P. 1
Curso elemental de probabilidad y estadistica

Curso elemental de probabilidad y estadistica

|Views: 88|Likes:

More info:

Published by: Emmanuel Fuentes Peña on Feb 14, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

09/20/2015

pdf

text

original

Sections

  • 1.1. Introducci´on
  • 1.2. Probabilidad
  • 1.3. An´alisis combinatorio
  • 1.4. Probabilidad condicional e independencia
  • 1.5. Variables aleatorias
  • 1.6. Funciones de densidad y de distribuci´on
  • 1.7. Esperanza, varianza, momentos
  • 1.8. Distribuciones de probabilidad
  • 1.9. Vectores Aleatorios
  • 2.1. Introducci´on
  • 2.2. Variables y tipos de datos
  • 2.3. Estad´ıstica descriptiva
  • 2.4. Muestras aleatorias y estad´ısticas
  • 2.5. Estimaci´on puntual
  • 2.6. Estimaci´on por intervalos
  • 2.7. Pruebas de hip´otesis
  • Ejercicios
  • Soluciones
  • Formulario

Curso elemental de PROBABILIDAD Y ESTAD´ ISTICA

Luis Rinc´n o Departamento de Matem´ticas a Facultad de Ciencias UNAM Circuito Exterior de CU 04510 M´xico DF e Versi´n: Diciembre 2007 o

Una versi´n actualizada del presente texto se encuentra disponible en formato o electr´nico en la direcci´n o o http://www.matematicas.unam.mx/lars

Pr´logo o
El presente texto constituye el material completo del curso semestral de Probabilidad y Estad´ ıstica, impartido por el autor a alumnos de la licenciatura en ciencias de la computaci´n en la Facultad de Ciencias de la UNAM. Contiene el teo mario b´sico para un curso elemental e introductorio a algunos temas tradicionales a de la probabilidad y la estad´ ıstica, as´ como una colecci´n de ejercicios. Algunos ı o de estos ejercicios aparecen a lo largo del texto como parte de la lectura, y una colecci´n m´s extensa aparece al final del libro incluyendo algunas soluciones o o a sugerencias para resolverlos. El texto est´ dirigido de manera general a alumnos de las distintas carreras de a ingenier´ ciencias de la computaci´n, y otras carreras cient´ ıa, o ıficas similares, cuyos programas de estudio contemplan un semestre introductorio a estos temas. Como es natural en este tipo de cursos, no se hace ´nfasis en el rigor matem´tico de la e a demostraci´n de los resultados, sino en el uso, interpretaci´n y aplicaci´n de ´stos. o o o e Como prerequisitos para una lectura provechosa de este material, se requiere, en determinados momentos, tener cierta familiaridad con algunos conceptos elementales de ´lgebra y del c´lculo diferencial e integral. El texto fue escrito en el sistema a a A L TEX, y la mayor´ de las ilustraciones fueron elaboradas usando el paquete psıa tricks. El autor agradece cualquier comentario, sugerencia o correcci´n enviada al correo o electr´nico que aparece abajo. o Luis Rinc´n o Diciembre 2007 Ciudad Universitaria UNAM lars@fciencias.unam.mx

Contenido

1. PROBABILIDAD 1.1. Introducci´n . . . . . . . . . . . . . . . . . o 1.2. Probabilidad . . . . . . . . . . . . . . . . 1.3. An´lisis combinatorio . . . . . . . . . . . a 1.4. Probabilidad condicional e independencia 1.5. Variables aleatorias . . . . . . . . . . . . . 1.6. Funciones de densidad y de distribuci´n . o 1.7. Esperanza, varianza, momentos . . . . . . 1.8. Distribuciones de probabilidad . . . . . . 1.9. Vectores Aleatorios . . . . . . . . . . . . . 2. ESTAD´ ISTICA 2.1. Introducci´n . . . . . . . . . . . . o 2.2. Variables y tipos de datos . . . . 2.3. Estad´ ıstica descriptiva . . . . . . 2.4. Muestras aleatorias y estad´ ısticas 2.5. Estimaci´n puntual . . . . . . . . o 2.6. Estimaci´n por intervalos . . . . o 2.7. Pruebas de hip´tesis . . . . . . . o A. Ejercicios B. Soluciones C. Formulario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

5 6 13 20 28 35 39 45 52 74 83 84 84 86 88 89 93 99 107 139 167

3

4 Contenido .

u ¿C´mo debe dividirse el total de la apuesta si el juego se suspende? o Uno de los apostadores. Pascal a su vez consulta con Pierre de Fermat (1601o 1665) e inician un intercambio de cartas a prop´sito del problema. popularmente conocido como el caballero De Mere. n 5 . distinto u uno del otro.Parte 1 PROBABILIDAD En esta primera mitad del curso estudiaremos algunos conceptos elementales de la teor´ matem´tica de la probabilidad. Con ello se inician algunos esfuerzos por dar soluci´n a ´ste y otros n o e problemas similares que se plantean. deseando conocer la respuesta al problema plantea a Blaise Pascal (1623-1662) la situaci´n. Esto sucede en o el a˜ o de 1654. Con el paso del tiempo se sientan las bases y las experiencias necesarias para la b´ squeda de una teor´ matem´tica que sinteu ıa a tice los conceptos y los m´todos de soluci´n de los muchos problemas particulares e o resueltos a lo largo de varios a˜ os. y apuestan 32 doblones de oro a que el n´ mero escogido por u uno de ellos aparece en tres ocasiones antes que el n´ mero del contrario u al lanzar sucesivamente un dado. Antonio de Gombaud. Esta teor´ tuvo como uno de sus primeros ıa a ıa puntos de partida el intentar resolver un problema particular concerniente a una apuesta de juego de dados entre dos personas. Suponga que el n´ mero de uno de los u jugadores ha aparecido dos veces y el n´ mero del otro una sola vez. El problema al que nos referimos involucraba una gran cantidad de dinero y puede plantearse de la siguiente forma: Dos jugadores escogen cada uno de ellos un n´ mero del 1 al 6.

1601–1665) En el segundo congreso internacional de matem´ticas. Esta teor´ o ıa ıa prevalece hoy en d´ y ha adquirido el calificativo de teor´ cl´sica.6 ´ 1.1. Introducci´n o La teor´ de la probabilidad es la parte de las matem´ticas que se encarga del ıa a estudio de los fen´menos o experimentos aleatorios. Por experimento aleatorio eno tenderemos todo aquel experimento que cuando se le repite bajo las mismas condiciones iniciales. Ha resultado util paa ´ ra resolver problemas puramente matem´ticos. El ejemplo m´s a sencillo y cotidiano de un experimento aleatorio es el de lanzar una moneda o un dado. a para modelar situaciones reales o imaginarias. el resultado que se obtiene no siempre es el mismo. en 1933. 1. pero sobre todo y principalmente. Kolmogorov (1903-1987) propone ciertos axiomas que a la postre resultaron adecuados para la construcci´n de una teor´ de la probabilidad. y aunque estos experimentos pueden parecer muy modestos. hay situaciones en donde se utilizan para tomar decisiones de cierta importancia. Aproximadamente treinta a˜ os despu´s. En principio no . en donde el azar es relevante.1. el matem´tico David Hilbert (1862-1943) plantea 23 problemas n a matem´ticos de importancia. y es sin duda ıdo una parte importante y bien establecida de las matem´ticas. celebrado en la ciudad de Paa ris en el a˜ o 1900. el matem´tico n e a ruso A. Introduccion Blaise Pascal (Francia. N. 1623–1662) Pierre de Fermat (Francia. Actualmente ıa ıa a la teor´ cl´sica de la probabilidad se ha desarrollado y extendido enormemente ıa a gracias a muchos pensadores que han contribu´ a su crecimiento. Uno de estos problemas es el de encontrar axiomas a o postulados a partir de los cuales se pueda construir una teor´ matem´tica de ıa a la probabilidad.

entonces claramente el espacio muestral es u el conjunto Ω = {1. Esta letra proviene del t´rmino sampling space de e la lengua inglesa equivalente a espacio muestral. entonces puede adoptarse como espacio muestral para este experimento el intervalo [0. C. 2. o Ejemplo. 3. Suponga que hay un mill´n de n´ meros en esta loter´ y un jugador participa con o u ıa un boleto. 4. que corresponde al suceso de obtener como resultado un n´ mero par. Si un experimento aleatorio consiste en lanzar un dado y observar el n´ mero que aparece en la cara superior. 5. Suponga que un experimento aleatorio consiste en observar el tiempo en el que una m´quina en operaci´n sufre su primera descompostura. 2. El espacio muestral (o tambi´n llamado espacio muestra de un experimento aleatorio es el conjunto de e todos los posibles resultados del experimento. Como ejemplo de un evento para este experimento podemos definir el conjunto A = {2. Si al lanzar el dado una vez se obtiene el n´ mero u u “4”. 4. . decimos que no se observ´ la ocurrencia del evento A. ¿Cu´l es un posible espacio muestral para este experimento? Naturala mente al jugador le interesa conocer su suerte en este juego y puede proponer como espacio muestral el conjunto Ω = {“ganar”. etc. y si se obtiene o por ejemplo el resultado “1”. Si se consideran a o mediciones continuas del tiempo. ∞). El subconjunto A = [1. Sin embargo puede tambi´n e tomarse como espacio muestral el conjunto que contiene a todos los posibles n´ meu ros ganadores. Por otro lado. 1000000}. 6}. B.Parte 1. “perder”}. . 6}. y se le denota generalmente por la letra griega Ω (omega). 2] corresponde al evento en el que la primera descompostura se observe entre la primera y la segunda unidad de tiempo. decimos entonces que se observ´ la ocurrencia del evento A. PROBABILIDAD 7 sabemos cu´l ser´ el resultado del experimento aleatorio. Este ejemplo sencillo muestra que el espacio muestral de un experimento aleatorio no es unico y depende del inter´s ´ e del observador. Considere el experimento aleatorio de participar en un juego de loter´ ıa. Ejemplo. En algunos textos se usa tambi´n la letra S e para denotar al espacio muestral. Con la ayuda de algunos u ejemplos ilustraremos a continuaci´n los conceptos de espacio muestral y evento. llamaremos evento a cualquier subconjunto del espacio muestral y denotaremos a los eventos por las primeras letras del alfabeto en may´ sculas: A. Ω = {1. . o Ejemplo. M´s adelante mostraremos que este conjunto no es necea sariamente unico y su determinaci´n depende del inter´s del observador o persona ´ o e que realiza el experimento aleatorio. es decir. . asi que por lo menos cona a viene agrupar en un conjunto a todos los resultados posibles. .

1 se muestran en o diagramas de Venn estas dos operaciones. y algunas propiedades que nos ser´n de utilidad en el estudio de la a probabilidad y la estad´ ıstica. el conjunto A−B es distinto de B −A. A − B se define como A∩B c . En general. Encuentre un espacio muestral para el experimento de observar la configuraci´n de m´quinas. denotamos la cardinalidad o n´ mero u de elementos de ese conjunto por el s´ ımbolo #A. ¿Es un espacio muestral finito o u infinito? Ejercicio. desde el punto de vista de uso o no uso. y cualquier elemento de Ω lo denotaremos por ω (omega min´ scula). recordaremos a continuaci´n algunas operaciones entre ıa o estos objetos. en un momento o a cualquiera del d´ ıa. Sean A y B dos subconjuntos cualesquiera de Ω. Operaciones con conjuntos. La diferencia entre dos conjuntos A y B se denota por A− B. Si A es un conjunto. Recordamos a continuaci´n las operaciones b´sicas de uni´n. o no contenci´n (⊂) de o o un conjunto en otro. El conjunto vac´ lo denotaremos u ıo por ∅. Suponga que se tiene en operaci´n una sala de c´mputo con 100 compuo o tadoras. En la Figura 1.1. o no pertenencia (∈) de / un elemento en un conjunto. Encuentre un espacio muestral para el experimento aleatorio de observar el marcador final de un juego de f´ tbol soccer. o A∩B A−B Ac {ω ∈ Ω : ω ∈ A y ω ∈ B}. A ∪ B. {ω ∈ Ω : ω ∈ A y ω ∈ B}. / {ω ∈ Ω : ω ∈ A}. A ∩ B. Puesto que los conceptos de espacio muestral y evento involucran forzosamente la terminolog´ de conjuntos. se lee o o “A o B” y la intersecci´n. de hecho estos conjuntos son siempre ajenos. Introduccion Ejercicio. / Cuando los conjuntos se expresan en palabras. Otros s´ ımbolos usuales son los de pertenencia (∈). y los de contenci´n (⊂. Supondremos que el espacio muestral Ω de un experimento aleatorio es una especie de conjunto universal.8 ´ 1. o a o intersecci´n. la operaci´n uni´n. se lee “A y B”. es decir. ⊆). diferencia y complemento: o A∪B = = = = {ω ∈ Ω : ω ∈ A ´ ω ∈ B}. y corresponde a aquel conjunto de elementos de A que no pertenecen a B. ¿Puede usted comprobar tal afirmaci´n? ¿En qu´ caso ambos o e conjuntos coinciden? Por otro lado el complemento de un conjunto A se denota .

Considere los subconjuntos de n´ meros reales A = {x ∈ R : x2 ≤ 1} y u B = {x ∈ R : x > 0}. mientras que el conjunto A ∩ B c est´ constituido por aquellas personas que tienen hijos pero no estan caa sadas. Mediante un diagrama de Venn ilustramos gr´ficamente las operaciones de a diferencia y complemento en la Figura 1. ¿A cu´l pertenece usted? o a Ejercicio. entonces B c ⊆ Ac .1: por Ac y se define como la colecci´n de aquellos elementos de Ω que no pertenecen o a A. Sea A el conjunto de aquellas personas que tienen hijos. PROBABILIDAD 9 B A B A Ω A∪B A∩B Ω Figura 1. Entonces el conjunto A ∩ B consta o de aquellas personas que estan casadas y tienen hijos.Parte 1. Encuentre y represente en el eje real los conjuntos: A ∪ B. Ejercicio.2: Ejemplo. A∩B c . Demuestre que si A ⊆ B. . Ac ∩B ´ Ac ∩B c . A B A Ω A−B A c Ω Figura 1. ¿Qui´n es Ac ∩ B? Observe que cada persona es un elemento de alguno de e los siguientes conjuntos: A∩B.2. y B la colecci´n de aquellas personas que estan casadas.

A ∩ ∅ = ∅. esto o o es. A ∩ Ac = ∅.3 ilustramos gr´ficamente el conjunto resultante de efectuar la diferencia a sim´trica entre los conjuntos A y B. es decir. e A ∪ (B ∩ C) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C). Visualmente es f´cil comprobar que la difee a rencia sim´trica tambi´n puede escribirse como (A − B) ∪ (B − A). y definida como sigue: A△B = (A ∪ B) − (B ∩ A). = (A ∪ B) ∩ (A ∪ C). Recordemos tambi´n la operaci´n diferencia sim´trica entre dos conjuntos A y B. A ∪ Ω = Ω. satisfacen las siguientes igualdades: A ∪ (B ∪ C) A ∩ (B ∩ C) y tambi´n son distributivas. ´ 1. ¿Puede usted escribir estas identidades para n conjuntos? .1. = (A ∩ B) ∩ C. ¿C´mo podr´ e e o ıa expresarse en palabras al conjunto A△B? A B Ω A△B Figura 1.10 A ∩ B.3: Recordemos adem´s las muy utiles leyes de De Morgan: a ´ (A ∪ B)c (A ∩ B) c = Ac ∩ B c . A ∩ Ω = A. = (A ∪ B) ∪ C. A − B y B − A. e o e denotada por A△B. Introduccion Es f´cil verificar que el conjunto vac´ y el conjunto total satisfacen las siguientes a ıo propiedades elementales: A ∪ ∅ = A. = Ac ∪ B c . Las operaciones uni´n e intersecci´n son asociativas. En la Figura 1. A ∪ Ac = Ω. La validez de estas dos igualdades puede extenderse a colecciones finitas e incluso arbitrarias de conjuntos.

Conjunto potencia. Dibujar un diagrama de Venn podr´ ayudar a entender la situaci´n. . ¿Son los conjuntos A y B ajenos? Este concepto puede extenderse al caso cuando se tienen varios conjuntos. Compruebe que la colecci´n de o conjuntos: A ∩ B. 5. . ıa o Ejercicio. B = {2. Compruebe matem´ticamente que si n conjuntos son ajenos. An son ajenos si A1 ∩ · · · ∩ An = ∅. Decimos que dos conjuntos A y B son ajenos (o disjuntos) si se cumple la igualdad A ∩ B = ∅. Ejercicio. entonces los conjuntos A = {1. Por ejemplo. estos ıo. el conjunto A ∩ B no es vac´ Es decir. {a. 4} son ajenos pues no hay ning´ n elemento com´ n entre ellos. a saber. 2}. . {a. y que . Por ejemplo. {a}. . si Ω = {1. b. 2Ω = {∅. Decimos que n conjuntos A1 . para cualquier conjunto A. Ac ∩ B. {b. y se dice que son ajenos dos a dos (o mutuamente ajenos) si Ai ∩ Aj = ∅ para cualesquiera valores de los ´ ındices i. y B es el intervalo [0. Suponga que A es el conjunto de ra´ ıces de la ecuaci´n cuadr´tica x2 − o a x − 2 = 0. c}. El conjunto potencia de Ω. los conjuntos A y B son ajenos cuando no existe un elemento que pertenezca tanto a A como a B. . 2. 3} y C = {3. 3]. {b}. 2} y B = {3. PROBABILIDAD 11 Conjuntos ajenos. 4. denotado por 2Ω . El ejemplo general m´s importante de u u a conjuntos o eventos ajenos es la pareja dada por A y Ac . . 6}. por ejemplo. b}. es decir. Existe diferencia en estas dos definiciones y explicaremos la situaci´n con el siguiente ejemplo: Los conjuntos o A = {1. es aquel conjunto cuyos elementos son todos los subconjuntos posibles de Ω. c}. entonces a son ajenos dos a dos. b. con i distinto de j. {a. . Las siguientes operaciones entre conjuntos no son elementales y producen nuevos conjuntos que se encuentran en un nivel distinto al de los conjuntos originales. 2. pero no son ajenos dos a dos pues. n. c}. Sean A y B dos conjuntos cualesquiera. Ejercicio. j = 1. A ∩ B c y Ac ∩ B c son ajenos dos a dos. c}}. entonces el conjunto 2Ω consta de 8 elementos. Observe que los elementos del conjunto potencia son en si mismos conjuntos. {c}. si Ω = {a.Parte 1. 3. conjuntos son ajenos en el sentido de que la intersecci´n de todos ellos es vac´ o ıa pero no son ajenos dos a dos. 4} son ajenos pues A ∩ B ∩ C = ∅. .

De este hecho proviene la notaci´n usada para el conjunto o potencia: 2Ω . b3 )}. b). b1 ).12 ´ 1. No es dif´ demostrar que #(2Ω ) = 2#Ω . y). ambos tienen el mismo n´ mero de elementos. . b) es distinta de (b. Observe que la expresi´n 2Ω no tiene sentido matem´tico. En general los conjuntos producto A × B y B × A son distintos pues la pareja (a. Por ejemplo.. entonces la cardinalidad del conjunto u A×B es el producto n·m. puede considerarse el producto a a Cartesiano de n conjuntos y comprobarse que #(A1 × · · · × An ) = #A1 · · · #An . Para el ejemplo anterior se comprueba que la cardinalidad de 2Ω es efectivamente 2#Ω = 23 = 8. de subconjuntos del espacio muestral que se obtienen al estudiar los diversos expe- . Rn . b2 ). b3 ). y b es cualquier elemento de B. b2 ). es decir. 1}. esto es. Ejercicio. (a1 . si la cardinalidad de u a u A es el n´ mero n. b) : a ∈ A y b ∈ B}. . A × B = {(a. ¿Cu´ntos elementos tiene A × · · · × A? a n Concluimos aqu´ nuestra r´pida y breve revisi´n de conjuntos. . sin embargo ambos conjuntos tienen la misma cardinalidad. denotado por A × B. A este conjunto producto se le denota usualmente por R2 . a). y debe o a considerarse como un s´ ımbolo para denotar al conjunto potencia. R4 . . en donde a es cualquier elemento de A. es decir. Introduccion en esta colecci´n estan contenidos todos los eventos que podr´ ser de inter´s en un o ıan e experimento aleatorio. Ejemplo. Recordemos que ı a o estamos interesados en calcular probabilidades de los diferentes eventos. b3 }. Sea Ω = {a}. y la cardinalidad de B es m. Este resultado es llamado principio de multiplicaci´n que o usaremos m´s adelante. a Ejercicio. (a2 . ¿Qui´n es 2Ω ? e Producto Cartesiano. M´s a´ n. . se define como la colecci´n de todas las o parejas ordenadas (a. b1 ). el n´ mero ıcil u de elementos en el conjunto 2Ω es exactamente 2 elevado a la potencia dada por la cardinalidad de Ω. . Sea A = {0. El producto Cartesiano R × R es el conjunto de todas las parejas de n´ meros reales (x. b2 .1. En s´ ımbolos. (a1 . (a2 . (a2 . a2 } y B = {b1 . u An´logamente se construyen los conjuntos R3 . si A = {a1 . Finalmente recordemos que el producto Cartesiano de dos conjuntos A y B. entonces A × B = {(a1 . Un poco m´s generalmente.

en las n realizaciones del experimento. Sea A un subconjunto de un espacio muestral Ω de cardinalidad finita. unicamente necesitamos contar cu´ntos elementos tiene A res´ a pecto del total Ω. el espacio Ω debe ser equiprobable. 6}. 4. 4. Claramente esta definici´n es s´lo v´lida para espacios muestrales finitos. a 1. Suponga que se realizan n repeticiones de un cierto experimento aleatorio y sea A un evento cualquiera. 6} 6 2 Probabilidad frecuentista. Adem´s. #Ω en donde el s´ ımbolo #A denota la cardinalidad o n´ mero de elementos del conu junto A. 5. 5. es decir. o ´ Probabilidad clasica. 2. y representa una medida de la frecuencia con la que se observa la ocurrencia del evento A cuando se efect´ a el experimento aleatorio en cuesu ti´n. #{1. Se u define entonces la probabilidad frecuentista de A como indica el siguiente l´ ımite P (A) = l´ ım n→∞ n(A) . Denotemos por n(A) el n´ mero de ocurrencias del evento A. 6}. 3. pues para calcular la probabilidad a de un evento A. Probabilidad La probabilidad de un evento A.2. 6} 3 1 P (A) = = = . Se define la probabilidad cl´sica del evento A como el cociente: a P (A) = #A . PROBABILIDAD 13 rimentos aleatorios.Parte 1. es un n´ mero real en el intervalo [0. Por e lo tanto. la probabilidad de A = {2. u entonces #{2. sin importar exactamente qu´ elementos particulares sean. 1] que denou taremos por P (A). y si deseamos calcular la probabilidad (cl´sica) del evento A a correspondiente a obtener un n´ mero par. 3. n . En la siguiente secci´n estudiaremos algunas formas de definir o matem´ticamente la probabilidad de un evento. esta definici´n de probabilidad presupone que todos los elementos de o Ω son igualmente probables o tienen el mismo peso. o o a pues forzosamente necesitamos suponer que el n´ mero de elementos en Ω es finiu to. Este es el caso por ejemplo de un dado equilibrado. 4. Para este experimento el espacio muestral es el conjunto Ω = {1. 2. 4. Existen al menos cuatro definiciones de probabilidad las cuales explicamos a o continuaci´n.

1 2 3 4 5 6 7 8 9 10 Resultado 3 6 2 1 4 6 3 4 2 5 n(A)/n 0/1 1/2 2/3 2/4 3/5 4/6 4/7 5/8 6/9 6/10 No. pero o o tiene algunas ventajas.2. 4. Veamos un ejemplo concreto.14 1. ı e e n(A)/n 1/2 n 2 4 6 8 10 12 14 16 18 20 Figura 1. 11 12 13 14 15 16 17 18 19 20 Resultado 2 5 1 6 3 1 5 5 2 6 n(A)/n 7/11 7/12 7/13 8/14 8/15 8/16 8/17 8/18 9/19 10/20 En la gr´fica de la Figura 1. no es dif´ creer que el cociente n(A)/n u ıcil se estabiliza en 1/2 cuando n es grande y el dado es equilibrado. Esta limitaci´n hace que esta definici´n de probabilidad no sea enteramente formal. Despu´s de lanzar el dado 20 veces se e obtuvieron los siguientes resultados: No. Realizando un mayor u n´ mero de observaciones del experimento. de modo que en la pr´ctica no es posible a encontrar mediante este mecanismo la probabilidad de un evento cualquiera. 6}. debemos hacer notar que no es humanamente posible llevar a cabo una infinidad de veces el experimento aleatorio.4: .4 se muestra el singular comportamiento de este cociente a a lo largo del tiempo. Consideremos nuevamente el experimento aleatorio de lanzar un dado equilibrado y registrar la ocurrencia del evento A definido como el conjunto {2. al principio se pueden presentar algunas oscilaciones pero eventualmente el cociente se estabiliza en un cierto n´ mero. Se invita al lector intrigado a efectuar un experimento similar y corroborar esta interesante regularidad estad´stica con ´ste o cualquier otro experimento aleatorio de su inter´s. Probabilidad En este caso.

P (A ∪ B) = P (A) + P (B). P (Ω) = 1. En la definici´n axiom´tica de la probabilidad no o a se establece la forma expl´ ıcita de calcular las probabilidades sino unicamente se ´ proponen las reglas que el c´lculo de probabilidades debe satisfacer. cuando A ∩ B = ∅. En este caso la probabilidad de un evento depende del observador. De hecho. sin embargo. u o Puede parecer un tanto informal y poco seria esta definici´n de la probabilidad de o un evento. . Kolmogorov. N.Parte 1. las condiciones del equipo rival o cualquier otra condici´n externa. Kolmogorov (Rusia. A. a N. ser consistente con una serie de reglas naturales que estudiaremos a continuaci´n. sin embargo en muchas situaciones es necesario recurrir a un experto para tener por lo menos una idea vaga de c´mo se comporta el fen´meno de nuestro o o inter´s y saber si la probabilidad de un evento es alta o baja. P (A) ≥ 0. seg´ n lo que el observador conoce del fen´meno en estudio. Esta forma subjetiva ıan a de asignar probabilidades a los distintos eventos debe. Los siguientes a tres postulados o axiomas1 fueron establecidos en 1933 por el matem´tico ruso A. ¿Cu´l e a es la probabilidad de que un cierto equipo de f´ tbol gane en su pr´ximo partido? u o Ciertas circunstancias internas del equipo. son elementos que s´lo algunas personas conocen y o o que podr´ darnos una idea m´s exacta de esta probabilidad. 3. estos postulados han sido tomados directamente del an´lisis a 1 Un postulado o axioma es una proposici´n que se acepta como v´lida y sobre la cual se funda o a una teor´ ıa. o ´ Probabilidad axiomatica. es decir. Por ejemplo. 1903–1987) No es dif´ verificar que las definiciones anteriores de probabilidad satisfacen estos ıcil tres axiomas. PROBABILIDAD 15 Probabilidad subjetiva. Axiomas de la probabilidad 1. 2.

A B Ω Figura 1. usando la propiedad anterior. Las siguientes dos proposiciones suponen la situaci´n A ⊆ B que se muestra gr´fio a camente en la Figura 1. P (Ac ) = 1 − P (A). o simplemente probabilidad. tenemos que P (∅) = o P (Ωc ) = 1 − P (Ω) = 0.5. o Demostraci´n.2. De la teor´ elemental de conjuntos tenemos que Ω = A ∪ Ac . P (B) = P (A) + P (B − A). Proposici´n. como P (Ω) = 1. entonces P (A) ≤ P (B). P (Ω) = P (A)+P (Ac ). . En particular. Primeramente escribimos B = A ∪ (B − A). P (∅) = 0. observe que el tercer axioma es v´lido no s´lo para dos eventos a o ajenos sino para cualquier colecci´n finita de eventos ajenos dos a dos. por el tercer axioma. o Demostraci´n. Como ∅ = Ωc . Como A y B − A o son eventos ajenos. Como o ıa A y Ac son eventos ajenos. Proposici´n. Usando el primer axioma concluimos que P (B) − P (A) = P (B − A) ≥ 0. De aqui obtenemos P (B) − P (A) ≥ 0. por el tercer axioma. Si A ⊆ B. A partir de estos postulados es posible demostrar que la probabilidad cumple con una serie de propiedades interesantes. Finalmente. Para cualquier evento A. Probabilidad cuidadoso y reflexivo de las definiciones de probabilidad mencionadas anteriormente. Proposici´n. A cualquier o funci´n P que satisfaga los tres axiomas de Kolmogorov se le llama medida de o probabilidad.16 1. o Demostraci´n.5: A ⊆ B. por el segundo axioma obtenemos P (Ac ) = 1 − P (A).

Ahora aplicamos la probabilidad. La otra desigualdad. Si A ⊆ B. Pero A ∩ B ⊆ A.Parte 1. es simplemente el primer axioma. se tiene que P (A) ≤ P (Ω) = 1.6. siendo esta uni´n ajena. entonces P (B − A) = P (B) − P (A).9 y P (B c ) = 0. . Proposici´n. Demostraci´n. por el tercer o o axioma tenemos que P (B) = P (A) + P (B − A). o P (A ∪ B) = P (A) + P (B) − P (A ∩ B). o 0 ≤ P (A). 0 ≤ P (A) ≤ 1. Entonces escribimos a A ∪ B como la uni´n disjunta de los siguientes tres eventos: o A∪B = = (A − B) ∪ (A ∩ B) ∪ (B − A) (A − A ∩ B) ∪ (A ∩ B) ∪ (B − A ∩ B). P (A ∪ B) = P (A − A ∩ B) + P (A ∩ B) + P (B − A ∩ B). o Demostraci´n. de modo que P (A − A ∩ B) = P (A) − P (A ∩ B). Por lo tanto P (A ∪ B) = P (A) + P (B) − P (A ∩ B). Proposici´n. Compruebe que P (B − A) = 0. Primeramente observamos que para cualesquiera eventos A y B se o cumple la igualdad A − B = A − (A ∩ B). Ejercicio. Para cualesquiera eventos A y B. Por el tercer axioma. An´logamente a P (B − A ∩ B) = P (B) − P (A ∩ B). Sean A ⊆ B eventos tales que P (Ac ) = 0. Como B = A ∪ (B − A).3. Para cualquier evento A. Como A ⊆ Ω. PROBABILIDAD Proposici´n. o 17 Demostraci´n.

Compruebe que P (A ∪ B) = 0. El siguiente resultado es una generalizaci´n del anterior o e involucra tres eventos cualesquiera. El t´rmino P (A) e abarca las primeras dos regiones de izquierda a derecha. cuando A ∩ B = ∅. Para cualesquiera eventos A. Proposici´n. B y C. P (B) abarca la segunda y tercera regi´n. La f´rmula que a continuaci´n se demuestra o o puede tambi´n verificarse usando el diagrama de Venn que aparece en la Fig 1. Sean A y B eventos ajenos tales que P (B) = 0.6: Ejercicio.2.18 1. . Probabilidad En la Figura 1. A B A B Ω (a) A ∪ B C (b) A ∪ B ∪ C Ω Figura 1. En o a particular. De esta forma las tres regiones e son contadas una sola vez y el resultado es la probabilidad del evento A ∪ B.5.3 y P (A ∩ B c ) = 0. Observe entonces que la regi´n central ha sido contada dos veces de o o modo que el t´rmino −P (A ∩ B) da cuenta de ello. cuando son conjuntos ajenos. es decir. o P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) −P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C). e Para ello siga los t´rminos del lado derecho de la f´rmula y compruebe que cada e o regi´n es contada una sola vez de modo que el resultado final es la probabilidad o del evento A ∪ B ∪ C.6 (b). es decir. o P (A ∪ B) = P (A) + P (B). entonces la f´rmula demostrada se reduce al tercer axioma de la probabilidad.2. Observe que la f´rmula anterior es v´lida para cualesquiera eventos A y B.6 (a) el lector puede comprobar la validez de la f´rmula anterior o identificando las tres regiones ajenas de las que consta A ∪ B.

A manera de resumen presentamos a continuaci´n una tabla con las a o propiedades de la probabilidad que hemos demostrado. supondremos que la forma expl´ ıcita de calcular estos n´ meros es u conocida. Usando la f´rmula para dos eventos y agrupando adecuadamente. Regresaremos a este punto m´s adelante. Las propiedades anteriores son parte del estudio te´rico y general de la probabilio dad. Por ejemplo. cuando el espacio o muestral es finito y cada resultado puede suponerse igualmente probable.Parte 1. entonces usaremos la definici´n cl´sica de probabilidad. En general. entonces P (B − A) = P (B) − P (A). g) P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) −P (B ∩ C) + P (A ∩ B ∩ C). a partir de las propiedades enunciadas y demostradas. Algunas propiedades de la probabilidad a) P (Ac ) = 1 − P (A). entonces P (A) ≤ P (B). Esperamos que. f) P (A ∪ B) = P (A) + P (B) − P (A ∩ B). e) 0 ≤ P (A) ≤ 1. c) Si A ⊆ B. PROBABILIDAD 19 Demostraci´n. En otras situaciones asignaremos o a probabilidades de acuerdo a ciertos modelos conocidos. o que se puede suponer un cierto modelo para llevar a cabo estos c´lculos a dependiendo del experimento aleatorio en cuesti´n. b) P (∅) = 0. d) Si A ⊆ B. el lector haya desarrollado cierta habilidad e intuici´n para escribir la demostraci´n de alguna otra o o . o o P (A ∪ B ∪ C) = P [(A ∪ B) ∪ C] = P (A ∪ B) + P (C) − P ((A ∪ B) ∩ C) = P (A) + P (B) − P (A ∩ B) + P (C) − P ((A ∩ C) ∪ (B ∩ C)) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) +P (A ∩ B ∩ C).

20 ´ 1. es com´ n enfrentar situaciones en donde no es factible escribir en u una lista cada elemento de A. es decir. ı 1. An´lisis combinatorio a Consideraremos ahora el caso cuando el experimento aleatorio es tal que su espacio muestral es un conjunto finito y cada elemento de este conjunto tiene la misma probabilidad de ocurrir. Analisis combinatorio propiedad de la probabilidad. si A1 . ¿Cu´ntos n´ meros telef´nicos existen a u o que contengan por lo menos un cinco? Es poco factible que alguien intente escribir uno a uno todos estos n´ meros telef´nicos. Por ejemplo. En estos casos hemos definido la probabilidad cl´sica de un evento A de la siguiente a forma P (A) = #A/#Ω. Otras propiedades sencillas pueden encontrarse en la secci´n de ejercicios. es decir. entonces es f´cil conocer a la cardinalidad de A. El principio de multiplicaci´n que enunciamos a o continuaci´n es la base de muchos de los c´lculos en las t´cnicas de conteo. . Para poder aplicar esta definici´n necesitamos saber contar o cu´ntos elementos tiene un evento A cualquiera. Para ilustrar este resultado considere el siguiente ejemplo. En las siguientes secciones estudiaremos u o algunas t´cnicas de conteo que nos ayudar´n a calcular la cardinalidad de un evento e a A en ciertos casos particulares. Suponga que un cierto experimento aleatorio consiste en seleccionar un dado y despu´s seleccionar al azar e una letra del alfabeto. Sin embargo. . Cuando podemos poner en una a lista todos y cada uno de los elementos de dicho conjunto. cuando el espacio Ω es finito y equiprobable. Por ejemplo.3. #(A1 × A2 ) = #A1 · #A2 . Si un procedimiento A1 puede efectuarse de n formas distintas y o un segundo procedimiento A2 puede realizarse de m formas diferentes. A2 . . Debemos tambi´n decir que las demostraciones no son unicas. Ak denotan k procedimien- . ¿Cu´l es la cardinalidad del correspondiente espacio muesa tral? El experimento de lanzar un dado tiene 6 resultados posibles y consideremos que tenemos un alfabeto de 26 letras. El correspondiente espacio muestral tiene entonces cardinalidad 6 × 26 = 156. o a e Proposici´n. o e ´ y que es altamente probable que el lector pueda producir alguna demostraci´n o diferente a las que aqu´ se han presentado. El principio de multiplicaci´n es v´lido no o a solamente para dos procedimientos sino que tambi´n vale para cualquier sucesi´n e o finita de procedimientos. simplemente contamos todos los elementos uno por uno. . entonces el total de formas en que puede efectuarse el primer procedimiento seguido del segundo es el producto n · m.3.

Se dice que la muestra es con orden pues es importante el orden en el o que se van obteniendo los objetos. registramos o el objeto escogido y lo regresamos a la urna. Suponga entonces que tenemos una urna con n objetos distintos. Ejemplo. uno a la vez. Suponga que tenemos un conjunto de 60 caracteres diferentes que contiene todas las letras min´ sculas del alfabeto.7. ¿De cu´ntas formas distintas puede el hombre vestirse con estas prendas? a Vamos a considerar a continuaci´n diferentes esquemas y contextos en donde es o posible encontrar una f´rmula matem´tica para ciertos problemas de conteo. n objetos urna k objetos muestra Figura 1. pues en cada extracci´n tenemos n objetos u o posibles para escoger y efectuamos k extracciones. A este n´ mero se le llama ordenaciones o u con repetici´n. entonces este principio se puede enunciar en s´ ımbolos de la forma siguiente: #(A1 × · · · × Ak ) = #A1 · · · #Ak . El esquema general es el de o extraer al azar k objetos. los diez d´ u u ıgitos . En o a todos ellos aplicaremos el principio de multiplicaci´n. Un hombre tiene 4 pantalones distintos.7: ´ Ordenaciones con repeticion: Muestras con orden y con reemplazo. Esta f´rmula es consecuencia del o principio de multiplicaci´n enunciado antes. El total de arreglos que se pueden obtener de esta urna al ıdo hacer k extracciones es el n´ mero nk . Al efectuar una extracci´n. y es con reemplazo pues cada objeto seleccionado se reincorpora a la urna. Deseamos realizar k extracciones al azar de un objeto a la vez. Esto se muestra en la Figura 1. Ejercicio. de una urna con n objetos distintos. de esta forma el mismo objeto puede ser extra´ varias veces. las letras may´ sculas. 6 camisas.Parte 1. PROBABILIDAD 21 tos sucesivos. y dos pares de zapatos.

(n − k)! y se lee permutaciones de n en k.22 ´ 1. entonces se tienen todas las permutaciones o distintos ´rdenes en que o se pueden colocar n objetos. una urna con n objetos y de los o cuales se deben extraer. Ejemplo. Suponga esta vez que el muestreo es sin reemplazo. La expresi´n encontrada puede escribirse como o sigue: n! P (n. k) = . En un partido de f´ tbol hubo 4 goles en el marcador final. ¿Cu´ntas u a historias distintas de marcadores llevan a un marcador final donde hay 4 goles? Soluci´n: 16. una vez seleccionado un objeto ´ste ya no se reincorpora e a la urna. Como o cada caracter de los 60 disponibles puede ser escogido para ser colocado en cada una de las cuatro posiciones de la palabra clave. entonces se pueden construir 60 × 60 × 60 × 60 = 604 = 12. segundo y tercero en una rifa de 10 boletos numerados del 1 al 10? Claramente se trata de una ordenaci´n sin repetici´n de 10 objetos en donde se deben extraer 3 de o o . Este razonamiento termina al escoger el k-´simo objeto para cual tenemos e unicamente n − k + 1 posibilidades. o ´ Ordenaciones sin repeticion: Muestras con orden y sin reemplazo. Diez personas votar´n por uno de tres candidatos. la ´ respuesta es el producto indicado. o para la segunda posici´n tenemos ahora n − 1 objetos. es decir. ¿De cuantas formas distintas pueden asignarse los premios primero. Ejercicio. para la tercera n − 2 objeo tos.3. o Ejercicio. Suponga que se tiene la misma situaci´n que antes. ¿De cu´ntas formas a a distintas pueden los votos ser registrados uno por uno? Soluci´n: 59049. o bien cuando todos los objetos son extra´ ıdos uno por uno. 960. ¿Cu´ntos passwords o palabras clave de longitud a 4 se pueden construir usando el conjunto de 60 caracteres? Este es un ejemplo de una ordenaci´n de 60 caracteres en donde se permiten las repeticiones. cuando k = n. 000 distintos passwords de longitud 4. uno a uno. etc. k objetos. Nuevamente por el principio multiplicativo. En el caso particular cuando la muestra es exhaustiva. El primer factor es n y ello es debido a o que tenemos cualesquiera de los n objetos para ser colocado en primera posici´n. Analisis combinatorio y algunos caracteres especiales. Primeramente debemos observar que u hay k factores en la expresi´n anterior. El total de arreglos distintos que se pueden obtener de este modo es el n´ mero: n(n − 1)(n − 2) · · · (n − k + 1). es decir.

La novela Rayuela del escritor argentino Julio Cort´zar contiene 56 a cap´ ıtulos que aparentemente pueden ser le´ ıdos en cualquier orden. o o etc. Es decir. Ejercicio. o Observe que las permutaciones de n objetos es un caso particular de la situaci´n o mencionada en la secci´n anterior sobre ordenaciones sin repetici´n pero ahora o o cuando la muestra es exhaustiva. o u Ejercicio. restan entonces tres posibilidades para la tercera posici´n. ¿De cu´ntas formas distintas pueden dos equipos de f´ tbol terminar en a u la clasificaci´n general de un torneo en donde compiten 20 equipos? Soluci´n: 380. quedan cuatro libros por colocar en la segunda posici´n. y se u e usa la notaci´n P (n) = n! Adicionalmente y por conveniencia se define 0! = 1. y adem´s la muestra debe verse como un conjunto pues no debe a haber orden entre sus elementos. La respuesta es entonces que existen 10 × 9 × 8 = 720 distintas asignaciones para los tres primeros lugares en la rifa.Parte 1. ¿Cu´ntas diferentes muestras podemos obtener a . denotado por n! y definido como sigue: n! = n(n − 1)(n − 2) · · · 3 · 2 · 1. cuando se extraen los n objetos de la urna. la respuesta es claramente u 5! = 5 × 4 × 3 × 2 × 1 = 120. La pregunta b´sica acerca del total de formas en que podemos poner en orden lineal a (uno detr´s de otro y por lo tanto no hay repetici´n) n objetos distintos tiene como a o respuesta el factorial de n. El razonamiento es el siguiente: Cualquiera de los cinco libros puede ser colocado al principio. A este n´ mero tambi´n se le conoce como las permutaciones de n objetos. pues no hay reemplazo. Supongamos nuevamente que tenemos un conjunto de n objetos distinguibles y nos interesa obtener una muestra de tama˜ o k. en la muestra no debe haber elementos repetidos. Ejemplo. Si deseamos conocer el total de formas distintas en que podemos colocar una enciclopedia de 5 vol´ menes en un librero. PROBABILIDAD 23 ellos. Por el principio de multiplicaci´n la respuesta es el producto de estos n´ meros. es decir. o o Permutaciones: Muestras exhaustivas con orden y sin reemplazo. Supongamos ahora que las muestras deben ser sin orden n y sin reemplazo. ¿De cu´ntas a formas distintas puede ser le´ esta novela? ıda Combinaciones: Muestras sin orden y sin reemplazo.

24

´ 1.3. Analisis combinatorio

de estas caracter´ ısticas? Para responder a esta pregunta seguiremos el siguiente razonamiento. Cuando el orden importa hemos encontrado antes la f´rmula o n! . (n − k)! Ahora que no nos interesa el orden, observamos que cada uno de los arreglos de la f´rmula anterior, est´ siendo contado k! veces, las veces en que los mismos k o a elementos pueden ser permutados unos con otros, siendo que el conjunto de elementos es el mismo. Para obtener arreglos en donde el orden no importa, debemos entonces dividir por k! La f´rmula a la que hemos llegado se llama combinaciones o de n en k, que denotaremos como sigue: n k = n! . k! (n − k)!

A este n´ mero tambi´n se le conoce con el nombre de coeficiente binomial de n en u e k, pues aparece en el famoso teorema del binomio:
n

(a + b)n =
k=0

n n−k k a b . k

Para los casos n = 2 y n = 3 el teorema del binomio se reduce a las siguientes f´rmulas que muy seguramente el lector conoce: o (a + b)2 (a + b)3 = = a2 + 2ab + b2 . a3 + 3a2 b + 3ab2 + b3 .

Ejemplo. ¿Cu´ntos equipos distintos de tres personas pueden escogerse de un grupo a de 5 personas? Observe que el orden de las tres personas escogidas no es importante de modo que la respuesta es 5 = 5!/(3! (5 − 3)!) = 10. 3 Ejercicio. En un popular juego de loter´ se pide adivinar los seis n´ meros que ser´n ıa u a escogidos al azar dentro del conjunto {1, 2, . . . , 49}. ¿Cu´l es el total de arreglos a con los cuales un jugador puede participar en este juego? Si se establece que un jugador obtiene un segundo lugar si acierta unicamente a cinco de los seis n´ meros ´ u seleccionados, ¿cu´ntos segundos lugares puede haber para una arreglo dado de a seis n´ meros? u

Parte 1. PROBABILIDAD

25

Ejercicio. Un cierto partido de f´ tbol termin´ con un marcador de 4-4. ¿De cu´ntas u o a formas distintas pudieron los equipos alternarse en anotar para llegar a tal resultado? Soluci´n: 70. ¿Cree usted que todos estos resultados son igualmente probables? o El coeficiente binomial es tambi´n una forma de generar las entradas del as´ llamado e ı tri´ngulo de Pascal, que puede observarse en Figura 1.8. a

1 1 1 1 1 1 1 6 5 4 3 6 10 10 15 20 15 2 3 4 5 6 1 1 1 1 1 1

Figura 1.8: El n-´simo rengl´n del tri´ngulo de Pascal, iniciando desde cero, contiene los coee o a ficientes del desarrollo de (a + b)n . Existe una forma sencilla de construir este tri´ngulo observando que cada uno de estos n´ meros, exceptuando los extremos, es a u la suma de los dos n´ meros inmediatos del rengl´n anterior. A este respecto v´ase u o e por ejemplo el Ejercicio 53 en la p´gina 112. a Coeficiente multinomial. Ahora consideremos que tenemos n objetos no necesariamente distintos unos de otros. Por ejemplo, supongamos que tenemos k1 objetos de un primer tipo, k2 objetos de un segundo tipo, y as´ sucesivamente, ı hasta km objetos del tipo m, en donde k1 + k2 + · · · + km = n. Estos n objetos pueden todos ordenarse uno detr´s de otro de tantas formas distintas como indica a el as´ llamado coeficiente multinomial: ı n k1 k2 · · · km−1 km = n! . k1 ! k2 ! · · · km−1 ! km !

Un razonamiento para obtener esta f´rmula es el siguiente. Si consideramos que o los n objetos son todos distintos, entonces claramente las distintas formas en que

26

´ 1.3. Analisis combinatorio

pueden escribirse todos estos objetos uno detr´s de otro es n! Pero para cada uno a de estos arreglos, los k1 objetos del primer tipo, supuestos inicialmente distintos cuando en realidad no lo son, pueden permutarse entre s´ de k1 ! formas diferentes, ı siendo que el arreglo total es el mismo. De aqui que debamos dividir por k1 ! Lo mismo sucede con los elementos del segundo tipo y as´ sucesivamente hasta los ı elementos del tipo m. El coeficiente multinomial aparece en la siguiente f´rmula: o (a1 + a2 + · · · + am )n = n ak1 ak2 · · · akm , m k1 · · · km 1 2 (1.1)

en donde la suma se efect´ a sobre todos los posibles valores enteros no negativos u de k1 , k2 , . . . , km , tales que k1 + k2 + · · ·+ km = n. Por ejemplo, compruebe el lector que la f´rmula (1.1) produce la siguiente expresi´n: o o (a + b + c)2 = a2 + b2 + c2 + 2ab + 2ac + 2bc. ¿Puede usted desarrollar (a + b + c)3 ? Es interesante observar que cuando hay unicamente dos tipos de objetos, el coeficiente multinomial se reduce al coeficiente ´ binomial. Muestras sin orden y con reemplazo. Finalmente consideremos el caso de hacer k extracciones de una urna de n objetos con las condiciones de que cada objeto extra´ es regresado a la urna (y entonces puede ser elegido nuevamente), ıdo y en donde el orden de la muestra no es relevante. Para encontrar una f´rmula para o el total de muestras que pueden obtenerse con estas caracter´ ısticas usaremos una modelaci´n distinta pero equivalente. Consideremos el arreglo de n casillas de la o Figura 1.9 junto con la siguiente interpretaci´n. o

××
1 2

×
3

×
4

··· ···
n−1

×
n

Figura 1.9: La primera casilla tiene dos cruces y eso indica que la bola uno fue seleccionada dos veces, la segunda casilla esta vac´ y ello significa que la bola dos no fue seleccionada, ıa etc. El n´ mero de cruces en la casilla i indica entonces el n´ mero de veces que la u u bola i fue seleccionada. En total debe haber k cruces pues es el total de extracciones. Deseamos entonces conocer el n´ mero de posibles arreglos que pueden obtenerse con u estas caracter´ ısticas, y debe ser claro, despu´s de algunos momentos de reflexi´n, e o que ´ste es el n´ mero de muestras de tama˜ o k, con reemplazo y sin orden, que se e u n

PROBABILIDAD 27 pueden obtener de un conjunto de n elementos distinguibles. A menudo los problemas de conteo son dif´ o ıciles de resolver y en algunos casos uno puede encontrar dos o mas “soluciones” distintas y aparentemente correctas. Debemos hacer ´nfasis sin embargo en que para resolver un o e problema de conteo en particular. cruz a o linea vertical. Muestras con orden con reemplazo nk n+k−1 k sin reemplazo n! (n − k)! n k sin orden . dejando en los lugares restantes las paredes movibles. tenemos la siguiente tabla de f´rmulas. El n´ mero total de estos arreglos es u n+k−1 k que equivale a colocar dentro de las n + k − 1 posiciones las k cruces. y a manera de resumen parcial. Consideremos que las dos paredes en los extremos de este arreglo son fijas. A veces ello se debe a que el problema no esta especificado de manera completa. ´ Resumen de formulas. Muy posiblemente el problema a en cuesti´n requiera de un razonamiento especial que involucre alguna combinaci´n o o de las f´rmulas encontradas. Consideremos adem´s que las posiciones intermedias. En el contexto de muestras de tama˜ o k tomadas de un n conjunto de cardinalidad n. En total hay n + k − 1 objetos movibles y cambiar de posici´n estos objetos produce las distintas configuraciones posibles que nos o interesan. no debemos clasificarlo forzosamente y de manera mec´nica en alguno de los esquemas mencionados. pueden moverse.Parte 1. estas paredes se encuentran ligeramente remarcadas.

denotada por P (A|B). 6}) P ({2}) 1/6 P (A|B) = = = = 1/3. Compruebe que P (A1 ∩ · · · ∩ An ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩ A2 ) · · · P (An |A1 ∩ · · · ∩ An−1 ). el cual por hip´tesis es equiprobable. Probabilidad condicional e independencia Los conceptos de probabilidad condicional e independencia surgieron de manera natural en el proceso de encontrar soluci´n a algunos problemas provenientes de o situaciones reales. La probabilidad condicional del evento A dado el evento B. P ({2. Ejemplo. 4. u Ejercicio. se define como sigue: P (A|B) = P (A ∩ B) . P (B) La expresi´n P (A|B) se lee probabilidad condicional del evento A dado el evento o B. . Probabilidad condicional. 6}) P ({2. Probabilidad condicional e independencia 1. . 5. . 4. 4. 3. 4.28 1.4. en general. Claramente el espacio muestral es Ω = {1. An eventos o tales que P (A1 ∩ · · · ∩ An−1 ) > 0. 6}. En esta secci´n estudiaremos estos conceptos y demostraremos o adem´s dos resultados de amplia aplicaci´n: el teorema de probabilidad total y el a o teorema de Bayes. las o probabilidades de los distintos eventos.4. . o simplemente probabilidad de A dado B. 6} = “Cae par”. Considere el experimento de lanzar un dado equilibrado. 2. Es claro que para que la definici´n o tenga sentido se necesita suponer que P (B) > 0. es decir. La siguiente f´rmula se llama regla del producto: Sean A1 . la probabilidad de obtener “2” es ahora 1/3. ha afectado la o probabilidad del evento A. . 4. dada la informaci´n que el resultado del dado o es un n´ mero par. y por otro lado no existe definici´n para P (A|B) cuando P (B) = 0. 6}) 3/6 Observe que conocer la informaci´n de la ocurrencia del evento B. Ilustraremos con un ejemplo el significado o de la probabilidad condicional y comprobaremos que el evento B representa informaci´n adicional acerca del experimento aleatorio que modifica. Sean o los eventos A = {2} y B = {2. Entonces P (A) = 1/6 mientras que P ({2} ∩ {2. Sean A y B dos eventos en donde B es tal que su probabilidad es estrictamente positiva.

Independencia de eventos. . . i. En general. La definici´n de independencia de dos eventos puede generalizarse al caso de varios o eventos de la siguiente forma: Decimos que n eventos A1 . P (A1 ∩ · · · ∩ An ) = P (Ai ∩ Aj ) = P (Ai )P (Aj ). En la mayor´ de los casos de aplicaci´n ıa o simplemente supondremos que dos eventos dados son independientes recurriendo unicamente a justificaciones intuitivas. La ventaja de esta o ultima expresi´n es que posee una interpretaci´n sencilla: Dice que la probabilidad ´ o o del evento A es la misma cuando sabemos que ha ocurrido el evento B (lado izquierdo).Parte 1. Un experimento aleatorio consiste en seleccionar una bola al azar y regresarla a la urna junto con c bolas del mismo color. Suponga que en una urna se tienen b bolas blancas y r bolas rojas. . . P (A1 ) · · · P (An ). . Se dice que dos eventos cualesquiera A y B son independientes si se cumple la condici´n P (A ∩ B) = P (A)P (B). El siguiente experimento se conoce como la urna de Polya. An son independientes si se satisfacen todas y cada una de las condiciones siguientes: P (Ai ∩ Aj ∩ Ak ) = . De manera an´loga puede interpretarse la igualdad equivalente P (B|A) = P (B). que cuando no sabemos nada (lado derecho). cualquiera de estas igualdades no implica. Esta igualdad es o equivalente a la expresi´n P (A|B) = P (A) cuando P (B) > 0. Es una hip´tesis natural o suponer que el resultado del primer lanzamiento no afecta el resultado del segundo lanzamiento. en general. j distintos. la validez de alguna otra. ´ Ejemplo. A2 . j. la ocurrencia del evento B no afecta la probabilidad del evento A y por lo tanto son independientes. es necesario pues . Es decir. para verificar que n eventos son independientes es necesario comprobar todas y cada una de las igualdades arriba enunciadas. PROBABILIDAD 29 Ejercicio. . a suponiendo naturalmente que P (A) > 0. k distintos. i. P (Ai )P (Aj )P (Ak ). De este modo cualquier evento del primer ensayo es independiente de cualquier otro evento en el segundo ensayo. Es decir. Suponga que se lanza una moneda dos veces. Use la regla del producto para calcular la probabilidad de obtener bolas rojas en las tres primeras extracciones.

se cumple que Bi ∩ Bj = 0. B y C independientes? Teorema de probabilidad total. . 3. n P (A) = i=1 P (A | Bi )P (Bi ). ıcil ¿Puede usted justificar este resultado? Ejemplo. En la Figura 1.10 se o muestra gr´ficamente el concepto de partici´n de un conjunto. es decir. . Sea B1 . . Antes de enunciar el siguiente resultado recordaremos el concepto de partici´n de un conjunto. — Ejercicio. Sean los eventos A = {1. .10: Ahora podemos enunciar y demostrar el muy util teorema de probabilidad total. B = {2. Sea Ω = {1. 2}.30 1. 4}. . . 3} y C = {2. No es dif´ darse cuenta que el total de igualdades es 2n − n − 1. o ´ ındices i y j distintos. ´ Teorema de probabilidad total. B1 ∪ B2 ∪ · · · ∪ Bn = Ω. . para ıo. a o B1 B2 B3 · · · A Ω Figura 1. Probabilidad condicional e independencia verificarlas todas. . Una partici´n finita de un o o conjunto Ω es una colecci´n B1 . Bn de subconjuntos de Ω tal que cada uno de o estos conjuntos es distinto del vac´ la colecci´n es disjunta dos a dos.4. . ¿Son A. y adem´s la uni´n de toda la a o colecci´n produce el total Ω. B2 . 4} un espacio muestral equiprobable. Para o cualquier evento A. 2. Bn una partici´n de Ω tal que o cada elemento de la partici´n tiene probabilidad estrictamente positiva. esto es.

11: El experimento aleatorio consiste entonces en escoger una caja al azar. respectivamente. y despu´s escoger una bola de la caja escogida. Es e claro entonces que el espacio muestral puede escribirse como sigue Ω = {(C1 . (C2 . A ∩ Bn son ajenos dos a dos. en donde C1 y C2 denotan los eventos en donde las cajas uno y dos fueron escogidas. y B y G denotan los eventos en donde una bola blanca o gris fueron . de modo que n n n P (A) = P ( i=1 A ∩ Bi ) = i=1 P (A ∩ Bi ) = i=1 P (A | Bi )P (Bi ). la f´rmula del teorema de probabilidad total se reduce a la siguiente expresi´n. . PROBABILIDAD 31 Demostraci´n. B y o ´ B c . Primero observemos que el evento A puede escribirse como sigue o n n A= A∩Ω= A∩ Bi = i=1 i=1 A ∩ Bi . en donde los eventos A ∩ B1 . .Parte 1. Si se elije una caja al azar y despu´s se saca una e bola. Ejemplo. (C2 . G). . B). B). o o P (A) = P (A|B)P (B) + P (A|B c )P (B c ). (C1 . Observe que cuando la partici´n de Ω consta de unicamente dos elementos. ¿cu´l es la probabilidad de que sea blanca? a Caja 1 Caja 2 Figura 1. la otra con 6 blancas y 6 grises. Suponga que tenemos dos cajas: una con 3 bolas blancas y 7 de color gris. con id´ntica e probabilidad cada una de ellas. . G)}.

G)}.4. dos a˜ os despu´s de n e la muerte de su creador. Probabilidad condicional e independencia escogidas respectivamente. o o Una persona es elegida al azar. Observe que es f´cil calcular la probabilidad de este evento cuando se conoce la caja que fue a escogida. Sea M el evento “La persona escogida es e mujer”. 40 Teorema de Bayes. a o e . es decir. (C2 . G)} y {(C2 . Fue publicado por primera vez en 1763. Deseamos calcular P (D). ¿Cu´l es la probabilidad de que haya sido a obtenida de la primera caja? Ejemplo.32 1. B). Por el teorema de probabilidad o total. ¿Puede usted comprobar que P (G) = 3/5? Puede uno tambi´n preguntarse por situaciones aparentemente extra˜ as como la e n siguiente: Si se obtuvo una bola blanca. B). Nos piden calcular la probabilidad de B. el 4 % de hombres son dalt´nicos y el 1 % de las mujeres son dalt´nicas. H el evento “La persona escogida es hombre” y D el evento “La persona escogida es dalt´nica”. Suponga que en una poblaci´n humana de igual n´ mero de hombres y o u mujeres. Este es otro resultado interesante que involucra probabilidades condicionales. P (B) = = = P (B|C1 )P (C1 ) + P (B|C2 )P (C2 ) 3 1 6 1 × + × 10 2 12 2 2 . Esto sugiere condicionar sobre el resultado de escoger alguna de las dos cajas y aplicar el teorema de probabilidad total. 5 Observe adem´s que la partici´n del espacio muestral consta de dos elementos: a o {(C1 . P (D) = = = P (D|M )P (M ) + P (D|H)P (H) 1 1 4 1 × + × 100 2 100 2 1 . ¿Cu´l es la probabilidad de que sea dalt´nica? a o Definamos primero los eventos de inter´s. (C1 . el matem´tico y te´logo ingl´s Thomas Bayes.

Por la definici´n de probabilidad condicional y el teorema de proo o babilidad total tenemos que P (Bj |A) = = = P (A ∩ Bj ) P (A) P (A|Bj )P (Bj ) P (A) P (A|Bj )P (Bj ) n . Bn una partici´n de Ω tal que cada elemento o de la partici´n tiene probabilidad estrictamente positiva. P (A|Bi )P (Bi ) i=1 V´ase la Figura 1. . la 2 el 5 %. El asunto es que se ha encontrado un material defectuoso. . De su producci´n total. . . Sea A un evento tal o que P (A) > 0. . P (A|Bi )P (Bi ) i=1 Demostraci´n. . n.10 para una representaci´n gr´fica de la partici´n del espacio e o a o muestral y el evento A. P (Bj |A) = P (A|Bj )P (Bj ) n . . para el evento B. P (A|B)P (B) + P (A|B c )P (B c ) Ejemplo. la m´quina 1 o a o a produce 3 % de material defectuoso. En una f´brica hay dos m´quinas. La m´quina 1 realiza el 60 % de la a a a producci´n total y la m´quina 2 el 40 %. 2. . o adquiere la forma: P (B|A) = P (A|B)P (B) .Parte 1. el teorema de Bayes. Sea B1 . ¿Cu´l es la probabilidad de que este material defectuoso a provenga de la m´quina M2 ? Sea M1 el evento “La m´quina 1 produjo el material a a . PROBABILIDAD 33 Teorema de Bayes. Nuevamente observamos que en el caso cuando la partici´n o de Ω consta de s´lo dos elementos: B y B c . Entonces para cada j = 1.

01 + 0.99 = 0.01 . Con esta informaci´n uno podr´ pensar que la prueba es muy o ıa buena.000526 . sin embargo calcularemos las probabilidades P (E|N ) y P (E|N c ).05 × 0. P (N |E c ) = 0. Es bueno que esta probabilidad sea peque˜ a.95. Probabilidad condicional e independencia escogido”.05 × 0.96 × 0.04 × 0.01 0. 19 ¿Puede usted calcular P (M1 |D)? Ejemplo. pero por otro lado. Por el teorema o de Bayes tenemos entonces que P (M2 |D) = = = P (D|M2 )P (M2 ) P (D|M1 )P (M1 ) + P (D|M2 )P (M2 ) 3 100 × 5 100 60 100 × + 40 100 5 100 × 40 100 10 .95 × 0.34 1.96 y P (E) = 0.01 0. El problema es encontrar P (M2 |D) y obervamos que la informaci´n que tenemos es P (D|M2 ).4.99 = 0. P (E|N ) = = P (N |E)P (E) P (N |E)P (E) + P (N |E c )P (E c ) 0.193 .95 × 0. . usando el teorema de Bayes. M2 en evento “La m´quina 2 produjo el material escogido” y finalmente a sea D el evento “El material escogido es defectuoso”. y sobre la eficacia de dicha prueba se conoce lo siguiente: Si se denota por E el evento de que un paciente tenga la enfermedad y por N el evento de que la prueba resulte negativa.01 + 0. En un laboratorio se descubri´ una prueba para detectar cierta enfermeo dad. entonces se sabe que P (N c |E) = 0. n P (E|N c ) = = P (N c |E)P (E) P (N c |E)P (E) + P (N c |E c )P (E c ) 0.

una variable aleatoria es una transformaci´n X del espacio de resultados Ω al conjunto de n´ meros reales. mientras que la letra min´ scula x denota un n´ mero real y o u u que es un posible valor de la variable aleatoria. Ejercicio. X es u una funci´n de Ω en R. o u X : Ω → R. esto es. X. 1. Ilustramos de u o manera gr´fica el concepto de variable aleatoria en la Figura1. Se le presentan a un concursante tres puertas cerradas detr´s de una de las cuales hay un premio. Denotemos por “Cara” . ´ u y para un valor cualquiera de ellas se usa la misma letra pero en min´ scula. Seguiremos la notaci´n usual de usar la o o letra may´ scula X para denotar una variable aleatoria cualquiera. Suponga entonces que se efect´ a o u el experimento aleatorio una vez y se obtiene un resultado ω en Ω.5. Y. En e sentido estricto una variable aleatoria es una funci´n de Ω en R que satisface o adem´s cierta condici´n de medibilidad. u Ejemplo. las variables aleatorias se denotan usando las ultimas letras del alfabeto en may´ sculas. el presentador del concurso abre alguna de las puertas restantes y de la cual sabe que no contiene ning´ n premio. Al transformar este resultado con la variable aleatoria X se obtiene un n´ mero real X(ω) = x.12. Debemos hacer a aqui la siguiente observaci´n importante.Parte 1. ¿Qu´ debe hacer o e el concursante? Justifique su respuesta. El problema de las tres puertas (Monty Hall).a. En general. u Entonces le pregunta al concursante si desea cambiar su decisi´n. y antes de abrirla. Una vez que el concursante elige una puerta. V. PROBABILIDAD 35 Esta ultima probabilidad es demasiado peque˜ a y por lo tanto la prueba no es muy ´ n confiable en tales casos. U. Variables aleatorias Dado un experimento aleatorio cualquiera. u Podemos entonces suponer que los posibles resultados del experimento aleatorio son los diferentes n´ meros reales x que la funci´n X puede tomar. pero omitiremos tales tecnicismos pues no a o son de utilidad para los prop´sitos de este curso. A menudo se escribe simplemente v. Z. es decir. en lugar del t´rmino variable aleatoria. Suponga que un experimento aleatorio consiste en lanzar al aire una moneda y observar la cara superior una vez que la moneda cae. W. El cona cursante debe adivinar la puerta que contiene el premio para ganarlo.

36 1. el n´ mero 2. Consideremos el experimento aleatorio consistente en lanzar un dardo en un tablero circular de radio uno. “Cruz”}. Decimos que Y es la variable aleatoria constante 2. Variables aleatorias X ω Ω X(ω) = x x R Figura 1. Cualquier resultado del experimento aleatorio produce. ω = (x. Observe e que los n´ meros 0 y 1 son en realidad arbitrarios. Defina la variable aleatoria X : Ω → R de la siguiente forma X(“Cara”) = 0 y X(“Cruz”) = 1. otro par de n´ meros distintos u u puede ser escogido para distinguir los dos resultados del experimento aleatorio. De este modo podemos suponer que el experimento aleatorio tiene dos valores num´ricos posibles: 0 y 1. a trav´s de la u e funci´n Y .12: y “Cruz” los dos lados de la moneda. El espacio muestral o conjunto de posibles resultados del experimento se puede escribir como sigue Ω = {(x. Podemos tambi´n definir la variable aleatoria Y : Ω → R de la siguiente forma e Y (“Cara”) = Y (“Cruz”) = 2.5. En este caso la variable Y solo toma un valor. o u Ejemplo. y) : x2 + y 2 ≤ 1}. Entonces claramente el espacio muestral es el conjunto Ω = {“Cara”.13: . el n´ mero 2. y) Ω Figura 1.

de la persona escogida. y) = |x| + |y|. vamos a clasificar a las variables aleatorias en dos tipos: discretas o continuas. Por ejemplo. . Las variables X y Y definidas l´ ıneas arriba en el ejemplo del lanzamiento de una moneda. es decir. puede obtenerse un ejemplo de una variable aleatoria discreta sobre este espacio muestral. Decimos que una v. Considerando el conjunto de valores que una variable aleatoria puede tomar.Parte 1. Si se dibujan c´ ırculos conc´ntricos alrededor del origen y si se asignan e premios asociados a cada una de las regiones resultantes. el espacio muestral (Figura 1. Ejemplo. En ese ejemplo el espacio muestral mismo es discreto y por lo tanto las variables aleatorias que pueden all´ definirse ı tienen que ser discretas forzosamente. n u c) Peso. o proyecci´n sobre el eje vertical. d) V (x. y) = x. es numerable y por lo tanto discreto. es discreta cuando el conjunto de valores que ´sta toma es un cone junto discreto. En el ejemplo del lanzamiento de un dardo en un tablero circular de radio uno. d) Estatura. g) Estado civil. ´ Ejemplo. y) = proyecci´n sobre el eje horizontal. distancia del taxista. En cada caso se trata de una variable aleatoria discreta: a) Edad en a˜ os. Y. n} es un conjunto discreto porque es finito. V y W definidas all´ son todas variables aleatorias ı continuas. Un experimento aleatorio consiste en escoger a una persona ω al azar. . . f) Nivel escolar. . lo mismo N pues aunque es infinito. o x2 + y 2 .13) es infinito no numerable. h) Lugar de nacimiento. b) Y (x. b) N´ mero de hijos. y) = y. el conjunto {0. e) W (x. c) Z(x. variables aleatorias. las variables X. La variable aleatoria X evaluada en ω corresponde a conocer la siguiente caracter´ ıstica. Por otra parte. Z. PROBABILIDAD 37 Los siguientes son ejemplos de funciones de Ω en R. . distancia al centro del c´ ırculo. Por simplicidad en este curso estudiaremos unicamente variables aleatorias que son discretas o continuas. son variables aleatorias discretas. o una codificaci´n de esta caracter´ o ıstica. asociadas a este experimento aleatorio. producto de las coordenadas. decimos que una variable aleatoria es continua cuando toma todos los valores dentro de un intervalo (a. b) ⊆ R. 1. un conjunto finito o numerable.a. y) = xy. Esta clasificaci´n de variables aleatorias no es completa pues existen vao riables que no son de ninguno de los dos tipos mencionados. a) X(x. 2. e) Sueldo.

A este conjunto o o se le llama la imagen inversa de A. La probabilidad definida antes para subconjuntos de Ω se traslada. c) P (X ∈ [2. entonces la expresi´n (X ∈ A). es decir. ni espacios muestrales arbitrarios Ω. (X ∈ A) = {ω ∈ Ω : X(ω) ∈ A}. Usaremos con mucha frecuencia la notaci´n arriba explicada. incluyendo el par´ntesis. Y aplicando probabilidad se obtiene P (X ≤ x) + P (X > x) = 1. d) P (X = 1) = P ({“Cruz”}) = 1/2. ∞)) = P {“Cruz”} = 1/2. e) P (X ≤ −1) = P (∅) = 0. en lugar de ello consideraremos que una cierta variable aleatoria de inter´s toma valores en un cierto subconjunto de e n´ meros reales. 2)) = P ({“Cruz”}) = 1/2.38 1. ∞). y se le denota por X −1 A. ni eventos (subconjuntos) de Ω. Variables aleatorias Usaremos tambi´n la siguiente notaci´n importante: Si A es un subconjunto de e o R.5. o es decir caen dentro del intervalo [1. Ejemplo. Nota importante. f) P (X ≥ 0) = P (Ω) = 1. b) P (X ∈ [0. denota el conjunto o e {ω ∈ Ω : X(ω) ∈ A}. es unicamente el elemento “Cruz”. ∞)) = {“Cruz”} pues el conjunto de elementos de Ω tales que bajo la funci´n X toman un valor mayor o igual a uno. u como explicamos antes. Tenemos por ejemplo que (X ∈ [1. a probabilidades para subconjuntos de R. la expresi´n (X ∈ A) denota aquel conjunto de elementos ω de Ω tales que bajo la o aplicaci´n de la funci´n X toman un valor dentro del conjunto A. Esta es una consideraci´n radical pues o ya no consideraremos experimentos aleatorios particulares. 4]) = P (∅) = 0. El lector debe aseo gurarse de comprender bien que si x es un n´ mero real entonces (X ≤ x) es u un subconjunto de Ω y por lo tanto un evento. Por lo ´ tanto P (X ∈ [1. En palabras. A trav´s de una variable aleatoria se puede considerar que los poe sibles resultados de un experimento aleatorio no son elementos ω en Ω sino n´ meros u reales que la variable aleatoria puede tomar. Lo mismo sucede con el complemento de este conjunto que es (X > x). Consideremos nuevamente el experimento de lanzar una moneda y la variable aleatoria X que lleva el resultado “Cara” al valor 0 y el resultado “Cruz” al valor 1. 1)) = P ({“Cara”}) = 1/2. Podemos escribir entonces la igualdad de conjuntos (X ≤ x) ∪ (X > x) = Ω. Del mismo modo puede verificarse que a) P (X ∈ [1. Esta perspectiva permite estudiar modelos generales y despu´s aplicarlos a cualquier situaci´n pare o .

.2) la llamaremos funci´n de probabilidad. Esta notaci´n ser´ particularmente util cuando consideremos varias variables o a ´ aleatorias a la vez. pues conceptualmente son cosas muy distintas. (1. . Denotaremos generalmente a una funci´n de o probabilidad con la letra f min´ scula. y toda funci´n de la forma (1. .2) En palabras. x2 . b) x f (x) = 1. o o o nos permiten representar a un mismo tiempo tanto los valores que puede tomar la variable como las probabilidades de los distintos eventos. ∞) se define como sigue f (x) = P (X = x) 0 si x = x1 . PROBABILIDAD 39 ticular. La funci´n de probabilidad de la o variable X denotada por f (x) : R → [0.Parte 1. Observe que se cumplen las siguientes dos propiedades. llamadas funci´n de densidad y funci´n de distribuci´n. . pero numerable. . con probabilidades respectivas P (X = x1 ). . . Esta lista de valores num´ricos y sus probabilidades e puede ser finita o bien infinita. Recordemos que es importante poder distinguir entre X y x. . A veces escribiremos fX (x) y el sub´ u ındice nos ayudar´ a especificar que tal funci´n es la funci´n de probabilidad de la variable a o o X. ´ Funcion de probabilidad para una variable discreta. para toda x ∈ R. . . Funciones de densidad y de distribuci´n o En esta secci´n vamos a explicar la forma de asociar a cada variable aleatoria dos o funciones que nos proveen de informaci´n acerca de las caracter´ o ısticas de la variable aleatoria. A partir de ahora y en lo que resta del curso el t´rmino variable aleatoria e constituir´ un elemento frecuente en los enunciados. otro caso. la funci´n de probabilidad es simplemente aquella funci´n que indica o o los valores de la probabilidad en los distintos valores que toma la variable aleatoria discreta. despu´s para una continua. P (X = x2 ). Definiremos primero la funci´n de densidad para una variable aleatoria discreta. o e y finalmente definiremos la funci´n de distribuci´n para ambos tipos de variables o o aleatorias.. Sea X una variable aleatoria discreta que toma los valores x1 . x2 .6. a 1. o o a) f (x) ≥ 0. Estas funciones.

14: Ejemplo. para x = −2. Los posibles valores de la variable aleatoria discreta. −1. f (x) = 0 otro caso. Encontraremos el valor de la constante c que hace que la siguiente funci´n o sea de probabilidad. f (x) =  0. Entonces la funci´n de probabilidad o de X es   0. 2c y 3c. De aqui obtenemos o c = 1/6. Alternativamente poo a demos tambi´n expresar esta funci´n mediante la tabla de la Figura 1. 1. 2. Grafique y compruebe que las siguientes funciones son de probabilidad. c. son 0. f (x) 0. 1. obtenemos la ecuaci´n c + 2c + 3c = 1.3 (b) 2 0. En particular. P (|X| = 1) = 0. respectivamente. con probabilidades 0.2 si x = 3. c x si x = 0. 0. 3.5 3 0.2 x x f (x) 1 0.5 si x = 2.2 1 2 (a) 3 Figura 1.40 ´ 1.   0. a) f (x) = x2 /10.3 si x = 1. 2 y 3. y P (X < 1) = 0.2 respectivamente. es decir. Funciones de densidad y de distribucion Ejemplo. 2. compruebe que las siguientes probabilidades son correctas: P (X ≥ 2) = 0. 1.3 0. con probabilidades 0. . Esta funci´n se muestra gr´ficamente en la Figura 1. no especificada.14 (a). o Ejercicio.7.14 (b). 2 y 3.5 y 0.3. Este es el valor de c que hace que f (x) sea no negativa y sume uno.6. Como la suma de estas probabilidades debe ser uno.   0 otro caso. Considere la variable aleatoria discreta X que toma los valores 1. 2 y 3.3. 0. En e o esta representaci´n se entiende de manera impl´ o ıcita que f (x) es cero para cualquier valor de x distinto de 1.5 0. una funci´n de probabilidad.

∞) que satisfaga estas dos propiedades. otro caso. Sea X una variable aleatoria continua. a Ejemplo. b) se puede calcular o expresar como el ´rea bajo la funci´n de densidad en el a o intervalo (a. De esta forma el c´lculo de una probabilidad se reduce al c´lculo a a de una integral. para toda x ∈ R. 3. Decimos que la funci´n integrable y no negativa f (x) : R → [0.15: La probabilidad como un ´rea. para x = 1.15. No es dif´ comprobar que toda funci´n de e ıcil o densidad f (x) de una variable aleatoria continua cumple las siguientes propiedades an´logas al caso discreto. PROBABILIDAD b) f (x) = (2x − 5)2 /70. ∞) o es la funci´n de densidad de X si para cualquier intervalo (a. la probabilidad de que la variable tome un valor dentro del intervalo (a. 41 ´ Funcion de densidad para una variable continua. b) de R se cumple la o igualdad b P (X ∈ (a. 4.Parte 1. a Es decir. a a) f (x) ≥ 0. a o f (x) b P (X ∈ (a. 5. b). b)) = f (x) dx. . La funci´n f (x) dada por o f (x) = 1/2 0 si x ∈ (1. 3). b)) = a b x f (x) dx a Figura 1. 2. V´ase la Figura 1. −∞ Toda funci´n f (x) : R → [0. sin necesidad o de tener una variable aleatoria de por medio. b) ∞ f (x) dx = 1. se llamar´ funci´n de densidad.

a) f (x) = (x + 1)/2. f (x) = 0 otro caso. o f (x) 1/2 x 1 2 3 4 Figura 1. Encontraremos el valor de la constante c que hace que la siguiente funci´n o sea de densidad. c |x| si x ∈ [−1. Grafique y compruebe que las siguientes funciones son de densidad. 1]. Ejercicio. b) f (x) = e−x .16: Ejemplo. Como esta funci´n debe integrar uno tenemos que o 1 1 1= −1 c |x| dx = 2 c x dx = c. Funciones de densidad y de distribucion es una funci´n de densidad de una variable aleatoria continua que toma valores en o el intervalo (1. 0 Por lo tanto.16.6. Observe que se trata a de una funci´n no negativa y cuya integral vale uno. cuando tomamos c = 1 la funci´n del inciso (b) resulta ser una funci´n o o de densidad pues ahora cumple con ser no negativa e integrar uno. 1]. y cuya gr´fica aparece en la Figura 1. . Se trata de una variable aleatoria continua que toma valores en el intervalo [−1. 1). para x > 0. 3).42 ´ 1. para x ∈ (−1.

constante por pedazos. se define como o o F (x) = P (X ≤ x).8 si 2 ≤ x < 3. es decir. y si la o o funci´n tiene una discontinuidad en x. por razones evidentes.14.  u≤x  1 si x ≥ 3. Tenemos que la correspondiente funci´n de distribuci´n evaluada en x se calcula sumando las o o probabilidades P (X = u) para valores de u menores o iguales a x. o en otras palabras. entonces el tama˜ o de tal discontinuidad es o n exactamente la probabilidad de que la variable aleatoria tome ese valor.17: 1 2 (b) 3 . sus valores est´n siempre entre 0 y 1. Considere la variable aleatoria discreta X de la Figura 1.3 si 1 ≤ x < 2. F (x) = P (X ≤ x) = P (X = u) =  0. cuya gr´fica aparece en la Figura 1. La funci´n de distribuci´n de X. Este es el comportamiento t´ a ıpico de una funci´n de distribuci´n discreta. Con un par de ejemplo mostraremos la o o forma de calcular esta funci´n a partir de la funci´n de probabilidad o de densidad. que tome un valor en el intervalo (−∞. Esta funci´n a o resulta ser importante y se le conoce tambi´n. denotada por F (x) : R → [0.Parte 1. Siendo F (x) una probabilidad. es no decreciente.  0   0. con el nombre e de funci´n de acumulaci´n de probabilidad. F (x) F (x) 1 0. Esto es. Sea X una variable aleatoria discreta o continua. 1].8 0. la funci´n de distribuci´n evaluada en un n´ mero x o o u cualquiera es simplemente la probabilidad de que la variable aleatoria tome un valor menor o igual a x.3 x 1 x 1 2 (a) 3 Figura 1.17 (a). x].  si x < 1. o o Ejemplo. PROBABILIDAD 43 ´ ´ Funcion de distribucion.

f) F (x) = F (x+). F (x) = P (X ≤ x) = f (u) du =  −∞ 1 si x ≥ 3.44 ´ 1.17 (b). Toda funci´n de distribuci´n F (x) satisface las siguientes propieo o o dades: a) 0 ≤ F (x) ≤ 1. An´logamente.6. entonces F (x1 ) ≤ F (x2 ).17 (b). Ahora explicaremos el proceso contrario.  0 x (x − 1)/2 si 1 < x < 3. d) Si x1 ≤ x2 . −∞ de modo que por el teorema fundamental del c´lculo. F (x−) = l´ F (x − h). De este modo podemos encontrar f (x) a partir de F (x). F ′ (x) = f (x). . f (x) = P (X = x) = F (x)−F (x−). b) l´ F (x) = 1. Observe que esta funci´n es continua y a o no decreciente. e) Si x1 ≤ x2 . En los dos ejemplos anteriores se ha mostrado la forma de obtener F (x) a partir de f (x). x F (x) = P (X ≤ x) = f (u) du. Ejemplo. ım h→0 h→0 con h > 0. o ım Proposici´n. en donde F (x−) es el l´ ıimite por la izquierda de la funci´n F en el punto x. es decir. la expresi´n F (x+) significa el l´ a o ımite por la derecha de la funci´n F en el punto x. en s´ o ımbolos. Considere ahora la variable aleatoria continua X de la Figura 1. ım x→∞ c) x→−∞ l´ ım F (x) = 0. Funciones de densidad y de distribucion cuya gr´fica aparece en la Figura 1. con h > 0. En el caso continuo tenemos que para toda x en R. En el caso discreto. La correspondiente funci´n de distribuci´n se obtiene calculando la siguiente integral o o  si x ≤ 1. y cuando F (x) es diferenciaa ble. F (x+) = l´ F (x + h). entonces P (x1 < X ≤ x2 ) = F (x2 ) − F (x1 ).

varianza. Aplicando probabilidad obtenemos P (X ≤ x1 ) ≤ P (X ≤ x2 ). F (x) → P (X ≤ −∞) = P (∅) = 0. PROBABILIDAD Demostraci´n. entonces (X ≤ x1 ) ⊆ (X ≤ x2 ). Por lo tanto. o 45 a) Primeramente tenemos que F (x) es una probabilidad pues. peso. F (x + h) → F (x) + P (∅) = F (x). cuando x → ∞. cuando x → −∞. e) Observe que el evento (x1 < X ≤ x2 ) puede descomponerse en la diferencia (X ≤ x2 ) − (X ≤ x1 ). La propiedad d) significa que F (x) es una funci´n mon´tona no decreciente. f) Para h > 0 tenemos que F (x + h) = P (X ≤ x + h) = P (X ≤ x) + P (x < X ≤ x + h). de modo que cuando h tiende a cero. c) An´logamente el conjunto (X ≤ x) se aproxima al conjunto (X ≤ −∞) = ∅ a cuando x tiende a menos infinito. Mieno o tras que la propiedad f) establece que F (x) es una funci´n continua por la derecha. . b) Cuando x tiende a infinito el conjunto (X ≤ x) se aproxima al conjunto (X ≤ ∞) que es id´ntico a Ω. Por lo tanto se cumple la primera propiedad. por lo tanto. Algo similar sucede con las ´ variables aleatorias. Por lo tanto P (x1 < X ≤ x2 ) = P (X ≤ x2 ) − P (X ≤ x1 ) = F (x2 ) − F (x1 ). por ejemplo. la identificar´ ıamos de manera unica. por definici´n. ıo. la edad.7. en donde (X ≤ x1 ) ⊆ (X ≤ x2 ). o F (x) = P (X ≤ x). d) Es suficiente observar que si x1 ≤ x2 . En esta secci´n estudiaremos algunas caracter´ o ısticas num´ricas e asociadas a las variables aleatorias. F (x) → P (X ≤ e ∞) = P (Ω) = 1. Si pudi´ramos considerar la totalidad de todos estos n´ meros para una persona e u en particular. talla. momentos Todos los seres humanos tenemos caracter´ ısticas num´ricas que nos identifican y e nos distinguen de otras personas. estatura. cuando h → 0 con h > 0.Parte 1. etc. o 1. el conjunto (x < X ≤ x + h) tiende al conjunto vac´ Concluimos entonces que. Esperanza.

Si la suma o integral anteriores no cumplen esta condici´n de convergencia absoluta.7. −∞ suponiendo que esta integral es absolutamente convergente. En este ejemplo el . y se define cuando esta suma sea absolutamente convergente. La esperanza de una variable aleatoria X es un n´ mero denotado por u E(X) y que se calcula como sigue: Si X es discreta. En general se usa la letra griega µ (mu) para denotarla. Ilustraremos a continuaci´n la forma de calcular la esperanza. entonces o la esperanza es E(X) = ∞ xf (x) dx. A la esperanza se le conoce tambi´n con los nombre de: media. La esperanza es uno de los conceptos m´s importantes en probabilidad y tiene un amplio uso en las aplicaciones y otras a ramas de la ciencia. entonces E(X) = x xP (X = x). varianza. La esperanza de una variable aleatoria es entonces un n´ mero que indica el promedio ponderado de los diferentes valores que puede u tomar la variable. Tambi´n es instructivo observar que la esperanza no es necee sariamente uno de los valores tomados por la variable aleatoria. Sea X una variable aleatoria discreta con funci´n de densidad dada por o la siguiente tabla. entonces se dice o que la esperanza no existe. Esperanza. 0. o Ejemplo. Si X es continua con funci´n de densidad f (x). e valor esperado o valor promedio. x -1 0 1 2 f (x) 1/8 4/8 1/8 2/8 La esperanza de X es el n´ mero u E(X) = x x f (x) −1 × 1/8 + 0 × 4/8 + 1 × 1/8 + 2 × 2/8 1/2. El n´ mero de sumandos puede ser finito o infinito dependiendo del conjunto de valores u de la variable aleatoria. La situaci´n o anterior se ilustra en los ejercicios 126 y 127. momentos Esperanza. 1 y 2. = = Observe que la suma su efect´ a para todos los valores de x indicados en la tabla.46 1. u es decir: −1. en donde la suma se efect´ a sobre todos los posibles valores que pueda tomar la u variable aleatoria. La integral o suma arriba mencionados pueden no ser convergentes y en ese caso se dice que la variable aleatoria no tiene esperanza finita.

pero es su valor esperado. La esperanza de X es E(X) = ∞ −∞ 1 x f (x) dx = 0 x 2x dx = 2 3 x 3 1 = 0 2 .3) . siendo cero fuera de este intervalo. (1. Entonces E[g(X)] = ∞ −∞ g(x)fX (x) dx. y tal que la probabilidad de que tome cualquiera de estos valores es 1/n. . Si quisi´ramos calcular la esperanza de e e Y seg´ n la definici´n tendr´ u o ıamos que calcular y fY (y) dy. Sea X una variable aleatoria continua y sea g : R → R una funci´n o o tal que g(X) es una variable con esperanza finita. A veces se le refiere como el teorema del ´ o estad´stico inconsciente. 2. si X es una variable aleatoria. para x ∈ (0. Por o ejemplo. 1). para −1 < x < 1. En algunos casos es necesario saber calcular la esperanza de una funci´n de una variable aleatoria. El o a siguiente resultado es muy util y nos dice c´mo calcular esta esperanza conociendo ´ o unicamente la funci´n de densidad de X. Ejercicio. 47 Ejemplo. . ı Proposici´n. Compruebe que la esperanza de esta variable aleatoria es cero. Compruebe que la esperanza de X es (n + 1)/2. y ello en general no es f´cil. pues fuera de dicho o intervalo la funci´n de densidad se anula. . entonces es claro que Y = X 2 es una funci´n o de X y es tambi´n una variable aleatoria. ´ Esperanza de una funcion de una variable aleatoria. . Considere la variable aleatoria continua X con funci´n de densidad f (x) = o 2x. o Ejercicio.Parte 1. 3 Observe que la integral s´lo es relevante en el intervalo (0. Considere una variable aleatoria continua X con funci´n de densidad o f (x) = |x|. para lo cual se necesita encontrar primero la funci´n de densidad de Y . PROBABILIDAD valor 1/2 nunca es tomado por la variable aleatoria. n}. 1). Sea X una variable aleatoria discreta con posibles valores en el conjunto {1.

encuentre la funci´n de densidad de Y y calcule E(Y ) o usando la definici´n de esperanza. El resultado debe ser nuevamente 1/2.3). con funci´n de densidad f (x) = 2x pao ra x ∈ (0. es decir. Por la proposici´n anterior tenemos que o E(Y ) = = = 0 E(X 2 ) ∞ −∞ 1 x2 f (x) dx x2 2x dx 1 4 x 2 1 . Ahora calcule la misma esperanza pero usando (1. Sea X una variable aleatoria con funci´n de probabilidad dada por la o tabla que aparece abajo. varianza. y X es la variable aleatoria continua del ejemplo anterior. Calcularemos E(Y ) en donde Y = X 2 . .7.48 1. El resultado esta enunciado en o el caso continuo pero tambi´n es v´lido en el caso discreto. o Ambos resultados deben coincidir. Ejemplo. asi es que la omitireo mos y nos concentraremos en su uso y aplicaci´n. x f (x) -2 2/8 -1 1/8 0 2/8 1 1/8 2 2/8 He aqui algunas propiedades generales de la esperanza. la demostraci´n de este resultado es complicada. momentos En general. 1). 2 1 0 = = Ahora. Encuentre la funci´n de probabilidad de X 2 y mediante o la definici´n calcule E(X 2 ). o Ejercicio. en lugar de la integral e a aparece una suma. como un ejercicio. Esperanza.

Se le denota regularmente por la letra σ 2 (sigma cuadrada).  −∞ Observe que en una sola expresi´n la varianza se puede escribir como sigue: Var(X) = o E (X − E(X))2 . Observe que la segunda y cuarta e propiedad establecen que la esperanza es lineal.    x  Var(X) = ∞     (x − E(X))2 f (x) dx si X es continua. separa sumas y tambi´n e separa multiplicaciones por constantes. b) E(c X) = c E(X). La primera propiedad es evidente de demostrar pues si X es la variable aleatoria constante c. Calcularemos la varianza de la variable aleatoria discreta X con funci´n o . Vamos ahora a definir otra caracter´ ıstica num´rica asociada a las vae riables aleatorias llamada varianza. c) Si X ≥ 0.   (x − E(X))2 f (x) si X es discreta. entonces E(X) ≥ 0. PROBABILIDAD 49 Proposici´n. A la ra´ cuadrada positiva de la varianza. d) E(X + Y ) = E(X) + E(Y ). Varianza. Veamos algunos ejemplos sencillos. en la e o integral o suma correspondiente solo aparecer´n t´rminos que son no negativos. Observemos que para calcular Var(X) necesitamos conocer primero E(X). en cambio. no es sencilla de demostrar y a´ n en el caso discreto ´ u requiere de detalles t´cnicos que preferimos omitir. se le llama ız desviaci´n est´ndar. El tercer inciso tambi´n es evidente pues cuando se cumple la hip´tesis. E(X) = c P (X = c) = c 1 = c. Ejemplo. Sean X y Y con esperanza finita y sea c una constante. es decir. entonces por definici´n. El segundo o inciso se sigue directamente de la definici´n de esperanza pues tanto en el caso o de la suma como en el caso de la integral. La varianza es una medida del grado de dispersi´n de los difeo rentes valores tomados por la variable. la constante c puede siempre colocarse fuera. Entonces o a) E(c) = c. Se denota por Var(X) y se define como sigue.Parte 1. Nuevamente la anterior suma o integral puede no existir y en o a ese caso decimos que la variable aleatoria no tiene varianza finita. La a e ultima propiedad. esto es σ.

.7. Var(X) = = 0 1 ∞ −∞ 1 (x − E(X))2 f (x) dx (x − 2/3)2 2x dx = 0 (2x3 − 8x2 /3 + 8x/9) dx 1 0 = = 1/18.50 1. momentos de densidad dada por la siguiente tabla. varianza. x f (x) -1 1/8 0 4/8 1 1/8 2 2/8 Recordemos primeramente que por c´lculos previos. En un c´lculo previo hab´ a ıamos encontrado que E(X) = 2/3. Por lo tanto. (x4 /2 − 8x3 /9 + 4x2 /9) Ahora enunciamos algunas propiedades de la varianza. Esperanza. 1). (−1 − 1/2)2 × 1/8 + (0 − 1/2)2 × 4/8 Ejemplo. E(X) = 1/2. Aplicando la a definici´n de varianza tenemos que o Var(X) = x (x − E(X))2 f (x) = = +(1 − 1/2)2 × 1/8 + (2 − 1/2)2 × 2/8 1. Calcularemos la varianza de la variable aleatoria continua X con funci´n o de densidad f (x) = 2x para x ∈ (0.

Demostraci´n. . y se usa la propiedad de linealidad de la esperanza: Var(X) = = = = E[X − E(X)]2 E[X 2 − 2XE(X) + E 2 (X)] E(X 2 ) − 2E(X)E(X) + E 2 (X) E(X 2 ) − E 2 (X). Para el inciso (b) e la constante c es una v. Eno tonces a) Var(X) ≥ 0. con un unico valor. f) En general. PROBABILIDAD 51 Proposici´n. b) Var(c) = 0. El inciso (a) es evidente a partir de la definici´n de varianza pues o o en ella aparece una suma o integral de t´rminos no negativos.Parte 1. El inciso (d) se sigue del siguiente an´lisis: a Var(X + c) = = = E[(X + c) − E(X + c)]2 E[X − E(X)]2 Var(X). de modo que E(c) = c y entonces ´ Var(X) = E(c − c)2 = 0. d) Var(X + c) = Var(X). e) Var(X) = E(X 2 ) − E 2 (X). y sea c una constante. c) Var(c X) = c2 Var(X). = E[cX − cE(X)]2 Para demostrar la propiedad (e) se desarrolla el cuadrado en la definici´n de vao rianza.a. Sean X y Y dos variables aleatorias. Var(X + Y ) = Var(X) + Var(Y ). Para el inciso (c) tenemos que Var(cX) = E[cX − E(cX)]2 = c2 E[X − E(X)]2 = c2 Var(X).

. Observe que el primer momento de X es simplemente la media. cuando existe. Distribuciones de probabilidad Finalmente para demostrar la propiedad (f ) es suficiente dar un ejemplo. se calcula como sigue: e  ∞   xn f (x) dx. Distribuciones de probabilidad Estudiaremos a continuaci´n algunas distribuciones de probabilidad de variables o aleatorias importantes. Es ime portante se˜ alar que ´sta es s´lamente una lista parcial de algunas distribuciones n e o de probabilidad de mayor uso.   x El n-´simo momento central de X se calcula. . . Momentos.8. como el n´ mero E(X n ). y el segundo momento central es la varianza. para variables aleatorias continuas y e discretas respectivamente. Finalmente definimos el n-´simo momento de una variable aleatoria e X.   x 1. cuando existe. Decimos que una variable aleatoria X tiene una distribuci´n uniforme discreta sobre el conjunto finito de n´ meros {x1 . ´ Distribucion uniforme discreta. El u n-´simo momento central de X. es el n´ mero E[(X − µ)n ]. xn } o u . .52 1. si existe. Empezaremos con las distribuu ciones de tipo discreto y continuaremos despu´s con las de tipo continuo.    −∞ E[(X − µ)n ] =    (x − µ)n f (x) . en general y por lo demostrado antes.    −∞ E(X n ) =    xn f (x) . como indican las siguientes f´rmulas: o  ∞   (x − µ)n f (x) dx. no se cumple que Var(2X) = 2 Var(X).8. Estas distribuciones son modelos particulares para asignar probabilidades a subconjuntos de n´ meros reales. para cualquier valor natural de n. Tenemos entonces que si X es una variable aleatoria con funci´n de densidad o de probabilidad f (x) entonces el no ´simo momento de X. en donde e u µ = E(X). Puede tomarse el caso Y = X.

junto con la correspondiente funci´n de distribuci´n.01.18: 1 2 3 4 5 Ejemplo.Parte 1. si la precisi´n de la computadora fuera de dos decimales. n f (x) F (x) 1/5 1 x x 1 2 3 4 5 Figura 1. Por ejemplo. ´ Distribucion Bernoulli. Si se define la variable aleatoria X como aquella funci´n que lleva el resultado ´xito al n´ mero 1 y el resultado o e u fracaso al n´ mero 0.00. Por ejemplo. se obtienen siempre valores dentro de un conjunto finito de elementos. . . 0. 0. Cao o da salto de la funci´n de distribuci´n es de tama˜ o 1/5.. 1). x2 . 2. 1. la gr´fica de la funci´n de probabilidad de la distribuci´n unif{1. con probabilidades respectivas p y 1 − p. . . esto es. y escribimos X ∼ Ber(p). 5} a o o aparece en la Figura 1. La precisi´n de una u o computadora es naturalmente mayor pero siempre es finita. 4. en o situaciones en donde tenemos n resultados diferentes y todos ellos tienen la misma probabilidad de ocurrir. entonces decimos que X tiene una distribuci´n Bernoulli con u o par´metro p ∈ (0.99. entonces s´lo se o o pueden generar los 101 n´ meros : 0. Escribimos entonces X ∼ unif{x1 . 1]. Un ensayo Bernoulli se define como aquel experimento aleatorio con unicamente dos posibles resultados.. 1/n. . x2 . PROBABILIDAD 53 si la probabilidad de que X tome cualquiera de estos valores es la misma. . . es decir. La funci´n de probabilidad es a o . . .00. 0. 3. llamados gen´ricamente ´xito y ´ e e fracaso. y debido a que la precisi´n de la computadora es necesariamente o finita. Esta distribuci´n surge en espacios de probabilidad equiprobables. . y la misma situaci´n o se presenta. 0 otro caso. xn } si o P (X = x) = 1/n si x = x1 .02.18. Los juegos de loter´ son un ejemplo donde puede aplicarse ıa esta distribuci´n de probabilidad. Es f´cil ver que E(X) = o o n a n n 1 1 2 i=1 xi . xn . y Var(X) = n i=1 (xi − E(X)) . Al generar un n´ mero aleatorio en una computadora dentro del intervalo u unitario [0.

Supongamos ahora que tenemos una serie de n ensayos independientes Bernoulli en donde la probabilidad de ´xito en cualesquiera de e estos ensayos es p.54 entonces 1. donde surge esta distribuci´n. En la realizaci´n de o todo experimento aleatorio siempre es posible preguntarnos por la ocurrencia o no ocurrencia de un evento cualquiera. Entonces X tiene distribuci´n Ber(p). etc.19. Sea X la variable aleatoria dada por X(ω) = 1A (ω). Sea Ω el espacio muestral de un experimento aleatorio. 1. es de amplia aplicaci´n. es decir. y sea A ⊆ Ω un evento tal que P (A) = p. Suponga que ω1 y ω2 son los dos resultados posibles. y X(ω2 ) = 0. Distribuciones de probabilidad P (X = x) = px (1 − p)1−x 0 si x = 0. o ´ Distribucion binomial. Si denotamos por E el resultado ´xito y por F el resultado e .7 aparece en a o o la Figura 1. Sea X la variable aleatoria dada por X(ω1 ) = 1. ¿Cu´l es la distribuci´n de 1 − X? o a o Ejemplo.3 x 0 1 Figura 1. X(ω) = 1 si ω ∈ A. junto con la correspondiente funci´n de distribuci´n.19: 1 Ejemplo.3 x 0 1 0. o o f (x) F (x) 1 0. Este es el esquema general ıa.7 0. otro caso. y X(ω) = 0 si ω ∈ Ac . Esta es la funci´n indicadora del o conjunto A. Por ejemplo. respectivamente. con probabilidades p y 1 − p. ganar o no ganar en un juego de loter´ que llueva o no llueva hoy por la tarde. Entonces X tiene distribuci´n Ber(p). En este caso o o es muy sencillo verificar que E(X) = p y Var(X) = p(1 − p).8. Considere el experimento aleatorio de lanzar una moneda al aire. La gr´fica de la funci´n de densidad de esta distribuci´n para p =0. que aunque sencilla.

Observamos que X puede tomar los valores 0. X(F F F EF E · · · ) = 3. . Decimos entonces que X tiene una distribuci´n o geom´trica con par´metro p. . y escribimos X ∼ geo(p) cuando e a P (X = x) = p (1 − p)x 0 si x = 0. . PROBABILIDAD 55 Por ejemplo. x P (X = x) =  0 otro caso. X(EE · · · EE) = n.21. . . Si ahora definimos la variable aleatoria X como aquella que cuenta el n´ mero de ´xitos en cada una de estas sucesiones.3. 1. . 2.2334. para p =0. La f´rmula anterior puede a o justificarse de la forma siguiente. Supongamos que tenemos ahora una sucesi´n infinie o ta de ensayos independientes Bernoulli. X(F E · · · EE) = n − 1. 2. La gr´fica de esta funci´n de probabia o 2 lidad con estos par´metros aparece en la Figura 1. x n−x fracaso. La probabilidad de que X tome el valor entero x ≥ 0 es p(1 − p)x . Por ejemplo. .Parte 1. a o El nombre de esta distribuci´n proviene del hecho de que cuando escribimos la o . p). La probabilidad de obtener ´sto es el n´ mero e e u p · · · p (1 − p) · · · (1 − p) = px (1 − p)n−x . para n = 10 ensayos. Decimos entonces que X tiene una distribuci´n binomial con o par´metros n y p. la gr´fica de esta funci´n se muestra en la Figura 1. 2. tenemos entonces que e multiplicar por las diferentes formas en que estos x ´xitos pueden distribuirse en los e n ensayos. otro caso. entonces el espacio muestral consiste de todas las posibles sucesiones de longitud n de caracteres E y F. pero hemos colocado los x ´xitos en los primeros x ensayos. . n con las probabilidades que aparecen abajo. . . 2.7)10−2 = 0. 1. n. . 1. y Var(X) = np(1 − p). 1. Para esta distribuci´n puede o x demostrarse que E(X) = np. esto u e es. entonces tenemos que X puede tomar los valores 0. Queremos que en n ensayos Bernoulli se obtengan x ´xitos y n − x fracasos.20. Usando el principio multiplicativo. Para cada una de estas sucesiones definimos la variable aleatoria e X como el n´ mero de fracasos antes de obtener el primer ´xito. . . u e X(F EF EF F · · · ) = 1. y escribimos X ∼ bin(n. . Por ejemplo. en cada uno de los cuales la probabilidad de ´xito es p.4. ´ Distribucion geom´trica. X(EF F EEE · · · ) = 0. X(F F · · · F F ) = 0.. se puede calcular P (X = 2) = 10 (0. . . a   n px (1 − p)n−x si x = 0. es f´cil ver que a el conjunto Ω tiene 2n elementos. con probabilidad p =0. .3)2 (0. este factor es el coeficiente binomial n .

En este caso la variable es X + 1. 000. puede modelarse usando una distribuci´n geom´trica.3 x 1 2 3 4 5 6 7 8 9 10 Figura 1. la esperanza es o ahora 1/p y la varianza permanece constante (1 − p)/p2 . la distribuci´n se desplaza hacia la derecha una unidad.8. La inspecci´n e o sucesiva de art´ ıculos hasta encontrar una defectuoso.2 0. Para o e esta distribuci´n tenemos que E(X) = (1 − p)/p. antes del primer ´xito.3 0. o f (x) 0.1 x p = 0.21: En algunos textos se define la distribuci´n geom´trica contando el n´ mero de eno e u sayos (no el de fracasos).4 1 2 3 4 5 6 7 8 9 10 Figura 1. 000. y Var(X) = (1 − p)/p2 . Una persona participa cada semana con un boleto en un juego de loter´ ıa en donde la probabilidad de ganar el primer premio es p = 10−6 = 1/1. posiblemente en un proceso de control de calidad.4 0. Ejercicio.56 1. obtenemos una suma geom´trica. Distribuciones de probabilidad f (x) 0.20: suma de todas las probabilidades.3 0.2 0. .1 n = 10 p = 0. e es decir.

2. La forma de esta funci´n se muestra en o la Figura 1. Demuestre que la o funci´n de distribuci´n de X es o o  si x < 0. 2.. 1. y Var(X) = λ. Adiu cionalmente supongamos que conocemos la tasa media de ocurrencia del evento de inter´s. por ejemplo. . Despu´s de algunos c´lculos sencillo puede tambi´n e a e comprobarse que E(X) = λ. . Supongamos que deseamos observar el n´ mero de ocuu rrencias de un cierto evento dentro de un intervalo de tiempo dado. En promedio se reciben 2 peticiones de acceso a una p´gina web durante a . el n´ mero de clientes que llegan a un cajero autom´tico durante la noche.    1 − (1 − p)2 si 1 ≤ x < 2. o tal vez u a deseamos registrar el n´ mero de accidentes que ocurren en cierta avenida duranu te todo un d´ Para modelar este tipo de situaciones podemos definir la variable ıa. . y en principio no ponemos una cota superior para el n´ mero de observaciones del evento.. por unidad u de tiempo. El par´metro λ es positivo e a y se interpreta como el n´ mero promedio de ocurrencias del evento.. Ejemplo. PROBABILIDAD 57 ¿Cu´ntos a˜ os en promedio debe esta persona participar en el juego antes de oba n tener el primer premio? Ejercicio.  0    1 − (1 − p)1 si 0 ≤ x < 1. . x! P (X = x) =  0 otro caso. Decimos que X tiene una distribuci´n Poisson a o o con par´metro λ > 0. aleatoria X como el n´ mero de ocurrencia de este evento en el intervalo de tiempo u dado. La probabilidad de que la variable aleatoria X tome un valor entero x ≥ 0 se definir´ a continuaci´n.. ´ Distribucion Poisson. .. Es claro entonces que X puede tomar los valores 0..Parte 1. . y escribimos X ∼ Poisson(λ) cuando a  x  e−λ λ si x = 0.    1 − (1 − p)k+1 si k ≤ x < k + 1.. 1.    ..  . que denotamos por la letra λ (lambda). Sea X una variable aleatoria con distribuci´n geo(p).. .22 cuando λ = 2. Puede demostrarse que la funci´n f (x) arriba definida es efectivamente una funci´n o o de probabilidad para cada valor de λ > 0. F (x) = .

con λ = 2. Distribuciones de probabilidad f (x) 0. Utilice el modelo Poisson para calcular la probabilidad de que en un minuto dado a) nadie solicite acceso a la p´gina.22: un minuto cualquiera. Para el segundo inciso. y supongamos o u que X tiene distribuci´n Poisson(λ). Para el primer inciso se tiene que o P (X = 0) = e−2 20 /0! =0. b) se reciban mas de a dos peticiones. En promedio uno de cada 100 focos producido por una m´quina es defeca tuoso.3 0.323 Puede adem´s demostrarse que cuando X ∼ bin(n.1 x λ =2 1 2 3 4 5 6 7 8 Figura 1. P (X > 2) = 1 − P (X ≤ 2) = 1 − (P (X = 0)+ P (X = 1)+ P (X = 2)) = 1 − e−2 (20 /0!+ 21/1!+ 22/2!) =0.2 0. supongamos de longitud .135. Sugerencia: Use la distribuci´n Poisson como aproximaci´n de la distribuci´n o o o binomial. Un ejemplo ilustrar´ esta situaci´n. Soluci´n: Sea X el n´ mero de peticiones por minuto. a o Ejemplo. p) y hacemos tender n a infinito a y p a cero de tal forma que el producto np se mantenga constante igual a λ. Esto es o a particularmente util pues el c´lculo de probabilidades de la distribuci´n binomial ´ a o involucra el c´lculo de factoriales y ello puede ser computacionalmente dif´ a ıcil. entonces la variable aleatoria X adquiere la distribuci´n Poisson con par´metro λ. la distribuci´n binomial puede o ser aproximada mediante la distribuci´n Poisson de par´metro λ = np. Hemos definido a la variable aleatoria Poisson como el n´ mero de ocurrencias de u un cierto evento dentro de un intervalo de tiempo dado.8.58 1. Calcule la probabilidad de encontrar 5 focos defectuosos en un lote de 1000 focos. o a Este resultado sugiere que cuando n es grande.

entonces el n´ mero de ocurrencias del evento en el intervalo u [0. 2. y cualquier entero natural x se define x = a(a−1) · · · (a− u n+x−1 x + 1)/x! Puede demostrarse la identidad = (−1)x −n . 2. con λ = 3/10.2. o   r + x − 1 pr (1 − p)x si x = 0. 2] tiene distribuci´n Poisson(λt). x P (X = x) =  0 otro caso. Si en una sucesi´n infinita de ensayos Bero noulli la variable aleatoria X cuenta el n´ mero de fracasos antes de obtener el u r-´simo ´xito. cuyos dos resultados son . la o o o e cual se obtiene tomando r = 1. o Ejemplo. por ejemplo [0. PROBABILIDAD 59 unitaria.Parte 1. y finalmente el factor r+x−1 que nos dice las diferentes formas en que x los r ´xitos pueden aparecer en los r + x − 1 ensayos realizados antes del ultimo que e ´ necesariamente fue un ´xito. El n´ mero de aviones que llegan a un aeropuerto internacional tiene una u distribuci´n Poisson con una frecuencia de 3 aviones cada 10 minutos. entonces decimos que X tiene una distribuci´n binomial negativa e e o con par´metros r y p. Tal conteo de ocurrencias tambi´n sigue una distribuci´n Poisson pero esta vez de par´metro λt. b) La probabilidad de que llegue s´lo un avi´n en el minuto o o siguiente es P (X = 1). Se puede adem´s demostrar que E(X) = r(1 − p)/p a y Var(X) = r(1 − p)/p2 . con probabilidades como se indica a continuaci´n. con λ =4. Suponga ahora que nos interesa observar las ocurrencias del evento en un intervalo de longitud diferente.23 e a o cuando r = 3 y p =0. 1. Veamos un ejemplo. p). t]. Es claro que esta distribuci´n es una generalizaci´n de la distribuci´n geom´trica. o Ejemplo. 1. de ah´ el t´rmino e u ı e (1 − p)x . . Entonces o a) La probabilidad de que no llegue ning´ n avi´n en un periodo de 20 minutos es u o P (X = 0). 1]. si t = 2. De este hecho x x adquiere su nombre esta distribuci´n. con t > 0.5. Aparece el t´rmino pr pues la sucesi´n de ensayos Bernoulli no concluye sino hasta e o obtener r ´xitos. . con λ = 6. Se lanza repetidas veces una moneda honesta. c) La probabilidad de que lleguen dos o mas aviones en un periodo de 15 minutos es P (X ≥ 2). y escribimos X ∼ bin neg(r. ´ Distribucion binomial negativa. e o a Por ejemplo. La gr´fica de esta funci´n aparece en la Figura 1. . En este caso tenemos que X a puede tomar los valores 0. Podemos tener un n´ mero variable de fracasos. . [0. . . La definici´n de coeficiente binomial puede extenderse del siguiente modo: Para o a cualquier n´ mero real a.

1. .46875 . suponiendo n ≤ K.23: cara y cruz. n. . La cardinalidad n n del espacio muestral es N . Por lo tanto. 1. entonces X puede tomar los valores 0.60 1. Decimos que X tiene una distribuci´n hipergeom´trica con o o e par´metros N .8.06 0. . y el t´rmino N −K es nuevamente las diferentes e n−x . y nos preguntan P (X = 2). y escribimos X ∼ hipergeo(N. Supongamos que de este conjunto tomamos una muestra aleatoria de tama˜ o n n. 2 ´ Distribucion hipergeom´trica. p) con r = 3. . la muestra es sin reemplazo y el orden de los objetos seleccionados no importa.2 5 10 15 20 25 30 Figura 1. . P (X = 2)= 6 (1/2)5 = 15/32= 0. El t´rmino K nos dice las diferentes formas en que de los K objetos de la primera e x clase se pueden escoger x de ellos. .04 0. Si para cada muestra definimos la variable aleatoria n X como el n´ mero de objetos de la primera clase contenidos en la muestra selecu cionada. p = 1/2. ¿Cu´l es la probabilidad de obtener la tercera cruz en el quinto lanzaa miento? Soluci´n: Sea X el n´ mero de caras (fracasos) antes de obtener la tercera o u cruz. n) si a  K N −K  x n−x  si x = 0.02 x r=3 p = 0. . El espacio muestral de este experimento consiste de todas las posibles muestras de tama˜ o n que se pueden obtener del conjunto mayor de tama˜ o N . Distribuciones de probabilidad f (x) 0. Supongamos que tenemos un conjunto de N e objetos de los cuales K son de una primera clase y N − K son de una segunda clase. Entonces X ∼ bin neg(r. K y n. La probabilidad de que X tome un valor x estar´ dada por la f´rmula que enunciaa o mos a continuaci´n. 2. K. n. . N P (X = x) = n   0 otro caso.

n. N N −1 f (x) 0. . Par´metros: x1 . a n Media: i=1 xi /n.4 0. La gr´fica de esta funci´n de densidad para ciertos valores de a o los par´metros aparece en la Figura 1. Varianza: p(1 − p). . y Var(X) = n K NN N −n . o Distribuci´n uniforme o f (x) = 1/n para x = x1 . Distribuci´n Bernoulli o f (x) = px (1 − p)1−x para x = 0. Usamos el principio multiplicativo para obtener el n´ mero total de muestras u diferentes en donde x objetos son de la primera clase y n − x objetos son de la segunda clase. . xn . En este caso es posible comprobar que a −K E(X) = nK/N . . PROBABILIDAD 61 formas de escoger n − x objetos de la totalidad de N − K objetos de la segunda clase.24. n Varianza: i=1 (xi − µ)2 /n. .3 0. 1). . a Media: p. xn .1 x N = 20 K=7 n=5 0 1 2 3 4 5 Figura 1. Par´metro: p ∈ (0. Presentamos en la siguiente tabla un resumen de las distribuciones discretas mencionadas en esta secci´n.2 0.24: Con esto concluimos la revisi´n de algunas distribuciones de probabilidad de tio po discreto. 1.Parte 1. . . .

No construiremos estas distribuciones a partir de experimentos aleatorios particulares como en el caso de las distribuciones discretas. . . Varianza: nK(N − K)(N − n)/(N 2 (N − 1)). . Varianza: np(1 − p). . a Media: nK/N. K. Distribuciones de probabilidad Distribuci´n binomial o f (x) = n x Distribuci´n geom´trica o e f (x) = p (1 − p)x para x = 0. . . las definiremos sin mayor justificaci´n. 1). . Par´metro: λ > 0. 1). a Media: (1 − p)/p. 1). y escribimos X ∼ o . Varianza: λ. . n. a Media: np. Par´metros: n ∈ N. . a Media: r(1 − p)/p. 1. 1. 1. 2. p ∈ (0. 2. Varianza: (1 − p)/p2 . Distribuci´n binomial negativa o f (x) = r+x−1 x para x = 0. mas bien. . pr (1 − p)x Distribuci´n hipergeom´trica o e f (x) = K x N −K n−x / N n para x = 0. . n. en algunos casos mostraremos la forma de obtener o estas distribuciones a partir de considerar ciertas funciones de variables aleatorias conocidas. Distribuci´n Poisson o f (x) = λx x! px (1 − p)n−x e−λ para x = 0. . Par´metros: r ∈ N. ´ Distribucion uniforme continua. Decimos que una variable aleatoria X tiene una distribuci´n uniforme continua en el intervalo (a. .8. . 2. . 1. p ∈ (0. b). 1. . a Media: λ. Par´metro: p ∈ (0. n. para x = 0. Ahora estudiaremos algunas distribuciones de probabilidad de variables aleatorias continuas. Par´metros: N.62 1. . Varianza: r(1 − p)/p2 .

b−a f (x) =  0 otro caso.Parte 1.  0 (x − a)/(b − a) si a ≤ x < b. 63 La gr´fica general de esta funci´n se muestra en la Figura 1. .25: Ejemplo. excepto que toma valores continuos dentro de alg´ n intervalo.25(b). Los par´metros de esta distribuci´n son los n´ meros a < b. F (x) =  1 si x ≥ b. la varianza es peque˜ a. Esta distribuci´n es una de las m´s sencillas. b). 1) se considera regularmente que X tiene distribuci´n unio forme en dicho intervalo. b). y por el contrario. b). y es evidente que a o se trata de una funci´n de densidad pues es no negativa e integra uno. e u f (x) 1 b−a F (x) 1 x a (a) b a (b) b x Figura 1. En el experimento aleatorio te´rico de generar un n´ mero al azar X en o u el intervalo unitario (0.25(b). y est´ dada por o a  si x < a. Adem´s Var(X) = (b − a)2 /12. cuando los par´metros estan a muy cercanos.25(a). En este caso o es muy f´cil encontrar la correspondiente funci´n de distribuci´n. Compruebe que la funci´n de distribuci´n de una variable aleatoria con o o distribuci´n unif(a. Ejercicio. PROBABILIDAD unif(a. b) es la que aparece en la Figura 1. cuando su funci´n de densidad es o   1 si x ∈ (a. Es a o u f´cil verificar que E(X) = (a + b)/2. y ´sta se muestra a o o e en la Figura 1. de modo que la varianza o dispersi´n crece a o cuando a y b se alejan uno del otro. que corresponde al punto medio del intervalo a (a. n o a y sea usa naturalmente para cuando no se conoce mayor informaci´n de la variable o aleatoria de inter´s.

26(a). y Var(X) = 1/λ2 . La correspondiente funci´n de distribuci´n o o aparece a su derecha.181 . Decimos que una variable aleatoria continua X tiene una distribuci´n exponencial con par´metro λ > 0. P (X > 60)= 60 1/5 e−x/5 dx=0. y escribimos X ∼ exp(λ). o a cuando su funci´n de densidad es o f (x) = λ e−λx 0 si x > 0.64 1. es a o a la que se muestra en la Figura 1. Sea X una variable aleatoria con distribuci´n exp(λ). Es muy sencillo verificar que la funci´n f (x) arriba definida es o efectivamente una funci´n de densidad para cualquier valor del par´metro λ > 0. Distribuciones de probabilidad ´ Distribucion exponencial. Esta distribuci´n se ha usado para modelar tiempos o de espera para la ocurrencia de un cierto evento. Calcule la probabilidad de que un usuario cualquiera permanezca conectado al servidor de correo a) menos de un minuto. f (x) F (x) 1 3 2 1 1 (a) λ=3 x x 1 (b) Figura 1. b) mas de un ahora. Compruebe que la o .8.26: Ejemplo. si x ≤ 0. 1 Soluci´n: Para el primer inciso tenemos que P (X < 1) = 0 1/5 e−x/5 dx=0.0000061 . Suponga que el tiempo en minutos que un usuario cualquiera permanece revisando su correo electr´nico sigue una distribuci´n exponencial de par´metro o o a λ = 1/5. La gr´fica de esta funci´n cuando el par´metro λ toma el valor particular 3. o a Aplicando el m´todo de integraci´n por partes puede tambi´n comprobarse que e o e E(X) = 1/λ. Ejercicio. o ∞ Para el segundo inciso.

65 ´ Distribucion gama. La gr´fica de esta funci´n de densidad para varios valores de los par´metros se a o a muestra en la Figura 1. f (x) λ=5 λ=4 λ=3 n=5 n=7 n = 10 f (x) 1/2 1/2 x x 1 2 3 4 5 6 Figura 1. Γ(n) f (x) =  0 si x ≤ 0. y escribimos X ∼ gama(n. La variable aleatoria continua X tiene una distribuci´n gama o con par´metros n > 0 y λ > 0.27: 1 2 3 4 5 6 (a) n = 5 (b) λ = 3 En la expresi´n anterior aparece el t´rmino Γ(n). PROBABILIDAD funci´n de distribuci´n de X es la siguiente. o o e F (x) = 1 − e−λx 0 si x > 0. si su funci´n de a o densidad es  n−1  (λx) λe−λx si x > 0.Parte 1. V´ase la Figura 1.26(b). si x ≤ 0.27. λ). Esta funci´n no u o es el tipo de funciones a las que estamos acostumbrados en los cursos de matem´tia cas en donde regularmente se conoce la expresi´n exacta de una cierta funci´n y o o . Esta es la funci´n gama que se o e o define como la siguiente integral Γ(n) = 0 ∞ tn−1 e−t dt. para cualquier n´ mero real n tal que esta integral sea convergente.

66 1. En efecto. y Var(X) = n/λ2 . Decimos que la variable aleatoria continua X tiene una distribuci´n beta con par´metros a > 0 y b > 0. Esta funci´n est´ relacionada con la funci´n u o a o gama a trav´s de la identidad e B(a. b). b) Γ(n + 1) = n! si n es entero. B(a. Γ(a + b) . b) = 0 xa−1 (1 − x)b−1 dx. c) Γ(2) = Γ(1) = 1. 1 El t´rmino B(a. si en la distribuci´n gama tomamos o o el par´metro n igual a 1. principalmente enteros. para evaluar la funci´n gama o o es necesario substituir el valor de n en el integrando y efectuar la integral infinita. para n´ meros reales a > 0 y b > 0. √ d) Γ(1/2) = π. En este caso. La funci´n beta se define como sigue o o B(a. b) = Γ(a)Γ(b) . b) se conoce como la funci´n beta. a o a Resolviendo un par de integrales se puede demostrar que E(X) = n/λ. Observemos adem´s que la distribuci´n exponencial es un caso o a o particular de la distribuci´n gama. obtenemos la distribuci´n exponencial con par´metro λ. y de all´ adquiere su nombre e o ı esta distribuci´n. El nombre de esta distribuci´n se deriva del hecho de que en su definici´n aparece o o la funci´n gama. ´ Distribucion beta.8. cuando o a su funci´n de densidad es o  1  xa−1 (1 − x)b−1 si x ∈ (0. y nos ayudaremos de las siguientes propiedades: a) Γ(n + 1) = n Γ(n). Afortunadamente no evaluaremos esta integral para cualquier valor de n. b) f (x) =  0 otro caso. y escribimos X ∼ beta(a. s´lo para o algunos pocos valores. Distribuciones de probabilidad se utiliza esta expresi´n para evaluarla. 1).

´ Distribucion normal. por o o lo tanto la campana se abre o se cierra de acuerdo a la magnitud de este par´metro. o . y que la distancia del punto µ a e cualquiera de los dos puntos en donde la funci´n tiene puntos de inflexi´n es σ. Escribimos entonces X ∼ N(µ. Tambi´n puede demostrarse que Var(X) = σ 2 . decimos que la variable aleatoria X tiene una distribuci´n normal o est´ndar si tiene una distribuci´n normal con par´metros µ = 0 y σ 2 = 1. σ 2 ). Para e o o la distribuci´n beta(a. 2π Es posible transformar una variable aleatoria normal no est´ndar en una est´ndar a a mediante la siguiente operaci´n. positivo o cero. 2 2πσ en donde µ ∈ R y σ > 0 son dos par´metros. y Var(X) = ab/((a + b + o 1)(a + b)2 ). En este a o a caso la funci´n de densidad se reduce a la expresi´n o o 2 1 f (x) = √ e−x /2 . Decimos que la variable aleatoria continua X tiene una distribuci´n normal si su funci´n de densidad est´ dada por la siguiente expresi´n o o a o 2 2 1 f (x) = √ e−(x−µ) /2σ .28: No es inmediato pero es posible demostrar que E(X) = µ.28. ´ f (x) σ x µ Figura 1. en donde se muestra adem´s el significado geom´trico a e de los dos parmetros. Esta es posiblemente la distribuci´n de probabilidad de o mayor importancia. PROBABILIDAD 67 V´ase la secci´n de ejercicios para una lista de propiedades de esta funci´n. el cual puede ser negativo. b) se tiene que E(X) = a/(a + b). a La gr´fica de esta funci´n de densidad tiene forma de campana como se puede a o apreciar en la Figura 1. y ello significa que la campana esta centrada en este valor.Parte 1. a En particular.

para a < b n´ meros dados. Tenemos entonces que u P(a < X < b) = P(a − µ < X − µ < b − µ) a−µ X −µ b−µ = P( < < ) σ σ σ b−µ a−µ = P( <Z< ). La proposici´n anterior parece muy modesta pero tiene una gran importancia opeo racional pues establece que el c´lculo de las probabilidades de una variable aleaa toria normal cualquiera se reduce al c´lculo de las probabilidades para la normal a est´ndar. σ 2 ). o P (a < X < b). es decir. σ σ La igualdad de estas probabilidades es consecuencia de la igualdad de los eventos. Explicaremos esta situaci´n con m´s detalle. (1.68 1.4) compruebe que E(Z) = 0 y Var(Z) = 1. a X −µ Z= . Es tambi´n com´ n denotar la funci´n de e u o distribuci´n de Z como Φ(x). por ejemplo.4) σ A la operaci´n anterior se le conoce con el nombre de estandarizaci´n. o x Φ(x) = P (Z ≤ x) = −∞ 2 1 √ e−u /2 du. Distribuciones de probabilidad Proposici´n. pero usando m´todos num´ricos pueden o e e . Entonces la siguiente variable aleatoria tiene una distribuci´n noro mal est´ndar. Es com´ n usar o u la letra Z para denotar una variable aleatoria con distribuci´n normal est´ndar. 2π cuyo significado geom´trico se muestra en la Figura 1. Suponga que X es una vaa o a riable aleatoria con distribuci´n N(µ.29(a). y que deseamos calcular. De esta forma una probabilidad que involucra a la variable X se ha reducido a una probabilidad que involucra a Z. A partir de (1. y si ello no es posible por ahora. Ejercicio. Es necesario decir e que. Se deja como ejercicio al lector e demostrar la proposici´n anterior. o a y seguiremos nosotros tambi´n esa costumbre. Sea X una variable aleatoria con distribuci´n normal con par´meo o a tros µ y σ 2 . sin importar el m´todo de integraci´n que se utilice. no es posible encontrar e o una expresi´n exacta para esta integral.8. y bajo tal o o transformaci´n se dice que la variable X ha sido estandarizada. por lo menos o compruebe mentalmente las siguientes dos propiedades.

29: Ejercicio. Para cada valor α en el intervalo (0.49?. Por ejemplo.05 o corresponden al valor 1. Aqui estan algunas preguntas para el lector: ¿Por qu´ en la tabla aparecen solo valores de x e hasta 3.0495 c) Φ(−1) = 0. es decir. el rengl´n marcado con 1. Use la tabla de la distribuci´n normal est´ndar para comprobar que o a a) Φ(1.45) =0.4 y la columna marcada con 0. a . El valor que aparece en la tabla es Φ(x). Demuestre que Φ(−x) = 1 − Φ(x). tenemos entonces que Φ(1. ¿Cu´nto vale Φ(x) para x > 3.3 . PROBABILIDAD 69 encontrarse aproximaciones de ella para distintos valores de x. 10). En una tabla al final del texto aparece una tabla con estos valores aproximados. 1). Ejercicio. las distintas columnas corresponden al segundo d´ ıgito decimal.75 .45.9265 . c) P (X > 10).49? ¿C´mo se podr´ calcular a o ıan los valores de Φ(x) para x negativos? f (x) f (x) Φ(x) α x x (a) (b) zα x Figura 1.Parte 1.65) = 0. ´ Notacion zα . Sea X con distribuci´n N(5. b) P (0 < X < 5).1587 Ejercicio. Cada rengl´n de o esta tabla corresponde a un valor de x hasta el primer d´ ıgito decimal. el n´ mero zα denotar´ el u a punto en el eje real para el cual el ´rea bajo la curva a la derecha de zα es α. Ejercicio.65) = 0.9505 b) Φ(−1. b) Φ(x) = 0. Encuentre x tal que a) Φ(x) = 0. Calcule o a) P (X ≤ 7).

o a Escribiremos simplemente X ∼ χ2 (n). Φ(zα ) = 1 − α. Entonces la funci´n de distribuci´n de la variable o o Zn = (X1 + · · · + Xn ) − nµ √ nσ 2 tiende a la distribuci´n normal est´ndar cuando n tiende a infinito. ∞). Esta distribuci´n tiene un solo par´metro denotado aqui por la letra n. ım ´ Distribucion ji-cuadrada. en donde la letra griega χ se pronuncia “ji” o tambi´n “chi”. Se muestra en la siguiente Figura 1. . A pesar de su aparente expresi´n complicada. X2 . Se trata de una variable aleatoria continua con posibles valores en el intervalo (0. Sea X1 . es decir. . Decimos que la variable aleatoria continua X tiene una distribuci´n ji-cuadrada con n grados de libertad (n entero positivo). sin importar o a la distribuci´n de cada variable de la sucesi´n. Usaremos la notaci´n zα en la segunda parte de nuestro e u o curso. o o n→∞ l´ FZn (x) = FZ (x).70 1. no o es dif´ comprobar que f (x) es efectivamente una funci´n de densidad. una sucesi´n infinita de variables o aleatorias independientes e id´nticamente distribuidas con media µ y varianza e finita σ 2 .8. Puede demostrarse que E(X) = n y Var(X) = 2n. y al o a cual se le llama grados de libertad. si x ≤ 0. . Acerca de la distribuci´n normal tenemos el siguiente resultado de suma importano cia. La gr´fica ıcil o a de esta funci´n para varios valores del par´metro n aparece en la Figura 1. Distribuciones de probabilidad Esto es. .30. La distribuci´n e o ji-cuadrada puede obtenerse como indican los siguientes resultados que dejaremos sin demostrar. si su o funci´n de densidad est´ dada por la siguiente expresi´n o a o 1 f (x) = Γ(n/2)   0    1 2 n/2 xn/2−1 e−x/2 si x > 0. Teorema central del l´ ımite.29(b) el significado geom´trico del n´ mero zα .

1). Si X ∼ χ2 (n) y Y ∼ χ2 (m) son dos variables aleatorias indepeno dientes. entonces X + Y tiene distribuci´n χ2 (n + m). nπ Γ(n/2) para − ∞ < x < ∞.31. La distribuci´n t se puede encontrar en los siguientes contextos.Parte 1. . Si X ∼ N(0. . Xn son independientes con distribuci´n N(0. . Es posible demostrar que E(X) = 0. el siguiente o resultado establece que la suma de dos variables aleatorias independientes con distribuci´n ji-cuadrada tiene distribuci´n nuevamente ji-cuadrada con grados de o o libertad la suma de los grados de libertad de los sumandos. entonces o 2 2 X1 + · · · + Xn tiene distribuci´n χ2 (n). En tal caso se escribe X ∼ t(n). o En particular.30: Proposici´n. si X1 . 1). Decimos que la variable aleatoria continua X tiene una distribuci´n t con n grados de libertad si su funci´n de densidad est´ dada por o o a Γ((n + 1)/2) f (x) = √ (1 + x2 /n)−(n+1)/2 . o ´ Distribucion t. Proposici´n. La gr´fica de esta funci´n de densidad aparece en a o la Figura 1. o Es decir. el cuadrado de una variable aleatoria con distribuci´n normal est´ndar o a tiene distribuci´n ji-cuadrada con un grado de libertad. . Por otro lado. PROBABILIDAD f (x) 1/2 n=1 n=2 n=3 n=4 71 x 1 2 3 4 5 6 7 8 9 Figura 1. o . y Var(X) = n/(n − 2) para n > 2. entonces X 2 ∼ χ2 (1).

Proposici´n. Distribuciones de probabilidad f (x) n = 100 n=3 n=1 0. Si X ∼ N(0. . Sean X1 . y S 2 = 1 n n i=1 (Xi ¯ − X)2 . 1) y Y ∼ χ2 (n) son independientes. .72 1. La siguiente tabla contiene un resumen de las distribuciones continuas mencionadas en esta secci´n.1 x −4 −3 −2 −1 1 2 3 4 Figura 1. Recuerde el lector que existen muchas mas distribuciones de este tipo. Entonces o ¯ X −µ √ ∼ t(n − 1). S/ n ¯ en donde X = 1 n n i=1 Xi . Con esto terminamos con una revisi´n elemental de algunas distribuciones de proo babilidad continuas.31: Proposici´n. Xn variables aleatorias independientes cada una de o ellas con distribuci´n N(µ. o .8. . . entonces o X Y /n ∼ t(n). σ 2 ).

√ 1 2πσ2 2 2 Distribuci´n χ2 o f (x) = 1 Γ(n/2) 1 n/2 2 xn/2−1 e−x/2 para x > 0. Par´metros: a > 0. Varianza: (b − a)2 /12.b) x λ e−λx para x > 0. . Varianza: 2n. σ > 0. Par´metro: n > 0. f (x) = Varianza: σ 2 . b > 0. Distribuci´n beta o f (x) = 1 a−1 (1 B(a. b). PROBABILIDAD 73 Distribuci´n uniforme o f (x) = 1/(b − a) para x ∈ (a. Par´metros: a < b. − x)b−1 Distribuci´n normal o e−(x−µ) /2σ para x ∈ R. Varianza: ab/((a + b + 1)(a + b)2 ). Par´metro: λ > 0. λ > 0.Parte 1. 1). a Media: µ. a Media: (a + b)/2. a Media: a/(a + b). a Media: n/λ. a Media: n. Distribuci´n gama o f (x) = (λx)n−1 Γ(n) Distribuci´n exponencial o f (x) = λ e−λx para x > 0. Varianza: 1/λ2 . Par´metros: µ ∈ R. Par´metros: n > 0. Varianza: n/λ2 . a Media: 1/λ. para x ∈ (0.

Y (ω)) = (x. ıa o Vector aleatorio. a Media: 0. Y ) puede considerarse como una funci´n de Ω en R2 como se muestra en la Figura 1. y) Figura 1. De manera an´loga a se pueden tener vectores aleatorios multidimensionales (X1 .32: . Par´metro: n > 0. si las todas las variables aleatorias que lo conforman lo son. Varianza: n/(n − 2). o (X. aunque todas las ´ o definiciones y resultados que se mencionan pueden extenderse f´cilmente. Un vector aleatorio de dimensi´n dos es un vector de la forma o (X. pero no mezclas de ellas.32. . Y ) en donde cada coordenada es una variable aleatoria. .9. Vectores Aleatorios Esta secci´n contiene una breve introducci´n al tema de variables aleatorias multio o dimensionales o tambi´n llamadas vectores aleatorios. 1. Para hacer la escritura corta e se consideran unicamente vectores aleatorios de dimensi´n dos. Por simplicidad consideraremos unicamente ´ vectores aleatorios cuyas coordenadas son variables aleatorias todas discretas. Vectores Aleatorios (1 + x2 /n)−(n+1)/2 para x ∈ R.74 Distribuci´n t o f (x) = Γ((n+1)/2) √ nπ Γ(n/2) 1. o continuas. en la a mayor´ de los casos. Un vector aleatorio (X. o continuo. para vectores de dimensi´n superior. Y ) R2 ω Ω (X(ω). . Xn ).9. . Nuevamente diremos que un vector aleatorio es discreto. para n > 2.

a) f (x. y) es la probabilidad de que la variable X tome el valor u x y al mismo tiempo la variable Y tome el valor y. Toda funci´n f (x. mientras que el vector con letras min´ sculas (x. y) es un punto u en el plano. . y para enfatizar este hecho a o veces se escribe fX. Tal funci´n se llama tambi´n o e funci´n de densidad conjunta de las variables X y Y .1 0. ´ Funcion de probabilidad conjunta. Y ) tal que la variable X toma los valores en el conjunto {x1 . .4 1 0. Estos conceptos son completamente an´logos al caso unidimensional a estudiado antes.y f (x. . x2 . Y )(ω) = (X(ω).2 De este arreglo se entiende que la variable X toma valores en el conjunto {−1. y) ≥ 0. mientras que Y toma valores en {0. 1}. y2 . . b) x. y) = P (X = x. Y ) que se denota o por f (x. Es decir. . se encuentra definida sobre R2 y toma valores en el intervalo [0.}. el vector (X. y) de la forma anterior cumple las siguientes o a o dos propiedades.} × {y1 . y). Adem´s las probabilidades conjuntas est´n a a . .Y (x. e inversamente. 1}. 1] de acuerdo a la siguiente definici´n o f (x. . y). Y ) con funci´n de densidad o dada por la siguiente tabla. Nuevamente observe que el vector con letras may´ sculas (X. Vamos a estudiar primero el caso m´s a sencillo que es el discreto. Y ) es el u vector aleatorio. x/y -1 1 0 0. Ejemplo.3 0. PROBABILIDAD 75 Es decir. Estudiaremos a continuaci´n algunas funciones asociadas a vectores o aleatorios. La funci´n de densidad del vector (X. 0 otro caso. toda funci´n que las cumpla se llama funci´n de o o densidad conjunta. y) = 1.Parte 1. y). Y = y) si (x. y) ∈ {x1 . pero en general omitiremos los sub´ ındices para hacer la notaci´n m´s corta. Considere el vector aleatorio discreto (X. x2 .}. Y ) evaluado en ω es (X. el n´ mero f (x. Consideremos un vector aleatorio discreto (X. y2 . . . Y (ω)) con posible valor (x. . . . y la variable Y toma los valores en {y1 .}.

Y ) si para todo par (x. y = 0. por ejemplo. (b − a)(d − c) f (x. v) dv du. y = 0.   f (x. y) dx dy = 1. y todos ellos suman uno. y) =  0 otro caso.    0. Y ≤ y) = f (u. la probabilidad de que X tome el valor −1 y al mismo tiempo Y tome el valor 0 es 0. ∞) es una funci´n de o o densidad conjunta si cumple con las dos condiciones arriba mencionadas. y) : R2 → [0. naturalmente son no negativos. y defina la funci´n o  1  si a < x < b. Y = 0) = 0. y) : R2 → [0. Ejemplo. La misma informaci´n puede escribirse de la siguiente manera. y) de estas caracter´ o ısticas satisface las siguientes dos propiedades que son an´logas al caso discreto. Veamos ahora la situaci´n en el caso continuo. c < d.76 1. o   0. ∞) es la funci´n o o de densidad del vector aleatorio continuo (X. c < y < d. Sean a a < b. y = 1.3. y) = P (X = x. b) ∞ ∞ f (x.2 si x = 1.1 si x = −1. o Se dice que la funci´n integrable y no negativa f (x. y) en R2 se cumple la igualdad x y P (X ≤ x. −∞ −∞ Toda funci´n de densidad f (x. −∞ −∞ Rec´ ıprocamente decimos que una funci´n f (x. ´ Funcion de densidad conjunta.3 si x = −1.9. y = 1.4 si x = 1. Vectores Aleatorios dadas por las entradas de la tabla. a a) f (x. Y = y) = 0. esto es. Esta es una de las funciones de densidad conjunta m´s sencillas.     0 otro caso.     0. P (X = −1. Como todos estos valores son probabilidades.3. . y) ≥ 0.

La funci´n de distribuci´n del o o o .33: Ejercicio. y) = x+y 0 si 0 < x. Esta funci´n es de densidad pues es no negativa e integra a o uno sobre R2 . Y ). y su o o e definici´n es muy semejante al caso unidimensional. ´ ´ Funcion de distribucion conjunta. existe a o la funci´n de distribuci´n para un vector (X. y) = cxy 0 si 0 < x < y < 1. y < 1. Adem´s de la funci´n de densidad.33. Ejercicio.Parte 1. otro caso. Compruebe que la siguiente funci´n es de densidad. d). o f (x. PROBABILIDAD 77 cuya gr´fica aparece en la Figura 1. otro caso. sea ´ste discreto o continuo. o f (x. f (x. Encuentre la constante c para que la siguiente funci´n sea de densidad. Se trata de una funci´n constante en el a o rect´ngulo (a. y) c a b d y x Figura 1. b) × (c.

Para cualesquiera n´ meros a < b. pero omitiremos los sub´ ındices para mantener la notaci´n simple. Rec´ ıprocamente decimos que una funci´n F (x. 2. se cumple la desigualdad u F (b. . . o 1. xn ) = P (X1 ≤ x1 . y) es o u la probabilidad del evento (X ≤ x) ∩ (Y ≤ y). y) = 0. x. Observe que las primeras cuatro propiedades son an´logas al caso unidimensional. d) − F (b. . y) = 1. Siempre asociaremos la variable X con el valor x. Vectores Aleatorios vector (X. .78 1. . y) : R2 → [0. A esta funci´n se le conoce tambi´n con el nombre de funci´n de o e o acumulaci´n de probabilidad del vector (X. . y) es continua por la derecha en cada variable. 3.Y (x. es decir. F (x. . esta funci´n a o debe escribirse como FX. F (x. . y) : R2 → [0. xn ) : Rn → [0.9. y c < d. . o o 5. 1] dada por o F (x1 . y) como sigue u F (x. 4. el n´ mero F (x. d) − F (a. a y puede comprobarse geom´tricamente que la quinta propiedad corresponde a la e probabilidad del evento (a < X ≤ b) ∩ (c < Y ≤ d). l´ ım F (x. .y→∞ x→−∞ l´ ım F (x. . y) = P (X ≤ x. y la variable Y o con el valor y. se define para cualquier par de n´ meros reales (x. An´logamente cuando es la variable y quien tiende a a menos infinito. . . o Enunciamos a continuaci´n algunas propiedades que cumple toda funci´n de diso o tribuci´n conjunta. . La peque˜ a coma que aparece en el lado derecho de esta igualdad significa la n intersecci´n de los eventos (X ≤ x) y (Y ≤ y). y tambi´n se dice que es la funci´n o e o de distribuci´n conjunta de las variables X y Y . c) + F (a. 1]. y) es una funci´n mon´tona no decreciente en cada variable. denotada por F (x. Xn ) es la funci´n F (x1 . Y ≤ y). . c) ≥ 0. M´s precisamente. Xn ≤ xn ). El concepto de funci´n de distribuci´n puede extenderse al caso de vectores multio o dimensionales de la siguiente forma: La funci´n de distribuci´n del vector aleatorio o o (X1 . Y ). . y). Y ). 1] es una funci´n de distribuci´n bivariada si o o o satisface las anteriores cinco propiedades. .

y) la funci´n de densidad del vector o aleatorio continuo (X. y). y)? Conociendo la funci´n de deno o sidad f (x. simplemente se integra respecto de la variable y. b) ¿C´mo se encuentra f (x. Es sencillo verificar que a estas densidades marginales. por ejemplo. tanto en el caso discreto como en el continuo. Se define la funci´n de densidad marginal de la variable o X como sigue f (x) = ∞ f (x. Para el caso continuo tenemos x y F (x. y). son . v) para valores de u menores o iguales a x y valores de v menores o iguales a y. y) guardan la relaci´n o x y F (x. y) y F (x. La correspondiente definici´n para vectores discretos involucra una suma en lugar o de la integral. v) dv du. y) a partir de f (x. v) dv du. y) = −∞ −∞ f (u. ∂x ∂y ´ Funcion de densidad marginal. y) a partir de F (x. por el teorema fundamental del c´lculo tenemos que a f (x. y) dx. Sea f (x. f (x) = y f (x. de manera an´loga se define la densidad marginal f (y). y) dy. PROBABILIDAD 79 a) ¿C´mo se encuentra F (x. −∞ es decir. y) = ∂2 F (x. La correspondiente funci´n de densidad marginal de la variable Y se obtiene integrando ahora respecto o de la variable x. Y ). y)? En el caso continuo sabemos o que f (x. f (y) = ∞ −∞ f (x. En el caso discreto se suman todos los valores de f (u. y) = −∞ −∞ f (u. y) simplemente o o integrando en el caso continuo o sumando en el caso discreto. y). es posible encontrar al funci´n de distribuci´n F (x. es decir.Parte 1.

. la a funci´n de densidad marginal de la variable X1 a partir de la funci´n de densidad o o del vector (X1 . y). . . . Las dos condiciones anteriores son equivalentes.80 1. Sea (X. . . . . Se dice que estas variables son independientes si para cualesquiera valores x1 . De manera an´loga se obtiene la funci´n marginal de cualquiera de las variables a o que componen el vector multidimensional. . . o ´ ´ Funcion de distribucion marginal. . .. xn . .Xn (x1 .. xn ) = f (x1 ) · · · f (xn ). . y con respectivas distribuciones maro ginales F (x1 ). . Vectores Aleatorios efectivamente funciones de densidad univariadas. . y). . Y tambi´n de manera an´loga se pueden e a calcular estas densidades marginales para vectores discretos de cualquier dimensi´n. .. xn ). . en el caso continuo. .9. Nuevamente esta igualdad debe verificarse para cualesquiera valores x1 . En el caso particular cuando las . ım x→∞ No es dif´ comprobar que estas funciones de distribuci´n marginales son efectiıcil o vamente funciones de distribuci´n univariadas. ım y→∞ y la correspondiente funci´n de distribuci´n marginal de la variable Y es la funci´n o o o F (y) = l´ F (x. o Todo lo mencionado en estas ultimas secciones tiene como objetivo poder enunciar ´ con precisi´n el concepto de independencia entre variables aleatorias. xn ) = FX1 (x1 ) · · · FXn (xn ). xn ) dx2 · · · dxn . Xn ) es. Y ) un vector aleatorio. . . . Xn variables aleatorias con distribuci´n conjunta F (x1 . Un poco m´s generalmente. . La funci´n de distribuci´n marginal o o o o de la variable X se define como la funci´n o F (x) = l´ F (x. . . Veremos a o continuaci´n este importante concepto que usaremos con regularidad en la segunda o parte del curso. . . . xn se cumple la igualdad FX1 . continuo o discreto. . . con funci´n de distribuci´n F (x. F (xn ). . .. y). f (x1 ) = ∞ −∞ ··· ∞ −∞ f (x1 . Sean X1 . . . Independencia de variables aleatorias. . Alternativamente puede definirse la independencia en t´rminos de la funci´n de e o densidad como sigue f (x1 .

Parte 1. la condici´n de independencia se escribe o P (X1 = x1 . . . Xn = xn ) = P (X1 = x1 ) · · · P (Xn = xn ). . PROBABILIDAD variables aleatorias son discretas. . Este es el sentido en el que la sucesi´n infinita de variables aleatorias debe entenderse en el enunciado del o teorema central del l´ ımite. se dice que un conjunto infinito de variables aleatorias son independientes si cualquier subconjunto finito de ellas lo es. 81 Adicionalmente. .

82 1. Vectores Aleatorios .9.

Fisher (1890-1962).Parte 2 ESTAD´ ISTICA Originalmente cualquier colecci´n de datos acerca de la poblaci´n o econom´ de un o o ıa estado era del inter´s exclusivo del estado. en donde los esfuerzos y recursos se orientaron principalmente a obtener censos. sociales o econ´micas. sean ´stas cient´ e ıficas. y para la toma de decisiones. Egon Sharpe Pearson (1895-1980) hijo de Karl Pearson. varios gobiernos europeos. es por ello que a las primeras colecciones e de datos se les llamara estad´sticas. Hoy en d´ los m´todos de la estad´ ıa e ıstica son usados en muy diversas ´reas del a conocimiento humano. a trav´s de las parroquias. Cotidianamente encontramos elementos de estad´ ıstica descriptiva en los peri´dicos. en la radio. Los ı o primeros registros de una recolecci´n sistem´tica de datos de una poblaci´n suro a o gen en las ciudades italianas de Venecia y Florencia durante el Renacimiento. surgen las primeras ideas para inferir informaci´n de una poblaci´n a partir de o o datos estad´ ısticos. De particular importancia en aquellos a˜ os eran los registros de decesos pues las tasas de mortalidad eran altas n debido a las recurrentes epidemias y plagas que diezmaban a la poblaci´n. como una derivaci´n de la palabra estado. A finales del siglo IXX. en la televisi´n y en internet. Para mediados del siglo XVI. o o 83 . Ronald A. Esta o recolecci´n de datos por parte de los gobiernos sigui´ desaroll´ndose durante los o o a siglos XVII y XVIII. y Jerzy Neymann (1894-1981). Los m´todos y la teor´ general se desarrollaron a partir de los e ıa inicios del siglo XX gracias a los trabajos de Karl Pearson (1857-1936). y teniendo a Francis Galton (1822-1911) como precursor. matrimonios y decesos. Sus m´todos y o e conclusiones son usados como respaldo cient´ ıfico para rechazar o aceptar afirmaciones. llevae ban registros de nacimientos.

2. resumir y analizar datos para despu´s obtener e conclusiones a partir de ellos. peso.1. informaci´n de una poblaci´n con o o base en la informaci´n de una muestra. sexo. Por o ejemplo. y deseamos conocer cierta informaci´n de esta poblaci´n. un conjunto arbitrario o e de personas. La estad´stica inferencial consiste de un conjunto de t´cnicas para o ı e obtener. al cual llamaremos muestra. tomamos un peo o que˜ o subconjunto de ellos. etc. o o muestra poblaci´n o Figura 2. Introducci´n o Supongamos que tenemos una poblaci´n de inter´s. La estad´ ıstica es la ciencia que se encarga de recolectar. o 2. los siguientes son ejemplos de variables o que podr´ ser de inter´s: edad. Introduccion 2. organizar. estatura. Con base en esta muestra n trataremos de inferir la informaci´n de la poblaci´n en su totalidad.1. mediciones u objetos cualesquiera. Veremos a continuaci´n ıan e o algunos criterios bajo los cuales las variables pueden ser clasificadas. La estad´stica ı descriptiva es una colecci´n de m´todos para la organizaci´n. esto es. la estad´ ıstica puede ser dividida en dos grandes ´reas: estad´ a ıstica inferencial y estad´ ıstica descriptiva. si la poblaci´n consta de personas. resumen y presentao e o ci´n de datos. . con determinado grado de confianza.1: Estad´ ıstica descriptiva e inferencial. Debido a la imposibilidad o no conveniencia de tener o o informaci´n de todos y cada uno de los elementos de la poblaci´n.84 ´ 2. De manera general. Variables y tipos de datos Una variable es una caracter´ ıstica de un elemento en una poblaci´n en estudio.

cuando solamente registran una cualidad o u atributo del objeto o persona en estudio. una variable cuantitativa puede u ser clasificada como discreta cuando s´lo puede tomar un n´ mero discreto (es decir. a la variable sexo podemos asignarle o dos posibles valores: F para femenino. Escala ordinal. 2=Regular. por ejemplo. el peso y la estatura son ejemplos de variables cuantitativas en una poblaci´n de personas. e 4=Excelente. En esta escala los valores de la variable tienen un orden pero no se pueden hacer operaciones aritm´ticas entre estos valores pues no hay noci´n e o de distancia entre ellos. y M para masculino. Por ejemplo. b) de la recta real. si estamos estudiando una poblaci´n humana. Las variables cualitativas o pueden ser clasificadas de acuerdo a dos escalas: escala nominal o escala ordinal. De acuerdo con la posible relaci´n que pudieran guardar los valores de una variable. pero no se puede decir. mientras que el sexo y el o estado civil son variables cualitativas. suponga que los valores de una cierta variable est´n dados por los d´ del mes. cuando se realiza una medici´n y el resultado o es un n´ mero. Los s´ ımbolos F y M son etiquetas arbitrarias. para calificar las caracter´ ısticas de un objeto podemos suponer los siguientes valores: 0=P´simo. o se cuenta por lo menos con cuatro escalas de medici´n. Una variable se llama nominal cuando sus posibles valores no tienen alguna relaci´n de orden o magnitud entre ellos. que el d´ 20 es dos veces el d´ 10. La edad. o u finito o numerable) de valores. o continua cuando puede tomar cualquier valor dentro de un intervalo (a. No existe el valor natural cero para esta tipo de escala. que dos valores regulares hacen un valor excelente. y no existe un orden en ellas ni podemos realizar operaciones aritm´ticas. o Escala nominal. En este tipo de escala existe un orden entre los valores de la variable y existe adem´s una noci´n de distancia aunque no se pueden realizar a o operaciones. En este caso la escala de medici´n es ordinal pues existe un orden o entre sus valores. De acuerdo al n´ mero total de sus posibles valores. La religi´n o la nacionalidad son tambi´n ejemplos de e o e variables nominales. 3=Bueno. Por ejemplo.Parte 2. 1=malo. Por ejemplo. B´sicamente los valores o a de este tipo de variables son etiquetas sin un orden entre ellos. La temperatura es otro ejemplo de este tipo ıa ıa . Mientras que las variables cuantitativas pueden clasificarse por: escala de intervalo o escala de raz´n. ESTAD´ ISTICA 85 Las variables pueden ser cuantitativas. a ıas Entre el d´ 10 y el d´ 20 hay una distancia de diez d´ pero no se puede decir ıa ıa ıas. o pueden ser cualitativas. Escala de intervalo.

3. diga si su escala de medici´n es nominal u ordinal.F.3. . . xn . el posible valor cero depende de la escala que se use para medir la temperatura (Celsius. e e 2. diga si es discreta o continua.D. Fahrenheit). i) Peso de un beb´ reci´n nacido.86 2. b) Evaluaci´n de un curso de acuerdo a las siguientes categor´ Acreditado. Por ejemplo. Si es cualitativa. y diga su escala de medici´n. Determine si cada una de las siguientes variables es cualitativa o cuantitativa. o La clasificaci´n de un variable particular en alguna de estas categor´ puede no o ıas ser clara pues tal decisi´n puede depender del tratamiento que una persona haga o de tal variable. la variable edad en a˜os estudiada en una n poblaci´n humana. Ausente. u d) Salario en unidades monetarias. En una escala de raz´n la magnitud tiene un sentido f´ o ısico y existe el cero absoluto.B. Estad´ ıstica descriptiva de variable. o a) Apreciaci´n o punto de vista acerca de una idea o propuesta usando la escala: o De Acuerdo. g) Preferencia sexual. h) Lugar de nacimiento de una persona. Ejercicio. Kelvin.E. . c) N´ mero de hijos en una familia. Estad´ ıstica descriptiva Supongamos que tenemos un conjunto de datos num´ricos x1 . Indiferente. ıas: f) Longitud de un tornillo. Si es o cuantitativa. que repree sentan mediciones de alguna variable de inter´s en un experimento aleatorio. .C. Para e conocer algunas caracter´ ısticas globales de esta variable se pueden calcular ciertas . e) Nivel de salario en alguna de las categor´ A. No o ıas: Acreditado. En desacuerdo. ´ Escala de razon.

es simplemente el promedio (x1 + · · · + xn )/n. Pueden existir.5 . 3. Se ordena la muestra x1 . Si hay mas de dos valores con mayor n´ mero de repeticiones. y se obtiene la muestra ordenada x(1) . 5. si embargo. denotada por s2 .5. a) −5. . cuando tenemos un n´ mero impar de datos. o e La varianza. . Calcule la media. 2. se u dice que no hay moda. 8. en tal caso la u moda consta de esos valores. Definiremos ahora algunas medidas que ayudan a cuantificar la dispersi´n que puede presentar un conjunto de datos num´ricos x1 . 7. 6. . .5. xn . 9. entonces a ese valor se le llama la moda. dos o mas valores que sean los que mayor n´ mero de veces se repiten. . . o Medidas de tendencia central. la mediana se calcula promediando los dos datos ordenados que est´n a enmedio. Y cuando tenemos un n´ mero par u de datos. 2. . 2. 10. . . 7. . se define como sigue s2 = 1 n−1 n i=1 (xi − x)2 . y tambi´n otras mee didas llamadas de dispersi´n como la varianza. −3. la ¯ moda es el valor que aparece con mayor frecuencia. en donde x(1) denota el dato m´s peque˜ o y x(n) a n es el dato m´s grande. o que todos los valores son moda. moda y mediana de cada uno de los siguientes conjuntos de datos. −2. 4. Si ning´ n valor se repite. xn . .5. . 4. se define como sigue a ˜ x= ˜ x( n+1 ) 2 1 n 2 [x( 2 ) + x( n +1) ] 2 si n es par. si n es impar. De este modo. 3. denotada por x. c) 1. Para calcular la mediana procedemos como sigue. La media de los datos num´ricos x1 . .5. ¯ . Si existe un unico valor ´ con mayor n´ mero de repeticiones. e denotada por x. ´ Medidas de dispersion. 4. b) 3. y se dice que el conjunto de datos es bimodal. 1. . 5 . 4. . . la mediana es el dato u ordenado que se encuentra justo a la mitad. Por otro lado. ESTAD´ ISTICA 87 medidas de tendencia central como la media. se dice que el conjunto de u datos es multimodal. moda y mediana. y u el conjunto de datos se dice que es unimodal. La mediana. xn de menor a mayor incluyendo repeticiones. x(n) . 7. la desviaci´n est´ndar y el rango. o o a Definiremos estos conceptos a continuaci´n. 2.5.Parte 2. Ejercicio.

88

2.4. Muestras aleatorias y estad´ ısticas

en donde x es la media muestral definida antes. La desviaci´n est´ndar es la ra´ ¯ o a ız cuadrada positiva de s2 , y se le denota naturalmente por s. El rango es el dato m´s a grande menos el dato m´s peque˜ o, es decir, x(n) − x(1) . a n Ejercicio. Calcule la varianza, la desviaci´n est´ndar y el rango de los conjuntos de o a datos del ejercicio anterior.

2.4.

Muestras aleatorias y estad´ ısticas

En lo que los problemas estad´ ısticos que consideraremos no estudiaremos muestras particulares de datos num´ricos x1 , . . . , xn , sino conjuntos de variables aleatorias e X1 , . . . , Xn que pueden, en particular, tomar el conjunto de datos mencionado. Definiremos a continuaci´n este concepto junto con el de estad´ o ıstica. Definici´n. Una muestra aleatoria (escribimos simplemente m.a.) es una coleco ci´n de variables aleatorias X1 , . . . , Xn que son independientes e id´nticamente o e distribuidas. De este modo, cuando se diga, por ejemplo, que una muestra aleatoria es tomada de una poblaci´n normal con media µ y varianza σ 2 , ello significa que las variables o aleatorias que forman la m.a. son independientes entre s´ y todas ellas tienen ı, la misma distribuci´n normal con los mismos par´metros. Una muestra aleatoria o a constituye el elemento b´sico para llevar a cabo inferencias estad´ a ısticas. Definici´n. Una estad´stica es una funci´n cualquiera de una muestra aleatoria o ı o X1 , . . . , Xn , y por lo tanto es tambi´n una variable aleatoria. e Veremos a continuaci´n dos ejemplos de estad´ o ısticas que ser´n usados con frea cuencia m´s adelante. Considere una muestra aleatoria X1 , . . . , Xn . La funci´n X a o ¯ definida como sigue n 1 ¯ X= Xi , n i=1 es una estad´ ıstica, y se le conoce con el nombre de media muestral. El otro ejemplo

Parte 2. ESTAD´ ISTICA es el de la varianza muestral, que se define de la forma siguiente S2 = 1 n−1
n i=1

89

¯ (Xi − X)2 .

2.5.

Estimaci´n puntual o

Sea X una variable aleatoria de inter´s en un experimento aleatorio, y supongamos e que X tiene una distribuci´n de probabilidad con funci´n de densidad f (x; θ), en o o donde θ es el par´metro o el conjunto de par´metros de la distribuci´n. En esta a a o nueva notaci´n se hace ´nfasis en que la distribuci´n depende de un par´metro o e o a denotado gen´ricamente por la letra griega θ, y el cual consideraremos desconocido. e Por ejemplo, si la distribuci´n es exp(λ), entonces θ representa el par´metro λ, si o a la distribuci´n es N(µ, σ 2 ), entonces θ representa el vector de par´metros (µ, σ 2 ). o a El problema de estimaci´n puntual consiste en encontrar un n´ mero, con base en o u las observaciones realizadas de la variable aleatoria, que sirva como estimaci´n del o par´metro desconocido θ. Ilustraremos el problema con un par de ejemplos. a Ejemplo. Se desea conocer el estado de la calidad de un conjunto 1000 art´ ıculos. Dada la imposibilidad de someter a prueba a todos ellos, se escogen 20 art´ ıculos al azar obteni´ndose los siguientes resultados: 0,1,1,0,1,1,0,1,0,1,1,1,0,1,1,1,1,1,1,0, e en donde cero indica que el art´ ıculo no pas´ el control de calidad y uno indica que o el art´ ıculo pas´ el control de calidad. Suponga que X es la variable que indica si o un art´ ıculo escogido al azar pasa o no pasa el control de calidad. Entonces X tiene una distribuci´n Ber(p), en donde p es desconocido. ¿C´mo podr´ estimarse el o o ıa verdadero valor de p con base en los datos de la muestra? Ejemplo. El tiempo en minutos que un conjunto de 10 empleados escogidos al azar invierte en trasladarse de la casa al lugar de trabajo es: 30,70,65,10,25,15,5,50,20,15. Suponga que tal variable puede modelarse mediante la distribuci´n exp(λ). ¿C´mo o o podr´ estimarse el valor de λ con base en las observaciones realizadas? ıa

Definici´n. Un estimador puntual para el par´metro θ es una funci´n de una o a o muestra aleatoria X1 , . . . , Xn que se usa para estimar θ.

90

´ 2.5. Estimacion puntual

ˆ A un estimador del par´metro θ se le denota regularmente por θ (se lee “teta a circunflejo”). Observe que un estimador puntual es una estad´ ıstica y puede escriˆ ˆ birse como θ = θ(X1 , . . . , Xn ). Veremos a continuaci´n dos m´todos para encontrar o e estimadores puntuales. ´ M´todo de maxima verosimilitud. Sea X1 , . . . , Xn una muestra aleatoria de e una poblaci´n con funci´n de densidad f (x; θ). Esto significa que todas las variao o bles de la muestra aleatoria tienen funci´n de densidad f (x) que depende de un o par´metro desconocido θ. a Definici´n. La funci´n de verosimilitud de una muestra aleatoria X1 , . . . , Xn , o o denotada por L(θ), se define como la funci´n de densidad conjunta o L(θ) = fX1 ,...,Xn (x1 , . . . , xn ; θ).

La letra L proviene del t´rmino en ingl´s likelihood, que tradicionalmente se ha trae e ducido como verosimilitud, aunque tal vez el t´rmino credibilidad sea m´s acertado. e a El m´todo de m´xima verosimilitud consiste en obtener el valor de θ que maximice e a la funci´n de verosimilitud L(θ), la idea intuitiva es interesante: se debe encontrar o el valor de θ de tal forma que los datos observados tengan m´xima probabilidad a de ocurrir. El valor de θ en donde se alcanza el m´ximo se llama estimador de a m´xima verosimilitud, o estimador m´ximo veros´mil. Ilustraremos este m´todo a a ı e con algunos ejemplos. Ejemplo. Encontraremos el estimador m´ximo veros´ a ımil para el par´metro λ de a una distribuci´n exponencial. La funci´n de verosimilitud es o o L(λ) = = = fX1 (x1 ) · · · fXn (xn ) λ e−λx1 · · · λ e−λxn
x λn e−λn¯

Maximizar la funci´n L(λ) es equivalente a maximizar la funci´n ln L(λ), pues la o o funci´n logaritmo es continua y mon´tona creciente en su dominio de definici´n. o o o Hacemos esto pues esta nueva funci´n resulta m´s f´cil de maximizar como vereo a a mos a continuaci´n. Tenemos que ln L(λ) = n ln λ − λn¯. Derivando respecto a λ e o x igualando a cero se llega a la ecuaci´n n/λ − n¯ = 0, de donde se obtiene λ = 1/¯. o x x ˆ ¯ El estimador es entonces λ = 1/X.

σ 2 ) = ∂σ 2 1 σ2 n i=1 (xi − µ). y σ 2 = n i=1 (xi − µ)2 . Recordemos que a el k-´simo momento poblacional de X es el n´ mero E(X k ). Sea nuevamente f (x. n i=1 (xi − µ)2 n 1 1 De estas ecuaciones se obtiene µ = n i=1 xi . = 0. 2 2σ i=1 Por lo tanto ∂ ln L(µ. Igualando a cero ambas derivadas encontramos un sistema de dos ecuaciones con dos variables: 1 σ2 − n 1 + 4 2 2σ 2σ n i=1 n (xi − µ) = 0. ESTAD´ ISTICA 91 Ejemplo. cuando esta esperanza e u . e a ˆ ˆ ˆ M´todo de momentos.Parte 2. 2πσ 2 Nuevamente el logaritmo de esta funci´n es m´s sencillo de maximizar. n i=1 n 1 − 2+ 4 2σ 2σ (xi − µ)2 . Por lo ˆ 2 tanto los estimadores para los par´metros µ y σ de una distribuci´n normal por a o n n 1 1 el m´todo de m´xima verosimilitud son µ = n i=1 Xi . Encontraremos los estimadores de m´xima verosimilitud para los par´mea a tros µ y σ 2 de una distribuci´n normal. Por definici´n la funci´n de verosimilitud o o o es L(µ. σ 2 ) = − ln(2πσ 2 ) − 2 (xi − µ)2 . σ 2 ) = = = fX1 (x1 ) · · · fXn (xn ) 2 2 2 2 1 1 √ e−(x1 −µ) /2σ · · · √ e−(xn −µ) /2σ 2 2 2πσ 2πσ n 1 1 − 2σ2 (xi −µ)2 i=1 (√ )n e . σ 2 ) = ∂µ ∂ ln L(µ. y σ 2 = n i=1 (Xi − µ)2 . θ) la funci´n de densidad de una e o variable aleatoria X que depende de un par´metro desconocido θ. Tenemos o a que n n 1 ln L(µ.

El m´todo de momentos para e estimar el par´metro θ es muy sencillo. Un estimador θ del par´metro θ es insesgado si E(θ) = θ. un estimador puntual θ ˆ para el par´metro desconocido θ si. . y a la diferencia E(θ) − θ se ˆ es un estimador insesgado le llama sesgo. entonces se dice que es sesgado. respectivamente.5. Xn de esta distribuci´n. Ahora. ˆ Insesgamiento. se deo n 1 e fine el k-´simo momento muestral como n i=1 Xik . De esta forma. . . respectivamente. La igualaci´n o i=1 i=1 i respectiva produce el sistema de ecuaciones µ = σ2 + µ = 1 n 1 n n xi . En este caso los estimadores por el m´todo de momentos coinciden con los estimae dores m´ximo veros´ a ımiles. El primer y segundo momento muestrales son n xi y n x2 . ıa ˆ ˆ Definici´n. Ejemplo. o a ˆ ˆ Si θ no es insesgado. en promedio. y resolver esta ecuaci´n o o sistema de ecuaciones para el par´metro θ cuando ello sea posible. Esta a ser´ una buena propiedad para un estimador. es interesante saber si el valor promedio de θ es θ. . el valor de θ coincide con el valor a . Siendo un estimador θ una variable aleatoria que se utiliza para ˆ estimar el par´metro θ. El primer y segundo momento a poblacionales son E(X) = µ y E(X 2 ) = σ 2 + µ2 . Estimacion puntual existe. Nuevamente estimaremos los par´metros µ y σ 2 de una distribuci´n nora o mal. i=1 n x2 . Veamos algunos a ejemplos. i i=1 La primera ecuaci´n es expl´ o ıcita mientras que la segunda ecuaci´n se puede reeso cribir como sigue σ2 = 1 n n i=1 x2 − µ2 = i 1 n n i=1 x2 − ( i 1 n n xi )2 = i=1 1 n n i=1 (xi − µ)2 . consiste en igualar los momentos muesa trales con los correspondientes momentos poblacionales. Esta vez usaremos el m´todo de momentos.92 ´ 2. Como necesitamos estimar dos e par´metros usamos los dos primeros momentos. dada una muestra aleatoria X1 .

i=1 Ejemplo. con cierto grado de confiabilidad. . Sea X1 . 1 ¯ E(ˆ) = E(X) = E( µ n n Xi ) = i=1 1 n n E(Xi ) = i=1 1 n n µ = µ. Por la propiedad lineal de la esperanza. . Comprobar esta afirmaci´n requiere de o algunos c´lculos que por cuesti´n de espacio omitimos. o ´ usar la propiedad de linealidad de la esperanza y observar que E(Xi Xj ) = µ2 σ +µ 2 2 si i = j. Observe que X es el estimador θ. Estimaci´n por intervalos o En algunos casos es preferible no dar un n´ mero como estimaci´n de un par´metro u o a sino un intervalo de posibles valores. de modo que se deja al a o lector tal comprobabci´n. En este caso el estimador es i=1 S 2 y el par´metro desconocido a estimar es σ 2 .6. lo unico que hay que hacer es desarrollar el cuadrado. . . A este tipo a de intervalos se les llama intervalos de confianza. .Parte 2. Recordemos que la varianza muestral es una estad´ ıstica definida 1 ¯ de la forma siguiente: S 2 = n−1 n (Xi − X)2 . Esta estad´ a ıstica resulta ser un estimador insesgado para la varianza σ 2 . En este tipo de estimaci´n se busca o a o un intervalo de tal forma que se pueda decir. ESTAD´ ISTICA 93 desconocido de θ. 2. si i = j. que dicho intervalo contiene el verdadero valor del par´metro desconocido. Comprobaremos que la media muestral X = n i=1 Xi es un estimador ˆ ¯ insesgado para el par´metro µ. . . Sea X1 . Observe en los siguientes ejemplos la forma en la que se verifica la propiedad de insesgamiento a´ n cuando no se conozca el valor del par´metro θ. Xn una muestra aleatoria de una poblaci´n con varianza o desconocida σ 2 . En esta secci´n se estudia brevemente el tema o de estimaci´n de par´metros usando intervalos. . y µ es el par´metro a a desconocido θ. . Xn una muestra aleatoria de una poblaci´n con media descoo n 1 ¯ nocida µ. u a Ejemplo.

En cambio. del intervalo de confianza.94 ´ 2.2: Observe que no es correcto decir “la probabilidad de que θ pertenezca al intervalo ˆ ˆ (θ1 . ´ Intervalo para la media de una distribucion normal con varianza co- .6. aunque desconocido. de modo que el grado de confianza es 1 − α =0. Estimacion por intervalos Definici´n. Observe que las estad´ ısticas θ1 y θ2 dependen de una muestra aleatoria X1 . . En general. θ2 ) contenga el valor de θ es 1 − α”. θ2 ) es 1 − α”. θ Figura 2. se toma el valor de α cercano a 0 de tal forma que el grado de confianza.1) ˆ ˆ A las estad´ ısticas θ1 y θ2 se les conoce como l´mites inferior y superior. . pues el par´metro no es el elemento aleatorio. es cercano a 1.95 . Sea α ∈ (0. Xn . A continuaci´n mostraremos la yθ o forma de resolver este problema en algunos casos particulares. se dice a ˆ ˆ “la probabilidad de que el intervalo (θ1 . (2. En la pr´ctica es com´ n tomar a u α =0. De esta forma se entiende que θ es constante. . θ2 ).05. 1 − α. Naturalmente el problema es encontrar θ1 ˆ2 de tal forma que la igualdad (2. en donde θ1 y θ2 son estad´ ısticas (funciones de una muestra aleatoria) tales que ˆ ˆ P (θ1 < θ < θ2 ) = 1 − α. Al n´ mero 1 − α se le conoce como grado o u coeficiente de confianza. Decimos entonces que ˆ ˆ el grado de confianza es del 95 %. respecı tivamente. 1). de modo que al tomar estas variables aleatorias distintos valores se generan distintos intervalos de confianza. . Un intervalo de confianza para un par´metro deso a conocido θ de una distribuci´n de probabilidad es un intervalo aleatorio de la o ˆ ˆ ˆ ˆ forma (θ1 .1) se cumpla. y el intervalo es el ˆ que cambia dependiendo de la muestra. Esto se ilustra en la Figura 2.2.

Ilustraremos la aplicaci´n de esta f´rmula mediante un ejemplo. Como cada una de las variables de la muestra tiene distribuci´n a o n 1 ¯ N(µ. estandarizando. σ/ n Para cualquier valor de α ∈ (0. Sea X1 . . . el intervalo (X − zα/2 √n . σ 2 ). Un intervalo de confianza para la media µ de una distribuci´n o o normal con varianza conocida σ 2 est´ dado por la siguiente expresi´n a o σ σ ¯ ¯ P ( X − zα/2 √ < µ < X + zα/2 √ ) = 1 − α. σ/ n f (x) 1−α α/2 α/2 x −zα/2 zα/2 Figura 2. Proposici´n.3: Despejando la constante desconocida µ se obtiene el siguiente resultado. . tal que a e P ( −zα/2 < ¯ X −µ √ < zα/2 ) = 1 − α. 1). . v´ase la Figura 2. X + zα/2 √n ) es un intervalo de confianza para el par´metro desconocido µ. ESTAD´ ISTICA 95 nocida. Observe que todas las expresiones que aparecen en este intervalo son conocidas. la media muestral X = n i=1 Xi tiene distribuci´n N(µ.2) σ σ ¯ ¯ De esta forma. 1) podemos encontrar un valor zα/2 en tablas de probabilidad normal est´ndar. σ 2 /n). Encontraremos un intervalo de confianza para el par´metro µ. ¯ X −µ √ ∼ N(0. o o . De moo do que. pues contiene a dicho par´metro con probabilia a dad 1 − α.3. n n (2. Xn una muestra aleatoria de una poblaci´n normal con media o desconocida µ y varianza conocida σ 2 .Parte 2.

Si consideramos un nivel de confianza ¯ del 95 %. es decir. y por lo tanto la longitud del intervalo e tambi´n crece. Estimacion por intervalos Ejemplo. si la confianza requerida crece. ´ Intervalo para la media de una distribucion normal con varianza desconocida. 1050 + 1.2) es √ n 2zα/2 σ/ n. . es decir. De esta forma. de la tabla de probabilidad normal se encuentra que zα/2 = z0. Los resultados x1 . .852. 1050 + 13. El objetivo es encontrar un o a intervalo de confianza para la vida promedio util µ de los focos producidos por esta ´ compa˜´ Para ello se toma una muestra de 20 focos y mediante pruebas de lanıa. 1063. Xn una muestra aleatoria de una distribuci´n normal con o media desconocida µ y varianza desconocida σ 2 . Ejercicio.148. Suponga que la deso viaci´n est´ndar σ es conocida y es igual a 30 horas.6. Encuentre un intervalo de confianza al 90 % para la media de una poblaci´n normal con σ = 5 cuando se ha tomado una muestra de tama˜ o 25 cuya o n media muestral es 60. . . la vida promedio util de este tipo de ´ focos es de 1050 ± 13. Suponga que la vida promedio util. . medida en horas. T = S/ n tiene una distribuci´n t con n − 1 grados de libertad. aleatoria con distribuci´n normal de media µ y varianza σ 2 . .96.96 √ .148).025 =1. boratorio se determina la vida util de cada uno de ellos. si 1 − α aumenta. . e Ejercicio.96 × √ ) 20 20 = (1050 − 13.05. de focos de 100 ´ watts producidos por cierta compa˜´ puede ser modelada mediante una variable nıa. Observe que la longitud del intervalo decrece conforme el tama˜ o de la muestra crece. Adem´s.3). a entonces zα/2 crece (v´ase la Figura 2. Compruebe que la longitud del intervalo aleatorio que aparece en (2.96 ´ 2. α =0.148 horas. El resultado te´rico fundamental o en la siguiente derivaci´n es que la variable aleatoria o ¯ X −µ √ . sin importar el tama˜ o de la muestra y sobre o n . Sea X1 . x + zα/2 √ ) x ¯ n n 30 30 = (1050 − 1. Observe que esta es la diso tribuci´n exacta de la variable T . .148) = (1036. y entonces puede ahora calcularse el intervalo σ σ (¯ − zα/2 √ . x20 ´ arrojan una media muestral x de 1050 horas. con una confianza del 95 %.

1) a podemos encontrar un valor tα/2 en tablas de probabilidad de la distribuci´n t de o n − 1 grados de libertad (v´ase la Figura 2. No es o expl´ ıcito en la notaci´n pero el valor tα/2 corresponde a la distribuci´n t con n − 1 o o grados de libertad. . a veces se escribe tα/2. Un intervalo de confianza para la media µ de una distribuci´n o o normal est´ dado por la siguiente expresi´n a o S S ¯ ¯ P ( X − tα/2 √ < µ < X + tα/2 √ ) = 1 − α.3) S S ¯ ¯ De este modo. A partir de lo anterior podemos construir un intervalo de confianza para el par´metro desconocido µ de a forma an´loga al caso normal mencionado antes.4) tal que e P ( −tα/2 < ¯ X −µ √ < tα/2 ) = 1 − α. . Xn una muestra aleatoria de una distribuci´n cualquiera con media o desconocida µ. Para cualquier valor de α ∈ (0. ESTAD´ ISTICA 97 todo.e. S/ n f (x) −α/2 α/2 x −tα/2 tα/2 Figura 2.Parte 2. Proposici´n. n . n ≥ 30. Supongamos que el tama˜ o n de la muestra es grande. Sea X1 .n−1 . sin suponer que la varianza de la muestra es conocida. .4: Despejando la constante desconocida µ de la ecuaci´n anterior se obtiene el siguieno te resultado. ´ Intervalo aproximado para la media de una distribucion cualquiera. X + tα/2 √n ) es un intervalo de confianza para la media µ de una poblaci´n normal sin suponer la varianza conocida. . n n (2. i. el intervalo ( X − tα/2 √n .

Estimacion por intervalos Entonces. por el teorema central del l´ ımite. Distribuci´n normal con o varianza σ 2 desconocida ¯ P ( X − tα/2.n−1 S √ n ¯ < µ < X + tα/2. X + zα/2 √n ) es un intervalo de confianza aproximado para el par´metro desconocido µ pues contiene a dicho par´metro con a a probabilidad 1 − α. 1) podemos encontrar un valor zα/2 en tablas de probabilidad normal est´ndar tal que a P ( −zα/2 < ¯ X −µ √ < zα/2 ) = 1 − α.98 ´ 2. S/ n tiene una distribuci´n aproximada normal est´ndar. Cualquier distribuci´n o Muestra grande. el intervalo (X − zα/2 √n . n n . Para cualquier valor de α ∈ (0. la variable aleatoria Z= ¯ X −µ √ . Se puede encontrar un intero a valo aproximado de confianza para el par´metro desconocido µ siguiendo el procea dimiento antes realizado. S/ n Despejando nuevamente la constante desconocida µse obtiene S S ¯ ¯ P ( X − zα/2 √ < µ < X + zα/2 √ ) = 1 − α.n−1 S √ n ) = 1 − α. Hip´tesis o Distribuci´n normal con o varianza σ 2 conocida Intervalo para la media µ ¯ P ( X − zα/2 σ √ n ¯ < µ < X + zα/2 σ √ n ) = 1 − α. Observe nuevamente que todas las expresiones que aparecen en este intervalo son conocidas. n n S S ¯ ¯ De esta forma.6. n ≥ 30 ¯ P ( X − zα/2 Intervalo aproximado: S S ¯ √ < µ < X + zα/2 √ ) = 1 − α. A manera de resumen se tiene la siguiente tabla.

2. 6}. Como informaci´n se tiene un n´ mero dentro del conjunto Ω = {0. pero el resultado bien pudo provenir del dado. en caso contrario se acepta H0 . La regla de decisi´n anterior es razonable. 2. Error tipo II: No rechazar H0 cuando H0 es falsa. si ω = 1. ω H0 : Dado H1 : Monedas 0 0 ∗ 1/32 1 ∗ 1/6 5/32 2 1/6 ∗ 10/32 3 1/6 ∗ 10/32 4 ∗ 1/6 5/32 5 ∗ 1/6 1/32 6 ∗ 1/6 0 La estrategia natural es decidir por el experimento que tenga mayor probabilidad para cada valor de ω. 1. Pruebas de hip´tesis o Ilustraremos la idea de una prueba de hip´tesis con un ejemplo. Suponga que unicamente conocemos el resultado de uno ´ u otro experimento. Se tiene entonces las siguientes definiciones: Error tipo I: Rechazar H0 cuando H0 es verdadera. 5. y se nos pide determinar cu´l de los dos experimentos se a realiz´ con base en el n´ mero reportado. Igualmente.7. Tenemos entonces una situaci´n de dos o u o hip´tesis o H0 : Dado vs H1 : Monedas. De esta forma se llega a la siguiente regla de decisi´n: o Si ω ∈ C = {0. Estas probabilidades mayores se encuentran indicadas con un asterisco en la tabla anterior. 3}. 3. en el otro se lanzan cinco monedas y se cuenta el n´ mero de cruces totales que se obtienen. Considere una o situaci´n en la que se efect´ a s´lo uno de los siguientes dos experimentos aleatorios: o u o En uno de ellos se lanza un dado. entonces con seguridad el dado fue lanzado. entonces seguro se realiz´ el o u o experimento de las monedas. ¿Qu´ decisi´n tomar para cualquier otro valor de ω? En la siguiente tabla se e o muestran las probabilidades de los posibles n´ meros reportados bajo cada uno de u los dos experimentos. o a Si ω = 2. Por razones naturales al conjunto C se le llama regi´n del rechazo de la hip´tesis o o H0 . suponiendo que los lados de cada moneda u se denominan cara o cruz.Parte 2. 4. o u Veamos la situaci´n. . entonces se rechaza H0 . Si ω = 6. se decide por las monedas. sin embargo no est´ libre de errores. Si el n´ mero reportado ω es 0. se decide por el dado pero es factible que el resultado haya sido obtenido por las monedas. ESTAD´ ISTICA 99 2.

si X tiene una distribuci´n exp(λ). En un problema de decisi´n de este o tipo se busca encontrar una regla de decisi´n razonable que tenga errores menores. Si X tiene una distribuci´n χ2 (n). 6} | “Se usaron las monedas”) = 5/32 + 5/32 + 1/32 + 0 = 11/32. entonces la afirmao o ci´n “λ = 5” es una hip´tesis simple. a Definici´n. entonces la afirmaci´n “µ > o o o 0” es otro ejemplo de hip´tesis estad´ o ıstica. P (“Error tipo I”) = = = = Por otro lado. p).7. 4. o Por ejemplo. o Vamos ahora a estudiar pruebas de hip´tesis en el contexto de la estimaci´n de o o par´metros en las distribuciones de probabilidad. 5. Por ejemplo.100 ´ 2. Naturalmente. Pruebas de hipotesis Las probabilidades de estos errores pueden ser calculadas del siguiente modo. Si X tiene una distribuci´n Poisson(λ). o o cambian las probabilidades de los errores. entonces la afirmaci´n “p =0. En contraste. entonces o o o la afirmaci´n “µ = 0” es otro ejemplo de hip´tesis simple. 2. Si X tiene una distribuci´n N(µ. 3} | “Se us´ el dado”) o 0 + 1/6 + 1/6 = 1/3. Si X tiene una distribuci´n N(µ. = P (ω ∈ {1. Una hip´tesis es simple si especifica por completo la distribuci´n de probabilidad o o en cuesti´n.2” o o es una hip´tesis. o . Una hip´tesis estad´stica o simplemente hip´tesis es una afirmaci´n o o ı o o o conjetura acerca de la distribuci´n de una o mas variables aleatorias. si X tiene una distribuci´n bin(n. o o o entonces “λ > 20” es una hip´tesis compuesta. En general. si se cambia la regla de decisi´n cambiando la regi´n de rechazo. decimos o o que una hip´tesis estad´ o ıstica es compuesta cuando no especifica por completo la distribuci´n de probabilidad en cuesti´n. P (“Error tipo II”) = P (“No rechazar H0 ” | “H0 es falsa”) = P (ω ∈ C | “H0 es falsa”) / P (“Rechazar H0 ” | “H0 es verdadera”) P (ω ∈ C | “H0 es verdadera”) P (ω ∈ {0. o o entonces “n = 5” es otro ejemplo de una hip´tesis compuesta. σ 2 ). contraso taremos dos hip´tesis de acuerdo al siguiente esquema y notaci´n: o o H0 : (hip´tesis nula) o vs H1 : (hip´tesis alternativa). 1).

a la aceptaci´n de la hip´tesis nula cuando ´sta es falsa o o e recibe el nombre de error tipo II. . ESTAD´ ISTICA 101 Tanto la hip´tesis nula (H0 ) como la hip´tesis alternativa (H1 ) pueden ser simple o o o compuesta. Estas definiciones de errores se resumen en la siguiente tabla.Parte 2. posiblemente la decisi´n o de rechazar o no rechazar tambi´n. Al rechazo de la hip´tesis nula cuando ´sta es verdadera se le conoce como o e error tipo I. Se le llama regi´n cr´tica a la regi´n de rechazo de H0 . sino simplemente que es consistente con e los datos de la muestra aleatoria. al tomar una decisi´n de este tipo se corre el riesgo de cometer o errores. Si la muestra cambia. e Definici´n. esto es α. Observe adem´s que al aceptar una hip´tesis no se o a o afirma que ´sta sea absolutamente cierta. . y a la probabilidad de cometer este primer tipo de error se le denota por la letra α. . Xn de a la distribuci´n de que se trate. y compuesta vs compuesta. . Definici´n. o o Como sabemos. . De este modo tenemos cuatro diferentes tipos de contraste de hip´teo sis: simple vs simple. A esta probabilidad se le conoce tambi´n con el nombre de nivel o ı e de significancia. simple vs compuesta. y a la o o ı o probabilidad de cometer el error tipo I. compuesta vs simple. se le llama tama˜o de la n regi´n cr´tica. Una prueba de hip´tesis es una regla para decidir si se acepta la o o hip´tesis nula o se rechaza en favor de la hip´tesis alternativa. En cambio. H0 cierta Eror tipo I con probabilidad α H0 falsa Rechazar H0 Decisi´n correcta o No rechazar H0 Decisi´n correcta o Error tipo II con probabilidad β La informaci´n para obtener una regla de decisi´n que nos lleve a rechazar o no o o rechazar un hip´tesis estad´ o ıstica provendr´ de una muestra aleatoria X1 . y a la probabilidad de cometer este segundo tipo de error se le denota por la letra β.

¿C´mo encontrao o mos el n´ mero k? En una tabla de la distribuci´n normal podemos encontrar un u o valor zα/2 tal que P (|Z| ≥ zα/2 ) = α. Es entonces razonable rechazar H0 cuando la variable Z sea grande. 1). n A la variable aleatoria Z se le llama la estad´stica de la prueba. Deseamos contrastar las hip´tesis H0 : µ = µ0 u o contra H1 : µ = µ0 . o si |Z| ≥ zα/2 . Xn . Sea X1 . Es por ello que tomamos como criterio de decisi´n rechazar H0 cuando |Z| ≥ k.5. 1). . El problema es encontrar una regla para decidir cu´ndo a rechazar H0 en favor de H1 con base en los datos de la muestra X1 . un esσ/ n timador de µ. y su valor esperado µ0 cuando H0 es cierta. en caso contrario no se rechaza H0 . . cuando µ es efectivamente µ0 . Pruebas de hipotesis Nos limitaremos a mostrar la forma en la que se deriva la regla para llevar a cabo una prueba de hip´tesis acerca de la media de una distribuci´n normal. Llevar a cabo esta prueba o de hip´tesis consiste en usar los datos de la muestra para encontrar el valor de Z. V´ase la Figura 2. σ/ n µ1 = µ0 . tenemos que X ∼ N (µ0 . . Por lo tanto o ¯ X −µ √ ∼ N (0. . . . . Xn una muestra aleatoria de una poblaci´n normal con media desconocida µ y varianza o ¯ conocida σ 2 . y la prueba se ı denomina prueba de dos colas pues la regi´n de rechazo consta de las dos colas de o la distribuci´n normal que se muestran en la Figura 2. . esto es. Sabemos que X tiene distribuci´n N(µ. o o ´ Prueba acerca de la media de una distribucion normal.5. σ/ n Sea µ0 un n´ mero real particular. entonces se rechaza H0 . σ 2 /n) y por lo tanto ¯ X − µ0 √ ∼ N (0. en donde α lo determina la persona que lleva a cabo la prueba de hip´tesis. . σ/ n ¯ ¯ √ La estad´ ıstica Z = X−µ0 es una medida natural de la distancia entre X.102 ´ 2. Este valor e zα/2 es precisamente la constante k buscada pues con ello se logra que la regi´n de o rechazo sea de tama˜ o α. σ 2 /n). o Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o Error tipo I: Error tipo II: H0 : µ = µ0 vs H1 : µ = µ0 ¯ √0 Z = X−µn σ/ |Z| ≥ zα/2 α √ Φ(zα/2 + µ0 −µ1 ) − Φ(−zα/2 + σ/ n µ0 −µ1 √ ).7. En la siguiente tabla se muestra resumida la informaci´n de esta prueba. para cierta constante k.1 . Cuando ¯ H0 es cierta. t´ o ıpicamente α = 0.

18788. 18325. Φ(zα/2 + σ/ n σ/ n Ejercicio. ESTAD´ ISTICA 103 f (x) α/2 α/2 x −zα/2 zα/2 Regi´n de rechazo o Figura 2. Sea µ1 cualquier n´ mero tal que µ1 = µ0 .Parte 2. 21442. 20320. 19162. 22371. 23935. 25073. β(µ1 ) = = = = = = P ( “No rechazar H0 cuando µ = µ1 ” ) P ( |Z| < zα/2 | µ = µ1 ) ¯ X − µ0 √ | < zα/2 | µ = µ1 ) P(| σ/ n σ σ ¯ P ( µ0 − zα/2 √ < X < µ0 + zα/2 √ | µ = µ1 ) n n ¯ µ0 − µ1 X − µ1 µ0 − µ1 √ < √ < zα/2 + √ ) P ( −zα/2 + σ/ n σ/ n σ/ n µ0 − µ1 µ0 − µ1 √ ) − Φ(−zα/2 + √ ).000 litros mensuales. 21982. 22601. e 20930. Calcularemos la probabilidad del u error tipo II dado que el verdadero valor de µ es µ1 . 19095. En ciertas zonas de la ciudad se calcula el pago por el consumo de agua suponiendo un consumo promedio de 20. Para verificar que si tal cantidad ha cambiado se han medido los consumos mensuales de 15 casas obteni´ndose los siguientes resultados: 23456. 13292. ¿Debe cambiar el consumo promedio mensual para calcular los pagos o permanecer igual? Suponga σ = 2000. . 17421.5: Vamos a comprobar la f´rmula que aparece en la tabla anterior acerca del error o tipo II.

Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o Error tipo I: Error tipo II: H0 : µ = µ0 ¯ √0 Z = X−µn σ/ Z ≤ −zα α 1 − Φ −zα + vs H1 : µ < µ0 µ0 −µ1 √ σ/ n .7. Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o ¯ √0 en donde Z = X−µn .6. y la regi´n de rechazo se presenta en o la Figura 2.6: Las caracter´ ısticas de la prueba H0 : µ = µ0 contra H1 : µ > µ0 llamada prueba de cola superior se muestran en la siguiente tabla. µ1 > µ0 .7.Error tipo I: σ/ Error tipo II: H0 : µ = µ0 vs H1 : µ > µ0 ¯ √0 Z = X−µn σ/ Z ≥ zα . Se rechaza la hip´tesis H0 o o ¯ s´lo cuando los datos de la muestra son tales que X se encuentra muy a la izquierda o de µ0 . (prueba de cola superior) α Φ zα + µ0 −µ1 √ σ/ n . Pruebas de hipotesis Puede tambi´n considerarse la prueba H0 : µ = µ0 contra H1 : µ < µ0 llamada e prueba de cola inferior pues la regi´n de rechazo consta de la cola izquierda de la o distribuci´n normal como se muestra en la Figura 2. µ1 < µ0 f (x) α x −zα Regi´n de rechazo o Figura 2.104 ´ 2. . Se rechaza la hip´tesis H0 s´lo cuando la muestra provee evidencia o o ¯ de que X se encuentra muy a la derecha de µ0 .

7: . ESTAD´ ISTICA 105 f (x) α zα Regi´n de rechazo o x Figura 2.Parte 2.

7.106 ´ 2. Pruebas de hipotesis .

g) Observar el marcador final de un juego de f´ tbol soccer. a) Lanzar una moneda tres veces. Determine un espacio muestral para cada uno de los siguientes experimentos aleatorios. . Determine un experimento aleatorio para los siguientes espacios muestrales.Ap´ndice A e Ejercicios Espacio muestral y eventos 1. Un experimento aleatorio consiste en lanzar un dado hasta que se obtiene un “6”. 3. u 2. Proponga dos espacios muestrales para este experimento. b) Lanzar a un mismo tiempo tres monedas indistinguibles. . e) Colocar al azar dos bolas distinguibles en cuatro celdas numeradas. ∞). 2. 1] y despu´s u e elevarlo al cuadrado.}. f ) Colocar al azar dos bolas indistinguibles en cuatro celdas numeradas. 1. 107 . c) Ω = {0. c) Escoger un n´ mero real al azar dentro del intervalo [−1. . d ) Registrar el n´ mero de llamadas telef´nicas que llegan a un conmutador u o en un minuto dado. a) Ω = {0. 1}. b) Ω = [0.

Demuestre que A ∪ B = A ∪ (B ∩ Ac ). o 7. Demuestre las leyes de De Morgan: a) (A ∪ B)c = Ac ∩ B c . b) (A − C) ∩ (B − C) = (A ∩ B) − C. a) A△B = (A − B) ∪ (B − A). Demuestre que A = (A ∩ B) ∪ (A ∩ B c ). 14. Demuestre que A ∩ B = B ∩ (A ∪ B c ). 6. 11. Demuestre que a) A − B = A − (A ∩ B). Demuestre que a) A ∩ (B − C) = (A ∩ B) − (A ∩ C). b) A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C). 8. Compruebe gr´ficamente las siguientes propiedades b´sicas de la diferencia a a sim´trica. e . b) A△B = (A ∪ B) − (A ∩ B). 10. 13.108 Operaciones con conjuntos 4. Enuncie y demuestre las leyes de De Morgan para tres conjuntos. Demuestre que las siguientes dos definiciones de la operaci´n diferencia sim´trio e ca son equivalentes. 9. Demuestre que A ∪ B = B ∪ (A ∩ B c ). 5. b) A − B = (A ∪ B) − B. Para la demostraci´n use la validez del mismo resultado para dos conjuntos. 15. Demuestre las leyes distributivas: a) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C). b) (A ∩ B)c = Ac ∪ B c . 12. Demuestre que A ∩ B = A ∩ (B ∪ Ac ).

y sea A1 ⊆ A. Sean A = {(x. y el 50 % son formales. Muestre gr´ficamente a los conjuntos A. a fuertes y formales? 21. Intuitivamente la afirmaci´n es evidente. Compruebe que los conjuntos A y B − A son siempre ajenos. ¿Cu´ntos puntos en com´ n tienen? a u 24. A ∩ B. Ellos. Sean A = {(x. Muestre gr´ficamente los conjuntos A. c) A△Ω = Ac . b) A△∅ = A. el reto consiste en encontrar una o justificaci´n matem´tica de ello. el 80 % son sensibles. Sean A = {x ∈ R : |x − 2| ≤ 4} y B = {x ∈ R : |x − 1| > 2}. o a 25. Ac . Ac . el 60 % son fuertes. A ∪ B. B − A y A△B. y) ∈ R2 : y > −x2 }. A ∩ B. ¿Cu´l es el m´ a ınimo y el m´ximo posibles de hombres que son feos. 109 16. B − A y A△B. A − B. A − B. B c . y) ∈ R2 : y > x2 }. A ∪ B. ¿Cu´ntas igualdades son necesarias verificar en general para comprobar que a n conjuntos son ajenos dos a dos? . A − B. y) ∈ R2 : 2x2 + 3y 2 ≤ 6} y B = {(x. 20. B c . Sean A y B ajenos. Ejercicios a) A△(B△C) = (A△B)△C. A ∪ B. Si el 70 % de los hombres son feos. A − B. a 19. B − A y A△B. y el 70 % son sinceras. y) : y = 1 − x} ajenos? En caso negativo.´ Apendice A. 23. Muestre gr´ficamente los conjuntos Ac . A ∪ B. B − A y a A△B. B. y) ∈ R2 : x2 + y 2 ≤ 1} y B = {(x. Compruebe que A1 y B son ajenos. B. B c . sensibles y sinceras? Conjuntos ajenos 22. ¿Son los conjuntos {(x. 18. A ∩ B. Si el 90 % de las mujeres son bonitas. Ellas. d ) A△A = ∅. y) : y = e−x } y {(x. ¿Cu´l es el m´ a ınimo y el m´ximo posibles de mujeres que son a bonitas. A ∩ B. a 17. Muestre gr´ficamente los conjuntos Ac . e) A△Ac = Ω. B c . Sean A = {x ∈ R : |x+1| ≤ 2} y B = {x ∈ R : x2 > 2}.

Esta es la probabilidad de que suceda exactamente uno de los eventos A y B. Producto Cartesiano 28. 39. 1]. 33. Demuestre que P (Ac ∩ B c ) = 1 − P (A) − P (B) + P (A ∩ B). Compruebe que la definici´n de probabilidad cl´sica cumple con los tres axioo a mas de la probabilidad. 38. Sean P1 y P2 dos medidas de probabilidad definidas sobre la misma clase de subconjuntos de Ω. Demuestre que P (A△B) = P (A)+P (B)−2P (A∩B). 34. B = {b1 . 29. Sean A y B eventos ajenos tales que P (A) =0. 31. b.110 Conjunto potencia 26. Demuestre que 0 ≤ P (A ∩ B) ≤ P (A) ≤ P (A ∪ B) ≤ P (A) + P (B) ≤ 2. c}. 32. sin usar P (Ω) = 1. entonces 2A ⊆ 2B . 36. Sea Ω = {a. Demuestre que P (A ∩ B) ≥ P (A) + P (B) − 1. Demuestre que P (∅) = 0.2. Compruebe que la definici´n de probabilidad frecuentista cumple con los tres o axiomas de la probabilidad. Sean A = {a1 . Demuestre que si A ⊆ B. b2 . c2 }. a2 }. Demuestre que u P = αP1 + (1 − α)P2 satisface los tres axiomas de la probabilidad. 35. Sea α un n´ mero real en el intervalo [0. ¿Qui´n es 2∅ ? e 27. b3 } y C = {c1 . 37. Escriba expl´ ıcitamente al conjunto Ω × Ω. Escriba expl´ ıcitamente a los elementos del producto Cartesiano A × B × C.3 y P (B) =0. Demuestre que P (B − A) = P (B) − P (A ∩ B). Encuentre . Probabilidad 30. para cualesquiera eventos A y B.

Una enciclopedia de 5 vol´ menes es colocada en el librero de modo aleatou rio. An´lisis combinatorio a 44. entonces P (A ∩ B) = 0. entonces A ⊆ B. entonces A = B. a) Si P (A) = 0. d ) Si P (A) > 0. Justifique en cada caso. ¿De cu´ntas formas distintas pueden seis personas formarse en una fila lineal? a 45. a) Si P (A) > 0. Ejercicios a) P (A ∪ B). 40. b) Si P (A) > 0. entonces P (A ∩ B) > 0. Justifique en cada caso. e) P (A△B). c) Si P (A) > 1/2. Diga falso o verdadero. Diga falso o verdadero. c) Si P (A) > 1/2 y P (B) > 1/2. entonces P (A ∪ B) > 0. Justifique en cada caso. 111 d ) P (A ∩ B c ). 42. entonces P (Ac ) > 0. c) P (Ac ∩ B).´ Apendice A. b) P (Ac ). 41. 43. Diga falso o verdadero. ¿Cu´ntas diagonales se pueden trazar en un pol´ a ıgono convexo de n lados? . ¿Cu´nto vale la probabilidad de este evento? a b) P (A ∩ B) = P (A)P (B). entonces P (Ac ) < 1/2. b) Si P (A) = P (B). Demuestre que la probabilidad de que los vol´ menes queden colocados u apropiadamente de derecha a izquierda o de izquierda a derecha es de 1/60. 46. a) P (B − A) = P (B) − P (A). c) Si P (A) ≤ P (B). entonces P (A ∩ B) > 0. La probabilidad de un cierto evento es tal que duplica la probabilidad de su complemento.

¿Cu´ntos n´ meros binarios diferentes se pueden obtener al usar los siete d´ a u ıgitos 1010101 ? 56. Cumplea˜os. ¿Cu´ntos equipos de 3 personas se pueden formar de un grupo de 5 personas? a 50. n−1 k n−1 k k+1 n n k+1 + n n−1 = k k construir el tri´ngulo de Pascal. Esta es la f´rmula para o . Si se venden 20 tornillos tomados al azar. tomao dos del conjunto {0. ¿Cu´ntos de ellos son pares y cu´ntos son impares? a a 59. Demuestre que 53. 1. 2. En una clase de 25 estudiantes hay 15 mujeres y 10 hombres. ¿Cu´l es la a probabilidad de que k de ellos sean defectuosos? (0 ≤ k ≤ 20). . e 58. . ¿Cu´ntas “palabras” diferentes se pueden formar con todos los caracteres a (incluyendo repeticiones) de la palabra AMAR? 57. . . a) ¿De cu´ntas a formas puede seleccionarse un comit´ de tres hombres y tres mujeres ? b) e ¿De cu´ntas formas puede seleccionarse un comit´ de seis estudiantes? c) a e ¿De cu´ntas formas puede seleccionarse un comit´ de seis estudiantes todos a e del mismo sexo? .112 47. . ¿De cu´ntas maneras diferentes pueden clasificarse los tres primeros lugares a de una carrera de 15 corredores ? 48. Demuestre que 51. Debido a un error. a n−1 k−1 54. Calcule la probabilidad de que en un conjunto de n personas. Demuestre que 52. ¿Cu´ntos enteros positivos de a lo mas cinco d´ a ıgitos son divisibles por 2? ¿Cu´ntos hay que empiecen con el d´ a ıgito 1? 49. Encuentre el total de n´ meros enteros de cuatro d´ u ıgitos sin repetici´n. 50 tornillos defectuosos fueron mezclados con 200 tornillos en buen estado. Demuestre que n k n k = = n−k+1 k n n−k = n k−1 . . 55. Sugerencia: n Considere el complemento del evento de inter´s. n al menos dos de ellas tengan la misma fecha de cumplea˜ os. 9} de tal manera que ning´ n n´ mero empiece u u con 0.

Sea An en n´ mero m´ximo de regiones en los que n planos dividen el espacio. Demuestre que el n´ mero m´ximo de regiones en las que n l´ u a ıneas rectas dividen un plano es 1 + n(n + 1)/2. Si un alumno resuelve unicamente 20 de los problemas asignados.´ Apendice A. Demuestre que #(2Ω ) = 2#Ω . Para escoger al ganador se establece que cada jugador debe jugar contra cada uno de los otros finalistas. a) ¿Cu´ntas partidas se llevar´n a cabo? a a b) Suponiendo que no hay empates y que cada jugador gana un punto por cada juego ganado. 67. u a Demuestre que An+1 = An + 1 + n(n + 1)/2. 64. El examen consistir´ de 4 problemas escogidos al azar. 4. ¿De cu´ntas formas diferentes se pueden colocar los n´ meros 1. Ejercicios 113 60. Sea An en n´ mero m´ximo de regiones en los que n esferas dividen el espacio. Se asignan 40 problemas para un examen de probabilidad. 3. Sugerencia: Use el m´todo de inducci´n sobre e o n = #Ω. u a Demuestre que An+1 = An + n2 − n + 2. Tenemos n jugadores finalistas en un torneo de ajedrez. 66. 61. ´ ¿Cu´l es la probabilidad de que el alumno obtenga a a) cero puntos? b) 25 puntos? c) 50 puntos? d ) 75 puntos? . y cada problema tendr´ un peso de a a 25 puntos. ¿De cu´ntas formas distintas se pueden asignar la a totalidad de puntos en el conjunto de jugadores? c) ¿Cu´ntas configuraciones finales existen en donde haya un unico jugador a ´ con mayor n´ mero de puntos? u 63. ¿Cu´ntos divisores diferentes tiene el n´ mero 53 · 74 ? a u 68. Demuestre que el n´ mero m´ximo de regiones en los que n c´ u a ırculos dividen el plano es 2n . 62. 65. 2. 5 y 6 a u en las seis caras de un dado? Observe que originalmente las caras del dado son indistinguibles.

¿Cu´ntas “palabras” diferentes podemos obtener usando todas las s´ a ılabas (incluyendo repeticiones) de la palabra “cucurrucuc´ ”? u 78. 73. ¿De o cu´ntas formas distintas pueden las seis computadoras estar siendo usadas o a no usadas? 74. 2n + 1} a de tal forma que cada n´ mero impar ocupe una posici´n impar? u o 75. . . . . Sea E el conjunto de vectores de Rn para los cuales alguna de sus coordenadas es cero. ¿Cu´ntas configuraciones diferentes se pueden obtener en un tablero de ajea drez despu´s de e a) la primera jugada del primer jugador? b) la primera jugada del segundo jugador? 72. ¿Cu´ntas soluciones enteras no negativas tiene la ecuaa ci´n o a) x1 + x2 + · · · + xk = n ? b) x1 + x2 + · · · + xk ≤ n ? c) x1 + x2 + · · · + xk ≥ n ? . ¿Cu´ntas “palabras” diferentes podemos obtener usando todas las letras (ina cluyendo repeticiones) de la palabra “manzana”? 77. . En una sala de c´mputo hay seis computadoras numeradas del 1 al 6. ¿De cu´ntas formas posibles se puede ordenar el conjunto {1. Sea n ≥ 1 un entero. e o n (a + b)n = k=0 n k an−k bk . b. 70. Use el m´todo de inducci´n para demostrar el teorema del binomio. 2n} de a tal forma que cada n´ mero par ocupe una posici´n par? u o 76. ¿Cu´ntos subconjuntos podemos obtener de un conjunto de n elementos? a Escriba expl´ ıcitamente todos los subconjuntos del conjunto {a.114 e) 100 puntos? 69. . c. d}. ¿Cu´ntas regiones conexas tiene el conjunto Rn − E? a 71. 2. . 2. ¿De cu´ntas formas posibles se puede ordenar el conjunto {1. .

1 y P (B) = 0. Demuestre que la probabilidad condicional P (·|B) satisface los tres axiomas de la probabilidad. Encuentre a) P (A ∩ B). y despu´s compruebe la f´rmula directamente a e o multiplicando el trinomio por si mismo. . h) P (Ac ∪ B c ). u b) P (A|B) = P (B|A). xk ) satisfacen las restricciones 1 ≤ x1 < x2 < · · · < xk ≤ n ? 80. 83. Sean A y B eventos independientes tales que P (A) = 0. b) A y B c son independientes. g) P (A ∪ B c ). Ejercicios 115 79. Sean n ≥ k dos enteros positivos.5. . Probabilidad condicional e independencia 81. Demuestre que P (A ∩ B ∩ C) = p3 .1) en la p´gina 26. c) P (A|B) ≤ P (A). Suponga que P (B) = P (A|B) = P (C|A ∩ B) = p. 82. . e) P (A ∪ B).´ Apendice A. Desarrolle la expresi´n (a + b + c)3 usando la f´rmula de coeficientes multio o nomiales (1. Demuestre que a) Ac y B son independientes. 84. Diga falso o verdadero. . a) El n´ mero P (A|B) nunca es cero. c) P (A ∩ B c ). . Sea P una medida de probabilidad y B un evento con probabilidad positiva. x2 . ¿Cu´ntos vectores con entradas enteras no a negativas (x1 . d) P (Ac ∩ B c ). c) Ac y B c son independientes. Sean A y B dos eventos independientes. 85. f) P (Ac ∪ B). Justifique en cada caso. b) P (Ac ∩ B).

91. a) P (Ω|B) = 1. Diga falso o verdadero. 93. b) P (A|B) + P (A|B c ) = P (A). 89. A independientes. B independientes. B ajenos. B independientes ⇒ B. . c) P (A|A) = P (A). Sea A cualquier evento. b) A. b) P (A1 ∪ A2 |B) = P (A1 |B) + P (A2 |B) cuando A1 y A2 son ajenos. Justifique en cada caso. Sean A y B eventos independientes. a) A. Demuestre que A y ∅ son eventos independientes. 87. B independientes ⇒ A. c) P (A|B1 ∩ B2 ) = P (A|B1 )P (A|B2 ). Demuestre que P (A ∪ B) = 1 − P (Ac )P (B c ). Diga falso o verdadero. Justifique en cada caso. b) el conjunto Ω es independiente consigo mismo. Diga falso o verdadero. Sea A cualquier evento. Justifique en cada caso. a) P (A|B1 ∪ B2 ) = P (A|B1 ) + P (A|B2 ) cuando B1 y B2 son ajenos. Demuestre que a) el conjunto ∅ es independiente consigo mismo. d ) P (A1 ∩ A2 |B) = P (A1 |B)P (A2 |B). Justifique en cada caso. 94.116 86. Demuestre que A y Ω son eventos independientes. a) A. 90. Diga falso o verdadero. b) Para cualquier evento A. 92. 88. B ajenos ⇒ A. Justifique en cada caso. b) P (∅|B) = 0. a) P (A|B) + P (Ac |B) = 1. c) P (A|A ∩ B) = P (B|A ∩ B) = 1. A es independiente con A. Diga falso o verdadero.

Suponga que en una urna se tienen b bolas blancas y r bolas rojas. A un mismo tiempo se extraen k bolas al azar y resulta que todas son del mismo color. y luego tira un dado equilibrado tantas veces como indica el n´ mero u escogido. Teorema de probabilidad total 99. b) ⊆ (0. b) = b − a. 96. r+b 100. Compruebe que para e o cada n ≥ 1. 1) como P (a. C independientes. 95. Considere un experimento aleatorio con espacio muestral Ω = (0. ¿Cu´l es la probabilidad de que las bolas sean de color negro? a . Una persona toma al azar. Sean A y B eventos independientes y ajenos. 97. ¿Cu´ntas igualdades son necesarias verificar para demostrar que n eventos a son independientes? Justifique su respuesta.´ Apendice A. Definimos la probabilidad de un intervalo (a. 98. Ejercicios 117 c) A. Despu´s suma el resultado de las tiradas del dado. Demuestre que forzosamente alguno de estos eventos tiene probabilidad cero. Sean A y B eventos independientes tales que P (A) = p1 y P (B) = p2 . 2 o 3. Encuentre eventos A y B tales que a) b) c) d) sean sean sean sean independientes y ajenos. ¿Cu´l es la e a probabilidad de que obtenga un total de 5? Teorema de Bayes 101. independientes pero no ajenos. con id´ntica probabilidad. Sea Rn el evento “Se selecciona una bola roja en la n-´sima extracci´n”. La urna de Polya. B independientes y B. C independientes ⇒ A. En una urna se encuentran b bolas de color blanco y n bolas de color negro. uno de los n´ meros e u 1. Calcule la probabilidad de que no ocurra ninguno de estos eventos. r P (Rn ) = . Un experimento aleatorio consiste en seleccionar una bola al azar y regresarla a la urna junto con c bolas del mismo color. no ajenos y no independientes. ajenos pero no independientes. 1).

b) se reciba un “1”.1.6.2. e a) X(ω) = ω. ¿Cu´les son sus posible valores? a a) Tiempo de vida de una persona escogida al azar. Se escoge al azar un d´ ıgito binario para ser enviado a trav´s de un canal de e transmisi´n. a d ) Monto de una reclamaci´n por accidente automovil´ o ıstico escogida al azar del conjunto de reclamaciones efectuadas a una compa˜´ aseguradora. o d ) se haya enviado un “1” dado que se recibi´ un “1”.118 102.0x1 x2 x3 · · · c) X(ω) = 1 − ω. Encuentre la probabilidad de que a) se reciba un “0”.4. y se escoge el “1” con o probabilidad 0. nıa 104. . c) se haya enviado un “0” dado que se recibi´ un “0”. 1). o Variables aleatorias 103. Suponga que cada resultado de este experimento se escribe en su expansi´n decimal como ω = 0. b) N´ mero de errores tipogr´ficos en una p´gina escogida al azar de un u a a libro. Se escoge el “0” con probabilidad 0. d ) X(w) = 0. Determine en cada caso si la variable aleatoria en cuesti´n es discreta o cono tinua. b) X(ω) = x1 .x1 x2 x3 · · · Determine en o los siguientes casos el conjunto de valores de la variable aleatoria definida y clasifique ´sta como discreta o continua. y un “1” se distorsiona en un ”0” con probabilidad 0. El canal de comunicaci´n es ruidoso de modo que un “0” o se distorsiona en un “1” con probabilidad 0. c) Tiempo de servicio en una transacci´n escogida al azar realizada por o una persona en un cajero autom´tico. Considere el experimento aleatorio de escoger un n´ mero al azar dentro del u intervalo unitario (0.

P (Z < 1/2) y P (1/3 < Z < 1/2). 108. y) = y y Z(x. Encuentre el valor de la constante c para que f (x) sea una funci´n de probao bilidad. y) = x2 + y 2 . . 10. 4}) y P (X < 3) en cada o caso. 109. ¿Cu´les son a los posibles valores de X? Calcule P (X = 0). Figura 1. . 0 otro caso. −1.13. y P (X 2 = 4). Y (x. f (x) = c (1 + sen x) 0 si x ∈ [0. P (X ≥ 0). Grafique esta funci´n y calcule P (X ∈ {2. 3. 0. 3. o a) f (x) = c x si x = −2. 3}). . 2. 1. P (X 2 = 1). Suponga que para cada re´ ´ gi´n A ⊆ Ω cuya ´rea puede ser calculada se define P (A) = Area(A)/Area(Ω). 2. . 2π]. junto con las variables aleatorias X(x. Grafique f (x) y calcule P (X ∈ (1. 106. 4. P (Y > X). Encuentre el valor de la constante c para que la siguiente funci´n sea de o densidad. y) = x. Grafique f (x) y calcule P (X ≥ π) y P (X ∈ [−π. P (X ∈ {2. Funciones de densidad y de distribuci´n o 107. Ejercicios 119 105. . . Defina la variable aleatoria X(ω) = 2(ω − 3). . ∞)). 2. a) f (x) = b) f (x) = c x si x = 1. P (2X − 4 = 0). otro caso. P (X < 0). c x2 0 si x = 1. 10. P (X + Y ≤ 1). 5. otro caso. f (x) = c e−|x|.´ Apendice A. Explique porqu´ no es posible encontrar un valor de la constante c para que e la siguiente funci´n sea de probabilidad o de densidad. 0 otro caso. Considere un experimento aleatorio con espacio muestral equiprobable Ω = {1. 2π]). . . P (X < 0). Considere el ejemplo del experimento aleatorio de lanzar un dardo en un tablero circular de radio uno. 6}. 110. o a Calcule P (X ≥ 0). para − ∞ < x < ∞. Encuentre el valor de la constante c para que la siguiente funci´n sea de o densidad. 2.

Calcule y grafique la funci´n de o probabilidad de la variable Y = X 2 . x f (x) -2 0.1 114. Encuentre y grafique la correspondiente funci´n de densidad f (x).5 112. Sea X discreta con funci´n de probabilidad dada por la tabla que aparece o abajo. Z = |X| y W = 2X − 5. π]. Sea X discreta con funci´n de densidad dada por la tabla que aparece abajo. 115. . Calcule la funci´n de probabilidad de las siguientes o variables aleatorias Y = X 2 . Grafique en cada caso. x f (x) -1 0. Sea X una variable aleatoria con la funci´n de distribuci´n que aparece abajo. o a  si x < 1.  0 F (x) = 1/3 si 1 ≤ x < 2.2 0 0.120 b) f (x) = c sen x 0 si x ∈ [−π. b) Calcule y grafique F (x).1 0 c 2 0.15 0 0. x f (x) -2 0.1 -1 0. P (X < 0) y P (X 2 = 1).1 3 0.15 5 0. Grafique f (x).4 2 0. 111. Sea X discreta con funci´n de probabilidad dada por la siguiente tabla. otro caso.  1 si x ≥ 2. o o ¿Es X discreta o continua? Grafique F (x). Calcule adem´s P (X = 2) y P (1 < X < 2).1 113. d) Encuentre m tal que P (|X − 1| ≥ m) = 1/2. o Encuentre el valor de c y grafique f (x). a) Determine el valor de la constante k y grafique f (x). P (X ≥ 2) y P (X ≤ 0).3 1 0. Grao fique f (x) y calcule P (X ≥ 0). c) Calcule P (−1 ≤ X ≤ 3). Sea X continua con funci´n de densidad o f (x) = 1/10 si − k ≤ x ≤ 4k 0 otro caso.

  1/6 2/3 f (x) =  0 probabilidad. 2. 2. 0 otro caso. P (3 < X ≤ 5) y P (X = 6). 118. 2]. o a  si x < 0. si x = 2. Una urna contiene cuatro bolas numeradas 1. o o ¿Es X discreta o continua? Grafique F (x). . 4 4 x f (x) =  0 otro caso. 3]. c) Calcule y grafique F (x). 4. Ejercicios 121 117. Grafique la funci´n y o si x = 0. Calcule adem´s P (X = 1/2) y P (X > 1/2).´ Apendice A. 0 otro caso. Determine si la siguiente funci´n es de probabilidad. 2x2 /3 − 2x + 4/3 si x ∈ [0. 119. Determine si cada una de las siguientes funciones es de densidad.   4 3 x 1 4−x si x = 0. Determine si la siguiente funci´n es de o justifique su respuesta. Sea X una variable aleatoria con la funci´n de distribuci´n que aparece abajo. b) Calcule y grafique f (x). Grafique la funci´n en cada caso y justifique su respuesta.  0 √ F (x) = x si 0 ≤ x < 1. 3 y 4. o a) f (x) = b) f (x) = 4x/5 si x ∈ [0. otro caso. 120. 1. 116. Grafique la funci´n y o o justifique su respuesta. d) Calcule P (X ≥ 6). Encuentre y grafique la correspondiente funci´n de densidad f (x). 1. Se extraen dos bolas al azar. Sea X la variable aleatoria que denota la suma de los n´ meros de las dos bolas seleccionadas.  1 si x ≥ 1. u a) Determine Ω. 3. una a la vez y sin reemplazo.

122
121. Sea X una variable aleatoria con la siguiente funci´n de distribuci´n. Eno o cuentre y grafique f (x). Calcule P (0 ≤ X < 10). F (x) = 1 − (1/2)x+1 0 si x = 0, 1, 2, 3, . . . otro caso.

122. Sea X una variable aleatoria continua con la funci´n de densidad que apao rece abajo. Encuentre el valor de la constante c y grafique la funci´n f (x). o Encuentre y grafique adem´s la funci´n de distribuci´n F (x). a o o f (x) = 2x/9 si 0 < x < c, 0 otro caso.

Esperanza, varianza, momentos 123. Sea a un n´ mero fijo. Construya una variable aleatoria X tal que E(X) = a. u 124. Calcule la esperanza babilidad es   1/3 1/6 a) f (x) =  0   1/4 1/2 b) f (x) =  0 a) f (x) = e−x , de la variable aleatoria discreta X cuya funci´n de proo si x = 0, 1, si x = 2, 3, otro caso. si x = −1, 1, si x = 0, otro caso.

125. Calcule la esperanza de la variable aleatoria continua X cuya funci´n de o densidad es para x > 0. para 0 < x < 1. b) f (x) = 6x(1 − x),

126. Sea X una variable aleatoria discreta con la funci´n de probabilidad que o aparece abajo. Demuestre que f (x) es efectivamente una probabilidad de densidad y que la esperanza de X no existe. Este es un ejemplo de una variable aleatoria discreta que no tiene esperanza finita.  1  si x = 1, 2, 3, . . . f (x) = x(x + 1)  0 otro caso.

´ Apendice A. Ejercicios

123

127. Sea X una variable aleatoria continua con la funci´n de densidad que aparece o abajo. Demuestre que esta funci´n es efectivamente una funci´n de densidad. o o Compruebe adem´s que la esperanza de X no existe. Este es un ejemplo de a una variable aleatoria continua que no tiene esperanza finita. Es una caso particular de la distribuci´n Cauchy. o f (x) = 1 , π(1 + x2 ) para − ∞ < x < ∞.

128. Diga falso o verdadero. Justifique en cada caso. a) La esperanza de una v.a. puede ser cero. b) No hay dos v.a.s distintas con la misma esperanza. c) La esperanza de una v.a. nunca es negativa. d ) La varianza de una v.a. puede ser cero. e) La varianza de una v.a. nunca es negativa. f ) No hay dos v.a.s distintas con la misma varianza. 129. Demuestre que a) E(E(X)) = E(X). b) Var(Var(X)) = 0. 130. Sea X la variable aleatoria constante c. Compruebe que a) E(X) = c. b) E(X n ) = cn . c) Var(X) = 0. 131. Calcule la media y varianza de la variable aleatoria X con funci´n de probao bilidad   1/9 si x = 0, 1, 2, 2/9 si x = 3, 4, 5, f (x) =  0 otro caso. 132. Calcule la media y varianza de la variable aleatoria X cuya funci´n de proo babilidad es (1/2)x+1 si x = 0, 1, 2, 3, . . . f (x) = 0 otro caso. 133. Diga falso o verdadero. Justifique en cada caso. a) Var(E(X)) = 0.

124
b) E(Var(X)) = Var(X). 134. Sea X una variable aleatoria continua con funci´n de densidad f (x) = 1 e−|x| , o 2 para −∞ < x < ∞. Demuestre que f (x) es efectivamente una funci´n de o densidad y compruebe que a) E(X) = 0. b) E(X 2 ) = 2. c) Var(X) = 2. d ) E(X n ) = n! para n par. 135. Diga falso o verdadero. Justifique en cada caso. a) E(−X) = −E(X).

b) Var(−X) = −Var(X).

c) E(Var(X)) = Var(E(X)).

136. Encuentre el error en la siguiente “demostraci´n” de la afirmaci´n de que la o o varianza de cualquier variable aleatoria es cero. 0 = = = = = Var(0) Var(X + (−X)) Var(X) + Var(−X) Var(X) + Var(X) 2 Var(X).

Distribuci´n uniforme discreta o 137. Sea X con distribuci´n uniforme en el conjunto {1, . . . , n}. Demuestre que o a) E(X) = (n + 1)/2. b) E(X 2 ) = (n + 1)(2n + 1)/6. c) Var(X) = (n2 − 1)/12. 138. Se escogen completamente al azar y de manera independiente dos n´ meros u a y b dentro del conjunto {1, 2, . . . , 9, 10}. ¿Cu´l es la probabilidad de que el a cociente a/b sea menor a uno?

Demuestre que o a) E(X) = np. n − 1. Sea X una variable aleatoria con distribuci´n Ber(p). p) tal que E(X) = 4 y o Var(X) = 2. 146. Sea X con distribuci´n bin(n. Se lanza una moneda equilibrada 2n veces. . Sea X una variable aleatoria con distribuci´n bin(n. Calcule la probabilidad de que ambas caras caigan el mismo n´ mero de veces. se o cumple la siguiente f´rmula. Distribuci´n binomial o 140. Sea X una variable aleatoria con distribuci´n bin(n. Verifique que f (x) es o efectivamente una funci´n de densidad. c) Var(X) = p(1 − p). p). 142.´ Apendice A. Se lanza una moneda equilibrada 6 veces. ısta 144. para n ≥ 1. . Ejercicios Distribuci´n Bernoulli o 125 139. Sea X una variable aleatoria con distribuci´n bin(n. p). o P (X = x + 1) = p (n − x) P (X = x). (1 − p) (x + 1) 145. ¿Cu´les son los valores de n y p? a 143. . Proporcione una explicaci´n o o probabil´ de este resultado. Verifique que f (x) es o efectivamente una funci´n de densidad. Demuestre que para x = 0. b) Var(X) = np(1 − p). o 141. b) E(X n ) = p. Sea X una variable aleatoria con distribuci´n bin(n. p). . p). Calcule la probabilidad de que cada cara caiga exactamente 3 veces. 1. u 147. Esta expresi´n permite calcular las probabilidao o des de esta distribuci´n de una forma iterativa. Demuestre adem´s que o a a) E(X) = p. 1 − p). p). Sea X una variable aleatoria con distribuci´n bin(n. Demuestre que 0 ≤ o Var(X) ≤ E(X). . Demuestre que la vao riable Y = n− X tiene distribuci´n bin(n.

151. . (x + 1) 155. e 152. Esta expresi´n permite calcular o o las probabilidades Poisson de una forma iterativa. se cumple la siguiente f´rmula. ¿Cu´ntas e a extracciones en promedio se necesitan realizar hasta obtener una bola negra por primera vez? Distribuci´n Poisson o 153. Demuestre que la o probabilidad de que X tome un valor par es (1 + e−2λ )/2. Demuestre que para o x = 0. y considerando la observaci´n de 6 nacimientos. . Se escoge una bola al azar. Verifique que la funci´n o o f (x) es efectivamente una funci´n de densidad. . Sea X una variable aleatoria con distribuci´n Poisson(λ).126 148. se cumple la siguiente propiedad llamada de p´rdida de memoria: P (X ≥ a + b | X ≥ a) = P (X ≥ b). b = 0. y o Var(X) = λ. Demuestre que o a) E(X) = (1 − p)/p. . 1. Sea X una variable aleatoria con distribuci´n Poisson(λ). P (X = x + 1) = λ P (X = x). 1. Sea X una variable aleatoria con distribuci´n Poisson(λ). Demuestre que para o cualesquiera a. . 2. Sea X una variable aleatoria con distribuci´n geo(p). o 150. Sea X una variable aleatoria con distribuci´n geo(p). se registra su color. . 2. 154. . Considere una urna con 3 bolas negras y 5 bolas blancas. b) Var(X) = (1 − p)/p2 . Verifique que f (x) o es efectivamente una funci´n de densidad y demuestre que E(X) = λ. y despu´s se regresa a la urna. Suponiendo que es igualmente probable que nazca un hombre (H) o una mujer (M). Sea X una variable aleatoria con distribuci´n geo(p). ¿Cu´l de los siguientes o a eventos es m´s probable que ocurra? a a) MHHMHM b) MMMMHM c) HMHMHM Distribuci´n geom´trica o e 149.

Demuestre que o E(X) = r(1 − p)/p. Sea X con distribuci´n unif(a. se cumple la siguiente f´rmula. Esta expresi´n permite o o calcular las probabilidades de esta distribuci´n de una forma iterativa. Sea X una variable aleatoria con distribuci´n bin neg(r. las restantes se a env´ fuera del laboratorio para su reparaci´n. 159. Sea X una variable aleatoria con distribuci´n bin neg(r. Verifique que f (x) es efectivamente una o funci´n de densidad. . n). Verifique que f (x) o es efectivamente una funci´n de densidad. x Distribuci´n uniforme continua o 161. p). Sea X con distribuci´n hipergeo(N. y Var(X) = r(1 − p)/p2 . Verifique que f (x) es efectivamente o una funci´n de probabilidad.´ Apendice A. K. 2. o r+x−1 P (X = x − 1). Ejercicios 127 156. . p). . El n´ mero de computadoras que fallan por mes en un laboratorio de c´mputo u o tiene una distribuci´n Poisson con un promedio mensual de λ = 2 m´quinas o a descompuestas. o P (X = x) = (1 − p) Distribuci´n hipergeom´trica o e 160. c) ¿Cu´l es el n´ mero de computadoras con falla m´s probable en un mes? a u a Distribuci´n binomial negativa o 157. Sea X una variable aleatoria con distribuci´n bin neg(r. b). o 158. Demuestre que o para x = 1. o . Cuando se descomponen mas de dos m´quinas. El laboratorio tiene capacidad para reparar hasta dos m´quia nas por mes. p). ıan o a) ¿Cu´l es la probabilidad de que en un mes cualquiera sea necesario enviar a m´quinas fuera del laboratorio para su reparaci´n? a o b) Responda al inciso anterior cuando se reduce la capacidad de reparaci´n o del laboratorio a una computadora por mes.

b).128 162. b). Distribuci´n exponencial o 168. Sea X una variable aleatoria con distribuci´n uniforme en el intervalo (−1. 1). Obtenga la distribuci´n de la variable Y = o o 10X − 5. Verifique que f (x) es o efectivamente una funci´n de densidad. 1). Demuestre que o a) E(X) = (a + b)/2. o 169. e P (X ≥ x + y | X ≥ x) = P (X ≥ y). Demuestre que o E(X n ) = bn+1 − an+1 . Demuestre que o a) E(X) = 1/λ. Sea X con distribuci´n exp(λ). Sea X con distribuci´n uniforme en el intervalo (a. b) Var(X) = (b − a)2 /12. (n + 1)(b − a) 165. 167. Sea X con distribuci´n uniforme en el intervalo (a. 1). b). 163. 170. y ≥ 0 se cumple la igualdad que aparece abajo. Sea X una variable aleatoria con distribuci´n exp(λ). Demuestre que la media y la mediana de o X coinciden. e 164. . o Demuestre que E(X n ) = 1/(n + 1) si n es par. Sea X con distribuci´n unif(a. 0 si n es impar. Demuestre que el no ´simo momento de X es 1/(n + 1). b) Var(X) = 1/λ2 . Demuestre que para o cualesquiera n´ meros x. Sea X una variable aleatoria con distribuci´n exp(λ). 166. La u distribuci´n exponencial es la unica distribuci´n continua que satisface esta o ´ o propiedad llamada de p´rdida de memoria. Sea X con distribuci´n uniforme en el intervalo (0. Sea X con distribuci´n unif(0.

y ≥ 0. Sea X con distribuci´n gama(n. 175. F (x + y) = F (x) + F (y) − F (x) F (y). Verifique que f (x) es efectivamente una o funci´n de densidad. Sea X con distribuci´n exp(λ). Sea X con distribuci´n beta(a. o 177. o a) Γ(n + 1) = n Γ(n). De mil o usuarios. o 174. 172. λ). ¿Cu´ntos tienen un conexi´n superior a una hora? Calcule adem´s a o a la probabilidad de que un usuario cualquiera a) no permanezca conectado mas de 10 minutos. . Demuestre que para cualesquiera n´ meros o u x. Distribuci´n beta o 176. c) Γ(n + 1) = n! si n es entero. Suponga que el tiempo que un usuario cualquiera permanece conectado a un servidor en una red de c´mputo se puede modelar como una variable o aleatoria con distribuci´n exponencial con media igual a 10 minutos. Demuestre las siguientes propiedades de la funci´n gama. Distribuci´n gama o 173. b) Γ(2) = Γ(1) = 1. Demuestre que o a) E(X) = a/(a + b). Verifique que f (x) o es efectivamente una funci´n de densidad. Ejercicios 129 171.´ Apendice A. Demuestre que o a) E(X) = n/λ. b). c) E(X m ) = Γ(m + n)/( λm Γ(n) ). Sea X una variable aleatoria con distribuci´n gama(n. Sea X con distribuci´n beta(a. b) permanezca conectado mas de 10 minutos pero menos de una hora. b). √ d ) Γ(1/2) = π. λ). b) Var(X) = n/λ2 .

b) = B(b. b) = 1/b. b). o c) Calcule E(X) y Var(X). b) = B(a. o a) Calcule y grafique f (x). la o funci´n de distribuci´n de X toma la forma o o  si x ≤ 0. con a = b = 1. Demuestre que cuando a = 1 y b > 0. b). a). . F (x) =  1 si x ≥ 1. Sea X con distribuci´n beta(1/2. 182. En este caso se dice que X tiene una o distribuci´n arcoseno. b).  0 1 − (1 − x)b si 0 < x < 1. b) B(a.130 b) Var(X) = ab/( (a + b + 1)(a + b)2 ). 178. Sea X con distribuci´n beta(a. F (x) =  1 si x ≥ 1.  0 xa si 0 < x < 1. 181. b) = a B(a. b)/B(a. la o funci´n de distribuci´n de X toma la forma o o  si x ≤ 0. Sea X con distribuci´n beta(a. o E(X n ) = B(a + n. 1/2) = π. a+b b f ) B(a. a+b g) B(1/2. 183. d ) B(a + 1. 1/2). o Demuestre que X tiene una distribuci´n uniforme en el intervalo (0. 179. c) B(1. b + 1). o 180. b). Demuestre que para cualquier entero n ≥ 0. Sea X con distribuci´n beta(a. 1). b) Demuestre que f (x) es una funci´n de densidad. b). o a) B(a. b). 1) = 1/a. b). b a e) B(a + 1. Demuestre que cuando a > 0 y b = 1. b + 1) = B(a. Sea X una variable aleatoria con distribuci´n beta(a. Demuestre las siguientes propiedades de la funci´n beta.

Rec´ o a ıprocamente. Demuestre que E(X) = µ. σ 2 ). σ 2 ). σ 2 ). o 185. Demuestre que la variable Z = (X − µ)/σ o tiene distribuci´n normal est´ndar. c) P (0 < X ≤ 40).´ Apendice A. Sea X con distribuci´n N(10. entonces la variable X = µ + σZ tiene o a distribuci´n N(µ. 25). b) P (X > 0). d ) P (X ≥ 30). Demuestre que la vao riable Y = −X tambi´n tiene una distribuci´n normal. Demuestre que la o variable Y = aX + b. σ 2 ). Sea X con distribuci´n N(µ. Calcule o a) P (X ≥ 10). Sea X una variable aleatoria con distribuci´n N(µ. 100). e) P (−20 < X ≤ 10). Sea X con distribuci´n N(µ. tambi´n tiene una distribuci´n normal. Sea X con distribuci´n N(µ. Sea X con distribuci´n N(0. e o Encuentre los par´metros correspondientes. o 186. b) 1 − Φ(x) = 0. o 187. a 191.9154 .8666 . c) P (0 < X ≤ 10). y Var(X) = σ 2 . e) P (−10 < X ≤ 10). Sea X una variable aleatoria con distribuci´n N(µ. Encuentre los par´mee o a tros correspondientes. y σ > 0. . Encuentre x tal que a) Φ(x) = 0. d ) P (X ≥ 20). 189. con a = 0. σ 2 ). demuestre que si Z tiene distribuci´n normal est´ndar. Calcule o a) P (X ≤ 10). 190. σ 2 ). b) P (X < 0). Verifique que f (x) es efectivamente una o funci´n de densidad. Ejercicios Distribuci´n normal o 131 184. 188.

Debido a cuestiones mec´nicas. a 2 2 Distribuci´n t o 198. a el llenado de los vasos no es enteramente exacto y hay peque˜ as fluctuaciones n en el llenado. Compruebe que la correspondiente funci´n de o o densidad f (x) efectivamente lo es. y que Var(X) = 2n. y desviaci´n o est´ndar σ = 10 ml. Sea X con distribuci´n χ2 (n). Sea X con distribuci´n t(n). Demuestre que X 2 o tiene√ una distribuci´n χ2 (1). a a) ¿Qu´ fracci´n de los vasos ser´n servidos con m´s de 310 mililitros? e o a a b) ¿Cu´l es la probabilidad de que un vaso sea servido entre 290 y 305 a mililitros? c) Si el restaurant utiliza vasos de 320 ml.132 192. 197. para m ≥ 0. Sea X una variable aleatoria con distribuci´n normal est´ndar. o Compruebe adem´s que E(X m ) = 2m Γ( n + m)/Γ( n ). Compruebe que la distribuci´n χ2 (n) se reduce a la distribuci´n exp(1/2) o o cuando n = 2. ¿qu´ porcentaje de ellos se e derramar´n? a d ) Si los clientes reclaman por vasos servidos con 270 ml. Sea X una variable aleatoria con distribuci´n N(0. o 194.a. o menos. Encuentre la o a funci´n de densidad de Y = |X|. . Demuestre que E(X) = n. de mil clientes. 1). ¿cu´ntos de ellos reclamar´n? a a Distribuci´n ji cuadrada o 195. Sea X con distribuci´n χ2 (n). Sugerencia: Para x > 0. Verifique que f (x) es efectivamente una funci´n o o de densidad. 193. FX 2 (x)= P (X 2 ≤ x)= o √ P (− x ≤ X ≤ x). El fabricante de la m´quina sabe que el llenado de los vasos a se puede modelar como una v. 196. normal con media de 300 ml. Una m´quina autom´tica despachadora de refresco en un restaurant est´ ajusa a a tada para llenar vasos de 300 ml en promedio.

´ Apendice A. Ejercicios

133

199. Sea X con distribuci´n t(n). Demuestre que E(X) = 0, y Var(X) = n/(n−2), o para n > 2.

Vectores aleatorios 200. Sea (X, Y ) un vector aleatorio discreto con funci´n de densidad f (x, y) dada o por la siguiente tabla x\y -1 0 1 .3 .5 2 .05 .15 a) Grafique f (x, y) y demuestre que efectivamente se trata de una funci´n o de densidad. b) Calcule y grafique las densidades marginales f (x) y f (y). Verifique que ambas son efectivamente funciones de densidad. c) Calcule y grafique las distribuciones marginales F (x) y F (y). Verifique que ambas son efectivamente funciones de distribuci´n. o d ) ¿Son X y Y independientes? 201. Sea (X, Y ) un vector aleatorio discreto con funci´n de densidad f (x, y) dada o por la siguiente tabla x\y 0 1 1 .2 0 2 .7 .1 a) Grafique f (x, y) y demuestre que efectivamente se trata de una funci´n o de densidad. b) Calcule y grafique las densidades marginales f (x) y f (y). Verifique que ambas son efectivamente funciones de densidad. c) Calcule y grafique las distribuciones marginales F (x) y F (y). Verifique que ambas son efectivamente funciones de distribuci´n. o d ) ¿Son X y Y independientes? 202. Sea (X, Y ) un vector aleatorio continuo con distribuci´n uniforme en el cuao drado (−1, 1) × (−1, 1). a) Grafique f (x, y) y demuestre que efectivamente se trata de una funci´n o de densidad.

134
b) Calcule y grafique las densidades marginales f (x) y f (y). Verifique que ambas son efectivamente funciones de densidad. c) Calcule y grafique las distribuciones marginales F (x) y F (y). Verifique que ambas son efectivamente funciones de distribuci´n. o d ) ¿Son X y Y independientes? 203. Sea (X, Y ) un vector aleatorio continuo con funci´n de densidad f (x, y) dada o por la siguiente expresi´n o f (x, y) = e−(x+y) 0 si x, y > 0, otro caso.

a) Grafique f (x, y) y demuestre que efectivamente se trata de una funci´n o de densidad. b) Calcule y grafique las densidades marginales f (x) y f (y). Verifique que ambas son efectivamente funciones de densidad. c) Calcule y grafique las distribuciones marginales F (x) y F (y). Verifique que ambas son efectivamente funciones de distribuci´n. o d ) ¿Son X y Y independientes?

Variables y tipos de datos 204. Clasifique cada una de las siguiente variables de acuerdo a si es cualitativa o cuantitativa, y tambi´n de acuerdo a su posible escala de medici´n. e o a) Evaluaci´n de un curso usando la siguiente escala: MB=Muy Bien. B=Bien. o S=Suficiente. NA=No Acreditado. b) N´ mero de hijos de una persona. u c) Escolaridad de una persona. d) Porcentaje de art´ ıculos defectuosos producidos en una f´brica. a e) Nivel de satisfacci´n de una persona al adquirir un producto. o f) Preferencia electoral por alguna de las siguientes propuestas pol´ ıticas: A,B,C,D,E,F. g) Uso o no uso de lentes de una persona. h) Principal pa´ de visita para una persona que viaja al extranjero. ıs i) Costo econ´mico en un accidente automovil´ o ıstico.

´ Apendice A. Ejercicios Estad´ ıstica descriptiva

135

205. Calcule la media, moda, mediana, varianza, desviaci´n est´ndar y rango del o a siguiente conjunto de datos: 4, 2, 0, 9, 4, 2, −1, 1, −4, 2. 206. Pregunte a diez personas sus estaturas. Registre todos estos datos y calcule la media, moda, mediana, varianza, desviaci´n est´ndar y rango. o a 207. Mediante el uso de una calculadora genere diez n´ meros al azar dentro del inu tervalo unitario (0, 1). Escriba estos datos y calcule la media, moda, mediana, varianza, desviaci´n est´ndar y rango. o a
n

208. Demuestre que
i=1 n

(xi − x) = 0. ¯
n

209. Demuestre que
i=1

(xi − x) = ¯
n

2

i=1

x x2 − n¯2 . i
n

210. Demuestre que s2 =

1 1 [ x2 − ( xi )2 ]. n − 1 i=1 i n i=1
n

211. Encuentre el valor de c que minimiza la funci´n x(c) = o ¯
i=1

(xi − c)2 .

212. Calcule la media, varianza, desviaci´n est´ndar, mediana y moda aproximao a dos del siguiente conjunto de datos agrupados. Elabore adem´s un histograa ma.
Intervalo de clase 10 ≤ x < 20 20 ≤ x < 30 30 ≤ x < 40 40 ≤ x < 50 50 ≤ x < 60 Frecuencia 4 3 6 5 5

213. Calcule la media, varianza, desviaci´n est´ndar, mediana y moda aproximao a dos del siguiente conjunto de datos agrupados. Elabore adem´s un histograa

. Intervalo de clase 0≤x<5 5 ≤ x < 10 10 ≤ x < 15 15 ≤ x < 20 25 ≤ x < 30 30 ≤ x < 35 35 ≤ x < 40 Frecuencia 12 23 10 14 6 10 5 Muestras aleatorias y estad´ ısticas 214. . . Sea X1 . . . de una poblaci´n con media desconocida y varianza o finita σ 2 desconocida. . n 1 σ2 = ˆ (Xi − µ)2 . . . 216. n 1 ¯ S2 = (Xi − X)2 . . n − 1 i=1 218. de una poblaci´n con media conocida µ y varianza σ 2 o desconocida. Xn una m.a. Xn una m. Demuestre que la siguiente estad´ ıstica es un estimador insesgado para σ 2 . — Estimaci´n puntual o ˆ ˆ 215.a.136 ma. .a. n i=1 217. . Sean θ1 y θ2 dos estimadores insesgados para el par´metro θ. Demuestre que la siguiente estad´ ıstica es un estimador insesgado para σ 2 . Xn una m. y sea α una a ˆ ˆ ˆ constante. σ2 = ˆ 1 2(n − 1) n−1 i=1 (Xi+1 − Xi )2 . Demuestre que θ = αθ1 + (1 − α)θ2 es tambi´n un estimador e insesgado para θ. . Sea X1 . Demuestre que la siguiente estad´ ıstica es un estimador insesgado para σ 2 . Sea X1 . . de una poblaci´n con media desconocida y variano za σ 2 desconocida.

M´todo de momentos e 220. . Construya un intervalo de confianza del 95 % para el verdadero promedio de vida de estos focos. Ejercicios 137 219. use el m´todo de momentos para encontrar un a e estimador del par´metro λ. Sea X1 . . Xn una m. a 222. a Estimaci´n por intervalos o 225. use el m´todo de momentos para encontrar un estimador para e el par´metro a. o o a Se toma una muestra al azar de 50 focos y result´ que la vida media fue de o 1550 horas. Dada una muestra aleatoria de tama˜ o n de una poblaci´n exponencial con n o par´metro desconocido λ > 0. use el m´todo de m´xima verosimilitud para encontrar un e a estimador para el par´metro a. use el m´todo de m´xima verosimilitud para encontrar a e a un estimador del par´metro λ. a 221. . . a]. a]. Dada una muestra aleatoria de tama˜ o n de una poblaci´n uniforme en el n o intervalo [0.a. . Dada una muestra aleatoria de tama˜ o n de una poblaci´n Poisson con n o par´metro desconocido λ > 0. Sugerencia: (n−1) 2 σ2 S ∼ χ2 (n−1).´ Apendice A. Recuerde que la varianza muestral S 2 se ha definido como sigue 1 ¯ S 2 = n−1 n (Xi − X)2 . Dada una muestra aleatoria de tama˜ o n de una poblaci´n uniforme en el n o intervalo [0. Se sabe que la vida en horas de un foco de 100 watts de cierta marca tiene una distribuci´n aproximada normal con desviaci´n est´ndar σ = 30 horas. de una poblaci´n con media µ y varianza σ 2 deso conocidas. use el m´todo de momentos para encontrar a e un estimador del par´metro λ. a 224. Modifique S para que sea insesgado. Demuestre que S no es un estimador insesgado i=1 para σ. Dada una muestra aleatoria de tama˜ o n de una poblaci´n Poisson con n o par´metro λ > 0. a M´todo de m´xima verosimilitud e a 223.

64. suponiendo que los datos provienen de una muestra tomada al azar de una poblaci´n normal con σ = 1.66. 2211.77. 20. 1. 2272. 228.63. 8. Considere cualquiera de las tres pruebas de hip´tesis para la media µ de o una poblaci´n normal con σ 2 conocida. 2295. 1. 1. Use un nivel de significancia del 10 %. 2231. 2255. Realice la prueba de hip´teo sis H0 : µ = 10 vs H1 : µ < 10.70.65. 229. 4.72. . 2219. 2300. 2223. 1. 2218.60. 4. Se realizan 20 pruebas de resistencia de un cierto material obteni´ndose los e siguientes datos: 2225. Construya un intervalo de confianza del 98 % para la resistencia media de este material. 1. 2217.74. 1. con el siguiente conjunto de datos: 1. 2262. Realice la prueba de hip´tesis H0 : µ = o 1.75. 1. 1. 2190. 1.55. 1. 2252. 10. 2285. 2231. 2232. 2257.70 metros. o Pruebas de hip´tesis o 227. 1. Se cree que la estatura de cierta poblaci´n humana sigue una distribuci´n o o normal con media de 1. 1. y suponga σ = 0.73.83. Demuestre que en cualquier caso la o probabilidad de cometer el error tipo II tiende a cero cuando el tama˜ o de la n muestra n tiende a infinito. 1.69.65. 2261. 2195. 10. 5.59.2 . Use un nivel o de significancia del 5 %. Las mediciones del n´ mero de cigarros fumados al d´ por un grupo de diez fuu ıa madores es el siguiente: 5. 1.10 . 1. 1.74.62. 1. 3. 1.138 226. suponiendo una distribuci´n normal. 1.66.70 vs H1 : µ = 1.81.

C3 . . 139 . El n´ mero total de elementos en u Ω es 16. 2. e) Considere que las bolas tienen las etiquetas 1 y 2. 0). SAS. SSS}. C4 ) en donde cada coordenada Ci corresponde al conjunto de bolas que han sido depositadas en la celda i. (0. . ∅. ({1}. 2}.. SAA. 1]. ∅). 0. 0. 1). 1. 0). (1. 0). 1).}. AAS. 0. . (1. . 0). 1. 0). o ´ Espacio muestral y eventos 1. d ) Ω = {0. (1. 0). 0). g) Ω = {(0. 0. 1. ¿Puede usted escribir todos los arreglos? f ) Ω = {(2. 1. . C2 . AAS. 1)}. 0. a) Ω = {AAA. ∅.. (0. .}. ∅. ∅). 0.Ap´ndice B e Soluciones Esta secci´n contiene algunas sugerencias de soluci´n a los ejercicios planteados. 0. .}. ASS. . (∅. 0. Recuerde adem´s que los m´todos empleados o sugeridos para a e llegar a una soluci´n no son necesariamente unicos. Entonces Ω ={({1. c) Ω = [0. 2}. (0. (0. . 1). 1. Considere el arreglo (C1 . SSA. 0). SSS}. (0. 0. (0. b) Ω = {AAA. ASA. {1. . 2. o o Para algunos ejercicios es necesario ser m´s expl´ a ıcito al dar una soluci´n o al juso tificar una respuesta. (0. 2. La mayor´ de las gr´ficas o ıa a han sido omitidas. 1. 0. ASS. 0. (1. 2). 1. 0. (1. ∅. . considere por tanto que este material contiene simplemente ideas para generar una soluci´n completa y bien escrita. 1). ∅). {2}.

a 10. a) N´ mero de hijos de una persona escogida al azar. De manera an´loga se prueba la contenci´n contraria y a o de esa forma se demuestra la igualdad. Por lo tanto x ∈ Ac y x ∈ B c . b) Tiempo que una u persona tiene que esperar para la llegada de un autob´ s. 2. Para el primer inciso se tiene que (A ∪ B ∪ C)c =((A ∪ B) ∪ C)c =(A ∪ B)c ∩ C c =Ac ∩ B c ∩ C c . Si es el primer caso. La ultima afirmaci´n ´ o puede descomponerse en: x ∈ B ´ x ∈ C. b) Pruebe ambas contenciones como en el inciso anterior. entonces se obtiene que x ∈ A ∩ B. A = A ∩ Ω = A ∩ (B ∪ B c ) = (A ∩ B) ∪ (A ∩ B c ). en donde cada N puede ser cualquiera de los n´ meros 1. es decir x ∈ B. Los enunciados son: a)(A ∪ B ∪ C)c = Ac ∩ B c ∩ C c y b)(A ∩ B ∩ C)c = Ac ∪ B c ∪ C c . N N 6. El n´ mero 1 puede representar ganar en un juego de a u loter´ mientras que el n´ mero 0 corresponde a perder en el juego.140 2. An´logo al anterior. Entonces x ∈ A y x ∈ B ∩ C. 3. N 6. o Entonces x ∈ (A ∪ B). 6. B ∪ (A ∩ B c ) = (B ∪ A) ∩ (B ∪ B c ) = (B ∪ A) ∩ Ω = B ∪ A. esto incluye el caso de pertenencia a o ambos conjuntos. x ∈ A y x ∈ B. 2. Esto demuestra la contenci´n o o A ∩ (B ∪ C) ⊆ (A ∩ B) ∪ (A ∩ C). N N N 6. x ∈ Ac ∩ B c . Si nos interesa observar el n´ mero de lanzamientos hasta obtener un 6 se pueu de tomar Ω = {1.}. . 11. 8. 9. a) Demostraremos la contenci´n (A ∪ B)c ⊆ Ac ∩ B c . b) An´logo al inciso anterior. / / / Es decir. An´logo al anterior. Este es ıa u uno de los muchos ejemplos que pueden construirse para este espacio. Sea x ∈ (A ∪ B)c . c) Este es el espacio u muestral m´s frecuente. De manera an´loga se demuestra al a segundo inciso. De manera an´loga se prueba la contenci´n a o contraria. a 5.}. esto es. 4 ´ 5. B ∩ (A ∪ B c ) = (B ∩ A) ∪ (B ∩ B c ) = (B ∩ A) ∪ ∅ = B ∩ A. . y por lo tanto x es un elemento del lado derecho de la igualdad. a . . La misma conclusi´n se obtiene si x ∈ C. . Si nos interesa registrar con detalle los resultados. . u o 3. 7. a) Sea x ∈ A ∩ (B ∩ C). Ω = {6. Operaciones con conjuntos 4. .

El resto de los incisos de obtiene f´cilmente de la definici´n. 14. B = (−∞.1: A△B△C. A ∪ B = R. Ω 16. b) (A − C) ∩ (B − C) = (A ∩ C c ) ∩ (B ∩ C c ) = A ∩ (B ∩ C c ) = A ∩ (B − C). A − B = [−1. A ∩ B = [−2. −1) ∪ (3. 3]. ∞). a) A − (A ∩ B) = A ∩ (A ∩ B)c = A ∩ (Ac ∪ B c ) = (A ∩ Ac ) ∪ (A ∩ B c ) = ∅ ∪ (A ∩ B c ) = A ∩ B c = A − B. 3]. 6]. A −2 B −1 0 Figura B.´ Apendice B.2: 3 0 6 . Ac = (−∞. (A ∪ B) − (A ∩ B) = (A ∪ B) ∩ (A ∩ B)c = (A ∪ B) ∩ (Ac ∪ B c ) = [(A ∪ B) ∩ Ac ] ∪ [(A ∪ B) ∩ B c ] = [B ∩ Ac ] ∪ [A ∩ B c ] = (B − A) ∪ (A − B). 13. −2) ∪ [−1. ∞). A△B = (−∞. 15. B c = [−1. a) (A ∩ B) − (A ∩ C) = (A ∩ B) ∩ (A ∩ C)c = (A ∩ B) ∩ (Ac ∪ C c ) = (A ∩ B ∩ Ac ) ∪ (A ∩ B ∩ C c ) = ∅ ∪ (A ∩ B ∩ C c ) = A ∩ (B ∩ C c ) = A ∩ (B − C). B − A = (−∞. −1) ∪ (3. b) (A ∪ B) − B = (A ∪ B) ∩ B c = c c c (A ∩ B ) ∪ (B ∩ B ) = (A ∩ B ) ∪ ∅ = A ∩ B c = A − B. 3] ∪ (6. 6].1. ∞). −2) ∪ (6. a o A B C Figura B.2. Compruebe que ambos lados de la igualdad del inciso (a) corresponden al evento que se muestra en la Figura B. ∞). Soluciones 141 12. Gr´ficamente los conjuntos A y B son como se muestran en la Figura B. Se a tiene entonces que A = [−2. −2) ∪ (6.

1]. 1]. − 2) ∪ ( 2. ∞).3: 18. .4 (b). ∞). −3) ∪ [− 2. El m´ximo es 70 % y el m´ a ınimo es 40 %. ∞). A∩B = [−3. 1)∪( 2. Los conjuntos A y B son los que se muestran en la Figura B. √ c = [− 2. A△B = (−∞. El m´ximo es 50 % y el m´ a ınimo es 0 %. Ac = √ = √ (−∞. 21. ∞). B = (−∞. All´ pueden ı identificarse gr´ficamente las operaciones que se solicitan. 1] ∪ √ ( 2. Los conjuntos A y B son los que se muestra en la Figura B. A∪B = (−∞.4 (a).142 17.3. All´ pueden ı identificarse gr´ficamente las operaciones que se solicitan. Gr´ficamente los conjuntos A y B son los que se√ a muestran en la Figura B. 2]. −3) ∪ √ (1. ∞). −3) ∪ ( 2.4: 19. B − A = (−∞. a 20. − 2). √ Por lo tanto A √ [−3. A −3 B √ − 2 0 0 1 √ 2 Figura B. A− B √ √ B = [− 2. a B B A A (a) (b) Figura B.

y P (Ω) = #Ω/#Ω = 1. c). a) P (Ω) = αP1 (Ω) + (1 − α)P2 (Ω) = α + (1 − α) = 1. cuando A a y B son ajenos.(a. ´ u 24. c1 ). y de all´ se sigue la tercera propiedad. A×B×C = { (a1 . No son ajenos.(b. a). (c. P (A ∪ B) = αP1 (A ∪ B) + (1 − α)P2 (A ∪ B) = α(P1 (A) + P1 (B)) + (1 − α)(P2 (A) + P2 (B)) = [αP1 (A) + (1 − α)P2 (A)] + [αP1 (B) + (1 − α)P2 (B)] = P (A) + P (B). c2 ). 23. b3 .(a2 .(a2 .´ Apendice B. 32.(a2 . 29. b1 . c). .(a1 . b1 . c2 )}. (a2 . A1 ∩ B ⊆ A ∩ B = ∅. Producto Cartesiano 28. A × A = { (a. b1 . Para cualquier valor natural de n. c) Cuando A y B son disjuntos. c2 ). Sea A1 ∈ 2A .(c. n(A ∪ B) = n(A) + n(B). c1 ). c1 ). b) P (A) = αP1 (A) + (1 − α)P2 (A) ≥ 0. 1). Conjunto potencia 26. Probabilidad 30. b1 . (a2 . Ahora tome l´ ımite cuando n tiende a infinito y obtenga el resultado requerido. a). b3 . y n(Ω)/n = n/n = 1. b2 . c2 ). c1 ). n(n − 1)/2. c)}. a). b3 . b2 .(a1 . 25. 143 27. c1 ). Claramente P (A) = #A/#Ω ≥ 0.(b. c2 ). (b. tienen un unico punto en com´ n que es (0. Cuando A y B son ajenos. ı 31. entonces A1 ⊆ A ⊆ B. 2∅ = {∅}. c2 ). b).(a1 . b3 . #(A ∪ B) = #A + #B. b). (a2 . (a1 . (a1 . c1 ). Soluciones Conjuntos ajenos 22. b2 .(a. b).(c. se cumple que n(A)/n ≥ 0. b2 . Por lo tanto A1 ⊆ B y en consecuencia A1 ∈ 2B . Adem´s. A ∩ (B − A) = A ∩ (B ∩ Ac ) = ∅.

En el experimento de lanzar una moneda equilibrada. An´lisis combinatorio a 44. a) P (A∪B) = 0. El resultado se obtiene de 1 ≥ P (A ∪ B) = P (A) + P (B) − P (A ∩ B). El resultado es cierto bajo la condici´n A ⊆ B. 39. b) Falso.3 . a 41. o P (B) = P (B ∩ A) + P (B ∩ Ac ). Considerando el ejemplo del inciso anterior. P (Ac ∩ B c ) = 1 − P (A ∪ B) = 1 − P (A) − P (B) + P (A ∩ B). b) Falso. 38. La siguiente a desigualdad es consecuencia de la f´rmula P (A ∪ B) = P (A) + P (B) − P (A ∩ o B). Ahora cancele uno de los t´rminos. 42. b) Falso. 37. a) Verdadero. pues A ⊆ A ∪ B. El segundo sumando es P (B − A). ´ 36. siendo esta uni´n ajena. Como A∩B ⊆ A.7 . mientras que P (B) − P (A) = 1/2 − 1/2 = 0. Entonces P (B − A) = P (B) = 1/2. pues A ∩ B ⊆ A. c) Verdadero. c) Verdadero. 6! = 720. B = (B ∩ A) ∪ (B ∩ Ac ). La primera desigualdad es evidente. se tiene que P (A∩B) ≤ P (A). e 34. 35. Aplicando probabilidad. P (Ac ) = 1 − P (A) < 1 − 1/2 = 1/2. e) P (A△B) = 0. Ambos resultados tienen la misma probabilidad pero evidentemente no son iguales. c) P (Ac ∩B) = 0. c) Falso. en el experimento de lanzar un dado equilibrado.5 . A puede ser Ω. excepto cuando A y B o son independientes. A y B pueden ser ajenos. mientras que P (A)P (B) = 1/2 · 1/2 = 1/4. 43. considere por ejemplo el experimento de lanzar una moneda equilibrada. An´logamente como A ⊆ A ∪ B. Finalmente la ultima desigualdad se obtiene de P (A) ≤ P (Ω) = 1. P (A) ≤ P (A ∪ B). P (A ∩ B) = 0.144 33. sea A el resultado de obtener una de las caras y B obtener la otra cara. a) Verdadero. a) Falso. 0. 3}. d) Falso. P (A△B) = P (A ∪ B) − P (A ∩ B) = P (A) + P (B) − 2P (A ∩ B). considere por ejemplo los eventos A = {1} y B = {2. b) P (Ac ) = 0. P (∅) = P (∅ ∪ ∅) = P (∅) + P (∅). P (A ∪ B) = P (A) + P (B) − P (A ∩ B) > 1/2 + 1/2 − P (A ∩ B) = 1 − P (A ∩ B) ≥ 0. d) P (A∩B c ) = 40. Claramente P (A) ≤ P (B) pero A no est´ contenido en B. P (A) = 2/3.2 .5 . .

15 · 14 · 13 = 2730. 53. Simplifique el lado derecho. El total de casos posibles es 5! = 120. 54. n 2 − n = n(n − 1)/2. 59. 51. 47. 5 3 = 5!/3!2! = 10. la respuesta es 4!/(2! 1! 1!) = 6. 56. Soluciones 145 45. 9 y y puede ser 0. la respuesta es 1−365·364 · · ·(365− n n + 1)/365n. — 60. Simplifique el lado derecho. No es cierto que la mitad de ellos sean pares y la otra mitad impares. Considerando que cada a˜ o tiene 365 dias. Un entero positivo de a lo sumo cinco d´ ıgitos que es divisible por 2 es de la forma xxxxy en donde x puede ser cualquiera de 0. 52. entonces son u de la forma 1xxxy. 58. 48. . Razonando como en el ejercicio anterior. Si empiezan con el n´ mero 1. 46. . 8. la respuesta preliminar es 7! = 5040. Considerando inicial y artificialmente que los siete d´ ıgitos son todos distintos. El total es 4536. Los casos favorables son dos: 12345 y 54321. . Simplifique el lado derecho. y entonces la respuesta es 10 · 10 · 10 · 5 = 5000 y esta vez no hay necesidad de omitir ninguno de ellos. . 6. 1. 2. 49. excepto que debemos omitir el entero 00000.´ Apendice B. Simplifique el lado derecho. 50. 50 k 200 20−k / 250 20 . Por lo tanto el total es 10 · 10 · 10 · 10 · 5 = 50000. Como los cuatro d´ ıgitos 1 son id´nticos. Existen 2296 pares y 2240 impares. — . Por lo tanto la probabilidad buscada es 2/120 = 1/60. La respuesta final es 7!/4! 3! = 5040/(24 · 6) = 35. 57. 4. 55. e cualquier permutaci´n entre ellos produce el mismo n´ mero y por lo tanto o u debemos dividir el resultado preliminar por 4! An´logamente con los tres a d´ ıgitos 0.

{a. . 76. el n´ mero de bolas en la casilla 1 es el valor de u x1 . {a. {a}. b}. d}. k. {c}. 2n . d}. — 72. . n! (n + 1)! 75. 77. d}. lo mismo para las casillas 2. b. {b. El conjunto E corresponde al conjunto de los n ejes coordenados. {a. Las respuestas son entonces n a) n+k−1 . c) Infinito. c}. 74. . {a. c. n m . e 71. b. . — 68. — 69. 2. . 11!/(5! 4! 2!). {a. d}. {b. c. k en donde se desean colocar n bolas sin ninguna restricci´n en el n´ mero de bolas que caben en o u cada casilla. — 73. — 66. 78. 3. b. b) m=0 m+k−1 . c}. {d}. c}. {a. {b}. 70. — 64. — 65. De esta forma. . — 62. 7!/(3! 2!). d}.146 61. {b. d} son: ∅. c. c. {c. d}. 26 . Se pueden obtener un total de 2n subconjuntos distintos de un conjunto de cardinalidad n. o uniones de ´stos. b. . — 63. — 67. . Considere que se tienen k casillas numeradas 1. Los 16 subconjuntos de {a. {a. d}. (n!)2 .

Entonces P (A|B) = 1 o mientras que P (A) < 1. 2.´ Apendice B. T´mese A = B con 0 < P (A) < 1. a) P (A ∩ B) = 0. . a) Falso. P (A|A∩B) = P (A∩B)/P (A∩B) = 1. P (A1 ∪ A2 |B) = P ((A1 ∪ . c) Cierto. b) An´logo al primer a inciso. b) Cierto. n representan casillas que se encuentran u ordenadas de manera natural. El problema puede entonces traducirse en colocar k bolas en este arreglo de casillas en donde cada casilla admite a lo sumo una bola. . La respuesta es entonces n . a) Como B = (Ac ∩B)∪(A∩B). 84.55 e) P (A ∪ B) = 0. El lado izquierdo es 2 mientras o que el lado izquierdo es 1. k 80. Entonces P (A|B) = 1 mientras que P (B|A) = P (B) < 1.95 f) P (A ∪ B c ) = 0. b) Falso. Entonces A1 ∩ B y A2 ∩ B tambi´n son ajenos. P (A ∩ B ∩ C) = P (C|A ∩ B)P (A|B)P (B) = ppp = p3 . 82. Probabilidad condicional e independencia 81. d) 83. T´mese A = Ω. T´mese A = Ω y B o tal que 0 < P (B) < 1. a) Falso. Entonces el lado izquierdo es uno o mientras que el lado derecho es dos. Solo es cuesti´n de escribir la definici´n de cada o o probabilidad condicional. c) Falso. El c´lculo es id´ntico para P (B|A ∩ B). c) P (Ac ∩ B c ) = 1 − P (A ∪ B) = 1 − P (A) − P (B) + P (A ∩ B) = 1 − P (A) − P (B) + P (A)P (B) = (1 − P (A))(1 − P (B)) = P (Ac )P (B c ). a e 87. Considere que los n´ meros 1.55. Alternativamente P (A|B) + P (Ac |B) = P (A ∩ B)/P (B) + P (Ac ∩ B)/P (B) = P ((A ∩ B) ∪ (Ac ∩ B))/P (B) = P ((A ∪ Ac ) ∩ B)/P (B) = P (B)/P (B) = 1. b) Falso. se tiene que P (Ac ∩B) = P (B)−P (A∩B) = P (B) − P (A)P (B) = P (B)(1 − P (A)) = P (B)P (Ac ). (a + b + c)3 = a3 + b3 + c3 + 3ab2 + 3ac2 + 3a2 b + 3a2 c + 3b2 c + 3bc2 + 6abc. a) Verdadero y ello es consecuencia del hecho de que P (·|B) es una medida de probabilidad.45 c) P (A ∩ B c ) = 0. 85.05 c P (A ∪ B) = 0. T´mese por ejemplo A = B1 ∪ B2 . Todos los incisos son ciertos. a) P (Ω|B) = P (B)/P (B) = 1 b) P (A|B) ≥ 0 c) Sean A1 y A2 ajenos. Soluciones 147 79.05 b) P (Ac ∩ B) = 0. . Con A = ∅ se obtiene P (A|B) = 0. Por lo tanto P (A1 ∪ A2 |B) = e P ((A1 ∪A2 )∩B)/P (B) = P ((A1 ∩B)∪(A2 ∩B))/P (B) = P (A1 ∩B)/P (B)+ P (A2 ∩ B)/P (B) = P (A1 |B) + P (A2 |B). . 88. 86.

92. . Entonces A y B son independientes pero no son o ajenos. 4} equiprobable con A = {1. T´mese B = Ω. (1/2. b) (0. La probabilidad de que no ocurra ninguno de los eventos es P (Ac ∩ B c ). T´mese A1 = A2 . n . o B = {2. que por la independencia es igual a P (Ac )P (B c ) = (1 − p1 )(1 − p2 ). (0. Como A y B son independientes y ajenos. De modo que la respuesta es n + · · · + n = 2n − n − 1. 95. 94. a) Falso. . Para que este producto se anule forzosamente alguno de los factores tiene que ser cero. 3/4). El total de subconjuntos de cardinal 1. . a c) Falso. c) Falso. 0). y sean A y B los eventos de que caiga una cara y la otra respectivamente. T´mese Ω = {1. a) Cierto pues la definici´n es sim´trica respecto de los eventos A y B. 2. o 89. 1/2). Cuando P (A) es cero o uno la propiedad es v´lida. n 1 n n 1 . a) P (∅∩∅) = P (∅) = 0 = P (∅)P (∅). d) (0. El lado derecho es el cuadrado del lado izquierdo. El lado derecho es el cuadrado del lado izquierdo. b) Falso. T´mese A tal que 0 < P (A) < 1. 1/2). o d) Falso. 90. n es respectivamente . 96. . c) (0. 2. 1). a) ∅ = (0. P (A ∩ Ω) = P (A) = P (A)P (Ω). T´mese B1 = B2 . o e b) Falso en general. . 2}. 98. n 2 . Considere el experimento de lanzar una moneda honesta. (0. Entonces claramente A y B son ajenos pero no son independientes. 93. P (A ∪ B) = 1 − P (Ac ∩ B c ) = 1 − P (Ac )P (B c ) pues Ac y B c tambi´n son e independientes. Entonces se cumple P (A ∩ B) = 1/4 = P (A)P (B) y P (B∩C) = 1/4 = P (B)P (C). 3} y C = {3. . b) P (Ω∩Ω) = P (Ω) = 1 = P (Ω)P (Ω). . Alternativamente desarrolle P (A ∪ B) y factorice adecuadamente. 1/2). Entonces P (A∩A) = P (A) o mientras que P (A)P (A) < P (A). pero P (A∩C) = 0 distinto a P (A)P (C) = 1/4. 0 = P (A ∩ B) = P (A)P (B). . 97. 1/2). 91. P (A ∩ ∅) = P (∅) = 0 = P (A)P (∅). (1/4. 1/2). 4}.148 A2 )∩B)/P (B) = P (A1 ∩B)/P (B)+P (A2 ∩B)/P (B) = P (A1 |B)+P (A2 |B). 3.

r+b 100. y o en tal situaci´n puede considerarse que la configuraci´n inicial de la urna o o cambia. 2. 1. Teorema de Bayes 101.´ Apendice B. Entonces P (A) = P (A|N1 )P (N1 ) + P (A|N2 )P (N2 ) + P (A|N3 )P (N3 ) = 11/108. si la escala de medici´n son o a˜ os. Entonces por el teorema de ı o o probabilidad total. c c P (Rn+1 ) = P (Rn+1 |R1 )P (R1 ) + P (Rn+1 |R1 )P (R1 ) r+c r r b = × + × r+b+c r+b r+b+c r+c r = . . e o Suponga entonces v´lida la igualdad P (Rn ) = r/(r + b).62 = 0. .38.1 · 0. Sea R0 el evento “se recibe un cero”.4/0. y N cuando en particular son todas negras. .8 · 0.2 · 0. P (E1 |R1 ) = P (R1 |E1 )P (E1 )/P (R1 ) = 0.9 · 0. Se condiciona la a probabilidad del evento Rn+1 dado el resultado de la primera extracci´n. Variables aleatorias 103. los valores pueden ser 0. 1. Sean N1 . ıa An´logamente se definen los eventos R1 y E1 .9 · 0. Soluciones Teorema de probabilidad total 149 99. Claramente P (R1 ) = r/(r +b).6 = 0.84. a) Discreta. P (E0 |R0 ) = P (R0 |E0 )P (E0 )/P (R0 ) = 0. N2 y N3 los eventos correspondientes a escoger los n´ meros 1. Sea A el evento cuando todas las bolas son del mismo color.8 · 0. 2 y u 3 respectivamente. 2. de modo que el evento Rn+1 se refiere ahora a la n-´sima extracci´n e o y all´ es donde se usa la hip´tesis de inducci´n. 102. . c) Puede ser continua y n .4 + 0. P (R1 ) = P (R1 |E0 )P (E0 ) + P (R1 |E1 )P (E1 ) = 0. Se puede usar el m´todo de inducci´n sobre n.87. .4 + 0.62. . Entonces a a) b) c) d) P (R0 ) = P (R0 |E0 )P (E0 ) + P (R0 |E1 )P (E1 ) = 0.38 = 0. Sea A el evento “obtener 5 al lanzar el dado”.6/0.6 = 0. y E0 el evento “se env´ un cero”. b) Discreta con posibles valores 0. Entonces P (N |A) = P (A|N )P (N )/P (A) = n n b k /[ k + k ].

P (X ∈ {2. a) y b) La constante c no puede ser cero. P (Z < 1/2) = 1/4 y P (1/3 < Z < 1/2) = 5/36. Tampoco puede ser positiva o negativa pues en ambos casos la funci´n de probabilidad toma valores negativos. P (X ≥ 0) = 2/3.1 5 0. 1.15 1 0. P (X < 0) = 0. .15 3 0. si s´lo se consideran unidades monetarias. o 104. P (X 2 = 1) = 0. 4. 1).4 1 0. 2. P (X < 3) = 3/385. 2π]) = 1. −2. 4}) = 9/55. P (2X − 4 = 0) = 1/6 y P (X 2 = 4) = 1/3. 112.15 25 0. 2.1 . 8. . P (X ∈ (1. 3. P (X ≥ π) = (π − 2)/2π.15 4 0. La funci´n de probabilidad de X 2 es o x f (x) La de |X| es Y la de 2X − 5 es x f (x) -9 0. . 2. 108. d) Continua con valores en (0. . P (X ≥ 0) = 1/2. P (X 2 = 1) = 0. . b) c = 1/385. P (X < 0) = 1/3. 1. 4}) = 9/385. d) Discreta con posibles valoo res 0. 3. P (X < 0) = 1/2. 6}.1 -7 0. P (X + Y ≤ 1) = 3/4 + 2/π. P (X ∈ {2. c = 1/2. P (X < 3) = 3/55. Funciones de densidad y de distribuci´n o 107. a) Continua con valores en (0. P (X = 0) = 1/6. c = 1/2π.15 -5 0.15 5 0.7. 0. ∞)) = 1/2e. P (Y > X) = 1/2. P (X ∈ {2. 106. 111. c) Continua con valores en (0.4 -1 0. . a) c = 1/55.1 x f (x) 0 0.1 1 0.2 2 0. ∞).4 0 0. 110. 105. o lo cual no es permitido.150 considerarse te´ricamente el intervalo [0. 109. 1/2).8.2 9 0. P (X ∈ [−π. b) Discreta con valores en el conjunto {0. El rango de X es el conjunto {−4. 9}. . P (X ≥ 0) = 0. 1). 3}) = 1/6.

4). .8 4 0. (4. e c) P (−1 ≤ X ≤ 3) = 2/5. (3. (3. 2. Por lo o tanto P (0 ≤ X < 10) = F (9) = 1 − (1/2)10 . varianza. cero antes. 118. . (4. 3]. 1. 1). La funci´n de probabilidad es f (x) = (1/2)x+1 . 2). o 119. 3)}. e Esperanza.8. (2. 2). (1. P (3 < X ≤ 5) = 1/2. 115. Ninguna de las funciones es de densidad. La funci´n de probabilidad de X 2 es o x f (x) 0 0. c = 3. P (X ≥ 2) = 3/5. p) con n = 4 y p = 3/4. y para la segunda se tiene que f (3/2) < 0. Es funci´n de densidad pues es no negativa y es tal que f (0)+f (1)+f (2) = 1. (1. Soluciones 113. Puede considerarse la variable aleatoria constante X = a. y P (1 < X < 2) = 0.2 151 114. 8]. 4). momentos 123. Es funci´n de densidad pues es no negativa y por el teorema del binomio se o 4 cumple que x=0 f (x) = (3/4+1/4)4 = 1. 122. √ 116. b) F (x) = (x + 2)/10 para x ∈ [−2. 117. d) m = 5/2. 1). Esta es la funci´n de probabilidad o de la distribuci´n bin(n. 3). P (X = 1/2) = 0 o √ y P (X > 1/2) = F (1) − F (1/2) = 1 − 1/ 2. b) La funci´n de probabilidad de X es o x f (x) 3 2/12 4 2/12 5 4/12 6 2/12 7 2/12 d) P (X ≥ 6) = 1/3. La primera no integra uno. para x ∈ (0. 1). a) k = 2. o 120. El valor de c es 0. P (X ≤ 0) = 1/5. 3). La funci´n de densidad es f (x) = 1/(2 x). ¿Puede usted construir una variable e aleatoria continua con la propiedad indicada? . para x = 0. 121. Se trata de una variable aleatoria discreta cuya funci´n de probabilidad es o f (1) = 1/3 y f (2) = 2/3. (3. cero antes. Alternativamente puede tomarse a X como aquella variable aleatoria que toma los valores a − 1 y a + 1 con id´ntica probabilidad 1/2. . (2. a) Ω = {(1. 2)(4. 4). F (x) = x2 /9 para x ∈ [0. P (X = 6) = 1/6. 1).´ Apendice B. uno despu´s. Por lo tanto P (X = 2) = 2/3. uno despu´s. (2.

132. E(X) = 3 y Var(X) = 24/9. a) E(x) = 1. 125. Para demostrar que esta funci´n es de densidad es necesario recordar que la o derivada de la funci´n h(x) = arctan x es h′ (x) = 1/(1 + x2 ). Tanto la esperanza como la varianza son constantes. Usando fracciones parciales se comprueba la ideno tidad 1 1 1 = − . f) Falso. 129. pues la varianza es la esperanza de una variable aleatoria no negativa. c) Var(X) = (c − E(X))2 × P (X = c) = (c − c)2 × 1 = 0. las siguientes o dos distribuciones son distintas y ambas tienen esperanza cero. a) Cierto. entonces −X tiene esperanza negativa. La esperanza no existe por que la integral resultante no es absoluta∞ 1 2 ∞ x 2 ∞ x mente convergente: −∞ |x| π(1+x2 ) dx = π 0 1+x2 dx ≥ π 1 1+x2 dx ≥ 2 ∞ x 1 ∞ 1 π 1 x2 +x2 dx = π 1 x dx = ∞. E(X) = e = . Usaremos resultados de sumas o ∞ ∞ x x+1 x+1 geom´tricas. x(x + 1) x x+1 Entonces la suma x=1 f (x) es telesc´pica y vale uno. a) E(X) = 7/6. 130. por ejemplo todas las constantes son variables aleatorias con varianza cero. Intercamx=0 x(1/2) x=1 y=1 (1/2) ∞ ∞ biando el orden de las sumas se encuentra la expresi´n y=1 x=y (1/2)x+1 o . b) E(X) = 0. b) E(X) = 4/3. x=1 x=1 127. Los resultados se siguen del hecho de que la esperanza de una constante es la constante misma y la varianza de una constante es cero. x f1 (x) f2 (x) -1 1/2 1/3 0 0 1/3 1 1/2 1/3 ∞ c) Falso. si X es una variable aleatoria con esperanza finita y positiva. dos variables aleatorias constantes distintas tienen varianza cero. 128. a) E(X) = c × P (X = c) = c × 1 = c.152 124. Por otro lado la eso 1 peranza no existe pues la suma ∞ xf (x) = ∞ x+1 es divergente. la constante cero cumple tal condici´n. b) E(X n ) = cn × P (X = c) = cn × 1 = cn . e) Cierto. 126. Por lo tanto o ∞ 1 1 ∞ d 1 1 dx = π −∞ dx arctan x dx = π arctan x|∞ = π (π/2 − (−π/2)) = −∞ −∞ π(1+x2 ) 1. d) Cierto. La funci´n es no negativa. 131. b) Falso. Esta es la distribuci´n geo(p) con p = 1/2.

y para ello usaremos la identidad x2 = x(x + 1) − x. 0 x2 e−x dx. e ∞ es decir. c) Por los c´lculos anteriores Var(X) = E(X 2 ) − E 2 (X) = 2. Intercambiando ahora el orden de las sumas ∞ ∞ ∞ se llega a E(X 2 ) = 2 y=1 y x=y (1/2)x+1 − 1 = 2 y=1 y(1/2)y − 1 = 22 ∞ y(1/2)y+1 − 1 = 4 − 1 = 3. Por lo tanto la varianza es Var(X) = y=1 E(X 2 ) − E 2 (X) = 3 − 1 = 2.´ Apendice B. Aplicando repetidas veces el m´todo de integraci´n por partes se comprueba que esta integral e o vale n! 135. Cuando n es impar se trata del negativo de la pri2 mera integral. E(X 2 ) = ∞ ∞ ∞ 2 x+1 x+1 = − x=0 x(1/2)x+1 . ∞ 1 b) El segundo momento es −∞ x2 2 e−|x| dx. Por lo tanto se obtiene el doble de la primera. Ambos incisos son ciertos pues tanto E(X) como Var(X) son constantes. 136. 133. La funci´n es de densidad pues es no negativa y la integral −∞ 1 e−|x| dx o 2 ∞ 1 ∞ puede ser escrita como 2 0 2 e−x dx = 0 e−x dx = 1. a) Cierto pues la esperanza es lineal. El lado izquierdo es Var(X) y el lado derecho es siempre cero. Soluciones ∞ 153 y = y=1 (1/2) = 1. La tercera igualdad no es correcta pues la varianza en general no es lineal. . es id´ntica a la e ∞ primera integral. b) Falso pues en general Var(cX) = c2 Var(X). La segunx=1 x (1/2) x=0 x(x + 1)(1/2) da suma acaba de ser calculada y vale uno. Mediante el cambio de 2 2 variable y = −x se comprueba que la segunda integral es el negativo de la primera. Nuevamente separando la parte e 2 ∞ 0 positiva de la negativa se obtiene 0 xn 1 e−x dx + −∞ xn 1 ex dx. Para la primera suma escrix ba x(x + 1) como 2 y=1 y. Al ha2 2 cer el cambio de variable y = −x en la segunda integral se obtiene que es ∞ (−1)n+2 0 xn 1 e−x dx. Separando la parte positiva y la 2 ∞ 0 ∞ negativa se obtiene 0 x 1 e−x dx + −∞ x 1 ex dx. a ∞ d) El n-´simo momento es −∞ xn 1 e−|x| dx. Para la varianza encontraremos primero el segundo momento. de modo que la suma es cero. Nuevamente separando la parte ∞ 0 1 positiva de la negativa se obtiene 0 x2 1 e−x dx + −∞ x2 2 ex dx. se obtiene que la esperanza es cero. ∞ a) La esperanza de X es −∞ x 1 e−|x| dx. Usando integraci´n por partes puede comprobarse que o esta integral vale 2. y entonces el resultado es 0 xn e−x dx. 134. Ahora al 2 hacer el cambio de variable y = −x en la segunda integral se obtiene que es id´ntica a la primera integral. c) Falso. Cuando n es par.

c) Var(X) = E(X 2 ) − E 2 (X) = p − p2 = p(1 − p). La esperanza es E(X) = n x n px (1 − p)n−x . (n + 1)(2n + 1) (n + 1)2 − = (n2 − 1)/12. ´sta se convierte en la suma completa de la e distribuci´n bin(n − 1. b) E(X n ) = 0n (1 − p) + 1n p = p. 45/100. Es muy sencillo verificar que f (x) ≥ 0. Para la o varianza se usa la misma t´cnica. n 2 1 n(n + 1)(2n + 1) = (n + 1)(2n + 1)/6. x=0 x p (1 − p) n x=0 f (x) = 141. Adem´s por el teorema del binomio a n n x n−x = (p + 1 − p)n = 1. a) E(X) = i=1 n i 1 1 = n n i2 n i= i=1 n 1 n(n + 1) = (n + 1)/2. Haciendo el cambio de vax−1 riable y = x − 1 en la suma. Distribuci´n binomial o 140. n 6 b) E(X 2 ) = i=1 1 1 = n n i2 = i=1 c) Var(X) = E(X 2 ) − E 2 (X) = 138. Claramente f (x) ≥ 0. p) y vale uno. Adem´s a a) E(X) = 0 (1 − p) + 1 p = p. ((n − 1) − (x − 1))!(x − 1)! x=1 n n lo cual es np x=1 n−1 px−1 (1 − p)(n−1)−(x−1) .154 Distribuci´n uniforme discreta o n 137. La suma puede empezar x=0 x desde uno. Se calcula primero el segundo momento e . 6 4 Distribuci´n Bernoulli o 139. El resultado es entonces np. Factorizando np y escribiendo n−x = (n−1)−(x−1) se encuentra la expresi´n o np (n − 1)! px−1 (1 − p)(n−1)−(x−1) . y f (0) + f (1) = 1.

Si X cuenta u e el n´ mero de ´xitos en n ensayos Bernoulli. 148. es decir. x x x=0 x=0 La segunda suma acaba de ser calculada y vale np. Al substituir la funci´n de o probabilidad de X resulta que Y tiene distribuci´n binomial con el mismo o n´ mero de ensayos n. entonces Y cuenta el n´ mero de u e u fracasos. n = 8 y p = 1/2. n 155 E(X 2 ) = x=0 n x2 n x p (1 − p)n−x x n n x n x = x(x − 1) p (1 − p)n−x + x p (1 − p)n−x . Los tres eventos tienen la misma probabilidad de ocurrir. pero la probabilidad de ´xito es ahora 1−p. Entonces efectivamente npq ≤ np pues q ≤ 1. y procediendo como en el caso de la esperanza puede escribirse como n(n − 1)p2 (n − 2)! px−2 (1 − p)(n−2)−(x−2) . 146. (1/2)2n . cada uno de ellos tiene probabilidad 1/26 . 145. 142. 6 3 (1/2)6 . 144. Recuerde que Var(X) = npq y E(X) = np. 143. 2n n 147. ´sta se convierte en la suma completa e de la distribuci´n bin(n − 2. Haciendo el cambio x−2 de variable y = x − 2 en la suma. Por lo tanto Var(X) = E(X 2 ) − E 2 (X) = n(n − 1)p2 + np − n2 p2 = np(1 − p). p) y vale uno. P (Y = x) = P (n − X = x) = P (X = n − x). . Desarrolle el lado derecho. Soluciones escribiendo x2 = x(x − 1) + x.´ Apendice B. La primera suma puede empezar desde 2. ((n − 2) − (x − 2))!(x − 2)! x=2 n n lo cual es n(n − 1)p2 x=2 n−2 px−2 (1 − p)(n−2)−(x−2) . El segundo momento es entonces o n(n − 1)p2 + np.

E(X 2 ) = x=1 x2 p(1 − p)x = x=0 x(x + 1)p(1 − p)x − ∞ x x=0 xp(1 − p) . Para la varianza encontraremos primero el segundo momento. E(X) = e x=0 xp(1 − p) = ∞ x x x=1 y=1 p(1 − p) . La funci´n f (x) es no negativa y es tal que o x=0 f (x) = x=0 e x! ∞ λx = e−λ x=0 x! = e−λ eλ = 1.2706. x Para la primera suma escriba x(x + 1) como 2 y=1 y. Intercambiando el orden de las sumas se encuentra la ∞ ∞ x y expresi´n ∞ o y=1 x=y p(1 − p) = y=1 (1 − p) = (1 − p)/p. Para la esperanza tenemos que E(X) = ∞ ∞ ∞ −λ λx −λ λx −λ λx−1 x=1 e x=1 e x=0 x e x! = (x−1)! = λ (x−1)! = λ. puede encontrarse que el segundo momento es E(X 2 ) = λ2 + λ. La segunda suma acaba de ser calculada y vale (1-p)/p. P (X ≥ a + b | X ≥ a) = P (X ≥ a + b)/P (X ≥ a) = p x=a+b (1 − ∞ p)x /(p x=a (1 − p)x ) = (1 − p)a+b /(1 − p)a = (1 − p)b = P (X ≥ b). a) 0. Adem´s a ∞ x=0 f (x) = ∞ x=0 p(1 − p)x = p(1/p) = 1.593 c) Una o dos computadoras descompuestas tienen probabilidad m´xima 0. ∞ x 150. Desarrolle el lado derecho. y para ello usaremos la identidad ∞ ∞ x2 = x(x + 1) − x. Por lo tanto Var(X)= E(X 2 ) − E 2 (X)= λ2 + λ − λ2 = λ. Usaremos resultados de sumas geom´tricas. a . ∞ Distribuci´n Poisson o −λ λ 153. 152. Por lo tanto la varianza es Var(X) = E(X 2 ) − E 2 (X) = 2(1 − p)/p2 − (1 − p)/p − (1 − p)2 /p2 = (1 − p)/p2 . Intercambiando ahora ∞ ∞ el orden de las sumas se llega a E(X 2 ) = 2 y=1 y x=y p(1 − p)x − (1 − p)/p ∞ ∞ 2 = 2 y=1 y(1 − p)y − (1 − p)/p = p y=1 yp(1 − p)y − (1 − p)/p = 2(1 − p)/p2 − (1 − p)/p. 155. ∞ ∞ x 154. Sume las series eλ = 1 + λ + λ2 /2! + λ3 /3! + · · · .323 b) 0.156 Distribuci´n geom´trica o e 149. Usando la igual2 dad x = x(x − 1) + x. 8/3=2.66 extracciones. y e−λ = 1 − λ + λ2 /2! − λ3 /3! + · · · 156. f (x) ≥ 0. 151.

xn 1/(b − a) dx= 1 n+1 b (n+1)(b−a) x a b a = (bn+1 − an+1 )/((n + 1)(b − . y la expansi´n (1 + t)a = o t para a real x=0 x k k ∞ ∞ y |t| < 1. Este ejercicio no es f´cil. Observe que la suma puede empezar desde 1. Entonces x=0 r+x−1 pr (1 − p)x = pr x=0 (−1)x −r (1 − p)x x x ∞ = pr x=0 −r (p − 1)x = pr (1 + p − 1)−r = 1. 162. El procedimiento es an´logo al caso de a la esperanza. separando las sumas. Por lo tanto Var(x) a = E(X 2 ) − E 2 (X)= (a2 + ab + b2 )/3 − (a + b)2 /4= (b − a)2 /12. p). x 158. 1 0 b xn 1 dx= 1/(n + 1). Factorice el t´rmino (1 − p)(r + x − 1)/x en la expresi´n de P (X = x). Soluciones Distribuci´n binomial negativa o 157 157.´ Apendice B. y la integral de f (x) es el ´rea del rect´ngulo de base a a b − a y altura 1/(b − a) que vale uno. Al substituir estos resultados en la f´rmula Var(X)= E(X 2 )−E 2 (X) se obtiene o Var(X) = r(1 − p)/p2 . Distribuci´n uniforme continua o 161. el resultado es E(X 2 )= r(r + 1)(1 − p)2 /p2 + r(1 − p)/p. Para la varianza use la f´rmula x2 = x(x − 1) + x para calcular o primero E(X 2 ). Para la esperanza. b) E(X 2 )= b 2 x 1/(b − a) dx = (b3 − a3 )/(3(b − a))= (a2 + ab + b2 )/3. Una forma de resolverlo es a trav´s de la f´rmula a e o ∞ −n a x = (−1)k n+k−1 . La x=1 x x suma resultante es uno pues se trata de las probabilidades de la distribuci´n o bin neg(r. E(X n ) = a)). 159. a) E(X)= a x 1/(b − a) dx= (b2 − a2 )/(2(b − a)) = (a + b)/2. e o Distribuci´n hipergeom´trica o e 160. 163. E(X n )= 164. El resultado se sigue de la f´rmula o r n k=0 k m r−k = n+m r . Claramente f (x) ≥ 0. factorice el t´rmino r(1 − p)/p en la expresi´n E(X)= e o ∞ r+x−1 r p (1 − p)x .

Y tiene distribuci´n unif(−5. FY (y) = P (Y ≤ y)= P (10X − 5 ≤ y)= P (X ≤ (y + 5)/10)= FX ((y + 5)/10). o e Distribuci´n exponencial o 168. Por lo o tanto.47 tienen conexi´n mayor a una hora. 5). Pero fX ((y + 5)/10) vale uno s´lo cuando 0 < (y + 5)/10 < 1. Por lo tanto de 1000 usuarios. Por lo tanto λ = 1/10. . 172. E(X) = 0 x λ e−λx dx. E(X n ) = −1 xn 1/2 dx = 2(n+1) xn+1 −1 . 0 169.002478 . E(X) = 10 = 1/λ. 170. 171. Para cualquier y ∈ (−5. Vea un ejercicio anterior para la o demostraci´n de que la media es tambi´n (a + b)/2.158 1 165. E(X 2 ) = 0 x2 λ e−λx dx = 2 0 x e−λx dx = o ∞ −λx 2 2 dx = 2/λ . se obtiene E(X) = 0 e−λx dx = (1/λ) 0 λ e−λx dx= 1/λ.3654 . b) P (10 < X < 60) = F (60)−F (10) = (1−e−6 )−(1−e−1 )= 0. a) P (X < 10) = F (10) = 1 − e−10/10 = 1 − e−1 = o 0. usando nuevamen∞ ∞ te integraci´n por partes. entonces n + 1 es impar y la integral es 1/(n + 1). aproximadamente 2. Entonces P (X > 60)= 1 − P (X ≤ 60)= 1 − (1 − e−60/10 )= e−6 = 0. o 167. X toma valores en (0. entonces n + 1 es par y la integral se anula. P (X ≥ x + y | X ≥ x)= P (X ≥ x + y)/P (X ≥ x) = e−λ(x+y) /e−λx = e−λy = P (X ≥ y). Si n es par. si −5 < y < 5. Suponga que el tiempo se mide en minutos. 1 1 166. Por lo tanto Var(X)= E(X ) − E 2 (X) = (2/λ) 0 x λ e 2 2 2 2/λ − 1/λ = 1/λ . Si n es impar. Derivando fY (y) = fX ((y + 5)/10) 1/10. Usando integraci´n por partes con u = x y dv = o ∞ ∞ λ e−λx dx. Para la varianza calcule primero el segundo momento. es decir.6321 . f (x) ≥ 0 y ∞ 0 ∞ λ e−λx dx = −e−λx |∞ = 1. F (x) F (y)= (1 − e−λx )(1 − e−λy ) = 1 − e−λx − e−λy + e−λ(x+y) = (1 − e−λx ) + (1 − e−λy ) − (1 − e−λ(x+y) ) = F (x) + F (y) − F (x + y). 1) y Y toma valores en (−5. 5). 5). La mediana en este caso es unica y vale m = (a + b)/2 pues cumple la ´ condici´n P (X ≤ m) = P (X ≥ m) = 1/2.

u 1 b) B(a. b) = a+b+1 a+b B(a. Claramente f (x) ≥ 0. El ultimo integrando es la densidad normal est´ndar.b) xa−1 (1−x)b−1 dx = = B(a+1. Soluciones Distribuci´n gama o 159 173.b) a+1 a+1 a donde B(a+2.b) . Γ(2) = 1 Γ(1). b) para obtener En 1 1 xa+1 (1 − 0 B(a+2. adem´s haciendo el cambio de variable t = λx se o a n−1 ∞ ∞ 1 obtiene 0 (λx) λ e−λx dx = Γ(n) 0 tn−1 e−t dt = Γ(n) = 1.b) B(a. por lo tanto es suficiente ∞ demostrar que Γ(1) = 1.´ Apendice B. 2 1 1 xa (1−x)b−1 dx 0 B(a+1. Por lo tanto Var(X)= E(X ) − E (X)= (n + 1)n/λ − n2 /λ2 = n/λ2 . a ∞ n−1 ∞ n 175. b) = a+b+1 B(a+1. c) An´logo al inciso anterior. Use integraci´n por partes con u = tn y dv = o e−t dt. 1 c) B(1.b) .b) = 1 1 0 B(a. ´ a ∞ Distribuci´n beta o 176. b) Por el inciso anterior.b) B(a. La funci´n es no negativa. La integral 174. n−1 n+1 ∞ ∞ −λx −λx b) E(X 2 ) = 0 x2 (λx) dx = Γ(n+2) 0 (λx) dx= (n + Γ(n) λ e λ2 Γ(n) Γ(n+2) λ e 2 2 2 2 1)n/λ . a) E(X) = 0 x (λx) Γ(n) λ e λ Γ(n) vale uno. c) Esto es consecuencia de los dos incisos anteriores. b) B(a. a) Efect´ e el cambio de variable y = 1 − x. B(a+2.b) 1 B(a.b) xa−1 (1 − x)b−1 dx = B(a+2.b) B(a.b) 1 0 xa−1 (1 − 177. a) E(X) = 1 x 0 B(a. pero Γ(1) = 0 e−t dt= 1. y usando la propiedad Γ(n + 1) = n Γ(n) se obtiene E(X) = n/λ. . Ahora se usa la identidad B(a + 1. y x)b−1 dx = B(a. a+1 a a+1 a a2 a+b+1 a+b . Γ(n) Γ(n) (λx) −λx dx = Γ(n+1) 0 Γ(n+1) λ e−λx dx. xa−1 (1 − x)b−1 dx = B(a+1. y entonces Var(X) = a+b+1 a+b − (a+b)2 178. √ ∞ √ √ 2 2 ∞ ∞ Γ(1/2) = 0 t−1/2 e−t dt = 2 0 e−x /2 dx = 2 2π 1 −∞ √1 e−x /2 dx 2 2π √ = π.b) x)b−1 dx = = Por lo tanto E(X ) = ab (a+b+1)(a+b)2 .b) E(X) = a/(a + b).b) a = a+b B(a. 1) = 0 axa−1 dx = 1/a. a) Γ(n + 1) = 0 tn e−t dt. b) = 0 a(1 − x)b−1 dx = 1/b. 1 x2 b) E(X 2 ) = 0 B(a. b).b) 1. d) Haciendo el cambio de variable x2 /2 = t.b) B(a.

Considere la esperanza E(X) = −∞ x √2πσ2 e−(x−µ) /2σ dx. Compruebe que B(1. Por lo tanto es suficiente demostrar que E(Z) = 0. en donde Z ∼ N(0. a)= a+b B(a. b)= 0 xn xa−1 (1 − x)b−1 dx)/B(a. 1) = 1/a. 1/2)/B(1/2. r sen θ). b) Efect´ e el cambio de variable x = cos2 θ. Recuerde que B(1. en donde la ulti´ −∞ −∞ 2π . 1 185. 182. Sea I = −∞ √2πσ2 e−(x−µ) /2σ dx e = = ma integral se obtiene despu´s del cambio de variable a coordenadas polares e 2 ∞ (x. Haciendo el cambio de variable u = (x − µ)/σ se encuentra que E(X) = µ + σE(Z). Para la varianza use E(X 2 ) = B(2 + 1/2. El siguiente a e 2 2 ∞ 1 m´todo hace uso de coordenadas polares. 1) = 1. para 0 < x < 1. b + 1). u 179. Este ejercicio no es f´cil pero puede resolverse por varios m´todos. 2 g) Efect´ e el cambio de variable x = cos θ. a)= a+b B(b. 1). 1)= xa . b) = 1/b. Distribuci´n normal o 184. 1/2). b). 2 ∞ pero ello es f´cil pues el integrando de E(Z) = −∞ u √1 e−u /2 du es una a 2π ∞ 2 2 2 2 ∞ ∞ ∞ −x2 /2 √1 dx. Entonces I 2 = 0 e−r /2 r dr= 1. para x ∈ (0. b b f) Por el inciso anterior. Por lo tanto F (x)= ( para x ∈ (0. 1). 1/2)/B(1/2. Simplemente sustituya esos valores para los par´metros a y b en la distribua ci´n beta(a. b) = 0 xa (1 − x)b−1 dx.160 d) B(a + 1. b) = Γ(a)Γ(b)/Γ(a + b). b). B(a. b). b) = a 0 xa−1 (1 − x)b dx= b a b B(a. B(a + 1. u c) E(X) = B(1 + 1/2. x (1−u)b−1 du)/B(1. 1). 181. b + 1)= B(b + 1. b) = B(a + n. y)= (r cos θ. Por lo tanto F (x)= ( 1 − (1 − x)b . b)/B(a. Entonces I 2 = ( −∞ √1 e−x /2 dx) ( −∞ √1 e−y /2 dy) −∞ 2π e 2π 2π 2 ∞ ∞ 1 −(x2 +y 2 )/2 2π ∞ 1 e dx dy = 0 0 2π e−r /2 r dr dθ. a) f (x) = 1/(π x(1 − x). Compruebe que B(a. b). o 180. e) Puede usarse la identidad B(a. b) = a a Γ(a + 1)Γ(b)/Γ(a + b + 1) = a+b Γ(a)Γ(b)/Γ(a + b)= a+b B(a. E(X n )= ( 1 0 x 0 1 ua−1 du)/B(a. 1/2) = (1/2)/(1/2 + 1/2) = 1/2. 183. Use integraci´n por partes con u = xa o 1 y dv = (1 − x)b−1 dx para llegar a B(a + 1.

Suponga a > 0. fZ (u)= σ fX (µ + uσ)σ. Entonces FY (y)= P (Y ≤ y)= P (−X ≤ y) = P (X ≥ −y)= 1 − P (X < −y)= 1 − FX (−y).375 . fY (y)= fX ((y − b)/a)/a. Derivando respecto a u. Resta encontrar E(Z 2 ) = −∞ y 2 √1 e−y /2 dy.8413 . a) P (X ≥ 10)= 1/2.6826 . √ √ √ 192.0013 . e) P (−10 < X ≤ 10)= P (−1 < Z ≤ 1)= 0.´ Apendice B. Derivando. e) P (−20 < X ≤ 10)= P (−6 < Z ≤ 0)= 1/2. a) x = 1. d) P (X ≥ 20)= P (Z ≥ 2)= 0. Por lo tanto E(X 2 ) = µ2 + σ 2 . a) P (X ≤ 10)= P (Z ≤ 1)= 0.115 . Para la varianza con2 2 ∞ 1 sidere el segundo momento E(X 2 ) = −∞ x2 √2πσ2 e−(x−µ) /2σ dx. b) P (X < 0)= P (Z < −2)= 0. FX 2 (x)= P (X 2 ≤ x)= P (− x ≤ X ≤ x) = FX√ x) − ( √ √ √ 1 1 1 FX (− x). Entonces FX (x)= P (X ≤ x) = P (µ + σZ ≤ x)= P (Z ≤ (x−µ)/σ)= FZ ((x−µ)/σ). fX2 (x)= fX ( x) 2√x +fX (− x) 2√x = fX ( x) √x . Soluciones 161 derivada excepto por el signo. Substituya ahora la funci´n de densidad de X evaluada en −y y compruebe que se trata de la o densidad normal con media −µ y varianza σ 2 . Entonces FZ (u)= P (Z ≤ u)= P ( X−µ ≤ u)= P (X ≤ µ+uσ)= FX (µ+uσ). 190. Esta 2π integral puede realizarse por partes con u = y y dv = y √1 e−y /2 dy. Por lo tanto E(X) = µ. Efect´ e u 2 nuevamente el cambio de variable y = (x − µ)/σ y encuentre que E(X )= 2 ∞ µ2 +2µE(Z)+σ 2 E(Z 2 ).4772 . fX (x)= fZ ((x−µ)/σ)/σ. Substituya la expresi´n de fZ (x) y encuentre la densidad N(µ. y entonces Var(X)= (µ2 + σ 2 )−µ2 = σ2 . σ 2 ). Substituya la expresi´n para fX (x) y encuentre la densidad o normal est´ndar. a e 191. Suponga Z ∼ N(0. 189. El procedimiento es reversible. tenga cuidado al dividir por tal cantidad. σ 2 ). 188. b) x = −1. σ 2 ) y encuentre la funci´n o o o de densidad normal ahora con media aµ + b y varianza a2 σ 2 . Sea Y = −X. fY (y)= fX (−y).0228 . Los nuevos par´metros son id´nticos al caso anterior. c) P (0 < X ≤ 10)= P (−2 < Z ≤ 0)= 0. o 187.0228 . Entonces FY (y)= P (Y ≤ y) = P (aX + b ≤ y)= P (X ≤ (y − b)/a)= FX ((y − b)/a). 1). Haga un an´lisis a semejante para el caso a < 0. Suponga X ∼ N(µ. b) P (X > 0)= 1/2. Para x > 0. Derivando respecto a x. Derivando. d) P (X ≥ 30)= P (Z ≥ 3)= 0. . Derivando. Sea Z = (X − µ)/σ. 2 186. Sea a X = µ + σZ. Substituya ahora en esta expresi´n la funci´n de densidad N(µ. c) P (0 < X ≤ 40)= P (0 < Z ≤ 4)= 1/2. El resul2π tado es 1.

o 194. b) P (290 < X < 305)= P (−1 < Z < 1/2)= 0.0228 . Despu´s o e simplifique.0013 . Suponga X ∼ N(320. Efect´ e el cambio de variable t = x/2 dentro de o u la integral. 100).1587 . Reconstruya la integral como la funci´n gama o evaluada en (n/2) + 1. o menos. el exponente de t es (n/2) + 1. d) P (X < 270)= P (Z < −3)= 0. simplemente substituya el valor n = 2 en la densidad χ2 (n). Ahora reconstruya la integral resultante como la funci´n gama evaluada en (n/2) + 2. la varianza es el . Para la esperanza. Entonces a) P (X > 310)= P (Z > 1)= 0. 197. El c´lculo del m-´simo momento sigue las mismas l´ a e ıneas. el exponente de t es n/2. Ahora substituya la funci´n de densidad de X. Dado este resultado. Derivando. Distribuci´n t o 198. 1. La funci´n es no negativa. Recuerde que Γ(1) = 1. Despu´s simplifique usando la propiedad Γ(n + 1) = e n Γ(n). Para y > 0. Distribuci´n ji cuadrada o 195. fY (y)= fX (y)+fX (−y)= 2fX (y).162 Ahora substituya la expresi´n para fX (x) y encuentre la funci´n de densidad o o de la distribuci´n χ2 (1).3 reclamar´n por vasos servidos a con 270 ml. La funci´n es no negativa. n/2). FY (y)= P (Y ≤ y)= P (|X| ≤ y)= P (−y ≤ X ≤ y)= FX (y) − FX (−y). que puede ser escrito como (n/2) + 2 − 1. En estos c´lculos es conveniente hacer el cambio de variable t = x/2 en cada a una de las integrales. Sea X el llenado de un vaso cualquiera. por lo tanto la integral es cero. De mil clientes. La integral E(X) es absolutamente convergente y el integrando es una funci´n o impar.5328 . La integral resultante es la funci´n gama evaluada en n/2. Para comprobar que esta funci´n integra uno o o efect´ e el cambio de variable 1 − u = (1 + x2 /n)−1 y reconstruya la integral u de B(1/2. 199. o 193. que puede ser escrito como (n/2) + 1 − 1. o 196. calcule primero el segundo momento. c) P (X > 320)= P (Z > 2)= 0. Para la varianza.

— 206. 209. iguale a cero y encuentre que o ¯ c = x. Id´ntico al ejercicio anterior. n i=1 (xi − x) = ¯ n i=1 xi − n¯ = x n i=1 xi − = n i=1 xi = 0. Vectores aleatorios 200. — 213. — 201. — 202. — Variables y tipos de datos 204. ¯ 212. — 207. x2 − 2¯ x i n i=1 n ¯ 2 i=1 (xi − x) = n 2 x2 i=1 xi − 2n¯ + n 2 ¯ ¯2 i=1 (xi − 2xi x + x ) n 2 2 n¯ = i=1 xi − n¯2 . — Estad´ ıstica descriptiva 205. x x n i=1 xi + n¯2 = x 210. — 208. — 203. Efect´ e el cambio de variable 1 − u = (1 + x2 /n)−1 en u la integral E(X 2 ).´ Apendice B. Soluciones 163 segundo momento. e 211. Compruebe que la segunda derivada es negativa. y reconstruya la integral de B(3/2. (n − 2)/2). despu´s e simplifique. Derive la funci´n x(c) respecto de la variable c. — .

. λ = X. — 218. i=1 M´todo de momentos e 220. E(ˆ 2 ) = σ 1 2(n − 1) n−1 i=1 n−1 i=1 1 n n i=1 E(Xi − µ)2 = 1 n n Var(Xi ) = i=1 1 n n σ2 = σ2 . — M´todo de m´xima verosimilitud e a 223. — 222. i=1 E(Xi+1 −Xi )2 = 1 2(n − 1) n−1 2 (E(Xi+1 )−2E(Xi+1 )E(Xi )+ i=1 1 E(Xi2 )) = 2(n − 1) 219. — Estimaci´n puntual o ˆ ˆ ˆ ˆ ˆ 215. E(ˆ 2 ) = σ 217. — ˆ ¯ 224.164 Muestras aleatorias y estad´ ısticas 214. — (σ 2 + µ2 − 2µ2 + σ 2 + µ2 ) = 1 2(n − 1) n−1 2σ 2 = σ 2 . E(θ) = E(αθ1 + (1 − α)θ2 ) = αE(θ1 ) + (1 − α)E(θ2 ) = αθ + (1 − α)θ = θ. — 221. 216.

— 226. Cuando n → ∞. 228. el cociente µ0 −µ1 se va a infinito o menos infinito depenσ/ n diendo del signo de la diferencia µ0 − µ1 . . Se acepta H0 .´ Apendice B. Se rechaza H0 . Soluciones Estimaci´n por intervalos o 225. √ 229. — 165 Pruebas de hip´tesis o 227.

166 .

enteros 0. El alfabeto griego Aα Bβ Γγ ∆δ E ǫ. ±3. ϕ X χ Ψψ Ωω rho sigma tau upsilon phi chi psi omega 167 . . ε Zζ H η Θ θ. . reales. ϑ alpha beta gamma delta epsilon zeta eta theta Iι Kκ Λλ M µ Nν Ξξ Oo Ππ iota kappa lambda mu nu xi omikron pi P ρ. 3. 2. . ±1. b ∈ Z con b = 0. . . ς T τ Υυ Φ φ. ±2. racionales a/b en donde a. ̺ Σ σ.Ap´ndice C e Formulario Notaci´n o N Z Q R Conjunto Conjunto Conjunto Conjunto de de de de n´ meros u n´ meros u n´ meros u n´ meros u naturales 1. .

8810 0.8238 0.8413 0.9936 0.5948 0.8365 0.5753 0.9997 0.9994 0.7939 0.9979 0.5832 0.9943 0.9515 0.9993 0.9207 0.7224 0.6103 0.9649 0.7734 0.5478 0.9989 0.9979 0.8665 0.8289 0.9868 0.8830 0.9808 0.9963 0.9992 0.9525 0.8888 0.5793 0.9994 0.9918 0.9978 0.9995 0.9292 0.9838 0.8106 0.9418 0.9821 0.9941 0.1 1.7764 0.9875 0.9505 0.9772 0.9996 0.8599 0.9982 0.9778 0.5239 0.9982 0.9986 0.0 2.9970 0.5359 0.9441 0.8980 0.1 3.9032 0.9987 0.8 2.7190 0.9744 0.5080 0.9990 0.8508 0.6950 0.8944 0.9981 0.9162 0.9946 0.9932 0.9993 0.5040 0.9484 0.8023 0.8340 0.08 0.9719 0.9997 0.9995 0.9995 0.9922 0.9916 0.8264 0.9901 0.8925 0.9474 0.9265 0.6664 0.9881 0.9920 0.2 2.8212 0.9864 0.5279 0.9370 0.9965 0.9896 0.5636 0.9706 0.7549 0.9984 0.9981 0.9987 0.9693 0.9938 0.6808 0.9554 0.07 0.9826 0.9545 0.5517 0.6255 0.9699 0.9977 0.7673 0.3 1.9995 0.8790 0.9976 0.7422 0.9394 0.6 1.9834 0.8686 0.9625 0.9573 0.7 0.9997 0.9306 0.1 2.9996 0.9964 0.9131 0.8315 0.9968 0.8554 0.9082 0.9959 0.9996 0.9904 0.9641 0.6141 0.9906 0.9955 0.9049 0.9767 0.8078 0.9726 0.9974 0.9756 0.9830 0.9535 0.9997 0.9956 0.7454 0.3 3.9279 0.6443 0.6480 0.7 2.9975 0.3 2.9989 0.5714 0.6628 0.9861 0.9997 0.6772 0.9990 0.9995 0.5 1.9997 0.9616 0.8997 0.9977 0.9582 0.9788 0.9147 0.7 1.9972 0.5 0.168 Tabla de la distribuci´n normal est´ndar o a x 1 Φ(x) = √ 2π x −∞ e−t 2 /2 dt x 0.8869 0.8133 0.9993 0.8 0.9 1.8461 0.9678 0.7823 0.4 1.6217 0.9925 0.2 3.9599 0.4 0.9962 0.8643 0.9998 .9664 0.6985 0.9949 0.6554 0.7019 0.7088 0.8849 0.7123 0.8770 0.7910 0.9177 0.9991 0.9971 0.9854 0.5871 0.9345 0.7157 0.6406 0.9803 0.9591 0.9686 0.9994 0.9890 0.09 0.9953 0.6331 0.7704 0.9846 0.9997 0.9934 0.9927 0.0 1.7580 0.7291 0.9997 0.9357 0.7852 0.7611 0.5398 0.9996 0.7486 0.8485 0.9898 0.6026 0.9992 0.9 2.9222 0.5987 0.5596 0.8729 0.04 0.9913 0.02 0.8531 0.9940 0.8438 0.5199 0.8051 0.8621 0.6368 0.9945 0.9996 0.7967 0.7881 0.9984 0.0 3.6844 0.9987 0.9993 0.2 1.9564 0.9974 0.8749 0.9429 0.6700 0.9382 0.9236 0.03 0.9656 0.8 1.9251 0.4 0.06 0.9015 0.6591 0.8159 0.9871 0.6517 0.6064 0.2 0.05 0.9893 0.9842 0.9732 0.9671 0.9992 0.9887 0.9738 0.5160 0.6 2.9463 0.9495 0.5557 0.9406 0.9115 0.9996 0.6293 0.9857 0.9966 0.8907 0.9991 0.5910 0.8399 0.9066 0.9961 0.8708 0.9969 0.5120 0.9761 0.9990 0.9798 0.0 0.9633 0.9985 0.9929 0.4 2.7389 0.9994 0.9948 0.9960 0.9750 0.9452 0.9817 0.9909 0.9995 0.6879 0.7357 0.9850 0.9931 0.9997 0.9994 0.9884 0.3 0.7517 0.9812 0.7995 0.9713 0.9988 0.5000 0.9793 0.8186 0.9983 0.9991 0.01 0.00 0.9973 0.9997 0.1 0.8577 0.9783 0.9099 0.7054 0.9952 0.7257 0.9980 0.5 2.7794 0.9878 0.9985 0.9986 0.6915 0.8962 0.6736 0.7642 0.9967 0.5319 0.5438 0.9608 0.5675 0.6179 0.9988 0.9957 0.9332 0.9989 0.9319 0.9951 0.9192 0.9 3.6 0.9911 0.9992 0.7324 0.

761 1.045 1.771 1.473 2.064 2.500 2.898 2.571 2.182 2.708 1.533 1.´ Apendice C.120 2.998 2.353 2.734 1.602 2.n ) = α n 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 ∞ α =0.499 3.397 1.313 1.356 1.821 6.965 4.756 2.462 2.718 2.326 α =0.831 2.306 2.896 2.699 1.143 2.721 1.681 2.729 1.764 2.060 2.771 2.706 1.740 1.960 α =0.321 1.314 1.479 2.706 4.776 2.650 2.576 α =0.303 3.319 1.947 2.782 1.819 2.707 3.316 1.920 2.977 2.012 2.753 1.645 α =0.492 2.01 31.328 1.833 1.052 2.131 2.337 1.145 2.345 1.291 2.250 3.878 2. Formulario 169 Tabla de la distribuci´n t(n) o α tα.638 1.311 1.797 2.528 2.711 1.025 12.056 2.355 3.925 5.845 2.318 1.703 1.179 2.476 1.074 2.05 6.086 2.717 1.624 2.169 3.796 1.093 2.701 1.474 3.447 2.032 3.861 2.110 2.363 1.106 3.657 9.048 2.943 1.341 1.886 1.714 1.541 3.315 1.415 1.005 63.1 3.080 2.365 2.508 2.101 2.n P (T ≥ tα.604 4.228 2.467 2.812 1.365 3.282 .262 2.821 2.201 2.372 1.895 1.383 1.518 2.323 1.841 4.330 1.567 2.132 2.078 1.746 1.350 1.552 2.325 1.015 1.539 2.860 1.763 2.485 2.787 2.160 2.314 2.440 1.725 1.055 3.583 2.333 1.779 2.069 2.807 2.

170 .

Houghton Mifflin. Sandell D. A. 1993. N. Introducci´n a la teor´a de probabilidades y sus aplicaciones. F. A. 1971. [7] Hoel P. 21. 171 . C. Serie Textos No. V.. 1979. y Hern´ndez-Lerma O. Elementos de c´lculo de probabilidades. Stone C. [11] Mood A. [8] Hoel P. M. 2003. C. Houghton Mifflin.. Tanis E. Limusa. [10] Kolmogorov A. 1971. Problems and snapshots from the world of probability. G... Nivel Elemental. 2001. Graybill F. Thomson. C. Introduction to statistical theory. 1950. John Wiley & Sons. a [6] Hern´ndez-Del-Valle A. Port S. Chelsea Publishing Company. Sociedad Matem´tica Mexiı a cana.. Stone C.Bibliograf´ ıa [1] Blake I. 1983. [9] Hogg R. o ı 1973. Boes D. Introduction to the theory of statistics. Springer-Verlag. G. Port S. Elementos de probabilidad y a a estad´stica. 1994. 1983. Probabilidad y estad´stica para ingenier´a y ciencias. Introduction to probability theory. Foundations of the theory of probability. J. [2] Blomm G. [3] Devore J. Holst L.. [5] Garza T.. McGraw Hill.. J. An introduction to applied probability. Probability and statistical inference. ı ı [4] Feller W.. UNAM.

2da Edici´n. A first course in probability. 2001. 1998. Probabilidad y estad´stica para ingenier´a y ciencias. 1994. [14] Ross S. Miller M.. M. ı ı Thomson. Freund’s mathematical statistics. . Macmillan Publishing Company. Wisniewski P. M. [16] Velasco G. o [15] Wisniewski P. Trillas. Academic Press. [13] Ross S. Introduction to probability and statistics for engineers and scientists. 2000. 1999.. Bali G.. Prentice Hall. John E. Ejercicios y problemas de la teor´a de las probabiı lidades.172 Bibliograf´ ıa [12] Miller I.

90 puntual. 53 beta. 15 Coeficiente multinomial. 54 binomial negativa. 89 Estimador de m´xima verosimilitud. 67 a Poisson. 67 normal est´ndar. 13 muestral. 93 puntual. 88 Diferencia sim´trica. 76 marginal. 84 Estandarizaci´n. 62 uniforme discreta. 79 Desviaci´n est´ndar. 65 geom´trica. 23 Conjunto —s ajenos. 60 e ji-cuadrada. 85 Espacio equiprobable. 92 173 . 55 e hipergeom´trica. 52 Ensayo Bernoulli. 11 potencia. 49 Estad´ ıstica. 90 a insesgado. 49 o a de un conjunto de datos. 77 exponencial. 59 conjunta. 64 gama. 11 Densidad conjunta. 7 Esperanza. 66 binomial. 84 descriptiva.´ Indice Axioma. 130 Bernoulli. 85 de raz´n. 57 t. 92 m´ximo veros´ a ımil. 68 o Estimaci´n o por intervalos. 25 Combinaciones. 53 Escala de intervalo. 84 inferencial. 88 Estad´ ıstica. 85 ordinal. 70 marginal. 86 o nominal. 89 sesgado. 80 normal. 75. 10 e Distribuci´n o arcoseno. 46 propiedades. 71 uniforme continua.

92 Intervalo de confianza. 15 Principio de multiplicaci´n. 7 —s ajenos. 46 de un conjunto de datos. 6 Funci´n o beta. 84 o Postulado. 90 a de momentos. 101 regi´n cr´ o ıtica. 52 centrales. 75 Grado de confianza. 101 o nivel de significancia. 94 grado de confianza. 78 conjunta. 76 marginal. 101 Ordenaciones con repetici´n. 15 a cl´sica.174 sesgo de un. 77 marginal. 29 Insesgamiento. 30 o Permutaciones. 87 Momento muestral. 29 de variables aleatorias. 91 ´ Indice Media. 43 o o bivariada. 77 de un vector. 13 subjetiva. 21 o sin repetici´n. 88 . 79 Funci´n de distribuci´n. 15 Producto Cartesiano. 23 Poblaci´n. 94 lim inferior. 39 o conjunta. 66 de verosimilitud. 10 M´todo e de m´xima verosimilitud. 87 Moda de un conjunto de datos. 20 o Probabilidad axiom´tica. 88 Mediana de un conjunto de datos. 22 o Partici´n. 41 o conjunta. 90 gama. 11 Experimento aleatorio. 91 Momentos. 12 Prueba de hip´tesis. 87 muestral. 54 Funci´n de densidad. 88 Nivel de significancia. 92 poblacional. 13 frecuentista. 52 Muestra. 28 de un evento. 80 Funci´n de probabilidad. 94 Leyes de De Morgan. 101 Rango de un conjunto de datos. 80 de varios eventos. 38 Independencia de dos eventos. 84 aleatoria. 94 lim superior. 65 indicadora. 94 Imagen inversa. 13 a condicional. 92 Evento.

49 de un conjunto de datos. 25 a Urna de Polya. 117 Valor esperado. 85 Varianza. 74 discreto. 47 Tri´ngulo de Pascal. 89 propiedades. 101 tama˜ o de la. 28 Sesgo. 30 del estad´ ıstico inconsciente. 85 cuantitativa. 70 de Bayes. 74 continuo. 46 Variable.´ Indice Regi´n cr´ o ıtica. 51 Vector aleatorio. 84 aleatoria. 46 promedio. 101 n Regla del producto. 35 cualitativa. 92 Teorema central del l´ ımite. 29. 74 175 . 33 de probabilidad total. 87 muestral.

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->