Curso elemental de PROBABILIDAD Y ESTAD´ ISTICA

Luis Rinc´n o Departamento de Matem´ticas a Facultad de Ciencias UNAM Circuito Exterior de CU 04510 M´xico DF e Versi´n: Diciembre 2007 o

Una versi´n actualizada del presente texto se encuentra disponible en formato o electr´nico en la direcci´n o o http://www.matematicas.unam.mx/lars

Pr´logo o
El presente texto constituye el material completo del curso semestral de Probabilidad y Estad´ ıstica, impartido por el autor a alumnos de la licenciatura en ciencias de la computaci´n en la Facultad de Ciencias de la UNAM. Contiene el teo mario b´sico para un curso elemental e introductorio a algunos temas tradicionales a de la probabilidad y la estad´ ıstica, as´ como una colecci´n de ejercicios. Algunos ı o de estos ejercicios aparecen a lo largo del texto como parte de la lectura, y una colecci´n m´s extensa aparece al final del libro incluyendo algunas soluciones o o a sugerencias para resolverlos. El texto est´ dirigido de manera general a alumnos de las distintas carreras de a ingenier´ ciencias de la computaci´n, y otras carreras cient´ ıa, o ıficas similares, cuyos programas de estudio contemplan un semestre introductorio a estos temas. Como es natural en este tipo de cursos, no se hace ´nfasis en el rigor matem´tico de la e a demostraci´n de los resultados, sino en el uso, interpretaci´n y aplicaci´n de ´stos. o o o e Como prerequisitos para una lectura provechosa de este material, se requiere, en determinados momentos, tener cierta familiaridad con algunos conceptos elementales de ´lgebra y del c´lculo diferencial e integral. El texto fue escrito en el sistema a a A L TEX, y la mayor´ de las ilustraciones fueron elaboradas usando el paquete psıa tricks. El autor agradece cualquier comentario, sugerencia o correcci´n enviada al correo o electr´nico que aparece abajo. o Luis Rinc´n o Diciembre 2007 Ciudad Universitaria UNAM lars@fciencias.unam.mx

Contenido

1. PROBABILIDAD 1.1. Introducci´n . . . . . . . . . . . . . . . . . o 1.2. Probabilidad . . . . . . . . . . . . . . . . 1.3. An´lisis combinatorio . . . . . . . . . . . a 1.4. Probabilidad condicional e independencia 1.5. Variables aleatorias . . . . . . . . . . . . . 1.6. Funciones de densidad y de distribuci´n . o 1.7. Esperanza, varianza, momentos . . . . . . 1.8. Distribuciones de probabilidad . . . . . . 1.9. Vectores Aleatorios . . . . . . . . . . . . . 2. ESTAD´ ISTICA 2.1. Introducci´n . . . . . . . . . . . . o 2.2. Variables y tipos de datos . . . . 2.3. Estad´ ıstica descriptiva . . . . . . 2.4. Muestras aleatorias y estad´ ısticas 2.5. Estimaci´n puntual . . . . . . . . o 2.6. Estimaci´n por intervalos . . . . o 2.7. Pruebas de hip´tesis . . . . . . . o A. Ejercicios B. Soluciones C. Formulario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

5 6 13 20 28 35 39 45 52 74 83 84 84 86 88 89 93 99 107 139 167

3

4 Contenido .

Esto sucede en o el a˜ o de 1654. popularmente conocido como el caballero De Mere. u ¿C´mo debe dividirse el total de la apuesta si el juego se suspende? o Uno de los apostadores. y apuestan 32 doblones de oro a que el n´ mero escogido por u uno de ellos aparece en tres ocasiones antes que el n´ mero del contrario u al lanzar sucesivamente un dado. Esta teor´ tuvo como uno de sus primeros ıa a ıa puntos de partida el intentar resolver un problema particular concerniente a una apuesta de juego de dados entre dos personas. deseando conocer la respuesta al problema plantea a Blaise Pascal (1623-1662) la situaci´n. Pascal a su vez consulta con Pierre de Fermat (1601o 1665) e inician un intercambio de cartas a prop´sito del problema.Parte 1 PROBABILIDAD En esta primera mitad del curso estudiaremos algunos conceptos elementales de la teor´ matem´tica de la probabilidad. Suponga que el n´ mero de uno de los u jugadores ha aparecido dos veces y el n´ mero del otro una sola vez. Antonio de Gombaud. El problema al que nos referimos involucraba una gran cantidad de dinero y puede plantearse de la siguiente forma: Dos jugadores escogen cada uno de ellos un n´ mero del 1 al 6. Con el paso del tiempo se sientan las bases y las experiencias necesarias para la b´ squeda de una teor´ matem´tica que sinteu ıa a tice los conceptos y los m´todos de soluci´n de los muchos problemas particulares e o resueltos a lo largo de varios a˜ os. n 5 . Con ello se inician algunos esfuerzos por dar soluci´n a ´ste y otros n o e problemas similares que se plantean. distinto u uno del otro.

Actualmente ıa ıa a la teor´ cl´sica de la probabilidad se ha desarrollado y extendido enormemente ıa a gracias a muchos pensadores que han contribu´ a su crecimiento. Esta teor´ o ıa ıa prevalece hoy en d´ y ha adquirido el calificativo de teor´ cl´sica. Introducci´n o La teor´ de la probabilidad es la parte de las matem´ticas que se encarga del ıa a estudio de los fen´menos o experimentos aleatorios. Kolmogorov (1903-1987) propone ciertos axiomas que a la postre resultaron adecuados para la construcci´n de una teor´ de la probabilidad. pero sobre todo y principalmente. Aproximadamente treinta a˜ os despu´s. 1601–1665) En el segundo congreso internacional de matem´ticas. hay situaciones en donde se utilizan para tomar decisiones de cierta importancia.1. El ejemplo m´s a sencillo y cotidiano de un experimento aleatorio es el de lanzar una moneda o un dado. Introduccion Blaise Pascal (Francia. en 1933. y es sin duda ıdo una parte importante y bien establecida de las matem´ticas. el resultado que se obtiene no siempre es el mismo. a para modelar situaciones reales o imaginarias. Ha resultado util paa ´ ra resolver problemas puramente matem´ticos. celebrado en la ciudad de Paa ris en el a˜ o 1900. el matem´tico David Hilbert (1862-1943) plantea 23 problemas n a matem´ticos de importancia. en donde el azar es relevante.1. Por experimento aleatorio eno tenderemos todo aquel experimento que cuando se le repite bajo las mismas condiciones iniciales. Uno de estos problemas es el de encontrar axiomas a o postulados a partir de los cuales se pueda construir una teor´ matem´tica de ıa a la probabilidad. y aunque estos experimentos pueden parecer muy modestos. 1. N. el matem´tico n e a ruso A. En principio no .6 ´ 1. 1623–1662) Pierre de Fermat (Francia.

. asi que por lo menos cona a viene agrupar en un conjunto a todos los resultados posibles. ¿Cu´l es un posible espacio muestral para este experimento? Naturala mente al jugador le interesa conocer su suerte en este juego y puede proponer como espacio muestral el conjunto Ω = {“ganar”. 4. 2. Esta letra proviene del t´rmino sampling space de e la lengua inglesa equivalente a espacio muestral. Con la ayuda de algunos u ejemplos ilustraremos a continuaci´n los conceptos de espacio muestral y evento. que corresponde al suceso de obtener como resultado un n´ mero par. . 5. PROBABILIDAD 7 sabemos cu´l ser´ el resultado del experimento aleatorio. B. entonces puede adoptarse como espacio muestral para este experimento el intervalo [0. Suponga que hay un mill´n de n´ meros en esta loter´ y un jugador participa con o u ıa un boleto. . ∞). Como ejemplo de un evento para este experimento podemos definir el conjunto A = {2. y si se obtiene o por ejemplo el resultado “1”. entonces claramente el espacio muestral es u el conjunto Ω = {1.Parte 1. Ω = {1. o Ejemplo. 4. El espacio muestral (o tambi´n llamado espacio muestra de un experimento aleatorio es el conjunto de e todos los posibles resultados del experimento. Ejemplo. 6}. . Suponga que un experimento aleatorio consiste en observar el tiempo en el que una m´quina en operaci´n sufre su primera descompostura. es decir. El subconjunto A = [1. 1000000}. Si se consideran a o mediciones continuas del tiempo. decimos entonces que se observ´ la ocurrencia del evento A. 2] corresponde al evento en el que la primera descompostura se observe entre la primera y la segunda unidad de tiempo. 6}. etc. o Ejemplo. Considere el experimento aleatorio de participar en un juego de loter´ ıa. 3. y se le denota generalmente por la letra griega Ω (omega). 2. M´s adelante mostraremos que este conjunto no es necea sariamente unico y su determinaci´n depende del inter´s del observador o persona ´ o e que realiza el experimento aleatorio. llamaremos evento a cualquier subconjunto del espacio muestral y denotaremos a los eventos por las primeras letras del alfabeto en may´ sculas: A. decimos que no se observ´ la ocurrencia del evento A. C. Este ejemplo sencillo muestra que el espacio muestral de un experimento aleatorio no es unico y depende del inter´s ´ e del observador. . “perder”}. Por otro lado. Si un experimento aleatorio consiste en lanzar un dado y observar el n´ mero que aparece en la cara superior. Si al lanzar el dado una vez se obtiene el n´ mero u u “4”. En algunos textos se usa tambi´n la letra S e para denotar al espacio muestral. Sin embargo puede tambi´n e tomarse como espacio muestral el conjunto que contiene a todos los posibles n´ meu ros ganadores.

⊆). desde el punto de vista de uso o no uso. y algunas propiedades que nos ser´n de utilidad en el estudio de la a probabilidad y la estad´ ıstica. A − B se define como A∩B c . Introduccion Ejercicio. y los de contenci´n (⊂. es decir. ¿Puede usted comprobar tal afirmaci´n? ¿En qu´ caso ambos o e conjuntos coinciden? Por otro lado el complemento de un conjunto A se denota . el conjunto A−B es distinto de B −A.1 se muestran en o diagramas de Venn estas dos operaciones. recordaremos a continuaci´n algunas operaciones entre ıa o estos objetos. se lee “A y B”. Encuentre un espacio muestral para el experimento aleatorio de observar el marcador final de un juego de f´ tbol soccer. Sean A y B dos subconjuntos cualesquiera de Ω. o a o intersecci´n. denotamos la cardinalidad o n´ mero u de elementos de ese conjunto por el s´ ımbolo #A. {ω ∈ Ω : ω ∈ A y ω ∈ B}. y cualquier elemento de Ω lo denotaremos por ω (omega min´ scula). / Cuando los conjuntos se expresan en palabras. / {ω ∈ Ω : ω ∈ A}. La diferencia entre dos conjuntos A y B se denota por A− B. de hecho estos conjuntos son siempre ajenos. se lee o o “A o B” y la intersecci´n. El conjunto vac´ lo denotaremos u ıo por ∅. Si A es un conjunto. o A∩B A−B Ac {ω ∈ Ω : ω ∈ A y ω ∈ B}. ¿Es un espacio muestral finito o u infinito? Ejercicio. Encuentre un espacio muestral para el experimento de observar la configuraci´n de m´quinas.8 ´ 1. en un momento o a cualquiera del d´ ıa. Operaciones con conjuntos. En general. o no pertenencia (∈) de / un elemento en un conjunto. diferencia y complemento: o A∪B = = = = {ω ∈ Ω : ω ∈ A ´ ω ∈ B}. Otros s´ ımbolos usuales son los de pertenencia (∈). Recordamos a continuaci´n las operaciones b´sicas de uni´n. Suponga que se tiene en operaci´n una sala de c´mputo con 100 compuo o tadoras. A ∩ B. En la Figura 1. la operaci´n uni´n. Puesto que los conceptos de espacio muestral y evento involucran forzosamente la terminolog´ de conjuntos. A ∪ B.1. o no contenci´n (⊂) de o o un conjunto en otro. y corresponde a aquel conjunto de elementos de A que no pertenecen a B. Supondremos que el espacio muestral Ω de un experimento aleatorio es una especie de conjunto universal.

. Ejercicio. A∩B c . entonces B c ⊆ Ac . Ac ∩B ´ Ac ∩B c . A B A Ω A−B A c Ω Figura 1.Parte 1. Encuentre y represente en el eje real los conjuntos: A ∪ B. Mediante un diagrama de Venn ilustramos gr´ficamente las operaciones de a diferencia y complemento en la Figura 1.1: por Ac y se define como la colecci´n de aquellos elementos de Ω que no pertenecen o a A. y B la colecci´n de aquellas personas que estan casadas. Sea A el conjunto de aquellas personas que tienen hijos. mientras que el conjunto A ∩ B c est´ constituido por aquellas personas que tienen hijos pero no estan caa sadas. PROBABILIDAD 9 B A B A Ω A∪B A∩B Ω Figura 1.2. ¿A cu´l pertenece usted? o a Ejercicio.2: Ejemplo. ¿Qui´n es Ac ∩ B? Observe que cada persona es un elemento de alguno de e los siguientes conjuntos: A∩B. Considere los subconjuntos de n´ meros reales A = {x ∈ R : x2 ≤ 1} y u B = {x ∈ R : x > 0}. Entonces el conjunto A ∩ B consta o de aquellas personas que estan casadas y tienen hijos. Demuestre que si A ⊆ B.

A ∩ Ω = A. es decir. Visualmente es f´cil comprobar que la difee a rencia sim´trica tambi´n puede escribirse como (A − B) ∪ (B − A). En la Figura 1.10 A ∩ B. ¿C´mo podr´ e e o ıa expresarse en palabras al conjunto A△B? A B Ω A△B Figura 1. e A ∪ (B ∩ C) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C). A ∪ Ac = Ω. Las operaciones uni´n e intersecci´n son asociativas. esto o o es. satisfacen las siguientes igualdades: A ∪ (B ∪ C) A ∩ (B ∩ C) y tambi´n son distributivas. = Ac ∪ B c . A ∩ ∅ = ∅. Recordemos tambi´n la operaci´n diferencia sim´trica entre dos conjuntos A y B. ¿Puede usted escribir estas identidades para n conjuntos? . ´ 1. y definida como sigue: A△B = (A ∪ B) − (B ∩ A). A ∩ Ac = ∅. La validez de estas dos igualdades puede extenderse a colecciones finitas e incluso arbitrarias de conjuntos. = (A ∪ B) ∪ C. = (A ∪ B) ∩ (A ∪ C). Introduccion Es f´cil verificar que el conjunto vac´ y el conjunto total satisfacen las siguientes a ıo propiedades elementales: A ∪ ∅ = A. e o e denotada por A△B. A ∪ Ω = Ω. A − B y B − A.1. = (A ∩ B) ∩ C.3 ilustramos gr´ficamente el conjunto resultante de efectuar la diferencia a sim´trica entre los conjuntos A y B.3: Recordemos adem´s las muy utiles leyes de De Morgan: a ´ (A ∪ B)c (A ∩ B) c = Ac ∩ B c .

4} son ajenos pues A ∩ B ∩ C = ∅. c}. . . n. 2} y B = {3. entonces el conjunto 2Ω consta de 8 elementos. si Ω = {a. Decimos que n conjuntos A1 . ıa o Ejercicio. Ac ∩ B. 6}. denotado por 2Ω . {a. 4. {b}. con i distinto de j. A ∩ B c y Ac ∩ B c son ajenos dos a dos. . {b. 4} son ajenos pues no hay ning´ n elemento com´ n entre ellos. el conjunto A ∩ B no es vac´ Es decir. Por ejemplo. para cualquier conjunto A. c}}. Ejercicio. estos ıo. Sean A y B dos conjuntos cualesquiera. y se dice que son ajenos dos a dos (o mutuamente ajenos) si Ai ∩ Aj = ∅ para cualesquiera valores de los ´ ındices i. b}. a saber. Compruebe que la colecci´n de o conjuntos: A ∩ B. Dibujar un diagrama de Venn podr´ ayudar a entender la situaci´n. Observe que los elementos del conjunto potencia son en si mismos conjuntos. 3]. Las siguientes operaciones entre conjuntos no son elementales y producen nuevos conjuntos que se encuentran en un nivel distinto al de los conjuntos originales. entonces a son ajenos dos a dos. entonces los conjuntos A = {1. y B es el intervalo [0. 2. . . An son ajenos si A1 ∩ · · · ∩ An = ∅. Suponga que A es el conjunto de ra´ ıces de la ecuaci´n cuadr´tica x2 − o a x − 2 = 0. {c}. ¿Son los conjuntos A y B ajenos? Este concepto puede extenderse al caso cuando se tienen varios conjuntos. c}. los conjuntos A y B son ajenos cuando no existe un elemento que pertenezca tanto a A como a B. 2. c}. El conjunto potencia de Ω. y que . conjuntos son ajenos en el sentido de que la intersecci´n de todos ellos es vac´ o ıa pero no son ajenos dos a dos. Ejercicio. . j = 1. {a}. . El ejemplo general m´s importante de u u a conjuntos o eventos ajenos es la pareja dada por A y Ac . Por ejemplo. es decir. es aquel conjunto cuyos elementos son todos los subconjuntos posibles de Ω. {a. 3. 5. Conjunto potencia. PROBABILIDAD 11 Conjuntos ajenos. 2}. 3} y C = {3. Existe diferencia en estas dos definiciones y explicaremos la situaci´n con el siguiente ejemplo: Los conjuntos o A = {1. si Ω = {1. Decimos que dos conjuntos A y B son ajenos (o disjuntos) si se cumple la igualdad A ∩ B = ∅. {a. b. pero no son ajenos dos a dos pues. por ejemplo. . 2Ω = {∅. Compruebe matem´ticamente que si n conjuntos son ajenos.Parte 1. B = {2. b.

b3 }. denotado por A × B. y). No es dif´ demostrar que #(2Ω ) = 2#Ω . Sea Ω = {a}.. a). b3 )}. Ejercicio. Por ejemplo. A × B = {(a. se define como la colecci´n de todas las o parejas ordenadas (a. b) : a ∈ A y b ∈ B}. Para el ejemplo anterior se comprueba que la cardinalidad de 2Ω es efectivamente 2#Ω = 23 = 8. ambos tienen el mismo n´ mero de elementos. y la cardinalidad de B es m. esto es. (a2 . (a1 . . (a2 . De este hecho proviene la notaci´n usada para el conjunto o potencia: 2Ω . Ejemplo. a Ejercicio. sin embargo ambos conjuntos tienen la misma cardinalidad. (a1 . . si A = {a1 . b3 ). b2 . entonces A × B = {(a1 . es decir.1. b2 ). Observe que la expresi´n 2Ω no tiene sentido matem´tico. u An´logamente se construyen los conjuntos R3 . a2 } y B = {b1 . . Este resultado es llamado principio de multiplicaci´n que o usaremos m´s adelante. puede considerarse el producto a a Cartesiano de n conjuntos y comprobarse que #(A1 × · · · × An ) = #A1 · · · #An . el n´ mero ıcil u de elementos en el conjunto 2Ω es exactamente 2 elevado a la potencia dada por la cardinalidad de Ω. A este conjunto producto se le denota usualmente por R2 . R4 . 1}. es decir. ¿Cu´ntos elementos tiene A × · · · × A? a n Concluimos aqu´ nuestra r´pida y breve revisi´n de conjuntos. .12 ´ 1. b1 ). Un poco m´s generalmente. b) es distinta de (b. b). En general los conjuntos producto A × B y B × A son distintos pues la pareja (a. En s´ ımbolos. M´s a´ n. Finalmente recordemos que el producto Cartesiano de dos conjuntos A y B. b1 ). Rn . Recordemos que ı a o estamos interesados en calcular probabilidades de los diferentes eventos. Sea A = {0. si la cardinalidad de u a u A es el n´ mero n. El producto Cartesiano R × R es el conjunto de todas las parejas de n´ meros reales (x. Introduccion en esta colecci´n estan contenidos todos los eventos que podr´ ser de inter´s en un o ıan e experimento aleatorio. b2 ). ¿Qui´n es 2Ω ? e Producto Cartesiano. y debe o a considerarse como un s´ ımbolo para denotar al conjunto potencia. . . y b es cualquier elemento de B. en donde a es cualquier elemento de A. de subconjuntos del espacio muestral que se obtienen al estudiar los diversos expe- . (a2 . entonces la cardinalidad del conjunto u A×B es el producto n·m.

es decir. Suponga que se realizan n repeticiones de un cierto experimento aleatorio y sea A un evento cualquiera. 5. 4. 1] que denou taremos por P (A). el espacio Ω debe ser equiprobable. sin importar exactamente qu´ elementos particulares sean. 2. 6} 6 2 Probabilidad frecuentista. Sea A un subconjunto de un espacio muestral Ω de cardinalidad finita. 3. y representa una medida de la frecuencia con la que se observa la ocurrencia del evento A cuando se efect´ a el experimento aleatorio en cuesu ti´n.Parte 1. n . Adem´s. Probabilidad La probabilidad de un evento A. en las n realizaciones del experimento.2. En la siguiente secci´n estudiaremos algunas formas de definir o matem´ticamente la probabilidad de un evento. 6}. Se define la probabilidad cl´sica del evento A como el cociente: a P (A) = #A . Denotemos por n(A) el n´ mero de ocurrencias del evento A. 6} 3 1 P (A) = = = . o ´ Probabilidad clasica. Se u define entonces la probabilidad frecuentista de A como indica el siguiente l´ ımite P (A) = l´ ım n→∞ n(A) . o o a pues forzosamente necesitamos suponer que el n´ mero de elementos en Ω es finiu to. Claramente esta definici´n es s´lo v´lida para espacios muestrales finitos. #{1. 4. 6}. la probabilidad de A = {2. 2. Este es el caso por ejemplo de un dado equilibrado. y si deseamos calcular la probabilidad (cl´sica) del evento A a correspondiente a obtener un n´ mero par. pues para calcular la probabilidad a de un evento A. Existen al menos cuatro definiciones de probabilidad las cuales explicamos a o continuaci´n. Para este experimento el espacio muestral es el conjunto Ω = {1. a 1. 3. esta definici´n de probabilidad presupone que todos los elementos de o Ω son igualmente probables o tienen el mismo peso. 4. PROBABILIDAD 13 rimentos aleatorios. 5. unicamente necesitamos contar cu´ntos elementos tiene A res´ a pecto del total Ω. 4. Por e lo tanto. #Ω en donde el s´ ımbolo #A denota la cardinalidad o n´ mero de elementos del conu junto A. u entonces #{2. es un n´ mero real en el intervalo [0.

Probabilidad En este caso. Realizando un mayor u n´ mero de observaciones del experimento. 11 12 13 14 15 16 17 18 19 20 Resultado 2 5 1 6 3 1 5 5 2 6 n(A)/n 7/11 7/12 7/13 8/14 8/15 8/16 8/17 8/18 9/19 10/20 En la gr´fica de la Figura 1. al principio se pueden presentar algunas oscilaciones pero eventualmente el cociente se estabiliza en un cierto n´ mero. ı e e n(A)/n 1/2 n 2 4 6 8 10 12 14 16 18 20 Figura 1. 6}.14 1. Despu´s de lanzar el dado 20 veces se e obtuvieron los siguientes resultados: No. de modo que en la pr´ctica no es posible a encontrar mediante este mecanismo la probabilidad de un evento cualquiera.4: . 4.4 se muestra el singular comportamiento de este cociente a a lo largo del tiempo. debemos hacer notar que no es humanamente posible llevar a cabo una infinidad de veces el experimento aleatorio. Esta limitaci´n hace que esta definici´n de probabilidad no sea enteramente formal. pero o o tiene algunas ventajas. no es dif´ creer que el cociente n(A)/n u ıcil se estabiliza en 1/2 cuando n es grande y el dado es equilibrado. Veamos un ejemplo concreto.2. 1 2 3 4 5 6 7 8 9 10 Resultado 3 6 2 1 4 6 3 4 2 5 n(A)/n 0/1 1/2 2/3 2/4 3/5 4/6 4/7 5/8 6/9 6/10 No. Se invita al lector intrigado a efectuar un experimento similar y corroborar esta interesante regularidad estad´stica con ´ste o cualquier otro experimento aleatorio de su inter´s. Consideremos nuevamente el experimento aleatorio de lanzar un dado equilibrado y registrar la ocurrencia del evento A definido como el conjunto {2.

sin embargo en muchas situaciones es necesario recurrir a un experto para tener por lo menos una idea vaga de c´mo se comporta el fen´meno de nuestro o o inter´s y saber si la probabilidad de un evento es alta o baja. ¿Cu´l e a es la probabilidad de que un cierto equipo de f´ tbol gane en su pr´ximo partido? u o Ciertas circunstancias internas del equipo. Axiomas de la probabilidad 1. A. P (A ∪ B) = P (A) + P (B). 1903–1987) No es dif´ verificar que las definiciones anteriores de probabilidad satisfacen estos ıcil tres axiomas. Kolmogorov. estos postulados han sido tomados directamente del an´lisis a 1 Un postulado o axioma es una proposici´n que se acepta como v´lida y sobre la cual se funda o a una teor´ ıa. sin embargo. De hecho. es decir. 3.Parte 1. 2. N. seg´ n lo que el observador conoce del fen´meno en estudio. son elementos que s´lo algunas personas conocen y o o que podr´ darnos una idea m´s exacta de esta probabilidad. Kolmogorov (Rusia. . Esta forma subjetiva ıan a de asignar probabilidades a los distintos eventos debe. ser consistente con una serie de reglas naturales que estudiaremos a continuaci´n. a N. u o Puede parecer un tanto informal y poco seria esta definici´n de la probabilidad de o un evento. P (Ω) = 1. cuando A ∩ B = ∅. En la definici´n axiom´tica de la probabilidad no o a se establece la forma expl´ ıcita de calcular las probabilidades sino unicamente se ´ proponen las reglas que el c´lculo de probabilidades debe satisfacer. las condiciones del equipo rival o cualquier otra condici´n externa. En este caso la probabilidad de un evento depende del observador. Los siguientes a tres postulados o axiomas1 fueron establecidos en 1933 por el matem´tico ruso A. P (A) ≥ 0. PROBABILIDAD 15 Probabilidad subjetiva. Por ejemplo. o ´ Probabilidad axiomatica.

por el tercer axioma. o Demostraci´n. tenemos que P (∅) = o P (Ωc ) = 1 − P (Ω) = 0. Si A ⊆ B.2. o Demostraci´n. Proposici´n. usando la propiedad anterior. P (Ω) = P (A)+P (Ac ). P (B) = P (A) + P (B − A). A B Ω Figura 1.5. como P (Ω) = 1. Como o ıa A y Ac son eventos ajenos.16 1. P (Ac ) = 1 − P (A). . Como ∅ = Ωc . Finalmente. entonces P (A) ≤ P (B). por el segundo axioma obtenemos P (Ac ) = 1 − P (A). observe que el tercer axioma es v´lido no s´lo para dos eventos a o ajenos sino para cualquier colecci´n finita de eventos ajenos dos a dos. A cualquier o funci´n P que satisfaga los tres axiomas de Kolmogorov se le llama medida de o probabilidad. Probabilidad cuidadoso y reflexivo de las definiciones de probabilidad mencionadas anteriormente.5: A ⊆ B. Proposici´n. A partir de estos postulados es posible demostrar que la probabilidad cumple con una serie de propiedades interesantes. Para cualquier evento A. P (∅) = 0. Las siguientes dos proposiciones suponen la situaci´n A ⊆ B que se muestra gr´fio a camente en la Figura 1. o Demostraci´n. De la teor´ elemental de conjuntos tenemos que Ω = A ∪ Ac . por el tercer axioma. Proposici´n. En particular. Primeramente escribimos B = A ∪ (B − A). Como A y B − A o son eventos ajenos. o simplemente probabilidad. Usando el primer axioma concluimos que P (B) − P (A) = P (B − A) ≥ 0. De aqui obtenemos P (B) − P (A) ≥ 0.

Ahora aplicamos la probabilidad. entonces P (B − A) = P (B) − P (A). siendo esta uni´n ajena.9 y P (B c ) = 0. Para cualesquiera eventos A y B. PROBABILIDAD Proposici´n. Proposici´n. Primeramente observamos que para cualesquiera eventos A y B se o cumple la igualdad A − B = A − (A ∩ B). por el tercer o o axioma tenemos que P (B) = P (A) + P (B − A). Como A ⊆ Ω. Como B = A ∪ (B − A). o 0 ≤ P (A). La otra desigualdad. Proposici´n. Por el tercer axioma. Entonces escribimos a A ∪ B como la uni´n disjunta de los siguientes tres eventos: o A∪B = = (A − B) ∪ (A ∩ B) ∪ (B − A) (A − A ∩ B) ∪ (A ∩ B) ∪ (B − A ∩ B). o P (A ∪ B) = P (A) + P (B) − P (A ∩ B).3.Parte 1. An´logamente a P (B − A ∩ B) = P (B) − P (A ∩ B). es simplemente el primer axioma. 0 ≤ P (A) ≤ 1. Por lo tanto P (A ∪ B) = P (A) + P (B) − P (A ∩ B). Para cualquier evento A. P (A ∪ B) = P (A − A ∩ B) + P (A ∩ B) + P (B − A ∩ B). de modo que P (A − A ∩ B) = P (A) − P (A ∩ B). o Demostraci´n. Si A ⊆ B. . Ejercicio. Demostraci´n. o 17 Demostraci´n. Compruebe que P (B − A) = 0. Pero A ∩ B ⊆ A. Sean A ⊆ B eventos tales que P (Ac ) = 0.6. se tiene que P (A) ≤ P (Ω) = 1.

e Para ello siga los t´rminos del lado derecho de la f´rmula y compruebe que cada e o regi´n es contada una sola vez de modo que el resultado final es la probabilidad o del evento A ∪ B ∪ C.6 (b). cuando A ∩ B = ∅. P (B) abarca la segunda y tercera regi´n. La f´rmula que a continuaci´n se demuestra o o puede tambi´n verificarse usando el diagrama de Venn que aparece en la Fig 1. o P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) −P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C). entonces la f´rmula demostrada se reduce al tercer axioma de la probabilidad. es decir. Compruebe que P (A ∪ B) = 0.2. . o P (A ∪ B) = P (A) + P (B). Observe entonces que la regi´n central ha sido contada dos veces de o o modo que el t´rmino −P (A ∩ B) da cuenta de ello. Sean A y B eventos ajenos tales que P (B) = 0. es decir. El t´rmino P (A) e abarca las primeras dos regiones de izquierda a derecha.6 (a) el lector puede comprobar la validez de la f´rmula anterior o identificando las tres regiones ajenas de las que consta A ∪ B. cuando son conjuntos ajenos. En o a particular. Probabilidad En la Figura 1. El siguiente resultado es una generalizaci´n del anterior o e involucra tres eventos cualesquiera.5. Proposici´n. B y C.3 y P (A ∩ B c ) = 0.6: Ejercicio. De esta forma las tres regiones e son contadas una sola vez y el resultado es la probabilidad del evento A ∪ B. Observe que la f´rmula anterior es v´lida para cualesquiera eventos A y B.2. A B A B Ω (a) A ∪ B C (b) A ∪ B ∪ C Ω Figura 1.18 1. Para cualesquiera eventos A.

En general. supondremos que la forma expl´ ıcita de calcular estos n´ meros es u conocida. Las propiedades anteriores son parte del estudio te´rico y general de la probabilio dad. entonces usaremos la definici´n cl´sica de probabilidad. PROBABILIDAD 19 Demostraci´n. a partir de las propiedades enunciadas y demostradas. b) P (∅) = 0. o que se puede suponer un cierto modelo para llevar a cabo estos c´lculos a dependiendo del experimento aleatorio en cuesti´n. Algunas propiedades de la probabilidad a) P (Ac ) = 1 − P (A). Usando la f´rmula para dos eventos y agrupando adecuadamente. Regresaremos a este punto m´s adelante. d) Si A ⊆ B. o o P (A ∪ B ∪ C) = P [(A ∪ B) ∪ C] = P (A ∪ B) + P (C) − P ((A ∪ B) ∩ C) = P (A) + P (B) − P (A ∩ B) + P (C) − P ((A ∩ C) ∪ (B ∩ C)) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) +P (A ∩ B ∩ C).Parte 1. cuando el espacio o muestral es finito y cada resultado puede suponerse igualmente probable. A manera de resumen presentamos a continuaci´n una tabla con las a o propiedades de la probabilidad que hemos demostrado. f) P (A ∪ B) = P (A) + P (B) − P (A ∩ B). Esperamos que. g) P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) −P (B ∩ C) + P (A ∩ B ∩ C). el lector haya desarrollado cierta habilidad e intuici´n para escribir la demostraci´n de alguna otra o o . entonces P (B − A) = P (B) − P (A). c) Si A ⊆ B. e) 0 ≤ P (A) ≤ 1. Por ejemplo. En otras situaciones asignaremos o a probabilidades de acuerdo a ciertos modelos conocidos. entonces P (A) ≤ P (B).

si A1 .3. entonces el total de formas en que puede efectuarse el primer procedimiento seguido del segundo es el producto n · m. . #(A1 × A2 ) = #A1 · #A2 . An´lisis combinatorio a Consideraremos ahora el caso cuando el experimento aleatorio es tal que su espacio muestral es un conjunto finito y cada elemento de este conjunto tiene la misma probabilidad de ocurrir.20 ´ 1. Sin embargo. . es decir. es com´ n enfrentar situaciones en donde no es factible escribir en u una lista cada elemento de A. A2 . Debemos tambi´n decir que las demostraciones no son unicas. El correspondiente espacio muestral tiene entonces cardinalidad 6 × 26 = 156. En estos casos hemos definido la probabilidad cl´sica de un evento A de la siguiente a forma P (A) = #A/#Ω. Ak denotan k procedimien- . Para poder aplicar esta definici´n necesitamos saber contar o cu´ntos elementos tiene un evento A cualquiera. Cuando podemos poner en una a lista todos y cada uno de los elementos de dicho conjunto. El principio de multiplicaci´n es v´lido no o a solamente para dos procedimientos sino que tambi´n vale para cualquier sucesi´n e o finita de procedimientos. Otras propiedades sencillas pueden encontrarse en la secci´n de ejercicios. El principio de multiplicaci´n que enunciamos a o continuaci´n es la base de muchos de los c´lculos en las t´cnicas de conteo. o a e Proposici´n. Analisis combinatorio propiedad de la probabilidad. ı 1. En las siguientes secciones estudiaremos u o algunas t´cnicas de conteo que nos ayudar´n a calcular la cardinalidad de un evento e a A en ciertos casos particulares. entonces es f´cil conocer a la cardinalidad de A. Suponga que un cierto experimento aleatorio consiste en seleccionar un dado y despu´s seleccionar al azar e una letra del alfabeto. Para ilustrar este resultado considere el siguiente ejemplo.3. o e ´ y que es altamente probable que el lector pueda producir alguna demostraci´n o diferente a las que aqu´ se han presentado. cuando el espacio Ω es finito y equiprobable. Por ejemplo. . Por ejemplo. simplemente contamos todos los elementos uno por uno. Si un procedimiento A1 puede efectuarse de n formas distintas y o un segundo procedimiento A2 puede realizarse de m formas diferentes. ¿Cu´l es la cardinalidad del correspondiente espacio muesa tral? El experimento de lanzar un dado tiene 6 resultados posibles y consideremos que tenemos un alfabeto de 26 letras. es decir. ¿Cu´ntos n´ meros telef´nicos existen a u o que contengan por lo menos un cinco? Es poco factible que alguien intente escribir uno a uno todos estos n´ meros telef´nicos. .

Al efectuar una extracci´n. registramos o el objeto escogido y lo regresamos a la urna. PROBABILIDAD 21 tos sucesivos. El total de arreglos que se pueden obtener de esta urna al ıdo hacer k extracciones es el n´ mero nk . Esto se muestra en la Figura 1. Deseamos realizar k extracciones al azar de un objeto a la vez. Ejercicio.7. las letras may´ sculas. uno a la vez.7: ´ Ordenaciones con repeticion: Muestras con orden y con reemplazo. Un hombre tiene 4 pantalones distintos. El esquema general es el de o extraer al azar k objetos. pues en cada extracci´n tenemos n objetos u o posibles para escoger y efectuamos k extracciones. de una urna con n objetos distintos. A este n´ mero se le llama ordenaciones o u con repetici´n. n objetos urna k objetos muestra Figura 1. En o a todos ellos aplicaremos el principio de multiplicaci´n. Ejemplo. Suponga entonces que tenemos una urna con n objetos distintos. Suponga que tenemos un conjunto de 60 caracteres diferentes que contiene todas las letras min´ sculas del alfabeto. y dos pares de zapatos.Parte 1. Esta f´rmula es consecuencia del o principio de multiplicaci´n enunciado antes. de esta forma el mismo objeto puede ser extra´ varias veces. Se dice que la muestra es con orden pues es importante el orden en el o que se van obteniendo los objetos. ¿De cu´ntas formas distintas puede el hombre vestirse con estas prendas? a Vamos a considerar a continuaci´n diferentes esquemas y contextos en donde es o posible encontrar una f´rmula matem´tica para ciertos problemas de conteo. y es con reemplazo pues cada objeto seleccionado se reincorpora a la urna. los diez d´ u u ıgitos . 6 camisas. entonces este principio se puede enunciar en s´ ımbolos de la forma siguiente: #(A1 × · · · × Ak ) = #A1 · · · #Ak .

o bien cuando todos los objetos son extra´ ıdos uno por uno. Suponga esta vez que el muestreo es sin reemplazo. Ejercicio. La expresi´n encontrada puede escribirse como o sigue: n! P (n. ¿Cu´ntos passwords o palabras clave de longitud a 4 se pueden construir usando el conjunto de 60 caracteres? Este es un ejemplo de una ordenaci´n de 60 caracteres en donde se permiten las repeticiones. (n − k)! y se lee permutaciones de n en k. k) = . 960. El primer factor es n y ello es debido a o que tenemos cualesquiera de los n objetos para ser colocado en primera posici´n. Primeramente debemos observar que u hay k factores en la expresi´n anterior. o ´ Ordenaciones sin repeticion: Muestras con orden y sin reemplazo. o para la segunda posici´n tenemos ahora n − 1 objetos. k objetos. entonces se tienen todas las permutaciones o distintos ´rdenes en que o se pueden colocar n objetos. Como o cada caracter de los 60 disponibles puede ser escogido para ser colocado en cada una de las cuatro posiciones de la palabra clave. Diez personas votar´n por uno de tres candidatos. una urna con n objetos y de los o cuales se deben extraer. El total de arreglos distintos que se pueden obtener de este modo es el n´ mero: n(n − 1)(n − 2) · · · (n − k + 1). En el caso particular cuando la muestra es exhaustiva. es decir. 000 distintos passwords de longitud 4. Nuevamente por el principio multiplicativo. la ´ respuesta es el producto indicado. segundo y tercero en una rifa de 10 boletos numerados del 1 al 10? Claramente se trata de una ordenaci´n sin repetici´n de 10 objetos en donde se deben extraer 3 de o o . Analisis combinatorio y algunos caracteres especiales. entonces se pueden construir 60 × 60 × 60 × 60 = 604 = 12. ¿Cu´ntas u a historias distintas de marcadores llevan a un marcador final donde hay 4 goles? Soluci´n: 16. o Ejercicio. una vez seleccionado un objeto ´ste ya no se reincorpora e a la urna. cuando k = n.3. uno a uno. ¿De cu´ntas formas a a distintas pueden los votos ser registrados uno por uno? Soluci´n: 59049. etc. Suponga que se tiene la misma situaci´n que antes. Ejemplo. ¿De cuantas formas distintas pueden asignarse los premios primero.22 ´ 1. es decir. para la tercera n − 2 objeo tos. En un partido de f´ tbol hubo 4 goles en el marcador final. Este razonamiento termina al escoger el k-´simo objeto para cual tenemos e unicamente n − k + 1 posibilidades.

¿De cu´ntas a formas distintas puede ser le´ esta novela? ıda Combinaciones: Muestras sin orden y sin reemplazo. cuando se extraen los n objetos de la urna. Es decir. Supongamos ahora que las muestras deben ser sin orden n y sin reemplazo. Supongamos nuevamente que tenemos un conjunto de n objetos distinguibles y nos interesa obtener una muestra de tama˜ o k. ¿De cu´ntas formas distintas pueden dos equipos de f´ tbol terminar en a u la clasificaci´n general de un torneo en donde compiten 20 equipos? Soluci´n: 380. en la muestra no debe haber elementos repetidos. y se u e usa la notaci´n P (n) = n! Adicionalmente y por conveniencia se define 0! = 1. quedan cuatro libros por colocar en la segunda posici´n. o Observe que las permutaciones de n objetos es un caso particular de la situaci´n o mencionada en la secci´n anterior sobre ordenaciones sin repetici´n pero ahora o o cuando la muestra es exhaustiva. o o Permutaciones: Muestras exhaustivas con orden y sin reemplazo. o o etc. A este n´ mero tambi´n se le conoce como las permutaciones de n objetos.Parte 1. y adem´s la muestra debe verse como un conjunto pues no debe a haber orden entre sus elementos. Si deseamos conocer el total de formas distintas en que podemos colocar una enciclopedia de 5 vol´ menes en un librero. la respuesta es claramente u 5! = 5 × 4 × 3 × 2 × 1 = 120. La pregunta b´sica acerca del total de formas en que podemos poner en orden lineal a (uno detr´s de otro y por lo tanto no hay repetici´n) n objetos distintos tiene como a o respuesta el factorial de n. restan entonces tres posibilidades para la tercera posici´n. denotado por n! y definido como sigue: n! = n(n − 1)(n − 2) · · · 3 · 2 · 1. Ejercicio. Por el principio de multiplicaci´n la respuesta es el producto de estos n´ meros. ¿Cu´ntas diferentes muestras podemos obtener a . o u Ejercicio. PROBABILIDAD 23 ellos. El razonamiento es el siguiente: Cualquiera de los cinco libros puede ser colocado al principio. pues no hay reemplazo. La novela Rayuela del escritor argentino Julio Cort´zar contiene 56 a cap´ ıtulos que aparentemente pueden ser le´ ıdos en cualquier orden. La respuesta es entonces que existen 10 × 9 × 8 = 720 distintas asignaciones para los tres primeros lugares en la rifa. es decir. Ejemplo.

24

´ 1.3. Analisis combinatorio

de estas caracter´ ısticas? Para responder a esta pregunta seguiremos el siguiente razonamiento. Cuando el orden importa hemos encontrado antes la f´rmula o n! . (n − k)! Ahora que no nos interesa el orden, observamos que cada uno de los arreglos de la f´rmula anterior, est´ siendo contado k! veces, las veces en que los mismos k o a elementos pueden ser permutados unos con otros, siendo que el conjunto de elementos es el mismo. Para obtener arreglos en donde el orden no importa, debemos entonces dividir por k! La f´rmula a la que hemos llegado se llama combinaciones o de n en k, que denotaremos como sigue: n k = n! . k! (n − k)!

A este n´ mero tambi´n se le conoce con el nombre de coeficiente binomial de n en u e k, pues aparece en el famoso teorema del binomio:
n

(a + b)n =
k=0

n n−k k a b . k

Para los casos n = 2 y n = 3 el teorema del binomio se reduce a las siguientes f´rmulas que muy seguramente el lector conoce: o (a + b)2 (a + b)3 = = a2 + 2ab + b2 . a3 + 3a2 b + 3ab2 + b3 .

Ejemplo. ¿Cu´ntos equipos distintos de tres personas pueden escogerse de un grupo a de 5 personas? Observe que el orden de las tres personas escogidas no es importante de modo que la respuesta es 5 = 5!/(3! (5 − 3)!) = 10. 3 Ejercicio. En un popular juego de loter´ se pide adivinar los seis n´ meros que ser´n ıa u a escogidos al azar dentro del conjunto {1, 2, . . . , 49}. ¿Cu´l es el total de arreglos a con los cuales un jugador puede participar en este juego? Si se establece que un jugador obtiene un segundo lugar si acierta unicamente a cinco de los seis n´ meros ´ u seleccionados, ¿cu´ntos segundos lugares puede haber para una arreglo dado de a seis n´ meros? u

Parte 1. PROBABILIDAD

25

Ejercicio. Un cierto partido de f´ tbol termin´ con un marcador de 4-4. ¿De cu´ntas u o a formas distintas pudieron los equipos alternarse en anotar para llegar a tal resultado? Soluci´n: 70. ¿Cree usted que todos estos resultados son igualmente probables? o El coeficiente binomial es tambi´n una forma de generar las entradas del as´ llamado e ı tri´ngulo de Pascal, que puede observarse en Figura 1.8. a

1 1 1 1 1 1 1 6 5 4 3 6 10 10 15 20 15 2 3 4 5 6 1 1 1 1 1 1

Figura 1.8: El n-´simo rengl´n del tri´ngulo de Pascal, iniciando desde cero, contiene los coee o a ficientes del desarrollo de (a + b)n . Existe una forma sencilla de construir este tri´ngulo observando que cada uno de estos n´ meros, exceptuando los extremos, es a u la suma de los dos n´ meros inmediatos del rengl´n anterior. A este respecto v´ase u o e por ejemplo el Ejercicio 53 en la p´gina 112. a Coeficiente multinomial. Ahora consideremos que tenemos n objetos no necesariamente distintos unos de otros. Por ejemplo, supongamos que tenemos k1 objetos de un primer tipo, k2 objetos de un segundo tipo, y as´ sucesivamente, ı hasta km objetos del tipo m, en donde k1 + k2 + · · · + km = n. Estos n objetos pueden todos ordenarse uno detr´s de otro de tantas formas distintas como indica a el as´ llamado coeficiente multinomial: ı n k1 k2 · · · km−1 km = n! . k1 ! k2 ! · · · km−1 ! km !

Un razonamiento para obtener esta f´rmula es el siguiente. Si consideramos que o los n objetos son todos distintos, entonces claramente las distintas formas en que

26

´ 1.3. Analisis combinatorio

pueden escribirse todos estos objetos uno detr´s de otro es n! Pero para cada uno a de estos arreglos, los k1 objetos del primer tipo, supuestos inicialmente distintos cuando en realidad no lo son, pueden permutarse entre s´ de k1 ! formas diferentes, ı siendo que el arreglo total es el mismo. De aqui que debamos dividir por k1 ! Lo mismo sucede con los elementos del segundo tipo y as´ sucesivamente hasta los ı elementos del tipo m. El coeficiente multinomial aparece en la siguiente f´rmula: o (a1 + a2 + · · · + am )n = n ak1 ak2 · · · akm , m k1 · · · km 1 2 (1.1)

en donde la suma se efect´ a sobre todos los posibles valores enteros no negativos u de k1 , k2 , . . . , km , tales que k1 + k2 + · · ·+ km = n. Por ejemplo, compruebe el lector que la f´rmula (1.1) produce la siguiente expresi´n: o o (a + b + c)2 = a2 + b2 + c2 + 2ab + 2ac + 2bc. ¿Puede usted desarrollar (a + b + c)3 ? Es interesante observar que cuando hay unicamente dos tipos de objetos, el coeficiente multinomial se reduce al coeficiente ´ binomial. Muestras sin orden y con reemplazo. Finalmente consideremos el caso de hacer k extracciones de una urna de n objetos con las condiciones de que cada objeto extra´ es regresado a la urna (y entonces puede ser elegido nuevamente), ıdo y en donde el orden de la muestra no es relevante. Para encontrar una f´rmula para o el total de muestras que pueden obtenerse con estas caracter´ ısticas usaremos una modelaci´n distinta pero equivalente. Consideremos el arreglo de n casillas de la o Figura 1.9 junto con la siguiente interpretaci´n. o

××
1 2

×
3

×
4

··· ···
n−1

×
n

Figura 1.9: La primera casilla tiene dos cruces y eso indica que la bola uno fue seleccionada dos veces, la segunda casilla esta vac´ y ello significa que la bola dos no fue seleccionada, ıa etc. El n´ mero de cruces en la casilla i indica entonces el n´ mero de veces que la u u bola i fue seleccionada. En total debe haber k cruces pues es el total de extracciones. Deseamos entonces conocer el n´ mero de posibles arreglos que pueden obtenerse con u estas caracter´ ısticas, y debe ser claro, despu´s de algunos momentos de reflexi´n, e o que ´ste es el n´ mero de muestras de tama˜ o k, con reemplazo y sin orden, que se e u n

En total hay n + k − 1 objetos movibles y cambiar de posici´n estos objetos produce las distintas configuraciones posibles que nos o interesan. El n´ mero total de estos arreglos es u n+k−1 k que equivale a colocar dentro de las n + k − 1 posiciones las k cruces. Debemos hacer ´nfasis sin embargo en que para resolver un o e problema de conteo en particular. dejando en los lugares restantes las paredes movibles. pueden moverse.Parte 1. tenemos la siguiente tabla de f´rmulas. y a manera de resumen parcial. A veces ello se debe a que el problema no esta especificado de manera completa. ´ Resumen de formulas. Consideremos adem´s que las posiciones intermedias. Muy posiblemente el problema a en cuesti´n requiera de un razonamiento especial que involucre alguna combinaci´n o o de las f´rmulas encontradas. cruz a o linea vertical. PROBABILIDAD 27 pueden obtener de un conjunto de n elementos distinguibles. Muestras con orden con reemplazo nk n+k−1 k sin reemplazo n! (n − k)! n k sin orden . En el contexto de muestras de tama˜ o k tomadas de un n conjunto de cardinalidad n. no debemos clasificarlo forzosamente y de manera mec´nica en alguno de los esquemas mencionados. Consideremos que las dos paredes en los extremos de este arreglo son fijas. A menudo los problemas de conteo son dif´ o ıciles de resolver y en algunos casos uno puede encontrar dos o mas “soluciones” distintas y aparentemente correctas. estas paredes se encuentran ligeramente remarcadas.

. Probabilidad condicional e independencia 1. 6}. u Ejercicio. . ha afectado la o probabilidad del evento A. 6} = “Cae par”. 6}) P ({2. 6}) 3/6 Observe que conocer la informaci´n de la ocurrencia del evento B. Probabilidad condicional. Considere el experimento de lanzar un dado equilibrado. Sean A y B dos eventos en donde B es tal que su probabilidad es estrictamente positiva. Ejemplo. P ({2. La siguiente f´rmula se llama regla del producto: Sean A1 .4. 2. Ilustraremos con un ejemplo el significado o de la probabilidad condicional y comprobaremos que el evento B representa informaci´n adicional acerca del experimento aleatorio que modifica. . las o probabilidades de los distintos eventos. Claramente el espacio muestral es Ω = {1. Probabilidad condicional e independencia Los conceptos de probabilidad condicional e independencia surgieron de manera natural en el proceso de encontrar soluci´n a algunos problemas provenientes de o situaciones reales. el cual por hip´tesis es equiprobable. . es decir. Sean o los eventos A = {2} y B = {2. 4.4. y por otro lado no existe definici´n para P (A|B) cuando P (B) = 0. Es claro que para que la definici´n o tenga sentido se necesita suponer que P (B) > 0.28 1. La probabilidad condicional del evento A dado el evento B. se define como sigue: P (A|B) = P (A ∩ B) . Compruebe que P (A1 ∩ · · · ∩ An ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩ A2 ) · · · P (An |A1 ∩ · · · ∩ An−1 ). en general. . o simplemente probabilidad de A dado B. En esta secci´n estudiaremos estos conceptos y demostraremos o adem´s dos resultados de amplia aplicaci´n: el teorema de probabilidad total y el a o teorema de Bayes. Entonces P (A) = 1/6 mientras que P ({2} ∩ {2. 6}) P ({2}) 1/6 P (A|B) = = = = 1/3. P (B) La expresi´n P (A|B) se lee probabilidad condicional del evento A dado el evento o B. An eventos o tales que P (A1 ∩ · · · ∩ An−1 ) > 0. 4. 4. 4. 4. dada la informaci´n que el resultado del dado o es un n´ mero par. 5. 3. la probabilidad de obtener “2” es ahora 1/3. denotada por P (A|B).

En la mayor´ de los casos de aplicaci´n ıa o simplemente supondremos que dos eventos dados son independientes recurriendo unicamente a justificaciones intuitivas. i. j distintos. . Es una hip´tesis natural o suponer que el resultado del primer lanzamiento no afecta el resultado del segundo lanzamiento. P (A1 ) · · · P (An ). P (Ai )P (Aj )P (Ak ). Suponga que se lanza una moneda dos veces. i. PROBABILIDAD 29 Ejercicio. en general. j. An son independientes si se satisfacen todas y cada una de las condiciones siguientes: P (Ai ∩ Aj ∩ Ak ) = . El siguiente experimento se conoce como la urna de Polya. cualquiera de estas igualdades no implica. . . Independencia de eventos. Esta igualdad es o equivalente a la expresi´n P (A|B) = P (A) cuando P (B) > 0. a suponiendo naturalmente que P (A) > 0. la validez de alguna otra. que cuando no sabemos nada (lado derecho). . Es decir. P (A1 ∩ · · · ∩ An ) = P (Ai ∩ Aj ) = P (Ai )P (Aj ). Un experimento aleatorio consiste en seleccionar una bola al azar y regresarla a la urna junto con c bolas del mismo color. En general. De manera an´loga puede interpretarse la igualdad equivalente P (B|A) = P (B). De este modo cualquier evento del primer ensayo es independiente de cualquier otro evento en el segundo ensayo. k distintos. es necesario pues . para verificar que n eventos son independientes es necesario comprobar todas y cada una de las igualdades arriba enunciadas. Se dice que dos eventos cualesquiera A y B son independientes si se cumple la condici´n P (A ∩ B) = P (A)P (B). la ocurrencia del evento B no afecta la probabilidad del evento A y por lo tanto son independientes. La ventaja de esta o ultima expresi´n es que posee una interpretaci´n sencilla: Dice que la probabilidad ´ o o del evento A es la misma cuando sabemos que ha ocurrido el evento B (lado izquierdo).Parte 1. . . A2 . Es decir. Use la regla del producto para calcular la probabilidad de obtener bolas rojas en las tres primeras extracciones. La definici´n de independencia de dos eventos puede generalizarse al caso de varios o eventos de la siguiente forma: Decimos que n eventos A1 . ´ Ejemplo. Suponga que en una urna se tienen b bolas blancas y r bolas rojas.

Bn una partici´n de Ω tal que o cada elemento de la partici´n tiene probabilidad estrictamente positiva. ¿Son A. Sea Ω = {1.10: Ahora podemos enunciar y demostrar el muy util teorema de probabilidad total. ´ Teorema de probabilidad total. . Una partici´n finita de un o o conjunto Ω es una colecci´n B1 . esto es. En la Figura 1.30 1. Para o cualquier evento A. o ´ ındices i y j distintos. es decir. 2}. Probabilidad condicional e independencia verificarlas todas. No es dif´ darse cuenta que el total de igualdades es 2n − n − 1. . — Ejercicio. Sean los eventos A = {1.4. n P (A) = i=1 P (A | Bi )P (Bi ). 2. Antes de enunciar el siguiente resultado recordaremos el concepto de partici´n de un conjunto. B = {2. 3} y C = {2. B2 . . para ıo. ıcil ¿Puede usted justificar este resultado? Ejemplo. Sea B1 . . . . a o B1 B2 B3 · · · A Ω Figura 1. . 4}.10 se o muestra gr´ficamente el concepto de partici´n de un conjunto. 3. . se cumple que Bi ∩ Bj = 0. Bn de subconjuntos de Ω tal que cada uno de o estos conjuntos es distinto del vac´ la colecci´n es disjunta dos a dos. 4} un espacio muestral equiprobable. . B1 ∪ B2 ∪ · · · ∪ Bn = Ω. B y C independientes? Teorema de probabilidad total. y adem´s la uni´n de toda la a o colecci´n produce el total Ω.

G)}. B y o ´ B c .Parte 1. Suponga que tenemos dos cajas: una con 3 bolas blancas y 7 de color gris. Observe que cuando la partici´n de Ω consta de unicamente dos elementos. (C1 . Primero observemos que el evento A puede escribirse como sigue o n n A= A∩Ω= A∩ Bi = i=1 i=1 A ∩ Bi . en donde los eventos A ∩ B1 . . o o P (A) = P (A|B)P (B) + P (A|B c )P (B c ). la f´rmula del teorema de probabilidad total se reduce a la siguiente expresi´n. A ∩ Bn son ajenos dos a dos. B). y B y G denotan los eventos en donde una bola blanca o gris fueron . ¿cu´l es la probabilidad de que sea blanca? a Caja 1 Caja 2 Figura 1. la otra con 6 blancas y 6 grises. . respectivamente. en donde C1 y C2 denotan los eventos en donde las cajas uno y dos fueron escogidas. de modo que n n n P (A) = P ( i=1 A ∩ Bi ) = i=1 P (A ∩ Bi ) = i=1 P (A | Bi )P (Bi ). Es e claro entonces que el espacio muestral puede escribirse como sigue Ω = {(C1 . Ejemplo. PROBABILIDAD 31 Demostraci´n. y despu´s escoger una bola de la caja escogida. . con id´ntica e probabilidad cada una de ellas. B). Si se elije una caja al azar y despu´s se saca una e bola. . G).11: El experimento aleatorio consiste entonces en escoger una caja al azar. (C2 . (C2 .

o o Una persona es elegida al azar. (C2 . Fue publicado por primera vez en 1763. el 4 % de hombres son dalt´nicos y el 1 % de las mujeres son dalt´nicas. ¿Cu´l es la probabilidad de que sea dalt´nica? a o Definamos primero los eventos de inter´s. es decir. G)}. P (B) = = = P (B|C1 )P (C1 ) + P (B|C2 )P (C2 ) 3 1 6 1 × + × 10 2 12 2 2 .4. Este es otro resultado interesante que involucra probabilidades condicionales. (C1 . Por el teorema de probabilidad o total. el matem´tico y te´logo ingl´s Thomas Bayes. Observe que es f´cil calcular la probabilidad de este evento cuando se conoce la caja que fue a escogida.32 1. a o e . Suponga que en una poblaci´n humana de igual n´ mero de hombres y o u mujeres. Deseamos calcular P (D). P (D) = = = P (D|M )P (M ) + P (D|H)P (H) 1 1 4 1 × + × 100 2 100 2 1 . ¿Cu´l es la probabilidad de que haya sido a obtenida de la primera caja? Ejemplo. Nos piden calcular la probabilidad de B. B). Esto sugiere condicionar sobre el resultado de escoger alguna de las dos cajas y aplicar el teorema de probabilidad total. 5 Observe adem´s que la partici´n del espacio muestral consta de dos elementos: a o {(C1 . ¿Puede usted comprobar que P (G) = 3/5? Puede uno tambi´n preguntarse por situaciones aparentemente extra˜ as como la e n siguiente: Si se obtuvo una bola blanca. dos a˜ os despu´s de n e la muerte de su creador. G)} y {(C2 . H el evento “La persona escogida es hombre” y D el evento “La persona escogida es dalt´nica”. Sea M el evento “La persona escogida es e mujer”. B). Probabilidad condicional e independencia escogidas respectivamente. 40 Teorema de Bayes.

Nuevamente observamos que en el caso cuando la partici´n o de Ω consta de s´lo dos elementos: B y B c . Sea B1 . . n. . el teorema de Bayes. la m´quina 1 o a o a produce 3 % de material defectuoso. . P (Bj |A) = P (A|Bj )P (Bj ) n . Entonces para cada j = 1. para el evento B.Parte 1.10 para una representaci´n gr´fica de la partici´n del espacio e o a o muestral y el evento A. . De su producci´n total. P (A|Bi )P (Bi ) i=1 V´ase la Figura 1. Sea A un evento tal o que P (A) > 0. 2. . . P (A|B)P (B) + P (A|B c )P (B c ) Ejemplo. Por la definici´n de probabilidad condicional y el teorema de proo o babilidad total tenemos que P (Bj |A) = = = P (A ∩ Bj ) P (A) P (A|Bj )P (Bj ) P (A) P (A|Bj )P (Bj ) n . ¿Cu´l es la probabilidad de que este material defectuoso a provenga de la m´quina M2 ? Sea M1 el evento “La m´quina 1 produjo el material a a . la 2 el 5 %. En una f´brica hay dos m´quinas. . Bn una partici´n de Ω tal que cada elemento o de la partici´n tiene probabilidad estrictamente positiva. La m´quina 1 realiza el 60 % de la a a a producci´n total y la m´quina 2 el 40 %. o adquiere la forma: P (B|A) = P (A|B)P (B) . . El asunto es que se ha encontrado un material defectuoso. P (A|Bi )P (Bi ) i=1 Demostraci´n. PROBABILIDAD 33 Teorema de Bayes.

pero por otro lado. Con esta informaci´n uno podr´ pensar que la prueba es muy o ıa buena. usando el teorema de Bayes.96 × 0.05 × 0.01 + 0.95 × 0.99 = 0.01 . P (E|N ) = = P (N |E)P (E) P (N |E)P (E) + P (N |E c )P (E c ) 0. Probabilidad condicional e independencia escogido”.95. Es bueno que esta probabilidad sea peque˜ a.4. y sobre la eficacia de dicha prueba se conoce lo siguiente: Si se denota por E el evento de que un paciente tenga la enfermedad y por N el evento de que la prueba resulte negativa. entonces se sabe que P (N c |E) = 0. P (N |E c ) = 0.000526 .01 0. 19 ¿Puede usted calcular P (M1 |D)? Ejemplo.96 y P (E) = 0. El problema es encontrar P (M2 |D) y obervamos que la informaci´n que tenemos es P (D|M2 ). Por el teorema o de Bayes tenemos entonces que P (M2 |D) = = = P (D|M2 )P (M2 ) P (D|M1 )P (M1 ) + P (D|M2 )P (M2 ) 3 100 × 5 100 60 100 × + 40 100 5 100 × 40 100 10 . En un laboratorio se descubri´ una prueba para detectar cierta enfermeo dad.193 .05 × 0.01 0.95 × 0. sin embargo calcularemos las probabilidades P (E|N ) y P (E|N c ).04 × 0.01 + 0.34 1. n P (E|N c ) = = P (N c |E)P (E) P (N c |E)P (E) + P (N c |E c )P (E c ) 0. M2 en evento “La m´quina 2 produjo el material escogido” y finalmente a sea D el evento “El material escogido es defectuoso”.99 = 0. .

1. ´ u y para un valor cualquiera de ellas se usa la misma letra pero en min´ scula. Suponga entonces que se efect´ a o u el experimento aleatorio una vez y se obtiene un resultado ω en Ω. y antes de abrirla. Al transformar este resultado con la variable aleatoria X se obtiene un n´ mero real X(ω) = x. es decir. Seguiremos la notaci´n usual de usar la o o letra may´ scula X para denotar una variable aleatoria cualquiera. una variable aleatoria es una transformaci´n X del espacio de resultados Ω al conjunto de n´ meros reales. En e sentido estricto una variable aleatoria es una funci´n de Ω en R que satisface o adem´s cierta condici´n de medibilidad. Z. o u X : Ω → R. Ilustramos de u o manera gr´fica el concepto de variable aleatoria en la Figura1. Debemos hacer a aqui la siguiente observaci´n importante. El cona cursante debe adivinar la puerta que contiene el premio para ganarlo. pero omitiremos tales tecnicismos pues no a o son de utilidad para los prop´sitos de este curso. Una vez que el concursante elige una puerta. En general. el presentador del concurso abre alguna de las puertas restantes y de la cual sabe que no contiene ning´ n premio. W. V. en lugar del t´rmino variable aleatoria.a. u Entonces le pregunta al concursante si desea cambiar su decisi´n. Se le presentan a un concursante tres puertas cerradas detr´s de una de las cuales hay un premio. A menudo se escribe simplemente v. PROBABILIDAD 35 Esta ultima probabilidad es demasiado peque˜ a y por lo tanto la prueba no es muy ´ n confiable en tales casos. mientras que la letra min´ scula x denota un n´ mero real y o u u que es un posible valor de la variable aleatoria. Denotemos por “Cara” . u Ejemplo. El problema de las tres puertas (Monty Hall). ¿Qu´ debe hacer o e el concursante? Justifique su respuesta. las variables aleatorias se denotan usando las ultimas letras del alfabeto en may´ sculas. U. Ejercicio. Variables aleatorias Dado un experimento aleatorio cualquiera. Suponga que un experimento aleatorio consiste en lanzar al aire una moneda y observar la cara superior una vez que la moneda cae. X es u una funci´n de Ω en R. u Podemos entonces suponer que los posibles resultados del experimento aleatorio son los diferentes n´ meros reales x que la funci´n X puede tomar.12. esto es. X.Parte 1. Y.5.

a trav´s de la u e funci´n Y . Defina la variable aleatoria X : Ω → R de la siguiente forma X(“Cara”) = 0 y X(“Cruz”) = 1. y) : x2 + y 2 ≤ 1}. Podemos tambi´n definir la variable aleatoria Y : Ω → R de la siguiente forma e Y (“Cara”) = Y (“Cruz”) = 2. Cualquier resultado del experimento aleatorio produce. y) Ω Figura 1. Entonces claramente el espacio muestral es el conjunto Ω = {“Cara”. ω = (x. Decimos que Y es la variable aleatoria constante 2. otro par de n´ meros distintos u u puede ser escogido para distinguir los dos resultados del experimento aleatorio. En este caso la variable Y solo toma un valor. o u Ejemplo.12: y “Cruz” los dos lados de la moneda.36 1. el n´ mero 2. Observe e que los n´ meros 0 y 1 son en realidad arbitrarios. “Cruz”}. El espacio muestral o conjunto de posibles resultados del experimento se puede escribir como sigue Ω = {(x. Variables aleatorias X ω Ω X(ω) = x x R Figura 1. De este modo podemos suponer que el experimento aleatorio tiene dos valores num´ricos posibles: 0 y 1.5. el n´ mero 2.13: . Consideremos el experimento aleatorio consistente en lanzar un dardo en un tablero circular de radio uno.

Por ejemplo. decimos que una variable aleatoria es continua cuando toma todos los valores dentro de un intervalo (a. el espacio muestral (Figura 1. b) N´ mero de hijos. Ejemplo. puede obtenerse un ejemplo de una variable aleatoria discreta sobre este espacio muestral. n} es un conjunto discreto porque es finito. PROBABILIDAD 37 Los siguientes son ejemplos de funciones de Ω en R. es numerable y por lo tanto discreto.Parte 1. 1. e) W (x. . Por otra parte. ´ Ejemplo. 2. el conjunto {0. . las variables X. Un experimento aleatorio consiste en escoger a una persona ω al azar. e) Sueldo.a. Si se dibujan c´ ırculos conc´ntricos alrededor del origen y si se asignan e premios asociados a cada una de las regiones resultantes. y) = proyecci´n sobre el eje horizontal. de la persona escogida. Considerando el conjunto de valores que una variable aleatoria puede tomar. Las variables X y Y definidas l´ ıneas arriba en el ejemplo del lanzamiento de una moneda. Esta clasificaci´n de variables aleatorias no es completa pues existen vao riables que no son de ninguno de los dos tipos mencionados. es discreta cuando el conjunto de valores que ´sta toma es un cone junto discreto. producto de las coordenadas. g) Estado civil. En cada caso se trata de una variable aleatoria discreta: a) Edad en a˜ os. a) X(x. d) V (x. un conjunto finito o numerable. b) ⊆ R. y) = x. . En ese ejemplo el espacio muestral mismo es discreto y por lo tanto las variables aleatorias que pueden all´ definirse ı tienen que ser discretas forzosamente. n u c) Peso. . son variables aleatorias discretas. y) = y. variables aleatorias.13) es infinito no numerable. distancia del taxista. vamos a clasificar a las variables aleatorias en dos tipos: discretas o continuas. b) Y (x. Por simplicidad en este curso estudiaremos unicamente variables aleatorias que son discretas o continuas. lo mismo N pues aunque es infinito. Z. o proyecci´n sobre el eje vertical. o una codificaci´n de esta caracter´ o ıstica. f) Nivel escolar. c) Z(x. En el ejemplo del lanzamiento de un dardo en un tablero circular de radio uno. La variable aleatoria X evaluada en ω corresponde a conocer la siguiente caracter´ ıstica. V y W definidas all´ son todas variables aleatorias ı continuas. Y. h) Lugar de nacimiento. distancia al centro del c´ ırculo. y) = xy. asociadas a este experimento aleatorio. o x2 + y 2 . . es decir. Decimos que una v. y) = |x| + |y|. d) Estatura.

(X ∈ A) = {ω ∈ Ω : X(ω) ∈ A}. Ejemplo. es decir. A este conjunto o o se le llama la imagen inversa de A. En palabras. Y aplicando probabilidad se obtiene P (X ≤ x) + P (X > x) = 1. ∞)) = {“Cruz”} pues el conjunto de elementos de Ω tales que bajo la funci´n X toman un valor mayor o igual a uno. b) P (X ∈ [0. ni eventos (subconjuntos) de Ω. Usaremos con mucha frecuencia la notaci´n arriba explicada. en lugar de ello consideraremos que una cierta variable aleatoria de inter´s toma valores en un cierto subconjunto de e n´ meros reales. y se le denota por X −1 A. a probabilidades para subconjuntos de R. 2)) = P ({“Cruz”}) = 1/2. ni espacios muestrales arbitrarios Ω. 4]) = P (∅) = 0. Esta es una consideraci´n radical pues o ya no consideraremos experimentos aleatorios particulares. entonces la expresi´n (X ∈ A). la expresi´n (X ∈ A) denota aquel conjunto de elementos ω de Ω tales que bajo la o aplicaci´n de la funci´n X toman un valor dentro del conjunto A. El lector debe aseo gurarse de comprender bien que si x es un n´ mero real entonces (X ≤ x) es u un subconjunto de Ω y por lo tanto un evento. Por lo ´ tanto P (X ∈ [1. Lo mismo sucede con el complemento de este conjunto que es (X > x). incluyendo el par´ntesis. A trav´s de una variable aleatoria se puede considerar que los poe sibles resultados de un experimento aleatorio no son elementos ω en Ω sino n´ meros u reales que la variable aleatoria puede tomar. d) P (X = 1) = P ({“Cruz”}) = 1/2. Variables aleatorias Usaremos tambi´n la siguiente notaci´n importante: Si A es un subconjunto de e o R. o es decir caen dentro del intervalo [1. Esta perspectiva permite estudiar modelos generales y despu´s aplicarlos a cualquier situaci´n pare o . ∞). u como explicamos antes. es unicamente el elemento “Cruz”.38 1. e) P (X ≤ −1) = P (∅) = 0. Consideremos nuevamente el experimento de lanzar una moneda y la variable aleatoria X que lleva el resultado “Cara” al valor 0 y el resultado “Cruz” al valor 1. f) P (X ≥ 0) = P (Ω) = 1.5. 1)) = P ({“Cara”}) = 1/2. Tenemos por ejemplo que (X ∈ [1. Nota importante. ∞)) = P {“Cruz”} = 1/2. c) P (X ∈ [2. La probabilidad definida antes para subconjuntos de Ω se traslada. denota el conjunto o e {ω ∈ Ω : X(ω) ∈ A}. Del mismo modo puede verificarse que a) P (X ∈ [1. Podemos escribir entonces la igualdad de conjuntos (X ≤ x) ∪ (X > x) = Ω.

2) la llamaremos funci´n de probabilidad. despu´s para una continua. . A partir de ahora y en lo que resta del curso el t´rmino variable aleatoria e constituir´ un elemento frecuente en los enunciados. . b) x f (x) = 1. ∞) se define como sigue f (x) = P (X = x) 0 si x = x1 . . . para toda x ∈ R. La funci´n de probabilidad de la o variable X denotada por f (x) : R → [0. (1. Observe que se cumplen las siguientes dos propiedades.6. ´ Funcion de probabilidad para una variable discreta. pues conceptualmente son cosas muy distintas. . Definiremos primero la funci´n de densidad para una variable aleatoria discreta. la funci´n de probabilidad es simplemente aquella funci´n que indica o o los valores de la probabilidad en los distintos valores que toma la variable aleatoria discreta. x2 . P (X = x2 ). llamadas funci´n de densidad y funci´n de distribuci´n. Estas funciones. pero numerable. A veces escribiremos fX (x) y el sub´ u ındice nos ayudar´ a especificar que tal funci´n es la funci´n de probabilidad de la variable a o o X. Esta lista de valores num´ricos y sus probabilidades e puede ser finita o bien infinita. a 1.. . o o o nos permiten representar a un mismo tiempo tanto los valores que puede tomar la variable como las probabilidades de los distintos eventos. Recordemos que es importante poder distinguir entre X y x. Sea X una variable aleatoria discreta que toma los valores x1 . . PROBABILIDAD 39 ticular. x2 .Parte 1. . Funciones de densidad y de distribuci´n o En esta secci´n vamos a explicar la forma de asociar a cada variable aleatoria dos o funciones que nos proveen de informaci´n acerca de las caracter´ o ısticas de la variable aleatoria.2) En palabras. . y toda funci´n de la forma (1. Denotaremos generalmente a una funci´n de o probabilidad con la letra f min´ scula. otro caso. con probabilidades respectivas P (X = x1 ). Esta notaci´n ser´ particularmente util cuando consideremos varias variables o a ´ aleatorias a la vez. o e y finalmente definiremos la funci´n de distribuci´n para ambos tipos de variables o o aleatorias. . o o a) f (x) ≥ 0.

Encontraremos el valor de la constante c que hace que la siguiente funci´n o sea de probabilidad.7. 3. 2. es decir.14 (b). o Ejercicio. c x si x = 0. respectivamente.   0 otro caso. con probabilidades 0. 2.3 (b) 2 0. Funciones de densidad y de distribucion Ejemplo. f (x) 0. 2 y 3. Grafique y compruebe que las siguientes funciones son de probabilidad. 1.5 0. 0. no especificada. son 0. a) f (x) = x2 /10.6. f (x) =  0. para x = −2.14 (a).14: Ejemplo. obtenemos la ecuaci´n c + 2c + 3c = 1.3 si x = 1.3. En e o esta representaci´n se entiende de manera impl´ o ıcita que f (x) es cero para cualquier valor de x distinto de 1. 2c y 3c.5 y 0.3 0. 0. Esta funci´n se muestra gr´ficamente en la Figura 1.5 3 0. 1.2 1 2 (a) 3 Figura 1. Considere la variable aleatoria discreta X que toma los valores 1. c. 2 y 3. Como la suma de estas probabilidades debe ser uno. De aqui obtenemos o c = 1/6. con probabilidades 0.2 x x f (x) 1 0. 2 y 3. una funci´n de probabilidad. f (x) = 0 otro caso.   0.2 si x = 3. compruebe que las siguientes probabilidades son correctas: P (X ≥ 2) = 0. y P (X < 1) = 0. . 1. P (|X| = 1) = 0. −1.3. Este es el valor de c que hace que f (x) sea no negativa y sume uno. Entonces la funci´n de probabilidad o de X es   0. Los posibles valores de la variable aleatoria discreta. En particular.2 respectivamente.5 si x = 2. Alternativamente poo a demos tambi´n expresar esta funci´n mediante la tabla de la Figura 1.40 ´ 1.

3). Decimos que la funci´n integrable y no negativa f (x) : R → [0. a Ejemplo. a o f (x) b P (X ∈ (a.Parte 1. V´ase la Figura 1. 5. a a) f (x) ≥ 0. otro caso. . b) de R se cumple la o igualdad b P (X ∈ (a. ∞) o es la funci´n de densidad de X si para cualquier intervalo (a. De esta forma el c´lculo de una probabilidad se reduce al c´lculo a a de una integral. PROBABILIDAD b) f (x) = (2x − 5)2 /70.15. −∞ Toda funci´n f (x) : R → [0. Sea X una variable aleatoria continua. se llamar´ funci´n de densidad. para x = 1.15: La probabilidad como un ´rea. b) se puede calcular o expresar como el ´rea bajo la funci´n de densidad en el a o intervalo (a. b)) = f (x) dx. 4. 3. b) ∞ f (x) dx = 1. a Es decir. para toda x ∈ R. 41 ´ Funcion de densidad para una variable continua. la probabilidad de que la variable tome un valor dentro del intervalo (a. b). 2. La funci´n f (x) dada por o f (x) = 1/2 0 si x ∈ (1. ∞) que satisfaga estas dos propiedades. sin necesidad o de tener una variable aleatoria de por medio. No es dif´ comprobar que toda funci´n de e ıcil o densidad f (x) de una variable aleatoria continua cumple las siguientes propiedades an´logas al caso discreto. b)) = a b x f (x) dx a Figura 1.

Observe que se trata a de una funci´n no negativa y cuya integral vale uno. . Encontraremos el valor de la constante c que hace que la siguiente funci´n o sea de densidad. b) f (x) = e−x .16. 1). a) f (x) = (x + 1)/2. o f (x) 1/2 x 1 2 3 4 Figura 1. Ejercicio. 0 Por lo tanto.16: Ejemplo.6. f (x) = 0 otro caso.42 ´ 1. Como esta funci´n debe integrar uno tenemos que o 1 1 1= −1 c |x| dx = 2 c x dx = c. c |x| si x ∈ [−1. y cuya gr´fica aparece en la Figura 1. 1]. 3). 1]. cuando tomamos c = 1 la funci´n del inciso (b) resulta ser una funci´n o o de densidad pues ahora cumple con ser no negativa e integrar uno. Grafique y compruebe que las siguientes funciones son de densidad. para x ∈ (−1. Se trata de una variable aleatoria continua que toma valores en el intervalo [−1. Funciones de densidad y de distribucion es una funci´n de densidad de una variable aleatoria continua que toma valores en o el intervalo (1. para x > 0.

17 (a). es decir.  u≤x  1 si x ≥ 3. la funci´n de distribuci´n evaluada en un n´ mero x o o u cualquiera es simplemente la probabilidad de que la variable aleatoria tome un valor menor o igual a x. con el nombre e de funci´n de acumulaci´n de probabilidad. Tenemos que la correspondiente funci´n de distribuci´n evaluada en x se calcula sumando las o o probabilidades P (X = u) para valores de u menores o iguales a x. F (x) F (x) 1 0. o en otras palabras.8 si 2 ≤ x < 3. La funci´n de distribuci´n de X. Sea X una variable aleatoria discreta o continua.Parte 1.8 0. por razones evidentes.17: 1 2 (b) 3 . que tome un valor en el intervalo (−∞. Este es el comportamiento t´ a ıpico de una funci´n de distribuci´n discreta. Considere la variable aleatoria discreta X de la Figura 1. Esto es. Siendo F (x) una probabilidad. es no decreciente.  si x < 1. o o Ejemplo. y si la o o funci´n tiene una discontinuidad en x. se define como o o F (x) = P (X ≤ x). F (x) = P (X ≤ x) = P (X = u) =  0.3 si 1 ≤ x < 2. entonces el tama˜ o de tal discontinuidad es o n exactamente la probabilidad de que la variable aleatoria tome ese valor. Con un par de ejemplo mostraremos la o o forma de calcular esta funci´n a partir de la funci´n de probabilidad o de densidad.14.  0   0. 1]. x]. denotada por F (x) : R → [0. cuya gr´fica aparece en la Figura 1. constante por pedazos. PROBABILIDAD 43 ´ ´ Funcion de distribucion. sus valores est´n siempre entre 0 y 1. Esta funci´n a o resulta ser importante y se le conoce tambi´n.3 x 1 x 1 2 (a) 3 Figura 1.

e) Si x1 ≤ x2 . En los dos ejemplos anteriores se ha mostrado la forma de obtener F (x) a partir de f (x). entonces F (x1 ) ≤ F (x2 ).  0 x (x − 1)/2 si 1 < x < 3. y cuando F (x) es diferenciaa ble. b) l´ F (x) = 1. An´logamente. . F (x−) = l´ F (x − h). es decir. Ejemplo. x F (x) = P (X ≤ x) = f (u) du. De este modo podemos encontrar f (x) a partir de F (x). Toda funci´n de distribuci´n F (x) satisface las siguientes propieo o o dades: a) 0 ≤ F (x) ≤ 1. Observe que esta funci´n es continua y a o no decreciente. con h > 0. en s´ o ımbolos.17 (b). d) Si x1 ≤ x2 . En el caso discreto. Funciones de densidad y de distribucion cuya gr´fica aparece en la Figura 1.44 ´ 1. f (x) = P (X = x) = F (x)−F (x−). en donde F (x−) es el l´ ıimite por la izquierda de la funci´n F en el punto x. Considere ahora la variable aleatoria continua X de la Figura 1. la expresi´n F (x+) significa el l´ a o ımite por la derecha de la funci´n F en el punto x. ım h→0 h→0 con h > 0.6. F (x+) = l´ F (x + h). Ahora explicaremos el proceso contrario. entonces P (x1 < X ≤ x2 ) = F (x2 ) − F (x1 ). En el caso continuo tenemos que para toda x en R. o ım Proposici´n. f) F (x) = F (x+). F ′ (x) = f (x). −∞ de modo que por el teorema fundamental del c´lculo.17 (b). ım x→∞ c) x→−∞ l´ ım F (x) = 0. La correspondiente funci´n de distribuci´n se obtiene calculando la siguiente integral o o  si x ≤ 1. F (x) = P (X ≤ x) = f (u) du =  −∞ 1 si x ≥ 3.

F (x) → P (X ≤ e ∞) = P (Ω) = 1. entonces (X ≤ x1 ) ⊆ (X ≤ x2 ). F (x + h) → F (x) + P (∅) = F (x). La propiedad d) significa que F (x) es una funci´n mon´tona no decreciente.7. cuando h → 0 con h > 0. en donde (X ≤ x1 ) ⊆ (X ≤ x2 ). o 45 a) Primeramente tenemos que F (x) es una probabilidad pues. la edad. Por lo tanto. cuando x → −∞. Si pudi´ramos considerar la totalidad de todos estos n´ meros para una persona e u en particular. Algo similar sucede con las ´ variables aleatorias. etc. momentos Todos los seres humanos tenemos caracter´ ısticas num´ricas que nos identifican y e nos distinguen de otras personas. ıo. o 1. Por lo tanto P (x1 < X ≤ x2 ) = P (X ≤ x2 ) − P (X ≤ x1 ) = F (x2 ) − F (x1 ). Por lo tanto se cumple la primera propiedad. d) Es suficiente observar que si x1 ≤ x2 . varianza. f) Para h > 0 tenemos que F (x + h) = P (X ≤ x + h) = P (X ≤ x) + P (x < X ≤ x + h). . En esta secci´n estudiaremos algunas caracter´ o ısticas num´ricas e asociadas a las variables aleatorias.Parte 1. e) Observe que el evento (x1 < X ≤ x2 ) puede descomponerse en la diferencia (X ≤ x2 ) − (X ≤ x1 ). Aplicando probabilidad obtenemos P (X ≤ x1 ) ≤ P (X ≤ x2 ). la identificar´ ıamos de manera unica. Esperanza. Mieno o tras que la propiedad f) establece que F (x) es una funci´n continua por la derecha. por definici´n. el conjunto (x < X ≤ x + h) tiende al conjunto vac´ Concluimos entonces que. de modo que cuando h tiende a cero. o F (x) = P (X ≤ x). b) Cuando x tiende a infinito el conjunto (X ≤ x) se aproxima al conjunto (X ≤ ∞) que es id´ntico a Ω. PROBABILIDAD Demostraci´n. c) An´logamente el conjunto (X ≤ x) se aproxima al conjunto (X ≤ −∞) = ∅ a cuando x tiende a menos infinito. peso. cuando x → ∞. talla. por ejemplo. F (x) → P (X ≤ −∞) = P (∅) = 0. estatura. por lo tanto.

momentos Esperanza. en donde la suma se efect´ a sobre todos los posibles valores que pueda tomar la u variable aleatoria. x -1 0 1 2 f (x) 1/8 4/8 1/8 2/8 La esperanza de X es el n´ mero u E(X) = x x f (x) −1 × 1/8 + 0 × 4/8 + 1 × 1/8 + 2 × 2/8 1/2. En este ejemplo el . Sea X una variable aleatoria discreta con funci´n de densidad dada por o la siguiente tabla. o Ejemplo. = = Observe que la suma su efect´ a para todos los valores de x indicados en la tabla. A la esperanza se le conoce tambi´n con los nombre de: media. −∞ suponiendo que esta integral es absolutamente convergente. varianza. Si la suma o integral anteriores no cumplen esta condici´n de convergencia absoluta. La esperanza de una variable aleatoria X es un n´ mero denotado por u E(X) y que se calcula como sigue: Si X es discreta.46 1.7. La esperanza de una variable aleatoria es entonces un n´ mero que indica el promedio ponderado de los diferentes valores que puede u tomar la variable. El n´ mero de sumandos puede ser finito o infinito dependiendo del conjunto de valores u de la variable aleatoria. La integral o suma arriba mencionados pueden no ser convergentes y en ese caso se dice que la variable aleatoria no tiene esperanza finita. e valor esperado o valor promedio. Esperanza. u es decir: −1. y se define cuando esta suma sea absolutamente convergente. La situaci´n o anterior se ilustra en los ejercicios 126 y 127. Si X es continua con funci´n de densidad f (x). entonces se dice o que la esperanza no existe. La esperanza es uno de los conceptos m´s importantes en probabilidad y tiene un amplio uso en las aplicaciones y otras a ramas de la ciencia. Ilustraremos a continuaci´n la forma de calcular la esperanza. 1 y 2. Tambi´n es instructivo observar que la esperanza no es necee sariamente uno de los valores tomados por la variable aleatoria. entonces E(X) = x xP (X = x). entonces o la esperanza es E(X) = ∞ xf (x) dx. 0. En general se usa la letra griega µ (mu) para denotarla.

Compruebe que la esperanza de esta variable aleatoria es cero. para −1 < x < 1.Parte 1. Compruebe que la esperanza de X es (n + 1)/2. . La esperanza de X es E(X) = ∞ −∞ 1 x f (x) dx = 0 x 2x dx = 2 3 x 3 1 = 0 2 . 47 Ejemplo. Si quisi´ramos calcular la esperanza de e e Y seg´ n la definici´n tendr´ u o ıamos que calcular y fY (y) dy. El o a siguiente resultado es muy util y nos dice c´mo calcular esta esperanza conociendo ´ o unicamente la funci´n de densidad de X. . Sea X una variable aleatoria continua y sea g : R → R una funci´n o o tal que g(X) es una variable con esperanza finita. siendo cero fuera de este intervalo. y tal que la probabilidad de que tome cualquiera de estos valores es 1/n. y ello en general no es f´cil. En algunos casos es necesario saber calcular la esperanza de una funci´n de una variable aleatoria. n}. (1. . ´ Esperanza de una funcion de una variable aleatoria. A veces se le refiere como el teorema del ´ o estad´stico inconsciente. 2. ı Proposici´n. PROBABILIDAD valor 1/2 nunca es tomado por la variable aleatoria. 1). entonces es claro que Y = X 2 es una funci´n o de X y es tambi´n una variable aleatoria. Sea X una variable aleatoria discreta con posibles valores en el conjunto {1. para lo cual se necesita encontrar primero la funci´n de densidad de Y .3) . o Ejercicio. 3 Observe que la integral s´lo es relevante en el intervalo (0. pero es su valor esperado. Considere una variable aleatoria continua X con funci´n de densidad o f (x) = |x|. Ejercicio. Por o ejemplo. si X es una variable aleatoria. . para x ∈ (0. pues fuera de dicho o intervalo la funci´n de densidad se anula. Entonces E[g(X)] = ∞ −∞ g(x)fX (x) dx. 1). Considere la variable aleatoria continua X con funci´n de densidad f (x) = o 2x.

en lugar de la integral e a aparece una suma. y X es la variable aleatoria continua del ejemplo anterior. Por la proposici´n anterior tenemos que o E(Y ) = = = 0 E(X 2 ) ∞ −∞ 1 x2 f (x) dx x2 2x dx 1 4 x 2 1 . Ahora calcule la misma esperanza pero usando (1. El resultado esta enunciado en o el caso continuo pero tambi´n es v´lido en el caso discreto. Calcularemos E(Y ) en donde Y = X 2 . asi es que la omitireo mos y nos concentraremos en su uso y aplicaci´n. . Sea X una variable aleatoria con funci´n de probabilidad dada por la o tabla que aparece abajo. momentos En general. o Ejercicio. la demostraci´n de este resultado es complicada. como un ejercicio. Encuentre la funci´n de probabilidad de X 2 y mediante o la definici´n calcule E(X 2 ).7. es decir.3). encuentre la funci´n de densidad de Y y calcule E(Y ) o usando la definici´n de esperanza. con funci´n de densidad f (x) = 2x pao ra x ∈ (0. 2 1 0 = = Ahora. Esperanza. o Ambos resultados deben coincidir. El resultado debe ser nuevamente 1/2. Ejemplo. 1).48 1. varianza. x f (x) -2 2/8 -1 1/8 0 2/8 1 1/8 2 2/8 He aqui algunas propiedades generales de la esperanza.

La a e ultima propiedad.  −∞ Observe que en una sola expresi´n la varianza se puede escribir como sigue: Var(X) = o E (X − E(X))2 .Parte 1. b) E(c X) = c E(X). La primera propiedad es evidente de demostrar pues si X es la variable aleatoria constante c. La varianza es una medida del grado de dispersi´n de los difeo rentes valores tomados por la variable. Nuevamente la anterior suma o integral puede no existir y en o a ese caso decimos que la variable aleatoria no tiene varianza finita. entonces E(X) ≥ 0. d) E(X + Y ) = E(X) + E(Y ). es decir. Observe que la segunda y cuarta e propiedad establecen que la esperanza es lineal. esto es σ. E(X) = c P (X = c) = c 1 = c. la constante c puede siempre colocarse fuera. Entonces o a) E(c) = c.    x  Var(X) = ∞     (x − E(X))2 f (x) dx si X es continua.   (x − E(X))2 f (x) si X es discreta. Ejemplo. c) Si X ≥ 0. en la e o integral o suma correspondiente solo aparecer´n t´rminos que son no negativos. no es sencilla de demostrar y a´ n en el caso discreto ´ u requiere de detalles t´cnicos que preferimos omitir. Se denota por Var(X) y se define como sigue. El segundo o inciso se sigue directamente de la definici´n de esperanza pues tanto en el caso o de la suma como en el caso de la integral. Se le denota regularmente por la letra σ 2 (sigma cuadrada). en cambio. Calcularemos la varianza de la variable aleatoria discreta X con funci´n o . se le llama ız desviaci´n est´ndar. Vamos ahora a definir otra caracter´ ıstica num´rica asociada a las vae riables aleatorias llamada varianza. separa sumas y tambi´n e separa multiplicaciones por constantes. A la ra´ cuadrada positiva de la varianza. Sean X y Y con esperanza finita y sea c una constante. El tercer inciso tambi´n es evidente pues cuando se cumple la hip´tesis. entonces por definici´n. Observemos que para calcular Var(X) necesitamos conocer primero E(X). Varianza. Veamos algunos ejemplos sencillos. PROBABILIDAD 49 Proposici´n.

(−1 − 1/2)2 × 1/8 + (0 − 1/2)2 × 4/8 Ejemplo. momentos de densidad dada por la siguiente tabla. En un c´lculo previo hab´ a ıamos encontrado que E(X) = 2/3. Calcularemos la varianza de la variable aleatoria continua X con funci´n o de densidad f (x) = 2x para x ∈ (0. (x4 /2 − 8x3 /9 + 4x2 /9) Ahora enunciamos algunas propiedades de la varianza. Var(X) = = 0 1 ∞ −∞ 1 (x − E(X))2 f (x) dx (x − 2/3)2 2x dx = 0 (2x3 − 8x2 /3 + 8x/9) dx 1 0 = = 1/18. Aplicando la a definici´n de varianza tenemos que o Var(X) = x (x − E(X))2 f (x) = = +(1 − 1/2)2 × 1/8 + (2 − 1/2)2 × 2/8 1.50 1.7. 1). x f (x) -1 1/8 0 4/8 1 1/8 2 2/8 Recordemos primeramente que por c´lculos previos. varianza. Por lo tanto. E(X) = 1/2. . Esperanza.

y sea c una constante. El inciso (d) se sigue del siguiente an´lisis: a Var(X + c) = = = E[(X + c) − E(X + c)]2 E[X − E(X)]2 Var(X). PROBABILIDAD 51 Proposici´n. de modo que E(c) = c y entonces ´ Var(X) = E(c − c)2 = 0. Sean X y Y dos variables aleatorias. = E[cX − cE(X)]2 Para demostrar la propiedad (e) se desarrolla el cuadrado en la definici´n de vao rianza. Demostraci´n. Para el inciso (c) tenemos que Var(cX) = E[cX − E(cX)]2 = c2 E[X − E(X)]2 = c2 Var(X). f) En general. .Parte 1. d) Var(X + c) = Var(X). Para el inciso (b) e la constante c es una v. Var(X + Y ) = Var(X) + Var(Y ). c) Var(c X) = c2 Var(X). con un unico valor. y se usa la propiedad de linealidad de la esperanza: Var(X) = = = = E[X − E(X)]2 E[X 2 − 2XE(X) + E 2 (X)] E(X 2 ) − 2E(X)E(X) + E 2 (X) E(X 2 ) − E 2 (X). b) Var(c) = 0. El inciso (a) es evidente a partir de la definici´n de varianza pues o o en ella aparece una suma o integral de t´rminos no negativos. Eno tonces a) Var(X) ≥ 0.a. e) Var(X) = E(X 2 ) − E 2 (X).

Momentos. . cuando existe. Distribuciones de probabilidad Estudiaremos a continuaci´n algunas distribuciones de probabilidad de variables o aleatorias importantes. Estas distribuciones son modelos particulares para asignar probabilidades a subconjuntos de n´ meros reales. para variables aleatorias continuas y e discretas respectivamente.    −∞ E[(X − µ)n ] =    (x − µ)n f (x) . Finalmente definimos el n-´simo momento de una variable aleatoria e X. Observe que el primer momento de X es simplemente la media. Tenemos entonces que si X es una variable aleatoria con funci´n de densidad o de probabilidad f (x) entonces el no ´simo momento de X. Distribuciones de probabilidad Finalmente para demostrar la propiedad (f ) es suficiente dar un ejemplo.52 1. como indican las siguientes f´rmulas: o  ∞   (x − µ)n f (x) dx.8. si existe. .    −∞ E(X n ) =    xn f (x) .8. xn } o u . en general y por lo demostrado antes. es el n´ mero E[(X − µ)n ]. se calcula como sigue: e  ∞   xn f (x) dx. ´ Distribucion uniforme discreta. Decimos que una variable aleatoria X tiene una distribuci´n uniforme discreta sobre el conjunto finito de n´ meros {x1 . para cualquier valor natural de n. . Puede tomarse el caso Y = X. no se cumple que Var(2X) = 2 Var(X). cuando existe.   x El n-´simo momento central de X se calcula. El u n-´simo momento central de X. .   x 1. Empezaremos con las distribuu ciones de tipo discreto y continuaremos despu´s con las de tipo continuo. y el segundo momento central es la varianza. Es ime portante se˜ alar que ´sta es s´lamente una lista parcial de algunas distribuciones n e o de probabilidad de mayor uso. como el n´ mero E(X n ). en donde e u µ = E(X).

Escribimos entonces X ∼ unif{x1 . x2 . esto es. 0. la gr´fica de la funci´n de probabilidad de la distribuci´n unif{1. ´ Distribucion Bernoulli. 1/n. 3. Los juegos de loter´ son un ejemplo donde puede aplicarse ıa esta distribuci´n de probabilidad. xn } si o P (X = x) = 1/n si x = x1 . Al generar un n´ mero aleatorio en una computadora dentro del intervalo u unitario [0.Parte 1. y la misma situaci´n o se presenta. 0. entonces s´lo se o o pueden generar los 101 n´ meros : 0. Un ensayo Bernoulli se define como aquel experimento aleatorio con unicamente dos posibles resultados. . junto con la correspondiente funci´n de distribuci´n.18: 1 2 3 4 5 Ejemplo.02. Es f´cil ver que E(X) = o o n a n n 1 1 2 i=1 xi . . y debido a que la precisi´n de la computadora es necesariamente o finita. . PROBABILIDAD 53 si la probabilidad de que X tome cualquiera de estos valores es la misma. 1].99. . 1. 0 otro caso.00. Por ejemplo. y escribimos X ∼ Ber(p). si la precisi´n de la computadora fuera de dos decimales.00. se obtienen siempre valores dentro de un conjunto finito de elementos. llamados gen´ricamente ´xito y ´ e e fracaso. x2 . en o situaciones en donde tenemos n resultados diferentes y todos ellos tienen la misma probabilidad de ocurrir. n f (x) F (x) 1/5 1 x x 1 2 3 4 5 Figura 1.. es decir. . . Esta distribuci´n surge en espacios de probabilidad equiprobables. La funci´n de probabilidad es a o . 0. La precisi´n de una u o computadora es naturalmente mayor pero siempre es finita. .. Cao o da salto de la funci´n de distribuci´n es de tama˜ o 1/5. y Var(X) = n i=1 (xi − E(X)) . 4. Si se define la variable aleatoria X como aquella funci´n que lleva el resultado ´xito al n´ mero 1 y el resultado o e u fracaso al n´ mero 0. 5} a o o aparece en la Figura 1. entonces decimos que X tiene una distribuci´n Bernoulli con u o par´metro p ∈ (0. xn . con probabilidades respectivas p y 1 − p. 2. . . . Por ejemplo.18.01. 1).

Distribuciones de probabilidad P (X = x) = px (1 − p)1−x 0 si x = 0. etc. es decir. Si denotamos por E el resultado ´xito y por F el resultado e . y sea A ⊆ Ω un evento tal que P (A) = p. ¿Cu´l es la distribuci´n de 1 − X? o a o Ejemplo. La gr´fica de la funci´n de densidad de esta distribuci´n para p =0. donde surge esta distribuci´n.19: 1 Ejemplo. o o f (x) F (x) 1 0.7 aparece en a o o la Figura 1. es de amplia aplicaci´n.7 0. En la realizaci´n de o todo experimento aleatorio siempre es posible preguntarnos por la ocurrencia o no ocurrencia de un evento cualquiera. Considere el experimento aleatorio de lanzar una moneda al aire. otro caso. Sea X la variable aleatoria dada por X(ω1 ) = 1. Sea X la variable aleatoria dada por X(ω) = 1A (ω).19.54 entonces 1. Entonces X tiene distribuci´n Ber(p). Por ejemplo. que aunque sencilla. En este caso o o es muy sencillo verificar que E(X) = p y Var(X) = p(1 − p). y X(ω) = 0 si ω ∈ Ac .3 x 0 1 Figura 1. ganar o no ganar en un juego de loter´ que llueva o no llueva hoy por la tarde. y X(ω2 ) = 0.3 x 0 1 0.8. 1. junto con la correspondiente funci´n de distribuci´n. Suponga que ω1 y ω2 son los dos resultados posibles. Supongamos ahora que tenemos una serie de n ensayos independientes Bernoulli en donde la probabilidad de ´xito en cualesquiera de e estos ensayos es p. con probabilidades p y 1 − p. o ´ Distribucion binomial. Esta es la funci´n indicadora del o conjunto A. Sea Ω el espacio muestral de un experimento aleatorio. Entonces X tiene distribuci´n Ber(p). X(ω) = 1 si ω ∈ A. respectivamente. Este es el esquema general ıa.

Queremos que en n ensayos Bernoulli se obtengan x ´xitos y n − x fracasos.2334. tenemos entonces que e multiplicar por las diferentes formas en que estos x ´xitos pueden distribuirse en los e n ensayos. X(EF F EEE · · · ) = 0. . X(F E · · · EE) = n − 1. para n = 10 ensayos. esto u e es. en cada uno de los cuales la probabilidad de ´xito es p. Si ahora definimos la variable aleatoria X como aquella que cuenta el n´ mero de ´xitos en cada una de estas sucesiones. x P (X = x) =  0 otro caso. Decimos entonces que X tiene una distribuci´n o geom´trica con par´metro p. . 1. X(F F F EF E · · · ) = 3. . p).Parte 1. a   n px (1 − p)n−x si x = 0. . . 1. y escribimos X ∼ bin(n. . . 2. Para esta distribuci´n puede o x demostrarse que E(X) = np. . se puede calcular P (X = 2) = 10 (0. x n−x fracaso. con probabilidad p =0. n con las probabilidades que aparecen abajo. . n. X(F F · · · F F ) = 0. Por ejemplo. entonces el espacio muestral consiste de todas las posibles sucesiones de longitud n de caracteres E y F. 2. X(EE · · · EE) = n. para p =0. es f´cil ver que a el conjunto Ω tiene 2n elementos.21.. Usando el principio multiplicativo. La f´rmula anterior puede a o justificarse de la forma siguiente. 1. 2. este factor es el coeficiente binomial n . . Supongamos que tenemos ahora una sucesi´n infinie o ta de ensayos independientes Bernoulli. .4. PROBABILIDAD 55 Por ejemplo. la gr´fica de esta funci´n se muestra en la Figura 1. Por ejemplo.7)10−2 = 0. . . 1. y Var(X) = np(1 − p). . La gr´fica de esta funci´n de probabia o 2 lidad con estos par´metros aparece en la Figura 1. entonces tenemos que X puede tomar los valores 0. . 2. La probabilidad de obtener ´sto es el n´ mero e e u p · · · p (1 − p) · · · (1 − p) = px (1 − p)n−x . ´ Distribucion geom´trica. pero hemos colocado los x ´xitos en los primeros x ensayos. a o El nombre de esta distribuci´n proviene del hecho de que cuando escribimos la o .20.3. . y escribimos X ∼ geo(p) cuando e a P (X = x) = p (1 − p)x 0 si x = 0.3)2 (0. Decimos entonces que X tiene una distribuci´n binomial con o par´metros n y p. Para cada una de estas sucesiones definimos la variable aleatoria e X como el n´ mero de fracasos antes de obtener el primer ´xito. u e X(F EF EF F · · · ) = 1. Observamos que X puede tomar los valores 0. La probabilidad de que X tome el valor entero x ≥ 0 es p(1 − p)x . otro caso. .

Para o e esta distribuci´n tenemos que E(X) = (1 − p)/p. Una persona participa cada semana con un boleto en un juego de loter´ ıa en donde la probabilidad de ganar el primer premio es p = 10−6 = 1/1. La inspecci´n e o sucesiva de art´ ıculos hasta encontrar una defectuoso.8.4 0.21: En algunos textos se define la distribuci´n geom´trica contando el n´ mero de eno e u sayos (no el de fracasos). la distribuci´n se desplaza hacia la derecha una unidad. Ejercicio. e es decir.1 x p = 0. 000. puede modelarse usando una distribuci´n geom´trica.2 0. En este caso la variable es X + 1. antes del primer ´xito.1 n = 10 p = 0.2 0.3 0. o f (x) 0.3 x 1 2 3 4 5 6 7 8 9 10 Figura 1. obtenemos una suma geom´trica.3 0.20: suma de todas las probabilidades.56 1. posiblemente en un proceso de control de calidad. y Var(X) = (1 − p)/p2 . la esperanza es o ahora 1/p y la varianza permanece constante (1 − p)/p2 . 000.4 1 2 3 4 5 6 7 8 9 10 Figura 1. . Distribuciones de probabilidad f (x) 0.

   . por ejemplo. Demuestre que la o funci´n de distribuci´n de X es o o  si x < 0. F (x) = . Es claro entonces que X puede tomar los valores 0. x! P (X = x) =  0 otro caso.. . que denotamos por la letra λ (lambda). 1. Supongamos que deseamos observar el n´ mero de ocuu rrencias de un cierto evento dentro de un intervalo de tiempo dado.. En promedio se reciben 2 peticiones de acceso a una p´gina web durante a . Sea X una variable aleatoria con distribuci´n geo(p).22 cuando λ = 2.. . . 2. El par´metro λ es positivo e a y se interpreta como el n´ mero promedio de ocurrencias del evento.Parte 1.. PROBABILIDAD 57 ¿Cu´ntos a˜ os en promedio debe esta persona participar en el juego antes de oba n tener el primer premio? Ejercicio. La forma de esta funci´n se muestra en o la Figura 1. el n´ mero de clientes que llegan a un cajero autom´tico durante la noche.. por unidad u de tiempo. Puede demostrarse que la funci´n f (x) arriba definida es efectivamente una funci´n o o de probabilidad para cada valor de λ > 0. y Var(X) = λ.    1 − (1 − p)k+1 si k ≤ x < k + 1. Despu´s de algunos c´lculos sencillo puede tambi´n e a e comprobarse que E(X) = λ. 1. . aleatoria X como el n´ mero de ocurrencia de este evento en el intervalo de tiempo u dado. . ´ Distribucion Poisson. Ejemplo. y escribimos X ∼ Poisson(λ) cuando a  x  e−λ λ si x = 0. o tal vez u a deseamos registrar el n´ mero de accidentes que ocurren en cierta avenida duranu te todo un d´ Para modelar este tipo de situaciones podemos definir la variable ıa. Adiu cionalmente supongamos que conocemos la tasa media de ocurrencia del evento de inter´s. Decimos que X tiene una distribuci´n Poisson a o o con par´metro λ > 0.  0    1 − (1 − p)1 si 0 ≤ x < 1. La probabilidad de que la variable aleatoria X tome un valor entero x ≥ 0 se definir´ a continuaci´n... 2..    1 − (1 − p)2 si 1 ≤ x < 2. y en principio no ponemos una cota superior para el n´ mero de observaciones del evento. .  .. .

Sugerencia: Use la distribuci´n Poisson como aproximaci´n de la distribuci´n o o o binomial. En promedio uno de cada 100 focos producido por una m´quina es defeca tuoso. a o Ejemplo. Esto es o a particularmente util pues el c´lculo de probabilidades de la distribuci´n binomial ´ a o involucra el c´lculo de factoriales y ello puede ser computacionalmente dif´ a ıcil.323 Puede adem´s demostrarse que cuando X ∼ bin(n.58 1. Distribuciones de probabilidad f (x) 0. la distribuci´n binomial puede o ser aproximada mediante la distribuci´n Poisson de par´metro λ = np. y supongamos o u que X tiene distribuci´n Poisson(λ).3 0.1 x λ =2 1 2 3 4 5 6 7 8 Figura 1. p) y hacemos tender n a infinito a y p a cero de tal forma que el producto np se mantenga constante igual a λ. Soluci´n: Sea X el n´ mero de peticiones por minuto. Un ejemplo ilustrar´ esta situaci´n.22: un minuto cualquiera.135. Para el segundo inciso. Hemos definido a la variable aleatoria Poisson como el n´ mero de ocurrencias de u un cierto evento dentro de un intervalo de tiempo dado. o a Este resultado sugiere que cuando n es grande.8. Para el primer inciso se tiene que o P (X = 0) = e−2 20 /0! =0. entonces la variable aleatoria X adquiere la distribuci´n Poisson con par´metro λ. Calcule la probabilidad de encontrar 5 focos defectuosos en un lote de 1000 focos. con λ = 2. b) se reciban mas de a dos peticiones. P (X > 2) = 1 − P (X ≤ 2) = 1 − (P (X = 0)+ P (X = 1)+ P (X = 2)) = 1 − e−2 (20 /0!+ 21/1!+ 22/2!) =0. supongamos de longitud .2 0. Utilice el modelo Poisson para calcular la probabilidad de que en un minuto dado a) nadie solicite acceso a la p´gina.

y cualquier entero natural x se define x = a(a−1) · · · (a− u n+x−1 x + 1)/x! Puede demostrarse la identidad = (−1)x −n . La definici´n de coeficiente binomial puede extenderse del siguiente modo: Para o a cualquier n´ mero real a. con λ = 6.5. . Suponga ahora que nos interesa observar las ocurrencias del evento en un intervalo de longitud diferente. p). y finalmente el factor r+x−1 que nos dice las diferentes formas en que x los r ´xitos pueden aparecer en los r + x − 1 ensayos realizados antes del ultimo que e ´ necesariamente fue un ´xito. ´ Distribucion binomial negativa. con t > 0. cuyos dos resultados son . x P (X = x) =  0 otro caso. Entonces o a) La probabilidad de que no llegue ning´ n avi´n en un periodo de 20 minutos es u o P (X = 0). entonces el n´ mero de ocurrencias del evento en el intervalo u [0. 2. . La gr´fica de esta funci´n aparece en la Figura 1.2. [0. PROBABILIDAD 59 unitaria. de ah´ el t´rmino e u ı e (1 − p)x . b) La probabilidad de que llegue s´lo un avi´n en el minuto o o siguiente es P (X = 1). 1]. Veamos un ejemplo. o   r + x − 1 pr (1 − p)x si x = 0. Podemos tener un n´ mero variable de fracasos. Aparece el t´rmino pr pues la sucesi´n de ensayos Bernoulli no concluye sino hasta e o obtener r ´xitos. Se lanza repetidas veces una moneda honesta. con λ =4. Es claro que esta distribuci´n es una generalizaci´n de la distribuci´n geom´trica. . o Ejemplo. De este hecho x x adquiere su nombre esta distribuci´n. El n´ mero de aviones que llegan a un aeropuerto internacional tiene una u distribuci´n Poisson con una frecuencia de 3 aviones cada 10 minutos. 2. . Si en una sucesi´n infinita de ensayos Bero noulli la variable aleatoria X cuenta el n´ mero de fracasos antes de obtener el u r-´simo ´xito. e o a Por ejemplo. c) La probabilidad de que lleguen dos o mas aviones en un periodo de 15 minutos es P (X ≥ 2). con probabilidades como se indica a continuaci´n. .Parte 1. entonces decimos que X tiene una distribuci´n binomial negativa e e o con par´metros r y p. y escribimos X ∼ bin neg(r. 2] tiene distribuci´n Poisson(λt). si t = 2. Se puede adem´s demostrar que E(X) = r(1 − p)/p a y Var(X) = r(1 − p)/p2 . 1. 1. con λ = 3/10. .23 e a o cuando r = 3 y p =0. por ejemplo [0. Tal conteo de ocurrencias tambi´n sigue una distribuci´n Poisson pero esta vez de par´metro λt. En este caso tenemos que X a puede tomar los valores 0. o Ejemplo. la o o o e cual se obtiene tomando r = 1. t].

entonces X puede tomar los valores 0. Por lo tanto. El espacio muestral de este experimento consiste de todas las posibles muestras de tama˜ o n que se pueden obtener del conjunto mayor de tama˜ o N . K. . 1. . n. 1. La probabilidad de que X tome un valor x estar´ dada por la f´rmula que enunciaa o mos a continuaci´n.60 1.06 0. . suponiendo n ≤ K. Distribuciones de probabilidad f (x) 0. n. Entonces X ∼ bin neg(r. 2 ´ Distribucion hipergeom´trica.04 0.46875 . Decimos que X tiene una distribuci´n hipergeom´trica con o o e par´metros N . El t´rmino K nos dice las diferentes formas en que de los K objetos de la primera e x clase se pueden escoger x de ellos. p = 1/2. . . La cardinalidad n n del espacio muestral es N . Supongamos que tenemos un conjunto de N e objetos de los cuales K son de una primera clase y N − K son de una segunda clase. la muestra es sin reemplazo y el orden de los objetos seleccionados no importa.8.23: cara y cruz.2 5 10 15 20 25 30 Figura 1. K y n. y escribimos X ∼ hipergeo(N. y el t´rmino N −K es nuevamente las diferentes e n−x . . . y nos preguntan P (X = 2). ¿Cu´l es la probabilidad de obtener la tercera cruz en el quinto lanzaa miento? Soluci´n: Sea X el n´ mero de caras (fracasos) antes de obtener la tercera o u cruz. 2. Si para cada muestra definimos la variable aleatoria n X como el n´ mero de objetos de la primera clase contenidos en la muestra selecu cionada. p) con r = 3.02 x r=3 p = 0. . n) si a  K N −K  x n−x  si x = 0. Supongamos que de este conjunto tomamos una muestra aleatoria de tama˜ o n n. N P (X = x) = n   0 otro caso. P (X = 2)= 6 (1/2)5 = 15/32= 0.

La gr´fica de esta funci´n de densidad para ciertos valores de a o los par´metros aparece en la Figura 1. PROBABILIDAD 61 formas de escoger n − x objetos de la totalidad de N − K objetos de la segunda clase. xn . o Distribuci´n uniforme o f (x) = 1/n para x = x1 .24: Con esto concluimos la revisi´n de algunas distribuciones de probabilidad de tio po discreto. a n Media: i=1 xi /n.2 0. En este caso es posible comprobar que a −K E(X) = nK/N . . . Varianza: p(1 − p). . n. 1). y Var(X) = n K NN N −n .24. .3 0. Usamos el principio multiplicativo para obtener el n´ mero total de muestras u diferentes en donde x objetos son de la primera clase y n − x objetos son de la segunda clase. Par´metros: x1 . Par´metro: p ∈ (0. . a Media: p. . Presentamos en la siguiente tabla un resumen de las distribuciones discretas mencionadas en esta secci´n. . 1.4 0. n Varianza: i=1 (xi − µ)2 /n. xn .1 x N = 20 K=7 n=5 0 1 2 3 4 5 Figura 1. N N −1 f (x) 0.Parte 1. . . Distribuci´n Bernoulli o f (x) = px (1 − p)1−x para x = 0.

a Media: np. . Decimos que una variable aleatoria X tiene una distribuci´n uniforme continua en el intervalo (a. . b). . Ahora estudiaremos algunas distribuciones de probabilidad de variables aleatorias continuas. mas bien. .62 1. n. Par´metros: r ∈ N. para x = 0. 2. a Media: r(1 − p)/p. a Media: λ. . 1). 1. . . pr (1 − p)x Distribuci´n hipergeom´trica o e f (x) = K x N −K n−x / N n para x = 0. Varianza: λ. 1. n. . Varianza: nK(N − K)(N − n)/(N 2 (N − 1)). Par´metro: p ∈ (0. . 2. Distribuci´n Poisson o f (x) = λx x! px (1 − p)n−x e−λ para x = 0. . en algunos casos mostraremos la forma de obtener o estas distribuciones a partir de considerar ciertas funciones de variables aleatorias conocidas. Varianza: r(1 − p)/p2 . No construiremos estas distribuciones a partir de experimentos aleatorios particulares como en el caso de las distribuciones discretas. 1). las definiremos sin mayor justificaci´n. . . Par´metros: N. Distribuciones de probabilidad Distribuci´n binomial o f (x) = n x Distribuci´n geom´trica o e f (x) = p (1 − p)x para x = 0. K. . y escribimos X ∼ o . 1. ´ Distribucion uniforme continua.8. 1. Par´metros: n ∈ N. p ∈ (0. a Media: nK/N. Par´metro: λ > 0. 1. n. Distribuci´n binomial negativa o f (x) = r+x−1 x para x = 0. p ∈ (0. . Varianza: np(1 − p). 2. a Media: (1 − p)/p. Varianza: (1 − p)/p2 . 1). . . .

y por el contrario. n o a y sea usa naturalmente para cuando no se conoce mayor informaci´n de la variable o aleatoria de inter´s. excepto que toma valores continuos dentro de alg´ n intervalo. y est´ dada por o a  si x < a. que corresponde al punto medio del intervalo a (a. En este caso o es muy f´cil encontrar la correspondiente funci´n de distribuci´n. cuando los par´metros estan a muy cercanos.Parte 1. Adem´s Var(X) = (b − a)2 /12. y es evidente que a o se trata de una funci´n de densidad pues es no negativa e integra uno.25(b). Ejercicio. En el experimento aleatorio te´rico de generar un n´ mero al azar X en o u el intervalo unitario (0. b) es la que aparece en la Figura 1. 1) se considera regularmente que X tiene distribuci´n unio forme en dicho intervalo. PROBABILIDAD unif(a. 63 La gr´fica general de esta funci´n se muestra en la Figura 1. b). Compruebe que la funci´n de distribuci´n de una variable aleatoria con o o distribuci´n unif(a. e u f (x) 1 b−a F (x) 1 x a (a) b a (b) b x Figura 1. b−a f (x) =  0 otro caso. Los par´metros de esta distribuci´n son los n´ meros a < b. F (x) =  1 si x ≥ b.  0 (x − a)/(b − a) si a ≤ x < b. de modo que la varianza o dispersi´n crece a o cuando a y b se alejan uno del otro. y ´sta se muestra a o o e en la Figura 1. b).25: Ejemplo. b). .25(b). la varianza es peque˜ a. Esta distribuci´n es una de las m´s sencillas. Es a o u f´cil verificar que E(X) = (a + b)/2. cuando su funci´n de densidad es o   1 si x ∈ (a.25(a).

181 . 1 Soluci´n: Para el primer inciso tenemos que P (X < 1) = 0 1/5 e−x/5 dx=0. La gr´fica de esta funci´n cuando el par´metro λ toma el valor particular 3. Suponga que el tiempo en minutos que un usuario cualquiera permanece revisando su correo electr´nico sigue una distribuci´n exponencial de par´metro o o a λ = 1/5.8.26: Ejemplo. Compruebe que la o . Esta distribuci´n se ha usado para modelar tiempos o de espera para la ocurrencia de un cierto evento. y Var(X) = 1/λ2 . b) mas de un ahora. es a o a la que se muestra en la Figura 1.64 1.26(a).0000061 . Ejercicio. y escribimos X ∼ exp(λ). P (X > 60)= 60 1/5 e−x/5 dx=0. Decimos que una variable aleatoria continua X tiene una distribuci´n exponencial con par´metro λ > 0. f (x) F (x) 1 3 2 1 1 (a) λ=3 x x 1 (b) Figura 1. La correspondiente funci´n de distribuci´n o o aparece a su derecha. o a cuando su funci´n de densidad es o f (x) = λ e−λx 0 si x > 0. o ∞ Para el segundo inciso. Sea X una variable aleatoria con distribuci´n exp(λ). si x ≤ 0. Calcule la probabilidad de que un usuario cualquiera permanezca conectado al servidor de correo a) menos de un minuto. Es muy sencillo verificar que la funci´n f (x) arriba definida es o efectivamente una funci´n de densidad para cualquier valor del par´metro λ > 0. Distribuciones de probabilidad ´ Distribucion exponencial. o a Aplicando el m´todo de integraci´n por partes puede tambi´n comprobarse que e o e E(X) = 1/λ.

si x ≤ 0. Γ(n) f (x) =  0 si x ≤ 0. Esta funci´n no u o es el tipo de funciones a las que estamos acostumbrados en los cursos de matem´tia cas en donde regularmente se conoce la expresi´n exacta de una cierta funci´n y o o . PROBABILIDAD funci´n de distribuci´n de X es la siguiente. y escribimos X ∼ gama(n.27: 1 2 3 4 5 6 (a) n = 5 (b) λ = 3 En la expresi´n anterior aparece el t´rmino Γ(n). o o e F (x) = 1 − e−λx 0 si x > 0. La variable aleatoria continua X tiene una distribuci´n gama o con par´metros n > 0 y λ > 0. λ).27. V´ase la Figura 1. f (x) λ=5 λ=4 λ=3 n=5 n=7 n = 10 f (x) 1/2 1/2 x x 1 2 3 4 5 6 Figura 1. 65 ´ Distribucion gama. para cualquier n´ mero real n tal que esta integral sea convergente.26(b).Parte 1. si su funci´n de a o densidad es  n−1  (λx) λe−λx si x > 0. La gr´fica de esta funci´n de densidad para varios valores de los par´metros se a o a muestra en la Figura 1. Esta es la funci´n gama que se o e o define como la siguiente integral Γ(n) = 0 ∞ tn−1 e−t dt.

En efecto. b) = Γ(a)Γ(b) . y de all´ adquiere su nombre e o ı esta distribuci´n. El nombre de esta distribuci´n se deriva del hecho de que en su definici´n aparece o o la funci´n gama. b). obtenemos la distribuci´n exponencial con par´metro λ. La funci´n beta se define como sigue o o B(a. ´ Distribucion beta. b) = 0 xa−1 (1 − x)b−1 dx. a o a Resolviendo un par de integrales se puede demostrar que E(X) = n/λ. si en la distribuci´n gama tomamos o o el par´metro n igual a 1. b) f (x) =  0 otro caso. s´lo para o algunos pocos valores. Decimos que la variable aleatoria continua X tiene una distribuci´n beta con par´metros a > 0 y b > 0. c) Γ(2) = Γ(1) = 1. para n´ meros reales a > 0 y b > 0. √ d) Γ(1/2) = π. y escribimos X ∼ beta(a. En este caso. Afortunadamente no evaluaremos esta integral para cualquier valor de n. b) se conoce como la funci´n beta. para evaluar la funci´n gama o o es necesario substituir el valor de n en el integrando y efectuar la integral infinita. Distribuciones de probabilidad se utiliza esta expresi´n para evaluarla. 1 El t´rmino B(a. y Var(X) = n/λ2 . Esta funci´n est´ relacionada con la funci´n u o a o gama a trav´s de la identidad e B(a. B(a.8. 1). b) Γ(n + 1) = n! si n es entero. Γ(a + b) . y nos ayudaremos de las siguientes propiedades: a) Γ(n + 1) = n Γ(n). cuando o a su funci´n de densidad es o  1  xa−1 (1 − x)b−1 si x ∈ (0. principalmente enteros. Observemos adem´s que la distribuci´n exponencial es un caso o a o particular de la distribuci´n gama.66 1.

Parte 1. decimos que la variable aleatoria X tiene una distribuci´n normal o est´ndar si tiene una distribuci´n normal con par´metros µ = 0 y σ 2 = 1. ´ f (x) σ x µ Figura 1. Decimos que la variable aleatoria continua X tiene una distribuci´n normal si su funci´n de densidad est´ dada por la siguiente expresi´n o o a o 2 2 1 f (x) = √ e−(x−µ) /2σ . y ello significa que la campana esta centrada en este valor. o . ´ Distribucion normal. En este a o a caso la funci´n de densidad se reduce a la expresi´n o o 2 1 f (x) = √ e−x /2 . 2π Es posible transformar una variable aleatoria normal no est´ndar en una est´ndar a a mediante la siguiente operaci´n. Escribimos entonces X ∼ N(µ. el cual puede ser negativo. por o o lo tanto la campana se abre o se cierra de acuerdo a la magnitud de este par´metro. a La gr´fica de esta funci´n de densidad tiene forma de campana como se puede a o apreciar en la Figura 1. Esta es posiblemente la distribuci´n de probabilidad de o mayor importancia. positivo o cero. 2 2πσ en donde µ ∈ R y σ > 0 son dos par´metros. σ 2 ).28: No es inmediato pero es posible demostrar que E(X) = µ. y Var(X) = ab/((a + b + o 1)(a + b)2 ). en donde se muestra adem´s el significado geom´trico a e de los dos parmetros. y que la distancia del punto µ a e cualquiera de los dos puntos en donde la funci´n tiene puntos de inflexi´n es σ.28. Tambi´n puede demostrarse que Var(X) = σ 2 . PROBABILIDAD 67 V´ase la secci´n de ejercicios para una lista de propiedades de esta funci´n. a En particular. b) se tiene que E(X) = a/(a + b). Para e o o la distribuci´n beta(a.

De esta forma una probabilidad que involucra a la variable X se ha reducido a una probabilidad que involucra a Z. Es tambi´n com´ n denotar la funci´n de e u o distribuci´n de Z como Φ(x). sin importar el m´todo de integraci´n que se utilice. A partir de (1. Se deja como ejercicio al lector e demostrar la proposici´n anterior. Es com´ n usar o u la letra Z para denotar una variable aleatoria con distribuci´n normal est´ndar. σ 2 ). Suponga que X es una vaa o a riable aleatoria con distribuci´n N(µ. La proposici´n anterior parece muy modesta pero tiene una gran importancia opeo racional pues establece que el c´lculo de las probabilidades de una variable aleaa toria normal cualquiera se reduce al c´lculo de las probabilidades para la normal a est´ndar. (1. y bajo tal o o transformaci´n se dice que la variable X ha sido estandarizada. Distribuciones de probabilidad Proposici´n. 2π cuyo significado geom´trico se muestra en la Figura 1. no es posible encontrar e o una expresi´n exacta para esta integral. Sea X una variable aleatoria con distribuci´n normal con par´meo o a tros µ y σ 2 . o P (a < X < b). y que deseamos calcular. Entonces la siguiente variable aleatoria tiene una distribuci´n noro mal est´ndar. Es necesario decir e que.8. es decir. a X −µ Z= . por lo menos o compruebe mentalmente las siguientes dos propiedades. σ σ La igualdad de estas probabilidades es consecuencia de la igualdad de los eventos.68 1. o x Φ(x) = P (Z ≤ x) = −∞ 2 1 √ e−u /2 du. por ejemplo. pero usando m´todos num´ricos pueden o e e . para a < b n´ meros dados. y si ello no es posible por ahora. Ejercicio.4) σ A la operaci´n anterior se le conoce con el nombre de estandarizaci´n. Tenemos entonces que u P(a < X < b) = P(a − µ < X − µ < b − µ) a−µ X −µ b−µ = P( < < ) σ σ σ b−µ a−µ = P( <Z< ).4) compruebe que E(Z) = 0 y Var(Z) = 1. o a y seguiremos nosotros tambi´n esa costumbre. Explicaremos esta situaci´n con m´s detalle.29(a).

tenemos entonces que Φ(1. Cada rengl´n de o esta tabla corresponde a un valor de x hasta el primer d´ ıgito decimal. Demuestre que Φ(−x) = 1 − Φ(x). c) P (X > 10). es decir. Ejercicio.49? ¿C´mo se podr´ calcular a o ıan los valores de Φ(x) para x negativos? f (x) f (x) Φ(x) α x x (a) (b) zα x Figura 1. Calcule o a) P (X ≤ 7). b) P (0 < X < 5).45. 1).9505 b) Φ(−1.05 o corresponden al valor 1.65) = 0.4 y la columna marcada con 0.1587 Ejercicio.45) =0.0495 c) Φ(−1) = 0.75 .3 . ¿Cu´nto vale Φ(x) para x > 3. Encuentre x tal que a) Φ(x) = 0. las distintas columnas corresponden al segundo d´ ıgito decimal. En una tabla al final del texto aparece una tabla con estos valores aproximados. Use la tabla de la distribuci´n normal est´ndar para comprobar que o a a) Φ(1. el rengl´n marcado con 1. ´ Notacion zα . Para cada valor α en el intervalo (0. El valor que aparece en la tabla es Φ(x). b) Φ(x) = 0. PROBABILIDAD 69 encontrarse aproximaciones de ella para distintos valores de x. el n´ mero zα denotar´ el u a punto en el eje real para el cual el ´rea bajo la curva a la derecha de zα es α.65) = 0. Ejercicio. a . Aqui estan algunas preguntas para el lector: ¿Por qu´ en la tabla aparecen solo valores de x e hasta 3.9265 .29: Ejercicio. Por ejemplo.Parte 1. 10).49?. Sea X con distribuci´n N(5.

en donde la letra griega χ se pronuncia “ji” o tambi´n “chi”.8. X2 .30. Esta distribuci´n tiene un solo par´metro denotado aqui por la letra n. . Distribuciones de probabilidad Esto es. no o es dif´ comprobar que f (x) es efectivamente una funci´n de densidad. Sea X1 . si x ≤ 0. Entonces la funci´n de distribuci´n de la variable o o Zn = (X1 + · · · + Xn ) − nµ √ nσ 2 tiende a la distribuci´n normal est´ndar cuando n tiende a infinito. o a Escribiremos simplemente X ∼ χ2 (n). . Teorema central del l´ ımite. Se muestra en la siguiente Figura 1. Φ(zα ) = 1 − α. Decimos que la variable aleatoria continua X tiene una distribuci´n ji-cuadrada con n grados de libertad (n entero positivo). sin importar o a la distribuci´n de cada variable de la sucesi´n. Puede demostrarse que E(X) = n y Var(X) = 2n. o o n→∞ l´ FZn (x) = FZ (x). . ım ´ Distribucion ji-cuadrada. una sucesi´n infinita de variables o aleatorias independientes e id´nticamente distribuidas con media µ y varianza e finita σ 2 . .29(b) el significado geom´trico del n´ mero zα . La distribuci´n e o ji-cuadrada puede obtenerse como indican los siguientes resultados que dejaremos sin demostrar. Usaremos la notaci´n zα en la segunda parte de nuestro e u o curso. y al o a cual se le llama grados de libertad. ∞). La gr´fica ıcil o a de esta funci´n para varios valores del par´metro n aparece en la Figura 1. A pesar de su aparente expresi´n complicada. es decir. si su o funci´n de densidad est´ dada por la siguiente expresi´n o a o 1 f (x) = Γ(n/2)   0    1 2 n/2 xn/2−1 e−x/2 si x > 0.70 1. Se trata de una variable aleatoria continua con posibles valores en el intervalo (0. Acerca de la distribuci´n normal tenemos el siguiente resultado de suma importano cia.

Si X ∼ N(0. o . Xn son independientes con distribuci´n N(0. o En particular. Es posible demostrar que E(X) = 0. . o ´ Distribucion t. . si X1 . entonces X + Y tiene distribuci´n χ2 (n + m). PROBABILIDAD f (x) 1/2 n=1 n=2 n=3 n=4 71 x 1 2 3 4 5 6 7 8 9 Figura 1. La gr´fica de esta funci´n de densidad aparece en a o la Figura 1. Proposici´n. 1). . 1). nπ Γ(n/2) para − ∞ < x < ∞. Si X ∼ χ2 (n) y Y ∼ χ2 (m) son dos variables aleatorias indepeno dientes.30: Proposici´n. La distribuci´n t se puede encontrar en los siguientes contextos.Parte 1. el siguiente o resultado establece que la suma de dos variables aleatorias independientes con distribuci´n ji-cuadrada tiene distribuci´n nuevamente ji-cuadrada con grados de o o libertad la suma de los grados de libertad de los sumandos. el cuadrado de una variable aleatoria con distribuci´n normal est´ndar o a tiene distribuci´n ji-cuadrada con un grado de libertad. . entonces X 2 ∼ χ2 (1). Decimos que la variable aleatoria continua X tiene una distribuci´n t con n grados de libertad si su funci´n de densidad est´ dada por o o a Γ((n + 1)/2) f (x) = √ (1 + x2 /n)−(n+1)/2 . o Es decir.31. y Var(X) = n/(n − 2) para n > 2. Por otro lado. En tal caso se escribe X ∼ t(n). entonces o 2 2 X1 + · · · + Xn tiene distribuci´n χ2 (n).

Sean X1 . . Distribuciones de probabilidad f (x) n = 100 n=3 n=1 0.8.1 x −4 −3 −2 −1 1 2 3 4 Figura 1. . Con esto terminamos con una revisi´n elemental de algunas distribuciones de proo babilidad continuas. y S 2 = 1 n n i=1 (Xi ¯ − X)2 . 1) y Y ∼ χ2 (n) son independientes. Si X ∼ N(0. .31: Proposici´n. o . Entonces o ¯ X −µ √ ∼ t(n − 1). entonces o X Y /n ∼ t(n). Xn variables aleatorias independientes cada una de o ellas con distribuci´n N(µ. La siguiente tabla contiene un resumen de las distribuciones continuas mencionadas en esta secci´n.72 1. . σ 2 ). S/ n ¯ en donde X = 1 n n i=1 Xi . Recuerde el lector que existen muchas mas distribuciones de este tipo. Proposici´n.

a Media: µ. Par´metro: λ > 0. a Media: a/(a + b). Par´metros: µ ∈ R. Distribuci´n beta o f (x) = 1 a−1 (1 B(a. a Media: (a + b)/2. para x ∈ (0. Varianza: n/λ2 . Par´metros: a < b. 1). λ > 0. Varianza: 1/λ2 . a Media: n. Par´metros: a > 0. √ 1 2πσ2 2 2 Distribuci´n χ2 o f (x) = 1 Γ(n/2) 1 n/2 2 xn/2−1 e−x/2 para x > 0.Parte 1. a Media: 1/λ. Par´metros: n > 0.b) x λ e−λx para x > 0. b > 0. Varianza: (b − a)2 /12. PROBABILIDAD 73 Distribuci´n uniforme o f (x) = 1/(b − a) para x ∈ (a. b). Varianza: ab/((a + b + 1)(a + b)2 ). . a Media: n/λ. σ > 0. Par´metro: n > 0. Distribuci´n gama o f (x) = (λx)n−1 Γ(n) Distribuci´n exponencial o f (x) = λ e−λx para x > 0. − x)b−1 Distribuci´n normal o e−(x−µ) /2σ para x ∈ R. f (x) = Varianza: σ 2 . Varianza: 2n.

y) Figura 1. . pero no mezclas de ellas.32. Un vector aleatorio de dimensi´n dos es un vector de la forma o (X. o (X. Por simplicidad consideraremos unicamente ´ vectores aleatorios cuyas coordenadas son variables aleatorias todas discretas. ıa o Vector aleatorio. Varianza: n/(n − 2). De manera an´loga a se pueden tener vectores aleatorios multidimensionales (X1 . Par´metro: n > 0. Xn ). . Y ) R2 ω Ω (X(ω). . en la a mayor´ de los casos. Y ) en donde cada coordenada es una variable aleatoria. a Media: 0. Y (ω)) = (x. aunque todas las ´ o definiciones y resultados que se mencionan pueden extenderse f´cilmente. o continuas.32: . Y ) puede considerarse como una funci´n de Ω en R2 como se muestra en la Figura 1.74 Distribuci´n t o f (x) = Γ((n+1)/2) √ nπ Γ(n/2) 1. Nuevamente diremos que un vector aleatorio es discreto. o continuo. para n > 2. Vectores Aleatorios (1 + x2 /n)−(n+1)/2 para x ∈ R. Para hacer la escritura corta e se consideran unicamente vectores aleatorios de dimensi´n dos. Vectores Aleatorios Esta secci´n contiene una breve introducci´n al tema de variables aleatorias multio o dimensionales o tambi´n llamadas vectores aleatorios. si las todas las variables aleatorias que lo conforman lo son. Un vector aleatorio (X.9.9. para vectores de dimensi´n superior. 1. .

PROBABILIDAD 75 Es decir. . pero en general omitiremos los sub´ ındices para hacer la notaci´n m´s corta. Ejemplo. a) f (x. y) = P (X = x. Y = y) si (x. y) es la probabilidad de que la variable X tome el valor u x y al mismo tiempo la variable Y tome el valor y. . Vamos a estudiar primero el caso m´s a sencillo que es el discreto. . mientras que el vector con letras min´ sculas (x. Considere el vector aleatorio discreto (X. y) es un punto u en el plano. toda funci´n que las cumpla se llama funci´n de o o densidad conjunta. y). y). Es decir. y2 . el n´ mero f (x. Y ) tal que la variable X toma los valores en el conjunto {x1 . 1}. Tal funci´n se llama tambi´n o e funci´n de densidad conjunta de las variables X y Y . y la variable Y toma los valores en {y1 . .}. y) de la forma anterior cumple las siguientes o a o dos propiedades.}. Adem´s las probabilidades conjuntas est´n a a . Y )(ω) = (X(ω). Estos conceptos son completamente an´logos al caso unidimensional a estudiado antes. .2 De este arreglo se entiende que la variable X toma valores en el conjunto {−1. e inversamente. . Y ) evaluado en ω es (X.3 0. Toda funci´n f (x.Parte 1. x2 .} × {y1 . .1 0. Y ) que se denota o por f (x. Y ) con funci´n de densidad o dada por la siguiente tabla. Estudiaremos a continuaci´n algunas funciones asociadas a vectores o aleatorios.}. Consideremos un vector aleatorio discreto (X. Y ) es el u vector aleatorio. Nuevamente observe que el vector con letras may´ sculas (X. . ´ Funcion de probabilidad conjunta. b) x. 1}. y) = 1. y para enfatizar este hecho a o veces se escribe fX. y) ∈ {x1 . 0 otro caso. mientras que Y toma valores en {0. Y (ω)) con posible valor (x. se encuentra definida sobre R2 y toma valores en el intervalo [0.Y (x. 1] de acuerdo a la siguiente definici´n o f (x. y). La funci´n de densidad del vector (X. x/y -1 1 0 0. . .y f (x. y2 . . y) ≥ 0. x2 . .4 1 0. el vector (X.

y) dx dy = 1. y defina la funci´n o  1  si a < x < b. . Vectores Aleatorios dadas por las entradas de la tabla.3. −∞ −∞ Toda funci´n de densidad f (x. y) en R2 se cumple la igualdad x y P (X ≤ x. y) ≥ 0. Veamos ahora la situaci´n en el caso continuo. y) : R2 → [0. naturalmente son no negativos. y = 1. Y = 0) = 0.2 si x = 1.    0. Sean a a < b. Y ) si para todo par (x.4 si x = 1. P (X = −1.     0 otro caso. Y = y) = 0. o Se dice que la funci´n integrable y no negativa f (x. y = 1.3 si x = −1. (b − a)(d − c) f (x.76 1. c < d. Y ≤ y) = f (u. a a) f (x. y) = P (X = x.3.9. esto es. Ejemplo.   f (x. y) : R2 → [0. y = 0. v) dv du. −∞ −∞ Rec´ ıprocamente decimos que una funci´n f (x. y) de estas caracter´ o ısticas satisface las siguientes dos propiedades que son an´logas al caso discreto. La misma informaci´n puede escribirse de la siguiente manera. c < y < d. ∞) es una funci´n de o o densidad conjunta si cumple con las dos condiciones arriba mencionadas.     0. y = 0. o   0. la probabilidad de que X tome el valor −1 y al mismo tiempo Y tome el valor 0 es 0. ∞) es la funci´n o o de densidad del vector aleatorio continuo (X. Esta es una de las funciones de densidad conjunta m´s sencillas. y) =  0 otro caso. Como todos estos valores son probabilidades. ´ Funcion de densidad conjunta. b) ∞ ∞ f (x. por ejemplo.1 si x = −1. y todos ellos suman uno.

o f (x. PROBABILIDAD 77 cuya gr´fica aparece en la Figura 1. existe a o la funci´n de distribuci´n para un vector (X. Compruebe que la siguiente funci´n es de densidad.33: Ejercicio. Esta funci´n es de densidad pues es no negativa e integra a o uno sobre R2 . y) c a b d y x Figura 1. Encuentre la constante c para que la siguiente funci´n sea de densidad. b) × (c. y) = cxy 0 si 0 < x < y < 1. La funci´n de distribuci´n del o o o . Y ).33. o f (x. otro caso. sea ´ste discreto o continuo. y < 1. Ejercicio. d). y su o o e definici´n es muy semejante al caso unidimensional. ´ ´ Funcion de distribucion conjunta. otro caso.Parte 1. f (x. Adem´s de la funci´n de densidad. y) = x+y 0 si 0 < x. Se trata de una funci´n constante en el a o rect´ngulo (a.

. xn ) : Rn → [0. c) ≥ 0. y la variable Y o con el valor y. . El concepto de funci´n de distribuci´n puede extenderse al caso de vectores multio o dimensionales de la siguiente forma: La funci´n de distribuci´n del vector aleatorio o o (X1 . y) : R2 → [0. .Y (x. La peque˜ a coma que aparece en el lado derecho de esta igualdad significa la n intersecci´n de los eventos (X ≤ x) y (Y ≤ y). y) = 0. esta funci´n a o debe escribirse como FX. . o o 5. y) como sigue u F (x. l´ ım F (x. .9. Rec´ ıprocamente decimos que una funci´n F (x. Y ≤ y). . . y) es continua por la derecha en cada variable. . Y ). es decir. Siempre asociaremos la variable X con el valor x. d) − F (b. M´s precisamente. 4. . . . pero omitiremos los sub´ ındices para mantener la notaci´n simple. F (x. se cumple la desigualdad u F (b. Xn ≤ xn ). y) es o u la probabilidad del evento (X ≤ x) ∩ (Y ≤ y). . . c) + F (a. x. y c < d.78 1. denotada por F (x. Vectores Aleatorios vector (X. y tambi´n se dice que es la funci´n o e o de distribuci´n conjunta de las variables X y Y . d) − F (a. . y) es una funci´n mon´tona no decreciente en cada variable. 1] dada por o F (x1 . 1] es una funci´n de distribuci´n bivariada si o o o satisface las anteriores cinco propiedades. o Enunciamos a continuaci´n algunas propiedades que cumple toda funci´n de diso o tribuci´n conjunta. a y puede comprobarse geom´tricamente que la quinta propiedad corresponde a la e probabilidad del evento (a < X ≤ b) ∩ (c < Y ≤ d). y) = 1. 1]. y) : R2 → [0.y→∞ x→−∞ l´ ım F (x. Observe que las primeras cuatro propiedades son an´logas al caso unidimensional. Y ). o 1. xn ) = P (X1 ≤ x1 . 3. . An´logamente cuando es la variable y quien tiende a a menos infinito. F (x. . el n´ mero F (x. . se define para cualquier par de n´ meros reales (x. Xn ) es la funci´n F (x1 . y). y) = P (X ≤ x. Para cualesquiera n´ meros a < b. A esta funci´n se le conoce tambi´n con el nombre de funci´n de o e o acumulaci´n de probabilidad del vector (X. 2.

En el caso discreto se suman todos los valores de f (u. v) para valores de u menores o iguales a x y valores de v menores o iguales a y. y) = −∞ −∞ f (u. y) guardan la relaci´n o x y F (x. y) dx. y) dy. f (x) = y f (x. y) a partir de F (x. y) simplemente o o integrando en el caso continuo o sumando en el caso discreto. y)? En el caso continuo sabemos o que f (x. y). y) = −∞ −∞ f (u. Y ). son . Se define la funci´n de densidad marginal de la variable o X como sigue f (x) = ∞ f (x. −∞ es decir. La correspondiente definici´n para vectores discretos involucra una suma en lugar o de la integral. b) ¿C´mo se encuentra f (x. Para el caso continuo tenemos x y F (x. PROBABILIDAD 79 a) ¿C´mo se encuentra F (x. por el teorema fundamental del c´lculo tenemos que a f (x. y) a partir de f (x. es decir. v) dv du. tanto en el caso discreto como en el continuo. y). y) y F (x. y) la funci´n de densidad del vector o aleatorio continuo (X. y)? Conociendo la funci´n de deno o sidad f (x. ∂x ∂y ´ Funcion de densidad marginal. simplemente se integra respecto de la variable y. y) = ∂2 F (x. f (y) = ∞ −∞ f (x. es posible encontrar al funci´n de distribuci´n F (x. Es sencillo verificar que a estas densidades marginales.Parte 1. de manera an´loga se define la densidad marginal f (y). La correspondiente funci´n de densidad marginal de la variable Y se obtiene integrando ahora respecto o de la variable x. y). por ejemplo. v) dv du. Sea f (x.

. . . ım y→∞ y la correspondiente funci´n de distribuci´n marginal de la variable Y es la funci´n o o o F (y) = l´ F (x. Un poco m´s generalmente. . . En el caso particular cuando las . . Alternativamente puede definirse la independencia en t´rminos de la funci´n de e o densidad como sigue f (x1 . . De manera an´loga se obtiene la funci´n marginal de cualquiera de las variables a o que componen el vector multidimensional. F (xn ). Sea (X. . .9. xn ). Xn ) es. y). o Todo lo mencionado en estas ultimas secciones tiene como objetivo poder enunciar ´ con precisi´n el concepto de independencia entre variables aleatorias. La funci´n de distribuci´n marginal o o o o de la variable X se define como la funci´n o F (x) = l´ F (x. o ´ ´ Funcion de distribucion marginal.. Sean X1 . . . Xn variables aleatorias con distribuci´n conjunta F (x1 . .80 1. Independencia de variables aleatorias. . . . Nuevamente esta igualdad debe verificarse para cualesquiera valores x1 . . . y). xn ) = f (x1 ) · · · f (xn ). la a funci´n de densidad marginal de la variable X1 a partir de la funci´n de densidad o o del vector (X1 .. . xn se cumple la igualdad FX1 .Xn (x1 .. . xn ) = FX1 (x1 ) · · · FXn (xn ). Se dice que estas variables son independientes si para cualesquiera valores x1 . f (x1 ) = ∞ −∞ ··· ∞ −∞ f (x1 . . . Y ) un vector aleatorio. . Y tambi´n de manera an´loga se pueden e a calcular estas densidades marginales para vectores discretos de cualquier dimensi´n. . xn . . . . . Vectores Aleatorios efectivamente funciones de densidad univariadas. . .. en el caso continuo. xn ) dx2 · · · dxn . con funci´n de distribuci´n F (x. . continuo o discreto. Las dos condiciones anteriores son equivalentes. . y con respectivas distribuciones maro ginales F (x1 ). . . . . . ım x→∞ No es dif´ comprobar que estas funciones de distribuci´n marginales son efectiıcil o vamente funciones de distribuci´n univariadas. y). Veremos a o continuaci´n este importante concepto que usaremos con regularidad en la segunda o parte del curso.

. la condici´n de independencia se escribe o P (X1 = x1 . PROBABILIDAD variables aleatorias son discretas. . 81 Adicionalmente.Parte 1. se dice que un conjunto infinito de variables aleatorias son independientes si cualquier subconjunto finito de ellas lo es. Xn = xn ) = P (X1 = x1 ) · · · P (Xn = xn ). . Este es el sentido en el que la sucesi´n infinita de variables aleatorias debe entenderse en el enunciado del o teorema central del l´ ımite. . .

Vectores Aleatorios .82 1.9.

surgen las primeras ideas para inferir informaci´n de una poblaci´n a partir de o o datos estad´ ısticos. varios gobiernos europeos. Sus m´todos y o e conclusiones son usados como respaldo cient´ ıfico para rechazar o aceptar afirmaciones. es por ello que a las primeras colecciones e de datos se les llamara estad´sticas.Parte 2 ESTAD´ ISTICA Originalmente cualquier colecci´n de datos acerca de la poblaci´n o econom´ de un o o ıa estado era del inter´s exclusivo del estado. matrimonios y decesos. en la televisi´n y en internet. a trav´s de las parroquias. Cotidianamente encontramos elementos de estad´ ıstica descriptiva en los peri´dicos. en la radio. en donde los esfuerzos y recursos se orientaron principalmente a obtener censos. Egon Sharpe Pearson (1895-1980) hijo de Karl Pearson. Para mediados del siglo XVI. Hoy en d´ los m´todos de la estad´ ıa e ıstica son usados en muy diversas ´reas del a conocimiento humano. Los m´todos y la teor´ general se desarrollaron a partir de los e ıa inicios del siglo XX gracias a los trabajos de Karl Pearson (1857-1936). Los ı o primeros registros de una recolecci´n sistem´tica de datos de una poblaci´n suro a o gen en las ciudades italianas de Venecia y Florencia durante el Renacimiento. llevae ban registros de nacimientos. Ronald A. como una derivaci´n de la palabra estado. De particular importancia en aquellos a˜ os eran los registros de decesos pues las tasas de mortalidad eran altas n debido a las recurrentes epidemias y plagas que diezmaban a la poblaci´n. Esta o recolecci´n de datos por parte de los gobiernos sigui´ desaroll´ndose durante los o o a siglos XVII y XVIII. y Jerzy Neymann (1894-1981). y teniendo a Francis Galton (1822-1911) como precursor. Fisher (1890-1962). y para la toma de decisiones. A finales del siglo IXX. o o 83 . sean ´stas cient´ e ıficas. sociales o econ´micas.

peso. . o o muestra poblaci´n o Figura 2. Por o ejemplo. La estad´ ıstica es la ciencia que se encarga de recolectar.1. organizar. un conjunto arbitrario o e de personas. tomamos un peo o que˜ o subconjunto de ellos. esto es. si la poblaci´n consta de personas. y deseamos conocer cierta informaci´n de esta poblaci´n. informaci´n de una poblaci´n con o o base en la informaci´n de una muestra. resumen y presentao e o ci´n de datos. estatura.84 ´ 2. Debido a la imposibilidad o no conveniencia de tener o o informaci´n de todos y cada uno de los elementos de la poblaci´n. La estad´stica ı descriptiva es una colecci´n de m´todos para la organizaci´n. Introducci´n o Supongamos que tenemos una poblaci´n de inter´s. Con base en esta muestra n trataremos de inferir la informaci´n de la poblaci´n en su totalidad. los siguientes son ejemplos de variables o que podr´ ser de inter´s: edad. resumir y analizar datos para despu´s obtener e conclusiones a partir de ellos. la estad´ ıstica puede ser dividida en dos grandes ´reas: estad´ a ıstica inferencial y estad´ ıstica descriptiva. Variables y tipos de datos Una variable es una caracter´ ıstica de un elemento en una poblaci´n en estudio.2.1. mediciones u objetos cualesquiera.1: Estad´ ıstica descriptiva e inferencial. con determinado grado de confianza. La estad´stica inferencial consiste de un conjunto de t´cnicas para o ı e obtener. Introduccion 2. De manera general. al cual llamaremos muestra. sexo. o 2. etc. Veremos a continuaci´n ıan e o algunos criterios bajo los cuales las variables pueden ser clasificadas.

2=Regular. o se cuenta por lo menos con cuatro escalas de medici´n. En este tipo de escala existe un orden entre los valores de la variable y existe adem´s una noci´n de distancia aunque no se pueden realizar a o operaciones. el peso y la estatura son ejemplos de variables cuantitativas en una poblaci´n de personas. y M para masculino. o Escala nominal. mientras que el sexo y el o estado civil son variables cualitativas. Por ejemplo. que dos valores regulares hacen un valor excelente. No existe el valor natural cero para esta tipo de escala. a la variable sexo podemos asignarle o dos posibles valores: F para femenino. Los s´ ımbolos F y M son etiquetas arbitrarias. y no existe un orden en ellas ni podemos realizar operaciones aritm´ticas.Parte 2. suponga que los valores de una cierta variable est´n dados por los d´ del mes. De acuerdo al n´ mero total de sus posibles valores. b) de la recta real. Una variable se llama nominal cuando sus posibles valores no tienen alguna relaci´n de orden o magnitud entre ellos. 3=Bueno. cuando solamente registran una cualidad o u atributo del objeto o persona en estudio. 1=malo. o u finito o numerable) de valores. Por ejemplo. cuando se realiza una medici´n y el resultado o es un n´ mero. ESTAD´ ISTICA 85 Las variables pueden ser cuantitativas. Mientras que las variables cuantitativas pueden clasificarse por: escala de intervalo o escala de raz´n. para calificar las caracter´ ısticas de un objeto podemos suponer los siguientes valores: 0=P´simo. La religi´n o la nacionalidad son tambi´n ejemplos de e o e variables nominales. por ejemplo. una variable cuantitativa puede u ser clasificada como discreta cuando s´lo puede tomar un n´ mero discreto (es decir. B´sicamente los valores o a de este tipo de variables son etiquetas sin un orden entre ellos. Escala de intervalo. Las variables cualitativas o pueden ser clasificadas de acuerdo a dos escalas: escala nominal o escala ordinal. En esta escala los valores de la variable tienen un orden pero no se pueden hacer operaciones aritm´ticas entre estos valores pues no hay noci´n e o de distancia entre ellos. si estamos estudiando una poblaci´n humana. De acuerdo con la posible relaci´n que pudieran guardar los valores de una variable. pero no se puede decir. La edad. o pueden ser cualitativas. Escala ordinal. Por ejemplo. que el d´ 20 es dos veces el d´ 10. La temperatura es otro ejemplo de este tipo ıa ıa . o continua cuando puede tomar cualquier valor dentro de un intervalo (a. e 4=Excelente. a ıas Entre el d´ 10 y el d´ 20 hay una distancia de diez d´ pero no se puede decir ıa ıa ıas. En este caso la escala de medici´n es ordinal pues existe un orden o entre sus valores.

o a) Apreciaci´n o punto de vista acerca de una idea o propuesta usando la escala: o De Acuerdo. Si es cualitativa. . el posible valor cero depende de la escala que se use para medir la temperatura (Celsius. e) Nivel de salario en alguna de las categor´ A. Para e conocer algunas caracter´ ısticas globales de esta variable se pueden calcular ciertas .3. la variable edad en a˜os estudiada en una n poblaci´n humana. que repree sentan mediciones de alguna variable de inter´s en un experimento aleatorio. xn . ´ Escala de razon. Si es o cuantitativa.D. Indiferente. u d) Salario en unidades monetarias. Por ejemplo. No o ıas: Acreditado. diga si es discreta o continua. Estad´ ıstica descriptiva de variable. i) Peso de un beb´ reci´n nacido.3. y diga su escala de medici´n. h) Lugar de nacimiento de una persona. En desacuerdo.B. e e 2.F.86 2. Estad´ ıstica descriptiva Supongamos que tenemos un conjunto de datos num´ricos x1 . . Determine si cada una de las siguientes variables es cualitativa o cuantitativa. Ausente.C. c) N´ mero de hijos en una familia. g) Preferencia sexual. . b) Evaluaci´n de un curso de acuerdo a las siguientes categor´ Acreditado. o La clasificaci´n de un variable particular en alguna de estas categor´ puede no o ıas ser clara pues tal decisi´n puede depender del tratamiento que una persona haga o de tal variable. diga si su escala de medici´n es nominal u ordinal. En una escala de raz´n la magnitud tiene un sentido f´ o ısico y existe el cero absoluto. .E. Ejercicio. Fahrenheit). ıas: f) Longitud de un tornillo. Kelvin.

5. 7. . Pueden existir. moda y mediana de cada uno de los siguientes conjuntos de datos. c) 1. . Para calcular la mediana procedemos como sigue. 3. . . 7. si embargo.5 . La media de los datos num´ricos x1 . Si hay mas de dos valores con mayor n´ mero de repeticiones. se dice que el conjunto de u datos es multimodal. en donde x(1) denota el dato m´s peque˜ o y x(n) a n es el dato m´s grande. 2. Definiremos ahora algunas medidas que ayudan a cuantificar la dispersi´n que puede presentar un conjunto de datos num´ricos x1 . es simplemente el promedio (x1 + · · · + xn )/n. 3. . Por otro lado. 5. ESTAD´ ISTICA 87 medidas de tendencia central como la media. 7. moda y mediana. y se obtiene la muestra ordenada x(1) . b) 3. Se ordena la muestra x1 . denotada por s2 . 2. se u dice que no hay moda. 2. ¯ . 8. 6. o e La varianza. . 4. Ejercicio. en tal caso la u moda consta de esos valores.Parte 2. 9. y u el conjunto de datos se dice que es unimodal. xn de menor a mayor incluyendo repeticiones. o Medidas de tendencia central. o que todos los valores son moda. −2. la mediana se calcula promediando los dos datos ordenados que est´n a enmedio. a) −5. dos o mas valores que sean los que mayor n´ mero de veces se repiten. . xn . Y cuando tenemos un n´ mero par u de datos. . 4.5. 10.5. . entonces a ese valor se le llama la moda. . y tambi´n otras mee didas llamadas de dispersi´n como la varianza. Si ning´ n valor se repite. se define como sigue s2 = 1 n−1 n i=1 (xi − x)2 . ´ Medidas de dispersion. . . x(n) . 5 . denotada por x.5. Si existe un unico valor ´ con mayor n´ mero de repeticiones. xn . . 2.5. se define como sigue a ˜ x= ˜ x( n+1 ) 2 1 n 2 [x( 2 ) + x( n +1) ] 2 si n es par. . e denotada por x. si n es impar. La mediana. 1. −3. y se dice que el conjunto de datos es bimodal. la mediana es el dato u ordenado que se encuentra justo a la mitad. o o a Definiremos estos conceptos a continuaci´n. De este modo. . 4. cuando tenemos un n´ mero impar de datos. Calcule la media. la ¯ moda es el valor que aparece con mayor frecuencia. 4. . la desviaci´n est´ndar y el rango.

88

2.4. Muestras aleatorias y estad´ ısticas

en donde x es la media muestral definida antes. La desviaci´n est´ndar es la ra´ ¯ o a ız cuadrada positiva de s2 , y se le denota naturalmente por s. El rango es el dato m´s a grande menos el dato m´s peque˜ o, es decir, x(n) − x(1) . a n Ejercicio. Calcule la varianza, la desviaci´n est´ndar y el rango de los conjuntos de o a datos del ejercicio anterior.

2.4.

Muestras aleatorias y estad´ ısticas

En lo que los problemas estad´ ısticos que consideraremos no estudiaremos muestras particulares de datos num´ricos x1 , . . . , xn , sino conjuntos de variables aleatorias e X1 , . . . , Xn que pueden, en particular, tomar el conjunto de datos mencionado. Definiremos a continuaci´n este concepto junto con el de estad´ o ıstica. Definici´n. Una muestra aleatoria (escribimos simplemente m.a.) es una coleco ci´n de variables aleatorias X1 , . . . , Xn que son independientes e id´nticamente o e distribuidas. De este modo, cuando se diga, por ejemplo, que una muestra aleatoria es tomada de una poblaci´n normal con media µ y varianza σ 2 , ello significa que las variables o aleatorias que forman la m.a. son independientes entre s´ y todas ellas tienen ı, la misma distribuci´n normal con los mismos par´metros. Una muestra aleatoria o a constituye el elemento b´sico para llevar a cabo inferencias estad´ a ısticas. Definici´n. Una estad´stica es una funci´n cualquiera de una muestra aleatoria o ı o X1 , . . . , Xn , y por lo tanto es tambi´n una variable aleatoria. e Veremos a continuaci´n dos ejemplos de estad´ o ısticas que ser´n usados con frea cuencia m´s adelante. Considere una muestra aleatoria X1 , . . . , Xn . La funci´n X a o ¯ definida como sigue n 1 ¯ X= Xi , n i=1 es una estad´ ıstica, y se le conoce con el nombre de media muestral. El otro ejemplo

Parte 2. ESTAD´ ISTICA es el de la varianza muestral, que se define de la forma siguiente S2 = 1 n−1
n i=1

89

¯ (Xi − X)2 .

2.5.

Estimaci´n puntual o

Sea X una variable aleatoria de inter´s en un experimento aleatorio, y supongamos e que X tiene una distribuci´n de probabilidad con funci´n de densidad f (x; θ), en o o donde θ es el par´metro o el conjunto de par´metros de la distribuci´n. En esta a a o nueva notaci´n se hace ´nfasis en que la distribuci´n depende de un par´metro o e o a denotado gen´ricamente por la letra griega θ, y el cual consideraremos desconocido. e Por ejemplo, si la distribuci´n es exp(λ), entonces θ representa el par´metro λ, si o a la distribuci´n es N(µ, σ 2 ), entonces θ representa el vector de par´metros (µ, σ 2 ). o a El problema de estimaci´n puntual consiste en encontrar un n´ mero, con base en o u las observaciones realizadas de la variable aleatoria, que sirva como estimaci´n del o par´metro desconocido θ. Ilustraremos el problema con un par de ejemplos. a Ejemplo. Se desea conocer el estado de la calidad de un conjunto 1000 art´ ıculos. Dada la imposibilidad de someter a prueba a todos ellos, se escogen 20 art´ ıculos al azar obteni´ndose los siguientes resultados: 0,1,1,0,1,1,0,1,0,1,1,1,0,1,1,1,1,1,1,0, e en donde cero indica que el art´ ıculo no pas´ el control de calidad y uno indica que o el art´ ıculo pas´ el control de calidad. Suponga que X es la variable que indica si o un art´ ıculo escogido al azar pasa o no pasa el control de calidad. Entonces X tiene una distribuci´n Ber(p), en donde p es desconocido. ¿C´mo podr´ estimarse el o o ıa verdadero valor de p con base en los datos de la muestra? Ejemplo. El tiempo en minutos que un conjunto de 10 empleados escogidos al azar invierte en trasladarse de la casa al lugar de trabajo es: 30,70,65,10,25,15,5,50,20,15. Suponga que tal variable puede modelarse mediante la distribuci´n exp(λ). ¿C´mo o o podr´ estimarse el valor de λ con base en las observaciones realizadas? ıa

Definici´n. Un estimador puntual para el par´metro θ es una funci´n de una o a o muestra aleatoria X1 , . . . , Xn que se usa para estimar θ.

90

´ 2.5. Estimacion puntual

ˆ A un estimador del par´metro θ se le denota regularmente por θ (se lee “teta a circunflejo”). Observe que un estimador puntual es una estad´ ıstica y puede escriˆ ˆ birse como θ = θ(X1 , . . . , Xn ). Veremos a continuaci´n dos m´todos para encontrar o e estimadores puntuales. ´ M´todo de maxima verosimilitud. Sea X1 , . . . , Xn una muestra aleatoria de e una poblaci´n con funci´n de densidad f (x; θ). Esto significa que todas las variao o bles de la muestra aleatoria tienen funci´n de densidad f (x) que depende de un o par´metro desconocido θ. a Definici´n. La funci´n de verosimilitud de una muestra aleatoria X1 , . . . , Xn , o o denotada por L(θ), se define como la funci´n de densidad conjunta o L(θ) = fX1 ,...,Xn (x1 , . . . , xn ; θ).

La letra L proviene del t´rmino en ingl´s likelihood, que tradicionalmente se ha trae e ducido como verosimilitud, aunque tal vez el t´rmino credibilidad sea m´s acertado. e a El m´todo de m´xima verosimilitud consiste en obtener el valor de θ que maximice e a la funci´n de verosimilitud L(θ), la idea intuitiva es interesante: se debe encontrar o el valor de θ de tal forma que los datos observados tengan m´xima probabilidad a de ocurrir. El valor de θ en donde se alcanza el m´ximo se llama estimador de a m´xima verosimilitud, o estimador m´ximo veros´mil. Ilustraremos este m´todo a a ı e con algunos ejemplos. Ejemplo. Encontraremos el estimador m´ximo veros´ a ımil para el par´metro λ de a una distribuci´n exponencial. La funci´n de verosimilitud es o o L(λ) = = = fX1 (x1 ) · · · fXn (xn ) λ e−λx1 · · · λ e−λxn
x λn e−λn¯

Maximizar la funci´n L(λ) es equivalente a maximizar la funci´n ln L(λ), pues la o o funci´n logaritmo es continua y mon´tona creciente en su dominio de definici´n. o o o Hacemos esto pues esta nueva funci´n resulta m´s f´cil de maximizar como vereo a a mos a continuaci´n. Tenemos que ln L(λ) = n ln λ − λn¯. Derivando respecto a λ e o x igualando a cero se llega a la ecuaci´n n/λ − n¯ = 0, de donde se obtiene λ = 1/¯. o x x ˆ ¯ El estimador es entonces λ = 1/X.

2πσ 2 Nuevamente el logaritmo de esta funci´n es m´s sencillo de maximizar. 2 2σ i=1 Por lo tanto ∂ ln L(µ. Por definici´n la funci´n de verosimilitud o o o es L(µ. e a ˆ ˆ ˆ M´todo de momentos. Igualando a cero ambas derivadas encontramos un sistema de dos ecuaciones con dos variables: 1 σ2 − n 1 + 4 2 2σ 2σ n i=1 n (xi − µ) = 0. n i=1 (xi − µ)2 n 1 1 De estas ecuaciones se obtiene µ = n i=1 xi . ESTAD´ ISTICA 91 Ejemplo. y σ 2 = n i=1 (xi − µ)2 . σ 2 ) = ∂µ ∂ ln L(µ. σ 2 ) = ∂σ 2 1 σ2 n i=1 (xi − µ). Sea nuevamente f (x. Recordemos que a el k-´simo momento poblacional de X es el n´ mero E(X k ). Tenemos o a que n n 1 ln L(µ. = 0. σ 2 ) = = = fX1 (x1 ) · · · fXn (xn ) 2 2 2 2 1 1 √ e−(x1 −µ) /2σ · · · √ e−(xn −µ) /2σ 2 2 2πσ 2πσ n 1 1 − 2σ2 (xi −µ)2 i=1 (√ )n e .Parte 2. y σ 2 = n i=1 (Xi − µ)2 . σ 2 ) = − ln(2πσ 2 ) − 2 (xi − µ)2 . θ) la funci´n de densidad de una e o variable aleatoria X que depende de un par´metro desconocido θ. cuando esta esperanza e u . Encontraremos los estimadores de m´xima verosimilitud para los par´mea a tros µ y σ 2 de una distribuci´n normal. Por lo ˆ 2 tanto los estimadores para los par´metros µ y σ de una distribuci´n normal por a o n n 1 1 el m´todo de m´xima verosimilitud son µ = n i=1 Xi . n i=1 n 1 − 2+ 4 2σ 2σ (xi − µ)2 .

Siendo un estimador θ una variable aleatoria que se utiliza para ˆ estimar el par´metro θ. ˆ Insesgamiento. . es interesante saber si el valor promedio de θ es θ. Estimacion puntual existe. o a ˆ ˆ Si θ no es insesgado. el valor de θ coincide con el valor a . entonces se dice que es sesgado. Veamos algunos a ejemplos. i i=1 La primera ecuaci´n es expl´ o ıcita mientras que la segunda ecuaci´n se puede reeso cribir como sigue σ2 = 1 n n i=1 x2 − µ2 = i 1 n n i=1 x2 − ( i 1 n n xi )2 = i=1 1 n n i=1 (xi − µ)2 . Ahora. Ejemplo. El m´todo de momentos para e estimar el par´metro θ es muy sencillo. ıa ˆ ˆ Definici´n.5. dada una muestra aleatoria X1 . Esta a ser´ una buena propiedad para un estimador. y a la diferencia E(θ) − θ se ˆ es un estimador insesgado le llama sesgo. en promedio. i=1 n x2 . . El primer y segundo momento muestrales son n xi y n x2 . . En este caso los estimadores por el m´todo de momentos coinciden con los estimae dores m´ximo veros´ a ımiles. Nuevamente estimaremos los par´metros µ y σ 2 de una distribuci´n nora o mal. se deo n 1 e fine el k-´simo momento muestral como n i=1 Xik . respectivamente. Esta vez usaremos el m´todo de momentos. consiste en igualar los momentos muesa trales con los correspondientes momentos poblacionales. De esta forma. Xn de esta distribuci´n. . y resolver esta ecuaci´n o o sistema de ecuaciones para el par´metro θ cuando ello sea posible. un estimador puntual θ ˆ para el par´metro desconocido θ si. Como necesitamos estimar dos e par´metros usamos los dos primeros momentos. El primer y segundo momento a poblacionales son E(X) = µ y E(X 2 ) = σ 2 + µ2 . La igualaci´n o i=1 i=1 i respectiva produce el sistema de ecuaciones µ = σ2 + µ = 1 n 1 n n xi . respectivamente. Un estimador θ del par´metro θ es insesgado si E(θ) = θ.92 ´ 2.

En esta secci´n se estudia brevemente el tema o de estimaci´n de par´metros usando intervalos. Sea X1 . A este tipo a de intervalos se les llama intervalos de confianza. de modo que se deja al a o lector tal comprobabci´n. o ´ usar la propiedad de linealidad de la esperanza y observar que E(Xi Xj ) = µ2 σ +µ 2 2 si i = j. lo unico que hay que hacer es desarrollar el cuadrado. que dicho intervalo contiene el verdadero valor del par´metro desconocido. si i = j. . . Por la propiedad lineal de la esperanza. Esta estad´ a ıstica resulta ser un estimador insesgado para la varianza σ 2 . Estimaci´n por intervalos o En algunos casos es preferible no dar un n´ mero como estimaci´n de un par´metro u o a sino un intervalo de posibles valores.6. i=1 Ejemplo.Parte 2. 1 ¯ E(ˆ) = E(X) = E( µ n n Xi ) = i=1 1 n n E(Xi ) = i=1 1 n n µ = µ. . . Xn una muestra aleatoria de una poblaci´n con media descoo n 1 ¯ nocida µ. . u a Ejemplo. . Observe que X es el estimador θ. Observe en los siguientes ejemplos la forma en la que se verifica la propiedad de insesgamiento a´ n cuando no se conozca el valor del par´metro θ. . Recordemos que la varianza muestral es una estad´ ıstica definida 1 ¯ de la forma siguiente: S 2 = n−1 n (Xi − X)2 . . En este caso el estimador es i=1 S 2 y el par´metro desconocido a estimar es σ 2 . ESTAD´ ISTICA 93 desconocido de θ. Comprobar esta afirmaci´n requiere de o algunos c´lculos que por cuesti´n de espacio omitimos. . Xn una muestra aleatoria de una poblaci´n con varianza o desconocida σ 2 . Sea X1 . En este tipo de estimaci´n se busca o a o un intervalo de tal forma que se pueda decir. Comprobaremos que la media muestral X = n i=1 Xi es un estimador ˆ ¯ insesgado para el par´metro µ. con cierto grado de confiabilidad. 2. y µ es el par´metro a a desconocido θ.

. A continuaci´n mostraremos la yθ o forma de resolver este problema en algunos casos particulares. Un intervalo de confianza para un par´metro deso a conocido θ de una distribuci´n de probabilidad es un intervalo aleatorio de la o ˆ ˆ ˆ ˆ forma (θ1 . se dice a ˆ ˆ “la probabilidad de que el intervalo (θ1 . ´ Intervalo para la media de una distribucion normal con varianza co- . (2. Estimacion por intervalos Definici´n. en donde θ1 y θ2 son estad´ ısticas (funciones de una muestra aleatoria) tales que ˆ ˆ P (θ1 < θ < θ2 ) = 1 − α. Esto se ilustra en la Figura 2. . En general. de modo que al tomar estas variables aleatorias distintos valores se generan distintos intervalos de confianza. Al n´ mero 1 − α se le conoce como grado o u coeficiente de confianza. pues el par´metro no es el elemento aleatorio. respecı tivamente.94 ´ 2. Observe que las estad´ ısticas θ1 y θ2 dependen de una muestra aleatoria X1 . de modo que el grado de confianza es 1 − α =0. es cercano a 1. θ2 ) es 1 − α”. se toma el valor de α cercano a 0 de tal forma que el grado de confianza.1) ˆ ˆ A las estad´ ısticas θ1 y θ2 se les conoce como l´mites inferior y superior. De esta forma se entiende que θ es constante. . 1 − α. y el intervalo es el ˆ que cambia dependiendo de la muestra.95 . En cambio. aunque desconocido.2. Xn .1) se cumpla. del intervalo de confianza.6. . Sea α ∈ (0. θ2 ) contenga el valor de θ es 1 − α”.2: Observe que no es correcto decir “la probabilidad de que θ pertenezca al intervalo ˆ ˆ (θ1 . θ Figura 2. 1).05. En la pr´ctica es com´ n tomar a u α =0. Decimos entonces que ˆ ˆ el grado de confianza es del 95 %. θ2 ). Naturalmente el problema es encontrar θ1 ˆ2 de tal forma que la igualdad (2.

la media muestral X = n i=1 Xi tiene distribuci´n N(µ. n n (2. σ 2 ). σ 2 /n).Parte 2. Sea X1 .3: Despejando la constante desconocida µ se obtiene el siguiente resultado. . . Observe que todas las expresiones que aparecen en este intervalo son conocidas. tal que a e P ( −zα/2 < ¯ X −µ √ < zα/2 ) = 1 − α. . o o . estandarizando. Un intervalo de confianza para la media µ de una distribuci´n o o normal con varianza conocida σ 2 est´ dado por la siguiente expresi´n a o σ σ ¯ ¯ P ( X − zα/2 √ < µ < X + zα/2 √ ) = 1 − α. Encontraremos un intervalo de confianza para el par´metro µ. Ilustraremos la aplicaci´n de esta f´rmula mediante un ejemplo.3. De moo do que. ¯ X −µ √ ∼ N(0. Como cada una de las variables de la muestra tiene distribuci´n a o n 1 ¯ N(µ. Xn una muestra aleatoria de una poblaci´n normal con media o desconocida µ y varianza conocida σ 2 . σ/ n f (x) 1−α α/2 α/2 x −zα/2 zα/2 Figura 2. 1). el intervalo (X − zα/2 √n . σ/ n Para cualquier valor de α ∈ (0. 1) podemos encontrar un valor zα/2 en tablas de probabilidad normal est´ndar. . X + zα/2 √n ) es un intervalo de confianza para el par´metro desconocido µ. pues contiene a dicho par´metro con probabilia a dad 1 − α. ESTAD´ ISTICA 95 nocida.2) σ σ ¯ ¯ De esta forma. v´ase la Figura 2. Proposici´n.

e Ejercicio. El objetivo es encontrar un o a intervalo de confianza para la vida promedio util µ de los focos producidos por esta ´ compa˜´ Para ello se toma una muestra de 20 focos y mediante pruebas de lanıa. es decir. la vida promedio util de este tipo de ´ focos es de 1050 ± 13. aleatoria con distribuci´n normal de media µ y varianza σ 2 . boratorio se determina la vida util de cada uno de ellos. Sea X1 . Adem´s. y entonces puede ahora calcularse el intervalo σ σ (¯ − zα/2 √ . x + zα/2 √ ) x ¯ n n 30 30 = (1050 − 1. medida en horas. . T = S/ n tiene una distribuci´n t con n − 1 grados de libertad. .2) es √ n 2zα/2 σ/ n. . α =0. Suponga que la vida promedio util. Observe que esta es la diso tribuci´n exacta de la variable T . de focos de 100 ´ watts producidos por cierta compa˜´ puede ser modelada mediante una variable nıa. El resultado te´rico fundamental o en la siguiente derivaci´n es que la variable aleatoria o ¯ X −µ √ .96 √ . Observe que la longitud del intervalo decrece conforme el tama˜ o de la muestra crece. es decir. Xn una muestra aleatoria de una distribuci´n normal con o media desconocida µ y varianza desconocida σ 2 . con una confianza del 95 %.96 ´ 2.852. Suponga que la deso viaci´n est´ndar σ es conocida y es igual a 30 horas. Si consideramos un nivel de confianza ¯ del 95 %. x20 ´ arrojan una media muestral x de 1050 horas.148).025 =1. .3). . a entonces zα/2 crece (v´ase la Figura 2.05.148.148 horas. 1050 + 1. si la confianza requerida crece. . . ´ Intervalo para la media de una distribucion normal con varianza desconocida. Estimacion por intervalos Ejemplo. Los resultados x1 . Ejercicio. y por lo tanto la longitud del intervalo e tambi´n crece. 1050 + 13. Compruebe que la longitud del intervalo aleatorio que aparece en (2.148) = (1036. 1063.96 × √ ) 20 20 = (1050 − 13. si 1 − α aumenta. De esta forma. sin importar el tama˜ o de la muestra y sobre o n . de la tabla de probabilidad normal se encuentra que zα/2 = z0. Encuentre un intervalo de confianza al 90 % para la media de una poblaci´n normal con σ = 5 cuando se ha tomado una muestra de tama˜ o 25 cuya o n media muestral es 60. .96.6.

4) tal que e P ( −tα/2 < ¯ X −µ √ < tα/2 ) = 1 − α. . X + tα/2 √n ) es un intervalo de confianza para la media µ de una poblaci´n normal sin suponer la varianza conocida. Supongamos que el tama˜ o n de la muestra es grande. No es o expl´ ıcito en la notaci´n pero el valor tα/2 corresponde a la distribuci´n t con n − 1 o o grados de libertad. . sin suponer que la varianza de la muestra es conocida. n n (2. Un intervalo de confianza para la media µ de una distribuci´n o o normal est´ dado por la siguiente expresi´n a o S S ¯ ¯ P ( X − tα/2 √ < µ < X + tα/2 √ ) = 1 − α.Parte 2. Proposici´n.n−1 . a veces se escribe tα/2. n .e. Xn una muestra aleatoria de una distribuci´n cualquiera con media o desconocida µ. S/ n f (x) −α/2 α/2 x −tα/2 tα/2 Figura 2. . A partir de lo anterior podemos construir un intervalo de confianza para el par´metro desconocido µ de a forma an´loga al caso normal mencionado antes. 1) a podemos encontrar un valor tα/2 en tablas de probabilidad de la distribuci´n t de o n − 1 grados de libertad (v´ase la Figura 2. Para cualquier valor de α ∈ (0. . el intervalo ( X − tα/2 √n . Sea X1 .4: Despejando la constante desconocida µ de la ecuaci´n anterior se obtiene el siguieno te resultado. i. ´ Intervalo aproximado para la media de una distribucion cualquiera. ESTAD´ ISTICA 97 todo. n ≥ 30.3) S S ¯ ¯ De este modo.

la variable aleatoria Z= ¯ X −µ √ . Estimacion por intervalos Entonces. Observe nuevamente que todas las expresiones que aparecen en este intervalo son conocidas. n ≥ 30 ¯ P ( X − zα/2 Intervalo aproximado: S S ¯ √ < µ < X + zα/2 √ ) = 1 − α. Distribuci´n normal con o varianza σ 2 desconocida ¯ P ( X − tα/2.n−1 S √ n ) = 1 − α.6. Cualquier distribuci´n o Muestra grande. Hip´tesis o Distribuci´n normal con o varianza σ 2 conocida Intervalo para la media µ ¯ P ( X − zα/2 σ √ n ¯ < µ < X + zα/2 σ √ n ) = 1 − α. 1) podemos encontrar un valor zα/2 en tablas de probabilidad normal est´ndar tal que a P ( −zα/2 < ¯ X −µ √ < zα/2 ) = 1 − α. A manera de resumen se tiene la siguiente tabla. Para cualquier valor de α ∈ (0. Se puede encontrar un intero a valo aproximado de confianza para el par´metro desconocido µ siguiendo el procea dimiento antes realizado. S/ n Despejando nuevamente la constante desconocida µse obtiene S S ¯ ¯ P ( X − zα/2 √ < µ < X + zα/2 √ ) = 1 − α. por el teorema central del l´ ımite.n−1 S √ n ¯ < µ < X + tα/2. el intervalo (X − zα/2 √n . n n S S ¯ ¯ De esta forma. X + zα/2 √n ) es un intervalo de confianza aproximado para el par´metro desconocido µ pues contiene a dicho par´metro con a a probabilidad 1 − α. S/ n tiene una distribuci´n aproximada normal est´ndar. n n .98 ´ 2.

Suponga que unicamente conocemos el resultado de uno ´ u otro experimento. entonces seguro se realiz´ el o u o experimento de las monedas. entonces con seguridad el dado fue lanzado. ESTAD´ ISTICA 99 2. 6}. 1. De esta forma se llega a la siguiente regla de decisi´n: o Si ω ∈ C = {0. 2. Como informaci´n se tiene un n´ mero dentro del conjunto Ω = {0. Por razones naturales al conjunto C se le llama regi´n del rechazo de la hip´tesis o o H0 . Si el n´ mero reportado ω es 0. sin embargo no est´ libre de errores. en caso contrario se acepta H0 . La regla de decisi´n anterior es razonable. se decide por las monedas. ω H0 : Dado H1 : Monedas 0 0 ∗ 1/32 1 ∗ 1/6 5/32 2 1/6 ∗ 10/32 3 1/6 ∗ 10/32 4 ∗ 1/6 5/32 5 ∗ 1/6 1/32 6 ∗ 1/6 0 La estrategia natural es decidir por el experimento que tenga mayor probabilidad para cada valor de ω. o u Veamos la situaci´n. . Tenemos entonces una situaci´n de dos o u o hip´tesis o H0 : Dado vs H1 : Monedas. Considere una o situaci´n en la que se efect´ a s´lo uno de los siguientes dos experimentos aleatorios: o u o En uno de ellos se lanza un dado. se decide por el dado pero es factible que el resultado haya sido obtenido por las monedas.Parte 2. entonces se rechaza H0 . 3. ¿Qu´ decisi´n tomar para cualquier otro valor de ω? En la siguiente tabla se e o muestran las probabilidades de los posibles n´ meros reportados bajo cada uno de u los dos experimentos. Si ω = 6. 3}. 4. 5. y se nos pide determinar cu´l de los dos experimentos se a realiz´ con base en el n´ mero reportado.7. pero el resultado bien pudo provenir del dado. Pruebas de hip´tesis o Ilustraremos la idea de una prueba de hip´tesis con un ejemplo. Igualmente. Se tiene entonces las siguientes definiciones: Error tipo I: Rechazar H0 cuando H0 es verdadera. 2. Estas probabilidades mayores se encuentran indicadas con un asterisco en la tabla anterior. si ω = 1. o a Si ω = 2. en el otro se lanzan cinco monedas y se cuenta el n´ mero de cruces totales que se obtienen. Error tipo II: No rechazar H0 cuando H0 es falsa. suponiendo que los lados de cada moneda u se denominan cara o cruz.

En contraste. En un problema de decisi´n de este o tipo se busca encontrar una regla de decisi´n razonable que tenga errores menores. 2. En general. Una hip´tesis es simple si especifica por completo la distribuci´n de probabilidad o o en cuesti´n. entonces la afirmao o ci´n “λ = 5” es una hip´tesis simple. P (“Error tipo I”) = = = = Por otro lado. Por ejemplo. P (“Error tipo II”) = P (“No rechazar H0 ” | “H0 es falsa”) = P (ω ∈ C | “H0 es falsa”) / P (“Rechazar H0 ” | “H0 es verdadera”) P (ω ∈ C | “H0 es verdadera”) P (ω ∈ {0. entonces o o o la afirmaci´n “µ = 0” es otro ejemplo de hip´tesis simple. Pruebas de hipotesis Las probabilidades de estos errores pueden ser calculadas del siguiente modo. Naturalmente. o o o entonces “λ > 20” es una hip´tesis compuesta. Si X tiene una distribuci´n N(µ. 1). entonces la afirmaci´n “µ > o o o 0” es otro ejemplo de hip´tesis estad´ o ıstica. = P (ω ∈ {1. entonces la afirmaci´n “p =0. o o cambian las probabilidades de los errores. p).7.2” o o es una hip´tesis. 5. 6} | “Se usaron las monedas”) = 5/32 + 5/32 + 1/32 + 0 = 11/32. o Vamos ahora a estudiar pruebas de hip´tesis en el contexto de la estimaci´n de o o par´metros en las distribuciones de probabilidad. Si X tiene una distribuci´n N(µ. 3} | “Se us´ el dado”) o 0 + 1/6 + 1/6 = 1/3. σ 2 ). decimos o o que una hip´tesis estad´ o ıstica es compuesta cuando no especifica por completo la distribuci´n de probabilidad en cuesti´n. o . si X tiene una distribuci´n exp(λ). o Por ejemplo. a Definici´n. si se cambia la regla de decisi´n cambiando la regi´n de rechazo. contraso taremos dos hip´tesis de acuerdo al siguiente esquema y notaci´n: o o H0 : (hip´tesis nula) o vs H1 : (hip´tesis alternativa).100 ´ 2. o o entonces “n = 5” es otro ejemplo de una hip´tesis compuesta. si X tiene una distribuci´n bin(n. 4. Si X tiene una distribuci´n Poisson(λ). Si X tiene una distribuci´n χ2 (n). Una hip´tesis estad´stica o simplemente hip´tesis es una afirmaci´n o o ı o o o conjetura acerca de la distribuci´n de una o mas variables aleatorias.

sino simplemente que es consistente con e los datos de la muestra aleatoria. y compuesta vs compuesta. . Se le llama regi´n cr´tica a la regi´n de rechazo de H0 . Una prueba de hip´tesis es una regla para decidir si se acepta la o o hip´tesis nula o se rechaza en favor de la hip´tesis alternativa. esto es α. Definici´n. . . posiblemente la decisi´n o de rechazar o no rechazar tambi´n. Al rechazo de la hip´tesis nula cuando ´sta es verdadera se le conoce como o e error tipo I. o o Como sabemos.Parte 2. ESTAD´ ISTICA 101 Tanto la hip´tesis nula (H0 ) como la hip´tesis alternativa (H1 ) pueden ser simple o o o compuesta. se le llama tama˜o de la n regi´n cr´tica. De este modo tenemos cuatro diferentes tipos de contraste de hip´teo sis: simple vs simple. . Observe adem´s que al aceptar una hip´tesis no se o a o afirma que ´sta sea absolutamente cierta. Xn de a la distribuci´n de que se trate. a la aceptaci´n de la hip´tesis nula cuando ´sta es falsa o o e recibe el nombre de error tipo II. y a la probabilidad de cometer este segundo tipo de error se le denota por la letra β. A esta probabilidad se le conoce tambi´n con el nombre de nivel o ı e de significancia. e Definici´n. al tomar una decisi´n de este tipo se corre el riesgo de cometer o errores. y a la probabilidad de cometer este primer tipo de error se le denota por la letra α. simple vs compuesta. H0 cierta Eror tipo I con probabilidad α H0 falsa Rechazar H0 Decisi´n correcta o No rechazar H0 Decisi´n correcta o Error tipo II con probabilidad β La informaci´n para obtener una regla de decisi´n que nos lleve a rechazar o no o o rechazar un hip´tesis estad´ o ıstica provendr´ de una muestra aleatoria X1 . En cambio. compuesta vs simple. y a la o o ı o probabilidad de cometer el error tipo I. Estas definiciones de errores se resumen en la siguiente tabla. . Si la muestra cambia.

σ/ n µ1 = µ0 . tenemos que X ∼ N (µ0 . σ/ n Sea µ0 un n´ mero real particular. . En la siguiente tabla se muestra resumida la informaci´n de esta prueba. en donde α lo determina la persona que lleva a cabo la prueba de hip´tesis. y la prueba se ı denomina prueba de dos colas pues la regi´n de rechazo consta de las dos colas de o la distribuci´n normal que se muestran en la Figura 2. Sea X1 . n A la variable aleatoria Z se le llama la estad´stica de la prueba. t´ o ıpicamente α = 0. El problema es encontrar una regla para decidir cu´ndo a rechazar H0 en favor de H1 con base en los datos de la muestra X1 . o Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o Error tipo I: Error tipo II: H0 : µ = µ0 vs H1 : µ = µ0 ¯ √0 Z = X−µn σ/ |Z| ≥ zα/2 α √ Φ(zα/2 + µ0 −µ1 ) − Φ(−zα/2 + σ/ n µ0 −µ1 √ ). en caso contrario no se rechaza H0 .5. σ/ n ¯ ¯ √ La estad´ ıstica Z = X−µ0 es una medida natural de la distancia entre X. entonces se rechaza H0 . . 1). y su valor esperado µ0 cuando H0 es cierta. Cuando ¯ H0 es cierta.102 ´ 2. Pruebas de hipotesis Nos limitaremos a mostrar la forma en la que se deriva la regla para llevar a cabo una prueba de hip´tesis acerca de la media de una distribuci´n normal. σ 2 /n). Este valor e zα/2 es precisamente la constante k buscada pues con ello se logra que la regi´n de o rechazo sea de tama˜ o α. V´ase la Figura 2. Xn una muestra aleatoria de una poblaci´n normal con media desconocida µ y varianza o ¯ conocida σ 2 . o o ´ Prueba acerca de la media de una distribucion normal. Es por ello que tomamos como criterio de decisi´n rechazar H0 cuando |Z| ≥ k. o si |Z| ≥ zα/2 . esto es. . Xn .7. Llevar a cabo esta prueba o de hip´tesis consiste en usar los datos de la muestra para encontrar el valor de Z.5.1 . Por lo tanto o ¯ X −µ √ ∼ N (0. σ 2 /n) y por lo tanto ¯ X − µ0 √ ∼ N (0. . cuando µ es efectivamente µ0 . ¿C´mo encontrao o mos el n´ mero k? En una tabla de la distribuci´n normal podemos encontrar un u o valor zα/2 tal que P (|Z| ≥ zα/2 ) = α. . Es entonces razonable rechazar H0 cuando la variable Z sea grande. . . 1). . un esσ/ n timador de µ. . Sabemos que X tiene distribuci´n N(µ. para cierta constante k. Deseamos contrastar las hip´tesis H0 : µ = µ0 u o contra H1 : µ = µ0 .

000 litros mensuales. Calcularemos la probabilidad del u error tipo II dado que el verdadero valor de µ es µ1 . 22601. 18325. 19095. 17421. En ciertas zonas de la ciudad se calcula el pago por el consumo de agua suponiendo un consumo promedio de 20. β(µ1 ) = = = = = = P ( “No rechazar H0 cuando µ = µ1 ” ) P ( |Z| < zα/2 | µ = µ1 ) ¯ X − µ0 √ | < zα/2 | µ = µ1 ) P(| σ/ n σ σ ¯ P ( µ0 − zα/2 √ < X < µ0 + zα/2 √ | µ = µ1 ) n n ¯ µ0 − µ1 X − µ1 µ0 − µ1 √ < √ < zα/2 + √ ) P ( −zα/2 + σ/ n σ/ n σ/ n µ0 − µ1 µ0 − µ1 √ ) − Φ(−zα/2 + √ ). 21442. 18788. 22371.Parte 2. Sea µ1 cualquier n´ mero tal que µ1 = µ0 . Φ(zα/2 + σ/ n σ/ n Ejercicio. Para verificar que si tal cantidad ha cambiado se han medido los consumos mensuales de 15 casas obteni´ndose los siguientes resultados: 23456. 21982. ¿Debe cambiar el consumo promedio mensual para calcular los pagos o permanecer igual? Suponga σ = 2000.5: Vamos a comprobar la f´rmula que aparece en la tabla anterior acerca del error o tipo II. 13292. e 20930. 19162. 25073. 23935. 20320. . ESTAD´ ISTICA 103 f (x) α/2 α/2 x −zα/2 zα/2 Regi´n de rechazo o Figura 2.

7. Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o Error tipo I: Error tipo II: H0 : µ = µ0 ¯ √0 Z = X−µn σ/ Z ≤ −zα α 1 − Φ −zα + vs H1 : µ < µ0 µ0 −µ1 √ σ/ n . Pruebas de hipotesis Puede tambi´n considerarse la prueba H0 : µ = µ0 contra H1 : µ < µ0 llamada e prueba de cola inferior pues la regi´n de rechazo consta de la cola izquierda de la o distribuci´n normal como se muestra en la Figura 2. Se rechaza la hip´tesis H0 o o ¯ s´lo cuando los datos de la muestra son tales que X se encuentra muy a la izquierda o de µ0 . µ1 < µ0 f (x) α x −zα Regi´n de rechazo o Figura 2.6: Las caracter´ ısticas de la prueba H0 : µ = µ0 contra H1 : µ > µ0 llamada prueba de cola superior se muestran en la siguiente tabla. (prueba de cola superior) α Φ zα + µ0 −µ1 √ σ/ n . y la regi´n de rechazo se presenta en o la Figura 2.104 ´ 2.Error tipo I: σ/ Error tipo II: H0 : µ = µ0 vs H1 : µ > µ0 ¯ √0 Z = X−µn σ/ Z ≥ zα .7. µ1 > µ0 . Se rechaza la hip´tesis H0 s´lo cuando la muestra provee evidencia o o ¯ de que X se encuentra muy a la derecha de µ0 . Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o ¯ √0 en donde Z = X−µn .6. .

Parte 2. ESTAD´ ISTICA 105 f (x) α zα Regi´n de rechazo o x Figura 2.7: .

106 ´ 2. Pruebas de hipotesis .7.

2. . 3. g) Observar el marcador final de un juego de f´ tbol soccer. . e) Colocar al azar dos bolas distinguibles en cuatro celdas numeradas. Determine un experimento aleatorio para los siguientes espacios muestrales. b) Lanzar a un mismo tiempo tres monedas indistinguibles. 1}. d ) Registrar el n´ mero de llamadas telef´nicas que llegan a un conmutador u o en un minuto dado.}. b) Ω = [0. Proponga dos espacios muestrales para este experimento. c) Escoger un n´ mero real al azar dentro del intervalo [−1. a) Ω = {0. a) Lanzar una moneda tres veces. u 2.Ap´ndice A e Ejercicios Espacio muestral y eventos 1. Un experimento aleatorio consiste en lanzar un dado hasta que se obtiene un “6”. 1] y despu´s u e elevarlo al cuadrado. c) Ω = {0. ∞). . 1. f ) Colocar al azar dos bolas indistinguibles en cuatro celdas numeradas. Determine un espacio muestral para cada uno de los siguientes experimentos aleatorios. 107 .

b) A − B = (A ∪ B) − B. b) A△B = (A ∪ B) − (A ∩ B). b) (A − C) ∩ (B − C) = (A ∩ B) − C. 15. b) A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C). 14. 5.108 Operaciones con conjuntos 4. 11. o 7. 10. Demuestre las leyes de De Morgan: a) (A ∪ B)c = Ac ∩ B c . Demuestre que las siguientes dos definiciones de la operaci´n diferencia sim´trio e ca son equivalentes. 8. Compruebe gr´ficamente las siguientes propiedades b´sicas de la diferencia a a sim´trica. Demuestre que A = (A ∩ B) ∪ (A ∩ B c ). Demuestre que A ∪ B = B ∪ (A ∩ B c ). 6. Demuestre que A ∩ B = B ∩ (A ∪ B c ). a) A△B = (A − B) ∪ (B − A). 9. Demuestre que a) A ∩ (B − C) = (A ∩ B) − (A ∩ C). b) (A ∩ B)c = Ac ∪ B c . Para la demostraci´n use la validez del mismo resultado para dos conjuntos. e . Enuncie y demuestre las leyes de De Morgan para tres conjuntos. Demuestre que A ∪ B = A ∪ (B ∩ Ac ). Demuestre que A ∩ B = A ∩ (B ∪ Ac ). Demuestre las leyes distributivas: a) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C). 12. 13. Demuestre que a) A − B = A − (A ∩ B).

B c . Muestre gr´ficamente los conjuntos Ac . a fuertes y formales? 21. el 60 % son fuertes. y sea A1 ⊆ A. Sean A y B ajenos. Muestre gr´ficamente a los conjuntos A. c) A△Ω = Ac . Ellos. A ∪ B. e) A△Ac = Ω. Sean A = {(x. B c . Ejercicios a) A△(B△C) = (A△B)△C. Muestre gr´ficamente los conjuntos A.´ Apendice A. B c . B − A y A△B. sensibles y sinceras? Conjuntos ajenos 22. A ∪ B. A − B. A − B. 18. Compruebe que los conjuntos A y B − A son siempre ajenos. Muestre gr´ficamente los conjuntos Ac . ¿Cu´l es el m´ a ınimo y el m´ximo posibles de mujeres que son a bonitas. ¿Cu´ntos puntos en com´ n tienen? a u 24. Sean A = {x ∈ R : |x − 2| ≤ 4} y B = {x ∈ R : |x − 1| > 2}. Intuitivamente la afirmaci´n es evidente. y el 70 % son sinceras. A ∩ B. el 80 % son sensibles. y) ∈ R2 : 2x2 + 3y 2 ≤ 6} y B = {(x. y) ∈ R2 : y > −x2 }. A − B. Sean A = {x ∈ R : |x+1| ≤ 2} y B = {x ∈ R : x2 > 2}. 109 16. Ac . Si el 90 % de las mujeres son bonitas. d ) A△A = ∅. A ∩ B. B. 20. A − B. 23. B − A y A△B. y) ∈ R2 : x2 + y 2 ≤ 1} y B = {(x. Si el 70 % de los hombres son feos. a 17. B − A y a A△B. ¿Cu´l es el m´ a ınimo y el m´ximo posibles de hombres que son feos. a 19. A ∪ B. o a 25. ¿Cu´ntas igualdades son necesarias verificar en general para comprobar que a n conjuntos son ajenos dos a dos? . Sean A = {(x. y) ∈ R2 : y > x2 }. y el 50 % son formales. Ac . B. y) : y = 1 − x} ajenos? En caso negativo. ¿Son los conjuntos {(x. el reto consiste en encontrar una o justificaci´n matem´tica de ello. A ∪ B. A ∩ B. B c . Compruebe que A1 y B son ajenos. B − A y A△B. y) : y = e−x } y {(x. A ∩ B. Ellas. b) A△∅ = A.

entonces 2A ⊆ 2B . Sean A = {a1 . Demuestre que u P = αP1 + (1 − α)P2 satisface los tres axiomas de la probabilidad. Sean A y B eventos ajenos tales que P (A) =0. b3 } y C = {c1 .110 Conjunto potencia 26. Demuestre que P (Ac ∩ B c ) = 1 − P (A) − P (B) + P (A ∩ B). b2 . Demuestre que P (∅) = 0. 36.2. 38. Sea Ω = {a. Demuestre que si A ⊆ B. 35. 1]. Sea α un n´ mero real en el intervalo [0. Compruebe que la definici´n de probabilidad frecuentista cumple con los tres o axiomas de la probabilidad. Compruebe que la definici´n de probabilidad cl´sica cumple con los tres axioo a mas de la probabilidad. 33. Demuestre que P (A△B) = P (A)+P (B)−2P (A∩B). Esta es la probabilidad de que suceda exactamente uno de los eventos A y B. 32. c2 }. b. ¿Qui´n es 2∅ ? e 27. B = {b1 . Demuestre que 0 ≤ P (A ∩ B) ≤ P (A) ≤ P (A ∪ B) ≤ P (A) + P (B) ≤ 2. 37. Probabilidad 30. 39. sin usar P (Ω) = 1. c}. Demuestre que P (A ∩ B) ≥ P (A) + P (B) − 1. 34. Encuentre . 29.3 y P (B) =0. para cualesquiera eventos A y B. Sean P1 y P2 dos medidas de probabilidad definidas sobre la misma clase de subconjuntos de Ω. 31. a2 }. Demuestre que P (B − A) = P (B) − P (A ∩ B). Producto Cartesiano 28. Escriba expl´ ıcitamente a los elementos del producto Cartesiano A × B × C. Escriba expl´ ıcitamente al conjunto Ω × Ω.

Justifique en cada caso. 40. entonces A ⊆ B. b) P (Ac ). 111 d ) P (A ∩ B c ). La probabilidad de un cierto evento es tal que duplica la probabilidad de su complemento. a) Si P (A) > 0. Justifique en cada caso. 42. Ejercicios a) P (A ∪ B). b) Si P (A) > 0. Una enciclopedia de 5 vol´ menes es colocada en el librero de modo aleatou rio. c) Si P (A) > 1/2. Diga falso o verdadero. ¿De cu´ntas formas distintas pueden seis personas formarse en una fila lineal? a 45. entonces P (Ac ) < 1/2. entonces P (Ac ) > 0. Justifique en cada caso. c) P (Ac ∩ B). entonces P (A ∩ B) = 0. c) Si P (A) ≤ P (B). a) P (B − A) = P (B) − P (A). a) Si P (A) = 0. Demuestre que la probabilidad de que los vol´ menes queden colocados u apropiadamente de derecha a izquierda o de izquierda a derecha es de 1/60. Diga falso o verdadero. e) P (A△B). entonces P (A ∩ B) > 0. 41. d ) Si P (A) > 0. ¿Cu´ntas diagonales se pueden trazar en un pol´ a ıgono convexo de n lados? . 43. entonces P (A ∪ B) > 0. b) Si P (A) = P (B). 46. entonces A = B. Diga falso o verdadero. c) Si P (A) > 1/2 y P (B) > 1/2. An´lisis combinatorio a 44. entonces P (A ∩ B) > 0. ¿Cu´nto vale la probabilidad de este evento? a b) P (A ∩ B) = P (A)P (B).´ Apendice A.

Cumplea˜os. Demuestre que 52. n al menos dos de ellas tengan la misma fecha de cumplea˜ os. . . Debido a un error. tomao dos del conjunto {0. 50 tornillos defectuosos fueron mezclados con 200 tornillos en buen estado. e 58. Esta es la f´rmula para o . ¿Cu´ntos enteros positivos de a lo mas cinco d´ a ıgitos son divisibles por 2? ¿Cu´ntos hay que empiecen con el d´ a ıgito 1? 49.112 47. n−1 k n−1 k k+1 n n k+1 + n n−1 = k k construir el tri´ngulo de Pascal. . ¿Cu´ntos de ellos son pares y cu´ntos son impares? a a 59. Calcule la probabilidad de que en un conjunto de n personas. 1. Demuestre que 51. . ¿Cu´l es la a probabilidad de que k de ellos sean defectuosos? (0 ≤ k ≤ 20). ¿De cu´ntas maneras diferentes pueden clasificarse los tres primeros lugares a de una carrera de 15 corredores ? 48. Sugerencia: n Considere el complemento del evento de inter´s. ¿Cu´ntos n´ meros binarios diferentes se pueden obtener al usar los siete d´ a u ıgitos 1010101 ? 56. Demuestre que n k n k = = n−k+1 k n n−k = n k−1 . Encuentre el total de n´ meros enteros de cuatro d´ u ıgitos sin repetici´n. . a n−1 k−1 54. En una clase de 25 estudiantes hay 15 mujeres y 10 hombres. ¿Cu´ntos equipos de 3 personas se pueden formar de un grupo de 5 personas? a 50. a) ¿De cu´ntas a formas puede seleccionarse un comit´ de tres hombres y tres mujeres ? b) e ¿De cu´ntas formas puede seleccionarse un comit´ de seis estudiantes? c) a e ¿De cu´ntas formas puede seleccionarse un comit´ de seis estudiantes todos a e del mismo sexo? . Si se venden 20 tornillos tomados al azar. 9} de tal manera que ning´ n n´ mero empiece u u con 0. ¿Cu´ntas “palabras” diferentes se pueden formar con todos los caracteres a (incluyendo repeticiones) de la palabra AMAR? 57. Demuestre que 53. . 2. 55.

Sea An en n´ mero m´ximo de regiones en los que n esferas dividen el espacio. 64. a) ¿Cu´ntas partidas se llevar´n a cabo? a a b) Suponiendo que no hay empates y que cada jugador gana un punto por cada juego ganado. 2. Se asignan 40 problemas para un examen de probabilidad. El examen consistir´ de 4 problemas escogidos al azar. 61. u a Demuestre que An+1 = An + n2 − n + 2. 3. Si un alumno resuelve unicamente 20 de los problemas asignados. Ejercicios 113 60. ¿Cu´ntos divisores diferentes tiene el n´ mero 53 · 74 ? a u 68. Para escoger al ganador se establece que cada jugador debe jugar contra cada uno de los otros finalistas. u a Demuestre que An+1 = An + 1 + n(n + 1)/2. ´ ¿Cu´l es la probabilidad de que el alumno obtenga a a) cero puntos? b) 25 puntos? c) 50 puntos? d ) 75 puntos? . 67. 66. ¿De cu´ntas formas distintas se pueden asignar la a totalidad de puntos en el conjunto de jugadores? c) ¿Cu´ntas configuraciones finales existen en donde haya un unico jugador a ´ con mayor n´ mero de puntos? u 63. 4. 5 y 6 a u en las seis caras de un dado? Observe que originalmente las caras del dado son indistinguibles. Sugerencia: Use el m´todo de inducci´n sobre e o n = #Ω. Demuestre que #(2Ω ) = 2#Ω . 65. ¿De cu´ntas formas diferentes se pueden colocar los n´ meros 1. 62. Tenemos n jugadores finalistas en un torneo de ajedrez. Demuestre que el n´ mero m´ximo de regiones en los que n c´ u a ırculos dividen el plano es 2n . Demuestre que el n´ mero m´ximo de regiones en las que n l´ u a ıneas rectas dividen un plano es 1 + n(n + 1)/2. Sea An en n´ mero m´ximo de regiones en los que n planos dividen el espacio. y cada problema tendr´ un peso de a a 25 puntos.´ Apendice A.

Sea n ≥ 1 un entero. . ¿Cu´ntas soluciones enteras no negativas tiene la ecuaa ci´n o a) x1 + x2 + · · · + xk = n ? b) x1 + x2 + · · · + xk ≤ n ? c) x1 + x2 + · · · + xk ≥ n ? . . ¿Cu´ntas regiones conexas tiene el conjunto Rn − E? a 71. ¿Cu´ntos subconjuntos podemos obtener de un conjunto de n elementos? a Escriba expl´ ıcitamente todos los subconjuntos del conjunto {a. 2n} de a tal forma que cada n´ mero par ocupe una posici´n par? u o 76. . Use el m´todo de inducci´n para demostrar el teorema del binomio. . ¿Cu´ntas “palabras” diferentes podemos obtener usando todas las s´ a ılabas (incluyendo repeticiones) de la palabra “cucurrucuc´ ”? u 78. b. . ¿Cu´ntas “palabras” diferentes podemos obtener usando todas las letras (ina cluyendo repeticiones) de la palabra “manzana”? 77. 73. 2. En una sala de c´mputo hay seis computadoras numeradas del 1 al 6. d}. . e o n (a + b)n = k=0 n k an−k bk . ¿De cu´ntas formas posibles se puede ordenar el conjunto {1. ¿De cu´ntas formas posibles se puede ordenar el conjunto {1. . .114 e) 100 puntos? 69. 2n + 1} a de tal forma que cada n´ mero impar ocupe una posici´n impar? u o 75. 2. ¿Cu´ntas configuraciones diferentes se pueden obtener en un tablero de ajea drez despu´s de e a) la primera jugada del primer jugador? b) la primera jugada del segundo jugador? 72. ¿De o cu´ntas formas distintas pueden las seis computadoras estar siendo usadas o a no usadas? 74. 70. Sea E el conjunto de vectores de Rn para los cuales alguna de sus coordenadas es cero. c.

. Diga falso o verdadero. x2 . ¿Cu´ntos vectores con entradas enteras no a negativas (x1 . u b) P (A|B) = P (B|A).1 y P (B) = 0. Desarrolle la expresi´n (a + b + c)3 usando la f´rmula de coeficientes multio o nomiales (1. b) A y B c son independientes. Encuentre a) P (A ∩ B). a) El n´ mero P (A|B) nunca es cero. Suponga que P (B) = P (A|B) = P (C|A ∩ B) = p. 85. Ejercicios 115 79. xk ) satisfacen las restricciones 1 ≤ x1 < x2 < · · · < xk ≤ n ? 80. c) P (A|B) ≤ P (A). . . d) P (Ac ∩ B c ). .´ Apendice A. y despu´s compruebe la f´rmula directamente a e o multiplicando el trinomio por si mismo. h) P (Ac ∪ B c ).1) en la p´gina 26. b) P (Ac ∩ B). e) P (A ∪ B). Justifique en cada caso. Sean A y B dos eventos independientes. Demuestre que a) Ac y B son independientes. Sean n ≥ k dos enteros positivos. 82. 83. Demuestre que P (A ∩ B ∩ C) = p3 . c) P (A ∩ B c ). .5. Sea P una medida de probabilidad y B un evento con probabilidad positiva. Probabilidad condicional e independencia 81. c) Ac y B c son independientes. g) P (A ∪ B c ). Demuestre que la probabilidad condicional P (·|B) satisface los tres axiomas de la probabilidad. Sean A y B eventos independientes tales que P (A) = 0. 84. f) P (Ac ∪ B).

c) P (A|A ∩ B) = P (B|A ∩ B) = 1. 89. a) P (Ω|B) = 1. 91. Justifique en cada caso. Sean A y B eventos independientes. b) P (∅|B) = 0. Justifique en cada caso. Sea A cualquier evento. b) Para cualquier evento A. a) P (A|B) + P (Ac |B) = 1. Justifique en cada caso. b) A. 88. 90. . Demuestre que A y Ω son eventos independientes. 92. B independientes. b) P (A1 ∪ A2 |B) = P (A1 |B) + P (A2 |B) cuando A1 y A2 son ajenos. Diga falso o verdadero. Diga falso o verdadero. Demuestre que A y ∅ son eventos independientes. c) P (A|B1 ∩ B2 ) = P (A|B1 )P (A|B2 ). 87. Justifique en cada caso. Demuestre que P (A ∪ B) = 1 − P (Ac )P (B c ). Justifique en cada caso. Diga falso o verdadero. A independientes. b) P (A|B) + P (A|B c ) = P (A). d ) P (A1 ∩ A2 |B) = P (A1 |B)P (A2 |B). B ajenos ⇒ A. A es independiente con A. B independientes ⇒ A. Demuestre que a) el conjunto ∅ es independiente consigo mismo. a) P (A|B1 ∪ B2 ) = P (A|B1 ) + P (A|B2 ) cuando B1 y B2 son ajenos. a) A. 93. Diga falso o verdadero. B independientes ⇒ B. a) A. 94. b) el conjunto Ω es independiente consigo mismo. Diga falso o verdadero. Sea A cualquier evento. B ajenos. c) P (A|A) = P (A).116 86.

Ejercicios 117 c) A. ajenos pero no independientes. Teorema de probabilidad total 99. 96. Una persona toma al azar. Sean A y B eventos independientes y ajenos. 1). 1) como P (a. Sea Rn el evento “Se selecciona una bola roja en la n-´sima extracci´n”. C independientes ⇒ A. independientes pero no ajenos. ¿Cu´ntas igualdades son necesarias verificar para demostrar que n eventos a son independientes? Justifique su respuesta. y luego tira un dado equilibrado tantas veces como indica el n´ mero u escogido. con id´ntica probabilidad. Definimos la probabilidad de un intervalo (a. ¿Cu´l es la probabilidad de que las bolas sean de color negro? a . Demuestre que forzosamente alguno de estos eventos tiene probabilidad cero. uno de los n´ meros e u 1. r+b 100. Compruebe que para e o cada n ≥ 1. Suponga que en una urna se tienen b bolas blancas y r bolas rojas. Sean A y B eventos independientes tales que P (A) = p1 y P (B) = p2 . b) = b − a. Considere un experimento aleatorio con espacio muestral Ω = (0. 98. La urna de Polya. ¿Cu´l es la e a probabilidad de que obtenga un total de 5? Teorema de Bayes 101. 95. En una urna se encuentran b bolas de color blanco y n bolas de color negro. Un experimento aleatorio consiste en seleccionar una bola al azar y regresarla a la urna junto con c bolas del mismo color. C independientes. Encuentre eventos A y B tales que a) b) c) d) sean sean sean sean independientes y ajenos. Calcule la probabilidad de que no ocurra ninguno de estos eventos.´ Apendice A. 2 o 3. 97. b) ⊆ (0. B independientes y B. Despu´s suma el resultado de las tiradas del dado. no ajenos y no independientes. A un mismo tiempo se extraen k bolas al azar y resulta que todas son del mismo color. r P (Rn ) = .

x1 x2 x3 · · · Determine en o los siguientes casos el conjunto de valores de la variable aleatoria definida y clasifique ´sta como discreta o continua.118 102. y un “1” se distorsiona en un ”0” con probabilidad 0.6. Se escoge al azar un d´ ıgito binario para ser enviado a trav´s de un canal de e transmisi´n.2. b) X(ω) = x1 . b) se reciba un “1”. b) N´ mero de errores tipogr´ficos en una p´gina escogida al azar de un u a a libro. Se escoge el “0” con probabilidad 0. Encuentre la probabilidad de que a) se reciba un “0”. a d ) Monto de una reclamaci´n por accidente automovil´ o ıstico escogida al azar del conjunto de reclamaciones efectuadas a una compa˜´ aseguradora. Suponga que cada resultado de este experimento se escribe en su expansi´n decimal como ω = 0. c) se haya enviado un “0” dado que se recibi´ un “0”.1. Considere el experimento aleatorio de escoger un n´ mero al azar dentro del u intervalo unitario (0. d ) X(w) = 0.4. y se escoge el “1” con o probabilidad 0. 1).0x1 x2 x3 · · · c) X(ω) = 1 − ω. ¿Cu´les son sus posible valores? a a) Tiempo de vida de una persona escogida al azar. e a) X(ω) = ω. o Variables aleatorias 103. o d ) se haya enviado un “1” dado que se recibi´ un “1”. c) Tiempo de servicio en una transacci´n escogida al azar realizada por o una persona en un cajero autom´tico. . Determine en cada caso si la variable aleatoria en cuesti´n es discreta o cono tinua. El canal de comunicaci´n es ruidoso de modo que un “0” o se distorsiona en un “1” con probabilidad 0. nıa 104.

para − ∞ < x < ∞. Grafique f (x) y calcule P (X ∈ (1. a) f (x) = b) f (x) = c x si x = 1. P (X 2 = 1). Figura 1. o a Calcule P (X ≥ 0). . . f (x) = c (1 + sen x) 0 si x ∈ [0. 0 otro caso. Grafique f (x) y calcule P (X ≥ π) y P (X ∈ [−π. 2. P (Y > X). 2. P (X ≥ 0). Ejercicios 119 105. P (2X − 4 = 0). 2π]). 0 otro caso. Considere el ejemplo del experimento aleatorio de lanzar un dardo en un tablero circular de radio uno. 3. Funciones de densidad y de distribuci´n o 107. P (X + Y ≤ 1). P (Z < 1/2) y P (1/3 < Z < 1/2). Explique porqu´ no es posible encontrar un valor de la constante c para que e la siguiente funci´n sea de probabilidad o de densidad. 3}). otro caso. 2. 109. y) = y y Z(x. 4}) y P (X < 3) en cada o caso.´ Apendice A. P (X ∈ {2. 110. . 2. 10. junto con las variables aleatorias X(x. . .13. Considere un experimento aleatorio con espacio muestral equiprobable Ω = {1. ¿Cu´les son a los posibles valores de X? Calcule P (X = 0). 4. Encuentre el valor de la constante c para que la siguiente funci´n sea de o densidad. 5. Grafique esta funci´n y calcule P (X ∈ {2. . f (x) = c e−|x|. Suponga que para cada re´ ´ gi´n A ⊆ Ω cuya ´rea puede ser calculada se define P (A) = Area(A)/Area(Ω). . 108. . 0. Y (x. −1. P (X < 0). ∞)). Defina la variable aleatoria X(ω) = 2(ω − 3). y P (X 2 = 4). 6}. 2π]. o a) f (x) = c x si x = −2. 1. 106. 3. Encuentre el valor de la constante c para que la siguiente funci´n sea de o densidad. c x2 0 si x = 1. 10. y) = x. otro caso. y) = x2 + y 2 . P (X < 0). . Encuentre el valor de la constante c para que f (x) sea una funci´n de probao bilidad.

b) Calcule y grafique F (x). Sea X discreta con funci´n de probabilidad dada por la tabla que aparece o abajo.  0 F (x) = 1/3 si 1 ≤ x < 2. Calcule adem´s P (X = 2) y P (1 < X < 2). P (X < 0) y P (X 2 = 1). . o Encuentre el valor de c y grafique f (x). 111.1 113.1 114.15 0 0.1 3 0. Sea X discreta con funci´n de probabilidad dada por la siguiente tabla. Encuentre y grafique la correspondiente funci´n de densidad f (x).2 0 0.5 112.4 2 0. o a  si x < 1.1 0 c 2 0. Sea X discreta con funci´n de densidad dada por la tabla que aparece abajo.3 1 0.1 -1 0. c) Calcule P (−1 ≤ X ≤ 3). x f (x) -2 0. o o ¿Es X discreta o continua? Grafique F (x).120 b) f (x) = c sen x 0 si x ∈ [−π. P (X ≥ 2) y P (X ≤ 0). π]. x f (x) -1 0. x f (x) -2 0. Grafique f (x). 115. Sea X una variable aleatoria con la funci´n de distribuci´n que aparece abajo. Calcule y grafique la funci´n de o probabilidad de la variable Y = X 2 . Sea X continua con funci´n de densidad o f (x) = 1/10 si − k ≤ x ≤ 4k 0 otro caso. d) Encuentre m tal que P (|X − 1| ≥ m) = 1/2.15 5 0. Z = |X| y W = 2X − 5.  1 si x ≥ 2. Calcule la funci´n de probabilidad de las siguientes o variables aleatorias Y = X 2 . Grafique en cada caso. Grao fique f (x) y calcule P (X ≥ 0). otro caso. a) Determine el valor de la constante k y grafique f (x).

 1 si x ≥ 1. Grafique la funci´n y o o justifique su respuesta. b) Calcule y grafique f (x). otro caso. c) Calcule y grafique F (x). d) Calcule P (X ≥ 6). 3. Una urna contiene cuatro bolas numeradas 1. 3 y 4. Calcule adem´s P (X = 1/2) y P (X > 1/2). 119. Determine si la siguiente funci´n es de o justifique su respuesta. o a  si x < 0. Determine si la siguiente funci´n es de probabilidad. Grafique la funci´n y o si x = 0.   4 3 x 1 4−x si x = 0. Ejercicios 121 117. 118. o a) f (x) = b) f (x) = 4x/5 si x ∈ [0. Sea X la variable aleatoria que denota la suma de los n´ meros de las dos bolas seleccionadas.  0 √ F (x) = x si 0 ≤ x < 1. una a la vez y sin reemplazo. 1.   1/6 2/3 f (x) =  0 probabilidad. 2]. P (3 < X ≤ 5) y P (X = 6). 120. si x = 2. 2. Grafique la funci´n en cada caso y justifique su respuesta. u a) Determine Ω. Se extraen dos bolas al azar. 4 4 x f (x) =  0 otro caso. 3]. 0 otro caso. o o ¿Es X discreta o continua? Grafique F (x). 0 otro caso. 1. 2x2 /3 − 2x + 4/3 si x ∈ [0. 4. Sea X una variable aleatoria con la funci´n de distribuci´n que aparece abajo. . Encuentre y grafique la correspondiente funci´n de densidad f (x). 116.´ Apendice A. Determine si cada una de las siguientes funciones es de densidad. 2.

122
121. Sea X una variable aleatoria con la siguiente funci´n de distribuci´n. Eno o cuentre y grafique f (x). Calcule P (0 ≤ X < 10). F (x) = 1 − (1/2)x+1 0 si x = 0, 1, 2, 3, . . . otro caso.

122. Sea X una variable aleatoria continua con la funci´n de densidad que apao rece abajo. Encuentre el valor de la constante c y grafique la funci´n f (x). o Encuentre y grafique adem´s la funci´n de distribuci´n F (x). a o o f (x) = 2x/9 si 0 < x < c, 0 otro caso.

Esperanza, varianza, momentos 123. Sea a un n´ mero fijo. Construya una variable aleatoria X tal que E(X) = a. u 124. Calcule la esperanza babilidad es   1/3 1/6 a) f (x) =  0   1/4 1/2 b) f (x) =  0 a) f (x) = e−x , de la variable aleatoria discreta X cuya funci´n de proo si x = 0, 1, si x = 2, 3, otro caso. si x = −1, 1, si x = 0, otro caso.

125. Calcule la esperanza de la variable aleatoria continua X cuya funci´n de o densidad es para x > 0. para 0 < x < 1. b) f (x) = 6x(1 − x),

126. Sea X una variable aleatoria discreta con la funci´n de probabilidad que o aparece abajo. Demuestre que f (x) es efectivamente una probabilidad de densidad y que la esperanza de X no existe. Este es un ejemplo de una variable aleatoria discreta que no tiene esperanza finita.  1  si x = 1, 2, 3, . . . f (x) = x(x + 1)  0 otro caso.

´ Apendice A. Ejercicios

123

127. Sea X una variable aleatoria continua con la funci´n de densidad que aparece o abajo. Demuestre que esta funci´n es efectivamente una funci´n de densidad. o o Compruebe adem´s que la esperanza de X no existe. Este es un ejemplo de a una variable aleatoria continua que no tiene esperanza finita. Es una caso particular de la distribuci´n Cauchy. o f (x) = 1 , π(1 + x2 ) para − ∞ < x < ∞.

128. Diga falso o verdadero. Justifique en cada caso. a) La esperanza de una v.a. puede ser cero. b) No hay dos v.a.s distintas con la misma esperanza. c) La esperanza de una v.a. nunca es negativa. d ) La varianza de una v.a. puede ser cero. e) La varianza de una v.a. nunca es negativa. f ) No hay dos v.a.s distintas con la misma varianza. 129. Demuestre que a) E(E(X)) = E(X). b) Var(Var(X)) = 0. 130. Sea X la variable aleatoria constante c. Compruebe que a) E(X) = c. b) E(X n ) = cn . c) Var(X) = 0. 131. Calcule la media y varianza de la variable aleatoria X con funci´n de probao bilidad   1/9 si x = 0, 1, 2, 2/9 si x = 3, 4, 5, f (x) =  0 otro caso. 132. Calcule la media y varianza de la variable aleatoria X cuya funci´n de proo babilidad es (1/2)x+1 si x = 0, 1, 2, 3, . . . f (x) = 0 otro caso. 133. Diga falso o verdadero. Justifique en cada caso. a) Var(E(X)) = 0.

124
b) E(Var(X)) = Var(X). 134. Sea X una variable aleatoria continua con funci´n de densidad f (x) = 1 e−|x| , o 2 para −∞ < x < ∞. Demuestre que f (x) es efectivamente una funci´n de o densidad y compruebe que a) E(X) = 0. b) E(X 2 ) = 2. c) Var(X) = 2. d ) E(X n ) = n! para n par. 135. Diga falso o verdadero. Justifique en cada caso. a) E(−X) = −E(X).

b) Var(−X) = −Var(X).

c) E(Var(X)) = Var(E(X)).

136. Encuentre el error en la siguiente “demostraci´n” de la afirmaci´n de que la o o varianza de cualquier variable aleatoria es cero. 0 = = = = = Var(0) Var(X + (−X)) Var(X) + Var(−X) Var(X) + Var(X) 2 Var(X).

Distribuci´n uniforme discreta o 137. Sea X con distribuci´n uniforme en el conjunto {1, . . . , n}. Demuestre que o a) E(X) = (n + 1)/2. b) E(X 2 ) = (n + 1)(2n + 1)/6. c) Var(X) = (n2 − 1)/12. 138. Se escogen completamente al azar y de manera independiente dos n´ meros u a y b dentro del conjunto {1, 2, . . . , 9, 10}. ¿Cu´l es la probabilidad de que el a cociente a/b sea menor a uno?

p). p). Demuestre que 0 ≤ o Var(X) ≤ E(X). Demuestre que la vao riable Y = n− X tiene distribuci´n bin(n. u 147. Se lanza una moneda equilibrada 6 veces. 146. n − 1. Sea X con distribuci´n bin(n. Demuestre que para x = 0. Sea X una variable aleatoria con distribuci´n bin(n. ¿Cu´les son los valores de n y p? a 143. (1 − p) (x + 1) 145. 142. .´ Apendice A. Sea X una variable aleatoria con distribuci´n bin(n. ısta 144. p). Verifique que f (x) es o efectivamente una funci´n de densidad. . Calcule la probabilidad de que ambas caras caigan el mismo n´ mero de veces. Esta expresi´n permite calcular las probabilidao o des de esta distribuci´n de una forma iterativa. 1 − p). Se lanza una moneda equilibrada 2n veces. Sea X una variable aleatoria con distribuci´n bin(n. b) Var(X) = np(1 − p). Sea X una variable aleatoria con distribuci´n bin(n. Proporcione una explicaci´n o o probabil´ de este resultado. Sea X una variable aleatoria con distribuci´n bin(n. Demuestre adem´s que o a a) E(X) = p. b) E(X n ) = p. Demuestre que o a) E(X) = np. c) Var(X) = p(1 − p). . Sea X una variable aleatoria con distribuci´n Ber(p). Ejercicios Distribuci´n Bernoulli o 125 139. o P (X = x + 1) = p (n − x) P (X = x). para n ≥ 1. p) tal que E(X) = 4 y o Var(X) = 2. Distribuci´n binomial o 140. p). . . se o cumple la siguiente f´rmula. Calcule la probabilidad de que cada cara caiga exactamente 3 veces. p). o 141. Verifique que f (x) es o efectivamente una funci´n de densidad. 1.

se registra su color. Sea X una variable aleatoria con distribuci´n Poisson(λ). b = 0. 151. Considere una urna con 3 bolas negras y 5 bolas blancas. Demuestre que para o cualesquiera a. y despu´s se regresa a la urna. 2. Sea X una variable aleatoria con distribuci´n Poisson(λ). (x + 1) 155. . Verifique que la funci´n o o f (x) es efectivamente una funci´n de densidad. o 150. ¿Cu´ntas e a extracciones en promedio se necesitan realizar hasta obtener una bola negra por primera vez? Distribuci´n Poisson o 153. Demuestre que o a) E(X) = (1 − p)/p. Demuestre que la o probabilidad de que X tome un valor par es (1 + e−2λ )/2. 1. Verifique que f (x) o es efectivamente una funci´n de densidad y demuestre que E(X) = λ.126 148. ¿Cu´l de los siguientes o a eventos es m´s probable que ocurra? a a) MHHMHM b) MMMMHM c) HMHMHM Distribuci´n geom´trica o e 149. Demuestre que para o x = 0. . Sea X una variable aleatoria con distribuci´n geo(p). se cumple la siguiente f´rmula. 2. y considerando la observaci´n de 6 nacimientos. Esta expresi´n permite calcular o o las probabilidades Poisson de una forma iterativa. Sea X una variable aleatoria con distribuci´n geo(p). . Sea X una variable aleatoria con distribuci´n geo(p). . e 152. . 1. y o Var(X) = λ. . 154. P (X = x + 1) = λ P (X = x). Sea X una variable aleatoria con distribuci´n Poisson(λ). se cumple la siguiente propiedad llamada de p´rdida de memoria: P (X ≥ a + b | X ≥ a) = P (X ≥ b). Suponiendo que es igualmente probable que nazca un hombre (H) o una mujer (M). . b) Var(X) = (1 − p)/p2 . Se escoge una bola al azar.

Cuando se descomponen mas de dos m´quinas. . y Var(X) = r(1 − p)/p2 . p). c) ¿Cu´l es el n´ mero de computadoras con falla m´s probable en un mes? a u a Distribuci´n binomial negativa o 157. 159. . Verifique que f (x) es efectivamente una o funci´n de densidad. o P (X = x) = (1 − p) Distribuci´n hipergeom´trica o e 160. p). Sea X con distribuci´n unif(a. Verifique que f (x) o es efectivamente una funci´n de densidad. x Distribuci´n uniforme continua o 161. las restantes se a env´ fuera del laboratorio para su reparaci´n. Sea X una variable aleatoria con distribuci´n bin neg(r. Sea X con distribuci´n hipergeo(N. o 158. Ejercicios 127 156. Verifique que f (x) es efectivamente o una funci´n de probabilidad. se cumple la siguiente f´rmula. o . ıan o a) ¿Cu´l es la probabilidad de que en un mes cualquiera sea necesario enviar a m´quinas fuera del laboratorio para su reparaci´n? a o b) Responda al inciso anterior cuando se reduce la capacidad de reparaci´n o del laboratorio a una computadora por mes. 2. n). Esta expresi´n permite o o calcular las probabilidades de esta distribuci´n de una forma iterativa. Sea X una variable aleatoria con distribuci´n bin neg(r. El laboratorio tiene capacidad para reparar hasta dos m´quia nas por mes. b). p). Sea X una variable aleatoria con distribuci´n bin neg(r. Demuestre que o para x = 1.´ Apendice A. o r+x−1 P (X = x − 1). K. Demuestre que o E(X) = r(1 − p)/p. El n´ mero de computadoras que fallan por mes en un laboratorio de c´mputo u o tiene una distribuci´n Poisson con un promedio mensual de λ = 2 m´quinas o a descompuestas. .

Verifique que f (x) es o efectivamente una funci´n de densidad. Demuestre que o a) E(X) = (a + b)/2. b). Demuestre que la media y la mediana de o X coinciden. b). (n + 1)(b − a) 165. b). Sea X con distribuci´n uniforme en el intervalo (0. e P (X ≥ x + y | X ≥ x) = P (X ≥ y). 0 si n es impar. Demuestre que o a) E(X) = 1/λ. 163. Sea X con distribuci´n unif(a. 1). 1). e 164. La u distribuci´n exponencial es la unica distribuci´n continua que satisface esta o ´ o propiedad llamada de p´rdida de memoria. Demuestre que el no ´simo momento de X es 1/(n + 1). Sea X una variable aleatoria con distribuci´n exp(λ). Demuestre que o E(X n ) = bn+1 − an+1 . Obtenga la distribuci´n de la variable Y = o o 10X − 5. 167. Demuestre que para o cualesquiera n´ meros x. y ≥ 0 se cumple la igualdad que aparece abajo. Sea X con distribuci´n uniforme en el intervalo (a. Sea X una variable aleatoria con distribuci´n uniforme en el intervalo (−1. Distribuci´n exponencial o 168. Sea X con distribuci´n exp(λ). Sea X una variable aleatoria con distribuci´n exp(λ). Sea X con distribuci´n unif(0.128 162. 1). b) Var(X) = 1/λ2 . b) Var(X) = (b − a)2 /12. o Demuestre que E(X n ) = 1/(n + 1) si n es par. . 170. o 169. 166. Sea X con distribuci´n uniforme en el intervalo (a.

Distribuci´n beta o 176. F (x + y) = F (x) + F (y) − F (x) F (y). Verifique que f (x) es efectivamente una o funci´n de densidad. c) Γ(n + 1) = n! si n es entero. ¿Cu´ntos tienen un conexi´n superior a una hora? Calcule adem´s a o a la probabilidad de que un usuario cualquiera a) no permanezca conectado mas de 10 minutos.´ Apendice A. Demuestre que o a) E(X) = n/λ. λ). b). Demuestre que para cualesquiera n´ meros o u x. Sea X con distribuci´n gama(n. b). o 174. o 177. b) permanezca conectado mas de 10 minutos pero menos de una hora. 175. Verifique que f (x) o es efectivamente una funci´n de densidad. b) Var(X) = n/λ2 . Demuestre las siguientes propiedades de la funci´n gama. λ). b) Γ(2) = Γ(1) = 1. 172. De mil o usuarios. y ≥ 0. Sea X con distribuci´n beta(a. Sea X con distribuci´n exp(λ). Demuestre que o a) E(X) = a/(a + b). √ d ) Γ(1/2) = π. . Sea X una variable aleatoria con distribuci´n gama(n. o a) Γ(n + 1) = n Γ(n). c) E(X m ) = Γ(m + n)/( λm Γ(n) ). Distribuci´n gama o 173. Suponga que el tiempo que un usuario cualquiera permanece conectado a un servidor en una red de c´mputo se puede modelar como una variable o aleatoria con distribuci´n exponencial con media igual a 10 minutos. Sea X con distribuci´n beta(a. Ejercicios 129 171.

1). b) = B(a. a+b g) B(1/2. F (x) =  1 si x ≥ 1. b) B(a. 183. la o funci´n de distribuci´n de X toma la forma o o  si x ≤ 0. Sea X con distribuci´n beta(a. b). b a e) B(a + 1. 1/2) = π. a). b). Demuestre que para cualquier entero n ≥ 0. En este caso se dice que X tiene una o distribuci´n arcoseno. 181.  0 xa si 0 < x < 1. o E(X n ) = B(a + n. Demuestre las siguientes propiedades de la funci´n beta. b) = 1/b. b + 1) = B(a. Sea X con distribuci´n beta(a. 179. 1) = 1/a.130 b) Var(X) = ab/( (a + b + 1)(a + b)2 ). b + 1). b)/B(a. Sea X con distribuci´n beta(1/2. Sea X con distribuci´n beta(a. . o Demuestre que X tiene una distribuci´n uniforme en el intervalo (0. d ) B(a + 1. o a) Calcule y grafique f (x). b). 1/2). b) = B(b. la o funci´n de distribuci´n de X toma la forma o o  si x ≤ 0. Sea X una variable aleatoria con distribuci´n beta(a. 182. con a = b = 1. b). o 180. 178. a+b b f ) B(a. b) = a B(a. o c) Calcule E(X) y Var(X). Demuestre que cuando a > 0 y b = 1. o a) B(a. c) B(1. b). b) Demuestre que f (x) es una funci´n de densidad. b). b).  0 1 − (1 − x)b si 0 < x < 1. Demuestre que cuando a = 1 y b > 0. F (x) =  1 si x ≥ 1.

Sea X con distribuci´n N(µ. c) P (0 < X ≤ 10). Calcule o a) P (X ≤ 10). o 187.´ Apendice A. e o Encuentre los par´metros correspondientes. Sea X una variable aleatoria con distribuci´n N(µ. σ 2 ). tambi´n tiene una distribuci´n normal. y Var(X) = σ 2 . Sea X con distribuci´n N(10. b) P (X < 0). σ 2 ). Sea X una variable aleatoria con distribuci´n N(µ. σ 2 ). Demuestre que la o variable Y = aX + b. d ) P (X ≥ 20). Sea X con distribuci´n N(µ. Demuestre que la variable Z = (X − µ)/σ o tiene distribuci´n normal est´ndar. b) P (X > 0). 188. c) P (0 < X ≤ 40). b) 1 − Φ(x) = 0. Demuestre que la vao riable Y = −X tambi´n tiene una distribuci´n normal. demuestre que si Z tiene distribuci´n normal est´ndar. Encuentre x tal que a) Φ(x) = 0. Sea X con distribuci´n N(µ. 100). Calcule o a) P (X ≥ 10). e) P (−10 < X ≤ 10). entonces la variable X = µ + σZ tiene o a distribuci´n N(µ.8666 . Verifique que f (x) es efectivamente una o funci´n de densidad. 189.9154 . Demuestre que E(X) = µ. σ 2 ). Ejercicios Distribuci´n normal o 131 184. σ 2 ). 25). a 191. Rec´ o a ıprocamente. d ) P (X ≥ 30). Sea X con distribuci´n N(0. . σ 2 ). e) P (−20 < X ≤ 10). 190. o 185. Encuentre los par´mee o a tros correspondientes. con a = 0. o 186. y σ > 0.

Demuestre que X 2 o tiene√ una distribuci´n χ2 (1). y desviaci´n o est´ndar σ = 10 ml. FX 2 (x)= P (X 2 ≤ x)= o √ P (− x ≤ X ≤ x). Compruebe que la correspondiente funci´n de o o densidad f (x) efectivamente lo es. para m ≥ 0.a. o menos. o 194. y que Var(X) = 2n. Sea X con distribuci´n χ2 (n). 197. 196. a el llenado de los vasos no es enteramente exacto y hay peque˜ as fluctuaciones n en el llenado. Encuentre la o a funci´n de densidad de Y = |X|. ¿cu´ntos de ellos reclamar´n? a a Distribuci´n ji cuadrada o 195. a 2 2 Distribuci´n t o 198. . o Compruebe adem´s que E(X m ) = 2m Γ( n + m)/Γ( n ). Sugerencia: Para x > 0. de mil clientes. Sea X una variable aleatoria con distribuci´n normal est´ndar. Compruebe que la distribuci´n χ2 (n) se reduce a la distribuci´n exp(1/2) o o cuando n = 2. Sea X con distribuci´n χ2 (n). Verifique que f (x) es efectivamente una funci´n o o de densidad. 193. normal con media de 300 ml. ¿qu´ porcentaje de ellos se e derramar´n? a d ) Si los clientes reclaman por vasos servidos con 270 ml. Sea X con distribuci´n t(n). El fabricante de la m´quina sabe que el llenado de los vasos a se puede modelar como una v. Sea X una variable aleatoria con distribuci´n N(0.132 192. a a) ¿Qu´ fracci´n de los vasos ser´n servidos con m´s de 310 mililitros? e o a a b) ¿Cu´l es la probabilidad de que un vaso sea servido entre 290 y 305 a mililitros? c) Si el restaurant utiliza vasos de 320 ml. Demuestre que E(X) = n. Debido a cuestiones mec´nicas. Una m´quina autom´tica despachadora de refresco en un restaurant est´ ajusa a a tada para llenar vasos de 300 ml en promedio. 1).

´ Apendice A. Ejercicios

133

199. Sea X con distribuci´n t(n). Demuestre que E(X) = 0, y Var(X) = n/(n−2), o para n > 2.

Vectores aleatorios 200. Sea (X, Y ) un vector aleatorio discreto con funci´n de densidad f (x, y) dada o por la siguiente tabla x\y -1 0 1 .3 .5 2 .05 .15 a) Grafique f (x, y) y demuestre que efectivamente se trata de una funci´n o de densidad. b) Calcule y grafique las densidades marginales f (x) y f (y). Verifique que ambas son efectivamente funciones de densidad. c) Calcule y grafique las distribuciones marginales F (x) y F (y). Verifique que ambas son efectivamente funciones de distribuci´n. o d ) ¿Son X y Y independientes? 201. Sea (X, Y ) un vector aleatorio discreto con funci´n de densidad f (x, y) dada o por la siguiente tabla x\y 0 1 1 .2 0 2 .7 .1 a) Grafique f (x, y) y demuestre que efectivamente se trata de una funci´n o de densidad. b) Calcule y grafique las densidades marginales f (x) y f (y). Verifique que ambas son efectivamente funciones de densidad. c) Calcule y grafique las distribuciones marginales F (x) y F (y). Verifique que ambas son efectivamente funciones de distribuci´n. o d ) ¿Son X y Y independientes? 202. Sea (X, Y ) un vector aleatorio continuo con distribuci´n uniforme en el cuao drado (−1, 1) × (−1, 1). a) Grafique f (x, y) y demuestre que efectivamente se trata de una funci´n o de densidad.

134
b) Calcule y grafique las densidades marginales f (x) y f (y). Verifique que ambas son efectivamente funciones de densidad. c) Calcule y grafique las distribuciones marginales F (x) y F (y). Verifique que ambas son efectivamente funciones de distribuci´n. o d ) ¿Son X y Y independientes? 203. Sea (X, Y ) un vector aleatorio continuo con funci´n de densidad f (x, y) dada o por la siguiente expresi´n o f (x, y) = e−(x+y) 0 si x, y > 0, otro caso.

a) Grafique f (x, y) y demuestre que efectivamente se trata de una funci´n o de densidad. b) Calcule y grafique las densidades marginales f (x) y f (y). Verifique que ambas son efectivamente funciones de densidad. c) Calcule y grafique las distribuciones marginales F (x) y F (y). Verifique que ambas son efectivamente funciones de distribuci´n. o d ) ¿Son X y Y independientes?

Variables y tipos de datos 204. Clasifique cada una de las siguiente variables de acuerdo a si es cualitativa o cuantitativa, y tambi´n de acuerdo a su posible escala de medici´n. e o a) Evaluaci´n de un curso usando la siguiente escala: MB=Muy Bien. B=Bien. o S=Suficiente. NA=No Acreditado. b) N´ mero de hijos de una persona. u c) Escolaridad de una persona. d) Porcentaje de art´ ıculos defectuosos producidos en una f´brica. a e) Nivel de satisfacci´n de una persona al adquirir un producto. o f) Preferencia electoral por alguna de las siguientes propuestas pol´ ıticas: A,B,C,D,E,F. g) Uso o no uso de lentes de una persona. h) Principal pa´ de visita para una persona que viaja al extranjero. ıs i) Costo econ´mico en un accidente automovil´ o ıstico.

´ Apendice A. Ejercicios Estad´ ıstica descriptiva

135

205. Calcule la media, moda, mediana, varianza, desviaci´n est´ndar y rango del o a siguiente conjunto de datos: 4, 2, 0, 9, 4, 2, −1, 1, −4, 2. 206. Pregunte a diez personas sus estaturas. Registre todos estos datos y calcule la media, moda, mediana, varianza, desviaci´n est´ndar y rango. o a 207. Mediante el uso de una calculadora genere diez n´ meros al azar dentro del inu tervalo unitario (0, 1). Escriba estos datos y calcule la media, moda, mediana, varianza, desviaci´n est´ndar y rango. o a
n

208. Demuestre que
i=1 n

(xi − x) = 0. ¯
n

209. Demuestre que
i=1

(xi − x) = ¯
n

2

i=1

x x2 − n¯2 . i
n

210. Demuestre que s2 =

1 1 [ x2 − ( xi )2 ]. n − 1 i=1 i n i=1
n

211. Encuentre el valor de c que minimiza la funci´n x(c) = o ¯
i=1

(xi − c)2 .

212. Calcule la media, varianza, desviaci´n est´ndar, mediana y moda aproximao a dos del siguiente conjunto de datos agrupados. Elabore adem´s un histograa ma.
Intervalo de clase 10 ≤ x < 20 20 ≤ x < 30 30 ≤ x < 40 40 ≤ x < 50 50 ≤ x < 60 Frecuencia 4 3 6 5 5

213. Calcule la media, varianza, desviaci´n est´ndar, mediana y moda aproximao a dos del siguiente conjunto de datos agrupados. Elabore adem´s un histograa

Sea X1 . .a.a. Sea X1 . — Estimaci´n puntual o ˆ ˆ 215. . Xn una m. de una poblaci´n con media conocida µ y varianza σ 2 o desconocida. n i=1 217. . 216. n − 1 i=1 218. Demuestre que la siguiente estad´ ıstica es un estimador insesgado para σ 2 . Demuestre que la siguiente estad´ ıstica es un estimador insesgado para σ 2 . . de una poblaci´n con media desconocida y variano za σ 2 desconocida. n 1 ¯ S2 = (Xi − X)2 . Sean θ1 y θ2 dos estimadores insesgados para el par´metro θ. de una poblaci´n con media desconocida y varianza o finita σ 2 desconocida. n 1 σ2 = ˆ (Xi − µ)2 . Sea X1 .a. . Intervalo de clase 0≤x<5 5 ≤ x < 10 10 ≤ x < 15 15 ≤ x < 20 25 ≤ x < 30 30 ≤ x < 35 35 ≤ x < 40 Frecuencia 12 23 10 14 6 10 5 Muestras aleatorias y estad´ ısticas 214. . . . Xn una m. . . Demuestre que θ = αθ1 + (1 − α)θ2 es tambi´n un estimador e insesgado para θ. y sea α una a ˆ ˆ ˆ constante.136 ma. . . Xn una m. Demuestre que la siguiente estad´ ıstica es un estimador insesgado para σ 2 . . σ2 = ˆ 1 2(n − 1) n−1 i=1 (Xi+1 − Xi )2 .

. Demuestre que S no es un estimador insesgado i=1 para σ. . a 222. Se sabe que la vida en horas de un foco de 100 watts de cierta marca tiene una distribuci´n aproximada normal con desviaci´n est´ndar σ = 30 horas. Dada una muestra aleatoria de tama˜ o n de una poblaci´n Poisson con n o par´metro λ > 0. use el m´todo de m´xima verosimilitud para encontrar un e a estimador para el par´metro a. a M´todo de m´xima verosimilitud e a 223. Dada una muestra aleatoria de tama˜ o n de una poblaci´n exponencial con n o par´metro desconocido λ > 0. . a Estimaci´n por intervalos o 225. Recuerde que la varianza muestral S 2 se ha definido como sigue 1 ¯ S 2 = n−1 n (Xi − X)2 . Dada una muestra aleatoria de tama˜ o n de una poblaci´n uniforme en el n o intervalo [0. a]. Dada una muestra aleatoria de tama˜ o n de una poblaci´n uniforme en el n o intervalo [0. Sea X1 . Dada una muestra aleatoria de tama˜ o n de una poblaci´n Poisson con n o par´metro desconocido λ > 0. o o a Se toma una muestra al azar de 50 focos y result´ que la vida media fue de o 1550 horas. use el m´todo de momentos para encontrar un a e estimador del par´metro λ. .´ Apendice A. Modifique S para que sea insesgado. Construya un intervalo de confianza del 95 % para el verdadero promedio de vida de estos focos. use el m´todo de momentos para encontrar a e un estimador del par´metro λ. Sugerencia: (n−1) 2 σ2 S ∼ χ2 (n−1). M´todo de momentos e 220. use el m´todo de m´xima verosimilitud para encontrar a e a un estimador del par´metro λ. a 224. a]. Ejercicios 137 219. Xn una m. de una poblaci´n con media µ y varianza σ 2 deso conocidas. . use el m´todo de momentos para encontrar un estimador para e el par´metro a.a. a 221.

66.60.75. 2252. Use un nivel o de significancia del 5 %. 8. 1. 2231. 229. 2195. 2190. 1.55. 10. 1. 1. 2272. 2211. 2285. 2262.70. 1. 1.64. 2231.65.73. 1. 1.62. 2255. 1. suponiendo una distribuci´n normal. Considere cualquiera de las tres pruebas de hip´tesis para la media µ de o una poblaci´n normal con σ 2 conocida. 2300. Use un nivel de significancia del 10 %. 1. 4.59. 4. con el siguiente conjunto de datos: 1. . 5. suponiendo que los datos provienen de una muestra tomada al azar de una poblaci´n normal con σ = 1.70 metros.77.138 226. 1.72. 1. 2257. 20.10 . o Pruebas de hip´tesis o 227. 1. 2217. Realice la prueba de hip´teo sis H0 : µ = 10 vs H1 : µ < 10. 10. 2261. 1. 228.66. 2218. Demuestre que en cualquier caso la o probabilidad de cometer el error tipo II tiende a cero cuando el tama˜ o de la n muestra n tiende a infinito. Construya un intervalo de confianza del 98 % para la resistencia media de este material. Se cree que la estatura de cierta poblaci´n humana sigue una distribuci´n o o normal con media de 1.74. 2295. 1.65.63. 3. Realice la prueba de hip´tesis H0 : µ = o 1. Las mediciones del n´ mero de cigarros fumados al d´ por un grupo de diez fuu ıa madores es el siguiente: 5. 1. 1. 1. Se realizan 20 pruebas de resistencia de un cierto material obteni´ndose los e siguientes datos: 2225. y suponga σ = 0. 2232.81.2 .83. 2223.70 vs H1 : µ = 1. 2219.74.69. 1.

o o Para algunos ejercicios es necesario ser m´s expl´ a ıcito al dar una soluci´n o al juso tificar una respuesta. 1). ASA. 2}.}. ∅). (0. . (1. (∅. . considere por tanto que este material contiene simplemente ideas para generar una soluci´n completa y bien escrita. d ) Ω = {0. 2}. 0). ∅. 1. ∅). 0. C2 . 0. 2. Recuerde adem´s que los m´todos empleados o sugeridos para a e llegar a una soluci´n no son necesariamente unicos. 1). {2}. C4 ) en donde cada coordenada Ci corresponde al conjunto de bolas que han sido depositadas en la celda i. AAS. ({1}. Entonces Ω ={({1. . (0. . (0. {1. 2. . 139 . Considere el arreglo (C1 . 1. AAS.}. 2. 1. 0). (1. El n´ mero total de elementos en u Ω es 16. . . 0). (1. 0). . 1. c) Ω = [0. (0. 0. ∅). 0). 1. 0. (0. ∅.Ap´ndice B e Soluciones Esta secci´n contiene algunas sugerencias de soluci´n a los ejercicios planteados. SAS. 0. 0. SSS}. 0. 0. SSA. (1. 0. (0. 1). ASS. (1. SSS}. 0). C3 . . a) Ω = {AAA..}. 0). (0. g) Ω = {(0. 0. 1. . 1. 0). 0. . b) Ω = {AAA. ¿Puede usted escribir todos los arreglos? f ) Ω = {(2. ASS.. 0. SAA. La mayor´ de las gr´ficas o ıa a han sido omitidas. 1)}. ∅. 2). e) Considere que las bolas tienen las etiquetas 1 y 2. 1]. 1). o ´ Espacio muestral y eventos 1. ∅.

a 5. Operaciones con conjuntos 4. / / / Es decir. Esto demuestra la contenci´n o o A ∩ (B ∪ C) ⊆ (A ∩ B) ∪ (A ∩ C). x ∈ Ac ∩ B c . a 10. es decir x ∈ B. 2. 7. a) Demostraremos la contenci´n (A ∪ B)c ⊆ Ac ∩ B c . A = A ∩ Ω = A ∩ (B ∪ B c ) = (A ∩ B) ∪ (A ∩ B c ).}. Si es el primer caso. Si nos interesa registrar con detalle los resultados. N 6. . 8. 2.140 2. B ∪ (A ∩ B c ) = (B ∪ A) ∩ (B ∪ B c ) = (B ∪ A) ∩ Ω = B ∪ A. La misma conclusi´n se obtiene si x ∈ C. De manera an´loga se prueba la contenci´n contraria y a o de esa forma se demuestra la igualdad. 3. a) Sea x ∈ A ∩ (B ∩ C). . Sea x ∈ (A ∪ B)c . Si nos interesa observar el n´ mero de lanzamientos hasta obtener un 6 se pueu de tomar Ω = {1. El n´ mero 1 puede representar ganar en un juego de a u loter´ mientras que el n´ mero 0 corresponde a perder en el juego. 4 ´ 5. Este es ıa u uno de los muchos ejemplos que pueden construirse para este espacio. . x ∈ A y x ∈ B. N N 6. 9. a .}. a) N´ mero de hijos de una persona escogida al azar. La ultima afirmaci´n ´ o puede descomponerse en: x ∈ B ´ x ∈ C. De manera an´loga se demuestra al a segundo inciso. Entonces x ∈ A y x ∈ B ∩ C. Ω = {6. y por lo tanto x es un elemento del lado derecho de la igualdad. u o 3. . An´logo al anterior. o Entonces x ∈ (A ∪ B). B ∩ (A ∪ B c ) = (B ∩ A) ∪ (B ∩ B c ) = (B ∩ A) ∪ ∅ = B ∩ A. entonces se obtiene que x ∈ A ∩ B. b) Tiempo que una u persona tiene que esperar para la llegada de un autob´ s. b) An´logo al inciso anterior. 6. b) Pruebe ambas contenciones como en el inciso anterior. . esto es. c) Este es el espacio u muestral m´s frecuente. esto incluye el caso de pertenencia a o ambos conjuntos. N N N 6. . An´logo al anterior. De manera an´loga se prueba la contenci´n a o contraria. Para el primer inciso se tiene que (A ∪ B ∪ C)c =((A ∪ B) ∪ C)c =(A ∪ B)c ∩ C c =Ac ∩ B c ∩ C c . Los enunciados son: a)(A ∪ B ∪ C)c = Ac ∩ B c ∩ C c y b)(A ∩ B ∩ C)c = Ac ∪ B c ∪ C c . 11. en donde cada N puede ser cualquiera de los n´ meros 1. Por lo tanto x ∈ Ac y x ∈ B c .

∞). −1) ∪ (3. B − A = (−∞. El resto de los incisos de obtiene f´cilmente de la definici´n. A ∩ B = [−2. Ω 16. A ∪ B = R. 15. −1) ∪ (3. b) (A ∪ B) − B = (A ∪ B) ∩ B c = c c c (A ∩ B ) ∪ (B ∩ B ) = (A ∩ B ) ∪ ∅ = A ∩ B c = A − B. ∞). Compruebe que ambos lados de la igualdad del inciso (a) corresponden al evento que se muestra en la Figura B. −2) ∪ [−1. 6]. A − B = [−1. A△B = (−∞. ∞). (A ∪ B) − (A ∩ B) = (A ∪ B) ∩ (A ∩ B)c = (A ∪ B) ∩ (Ac ∪ B c ) = [(A ∪ B) ∩ Ac ] ∪ [(A ∪ B) ∩ B c ] = [B ∩ Ac ] ∪ [A ∩ B c ] = (B − A) ∪ (A − B). Se a tiene entonces que A = [−2. a o A B C Figura B. Ac = (−∞. A −2 B −1 0 Figura B. 6]. 3] ∪ (6. 3].2: 3 0 6 .2. b) (A − C) ∩ (B − C) = (A ∩ C c ) ∩ (B ∩ C c ) = A ∩ (B ∩ C c ) = A ∩ (B − C). 13.´ Apendice B. 14. −2) ∪ (6. −2) ∪ (6. Gr´ficamente los conjuntos A y B son como se muestran en la Figura B. ∞). a) A − (A ∩ B) = A ∩ (A ∩ B)c = A ∩ (Ac ∪ B c ) = (A ∩ Ac ) ∪ (A ∩ B c ) = ∅ ∪ (A ∩ B c ) = A ∩ B c = A − B. Soluciones 141 12. B = (−∞. 3]. B c = [−1.1. a) (A ∩ B) − (A ∩ C) = (A ∩ B) ∩ (A ∩ C)c = (A ∩ B) ∩ (Ac ∪ C c ) = (A ∩ B ∩ Ac ) ∪ (A ∩ B ∩ C c ) = ∅ ∪ (A ∩ B ∩ C c ) = A ∩ (B ∩ C c ) = A ∩ (B − C).1: A△B△C.

Ac = √ = √ (−∞. √ Por lo tanto A √ [−3. −3) ∪ √ (1. El m´ximo es 50 % y el m´ a ınimo es 0 %. A∪B = (−∞. −3) ∪ ( 2. A∩B = [−3. ∞).4: 19. 21. All´ pueden ı identificarse gr´ficamente las operaciones que se solicitan. 1)∪( 2. A△B = (−∞. All´ pueden ı identificarse gr´ficamente las operaciones que se solicitan. 2]. ∞).4 (a). A −3 B √ − 2 0 0 1 √ 2 Figura B. Los conjuntos A y B son los que se muestra en la Figura B. Gr´ficamente los conjuntos A y B son los que se√ a muestran en la Figura B.142 17. A− B √ √ B = [− 2. 1] ∪ √ ( 2. √ c = [− 2. B − A = (−∞. − 2) ∪ ( 2.3: 18. ∞). − 2). a B B A A (a) (b) Figura B. −3) ∪ [− 2. ∞).4 (b). Los conjuntos A y B son los que se muestran en la Figura B. a 20. B = (−∞. . El m´ximo es 70 % y el m´ a ınimo es 40 %. 1]. 1].3. ∞).

a). Probabilidad 30. b3 .(a2 .(a1 . Por lo tanto A1 ⊆ B y en consecuencia A1 ∈ 2B . b) P (A) = αP1 (A) + (1 − α)P2 (A) ≥ 0. Sea A1 ∈ 2A . b1 . c1 ). (a2 .(b. b3 .(a1 . c2 ). cuando A a y B son ajenos. c1 ). c1 ).(c. Ahora tome l´ ımite cuando n tiende a infinito y obtenga el resultado requerido.(c. Cuando A y B son ajenos. a) P (Ω) = αP1 (Ω) + (1 − α)P2 (Ω) = α + (1 − α) = 1. c2 )}. c). (a2 .(a1 .´ Apendice B. 1). b). c2 ). b2 . c1 ). c) Cuando A y B son disjuntos. (c. (a1 . c1 ). A ∩ (B − A) = A ∩ (B ∩ Ac ) = ∅. c)}. b2 . 25. 29. b). (b. b1 . 32. 2∅ = {∅}. b). ı 31. Adem´s. A1 ∩ B ⊆ A ∩ B = ∅. a). P (A ∪ B) = αP1 (A ∪ B) + (1 − α)P2 (A ∪ B) = α(P1 (A) + P1 (B)) + (1 − α)(P2 (A) + P2 (B)) = [αP1 (A) + (1 − α)P2 (A)] + [αP1 (B) + (1 − α)P2 (B)] = P (A) + P (B). Claramente P (A) = #A/#Ω ≥ 0. b1 . 143 27. A × A = { (a. b1 . n(n − 1)/2. tienen un unico punto en com´ n que es (0. c2 ). (a1 . c2 ).(a2 .(b. n(A ∪ B) = n(A) + n(B). Producto Cartesiano 28. se cumple que n(A)/n ≥ 0. a). ´ u 24.(a. b2 . y n(Ω)/n = n/n = 1. c). b3 . c2 ).(a2 . y P (Ω) = #Ω/#Ω = 1. b2 . Soluciones Conjuntos ajenos 22. Conjunto potencia 26. b3 . y de all´ se sigue la tercera propiedad. Para cualquier valor natural de n. No son ajenos. (a2 . 23. #(A ∪ B) = #A + #B. c1 ). A×B×C = { (a1 . entonces A1 ⊆ A ⊆ B.(a. .

Como A∩B ⊆ A. 37. c) P (Ac ∩B) = 0. a) P (A∪B) = 0. considere por ejemplo los eventos A = {1} y B = {2. se tiene que P (A∩B) ≤ P (A). .5 . P (A ∩ B) = 0. mientras que P (A)P (B) = 1/2 · 1/2 = 1/4. Ahora cancele uno de los t´rminos.2 . Finalmente la ultima desigualdad se obtiene de P (A) ≤ P (Ω) = 1. Aplicando probabilidad. P (A△B) = P (A ∪ B) − P (A ∩ B) = P (A) + P (B) − 2P (A ∩ B). 43. A puede ser Ω.5 . c) Verdadero.3 . An´logamente como A ⊆ A ∪ B. Considerando el ejemplo del inciso anterior. e 34.144 33. P (Ac ∩ B c ) = 1 − P (A ∪ B) = 1 − P (A) − P (B) + P (A ∩ B). P (∅) = P (∅ ∪ ∅) = P (∅) + P (∅). pues A ∩ B ⊆ A. 42. Ambos resultados tienen la misma probabilidad pero evidentemente no son iguales. b) Falso. 39. P (A ∪ B) = P (A) + P (B) − P (A ∩ B) > 1/2 + 1/2 − P (A ∩ B) = 1 − P (A ∩ B) ≥ 0. 38. c) Falso. o P (B) = P (B ∩ A) + P (B ∩ Ac ). a) Falso. P (A) = 2/3. La siguiente a desigualdad es consecuencia de la f´rmula P (A ∪ B) = P (A) + P (B) − P (A ∩ o B). Entonces P (B − A) = P (B) = 1/2. excepto cuando A y B o son independientes. El resultado se obtiene de 1 ≥ P (A ∪ B) = P (A) + P (B) − P (A ∩ B). 35. Claramente P (A) ≤ P (B) pero A no est´ contenido en B. A y B pueden ser ajenos. La primera desigualdad es evidente. e) P (A△B) = 0. en el experimento de lanzar un dado equilibrado. a 41. An´lisis combinatorio a 44. a) Verdadero. El segundo sumando es P (B − A). d) P (A∩B c ) = 40. 3}. siendo esta uni´n ajena. pues A ⊆ A ∪ B. El resultado es cierto bajo la condici´n A ⊆ B. P (A) ≤ P (A ∪ B). 0. b) Falso. En el experimento de lanzar una moneda equilibrada. mientras que P (B) − P (A) = 1/2 − 1/2 = 0. a) Verdadero. d) Falso. b) Falso. B = (B ∩ A) ∪ (B ∩ Ac ). ´ 36. considere por ejemplo el experimento de lanzar una moneda equilibrada. P (Ac ) = 1 − P (A) < 1 − 1/2 = 1/2. c) Verdadero. b) P (Ac ) = 0.7 . sea A el resultado de obtener una de las caras y B obtener la otra cara. 6! = 720.

Por lo tanto la probabilidad buscada es 2/120 = 1/60. Simplifique el lado derecho. entonces son u de la forma 1xxxy. 5 3 = 5!/3!2! = 10. 51. Por lo tanto el total es 10 · 10 · 10 · 10 · 5 = 50000.´ Apendice B. 49. 54. 9 y y puede ser 0. Simplifique el lado derecho. La respuesta final es 7!/4! 3! = 5040/(24 · 6) = 35. El total es 4536. Considerando inicial y artificialmente que los siete d´ ıgitos son todos distintos. 8. 6. 4. Como los cuatro d´ ıgitos 1 son id´nticos. 2. Simplifique el lado derecho. Considerando que cada a˜ o tiene 365 dias. Un entero positivo de a lo sumo cinco d´ ıgitos que es divisible por 2 es de la forma xxxxy en donde x puede ser cualquiera de 0. — 60. 50 k 200 20−k / 250 20 . Soluciones 145 45. El total de casos posibles es 5! = 120. . . . — . 56. 15 · 14 · 13 = 2730. e cualquier permutaci´n entre ellos produce el mismo n´ mero y por lo tanto o u debemos dividir el resultado preliminar por 4! An´logamente con los tres a d´ ıgitos 0. 55. 48. la respuesta es 1−365·364 · · ·(365− n n + 1)/365n. 57. y entonces la respuesta es 10 · 10 · 10 · 5 = 5000 y esta vez no hay necesidad de omitir ninguno de ellos. 1. . 58. Simplifique el lado derecho. No es cierto que la mitad de ellos sean pares y la otra mitad impares. excepto que debemos omitir el entero 00000. 46. Si empiezan con el n´ mero 1. la respuesta es 4!/(2! 1! 1!) = 6. Existen 2296 pares y 2240 impares. Razonando como en el ejercicio anterior. 47. 50. 53. 59. n 2 − n = n(n − 1)/2. 52. la respuesta preliminar es 7! = 5040. Los casos favorables son dos: 12345 y 54321.

. 76. c}. {a}. d}. c. Los 16 subconjuntos de {a. {a. n! (n + 1)! 75. — 73. b}. 26 . b. {a. b) m=0 m+k−1 . b. — 64. . {b. o uniones de ´stos. 2n . d}. d}. n m . — 62. 2. b. {b. c. d} son: ∅. b. {a. d}. 78. De esta forma. c. . — 66. Las respuestas son entonces n a) n+k−1 . 74. . {a. lo mismo para las casillas 2. Se pueden obtener un total de 2n subconjuntos distintos de un conjunto de cardinalidad n. d}. Considere que se tienen k casillas numeradas 1. c) Infinito. {a. 7!/(3! 2!). {a. 70. k en donde se desean colocar n bolas sin ninguna restricci´n en el n´ mero de bolas que caben en o u cada casilla. 77. . . {b}. 11!/(5! 4! 2!). — 68. d}. — 69. el n´ mero de bolas en la casilla 1 es el valor de u x1 . c}. {d}. {c}. — 67. {c. c}. (n!)2 . {a. . d}. e 71. El conjunto E corresponde al conjunto de los n ejes coordenados. {b. — 65. k. c. — 72.146 61. . 3. — 63.

45 c) P (A ∩ B c ) = 0. a) P (Ω|B) = P (B)/P (B) = 1 b) P (A|B) ≥ 0 c) Sean A1 y A2 ajenos. Por lo tanto P (A1 ∪ A2 |B) = e P ((A1 ∪A2 )∩B)/P (B) = P ((A1 ∩B)∪(A2 ∩B))/P (B) = P (A1 ∩B)/P (B)+ P (A2 ∩ B)/P (B) = P (A1 |B) + P (A2 |B). 2. c) Falso.55. Alternativamente P (A|B) + P (Ac |B) = P (A ∩ B)/P (B) + P (Ac ∩ B)/P (B) = P ((A ∩ B) ∪ (Ac ∩ B))/P (B) = P ((A ∪ Ac ) ∩ B)/P (B) = P (B)/P (B) = 1. k 80. a) Falso. El c´lculo es id´ntico para P (B|A ∩ B). T´mese por ejemplo A = B1 ∪ B2 . a e 87. se tiene que P (Ac ∩B) = P (B)−P (A∩B) = P (B) − P (A)P (B) = P (B)(1 − P (A)) = P (B)P (Ac ). Entonces el lado izquierdo es uno o mientras que el lado derecho es dos. El lado izquierdo es 2 mientras o que el lado izquierdo es 1. 86. d) 83. Solo es cuesti´n de escribir la definici´n de cada o o probabilidad condicional. c) Cierto. Entonces A1 ∩ B y A2 ∩ B tambi´n son ajenos. b) Falso. El problema puede entonces traducirse en colocar k bolas en este arreglo de casillas en donde cada casilla admite a lo sumo una bola. . Entonces P (A|B) = 1 mientras que P (B|A) = P (B) < 1. a) Falso. 82.05 c P (A ∪ B) = 0. P (A|A∩B) = P (A∩B)/P (A∩B) = 1. Todos los incisos son ciertos. . a) P (A ∩ B) = 0. 88. P (A1 ∪ A2 |B) = P ((A1 ∪ . . c) P (Ac ∩ B c ) = 1 − P (A ∪ B) = 1 − P (A) − P (B) + P (A ∩ B) = 1 − P (A) − P (B) + P (A)P (B) = (1 − P (A))(1 − P (B)) = P (Ac )P (B c ). La respuesta es entonces n . T´mese A = Ω y B o tal que 0 < P (B) < 1. Soluciones 147 79. n representan casillas que se encuentran u ordenadas de manera natural. a) Verdadero y ello es consecuencia del hecho de que P (·|B) es una medida de probabilidad.95 f) P (A ∪ B c ) = 0. T´mese A = B con 0 < P (A) < 1.05 b) P (Ac ∩ B) = 0. Entonces P (A|B) = 1 o mientras que P (A) < 1. b) Falso. b) Cierto. a) Como B = (Ac ∩B)∪(A∩B). . T´mese A = Ω. Probabilidad condicional e independencia 81. b) An´logo al primer a inciso. P (A ∩ B ∩ C) = P (C|A ∩ B)P (A|B)P (B) = ppp = p3 . Con A = ∅ se obtiene P (A|B) = 0. 85.´ Apendice B. Considere que los n´ meros 1.55 e) P (A ∪ B) = 0. 84. (a + b + c)3 = a3 + b3 + c3 + 3ab2 + 3ac2 + 3a2 b + 3a2 c + 3b2 c + 3bc2 + 6abc.

. T´mese Ω = {1. c) Falso. (0. . 95. Entonces se cumple P (A ∩ B) = 1/4 = P (A)P (B) y P (B∩C) = 1/4 = P (B)P (C). 4}. Entonces claramente A y B son ajenos pero no son independientes. . . que por la independencia es igual a P (Ac )P (B c ) = (1 − p1 )(1 − p2 ). 3} y C = {3. La probabilidad de que no ocurra ninguno de los eventos es P (Ac ∩ B c ). 2. . 93. Considere el experimento de lanzar una moneda honesta. 0 = P (A ∩ B) = P (A)P (B). 1/2). El lado derecho es el cuadrado del lado izquierdo. o e b) Falso en general. 97. a) Falso. . 3. 98. 94. 1/2). 90. Entonces P (A∩A) = P (A) o mientras que P (A)P (A) < P (A). T´mese B = Ω. 2. T´mese A tal que 0 < P (A) < 1. T´mese A1 = A2 . o 89. P (A ∩ Ω) = P (A) = P (A)P (Ω). Cuando P (A) es cero o uno la propiedad es v´lida. 96. 2}. n . d) (0. pero P (A∩C) = 0 distinto a P (A)P (C) = 1/4. b) P (Ω∩Ω) = P (Ω) = 1 = P (Ω)P (Ω).148 A2 )∩B)/P (B) = P (A1 ∩B)/P (B)+P (A2 ∩B)/P (B) = P (A1 |B)+P (A2 |B). 91. a c) Falso. o d) Falso. . 4} equiprobable con A = {1. c) (0. b) Falso. T´mese B1 = B2 . n 2 . Para que este producto se anule forzosamente alguno de los factores tiene que ser cero. 1/2). 0). b) (0. 3/4). (1/4. De modo que la respuesta es n + · · · + n = 2n − n − 1. P (A ∪ B) = 1 − P (Ac ∩ B c ) = 1 − P (Ac )P (B c ) pues Ac y B c tambi´n son e independientes. a) P (∅∩∅) = P (∅) = 0 = P (∅)P (∅). . 1). 1/2). Entonces A y B son independientes pero no son o ajenos. Como A y B son independientes y ajenos. 92. a) Cierto pues la definici´n es sim´trica respecto de los eventos A y B. (1/2. P (A ∩ ∅) = P (∅) = 0 = P (A)P (∅). El total de subconjuntos de cardinal 1. 1/2). El lado derecho es el cuadrado del lado izquierdo. (0. n es respectivamente . n 1 n n 1 . Alternativamente desarrolle P (A ∪ B) y factorice adecuadamente. a) ∅ = (0. y sean A y B los eventos de que caiga una cara y la otra respectivamente. o B = {2.

2. y N cuando en particular son todas negras. Sea A el evento “obtener 5 al lanzar el dado”. . Entonces por el teorema de ı o o probabilidad total.4 + 0.9 · 0. de modo que el evento Rn+1 se refiere ahora a la n-´sima extracci´n e o y all´ es donde se usa la hip´tesis de inducci´n. P (R1 ) = P (R1 |E0 )P (E0 ) + P (R1 |E1 )P (E1 ) = 0.84. 2 y u 3 respectivamente. N2 y N3 los eventos correspondientes a escoger los n´ meros 1.87. Teorema de Bayes 101.8 · 0. . e o Suponga entonces v´lida la igualdad P (Rn ) = r/(r + b). . P (E1 |R1 ) = P (R1 |E1 )P (E1 )/P (R1 ) = 0. Soluciones Teorema de probabilidad total 149 99. Entonces P (A) = P (A|N1 )P (N1 ) + P (A|N2 )P (N2 ) + P (A|N3 )P (N3 ) = 11/108. los valores pueden ser 0. 102. . Sea A el evento cuando todas las bolas son del mismo color.6 = 0. y E0 el evento “se env´ un cero”. b) Discreta con posibles valores 0. 1. Sea R0 el evento “se recibe un cero”. . r+b 100.8 · 0. Se puede usar el m´todo de inducci´n sobre n. Se condiciona la a probabilidad del evento Rn+1 dado el resultado de la primera extracci´n. Variables aleatorias 103.´ Apendice B.62 = 0. . 2. Entonces a a) b) c) d) P (R0 ) = P (R0 |E0 )P (E0 ) + P (R0 |E1 )P (E1 ) = 0. a) Discreta. y o en tal situaci´n puede considerarse que la configuraci´n inicial de la urna o o cambia.6/0.4 + 0.38 = 0. Sean N1 .1 · 0.62.9 · 0. si la escala de medici´n son o a˜ os. c) Puede ser continua y n . Claramente P (R1 ) = r/(r +b). ıa An´logamente se definen los eventos R1 y E1 . P (E0 |R0 ) = P (R0 |E0 )P (E0 )/P (R0 ) = 0. 1. c c P (Rn+1 ) = P (Rn+1 |R1 )P (R1 ) + P (Rn+1 |R1 )P (R1 ) r+c r r b = × + × r+b+c r+b r+b+c r+c r = .4/0.6 = 0.38.2 · 0. Entonces P (N |A) = P (A|N )P (N )/P (A) = n n b k /[ k + k ].

. P (Z < 1/2) = 1/4 y P (1/3 < Z < 1/2) = 5/36. 112.1 x f (x) 0 0. P (2X − 4 = 0) = 1/6 y P (X 2 = 4) = 1/3. P (X ≥ 0) = 2/3.15 -5 0. 6}. 0.4 -1 0. 2. Tampoco puede ser positiva o negativa pues en ambos casos la funci´n de probabilidad toma valores negativos. 1. P (X ≥ 0) = 0. d) Discreta con posibles valoo res 0.4 1 0.15 5 0. 1/2). 109.1 1 0. 4. a) c = 1/55. 9}. . 110.4 0 0. P (Y > X) = 1/2. P (X ∈ (1. P (X < 3) = 3/55. c = 1/2π.150 considerarse te´ricamente el intervalo [0. 8.15 25 0. 3. 1. . c) Continua con valores en (0. P (X + Y ≤ 1) = 3/4 + 2/π.1 . −2. P (X < 0) = 1/3. P (X ∈ {2. si s´lo se consideran unidades monetarias. P (X < 0) = 0. c = 1/2. ∞). b) c = 1/385. P (X < 3) = 3/385. . La funci´n de probabilidad de X 2 es o x f (x) La de |X| es Y la de 2X − 5 es x f (x) -9 0.1 5 0. 2. o lo cual no es permitido. 108.1 -7 0. .15 4 0. 105. P (X < 0) = 1/2. d) Continua con valores en (0. Funciones de densidad y de distribuci´n o 107. 106. a) Continua con valores en (0. 111. . o 104. 4}) = 9/385.15 1 0. P (X = 0) = 1/6.15 3 0. P (X 2 = 1) = 0. P (X ∈ {2.8. P (X ≥ π) = (π − 2)/2π. P (X ∈ [−π. 4}) = 9/55. P (X ≥ 0) = 1/2.2 9 0. . 1). b) Discreta con valores en el conjunto {0.2 2 0. P (X ∈ {2. 3}) = 1/6. P (X 2 = 1) = 0. 1). a) y b) La constante c no puede ser cero. ∞)) = 1/2e. 2π]) = 1. 2.7. 3. El rango de X es el conjunto {−4.

8]. . uno despu´s. 2. y para la segunda se tiene que f (3/2) < 0. Alternativamente puede tomarse a X como aquella variable aleatoria que toma los valores a − 1 y a + 1 con id´ntica probabilidad 1/2. p) con n = 4 y p = 3/4. c = 3. 3]. para x ∈ (0. Se trata de una variable aleatoria discreta cuya funci´n de probabilidad es o f (1) = 1/3 y f (2) = 2/3. b) F (x) = (x + 2)/10 para x ∈ [−2. 2). F (x) = x2 /9 para x ∈ [0. 3)}. 118. (2. P (3 < X ≤ 5) = 1/2. 1. 1). b) La funci´n de probabilidad de X es o x f (x) 3 2/12 4 2/12 5 4/12 6 2/12 7 2/12 d) P (X ≥ 6) = 1/3. Soluciones 113. 3). Por lo tanto P (X = 2) = 2/3. La primera no integra uno. 3). Por lo o tanto P (0 ≤ X < 10) = F (9) = 1 − (1/2)10 . uno despu´s. P (X ≥ 2) = 3/5. 115. 121. (1. √ 116.8. e Esperanza. momentos 123.´ Apendice B. cero antes. (2.2 151 114. Ninguna de las funciones es de densidad. Es funci´n de densidad pues es no negativa y por el teorema del binomio se o 4 cumple que x=0 f (x) = (3/4+1/4)4 = 1.8 4 0. 4). P (X = 1/2) = 0 o √ y P (X > 1/2) = F (1) − F (1/2) = 1 − 1/ 2. 117. 1). (3. varianza. o 120. 122. 2). 1). para x = 0. Esta es la funci´n de probabilidad o de la distribuci´n bin(n. 4). (2. ¿Puede usted construir una variable e aleatoria continua con la propiedad indicada? . 4). a) Ω = {(1. (3. Es funci´n de densidad pues es no negativa y es tal que f (0)+f (1)+f (2) = 1. e c) P (−1 ≤ X ≤ 3) = 2/5. (4. La funci´n de probabilidad de X 2 es o x f (x) 0 0. P (X ≤ 0) = 1/5. y P (1 < X < 2) = 0. P (X = 6) = 1/6. (3. d) m = 5/2. 1). o 119. . Puede considerarse la variable aleatoria constante X = a. (1. 2)(4. cero antes. La funci´n de probabilidad es f (x) = (1/2)x+1 . El valor de c es 0. a) k = 2. La funci´n de densidad es f (x) = 1/(2 x). (4. .

La funci´n es no negativa. 130. Por otro lado la eso 1 peranza no existe pues la suma ∞ xf (x) = ∞ x+1 es divergente. a) E(X) = c × P (X = c) = c × 1 = c. La esperanza no existe por que la integral resultante no es absoluta∞ 1 2 ∞ x 2 ∞ x mente convergente: −∞ |x| π(1+x2 ) dx = π 0 1+x2 dx ≥ π 1 1+x2 dx ≥ 2 ∞ x 1 ∞ 1 π 1 x2 +x2 dx = π 1 x dx = ∞. entonces −X tiene esperanza negativa. c) Var(X) = (c − E(X))2 × P (X = c) = (c − c)2 × 1 = 0. Intercamx=0 x(1/2) x=1 y=1 (1/2) ∞ ∞ biando el orden de las sumas se encuentra la expresi´n y=1 x=y (1/2)x+1 o . a) E(x) = 1. si X es una variable aleatoria con esperanza finita y positiva. f) Falso. x=1 x=1 127. a) Cierto. pues la varianza es la esperanza de una variable aleatoria no negativa. Tanto la esperanza como la varianza son constantes. Para demostrar que esta funci´n es de densidad es necesario recordar que la o derivada de la funci´n h(x) = arctan x es h′ (x) = 1/(1 + x2 ). Por lo tanto o ∞ 1 1 ∞ d 1 1 dx = π −∞ dx arctan x dx = π arctan x|∞ = π (π/2 − (−π/2)) = −∞ −∞ π(1+x2 ) 1. b) Falso. b) E(X n ) = cn × P (X = c) = cn × 1 = cn . 126. Esta es la distribuci´n geo(p) con p = 1/2. 128. d) Cierto. a) E(X) = 7/6. b) E(X) = 4/3. Usando fracciones parciales se comprueba la ideno tidad 1 1 1 = − . dos variables aleatorias constantes distintas tienen varianza cero. 125. por ejemplo todas las constantes son variables aleatorias con varianza cero. x(x + 1) x x+1 Entonces la suma x=1 f (x) es telesc´pica y vale uno. x f1 (x) f2 (x) -1 1/2 1/3 0 0 1/3 1 1/2 1/3 ∞ c) Falso. la constante cero cumple tal condici´n. b) E(X) = 0. 131. Los resultados se siguen del hecho de que la esperanza de una constante es la constante misma y la varianza de una constante es cero. 132. E(X) = e = .152 124. E(X) = 3 y Var(X) = 24/9. las siguientes o dos distribuciones son distintas y ambas tienen esperanza cero. Usaremos resultados de sumas o ∞ ∞ x x+1 x+1 geom´tricas. e) Cierto. 129.

Nuevamente separando la parte e 2 ∞ 0 positiva de la negativa se obtiene 0 xn 1 e−x dx + −∞ xn 1 ex dx. Al ha2 2 cer el cambio de variable y = −x en la segunda integral se obtiene que es ∞ (−1)n+2 0 xn 1 e−x dx. a) Cierto pues la esperanza es lineal. Cuando n es impar se trata del negativo de la pri2 mera integral. Separando la parte positiva y la 2 ∞ 0 ∞ negativa se obtiene 0 x 1 e−x dx + −∞ x 1 ex dx. Para la primera suma escrix ba x(x + 1) como 2 y=1 y.´ Apendice B. 133. ∞ 1 b) El segundo momento es −∞ x2 2 e−|x| dx. y para ello usaremos la identidad x2 = x(x + 1) − x. Ahora al 2 hacer el cambio de variable y = −x en la segunda integral se obtiene que es id´ntica a la primera integral. Aplicando repetidas veces el m´todo de integraci´n por partes se comprueba que esta integral e o vale n! 135. b) Falso pues en general Var(cX) = c2 Var(X). Intercambiando ahora el orden de las sumas ∞ ∞ ∞ se llega a E(X 2 ) = 2 y=1 y x=y (1/2)x+1 − 1 = 2 y=1 y(1/2)y − 1 = 22 ∞ y(1/2)y+1 − 1 = 4 − 1 = 3. es id´ntica a la e ∞ primera integral. La tercera igualdad no es correcta pues la varianza en general no es lineal. 0 x2 e−x dx. 134. de modo que la suma es cero. La segunx=1 x (1/2) x=0 x(x + 1)(1/2) da suma acaba de ser calculada y vale uno. 136. ∞ a) La esperanza de X es −∞ x 1 e−|x| dx. e ∞ es decir. Por lo tanto se obtiene el doble de la primera. c) Por los c´lculos anteriores Var(X) = E(X 2 ) − E 2 (X) = 2. a ∞ d) El n-´simo momento es −∞ xn 1 e−|x| dx. El lado izquierdo es Var(X) y el lado derecho es siempre cero. c) Falso. se obtiene que la esperanza es cero. Usando integraci´n por partes puede comprobarse que o esta integral vale 2. Nuevamente separando la parte ∞ 0 1 positiva de la negativa se obtiene 0 x2 1 e−x dx + −∞ x2 2 ex dx. Ambos incisos son ciertos pues tanto E(X) como Var(X) son constantes. E(X 2 ) = ∞ ∞ ∞ 2 x+1 x+1 = − x=0 x(1/2)x+1 . Para la varianza encontraremos primero el segundo momento. y entonces el resultado es 0 xn e−x dx. Por lo tanto la varianza es Var(X) = y=1 E(X 2 ) − E 2 (X) = 3 − 1 = 2. . Soluciones ∞ 153 y = y=1 (1/2) = 1. La funci´n es de densidad pues es no negativa y la integral −∞ 1 e−|x| dx o 2 ∞ 1 ∞ puede ser escrita como 2 0 2 e−x dx = 0 e−x dx = 1. Cuando n es par. Mediante el cambio de 2 2 variable y = −x se comprueba que la segunda integral es el negativo de la primera.

La suma puede empezar x=0 x desde uno. n 2 1 n(n + 1)(2n + 1) = (n + 1)(2n + 1)/6. c) Var(X) = E(X 2 ) − E 2 (X) = p − p2 = p(1 − p). Para la o varianza se usa la misma t´cnica. n 6 b) E(X 2 ) = i=1 1 1 = n n i2 = i=1 c) Var(X) = E(X 2 ) − E 2 (X) = 138. ((n − 1) − (x − 1))!(x − 1)! x=1 n n lo cual es np x=1 n−1 px−1 (1 − p)(n−1)−(x−1) .154 Distribuci´n uniforme discreta o n 137. Claramente f (x) ≥ 0. Es muy sencillo verificar que f (x) ≥ 0. p) y vale uno. Factorizando np y escribiendo n−x = (n−1)−(x−1) se encuentra la expresi´n o np (n − 1)! px−1 (1 − p)(n−1)−(x−1) . El resultado es entonces np. Adem´s por el teorema del binomio a n n x n−x = (p + 1 − p)n = 1. 6 4 Distribuci´n Bernoulli o 139. La esperanza es E(X) = n x n px (1 − p)n−x . Haciendo el cambio de vax−1 riable y = x − 1 en la suma. Adem´s a a) E(X) = 0 (1 − p) + 1 p = p. a) E(X) = i=1 n i 1 1 = n n i2 n i= i=1 n 1 n(n + 1) = (n + 1)/2. x=0 x p (1 − p) n x=0 f (x) = 141. Se calcula primero el segundo momento e . 45/100. ´sta se convierte en la suma completa de la e distribuci´n bin(n − 1. Distribuci´n binomial o 140. y f (0) + f (1) = 1. (n + 1)(2n + 1) (n + 1)2 − = (n2 − 1)/12. b) E(X n ) = 0n (1 − p) + 1n p = p.

Los tres eventos tienen la misma probabilidad de ocurrir. n 155 E(X 2 ) = x=0 n x2 n x p (1 − p)n−x x n n x n x = x(x − 1) p (1 − p)n−x + x p (1 − p)n−x . ´sta se convierte en la suma completa e de la distribuci´n bin(n − 2. Por lo tanto Var(X) = E(X 2 ) − E 2 (X) = n(n − 1)p2 + np − n2 p2 = np(1 − p). Recuerde que Var(X) = npq y E(X) = np. Soluciones escribiendo x2 = x(x − 1) + x. 148. cada uno de ellos tiene probabilidad 1/26 . Entonces efectivamente npq ≤ np pues q ≤ 1. 145. Haciendo el cambio x−2 de variable y = x − 2 en la suma. 2n n 147. (1/2)2n . El segundo momento es entonces o n(n − 1)p2 + np. Si X cuenta u e el n´ mero de ´xitos en n ensayos Bernoulli. 146. P (Y = x) = P (n − X = x) = P (X = n − x). . 142. y procediendo como en el caso de la esperanza puede escribirse como n(n − 1)p2 (n − 2)! px−2 (1 − p)(n−2)−(x−2) . pero la probabilidad de ´xito es ahora 1−p. Al substituir la funci´n de o probabilidad de X resulta que Y tiene distribuci´n binomial con el mismo o n´ mero de ensayos n. es decir. n = 8 y p = 1/2. entonces Y cuenta el n´ mero de u e u fracasos. 6 3 (1/2)6 . 144. x x x=0 x=0 La segunda suma acaba de ser calculada y vale np. p) y vale uno. ((n − 2) − (x − 2))!(x − 2)! x=2 n n lo cual es n(n − 1)p2 x=2 n−2 px−2 (1 − p)(n−2)−(x−2) . La primera suma puede empezar desde 2. 143. Desarrolle el lado derecho.´ Apendice B.

156 Distribuci´n geom´trica o e 149. Intercambiando el orden de las sumas se encuentra la ∞ ∞ x y expresi´n ∞ o y=1 x=y p(1 − p) = y=1 (1 − p) = (1 − p)/p. E(X 2 ) = x=1 x2 p(1 − p)x = x=0 x(x + 1)p(1 − p)x − ∞ x x=0 xp(1 − p) . puede encontrarse que el segundo momento es E(X 2 ) = λ2 + λ. P (X ≥ a + b | X ≥ a) = P (X ≥ a + b)/P (X ≥ a) = p x=a+b (1 − ∞ p)x /(p x=a (1 − p)x ) = (1 − p)a+b /(1 − p)a = (1 − p)b = P (X ≥ b).2706. y para ello usaremos la identidad ∞ ∞ x2 = x(x + 1) − x. La funci´n f (x) es no negativa y es tal que o x=0 f (x) = x=0 e x! ∞ λx = e−λ x=0 x! = e−λ eλ = 1. x Para la primera suma escriba x(x + 1) como 2 y=1 y. y e−λ = 1 − λ + λ2 /2! − λ3 /3! + · · · 156. 151. ∞ Distribuci´n Poisson o −λ λ 153. f (x) ≥ 0. La segunda suma acaba de ser calculada y vale (1-p)/p. Usaremos resultados de sumas geom´tricas. Usando la igual2 dad x = x(x − 1) + x. Por lo tanto la varianza es Var(X) = E(X 2 ) − E 2 (X) = 2(1 − p)/p2 − (1 − p)/p − (1 − p)2 /p2 = (1 − p)/p2 .323 b) 0. a) 0. Para la varianza encontraremos primero el segundo momento. 155. a . Por lo tanto Var(X)= E(X 2 ) − E 2 (X)= λ2 + λ − λ2 = λ. Adem´s a ∞ x=0 f (x) = ∞ x=0 p(1 − p)x = p(1/p) = 1.593 c) Una o dos computadoras descompuestas tienen probabilidad m´xima 0.66 extracciones. Desarrolle el lado derecho. 152. ∞ ∞ x 154. E(X) = e x=0 xp(1 − p) = ∞ x x x=1 y=1 p(1 − p) . 8/3=2. Intercambiando ahora ∞ ∞ el orden de las sumas se llega a E(X 2 ) = 2 y=1 y x=y p(1 − p)x − (1 − p)/p ∞ ∞ 2 = 2 y=1 y(1 − p)y − (1 − p)/p = p y=1 yp(1 − p)y − (1 − p)/p = 2(1 − p)/p2 − (1 − p)/p. Para la esperanza tenemos que E(X) = ∞ ∞ ∞ −λ λx −λ λx −λ λx−1 x=1 e x=1 e x=0 x e x! = (x−1)! = λ (x−1)! = λ. Sume las series eλ = 1 + λ + λ2 /2! + λ3 /3! + · · · . ∞ x 150.

x 158. y la expansi´n (1 + t)a = o t para a real x=0 x k k ∞ ∞ y |t| < 1. E(X n ) = a)). Por lo tanto Var(x) a = E(X 2 ) − E 2 (X)= (a2 + ab + b2 )/3 − (a + b)2 /4= (b − a)2 /12. E(X n )= 164. Claramente f (x) ≥ 0. 1 0 b xn 1 dx= 1/(n + 1). Factorice el t´rmino (1 − p)(r + x − 1)/x en la expresi´n de P (X = x). 159. b) E(X 2 )= b 2 x 1/(b − a) dx = (b3 − a3 )/(3(b − a))= (a2 + ab + b2 )/3. Al substituir estos resultados en la f´rmula Var(X)= E(X 2 )−E 2 (X) se obtiene o Var(X) = r(1 − p)/p2 . Para la esperanza. Este ejercicio no es f´cil. El procedimiento es an´logo al caso de a la esperanza. y la integral de f (x) es el ´rea del rect´ngulo de base a a b − a y altura 1/(b − a) que vale uno. La x=1 x x suma resultante es uno pues se trata de las probabilidades de la distribuci´n o bin neg(r. 162. Entonces x=0 r+x−1 pr (1 − p)x = pr x=0 (−1)x −r (1 − p)x x x ∞ = pr x=0 −r (p − 1)x = pr (1 + p − 1)−r = 1.´ Apendice B. El resultado se sigue de la f´rmula o r n k=0 k m r−k = n+m r . el resultado es E(X 2 )= r(r + 1)(1 − p)2 /p2 + r(1 − p)/p. Observe que la suma puede empezar desde 1. xn 1/(b − a) dx= 1 n+1 b (n+1)(b−a) x a b a = (bn+1 − an+1 )/((n + 1)(b − . 163. Una forma de resolverlo es a trav´s de la f´rmula a e o ∞ −n a x = (−1)k n+k−1 . e o Distribuci´n hipergeom´trica o e 160. Soluciones Distribuci´n binomial negativa o 157 157. factorice el t´rmino r(1 − p)/p en la expresi´n E(X)= e o ∞ r+x−1 r p (1 − p)x . Distribuci´n uniforme continua o 161. p). separando las sumas. Para la varianza use la f´rmula x2 = x(x − 1) + x para calcular o primero E(X 2 ). a) E(X)= a x 1/(b − a) dx= (b2 − a2 )/(2(b − a)) = (a + b)/2.

1 1 166. . F (x) F (y)= (1 − e−λx )(1 − e−λy ) = 1 − e−λx − e−λy + e−λ(x+y) = (1 − e−λx ) + (1 − e−λy ) − (1 − e−λ(x+y) ) = F (x) + F (y) − F (x + y). o e Distribuci´n exponencial o 168. La mediana en este caso es unica y vale m = (a + b)/2 pues cumple la ´ condici´n P (X ≤ m) = P (X ≥ m) = 1/2. Entonces P (X > 60)= 1 − P (X ≤ 60)= 1 − (1 − e−60/10 )= e−6 = 0. Por lo tanto de 1000 usuarios. 170. Si n es impar. E(X n ) = −1 xn 1/2 dx = 2(n+1) xn+1 −1 . X toma valores en (0. Si n es par. Usando integraci´n por partes con u = x y dv = o ∞ ∞ λ e−λx dx. se obtiene E(X) = 0 e−λx dx = (1/λ) 0 λ e−λx dx= 1/λ. E(X) = 0 x λ e−λx dx. usando nuevamen∞ ∞ te integraci´n por partes. entonces n + 1 es impar y la integral es 1/(n + 1). Por lo o tanto. 171. Derivando fY (y) = fX ((y + 5)/10) 1/10.6321 . E(X) = 10 = 1/λ. es decir. Pero fX ((y + 5)/10) vale uno s´lo cuando 0 < (y + 5)/10 < 1.002478 . o 167. Para la varianza calcule primero el segundo momento. P (X ≥ x + y | X ≥ x)= P (X ≥ x + y)/P (X ≥ x) = e−λ(x+y) /e−λx = e−λy = P (X ≥ y). E(X 2 ) = 0 x2 λ e−λx dx = 2 0 x e−λx dx = o ∞ −λx 2 2 dx = 2/λ . Por lo tanto λ = 1/10. aproximadamente 2.47 tienen conexi´n mayor a una hora. 0 169. entonces n + 1 es par y la integral se anula. Para cualquier y ∈ (−5. Y tiene distribuci´n unif(−5. FY (y) = P (Y ≤ y)= P (10X − 5 ≤ y)= P (X ≤ (y + 5)/10)= FX ((y + 5)/10). si −5 < y < 5. 5). 5).3654 . Suponga que el tiempo se mide en minutos. b) P (10 < X < 60) = F (60)−F (10) = (1−e−6 )−(1−e−1 )= 0. Vea un ejercicio anterior para la o demostraci´n de que la media es tambi´n (a + b)/2. 5).158 1 165. a) P (X < 10) = F (10) = 1 − e−10/10 = 1 − e−1 = o 0. f (x) ≥ 0 y ∞ 0 ∞ λ e−λx dx = −e−λx |∞ = 1. Por lo tanto Var(X)= E(X ) − E 2 (X) = (2/λ) 0 x λ e 2 2 2 2/λ − 1/λ = 1/λ . 1) y Y toma valores en (−5. 172.

´ Apendice B. y entonces Var(X) = a+b+1 a+b − (a+b)2 178. Claramente f (x) ≥ 0. a ∞ n−1 ∞ n 175.b) E(X) = a/(a + b). √ ∞ √ √ 2 2 ∞ ∞ Γ(1/2) = 0 t−1/2 e−t dt = 2 0 e−x /2 dx = 2 2π 1 −∞ √1 e−x /2 dx 2 2π √ = π. Γ(2) = 1 Γ(1). Use integraci´n por partes con u = tn y dv = o e−t dt.b) B(a. b) para obtener En 1 1 xa+1 (1 − 0 B(a+2. b) Por el inciso anterior.b) = 1 1 0 B(a. c) An´logo al inciso anterior. u 1 b) B(a. Γ(n) Γ(n) (λx) −λx dx = Γ(n+1) 0 Γ(n+1) λ e−λx dx. xa−1 (1 − x)b−1 dx = B(a+1. a) Γ(n + 1) = 0 tn e−t dt. . por lo tanto es suficiente ∞ demostrar que Γ(1) = 1.b) a+1 a+1 a donde B(a+2. 2 1 1 xa (1−x)b−1 dx 0 B(a+1. y usando la propiedad Γ(n + 1) = n Γ(n) se obtiene E(X) = n/λ. b) = 0 a(1 − x)b−1 dx = 1/b. 1) = 0 axa−1 dx = 1/a. a) Efect´ e el cambio de variable y = 1 − x. pero Γ(1) = 0 e−t dt= 1. Soluciones Distribuci´n gama o 159 173. d) Haciendo el cambio de variable x2 /2 = t. b). Ahora se usa la identidad B(a + 1.b) . b) = a+b+1 B(a+1.b) .b) xa−1 (1−x)b−1 dx = = B(a+1.b) B(a. b) = a+b+1 a+b B(a. 1 c) B(1. La integral 174.b) B(a. b) B(a. B(a+2.b) 1 B(a. a+1 a a+1 a a2 a+b+1 a+b . a) E(X) = 1 x 0 B(a.b) 1. adem´s haciendo el cambio de variable t = λx se o a n−1 ∞ ∞ 1 obtiene 0 (λx) λ e−λx dx = Γ(n) 0 tn−1 e−t dt = Γ(n) = 1.b) 1 0 xa−1 (1 − 177.b) x)b−1 dx = = Por lo tanto E(X ) = ab (a+b+1)(a+b)2 . Por lo tanto Var(X)= E(X ) − E (X)= (n + 1)n/λ − n2 /λ2 = n/λ2 .b) xa−1 (1 − x)b−1 dx = B(a+2. ´ a ∞ Distribuci´n beta o 176. y x)b−1 dx = B(a. n−1 n+1 ∞ ∞ −λx −λx b) E(X 2 ) = 0 x2 (λx) dx = Γ(n+2) 0 (λx) dx= (n + Γ(n) λ e λ2 Γ(n) Γ(n+2) λ e 2 2 2 2 1)n/λ . El ultimo integrando es la densidad normal est´ndar. a) E(X) = 0 x (λx) Γ(n) λ e λ Γ(n) vale uno. 1 x2 b) E(X 2 ) = 0 B(a.b) B(a. c) Esto es consecuencia de los dos incisos anteriores. La funci´n es no negativa.b) a = a+b B(a.

Sea I = −∞ √2πσ2 e−(x−µ) /2σ dx e = = ma integral se obtiene despu´s del cambio de variable a coordenadas polares e 2 ∞ (x. Por lo tanto F (x)= ( 1 − (1 − x)b . b). b) = a a Γ(a + 1)Γ(b)/Γ(a + b + 1) = a+b Γ(a)Γ(b)/Γ(a + b)= a+b B(a. b). x (1−u)b−1 du)/B(1. El siguiente a e 2 2 ∞ 1 m´todo hace uso de coordenadas polares. 1) = 1. b + 1). Haciendo el cambio de variable u = (x − µ)/σ se encuentra que E(X) = µ + σE(Z). Use integraci´n por partes con u = xa o 1 y dv = (1 − x)b−1 dx para llegar a B(a + 1. Entonces I 2 = 0 e−r /2 r dr= 1. Entonces I 2 = ( −∞ √1 e−x /2 dx) ( −∞ √1 e−y /2 dy) −∞ 2π e 2π 2π 2 ∞ ∞ 1 −(x2 +y 2 )/2 2π ∞ 1 e dx dy = 0 0 2π e−r /2 r dr dθ. b)= 0 xn xa−1 (1 − x)b−1 dx)/B(a. Por lo tanto F (x)= ( para x ∈ (0. 1). Simplemente sustituya esos valores para los par´metros a y b en la distribua ci´n beta(a. 1)= xa . 1/2) = (1/2)/(1/2 + 1/2) = 1/2. a)= a+b B(a. 1/2). B(a + 1. Considere la esperanza E(X) = −∞ x √2πσ2 e−(x−µ) /2σ dx.160 d) B(a + 1. para x ∈ (0. 1). 1/2)/B(1/2. 1). 1 185. Para la varianza use E(X 2 ) = B(2 + 1/2. Recuerde que B(1. u c) E(X) = B(1 + 1/2. b) = 0 xa (1 − x)b−1 dx. u 179. b) = Γ(a)Γ(b)/Γ(a + b). e) Puede usarse la identidad B(a. 2 ∞ pero ello es f´cil pues el integrando de E(Z) = −∞ u √1 e−u /2 du es una a 2π ∞ 2 2 2 2 ∞ ∞ ∞ −x2 /2 √1 dx. en donde Z ∼ N(0. b). para 0 < x < 1. b) = 1/b. b)/B(a. a) f (x) = 1/(π x(1 − x). b) = a 0 xa−1 (1 − x)b dx= b a b B(a. b b f) Por el inciso anterior. 2 g) Efect´ e el cambio de variable x = cos θ. b + 1)= B(b + 1. 1) = 1/a. 183. Compruebe que B(a. o 180. en donde la ulti´ −∞ −∞ 2π . Distribuci´n normal o 184. E(X n )= ( 1 0 x 0 1 ua−1 du)/B(a. b) Efect´ e el cambio de variable x = cos2 θ. 182. y)= (r cos θ. b) = B(a + n. a)= a+b B(b. 181. B(a. Este ejercicio no es f´cil pero puede resolverse por varios m´todos. 1/2)/B(1/2. Por lo tanto es suficiente demostrar que E(Z) = 0. r sen θ). Compruebe que B(1. b).

El procedimiento es reversible. e) P (−10 < X ≤ 10)= P (−1 < Z ≤ 1)= 0. o 187. Substituya ahora la funci´n de densidad de X evaluada en −y y compruebe que se trata de la o densidad normal con media −µ y varianza σ 2 . Entonces FY (y)= P (Y ≤ y) = P (aX + b ≤ y)= P (X ≤ (y − b)/a)= FX ((y − b)/a). 188. fX (x)= fZ ((x−µ)/σ)/σ. Los nuevos par´metros son id´nticos al caso anterior.0013 . σ 2 ). Derivando respecto a u. e) P (−20 < X ≤ 10)= P (−6 < Z ≤ 0)= 1/2. a) x = 1. d) P (X ≥ 30)= P (Z ≥ 3)= 0. b) P (X < 0)= P (Z < −2)= 0.6826 . 2 186. Entonces FX (x)= P (X ≤ x) = P (µ + σZ ≤ x)= P (Z ≤ (x−µ)/σ)= FZ ((x−µ)/σ). 189.375 . fY (y)= fX ((y − b)/a)/a. Derivando. c) P (0 < X ≤ 10)= P (−2 < Z ≤ 0)= 0. Por lo tanto E(X 2 ) = µ2 + σ 2 . Sea Z = (X − µ)/σ. Substituya la expresi´n para fX (x) y encuentre la densidad o normal est´ndar. σ 2 ). Esta 2π integral puede realizarse por partes con u = y y dv = y √1 e−y /2 dy. Derivando. c) P (0 < X ≤ 40)= P (0 < Z ≤ 4)= 1/2. √ √ √ 192. b) P (X > 0)= 1/2. fZ (u)= σ fX (µ + uσ)σ. Entonces FZ (u)= P (Z ≤ u)= P ( X−µ ≤ u)= P (X ≤ µ+uσ)= FX (µ+uσ). Efect´ e u 2 nuevamente el cambio de variable y = (x − µ)/σ y encuentre que E(X )= 2 ∞ µ2 +2µE(Z)+σ 2 E(Z 2 ). fY (y)= fX (−y). Para x > 0. Substituya ahora en esta expresi´n la funci´n de densidad N(µ. . a) P (X ≤ 10)= P (Z ≤ 1)= 0. Por lo tanto E(X) = µ. 1).4772 .´ Apendice B.8413 . Derivando.115 . a e 191. Entonces FY (y)= P (Y ≤ y)= P (−X ≤ y) = P (X ≥ −y)= 1 − P (X < −y)= 1 − FX (−y). y entonces Var(X)= (µ2 + σ 2 )−µ2 = σ2 . Haga un an´lisis a semejante para el caso a < 0. a) P (X ≥ 10)= 1/2. Suponga X ∼ N(µ. 190. Soluciones 161 derivada excepto por el signo. Derivando respecto a x. Para la varianza con2 2 ∞ 1 sidere el segundo momento E(X 2 ) = −∞ x2 √2πσ2 e−(x−µ) /2σ dx. tenga cuidado al dividir por tal cantidad. b) x = −1. El resul2π tado es 1. FX 2 (x)= P (X 2 ≤ x)= P (− x ≤ X ≤ x) = FX√ x) − ( √ √ √ 1 1 1 FX (− x). σ 2 ) y encuentre la funci´n o o o de densidad normal ahora con media aµ + b y varianza a2 σ 2 . Suponga a > 0.0228 . Sea Y = −X. fX2 (x)= fX ( x) 2√x +fX (− x) 2√x = fX ( x) √x . Suponga Z ∼ N(0. Sea a X = µ + σZ. Resta encontrar E(Z 2 ) = −∞ y 2 √1 e−y /2 dy.0228 . Substituya la expresi´n de fZ (x) y encuentre la densidad N(µ. d) P (X ≥ 20)= P (Z ≥ 2)= 0.

197. b) P (290 < X < 305)= P (−1 < Z < 1/2)= 0. el exponente de t es (n/2) + 1.0013 . o menos. Sea X el llenado de un vaso cualquiera. Entonces a) P (X > 310)= P (Z > 1)= 0. Ahora substituya la funci´n de densidad de X. Recuerde que Γ(1) = 1. simplemente substituya el valor n = 2 en la densidad χ2 (n). el exponente de t es n/2. Dado este resultado. En estos c´lculos es conveniente hacer el cambio de variable t = x/2 en cada a una de las integrales. FY (y)= P (Y ≤ y)= P (|X| ≤ y)= P (−y ≤ X ≤ y)= FX (y) − FX (−y). Reconstruya la integral como la funci´n gama o evaluada en (n/2) + 1. que puede ser escrito como (n/2) + 1 − 1.3 reclamar´n por vasos servidos a con 270 ml. la varianza es el . 1. Para y > 0. 100). Para la varianza.0228 . Ahora reconstruya la integral resultante como la funci´n gama evaluada en (n/2) + 2. El c´lculo del m-´simo momento sigue las mismas l´ a e ıneas. o 194. La funci´n es no negativa. De mil clientes. Suponga X ∼ N(320. por lo tanto la integral es cero. calcule primero el segundo momento. La integral resultante es la funci´n gama evaluada en n/2.162 Ahora substituya la expresi´n para fX (x) y encuentre la funci´n de densidad o o de la distribuci´n χ2 (1). n/2). d) P (X < 270)= P (Z < −3)= 0. Para la esperanza. Distribuci´n ji cuadrada o 195. Distribuci´n t o 198. que puede ser escrito como (n/2) + 2 − 1. fY (y)= fX (y)+fX (−y)= 2fX (y).5328 . 199. c) P (X > 320)= P (Z > 2)= 0. Despu´s simplifique usando la propiedad Γ(n + 1) = e n Γ(n). Derivando. La funci´n es no negativa.1587 . La integral E(X) es absolutamente convergente y el integrando es una funci´n o impar. Para comprobar que esta funci´n integra uno o o efect´ e el cambio de variable 1 − u = (1 + x2 /n)−1 y reconstruya la integral u de B(1/2. Despu´s o e simplifique. o 193. Efect´ e el cambio de variable t = x/2 dentro de o u la integral. o 196.

— Estad´ ıstica descriptiva 205. — 207. — 202. — 201. (n − 2)/2). e 211. n i=1 (xi − x) = ¯ n i=1 xi − n¯ = x n i=1 xi − = n i=1 xi = 0. despu´s e simplifique. Id´ntico al ejercicio anterior. Soluciones 163 segundo momento. — 203. ¯ 212. — 206. Compruebe que la segunda derivada es negativa.´ Apendice B. 209. — . Derive la funci´n x(c) respecto de la variable c. — 208. — Variables y tipos de datos 204. y reconstruya la integral de B(3/2. iguale a cero y encuentre que o ¯ c = x. Efect´ e el cambio de variable 1 − u = (1 + x2 /n)−1 en u la integral E(X 2 ). x x n i=1 xi + n¯2 = x 210. x2 − 2¯ x i n i=1 n ¯ 2 i=1 (xi − x) = n 2 x2 i=1 xi − 2n¯ + n 2 ¯ ¯2 i=1 (xi − 2xi x + x ) n 2 2 n¯ = i=1 xi − n¯2 . — 213. Vectores aleatorios 200.

— Estimaci´n puntual o ˆ ˆ ˆ ˆ ˆ 215. — M´todo de m´xima verosimilitud e a 223. . E(θ) = E(αθ1 + (1 − α)θ2 ) = αE(θ1 ) + (1 − α)E(θ2 ) = αθ + (1 − α)θ = θ. λ = X. — 221.164 Muestras aleatorias y estad´ ısticas 214. E(ˆ 2 ) = σ 217. — ˆ ¯ 224. 216. — (σ 2 + µ2 − 2µ2 + σ 2 + µ2 ) = 1 2(n − 1) n−1 2σ 2 = σ 2 . — 218. — 222. i=1 E(Xi+1 −Xi )2 = 1 2(n − 1) n−1 2 (E(Xi+1 )−2E(Xi+1 )E(Xi )+ i=1 1 E(Xi2 )) = 2(n − 1) 219. i=1 M´todo de momentos e 220. E(ˆ 2 ) = σ 1 2(n − 1) n−1 i=1 n−1 i=1 1 n n i=1 E(Xi − µ)2 = 1 n n Var(Xi ) = i=1 1 n n σ2 = σ2 .

— 226. Se rechaza H0 . — 165 Pruebas de hip´tesis o 227. Cuando n → ∞. Se acepta H0 .´ Apendice B. el cociente µ0 −µ1 se va a infinito o menos infinito depenσ/ n diendo del signo de la diferencia µ0 − µ1 . √ 229. . Soluciones Estimaci´n por intervalos o 225. 228.

166 .

reales. 2. ±3. ±2.Ap´ndice C e Formulario Notaci´n o N Z Q R Conjunto Conjunto Conjunto Conjunto de de de de n´ meros u n´ meros u n´ meros u n´ meros u naturales 1. . . enteros 0. . . ±1. ϑ alpha beta gamma delta epsilon zeta eta theta Iι Kκ Λλ M µ Nν Ξξ Oo Ππ iota kappa lambda mu nu xi omikron pi P ρ. ϕ X χ Ψψ Ωω rho sigma tau upsilon phi chi psi omega 167 . . racionales a/b en donde a. b ∈ Z con b = 0. 3. . ε Zζ H η Θ θ. ς T τ Υυ Φ φ. El alfabeto griego Aα Bβ Γγ ∆δ E ǫ. ̺ Σ σ.

5793 0.9995 0.8577 0.9957 0.9838 0.8315 0.8508 0.9192 0.6293 0.7642 0.7454 0.9357 0.8849 0.9980 0.9997 0.7611 0.7054 0.9306 0.9991 0.7123 0.9931 0.9960 0.168 Tabla de la distribuci´n normal est´ndar o a x 1 Φ(x) = √ 2π x −∞ e−t 2 /2 dt x 0.7291 0.5714 0.9970 0.5871 0.9945 0.6255 0.9953 0.9599 0.9974 0.9966 0.9573 0.8980 0.6628 0.9982 0.9750 0.9932 0.6331 0.5832 0.9989 0.9964 0.9913 0.0 3.9976 0.8186 0.8485 0.9686 0.9996 0.9995 0.9834 0.9986 0.9994 0.9699 0.9641 0.7995 0.8078 0.9803 0.9871 0.6591 0.5753 0.9918 0.8051 0.06 0.8907 0.9952 0.2 2.9992 0.9671 0.9929 0.9993 0.9625 0.7324 0.9633 0.9982 0.9656 0.8133 0.8770 0.9222 0.9591 0.8159 0.9995 0.8 0.7580 0.5478 0.9830 0.9965 0.8888 0.5319 0.8413 0.9864 0.7 1.9909 0.8944 0.9962 0.6664 0.8790 0.5398 0.9545 0.7157 0.5438 0.3 3.1 2.9941 0.9896 0.5675 0.9861 0.5910 0.9981 0.9441 0.9115 0.2 0.9582 0.9505 0.9998 .8643 0.9857 0.6368 0.7422 0.9991 0.9971 0.9992 0.0 2.7823 0.9990 0.5239 0.7673 0.7 0.9463 0.9996 0.8023 0.9821 0.6141 0.9993 0.0 1.1 0.6026 0.9906 0.8621 0.8810 0.9968 0.8665 0.9608 0.9394 0.9997 0.5517 0.9429 0.9783 0.9984 0.5 2.9732 0.5636 0.9997 0.05 0.02 0.5120 0.9955 0.9382 0.5596 0.9943 0.09 0.9706 0.9938 0.9778 0.9846 0.9265 0.8106 0.9948 0.9967 0.9996 0.9987 0.9207 0.9854 0.9992 0.9990 0.7764 0.9997 0.08 0.9887 0.6844 0.9418 0.6 0.8830 0.9946 0.8708 0.9251 0.8 2.9981 0.6 1.9744 0.8365 0.9370 0.9881 0.9985 0.9940 0.9992 0.9986 0.9 1.5160 0.9951 0.9515 0.9997 0.9994 0.9972 0.5 0.6217 0.9994 0.8438 0.9997 0.03 0.7190 0.7794 0.9147 0.9890 0.7881 0.6915 0.6554 0.6064 0.9983 0.9963 0.9495 0.1 1.5987 0.9977 0.00 0.6 2.9452 0.9922 0.7517 0.6517 0.9979 0.9049 0.9904 0.9995 0.9099 0.6443 0.6879 0.9554 0.5557 0.7019 0.8531 0.5040 0.9162 0.9959 0.7939 0.9015 0.9788 0.9032 0.9878 0.9332 0.9979 0.9812 0.9082 0.9975 0.5 1.9850 0.9484 0.9236 0.9989 0.9474 0.5199 0.04 0.3 2.9997 0.9969 0.9927 0.9996 0.9911 0.9974 0.7 2.9319 0.1 3.9713 0.7967 0.8264 0.7704 0.8599 0.9719 0.9842 0.9893 0.9987 0.4 1.9995 0.6179 0.9988 0.9525 0.9826 0.9345 0.9985 0.9989 0.9994 0.5359 0.9936 0.07 0.6736 0.9693 0.8962 0.9756 0.6772 0.5080 0.9279 0.6406 0.9564 0.9996 0.8686 0.9984 0.9949 0.8212 0.8869 0.4 2.7852 0.9994 0.9406 0.6808 0.0 0.7389 0.9761 0.9817 0.9772 0.5948 0.9920 0.9997 0.8289 0.5279 0.9993 0.6985 0.9987 0.7549 0.8399 0.7257 0.9875 0.8 1.9884 0.7224 0.9973 0.9997 0.7357 0.9916 0.9131 0.9793 0.8554 0.9925 0.9649 0.9993 0.8340 0.8238 0.9934 0.5000 0.9961 0.4 0.01 0.9798 0.9898 0.9177 0.9901 0.2 1.8997 0.6103 0.7486 0.9808 0.9991 0.9616 0.9956 0.6480 0.8749 0.9738 0.9678 0.9990 0.3 0.7734 0.9995 0.9535 0.9977 0.8925 0.9997 0.9 2.9726 0.9868 0.7088 0.7910 0.3 1.9996 0.2 3.9978 0.9 3.8461 0.9664 0.6700 0.8729 0.9292 0.6950 0.4 0.9066 0.9988 0.9767 0.

764 2.831 2.711 1.169 3.045 1.681 2.05 6.060 2.291 2.528 2.706 4.328 1.998 2.721 1.397 1.315 1.372 1.485 2.860 1.145 2.821 2.015 1.1 3.841 4.552 2.771 2.725 1.355 3.746 1.925 5.´ Apendice C.508 2.473 2.761 1.356 1.462 2.753 1.323 1.878 2.500 2.886 1.898 2.895 1.182 2.638 1.807 2.110 2.729 1.005 63.645 α =0.228 2.779 2.250 3.316 1.074 2.708 1.541 3.052 2.650 2.960 α =0.604 4.106 3.492 2.131 2.365 3.350 1.571 2.064 2.920 2.353 2.797 2.734 1.383 1.763 2.363 1.845 2.056 2.499 3.718 2.833 1.311 1.583 2.821 6.345 1.467 2.567 2.282 .714 1.740 1.325 1.415 1.782 1.703 1.262 2.624 2.771 1. Formulario 169 Tabla de la distribuci´n t(n) o α tα.201 2.048 2.313 1.479 2.012 2.796 1.314 2.947 2.143 2.447 2.314 1.319 1.701 1.776 2.055 3.025 12.132 2.717 1.078 1.977 2.120 2.576 α =0.518 2.n ) = α n 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 ∞ α =0.539 2.341 1.333 1.080 2.474 3.306 2.179 2.n P (T ≥ tα.756 2.812 1.093 2.326 α =0.699 1.861 2.896 2.330 1.318 1.707 3.819 2.01 31.476 1.787 2.086 2.943 1.101 2.533 1.069 2.706 1.321 1.337 1.032 3.303 3.602 2.365 2.657 9.160 2.965 4.440 1.

170 .

Limusa.. 1971. G. Stone C. Sandell D. Port S.. C. John Wiley & Sons. Probability and statistical inference. 1971. 2001. J. [7] Hoel P.. Probabilidad y estad´stica para ingenier´a y ciencias. C. J. 1983. Serie Textos No. UNAM. [2] Blomm G. o ı 1973. McGraw Hill. 171 . Elementos de probabilidad y a a estad´stica. Houghton Mifflin. F. 1993.. A. [8] Hoel P. Thomson. Springer-Verlag. [3] Devore J. G. Holst L. [11] Mood A. 1983. Nivel Elemental. Foundations of the theory of probability. Tanis E.. C. Problems and snapshots from the world of probability. Stone C. Port S.. 1994. [10] Kolmogorov A. Introduction to the theory of statistics.. Boes D. M. Sociedad Matem´tica Mexiı a cana. An introduction to applied probability.. 21. 1979. Introduction to probability theory.Bibliograf´ ıa [1] Blake I. y Hern´ndez-Lerma O. Chelsea Publishing Company. [9] Hogg R. N. Introduction to statistical theory. Houghton Mifflin. 2003. [5] Garza T. Graybill F. ı ı [4] Feller W. Introducci´n a la teor´a de probabilidades y sus aplicaciones. Elementos de c´lculo de probabilidades.. A. 1950. V. a [6] Hern´ndez-Del-Valle A.

[16] Velasco G. M.172 Bibliograf´ ıa [12] Miller I. Bali G.. Introduction to probability and statistics for engineers and scientists. 1999. 2001. Wisniewski P. Prentice Hall. 1994... ı ı Thomson. 2da Edici´n. 2000. Trillas. 1998. [14] Ross S. Freund’s mathematical statistics. John E. . Ejercicios y problemas de la teor´a de las probabiı lidades. Academic Press. o [15] Wisniewski P. A first course in probability. [13] Ross S. Macmillan Publishing Company. Miller M. Probabilidad y estad´stica para ingenier´a y ciencias. M.

92 173 . 11 potencia. 84 Estandarizaci´n. 66 binomial. 88 Diferencia sim´trica. 71 uniforme continua. 11 Densidad conjunta. 67 a Poisson. 130 Bernoulli. 57 t. 89 sesgado. 25 Combinaciones. 64 gama. 52 Ensayo Bernoulli. 49 Estad´ ıstica. 15 Coeficiente multinomial. 62 uniforme discreta. 59 conjunta. 55 e hipergeom´trica. 65 geom´trica. 23 Conjunto —s ajenos. 54 binomial negativa. 85 de raz´n. 86 o nominal. 92 m´ximo veros´ a ımil. 80 normal. 53 beta. 67 normal est´ndar. 76 marginal. 90 a insesgado. 46 propiedades. 77 exponencial. 60 e ji-cuadrada.´ Indice Axioma. 13 muestral. 10 e Distribuci´n o arcoseno. 89 Estimador de m´xima verosimilitud. 7 Esperanza. 85 Espacio equiprobable. 79 Desviaci´n est´ndar. 84 inferencial. 88 Estad´ ıstica. 93 puntual. 85 ordinal. 70 marginal. 84 descriptiva. 75. 90 puntual. 49 o a de un conjunto de datos. 68 o Estimaci´n o por intervalos. 53 Escala de intervalo.

41 o conjunta. 77 de un vector. 23 Poblaci´n. 101 o nivel de significancia. 77 marginal. 88 Nivel de significancia. 94 lim inferior. 52 Muestra. 94 Imagen inversa. 88 Mediana de un conjunto de datos. 15 Producto Cartesiano. 39 o conjunta. 92 Evento. 79 Funci´n de distribuci´n. 92 Intervalo de confianza. 101 regi´n cr´ o ıtica. 46 de un conjunto de datos. 20 o Probabilidad axiom´tica. 13 frecuentista. 11 Experimento aleatorio. 43 o o bivariada. 28 de un evento. 91 ´ Indice Media. 13 subjetiva. 87 Momento muestral. 52 centrales. 101 Rango de un conjunto de datos. 91 Momentos. 75 Grado de confianza. 76 marginal. 22 o Partici´n. 7 —s ajenos. 80 de varios eventos. 90 gama. 21 o sin repetici´n. 101 Ordenaciones con repetici´n. 87 Moda de un conjunto de datos. 15 a cl´sica. 90 a de momentos. 84 aleatoria. 12 Prueba de hip´tesis. 30 o Permutaciones.174 sesgo de un. 87 muestral. 65 indicadora. 66 de verosimilitud. 94 grado de confianza. 88 . 6 Funci´n o beta. 94 Leyes de De Morgan. 13 a condicional. 84 o Postulado. 10 M´todo e de m´xima verosimilitud. 29 de variables aleatorias. 29 Insesgamiento. 78 conjunta. 80 Funci´n de probabilidad. 38 Independencia de dos eventos. 54 Funci´n de densidad. 94 lim superior. 92 poblacional. 15 Principio de multiplicaci´n.

101 tama˜ o de la. 85 Varianza. 47 Tri´ngulo de Pascal. 74 continuo. 84 aleatoria.´ Indice Regi´n cr´ o ıtica. 85 cuantitativa. 87 muestral. 33 de probabilidad total. 35 cualitativa. 29. 28 Sesgo. 101 n Regla del producto. 74 175 . 89 propiedades. 74 discreto. 70 de Bayes. 46 Variable. 117 Valor esperado. 25 a Urna de Polya. 49 de un conjunto de datos. 30 del estad´ ıstico inconsciente. 51 Vector aleatorio. 92 Teorema central del l´ ımite. 46 promedio.

Sign up to vote on this title
UsefulNot useful