Curso elemental de PROBABILIDAD Y ESTAD´ ISTICA

Luis Rinc´n o Departamento de Matem´ticas a Facultad de Ciencias UNAM Circuito Exterior de CU 04510 M´xico DF e Versi´n: Diciembre 2007 o

Una versi´n actualizada del presente texto se encuentra disponible en formato o electr´nico en la direcci´n o o http://www.matematicas.unam.mx/lars

Pr´logo o
El presente texto constituye el material completo del curso semestral de Probabilidad y Estad´ ıstica, impartido por el autor a alumnos de la licenciatura en ciencias de la computaci´n en la Facultad de Ciencias de la UNAM. Contiene el teo mario b´sico para un curso elemental e introductorio a algunos temas tradicionales a de la probabilidad y la estad´ ıstica, as´ como una colecci´n de ejercicios. Algunos ı o de estos ejercicios aparecen a lo largo del texto como parte de la lectura, y una colecci´n m´s extensa aparece al final del libro incluyendo algunas soluciones o o a sugerencias para resolverlos. El texto est´ dirigido de manera general a alumnos de las distintas carreras de a ingenier´ ciencias de la computaci´n, y otras carreras cient´ ıa, o ıficas similares, cuyos programas de estudio contemplan un semestre introductorio a estos temas. Como es natural en este tipo de cursos, no se hace ´nfasis en el rigor matem´tico de la e a demostraci´n de los resultados, sino en el uso, interpretaci´n y aplicaci´n de ´stos. o o o e Como prerequisitos para una lectura provechosa de este material, se requiere, en determinados momentos, tener cierta familiaridad con algunos conceptos elementales de ´lgebra y del c´lculo diferencial e integral. El texto fue escrito en el sistema a a A L TEX, y la mayor´ de las ilustraciones fueron elaboradas usando el paquete psıa tricks. El autor agradece cualquier comentario, sugerencia o correcci´n enviada al correo o electr´nico que aparece abajo. o Luis Rinc´n o Diciembre 2007 Ciudad Universitaria UNAM lars@fciencias.unam.mx

Contenido

1. PROBABILIDAD 1.1. Introducci´n . . . . . . . . . . . . . . . . . o 1.2. Probabilidad . . . . . . . . . . . . . . . . 1.3. An´lisis combinatorio . . . . . . . . . . . a 1.4. Probabilidad condicional e independencia 1.5. Variables aleatorias . . . . . . . . . . . . . 1.6. Funciones de densidad y de distribuci´n . o 1.7. Esperanza, varianza, momentos . . . . . . 1.8. Distribuciones de probabilidad . . . . . . 1.9. Vectores Aleatorios . . . . . . . . . . . . . 2. ESTAD´ ISTICA 2.1. Introducci´n . . . . . . . . . . . . o 2.2. Variables y tipos de datos . . . . 2.3. Estad´ ıstica descriptiva . . . . . . 2.4. Muestras aleatorias y estad´ ısticas 2.5. Estimaci´n puntual . . . . . . . . o 2.6. Estimaci´n por intervalos . . . . o 2.7. Pruebas de hip´tesis . . . . . . . o A. Ejercicios B. Soluciones C. Formulario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

5 6 13 20 28 35 39 45 52 74 83 84 84 86 88 89 93 99 107 139 167

3

4 Contenido .

Suponga que el n´ mero de uno de los u jugadores ha aparecido dos veces y el n´ mero del otro una sola vez. Pascal a su vez consulta con Pierre de Fermat (1601o 1665) e inician un intercambio de cartas a prop´sito del problema. distinto u uno del otro. Con ello se inician algunos esfuerzos por dar soluci´n a ´ste y otros n o e problemas similares que se plantean. deseando conocer la respuesta al problema plantea a Blaise Pascal (1623-1662) la situaci´n. u ¿C´mo debe dividirse el total de la apuesta si el juego se suspende? o Uno de los apostadores. El problema al que nos referimos involucraba una gran cantidad de dinero y puede plantearse de la siguiente forma: Dos jugadores escogen cada uno de ellos un n´ mero del 1 al 6. Con el paso del tiempo se sientan las bases y las experiencias necesarias para la b´ squeda de una teor´ matem´tica que sinteu ıa a tice los conceptos y los m´todos de soluci´n de los muchos problemas particulares e o resueltos a lo largo de varios a˜ os. n 5 . y apuestan 32 doblones de oro a que el n´ mero escogido por u uno de ellos aparece en tres ocasiones antes que el n´ mero del contrario u al lanzar sucesivamente un dado. Esto sucede en o el a˜ o de 1654.Parte 1 PROBABILIDAD En esta primera mitad del curso estudiaremos algunos conceptos elementales de la teor´ matem´tica de la probabilidad. Esta teor´ tuvo como uno de sus primeros ıa a ıa puntos de partida el intentar resolver un problema particular concerniente a una apuesta de juego de dados entre dos personas. popularmente conocido como el caballero De Mere. Antonio de Gombaud.

1.6 ´ 1. el matem´tico n e a ruso A. a para modelar situaciones reales o imaginarias. Uno de estos problemas es el de encontrar axiomas a o postulados a partir de los cuales se pueda construir una teor´ matem´tica de ıa a la probabilidad. y aunque estos experimentos pueden parecer muy modestos. y es sin duda ıdo una parte importante y bien establecida de las matem´ticas. el resultado que se obtiene no siempre es el mismo. Esta teor´ o ıa ıa prevalece hoy en d´ y ha adquirido el calificativo de teor´ cl´sica. el matem´tico David Hilbert (1862-1943) plantea 23 problemas n a matem´ticos de importancia. 1601–1665) En el segundo congreso internacional de matem´ticas. Ha resultado util paa ´ ra resolver problemas puramente matem´ticos. 1623–1662) Pierre de Fermat (Francia. N. Introducci´n o La teor´ de la probabilidad es la parte de las matem´ticas que se encarga del ıa a estudio de los fen´menos o experimentos aleatorios. pero sobre todo y principalmente. El ejemplo m´s a sencillo y cotidiano de un experimento aleatorio es el de lanzar una moneda o un dado. Aproximadamente treinta a˜ os despu´s. Por experimento aleatorio eno tenderemos todo aquel experimento que cuando se le repite bajo las mismas condiciones iniciales. En principio no . en 1933. Actualmente ıa ıa a la teor´ cl´sica de la probabilidad se ha desarrollado y extendido enormemente ıa a gracias a muchos pensadores que han contribu´ a su crecimiento. hay situaciones en donde se utilizan para tomar decisiones de cierta importancia. Introduccion Blaise Pascal (Francia. 1. en donde el azar es relevante.1. celebrado en la ciudad de Paa ris en el a˜ o 1900. Kolmogorov (1903-1987) propone ciertos axiomas que a la postre resultaron adecuados para la construcci´n de una teor´ de la probabilidad.

Parte 1. El espacio muestral (o tambi´n llamado espacio muestra de un experimento aleatorio es el conjunto de e todos los posibles resultados del experimento. o Ejemplo. 2. Ejemplo. . B. ∞). Considere el experimento aleatorio de participar en un juego de loter´ ıa. 6}. y se le denota generalmente por la letra griega Ω (omega). 4. Este ejemplo sencillo muestra que el espacio muestral de un experimento aleatorio no es unico y depende del inter´s ´ e del observador. 4. 2] corresponde al evento en el que la primera descompostura se observe entre la primera y la segunda unidad de tiempo. llamaremos evento a cualquier subconjunto del espacio muestral y denotaremos a los eventos por las primeras letras del alfabeto en may´ sculas: A. El subconjunto A = [1. etc. . 3. Por otro lado. 6}. “perder”}. C. decimos entonces que se observ´ la ocurrencia del evento A. Suponga que hay un mill´n de n´ meros en esta loter´ y un jugador participa con o u ıa un boleto. 1000000}. En algunos textos se usa tambi´n la letra S e para denotar al espacio muestral. . Esta letra proviene del t´rmino sampling space de e la lengua inglesa equivalente a espacio muestral. asi que por lo menos cona a viene agrupar en un conjunto a todos los resultados posibles. ¿Cu´l es un posible espacio muestral para este experimento? Naturala mente al jugador le interesa conocer su suerte en este juego y puede proponer como espacio muestral el conjunto Ω = {“ganar”. Suponga que un experimento aleatorio consiste en observar el tiempo en el que una m´quina en operaci´n sufre su primera descompostura. Como ejemplo de un evento para este experimento podemos definir el conjunto A = {2. Si al lanzar el dado una vez se obtiene el n´ mero u u “4”. PROBABILIDAD 7 sabemos cu´l ser´ el resultado del experimento aleatorio. o Ejemplo. y si se obtiene o por ejemplo el resultado “1”. Con la ayuda de algunos u ejemplos ilustraremos a continuaci´n los conceptos de espacio muestral y evento. que corresponde al suceso de obtener como resultado un n´ mero par. . Ω = {1. 2. . es decir. Sin embargo puede tambi´n e tomarse como espacio muestral el conjunto que contiene a todos los posibles n´ meu ros ganadores. decimos que no se observ´ la ocurrencia del evento A. Si un experimento aleatorio consiste en lanzar un dado y observar el n´ mero que aparece en la cara superior. 5. Si se consideran a o mediciones continuas del tiempo. entonces claramente el espacio muestral es u el conjunto Ω = {1. entonces puede adoptarse como espacio muestral para este experimento el intervalo [0. M´s adelante mostraremos que este conjunto no es necea sariamente unico y su determinaci´n depende del inter´s del observador o persona ´ o e que realiza el experimento aleatorio.

El conjunto vac´ lo denotaremos u ıo por ∅.1 se muestran en o diagramas de Venn estas dos operaciones. la operaci´n uni´n. y algunas propiedades que nos ser´n de utilidad en el estudio de la a probabilidad y la estad´ ıstica. Supondremos que el espacio muestral Ω de un experimento aleatorio es una especie de conjunto universal. o A∩B A−B Ac {ω ∈ Ω : ω ∈ A y ω ∈ B}. En la Figura 1. y cualquier elemento de Ω lo denotaremos por ω (omega min´ scula). y corresponde a aquel conjunto de elementos de A que no pertenecen a B. Si A es un conjunto. Recordamos a continuaci´n las operaciones b´sicas de uni´n. ¿Es un espacio muestral finito o u infinito? Ejercicio. En general. Suponga que se tiene en operaci´n una sala de c´mputo con 100 compuo o tadoras. ⊆). denotamos la cardinalidad o n´ mero u de elementos de ese conjunto por el s´ ımbolo #A. de hecho estos conjuntos son siempre ajenos. o no contenci´n (⊂) de o o un conjunto en otro. se lee o o “A o B” y la intersecci´n. A ∪ B. recordaremos a continuaci´n algunas operaciones entre ıa o estos objetos. La diferencia entre dos conjuntos A y B se denota por A− B. ¿Puede usted comprobar tal afirmaci´n? ¿En qu´ caso ambos o e conjuntos coinciden? Por otro lado el complemento de un conjunto A se denota . Introduccion Ejercicio. / Cuando los conjuntos se expresan en palabras. y los de contenci´n (⊂. {ω ∈ Ω : ω ∈ A y ω ∈ B}. Operaciones con conjuntos. Encuentre un espacio muestral para el experimento aleatorio de observar el marcador final de un juego de f´ tbol soccer. Otros s´ ımbolos usuales son los de pertenencia (∈). se lee “A y B”. en un momento o a cualquiera del d´ ıa. Puesto que los conceptos de espacio muestral y evento involucran forzosamente la terminolog´ de conjuntos. Sean A y B dos subconjuntos cualesquiera de Ω. o no pertenencia (∈) de / un elemento en un conjunto. / {ω ∈ Ω : ω ∈ A}.8 ´ 1. desde el punto de vista de uso o no uso. diferencia y complemento: o A∪B = = = = {ω ∈ Ω : ω ∈ A ´ ω ∈ B}. A ∩ B. el conjunto A−B es distinto de B −A. A − B se define como A∩B c . Encuentre un espacio muestral para el experimento de observar la configuraci´n de m´quinas.1. es decir. o a o intersecci´n.

Encuentre y represente en el eje real los conjuntos: A ∪ B. Demuestre que si A ⊆ B.2. Ejercicio. . ¿Qui´n es Ac ∩ B? Observe que cada persona es un elemento de alguno de e los siguientes conjuntos: A∩B.Parte 1. ¿A cu´l pertenece usted? o a Ejercicio.1: por Ac y se define como la colecci´n de aquellos elementos de Ω que no pertenecen o a A. PROBABILIDAD 9 B A B A Ω A∪B A∩B Ω Figura 1. y B la colecci´n de aquellas personas que estan casadas. Mediante un diagrama de Venn ilustramos gr´ficamente las operaciones de a diferencia y complemento en la Figura 1. Entonces el conjunto A ∩ B consta o de aquellas personas que estan casadas y tienen hijos.2: Ejemplo. A∩B c . mientras que el conjunto A ∩ B c est´ constituido por aquellas personas que tienen hijos pero no estan caa sadas. Considere los subconjuntos de n´ meros reales A = {x ∈ R : x2 ≤ 1} y u B = {x ∈ R : x > 0}. Sea A el conjunto de aquellas personas que tienen hijos. A B A Ω A−B A c Ω Figura 1. entonces B c ⊆ Ac . Ac ∩B ´ Ac ∩B c .

A ∩ Ac = ∅. e A ∪ (B ∩ C) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C). = (A ∪ B) ∩ (A ∪ C). ¿Puede usted escribir estas identidades para n conjuntos? . Visualmente es f´cil comprobar que la difee a rencia sim´trica tambi´n puede escribirse como (A − B) ∪ (B − A). Introduccion Es f´cil verificar que el conjunto vac´ y el conjunto total satisfacen las siguientes a ıo propiedades elementales: A ∪ ∅ = A. = Ac ∪ B c . satisfacen las siguientes igualdades: A ∪ (B ∪ C) A ∩ (B ∩ C) y tambi´n son distributivas. Las operaciones uni´n e intersecci´n son asociativas.1. Recordemos tambi´n la operaci´n diferencia sim´trica entre dos conjuntos A y B. = (A ∪ B) ∪ C. ¿C´mo podr´ e e o ıa expresarse en palabras al conjunto A△B? A B Ω A△B Figura 1. esto o o es. A − B y B − A. A ∪ Ac = Ω. ´ 1.10 A ∩ B. = (A ∩ B) ∩ C. y definida como sigue: A△B = (A ∪ B) − (B ∩ A). A ∩ ∅ = ∅. A ∪ Ω = Ω.3: Recordemos adem´s las muy utiles leyes de De Morgan: a ´ (A ∪ B)c (A ∩ B) c = Ac ∩ B c . En la Figura 1. A ∩ Ω = A. es decir. e o e denotada por A△B. La validez de estas dos igualdades puede extenderse a colecciones finitas e incluso arbitrarias de conjuntos.3 ilustramos gr´ficamente el conjunto resultante de efectuar la diferencia a sim´trica entre los conjuntos A y B.

{a. 3. . 5. pero no son ajenos dos a dos pues. con i distinto de j. b}. b. Suponga que A es el conjunto de ra´ ıces de la ecuaci´n cuadr´tica x2 − o a x − 2 = 0. Las siguientes operaciones entre conjuntos no son elementales y producen nuevos conjuntos que se encuentran en un nivel distinto al de los conjuntos originales. 2. A ∩ B c y Ac ∩ B c son ajenos dos a dos. c}. El ejemplo general m´s importante de u u a conjuntos o eventos ajenos es la pareja dada por A y Ac . B = {2. ¿Son los conjuntos A y B ajenos? Este concepto puede extenderse al caso cuando se tienen varios conjuntos. por ejemplo. Compruebe matem´ticamente que si n conjuntos son ajenos. denotado por 2Ω . y B es el intervalo [0. y que . 2}. 3} y C = {3. . entonces el conjunto 2Ω consta de 8 elementos. c}. n. Sean A y B dos conjuntos cualesquiera. . . PROBABILIDAD 11 Conjuntos ajenos. c}. 4} son ajenos pues A ∩ B ∩ C = ∅. . 4} son ajenos pues no hay ning´ n elemento com´ n entre ellos. estos ıo. {a}. 2. . ıa o Ejercicio. Ejercicio. conjuntos son ajenos en el sentido de que la intersecci´n de todos ellos es vac´ o ıa pero no son ajenos dos a dos. es aquel conjunto cuyos elementos son todos los subconjuntos posibles de Ω. Ac ∩ B. 6}. Ejercicio. 3]. entonces a son ajenos dos a dos. 4. para cualquier conjunto A. a saber. Compruebe que la colecci´n de o conjuntos: A ∩ B. {b}. Por ejemplo. el conjunto A ∩ B no es vac´ Es decir.Parte 1. . b. Decimos que n conjuntos A1 . j = 1. los conjuntos A y B son ajenos cuando no existe un elemento que pertenezca tanto a A como a B. Dibujar un diagrama de Venn podr´ ayudar a entender la situaci´n. {b. El conjunto potencia de Ω. Por ejemplo. An son ajenos si A1 ∩ · · · ∩ An = ∅. si Ω = {1. si Ω = {a. 2Ω = {∅. es decir. 2} y B = {3. y se dice que son ajenos dos a dos (o mutuamente ajenos) si Ai ∩ Aj = ∅ para cualesquiera valores de los ´ ındices i. Decimos que dos conjuntos A y B son ajenos (o disjuntos) si se cumple la igualdad A ∩ B = ∅. . Observe que los elementos del conjunto potencia son en si mismos conjuntos. {a. {a. Existe diferencia en estas dos definiciones y explicaremos la situaci´n con el siguiente ejemplo: Los conjuntos o A = {1. {c}. c}}. Conjunto potencia. entonces los conjuntos A = {1.

1}. puede considerarse el producto a a Cartesiano de n conjuntos y comprobarse que #(A1 × · · · × An ) = #A1 · · · #An . b3 ). b1 ). . denotado por A × B.1. (a2 . Observe que la expresi´n 2Ω no tiene sentido matem´tico. En s´ ımbolos. entonces la cardinalidad del conjunto u A×B es el producto n·m. b2 . . se define como la colecci´n de todas las o parejas ordenadas (a. Sea A = {0. ¿Qui´n es 2Ω ? e Producto Cartesiano. b2 ). Rn . Un poco m´s generalmente.12 ´ 1. en donde a es cualquier elemento de A. . Sea Ω = {a}. . si A = {a1 . Ejercicio. (a2 . M´s a´ n. b) es distinta de (b. . entonces A × B = {(a1 . (a1 . y b es cualquier elemento de B. R4 . b3 }. Por ejemplo. a2 } y B = {b1 . y). Este resultado es llamado principio de multiplicaci´n que o usaremos m´s adelante. Recordemos que ı a o estamos interesados en calcular probabilidades de los diferentes eventos. Introduccion en esta colecci´n estan contenidos todos los eventos que podr´ ser de inter´s en un o ıan e experimento aleatorio. De este hecho proviene la notaci´n usada para el conjunto o potencia: 2Ω . el n´ mero ıcil u de elementos en el conjunto 2Ω es exactamente 2 elevado a la potencia dada por la cardinalidad de Ω. b3 )}. (a1 . y debe o a considerarse como un s´ ımbolo para denotar al conjunto potencia. esto es. No es dif´ demostrar que #(2Ω ) = 2#Ω . es decir. A × B = {(a. b). si la cardinalidad de u a u A es el n´ mero n. de subconjuntos del espacio muestral que se obtienen al estudiar los diversos expe- . Finalmente recordemos que el producto Cartesiano de dos conjuntos A y B. El producto Cartesiano R × R es el conjunto de todas las parejas de n´ meros reales (x. u An´logamente se construyen los conjuntos R3 . y la cardinalidad de B es m. ambos tienen el mismo n´ mero de elementos. Ejemplo. ¿Cu´ntos elementos tiene A × · · · × A? a n Concluimos aqu´ nuestra r´pida y breve revisi´n de conjuntos. sin embargo ambos conjuntos tienen la misma cardinalidad. En general los conjuntos producto A × B y B × A son distintos pues la pareja (a. b2 ). a Ejercicio. es decir. A este conjunto producto se le denota usualmente por R2 . (a2 . Para el ejemplo anterior se comprueba que la cardinalidad de 2Ω es efectivamente 2#Ω = 23 = 8. b) : a ∈ A y b ∈ B}. b1 ). a).. .

6} 3 1 P (A) = = = . 1] que denou taremos por P (A). PROBABILIDAD 13 rimentos aleatorios.2. #{1. esta definici´n de probabilidad presupone que todos los elementos de o Ω son igualmente probables o tienen el mismo peso. en las n realizaciones del experimento. Este es el caso por ejemplo de un dado equilibrado. 6} 6 2 Probabilidad frecuentista. o o a pues forzosamente necesitamos suponer que el n´ mero de elementos en Ω es finiu to. Se u define entonces la probabilidad frecuentista de A como indica el siguiente l´ ımite P (A) = l´ ım n→∞ n(A) . n . 4. u entonces #{2. 4. Claramente esta definici´n es s´lo v´lida para espacios muestrales finitos. Existen al menos cuatro definiciones de probabilidad las cuales explicamos a o continuaci´n. pues para calcular la probabilidad a de un evento A. Por e lo tanto. unicamente necesitamos contar cu´ntos elementos tiene A res´ a pecto del total Ω. 3. Probabilidad La probabilidad de un evento A.Parte 1. Denotemos por n(A) el n´ mero de ocurrencias del evento A. a 1. sin importar exactamente qu´ elementos particulares sean. Suponga que se realizan n repeticiones de un cierto experimento aleatorio y sea A un evento cualquiera. 4. Para este experimento el espacio muestral es el conjunto Ω = {1. o ´ Probabilidad clasica. En la siguiente secci´n estudiaremos algunas formas de definir o matem´ticamente la probabilidad de un evento. #Ω en donde el s´ ımbolo #A denota la cardinalidad o n´ mero de elementos del conu junto A. Adem´s. 5. y representa una medida de la frecuencia con la que se observa la ocurrencia del evento A cuando se efect´ a el experimento aleatorio en cuesu ti´n. es un n´ mero real en el intervalo [0. la probabilidad de A = {2. 6}. 2. Sea A un subconjunto de un espacio muestral Ω de cardinalidad finita. 3. 2. Se define la probabilidad cl´sica del evento A como el cociente: a P (A) = #A . 4. y si deseamos calcular la probabilidad (cl´sica) del evento A a correspondiente a obtener un n´ mero par. 5. el espacio Ω debe ser equiprobable. 6}. es decir.

de modo que en la pr´ctica no es posible a encontrar mediante este mecanismo la probabilidad de un evento cualquiera. Consideremos nuevamente el experimento aleatorio de lanzar un dado equilibrado y registrar la ocurrencia del evento A definido como el conjunto {2. 6}.14 1. debemos hacer notar que no es humanamente posible llevar a cabo una infinidad de veces el experimento aleatorio. Esta limitaci´n hace que esta definici´n de probabilidad no sea enteramente formal. Despu´s de lanzar el dado 20 veces se e obtuvieron los siguientes resultados: No. Probabilidad En este caso. Veamos un ejemplo concreto. Se invita al lector intrigado a efectuar un experimento similar y corroborar esta interesante regularidad estad´stica con ´ste o cualquier otro experimento aleatorio de su inter´s. pero o o tiene algunas ventajas. 4.2. 11 12 13 14 15 16 17 18 19 20 Resultado 2 5 1 6 3 1 5 5 2 6 n(A)/n 7/11 7/12 7/13 8/14 8/15 8/16 8/17 8/18 9/19 10/20 En la gr´fica de la Figura 1. no es dif´ creer que el cociente n(A)/n u ıcil se estabiliza en 1/2 cuando n es grande y el dado es equilibrado. 1 2 3 4 5 6 7 8 9 10 Resultado 3 6 2 1 4 6 3 4 2 5 n(A)/n 0/1 1/2 2/3 2/4 3/5 4/6 4/7 5/8 6/9 6/10 No.4: . al principio se pueden presentar algunas oscilaciones pero eventualmente el cociente se estabiliza en un cierto n´ mero. ı e e n(A)/n 1/2 n 2 4 6 8 10 12 14 16 18 20 Figura 1. Realizando un mayor u n´ mero de observaciones del experimento.4 se muestra el singular comportamiento de este cociente a a lo largo del tiempo.

. estos postulados han sido tomados directamente del an´lisis a 1 Un postulado o axioma es una proposici´n que se acepta como v´lida y sobre la cual se funda o a una teor´ ıa. u o Puede parecer un tanto informal y poco seria esta definici´n de la probabilidad de o un evento.Parte 1. En este caso la probabilidad de un evento depende del observador. Los siguientes a tres postulados o axiomas1 fueron establecidos en 1933 por el matem´tico ruso A. A. son elementos que s´lo algunas personas conocen y o o que podr´ darnos una idea m´s exacta de esta probabilidad. Kolmogorov (Rusia. ¿Cu´l e a es la probabilidad de que un cierto equipo de f´ tbol gane en su pr´ximo partido? u o Ciertas circunstancias internas del equipo. Esta forma subjetiva ıan a de asignar probabilidades a los distintos eventos debe. En la definici´n axiom´tica de la probabilidad no o a se establece la forma expl´ ıcita de calcular las probabilidades sino unicamente se ´ proponen las reglas que el c´lculo de probabilidades debe satisfacer. 1903–1987) No es dif´ verificar que las definiciones anteriores de probabilidad satisfacen estos ıcil tres axiomas. sin embargo en muchas situaciones es necesario recurrir a un experto para tener por lo menos una idea vaga de c´mo se comporta el fen´meno de nuestro o o inter´s y saber si la probabilidad de un evento es alta o baja. Por ejemplo. De hecho. es decir. P (A ∪ B) = P (A) + P (B). sin embargo. ser consistente con una serie de reglas naturales que estudiaremos a continuaci´n. P (A) ≥ 0. P (Ω) = 1. N. 2. seg´ n lo que el observador conoce del fen´meno en estudio. las condiciones del equipo rival o cualquier otra condici´n externa. o ´ Probabilidad axiomatica. 3. cuando A ∩ B = ∅. a N. Kolmogorov. Axiomas de la probabilidad 1. PROBABILIDAD 15 Probabilidad subjetiva.

A partir de estos postulados es posible demostrar que la probabilidad cumple con una serie de propiedades interesantes. De aqui obtenemos P (B) − P (A) ≥ 0. En particular. como P (Ω) = 1. o simplemente probabilidad.5: A ⊆ B. P (Ω) = P (A)+P (Ac ).2. A cualquier o funci´n P que satisfaga los tres axiomas de Kolmogorov se le llama medida de o probabilidad. A B Ω Figura 1. . Primeramente escribimos B = A ∪ (B − A).5. Para cualquier evento A. por el tercer axioma. Como A y B − A o son eventos ajenos. Como ∅ = Ωc . usando la propiedad anterior. observe que el tercer axioma es v´lido no s´lo para dos eventos a o ajenos sino para cualquier colecci´n finita de eventos ajenos dos a dos.16 1. o Demostraci´n. tenemos que P (∅) = o P (Ωc ) = 1 − P (Ω) = 0. P (∅) = 0. Probabilidad cuidadoso y reflexivo de las definiciones de probabilidad mencionadas anteriormente. entonces P (A) ≤ P (B). Proposici´n. Finalmente. por el segundo axioma obtenemos P (Ac ) = 1 − P (A). por el tercer axioma. o Demostraci´n. o Demostraci´n. P (Ac ) = 1 − P (A). Como o ıa A y Ac son eventos ajenos. Si A ⊆ B. P (B) = P (A) + P (B − A). Proposici´n. De la teor´ elemental de conjuntos tenemos que Ω = A ∪ Ac . Usando el primer axioma concluimos que P (B) − P (A) = P (B − A) ≥ 0. Las siguientes dos proposiciones suponen la situaci´n A ⊆ B que se muestra gr´fio a camente en la Figura 1. Proposici´n.

0 ≤ P (A) ≤ 1. Para cualquier evento A. Por el tercer axioma. Compruebe que P (B − A) = 0. o 17 Demostraci´n. o 0 ≤ P (A). entonces P (B − A) = P (B) − P (A). Entonces escribimos a A ∪ B como la uni´n disjunta de los siguientes tres eventos: o A∪B = = (A − B) ∪ (A ∩ B) ∪ (B − A) (A − A ∩ B) ∪ (A ∩ B) ∪ (B − A ∩ B). . Pero A ∩ B ⊆ A. o P (A ∪ B) = P (A) + P (B) − P (A ∩ B). de modo que P (A − A ∩ B) = P (A) − P (A ∩ B).3. Primeramente observamos que para cualesquiera eventos A y B se o cumple la igualdad A − B = A − (A ∩ B).6. es simplemente el primer axioma. An´logamente a P (B − A ∩ B) = P (B) − P (A ∩ B). Como B = A ∪ (B − A). siendo esta uni´n ajena. La otra desigualdad. Proposici´n. se tiene que P (A) ≤ P (Ω) = 1. Por lo tanto P (A ∪ B) = P (A) + P (B) − P (A ∩ B). P (A ∪ B) = P (A − A ∩ B) + P (A ∩ B) + P (B − A ∩ B). Si A ⊆ B. Para cualesquiera eventos A y B.9 y P (B c ) = 0. o Demostraci´n. PROBABILIDAD Proposici´n.Parte 1. Como A ⊆ Ω. Proposici´n. por el tercer o o axioma tenemos que P (B) = P (A) + P (B − A). Ahora aplicamos la probabilidad. Ejercicio. Demostraci´n. Sean A ⊆ B eventos tales que P (Ac ) = 0.

es decir.18 1. Para cualesquiera eventos A. B y C. De esta forma las tres regiones e son contadas una sola vez y el resultado es la probabilidad del evento A ∪ B. entonces la f´rmula demostrada se reduce al tercer axioma de la probabilidad. cuando A ∩ B = ∅. o P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) −P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C). .3 y P (A ∩ B c ) = 0.5. Probabilidad En la Figura 1. es decir. Observe que la f´rmula anterior es v´lida para cualesquiera eventos A y B. En o a particular. Observe entonces que la regi´n central ha sido contada dos veces de o o modo que el t´rmino −P (A ∩ B) da cuenta de ello.2. o P (A ∪ B) = P (A) + P (B).2.6: Ejercicio. cuando son conjuntos ajenos. A B A B Ω (a) A ∪ B C (b) A ∪ B ∪ C Ω Figura 1. Compruebe que P (A ∪ B) = 0. El siguiente resultado es una generalizaci´n del anterior o e involucra tres eventos cualesquiera. P (B) abarca la segunda y tercera regi´n. El t´rmino P (A) e abarca las primeras dos regiones de izquierda a derecha.6 (a) el lector puede comprobar la validez de la f´rmula anterior o identificando las tres regiones ajenas de las que consta A ∪ B. e Para ello siga los t´rminos del lado derecho de la f´rmula y compruebe que cada e o regi´n es contada una sola vez de modo que el resultado final es la probabilidad o del evento A ∪ B ∪ C. Proposici´n. La f´rmula que a continuaci´n se demuestra o o puede tambi´n verificarse usando el diagrama de Venn que aparece en la Fig 1.6 (b). Sean A y B eventos ajenos tales que P (B) = 0.

e) 0 ≤ P (A) ≤ 1. entonces usaremos la definici´n cl´sica de probabilidad. o o P (A ∪ B ∪ C) = P [(A ∪ B) ∪ C] = P (A ∪ B) + P (C) − P ((A ∪ B) ∩ C) = P (A) + P (B) − P (A ∩ B) + P (C) − P ((A ∩ C) ∪ (B ∩ C)) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) +P (A ∩ B ∩ C). supondremos que la forma expl´ ıcita de calcular estos n´ meros es u conocida. Las propiedades anteriores son parte del estudio te´rico y general de la probabilio dad. g) P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) −P (B ∩ C) + P (A ∩ B ∩ C). A manera de resumen presentamos a continuaci´n una tabla con las a o propiedades de la probabilidad que hemos demostrado. entonces P (B − A) = P (B) − P (A). Algunas propiedades de la probabilidad a) P (Ac ) = 1 − P (A). Esperamos que. En otras situaciones asignaremos o a probabilidades de acuerdo a ciertos modelos conocidos. el lector haya desarrollado cierta habilidad e intuici´n para escribir la demostraci´n de alguna otra o o . d) Si A ⊆ B. a partir de las propiedades enunciadas y demostradas. c) Si A ⊆ B. PROBABILIDAD 19 Demostraci´n. o que se puede suponer un cierto modelo para llevar a cabo estos c´lculos a dependiendo del experimento aleatorio en cuesti´n. Por ejemplo. cuando el espacio o muestral es finito y cada resultado puede suponerse igualmente probable. b) P (∅) = 0. f) P (A ∪ B) = P (A) + P (B) − P (A ∩ B). entonces P (A) ≤ P (B). Regresaremos a este punto m´s adelante. En general.Parte 1. Usando la f´rmula para dos eventos y agrupando adecuadamente.

¿Cu´l es la cardinalidad del correspondiente espacio muesa tral? El experimento de lanzar un dado tiene 6 resultados posibles y consideremos que tenemos un alfabeto de 26 letras. ı 1. es decir. El correspondiente espacio muestral tiene entonces cardinalidad 6 × 26 = 156.20 ´ 1. cuando el espacio Ω es finito y equiprobable. El principio de multiplicaci´n que enunciamos a o continuaci´n es la base de muchos de los c´lculos en las t´cnicas de conteo. Analisis combinatorio propiedad de la probabilidad. es decir. Debemos tambi´n decir que las demostraciones no son unicas. Sin embargo. Para ilustrar este resultado considere el siguiente ejemplo.3. o a e Proposici´n. Por ejemplo. o e ´ y que es altamente probable que el lector pueda producir alguna demostraci´n o diferente a las que aqu´ se han presentado. Por ejemplo. El principio de multiplicaci´n es v´lido no o a solamente para dos procedimientos sino que tambi´n vale para cualquier sucesi´n e o finita de procedimientos. Otras propiedades sencillas pueden encontrarse en la secci´n de ejercicios. Para poder aplicar esta definici´n necesitamos saber contar o cu´ntos elementos tiene un evento A cualquiera. si A1 . . Suponga que un cierto experimento aleatorio consiste en seleccionar un dado y despu´s seleccionar al azar e una letra del alfabeto. . En estos casos hemos definido la probabilidad cl´sica de un evento A de la siguiente a forma P (A) = #A/#Ω. An´lisis combinatorio a Consideraremos ahora el caso cuando el experimento aleatorio es tal que su espacio muestral es un conjunto finito y cada elemento de este conjunto tiene la misma probabilidad de ocurrir. A2 . Ak denotan k procedimien- . . entonces el total de formas en que puede efectuarse el primer procedimiento seguido del segundo es el producto n · m. En las siguientes secciones estudiaremos u o algunas t´cnicas de conteo que nos ayudar´n a calcular la cardinalidad de un evento e a A en ciertos casos particulares.3. Cuando podemos poner en una a lista todos y cada uno de los elementos de dicho conjunto. #(A1 × A2 ) = #A1 · #A2 . Si un procedimiento A1 puede efectuarse de n formas distintas y o un segundo procedimiento A2 puede realizarse de m formas diferentes. es com´ n enfrentar situaciones en donde no es factible escribir en u una lista cada elemento de A. . entonces es f´cil conocer a la cardinalidad de A. ¿Cu´ntos n´ meros telef´nicos existen a u o que contengan por lo menos un cinco? Es poco factible que alguien intente escribir uno a uno todos estos n´ meros telef´nicos. simplemente contamos todos los elementos uno por uno.

Deseamos realizar k extracciones al azar de un objeto a la vez. de una urna con n objetos distintos. n objetos urna k objetos muestra Figura 1. En o a todos ellos aplicaremos el principio de multiplicaci´n. y dos pares de zapatos. y es con reemplazo pues cada objeto seleccionado se reincorpora a la urna. Suponga entonces que tenemos una urna con n objetos distintos. El total de arreglos que se pueden obtener de esta urna al ıdo hacer k extracciones es el n´ mero nk . 6 camisas. de esta forma el mismo objeto puede ser extra´ varias veces. las letras may´ sculas. A este n´ mero se le llama ordenaciones o u con repetici´n. pues en cada extracci´n tenemos n objetos u o posibles para escoger y efectuamos k extracciones. uno a la vez.7: ´ Ordenaciones con repeticion: Muestras con orden y con reemplazo. ¿De cu´ntas formas distintas puede el hombre vestirse con estas prendas? a Vamos a considerar a continuaci´n diferentes esquemas y contextos en donde es o posible encontrar una f´rmula matem´tica para ciertos problemas de conteo. Un hombre tiene 4 pantalones distintos. entonces este principio se puede enunciar en s´ ımbolos de la forma siguiente: #(A1 × · · · × Ak ) = #A1 · · · #Ak . PROBABILIDAD 21 tos sucesivos. El esquema general es el de o extraer al azar k objetos. Ejemplo. Suponga que tenemos un conjunto de 60 caracteres diferentes que contiene todas las letras min´ sculas del alfabeto.Parte 1. Ejercicio. Al efectuar una extracci´n. Esto se muestra en la Figura 1.7. los diez d´ u u ıgitos . Se dice que la muestra es con orden pues es importante el orden en el o que se van obteniendo los objetos. Esta f´rmula es consecuencia del o principio de multiplicaci´n enunciado antes. registramos o el objeto escogido y lo regresamos a la urna.

(n − k)! y se lee permutaciones de n en k. Suponga esta vez que el muestreo es sin reemplazo. Este razonamiento termina al escoger el k-´simo objeto para cual tenemos e unicamente n − k + 1 posibilidades. 960. o ´ Ordenaciones sin repeticion: Muestras con orden y sin reemplazo. Analisis combinatorio y algunos caracteres especiales. La expresi´n encontrada puede escribirse como o sigue: n! P (n. ¿Cu´ntas u a historias distintas de marcadores llevan a un marcador final donde hay 4 goles? Soluci´n: 16. El total de arreglos distintos que se pueden obtener de este modo es el n´ mero: n(n − 1)(n − 2) · · · (n − k + 1). es decir. es decir. o Ejercicio. Diez personas votar´n por uno de tres candidatos. una vez seleccionado un objeto ´ste ya no se reincorpora e a la urna. 000 distintos passwords de longitud 4. o bien cuando todos los objetos son extra´ ıdos uno por uno. Ejercicio. En el caso particular cuando la muestra es exhaustiva. Nuevamente por el principio multiplicativo.3. segundo y tercero en una rifa de 10 boletos numerados del 1 al 10? Claramente se trata de una ordenaci´n sin repetici´n de 10 objetos en donde se deben extraer 3 de o o . Primeramente debemos observar que u hay k factores en la expresi´n anterior. la ´ respuesta es el producto indicado. entonces se pueden construir 60 × 60 × 60 × 60 = 604 = 12. El primer factor es n y ello es debido a o que tenemos cualesquiera de los n objetos para ser colocado en primera posici´n. k) = . Ejemplo. ¿De cuantas formas distintas pueden asignarse los premios primero. uno a uno. una urna con n objetos y de los o cuales se deben extraer. En un partido de f´ tbol hubo 4 goles en el marcador final. entonces se tienen todas las permutaciones o distintos ´rdenes en que o se pueden colocar n objetos.22 ´ 1. etc. ¿De cu´ntas formas a a distintas pueden los votos ser registrados uno por uno? Soluci´n: 59049. para la tercera n − 2 objeo tos. cuando k = n. Suponga que se tiene la misma situaci´n que antes. ¿Cu´ntos passwords o palabras clave de longitud a 4 se pueden construir usando el conjunto de 60 caracteres? Este es un ejemplo de una ordenaci´n de 60 caracteres en donde se permiten las repeticiones. k objetos. o para la segunda posici´n tenemos ahora n − 1 objetos. Como o cada caracter de los 60 disponibles puede ser escogido para ser colocado en cada una de las cuatro posiciones de la palabra clave.

Es decir.Parte 1. Supongamos nuevamente que tenemos un conjunto de n objetos distinguibles y nos interesa obtener una muestra de tama˜ o k. la respuesta es claramente u 5! = 5 × 4 × 3 × 2 × 1 = 120. El razonamiento es el siguiente: Cualquiera de los cinco libros puede ser colocado al principio. o u Ejercicio. ¿De cu´ntas a formas distintas puede ser le´ esta novela? ıda Combinaciones: Muestras sin orden y sin reemplazo. o o Permutaciones: Muestras exhaustivas con orden y sin reemplazo. La respuesta es entonces que existen 10 × 9 × 8 = 720 distintas asignaciones para los tres primeros lugares en la rifa. ¿De cu´ntas formas distintas pueden dos equipos de f´ tbol terminar en a u la clasificaci´n general de un torneo en donde compiten 20 equipos? Soluci´n: 380. quedan cuatro libros por colocar en la segunda posici´n. es decir. y adem´s la muestra debe verse como un conjunto pues no debe a haber orden entre sus elementos. y se u e usa la notaci´n P (n) = n! Adicionalmente y por conveniencia se define 0! = 1. o o etc. o Observe que las permutaciones de n objetos es un caso particular de la situaci´n o mencionada en la secci´n anterior sobre ordenaciones sin repetici´n pero ahora o o cuando la muestra es exhaustiva. Si deseamos conocer el total de formas distintas en que podemos colocar una enciclopedia de 5 vol´ menes en un librero. La pregunta b´sica acerca del total de formas en que podemos poner en orden lineal a (uno detr´s de otro y por lo tanto no hay repetici´n) n objetos distintos tiene como a o respuesta el factorial de n. Ejercicio. PROBABILIDAD 23 ellos. en la muestra no debe haber elementos repetidos. ¿Cu´ntas diferentes muestras podemos obtener a . pues no hay reemplazo. Supongamos ahora que las muestras deben ser sin orden n y sin reemplazo. A este n´ mero tambi´n se le conoce como las permutaciones de n objetos. restan entonces tres posibilidades para la tercera posici´n. denotado por n! y definido como sigue: n! = n(n − 1)(n − 2) · · · 3 · 2 · 1. Por el principio de multiplicaci´n la respuesta es el producto de estos n´ meros. cuando se extraen los n objetos de la urna. La novela Rayuela del escritor argentino Julio Cort´zar contiene 56 a cap´ ıtulos que aparentemente pueden ser le´ ıdos en cualquier orden. Ejemplo.

24

´ 1.3. Analisis combinatorio

de estas caracter´ ısticas? Para responder a esta pregunta seguiremos el siguiente razonamiento. Cuando el orden importa hemos encontrado antes la f´rmula o n! . (n − k)! Ahora que no nos interesa el orden, observamos que cada uno de los arreglos de la f´rmula anterior, est´ siendo contado k! veces, las veces en que los mismos k o a elementos pueden ser permutados unos con otros, siendo que el conjunto de elementos es el mismo. Para obtener arreglos en donde el orden no importa, debemos entonces dividir por k! La f´rmula a la que hemos llegado se llama combinaciones o de n en k, que denotaremos como sigue: n k = n! . k! (n − k)!

A este n´ mero tambi´n se le conoce con el nombre de coeficiente binomial de n en u e k, pues aparece en el famoso teorema del binomio:
n

(a + b)n =
k=0

n n−k k a b . k

Para los casos n = 2 y n = 3 el teorema del binomio se reduce a las siguientes f´rmulas que muy seguramente el lector conoce: o (a + b)2 (a + b)3 = = a2 + 2ab + b2 . a3 + 3a2 b + 3ab2 + b3 .

Ejemplo. ¿Cu´ntos equipos distintos de tres personas pueden escogerse de un grupo a de 5 personas? Observe que el orden de las tres personas escogidas no es importante de modo que la respuesta es 5 = 5!/(3! (5 − 3)!) = 10. 3 Ejercicio. En un popular juego de loter´ se pide adivinar los seis n´ meros que ser´n ıa u a escogidos al azar dentro del conjunto {1, 2, . . . , 49}. ¿Cu´l es el total de arreglos a con los cuales un jugador puede participar en este juego? Si se establece que un jugador obtiene un segundo lugar si acierta unicamente a cinco de los seis n´ meros ´ u seleccionados, ¿cu´ntos segundos lugares puede haber para una arreglo dado de a seis n´ meros? u

Parte 1. PROBABILIDAD

25

Ejercicio. Un cierto partido de f´ tbol termin´ con un marcador de 4-4. ¿De cu´ntas u o a formas distintas pudieron los equipos alternarse en anotar para llegar a tal resultado? Soluci´n: 70. ¿Cree usted que todos estos resultados son igualmente probables? o El coeficiente binomial es tambi´n una forma de generar las entradas del as´ llamado e ı tri´ngulo de Pascal, que puede observarse en Figura 1.8. a

1 1 1 1 1 1 1 6 5 4 3 6 10 10 15 20 15 2 3 4 5 6 1 1 1 1 1 1

Figura 1.8: El n-´simo rengl´n del tri´ngulo de Pascal, iniciando desde cero, contiene los coee o a ficientes del desarrollo de (a + b)n . Existe una forma sencilla de construir este tri´ngulo observando que cada uno de estos n´ meros, exceptuando los extremos, es a u la suma de los dos n´ meros inmediatos del rengl´n anterior. A este respecto v´ase u o e por ejemplo el Ejercicio 53 en la p´gina 112. a Coeficiente multinomial. Ahora consideremos que tenemos n objetos no necesariamente distintos unos de otros. Por ejemplo, supongamos que tenemos k1 objetos de un primer tipo, k2 objetos de un segundo tipo, y as´ sucesivamente, ı hasta km objetos del tipo m, en donde k1 + k2 + · · · + km = n. Estos n objetos pueden todos ordenarse uno detr´s de otro de tantas formas distintas como indica a el as´ llamado coeficiente multinomial: ı n k1 k2 · · · km−1 km = n! . k1 ! k2 ! · · · km−1 ! km !

Un razonamiento para obtener esta f´rmula es el siguiente. Si consideramos que o los n objetos son todos distintos, entonces claramente las distintas formas en que

26

´ 1.3. Analisis combinatorio

pueden escribirse todos estos objetos uno detr´s de otro es n! Pero para cada uno a de estos arreglos, los k1 objetos del primer tipo, supuestos inicialmente distintos cuando en realidad no lo son, pueden permutarse entre s´ de k1 ! formas diferentes, ı siendo que el arreglo total es el mismo. De aqui que debamos dividir por k1 ! Lo mismo sucede con los elementos del segundo tipo y as´ sucesivamente hasta los ı elementos del tipo m. El coeficiente multinomial aparece en la siguiente f´rmula: o (a1 + a2 + · · · + am )n = n ak1 ak2 · · · akm , m k1 · · · km 1 2 (1.1)

en donde la suma se efect´ a sobre todos los posibles valores enteros no negativos u de k1 , k2 , . . . , km , tales que k1 + k2 + · · ·+ km = n. Por ejemplo, compruebe el lector que la f´rmula (1.1) produce la siguiente expresi´n: o o (a + b + c)2 = a2 + b2 + c2 + 2ab + 2ac + 2bc. ¿Puede usted desarrollar (a + b + c)3 ? Es interesante observar que cuando hay unicamente dos tipos de objetos, el coeficiente multinomial se reduce al coeficiente ´ binomial. Muestras sin orden y con reemplazo. Finalmente consideremos el caso de hacer k extracciones de una urna de n objetos con las condiciones de que cada objeto extra´ es regresado a la urna (y entonces puede ser elegido nuevamente), ıdo y en donde el orden de la muestra no es relevante. Para encontrar una f´rmula para o el total de muestras que pueden obtenerse con estas caracter´ ısticas usaremos una modelaci´n distinta pero equivalente. Consideremos el arreglo de n casillas de la o Figura 1.9 junto con la siguiente interpretaci´n. o

××
1 2

×
3

×
4

··· ···
n−1

×
n

Figura 1.9: La primera casilla tiene dos cruces y eso indica que la bola uno fue seleccionada dos veces, la segunda casilla esta vac´ y ello significa que la bola dos no fue seleccionada, ıa etc. El n´ mero de cruces en la casilla i indica entonces el n´ mero de veces que la u u bola i fue seleccionada. En total debe haber k cruces pues es el total de extracciones. Deseamos entonces conocer el n´ mero de posibles arreglos que pueden obtenerse con u estas caracter´ ısticas, y debe ser claro, despu´s de algunos momentos de reflexi´n, e o que ´ste es el n´ mero de muestras de tama˜ o k, con reemplazo y sin orden, que se e u n

Muy posiblemente el problema a en cuesti´n requiera de un razonamiento especial que involucre alguna combinaci´n o o de las f´rmulas encontradas. Muestras con orden con reemplazo nk n+k−1 k sin reemplazo n! (n − k)! n k sin orden . El n´ mero total de estos arreglos es u n+k−1 k que equivale a colocar dentro de las n + k − 1 posiciones las k cruces. En el contexto de muestras de tama˜ o k tomadas de un n conjunto de cardinalidad n.Parte 1. no debemos clasificarlo forzosamente y de manera mec´nica en alguno de los esquemas mencionados. dejando en los lugares restantes las paredes movibles. A menudo los problemas de conteo son dif´ o ıciles de resolver y en algunos casos uno puede encontrar dos o mas “soluciones” distintas y aparentemente correctas. tenemos la siguiente tabla de f´rmulas. y a manera de resumen parcial. Consideremos que las dos paredes en los extremos de este arreglo son fijas. En total hay n + k − 1 objetos movibles y cambiar de posici´n estos objetos produce las distintas configuraciones posibles que nos o interesan. Consideremos adem´s que las posiciones intermedias. ´ Resumen de formulas. Debemos hacer ´nfasis sin embargo en que para resolver un o e problema de conteo en particular. estas paredes se encuentran ligeramente remarcadas. pueden moverse. A veces ello se debe a que el problema no esta especificado de manera completa. cruz a o linea vertical. PROBABILIDAD 27 pueden obtener de un conjunto de n elementos distinguibles.

Probabilidad condicional. Probabilidad condicional e independencia Los conceptos de probabilidad condicional e independencia surgieron de manera natural en el proceso de encontrar soluci´n a algunos problemas provenientes de o situaciones reales. P (B) La expresi´n P (A|B) se lee probabilidad condicional del evento A dado el evento o B. el cual por hip´tesis es equiprobable. Sean o los eventos A = {2} y B = {2. Considere el experimento de lanzar un dado equilibrado. 4. las o probabilidades de los distintos eventos. es decir. Claramente el espacio muestral es Ω = {1. 3. . ha afectado la o probabilidad del evento A. Sean A y B dos eventos en donde B es tal que su probabilidad es estrictamente positiva. u Ejercicio. la probabilidad de obtener “2” es ahora 1/3.4. y por otro lado no existe definici´n para P (A|B) cuando P (B) = 0. dada la informaci´n que el resultado del dado o es un n´ mero par.28 1. 4. Ilustraremos con un ejemplo el significado o de la probabilidad condicional y comprobaremos que el evento B representa informaci´n adicional acerca del experimento aleatorio que modifica. En esta secci´n estudiaremos estos conceptos y demostraremos o adem´s dos resultados de amplia aplicaci´n: el teorema de probabilidad total y el a o teorema de Bayes. 4. 2.4. 6}) P ({2}) 1/6 P (A|B) = = = = 1/3. La siguiente f´rmula se llama regla del producto: Sean A1 . 4. . . 6}. 6} = “Cae par”. Compruebe que P (A1 ∩ · · · ∩ An ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩ A2 ) · · · P (An |A1 ∩ · · · ∩ An−1 ). P ({2. se define como sigue: P (A|B) = P (A ∩ B) . La probabilidad condicional del evento A dado el evento B. en general. 6}) 3/6 Observe que conocer la informaci´n de la ocurrencia del evento B. Entonces P (A) = 1/6 mientras que P ({2} ∩ {2. . 5. Probabilidad condicional e independencia 1. An eventos o tales que P (A1 ∩ · · · ∩ An−1 ) > 0. 4. o simplemente probabilidad de A dado B. Ejemplo. . denotada por P (A|B). Es claro que para que la definici´n o tenga sentido se necesita suponer que P (B) > 0. 6}) P ({2.

. en general. j distintos. es necesario pues . para verificar que n eventos son independientes es necesario comprobar todas y cada una de las igualdades arriba enunciadas. . El siguiente experimento se conoce como la urna de Polya. De manera an´loga puede interpretarse la igualdad equivalente P (B|A) = P (B). P (A1 ∩ · · · ∩ An ) = P (Ai ∩ Aj ) = P (Ai )P (Aj ). Se dice que dos eventos cualesquiera A y B son independientes si se cumple la condici´n P (A ∩ B) = P (A)P (B). A2 . Es decir. . An son independientes si se satisfacen todas y cada una de las condiciones siguientes: P (Ai ∩ Aj ∩ Ak ) = . que cuando no sabemos nada (lado derecho). Suponga que en una urna se tienen b bolas blancas y r bolas rojas. la validez de alguna otra. En la mayor´ de los casos de aplicaci´n ıa o simplemente supondremos que dos eventos dados son independientes recurriendo unicamente a justificaciones intuitivas.Parte 1. i. Use la regla del producto para calcular la probabilidad de obtener bolas rojas en las tres primeras extracciones. De este modo cualquier evento del primer ensayo es independiente de cualquier otro evento en el segundo ensayo. Esta igualdad es o equivalente a la expresi´n P (A|B) = P (A) cuando P (B) > 0. . Es una hip´tesis natural o suponer que el resultado del primer lanzamiento no afecta el resultado del segundo lanzamiento. La ventaja de esta o ultima expresi´n es que posee una interpretaci´n sencilla: Dice que la probabilidad ´ o o del evento A es la misma cuando sabemos que ha ocurrido el evento B (lado izquierdo). . . ´ Ejemplo. Es decir. PROBABILIDAD 29 Ejercicio. Suponga que se lanza una moneda dos veces. En general. i. cualquiera de estas igualdades no implica. P (A1 ) · · · P (An ). Un experimento aleatorio consiste en seleccionar una bola al azar y regresarla a la urna junto con c bolas del mismo color. P (Ai )P (Aj )P (Ak ). k distintos. la ocurrencia del evento B no afecta la probabilidad del evento A y por lo tanto son independientes. Independencia de eventos. j. a suponiendo naturalmente que P (A) > 0. La definici´n de independencia de dos eventos puede generalizarse al caso de varios o eventos de la siguiente forma: Decimos que n eventos A1 .

B = {2. Sea B1 . . 3} y C = {2.10: Ahora podemos enunciar y demostrar el muy util teorema de probabilidad total. se cumple que Bi ∩ Bj = 0. es decir. a o B1 B2 B3 · · · A Ω Figura 1. . ıcil ¿Puede usted justificar este resultado? Ejemplo. . 4}. para ıo. 3. esto es. Antes de enunciar el siguiente resultado recordaremos el concepto de partici´n de un conjunto. n P (A) = i=1 P (A | Bi )P (Bi ). Una partici´n finita de un o o conjunto Ω es una colecci´n B1 . 2. o ´ ındices i y j distintos. 4} un espacio muestral equiprobable. 2}. Para o cualquier evento A. B y C independientes? Teorema de probabilidad total. . ´ Teorema de probabilidad total. Sea Ω = {1. . Bn una partici´n de Ω tal que o cada elemento de la partici´n tiene probabilidad estrictamente positiva. B1 ∪ B2 ∪ · · · ∪ Bn = Ω. — Ejercicio. . En la Figura 1. No es dif´ darse cuenta que el total de igualdades es 2n − n − 1. . y adem´s la uni´n de toda la a o colecci´n produce el total Ω. . .4. ¿Son A. Bn de subconjuntos de Ω tal que cada uno de o estos conjuntos es distinto del vac´ la colecci´n es disjunta dos a dos.30 1. Probabilidad condicional e independencia verificarlas todas. Sean los eventos A = {1. B2 .10 se o muestra gr´ficamente el concepto de partici´n de un conjunto.

¿cu´l es la probabilidad de que sea blanca? a Caja 1 Caja 2 Figura 1. en donde los eventos A ∩ B1 . B y o ´ B c . (C1 . B).11: El experimento aleatorio consiste entonces en escoger una caja al azar. Primero observemos que el evento A puede escribirse como sigue o n n A= A∩Ω= A∩ Bi = i=1 i=1 A ∩ Bi . o o P (A) = P (A|B)P (B) + P (A|B c )P (B c ). . en donde C1 y C2 denotan los eventos en donde las cajas uno y dos fueron escogidas. Observe que cuando la partici´n de Ω consta de unicamente dos elementos. B). Es e claro entonces que el espacio muestral puede escribirse como sigue Ω = {(C1 . PROBABILIDAD 31 Demostraci´n. la f´rmula del teorema de probabilidad total se reduce a la siguiente expresi´n. con id´ntica e probabilidad cada una de ellas. Ejemplo. respectivamente. . y B y G denotan los eventos en donde una bola blanca o gris fueron . y despu´s escoger una bola de la caja escogida. (C2 . (C2 . G). la otra con 6 blancas y 6 grises. A ∩ Bn son ajenos dos a dos.Parte 1. . . Suponga que tenemos dos cajas: una con 3 bolas blancas y 7 de color gris. Si se elije una caja al azar y despu´s se saca una e bola. de modo que n n n P (A) = P ( i=1 A ∩ Bi ) = i=1 P (A ∩ Bi ) = i=1 P (A | Bi )P (Bi ). G)}.

G)} y {(C2 .32 1. P (D) = = = P (D|M )P (M ) + P (D|H)P (H) 1 1 4 1 × + × 100 2 100 2 1 . el 4 % de hombres son dalt´nicos y el 1 % de las mujeres son dalt´nicas. 40 Teorema de Bayes. G)}. dos a˜ os despu´s de n e la muerte de su creador. Esto sugiere condicionar sobre el resultado de escoger alguna de las dos cajas y aplicar el teorema de probabilidad total. 5 Observe adem´s que la partici´n del espacio muestral consta de dos elementos: a o {(C1 . Sea M el evento “La persona escogida es e mujer”. ¿Cu´l es la probabilidad de que sea dalt´nica? a o Definamos primero los eventos de inter´s.4. (C2 . Este es otro resultado interesante que involucra probabilidades condicionales. Probabilidad condicional e independencia escogidas respectivamente. ¿Puede usted comprobar que P (G) = 3/5? Puede uno tambi´n preguntarse por situaciones aparentemente extra˜ as como la e n siguiente: Si se obtuvo una bola blanca. el matem´tico y te´logo ingl´s Thomas Bayes. Nos piden calcular la probabilidad de B. B). o o Una persona es elegida al azar. a o e . Fue publicado por primera vez en 1763. Por el teorema de probabilidad o total. es decir. Observe que es f´cil calcular la probabilidad de este evento cuando se conoce la caja que fue a escogida. P (B) = = = P (B|C1 )P (C1 ) + P (B|C2 )P (C2 ) 3 1 6 1 × + × 10 2 12 2 2 . ¿Cu´l es la probabilidad de que haya sido a obtenida de la primera caja? Ejemplo. Deseamos calcular P (D). H el evento “La persona escogida es hombre” y D el evento “La persona escogida es dalt´nica”. Suponga que en una poblaci´n humana de igual n´ mero de hombres y o u mujeres. (C1 . B).

Por la definici´n de probabilidad condicional y el teorema de proo o babilidad total tenemos que P (Bj |A) = = = P (A ∩ Bj ) P (A) P (A|Bj )P (Bj ) P (A) P (A|Bj )P (Bj ) n . para el evento B. 2. n. P (A|Bi )P (Bi ) i=1 Demostraci´n. la 2 el 5 %. Bn una partici´n de Ω tal que cada elemento o de la partici´n tiene probabilidad estrictamente positiva. En una f´brica hay dos m´quinas. . El asunto es que se ha encontrado un material defectuoso. PROBABILIDAD 33 Teorema de Bayes. Sea B1 . P (Bj |A) = P (A|Bj )P (Bj ) n . . Entonces para cada j = 1. .Parte 1. P (A|Bi )P (Bi ) i=1 V´ase la Figura 1.10 para una representaci´n gr´fica de la partici´n del espacio e o a o muestral y el evento A. . . o adquiere la forma: P (B|A) = P (A|B)P (B) . P (A|B)P (B) + P (A|B c )P (B c ) Ejemplo. ¿Cu´l es la probabilidad de que este material defectuoso a provenga de la m´quina M2 ? Sea M1 el evento “La m´quina 1 produjo el material a a . Nuevamente observamos que en el caso cuando la partici´n o de Ω consta de s´lo dos elementos: B y B c . La m´quina 1 realiza el 60 % de la a a a producci´n total y la m´quina 2 el 40 %. . la m´quina 1 o a o a produce 3 % de material defectuoso. . De su producci´n total. Sea A un evento tal o que P (A) > 0. . el teorema de Bayes.

y sobre la eficacia de dicha prueba se conoce lo siguiente: Si se denota por E el evento de que un paciente tenga la enfermedad y por N el evento de que la prueba resulte negativa. M2 en evento “La m´quina 2 produjo el material escogido” y finalmente a sea D el evento “El material escogido es defectuoso”.95.01 + 0.95 × 0.95 × 0.34 1. n P (E|N c ) = = P (N c |E)P (E) P (N c |E)P (E) + P (N c |E c )P (E c ) 0. pero por otro lado.99 = 0.01 0.4. Es bueno que esta probabilidad sea peque˜ a.05 × 0. 19 ¿Puede usted calcular P (M1 |D)? Ejemplo. P (E|N ) = = P (N |E)P (E) P (N |E)P (E) + P (N |E c )P (E c ) 0.193 . En un laboratorio se descubri´ una prueba para detectar cierta enfermeo dad.05 × 0. usando el teorema de Bayes. Con esta informaci´n uno podr´ pensar que la prueba es muy o ıa buena. entonces se sabe que P (N c |E) = 0.01 . sin embargo calcularemos las probabilidades P (E|N ) y P (E|N c ).01 + 0.99 = 0.96 y P (E) = 0. P (N |E c ) = 0. Probabilidad condicional e independencia escogido”.96 × 0. El problema es encontrar P (M2 |D) y obervamos que la informaci´n que tenemos es P (D|M2 ).01 0. .04 × 0. Por el teorema o de Bayes tenemos entonces que P (M2 |D) = = = P (D|M2 )P (M2 ) P (D|M1 )P (M1 ) + P (D|M2 )P (M2 ) 3 100 × 5 100 60 100 × + 40 100 5 100 × 40 100 10 .000526 .

U. u Ejemplo. y antes de abrirla.12. pero omitiremos tales tecnicismos pues no a o son de utilidad para los prop´sitos de este curso. El problema de las tres puertas (Monty Hall). Al transformar este resultado con la variable aleatoria X se obtiene un n´ mero real X(ω) = x. Seguiremos la notaci´n usual de usar la o o letra may´ scula X para denotar una variable aleatoria cualquiera. Suponga que un experimento aleatorio consiste en lanzar al aire una moneda y observar la cara superior una vez que la moneda cae. Suponga entonces que se efect´ a o u el experimento aleatorio una vez y se obtiene un resultado ω en Ω.a. Y. 1. u Podemos entonces suponer que los posibles resultados del experimento aleatorio son los diferentes n´ meros reales x que la funci´n X puede tomar. Se le presentan a un concursante tres puertas cerradas detr´s de una de las cuales hay un premio. A menudo se escribe simplemente v. una variable aleatoria es una transformaci´n X del espacio de resultados Ω al conjunto de n´ meros reales. Z. el presentador del concurso abre alguna de las puertas restantes y de la cual sabe que no contiene ning´ n premio. mientras que la letra min´ scula x denota un n´ mero real y o u u que es un posible valor de la variable aleatoria. PROBABILIDAD 35 Esta ultima probabilidad es demasiado peque˜ a y por lo tanto la prueba no es muy ´ n confiable en tales casos. El cona cursante debe adivinar la puerta que contiene el premio para ganarlo. o u X : Ω → R. V. Debemos hacer a aqui la siguiente observaci´n importante.5. Una vez que el concursante elige una puerta. u Entonces le pregunta al concursante si desea cambiar su decisi´n. ´ u y para un valor cualquiera de ellas se usa la misma letra pero en min´ scula. en lugar del t´rmino variable aleatoria. Denotemos por “Cara” . Ilustramos de u o manera gr´fica el concepto de variable aleatoria en la Figura1. ¿Qu´ debe hacer o e el concursante? Justifique su respuesta. esto es. En e sentido estricto una variable aleatoria es una funci´n de Ω en R que satisface o adem´s cierta condici´n de medibilidad. W. es decir. Variables aleatorias Dado un experimento aleatorio cualquiera. las variables aleatorias se denotan usando las ultimas letras del alfabeto en may´ sculas. X es u una funci´n de Ω en R. Ejercicio. X. En general.Parte 1.

y) : x2 + y 2 ≤ 1}.36 1. Podemos tambi´n definir la variable aleatoria Y : Ω → R de la siguiente forma e Y (“Cara”) = Y (“Cruz”) = 2.13: .12: y “Cruz” los dos lados de la moneda. Defina la variable aleatoria X : Ω → R de la siguiente forma X(“Cara”) = 0 y X(“Cruz”) = 1. otro par de n´ meros distintos u u puede ser escogido para distinguir los dos resultados del experimento aleatorio. el n´ mero 2. De este modo podemos suponer que el experimento aleatorio tiene dos valores num´ricos posibles: 0 y 1. a trav´s de la u e funci´n Y . y) Ω Figura 1. Decimos que Y es la variable aleatoria constante 2. ω = (x. “Cruz”}.5. el n´ mero 2. Observe e que los n´ meros 0 y 1 son en realidad arbitrarios. Entonces claramente el espacio muestral es el conjunto Ω = {“Cara”. o u Ejemplo. Cualquier resultado del experimento aleatorio produce. Consideremos el experimento aleatorio consistente en lanzar un dardo en un tablero circular de radio uno. Variables aleatorias X ω Ω X(ω) = x x R Figura 1. En este caso la variable Y solo toma un valor. El espacio muestral o conjunto de posibles resultados del experimento se puede escribir como sigue Ω = {(x.

y) = x. es discreta cuando el conjunto de valores que ´sta toma es un cone junto discreto. y) = y. b) N´ mero de hijos. d) Estatura. variables aleatorias. Ejemplo. En el ejemplo del lanzamiento de un dardo en un tablero circular de radio uno. e) W (x. es decir. Z. y) = xy.Parte 1. ´ Ejemplo. . f) Nivel escolar. asociadas a este experimento aleatorio. puede obtenerse un ejemplo de una variable aleatoria discreta sobre este espacio muestral. Si se dibujan c´ ırculos conc´ntricos alrededor del origen y si se asignan e premios asociados a cada una de las regiones resultantes. de la persona escogida. Esta clasificaci´n de variables aleatorias no es completa pues existen vao riables que no son de ninguno de los dos tipos mencionados. y) = proyecci´n sobre el eje horizontal. n} es un conjunto discreto porque es finito. vamos a clasificar a las variables aleatorias en dos tipos: discretas o continuas. y) = |x| + |y|. b) ⊆ R. Un experimento aleatorio consiste en escoger a una persona ω al azar. PROBABILIDAD 37 Los siguientes son ejemplos de funciones de Ω en R. . Por ejemplo. . . distancia al centro del c´ ırculo. el espacio muestral (Figura 1.a. e) Sueldo. o una codificaci´n de esta caracter´ o ıstica. a) X(x. Decimos que una v. distancia del taxista. Considerando el conjunto de valores que una variable aleatoria puede tomar. Las variables X y Y definidas l´ ıneas arriba en el ejemplo del lanzamiento de una moneda. d) V (x. es numerable y por lo tanto discreto.13) es infinito no numerable. . 2. g) Estado civil. En ese ejemplo el espacio muestral mismo es discreto y por lo tanto las variables aleatorias que pueden all´ definirse ı tienen que ser discretas forzosamente. c) Z(x. Por otra parte. Y. Por simplicidad en este curso estudiaremos unicamente variables aleatorias que son discretas o continuas. las variables X. son variables aleatorias discretas. decimos que una variable aleatoria es continua cuando toma todos los valores dentro de un intervalo (a. un conjunto finito o numerable. La variable aleatoria X evaluada en ω corresponde a conocer la siguiente caracter´ ıstica. lo mismo N pues aunque es infinito. o x2 + y 2 . h) Lugar de nacimiento. En cada caso se trata de una variable aleatoria discreta: a) Edad en a˜ os. V y W definidas all´ son todas variables aleatorias ı continuas. o proyecci´n sobre el eje vertical. n u c) Peso. 1. producto de las coordenadas. el conjunto {0. b) Y (x.

El lector debe aseo gurarse de comprender bien que si x es un n´ mero real entonces (X ≤ x) es u un subconjunto de Ω y por lo tanto un evento. Tenemos por ejemplo que (X ∈ [1. f) P (X ≥ 0) = P (Ω) = 1. Lo mismo sucede con el complemento de este conjunto que es (X > x). A trav´s de una variable aleatoria se puede considerar que los poe sibles resultados de un experimento aleatorio no son elementos ω en Ω sino n´ meros u reales que la variable aleatoria puede tomar. en lugar de ello consideraremos que una cierta variable aleatoria de inter´s toma valores en un cierto subconjunto de e n´ meros reales. 2)) = P ({“Cruz”}) = 1/2. A este conjunto o o se le llama la imagen inversa de A. es decir. ∞)) = P {“Cruz”} = 1/2. es unicamente el elemento “Cruz”. 4]) = P (∅) = 0. la expresi´n (X ∈ A) denota aquel conjunto de elementos ω de Ω tales que bajo la o aplicaci´n de la funci´n X toman un valor dentro del conjunto A. ni espacios muestrales arbitrarios Ω. Podemos escribir entonces la igualdad de conjuntos (X ≤ x) ∪ (X > x) = Ω. ni eventos (subconjuntos) de Ω. entonces la expresi´n (X ∈ A).38 1. Consideremos nuevamente el experimento de lanzar una moneda y la variable aleatoria X que lleva el resultado “Cara” al valor 0 y el resultado “Cruz” al valor 1. e) P (X ≤ −1) = P (∅) = 0. o es decir caen dentro del intervalo [1. Esta perspectiva permite estudiar modelos generales y despu´s aplicarlos a cualquier situaci´n pare o . Nota importante. b) P (X ∈ [0. Por lo ´ tanto P (X ∈ [1. a probabilidades para subconjuntos de R. La probabilidad definida antes para subconjuntos de Ω se traslada. (X ∈ A) = {ω ∈ Ω : X(ω) ∈ A}. En palabras. c) P (X ∈ [2. Y aplicando probabilidad se obtiene P (X ≤ x) + P (X > x) = 1. Del mismo modo puede verificarse que a) P (X ∈ [1. Esta es una consideraci´n radical pues o ya no consideraremos experimentos aleatorios particulares. d) P (X = 1) = P ({“Cruz”}) = 1/2. y se le denota por X −1 A. denota el conjunto o e {ω ∈ Ω : X(ω) ∈ A}. incluyendo el par´ntesis. ∞)) = {“Cruz”} pues el conjunto de elementos de Ω tales que bajo la funci´n X toman un valor mayor o igual a uno. Variables aleatorias Usaremos tambi´n la siguiente notaci´n importante: Si A es un subconjunto de e o R. Usaremos con mucha frecuencia la notaci´n arriba explicada.5. u como explicamos antes. 1)) = P ({“Cara”}) = 1/2. ∞). Ejemplo.

. P (X = x2 ). llamadas funci´n de densidad y funci´n de distribuci´n. a 1.2) la llamaremos funci´n de probabilidad. . Esta lista de valores num´ricos y sus probabilidades e puede ser finita o bien infinita.6. (1. o o o nos permiten representar a un mismo tiempo tanto los valores que puede tomar la variable como las probabilidades de los distintos eventos. Observe que se cumplen las siguientes dos propiedades. Estas funciones. Recordemos que es importante poder distinguir entre X y x. . . . pero numerable. o e y finalmente definiremos la funci´n de distribuci´n para ambos tipos de variables o o aleatorias.. despu´s para una continua. . ∞) se define como sigue f (x) = P (X = x) 0 si x = x1 . . PROBABILIDAD 39 ticular. . pues conceptualmente son cosas muy distintas. Definiremos primero la funci´n de densidad para una variable aleatoria discreta. ´ Funcion de probabilidad para una variable discreta. b) x f (x) = 1. para toda x ∈ R. A veces escribiremos fX (x) y el sub´ u ındice nos ayudar´ a especificar que tal funci´n es la funci´n de probabilidad de la variable a o o X. y toda funci´n de la forma (1. A partir de ahora y en lo que resta del curso el t´rmino variable aleatoria e constituir´ un elemento frecuente en los enunciados. x2 . x2 . . Denotaremos generalmente a una funci´n de o probabilidad con la letra f min´ scula.2) En palabras. con probabilidades respectivas P (X = x1 ). La funci´n de probabilidad de la o variable X denotada por f (x) : R → [0. Esta notaci´n ser´ particularmente util cuando consideremos varias variables o a ´ aleatorias a la vez. o o a) f (x) ≥ 0. Sea X una variable aleatoria discreta que toma los valores x1 . Funciones de densidad y de distribuci´n o En esta secci´n vamos a explicar la forma de asociar a cada variable aleatoria dos o funciones que nos proveen de informaci´n acerca de las caracter´ o ısticas de la variable aleatoria. . otro caso.Parte 1. la funci´n de probabilidad es simplemente aquella funci´n que indica o o los valores de la probabilidad en los distintos valores que toma la variable aleatoria discreta.

14 (b). Encontraremos el valor de la constante c que hace que la siguiente funci´n o sea de probabilidad.2 respectivamente. 1. 3. P (|X| = 1) = 0.3 (b) 2 0. Entonces la funci´n de probabilidad o de X es   0. 2c y 3c.3. 2.6. 2 y 3. a) f (x) = x2 /10. 2.3. f (x) =  0. una funci´n de probabilidad.5 y 0.3 0.3 si x = 1. 1. Alternativamente poo a demos tambi´n expresar esta funci´n mediante la tabla de la Figura 1. son 0. para x = −2. y P (X < 1) = 0. 2 y 3.   0 otro caso. Como la suma de estas probabilidades debe ser uno. obtenemos la ecuaci´n c + 2c + 3c = 1. −1. no especificada. 2 y 3.14: Ejemplo. o Ejercicio.2 x x f (x) 1 0.5 si x = 2. con probabilidades 0. En e o esta representaci´n se entiende de manera impl´ o ıcita que f (x) es cero para cualquier valor de x distinto de 1. 0. . c x si x = 0. Los posibles valores de la variable aleatoria discreta.7.2 si x = 3. 0. Grafique y compruebe que las siguientes funciones son de probabilidad. 1. De aqui obtenemos o c = 1/6. Considere la variable aleatoria discreta X que toma los valores 1.5 0. Este es el valor de c que hace que f (x) sea no negativa y sume uno.5 3 0. Esta funci´n se muestra gr´ficamente en la Figura 1. respectivamente.2 1 2 (a) 3 Figura 1.40 ´ 1. f (x) 0.   0. es decir. c. En particular. Funciones de densidad y de distribucion Ejemplo. con probabilidades 0. f (x) = 0 otro caso. compruebe que las siguientes probabilidades son correctas: P (X ≥ 2) = 0.14 (a).

De esta forma el c´lculo de una probabilidad se reduce al c´lculo a a de una integral. V´ase la Figura 1. 41 ´ Funcion de densidad para una variable continua. a Es decir. Sea X una variable aleatoria continua. 4. b) se puede calcular o expresar como el ´rea bajo la funci´n de densidad en el a o intervalo (a. sin necesidad o de tener una variable aleatoria de por medio. . ∞) o es la funci´n de densidad de X si para cualquier intervalo (a. La funci´n f (x) dada por o f (x) = 1/2 0 si x ∈ (1. 3). b) ∞ f (x) dx = 1. para toda x ∈ R. a a) f (x) ≥ 0. No es dif´ comprobar que toda funci´n de e ıcil o densidad f (x) de una variable aleatoria continua cumple las siguientes propiedades an´logas al caso discreto. 3. a o f (x) b P (X ∈ (a. Decimos que la funci´n integrable y no negativa f (x) : R → [0. b) de R se cumple la o igualdad b P (X ∈ (a. b)) = a b x f (x) dx a Figura 1. ∞) que satisfaga estas dos propiedades. la probabilidad de que la variable tome un valor dentro del intervalo (a.Parte 1. PROBABILIDAD b) f (x) = (2x − 5)2 /70. para x = 1.15: La probabilidad como un ´rea.15. −∞ Toda funci´n f (x) : R → [0. otro caso. 2. a Ejemplo. b)) = f (x) dx. 5. se llamar´ funci´n de densidad. b).

16. Funciones de densidad y de distribucion es una funci´n de densidad de una variable aleatoria continua que toma valores en o el intervalo (1. b) f (x) = e−x .42 ´ 1. .16: Ejemplo. f (x) = 0 otro caso. 0 Por lo tanto. Se trata de una variable aleatoria continua que toma valores en el intervalo [−1. para x > 0. 1). Como esta funci´n debe integrar uno tenemos que o 1 1 1= −1 c |x| dx = 2 c x dx = c. para x ∈ (−1. c |x| si x ∈ [−1. Observe que se trata a de una funci´n no negativa y cuya integral vale uno. 1]. cuando tomamos c = 1 la funci´n del inciso (b) resulta ser una funci´n o o de densidad pues ahora cumple con ser no negativa e integrar uno. 3). a) f (x) = (x + 1)/2.6. Grafique y compruebe que las siguientes funciones son de densidad. Encontraremos el valor de la constante c que hace que la siguiente funci´n o sea de densidad. o f (x) 1/2 x 1 2 3 4 Figura 1. y cuya gr´fica aparece en la Figura 1. 1]. Ejercicio.

17 (a).8 0.14.17: 1 2 (b) 3 .  0   0. y si la o o funci´n tiene una discontinuidad en x. Tenemos que la correspondiente funci´n de distribuci´n evaluada en x se calcula sumando las o o probabilidades P (X = u) para valores de u menores o iguales a x. denotada por F (x) : R → [0. Con un par de ejemplo mostraremos la o o forma de calcular esta funci´n a partir de la funci´n de probabilidad o de densidad. Sea X una variable aleatoria discreta o continua. o en otras palabras. PROBABILIDAD 43 ´ ´ Funcion de distribucion. F (x) F (x) 1 0. es decir.8 si 2 ≤ x < 3. La funci´n de distribuci´n de X. se define como o o F (x) = P (X ≤ x). Siendo F (x) una probabilidad.  u≤x  1 si x ≥ 3.3 x 1 x 1 2 (a) 3 Figura 1. con el nombre e de funci´n de acumulaci´n de probabilidad. es no decreciente.3 si 1 ≤ x < 2. la funci´n de distribuci´n evaluada en un n´ mero x o o u cualquiera es simplemente la probabilidad de que la variable aleatoria tome un valor menor o igual a x. entonces el tama˜ o de tal discontinuidad es o n exactamente la probabilidad de que la variable aleatoria tome ese valor. por razones evidentes. cuya gr´fica aparece en la Figura 1. Considere la variable aleatoria discreta X de la Figura 1. 1]. sus valores est´n siempre entre 0 y 1. Esto es. F (x) = P (X ≤ x) = P (X = u) =  0.Parte 1. x]. Este es el comportamiento t´ a ıpico de una funci´n de distribuci´n discreta. que tome un valor en el intervalo (−∞. o o Ejemplo. constante por pedazos. Esta funci´n a o resulta ser importante y se le conoce tambi´n.  si x < 1.

d) Si x1 ≤ x2 . x F (x) = P (X ≤ x) = f (u) du. b) l´ F (x) = 1. es decir. Ahora explicaremos el proceso contrario.44 ´ 1. An´logamente. En los dos ejemplos anteriores se ha mostrado la forma de obtener F (x) a partir de f (x). F ′ (x) = f (x). f (x) = P (X = x) = F (x)−F (x−). En el caso continuo tenemos que para toda x en R. e) Si x1 ≤ x2 . F (x−) = l´ F (x − h). F (x+) = l´ F (x + h). en s´ o ımbolos.6. Funciones de densidad y de distribucion cuya gr´fica aparece en la Figura 1.  0 x (x − 1)/2 si 1 < x < 3. −∞ de modo que por el teorema fundamental del c´lculo. Observe que esta funci´n es continua y a o no decreciente.17 (b). De este modo podemos encontrar f (x) a partir de F (x). La correspondiente funci´n de distribuci´n se obtiene calculando la siguiente integral o o  si x ≤ 1. la expresi´n F (x+) significa el l´ a o ımite por la derecha de la funci´n F en el punto x. entonces F (x1 ) ≤ F (x2 ). con h > 0. Ejemplo. entonces P (x1 < X ≤ x2 ) = F (x2 ) − F (x1 ). f) F (x) = F (x+). ım x→∞ c) x→−∞ l´ ım F (x) = 0. En el caso discreto.17 (b). F (x) = P (X ≤ x) = f (u) du =  −∞ 1 si x ≥ 3. . en donde F (x−) es el l´ ıimite por la izquierda de la funci´n F en el punto x. ım h→0 h→0 con h > 0. Considere ahora la variable aleatoria continua X de la Figura 1. y cuando F (x) es diferenciaa ble. o ım Proposici´n. Toda funci´n de distribuci´n F (x) satisface las siguientes propieo o o dades: a) 0 ≤ F (x) ≤ 1.

ıo. talla. peso. F (x + h) → F (x) + P (∅) = F (x).7. por ejemplo. la identificar´ ıamos de manera unica. Por lo tanto se cumple la primera propiedad. . Esperanza.Parte 1. o F (x) = P (X ≤ x). varianza. en donde (X ≤ x1 ) ⊆ (X ≤ x2 ). cuando x → ∞. el conjunto (x < X ≤ x + h) tiende al conjunto vac´ Concluimos entonces que. o 1. Si pudi´ramos considerar la totalidad de todos estos n´ meros para una persona e u en particular. La propiedad d) significa que F (x) es una funci´n mon´tona no decreciente. de modo que cuando h tiende a cero. cuando x → −∞. momentos Todos los seres humanos tenemos caracter´ ısticas num´ricas que nos identifican y e nos distinguen de otras personas. En esta secci´n estudiaremos algunas caracter´ o ısticas num´ricas e asociadas a las variables aleatorias. f) Para h > 0 tenemos que F (x + h) = P (X ≤ x + h) = P (X ≤ x) + P (x < X ≤ x + h). Aplicando probabilidad obtenemos P (X ≤ x1 ) ≤ P (X ≤ x2 ). b) Cuando x tiende a infinito el conjunto (X ≤ x) se aproxima al conjunto (X ≤ ∞) que es id´ntico a Ω. Por lo tanto. e) Observe que el evento (x1 < X ≤ x2 ) puede descomponerse en la diferencia (X ≤ x2 ) − (X ≤ x1 ). F (x) → P (X ≤ e ∞) = P (Ω) = 1. cuando h → 0 con h > 0. por definici´n. Por lo tanto P (x1 < X ≤ x2 ) = P (X ≤ x2 ) − P (X ≤ x1 ) = F (x2 ) − F (x1 ). entonces (X ≤ x1 ) ⊆ (X ≤ x2 ). F (x) → P (X ≤ −∞) = P (∅) = 0. Mieno o tras que la propiedad f) establece que F (x) es una funci´n continua por la derecha. por lo tanto. la edad. estatura. PROBABILIDAD Demostraci´n. o 45 a) Primeramente tenemos que F (x) es una probabilidad pues. c) An´logamente el conjunto (X ≤ x) se aproxima al conjunto (X ≤ −∞) = ∅ a cuando x tiende a menos infinito. etc. d) Es suficiente observar que si x1 ≤ x2 . Algo similar sucede con las ´ variables aleatorias.

Sea X una variable aleatoria discreta con funci´n de densidad dada por o la siguiente tabla. y se define cuando esta suma sea absolutamente convergente. El n´ mero de sumandos puede ser finito o infinito dependiendo del conjunto de valores u de la variable aleatoria. u es decir: −1. x -1 0 1 2 f (x) 1/8 4/8 1/8 2/8 La esperanza de X es el n´ mero u E(X) = x x f (x) −1 × 1/8 + 0 × 4/8 + 1 × 1/8 + 2 × 2/8 1/2. varianza. entonces E(X) = x xP (X = x). e valor esperado o valor promedio. La integral o suma arriba mencionados pueden no ser convergentes y en ese caso se dice que la variable aleatoria no tiene esperanza finita. −∞ suponiendo que esta integral es absolutamente convergente. La esperanza es uno de los conceptos m´s importantes en probabilidad y tiene un amplio uso en las aplicaciones y otras a ramas de la ciencia. = = Observe que la suma su efect´ a para todos los valores de x indicados en la tabla. momentos Esperanza. Esperanza. En este ejemplo el . 0. Si X es continua con funci´n de densidad f (x). La esperanza de una variable aleatoria es entonces un n´ mero que indica el promedio ponderado de los diferentes valores que puede u tomar la variable. entonces o la esperanza es E(X) = ∞ xf (x) dx. entonces se dice o que la esperanza no existe. La esperanza de una variable aleatoria X es un n´ mero denotado por u E(X) y que se calcula como sigue: Si X es discreta. o Ejemplo.46 1. La situaci´n o anterior se ilustra en los ejercicios 126 y 127. A la esperanza se le conoce tambi´n con los nombre de: media. 1 y 2. Si la suma o integral anteriores no cumplen esta condici´n de convergencia absoluta. en donde la suma se efect´ a sobre todos los posibles valores que pueda tomar la u variable aleatoria. En general se usa la letra griega µ (mu) para denotarla. Tambi´n es instructivo observar que la esperanza no es necee sariamente uno de los valores tomados por la variable aleatoria. Ilustraremos a continuaci´n la forma de calcular la esperanza.7.

Compruebe que la esperanza de X es (n + 1)/2. Sea X una variable aleatoria continua y sea g : R → R una funci´n o o tal que g(X) es una variable con esperanza finita. o Ejercicio. 47 Ejemplo. para −1 < x < 1. n}. PROBABILIDAD valor 1/2 nunca es tomado por la variable aleatoria. pero es su valor esperado. . para x ∈ (0. Ejercicio. para lo cual se necesita encontrar primero la funci´n de densidad de Y . ´ Esperanza de una funcion de una variable aleatoria. El o a siguiente resultado es muy util y nos dice c´mo calcular esta esperanza conociendo ´ o unicamente la funci´n de densidad de X. y ello en general no es f´cil. si X es una variable aleatoria. Sea X una variable aleatoria discreta con posibles valores en el conjunto {1. (1. 2. pues fuera de dicho o intervalo la funci´n de densidad se anula. Considere la variable aleatoria continua X con funci´n de densidad f (x) = o 2x. Entonces E[g(X)] = ∞ −∞ g(x)fX (x) dx. entonces es claro que Y = X 2 es una funci´n o de X y es tambi´n una variable aleatoria. En algunos casos es necesario saber calcular la esperanza de una funci´n de una variable aleatoria.3) . Por o ejemplo. Si quisi´ramos calcular la esperanza de e e Y seg´ n la definici´n tendr´ u o ıamos que calcular y fY (y) dy. A veces se le refiere como el teorema del ´ o estad´stico inconsciente. . .Parte 1. y tal que la probabilidad de que tome cualquiera de estos valores es 1/n. siendo cero fuera de este intervalo. Compruebe que la esperanza de esta variable aleatoria es cero. ı Proposici´n. 3 Observe que la integral s´lo es relevante en el intervalo (0. 1). . Considere una variable aleatoria continua X con funci´n de densidad o f (x) = |x|. 1). La esperanza de X es E(X) = ∞ −∞ 1 x f (x) dx = 0 x 2x dx = 2 3 x 3 1 = 0 2 .

encuentre la funci´n de densidad de Y y calcule E(Y ) o usando la definici´n de esperanza.7. x f (x) -2 2/8 -1 1/8 0 2/8 1 1/8 2 2/8 He aqui algunas propiedades generales de la esperanza. en lugar de la integral e a aparece una suma.3). Ahora calcule la misma esperanza pero usando (1. o Ambos resultados deben coincidir. Ejemplo. momentos En general. Encuentre la funci´n de probabilidad de X 2 y mediante o la definici´n calcule E(X 2 ). El resultado esta enunciado en o el caso continuo pero tambi´n es v´lido en el caso discreto. varianza. 1).48 1. Sea X una variable aleatoria con funci´n de probabilidad dada por la o tabla que aparece abajo. Esperanza. 2 1 0 = = Ahora. asi es que la omitireo mos y nos concentraremos en su uso y aplicaci´n. o Ejercicio. Calcularemos E(Y ) en donde Y = X 2 . con funci´n de densidad f (x) = 2x pao ra x ∈ (0. y X es la variable aleatoria continua del ejemplo anterior. . El resultado debe ser nuevamente 1/2. como un ejercicio. Por la proposici´n anterior tenemos que o E(Y ) = = = 0 E(X 2 ) ∞ −∞ 1 x2 f (x) dx x2 2x dx 1 4 x 2 1 . es decir. la demostraci´n de este resultado es complicada.

es decir. El tercer inciso tambi´n es evidente pues cuando se cumple la hip´tesis.  −∞ Observe que en una sola expresi´n la varianza se puede escribir como sigue: Var(X) = o E (X − E(X))2 . La a e ultima propiedad. La primera propiedad es evidente de demostrar pues si X es la variable aleatoria constante c. esto es σ. Vamos ahora a definir otra caracter´ ıstica num´rica asociada a las vae riables aleatorias llamada varianza. la constante c puede siempre colocarse fuera. d) E(X + Y ) = E(X) + E(Y ). Ejemplo. se le llama ız desviaci´n est´ndar. La varianza es una medida del grado de dispersi´n de los difeo rentes valores tomados por la variable. Entonces o a) E(c) = c. Observemos que para calcular Var(X) necesitamos conocer primero E(X). A la ra´ cuadrada positiva de la varianza. entonces por definici´n. c) Si X ≥ 0. Sean X y Y con esperanza finita y sea c una constante. Se denota por Var(X) y se define como sigue. separa sumas y tambi´n e separa multiplicaciones por constantes.Parte 1. Calcularemos la varianza de la variable aleatoria discreta X con funci´n o . no es sencilla de demostrar y a´ n en el caso discreto ´ u requiere de detalles t´cnicos que preferimos omitir. E(X) = c P (X = c) = c 1 = c. Nuevamente la anterior suma o integral puede no existir y en o a ese caso decimos que la variable aleatoria no tiene varianza finita.   (x − E(X))2 f (x) si X es discreta. en cambio.    x  Var(X) = ∞     (x − E(X))2 f (x) dx si X es continua. b) E(c X) = c E(X). en la e o integral o suma correspondiente solo aparecer´n t´rminos que son no negativos. PROBABILIDAD 49 Proposici´n. entonces E(X) ≥ 0. El segundo o inciso se sigue directamente de la definici´n de esperanza pues tanto en el caso o de la suma como en el caso de la integral. Observe que la segunda y cuarta e propiedad establecen que la esperanza es lineal. Varianza. Veamos algunos ejemplos sencillos. Se le denota regularmente por la letra σ 2 (sigma cuadrada).

50 1. Aplicando la a definici´n de varianza tenemos que o Var(X) = x (x − E(X))2 f (x) = = +(1 − 1/2)2 × 1/8 + (2 − 1/2)2 × 2/8 1. (−1 − 1/2)2 × 1/8 + (0 − 1/2)2 × 4/8 Ejemplo. En un c´lculo previo hab´ a ıamos encontrado que E(X) = 2/3. Calcularemos la varianza de la variable aleatoria continua X con funci´n o de densidad f (x) = 2x para x ∈ (0. Var(X) = = 0 1 ∞ −∞ 1 (x − E(X))2 f (x) dx (x − 2/3)2 2x dx = 0 (2x3 − 8x2 /3 + 8x/9) dx 1 0 = = 1/18. (x4 /2 − 8x3 /9 + 4x2 /9) Ahora enunciamos algunas propiedades de la varianza. Esperanza. x f (x) -1 1/8 0 4/8 1 1/8 2 2/8 Recordemos primeramente que por c´lculos previos. 1). varianza.7. E(X) = 1/2. . Por lo tanto. momentos de densidad dada por la siguiente tabla.

Parte 1. . Para el inciso (b) e la constante c es una v. Demostraci´n. de modo que E(c) = c y entonces ´ Var(X) = E(c − c)2 = 0. El inciso (d) se sigue del siguiente an´lisis: a Var(X + c) = = = E[(X + c) − E(X + c)]2 E[X − E(X)]2 Var(X). = E[cX − cE(X)]2 Para demostrar la propiedad (e) se desarrolla el cuadrado en la definici´n de vao rianza. El inciso (a) es evidente a partir de la definici´n de varianza pues o o en ella aparece una suma o integral de t´rminos no negativos. PROBABILIDAD 51 Proposici´n. e) Var(X) = E(X 2 ) − E 2 (X). Sean X y Y dos variables aleatorias. con un unico valor. y sea c una constante. Eno tonces a) Var(X) ≥ 0. Para el inciso (c) tenemos que Var(cX) = E[cX − E(cX)]2 = c2 E[X − E(X)]2 = c2 Var(X). c) Var(c X) = c2 Var(X). f) En general. d) Var(X + c) = Var(X). b) Var(c) = 0. y se usa la propiedad de linealidad de la esperanza: Var(X) = = = = E[X − E(X)]2 E[X 2 − 2XE(X) + E 2 (X)] E(X 2 ) − 2E(X)E(X) + E 2 (X) E(X 2 ) − E 2 (X).a. Var(X + Y ) = Var(X) + Var(Y ).

para cualquier valor natural de n. cuando existe. Puede tomarse el caso Y = X. Distribuciones de probabilidad Estudiaremos a continuaci´n algunas distribuciones de probabilidad de variables o aleatorias importantes. Empezaremos con las distribuu ciones de tipo discreto y continuaremos despu´s con las de tipo continuo.8. no se cumple que Var(2X) = 2 Var(X). . Tenemos entonces que si X es una variable aleatoria con funci´n de densidad o de probabilidad f (x) entonces el no ´simo momento de X.    −∞ E(X n ) =    xn f (x) . en general y por lo demostrado antes. Distribuciones de probabilidad Finalmente para demostrar la propiedad (f ) es suficiente dar un ejemplo. es el n´ mero E[(X − µ)n ]. Es ime portante se˜ alar que ´sta es s´lamente una lista parcial de algunas distribuciones n e o de probabilidad de mayor uso.52 1. El u n-´simo momento central de X. como el n´ mero E(X n ). en donde e u µ = E(X). . Decimos que una variable aleatoria X tiene una distribuci´n uniforme discreta sobre el conjunto finito de n´ meros {x1 . Observe que el primer momento de X es simplemente la media.   x 1. Finalmente definimos el n-´simo momento de una variable aleatoria e X. y el segundo momento central es la varianza.8. xn } o u . para variables aleatorias continuas y e discretas respectivamente.    −∞ E[(X − µ)n ] =    (x − µ)n f (x) . se calcula como sigue: e  ∞   xn f (x) dx. cuando existe. si existe. como indican las siguientes f´rmulas: o  ∞   (x − µ)n f (x) dx. Momentos.   x El n-´simo momento central de X se calcula. . . Estas distribuciones son modelos particulares para asignar probabilidades a subconjuntos de n´ meros reales. ´ Distribucion uniforme discreta.

con probabilidades respectivas p y 1 − p. PROBABILIDAD 53 si la probabilidad de que X tome cualquiera de estos valores es la misma. 1/n.02.00. n f (x) F (x) 1/5 1 x x 1 2 3 4 5 Figura 1. . 0 otro caso. ´ Distribucion Bernoulli. Esta distribuci´n surge en espacios de probabilidad equiprobables. Los juegos de loter´ son un ejemplo donde puede aplicarse ıa esta distribuci´n de probabilidad. 4. . 1. la gr´fica de la funci´n de probabilidad de la distribuci´n unif{1. . Es f´cil ver que E(X) = o o n a n n 1 1 2 i=1 xi . . Por ejemplo. entonces s´lo se o o pueden generar los 101 n´ meros : 0.00.99. xn } si o P (X = x) = 1/n si x = x1 . . si la precisi´n de la computadora fuera de dos decimales. en o situaciones en donde tenemos n resultados diferentes y todos ellos tienen la misma probabilidad de ocurrir. 5} a o o aparece en la Figura 1. . La precisi´n de una u o computadora es naturalmente mayor pero siempre es finita. junto con la correspondiente funci´n de distribuci´n... entonces decimos que X tiene una distribuci´n Bernoulli con u o par´metro p ∈ (0. 0. Escribimos entonces X ∼ unif{x1 . x2 . Cao o da salto de la funci´n de distribuci´n es de tama˜ o 1/5.01. se obtienen siempre valores dentro de un conjunto finito de elementos. x2 . es decir.18: 1 2 3 4 5 Ejemplo. 0. Por ejemplo. Al generar un n´ mero aleatorio en una computadora dentro del intervalo u unitario [0. 3. y Var(X) = n i=1 (xi − E(X)) . y escribimos X ∼ Ber(p).Parte 1. . 1]. esto es. . . xn . Si se define la variable aleatoria X como aquella funci´n que lleva el resultado ´xito al n´ mero 1 y el resultado o e u fracaso al n´ mero 0. . La funci´n de probabilidad es a o . 2.18. Un ensayo Bernoulli se define como aquel experimento aleatorio con unicamente dos posibles resultados. y debido a que la precisi´n de la computadora es necesariamente o finita. 0. y la misma situaci´n o se presenta. llamados gen´ricamente ´xito y ´ e e fracaso. 1).

etc. Si denotamos por E el resultado ´xito y por F el resultado e . ganar o no ganar en un juego de loter´ que llueva o no llueva hoy por la tarde. 1.7 aparece en a o o la Figura 1. y sea A ⊆ Ω un evento tal que P (A) = p. Sea X la variable aleatoria dada por X(ω) = 1A (ω). X(ω) = 1 si ω ∈ A. con probabilidades p y 1 − p. Esta es la funci´n indicadora del o conjunto A. Distribuciones de probabilidad P (X = x) = px (1 − p)1−x 0 si x = 0. En este caso o o es muy sencillo verificar que E(X) = p y Var(X) = p(1 − p). respectivamente. o ´ Distribucion binomial. Considere el experimento aleatorio de lanzar una moneda al aire. otro caso. y X(ω2 ) = 0. donde surge esta distribuci´n.3 x 0 1 0. En la realizaci´n de o todo experimento aleatorio siempre es posible preguntarnos por la ocurrencia o no ocurrencia de un evento cualquiera.8. La gr´fica de la funci´n de densidad de esta distribuci´n para p =0. que aunque sencilla. Entonces X tiene distribuci´n Ber(p). Sea X la variable aleatoria dada por X(ω1 ) = 1. o o f (x) F (x) 1 0. y X(ω) = 0 si ω ∈ Ac . ¿Cu´l es la distribuci´n de 1 − X? o a o Ejemplo. Entonces X tiene distribuci´n Ber(p).7 0. es de amplia aplicaci´n. junto con la correspondiente funci´n de distribuci´n. Sea Ω el espacio muestral de un experimento aleatorio. es decir. Supongamos ahora que tenemos una serie de n ensayos independientes Bernoulli en donde la probabilidad de ´xito en cualesquiera de e estos ensayos es p. Este es el esquema general ıa. Suponga que ω1 y ω2 son los dos resultados posibles.19: 1 Ejemplo.3 x 0 1 Figura 1.54 entonces 1. Por ejemplo.19.

Decimos entonces que X tiene una distribuci´n o geom´trica con par´metro p.21. . Queremos que en n ensayos Bernoulli se obtengan x ´xitos y n − x fracasos. X(EF F EEE · · · ) = 0. Usando el principio multiplicativo. . para n = 10 ensayos. . a o El nombre de esta distribuci´n proviene del hecho de que cuando escribimos la o . . a   n px (1 − p)n−x si x = 0. Por ejemplo. 1.3)2 (0.2334. .. ´ Distribucion geom´trica. 1.7)10−2 = 0. 1. . .Parte 1. para p =0. Por ejemplo. X(EE · · · EE) = n. esto u e es. . otro caso. Si ahora definimos la variable aleatoria X como aquella que cuenta el n´ mero de ´xitos en cada una de estas sucesiones. 2. . y escribimos X ∼ geo(p) cuando e a P (X = x) = p (1 − p)x 0 si x = 0. es f´cil ver que a el conjunto Ω tiene 2n elementos. 2. La probabilidad de obtener ´sto es el n´ mero e e u p · · · p (1 − p) · · · (1 − p) = px (1 − p)n−x . p). La f´rmula anterior puede a o justificarse de la forma siguiente. PROBABILIDAD 55 Por ejemplo. con probabilidad p =0. . en cada uno de los cuales la probabilidad de ´xito es p.4. pero hemos colocado los x ´xitos en los primeros x ensayos. tenemos entonces que e multiplicar por las diferentes formas en que estos x ´xitos pueden distribuirse en los e n ensayos. Supongamos que tenemos ahora una sucesi´n infinie o ta de ensayos independientes Bernoulli. n con las probabilidades que aparecen abajo. Para esta distribuci´n puede o x demostrarse que E(X) = np.20. y Var(X) = np(1 − p). . . . u e X(F EF EF F · · · ) = 1. 2. . Observamos que X puede tomar los valores 0. X(F E · · · EE) = n − 1. x n−x fracaso. entonces el espacio muestral consiste de todas las posibles sucesiones de longitud n de caracteres E y F. Para cada una de estas sucesiones definimos la variable aleatoria e X como el n´ mero de fracasos antes de obtener el primer ´xito.3. X(F F · · · F F ) = 0. La probabilidad de que X tome el valor entero x ≥ 0 es p(1 − p)x . La gr´fica de esta funci´n de probabia o 2 lidad con estos par´metros aparece en la Figura 1. . este factor es el coeficiente binomial n . la gr´fica de esta funci´n se muestra en la Figura 1. n. . x P (X = x) =  0 otro caso. X(F F F EF E · · · ) = 3. 2. 1. se puede calcular P (X = 2) = 10 (0. . Decimos entonces que X tiene una distribuci´n binomial con o par´metros n y p. entonces tenemos que X puede tomar los valores 0. y escribimos X ∼ bin(n.

.1 n = 10 p = 0. Una persona participa cada semana con un boleto en un juego de loter´ ıa en donde la probabilidad de ganar el primer premio es p = 10−6 = 1/1. 000. obtenemos una suma geom´trica. Para o e esta distribuci´n tenemos que E(X) = (1 − p)/p.1 x p = 0. la esperanza es o ahora 1/p y la varianza permanece constante (1 − p)/p2 .56 1. 000. En este caso la variable es X + 1. La inspecci´n e o sucesiva de art´ ıculos hasta encontrar una defectuoso. la distribuci´n se desplaza hacia la derecha una unidad.2 0. antes del primer ´xito.3 x 1 2 3 4 5 6 7 8 9 10 Figura 1.4 1 2 3 4 5 6 7 8 9 10 Figura 1.4 0. Ejercicio.20: suma de todas las probabilidades. puede modelarse usando una distribuci´n geom´trica. posiblemente en un proceso de control de calidad. y Var(X) = (1 − p)/p2 .3 0.2 0. o f (x) 0. Distribuciones de probabilidad f (x) 0.8.21: En algunos textos se define la distribuci´n geom´trica contando el n´ mero de eno e u sayos (no el de fracasos). e es decir.3 0.

Sea X una variable aleatoria con distribuci´n geo(p). .. El par´metro λ es positivo e a y se interpreta como el n´ mero promedio de ocurrencias del evento. Ejemplo. y Var(X) = λ. ´ Distribucion Poisson. 2.    . . Decimos que X tiene una distribuci´n Poisson a o o con par´metro λ > 0.  0    1 − (1 − p)1 si 0 ≤ x < 1.Parte 1.    1 − (1 − p)2 si 1 ≤ x < 2. . por unidad u de tiempo. Adiu cionalmente supongamos que conocemos la tasa media de ocurrencia del evento de inter´s. x! P (X = x) =  0 otro caso.. . 1.  . aleatoria X como el n´ mero de ocurrencia de este evento en el intervalo de tiempo u dado.22 cuando λ = 2. F (x) = . .. y en principio no ponemos una cota superior para el n´ mero de observaciones del evento.. Demuestre que la o funci´n de distribuci´n de X es o o  si x < 0. En promedio se reciben 2 peticiones de acceso a una p´gina web durante a . 2..    1 − (1 − p)k+1 si k ≤ x < k + 1. La probabilidad de que la variable aleatoria X tome un valor entero x ≥ 0 se definir´ a continuaci´n. por ejemplo. que denotamos por la letra λ (lambda). . el n´ mero de clientes que llegan a un cajero autom´tico durante la noche. o tal vez u a deseamos registrar el n´ mero de accidentes que ocurren en cierta avenida duranu te todo un d´ Para modelar este tipo de situaciones podemos definir la variable ıa. Es claro entonces que X puede tomar los valores 0.. Puede demostrarse que la funci´n f (x) arriba definida es efectivamente una funci´n o o de probabilidad para cada valor de λ > 0. 1. PROBABILIDAD 57 ¿Cu´ntos a˜ os en promedio debe esta persona participar en el juego antes de oba n tener el primer premio? Ejercicio. La forma de esta funci´n se muestra en o la Figura 1.. Despu´s de algunos c´lculos sencillo puede tambi´n e a e comprobarse que E(X) = λ.. Supongamos que deseamos observar el n´ mero de ocuu rrencias de un cierto evento dentro de un intervalo de tiempo dado.. y escribimos X ∼ Poisson(λ) cuando a  x  e−λ λ si x = 0. .

la distribuci´n binomial puede o ser aproximada mediante la distribuci´n Poisson de par´metro λ = np. P (X > 2) = 1 − P (X ≤ 2) = 1 − (P (X = 0)+ P (X = 1)+ P (X = 2)) = 1 − e−2 (20 /0!+ 21/1!+ 22/2!) =0.58 1. Para el primer inciso se tiene que o P (X = 0) = e−2 20 /0! =0. Hemos definido a la variable aleatoria Poisson como el n´ mero de ocurrencias de u un cierto evento dentro de un intervalo de tiempo dado. supongamos de longitud . Soluci´n: Sea X el n´ mero de peticiones por minuto. Para el segundo inciso.1 x λ =2 1 2 3 4 5 6 7 8 Figura 1. entonces la variable aleatoria X adquiere la distribuci´n Poisson con par´metro λ.3 0. p) y hacemos tender n a infinito a y p a cero de tal forma que el producto np se mantenga constante igual a λ. Calcule la probabilidad de encontrar 5 focos defectuosos en un lote de 1000 focos. o a Este resultado sugiere que cuando n es grande. Esto es o a particularmente util pues el c´lculo de probabilidades de la distribuci´n binomial ´ a o involucra el c´lculo de factoriales y ello puede ser computacionalmente dif´ a ıcil.135. b) se reciban mas de a dos peticiones. Un ejemplo ilustrar´ esta situaci´n. Sugerencia: Use la distribuci´n Poisson como aproximaci´n de la distribuci´n o o o binomial. En promedio uno de cada 100 focos producido por una m´quina es defeca tuoso. con λ = 2. y supongamos o u que X tiene distribuci´n Poisson(λ).22: un minuto cualquiera.2 0. Distribuciones de probabilidad f (x) 0. a o Ejemplo. Utilice el modelo Poisson para calcular la probabilidad de que en un minuto dado a) nadie solicite acceso a la p´gina.323 Puede adem´s demostrarse que cuando X ∼ bin(n.8.

´ Distribucion binomial negativa. 2. c) La probabilidad de que lleguen dos o mas aviones en un periodo de 15 minutos es P (X ≥ 2). PROBABILIDAD 59 unitaria. El n´ mero de aviones que llegan a un aeropuerto internacional tiene una u distribuci´n Poisson con una frecuencia de 3 aviones cada 10 minutos. 1. Aparece el t´rmino pr pues la sucesi´n de ensayos Bernoulli no concluye sino hasta e o obtener r ´xitos. por ejemplo [0. 1. . De este hecho x x adquiere su nombre esta distribuci´n. Podemos tener un n´ mero variable de fracasos. .2. Es claro que esta distribuci´n es una generalizaci´n de la distribuci´n geom´trica. entonces decimos que X tiene una distribuci´n binomial negativa e e o con par´metros r y p. Suponga ahora que nos interesa observar las ocurrencias del evento en un intervalo de longitud diferente. o   r + x − 1 pr (1 − p)x si x = 0. . Tal conteo de ocurrencias tambi´n sigue una distribuci´n Poisson pero esta vez de par´metro λt. 1]. y finalmente el factor r+x−1 que nos dice las diferentes formas en que x los r ´xitos pueden aparecer en los r + x − 1 ensayos realizados antes del ultimo que e ´ necesariamente fue un ´xito. Se puede adem´s demostrar que E(X) = r(1 − p)/p a y Var(X) = r(1 − p)/p2 . En este caso tenemos que X a puede tomar los valores 0. p). y escribimos X ∼ bin neg(r. . de ah´ el t´rmino e u ı e (1 − p)x . o Ejemplo. . .5. Si en una sucesi´n infinita de ensayos Bero noulli la variable aleatoria X cuenta el n´ mero de fracasos antes de obtener el u r-´simo ´xito. con probabilidades como se indica a continuaci´n. y cualquier entero natural x se define x = a(a−1) · · · (a− u n+x−1 x + 1)/x! Puede demostrarse la identidad = (−1)x −n . b) La probabilidad de que llegue s´lo un avi´n en el minuto o o siguiente es P (X = 1). [0. e o a Por ejemplo. 2. entonces el n´ mero de ocurrencias del evento en el intervalo u [0. con t > 0.Parte 1. Se lanza repetidas veces una moneda honesta. la o o o e cual se obtiene tomando r = 1. o Ejemplo. La gr´fica de esta funci´n aparece en la Figura 1. t]. La definici´n de coeficiente binomial puede extenderse del siguiente modo: Para o a cualquier n´ mero real a. con λ =4. Veamos un ejemplo. con λ = 6. Entonces o a) La probabilidad de que no llegue ning´ n avi´n en un periodo de 20 minutos es u o P (X = 0). 2] tiene distribuci´n Poisson(λt).23 e a o cuando r = 3 y p =0. x P (X = x) =  0 otro caso. cuyos dos resultados son . con λ = 3/10. si t = 2.

1. Si para cada muestra definimos la variable aleatoria n X como el n´ mero de objetos de la primera clase contenidos en la muestra selecu cionada.46875 .02 x r=3 p = 0. P (X = 2)= 6 (1/2)5 = 15/32= 0. .23: cara y cruz. y escribimos X ∼ hipergeo(N. la muestra es sin reemplazo y el orden de los objetos seleccionados no importa. p = 1/2. n) si a  K N −K  x n−x  si x = 0.60 1. p) con r = 3.04 0. ¿Cu´l es la probabilidad de obtener la tercera cruz en el quinto lanzaa miento? Soluci´n: Sea X el n´ mero de caras (fracasos) antes de obtener la tercera o u cruz.2 5 10 15 20 25 30 Figura 1. K y n. 2 ´ Distribucion hipergeom´trica. y el t´rmino N −K es nuevamente las diferentes e n−x . Decimos que X tiene una distribuci´n hipergeom´trica con o o e par´metros N . entonces X puede tomar los valores 0. El espacio muestral de este experimento consiste de todas las posibles muestras de tama˜ o n que se pueden obtener del conjunto mayor de tama˜ o N . La cardinalidad n n del espacio muestral es N . Entonces X ∼ bin neg(r. . Supongamos que de este conjunto tomamos una muestra aleatoria de tama˜ o n n. . 1. 2.06 0. . y nos preguntan P (X = 2). N P (X = x) = n   0 otro caso. Distribuciones de probabilidad f (x) 0. suponiendo n ≤ K. La probabilidad de que X tome un valor x estar´ dada por la f´rmula que enunciaa o mos a continuaci´n. n. El t´rmino K nos dice las diferentes formas en que de los K objetos de la primera e x clase se pueden escoger x de ellos. K. Por lo tanto. . n.8. . . Supongamos que tenemos un conjunto de N e objetos de los cuales K son de una primera clase y N − K son de una segunda clase. .

. En este caso es posible comprobar que a −K E(X) = nK/N . xn .4 0. . La gr´fica de esta funci´n de densidad para ciertos valores de a o los par´metros aparece en la Figura 1.2 0. y Var(X) = n K NN N −n . Usamos el principio multiplicativo para obtener el n´ mero total de muestras u diferentes en donde x objetos son de la primera clase y n − x objetos son de la segunda clase.1 x N = 20 K=7 n=5 0 1 2 3 4 5 Figura 1. a n Media: i=1 xi /n. . n Varianza: i=1 (xi − µ)2 /n. o Distribuci´n uniforme o f (x) = 1/n para x = x1 . Varianza: p(1 − p). xn . . Presentamos en la siguiente tabla un resumen de las distribuciones discretas mencionadas en esta secci´n. N N −1 f (x) 0.24: Con esto concluimos la revisi´n de algunas distribuciones de probabilidad de tio po discreto. n. . Par´metros: x1 . 1.Parte 1. . a Media: p. Distribuci´n Bernoulli o f (x) = px (1 − p)1−x para x = 0.24. . Par´metro: p ∈ (0. .3 0. PROBABILIDAD 61 formas de escoger n − x objetos de la totalidad de N − K objetos de la segunda clase. . 1).

. n. mas bien. No construiremos estas distribuciones a partir de experimentos aleatorios particulares como en el caso de las distribuciones discretas. . 1). . Distribuciones de probabilidad Distribuci´n binomial o f (x) = n x Distribuci´n geom´trica o e f (x) = p (1 − p)x para x = 0. n. . Varianza: nK(N − K)(N − n)/(N 2 (N − 1)). a Media: np. b). a Media: nK/N. 2. Par´metros: r ∈ N. Par´metro: λ > 0. . . . 1. . Varianza: np(1 − p).8. pr (1 − p)x Distribuci´n hipergeom´trica o e f (x) = K x N −K n−x / N n para x = 0. Ahora estudiaremos algunas distribuciones de probabilidad de variables aleatorias continuas. Distribuci´n binomial negativa o f (x) = r+x−1 x para x = 0. . a Media: r(1 − p)/p. p ∈ (0. Decimos que una variable aleatoria X tiene una distribuci´n uniforme continua en el intervalo (a. K. a Media: λ. en algunos casos mostraremos la forma de obtener o estas distribuciones a partir de considerar ciertas funciones de variables aleatorias conocidas. . las definiremos sin mayor justificaci´n. y escribimos X ∼ o .62 1. . . 1. p ∈ (0. . . para x = 0. 1. ´ Distribucion uniforme continua. . 1. Distribuci´n Poisson o f (x) = λx x! px (1 − p)n−x e−λ para x = 0. Varianza: (1 − p)/p2 . 2. 1). Par´metro: p ∈ (0. 1). a Media: (1 − p)/p. Varianza: λ. n. Par´metros: N. . 1. 2. . Varianza: r(1 − p)/p2 . Par´metros: n ∈ N.

En este caso o es muy f´cil encontrar la correspondiente funci´n de distribuci´n. cuando su funci´n de densidad es o   1 si x ∈ (a. Los par´metros de esta distribuci´n son los n´ meros a < b.25(b). Adem´s Var(X) = (b − a)2 /12. F (x) =  1 si x ≥ b.25(a). Ejercicio.25(b). Esta distribuci´n es una de las m´s sencillas. 63 La gr´fica general de esta funci´n se muestra en la Figura 1. y por el contrario.  0 (x − a)/(b − a) si a ≤ x < b. y ´sta se muestra a o o e en la Figura 1. . y est´ dada por o a  si x < a. n o a y sea usa naturalmente para cuando no se conoce mayor informaci´n de la variable o aleatoria de inter´s. b). la varianza es peque˜ a. b) es la que aparece en la Figura 1. Es a o u f´cil verificar que E(X) = (a + b)/2. b). b). e u f (x) 1 b−a F (x) 1 x a (a) b a (b) b x Figura 1. de modo que la varianza o dispersi´n crece a o cuando a y b se alejan uno del otro. cuando los par´metros estan a muy cercanos. y es evidente que a o se trata de una funci´n de densidad pues es no negativa e integra uno. En el experimento aleatorio te´rico de generar un n´ mero al azar X en o u el intervalo unitario (0. PROBABILIDAD unif(a. b−a f (x) =  0 otro caso. 1) se considera regularmente que X tiene distribuci´n unio forme en dicho intervalo. que corresponde al punto medio del intervalo a (a. excepto que toma valores continuos dentro de alg´ n intervalo.25: Ejemplo. Compruebe que la funci´n de distribuci´n de una variable aleatoria con o o distribuci´n unif(a.Parte 1.

64 1.26: Ejemplo. o a Aplicando el m´todo de integraci´n por partes puede tambi´n comprobarse que e o e E(X) = 1/λ. 1 Soluci´n: Para el primer inciso tenemos que P (X < 1) = 0 1/5 e−x/5 dx=0.8.181 . Compruebe que la o . Ejercicio. La correspondiente funci´n de distribuci´n o o aparece a su derecha. es a o a la que se muestra en la Figura 1. f (x) F (x) 1 3 2 1 1 (a) λ=3 x x 1 (b) Figura 1. Suponga que el tiempo en minutos que un usuario cualquiera permanece revisando su correo electr´nico sigue una distribuci´n exponencial de par´metro o o a λ = 1/5.0000061 .26(a). La gr´fica de esta funci´n cuando el par´metro λ toma el valor particular 3. Sea X una variable aleatoria con distribuci´n exp(λ). Calcule la probabilidad de que un usuario cualquiera permanezca conectado al servidor de correo a) menos de un minuto. si x ≤ 0. Esta distribuci´n se ha usado para modelar tiempos o de espera para la ocurrencia de un cierto evento. y Var(X) = 1/λ2 . b) mas de un ahora. o ∞ Para el segundo inciso. Distribuciones de probabilidad ´ Distribucion exponencial. Decimos que una variable aleatoria continua X tiene una distribuci´n exponencial con par´metro λ > 0. y escribimos X ∼ exp(λ). o a cuando su funci´n de densidad es o f (x) = λ e−λx 0 si x > 0. P (X > 60)= 60 1/5 e−x/5 dx=0. Es muy sencillo verificar que la funci´n f (x) arriba definida es o efectivamente una funci´n de densidad para cualquier valor del par´metro λ > 0.

λ). La gr´fica de esta funci´n de densidad para varios valores de los par´metros se a o a muestra en la Figura 1. si su funci´n de a o densidad es  n−1  (λx) λe−λx si x > 0. Esta funci´n no u o es el tipo de funciones a las que estamos acostumbrados en los cursos de matem´tia cas en donde regularmente se conoce la expresi´n exacta de una cierta funci´n y o o . Γ(n) f (x) =  0 si x ≤ 0.Parte 1.26(b). f (x) λ=5 λ=4 λ=3 n=5 n=7 n = 10 f (x) 1/2 1/2 x x 1 2 3 4 5 6 Figura 1.27. Esta es la funci´n gama que se o e o define como la siguiente integral Γ(n) = 0 ∞ tn−1 e−t dt. 65 ´ Distribucion gama. o o e F (x) = 1 − e−λx 0 si x > 0. V´ase la Figura 1. para cualquier n´ mero real n tal que esta integral sea convergente. PROBABILIDAD funci´n de distribuci´n de X es la siguiente. La variable aleatoria continua X tiene una distribuci´n gama o con par´metros n > 0 y λ > 0. y escribimos X ∼ gama(n.27: 1 2 3 4 5 6 (a) n = 5 (b) λ = 3 En la expresi´n anterior aparece el t´rmino Γ(n). si x ≤ 0.

´ Distribucion beta. b) = 0 xa−1 (1 − x)b−1 dx. obtenemos la distribuci´n exponencial con par´metro λ. y escribimos X ∼ beta(a. s´lo para o algunos pocos valores. Observemos adem´s que la distribuci´n exponencial es un caso o a o particular de la distribuci´n gama.66 1. Afortunadamente no evaluaremos esta integral para cualquier valor de n. para evaluar la funci´n gama o o es necesario substituir el valor de n en el integrando y efectuar la integral infinita. cuando o a su funci´n de densidad es o  1  xa−1 (1 − x)b−1 si x ∈ (0.8. Γ(a + b) . El nombre de esta distribuci´n se deriva del hecho de que en su definici´n aparece o o la funci´n gama. b) f (x) =  0 otro caso. En este caso. principalmente enteros. y nos ayudaremos de las siguientes propiedades: a) Γ(n + 1) = n Γ(n). √ d) Γ(1/2) = π. y Var(X) = n/λ2 . b). c) Γ(2) = Γ(1) = 1. b) = Γ(a)Γ(b) . 1). Decimos que la variable aleatoria continua X tiene una distribuci´n beta con par´metros a > 0 y b > 0. 1 El t´rmino B(a. Esta funci´n est´ relacionada con la funci´n u o a o gama a trav´s de la identidad e B(a. La funci´n beta se define como sigue o o B(a. En efecto. B(a. y de all´ adquiere su nombre e o ı esta distribuci´n. si en la distribuci´n gama tomamos o o el par´metro n igual a 1. Distribuciones de probabilidad se utiliza esta expresi´n para evaluarla. b) Γ(n + 1) = n! si n es entero. a o a Resolviendo un par de integrales se puede demostrar que E(X) = n/λ. para n´ meros reales a > 0 y b > 0. b) se conoce como la funci´n beta.

positivo o cero. En este a o a caso la funci´n de densidad se reduce a la expresi´n o o 2 1 f (x) = √ e−x /2 .28. y Var(X) = ab/((a + b + o 1)(a + b)2 ). ´ Distribucion normal. Tambi´n puede demostrarse que Var(X) = σ 2 . Esta es posiblemente la distribuci´n de probabilidad de o mayor importancia. o . a En particular. b) se tiene que E(X) = a/(a + b). a La gr´fica de esta funci´n de densidad tiene forma de campana como se puede a o apreciar en la Figura 1. ´ f (x) σ x µ Figura 1. y ello significa que la campana esta centrada en este valor. 2 2πσ en donde µ ∈ R y σ > 0 son dos par´metros. Decimos que la variable aleatoria continua X tiene una distribuci´n normal si su funci´n de densidad est´ dada por la siguiente expresi´n o o a o 2 2 1 f (x) = √ e−(x−µ) /2σ . en donde se muestra adem´s el significado geom´trico a e de los dos parmetros. Para e o o la distribuci´n beta(a. el cual puede ser negativo. 2π Es posible transformar una variable aleatoria normal no est´ndar en una est´ndar a a mediante la siguiente operaci´n. por o o lo tanto la campana se abre o se cierra de acuerdo a la magnitud de este par´metro. σ 2 ). PROBABILIDAD 67 V´ase la secci´n de ejercicios para una lista de propiedades de esta funci´n. decimos que la variable aleatoria X tiene una distribuci´n normal o est´ndar si tiene una distribuci´n normal con par´metros µ = 0 y σ 2 = 1.28: No es inmediato pero es posible demostrar que E(X) = µ. y que la distancia del punto µ a e cualquiera de los dos puntos en donde la funci´n tiene puntos de inflexi´n es σ.Parte 1. Escribimos entonces X ∼ N(µ.

o x Φ(x) = P (Z ≤ x) = −∞ 2 1 √ e−u /2 du. pero usando m´todos num´ricos pueden o e e . o P (a < X < b). Distribuciones de probabilidad Proposici´n.4) compruebe que E(Z) = 0 y Var(Z) = 1. o a y seguiremos nosotros tambi´n esa costumbre. por ejemplo. Es com´ n usar o u la letra Z para denotar una variable aleatoria con distribuci´n normal est´ndar. es decir. (1. Tenemos entonces que u P(a < X < b) = P(a − µ < X − µ < b − µ) a−µ X −µ b−µ = P( < < ) σ σ σ b−µ a−µ = P( <Z< ). σ σ La igualdad de estas probabilidades es consecuencia de la igualdad de los eventos. La proposici´n anterior parece muy modesta pero tiene una gran importancia opeo racional pues establece que el c´lculo de las probabilidades de una variable aleaa toria normal cualquiera se reduce al c´lculo de las probabilidades para la normal a est´ndar. por lo menos o compruebe mentalmente las siguientes dos propiedades.4) σ A la operaci´n anterior se le conoce con el nombre de estandarizaci´n. Es tambi´n com´ n denotar la funci´n de e u o distribuci´n de Z como Φ(x). no es posible encontrar e o una expresi´n exacta para esta integral.29(a). Es necesario decir e que. A partir de (1. Entonces la siguiente variable aleatoria tiene una distribuci´n noro mal est´ndar.8. para a < b n´ meros dados. y si ello no es posible por ahora. Sea X una variable aleatoria con distribuci´n normal con par´meo o a tros µ y σ 2 . Se deja como ejercicio al lector e demostrar la proposici´n anterior. y bajo tal o o transformaci´n se dice que la variable X ha sido estandarizada.68 1. Suponga que X es una vaa o a riable aleatoria con distribuci´n N(µ. Explicaremos esta situaci´n con m´s detalle. sin importar el m´todo de integraci´n que se utilice. Ejercicio. De esta forma una probabilidad que involucra a la variable X se ha reducido a una probabilidad que involucra a Z. y que deseamos calcular. 2π cuyo significado geom´trico se muestra en la Figura 1. a X −µ Z= . σ 2 ).

¿Cu´nto vale Φ(x) para x > 3.65) = 0. las distintas columnas corresponden al segundo d´ ıgito decimal. c) P (X > 10). En una tabla al final del texto aparece una tabla con estos valores aproximados.Parte 1.49?. Para cada valor α en el intervalo (0. Calcule o a) P (X ≤ 7). ´ Notacion zα .49? ¿C´mo se podr´ calcular a o ıan los valores de Φ(x) para x negativos? f (x) f (x) Φ(x) α x x (a) (b) zα x Figura 1.29: Ejercicio. Ejercicio. Cada rengl´n de o esta tabla corresponde a un valor de x hasta el primer d´ ıgito decimal.05 o corresponden al valor 1.45) =0.75 .1587 Ejercicio. Por ejemplo. Sea X con distribuci´n N(5.0495 c) Φ(−1) = 0. Aqui estan algunas preguntas para el lector: ¿Por qu´ en la tabla aparecen solo valores de x e hasta 3. b) P (0 < X < 5).65) = 0. PROBABILIDAD 69 encontrarse aproximaciones de ella para distintos valores de x. tenemos entonces que Φ(1. 10). El valor que aparece en la tabla es Φ(x).3 . a . es decir. b) Φ(x) = 0.9265 .9505 b) Φ(−1.4 y la columna marcada con 0. 1). Demuestre que Φ(−x) = 1 − Φ(x). el n´ mero zα denotar´ el u a punto en el eje real para el cual el ´rea bajo la curva a la derecha de zα es α. Ejercicio. Encuentre x tal que a) Φ(x) = 0. Use la tabla de la distribuci´n normal est´ndar para comprobar que o a a) Φ(1. el rengl´n marcado con 1.45.

Se muestra en la siguiente Figura 1. es decir. . y al o a cual se le llama grados de libertad. si su o funci´n de densidad est´ dada por la siguiente expresi´n o a o 1 f (x) = Γ(n/2)   0    1 2 n/2 xn/2−1 e−x/2 si x > 0. X2 . ∞).30. en donde la letra griega χ se pronuncia “ji” o tambi´n “chi”. Entonces la funci´n de distribuci´n de la variable o o Zn = (X1 + · · · + Xn ) − nµ √ nσ 2 tiende a la distribuci´n normal est´ndar cuando n tiende a infinito. Φ(zα ) = 1 − α. . A pesar de su aparente expresi´n complicada. no o es dif´ comprobar que f (x) es efectivamente una funci´n de densidad. ım ´ Distribucion ji-cuadrada.8. Usaremos la notaci´n zα en la segunda parte de nuestro e u o curso. Acerca de la distribuci´n normal tenemos el siguiente resultado de suma importano cia. La gr´fica ıcil o a de esta funci´n para varios valores del par´metro n aparece en la Figura 1. o o n→∞ l´ FZn (x) = FZ (x). . Puede demostrarse que E(X) = n y Var(X) = 2n. Decimos que la variable aleatoria continua X tiene una distribuci´n ji-cuadrada con n grados de libertad (n entero positivo).70 1. Distribuciones de probabilidad Esto es.29(b) el significado geom´trico del n´ mero zα . Teorema central del l´ ımite. La distribuci´n e o ji-cuadrada puede obtenerse como indican los siguientes resultados que dejaremos sin demostrar. Esta distribuci´n tiene un solo par´metro denotado aqui por la letra n. o a Escribiremos simplemente X ∼ χ2 (n). . sin importar o a la distribuci´n de cada variable de la sucesi´n. Sea X1 . Se trata de una variable aleatoria continua con posibles valores en el intervalo (0. si x ≤ 0. una sucesi´n infinita de variables o aleatorias independientes e id´nticamente distribuidas con media µ y varianza e finita σ 2 .

o Es decir. Decimos que la variable aleatoria continua X tiene una distribuci´n t con n grados de libertad si su funci´n de densidad est´ dada por o o a Γ((n + 1)/2) f (x) = √ (1 + x2 /n)−(n+1)/2 . si X1 .31. . 1). Si X ∼ χ2 (n) y Y ∼ χ2 (m) son dos variables aleatorias indepeno dientes. . En tal caso se escribe X ∼ t(n). entonces X 2 ∼ χ2 (1). el siguiente o resultado establece que la suma de dos variables aleatorias independientes con distribuci´n ji-cuadrada tiene distribuci´n nuevamente ji-cuadrada con grados de o o libertad la suma de los grados de libertad de los sumandos. Es posible demostrar que E(X) = 0. Proposici´n. 1). o . Por otro lado. La gr´fica de esta funci´n de densidad aparece en a o la Figura 1.Parte 1. La distribuci´n t se puede encontrar en los siguientes contextos. entonces o 2 2 X1 + · · · + Xn tiene distribuci´n χ2 (n). nπ Γ(n/2) para − ∞ < x < ∞. Xn son independientes con distribuci´n N(0. el cuadrado de una variable aleatoria con distribuci´n normal est´ndar o a tiene distribuci´n ji-cuadrada con un grado de libertad. o ´ Distribucion t. Si X ∼ N(0. o En particular. .30: Proposici´n. . PROBABILIDAD f (x) 1/2 n=1 n=2 n=3 n=4 71 x 1 2 3 4 5 6 7 8 9 Figura 1. entonces X + Y tiene distribuci´n χ2 (n + m). y Var(X) = n/(n − 2) para n > 2.

Distribuciones de probabilidad f (x) n = 100 n=3 n=1 0. o . . 1) y Y ∼ χ2 (n) son independientes. Entonces o ¯ X −µ √ ∼ t(n − 1). Sean X1 .72 1. La siguiente tabla contiene un resumen de las distribuciones continuas mencionadas en esta secci´n. entonces o X Y /n ∼ t(n). σ 2 ).1 x −4 −3 −2 −1 1 2 3 4 Figura 1. Con esto terminamos con una revisi´n elemental de algunas distribuciones de proo babilidad continuas. Xn variables aleatorias independientes cada una de o ellas con distribuci´n N(µ. Recuerde el lector que existen muchas mas distribuciones de este tipo. .8. Proposici´n. . Si X ∼ N(0.31: Proposici´n. y S 2 = 1 n n i=1 (Xi ¯ − X)2 . . S/ n ¯ en donde X = 1 n n i=1 Xi .

Varianza: 2n. Par´metros: n > 0. 1). Varianza: 1/λ2 . Par´metro: n > 0. Par´metro: λ > 0. a Media: (a + b)/2. PROBABILIDAD 73 Distribuci´n uniforme o f (x) = 1/(b − a) para x ∈ (a. a Media: µ. Par´metros: a > 0. Varianza: n/λ2 . a Media: a/(a + b).Parte 1. b). a Media: 1/λ. b > 0. a Media: n/λ. √ 1 2πσ2 2 2 Distribuci´n χ2 o f (x) = 1 Γ(n/2) 1 n/2 2 xn/2−1 e−x/2 para x > 0. para x ∈ (0. a Media: n.b) x λ e−λx para x > 0. Varianza: ab/((a + b + 1)(a + b)2 ). − x)b−1 Distribuci´n normal o e−(x−µ) /2σ para x ∈ R. Par´metros: a < b. . Distribuci´n beta o f (x) = 1 a−1 (1 B(a. λ > 0. Distribuci´n gama o f (x) = (λx)n−1 Γ(n) Distribuci´n exponencial o f (x) = λ e−λx para x > 0. f (x) = Varianza: σ 2 . Par´metros: µ ∈ R. Varianza: (b − a)2 /12. σ > 0.

Vectores Aleatorios (1 + x2 /n)−(n+1)/2 para x ∈ R.9. Para hacer la escritura corta e se consideran unicamente vectores aleatorios de dimensi´n dos. De manera an´loga a se pueden tener vectores aleatorios multidimensionales (X1 . . Xn ). . a Media: 0.74 Distribuci´n t o f (x) = Γ((n+1)/2) √ nπ Γ(n/2) 1. Par´metro: n > 0.32: . Y ) en donde cada coordenada es una variable aleatoria. o (X. o continuas. Por simplicidad consideraremos unicamente ´ vectores aleatorios cuyas coordenadas son variables aleatorias todas discretas. Varianza: n/(n − 2). o continuo. si las todas las variables aleatorias que lo conforman lo son.32. y) Figura 1. Nuevamente diremos que un vector aleatorio es discreto. Vectores Aleatorios Esta secci´n contiene una breve introducci´n al tema de variables aleatorias multio o dimensionales o tambi´n llamadas vectores aleatorios. Un vector aleatorio de dimensi´n dos es un vector de la forma o (X. Y ) R2 ω Ω (X(ω). aunque todas las ´ o definiciones y resultados que se mencionan pueden extenderse f´cilmente. para n > 2. para vectores de dimensi´n superior. en la a mayor´ de los casos. 1. pero no mezclas de ellas. Y ) puede considerarse como una funci´n de Ω en R2 como se muestra en la Figura 1. Un vector aleatorio (X. Y (ω)) = (x. ıa o Vector aleatorio. .9. .

y) ∈ {x1 . PROBABILIDAD 75 Es decir. . . Ejemplo. Y = y) si (x. x2 . y) es un punto u en el plano.2 De este arreglo se entiende que la variable X toma valores en el conjunto {−1. y).1 0. el n´ mero f (x. y2 .Parte 1. y) ≥ 0.}. Y ) tal que la variable X toma los valores en el conjunto {x1 . . 1] de acuerdo a la siguiente definici´n o f (x. Y ) es el u vector aleatorio. pero en general omitiremos los sub´ ındices para hacer la notaci´n m´s corta. toda funci´n que las cumpla se llama funci´n de o o densidad conjunta. y la variable Y toma los valores en {y1 . . se encuentra definida sobre R2 y toma valores en el intervalo [0. . x2 . y) = P (X = x. b) x. . Y )(ω) = (X(ω). y2 . el vector (X. Consideremos un vector aleatorio discreto (X. La funci´n de densidad del vector (X. Y ) que se denota o por f (x.3 0. ´ Funcion de probabilidad conjunta. a) f (x.4 1 0. Y (ω)) con posible valor (x. . 1}. 0 otro caso. e inversamente. . y) de la forma anterior cumple las siguientes o a o dos propiedades. Y ) evaluado en ω es (X. y). . 1}. mientras que Y toma valores en {0.} × {y1 . Es decir. y). y para enfatizar este hecho a o veces se escribe fX. Considere el vector aleatorio discreto (X.y f (x. Adem´s las probabilidades conjuntas est´n a a . Tal funci´n se llama tambi´n o e funci´n de densidad conjunta de las variables X y Y . Y ) con funci´n de densidad o dada por la siguiente tabla. Estudiaremos a continuaci´n algunas funciones asociadas a vectores o aleatorios. Estos conceptos son completamente an´logos al caso unidimensional a estudiado antes.}. y) = 1. mientras que el vector con letras min´ sculas (x. x/y -1 1 0 0. . Nuevamente observe que el vector con letras may´ sculas (X.Y (x. . y) es la probabilidad de que la variable X tome el valor u x y al mismo tiempo la variable Y tome el valor y. Toda funci´n f (x.}. . Vamos a estudiar primero el caso m´s a sencillo que es el discreto.

y) = P (X = x. y) =  0 otro caso. y = 0. y) de estas caracter´ o ısticas satisface las siguientes dos propiedades que son an´logas al caso discreto. . v) dv du. y = 0. o   0. a a) f (x.     0 otro caso. Ejemplo.4 si x = 1. naturalmente son no negativos. La misma informaci´n puede escribirse de la siguiente manera. (b − a)(d − c) f (x. c < y < d. Y = 0) = 0. Y ≤ y) = f (u.1 si x = −1.     0. por ejemplo. y defina la funci´n o  1  si a < x < b. −∞ −∞ Toda funci´n de densidad f (x.2 si x = 1. y) dx dy = 1.3 si x = −1. y = 1. c < d. y todos ellos suman uno. b) ∞ ∞ f (x. o Se dice que la funci´n integrable y no negativa f (x. Como todos estos valores son probabilidades. ´ Funcion de densidad conjunta. Esta es una de las funciones de densidad conjunta m´s sencillas.    0.3. −∞ −∞ Rec´ ıprocamente decimos que una funci´n f (x.9. Vectores Aleatorios dadas por las entradas de la tabla.76 1.   f (x. y) : R2 → [0. Y = y) = 0. P (X = −1. Sean a a < b. Veamos ahora la situaci´n en el caso continuo. y) en R2 se cumple la igualdad x y P (X ≤ x. ∞) es una funci´n de o o densidad conjunta si cumple con las dos condiciones arriba mencionadas. y) : R2 → [0. y = 1. Y ) si para todo par (x. ∞) es la funci´n o o de densidad del vector aleatorio continuo (X. la probabilidad de que X tome el valor −1 y al mismo tiempo Y tome el valor 0 es 0.3. y) ≥ 0. esto es.

´ ´ Funcion de distribucion conjunta. y) = x+y 0 si 0 < x. o f (x. Ejercicio. Encuentre la constante c para que la siguiente funci´n sea de densidad. Y ).33. sea ´ste discreto o continuo. y < 1. La funci´n de distribuci´n del o o o . b) × (c.Parte 1. Adem´s de la funci´n de densidad. otro caso. y) = cxy 0 si 0 < x < y < 1. Compruebe que la siguiente funci´n es de densidad. Esta funci´n es de densidad pues es no negativa e integra a o uno sobre R2 . d). y) c a b d y x Figura 1. y su o o e definici´n es muy semejante al caso unidimensional. f (x. existe a o la funci´n de distribuci´n para un vector (X. otro caso. o f (x. Se trata de una funci´n constante en el a o rect´ngulo (a.33: Ejercicio. PROBABILIDAD 77 cuya gr´fica aparece en la Figura 1.

o 1. d) − F (b. c) + F (a. 1] dada por o F (x1 . x. El concepto de funci´n de distribuci´n puede extenderse al caso de vectores multio o dimensionales de la siguiente forma: La funci´n de distribuci´n del vector aleatorio o o (X1 . Y ≤ y). y la variable Y o con el valor y.Y (x. M´s precisamente. . 1]. . . La peque˜ a coma que aparece en el lado derecho de esta igualdad significa la n intersecci´n de los eventos (X ≤ x) y (Y ≤ y). xn ) : Rn → [0. o o 5. y) es una funci´n mon´tona no decreciente en cada variable. esta funci´n a o debe escribirse como FX.9. 2. se cumple la desigualdad u F (b. pero omitiremos los sub´ ındices para mantener la notaci´n simple. F (x. o Enunciamos a continuaci´n algunas propiedades que cumple toda funci´n de diso o tribuci´n conjunta. y) es o u la probabilidad del evento (X ≤ x) ∩ (Y ≤ y). 1] es una funci´n de distribuci´n bivariada si o o o satisface las anteriores cinco propiedades. . y) = 1. a y puede comprobarse geom´tricamente que la quinta propiedad corresponde a la e probabilidad del evento (a < X ≤ b) ∩ (c < Y ≤ d). y) = 0. c) ≥ 0. . Xn ) es la funci´n F (x1 . y tambi´n se dice que es la funci´n o e o de distribuci´n conjunta de las variables X y Y . . Y ). es decir. A esta funci´n se le conoce tambi´n con el nombre de funci´n de o e o acumulaci´n de probabilidad del vector (X. Para cualesquiera n´ meros a < b. y). y) : R2 → [0. . Siempre asociaremos la variable X con el valor x. . y) como sigue u F (x. Rec´ ıprocamente decimos que una funci´n F (x. se define para cualquier par de n´ meros reales (x. Xn ≤ xn ). . . d) − F (a. 3. .y→∞ x→−∞ l´ ım F (x.78 1. 4. xn ) = P (X1 ≤ x1 . y) = P (X ≤ x. Y ). y c < d. F (x. denotada por F (x. y) es continua por la derecha en cada variable. . . . l´ ım F (x. y) : R2 → [0. Vectores Aleatorios vector (X. An´logamente cuando es la variable y quien tiende a a menos infinito. . . . Observe que las primeras cuatro propiedades son an´logas al caso unidimensional. el n´ mero F (x.

y). En el caso discreto se suman todos los valores de f (u. Y ). y)? En el caso continuo sabemos o que f (x. La correspondiente definici´n para vectores discretos involucra una suma en lugar o de la integral. b) ¿C´mo se encuentra f (x. y) a partir de F (x. v) para valores de u menores o iguales a x y valores de v menores o iguales a y. f (x) = y f (x. de manera an´loga se define la densidad marginal f (y). y) simplemente o o integrando en el caso continuo o sumando en el caso discreto.Parte 1. Para el caso continuo tenemos x y F (x. y) guardan la relaci´n o x y F (x. v) dv du. es decir. son . y). es posible encontrar al funci´n de distribuci´n F (x. y) dy. ∂x ∂y ´ Funcion de densidad marginal. tanto en el caso discreto como en el continuo. y)? Conociendo la funci´n de deno o sidad f (x. y) = ∂2 F (x. y) a partir de f (x. y) y F (x. y). y) = −∞ −∞ f (u. La correspondiente funci´n de densidad marginal de la variable Y se obtiene integrando ahora respecto o de la variable x. y) dx. PROBABILIDAD 79 a) ¿C´mo se encuentra F (x. f (y) = ∞ −∞ f (x. y) la funci´n de densidad del vector o aleatorio continuo (X. por el teorema fundamental del c´lculo tenemos que a f (x. Es sencillo verificar que a estas densidades marginales. Sea f (x. simplemente se integra respecto de la variable y. por ejemplo. −∞ es decir. Se define la funci´n de densidad marginal de la variable o X como sigue f (x) = ∞ f (x. v) dv du. y) = −∞ −∞ f (u.

y). ım y→∞ y la correspondiente funci´n de distribuci´n marginal de la variable Y es la funci´n o o o F (y) = l´ F (x. . . . Un poco m´s generalmente. xn ) = FX1 (x1 ) · · · FXn (xn ). .. . Alternativamente puede definirse la independencia en t´rminos de la funci´n de e o densidad como sigue f (x1 . . . . . xn ) dx2 · · · dxn . Xn ) es. . . . Se dice que estas variables son independientes si para cualesquiera valores x1 . . xn se cumple la igualdad FX1 . la a funci´n de densidad marginal de la variable X1 a partir de la funci´n de densidad o o del vector (X1 . . . o ´ ´ Funcion de distribucion marginal. xn . . Las dos condiciones anteriores son equivalentes. La funci´n de distribuci´n marginal o o o o de la variable X se define como la funci´n o F (x) = l´ F (x. . . xn ) = f (x1 ) · · · f (xn ).80 1. f (x1 ) = ∞ −∞ ··· ∞ −∞ f (x1 . . Xn variables aleatorias con distribuci´n conjunta F (x1 . . . Independencia de variables aleatorias. F (xn ). . ım x→∞ No es dif´ comprobar que estas funciones de distribuci´n marginales son efectiıcil o vamente funciones de distribuci´n univariadas. xn ). Y ) un vector aleatorio. Nuevamente esta igualdad debe verificarse para cualesquiera valores x1 . Sean X1 . Vectores Aleatorios efectivamente funciones de densidad univariadas.. en el caso continuo. Veremos a o continuaci´n este importante concepto que usaremos con regularidad en la segunda o parte del curso. . . y). . . . y). . con funci´n de distribuci´n F (x. . continuo o discreto. .9..Xn (x1 . . . . De manera an´loga se obtiene la funci´n marginal de cualquiera de las variables a o que componen el vector multidimensional.. . Sea (X. o Todo lo mencionado en estas ultimas secciones tiene como objetivo poder enunciar ´ con precisi´n el concepto de independencia entre variables aleatorias. . Y tambi´n de manera an´loga se pueden e a calcular estas densidades marginales para vectores discretos de cualquier dimensi´n. y con respectivas distribuciones maro ginales F (x1 ). En el caso particular cuando las . .

la condici´n de independencia se escribe o P (X1 = x1 . .Parte 1. . . PROBABILIDAD variables aleatorias son discretas. . . Xn = xn ) = P (X1 = x1 ) · · · P (Xn = xn ). se dice que un conjunto infinito de variables aleatorias son independientes si cualquier subconjunto finito de ellas lo es. Este es el sentido en el que la sucesi´n infinita de variables aleatorias debe entenderse en el enunciado del o teorema central del l´ ımite. 81 Adicionalmente.

Vectores Aleatorios .82 1.9.

Esta o recolecci´n de datos por parte de los gobiernos sigui´ desaroll´ndose durante los o o a siglos XVII y XVIII. llevae ban registros de nacimientos. Cotidianamente encontramos elementos de estad´ ıstica descriptiva en los peri´dicos. y Jerzy Neymann (1894-1981). es por ello que a las primeras colecciones e de datos se les llamara estad´sticas. Los m´todos y la teor´ general se desarrollaron a partir de los e ıa inicios del siglo XX gracias a los trabajos de Karl Pearson (1857-1936). Ronald A. en la televisi´n y en internet. sean ´stas cient´ e ıficas. Para mediados del siglo XVI. matrimonios y decesos. varios gobiernos europeos. y teniendo a Francis Galton (1822-1911) como precursor. y para la toma de decisiones. a trav´s de las parroquias. o o 83 . surgen las primeras ideas para inferir informaci´n de una poblaci´n a partir de o o datos estad´ ısticos. en donde los esfuerzos y recursos se orientaron principalmente a obtener censos. sociales o econ´micas. como una derivaci´n de la palabra estado. Los ı o primeros registros de una recolecci´n sistem´tica de datos de una poblaci´n suro a o gen en las ciudades italianas de Venecia y Florencia durante el Renacimiento. A finales del siglo IXX. Sus m´todos y o e conclusiones son usados como respaldo cient´ ıfico para rechazar o aceptar afirmaciones. De particular importancia en aquellos a˜ os eran los registros de decesos pues las tasas de mortalidad eran altas n debido a las recurrentes epidemias y plagas que diezmaban a la poblaci´n. Hoy en d´ los m´todos de la estad´ ıa e ıstica son usados en muy diversas ´reas del a conocimiento humano.Parte 2 ESTAD´ ISTICA Originalmente cualquier colecci´n de datos acerca de la poblaci´n o econom´ de un o o ıa estado era del inter´s exclusivo del estado. en la radio. Egon Sharpe Pearson (1895-1980) hijo de Karl Pearson. Fisher (1890-1962).

La estad´stica inferencial consiste de un conjunto de t´cnicas para o ı e obtener. resumen y presentao e o ci´n de datos. De manera general. informaci´n de una poblaci´n con o o base en la informaci´n de una muestra. esto es. un conjunto arbitrario o e de personas. o o muestra poblaci´n o Figura 2. Variables y tipos de datos Una variable es una caracter´ ıstica de un elemento en una poblaci´n en estudio. organizar. si la poblaci´n consta de personas. Por o ejemplo.1.2.1. . Con base en esta muestra n trataremos de inferir la informaci´n de la poblaci´n en su totalidad. Introducci´n o Supongamos que tenemos una poblaci´n de inter´s. sexo. o 2. peso. estatura. los siguientes son ejemplos de variables o que podr´ ser de inter´s: edad. La estad´ ıstica es la ciencia que se encarga de recolectar. etc. y deseamos conocer cierta informaci´n de esta poblaci´n. la estad´ ıstica puede ser dividida en dos grandes ´reas: estad´ a ıstica inferencial y estad´ ıstica descriptiva. tomamos un peo o que˜ o subconjunto de ellos.84 ´ 2. con determinado grado de confianza. Veremos a continuaci´n ıan e o algunos criterios bajo los cuales las variables pueden ser clasificadas. La estad´stica ı descriptiva es una colecci´n de m´todos para la organizaci´n. resumir y analizar datos para despu´s obtener e conclusiones a partir de ellos. mediciones u objetos cualesquiera. Debido a la imposibilidad o no conveniencia de tener o o informaci´n de todos y cada uno de los elementos de la poblaci´n. al cual llamaremos muestra.1: Estad´ ıstica descriptiva e inferencial. Introduccion 2.

La religi´n o la nacionalidad son tambi´n ejemplos de e o e variables nominales. La temperatura es otro ejemplo de este tipo ıa ıa . si estamos estudiando una poblaci´n humana. Una variable se llama nominal cuando sus posibles valores no tienen alguna relaci´n de orden o magnitud entre ellos. a ıas Entre el d´ 10 y el d´ 20 hay una distancia de diez d´ pero no se puede decir ıa ıa ıas. que el d´ 20 es dos veces el d´ 10. a la variable sexo podemos asignarle o dos posibles valores: F para femenino. Las variables cualitativas o pueden ser clasificadas de acuerdo a dos escalas: escala nominal o escala ordinal. B´sicamente los valores o a de este tipo de variables son etiquetas sin un orden entre ellos. e 4=Excelente. y no existe un orden en ellas ni podemos realizar operaciones aritm´ticas. De acuerdo al n´ mero total de sus posibles valores. por ejemplo. cuando se realiza una medici´n y el resultado o es un n´ mero. 1=malo. Los s´ ımbolos F y M son etiquetas arbitrarias. b) de la recta real. 3=Bueno. La edad. o u finito o numerable) de valores. Escala de intervalo. 2=Regular.Parte 2. Por ejemplo. De acuerdo con la posible relaci´n que pudieran guardar los valores de una variable. En este caso la escala de medici´n es ordinal pues existe un orden o entre sus valores. En esta escala los valores de la variable tienen un orden pero no se pueden hacer operaciones aritm´ticas entre estos valores pues no hay noci´n e o de distancia entre ellos. Escala ordinal. que dos valores regulares hacen un valor excelente. ESTAD´ ISTICA 85 Las variables pueden ser cuantitativas. mientras que el sexo y el o estado civil son variables cualitativas. una variable cuantitativa puede u ser clasificada como discreta cuando s´lo puede tomar un n´ mero discreto (es decir. o pueden ser cualitativas. No existe el valor natural cero para esta tipo de escala. Por ejemplo. Mientras que las variables cuantitativas pueden clasificarse por: escala de intervalo o escala de raz´n. Por ejemplo. En este tipo de escala existe un orden entre los valores de la variable y existe adem´s una noci´n de distancia aunque no se pueden realizar a o operaciones. o continua cuando puede tomar cualquier valor dentro de un intervalo (a. o se cuenta por lo menos con cuatro escalas de medici´n. y M para masculino. pero no se puede decir. o Escala nominal. para calificar las caracter´ ısticas de un objeto podemos suponer los siguientes valores: 0=P´simo. suponga que los valores de una cierta variable est´n dados por los d´ del mes. el peso y la estatura son ejemplos de variables cuantitativas en una poblaci´n de personas. cuando solamente registran una cualidad o u atributo del objeto o persona en estudio.

e e 2.F. . ıas: f) Longitud de un tornillo. diga si su escala de medici´n es nominal u ordinal. Por ejemplo.E. diga si es discreta o continua.B.3. y diga su escala de medici´n. que repree sentan mediciones de alguna variable de inter´s en un experimento aleatorio. . i) Peso de un beb´ reci´n nacido. u d) Salario en unidades monetarias. o La clasificaci´n de un variable particular en alguna de estas categor´ puede no o ıas ser clara pues tal decisi´n puede depender del tratamiento que una persona haga o de tal variable.D. En una escala de raz´n la magnitud tiene un sentido f´ o ısico y existe el cero absoluto. Fahrenheit). c) N´ mero de hijos en una familia. b) Evaluaci´n de un curso de acuerdo a las siguientes categor´ Acreditado. Estad´ ıstica descriptiva de variable. No o ıas: Acreditado. la variable edad en a˜os estudiada en una n poblaci´n humana. Si es cualitativa. Para e conocer algunas caracter´ ısticas globales de esta variable se pueden calcular ciertas .3. Indiferente. o a) Apreciaci´n o punto de vista acerca de una idea o propuesta usando la escala: o De Acuerdo. h) Lugar de nacimiento de una persona. ´ Escala de razon. Si es o cuantitativa. Ejercicio. el posible valor cero depende de la escala que se use para medir la temperatura (Celsius. g) Preferencia sexual. Kelvin. e) Nivel de salario en alguna de las categor´ A. xn . Estad´ ıstica descriptiva Supongamos que tenemos un conjunto de datos num´ricos x1 . .86 2. Ausente.C. . En desacuerdo. Determine si cada una de las siguientes variables es cualitativa o cuantitativa.

De este modo. La mediana. la mediana es el dato u ordenado que se encuentra justo a la mitad. si embargo. . es simplemente el promedio (x1 + · · · + xn )/n. o Medidas de tendencia central.5. y se dice que el conjunto de datos es bimodal. 3. 4. y tambi´n otras mee didas llamadas de dispersi´n como la varianza. 6.5 . Por otro lado. 7. la desviaci´n est´ndar y el rango. . 8. 4. 3. 7. xn .Parte 2. 10. . Pueden existir. . .5. denotada por x. e denotada por x. y se obtiene la muestra ordenada x(1) . . 2. Si existe un unico valor ´ con mayor n´ mero de repeticiones. x(n) . o e La varianza. se define como sigue s2 = 1 n−1 n i=1 (xi − x)2 . . xn . se u dice que no hay moda. 4. dos o mas valores que sean los que mayor n´ mero de veces se repiten. . la mediana se calcula promediando los dos datos ordenados que est´n a enmedio. y u el conjunto de datos se dice que es unimodal. Ejercicio. a) −5. La media de los datos num´ricos x1 . 9. Se ordena la muestra x1 . . denotada por s2 . b) 3. . o o a Definiremos estos conceptos a continuaci´n. Para calcular la mediana procedemos como sigue. Si hay mas de dos valores con mayor n´ mero de repeticiones. . se dice que el conjunto de u datos es multimodal. −3. moda y mediana de cada uno de los siguientes conjuntos de datos. 2. 1.5. . Calcule la media. 7. . si n es impar.5. . Y cuando tenemos un n´ mero par u de datos. . . 4. o que todos los valores son moda. Si ning´ n valor se repite. −2. Definiremos ahora algunas medidas que ayudan a cuantificar la dispersi´n que puede presentar un conjunto de datos num´ricos x1 . se define como sigue a ˜ x= ˜ x( n+1 ) 2 1 n 2 [x( 2 ) + x( n +1) ] 2 si n es par. ´ Medidas de dispersion. cuando tenemos un n´ mero impar de datos. en tal caso la u moda consta de esos valores. xn de menor a mayor incluyendo repeticiones. moda y mediana. en donde x(1) denota el dato m´s peque˜ o y x(n) a n es el dato m´s grande. 5 . 2. 5. ¯ . entonces a ese valor se le llama la moda.5. ESTAD´ ISTICA 87 medidas de tendencia central como la media. la ¯ moda es el valor que aparece con mayor frecuencia. c) 1. 2.

88

2.4. Muestras aleatorias y estad´ ısticas

en donde x es la media muestral definida antes. La desviaci´n est´ndar es la ra´ ¯ o a ız cuadrada positiva de s2 , y se le denota naturalmente por s. El rango es el dato m´s a grande menos el dato m´s peque˜ o, es decir, x(n) − x(1) . a n Ejercicio. Calcule la varianza, la desviaci´n est´ndar y el rango de los conjuntos de o a datos del ejercicio anterior.

2.4.

Muestras aleatorias y estad´ ısticas

En lo que los problemas estad´ ısticos que consideraremos no estudiaremos muestras particulares de datos num´ricos x1 , . . . , xn , sino conjuntos de variables aleatorias e X1 , . . . , Xn que pueden, en particular, tomar el conjunto de datos mencionado. Definiremos a continuaci´n este concepto junto con el de estad´ o ıstica. Definici´n. Una muestra aleatoria (escribimos simplemente m.a.) es una coleco ci´n de variables aleatorias X1 , . . . , Xn que son independientes e id´nticamente o e distribuidas. De este modo, cuando se diga, por ejemplo, que una muestra aleatoria es tomada de una poblaci´n normal con media µ y varianza σ 2 , ello significa que las variables o aleatorias que forman la m.a. son independientes entre s´ y todas ellas tienen ı, la misma distribuci´n normal con los mismos par´metros. Una muestra aleatoria o a constituye el elemento b´sico para llevar a cabo inferencias estad´ a ısticas. Definici´n. Una estad´stica es una funci´n cualquiera de una muestra aleatoria o ı o X1 , . . . , Xn , y por lo tanto es tambi´n una variable aleatoria. e Veremos a continuaci´n dos ejemplos de estad´ o ısticas que ser´n usados con frea cuencia m´s adelante. Considere una muestra aleatoria X1 , . . . , Xn . La funci´n X a o ¯ definida como sigue n 1 ¯ X= Xi , n i=1 es una estad´ ıstica, y se le conoce con el nombre de media muestral. El otro ejemplo

Parte 2. ESTAD´ ISTICA es el de la varianza muestral, que se define de la forma siguiente S2 = 1 n−1
n i=1

89

¯ (Xi − X)2 .

2.5.

Estimaci´n puntual o

Sea X una variable aleatoria de inter´s en un experimento aleatorio, y supongamos e que X tiene una distribuci´n de probabilidad con funci´n de densidad f (x; θ), en o o donde θ es el par´metro o el conjunto de par´metros de la distribuci´n. En esta a a o nueva notaci´n se hace ´nfasis en que la distribuci´n depende de un par´metro o e o a denotado gen´ricamente por la letra griega θ, y el cual consideraremos desconocido. e Por ejemplo, si la distribuci´n es exp(λ), entonces θ representa el par´metro λ, si o a la distribuci´n es N(µ, σ 2 ), entonces θ representa el vector de par´metros (µ, σ 2 ). o a El problema de estimaci´n puntual consiste en encontrar un n´ mero, con base en o u las observaciones realizadas de la variable aleatoria, que sirva como estimaci´n del o par´metro desconocido θ. Ilustraremos el problema con un par de ejemplos. a Ejemplo. Se desea conocer el estado de la calidad de un conjunto 1000 art´ ıculos. Dada la imposibilidad de someter a prueba a todos ellos, se escogen 20 art´ ıculos al azar obteni´ndose los siguientes resultados: 0,1,1,0,1,1,0,1,0,1,1,1,0,1,1,1,1,1,1,0, e en donde cero indica que el art´ ıculo no pas´ el control de calidad y uno indica que o el art´ ıculo pas´ el control de calidad. Suponga que X es la variable que indica si o un art´ ıculo escogido al azar pasa o no pasa el control de calidad. Entonces X tiene una distribuci´n Ber(p), en donde p es desconocido. ¿C´mo podr´ estimarse el o o ıa verdadero valor de p con base en los datos de la muestra? Ejemplo. El tiempo en minutos que un conjunto de 10 empleados escogidos al azar invierte en trasladarse de la casa al lugar de trabajo es: 30,70,65,10,25,15,5,50,20,15. Suponga que tal variable puede modelarse mediante la distribuci´n exp(λ). ¿C´mo o o podr´ estimarse el valor de λ con base en las observaciones realizadas? ıa

Definici´n. Un estimador puntual para el par´metro θ es una funci´n de una o a o muestra aleatoria X1 , . . . , Xn que se usa para estimar θ.

90

´ 2.5. Estimacion puntual

ˆ A un estimador del par´metro θ se le denota regularmente por θ (se lee “teta a circunflejo”). Observe que un estimador puntual es una estad´ ıstica y puede escriˆ ˆ birse como θ = θ(X1 , . . . , Xn ). Veremos a continuaci´n dos m´todos para encontrar o e estimadores puntuales. ´ M´todo de maxima verosimilitud. Sea X1 , . . . , Xn una muestra aleatoria de e una poblaci´n con funci´n de densidad f (x; θ). Esto significa que todas las variao o bles de la muestra aleatoria tienen funci´n de densidad f (x) que depende de un o par´metro desconocido θ. a Definici´n. La funci´n de verosimilitud de una muestra aleatoria X1 , . . . , Xn , o o denotada por L(θ), se define como la funci´n de densidad conjunta o L(θ) = fX1 ,...,Xn (x1 , . . . , xn ; θ).

La letra L proviene del t´rmino en ingl´s likelihood, que tradicionalmente se ha trae e ducido como verosimilitud, aunque tal vez el t´rmino credibilidad sea m´s acertado. e a El m´todo de m´xima verosimilitud consiste en obtener el valor de θ que maximice e a la funci´n de verosimilitud L(θ), la idea intuitiva es interesante: se debe encontrar o el valor de θ de tal forma que los datos observados tengan m´xima probabilidad a de ocurrir. El valor de θ en donde se alcanza el m´ximo se llama estimador de a m´xima verosimilitud, o estimador m´ximo veros´mil. Ilustraremos este m´todo a a ı e con algunos ejemplos. Ejemplo. Encontraremos el estimador m´ximo veros´ a ımil para el par´metro λ de a una distribuci´n exponencial. La funci´n de verosimilitud es o o L(λ) = = = fX1 (x1 ) · · · fXn (xn ) λ e−λx1 · · · λ e−λxn
x λn e−λn¯

Maximizar la funci´n L(λ) es equivalente a maximizar la funci´n ln L(λ), pues la o o funci´n logaritmo es continua y mon´tona creciente en su dominio de definici´n. o o o Hacemos esto pues esta nueva funci´n resulta m´s f´cil de maximizar como vereo a a mos a continuaci´n. Tenemos que ln L(λ) = n ln λ − λn¯. Derivando respecto a λ e o x igualando a cero se llega a la ecuaci´n n/λ − n¯ = 0, de donde se obtiene λ = 1/¯. o x x ˆ ¯ El estimador es entonces λ = 1/X.

σ 2 ) = ∂µ ∂ ln L(µ. ESTAD´ ISTICA 91 Ejemplo. = 0. n i=1 (xi − µ)2 n 1 1 De estas ecuaciones se obtiene µ = n i=1 xi . σ 2 ) = − ln(2πσ 2 ) − 2 (xi − µ)2 . e a ˆ ˆ ˆ M´todo de momentos. y σ 2 = n i=1 (Xi − µ)2 . σ 2 ) = = = fX1 (x1 ) · · · fXn (xn ) 2 2 2 2 1 1 √ e−(x1 −µ) /2σ · · · √ e−(xn −µ) /2σ 2 2 2πσ 2πσ n 1 1 − 2σ2 (xi −µ)2 i=1 (√ )n e . Recordemos que a el k-´simo momento poblacional de X es el n´ mero E(X k ). Encontraremos los estimadores de m´xima verosimilitud para los par´mea a tros µ y σ 2 de una distribuci´n normal. n i=1 n 1 − 2+ 4 2σ 2σ (xi − µ)2 . 2 2σ i=1 Por lo tanto ∂ ln L(µ. Tenemos o a que n n 1 ln L(µ. Igualando a cero ambas derivadas encontramos un sistema de dos ecuaciones con dos variables: 1 σ2 − n 1 + 4 2 2σ 2σ n i=1 n (xi − µ) = 0. σ 2 ) = ∂σ 2 1 σ2 n i=1 (xi − µ). cuando esta esperanza e u .Parte 2. Por definici´n la funci´n de verosimilitud o o o es L(µ. θ) la funci´n de densidad de una e o variable aleatoria X que depende de un par´metro desconocido θ. Sea nuevamente f (x. y σ 2 = n i=1 (xi − µ)2 . 2πσ 2 Nuevamente el logaritmo de esta funci´n es m´s sencillo de maximizar. Por lo ˆ 2 tanto los estimadores para los par´metros µ y σ de una distribuci´n normal por a o n n 1 1 el m´todo de m´xima verosimilitud son µ = n i=1 Xi .

en promedio. y resolver esta ecuaci´n o o sistema de ecuaciones para el par´metro θ cuando ello sea posible. Un estimador θ del par´metro θ es insesgado si E(θ) = θ. se deo n 1 e fine el k-´simo momento muestral como n i=1 Xik . respectivamente. Veamos algunos a ejemplos. i i=1 La primera ecuaci´n es expl´ o ıcita mientras que la segunda ecuaci´n se puede reeso cribir como sigue σ2 = 1 n n i=1 x2 − µ2 = i 1 n n i=1 x2 − ( i 1 n n xi )2 = i=1 1 n n i=1 (xi − µ)2 . ıa ˆ ˆ Definici´n. .92 ´ 2. Ejemplo. . Estimacion puntual existe. Como necesitamos estimar dos e par´metros usamos los dos primeros momentos. . El primer y segundo momento muestrales son n xi y n x2 . Siendo un estimador θ una variable aleatoria que se utiliza para ˆ estimar el par´metro θ. El m´todo de momentos para e estimar el par´metro θ es muy sencillo. Ahora. entonces se dice que es sesgado. Xn de esta distribuci´n. y a la diferencia E(θ) − θ se ˆ es un estimador insesgado le llama sesgo. el valor de θ coincide con el valor a . De esta forma. . Esta a ser´ una buena propiedad para un estimador. La igualaci´n o i=1 i=1 i respectiva produce el sistema de ecuaciones µ = σ2 + µ = 1 n 1 n n xi . un estimador puntual θ ˆ para el par´metro desconocido θ si. respectivamente. ˆ Insesgamiento. El primer y segundo momento a poblacionales son E(X) = µ y E(X 2 ) = σ 2 + µ2 . o a ˆ ˆ Si θ no es insesgado. i=1 n x2 . dada una muestra aleatoria X1 . consiste en igualar los momentos muesa trales con los correspondientes momentos poblacionales. Nuevamente estimaremos los par´metros µ y σ 2 de una distribuci´n nora o mal. Esta vez usaremos el m´todo de momentos.5. En este caso los estimadores por el m´todo de momentos coinciden con los estimae dores m´ximo veros´ a ımiles. es interesante saber si el valor promedio de θ es θ.

En este caso el estimador es i=1 S 2 y el par´metro desconocido a estimar es σ 2 . y µ es el par´metro a a desconocido θ. 1 ¯ E(ˆ) = E(X) = E( µ n n Xi ) = i=1 1 n n E(Xi ) = i=1 1 n n µ = µ. Sea X1 . que dicho intervalo contiene el verdadero valor del par´metro desconocido. Sea X1 . . con cierto grado de confiabilidad. Observe que X es el estimador θ. En este tipo de estimaci´n se busca o a o un intervalo de tal forma que se pueda decir. ESTAD´ ISTICA 93 desconocido de θ. . . Recordemos que la varianza muestral es una estad´ ıstica definida 1 ¯ de la forma siguiente: S 2 = n−1 n (Xi − X)2 . 2. Observe en los siguientes ejemplos la forma en la que se verifica la propiedad de insesgamiento a´ n cuando no se conozca el valor del par´metro θ. si i = j.Parte 2. .6. i=1 Ejemplo. . u a Ejemplo. lo unico que hay que hacer es desarrollar el cuadrado. Xn una muestra aleatoria de una poblaci´n con varianza o desconocida σ 2 . Esta estad´ a ıstica resulta ser un estimador insesgado para la varianza σ 2 . Comprobaremos que la media muestral X = n i=1 Xi es un estimador ˆ ¯ insesgado para el par´metro µ. o ´ usar la propiedad de linealidad de la esperanza y observar que E(Xi Xj ) = µ2 σ +µ 2 2 si i = j. . . Comprobar esta afirmaci´n requiere de o algunos c´lculos que por cuesti´n de espacio omitimos. Estimaci´n por intervalos o En algunos casos es preferible no dar un n´ mero como estimaci´n de un par´metro u o a sino un intervalo de posibles valores. . de modo que se deja al a o lector tal comprobabci´n. Por la propiedad lineal de la esperanza. A este tipo a de intervalos se les llama intervalos de confianza. . En esta secci´n se estudia brevemente el tema o de estimaci´n de par´metros usando intervalos. Xn una muestra aleatoria de una poblaci´n con media descoo n 1 ¯ nocida µ.

. es cercano a 1. Naturalmente el problema es encontrar θ1 ˆ2 de tal forma que la igualdad (2. En general. en donde θ1 y θ2 son estad´ ısticas (funciones de una muestra aleatoria) tales que ˆ ˆ P (θ1 < θ < θ2 ) = 1 − α.2. Xn . y el intervalo es el ˆ que cambia dependiendo de la muestra. se dice a ˆ ˆ “la probabilidad de que el intervalo (θ1 . de modo que al tomar estas variables aleatorias distintos valores se generan distintos intervalos de confianza.6. θ Figura 2. 1 − α. . Decimos entonces que ˆ ˆ el grado de confianza es del 95 %. En cambio. θ2 ) contenga el valor de θ es 1 − α”.1) se cumpla. Al n´ mero 1 − α se le conoce como grado o u coeficiente de confianza. θ2 ). Observe que las estad´ ısticas θ1 y θ2 dependen de una muestra aleatoria X1 . pues el par´metro no es el elemento aleatorio.1) ˆ ˆ A las estad´ ısticas θ1 y θ2 se les conoce como l´mites inferior y superior.2: Observe que no es correcto decir “la probabilidad de que θ pertenezca al intervalo ˆ ˆ (θ1 . respecı tivamente. ´ Intervalo para la media de una distribucion normal con varianza co- . En la pr´ctica es com´ n tomar a u α =0. De esta forma se entiende que θ es constante. de modo que el grado de confianza es 1 − α =0.95 . aunque desconocido. 1). se toma el valor de α cercano a 0 de tal forma que el grado de confianza. Esto se ilustra en la Figura 2. .94 ´ 2. Estimacion por intervalos Definici´n. del intervalo de confianza. θ2 ) es 1 − α”. Sea α ∈ (0. Un intervalo de confianza para un par´metro deso a conocido θ de una distribuci´n de probabilidad es un intervalo aleatorio de la o ˆ ˆ ˆ ˆ forma (θ1 . . (2.05. A continuaci´n mostraremos la yθ o forma de resolver este problema en algunos casos particulares.

Xn una muestra aleatoria de una poblaci´n normal con media o desconocida µ y varianza conocida σ 2 . Un intervalo de confianza para la media µ de una distribuci´n o o normal con varianza conocida σ 2 est´ dado por la siguiente expresi´n a o σ σ ¯ ¯ P ( X − zα/2 √ < µ < X + zα/2 √ ) = 1 − α. . σ/ n Para cualquier valor de α ∈ (0. . σ 2 ). 1). la media muestral X = n i=1 Xi tiene distribuci´n N(µ. n n (2. Como cada una de las variables de la muestra tiene distribuci´n a o n 1 ¯ N(µ. ESTAD´ ISTICA 95 nocida. o o . tal que a e P ( −zα/2 < ¯ X −µ √ < zα/2 ) = 1 − α. el intervalo (X − zα/2 √n . . 1) podemos encontrar un valor zα/2 en tablas de probabilidad normal est´ndar. σ 2 /n). Ilustraremos la aplicaci´n de esta f´rmula mediante un ejemplo. ¯ X −µ √ ∼ N(0. .2) σ σ ¯ ¯ De esta forma. De moo do que. X + zα/2 √n ) es un intervalo de confianza para el par´metro desconocido µ. Proposici´n. Sea X1 .3.3: Despejando la constante desconocida µ se obtiene el siguiente resultado. Observe que todas las expresiones que aparecen en este intervalo son conocidas. v´ase la Figura 2. Encontraremos un intervalo de confianza para el par´metro µ. pues contiene a dicho par´metro con probabilia a dad 1 − α. estandarizando. σ/ n f (x) 1−α α/2 α/2 x −zα/2 zα/2 Figura 2.Parte 2.

852. x + zα/2 √ ) x ¯ n n 30 30 = (1050 − 1.96 √ . con una confianza del 95 %. Estimacion por intervalos Ejemplo. El resultado te´rico fundamental o en la siguiente derivaci´n es que la variable aleatoria o ¯ X −µ √ . e Ejercicio. Compruebe que la longitud del intervalo aleatorio que aparece en (2. ´ Intervalo para la media de una distribucion normal con varianza desconocida.2) es √ n 2zα/2 σ/ n. . . . Observe que la longitud del intervalo decrece conforme el tama˜ o de la muestra crece. de la tabla de probabilidad normal se encuentra que zα/2 = z0. . Sea X1 . es decir. T = S/ n tiene una distribuci´n t con n − 1 grados de libertad. . α =0. si 1 − α aumenta. Ejercicio. y entonces puede ahora calcularse el intervalo σ σ (¯ − zα/2 √ . Los resultados x1 . Observe que esta es la diso tribuci´n exacta de la variable T . la vida promedio util de este tipo de ´ focos es de 1050 ± 13.148 horas. medida en horas. x20 ´ arrojan una media muestral x de 1050 horas. es decir. Suponga que la vida promedio util.96 × √ ) 20 20 = (1050 − 13. aleatoria con distribuci´n normal de media µ y varianza σ 2 . De esta forma. 1063. . a entonces zα/2 crece (v´ase la Figura 2. Si consideramos un nivel de confianza ¯ del 95 %. Xn una muestra aleatoria de una distribuci´n normal con o media desconocida µ y varianza desconocida σ 2 . de focos de 100 ´ watts producidos por cierta compa˜´ puede ser modelada mediante una variable nıa. Adem´s. si la confianza requerida crece. 1050 + 1. 1050 + 13.148. boratorio se determina la vida util de cada uno de ellos.96 ´ 2.025 =1.148). y por lo tanto la longitud del intervalo e tambi´n crece. sin importar el tama˜ o de la muestra y sobre o n .6.3).148) = (1036.05. Suponga que la deso viaci´n est´ndar σ es conocida y es igual a 30 horas. El objetivo es encontrar un o a intervalo de confianza para la vida promedio util µ de los focos producidos por esta ´ compa˜´ Para ello se toma una muestra de 20 focos y mediante pruebas de lanıa. . Encuentre un intervalo de confianza al 90 % para la media de una poblaci´n normal con σ = 5 cuando se ha tomado una muestra de tama˜ o 25 cuya o n media muestral es 60.96. .

Un intervalo de confianza para la media µ de una distribuci´n o o normal est´ dado por la siguiente expresi´n a o S S ¯ ¯ P ( X − tα/2 √ < µ < X + tα/2 √ ) = 1 − α. el intervalo ( X − tα/2 √n . a veces se escribe tα/2. sin suponer que la varianza de la muestra es conocida. n . Supongamos que el tama˜ o n de la muestra es grande.4: Despejando la constante desconocida µ de la ecuaci´n anterior se obtiene el siguieno te resultado. Proposici´n. Xn una muestra aleatoria de una distribuci´n cualquiera con media o desconocida µ.Parte 2.n−1 . .4) tal que e P ( −tα/2 < ¯ X −µ √ < tα/2 ) = 1 − α. . . . ´ Intervalo aproximado para la media de una distribucion cualquiera. Para cualquier valor de α ∈ (0. n n (2. i. X + tα/2 √n ) es un intervalo de confianza para la media µ de una poblaci´n normal sin suponer la varianza conocida. n ≥ 30.e.3) S S ¯ ¯ De este modo. No es o expl´ ıcito en la notaci´n pero el valor tα/2 corresponde a la distribuci´n t con n − 1 o o grados de libertad. 1) a podemos encontrar un valor tα/2 en tablas de probabilidad de la distribuci´n t de o n − 1 grados de libertad (v´ase la Figura 2. S/ n f (x) −α/2 α/2 x −tα/2 tα/2 Figura 2. Sea X1 . A partir de lo anterior podemos construir un intervalo de confianza para el par´metro desconocido µ de a forma an´loga al caso normal mencionado antes. ESTAD´ ISTICA 97 todo.

n−1 S √ n ) = 1 − α. n n S S ¯ ¯ De esta forma.n−1 S √ n ¯ < µ < X + tα/2.6. Hip´tesis o Distribuci´n normal con o varianza σ 2 conocida Intervalo para la media µ ¯ P ( X − zα/2 σ √ n ¯ < µ < X + zα/2 σ √ n ) = 1 − α.98 ´ 2. n ≥ 30 ¯ P ( X − zα/2 Intervalo aproximado: S S ¯ √ < µ < X + zα/2 √ ) = 1 − α. n n . Estimacion por intervalos Entonces. 1) podemos encontrar un valor zα/2 en tablas de probabilidad normal est´ndar tal que a P ( −zα/2 < ¯ X −µ √ < zα/2 ) = 1 − α. por el teorema central del l´ ımite. la variable aleatoria Z= ¯ X −µ √ . Cualquier distribuci´n o Muestra grande. Distribuci´n normal con o varianza σ 2 desconocida ¯ P ( X − tα/2. el intervalo (X − zα/2 √n . S/ n tiene una distribuci´n aproximada normal est´ndar. Observe nuevamente que todas las expresiones que aparecen en este intervalo son conocidas. A manera de resumen se tiene la siguiente tabla. Para cualquier valor de α ∈ (0. Se puede encontrar un intero a valo aproximado de confianza para el par´metro desconocido µ siguiendo el procea dimiento antes realizado. S/ n Despejando nuevamente la constante desconocida µse obtiene S S ¯ ¯ P ( X − zα/2 √ < µ < X + zα/2 √ ) = 1 − α. X + zα/2 √n ) es un intervalo de confianza aproximado para el par´metro desconocido µ pues contiene a dicho par´metro con a a probabilidad 1 − α.

pero el resultado bien pudo provenir del dado. Si ω = 6. Suponga que unicamente conocemos el resultado de uno ´ u otro experimento. 4. ESTAD´ ISTICA 99 2. 5. Como informaci´n se tiene un n´ mero dentro del conjunto Ω = {0.Parte 2. De esta forma se llega a la siguiente regla de decisi´n: o Si ω ∈ C = {0. 2. si ω = 1. o a Si ω = 2. o u Veamos la situaci´n. Considere una o situaci´n en la que se efect´ a s´lo uno de los siguientes dos experimentos aleatorios: o u o En uno de ellos se lanza un dado. se decide por las monedas. entonces seguro se realiz´ el o u o experimento de las monedas. Tenemos entonces una situaci´n de dos o u o hip´tesis o H0 : Dado vs H1 : Monedas.7. 2. en caso contrario se acepta H0 . Por razones naturales al conjunto C se le llama regi´n del rechazo de la hip´tesis o o H0 . y se nos pide determinar cu´l de los dos experimentos se a realiz´ con base en el n´ mero reportado. suponiendo que los lados de cada moneda u se denominan cara o cruz. se decide por el dado pero es factible que el resultado haya sido obtenido por las monedas. Error tipo II: No rechazar H0 cuando H0 es falsa. 6}. sin embargo no est´ libre de errores. . Se tiene entonces las siguientes definiciones: Error tipo I: Rechazar H0 cuando H0 es verdadera. entonces se rechaza H0 . entonces con seguridad el dado fue lanzado. 3}. Si el n´ mero reportado ω es 0. ¿Qu´ decisi´n tomar para cualquier otro valor de ω? En la siguiente tabla se e o muestran las probabilidades de los posibles n´ meros reportados bajo cada uno de u los dos experimentos. Estas probabilidades mayores se encuentran indicadas con un asterisco en la tabla anterior. Pruebas de hip´tesis o Ilustraremos la idea de una prueba de hip´tesis con un ejemplo. 3. La regla de decisi´n anterior es razonable. 1. Igualmente. en el otro se lanzan cinco monedas y se cuenta el n´ mero de cruces totales que se obtienen. ω H0 : Dado H1 : Monedas 0 0 ∗ 1/32 1 ∗ 1/6 5/32 2 1/6 ∗ 10/32 3 1/6 ∗ 10/32 4 ∗ 1/6 5/32 5 ∗ 1/6 1/32 6 ∗ 1/6 0 La estrategia natural es decidir por el experimento que tenga mayor probabilidad para cada valor de ω.

Si X tiene una distribuci´n N(µ. si X tiene una distribuci´n exp(λ). o . σ 2 ). En general. o Vamos ahora a estudiar pruebas de hip´tesis en el contexto de la estimaci´n de o o par´metros en las distribuciones de probabilidad. decimos o o que una hip´tesis estad´ o ıstica es compuesta cuando no especifica por completo la distribuci´n de probabilidad en cuesti´n. Si X tiene una distribuci´n χ2 (n). p). 3} | “Se us´ el dado”) o 0 + 1/6 + 1/6 = 1/3. 1). o Por ejemplo. Una hip´tesis es simple si especifica por completo la distribuci´n de probabilidad o o en cuesti´n. o o cambian las probabilidades de los errores. Si X tiene una distribuci´n N(µ.7. a Definici´n. o o entonces “n = 5” es otro ejemplo de una hip´tesis compuesta. Naturalmente. Por ejemplo. contraso taremos dos hip´tesis de acuerdo al siguiente esquema y notaci´n: o o H0 : (hip´tesis nula) o vs H1 : (hip´tesis alternativa). En un problema de decisi´n de este o tipo se busca encontrar una regla de decisi´n razonable que tenga errores menores. 4. P (“Error tipo II”) = P (“No rechazar H0 ” | “H0 es falsa”) = P (ω ∈ C | “H0 es falsa”) / P (“Rechazar H0 ” | “H0 es verdadera”) P (ω ∈ C | “H0 es verdadera”) P (ω ∈ {0. P (“Error tipo I”) = = = = Por otro lado. entonces la afirmaci´n “p =0. o o o entonces “λ > 20” es una hip´tesis compuesta. 5. entonces la afirmao o ci´n “λ = 5” es una hip´tesis simple. 2. En contraste. entonces o o o la afirmaci´n “µ = 0” es otro ejemplo de hip´tesis simple. Si X tiene una distribuci´n Poisson(λ). 6} | “Se usaron las monedas”) = 5/32 + 5/32 + 1/32 + 0 = 11/32.100 ´ 2. Pruebas de hipotesis Las probabilidades de estos errores pueden ser calculadas del siguiente modo.2” o o es una hip´tesis. = P (ω ∈ {1. Una hip´tesis estad´stica o simplemente hip´tesis es una afirmaci´n o o ı o o o conjetura acerca de la distribuci´n de una o mas variables aleatorias. si X tiene una distribuci´n bin(n. si se cambia la regla de decisi´n cambiando la regi´n de rechazo. entonces la afirmaci´n “µ > o o o 0” es otro ejemplo de hip´tesis estad´ o ıstica.

Se le llama regi´n cr´tica a la regi´n de rechazo de H0 . Estas definiciones de errores se resumen en la siguiente tabla. ESTAD´ ISTICA 101 Tanto la hip´tesis nula (H0 ) como la hip´tesis alternativa (H1 ) pueden ser simple o o o compuesta. De este modo tenemos cuatro diferentes tipos de contraste de hip´teo sis: simple vs simple. . . al tomar una decisi´n de este tipo se corre el riesgo de cometer o errores. y a la probabilidad de cometer este primer tipo de error se le denota por la letra α. e Definici´n. compuesta vs simple. y a la o o ı o probabilidad de cometer el error tipo I. . sino simplemente que es consistente con e los datos de la muestra aleatoria. En cambio.Parte 2. Una prueba de hip´tesis es una regla para decidir si se acepta la o o hip´tesis nula o se rechaza en favor de la hip´tesis alternativa. se le llama tama˜o de la n regi´n cr´tica. A esta probabilidad se le conoce tambi´n con el nombre de nivel o ı e de significancia. H0 cierta Eror tipo I con probabilidad α H0 falsa Rechazar H0 Decisi´n correcta o No rechazar H0 Decisi´n correcta o Error tipo II con probabilidad β La informaci´n para obtener una regla de decisi´n que nos lleve a rechazar o no o o rechazar un hip´tesis estad´ o ıstica provendr´ de una muestra aleatoria X1 . y a la probabilidad de cometer este segundo tipo de error se le denota por la letra β. y compuesta vs compuesta. simple vs compuesta. Si la muestra cambia. Al rechazo de la hip´tesis nula cuando ´sta es verdadera se le conoce como o e error tipo I. Xn de a la distribuci´n de que se trate. posiblemente la decisi´n o de rechazar o no rechazar tambi´n. Definici´n. . a la aceptaci´n de la hip´tesis nula cuando ´sta es falsa o o e recibe el nombre de error tipo II. o o Como sabemos. esto es α. . Observe adem´s que al aceptar una hip´tesis no se o a o afirma que ´sta sea absolutamente cierta.

Este valor e zα/2 es precisamente la constante k buscada pues con ello se logra que la regi´n de o rechazo sea de tama˜ o α. un esσ/ n timador de µ. y su valor esperado µ0 cuando H0 es cierta. 1). ¿C´mo encontrao o mos el n´ mero k? En una tabla de la distribuci´n normal podemos encontrar un u o valor zα/2 tal que P (|Z| ≥ zα/2 ) = α. y la prueba se ı denomina prueba de dos colas pues la regi´n de rechazo consta de las dos colas de o la distribuci´n normal que se muestran en la Figura 2. tenemos que X ∼ N (µ0 . Sabemos que X tiene distribuci´n N(µ. . en caso contrario no se rechaza H0 . o si |Z| ≥ zα/2 . Xn una muestra aleatoria de una poblaci´n normal con media desconocida µ y varianza o ¯ conocida σ 2 . o o ´ Prueba acerca de la media de una distribucion normal. Cuando ¯ H0 es cierta. entonces se rechaza H0 . . Sea X1 . Xn . cuando µ es efectivamente µ0 .5. Por lo tanto o ¯ X −µ √ ∼ N (0. en donde α lo determina la persona que lleva a cabo la prueba de hip´tesis.1 . . σ/ n µ1 = µ0 . Llevar a cabo esta prueba o de hip´tesis consiste en usar los datos de la muestra para encontrar el valor de Z. .7.102 ´ 2. t´ o ıpicamente α = 0. σ 2 /n). n A la variable aleatoria Z se le llama la estad´stica de la prueba. 1). Es por ello que tomamos como criterio de decisi´n rechazar H0 cuando |Z| ≥ k. Es entonces razonable rechazar H0 cuando la variable Z sea grande. En la siguiente tabla se muestra resumida la informaci´n de esta prueba. El problema es encontrar una regla para decidir cu´ndo a rechazar H0 en favor de H1 con base en los datos de la muestra X1 .5. σ 2 /n) y por lo tanto ¯ X − µ0 √ ∼ N (0. Deseamos contrastar las hip´tesis H0 : µ = µ0 u o contra H1 : µ = µ0 . . o Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o Error tipo I: Error tipo II: H0 : µ = µ0 vs H1 : µ = µ0 ¯ √0 Z = X−µn σ/ |Z| ≥ zα/2 α √ Φ(zα/2 + µ0 −µ1 ) − Φ(−zα/2 + σ/ n µ0 −µ1 √ ). V´ase la Figura 2. para cierta constante k. . . . . σ/ n ¯ ¯ √ La estad´ ıstica Z = X−µ0 es una medida natural de la distancia entre X. Pruebas de hipotesis Nos limitaremos a mostrar la forma en la que se deriva la regla para llevar a cabo una prueba de hip´tesis acerca de la media de una distribuci´n normal. σ/ n Sea µ0 un n´ mero real particular. esto es.

¿Debe cambiar el consumo promedio mensual para calcular los pagos o permanecer igual? Suponga σ = 2000. 23935. 18325. 13292. 25073. 19162. Para verificar que si tal cantidad ha cambiado se han medido los consumos mensuales de 15 casas obteni´ndose los siguientes resultados: 23456. 17421. 19095. 22371. En ciertas zonas de la ciudad se calcula el pago por el consumo de agua suponiendo un consumo promedio de 20. 20320. . Calcularemos la probabilidad del u error tipo II dado que el verdadero valor de µ es µ1 .Parte 2. Φ(zα/2 + σ/ n σ/ n Ejercicio.000 litros mensuales. Sea µ1 cualquier n´ mero tal que µ1 = µ0 . 21982. 22601.5: Vamos a comprobar la f´rmula que aparece en la tabla anterior acerca del error o tipo II. β(µ1 ) = = = = = = P ( “No rechazar H0 cuando µ = µ1 ” ) P ( |Z| < zα/2 | µ = µ1 ) ¯ X − µ0 √ | < zα/2 | µ = µ1 ) P(| σ/ n σ σ ¯ P ( µ0 − zα/2 √ < X < µ0 + zα/2 √ | µ = µ1 ) n n ¯ µ0 − µ1 X − µ1 µ0 − µ1 √ < √ < zα/2 + √ ) P ( −zα/2 + σ/ n σ/ n σ/ n µ0 − µ1 µ0 − µ1 √ ) − Φ(−zα/2 + √ ). ESTAD´ ISTICA 103 f (x) α/2 α/2 x −zα/2 zα/2 Regi´n de rechazo o Figura 2. 21442. e 20930. 18788.

6. µ1 < µ0 f (x) α x −zα Regi´n de rechazo o Figura 2.6: Las caracter´ ısticas de la prueba H0 : µ = µ0 contra H1 : µ > µ0 llamada prueba de cola superior se muestran en la siguiente tabla.104 ´ 2. Se rechaza la hip´tesis H0 s´lo cuando la muestra provee evidencia o o ¯ de que X se encuentra muy a la derecha de µ0 . Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o Error tipo I: Error tipo II: H0 : µ = µ0 ¯ √0 Z = X−µn σ/ Z ≤ −zα α 1 − Φ −zα + vs H1 : µ < µ0 µ0 −µ1 √ σ/ n .7. (prueba de cola superior) α Φ zα + µ0 −µ1 √ σ/ n .Error tipo I: σ/ Error tipo II: H0 : µ = µ0 vs H1 : µ > µ0 ¯ √0 Z = X−µn σ/ Z ≥ zα . . µ1 > µ0 . Se rechaza la hip´tesis H0 o o ¯ s´lo cuando los datos de la muestra son tales que X se encuentra muy a la izquierda o de µ0 . Pruebas de hipotesis Puede tambi´n considerarse la prueba H0 : µ = µ0 contra H1 : µ < µ0 llamada e prueba de cola inferior pues la regi´n de rechazo consta de la cola izquierda de la o distribuci´n normal como se muestra en la Figura 2. y la regi´n de rechazo se presenta en o la Figura 2.7. Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o ¯ √0 en donde Z = X−µn .

7: . ESTAD´ ISTICA 105 f (x) α zα Regi´n de rechazo o x Figura 2.Parte 2.

Pruebas de hipotesis .7.106 ´ 2.

1}. Proponga dos espacios muestrales para este experimento. Determine un espacio muestral para cada uno de los siguientes experimentos aleatorios. 2. c) Ω = {0. d ) Registrar el n´ mero de llamadas telef´nicas que llegan a un conmutador u o en un minuto dado. e) Colocar al azar dos bolas distinguibles en cuatro celdas numeradas. . f ) Colocar al azar dos bolas indistinguibles en cuatro celdas numeradas. 3.}. a) Lanzar una moneda tres veces. a) Ω = {0. b) Lanzar a un mismo tiempo tres monedas indistinguibles. Determine un experimento aleatorio para los siguientes espacios muestrales. 107 . g) Observar el marcador final de un juego de f´ tbol soccer. u 2. . . Un experimento aleatorio consiste en lanzar un dado hasta que se obtiene un “6”. ∞). b) Ω = [0. 1] y despu´s u e elevarlo al cuadrado. c) Escoger un n´ mero real al azar dentro del intervalo [−1. 1.Ap´ndice A e Ejercicios Espacio muestral y eventos 1.

Demuestre que A ∪ B = B ∪ (A ∩ B c ). e . Demuestre las leyes de De Morgan: a) (A ∪ B)c = Ac ∩ B c . Demuestre que a) A ∩ (B − C) = (A ∩ B) − (A ∩ C). 14. Demuestre que A ∩ B = A ∩ (B ∪ Ac ). 10. Demuestre que A = (A ∩ B) ∪ (A ∩ B c ). b) A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C). 15. 11. 5. b) (A − C) ∩ (B − C) = (A ∩ B) − C. b) (A ∩ B)c = Ac ∪ B c . 8. b) A△B = (A ∪ B) − (A ∩ B). 13. 9. b) A − B = (A ∪ B) − B. Demuestre las leyes distributivas: a) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C). Demuestre que las siguientes dos definiciones de la operaci´n diferencia sim´trio e ca son equivalentes. Demuestre que A ∪ B = A ∪ (B ∩ Ac ). 6. o 7. Compruebe gr´ficamente las siguientes propiedades b´sicas de la diferencia a a sim´trica. 12. Para la demostraci´n use la validez del mismo resultado para dos conjuntos. Enuncie y demuestre las leyes de De Morgan para tres conjuntos. a) A△B = (A − B) ∪ (B − A). Demuestre que A ∩ B = B ∩ (A ∪ B c ). Demuestre que a) A − B = A − (A ∩ B).108 Operaciones con conjuntos 4.

¿Cu´ntos puntos en com´ n tienen? a u 24. A ∪ B. Sean A = {(x. el reto consiste en encontrar una o justificaci´n matem´tica de ello. y) : y = 1 − x} ajenos? En caso negativo. Muestre gr´ficamente a los conjuntos A. y el 50 % son formales. y) ∈ R2 : 2x2 + 3y 2 ≤ 6} y B = {(x. ¿Cu´ntas igualdades son necesarias verificar en general para comprobar que a n conjuntos son ajenos dos a dos? . Intuitivamente la afirmaci´n es evidente. Si el 70 % de los hombres son feos. A − B. e) A△Ac = Ω. B − A y A△B. B − A y A△B. sensibles y sinceras? Conjuntos ajenos 22. A ∩ B. A − B. el 80 % son sensibles. Si el 90 % de las mujeres son bonitas. 20. Sean A = {(x.´ Apendice A. B − A y A△B. a fuertes y formales? 21. Ac . Ejercicios a) A△(B△C) = (A△B)△C. A ∩ B. 109 16. Muestre gr´ficamente los conjuntos A. 18. a 17. B. A ∪ B. y) ∈ R2 : y > x2 }. A − B. b) A△∅ = A. Ac . y) ∈ R2 : x2 + y 2 ≤ 1} y B = {(x. y) : y = e−x } y {(x. Muestre gr´ficamente los conjuntos Ac . B − A y a A△B. ¿Son los conjuntos {(x. a 19. Ellos. ¿Cu´l es el m´ a ınimo y el m´ximo posibles de hombres que son feos. B c . A ∪ B. Compruebe que los conjuntos A y B − A son siempre ajenos. B c . y sea A1 ⊆ A. Muestre gr´ficamente los conjuntos Ac . A ∩ B. A ∩ B. d ) A△A = ∅. ¿Cu´l es el m´ a ınimo y el m´ximo posibles de mujeres que son a bonitas. Sean A = {x ∈ R : |x − 2| ≤ 4} y B = {x ∈ R : |x − 1| > 2}. c) A△Ω = Ac . el 60 % son fuertes. o a 25. y el 70 % son sinceras. B. Sean A = {x ∈ R : |x+1| ≤ 2} y B = {x ∈ R : x2 > 2}. 23. Compruebe que A1 y B son ajenos. B c . Ellas. A − B. Sean A y B ajenos. y) ∈ R2 : y > −x2 }. A ∪ B. B c .

sin usar P (Ω) = 1. Escriba expl´ ıcitamente a los elementos del producto Cartesiano A × B × C. Sea Ω = {a. Demuestre que P (A△B) = P (A)+P (B)−2P (A∩B). Demuestre que P (A ∩ B) ≥ P (A) + P (B) − 1. c}. 1]. Demuestre que si A ⊆ B. Esta es la probabilidad de que suceda exactamente uno de los eventos A y B. b2 . ¿Qui´n es 2∅ ? e 27. Compruebe que la definici´n de probabilidad frecuentista cumple con los tres o axiomas de la probabilidad. Sean A y B eventos ajenos tales que P (A) =0. 29. Demuestre que P (∅) = 0. 31. Demuestre que 0 ≤ P (A ∩ B) ≤ P (A) ≤ P (A ∪ B) ≤ P (A) + P (B) ≤ 2. para cualesquiera eventos A y B. 39. 38. Sea α un n´ mero real en el intervalo [0.3 y P (B) =0. Demuestre que P (B − A) = P (B) − P (A ∩ B). Sean A = {a1 . 37. Demuestre que P (Ac ∩ B c ) = 1 − P (A) − P (B) + P (A ∩ B). 32. 34. b. 33. 36. Escriba expl´ ıcitamente al conjunto Ω × Ω. a2 }. B = {b1 .110 Conjunto potencia 26. Compruebe que la definici´n de probabilidad cl´sica cumple con los tres axioo a mas de la probabilidad. 35.2. Probabilidad 30. entonces 2A ⊆ 2B . c2 }. Encuentre . Producto Cartesiano 28. Demuestre que u P = αP1 + (1 − α)P2 satisface los tres axiomas de la probabilidad. Sean P1 y P2 dos medidas de probabilidad definidas sobre la misma clase de subconjuntos de Ω. b3 } y C = {c1 .

Diga falso o verdadero. c) Si P (A) > 1/2 y P (B) > 1/2. entonces A ⊆ B. c) P (Ac ∩ B). entonces P (A ∪ B) > 0. 42. b) P (Ac ).´ Apendice A. entonces P (A ∩ B) > 0. Justifique en cada caso. 111 d ) P (A ∩ B c ). b) Si P (A) = P (B). Ejercicios a) P (A ∪ B). c) Si P (A) ≤ P (B). b) Si P (A) > 0. entonces A = B. An´lisis combinatorio a 44. Justifique en cada caso. entonces P (Ac ) > 0. Justifique en cada caso. a) P (B − A) = P (B) − P (A). entonces P (A ∩ B) = 0. entonces P (A ∩ B) > 0. 40. a) Si P (A) = 0. c) Si P (A) > 1/2. ¿De cu´ntas formas distintas pueden seis personas formarse en una fila lineal? a 45. La probabilidad de un cierto evento es tal que duplica la probabilidad de su complemento. 46. Demuestre que la probabilidad de que los vol´ menes queden colocados u apropiadamente de derecha a izquierda o de izquierda a derecha es de 1/60. Una enciclopedia de 5 vol´ menes es colocada en el librero de modo aleatou rio. Diga falso o verdadero. 43. Diga falso o verdadero. d ) Si P (A) > 0. 41. ¿Cu´ntas diagonales se pueden trazar en un pol´ a ıgono convexo de n lados? . ¿Cu´nto vale la probabilidad de este evento? a b) P (A ∩ B) = P (A)P (B). entonces P (Ac ) < 1/2. a) Si P (A) > 0. e) P (A△B).

. Demuestre que n k n k = = n−k+1 k n n−k = n k−1 . Debido a un error. Encuentre el total de n´ meros enteros de cuatro d´ u ıgitos sin repetici´n. Calcule la probabilidad de que en un conjunto de n personas.112 47. a n−1 k−1 54. Demuestre que 51. ¿Cu´ntos n´ meros binarios diferentes se pueden obtener al usar los siete d´ a u ıgitos 1010101 ? 56. n al menos dos de ellas tengan la misma fecha de cumplea˜ os. ¿Cu´ntos enteros positivos de a lo mas cinco d´ a ıgitos son divisibles por 2? ¿Cu´ntos hay que empiecen con el d´ a ıgito 1? 49. Cumplea˜os. a) ¿De cu´ntas a formas puede seleccionarse un comit´ de tres hombres y tres mujeres ? b) e ¿De cu´ntas formas puede seleccionarse un comit´ de seis estudiantes? c) a e ¿De cu´ntas formas puede seleccionarse un comit´ de seis estudiantes todos a e del mismo sexo? . Esta es la f´rmula para o . Demuestre que 52. . Sugerencia: n Considere el complemento del evento de inter´s. e 58. 50 tornillos defectuosos fueron mezclados con 200 tornillos en buen estado. Demuestre que 53. 55. n−1 k n−1 k k+1 n n k+1 + n n−1 = k k construir el tri´ngulo de Pascal. ¿Cu´l es la a probabilidad de que k de ellos sean defectuosos? (0 ≤ k ≤ 20). . 9} de tal manera que ning´ n n´ mero empiece u u con 0. Si se venden 20 tornillos tomados al azar. ¿Cu´ntos equipos de 3 personas se pueden formar de un grupo de 5 personas? a 50. 2. En una clase de 25 estudiantes hay 15 mujeres y 10 hombres. . 1. tomao dos del conjunto {0. ¿Cu´ntos de ellos son pares y cu´ntos son impares? a a 59. ¿Cu´ntas “palabras” diferentes se pueden formar con todos los caracteres a (incluyendo repeticiones) de la palabra AMAR? 57. . ¿De cu´ntas maneras diferentes pueden clasificarse los tres primeros lugares a de una carrera de 15 corredores ? 48. .

61. 5 y 6 a u en las seis caras de un dado? Observe que originalmente las caras del dado son indistinguibles. 64. 3. Ejercicios 113 60. Para escoger al ganador se establece que cada jugador debe jugar contra cada uno de los otros finalistas. Tenemos n jugadores finalistas en un torneo de ajedrez. Sugerencia: Use el m´todo de inducci´n sobre e o n = #Ω. Si un alumno resuelve unicamente 20 de los problemas asignados. 67. ¿De cu´ntas formas diferentes se pueden colocar los n´ meros 1. Demuestre que el n´ mero m´ximo de regiones en los que n c´ u a ırculos dividen el plano es 2n . 2. Se asignan 40 problemas para un examen de probabilidad. Demuestre que #(2Ω ) = 2#Ω . u a Demuestre que An+1 = An + 1 + n(n + 1)/2. ´ ¿Cu´l es la probabilidad de que el alumno obtenga a a) cero puntos? b) 25 puntos? c) 50 puntos? d ) 75 puntos? . Sea An en n´ mero m´ximo de regiones en los que n esferas dividen el espacio.´ Apendice A. u a Demuestre que An+1 = An + n2 − n + 2. 66. 62. ¿De cu´ntas formas distintas se pueden asignar la a totalidad de puntos en el conjunto de jugadores? c) ¿Cu´ntas configuraciones finales existen en donde haya un unico jugador a ´ con mayor n´ mero de puntos? u 63. a) ¿Cu´ntas partidas se llevar´n a cabo? a a b) Suponiendo que no hay empates y que cada jugador gana un punto por cada juego ganado. ¿Cu´ntos divisores diferentes tiene el n´ mero 53 · 74 ? a u 68. El examen consistir´ de 4 problemas escogidos al azar. 4. y cada problema tendr´ un peso de a a 25 puntos. Sea An en n´ mero m´ximo de regiones en los que n planos dividen el espacio. 65. Demuestre que el n´ mero m´ximo de regiones en las que n l´ u a ıneas rectas dividen un plano es 1 + n(n + 1)/2.

¿Cu´ntas configuraciones diferentes se pueden obtener en un tablero de ajea drez despu´s de e a) la primera jugada del primer jugador? b) la primera jugada del segundo jugador? 72. . 2.114 e) 100 puntos? 69. ¿Cu´ntas soluciones enteras no negativas tiene la ecuaa ci´n o a) x1 + x2 + · · · + xk = n ? b) x1 + x2 + · · · + xk ≤ n ? c) x1 + x2 + · · · + xk ≥ n ? . 2. 2n} de a tal forma que cada n´ mero par ocupe una posici´n par? u o 76. . 2n + 1} a de tal forma que cada n´ mero impar ocupe una posici´n impar? u o 75. ¿Cu´ntas regiones conexas tiene el conjunto Rn − E? a 71. c. Use el m´todo de inducci´n para demostrar el teorema del binomio. Sea n ≥ 1 un entero. ¿De cu´ntas formas posibles se puede ordenar el conjunto {1. . . ¿Cu´ntos subconjuntos podemos obtener de un conjunto de n elementos? a Escriba expl´ ıcitamente todos los subconjuntos del conjunto {a. ¿De o cu´ntas formas distintas pueden las seis computadoras estar siendo usadas o a no usadas? 74. ¿De cu´ntas formas posibles se puede ordenar el conjunto {1. d}. 70. b. ¿Cu´ntas “palabras” diferentes podemos obtener usando todas las letras (ina cluyendo repeticiones) de la palabra “manzana”? 77. . ¿Cu´ntas “palabras” diferentes podemos obtener usando todas las s´ a ılabas (incluyendo repeticiones) de la palabra “cucurrucuc´ ”? u 78. e o n (a + b)n = k=0 n k an−k bk . . . Sea E el conjunto de vectores de Rn para los cuales alguna de sus coordenadas es cero. 73. En una sala de c´mputo hay seis computadoras numeradas del 1 al 6. .

Encuentre a) P (A ∩ B). x2 . Demuestre que la probabilidad condicional P (·|B) satisface los tres axiomas de la probabilidad. Justifique en cada caso. u b) P (A|B) = P (B|A).´ Apendice A. xk ) satisfacen las restricciones 1 ≤ x1 < x2 < · · · < xk ≤ n ? 80. Sean A y B dos eventos independientes. c) P (A ∩ B c ). Sean A y B eventos independientes tales que P (A) = 0. c) Ac y B c son independientes. . g) P (A ∪ B c ). Desarrolle la expresi´n (a + b + c)3 usando la f´rmula de coeficientes multio o nomiales (1.1 y P (B) = 0. .1) en la p´gina 26. h) P (Ac ∪ B c ). Suponga que P (B) = P (A|B) = P (C|A ∩ B) = p. Ejercicios 115 79. c) P (A|B) ≤ P (A). 85. Sea P una medida de probabilidad y B un evento con probabilidad positiva. Probabilidad condicional e independencia 81. b) A y B c son independientes. f) P (Ac ∪ B). b) P (Ac ∩ B). Sean n ≥ k dos enteros positivos. Diga falso o verdadero. Demuestre que P (A ∩ B ∩ C) = p3 . . ¿Cu´ntos vectores con entradas enteras no a negativas (x1 .5. d) P (Ac ∩ B c ). e) P (A ∪ B). a) El n´ mero P (A|B) nunca es cero. . 82. Demuestre que a) Ac y B son independientes. 83. y despu´s compruebe la f´rmula directamente a e o multiplicando el trinomio por si mismo. . 84.

Demuestre que a) el conjunto ∅ es independiente consigo mismo. Diga falso o verdadero. Justifique en cada caso.116 86. Sea A cualquier evento. Diga falso o verdadero. 93. b) P (∅|B) = 0. B ajenos ⇒ A. A independientes. Justifique en cada caso. Sean A y B eventos independientes. B independientes ⇒ A. a) P (A|B) + P (Ac |B) = 1. a) A. Demuestre que A y ∅ son eventos independientes. B independientes ⇒ B. Diga falso o verdadero. c) P (A|A ∩ B) = P (B|A ∩ B) = 1. b) A. Justifique en cada caso. d ) P (A1 ∩ A2 |B) = P (A1 |B)P (A2 |B). b) P (A|B) + P (A|B c ) = P (A). a) P (A|B1 ∪ B2 ) = P (A|B1 ) + P (A|B2 ) cuando B1 y B2 son ajenos. B independientes. c) P (A|A) = P (A). Justifique en cada caso. 88. b) el conjunto Ω es independiente consigo mismo. . B ajenos. b) Para cualquier evento A. Justifique en cada caso. c) P (A|B1 ∩ B2 ) = P (A|B1 )P (A|B2 ). 94. 90. 92. b) P (A1 ∪ A2 |B) = P (A1 |B) + P (A2 |B) cuando A1 y A2 son ajenos. Diga falso o verdadero. 89. a) A. 91. Demuestre que A y Ω son eventos independientes. A es independiente con A. Sea A cualquier evento. Diga falso o verdadero. Demuestre que P (A ∪ B) = 1 − P (Ac )P (B c ). 87. a) P (Ω|B) = 1.

Una persona toma al azar. A un mismo tiempo se extraen k bolas al azar y resulta que todas son del mismo color. 97. Un experimento aleatorio consiste en seleccionar una bola al azar y regresarla a la urna junto con c bolas del mismo color. Despu´s suma el resultado de las tiradas del dado. Encuentre eventos A y B tales que a) b) c) d) sean sean sean sean independientes y ajenos. ¿Cu´l es la e a probabilidad de que obtenga un total de 5? Teorema de Bayes 101. b) ⊆ (0. Teorema de probabilidad total 99. Sean A y B eventos independientes y ajenos. ¿Cu´l es la probabilidad de que las bolas sean de color negro? a . y luego tira un dado equilibrado tantas veces como indica el n´ mero u escogido. b) = b − a. con id´ntica probabilidad. Suponga que en una urna se tienen b bolas blancas y r bolas rojas. Calcule la probabilidad de que no ocurra ninguno de estos eventos. Considere un experimento aleatorio con espacio muestral Ω = (0. Demuestre que forzosamente alguno de estos eventos tiene probabilidad cero. 1) como P (a. 98.´ Apendice A. r P (Rn ) = . ajenos pero no independientes. Compruebe que para e o cada n ≥ 1. Sean A y B eventos independientes tales que P (A) = p1 y P (B) = p2 . B independientes y B. no ajenos y no independientes. r+b 100. 1). 2 o 3. 96. C independientes. Sea Rn el evento “Se selecciona una bola roja en la n-´sima extracci´n”. Ejercicios 117 c) A. 95. ¿Cu´ntas igualdades son necesarias verificar para demostrar que n eventos a son independientes? Justifique su respuesta. En una urna se encuentran b bolas de color blanco y n bolas de color negro. Definimos la probabilidad de un intervalo (a. uno de los n´ meros e u 1. C independientes ⇒ A. La urna de Polya. independientes pero no ajenos.

Determine en cada caso si la variable aleatoria en cuesti´n es discreta o cono tinua. .6.0x1 x2 x3 · · · c) X(ω) = 1 − ω. c) se haya enviado un “0” dado que se recibi´ un “0”.2. b) N´ mero de errores tipogr´ficos en una p´gina escogida al azar de un u a a libro. nıa 104. b) X(ω) = x1 . El canal de comunicaci´n es ruidoso de modo que un “0” o se distorsiona en un “1” con probabilidad 0. Se escoge el “0” con probabilidad 0. Encuentre la probabilidad de que a) se reciba un “0”. o Variables aleatorias 103.x1 x2 x3 · · · Determine en o los siguientes casos el conjunto de valores de la variable aleatoria definida y clasifique ´sta como discreta o continua. ¿Cu´les son sus posible valores? a a) Tiempo de vida de una persona escogida al azar. a d ) Monto de una reclamaci´n por accidente automovil´ o ıstico escogida al azar del conjunto de reclamaciones efectuadas a una compa˜´ aseguradora. e a) X(ω) = ω. b) se reciba un “1”.4. Suponga que cada resultado de este experimento se escribe en su expansi´n decimal como ω = 0. d ) X(w) = 0. 1). Se escoge al azar un d´ ıgito binario para ser enviado a trav´s de un canal de e transmisi´n. c) Tiempo de servicio en una transacci´n escogida al azar realizada por o una persona en un cajero autom´tico. y un “1” se distorsiona en un ”0” con probabilidad 0.1. Considere el experimento aleatorio de escoger un n´ mero al azar dentro del u intervalo unitario (0.118 102. y se escoge el “1” con o probabilidad 0. o d ) se haya enviado un “1” dado que se recibi´ un “1”.

. Suponga que para cada re´ ´ gi´n A ⊆ Ω cuya ´rea puede ser calculada se define P (A) = Area(A)/Area(Ω). 3}). Figura 1. Funciones de densidad y de distribuci´n o 107. . P (X ∈ {2. 4. o a Calcule P (X ≥ 0). P (X < 0). . .´ Apendice A. 2. 10. 4}) y P (X < 3) en cada o caso. otro caso. 0 otro caso. para − ∞ < x < ∞. 0. y) = x2 + y 2 . 110. 2. ¿Cu´les son a los posibles valores de X? Calcule P (X = 0).13. −1. o a) f (x) = c x si x = −2. f (x) = c e−|x|. y) = y y Z(x. 3. P (X < 0). 5. Encuentre el valor de la constante c para que la siguiente funci´n sea de o densidad. . P (Z < 1/2) y P (1/3 < Z < 1/2). . 10. Grafique esta funci´n y calcule P (X ∈ {2. junto con las variables aleatorias X(x. 3. 106. P (X ≥ 0). Explique porqu´ no es posible encontrar un valor de la constante c para que e la siguiente funci´n sea de probabilidad o de densidad. P (2X − 4 = 0). 6}. 2π]). P (X + Y ≤ 1). . 108. 2. c x2 0 si x = 1. P (Y > X). Y (x. y P (X 2 = 4). 0 otro caso. f (x) = c (1 + sen x) 0 si x ∈ [0. . Ejercicios 119 105. otro caso. 2π]. Encuentre el valor de la constante c para que la siguiente funci´n sea de o densidad. 1. Grafique f (x) y calcule P (X ≥ π) y P (X ∈ [−π. Encuentre el valor de la constante c para que f (x) sea una funci´n de probao bilidad. Defina la variable aleatoria X(ω) = 2(ω − 3). 109. y) = x. a) f (x) = b) f (x) = c x si x = 1. Considere un experimento aleatorio con espacio muestral equiprobable Ω = {1. Grafique f (x) y calcule P (X ∈ (1. . P (X 2 = 1). ∞)). 2. Considere el ejemplo del experimento aleatorio de lanzar un dardo en un tablero circular de radio uno.

Calcule adem´s P (X = 2) y P (1 < X < 2).  0 F (x) = 1/3 si 1 ≤ x < 2. x f (x) -2 0.3 1 0. . a) Determine el valor de la constante k y grafique f (x). Z = |X| y W = 2X − 5. P (X < 0) y P (X 2 = 1). Sea X continua con funci´n de densidad o f (x) = 1/10 si − k ≤ x ≤ 4k 0 otro caso.15 5 0.120 b) f (x) = c sen x 0 si x ∈ [−π.  1 si x ≥ 2. b) Calcule y grafique F (x).1 113.15 0 0. Calcule y grafique la funci´n de o probabilidad de la variable Y = X 2 . Sea X discreta con funci´n de densidad dada por la tabla que aparece abajo.4 2 0. c) Calcule P (−1 ≤ X ≤ 3). otro caso.1 3 0.5 112.1 -1 0. 111.2 0 0. Grafique f (x). P (X ≥ 2) y P (X ≤ 0).1 0 c 2 0. o a  si x < 1. o o ¿Es X discreta o continua? Grafique F (x). Grafique en cada caso. Sea X discreta con funci´n de probabilidad dada por la tabla que aparece o abajo. Encuentre y grafique la correspondiente funci´n de densidad f (x). d) Encuentre m tal que P (|X − 1| ≥ m) = 1/2. 115. o Encuentre el valor de c y grafique f (x). Grao fique f (x) y calcule P (X ≥ 0). x f (x) -2 0. Calcule la funci´n de probabilidad de las siguientes o variables aleatorias Y = X 2 . Sea X una variable aleatoria con la funci´n de distribuci´n que aparece abajo. π]. Sea X discreta con funci´n de probabilidad dada por la siguiente tabla.1 114. x f (x) -1 0.

´ Apendice A.  1 si x ≥ 1. Determine si la siguiente funci´n es de probabilidad. o a) f (x) = b) f (x) = 4x/5 si x ∈ [0. o a  si x < 0. 0 otro caso. b) Calcule y grafique f (x). si x = 2. Calcule adem´s P (X = 1/2) y P (X > 1/2). 4. Grafique la funci´n en cada caso y justifique su respuesta. 0 otro caso. una a la vez y sin reemplazo.   1/6 2/3 f (x) =  0 probabilidad. 1. d) Calcule P (X ≥ 6). 2. 1. Ejercicios 121 117. . Determine si la siguiente funci´n es de o justifique su respuesta. 2]. Sea X una variable aleatoria con la funci´n de distribuci´n que aparece abajo. 3]. 120. Determine si cada una de las siguientes funciones es de densidad. Se extraen dos bolas al azar. o o ¿Es X discreta o continua? Grafique F (x). 118. u a) Determine Ω. Sea X la variable aleatoria que denota la suma de los n´ meros de las dos bolas seleccionadas. Grafique la funci´n y o si x = 0. Una urna contiene cuatro bolas numeradas 1. Encuentre y grafique la correspondiente funci´n de densidad f (x). 2. 2x2 /3 − 2x + 4/3 si x ∈ [0. otro caso. 3 y 4. 116. 3. Grafique la funci´n y o o justifique su respuesta. 119.   4 3 x 1 4−x si x = 0. c) Calcule y grafique F (x). P (3 < X ≤ 5) y P (X = 6). 4 4 x f (x) =  0 otro caso.  0 √ F (x) = x si 0 ≤ x < 1.

122
121. Sea X una variable aleatoria con la siguiente funci´n de distribuci´n. Eno o cuentre y grafique f (x). Calcule P (0 ≤ X < 10). F (x) = 1 − (1/2)x+1 0 si x = 0, 1, 2, 3, . . . otro caso.

122. Sea X una variable aleatoria continua con la funci´n de densidad que apao rece abajo. Encuentre el valor de la constante c y grafique la funci´n f (x). o Encuentre y grafique adem´s la funci´n de distribuci´n F (x). a o o f (x) = 2x/9 si 0 < x < c, 0 otro caso.

Esperanza, varianza, momentos 123. Sea a un n´ mero fijo. Construya una variable aleatoria X tal que E(X) = a. u 124. Calcule la esperanza babilidad es   1/3 1/6 a) f (x) =  0   1/4 1/2 b) f (x) =  0 a) f (x) = e−x , de la variable aleatoria discreta X cuya funci´n de proo si x = 0, 1, si x = 2, 3, otro caso. si x = −1, 1, si x = 0, otro caso.

125. Calcule la esperanza de la variable aleatoria continua X cuya funci´n de o densidad es para x > 0. para 0 < x < 1. b) f (x) = 6x(1 − x),

126. Sea X una variable aleatoria discreta con la funci´n de probabilidad que o aparece abajo. Demuestre que f (x) es efectivamente una probabilidad de densidad y que la esperanza de X no existe. Este es un ejemplo de una variable aleatoria discreta que no tiene esperanza finita.  1  si x = 1, 2, 3, . . . f (x) = x(x + 1)  0 otro caso.

´ Apendice A. Ejercicios

123

127. Sea X una variable aleatoria continua con la funci´n de densidad que aparece o abajo. Demuestre que esta funci´n es efectivamente una funci´n de densidad. o o Compruebe adem´s que la esperanza de X no existe. Este es un ejemplo de a una variable aleatoria continua que no tiene esperanza finita. Es una caso particular de la distribuci´n Cauchy. o f (x) = 1 , π(1 + x2 ) para − ∞ < x < ∞.

128. Diga falso o verdadero. Justifique en cada caso. a) La esperanza de una v.a. puede ser cero. b) No hay dos v.a.s distintas con la misma esperanza. c) La esperanza de una v.a. nunca es negativa. d ) La varianza de una v.a. puede ser cero. e) La varianza de una v.a. nunca es negativa. f ) No hay dos v.a.s distintas con la misma varianza. 129. Demuestre que a) E(E(X)) = E(X). b) Var(Var(X)) = 0. 130. Sea X la variable aleatoria constante c. Compruebe que a) E(X) = c. b) E(X n ) = cn . c) Var(X) = 0. 131. Calcule la media y varianza de la variable aleatoria X con funci´n de probao bilidad   1/9 si x = 0, 1, 2, 2/9 si x = 3, 4, 5, f (x) =  0 otro caso. 132. Calcule la media y varianza de la variable aleatoria X cuya funci´n de proo babilidad es (1/2)x+1 si x = 0, 1, 2, 3, . . . f (x) = 0 otro caso. 133. Diga falso o verdadero. Justifique en cada caso. a) Var(E(X)) = 0.

124
b) E(Var(X)) = Var(X). 134. Sea X una variable aleatoria continua con funci´n de densidad f (x) = 1 e−|x| , o 2 para −∞ < x < ∞. Demuestre que f (x) es efectivamente una funci´n de o densidad y compruebe que a) E(X) = 0. b) E(X 2 ) = 2. c) Var(X) = 2. d ) E(X n ) = n! para n par. 135. Diga falso o verdadero. Justifique en cada caso. a) E(−X) = −E(X).

b) Var(−X) = −Var(X).

c) E(Var(X)) = Var(E(X)).

136. Encuentre el error en la siguiente “demostraci´n” de la afirmaci´n de que la o o varianza de cualquier variable aleatoria es cero. 0 = = = = = Var(0) Var(X + (−X)) Var(X) + Var(−X) Var(X) + Var(X) 2 Var(X).

Distribuci´n uniforme discreta o 137. Sea X con distribuci´n uniforme en el conjunto {1, . . . , n}. Demuestre que o a) E(X) = (n + 1)/2. b) E(X 2 ) = (n + 1)(2n + 1)/6. c) Var(X) = (n2 − 1)/12. 138. Se escogen completamente al azar y de manera independiente dos n´ meros u a y b dentro del conjunto {1, 2, . . . , 9, 10}. ¿Cu´l es la probabilidad de que el a cociente a/b sea menor a uno?

(1 − p) (x + 1) 145. n − 1. Verifique que f (x) es o efectivamente una funci´n de densidad. Demuestre que 0 ≤ o Var(X) ≤ E(X). p). o P (X = x + 1) = p (n − x) P (X = x). Proporcione una explicaci´n o o probabil´ de este resultado. Demuestre adem´s que o a a) E(X) = p. Sea X una variable aleatoria con distribuci´n Ber(p). b) Var(X) = np(1 − p). p). Sea X una variable aleatoria con distribuci´n bin(n. Se lanza una moneda equilibrada 6 veces. Calcule la probabilidad de que ambas caras caigan el mismo n´ mero de veces. ısta 144. . u 147. c) Var(X) = p(1 − p). Sea X una variable aleatoria con distribuci´n bin(n. Calcule la probabilidad de que cada cara caiga exactamente 3 veces. 1 − p). p). 1.´ Apendice A. p) tal que E(X) = 4 y o Var(X) = 2. Distribuci´n binomial o 140. Sea X con distribuci´n bin(n. b) E(X n ) = p. . Se lanza una moneda equilibrada 2n veces. para n ≥ 1. 142. Esta expresi´n permite calcular las probabilidao o des de esta distribuci´n de una forma iterativa. Demuestre que para x = 0. Sea X una variable aleatoria con distribuci´n bin(n. . p). p). o 141. Verifique que f (x) es o efectivamente una funci´n de densidad. Sea X una variable aleatoria con distribuci´n bin(n. Demuestre que la vao riable Y = n− X tiene distribuci´n bin(n. . 146. Ejercicios Distribuci´n Bernoulli o 125 139. se o cumple la siguiente f´rmula. . Demuestre que o a) E(X) = np. ¿Cu´les son los valores de n y p? a 143. Sea X una variable aleatoria con distribuci´n bin(n.

¿Cu´ntas e a extracciones en promedio se necesitan realizar hasta obtener una bola negra por primera vez? Distribuci´n Poisson o 153. Sea X una variable aleatoria con distribuci´n geo(p). Demuestre que para o cualesquiera a. (x + 1) 155. 2. . 1. Verifique que f (x) o es efectivamente una funci´n de densidad y demuestre que E(X) = λ. . Sea X una variable aleatoria con distribuci´n geo(p). Sea X una variable aleatoria con distribuci´n Poisson(λ). se cumple la siguiente f´rmula. . y despu´s se regresa a la urna.126 148. y o Var(X) = λ. . P (X = x + 1) = λ P (X = x). o 150. Demuestre que o a) E(X) = (1 − p)/p. se cumple la siguiente propiedad llamada de p´rdida de memoria: P (X ≥ a + b | X ≥ a) = P (X ≥ b). ¿Cu´l de los siguientes o a eventos es m´s probable que ocurra? a a) MHHMHM b) MMMMHM c) HMHMHM Distribuci´n geom´trica o e 149. Considere una urna con 3 bolas negras y 5 bolas blancas. Demuestre que la o probabilidad de que X tome un valor par es (1 + e−2λ )/2. 154. b) Var(X) = (1 − p)/p2 . 151. Sea X una variable aleatoria con distribuci´n Poisson(λ). e 152. y considerando la observaci´n de 6 nacimientos. Sea X una variable aleatoria con distribuci´n Poisson(λ). b = 0. se registra su color. . 2. 1. Demuestre que para o x = 0. Esta expresi´n permite calcular o o las probabilidades Poisson de una forma iterativa. Verifique que la funci´n o o f (x) es efectivamente una funci´n de densidad. Se escoge una bola al azar. . . Suponiendo que es igualmente probable que nazca un hombre (H) o una mujer (M). Sea X una variable aleatoria con distribuci´n geo(p).

p). Verifique que f (x) o es efectivamente una funci´n de densidad. Sea X con distribuci´n hipergeo(N. El n´ mero de computadoras que fallan por mes en un laboratorio de c´mputo u o tiene una distribuci´n Poisson con un promedio mensual de λ = 2 m´quinas o a descompuestas. 2. Sea X una variable aleatoria con distribuci´n bin neg(r. . b). ıan o a) ¿Cu´l es la probabilidad de que en un mes cualquiera sea necesario enviar a m´quinas fuera del laboratorio para su reparaci´n? a o b) Responda al inciso anterior cuando se reduce la capacidad de reparaci´n o del laboratorio a una computadora por mes. se cumple la siguiente f´rmula. Sea X una variable aleatoria con distribuci´n bin neg(r. Verifique que f (x) es efectivamente una o funci´n de densidad. p). El laboratorio tiene capacidad para reparar hasta dos m´quia nas por mes. p). Esta expresi´n permite o o calcular las probabilidades de esta distribuci´n de una forma iterativa. Demuestre que o E(X) = r(1 − p)/p. 159. K. Demuestre que o para x = 1. y Var(X) = r(1 − p)/p2 . o P (X = x) = (1 − p) Distribuci´n hipergeom´trica o e 160. Sea X con distribuci´n unif(a. n). . o .´ Apendice A. Ejercicios 127 156. . o r+x−1 P (X = x − 1). c) ¿Cu´l es el n´ mero de computadoras con falla m´s probable en un mes? a u a Distribuci´n binomial negativa o 157. Verifique que f (x) es efectivamente o una funci´n de probabilidad. Cuando se descomponen mas de dos m´quinas. Sea X una variable aleatoria con distribuci´n bin neg(r. x Distribuci´n uniforme continua o 161. o 158. las restantes se a env´ fuera del laboratorio para su reparaci´n.

Sea X una variable aleatoria con distribuci´n exp(λ). Sea X con distribuci´n unif(0. 1). Sea X una variable aleatoria con distribuci´n uniforme en el intervalo (−1. La u distribuci´n exponencial es la unica distribuci´n continua que satisface esta o ´ o propiedad llamada de p´rdida de memoria. y ≥ 0 se cumple la igualdad que aparece abajo. 170. 163. Sea X con distribuci´n uniforme en el intervalo (0. 1). Sea X una variable aleatoria con distribuci´n exp(λ). Distribuci´n exponencial o 168. 1). o 169. 0 si n es impar. Demuestre que para o cualesquiera n´ meros x. b). b) Var(X) = 1/λ2 . Sea X con distribuci´n unif(a. b). (n + 1)(b − a) 165. Demuestre que la media y la mediana de o X coinciden. b). Verifique que f (x) es o efectivamente una funci´n de densidad. o Demuestre que E(X n ) = 1/(n + 1) si n es par. Sea X con distribuci´n uniforme en el intervalo (a. e P (X ≥ x + y | X ≥ x) = P (X ≥ y). 166. Sea X con distribuci´n uniforme en el intervalo (a. Demuestre que o a) E(X) = (a + b)/2. Demuestre que o a) E(X) = 1/λ.128 162. Demuestre que o E(X n ) = bn+1 − an+1 . e 164. . Obtenga la distribuci´n de la variable Y = o o 10X − 5. Demuestre que el no ´simo momento de X es 1/(n + 1). b) Var(X) = (b − a)2 /12. Sea X con distribuci´n exp(λ). 167.

c) E(X m ) = Γ(m + n)/( λm Γ(n) ). λ). o 177. ¿Cu´ntos tienen un conexi´n superior a una hora? Calcule adem´s a o a la probabilidad de que un usuario cualquiera a) no permanezca conectado mas de 10 minutos. Suponga que el tiempo que un usuario cualquiera permanece conectado a un servidor en una red de c´mputo se puede modelar como una variable o aleatoria con distribuci´n exponencial con media igual a 10 minutos. . Sea X con distribuci´n beta(a. 172. Demuestre que para cualesquiera n´ meros o u x. Distribuci´n beta o 176. Demuestre que o a) E(X) = a/(a + b). Demuestre que o a) E(X) = n/λ. De mil o usuarios. Ejercicios 129 171.´ Apendice A. Verifique que f (x) es efectivamente una o funci´n de densidad. o a) Γ(n + 1) = n Γ(n). √ d ) Γ(1/2) = π. Sea X una variable aleatoria con distribuci´n gama(n. Verifique que f (x) o es efectivamente una funci´n de densidad. Sea X con distribuci´n exp(λ). c) Γ(n + 1) = n! si n es entero. 175. Distribuci´n gama o 173. o 174. Sea X con distribuci´n beta(a. y ≥ 0. b) permanezca conectado mas de 10 minutos pero menos de una hora. b) Γ(2) = Γ(1) = 1. λ). b). b). F (x + y) = F (x) + F (y) − F (x) F (y). Sea X con distribuci´n gama(n. Demuestre las siguientes propiedades de la funci´n gama. b) Var(X) = n/λ2 .

181. b). b). b a e) B(a + 1. b) = B(a. 1). Sea X con distribuci´n beta(a. 182. b). Demuestre las siguientes propiedades de la funci´n beta. b) = 1/b. b) B(a. Sea X una variable aleatoria con distribuci´n beta(a. b). 183. a+b g) B(1/2. 178. Demuestre que para cualquier entero n ≥ 0. . b + 1) = B(a. b + 1). o a) Calcule y grafique f (x). o a) B(a. la o funci´n de distribuci´n de X toma la forma o o  si x ≤ 0. 179. b). b). o Demuestre que X tiene una distribuci´n uniforme en el intervalo (0. la o funci´n de distribuci´n de X toma la forma o o  si x ≤ 0.  0 1 − (1 − x)b si 0 < x < 1. b)/B(a. F (x) =  1 si x ≥ 1. 1/2). a+b b f ) B(a. b) = B(b.  0 xa si 0 < x < 1. o 180. 1/2) = π. c) B(1. Sea X con distribuci´n beta(a. con a = b = 1. o c) Calcule E(X) y Var(X). F (x) =  1 si x ≥ 1.130 b) Var(X) = ab/( (a + b + 1)(a + b)2 ). Demuestre que cuando a = 1 y b > 0. Sea X con distribuci´n beta(1/2. En este caso se dice que X tiene una o distribuci´n arcoseno. 1) = 1/a. Sea X con distribuci´n beta(a. Demuestre que cuando a > 0 y b = 1. b) = a B(a. o E(X n ) = B(a + n. d ) B(a + 1. a). b). b) Demuestre que f (x) es una funci´n de densidad.

Calcule o a) P (X ≥ 10). 190. Encuentre los par´mee o a tros correspondientes.8666 . o 185. Rec´ o a ıprocamente. Ejercicios Distribuci´n normal o 131 184. . Demuestre que E(X) = µ. Encuentre x tal que a) Φ(x) = 0. Demuestre que la o variable Y = aX + b. σ 2 ). a 191. 189. σ 2 ). c) P (0 < X ≤ 10). σ 2 ). b) 1 − Φ(x) = 0. d ) P (X ≥ 30). Sea X con distribuci´n N(µ. b) P (X > 0).´ Apendice A. o 186. c) P (0 < X ≤ 40). 100). con a = 0. Sea X con distribuci´n N(µ. σ 2 ). Sea X con distribuci´n N(µ. y σ > 0. Demuestre que la vao riable Y = −X tambi´n tiene una distribuci´n normal. d ) P (X ≥ 20). Sea X una variable aleatoria con distribuci´n N(µ. e) P (−10 < X ≤ 10). e) P (−20 < X ≤ 10). Verifique que f (x) es efectivamente una o funci´n de densidad. o 187. e o Encuentre los par´metros correspondientes. tambi´n tiene una distribuci´n normal. Calcule o a) P (X ≤ 10).9154 . σ 2 ). Sea X con distribuci´n N(10. Demuestre que la variable Z = (X − µ)/σ o tiene distribuci´n normal est´ndar. y Var(X) = σ 2 . σ 2 ). Sea X una variable aleatoria con distribuci´n N(µ. entonces la variable X = µ + σZ tiene o a distribuci´n N(µ. demuestre que si Z tiene distribuci´n normal est´ndar. 188. Sea X con distribuci´n N(0. b) P (X < 0). 25).

132 192. El fabricante de la m´quina sabe que el llenado de los vasos a se puede modelar como una v. o 194. de mil clientes. Sea X una variable aleatoria con distribuci´n N(0. a a) ¿Qu´ fracci´n de los vasos ser´n servidos con m´s de 310 mililitros? e o a a b) ¿Cu´l es la probabilidad de que un vaso sea servido entre 290 y 305 a mililitros? c) Si el restaurant utiliza vasos de 320 ml. Demuestre que E(X) = n.a. o menos. normal con media de 300 ml. Sugerencia: Para x > 0. Una m´quina autom´tica despachadora de refresco en un restaurant est´ ajusa a a tada para llenar vasos de 300 ml en promedio. y que Var(X) = 2n. Encuentre la o a funci´n de densidad de Y = |X|. a el llenado de los vasos no es enteramente exacto y hay peque˜ as fluctuaciones n en el llenado. Debido a cuestiones mec´nicas. Sea X una variable aleatoria con distribuci´n normal est´ndar. a 2 2 Distribuci´n t o 198. Sea X con distribuci´n t(n). o Compruebe adem´s que E(X m ) = 2m Γ( n + m)/Γ( n ). Sea X con distribuci´n χ2 (n). para m ≥ 0. 197. Sea X con distribuci´n χ2 (n). 1). Demuestre que X 2 o tiene√ una distribuci´n χ2 (1). Compruebe que la distribuci´n χ2 (n) se reduce a la distribuci´n exp(1/2) o o cuando n = 2. y desviaci´n o est´ndar σ = 10 ml. Verifique que f (x) es efectivamente una funci´n o o de densidad. FX 2 (x)= P (X 2 ≤ x)= o √ P (− x ≤ X ≤ x). ¿qu´ porcentaje de ellos se e derramar´n? a d ) Si los clientes reclaman por vasos servidos con 270 ml. ¿cu´ntos de ellos reclamar´n? a a Distribuci´n ji cuadrada o 195. Compruebe que la correspondiente funci´n de o o densidad f (x) efectivamente lo es. 193. . 196.

´ Apendice A. Ejercicios

133

199. Sea X con distribuci´n t(n). Demuestre que E(X) = 0, y Var(X) = n/(n−2), o para n > 2.

Vectores aleatorios 200. Sea (X, Y ) un vector aleatorio discreto con funci´n de densidad f (x, y) dada o por la siguiente tabla x\y -1 0 1 .3 .5 2 .05 .15 a) Grafique f (x, y) y demuestre que efectivamente se trata de una funci´n o de densidad. b) Calcule y grafique las densidades marginales f (x) y f (y). Verifique que ambas son efectivamente funciones de densidad. c) Calcule y grafique las distribuciones marginales F (x) y F (y). Verifique que ambas son efectivamente funciones de distribuci´n. o d ) ¿Son X y Y independientes? 201. Sea (X, Y ) un vector aleatorio discreto con funci´n de densidad f (x, y) dada o por la siguiente tabla x\y 0 1 1 .2 0 2 .7 .1 a) Grafique f (x, y) y demuestre que efectivamente se trata de una funci´n o de densidad. b) Calcule y grafique las densidades marginales f (x) y f (y). Verifique que ambas son efectivamente funciones de densidad. c) Calcule y grafique las distribuciones marginales F (x) y F (y). Verifique que ambas son efectivamente funciones de distribuci´n. o d ) ¿Son X y Y independientes? 202. Sea (X, Y ) un vector aleatorio continuo con distribuci´n uniforme en el cuao drado (−1, 1) × (−1, 1). a) Grafique f (x, y) y demuestre que efectivamente se trata de una funci´n o de densidad.

134
b) Calcule y grafique las densidades marginales f (x) y f (y). Verifique que ambas son efectivamente funciones de densidad. c) Calcule y grafique las distribuciones marginales F (x) y F (y). Verifique que ambas son efectivamente funciones de distribuci´n. o d ) ¿Son X y Y independientes? 203. Sea (X, Y ) un vector aleatorio continuo con funci´n de densidad f (x, y) dada o por la siguiente expresi´n o f (x, y) = e−(x+y) 0 si x, y > 0, otro caso.

a) Grafique f (x, y) y demuestre que efectivamente se trata de una funci´n o de densidad. b) Calcule y grafique las densidades marginales f (x) y f (y). Verifique que ambas son efectivamente funciones de densidad. c) Calcule y grafique las distribuciones marginales F (x) y F (y). Verifique que ambas son efectivamente funciones de distribuci´n. o d ) ¿Son X y Y independientes?

Variables y tipos de datos 204. Clasifique cada una de las siguiente variables de acuerdo a si es cualitativa o cuantitativa, y tambi´n de acuerdo a su posible escala de medici´n. e o a) Evaluaci´n de un curso usando la siguiente escala: MB=Muy Bien. B=Bien. o S=Suficiente. NA=No Acreditado. b) N´ mero de hijos de una persona. u c) Escolaridad de una persona. d) Porcentaje de art´ ıculos defectuosos producidos en una f´brica. a e) Nivel de satisfacci´n de una persona al adquirir un producto. o f) Preferencia electoral por alguna de las siguientes propuestas pol´ ıticas: A,B,C,D,E,F. g) Uso o no uso de lentes de una persona. h) Principal pa´ de visita para una persona que viaja al extranjero. ıs i) Costo econ´mico en un accidente automovil´ o ıstico.

´ Apendice A. Ejercicios Estad´ ıstica descriptiva

135

205. Calcule la media, moda, mediana, varianza, desviaci´n est´ndar y rango del o a siguiente conjunto de datos: 4, 2, 0, 9, 4, 2, −1, 1, −4, 2. 206. Pregunte a diez personas sus estaturas. Registre todos estos datos y calcule la media, moda, mediana, varianza, desviaci´n est´ndar y rango. o a 207. Mediante el uso de una calculadora genere diez n´ meros al azar dentro del inu tervalo unitario (0, 1). Escriba estos datos y calcule la media, moda, mediana, varianza, desviaci´n est´ndar y rango. o a
n

208. Demuestre que
i=1 n

(xi − x) = 0. ¯
n

209. Demuestre que
i=1

(xi − x) = ¯
n

2

i=1

x x2 − n¯2 . i
n

210. Demuestre que s2 =

1 1 [ x2 − ( xi )2 ]. n − 1 i=1 i n i=1
n

211. Encuentre el valor de c que minimiza la funci´n x(c) = o ¯
i=1

(xi − c)2 .

212. Calcule la media, varianza, desviaci´n est´ndar, mediana y moda aproximao a dos del siguiente conjunto de datos agrupados. Elabore adem´s un histograa ma.
Intervalo de clase 10 ≤ x < 20 20 ≤ x < 30 30 ≤ x < 40 40 ≤ x < 50 50 ≤ x < 60 Frecuencia 4 3 6 5 5

213. Calcule la media, varianza, desviaci´n est´ndar, mediana y moda aproximao a dos del siguiente conjunto de datos agrupados. Elabore adem´s un histograa

Demuestre que θ = αθ1 + (1 − α)θ2 es tambi´n un estimador e insesgado para θ. . . Xn una m. . n i=1 217.a.a. Xn una m. n 1 ¯ S2 = (Xi − X)2 . . σ2 = ˆ 1 2(n − 1) n−1 i=1 (Xi+1 − Xi )2 .a. Sea X1 . 216. Demuestre que la siguiente estad´ ıstica es un estimador insesgado para σ 2 . Demuestre que la siguiente estad´ ıstica es un estimador insesgado para σ 2 . . Sean θ1 y θ2 dos estimadores insesgados para el par´metro θ. . Intervalo de clase 0≤x<5 5 ≤ x < 10 10 ≤ x < 15 15 ≤ x < 20 25 ≤ x < 30 30 ≤ x < 35 35 ≤ x < 40 Frecuencia 12 23 10 14 6 10 5 Muestras aleatorias y estad´ ısticas 214. Xn una m. de una poblaci´n con media desconocida y varianza o finita σ 2 desconocida. n 1 σ2 = ˆ (Xi − µ)2 . . . y sea α una a ˆ ˆ ˆ constante. n − 1 i=1 218. . . Sea X1 . de una poblaci´n con media desconocida y variano za σ 2 desconocida. .136 ma. Sea X1 . . Demuestre que la siguiente estad´ ıstica es un estimador insesgado para σ 2 . — Estimaci´n puntual o ˆ ˆ 215. de una poblaci´n con media conocida µ y varianza σ 2 o desconocida. .

use el m´todo de m´xima verosimilitud para encontrar a e a un estimador del par´metro λ. a]. . . Modifique S para que sea insesgado. Xn una m. . Dada una muestra aleatoria de tama˜ o n de una poblaci´n exponencial con n o par´metro desconocido λ > 0. a 222. Ejercicios 137 219. a]. Demuestre que S no es un estimador insesgado i=1 para σ. . . M´todo de momentos e 220. Dada una muestra aleatoria de tama˜ o n de una poblaci´n uniforme en el n o intervalo [0. Dada una muestra aleatoria de tama˜ o n de una poblaci´n Poisson con n o par´metro desconocido λ > 0. Se sabe que la vida en horas de un foco de 100 watts de cierta marca tiene una distribuci´n aproximada normal con desviaci´n est´ndar σ = 30 horas.a. a 224. use el m´todo de momentos para encontrar un estimador para e el par´metro a. a Estimaci´n por intervalos o 225. Sea X1 . use el m´todo de momentos para encontrar un a e estimador del par´metro λ. Dada una muestra aleatoria de tama˜ o n de una poblaci´n uniforme en el n o intervalo [0. use el m´todo de momentos para encontrar a e un estimador del par´metro λ. a M´todo de m´xima verosimilitud e a 223. Dada una muestra aleatoria de tama˜ o n de una poblaci´n Poisson con n o par´metro λ > 0. Recuerde que la varianza muestral S 2 se ha definido como sigue 1 ¯ S 2 = n−1 n (Xi − X)2 . a 221. o o a Se toma una muestra al azar de 50 focos y result´ que la vida media fue de o 1550 horas. Sugerencia: (n−1) 2 σ2 S ∼ χ2 (n−1). use el m´todo de m´xima verosimilitud para encontrar un e a estimador para el par´metro a.´ Apendice A. de una poblaci´n con media µ y varianza σ 2 deso conocidas. Construya un intervalo de confianza del 95 % para el verdadero promedio de vida de estos focos.

66. 4. 2257.74.59.70. 2223. 1. suponiendo que los datos provienen de una muestra tomada al azar de una poblaci´n normal con σ = 1. .70 vs H1 : µ = 1. 10. 1.55. 2285. Se cree que la estatura de cierta poblaci´n humana sigue una distribuci´n o o normal con media de 1. Se realizan 20 pruebas de resistencia de un cierto material obteni´ndose los e siguientes datos: 2225.62. suponiendo una distribuci´n normal.83. 1. 1.77. 229.65. Demuestre que en cualquier caso la o probabilidad de cometer el error tipo II tiende a cero cuando el tama˜ o de la n muestra n tiende a infinito. 2190. y suponga σ = 0. 1. 1. 1. 2211. 1. Las mediciones del n´ mero de cigarros fumados al d´ por un grupo de diez fuu ıa madores es el siguiente: 5.60. 1. 228. 2231. 1. 8. 2295. 10.138 226.64. 1. 1. 3. 2231. 20. 1.73.70 metros.10 . Considere cualquiera de las tres pruebas de hip´tesis para la media µ de o una poblaci´n normal con σ 2 conocida.75.74. 4.69. 2217.81.72. Realice la prueba de hip´tesis H0 : µ = o 1. 2261.65. Construya un intervalo de confianza del 98 % para la resistencia media de este material. 1. o Pruebas de hip´tesis o 227. 2232. 2262. 1. 1. 2300. 1. 2272. 1. Realice la prueba de hip´teo sis H0 : µ = 10 vs H1 : µ < 10. Use un nivel o de significancia del 5 %.66. 2218. 2252. con el siguiente conjunto de datos: 1. 2255. 1. Use un nivel de significancia del 10 %. 2219.2 .63. 2195. 5.

∅. C4 ) en donde cada coordenada Ci corresponde al conjunto de bolas que han sido depositadas en la celda i. (0. 1. SAA. b) Ω = {AAA. ∅). 0. ∅). 1). 2. La mayor´ de las gr´ficas o ıa a han sido omitidas. 0).. 0. 0. (0. . 1. (1. 2).}. 0). 139 . 1). SSS}.}. (0. (1. . {2}. Considere el arreglo (C1 . SAS. 1). 1. (1. 1. o o Para algunos ejercicios es necesario ser m´s expl´ a ıcito al dar una soluci´n o al juso tificar una respuesta. . 0. (0. 0). . ∅. ∅. 0). 0. 0. 0. SSA. SSS}. C2 .. . 1). ASA. Recuerde adem´s que los m´todos empleados o sugeridos para a e llegar a una soluci´n no son necesariamente unicos. 2}. ¿Puede usted escribir todos los arreglos? f ) Ω = {(2. . {1. . ∅.}. 1]. c) Ω = [0. (1. ∅). ASS. (∅. o ´ Espacio muestral y eventos 1. 1. 0. El n´ mero total de elementos en u Ω es 16. AAS. 0. 2. . e) Considere que las bolas tienen las etiquetas 1 y 2. 0. 0. (0. (1. 2}. a) Ω = {AAA.Ap´ndice B e Soluciones Esta secci´n contiene algunas sugerencias de soluci´n a los ejercicios planteados. d ) Ω = {0. AAS. ({1}. C3 . g) Ω = {(0. considere por tanto que este material contiene simplemente ideas para generar una soluci´n completa y bien escrita. Entonces Ω ={({1. ASS. 1. 0). . 0. 0). 2. 1. 0). (0. . (0. 1)}. 0). .

. El n´ mero 1 puede representar ganar en un juego de a u loter´ mientras que el n´ mero 0 corresponde a perder en el juego. Ω = {6. a 10. Los enunciados son: a)(A ∪ B ∪ C)c = Ac ∩ B c ∩ C c y b)(A ∩ B ∩ C)c = Ac ∪ B c ∪ C c . b) Pruebe ambas contenciones como en el inciso anterior. An´logo al anterior. La ultima afirmaci´n ´ o puede descomponerse en: x ∈ B ´ x ∈ C. 6. .}. . 8. N N 6. x ∈ Ac ∩ B c . De manera an´loga se prueba la contenci´n contraria y a o de esa forma se demuestra la igualdad. B ∪ (A ∩ B c ) = (B ∪ A) ∩ (B ∪ B c ) = (B ∪ A) ∩ Ω = B ∪ A. An´logo al anterior. Este es ıa u uno de los muchos ejemplos que pueden construirse para este espacio. o Entonces x ∈ (A ∪ B). Si nos interesa registrar con detalle los resultados. Para el primer inciso se tiene que (A ∪ B ∪ C)c =((A ∪ B) ∪ C)c =(A ∪ B)c ∩ C c =Ac ∩ B c ∩ C c .}. Entonces x ∈ A y x ∈ B ∩ C. a . / / / Es decir. . es decir x ∈ B. De manera an´loga se demuestra al a segundo inciso. N 6. esto es. A = A ∩ Ω = A ∩ (B ∪ B c ) = (A ∩ B) ∪ (A ∩ B c ). N N N 6. 4 ´ 5.140 2. x ∈ A y x ∈ B. b) An´logo al inciso anterior. esto incluye el caso de pertenencia a o ambos conjuntos. Si es el primer caso. Si nos interesa observar el n´ mero de lanzamientos hasta obtener un 6 se pueu de tomar Ω = {1. 3. 2. y por lo tanto x es un elemento del lado derecho de la igualdad. 9. Por lo tanto x ∈ Ac y x ∈ B c . a) Sea x ∈ A ∩ (B ∩ C). 11. en donde cada N puede ser cualquiera de los n´ meros 1. u o 3. B ∩ (A ∪ B c ) = (B ∩ A) ∪ (B ∩ B c ) = (B ∩ A) ∪ ∅ = B ∩ A. a 5. 2. a) Demostraremos la contenci´n (A ∪ B)c ⊆ Ac ∩ B c . b) Tiempo que una u persona tiene que esperar para la llegada de un autob´ s. Esto demuestra la contenci´n o o A ∩ (B ∪ C) ⊆ (A ∩ B) ∪ (A ∩ C). De manera an´loga se prueba la contenci´n a o contraria. c) Este es el espacio u muestral m´s frecuente. . a) N´ mero de hijos de una persona escogida al azar. 7. entonces se obtiene que x ∈ A ∩ B. . Sea x ∈ (A ∪ B)c . Operaciones con conjuntos 4. La misma conclusi´n se obtiene si x ∈ C.

´ Apendice B. 6]. 3] ∪ (6. −2) ∪ (6. a) A − (A ∩ B) = A ∩ (A ∩ B)c = A ∩ (Ac ∪ B c ) = (A ∩ Ac ) ∪ (A ∩ B c ) = ∅ ∪ (A ∩ B c ) = A ∩ B c = A − B. ∞). A − B = [−1. B − A = (−∞. −2) ∪ (6.1. 15.2: 3 0 6 . −1) ∪ (3. Ω 16. −2) ∪ [−1.1: A△B△C. 14. 3]. ∞). B = (−∞. b) (A ∪ B) − B = (A ∪ B) ∩ B c = c c c (A ∩ B ) ∪ (B ∩ B ) = (A ∩ B ) ∪ ∅ = A ∩ B c = A − B. 3]. ∞). A△B = (−∞. A −2 B −1 0 Figura B. a) (A ∩ B) − (A ∩ C) = (A ∩ B) ∩ (A ∩ C)c = (A ∩ B) ∩ (Ac ∪ C c ) = (A ∩ B ∩ Ac ) ∪ (A ∩ B ∩ C c ) = ∅ ∪ (A ∩ B ∩ C c ) = A ∩ (B ∩ C c ) = A ∩ (B − C). b) (A − C) ∩ (B − C) = (A ∩ C c ) ∩ (B ∩ C c ) = A ∩ (B ∩ C c ) = A ∩ (B − C). El resto de los incisos de obtiene f´cilmente de la definici´n. a o A B C Figura B. ∞). A ∪ B = R. Gr´ficamente los conjuntos A y B son como se muestran en la Figura B. 6]. Compruebe que ambos lados de la igualdad del inciso (a) corresponden al evento que se muestra en la Figura B. Soluciones 141 12. −1) ∪ (3. B c = [−1. (A ∪ B) − (A ∩ B) = (A ∪ B) ∩ (A ∩ B)c = (A ∪ B) ∩ (Ac ∪ B c ) = [(A ∪ B) ∩ Ac ] ∪ [(A ∪ B) ∩ B c ] = [B ∩ Ac ] ∪ [A ∩ B c ] = (B − A) ∪ (A − B).2. A ∩ B = [−2. Se a tiene entonces que A = [−2. Ac = (−∞. 13.

Los conjuntos A y B son los que se muestra en la Figura B. El m´ximo es 50 % y el m´ a ınimo es 0 %. a B B A A (a) (b) Figura B. A −3 B √ − 2 0 0 1 √ 2 Figura B.4: 19. B − A = (−∞. ∞). √ Por lo tanto A √ [−3. √ c = [− 2. 1] ∪ √ ( 2. Ac = √ = √ (−∞. 1]. B = (−∞. Gr´ficamente los conjuntos A y B son los que se√ a muestran en la Figura B. . −3) ∪ ( 2. Los conjuntos A y B son los que se muestran en la Figura B.4 (a). A∩B = [−3. A△B = (−∞. a 20. − 2) ∪ ( 2. ∞). All´ pueden ı identificarse gr´ficamente las operaciones que se solicitan.3: 18. A∪B = (−∞. 1)∪( 2. −3) ∪ [− 2. − 2).142 17. ∞). ∞). 2]. 21. −3) ∪ √ (1. 1]. A− B √ √ B = [− 2. El m´ximo es 70 % y el m´ a ınimo es 40 %.3.4 (b). All´ pueden ı identificarse gr´ficamente las operaciones que se solicitan. ∞).

A1 ∩ B ⊆ A ∩ B = ∅. b1 . c2 ). A ∩ (B − A) = A ∩ (B ∩ Ac ) = ∅. c1 ). 32. b) P (A) = αP1 (A) + (1 − α)P2 (A) ≥ 0. (b. c2 ).(a1 . c) Cuando A y B son disjuntos. c). c2 ). c1 ). Conjunto potencia 26. n(A ∪ B) = n(A) + n(B). c1 ). (a2 . c2 ). a). 25. 2∅ = {∅}. b1 . b2 . b). b3 . a). b2 . a) P (Ω) = αP1 (Ω) + (1 − α)P2 (Ω) = α + (1 − α) = 1. 1). tienen un unico punto en com´ n que es (0. (c.(a2 . 29. No son ajenos. 143 27. P (A ∪ B) = αP1 (A ∪ B) + (1 − α)P2 (A ∪ B) = α(P1 (A) + P1 (B)) + (1 − α)(P2 (A) + P2 (B)) = [αP1 (A) + (1 − α)P2 (A)] + [αP1 (B) + (1 − α)P2 (B)] = P (A) + P (B). (a1 . b2 . b3 . entonces A1 ⊆ A ⊆ B. ı 31. Cuando A y B son ajenos. A × A = { (a. (a1 . b3 . a). y n(Ω)/n = n/n = 1. cuando A a y B son ajenos.(a.(c. . A×B×C = { (a1 .(a1 . ´ u 24. se cumple que n(A)/n ≥ 0. 23. (a2 . b).´ Apendice B. b3 .(a2 . c)}. y P (Ω) = #Ω/#Ω = 1. c1 ). b1 . Sea A1 ∈ 2A . (a2 . n(n − 1)/2. Para cualquier valor natural de n. c2 ).(a2 . Probabilidad 30. y de all´ se sigue la tercera propiedad. Por lo tanto A1 ⊆ B y en consecuencia A1 ∈ 2B . b2 . Producto Cartesiano 28.(b. Soluciones Conjuntos ajenos 22. b1 . Ahora tome l´ ımite cuando n tiende a infinito y obtenga el resultado requerido. c1 ). Adem´s. Claramente P (A) = #A/#Ω ≥ 0.(a1 . #(A ∪ B) = #A + #B.(c. c1 ). c). c2 )}. b).(a.(b.

Ahora cancele uno de los t´rminos. se tiene que P (A∩B) ≤ P (A). considere por ejemplo el experimento de lanzar una moneda equilibrada. en el experimento de lanzar un dado equilibrado. Finalmente la ultima desigualdad se obtiene de P (A) ≤ P (Ω) = 1. 37. b) Falso. P (∅) = P (∅ ∪ ∅) = P (∅) + P (∅). excepto cuando A y B o son independientes. La primera desigualdad es evidente. pues A ⊆ A ∪ B. P (Ac ∩ B c ) = 1 − P (A ∪ B) = 1 − P (A) − P (B) + P (A ∩ B). A puede ser Ω. P (A△B) = P (A ∪ B) − P (A ∩ B) = P (A) + P (B) − 2P (A ∩ B).3 . a) Verdadero. 0. siendo esta uni´n ajena. Ambos resultados tienen la misma probabilidad pero evidentemente no son iguales. An´logamente como A ⊆ A ∪ B. sea A el resultado de obtener una de las caras y B obtener la otra cara.5 . El segundo sumando es P (B − A). mientras que P (B) − P (A) = 1/2 − 1/2 = 0.144 33. P (Ac ) = 1 − P (A) < 1 − 1/2 = 1/2. La siguiente a desigualdad es consecuencia de la f´rmula P (A ∪ B) = P (A) + P (B) − P (A ∩ o B). Aplicando probabilidad. c) Falso. 39. a) Verdadero. Claramente P (A) ≤ P (B) pero A no est´ contenido en B. El resultado se obtiene de 1 ≥ P (A ∪ B) = P (A) + P (B) − P (A ∩ B). a) Falso. e 34. d) P (A∩B c ) = 40. c) Verdadero. 38. b) P (Ac ) = 0. 42. mientras que P (A)P (B) = 1/2 · 1/2 = 1/4. d) Falso. 35. b) Falso. P (A) ≤ P (A ∪ B). El resultado es cierto bajo la condici´n A ⊆ B. An´lisis combinatorio a 44. ´ 36. . Entonces P (B − A) = P (B) = 1/2. P (A ∪ B) = P (A) + P (B) − P (A ∩ B) > 1/2 + 1/2 − P (A ∩ B) = 1 − P (A ∩ B) ≥ 0. Considerando el ejemplo del inciso anterior.7 . b) Falso. a) P (A∪B) = 0. considere por ejemplo los eventos A = {1} y B = {2. Como A∩B ⊆ A. B = (B ∩ A) ∪ (B ∩ Ac ). c) P (Ac ∩B) = 0. 43. e) P (A△B) = 0. A y B pueden ser ajenos. En el experimento de lanzar una moneda equilibrada.5 . 3}. 6! = 720.2 . P (A ∩ B) = 0. pues A ∩ B ⊆ A. o P (B) = P (B ∩ A) + P (B ∩ Ac ). a 41. P (A) = 2/3. c) Verdadero.

47. 1. Si empiezan con el n´ mero 1. Como los cuatro d´ ıgitos 1 son id´nticos. n 2 − n = n(n − 1)/2. Soluciones 145 45. y entonces la respuesta es 10 · 10 · 10 · 5 = 5000 y esta vez no hay necesidad de omitir ninguno de ellos. Un entero positivo de a lo sumo cinco d´ ıgitos que es divisible por 2 es de la forma xxxxy en donde x puede ser cualquiera de 0. El total es 4536. No es cierto que la mitad de ellos sean pares y la otra mitad impares. la respuesta preliminar es 7! = 5040. — 60.´ Apendice B. Considerando inicial y artificialmente que los siete d´ ıgitos son todos distintos. la respuesta es 4!/(2! 1! 1!) = 6. excepto que debemos omitir el entero 00000. 48. 50 k 200 20−k / 250 20 . Existen 2296 pares y 2240 impares. 59. 9 y y puede ser 0. 4. 54. Simplifique el lado derecho. 2. Simplifique el lado derecho. 8. 56. e cualquier permutaci´n entre ellos produce el mismo n´ mero y por lo tanto o u debemos dividir el resultado preliminar por 4! An´logamente con los tres a d´ ıgitos 0. . Considerando que cada a˜ o tiene 365 dias. 49. . . 58. la respuesta es 1−365·364 · · ·(365− n n + 1)/365n. Por lo tanto el total es 10 · 10 · 10 · 10 · 5 = 50000. 6. 46. 5 3 = 5!/3!2! = 10. 50. 52. El total de casos posibles es 5! = 120. Razonando como en el ejercicio anterior. — . . Simplifique el lado derecho. 55. 15 · 14 · 13 = 2730. Por lo tanto la probabilidad buscada es 2/120 = 1/60. 57. 53. 51. entonces son u de la forma 1xxxy. Simplifique el lado derecho. La respuesta final es 7!/4! 3! = 5040/(24 · 6) = 35. Los casos favorables son dos: 12345 y 54321.

{a. 70. k en donde se desean colocar n bolas sin ninguna restricci´n en el n´ mero de bolas que caben en o u cada casilla. c) Infinito. . — 67. De esta forma. c}. — 62. b. Se pueden obtener un total de 2n subconjuntos distintos de un conjunto de cardinalidad n. . {d}. c}. d}. {a. c}. e 71. d}. d}. d} son: ∅. . b. Las respuestas son entonces n a) n+k−1 . — 72. {a. — 73. . 74. {a. lo mismo para las casillas 2. Considere que se tienen k casillas numeradas 1. 3. — 66. . 2n . c. — 68. {b. — 65. {a.146 61. b) m=0 m+k−1 . c. {c}. 7!/(3! 2!). 2. o uniones de ´stos. d}. . — 64. (n!)2 . n m . {a}. c. d}. {a. b. n! (n + 1)! 75. c. k. {c. d}. b}. {b. . {b}. Los 16 subconjuntos de {a. {a. 26 . el n´ mero de bolas en la casilla 1 es el valor de u x1 . — 63. b. El conjunto E corresponde al conjunto de los n ejes coordenados. 76. 77. . {b. 11!/(5! 4! 2!). d}. 78. — 69.

55 e) P (A ∪ B) = 0. a e 87. d) 83. Considere que los n´ meros 1. c) Cierto. (a + b + c)3 = a3 + b3 + c3 + 3ab2 + 3ac2 + 3a2 b + 3a2 c + 3b2 c + 3bc2 + 6abc. c) Falso. Con A = ∅ se obtiene P (A|B) = 0.95 f) P (A ∪ B c ) = 0. El problema puede entonces traducirse en colocar k bolas en este arreglo de casillas en donde cada casilla admite a lo sumo una bola.05 b) P (Ac ∩ B) = 0. Soluciones 147 79. 2. c) P (Ac ∩ B c ) = 1 − P (A ∪ B) = 1 − P (A) − P (B) + P (A ∩ B) = 1 − P (A) − P (B) + P (A)P (B) = (1 − P (A))(1 − P (B)) = P (Ac )P (B c ). 88. . Alternativamente P (A|B) + P (Ac |B) = P (A ∩ B)/P (B) + P (Ac ∩ B)/P (B) = P ((A ∩ B) ∪ (Ac ∩ B))/P (B) = P ((A ∪ Ac ) ∩ B)/P (B) = P (B)/P (B) = 1. P (A1 ∪ A2 |B) = P ((A1 ∪ . . 85.05 c P (A ∪ B) = 0. Solo es cuesti´n de escribir la definici´n de cada o o probabilidad condicional. a) P (Ω|B) = P (B)/P (B) = 1 b) P (A|B) ≥ 0 c) Sean A1 y A2 ajenos. b) Falso. Entonces P (A|B) = 1 o mientras que P (A) < 1. b) An´logo al primer a inciso. a) Falso. T´mese A = Ω.55. a) P (A ∩ B) = 0. a) Falso. P (A ∩ B ∩ C) = P (C|A ∩ B)P (A|B)P (B) = ppp = p3 . k 80. T´mese por ejemplo A = B1 ∪ B2 . 82. Entonces A1 ∩ B y A2 ∩ B tambi´n son ajenos. 84. a) Como B = (Ac ∩B)∪(A∩B). Entonces el lado izquierdo es uno o mientras que el lado derecho es dos. La respuesta es entonces n . Por lo tanto P (A1 ∪ A2 |B) = e P ((A1 ∪A2 )∩B)/P (B) = P ((A1 ∩B)∪(A2 ∩B))/P (B) = P (A1 ∩B)/P (B)+ P (A2 ∩ B)/P (B) = P (A1 |B) + P (A2 |B). Entonces P (A|B) = 1 mientras que P (B|A) = P (B) < 1. . . El lado izquierdo es 2 mientras o que el lado izquierdo es 1. El c´lculo es id´ntico para P (B|A ∩ B). T´mese A = B con 0 < P (A) < 1.´ Apendice B. T´mese A = Ω y B o tal que 0 < P (B) < 1. se tiene que P (Ac ∩B) = P (B)−P (A∩B) = P (B) − P (A)P (B) = P (B)(1 − P (A)) = P (B)P (Ac ).45 c) P (A ∩ B c ) = 0. P (A|A∩B) = P (A∩B)/P (A∩B) = 1. b) Falso. b) Cierto. a) Verdadero y ello es consecuencia del hecho de que P (·|B) es una medida de probabilidad. Todos los incisos son ciertos. Probabilidad condicional e independencia 81. 86. n representan casillas que se encuentran u ordenadas de manera natural.

3} y C = {3. a) P (∅∩∅) = P (∅) = 0 = P (∅)P (∅). La probabilidad de que no ocurra ninguno de los eventos es P (Ac ∩ B c ). (0. . 98. b) Falso. 1/2). . c) (0. El lado derecho es el cuadrado del lado izquierdo. 0). 97. Entonces se cumple P (A ∩ B) = 1/4 = P (A)P (B) y P (B∩C) = 1/4 = P (B)P (C). o e b) Falso en general. Alternativamente desarrolle P (A ∪ B) y factorice adecuadamente. 0 = P (A ∩ B) = P (A)P (B). Como A y B son independientes y ajenos. o d) Falso. . b) (0. 2}. 1/2). a) ∅ = (0. 3. a c) Falso. a) Cierto pues la definici´n es sim´trica respecto de los eventos A y B. El lado derecho es el cuadrado del lado izquierdo. Cuando P (A) es cero o uno la propiedad es v´lida. P (A ∩ ∅) = P (∅) = 0 = P (A)P (∅). (0. P (A ∪ B) = 1 − P (Ac ∩ B c ) = 1 − P (Ac )P (B c ) pues Ac y B c tambi´n son e independientes. De modo que la respuesta es n + · · · + n = 2n − n − 1. b) P (Ω∩Ω) = P (Ω) = 1 = P (Ω)P (Ω). 3/4). 92. o B = {2. 95. T´mese A1 = A2 . Considere el experimento de lanzar una moneda honesta. T´mese Ω = {1. T´mese B = Ω. . 4}. y sean A y B los eventos de que caiga una cara y la otra respectivamente.148 A2 )∩B)/P (B) = P (A1 ∩B)/P (B)+P (A2 ∩B)/P (B) = P (A1 |B)+P (A2 |B). 1/2). Entonces claramente A y B son ajenos pero no son independientes. o 89. 4} equiprobable con A = {1. n 1 n n 1 . Entonces P (A∩A) = P (A) o mientras que P (A)P (A) < P (A). 94. Para que este producto se anule forzosamente alguno de los factores tiene que ser cero. d) (0. n 2 . (1/2. 93. T´mese B1 = B2 . c) Falso. . . (1/4. a) Falso. n . n es respectivamente . pero P (A∩C) = 0 distinto a P (A)P (C) = 1/4. que por la independencia es igual a P (Ac )P (B c ) = (1 − p1 )(1 − p2 ). El total de subconjuntos de cardinal 1. . 1/2). . 2. 96. T´mese A tal que 0 < P (A) < 1. P (A ∩ Ω) = P (A) = P (A)P (Ω). 2. Entonces A y B son independientes pero no son o ajenos. 1/2). 90. 1). 91.

4 + 0. P (E0 |R0 ) = P (R0 |E0 )P (E0 )/P (R0 ) = 0. 102.4/0. Teorema de Bayes 101. y N cuando en particular son todas negras. . 2 y u 3 respectivamente. . Entonces por el teorema de ı o o probabilidad total.2 · 0.38 = 0.6/0. . Sea R0 el evento “se recibe un cero”. Entonces a a) b) c) d) P (R0 ) = P (R0 |E0 )P (E0 ) + P (R0 |E1 )P (E1 ) = 0.84. los valores pueden ser 0. Entonces P (N |A) = P (A|N )P (N )/P (A) = n n b k /[ k + k ].6 = 0. Soluciones Teorema de probabilidad total 149 99.62 = 0.9 · 0. Claramente P (R1 ) = r/(r +b). Se puede usar el m´todo de inducci´n sobre n. y o en tal situaci´n puede considerarse que la configuraci´n inicial de la urna o o cambia.1 · 0.38. c c P (Rn+1 ) = P (Rn+1 |R1 )P (R1 ) + P (Rn+1 |R1 )P (R1 ) r+c r r b = × + × r+b+c r+b r+b+c r+c r = . 2. P (E1 |R1 ) = P (R1 |E1 )P (E1 )/P (R1 ) = 0. 1. N2 y N3 los eventos correspondientes a escoger los n´ meros 1.8 · 0. Entonces P (A) = P (A|N1 )P (N1 ) + P (A|N2 )P (N2 ) + P (A|N3 )P (N3 ) = 11/108.62. Se condiciona la a probabilidad del evento Rn+1 dado el resultado de la primera extracci´n. c) Puede ser continua y n . 1. 2. .6 = 0. de modo que el evento Rn+1 se refiere ahora a la n-´sima extracci´n e o y all´ es donde se usa la hip´tesis de inducci´n.8 · 0. si la escala de medici´n son o a˜ os. Sea A el evento “obtener 5 al lanzar el dado”. ıa An´logamente se definen los eventos R1 y E1 . P (R1 ) = P (R1 |E0 )P (E0 ) + P (R1 |E1 )P (E1 ) = 0.´ Apendice B. Variables aleatorias 103. . Sean N1 . e o Suponga entonces v´lida la igualdad P (Rn ) = r/(r + b). . b) Discreta con posibles valores 0.87.4 + 0.9 · 0. y E0 el evento “se env´ un cero”. a) Discreta. r+b 100. Sea A el evento cuando todas las bolas son del mismo color.

.1 x f (x) 0 0. 0.2 2 0. 3}) = 1/6.15 25 0.1 1 0. P (X ≥ π) = (π − 2)/2π.2 9 0. 1/2). P (X ∈ {2.7.15 1 0. 112. 3. P (X ∈ {2.15 5 0. 108. −2. 8. d) Discreta con posibles valoo res 0. 1). 110. 109. P (X = 0) = 1/6. o lo cual no es permitido. P (X ∈ {2. 2.15 3 0. 2. 1).150 considerarse te´ricamente el intervalo [0.1 . P (Y > X) = 1/2.8. P (X < 0) = 0. 105. . d) Continua con valores en (0. . 2. a) c = 1/55. P (X 2 = 1) = 0. P (X 2 = 1) = 0. 4. P (X < 3) = 3/55. P (X ≥ 0) = 0. El rango de X es el conjunto {−4.1 -7 0. P (X ≥ 0) = 1/2. P (X ∈ (1. P (X + Y ≤ 1) = 3/4 + 2/π. 1. ∞).4 -1 0. 2π]) = 1. b) c = 1/385. b) Discreta con valores en el conjunto {0. c = 1/2π. c = 1/2. . La funci´n de probabilidad de X 2 es o x f (x) La de |X| es Y la de 2X − 5 es x f (x) -9 0. . 4}) = 9/385.1 5 0.4 0 0. P (X < 0) = 1/3. a) y b) La constante c no puede ser cero.15 4 0.15 -5 0. P (X < 3) = 3/385. P (X ∈ [−π. si s´lo se consideran unidades monetarias. . 6}. P (Z < 1/2) = 1/4 y P (1/3 < Z < 1/2) = 5/36.4 1 0. P (X ≥ 0) = 2/3. 9}. P (X < 0) = 1/2. 106. Tampoco puede ser positiva o negativa pues en ambos casos la funci´n de probabilidad toma valores negativos. 1. ∞)) = 1/2e. a) Continua con valores en (0. P (2X − 4 = 0) = 1/6 y P (X 2 = 4) = 1/3. 3. 4}) = 9/55. 111. . c) Continua con valores en (0. o 104. Funciones de densidad y de distribuci´n o 107.

Por lo o tanto P (0 ≤ X < 10) = F (9) = 1 − (1/2)10 . ¿Puede usted construir una variable e aleatoria continua con la propiedad indicada? . 121. 1). 8]. uno despu´s. 2. d) m = 5/2. a) Ω = {(1. uno despu´s. o 120. La funci´n de densidad es f (x) = 1/(2 x). para x ∈ (0. o 119. b) La funci´n de probabilidad de X es o x f (x) 3 2/12 4 2/12 5 4/12 6 2/12 7 2/12 d) P (X ≥ 6) = 1/3. (1. 1).´ Apendice B. 3]. 1. cero antes. P (X = 1/2) = 0 o √ y P (X > 1/2) = F (1) − F (1/2) = 1 − 1/ 2. . La funci´n de probabilidad de X 2 es o x f (x) 0 0. 3)}.8. (2. Es funci´n de densidad pues es no negativa y por el teorema del binomio se o 4 cumple que x=0 f (x) = (3/4+1/4)4 = 1. para x = 0. Es funci´n de densidad pues es no negativa y es tal que f (0)+f (1)+f (2) = 1. 117. (1. p) con n = 4 y p = 3/4. (4. e Esperanza. √ 116. 4). La primera no integra uno. Por lo tanto P (X = 2) = 2/3. (3. momentos 123. P (X = 6) = 1/6. (4. 2). c = 3. (2. 115. 3). Esta es la funci´n de probabilidad o de la distribuci´n bin(n. 118. . El valor de c es 0. cero antes. Se trata de una variable aleatoria discreta cuya funci´n de probabilidad es o f (1) = 1/3 y f (2) = 2/3. P (X ≥ 2) = 3/5. P (3 < X ≤ 5) = 1/2. 122. 2). 4). varianza. 2)(4. Puede considerarse la variable aleatoria constante X = a. y P (1 < X < 2) = 0. (3. (3. 1). 4). P (X ≤ 0) = 1/5. Ninguna de las funciones es de densidad. F (x) = x2 /9 para x ∈ [0. y para la segunda se tiene que f (3/2) < 0. La funci´n de probabilidad es f (x) = (1/2)x+1 .2 151 114. a) k = 2. e c) P (−1 ≤ X ≤ 3) = 2/5. . 3). 1). Alternativamente puede tomarse a X como aquella variable aleatoria que toma los valores a − 1 y a + 1 con id´ntica probabilidad 1/2. Soluciones 113. b) F (x) = (x + 2)/10 para x ∈ [−2.8 4 0. (2.

131. 130. Los resultados se siguen del hecho de que la esperanza de una constante es la constante misma y la varianza de una constante es cero. x=1 x=1 127. c) Var(X) = (c − E(X))2 × P (X = c) = (c − c)2 × 1 = 0. b) E(X) = 0. b) Falso. 128. e) Cierto.152 124. 125. E(X) = e = . la constante cero cumple tal condici´n. a) E(x) = 1. Intercamx=0 x(1/2) x=1 y=1 (1/2) ∞ ∞ biando el orden de las sumas se encuentra la expresi´n y=1 x=y (1/2)x+1 o . d) Cierto. La esperanza no existe por que la integral resultante no es absoluta∞ 1 2 ∞ x 2 ∞ x mente convergente: −∞ |x| π(1+x2 ) dx = π 0 1+x2 dx ≥ π 1 1+x2 dx ≥ 2 ∞ x 1 ∞ 1 π 1 x2 +x2 dx = π 1 x dx = ∞. Usaremos resultados de sumas o ∞ ∞ x x+1 x+1 geom´tricas. x(x + 1) x x+1 Entonces la suma x=1 f (x) es telesc´pica y vale uno. si X es una variable aleatoria con esperanza finita y positiva. f) Falso. x f1 (x) f2 (x) -1 1/2 1/3 0 0 1/3 1 1/2 1/3 ∞ c) Falso. a) E(X) = c × P (X = c) = c × 1 = c. pues la varianza es la esperanza de una variable aleatoria no negativa. 132. b) E(X n ) = cn × P (X = c) = cn × 1 = cn . Esta es la distribuci´n geo(p) con p = 1/2. 129. dos variables aleatorias constantes distintas tienen varianza cero. Para demostrar que esta funci´n es de densidad es necesario recordar que la o derivada de la funci´n h(x) = arctan x es h′ (x) = 1/(1 + x2 ). Tanto la esperanza como la varianza son constantes. Por lo tanto o ∞ 1 1 ∞ d 1 1 dx = π −∞ dx arctan x dx = π arctan x|∞ = π (π/2 − (−π/2)) = −∞ −∞ π(1+x2 ) 1. a) Cierto. La funci´n es no negativa. por ejemplo todas las constantes son variables aleatorias con varianza cero. las siguientes o dos distribuciones son distintas y ambas tienen esperanza cero. b) E(X) = 4/3. E(X) = 3 y Var(X) = 24/9. a) E(X) = 7/6. Usando fracciones parciales se comprueba la ideno tidad 1 1 1 = − . Por otro lado la eso 1 peranza no existe pues la suma ∞ xf (x) = ∞ x+1 es divergente. 126. entonces −X tiene esperanza negativa.

de modo que la suma es cero. Por lo tanto se obtiene el doble de la primera.´ Apendice B. Al ha2 2 cer el cambio de variable y = −x en la segunda integral se obtiene que es ∞ (−1)n+2 0 xn 1 e−x dx. . Para la primera suma escrix ba x(x + 1) como 2 y=1 y. 0 x2 e−x dx. a) Cierto pues la esperanza es lineal. Separando la parte positiva y la 2 ∞ 0 ∞ negativa se obtiene 0 x 1 e−x dx + −∞ x 1 ex dx. ∞ 1 b) El segundo momento es −∞ x2 2 e−|x| dx. y para ello usaremos la identidad x2 = x(x + 1) − x. c) Por los c´lculos anteriores Var(X) = E(X 2 ) − E 2 (X) = 2. Cuando n es par. Por lo tanto la varianza es Var(X) = y=1 E(X 2 ) − E 2 (X) = 3 − 1 = 2. se obtiene que la esperanza es cero. Cuando n es impar se trata del negativo de la pri2 mera integral. b) Falso pues en general Var(cX) = c2 Var(X). Para la varianza encontraremos primero el segundo momento. Ambos incisos son ciertos pues tanto E(X) como Var(X) son constantes. E(X 2 ) = ∞ ∞ ∞ 2 x+1 x+1 = − x=0 x(1/2)x+1 . Intercambiando ahora el orden de las sumas ∞ ∞ ∞ se llega a E(X 2 ) = 2 y=1 y x=y (1/2)x+1 − 1 = 2 y=1 y(1/2)y − 1 = 22 ∞ y(1/2)y+1 − 1 = 4 − 1 = 3. Soluciones ∞ 153 y = y=1 (1/2) = 1. Usando integraci´n por partes puede comprobarse que o esta integral vale 2. e ∞ es decir. 136. Nuevamente separando la parte ∞ 0 1 positiva de la negativa se obtiene 0 x2 1 e−x dx + −∞ x2 2 ex dx. 133. La tercera igualdad no es correcta pues la varianza en general no es lineal. Ahora al 2 hacer el cambio de variable y = −x en la segunda integral se obtiene que es id´ntica a la primera integral. Aplicando repetidas veces el m´todo de integraci´n por partes se comprueba que esta integral e o vale n! 135. c) Falso. Nuevamente separando la parte e 2 ∞ 0 positiva de la negativa se obtiene 0 xn 1 e−x dx + −∞ xn 1 ex dx. La segunx=1 x (1/2) x=0 x(x + 1)(1/2) da suma acaba de ser calculada y vale uno. Mediante el cambio de 2 2 variable y = −x se comprueba que la segunda integral es el negativo de la primera. a ∞ d) El n-´simo momento es −∞ xn 1 e−|x| dx. es id´ntica a la e ∞ primera integral. ∞ a) La esperanza de X es −∞ x 1 e−|x| dx. 134. El lado izquierdo es Var(X) y el lado derecho es siempre cero. La funci´n es de densidad pues es no negativa y la integral −∞ 1 e−|x| dx o 2 ∞ 1 ∞ puede ser escrita como 2 0 2 e−x dx = 0 e−x dx = 1. y entonces el resultado es 0 xn e−x dx.

Distribuci´n binomial o 140. n 2 1 n(n + 1)(2n + 1) = (n + 1)(2n + 1)/6. 6 4 Distribuci´n Bernoulli o 139. a) E(X) = i=1 n i 1 1 = n n i2 n i= i=1 n 1 n(n + 1) = (n + 1)/2. Factorizando np y escribiendo n−x = (n−1)−(x−1) se encuentra la expresi´n o np (n − 1)! px−1 (1 − p)(n−1)−(x−1) . b) E(X n ) = 0n (1 − p) + 1n p = p. p) y vale uno. x=0 x p (1 − p) n x=0 f (x) = 141. El resultado es entonces np.154 Distribuci´n uniforme discreta o n 137. Se calcula primero el segundo momento e . y f (0) + f (1) = 1. La suma puede empezar x=0 x desde uno. 45/100. Es muy sencillo verificar que f (x) ≥ 0. ´sta se convierte en la suma completa de la e distribuci´n bin(n − 1. ((n − 1) − (x − 1))!(x − 1)! x=1 n n lo cual es np x=1 n−1 px−1 (1 − p)(n−1)−(x−1) . (n + 1)(2n + 1) (n + 1)2 − = (n2 − 1)/12. n 6 b) E(X 2 ) = i=1 1 1 = n n i2 = i=1 c) Var(X) = E(X 2 ) − E 2 (X) = 138. Para la o varianza se usa la misma t´cnica. Haciendo el cambio de vax−1 riable y = x − 1 en la suma. Adem´s por el teorema del binomio a n n x n−x = (p + 1 − p)n = 1. Claramente f (x) ≥ 0. Adem´s a a) E(X) = 0 (1 − p) + 1 p = p. La esperanza es E(X) = n x n px (1 − p)n−x . c) Var(X) = E(X 2 ) − E 2 (X) = p − p2 = p(1 − p).

cada uno de ellos tiene probabilidad 1/26 . Los tres eventos tienen la misma probabilidad de ocurrir. Entonces efectivamente npq ≤ np pues q ≤ 1. 145. y procediendo como en el caso de la esperanza puede escribirse como n(n − 1)p2 (n − 2)! px−2 (1 − p)(n−2)−(x−2) . La primera suma puede empezar desde 2. 148. 2n n 147. (1/2)2n . Soluciones escribiendo x2 = x(x − 1) + x. x x x=0 x=0 La segunda suma acaba de ser calculada y vale np. ((n − 2) − (x − 2))!(x − 2)! x=2 n n lo cual es n(n − 1)p2 x=2 n−2 px−2 (1 − p)(n−2)−(x−2) . 142. 6 3 (1/2)6 . Al substituir la funci´n de o probabilidad de X resulta que Y tiene distribuci´n binomial con el mismo o n´ mero de ensayos n. . 143. entonces Y cuenta el n´ mero de u e u fracasos. P (Y = x) = P (n − X = x) = P (X = n − x). p) y vale uno. Haciendo el cambio x−2 de variable y = x − 2 en la suma. ´sta se convierte en la suma completa e de la distribuci´n bin(n − 2.´ Apendice B. Recuerde que Var(X) = npq y E(X) = np. 146. n 155 E(X 2 ) = x=0 n x2 n x p (1 − p)n−x x n n x n x = x(x − 1) p (1 − p)n−x + x p (1 − p)n−x . Si X cuenta u e el n´ mero de ´xitos en n ensayos Bernoulli. pero la probabilidad de ´xito es ahora 1−p. es decir. n = 8 y p = 1/2. El segundo momento es entonces o n(n − 1)p2 + np. Desarrolle el lado derecho. Por lo tanto Var(X) = E(X 2 ) − E 2 (X) = n(n − 1)p2 + np − n2 p2 = np(1 − p). 144.

Usaremos resultados de sumas geom´tricas. x Para la primera suma escriba x(x + 1) como 2 y=1 y.156 Distribuci´n geom´trica o e 149. Por lo tanto la varianza es Var(X) = E(X 2 ) − E 2 (X) = 2(1 − p)/p2 − (1 − p)/p − (1 − p)2 /p2 = (1 − p)/p2 . y e−λ = 1 − λ + λ2 /2! − λ3 /3! + · · · 156. Desarrolle el lado derecho. Adem´s a ∞ x=0 f (x) = ∞ x=0 p(1 − p)x = p(1/p) = 1. Intercambiando el orden de las sumas se encuentra la ∞ ∞ x y expresi´n ∞ o y=1 x=y p(1 − p) = y=1 (1 − p) = (1 − p)/p. Para la varianza encontraremos primero el segundo momento.2706. La segunda suma acaba de ser calculada y vale (1-p)/p.66 extracciones. a . La funci´n f (x) es no negativa y es tal que o x=0 f (x) = x=0 e x! ∞ λx = e−λ x=0 x! = e−λ eλ = 1.593 c) Una o dos computadoras descompuestas tienen probabilidad m´xima 0. E(X) = e x=0 xp(1 − p) = ∞ x x x=1 y=1 p(1 − p) . P (X ≥ a + b | X ≥ a) = P (X ≥ a + b)/P (X ≥ a) = p x=a+b (1 − ∞ p)x /(p x=a (1 − p)x ) = (1 − p)a+b /(1 − p)a = (1 − p)b = P (X ≥ b). E(X 2 ) = x=1 x2 p(1 − p)x = x=0 x(x + 1)p(1 − p)x − ∞ x x=0 xp(1 − p) . ∞ Distribuci´n Poisson o −λ λ 153. a) 0. 151. 8/3=2. f (x) ≥ 0. y para ello usaremos la identidad ∞ ∞ x2 = x(x + 1) − x.323 b) 0. Para la esperanza tenemos que E(X) = ∞ ∞ ∞ −λ λx −λ λx −λ λx−1 x=1 e x=1 e x=0 x e x! = (x−1)! = λ (x−1)! = λ. 155. Usando la igual2 dad x = x(x − 1) + x. ∞ x 150. 152. Sume las series eλ = 1 + λ + λ2 /2! + λ3 /3! + · · · . puede encontrarse que el segundo momento es E(X 2 ) = λ2 + λ. Por lo tanto Var(X)= E(X 2 ) − E 2 (X)= λ2 + λ − λ2 = λ. ∞ ∞ x 154. Intercambiando ahora ∞ ∞ el orden de las sumas se llega a E(X 2 ) = 2 y=1 y x=y p(1 − p)x − (1 − p)/p ∞ ∞ 2 = 2 y=1 y(1 − p)y − (1 − p)/p = p y=1 yp(1 − p)y − (1 − p)/p = 2(1 − p)/p2 − (1 − p)/p.

E(X n ) = a)). 1 0 b xn 1 dx= 1/(n + 1). Este ejercicio no es f´cil. Al substituir estos resultados en la f´rmula Var(X)= E(X 2 )−E 2 (X) se obtiene o Var(X) = r(1 − p)/p2 . a) E(X)= a x 1/(b − a) dx= (b2 − a2 )/(2(b − a)) = (a + b)/2. Distribuci´n uniforme continua o 161. y la integral de f (x) es el ´rea del rect´ngulo de base a a b − a y altura 1/(b − a) que vale uno. p). Factorice el t´rmino (1 − p)(r + x − 1)/x en la expresi´n de P (X = x). e o Distribuci´n hipergeom´trica o e 160. El resultado se sigue de la f´rmula o r n k=0 k m r−k = n+m r .´ Apendice B. Por lo tanto Var(x) a = E(X 2 ) − E 2 (X)= (a2 + ab + b2 )/3 − (a + b)2 /4= (b − a)2 /12. Soluciones Distribuci´n binomial negativa o 157 157. 163. 159. x 158. La x=1 x x suma resultante es uno pues se trata de las probabilidades de la distribuci´n o bin neg(r. xn 1/(b − a) dx= 1 n+1 b (n+1)(b−a) x a b a = (bn+1 − an+1 )/((n + 1)(b − . Para la varianza use la f´rmula x2 = x(x − 1) + x para calcular o primero E(X 2 ). Claramente f (x) ≥ 0. b) E(X 2 )= b 2 x 1/(b − a) dx = (b3 − a3 )/(3(b − a))= (a2 + ab + b2 )/3. El procedimiento es an´logo al caso de a la esperanza. el resultado es E(X 2 )= r(r + 1)(1 − p)2 /p2 + r(1 − p)/p. separando las sumas. factorice el t´rmino r(1 − p)/p en la expresi´n E(X)= e o ∞ r+x−1 r p (1 − p)x . 162. y la expansi´n (1 + t)a = o t para a real x=0 x k k ∞ ∞ y |t| < 1. Entonces x=0 r+x−1 pr (1 − p)x = pr x=0 (−1)x −r (1 − p)x x x ∞ = pr x=0 −r (p − 1)x = pr (1 + p − 1)−r = 1. Observe que la suma puede empezar desde 1. Para la esperanza. Una forma de resolverlo es a trav´s de la f´rmula a e o ∞ −n a x = (−1)k n+k−1 . E(X n )= 164.

Si n es impar. E(X) = 0 x λ e−λx dx. 1) y Y toma valores en (−5. 1 1 166. se obtiene E(X) = 0 e−λx dx = (1/λ) 0 λ e−λx dx= 1/λ.158 1 165. E(X) = 10 = 1/λ. Si n es par. 171. Por lo tanto de 1000 usuarios. Vea un ejercicio anterior para la o demostraci´n de que la media es tambi´n (a + b)/2. 170. Pero fX ((y + 5)/10) vale uno s´lo cuando 0 < (y + 5)/10 < 1. 0 169. 172. Entonces P (X > 60)= 1 − P (X ≤ 60)= 1 − (1 − e−60/10 )= e−6 = 0. Para cualquier y ∈ (−5. aproximadamente 2.3654 . 5). La mediana en este caso es unica y vale m = (a + b)/2 pues cumple la ´ condici´n P (X ≤ m) = P (X ≥ m) = 1/2. Derivando fY (y) = fX ((y + 5)/10) 1/10. entonces n + 1 es impar y la integral es 1/(n + 1). si −5 < y < 5. X toma valores en (0. Suponga que el tiempo se mide en minutos. usando nuevamen∞ ∞ te integraci´n por partes. 5). Usando integraci´n por partes con u = x y dv = o ∞ ∞ λ e−λx dx. 5).6321 . Por lo o tanto. entonces n + 1 es par y la integral se anula. a) P (X < 10) = F (10) = 1 − e−10/10 = 1 − e−1 = o 0. FY (y) = P (Y ≤ y)= P (10X − 5 ≤ y)= P (X ≤ (y + 5)/10)= FX ((y + 5)/10). o e Distribuci´n exponencial o 168. Para la varianza calcule primero el segundo momento.002478 . Y tiene distribuci´n unif(−5. b) P (10 < X < 60) = F (60)−F (10) = (1−e−6 )−(1−e−1 )= 0. . F (x) F (y)= (1 − e−λx )(1 − e−λy ) = 1 − e−λx − e−λy + e−λ(x+y) = (1 − e−λx ) + (1 − e−λy ) − (1 − e−λ(x+y) ) = F (x) + F (y) − F (x + y). E(X 2 ) = 0 x2 λ e−λx dx = 2 0 x e−λx dx = o ∞ −λx 2 2 dx = 2/λ .47 tienen conexi´n mayor a una hora. o 167. E(X n ) = −1 xn 1/2 dx = 2(n+1) xn+1 −1 . f (x) ≥ 0 y ∞ 0 ∞ λ e−λx dx = −e−λx |∞ = 1. es decir. P (X ≥ x + y | X ≥ x)= P (X ≥ x + y)/P (X ≥ x) = e−λ(x+y) /e−λx = e−λy = P (X ≥ y). Por lo tanto Var(X)= E(X ) − E 2 (X) = (2/λ) 0 x λ e 2 2 2 2/λ − 1/λ = 1/λ . Por lo tanto λ = 1/10.

b) x)b−1 dx = = Por lo tanto E(X ) = ab (a+b+1)(a+b)2 . b) Por el inciso anterior.b) = 1 1 0 B(a. a+1 a a+1 a a2 a+b+1 a+b .b) 1. adem´s haciendo el cambio de variable t = λx se o a n−1 ∞ ∞ 1 obtiene 0 (λx) λ e−λx dx = Γ(n) 0 tn−1 e−t dt = Γ(n) = 1. b) = a+b+1 a+b B(a. c) An´logo al inciso anterior. pero Γ(1) = 0 e−t dt= 1. Claramente f (x) ≥ 0. Por lo tanto Var(X)= E(X ) − E (X)= (n + 1)n/λ − n2 /λ2 = n/λ2 . La funci´n es no negativa. Use integraci´n por partes con u = tn y dv = o e−t dt. b) para obtener En 1 1 xa+1 (1 − 0 B(a+2. c) Esto es consecuencia de los dos incisos anteriores. Ahora se usa la identidad B(a + 1.b) B(a. por lo tanto es suficiente ∞ demostrar que Γ(1) = 1. y x)b−1 dx = B(a.b) .b) B(a. d) Haciendo el cambio de variable x2 /2 = t. a) E(X) = 0 x (λx) Γ(n) λ e λ Γ(n) vale uno.b) 1 B(a. Γ(n) Γ(n) (λx) −λx dx = Γ(n+1) 0 Γ(n+1) λ e−λx dx. a) Efect´ e el cambio de variable y = 1 − x. xa−1 (1 − x)b−1 dx = B(a+1.´ Apendice B. a ∞ n−1 ∞ n 175.b) a = a+b B(a. y usando la propiedad Γ(n + 1) = n Γ(n) se obtiene E(X) = n/λ. Soluciones Distribuci´n gama o 159 173. El ultimo integrando es la densidad normal est´ndar.b) B(a. 1 c) B(1. b) = a+b+1 B(a+1. 1) = 0 axa−1 dx = 1/a.b) a+1 a+1 a donde B(a+2. b) = 0 a(1 − x)b−1 dx = 1/b. a) E(X) = 1 x 0 B(a.b) B(a. ´ a ∞ Distribuci´n beta o 176. La integral 174. Γ(2) = 1 Γ(1). a) Γ(n + 1) = 0 tn e−t dt. u 1 b) B(a. . b).b) E(X) = a/(a + b).b) 1 0 xa−1 (1 − 177. 1 x2 b) E(X 2 ) = 0 B(a. 2 1 1 xa (1−x)b−1 dx 0 B(a+1.b) .b) xa−1 (1−x)b−1 dx = = B(a+1. b) B(a. √ ∞ √ √ 2 2 ∞ ∞ Γ(1/2) = 0 t−1/2 e−t dt = 2 0 e−x /2 dx = 2 2π 1 −∞ √1 e−x /2 dx 2 2π √ = π. B(a+2. n−1 n+1 ∞ ∞ −λx −λx b) E(X 2 ) = 0 x2 (λx) dx = Γ(n+2) 0 (λx) dx= (n + Γ(n) λ e λ2 Γ(n) Γ(n+2) λ e 2 2 2 2 1)n/λ . y entonces Var(X) = a+b+1 a+b − (a+b)2 178.b) xa−1 (1 − x)b−1 dx = B(a+2.

a) f (x) = 1/(π x(1 − x). 1 185. B(a. b + 1). b). e) Puede usarse la identidad B(a. 182. b)= 0 xn xa−1 (1 − x)b−1 dx)/B(a. Distribuci´n normal o 184. El siguiente a e 2 2 ∞ 1 m´todo hace uso de coordenadas polares. b)/B(a. b). Por lo tanto es suficiente demostrar que E(Z) = 0. a)= a+b B(a. a)= a+b B(b. 1) = 1. Entonces I 2 = 0 e−r /2 r dr= 1. para 0 < x < 1. 1/2) = (1/2)/(1/2 + 1/2) = 1/2. Este ejercicio no es f´cil pero puede resolverse por varios m´todos. Recuerde que B(1. 1) = 1/a. b b f) Por el inciso anterior. E(X n )= ( 1 0 x 0 1 ua−1 du)/B(a. 1/2)/B(1/2. 1)= xa . Compruebe que B(1. 1). 2 g) Efect´ e el cambio de variable x = cos θ. Considere la esperanza E(X) = −∞ x √2πσ2 e−(x−µ) /2σ dx. b) = 1/b. 1).160 d) B(a + 1. 1/2). Compruebe que B(a. para x ∈ (0. b). b) = 0 xa (1 − x)b−1 dx. u 179. 1). en donde la ulti´ −∞ −∞ 2π . b). 1/2)/B(1/2. Use integraci´n por partes con u = xa o 1 y dv = (1 − x)b−1 dx para llegar a B(a + 1. Para la varianza use E(X 2 ) = B(2 + 1/2. 183. y)= (r cos θ. b) Efect´ e el cambio de variable x = cos2 θ. Entonces I 2 = ( −∞ √1 e−x /2 dx) ( −∞ √1 e−y /2 dy) −∞ 2π e 2π 2π 2 ∞ ∞ 1 −(x2 +y 2 )/2 2π ∞ 1 e dx dy = 0 0 2π e−r /2 r dr dθ. en donde Z ∼ N(0. Haciendo el cambio de variable u = (x − µ)/σ se encuentra que E(X) = µ + σE(Z). u c) E(X) = B(1 + 1/2. b) = B(a + n. Sea I = −∞ √2πσ2 e−(x−µ) /2σ dx e = = ma integral se obtiene despu´s del cambio de variable a coordenadas polares e 2 ∞ (x. x (1−u)b−1 du)/B(1. b) = a 0 xa−1 (1 − x)b dx= b a b B(a. B(a + 1. Simplemente sustituya esos valores para los par´metros a y b en la distribua ci´n beta(a. o 180. b) = a a Γ(a + 1)Γ(b)/Γ(a + b + 1) = a+b Γ(a)Γ(b)/Γ(a + b)= a+b B(a. b + 1)= B(b + 1. 2 ∞ pero ello es f´cil pues el integrando de E(Z) = −∞ u √1 e−u /2 du es una a 2π ∞ 2 2 2 2 ∞ ∞ ∞ −x2 /2 √1 dx. Por lo tanto F (x)= ( 1 − (1 − x)b . b) = Γ(a)Γ(b)/Γ(a + b). r sen θ). 181. Por lo tanto F (x)= ( para x ∈ (0.

b) P (X > 0)= 1/2. . Resta encontrar E(Z 2 ) = −∞ y 2 √1 e−y /2 dy. fX (x)= fZ ((x−µ)/σ)/σ. 190. 1). a e 191. fX2 (x)= fX ( x) 2√x +fX (− x) 2√x = fX ( x) √x . fZ (u)= σ fX (µ + uσ)σ. Derivando respecto a u. Substituya la expresi´n de fZ (x) y encuentre la densidad N(µ.´ Apendice B.0228 .8413 . Derivando. o 187.375 . b) x = −1. Sea a X = µ + σZ. Derivando. Soluciones 161 derivada excepto por el signo. Para la varianza con2 2 ∞ 1 sidere el segundo momento E(X 2 ) = −∞ x2 √2πσ2 e−(x−µ) /2σ dx. Suponga X ∼ N(µ. FX 2 (x)= P (X 2 ≤ x)= P (− x ≤ X ≤ x) = FX√ x) − ( √ √ √ 1 1 1 FX (− x). Suponga Z ∼ N(0.115 . Por lo tanto E(X) = µ.0228 . σ 2 ). 2 186. Por lo tanto E(X 2 ) = µ2 + σ 2 . Efect´ e u 2 nuevamente el cambio de variable y = (x − µ)/σ y encuentre que E(X )= 2 ∞ µ2 +2µE(Z)+σ 2 E(Z 2 ). Substituya ahora en esta expresi´n la funci´n de densidad N(µ.4772 . Para x > 0. fY (y)= fX (−y). a) P (X ≤ 10)= P (Z ≤ 1)= 0.0013 . c) P (0 < X ≤ 40)= P (0 < Z ≤ 4)= 1/2. Esta 2π integral puede realizarse por partes con u = y y dv = y √1 e−y /2 dy. e) P (−10 < X ≤ 10)= P (−1 < Z ≤ 1)= 0. d) P (X ≥ 20)= P (Z ≥ 2)= 0. √ √ √ 192. Entonces FY (y)= P (Y ≤ y)= P (−X ≤ y) = P (X ≥ −y)= 1 − P (X < −y)= 1 − FX (−y). fY (y)= fX ((y − b)/a)/a. a) P (X ≥ 10)= 1/2. a) x = 1. c) P (0 < X ≤ 10)= P (−2 < Z ≤ 0)= 0. Haga un an´lisis a semejante para el caso a < 0. σ 2 ). Substituya ahora la funci´n de densidad de X evaluada en −y y compruebe que se trata de la o densidad normal con media −µ y varianza σ 2 . Entonces FX (x)= P (X ≤ x) = P (µ + σZ ≤ x)= P (Z ≤ (x−µ)/σ)= FZ ((x−µ)/σ). El procedimiento es reversible. σ 2 ) y encuentre la funci´n o o o de densidad normal ahora con media aµ + b y varianza a2 σ 2 . b) P (X < 0)= P (Z < −2)= 0. 189. d) P (X ≥ 30)= P (Z ≥ 3)= 0. Derivando. El resul2π tado es 1. Sea Y = −X. 188. e) P (−20 < X ≤ 10)= P (−6 < Z ≤ 0)= 1/2. Derivando respecto a x.6826 . Sea Z = (X − µ)/σ. tenga cuidado al dividir por tal cantidad. Entonces FY (y)= P (Y ≤ y) = P (aX + b ≤ y)= P (X ≤ (y − b)/a)= FX ((y − b)/a). Entonces FZ (u)= P (Z ≤ u)= P ( X−µ ≤ u)= P (X ≤ µ+uσ)= FX (µ+uσ). y entonces Var(X)= (µ2 + σ 2 )−µ2 = σ2 . Suponga a > 0. Substituya la expresi´n para fX (x) y encuentre la densidad o normal est´ndar. Los nuevos par´metros son id´nticos al caso anterior.

Distribuci´n ji cuadrada o 195. Distribuci´n t o 198. fY (y)= fX (y)+fX (−y)= 2fX (y). Sea X el llenado de un vaso cualquiera. la varianza es el .0013 .1587 . Para y > 0. o 194. Ahora substituya la funci´n de densidad de X. 199. el exponente de t es (n/2) + 1. por lo tanto la integral es cero. Para comprobar que esta funci´n integra uno o o efect´ e el cambio de variable 1 − u = (1 + x2 /n)−1 y reconstruya la integral u de B(1/2. 100). FY (y)= P (Y ≤ y)= P (|X| ≤ y)= P (−y ≤ X ≤ y)= FX (y) − FX (−y). que puede ser escrito como (n/2) + 2 − 1. El c´lculo del m-´simo momento sigue las mismas l´ a e ıneas. el exponente de t es n/2. Para la varianza. simplemente substituya el valor n = 2 en la densidad χ2 (n). De mil clientes. c) P (X > 320)= P (Z > 2)= 0. La integral E(X) es absolutamente convergente y el integrando es una funci´n o impar. Suponga X ∼ N(320. o 196. b) P (290 < X < 305)= P (−1 < Z < 1/2)= 0. Efect´ e el cambio de variable t = x/2 dentro de o u la integral. o menos. La integral resultante es la funci´n gama evaluada en n/2. Ahora reconstruya la integral resultante como la funci´n gama evaluada en (n/2) + 2. que puede ser escrito como (n/2) + 1 − 1. Despu´s simplifique usando la propiedad Γ(n + 1) = e n Γ(n). Reconstruya la integral como la funci´n gama o evaluada en (n/2) + 1. calcule primero el segundo momento. Entonces a) P (X > 310)= P (Z > 1)= 0. 197. o 193. 1. Despu´s o e simplifique. Recuerde que Γ(1) = 1.5328 .3 reclamar´n por vasos servidos a con 270 ml. d) P (X < 270)= P (Z < −3)= 0. n/2). Para la esperanza. Dado este resultado.0228 . Derivando. La funci´n es no negativa.162 Ahora substituya la expresi´n para fX (x) y encuentre la funci´n de densidad o o de la distribuci´n χ2 (1). En estos c´lculos es conveniente hacer el cambio de variable t = x/2 en cada a una de las integrales. La funci´n es no negativa.

— 206. — 203. — 207. — 208. Efect´ e el cambio de variable 1 − u = (1 + x2 /n)−1 en u la integral E(X 2 ). Vectores aleatorios 200. — Variables y tipos de datos 204. n i=1 (xi − x) = ¯ n i=1 xi − n¯ = x n i=1 xi − = n i=1 xi = 0. Id´ntico al ejercicio anterior. — 213.´ Apendice B. Derive la funci´n x(c) respecto de la variable c. Soluciones 163 segundo momento. iguale a cero y encuentre que o ¯ c = x. — Estad´ ıstica descriptiva 205. despu´s e simplifique. 209. (n − 2)/2). ¯ 212. Compruebe que la segunda derivada es negativa. — 201. x x n i=1 xi + n¯2 = x 210. x2 − 2¯ x i n i=1 n ¯ 2 i=1 (xi − x) = n 2 x2 i=1 xi − 2n¯ + n 2 ¯ ¯2 i=1 (xi − 2xi x + x ) n 2 2 n¯ = i=1 xi − n¯2 . y reconstruya la integral de B(3/2. — . e 211. — 202.

E(ˆ 2 ) = σ 1 2(n − 1) n−1 i=1 n−1 i=1 1 n n i=1 E(Xi − µ)2 = 1 n n Var(Xi ) = i=1 1 n n σ2 = σ2 . — (σ 2 + µ2 − 2µ2 + σ 2 + µ2 ) = 1 2(n − 1) n−1 2σ 2 = σ 2 . — M´todo de m´xima verosimilitud e a 223. E(θ) = E(αθ1 + (1 − α)θ2 ) = αE(θ1 ) + (1 − α)E(θ2 ) = αθ + (1 − α)θ = θ. i=1 M´todo de momentos e 220. — 218. — Estimaci´n puntual o ˆ ˆ ˆ ˆ ˆ 215. 216. E(ˆ 2 ) = σ 217. i=1 E(Xi+1 −Xi )2 = 1 2(n − 1) n−1 2 (E(Xi+1 )−2E(Xi+1 )E(Xi )+ i=1 1 E(Xi2 )) = 2(n − 1) 219. . — 222. — 221.164 Muestras aleatorias y estad´ ısticas 214. λ = X. — ˆ ¯ 224.

— 165 Pruebas de hip´tesis o 227. Se acepta H0 . — 226. el cociente µ0 −µ1 se va a infinito o menos infinito depenσ/ n diendo del signo de la diferencia µ0 − µ1 . Se rechaza H0 .´ Apendice B. √ 229. Soluciones Estimaci´n por intervalos o 225. . 228. Cuando n → ∞.

166 .

±2. . . ±3. . . 2. racionales a/b en donde a. 3. . El alfabeto griego Aα Bβ Γγ ∆δ E ǫ. b ∈ Z con b = 0. ϕ X χ Ψψ Ωω rho sigma tau upsilon phi chi psi omega 167 . ε Zζ H η Θ θ. reales. ς T τ Υυ Φ φ. enteros 0. .Ap´ndice C e Formulario Notaci´n o N Z Q R Conjunto Conjunto Conjunto Conjunto de de de de n´ meros u n´ meros u n´ meros u n´ meros u naturales 1. ϑ alpha beta gamma delta epsilon zeta eta theta Iι Kκ Λλ M µ Nν Ξξ Oo Ππ iota kappa lambda mu nu xi omikron pi P ρ. ±1. ̺ Σ σ.

9974 0.8770 0.9986 0.4 0.7823 0.9941 0.9993 0.9979 0.1 3.9319 0.9987 0.9997 0.6 2.06 0.9997 0.9963 0.5753 0.9945 0.9192 0.9989 0.9957 0.8289 0.9904 0.9846 0.3 2.8186 0.7019 0.0 1.9991 0.9993 0.7257 0.5 0.5199 0.5398 0.9890 0.6554 0.8643 0.8980 0.8023 0.9719 0.5040 0.5000 0.9997 0.7190 0.8810 0.9986 0.9992 0.9821 0.5080 0.6 0.9664 0.6141 0.5948 0.9951 0.9545 0.6293 0.3 0.6103 0.8790 0.9656 0.9761 0.8888 0.9901 0.9979 0.9988 0.6443 0.9981 0.6480 0.7 2.9990 0.7357 0.9994 0.9830 0.9993 0.9953 0.5987 0.9997 0.5 1.9429 0.9995 0.9686 0.3 3.9671 0.9994 0.8869 0.8997 0.9878 0.8621 0.5517 0.8365 0.9938 0.4 2.9985 0.9993 0.00 0.9994 0.8508 0.9131 0.9918 0.6628 0.9554 0.9970 0.9978 0.9932 0.7642 0.2 3.9 3.9934 0.8962 0.6 1.9292 0.7389 0.9573 0.9162 0.9948 0.7967 0.1 0.6255 0.9633 0.8708 0.9996 0.9881 0.7794 0.8577 0.9992 0.9995 0.09 0.6406 0.9693 0.5832 0.9706 0.3 1.8340 0.9936 0.5 2.9147 0.9525 0.8133 0.8438 0.9987 0.9082 0.05 0.9994 0.7611 0.9982 0.2 1.9996 0.9896 0.7852 0.9997 0.8729 0.8212 0.5239 0.9995 0.9996 0.8315 0.9463 0.8051 0.9964 0.9505 0.8907 0.9357 0.9893 0.6517 0.6844 0.9997 0.9989 0.4 1.9995 0.9982 0.9990 0.2 0.9996 0.9931 0.9987 0.9949 0.8686 0.7704 0.07 0.9991 0.9 2.5120 0.5871 0.8849 0.9988 0.9922 0.6331 0.9884 0.7422 0.9955 0.9744 0.9998 .9838 0.8599 0.08 0.9868 0.9960 0.9994 0.9992 0.8106 0.0 2.9345 0.9842 0.9956 0.9871 0.5160 0.9974 0.8531 0.9803 0.9973 0.8925 0.9783 0.9599 0.0 3.8485 0.9864 0.9441 0.9826 0.9984 0.01 0.7673 0.9992 0.9834 0.9015 0.5636 0.9265 0.9474 0.9452 0.5478 0.9608 0.9977 0.9850 0.7324 0.6368 0.6808 0.9641 0.9875 0.9997 0.9952 0.9887 0.7088 0.9990 0.9916 0.8 0.7939 0.9382 0.7910 0.9032 0.5438 0.02 0.7517 0.9798 0.9564 0.9738 0.9983 0.9649 0.8238 0.9370 0.9495 0.9767 0.9713 0.9995 0.7454 0.9971 0.9920 0.9394 0.9969 0.7224 0.9996 0.8749 0.9943 0.8264 0.03 0.6950 0.5714 0.9981 0.9946 0.8159 0.8399 0.9909 0.7291 0.9972 0.0 0.8944 0.9989 0.9966 0.9418 0.7764 0.8 2.9699 0.6664 0.9207 0.1 2.9961 0.9582 0.9854 0.9678 0.168 Tabla de la distribuci´n normal est´ndar o a x 1 Φ(x) = √ 2π x −∞ e−t 2 /2 dt x 0.6591 0.6179 0.9591 0.9484 0.9535 0.9925 0.7580 0.9857 0.7157 0.7995 0.4 0.7486 0.5675 0.8830 0.9788 0.6879 0.8554 0.9997 0.9980 0.9808 0.9732 0.6026 0.8665 0.9940 0.6772 0.9099 0.9515 0.7123 0.5596 0.9778 0.6217 0.8413 0.8461 0.7881 0.9995 0.9625 0.6700 0.9817 0.9279 0.9959 0.9616 0.5359 0.9 1.9962 0.9898 0.9726 0.9756 0.9115 0.7 0.7549 0.9911 0.9861 0.9991 0.6915 0.9976 0.9793 0.9996 0.9406 0.04 0.9906 0.5279 0.5910 0.9977 0.9251 0.7054 0.8078 0.5793 0.5319 0.9927 0.9222 0.9967 0.9965 0.9975 0.9985 0.6064 0.9968 0.9750 0.9984 0.9929 0.6985 0.9049 0.1 1.9997 0.2 2.6736 0.9236 0.9913 0.9306 0.9066 0.8 1.7 1.9332 0.9812 0.9772 0.7734 0.9997 0.5557 0.9177 0.

725 1.878 2.313 1.333 1.05 6.282 .337 1.947 2.01 31.318 1.812 1.291 2.782 1.721 1.262 2.845 2.182 2.500 2.860 1.518 2.078 1.552 2.1 3.895 1.060 2.474 3.341 1.303 3.703 1.120 2.707 3.492 2.093 2.787 2.539 2.345 1.064 2.314 1.602 2.734 1.576 α =0.319 1.831 2.365 3.541 3.160 2.131 2.756 2.528 2.960 α =0.052 2.819 2.771 1.330 1.977 2.583 2.314 2.383 1.056 2.321 1.753 1.717 1.350 1.201 2.n ) = α n 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 ∞ α =0.779 2.807 2.086 2.701 1.638 1.508 2.771 2.761 1.764 2.476 1.169 3.485 2.101 2.776 2.145 2.397 1.074 2.055 3.447 2.316 1.326 α =0.048 2.718 2.n P (T ≥ tα.462 2.714 1.250 3.323 1.763 2.706 1.´ Apendice C.797 2.005 63.467 2.821 2.179 2.624 2.533 1.132 2.920 2.886 1.650 2.740 1.306 2.143 2.032 3.681 2.499 3.356 1.355 3.106 3.657 9.711 1.440 1.841 4.796 1.896 2.069 2.898 2.363 1.365 2.861 2.706 4.372 1.833 1.998 2.415 1.473 2.965 4.015 1.045 1.699 1.325 1.645 α =0.604 4. Formulario 169 Tabla de la distribuci´n t(n) o α tα.943 1.025 12.110 2.708 1.567 2.821 6.328 1.353 2.746 1.925 5.571 2.315 1.311 1.080 2.479 2.012 2.729 1.228 2.

170 .

An introduction to applied probability. Chelsea Publishing Company. Problems and snapshots from the world of probability. M. A. C. Houghton Mifflin. [11] Mood A. G. N. 1979. Nivel Elemental. 1983. 2001. Port S. Port S. Tanis E. C. 1993. Stone C.. V. A. [8] Hoel P. C. G. McGraw Hill. Thomson. 1994. Elementos de c´lculo de probabilidades. Springer-Verlag. 21. [9] Hogg R.. Introduction to the theory of statistics. F. Serie Textos No.. 2003. 1971. Limusa.. [5] Garza T. John Wiley & Sons. Introducci´n a la teor´a de probabilidades y sus aplicaciones.. Elementos de probabilidad y a a estad´stica. 1971... Foundations of the theory of probability. ı ı [4] Feller W. y Hern´ndez-Lerma O. a [6] Hern´ndez-Del-Valle A. Introduction to statistical theory. Probabilidad y estad´stica para ingenier´a y ciencias. Houghton Mifflin. Sociedad Matem´tica Mexiı a cana. [3] Devore J. Probability and statistical inference.. Boes D. Introduction to probability theory. Sandell D.. [7] Hoel P. 171 . o ı 1973. UNAM. [10] Kolmogorov A. 1983. 1950.Bibliograf´ ıa [1] Blake I. J. [2] Blomm G. Graybill F. Stone C. Holst L. J.

John E.. 2da Edici´n.. 1999. Ejercicios y problemas de la teor´a de las probabiı lidades. Macmillan Publishing Company. 1994.172 Bibliograf´ ıa [12] Miller I. Miller M. [16] Velasco G. o [15] Wisniewski P. Academic Press. Probabilidad y estad´stica para ingenier´a y ciencias. 2000. ı ı Thomson. 1998. Trillas. M. Freund’s mathematical statistics. A first course in probability. .. Wisniewski P. Introduction to probability and statistics for engineers and scientists. Prentice Hall. [14] Ross S. [13] Ross S. M. 2001. Bali G.

67 a Poisson. 88 Diferencia sim´trica. 52 Ensayo Bernoulli. 53 beta. 85 de raz´n. 66 binomial. 68 o Estimaci´n o por intervalos. 71 uniforme continua. 55 e hipergeom´trica. 54 binomial negativa. 84 inferencial. 25 Combinaciones. 86 o nominal. 77 exponencial. 15 Coeficiente multinomial. 7 Esperanza. 85 Espacio equiprobable. 89 Estimador de m´xima verosimilitud. 70 marginal. 60 e ji-cuadrada. 90 puntual. 75. 90 a insesgado. 76 marginal. 79 Desviaci´n est´ndar. 49 Estad´ ıstica. 46 propiedades. 11 potencia. 64 gama. 88 Estad´ ıstica. 85 ordinal. 84 Estandarizaci´n. 59 conjunta. 92 173 . 80 normal. 92 m´ximo veros´ a ımil. 65 geom´trica. 49 o a de un conjunto de datos. 11 Densidad conjunta. 10 e Distribuci´n o arcoseno. 89 sesgado.´ Indice Axioma. 53 Escala de intervalo. 93 puntual. 130 Bernoulli. 23 Conjunto —s ajenos. 67 normal est´ndar. 84 descriptiva. 57 t. 62 uniforme discreta. 13 muestral.

101 o nivel de significancia. 90 a de momentos. 77 de un vector. 91 ´ Indice Media. 12 Prueba de hip´tesis. 13 frecuentista. 76 marginal. 52 Muestra. 22 o Partici´n. 13 subjetiva. 80 Funci´n de probabilidad. 38 Independencia de dos eventos. 94 grado de confianza. 13 a condicional. 75 Grado de confianza. 101 Ordenaciones con repetici´n. 39 o conjunta. 28 de un evento. 46 de un conjunto de datos. 87 muestral. 15 Principio de multiplicaci´n. 15 Producto Cartesiano. 84 aleatoria. 23 Poblaci´n. 11 Experimento aleatorio. 94 lim inferior. 54 Funci´n de densidad. 10 M´todo e de m´xima verosimilitud. 91 Momentos. 6 Funci´n o beta. 101 Rango de un conjunto de datos. 87 Momento muestral. 29 de variables aleatorias. 88 Mediana de un conjunto de datos. 94 lim superior. 21 o sin repetici´n. 66 de verosimilitud. 41 o conjunta. 84 o Postulado. 78 conjunta. 79 Funci´n de distribuci´n. 90 gama. 77 marginal. 20 o Probabilidad axiom´tica. 80 de varios eventos. 101 regi´n cr´ o ıtica. 88 . 43 o o bivariada. 92 poblacional. 92 Intervalo de confianza.174 sesgo de un. 30 o Permutaciones. 7 —s ajenos. 92 Evento. 87 Moda de un conjunto de datos. 94 Leyes de De Morgan. 65 indicadora. 94 Imagen inversa. 15 a cl´sica. 52 centrales. 29 Insesgamiento. 88 Nivel de significancia.

29. 84 aleatoria. 92 Teorema central del l´ ımite. 46 Variable. 47 Tri´ngulo de Pascal. 117 Valor esperado. 49 de un conjunto de datos. 101 n Regla del producto. 46 promedio. 74 175 . 74 discreto. 85 cuantitativa. 25 a Urna de Polya. 101 tama˜ o de la. 51 Vector aleatorio. 89 propiedades. 35 cualitativa. 74 continuo. 33 de probabilidad total.´ Indice Regi´n cr´ o ıtica. 30 del estad´ ıstico inconsciente. 87 muestral. 28 Sesgo. 70 de Bayes. 85 Varianza.

Sign up to vote on this title
UsefulNot useful