Curso elemental de probabilidad y estad´ ıstica

Luis Rinc´n o Departamento de Matem´ticas a Facultad de Ciencias UNAM Circuito Exterior de CU 04510 M´xico DF e

Agosto 2011

Pr´logo o
El presente texto contiene material para un curso semestral de probabilidad y estad´ ıstica. El objetivo es presentar de manera breve algunas de las ideas fundamentales de estas dos muy utiles ramas de las matem´ticas. El texto ´ a est´ dirigido a estudiantes de las distintas carreras de ingenier´ y otras caa ıa, rreras cient´ ıficas similares, cuyos programas de estudio contemplan un curso en donde se muestre el uso y aplicaci´n de la probabilidad y la estad´ o ıstica en sus respectivas ´reas de especialidad. Las ´reas de aplicaci´n son tan ama a o plias y diversas que no es razonable ni posible intentar mostrarlas todas en un texto como el presente. Se presentan entonces unicamente algunas de las ´ aplicaciones de los resultados te´ricos. Debido a la orientaci´n con la que se o o desea abordar estos temas, no se hace ´nfasis en el rigor matem´tico de las e a demostraciones de los resultados, sino en el uso, interpretaci´n y aplicaci´n o o de ´stos. Sin embargo, para una lectura provechosa de este material, se ree quiere, en determinados momentos, tener cierta familiaridad con algunos conceptos elementales de algebra y del c´lculo diferencial e integral. A lo ´ a largo del texto se presentan numerosos ejemplos, y en la parte final se encuentra una colecci´n de ejercicios y algunas sugerencias para resolverlos. El o A texto fue escrito en el sistema L TEX, la mayor´ de las ilustraciones fueron ıa elaboradas usando el paquete pstricks, y las fotos de los personajes fueron tomadas del archivo MacTutor (http://www-history.mcs.st-and.ac.uk/) de la universidad de St. Andrews en Escocia. Agradezco sinceramente todos los comentarios, correcciones y sugerencias que he recibido por parte de alumnos y profesores para mejorar este material. Toda comunicaci´n puede enviarse a la cuenta de correo que aparece o abajo. Luis Rinc´n o Agosto 2011 Ciudad Universitaria UNAM lars@fciencias.unam.mx

Contenido
1. PROBABILIDAD 1.1. Introducci´n . . . . . . . . . . . . . . . . . o 1.2. Probabilidad . . . . . . . . . . . . . . . . 1.3. An´lisis combinatorio . . . . . . . . . . . a 1.4. Probabilidad condicional e independencia 1.5. Variables aleatorias . . . . . . . . . . . . . 1.6. Funciones de densidad y de distribuci´n . o 1.7. Esperanza, varianza, momentos . . . . . . 1.8. Distribuciones de probabilidad . . . . . . 2. ESTAD´ ISTICA 2.1. Introducci´n . . . . . . . . . . . . o 2.2. Variables y tipos de datos . . . . 2.3. Estad´ ıstica descriptiva . . . . . . 2.4. Vectores Aleatorios . . . . . . . . 2.5. Muestras aleatorias y estad´ ısticas 2.6. Estimaci´n puntual . . . . . . . . o 2.7. Estimaci´n por intervalos . . . . o 2.8. Pruebas de hip´tesis . . . . . . . o A. Ejercicios B. Soluci´n a algunos ejercicios o C. Formulario ´ Indice anal´ ıtico iii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 10 19 27 35 39 48 57 87 88 90 92 95 108 110 117 125 141 183 217 225

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

iv

Contenido

Esto sucede en el a˜o de 1654.Cap´ ıtulo 1 PROBABILIDAD En esta primera mitad del curso estudiaremos algunos conceptos elementales de la teor´ matem´tica de la probabilidad. popularmente conocido como el caballero De Mere. Antonio de Gombaud. deseando conocer la respuesta al problema plantea a Blaise Pascal (1623-1662) la situaci´n. El problema al que nos referimos involucraba una gran cantidad de dinero y puede plantearse de la siguiente forma: Dos jugadores escogen cada uno de ellos un n´mero del 1 al u 6. distinto uno del otro. Esta teor´ tuvo como uno ıa a ıa de sus primeros puntos de partida el intentar resolver un problema particular concerniente a una apuesta de juego de dados entre dos personas. o e Con el paso del tiempo se sientan las bases y las experiencias necesarias para la b´squeda de una teor´ matem´tica que sintetice los conceptos y u ıa a los m´todos de soluci´n de los muchos problemas particulares resueltos a lo e o 1 . Pascal a su vez consulta con Pierre o de Fermat (1601-1665) e inician un intercambio de cartas a prop´sito del o problema. y apuestan 32 doblones de oro a que el n´mero escogido por uno de ellos aparece en tres ocasiones antes u que el n´mero del contrario al lanzar sucesivamente un dado. ¿C´mo debe dividirse el u o total de la apuesta si el juego se suspende? Uno de los apostadores. Con ello se inician algunos esn fuerzos por dar soluci´n a ´ste y otros problemas similares que se plantean. u Suponga que el n´mero de uno de los jugadores ha aparecido dos u veces y el n´mero del otro una sola vez.

Actualmente la teor´ cl´sica de la ıa a ıa a probabilidad se ha desarrollado y extendido enormemente gracias a muchos pensadores que han contribu´ a su crecimiento. en donde el azar es relevante. en 1933. Un experimento determinista es aquel que produce el mismo resultado cuando se le repite bajo las mismas condiciones. Kolmogorov (1903-1987) propone e a ciertos axiomas que a la postre resultaron adecuados para la construcci´n o de una teor´ de la probabilidad. Uno de estos problemas es el de ena contrar axiomas o postulados a partir de los cuales se pueda construir una teor´ matem´tica de la probabilidad. por ejemplo. Esta teor´ prevalece hoy en d´ y ha ıa ıa ıa adquirido el calificativo de teor´ cl´sica. ´ a pero sobre todo y principalmente. N. para modelar situaciones reales o imaginarias. o medir el ´ngulo de a . medir el vol´men de un gas cuando la presi´n y la temperatura u o son constantes produce siempre el mismo resultado.1. Introducci´n o Existen dos tipos de fen´nemos o experimentos en la naturaleza. celebrado en la ciudad a de Paris en el a˜o 1900. La teor´ de la proa ıa babilidad ha resultado util para resolver problemas puramente matem´ticos. el matem´tico ruso A. y es sin duda una parte ıdo muy importante y bien establecida de las matem´ticas. 1. n 1. los detero ministas y los aleatorios. el matem´tico David Hilbert (1862-1943) plantea 23 n a problemas matem´ticos de importancia. PROBABILIDAD Blaise Pascal (Francia 1623–1662) Pierre de Fermat (Francia 1601–1665) En el segundo congreso internacional de matem´ticas.2 largo de varios a˜os. Aproximadamente treinta a˜os deıa a n spu´s.

Para ser m´s precisos. sin embargo. el resultado que se observa no siempre es el mismo y tampoco es predecible. Muchas otras leyes de la f´ ısica son ejemplos de situaciones en donde bajo id´nticas condiciones iniciales. o registrar el n´mero ganador en un juego de loter´ son ejemplos cotidianos u ıa. de lo que ´l o ella conozca del experimento y de lo a e que esta persona desea observar en el experimento. y se le denota generalmente por la letra griega Ω (omega). u Es necesario mencionar. En principio no o sabemos cu´l ser´ el resultado de un experimento aleatorio. el resultado del experimene to es siempre el mismo.´ 1. as´ que por lo a a ı menos conviene agrupar en un conjunto a todos los resultados posibles. pediremos a que los experimentos aleatorios que consideraremos cumplan las siguientes caracter´ ısticas: a) El experimento debe poder ser repetible bajo las mismas condiciones iniciales. un experimento aleatorio es aquel que cuando se le repite bajo las mismas condiciones. En contraparte. esto depender´ del observador.1.1 El espacio muestral –o tambi´n llamado espacio muestra– o e de un experimento aleatorio es el conjunto de todos los posibles resultados del experimento. algunas herramientas y varios resultados que los a matem´ticos y otros pensadores han encontrado y desarrollado en el estudio a cient´ ıfico de los experimentos aleatorios. Definici´n 1. La teor´ de la probabilidad es la parte de las matem´ticas que se encarga ıa a del estudio de los fen´menos o experimentos aleatorios. Nuestro inter´s en este curso es estudiar ciere tos modelos matem´ticos. b) El resultado de cualquier ensayo del experimento es variable y depende del azar o de alg´n mecanismo aleatorio. que en algunas ocasiones no es f´cil a clasificar un experimento dado en aleatorio o determinista. . Introduccion 3 un rayo de luz reflejado en un espejo resulta siempre en el mismo resultado cuando el ´ngulo de incidencia es el mismo y el resto de las condiciones a son constantes. de experimentos aleatorios. El lanzar una moneda al aire y observar la cara de la moneda que mira hacia arriba.

4. y si se obtiene por ejemplo el resultado o “1”. Sin embargo puede tambi´n tomarse como espacio e muestral el conjunto que contiene a todos los posibles n´meros ganadores. equivalente a espacio muestral. . Ejemplo 1.1 Si un experimento aleatorio consiste en lanzar un dado y observar el n´mero que aparece en la cara superior. se llamar´ compuesto cuando consta de mas a . . Diremos que un evento es simple cuando consta de un solo elemento del espacio muestral. El subconjunto A Ö1. Ejemplo 1. 2. Esta letra proviene del t´rmino same pling space de la lengua inglesa. Con la ayuda de algunos ejemplos ilustraremos a continuaci´n o los conceptos de espacio muestral y evento. 2× corresponde al evento en el que la primera descompostura se observe entre la primera y la segunda unidad de tiempo.2 Considere el experimento aleatorio de participar en un juego de loter´a. que corresponde al suceso de obtener como resultado un n´mero par. decimos que no se observ´ la ocurrencia del evento A. Suponga que hay un mill´n de n´meros en esta loter´a y un juı o u ı gador participa con un boleto. 1000000Ù. 5. 6Ù. . B. o Ejemplo 1. en cambio. a o Si se consideran mediciones continuas del tiempo. 6Ù. PROBABILIDAD M´s adelante mostraremos que el espacio muestral no es necesariamente a unico y su determinaci´n depende del inter´s del observador o persona que ´ o e realiza el experimento aleatorio. . 3.3 Suponga que un experimento aleatorio consiste en observar el tiempo en el que una m´quina en operaci´n sufre su primera descompostura. 4. Como ejemplo de el espacio muestral es el conjunto Ω un evento para este experimento podemos definir el conjunto A Ø2. C. llamaremos evento a cualquier subconjunto del espacio muestral y denotaremos a los eventos por las primeras letras del alfabeto en may´sculas: u A. etc. “perder” Ù. Ω Ø1. decimos entonces que se u observ´ la ocurrencia del evento A.4 1. En algunos textos se usa tambi´n la letra e S para denotar al espacio muestral. Si al u lanzar el dado una vez se obtiene el n´mero “4”. ¿Cu´l es un posible espacio muestral para a este experimento? Naturalmente al jugador le interesa conocer su suerte en este juego y puede proponer como espacio muestral el conjunto Ω Ø“ganar”. entonces puede adoptarse como espacio muestral para este experimento el intervalo Ö0. Õ. 2. Este ejemplo sencillo muestra que el espacio muestral de un experimento aleatorio no es unico y depende del inter´s del ´ e observador. Por otro lado. es u decir. entonces claramente u Ø1.

Puesto que los conceptos de espacio muestral y evento involucran forzosamente la terminolog´ de conjuntos. se lee “A y B”. diferencia y complemento: a o o A A B B A¡B Ac Øω È Ω : ω È A ´ o Øω È Ω : ω È A y Øω È Ω : ω È A y Øω È Ω : ω Ê AÙ. ω È B Ù. Recordamos a continuaci´n o las operaciones b´sicas de uni´n. A B A B Ω A B A B Ω Figura 1. denotamos o la cardinalidad o n´mero de elementos de ese conjunto por el s´ u ımbolo #A. A B. A ¡ B . o o se lee “A ´ B” y la intersecci´n. Introduccion 5 de un elemento del espacio muestral. Si A es un conjunto. o o no contenci´n ( ) de un conjunto en otro. y cualquier elemento de Ω lo denotaremos por ω (omega min´scula). Cuando los conjuntos se expresan en palabras.1: La diferencia entre dos conjuntos A y B se denota por A ¡ B.´ 1. Al conjunto vac´ lo denotaremos como es usual u ıo ımbolos usuales son los de pertenencia (È). ). Sean A y B dos subconjuntos cualesquiera de Ω. y alo gunas propiedades que nos ser´n de utilidad en el estudio de la probabilidad a y la estad´ ıstica. la operaci´n uni´n. intersecci´n. es decir. o no por el s´ ımbolo À. Otros s´ pertenencia (Ê) de un elemento en un conjunto. Operaciones con conjuntos Supondremos que el espacio muestral Ω de un experimento aleatorio es una especie de conjunto universal. A B. ıa recordaremos a continuaci´n algunas operaciones entre estos objetos. En la Figura 1. ω Ê B Ù. y los de contenci´n ( .1. y corresponde a aquel conjunto de elementos de A que no pertenecen a B.1 se o o muestran en diagramas de Venn estas dos operaciones. ω È B Ù.

A Ω A. ¿Qui´n es Ac B? Observe que cada persona es un e elemento de alguno de los siguientes conjuntos: A B. esto es. C Õ. A B c . ¿puede usted comprobar tal afirmaci´n? ¿en qu´ caso ambos conjuntos coinciden? Por otro lado el como e plemento de un conjunto A se denota por Ac y se define como la colecci´n de o aquellos elementos de Ω que no pertenecen a A.6 1. Mediante un diagrama de Venn ilustramos gr´ficamente las operaciones de diferencia y complemento a en la Figura 1.2. y B la colecci´n de aquellas personas que estan casadas. satisfacen las siguientes igualdades: o A A ÔB ÔB CÕ CÕ CÕ CÕ ÔA ÔA ÔA ÔA BÕ BÕ BÕ C. A Ω Ω. A Ac À.4 Sea A el conjunto de aquellas personas que tienen hijos. e A A ÔB ÔB ÔA B Õ ÔA . es decir. Ω. C Õ. y tambi´n son distributivas. Entonces el conjunto o A B consta de aquellas personas que estan casadas y tienen hijos. Adem´s las operaciones uni´n e a o A Ac intersecci´n son asociativas. de hecho estos conjuntos son siempre ajenos. Ac B a ´ Ac B c . A B A Ω A¡B A c Ω Figura 1. PROBABILIDAD se define como A B c . mientras a que el conjunto A B c est´ constituido por aquellas personas que tienen hijos pero no estan casadas. En general. el conjunto A ¡ B es distinto de B ¡ A. ¿A cu´l pertenece usted? o Es f´cil verificar que el conjunto vac´ y el conjunto total satisfacen las a ıo siguientes propiedades elementales: A À A.2: Ejemplo 1. C. A À À.

En la Figura 1. y definida como sigue A△B ÔA B Õ ¡ ÔB AÕ. denotada por A△B.2 Decimos que dos conjuntos A y B son ajenos o disjuntos o si se cumple la igualdad A B À. la definici´n formal es la siguiente.1. Introduccion 7 Recordemos tambi´n la operaci´n diferencia sim´trica entre dos conjuntos e o e A y B. ¿Puede usted escribir estas identidades para n conjuntos? Conjuntos ajenos Cuando dos conjuntos no tienen ning´n elemento en com´n se dice que son u u ajenos. o Definici´n 1. .3 ilustramos gr´ficamente el conjunto resultante de efeca tuar la diferencia sim´trica entre los conjuntos A y B.´ 1. Visualmente es e f´cil comprobar que la diferencia sim´trica tambi´n puede escribirse como a e e ÔA ¡ B Õ ÔB ¡ AÕ. La validez de estas dos igualdades puede extenderse a colecciones finitas e incluso arbitrarias de conjuntos.3: Recordemos adem´s las muy utiles leyes de De Morgan: a ´ ÔA ÔA B Õc B Õc Ac Ac B c. B c. ¿C´mo podr´ expresarse en palabras al conjunto A△B? o ıa A B Ω A△B Figura 1.

. para cualquier conjuntos o eventos ajenos es la pareja dada por A y A conjunto A. . Øa. entonces el conjunto 2Ω consta de 8 elementos. b. a saber. 4Ù son ajenos pues no hay entonces los conjuntos A ning´n elemento com´n entre ellos. 4Ù son ajenos pues A B C À. cÙÙ . es decir. si Ω Ø1. 3Ù y situaci´n con el siguiente ejemplo. PROBABILIDAD Es decir. 2. . Las operaciones entre conjuntos que mencionaremos a continuaci´n no son o elementales y producen nuevos conjuntos que se encuentran en un nivel distinto al de los conjuntos originales. El ejemplo general m´s importante de u u a c . pero no son ajenos dos a dos ıo. los conjuntos A y B son ajenos cuando no existe un elemento que pertenezca tanto a A como a B. . Decimos que n conjuntos A1 . Øa. 6Ù. An son ajenos si A1 ¤ ¤ ¤ An À. con si Ai Aj À para cualesquiera valores de los ´ i distinto de j. denotado por 2Ω . 5. bÙ. cÙ. ØaÙ. y se dice que son ajenos dos a dos (o mutuamente ajenos) ındices i. 2Ω ØÀ. Øb. Existe diferencia en estas dos definiciones y explicaremos la Ø2. Observe que los elementos del conjunto potencia son en s´ mismos conjuntos. Øa. En t´rminos estrictos esta e nueva colecci´n deja de ser un conjunto y se le llama clase de subconjuntos o de Ω. De este hecho proviene la notaci´n usada para el conjunto potencia: 2Ω . el n´mero de elementos en el conjunto 2Ω es exactamente 2 elevado u a la potencia dada por la cardinalidad de Ω.8 1. La propiedad de ser ajenos puede extenderse al caso cuando se tienen varios conjuntos. aunque seguiremos usando el primer t´rmino en nuestro tratamiento e elemental de los conjuntos. ØbÙ. 2. ØcÙ. 4. Ø1. n. el conjunto A B no es vac´ Es decir. 2Ù y B Ø3. . pues. por ejemplo. j 1. Observe que la expresi´n 2Ω o o . si Ω Øa. b. Por ejemplo. es aquel conjunto cuyos elementos son todos los subconjuntos posibles de Ω. cÙ. Conjuntos potencia El conjunto potencia de Ω. . No es dif´ demostrar que e ıcil #Ô2Ω Õ 2#Ω . cÙ. ı y que en esta colecci´n estan contenidos todos los eventos que podr´ ser o ıan de inter´s en un experimento aleatorio. . estos conjuntos son ajenos en el sentido de que la intersecci´n de todos ellos es vac´ pero o ıa no son ajenos dos a dos. 2Ù. Por ejemplo. 3. Los conjuntos A Ø1. . B o C Ø3.

bÕ es distinta de Ôb. Este resultado es llamado principio de multiplicaci´n y lo usaremos m´s adelante. Para el ejemplo anterior se comprueba que la cardinalidad de 2Ω es efectivamente 2#Ω 23 8. entonces la cardinalidad del conjunto A ¢ B es el producto n ¤ m. Ôa2 . b1 Õ Ôa1 . b2 Õ. Ôa2 . b2 Õ Ôa2 . b1 Õ. entonces ØÔa1 . y b es cualquier elemento de B.1. a En general los conjuntos producto A ¢ B y B ¢ A son distintos pues la pareja Ôa. A ¢ B ØÔa. aÕ. sin embargo ambos conjuntos tienen la misma cardinalidad. b1 Õ Ôa2 . se define como la colecci´n de todas las parejas o ordenadas Ôa. b3 Õ Ôa2 . bÕ.´ 1. b2. Introduccion 9 no tiene sentido matem´tico. bÕ : a È A y b È B Ù. Ôa1 . Ôa1 . Este conjunto puede representarse gr´ficamente mediante un diagrama de a ´rbol como el que se ilustra en la Figura 1. b2Õ. si la cardinalidad de A es el n´mero n. Producto Cartesiano Finalmente recordemos que el producto Cartesiano de dos conjuntos A y B.4 . u M´s a´n. b3 Õ. b3 Ù. ambos tienen el mismo n´mero de elementos. o a . En s´ ımbolos. en donde a es cualquier elemento de A. a2Ù y B Øb1 .5 Si A A¢B Øa1 .4: Diagrama de ´rbol. b3 ÕÙ. a b1 a1 b2 b3 b1 a2 b2 b3 Ôa1 . Ôa2 . denotado por A ¢ B. b1 Õ. b2 Õ Ôa1 . b3 Õ Figura 1. y debe considerarse como un s´ a ımbolo para denotar al conjunto potencia. Ejemplo 1. y la cardinalidad de B es a u u m. esto es.

R Concluimos aqu´ nuestra r´pida y breve revisi´n de conjuntos. pues forzosamente necesitamos suponer que el n´mero de eleu mentos en Ω es finito. PROBABILIDAD Un poco m´s generalmente. unicamente necesitamos con´ tar cu´ntos elementos tiene A respecto del total Ω. sin importar exactamente a qu´ elementos particulares sean. que es el conjunto de todas las parejas de n´meros reales Ôx. Por lo tanto. es decir. o las cuales explicamos a continuaci´n. Adem´s. a 4 . Se define la probabilidad cl´sica del evento A como el cociente: a P ÔAÕ #A . y representa una medida de la frecuencia con la que se observa la ocurrencia del evento A cuando se efect´a el experimento u aleatorio en cuesti´n. A este conjunto producto se le u denota usualmente por R2 . a 1. Recordemos ı a o que estamos interesados en calcular probabilidades de los diferentes eventos. 1× u que denotaremos por P ÔAÕ. Ejemplo 1. el espacio Ω debe ser equiprobable. puede considerarse el producto Cartesiano de a n conjuntos y comprobarse que #ÔA1 ¢ ¤ ¤ ¤ ¢ An Õ #A1 ¤ ¤ ¤ #An . Claramente esta definici´n es s´lo v´lida para espacios mueso o a trales finitos. An´logamente se construyen los conjuntos R3 . Rn . esta definici´n de probabilidad e o . . . de subconjuntos del espacio muestral que se obtienen al estudiar los diversos experimentos aleatorios.2. #Ω en donde el s´ ımbolo #A denota la cardinalidad o n´mero de elementos del u conjunto A. . En la siguiente secci´n estudiaremos o algunas formas de definir matem´ticamente la probabilidad de un evento.. o Probabilidad cl´sica a Sea A un subconjunto de un espacio muestral Ω de cardinalidad finita.6 Considere el producto Cartesiano R ¢ R. pues a para calcular la probabilidad de un evento A. y Õ.10 1. es un n´mero real en el intervalo Ö0. Probabilidad La probabilidad de un evento A. Existen al menos cuatro definiciones de probabilidad.

Este es el caso por ejemplo de un dado equilibrado. 2. de modo que en la . debemos hacer notar que no es humanamente posible llevar a cabo una infinidad de veces el experimento aleatorio. es decir. 6Ù #Ø1. Se define entonces la probabilidad frecuentista de A como indica el siguiente l´ ımite P ÔAÕ n l´ ım nÔAÕ . 4. en las n realizaciones del experimento. Denotemos por nÔAÕ el n´mero de ocurrencias u del evento A. 4. los principios y propiedades de esta forma de calcular probabilidades. 6Ù. 6Ù. Para este experimento el espacio muestral es el conjunto Ω Ø1. 4. y si deseamos calcular la probabilidad (cl´sica) del evento A correspondiente a a obtener un n´mero par. 5. 5. en honor del astr´nomo y matem´tico franc´s o a e Pierre-Simon Laplace. 2. la probabilidad de A Ø2. 2 A esta forma definir la probabilidad tambi´n se le conoce con el nombre e de probabilidad de Laplace. 4. Pierre-Simon Laplace (Francia 1749–1827) Probabilidad frecuentista Suponga que se realizan n repeticiones de un cierto experimento aleatorio y sea A un evento cualquiera. entonces u P ÔAÕ #Ø2.1. Probabilidad 11 presupone que todos los elementos de Ω son igualmente probables o tienen el mismo peso. 3. 6Ù 3 6 1 .2. 3. n En este caso. quien estableci´ de una manera sistem´tica y riguroo a sa.

6Ù.5 se muestra el singular comportamiento de a este cociente a lo largo del tiempo. Veamos un ejemplo concreto. Esta limitaci´n hace que esta definici´n de proo o babilidad no sea enteramente formal. 4. Consideremos nuevamente el experimento aleatorio de lanzar un dado equilibrado y registrar la ocurrencia del evento A definido e como el conjunto Ø2. Despu´s de lanzar el dado 20 veces se obtuvieron los siguientes resultados: No.5: En la gr´fica de la Figura 1. u Realizando un mayor n´mero de observaciones del experimento. 11 12 13 14 15 16 17 18 19 20 Resultado 2 5 1 6 3 1 5 5 2 6 nÔAÕßn 7/11 7/12 7/13 8/14 8/15 8/16 8/17 8/18 9/19 10/20 nÔAÕßn 1ß2 n Figura 1.12 1. PROBABILIDAD pr´ctica no es posible encontrar mediante este mecanismo la probabilidad a de un evento cualquiera. 1 2 3 4 5 6 7 8 9 10 Resultado 3 6 2 1 4 6 3 4 2 5 nÔAÕßn 0/1 1/2 2/3 2/4 3/5 4/6 4/7 5/8 6/9 6/10 No. pero tiene algunas ventajas. al principio se pueden presentar algunas oscilaciones pero eventualmente el cociente se estabiliza en un cierto n´mero. no es dif´ u ıcil creer que el cociente nÔAÕßn se estabiliza en 1ß2 cuando n es grande y suponiendo que el dado esta equilibrado. Se invita al lector intrigado a .

es decir.2. Un postulado o axioma es una proposici´n que se acepta como v´lida y sobre la cual o a se funda una teor´ ıa. Esta forma subjetiva de asignar a probabilidades a los distintos eventos debe. sin embargo. 1 . depende de lo que el observador conoce del fen´meno en estudio. las condiciones del equipo rival o cualquier otra condici´n externa. Puede o parecer un tanto informal y poco seria esta definici´n de la probabilidad o de un evento. ¿Cu´l es la probabilidad de que un cierto equipo a de f´tbol gane en su pr´ximo partido? Ciertas circunstancias internas del u o equipo.1. Probabilidad 13 efectuar un experimento similar y corroborar esta interesante regularidad estad´ ıstica con ´ste o cualquier otro experimento aleatorio de su inter´s. e e Probabilidad subjetiva En este caso la probabilidad de un evento depende del observador. sin embargo en muchas situaciones es necesario recurrir a un experto para tener por lo menos una idea vaga de c´mo se comporta o el fen´meno de nuestro inter´s y saber si la probabilidad de un evento es o e alta o baja. Por ejemplo. o Probabilidad axiom´tica a En la definici´n axiom´tica de la probabilidad no se establece la forma o a expl´ ıcita de calcular las probabilidades sino unicamente se proponen las ´ reglas que el c´lculo de probabilidades debe satisfacer. ser consistente con una serie de reglas naturales que estudiaremos a continuaci´n. Los siguientes tres a postulados o axiomas1 fueron establecidos en 1933 por el matem´tico ruso a Andrey Nikolaevich Kolmogorov. o son elementos que s´lo algunas personas conocen y que podr´ darnos o ıan una idea m´s exacta de esta probabilidad.

esto es el primer axioma. Observe adem´s que este tercer axioma es a v´lido no s´lo para dos eventos ajenos sino para cualquier colecci´n finita a o o de eventos ajenos dos a dos. si A y B son dos eventos ajenos. P ÔAÕ P ÔΩÕ P ÔA 0. No es dif´ verificar que las definiciones anteriores de probabilidad satisfaıcil cen estos tres axiomas. Finalmente.1 Para cualquier evento A. P ÔΩÕ P ÔAÕ   P ÔAc Õ. PROBABILIDAD Axiomas de la probabilidad 1. Finalmente. se realiza una sucesi´n de n ensayos o o de un experimento aleatorio y se observa el cociente nÔAÕßn para un evento A cualquiera. BÕ P ÔAÕ   P ÔB Õ. Kolmogorov (Rusia 1903–1987) À. por el tercer axioma. esto es el segundo axioma. Si A es el evento total Ω. Se observa claramente que el cociente nÔAÕßn es no negativo. como P ÔΩÕ 1. . De la teor´ elemental de conjuntos tenemos que Ω o ıa A Ac . por el segundo axioma obtenemos P ÔAc Õ 1 ¡ P ÔAÕ. 2. nÔA BÕ Demostraci´n. estos postulados han sido tomados directamente del an´lisis cuidadoso y reflexivo de las definiciones de probabilia dad mencionadas anteriormente. 3. A partir de estos postulados es posible demostrar que la probabilidad cumple con una serie de propiedades interesantes. Como A y Ac son eventos ajenos. De hecho. o P ÔAc Õ 1 ¡ P ÔAÕ.14 1. considerando nuevamente la definici´n de probabilidad frecuentista. o simplemente probabilidad. 1. entonces nÔΩÕ n y por lo tanto nÔΩÕßn 1. n n de donde surge el tercer axioma. se tiene que nÔA B Õ nÔAÕ   nÔB Õ y por lo tanto nÔAÕ nÔB Õ   n . B cuando A Andrey N. Por ejemplo. A cualquier funci´n P que satisfaga los tres o axiomas de Kolmogorov se le llama medida de probabilidad. Proposici´n 1.

es decir. Proposici´n 1. Proposici´n 1. que P ÔÀÕ P ÔΩ Las siguientes dos proposiciones suponen la situaci´n A B que se muestra o gr´ficamente en la Figura 1. . Usando el primer axioma concluimos que P ÔB Õ ¡ P ÔAÕ P ÔB ¡ AÕ 0. Proposici´n 1. Esta propiedad es bastante util pues en ocasiones ´ es m´s sencillo calcular la probabilidad del complemento de un evento que a del evento mismo. De aqui obtenemos P ÔB Õ ¡ P ÔAÕ 0. Como B A o tercer axioma tenemos que P ÔB Õ ÔB ¡ AÕ.4 Si A o B. la suma de las probabilidades de estos eventos es siempre uno. Demostraci´n.2 P ÔÀÕ o 0.6. Probabilidad 15 La proposici´n reci´n demostrada establece que los eventos A y Ac tienen o e probabilidad complementaria.2. entonces P ÔB ¡ AÕ P ÔB Õ ¡ P ÔAÕ. tenemos cÕ 1 ¡ P ÔΩÕ 0. M´s adelante tendremos m´ltiples ocasiones para aplicar a u este resultado.3 Si A o P ÔB Õ. por el o P ÔAÕ   P ÔB ¡ AÕ. Demostraci´n. siendo esta uni´n ajena. por el tercer axioma. Primeramente escribimos B A ÔB ¡ AÕ.6: A B. usando la propiedad anterior. Demostraci´n. entonces P ÔAÕ B. Como A y o B ¡ A son eventos ajenos. P ÔB Õ P ÔAÕ   P ÔB ¡ AÕ. a A B Ω Figura 1. Como À o Ωc .1.

P ÔA BÕ B Õ   P ÔB ¡ A B Õ. Ahora aplicamos la probabilidad. Como A Ω. P ÔAc Õ 0.9 y P ÔB c Õ 0. es simplemente el primer axioma. n Proposici´n 1. Por o lo tanto P ÔB ¡ AÕ 0. El t´rmino P ÔAÕ abarca las primeras dos regiones de izquierda a derecha. de modo que P ÔA ¡ A B Õ P ÔAÕ¡ P ÔA mente P ÔB ¡ A B Õ P ÔB Õ ¡ P ÔA B Õ. se tiene que P ÔAÕ o P ÔΩÕ desigualdad. 0 P ÔAÕ. P ÔAÕ 0. B Õ. Por el tercer axioma.3. 1. Observe entonces que la regi´n central o o ha sido contada dos veces de modo que el t´rmino ¡P ÔA B Õ da cuenta de e ello. An´logaa En la Figura 1. Proposici´n 1. suponga que A y B son eventos tales que A B.4 ¡ 0. En esta situaci´n es v´lida la o a f´rmula P ÔB ¡ AÕ P ÔB Õ¡ P ÔAÕ. Entonces escribimos a o A B como la uni´n disjunta de los siguientes tres eventos: A B ÔA ¡ B Õ ÔA B Õ ÔB ¡ AÕ ÔA ¡ A B Õ ÔA B Õ ÔB ¡ A P ÔA ¡ A B Õ   P ÔA B Õ. .7 (a) el lector puede comprobar la validez de la f´rmula o anterior identificando las tres regiones ajenas de las que consta A B. La otra Demostraci´n.6.16 1.1 0.1 y P ÔB Õ 0. en donde. P ÔB Õ e abarca la segunda y tercera regi´n. 0 o Demostraci´n. PROBABILIDAD Por ejemplo.4. Por lo tanto P ÔA BÕ P ÔAÕ   P ÔB Õ ¡ P ÔA B Õ. Deseamos calcular P ÔB ¡ AÕ. Primeramente observamos que para cualesquiera eventos o A y B se cumple la igualdad A ¡ B A ¡ ÔA B Õ. El tratamiento es completamente anal´ ıtico y los resultados son v´lidos para cualesquiera eventos A y B con las caracter´ a ısticas se˜aladas.6 Para cualesquiera eventos A y B. P ÔAÕ 1.5 Para cualquier evento A. o P ÔA BÕ P ÔAÕ   P ÔB Õ ¡ P ÔA B Õ. De esta forma las tres regiones son contadas una sola vez y el resultado es la probabilidad del evento A B. Observe el lector que en este ejemplo sencillo no se especifica el experimento aleatorio en cuesti´n ni tampoco se o definen los eventos A y B. Pero A B A.

7: 0. entonces la f´rmula demostrada se reduce al tercer axioma de la probabio lidad.2. B y C. o Usando la f´rmula para dos eventos y agrupando adeo . o P ÔA B CÕ P ÔAÕ   P ÔB Õ   P ÔC Õ ¡ P ÔA BÕ B ¡P ÔA C Õ ¡ P ÔB C Õ   P ÔA C Õ. Deseamos encontrar P ÔA B Õ. Para ello siga los t´rminos del e lado derecho de la f´rmula y compruebe que cada regi´n es contada una sola o o vez de modo que el resultado final es la probabilidad del evento A B C.3 0. cuando son conjuntos ajenos.7 (b).7 Sean A y B eventos ajenos tales que P ÔB Õ B c Õ 0. es decir. Observe que la f´rmula anterior es v´lida para cualesquiera eventos A y B.1.5. Adem´s P ÔA B Õ es cero pues por hip´tesis los eventos son ajenos.3 y P ÔA Ejemplo 1. a o Conocemos P ÔB Õ. P ÔA B Õ P ÔAÕ   P ÔB Õ.7 Para cualesquiera eventos A.2. Soluci´n: Usaremos la f´rmula P ÔA B Õ o o P ÔAÕ   P ÔB Õ ¡ P ÔA B Õ. La f´rmula o o que a continuaci´n se demuestra puede tambi´n verificarse usando el diao e grama de Venn que aparece en la Fig 1. es decir. P ÔA B Õ e 0. Probabilidad 17 A B A B Ω (a) A B (b) A C B C Ω Figura 1. cuando A B À. o a En particular. Proposici´n 1. y P ÔAÕ P ÔA B c Õ 0. ¿Por qu´? Por lo tanto. Demostraci´n.2. El siguiente resultado es una generalizaci´n del anterior e involucra tres eventos cualesquiera.2   0.

Por a o ejemplo. Esperamos que. 0. En general. PROBABILIDAD ¡P ÔÔA C Õ ÔB C ÕÕ P ÔAÕ   P ÔB Õ   P ÔC Õ ¡ P ÔA ¡P ÔB C Õ   P ÔA B C Õ. P ÔAÕ   P ÔB Õ ¡ P ÔA B Õ   P ÔC Õ BÕ CÕ B Õ ¡ P ÔA CÕ Las propiedades anteriores son parte del estudio te´rico y general de la proo babilidad. supondremos que la forma expl´ ıcita de calcular estos n´meros es conocida. cuando el espacio muestral es finito y cada resultado puede suponerse igualmente probable. el lector haya desarrollado cierta habilidad e intuici´n para escribir la deo mostraci´n de alguna otra propiedad de la probabilidad. B Õ ¡ P ÔA B CÕ P ÔB Õ. entonces P ÔB ¡ AÕ 1. entonces usaremos la definici´n cl´sica de probabio a lidad. a partir de las propiedades enunciadas y demostradas.18 cuadamente. Regresaremos a este punto m´s adelante. b) P ÔÀÕ c) Si A d) Si A e) 0 f) P ÔA a) P ÔAc Õ 1 ¡ P ÔAÕ. En otras situaciones asignaremos probabilidades de acuerdo a ciertos modelos conocidos. P ÔB Õ ¡ P ÔAÕ. A manera de a conclusi´n presentamos a continuaci´n un resumen con las propiedades de o o la probabilidad que hemos demostrado. entonces P ÔAÕ B. P ÔA B CÕ P ÖÔA P ÔA B Õ   P ÔC Õ ¡ P ÔÔA BÕ C× 1. Otras propiedades o . P ÔAÕ g) P ÔA BÕ B ¡P ÔB C Õ   P ÔA C Õ. o que se puede suponer un cierto modelo para llevar a u cabo estos c´lculos dependiendo del experimento aleatorio en cuesti´n. B. CÕ P ÔAÕ   P ÔB Õ ¡ P ÔA P ÔAÕ   P ÔB Õ   P ÔC Õ ¡ P ÔA B Õ.

simplemente contamos todos los elementos uno por uno.3.8 (Principio de multiplicaci´n) Si un procedimiento o o A1 puede efectuarse de n formas distintas y un segundo procedimiento A2 puede realizarse de m formas diferentes. Suponga que un cierto experimento aleatorio consiste en seleccionar un dado y despu´s e seleccionar al azar una letra del alfabeto. Para ilustrar este resultado considere el siguiente ejemplo. El principio de multiplicaci´n que enunciamos a o continuaci´n es la base de muchos de los c´lculos en las t´cnicas de conteo. Para poder aplicar esta definici´n necesitamos saber contar cu´ntos elementos tiene un evento o a A cualquiera. o Debemos tambi´n mencionar que las demostraciones no son unicas. o a e Proposici´n 1. Cuando podemos poner en una lista todos y cada uno de los elementos de dicho conjunto. es decir.3. es com´n enfrentar situaciones en donde no es factible escribir en una lista u cada elemento de A. Sin embargo. ı 1. An´lisis combinatorio a Consideraremos ahora el caso cuando el experimento aleatorio es tal que su espacio muestral es un conjunto finito y cada elemento de este conjunto tiene la misma probabilidad de ocurrir. cuando el espacio Ω es finito y equiprobable. y que e ´ es altamente probable que el lector pueda producir alguna demostraci´n o diferente a las que aqu´ se han presentado. entonces el total de formas en que puede efectuarse el primer procedimiento seguido del segundo es el producto n ¤ m. Analisis combinatorio 19 sencillas de la probabilidad pueden encontrarse en la secci´n de ejercicios. ¿cu´ntos n´meros telef´nicos existen que a u o contengan por lo menos un cinco? Es poco factible que alguien intente escribir uno a uno todos estos n´meros telef´nicos y encuentre de esta manera u o la cantidad buscada. En las siguientes secciones estudiaremos algunas t´cnie cas de conteo que nos ayudar´n a calcular la cardinalidad de un evento A en a ciertos casos particulares. entonces es f´cil conocer la cardinalidad de a A. es decir. #ÔA1 ¢ A2 Õ #A1 ¤ #A2 .´ 1. Por ejemplo. ¿Cu´l es la cardinalidad del coa . En estos casos hemos definido la probabilidad cl´sica a de un evento A de la siguiente forma P ÔAÕ #Aß#Ω.

Al efectuar una extracci´n. ¿De cu´ntas formas distintas puede el hombre vestirse con a estas prendas? Soluci´n: 4 ¢ 6 ¢ 2 48.20 1. . de una urna con n objetos distintos. ı o Vamos a considerar a continuaci´n diferentes esquemas y contextos en donde o es posible encontrar una f´rmula matem´tica para ciertos problemas de o a conteo. entonces este principio se puede enunciar en s´ ımbolos de la forma siguiente: #ÔA1 ¢ ¤ ¤ ¤ ¢ Ak Õ #A1 ¤ ¤ ¤ #Ak . de esta forma el . n objetos Urna Figura 1. Ejemplo 1. y dos pares de zapatos. Ak denotan k procedimientos sucesivos.8: k objetos Muestra Ordenaciones con repetici´n: o muestras con orden y con reemplazo Suponga que tenemos una urna con n objetos distintos. . si A1 . o registramos el objeto escogido y lo regresamos a la urna. Por ejemplo. Es decir. . . El esquema o general es el de extraer al azar k objetos. el hombre se puede vestir o de manera distinta durante 48 d´as sin repetir una combinaci´n. En todos ellos aplicaremos el principio de multiplicaci´n. El principio de multiplicaci´n es v´lido no solamente para dos procedimieno a tos sino que tambi´n vale para cualquier sucesi´n finita de procedimiene o tos.8. El correspondiente espacio muestral tiene entonces cardinalidad 6 ¢ 26 156.8 Un hombre tiene 4 pantalones distintos. 6 camisas. uno a la vez. Esto se muestra en la Figura 1. Deseamos realizar k extracciones al azar de un objeto a la vez. PROBABILIDAD rrespondiente espacio muestral? El experimento de lanzar un dado tiene 6 resultados posibles y consideremos que tenemos un alfabeto de 26 letras. A2 .

y as´ sucesivamente. Nuevamente por el principio multiplica´ tivo. pues u en cada extracci´n tenemos n objetos posibles para escoger y efectuamos k o extracciones. Este conjunto contiene todas las letras min´sculas del alfabeto. la respuesta es el producto indicado. A este n´mero se le llama ordenaciones con repetici´n. para la segunda posici´n teno o emos ahora n ¡ 1 objetos. es decir.´ 1. las leu tras may´sculas. La expresi´n encontrada puede o escribirse como sigue: n! P Ôn. El total de arreglos que se ıdo pueden obtener de esta urna al hacer k extracciones es el n´mero nk . para la tercera n ¡ 2 objetos. Se u o dice que la muestra es con orden pues es importante el orden en el que se van obteniendo los objetos. ¿Cu´ntos u ı a passwords o palabras clave de longitud 4 se pueden construir usando este conjunto de 60 caracteres? Este es un ejemplo de una ordenaci´n de 60 cao racteres en donde se permiten las repeticiones. Ejemplo 1. entonces se pueden construir 60 ¢ 60 ¢ 60 ¢ 60 604 12. ı Este razonamiento termina al escoger el k-´simo objeto para cual tenemos e unicamente n ¡ k   1 posibilidades.9 Suponga que tenemos un conjunto de 60 caracteres diferentes. Esta f´rmula es consecuencia del principio de multiplicaci´n o o enunciado antes. una vez seleccionado un objeto ´ste ya no se reincorpora a la urna. Suponga esta vez que el muestreo es sin reemplazo. o El primer factor es n y ello es debido a que tenemos cualesquiera de los n objetos para ser colocado en primera posici´n.3. k objetos. 000 distintos passwords de longitud 4. u Primeramente debemos observar que hay k factores en la expresi´n anterior. kÕ Ôn ¡ kÕ! . Como cada caracter de los 60 disponibles puede ser escogido para ser colocado en cada una de las cuatro posiciones de la palabra clave. y es con reemplazo pues cada objeto seleccionado se reincorpora a la urna. uno a uno. los diez d´gitos y algunos caracteres especiales. Ordenaciones sin repetici´n: o muestras con orden y sin reemplazo Suponga que se tiene la misma situaci´n que antes. Analisis combinatorio 21 mismo objeto puede ser extra´ varias veces. 960. . una urna con n objetos o y de los cuales se deben extraer. El total de arreglos distintos que se e pueden obtener de este modo es el n´mero: nÔn ¡ 1ÕÔn ¡ 2Õ ¤ ¤ ¤ Ôn ¡ k   1Õ.

la respuesta u es claramente 5! 5 ¢ 4 ¢ 3 ¢ 2 ¢ 1 120. u . Por el principio de multiplicaci´n la respuesta o o es el producto de estos n´meros. Observe que las permutaciones de n objetos es un caso particular de la situaci´n mencionada en la secci´n anterior sobre ordenaciones sin o o repetici´n cuando la muestra es exhaustiva. A este n´mero tambi´n se le conoce como las permutaciones de n objetos.22 1. restan entonces tres posibilidades o para la tercera posici´n. El razonamiento es el siguiente: Cualquiera de los cinco libros puede ser colocado al principio.11 Si deseamos conocer el total de formas distintas en que podemos colocar una enciclopedia de 5 vol´menes en un librero. Ejemplo 1. es decir. La respuesta es entonces que existen 10 ¢ 9 ¢ 8 720 distintas asignaciones para los tres primeros lugares en la rifa. quedan cuatro libros por colocar en la segunda posici´n. cuando k n.10 ¿De cuantas formas distintas pueden asignarse los premios primero. etc. o Ejemplo 1. Permutaciones: muestras exhaustivas con orden y sin reemplazo La pregunta b´sica acerca del total de formas en que podemos poner en a orden lineal (uno detr´s de otro y por lo tanto no hay repetici´n) n objetos a o distintos tiene como respuesta el factorial de n. En el caso particular cuando la muestra es exhaustiva. o bien cuando todos los objetos son extra´ ıdos uno por uno. segundo y tercero en una rifa de 10 boletos numerados del 1 al 10? Claramente se trata de una ordenaci´n sin repetici´n de 10 objetos o o en donde se deben extraer 3 de ellos. y u e se usa la notaci´n P ÔnÕ n! Adicionalmente y por conveniencia se define o 0! 1. es decir. denotado por n! y definido como sigue: n! nÔn ¡ 1ÕÔn ¡ 2Õ ¤ ¤ ¤ 3 ¤ 2 ¤ 1. entonces se tienen todas las permutaciones o distintos ´rdenes en que se pueden colocar n objetos. cuando se extraen uno o a uno todos los objetos de la urna. PROBABILIDAD y se le llama permutaciones de n en k.

k! Ôn ¡ kÕ! A este n´mero tambi´n se le conoce con el nombre de coeficiente binomial u e de n en k. Para obtener arreglos en donde el orden no importa. y adem´s a la muestra debe verse como un conjunto pues no debe haber orden entre sus elementos.3. las veces en que los o a mismos k elementos pueden ser permutados unos con otros. Para los casos n 2 y n 3 el teorema del binomio se reduce a las siguientes f´rmulas que muy seguramente el lector conoce: o Ôa   bÕ2 Ôa   bÕ3 a2   2ab   b2 . en la muestra no debe haber elementos repetidos. . Ejemplo 1.12 ¿Cu´ntos equipos distintos de tres personas pueden escogerse a de un grupo de 5 personas? Observe que el orden de   ¨tres personas escogilas das no es importante de modo que la respuesta es 5 5!ßÔ3! Ô5 ¡ 3Õ!Õ 3 10. Analisis combinatorio 23 Combinaciones: muestras sin orden y sin reemplazo Supongamos nuevamente que tenemos un conjunto de n objetos distinguibles y nos interesa obtener una muestra de tama˜o k. ¿Cu´ntas diferentes muestras podemos obtener de estas a caracter´ ısticas? Para responder a esta pregunta seguiremos el siguiente razonamiento.´ 1. pues aparece en el famoso teorema del binomio: Ôa   bÕ n n ô ¢nª k 0 k an¡k bk . Es decir. observamos que cada uno de los arreglos de la f´rmula anterior. Ahora que no nos interesa el orden. pues no hay reemplazo. siendo que el conjunto de elementos es el mismo. que denotaremos como sigue: ¢ n! n k ª n! . debemos entonces dividir por k! La f´rmula a la que hemos o llegado se llama combinaciones de n en k. Supongamos ahora n que las muestras deben ser sin orden y sin reemplazo. est´ siendo contado k! veces. Cuando el orden importa hemos encontrado antes la f´rmula o Ôn ¡ kÕ! . a3   3a2 b   3ab2   b3 .

El ı a n-´simo rengl´n del tri´ngulo de Pascal. que puede observarse en Figura 1. es la suma de los dos n´meros inmediatos del rengl´n anterior. exceptuando los a u extremos. supuestos inicialmente distintos cuando en realidad no lo son. A u o este respecto v´ase por ejemplo el Ejercicio 73 en la p´gina 149. Si consideramos o que los n objetos son todos distintos. iniciando desde cero. entonces claramente las distintas formas en que pueden escribirse todos estos objetos uno detr´s de otro es a n! Pero para cada uno de estos arreglos. los k1 objetos del primer tipo. contiene los e o a coeficientes del desarrollo de Ôa   bÕn . Estos n objetos pueden todos ordenarse uno detr´s de otro de tantas formas distintas como indica a el as´ llamado coeficiente multinomial: ı ¢ n k1 k2 ¤ ¤ ¤ km¡1 km ª n! . supongamos que tenemos k1 objetos de un primer tipo. e a 1 1 1 1 1 1 1 3 2 3 1 1 1 4 6 4 1 5 10 10 5 1 6 15 20 15 6 1 Figura 1. en donde k1   k2   ¤ ¤ ¤   km n. PROBABILIDAD El coeficiente binomial es tambi´n una forma de generar las entradas del e as´ llamado tri´ngulo de Pascal. k1 ! k2 ! ¤ ¤ ¤ km¡1 ! km ! Un razonamiento para obtener esta f´rmula es el siguiente. k2 objetos de un segundo tipo. pueden permutarse entre s´ de k1 ! formas diferentes. y as´ sucesivamente. Existe una forma sencilla de construir este tri´ngulo observando que cada uno de estos n´meros.9: Coeficiente multinomial Ahora consideremos que tenemos n objetos no necesariamente distintos unos de otros.24 1. siendo que el arreglo total es el ı . hasta km objetos ı del tipo m.9. Por ejemplo.

Consideremos el arreglo de n casillas o de la Figura 1. . y en donde el orden de la muestra no es relevante. ¿Puede usted desarrollar Ôa   b   cÕ3 ? Es interesante observar que cuando Muestras sin orden y con reemplazo Finalmente consideremos el caso de hacer k extracciones de una urna de n objetos con las condiciones de que cada objeto extra´ es regresado a ıdo la urna (y entonces puede ser elegido nuevamente). m 1 2 (1. Para encontrar una f´rmula para el total o de muestras que pueden obtenerse con estas caracter´ ısticas usaremos una modelaci´n distinta pero equivalente. Por ejemplo. El coeficiente multinomial aparece en la siguiente f´rmula: o Ôa1   a2   ¤ ¤ ¤   am Õ n ô¢ k1 ¤ ¤ ¤ km n ª ak1 ak2 ¤ ¤ ¤ akm . que ´ste e o e . km .´ 1. El n´mero de cruces en la casilla i indica enu tonces el n´mero de veces que la bola i fue seleccionada. Ôa   b   cÕ2 a2   b2   c2   2ab   2ac   2bc. De aqui que debamos dividir por k1 ! Lo mismo sucede con los elementos del segundo tipo y as´ sucesivamente hasta los elementos del tipo ı m.1) produce la siguiente expresi´n: o o hay unicamente dos tipos de objetos. Deseamos entonces conocer el n´mero de posibles arreglos que pueden obtenerse con estas caracter´ u ısticas. . . tales que k1   k2   ¤ ¤ ¤   km n. . el coeficiente multinomial se reduce al ´ coeficiente binomial. compruebe el lector que la f´rmula (1. y debe ser claro.3. Analisis combinatorio 25 mismo. o ¢¢ 1 2 ¢ 3 ¢ 4 ¤¤¤ ¤¤¤ n¡1 ¢ n Figura 1.1) en donde la suma se efect´a sobre todos los posibles valores enteros no u negativos de k1 . En total debe u haber k cruces pues es el total de extracciones. k2 . la segunda casilla esta vac´ y ello significa que la bola ıa dos no fue seleccionada.10 junto con la siguiente interpretaci´n. despu´s de algunos momentos de reflexi´n. etc.10: La primera casilla tiene dos cruces y eso indica que la bola uno fue seleccionada dos veces.

Consideremos que las dos paredes en los extremos de este arreglo son fijas. Muy posiblemente el a problema en cuesti´n requerir´ de un razonamiento especial que involucre o a alguna combinaci´n de las f´rmulas encontradas.11. PROBABILIDAD es el n´mero de muestras de tama˜o k.10. y a manera de resumen parcial. estas paredes se encuentran ligeramente remarcadas como puede apreciarse en la Figura 1. En total hay n   k ¡ 1 objetos movibles y cambiar de posici´n estos objetos produce las distintas configuraciones posibles que o nos interesan. no debemos clasificarlo forzosamente y de manera mec´nica en alguno de los esquemas mencionados. pueden moverse. tenemos la tabla de f´rmulas de o la Figura 1. con reemplazo y sin orden.11: Debemos hacer ´nfasis. en que para resolver un problema de e conteo en particular.26 1. sin embargo. Consideremos adem´s que las posiciones intermedias. cruz o l´ a ınea vertical. dejando en los lugares restantes las paredes movibles. Resumen de f´rmulas o En el contexto de muestras de tama˜o k tomadas de un conjunto de cardin nalidad n. A menudo los problemas o o . que se u n pueden obtener de un conjunto de n elementos distinguibles. Muestras con orden con reemplazo nk sin reemplazo Ôn ¡ kÕ! ¢nª k n! sin orden ¢n   k ¡ 1ª k Figura 1. El n´mero total de estos arreglos es u ¢ n k¡1 k ª que equivale a colocar dentro de las n   k ¡ 1 posiciones las k cruces.

4. A veces ello se debe a que el problema no esta especificado o interpretado de manera completa. es equiprobable. el cual por hip´tesis Ø2Ù y B Ø2.3 Sean A y B dos eventos en donde B es tal que su probao bilidad es estrictamente positiva. o simplemente probabilidad de A dado B. en general. 4. las probabilidades de los distintos eventos. 6Ù “Cae par”. se define como sigue: P ÔA B Õ P ÔA B Õ . ´ es decir.13 Considere el experimento de lanzar un dado equilibrado. o Claramente el espacio muestral es Ω Ø1. y por otro 0. 6Ù. 3. El c´lculo de probabilidades condicionadas a la ocurrencia del evento a B tiene el efecto de reducir el espacio muestral Ω a unicamente el evento B. Definici´n 1. Probabilidad condicional e independencia Los conceptos de probabilidad condicional e independencia surgieron de manera natural en el proceso de encontrar soluci´n a algunos problemas proveo nientes de situaciones reales. denotada por P ÔA B Õ. 5.4. o Ejemplo 1. En esta secci´n estudiaremos estos conceptos o y demostraremos adem´s dos resultados de amplia aplicaci´n: el teorema de a o probabilidad total y el teorema de Bayes. 2. P ÔB Õ La expresi´n P ÔA B Õ se lee probabilidad condicional del evento A dado el o evento B.4.1. Sean los eventos A . 1. Ilustraremos a lado no existe definici´n para P ÔA B Õ cuando P ÔB Õ o continuaci´n el significado de la probabilidad condicional y comprobaremos o que el evento B representa informaci´n adicional acerca del experimento o aleatorio que modifica. s´lo los resultados contenidos en el evento B pueden ocurrir. La probabilidad condicional del evento A dado el evento B. Probabilidad condicional e independencia 27 de conteo son dif´ ıciles de resolver y en algunos casos uno puede encontrar dos o mas “soluciones” distintas y aparentemente correctas. Es claro que para que la definici´n tenga sentido se necesita suponer que P ÔB Õ o 0.

14 Suponga que se lanza una moneda dos veces. la probabilidad de obtener “2” es ahora u 1ß3. Observe que conocer la informaci´n de la ocurrencia del evento B. De manera an´loga puede interpretarse la igualdad equivalente a P ÔB AÕ P ÔB Õ. 4.15 Inicialmente uno podr´a asociar la idea de independencia de ı dos eventos con el hecho de que ´stos sean ajenos. 4. entonces general. En la mayor´ ıa de los casos de aplicaci´n simplemente supondremos que dos eventos dados o son independientes recurriendo unicamente a justificaciones intuitivas. ha afeco tado la probabilidad del evento A. La ventaja de esta ultima expresi´n es que posee una interpretaci´n sencilla: dice que la probabilidad del evento A o es la misma cuando sabemos que ha ocurrido el evento B (lado izquierdo). suponiendo naturalmente que P ÔAÕ 0. que cuando no sabemos nada (lado derecho). dada la informaci´n que el reo sultado del dado es un n´mero par. Definici´n 1. Considere por ejemplo A un evento cualquier y B es claro que A y B son independientes pues P ÔA ΩÕ P ÔAÕP ÔΩÕ y sin . Esta igualdad en la definici´n de independencia es equivalente a la expresi´n o o ´ o P ÔA B Õ P ÔAÕ cuando P ÔB Õ 0. PROBABILIDAD 1ß6 3ß6 1ß3. 6ÙÕ 1. ´ Ejemplo 1. es decir. 6ÙÕ P ÔØ2ÙÕ P ÔØ2. pero ello es err´neo en e o Ω.28 Entonces P ÔAÕ P ÔA B Õ 1ß6 mientras que P ÔØ2Ù Ø2. 4.4 Se dice que dos eventos cualesquiera A y B son indepeno dientes si se cumple la condici´n o P ÔA BÕ P ÔAÕP ÔB Õ. 6ÙÕ P ÔØ2. Ejemplo 1. De este modo cualquier evento del primer ensayo es independiente de cualquier otro evento en el segundo ensayo. Es una hip´tesis o natural suponer que el resultado del primer lanzamiento no afecta el resultado del segundo lanzamiento. la ocurrencia del evento B no afecta la probabilidad del evento A y por lo tanto son independientes. Es decir.

A B À. Consideremos el experimento aleatorio de lanzar un dado y definamos los eventos A como obtener un n´mero par. Antes de enunciar el siguiente resultado recordaremos el concepto de partici´n de un conjunto. es necesario pues verificarlas todas.17 Sea Ω Ø1. Definici´n 1. k distintos. el hecho de que dos eventos sean independientes no implica. Ejemplo 1. Por lo tanto. la validez de alguna otra. P ÔA C Õ P ÔAÕP ÔC Õ. P ÔAi ÕP ÔAj ÕP ÔAk Õ. 2. B Ø2. u u Es claro que los eventos A y B son ajenos. 3. . 4Ù. 3Ù y C Ø2. . Por lo tanto. y P ÔB C Õ P ÔB ÕP ÔC Õ. para verificar que n eventos son independientes es necesario comprobar todas y cada una de las igualdades arriba enunciadas. .1. y B como obtener un n´mero impar. No es dif´ darse cuenta que el ıcil n ¡ n ¡ 1. An son independientes o si se satisfacen todas y cada una de las condiciones siguientes: P ÔAi P ÔA1 P ÔAi Aj Ak Õ An Õ . ¿Puede usted justificar este resultado? total de igualdades es 2 Ejemplo 1. ¿Son A.16 Como complemento al ejemplo anterior. i. j. pues aunque se cumplen las igualdades P ÔA B Õ P ÔAÕP ÔB Õ. Es decir. no se cumple que P ÔA B C Õ P ÔAÕP ÔB ÕP ÔC Õ. i. en general. en general. 2Ù. y sin embargo no son independientes pues P ÔA B Õ P ÔAÕP ÔB Õ. . La definici´n de independencia de dos eventos puede generalizarse al caso o de varios eventos de la siguiente forma. ¤¤¤ En general. Probabilidad condicional e independencia 29 embargo. que sean ajenos. ilustraremos ahora el hecho de que dos eventos pueden ser ajenos sin ser independientes. Una partici´n finita de un conjunto Ω es una colecci´n o o o . .5 Decimos que n eventos A1 . Aj Õ P ÔAi ÕP ÔAj Õ. B y C indelos eventos A pendientes? No lo son. j distintos. A2 . 4Ù un espacio muestral equiprobable. Sean Ø1. dos eventos pueden ser ajenos y ello no implica necesariamente que sean independientes. . en general. cualquiera de estas igualdades no implica. P ÔA1 Õ ¤ ¤ ¤ P ÔAn Õ.4.

. o ındices i y j distintos.30 1. . . . Bn una partici´n de Ω tal que cada elemento de la partici´n tiene probabilio o dad estrictamente positiva. es decir. . esto es. P ÔAÕ n ô i 1 P ÔA Bi ÕP ÔBi Õ.1 (Teorema de probabilidad total) Sea B1 . . . PROBABILIDAD B1 . y adem´s la uni´n de toda la a o colecci´n produce el total Ω. En la Figuo ra 1. . a o Ahora podemos enunciar y demostrar el muy util teorema de probabilidad ´ total. se cumple que Bi Bj 0. de modo que P ÔA Bi Õ n ô i 1 A i 1 P ÔA Bi ÕP ÔBi Õ. . B1 B2 B3 A ¤¤¤ Ω Figura 1. o como sigue Primero observemos que el evento A puede escribirse n n A en donde los eventos A P ÔAÕ PÔ n A Ω A i 1 Bi i 1 A Bi . . B1 .12 se muestra gr´ficamente el concepto de partici´n de un conjunto.12: Teorema 1. . B1 B2 ¤ ¤ ¤ Bn Ω. Para cualquier evento A. . A Bi Õ n ô i 1 Bn son ajenos dos a dos. Bn de subconjuntos de Ω tal que cada uno de estos conjuntos es distinto del vac´ la colecci´n es disjunta dos a dos. para ´ ıo. Demostraci´n. B2 . .

4. Ejemplo 1. o P ÔAÕ P ÔA B ÕP ÔB Õ   P ÔA B c ÕP ÔB c Õ.18 Suponga que tenemos dos cajas: una con 3 bolas blancas y 7 de color gris. y despu´s escoger una bola de la caja e e escogida. es decir. Observe que es f´cil calcular la probabilidad de este evento a cuando se conoce la caja que fue escogida. Probabilidad condicional e independencia 31 Observe que cuando la partici´n de Ω consta de unicamente dos elementos. P ÔB Õ P ÔB C1 ÕP ÔC1 Õ   P ÔB C2 ÕP ÔC2 Õ 3 ¢1  6 ¢1 10 2 12 2 2 . o ´ c . con id´ntica probabilidad cada una de ellas.1. B Õ. Si se elije una caja al azar y despu´s se saca una bola. y B y G denotan los eventos en donde una bola blanca o gris fueron escogidas respectivamente. ÔC2 . 5 . Esta situaci´n se ilustra en o la Figura 1. en donde C1 y C2 denotan los eventos en donde las cajas uno y dos fueron escogidas. GÕ.13: El experimento aleatorio consiste entonces en escoger una caja al azar. la f´rmula del teorema de probabilidad total se reduce a la siguiente ByB o expresi´n.13. Es claro entonces que el espacio muestral puede escribirse como sigue Ω ØÔC1 . B Õ. ÔC2 . Nos piden calcular la probabilidad de B. Esto sugiere condicionar sobre el resultado de escoger alguna de las dos cajas y aplicar el teorema de probabilidad total. ÔC1 . respectivamente. GÕÙ. la otra con 6 blancas y 6 grises. ¿cu´l e a es la probabilidad de que sea blanca? Caja 1 Caja 2 Figura 1.

dos a˜os despu´s de la muerte de su creador. PROBABILIDAD Observe adem´s que la partici´n del espacio muestral consta de dos elea o mentos: ØÔC1 . el matem´tico y te´logo ingl´s n e a o e Thomas Bayes. Thomas Bayes (Inglaterra 1702–1761) .32 1. GÕÙ y ØÔC2 . Deseamos o calcular P ÔD Õ. ÔC2 . GÕÙ. B Õ. P ÔD Õ P ÔD M ÕP ÔM Õ   P ÔD H ÕP ÔH Õ 1 4 ¢ 1   100 ¢ 1 100 2 2 1 . Por el teorema de probabilidad total.19 Suponga que en una poblaci´n humana de igual n´mero de o u hombres y mujeres. ¿Puede usted comprobar que e P ÔGÕ 3ß5? Puede uno tambi´n preguntarse por situaciones aparentemente extra˜as como la siguiente: si se obtuvo una bola blanca. ÔC1 . ¿cu´l es la proban a bilidad de que haya sido obtenida de la primera caja? Ejemplo 1. Una persona es elegida al azar. Sea M el o e evento “La persona escogida es mujer”. H el evento “La persona escogida es hombre” y D el evento “La persona escogida es dalt´nica”. el 4 % de hombres son dalt´nicos y el 1 % de las mujeres o son dalt´nicas. Fue publicado por primera vez en 1763. ¿Cu´l es la probabilidad o a de que sea dalt´nica? Definamos primero los eventos de inter´s. B Õ. 40 El resultado interesante que estudiaremos a continuaci´n involucra nuevao mente probabilidades condicionales.

Entonces para cada j 1.1. para el evento B. o a M2 en evento “La m´quina 2 produjo el material escogido” y finalmente sea a D el evento “El material escogido es defectuoso”. . Nuevamente observamos que en el caso cuando la partici´n de Ω consta de s´lo dos elementos: B y B c . Sea A un evento tal que P ÔAÕ 0. Por la definici´n de probabilidad condicional y el teorema o o de probabilidad total tenemos que P ÔBj AÕ P ÔA Bj Õ P ÔAÕ P ÔA Bj ÕP ÔBj Õ P ÔAÕ P ÔA Bj ÕP ÔBj Õ ÔA BiÕP ÔBi Õ . P ÔBj AÕ n ô P ÔA Bj ÕP ÔBj Õ P ÔA Bi ÕP ÔBi Õ . ¿Cu´l es la probabilidad de a que este material defectuoso provenga de la m´quina 2? a Soluci´n: Sea M1 el evento “La m´quina 1 produjo el material escogido”. . .2 (Teorema de Bayes) Sea B1 . Por . Bn una partici´n de Ω o tal que cada elemento de la partici´n tiene probabilidad estrictamente posio tiva. . . i 1 Demostraci´n. Probabilidad condicional e independencia 33 Teorema 1. 2. . el teorema o o de Bayes.12 se encuentra una representaci´n gr´fica de una partici´n o a o del espacio muestral y un evento A. P ÔA B ÕP ÔB Õ   P ÔA B c ÕP ÔB c Õ Ejemplo 1.20 En una f´brica hay dos m´quinas. El asunto es a que se ha encontrado un material defectuoso. . o a o la m´quina 1 produce 3 % de material defectuoso. n i 1P En la Figura 1. la 2 el 5 %. . El problema es encontrar o P ÔM2 D Õ y obervamos que la informaci´n que tenemos es P ÔD M2 Õ.4. adquiere la forma: P ÔB AÕ P ÔA B ÕP ÔB Õ . La m´quina 1 realiza el a a a 60 % de la producci´n total y la m´quina 2 el 40 %. n. De su producci´n total.

pero por otro lado.95. usando el teorema de Bayes.01 .193 . P ÔN E c Õ 0. Esta ultima probabilidad es demasiado peque˜a y por lo tanto la prueba no ´ n es muy confiable en tales casos.01 0.21 En un laboratorio se descubri´ una prueba para detectar o cierta enfermedad.95 ¢ 0. P ÔE N Õ P ÔN E ÕP ÔE Õ P ÔN E ÕP ÔE Õ   P ÔN E c ÕP ÔE c Õ 0.01   0. y sobre la eficacia de dicha prueba se conoce lo siguiente: si se denota por E el evento de que un paciente tenga la enfermedad y por N el evento de que la prueba resulte negativa. sin embargo calcularemos ı las probabilidades P ÔE N Õ y P ÔE N c Õ.05 ¢ 0.000526 . Es bueno que esta probabilidad sea peque˜a.05 ¢ 0.96 ¢ 0. Ejemplo 1.34 el teorema de Bayes tenemos entonces que P ÔM2 D Õ 1.04 ¢ 0.96 y P ÔE Õ 0.01   0.01 0. PROBABILIDAD P ÔD M2 ÕP ÔM2 Õ P ÔD M1 ÕP ÔM1 Õ   P ÔD M2 ÕP ÔM2 Õ 5 100 60 100 40 ¢ 100 5 40   100 ¢ 100 3 ¢ 100 10 .99 0. n P ÔE N c Õ P ÔN c P ÔN c E ÕP ÔE Õ E ÕP ÔE Õ   P ÔN c E c ÕP ÔE c Õ 0. . entonces se sabe que o P ÔN c E Õ 0. 19 Como un ejercicio al lector se deja comprobar que P ÔM1 D Õ 9ß19. Con esta informaci´n uno podr´a pensar que la prueba es muy buena.95 ¢ 0.99 0.

a. Al transformar este resultado con la variable aleatoria X se obtiene un n´mero real X Ôω Õ x. W. Variables aleatorias 35 1. una variable aleatoria es una transformaci´n X del espacio de resultados Ω al conjunto de n´meros reales.5. A menudo se escribe simplemente v. en lugar del t´rmino variable aleatoe ria. mientras que la letra min´scula x denota un n´mero real o u u y que es un posible valor de la variable aleatoria. Ilustramos de manera gr´fica el concepto de o a variable aleatoria en la Figura1. Suponga o entonces que se efect´a el experimento aleatorio una vez y se obtiene un reu sultado ω en Ω. X. las variables aleatorias se denotan usando las ultimas letras del alfabeto en may´sculas.22 Suponga que un experimento aleatorio consiste en lanzar al aire una moneda y observar la cara superior una vez que la moneda cae. X:Ω R. pero omitiremos tales teca o nicismos pues no son de utilidad para los prop´sitos de este curso. V. En general.1.14. Z. es decir.14: Ejemplo 1. X es una funci´n de Ω en R. En sentido estricto una variable aleatoria es una funci´n de Ω en R que o satisface adem´s cierta condici´n de medibilidad. ´ u U. o u esto es. Variables aleatorias Dado un experimento aleatorio cualquiera. Podemos entonces suponer que los posiu bles resultados del experimento aleatorio son los diferentes n´meros reales x u que la funci´n X puede tomar. . Debemos hacer aqui la siguiente observaci´n importante: seguiremos la notaci´n usual de usar la letra may´scula o o u X para denotar una variable aleatoria cualquiera. Y. u X ω Ω X Ôω Õ x x R Figura 1. y para un valor cualquiera de ellas se usa la misma letra pero en min´scula.5.

En este caso la variable Y solo toma un valor.15: Los siguientes son ejemplos de funciones de Ω en R (variables aleatorias) asociadas a este experimento aleatorio. u Ejemplo 1.36 1.23 Consideremos el experimento aleatorio consistente en lanzar un dardo en un tablero circular de radio uno como se muestra en la Figura 1. Decimos que Y es la variable aleatoria constante 2.15. yÕ Figura 1. otro par de n´meros distintos puede ser escogido para distinguir u los dos resultados del experimento aleatorio. Podemos tambi´n definir la e variable aleatoria Y : Ω R de la siguiente forma Y Ô“Cara”Õ Y Ô“Cruz”Õ 2. el e o n´mero 2. ω Ω Ôx. El espacio muestral o conjunto de posibles resultados del experimento se puede escribir como sigue Ω ØÔx. 1. “Cruz”Ù. el n´mero 2. Entonces claramente el espacio muestral es el conjunto Ω Ø“Cara”. y Õ x. De este modo podemos suponer que el experimento aleatorio tiene dos valores num´ricos posibles: 0 y 1. Defina la R de la siguiente forma variable aleatoria X : Ω X Ô“Cara”Õ y X Ô“Cruz”Õ 0. a) X Ôx. a trav´s de la funci´n Y . PROBABILIDAD Denotemos por “Cara” y “Cruz” los dos lados de la moneda. y Õ : x2   y 2 1Ù. Observe que los n´meros 0 y 1 son en realidad e u arbitrarios. Cualquier u resultado del experimento aleatorio produce. proyecci´n sobre el eje horizontal. o .

bÕ R. Ejemplo 1. puede obtenerse un ejemplo de una variable aleatoria discreta sobre este espacio muestral. Decimos que una v.25 Un experimento aleatorio consiste en escoger a una persona ω al azar. lo mismo Æ pues aunque es infinito.a. Considerando el conjunto de valores que una variable aleatoria puede tomar. Variables aleatorias b) Y Ôx. n b) N´mero de hijos. Y.1. es decir. En cada caso se trata de una variable aleatoria discreta: a) Edad en a˜os.15) es infinito no numerable. vamos a clasificar a las variables aleatorias en dos tipos: discretas o continuas. V y W definidas all´ son todas variables aleatorias continuas. son variables aleatorias discretas. un conjunto finito o numerable. decimos que una variable aleatoria es continua cuando toma todos los valores dentro de un intervalo Ôa. y Õ c) Z Ôx. por simplicidad. 37 e) W Ôx. La variable aleatoria X evaluada en ω corresponde a conocer la siguiente caracter´stica. producto de las coordenadas. y Õ y. Si se ı dibujan c´rculos conc´ntricos alrededor del origen y si se asignan premios ı e asociados a cada una de las regiones resultantes. Z. x distancia al centro del c´rculo. nÙ es un conjunto discreto porque es finito. e Por ejemplo. . es numerable y por lo tanto discreto.5. o x2   y 2 . y Õ d) V Ôx. las variables X. Ejemplo 1. el espacio muestral (Figura 1. de la ı o ı persona escogida. proyecci´n sobre el eje vertical. o una codificaci´n de esta caracter´stica. En ese ejemplo el espacio muestral mismo es discreto y por lo tanto las variables aleatorias que pueden all´ definirse tienen que ser discretas forzosamente. en este curso estudiaremos unicamente variables aleatorias que son discretas o ´ continuas. xy. . es discreta cuando el conjunto de valores que ´sta toma es un conjunto discreto.24 Las variables X y Y definidas l´neas arriba en el ejemplo ı del lanzamiento de una moneda. ı En el ejemplo del lanzamiento de un dardo en un tablero circular de radio uno. Por otra parte. . ı distancia del taxista. u . Esta clasificaci´n o de variables aleatorias no es completa pues existen variables que no son de ninguno de los dos tipos mencionados. y Õ   y. Sin embargo. . 2. el conjunto Ø0. 1.

e) P ÔX ¡1Õ P ÔÀÕ 0. PROBABILIDAD Usaremos tambi´n la siguiente notaci´n importante: si A es un subconjunto e o de R. 4×Õ P ÔÀÕ 0. d) Estatura. Por lo tanto P ÔX È Ö1. es decir. es decir. denota el o e conjunto Øω È Ω : X Ôω Õ È AÙ. entonces la expresi´n ÔX È AÕ. e) Sueldo. lo cual no debe confundirse con la funci´n inversa. Lo mismo sucede con el complemento de este conjunto que es ÔX a) P ÔX . A este conjunto se le llama la imagen inversa de A.26 Consideremos nuevamente el experimento de lanzar una moneda y la variable aleatoria X que lleva el resultado “Cara” al valor 0 y el resultado “Cruz” al valor 1. 1.38 c) Peso. b) P ÔX È Ö0. Õ. 1ÕÕ P ÔØ“Cara”ÙÕ 1ß2. Ejemplo 1. ÕÕ ´ P Ø“Cruz”Ù 1ß2. d) P ÔX 1Õ P ÔØ“Cruz”ÙÕ 1ß2. En lo que resta del curso se usar´ con mucha frecuencia la notaci´n arriba a o explicada. c) P ÔX È Ö2. Del mismo modo puede verificarse que È Ö1. El lector debe asegurarse de comprender bien que si x es un xÕ es un subconjunto de Ω y por lo tanto un n´mero real entonces ÔX u evento. la expresi´n ÔX È AÕ denota aquel conjunto de elementos ω o de Ω tales que bajo la aplicaci´n de la funci´n X toman un valor dentro o o del conjunto A. En palabras. incluyendo el par´ntesis. Tenemos por ejemplo que ÔX È Ö1. f ) P ÔX 0Õ P ÔΩÕ 1. es unicamente el elemento “Cruz”. 2ÕÕ P ÔØ“Cruz”ÙÕ 1ß2. caen dentro del intervalo Ö1. ÔX È AÕ Øω È Ω : X ÔωÕ È AÙ. ÕÕ o Ø“Cruz”Ù pues el conjunto de elementos de Ω tales que bajo la funci´n X toman un valor mayor o igual a uno. y se le o denota por X ¡1 A.

P ÔX x1 Õ. llamadas funci´n de densidad y o funci´n de distribuci´n. . ni eventos (subconjuntos) de Ω. ni espacios muestrales arbitrarios Ω.. x1 . . La funci´n de probabilidad de la variable X denotada por f ÔxÕ : R o Ö0. Podemos escribir entonces la igualdad de conjuntos ÔX x Õ ÔX xÕ Ω. . el t´rmino variable aleatoria aparecer´ con bastante e a frecuencia en el presente texto. . .a.6. despu´s para una continua. x1 . A partir de ahora. Funciones de densidad y de distribucion 39 xÕ. Esta perspectiva permite estudiar modelos generales y despu´s aplicarlos a cualquier situaci´n partie o cular. . como explicamos antes. .2) En palabras. . Y aplicando probabilidad se obtiene P ÔX xÕ   P ÔX xÕ 1. . a probabilidades para subconjuntos de R. Definiremos primero la funci´n de densidad para una variable o aleatoria discreta. pero numere able. La probae u bilidad definida antes para subconjuntos de Ω se traslada. o o Funci´n de probabilidad para una v. discreta o Sea X una variable aleatoria discreta que toma los valores x0 . y finalmente definiremos la e funci´n de distribuci´n para ambos tipos de variables aleatorias. en lugar de ello consideraremos que una cierta variable aleatoria de inter´s toma valores en un cierto subconjunto de n´meros reales. otro caso. Õ se define como sigue f ÔxÕ P ÔX 0 xÕ si x x0 . con probabilidades respectivas P ÔX x0 Õ. Estas funciones. Nota importante: a trav´s de una variable aleatoria se puede considerar que e los posibles resultados de un experimento aleatorio no son elementos ω en Ω sino n´meros reales que la variable aleatoria puede tomar. Esta es una u consideraci´n radical pues ya no consideraremos experimentos aleatorios o particulares. (1.´ 1. Funciones de densidad y de distribuci´n o En esta secci´n vamos a explicar la forma de asociar a cada variable aleatoria o dos funciones que nos proveen de informaci´n acerca de las caracter´ o ısticas de la variable aleatoria. la funci´n de probabilidad es simplemente aquella funci´n que o o . Esta lista de valores num´ricos y sus probabilidades puede ser finita o bien infinita. 1. nos permiten representar a un mismo tiempo tanto o o los valores que puede tomar la variable como las probabilidades de los distintos eventos.6.

40 1. Alternativao a mente podemos tambi´n expresar esta funci´n mediante la tabla de la Figue o ra 1. y P ÔX 1Õ 0. En particular. 2 y 3. 2 y 3. Esta funci´n se muestra gr´ficamente en la Figura 1. A toda funci´n de la foro ma (1. pues conceptualmente son cosas muy distintas. 1× que sea cero excepto en ciertos puntos x0 . Observe que se cumplen o las siguientes dos propiedades: a) f ÔxÕ b) ô i 0 0. si x 2.7. PROBABILIDAD indica la probabilidad en los distintos valores que toma la variable aleatoria. con probabilidades 0.2 ³ ± 0 si x 1. Observe que no se especifica ni el experimento aleatorio ni el espacio muestral. . 0. 1. . Esta notaci´n ser´ particularmente util cuando o a ´ consideremos varias variables aleatorias a la vez.3. otro caso. a o Ejemplo 1. si x 3. f Ôx i Õ Rec´ ıprocamente.16 (b). . La funci´n de probabilidad de X es o f ÔxÕ ° ³ 0.2 respectivamente.5 ³ 0.27 Considere la variable aleatoria discreta X que toma los valores 1.3 ³ ² 0. x1 . a toda funci´n f ÔxÕ : R o Ö0.5 y 0. para toda x È R.3. Recordemos que es importante poder distinguir entre X y x. en donde la funci´n toma valores positivos se le llao mar´ funci´n de probabilidad si cumple con las dos propiedades anteriores. A veces escribiremos fX ÔxÕ y el u sub´ ındice nos ayudar´ a especificar que tal funci´n es la funci´n de proa o o babilidad de la variable X. . P Ô X 1Õ 0. unica´ mente los valores de la variable aleatoria y las probabilidades asociadas. En esta representaci´n se entiende de manera impl´cita que o ı f ÔxÕ es cero para cualquier valor de x distinto de 1.2) la llamaremos funci´n de probabilidad. Denotaremos generalmente a una funci´n o de probabilidad con la letra f min´scula.16 (a). no debe ser dif´cil para el lector comprobar que las siguientes probabilidades ı son correctas: P ÔX 2Õ 0.

respectivamente. c. 1. Õ es la funci´n de densidad de X si para o cualquier intervalo Öa.5 0.2 1 2 (a) 3 Figura 1. 3.3 (b) 2 0. Es decir. Funciones de densidad y de distribucion f ÔxÕ 0. o f ÔxÕ c x si x 0. V´ase la Figura 1. o De aqui obtenemos c 1ß6. con probabilidades 0. De esta forma el c´lculo de una probabilidad se reduce a al c´lculo de una integral. una funci´n de probabilidad. Este es el valor de c que hace que f ÔxÕ sea no negativa y sume uno.6.28 Encontraremos el valor de la constante c que hace que la siguiente funci´n sea de probabilidad. Decimos que la funci´n integrable o y no negativa f ÔxÕ : R Ö0. obtenemos la ecuaci´n c   2c   3c 1.16: Ejemplo 1. o Funci´n de densidad para una v. 2. 2c y 3c.a. b× se puede calcular o expresar como el ´rea bajo la funci´n de densidad a o en dicho intervalo.3 0.17 en donde se muestra esta a e forma de calcular probabilidades. 0 otro caso.5 3 0. 2 y 3. la probabilidad de que la variable tome un valor dentro del intervalo Öa. 1.´ 1. a .2 x 41 x f ÔxÕ 1 0. Como la suma de estas probabilidades debe ser uno. No es dif´ comprobar que toda funci´n ıcil o de densidad f ÔxÕ de una variable aleatoria continua cumple las siguientes propiedades an´logas al caso discreto. Los posibles valores de la variable aleatoria discreta (no especificada) son 0. continua o Sea X una variable aleatoria continua. es decir. b×Õ ÷b a f ÔxÕ dx. b× de R se cumple la igualdad P ÔX È Öa.

b×Õ ÷b a f ÔxÕ dx a b Figura 1. para toda x È R.17: La probabilidad como un ´rea. ¡ f ÔxÕ dx es la funci´n de densidad de una variable aleatoria continua que toma valoo a res en el intervalo Ô1. 1. Observe que se trata de una funci´n no negativa y cuya integral vale uno. a a) f ÔxÕ ÷ 0.42 1. PROBABILIDAD f ÔxÕ P ÔX x È Öa. a o Ejemplo 1. otro caso. 3Õ. o f ÔxÕ 1 ß2 x 1 2 3 Figura 1. 3Õ. Õ que satisfaga estas dos propiedades (sin necesidad de tener una variable aleatoria de por medio) se llamar´ funci´n de densidad. toda funci´n f ÔxÕ : R o Ö0.18: 4 .18. b) Rec´ ıprocamente. y cuya gr´fica aparece en la Figura 1.29 La funci´n dada por o f ÔxÕ 1ß2 0 si x È Ô1.

o en otras palabras. que tome un valor en el intervalo Ô¡ .6. o En el caso continuo. Funci´n de distribuci´n o o Sea X una variable aleatoria discreta o continua. suponiendo que f ÔxÕ es la funci´n de probabilidad de X. x×. por razones o e evidentes.´ 1. (1. cuando tomamos c 1 esta funci´n resulta ser una funci´n o o de densidad pues ahora cumple con ser no negativa e integrar uno. Siendo F ÔxÕ una probabilidad. Con o o un par de ejemplo mostraremos la forma de calcular esta funci´n a partir o de la funci´n de probabilidad o de densidad.3) se tiene que ÷x F ÔxÕ f ÔuÕ du. La funci´n de distribuci´n o o de X. o . si f ÔxÕ es la funci´n de densidad de X. denotada por F ÔxÕ : R Ö0. 1×. ¡ Esta funci´n resulta ser importante y se le conoce tambi´n. la funci´n de distribuci´n evaluada en un n´mero x cualquiera o o u es simplemente la probabilidad de que la variable aleatoria tome un valor menor o igual a x.3) Esto es. sus valores est´n siempre entre cero a o y uno. Como esta funci´n debe integrar uno tenemos que o ÷1 ÷1 0 1 ¡1 c x dx c 2 x dx c. por (1. 1×. o f Ôx Õ c x 0 si x È Ö¡1. Por lo tanto. se define como F ÔxÕ P ÔX x Õ. Funciones de densidad y de distribucion 43 Ejemplo 1. la funci´n de distribuci´n (1. 1×. En el caso discreto.30 Encontraremos el valor de la constante c que hace que la siguiente funci´n sea de densidad. con el nombre de funci´n de acumulaci´n de probabilidad. Se trata de una variable aleatoria continua que toma valores en el intervalo Ö¡1. otro caso.3) se calcula como sigue o o F Ôx Õ ô u x f ÔuÕ.

entonces el tama˜o de o n tal discontinuidad es exactamente la probabilidad de que la variable aleatoria tome ese valor.32 (Caso continuo) Considere ahora la variable aleatoria continua X de la Figura 1. x 3. es no decreciente.8 0. F ÔxÕ P ÔX xÕ ô u x P ÔX uÕ ° ³ 0 ³ ² 0.31 (Caso discreto) Considere la variable aleatoria discreta X de la Figura 1. y si la funci´n tiene una discontinuidad en x.44 1. cuya gr´fica aparece en la Figura 1. es decir. 3. x x 3.3 ³ 0.16.19 (a). PROBABILIDAD Ejemplo 1. 2.18.19: 1 2 (b) 3 Ejemplo 1.8 ³ ± 1 si si si si x 1 2 x 1. F ÔxÕ 1 0. . La correspondiente funci´n de distribuci´n se o o obtiene calculando la siguiente integral separando el c´lculo en tres casos a distintos: F ÔxÕ P ÔX xÕ ÷x ¡ f ÔuÕ du ° ² 0 ± Ôx ¡ 1Õß2 1 si x si 1 si x 1.3 x 1 F ÔxÕ x 1 2 (a) 3 Figura 1. 3. Este es el comportamiento t´pico a ı de una funci´n de distribuci´n discreta. Tenemos que la correspondiente funci´n de distribuci´n o o evaluada en x se calcula sumando las probabilidades P ÔX uÕ para valores de u menores o iguales a x. constante por o o pedazos.

19 (b). 4. . puede encontrarse la funci´n de o a distribuci´n F ÔxÕ.´ 1. 3. 5. x x x x x 6. o Ejemplo 1. 6. 2. Considerando los distintos valores para x. 2. se encuentra la funci´n de distribuci´n o o F Ôx Õ P ÔX xÕ ô u x f ÔuÕ ° ³ 0 ³ ² ³ ³ ± Ô1 ¡ x2 Õß2 Ô1   x2 Õß2 1 si x ¡1. si 0 x 1. 4.6. la cual est´ dada por o ° ³ 0 ³ ³ ³ 1/6 ³ ³ ³ ³ 2/6 ² ³ ³ 4/6 ³ ³ ³ ³ ³ 5/6 ³ ± F Ôx Õ P ÔX xÕ ô u x f ÔuÕ 3/6 1 si si si si si si si x 1 2 3 4 5 x 1. si ¡1 x 0. Integrando esta funci´n desde menos infinito hasta x. 5. obtener f ÔxÕ a partir de F ÔxÕ. 1×. f ÔxÕ 0 otro caso. Ahora explicaremos el proceso contrario. 6. F Ôx Õ P ÔX xÕ ÷x ¡ f ÔuÕ du. es decir. Funciones de densidad y de distribucion 45 La gr´fica de esta funci´n aparece en la Figura 1. En los ejemplos anteriores se ha mostrado la forma de obtener F ÔxÕ a partir de f ÔxÕ. f ÔxÕ 0 otro caso. o Ejemplo 1. Se deja como ejercicio al lector graficar con precisi´n estas funciones. En el caso continuo tenemos que para toda x en R.33 (Caso discreto) Considere la siguiente funci´n de probao bilidad 1ß6 si x 1. para distintos valores o de x. 3. Observe que esta a o funci´n es continua y no decreciente.34 (Caso continuo) Considere la siguiente funci´n de densio dad x si x È Ö¡1. si x 1.

36 Considere la funci´n de distribuci´n o o F ÔxÕ ° ³ 0 ³ ² si x ¡1. la funci´n de probabilidad se obtiene de la funci´n de o o distribuci´n del siguiente modo o f ÔxÕ P ÔX xÕ F ÔxÕ ¡ F Ôx¡Õ. Ejemplo 1. En el siguiente ejemplo se muestra la forma de llevar a cabo este procedimiento. 1. o ımite por la derecha de la An´logamente. Observamos que se trata de una funci´n continua y diferenciable. ım l´ F Ôx   hÕ. 1ß3 si ¡ 1 x 0. tenemos que F ½ ÔxÕ f ÔxÕ. 0. De este modo podemos encontrar f ÔxÕ a partir de F ÔxÕ. En el caso discreto. En s´ o ımbolos. en donde F Ôx¡Õ es el l´ ımite por la izquierda de la funci´n F en el punto x. ım 0 0 con h con h 0. . ³ ± 1 si x 1. Ejemplo 1. 1. si ¡ 1 x si x 1. y cuando F ÔxÕ es a diferenciable. ³ 2ß3 si 0 x 1. F Ôx¡Õ F Ôx Õ h h l´ F Ôx ¡ hÕ. PROBABILIDAD de modo que por el Teorema Fundamental del C´lculo. Derivando o entonces en cada una de las tres regiones de definici´n se encuentra que o f ÔxÕ 3x2 ß2 si ¡ 1 x 0 otro caso.46 1.35 Considere la funci´n de distribuci´n o o F ÔxÕ ° ² 0 Ô1   x3 Õß2 ± 1 si x ¡1. la expresi´n F Ôx Õ significa el l´ a o funci´n F en el punto x.

6. o o Proposici´n 1. 0. Por lo tanto P Ôx1 X x2 Õ P ÔX x2 Õ¡ P ÔX x1 Õ F Ôx2 Õ¡ F Ôx1 Õ. d) Para h xÕ P Ôx 0 tenemos que F Ôx   hÕ P ÔX x   hÕ P ÔX X x hÕ. por lo tanto. en donde ÔX x1 Õ ÔX x2 Õ. F ÔxÕ P ÔX ¡ Õ P ÔÀÕ 0. de modo que cuando h tiende a cero. X x2 Õ puede descomponerse en la c) Observe que el evento Ôx1 diferencia ÔX x2 Õ ¡ ÔX x1 Õ. cuando x e . b) An´logamente el conjunto ÔX a xÕ se aproxima al conjunto ÔX ¡ Õ À cuando x tiende a menos infinito. cuando x ¡ . 1. 0 otro caso. Demostraci´n. la cual est´ dada por a f Ôx Õ 1ß3 si x ¡1.9 Toda funci´n de distribuci´n F ÔxÕ satisface las siguieno o o tes propiedades: a) l´ F ÔxÕ ım x 1. Por lo tanto. entonces F Ôx1 Õ F Ôx Õ. Funciones de densidad y de distribucion 47 Al graficar esta funci´n uno puede darse cuenta que se trata de una funci´n o o constante por pedazos. o a) Cuando x tiende a infinito el conjunto ÔX xÕ se aproxima al conjunto ÔX Õ que es id´ntico a Ω. F ÔxÕ P ÔX Õ P ÔΩÕ 1.´ 1. Los puntos donde esta funci´n tiene incrementos y o los tama˜os de estos incrementos determinan la correspondiente funci´n de n o probabilidad. el conjunto . Mencionaremos a continuaci´n algunas propiedades generales v´lidas para o a toda funci´n de distribuci´n. F Ôx2 Õ. b) x l´ F ÔxÕ ım ¡ c) Si x1 d) F ÔxÕ x2 . sea esta discreta o continua. 0.

etc. en donde X es una variable aleatoria con funci´n de distribuci´n F ÔxÕ. Rec´ ıprocamente. 1× que cumpla las cuatro propiedades anteriores (sin tener una variable aleatoria de por medio) se le llama funci´n de distribuci´n. y o o x1 x2 . d) P ÔX 1.7. se deja como ejercicio al lector demostrar la siguiente igualdad P Ôx1 X x2 Õ F Ôx2 Õ ¡ F Ôx1 Õ.37 Sea X una variable aleatoria con funci´n de distribuci´n o o F ÔxÕ ° ³ 0 ³ ² si x ¡1.48 1. verifique el lector los siguientes resultados. ³ 2ß3 si 0 x 1. 1ß3 si ¡ 1 x 0. Como una propiedad o adicional. momentos Todos los seres humanos tenemos caracter´ ısticas num´ricas que nos identie fican y nos distinguen de otras personas. 1ß3. mientras que la propiedad (d) establece o o que F ÔxÕ es una funci´n continua por la derecha. PROBABILIDAD Ôx X x   hÕ tiende al conjunto vac´ Concluimos entonces que. la talla. Ejemplo 1. toda funci´n F ÔxÕ : R o Ö0. por ejemplo. La propiedad (c) significa que F ÔxÕ es una o o funci´n mon´tona no decreciente. el peso. la identificar´ u ıamos de manera . Como un ejemplo del c´lculo de probabilidades usando la funci´n de disa o tribuci´n. la estatura. 1Õ 1ß3. Esperanza. Si pudi´ramos considerar la totalidad de todos ese tos n´meros para una persona en particular. la edad. ³ ± 1 si x 1. F Ôx   hÕ F ÔxÕ   P ÔÀÕ F ÔxÕ. cuando h 0 con h 0. o a) P ÔX c) P Ô0 b) P ÔX 0Õ X 0Õ 1Õ 1. varianza. ıo. 1ß3.

. suponiendo que esta integral es absolutamente convergente. Mediante algunos ejemplos ilustraremos a continuaci´n la forma de calcular o este n´mero. varianza.38 (Caso discreto) Sea X una variable aleatoria discreta con funci´n de densidad dada por la siguiente tabla. suponiendo que esta suma es absolutamente convergente. La esperanza es uno de los conceptos m´s importantes en probao a bilidad y tiene un amplio uso en las aplicaciones y otras ramas de la ciencia. las identifican de manera unica. El n´mero de u sumandos puede ser finito o infinito. entonces EÔX Õ ô i 0 xi P ÔX xi Õ. Si X es continua con funci´n de densidad f ÔxÕ.. x1 . Hemos se˜alado que n la integral o suma arriba mencionados pueden no ser convergentes y en ese caso se dice que la variable aleatoria no tiene esperanza finita.1. en los ejercicios 151 y 152 pueden encontrarse ejemplos en donde se ilustra esta situaci´n. o x f Ôx Õ -1 1/8 0 4/8 1 1/8 2 2/8 . valor esperado o valor promedio. o entonces la esperanza es EÔX Õ ÷ ¡ xf ÔxÕ dx. En e general se usa la letra griega µ (mu) para denotarla. momentos 49 unica. Si la suma o integral anteriores no cumplen esta condici´n de convergencia absoluta. Esperanza. . u Ejemplo 1.7. bajo ciertas condiciones. . eno tonces se dice que la esperanza no existe. dependiendo del conjunto de valores de la variable aleatoria. En esta secci´n estu´ o diaremos algunas caracter´ ısticas num´ricas asociadas a las variables aleatoe rias que. La esperanza de una variable aleatoria es entonces un n´mero que indica el promedio ponderado de los u diferentes valores que puede tomar la variable. A la esperanza se le conoce tambi´n con los nombre de: media. Algo similar sucede con las variables aleatorias. ´ Esperanza La esperanza de una variable aleatoria X es un n´mero denotado por E ÔX Õ u y que se calcula como sigue: si X es discreta con valores x0 .

1Õ. Compruebe que la esperanza de X es Ôn   1Õß2. Esperanza de una funci´n de una variable aleatoria o En algunos casos es necesario calcular la esperanza de una funci´n de una o variable aleatoria. Ejemplo 1. pues fuera de o dicho intervalo la funci´n de densidad se anula. . ¡1. Ejemplo 1. si X es una variable aleatoria. . . Observe que la suma su efect´a para todos los valores de x indicados en la u tabla.39 (Caso continuo) Considere la variable aleatoria continua X con funci´n de densidad f ÔxÕ 2x. . Compruebe que la esperanza de esta variable aleatoria es cero. 2.40 Considere una variable aleatoria continua X con funci´n o de densidad f ÔxÕ x . o Ejemplo 1. Tambi´n es instructivo observar que la esperanza e no es necesariamente uno de los valores tomados por la variable aleatoria. siendo cero fuera de o este intervalo. entonces es X 2 es una funci´n de X y es tambi´n una variable aleatoria. Por ejemplo. .41 Sea X una variable aleatoria discreta con posibles valores en el conjunto Ø1. y tal que la probabilidad de que tome cualquiera de estos valores es 1ßn. 3 ¡ y fY Ôy Õ dy. pero es su valor esperado. para x È Ô0. PROBABILIDAD x f ÔxÕ ¡1 ¢ 1ß8   0 ¢ 4ß8   1 ¢ 1ß8   2 ¢ 2ß8 1ß2. o e claro que Y Si quisi´ramos calcular la esperanza de Y seg´n la definici´n tendr´ e u o ıamos que calcular ÷ E ÔY Õ ¡ x f ÔxÕ dx ÷1 x 2x dx 0 2 3 §1 x § 3 §0 § 2 . En este ejemplo el valor 1ß2 nunca es tomado por la variable aleatoria. 1Õ. es decir. para ¡1 x 1. 0. La esperanza de X es E ÔX Õ ÷ Observe que la integral s´lo es relevante en el intervalo Ô0. 1 y 2. nÙ.50 La esperanza de X es el n´mero u E ÔX Õ ô x 1.

Esperanza. varianza.42 Calcularemos E ÔY Õ en donde Y aleatoria continua del ejemplo anterior. como un ejercicio para el lector. asi es que la o omitiremos y nos concentraremos en su uso y aplicaci´n. Entonces o E ÖgÔX Õ× ÷ ¡ gÔxÕfX ÔxÕ dx. Proposici´n 1. es decir. Un primer m´todo consiste en calcular primero la funci´n de probabilidad de la e o . Ejemplo 1. momentos 51 para lo cual se necesita encontrar primero la funci´n de densidad de Y .43 Sea X una variable aleatoria con funci´n de probabilidad o dada por la tabla que aparece abajo. X 2 .7. Ahora. la demostraci´n de este resultado es complicada. El siguiente resultado es muy util y nos dice la forma a ´ de calcular esta esperanza conociendo unicamente la funci´n de densidad ´ o de X. x fX ÔxÕ -2 2/8 -1 1/8 0 2/8 1 1/8 2 2/8 Nos interesa calcular la esperanza de la variable aleatoria Y X 2 . El resultado esta o enunciado en el caso continuo pero tambi´n es v´lido en el caso discreto. intente encontrar la funci´n de o densidad de Y y calcule E ÔY Õ usando la definici´n de esperanza. (1.4) En general. y ello o en general no es f´cil. con funci´n de densidad o f ÔxÕ 2x para x È Ô0. El resultado o debe ser nuevamente 1ß2. y X es la variable Ejemplo 1.1. A este resultado a veces se le refiere como el teorema del estad´ ıstico inconsciente.10 Sea X una variable aleatoria continua y sea g : R o R una funci´n tal que gÔX Õ es una variable con esperanza finita. Por la proposici´n anterior tenemos que o E ÔY Õ E ÔX 2 Õ ÷ ¡ x2 f ÔxÕ dx ÷1 0 2x3 dx 1ß2. 1Õ. en e a donde en lugar de la integral aparece una suma.

Esta funci´n es o y f Y Ôy Õ 0 2/8 1 2/8 4 4/8 1. 8 8 8 4 Ahora calcularemos la misma esperanza pero usando (1.11 Sean X y Y con esperanza finita y sea c una constante. entonces por definici´n. 2 1 2 1 2 9 . o El segundo inciso se sigue directamente de la definici´n de esperanza pues o tanto en el caso de la suma como en el caso de la integral.52 variable Y . Observe que la segunda y cuarta propiedad e establecen que la esperanza es lineal. El resultado es el mismo.  YÕ La primera propiedad es evidente de demostrar pues si X es la variable aleatoria constante c. PROBABILIDAD Entonces usando la definici´n de esperanza para variables aleatorias discreo tas tenemos que 9 2 2 4 E ÔY Õ 0   1   4 . 0. E ÔX Õ c P ÔX cÕ c 1 c. E ÔY Õ Ô¡2Õ2   Ô¡1Õ2   Ô0Õ2   Ô1Õ2   Ô2Õ2 8 8 8 8 8 4 He aqu´ algunas propiedades generales de la esperanza. la constante c puede siempre colocarse fuera. ı Proposici´n 1. separa sumas y tambi´n separa e multiplicaciones por constantes. . o Entonces a) E ÔcÕ b) E Ôc X Õ c) Si X d) E ÔX c. El tercer inciso tambi´n es evidente pues e cuando se cumple la hip´tesis. a e ´ no es sencilla de demostrar y a´n en el caso discreto requiere de detalles u t´cnicos que preferimos omitir. E ÔX Õ   E ÔY Õ. en cambio. es decir. entonces E ÔX Õ 0. c E ÔX Õ. La ultima propiedad. en la integral o suma correspondiente solo o aparecer´n t´rminos que son no negativos.4).

A la ra´ cuadrada positiva de la varianza. la suma es finita. En el caso continuo. Se le denota regularmente por la letra σ 2 (sigma cuadrada). se define como sigue VarÔX Õ ô i 0 Ôxi ¡ µÕ2 f ÔxiÕ.1. y en ese caso decimos que la variable aleatoria no tiene varianza finita. . momentos 53 Varianza Vamos ahora a definir otra caracter´ ıstica num´rica asociada a las variae bles aleatorias llamada varianza. . Es interesante observar que la varianza puede escribirse en ambos casos (discreto y continuo) en una sola expresi´n como sigue o VarÔX Õ E ÔX ¡ µÕ2 . x1 . Aplicando la . o x f ÔxÕ -1 1/8 0 4/8 1 1/8 2 2/8 Recordemos primeramente que por c´lculos previos. en donde µ es la esperanza de X y suponiendo que dicha suma es convergente. Como en el caso de la esperanza.7. . la anterior suma o o a integral puede no existir (no ser convergente). Veamos algunos ejemplos sencillos. Observe que se necesita conocer la esperanza de X para calcular su varianza.44 Calcularemos la varianza de la variable aleatoria discreta X con funci´n de densidad dada por la siguiente tabla. µ a 1ß2. Por supuesto. Esperanza. cuando la variable aleatoria s´lo toma un n´mero finito o u de valores. Se denota por VarÔX Õ y para una variable aleatoria discreta con valores x0 . se le llama ız desviaci´n est´ndar. esto es σ. para una variable aleatoria continua X con funci´n de densidad f ÔxÕ se define o VarÔX Õ ÷ ¡ Ôx ¡ µÕ2 f ÔxÕ dx. La varianza es una medida del grado de dispersi´n de los diferentes valores o tomados por la variable. Ejemplo 1. varianza.

a. o El inciso ÔaÕ es evidente a partir de la definici´n de o varianza pues en ella aparece una suma o integral de t´rminos no negativos. 1Õ. Proposici´n 1.12 Sean X y Y dos variables aleatorias. y sea c una conso tante. c2 VarÔX Õ. Entonces a) VarÔX Õ b) VarÔcÕ c) VarÔc X Õ d) VarÔX e) f) 0. En general. Por lo tanto. Ahora enunciamos algunas propiedades de la varianza. Ejemplo 1. VarÔX   Y Õ VarÔX Õ   VarÔY Õ.   cÕ VarÔX Õ. En un c´lculo previo o a hab´amos encontrado que µ 2ß3. Demostraci´n. ı VarÔX Õ ÷ ¡ Ôx ¡ µÕ2 f ÔxÕ dx ÷1 0 Ôx ¡ 2ß3Õ2 2x dx 1ß18. VarÔX Õ E ÔX 2 Õ ¡ E 2 ÔX Õ. de modo que ´ . e Para el inciso ÔbÕ la constante c es una v. PROBABILIDAD Ôx ¡ µÕ2 f ÔxÕ Ô¡1 ¡ 1ß2Õ2 ¢ 1ß8   Ô0 ¡ 1ß2Õ2 ¢ 4ß8  Ô1 ¡ 1ß2Õ2 ¢ 1ß8   Ô2 ¡ 1ß2Õ2 ¢ 2ß8 1. con un unico valor.45 Calcularemos la varianza de la variable aleatoria continua X con funci´n de densidad f ÔxÕ 2x para x È Ô0. 0.54 definici´n de varianza tenemos que o VarÔX Õ ô x 1.

para x 0. a Ejemplo 1.   bÕ a2 VarÔX Õ. Usando la definici´n de o de densidad dada por f ÔxÕ esperanza y varianza puede comprobarse que E ÔX Õ 1. Para demostrar la propiedad ÔeÕ se desarrolla el cuadrado en la definici´n o de varianza.1. El inciso ÔdÕ se sigue del siguiente an´lisis: a   cÕ ¡ E ÔX   cÕ×2 E ÖX ¡ E ÔX Õ×2 VarÔX Õ. Finalmente para demostrar la propiedad Ôf Õ es suficiente dar un ejemplo. varianza. y que no cumple la propiedad de linealidad pues en general no separa sumas y la multiplicaci´n por constantes se o separa de la varianza elev´ndolas al cuadrado. en general y por lo demostrado antes. . Esperanza. Para el inciso ÔcÕ tenemos que ¡ E ÔcX Õ×2 E ÖcX ¡ cE ÔX Õ×2 c2 E ÖX ¡ E ÔX Õ×2 c2 VarÔX Õ.47 Sea X una variable aleatoria con varianza finita y sean a y b dos constantes. Ejemplo 1. Usando las propiedades demostradas para la varianza puede verificarse la f´rmula o VarÔaX ¡ E ÔX Õ×2 E ÖX 2 ¡ 2XE ÔX Õ   E 2 ÔX Õ× E ÔX 2 Õ ¡ 2E ÔX ÕE ÔX Õ   E 2 ÔX Õ E ÔX 2 Õ ¡ E 2 ÔX Õ.7. y VarÔX Õ 1. momentos E ÔcÕ c y entonces VarÔX Õ VarÔcX Õ E Ôc ¡ cÕ2 E ÖcX 55 0. no se Puede tomarse el caso Y cumple que VarÔ2X Õ 2 VarÔX Õ. y se usa la propiedad de linealidad de la esperanza: VarÔX Õ E ÖX VarÔX   cÕ E ÖÔX X.46 Considere una variable aleatoria continua X con funci´n o e¡x . De estas propiedades generales se obtiene en particular que la varianza es siempre una cantidad no negativa.

 1 1¡x f Ôx Õ ± 0 ° ² x si ¡ 1 x 0.49 El n-´simo momento de una variable aleatoria continua X e con funci´n de densidad f ÔxÕ xß2. para variables aleatorias discretas. sin ıcil o embargo. 2. para x È Ô0. cuando existe. alguna caracter´ ıstica num´rica de la variable aleatoria. 2Õ. i mientras que para variables aleatorias continuas la f´rmula es la siguiente o E ÔX n Õ ÷ ¡ xn f ÔxÕ dx. el cual se calcula. como e e el n´mero u E ÖÔX ¡ µÕn × para n 1. 2. e cuando existe.56 1. indican. . . es o E ÔX n Õ 2n 1 . n 2 Definimos tambi´n el n-´simo momento central de X. e Ejemplo 1. .48 Considere una variable aleatoria continua con funci´n de o densidad la que aparece abajo. como el n´mero u E ÔX n Õ para n 1. PROBABILIDAD Momentos Finalmente definimos el n-´simo momento de una variable aleatoria X. No es dif´cil comprobar que el primer moı mento es cero y el segundo momento es 1ß6. . . Observe que el primer momento es simplemente la esperanza de la variable aleatoria. si 0 x 1. otro caso. puede decirse o ahora que la varianza es el segundo momento menos el primer momento al cuadrado. Ejemplo 1. Existen interpretaciones conocidas para los primeros momentos pero es dif´ encontrar alguna interpretaci´n para todos ellos. . como sigue E ÔX n Õ ô i 0 xn f Ôxi Õ. y recordando la f´rmula VarÔX Õ E ÔX 2 Õ¡ E 2 ÔX Õ. .

x1 .8. ± 0 otro caso. Ôx ¡ µÕn f ÔxÕ dx.50 Considere una variable aleatoria X con funci´n de densidad o f ÔxÕ si 0 x 1. esto es. Distribuciones de probabilidad 57 en donde µ E ÔX Õ. Estas distribuciones son modelos particulares para asignar probabilidades a subconjuntos de n´meros reales. si existe. entonces el n-´simo momento de X.1. Resolviendo la integral correspondiente puede encontrarse el n-´simo moe mento central de esta variable aleatoria. i 0 ¡ µÕ × ° ² x ¡ Ejemplo 1. . pero existen muchas mas de las que podemos mencionar en este texto. xn Ù si la probabilidad de que u X tome cualquiera de estos valores es constante 1ßn. . aquellas posiblemente de mayor uso. se calcula como e sigue E ÖÔX Para el caso continuo. E ÖÔX ¡ µÕn× ÷ n ô Ôxi ¡ µÕn f ÔxiÕ . . Observe que el segundo momento central es la varianza. en situaciones en donde . 1. 2 ¡ x si 1 x 2. dicho momento es E ÔX 1 ¡ µÕn Ôn   1ÕÔn   2Õ Ö1   Ô¡1Õn ×. Distribuciones de probabilidad Estudiaremos a continuaci´n algunas distribuciones de probabilidad de vao riables aleatorias importantes. . .8.. Tenemos entonces que si X es una variable aleatoria discreta con valores x0 . . Esta distribuci´n surge o en espacios de probabilidad equiprobables. Empezareu mos con las distribuciones de tipo discreto y continuaremos despu´s con las e de tipo continuo. Distribuci´n uniforme discreta o Decimos que una variable aleatoria X tiene una distribuci´n uniforme discreo ta sobre el conjunto finito de n´meros Øx1 . Es importante se˜alar que presentaremos solamente una n lista parcial de algunas distribuciones. .

Es inmediato comprobar que la esperanza y la varianza para esta distribuci´n se calculan del siguiente modo: o E ÔX Õ y VarÔX Õ 1 ô xi . 3. Se escribe X unifØx1 . x2 . Los juegos de loter´ son un ejemplo donde puede aplicarse esta ıa distribuci´n de probabilidad.52 Al generar un n´mero aleatorio en una computadora dentro u del intervalo unitario Ö0. . 4. ni 1 n Ejemplo 1.20. Cada salto en la funci´n de diso o o tribuci´n es de tama˜o 1ß5.58 1. La funci´n de probabilidad de esta variable aleatoria es f Ôx Õ P ÔX xÕ 1ßn si x x1 . . PROBABILIDAD tenemos n resultados diferentes y todos ellos tienen la misma probabilidad de ocurrir. junto con la correspondiente funci´n de distribuci´n. . . xn .20: 1 2 3 4 5 Ejemplo 1. ni 1 n 1 ô Ôxi ¡ µÕ2 . 0 otro caso. en donde o o el s´ ımbolo “ ” se lee “se distribuye como”. 2. . o n f ÔxÕ 1ß5 F ÔxÕ 1 x x 1 2 3 4 5 Figura 1. si la precisi´n de la computadora fuera o . 5Ù aparece en la Figura 1. . xn Ù. se obtienen siempre valores dentro de un conjunto finito de elementos.51 La gr´fica de la funci´n de probabilidad de la distribuci´n a o o uniforme en el conjunto Ø1. Por ejemplo. . y debido a que la precisi´n de la computadora o es necesariamente finita. 1×. . x2 .

1. entonces decimos que X tiene una distribuci´n Bernoulli con u o o par´metro p È Ô0. 1Õ. En o o este caso es muy sencillo verificar que E ÔX Õ p y VarÔX Õ pÔ1 ¡ pÕ.02. . . y escribimos X BerÔpÕ. Suponga que ω1 y ω2 son los dos resultados posibles. Si se define la variable aleatoria X como aquella funci´n que lleva el resultado ´xito al n´mero 1 y el resultado fracaso o e u al n´mero 0. Por ejemplo. en t´rminos pr´cticos se tiene una distribuci´n uniforme discreta.1. Este es el esquema general donde surge esta distribuci´n.01..7 aparece a o o en la Figura 1. con e e probabilidades respectivas p y 1 ¡ p. 0. P ÔX xÕ 0 otro caso.3 1 0. La precisi´n de una computadora actual es claramente o mayor pero siempre es finita. o u 0. La gr´fica de la funci´n de densidad de esta distribuci´n para p 0. Distribuciones de probabilidad 59 de dos decimales.99. etc. o f ÔxÕ F ÔxÕ 1 0. tarde.00.8.21. entonces s´lo se pueden generar los n´meros : 0. junto con la correspondiente funci´n de distribuci´n. que o aunque sencilla. con probabilidades .3 x x 0 0 1 Figura 1. es importante y de amplia aplicaci´n.21: 1 Ejemplo 1. ganar o no ganar en un juego de loter´ que llueva o no llueva hoy por la ıa. llamados gen´ricamente ´xito y fracaso. o o es decir.. 0. e a o Distribuci´n Bernoulli o Un ensayo Bernoulli se define como aquel experimento aleatorio con unica´ mente dos posibles resultados. y la misma situaci´n de imprecisi´n prevalece.7 0. 1. En la realizaci´n de todo experimento aleatorio siempre es posible preguntarnos o por la ocurrencia o no ocurrencia de un evento cualquiera.53 Considere el experimento aleatorio de lanzar una moneda al aire. La funci´n de probabilidad a es entonces px Ô1 ¡ pÕ1¡x si x 0.00.

0 otro caso. y X Ôω2 Õ 0. pÕ. .54 Sea Ω el espacio muestral de un experimento aleatorio cualquiera. .60 1. y sea A Ω un evento tal que P ÔAÕ p 0. 2. X ÔEE ¤ ¤ ¤ EE Õ X ÔF E ¤ ¤ ¤ EE Õ . 0. X Ôω Õ o 1A Ôω Õ que aparece definida abajo. . n. PROBABILIDAD p y 1 ¡ p. . n con las probabilidades que aparecen abajo. . Entonces X tiene distribuci´n BerÔpÕ. . . es f´cil a ver que el conjunto Ω tiene 2n elementos. y escribimos X binÔn. Distribuci´n binomial o Supongamos ahora que tenemos una serie de n ensayos independientes Bernoulli en donde la probabilidad de ´xito en cualesquiera de estos ene sayos es p. . La funci´n o a de probabilidad de esta variable aleatoria es f Ôx Õ P ÔX xÕ ° ¢ ª ² n px 1 ± x Ô ¡ pÕn¡x si x 0. entonces el espacio muestral consiste de todas las posibles sucesiones de longitud n de caracteres E y F. 1. ¤¤¤FFÕ entonces tenemos que X puede tomar los valores 0. . Si denotamos por E el resultado ´xito y por F el resultado fracae so. ¿Puede usted encontrar o la distribuci´n de la variable 1 ¡ X? o Ejemplo 1. Usando el principio multiplicativo. Sea X la variable aleatoria dada por X Ôω1 Õ 1. 2. Decimos entonces que X tiene una distribuo ci´n binomial con par´metros n y p. respectivamente. X ÔF F n. 1. Entonces X tiene distribuci´n BerÔpÕ. Ê A. es decir. Sea X la variable aleatoria dada por la funci´n indicadora del conjunto A. . . Si ahora definimos la variable aleatoria X como aquella que cuenta el n´mero de ´xitos en cada una de u e estas sucesiones. esto es. o X Ôω Õ 1A Ôω Õ 1 si ω 0 si ω È A. n ¡ 1.

.55 Cuando n 10 ensayos.2334. se puede  10¨ 2 10¡2 0. con probabilidad p 0. por ejemplo. o Ejemplo 1. ¿cu´l es la probabilidad de que a apruebe el examen? Soluci´n: Si X denota el n´mero de preguntas contestadas correctamente.1. pero hemos colocado los x ´xitos en los primeros x ensayos. e Preliminarmente la probabilidad de este evento es el n´mero u 1 p pÓ ÓÒ 1 p ÐÓ ÑÓp ÐÓÓÓÓÓÓÓÓÓÓÑÓÓÓÓÓÓÓÓÓÓÒ x n x ¤¤¤ Ô ¡ Õ¤¤¤Ô ¡ Õ ¡ px Ô1 ¡ pÕn¡x . La gr´fica a calcular. o u entonces X tiene distribuci´n binÔn. entonces la respuesta es o ı P ÔX 6Õ 10 ô x 6 ¢ 10 x ª Ô1ß3Õx Ô2ß3Õ10¡x . Deseamos obtener el o evento de que en n ensayos Bernoulli aparezcan x ´xitos y n ¡ x fracasos. Distribuciones de probabilidad 61 Esta f´rmula puede justificarse de la siguiente forma. P ÔX 2Õ 2 Ô0.1 n p 10 0.8. Si un estudiante contesta cada pregunta al azar. este factor es el coeficiente binomial n . siendo solamente una de ellas la correcta.2 0.3 x 1 2 3 4 5 6 7 8 9 10 Figura 1. pÕ con n 10 y p 1ß3.22: Ejemplo 1.3.22.3 0.56 Un examen tiene diez preguntas y cada una de ellas tiene tres opciones como respuesta. y VarÔX Õ npÔ1 ¡ pÕ. tenemos entonces e que multiplicar por las diferentes formas en que estos x ´xitos pueden dise   ¨ tribuirse en los n ensayos.7Õ de esta funci´n de probabilidad con estos par´metros aparece en la Figuo a ra 1.3Õ Ô0. f Ôx Õ 0. Para x esta distribuci´n puede demostrarse que E ÔX Õ np. Suponiendo o la calificaci´n m´nima aprobatoria es 6.

58 Una persona participa cada semana con un boleto en un juego de loter´a en donde la probabilidad de ganar el primer premio es ı 10¡6 1ß1. Observamos que X puede tomar los valores 0. 0 otro caso. La probabilidad de 0 es pÔ1 ¡ pÕx . Ejemplo 1. p 1¡p . 0. . 000. y escribimos X geoÔpÕ o e a cuando su funci´n de probabilidad es o f ÔxÕ P ÔX xÕ p Ô1 ¡ pÕx si x 0.4 se muestra en La gr´fica de la distribuci´n geom´trica de par´metro p a o e a la Figura 1. . 2. . u e ¤¤¤Õ X ÔEF F EEE ¤ ¤ ¤ Õ X ÔF F F EF E ¤ ¤ ¤ Õ X ÔF EF EF F 1. ¿Cu´ntos a˜os en promedio debe esta persona a n p participar en el juego antes de obtener el primer premio? . Por ejemplo. . obtenemos una suma geom´trica. 000. PROBABILIDAD Distribuci´n geom´trica o e Supongamos que tenemos ahora una sucesi´n infinita de ensayos indepeno dientes Bernoulli. en cada uno de los cuales la probabilidad de ´xito es p.57 La inspecci´n sucesiva de art´culos hasta encontrar uno deo ı fectuoso. 2. . Para e esta distribuci´n es posible demostrar que o E ÔX Õ y VarÔX Õ 1¡p . o e Ejemplo 1. Decimos entonces que X que X tome el valor entero x tiene una distribuci´n geom´trica con par´metro p. 1. puede modelarse usando una distribuci´n geom´trica.23.62 1. 1. . El nombre de esta distribuci´n proviene del hecho de que cuando escribimos o la suma de todas las probabilidades. posiblemente en un proceso de control de calidad. e Para cada una de estas sucesiones definimos la variable aleatoria X como el n´mero de fracasos antes de obtener el primer ´xito. 3. p2 0.

1 p 0. Distribuciones de probabilidad 63 f ÔxÕ 0. Y por lo tanto la esperanza de la variable X   1 es el r´metro p a 10 n´mero promedio de semanas que deben transcurrir para obtener el primer u premio. antes del primer ´xito.4 0. 000. 000. o la esperanza es ahora 1ßp y la varianza permanece constante Ô1 ¡ pÕßp2 . la distribuci´n se desplaza hacia la derecha una unidad. 2. En algunos textos se define la distribuci´n geom´trica contando el n´mero o e u de ensayos (no el de fracasos). x x x 1..59 Sea X una variable aleatoria con distribuci´n geoÔpÕ..3 0...1.23: x Soluci´n: Si X denota el n´mero de participaciones en el juego antes de o u obtener el primer premio. 230 a˜os aproximadamente. es decir. Este n´mero es u 1¡p p  1 1 p 106 1. .. ³ ³ ³ 1 ³ ³ ± ¡ Ô1 ¡ pÕ1 1 ¡ Ô1 ¡ pÕ2 ..4 1 2 3 4 5 6 7 8 9 10 Figura 1.8. si k . En este caso la variable e es 1   X. Efeco tuando las sumas parciales de la funci´n de probabilidad puede encontrarse o la correspondiente funci´n de distribuci´n y la cual tiene la siguiente expreo o si´n o ° ³ 0 ³ ³ ³ 1 ³ ³ ² F ÔxÕ P ÔX xÕ ô u x f ÔuÕ ³ . k   1.. 0. ¡ Ô1 ¡ pÕk 1 si x si 0 si 1 . entonces X tiene distribuci´n geom´trica de pao e ¡6 . Lo que es equivalente a 19.2 0.. n Ejemplo 1.

.3 0. y en principio no ponemos una cota superior para el n´mero u de observaciones del evento. La forma de esta 2. a e f ÔxÕ 0. o tal vez a deseamos registrar el n´mero de accidentes que ocurren en cierta avenida u durante todo un d´ Para modelar este tipo de situaciones podemos definir ıa. y VarÔX Õ λ. Decimos que X tiene una distribuci´n Poisson con par´metro o o a λ 0. PROBABILIDAD Distribuci´n Poisson o Supongamos que deseamos observar el n´mero de ocurrencias de un cieru to evento dentro de un intervalo de tiempo dado. Adicionalmente supongamos que conocemos la tasa media de ocurrencia del evento de inter´s. 2. Puede demostrarse que la funci´n f ÔxÕ arriba definida es efectivamente una o funci´n de probabilidad para cada valor de λ o 0 fijo. La probabilidad 0 se definir´ a a de que la variable aleatoria X tome un valor entero x continuaci´n.2 0. El par´metro λ es positivo y se interpreta como el n´mero a u promedio de ocurrencias del evento. .. 1. . y escribimos X PoissonÔλÕ cuando P ÔX xÕ ° x ² e¡λ λ ± x! si x 0. 0 otro caso. el n´mero u de clientes que llegan a un cajero autom´tico durante la noche. 2.24 cuando λ o c´lculos sencillo puede tambi´n comprobarse que E ÔX Õ λ. . . 1. Es claro entonces que X puede tomar los valores 0. la variable aleatoria X como el n´mero de ocurrencia de este evento en el u intervalo de tiempo dado.64 1. por ejemplo. .24: x . por unidad de tiempo. que denotamos por la lee tra λ (lambda). Despu´s de algunos e funci´n se muestra en la Figura 1.1 λ 2 1 2 3 4 5 6 7 8 Figura 1.

o u 1000 y p 1ß100. . Esto es particularmente util pues el c´lculo de proa babilidades de la distribuci´n binomial involucra el c´lculo de factoriales y o a ello puede ser computacionalmente dif´ El siguiente ejemplo ilustrar´ esta ıcil.1.0379841747 . 10. Usando la aproximaci´n Poisson. con λ 2. con λ o P ÔX 5Õ 1000ß100 0. 0Õ   P ÔX 1Õ   P ÔX 2ÕÕ Para el segundo inciso. Utilice el modelo Poisson para calcular la probabilidad de que en un minuto dado a) nadie solicite acceso a la p´gina. Puede adem´s demostrarse que cuando X a binÔn. o Ejemplo 1. Para el primer inciso se tiene que o P ÔX 0Õ e¡2 20 ß0! 0. Este resultado sugiere que cuando n es grande. Use la distribuci´n Poisson para estimar la probabilidad o de encontrar 5 focos defectuosos en un lote de 1000 focos.8.323 . Soluci´n: Sea X el n´mero de focos defectuosos en el lote de 1000 focos. Distribuciones de probabilidad 65 Ejemplo 1. pÕ y hacemos tender n a infinito y p a cero de tal forma que el producto np se mantenga constante igual a λ.135 . a b) se reciban mas de dos peticiones. pÕ con n o piden calcular P ÔX 5Õ ¢ 1000 5 ª Ô1ß100Õ5 Ô99ß100Õ995 np e¡10 105 5! 0.61 En promedio uno de cada 100 focos producido por una m´a quina es defectuoso. y supongamos que X o u tiene distribuci´n PoissonÔλÕ. Nos Entonces X tiene distribuci´n binÔn.0374531116 . P ÔX 2Õ 1 ¡ P ÔX 2Õ 1 ¡ ÔP ÔX 1 ¡ e¡2 Ô20 ß0!   21 ß1!   22 ß2!Õ 0. la disa tribuci´n binomial puede ser aproximada mediante la distribuci´n Poisson o o ´ a de par´metro λ np. entonces la variable aleatoria X adquiere la distribuci´n Poisson o con par´metro λ. Soluci´n: Sea X el n´mero de peticiones por minuto.60 En promedio se reciben 2 peticiones de acceso a una p´gina a web durante un minuto cualquiera. a situaci´n.

c) La probabilidad de que lleguen dos o mas aviones en un periodo de 15 minutos es P ÔX 2Õ. la unidad de medici´n del tiempo son diez minutos. 2. entonces el Poisson pero esta vez de par´metro λt. si t a n´mero de ocurrencias del evento en el intervalo Ö0. supongamos de longitud unitaria. Ejemplo 1. 1. pÕ. t×. 2. Suponga ahora que nos interesa observar las ocurrencias del evento en un intervalo de longitud diferente. . . . . 1. e a Si la variable aleatoria X cuenta el n´mero de fracasos antes de obtener u el r-´simo ´xito. en cada uno de los cuales la probabilidad de ´xito es p. Distribuci´n binomial negativa o Consideremos nuevamente el experimento de llevar a cabo una sucesi´n de o ensayos independientes Bernoulli. con λ 3 Ô2Õ 6. Es claro que a la variable X puede tomar los valores 0. entonces decimos que X tiene una distribuci´n binomial e e o negativa con par´metros r y p. con λ 3 Ô1ß10Õ 3ß10. 2.62 El n´mero de aviones que llegan a un aeropuerto internau cional tiene una distribuci´n Poisson con una frecuencia de 3 aviones cada o 10 minutos.. Ö0. y escribimos X bin negÔr. con λ 3 Ô1. Sea r un par´metro fijo que toma alguno de los valores 1. 2× tiene distribuci´n u o o PoissonÔ2λÕ. PROBABILIDAD Hemos definido a la variable aleatoria Poisson como el n´mero de ocurrenu cias de un cierto evento dentro de un intervalo de tiempo dado. Es decir.66 1. Por ejemplo. El siguiente ejemplo ilustra esta situaci´n. con probabilidades como indica su funci´n de probabilidad dada por o f ÔxÕ P ÔX xÕ ° ¢ ² r ±   x ¡ 1ª pr Ô1 ¡ pÕx x si x 0.5Õ 4. . . 1×. con t 0. . . . En esta f´rmula aparece el t´rmino pr pues la sucesi´n de ensayos Bernoulli o e o no concluye sino hasta obtener r ´xitos.5. Tal conteo de ocurrencias tambi´n sigue una distribuci´n e o 2. 0 otro caso. o Entonces a) La probabilidad de que no llegue ning´n avi´n en un periodo de 20 miu o nutos (dos unidades de tiempo) es P ÔX 0Õ. Podemos tener un n´mero variable e u . por ejemplo Ö0. b) La probabilidad de que llegue s´lo un avi´n en el minuto siguiente es o o P ÔX 1Õ.

8.  6¨ Ô1ß2Õ5 p 1ß2.46875 .63 Se lanza repetidas veces una moneda honesta. y finalmente el factor r x¡1 que ı e x nos dice las diferentes formas en que los r ´xitos pueden aparecer en los e r   x ¡ 1 ensayos realizados antes del ultimo.02 x r p 3 0. Se define ¢ ª a x aÔa ¡ 1Õ ¤ ¤ ¤ Ôa ¡ x   1Õ x! ª Puede entonces demostrarse la identidad ¢ n x¡1 x ¡nª. pÕ con r 3. Por lo tanto. de ah´ el t´rmino Ô1 ¡ pÕx . Ô¡1Õ x x ¢ .2 5 10 15 20 Figura 1. Distribuciones de probabilidad   ¨ 67 de fracasos. que necesariamente fue un ´ ´xito. Ejemplo 1.2. El nombre de la distribuci´n binomial negativa surge del siguiente hecho.06 0.25: 25 30 Es claro que esta distribuci´n es una generalizaci´n de la distribuci´n geoo o o a m´trica. la cual se obtiene tomando r 1. P ÔX 2Õ 2 15ß32 0.1. La o definici´n de coeficiente binomial puede extenderse para cualquier n´mero o u real a.25 cuando los valores e a o de los par´metros son r 3 y p 0. Entonces X bin negÔr. a f ÔxÕ 0. y cualquier entero natural x de la siguiente manera.04 0. cuyos dos resultados son cara y cruz. La gr´fica de esta funci´n aparece en la Figura 1. Se puede adem´s demostrar que e E ÔX Õ r Ô1 ¡ pÕßp y VarÔX Õ r Ô1 ¡ pÕßp2 . ¿Cu´l es la probabilidad de obtener la tercera cruz a en el quinto lanzamiento? Soluci´n: Sea X el n´mero de caras (fracasos) o u antes de obtener la tercera cruz. y nos preguntan P ÔX 2Õ.

En o algunos casos mostraremos la forma de obtener estas distribuciones a partir . . n. La gr´fica de esa ta funci´n de densidad para ciertos valores de los par´metros aparece en o a nK ßN . las definiremos sin mayor justificaci´n. o o Distribuci´n hipergeom´trica o e Supongamos que tenemos un conjunto de N objetos de los cuales K son de una primera clase y N ¡ K son de una segunda clase. El t´rmino K nos dice las diferentes formas en que de los K objetos de e x   ¨ la primera clase se pueden escoger x de ellos. Ahora estudiaremos algunas distribuciones de probabilidad de variables aleatorias continuas.26. N N ¡1 Con esto concluimos la revisi´n de algunas distribuciones de probabilidad de o tipo discreto. No construiremos estas distribuciones a partir de experimentos aleatorios particulares como en el caso de algunas de las distribuciones discretas. 1. y la Figura 1. La probabilidad de que X tome un va0. entonces X puede tomar los valores K. . Si para cada muestra definimos la variable aleatoria X como el n´mero de objetos de la primera clase u contenidos en la muestra seleccionada.68 1. PROBABILIDAD De esta f´rmula adquiere su nombre esta distribuci´n. y el t´rmino N ¡K es nuee n¡x vamente las diferentes formas de escoger n ¡ x objetos de la totalidad de N ¡ K objetos de la segunda clase. n. la muesn tra es sin reemplazo y el orden de los objetos seleccionados no importa. . suponiendo n lor x estar´ dada por la f´rmula que enunciamos a continuaci´n. y o e a escribimos X hipergeoÔN. Supongamos que de este conjunto tomamos una muestra aleatoria de tama˜o n. K. . El espacio muestral de este experimento consiste de todas las posibles muestras de tama˜o n que se pueden obtener   ¨conjunto mayor de tama˜o N . mas bien. 2. n del n N La cardinalidad del espacio muestral es n . . En este caso es posible comprobar que E ÔX Õ ¡ VarÔX Õ n K N NK N ¡n . Decimos a o o que X tiene una distribuci´n hipergeom´trica con par´metros N . 0 otro caso. K y n. 1. . . . nÕ si P ÔX   ¨ xÕ °  K ¨ N ¡K ¨ ³ x n¡x ²   ¨ ³ ± N n si x 0. Usamos el principio multiplicativo para obtener el n´mero total de muestras diferentes en donde x objetos son de u la primera clase y n ¡ x objetos son de la segunda clase.

cuando estos par´metros estan muy cercanos. la varianza a es peque˜a. Distribuciones de probabilidad f ÔxÕ 0. e . y es a o evidente que se trata de una funci´n de densidad pues es no negativa e o integra uno. b¡a f ÔxÕ ± 0 otro caso. Los par´metros de o e a esta distribuci´n son los n´meros a y b. Es f´cil verificar que o u a VarÔX Õ E ÔX Õ y Ôa   bÕß2.1. Esta distribuci´n es una de las m´s sencillas. bÕ. Algunos usos y aplicaciones de estas distribuciones ser´n mostrados en la segunda a parte del texto correspondiente al tema de estad´ ıstica.4 0. y a o por el contrario. bÕ. Adem´s la varianza o dispersi´n crece cuando a y b se alejan uno del otro.27(b). La gr´fica general de esta funci´n se muestra en la Figura 1. y sea usa naturaln o a mente para cuando no se conoce mayor informaci´n de la variable aleatoria o de inter´s.1 x N K n 20 7 5 69 0 1 2 3 4 Figura 1. bÕ. En este caso es muy f´cil encontrar la correspondiente funci´n a o de distribuci´n. Ôb ¡ aÕ2 ß12.27(a).26: 5 de considerar ciertas funciones de variables aleatorias conocidas.3 0.2 0. cuando su funci´n o tinua en el intervalo Ôa. Observe que la esperanza corresponde al punto medio del intervalo Ôa. excepto que toma valores continuos dentro de cierto intervalo.8. Distribuci´n uniforme continua o Decimos que una variable aleatoria X tiene una distribuci´n uniforme cono unifÔa. y escribimos X de densidad es ° 1 ² si x È Ôa. bÕ. y ´sta se muestra en la Figura 1.

27(b). Distribuci´n exponencial o Decimos que una variable aleatoria continua X tiene una distribuci´n expoo nencial con par´metro λ 0. PROBABILIDAD x b (b) Figura 1. puede encontrarse la funci´n de distribuci´n. cuando su funci´n a o de densidad es λ e¡λx si x 0. La correspondiente funci´n de distribuci´n o o aparece a su derecha.70 f ÔxÕ 1 b¡a x a (a) b a 1 F ÔxÕ 1. 1Õ se considera regularmente que X tiene distribuci´n uniforme en dicho intervalo. f ÔxÕ 0 si x 0. o Ejemplo 1. bÕ.28(a). la cual tiene la siguiente expresi´n y cuya gr´fica o o o a se muestra en la Figura 1.64 En el experimento aleatorio te´rico de generar un n´mero o u al azar X en el intervalo unitario Ô0. x b. desde menos infinito hasta un punto x cualquiera. Es muy sencillo verificar que la funci´n f ÔxÕ arriba o definida es efectivamente una funci´n de densidad para cualquier valor del o par´metro λ a 0. La gr´fica de esta funci´n cuando el par´metro λ toma el valor particular 3 a o a se muestra en la Figura 1. b.27: Ejemplo 1.65 Integrando la funci´n de densidad uniforme en el intervalo o Ôa. Se trata pues de una variable aleatoria continua con . y escribimos X expÔλÕ. F Ôx Õ ° ³ 0 ² x¡a ³ b¡a ± 1 si x si a si x a.

e Esta distribuci´n se usa para modelar tiempos de espera para la ocurrencia o de un cierto evento.28: Ejemplo 1.0000061 .1. 1ß5 e¡xß5 dx 0. Ejemplo 1.66 Suponga que el tiempo en minutos que un usuario cualquiera permanece revisando su correo electr´nico sigue una distribuci´n exponeno o cial de par´metro λ 1ß5.67 Sea X una variable aleatoria con distribuci´n expÔλÕ. La gr´fica de esta funci´n o o a o . Õ. b) mas de un ahora. Sea X el tiempo de conecci´n al servidor de correos.8. y VarÔX Õ 1ßλ2 .181 . Distribuciones de probabilidad 71 conjunto de valores el intervalo Ô0. Calcule la probabilidad de que un usuario cualquiera a permanezca conectado al servidor de correo a) menos de un minuto. Aplicando el m´todo de integraci´n e o por partes puede tambi´n comprobarse que E ÔX Õ 1ßλ. Inteo grando la funci´n de densidad desde menos infinito hasta una valor arbio trario x se encuentra la funci´n de distribuci´n. Soluci´n. Para el o o primer inciso tenemos que P ÔX Para el segundo inciso. P ÔX 60Õ ÷ 60 1Õ ÷1 0 1ß5 e¡xß5 dx 0. f ÔxÕ F ÔxÕ 1 3 2 1 1 (a) λ 3 x x 1 (b) Figura 1.

Esta es la funci´n gamma o e o que se define como la siguiente integral ΓÔnÕ ÷ 0 tn¡1 e¡t dt. 0. La gr´fica de esta funci´n de densidad para varios valores de los par´mea o a tros se muestra en la Figura 1. Õ. λÕ. . y escribimos X gammaÔn. o u f ÔxÕ λ 5 λ 4 1/2 λ 3 1/2 n 5 n 7 n 10 f ÔxÕ x x 1 2 3 4 5 5 6 Figura 1. o F ÔxÕ 1 ¡ e¡λx si x 0 si x 0.28(b) y tiene la siguiente expresi´n. PROBABILIDAD se muestra en la Figura 1. y a partir de la expresi´n anterior puede o observarse que los posibles valores para una variable aleatoria con esta distribuci´n son aquellos n´meros dentro del intervalo Ô0. ΓÔnÕ f ÔxÕ ± 0 si x 0.72 1. Distribuci´n gamma o La variable aleatoria continua X tiene una distribuci´n gamma con par´o a 0 y λ 0. si su funci´n de o metros n densidad es ° n¡1 ² ÔλxÕ λe¡λx si x 0.29.29: 1 2 3 4 3 5 6 (a) n (b) λ En la expresi´n anterior aparece el t´rmino ΓÔnÕ.

Observemos adem´s que la distribuci´n expoo a o nencial es un caso particular de la distribuci´n gamma. bÕ ± 0 otro caso. Esta u funci´n no es el tipo de funciones a las que estamos acostumbrados en los o cursos de matem´ticas elementales. El t´rmino B Ôa. La funci´n beta se define como sigue o o B Ôa. si en la o distribuci´n gamma tomamos el par´metro n igual a 1. bÕ se conoce como la funci´n beta. El nombre de esta distribuci´n se deriva del hecho de que en su definici´n o o aparece la funci´n gamma. ΓÔ1Õ π. a) ΓÔn   1Õ b) ΓÔn   1Õ c) ΓÔ2Õ d) ΓÔ1ß2Õ n ΓÔnÕ. y de all´ adquiere su e o ı nombre esta distribuci´n. para evaluar la funci´n gamma es necesario substituir el o valor de n en el integrando y efectuar la integral infinita. cuando su funci´n de densidad es o f Ôx Õ ° ² 1 xa¡1 Ô1 ¡ xÕb¡1 si x È Ô0. Distribuciones de probabilidad 73 para cualquier n´mero real n tal que esta integral sea convergente. obtenemos la diso a tribuci´n exponencial con par´metro λ. n! si n es entero. En este caso. y nos ayudaremos de las siguientes propiedades que no son dif´ ıciles de verificar. Afortunadamente no evaluaremos esta integral para cualquier valor de n. y VarÔX Õ nßλ2 .1. bÕ ÷1 0 xa¡1 Ô1 ¡ xÕb¡1 dx. en donde regularmente se conoce la a expresi´n exacta de una cierta funci´n y se utiliza esta expresi´n para evao o o luarla. En efecto. principalmente enteros. y escribimos X betaÔa. Distribuci´n beta o Decimos que la variable aleatoria continua X tiene una distribuci´n beta o con par´metros a a 0 y b 0. Resolviendo un par de integrales se o a puede demostrar que E ÔX Õ nßλ. 1Õ. s´lo para algunos o pocos valores. . bÕ.8. B Ôa. 1.

a trav´s de la identidad o e B Ôa. f ÔxÕ 0 otro caso. αÕ. bÕ se tiene que E ÔX Õ o o 2 Õ. bÕ ΓÔaÕΓÔbÕ . Para la distribuci´n betaÔa. La gr´fica de la funci´n de densidad para varios valores de los par´metros se encuentra en la Figura 1. Despu´s de algunos c´lculos ´ e a . antes mencionada. La gr´fica de la funci´n de densidad VarÔX Õ abßÔÔa   b   1ÕÔa   bÕ a o para la distribuci´n beta se muestra en la Figura 1. y a λ se le llama par´metro a a a o de escala. a La distribuci´n Weibull se ha utilizado en estudios de confiabilidad y durao bilidad de componentes electr´nicos y mec´nicos. Se escribe X WeibullÔλ. y ci´n.31.30: Distribuci´n Weibull o La variable aleatoria continua X tiene una distribuci´n Weibull con par´o a metros α 0 y λ 0 si su funci´n de densidad est´ dada por la siguiente o a expresi´n o α e¡ÔλxÕ λα ÔλxÕα¡1 si x 0. ΓÔa   bÕ V´ase la secci´n de ejercicios para una lista de propiedades de esta fune o aßÔa   bÕ. El valor de una variable o a aleatoria X con esta distribuci´n puede interpretarse como el tiempo de vio da util que tiene un componente en particular.74 1. a f ÔxÕ a b 4 4 x Figura 1. para distintos valoo res de los par´metros a y b. PROBABILIDAD para n´meros reales a u 0 y b 0.30. Esta funci´n est´ relacionada con la o a funci´n gamma. A la constante α se le llama par´metro de forma.

8. λ2 Por otro lado.31: 2 1 puede encontrarse que la esperanza y varianza de este tiempo de vida util ´ son E ÔX Õ y VarÔX Õ 1 ΓÔ1   1ßαÕ. la distribuci´n Weibull se reduce a o a la distribuci´n exponencial de par´metro λ. o Decimos que la variable aleatoria continua X tiene una distribuci´n normal o si su funci´n de densidad est´ dada por la siguiente expresi´n o a o f Ôx Õ 1 2πσ 2 e¡Ôx¡µÕ 2 ß2σ2 . otro caso. o a Distribuci´n normal o Esta es posiblemente la distribuci´n de probabilidad de mayor importancia. λ 1 ÔΓÔ1   2ßαÕ ¡ Γ2Ô1   1ßαÕÕ.1. llevando a cabo un cambio de variable puede demostrarse que la correspondiente funci´n de distribuci´n es o o F ÔxÕ 1 ¡ e¡ÔλxÕ 0 α si x 0. Cuando el par´metro α toma el valor uno. . Distribuciones de probabilidad f ÔxÕ f ÔxÕ 75 α 1 α α α 1 λ 1 2 4 3 2 1 x 5 α α α 8 5 2 x 3 λ Figura 1.

Por otro lado.32. En este caso la funci´n de densidad se reduce a la expresi´n f ÔxÕ 1 2 e¡x ß2 . a o . decimos que la variable aleatoria X tiene una distribuci´n o normal est´ndar si tiene una distribuci´n normal con par´metros µ 0 y a o a o o σ 2 1. y que la distancia del punto µ a cualquiera de los dos puntos en donde la funci´n tiene puntos de inflexi´n es σ. no es dif´ o u ıcil µ. 2π Es posible transformar una variable aleatoria normal no est´ndar en una a est´ndar mediante la siguiente operaci´n.76 1. e a f ÔxÕ σ x µ Figura 1. en donde se muestra adem´s el a significado geom´trico de los dos par´metros. σ a o como se puede apreciar en la Figura 1. positivo o cero. a Distribuci´n normal est´ndar o a En particular. el cual puede ser negativo. Escribimos entonces X a 2 Õ. por o o lo tanto la campana se abre o se cierra de acuerdo a la magnitud de este par´metro. La gr´fica de esta funci´n de densidad tiene forma de campana NÔµ. PROBABILIDAD en donde µ È R y σ 0 son dos par´metros. Tambi´n puede e demostrarse que VarÔX Õ σ 2 . y ello significa que la campana esta centrada demostrar que E ÔX Õ en este valor.32: Es claro que los posibles valores de una variable aleatoria con esta distribuci´n es la totalidad de los n´meros reales.

σ La igualdad de estas probabilidades es consecuencia de la igualdad de los eventos correspondientes. y que E ÔZ Õ o parece muy modesto pero tiene una gran importancia operacional pues establece que el c´lculo de las probabilidades de una variable aleatoria normal a cualquiera se reduce al c´lculo de las probabilidades para la normal est´ndar. o a Z X σ ¡ µ.1. para a b n´meros dados. la probabilidad de que X tome un valor en el intervalo Ôa. (1. por o ejemplo.5) Al procedimiento anterior se le conoce con el nombre de estandarizaci´n. bÕ. a a Explicaremos ahora con m´s detalle esta situaci´n : suponga que X es una a o variable aleatoria con distribuci´n NÔµ. Es o com´n usar la letra Z para denotar una variable aleatoria con distribuci´n u o normal est´ndar. o a . y que deseamos calcular. Funci´n de distribuci´n NÔ0. y o bajo tal transformaci´n se dice que la variable X ha sido estandarizada. P Ôa X bÕ. es u decir.13 Sea X una variable aleatoria con distribuci´n normal o o 2 . 1Õ o o Es com´n denotar a la funci´n de distribuci´n de una variable aleatoria con u o o distribuci´n normal est´ndar Z como ΦÔxÕ. es decir. Distribuciones de probabilidad 77 Proposici´n 1. σ 2 Õ. Se deja coa e mo ejercicio al lector verificar que realmente la variable aleatoria Z tiene 0 y VarÔZ Õ 1. y seguiremos nosotros tambi´n esa costumbre. Tenemos entonces que PÔa X bÕ PÔa ¡ µ a¡µ PÔ σ a¡µ PÔ σ X ¡ µ b ¡ µÕ X ¡µ b¡µ Õ σ σ b¡µ Z Õ. Entonces la siguiente variable aleatoria tiene una con par´metros µ y σ a distribuci´n normal est´ndar. Este resultado una distribuci´n normal. De esta forma una probabilidad que involucra a la variable X se ha reducido a una probabilidad que involucra a Z.8.

5. con probabilidad casi id´ndica a uno. los valores que e toma una variable aleatoria normal est´ndar est´n comprendidos entre -3. no es posible resolver esta integral y encontrar una expresi´n o exacta para ΦÔxÕ.9265 .5 a a y +3. Puede usted intentar resolver esta integral si lo desea y verificar la dificultad del problema. la probabilidad ΦÔxÕ es muy cercana a uno.45. es decir. El valor que aparece en la tabla es ΦÔxÕ. Cada rengl´n de esta tabla corresponde a un valor de x hasta o el primer d´ ıgito decimal. PROBABILIDAD ΦÔxÕ P ÔZ xÕ ¡ 1 2 e¡u ß2 du. Observe adem´s que a para x 3. a Esto quiere decir que.78 ÷x 1. Por ejemplo. para esos valores de x la campana pr´cticamente ha decaido a cero en el lado derecho.33: Ejemplo 1. f ÔxÕ ΦÔxÕ f ÔxÕ α x x (a) (b) zα x Figura 1.05 corresponden al o valor x 1.68 Use la tabla de la distribuci´n normal est´ndar para como a . En la pr´ctica lo que se hace es usar a m´todos num´ricos para encontrar aproximaciones de ΦÔxÕ para distintos e e valores de x. tenemos entonces que ΦÔ1. Seguramente el e lector se sorprender´ al enterarse que.4 y la columna marcada con 0.5.33(a).45Õ 0. Abajo aparecen algunos ejemplos que ilustran el uso de esta tabla. 2π cuyo significado geom´trico se muestra en la Figura 1. las distintas columnas corresponden al segundo d´ ıgito decimal. En la parte final del texto aparece una tabla con estos valores aproximados. sin importar el m´todo de integraci´n a e o que se utilice. el rengl´n marcado con 1.

10Õ. e u . 0.7357 .3 0. el cual ser´ usado con regularidad o u a en la segunda parte del texto. el n´mero zα denoo u tar´ el punto en el eje real para el cual el ´rea bajo la curva a la derecha a a de zα es α. Un argumento geom´trico tambi´n puede utilizarse para darse cuenta de e e la validez de esta igualdad.1.33(b). eno a e o a tonces la variable ¡X tambi´n tiene distribuci´n normal est´ndar.68 .1587 79 c) ΦÔ¡1Õ Ejemplo 1.70 Sea X con distribuci´n NÔ5.0495 . Esto es.69 Use la tabla de la distribuci´n normal est´ndar para encono a trar el valor de x tal que a) ΦÔxÕ b) ΦÔxÕ 0. ΦÔzα Õ 1 ¡ α. 1Õ.65Õ 0.53 .9505 . A partir del hecho de que si X tiene distribuci´n normal est´ndar. 0.65Õ a) ΦÔ1. 0. o A continuaci´n definiremos el n´mero zα . 0. puede demostrarse que ΦÔ¡xÕ 1 ¡ ΦÔxÕ.8.0571 . El significado geom´trico del n´mero zα se muestra en la Figura 1. Ejemplo 1. Notaci´n zα . 0. Distribuciones de probabilidad probar que b) ΦÔ¡1. Use el proceso de estandao rizaci´n y la tabla de la distribuci´n normal est´ndar para comprobar que o o a a) P ÔX c) P ÔX b) P Ô0 7Õ X 10Õ 5Õ 0. Para cada valor α en el intervalo Ô0.75 Respuesta: x Respuesta: x ¡0. este resultado ayuda a calcular o valores de ΦÔxÕ para x negativos en tablas de la distribuci´n normal como la presentada al final del texto en donde s´lo aparecen valores positivos para x. En particular.2357 .

71 Usando la tabla de la distribuci´n normal est´ndar puede o a comprobarse que.285 . en o general pueden ser discretas o continuas. etc. En la segunda parte del curso ´ veremos algunos otros ejemplos y situaciones que se presentan en el estudio de la estad´ ıstica matem´tica. . gamma. y siempre se tendr´ que Zn tiene a una distribuci´n aproximada normal est´ndar.845 . binomial. el cual ser´ revisaa do m´s adelante en la p´gina 105.3 (Teorema central del l´ ımite) Sea X1 .2 0. . de manera aproximada. Dicho concepto est´ estrechamente ligado a a a al concepto de independencia de eventos estudiado antes. Entonces la funci´n de distribuidas. as´ es que ´stas o ı e pueden tener distribuci´n Bernoulli.. . X2 . ım n sin importar la distribuci´n de las variables X1 . a) z0. y cuya amplia gama de aplicaciones ilustraremos por el momento con unicamente un par de ejemplos. El teorema menciona el a concepto de independencia de varias variables aleatorias. X2 . Observe que e o a . una sucesi´n infinita de variables aleatorias independientes e id´nticamente diso e 2 . En t´rminos matem´ticos este resultado establece que para cualquier n´mero e a u real x. .80 1. .1 1. b) z0. PROBABILIDAD Ejemplo 1.. Teorema 1. l´ FZn ÔxÕ FZ ÔxÕ. Acerca de la distribuci´n normal tenemos el siguiente resultado de suma o importancia. en donde se usa este resultado para aproximar a y simplificar el c´lculo de algunas probabilidades. Esto nos permitir´ aproximar o a a probabilidades de eventos que involucren sumas de variables aleatorias en t´rminos de probabilidades de la distribuci´n normal est´ndar. con media µ y varianza finita σ o tribuci´n de la variable aleatoria o Zn ÔX1   ¤ ¤ ¤   XnÕ ¡ nµ nσ 2 tiende a la funci´n de distribuci´n normal est´ndar cuando n tiende a o o a infinito. . exponencial.

. respectivamente.73 Se desea construir un estacionamiento de coches para un conjunto de 200 departamentos que se encuentran en construcci´n. 6Ù. .99 . De este modo se tiene que 0.91¯ Sabemos que el promedio parcial X ÔX1   ¤ ¤ ¤   Xn Õßn se aproxima a la media 3.72 Se lanza una dado repetidas veces y sean X1 . Se busca el valor de n tal que o P Ô3 ¯ X 4Õ 0. 2. 5. Supono ga que para cada departamento. 4. 0.5 σ 2 ßn ¯ X ¡ 3.6 y 0.58 . 1 o u o a 2.5 Õ 0. X2 . σ 2 ßn Ejemplo 1. Se desea que con una .99 . Por el teorema central del l´mite.8. de donde se obtiene n 226.5ß σ 2 ßn 2.3.5 σ 2 ßn 4 ¡ 3.99 . el n´mero de autom´viles ser´ de 0.5ß σ 2 ßnÕ. En particular.5ß σ riable aleatoria con distribuci´n normal est´ndar. Distribuciones de probabilidad ¯ dividiendo el numerador y denominador entre n. Es razonable suponer que estas variables aleatorias son independientes y con id´ntica distribuci´n uniforme en el e o conjunto Ø1. ΦÔ 2 ßn σ σ 2 ßn De tablas de la distribuci´n normal est´ndar puede verificarse que el valor o a de x tal que ΦÔxÕ ¡ ΦÔ¡xÕ 0. los resultados de estos lanzamientos. Restando en cada lado de las desigualdades la media µ y dividiendo entre σ 2 ßn.5 Õ σ 2 ßn 0.5 . Es decir.5 conforme n crece. en donde Z es una vamente igual a P Ô-0.58. tenemos ahora o a la ecuaci´n o 0. con probabilidades 0.1. . Ejemplo 1. za es σ 2 2.1.5 Õ ¡ ΦÔ -0.99? Soluci´n. la esperanza es µ 3.99 es x 2. 3. y definiendo X ¤ ¤ ¤   XnÕßn. la probabilidad indicada es aproximadaı 2 ßn Z 0. la igualdad anterior es equivalente a la ecuaci´n o PÔ 3 ¡ 3.5 y la varian¯ 6. la variable Zn puede escribirse de la siguiente forma Zn ¯ X 81 ÔX1   ¡µ. ¿Cu´ntas veces debe lanzarse a ¯ se encuentre entre 3 y 4 con una probabilidad el dado de tal forma que X de 0.

Sean X1 . y P ÔX 2Õ 0. Se desconoce la distribuci´n de esa o ta variable aleatoria. Es decir. De la tabla de la distribuci´n normal ı o podemos ahora verificar que el valor de x tal que ΦÔxÕ 0. Podemos o n suponer que estas variables aleatorias discretas son independientes unas de otras y todas ellas tienen la misma distribuci´n de probabilidad: P ÔX o 0Õ 0. De este modo tenemos ahora la ecuaci´n ΦÔ n ¡ 200µ 200σ 2 Õ 0. de donde se obtiene que n 253. Observe que la variable aleatoria del lado izquierdo de la desigualdad y cuya distribuci´n de probabilidad se desconoce y en general es dif´cil conocer.65. .3. y all´ radica la a ı utilidad del teorema central del l´mite.2 y VarÔX Õ 0.36 . De esta forma la vao riable aleatoria suma X1   ¤ ¤ ¤   X200 denota el total de autom´viles que habr´ en el complejo de departamentos.65 .95 . .82 1. la probabilidad indicada es aproximada a ı o ΦÔÔn ¡ 200µÕß 200σ 2 Õ.99 . . Puede comprobarse que E ÔX Õ 1. y para ello se necesita calcular la esperanza y varianza de X. 2 200σ 200σ 2 Por el teorema central del l´mite. Haremos uso del teorema central del l´mite ı para resolver este problema. el tama˜o del estacionamiento debe ser n de aproximadamente 254 lugares. La ecuaci´n planteada o es entonces P ÔX1   ¤ ¤ ¤   X200 nÕ 0. ¿Cu´ntos espacios de estacionamiento deben consa truirse? Soluci´n. .95 es x 1. PROBABILIDAD certeza del 95 % haya espacio disponible para todos los coches cuando los departamentos se vendan. sin embargo se desea encontrar el valor de n tal que P ÔX1   ¤ ¤ ¤   X200 nÕ 0.1. Restando en ambos lados de la deo sigualdad 200µ y dividiendo entre 200σ 2 . P ÔX 1Õ 0. . se o ı ha aproximado por una variable aleatoria normal est´ndar. X200 las variables aleatorias que denotan el n´mero o u de autom´viles que poseen los futuros due˜os los departamentos.6.95 . De este modo se llega a la igualdad Ôn ¡ 200µÕß 200σ 2 1.95 . cantidades que denotaremos por µ y σ 2 respectivamente.95 . en donde la inc´gnita es el valor de n. la ecuaci´n anterior es equivao lente a X1   ¤ ¤ ¤   X200 ¡ 200µ n ¡ 200µ PÔ Õ 0.

en donde la letra griega χ se pronuncia “ji” o tambi´n “chi”.1. 1Õ. Se trata de una variable aleatoria continua con posibles valores en el intervalo Ô0. La distribuci´n ji-cuadrada puede obtenerse o como indican los siguientes resultados que dejaremos sin demostrar. . y al cual se le llama grados de libertad. entonces X 2 χ2 Ô1Õ. Escribiremos simplemente X χ2 ÔnÕ. A pesar de su aparente expresi´n complicada. si su funci´n de o densidad est´ dada por la siguiente expresi´n a o f ÔxÕ ° ³ ² 1 ΓÔnß2Õ ³ ± 0 ¢ ªnß2 1 2 xnß2¡1 e¡xß2 si x si x 0. no es dif´ comprobar que f ÔxÕ es efectivamente una o ıcil funci´n de densidad. y para ello se utiliza la definici´n de la funci´n gamma. Esta distribuci´n tiene un solo par´metro denotado aqu´ por o a ı la letra n. f ÔxÕ 1ß2 n n 1 2 n 3 n 4 x 1 2 3 4 5 6 Figura 1. Por lo tanto la expresi´n e o “χ2 ÔnÕ” se lee “ji cuadrada con n grados de libertad”. Õ.34. 0. o o o La gr´fica de esta funci´n de densidad para varios valores del par´metro n a o a aparece en la Figura 1.8.34: 7 8 9 Proposici´n 1. Distribuciones de probabilidad 83 Distribuci´n ji-cuadrada o Decimos que la variable aleatoria continua X tiene una distribuci´n jio cuadrada con n grados de libertad (n entero positivo).14 Si X o NÔ0. Puede demostrarse que E ÔX Õ n y VarÔX Õ 2n.

Este resultado puede extenderse al caso cuando se tienen varias variables aleatorias independientes con distribuci´n χ2 .16 Si X o tonces NÔ0. Por otro a o lado. el siguiente resultado establece que la suma de dos variables aleatorias independientes con distribuci´n ji-cuadrada tiene distribuci´n nuevamente o o ji-cuadrada con grados de libertad la suma de los grados de libertad de los sumandos. . entonces X   Y tiene distribuci´n χ2 Ôn   mÕ.35. o los cuadrados X1 n Distribuci´n t o Decimos que la variable aleatoria continua X tiene una distribuci´n t con o n grados de libertad si su funci´n de densidad est´ dada por o a f ÔxÕ ΓÔÔn   1Õß2Õ Ô1   x2ßnÕ¡Ôn 1Õß2 . el cuadrado de una variable aleatoria con distribuci´n normal o est´ndar tiene distribuci´n ji-cuadrada con un grado de libertad. si X1 . en- tÔnÕ. En particular. Proposici´n 1. La distribuci´n t se puede encontrar en los siguientes o contextos. . 1Õ y Y X Y ßn χ2 ÔnÕ son independientes. La gr´fica de esta funci´n de densidad a o aparece en la Figura 1. En tal caso se escribe X tÔnÕ. Xn o son independientes con distribuci´n normal est´ndar.15 Si X χ2 ÔnÕ y Y o χ2 ÔmÕ son dos variables aleatorias o independientes. . . y VarÔX Õ nßÔn ¡ 2Õ para n 2. Es posible demostrar que E ÔX Õ 0. Proposici´n 1.84 1. entonces la suma de o a 2   ¤ ¤ ¤   X 2 tiene distribuci´n χ2 ÔnÕ. . nπ ΓÔnß2Õ para ¡ x . PROBABILIDAD Es decir.

Xn variables aleatorias independientes o cada una de ellas con distribuci´n NÔµ. . ν2 ¡ 2 2 2ν2 Ôν1   ν2 ¡ 2Õ si ν2 4. ν1 Ôν2 ¡ 2Õ2 Ôν2 ¡ 4Õ . . σ 2 Õ.1. Entonces o ¯ X ¡µ Sß n ¯ en donde X 1 n n i 1 Xi .8. 0. Se puede demostrar que ν2 si ν2 2. Distribuci´n F o La variable aleatoria continua X tiene una distribuci´n F de Fisher con o par´metros ν1 a 0 y ν2 0 si su funci´n de densidad est´ dada por la o a siguiente expresi´n o f Ôx Õ ° ³ ² ΓÔ ν1  ν2 Õ ν1 ν1 ß2 ν1 ß2¡1 2 Ô Õ x Ô1   ν1 xÕ¡Ôν1  ν2Õß2 2 ΓÔ ν21 Õ ΓÔ ν2 Õ ν2 ν2 ³ ± 0 E ÔX Õ y VarÔX Õ si x si x 0.35: 3 4 Proposici´n 1. En este caso se escribe X FÔν1 . 1 n n i 1 y S2 ¯ ÔXi ¡ X Õ2.1 ¡4 ¡3 ¡2 ¡1 x 1 2 Figura 1. . Distribuciones de probabilidad 85 f ÔxÕ n n n 100 3 1 0.17 Sean X1 . . ν2 Õ. tÔn ¡ 1Õ.

Proposici´n 1. PROBABILIDAD La distribuci´n F aparece como resultado de la siguiente operaci´n entre o o variables aleatorias.18 Sean X o independientes. Recuerde el lector que existen muchas mas distribuciones de este tipo. χ2 Ôν2 Õ variables aleatorias Con esto terminamos con una revisi´n elemental de algunas distribuciones o de probabilidad continuas. En la segunda parte del curso usaremos algunas de estas distribuciones al considerar algunos problemas dentro de la estad´ ıstica. ν2 Õ. . pero todas ellas a utiles como modelos probabil´ ´ ısticos en las muy diversas areas de aplicaci´n ´ o de la probabilidad.86 1. algunas m´s conocidas que otras. Entonces χ2 Ôν1 Õ y Y X ßν1 Y ßν2 FÔν1 .

y teniendo a Francis o o Galton (1822-1911) como precursor. y Jerzy Neyman (1894-1981). por nombrar s´lo algunos. Ronald A. en donde los esfuerzos o a y recursos se orientaron principalmente a obtener censos. Los primeros registros de una recolecci´n sistem´tica o a de datos de una poblaci´n surgen durante el Renacimiento en las ciudades o italianas de Venecia y Florencia. mate rimonios y decesos. Esta recolecci´n de datos por parte de los gobiernos o o sigui´ desaroll´ndose durante los siglos XVII y XVIII. De particular importancia en aquellos a˜os eran los n registros de decesos pues las tasas de mortalidad eran con frecuencia altas debido a las recurrentes epidemias y plagas que diezmaban de manera importante a la poblaci´n. A finales del siglo XIX. es decir. entre muchos otros matem´ticos y estad´ a ısticos 87 . es por ello que a las e primeras colecciones de datos se les llamara estad´ ısticas. y despu´s tales pr´cticas se extienden a e a otras ciudades europeas. a trav´s de las parroquias. Fisher (1890-1962). Los m´todos estad´ e ısticos y su formalizaci´n como teor´ matem´tica se desarrollaron a partir de los inicios o ıa a del siglo XX gracias a los trabajos de Karl Pearson (1857-1936).Cap´ ıtulo 2 ESTAD´ ISTICA Originalmente cualquier colecci´n de datos acerca de la poblaci´n o econom´ o o ıa de un estado era del inter´s exclusivo del estado. o surgen las primeras ideas para inferir informaci´n de toda una poblaci´n o o a partir de datos estad´ ısticos parciales. como una derivaci´n o de la palabra estado. informaci´n de la poblaci´n completa. Egon Sharpe Pearson (1895-1980) hijo de Karl Pearson. llevaban registros de nacimientos. y a personajes como Adolphe Quetelet (1796-1874) y Florence Nightingale (1820-1910). varios gobiernos europeos. Para mediados del siglo XVI.

88

2. ESTAD´ ISTICA

importantes. Hoy en d´ los m´todos de la estad´ ıa e ıstica son usados con mucha frecuencia y con bastante provecho en muy diversas ´reas del conocimiento a humano, sean ´stas cient´ e ıficas, sociales, econ´micas, o de cualquier ´ o ıdole. Sus m´todos y conclusiones son usados como respaldo cient´ e ıfico para rechazar o aceptar afirmaciones, y tambi´n para tomar decisiones importantes tanto a e nivel personal como organizacional, incluyendo cuestiones de los gobiernos en todos sus niveles. Por otro lado, de manera cotidiana, todo ciudadano se encuentra expuesto a informaci´n que contiene elementos de estad´ o ıstica descriptiva a trav´s de los peri´dicos, la radio, la televisi´n e internet; e o o en donde es frecuente encontrar informaci´n resumida en forma de gr´ficas o a y tablas, as´ como la presentaci´n del comportamiento cualitativo o cuanı o titativo de ciertas variables de inter´s. En general es com´n encontrar en e u los medios de informaci´n datos estad´ o ısticos que requieren de una correcta interpretaci´n y una razonada evaluaci´n. Este es justamente el tema de ino o ter´s en la segunda parte de nuestro curso. Estudiaremos algunos conceptos e b´sicos y ciertas t´cnicas elementales de la estad´ a e ıstica matem´tica. a

Florence Nightingale (Inglaterra 1820–1910)

Francis Galton (Inglaterra 1822–1911)

2.1.

Introducci´n o

Supongamos que tenemos una poblaci´n de inter´s, esto es, un conjunto aro e bitrario de personas, mediciones u objetos cualesquiera, y deseamos conocer cierta informaci´n de esta poblaci´n. Debido a la imposibilidad o no cono o

´ 2.1. Introduccion

89

veniencia de tener informaci´n de todos y cada uno de los elementos de la o poblaci´n, tomamos un peque˜o subconjunto de ellos, al cual llamaremos o n muestra. Con base en esta muestra trataremos de inferir la informaci´n de la o poblaci´n en su totalidad. El llevar a cabo tal ejercicio de inferencia a partir o de informaci´n parcial traer´ consigo el riesgo de cometer errores. A pesar o a de ello, es preferible alguna informaci´n o afirmaci´n con confianza cercana o o al 100 % en su veracidad que ninguna informaci´n. El objetivo tambi´n es o e buscar cuantificar el posible error en nuestras afirmaciones y procurar que los errores tengan poca probabilidad de ocurrir.

muestra poblaci´n o

Figura 2.1:

Estad´ ıstica descriptiva e inferencial Daremos ahora una definici´n de la estad´ o ıstica como rama de estudio y despu´s daremos una primera clasificaci´n en dos de sus quehaceres generales. e o La estad´ ıstica es la ciencia que se encarga de recolectar, organizar, resumir y analizar datos para despu´s obtener conclusiones a partir de ellos. De manee ra general, la estad´ ıstica puede ser dividida en dos grandes ´reas: estad´ a ıstica inferencial y estad´ ıstica descriptiva. La estad´ ıstica descriptiva es una colecci´n de m´todos para la organizaci´n, resumen y presentaci´n de datos. La o e o o estad´ ıstica inferencial, en cambio, consiste de un conjunto de t´cnicas para e obtener, con determinado grado de confianza, informaci´n de una poblaci´n o o con base en la informaci´n de una muestra. o

90

2. ESTAD´ ISTICA

2.2.

Variables y tipos de datos

Una variable es una caracter´ ıstica de inter´s de un elemento en una poblaci´n e o en estudio. Por ejemplo, si la poblaci´n consta de personas, los siguientes son o ejemplos de variables que podr´ ser de inter´s: edad, peso, sexo, estatura, ıan e estado civil, etc. Veremos a continuaci´n algunos criterios bajo los cuales o las variables pueden ser clasificadas. Las variables pueden ser cuantitativas, cuando se realiza una medici´n y el resultado es un n´mero, o pueden ser o u cualitativas, cuando solamente registran una cualidad o atributo del objeto o persona en estudio. La edad, el peso y la estatura son ejemplos de variables cuantitativas en una poblaci´n de personas, mientras que el sexo y el o estado civil son variables cualitativas. Variable cualitativa cuantitativa

Por otro lado, de acuerdo al n´mero total de sus posibles valores, una vau riable cuantitativa puede ser clasificada como discreta cuando s´lo puede o tomar un n´mero discreto (es decir, finito o numerable) de valores, o conu tinua, cuando puede tomar cualquier valor dentro de un intervalo Ôa, bÕ de la recta real. Variable cuantitativa discreta continua

De acuerdo con la posible relaci´n que pudieran guardar los valores de una o variable, se cuenta por lo menos con cuatro escalas de medici´n. Las vao riables cualitativas pueden ser clasificadas de acuerdo a dos escalas: escala nominal o escala ordinal, Variable cualitativa Escala nominal Escala ordinal

Mientras que las variables cuantitativas pueden clasificarse mediante la escala de intervalo o la escala de raz´n. o Variable cuantitativa Escala de intervalo Escala de raz´n o

2.2. Variables y tipos de datos

91

Escala nominal Se dice que una variable es de tipo nominal cuando sus posibles valores no tienen alguna relaci´n de orden o magnitud entre ellos. B´sicamente o a los valores de este tipo de variables son etiquetas sin un orden entre ellos. Por ejemplo, si estamos estudiando una poblaci´n humana, a la variable o sexo podemos asignarle dos posibles valores: F para femenino, y M para masculino. Los s´ ımbolos F y M son etiquetas arbitrarias, y no existe un orden en ellas ni podemos realizar operaciones aritm´ticas. La religi´n o la e o nacionalidad son tambi´n ejemplos de variables nominales. e Escala ordinal En esta escala los valores de la variable tienen un orden pero no se pueden hacer operaciones aritm´ticas entre estos valores pues no hay noci´n de e o distancia entre ellos. Por ejemplo, para calificar las caracter´ ısticas de un objeto podemos suponer los siguientes valores: 0=P´simo, 1=malo, 2=Rege ular, 3=Bueno, 4=Excelente. En este caso la escala de medici´n es ordinal o pues existe un orden entre sus valores, pero no se puede decir, por ejemplo, que dos valores regulares, 2   2, hacen un valor excelente, 4. Escala de intervalo En este tipo de escala existe un orden entre los valores de la variable y existe adem´s una noci´n de distancia aunque no se pueden realizar operaciones. a o No existe el valor natural cero para este tipo de escala. Por ejemplo, suponga que los valores de una cierta variable est´n dados por los d´ del mes. Entre a ıas el d´ 10 y el d´ 20 hay una distancia de diez d´ pero no se puede decir ıa ıa ıas, que el d´ 20 es dos veces el d´ 10. La temperatura es otro ejemplo de este ıa ıa tipo de variable, el posible valor cero depende de la escala que se use para medir la temperatura (Celsius, Kelvin, Fahrenheit, etc.). Escala de raz´n o En una escala de raz´n la magnitud tiene un sentido f´ o ısico y existe el cero absoluto. Por ejemplo, la variable edad en a˜os estudiada en una poblaci´n n o humana. Debemos mencionar, sin embargo, que la clasificaci´n de variables en alo guna de las escalas de medici´n mencionadas antes puede no ser un asunto o

Esta es una variable cualitativa nominal. Estad´ ıstica descriptiva Supongamos que tenemos un conjunto de datos num´ricos x1 . discreta. o ı No Acreditado. . . . o e) Nivel de salario en alguna de las categor´as: Bajo. . o a) Apreciaci´n o punto de vista acerca de una idea o propuesta usando la o escala: De Acuerdo. o d) Salario en unidades monetarias. Ausente. b) Evaluaci´n de un curso de acuerdo a las siguientes categor´as: Acreditado.3. Indiferente. discreta. Esta es una variable cualitativa nominal. de raz´n. f ) Longitud de un tornillo. Medio. diremos si su escala de medici´n es nominal o u ordinal. continua. de raz´n. h) Lugar de nacimiento de una persona. y diremos su escala de medici´n. dicha clasificaci´n depender´ del uso que de tal variable haga el obo a servador o persona que lleva a cabo el estudio. Si es cuantitativa.1 Para las siguientes variables determinaremos si es cualitativa o cuantitativa. Esta es una variable cualitativa ordinal. i) Peso de un beb´ reci´n nacido. o Ejemplo 2. Para conocer algunas caracter´ ısticas globales de esta . de raz´n. o g) Preferencia sexual. xn . ı Esta es una variable cualitativa ordinal.92 2. Esta es una variable cualitativa nominal. e e Esta es una variable cuantitativa. o 2. u Esta es una variable cuantitativa. que e representan mediciones de alguna variable cuantitativa de inter´s en un exe perimento aleatorio. Esta es una variable cuantitativa. continua. En desacuerdo. Si es cualitativa. de raz´n. ESTAD´ ISTICA sencillo. A continuaci´n se muestran o algunos ejemplos de variables con distintas escalas de medici´n. Esta es una variable cuantitativa. especificaremos si es discreta o continua. c) N´mero de hijos en una familia. Alto.

Mediana Para calcular la mediana procedemos como sigue. Se ordena la muestra de n´meros x1 . la mediana se calcula promediando los u dos datos ordenados que est´n enmedio. Pueden existir. . se dice que no hay moda. y se obtiene u a n la muestra ordenada xÔ1Õ . dos o mas valores que sean los que mayor n´mero de u veces se repiten. La mediana. . Si hay mas de dos valores con mayor n´mero de repeticiones u se dice que el conjunto de datos es multimodal. 2 Esta definici´n establece que cuando tenemos un n´mero impar de datos. se define como sigue 1 n n si n es par. .2. . en tal caso la moda consta de esos valores.3. Y cuando tenemos un n´mero par de datos. . Definiremos estos cono a ceptos a continuaci´n. si embargo. y se dice que el conjunto de datos es bimodal si hay dos valores con mayor n´mero de u repeticiones. xn de menor a mayor incluyendo repeticiones. la o u mediana es el dato ordenado que se encuentra justo a la mitad. n Moda La moda es el valor num´rico que aparece con mayor frecuencia en el cone junto de datos. Si ning´n valor se repite. moda y mediana. xn . 2 ÖxÔ 2 Õ   xÔ 2  1Õ × x ˜ xÔ n 1 Õ si n es impar. e o e denotada por x. . . la desviaci´n est´ndar y el rango. . es simplemente el promedio aritm´tico ¯ e x ¯ x1   ¤ ¤ ¤   xn . . . y el conjunto de datos se dice que es unimodal. denotada por x. Si existe u un unico valor con mayor n´mero de repeticiones. . y tambi´n otras medidas llamadas de dispersi´n e o como la varianza. xÔnÕ . a Media La media o media aritm´tica de una colecci´n de datos num´ricos x1 . a . en donde xÔ1Õ denota el dato m´s peque˜o a ˜ y xÔnÕ es el dato m´s grande. Estad´ ıstica descriptiva 93 variable se pueden calcular ciertas medidas de tendencia central como la media. . entonces a ese valor se ´ u le llama la moda. as´ como algunos otros relativos a la representaci´n o ı o gr´fica de datos no agrupados.

2.5. a) ¡5. 2.3 Calcularemos la varianza. 6.94 2. 3. y el rango es 9. El rango ız es el dato m´s grande menos el dato m´s peque˜o. ¡3. 2. 1. c) 1. las modas son 2 y 4.5. 6. . La varianza es 9. y se le denota naturalmente por s. e denotada por s2 . 5. ¡3.16. las modas son 3. y la mediana es 2. 10. xÔnÕ ¡ xÔ1Õ .5. 4. o a Gr´fica de pastel (Pie chart) a Esta es una gr´fica circular dividida en sectores que permite comparar via sualmente las frecuencias relativas o porcentajes de los valores de una variable. .839. 4. 10.875. 7. . 2. 5. 7. 4. 9. El ´ngulo en grados de un sector con frecuencia o porcentaje pi a .5. la desviaci´n est´ndar es 3. Medidas de dispersi´n o Definiremos ahora algunas medidas que ayudan a cuantificar la dispersi´n o que puede presentar un conjunto de datos num´ricos x1 . 4. 5. 2.5 y 7. o a b) 3.5.5. 2. 4. y el rango es 10. 3. La media es 5. 4. es decir.5.2 Calcularemos la media.5.5. ESTAD´ ISTICA a) ¡5. Ejemplo 2. ¯ en donde x es la media muestral definida antes.027.821. la desviaci´n est´ndar es 3. se define como sigue s2 n¡1i 1 n ô 1 Ôxi ¡ xÕ2 . 5.5. a a n Ejemplo 2. b) 3. La desviaci´n est´ndar es ¯ o a la ra´ cuadrada positiva de s2 . moda y mediana de cada uno de los siguientes conjuntos de datos. . 7. 4. xn . 8.5. y la mediana es 3. no hay moda. la desviaci´n est´ndar es 2. y el rango es 6. La media es 4.720. ¡2. La varianza es 13. La varianza es 5.5. La varianza. y la mediana es 5. 7. 2. 8. La media es 0.5.5.285. 9. ¡2. la desviaci´n est´ndar y el rango o a de los conjuntos de datos del ejercicio anterior. 2. 1.412. 3. 3. 4.5. 7. 7.5. o a c) 1.

. De esta forma X1 representa el resultado de la primera observaci´n. empatado 3 (20 %).2. . un equipo de futbol que en la temporada ha jugado 15 partidos. X2 es el resultado de la segunda observaci´n. .2. . e Pero podemos pensar que el valor x1 es la observaci´n o valor num´rico o e tomado por una variable aleatoria X1 . Por ejemplo. x2 . X2 . y se ejemplificar´ su utilidad en lo que resta del curso. Vectores Aleatorios 95 est´ dado por la f´rmula αi a o 360 ¢ pi . .3 %). etc´tera.2: Hasta ahora hemos considerado conjuntos de datos num´ricos x1 . Esta idea nos lleva a considerar conjunı tos de variables aleatorias X1 . xn . . puede representar su desempe˜o mediante la gr´fica que se muestra en la Figura 2. Vectores Aleatorios Esta secci´n contiene una breve introducci´n al tema de variables aleatorias o o multidimensionales o tambi´n llamadas vectores aleatorios. . de los cuales ha perdido 5 (33. . . Xn en lugar del conjunto de n´meros u x1 . .66 %).4. x2 . xn . . las cuales constituir´n e a el elemento b´sico para hacer inferencias. x2 es la observaci´n de una variable o aleatoria X2 . y por lo o o e tanto desde el punto de vista matem´tico no estaremos tratando con valores a num´ricos particulares sino con variables aleatorias. estudiaremos algunas de sus propiedades y conceptos relacionados en las siguientes secciones.66 % Juegos ganados Figura 2. a 2.33 % 20 % 46. y as´ sucesivamente. Para hacer la e escritura corta se consideran unicamente vectores aleatorios de dimensi´n ´ o . n a Juegos perdidos Juegos empatados 33. .4. A estos conjuntos de variables a aleatorias los llamaremos vectores aleatorios. y ganado 7 (46.

las cuales son an´logas al caso a unidimensional estudiado antes. . Por simplicidad. pero no mezclas de ellas.3: Es decir. consideraremos unicamente vectores aleatorios cuyas coordenadas son variables ´ aleatorias todas discretas. o continuas. y Õ. aunque las definiciones y resultados que se mencionan pueden extenderse f´cilmente. o continuo. Y ÕÔω Õ ÔX Ôω Õ. Y Õ en o donde cada coordenada es una variable aleatoria. mientras que el vector con letras min´scuu o las Ôx. el vector ÔX. Un vector aleatorio ÔX. Estudiaremos a continuaci´n algunas funciones asociadas a vectores aleatorios. Nuevamente observe que el vector con letras may´sculas ÔX. . De manera an´loga se a pueden tener vectores aleatorios multidimensionales ÔX1 . Y Õ evaluado en ω es ÔX. y Õ es un punto en el plano. ESTAD´ ISTICA dos. . Y Õ tal que la variable X toma valores . si las todas las variables aleatorias que lo conforman lo son. ÔX. Y Õ R2 ω Ω ÔX ÔωÕ. para vectores de dimensi´n a ıa o superior. yÕ Figura 2.96 2. Para el material que se presenta a continuaci´n ser´ provechoso o ıa contar con algunos conocimientos elementales del c´lculo diferencial e intea gral en varias variables. Funci´n de probabilidad conjunta o Vamos a estudiar primero el caso m´s sencillo que es el discreto. Vector aleatorio Un vector aleatorio de dimensi´n dos es un vector de la forma ÔX. Considera emos un vector aleatorio discreto ÔX. Xn Õ. en la mayor´ de los casos. Y Ôω ÕÕ con u posible valor Ôx. .3. Y Õ puede considerarse como una funci´n de Ω en R2 como se o muestra en la Figura 2. Y ÔωÕÕ Ôx. Y Õ es el vector aleatorio. Nuevamente diremos que un vector aleatorio es discreto.

se encueno tra definida sobre R2 y toma valores en el intervalo Ö0. la probabilidad de que X tome el valor ¡1 y al mismo tiempo Y tome el valor 0 es 0. y Õ. 1Ù.Ù.3. y Õ de la o a o forma anterior cumple las siguientes dos propiedades.1 0. y2 .Ù. .4 Considere el vector aleatorio discreto ÔX. a) f Ôx. Tal funci´n se o llama tambi´n funci´n de densidad conjunta de las variables X y Y . xßy -1 1 0 0. La funci´n de densidad del vector ÔX. Vectores Aleatorios 97 en el conjunto Øx1 . Y Õ. y Õ que cumpla estas propiedades se llama funci´n de probabilidad o bivariada o conjunta.4 1 0. y2 . . P ÔX a ¡1. . y Õ es la probabilidad de que la variable X tome u el valor x y al mismo tiempo la variable Y tome el valor y. y Õ.4. x2 . Adem´s las probabilidades a conjuntas est´n dadas por las entradas de la tabla. mientras que Y toma valores en Ø0. . por ejemplo. La misma informaci´n puede o .2. otro caso. y la variable Y toma valores en Øy1 . Y y Õ si Ôx. y Õ b) ô x. 1× de acuerdo a la siguiente definici´n o f Ôx. e inversamente. y Õ È Øx1 .Ù ¢ Øy1 . . esto es. y para e o enfatizar este hecho a veces se escribe fX. . Y Õ con funci´n de densidad dada por la siguiente tabla. que se denota por f Ôx. Y 0Õ 0. y Õ P ÔX 0 x. . y Õ o Ejemplo 2. f Ôx.3 0. toda funci´n definida sobre R2 que sea cero excepto en un conjunto discreto de o parejas Ôx. . sin necesidad de contar con dos variables aletorias previas que la definan.Y Ôx. . . x2 . . 1.3.y 0. Toda funci´n f Ôx. el n´mero f Ôx. pero en general omitiremos los sub´ ındices para hacer la notaci´n m´s corta.Ù. . 1Ù.2 De este arreglo se entiende que la variable X toma valores en el conjunto Ø¡1. Es decir.

y 1. a a) f Ôx.1 si x ³ ² ³ ³ ³ 0. y Õ dx dy 1. f Ôx. Y yÕ ÷x ÷y Toda funci´n de densidad f Ôx. 1. Y Õ un vector aleatorio o continuo.3 si x ³ ³ ³ ³ 0. Se deja como ejercicio al lector el graficar esta funci´n. 2Õ. 0.5 Encontraremos la constante c que hace a la siguiente una funci´n de probabilidad conjunta. Y yÕ ¡1. yÕ en R2 se cumple la igualdad P ÔX x. Ô1. con probabilidades respectivas c. ESTAD´ ISTICA f Ôx.4 si x 0 otro caso. Õ es la funci´n de densidad del vector ÔX. b) ¡ ¡ . y Õ cxy si Ôx. o y todos ellos suman uno. 1. 2c y 4c. y Õ ÷ ÷ ¡ ¡ f Ôu. 2c. se llega a la ecuaci´n 9c 1. 2Õ. Sea ÔX. y Õ È Ø1. 0 otro caso.98 escribirse de la siguiente manera ° ³ 0. 1Õ y Ô2. Como la suma de estas probabilidades debe ser uno. f Ôx. Se dice que la funci´n integrable y no negativa f Ôx. Ô2. 2Ù ¢ Ø1. y y y 0. y Õ de estas caracter´ o ısticas satisface las siguientes dos propiedades que son an´logas al caso discreto. 2Ù. Ejemplo 2. ¡1. y Õ P ÔX x. Como todos estos valores son probabilidades. 0. naturalmente son no negativos. Y Õ si para todo par Ôx. y Õ es efectivamente una funci´n de probabilidad bivariada. 0. Y Õ son Ô1. y Õ : R2 o o Ö0. 1. v Õ dv du. o f Ôx.2 si x ³ ³ ³ ± 2. de donde se obtiene que o o c 1ß9. Por lo tanto. Los posible valores del vector ÔX. Funci´n de densidad conjunta o Veamos ahora la situaci´n en el caso continuo. 1Õ.

Resta verificar que la funci´n integra uno sobre el plano. cuya gr´fica aparece en la Figura 2. y 1. bÕ ¢ Ôc. y Õ È R2 .6 La siguiente funci´n es una de las funciones de densidad o o conjunta m´s sencillas. El lector puede verificar que o ÷ ÷ ¡ ¡ f Ôx. Esta funci´n es de densidad pues es no negativa a e integra uno sobre R2 . o f Ôx. c y d. decimos que una funci´n f Ôx. y Õ : R2 o Ö0. y Õ x y 0 si 0 x. f Ôx. Sean a b. y Õ 0 para cualquier Ôx. y Õ c a b d y x Figura 2. c d.4. Vectores Aleatorios 99 Rec´ ıprocamente. y defina la funci´n a ° 1 ² Ôb ¡ aÕÔd ¡ cÕ si a x b. otro caso. Se trata de una funci´n constante en a o o el rect´ngulo Ôa. dÕ.4: Ejemplo 2. y Õ ± 0 otro caso. Ejemplo 2.4. y Õ dxdy ÷1÷1 0 0 Ôx   yÕ dxdy 1 2  1 2 1. . Õ es una funci´n de densidad conjunta o bivariada si cumple con las dos condiciones o arriba mencionadas.2. f Ôx.7 Comprobaremos que la siguiente funci´n es de densidad. Claramente f Ôx.

Funci´n de distribuci´n conjunta o o Adem´s de la funci´n de densidad. Y Õ. esta a funci´n debe escribirse como FX. y o o tambi´n se dice que es la funci´n de distribuci´n conjunta de las variables e o o X y Y .Y Ôx. y Õ cxy 0 si 0 x y 1. sea ´ste discreto o continuo. Enunciamos a continuaci´n algunas propiedades que cumple toda o funci´n de distribuci´n conjunta. pero omitiremos los sub´ o ındices para mantener la notaci´n simple. f Ôx. y Õ u la intersecci´n de los eventos ÔX xÕ y ÔY o es la probabilidad del evento ÔX xÕ ÔY y Õ. M´s precisamente. La constante c debe ser tal que la funci´n f Ôx. La funci´n de distribuci´n del vector ÔX. ESTAD´ ISTICA Ejemplo 2. An´logamente cuando es la variable y quien tiende a l´ F Ôx. ¡ . Y y Õ. 0. existe la funci´n de distribuci´n para a o o o e o un vector ÔX. y Õ sea no negativa y que su o integral sobre todo el plano sea uno. 8 ¡ ¡ 0 0 0 2 Por lo tanto c 8. 1×. y Õ dxdy cxy dxdy y dy . o o 1. Y Õ. 2. y Õ ım a menos infinito. es decir. Siempre asociaremos la variable X con el valor o x. y Õ ım 1. y Õ. De esta ultima condici´n obtenemos ´ o que ÷1÷y ÷1 ÷ ÷ c c 3 f Ôx. y Õ P ÔX x. el n´mero F Ôx. se define para cualquier par de n´meros u reales Ôx. otro caso.100 2. y Õ : R2 Ö0. y Õ como sigue F Ôx. La peque˜a coma que aparece en el lado derecho de esta igualdad significa n y Õ. y la variable Y con el valor y. o o denotada por F Ôx. y su definici´n es muy semejante al caso unidimensional. A esta funci´n se le conoce tambi´n con o e el nombre de funci´n de acumulaci´n de probabilidad del vector ÔX.8 Encontraremos la constante c para que la siguiente funci´n o sea de densidad. Y Õ.y x l´ F Ôx. x.

corresponde a la probabilidad del evento Ôa 2 Ö0. dÕ ¡ F Ôa. xn Õ P ÔX1 x1 . Conociendo la funci´n de densidad f Ôx. cÕ Observe que las primeras cuatro propiedades son an´logas al caso unidia mensional. . y Õ ô ô u xv y ¡ ¡ f Ôu. . F Ôx. y Õ simplemente integrando en el caso o o continuo o sumando en el caso discreto. . La funci´n de distribuci´n del vector aleatorio ÔX1 . . xn Õ : R o F Ôx1 . y puede comprobarse geom´tricamente que la quinta propiedad e X bÕ Ôc Y dÕ. F Ôx. v Õ para valores de u menores o iguales a x. y Õ son equivalentes y en nuestro caso es siempre posible encontrar una a partir de la otra. . y Õ y f Ôx. . Vectores Aleatorios 3. cÕ   F Ôa. 1× dada por funci´n F Ôx1 . v Õ. Xn Õ es la o o n Ö0. . 1× es una funRec´ ıprocamente. Las funciones F Ôx. . . y valores de v menores o iguales a y. y Õ es una funci´n mon´tona no decreciente en cada variable. 5. 101 o o 4. y Õ.2. y Õ puede expresarse de la siguiente forma o F Ôx. . se cumple la desigualdad 0. F Ôb. .4. dÕ ¡ F Ôb. y Õ ÷x ÷y ¡ ¡ f Ôu. y Õ es continua por la derecha en cada variable. . se puede encono o trar la funci´n de distribuci´n F Ôx. Xn xn Õ. y Õ es una funci´n no negativa y corresponde a la funci´n de densidad bivariada asociada. Para cualesquiera n´meros a u b. es decir. En el caso continuo supondremos que la funci´n de distribuo ci´n bivariada F Ôx. decimos que una funci´n F Ôx. . f Ôu. y Õ : R o ci´n de distribuci´n conjunta o bivariada si satisface las anteriores cinco o o propiedades. y c d. v Õ dv du. Explicaremos este procedimiento a continuaci´n. Para el caso continuo tenemos F Ôx. . . El concepto de funci´n de distribuci´n bivariao o da puede extenderse al caso de vectores multidimensionales de la siguiente forma. . F Ôx. v Õ dv du. y Õ ÷x ÷y o o en donde f Ôx. . En el caso discreto se suman todos los valores de f Ôu.

es decir. y Õ En el caso discreto. ÷ ÷ ¡ ¡ f Ôx. y Õ dxdy ÷1÷1 0 0 4xy dxdy 4¤ 1 1 ¤ 2 2 1. y Õ dy. es decir. se integra simplemente respecto de la variable y para dejar como resultado una funci´n que depende unicamente de x. puede encontrarse la funci´n f Ôx. Y Õ un vector aleatorio continuo con funci´n de densidad f Ôx. De manera completamente an´loo a ga. y Õ o de la siguiente forma. Es sencillo verificar que esta funci´n es efectivamente una funci´n de deno o sidad bivariada pues es no negativa e integra uno.102 2. y Õ dada por f Ôx.9 Sea ÔX. Se o define la funci´n de densidad marginal de la variable X como la siguiente o integral ÷ f ÔxÕ ¡ f Ôx. Funci´n de densidad marginal o Sea f Ôx. v Õ dv du. y por el Teorema Fundamental del C´lculo tenemos entonces que a f Ôx. f Ôx. y Õ guardan la relaci´n o F Ôx. 1Õ 0 otro caso. f Ôy Õ ÷ o Ejemplo 2. y È Ô0. y Õ 4xy si x. la funci´n de densidad marginal de la variable Y se obtiene integrando o ahora respecto de la variable x. Y Õ. y Õ F Ôx. y Õ a partir de F Ôx. y ¡Õ. y Õ la funci´n de densidad del vector aleatorio continuo ÔX. Esta funci´n resultante o ´ o es la funci´n de densidad marginal de X. y Õ ÷x ÷y ¡ ¡ 2 f Ôu. . x y F Ôx. y Õ ¡ F Ôx¡. ¡ f Ôx. y Õ y F Ôx. En el caso continuo sabemos que f Ôx. y Õ dx. y Õ. ESTAD´ ISTICA Rec´ ıprocamente.

Es sencillo verificar que estas funciones de densidad marginales. .4. y Õ È Ø1.2. son efectivamente funciones de densidad (o probabilidad) univariadas. Y Õ un vector aleatorio discreto con funci´n de probabilidad f Ôx.10 Sea ÔX. de manera an´loga se define la funci´n de densidad (o probabilidad) marginal a o f Ôy Õ. 1Õ. Por lo tanto. 2y si y È Ô0. 1Õ. De manera an´loga. por ejemplo. f Ôx Õ ô y f Ôx. a ı f Ôy Õ Es inmediato verificar que estas funciones son funciones de densidad univariadas. 3Ù ¢ Ø1. y Õ Ôx   2yÕß30 0 si Ôx. 1Õ. y Õ dy ÷1 0 4xy dy 2x. y Õ. y Õ f ÔxÕf Ôy Õ. Vectores Aleatorios 103 Calcularemos ahora las funciones de densidad marginales f ÔxÕ y f Ôy Õ. 0 otro caso. es no negativa y suma uno. Para x È Ô0. o Ejemplo 2. Observe que en este caso particular se cumple la identidad f Ôx. 2. tanto en el caso discreto como en el continuo. o por simetr´a. f Ôx Õ ÷ ¡ f ÔxÕ f Ôx. y Õ dada por f Ôx. 2Ù otro caso. No es dif´cil comprobar que esta funci´n es una funci´n de probabilidad ı o o bivariada. 2x si x È Ô0. lo cual est´ relacionado con el importante concepto de indepena dencia que mencionaremos m´s adelante. 0 otro caso. a La definici´n de funci´n de densidad (o probabilidad) marginal para vectores o o discretos involucra una suma en lugar de la integral. 2 3 ô ô x x 1y 1   2y 30 1. es decir.

en el caso o continuo. con funci´n de distribuci´n F Ôx. . . xn Õ dx2 ¤ ¤ ¤ dxn . y Õ 18ß30 ± 0 si y 1. ° ² 12 30 y f Ôy Õ 3 ô x 1 ß f Ôx. ³ ± 0 en otro caso. . y Õ. en otro caso. la funci´n de densidad marginal de la variable a o X1 a partir de la funci´n de densidad del vector ÔX1 . La funci´n de distribuci´n marginal de la variable X se define o o o como la funci´n o F ÔxÕ l´ F Ôx. ım y y la correspondiente funci´n de distribuci´n marginal de la variable Y es la o o funci´n o l´ F Ôx. Un poco m´s generalmente. continuo o discreto. f Ôx 1 Õ ÷ ¡ ¤¤¤ ÷ ¡ f Ôx1 . y Õ. .104 2. o Funci´n de distribuci´n marginal o o o Sea ÔX. y Õ ° ³ 8 30 ³ ² ß si x 1. . Xn Õ es. Y tambi´n de manera e an´loga se pueden calcular estas densidades marginales para vectores disa cretos de cualquier dimensi´n. y Õ. . ESTAD´ ISTICA Las funciones de probabilidad marginales f ÔxÕ y f Ôy Õ son f Ôx Õ 2 ô y 1 f Ôx. ³ 12ß30 si x 3. Y Õ un vector aleatorio. Estas funciones son funciones de probabilidad univariadas. si y 2. Todo lo mencionado o en estas ultimas secciones tiene como objetivo poder enunciar con precisi´n ´ o . De manera an´loga se obtiene la funci´n marginal de cualquiera de las vaa o riables que componen el vector multidimensional. 10ß30 si x 2. ım F Ôy Õ x No es dif´ comprobar que estas funciones de distribuci´n marginales son ıcil o efectivamente funciones de distribuci´n univariadas. . .

Se dice que estas variables o aleatorias son independientes si para cualesquiera n´meros reales x1 . y Õ f ÔxÕf Ôy Õ para cualesquiera n´meros reales u x y y. Xn xn Õ P ÔX1 x1 Õ ¤ ¤ ¤ P ÔXn xn Õ. . Independencia de variables aleatorias Sea X1 . . . y ello demuestra la independencia de las variables X y Y . xn Õ.2. . 0 otro caso. . . xn . u P ÔX1 x1 . . .11 Sean X y Y dos variables aleatorias continuas con funci´n o de densidad conjunta f Ôx. 0 otro caso. . . x n Õ f Ôx1 Õ ¤ ¤ ¤ f Ôxn Õ. e¡y si y 0. .. . Veremos a continuaci´n este importante concepto que ser´ una hip´tesis recurrente en los o a o procedimientos de la estad´ ıstica inferencial. Nuevamente esta igualdad debe verificarse para cualesquiera valores x1 . . Puede demostrarse que las dos condiciones anteriores son equivalentes. Pueden calcularse las funciones de densidad marginales y encontrar que f ÔxÕ e¡x si x 0. Xn una colecci´n de variables aleatorias con funci´n de diso o tribuci´n conjunta F Ôx1 . la condici´n de independencia se escribe de la forma siguiente: para cualesquiera o n´meros x1 . Suponga que las respectivas funciones de o distribuci´n marginales son F Ôx1 Õ. . xn . puede definirse la independencia en t´rminos de la fune ci´n de densidad como sigue o f Ôx 1 . . y Õ dada por f Ôx. . . x n Õ F Ôx1 Õ ¤ ¤ ¤ F Ôxn Õ. y Õ e¡x¡y si x. .4. . xn u se cumple la igualdad F Ôx 1 . . . . Alternativamente. 0 otro caso. . . . . . . F Ôxn Õ. Ejemplo 2. . . Vectores Aleatorios 105 el concepto de independencia entre variables aleatorias. . . . y f Ôy Õ Se verifica entonces que f Ôx. En el caso particular cuando las variables aleatorias son discretas. . . y 0. .

1Ù 0 otro caso.12 Sean X y Y dos variables aleatorias discretas con funci´n o de probabilidad f Ôx. Como veremos m´s adelante. Y Õ y se define como la esperanza de u la variable aleatoria ÔX ¡ E ÔX ÕÕÔY ¡ E ÔY ÕÕ. Las funciones de probabilidad marginales son f ÔxÕ 1ß2 si x È Ø0. 1Ù 0 otro caso. Este es el sentido en el que la sucesi´n infinita de variables aleatorias debe entenderse en el o enunciado del Teorema Central del L´ ımite.106 2. Y Õ E ÖÔX ¡ E ÔX ÕÕÔY ¡ E ÔY ÕÕ×. yÕ. la covarianza est´ estrechamente relacionaa a da con otro concepto que se define para dos variables aleatorias llamado coeficiente de correlaci´n. Explicaremos ahora la forma de e o calcular la covarianza seg´n la definici´n anterior. y Õ dada por f Ôx. y È Ø0. Covarianza Sean X y Y dos variables aleatorias con esperanza finita y con funci´n de o densidad o de probabilidad conjunta f Ôx. u Por lo tanto f Ôx. ESTAD´ ISTICA Ejemplo 2. se dice que un conjunto infinito de variables aleatorias son independientes si cualquier subconjunto finito de ellas lo es. Definici´n 2. Dejaremos entonces la interpretaci´n de la covarianza en o t´rminos del coreficiente de correlaci´n.y Ôx ¡ E ÔX ÕÕÔy ¡ E ÔY ÕÕ f Ôx. y f Ôy Õ 1ß2 si y È Ø0. Y Õ ô x.1 La covarianza entre las variables aleatorias X y Y es el o n´mero u CovÔX. y Õ f ÔxÕf Ôy Õ para cualesquiera n´meros reales x y y. y se concluye entonces que X y Y son independientes. y Õ 1ß4 si x. 1Ù 0 otro caso. . y Õ. y para el cual se cuenta con una interpretaci´n o o bastante clara. Cuando X y Y son vau o riables aleatorias discretas la covarianza se calcula de la forma siguiente CovÔX. La covarianza entre X y Y es un n´mero que se denota por CovÔX. Adicionalmente.

Mencionaremos a continuaci´n algunas propiedades generales de la covario anza. Y Õ e f´cil de obtener se encuentra cuando se calcula la covarianza entre una vaa riable aleatoria X y ella misma. Y Õ. En el caso cuando las variables e aleatorias son continuas se tiene que CovÔX. Y Õ ÷ ÷ ¡ ¡ Ôx ¡ E ÔX ÕÕÔy ¡ E ÔY ÕÕ f Ôx. observe. es decir. es decir. el hecho de que la covarianza sea cero no implica necesariamente que las variables aleatorias en cuesti´n sean independientes. Desarrollando el producto que aparece en la definici´n de covarianza y o aplicando la linealidad de la esperanza se encuentra que la covarianza puede calcularse tambi´n como indica la siguiente f´rmula e o CovÔX. Definici´n 2. Coeficiente de correlaci´n o Habiendo definido la covarianza podemos ahora dar la definici´n del coefio ciente de correlaci´n entre dos variables aleatorias. recordeo ´ mos que hemos mencionado que la varianza de la suma de dos variables aleatorias no es. se suma sobre todos los posibles valores x y tambi´n sobre todos los posibles valores y. la suma de las varianzas. Otra propiedad interesante y sim´trica. yÕ dxdy. Y Õ E ÔXY Õ ¡ E ÔX ÕE ÔY Õ. Y Õ CovÔX. Por ultimo. sin embargo se cuenta con la siguiente f´rmula general la cual puede ser encontrada a partir de la o definici´n de varianza.4.2 El coeficiente de correlaci´n entre las variables aleatorias o o X y Y se define como el n´mero u ρÔX. CovÔX. Vectores Aleatorios 107 en donde.2. en general. entonces CovÔX. Supondremos que tales o variables aleatorias tienen esperanza y varianza finitas. Y Õ 0. o a partir o de la f´rmula reci´n enunciada. o VarÔX  YÕ VarÔX Õ   VarÔY Õ   2 CovÔX. Es posible demostrar tambi´n que si X y Y son indepene dientes. X Õ. a partir de la definici´n misma de covarianza. El rec´ ıproco es en general falso. en este caso la covarianza se reduce a la varianza de X. es inmediato observar que la covarianza es o e CovÔY. VarÔX ÕVarÔY Õ . Y Õ . la suma es doble. Por otro lado.

Y Õ 1. puede demostrarse que si dos variables aleatorias son independientes. se puede establecer una dependencia lineal directa entre las dos variables aleatorias. . Y Õ 1.Y . o o Como en el caso de la covarianza. ´ ¡1. El lector puede observar inmediatamente que la diferencia entre la covarianza y el coeficiente de correlaci´n radica unicamente en que este o ´ ultimo se obtiene al dividir la covarianza por el producto de las desviaciones ´ est´ndar de las variables aleatorias. ESTAD´ ISTICA Al n´mero ρÔX. ¡1 ρÔX. entonces existen constantes a y b. Estas variables aleatorias pueden. pero aX   b. As´ hemos mencionado que cuando ı. unicamente o ´ mide la dependencia de tipo lineal. es decir. Xn . Explicaremos ahora la interpretaci´n del coeficiente de correlaci´n. el coeficiente de correlaci´n es 1. Y Õ ¡1. tales que Y relaci´n lineal entre las dos variables aleatorias pero ahora tal relaci´n es o o inversa en el sentido de que cuando una de las variables aleatorias crece la otra decrece. De esta forma el coeficiente de correlaci´n es una medida del o grado de dependencia lineal entre dos variables aleatorias. . . . es decir. Cuando o o X y Y son tales que ρÔX. Puede demostrarse que este cambio de a escala tiene como consecuencia que el coeficiente de correlaci´n tome como o valor m´ximo 1. Existen varias formas en que dos variables aleatorias pueden depender una de otra. y como valor m´ a ınimo ¡1. en donde ρ es la letra u e griega ro. o 2. la dependencia lineal es exacta. . . el rec´ ıproco es en general falso. Y Õ se le denota tambi´n por ρX. se trata de una ahora con a negativa. De esta manera e . cuando ρÔX. . entonces nuevamente existen constantes a y b. Muestras aleatorias y estad´ ısticas En la teor´ estad´ ıa ıstica que desarrollaremos en esta parte del curso no consideraremos muestras particulares de datos num´ricos x1 . xn . en particular. . es decir.108 2. De nuevo. entonces el coeficiente de correlaci´n es cero. excepto en el caso cuando las variables tienen distribuci´n conjunta normal. o y nuevamente. tomar los valores num´ricos mencionados. con a positiva tales que Y aX   b. la condici´n de que o el coeficiente de correlaci´n sea cero no es suficiente para garantizar que o las variables aleatorias sean independientes. sino cone juntos de variables aleatorias X1 .5. el coeficiente de correlaci´n no mide todas estas dependencias. En el otro caso extremo.

. Xn . . . S2 n¡1i 1 . . es otro ejemplo de una estad´stica pues es una funci´n de una muestra aleatoria definida de la ı o forma siguiente n 1 ô ¯ ÔXi ¡ X Õ2 . Por lo a tanto. Definici´n 2. estaremos considerando cualesquiera resultados que se puedan obtener al llevar a cabo un proceso de muestreo bajo algunas hip´tesis adicionales que mencionaremos a continuaci´n.a. Una muestra aleatoria constituye el elemento b´sico para llevar a cabo a inferencias estad´ ısticas. .4 Una estad´stica es una funci´n cualquiera de una muestra o ı o aleatoria X1 . que no depende de par´metros desconocidos. y se le conoce ı con el nombre de media muestral. denotada por S 2 . .) es o una colecci´n de variables aleatorias X1 .3 Una muestra aleatoria (escribimos simplemente m. ı Veremos a continuaci´n algunos ejemplos de estad´ o ısticas que ser´n usados a con frecuencia m´s adelante. son independientes entre s´ ı. ¯ X 1 ô Xi .5. ello significa o que las variables aleatorias que forman la m. a Ejemplo 2. e De este modo. La funci´n X o ¯ definida como aparece abajo es un ejemplo de una estad´stica. .2. . . cuando se diga. por ejemplo. .a.13 Considere una muestra aleatoria X1 . una estad´stica es una variable aleatoria. que una muestra aleatoria es tomada de una poblaci´n normal con media µ y varianza σ 2 . y todas ellas tienen la misma distribuci´n normal con los mismos par´meo a tros. Muestras aleatorias y estad´ ısticas 109 y de forma general. Xn . .14 La varianza muestral. Xn que son independientes e o id´nticamente distribuidas. o o Definici´n 2. . ni 1 n Ejemplo 2.

1.15 Sea X1 . . Por ejemplo. . σ 2 Õ. 0. Entonces X tiene una distribuci´n BerÔpÕ. 1. en donde el par´metro o p es desconocido. . 0. . 1. Xn Ù.17 El tiempo en minutos que un conjunto de 10 empleados escogidos al azar invierte en trasladarse de la casa al lugar de trabajo es: . El problema de estimaci´n puntual consiste en encontrar un n´mero. 1. en donde θ es el par´metro o el conjunto de par´metros de la distribuci´n. σ 2 Õ. si la distribuci´n es o a o a NÔµ. ESTAD´ ISTICA Ejemplo 2. Xn una muestra aleatoria. . 1. 1. . y el cual consideraremos desconocido. ¿C´mo podr´a estimarse el verdadero valor de p con base o ı en los datos de la muestra? Ejemplo 2. Las siguientes variables aleatorias son ejemplos de estad´sticas. Dada ı la imposibilidad de someter a prueba a todos ellos. 0.6. si la distribuci´n es expÔλÕ. con base en las obo u servaciones realizadas de la variable aleatoria. 1. a Ejemplo 2. 1. Ilustraremos el problema con un par de ejemplos. . que sirva como estimaci´n del o par´metro desconocido θ. Suponga que X es la variaı o ble que indica si un art´culo escogido al azar pasa o no pasa el control de ı a calidad. 1. 1. entonces θ representa el par´metro λ. .16 Se desea conocer la calidad de un lote de mil art´culos. 1. XÔnÕ 2. 0. y sue pongamos que X tiene una distribuci´n de probabilidad con funci´n de o o a a densidad f Ôx. a m´ ØX1 . 1. . . 2. En esta nueva notaci´n se hace ´nfasis en que la diso o e tribuci´n depende de un par´metro denotado gen´ricamente por la letra o a e griega θ. entonces θ representa el vector de par´metros Ôµ.110 2. Estimaci´n puntual o Sea X una variable aleatoria de inter´s en un experimento aleatorio. en donde cero indica que el art´culo no pas´ el control de calidad y uno ı o indica que el art´culo pas´ el control de calidad. 1. . . X m´xØX1 . θ Õ. 0. 1. Xn Ù. ı 1. XÔ1Õ 3. se escogen 20 art´culos ı al azar obteni´ndose los siguientes resultados: e 0. ın XÔnÕ ¡ XÔ1Õ .

. xn . θ Õ. Observe que un estimador puntual es una estad´ ıstica y puede ˆ ˆÔX1 .15. habiendo supuesto una distribuci´n de probabilidad para o una variable aleatoria de inter´s en donde la distribuci´n depende de un e o par´metro no especificado en su valor. . . M´todo de m´xima verosimilitud e a Este m´todo fue ampliamente popularizado a trav´s de los trabajos que e e public´ el estad´ o ıstico y genetista ingl´s Ronald Aylmer Fisher durante la e segunda d´cada del siglo XX. . Veremos a continuaci´n dos m´todos escribirse como θ o e θ para encontrar estimadores puntuales. Xn Õ. denotada por LÔθ Õ. .25. .. o o Esto significa que todas las variables de la muestra aleatoria tienen funci´n o a de densidad f ÔxÕ que depende de un par´metro desconocido θ. .20. . Definici´n 2. . . . .5 Un estimador puntual para el par´metro θ es una funci´n o a o de una muestra aleatoria X1 . Explicaremos a continuaci´n el m´todo. .. Estimacion puntual 111 30. . Xn o e una muestra aleatoria de una poblaci´n con funci´n de densidad f Ôx. Xn que se usa para estimar θ.. .6 La funci´n de verosimilitud de una muestra aleatoria o o X1 . Definici´n 2. se define como la funci´n de densidad cono junta LÔθ Õ fX1 . aunque la idea fundamental del m´todo hab´ e e ıa sido usada con anterioridad por algunos matem´ticos importantes como a Gauss y Laplace.Xn Ôx1 .´ 2.6. . ¿C´mo podr´a estimarse el valor de λ con base o en las observaciones realizadas? De esta forma..10. . . . . . Suponga que tal variable puede modelarse meo ı diante la distribuci´n expÔλÕ.5. θ Õ.15. Sea X1 . el problema consiste en encontrar un a mecanismo para estimar el par´metro desconocido tomando como elementos a una serie de observaciones de la variable aleatoria.50. Xn .65.70. ˆ A un estimador del par´metro θ se le denota regularmente por θ (se lee “teta a circunflejo”).

x Derivando respecto a λ e igualando a cero se llega a la ecuaci´n o ¡ n¯ x 0. o estimador m´ximo veros´ a a ımil. o pues la funci´n logaritmo es continua y mon´tona creciente en su dominio o o de definici´n. aunque tal vez el t´rmino credibilidad e sea m´s acertado. Tenemos que o ln LÔλÕ n λ n ln λ ¡ λn¯. Hacemos lo anterior porque la nueva funci´n resulta m´s f´cil o o a a de maximizar como veremos a continuaci´n. Ilustraremos este m´todo con algunos ejemplos. Fisher (Inglaterra 1890–1962) La letra L proviene del t´rmino en ingl´s likelihood. La idea intuo itiva es muy interesante: se debe encontrar el valor de θ de tal forma que los datos observados tengan m´xima probabilidad de ocurrir. ESTAD´ ISTICA Ronald A. e Ejemplo 2. que tradicionalmente e e se ha traducido como verosimilitud.18 (Estimaci´n de un par´metro) Encontraremos el estio a mador m´ximo veros´mil para el par´metro λ de una distribuci´n exponena ı a o cial. La funci´n de verosimilitud es o LÔλÕ fX1 Ôx1 Õ ¤ ¤ ¤ fXn Ôxn Õ λ e¡λx1 ¤ ¤ ¤ λ e¡λxn x λn e¡λn¯ . La probabia lidad de ocurrencia est´ dada por la funci´n de verosimilitud y por ello es a o que hay que maximizarla. o Maximizar la funci´n LÔλÕ es equivalente a maximizar la funci´n ln LÔλÕ. El valor de θ en donde se alcanza el m´ximo se a llama estimador de m´xima verosimilitud.112 2. El m´todo de m´xima verosimilitud consiste en obtener a e a el valor de θ que maximice la funci´n de verosimilitud LÔθ Õ. .

Tomando logaritmo. Derivando respecto a p e igualando a cero se llega a la ecuaci´n o n x ¡ 1n¯p 0. . p ¡ de donde se obtiene p 1ßÔ1   xÕ.´ 2.19 Sea X1 . Por definici´n la funci´n de verosimilitud es o o o fX1 Ôx1 Õ ¤ ¤ ¤ fXn Ôxn Õ 2 2 1 2 1 2 e¡Ôx1 ¡µÕ ß2σ ¤ ¤ ¤ e¡Ôxn ¡µÕ ß2σ 2πσ 2 2πσ 2 n 1 1 Ô Õne¡ 2σ2 i 1Ôxi ¡µÕ2 . a menudo resulta m´s convea niente maximizar el logaritmo de la funci´n de verosimilitud que la funci´n o o de verosimilitud misma. x x pn Ô1 ¡ pÕn¯ . 113 Como se ha ilustrado en el ejemplo anterior. La funci´n de o verosimilitud es L Ôp Õ fX1 Ôx1 Õ ¤ ¤ ¤ fXn Ôxn Õ ln LÔpÕ p Ô1 ¡ pÕx1 ¤ ¤ ¤ p Ô1 ¡ pÕx1 n ln p   n¯ lnÔ1 ¡ pÕ. σ 2 Õ Õ n n 1 ô 2 ¡ 2 lnÔ2πσ Õ ¡ 2σ2 Ôxi ¡ µÕ2 . Id´ntica situaci´n se presentar´ en los ejemplos que e o a a continuaci´n se exponen.20 (Estimaci´n de dos par´metros) Encontraremos los eso a timadores de m´xima verosimilitud para los par´metros µ y σ 2 de una disa a tribuci´n normal. .6. Xn una muestra aleatoria de una poblaci´n con o a distribuci´n geoÔpÕ. . El estimador es entonces λ ¯ ¯ 1ßX. El estimador es entonces p ¯ ˆ ¯ 1ßÔ1   X Õ. Comprobaremos que el estimador por m´xima verosimilo ¯ itud para el par´metro p est´ dado por p a a ˆ 1ßÔ1   X Õ. . Por otro lado. es util observar que el procedio ´ miento de maximizaci´n utilizando derivadas es v´lido cuando el par´metro o a a correspondiente puede tomar un continuo de valores. o a Tenemos que ln LÔµ. i 1 . σ 2 LÔµ. a Ejemplo 2. 2πσ 2 Nuevamente el logaritmo de esta funci´n es m´s sencillo de maximizar. Ejemplo 2. la funci´n de verosimilo itud es diferenciable. y cuando tal m´ximo existe. Estimacion puntual de donde se obtiene λ ˆ 1ßx.

. Õ. . σ 2 Õ ln LÔµ. Xn de una diso tribuci´n uniforme en el intervalo Ö0. Xn Ù. 0. Considere una muestra aleatoria X1 . puede proponerse como estimador a la estad´stiı ˆ m´xØX1 . a θ. θ ×. ˆ ni 1 n Ejemplo 2. Igualando a cero ambas derivadas encontramos un sistema de dos ecuaciones con dos variables: n 1 ô Ôx i ¡ µ Õ σ2 i 1 0. . . es decir. . n n 2 de una distribuci´n Por lo tanto los estimadores para los par´metros µ y σ a o normal por el m´todo de m´xima verosimilitud son e a µ ˆ y σ ˆ 2 1 ô Xi . . .5. y σ i 1 Ôxi ¡ µÕ . σ 2 Õ n 1 ô Ôxi ¡ µÕ. La funci´n de verosimilitud es entonces LÔθ Õ 1ßθ n . para 0 x θ. . n ¡ 2σ2   n 1 ô Ôxi ¡ µÕ2 2σ 4 i 1 n n 1 1 2 ˆ 2 De estas ecuaciones se obtiene µ i 1 xi . ¿Qu´ hacer en este caso? Con base en el argumento intuitivo e mostrado en la Figura 2. en donde θ 0 es el par´metro a estimar. . ca θ a .114 Por lo tanto ln LÔµ.21 Este ejemplo tiene el objetivo de mostrar que el procedimiento de maximizar la funci´n de verosimilitud para encontrar el estimador o m´ximo verosimil como lo hemos presentado en los ejemplos anteriores no a siempre funciona. ESTAD´ ISTICA µ σ2 n 1 ¡ 2σ2   2σ4 n ô i 1 Ôxi ¡ µÕ2 . para x1 . la funci´n de densidad es o f ÔxÕ 1ßθ. . . ni 1 n 1 ô ÔXi ¡ µÕ2 . . xn o a Es f´cil verificar que la funci´n LÔθ Õ no tiene un m´ximo en el intervaa o lo Ô0. σ2 i 1 2.

a Ejemplo 2. i Karl Pearson (Inglaterra 1857–1936) El m´todo de momentos para estimar el par´metro θ es muy sencillo.6. Veamos algunos ejemplos. cuando esta esperanza existe. se define el k-´simo momento muestral coo e 1 mo n n 1 Xik . θ Õ la funci´n de o densidad de una variable aleatoria X que depende de un par´metro desconoa cido θ. Ahora. dada una muestra aleatoria X1 . Esta vez usaremos el m´todo de momentos. y resolver esta ecuaci´n o sistema de ecuaciones para el o par´metro θ cuando ello sea posible. El primer y segundo momento muestrales son n n 1 xi y i . . Estimacion puntual 115 0 x3 ¢ ¢ x1 ¤¤¤ x2 ¢ θ Figura 2. . cone a siste en igualar los momentos muestrales con los correspondientes momentos poblacionales.´ 2.22 Nuevamente estimaremos los par´metros µ y σ 2 de una disa tribuci´n normal. El a primer y segundo momento poblacionales son E ÔX Õ µ y E ÔX 2 Õ σ 2   µ2 . . Sea nuevamente f Ôx. . Como neceo e sitamos estimar dos par´metros usamos los dos primeros momentos.5: M´todo de momentos e Este m´todo fue introducido por el estad´ e ıstico ingl´s Karl Pearson (n´ Carl e e Pearson) a principios del siglo XX. 1 respectivamente. Recordemos que el k-´simo momento poblacional de X es el n´mero e u E ÔX k Õ. Xn de esta distribuci´n.

116 1 n n 2 i 1 xi . 2. a . La igualaci´n respectiva produce el sistema de o 1 ô xi . ni 1 n ecuaciones µ σ 2  µ 2 1 ô 2 x . ni 1 n En este caso los estimadores por el m´todo de momentos coinciden con los e estimadores m´ximo veros´miles. ˆ Si θ no es insesgado. En los siguientes ejemplos se muestra la forma en la que se verifica la propiedad de insesgamiento a pesar de desconocer el valor del par´metro θ. el a ˆ valor de θ coincide con el valor desconocido de θ. Esta ser´ a ıa una buena propiedad para un estimador. y a la diferencia ˆ ˆÕ ¡ θ se le llama sesgo. a ı Insesgamiento ˆ Siendo un estimador θ una variable aleatoria que se utiliza para estimar el ˆ par´metro θ. un estimador puntual θ es un E Ôθ estimador insesgado para el par´metro desconocido θ si. en promedio. ESTAD´ ISTICA respectivamente. y es lo que motiva la siguiente definici´n. es interesante saber si el valor promedio de θ es θ. o ˆ Definici´n 2. entonces se dice que es sesgado. De esta forma.7 Un estimador θ del par´metro θ es insesgado si o a ˆ E Ôθ Õ θ. ni 1 i n La primera ecuaci´n es expl´cita mientras que la segunda ecuaci´n se puede o ı o reescribir como sigue σ2 1 ô 2 x ¡ µ2 ni 1 i n 1 ô 2 1 ô xi ¡ Ô xi Õ2 ni 1 ni 1 n n 1 ô Ôxi ¡ µÕ2 .

. Por la propiedad de linealidad mador θ. o con cierto grado de confiabilidad. Esta estad´stica resulta ser un estimador insesgado para la varianza σ 2 . En este o a tipo de estimaci´n se busca un intervalo de tal forma que se pueda decir. . de modo que se deja al lector tal comprobaci´n. Estimacion por intervalos 117 Ejemplo 2. Observe que X es el estia ˆ y µ es el par´metro desconocido θ. . 2. ı Comprobar esta afirmaci´n requiere de algunos c´lculos que por cuesti´n o a o de espacio omitimos.´ 2. Ejemplo 2.7. Comprobaremos que la media muestral ¯ X 1 ô Xi ni 1 n ¯ es un estimador insesgado para el par´metro µ. . Recordemos que la varianza muestral es una esvarianza desconocida σ tad´stica definida de la forma siguiente ı S2 n¡1i 1 n ô ¯ ÔXi ¡ X Õ2 . Xn una muestra aleatoria de una poblaci´n con o 2 .23 Sea X1 .7. . E Ôµ Õ ˆ ¯ E ÔX Õ EÔ 1 ô Xi Õ ni 1 n 1 ô E ÔXi Õ ni 1 n 1ô µ ni 1 n µ. usar la propiedad ´ de linealidad de la esperanza y observar que E ÔXi Xj Õ µ2 σ2   si i µ2 si i j.24 Sea X1 . 1 En este caso el estimador es S 2 y el par´metro desconocido a estimar es a σ 2 . j. . En esta secci´n se estudia a o brevemente el tema de estimaci´n de par´metros usando intervalos. Estimaci´n por intervalos o En algunos casos es preferible no dar un n´mero como estimaci´n de un u o par´metro sino un intervalo de posibles valores. que dicho intervalo contiene el verdadero . Xn una muestra aleatoria de una poblaci´n con o media desconocida µ. a de la esperanza. lo o unico que es necesario hacer es desarrollar el cuadrado. . .

o Observe adem´s que no es correcto decir “la probabilidad de que θ perteneza ˆ ˆ a ca al intervalo Ôθ1 . Al n´mero 1 ¡ α se le conoce u como grado o coeficiente de confianza. A este tipo de intervalos se les llama ina tervalos de confianza. de modo que al tomar estas variables aleatorias distintos valores se generan distintos intervalos de confianza. θ2 Õ . 1Õ.05. En general. En la pr´ctica es com´n tomar α 0. y fueron introducidos por el matem´tico y estad´ a ıstico norteamericano de origen ruso-polaco Jerzy Neyman en 1937.6. del intervalo de confianza. . es cercano a 1. de modo que el grado de confianza es a u 1¡α 0. ESTAD´ ISTICA valor del par´metro desconocido. Xn . respectivamente. pues el par´metro θ no es el elemento ˆ ˆ aleatorio.1) ˆ ˆ A las estad´ ısticas θ1 y θ2 se les conoce como l´ ımites inferior y superior. . . se toma el valor de α cercano a 0 de tal forma que el grado de confianza. En cambio. Observe ˆ ˆ que las estad´ ısticas θ1 y θ2 dependen de una muestra aleatoria X1 . θ2 Õ. θ2 Õ es 1 ¡ α”.8 Sea α È Ô0. Un intervalo de confianza para un o par´metro desconocido θ de una distribuci´n de probabilidad es un intervalo a o ˆ ˆ ˆ ˆ aleatorio de la forma Ôθ1 . 1 ¡ α. se dice “la probabilidad de que el intervalo Ôθ1 .95 . Jerzy Neyman (Moldova 1894–1981) Definici´n 2. . Decimos entonces que el grado de confianza es del 95 %. (2. en donde θ1 y θ2 son estad´sticas (funciones ı de una muestra aleatoria) tales que ˆ P Ôθ 1 θ ˆ θ2 Õ 1 ¡ α. Esta situaci´n se ilustra en la Figura 2.118 2.

con distribuci´n de a o probabilidad completamente conocida. NÔµ. en algunos casos. Estimacion por intervalos 119 θ Figura 2. estandarizando. σ ¯ X ¡µ σß n NÔ0. encontrarse un intervalo de confianza para θ. . Xn una muestra aleatoria de una poblaci´n normal con media o 2 . . 1Õ podemos encontrar un valor zαß2 . aunque desconocido. θ Õ. A tal funci´n se le llama cantidad o pivotal. y a partir de ella puede. Encontraremos un intervalo de confidesconocida µ y varianza conocida σ anza para el par´metro µ. La idea general es encontrar una funci´n de la o muestra y del par´metro desconocido: q ÔX1 . . Como cada una de las variables de la muestra tiene a n 1 ¯ distribuci´n NÔµ. esta es la cantidad pivotal que nos ayudar´ a encontrar o a un intervalo de confianza para µ.6: contenga el valor de θ es 1 ¡ α”.7. . En esta situaci´n. Intervalo para la media de una distribuci´n normal o con varianza conocida Sea X1 . σ 2 Õ.´ 2. . 1Õ. Naturalmente el problema es encontrar θ1 y θ2 de tal forma que la igualdad (2. y el intervalo es el que cambia dependiendo de ˆ ˆ la muestra. . De modo que. Xn . y explicaremos a continuaci´n el procedio miento.1) se cumpla. En los siguientes p´rrafos mostraremos la forma de a resolver este problema en algunos casos particulares. . la media muestral X o o i 1 Xi tiene distribuci´n n 2 ßnÕ. De esta forma se entiende que θ es constante. . Para cualquier valor de α È Ô0.

ESTAD´ ISTICA en tablas de probabilidad normal est´ndar.25 Suponga que la vida promedio util. Para ello se toma una ´ nı . medida en horas. X   zαß2 σn Õ es un intervalo de confianza para el par´metro desconocido µ. tal que a e P Ô ¡zαß2 ¯ X ¡µ σß n zαß2 Õ f ÔxÕ 1 ¡ α. pues contiene a dicho par´metro a a con probabilidad 1 ¡ α. de focos ´ de 100 watts producidos por cierta compa˜´a. puede ser modelada mediante nı una variable aleatoria con distribuci´n normal de media µ y varianza σ 2 .2) n n ¯ ¯ De esta forma. (2. el intervalo ÔX ¡ zαß2 σn . Ejemplo 2.120 2. o a El objetivo es encontrar un intervalo de confianza para la vida promedio util µ de los focos producidos por esta compa˜´a. Proposici´n 2. v´ase la Figura 2. Observe que todas las expresiones que aparecen en este intervalo son conocidas.7. o Suponga que la desviaci´n est´ndar σ es conocida y es igual a 30 horas. Ilustraremos la aplicaci´n de esta f´rmula o o mediante un ejemplo.1 Un intervalo de confianza para la media µ de una diso tribuci´n normal con varianza conocida σ 2 est´ dado por la siguiente exo a presi´n o σ σ ¯ ¯ P Ô X ¡ zαß2 µ X   zαß2 Õ 1 ¡ α.7: Despejando la constante desconocida µ se obtiene el siguiente resultado. 1¡α αß2 αß2 ¡zαß2 zαß2 x Figura 2.

n mientras mayor informaci´n se tenga m´s preciso es el intervalo. es decir. 30 Õ 20 De esta forma.148Õ Ô1036. x20 arrojan una me´ dia muestral x de 1050 horas. 1063. 61.7. Si consideramos un nivel de confianza del ¯ 95 %. Primero. es decir. El resultado te´rico desconocida µ pero ahora con varianza desconocida σ o .025 1. n De aqu´ pueden obtenerse varias observaciones interesantes.96.148 horas. de la tabla de probabilidad normal se encuentra que zαß2 z0.65 25 Ô58. y entonces puede ahora calcularse el intervalo Ôx ¡ zαß2 ¯ σ σ . Estimacion por intervalos 121 muestra de 20 focos y mediante pruebas de laboratorio se determina la vida util de cada uno de ellos. x   zαß2 ¯ Õ n n Ô1050 ¡ 1. . α 0. .148.26 Un intervalo de confianza al 90 % para la media de una poblaci´n normal con σ 5 cuando se ha tomado una muestra de tama˜o o n 25 cuya media muestral es 60 est´ dado por a Ô x ¡ zαß2 ¯ σ σ . podemos afirmar que la vida promedio util de este tipo de focos es de 1050 ¨ 13. con una confianza del 95 %. 5 Õ 25 Intervalo para la media de una distribuci´n normal o con varianza desconocida Sea X1 .96 30 . 1050   1.148Õ. y por lo tanto la longitud del intervalo tambi´n crece.7. . 1050   13. . . e e Ejemplo 2. si 1 ¡ α aumenta.96 ¢ 20 Ô1050 ¡ 13. Xn una muestra aleatoria de una distribuci´n normal con media o 2 . ´ Observe que la longitud del intervalo aleatorio que aparece en (2.65Õ. Los resultados x1 .2) es 2zαß2 σ . . .65 5 . . la lonı gitud del intervalo decrece conforme el tama˜o de la muestra crece.852. es decir. si o a a la confianza requerida crece.05. 60   1.´ 2. x   zαß2 ¯ Õ n n Ô60 ¡ 1. entonces zαß2 crece. Adem´s.35. v´ase la Figura 2.

sin suponer que la varianza de la muestra es conocida. sin importar el tama˜o de la muestra y o n sobre todo. (2.2 Un intervalo de confianza para la media µ de una diso tribuci´n normal est´ dado por la siguiente expresi´n o a o ¯ PÔX ¡ tαß2 S n µ ¯ X   tαß2 S Õ n 1 ¡ α. Para a cualquier valor de α È Ô0. Proposici´n 2.122 2.3) .8: Despejando la constante desconocida µ de la ecuaci´n anterior se obtiene el o siguiente resultado. A partir de lo anterior podemos construir un intervalo de confianza para el par´metro a desconocido µ de forma an´loga al caso normal mencionado antes. Observe que esta es la o distribuci´n exacta de la variable T .8) tal que P Ô ¡tαß2 ¯ X ¡µ Sß n tαß2 Õ 1 ¡ α. ESTAD´ ISTICA fundamental en la siguiente derivaci´n es que la variable aleatoria o T ¯ X ¡µ Sß n tiene una distribuci´n t con n ¡ 1 grados de libertad. 1Õ podemos encontrar un valor tαß2 en tablas e de probabilidad de la distribuci´n t de n ¡ 1 grados de libertad (v´ase la o Figura 2. f ÔxÕ ¡αß2 ¡tαß2 tαß2 αß2 x Figura 2.

el intervalo ÔX ¡ zαß2 Sn . X   tαß2 Sn Õ es un intervalo de confianza para la media µ de una poblaci´n normal sin suponer la varianza o conocida.n¡1 . ¯ ¯ De esta forma. la variable aleatoria ¯ X ¡µ . Sß n Z tiene una distribuci´n aproximada normal est´ndar.´ 2. Para cualquier valor de α È Ô0. o e Intervalo aproximado para la media de una distribuci´n cualquiera o Sea X1 . . Xn una muestra aleatoria de una distribuci´n cualquiera con o media desconocida µ. Despejando nuevamente la constante desconocida µse obtiene ¯ PÔX ¡ zαß2 S n µ ¯ X   zαß2 S Õ n 1 ¡ α. A manera de resumen se tiene la siguiente tabla. Para mayor precisi´n se escribe tambi´n tαß2. . .7.e. . por el teorema central del l´ ımite. . Entonces. Se puede encontrar un o a intervalo aproximado de confianza para el par´metro desconocido µ siguiena do el procedimiento antes mencionado. Estimacion por intervalos 123 ¯ ¯ De este modo. Supongamos que el tama˜o n de la muestra es grande. X   zαß2 Sn Õ es un intervalo de confianza aproximado para el par´metro desconocido µ pues contiene a dia cho par´metro con probabilidad 1 ¡ α. el intervalo Ô X ¡ tαß2 Sn . n i. 1Õ podemos encontrar un valor zαß2 en tablas de probabilidad normal est´ndar a tal que P Ô ¡zαß2 ¯ X ¡µ Sß n zαß2 Õ 1 ¡ α. n 30. No lo hemos escrito de manera expl´ ıcita en la f´rmula anterior pero o o el valor tαß2 corresponde a la distribuci´n t con n ¡ 1 grados de libertad. Observe nuevamente que todas las a expresiones que aparecen en este intervalo son conocidas.

Deseamos encontrar un intervalo de confianza para estimar esta probabilidad desconocida.124 2. Distribuci´n normal con o varianza σ 2 desconocida ¯ P Ô X ¡ tαß2. Cualquier distribuci´n o Muestra grande. n 30 ¯ P Ô X ¡ zαß2 Intervalo aproximado: S ¯ µ X   zαß2 Sn Õ n 1 ¡ α. . es decir. pÕ. Supongamos que se realiza una sucesi´n de repeticiones independientes del experimento aleatorio y que nos o interesa observar la ocurrencia (valor uno) o no ocurrencia (valor cero) del evento de inter´s en cada uno de estos ensayos. en o ˆ ˆ p y VarÔpÕ ˆ pÔ1 ¡ pÕßn. Entonces o a X tiene distribuci´n binÔn. Sean X1 . pÔ1 ¡ pÕßnÕ. ˆ o Por lo tanto puede encontrarse en tablas de probabilidad de la distribuci´n o normal est´ndar un valor zαß2 tal que a P Ô¡zαß2 p¡p ˆ pÔ1 ¡ pÕßn zαß2 Õ 1 ¡ α. Xn los resule tados de estas observaciones. y presentamos a continuaci´n tres formas en que tal tarea puede o llevarse a cabo.4) La intenci´n es despejar el valor de p en las desigualdades que definen a este o evento. cada una de estas variables aleatorias tiene distribuci´n Bernoulli de par´metro p. Sea X X1  ¤ ¤ ¤ Xn . . .n¡1 S n µ ¯ X   tαß2. Por el teorema central del l´ ımite. . y sea p la e probabilidad de dicho evento.n¡1 Õ 1 ¡ α. Un estimador puntual para p es p X ßn. . donde E ÔpÕ la variable aleatoria p tiene una distribuci´n aproximada NÔp. Intervalo aproximado para una probabilidad o proporci´n desconocida o Sea A un evento de inter´s de un experimento aleatorio cualquiera. ESTAD´ ISTICA Hip´tesis o Distribuci´n normal con o varianza σ 2 conocida Intervalo para la media µ ¯ P Ô X ¡ zαß2 σ n µ ¯ X   zαß2 σ n Õ S n 1 ¡ α. (2.

es decir. observemos que el evento en cuesti´n puede o escribirse como Ô p ¡ p ˆ zαß2 pÔ1 ¡ pÕßnÕ.8. b) Otra alternativa para despejar el par´metro p en (2. Esto lleva a obtener el intervalo aproximado P Ôp ¡ zαß2 ˆ pÔ1 ¡ pÕßn ˆ ˆ p p   zαß2 ˆ pÔ1 ¡ pÕßnÕ ˆ ˆ 1 ¡ α. y en consecuencia o despejar el par´metro p de (2. Elevando al cuadrado y desarrollando se llega a la desigualdad Las ra´ ıces de esta ecuaci´n cuadr´tica en p son p1 o a pßÔ1   z 2 ßnÕ y p2 ˆ 2 ßnÕßÔ1   z 2 ßnÕ. y se nos pide ´ determinar cu´l de los dos experimentos se realiz´ con base en el n´mero a o u reportado. 2. Pruebas de hipotesis 125 a) Una simplificaci´n al problema planteado consiste substituir el denomio o ˆ ˆ nador pÔ1 ¡ pÕßn por la estimaci´n puntual pÔ1 ¡ pÕßn.4) produce el siguiente intervalo aproximado a con longitud mayor al presentado anteriormente ˆ P Ôp ¡ zαß2 ßÔ2 nÕ p p   zαß2 ßÔ2 nÕÕ ˆ 1 ¡ α. Tenemos entonces una situaci´n de dos hip´tesis o o H0 : “Dado” vs H1 : “Moneda”. Ôp   z2ßnÕßÔ1   z2 ßnÕÕ ˆ 1 ¡ α.8. la cual es v´lida para valores de p entre cero y uno.´ 2.4) es usar la desiguala dad 4pÔ1 ¡ pÕ 1. o bien se lanza una moneda cinco u veces y se registra el n´mero de cruces totales que se obtienen (suponiendo u que los lados de cada moneda se denominan cara y cruz). Consideremos una situaci´n en la que se efect´a o u s´lo uno de los siguientes dos experimentos aleatorios: se lanza un dado equio librado y se registra el n´mero obtenido. De a esta forma se tiene la estimaci´n pÔ1 ¡ pÕßn 1ßÔ2 nÕ. Por lo tanto la ecuaci´n cuadr´tica es no positiva ˆ o a Ôp   z cuando p1 p p2 . Supongamos que unicamente conocemos el resultado de uno u otro experimento. . c) Como una tercera alternativa. Pruebas de hip´tesis o Empezaremos ilustrando la idea b´sica de una prueba de hip´tesis mediante a o un ejemplo muy sencillo. se tiene entonces el intervalo de confianza no sim´trico e P ÔpßÔ1   z 2 ßnÕ ˆ p p2 Ô1   z 2 ßnÕ   pÔ¡2ˆ ¡ z 2 ßnÕ   p2 p ˆ 0.

De esta forma Ø0. Estas probabilidades mayores se encuentran remarcadas en la tabla anterior. ¿Qu´ decisi´n tomar para cualquier otro valor e o reportado? En la siguiente tabla se muestran las probabilidades de obtener los posibles n´meros bajo cada uno de los dos experimentos. 6Ù.9 (Tipos de error) o a) El error tipo I se comete cuando se rechaza H0 siendo ´sta verdadera. Igualmente. 1. Por razones naturales al conjunto C se le llama regi´n de rechazo de la hip´tesis H0 . ESTAD´ ISTICA en donde la primera hip´tesis es H0 y representa la situaci´n en la que o o el n´mero observado proviene del experimento de lanzar una dado. Estas dos formas de cometer errores al efectuar una toma de decisi´n en una prueba o de hip´tesis se formalizan en las siguientes definiciones. 3. u x H0 : “Dado” H1 : “Moneda” 0 0 1ß32 1 1ß6 5/32 2 1/6 10ß32 3 1/6 10ß32 4 1 ß6 5/32 5 1ß6 1/32 6 1ß6 0 Debe ser claro que una estrategia natural es decidir por el experimento que tenga mayor probabilidad de producir el valor reportado.126 2. por ejemplo. se decide por el dado pero pudo provenir del dado. y con u base en ´l debemos decidir si se llev´ a cabo un experimento o el otro. sin embargo no est´ libre de errores. 2. pero el resultado bien 1. 5. La regla de decisi´n o o o anterior es razonable. Como unica informaci´n sobre este experimento ´ o tenemos entonces un n´mero dentro del conjunto Ø0. 4. 3Ù. e o Observe que si el n´mero reportado es 0. e b) El error tipo II se comete cuando no se rechaza H0 siendo ´sta falsa. si a x 2. entonces con seguridad se realiu z´ el experimento de la moneda. e . 2. entonces con o u seguridad el dado fue lanzado. y la u segunda hip´tesis H1 representa lo correspondiente al experimento de lanzar o una moneda cinco veces. se decide por el experimento de la moneda. si x es factible que el resultado haya sido obtenido por la moneda. o Definici´n 2. en caso contrario se acepta H0 . Si se reporta el n´mero 6. entonces se rese llega a la siguiente regla de decisi´n: si x È C o chaza H0 .

´ 2. 2. En un problema de decisi´n de este tipo se desea encontrar una regla de decisi´n que sea o o razonable y que tenga errores menores. entonces la afirmaci´n o o o o “λ 5” es una hip´tesis simple. Pruebas de hipotesis 127 Para el ejemplo particular anterior. Si X tiene una distribuci´n NÔµ. 1Õ. la hip´tesis se llama o o o compuesta. σ 2 Õ. o Ejemplo 2. entonces la afirmao ci´n “p 0. 6Ù “Se usaron las monedas”Õ Naturalmente. en caso contrario. pÕ. eno o o o ı tonces la afirmaci´n “µ 0” es otro ejemplo de hip´tesis estad´stica. 5. Por otro lado.27 Si X tiene una distribuci´n binÔn.8. P Ô“Error tipo II”Õ P Ô“No rechazar H0 ” “H0 es falsa”Õ 5ß32   5ß32   1ß32   0 11ß32. entonces cambian las probabilidades de los errores. P Ô“Error tipo I”Õ P Ô“Rechazar H0 ” “H0 es verdadera”Õ P Ôx È Ø0. 4. 3Ù “Se us´ el dado”Õ o 0   1ß6   1ß6 1ß3. Si X tiene o o . Si X tiene una distribuci´n NÔµ.2” es una hip´tesis. entonces la afirmaci´n “µ 0” es otro ejemplo de hip´tesis simple. las probabilidades de estos errores pueden ser calculadas del siguiente modo. P Ôx È Ø1. si se cambia la regla de decisi´n modificando la regi´n de o o rechazo. Vamos ahora a estudiar pruebas de hip´tesis en el contexto de la estimaci´n de par´metros en las distribuciones o o a de probabilidad. Una hip´tesis es simple si especifica por completo la distribuo ci´n de probabilidad en cuesti´n.28 Si X tiene una distribuci´n expÔλÕ. Ejemplo 2.10 Una hip´tesis estad´stica o simplemente hip´tesis es una o o ı o afirmaci´n o conjetura acerca de la distribuci´n de una o mas variables o o aleatorias. Definici´n 2.

a la aceptaci´n de la o hip´tesis nula cuando ´sta es falsa recibe el nombre de error tipo II. Si X tiene una distribuci´n χ o una hip´tesis compuesta. o o Tanto la hip´tesis nula (H0 ) como la hip´tesis alternativa (H1 ) pueden ser o o simple o compuesta. y a la probabilidad de cometer este primer tipo de error se le denota por la letra α. entonces “λ 20” es una hip´tesis compueso o 2 ÔnÕ. y compuesta vs compuesta. compuesta vs o simple. simple vs compuesta. De este modo tenemos cuatro diferentes tipos de contraste de hip´tesis: simple vs simple. Definici´n 2.128 2. o o Como hemos mencionado. Al rechazo de la hip´tesis nula cuando ´sta es verdadera o e se le conoce como error tipo I. o En general. o H0 : Ôhip´tesis nulaÕ vs H1 : Ôhip´tesis alternativaÕ. En cambio. Estas definiciones de errores se resumen en la siguiente tabla. H0 cierta Rechazar H0 Eror tipo I probabilidad α Decisi´n o correcta H0 falsa Decisi´n o correcta Error tipo II probabilidad β No rechazar H0 La informaci´n para obtener una regla de decisi´n que nos lleve a rechazar o o o no rechazar un hip´tesis estad´ o ıstica provendr´ de una muestra aleatoria de a . contrastaremos dos hip´tesis de acuerdo al siguiente esquema y o notaci´n. y a la o e probabilidad de cometer este segundo tipo de error se le denota por la letra β. al tomar una decisi´n de este tipo se corre el riesgo o de cometer errores. ESTAD´ ISTICA una distribuci´n PoissonÔλÕ.11 Una prueba de hip´tesis es una regla para decidir si se o o acepta la hip´tesis nula o se rechaza en favor de la hip´tesis alternativa. entonces “n 5” es otro ejemplo de ta.

posiblemente la decisi´n de rechazar o no o o rechazar tambi´n cambie. Definici´n 2. se le llama tama˜o n de la regi´n cr´tica. Cuando H0 es cierta. Si la o informaci´n de la muestra cambia. 1Õ. ¯ esto es. σß n . Por lo tanto NÔµ. σ 2 ßnÕ y por lo tanto ¯ X ¡ µ0 N Ô0. σ ¯ X ¡µ σß n N Ô0. Pruebas de hipotesis 129 la distribuci´n de que se trate. Prueba acerca de la media de una distribuci´n normal o con varianza conocida Sea X1 . Xn una muestra aleatoria de una poblaci´n normal con media o ¯ desconocida µ y varianza conocida σ 2 . Sabemos que X tiene distribuci´n o 2 ßnÕ. cuando µ es efectivamente µ0 . . . esto es α. Deseamos contrastar las hip´tesis u o H0 : µ µ0 vs H1 : µ µ0 . El problema es encontrar una regla para decidir cu´ndo rechazar H0 en favor a de H1 con base en los datos de la muestra aleatoria. . sino simplemente que es e consistente con los datos de la muestra aleatoria y la regla de decisi´n. Sea µ0 un n´mero real particular. . tenemos que X N Ôµ0 . A esta probabilidad se le conoce tambi´n con el nombre o ı e de nivel de significancia. 1Õ. Observe adem´s que al aceptar una hip´tesis o a o no se afirma que ´sta sea absolutamente cierta. podeo mos ahora mostrar la forma en la que se pueden encontrar algunas reglas de decisi´n para ciertas pruebas de hip´tesis en estad´ o o ıstica. o o ı o y a la probabilidad de cometer el error tipo I.12 Se le llama regi´n cr´tica a la regi´n de rechazo de H0 .´ 2.8. Antes de presentar algunas pruebas de hip´tesis e o particulares mencionaremos algunos t´rminos adicionales que se usan en e estos procedimientos. Habiendo establecido las ideas principales y la notaci´n que usaremos.

En la siguiente tabla se muestra resumida la informaci´n de esta prueba. y su valor esperado µ0 cuando H0 es cierta. en donde α lo determina la persona que lleva a cabo la prueba de hip´tesis. Llevar a o cabo esta prueba de hip´tesis consiste en usar los datos de la muestra para o zαß2 . Es entonces razonable rechazar H0 cuando la variable Z sea grande. en encontrar el valor de Z.1 . n f ÔxÕ αß2 αß2 ¡zαß2 zαß2 x Regi´n de rechazo o Figura 2. Es por ello que k. entonces se rechaza H0 . para cierta tomamos como criterio de decisi´n rechazar H0 cuando Z o constante k. o t´ ıpicamente α 0. ESTAD´ ISTICA ¯ X ¡µ0 ¯ La estad´ ıstica Z es una medida natural de la distancia entre X.9. Este valor zαß2 es precisamente e la constante k buscada pues con ello se logra que la regi´n de rechazo sea o de tama˜o α. si resulta que Z caso contrario no se rechaza H0 .9: A la variable aleatoria Z se le llama la estad´ ıstica de la prueba. ¿C´mo encontramos el n´mero k? En una tabla de la distribuo u ci´n normal podemos encontrar un valor zαß2 tal que P Ô Z o zαß2 Õ α.130 2. V´ase la Figura 2. o .9. σß n un estimador de µ. y la prueba se denomina prueba de dos colas pues la regi´n de rechazo consta de las dos o colas de la distribuci´n normal que se muestran en la Figura 2.

23935. Vamos a comprobar la f´rmula que aparece en la tabla anterior acerca del o µ0 . 13292. 20320. 22601. 20930. 17421. 21982. µ1 σ n σ n µ0 .´ 2. Calcularemos la error tipo II.29 En ciertas zonas de la ciudad y durante varios a˜os se ha n calculado el pago por el consumo de agua suponiendo un consumo promedio de 20. 19162. Supondremos un modelo normal para el consumo de agua con o media desconocida µ y varianza conocida σ 2 Ô2000Õ2 . Sea µ1 cualquier n´mero tal que µ1 u probabilidad del error tipo II dado que el verdadero valor de µ es µ1 . ¿Debe cambiar el consumo promedio mensual estimado para el c´lculo de los pagos o pera manecer igual? Suponga σ 2000. se han medido los consumos mensuales de 15 casas obteni´ndose e los siguientes resultados: 23456. 19095. Soluci´n. σß n n µ1 ” Õ Õ Ejemplo 2. 18788. Los datos proporcionados corresponden a los valores de una muestra aleatoria de tama˜o 15. y haciendo el promedio de estos valores se obtiene una n . Llevaremos a cabo la prueba de hip´tesis o H0 : µ 20000 vs H1 : µ 20000. 25073.000 litros mensuales en cada casa. (prueba de dos colas) α ΦÔzαß2   µ0ß¡µ1 Õ ¡ ΦÔ¡zαß2   µ0ß¡µ1 Õ. 22371. 18325. Pruebas de hipotesis 131 Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o Error tipo I: Error tipo II: H0 : µ µ0 vs H1 : µ µ0 ¯ X ¡µ0 Z σß n Z zαß2 . Para determinar si tal cantidad ha cambiado.8. β Ôµ 1 Õ P Ô “No rechazar H0 cuando µ PÔ Z zαß2 µ µ1 Õ ¯ X ¡ µ0 PÔ zαß2 µ µ1 Õ σß n σ σ ¯ X µ0   zαß2 P Ô µ0 ¡ zαß2 µ µ1 Õ n n ¯ µ0 ¡ µ1 µ0 ¡ µ1 X ¡ µ1 P Ô ¡zαß2   zαß2   σß n σß n σß n µ0 ¡ µ1 0 ΦÔzαß2   Õ ¡ ΦÔ¡zαß2   µσß¡ µ1 Õ. 21442.

2 ¡ 20000 2000ß 15 1.10: . Puede tambi´n considerarse la prueba H0 : µ e µ0 contra H1 : µ µ0 llamada prueba de cola inferior pues la regi´n de rechazo consta de la cola o izquierda de la distribuci´n normal como se muestra en la Figura 2. Se o ¯ rechaza la hip´tesis H0 s´lo cuando los datos de la muestra son tales que X o o se encuentra muy a la izquierda de µ0 .10. (prueba de cola inferior) α ¡ © 1 ¡ Φ ¡zα   µ0ß¡µ1 . ESTAD´ ISTICA 20546. µ1 µ0 σ n f ÔxÕ α ¡zα Regi´n de rechazo o x Figura 2.2.65. Por otro lado. Como no se cumple la condici´n o ı o Z zαß2 .0577. de la tabla de probabilidades de la distribuo ci´n normal se encuentra que zαß2 1.132 ¯ media muestral X valor Z 2. Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o Error tipo I: Error tipo II: H0 : µ µ0 vs H1 : µ µ0 ¯ X ¡µ0 Z σß n Z ¡zα . la estad´stica de prueba Z cae fuera de la regi´n de rechazo y por lo tanto no se rechaza la hip´tesis H0 . no existen evidencias o para afirmar que el consumo de agua por casa en la zona de estudio haya cambiado. La estad´stica de prueba toma entonces el ı ¯ X ¡ µ0 σß n 20546.1. es decir. tomando α 0.

f Ôx Õ α zα Regi´n de rechazo o x Figura 2. Xn una muestra aleatoria de una distribuci´n noro mal con media desconocida µ.11: Prueba acerca de la media de una distribuci´n normal o con varianza desconocida Sea nuevamente X1 .´ 2. nos interesa nuevamente encontrar e una regla de decisi´n para llevar a cabo los siguientes tipos de pruebas de o . Se rechaza la hip´tesis H0 s´lo cuando o o ¯ la muestra provee evidencia de que X se encuentra muy a la derecha de µ0 . Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o Error tipo I: Error tipo II: H0 : µ µ0 vs H1 : µ µ0 ¯ X ¡µ0 Z σß n Z zα . Dado un valor num´rico para la constante µ0 . pero ahora con varianza desconocida σ 2 .11. y la regi´n de o rechazo se presenta en la Figura 2. µ1 µ0 . . . Pruebas de hipotesis 133 Las caracter´ ısticas de la prueba H0 : µ µ0 contra H1 : µ µ0 llamada prueba de cola superior se muestran en la siguiente tabla.8. (prueba de cola superior) α¡ © Φ zα   µ0 µ1 σ n ¡ ß . . .

µ0 . ESTAD´ ISTICA El resultado te´rico que hemos usado antes es que la variable aleatoria o T tiene una distribuci´n t con n ¡ 1 grados de libertad. Los detalles de la prueba se encuentran en el recuadro siguiente y la regi´n de rechazo se muestra gr´ficamente en la Figura 2. (prueba de dos colas) α F Ôtαß2. µ0 . v´ase la Figura 2. o 2 es la varianza muestral S S2 n¡1i 1 n ô ¯ ÔXi ¡ X Õ2 .12.n¡1   µ0ß¡µ1 Õ ¡ F Ô¡tαß2. o a Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o Error tipo I: Error tipo II: H0 : µ µ0 vs H1 : µ µ0 ¯¡ 0 t Xß µn S t tαß2.n¡1 .n¡1 corresponde a aquel valor real tal que el ´rea bajo la u funci´n de densidad de la distribuci´n t con n ¡ 1 grados de libertad a la o o derecha de ese valor es αß2.n¡1   µ0ß¡µ1 Õ. 1 El razonamiento para resolver este problema es completamente an´logo al a realizado en la secci´n anterior. s´lo que ahora en lugar de usar la diso o tribuci´n normal se usa la distribuci´n t. la prueba H0 : µ o o µ0 vs H1 : µ µ0 . Sß n µ0 . recordemos. se denomina prueba de dos colas y nuevamente es razonable rechazar la hip´tesis nula H0 cuando la diferencia entre µ y µ0 es o grande. 2. en donde.134 hip´tesis o H0 : µ H0 : µ H0 : µ µ0 vs H1 : µ µ0 vs H1 : µ µ0 vs H1 : µ ¯ X ¡µ . a El n´mero tαß2. Por ejemplo. S n S n para µ1 µ0 . e El error tipo I lo establece la persona que lleva a cabo la prueba y el error tipo II puede calcularse de manera an´loga al caso cuando la varianza es a .12.

n¡1 ¯ X ¡ µ1 µ0 ¡ µ1 µ0 ¡ µ1 tαß2.8.n¡1 tαß2.n¡1 x Regi´n de rechazo o Figura 2.n¡1   Sß n Sß n Sß n µ0 ¡ µ1 µ0 ¡ µ1 Õ ¡ F Ô¡tαß2.n¡1 µ S n ¯ X µ1 ” Õ µ1 Õ P Ô µ0 ¡ tαß2.n¡1 P Ô ¡tαß2. .12: conocida. Sea µ1 cualquier n´mero real distito de µ0 . Pruebas de hipotesis 135 f ÔxÕ αß2 αß2 ¡tαß2.n¡1   F Ôtαß2.n¡1 µ µ1 Õ tαß2.n¡1   µ0   tαß2.n¡1   S ß n Õ. Calcularemos la u probabilidad del error tipo II dado que el verdadero valor de la media es µ1 .´ 2. Comprobaremos ahora la f´rmula del error tipo II para la prueba o de dos colas. β Ôµ 1 Õ P Ô “No rechazar H0 cuando µ PÔ t PÔ ¯ X ¡ µ0 Sß n tαß2. Sß n S n µ µ1 Õ Õ en donde F es la funci´n de distribuci´n t con n ¡ 1 grados de libertad. La o o µ0 vs H1 : µ µ0 se llama nuevamente prueba de cola prueba H0 : µ inferior y tiene las siguientes caracter´ ısticas.

S n Ejemplo 2. µ1 µ0 . 4. ¡5. La segunda hip´tesis indica o o que el medicamento s´ afecta la presi´n arterial.n¡1 .n¡1 . 0.n¡1   µ0ß¡µ1 Õ. La primera hip´tesis establece que el medicamento no influye significativao mente en la presi´n arterial de las personas. (prueba de cola inferior) α 1 ¡ F Ô¡tα. Se calcula entonces la diferencia entre la o primera medici´n de la presi´n y la segunda. ¡1.30 Se desea determinar si la aplicaci´n de un cierto medicao mento afecta la presi´n arterial sist´lica en el ser humano.n¡1   µ0ß¡µ1 Õ. se les mide la presi´n aterial. ¡3. ESTAD´ ISTICA Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o Error tipo I: Error tipo II: H0 : µ µ0 vs H1 : µ µ0 ¯¡ 0 t Xß µn S t ¡tα. despu´s se les o e aplica el medicamento y una vez que ´ste ha tenido efecto se mide muevae mente la presi´n de las personas. Supondremos que la diferencia calculada puede modelarse mediante una variable aleatoria con distribuci´n normal con media µ y varianza σ 2 desconoo cidas. µ1 µ0 S n µ0 vs H1 : µ µ0 se Y finalmente para la prueba de cola superior H0 : µ conocen los siguientes resultados. (prueba de cola superior) α F Ôtα. Los n´mero obtenidos fueron o o u los siguientes: 2. 2.136 2. Para ello se o o escogen al azar diez personas. Deseamos llevar a cabo la prueba de hip´tesis o H0 : µ 0 vs H1 : µ 0. 5. Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o Error tipo I: Error tipo II: H0 : µ µ0 vs H1 : µ µ0 ¯¡ 0 t Xß µn S t tα. Con los datos obtenidos ı o . 3. 0.

δ. 9. en donde δ es una constante. y de la tabla de la distribuci´n t encontramos que o o tαß2. la primera con media desconocida µ1 y varianza conocida σ1 . pero con distintos par´o a 2 metros. no existen evidencias para afirmar ı que el medicamento afecte la presi´n arterial de las personas. Xn2 dos muestras aleatorias independientes de dos poblaciones. Consideraremos primero el caso H 0 : µ1 ¡ µ2 δ vs H1 : µ1 ¡ µ2 δ. ambas con distribuci´n normal. o Prueba acerca de la diferencia entre las medias de dos distribuciones normales con varianza conocida 1 1 2 2 Sean X1 . La regla de decisi´n es rechazar H0 cuando t pero ello no sucede. Xn1 y X1 . .1. ¯ Denotaremos por X1 a la media muestral de la primera muestra. . . por lo tanto concluimos que con base en la muestra obtenida y la prueba estad´stica aplicada. .n¡1 1. .n¡1 .8. y entonces el valor de la estad´stica de la prueba es ı t x ¡ µ0 ¯ sß n 0. y la 2 segunda con media desconocida µ2 y varianza conocida σ2 .n¡1 . Tomaremos α 0. . δ. Pruebas de hipotesis podemos calcular la media y la varianza muestral x ¯ s 2 137 0.6712. tαß2.7888. Para llevar a cabo la prueba tenemos que comparar este valor con tαß2. . Mediante estas pruebas se puede decidir si las medias de las dos poblaciones normales difieren en la constante δ o en una cantidad diferente. Sabemos que X1 tiene distribuci´n ¯ X o .833. y por ¯ 2 a la media de la segunda muestra.7.´ 2. . Observe que el tama˜o de las muestras puede ser distinto. En esta secci´n encontraremos n o un criterio para llevar a cabo las siguientes pruebas de hip´tesis o H 0 : µ1 ¡ µ2 H 0 : µ1 ¡ µ2 H 0 : µ1 ¡ µ2 δ vs H1 : µ1 ¡ µ2 δ vs H1 : µ1 ¡ µ2 δ vs H1 : µ1 ¡ µ2 δ.

Es por ello que tomamos como criterio de decisi´n rechazar H0 o k. normal est´ndar podemos encontrar un valor zαß2 tal que P Ô Z a en donde α es el error tipo I. n1 n2 δ (prueba de dos colas) 2 σ1 n1 2 2 2 ΦÔzαß2   Ôδ ¡ δ1 Õß σ  n Õ ¡ΦÔ¡zαß2   Ôδ ¡ δ1Õß σ   σ Õ. 1Õ. y por lo tanto tiene distribuci´n NÔδ. n n 2 1 1 2 2 2 δ1 δ.138 2. La estad´ ıstica Z es nuevamente una medida natural de la distancia entre ¯ ¯ X1 ¡ X2 y δ. σ1 ßn1 Õ y X2 tiene distribuci´n NÔµ2 . σ2 ßn2 Õ. Calcularemos la probabilidad u . n 2 2 Este es el resultado que nos llevar´ a encontrar una regla para decidir cu´ndo a a rechazar H0 en favor de H1 . Entonces o ¯ ¯ X1 ¡ X2 NÔµ1 ¡ µ2 . cuando µ1 ¡ µ2 2 ßn   σ 2 ßn Õ. con base en los datos de la muestra aleatoria. Es entonces razonable rechazar H0 cuando la variable Z sea grande. esto es. para cierta constante k. 2 σ1 n1   σ2 Õ. Comprobaremos la f´rmula que aparece en la tabla anterior acerca del error o tipo II. Sea δ1 cualquier n´mero distinto de δ. En una tabla de la distribuci´n o cuando Z zαß2 Õ α. σ1 1 o 2 2 ¯ ¯ X1 ¡ X2 ¡ δ 2 σ1 n1 Z   2 σ2 n2 N Ô0. Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o Error tipo I: Error tipo II: H0 : µ1 ¡ µ2 δ vs H1 : µ1 ¡ µ2 2 2 σ1 ¯ ¯   σ2 Z ÔX1 ¡ X2 ¡ δÕß Z α zαß2 . ESTAD´ ISTICA 2 2 ¯ NÔµ1 . ¯ ¯ δ. Este valor zαß2 es la constante k buscada y con ello se logra que la regi´n de rechazo sea de tama˜o α. Los detalles de o n esta prueba se resumen en la siguiente tabla. tenemos que X1 ¡ X2 Cuando H0 es cierta.

los detalles se muestran en el siguiente cuadro.´ 2. Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o Error tipo I: Error tipo II: Y para la prueba H 0 : µ1 ¡ µ2 δ vs H1 : µ1 ¡ µ2 δ. n 2 2 2 δ1 δ. n1 n2 (prueba de cola inferior) 2 σ1 n1 1 ¡ ΦÔzα   Ôδ ¡ δ1 Õß   σ Õ. o . los detalles se muestran a continuaci´n.8. β Ôδ1 Õ P Ô “No rechazar H0 cuando µ1 ¡ µ2 PÔ Z zαß2 µ1 ¡ µ2 δ1 Õ ¯ 1 ¡ X2 ¡ δ ¯ X PÔ zαß2 µ1 ¡ µ2 2 2 σ1 n1 δ1 ” Õ δ1 Õ δ   zαß2 2 σ1 n1 2  σ n 2 2 P Ô δ ¡ zαß2   σ2 n2 2 µ1 ¡ µ2 δ1 Õ ¯ 1 ¡ X2 ¡ δ1 ¯ X δ ¡ δ1 δ ¡ δ1 P Ô ¡zαß2   zαß2   Õ σ σ σ σ σ  n  n  σ n n n n δ ¡ δ1 δ ¡ δ1 ΦÔzαß2   Õ ¡ ΦÔ¡zαß2   σ σ Õ. Pruebas de hipotesis 139 del error tipo II dado que el verdadero valor de la diferencia µ1 ¡ µ2 es δ1 . H0 : µ1 ¡ µ2 δ vs H1 : µ1 ¡ µ2 2 2 σ1 ¯ ¯   σ2 Z ÔX1 ¡ X2 ¡ δÕß Z α δ ¡zα. σ  σ n n n   n 2 1 1 2 2 2 2 1 1 2 2 2 2 1 1 2 2 2 2 1 1 2 2 2 2 1 1 2 2 2 2 σ1 n1   σ2 n 2 ¯ ¯ X1 ¡ X2 Para la prueba H 0 : µ1 ¡ µ2 δ vs H1 : µ1 ¡ µ2 δ.

y µ2 a la o media de la poblaci´n de hombres. o o Existen muchas otras pruebas para rechazar o no rechazar muy diversas hip´tesis estad´ o ısticas que el lector interesado puede localizar en textos como [3] y [11]. Con α 0. . en donde µ1 corresponde a la media de la poblaci´n de mujeres. (prueba de cola superior) 2 σ1 n1 ΦÔzα   Ôδ ¡ δ1 Õß   σ Õ. ESTAD´ ISTICA H0 : µ1 ¡ µ2 δ vs H1 : µ1 ¡ µ2 2 2 σ1 ¯ ¯   σ2 Z ÔX1 ¡ X2 ¡ δÕß n1 n2 Prueba: Estad´ ıstica de prueba: Regi´n de rechazo: o Error tipo I: Error tipo II: δ Z α zα . Para fines ilustrativos supondremos una varianza de 9 unidades en ambas poblaciones. Ejemplo 2.65.31 En una muestra aleatoria. mientras que 45 hombres terminaron la prueba en un promedio de 35 minutos.140 2. Con lo datos recabados la estad´stica de o ı la prueba toma el valor z x1 ¡ x2 ¡ δ ¯ ¯ 2 σ1 n1  σ n 2 2 2 -8. Esto a e concluye nuestro curso. es decir. las poblaciones de hombres y mujeres o muestran tiempos promedios diferentes para terminar la prueba escrita. ¿Hay alguna diferencia entre hombres y mujeres en el tiempo promedio real para concluir la prueba? Para contestar a esta pregunta podemos llevar a cabo la prueba de hip´tesis o H 0 : µ1 ¡ µ2 0 vs H1 : µ1 ¡ µ2 0. el tiempo promedio en el que 50 mujeres terminaron una prueba escrita fue de 30 minutos. o en la literatura especializada en el ´rea de inter´s.11 . Con esto concluimos nuestra breve exposici´n sobre pruebas de hip´tesis. Entonces z zαß2 y por lo tanto se rechaza la hip´tesis nula.10 se tiene que zαß2 1. n 2 2 2 δ1 δ.

Suponga que se tiene en operaci´n una sala de c´mputo con 100 como o putadoras. desde el punto de vista de uso o o a no uso del equipo. 1× y d) Registrar el n´mero de llamadas telef´nicas que llegan a un conu o mutador en un minuto dado. en un momento cualquiera del d´ ıa. b) Lanzar a un mismo tiempo tres monedas indistinguibles. Encuentre un espacio muestral para el experimento de observar la configuraci´n de m´quinas. c) Escoger un n´mero real al azar dentro del intervalo u despu´s elevarlo al cuadrado. ¿Es un espacio u muestral finito o infinito? 3. e Ö¡1. f ) Colocar al azar dos bolas indistinguibles en cuatro celdas numeradas. Encuentre un espacio muestral para el experimento aleatorio de observar el marcador final de un juego de f´tbol soccer. 141 . a) Lanzar una moneda tres veces. 2.Ap´ndice A e Ejercicios Espacio muestral y eventos 1. Determine un espacio muestral para cada uno de los siguientes experimentos aleatorios. e) Colocar al azar dos bolas distinguibles en cuatro celdas numeradas.

1. Ö0. Ac Õ. Demuestre que ÔA B B B B BÕ B A B A ÔA ÔA ÔB ÔA ÔB B c Õ. 5. . Para la demostraci´n use la validez del mismo resultado para dos conjuntos. C Õ. Proponga dos espacios muestrales para este experimento. Demuestre que A 14. a) Ω b) Ω c) Ω Ø0. Demuestre que si A 7. B. . . Ac Õ. Un experimento aleatorio consiste en lanzar un dado hasta que se obtiene un “6”. Demuestre las leyes distributivas: a) A b) A ÔB ÔB B Õc B Õc CÕ ÔA C Õ ÔA Ac Ac Bc. entonces A 8. 1Ù. entonces B c A Ac . BÕ ÔA B Õ ÔA C Õ. Ejercicios 4. Demuestre que A 16. B.142 A. Demuestre las leyes de De Morgan: a) ÔA b) ÔA 10. Õ. . B c Õ. B c Õ. Demuestre que si A B. Ø0. Demuestre que A 13.Ù. o 11. 2. Demuestre que A 15. 9. Determine un experimento aleatorio para los siguientes espacios muestrales. Enuncie y demuestre las leyes de De Morgan para tres conjuntos. Bc. Demuestre que A 12. Operaciones con conjuntos 6.

A B. 18. A B. Sean A Øx È R : x ¡ 2 gr´ficamente los conjuntos A. Compruebe gr´ficamente las siguientes propiedades b´sicas de la difea a rencia sim´trica. Muestre gr´ficamente los conjuntos A. À. yÕ È R2 : y x2 Ù. B ¡ A a y A△B. Ac . B c . Ac . A B. Muestre gr´ficamente los conjuntos Ac . Demuestre que las siguientes dos definiciones de la operaci´n diferencia o sim´trica son equivalentes. B. A ¡ B. Muestre 21. e a) A△B b) A△B 19. 20. Ω. ÔA△B Õ△C. A ¡ B. A B. 22. e a) A△ÔB△C Õ b) A△À c) A△Ω d) A△A e) A△Ac A. Encuentre y represente en el eje real los conjuntos: A B. A B. Considere los subconjuntos de n´meros reales A Øx È R : x2 u 1Ù y B Øx È R : x 0Ù. 17. B ¡ A a y A△B.143 a) A ¡ B b) A ¡ B A ¡ ÔA B Õ. a B ¡ A y A△B. yÕ È R2 : x2   y2 1Ù y B ØÔx. B c . Sean A ØÔx. 23. . ÔA B Õ ¡ B. 4Ù y B Øx È R : x ¡ 1 2Ù. Ac . A B. ÔA ¡ B Õ ÔB ¡ AÕ. Sean A Øx È R : x   1 2Ù y B Øx È R : x2 2Ù. A B. A ¡ B y B ¡ A. Demuestre que a) A b) ÔB ¡ C Õ ÔA B Õ ¡ ÔA C Õ. A ¡ B. ÔA B Õ ¡ ÔA B Õ. B. ÔA ¡ C Õ ÔB ¡ C Õ ÔA B Õ ¡ C. B c .

el 80 % son sensibles. 30. 3×. Si el 70 % de los hombres son feos. y Õ È R2 : y 1 ¡ xÙ ajenos? En caso negativo. B y C. Ellas. Suponga que A es el conjunto de ra´ ıces de la ecuaci´n cuadr´tica o a 0. Ejercicios 24.144 A. ¿Cu´ntos puntos en com´n tienen? a u . e a) Los tres proyectos son terminados a tiempo. sensibles y sinceras? 27. Demuestre que que si A B À. y el 50 % son formales. ¿Son los conjuntos A y B x2 ¡ x ¡ 2 ajenos? 31. 2 y 3 sean completados a tiempo. ıa o 32. A B. y Õ È R2 : y ¡x2 Ù. Sean A ØÔx. y B es el intervalo Ö0. Ac B. 29. ¿Cu´l es el porcentaje m´ a ınimo y m´ximo posibles de a hombres que son feos. u e) S´lo los proyectos A y C son terminados a tiempo. 25. Describa los siguientes eventos en t´rminos de A. A B. B c . Sean A. o c) S´lo uno de los proyectos es terminado a tiempo. b) S´lo dos proyectos son terminados a tiempo. o Conjuntos ajenos 28. Muestre gr´ficamente los conjuntos Ac . o d) Ning´n proyecto es terminado a tiempo. A ¡ B. B y C los eventos de que los proyectos 1. Ellos. entonces A Bc y B Ac . ¿Cu´l es el porcentaje m´ a ınimo y m´ximo posibles a de mujeres que son bonitas. Compruebe que los conjuntos A y B ¡ A son siempre ajenos. A B c y Ac B c son ajenos dos a dos. y Õ È R2 : 2x2   3y 2 6Ù y B ØÔx. y Õ È R2 : y e¡x Ù y ØÔx. respectivamente. Sean A y B dos conjuntos cualesquiera. Dibujar un diagrama de Venn podr´ ayudar a entender la situaci´n. ¿Son los conjuntos ØÔx. y el 70 % son sinceras. Compruebe que la colecci´n o de conjuntos: A B. a B ¡ A y A△B. el 60 % son fuertes. Si el 90 % de las mujeres son bonitas. Una compa˜´ constructora est´ llevando a cabo tres proyectos de nıa a manera independiente. fuertes y formales? 26.

¿Cu´ntos elementos tiene el conjunto ÐÓÓÓÓÓÓÑÓÓÓÓÓÓÒ? a A ¢ ¤¤¤ ¢ A n Probabilidad 41. Sean P1 y P2 dos medidas de probabilidad definidas sobre la misma clase de subconjuntos de Ω. b2 . Escriba expl´ ıcitamente al conjunto Ω ¢ Ω.145 33. 44. b. 1×. Demuestre que si A Producto Cartesiano 38. 1Ù. c2 Ù. a2 Ù. . Ø0. 37. Sean A Øa1 . entonces 2A 2B . Escriba expl´ ıcitamente a los doce elementos del producto Cartesiano A ¢ B ¢ C. Sea Ω ØaÙ. el reto consiste en encontrar o una justificaci´n matem´tica de ello. Compruebe que A1 y B son ajenos. B Øb1 . sin usar P ÔΩÕ 1. Compruebe que la definici´n de probabilidad cl´sica cumple con los o a tres axiomas de la probabilidad. Intuitivamente la afirmaci´n es evidente. 39. Demuestre que P ÔÀÕ 0. ¿Cu´ntas igualdades son necesarias verificar en general para comproa bar que n conjuntos son ajenos dos a dos? Conjunto potencia 35. 42. u αP1   Ô1 ¡ αÕP2 satisface los tres axiomas de la Demuestre que P probabilidad. Escriba expl´ ıcitamente al conjunto 2Ω . Sean A y B ajenos. b3 Ù y C Øc1 . B. Sea A Øa. Compruebe que la definici´n de probabilidad frecuentista cumple con o los tres axiomas de la probabilidad. ¿Qui´n es 2À ? e 36. Sea Ω 40. o a 34. Sea α un n´mero real en el intervalo Ö0. y sea A1 A. cÙ. 43.

0. a) Si P ÔAÕ b) Si P ÔAÕ c) Si P ÔAÕ 0. 46.2 . entonces A 0. Demuestre que 0 47. 0. B. 51. a) Si P ÔAÕ b) Si P ÔAÕ c) Si P ÔAÕ 0. entonces P ÔA Ac Õ 0. BÕ 0. d) Si P ÔAc Õ e) Si A B À. Demuestre que P ÔA A. Diga falso o verdadero. Demuestre que P ÔB eventos A y B. P ÔA B Õ P ÔA B Õ P ÔAÕ   P ÔB Õ ¡ 1. Justifique su respuesta en cada caso. 1ß2. BÕ P ÔB Õ ¡ P ÔAÕ. Sean A y B eventos ajenos tales que P ÔAÕ Encuentre a) P ÔA b) P Ô c) P ÔAc Ac Õ.3 y P ÔB Õ 2. B Õ. d) Si P ÔAÕ a) P ÔB ¡ AÕ c) Si P ÔAÕ b) P ÔA 1ß2. entonces P ÔAÕ P ÔAÕP ÔB Õ. Justifique su respuesta en cada caso.146 45. entonces P ÔAc Õ 0. entonces P ÔA 0. Diga falso o verdadero. 49. entonces P ÔAÕ . 0. P ÔA B c Õ. entonces A P ÔB Õ. entonces P ÔA 1ß2 y P ÔB Õ 0. 48. Justifique su respuesta en cada caso. B Õ. entonces P Ô BÕ B. 50. entonces P ÔA P ÔB Õ. BÕ BÕ 0. Diga falso o verdadero. B c Õ. Ejercicios ¡ AÕ BÕ P ÔB Õ P ÔAÕ ¡ P ÔA B Õ. 1ß2. d) P ÔA e) P ÔA△B Õ. para cualesquiera P ÔAÕ P ÔB Õ 0.

y se define como ÔA B Õ ¡ ÔA B Õ. Demuestre que la probabilidad de que los vol´menes queden u colocados apropiadamente de derecha a izquierda o de izquierda a derecha es 1ß60.147 52. ¿De cu´ntas formas distintas pueden dos equipos de f´tbol terminar a u en la clasificaci´n general de un torneo en donde compiten 20 equipos? o 59. 61. ¿Cu´ntas u a historias distintas de marcadores llevan a un marcador final donde hay 4 goles? 58. ¿De cu´ntas maneras diferentes pueden clasificarse los tres primeros a lugares de una carrera de 15 corredores ? B cÕ 1 ¡ P ÔAÕ ¡ P ÔB Õ   P ÔA B Õ. Esta es la probabilidad de que suceda exactamente uno de los eventos A y B. Diez personas votar´n por uno de tres candidatos. ¿De cu´ntas formas distintas pueden seis personas formarse en una a fila lineal? 56. ¿Cu´ntas diagonales se pueden trazar en un pol´ a ıgono convexo de n lados? No se considera que los lados sean diagonales. 54. . ¿Cu´nto vale la probabilidad de este evento? a 53. En un partido de f´tbol hubo 4 goles en el marcador final. 60. Demuestre que P ÔA△B Õ P ÔAÕ   P ÔB Õ ¡ 2P ÔA B Õ. a a) ¿De cu´ntas formas distintas pueden los votos ser registrados uno a despu´s de otro? e b) ¿De cu´ntas formas distintas pueden los votos ser registrados en a conjunto? 57. Demuestre que P ÔAc An´lisis combinatorio a 55. Recuerde que la operaci´n A△B es la diferencia sim´trica entre A y o e B. Una enciclopedia de 5 vol´menes es colocada en el librero de modo u aleatorio. La probabilidad de un cierto evento es tal que duplica la probabilidad de su complemento.

. . . . 2. el despido es a trav´s de un e beso. Demuestre que n k n k n¡k 1 k n¡k n ¢ ¢ ¢ ª n¡1 . ¿Cu´ntos saludos ha habido en total? a 65. ¿Cu´l es el a total de arreglos con los cuales un jugador puede participar en este juego? Si se establece que un jugador obtiene un segundo lugar si acierta unicamente a cinco de los seis n´meros seleccionados. Si se despiden mujer-mujer o mujer-hombre. Al final de una cena. Demuestre que 71. . 49Ù. En un popular juego de loter´ se pide adivinar los seis n´meros que ıa u a ser´n escogidos al azar dentro del conjunto Ø1. . ¿cu´ntos ´ u a segundos lugares puede haber para un arreglo dado de seis n´meros? u 68. ¿Cu´ntos equipos de 3 personas se pueden formar de un grupo de 5 a personas? 64. . Al final de una reuni´n de 10 personas. ¿Cu´ntos enteros positivos de a lo mas cinco d´ a ıgitos son divisibles por 2? ¿Cu´ntos hay que empiecen con el d´ a ıgito 1? 63. 2. ¿De u o cu´ntas formas distintas pudieron los equipos alternarse en anotar a para llegar a tal resultado? ¿Cree usted que todos estos resultados son igualmente probables? 69. La novela Rayuela del escritor argentino Julio Cort´zar contiene 56 a cap´ ıtulos que aparentemente pueden ser le´ ıdos en cualquier orden. ¿Cu´ntos e a despidos de cada tipo ha habido? Por supuesto. las dos personas que son marido y mujer no se despiden. Entre dos hombres el despido es a trav´s de un abrazo. . . Un cierto partido de f´tbol termin´ con un marcador de 4-4. ¿Cu´ntas distintas funciones existen definidas en el conjunto Ø1. ¿De cu´ntas formas distintas puede ser le´ esta novela? a ıda 67. . ´stas se despiden con un saludo o e de mano. .148 A. k k¡1 ª n ª . . . 2. Ejercicios 62. cuatro parejas (cada una de ellas compuesta por un hombre y una mujer) se despiden de la siguiente forma. kÙ a y con valores en el conjunto Ø1. 66. nÙ? ¢ ª 70.

149
¢

72. Demuestre que

n n¡1 73. Demuestre que k k construir el tri´ngulo de Pascal. a

¢ ª

n¡1 k

ª ¢

k 1 n . n k 1
ª

¢

ª

 

¢

n¡1 . Esta es la f´rmula para o k¡1

ª

74. ¿De cu´ntas formas distintas pueden cinco candidatos terminar en una a elecci´n? Suponga que es posible observar empates m´ltiples. o u 75. Debido a un error, 50 tornillos defectuosos fueron mezclados con 200 tornillos en buen estado. Si se venden 20 tornillos tomados al azar, ¿cu´l es la probabilidad de que k de ellos sean defectuosos? (0 k a 20). 76. ¿Cu´ntos n´meros binarios diferentes se pueden obtener al usar los a u siete d´ ıgitos 1010101 ? 77. ¿Cu´ntas “palabras” diferentes se pueden formar con todos los caraca teres (incluyendo repeticiones) de la palabra AMAR? 78. Cumplea˜os. Calcule la probabilidad de que en un conjunto de n pern sonas, al menos dos de ellas tengan la misma fecha de cumplea˜os. n Sugerencia: Considere el complemento del evento de inter´s. e 79. Encuentre el total de n´meros enteros de cuatro d´ u ıgitos sin repetici´n, o u u tomados del conjunto Ø0, 1, 2, . . . , 9Ù de tal manera que ning´n n´mero empiece con 0. ¿Cu´ntos de ellos son pares y cu´ntos son impares? a a 80. En una clase de 25 estudiantes hay 15 mujeres y 10 hombres. a) ¿De cu´ntas formas puede seleccionarse un comit´ de tres homa e bres y tres mujeres? b) ¿De cu´ntas formas puede seleccionarse un comit´ de seis estua e diantes? c) ¿De cu´ntas formas puede seleccionarse un comit´ de seis estua e diantes todos del mismo sexo? 81. ¿De cu´ntas formas diferentes se pueden colocar los n´meros 1, 2, 3, 4, 5 a u y 6 en las seis caras de un dado? Observe que originalmente las caras del dado son indistinguibles.

150

A. Ejercicios

82. Demuestre que #Ô2Ω Õ 2#Ω . Sugerencia: Use el m´todo de inducci´n e o sobre el valor de n, definido como la cardinalidad de Ω. 83. Tenemos n jugadores finalistas en un torneo de ajedrez. Para escoger al ganador se establece que cada jugador debe jugar contra cada uno de los otros finalistas. a) ¿Cu´ntas partidas se llevar´n a cabo? a a b) Suponiendo que no hay empates y que cada jugador gana un punto por cada juego ganado, ¿De cu´ntas formas distintas se pueden a asignar la totalidad de puntos en el conjunto de jugadores? c) ¿Cu´ntas configuraciones finales existen en donde haya un unico a ´ jugador con mayor n´mero de puntos? u 84. Demuestre que el n´mero m´ximo de regiones en las que n l´ u a ıneas rectas dividen un plano es 1   nÔn   1Õß2. 85. Sea An en n´mero m´ximo de regiones en los que n planos dividen el u a espacio. Demuestre que An 1 An   1   nÔn   1Õß2. 86. Demuestre que el n´mero m´ximo de regiones en los que n c´ u a ırculos n. dividen el plano es 2 87. Sea An en n´mero m´ximo de regiones en los que n esferas dividen el u a espacio. Demuestre que An 1 An   n2 ¡ n   2.

88. ¿Cu´ntos divisores diferentes tiene el n´mero 53 ¤ 74 ? a u

89. Se asignan 40 problemas para un examen de probabilidad. El examen consistir´ de 4 problemas escogidos al azar, y cada problema tendr´ un a a peso de 25 puntos. Si un alumno resuelve unicamente 20 de los pro´ blemas asignados, ¿Cu´l es la probabilidad de que el alumno obtenga a a) cero puntos? b) 25 puntos? c) 50 puntos? d) 75 puntos? e) 100 puntos?

151 90. ¿Cu´ntos subconjuntos podemos obtener de un conjunto de n elea mentos? Escriba expl´ ıcitamente todos los subconjuntos del conjunto Øa, b, c, dÙ. 91. Sea E el conjunto de vectores de Rn para los cuales alguna de sus coordenadas es cero. ¿Cu´ntas regiones conexas tiene el conjunto Rn ¡ a E? 92. ¿Cu´ntas configuraciones diferentes se pueden obtener en un tablero a de ajedrez despu´s de e a) la primera jugada del primer jugador? b) la primera jugada del segundo jugador? 93. Use el m´todo de inducci´n para demostrar el teorema del binomio: e o para cualesquiera n´meros reales a y b, y para cualquier entero n 1, u

Ôa   bÕ

n

n ô k 0

¢ ª

n n¡k k a b . k

94. En una sala de c´mputo hay seis computadoras numeradas del 1 al o 6. ¿De cu´ntas formas distintas pueden las seis computadoras estar a siendo usadas o no usadas? 95. ¿De cu´ntas formas posibles se puede ordenar el conjunto Ø1, 2, . . . , 2n  a 1Ù de tal forma que cada n´mero impar ocupe una posici´n impar? u o 96. ¿De cu´ntas formas posibles se puede ordenar el conjunto Ø1, 2, . . . , 2nÙ a de tal forma que cada n´mero par ocupe una posici´n par? u o 97. ¿Cu´ntas “palabras” diferentes podemos obtener usando todas las lea tras (incluyendo repeticiones) de la palabra “manzana”? 98. ¿Cu´ntas “palabras” diferentes podemos obtener usando todas las a s´ ılabas (incluyendo repeticiones) de la palabra “cucurrucuc´”? u 99. Sea n 1 un entero. ¿Cu´ntas soluciones enteras no negativas tiene a la ecuaci´n o a) x1   x2   ¤ ¤ ¤   xk n?

152 b) x1   x2   ¤ ¤ ¤   xk c) x1   x2   ¤ ¤ ¤   xk n? n?

A. Ejercicios

100. Sean n k dos enteros positivos. ¿Cu´ntos vectores con entradas a enteras no negativas Ôx1 , x2 , . . . , xk Õ satisfacen las restricciones 1 x1 x2

¤¤¤

xk

n?

101. Desarrolle la expresi´n Ôa   b   cÕ3 usando la f´rmula de coeficientes o o multinomiales (1.1) en la p´gina 25, y despu´s compruebe la f´rmula a e o directamente multiplicando el trinomio por si mismo. Probabilidad condicional e independencia 102. Sean A y B dos eventos independientes. Demuestre que a) Ac y B son independientes. b) A y B c son independientes. c) Ac y B c son independientes. 103. Sean A y B eventos independientes tales que P ÔAÕ 0.5. Encuentre a) P ÔA b) P Ô c) P ÔA Ac d) P ÔAc B Õ. B c Õ. B Õ. e) P ÔA f) P Ô g) P ÔA BÕ B Õ. B Õ. B c Õ. 0.1 y P ÔB Õ

Ac

B c Õ.

h) P ÔAc 0.5 y P ÔA

B c Õ.

104. Suponga que P ÔAÕ

0.6. Encuentre P ÔB Õ cuando

a) A y B son disjuntos. b) A y B son independientes. c) P ÔA B Õ 0.4.

105. Sea P una medida de probabilidad y B un evento con probabilidad positiva. Demuestre que la probabilidad condicional P Ô¤ B Õ satisface los tres axiomas de la probabilidad, es decir, cumple

Justifique su respuesta en cada caso. A2 A2 B Õ À. Diga falso o verdadero. P ÔAÕ. Diga falso o verdadero. Demuestre que 107. u b) P ÔA B Õ c) P ÔA B Õ P ÔB AÕ. P ÔA B1 ÕP ÔA B2 Õ. Suponga que P ÔB Õ p. 109. BÕ 1. . a) P ÔA B1 b) P ÔA1 A2 B Õ d) P ÔA1 c) P ÔA B1 A2 B Õ B2 Õ 111. Justifique su respuesta en cada caso.153 a) P ÔA B Õ b) P ÔΩ B Õ c) P ÔA1 0. a) P ÔA B Õ   P ÔAc B Õ b) P ÔA B Õ   P ÔA c) P ÔA A BÕ P ÔB A Bc Õ 1. 106. b) el conjunto Ω es independiente consigo mismo. P ÔAÕ. P ÔA1 B ÕP ÔA2 B Õ. Diga falso o verdadero. P ÔA1 B Õ  P ÔA2 B Õ cuando A1 y A2 son ajenos. a) El n´mero P ÔA B Õ nunca es cero. Justifique su respuesta en cada caso. 108. 110. 0. 1. P ÔAÕ. Justifique su respuesta en cada caso. Demuestre que a) el conjunto À es independiente consigo mismo. Diga falso o verdadero. a) P ÔΩ B Õ c) P ÔA AÕ b) P ÔÀ B Õ 1. B2 Õ P ÔA B1 Õ  P ÔA B2 Õ cuando B1 y B2 son ajenos. P ÔA1 B Õ   P ÔA2 B Õ cuando A1 P ÔA B Õ P ÔA P ÔC A B CÕ BÕ p3 .

Ejercicios 112. C independien- b) Para cualquier evento A. C independientes tes. c) sean ajenos pero no independientes. b) A y Ω son eventos independientes. 116. Sean A y B eventos independientes. ¿Cu´ntas igualdades son necesarias verificar para demostrar que n a eventos son independientes? Justifique su respuesta. c) A. bÕ Ô0. B independientes B. a) A. A independientes. Demuestre que a) A y À son eventos independientes. a) A. Calcule la probabilidad de que no ocurra ninguno de estos eventos. Justifique su respuesta en cada caso. 119. Sea A un evento cualquiera. B ajenos A. b) sean independientes pero no ajenos. B independientes b) A.154 A. Encuentre eventos A y B tales que a) sean independientes y ajenos. B independientes y B. B ajenos. bÕ b ¡ a. Diga falso o verdadero. Sean A y B eventos independientes tales que P ÔAÕ p1 y P ÔB Õ p2 . A. Definimos la probabilidad de un intervalo Ôa. Justifique su respuesta en cada caso. Demuestre que P ÔA BÕ 1 ¡ P ÔAc ÕP ÔB c Õ. 117. 114. 118. A es independiente con A. B independientes. Sean A y B eventos independientes y ajenos. Demuestre que forzosamente alguno de estos eventos tiene probabilidad cero. 1Õ como P Ôa. 113. Diga falso o verdadero. d) sean no ajenos y no independientes. A. 1Õ. Considere un experimento aleatorio con espacio muestral Ω Ô0. 115. .

155 120. Use la regla del producto para calcular la probabilidad de obtener bolas rojas en las tres primeras extracciones. ¿Cu´l es la probabilidad de que las bolas a sean de color negro? . 2 ´ 3. ¤¤¤ An Õ P ÔA1 ÕP ÔA2 A1 ÕP ÔA3 A1 ¤ ¤ ¤ P ÔAn A1 ¤ ¤ ¤ An¡1 Õ. . con id´ntica probabilidad. Una persona toma al azar. r b 123. Regla del producto. uno de los n´meros e u 1. El siguiente experimento se conoce como la urna de Polya. An eventos tales que P ÔA1 Compruebe que P ÔA1 ¤¤¤ An¡1 Õ 0. Compruebe que para cada n 1. u e ¿Cu´l es la probabilidad de que obtenga un total de 5? a Teorema de Bayes 124. Suponga que en una urna se tienen b bolas blancas y r bolas rojas. Despu´s suma el resultado de las tiradas del dado. A un mismo tiempo se extraen k bolas al azar y resulta que todas son del mismo color. A2 Õ ¤ ¤ ¤ 121. y luego tira un dado equilibrado tantas veces como indica el o n´mero escogido. o P ÔRn Õ r . La urna de Polya. Un experimento aleatorio consiste en seleccionar una bola al azar y regresarla a la urna junto con c bolas del mismo color. Suponga que en una urna se tienen b bolas blancas y r bolas rojas. Sean A1 . Un experimento aleatorio consiste en seleccionar una bola al azar y regresarla a la urna junto con c bolas del mismo color. . En una urna se encuentran b bolas de color blanco y n bolas de color negro. Sea Rn el evento “Se selecciona una bola roja en la n-´sima e extracci´n”. . Teorema de probabilidad total 122. . La urna de Polya.

y un “1” se distorsiona en un ”0” con probabilidad 0. Se escoge al azar un d´ ıgito binario para ser enviado a trav´s de un canal e de transmisi´n. Entonces u le pregunta al concursante si desea cambiar su decisi´n. Una vez que el concursante elige una puerta. a d) Monto de una reclamaci´n por accidente automovil´ o ıstico escogida al azar del conjunto de reclamaciones efectuadas a una compa˜´ nıa aseguradora. y antes de abrirla. b) N´mero de errores tipogr´ficos en una p´gina escogida al azar de u a a un libro.156 A. 1Õ. Considere el experimento aleatorio de escoger un n´mero ω al azar u dentro del intervalo unitario Ô0. Se le presentan a un concursante tres puertas cerradas detr´s de una de las cuales hay a un premio.2. c) Tiempo de servicio en una transacci´n escogida al azar realizada o por una persona en un cajero autom´tico. Suponga que cada resultado de este . 128. Encuentre la probabilidad de que a) se reciba un “0”. Determine en cada caso si la variable aleatoria en cuesti´n es discreta o o continua. b) se reciba un “1”. Ejercicios 125. El problema de las tres puertas (Monty Hall).1.6. Se escoge el “0” con probabilidad 0. El canal de comunicaci´n es ruidoso de modo o que un “0” se distorsiona en un “1” con probabilidad 0. El concursante debe adivinar la puerta que contiene el premio para ganarlo. Variables aleatorias 127. o 126. c) se haya enviado un “0” dado que se recibi´ un “0”. el presentador del concurso abre alguna de las puertas restantes y de la cual sabe que no contiene ning´n premio. ¿Cu´les son sus posible valores? a a) Tiempo de vida de una persona escogida al azar. y se escoge el o “1” con probabilidad 0. o d) se haya enviado un “1” dado que se recibi´ un “1”. ¿Qu´ debe o e hacer el concursante? Justifique su respuesta.4.

Calcule P ÔX 0Õ. P ÔX 0Õ.157 experimento se escribe en su expansi´n decimal como ω 0. 1 ¡ ω. . Considere el ejemplo del experimento aleatorio de lanzar un dardo en un tablero circular de radio uno. Considere un experimento aleatorio con espacio muestral equiprobable Ω Ø1. y P ÔX 2 4Õ. f Ôx Õ c Ô1   sen xÕ si x È Ö0. 130. 1Õ. P ÔZ 1ß2Õ y P Ô1ß3 Z 1ß2Õ.0x1 x2 x3 ¤ ¤ ¤ 129. P ÔY ´ P ÔAÕ Area X Õ. P ÔX 2 1Õ. 2. 0 otro caso. P ÔX   Y Funciones de densidad y de distribuci´n o 131. 0Õ. P ÔX 0Õ. 4ÙÕ y o P ÔX 3Õ en cada caso. Suponga aleatorias X Ôx. Encuentre el valor de la constante c para que la siguiente funci´n sea o de densidad. 2π ×. P ÔX 0Õ. 3. y Õ y y Z Ôx. . y Õ x2   y 2 . junto con las variables x. Grafique esta funci´n y calcule P ÔX È Ø2. e a) X Ôω Õ c) X Ôω Õ b) X Ôω Õ ω. Y Ôx. 10. 6Ù. P ÔX È ¿Cu´les son los posibles valores de X? Calcule P ÔX a Ø2.x1 x2 x3 ¤ ¤ ¤ o Determine en los siguientes casos el conjunto de valores de la variable aleatoria definida y clasifique ´sta como discreta o continua. 2π ×Õ. y Õ a que para cada regi´n A Ω cuya ´rea puede ser calculada se define o ´ ÔAÕßAreaÔΩÕ. 3. . 2. a) f ÔxÕ b) f ÔxÕ c x si x 1. 0 otro caso. x1 . P Ô2X ¡ 4 0Õ. Figura 1. 132. . 2. 0 otro caso. Encuentre el valor de la constante c para que f ÔxÕ sea una funci´n o de probabilidad. 4. c x2 si x 1. . Grafique f ÔxÕ y calcule P ÔX π Õ y P ÔX È Ö¡π. . Defina la variable aleatoria X ÔωÕ 2Ôω ¡ 3Õ. 3ÙÕ. . 5. 10. d) X ÔwÕ 0.15. . .

1 0 c 2 0.1 -1 0. X 2.4 2 0. Z X y W 2X ¡ 5. c sen x si x È Ö¡π.15 5 0. Sea X una variable aleatoria continua con funci´n de densidad o f ÔxÕ 1ß10 si ¡ k x 0 otro caso. ÕÕ.3 0.1 137. 0 otro caso. ¡1. Explique porqu´ no es posible encontrar un valor de la constante c e para que la siguiente funci´n sea de probabilidad o de densidad.5 136. para ¡ x . Grafique en cada caso. Sea X una variable aleatoria discreta con funci´n de densidad dada o por la tabla que aparece abajo. 2. 134.2 0. 4k . 135. Sea X una variable aleatoria discreta con funci´n de probabilidad dada o o por la tabla que aparece abajo. Calcule y grafique la funci´n de probabilidad de la variable Y o x f ÔxÕ -2 0. Encuentre el valor de c y grafique f ÔxÕ. 0 otro caso. Grafique f ÔxÕ y calcule P ÔX È Ô1.1 138. f ÔxÕ c e¡ x . Sea X una variable aleatoria discreta con funci´n de probabilidad dada o por la siguiente tabla. P ÔX 0Õ y P ÔX 2 1Õ. o a) f ÔxÕ b) f ÔxÕ c x si x ¡2.1 3 0.158 A.15 0 0. Calcule la funci´n de probabilidad de las siguientes variables aleatorias Y X 2. x -1 0 1 f ÔxÕ 0. Grafique f ÔxÕ. Grafique f ÔxÕ y calcule P ÔX 0Õ. 0. π ×. 1. Ejercicios 133. Encuentre el valor de la constante c para que la siguiente funci´n sea o de densidad. x f ÔxÕ -2 0.

x 1. 139. o f Ôx Õ ° ² 1 6 si x ß 0. u b) Calcule y grafique f ÔxÕ. Se extraen dos bolas al azar. Sea X una variable aleatoria con funci´n de distribuci´n F ÔxÕ como o o aparece abajo. 2. Encuentre y grafique la correspondiente funci´n de densidad f ÔxÕ. 2. una a la vez y sin reemplazo. 1. 141. Determine si la siguiente funci´n es de probabilidad. F ÔxÕ ° ² 0 d) Encuentre m tal que P Ô X ¡ 1 1ß2. Calcule adem´s o a P ÔX 2Õ y P Ô1 X 2Õ. c) Calcule P Ô¡1 X 3Õ.159 a) Determine el valor de la constante k y grafique f ÔxÕ. 2ß3 si x 2. 142. Sea X una variable aleatoria con funci´n de distribuci´n F ÔxÕ como o o aparece abajo. 140. ¿Es X discreta o continua? Grafique F ÔxÕ. Grafique la funo ci´n y justifique su respuesta. Una urna contiene cuatro bolas numeradas 1. P ÔX 2Õ y P ÔX mÕ 0Õ. . ± 0 otro caso. F ÔxÕ ° ² 0 si x x si 0 ± 1 si x 0. 1. 3 y 4. c) Calcule y grafique F ÔxÕ. Calcule adem´s o a P ÔX 1ß2Õ y P ÔX 1ß2Õ. x 2. d) Calcule P ÔX 6Õ. b) Calcule y grafique F ÔxÕ. P Ô3 a) Determine Ω. ¿Es X discreta o continua? Grafique F ÔxÕ. Encuentre y grafique la correspondiente funci´n de densidad f ÔxÕ. Sea X la variable aleatoria que denota la suma de los n´meros de las dos bolas seleccionadas. X 5Õ y P ÔX 6Õ. si x 1ß3 si 1 ± 1 si x 1.

1. . Determine si la siguiente funci´n es de probabilidad. Grafique la funci´n en cada caso y justifique su respuesta. otro caso. o o . 0 otro caso. f ÔxÕ 0 otro caso. 2x2 ß3 ¡ 2x   4ß3 si x È Ö0. Sea X una variable aleatoria con la siguiente funci´n de distribuci´n. a) Determine el valor de la constante c. 4. 147. 3. 1. 2×. Determine si cada una de las siguientes funciones es de densidad. 2xß9 si 0 x c. 145. Calcule P Ô0 X 10Õ. b) Calcule la funci´n de distribuci´n asociada. o a) f ÔxÕ b) f ÔxÕ 4xß5 si x È Ö0. . Encuentre y grafique adem´s la funci´n de distribuci´n o a o o F Ôx Õ. 144. 2. otro caso. Grafique la funo ci´n y justifique su respuesta. . 0 0 otro caso. Sea X una variable aleatoria con funci´n de densidad o f ÔxÕ cxe¡x 0 2 si x 0. Encuentre el valor de la constante c y grafique la funci´n f ÔxÕ. 3×. 2. Ejercicios 143. F ÔxÕ ° ² 1 ± ¡ Ô1ß2Õn 1 0 si n x n   1. Sea X una variable aleatoria continua con la funci´n de densidad o que aparece abajo. 146. otro caso. o f ÔxÕ ° ¢ ª ² 4 3 4 ± x Ô ß Õx Ô1ß4Õ4¡x si x 0. para n 0.160 A. o o Encuentre y grafique f ÔxÕ.

Es una caso particular de la distribuci´n Cauchy. 149. Calcule la esperanza de la variable aleatoria discreta X cuya funci´n o de probabilidad es a) f ÔxÕ ° ² 1 3 b) ß f Ôx Õ 1ß2 ± 0 1ß6 ± 0 ° ² 1 4 ß si x 0. Justifique su respuesta en cada caso. Construya una variable aleatoria X tal que u E ÔX Õ a. Compruebe adem´s que la esperanza de X no existe. Demuestre que esta funci´n es efectivamente una funo ci´n de densidad. . 1. 152. otro caso. 1. para 0 151. momentos 148. Sea a un n´mero fijo. para ¡ x . varianza. 153. o a Este es un ejemplo de una variable aleatoria continua que no tiene esperanza finita. si x ¡1. Sea X una variable aleatoria continua con la funci´n de densidad que o aparece abajo. x 1. . para x 0. Demuestre que f ÔxÕ es efectivamente una probabilidad de densidad y que la esperanza de X no existe. otro caso. 3. 2. Sea X una variable aleatoria discreta con la funci´n de probabilidad o que aparece abajo. 6xÔ1 ¡ xÕ. Diga falso o verdadero. 3. 150. otro caso. si x 2. f Ôx Õ ° ² xÔx   1Õ ± 0 1 si x 1. Este es un ejemplo de una variable aleatoria discreta que no tiene esperanza finita. o f ÔxÕ π Ô1   x2 Õ 1 . si x 0. Calcule la esperanza de la variable aleatoria continua X cuya funci´n o de densidad es a) f ÔxÕ b) f ÔxÕ e¡x .161 Esperanza. . .

3.s distintas con la misma varianza. nunca es negativa. puede ser cero. c) VarÔX Õ 155.162 a) La esperanza de una v. Calcule la media y varianza de la variable aleatoria X con funci´n de o probabilidad ° ² 1ß9 si x 0. 157. 154. Ejercicios b) No hay dos v. 1. para ¡ x . . cn . e) La varianza de una v. Sea X una variable aleatoria continua con funci´n de densidad f ÔxÕ o 1 ¡x .a.a.a.a. 156. nunca es negativa. puede ser cero. a) VarÔE ÔX ÕÕ b) E ÔVarÔX ÕÕ 0. . Demuestre que f ÔxÕ es efectivamente una 2e funci´n de densidad y compruebe que o a) E ÔX Õ 0.a. f ÔxÕ 2ß9 si x 3. A. 5.s distintas con la misma esperanza. 1. 2. E ÔX Õ. f ) No hay dos v. otro caso. d) La varianza de una v. Diga falso o verdadero. Justifique su respuesta en cada caso. 0. . 4. c) La esperanza de una v. Sea X la variable aleatoria constante c. 2. ± 0 otro caso. 158. VarÔX Õ. . Calcule la media y varianza de la variable aleatoria X cuya funci´n o de probabilidad es f Ôx Õ 0 Ô1ß2Õx 1 si x 0. 159. Demuestre que a) E ÔE ÔX ÕÕ b) VarÔVarÔX ÕÕ c.a. Compruebe que a) E ÔX Õ b) E ÔX n Õ 0.

Demuestre o que a) E ÔX Õ b) c) Ôn   1Õß2. a) E Ô¡X Õ b) c) ¡E ÔX Õ. . . Distribuci´n uniforme discreta o 163. 164. Sea X con distribuci´n uniforme en el conjunto Ø1. para 0 de densidad dada por f ÔxÕ θx x 1. 9. E ÔVarÔX ÕÕ VarÔE ÔX ÕÕ.163 b) E ÔX 2 Õ Xn 2. Õ es un par´metro. . . Encuentre el n-´simo momento de una variable aleatoria X con funci´n e o θ ¡1 . . 2. nÙ. Encuentre el error en la siguiente “demostraci´n” de la afirmaci´n de o o que la varianza de cualquier variable aleatoria es cero. Justifique su respuesta en cada caso. en donde θ È a Ô0. 0   Ô¡X ÕÕ VarÔX Õ   VarÔ¡X Õ VarÔX Õ   VarÔX Õ 2 VarÔX Õ. . . Se escogen completamente al azar y de manera independiente dos n´meros a y b dentro del conjunto Ø1. 162. ¿Cu´l es la probau a bilidad de que el cociente aßb sea menor a uno? . VarÔX Õ Ôn2 ¡ 1Õß12. n! para n par. E ÔX 2 Õ Ôn   1ÕÔ2n   1Õß6. . VarÔ¡X Õ ¡VarÔX Õ. d) E Ô c) VarÔX Õ Õ 160. VarÔ0Õ VarÔX 161. 2. Diga falso o verdadero. 10Ù.

1 ¡ pÕ. pÕ. Sea X una variable aleatoria con distribuci´n binÔn. Sea X una variable aleatoria con distribuci´n binÔn. Se lanza una moneda equilibrada 6 veces. npÔ1 ¡ pÕ. Demuestre que para x 0. . Ejercicios 165. 168. Sea X una variable aleatoria con distribuci´n BerÔpÕ. p. 170. 1. Sea X con distribuci´n binÔn. u .164 Distribuci´n Bernoulli o A. ¿Cu´les son los valores de n y p? a 169. para n pÔ1 ¡ pÕ. 1. pÕ tal que E ÔX Õ o 4 y VarÔX Õ 2. Demuestre que o la variable Y n ¡ X tiene distribuci´n binÔn. o P ÔX x   1Õ Ôn ¡ xÕ P ÔX Ô1 ¡ pÕ Ôx   1Õ p xÕ. 172. Verifique que o f ÔxÕ es efectivamente una funci´n de densidad. pÕ. Calcule la probabilidad de que cada cara caiga exactamente 3 veces. . Demuestre o que a) E ÔX Õ b) VarÔX Õ np. . 171. pÕ. Sea X una variable aleatoria con distribuci´n binÔn. n ¡ o 1. Se lanza una moneda equilibrada 2n veces. Verifique que o o f ÔxÕ es efectivamente una funci´n de densidad. Sea X una variable aleatoria con distribuci´n binÔn. Distribuci´n binomial o 166. Demuestre adem´s o a que a) E ÔX Õ b) E Ô c) Õ VarÔX Õ Xn p. pÕ. Calcule la probabilidad de que ambas caras caigan el mismo n´mero de veces. Proporcione o una explicaci´n probabil´ o ısta de este resultado. Esta expresi´n permite calcular las o o probabilidades de esta distribuci´n de una forma iterativa. . 167. se cumple la siguiente f´rmula.

165 173. Demuestre o que 0 VarÔX Õ E ÔX Õ. ¿Cu´l o a de los siguientes tres eventos es m´s probable que ocurra? a a) MHHMHM b) MMMMHM c) HMHMHM Distribuci´n geom´trica o e 175. b) VarÔX Õ Ô1 ¡ pÕßp2 . 2. Sea X una variable aleatoria con distribuci´n binÔn. y VarÔX Õ λ. Verifique que la o funci´n f ÔxÕ es efectivamente una funci´n de densidad. Se escoge una bola al azar. 176. se cumple la siguiente f´rmula. 1. se registra su color. Verifique o o que f ÔxÕ es efectivamente una funci´n de densidad y demuestre que E ÔX Õ λ. . 174. P´rdida de memoria. Considere una urna con 3 bolas negras y 5 bolas blancas. . y considerando la observaci´n de 6 nacimientos. Demuestre que o 177. 180. e ¿Cu´ntas extracciones en promedio se necesitan realizar hasta obtener a una bola negra por primera vez? Distribuci´n Poisson o 179. Esta expresi´n permite calcular las probabilidades Poisson de una forma iterativa. se cumple la siguiente propiedad llamada de p´rdida de memoria: e P ÔX a b X aÕ P ÔX bÕ. P ÔX x   1Õ Ôx   1Õ P ÔX λ xÕ. b 0. . Sea X una variable aleatoria con distribuci´n PoissonÔλÕ. . y despu´s se regresa a la urna. Demuestre o o o que para x 0. Demuestre que para cualesquiera a. . Sea X una variable aleatoria con distribuci´n geoÔpÕ. 178. Sea X una variable aleatoria con distribuci´n PoissonÔλÕ. . o o a) E ÔX Õ Ô1 ¡ pÕßp. 2. 1. . Sea X una variable aleatoria con distribuci´n e o geoÔpÕ. Suponiendo que es igualmente probable que nazca un hombre (H) o una mujer (M). Sea X una variable aleatoria con distribuci´n geoÔpÕ. pÕ.

182. Demuestre o que la probabilidad de que X tome un valor par es Ô1   e¡2λ Õß2. Sea X una variable aleatoria con distribuci´n bin negÔr. 185. se cumple la siguiente f´rmula. nÕ.166 A. o . K. 184. Sea X con distribuci´n hipergeoÔN. Demuestre o o o que para x 1. Distribuci´n hipergeom´trica o e 186. El laboratorio tiene capacidad para reparar hasta dos m´quinas por mes. Sea X una variable aleatoria con distribuci´n bin negÔr. Ejercicios 181. . Cuando se descomponen mas a de dos m´quinas. El n´mero de computadoras que fallan por mes en un laboratorio de u c´mputo tiene una distribuci´n Poisson con un promedio mensual de o o a λ 2 m´quinas descompuestas. pÕ. . o c) ¿Cu´l es el n´mero de computadoras con falla m´s probable en a u a un mes? Distribuci´n binomial negativa o 183. pÕ. Esta expresi´n permite calcular las probabilidades de esta distribuci´n de una forma o iterativa. o a) ¿Cu´l es la probabilidad de que en un mes cualquiera sea necea sario enviar m´quinas fuera del laboratorio para su reparaci´n? a o b) Responda al inciso anterior cuando se reduce la capacidad de reparaci´n del laboratorio a una computadora por mes. Sea X una variable aleatoria con distribuci´n bin negÔr. P ÔX xÕ Ô1 ¡ pÕ r   x ¡ 1 P ÔX x x ¡ 1Õ. las restantes se env´ fuera del laboratorio para su a ıan reparaci´n. y VarÔX Õ r Ô1 ¡ pÕßp2 . Verifique que f ÔxÕ es efeco tivamente una funci´n de probabilidad. Demuestre o que E ÔX Õ r Ô1 ¡ pÕßp. . pÕ. Verifique o o que f ÔxÕ es efectivamente una funci´n de densidad. Sea X una variable aleatoria con distribuci´n PoissonÔλÕ. 2.

Sea X con distribuci´n unifÔa. bÕ. Distribuci´n exponencial o 195. o 188. 193. Obtenga la distribuci´n de la variao o ble Y 10X ¡ 5. 196. bÕ tal que E ÔX Õ o y VarÔX Õ 3. Sea X con distribuci´n uniforme en el intervalo Ôa. e 192. bÕ. VarÔX Õ Ôb ¡ aÕ2 ß12. bÕ. 191. Sea X con distribuci´n expÔλÕ. Sea X con distribuci´n uniforme en el intervalo Ô0. Demuestre que o a) E ÔX Õ 1ßλ. 4 189. Sea X con distribuci´n uniforme en el intervalo Ôa. 1Õ. 1Õ. Verifique que o o f ÔxÕ es efectivamente una funci´n de densidad. Sea X con distribuci´n unifÔa. Demuestre que o a) E ÔX Õ b) Ôa   bÕß2. Demuestre que o E ÔX n Õ bn 1 ¡ an 1 Ôn   1ÕÔb ¡ aÕ . Demuestre que o el n-´simo momento de X es 1ßÔn   1Õ. Sea X una variable aleatoria con distribuci´n uniforme en el intervalo o Ô¡1. 194. Sea X con distribuci´n uniforme en el intervalo Ôa. . 0 si n es impar. bÕ.167 Distribuci´n uniforme continua o 187. Sea X con distribuci´n unifÔ0. 1Õ. Demuestre que la media y la mediana o de X coinciden. Encuentre los valores de a y b. Demuestre que E ÔX n Õ 1ßÔn   1Õ si n es par. 190. Verifique que f ÔxÕ es efectivamente o una funci´n de densidad. Sea X una variable aleatoria con distribuci´n expÔλÕ.

198. b) permanezca conectado mas de 10 minutos pero menos de una hora. P´rdida de memoria. λÕ. n ßλ 2 . 199. Sea X una variable aleatoria con distribuci´n e o expÔλÕ. Sea X una variable aleatoria con distribuci´n gammaÔn. ¿cu´ntos tienen un conexi´n superior a una a o hora? Calcule adem´s la probabilidad de que un usuario cualquiera a a) no permanezca conectado mas de 10 minutos. Distribuci´n gamma o 200. De mil usuarios. Sea X con distribuci´n expÔλÕ. Demuestre las siguientes propiedades de la funci´n gamma. λÕ. F Ôx   y Õ F ÔxÕ   F Ôy Õ ¡ F ÔxÕ F Ôy Õ. La distribuci´n exponencial es la unica o ´ distribuci´n continua que satisface esta propiedad llamada de p´rdida o e de memoria. Demuestre que o a) E ÔX Õ b) VarÔX Õ nßλ. Suponga que el tiempo que un usuario cualquiera permanece conectado a un servidor en una red de c´mputo se puede modelar como una o variable aleatoria con distribuci´n exponencial con media igual a 10 o minutos. 201. Sea X con distribuci´n gammaÔn. Verifique o o que f ÔxÕ es efectivamente una funci´n de densidad. y 0. Demuestre que para cualesquiera n´meros o u x. o a) ΓÔn   1Õ . 202. A. Ejercicios 197. n Γ Ôn Õ . c) E ÔX m Õ ΓÔm   nÕßÔ λm ΓÔnÕ Õ. y 0 se cumple u la igualdad que aparece abajo. Demuestre que para cualesquiera n´meros x. P ÔX x y X xÕ P ÔX y Õ.168 b) VarÔX Õ 1ßλ2 .

b) Demuestre que f ÔxÕ es una funci´n de densidad. Verifique que f ÔxÕ es efectivamente o una funci´n de densidad. b   1Õ g) B Ô1ß2. a b b B Ôa. bÕ. bÕ b) B Ôa. bÕ.169 b) ΓÔ2Õ ΓÔ1Õ π. b   1Õ. abßÔ Ôa   b   1ÕÔa   bÕ2 Õ. o Demuestre que X tiene una distribuci´n uniforme en el intervalo Ô0. 1ß2Õ. o c) Calcule E ÔX Õ y VarÔX Õ. con a b 1. 1ß2Õ a B Ôa. 205. Demuestre las siguientes propiedades de la funci´n beta. aÕ. 1. bÕ. Sea X una variable aleatoria con distribuci´n betaÔa. Distribuci´n beta o 203. 1ßa. . d) ΓÔ1ß2Õ c) ΓÔn   1Õ n! si n es entero. 1Õ. 206. d) B Ôa   1. o 207. a b π. bÕ e) B Ôa   1. Sea X con distribuci´n betaÔa. bÕ c) B Ô1. 1Õ B Ôb. 1ßb. Sea X con distribuci´n betaÔa. Demuestre que o a) E ÔX Õ b) VarÔX Õ aßÔa   bÕ. En este caso se dice que X tiene o una distribuci´n arcoseno. bÕ f ) B Ôa. o a) Calcule y grafique f ÔxÕ. b a B Ôa. Sea X con distribuci´n betaÔ1ß2. bÕ. bÕ. o 204. o a) B Ôa.

170 A. B Ôa   n. demuestre que la funci´n o o de densidad WeibullÔλ. x 1. 1. Sea X con distribuci´n betaÔa. es o o o F Ôx Õ 213. bÕ E ÔX n Õ . Sea X con distribuci´n betaÔa. αÕ. B Ôa. 1. Verifique que f ÔxÕ es efectivamente o una funci´n de densidad. αÕ es efectivamente una funci´n de densidad. Sea X con distribuci´n betaÔa. 212. bÕ Distribuci´n Weibull o 211. σ 2 Õ. Demuestre que cuando a o b 0. bÕ. bÕ. Demuestre que para cualquier entero o n 0. Ejercicios 0 y 208. 209. y VarÔX Õ 1 ¡ e¡ÔλxÕ 0 α si x 0. o 215. Demuestre que E ÔX Õ o 2. 210. σ µ. otro caso. x 1. Nuevamente mediante el cambio de variable uÔxÕ ÔλxÕα . σ 2 Õ. . la funci´n de distribuci´n de X toma la forma o o F ÔxÕ ° ² 0 ± 1 y 1 ¡ Ô1 ¡ x Õ 1 b si x si 0 si x 0. compruebe que la funci´n de acumulaci´n de la distribuci´n WeibullÔλ. Mediante el cambio de variable uÔxÕ ÔλxÕα . Sea X con distribuci´n NÔµ. la funci´n de distribuci´n de X toma la forma F ÔxÕ ° ² 0 ± xa 1 si x si 0 si x 0. — Distribuci´n normal o 214. Sea X con distribuci´n NÔµ. bÕ. Demuestre que cuando a o o o b 1.

10Õ. X 40Õ. 10Õ. Demuestre que o 0. Sea X con distribuci´n NÔ0. a 221.8666 . o variable X µ   σZ tiene distribuci´n NÔµ. Use la tabla de la distribuci´n noro o mal para calcular a) P ÔX b) P ÔX c) P Ô0 10Õ. σ 2 Õ.9154 . X 220. Demuestre que la variable Z ÔX ¡ o µÕßσ tiene distribuci´n normal est´ndar. 100Õ. Sea X con distribuci´n NÔµ. b) 1 ¡ ΦÔxÕ 0. 219. 1Õ. 25Õ. d) P ÔX 218. entonces la 2 Õ. con a 0. FX 2 ÔxÕ X 2 tiene una distribuci´n χ2 Ô1Õ. e) P Ô¡20 20Õ. σ 2 Õ. Use la tabla de la distribuci´n noro o mal para calcular a) P ÔX b) P ÔX c) P Ô0 10Õ. 0Õ. Sea X una variable aleatoria con distribuci´n NÔµ. y σ o a 0.171 216. Sugerencia: Para x o 2 P ÔX xÕ P Ô¡ x X x Õ. σ 217. Demuestre que o la variable Y aX   b. Sea X una variable aleatoria con distribuci´n NÔµ. 0Õ. a 222. Rec´ o a ıprocamente. X 10Õ. Demuestre que o la variable Y ¡X tambi´n tiene una distribuci´n normal. tambi´n tiene una distribuci´n e o normal. Encuentre los par´metros correspondientes. Sea X con distribuci´n NÔ10. σ 2 Õ. Encuentre e o los par´metros correspondientes. Sea X una variable aleatoria con distribuci´n NÔ0. Use la tabla de la distribuci´n normal para encontrar el valor de x tal o que a) ΦÔxÕ 0. demuestre que si Z tiene distribuci´n normal est´ndar. . X d) P ÔX e) P Ô¡10 30Õ.

Sea X con distribuci´n tÔnÕ. Compruebe adem´s que E ÔX m Õ 2m ΓÔ n a 2 para m 0. ¿qu´ porcentaje de ellos e se derramar´n? a d) Si los clientes reclaman por vasos servidos con 270 ml. y desviaci´n est´ndar σ 10 ml. o a a) ¿Qu´ fracci´n de los vasos ser´n servidos con m´s de 310 mililie o a a tros? b) ¿Cu´l es la probabilidad de que un vaso sea servido entre 290 y a 305 mililitros? c) Si el restaurant utiliza vasos de 320 ml. y VarÔX Õ n. Sea X con distribuci´n χ2 ÔnÕ. cuentre la funci´n de densidad de Y o 224. Verifique que f ÔxÕ es efectivamente una o funci´n de densidad. o 226. Una m´quina autom´tica despachadora de refresco en un restaurant a a est´ ajustada para llenar vasos de 300 ml en promedio. el llenado de los vasos no es enteramente exacto y a hay peque˜as fluctuaciones. El fabricante de la m´quina sabe que el n a llenado de los vasos se puede modelar como una variable aleatoria normal con media de 300 ml. 2 . Distribuci´n t o 228. Eno a X. Sea X con distribuci´n χ2 ÔnÕ. Demuestre que E ÔX Õ o VarÔX Õ 2n. Demuestre que E ÔX Õ o nßÔn ¡ 2Õ. o 229. 0. o menos. Sea X con distribuci´n tÔnÕ. 227. Debido a cuesa tiones mec´nicas.172 A. ¿cu´ntos de ellos reclamar´n? a a Distribuci´n ji cuadrada o 225. para n 2. y que   mÕßΓÔ n Õ. Compruebe que la distribuci´n χ2 ÔnÕ se reduce a la distribuci´n expÔ1ß2Õ o o cuando n 2. Compruebe que la correspondiente funo ci´n de densidad f ÔxÕ efectivamente lo es. Sea X una variable aleatoria con distribuci´n normal est´ndar. Ejercicios 223. de mil clientes.

Sea ÔX. En una urna hay cuatro bolas numeradas del 1 al 4.2 0. y Õ y demuestre que efectivamente se trata de una funci´n de densidad. Verifique que ambas son efectivamente funciones de distribuci´n. o b) Calcule y grafique las densidades marginales f ÔxÕ y f Ôy Õ.5 0. c) Calcule y grafique las distribuciones marginales F ÔxÕ y F Ôy Õ. Verifique que ambas son efectivamente funciones de densidad. y sea Y el n´mero de la segunda bola u extra´ ıda. o 231. Sea ÔX. o d) ¿Son X y Y independientes? 232. Sea X el n´mero e u de la primera bola extra´ ıda. xÞy 1 2 0 0. Verifique que ambas son efectivamente funciones de densidad. o b) Calcule y grafique las densidades marginales f ÔxÕ y f Ôy Õ. Se extraen al azar dos bolas. sin reemplazo.3 0. y Õ dada por la siguiente tabla.05 0 0. Y Õ. x Þy 1 2 -1 0.7 1 0 0.15 a) Grafique f Ôx. Verifique que ambas son efectivamente funciones de distribuci´n. y Õ o dada por la siguiente tabla. A partir de esta funci´n encuentre las funciones de probabilidad marginales de X y Y . Y Õ un vector aleatorio discreto con funci´n de densidad f Ôx. o d) ¿Son X y Y independientes? . Y Õ un vector aleatorio discreto con funci´n de probabilidad f Ôx.1 a) Grafique f Ôx. una despu´s de la otra.173 Vectores aleatorios 230. y Õ y demuestre que efectivamente se trata de una funci´n de densidad. c) Calcule y grafique las distribuciones marginales F ÔxÕ y F Ôy Õ. Encuentre la funci´n de probabilidad del vector aleatorio o o discreto ÔX.

c) Calcule y grafique las distribuciones marginales F ÔxÕ y F Ôy Õ. Verifique que ambas son efectivamente funciones de densidad. Y Õ c CovÔX. y Õ y demuestre que efectivamente se trata de una funci´n de densidad. Y Õ E ÔXY Õ ¡ E ÔX ÕE ÔY Õ. Y Õ b) CovÔX1   X2 . Y Õ un vector aleatorio continuo con funci´n de densidad f Ôx. Verifique que ambas son efectivamente funciones de distribuci´n. Demuestre las siguientes dos propiedades de la covarianza. y Õ y demuestre que efectivamente se trata de una funci´n de densidad. Esto comprueba que la covarianza es lineal en cada argumento. Y Õ. Ejercicios 233.174 A. y Õ o dada por la siguiente expresi´n. a) CovÔc X. o f Ôx. a) Grafique f Ôx. Verifique que ambas son efectivamente funciones de distribuci´n. o b) Calcule y grafique las densidades marginales f ÔxÕ y f Ôy Õ. y Õ e¡Ôx yÕ si x. o d) ¿Son X y Y independientes? Covarianza 235. c constante. CovÔX1 . Y Õ   CovÔX2 . y 0. Sea ÔX. demuestre que o CovÔX. a) Grafique f Ôx. Y Õ. c) Calcule y grafique las distribuciones marginales F ÔxÕ y F Ôy Õ. 236. o b) Calcule y grafique las densidades marginales f ÔxÕ y f Ôy Õ. 1Õ ¢ Ô¡1. Sea ÔX. . 0 otro caso. A partir de la definici´n de covarianza. o d) ¿Son X y Y independientes? 234. Y Õ un vector aleatorio continuo con distribuci´n uniforme en o el cuadrado Ô¡1. 1Õ. Verifique que ambas son efectivamente funciones de densidad.

o a) Evaluaci´n de un curso usando la siguiente escala: MB=Muy Bien.E. . y tambi´n de acuerdo a su posible escala de e medici´n. Clasifique cada una de las siguiente variables de acuerdo a si es cualitativa o cuantitativa. Sean X y Y dos variables aleatorias continuas con funci´n de densidad o conjunta dada por f Ôx. g) Uso o no uso de lentes de una persona. o f) Preferencia electoral por alguna de las siguientes propuestas pol´ ıticas: A. a e) Nivel de satisfacci´n de una persona al adquirir un producto. Coeficiente de correlaci´n o 239. y Õ 4xy si 0 x.175 237. d) Porcentaje de art´ ıculos defectuosos producidos en una f´brica. xÞy -1 1 -1 3/8 1/8 1 1/8 3/8 Compruebe que la covarianza entre X y Y es 1ß2. o B=Bien.F. 1. Variables y tipos de datos 240. Compruebe que la covarianza entre X y Y es cero. 238. NA=No Acreditado. S=Suficiente. h) Principal pa´ de visita para una persona que viaja al extranjero.D. b) N´mero de hijos de una persona.B. ıs i) Costo econ´mico en un accidente automovil´ o ıstico.C. y 0 otro caso. u c) Escolaridad de una persona. Sean X y Y dos variables aleatorias discretas con funci´n de probabio lidad conjunta dada por la siguiente tabla.

desviaci´n est´ndar. Mediante el uso de una calculadora genere diez n´meros al azar dentro u del intervalo unitario Ô0. Demuestre que n ô i 1 n ô i 1 Ôx i ¡ x Õ ¯ Ôxi ¡ xÕ2 ¯ Ö n¡1 1 0. 2Ù. Calcule la media. Calcule la media. Elabore adem´s a . Elabore adem´s a un histograma. Pregunte a diez personas sus estaturas. Calcule la media. varianza. 1Õ. n ô i 1 n ô i 1 245. moda. o a 244. varianza. 0. Registre todos estos datos y calcule la media. desviaci´n est´ndar y o a rango. mediana. varianza. Demuestre que s2 x2 ¡ i 247. mediana y moda o a aproximados del siguiente conjunto de datos agrupados. i 1 248. 9. desviaci´n est´ndar y rango. 2. desviaci´n est´ndar y rano a go del conjunto de datos Ø4. Demuestre que x2 ¡ n¯2 .176 Estad´ ıstica descriptiva A. varianza. 1. varianza. 242. Intervalo de clase 10 x 20 20 x 30 30 x 40 40 x 50 50 x 60 Frecuencia 4 3 6 5 5 249. ¡1. x i 1 ô Ô xiÕ2 ×. Encuentre el valor de c que minimiza la funci´n xÔcÕ o ¯ Ôxi ¡ cÕ2 . desviaci´n est´ndar. moda. mediana. Ejercicios 241. n i 1 n n ô 246. ¡4. moda. 243. mediana y moda o a aproximados del siguiente conjunto de datos agrupados. 4. mediana. Escriba estos datos y calcule la media. 2.

177 un histograma.
Intervalo de clase 0 x 5 5 x 10 10 x 15 15 x 20 25 x 30 30 x 35 35 x 40 Frecuencia 12 23 10 14 6 10 5

Muestras aleatorias y estad´ ısticas 250. Sea X1 , X2 , X3 una muestra aleatoria de la distribuci´n BerÔpÕ. Eno cuentre la distribuci´n de la estad´ o ıstica X X1   X2   X3 . 251. Sea X1 , . . . , Xn una muestra aleatoria de una poblaci´n con distribuo 2 Õ, en donde los par´metros µ y σ 2 son desconocidos. Diga ci´n NÔµ, σ o a si las siguientes variables aleatorias son estad´ ısticas. a) T1 b) T3 c) T5 4ÔX1   ¤ ¤ ¤   Xn Õ.
n i 1

d) T2 e) T4 f) T6

ÔXi ¡ Xi¡1 Õ2.

Xn .

ÔX1   ¤ ¤ ¤   Xn Õ ¡ µ. σ 2   X1   X2 . m´xØX1 , . . . , Xn Ù. a

252. Sea X1 , . . . , Xn una muestra aleatoria de una poblaci´n con distribuo 2 Õ. Encuentre la distribuci´n de la estad´ o ıstica ci´n NÔµ, σ o S Estimaci´n puntual o 253. Sea X1 , . . . , Xn una m.a. de una poblaci´n con funci´n de probabilidad o o ˆ BerÔpÕ. Calcule la esperanza y la varianza del estimador puntual p ¯ X. 254. Sea X1 , . . . , Xn una m.a. de una poblaci´n con funci´n de densidad o o expÔλÕ. Calcule la esperanza y la varianza de los siguientes estimadores para λ. ˆ a) λ1 X1   ¤ ¤ ¤   Xn . X1   ¤ ¤ ¤   Xn .

178 ˆ b) λ2 ˆ c) λ3
1 2

A. Ejercicios

ÔX1   X2 Õ.

¯ X.

Insesgamiento ˆ ˆ 255. Sean θ1 y θ2 dos estimadores insesgados para un par´metro θ, y sea a ˆ αθ1   Ô1 ¡ αÕθ2 es tambi´n un ˆ ˆ α una constante. Demuestre que θ e estimador insesgado para θ. ˆ ˆ 256. Sean θ1 y θ2 dos estimadores insesgados para un par´metro θ. Ena cuentre condiciones sobre las constantes k1 y k2 para que el estimador ˆ ˆ k1 θ1   k2 θ2 sea insesgado. 257. Sea X1 , . . . , Xn una m.a. de una poblaci´n con funci´n de densidad o o de probabilidad unifÔ0, θ Õ. Determine si los siguientes estimadores son insesgados para θ. ˆ ˆ ˆ ¯ ¯ b) θ2 2X. a) θ1 X. c) θ3 1 ÔX1   Xn Õ. 2 258. Sea X1 , . . . , Xn una m.a. de una poblaci´n con media conocida µ y o 2 desconocida. Demuestre que la siguiente estad´ varianza σ ıstica es un estimador insesgado para σ 2 , σ ˆ
2

1 ô ÔXi ¡ µÕ2. ni 1
n

259. Sea X1 , . . . , Xn una m.a. de una poblaci´n con media desconocida y o varianza σ 2 desconocida. Demuestre que la siguiente estad´ ıstica es un estimador insesgado para σ 2 , S2 n¡1i 1
n ô 1

¯ ÔXi ¡ X Õ2 .

260. Sea X1 , . . . , Xn una m.a. de una poblaci´n con media desconocida y o varianza finita σ 2 desconocida. Demuestre que la siguiente estad´ ıstica es un estimador insesgado para σ 2 , σ2 ˆ 2Ôn ¡ 1Õ 1
n 1 ô i 1

¡

ÔXi 1 ¡ Xi Õ2.

179 261. Sea X1 , . . . , Xn una m.a. de una poblaci´n con media µ y varianza o 2 desconocidas. Recuerde que la varianza muestral S 2 se ha definido σ n 1 ¯ 2 como sigue S 2 i 1 ÔXi ¡ X Õ . Demuestre que S no es un n¡1 estimador insesgado para σ. Modifique S para que sea insesgado. Su¡ gerencia: Ônσ21Õ S 2 χ2 Ôn ¡ 1Õ. 262. Sea X1 , . . . , Xn una m.a. de una poblaci´n con funci´n de densidad o o 2 ˆ NÔ0, θ Õ. Demuestre que la estad´ ıstica θ ÔX12   ¤ ¤ ¤   Xn Õßn es un estimador insesgado para θ. Compruebe adem´s que su varianza es a 2θ 2 ßn. M´todo de momentos e 263. Dada una muestra aleatoria de tama˜o n de una poblaci´n uniforme n o en el intervalo Ö0, a×, use el m´todo de momentos para encontrar un e estimador para el par´metro a. a 264. Sea X1 , . . . , Xn una muestra aleatoria con funci´n de densidad unio forme en el intervalo Ôa, bÕ. Obtenga los estimadores para a y b por el m´todo de momentos. e 265. Dada una muestra aleatoria de tama˜o n de una poblaci´n exponencial n o con par´metro desconocido λ 0, use el m´todo de momentos para a e encontrar un estimador del par´metro λ. a 266. Dada una muestra aleatoria de tama˜o n de una poblaci´n Poisson n o con par´metro desconocido λ 0, use el m´todo de momentos para a e encontrar un estimador del par´metro λ. a M´todo de m´xima verosimilitud e a 267. Sea X1 , X2 , . . . , Xn una muestra aleatoria de la distribuci´n BerÔpÕ. o Demuestre que el estimador m´ximo veros´ a ımil para el par´metro desa ¯ conocido p est´ dado por p X. a ˆ 268. Dada una muestra aleatoria de tama˜o n de una poblaci´n Poisson n o 0, use el m´todo de m´xima verosimilitud para e a con par´metro λ a encontrar un estimador del par´metro λ. a

180

A. Ejercicios

269. Sea X1 , . . . , Xn una m.a. de una poblaci´n con funci´n de probabilidad o o en donde p È Ô0, 1Õ es un par´metro. Use el m´todo de m´xima a e a verosimilitud para encontrar un estimador para p. 270. Sea X1 , . . . , Xn una m.a. de una poblaci´n con funci´n de densidad o o en donde θ È Ô0, Õ es un par´metro. Use el m´todo de m´xima a e a verosimilitud para encontrar un estimador para θ. 271. Sea X1 , X2 , . . . , Xn una muestra aleatoria de la distribuci´n uniforme o a ımiles en el intervalo Öa, b×. Justifique que los estimadores m´ximo veros´ para los par´metros a y b pueden ser a a ˆ y ˆ b m´ ØX1 , X2 , . . . , Xn Ù, ın m´x ØX1 , X2 , . . . , Xn Ù. a f Ôx Õ θxθ¡1 para 0 x 1, f ÔxÕ pÔ1 ¡ pÕx¡1 para x 1, 2, . . .

272. Sea X1 , X2 , . . . , Xm una muestra aleatoria de tama˜o m de la disn tribuci´n binÔn, pÕ. Justifique que los estimadores m´ximo veros´ o a ımiles para los par´metros n y p pueden ser a n ˆ y p ˆ m´x ØX1 , X2 , . . . , Xm Ù, a ¯ ßn. X ˆ

Estimaci´n por intervalos o 273. Se sabe que la vida en horas de un foco de 100 watts de cierta marca tiene una distribuci´n aproximada normal con desviaci´n est´ndar o o a σ 30 horas. Se tom´ una muestra al azar de 50 focos y result´ que o o la vida media fue de 1550 horas. Construya un intervalo de confianza del 95 % para el verdadero promedio de vida util de estos focos. ´ 274. Se realizan 20 pruebas de resistencia de un cierto material obteni´ndose e los siguientes datos: 2225, 2300, 2217, 2190, 2295, 2285, 2195, 2255, 2232, 2252, 2272, 2231, 2223, 2211, 2219, 2231, 2218, 2262, 2257, 2261. Construya un intervalo de confianza del 98 % para la resistencia media de este material, suponiendo una distribuci´n normal. o

con el siguiente conjunto de datos: 1. 1. 1.73.70. 1.62. 1.70 vs H1 : µ 1. y suponga σ 0. Las mediciones del n´mero de cigarros fumados al d´ por un grupo u ıa de diez fumadores es el siguiente: 5. Suponga que se desea llevar o a cabo la prueba de hip´tesis o H0 : θ 1 vs H1 : θ 2. n .75. 1. suponiendo que los datos provienen de una muestra tomada al azar de 1. Calcule las probabilidades de cometer los errores tipo I y II cuando la regi´n cr´ o ıtica (o regi´n de rechazo) est´ dada por el intervalo X 1. 1. 1. Suponga que se tiene una muestra aleatoria con funci´n de densidad o de probabilidad BerÔpÕ.64.83.55. ¿Qu´ tama˜o de muestra debe tomarse? e n Pruebas de hip´tesis o 276. Se cree que la estatura de cierta poblaci´n humana sigue una distribuo ci´n normal con media de 1. 20. 1. 10.66.69. 1.72. 1.5. 3. 1. Realice la prueba de hip´tesis o o H0 : µ 1.74. 1.81.59. Se desea obtener un intervalo de confianza al 90 % para p de tal forma que la longitud del intervalo sea a lo sumo 0.181 275. θ Õ.74.63.65. 1. 278. 1.65. Use un nivel de significancia del 10 %. 1. 5.77. 279. 4. 1.66. Considere cualquiera de las tres pruebas de hip´tesis para la media µ o de una poblaci´n normal con σ 2 conocida. 1.05. 1. Realice la prueba de hip´tesis o H0 : µ 10 vs H1 : µ 10.70 metros. Demuestre que en cualquier o caso la probabilidad de cometer el error tipo II tiende a cero cuando el tama˜o de la muestra n tiende a infinito. 4. 1. 8.60. 10. o a Pruebas para la media de una distribuci´n normal o con varianza conocida 277.10 .2 . Use un nivel de significancia del una poblaci´n normal con σ o 5 %. Suponga que se tiene una sola observaci´n X de una poblaci´n con o o distribuci´n uniforme en el intervalo Ô0.

18. 55. y la varianza muestral fue contenido. 68. 19. Por la falta de suficiente alimento. vs H1 : µ 600ml. 19. se cree que la longitud de cierta especie de peces en un lago ha decrecido de su promedio habitual que es de 20cm.2. El promedio fue x ¯ s2 5. y para un nivel de significancia del 10 % lleve a cabo la prueba de hip´tesis o H0 : µ 65 vs H1 : µ 65. y con un nivel de significancia del 10 % lleve a cabo la prueba de hip´tesis o H0 : µ 20cm vs H1 : µ 20cm.3.5.4. Con base en la muestra 62.3. 20.182 Pruebas para la media de una distribuci´n normal o con varianza desconocida A. 55. Una compa˜´ que produce cierto tipo de bebidas est´ utilizando una nıa a nueva maquinaria en el llenado de sus envases de 600ml. El n´mero de preguntas promedio contestadas correctamente en un u examen de 100 preguntas es de 65. Una escuela ofrece un curso de preparaci´n para presentar dicho examen y garantiza un resultado o promedio mayor para aquellas personas que toman el curso. 88. Ejercicios 280. 71. de resultados de personas que han presentado el examen despu´s de e haber tomado el curso. Con un nivel de significancia del 5 %. Se toman al azar o 100 envases llenados por la nueva m´quina y se mide con cuidado el a 601. 57. 17. 70. lleve a cabo la prueba de hip´tesis o H0 : µ 600ml.5. 281. . 282. 64. 97. 19. La nueva m´quina es m´s r´pida que las anteriores pero se desea saber si debido a a a a la rapidez no se pierde precisi´n en el llenado. 60.5ml.5. 18. 21. 20. 19. Con base en la muestra 20. 80.

Ù. 2. 1Õ. 2. . 1. 0. . 1. u ¿Puede usted escribir todos los arreglos? f ) Ω ØÔ2. 0. 1Õ. C3 . . 183 . e) Considere que las bolas tienen las etiquetas 1 y 2. ÀÕ. SAS.Ap´ndice B e Soluci´n a algunos ejercicios o Esta secci´n contiene algunas sugerencias de soluci´n a los ejercicios planteao o dos.. 0. ASS. ASS. AAS. AAS. 1. ´ Espacio muestral y eventos 1. . À. ÀÕ. 2Ù.. Ô1.Ù. 0Õ. Ø2Ù. 0Õ. À. ASA. 2Ù. Ô0. À. 0. 0. Ô0. Ö0. 2. ØAAA. Ô0. C4 Õ en donde cada coordenada Ci corresponde al conjunto de bolas que han sido depositadas en la celda i. . Considere el arreglo ÔC1 . Recuerde adem´s que los m´toıa a a e dos empleados o sugeridos para llegar a una soluci´n no son necesariamente o unicos. 1. Ô1. 1. 1. Ô1. Ô0. Ô0. . 0. El n´mero total de elementos en Ω es 16. 0Õ. SSS Ù. La o mayor´ de las gr´ficas han sido omitidas. À. ÔÀ. C2 . Ø0. . a) Ω b) Ω c) Ω d) Ω ØAAA. 0Õ. 1×. 0. 0. 2Õ. 1ÕÙ. SSS Ù. SAA. 0. Entonces Ω ØÔØ1. Para algunos ejercicios es necesario ser m´s expl´ a ıcito al dar una soluci´n o o al justificar una respuesta. considere por tanto que este material contiene simplemente ideas para generar una soluci´n completa y bien escrita. ÀÕ. 0Õ. SSA. Ô0. 1. 0. 0. Ø1. ÔØ1Ù. . 0Õ. 0.

. 0Õ. Solucion a algunos ejercicios ØÔ0. . Operaciones con conjuntos 6. . El n´mero 1 puede representar a u ganar en un juego de loter´ mientras que el n´mero 0 corresponde a ıa u perder en el juego. entonces se obtiene que x È A B. Ù. b) o Pruebe ambas contenciones como en el inciso anterior. Ω Ø6. Si nos interesa observar el n´mero de lanzamientos hasta obtener un 6 u se puede tomar Ω Ø1. x tambi´n pertenece a B. Este es uno de los muchos ejemplos que pueden construirse para este espacio. y por lo tanto x es un elemento del lado derecho de la igualdad. 2. a) N´mero de hijos de una persona escogida al azar. . N N 6. N 6. es decir. Como A A B. La misma conclusi´n se obtiene si o o x È C. esto es. 100Ù. 4. a) Demostraremos la contenci´n ÔA B Õc Ac B c . Si es el primer caso. Ô1. 9. es decir. . esto incluye el caso o o de pertenencia a ambos conjuntos. . . Ù. 1Õ. .184 2. . . si x È B. 3. Por lo tanto x È Ac y x È B c . e ´ 8. Por lo tanto todo x elemento de A es tambi´n un elemento de B. De manera an´loga se prueba la a contenci´n contraria y de esa forma se demuestra la igualdad. en donde cada N puede ser cualquiera de los n´meros 1. . ØÔx1 . A B. Entonces x È A y x È B C. Sea x È ÔA B Õc . . u o 5. Ô1. La ultima afirmaci´n puede descomponerse en: x È B ´ x È C. . Ù. Esto demuestra la contenci´n A ÔB C Õ ÔA B Õ ÔA C Õ. 1Ù para i 1. De manera an´loga se prueba la contenci´n contraria. Suponiendo que las computadoras se encuentran numeradas. Ô0. Ω 3. Es decir. Ω ´ B. 0Õ. . c) Este u es el espacio muestral m´s frecuente. — e 7. . Sea x en A. x100 Õ : xi È Ø0. a) Sea x È A ÔB C Õ. 2. x Ê A y x Ê B. N N N 6. o Entonces x Ê ÔA B Õ. 1Õ. b) An´logo al a o a inciso anterior. Si nos interesa registrar con detalle los resultados. . 4 ´ 5. b) Tiempo que u una persona tiene que esperar para la llegada de un autob´s. . . x È Ac B c .

B A Ω BcÕ BcÕ A ÔB ÔB ÔB B cÕ AÕ AÕ ÔA ÔB ÔB BÕ ÔA ÔB ÔB B c Õ. C c. A△B Ô¡ . Se tiene entonces que A Ö¡2. A ¡ B Ö¡1. El resto de los incisos de obtiene f´cilmente de la definici´n. Compruebe que ambos lados de la igualdad del inciso (a) corresponden al evento que se muestra en la Figura B. ¡1Õ Ô3. . 6×. a) ÔA B Õ¡ÔA C Õ ÔA B Õ ÔA C Õc B Ac Õ ÔA B C c Õ À ÔA B C cÕ b) ÔA¡C Õ ÔB ¡C Õ ÔA C c Õ ÔB C c Õ 18.2. B Õ ÔAc C c Õ ÔA A ÔB C c Õ A ÔB ¡C Õ. An´logo al anterior. AÕ AÕ ÔA ÔA B cÕ B cÕ À Ω B A. ¡2Õ Ô6. Gr´ficamente los conjuntos A y B son como se muestran en la Figua ra B. a 16. A ÔB C c Õ A ÔB ¡C Õ. B c Ö¡1. An´logo al anterior. 15. B B A. ¡1Õ Ô3. ÔA B Õ ¡ ÔA ÖÔA B Õ Ac× ÔA B Õ ÔA B Õ ÔA B Õc ÔA B Õ ÔAc B c Õ ÖÔA B Õ B c× ÖB Ac × ÖA B c× ÔB ¡AÕ ÔA¡B Õ. A B Ö¡2. ÔAc 17. — 21. Los enunciados son: a) ÔA b) bÕÔA B B C Õc C Õc Ac Ac Bc Bc C c. B ¡ A Ô¡ . Para el primer inciso se tiene que ÔA B C Õc ÔÔA B Õ C Õc ÔA B Õc C c Ac B c C c. Õ. De manera an´loga se demuestra al segundo a inciso. a) A ¡ÔA B Õ A ÔA B Õc A À ÔA B cÕ A B c A ¡ B. a o 20. B Ô¡ . 3×. ÔA B cÕ ÔB B c Õ ÔA B cÕ B c Õ ÔA Ac Õ ÔA B c Õ b) ÔA B Õ¡ B ÔA B Õ B c À A B c A ¡ B.185 10. Ac Ô¡ . ¡2Õ Ö¡1. ¡2Õ Ô6.1. a 14. Õ. Õ. 19. 3× Ô6. A 12. A B R. Õ. 6×. 13. 3×. 11.

¡3Õ Ô 2. ı a 24. A Ô¡ . 1×. Gr´ficamente los conjuntos A y B son los que se muestran en la Figua Ô¡ . Õ. ¡ 2Õ Ô 2. All´ pueden identificarse gr´ficamente las operaciones que se solicitan.4 (b). A B ¡3 ¡ 2 0 0 1 2 Figura B.186 ´ B. B B Ô¡ . 1× Ô 2. Õ. Ω A B ¡2 ¡1 0 0 3 6 Figura B. Õ.2: 22. A ¡ B Ö¡ 2. 1Õ Ô 2. ¡ 2Õ. All´ pueden identificarse gr´ficamente las operaciones que se solicitan.3: 23. Los conjuntos A y B son los que se muestra en la Figura B. Õ. Los conjuntos A y B son los que se muestran en la Figura B. Solucion a algunos ejercicios A B C Figura B. ¡3Õ Ö¡ 2. Õ. B ¡ A Ô¡ . Ac ra B. Por lo tanto A Ö¡3. ı a . 2×. ¡3Õ Ô1. B c Ö¡ 2.3. A B Ö¡3. 1×.4 (a).1: A△B△C. A△B Ô¡ .

a) A B C. entonces x no puede pertenecer a B pues A B À. El m´ximo es 50 % y el m´ a ınimo es 0 %. A1 B A B À. ÔB ¡ AÕ A ÔB Ac Õ À. ´ u 33. — 32. Por lo tanto x pertenece a B c . La otra contenci´n es an´loga. . No son ajenos. e) A B c C. Sea x en A. 29. d) Ac B c C c . 26. El m´ximo es 70 % y el m´ a ınimo es 40 %. b) ÖA B C c × ÖA B c C × ÖAc c) ÖA B c C c × ÖAc B C c × ÖAc B c C ×. o a 30. A B C ×. Esto demuestra que A B c . — 31. 27. 1Õ.187 B B A A (a) (b) Figura B. Conjuntos ajenos 28. tienen un unico punto en com´n que es Ô0. nÔn ¡ 1Õß2. 34.4: 25.

Ôa1 . 39. b1 . bÕ. b3 . Cuando A y B son ajenos. Adem´s. cÕÙ. c1 Õ. b1 . c2 Õ. Ôa1 . c1 Õ. Ahora tome l´ ımite cuando n tiende a infinito y obtenga el resultado requerido. Producto Cartesiano ´ B.188 Conjunto potencia 35. P ÔÀÕ nos. b2 . Sea A1 È 2A . c2 Õ. cÕ. Ω ¢ Ω 40. aÕ. Ôa2 . c1 Õ. c2 Õ. nÔA B Õ nÔAÕ nÔB Õ. b2 . c1 Õ. b2. bÕ.Ôa1 . A B. Ôa1 . Ôa2 . — 37.Ôa2 . c2 Õ. y nÔΩÕßn nßn 1. b3 .Ôa. A ¢ B ¢ C ØÔa1 . 2À 36.Ôa2 . c2 ÕÙ. P ÔÀ ØÔa. Ôa1 . c2 Õ.Ôb. c) Cuando A y B son disjuntos. y de all´ se sigue la tercera propiedad. Para cualquier valor natural de n. Claramente P ÔAÕ ı cuando A y B son ajenos. b1 . a) P ÔΩÕ αP1 ÔΩÕ   Ô1 ¡ αÕP2 ÔΩÕ α   Ô1 ¡ αÕ 1. Ôa2 . c1 Õ. 43.Ôa2 . aÕ. b1 . 42. Ahora cancele uno de los t´rmie . 2n . aÕ. cÕ. b3 . se cumple que nÔAÕßn 0.Ôc.Ôb. bÕ.Ôa. a 41. ÀÕ P ÔÀÕ   P ÔÀÕ. Solucion a algunos ejercicios ØÀÙ. Por lo tanto A1 B y en 38. y P ÔΩÕ #Ωß#Ω 1. #ÔA B Õ #A   #B.Ôc.Ôb. Probabilidad #Aß#Ω 0.Ôc. b3 . entonces A1 consecuencia A1 È 2B . 44. b2 . c1 Õ. P ÔA BÕ αP1 ÔA B Õ   Ô1 ¡ αÕP2 ÔA B Õ αÔP1 ÔAÕ   P1 ÔB ÕÕ   Ô1 ¡ αÕÔP2 ÔAÕ   P2 ÔB ÕÕ ÖαP1 ÔAÕ   Ô1 ¡ αÕP2 ÔAÕ×   ÖαP1 ÔB Õ   Ô1 ¡ αÕP2 ÔB Õ× P ÔAÕ   P ÔB Õ. b) P ÔAÕ αP1 ÔAÕ Ô1 ¡ αÕP2 ÔAÕ 0.

P ÔB Õ P ÔB ¡ AÕ. d) Falso. a) Verdadero. Aplicando proo c Õ. 3Ù.5 .2 . Finalmente la ultima desigualdad se obtiene ´ de P ÔAÕ P ÔΩÕ 1. P ÔAÕ   P ÔB Õ ¡ P ÔA c) P ÔAc BÕ 0. 51. b) Falso. a La siguiente desigualdad es consecuencia de la f´rmula P ÔA B Õ o P ÔAÕ  P ÔB Õ¡ P ÔA B Õ.5 . A y B pueden ser ajenos. a) Verdadero. pues A A B. P ÔAÕ P ÔA B Õ. se tiene que 46. B ÔB AÕ ÔB Ac Õ. B Õ. siendo esta uni´n ajena. considere por ejemplo los eventos A Ø1Ù y B Ø2. c) Verdadero. Entonces P ÔB ¡ AÕ P ÔB Õ 1ß2. sea A el resultado de obtener una de las caras y B obtener la otra cara. c) Falso. — 54. P ÔAc Õ 1 ¡ P ÔAÕ 1 ¡ 1ß2 1ß2. En el experimento de lanzar una moneda equilibrada. e) P ÔA△B Õ 49. c) Verdadero. . El segundo sumando es P ÔB AÕ   P ÔB A babilidad. a) Falso. El resultado es cierto bajo la condici´n A o B.7 . mientras que P ÔB Õ ¡ P ÔAÕ 1ß2 ¡ 1ß2 0. e) Cierto pues A B c . excepto cuando A y B son independientes. 47. El resultado se obtiene de 1 P ÔA BÕ 0. 52. Claramente P ÔAÕ P ÔB Õ pero A no est´ contenido en B.189 45. 0. P ÔAÕ 53. b) Falso. A puede ser Ω. Como A B P ÔA B Õ P ÔAÕ. d) 48. b) P ÔAc Õ P ÔA B c Õ 0. P ÔA B Õ P ÔAÕ   P ÔB Õ ¡ P ÔA B Õ 1ß2   1ß2 ¡ P ÔA B Õ 1 ¡ P ÔA B Õ 0. — 2ß3. P ÔA B Õ 0. An´logamente como A A B. b) Falso.3 . La primera desigualdad es evidente. considere por ejemplo el experimento de lanzar una moneda equilibrada. d) Falso. pues A B A. mientras que P ÔAÕP ÔB Õ 1ß2 ¤ 1ß2 1ß4. Ambos resultados tienen la misma probabilidad pero evidentemente no son iguales. a 50. en el experimento de lanzar un dado equilibrado. a) P ÔA B Õ 0. A. A puede ser Ω. Considerando el ejemplo del inciso anterior.

9 y y puede ser 0. n 2 ¡n nÔn ¡ 1Õß2. 6.   ¨  8¨ 2 6. 1. Si empiezan con el n´mero 1. entonces son de la forma 1xxxy. aÕ 720.190 An´lisis combinatorio a 55. excepto que debemos omitir el entero 00000. 16. 2. 59. 10 2 45. 8. El total de abrazos es 4 2 24. Los casos favorables son dos: 12345 y 54321. 69. Por lo tanto el total es 10 ¤ 10 ¤ 10 ¤ 10 ¤ 5 50000. — 67. 70. 310 59. . 6! 56. 4. 58. ¢ 5 3 10. ¢ ª 60. El total de casos posibles es 5! 120. 66. ª 64. Por lo tanto el total de besos es 24 ¡ 6 18. El total de saludos es 65. — 68. 61. bÕ ¢ ª ´ B. Un entero positivo de a lo sumo cinco d´ ıgitos que es divisible por 2 es de la forma xxxxy en donde x puede ser cualquiera de 0. Solucion a algunos ejercicios 12 10 66. Por lo tanto la probabilidad buscada es 2ß120 1ß60. y entonces la respuesta u es 10 ¤ 10 ¤ 10 ¤ 5 5000 y esta vez no hay necesidad de omitir ninguno de ellos. ¢ ª 63. 15 ¤ 14 ¤ 13 62. . 2730. . nk ¡4 28 ¡ 4 . 380. . 57. 049.

¢ 80. 77. Existen 2296 pares y 2240 impares. — 86. Razonando como en el ejercicio anterior. 72. — 82. Simplifique el lado derecho. Suponiendo que cada a˜o tiene 365 d´ n ıas. — ¢ ª¢ ª ¢ ª 75. 71. 20 76. Simplifique el lado derecho. Como los cuatro d´ ıgitos 1 son id´nticos.191 70. c) 6 ª ¢ 15 6 ª   ¢ 10 . Simplifique el lado derecho. — 85. 50 k 200 20 ¡ k ß 250 . ¡ 365 ¤ 79. b) 3 ª ¢ 25 . No es cierto que la mitad de ellos sean pares y la otra mitad impares. 6 ª . — 84. 74. 73. La respuesta final es 7!ß4! 3! 5040ßÔ24 ¤ 6Õ 35. la respuesta preliminar es 7! 5040. Considerando inicial y artificialmente que los siete d´ ıgitos son todos distintos. Simplifique el lado derecho. El total es 4536. cualquier permutaci´n entre ellos produce el mismo e o n´mero y por lo tanto debemos dividir el resultado preliminar por 4! u An´logamente con los tres d´ a ıgitos 0. — 10 3 ª   ¢ 15 . la respuesta es 1 364 ¤ ¤ ¤ Ô365 ¡ n   1Õß365n . a) 81. 78. — 83. la respuesta es 4!ßÔ2! 1! 1!Õ 6.

Øa. dÙ. . — 88. a) n m m 0 100. 2. De esta forma. . 26 . dÙ. Solucion a algunos ejercicios 90. cÙ. b. El conjunto E corresponde al conjunto de los n ejes coordenados. cÙ. . 97. . dÙ. 95. k 101. dÙ. Øb. Considere que se tienen k casillas numeradas 1. Ôa   b   cÕ3 a3   b3   c3   3ab2   3ac2   3a2 b   3a2 c   3b2 c   3bc2   6abc. b. Øa. cÙ. . n representan casillas que se enu cuentran ordenadas de manera natural. dÙ. El problema puede entonces traducirse en colocar k bolas en este arreglo de casillas en donde cada   ¨ casilla admite a lo sumo una bola. . ØdÙ. Øb. 7!ßÔ3! 2!Õ. c) Infinito. 91. lo mismo para las casillas 2. 93. . Øa. e 92. . b. . 2n . c. c. ØaÙ. Ôn!Õ2 . Considere que los n´meros 1. bÙ. dÙ. . Øa.192 87. . 98. 96. 2. — 89. dÙ. 3. Øa. — ´ B. b. k en donde se desean colocar n bolas sin ninguna restricci´n en el n´mero de bolas o u que caben en cada casilla. 11!ßÔ5! 4! 2!Õ. Los 16 subconjuntos de Øa. Se pueden obtener un total de 2n subconjuntos distintos de un conjunto de cardinalidad n. n! Ôn   1Õ! b) 400. c. o uniones de ´stos. Øb. . dÙ son: À. Øa. a) 20. . Øa. Las respuestas sonª entonces ¢ ¢ ª n ô m k¡1 n k¡1 . c. Øc. ØcÙ. La respuesta es entonces n . — 94. ØbÙ. 99. k. b) . el n´mero de bolas en la u casilla 1 es el valor de x1 .

55. a) P ÔA d) P ÔA 104.95 c) P ÔB Õ c) P ÔA B c Õ 0. b) Falso. P ÔA B CÕ P ÔC A B ÕP ÔA B ÕP ÔB Õ ppp p3 .193 Probabilidad condicional e independencia 102. T´mese o 107. P ÔA A B Õ P ÔA B ÕßP ÔA B Õ 1. a) Falso. P ÔA1 A2 B Õ P ÔÔA1 A2 Õ B ÕßP ÔB Õ P ÔA1 B ÕßP ÔB Õ   P ÔA2 B ÕßP ÔB Õ . a) P ÔA B Õ 0 b) P ÔΩ B Õ P ÔB ÕßP ÔB Õ 1 c) Sean A1 y e A2 ajenos.05 f) P ÔA B c Õ 0. Entonces P ÔA B Õ 1 mientras que c) Falso. T´mese A Ω. T´mese A B con 0 P ÔAÕ 1. se tiene que P ÔAc B Õ P ÔB Õ ¡ P ÔA B Õ P ÔB Õ ¡ P ÔAÕP ÔB Õ P ÔB ÕÔ1 ¡ P ÔAÕÕ P ÔB ÕP ÔAc Õ. Entonces A1 B y A2 B tambi´n son ajenos. c) Cierto. Con A A Ω y B tal que 0 P ÔB Õ 1. c) P ÔA a 1 ¡ P ÔAÕ ¡ P ÔB Õ   P ÔA B Õ 1 ¡ P ÔAÕ ¡ P ÔB Õ   P ÔAÕP ÔB Õ Ô1 ¡ P ÔAÕÕÔ1 ¡ P ÔB ÕÕ P ÔAc ÕP ÔB c Õ. a) P ÔB Õ BÕ BÕ 1ß10 0. 1ß5 105.45 0. Alternativamente P ÔA B Õ   P ÔAc B Õ P ÔA B ÕßP ÔB Õ   P ÔAc B ÕßP ÔB Õ P ÔÔA B Õ ÔAc B ÕÕßP ÔB Õ c Õ B ÕßP ÔB Õ P ÔÔA A P ÔB ÕßP ÔB Õ 1. o El lado izquierdo es 2 mientras que el lado izquierdo es 1. 109. a) Falso. c cÕ B 1 ¡ P ÔA B Õ b) An´logo al primer inciso. a) Como B ÔAc B Õ ÔA B Õ. 106. 103. b) Falso. Solo es cuesti´n de escribir la definici´n o o de cada probabilidad condicional. Por lo tanto P ÔA1 A2 B Õ P ÔÔA1 A2 Õ B ÕßP ÔB Õ P ÔÔA1 B Õ ÔA2 B ÕÕßP ÔB Õ P ÔA1 B ÕßP ÔB Õ  P ÔA2 B ÕßP ÔB Õ P ÔA1 B Õ  P ÔA2 B Õ. 1ß6.55 b) P ÔAc e) P ÔAc b) P ÔB Õ BÕ BÕ 0. Todos los incisos son ciertos. T´mese por ejemplo A B1 B2 . 108.05 0. b) Cierto. El c´lculo es id´ntico para a e P ÔB A B Õ. À se obtiene P ÔA B Õ 0. Entonces P ÔA B Õ 1 mientras que P ÔAÕ 1. Entonces el lado izquierdo o es uno mientras que el lado derecho es dos. 110. o P ÔB AÕ P ÔB Õ 1. a) Verdadero y ello es consecuencia del hecho de que P Ô¤ B Õ es una medida de probabilidad.

c) Ô0. a) À Ô0. 118. 111. El lado el cuadrado del lado izquierdo. d) Ô0. Como A y B son independientes y ajenos. P ÔA B Õ 1 ¡ P ÔAc B c Õ 1 ¡ P ÔAc ÕP ÔB c Õ pues Ac y B c tambi´n e son independientes. a) Falso. Considere el experimento de lanzar una moneda honesta. Ô0. a c) Falso. 3ß4Õ. 2Ù. La probabilidad de que no ocurra ninguno de los eventos es P ÔAc B c Õ. 113. 1ß2Õ. Entonces claramente A y B son ajenos pero no son independientes. T´mese B Ω. c) Falso. 0Õ. d) Falso. 1Õ. 3. pero P ÔA C Õ 0 distinto a P ÔAÕP ÔC Õ 1ß4. Cuando P ÔAÕ es cero o uno la propiedad es v´lida. b) P ÔΩ ΩÕ P ÔΩ Õ 112. Para que este producto se anule forzosamente alguno de los factores tiene que ser cero. a) P ÔÀ ÀÕ P ÔÀÕ 1 P ÔΩÕP ÔΩÕ. 114. T´mese A tal que 0 P ÔAÕ 1. que por la independencia es igual a P ÔAc ÕP ÔB c Õ Ô1 ¡ p1 ÕÔ1 ¡ p2 Õ. a) Cierto pues la definici´n es sim´trica respecto de los eventos A y o e B. Ô0. 1ß2Õ. b) Falso. 4Ù. Entonces o P ÔA AÕ P ÔAÕ mientras que P ÔAÕP ÔAÕ P ÔAÕ. .194 ´ B. B Ø2. 115. Ô1ß2. Alternativamente desarrolle P ÔA B Õ y factorice adecuadamente. 116. y sean A y B los eventos de que caiga una cara y la otra respectivamente. b) Falso en general. T´mese A1 o derecho es el cuadrado del lado izquierdo. Entonces A y B son independientes pero no o son ajenos. 0 P ÔÀÕP ÔÀÕ. 1ß2Õ. 0 P ÔAÕP ÔÀÕ. 3Ù y C Ø3. 2. 4Ù o equiprobable con A Ø1. Entonces se cumple P ÔA B Õ 1ß4 P ÔAÕP ÔB Õ y P ÔB C Õ 1ß4 P ÔB ÕP ÔC Õ. b) Ô0. 0 P ÔA B Õ P ÔAÕP ÔB Õ. 1ß2Õ. T´mese Ω Ø1. Ô1ß4. T´mese B1 B2 . 117. El lado derecho es o A2 . 1ß2Õ. aÕ P ÔA bÕ P ÔA ÀÕ ΩÕ P ÔAÕ P ÔÀÕ P ÔAÕP ÔΩÕ. Solucion a algunos ejercicios P ÔA1 B Õ   P ÔA2 B Õ.

.195 119. Suponga entonces v´lida la igualdad P ÔRn Õ a r ßÔr   bÕ. . Se condiciona la probabilidad del evento Rn 1 dado el resultado de la primera extracci´n. . Teorema de Bayes 124. — Teorema de probabilidad total 122. k 125. Sea A el evento “obtener 5 al lanzar el dado”. Entonces P ÔN AÕ P ÔA N ÕP ÔN Õ P ÔAÕ  n¨  n¨ k   k  b¨ . . y E0 el evento “se env´ un cero”. y N cuando en particular son todas negras. ıa An´logamente se definen los eventos R1 y E1 . .. De modo que la respuesta es  ¤ ¤ ¤  n 1 2 n 1 n 2n ¡ n ¡ 1. 120. Se puede usar el m´todo de inducci´n sobre n. 2 y 3 respectivamente. n ¢ respectivamente es ª ¢ total de ¢ ª ¢ ª n n n n . y en tal situaci´n puede considerarse que la o o configuraci´n inicial de la urna cambia. Entonces por el teorema de probabilidad total. 2. El ª ¢ ª subconjuntos de cardinal 1. N2 y N3 los eventos correspondientes a escoger los n´meros u 1. r b 123. o P ÔR n  1 Õ c c P ÔRn 1 R1 ÕP ÔR1 Õ   P ÔRn 1 R1 ÕP ÔR1 Õ r c r b ¢ r  b   r  r  c ¢ r  c r b c b r . . Claramente P ÔR1 Õ e o r ßÔr   bÕ. Sean N1 . Entonces a .. . . Entonces P ÔAÕ P ÔA N1 ÕP ÔN1 Õ P ÔA N2 ÕP ÔN2 Õ P ÔA N3 ÕP ÔN3 Õ 11ß108. Sea R0 el evento “se recibe un cero”. Sea A el evento cuando todas las bolas son del mismo color. — 121. de modo que el evento Rn 1 se o refiere ahora a la n-´sima extracci´n y all´ es donde se usa la hip´tesis e o ı o de inducci´n.

2.8 ¤ 0.38. si la escala de medici´n o son a˜os. 132.1 ¤ 0. a) Continua con valores en Ô0. los valores pueden ser 0. . P ÔX 0Õ 1ß2. 4. P ÔX 1ß2.9 ¤ 0.4ß0. a) Discreta. b) Discreta con valores en el conjunto Ø0. P ÔX 2 0. 0. 2. 134. d) P ÔE1 R1 Õ P ÔR1 E1 ÕP ÔE1 ÕßP ÔR1 Õ 0. a) c 1ß55. 8. . 1. . . . c) Puede ser n continua y considerarse te´ricamente el intervalo Ö0. P ÔX P ÔX È Ø2.62.6ß0. P ÔX 0Õ 2ß3. .196 ´ B. .87. . b) P ÔR1 Õ P ÔR1 E0 ÕP ÔE0 Õ  P ÔR1 E1 ÕP ÔE1 Õ 0. . P ÔX b) c È Ô1. . 2. c) Continua con valores en Ô0. El rango de X es el conjunto Ø¡4.2 ¤ 0. 0Õ 129.84.4   0. πÕ Ôπ ¡ 2Õß2π. 1. P ÔX 0Õ 1ß3. 2. 1. 1. 2π×Õ ÕÕ 1ß2e. 3ß55. c 133.62 0. 126.6 0. 1ß2Õ. P ÔX È Ø2. 3. 1Õ. 4ÙÕ 9ß385. ¡2. 131. P ÔZ 1ß2Õ 1ß4 y P Ô1ß3 Funciones de densidad y de distribuci´n o XÕ 1ß2. 3ÙÕ 1ß6. . P ÔY 1Õ 3ß4   2ßπ. 1Õ 130.8 ¤ 0.4   0. lo cual no es permitido. Solucion a algunos ejercicios a) P ÔR0 Õ P ÔR0 E0 ÕP ÔE0 Õ  P ÔR0 E1 ÕP ÔE1 Õ 0. c 1ß2π. c) P ÔE0 R0 Õ P ÔR0 E0 ÕP ÔE0 ÕßP ÔR0 Õ 0. 4ÙÕ 9ß55. P ÔX 0Õ 1ß2. P Ô2X ¡ 4 0Õ 1ß6 y P ÔX 2 4Õ 1ß3. Tampoco puede ser positiva o negativa pues en ambos casos la funci´n de probabilidad toma valores o negativos. — Variables aleatorias 127.6 0. 2. 1. P ÔX 3Õ 1ß385. . . Õ. si s´lo se consideran unidades moneo tarias. 128.9 ¤ 0. 9Ù. P ÔX È Ö¡π. b) Discreta con posibles valores 0. P ÔX È Ø2. 6Ù. a) y b) La constante c no puede ser cero. d) Discreta o con posibles valores 0. 1Õ. d) Continua con valores en Ô0. 3. 1ß6.38 0. P ÔX 3Õ 3ß385. P ÔX   Y Z 1ß2Õ 5ß36. .

P ÔX . c) P Ô¡1 e 1ß5. b) F ÔxÕ despu´s. 4Õ. 140. Ô2. P ÔX 0Õ 139. 2Õ. El valor de c es 0.8 4 0. P ÔX 1ß2Õ 0 y P ÔX 1ß2Õ F Ô1Õ ¡ F Ô1ß2Õ 1 ¡ 1ß 2. P ÔX 2 1Õ 0. 1Õ. Ô3. para x È Ô0. 4Õ. Ô4.15 5 0.15 2 0. La funci´n de densidad es f ÔxÕ o 1ßÔ2 xÕ.4 1 0. Ô3. La funci´n de probabilidad de X 2 es o x f ÔxÕ La de X es x f ÔxÕ Y la de 2X 0 0. Ô2. Ô1. 4Õ. 1Õ. Se trata de una variable aleatoria discreta cuya funci´n de probabio lidad es f Ô1Õ 1ß3 y f Ô2Õ 2ß3.8. 1ß3. 3ÕÙ. P ÔX 0Õ 0. Por lo tanto P ÔX 2Õ 2ß3. 1Õ.15 4 0. 0 0. uno X 3Õ 2ß5. 136.1 0 0. P ÔX 0Õ 0. La funci´n de probabilidad de X 2 es o x f ÔxÕ 138. Ô1. Ô3. y P Ô1 X 2Õ 0.8.1 ¡ 5 es x f ÔxÕ -9 0.15 5 0.1 1 0. a) Ω ØÔ1. 1Õ. P ÔX 2Õ 3ß5.4 1 0. 3Õ.15 -5 0. Ô4. cero antes.2 9 0. b) La funci´n de probabilidad de X es o x f Ôx Õ d) P ÔX 6Õ 3 2/12 4 2/12 X 5Õ 5 4/12 6 2/12 7 2/12 6Õ 1ß6.1 -7 0. 2ÕÔ4. d) m 5ß2.2 3 0.7. Ô2.1 137.197 135. 2Õ.4 -1 0.2 Ôx   2Õß10 para x È Ö¡2. 3Õ. P Ô3 1ß2. 8×.15 25 0. a) k 2. 141.

o 144. 143. . Alternativamente puede tomarse a X como aquella variable aleatoria que toma los valores a ¡ 1 y a   1 con id´ntica probabilidad 1ß2. 0. a) E ÔxÕ 7ß6. xÔx   1Õ x o Entonces la suma x 1 f ÔxÕ es telesc´pica y vale uno. para x 1 ¡ Ô1ß2Õ10 . La esperanza no existe por que la integral resultante . 1. La primera no integra uno. para x 2 Esperanza. La funci´n de probabilidad es f ÔxÕ o Por lo tanto P Ô0 X 10Õ F Ô9Õ 146. pÕ con n 4 y p 3ß4. momentos 148. F ÔxÕ 2 b) F ÔxÕ Ô1ß2Õx 1 . Por o 1 1 d 1 1 lo tanto ¡ πÔ1 x2 Õ dx π ¡ dx arctan x dx π arctan x ¡ π Ôπ ß2¡ Ô¡πß2ÕÕ 1. Por otro la1 do la esperanza no existe pues la suma x 1 xf ÔxÕ x 1 x 1 es divergente. 1. Para demostrar que esta funci´n es de densidad es necesario recordar o que la derivada de la funci´n hÔxÕ arctan x es h½ ÔxÕ 1ßÔ1   x2 Õ. c 147. . b) E ÔX Õ 151. e 1 ¡ e¡x . varianza. Solucion a algunos ejercicios 142.198 ´ B. 3×. 0. Es funci´n de densidad pues es no negativa y por el teorema del bio nomio se cumple que 4 0 f ÔxÕ Ô3ß4   1ß4Õ4 1. La funci´n es no negativa. 145. a) E ÔX Õ 150. y para la segunda se tiene que f Ô3ß2Õ 0. Esta es la funci´n o x de probabilidad de la distribuci´n binÔn. ¿Puede usted e construir una variable aleatoria continua con la propiedad indicada? 149. Puede considerarse la variable aleatoria constante X a. b) E ÔX Õ 0. x2 ß9 para x È Ö0. uno despu´s. 2. 152. a) c 3. cero antes. Usando fracciones parciales se comprueba o la identidad 1 1 1 ¡ x   1. 4ß3. . Es funci´n de densidad pues es no negativa y es tal que f Ô0Õ   f Ô1Õ   o f Ô2Õ 1. Ninguna de las funciones es de densidad.

las sio guientes dos distribuciones son distintas y ambas tienen esperanza cero. por ejemplo todas las constantes son variables aleatorias con varianza cero.199 no es absolutamente convergente: 2 x π 1 1 x2 1 ¡ x πÔ1 x2 Õ dx x 2 π 0 1 x2   dx 2 x π 1 x2 x2   dx 1 1 π 1 x dx . Tanto la esperanza como la varianza son constantes. f) Falso. . E ÔX 2 Õ x 1 x Ô1ß2Õ x 0 xÔx   1ÕÔ1ß2Õ x 1 . Esta es la distribuci´n geoÔpÕ con p o x x 1 . a) Cierto. Por lo tanto la varianza es VarÔX Õ E ÔX 2 Õ ¡ E 2 ÔX Õ 3 ¡ 1 2. E ÔX Õ e x 0 x 1 y 1 Ô1ß2Õ Intercambiando el orden de las sumas se encuentra la expresi´n o x 1 y 1. c) VarÔX Õ 156. 1ß2. dos variables aleatorias constantes distintas tienen varianza cero. pues la varianza es la esperanza de una variable aleatoria no negativa. La segunda suma acaba de ser calculada y vale uno. b) E ÔX n Õ cn ¢ P ÔX cÕ Ôc ¡ E ÔX ÕÕ2 ¢ P ÔX cÕ Ôc ¡ cÕ2 ¢ 1 0. si X es una variable aleatoria con esperanza finita y positiva. Intercambiando y ahora el orden de las sumas se llega a E ÔX 2 Õ 2 y 1 y x y Ô1ß2Õx 1 ¡ 1 2 y 1 y Ô1ß2Õy ¡ 1 22 y 1 y Ô1ß2Õy 1 ¡ 1 4 ¡ 1 3. 24ß9. 154. y para ello usaremos la identidad x2 2 x 1 x 1 ¡ xÔx   1Õ ¡ x. 155. Los resultados se siguen del hecho de que la esperanza de una constante es la constante misma y la varianza de una constante es cero. x 0 xÔ1ß2Õ Para la primera suma escriba xÔx   1Õ como 2 x 1 y. e) Cierto. x -1 0 1 f1 ÔxÕ 1/2 0 1/2 f2 ÔxÕ 1/3 1/3 1/3 c) Falso. la constante cero cumple tal condici´n. b) Falso. E ÔX Õ 3 y VarÔX Õ c ¢ 1 c. d) Cierto. Usaremos resultados de 157. entonces ¡X tiene esperanza negativa.   dx 153. xÔ1ß2Õx 1 sumas geom´tricas. Para la varianza encontraremos y 1 x y Ô1ß2Õ y 1 Ô1ß2Õ primero el segundo momento. a) E ÔX Õ c ¢ P ÔX cÕ cn ¢ 1 cn .

Nuevamente separando la e 2 0 parte positiva de la negativa se obtiene 0 xn 1 e¡x dx   ¡ xn 1 ex dx. Mediante el ¡x se comprueba que la segunda integral es cambio de variable y el negativo de la primera. a) Cierto pues la esperanza es lineal. a d) El n-´simo momento es ¡ xn 1 e¡ x dx. Por lo tanto se obtiene e el doble de la primera. . 2 Ahora al hacer el cambio de variable y ¡x en la segunda integral se obtiene que es id´ntica a la primera integral. Cuando n es par. La tercera igualdad no es correcta pues la varianza en general no es lineal. 162. E ÔX n Õ θ ßÔθ   nÕ. 1 b) El segundo momento es ¡ x2 2 e¡ x dx. para n 0. Ambos incisos son ciertos pues tanto E ÔX Õ como VarÔX Õ son constantes. c) Falso. y entonces el resultado es e e o xn e¡x dx. Solucion a algunos ejercicios 158. b) Falso pues en general VarÔcX Õ c2 VarÔX Õ. Nuevamente separando la 0 0 1 parte positiva de la negativa se obtiene 0 x2 2 e¡x dx   ¡ x2 1 ex dx. 161.200 ´ B. a) La esperanza de X es ¡ x 1 e¡ x dx. El lado izquierdo es VarÔX Õ y el lado derecho es siempre cero. 0 x2 e¡x dx. se obtiene que la esperanza es cero. a) E ÔX Õ n ô 1 i i 1 n 1ô i ni 1 n 1 nÔn   1Õ n 2 Ôn   1Õß2. La funci´n es de densidad pues es no negativa y la integral ¡ 1 e¡ x dx o 2 1 puede ser escrita como 2 0 2 e¡x dx 0 e¡x dx 1. Aplicando repetidas veces el m´todo de integraci´n por 0 partes se comprueba que esta integral vale n! 160. c) Por los c´lculos anteriores VarÔX Õ E ÔX 2 Õ ¡ E 2 ÔX Õ 2. 159. Usando integraci´n por o partes puede comprobarse que esta integral vale 2. 2 2 ¡x en la segunda integral se obAl hacer el cambio de variable y 1 tiene que es Ô¡1Õn 2 0 xn 2 e¡x dx. Cuando n es impar se trata del negativo de la primera integral. es decir. Separando la parte positi2 1 1 va y la negativa se obtiene 0 x 2 e¡x dx   ¡ x 2 ex dx. de modo que la suma es cero. Distribuci´n uniforme discreta o 163. es id´ntica a la primera integral.

x 0 x   ¨ n x 0f 1. Es muy sencillo verificar que f ÔxÕ 0. y f Ô0Õ   f Ô1Õ a) E ÔX Õ 0 Ô1 ¡ pÕ   1 p p.201 b) E ÔX 2 Õ c) VarÔX Õ 164. La suma puede em167. c) VarÔX Õ E ÔX 2 Õ ¡ E 2 ÔX Õ p ¡ p2 pÔ1 ¡ pÕ. 1Õß12. ´sta se convierte en la suma completa e de la distribuci´n binÔn ¡ 1. es decir. Distribuci´n binomial o a 166. n ô i 1 i2 1ÕÔ2n   1Õß6. pÕ y vale uno. b) E ÔX n Õ 0n Ô1 ¡ pÕ   1n p p. El resultado es entonces o np. 45ß100. Se calcula primero el e segundo momento escribiendo x2 xÔx ¡ 1Õ   x. Adem´s a ÔxÕ n n x n¡x . ÔÔn ¡ 1Õ ¡ Ôx ¡ 1ÕÕ!Ôx ¡ 1Õ! p Ô1 ¡ pÕ 1   ¨ ¡1 lo cual es np n 1 n¡1 px¡1 Ô1 ¡ pÕÔn¡1Õ¡Ôx¡1Õ . Adem´s por el teorema del binomio  n ¨ x n p Ô1 ¡ pÕn¡x Ôp   1 ¡ pÕn 1. Claramente f ÔxÕ 0. Para la varianza se usa la misma t´cnica. La esperanza es E ÔX Õ x 0 x x p Ô1 ¡ pÕ pezar desde uno. Factorizando np y escribiendo n ¡ x Ôn ¡ 1Õ¡Ôx ¡ 1Õ se encuentra la expresi´n o np n ô x Ôn ¡ 1Õ! x¡1 Ôn¡1Õ¡Ôx¡1Õ . x x x 0 n xÔx ¡ 1Õ ¢ ª . E ÔX 2 Õ n ô x 0 n ô x 0 ¢ ª x 2 n x p Ô1 ¡ pÕn¡x x ¢ ª ô n x n x x p Ô1 ¡ pÕn¡x   p Ô1 ¡ pÕn¡x . 1 n 1 ô 2 i ni 1 n 1 nÔn   1ÕÔ2n   1Õ n 6 Ôn   E ÔX 2 Õ¡ E 2 ÔX Õ Ôn   1ÕÔ2n   1Õ ¡ Ôn   1Õ2 Ôn2 ¡ 6 4 Distribuci´n Bernoulli o 165. Haciendo el cambio de x x variable y x ¡ 1 en la suma.

202

´ B. Solucion a algunos ejercicios La segunda suma acaba de ser calculada y vale np. La primera suma puede empezar desde 2, y procediendo como en el caso de la esperanza puede escribirse como nÔn ¡ 1Õp
2 n ô x

Ôn ¡ 2Õ! Ôn¡2Õ¡Ôx¡2Õ , x¡2 ÔÔn ¡ 2Õ ¡ Ôx ¡ 2ÕÕ!Ôx ¡ 2Õ! p Ô1 ¡ pÕ 2
  ¨

¡2 lo cual es nÔn ¡ 1Õp2 n 2 n¡2 px¡2 Ô1 ¡ pÕÔn¡2Õ¡Ôx¡2Õ . Haciendo el x x cambio de variable y x ¡ 2 en la suma, ´sta se convierte en la e suma completa de la distribuci´n binÔn ¡ 2, pÕ y vale uno. El segundo o momento es entonces nÔn ¡ 1Õp2   np. Por lo tanto VarÔX Õ E ÔX 2 Õ¡ E 2 ÔX Õ nÔn ¡ 1Õp2   np ¡ n2 p2 npÔ1 ¡ pÕ.
168. n 8yp 1ß2. 169. P ÔY xÕ P Ôn ¡ X xÕ P ÔX n ¡ xÕ. Al substituir la funci´n o de probabilidad de X resulta que Y tiene distribuci´n binomial con o el mismo n´mero de ensayos n, pero la probabilidad de ´xito es ahora u e u e 1 ¡ p. Si X cuenta el n´mero de ´xitos en n ensayos Bernoulli, entonces Y cuenta el n´mero de fracasos. u 170. Desarrolle el lado derecho.
¢ ª

171.
¢

6 3

Ô1ß2Õ6 . Ô1ß2Õ2n .
npq y E ÔX Õ np. Entonces efectivamente

172.

2n n

ª

173. Recuerde que VarÔX Õ npq np pues q 1.

174. Los tres eventos tienen la misma probabilidad de ocurrir, cada uno de ellos tiene probabilidad 1ß26 . Distribuci´n geom´trica o e 175. f ÔxÕ 0. Adem´s a
x 0

f ÔxÕ

x 0

pÔ1 ¡ pÕx

pÔ1ßpÕ

1.

203
x 176. Usaremos resultados de sumas geom´tricas. E ÔX Õ e x 0 xpÔ1 ¡ pÕ x x x 1 y 1 pÔ1 ¡ pÕ . Intercambiando el orden de las sumas se eny cuentra la expresi´n y 1 x y pÔ1 ¡ pÕx o Ô1 ¡ pÕßp. y 1 Ô1 ¡ pÕ Para la varianza encontraremos primero el segundo momento, y para 2 x ello usaremos la identidad x2 xÔx   1Õ¡ x. E ÔX 2 Õ x 1 x pÔ1 ¡ pÕ x x x 0 xÔx   1ÕpÔ1 ¡ pÕ ¡ x 0 xpÔ1 ¡ pÕ . La segunda suma acaba de ser calculada y vale (1-p)/p. Para la primera suma escriba xÔx   1Õ como 2 x 1 y. Intercambiando ahora el orden de las sumas se llega y a E ÔX 2 Õ 2 y 1 y x y pÔ1 ¡ pÕx ¡ Ô1 ¡ pÕßp 2 y 1 y Ô1 ¡ pÕy ¡ 2 Ô1 ¡ pÕßp p y 1 ypÔ1 ¡ pÕy ¡ Ô1 ¡ pÕßp 2Ô1 ¡ pÕßp2 ¡ Ô1 ¡ pÕßp. Por lo tanto la varianza es VarÔX Õ E ÔX 2 Õ ¡ E 2 ÔX Õ 2Ô1 ¡ pÕßp2 ¡ Ô1 ¡ pÕßp ¡ Ô1 ¡ pÕ2ßp2 Ô1 ¡ pÕßp2 .

178. 8ß3=2.66 extracciones. Distribuci´n Poisson o

177. P ÔX a b X aÕ x ßÔp xÕ pÕ x a Ô1 ¡ pÕ

P ÔX a   bÕßP ÔX aÕ p x a b Ô1 ¡ a b ßÔ1 ¡ pÕa b Ô1 ¡ p Õ Ô1 ¡ pÕ P ÔX bÕ.

¡λ λ 179. La funci´n f ÔxÕ es no negativa y es tal que x 0 f ÔxÕ o x 0e x! x e¡λ x 0 λ e¡λ eλ 1. Para la esperanza tenemos que E ÔX Õ x! x ¡λ λx ¡λ λx¡1 x e¡λ λ x 0 x 1e x! Ôx¡1Õ! λ x 1 e Ôx¡1Õ! λ. Usando xÔx ¡ 1Õ   x, puede encontrarse que el segundo la igualdad x2 momento es E ÔX 2 Õ λ2   λ. Por lo tanto VarÔX Õ E ÔX 2 Õ¡ E 2 ÔX Õ λ2   λ ¡ λ2 λ.
x

180. Desarrolle el lado derecho. 181. Sume las series eλ λ2 ß2! ¡ λ3 ß3!   ¤ ¤ ¤ 1   λ   λ2 ß2!   λ3 ß3!   ¤ ¤ ¤ , y e¡λ 1¡λ 

182. a) 0.323 b) 0.593 c) Una o dos computadoras descompuestas tienen probabilidad m´xima 0.2706. a Distribuci´n binomial negativa o 183. Este ejercicio no es f´  Una forma de resolverlo es a trav´s de¨ la acil. e    ¡n¨ ¨ a x k n k ¡1 , y la expansi´n Ô1   tÕa f´rmula k o o Ô¡1Õ k x 0 x t

204 para a real y   ¨ 1. Entonces t r x ¡r Ô1 ¡ pÕx p x 0 Ô¡1Õ x pr

´ B. Solucion a algunos ejercicios

184. Para la esperanza, factorice el  r x¡1¨ r p Ô1 ¡ pÕx . Observe que la suma puede empezar E ÔX Õ x 1x x desde 1. La suma resultante es uno pues se trata de las probabilidao des de la distribuci´n bin negÔr, pÕ. Para la varianza use la f´rmula o x2 xÔx ¡ 1Õ   x para calcular primero E ÔX 2 Õ, separando las sumas. El procedimiento es an´logo al caso de la esperanza, el resultado es a E ÔX 2 Õ r Ôr  1ÕÔ1¡pÕ2 ßp2  r Ô1¡pÕßp. Al substituir estos resultados en la f´rmula VarÔX Õ E ÔX 2 Õ¡E 2 ÔX Õ se obtiene VarÔX Õ r Ô1 ¡ pÕßp2 . o 185. Factorice el t´rmino Ô1 ¡ pÕÔr   x ¡ 1Õßx en la expresi´n de P ÔX e o Distribuci´n hipergeom´trica o e 186. El resultado se sigue de la f´rmula o Distribuci´n uniforme continua o 187. Claramente f ÔxÕ 0, y la integral de f ÔxÕ es el ´rea del rect´ngulo a a de base b ¡ a y altura 1ßÔb ¡ aÕ que vale uno. xÕ.

Ô ¡ pÕx pr Ô1   p ¡ 1Õ¡r 1. x 0 x Ôp ¡ 1Õ t´rmino r Ô1 ¡ pÕßp en la expresi´n e o
x 0 

 r x¡1¨ r p 1 x ¡r¨ x

 n¨  m ¨ r k 0 k r k

¡

 n m¨
r

.

Ôb2 ¡ a2 ÕßÔ2Ôb ¡ aÕÕ Ôa   bÕß2. b) 188. a) E ÔX Õ a x 1ßÔb ¡ aÕ dx b 2 Ôb3 ¡ a3ÕßÔ3Ôb ¡ aÕÕ Ôa2   ab   b2Õß3. E ÔX 2 Õ a x 1ßÔb ¡ aÕ dx Por lo tanto VarÔxÕ E ÔX 2 Õ¡ E 2 ÔX Õ Ôa2   ab   b2 Õß3 ¡Ôa   bÕ2 ß4 Ôb ¡ aÕ2ß12.
b

189. a

1yb

7.
1 n 0 x 1 dx b

190. E ÔX n Õ

1ßÔn   1Õ.
n 1 Ôn 1ÕÔb¡aÕ x §a 1

n 191. E ÔX n Õ a x 1ßÔb ¡ aÕ dx 1ÕÔb ¡ aÕÕ. 1

§b

Ôbn 1 ¡ an 1 ÕßÔÔn  

1 n 1 n 192. E ÔX n Õ ¡1 x 1ß2 dx 2Ôn 1Õ x §¡1 . Si n es impar, entonces n   1 es par y la integral se anula. Si n es par, entonces n   1 es impar y la integral es 1ßÔn   1Õ.

§1

205 193. X toma valores en Ô0, 1Õ y Y toma valores en Ô¡5, 5Õ. Para cualquier P ÔY y Õ P Ô10X ¡ 5 y Õ P ÔX Ôy   y È Ô¡5, 5Õ, FY Ôy Õ 5Õß10Õ FX ÔÔy   5Õß10Õ. Derivando fY Ôy Õ fX ÔÔy   5Õß10Õ 1ß10. Pero o fX ÔÔy   5Õß10Õ vale uno s´lo cuando 0 Ôy   5Õß10 1, es decir, si ¡5 y 5. Por lo tanto, Y tiene distribuci´n unifÔ¡5, 5Õ. o 194. La mediana en este caso es unica y vale m Ôa   bÕß2 pues cumple ´ la condici´n P ÔX mÕ P ÔX mÕ 1ß2. Vea un ejercicio anterior o para la demostraci´n de que la media es tambi´n Ôa   bÕß2. o e Distribuci´n exponencial o 195. f ÔxÕ 0y
0

λ e¡λx dx

¡e¡λx 0

1.

¡λx dx. Usando integraci´n por partes con u x y o 196. E ÔX Õ 0 xλe ¡λx dx, se obtiene E ÔX Õ e¡λx dx Ô1ßλÕ 0 λ e¡λx dx dv λ e 0 1ßλ. Para la varianza calcule primero el segundo momento, usan2 ¡λx dx do nuevamente integraci´n por partes, E ÔX 2 Õ o 0 x λe ¡λx dx Ô2ßλÕ x λ e¡λx dx 2ßλ2 . Por lo tanto VarÔX Õ 2 0 xe 0 E ÔX 2 Õ ¡ E 2 ÔX Õ 2ßλ2 ¡ 1ßλ2 1ßλ2 .
197. P ÔX e¡λy x   y X xÕ P ÔX y Õ. P ÔX x   y ÕßP ÔX xÕ e¡λÔx yÕ ße¡λx

1 ¡ e¡λx ¡ e¡λy   e¡λÔx yÕ 198. F ÔxÕ F Ôy Õ Ô1 ¡ e¡λx ÕÔ1 ¡ e¡λy Õ Ô1 ¡ e¡λx Õ   Ô1 ¡ e¡λy Õ ¡ Ô1 ¡ e¡λÔx yÕ Õ F ÔxÕ   F ÔyÕ ¡ F Ôx   yÕ. 10 1ßλ. 199. Suponga que el tiempo se mide en minutos. E ÔX Õ Por lo tanto λ 1ß10. Entonces P ÔX 60Õ 1 ¡ P ÔX 60Õ 1 ¡ Ô1 ¡ e¡60ß10 Õ e¡6 0.002478 . Por lo tanto de 1000 usuarios, aproximadamente 2.47 tienen conexi´n mayor a una hora. a) o P ÔX 10Õ F Ô10Õ 1 ¡ e¡10ß10 1 ¡ e¡1 0.6321 . b) P Ô10 ¡6 Õ ¡ Ô1 ¡ e¡1 Õ 0.3654 . X 60Õ F Ô60Õ ¡ F Ô10Õ Ô1 ¡ e Distribuci´n gamma o 200. La funci´n es no negativa, adem´s haciendo el cambio de variable o a ÔλxÕn¡1 λ e¡λx dx ΓÔnÕ 1 n¡1 e¡t dt 1. t λx se obtiene 0 ΓÔnÕ ΓÔnÕ 0 t ΓÔnÕ

b B a. bÕ Ô Õ a 1 a 1 a a B Ôa. La in201. por lo tanto es dv e ¡t dt 1. b e) Puede usarse la identidad B Ôa. bÕ 0 x Ô1 ¡ x Õ a 1 a¡1 b¡1 dx para llegar a B Ôa   1.b Ô Õ 1.bÕ 0 B Ôa 1.bÕ x Ô1 ¡ Ô   Õ Ahora se usa la identidad B Ôa   1. pero ΓÔ1Õ 0 e es consecuencia de los dos incisos anteriores.b . 0 aÔ1 ¡ xÕ 1 a b¡1 dx. bÕ a y dv u x Ô1 ¡ x Õ Ô1 ¡ b 0x a b dx xÕ B Ôa. b)0Por el inciso anterior. En donde B Ôa   2. y entonces VarÔX Õ a b 1 a b b a 1 a2 ab a a b 1 a b ¡ Ôa bÕ2 Ôa b 1ÕÔa bÕ2 . a tn y tn e¡t dt. y usando la propiedad ΓÔn   1Õ n ΓÔnÕ se obtiene n¡1 ¡λx dx 2 ÔλxÕ E ÔX Õ nßλ. c) An´logo al inciso anterior. b   1Õ. b) E ÔX 2 Õ 0 x ΓÔnÕ λ e ΓÔn 2Õ ÔλxÕn 1 ¡λx dx Ôn 1Õnßλ2 . B Ôa   1. bÕ . bÕ. y 1 1 0 B a. Use integraci´n por partes con o d) B Ôa   1. 1Õ 1ßa.b B a.b B a 1. bÕ Ô Õ B a 2.b Ô   Õ . a) ΓÔn   1Õ ¡t dt. ΓÔ1ß2Õ 2 0 e¡x ß2 dx de variable x2 ß2 0 t 2 1 2 2π 1 ¡ π. d) Haciendo el cambio 2 ¡1ß2 e¡t dt t. c) Esto suficiente demostrar que ΓÔ1Õ 1. a) E ÔX Õ 0 x ΓÔnÕ λ e λ ΓÔnÕ 0 ΓÔn 1Õ λ e tegral vale uno. Por lo tanto E ÔX 2 Õ a   1 a b . ΓÔ2Õ 1 ΓÔ1Õ. Ô  Õ Ô Õ 1 1 0 B a 2. Ô Õ 0. 1 x2 a¡1 Ô1 ¡ xÕb¡1 dx b) E ÔX 2 Õ 0 B Ôa.206 ´ B.b 1 x 0 B a. bÕ 1ßb.b a 1 a b 1B a a 1 Ô   Õ x Ô1 ¡       Ô   1. bÕ 205.b B a. Claramente f ÔxÕ xÕb¡1 dx B a. a) E ÔX Õ xÕb¡1 dx para obtener E ÔX Õ aßÔa   bÕ. a) Efect´e el cambio de variable y 1 ¡ x. Solucion a algunos ejercicios ÔλxÕn¡1 ¡λx dx ΓÔn 1Õ ÔλxÕn ¡λx dx. u 1 a¡1 dx b) B Ôa.b Ô Õ 1 0 xa¡1 Ô1¡ 204. bÕ ΓÔaÕΓÔbÕßΓÔa   bÕ. a Distribuci´n beta o 203.b Ô Õx a 1 ¡ Ô1¡xÕb¡1 dx 1 B a. B Ôa 1. Por lo tanto VarÔX Õ E ÔX 2 Õ¡ λ2 ΓÔnÕ 0 ΓÔn 2Õ λ e E 2 ÔX Õ Ôn   1Õnßλ2 ¡ n2 ßλ2 nßλ2 . Use integraci´n por partes con u o 202. bÕ a a b B Ôa.bÕ x xÕb¡1 dx B a 2.b B a. El ultimo integrando es la densidad ´ e¡x ß2 dx 2 2π normal est´ndar.bÕ 1 1 b¡1 a¡1 a Ô Õ x Ô1 ¡ xÕ dx B Ôa. 0 ax 1 b¡1 dx c) B Ô1.

b 1Õ B Ôb 1. La funci´n es claramente no negativa.207 a a ΓÔa   1ÕΓÔbÕßΓÔa   b   1Õ a b ΓÔaÕΓÔbÕßΓÔa   bÕ a b B Ôa. Por lo tanto F ÔxÕ 1ß2. u 206. para valores positivos de x. 1Õ xa . por lo que unicamente hace o ´ falta verificar que integra uno sobre el eje real. α . Haciendo el cambio de variable indicado. 212. Haciendo el cambio de variable indicado tenemos que ÷ ¡ f ÔxÕ dx ÷ 0 e¡uÔxÕ u½ ÔxÕ dx ¡e¡uÔxÕ §§0 § 1. u B Ô1   1ß2. 210. x Ô 0 ua¡1 duÕßB Ôa. 1ß2Õ. 1ßa. F ÔxÕ 213. g) Efect´e el cambio de variable x cos2 θ. aÕ a b B Ôa. bÕßB Ôa. aÕ a b B Ôb. Distribuci´n Weibull o 211. b) Efect´e el cambio de variable x cos2 θ. Compruebe que B Ôa. Compruebe que B Ô1. bÕ 1ßb. Simplemente sustituya esos valores para los par´metros a y b en la a distribuci´n betaÔa. — ÷x 0 e¡uÔtÕ u½ ÔtÕ dt ¡e¡uÔtÕ §§0 §x 1 ¡ e¡uÔxÕ 1 ¡ e¡ÔλxÕ . bÕ. o 207. para 0 x 1. bÕ 209. a) f ÔxÕ 1ßÔπ xÔ1 ¡ xÕ. b b f) Por el inciso anterior. Por lo tanto F ÔxÕ 1 ¡ Ô1 ¡ xÕb . bÕ. bÕ. 1Õ. bÕ. 1ß2Õ Ô1ß2ÕßÔ1ß2   1ß2Õ c) E ÔX Õ Para la varianza use E ÔX 2 Õ B Ô2   1ß2. E ÔX n Õ 1 Ô 0 xn xa¡1 Ô1 ¡ xÕb¡1 dxÕßB Ôa. 208. Recuerde que B Ô1. B Ôa. para x È Ô0. bÕ B Ôa   n. 1ß2ÕßB Ô1ß2. 1Õ x Ô 0 Ô1¡uÕb¡1 duÕßB Ô1. 1Õ 1. 1ß2ÕßB Ô1ß2. para x È Ô0. 1Õ.

a) P ÔX P Ô0 X 40Õ P Ô0 10Õ 1ß2. 2 . pero ello es f´cil pues el integrando de E ÔZ Õ 2 u 1 e¡u ß2 du es una derivada excepto por el signo. 1Õ. b) P ÔX 0Õ 1ß2. Por lo tanto ¡ 2π E ÔX Õ µ. Para la varianza considere el segundo momento E ÔX 2 Õ 1 ¡Ôx¡µÕ2 ß2σ2 dx. e) P Ô¡20 X 10Õ P Ô¡6 Z 0Õ 1ß2.4772 . c) 217. 1Õ. Entonces I 2 e¡Ôx¡µÕ ß2σ dx Sea I 2 ¡ ¡ 2π e Ô¡ en donde la ultima integral se obtiene de´ spu´s del cambio de variable a coordenadas polares Ôx. c) 4Õ 1ß2.0228 . Hacien215. d) P ÔX 30Õ P ÔZ 216. Este ejercicio no es f´cil pero puede resolverse por varios m´todos. Suponga X NÔµ. Por lo 2π tanto E ÔX 2 Õ µ2   σ 2 . σ por partes con u y y dv y 1 e¡y ß2 dy. y Õ Ôr cos θ. a Suponga Z NÔ0. Resta ¡y2 ß2 dy. e 2 2 1 1 ¡x2 ß2 dx. El procedimiento es reversible. 1 ¡Ôx¡µÕ ß2σ dx. d) P ÔX 20Õ P Ô0 P ÔZ 2Õ 0. Sea X µ   σZ. El resultado es 1. σ 2 Õ. fX ÔxÕ fZ ÔÔx ¡ µÕßσ Õßσ. Entonces FZ ÔuÕ P ÔZ ¡ uÕ P Ô Xσ µ uÕ P ÔX µ   uσ Õ FX Ôµ   uσ Õ. y encuentre la densidad NÔµ. r sen θ Õ. Sea Z ÔX ¡ µÕßσ. a) P ÔX X 10Õ P Ô¡2 Z 0Õ 0. b) P ÔX 0Õ P ÔZ ¡2Õ 0. en donde Z NÔ0.8413 . Efect´e nuevamente el cambio de variable 2 u ¡ x 2πσ2 e y Ôx ¡ µÕßσ y encuentre que E ÔX 2 Õ µ2  2µE ÔZ Õ σ 2 E ÔZ 2 Õ. Substituya la expresi´n de fZ ÔxÕ 2 Õ. Considere la esperanza E ÔX Õ ¡ x 2πσ2 e do el cambio de variable u Ôx ¡ µÕßσ se encuentra que E ÔX Õ µ   σE ÔZ Õ.0228 . Esta integral puede realizarse 2 1 encontrar E ÔZ 2 Õ ¡ y 2π e 2 2 2πσ 2 1 e x 2 dx 2π 2π 1 r 2 2 r dr dθ. El a e siguiente m´todo hace uso de coordenadas polares. Derivando reo specto a x. fZ ÔuÕ fX Ôµ   uσ Õσ. Por lo tanto es suficiente dea mostrar que E ÔZ Õ 0.208 Distribuci´n normal o ´ B. Entonces FX ÔxÕ P ÔX xÕ P Ôµ   σZ xÕ P ÔZ Ôx ¡ µÕßσ Õ FZ ÔÔx ¡ µÕßσ Õ. 0 2π e 0 ¡ ß ¡ ß ÕÔ¡ 2 1 e y 2 dy 2π ¡ ß Õ ¡ ¡ 1 2π e ¡Ôx2  y2 Õß2 dx dy 10Õ P ÔZ 218. Solucion a algunos ejercicios 214. 1Õ Z 0. e 2 Entonces I 2 0 e¡r ß2 r dr 1. Substituya la expresi´n para fX ÔxÕ y eno cuentre la densidad normal est´ndar. y entonces VarÔX Õ Ôµ2   σ 2 Õ¡µ2 σ 2 . Derivando respecto a u.

Ahora substituya la expresi´n para fX ÔxÕ y encuentre la funci´n de densidad de la distribuci´n χ2 Ô1Õ.1587 . ¡1. Derivando. σ 2 Õ o o y encuentre la funci´n de densidad normal ahora con media aµ   o b y varianza a2 σ 2 . 310Õ P ÔZ 1Õ 0. Para x 0.209 3Õ 219. e ¡X. xÕ FX Ô xÕ ¡ 222.115 . c) P ÔX 320Õ P ÔZ 2Õ 0.6826 .0228 . fX2 ÔxÕ fX Ô xÕ 2 x  fX Ô¡ xÕ 2 1 x o fX Ô xÕ 1x . d) P ÔX 270Õ P ÔZ ¡3Õ 0. La integral resultante es la funci´n gamma evaluada en o nß2.0013 . fY ÔyÕ fX Ô¡yÕ. Efect´e el cambio de variable t xß2 dentro o u de la integral. fY Ôy Õ fX Ôy Õ fX Ô¡y Õ 2fX Ôy Õ. 100Õ. Sea X el llenado de un vaso cualquiera. Substituya ahora en esta expresi´n la funci´n de densidad NÔµ. b) x X 10Õ P Ô¡1 Z 1Õ 0. o menos. Derivando. Sea Y ¡yÕ 1 ¡ P ÔX ¡yÕ 1 ¡ FX Ô¡yÕ. Haga un an´lisis semejante para el caso a a 0. FX 2 ÔxÕ P ÔX 2 xÕ P Ô¡ x X 1 FX Ô¡ xÕ. La funci´n es no negativa. 0. Para y 0. FY Ôy Õ P ÔY yÕ P Ô X y Õ P Ô¡y X yÕ FX Ôy Õ¡ FX Ô¡y Õ. Ahora substituya la funci´n de densidad de X. 1.3 reclamar´n por vasos servidos con 270 ml. o o 223. Entonces FY ÔyÕ P ÔY yÕ P Ô¡X yÕ P ÔX 221. b) P Ô290 X Entonces a) P ÔX 305Õ P Ô¡1 Z 1ß2Õ 0. Derivando.0013 . . Los nuevos par´metros son a id´nticos al caso anterior.375 . Substituya ahora la funci´n de densidad de X evaluada en ¡y y como pruebe que se trata de la densidad normal con media ¡µ y varianza σ2 . a) x 220. tenga cuidado al dividir por tal cantidad. Derivando. De mil clientes.5328 . Suponga X NÔ320. o 224. fY Ôy Õ fX ÔÔy ¡ bÕßaÕßa. a Distribuci´n ji cuadrada o 225. e) P Ô¡10 1. Entonces FY Ôy Õ P ÔY yÕ P ÔaX   b yÕ P ÔX Ôy ¡ bÕßaÕ FX ÔÔy ¡ bÕßaÕ. Suponga a 0.

Ô3. 1Õ. Ô4. Despu´s simplifique. Y Õ tiene distribuci´n uniforme en el conjunto que consta de los o doce elementos: Ô1. 227. d) No lo son pues por ejemplo P ÔX o o . 231. Ôn ¡ 2Õß2Õ. La integral E ÔX Õ es absolutamente convergente y el integrando es una funci´n impar. Vectores aleatorios 230.35 y f Ô0Õ 0.8 a para 1 x 2. 1Õ. cuyos valores suman uno. Despu´s simplifique usando o e la propiedad ΓÔn   1Õ n ΓÔnÕ. 3Õ. Distribuci´n t o 228. Recuerde 226. En estos c´lculos es conveniente hacer el cambio de variable t xß2 en a cada una de las integrales. a) Se trata de una funci´n no negativa.Ô1. b) o La funci´n de densidad marginal de X es f Ô1Õ 0. que puede ser escrito como Ônß2Õ   2 ¡ 1. 2Õ. An´logamente se construye la funci´n de distribuci´n de Y . 1Õ. Tanto X como Y tienen distribuci´n uniforme en el o conjunto Ø1.Ô4. 4Ù.Ô4. ÔX.Ô3. o la varianza es el segundo momento. 4Õ. por lo tanto la integral es cero. el exponente de t es nß2. Reconstruya la integral como la funci´n gamma evaluada en Ônß2Õ   1. Solucion a algunos ejercicios 2 en la densidad χ2 ÔnÕ.2. Dado este resultado.8 y f Ô2Õ 0. calcule primero el segundo momento. Ahora reconstruya la integral resultante como la e a funci´n gamma evaluada en Ônß2Õ  2.Ô2. 2Õ. el exponente de t es Ônß2Õ  1. Para la varianza. 3Õ.Ô2. y reconstruya la integral e de B Ô3ß2. nß2Õ.Ô2. despu´s simplifique. 229. 4Õ. Efect´e el cambio de variable u 1 ¡ u Ô1   x2 ßnÕ¡1 en la integral E ÔX 2 Õ.210 ´ B. 4Õ. 2.65. F ÔxÕ 0. 3Õ. La funci´n es no negativa. El c´lculo o del m-´simo momento sigue las mismas l´ e ıneas.Ô3. La o 0. simplemente substituya el valor n que ΓÔ1Õ 1. que puede ser escrito como Ônß2Õ  1 ¡ 1.Ô1. 3. c) La funci´n de o de la variable Y es f Ô¡1Õ distribuci´n marginal de X es F ÔxÕ 0 para ¡ o x 1. Para comprobar que esta funci´n integra o o uno efect´e el cambio de variable 1 ¡ u Ô1   x2 ßnÕ¡1 y reconstruya u la integral de B Ô1ß2. Para la esperanza. F ÔxÕ 1 para x 2. 2Õ.

Y 1Õ 0 que es distinto a P ÔX 1ÕP ÔY 1Õ 0.3 que es distinto a P ÔX 1ÕP ÔY ¡1Õ 0. b) ÔX1   X2 ¡ E ÔX1   X2 ÕÕ ÔX1   X2 ¡ E ÔX1 Õ ¡ E ÔX2 ÕÕ ÖX1 ¡ E ÔX1 Õ×   ÖX2 ¡ E ÔX2 Õ×. 0. Por lo tanto se trata de una funci´n no negativa e o que integra uno. Y Õ y simplifique. c) La funci´n de distribuci´n marginal de X es F ÔxÕ 0 para ¡ o o x 1. a) CovÔcX. a) Tal funci´n toma el valor 1ß4 sobre el cuadrado Ô¡1. y Õ f ÔxÕf Ôy Õ. 236. recuerde que E ÔX Õ y E ÔY Õ son constantes. F ÔxÕ Ôx   1Õß2 para ¡1 x ¡1.28. 1Õ. c) Las funciones de distribuci´n marginales son por tanto o coincidentes y son F ÔxÕ 0 para ¡ x ¡1. y Õ para cualquier valor de x y y.211 1.9 y f Ô1Õ 0.35=0. b) La funci´n de densidad marginal de X es f Ô1Õ 0. d) Las variables son independientes pues se cumple la identidad f Ôx. Y Õ.02.1=0. para cualquier valor de x y y. ÔX ¡ E ÔX ÕÕÔY ¡ E ÔY ÕÕ Ahora aplique esperanza y simplifique.2 ¢ 0. La de la variable Y es f Ô0Õ 0. con valor nulo fuera de este o intervalo. Introduzca este c´lculo en la definici´n para a o CovÔX1   X2 . 1Õ y o vale cero fuera de ´l.8.8 ¢ 232. a) La funci´n es no negativa y puede comprobarse que integra uno o 2 . 1Õ ¢ Ô¡1. Y Õ E ÖÔcX ¡ E ÔcX ÕÕÔY ¡ E ÔY ÕÕ× E ÖcÔX ¡ E ÔX ÕÕÔY ¡ E ÔY ÕÕ× c CovÔX. . a) Nuevamente se trata de una funci´n no negativa. F ÔxÕ 1 para x 1.1. b) Las funciones de densidad marginales coinciden en la funci´n f ÔxÕ 1ß2 para x en Ô¡1. Covarianza XY ¡ XE ÔY Õ ¡ Y E ÔX Õ   E ÔX ÕE ÔY Õ.2 para 1 x 2. 0. 234. son independientes pues se cumple la identidad f Ôx. An´logamente a F Ôx Õ se construye la funci´n de distribuci´n de Y . 233.2 o y f Ô2Õ 0. F ÔxÕ 1 para x 2. d) Estas variables aleatorias f ÔxÕf Ôy Õ. Y ¡1Õ 0. b) y c) Las distribuciones marginales de estas variables sobre R son expÔλÕ con λ 1. d) No lo son pues por o o ejemplo P ÔX 1. 235. cuyos valores o suman uno.

pÕ. Compruebe que la segunda derivada es negativa. f) si. — 249. — 243. X tiene distribuci´n binÔ3. — Estad´ ıstica descriptiva 241. d) no. 245. c) si. yY 238. — 244. b) si. E ÔX Õ E ÔY Õ 2ß3. Ô2ß3Õ2 . a) si. E ÔX Õ E ÔY Õ ´ B. Derive la funci´n xÔcÕ respecto de la variable c. Solucion a algunos ejercicios 0. Id´ntico al ejercicio anterior. E ÔXY Õ son independientes. O bien observe que X Ôxi ¡ xÕ n 1 xi ¡ n¯ n 1 xi ¡ n 1 xi 0. — Muestras aleatorias y estad´ ısticas 250. nσ 2 Õ e) no. Compruebe adem´s que E ÔXY Õ a 1ß2.212 237. 252. — Variables y tipos de datos 240. o 251. — 242. x x x i 1 xi i 1 xi n i 1 246. ¯ 248. . NÔnµ. Coeficiente de correlaci´n o 239. e 247. iguale a cero y eno ¯ cuentre que c x. ¯ x i i i n n n 2 2 ¯2 ¯ ¯2 x n x2 i 1 Ôxi ¡ xÕ i 1 Ôxi ¡ 2xi x   x Õ i 1 xi ¡ 2¯ i 1 xi   n¯ n n 2 ¡ 2n¯2   n¯2 2 ¡ n¯2 .

k1   k2 257. — Insesgamiento ˆ 255. 254. — 266. — 262. E Ôσ 2 Õ 259. — . — ¡ ¡ ÔE ÔXi2 1 Õ ¡ 2E ÔXi 1 ÕE ÔXi Õ   E ÔXi2 ÕÕ Ôσ   µ ¡ 2µ   σ   µ Õ 2 2 2 2 2 i 1 2Ôn ¡ 1Õ 1 n 1 ô i 1 ¡ 2σ 2 σ2. — ˆ 258.213 Estimaci´n puntual o 253. E Ôσ ˆ 2 ˆ ˆ E Ôαθ1  Ô1¡ αÕθ2 Õ 1. E Ôθ Õ 256. Õ 1 1 2Ôn ¡ 1Õ n 1 ô i 1 n 1 ô 1 n 1 ô i 1 ¡ E ÔXi 1 ¡ Xi Õ2 2Ôn ¡ 1Õ 2Ôn ¡ 1Õ 261. M´todo de momentos e 263. ˆ ˆ αE Ôθ1 Õ Ô1¡ αÕE Ôθ2 Õ αθ  Ô1¡ αÕθ θ. La esperanza es p y la varianza es pÔ1 ¡ pÕßn. 1 ô E ÔXi ¡ µÕ2 ni 1 n 1 ô VarÔXi Õ ni 1 n 1ô 2 σ ni 1 n σ2. — 265. — 264. — 260.

La funci´n de verosimilitud est´ dada por LÔpÕ o a Tomando logaritmo. ¯ nßX. Es por ello que se toma n m´x Øx1 . Solucion a algunos ejercicios M´todo de m´xima verosimilitud e a x ¯ pn¯ Ô1 ¡ pÕnÔ1¡xÕ . 270. . . i 271. . e igualando a cero se encuentra que ¯ p x. 267. Estimaci´n por intervalos o 273. x2 . — Pruebas de hip´tesis o 276. Derivando el logaritmo de la funci´n de verosimilitud e igualando a o cero se encuentra que θ ¡nß n 1 ln xi . se toma logaritmo. — Pruebas para la media de una distribuci´n normal o con varianza conocida 277. se o iguala a cero y se encuentra que p xßn en donde x ¯ ¯ Ôx 1   x 2   ¤ ¤ ¤   xm Õßm. λ 269. x2 . Conociendo entonces n se calcula la funci´n a o de verosimilitud como funci´n de p. — 275. xn puede ser mayor a b. . x2 . xm . ni menor ın a a a. Ninguno a o de los valores observados x1 . ˆ 268. 272.214 ´ B. p ˆ ¯ X. se deriva. Es por ello que se propone a m´ Øxi Ù y b m´x Øxi Ù. . . . derivando. . En este caso el m´ximo de la funci´n de verosmilitud no existe. xm Ù. El par´metro n es un n´mero entero positivo que no puede ser menor a u a ninguna de las observaciones x1 . — 274. . Se acepta H0 . . . . .

10. α 0. ¯ 281. no se cumple que t tα. Por lo tanto ¯ se rehaza la hip´tesis H0 . α 0. es decir.25.025. la nueva m´quina parece estar o a llenando cantidades distintas de 600ml. x ¯ 65. s2 347.99 1.356 y t Ôx ¡ ¯ µ0 ÕßÔsß nÕ 0. t0.10. α 0. Los peces parecen estar disminuyendo en tama˜o. no parece que el curso de preparaci´n o o tenga alg´n efecto positivo en el resultado del examen.n¡1 . . t0. x 19. Por lo tanto.029.n¡1 y no se rechaza la hip´tesis H0 . u .57.383 y t Ôx¡µ0 ÕßÔsß nÕ ¯ o -2.05.11990. y entonces se rechaza la hip´tesis H0 . n 282.10. Pruebas para la media de una distribuci´n normal o con varianza desconocida 280. el cociente µ0ß¡µ1 diverge a infinito o menos infinito 279.153.12 1.215 278.9 1. Cuando n σ n dependiendo del signo de la diferencia µ0 ¡ µ1 . Se rechaza H0 . s2 1. Por lo tanto. es decir.641.251.10. t ¡tα. t0.960 y t Ôx ¡ µ0 ÕßÔsß nÕ 6.

216 ´ B. Solucion a algunos ejercicios .

̺ Σ σ. ¨2. . ϑ alfa beta gamma delta epsilon zeta eta teta Iι Kκ Λλ M µ Nν Ξξ Oo Ππ iota kapa lambda mu nu xi omicron pi P ρ. 3. 0. . b È Z con b reales. ¨1. . ¨3. . ε Zζ H η Θ θ. El alfabeto griego Aα Bβ Γγ ∆δ E ǫ. . ϕ X χ Ψψ Ωω ro sigma tau upsilon fi ji psi omega 217 . enteros 0. 2. ς T τ Υυ Φ φ. .Ap´ndice C e Formulario Notaci´n o N Z Q R Conjunto Conjunto Conjunto Conjunto de de de de n´meros u n´meros u n´meros u n´meros u naturales 1. racionales aßb en donde a.

x 1 x. c) log an d) log n a 0. Formulario Exponentes a) x1 b) x0 c) x¡1 d) xn xm e) xn xm x. m n. 0. 1 n log a   log b. xn y n . 1 xn . log a. xn m . n g) Ôxy Õn h) f) Ôxn Õm Ô x Õn y i) x¡n j) xmßn x 0.218 C. Logaritmos a) log ab b) log a b log a ¡ log b. a constante. x 0. Sumas a) n ô k m xk xm   xm 1   ¤ ¤ ¤   xn . b) n ô k 1 a . xm . na. n log a. xn yn . xnm . 1. xn¡m . e) log 1 f) loga a 1.

b È R. .219 n ô k 1 c) k nÔn   1Õ . ¡ sen x. n È N. c constante. x cos x. a. 1. f) n ô k m ak 1. ak bn¡k 2 d) n ô k 1 n ô k 1 k2 e) k3 . a 1¡a ex . Derivadas a) b) c) d) e) f) g) d c dx d x dx d n x dx d x e dx d ln x dx d sen x dx d cos x dx 0. 2 nÔn   1ÕÔ2n   1Õ . x È R. nxn¡1 . 1 . g) ô xk k 0 k! h) n ô ¢n ª k 0 k Ôa   bÕn. 2 nÔn   1ÕÔ2n   1Õ 2 am ¡ an 1 . ex .

sen x   c. C.220 d Öf ÔxÕ ¨ gÔxÕ× dx d Öf ÔxÕ gÔxÕ× dx d f ÔxÕ dx gÔxÕ f ½ ÔxÕ ¨ g½ ÔxÕ. Formulario h) i) j) k) gÔxÕf ½ ÔxÕ ¡ f ÔxÕg½ ÔxÕ . n ¡1. ÷ cos x dx u dv i) uv ¡ v du. f ÔxÕ   c. (Integraci´n por partes) o . a x ln x ¡ x   c. d) ÷ dx x eax dx e) ÷ 1 ax e   c. (Regla de la cadena) d f ÔgÔxÕÕ dx ÷ ÷ ÷ ÷ Integrales a) b) ÷ df ÔxÕ a dx xn dx f ½ ÔxÕ dx dx. a c) ÷ x n  1 n 1 ln x   c.   c. g 2 ÔxÕ f ½ ÔgÔxÕÕ g½ ÔxÕ. f ÔxÕ g½ ÔxÕ   f ½ ÔxÕ gÔxÕ. f) ÷ ln x dx sen x dx ÷ g) h) ÷ ¡ cos x   c.

9993 0.7324 0.9846 0.6255 0.9803 0.9857 0.9678 0.9936 0.08 0.9959 0.7454 0.9977 0.9991 0.9591 0.9980 0.6985 0.8980 0.09 0.9904 0.8686 0.9949 0.9838 0.5000 0.9429 0.7123 0.8531 0.9989 0.0 2.9793 0.9952 0.0 0.5438 0.9812 0.9463 0.9990 0.7794 0.5948 0.9997 0.8078 0.9996 0.9986 0.7734 0.9973 0.8186 0.9798 0.7580 0.9970 0.5753 0.7967 0.9032 0.9452 0.9989 0.6664 0.9817 0.9625 0.9909 0.9761 0.9951 0.9960 0.2 3.9976 0.9192 0.9946 0.9913 0.9995 0.8485 0.9981 0.9875 0.9997 ÷x ¡ e¡t 2 ß2 dt 0.9956 0.9969 0.9535 0.9656 0.5080 0.5398 0.7357 0.5517 0.9901 0.9997 0.9850 0.8159 0.6517 0.06 0.9162 0.9911 0.8238 0.5160 0.9726 0.8790 0.7291 0.9985 0.8944 0.7823 0.05 0.9251 0.9994 0.9994 0.9979 0.8212 0.9864 0.9967 0.8 0.9641 0.5359 0.9884 0.8106 0.9995 0.9406 0.9995 0.9881 0.9971 0.9988 0.221 Tabla de la distribuci´n normal est´ndar o a x Φ Ôx Õ x 0.9778 0.7422 0.9222 0.8 1.8729 0.9207 0.7257 0.8508 0.8315 0.8365 0.6 1.9599 0.9306 0.8749 0.6844 0.9993 0.9783 0.3 1.7852 0.9996 0.9495 0.9943 0.9826 0.6700 0.9990 0.8340 0.9357 0.9996 0.6915 0.9927 0.9995 0.9871 0.6179 0.6480 0.8438 0.7611 0.9991 0.8413 0.9664 0.6103 0.9505 0.8907 0.9370 0.9992 0.6736 0.8554 0.9997 0.9265 0.8577 0.6808 0.9984 0.3 0.9788 0.9066 0.9834 0.8665 0.9332 0.5714 0.2 1.5557 0.9994 0.9990 0.9906 0.9772 0.9997 0.01 0.4 1.9992 0.7019 0.03 0.9292 0.5871 0.9987 0.6217 0.9898 0.9932 0.9974 0.9934 0.9920 0.8708 0.7389 0.8810 0.7910 0.9941 0.9744 0.6772 0.04 0.4 0.9868 0.9131 0.8264 0.9418 0.9633 0.9918 0.8023 0.9649 0.9564 0.7224 0.6591 0.2 0.9987 0.8770 0.6443 0.9821 0.6879 0.9983 0.9982 0.9929 0.9993 0.7939 0.7088 0.9279 0.0 1.9992 0.8051 0.9995 0.6554 0.9893 0.9995 0.9985 0.6406 0.9977 0.9582 0.4 2.6 0.9608 0.9767 0.9484 0.5 2.9 3.9982 0.7995 0.9345 0.9808 0.7157 0.8461 0.9896 0.7 0.9938 0.9671 0.9706 0.7190 0.9 2.7673 0.9738 0.9994 0.9713 0.6950 0.9953 0.8399 0.4 0.5239 0.9955 0.1 3.9965 0.8643 0.5478 0.00 0.9573 0.9957 0.9961 0.8925 0.8133 0.9890 0.9966 0.9236 0.9979 0.9974 0.9515 0.9887 0.9394 0.9 1.02 0.8 2.8621 0.1 2.8869 0.9916 0.9082 0.9984 0.6141 0.9962 0.8997 0.9554 0.3 3.7881 0.6628 0.7704 0.9998 0.9732 0.9922 0.9878 0.7517 0.5040 0.8599 0.9147 0.8849 0.9177 0.5 1.8830 0.6026 0.0 3.5910 0.9996 0.6331 0.9986 0.8289 0.9830 0.9993 0.9948 0.9945 0.6293 0.9693 0.6368 0.9940 0.07 0.7 2.9964 0.6064 0.9997 .7486 0.9996 0.5832 0.7 1.9975 0.5675 0.9545 0.7054 0.9750 0.9719 0.9988 0.3 2.2 2.9441 0.5279 0.5 0.9981 0.9842 0.1 0.9115 0.9049 0.5319 0.5987 0.5793 0.9686 0.9756 0.9994 0.9992 0.9963 0.5120 0.9996 0.7642 0.9015 0.8962 0.9099 0.9997 0.9616 0.9997 0.9931 0.9925 0.5596 0.5199 0.9319 0.9382 0.1 1.7764 0.9987 0.9972 0.9997 0.9997 1 2π 0.5636 0.9861 0.6 2.9854 0.9699 0.9968 0.9991 0.8888 0.9989 0.9474 0.9525 0.9978 0.7549 0.

250 3.717 1.624 2.925 5.714 1.571 2.319 1.492 2.706 4.462 2.898 2.182 2.045 1.831 2.015 1.657 9.779 2.706 1.356 1.650 2.819 2.325 1.645 3.110 2.841 4.060 2.896 2.350 1.473 2.323 1.746 1.326 12.055 3.541 3.120 2.365 2.701 1.721 1.228 2.303 3.143 2.508 2.467 2.365 3.796 1.699 1.761 1.222 C.052 2.05 α 0.797 2.604 4.179 2.316 1.012 2.886 1.101 2.353 2.771 2.812 1.711 1.025 63.132 2.725 1.01 tα.583 2.311 1.499 3.552 2.977 2.474 3.764 2.080 2.106 3.n α α 0.861 2.355 3.306 2.485 2.032 3.947 2.160 2.567 2.821 2.074 2.315 1.833 1.845 2.262 2.638 1.920 2.960 6.771 1.518 2.539 2.753 1.341 1.314 1.169 3.1 0.086 2.476 1.807 2.333 1.729 1.n Õ α α tα.756 2.397 1.708 1.145 2.345 1.998 2.787 2.479 2.447 2.821 6.372 1.093 2.965 4.860 1.337 1.740 1.056 2.321 1.718 2.131 2.703 1.878 2.314 2.500 2.533 1.328 1.078 1.005 α 0.313 1.763 2.776 2. Formulario Tabla de la distribuci´n t(n) o P ÔT n 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 α 0.734 1.415 1.576 31.330 1.383 1.318 1.064 2.602 2.069 2.291 2.048 2.363 1.282 .681 2.528 2.201 2.943 1.895 1.440 1.707 3.782 1.

Stone C. 21. N. J. C. Problems and snapshots from the world of probability. Elementos de probaa a bilidad y estad´stica. a [5] Granville W. Holst L. [11] Mendenhall W.. Houghton Mifflin. 1994. J. Sincich T. 223 . Houghton Mifflin. 1997. [10] Kolmogorov A. y Hern´ndez-Lerma O. Port S. 1979. a [6] Hern´ndez-Del-Valle A. 1983. a [7] Hoel P. A. 1950. Springer-Verlag. G. Sociedad ı Matem´tica Mexicana. [9] Hogg R. Tanis E.. [4] Garza T. 2008. Elementos de c´lculo de probabilidades. John Wiley & Sons. F. Limusa. Duxbury Press. Port S. C´lculo diferencial e integral. Chelsea Publishing Company. V. [2] Blomm G. UNAM. C. [8] Hoel P.. Stone C.. Probability and statistical inference. Nivel Elemental. 1971. [3] Devore J. G. A. Probability and statistics for the engineering and the sciences.. An introduction to applied probability. 1971. 2003..Bibliograf´ ıa [1] Blake I. 2006. Pearson/Prentice Hall.. Serie Textos No. Sandell D.. Probabilidad y estad´stica para ingenier´a y ı ı ciencias. Foundations of the theory of probability. Introduction to probability theory. 1982. Prentice Hall. Introduction to statistical theory.

M. M. Probability.. 2009. Prentice Hall. 1983. [13] Miller I. Graybill F. A. Introduction to probability and statistics for engineers and scientists. Academic Press. [16] Ross S. 2001. [18] Wisniewski P. Wisniewski P. M. . Ejercicios y problemas de la teor´a de las ı probabilidades. and stochastic processes... 1998. Prentice Hall. John E. Wiley. [14] Olofsson P. Introduction to the theory of statistics. Probabilidad y estad´stica para ingenier´a y ı ı ciencias.. Trillas. 2006. Thomson. 1999.. statistics. M. Bali G. 2005. A first course in probability. Miller M. Boes D. C. [19] Velasco G.224 Bibliograf´ ıa [12] Mood A. [17] Ross S. Simulation. [15] Ross S. M. Academic Press. 2009. Freund’s mathematical statistics. McGraw Hill.

102 Desviaci´n est´ndar. 60 binomial negativa. 76 a Poisson. 73 binomial. 24 Combinaciones. 5 Covarianza.´ Indice anal´ ıtico Axioma. 9 a Diferencia sim´trica. 59 Escala de intervalo. 8 Conjuntos ajenos. 10 muestral. 72 geom´trica. 75 normal est´ndar. 57 Weibull. 52 Estad´ ıstica. 62 e hipergeom´trica. 7 operaciones. 91 Espacio equiprobable. 85 gamma. 96. 13 Cantidad pivotal. 59 beta. 98 marginal. 70 F. 100 225 exponencial. 74 Ensayo Bernoulli. 106 Densidad conjunta. 53 o a de un conjunto de datos. 64 t. 169 Bernoulli. 91 de raz´n. 109 . 119 Coeficiente de correlaci´n. 23 Conjunto potencia. 89. 91 ordinal. 83 marginal. 94 Diagrama de ´rbol. 91 o nominal. 107 o multinomial. 84 uniforme continua. 49 propiedades. 68 e ji-cuadrada. 104 normal. 7 e Distribuci´n o arcoseno. 3 Esperanza. 66 conjunta. 69 uniforme discreta.

41 o conjunta. 111 gamma. 93 Medidas de dispersi´n. 77 o Estimaci´n o por intervalos. 7 M´todo e de m´xima verosimilitud. 96 Gr´fica de pastel. 115 . 3 determinista. 111 sesgado. 102 Funci´n de distribuci´n. 105 de varios eventos. 116 m´ximo veros´ a ımil. 28 de variables aleatorias. 4 evento compuesto. 94 o Moda de un conjunto de datos. 118 grado de confianza. 118 lim inferior. 4 simple. 118 Imagen inversa. 115 poblacional. 116 Intervalo de confianza. 118 lim superior. 112 puntual. 1Õ. 117 puntual. 56 muestral. 98. 43 o o bivariada. 89 inferencial. 118 Leyes de De Morgan. 100 ´ Indice anal´ ıtico marginal.226 descriptiva. 93 muestral. 49 aritm´tica. 7 Experimento aleatorio. 93 e de un conjunto de datos. 100 de un vector. 72 indicadora. 89 Estandarizaci´n. 101 conjunta. 110 Estimador de m´xima verosimilitud. 111 a de momentos. 116 Evento. 115 Media. 116 sesgo de un. 99 marginal. 39 o conjunta. 93 Momento –s. 104 Funci´n de probabilidad. 2 Funci´n o beta. 109 Mediana de un conjunto de datos. 112 a insesgado. 73 de distribuci´n. 77 de verosimilitud. 4 Eventos ajenos. 38 Independencia de dos eventos. 94 a Grado de confianza. 60 Funci´n de densidad. 56 –s centrales. 48 o NÔ0. 29 Insesgamiento.

11 de un evento. 21 o P´rdida de memoria e dist exponencial. 27 de Laplace. 128 o nivel de significancia. 53 de un conjunto de datos. 129 n Regla del producto. 10 a condicional. 35 cualitativa. 129 tama˜o de la. 94 Regi´n cr´ o ıtica. 22 Poblaci´n. 168 dist geom´trica. 155 Valor esperado. 80 de Bayes. 11 subjetiva. 129 regi´n cr´ o ıtica. 29 o Permutaciones. 10 frecuentista. 129 Rango de un conjunto de datos. 151 del estad´ ıstico inconsciente.´ Indice anal´ ıtico Muestra. 13 Producto Cartesiano. 30 del binomio. 20 o sin repetici´n. 49 promedio. 19 o Probabilidad axiom´tica. 109 propiedades. 49 Variable. 165 e Partici´n. 155 Sesgo. 96 continuo. 90 cuantitativa. 96 . 109 Nivel de significancia. 90 Varianza. 24 a Urna de Polya. 13 Principio de multiplicaci´n. 51 Tri´ngulo de Pascal. 94 muestral. 13 a cl´sica. 9 Prueba de hip´tesis. 88 o Postulado. 33 de probabilidad total. 90 aleatoria. 129 Ordenaciones con repetici´n. 116 Teorema 227 central del l´ ımite. 96 discreto. 54 Vector aleatorio. 89 aleatoria.

Sign up to vote on this title
UsefulNot useful