You are on page 1of 7

Teora elemental de probabilidad

CAPTULO 6
DEFINICIONES DE PROBABILIDAD Definicin clsica
S u p n g a s e que un evento E puede suceder de h maneras, de un total de n posibles formas igualmente probables. Entonces, la probabilidad de ocurrencia de dicho evento (llamado xito) se denota por p = Pr{E}=n

L a probabilidad de no ocurrencia del evento (llamado/racaso) se denota por q = Pr {noE}=?-^= 1 - = 1 -p= 1 - Pr{}

Por lo tanto, p + q - l o P r { } + Pr{no } = 1. E l evento "no " en ocasiones se denota por E,E o ~E. EJEMPLO 1 Sea sel evento en que al lanzar un dado una vez se obtenga un 3 o un 4. Existen seis formas en que el dado puede caer, siendo stas las caras 1,2, 3,4, 5 o 6; si el dado es bueno (es decir, no est cargado), se supone que las 6 caras tienen la misma probabilidad de ocurrir. Puesto que E puede ocurrir en dos de estas maneras, entonces p = Pr{} = 1 = 3. La probabilidad de no obtener un 3 o un 4 (es decir, obtener 1, 2, 5 o 6) es q = Pr{) = 1 - i = f. O b s r v e s e que la probabilidad de un evento es un n m e r o entre 0 y 1. Si el evento no llega a suceder, su probabilidad es 0. Si debe ocurrir (es decir, si su ocurrencia es una certeza), su probabilidad es 1. Si p es la probabilidad de que un evento ocurra, las probabilidades a favor de su ocurrencia son p : q (lase "p a q"); las probabilidades en contra de su ocurrencia son q : p. As. las probabilidades en contra de la ocurrencia de un 3 o un 4 en un solo lanzamiento de un dado bueno son q : p = : 3 = 2 : 1 (es decir, de 2 a 1).

Definicin como frecuencia relativa


L a definicin clsica de probabilidad cuenta con la desventaja de que el t r m i n o " p a t a t a te posible" es vago. De hecho, ya que el t r m i n o parece s i n n i m o de "igualnme f ble", la definicin es circular debido a que la probabilidad se est definiendo.

. :

_ _2 t

"ecr/a elemental

de

probabilidad

te, con sus propios t r m i n o s . Por esto, algunas personas han propuesto una definicin es dstica de probabilidad. Para ellos, la probabilidad estimada o probabilidad emprica de evento es la frecuencia relativa de ocurrencia del evento cuando el n m e r o de observac: nes es muy grande. L a probabilidad es el lmite de la frecuencia relativa, conforme el nrr ro de observaciones crece en forma indefinida. EJEMPLO 2 Si l OOO lanzamientos de una moneda dan como resultado 529 caras, entonces la frecuencia relati de caras es de 529/1 000 = 0.529. Si en otros 1 000 lanzamientos resultan 493 caras, tenemos que frecuencia relativa de los 2 000 lanzamientos totales es de (529 + 493)/2 000 = 0.511. De acuerdo c la definicin estadstica, si se continuara de esta manera, se acercara cada vez ms a un nmero q representa la probabilidad de obtener una cara en un solo lanzamiento de la moneda. De los resultad presentados hasta ahora, ste debe ser 0.5, con un solo dgito. Para obtener ms dgitos habr q realizar ms observaciones. L a definicin estadstica, aunque til en la prctica, implica dificultades desde el pun de vista m a t e m t i c o , ya que q u i z no exista un n m e r o lmite real. Por esto, la moder teora de la probabilidad es axiomtica; es decir, la teora deja el concepto de probabilid; sin definir, de la misma manera en que punto y lnea no tienen una definicin en geometri

"^

PROBABILIDAD CONDICIONAL: EVENTOS INDEPENDIENTES Y DEPENDIENTES


Si E y E son dos eventos, la probabilidad de que E ocurra, dado que s, haya ocurrido. I denota por Pr{E \E ) o P r { d a d o , } , y se denomina probabilidad condicional de puesto que E ha ocurrido.
2 2 2 x 2

Si la ocurrencia o no ocurrencia de ", no afecta la probabilidad de ocurrencia de entonces Pr[E lE} = Pr{E }. Por ello se dice que E y E son eventos independientes; e caso contraro, son eventos dependientes.
2 2 x 2

Si se denota mediante E E al evento en el cual "ambos, E y E , ocurren", llamado e ocasiones evento compuesto, entonces
X 2 ] 2

PT{E E }=PT{E }PT{E \E }


2 2

(j

En particular, Pv{E\E ]
2 x

= Pr{,} Pr{ }
2 2

para eventos independientes

(2

Para tres eventos E ,E y

E:
2 3 2 3 i 2

P r { , } = Pr{-,} P r { l , } P r { l : }
t! 2 3

(J

Esta es la probabilidad de ocurrencia de E E y , y es igual a (la probabilidad de , ) X (1 probabilidad de E , dado queis, ha ocurrido) 3 (la probabilidad de E^njado que , y E hai ocurrido). En particular,
2 2

P T { E E E } = Pi{E}
2 }

Pr{E }
2

Pr{ }
3

para eventos independientes

(4

En general, si E , ,...,
2 3

E son n eventos independientes, con sus probabilidade:


2 } n

respectivas p, p ,p ,...,
2 3

p , luego la probabilidad de ocurrencia de E y E y E y E e:


n

P\PiPi-PEJEMPLO 3

Sean E y EJ los eventos "cara en el quinto lanzamiento" y "cara en el sexto lanzamiento" de un moneda, respectivamente. Entonces E yE son eventos independientes; por lo tanto, la probabilidac de obtener caras en el quinto y sexto lanzamientos es (suponiendo que la moneda no est cargada)
] t 2

P r { , - } = P r { , } Pr{E }
2 2

= Q

= I

Distribuciones

de probabilidad

29

EJEMPLO 4

Si la probabilidad de que A est vivo dentro de 20 aos es de 0.7 y la probabilidad de que B est vivo dentro de 20 aos es de 0.5, entonces la probabilidad de que ambos estn vivos dentro de 20 aos es (0.7)(0.5) = 0.35. Supngase que una caja contiene 3 bolas blancas y 2 bolas negras. Sea Z?, el evento "la primera bola extrada es negra" y el evento E "la segunda bola extrada es negra"; considere que las bolas extradas no se regresan a la caja. Aqu, E y E son eventos independientes. La probabilidad de que la primera bola extrada sea negra es Pr{,} = 2/(3 + 2) = . La probabilidad de que la segunda bola extrada sea negra, dado que la primera bola fue negra, es Pr{ys,} = 1/ (3 + 1) = \. Por lo tanto, la probabilidad de que las dos bolas extradas sean negras es:
2 2

EJEMPLO 5

P r { , } = P r { , } Pr{E \E,}
2 2

= 1 I =

EVENTOS MUTUAMENTE EXCLUYENTES


Se dice que dos o m s eventos son mutuamente excluyentes si la ocurrencia de uno de ellos excluye la ocurrencia de los otros. A s , si , y E son eventos mutuamente excluyentes, entonces ~Pr{E E } - 0.
2 X 2

Si E + E denota el evento "ocurre , o E o ambos", luego


2 2

Pr{- + } = P r { } + P r { } - P r { }
1 2 1 2 1 2

(5)

En particular, Prfi?! + E ) - Pr{2?,} + P r { }


2 2 u 2 n

para eventos mutuamente excluyentes

(6)

Como e x t e n s i n de esto, si E E ,..., E son n eventos mutuamente excluyentes con las respectivas probabilidades de o c u r r e n c i a p , p , . . . , p , entonces la probabilidad de ocurrencia de E o E o E es p , + p + + p ,
{ 2 n 2 n 2 n

E l resultado (5) t a m b i n puede generalizarse a tres o m s eventos mutuamente excluyentes ( v a s e el problema 6.38). EJEMPLO 6 Si , es el evento "extraer un as de una baraja" y E es el evento "extraer un rey", entonces Pr{,} = 5^ = y Pr{E ) = A = fs- La probabilidad de extraer un as o un rey en un solo evento es
2 2

Pr{2-, + E } = P r { , } + P r { } = 1 + 1
2 2

dado que un as y un rey no pueden obtenerse en una sola extraccin; por lo tanto, son eventos mutuamente excluyentes. EJEMPLO 7 Si E es el evento "extraer un as" de una baraja y E es el evento "extraer una espada", entonces , y E no son mutuamente excluyentes, puesto que se puede obtener el as de espadas. Por consiguiente, la probabilidad de extraer un as o una espada o ambas es
2 2

Pr{! + E } = Pr{,} + Pr{ } 2 2

Vr{E E }
x 2

_4_ 52
+

13 _ J _ 52 52
:

16 52

_4_
;

13

DISTRIBUCIONES DE PROBABILIDAD Discretas


Si una variable X llega a tomar un conjunto discreto de valores X . XX . con tivas p r o b a b i l i d a d e s p , p , . . . , p , donde/?,+ p + + p - 1, se dice que se ha distribucin de probabilidad discreta para X. L a funcin p{X). que tiene los tivos: p , , p p p a r a X = Jf X ,..., X , se denomina como la funcin
t K x 2 K 2 K 2 K 2 K

~eona elemental

de

probabilidad

funcin de frecuencia de X. Debido a que X puede tomar ciertos valores con probabilidades dadas, con frecuencia se le llama variable aleatoria discreta. Una variable aleatoria tambin se conoce como variable azarosa o variable estocstica. EJEMPLO 8 Sea que se lance un par de dados y que X denote la suma de los puntos obtenidos, entonces la distribucin de probabilidad es igual a la que se presenta en la tabla 6-1. Por ejemplo, la probabilidad de obtener la suma 5 es ^ = 5; as, en 900 lanzamientos de los dados, se esperara que en 100 de ellos la suma fuera 5. N t e s e que esto es a n l o g o a una distribucin de frecuencias relativas, donde las probabilidades reemplazan a las frecuencias relativas. Por l o tanto, se puede considerar a las distribuciones de probabilidad como formas tericas o ideales del lmite de distribuciones de frecuencia relativa cuando el n m e r o de observaciones realizadas es muy grande. Por esto, se p e n s a r a que las distribuciones de probabilidad son distribuciones de poblaciones, mientras que las distribuciones de frecuencia relativa son distribuciones de muestras obtenidas de dicha p o b l a c i n . T a b l a 6-1 X P(X) 2 1/36 3 2/36 4 3/36 5 4/36 6 5/36 7 6/36 8 5/36 9 4/36 10 3/36 11 2/36 12 1/36

L a distribucin de probabilidad puede representarse grficamente dibujando p(X) contra X, igual que en las distribuciones de frecuencia relativa ( v a s e el problema 6.11). Por medio de la a c u m u l a c i n de probabilidades, se obtienen distribuciones de probabilidad acumulada, que son a n l o g a s a las distribuciones de frecuencia relativa acumulada. L a funcin asociada con esta distribucin se denomina funcin de distribucin.

Continuas
Las ideas anteriores llegan a extenderse al caso en el que la variable X puede tomar un conjunto continuo de valores. E l p o l g o n o de frecuencia relativa de una muestra se convierte, en el caso terico o lmite de una poblacin, en una curva continua (como la de la figura 6-1), cuya e c u a c i n es Y = p(X). E l rea total bajo esta curva, y sobre el eje X, es igual a 1, en tanto que el rea baj o la curva entre las lneas X = a y X = b (sombreada en la figura 6-1) da la probabilidad de que X est entre a y b, que puede denotarse P r { a < X < b}.

F I G U R A 6-1

P(X)

Se llama a p(X) una funcin de densidad de probabilidad o, de forma breve, funcin de densidad; cuando dicha funcin est dada, se dice que se ha definido una distribucin de probabilidad continua para X. Entonces, la variable X se denomina variable aleatoria continua. Igual que en el caso discreto, es posible definir las distribuciones de probabilidad acumulada y las funciones de distribucin asociadas.

Anlisis combinatorio

131

ESPERANZA MATEMTICA
Si p es la probabilidad de que una persona reciba una suma de dinero S, entonces la esperanza matemtica (o simplemente la esperanza) se define como pS.

EJEMPLO 9

Si la probabilidad de que un hombre gane un premio de $10 es 5, su esperanza es de s($10) = $2. El concepto de esperanza es fcil de extender. Si X denota una variable aleatoria discreta que puede tomar los valores X ,X ,...,X con sus respectivas probabilidades P\,p ,---,p i donde p + p + +p = 1, la esperanza matemtica de X (o simplemente la esperanza de X), denotada por E(X), se define como
l 2 K 2 K x 2 K

E{X)

= X
Pl

+p2X -H + p X
2 K

=
M

PjXj

(7)

Si las probabilidades p de tal esperanza se reemplazan con las frecuencias relativas^/ /V, donde Y.fp la esperanza se reduce a(Y.fX)/N, que es la media aritmtica X de una muestra de t a m a o N, en la cual X X ,...,X aparecen con estas frecuencias relativas. Conforme N se hace m s y m s grande, las frecuencias relativas //N se aproximan a las probabilidades Pj. Por l o tanto, esto conduce a interpretar que E(X) representa la media de la poblacin de donde se obtuvo la muestra. Si llama m a la media de la muestra, puede denotar la media poblacional con la letra griega correspondiente fi (mu).
U 2 K

T a m b i n es posible definir la esperanza para variables aleatorias continuas, aunque esta definicin requiere el empleo del clculo.

RELACIN ENTRE POBLACIN, MEDIA MUESTRAL Y VARIANZA


Si se selecciona aleatoriamente una muestra de t a m a o /V de una p o b l a c i n (es decir, se asume que todas las muestras son igualmente probables), entonces es posible mostrar que el

valor esperado de la media muestral m es la media poblacional X.


Sin embargo, no se concluye que el valor esperado para cualquier cantidad calculada, a partir de una muestra, sea la cantidad poblacional correspondiente. Por ejemplo, el valor esperado de la varianza muestral, como se ha definido, no es la varianza poblacional, sino (N - \)IN veces dicha varianza. Por esta r a z n algunos estadsticos prefieren definir la varianza muestral como la varianza multiplicada por N(N - 1).

ANLISIS COMBINATORIO
Para obtener probabilidades de eventos complejos, frecuentemente la e n u m e r a c i n de casos es difcil, tediosa o ambas. Para facilitar el trabajo se utilizan principios b s i c o s estudiados en un tema llamado anlisis combinatorio.

Principio fundamental
Si un evento puede ocurrir en cualquiera de rc, maneras y si, cuando esto ha ocurrido, c*re evento llega a ocurrir en cualquiera de n maneras, entonces el n m e r o de maneras em ambos eventos sucederan en el orden especificado es n n .
2 x 2

EJEMPLO

10

Si existen 3 candidatos para gobernador y 5 para alcalde, los dos cargos pueden ocapaaer: maneras.

,.Z

~ e : - a e e m e n t a ! de

probabilidad

Factorial de n
E l factorial de n, denotado por n\, se define como n\ =n(nl)(n-2) 1 (5)

Por lo tanto, 5! = 5 4 3 2 1 = 120 y 4!3! = (4 3 2 1)(3 2 1) = 144. Es conveniente definir 0! = 1.

Permutaciones
Una p e r m u t a c i n de n objetos diferentes, tomados de r a la vez, es una ordenacin de r objetos tomados de entre n objetos dados, con especial a t e n c i n prestada al orden de la eleccin. E l n m e r o de permutaciones de n objetos, tomando r a la vez, se denota por P , P(n,r) o P , y est dada por
n r nr

= n(n-\)(n-2)---{n-r+\)=j^-^

(9)

En particular, el n m e r o de permutaciones de n objetos, tomados n a la vez, es "P = n{nE J E M P L O 11 l ) ( n - 2 ) - - - l = n!

El nmero de permutaciones de las letras a,byc, ba, ac, ca, be y cb.

tomando dos a la vez, es P = 3-2 = 6. stas son ab,


} 2

E l n m e r o de permutaciones de n objetos, que consisten de grupos en los que n son iguales, n son iguales, es
2

donde n = n + n H
x 2

(70)

E J E M P L O 12

El nmero de permutaciones de letras en la palabra "estadsticas" es 12! 1!3!2!2!1!2!1! = 9 979 200

dado que tiene una letra "e", 3 letras "s", 2 letras "t", 2 letras "a", una letra "d", 2 letras " i " y una letra "c".

COMBINACIONES
Una c o m b i n a c i n de n objetos diferentes, tomando r a la vez, es una seleccin de r objetos de los n objetos, sin prestar atencin al orden de eleccin. E l n m e r o de combinaciones de n objetos, tomando r a la vez, se denota con el s m b o l o

0
n\ EJEMPLO 13

. n(n - 1) (n - r + 1)

n\ r\(n - r)\

(11)

El nmero de combinaciones de las letras a, b y c, tomando dos a la vez, es '3\


2J

3-2 2!

stas son ab, ac y be. Observe que ab es la misma combinacin que ba, pero no la misma permutacin.

Relacin

de Id probabilidad

con la teora de conjuntos

133

APROXIMACION DE STIRLING PARA n!


Cuando n es grande, una evaluacin directa de n! es poco prctica. E n tal caso, se utiliza f r m u l a aproximada desarrollada por James Stirling: n\ PS \2min
n

e~

(12)

donde e = 2.71828 es la base natural de logaritmos (vase el problema 6.31).

RELACION DE LA PROBABILIDAD CON LA TEORA DE CONJUNTOS


En la teora de probabilidad moderna se piensa en todos los resultados posibles de un experimento, juego, etctera, como puntos en un espacio (que pueden ser de una, dos, tres, etctera, dimensiones), llamado espacio muestral S. Si S contiene slo un n m e r o finito de puntos, entonces a cada punto se le llega a asociar un n m e r o no negativo, denominado probabilidad, tal que la suma de todos los n m e r o s correspondientes a todos los puntos en S sea 1. U n evento es un conjunto (o coleccin) de puntos en S, como E y E en la figura 6-2; esta figura es un diagrama de Euler o un diagrama de Venn.
2

FIGURA 6-2

El evento E + E es el conjunto de puntos que se encuentran ya sea en E o en E , o en ambos, mientras que el evento E E es el conjunto de puntos comunes a E y a E . A s , la probabilidad de un evento como E es la suma de las probabilidades asociadas con todos los puntos contenidos en el conjunto E . De forma similar, la probabilidad de E + E , simbolizada por Pr{E + E ] , es la suma de las probabilidades asociadas con todos los puntos contenidos en el conjunto E + E . Si E y E no comparten puntos en c o m n (es decir, los eventos son mutuamente excluyentes), entonces P r ^ + E ] = Pr{E ] + Pr{E }. Si hay puntos comunes, entonces P r { , + E ] = Pr{s,} + Pr{E } - PT{E E }.
X 2 X 2 X 2 x 2 X X X 2 X 2 X 2 X 2 2 X 2 2 2 X 2

E l conjunto E + E se denota como E U E y se denomina la unin de dos conjuntos. El conjunto E E se denota por E (~1 E y se denomina la interseccin de los dos conjuntos. Se puede extender a m s de dos conjuntos; as, en lugar de E + E + y E E E , se pueden usar las notaciones E U E U E y E (1 E D E , respectivamente.
X 2 X 2 X 2 X 2 X 2 3 X 2 } X 2 X 2 3

El s m b o l o <f> (letra griega phi) se utiliza para indicar un conjunto sin puntos llamado conjunto vaco. L a probabilidad asociada con un evento correspondiente a este conjunte a cero (es decir, Pr{ <p] = 0). Si en E y E no hay puntos en c o m n , se puede escribir E E - c que significa que los eventos correspondientes son mutuamente excluyentes. de donde Pr{E E ) = 0.
2 x 2

Con este enfoque moderno, una variable aleatoria es una funcin definida en cada pasto del espacio muestral. Por ejemplo, en el problema 6.37 la variable aleatoria es la s*at ae las coordenadas de cada punto. En el caso en que S tenga un n m e r o infinito de puntos, las ideas anienarc* se amernden utilizando conceptos de clculo.