You are on page 1of 13

07.

ESPERANZA MATEMATICA

VALOR ESPERADO

Valor Medio. Sea X una Variable Aleatoria discreta o continua. Se denomina
esperanza matemática de X o valor esperado, E ( X) o bien , a la cantidad que se
expresada como,

E(X)   x i  f(x i ) E(X)   x i  f(x i )dx

x

respectivamente.

Ahora bien, ello es válido para transformaciones de la variable aleatoria, de forma
que

E ( h ( X ))  

h ( x )  f ( x )dx

En el caso continuo y similarmente para el caso discreto

Por las analogías existentes entre la definición de media aritmética y esperanza
matemática, las propiedades de linealidad de la primera se trasladan a la segunda, de
forma que se puede obtener,
E (a  bX)  a  bE (X )
E (X  E ( X))  E (X )  E (X)  0

Ejemplo. Si X es el número de puntos obtenidos al lanzar un dado de seis caras,
encontremos el valor esperado de la variable aleatoria Y = X2 .
La función de probabilidad de X es f(x) = 1/6 si x{1,2,3,4,5,6}. La función de
probabilidad
de Y = X2 es entonces f(y) = 1/6 si y{1,4,9,16,25,36}, así E(Y) = 1/*1 + 1/*4 +
1/*9 + 1/*16 + 1/*25 + 1/*36 = *P(X=1) + 22*P(X= 2) + 32*P(X= 3) +
42*P(X= 4) + 52*P(X= 5) + 62*P(X= 6) =  X2*P(X=x)

Ejemplo. Supongamos ahora que X es una v.a. que tiene función de probabilidad f(x)
= 1/6 si x{-2,-1,0,1,2,3}y Y = X2 . La función de probabilidad de Y es f(y) = 2/6 si
y{1, 4} y f(y) = 1/6 si y{0, 9}. Entonces E(Y) = 2/*1 + 2/*4 + 1/*0 + 1/*9.
Esta ecuación puede escribirse de la siguiente manera: E(Y) = 2/*1 + 2/4 + 1/*0
+ 1/*9 = *P(Y=1) + *P(Y=4) + *P(Y=0) + *P(Y=1) = 12*P(X=1 ó X=-1) +
22*P(X=2 ó X=-2) + 02*P(X=0) + 32*P(X=3) =  X2*P(X=x)

A través de estos ejemplos vemos que no es necesario calcular la función de
probabilidad de Y, sólo tenemos que usar la función de probabilidad de X y los
valores obtenidos al aplicar la

1

75 0. 4 4 4  3 ya que tenemos la suma de una progresión geométrica de razón menor que la unidad: Calculemos sucesivos valores de f(x) y F(x). y se calcula como.V(X)=b22 Ejemplo. x 2 3 4 5 … f(x) 3/4 3/16 3/64 3/256 … F(x) 0. f(x) decrece y F(x) crece hasta llegar a su máximo valor 1 P(X=3)=f(3)=0. c x 1 f(x)  4x 0 otro caso Obtener el valor de la constante c para que sea una función de probabilidad. Y como se observa que: si x crece. LA VARIANZA La varianza la denotamos mediante V(X) o VAR(X) o 2.f(x)dx  X Continua  Obsérvese que del mismo modo en que se demuestra la relación se comprueba que V(X)=E(X2)-(E(X))2 Similarmente. y P(x=3).987 0.987 Ejemplo para la variable aleatoria continua. y P(x≤3).999 …. función de densidad 2 .f(x i )  X Discreta 2  V(X)  E X  E(X)   x    x  E(X) 2 . V(a+bX)=b2.94 0.función Y = g(X) = X2 . Solución: Para ello consideramos.   x i  E(X) 2 . Consideramos una variable aleatoria discreta con función de probabilidad. Esto es cierto aún en el caso en que la función no es uno-uno. los valores de las funciones de probabilidad y distribución para todos los valores de x.047 P(X≤3)=0.  c 1 1 1  c  x 1 4 x  c 1  2  3    .

Teorema. c=4 x x x x4 F( x )   f ( x )dx    4 x 3 dx  4 4  x4 0 luego. y la probabilidad de que la variable este comprendida entre 0.. Corolario.2)=0. entonces su valor esperado es E(Y)= E(g(X))=f (x) g(x) . entonces E(aX + b) = aE(X) + b. es decir. Y = g(X) es una función a valores reales. esto es.2≤x≤0. Si a y b son constantes reales y g(X) = aX + b es una función a valores reales.22=0. entonces c/4=1.a. que representa el número de puntos obtenidos con un dado.72-0.7 Solución. =E(X)=1*1/6+2*1/6+3*1/6+4*1/6+5*1/6+6*1/6 `2=E(X2)=12*1/6+22*1/6+32*1/6+42*1/6+52*1/6+62*1/6 Sabemos que 2=`2-2=((91/6)-(7/2)2=35/12 Teorema:  2  2   2 Teorema. entonces E(aX) = aE(X). el valor medio.24 Ejemplo. Corolario.2 y 0. Estos resultados se pueden generalizar de la siguiente forma: 3 .a. Y es una v. Si b es una constante real. entonces E(b) = b.7)=F(0. 0 en valores x≤0 y 1 para x≥1 El valor medio es 1  1 x5 E (X)    x  f ( x )dx  0 x  4 x 3 dx  4 5  0. cx 3 0  x  1 f(x)  0 otro caso Hallar: El valor de la constante c para que sea una función de densidad. la función de distribución. 1 1 x4 c 0 cx 3 dx  c 4  4 0 La cual debe ser de valor 1. discreta y f(x) es su función de probabilidad. Calcule la varianza de la variable aleatoria x.8 0 P(0.7)-F(0. Consideremos. la función de distinción acumulada es F(x)=x4 para 0<x≤1. Si a es una constante real. Si X es una v.

entonces E(ci*gi(x))ci*E(gi(x)) Teorema. cn son constantes reales.. Ciertas mediciones codificadas del diámetro del avance de la cuerda de un ajuste tienen la densidad de probabilidad  4  2 0  x 1 f (x)   (1  x ) 0 otro  4 . es claro que la esperanza matemática es el momento de primer orden y que la varianza es el momento central de segundo orden μ  E(X1 )  μ 1 σ 2  V(X)  m 2 Ejemplo.. Var( X) = 2 = E(X2) – [E(X)]2 = E(X2) – 2 MOMENTOS La esperanza matemática y la varianza pueden ser calculadas a partir de otras medidas: el momento de orden r (r pertenece al conjunto de los naturales): r   x  f(x)  X Continua  r  r  E (X r )   r  x  f(x)  X Discreta x Asimismo se denomina momento central de orden r. g2(X) . Si c1. gn(X)..... . mr. y g1(X).   xi  E(X) r  f(xi )  X Discreta r x m r  E X  E ( X )       x  E(X) r  f(x)dx  Continua  De este modo. son funciones reales de X...Teorema.. c2.

1 P X  μ  kσ   2 k Este importante resultado. dada una Variable Aleatoria X. z. r  E(X r ) dt DESIGUALDAD DE TCHEBYCHEFF Variable Aleatoria tipificadas.Determine el valor esperado y la varianza 1 4 ln 4 Aplicando la definición. Si X es una variable aleatoria con esperanza E(X)= y varianza V(X)=2. La función generatriz de momentos de una v. donde existe. Si la densidad de probabilidad de la variable aleatoria x está dada por 5 . está definida por Mx(t)= E(etX)=etX*f(x) d r M x (t) Teorema. la probabilidad de realizar una observación de la variable y que esta no esté en dicho intervalo es inferior o igual a 1/k2: Si X es Variable Aleatoria con E(X)= y V(X)=2. En particular podemos usar la función generatriz de momentos. justifica el que  sea una medida central y  la medida de dispersión respecto a ese valor medio y motiva la introducción del concepto de tipificación de variables aleatorias. entonces para todo valor de k positivo. se puede demostrar que en general. una gran parte de la masa se encuentra en un intervalo centrado en  y que tiene por amplitud varias veces .2732  En muchas ocasiones puede ser complicado computar directamente los momentos de algunas variables aleatorias por lo cual debemos usar otras técnicas más convenientes. X. Más precisamente. definimos su Variable Aleatoria tipificada.a.4413 (1  x ) 2  4 1 x2 4  2  E(X 2 )    0 1 x 2 dx   1  0. X z  que es una Variable Aleatoria que presenta la característica de tener valor medio cero y varianza unitaria: E(X)=0 y V(X)=1 Ejemplo. así. por si sólo. como. E (X )  0 x  dx   0. la desigualdad de Thebycheff afirma que si consideramos un intervalo de centro  y radio k veces .

1 Teorema.. entonces. s  0.s  E( x r y s )    0 0 x r y s  f ( x . y)  1.20 630 x 4 (1  x ) 4 dx  0. para cualquier número  positivo: 6 .75.s es el valor esperado de xrys. representado por `r.96 es mucho mas especifico que la probabilidad es cuando menos 0.. Sea P(A)=p...80.. la probabilidad de que x tome un valor contenido en dos desviaciones de la media es la probabilidad de que tome un valor entre 0... x y    r . obtenemos que =1/2 y 2=1/44 o sea =0.80 P(0. y) r  0.s  E ( x   x ) r ( y   y ) s   ( x   x ) r ( y   y ) s  f ( x .  r .20 y 0.80)  0. igual para cualquier repetición. 630x 4 (1  x) 4 0  x  1 f (x )   0 otro Determine la probabilidad de que x tome un valor contenido en dos desviaciones estándar de la media y compárela con el límite inferior proporcionado por el teorema de Chebyshev Integrando directamente..20  x  0.15 Por tanto.  xy  1.s  E ( x   x ) r ( y   y ) s      0  0 ( x   x ) r ( y   y ) s  f ( x . y)dxdy Y con respecto al valor medio    r ..s  E( x r y s )    x r y s  f ( x. se nA el número de veces que ocurre A en las n repeticiones y fA=nA/n.. s  0.1   x  y TEORÍA DE LOS GRANDES NÚMEROS Y TEOREMA DEL LÍMITE CENTRAL Sea  un experimento y A un suceso asociado.. En n repeticiones independientes de  ..  xy  cov( x .96 Comparando: la probabilidad de 0. y) r  0. y)dxdy Teorema. enunciado por el teorema de Shebyshev MOMENTO PRODUCTO El r-ésimo y s-ésimo momento producto con respecto al origen de las variables aleatorias x y y. x y   r . 0.

. p(1  p) P f A  p     y n 2 p(1  p) P f A  p     1  n 2 Por lo anterior se puede demostrar que para grandes números la función de distribución binomial tiende a ser Normal Teorema del Límite Central: Sea X1. n X  i 1  i n Zn   N(0. sea Z=X+Y y sea w(i)=P[Z=z].... Entonces. n E[S]  n y V[S]  n 2 . entonces. y z=x+y Teorema: Si X y Y son variables aleatorias independientes con valores solo enteros positivos.. respectivamente. Sea p(k)=P[X=x] y q(r)=[Y=r].... siendo k=1. Sea X  i1 X n ....Xn son variables aleatorias independientes y tienen igual distribución y sean   E[X i ] y  2  V[X i ] . los valores esperados de media y varianza.  n i 1  2 i Si Gn es la fda de Zn. Lim G n ( Z)  (z) n  Teorema: Si X1. Lim P[Tn  t ]  ( t ) n  | Teorema: Sean X y Y variables aleatorias independientes con funciones de distribución de probabilidad g y h.. y r=1. entonces. es decir.1) n considerando. Sea S  i 1 X i .. Ahora bien.... w (i)  k  0 p( k )r (i  k ) i ESPERANZA CONDICIONAL 7 .Xn sucesos de variables aleatorias independientes con E[X i ]   i y V[X i ]   i2 . Usando la transformación w=x. s( z )   g ( w ) h ( z  w )dw . Sea Z=X+Y con Función de  distribución de probabilidad s definida como.1) . S  n Tn   N(0. entonces. para valores grandes de n.

y) 2 / 3(x  2 y) f ( x / y)   h ( y) 1 / 3(1  4 y)  12 5  1 2  E ( x / 1 / 2 )  0 3 x ( x  1) dx  9 f  x /   ( x  1)    2 3 E( x 2 / 1 / 2)  1 2 x 2 (x  1)dx  7  0 3 18 TEOREMA DE FOURIER – FUNCION GENERATRIZ Si X es una Variable Aleatoria cuya función característica es  X . Para esta función se verifican las relaciones 8 .Si x es una variable aleatoria discreta o continua y f(x/y) es el valor de la distribución de probabilidad condicional de x dada y. respectivamente E u ( x ) / y    u ( x )  f ( x / y) x  E u ( x ) / y    u ( x )  f ( x / y)dx  Ejemplo. 1  f(x)  2π  e itx Φ X (t)dt Esta propiedad de  X es fundamental. la esperanza condicional. de u(x) dada y es. La razón de ello estriba en una serie de propiedades de la función característica que la hacen muy manejable desde el punto de vista matemático. Si la densidad conjunta de dos variables aleatorias x y y está dada por 2 f (x)  (x  2y) para valores 0  x  1 y 0  y  1 3 Determine la media y la varianza condicionales de x dada y=1/2  2 1 1 h ( y)   f (x. su función de probabilidad (o densidad de probabilidad) es. ya que en una gran cantidad de casos es mucho más fácil trabajar con la función característica que con la propia función de probabilidad (o densidad). y)dx   ( x  2 y)dx  (1  4 y)  30 3 f ( x.

 Φ X (0)  E(e i0x )  E(1)    1  f(x)dt  1    Φ X (t)   e itx f(x)dx    e itx f(x) dx    1  f(x)dx  1 Φ X (  t)  E(e -itX )  E  cos( tX)   iE  sen( tX)   E  cos(tx)   iE  sen(tx)  Φ X (t) Aplicando a una recta. Sea Y  a  bX  Φ Y (t)  e ita Φ X (bt) . Sean X e Y Variables Aleatorias independientes. entonces. lo que se demuestra como.   Φ (r) X (0)  X (t)  Φ (r)  X (0)  i  x e f(x)dx  i r x r e itx f(x)dx Φ (r)  i r  x r e itx f(x)dx r r itx r   i  Función característica. X ( 0)  1  X (t)  1 t    X ( t )   X ( t ) t   Lo cual se puede verificar con.  X  Y ( t )   X ( t )   Y ( t ) La última propiedad de  que enunciamos es que al igual que la función generatriz de momentos. Es decir. Φ (r) (0) E(X )  X r r i Lo que se puede observar como. esta nos permite calcular los momentos de la variable (y por tanto su esperanza y su varianza). veamos. Para una Variable Aleatoria X se define su función característica como  e itx  f(x i )  Φ X (t)  E(eitX )   x  e itx  f(x)dx   Pero e itx  cos(tx)  isen(tx) . Φ Y (t)  E(e itX )  E e it(a  bX   E  e ita e itbX   e ita Φ X (bt) Una propiedad de  que es muy usada es que la suma de Variable Aleatoria independientes tiene por función característica el producto de las respectivas funciones características. Su denominación proviene del hecho de que una vez conocida la función 9 . lo cual nos conduce a la Tansformada de Fourier de f.

característica podemos determinar la función de distribución de la Variable Aleatoria y recíprocamente. respectivamente. siendo i  1 . y tienen fgm Mx(t). Mz(t)=Mx(t)My(t) 10 . My(t) y Mz(t). M x (0)  E[ x 2 ] En general.  t 2 E[ x 3 ] t n 1 E[ x n ]  M x ( t )  E[ x ]  tE[ x 2 ]       2! (n  2)!  Ahora bien. entonces. entonces X y Y tienen igual distribución de probabilidad. entonces. entonces. y sea Y  X   . M y ( t )  e t M x ( t ) Teorema: Si Mx(t) y My(t) son las fgm de X y Y que son variables aleatorias respectivamente y si Mx(t)=My(t). lo que es igual a   t 2 E[ x 2 ] t n E[ x n ]  M x ( t )  1  tE[ x ]       2! n!  Derivando tenemos. para todo t. si t=0. y esta función siempre existe para todo t Las principales funciones generadoras de momentos son: b e tx Un if or me : M x (t)  a b  a  n Bin o mial : M x (t)  k 0 e tk e   Po isso n : M x (t)  k 0 e tk    tx Ex p o nen cial : M x (t) e 0 x2 xn Propiedades: Sea la serie de MacLaurin de e : e  1 x     x x 2! n!  ( tx ) n    M x ( t )  E e tx  1  tx  ( tx ) 2 2!    n!   . entonces.  t n  2 E[ x n ]  M x ( t )  E[ x 2 ]  tE[ x 3 ]        (n  2)!  Si t=0. M x (0)  E[ x ] Volviendo a derivar. Teorema: Si X y Y son variables aleatorias independientes y Z=X+Y. M (xn ) (0)  E[ x n ] Teorema: La variable aleatoria X tiene una fgm M x.

Determine la función generatriz de momentos de la variable aleatoria x. cuya densidad de probabilidad está dada por. se tiene. entonces Z  tiene  media 0 y varianza 1 11 . t t2 tr M x ( t )  1  t  t 2    t r    1  1!  2!    r!   1! 2! r! Por consiguiente. que tiene media 0 y varianza 1  X Si una variable aleatoria X tiene media  y varianza  2 . r  r! r Transformada Lineal de una Variable Aleatoria X *  c1 X  c 2 c1  0  *  E[X * ]  c1 E[X]  c 2 E[1]  c1 X  c 2 X *   *  (c1X  c 2 )  (c1  c 2 )  c1 (X  ) En general.Ejemplo. esto es. X* toma la expresión c1  y c2   . Si entonces. E[(X *  * ) k ]  E[c k1 (X  ) k ]  c k1 (X  ) k ] *2  c1 2 que es un caso particular para k=2 La varianza es invariante bajo una traslación del origen. ex x  0 f(x)   0 otro Utilícela para hallar `r   1 M x ( t )  E (e tx )   0 e tx  e  x dx   e  x (1 t ) dx  0 1 t Expandiendo en la serie de McLaurin. una transformación 1  de la forma X *  X  c 2 .   X entonces  Z .

esto es.   E  X i   E[X i ] y E[XY]  E[X]E[Y] si X e Y son independientes Si X1. 12 .Y)] se define como   g(x. y)f (x.  XY  E[XY ]  E[ X ]E[ Y ] . y)] E[g(X. y)dxdy  Continuo    E[ag(X. o sea... entonces   E  X n    E[X n ]  n  n Varianza: Si se tiene Z=X+Y.   r dt r De este teorema se desprende. Y)]    x y   g(x. lo que conduce a . Y)]   g(x) f (x. y)f (x. Y)]  aE[g(x. y)   g(x)f1 (x)  depende de X x y x E[X+Y]=E[X]+E[Y] El valor medio de una suma de variables aleatorias es igual a la suma de los valores medios de las variables aleatorias.X2. d r M x (t) Teorema. M x  a ( t )  E  e ( x  a ) t   e at  M x ( t )   M bx ( t )  E e bxt  M x (bt )   x a   a   e b  M  t   t t M x  a ( t )  E e  b    x b b   ESPERANZA BIDIMENSIONAL E[g(X. y)  Discreto  E[g(X. Y)  bh(X. entonces  2  E[ Z 2 ]  (E[ Z]) 2 de donde E[ Z 2 ]  E[X 2  2XY  Y 2 ]  (E[X]  E[Y ]) 2 . y)]  bE[h(x.Xn son variables aleatorias independientes..

tx  siendo f(x) la función de distribución de probabilidades 13 ... con varianza común 2 ... entonces Si X1. es igual a la suma de esas varianzas Si X1.X2.Xn son variables aleatorias independientes.X2. entonces 1 X ( X1  X n ) n y tienen varianza Si X1.Xn son variables aleatorias independientes. y si X e Y son independientes.  XY  0 La varianza de una suma de variables aleatorias independientes cuyas varianzas existan.. entonces 2  2X  n La fgm se define como: Sea X una variable aleatoria con dp p(x i)=P[X=xi]...Xn son variables aleatorias independientes. y  tx j M x ( t)  j 1 j  Mx ( t)   d f ( x)dx para el caso continuo.X2.. 2   2X   2Y  2 XY .. la función Mx es la fgm de X y se define como  e p( x ) para el caso discreto.