LAS ESTADÍSTICAS DE ORDEN COMO UNA APLICACIÓN 

DE TRANSFORMACIÓN  DE FUNCIONES  VARIABLES 

OLGA ARDILA SANCHEZ 
oardilas@gmail.com 

Trabajo de Grado para Optar el Titulo de Matemático 

Director 
Benigno Lozano Rojas 

FUNDACION UNIVERSITARIA KONRAD LORENZ 
FACULTAD DE MATEMATICAS 
BOGOTA D.C. 
2007

RESUMEN 
Este trabajo es un complemento, de las variables aleatorias, la aplicación 
de  las  técnicas  de  transformaciones  para  encontrar  la  función  de 
distribución de una variable a partir de otra ya conocida  y en especial las 
estadísticas  de  orden  donde  estas  estadísticas    juegan  un  papel 
importante en la inferencia estadística particularmente porque algunas de 
sus propiedades no dependen de la distribución  de la cual fue obtenida la 
muestra aleatoria. 

ABSTRACT 
This work is a complement, of the random variables, the application of the 
technique of  transformations  to  find  the  distribution  function  of  a  variable 
from  other  one  already  known,  and  special  the  statistics  of  order  where 
statistical  these  play  an  important  paper  (role)  in  the  statistical  inference 
particularly because some of properties do not depend on the distribution 
on which was obtained the random sample.

AGRADECIMIENTOS 

Agradezco  al  profesor  Benigno  Lozano  Rojas,  quien  me  acompaño  y 
apoyo con los valiosos aportes en la ejecución de este trabajo,  agradezco 
también  al  doctor  Antonio  Velasco  Muños  decano  de  la  facultad  de 
matemáticas y a cada uno de los docentes y compañeros que tuvieron un 
aporte importante para mí formación a lo largo de la carrera. 
Y  agradecer  a  mis  padres  y  hermanos  por  el  apoyo  y  consejos    durante 
todo este tiempo de formación.

INTRODUCCION 
El  presente  trabajo se  encuentra  dividido en dos  partes,  la  primera  parte 
consta  de  tres  capítulos  de  conceptos  básicos  que  se  utilizan  en  las 
estadísticas de orden y la segunda parte es el desarrollo del tema. 
Se  hará  una  introducción:  sobre  las  variables  aleatorias  discretas  y 
continuas;  donde  las  variables  aleatorias  se  conocen  porque  todos  los 
resultados  posibles  de  un  espacio  muestral,  se  pueden  transformar  en 
cantidades  numéricas.  También  se  tratara  sobre  las  distribuciones 
discretas  que  surgen  al  contar  y  las  distribuciones  continuas  que 
aparecen cuando se mide, y por ultimo se abordara sobre las técnicas de 
transformaciones  que  es  usada  tanto  en  distribuciones  de  probabilidad 
variables  aleatorias  discretas  como  en  distribuciones  de  probabilidad  de 
variables  aleatorias  continuas.  Esta  técnica    se  utiliza  para  encontrar  la 
función  de  distribución  de  una  variable  aleatoria  a  partir  de  una variable 
aleatoria ya conocida. 
La  segunda  parte  comprende  de  las  estadísticas  de  orden. 

Estas 

estadísticas  juegan  un  papel  importante  en  la  inferencia  estadística 
particularmente  porque  algunas  de  sus  propiedades  no  depende  de  la 
distribución  de  la  cual  fue  obtenida    la  muestra  aleatoria.  Estas 
estadísticas  se  ordenan  ascendentemente  a  partir  de  las  muestras 
obtenidas  anteriormente,  esto  quiere  decir  que  a  menudo  necesitamos 
ordenar  las  variables  aleatorias  observadas  de  acuerdo  a  su  magnitud 
para identificar modelos probabilisticos  tales como el máximo, el mínimo, 
el  rango,  la  mediana  y  entre  otros.  Ya  que  en  estos  modelos  se  aplican 
métodos matemáticos específicos.

CAPITULO UNO 

1. VARIABLE ALEATORIA  

Definición  1.1:   “ Sea  S  un  espacio  muestral  sobre  el  cual  se  encuentra 
definida  una  función  de  probabilidad.  Sea  X  una  función  de  valor  real 
definida sobre S, de manera que transforme los resultados de S en puntos 
sobre  la  recta  de  los  reales,  se  dice  entonces  que  X  es  una  variable 
aleatoria.” 1 
El  conjunto  de  valores  que  una  variable  aleatoria  puede  tomar  se 
denomina el rango de la variable aleatoria. 
Se dice que X es una variable aleatoria si todos los resultados posibles de 
un espacio muestral, se pueden transformar en cantidades numéricas. 

Ejemplo 1.1:  
Sea: X= número de caras que se obtiene en lanzamientos independientes 
de una moneda de diez y una de cinco centavos. 
En este caso S consta de los cuatro puntos (resultados) 

(H, H) 

(H, T) 

(T, H) 

(T, T) 

Entonces S= {HH, HT, TH, TT} 

CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.Pág.52

10 

(H= cara, T= cruz; la primera letra se refiere al diez y la segunda al 
cinco). 
Los valores correspondientes de X son: 

0, respectivamente. 

HH 

HT 

TH 

TT 


Tabla 1 

Definición  1.2:   “ Se  dice  que  una  variable  aleatoria  X  es  discreta  si  su 
rango es un conjunto finito o infinito numerable de valores.” 2 

Ejemplo 1.2:  
En el ejemplo 1.1 los valores posibles de X son 0, 1 y 2. Luego X es una 
variable aleatoria discreta. 

Definición  1.3:   Se  dice  que  una  variable  aleatoria  X  es  continua  si  su 
rango  es  un  conjunto  infinito  no  numerable  de  valores.  Este  conjunto 
puede definirse en un intervalo o en un conjunto finito de intervalos. 

Ejemplo 1.3:  
Sea  una variable aleatoria X cuyos valores sean los pesos en kilogramos 
de    todas  las  persona  mayores  de  30  años,  lógicamente  hay  infinitos 
valores asociados a estos pesos. Si  estos pesos se  asignaran a la recta 

CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.Pág. 53

11 

real,  puede  definirse  un  número  finito  de  intervalos  para  describir  todos 
los posibles valores de peso. 

1.1 

DISTRIBUCIONES DE PROBABILIDAD 

Definición  1.4:  Una  distribución  de  probabilidad  es  un  listado  de  las 
probabilidades de todos los posibles resultados que podrían obtenerse si 
el experimento se lleva a cabo. 
Las  distribuciones  de  probabilidad  se  clasifican  como  discretas  y 
continuas. 

1.1.2 Distribuciones de probabilidad de variables discretas 

Una  variable  aleatoria  asume  cada  uno  de  sus  resultados    con  cierta 
probabilidad. 

Definición  1.5:   “ Sea  X  una  variable  aleatoria  discreta.  Se  llamará 
f ( x ) = P ( X  = x )  función  de  probabilidad  de  la  variable  aleatoria  X  ,  si 
satisface las siguientes propiedades.” 3 
1.  P ( x ) ³ 0; 
2.

å x P  ( x )  = 1; 

Ejemplo 1.4 
Se arrojan dos dados legales  hallar: 

CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.Pág. 54

12 

a.  La  función  de  probabilidad  f ( x ) donde  X  es  la  suma  de  los  dos 
números  que se obtienen al arrojar dos dados legales. 
b.  La probabilidad de que la suma de los dos dados sea 6. 
Solución: 
a.  La  función  de  probabilidades  f ( x ) ,  correspondiente,  tiene  los 
siguientes  valores: 

Resultado 

N° de 

Probabilidad 

ocurrencias 

1/36 

2/36 

3/36 

4/36 

5/36 

6/36 

5/36 

4/36 

10 

3/36 

11 

2/36 

12 

1/36 

Tabla 2 
Note que los valores posibles de X  conforman los posibles conteos sobre 
el espacio muestral y en consecuencia las probabilidades suman 1. 
A continuación se muestran las graficas de f (x)

13 

Función de densidad
0,18 
0,16 
0,14 
0,12 
0,1 
0,08 
0,06 
0,04 
0,02 

Serie1 

10 

15 

Gráfica 1 

b. La función  probabilidad  donde x= 6 será: 

f ( 6 )  = P ( X  = 6 )  = 6/36 

Definición 1.6:  “ La distribución acumulativa de la variable aleatoria  X  es 
la probabilidad de que  X  sea menor o igual a un punto específico de  X  y 
esta dada por” 4 : 

F ( X ) =  P ( X  £ x ) =

å x  P  ( x i ) 

Con ciertas propiedades: 
1.  0 £ F ( x ) £ 1. 
2.  F ( x i ) £ F ( x j ) 

si 

xi  £ x j . 

3.  P ( X  > x )  = 1 ­  F ( x ) . 
4.  P ( X  = x )  = F  ( x ) - F ( x - 1 ) . 
5.  P ( x i  £ X  £ x j )  =  P ( X  £ x j ) ­  P ( X  < x j ) = F ( x j ) - F ( x i -1 ) . 
Cabe anotar que  P ( X  £ x )  ¹  P ( X  < x )  si  X  es una variable discreta. 

CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.. Pág. 53 

14 

P ( X  £ x ) =…+ P ( X  = 0 ) + P ( X  = 1 ) +…+ P ( X  =  x ­1 ) + P ( X  =  x  ) 
P ( X  < x ) =…+ P ( X  = 0 ) + P ( X  = 1 ) +…+ P ( X  =  x ­1 ) 
Ejemplo 1.5:
·

Encuentre la distribución acumulada de la variable aleatoria X del 
ejemplo 1.3 

Solución: 

F ( 2 )  = P ( X  £ 2 ) = P ( X  = 2 ) = 1/36; 
F ( 3 )  = P ( X  £ 3 )  = P ( X  = 2 )  + P ( X  = 3 ) 
= 1/36 + 2/36 
= 3/36; 

F ( 4 )  = P ( X  £ 4 )  = P ( X  = 2 )  + P ( X  = 3 )  + P ( X  = 4 ) 
= 1/36 + 2/36 + 3/36 
= 6/36; 

F ( 5 )  = P ( X  £ 5 )  = P ( X  = 2 )  + P ( X  = 3 )  + P ( X  = 4 )  + P ( X  = 5 ) 
= 1/36 + 2/36 + 3/36+ 4/36 
= 10/16; 

F ( 6 ) = P ( X  £ 6 ) = P ( X  = 2 )  + P ( X  = 3 )  + P ( X  = 4 ) + P ( X  =  5)+ P ( X  = 6) 
= 1/36 + 2/36 + 3/36+ 4/36+ 5/36 
= 15/36; 

F ( 7 ) = P ( X  £ 7 ) = P ( X  = 2 ) + P ( X  = 3 )  + P ( X  = 4 ) + P ( X  = 5 )  + P ( X  = 6 ) 
+ P ( X  = 7)  = 1/36 +  2/36 + 3 /36+  4/36 +  5/36 + 6/36 

21/36; 

F ( 8 ) = P ( X  £ 8 ) = P ( X  = 2 ) + P ( X  = 3 ) + P ( X  = 4 )  + P ( X  = 5 )  + P ( X  = 6 ) 
+ P ( X  = 7) + P ( X  = 8)

15 

= 1/36 + 2/36 + 3/36+ 4/36+ 5/36 + 6/36 + 5/36 
= 26/36; 

F ( 9 ) = P ( X  £ 9 ) = P ( X  = 2 ) + P ( X  = 3 ) + P ( X  = 4 ) + P ( X  = 5 ) + P ( X  = 6 ) 
+ P ( X  = 7) + P ( X  = 8) + P ( X  = 9) 
= 1/36 + 2/36 + 3/36+ 4/36+ 5/36 + 6/36 + 5/36 + 4/36 
=30/36; 

F ( 10 ) = P ( X  £ 10 ) = P ( X  = 2 ) + P ( X  = 3 ) + P ( X  = 4 ) + P ( X  = 5 ) + P ( X  = 6 ) 
+ P ( X  = 7) + P ( X  = 8) + P ( X  = 9) + P ( X  = 10) 
=1/36 + 2/36 + 3/36+4/36+5/36+6/36+5/36 + 4/36+3/36 
=33/36; 

F ( 11 ) = P ( X  £ 11 ) = P ( X  = 2 ) + P ( X  = 3 ) + P ( X  = 4 ) + P ( X  = 5 ) + P ( X  = 6 ) 
+ P ( X  = 7) + P ( X  = 8) + P ( X  = 9) + P ( X  = 10) + P ( X  = 11) 
=  1/36  +  2/36  +  3/36+  4/36+  5/36  +  6/36  +  5/36 
+ 4/36+3/36+2/36 
= 35/36; 

F ( 12 )  = P ( X  £ 12 ) = P ( X  = 2 ) + P ( X  = 3 ) + P ( X  = 4 ) + P ( X  = 5 ) + P ( X  = 6 ) 
+ P ( X  = 7)+ P ( X  = 8)+ P ( X  = 9)+ P ( X  = 10)+ P ( X  = 11)+ P ( X  = 12) 
=1/36+2/36 + 3/36+ 4/36+ 5/36 + 6/36 + 5/36 + 4/36+ 3/36+ 2/36 +1/36 
= 1 
Luego la distribución acumulada es:

16 

ì
ï
ï
ï
ï
ï
ï
ï
ïï
í
ï
ï
ï
ï
ï
ï
ï
ï
ïî

F ( X ) = 


1 / 36 
3 / 36 
6 / 36 
10 / 36 
15 / 36 
21 / 36 
26 / 36 
30 / 36 
33 / 36 
35 / 36 

x < 2 
2 £ x < 3 
3 £ x < 4 
4 £ x < 5 
5 £ x < 6 
6 £ x < 7 
7 £ x < 8 
8 £ x < 9 
9 £ x < 10 
10 £ x < 11 
11 £ x < 12 
x ³ 12 

1.1.3 Distribuciones de probabilidad de variables continúas 

En el caso de las distribuciones continúas  P ( X  = x ) = 0. 

Ejemplo 1.6:  
La  variable  aleatoria  continua  W  se  define  como  la  altura  de  todas  las 
personas  mayores  de  20  años  en  un  intervalo  de  170  hasta  180 
centímetros. 

Suponga 

que 

se 

quiere 

encontrar

p ( X  = 175 ) , 

aparentemente  parece  que  se  pudiera  calcular  fácilmente,  pero  si 
entendiéramos que en el intervalo (170, 180) hay infinidades de números, 
evidentemente hay infinidad de estaturas por lo cual p ( X  = 175 )  tiende a 
ser nulo, para este caso es mejor utilizar intervalos. En nuestro caso seria 

p ( 174.9 £ X  £ 175.1 ) . 
La  distribución  de  probabilidad  de  una  variable  continua  X  esta 
caracterizada  por  una  función  f ( x ) ,  la  cual  recibe  el  nombre  de  función

17

de  densidad  de  probabilidad  y  proporciona  un  medio  para  calcular 

p ( a £ X  £ b )  con  b > a. 
De manera formal se define de la siguiente manera: 

Definición 1.7: “ Si existe una función  f ( x )  tal que” 5 :
· 

f ( x )  ³ 0 

·

ò 

¥

­ ¥ < 0 < ¥

f ( x ) dx = 1

·  P ( a £ X  £ b ) =

a,b

òa   f ( x ) dx 

ÎÂ

Entonces se dice que  f ( x )  es la función de densidad de probabilidad de 
la variable aleatoria continua  X  . 
De esta definición se derivan algunas otras propiedades. 
Sea  X  una  variable  aleatoria  continúa  con  función  de  densidad  f ( x ) 
probar: 
1.  P (  X  = a ) = 0 
2.  P ( a £ X  £ b ) =  P ( a < X  < b ) 
Solución: 

1.  P (  X =  a  ) = P ( a £ X  £ a ) = ò  f ( x ) dx  = 0 

2.  P ( a £ X  £ b ) =  P (  X  = a ) +  P ( a < X  < b ) +  P (  X  = b ) = 
P ( a < X  < b ) 

Ejemplo 1.7:  
Sea X una variable aleatoria continua con la siguiente distribución: 

CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.Pág. 58

18 

ì 1  - 1 2 x 
ï 2 e 
ï
f ( x ) = í
ï 0 
ï
î

s i 

0 < x £ ¥

en  otro  caso 

a.  Encontrar  P (1 £ X  £ 2 ) 
Solución: 
Primero se verifica si el modelo es legítimo: 

ò

¥

1 -1 / 2 x 
e  dx 

Integrando por sustitución tenemos que 
- e -1  / 2 x 

¥

= 0 - [ -1 ] = 1  Por lo tanto el modelo es legítimo. 

Ahora se encontrará la  P  (1 £ X  £ 2 ) 

P (1 £ X  £ 2 ) = ò

1 -1 / 2 x 
e  dx 

Integrando por sustitución tenemos que: 
- e -1 / 2 x 


= -e -1  + e -1 / 2 

Entones se tiene que: 
-1

-1 / 2 

P (1 £ X  £ 2 )  = - e + e 

19

1.2  Valor esperado 
Los  grandes  jugadores  de  pòker    dicen  que  los  jugadores  no 
experimentados  pueden  ganar  dinero  a  corto  plazo  pero  que  perderán 
dinero  a  largo  plazo.  Lo  contrario  vale  para  profesionales  y  muy  buenos 
jugadores, lo cuales ganarán generalmente a largo plazo. 
“¿Por qué esto es así? Esto se debe a un concepto conocido como “valor 
esperado”.  Valor  esperado  es  el  beneficio  que  se  espera.  Por  ejemplo, 
supongamos que he realizado una apuesta para tirar una moneda. Si sale 
cara, perderé $1, si sale cruz, ganare $100. ¿Debo aceptar teóricamente 
esta  apuesta  (asumiendo  que  la  moneda  es  verdadera  y  existe  un 
cincuenta­cincuenta de posibilidad de que salga cara o cruz)? 
Se  debería    aceptar  la  apuesta.  Existe  una  probabilidad  de  1/2  de  que 
caiga  en  cara  y  gane  $100.  Por  lo  tanto,  la  ganancia  esperada  es 
0.5*$100=50.  Si  saliera  cruz,  pierdo  $1.  Por  lo  que,  la  perdida  esperada 
0.5*$1=0.50  Y  el    beneficio esperado  es la ganancia  esperada  menos  la 
pérdida esperada. Es decir, que mi beneficio esperado es de $49,5. 
Entonces,  no  ganaré  $49,50.  Ganaré  $100  o  perderé  $1.  Sin  embargo, 
deberíamos  ver  la  apuesta  como  "ganar"  $49,50.  Los  resultados  en  los 
juegos  de  azar  están  influenciados  por  la  suerte  a  corto  plazo.  Sin 
embargo,  a  los  resultados  se  verán  cercanos  a  semejarse  al  valor 
esperado.  Si  lanzamos  la  moneda  un  millón  de  veces,  mi  beneficio  final 
será muy cercano a 49,50 millones.” 6 
Entonces resumiendo: 
Sea  X  una  variable  discreta  donde  solo  podrá  tomar  dos  valores, 
$100(ganancia), $­1 (la perdida ósea X  =  {­1, 100}  ahora la probabilidad 

www.pokertips.com.es/strategy/expected­value.php

20 

de  ganancia  es  0.5  y  la  ganancia  de  perdida  es  0.5.  por  tanto  su  valor 
esperado es:

m = (­1) (0.5)+ (100) (0.5)=49.5 
Luego se observa que el valor esperado esta dado por:

E ( X ) = 

x i .P 
  ( x i )  =  (­1) (0.5)+ (100) (0.5)=49.5 
å

= 0 

Así se llega a la definición de valor esperado o esperanza matemática de 
una variable aleatoria 

Definición 1.8:  
La  media  de  una  variable  aleatoria  se  considera  como  una  cantidad 
numérica alrededor de la cual los valores de la variable aleatoria tienden a 
agruparse por lo tanto la media es una medida de tendencia central y se 
define por:

m = E ( X ) = 

åx   xp ( x ) 

Si  X  es una variable discreta

¥

m = E ( X ) = 

Si  X  es una variable continua 

ò  xf ( x ) dx 

En  general  define  el  valor  esperado  de  una  función  de  X  ,  h ( x ) ,  por  la 
igualdad

E [h ( X ) ] = 

åx   h ( x ) p ( x ) 

Si  X  es una variable discreta.

¥

E[h ( X ) ] = 

Si  X  es una variable continua.

ò h(   x ) f ( x ) dx 

- ¥

21 

Análogamente para mas de dos variables  x1   , x 2 , x 3 ,..., x k  el valor esperado 
de cualquier función h de las variantes, se define por

E[h ( x 1 , x 2 , x 3 ,..., x k  ) ] = 

... å h ( x  , x  , x  ,..., x k  ) p ( x  , x  , x  ,..., x k  ) 
ååå
x  x  x 

1

Si  x1   , x 2 , x 3 ,..., x k  variables discretas.
¥

E[h ( x 1 , x 2 , x 3 ,..., x k  ) ] = 

ò h ( x  , x  , x  ,..., x k  ) f ( x  , x  , x  ,..., x k  ) dx  dx  dx  ... dx k 

- ¥

Si  x1   , x 2 , x 3 ,..., x k  variables continuas. 
El valor esperado o media posee algunas propiedades: 
1.  E ( k ) = k 

para  k  una constante 

2.  E ( cx + k ) = cE ( x ) + k 

para  k , c  constantes 

3.  E[ g ( x ) + h ( x )] = E [( g ( x )] + E [( h ( x )] 

donde  g y  h  funciones de 
distribución 

NOTA:  El  valor  esperado,  puede  no  existir  dependiendo  si  la 
correspondiente suma o integral  diverge a un valor infinito. 
Ejemplo: 
Halle  la media de cada una de las siguientes distribuciones: 
a. 

­5 

­4          1          2 

f ( x )  1/4         1/8        1/2         1/8 
b. 

1           3          5          7 

f ( x )  1/6 

1/9 

1/2 

22 

1/3

Solución: 
æ 1 ö æ 1 ö æ 1 ö æ 1 ö
a.  m = E ( X )  = å xf ( x )  = -5 ç ÷ - 4 ç ÷ + 1 ç ÷ + 2 ç ÷ = -1 
è 4 ø è 8 ø è 2 ø è 8 ø
æ 1 ö æ 1 ö æ 1 ö æ 1 ö 50 
b.  m = E ( X )  = å xf ( x )  = 3 ç ÷ + 2 ç ÷ + 5 ç ÷ + 7 ç ÷ =
è 3 ø è 9 ø è 2 ø è 3 ø 9 

23 

CAPITULO DOS 

2. DISTRIBUCIONES ESPECIALES 

2.1. DISTRIBUCIONES  ESPECIALES DISCRETAS 
2.1.1  DISTRIBUCION UNIFORME 
“La distribución uniforme es la que corresponde a una variable que toma 
todos sus valores, x 1,  7 x2,...,x n, con igual probabilidad; el espacio muestral 
debe ser finito. Donde n es el parámetro de la distribución”. 
Si la variable tiene n posibles valores, su función de probabilidad sería: 

f(x)=  1 

para 

n= 1, 2,3,…. 

La  media  y  la  varianza  de  la  distribución  uniforme  se  calculan  por  las 
expresiones: 

Media:

Varianza:

m  =

n + 1

s 2 = 

n 2 - 1 
12 

La función generadora de momentos esta dada por: 

www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm#Distribución%20uniforme

24 

n

m x (t ) = å e it 
i =1  n 

2.1.2. DISTRIBUCION BERNOULLI 
“Consiste en realizar un experimento aleatorio una sola vez y observar si 
cierto  suceso  ocurre  o  no,  siendo  p  la  probabilidad  de  que  esto  sea  así 

(éxito) y q=1­p la probabilidad de que no lo sea (fracaso). En realidad no 
se  trata  más  que  de  una  variable  dicotómica,  es  decir  que  únicamente 
puede  tomar  dos  modalidades,  Podríamos  por  tanto  definir  este 
experimento  mediante  una  variable  aleatoria  discreta  X  que  toma  los 
valores X  =  0  si  el suceso  no  ocurre,  y X  =  1  en  caso  de  que el  suceso 
ocurra” 8 . 
La función de probabilidad de la variable bernoulli es:

f ( x ) =  p x q 1 - x 

para 

0 £  p £ 1 . 

x  = 0 ,  1 

La media y la varianza de la distribución bernoulli se calculan: 

Media:
Varianza:

m = p 
s 2 =  p q 

La función generadora de momentos esta dada por:

m x (t ) =  q +  pe t 

www.bioestadistica.uma.es/libro/node69.htm

25

2.1.3. DISTRIBUCION BINOMIAL 
La distribución binomial posee las siguientes características: 
1.  “El  modelo está compuesto de n ensayos independientes  iguales, 
siendo n un número natural fijo. 
2.  Cada ensayo resulta en un suceso que cumple las propiedades de 
la  variable  binómico  o  de  Bernouilli,  es  decir,  sólo  existen  dos 
posibles  resultados,  mutuamente  excluyentes,  que  se  denominan 
generalmente como éxito y fracaso. 
3.  La probabilidad del ‚éxito (o del fracaso) es constante en todos los 
ensayos. P (éxito) = p; P (fracaso) = 1 ­ p = q 
4.  Los ensayos son estadísticamente independientes. 
La  función  de  probabilidad  de  la  variable  binomial  se  representa  como 
b(x,n,p)  donde  n  y  p  son  los  parámetros  de  la  distribución  e  indica  la 
probabilidad  de  que  ocurran  exactamente  x  éxitos  en  una  muestra  de  n 
observaciones de Bernoulli independientes” 9 . 

n el número de pruebas 
p la probabilidad de éxito.

æ n ö
f ( x ) = çç ÷÷ p x q n - x 
è x ø

para 

x = 0, 1 , 2 ,..., n 
0 £ p £ 1 
n = 1 , 2 , 3 ... 

La media y la varianza de la distribución binomial se calculan: 

www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm#Distribución%20binomial

26 

Media:

m = np 

Varianza:

s 2 =  npq 

La función generadora de momentos esta dada por:

m x (t ) =  (q + pe t  ) 

2.1.4. DISTRIBUCION HIPERGEOMÉTRICA 
Una  variable  tiene  distribución  hipergeométrica  si  posee  un  modelo  que 
cumple las siguientes condiciones: 
1.  “Se toma una muestra de tamaño n, sin reemplazo, de un conjunto 
finito de M objetos. 
2.  K de los M objetos se pueden clasificar como ‚éxitos y M ­ K como 
fracasos. 
3.  X cuenta el número de éxitos obtenidos en la muestra. 
En  este  caso,  la  probabilidad  de  éxito  en  pruebas  sucesivas  no  es 
constante  pues  depende  del  resultado  de  las  pruebas  anteriores.  Por 
tanto, las pruebas no son independientes entre sí” 10 . 
La función de probabilidad de la variable hipergeométrica es:
æ K öæ M  - K ö
çç ÷÷çç
÷
x  øè n - x  ÷ø
è
f ( x ) = 
æ M ö
çç ÷÷
è n  ø

para 

10 

x  = 1, 2 , 3 ,..., n 
M  = 1 , 2 , 3 ,... 
K  = 0 , 1 , 2 ,..., M 
n  = 1 , 2 , 3 ,..., M 

www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm#Distribución%20hipergeomé 
trica

27 

La media y la varianza de la distribución hipergeométrica se calculan: 

m  = n 

Media:

Varianza:


æ  K  öæ M  - K  öæ M  - n ö
֍
֍
÷
è M  øè M  øè M  - 1 ø

s 2 =  n ç

2.1.5. DISTRIBUCION POISSON 
Una variable de tipo poisson cuenta ‚éxitos que ocurren en una región del 
espacio o del tiempo. 
El modelo que la genera debe cumplir las siguientes condiciones: 
1.  “El número de éxitos que ocurren en cada región del tiempo o del 
espacio es independiente de lo que ocurra en cualquier otro tiempo 
o espacio disyunto del anterior. 
2.  La  probabilidad  de  un  ‚éxito  en  un  tiempo  o  espacio  pequeño  es 
proporcional  al  tamaño  de  este  y  no  depende  de  lo  que  ocurra 
fuera de él. 
3.  La  probabilidad  de  encontrar  uno  o  más  ‚éxitos  en una  región del 
tiempo  o  del  espacio  tiende  a  cero  a  medida  que  se  reducen  las 
dimensiones de la región en estudio” 11 . 

La función de probabilidad de una variable Poisson es: 

11

www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm#Distribución%20de%20poisso 
n

28 

f  ( x ) =

e - l l x
x ! 

si

x = 0,  1 , 2 , 3 ,.., ¥

y

l >0 

La media y la varianza de la distribución poisson se calculan: 

Media:

m = l 

Varianza:

s 2 =  l

La función generadora de momentos esta dada por:

mx (t ) = 

[ (

)] 

exp l  e t  -  1 

2.1.6. DISTRIBUCION GEOMETRICA 
“La  distribución  geométrica  comparte  algunas  características  del  modelo 
Binomial pero la diferencia entre los dos modelo es que  en la distribución 
geométrica  la  variable 

x  es  el  número  de  ensayos  que  son  necesarios 

realizar para que ocurra por primera vez un éxito” 12 . 
La función de probabilidad de una variable geométrica es: 

f ( x )  =  pq x 

x = 0,  1 , 2 , 3 ,.., ¥
0<p<1   y     (q=1­p) 

La media y la varianza de la distribución geométrica se calculan: 

12 

WACKERLY Dennis, MENDENHALL William, SCHEAFFER Richard.2002. Estadística matemática con 
aplicaciones. Thomson.Pág.110

29

Media:

Varianza:

m  =

s 2 = 



p  2 

La función generadora de momentos esta dada por:

m x (t ) = 

p
1 - qe t 

2.1.7. DISTRIBUCION BINOMIAL NEGATIVA 
“La distribución binomial negativa surge de un contexto semejante al que 
conduce  a  la  distribución  geométrica,  donde  cada  ensayo  idéntico  e 
independiente da origen a uno de los dos resultados de éxito o fracaso” 13 . 
Este modelo nos permite encontrar la probabilidad del número de ensayos 
que son necesarios realizar en el que ocurre el n­ésimo éxito. 
La función de probabilidad de una variable binomial negativa es: 
æ r + x - 1 ö r  x 
÷ p  q 
x  ÷ø
è

para 

f ( x ) = çç

0< p £ 1 y  r > 0

x = 0,  1 , 2 , 3 ,.., ¥
La media y la varianza de la distribución binomial negativa se calculan: 

Media:

m  =

rq 

13  13 

WACKERLY Dennis, MENDENHALL William, SCHEAFFER Richard.2002. Estadística matemática con 
aplicaciones. Thomson.Pág.116

30 

s 2 = 

Varianza:

rq 
p  2 

La función generadora de momentos esta dada por:

m x (t ) = 

æ p ö
çç
÷
t  ÷
è 1 - qe  ø

2.2.  DISTRIBUCIONES  ESPECIALES  CONTINUAS 
2.2.1. DISTRIBUCION UNIFORME 
La función de distribución   uniforme es constante en el intervalo (a, b). 
Por esto, tal distribución también se conoce como distribución rectangular 
La función de densidad de la distribución uniforme es: 

f(x)=  1 

b - a 

para

a  <  x  < b 
- ¥ < a  < b < ¥

La  media  y  la  varianza  de  la  distribución  uniforme  se  calculan  por  las 
expresiones: 

Media:

Varianza:

m  =

a + b 

s 2 = 

( b - a ) 2 
12 

La función generadora de momentos esta dada por:

m x (t ) = 

e bt  - e at 
(b - a ) t 

31 

2.2.2.  DISTRIBUCION NORMAL 
“Una  variable  es  normal  cuando  se  ajusta  a  la  ley  de  los  grandes 
números,  es  decir,  cuando  sus  valores  son  el  resultado  de  medir 
reiteradamente  una  magnitud  sobre  la  que  influyen  infinitas  causas  de 
efecto infinitesimal. 
Las  variables  normales  tienen  una  función  de  densidad  con  forma  de 
campana a la que se llama campana de Gauss” 14 . 
La función de densidad de una variable normal es:

f ( x ) = 


é
ù
exp ê- ( x - m )
2 ú

s
2 ps 
ë
û

para 

¥<m <¥

s >0

La media y la varianza de la distribución normal se calculan: 

Media: 
Varianza:

m  = E ( X ) 
s 2 =  E ( X  - m ) 2 

La función generadora de momentos esta dada por:

mx (t ) = 


é
ù
exp ê mt +  s 2 t 2 ú

ë
û

2.2.3.  DISTRIBUCION BETA 
“La distribución  beta permite generar una gran variedad de perfiles, se ha 
utilizado  para  representar  variables  físicas  cuyos  valores  se  encuentran 
restringidos a un intervalo de longitud finita” 15 . 
14 

www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm#Distribución%20normal%20 
o%20de%20Gauss

32 

La función de densidad de una variable beta es: 


f ( x ) = 
x a -1 ( 1 - x ) b -1 
B ( a , b ) 

0 <  x < 1 
para 

a > 0 
b > 0 

La media y la varianza de la distribución beta se calculan: 

Media: 

m  =

Varianza:

s 2 = 

a
a + b 

ab
( a + b + 1 )( a + b ) 2 

2.2.4. DISTRIBUCION WEIBULL 
“En  los  últimos  25  años  esta  distribución  se  empleó  como  modelo  para 
situaciones del tiempo­falla y con el objetivo de lograr una amplia variedad 
de  componentes  mecánicos  y  eléctricos.  La  distribución  de  Weibull 
depende de dos parámetros a ,  q ” 16 . 
La función de densidad de una variable Weibull es: 


f ( x )  = a x a - 1 exp[ - ( x / q ) a ] 
q

o < x < ¥
a  > 0
q > 0 

La media y la varianza de la distribución Weibull se calculan: 

Media:

æ
è

m  = qGç1 +

1 ö
÷

15 

CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.Pág. 147 

16 

CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.159

33 

é æ
ë è

s 2 =  q 2 êGç1 +

Varianza:

2 ö
1 öù
2 æ
÷ - G ç1 + ÷ú

è a øû

La función generadora de momentos esta dada por:

mx (t ) =  a -  b Gæç1 + t  ö÷

b ø

è

2.2.5.  DISTRIBUCIÓN CHI­CUADRADO 
Sea  v  un entero positivo. Se dice que una variable aleatoria X tiene una 
distribución  Chi­cuadrado  con  v  grados  de  liberta  si  y  sólo  si  X  es  una 
variable  aleatoria  con  una  distribución  gamma  y  parámetros  a = v

b = 2 . 
La función de densidad de una variable Chi­cuadrado  es:
1  æ 1 ö
f ( x )  =
ç ÷
G v  è 2 ø

( )

( )

- 1  x 

x  2 -1 e 

La media y la varianza de la distribución Chi­cuadrado  se calculan: 
Media: 

m =v

Varianza:

s 2 =  2 v 

La función generadora de momentos esta dada por:

m x (t ) = 

æ 1  ö
ç
÷
è 1 - 2 t ø

34 

2.2.6. DISTRIBUCION T STUDENT 
“Supongamos  dos  variables  aleatorias  independientes,  una  normal 
tipificada, Z, y otra con distribución c2 con n grados de libertad, la variable 
definida según la ecuación” 17 :

T=


x 2 

tiene distribución t con n grados de libertad. 
La función de densidad de una variable t student es:

f ( x ) = 

G[(v + 1 ) / 2 ]

[1 + (  ) ] 
2 / v 

- ¥ < x  < ¥

- ( v +1 ) / 2 

pv G( v / 2 ) 

para 

v  > 0
v  > 1 

La media y la varianza de la distribución t student se definen: 
Media: 

Varianza:

m  = 0

s 2 = 


v - 2

para v>2 

2.2.7.  DISTRIBUCION  F 
“La distribución F aparece frecuentemente como la  estadística de prueba 
de  la  hipótesis  nula  (distribución  nula)  de  una  prueba  estadística, 

17 

www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htmDistribuciónT%20de%20Stud 
ent

35 

especialmente en el análisis de varianza, para mas de dos poblaciones” 18 . 

La función de densidad de una variable distribución F es:
G[(m + n ) / 2 ] æ m ö
f ( x )  =
ç ÷
G(m / 2 )G(n / 2 ) è n  ø

para 

x (m - 2 ) / 2 
( m + n ) / 2 
1 + m  x 

[ ( )]

o  <  x  < ¥
m , n  = 1 , 2 ,... 

La media y la varianza de la distribución F se calculan: 

Media: 

Varianza:

m = 

n
n - 2

s 2 = 

para n>2 

2 n 2 ( m + n - 2 ) 
para n>4 
m ( n - 2 ) 2 ( n - 4 ) 

2.2.8. DISTRIBUCION GAMMA 
“La distribución gamma es una distribución de probabilidad continua  con 
dos parámetros a  y b . 
El parámetro a recibe el nombre de parámetro de forma, ya que la forma 
de la densidad gamma difiere por los distintos valores de a . 
El  parámetro b recibe  el  nombre  de  parámetro  de  escala  debido  a  la 
multiplicación  de  una  variable  aleatoria  con  distribución  gamma  por  una 
constante positiva” 19 . 

18 

es.wikipedia.org/wiki/Distribuci%C3%B3n_F 

19 

WACKERLY Dennis, MENDENHALL William, SCHEAFFER Richard.2002. Estadística matemática con 
aplicaciones. Thomson.Pág.177

36 

La función de densidad de una variable gamma es: 

b a a -1  - bx 
f ( x ) = 
x  e 
G ( a ) 

o  < x  < ¥
b  > 0
a > 0 

para 

La media y la varianza de la distribución gamma se calculan: 

Media:

Varianza:

m  = 

s 2 = 

r
b

b 2

La función generadora de momentos esta dada por:

m x (t ) =  b

b -t

Como casos especiales de la distribución gamma encontramos: 

2.2.9.  DISTRIBUCION EXPONENCIAL 
“La función gamma en la que α = 1 se llama función de densidad 
exponencial. La función de densidad exponencial se utiliza con frecuencia 
para describir la duración de los componentes electrónicos” 20 . 
La función de densidad de una variable exponencial  es: 

f ( x )  =  be - bx 

para 

0 £ x  £ ¥

b  > 0 

La media y la varianza de la distribución exponencial se calculan: 

20 

WACKERLY Dennis, MENDENHALL William, SCHEAFFER Richard.2002. Estadística matemática con 
aplicaciones. Thomson.Pág.178

37 

Media:

Varianza:

m  = 

s 2 = 

1

b
1

b 2 

La función generadora de momentos esta dada por:

m x (t ) =  b

b -t

38 

CAPITULO TRES 

3. TECNICA DE TRANSFORMACIONES 
Esta  técnica  es  usada  tanto  en  distribuciones  de  probabilidad  variables 
aleatorias  discretas  como  en  distribuciones  de  probabilidad  de  variables 
aleatorias continuas 
3.1    TECNICA  DE  TRANSFORMACIONES  PARA  VARIABLES 
ALEATORIAS DISCRETAS 

Teorema  3.1:   “ Supóngase  que X  es  una  variable  aleatoria  discreta  con 
distribución  de  probabilidad  P(x).  Si  la  función  Y=g(X)  define  una 
transformación  uno  a  uno  entre  los  valores  X  y  Y ,  de  tal  forma  que  la 
ecuación y = g ( x )  tenga su inversa  x = g -1 ( y ) , entonces la distribución de 

Y  es” 21 :

f Y ( y ) = f X  (g -1 ( y ) ) 
Demostración:

F Y ( y )  =  P ( Y  = y )  = P ( g ( x )  = y )  = P ( x  = g -1 ( y )) =

21 

probabilidad y estadística. Warpole. Meyer. Pag184

39 

f X  (g -1 ( y ) ) 

Ejemplo 3.1:  
Sea  X  es una variable aleatoria discreta donde su distribución se 
encuentra dada por 

ì 2x 
ï
f X  ( x ) = P ( X  = x )  = í 3 
ïî0 

x = 1, 2 , 3 , 4 
en  otro  caso 

Encontrar la distribución de  Y  = 2 X  - 1 
Solución: 
Si  x  varia entre 1 y 4 remplazando en y tenemos que y  =  1, 3, 5,7 

y =  g ( x ) = 2 x - 1 

Þ 

x  = g -1  ( y )  =

y + 1 

Ahora
æ
è

f Y ( y )  =  P ( Y  = y )  = P ( 2 X  - 1 = y )  = P ç X  =

y + 1 ö

÷=
2  ø

æ y + 1 ö
÷
è 2  ø

f X  ç

æ ( y + 1 ) ö
÷
è 3  ø

f Y  ( y ) =  ç

Luego la distribución de  y se encuentra dada por: 

ì y + 1 
ï
f Y  ( y ) = P (Y 
  = y )  = í 3 
ïî0 

y = 1, 3 , 5 , 7 
en  otro  caso 

Suponga  ahora  el  problema  en  el  que  X 1 , X 2 ,..., X n ,  son  variables 
aleatorias discretas con función conjunta  f X 1 , X 2 ,..., X n  ( x 1 , x 2 ,..., x n ), y se desea 
encontrar  la  probabilidad  conjunta  f Y 1 , Y 2 ,..., Y n  ( y 1 , y 2 ,..., y n ) de  las  nuevas 
variables aleatorias
40 

y1  = g 1 ( x 1 , x 2 ,..., x n ),  y 2  = g 2 ( x 1 , x 2 ,..., x n ),  ...,  y n  = g n ( x 1 , x 2 ,..., x n ), 
las  cuales  definen  una  transformación  uno  a  uno  entre  los  conjuntos  de 
puntos ( x 1 , x 2 ,..., x n ) y 

( y 1 , y 2 ,..., y n ) .Si  se  resuelven  las  ecuaciones 

simultáneamente se encontrara la solución inversa única 

x1  = g 1 -1 ( y 1 , y 2 ,..., y n ),  x 2  = g 2 -1 ( y 1 , y 2 ,..., y n ),  ...,  x n  = g n -1 ( y 1 , y 2 ,..., y n ), 
Teorema 3.2: Sean  que X 1 , X 2 ,..., X n ,  son variables aleatorias discretas 
con distribución de probabilidad conjunta  f X 1 , X 2 ,..., X n  ( x 1 , x 2 ,..., x n ) . Si las 
funciones  y1  = g 1 ( x 1 , x 2 ,..., x n ),  y 2  = g 2 ( x 1 , x 2 ,..., x n ),  ...,  y n  = g n ( x 1 , x 2 ,..., x n ), 
definen una transformación uno a uno entre los valores  ( x 1 , x 2 ,..., x n )  y 
( y 1 , y 2 ,..., y n )  de tal forma que las ecuaciones: 

y1  = g 1 ( x 1 , x 2 ,..., x n ),  y 2  = g 2 ( x 1 , x 2 ,..., x n ),..., y n  = g n ( x 1 , x 2 ,..., x n ), 
tengan inversa 

x1  = g 1 -1 ( y 1 , y 2 ,..., y n ),  x 2  = g 2 -1 ( y 1 , y 2 ,..., y n ),..., x n  = g n -1 ( y 1 , y 2 ,..., y n ), , 
respectivamente entonces la distribución conjunta de Y 1 , Y 2 ,..., Y n ,  es: 

f Y  , Y  ,..., Y n , ( y 1 , y 2 ,..., y n ) 
1

 

= f X 1 , X 2 ,..., X n [ g 1 -1 ( x 1 , x 2 ,..., x n ), g 2 -1 ( x 1 , x 2 ,..., x n ),... g n -1 ( x 1 , x 2 ,..., x n )] 

Demostración: 

f Y  , Y  ,..., Y n , ( y 1 , y 2 ,..., y n ) 
1

 

=  P ( Y 1  = y 1 ,  Y 2  = y 2 ,  ...  , Y n  = y n ) 

=  P ( g 1 ( x 1 , x 2 ,... x n ) = y 1 ,  g 2 ( x 1 , x 2 ,... x n ) = y 2 ,  ...  , g n ( x 1 , x 2 ,... x n ) = y n ) 

=  P ( X 1  = g 1-  1 ( y 1 , y 2 ,... y n ),  X 2  = g -2 1 ( y 1 , y 2 ,... y n ),  ...,  X n  = g n -1 ( y 1 , y 2 ,... y n )) 
=

f X   , X  ,..., X n [ g 1 -1 ( x 1 , x 2 ,..., x n ), g 2 -1 ( x 1 , x 2 ,..., x n ),... g n -1 ( x 1 , x 2 ,..., x n )] 
1

41 

Ejemplo 3.2:  
Sean  X 1 , X 2  variables discretas con distribución de probabilidad conjunta
ì X 1 X 2 
ï 18 
ï
f ( x 1 , x 2  ) =  í
ï0 
ï
î

X 1  = 1 ,  2 
X 2  = 1 ,  2 ,  3 
en  otro  caso 

Encontrar  la distribución de probabilidad de la variable aleatoria 

Y1  = X 1 X 2 
Solución: 

Sea  y1  = g 1 ( x 1 , x 2 ) 

y2  =  g 2 ( x 1 , x 2 ) 

f Y  , Y  ( y 1 , y 2 )  = P  ( Y 1  = y 1 ,  Y 2  = y 2 ) 
1

=

P

(g 1 ( x 1 , x 2 ) = y 1  , 

g 2 ( x 1 , x 2 )  = y 2 ) 

-1 
-1 
=  P ( x 1  = g 1  ( y 1 , y 2 ) ,  x 2  = g 2  ( x 1 , x 2 ) 

=  f X ( g 1-  1 ( y 1 , y 2 ) ,  g 2 -1 ( x 1 , x 2 ) 

Y1  = X 1 X 2  Þ  f Y 1 ( y 1 ) = ? 
Se usa una variable auxiliar  Y2  = X 2 
Ahora  procedemos a encontrar las inversas: 

y1  = X 1 X 2  Þ y 1  = X 1 y 2  Þ x 1  =

y 1 
= g 1-  1 ( y 1 ,  y 2 ) 
Y 2 

x2  = y 2  = g 2 -1 ( y 1 ,  y 2 ) 

Los Intervalos de  y 1  y  y 2  son: 

x 1 

x 2 




6

42 

Por lo tanto 

y 1 = 1, 2, 3, 4, 6 
y 2 = 1, 2, 3 
Tenemos:

æ y 1 

ö
, y 2 ÷÷
è y 2  ø

f Y  , Y  ( y 1 , y 2 ) =  f x çç
1 2 

Y 1 
f Y   ( y 1 ) 
1

y 1 
18 


18 





3.2. 
TECNICA DE TRANSFORMACIONES PARA VARIABLES 
CONTINUAS 

En este caso se enuncia el siguiente teorema: 

Teorema 3.3:  Sean  X  es una variable aleatoria continua con distribución 
de  probabilidad  f X  ( x ) .  Si  la  función  Y=  g(X)  define  una  correspondencia 
uno a uno entre los valores  X  y  Y , de tal forma que la ecuación  y = g ( x ) 
tenga su inversa  x = g -1 ( y ) , entonces la distribución de  Y  es:

f Y ( y ) =  f X  (g -1 ( y ) )  J 
donde 

J =

d  -1 
g  ( y )  y  recibe  el  nombre  de  jacobiano  de  la 
dy 

transformación.

43 

Demostración: 
La  demostración  puede  abrirse  en  dos  casos,  en  el  caso  en  el  que 

y = g ( x )  es creciente y en el caso en el que  y = g ( x )  es decreciente.

·

Supóngase  que  y = g ( x )  es creciente. 


g­1(a) 

1,5 

Gráfica 2 

Se escoge dos puntos arbitrarios de  y , por ejemplo  a  y  b  entonces: 

P (a 
  £ Y  £ b )  =  P (Y 
  £ b ) - P ( Y  £ a ) 
=  P ( g ( X ) £ b ) - P ( g ( X ) £ a ) 
=  P ( X  £ g -1 ( b )) - P ( X  £ g -1 ( a )) 
=  P[ g -1 ( a ) £ X  £ g -1 ( b )] 
g -1 ( b ) 

=

òf


g - 1 ( a ) 

( x ) dx 

44 

Ahora  se  cambia  las  variable  de  integración  de  x  a  y  por  la  relación 
x = g -1 ( y )  se tendría que: 

dx = [ g -1 ( y )] '  dy 
luego 

P (a 
  £ Y  £ b ) =

-1 
 

òa  f X  ( g 

( y ))[ g -1 ( y )] ' dy 

como  a  y  b  recorren  todos  los  valores  permisibles  de  y  siempre  que 
a < b  se tiene que 

f Y  ( y )  =  f X ( g -1 ( y ))[ g -1 ( y )] ' 

 

= f X  (g -1 ( y ) ). J 
Se  conoce  a  J = [ g -1 ( y )] '  como  el  reciproco  de  la  pendiente  de  la  línea 
tangente  a  la  curva  de  la  función  creciente  y = g ( x )  es  evidente    que 

J = J  . 
Luego

·

f Y ( y ) =  f X  (g -1 ( y ) )  J

Suponga  que  y = g ( x )  es decreciente. 



g­1(a) 

Gráfica 3

45 

Se escoge otra vez  puntos arbitrarios de  y ,  a  y  b  entonces: 

P (a 
  £ Y  £ b )  =  P (Y 
  £ b ) - P ( Y  £ a ) 
=  P ( g ( X ) £ b ) - P ( g ( X ) £ a ) 
=  P ( X  £ g -1 ( b )) - P ( X  £ g -1 ( a )) 
=  P [ g -1 ( b ) £ X  £ g -1 ( a )] 
g -1 ( a ) 

=

ò f X  ( x ) dx 

g - 1 ( b ) 

otra vez cambiando  la variable de integración de  x  a  y  se tiene que: 

-1 
 

P (a 
  £ Y  £ b ) =

òb  f X  ( g 

( y ))[ g -1 ( y )] ' dy 

= - ò f X  ( g -1 ( y ))[ g -1 ( y )] ' dy 

Como  a  y  b  recorren  todos  los  valores  permisibles  de  y siempre  que 
a < b  se tiene que 

P (a 
  £ Y  £ b )  = - f X  (g -1 ( y ) ).   J 
en este caso la pendiente de la curva es negativa, por tanto  J = - J  .

f Y ( y ) =  f X  (g -1 ( y ) )  J 

con lo cual se concluye el teorema. 
Ejemplo 3.3: 
Sea  X  una variable aleatoria continua donde su distribución se encuentra 
dada por:
ì 2 x  0 £ x  £ 1 
ï
f X  ( x )  =  P ( X  = x )  = í
ï0  en  otro  caso 
î

46 

Encontrar a Y= 3Y­1 
Solución: 

Se encuentra el intervalo de  y 

- 1 < y = 3 x - 1 < 2 

- 1 £ y £ 2 

Ahora 

F Y ( y )  = P ( Y  = y ) = P [ 3 x - 1 £ y ] 
=  P[ 3 x £  y + 1 ] 

y + 1 ù
é
= P  ê x  £ 
3  úû
ë
F X = 

y + 1

æ y + 1 ö
ç
÷
æ y + 1 ö ç 3  ÷
f Y  ( y ) =  F X  ç

÷
è 3  ø ç dy  ÷
ç
÷
è
ø
æ y + 1 ö 1 
=  f X  ç
÷. 
è 3  ø 3 

f Y  ( y )  = 

2 y + 1 

Teorema 3.4: Sean  X 1 , X 2 ,..., X n  son variables aleatorias continuas con 
distribución de probabilidad conjunta  f X 1 , X 2 ,..., X n , ( x 1 , x 2 ,..., x n ) . Si 

y1  = g 1 ( x 1 , x 2 ,..., x n ),  y2  = g 2 ( x 1 , x 2 ,..., x n ),  ...,  y n  = g n ( x 1 , x 2 ,..., x n ),  definen 
una transformación uno a uno entre los valores  ( x 1 , x 2 ,..., x n )  y

47 

( y 1 , y 2 ,..., y n )  de tal forma que las ecuaciones: 

y1  = g 1 ( x 1 , x 2 ,..., x n ),  y 2  = g 2 ( x 1 , x 2 ,..., x n ),..., y n  = g n ( x 1 , x 2 ,..., x n ), 
Tengan inversa 

x1  = g 1 -1 ( y 1 , y 2 ,..., y n ),  x 2  = g 2 -1 ( y 1 , y 2 ,..., y n ),..., x n  = g n -1 ( y 1 , y 2 ,..., y n ), , 
respectivamente entonces la distribución conjunta de Y 1 , Y 2 ,..., Y n ,  es: 

f Y  , Y  ,..., Y n , ( y 1 , y 2 ,..., y n ) 
1

 

=  f X 1 , X 2 ,..., X n [ g 1 -1 ( x 1 , x 2 ,..., x n ), g 2 -1 ( x 1 , x 2 ,..., x n ),... g n -1 ( x 1 , x 2 ,..., x n )]  J 

donde el jacobiano es el determinante de n x n. 

¶ x1 

¶x 1 

y 1 

y 2 

¶x 2 

¶x 2 

y 1 

y 2 

¶x n 

¶x n 

y 1 

y 2 

... 

¶x 1 

... 

¶x n 

M

y n 
y 2 
M

... 

¶x n 

y n 

Ejemplo 3.4: 
Sean  X 1  y  X 2  variables  aleatorias  independientes  exponenciales  de 
parámetros  q = 1 , halle la distribución de la suma 
Solución: 

X1  

»

= f ( x 1 ) = e - x 1 

0 £  x1   £ ¥

X 2 

»

= f ( x 2 )  = e - x 2 

0 £  x2  £ ¥

f X   , X  ( x 1 , x 2 ) =  e - ( x  + x  ) 
1

1

0 £  x1  £ ¥

0 £ x2  £ ¥

48 

1. 

y1  = x 1  + x 2  = g 1 ( x 1 , x 2 ) 

2. 

y2  =

x 1 
x 1  + x 2 

= g 2 ( x 1 , x 2 ) 

Sea encuentran  las inversas de:  g1- 1 ( y 1 , y 2 )  y  g 2- 1 ( y 1 , y 2 ) 

de  2. tenemos  ( x1  + x 2 ) y 2  = x 1  = y 1 y 2  = g 1 -1 ( y 1 , y 2 ) 
de  1. tenemos 

x2  =  y 1  - x 1 
x2  =  y 1  - y 1 y 2 

x2  =  y 1 ( 1 - y 2 )  = g 2- 1 ( y 1 , y 2 ) 
Los intervalos son:
0 £  x 2  £ ¥
0 £ y 1 ( 1 - y 2 ) £ ¥
0 £ y 2  £ 1 

0 £ y 1  £ ¥

Aplicando el teorema encontramos la distribución conjunta de  Y 1 y  Y 2  es:

f ( y 1 , y 2 )  =  (g 1 -1 ( y 1 , y 2 ), g 2 -1 ( y 1 , y 2 ) ) J 

y2 

y 1 
= - y 2 y 1  - y 1 ( 1 - y 2 ) 

( 1 - y 2 ) 

- y 1 

= - y 2 y 1  - y 1  + y 1 y 2 )  = y 1 

f ( y  , y  ) ( y 1 y 2 , y 2 ( 1 - y 2 ) ) 
1

= e -( y1 y 2 + y 1 (1   - y 2 ) ) y 1 
= y 1 e -( y 1 y 2 + y 1 ( 1 - y 2 ) ) 
= y 1 e - y 1 

49 

Y  para  encontrar  la  distribución  de  f Y 1 ( y 1 )  se  integra  la  distribución 
conjunta con respecto a  y 2 , entonces: 

= f y 1  ( y 1 ) = ò y 1 e - y 1  dy 2 

- y 1 

= y 1 e 

Con lo que se tiene una variable Gamma (2,1)

50 

CAPITULO CUATRO 

4.  ESTADISTICAS DE ORDEN 

DEFINICION 

Sean  X 1 , X 2 ,..., X n  una muestra aleatoria de tamaño n de una distribución 
de tipo continuo que tiene función de densidad f(x) positiva para a < x <b. 
Entonces  Y1  £ Y 2  £,... £ Y n ,  donde  las  Y i  son  las  X i  arregladas  en  orden 
creciente  de  magnitudes  son  definidas  como  las  estadísticas  de  orden 
correspondientes a la muestra aleatoria  X 1 , X 2 ,..., X n  . 

Estas estadísticas juegan un papel importante en la inferencia estadística 
particularmente  porque  algunas  de  sus  propiedades  no  dependen  de  la 
distribución  de la cual fue obtenida la muestra aleatoria. 

Se  puede  analizar  la  función  de  densidad  conjunta  de  la  muestra 
(Distribución muestral) en una muestra A ordenada así: 

Sea  X 1 , X 2 ,..., X n  una  muestra  aleatoria  de  una  distribución  de  tipo 
continuo que tiene densidad  f X  ( x )  que es positiva, siempre que a<x<b.

51 

Sea  Y 1  la  más  pequeña  de  estas  X i ,  Y 2  la  siguiente  X i  en  orden  de 
magnitudes,  y  Y n  la  mas  grande  de  las  X i  esto  es  Y1  < Y 2  < ... < Y n 
representan  a 

donde  estas  ultimas  se  ordenan 

X 1 , X 2 ,..., X n 

ascendentemente en orden de las  i de la muestra aleatoria  de magnitud. 

TEOREMA 4.1:  Sean  Y1   , Y 2 ,..., Y n  una muestra ordenada de las variables 
aleatorias  X 1 , X 2 ,..., X n  ,  entonces  la  función  de  densidad  conjunta  de 

Y1   , Y 2 ,..., Y n  está dada por 

ìn ! f ( y 1 ) f ( y 2 )... f ( y n ) 
ï
g( y1   , y 2 ,..., y n  ) = í
ï 0  en  otro  caso 
î

a <  y 1  < y 2  < ... < y 

Demostración:  Se probará para el caso n = 3. 
Si  n  =  3,  entonces,  la  función  de  densidad  conjunta  de  X 1 , X 2  , X 3  es 

f ( x 1 ) f ( x 2 ) f ( x 3 ) . 

Considere la probabilidad de un evento tal como: 

P (a< X 1 = X 2  <b,  a< X 3 <b) =  ò

b  b  x 2 

òò

a  a  x2 

Porque

f ( x 1 ) f ( x 2 ) f ( x 3 ) dx 1  dx 2  dx 3 

ò  f ( x  ) dx  = 0 

Como  se  anotó,  se  puede  definir  la  función  de  densidad  conjunta 

f ( x 1 ) f ( x 2 ) f ( x 3 )  sin  alterar  la  distribución  de  X 1 , X 2  , X 3  como  cero  en 
todos  los  puntos  ( X 1 , X 2  , X 3 )  que  tienen  al  menos  dos  de  sus 
coordenadas  iguales.  Entonces  el  espacio,  donde  f ( x 1 ) f ( x 2 ) f ( x 3 )  es  la 
unión de los 6 conjuntos disyuntos siguientes:

52 

A1= { ( x 1 , x 2  , x 3 );  a <  x 1  <  x 2  < x 3  < b} 
A2= { ( x 1 , x 2  , x 3 );  a <  x 2  <  x 1  <  x 3  < b} 
A3= { ( x 1 , x 2  , x 3 );  a <  x 1  <  x 3  <  x 2  < b} 
A4= { ( x 1 , x 2  , x 3 );  a <  x 2  <  x 3  <  x 1  < b} 
A5= { ( x 1 , x 2  , x 3 );  a <  x 3  <  x 1  <  x 2  < b} 
A6= { ( x 1 , x 2  , x 3 );  a <  x 3  <  x 2  <  x 1  < b} 

Hay  6  de  estos  conjuntos  porque  podemos  ordenar  x 1 , x 2  , x 3 
precisamente de 6 formas. 
Considere las funciones: 
y1 = mín { x 1 , x 2  , x 3 } 
y2  = el valor de magnitud mediana de { x 1 , x 2  , x 3 }, y 
y3  = máx { x 1 , x 2  , x 3 }. 
Estas funciones definen una transformación uno a uno que mapea cada 
uno de los conjuntos A1,  A2, A3,  A4, A5,  A6  anteriores sobre uno de los 
conjuntos
B = {(y1, y2, y3); a <  y1  < y 2  < y 3 < b}. Las funciones inversas son para los 
puntos en A i   , i=1, 2, 3, 4, 5, 6, así: 

A1  = 

x 1  = y 1 

x 2  = y 2  x 3  = y 3 

A2  = 

x 1  = y 2 

x 2  = y 1  x 3  = y 3 

A3  = 

x 1  = y 1 

x 2  = y 3  x 3  = y 2 

A4  = 

x 1  = y 3 

x 2  = y 1  x 3  = y 2 

A5  = 

x 1  = y 2 

x 2  = y 3  x 3  = y 1 

A6  =

x 1  = y 3 

x 2  = y 2  x 3  = y 1 

Entonces el jacobiano de cada Ai, es:

53 

é ¶x 1 
ê ¶y 
ê 1 
ê
ê ¶x 
J =  ê 2 
¶y 
ê 1 
ê
ê ¶x 3 
ê ¶y 
ë 1 

¶x 1 
¶y 2 
¶x 2 
¶y 2 
¶x 3 
¶y 2 

¶x 1  ù
¶y 3  ú
ú
ú
¶x 2  ú
¶y 3  ú
ú
ú
¶x 3  ú
¶y 3  úû

é1  0  0 ù
J 1  =  êê0  1  0 úú
êë0  0  1 úû

é0  1  0 ù
J 2  =  êê1  0  0 úú
êë0  0  1 úû

é1  0  0 ù
J 3  =  êê0  0  1 úú
êë0  1  0 úû

é0  1  0 ù
J 4  =  êê0  0  1 úú
êë1  0  0 úû

é0  0  1 ù
J 5  =  êê1  0  0 úú
êë0  1  0 úû

é0  0  1 ù
J 6  =  êê0  1  0 úú
êë1  0  0 úû

El valor absoluto de cada un de los  6 jacobianos es +1. De este modo la 
función de densidad conjunta de las estadísticas de orden: 

y1 = mín { x 1 , x 2  , x 3 } 
y2  = el valor de magnitud mediana de { x 1 , x 2  , x 3 }, y 
y3  = máx { x 1 , x 2  , x 3 }. 

g ( y 1 , y 2 , y 3 ) =  J  1  f ( x 1 ) f ( x 2 ) f ( x 3 )  +  J  2  f ( x 1 ) f ( x 2 ) f ( x 3 )  +  . . .  + 
J  6  f ( x 1 ) f ( x 2 ) f ( x 3 ) 

a< y1< y2< y3< b 

0 en otro caso 
es decir. 

g ( y 1 , y 2 , y 3 ) 

ì  3! f ( y 1 ) f ( y 2 )... f ( y n ) 
ï
= í
ï0  en  otro  caso 
î

54

a < y 1  < y 2  < y 3  < b 

Ejemplo 4.1: Sea X una variable aleatoria de tipo continuo con función de 
densidad  f ( x ) que  es  positiva  y  continua,  para  a<x<b,  y  cero  en  otra 
parte. La función  de distribución  F ( x ) de X  se puede escribir: 

si  x £ a 

F X  ( x ) = 

f ( w )  dw 
1  si  x ³ b 

ò a

si a < x < b 

De esta manera hay una única mediana m de la distribución con  F X  (m ) = 

. Considere la muestra aleatoria  X 1 , X 2  , X 3  de esta distribución y sea 

y1  < y 2  < y 3  las estadísticas de orden de la muestra. 
Calcular la probabilidad de que  y2  £ m 

Solución: 
6 f ( y 1 ) f ( y 2 )... f ( y n ) 

a < y 1  < y 2  < y 3  < b 

g ( y 1 , y 2 , y 3 ) = 
en  otro  caso 

La función de densidad de  Y 2  es entonces:

h ( y 2 ) =  6 f ( y 2 ) ò

y 2 

y  òa

f ( y 1 ) f ( y 3 )  dy 1 dy 3 

[

= 6 f ( y 2 ) ò  F ( y 1 ) 
y 2 

y 2 

]f ( y  ) dy 

= 6 f ( y 2 ) F ( y 2 ) ò  f ( y 3 ) dy 3 
y 2 

[

= 6 f ( y 2 ) F ( y 2 ) F ( y 3 ) 


y 2 

6 f ( y 2 ) F ( y 2 )[ 1 - F ( y 2 )] 

h ( y 2 ) = 

a < y 2  < b 

0  en  otro  caso 

55 

Por consiguiente 

m

{

P ( y2  £  m )  = 6 ò  F ( y 2 ) f ( y 2 ) [F ( y 2 ) ]2  f ( y 2 )  d ( y 2 ) 
a

ì (F(y 2 ) )2  (F(y 2  ) ) 3  ü

P ( y2  £ m )  = 6 í

ý =

3  þ a 

î

El  resultado  anterior  puede  usarse  para  obtener  expresiones  de  las 
demás estadísticas de orden. 
Sea  X  una  variable  aleatoria  de  tipo  continuo  que  tiene  función  de 
densidad  f ( x ) que es positiva y continua, en a<x<b, y cero en otro caso. 
Entonces la función distribución  F ( x ) se puede escribir 

F ( x ) =  0 si  x £ a 
=

òa  f ( w ) 

dw  si  a  <  x  < b 

=   1 si  x ³ b 
Por consiguiente 

F ¢( x )  =  f ( x ) 

a < x < b 

Además si  a < x < b 
1­  F ( x )  =  F (b 
  ) - F ( x ) 

=

òa 

=

òx   f ( w ) 

f ( w )  dw - ò f ( w )  dw 

dw 

Sea  X 1 , X 2 ,..., X n  una  muestra  aleatoria  de  tamaño  n  de  estas 
distribuciones,  y  sea  Y1   , Y 2 ,..., Y n  las  estadísticas  de  orden  de  la  muestra 
aleatoria. Entonces la función de densidad conjunta de  Y1   , Y 2 ,..., Y n  es:

56 

n ! f ( y 1 ) f ( y 2 )... f ( y n ) 

en  otro  caso 

g ( y 1 , y 2 ,..., y n  =

a <  y 1  <  y 2  < ... < y n < b 

4.1.  DISTRIBUCIÓN DEL MAXIMO ( Y n ) 

La  función  de  densidad  del  máximo  (densidad  marginal  de  y n  )  puede 
expresarse en términos de la función de distribución  F ( X )  y de la función 
de  densidad  f ( x ) de  la  variable  aleatoria  X.  Si  a  < y n  <  b,  la  función  de 
densidad marginal de  Y n  esta dada por: 

g n ( y n )  = 

y n 

y 4 

y 3 

y 4 

y 3 

y 2

òa  ... òa  òa  òa  
y n 

òa 

y n 

... ò

òa 

y 4 

y 3

n ! f ( y 1 ) f ( y 2 ) f ( y 3 )... f ( y n )  dy 1 dy 2 dy 3 ... dy n -1 

y 2

n ! æç ò f ( y 1 ) dy 1 ö÷ f ( y 2 ) f ( y 3 )... f ( y n )  dy 2 dy 3 ... dy n -1 
è

ø

òa  ... òa  òa   n !  F ( y  ) f ( y  ) f ( y  )... f ( y n ) 

y n 

òa 

y n

òa 

y n

òa 

y n

òa 

dy 2 dy 3 ... dy n -1 

y 4 
y 3
... ò n ! æç ò F ( y 2 ) f ( y 2 ) dy 2  ö÷ f ( y 3 )... f ( y n )  dy 3 ... dy n -1 

è a 
ø

æ F ( y  ) 2 

... ò n ! ç

ç 2 
è
y 4 

y 4

 

ö
÷ f ( y  )... f ( y  )  dy  ... dy 



n -1 
÷
ø

[F ( y 3 ) ] 2  f ( y  ) f ( y  )... f ( y  ) 

... ò n ! 

y 3

dy 3 dy 4 ... dy n -1 

æ  y 4  [F ( y 3 ) ] 2 
ö
... ò n !  ç ò

( y 3 ) dy 3  ÷ f ( y 4 )... f ( y n )  dy 4 dy 5 ... dy n -1 
ç a 
÷


è
ø
y 5

57

y n

y 5

òa  ... òa  
y n

òa 

y n

òa 


F ( y 4 ) ] 
[
n ! 
f ( y  )... f ( y  ) 

2 . 3 

dy 4 ... dy n -1 

æ  y 5  [F ( y 4 ) ] 3 
ö
y 6
... ò n !  ç ò

( y 4 ) dy 4  ÷ f ( y 5 )... f ( y n )  dy 5 ... dy n -1 
ç a 
÷

2 . 3 
è
ø

y 5

 

... ò n ! 

[F ( y 5 ) ] 4  f ( y  )... f ( y  ) 
2 . 3 . 4 

dy 5 ... dy n -1 

×
×
×

n! 

[F ( y n ) ] n -1   
2 . 3 . 4 ...( n - 1 ) 

f ( y n ) 

a < y n < b 

Entonces 

g n ( y n )  =

n!  [F ( y n ) ] n -1   
f ( y n ) 
( n - 1 ) 

é n [F ( y n ) ]n -1    f ( y n ) 
ê
g n ( y n )  ê
ê 0  en  otro  caso 
ë

a <  y n < b 

a < y n < b 

De esta manera, la función de distribución de  Y n  F y n  ( y )  es: 

F y n  ( y ) = P  [Y n £  y  ] = P  [ X 1  £ y ;  X 2  £ y ;  ...  ; X n  £ y 

Porque el más grande de los  X i  es menor o igual a  y  si solamente todas 
las  X i  son  menores  o  iguales  a  y .  Ahora  si  los  X i  se  asumen 
independientemente, entonces:
n

P [X 1  £  y ;  X 2  £ y ;  ...  ; X n £ y ]  = Õ P  ( X i  £  y )  =
i =1 

58

n

F X  ( y ) 
Õ

1

=1 

Así, la distribución de Y n  = max ( X 1 ,..., X n )  se puede expresar en términos 
de  las  distribuciones  marginales  de  X 1 ,..., X n  .  Si  en  total  se  asume  que 
todas  las  X 1 ,..., X n  tienen  la  misma  distribución  acumulativa,  F X  (.), 
entonces:
n

Õ
i   

F   X  (  y  )  = [F  X  ( y ) ]n  

= 1 

Lo anterior produce el siguiente teorema. 

TEOREMA  4.2:   Si  X 1 ,..., X n  son variables  aleatorias independientes  y  si
Y n  = max ( X 1 ,..., X n ) , entonces:
n

F Y n (  y )  =  Õ F X  (  y ) 
 

i = 1 

Si  X 1 ,..., X n  son  variables  aleatorias  independientes    e  idénticamente 
distribuidas, con función de distribución  F X  (.), entonces: 

F Yn   ( y )  = [F  X  ( y ) ]n  
COLORARIO:  Si  X 1 ,..., X n  son  variables  aleatorias  independientes,  e 
idénticamente  distribuidas,  y  continuas  con  función  de  densidad 
probabilística  f X  (.) y función de distribución acumulativa  F  (.), entonces: 

f Yn   ( y )  = n  [F X ( y ) ] n -1  f X  ( y ) 

Demostración:  
f Yn   ( y )  =


n -1 
F Y n ( y ) = n [F X  ( y ) ]  f X  ( y ) 
dy 

4.2.  DISTRIBUCIÓN DEL MINIMO ( Y 1 )

F Y ( y )  =  P [Y 1  £ y ] = 1 - P [Y 1  > y ] 

= 1 - P [ X 1 > y ;  X 2  > y ;  ...  ; X n > y ] 

59 

Porque  Y 1 

es  mayor  que  y  si  cada  X i > y .  Por  otra  parte,  si 

X 1 , X 2 ,..., X n  son independientes, entonces:
F Y   ( y ) =  1 - P [ X 1  > y ;  X 2  > y ;  ...  ; X n > y ] 
1

n

= 1 - Õ P  ( X i  > y ) 
i =1 
n

(

)

= 1 - Õ 1 - F X i  ( y ) 
i =1 

Si además se asume que  X 1 , X 2 ,..., X n  son idénticamente distribuidas con 
función de distribución acumulativa  F X  (.)  común, entonces:

n

F Y   ( y )  =  1 - Õ (1 - F x i ( y ) )
1

 

i =1 

=

1 - [1 - F  x ( y ) ] 

Lo anterior produce el siguiente teorema: 

TEOREMA 4.3:  Si  X 1 , X 2 ,..., X n  son variables aleatorias independientes y
Y1  = min {X 1 ,..., X n } , entonces
n

F Y   ( y )  =  1 - Õ (1 - F X i ( y ) )
1

 

i =1 

Y  si  X 1 , X 2 ,..., X n  son  independientes  e  idénticamente  distribuidas  con 
función de distribución acumulativa  F X  (.) entonces:

F Y   ( y )  =  1 - [1 - F  X  ( y ) ]n  
1

COLORARIO:  Si  X 1 , X 2 ,..., X n 

son  variables  aleatorias  continuas 

independientemente  idénticamente  distribuidas  con  función  de  densidad 
probabilística común  F X  (.), entonces,

f Y   ( y )  =  1 - [1 - F X ( y ) ] n -1  f X  ( y ) 
1

60 

Demostración:  
f Y   ( y )  =
1




F Y  ( y ) =
1 - [1 - F X  ( y ) ]
dy 
dy 

{

1

= - n [1 - F X ( y ) ]  ( - f X  ( y )) 
n -1 

= n [1 - F X ( y ) ]  f X  ( y ) 
n -1 

si 

a <  y 1  < b 

4.3  FUNCIÓN  DE  DISTRIBUCIÓN  DE  CUALQUIER  ESTADISTICA  DE 
ORDEN 

La  función  de  distribución  de  cualquier  estadística Y a  de  orden,  se  da  a 
continuación: 

TEOREMA  4.4:   Sea  Y1  £ Y 2  £ ... £ Y n  que  representan  las  estadísticas  de 
orden  de  una  muestra  aleatoria  de  tamaño  n  cada  una  con  función  de 
densidad  f(x)    y  función  de  distribución  acumulativa F X  (.).  La  función  de 
distribución  acumulativa  de Y a  , a = 1, 2,…, n, está dada por:

æ n ö
çç ÷÷[F ( y ) ] j  [1 - F ( y ) ]n   j 
å 
j  a j 
n

FY  ( y ) =
a

=

-

è ø

Demostración:  
Para un  y fijo sea

Z i  = I (- ¥ , y ) ( X i ); 
n

Z i  =
å
i     

X i £ y 

=1

n

Note que

Z i 
å
i   

tiene una distribución binomial con parámetros  n  y  F ( y ). 

=1 

61 

Ahora
n
æ n ö
FY  ( y ) = P [Y a £ y ] = P [å Z i  ³ a ] = å çç ÷÷[F ( y ) ] j [1 - F ( y ) ]n   - j 
j =a è j ø
¥ 

El  paso  clave  en  esta  prueba  es  la  equivalencia  de  los  dos  eventos

{Ya

£ y }  y

{å Z  ³ a }.  Si  la

a ­ésima  estadística  de  orden  es  menor  o 

igual a  y , entonces, seguramente el numero de las  X i  menores o iguales 
a  y  es mayor o igual a a , e inversamente. 

n  n 
æ ö
çç ÷÷[F ( y ) ] j [1 - F ( y ) n - j ] = [ f ( y ) ]n  
F
 
(


=
COLORARIO:
å
Y a
j = n è j ø

y
n  n 
æ ö
FY  ( y ) = å çç ÷÷[F ( y ) ] j [1 - F ( y ) n - j ] 
j =1 è j ø
1

0  n
æ ö

= 1 - å çç ÷÷[F ( y ) ] 1 - F ( y ) n - j 
j = 0 è j ø

[

æ n ö
0
= 1 - çç ÷÷[F ( y ) ] 1 - F ( y ) n 
è 0 ø

[

[

= 1 - 1 - F  ( y ) n 

Asume  que  la  muestra  aleatoria  X 1 , X 2 ,..., X n  viene  de  una  función  de 
densidad probabilística  f  (.); esto es, que las variables aleatorias  X i  son 
continuas  buscamos  la  densidad  de Y a  ,  la  cual,  desde  luego,  se  puede 
obtener derivando a  F Ya  ( y ) . Note que:

62 

f Ya ( y ) =
 

dF y a
F Y  ( y + Dy ) - F Y a ( y ) 
lim  a
dy  D ®0 
Dy 
P [ y < Y a £ y + Dy ] 
D ® 0 
Dy 

= lim 

= lim 
D ® 0

P [(a - 1 )de los X i £ y ;  un  X i  en ( y ; y + Dy ); ( n - a ) de los X i  > y + Dy ] 
Dy 

ì
n ! 
[F ( y ) ]a -1 [F ( y + Dy ) - F ( y ) ]1 [1 - F ( y + Dy ) ]n-a ü
= lim í
ý
D ®0 ( 
Dy 
î a  - 1 )! ( n - a )! 
þ

f Ya ( y ) = 

n ! 
[F ( y ) ]a -1  [1 - F X ( y ) ] n -a f x ( y ) 
( a - 1 )! ( n - a )! 

Utilizando el mínimo criterio de la distribución multinomial, se puede hallar 
la  función  de  densidad  conjunta  entre

Y a  y Y b 

para  1 £ a  < b £ n

f Ya ,Y  b ( x , y ) Dx Dy  » P [x  < Y a £ x + Dx ; y  < Y b £ y + Dy ] 
 

é (a - 1)de los X i  £ x ;  un  X i  en ( x ; x + Dx ); ( b - a - 1 ) de  los 
ù
»  P ê
ú
ë X i  en ( x + Dx ; y ); un  X i  en ( y ; y + Dy ) ( n - b ) de  los  X i  > y + Dy û

[F ( x ) ]a - 1 [F ( y ) - F ( x - Dx ) ]b -a -1  [1 - F ( y + Dy ) ] n b f ( x ) Dxf ( y ) Dy 
n ! 
( a - 1 )!  1 ! ( b - a - 1 )!  1 ! ( n - b )! 
-

»

Por lo tanto:

63

n ! 
ì
a -1 
b -a -1 
[1 - F ( y ) ]n - b f ( x )( y ) 
ï ( a - 1 )! ( b - a - 1 )! ( n - b )! [F ( x ) ] [F ( y ) - F ( x ) ]
f Ya  ,Y   b ( x , y ) = ïí
ï0 
si 
x ³ y 
ï
î

En general se da el siguiente teorema: 

TEOREMA 4.5:  Sean  X 1 , X 2 ,..., X n  una muestra aleatoria de la población cuya 
función  de  densidad  probabilística  es  f  (.)  y  con  función  de  distribución 
acumulativa  F (.).  Sean  Y1  £ Y 2  £ ... £ Y n  las  correspondientes  estadísticas  de 
orden entonces:

f Ya ( y )  = 
f Y

a  , Y  b

n ! 
[F X  ( y ) ]a -1 [1 - F X  ( y ) ] n -a f X  ( y ) 
( a - 1 )!  ( n - b ) 

( x ,  y ) =

n ! 
[F X  ( x ) ]a -1  [F X  ( y ) - F X  ( x ) ]b -a -1 [1 - F X  ( y ) ]n -a f X  ( x ) f X  ( y ) 
( a - 1 )! ( b - a - 1 )!  ( n - b )! 
- ¥ < x < y < ¥

ìn ! f ( y 1 ) f ( y 2 )... f ( y n )  si  y 1  < y 2  < ... < y n 
ï
f Y 1 ,Y 2 ,..., Y n  ( y 1 , y 2 ,..., y n ) = í
ï 0  en  otro  caso 
î

4.4 DISTRIBUCIÓN DE FUNCIONES DE ESTADISTICAS DE ORDEN 

En  la  sección  anterior  se  hallaron  distribuciones  marginales  y  distribuciones 
conjuntas  de  las  estadísticas  de  orden.  En  esta  sección  se  hallará  la 
distribución  de  probabilidades  de  ciertas  funciones de  estadísticas  de  orden.
64 

DEFINICION  4.1:   Sea  Y1  £ Y 2  £ ... £ Y n  que  denota  las  estadísticas  de 
orden  de  una  muestra  aleatoria  X 1 , X 2 ,..., X n  de  una  población  con 
función  densidad  f  (.).  La  mediana  muestral  es  definida  como  la 
estadística  de  orden  mitad  si  n  es  impar,  y  el  promedio  de  las  dos 
estadísticas mitad si n es par. 

El  rango  muestral  Se  define  como  Y n - Y 1 ,  y  el  semi­suma  muestral 
como 

Yi  + Y n 

Si la muestra es de tamaño impar, entonces la distribución de la mediana 
se puede expresar coma la distribución de la  estadística de orden Y a  . Por 
ejemplo si n = 2k+1 (n impar), entonces la estadística de orden  Y K +1  es la 
mediana muestral cuya distribución esta dada por  f Ya ( y ) expresada antes. 

Si  la  muestra  es  par,  es  decir,  n=2k,  entonces  la  media  de  orden  Y K  y 

Y K +1  , y la distribución desde la cual puede obtenerse la distribución de la 
mediana  es 

f Ya ,Y   b ( x , y )  haciendo

a =  k 

y b = 

k+1,  iniciando    la 

transformación con la densidad conjunta  f Yk ,Y 
  k + 1  ( x , y ) . 

EJEMPLO 4.2:  
Hallar  la  función  de  densidad  conjunta  del  rango  y  del  semi­suma,  y  a 
partir de allí, halle las distribuciones marginales respectivas,  f k  donde R = 

Y n - Y 1  y  f T  en donde T= 

Y1  + Y n 

Solución:

65 

En primer lugar se halla 

f Y  ,Y n ( x , y ) es decir 
1

f Y  ,Y  n ( x , y ) =

n ! 
ì
1 -1 
 
n -1 -1 
[1 - F X  ( y ) ]n - n  f X  ( x ) f X  ( y ) 
ï ( 1 - 1 )! ( n - 1 - 1 )!  ( n - n )! [F X  ( y ) ] [F X  ( y ) - F X  ( x ) ]
ï
- ¥ < Y 1  < Y n  < ¥
í
ï 0 
en  otro  caso 
ï
î

ì
ï
n ( n - 1 ) [F X  ( y ) - F X  ( x ) ]n - 2  f X  ( x ) f X  ( y ) 
ïï
f Y1,  Y n ( x , y )  = íï

en  otro  caso 
ï
ïî

Se hace la transformación R =  Y n - Y 1  y  T= 

Y1  + Y n 

- ¥ < Y 1  < Y n  < ¥

Entonces 


r =  g 1 ( y 1 , y n ) =  y n - y 1 

t =  g 2 ( y 1 , y n ) =  ( y1  + y n ) 

r =  y n - y 1 

t = 

Y1  + Y n 

y n - y 1  =  r 

y n - y 1  =  r 

y n + y 1  =  2t 

- y n - y 1  =  ­2 t 

2  y n 

=  r + 2t 

2  y 1 

=  r ­ 2t 

­ r + 2 t 
y1 = 
 

yn  =  r + 2t 

66 

y 1  <  y n 


t - < t +

g 1- 1 ( r , t ) =  y1  = 

J  =

r  > 0 

­ r + 2 t 

¶g 1-1  
¶r 

g 2- 1 ( r , t ) =  yn   = 

¶g 1 -1 
¶t 

-


¶g 2 -1 
¶t 

r + 2 t 

=
¶g 2 -1 
¶r 

- ¥ < t  < ¥

= 1 

1  1 
- = -1 
2  2 

g R,  T ( r , t ) = f Y , Y n ( g 1 -1( r , t ), g 2 -1( r , t )) J 
1

é æ r + 2 t ö
æ - r + 2 t öù
= n ( n - 1 ) ê F X  ç
÷ - F X  ç
÷ú
è 2  øû
ë è 2  ø

é æ
r ö
r öù
æ
= n ( n - 1 ) ê F X ç t + ÷ - F X  ç t - ÷ú
è 2 øû
ë è 2 ø

n - 2 

n - 2 

æ - r + 2 t ö æ r + 2 t ö
÷ f X  ç
÷
è 2  ø è 2  ø

f X  ç

r ö æ r ö
æ
f X  ç t - ÷ f X  ç t + ÷
è

2 ø

2 ø

è

r   > 0 

- ¥ < t < ¥

Entonces las distribuciones marginales  f R  ( r )  y  f T  ( t )  están dada por:

¥

g R ( r )  =  ò g R ,T  ( r , t ) dt 

g T  ( t )  =

67

ò

¥

g R , T  ( r , t ) dr 

Ejemplo 4.3:  
Sea 

Y1  < Y 2  < Y 3  < Y 4  < Y 5  las  estadísticas  de  orden  de  una  muestra 

aleatoria  de  tamaño  S 

f X  ( x ) = e - x 

de  una  población  con  densidad 

x > 0 . 

a.  Halle la función de densidad de la mediana. 
b.  Halle la función de densidad del rango 
c.  Halle la función de densidad del semi­rango. 

Solución: 
a.  En  este  caso  n  =5  puede  escribirse  n  =  2k+1  donde  k  =  2. 
Entonces,  la  mediana  es  Y 3 = Y k +1 ;  entonces  la  densidad  de  la 
mediana  es  un  caso  particular  de

F X  ( x ) = 1 - e - x 
f Y ( y 3 ) = 
3

Y a  .  Por  otra  parte, 

x > 0  entonces:

5 ! 
[F X  ( y 3 ) ]2 [1 - F X  ( y 3 ) ] 2  f X  ( y 3 ) 
( 3 - 1 )! ( 5 - 3 )! 

y 3  > 0 

[
] [e  ]  e 
y  > 0 
= 30 (1 - 2 e + e  ) e 
f  ( y  )  = 30( e
- 2 e  + e  )  y  > 0 
= 30 1 - e - y3

- y 3  2 

- y 3 

-3 y 3 

Y3 

- y 3 

-2 y 3 

-4 y 3 

-3 y 3 

-5 y 3 

3

b.  La  función  del  rango  R = Y 5  - Y 1 .  Primero  se  halla  la  distribución 
conjunta de  Y 1 , Y 5 ,  así:

f Y  , Y  ( y 1 , y 5 )  = 
1

5 ! 
[F X  ( y 1 ) ]0 [F X  ( y 5 ) - F X  ( y 1 ) ]3 [1 - F X  ( y 5 ) ]0  f X  ( y 1 ) f X  ( y 5 ) 
( 5 - 2 )! 
0 < y 1  < y 5  < ¥

68 

ì
ï
- y 
- y  3  - y  - y 
ïï20 1 - e  5  - 1 + e  1  e  1 e  5 
f Y1  , Y 5  (y 1 , y 5 )  =  í
ï 0 
en  otro  caso 
ï
ïî

[

]

0 < Y 1  < Y 5  < ¥

f Y  , Y  (y 1 , y 5 )  =  20 (e - y  - e - y  ) e - y  e - y 

1

0 < y 1  < y 5  < ¥

La transformación  R = Y 5  - Y 1  T = Y 5  entonces: 

r =  y 5  - y 1 

t =  y 5 

y1  = t - r 

y5  = t 

J  = 

¶y 1
¶r 

¶y 1 
¶t 

- 1 

¶y 5 
¶t 

0 < r  < t 

=
¶y 5 
¶r 

0 < t < ¥

= - 1 

g R ,T  ( r , t )  = f Y  , Y  ( t - r , t ) J 
1  5 

¥

g R ( r )  = ò 20 (e - t + r  - e -t  )  e -t + r e - t dt 
3

[

¥


3

= ò 20 e - t  ( e r  - 1 )  e - 2 t e r dt 

¥

=  20( e r - 1 ) 3 e r  ò e - 5 t dt 

æ e - 5 t 
= 20 ( e  - 1 )  e  ç ç 5 
è

3  r 

=  20 ( e r  - 1 ) 3 e r 
=  20 ( e r  - 1 ) 3 

¥

ö
÷
÷
r  ø

e -5 r 

e -4 r 

= 4( e 3 r  - 3 e 2 r  + 3 e r  - 1 ) e -4 r 

69

r  > 0 
r  > 0 

= 4 ( e r  - 3 e -2  r  + 3 e -3 r  - e -4 r ) 

r  > 0 

c.  Halle la función de densidad del semi­rango. 
La función de densidad de  Y 1 , Y 5 ,  es

f Y  , Y  ( y 3 ) = n ( n - 1 ) [(F X  ( y 5 ) - F X  ( y 1 ) )]5 - 2  f X  ( y 1 ) f X  ( y 5 ) 
1

0 < y 1  < y 5  < ¥

Se hace la transformación:

f Y   , Y  (y 1 , y 5 )  =  20 (e - y  - e - y  ) e - y  e - y 

1

0 < y 1  < y 5  < ¥

R = 

( Y 5  + Y 1 ) 

T = Y 5 

Entonces: 

r =  g 1 ( y 1 , y 5 )  =

( y 1  + y 5 ) 

t =  g 2 ( y 1 , y 5 )  = y 5 

y1  = g 1 - 1 ( y 1 , y 5 )  = 2 r - t 

y5  = g 2 - 1 ( y 1 , y 5 )  = t 

nueva región: 
0 <  y1  < y 5 
0 < 2 r - t  < t 

t  < 2r  < 2 t 
a) 

t  < 2r 

b) 

2 r  < 2 t 

t  > r 

J =

¶g 1-1  
¶r 

¶g 1 -1 
¶t 

¶g 2 -1 
¶r 

¶g 2 -1 
¶t 

- 1 

=

= 2 

70 

entonces 

g R , T  ( r , t )  = f Y  , Y  ( g 1 -1 ( r - t ))( g 2 -1 ( r - t )) J 
1

= f Y1 ,Y   5  (2 r - t , t )2 

 

=  20 (e - ( 2 r - t )  - e -t  ) e - ( 2 r -t )  - e - t 

t  < 2 r  < 2 t 

< r  < t 

t  < 2 r 

t  > r 
g R ( r )  =

¥

òr  40 (e 

- 2 r + t 

- e - t  e - 2 r -t e - t dt 

71 

r  > 0 

CONCLUSIONES 
Las  estadísticas  de  orden  se  calculan  a  través  de  la  técnica  de 
transformaciones de variables. 

Las  estadísticas  de  orden  sirven  para  identificar  modelos  de 
probabilidades,  de  observaciones  ubicadas  de  las  muestras  en cualquier 
posición especifica. 

Una vez conocido el modelo de probabilidad de una estadística de orden 
es  posible  hacer  un  análisis  completo  a  dicho  orden  (valor  esperado, 
grafico..., etc.). 
El tema abre un camino por lo menos entorno a la facultad para estudiar 
aplicaciones  en  áreas  del  conocimiento  que  incluyan  este  tipo  de 
variables de estadísticas ordenadas.

72 

BIBLIOGRAFIA 
WACKERLY Dennis, MENDENHALL William, SCHEAFFER Richard.2002. 
Estadística matemática con aplicaciones. Thomson. 
WALPOLE Ronald, MEYERS Raymond.2005. Probabilidad y estadística. 
Mc Graw Hill. 
CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc 
Graw Hill. 
HOGG Robert. Introduction to mathemátical. Collier Macmillan publishers. 

www.pokertips.com.es/strategy/expected­value.php. 
www.personal.us.es/olmedo/El%20concepto%20de%20Valor%20Esperad 
o.pdf. 
www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm. 

www.ucm.es/info/genetica/Estadistica/estadistica_basica. 

www.bioestadistica.uma.es/libro/node69.htm.

73 

Sign up to vote on this title
UsefulNot useful