You are on page 1of 20

Tema 1. Descripción estadística de una variable.

1.1. Unidades estadísticas. Definiciones.
Población: conjunto de individuos que son objeto de estudio.
Muestra: subconjunto de una población.
Unidad estadística: cada uno de los elementos de la población.
Modalidades: respuestas posibles a cada uno o varios caracteres de la unidad estadística.
Los caracteres pueden ser cualitativos y cuantitativos.
1.2. Variables estadísticas. Clasificación.
Variable estadística: conjunto de valores numéricos que puede tomar un carácter cuantitativo.
Las variables estadísticas pueden ser discretas (un valor) o continuas (un intervalo).
En las continuas los intervalos se denominan clases, cuyos valores extremos se denominan límites
de clase inferior y superior, al punto medio marca, y a la diferencia entre los límites amplitud o
tamaño.
1.3. Distribución de frecuencias.
- Frecuencia absoluta: n
i
; Σ n
i
=n.
- Frecuencia relativa: ; 1
i
i i
n
f f
n
· ·

- Distribución de frecuencias: tabla que contiene cada una de las modalidades del carácter a
estudio con su frecuencia absoluta.
1.4. Representaciones gráficas.
- Gráfico circular o de sectores: f
i
x 360º.
- Diagrama de barras: con altura igual o proporcional a la frecuencia.
- Histograma y polígono de frecuencias(sólo para variable continua). Rectángulos con área
proporcional a la frecuencia. Uniendo los puntos medios superiores se forma el polígono.
1.5. Parámetros estadísticos.
Moda
mediana
de centralizacion
media
momentos
¹
¹
¹
'
¹
¹
¹
.
.
.
.
Desviacion media
Desviacion tipica
de dispersion
Varianza
Momentos centrados
¹
¹
¹
'
¹
¹
¹
1.6. Parámetros de centralización.
- Moda: el que más se repite.
- Mediana: divide a la muestra en dos partes iguales.
- Media:
i i
x f x ·

o Propiedades de la Media:

0 0
x x x x
x x
a a
− −
′ ′ · ⇒ ·

0 x x x ′ · − ·
- Momento:
1
;
r
r i i
f x x α α · ·

1.7. Parámetros de dispersión.
- Desviación Media (DM):
( )
i i
DM x f x x · −

- Varianza (V):
2
( ) ( )
i i
V x f x x · −

o Propiedades de la varianza:

0
2
( )
( ) ;
x
x
x x s V x
si x V x s
a a a


′ ′ · ⇒ · ·

2 2
2 1 2
( ) V x x α α α · − · −
- Desviación típica (s): ( )
x
s V x ·
- Momento (µ ):
1 2
( ) ; 0; ( ).
r
r i i
f x x V x µ µ µ · − · ·

1.8. Características de forma.
- Coeficiente de asimetría:
3
1 3
s
µ
γ ·
- Coeficiente de curtosis:
4
2 4
3
s
µ
γ · −
Tema 2. Descripción estadística de varias variables.
2.1. Distribución de frecuencias multivariantes.
Cada dato pueden tener dos o más valores relacionados entre sí.
2.2. Distribuciones marginales y condicionadas.
- Marginales: el estudio de esa variable con independencia de las demás.
- Condicionadas: y condicionada a x
( , )
( )
( )
f x y
f y x
f x
·
2.3. Vector de medias.
Se obtienen a partir de las distribuciones marginales calculando las medias respectivas.
1
2
n
X
X X
X
¸ _

·


¸ ,
2.4. Matriz de varianzas y covarianzas.
Covarianza:
( )( )
( , ) ( )( )
i j
ij i j
x X y Y
Cov X Y f x X y Y
n
− −
· · − −


Matriz de covarianzas:
2
2
( , )
( , )
x
y
s Cov X Y
C
Cov Y X s
¸ _
·


¸ ,
2.5. Coeficiente de correlación.
( , )
x y
Cov X Y
r
s s
·

Tema 3. Probabilidad.
3.1. Fenómenos aleatorios.
Fenómenos en los que no se puede predecir el resultado.
3.2. Espacio muestral.
Conjunto de todos los resultados posibles. Pueden ser de dos tipos: Discretos (finitos y numerables)
y continuos.
3.3. Álgebra de sucesos aleatorios.
- Suceso aleatorio: Subconjunto del espacio muestral (E).
- Suceso contrario:
A
- Unión de sucesos:
; A B Aor B ∪
- Intersección de sucesos:
; A B A and B ∩
- Incompatibles: A B ∩ · ∅
- Excluyentes: incompatibles dos a dos.
- Diferencia:
A B A B − · ∩
- Espacio probabilizable: al par formado por el espacio muestral (E) y el álgebra de sucesos
(A): (E,A).
- Sistema exhaustivo de sucesos: si
i
A E ∪ ·
. Es completo si los sucesos son mutuamente
excluyentes.
3.4. Frecuencia absoluta y relativa.
Frecuencia absoluta: número de veces que se repite A:
A
n
Frecuencia Relativa: número de veces que se repite A dividido por número de veces totales:
( )
A
n
f A
n
·
Propiedades:
-
0 ( ) 1; f A A ≤ ≤ ∀ ∈A
- Si A y B son incompatibles,
( ) ( ) ( ) f A B f A f B ∪ · +
- f(E)=1.
3.5. Probabilidad.
- Axiomática de Kolmogorov: es probabilidad si:
o ( ) 0, P A para cada A ≥ ∈A
o si ( ) ( )
i j n n
A A P A P A ∩ · ∅⇒ ∪ ·

o P(E) = 1.
- Con las condiciones anteriores el espacio probabilizable se convierte en espacio
probabilístico: (E,A,P).
- Propiedades derivadas:
o ( ) 0 P ∅ ·
o Si A
n
son mutuamente excluyentes,
1 2 3 1 2 3
( ) ( ) ( ) ( ) P A A A P A P A P A ∪ ∪ · + +
o ( ) 1 ( ) P A P A · −
o ( ) ( ) ( ) ( ) P A B P A P B P A B ∪ · + − ∩
o ( ) ( ) ( ) ( ) ...
n n i j i j k
P A P A P A A P A A A ∪ · − ∩ + ∩ ∩ −
∑ ∑ ∑
o si ( ) ( ) B A P B P A ⊂ ⇒ ≤
o ( ) 1 P A ≤
o ( ) ( ) ( ) P A B P A P B ∪ ≤ +
- Definición de Laplace:
( )
casos favorables
P A
casos posibles
·
- Definición de Von Mises:
lim ( ) ( )
n
P A f A
→∞
·
- Probabilidad subjetiva: asignar a un suceso una probabilidad que dependerá del grado de
conocimiento de ese suceso.
3.7 Probabilidad en espacios muestrales finitos.
Son la mayoría de los problemas que se suelen dar y se aplica la definición de Laplace
Sin Reemp Con Reemp.
Con Orden V, P VR, PR
Sin Orden C CR
3.8. Análisis combinatorio.
- Variaciones:
!
( )!
k
n
n
V
n k
·

;
k k
n
VR n ·
- Combinaciones:
!
!( )! !
k
k n
n
n
V n
C
k k n k k
¸ _
· · ·


¸ ,
;
1
( 1)!
!( 1)!
k
n
n k
n k
CR
k k n
+ − ¸ _ + −
· ·


¸ ,
- Permutaciones:
!
n
P n ·
;
!
;
! ! !
k
a b c
k
PR a b c k
a b c
· + + ·
Tema 4. Probabilidad condicionada. Sucesos independientes.
4.1. Probabilidad condicionada.
- Probabilidad condicionada:
( )
( )
( )
P A B
P B A
P A

·
- Teorema del producto: ( ) ( ) ( ) ( ) ( ) P A B P A P B A P B P A B ∩ · ⋅ · ⋅
4.2. Teorema de la probabilidad total y de Bayes.
- Teorema de la probabilidad total:
( ) ( ) ( )
i i
P B P A P B A · ⋅

- Teorema de Bayes:
( ) ( )
( )
( ) ( )
i i
i
i i
P A P B A
P A B
P A P B A

·


4.3. Sucesos independientes.
Dos sucesos son independientes si :
( ) ( ) ( ) P A B P A P B ∩ · ⋅
Una familia de sucesos se dice totalmente independientes si:
1 2
( ... ) ( )
n i
P A A A P A ∩ ∩ ∩ ·

4.4. Experimentos compuestos.
Cuando se considera varios experimentos sucesivos:
Experimentos independientes si:
( , ) ( ) ( )
i j i j
P A B P A P B · ⋅
Experimentos dependientes si:
( , ) ( ) ( )
i j i j i
P A B P A P B A · ⋅
Tema 5. Variables aleatorias unidimensionales.
5.1. Variable aleatoria.
Es cualquier aplicación : X E R → , Tal que
1
( ) X B B

∈ ∇ ∈ A; B. Puede ser discreta o continua.
5.2. Función de distribución. Propiedades.
- Función de distribución:
( ) ( ) F x P X x · ≤
.
- Función de masa o cuantía:
( ) ( ) P x P X x · ·
.
- Propiedades de la función de distribución:
o Para todo , , , ( ) ( ) ( ). a b R a b P a X b F b F a ∈ ≤ < < · −
o F es continua por la derecha en cada punto de R.
o F es monótona decreciente.
5.3. Función de densidad.
Se dice que f es una función de densidad si cumple las tres propiedades siguientes:
-
( ) 0 f x x ≥ ∇ ∈¡
.
- f tiene a lo sumo un número finito de discontinuidades.
- ( ) 1 f x dx

−∞
·

.
Dada una V.A. X, con función de densidad f y función de distribución F definida por
( ) ( )
x
F x f x dx
−∞
·

, se verifica que:
- F es continua.
- Si f es continua, F es derivable y F’=f.
- Para todo intervalo <ab> se cumple que: ( , ) ( )
b
a
P X a b f t dt ∈< > ·

.
5.4. Transformación de variables aleatorias.
Sea X una variable aleatoria con F y f conocidas. Se define la variable aleatoria Y=Xa+b entonces:
( ) ( ) ( )
y b y b
G y P Y y P Xa b y P X F
a a
− −
¸ _ ¸ _
· ≤ · + ≤ · ≤ ·

¸ , ¸ ,
1 1
( ) ( )
y b y b
g y G y F f
a a a a
− −
¸ _ ¸ _
′ ′ · · ·

¸ , ¸ ,
Tema 6. Variables aleatorias n-dimensionales.
6.1. Variables aleatorias n-dimensionales.
- Distribución de probabilidad conjunta. Dadas las v.a. discretas x1,x2...xn, la distribución de
probabilidad conjunta X=(x1,x2,...xn) es una función :
n
f → ¡ ¡ que verifica:
o ( 1, 2,... ) 0. f x x xn ≥
o ... ( 1, 2,... ) 1 f x x xn ·
∑∑ ∑
o [ ]
( 1, 2,... ) ( 1, 2,... ) P X x x xn f x x xn · ·
- Función de densidad de la variable n-dimensional: Dadas las v.a. continuas x1,x2...xn, la
función de densidad X=(x1,x2,...xn) es una función :
n
f → ¡ ¡ que verifica:
o ( ) 0. f X ≥
o ... ( 1, 2,... ) 1 2... 1 f x x xn dx dx dxn ·
∫ ∫ ∫
o ( ) ... ( 1, 2,... ) 1 2... P X f x x xn dx dx dxn ∈ ·
∫ ∫ ∫
A
- Función de distribución conjunta:(F) de R
2
R
o ( , ) ( , ) F X Y P X x Y y · ≤ ≤
6.2. Distribuciones marginales.
- Variable aleatoria discreta:
o 1 2
( ) ( , ); ( ) ( , );
Y X
f x f x y f y f x y · ·
∑ ∑
- Variable aleatoria continua:
o
1 2
( ) ( , ) ; ( ) ( , ) ; f x f x y dy f y f x y dx
∞ ∞
−∞ −∞
· ·
∫ ∫
- f1 y f2 son distribuciones de probabilidad.
6.3. Distribuciones condicionadas.
2 1
( , ) ( , )
( ) ; ( )
( ) ( )
f x y f x y
f x y f y x
f y f x
· ·
6.4. Variables independientes.
1 2
( , ) ( ) ( ) f x y f x f y · ⋅
Tema 7. Características de las distribuciones de probabilidad
unidimensionales.
7.1. Esperanza matemática. Propiedades.
- Esperanza matemática:
o [ ]
: ( )
: ( )
x
discreta xf x
E X
continua xf x dx
µ

−∞
¹
¹
· ·
'
¹
¹


- Propiedades:
o [ ] [ ]
E aX b aE X b + · +
o [ ] [ ] [ ]
( ) ( ) ( ) ( ) E g X h X E g X E h X t · t
o [ ] [ ] [ ]
E XY E X E Y · ⋅
7.2. Varianza. Propiedades.
- Varianza:
o
2
2 2
2
: ( ) ( )
( )
: ( ) ( )
x
discreta x f x
E X
continua x f x dx
µ
σ µ
µ

−∞
¹ −
¹
1 · − ·
'
¸ ]
¹

¹


- Propiedades:
o
2 2 2
E X σ µ 1 · −
¸ ]
o
2 2 2
aX b X
a σ σ
+
· ⋅
o la desviación típica es σ
7.3. Teorema de Marcov. Desigualdad de Tchebycheff.
- Teorema de Marcov:
o
[ ]
[ ]
( )
( )
E g X
P g X K
K
> ≤
- Teorema de Tchebycheff:
o
[ ]
2
1
1 P k X k
k
µ σ µ σ − < < + ≥ −
7.4. Momentos. Asimetría. Apuntamiento.
- Momentos:
o No centrado:
r
r
E X α 1 ·
¸ ]
o Centrado: ( )
r
r
E X µ µ 1 · −
¸ ]
- Coeficiente de asimetría de Fisher:
3
1 3
µ
γ
σ
· si =0 es simétrica.
- Coeficiente de apuntamiento, aplastamiento o curtosis:
4
2 4
3
µ
γ
σ
· − si =0 es distribución
normal.
Tema 8. Características de las distribuciones de probabilidad
n-dimensionales.
8.1. Momentos. Valor medio. Varianza.
- Valores medios:
o
0 1 1
0 2 2
( ) ( )
( ) ( )
k k k
k
X
h h h
h
Y
E X x f x x f x dx
E Y y f y y f y dy
α
α

−∞

−∞
1 · · ·
¸ ]
1 · · ·
¸ ]




- momento no centrado:
o
k h
kh
E X Y α 1 ·
¸ ]
- Momento centrado:
o
10 01
( ) ( )
k h
kh
E X Y µ α α 1 · − −
¸ ]
- Propiedades:
o
2 2
20 20 10 X
µ α α σ · − ·
o
2 2
02 02 01 Y
µ α α σ · − ·
o
11 11 10 01
µ α α α · −
8.2. Covarianza. Matriz de covarianzas.
- Covarianza: [ ]
11 10 01 11 10 01
( )( ) E X Y µ α α α α α · − − · −
- Matriz de covarianzas:
20 11
11 02
( )
µ µ
σ
µ µ
¸ _
·

¸ ,
8.3. Coeficiente de correlación.
-
11
20 02
r
µ
µ µ
·
8.4. Medidas condicionadas.
- Valor medio de X condicionado por Y=y:
o [ ]
( ) ( )
x
E X Y y xf x y xf x y dx

−∞
· · ·


o Propiedades:

[ ]
( ) ( ) E E X Y E X ·

[ ]
( ) ( ) E E Y X E Y ·
- Varianza de X condicionada por Y = y:
o
2 2 2
( ) ( ( )) / ( ( )) ( )
x
X Y y E X E X Y y Y y x E X Y y f x y σ 1 · · − · · · − ·
¸ ]

8.5. Varianza de variables independientes.
2 2 2 2 2
11
2
aX b x y
a b ab σ σ σ µ
+
· + +
Si X e Y son variables aleatorias independientes entonces:
2 2 2 2 2
aX b x y
a b σ σ σ
+
· +
8.6. Regresión lineal. Recta de mínimos cuadrados.
- Recta de regresión de mínimos cuadrados de Y sobre X:
o ( ) ( )
11
01 10 01 10
20
;
Y
X
y x y r x
µ σ
α α α α
µ σ
− · − − · −
- Recta de regresión de mínimos cuadrados de X sobre Y:
o ( ) ( )
11
10 01 01 10
02
;
Y
X
x y y x
r
µ σ
α α α α
µ σ
− · − − · −

- Coeficientes de regresión:
o De Y sobre X:
11
20
Y
YX
X
r
µ σ
β
µ σ
· ·
o De X sobre Y:
11
02
X
XY
Y
r
µ σ
β
µ σ
· ·
Tema 9. Función característica. Función generatriz.
9.1. Función Característica. Propiedades.
- Función característica:
( ) ( ) ( )
itX itX itX
X
t E e e f x e f x dx ϕ

−∞
1 · · ·
¸ ]


- Propiedades:
o (0) 1 ϕ ·
o ( ) 1 t ϕ ≤
o
( ) ( ) t t ϕ ϕ · −
- Si Y = aX + b: ( ) ( )
ita
Y X
t e bt ϕ ϕ ·
- Función de densidad en función de la función característica:
1
( ) ( )
2
itx
f x e t dt ϕ
π


−∞
·

- Derivada de la función característica:
0
( )
k
k
k k
t
d t
i
dt
ϕ
α
·
·
- Si X e Y son independientes:
( )
( ) ( ) ( )
it x y itx ity
X Y X Y
t E e E e e t t ϕ ϕ ϕ
+
+
1 1 · · · ⋅
¸ ] ¸ ]
9.2. Función generatriz.
- Función generatriz:
( ) ( ) ( )
tX tX tX
X
g t E e e f x e f x dx

−∞
1 · · ·
¸ ]


- Propiedades:
o Si Y = X + a, entonces ( ) ( )
at
Y X
g t e g t ·
o Si Y = aX, entonces ( ) ( )
Y X
g t g at ·
o Si Y = aX + b, entonces ( ) ( )
bt
Y X
g t e g at ·
o Si X e Y son independientes entonces: ( ) ( ) ( )
X Y X Y
g t g t g t
+
· ⋅
- Función generatriz de momentos respecto de la media:
( )
( )
t X
g t E e
µ −
1 ·
¸ ]
9.3. Cálculo de los momentos.
- Momento no centrado de orden k:
0
( )
k
k k
t
d g t
dt
α
·
·
- Momento centrado de orden k:
0
( )
k
k k
t
d g t
dt
µ
·
·
9.4. Semi-invariantes de Thiele. (Cumulantes).
1
( )
( )
!
h
h
h
it
t K
h
φ

·
·

siendo K:
1 1
2 2
2 2 1
3
3 3 1 2 1
4 2 4
4 4 2 1 3 1 2 1
3 2
3 4 12 6
K
K
K
K
α
α α σ
α α α α
α α α α α α α
·
· − ·
· − +
· − − + −
Tema 10. Operaciones con variables aleatorias.
10.1. Transformación de variables aleatorias.
- Si Y = u(X) , X = v(Y) siendo u=v
-1
entonces ( ) ( )
( ) g y f v y ·
- Si Y
1
=u
1
(X
1
,X
2
), Y
2
=u
2
(X
1
,X
2
), y X
1
=..., entonces [ ]
1 2 1 1 2 2 1 2
( , ) ( , ), ( , ) g y y f v y y v y y ·
- Si z = u
1
(x,y) y t= u
2
(x,y) y x=v
1
(z,t) entonces [ ]
1 2 1
( , ) ( , ), ( , ) g z t f v z t v z t J ·
Siendo
1
x x
z t
J
y y
z t
∂ ∂
∂ ∂
·
∂ ∂
∂ ∂
10.2. Suma de variables aleatorias.
Sea la variable bidimensional (X,Y) con función de distribución f, se define la variable
unidimensional Z= X + Y sin más que tomar z = x + y , t = x; por lo que la función de densidad
conjunta es f(t,z-t)
10.3. Producto de variables aleatorias.
Si Z = XY basta con tomar z =xy, t=x siendo la función de densidad conjunta:
1
,
z
f t
t t
¸ _

¸ ,
10.4. Cociente de variables aleatorias.
Si Z = X/Y basta con tomar z = x/y, t=y siendo la función de densidad conjunta:
( , ) f tz t t
Tema 11. Distribuciones de probabilidad de variable discreta
(I).
11.1. Distribución de Bernouilli. Be(1,p).
- Función de masa o cuantía: [ ]
1
( ) ; 0,1.
x x
f x P X x p q para x

· · · ·
- Función característica: ( )
it
t q pe ϕ · +
- Función generatriz de momentos: ( )
t
g t q pe · +
- Media:
p µ ·
; Varianza:
2
pq σ · ; Momentos: (NC)
k
p α ·
; C: ( )
k k
k
p q q p µ · − +
11.2. Distribución Binomial. B(n,p)
- Función de masa o cuantía:
( ) ( ) ; 0,1, 2,...
k n k
n
f x P X k p q para k n
k

¸ _
· · · ·

¸ ,
- Función característica: ( ) ( )
it n
t pe q ϕ · +
- Función generatriz de momentos: ( ) ( )
t n
g t pe q · +
- Media:
np µ ·
; Varianza:
2
npq σ · ; Teorema de la adición.
11.3. Distribución Multinomial.
- Función de masa o cuantía:
1 2
1 1 2 2 1 2
1 2
!
( , ,... ) ...
! !... !
k
x x x
k k k
k
n
P X x X x X x p p p
x x x
· · · ·
- Media:
1 2
( , ,... )
k
np np np µ ·
; Varianza:
2
( ) (1 ); 1, 2,... .
i i i
X np p i k σ · − ·
- Covarianzas:
( ) ; .
i j i j
Cov X X np p i j · − ≠
11.4. Distribución Hipergeométrica. H(N,n,k).
N datos, k éxitos, N-k fracasos, se seleccionan n datos sin reemplazamiento.
- Función de masa o cuantía:
( )
k N k
x n x
P X x
N
n
− ¸ _¸ _


¸ ,¸ ,
· ·
¸ _

¸ ,
- Media:
kn
N
µ · ; Varianza:
2
1
1
N n k k
n
N N N
σ

¸ _
· −


¸ ,
11.5. Distribución geométrica.
- Función de densidad o cuantía:
1
( ) ( ) (1 )
x
f x P X x p p

· · · −
- Función generatriz de momentos: ( )
1
t
t
pe
g t
qe
·

- Media:
1
p
µ ·
; Varianza:
2
2
q
p
σ ·
11.6. Distribución binomial negativa.
X= nº de fallos antes del éxito.
- Función de densidad:
1
( ) ; 0,1, 2...
n x
n x
P X x p q para x
x
+ − ¸ _
· · ·

¸ ,
- Función generatriz: ( )
1
n
t
p
g t
e q
¸ _
·


¸ ,
- Media:
nq
p
µ ·
; Varianza:
2
2
( 1) nq nq
p
σ
+
·
Tema 12. Distribuciones de probabilidad de variable discreta
(II).
12.1. Proceso de Poisson.
( )
n
P t
Probabilidad de que ocurra A n veces en un tiempo t. Es independiente del origen de tiempos.
Hipótesis de regularidad:
1
( ) ( ) P t t o t λ ∆ · ∆ + ∆
.
Condiciones iniciales:
0
(0) 1; (0) 0 0
n
P P n · · ∀ ≠
.
( )
( )
!
n
t
n
t
P t e
n
λ
λ

·
12.2. Distribución de Poisson. P(λ ).
- Función de probabilidad: ( )
!
x
P X x e
x
λ
λ

· ·
- Función generatriz de momentos:
( 1)
( )
t
e
g t e
λ −
·
- Media:
µ λ ·
; Varianza:
2
σ λ ·
- Características de forma:
o Coeficiente de Asimetría:
1
1
γ
λ
·
o Coeficiente de curtosis:
2
1
γ
λ
·
12.3. La distribución de Poisson como límite de la distribución
binomial.
Se puede aproximar las probabilidades binomiales mediante la distribución de Poisson cuando p<
0,1 y np>5.
lim
!
x
x n x
n
n
p q e
x x
λ
λ
− −
→∞
¸ _
·

¸ ,
Tema 13. Distribuciones de probabilidad de variable continua
(I).
13.1. Distribución Uniforme. U(a,b)
- Función de densidad: [ ]
1
( ) , ; 0 f x si x a b en otro caso
b a
¹
· ∈
'

¹
- Media:
2
a b
µ
+
· ; Varianza: ( )
2
2
1
12
b a σ · −
- Función generatriz: ( )
( )
tb ta
e e
g t
t b a

·

13.2. Distribución Gamma. γ (p,a)
- Función gamma:
1
0
( )
p x
p x e dx

− −
Γ ·

.
- ( ) ( 1)! ( 1) ( 1); (1/ 2) p p p p π Γ · − · − Γ − Γ ·
- Función de densidad:
1
( ) 0; 0
( )
p p ax
a x e
f x si x en otro caso
p
− −
· >
Γ
-
2
2
; ; ( ) 1
p
p p t
g t
a a a
µ σ

¸ _
· · · −

¸ ,
- La distribución gamma es reproductiva respecto del parámetro p.
13.3. Distribución exponencial.
- Exp(a) =γ (1,a)
13.4. Distribución de Weibull. W(α ,β )
-
1
( ) 0; 0
x
f x x e si x en otro caso
β
β α
αβ
− −
· >
13.5. Distribución normal reducida. N(0,1)
-
2 2
2 2
1
( ) ; 0; 1; ( )
2
x t
f x e g t e µ σ
π

· · · ·
13.6. Distribución normal. N(µ ,σ )
-
2 2
2
( ) ( )
2 2
1
( ) ; ( )
2
x t
t
f x e g t e
µ σ
µ
σ
σ π

− +
· ·
- Dada la variable
( , ) Y N µ σ ∈
se llama variable tipificada a
Y
X
µ
σ

·
- Suma de variables aleatorias independientes, entonces la media es la suma de las medias y la
varianza la suma de las varianzas.
- Si
1 2
...
,
n
X X X
X N
n n
σ
µ
+ ¸ _
· ⇒

¸ ,
13.7. La normal como límite de la binomial.
( , ) ( , )
n
B n p N np npq
→∞
÷÷÷→
Tema 14. Distribuciones de probabilidad de variable continua
(II).
14.1. Distribución de Pearson.
2 2 2 2
1 2
...
n n
X X X χ · + + + donde X
i
pertenece a
(0,1) N
2
; 2 n n µ σ · ·
si n es suficiente grande se puede aproximar por ( , 2 ) N n n
14.2. Distribución t de student. T(n)
2
1
1
n
i
i
X
T
X
n
·
·

donde X
i

(0, ) N σ ∈
14.3. Distribución F de Snedecor. F(m,n)
2
1
2
1
1
1
m
i
i
n
i
i
X
m
F
Y
n
·
·
·


14.4. Distribución Z de Fisher.
1
ln
2
Z F ·
Tema 15. Distribución normal multivariante.
-
2
1
( ) exp ( ) ' ( )
2
(2 )
n
A
f X x A x µ µ
π
1
· − − −
1
¸ ]
A es simétrica y semidefinida positiva.
1
1
' '
2
( )
t t A t
g t e
µ

+
·
Las distribuciones marginales son normales unidimensionales.
Vector de medias: [ ]
[ ]
[ ]
1
n
E X
E X
E X
¸ _

·


¸ ,
M
Matriz de covarianzas: es la inversa de A
Tema 16. Sucesiones de variables aleatorias. Teorema central
del limite.
16.1. Tipos de convergencia.
- Convergencia en probabilidad:
{ } { }
lim : ( ) ( ) 0, 0
P
n n
n
X X si P e E X e X e ε ε
→∞
÷÷→ ∈ − > · ∀ >
- Convergencia casi segura: { }
{ }
.
: lim ( ) ( ) 1
C S
n n
n
X X si P e E X e X e
→∞
÷÷→ ∈ · ·
- Convergencia en Ley.
{ } lim ( ) ( )
L
n n
n
X X si F x F x
→∞
÷÷→ ·
en cada punto de continuidad de F.
- { } { } { }
. C S P L
n n n
X X X X X X ÷÷→ ⇒ ÷÷→ ⇒ ÷÷→
16.2. Teorema de Bernouilli.
lim ( ) ( ).
n
f A P A
→∞
·
16.3. Leyes de los grandes números.
- Ley débil: { } { }
: 0
P
n n n
X D si X a ∈ − ÷÷→
- Ley fuerte: { } { }
. .
: 0
C S
n n n
X F si X a ∈ − ÷÷÷→
- [ ]
1 1
1 1
;
n n
n i n i
i i
X X a E X
n n
· ·
· ·
∑ ∑
16.4. Teorema central del límite.
Si X
n
independientes e idénticamente distribuidas con media y varianza finitas:
1 2
...
(0,1)
L n
X X X n
N
n
µ
σ
+ + + −
÷÷→
16.5. Ejemplos notables de convergencia en ley.
{ }
2
( , 2 )
L
n
N n n χ ÷÷→
Tema 17. Distribuciones en el muestreo de poblaciones
paramétricas.
17.1. Introducción.
- Población paramétrica: aquella que viene definida por una variable cuya función de
distribución depende de uno o varios parámetros que en general serán desconocidos.
17.2. Tipos de muestreo estadístico.
- Muestreo aleatorio simple. X=(X
1
,X
2
,...X
n
) las elecciones son independientes.
- Muestreo estratificado. Los elementos de la población se dividen en grupos.
o El nº. de elementos de cada grupo se llama afijación, siendo su clasificación: igual,
proporcional y óptima.
- Muestreo sistemático: tomar un grupo correlativo de entre una lista ordenada.
- Muestreo polietápico: tomar muestras de poblaciones, subpoblaciones, etc.
- Estadístico: o estimador es cualquier función medible que asigna a cada muestra un número
real. (X
1
,X
2
,...X
n
) ->R
- Media muestral:
( )
1
1 2
: , ,...,
n
i
i
n
X
X X X X
n
·


- Varianza muestral:
( )
2
2 1
1 2
( )
: , ,...,
n
i
i
n
X X
S X X X
n
·



17.3. Distribución de la media en el muestreo.
- Esperanza de la media en el muestreo:
E X µ 1 ·
¸ ]
- Varianza de la media en el muestreo:
2
2
X
n
σ
σ 1 ·
¸ ]
- Distribución de la media muestral (varianza conocida):
( , ) , N X es N
n
σ
µ σ µ
¸ _


¸ ,
17.4. Distribución de la varianza en el muestreo.
- Esperanza de la varianza en el muestreo:
2 2 2 2 2
2
1
1 1
n
i
i
n
E S E X E X E X
n n
α σ
·

1 1 1 1 · − · − ·
¸ ] ¸ ] ¸ ] ¸ ]

- Distribución de la varianza muestral:
2
2
i
X nS X
n
µ µ
σ σ σ
¸ _
− − ¸ _
· +


¸ ,
¸ ,

resultando que lo
primero del segundo miembro es una
2
χ con n-1 grados de libertad.
- Distribución de la media muestral (varianza desconocida):
( , ) , N X es N
n
σ
µ σ µ
¸ _


¸ ,
,
entonces
(0,1);
1
X X
es una N es una t
n S n
µ µ
σ
− −

de Student con n-1 grados de libertad.
17.5. Distribución de la diferencia de medias.
- Varianzas conocidas:
2 2
1 2
1 2 1 2
, X X N
n m
σ σ
µ µ
¸ _
− ∈ − +

¸ ,
- Varianzas desconocidas iguales:
1 2
2 2
1 2
( )
2
mn
X X
m n
nS mS
n m

+
+
+ −
que sigue una t de Student con n+m-2
grados de libertad.
Tema 18. Distribuciones en el muestreo de poblaciones no
paramétricas.
- Estadísticos ordenados.
1 2
...
n
u u u ≤ ≤ ≤
- Los valores más importantes son: u
1
(mínimo); u
n
(máximo); u
m
(mediana); u
n
-u
1
(recorrido).
- Distribución del mínimo valor muestral u
1
:
1
1
min 1 1
( ) ( ) ( )
n
u
f u n f x dx f u


1
·
1
¸ ]

- Distribución del máximo valor muestral u
n
:
1
max
( ) ( ) ( )
n
n
u
n n
f u n f x dx f u

−∞
1
·
1
¸ ]

- Distribución de estadísticos ordenados:
1 2
1 ... .
k
r r r n ≤ < < < ≤

( ) ( )
1
1
1 1
1
1
!
( ) ... ( ) ( )... ( ) ...
1 !... !
k
r
k k
r
k
n r
r
u
r r r r
u
k
n
f x dx f x dx f u f u du du
r n r



−∞
1
1

1 1
¸ ]
− − ¸ ]
∫ ∫
- Distribución del recorrido:
1
1
2
1 1 1
( ) ( 1) ( ) ( ) ( )
n
u r
u
f r n n f x dx f u f u r du

∞ +
−∞
1
· − +
1
¸ ]
∫ ∫
- Distribución de la mediana(n=2m+1):
(2 1)!
( ) ( ) ( )
! !
m
m
m m
u
m m
u
m
f x dx f x dx f u du
m m

−∞
+
1 1
1 1
¸ ] ¸ ]
∫ ∫
Tema 19. Estimación puntual.
19.1. Estimador insesgado.
- El estimadorθ

es estimador insesgado de
si E θ θ θ

1 ·
¸ ]
- Cualquier combinación lineal convexa de estimadores insesgados es insesgado.
- La media muestral
E X µ 1 ·
¸ ]
es un ejemplo de estimador insesgado de la media
poblacional [ ]
E X µ ·
- La cuasivarianza
2 2
ˆ
1
n
S s
n
·

es un estimador insesgado de la varianza poblacional
2 2 2 2 2
1
ˆ
. ;
n
E S E S
n
σ σ σ

1
1 · ·
¸ ]
¸ ]
.
19.2. Estimadores de mínima varianza. Cota de Cramer-Rao.
- Muestra aleatoria:
[ ]
2
2
2
1 '( )
log
b
E L
θ
σ θ
θ

+
1 ≥
¸ ]
∂ 1
1

¸ ]
si θ es insesgado:
2
2
1
log E L
σ θ
θ

1 ≥
¸ ]
∂ 1
1

¸ ]
- Muestra aleatoria simple:
[ ]
2
2
2
1 '( )
log
b
nE f
θ
σ θ
θ

+
1 ≥
¸ ]
∂ 1
1

¸ ]
; “”””
2
2
1
log nE f
σ θ
θ

1 ≥
¸ ]
∂ 1
1

¸ ]
19.3. Estimadores eficientes.
θ

es eficiente si es insesgado de mínima varianza.
θ

es eficiente si es insesgado y alcanza la cota de Cramer-Rao.
19.4. Estimadores consistentes.
θ

es consistente si para cada
0; 0
n
P λ θ θ λ

→∞
1
> − ≥ ÷÷÷→
¸ ]
θ

es consistente si
2
lim 0 lim 0
n n
E y θ σ θ
∗ ∗
→∞ →∞
1 1 · ·
¸ ] ¸ ]
19.5. Estimadores suficientes.
θ

es suficiente para θ si y solo si la función de densidad de la muestra
1 2
( , ,..., ; )
n
L x x x θ
se
puede fabricar como sigue:
1 2 1 2
( , ,..., ; ) ( , ,..., ) ( , )
n n
L x x x g x x x h θ θ θ

·
Todo estimador eficiente es suficiente.
Tema 20. El método de máxima verosimilitud.
20.1. La función de verosimilitud.
1 2
1
( , ,..., ; ) ( ; )
n
n i
i
L x x x f x θ θ
·
·

20.2. Método de máxima verosimilitud.
Máximo de θ de L:
ˆ
log 0 L θ
θ

· →

Si la distribución poblacional depende de K parámetros
1 2
, ,...,
k
θ θ θ
habrá que resolver el sistema:
1 2
log 0; log 0;...; log 0
k
L L L
θ θ θ
∂ ∂ ∂
· · ·
∂ ∂ ∂
Los estimadores de máxima verosimilitud no tienen por que ser insesgados.
20.3. Propiedades de los estimadores de máxima verosimilitud.
- la función
ˆ
θ
es invariante por transformaciones biyectivas.
- Si existen estimadores eficientes de θ , entonces
ˆ
θ
es eficiente.
- Si existe un estimador θ

suficiente de θ , entonces
ˆ
θ
es función de θ

Tema 21. Otros métodos de estimación puntual.
21.1. Método de los momentos.
Igualar momentos muestrales a momentos poblacionales.
21.2. Estimadores lineales de mínima varianza.
- Se dice que
i i
a x θ

·

es un estimador lineal centrado de θ si
1 0
i i
E y a a θ θ

1 · · ∀ ≥
¸ ]

- La varianza de θ

viene dada por [ ]
2 2 2 2 2 2
i i i i i
a x a x a σ θ σ σ σ

1 1 · · ·
¸ ] ¸ ]
∑ ∑ ∑
- El estimador lineal de mínima varianza es:
1
i
x
n
θ

·

21.2. Método de mínimos cuadrados.
Consiste en minimizar [ ]
2
( , ) ( , , ,...)
i i
m a b Y g X a b · −

21.3. Métodos Bayesianos de estimación.
- Distribución a priori: ( ) f θ
- Distribución conjunta: ( )
1 2
, ,..., ;
n
f x x x θ
- Distribución a posteriori: ( )
( ) ( )
( )
1 2
1 2
1 2
, ,..., /
/ , ,...,
, ,...,
n
n
n
f x x x f
f x x x
g x x x
θ θ
θ

·
donde
( )
( ) ( )
( ) ( )
1 2
1 2
1 2
, ,..., ; .
, ,...,
, ,..., ; .
n
n
n
f x x x V discreta
g x x x
f x x x d V continua
θ
θ θ

−∞
¹
¹
·
'
¹
¹


- Estimación Bayesiana θ

deθ = ( )
1 2
/ , ,...,
n
E f x x x θ 1
¸ ]
Tema 22. Estimación por intervalos.
22.1 Intervalos de confianza.
- del parámetro θ : ( ) ( )
1 1 2 2 1 2
, ,..., , ,..., 1
n n
P x x x x x x θ θ θ α ≤ ≤ · − 1
¸ ]
- De la Media µ :
o Población normal σ conocida o n>30:
2 2
, x x
n n
α α
σ σ
λ λ
1
− +
1
¸ ]
o Población normal σ desconocida o n≤30:
2 2
,
1 1
s s
x t x t
n n
α α
1
− +
1
− −
¸ ]
- De la varianza. Población
2 2
2 2
2 1 2
( , ) : ,
ns ns
N
α α
µ σ
χ χ

1
1
1
¸ ]
con n-1 grados de libertad.
- De la diferencia de medias.
o Población normal
1 2
, σ σ conocidas o n
1
,n
2
>30:
2 2 2 2
1 2 1 2
1 2 2 1 2 2
1 2 1 2
, x x x x
n n n n
α α
σ σ σ σ
λ λ
1
− − + − + + 1
1
¸ ]
o Población normal
1 2
σ σ · desconocidas:
2 2 2 2
1 2 1 1 2 2 1 2 1 1 2 2
1 2 2 1 2 2
1 2 1 2 1 2 1 2
,
2 2
n n n s n s n n n s n s
x x t x x t
n n n n n n n n
α α
1
+ + + +
− − − + 1
+ − + −
1
¸ ]
- Razón de varianzas. Poblaciones
2 2
1 1
1 1 2 2 2 2
2 2 1 2 2
ˆ ˆ 1 1
( , ), ( , ) : ,
ˆ ˆ
s s
N N
f s f s
α α
µ σ µ σ

1
1
1
¸ ]
- Intervalo de confianza de proporciones con n, n
1
,y n
2
>30.
o Población normal:
2 2
,
p q p q
p p
n n
α α
λ λ
∗ ∗ ∗ ∗
∗ ∗
1
− + 1
1
¸ ]
o Población binomial:
1 1 2 2 1 1 2 2
1 2 2 1 2 2
1 2 1 2
,
p q p q p q p q
p p p p
n n n n
α α
λ λ
∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗
∗ ∗ ∗ ∗
1
− − + − + + 1
1
¸ ]
- Tamaño de la muestra: la amplitud del intervalo es la diferencia entre sus extremos
Tema 23. Contrastes de hipótesis.
23.1. Hipótesis estadísticas.
Para deducir un método se propone una hipótesis siendo la descripción general:
a) se definen dos hipótesis: nula(H
0
) y alternativa(H
1
).
b) Se define un estadístico (p.e. µ ) para el que se conoce su distribución si H
0
es cierto.
c) Se delimitan dos zonas excluyentes de la muestra (A yS).
d) Se selecciona una muestra y verificamos si pertenece a A por lo que se acepta H
0
o en caso
contrario se rechaza y se acepta H
1
.
23.2 Tipos de contraste.
- paramétricos: con un cierto parámetro queda determinada su distribución. Pueden ser por
hipótesis simple ( ) 7 θ ·
o hipótesis compuesta ( ) B θ ·
. El contraste entre ambas hipótesis
puede ser unilateral o bilateral.
- No paramétricos.
23.3. Tipos de error. Potencia de un test.
- tipo I: Rechazar H
0
si es cierta. Nivel de significación ( ) 0 1 α α < <
.
- Tipo II: Aceptar H
0
siendo falsa. No es fija salvo que H
1
sea simple.
- Potencia de test ( ) P θ
: probabilidad de rechazar H
0
siendo verdadero.
23.4. Teorema de Neyman-Pearson.
a) nos planteamos la hipótesis nula H
0
.
b) Seleccionamos una muestra aleatoria simple (x
1
,x
2
,...,x
n
)
c) Sea B la familia de todas las regiones S/ ( )
1 2 0
, ,..., /
n
P x x x S θ α ∈ · 1
¸ ]
suponiendo que para
cada α existe C(α )>0 tal que
( ) ( )
1 2 1 1 2 0
, ,..., ; ( ) , ,..., ;
n n
L x x x C L x x x θ α θ ≥
se da en una
región
1
S B ∈
y ( ) ( )
1 2 1 1 2 0
, ,..., ; ( ) , ,..., ;
n n
L x x x C L x x x θ α θ <
se da para ( )
1 2 1
, ,...,
n
x x x S ∉
que
es la región de rechazo.
Tema 24. Algunos contrastes paramétricos.
24.1. Contraste de la media y diferencia de medias.
H
0
Estadístico H
1
Se rechaza H
0
si
0
µ µ ·
:1
Calc hp
Z test
t test z
critical z
α
µ
λ


·
·
0
x
t
n
µ
σ

·
σ conocida o n≥ 30
0
0
0
µ µ
µ µ
µ µ

>
<
2 2
, t t
t
t
α α
α
α
λ λ
λ
λ
< − >
>
< −
0
1
x
t
n
µ
σ

·

σ desconocida y n<30
0
0
0
µ µ
µ µ
µ µ

>
<
2 2
, t t t t
t t
t t
α α
α
α
< − >
>
< −
1 2
d µ µ − ·
1 2
:
Calc hp
Z test
t test z
critical z
α
µ µ
λ

− −
·
·
( ) ( )
1 2
2 2
1 1 2 2
x x d
t
n n σ σ
− −
·
+
σ
1
y σ
2
conocidas
1 2
1 2
1 2
d
d
d
µ µ
µ µ
µ µ
− ≠
− >
− <
2 2
, t t
t
t
α α
α
α
λ λ
λ
λ
< − >
>
< −
( ) ( )
1 2
1 2
2 2
2 1 1 2 2
1 2
1 2
2
p
p
x x d
t
s n n
n s n s
s
n n
− −
·
+
+
·
+ −
σ
1
= σ
2
desconocidas
1 2
1 2
1 2
d
d
d
µ µ
µ µ
µ µ
− ≠
− >
− <
2 2
, t t t t
t t
t t
α α
α
α
< − >
>
< −
24.2. Contrastes relacionados con proporciones.
H
0
Estadístico H
1
Se rechaza H
0
si
0
p p ·
:1
Calc hp
Z test p
t test z
critical z
α
λ


·
·
[ ]
[ ]
[ ] ( )
[ ] ( )
0
0
0 0
0 0
2
2
P P X x p p
P P X x p p
P P X x p p si x np
P P X x p p si x np
· ≤ ·
· ≥ ·
· ≥ · >
· ≤ · <
0
0
0
p p
p p
p p
<
>

P α ≤
Muestras grandes
0
0 0
x np
t
np q

·
0
0
0
p p
p p
p p

>
<
2 2
, t t
t
t
α α
α
α
λ λ
λ
λ
< − >
>
< −
1 2
p p d − · Muestras grandes
1 2
1 1 2 2
1 2
ˆ ˆ
ˆ ˆ ˆ ˆ
p p d
t
p q p q
n n
− −
·
+
1 2
1 2
1 2
p p d
p p d
p p d
− ≠
− >
− <
2 2
, t t
t
t
α α
α
α
λ λ
λ
λ
< − >
>
< −
24.3. Contrastes relacionados con varianzas.
H
0
Estadístico H
1
Se rechaza H
0
si
2 2
0
σ σ ·
Población normal
( )
2
2
0
ˆ 1 n s
t
σ

·
2 2
0
σ σ ≠
2
t
α
χ >
2 2
1 2
σ σ ·
Poblaciones normales
2
1
2
2
ˆ
ˆ
s
t
s
·
2 2
1 2
2 2
1 2
σ σ
σ σ

>
,
a b
t F t F
t F
α
< >
>
24.4. Contraste de la razón de verosimilitudes.
- Hipótesis simples:
( )
( )
1
0 0 1 1
2
; : ; :
L
H H
L
θ
λ θ θ θ θ
θ
· · ·
- Alternativa compuesta:
( )
( )
0 0 1 0
0
ˆ
; : ; :
L
H H
L
θ
λ θ θ θ θ
θ
· · ≠

1.7. Parámetros de dispersión.
Desviación Media (DM): DM ( x) = ∑ f i xi − x
2 Varianza (V): V ( x ) = ∑ f i ( xi − x ) o Propiedades de la varianza: x − x0 s V ( x) ⇒ V ( x′) = 2 ; sx′ = x  si x′ = a a a 2 2  V ( x ) = α 2 − α1 = α 2 − x

-

Desviación típica (s): sx = V ( x)

r Momento (µ ): µ r = ∑ fi ( xi − x ) ; µ1 = 0; µ2 = V ( x ).

1.8. Características de forma.
-

µ3 s3 µ4 Coeficiente de curtosis: γ 2 = 4 − 3 s
Coeficiente de asimetría: γ 1 =

Tema 2. Descripción estadística de varias variables.
2.1. Distribución de frecuencias multivariantes.
Cada dato pueden tener dos o más valores relacionados entre sí.

2.2. Distribuciones marginales y condicionadas.
Marginales: el estudio de esa variable con independencia de las demás. f ( x, y ) Condicionadas: y condicionada a x f ( y x) = f ( x)

2.3. Vector de medias.
Se obtienen a partir de las distribuciones marginales calculando las medias respectivas.  X1    X =  X2  X   n

2.4. Matriz de varianzas y covarianzas.
Covarianza: Cov( X , Y ) =

∑ ( x − X )( y
i

j

−Y )

n

= ∑ f ij ( xi − X )( y j − Y )

2  sx Cov ( X , Y )  Matriz de covarianzas: C =   2  Cov(Y , X )  sy  

2.5. Coeficiente de correlación.
r= Cov( X , Y ) sx ⋅ s y

Es completo si los sucesos son mutuamente excluyentes. Conjunto de todos los resultados posibles.3. Sistema exhaustivo de sucesos: si ∪ Ai = E . Axiomática de Kolmogorov: es probabilidad si: o P ( A) ≥ 0. A and B Incompatibles: A ∩ B = ∅ Excluyentes: incompatibles dos a dos.Tema 3. 3.0 ≤ f ( A) ≤ 1. Frecuencia absoluta: número de veces que se repite A: nA Frecuencia Relativa: número de veces que se repite A dividido por número de veces totales: nA = f ( A) n Propiedades: ..A). Fenómenos en los que no se puede predecir el resultado. Álgebra de sucesos aleatorios. Probabilidad. 3. Suceso contrario: A Unión de sucesos: A ∪ B. 3. Fenómenos aleatorios.f(E)=1. f ( A ∪ B ) = f ( A) + f ( B ) .2. 3. o si B ⊂ A ⇒ P ( B ) ≤ P ( A) o P ( A) ≤ 1 . A or B Intersección de sucesos: A ∩ B. Con las condiciones anteriores el espacio probabilizable se convierte en espacio probabilístico: (E. ∀A ∈ A . Frecuencia absoluta y relativa. Propiedades derivadas: o P (∅) = 0 o Si An son mutuamente excluyentes.A.5. Diferencia: A − B = A ∩ B Espacio probabilizable: al par formado por el espacio muestral (E) y el álgebra de sucesos (A): (E. Pueden ser de dos tipos: Discretos (finitos y numerables) y continuos. Espacio muestral.4.Si A y B son incompatibles.P). Suceso aleatorio: Subconjunto del espacio muestral (E).1. para cada A ∈ A o si Ai ∩ Aj = ∅ ⇒ P (∪ An ) = ∑ P( An ) - o P(E) = 1. P ( A1 ∪ A2 ∪ A3 ) = P ( A1 ) + P ( A2 ) + P ( A3 ) o P ( A) = 1 − P ( A) o P ( A ∪ B ) = P ( A) + P ( B ) − P ( A ∩ B ) o P (∪ An ) = ∑ P ( An ) − ∑ P ( Ai ∩ Aj ) + ∑ P( Ai ∩ Aj ∩ Ak ) − . Probabilidad. 3..

Teorema de la probabilidad total y de Bayes. Probabilidad condicionada.1. n! k k . CRnk =  Combinaciones: =  k  k !(n − k )! k !  k  k !(n − 1)! k! k . PRa b c = a !b !c ! k Variaciones: Vn = Tema 4. B j ) = P ( Ai ) ⋅ P ( B j Ai ) . Análisis combinatorio.4. Sucesos independientes. 3.. P VR. VRn = n ( n − k )! n  n + k − 1 (n + k − 1)! Vk n! k Cn =   = = n .- P ( A ∪ B ) ≤ P ( A) + P ( B ) casos favorables Definición de Laplace: P ( A) = casos posibles Definición de Von Mises: P ( A) = lim f ( A) o n→∞ Probabilidad subjetiva: asignar a un suceso una probabilidad que dependerá del grado de conocimiento de ese suceso. 4. Cuando se considera varios experimentos sucesivos: Experimentos independientes si: P ( Ai . Teorema de la probabilidad total: P ( B ) = ∑ P ( Ai ) ⋅ P ( B Ai ) P( Ai ) ⋅ P ( B Ai ) Teorema de Bayes: P ( Ai B ) = ∑ P( Ai ) ⋅ P( B Ai ) 4. Sucesos independientes. Probabilidad condicionada.8. P( A ∩ B) P ( A) Teorema del producto: P ( A ∩ B ) = P ( A) ⋅ P ( B A) = P ( B ) ⋅ P ( A B ) Probabilidad condicionada: P ( B A) = 4. Con Orden V. Experimentos compuestos. B j ) = P ( Ai ) ⋅ P ( B j ) Experimentos dependientes si: P ( Ai .2.7 Probabilidad en espacios muestrales finitos. a+b+c = k Permutaciones: Pn = n ! . PR Sin Orden C CR 3..3. Son la mayoría de los problemas que se suelen dar y se aplica la definición de Laplace Sin Reemp Con Reemp. ∩ An ) = ∏ P ( Ai ) 4. Dos sucesos son independientes si : P ( A ∩ B ) = P ( A) ⋅ P ( B ) Una familia de sucesos se dice totalmente independientes si: P ( A1 ∩ A2 ∩ .

. Dada una V.. o F es monótona decreciente.. Variables aleatorias n-dimensionales. Variables aleatorias unidimensionales.. Transformación de variables aleatorias.a. X. 5. Puede ser discreta o continua. Es cualquier aplicación X : E → R .. Dadas las v. Función de densidad.dxn = 1 .1.1.xn)] = f ( x1. 6. Se dice que f es una función de densidad si cumple las tres propiedades siguientes: f ( x ) ≥ 0 ∇x ∈ ¡ .. x 2.. la distribución de probabilidad conjunta X=(x1. a ≤ b. discretas x1. Propiedades. se verifica que: F es continua..Tema 5. x2. 5. x 2.. Función de distribución: F ( x) = P ( X ≤ x) . 5. ..... Propiedades de la función de distribución: o Para todo a. o F es continua por la derecha en cada punto de R.xn) es una función f : ¡ n → ¡ que verifica: o f ( x1.. continuas x1.xn.f tiene a lo sumo un número finito de discontinuidades. Función de distribución.3. Variables aleatorias n-dimensionales. ∇B ∈ B .. b ∈ R. o - ∫ ∫ .xn.xn) = 1 o P [ X = ( x1. Se define la variable aleatoria Y=Xa+b entonces: y −b    y −b  G ( y ) = P (Y ≤ y ) = P ( Xa + b ≤ y ) = P  X ≤ = F  a    a  1  y −b  1  y −b  g ( y ) = G′( y ) = F ′  = f   a  a  a  a  Tema 6... Para todo intervalo <ab> se cumple que: P ( X ∈< a. Distribución de probabilidad conjunta.A..x2. Tal que X −1 ( B) ∈ A. a b 5. con función de densidad f y función de distribución F definida por F ( x) = ∫ x −∞ ∫ ∞ −∞ f ( x)dx = 1 .a. Función de masa o cuantía: P ( x ) = P ( X = x ) . Si f es continua...2. la función de densidad X=(x1. f ( x )dx . b >) = ∫ f (t )dt ....∑ f ( x1..∫ f ( x1.x2. F es derivable y F’=f.xn) es una función f : ¡ n → ¡ que verifica: o f ( X ) ≥ 0.... Variable aleatoria.x2.. Sea X una variable aleatoria con F y f conocidas.xn)dx1dx2. o ∑∑ .xn) Función de densidad de la variable n-dimensional: Dadas las v..x2. x 2. P( a < X < b) = F (b) − F (a). x 2.xn) ≥ 0.4...

dxn 6. y )dy. 6.1.xn)dx1dx 2. f2 ( y) f ( y x) = f ( x. Variable aleatoria discreta: o f1 ( x) = ∑ f ( x. f2 ( y ) = ∫ ∞ −∞ f ( x. Distribuciones marginales. Varianza:  discreta : ∑ ( x − µ ) 2 f ( x )  x o σ 2 = E  ( X − µ )2  =    ∞ continua : ∫ ( x − µ ) 2 f ( x)dx  −∞ Propiedades: o σ 2 = E  X 2  − µ2   2 2 o σ aX +b = a 2 ⋅ σ X - o la desviación típica es σ . f ( x. Y ) = P ( X ≤ x. Esperanza matemática.4. y )..∫ f ( x1. x 2.3. Varianza.. f2 ( y ) = ∑ f ( x. y ) ..o - Función de distribución conjunta:(F) de R2R o F ( X .2. Propiedades. Y ≤ y ) P ( X ∈ A) = ∫ ∫ . y ) f1 ( x) 6. f1 ( x) = ∫ ∞ −∞ f ( x. f ( x y) = f ( x. y )dx. 7. Propiedades.. Esperanza matemática: discreta : ∑ xf ( x)  x o E[ X ] = µ =  ∞ continua : ∫ xf ( x) dx  −∞ Propiedades: o E [ aX + b ] = aE [ X ] + b o o E [ XY ] = E [ X ] ⋅ E [ Y ] - E [ g ( X ) ± h( X ) ] = E [ g ( X ) ] ± E [ h( X ) ] 7.. y ) = f1 ( x) ⋅ f 2 ( y ) Tema 7.. y ). Características de las distribuciones de probabilidad unidimensionales.2. Y X Variable aleatoria continua: o f1 y f2 son distribuciones de probabilidad. Distribuciones condicionadas.. Variables independientes.

Momentos: r o No centrado: α r = E  X    - µ3 si =0 es simétrica. Valores medios: o - α k 0 = E  X k  = ∑ x k f1 ( x) = ∫ xk f1 ( x)dx   X −∞ ∞ ∞ α 0 h = E Y h  = ∑ y h f2 ( y ) = ∫ yh f2 ( y )dy   Y −∞ momento no centrado: o α kh = E  X k Y h    Momento centrado: o µ kh = E  ( X − α10 ) k (Y − α 01 )h    Propiedades: 2 2 o µ 20 = α 20 − α10 = σ X o o 2 2 µ 02 = α 02 − α01 = σ Y µ11 = α11 − α10α01 8. Teorema de Marcov. Covarianza.1. Asimetría. Desigualdad de Tchebycheff. Momentos. Covarianza: µ11 = E [ ( X − α10 )(Y − α01 ) ] = α11 − α10α01  µ 20 Matriz de covarianzas: (σ ) =   µ11 µ11  µ02   . aplastamiento o curtosis: γ 2 = 4 − 3 si =0 es distribución σ4 normal. Varianza. Características de las distribuciones de probabilidad n-dimensionales. σ3 µ Coeficiente de apuntamiento. 8. Momentos. Matriz de covarianzas.2. Coeficiente de asimetría de Fisher: γ 1 = r o Centrado: µ r = E ( X − µ )    Tema 8. Teorema de Marcov: o P[ g( X ) > K ] ≤ E [ g ( X )] K 1 k2 Teorema de Tchebycheff: o P [ µ − kσ < X < µ + kσ ] ≥ 1 − 7.3. Apuntamiento.4. Valor medio.7.

. Función Característica. Propiedades.4. 2 2 σ aX +b = a 2σ x2 + b2σ y + 2abµ11 2 2 2 2 2 Si X e Y son variables aleatorias independientes entonces: σ aX +b = a σ x + b σ y 8. Medidas condicionadas.1.3.5.8. 9. y − α01 = r Y ( x − α10 ) µ 20 σX Recta de regresión de mínimos cuadrados de X sobre Y: µ σ o x − α10 = 11 ( y − α01 ) . Función característica. Función generatriz. Varianza de variables independientes. Coeficiente de correlación. Recta de regresión de mínimos cuadrados de Y sobre X: µ σ o y − α 01 = 11 ( x − α10 ) . itX itX itX Función característica: ϕ (t ) = E  e  = ∑ e f ( x) = ∫−∞ e f ( x) dx   X ∞ Propiedades: o ϕ (0) = 1 o ϕ (t ) ≤ 1 o ϕ (t ) = ϕ (−t ) ita Si Y = aX + b: ϕY (t ) = e ϕ X (bt ) Función de densidad en función de la función característica: f ( x) = 1 2π - ∫ ∞ −∞ e −itxϕ (t )dt .r= µ11 µ 20 µ02 8. Valor medio de X condicionado por Y=y: o E [ X Y = y ] = ∑ xf ( x y ) = ∫ xf ( x y )dx x −∞ ∞ -  E [ E (Y X ) ] = E (Y ) Varianza de X condicionada por Y = y: 2 2 2 o σ ( X Y = y ) = E  ( X − E ( X Y = y )) / Y = y  = ∑ ( x − E ( X Y = y )) f ( x y )   x o Propiedades:  E [ E ( X Y )] = E ( X ) 8. Recta de mínimos cuadrados.6. y − α01 = Y ( x − α10 ) µ 02 r ⋅σ X Coeficientes de regresión: µ11 σ =r Y o De Y sobre X: βYX = µ 20 σX µ11 σ =r X o De X sobre Y: β XY = µ 02 σY - - Tema 9. Regresión lineal.

φ (t ) = ∑ (it ) h Kh h =1 h ! K1 = α1 K 2 = α 2 − α12 = σ 2 K 3 = α3 − 3α1α2 + 2α13 K 4 = α 4 − 3α 24 − 4α1α3 + 12α12α2 − 6α14 ∞ siendo K: Tema 10. (Cumulantes). Y2=u2(X1.y) y t= u2(x.4.. 10. Transformación de variables aleatorias.X2).y) y x=v1(z. Si Y = u(X) .2. v2 ( z . t ). entonces gY (t ) = e at g X (t ) o Si Y = aX. entonces gY (t ) = ebt g X (at ) o Si X e Y son independientes entonces: g X +Y (t ) = g X (t ) ⋅ gY (t ) - Función generatriz de momentos respecto de la media: g (t ) = E  e  t ( X −µ )   9. tX tX tX Función generatriz: g (t ) = E  e  = ∑ e f ( x) = ∫−∞ e f ( x)dx   X ∞ Propiedades: o Si Y = X + a.t) entonces g ( z . v2 ( y1 . y2 )] Si z = u1(x.X2)..3. Semi-invariantes de Thiele. Momento no centrado de orden k: α k = Momento centrado de orden k: µ k = d k g (t ) dt k t = 0 d k g (t ) dt k t =0 9.1. Función generatriz. Operaciones con variables aleatorias.- d k ϕ (t ) = i kα k Derivada de la función característica: k dt t = 0 it ( x + y )  = E  eitx eity  = ϕX (t ) ⋅ ϕY (t ) Si X e Y son independientes: ϕ X +Y (t ) = E  e     9. y X1=. entonces gY (t ) = g X (at ) o Si Y = aX + b. entonces g ( y1 . Cálculo de los momentos.. t ) ] J1 ∂x ∂t ∂y ∂t ∂x ∂z Siendo J1 = ∂y ∂z . y2 ) = f [ v1 ( y1 . X = v(Y) siendo u=v-1 entonces g ( y ) = f ( v ( y ) ) Si Y1=u1(X1. y2 ). t ) = f [ v1 ( z .

3... Distribución Multinomial. 11. t=x siendo la función de densidad conjunta: f  t . para k = 0.k .. t = x.Y) con función de distribución f. Momentos: (NC) α k = p . it para x = 0. H(N.   tt 10.  k  N − k      x  n − x  . Varianza: σ 2 = pq .4. 2. 2. B(n.1.. Varianza: σ 2 = npq . 11. Sea la variable bidimensional (X.1. Teorema de la adición..n. X 2 = x2 .n k  Función característica: ϕ (t ) = ( peit + q)n Función generatriz de momentos: g (t ) = ( pet + q )n Media: µ = np .xk ! 2 Media: µ = (np1 ..  z1 Si Z = XY basta con tomar z =xy.p).k).2. x 1− x Función de masa o cuantía: f ( x) = P [ X = x ] = p q . se seleccionan n datos sin reemplazamiento. Cociente de variables aleatorias.10.1.. Distribución Binomial. Suma de variables aleatorias. i ≠ j. N datos. pkxk x1 ! x2 !. i = 1. Varianza: σ = N −1 N  N  N . t ) t Tema 11. Distribuciones de probabilidad de variable discreta (I). se define la variable unidimensional Z= X + Y sin más que tomar z = x + y . por lo que la función de densidad conjunta es f(t. t=y siendo la función de densidad conjunta: f (tz. Función de masa o cuantía: P ( X 1 = x1 . C: µ k = (− p ) q + q p 11. np2 . Si Z = X/Y basta con tomar z = x/y.2. Be(1.. Distribución de Bernouilli. Varianza: σ ( X i ) = npi (1 − pi )..z-t) 10. Producto de variables aleatorias.Función de masa o cuantía: P ( X = x) = N n   Media: µ = N −n k  k  kn 2 n 1 −  .. k éxitos. Función característica: ϕ (t ) = q + pe Función generatriz de momentos: g (t ) = q + pet k k Media: µ = p ..npk ) .. Covarianzas: Cov( X i X j ) = − npi p j .p)  n  k n −k Función de masa o cuantía: f ( x) = P( X = k ) =   p q . N-k fracasos. Distribución Hipergeométrica.4. 11...3... X k = xk ) = n! p1x1 p2x2 .

1 Condiciones iniciales: P0 (0) = 1. Función de densidad o cuantía: f ( x) = P ( X = x) = (1 − p ) x −1 p Función generatriz de momentos: g (t ) = Media: µ = 1 q 2 ... Proceso de Poisson. Hipótesis de regularidad: P (∆t ) = λ∆t + o(∆t ) .1. Tema 12. Pn (t ) Probabilidad de que ocurra A n veces en un tiempo t. Distribución geométrica. Pn (t ) = (λ t ) n − λ t e n! 12. Se puede aproximar las probabilidades binomiales mediante la distribución de Poisson cuando p< 0.2. X= nº de fallos antes del éxito. Es independiente del origen de tiempos. - λx x! t Función generatriz de momentos: g (t ) = eλ ( e −1) Media: µ = λ . Varianza: σ 2 = λ Características de forma: 1 o Coeficiente de Asimetría: γ 1 = λ 1 o Coeficiente de curtosis: γ 2 = λ Función de probabilidad: P ( X = x) = e − λ 12.1.1 y np>5. Distribución binomial negativa.  n + x − 1 n x Función de densidad: P ( X = x) =  p q . Distribución de Poisson. 12. P(λ ).11. Pn (0) = 0 ∀n ≠ 0 .3. La distribución de Poisson como límite de la distribución binomial.5. Varianza: σ = 2 p p pet 1 − qet 11.  x   p  Función generatriz: g (t ) =  t   1− e q  nq nq( nq + 1) 2 Media: µ = .  n λx lim   p x q n − x = e− λ n →∞ x x!   .6. Varianza: σ = p p2 n para x = 0. Distribuciones de probabilidad de variable discreta (II). 2.

b ] . 0 en otro caso 13. Distribución Gamma.a) 13. g (t ) = e tµ + ( tσ ) 2 2 - Y −µ σ Suma de variables aleatorias independientes. 0 en otro caso p p  t µ = .6. Varianza: σ = ( b − a ) 2 12 tb ta e −e Función generatriz: g (t ) = t (b − a ) 13..σ ) − 1 . σ = 1. B (n.4. 0 ∞ Γ( p ) = ( p − 1)! = ( p − 1)Γ( p − 1). entonces la media es la suma de las medias y la varianza la suma de las varianzas. g (t ) = e 2 2π 2 2 13. Distribución normal reducida. W(α . Distribución normal. g (t ) = 1 −  a a  a La distribución gamma es reproductiva respecto del parámetro p.1. Distribución de Weibull.f ( x ) = αβ x β −1e−α x β si x > 0.5. N(0. 13.β ) .2. Distribuciones de probabilidad de variable continua (I). σ 2 = 2 .7. npq ) → n →∞ . X n  σ  ⇒ N  µ. Si X = 1  n n  Dada la variable Y ∈ N ( µ . X + X 2 . γ (p. p )  N (np.a) Función gamma: Γ( p ) = ∫ x p −1e− x dx .f ( x) = e σ 2π ( x − µ )2 2σ 2 .. Γ(1/ 2) = π Función de densidad: f ( x ) = a p x p −1e − ax Γ( p) −p si x > 0. Distribución exponencial.f ( x) = e . Exp(a) =γ (1. 13.1) t 1 − x2 . µ = 0. Distribución Uniforme. U(a.b)  1 si x ∈ [ a.Tema 13.3. N(µ . La normal como límite de la binomial. σ ) se llama variable tipificada a X = 13. 0 en otro caso Función de densidad: f ( x ) =  b − a a+b 1 2 2 Media: µ = .

Tema 14. F(m. Distribución t de student. Distribuciones de probabilidad de variable continua (II). P → Convergencia en probabilidad: { X n }  X si lim P { e ∈ E : X n (e) − X (e) > ε } = 0. Tipos de convergencia. σ ) ∑ Xi n i =1 14. 1 Z = ln F 2 Tema 15.. Teorema central del limite. 14.  E [ X1 ]    Vector de medias: E [ X ] =  M   E[ X ]  n   Matriz de covarianzas: es la inversa de A Tema 16. + X n2 donde Xi pertenece a N (0. ∀ε > 0 n →∞ C .1. . T(n) T= X 1 n 2 donde Xi ∈ N (0. σ 2 = 2n si n es suficiente grande se puede aproximar por N ( n. Distribución Z de Fisher.3. 16.2.4. Distribución F de Snedecor.. 2n ) 14.1) µ = n.n) 1 m 2 ∑ Xi m i =1 F= 1 n 2 ∑ Yi n i =1 14.f (X ) = A n (2π ) 2 A es simétrica y semidefinida positiva. Distribución de Pearson. Distribución normal multivariante. 1 t ' µ + t ' A−1t  1  exp − ( x − µ ) ' A( x − µ )   2  g (t ) = e 2 Las distribuciones marginales son normales unidimensionales.S Convergencia casi segura: { X n } → X si P e ∈ E : lim X n (e) = X (e) = 1 n →∞ { } . 2 2 χ n = X 12 + X 2 + . Sucesiones de variables aleatorias.1.

Xn) las elecciones son independientes. → Ley fuerte: { X n } ∈ F si : { X n − an }  0 Xn = 1 n 1 n X i .. X n ) → ∑(X i =1 n i − X )2 n .. 17.1. Introducción.5.3. Muestreo sistemático: tomar un grupo correlativo de entre una lista ordenada. Tipos de muestreo estadístico. 17.Xn) ->R Media muestral: X : ( X 1 . n →∞ C . Leyes de los grandes números. X=(X1... Si Xn independientes e idénticamente distribuidas con media y varianza finitas: X 1 + X 2 + .. proporcional y óptima.. Ejemplos notables de convergencia en ley. Muestreo estratificado. { X n }  X si lim Fn ( x) = F ( x ) en cada punto de continuidad de F. (X1.. → { χ }  N (n. 2 n L 2n ) Tema 17. + X n − nµ L  N (0. Teorema de Bernouilli. X n ) → - ∑X i =1 n i n - Varianza muestral: S 2 : ( X 1 .X2.2. Estadístico: o estimador es cualquier función medible que asigna a cada muestra un número real. Los elementos de la población se dividen en grupos....S . P → Ley débil: { X n } ∈ D si : { X n − an }  0 C .. etc.- L → Convergencia en Ley. o El nº. lim f ( A) = P ( A)... n →∞ 16. X 2 . X 2 . de elementos de cada grupo se llama afijación. Teorema central del límite. Muestreo polietápico: tomar muestras de poblaciones.4.1) → σ n 16.. subpoblaciones. Muestreo aleatorio simple..2. Distribuciones en el muestreo de poblaciones paramétricas. an = ∑ E [ X i ] ∑ n i =1 n i =1 16.S P L → → { X n } → X ⇒ { X n }  X ⇒ { X n }  X 16. siendo su clasificación: igual..X2. Población paramétrica: aquella que viene definida por una variable cuya función de distribución depende de uno o varios parámetros que en general serán desconocidos.

r1 −1 n!  ur1 f ( x)dx  .17.durk n−2 - ∞ u1 + r f ( x )dx  Distribución del recorrido: f ( r ) = n(n − 1) ∫  ∫  −∞  u1   f (u1) f (u1 + r )du1 . Distribución de la diferencia de medias. entonces σ n S n −1 17.4. - Tema 18.. ∞ Distribución del mínimo valor muestral u1: f min (u1 ) = n  ∫ f ( x )dx   u1    n −1 f (u1 ) f (un ) un Distribución del máximo valor muestral un: f max (un ) = n  ∫ f ( x)dx     −∞  Distribución de estadísticos ordenados: 1 ≤ r1 < r2 < .1). es una t de Student con n-1 grados de libertad. Distribución de la media en el muestreo. Esperanza de la media en el muestreo: E  X  = µ   σ2 Varianza de la media en el muestreo: σ 2  X  =   n  σ  Distribución de la media muestral (varianza conocida): N ( µ . σ ) ⇒ X es N  µ .  σ2 σ2  X 1 − X 2 ∈ N  µ1 − µ2 .. f (urk )dur1 . . ≤ un Los valores más importantes son: u1 (mínimo).5... ( n − rk ) !  ∫−∞ n − rk n −1 ⋅ f (ur1 ).  n  17. un-u1(recorrido).3. < rk ≤ n.... Esperanza de la varianza en el muestreo: 1 n n −1 2 E  S 2  = ∑ E  X i2  − E  X 2  = α 2 − E  X 2  = σ   n       n i =1 2  X i − µ  nS  X − µ  Distribución de la varianza muestral: ∑   resultando que lo  = 2 +  σ  σ σ n  primero del segundo miembro es una χ 2 con n-1 grados de libertad.. 1 + 2  Varianzas conocidas:  n m    mn ( X1 − X 2 ) m+n Varianzas desconocidas iguales: que sigue una t de Student con n+m-2 2 nS12 + mS2 n+m−2 grados de libertad.  ∞ f ( x) dx   ∫urk       ( r1 − 1) !. u1 ≤ u2 ≤ ... Estadísticos ordenados. Distribución de la varianza en el muestreo. un(máximo). - -  σ  Distribución de la media muestral (varianza desconocida): N ( µ . Distribuciones en el muestreo de poblaciones no paramétricas. σ ) ⇒ X es N  µ . n  X −µ X −µ es una N (0... um(mediana).

P  θ − θ ≥ λ   0   n→∞ → ∗ 2 ∗ θ ∗ es consistente si lim E θ  = 0 y lim σ θ  = 0     n →∞ n →∞ 19. θ ∗ es suficiente para θ si y solo si la función de densidad de la muestra L( x1 .θ ) Todo estimador eficiente es suficiente. 19. E S2  = σ 2 . Estimación puntual. Estimadores eficientes. Estimadores de mínima varianza. x2 .. Cota de Cramer-Rao. Estimadores consistentes. xn .5. - σ θ  ≥   Muestra aleatoria: 2 ∗ 2  ∂  si θ es insesgado: E  log L   ∂θ  ∗ [ 1 + b '(θ )] 2 σ 2 θ ∗  ≥   1  ∂  E  log L   ∂θ  1 2 2 - σ θ  ≥   Muestra aleatoria simple: 2 [ 1 + b '(θ )] 2 2  ∂  . 19.3. Tema 20. E S 2  = σ .- Distribución de la mediana(n=2m+1): m m ∞ (2m + 1)!  um f ( x)dx   ∫ f ( x)dx  f (um )dum   um      m !m !  ∫−∞ Tema 19. Estimadores suficientes.θ ) i =1 n . La función de verosimilitud. La media muestral E  X  = µ es un ejemplo de estimador insesgado de la media   poblacional E [ X ] = µ - n 2 ˆ2 s es un estimador insesgado de la varianza poblacional La cuasivarianza S = n −1 n −1 2 ˆ σ 2. xn ..     n 19..θ ) = g ( x1 . Estimador insesgado.4...1.. x2 .. x2 . xn )h(θ . θ ∗ es eficiente si es insesgado de mínima varianza...1. ∗ El estimador θ ∗ es estimador insesgado de θ si E θ  = θ   Cualquier combinación lineal convexa de estimadores insesgados es insesgado.θ ) = ∏ f ( xi .. xn ..... x2 . ∗ θ ∗ es consistente si para cada λ > 0. L( x1 . θ ∗ es eficiente si es insesgado y alcanza la cota de Cramer-Rao. 20..θ ) se ∗ puede fabricar como sigue: L( x1 .. El método de máxima verosimilitud.2. “””” nE  log f   ∂θ  σ 2 θ ∗  ≥    ∂  nE  log f   ∂θ  19.

log L = 0.. x2 . b.. Método de los momentos.2.. Estimadores lineales de mínima varianza... x2 ... x2 .3. x2 . 22.. entonces θ es función de θ ∗ Tema 21.continua )  Estimación Bayesiana θ ∗ de θ = E  f ( θ / x1 .discreta )  g ( x1 ..2.. Máximo de θ de L: 20. Igualar momentos muestrales a momentos poblacionales.. log L = 0 ∂θ1 ∂θ 2 ∂θ k Los estimadores de máxima verosimilitud no tienen por que ser insesgados. x2 .....1 Intervalos de confianza... x2 .. Método de mínimos cuadrados. x2 .... 21.. del parámetro θ : P θ1 ( x1 . xn ) Tema 22. x2 . xn ) ≤ θ ≤ θ2 ( x1 ...3. b) = ∑ [ Yi − g ( X i . Consiste en minimizar m(a.. xn .θ k habrá que resolver el sistema: ∂ ∂ ∂ log L = 0.θ 2 . Método de máxima verosimilitud.2. 21.. xn . xn ) =  ∞  ∫−∞ f ( x1 ..... xn )    f ( x1 .. xn . ˆ Si existen estimadores eficientes de θ ... xn ) = - ∑ f ( x1 ... xn / θ ) ⋅ f ( θ ) donde g ( x1 .. xn )  = 1 − α   .. a. Distribución conjunta: f ( x1 . ˆ la función θ es invariante por transformaciones biyectivas... ∂ ˆ log L = 0 → θ ∂θ Si la distribución poblacional depende de K parámetros θ1 .1. x2 .. ˆ Si existe un estimador θ ∗ suficiente de θ . Otros métodos de estimación puntual.... ∗ Se dice que θ = ∑ ai xi es un estimador lineal centrado de θ si 2 ∗ 2 2 2 2 2 La varianza de θ ∗ viene dada por σ θ  = σ  ∑ ai xi  = ∑ ai σ [ xi ] = σ ∑ ai     1 ∗ El estimador lineal de mínima varianza es: θ = ∑ xi n E θ ∗  = θ   y ∑a i = 1 ∀ai ≥ 0 21.θ ) dθ ( V ..θ ) ( V . x2 .. Estimación por intervalos.. entonces θ es eficiente.) ] Distribución a priori: f ( θ ) 2 21..θ ) Distribución a posteriori: f ( θ / x1 . Propiedades de los estimadores de máxima verosimilitud... Métodos Bayesianos de estimación..20..

23. De la varianza. x1 − x2 + λα 2 1 + 2  n1 n2 n1 n2     σ 1 = σ 2 desconocidas: o Población normal  n +n  x1 − x2 − tα 2 1 2 n1n2   2 n1 s12 + n2 s2 n +n .2 Tipos de contraste. Hipótesis estadísticas.1. 23. Tipos de error. c) Se delimitan dos zonas excluyentes de la muestra (A yS). Población  χα 2 χ1−α 2    De la diferencia de medias. No paramétricos.- De la Media µ : - σ σ   . Para deducir un método se propone una hipótesis siendo la descripción general: a) se definen dos hipótesis: nula(H0) y alternativa(H1). No es fija salvo que H1 sea simple. µ ) para el que se conoce su distribución si H0 es cierto. Tipo II: Aceptar H0 siendo falsa. σ ) :  2 . p + λα 2 o Población normal:   n n      ∗ p ∗ q ∗ p∗ q∗ ∗ p∗ q∗ p∗ q∗ ∗ ∗ o Población binomial:  p1 − p2 − λα 2 1 1 + 2 2 . 2  con n-1 grados de libertad. x1 − x2 + tα 2 1 2 n1 + n2 − 2 n1 n2 2 n1 s12 + n2 s2 n1 + n2 − 2     - -  1 s12 ˆ ˆ 1 s12  N ( µ1 . paramétricos: con un cierto parámetro queda determinada su distribución. d) Se selecciona una muestra y verificamos si pertenece a A por lo que se acepta H0 o en caso contrario se rechaza y se acepta H1. p1 − p2 + λα 2 1 1 + 2 2 n1 n2 n1 n2   Tamaño de la muestra: la amplitud del intervalo es la diferencia entre sus extremos     Tema 23. Nivel de significación α ( 0 < α < 1) . σ 1 ).n2>30:  σ2 σ2 σ2 σ2   x1 − x2 − λα 2 1 + 2 .  ∗ p ∗q∗ ∗ p∗ q∗  p − λα 2 . - . - 23. b) Se define un estadístico (p. Razón de varianzas. Pueden ser por hipótesis simple ( θ = 7 ) o hipótesis compuesta ( θ = B ) . x + tα 2 o Población normal σ desconocida o n ≤ 30:  x − tα 2  n −1 n −1    ns 2 ns 2  N ( µ . N ( µ2 .e. σ 2 ) :  .y n2 >30. x + λα 2 o Población normal σ conocida o n>30:  x − λα 2  n n  s s   .3. El contraste entre ambas hipótesis puede ser unilateral o bilateral. Potencia de un test. o Población normal σ 1 . Contrastes de hipótesis. tipo I: Rechazar H0 si es cierta. Poblaciones  2 ˆ ˆ2   fα 2 s2 f1−α 2 s2   Intervalo de confianza de proporciones con n. n1. σ 2 conocidas o n1.

. Tema 24. xn . x2 . x2 .xn) c) Sea B la familia de todas las regiones S/ P ( x1 .θ1 ) ≥ C (α ) L ( x1 . xn ) ∉ S1 que es la región de rechazo.. H0 Estadístico x − µ0 t= σ n σ conocida o n≥ 30 x − µ0 σ n −1 σ desconocida y n<30 t= t= H1 µ ≠ µ0 µ > µ0 µ < µ0 Se rechaza H0 si t < −λα 2 . 23. Teorema de Neyman-Pearson.1.. t > tα 2 t > tα t < −tα t < −λα 2 . Contrastes relacionados con proporciones. 24. xn . t > λα 2 t > λα t < −λα t < −tα 2 ... H0 p = p0 Calc − hp Z − test :1 p t = test z λα = critical z Estadístico P = P [ X ≤ x p = p0 ] P = P [ X ≥ x p = p0 ] P = 2 P [ X ≥ x p = p0 ] si ( x > np0 ) P = 2 P [ X ≤ x p = p0 ] si ( x < np0 ) Muestras grandes x − np0 t= np0 q0 H1 p < p0 p > p0 p ≠ p0 p ≠ p0 p > p0 p < p0 Se rechaza H0 si P ≤α t < −λα 2 .2.. t > λα 2 t > λα t < −λα t < −tα 2 . Contraste de la media y diferencia de medias...... xn ... xn ) ∈ S / θ0  = α suponiendo que para   cada α existe C(α )>0 tal que L ( x1 ..... x2 . x2 .θ0 ) se da para ( x1 ..x2... x2 .θ1 ) < C (α ) L ( x1 . b) Seleccionamos una muestra aleatoria simple (x1... xn ...... t > tα 2 t > tα t < −tα µ = µ0 Calc − hp Z − test :1µ t = test z λα = critical z µ ≠ µ0 µ > µ0 µ < µ0 µ1 − µ2 ≠ d µ1 − µ2 > d µ1 − µ2 < d µ1 − µ2 ≠ d µ1 − µ2 > d µ1 − µ2 < d µ1 − µ2 = d Calc − hp Z − test : µ1 − µ 2 t = test z λα = critical z (σ x1 − x2 − d 2 1 n1 ) + ( σ 2 2 n2 ) σ 1 y σ 2 conocidas x1 − x2 − d t= s p ( 1 n1 ) + ( 2 n2 ) ns +n s n1 + n2 − 2 σ 1 = σ 2 desconocidas s2 = p 2 1 1 2 2 2 24. x2 .- Potencia de test P ( θ ) : probabilidad de rechazar H0 siendo verdadero.θ0 ) se da en una región S1 ∈ B y L ( x1 . t > λα 2 t > λα t < −λα .. Algunos contrastes paramétricos.4. a) nos planteamos la hipótesis nula H0.

t > λα 2 t > λα t < −λα 24. Contraste de la razón de verosimilitudes.3.4. H0 2 σ = σ0 2 2 σ 12 = σ 2 Estadístico Población normal ˆ ( n − 1) s 2 t= 2 σ0 Poblaciones normales ˆ s2 t = 12 ˆ s2 H1 2 σ ≠ σ0 2 Se rechaza H0 si 2 t > χα 2 σ 12 ≠ σ 2 2 σ 12 > σ 2 t < Fa . H1 : θ ≠ θ0 . H 0 : θ = θ 0 . t > Fb t > Fα 24. Hipótesis simples: λ = L ( θ1 ) .p1 − p2 = d Muestras grandes ˆ ˆ p − p2 − d t= 1 ˆ ˆ ˆ ˆ p1q1 p2 q2 + n1 n2 p1 − p2 ≠ d p1 − p2 > d p1 − p2 < d t < −λα 2 . H1 : θ = θ1 L ( θ2 ) ˆ L θ L ( θ0 ) Alternativa compuesta: λ = ( ). H 0 : θ = θ 0 . Contrastes relacionados con varianzas.