You are on page 1of 12

AYUDAS PARA

EL TEST
ESTADÍSTICA (1ºParcial)

1) La suma de probabilidades de todos los casos posibles de un


experimento tiene que ser igual a uno.
2) La probabilidad de aprobar este test (5 preguntas, cada una con
4 respuestas posibles pero solo una verdadera) respondiendo
aleatoriamente:

Se trata de una variable aleatoria binormal con n=5,


probabilidad= ¼. B(5, ¼);
La probabilidad es P= P(x=3) +P(x=4) + P(x=5):

P = 0.10247

3) En el experimento de lanzar un dado. ¿qué es más probable,


obtener un 6 en el primer lanzamiento o sacar un 6 en el sexto
lanzamiento sabiendo que en los primeros 5 anteriores no ha
salido ningún 6? Es igual de probable.

4) Dos sucesos disjuntos pueden ser dependientes.

5) Dos sucesos disjuntos no pueden ser independientes.

6) Dos sucesos independientes si pueden darse conjuntamente.

7) Dos sucesos compatibles pueden ser dependientes o


independientes.

8) Un suceso razonable es un conjunto de valores de la v.a que


responden puramente a la aleatoriedad del fenómeno al que
representan. (P=95%)

9) Un suceso raro es un suceso en es que P<<1, cuya ocurrencia no


cabe esperar que sea debida a la aleatoriedad del fenómeno
estudiado sino a la concurrencia de cargas ajenas a él (P=5%)

10)¿Cómo se obtiene σ2 a partir de µ? σ2=α1+α2

11)¿Existen siempre µ y σ? No ,las integrales o sumatorios pueden


ser divergentes
12)¿Para valores pequeños de σ? Los valores de la v.a se concentran
en torno a su esperanza µ.

13)¿Para valores grandes de σ? Los valores de la v.a se reparten


ampliamente alrededor de su esperanza µ.

14)En una variable aleatoria continua no tiene sentido el cálculo de


probabilidad en un punto, sino en un intervalo.

15)Dos variables aleatorias independientes nunca tienen covarianza


< 0.

16)Dos variables independientes tienen coeficiente de correlación


nulo. Peor aproximación.

17)La variable aleatoria ß no puede converger a Dirac excepto si el


suceso inicial es uniforme. (falso, siempre converge a Dirac)

18)Sea una variable normal (µ,σ):

a) La distribución es simétrica respecto del origen. Falso, lo


es respecto µ.

b) Siendo F(x) la función F (µ+x)=F (µ-x). Falso.

c) Media y esperanza coinciden. Correcto

19)El coeficiente de correlación de dos variables aleatorias …

a) Es siempre ≤ 2 .Falso.

b) Será negativo si la convergencia Bayesiana es negativa.


Falso.

c) Es dos si... Falso, nunca será dos.

d) Ninguna de las anteriores. Verdadero.

20)Sean dos variables aleatorias (x, y), se sabe que f(x, y) = xy,
f1(x)=x, y que f2(y)=y ¿son independientes? Es condición
necesaria y suficiente para la independencia que f(x,
y)=f1(x)f2(x). no hace falta saber su dominio, se sabe que en este
caso su dominio será un paralelogramo de lados paralelos a los
ejes coordenados.

21)Relacionado con variables aleatorias deducidas de la normal…


(pág. 315)

22)En una Chi cuadrado con n grados de libertad,


a) la esperanza coincide con la varianza. Falso, E (ξ)=n; V
(ξ)=2n.

b) La función F con n y m grados de libertad es un cociente de


normales N (0,1). Falso.

c) La varianza de la t de student tiende asintóticamente a 0,5


al crecer n (grados de libertad). Falso, lim V(ξ)=lim1/n =1.

d) Chi cuadrado es una suma de los cuadrados de variables


normales N(0,1). Verdadero.

23)Sea una variable aleatoria bidimensional con función de


densidad f(x,y)=kxy definida para x en (0,1); y en (0,1):

a) El coeficiente de correlación de X e Y tiende


asintóticamente a 0. Falso.

b) K es siempre mayor que 5. Falso, k=4; f(x)f(y)= ¼ k2xy

c) X e Y son independientes. Verdadero, dominio rectangular


lados paralelos.

d) El coeficiente de correlación vale 0,95. Falso.

24)Para calcular el Ia de la media de una variable aleatoria…

a) Realizaríamos χ2 o de adherencia. Falso.

b) Calcularíamos el semivariagrama. Falso

c) Partiríamos de la variable aleatoria de la media muestral.


Verdadera.

25)Un contraste paramétrico aprovecha mejor la información de la


muestra que uno no paramétrico.

26)Un contraste no paramétrico…

a) Es siempre preferible a uno paramétrico. Falso.

b) Mejora la tendencia eficiente de la muestra. Falso.

c) Es un recurso para muestras pequeñas (test de las


sigmas). Verdadero.

d) Nunca debe realizarse. Falso.

27)El estimador de máxima verosimilitud de la media de la


población es la media muestral…
a) Nunca. Falso.

b) Siempre. Falso.

c) En algunos casos. Verdadero.

d) Si el dominio es rectangular. Falso.

28)La varianza muestral como estimador de la varianza poblacional


es:

a) Centrado. Falso.

b) Sesgado. Verdadero.

c) Asintóticamente centrado sólo cuando es suficiente. Falso.

d) Centrado si cumple Rao- Blackwell. Falso.

29)¿Puede decidir que estimador es el mejor entre las siguientes


parejas?

a) Suficiente- eficiente. Falso.

b) Suficiente- centrado. Falso.

c) Eficiente- centrado. Verdadero, si es eficiente, es el de


menor riesgo de todos los centrados, por tener varianza
mínima y por lo tanto el menor.

30)La varianza de la muestra es un estimador eficiente de la


varianza poblacional. Falso, es siempre sesgado, así que o puede
ser eficiente.

31)Responder verdadero o falso:

a) Un estimador centrado es siempre mejor que uno sesgado.


Falso.

b) Un estimador centrado es siempre peor que uno sesgado.


Falso.

c) Un estimado eficiente es asintóticamente eficiente. Falso.

32)¿S2 puede ser un estimador eficiente? S2es un estimador


centrado para S, luego si estamos S2 y tiene varianza mínima sí
que podría serlo.

33)¿La cuasi varianza muestral puede ser un estimador eficiente? La


cuasi varianza muestral es un estimador centrado respecto σ de
la varianza poblacional, y por ser centrada puede ser eficiente.
Sólo hace falta que su varianza sea mínima. Por tanto, si tiene
mínima varianza, la cuasi varianza muestral será un estimador
eficiente de la varianza poblacional.

34)¿Qué propiedades tiene una transformación Y=F(x) cuando la


función de distribución de la variable x es simétrica?
g(y)dy=f(x)dx →g(y)=f(x)/(dy/dx)=f(x)/f(x)=1. X=F’(x).

35)¿La función f(x)=k(1-2x) puede ser función de densidad de una


variable definida entre 0 y 1? No, pues no es >0 para todo x en
[0,1].

36)¿Existe siempre la función generatriz? No.

37)¿Existe siempre la función característica? Si.

38)Una variable aleatoria definida para x>0 entero y 1 tiene


f(x)=(kx2)- 0,5. ¿Es función de densidad? No es función de
densidad ya que entre [0,a], f(x)<0.

39)Toda f(x) positiva definida en [a,b] tal que ∫f(x)dx=1 es una


función de densidad.

40)Una función de densidad es necesariamente positiva excepto


cero en algún punto.

41)El área encerrada entre dos puntos a y b bajo una función de


densidad representa la probabilidad de que la variable aleatoria
se encuentre entre esos valores.

42)Siendo las variables aleatorias x e y independientes, si u=x+y,


v=x-y ¿son independientes u y v? Falso. u=v+2y.

43)Sea una variable aleatoria bidimensional (x,y) de función


densidad f(x,y) definida en un dominio circular D, ¿son x e y
independientes? No pueden serlo, dominio no rectangular.

44)Sea una variable aleatoria bidimensional definida en (0,1)x(0,1)


¿pueden ser sus variables independientes? Podrían, pues es un
dominio rectangular.

45)Para contrastar con n=500 si se trata de una v. de Poisson:


Contraste X2: requiere muestras grandes pero es el mejor.

46)¿Qué quiere decir que la variable aleatoria de Poisson tiene la


propiedad aditiva? ¿En qué condiciones?
Quiere decir que la suma de variables de Poisson independientes
es también una variable aleatoria de Poisson. La distribución
goza de la propiedad aditivas cuando se refiere la variables
independientes, como puede comprobarse calculando la función
característica de la variable suma como producto de las
funciones características de las variables independientes que se
suman P(λ1)+P(λ2)+P(λ3)… = P(λ1+ λ2+ λ3…)con
P(λi)independiente.

47)Sea una v.a bidimensional, como dominio circular de radio finito.


Las variables nunca serán independientes.

48)La variable aleatoria “Tiempo hasta la llegada n” en un proceso


de Poisson ¿Qué tipo de variable es?
En un proceso de Poisson puede definirse la variable γ (gamma)
que modeliza el tiempo que hay que esperar hasta que ocurra la
instancia n-ésima. La variable γ Г(µ,n) con n entero se denomina
variables de Erlang. Se trata de una variable aleatoria continua.

49)Dada una muestra de 500 valores, se desea contrastar si


corresponde a una variable de Poisson. Describir que tipo de
contraste habría que realizar.
La hipótesis de contraste de corresponder a una determinada
distribución de probabilidad se tratan específicamente con los
test de adherencia o de bondad de ajuste (contraste χ2) para
muestras grandes (500 >30).
El test χ2de Pearson se trata de un test que contrasta la
hipótesis nula(la muestra procede de una determinada
distribución) a partir de la distribución de un estadístico que
relaciona las frecuencia teóricas y de la muestra. Ver esquema
pág. 157- 158 del libro.

50)La media de una muestra con n= 9 es x=7. Si σ= 1, ¿es


aceptable la hipótesis de que µ=8 con α= 5%?
En ningún caso I=X±1’96 = 7±1’96* 1/3 [6,35; /,65]

51)Para calcular un intervalo de confianza para la media poblacional


a partir de una muestra aleatoria ¿qué debemos hacer?

a) Uso el análisis de la varianza. Falso.

b) Test de adherencia. Falso.

c) Semivariagrama. Falso.

d) Partir del valor de la media muestral (más propiedades de


la media muestral). Verdadero.
52)Para calcular un intervalo de confianza de la media de una v.a a
partir de una muestra…

a) Utilizaríamos el análisis de la varianza particularizando


para la media. Falso.

b) Realizaríamos el test Chi- 2 de adherencia. Falso.

c) Calcularíamos el semivariagrama correspondiente. Falso

d) Partiríamos de las propiedades de la variable aleatoria


“media muestral”. Verdadero.

53)Cuando se calcula un intervalo de confianza…

a) Al aumentar en nivel de confianza aumenta la amplitud del


intervalo. Verdadero, confianza del 100%, I sale (-∞,∞)

b) Al aumentar en nivel de confianza disminuye la amplitud


del intervalo. Falso.

c) La amplitud del intervalo es independiente del intervalo de


confianza. Falso.

d) Depende del tipo de variable aleatoria considerada. Falso,


es independiente y luego se comprueba si la variable
pertenece a él o no.

54)De una muestra de tamaño n=10 se pretende determinar si


puede proceder de una población normal. Para ello…

a) Se realiza un test chi cuadrado. Falso.

b) Se calculará el intervalo de confianza de la media. Falso.

c) Se realiza un contraste no paramétrico. Verdadero.

55)En una muestra de tamaño n=10 se calcula la media x y la


desviación típica muestrales S2. En otra muestra de tamaño
n=20 se obtiene la misma media y desviación.

a) Es imposible. Falso.

b) La desviación típica debería valer la mitad con la muestra


mayor. Falso.

c) La desviación típica debería valer el doble con la muestra


mayor. Falso.
d) El intervalo de confianza de la media será menor con la
muestra mayor, ya que I= x±zσ/(n)^1/2. Verdadero
,mayor muestra más precisión en las estimaciones.

56)La media muestral de una m.a.s tamaño 100 es 1 ¿Puede la


muestra proceder de una población N(0,1)?

a) Depende del nivel de confianza. Verdadero.

b) Si, si tiende asintóticamente. Falso.

c) Es poco probable. Falso.

d) En ningún caso. Falso.

57)Para n=100 X=1. ¿Puede proceder la muestra de una N(0,1)?


Depende del nivel de confianza de contraste.
Es muy raro que con una muestra tan grande x=1 y µ=0, pero I=
1±Zα0,10. Para que esté el 0 necesitamos Zα= 10 con un
intervalo de confianza grande está el 1.

58)En un test de adherencia(chi cuadrado: χ2) el estadístico


calculado toma el valor de Id= 1’35; si el numero de grados de
libertad es de 5 (χ52):
Aceptamos la hipótesis para niveles de significación del 5% o
inferiores (se ve en las tablas).

59)Si la probabilidad de volver a un mismo estado en una cadena de


Markov es < 1 → es irreductible.

60)Dada una Cadena de Markov con matriz de transición: M=

¿Es ergódica?
No, ya que hay dos estados absorbentes→ la cadena de Markov
no es irreductible. Para que una cadena de Markov pueda ser
ergódica a parte de ser recurrente, aperiódica y no nula, se
supone homogénea e irreductible, y esta no lo es.

61)Coeficiente de correlación =0 → covarianza nula.

62)Sea X v.a en Г(185, 2) y sea Y= 127+ x/√3π su curva de


regresión ¿cuál es su coeficiente de correlación? Si hay
dependencia funcional, el coeficiente de correlación es 1.

63)Dos rectas de regresión con pendientes de ≠ signo → Varianza


>0
64)Las rectas de regresión deben tener las pendientes del mismo
signo. Además el signo de sus pendientes es el de la cuasi
varianza. Se cortan siempre dentro de su dominio en el punto
(x,y)= (E(x), E(y)).

65)Dadas dos v.a (x, y) con curva de regresión ξ2+= Y= E(x)¿son x e


y independientes?
Y*=Q(x)=E(y/x=x)= se debe cumplir
la igualdad en 1 para ello f(x,y)/f1(x)=f2(y)→f(x,y)=f1(x)f2(y)
condición necesaria y suficiente para la independencia de
variables.
Si, son independientes.

66)¿Las rectas de regresión de una v.a deben tener pendientes del


mismo signo?
Si, siempre que Cov(x,y)≠0.

67)El coeficiente de correlación de dos variables aleatorias es cero

a) Siempre. Falso.

b) Nunca. Falso.

c) Si y solo si son independientes. Falso.

d) Ninguna de las anteriores es correcta. Verdadero.

68)¿Puede ser la varianza negativa? Nunca .

69)La convergencia casi segura implica la convergencia de una


sucesión de probabilidades. Verdadero.

70)Una variable ß converge siempre a una delta de Dirac.


Verdadero.

71)La función generatriz de momentos de una variable de Cauchy


no existe. Verdadero, el cálculo de los momentos par lleva a una
integral divergente, la variable crece por momentos.

72)La variable de Cauchy es simétrica con respecto al eje de


coordenadas.

73)Una variable de Cauchy (0,1) se puede obtener como cociente de


dos variables N(0,σ) independientes entre sí. Verdadero.

74)El coeficiente de correlación nulo implica covarianza, S2, nula.


Verdadero.
75)Dos variables bidimensionales con dominio circular no son
independientes. Verdadero.

76)Sea N(µ,σ), la distribución de probabilidad es simétrica respecto


del origen. Falso.

77)Dadas las variables x e y y la curva regresión y =E(k)=cte. ¿Son


independientes?
E[(y-k)2] mínimo→ k=E[y]=E[x]
E[(Y-G(x))2]
Y=G(x)= E(Y/X=x)=
La mayor aproximación no depende de x, luego son
independientes.

78)Sean dos variables aleatorias definidas en un dominio DxyΞ


rectangular. ¿son independientes?. Si, es condición necesaria y
suficiente

79)Cuando hay dependencia funcional de las variables, el


coeficiente de correlación es 1 porque la aproximación es exacta.

80)Sea x una variable aleatoria con E(x)=1; E(x2)=2; E(x3)=3.


Calcular

81)La convergencia de probabilidad implica la convergencia de


sucesión de variables. Falso.

82)Sea f(xy) tal que su dominio de convergencia sea una elipse de


ejes a y b. ¿son independientes las variables?

a) Si, son independientes. Falso, nunca.

b) Son independientes si y solo si a=b. Falso.

c) Son siempre independientes. Falso.

d) Nunca son independientes. Verdadero, el dominio es


incompatible con la independencia.

83)Si dos variables bidimensionales están en un dominio circular son


independientes. Falso, sólo serán independientes cuando el
dominio tenga los lados paralelos a los ejes coordenados.
84)No puede haber una función de densidad negativa.

85)La convergencia cuasi segura implica la convergencia de una


sucesión de probabilidades. Verdadero.

86)Propiedades de la transformación y= F(x) cuando su función f(x)


es la función de distribución
g(y)dy=f(x)dx
g(y)=f(x)/(dy/dx)=f(x)/f(x)=1 → x=F-1(y)

87)Sea χ2 (variable aleatoria chi-cuadrado de Pearson) con n grados


de libertad.

a) La esperanza coincide con la varianza. Falso, E(ξ)=n y


V(ξ)=2n.

b) La función es un cociente. Falso, se define como la suma


de los cuadrados de n variables Z normales N(0,1) e
independientes

c) χ2 es la suma de los cuadrados de N(0,1). Verdadero.

d) Ninguna de las anteriores es correcta. Falso

88)Sea una función de densidad: f(xy)=kxy definida en [0,1]x[0,1]

a) El coeficiente de correlación tiende asintóticamente a 0.


Falso.

b) K>5. Falso.

c) Las variables x e y son independientes. Verdadero.

89)La media de la muestra y la varianza -2’75, la muestra:

a) Se acepta. Falso.

b) No se puede tomar una decisión. Falso.

c) Se rechaza. Verdadero, la varianza no puede ser negativa.

90)El periodo de retorno es el inverso de la probabilidad cuando es


transitorio. Falso.

91)Cuando dos sucesos no tienen ningún elemento en común su


intersección es el suceso imposible, entonces se llaman sucesos
disjuntos o incompatibles
92)La función densidad de probabilidad es la derivada de la función
distribución de probabilidad.
Las propiedades son:

FDP(x) 0 para toda x.

La integral de FDP(x) es el área bajo la curva de FDP(x), siempre


es 1.

La probabilidad de que X tome un valor en el intervalo [a,b] es el


área bajo la curva de la función de densidad. La gráfica FDP(x) se
conoce como curva de densidad.

93)No todas las variables aleatorias tienen un valor esperado (por


ejemplo la [distribución de Cauchy]).

94)Propiedades de la varianza :

, propiedad que permite que la definición de


desviación típica sea consistente.

Siendo a y b constantes cualesquiera

95)La función característica siempre existe, ya que el sumatorio o


integral definida que la calcula es siempre convergente.

96)Una variable aleatoria queda plenamente caracterizada cuando


se conoce su función de densidad, su función de distribución o su
función característica. Por el teorema de Levy

97)La función característica permite obtener los momentos de la


variable aleatoria.

98)No se puede asegurar que exista siempre la función generatriz,


ya que al desaparecer la unidad imaginaria en la expresión de
M(t) no es posible aplicar el razonamiento realizado
anteriormente sobre la definición de función característica.

99)Una función de distribución ha de cumplir 3 condiciones:

Y
Es continua por la derecha
Es monótona no decreciente