You are on page 1of 41
Universidad Nacional de Formosa Facultad de Recursos Naturales Ingenieria Civil Trabajo Practico Integrador Probabilidad y Estadistica 2022 Integrantes Araujo, Francisco, Meza, Axel, Montiel, Marisol; Stays, Enzo; Urquiza, Rosario Escaneado con CamScanner i. Trabajo Practico n°! Medidas, Regresién y Correlacién a) b) c) d) a) ») °) a) °) i a) b) °) a) °) iv. Trabajo Prictico n°4 Inferencia 8) n) i) dD Medidas de dispersion, propiedades, aplicacion. Medidas de posicion, propiedades, aplicacion Medidas de forma, interpretacién, estadistica y aplicaciones Medidas de cocentracién: Indice de Gini y Curva de Lorenz. Trabajo Prictico n°2 Teoria de Probabilidad, Definicion de probabilidad segin Theodore Von Karmén segin Laplace y segin Kolmogorov. Variable aleatoria continua y discreta. Propiedades. Funciones de variable aleatoria Criterios de convergencia Aplicaciones, Trabajo Practico n°3 Procesos Estocasticos, Procesos estociisticos definicién Funcién de Baltzman, Ecuncién de Folker-Plank. Ecuacion de Kolmogorov (Backward, Forward) Ecuaciones diferenciales estocasticas. Ecuacion de Hito, tadistica, Estimacién por Intervalos, Test de Hipdtesis. Inferencia estadistica, descripcion y aplicacion de los dos problemas fundamentales de la estadistica diferencial. Estimacién por intervalos y test de hipdtesis, estimacién por intervalos descripcién del procedimiento. Caleulo del intervalo de confianza para la media poblaciénal cuando conocemos dos estandares de la poblacién, Estimacién de intervalo de confianza para la media poblacional cuando no conocemos el desvié estindar de la poblacién. Calculo del intervalo de confianza para la diferencia de dos medias poblacionadas, cuando se conoce y cuando no se conoce el desvio estandar de la poblacion. Calculo del intervalo de confianza del desvio estandar de la poblacion. cién. Realizacién del test para una y para multiples hipdtesis nutas. Aplicacién a control de calidad Distritrucion de probabilidad para eventos extremos. Aplicacién a la hidrologia, calculo del tiempo de recurrencia de una avenida (inundacion). Escaneado con CamScanner Desarrollo Trabajo Practico n°] Medidas, Regresion y Correlacion A) Medidas de dispersion Las Medidas de Dispersién 0 Variacién se emplean para saber si los valores estén relativamente cercanos uno al otro o si se encuentran dispersos, Todas las medidas de dispersion exceptuando la de Amplitud o Rango toman a la media como punto de referencia Principales medidas de dispersion Las medidas de dispersion mas conocidas son: el rango, la varianza, la desviacién tipica y el coeficiente de variacién A continuacién veremos estas cuatro medidas Rango: El rango es un valor numérico que indica la diferencia entre el valor maximo y el minimo de una poblacién 0 muestra estadistica. Su formula es R= Max X- Min X R— Esel rango. Max — Es el valor maximo de la muestra o poblacién Min — Es el valor minimo de la muestra o poblacién estadistica. x — Es la variable sobre la que se pretende calcular esta medida. Varianza La varianza es una medida de dispersién que representa la variabilidad de una serie de datos respecto a su media, Formalmente se calcula como la suma de los residuos al cuadrado divididos entre el total de observaciones. Su formula es la siguiente: Bi@- 2? Ww X = Variable sobre la que se pretenden calcular la varianza Xi Observacién numero i de la variable X. i puede tomard valores entre I y n N+ Numero de observaciones. X= Es la media de la variable Xe calcular esta medida Desviacion tipica: La desviacién tipica es otra medida que offece informacion de la dispersion respecto a la media. Su cilculo es exactamente el mismo que la varianza, pero realizando la raiz cuadrada de su resultado. Es decir, 1a desviacién tipica es la raiz cuadrada de la varianza. X= Variable sobre la que se pretenden calcular la varianza xi + Observacién niimero i de la variable X. i puede tomara valores entre 1 yn. N—+ Numero de observaciones. X= Es la media de la variable X Escaneado con CamScanner Coeficiente de variacion: Su céileulo se obtiene de dividir la desviacién tipiea entre el valor absoluto de la media_del conjunto y por lo general se expresa en porcentaje para su. mejor comprensién, 6, c= [RI X— Variable sobre la que se pretenden caleular la varianza 6, —+ Desviacidn tipica de la variable X. | <| -+ Es la media de la variable X en valor absoluto con x #0 B) Medidas de Posicién Las medidas de posicién se suelen dividir en dos grandes grupos: la de tendencia no central y Jas centrales Las medidas de posicién son indicadores estadisticos que permiten resumir los datos en uno solo, o dividir su distribucién en intervalos del mismo tamaio. Tienen por objeto, obtener un valor que resuma en si todas las mediciones. La mayoria de ellas trata de ubicar el centro de la distribucién, razon por la cual, se llaman “Medidas de Tendencia Central”, estas son: 1. Media, u. Mediana it. Moda Media aritmética: Es una de las medidas de tendencia central de mayor uso. La media muestral se simboliza por y la media poblacional de denota por Se define como la suma de los datos dividida entre el nimero de los mismos F a Caracteristicas de la media aritmética i. Calculada para datos en escala de Intervalo y Razén ii Unica para un conjunto dado de datos iii, Centro de gravedad de los datos iv. Sensible a todos los valores del conjunto de datos, sobre todo a los valores extremos v. La suma de desvios de los datos con respecto a la media es 0 vi. Util para comparar poblaciones vil. Nose puede calcular con clases abiertas Mediana (Me) La mediana es el valor de la variable que ocupa la posicién central, cuando los datos se disponen en orden de magnitud. Es decir, el 50% de las observaciones tiene valores iguales © inferiores a la mediana y el otro 50% tiene valores iguales o superiores a la mediana En un conjunto de datos ordenado, es el dato central, si el mtimero de los datos es impar. Si el nimero de datos es par, la mediana se considera como el promedio de los dos datos Xqay2__sin-es impar X(oi2) * Xini2)04 2 sines par Escaneado con CamScanner Es el valor de la variable que divide a las observaciones en dos grupos con el mismo riimero de individuos (percentil 50) Para hallar la mediana de una distribucién debemos: 1, Ordenar las observaciones en orden ascendente 2. Siel muimero de observaciones n es impar, M es la observacién central de ta lista ordenada, M se halla contando (n+1)/2 observaciones desde el comienzo de la lista 3. Si el miimero de observaciones n es par, M es la media de las dos observaciones centrales de la lista ordenada Moda (Mo): La moda es el valor de la variable que tenga mayor frecuencia absoluta, la que mas se repite, es la Gnica medida de centralizacién que tiene sentido estudiar en una variable cualitativa, pues no precisa la realizacién de ningun caleulo. Por su propia definicién, la moda no es unica, pues puede haber dos o mas valores de Ja variable que tengan la misma frecuencia siendo esta maxima. En cuyo caso tendremos una distribucién bimodal o polimodal seginn el caso. 1+ ‘dy +d. A Medidas de posicién no central Cuartiles: Dividen a la muestra en 4 grupos con frecuencias similares, Primer cuartil = Percentil 25 = Cuantil 0,25 Segundo euartl Tercer cuartil = Percentil 75 Deciles: Dividen a la muestra en 10 grupos con frecuencias similares. Quinto decil = Segundo cuartil = Percentil 50 = Cuantil 0,5 = mediana Percentil de orden k = cuantil de orden k/100 La mediana es el percentil 50 El percentil de orden 15 deja por debajo al 15% de las observaciones. Por encima queda el 85% C) Medidas de Forma Las medidas de forma permiten comprobar si una distribueién de frecuencia tiene caracteristicas especiales como simetria, asimetria, nivel de concentracién de datos y nivel de apuntamiento que la clasifiquen en un tipo particular de distribucién. Las medidas de forma son necesarias para determinar el comportamiento de los datos y asi, poder adaptar herramientas para el andlisis probabilistico Las medidas de forma mas importantes son: i. Sesgo ii, Curtosis Momentos: No son medidas de forma, son herramientas que se utilizan para producir valores que sirven el eileulo de las medidas de asimetria y agudez, Existen de 3 clases: i. Conrespecto del origen ii, Con respecto a la media iii, Con respecto a cualquier punto. Escaneado con CamScanner Sesgo: Coeficientes de Sesgo 0 Asimetria Coeficiente de Simetria de PEARSON de X A -X=Mo Una distribucion puede ser Si A=0 Situaci6n de Simetria ADO Situacién de Asimetria a la Derecha As<0 Situacién de Asimetria a la Izquierda Coeficiente de Asimetria de Fisher Si los valores de la serie de datos presenta la misma forma a izquierda y derecha de un valor central (media aritmética) se dice que es simétrica de lo contrario sera asimétrica. Para medir el nivel de asimettia se utiliza el llamado Coeficiente de Asimetria de Fisher, que viene definido: ain Sey-2) Los resultados pueden ser los siguientes: i. gl =0 (distribucion simétrica, existe la misma concentracién de valores a la derecha y ala izquierda de la media) ii, gl >0 (distribucion asimétrica positiva; existe mayor concentracién de valores a la derecha de la media que a su izquierda) iii, gl <0 (distribucion asimétrica negativa; existe mayor concentracién de valores ala izquierda de la media que a su derecha) Interpretacion 50% 50% Escaneado con CamScanner Curtosis El Coeficiente de Curtosis analiza el grado de concentracién que presentan los valores alrededor de la zona central de la distribucién. Se definen 3 tipos de distribuciones segiin su grado de curtosis: 1, Distribueién mesoetrtiea: presenta un grado de concentracién medio alrededor de los valores centrales de la variable (el mismo que presenta una distribucién normal) 2. Distribucién leptocurtica: presenta un elevado grado de concentracién alrededor de los valores centrales de la variable. 3. _Distribucién platicirtica: presenta un reducido grado de concentracién alrededor de los valores centrales de la variable EI Coeficiente de Curtosis viene definido por la siguiente formule aS o,-¥) Los resultados pueden ser los siguientes: 2 =0 (distribucién mesocurtica), 2 > 0 (distribucién leptociirtica) £2 <0 (distribucién platicurtica) Interpretacion: Supongamos que tenemos n cantidades que miden los valores de una variable determinada para n casos, Para fijar las ideas, supongamos que se trate de la renta den individuos. Ordenamos dichas cantidades x1, x2,..., xn, en orden creciente, de modo que cada una de ellas sea menor o igual que la sucesiva, es decir, XiSXI4i, 751,71 Nos interesa estudiar hasta qué punto la suma total de rentas x... esta equitativamente repartida. Sin duda, las infinitas posiciones que pueden presentarse estaran entre las dos situaciones extremas siguientes: Concentracion maxima: de los n rentistas, solo uno percibe el total de la renta, en tanto que los demas no perciben nada: X1=x2=.., =xn-1 =0, xn #0 Concentracién minima o equidistribucién: todos los rentistas perciben la misma cantidad. xl a= xn Escaneado con CamScanner Nos interesa encontrar algunas medidas que permitan valorar cual es el grado de desigualdad en el reparto de la renta, Para ello, consideremos la siguiente sucesidn de rentas acumuladas: SI=x1 s: =xl+x2 S3=x1+x2+x3 Sn=xl+x2+... +xn Asi, para #=1,2,....n, Si es la renta total percibida por los i rentistas que menos renta perciben, y Sn es la renta total, cuyo reparto nos interesa estudiar Sea qi el cociente entre Si y Sn, y piel cociente entre iy n gi=Si/Sn pisi/n Ello significa que: gi =proporcién que representa la suma de las i rentas inferiores sobre el volumen total de las n rentas consideradas = proporcién de la renta total que perciben conjuntamente los i rentistas eon menos renta. pi=proporcién que representa el numero de los i rentistas mas “pobres” sobre el numero total de los remtistas Diremos que la concentracién de la variable (la renta, en este caso) es tanto mas elevada cuanto mayor sea la desigualdad pi > qi D) indice de concentracion de Gini Se puede establecer n-I desigualdades pi > qi y de sus valores depende la intensidad de la concentracién. Podemos, por lo tanto, obtener un indice de concentracion a partir de una formula que tenga en cuenta estas n-1 desigualdades 0, de forma equivalente, las n-1 diferencias pi — qi. La formula més sencilla que satisface estas condiciones es, sin duda, la siguiente n-1 L@i- 4a) i=1 Cuanto mayor sea el valor de esta suma, tanto mayor serd la concentracién. Para mayor comodidad en las comparaciones, sera conveniente obtener un indice que tenga un valor maximo igual a la unidad. Bastara para ello dividir la suma anterior por el. valor maximo que pueda alcanzar, que correspondera al caso: ql =q2=...=qn-1=0, qn=1 es decir, a la situacién de concentracién maxima (notemos que qn no interviene en el sumatorio), Este valor maximo sera, pues: nt =p ist Escaneado con CamScanner Y el indice de concentracién de Gini quedara definido como: Br @i-a) yo Este indice, muy utilizado en la préctica, verifica las siguientes propiedades G erece con el aumento de la concentracién: al aumentar la desigualdad, las diferencias pi — qi se hacen mayores. En el caso de concentracion maxima, G entonces: es asi por construccién, ya que qh= qe. = gra Cuando 1a concentracién es nula, es decir, cuando hay equidistribucién, G evidente, ya que entonces i i=, PB Curva de Lorenz: Forma de representar la concentraciin de la distribucién es a través de esta grafica: Suponiendo la distribucion agrupada por intervalos y siendo xi la marca de clase de cada intervalo (el punto medio) el monto acumulado en el primer intervalo sera: ul =x! . nl el monto acumulado hasta el segundo intervalo: u2= x1. nl+ x2. n2 el acumulado hasta el tercero: u3 = x1. nI+ x2. n2-+x3 13 y asi sucesivamente hasta el monto acumulado hasta el tltimo intervalo: un=S xi. ni Los porcentajes del monto total acumulados hasta cada intervalo (cada tramo) podran obtenerse como: ui/un 100 De la misma manera podemos obtener, para cada intervalo el porcentaje (sobre el total de individuos) de los individuos que lo integran: pi=Ni / N 100. Considerando esto, es evidente que, en el caso de maxima igualdad en el reparto, qi y pi deben ir creciendo exactamente en la misma medida, Una manera de representar la concentracién de la distribucién sera a través de un grafico de ejes coordenados en el que se representen los pares de puntos (qi , pi).La curva que una esos puntos sera la Curva de Lorenz , que deberia coincidir con la diagonal en el caso de maxima homogeneidad. En un diagrama de coordenadas cartesianas representamos sobre el eje de abscisas los valores de pi, y sobre el eje de ordenadas los valores de qi. Al unir entre si los puntos (pi, qi), obtendremos una poligonal llamada curva de Lorenz. En la grafica se muestran como ejemplo la representacién de dos paises imaginarios, uno en azul y otro en rojo, La distribucidn de la renta en el pais azul es més desigual que en el pais rojo. En el caso Escaneado con CamScanner del pais azul, el cuarenta por ciento mas pobre de la poblacién recibe una renta inferior al veinte por ciento del total del pais. En cambio, en el pais rojo, el cuarenta por ciento mas pobre recibe mas del veinte por ciento de la renta, La linea diagonal negra muestra la situacién de un pais en el que todos y cada uno de los individuos obtuviese exactamente la misma renta; seria la equidad absoluta. Cuanto mas proxima esté la curva de Lorenz de la diagonal, mas equitativa sera la distribueion de la renta de ese pais. Otra forma de observarla curva de Lorenz es estimando el area de la superficie que se encuentra entre la curva y la diagonal, Esa superficie se llama area de concentracion, En la grifica de la izquierda la hemos rellenado de color rosado. Cuanto mayor sea esta area mas concentrada estara la riqueza, cuanto mas pequeiia sea este area, més equitativa sera la distribucidn de la renta del pais representado ‘Curva de Lorenz 100% 20% com 40% 20% a a 20% 40% 60% 8% 100% Escaneado con CamScanner Trabajo Practico n°2 Teoria de Probabilidad. A) La teoria de la probabilidad La teoria de la probabilidad es la teoria matematica que modela los fendmenos aleatorios. Estos deben contraponerse a los fenémenos deterministicos, los cuales son resultados tinicos y/o previsibles de experimentos realizados bajo las mismas condiciones determinadas, por ejemplo, si se calienta agua a 100 grados Celsius a nivel del mar se obtendra vapor. Los fenomenos aleatorios, por el contrario, son aquellos que se obtienen como resultado de experimentos realizados, otra vez, bajo las mismas condiciones determinadas, pero como resultado posible poseen un conjunto de alternativas, por ejemplo, el lanzamiento de un dado o de un dardo Los procesos reales que se modelizan como procesos aleatorios pueden no serlo realmente; cémo tirar una moneda o un dado no son procesos de aleacién en sentido estricto, ya que no se reproducen exactamente las mismas condiciones iniciales que lo determinan, sino solo unas pocas En los procesos reales que se modelizan mediante distribuciones de probabilidad corresponden a modelos complejos donde no se conocen a priori todos los parametros que intervienen; ésta es una de las razones por las cuales la estadistica, que busca determinar estos parametros, no se reduce inmediatamente a la teoria de la probabilidad en si. En 1933, el matematico soviético Andrei Kolmogérov propuso un sistema de axiomas para la teoria de la probabilidad, basado en la teoria de conjuntos y en la teoria de la medida, desarrollada poeos afios antes por Lebesgue, Borel y Frechet entre otros. Esta aproximacién axiomatica que generaliza el marco clasico de la probabilidad, la cual obedece a la regla de céleulo de casos favorables sobre casos posibles, permitié la rigurosidad de muchos argumentos ya utilizados, asi como el estudio de problemas fuera de los marcos clisicos Actualmente, la teoria de la probabilidad encuentra aplicacién en las més variadas ramas del conocimiento, como puede ser la fisica (donde comesponde mencionar el desarrollo de las difusiones y el movimiento Browniano), o las finanzas (donde destaca el modelo de Black - Scholes para la valuacién de acciones), Definicion clasica de probabilidad La probabilidad es la caracteristica de un evento, que existen razones para creer que éste se realizard, La probabilidad p de que suceda un evento S de un total de n casos posibles igualmente probables es igual a la razén entre el nimero de ocurrencias h de dicho evento (casos favorables) y el rnlimero total de casos posibles n. p=P{S} La probabilidad es un numero (valor) que varia entre 0 y 1. Cuando el evento es imposible se dice que su probabilidad es 0, si el evento es cierto y siempre tiene que ocurrir su probabilidad es 1 La probabilidad de no ocurrencia de un evento esti dada por q, donde: h 4= P{noS} =1-— Sabemos que p es la probabilidad de que ocurra un evento y q es la probabilidad de que no ocurta, entonces p+ q=1 Simbolicamente el espacio de resultados, que normalmente se denota por ©, es el espacio que consiste en todos los resultados que son posibles. Los resultados, que se denota por i, on, eteétera, son elementos del espacio © Escaneado con CamScanner Definicién seguin la frecuencia relativa y definicién axiomatica La definicién axiomatica de la probabilidad se define con base a si misma (igualmente factible es sinénimo de igualmente probable) se define la probabilidad estimada o empirica basada en Ja frecuencia relativa de aparicion de un suceso $ cuando 0 es muy grande, La probabilidad de un suceso es una medida que se eseribe como: P{S} y mide con qué frecuencia ocurre algiin suceso si se hace algun experimento indefinidamente. La definicion anterior es complicada de representar matematicamente ya que © debiera ser infinito, Otra manera de definir la probabilidad es de forma axiomatica esto estableciendo las relaciones 0 propiedades que existen entre los conceptos y operaciones que la componen. Probabilidad disereta Este tipo de probabilidad, es aque! que puede tomar sélo ciertos valores diferentes que son el resultado de la cuenta de alguna caracteristica de interés. Probabilidad continua Una variable aleatoria es una funcién medible X:Q0->R que da un valor numérico a cada suceso en Q. Funcion de densidad La funcién de densidad, o densidad de probabilidad de una variable aleatoria, es una funcién a partir de la cual se obtiene la probabilidad de cada valor que toma la variable. Su integral en el caso de variables aleatorias continuas es la distribucién de probabilidad. En el caso de variables aleatorias discretas la distribucion de probabilidad se obtiene a través del ‘sumatorio de la funcion de densidad. densidad. Axiomas de probabilidad Los axiomas de probabilidad son las condiciones minimas que deben verificarse para que una funcién definida sobre un conjunto de sucesos determine consistentemente sus probabilidades. Fueron formulados por Kolmogorov en 1933 Axiomas de Kolmogérov Dado un conjunto de sucesos elementales, 2 sobre el que se ha definida una o~ilgebra (Iéase sigma~algebra) 6 de subconjuntos de @ y una funcion P que asigna valores reales a los miembros de @. a los que denominamos "sucesos”, se dice que P es una probabilidad sobre (@,9) si se cumplen los siguientes tres axiomas Primer axioma La probabilidad de un suceso A es un nimero real mayor o igual que 0. P(A)>0 Segundo axioma La probabilidad del total, ©, es igual a 1, es decir P(Q)=1 Tercer axioma si 41, A2,.-- son sucesos mutuamente excluyentes (incompatibles dos a dos, disjuntos o de interseccién vacia dos a dos), entonces P(A,U A.U-+-) = > P(Ai) Segin este axioma se puede calcular la probabilidad de un suceso compuesto de varias altemativas mutuamente excluyentes sumando las probabilidades de sus componentes. En términos més formales, una probabilidad es una medida sobre una o-Algebra de subeonjuntos del espacio muestral, siendo los subconjuntos miembros de la o-ilgebra los sucesos y definida de tal manera que la medida del total sea 1. Tal medida, gracias a su definicion matematica, verifica igualmente los tres axiomas de Kolmogorov. A la terna formada por el espacio muestral, la Escaneado con CamScanner o-ilgebra y la funcién de probabilidad se la denomina Espacio probabilistico, esto es, un "espacio de sucesos" (el espacio muestral) en el que se han definido los posibles sucesos a considerar (la 6 algebra) y la probabilidad de cada suceso (la funcién de probabilidad) Propiedades que se deducen de los axiomas De los axiomas anteriores se deducen otras propiedades de la probabilidad: 1 P(S@) =0 donde el conjunto vacio () representa en probabilidad el suceso imposible 2. Para cualquier suceso: P(A) <1 P(A) =1- P(A) 3SiACB enonoes P(A) S P(B) 4, P(AU B) = P(A) + P(B) - P(ANB) Como ejemplo se puede tomar como espacio muestral a los posibles resultados al arrojar un dado comtiente: O = {1,2,3,4,5,6} tomaremos como o-Algebra todos los subconjuntos posibles de © (que en matematicas se denota por P(Q) y como funcin de probabilidad #4 P(ay= (A)= "5 Donde 7 representa el nimero de elementos del conjunto A Es facil comprobar que esta funcién verifica los tes axiomas de Kolmogorov y, por tanto, constituye una probabilidad sobre este conjunto 7 P(A)= "20 Puesto que es el cociente de dos miimeros positivos P(Q) = P ({1,2,3, 4,5, 6}) = LP BA 5.8) = j =1 si A= A,UA.U AU ANAS = Vids #A=#AL+ Hart Ast - P(A) =) P(Ai) De tal manera que: Entonces| Luegor Escaneado con CamScanner Definicién de Laplace. La probabilidad de cualquier suceso A es igual al cociente entre el numero de resultados favorables o resultados que integran el suceso A y el niimero total de elementos o posibles resultados del espacio muestral E n° de casos favorables P(A) = Te de casos posibles Como hemos venido observando los sucesos los consideremos como conjuntos, siendo valido para los sucesos todo lo estudiado en la teoria de conjuntos. Para llegar a la construceién axiomatica del Caleulo de Probabilidades, necesitamos dar unas estructuras algebraicas basicas construidas sobre los sucesos de la misma manera que con construian sobre los conjuntos. ‘Teorema de Bayes Sea_un sistema exhaustivo y excluyente de sucesos Ai, Aa,---)An CE Sea un suceso del que conocemos todas las cantidades: BCE Denominamos verosimilitudes, entonces se verifica’ PiBia.| i=1,....0 si : . PIBia,1-P IA Viscum, PlAsg] = eel PAs YP) PIA Demostracion Es una consecuencia de la definicion de probabilidad condicionada en términos de la interseccion, y del teorema de la probabilidad total: A, Pegg) = PIO = _PiBia)-PlAs) DPB PAs Ejemplo Se tienen tres unas. Cada una de ellas contiene un numero diferente de bolas blancas y rojas + Primera urna, Ui: 3 bolas blaneas y 2 rojas; + Segunda urna, U2: 4 bolas blancas y 2 rojas, + Tercera urna, U3: 3 bolas rojas. Se realiza el siguiente experimento aleatorio: ‘Alguien elije al azar y con a misma probabilidad una de las tres urnas, y saca una bola. Si el resultado del experimento es que ha salido una bola blanca, gcudl es la probabilidad de «que provenga de la primera urna? Calcular lo mismo para las otras dos uras, Escaneado con CamScanner Solucién: ‘Vamos a representar en un esquema los datos de que disponemos: 4B 2R Wr Pita] = 1/3 /PlBiv,] = 4/6 En este caso Ui, U3 y Us forman un sistema incompatible y excluyente de sucesos (a bola resultado debe provenir de una de esas tres urnas y de una solo de ellas), por tanto es posible aplicar el teorema de Bayes PIU) P{B\u,] - PIs] + PLBiu,] - PUa) + PLB io,] - PLUS) 2 3 Con respecto a las demas urnas hacemos lo mismo. PWaal PBs] -PAUal tl PlBy, PC] + PB.) - Pla] + PlBiv,]- PU) 4. -srits 3 [Byv,) - PU PiUsel = PIB) - PIs) PLBiu,]- P(C] + PLB iu.) - P[02] + PLB Ww, Escaneado con CamScanner Observacién Obsérvese que, en el ejemplo anterior, antes de realizar el experimento aleatorio de extraer una bola para ver su resultado, teniamos que la probabilidad de elegir una urna i cualquiera es PIU) Estas probabilidades se denominan probabilidades a priori, Sin embargo, después de realizar el experimento, y observar que el resultado del mismo ha sido la extraccién de una bola blanca, las probabilidades de cada uma han cambiado a Ps Estas cantidades se denominan probabilidades a posteriori. Vamos a representar en una tabla Ja diferencia entre ambas a priori a posteriori PLU) 9/19 ‘| P[Uayp] = 10/19 PVs] = 1/3 | PlUsynl =0 1 I => Las probabilidades @ priori cambian de tal modo de las a posteriori que una vez observado el resultado del experimento aleatorio, se puede afirmar con certeza que no fue elegida la tervera_ urna. Este fendmeno tiene aplicaciones fundamentales en Ciencia: Cuando se tienen dos teorias cientificas diferentes, 71 y Ts, que pretenden explicar cierto fenémeno, y a las que asociamos unas probabilidades a priori de ser ciertas: PITi| , PITS] podemos llevar a cabo la experimentacién que se considere mas conveniente, para una vez obtenido el cuerpo de evidencia, B, calcular como se modifican las probabilidades de verosimilitud de cada teoria mediante el teorema de Bayes Pf] , Pita) Asi la experimentacién puede hacer que una teoria sea descartada si PITal = 0 6 reforzada si Pita] &1 Una aplicacién basica de esta técnica la tenemos en Medicina para decidir si un paciente padece cierta enfermedad o no, en funcién de los resultados de un test diagnéstico Escaneado con CamScanner Probabilidad condicionada Probabilidad condicionada es la probabilidad de que ocurra un evento A, sabiendo que también sucede otto evento B. La probabilidad condicional se escribe P(4IB), y se lee «la probabilidad de A dado B. No tiene por qué haber una relacidn causal o temporal entre A y B. A puede preceder en el tiempo a B, sucederlo 0 pueden ocurrir simulténeamente. A puede causar B, viceversa 0 pueden no tener relacién causal. Las relaciones causales © temporales son nociones que no pertenecen al ambito de la probabilidad. Pueden desempefiar un papel o no dependiendo de la interpretacién que se les dé a los eventos Definiion: Dado un espacio de probabilidad (0, F,P}y dos eventos (0 sucesos) A,Be con P(B) > 0, la probabilidad condicional de A dado B esta definida como: P(A| B) = St A B P(A| B) se puede interpretar como, tomando los mundos en los que B se cumple, la fraccién en los que también se cumple A. Interpretacion P(A| B) Se puede interpretar como, tomando los mundos en los que B se cumple, la fraccién en los que también se cumple A. Si el evento B es, por ejemplo, tener la gripe, y el evento A es tener dolor de cabeza, P(A| B) seria la probabilidad de tener dolor de cabeza cuando se esta enfermo de gripe Graficamente, si se interpreta el espacio de la ilustracién como el espacio de todos los mundos posibles, A serian los mundos en los que se tiene dolor de cabeza y B el espacio en el que se tiene gripe. La zona verde de la interseccién representaria los mundos en los que se tiene gripe y dolor de cabeza P(ANB) En este caso P(A| B) es decir, la probabilidad de que alguien tenga dolor de cabeza sabiendo que tiene gripe, seria la proporcién de mundos con gripe y dolor de cabeza (color verde) de todos los mundos con gripe: El area verde dividida por el area de B. Como el area verde representa P(ANB) y el area de B representa a P(B), formalmente se tiene que: P(A| By = PAN) P(B) Escaneado con CamScanner Propiedades . | P(A|B)+P(A|B) =1 >» BCA P(A|B)=1 Pero no es cierto que P(A| B)+P(A|B)=1 La proporcién de zona verde dentro de B es la misma que la de A en todo el espacio y, de la misma forma, la proporeién de la zona verde dentro de A es la misma que la de B en todo el espacio. Son sucesos independientes. Independencia de sucesos Dos sucesos aleatorios 4 y B son independientes si y sélo si: P(ANB) = P(A)P(B). sea que, si A y B son independientes, su probabilidad conjunta, P(ANB) © P (4, B), puede ser expresada como el producto de las probabilidades individuales. Equivalentemente: P(A|B) = P(A) P(B|A) = P(B). En otras palabras, si 4 y B son independientes, la probabilidad condicional de 4 dado B es simplemente la probabilidad de A y viceversa A 8 Los conjuntos A y B no intersecan. Son mutuamente excluyentes. Dos sucesos 4 y B son mutuamente excluyentes si y solo si Exclusividad mutua ANB=6 Entonces P(ANB)=0 Ademas, si P(B) > 0 entonces P(A|B) es igual a0. Escaneado con CamScanner B) Variable aleatoria En gran nlimero de experimentos aleatorios es necesario, para su tratamiento matemético, cuantificar los resultados de modo que se asigne un nimero real a cada uno de los resultados posibles del experimento, De este modo se establece una relacién funcional entre elementos del espacio muestral asociado al experimento y niimeros reales Una variable aleatoria (va) Y es una funci6n real definida en el espacio muestral asociado a un experimento aleatorio, Q.1? X:95R Se llama rango de una v. a. X’y lo denotaremos Rx, al conjunto de los valores reales que ésta puede tomar, segiin la aplicacion X.Dicho de otro modo, el rango de una v.a, es el recorrido de la funeién por la que ésta queda definida x = {2 € R/Aw €2: X(w) = 2} Definicién formal de variable aleatoria La definicién formal de variable aleatoria requiere ciertos conocimientos profundos de matematica (en concreto de teoria de la medida). Es la siguiente: Dado un espacio de probabilidad (2,A, P) ¥y un espacio medible (también denominado a veces espacio de Borel) (S.S), una aplicacién X =: Q —+ S esuna variable aleatoria si es una aplicacion: AZ es medible En la mayorfa de los casos se toma como espacio medible de legada el formado por los nuimeros reales junto con la o-dlgebra de Borel (el generado por la topologia usual de IR), quedando pues la definicidn de esta manera Dado un espacio de probabilidad (2,A, P) una variable aleatoria real es cualquier funcién A/BE) es medible Donde B(R) es ta o-algebra boreliana. Ejemplo Supongamos que se lanzan dos monedas al aire. El espacio muestral, esto es, el conjunto de resultados elementales posibles asociado al experimento, es = fee, ex, Xe, XX} onde (¢ representa "sale cara" y x, "sale cruz") Podemos asignar entonces a cada suceso elemental del experimento el numero de ccaras obtenidas. De este modo se definiria la variable aleatoria X como la funcién X:2-R cc 2 cr, ze — 1 rx 0 El recorrido o rango de esta funcion, Rix, es el eonjunto, Rr= {0, 1,2} dada por: Escaneado con CamScanner Tipos de variables aleatorias Para comprender de una manera mas amplia y rigurosa los tipos de variables, es necesario conocer la definicién de conjunto discreto. Un conjunto es discreto si esta formado por un numero finito de elementos, o si sus elementos se pueden enumerar en secuencia de modo que haya un primer elemento, un segundo elemento, un tercer elemento, y asi sucesivamente.® Variable aleatoria discreta: una v.a. es discreta si su recorrido es un conjunto discreto, La variable del ejemplo anterior es disereta, Sus probabilidades se recogen en la funcién de cuantia (véanse las distribuciones de variable disereta) Variable aleatoria continua: una v.a, es continua si su recorrido no es un conjunto numerable. Intuitivamente esto significa que el conjunto de posibles valores de la variable abarca todo un intervalo de numeros reales. Por ejemplo, la variable que asigna la estatura a una persona extraida de una determinada poblacion es una variable continua ya que, tedricamente, todo valor entre, pongamos por caso, 0 y 2,50 m, es posible.° (véanse las distribuciones de variable continua) Variable aleatoria independiente: Supongamos que "X" y "Y" son variables aleatorias discretas. Si los eventos X = x / Y =y son variables aleatorias independientes. En tal caso: P(X = x, Y =y)=P(X=x) P( Y =y). De manera equivalente: fx .y) = f1(x)f2(y).: inversamente, si para todo ¢ 'y’ la funcién de probabilidad conjunta f(x ,y) puede expresarse solo como el producto de una funcién de "x" sola y como una funcién de y solo (las cuales son entonces funciones de probabilidad marginal de "X" e "Y" ), "X" e "Y" son independientes. Sin embargo, si f(x , y).no puede expresarse de tal manera, entonees "X" "Y" son independientes. Si"X" e"Y" son variables aleatorias continuas, decimos que son variables aleatorias independientes si los eventos "X" es menor o igual que "x", e "Y" es menor o igual que "y" y son eventos independientes para todo "x" e "y" De manera equivalente: F(x y) = F1(x)F2(y), donde F1(X) y F2(y) son las funciones de distribucién (marginal) de "X" e "Y" respectivamente. Inversamente, "X" e "Y" son variables aleatorias independientes si para todo "x" e "y", su funcidn de distribucién conjunta F(x.y) puede expresarse como el producto de la funcién "x* sola y de la funcién "y" solo (las cuales son las distribuciones marginales de "X" e "Y", respectivamente). Sin embargo, si F(x .y) no puede expresarse de tal manera, entonces "X" ¢ "Y" son independientes. Para variables aleatorias independientes continuas, también es cierto que la funcién de densidad conjunta fix,y)es el producto de la distribucién de "x" sola f1(x) y una funcién de "y" sola f(y), y éstas son las funciones de densidad(marginal) de "X" e "Y" respeciivamente Distribucién de probabilidad de una v. a La distribucién de probabilidad de una v.a_ X, también llamada funcién de distribucién de X es la funcion F(x), que asigna a cada evento definido sobre X una probabilidad dada por la siguiente expresion. Fx() = P(X <2) y de manera que se cumplan las siguientes tres condiciones: 1 lim, F(x) = 0, lim F(x) =1 2. Es continua por la derecha 3. Es mondtona no decreciente. Escaneado con CamScanner La distribucion de probabilidad de una v.a. describe te6ricamente Ia forma en que varian los resultados de un experimento aleatorio. Intuitivamente se trataria de una lista de los resultados posibles de un experimento con las probabilidades que se esperarian ver asociadas con cada resultado, Funcién de densidad de una variable aleatoria continua La funcion de densidad de probabilidad (FDP) 0, simplemente, funcién de densidad, representada comunmente como fix), se utiliza con el propdsito de conocer como se distribuyen las probabilidades de un suceso o evento, en relacion al resultado del suceso. La FDP es la derivada (ordinaria en el sentido de las distribuciones) de la funcién de distribucion de probabilidad F(x), o de manera inversa, la funcién de distribucion es la integral de la funcién de densidad: a F(x) = [10 dt La funcién de densidad de una v.a. determina la concentracion de probabilidad alrededor de los valores de una variable aleatoria continua Parimetros de una variable aleatoria La funcién de densidad o la distribucion de probabilidad de una v.a. contiene exhaustivamente toda la informacién sobre la variable. Sin embargo resulta conveniente resumir sus caracteristicas principales con unos cuantos valores numéricos. Estos son, fundamentalmente la esperanza y la varianza. Esperanza La esperanza matemaitica (0 simplemente esperanza) o valor esperado de una va. es la suma del producto de la probabilidad de cada suceso por el valor de dicho suceso Si todos los sucesos son de igual probabilidad la esperanza es la media aritmética. Para una variable aleatoria discreta con valores posibles £1; 2 - - -Tny sus probabilidades representadas por la funcion de probabilidad p(x) la esperanza se calcula como: FIX] = Yoxip(ai) int Para una variable aleatoria continua la esperanza se calcula mediante la integral de todos los valores y la funcién de densidad F(2). 7 E(x] =-{ af(a)de E[x]= | xaP La esperanza también se suele simbolizar or n= EX] El concepto de esperanza se asocia cominmente en los juegos de azar al de beneficio medio o beneficio esperado a largo plazo. Escaneado con CamScanner Varianza La varianza es una medida de la dispersion de una variable aleatoria X respecto a su a ™ FIX] Se define como la esperanza de la transformacién: (X - E|x])’ V(X) = B[(x - E[Xx]))| Esti relacionada con la desviacién estindar o desviacién tipica, que se suele denotar por la letra griega o (sigma) y que es la raiz cuadrada de la varianza © bien Escaneado con CamScanner Trabajo Practico n°3 Procesos Estocasticos. A) Definicién ‘Un proceso estocasticos es una coleccién de variables aleatorias {xt: t E T} parametrizada por un conjunto T, llamado espacio parametral, en donde las variables toman valores en un conjunto s llamado espacio de estados. Nos referimos a t como el indice, el cual es interpretado como el tiempo 0 el paso. Al conjunto T se le llama el conjunto indice o espacio del parimetro y a Xt, como el estado del proceso en el tiempo t, y los cambios en el valor de x (1) reciben el nombre de transiciones entre sus estados Ecuacion de Boltzmann Describe el comportamiento estadistico de un sistema termodindmico fuera del equilibrio termodinamico. Esta ecuacién fue deducida por Ludwig Boltzmann en 1872. La ecuacién no se deriva a partir del andlisis estadistico de todas las posiciones y momentos individuales de cada particula del fluido, si no a partir de la probabilidad de que un ntimero de particulas ocupe una regién muy pequefia del espacio (matematicamente escrito {d"3 r}, donde d significa "diferencial", un cambio muy pequefio) a la que se denota con un vector de posicion r, y tengan un momento también muy definido dentro de una regién muy pequefia del espacio de momentos (andlogamente escrito como ( d*3 p ) y también denotado por un vector de momento p, en un instante dado de tiempo. B) Ecuacién de Fokker- Planck Es una ecuacién diferencial parcial que describe la evolucién temporal de la funcién de densidad de probabilidad de la velocidad de una particula bajo la influencia de fuerzas de arrastre y fuerzas aleatorias, como en el movimiento browniano, La ecuacién también puede generalizarse a otro tipo de variables. La ecuacién se aplica a sistemas que pueden ser deseritos por un pequefio numero de "macro variables’, donde otros parémetros varian tan répidamente con el tiempo que pueden ser tratados como "ruido" 0 una perturbacién. Fue nombrada en reconocimiento de Adriaan Fokker y Max Planck, y también es conocida como ecuacién avanzada de Kolmogorov (difusién) (por Andréi Kolmogérov, que la introdujo por primera vez en un articulo de 1931). Cuando se aplica a distribuciones de posicin de particulas, es més conocida como ecuacién de Smoluchowski. El caso de Ja difusion cero es conocido en mecanica estadistica como ecuacion de Liouville. La ecuacién de Fokker—Planck puede usarse para calcular la densidad de probabilidad asociada a una ecuacién diferencial estocastica Por ejemplo, a la ecuacién diferencial de It Si la distribucién inicial viene dada por Xo ~ f(x,0), entonces la densidad de probabilidad (x,t) del estado viene dada por la ecuacién de Fokker~ Planck con el término de arrastre y el término de difusion dados por Di(xt) =ju(x,t) D3 (x,t) = 7" («,t)0f,(x,1). Escaneado con CamScanner C) Ecuacién es de Kolmogorov( Backward , Forward) Es una identidad que relaciona las distribuciones de probabilidad conjunta de diferentes conjuntos de coordenadas en un proceso estocdstico. Sea (X(1)}120 una cadena de Markov de tiempo continuo con espacio de estados S. Entonces, para todos los estados i, j © S, se cumplen las siguientes ecuaciones: 1. Ecuaciones de Kolmogorov hacia adelante (forward) poi(t) =X ke quip) — vipi(t). 2. Ecuaciones de Kolmogorov hacia atras (backward), Poii(t) =X ke qixpa() — vipi(t). D) Ecuaciones diferenciales estocasticas Es una ecuacién diferencial en la cual uno 0 mas de sus términos es un proceso estocastico y cuya solucidn es también un proceso estocastico. Usualmente, las ecuaciones diferenciales estocésticas tienen ruido blanco que puede ser interpretado como la derivada del movimiento browniano 0 del proceso de Wiener. Sin embargo, debe mencionarse que otro tipo de fluctuaciones aleatorias son posibles como el proceso de salto. La teoria matematica del movimiento browniano y los procesos de Wiener dan lugar a un tipo de evolucion matematica extremadamente compleja, Un proceso de Wiener en el espacio euclideo da lugar a una curva continua que es casi con seguridad no diferenciable en ningiin punto, por tanto, requiere definir sus propias reglas de cileulo. Existen dos formas diferentes de abordar el cleulo estocastico, el Ilamado calculo estocastico de It0 y el calculo estocastico de Stratonovich. Uno de los primeros ejemplos historicos de ecuacién diferencial es la diferencial de 166 propuesta en los afios 1940, La ecuacién involucra una variable aleatoria Xt cuyos inerementos con el tiempo vienen dados por una parte determinista mas una parte aleatoria dada por un proceso de Wiener. Donde Wt es el proceso de Wiener (0 movimiento browniano estandarizado). Esta ecuacién debe ser interpretada como una expresién informal, que es rigurosamente interpretable en forma de ecuacién integral, Donde la tltima de las integrales es una integral de It0, mientras que la primera es simplemente una integral de Riemann. Proceso de Wiener Un proceso de Wiener es un tipo de proceso estocastico a tiempo continuo, llamado asi en honor de Norbert Wiener que los estudi6. Frecuentemente este tipo de procesos se denominan movimiento browniano estindar, en honor a Robert Brown Un proceso aleatorio {Wt} es un proceso de Wiener, si se verifican las siguientes propiedades: i, El proceso parte del origen, es decir, P(WO=0)= 1 ii Las trayectorias de {Wt} son funciones continuas. iii El proceso aleatorio {Wt} tiene inerementos independientes iv Dados 0 0 y 0 < tl < 12... O y t Er, Nny Nt+h-Nt tiene la misma distribueion vy. P(N(h)=1) 2h + O(h) donde O(h) es una funcién Nt es el nimero de eventos que se han producido desde el instante cero hasta el instante t Como en cualquier proceso estocastico, en el instante cero es una variable aleatoria, sin embargo, después del instante t es un dato Escaneado con CamScanner A partir de la definicién, es posible demostrar que: ¥ Las variables aleatorias Nt tienen distribucién Poisson con parametro ht ¥ Si Tkel tiempo transcurrido desde el (K-1) ésimo evento hasta el k-ésimo, entonces Tk es una variable aleatoria con distribucién exponencial y parametro ). ¥ Si Sn denota el tiempo transcurrido desde el inicio del conteo hasta el n-ésimo evento, entonces Sn tiene distribucién Gamma con pardmetros (n ,2.). E) Ecuacién de Ito En pocos casos una integral de Riemann se calcula usando directamente la definicién, en lugar de ello existen formulas bien conocidas para caleular integrales. La misma situacién se presenta para integrales estocésticas: en muy raros casos se caleulan “estas a través de su definicién La famosa formula de Ito es la herramienta fundamental para este tipo de integrales. Teorema 1 (Férmula de Ito) Si fes un funcion de clase C2 entonces di(BY =f" (BOABE + 1/2 F "(BHA Escaneado con CamScanner Trabajo Practico n°4 Inferencia Estadistica, Estimacion por Intervalos, Test de Hipotesis. A) Inferencia Estadistica La inferencia estadistica es ef conjunto de métodos y téenicas que permiten indueir, a partir de la informacién empirica proporcionada por una muestra, cual es el comportamiento de una determinada poblacién con un riesgo de error medible en términos de probabilidad. Los métodos paramétricos de la inferencia estadistica se pueden dividir, basicamente, en dos: métodos de estimacion de parametros y métodos de contraste de hipotesis. Ambos métodos se basan en el conocimiento te6rico de Ia distribueidn de probabilidad del estadistico muestral que se utiliza como estimador de un pardmetro, La estimacién de parimetros consiste en asignar un valor conereto al parametro o parametros que caracterizan la distribucion de probabilidad de la poblacion. Cuando se estima un parametro poblacional, aunque el estimador que se utiliza posea todas las propiedades deseables, se comete un error de estimacién que es la diferencia entre la estimacion y el verdadero valor del parimetro. El error de estimacién es desconocido por lo cual es imposible saber en cada caso cual ha sido la magnitud o el signo del error; para valorar el grado de precisién asociado con una estimacién puntual se parte de dicha estimacién para construir un intervalo de confianza. En sintesis, un intervalo de confianza esta formado por un conjunto de valores numéricos tal que la probabilidad de que éste contenga al verdadero valor del parametro puede fijarse tan grande como se quiera, Esta probabilidad se denomina grado de confianza del intervalo, y la amplitud de éste constituye una medida del grado de precision con el que se estima el parametro. Los métodos de contraste de hipétesis tienen como objetivo comprobar si determinado supuesto referido a un parimetro poblacional, 0 a pardmetros andlogos de dos o més poblaciones, es compatible con la evidencia empirica contenida en la muestra. Los supuestos que se establecen respecto a los parimetros se Ilaman hipotesis paramétricas. Para cualquier hip6tesis paramétriea, el contraste se basa en establecer un criterio de decision, que depende en cada caso de la naturaleza de la poblacién, de la distribucién de probabilidad del estimador de dicho parametro y del control que se desea fijar a priori sobre la probabilidad de rechazar la hipdtesis contrastada en el caso de ser ésta cierta B) El Interval de Confianza Representa una técnica de estimacién que se utiliza en el campo de la inferencia estadistica En él se permite acotar uno o diversos pares de valores, entre los cuales esta la estimacién puntual indagada, Esto dentro de una determinada probabilidad. Un intervalo de confianza estadistica en estadistica permite calcular los valores que existen alrededor de una media muestral. Dentro de la muestra, se encuentra un rango superior y otro inferior. Dentro de dicho rango, se estima la probabilidad determinada y se localiza el parémetro poblacional. De modo que esto permite expresar con precisidn sila estimacién de la muestra coineide con el valor de toda la poblacién Para realizar el cdleulo de un intervalo de confianza, deben considerarse los siguientes elementos: i. El tamafio de la seleccién de la muestra: esto depende de la proporcién de datos que se utilicen para el calculo del valor muestral. Se debe observar si se acerca mas 0 menos al parimetro poblacional ii, El nivel de confianza: este informa en qué porcentaje de casos la estimacion es certera Frecuentemente, los niveles oscilan entre el 95 % y el 99 %. iii, El margen de error de la estimacidn: se sefiala como alfa y marca la probabilidad que existe para que el valor poblacional esté fuera del intervalo, timacion de la muestra: se relaciona con los valores de la media, la varianza y las diferencias de las medias. En dichos valores se fundamenta el calculo del intervalo, iv Escaneado con CamScanner v. El intervalo de confianza, a pesar de no dar una estimacién puntual del parimetro poblacional, si sirve para hacemos una idea aproximada de cual podria ser su verdadero valor. En otras palabras, aeota entre dos valores en donde se encontrard la media de la poblacion. C) Intervalo de Confianza para la Media con Desviacién Tipica Desconocida Supongamos una poblacién en la que queremos estimar la media poblacional desconocida que denominaremos 1 Consideremos también que extraemos una muestra aleatoria simple de tamafio “n” en la que obtenemos un valor concreto para la media muestral. Sabemos que si la poblacién de partida es normal 0 el tamafio de la muestra es mayor de 30, la distribucion en el muestreo de las medias muestrales sigue una normal de pariimetros t XM uy, a }> Tipificand o => sigue una N(0,1) Pero nos encontramos con el problema de que la desviacién estandar de la poblacién también es desconocida. Se puede optar directamente por considerar como sustituto de la desviacién estandar de la poblacién, la desviacion estandar muestral En esta distribueion pueden calcularse los valores que encierran una probabilidad de (1 ~ a) Simplemente mirando y deduciendo en la tabla de la normal N(0,1) 8 a ‘sustituimos por la media muestral obtenida X., llegando asi a la siguiente expresién para determinar el intervalo de confianza: Xt = v wie =| El calculo de la cuasivarianza y cuasidesviacion tipica aparece como tecla directa en cualquier calculadora cientifica. La definicién de estas medidas y su relacién con la varianza y desviacion tipica habituales se especifican en el siguiente desarrollo: Escaneado con CamScanner En consecuenda s- 8 D)Intervalo de Confianza para la Diferencia de Medias de Dos Distribuciones Normales con Varianzas Desconocidas, Se desea encontrar un intervalo de confianza para la diferencia de dos medias (1-12). Si los tamafios de muestras nl y n2 son mayores que 30, entonces, puede emplearse el intervalo de confianza de la distribucién normal. Sin embargo, cuando se toman muestras pequeitas se supone que las poblaciones de interés estan distribuidas de manera normal, y los intervalos de confianza se basan en la distribucion t Intervalo de Confianza para la Diferencia de Medias de Dos Distribuciones Normales con Varianzas Desconocidas Supuestas Iguales Las medias y las varianzas de dos muestras aleatorias de tamafio ny nz, respectivamente son Rd. sjys? Tomadas de dos poblaciones normales e independientes con varianzas desconocidas pero supuestas iguales, entonces un intervalo de confianza de! 100 por ciento para la diferencia entre medias es: Donde Intervalo de Confianza para la Diferencia de Medias de Dos Distribuciones Normales con Varianzas Desconocidas Supuestas Diferentes Consideremos ahora el problema de encontrar una estimacién por intervalos de (jt1~ j12) cuando no es probable que las varianzas poblacionales desconocidas sean iguales. La estadistica que se usa con mas frecuencia en este caso es Escaneado con CamScanner que tiene aproximadamente una distribucién t con V grados de libertad, donde: 2 < Jn etm) 7 "TRAY Fou Ped Pes¥ Fes 0) Como V rara vez es niimero entero, lo ey al namero entero mas eereano menor. Esto es, si el valor de nu es de 15.9 se redondeara a 15. ‘Al despejar la diferencia de medias poblacionales de la formula de t nos queda: 7 a An wa R)ee fhe Mm E) Calculo del Intervalo de Confianza para la Diferencia de Dos Medias Poblacionadas ‘Cuando se conoce y cuando no se conoce el desvio estandar de la poblacion. Un intervalo de confianza es un intervalo en el que cae una medida 0 ensayo correspondiente a una probabilidad dada, Por lo general, el intervalo de confianza de interés se coloca simétricamente alrededor de la media, por lo que un intervalo de confianza del 50 % para una funcién de densidad de probabilidad simétrica seria el intervalo [-a, | 3 [pods Para una distribucién normal, la probabilidad de que una medida se encuentre dentro de desviaionsestindar no de la media, es deci dentro del interval yuna, ja] viene dada por nae isp f2e2) Piu-no

You might also like