You are on page 1of 27

Estadstica y Probabilidad

UPAV

UPAV
JORGE ALBERTO JIMENEZ FLORES

UNIDAD 2.- PROBABILIDAD. UNIDAD 3.- DISTRIBUCIONES DE PROBABILIDAD.

Unidad 2.- Probabilidad


La probabilidad es la medida cuantitativa por medio de la cual se obtiene la frecuencia de un suceso determinado mediante la realizacin de un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. La teora de la probabilidad se usa extensamente en reas como la estadstica, la fsica, la matemtica, las ciencias y la filosofa para sacar conclusiones sobre la probabilidad discreta de sucesos potenciales y la mecnica subyacente discreta de sistemas complejos.

Historia

El diccionario de la Real Academia Espaola define azar como una casualidad, un caso fortuito, y afirma que la expresin al azar significa sin orden. La idea de Probabilidad est ntimamente ligada a la idea de azar y nos ayuda a comprender nuestras posibilidades de ganar un juego de azar o analizar las encuestas. Pierre-Simon Laplace afirm: "Es notable que una ciencia que comenz con consideraciones sobre juegos de azar haya llegado a ser el objeto ms importante del conocimiento humano". Comprender y estudiar el azar es indispensable, porque la probabilidad es un soporte necesario para tomar decisiones en cualquier mbito. Segn Amanda Dure, "Antes de la mitad del siglo XVII, trmino 'probable' (en latn probable) significaba aprobable, y se aplicaba en ese sentido, unvocamente, a la opinin y a la accin. Una accin u opinin probable era una que las personas sensatas emprenderan o mantendran, en las circunstancias." Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI, la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) le dio el tratamiento cientfico conocido ms temprano al concepto. Ars Conjectandi (pstumo, 1713) de Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre trataron el tema como una rama de las matemticas. La teora de errores puede trazarse atrs en el tiempo hasta Opera Miscellanea (pstumo, 1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson en 1755 (impresa en 1756) aplic por primera vez la teora para la discusin de errores de
Probabilidad y Estadistica Pgina 1

observacin. La reimpresin (1757) de esta memoria expone los axiomas de que los errores positivos y negativos son igualmente probables, y que hay ciertos lmites asignables dentro de los cuales se supone que caen todos los errores; se discuten los errores continuos y se da una curva de la probabilidad. Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la combinacin de observaciones a partir de los principios de la teora de las probabilidades. Represent la ley de la probabilidad de error con una curva , siendo cualquier error e y su probabilidad, y expuso tres propiedades de esta curva: 1. es simtrica al eje ; 2. el eje es una asntota, siendo la probabilidad del error igual a 0;

3. la superficie cerrada es 1, haciendo cierta la existencia de un error. Dedujo una frmula para la media de tres observaciones. Tambin obtuvo (1781) una frmula para la ley de facilidad de error (un trmino debido a Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del mximo producto de las probabilidades de un sistema de errores concurrentes. El mtodo de mnimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo introdujo en su Nouvelles mthodes pour la dtermination des orbites des comtes (Nuevos mtodos para la determinacin de las rbitas de los cometas). Ignorando la contribucin de Legendre, un escritor irlands estadounidense, Robert Adrain, editor de "The Analyst" (1808), dedujo por primera vez la ley de facilidad de error,

siendo y constantes que dependen de la precisin de la observacin. Expuso dos demostraciones, siendo la segunda esencialmente la misma de John Herschel (1850). Gauss expuso la primera demostracin que parece que se conoci en Europa (la tercera despus de la de Adrain) en 1809. Demostraciones adicionales se expusieron por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros personajes que contribuyeron fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La frmula de Peters (1856) para , el error probable de una nica observacin, es bien conocida. En el siglo XIX, los autores de la teora general incluan a Laplace, Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872),
Probabilidad y Estadistica Pgina 2

Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De Morgan y George Boole mejoraron la exposicin de la teora. En 1930 Andri Kolmogorov desarroll la base axiomtica de la probabilidad utilizando teora de la medida. En la parte geomtrica los colaboradores de The Educational Times fueron influyentes (Miller, Crofton, McColl, Wolstenholme, Watson y Artemas Martin).

CONJUNTOS En matemticas, un conjunto es una coleccin de objetos considerada como un objeto en s. Los objetos de la coleccin pueden ser cualquier cosa: personas, nmeros, colores, letras, figuras, etc. Cada uno de los objetos en la coleccin es un elemento o miembro del conjunto.1 Por ejemplo, el conjunto de los colores del arcoris es: AI = {Rojo, Naranja, Amarillo, Verde, Azul, Ail, Violeta} Un conjunto suele definirse mediante una propiedad que todos sus elementos poseen. Por ejemplo, para los nmeros naturales, si consideramos la propiedad de ser un nmero primo, el conjunto de los nmeros primos es: P = {2, 3, 5, 7, 11, 13, ...} Un conjunto queda definido nicamente por sus miembros y por nada ms. En particular el orden en el que se representen estos es irrelevante. Adems, cada elemento puede aparecer de manera idntica una sola vez, esto es, no puede haber elementos totalmente idnticos repetidos. Por ejemplo: S = {Lunes, Martes, Mircoles, Jueves, Viernes} = {Martes, Viernes, Jueves, Lunes, Mircoles} AI = {Rojo, Naranja, Amarillo, Verde, Azul, Ail, Violeta} = {Amarillo, Naranja, Rojo, Verde, Violeta, Ail, Azul} Los conjuntos pueden ser finitos o infinitos. El conjunto de los nmero naturales es infinito, pero el conjunto de los planetas en el Sistema Solar es finito (tiene ocho elementos). Adems, con los conjuntos pueden combinarse mediante operaciones, de manera similar a las operaciones con nmeros.
Probabilidad y Estadistica Pgina 3

Los conjuntos son un concepto primitivo, en el sentido de que no es posible definirlos en trminos de nociones ms elementales, por lo que su estudio puede realizarse de manera informal, apelando a la intuicin y a la lgica. Por otro lado, son el concepto fundamental de la matemtica: mediante ellos puede formularse el resto de objetos matemticos, como los nmeros y las funciones, entre otros. Su estudio detallado requiere pues la introduccin de axiomas y conduce a la teora de conjuntos.

Los diversos polgonos en la imagen constituyen un conjunto. Algunos de los elementos del conjunto, adems de ser polgonos son regulares. La coleccin de estos ltimos los polgonos regulares en la imagen es otro conjunto, en particular, un subconjunto del primero

Historia El concepto de conjunto como objeto abstracto no comenz a emplearse en matemticas hasta el siglo XIX, a medida que se despejaban las dudas sobre la nocin de infinito. Los trabajos de Bernard Bolzano y Bernhard Riemann ya contenan ideas relacionadas con una visin conjuntista de la matemtica. Las contribuciones de Richard Dedekind al lgebra estaban formuladas en trminos claramente conjuntistas, que an prevalecen en la matemtica moderna: relaciones de equivalencia, particiones, homomorfismos, etc., y l mismo explicit las hiptesis y operaciones relativas a conjuntos que necesit en su trabajo. La teora de conjuntos como disciplina independiente se atribuye usualmente a Georg Cantor. Comenzando con sus investigaciones sobre conjuntos numricos, desarroll un estudio sobre los conjuntos infinitos y sus propiedades. La influencia de Dedekind y Cantor empez a ser determinante a finales del siglo XIX, en el proceso de axiomatizacin de la matemtica, en el que todos los objetos matemticos, como los nmeros, las funciones y las diversas estructuras, fueron construidos en base a los conjuntos.
Probabilidad y Estadistica Pgina 4

Definicin Georg Cantor, uno de los fundadores de la teora de conjuntos, dio la siguiente definicin de conjunto: [...] entiendo en general por variedad o conjunto toda multiplicidad que puede ser pensada como unidad, esto es, toda coleccin de elementos determinados que pueden ser unidos en una totalidad mediante una ley. Los elementos o miembros de un conjunto pueden ser cualquier cosa: nmeros, personas, letras, otros conjuntos, etc. Los conjuntos se denotan habitualmente por letras maysculas.

Dos conjuntos A y B que tengan los mismos elementos son el mismo conjunto, A = B. A y B tienen los mismos elementos si cada elemento de A es elemento de B y cada elemento de B pertenece a A.

Descripcin de un conjunto

Conjunto de personas. El conjunto de personas mostrado en la imagen, A, tiene 8 miembros. Este conjunto puede representarse mediante llaves o mediante un diagrama de Venn. El orden de las personas en A es irrelevante. Probabilidad y Estadistica Pgina 5

Existen dos maneras de describir o especificar los elementos de un conjunto: Una de ellas es mediante una definicin intensiva o por comprensin, describiendo una condicin que cumplen sus elementos : A es el conjunto cuyos miembros son los nmeros enteros positivos menores que 5. B es el conjunto de colores de la bandera de Mxico. La segunda manera es por extensin, esto es, listando cada miembro del conjunto. En una definicin extensiva se escriben los elementos del conjuntos entre llaves: C = {4, 2, 3, 1} D = {blanco, rojo, verde} Puesto que un conjunto queda especificado nicamente por sus elementos, a menudo pueden usarse ambas definiciones, intensivas y extensivas, para especificar un mismo conjunto. Por ejemplo: El conjunto de las vocales en espaol = {e, u, a, i, o} En los ejemplos anteriores, se tiene que A = C y B = D Debido a la propiedad de la extensionalidad, el orden en el que se especifiquen los elementos de un conjunto es irrelevante (a diferencia de una tupla o una sucesin). Por ejemplo: C = {1, 2, 4, 3} es igual a C = {4, 2, 3, 1} D = {verde, blanco, rojo} es igual a D = {blanco, rojo, verde} Esto es as debido a que lo nico que define un conjunto son sus elementos. Por ejemplo, cada elemento de D es un elemento de D y viceversa, luego ambos son necesariamente el mismo conjunto. Del mismo modo, y a diferencia de un multiconjunto, cada elemento de un conjunto es nico: no puede repetirse o pertenecer ms de una vez. Esto significa que, por ejemplo: {4, 3, 2, 4} = {4, 2, 3} , ya que los elementos de ambos conjuntos son los mismos: el 4, el 3 y el 2. No sera el caso si los nmeros que consideramos tuvieran alguna otra propiedad que los diferenciase: {4, 3, 2, 4} es distinto de {4, 2, 3} y de {4, 2, 3}

Probabilidad y Estadistica

Pgina 6

Es habitual utilizar las llaves tambin en las definiciones intensivas, especificando la propiedad que define al conjunto: {Vocales del espaol} = {o, u, i, e, a} {Palos de la baraja francesa} = {, , , } Otra notacin habitual para denotar por comprensin es: A = {m : m es un entero, y 1 m 5} B = {c : c es un color de la bandera de Mxico} F = {n2 : n es un entero y 1 n 10} , donde en esta expresin los dos puntos (:) significan tal que. As, el conjunto F anterior es el conjunto de los nmeros de la forma n2 tal que n es un nmero natural entre 1 y 10 (ambos inclusive), o sea, el conjunto de los diez primeros cuadrados de nmeros naturales, {1, 4, 9, 16, 25, 36, 49, 64, 81, 100}. En lugar de los dos puntos se utiliza tambin la barra vertical (|) u oblicua / .

Pertenencia

La relacin clave en un conjunto es la pertenencia: cundo es un elemento miembro de un conjunto. Si a es un miembro de B, se denota por a B,4 y si no lo es, se denota por a B. Por ejemplo, respecto a los conjuntos A, B y F de la seccin anterior, podemos decir: 4 A , 36 F , verde B , pero

Probabilidad y Estadistica

Pgina 7

7 A , 8 F , azul B Y se dice entonces que 4 pertenece al conjunto A, 4 es un miembro de A, 4 est en A o A contiene 4.

Subconjuntos

Subconjunto. B es un subconjunto de A (en particular un subconjunto propio).

Un conjunto B es una parte o un subconjunto del conjunto A, si todo elemento de B es de A. Un conjunto B es un subconjunto del conjunto A si cada elemento de B es a su vez un elemento de A.

Esta definicin es equivalente a: si todo elemento de un conjunto B pertenece tambin a otro conjunto A se dice que B esta contenido en A, o bien que B esta incluido en A. Esta idea se indica con el signo y se lee 'esta contenido en'.

Probabilidad y Estadistica

Pgina 8

Un conjunto B es un subconjunto del conjunto A si: la interseccin entre A y B es el conjunto B.

Si B es un subconjunto de A, se escribe como B A y se dice que B est contenido en A. Tambin puede escribirse A B, y decirse que A es un superconjunto de B y tambin A contiene a B o A incluye a B.

Subconjunto propio e impropios En algunos textos de redaccin antigua diferencian entre los subconjuntos: los subconjuntos, los subconjuntos propios y los impropios, esta notacin no es aconsejable al ser obsoleta, dado que las estructuras algebraicas de orden y en lgebra de conjuntos, parten de la propiedad reflexiva, por eso un conjunto cualesquiera se considera un subconjunto de si mismo en todos los casos,9 y por ello se define: Dados dos conjuntos A y B, se dice que B es un subconjunto de A, si todo elemento de B pertenece a A, segn la siguiente notacin:

Dados dos conjuntos A y B, se dice que B es un subconjunto propio de A, si todo elemento de B pertenece a A, siendo A y B conjuntos distintos.

Dados dos conjuntos A y B, si A = B, se dice tambin que A es un subconjunto impropio de B, y tambin que B es un subconjunto impropio de A.

Si B no slo contiene algunos sino todos los elementos A, B no slo es un subconjunto de A, sino que ambos conjuntos son iguales, A = B. El otro caso posible es que B contenga algunos pero no todos los elementos de A: B es un subconjunto de A pero no son iguales. Se dice entonces que B es un subconjunto propio de A y se denota B A, es decir: B A pero B A (y equivalentemente, para un superconjunto propio, A B).
Probabilidad y Estadistica Pgina 9

10

Tambin se utiliza la notacin B A y A B, pero segn el autor esto puede denotar subconjunto, B A y A B; o subconjunto propio, B A y A B. Ejemplos. El conjunto de todos los hombres es un subconjunto propio del conjunto de todas las personas. {1, 3} {1, 2, 3, 4} {1, 2, 3, 4} {1, 2, 3, 4}

Probabilidad y Estadistica

Pgina 10

11

Unidad 3.- Distribuciones de Probabilidad


Distribuciones Discretas

Distribucin Binomial

En estadstica, la distribucin binomial es una distribucin de probabilidad discreta que mide el nmero de xitos en una secuencia de n ensayos de Bernoulli independientes entre s, con una probabilidad fija p de ocurrencia del xito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotmico, esto es, slo son posibles dos resultados. A uno de estos se denomina xito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribucin binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado nmero de xitos. Para n = 1, la binomial se convierte, de hecho, en una distribucin de Bernoulli. Para representar que una variable aleatoria X sigue una distribucin binomial de parmetros n y p, se escribe:

La distribucin binomial es la base del test binomial de significacin estadstica.

Funcin de Probabilidad Probabilidad y Estadistica Pgina 11

12

Funcin de Distribucin de Probabilidad

Ejemplos Las siguientes situaciones son ejemplos de experimentos que pueden modelizarse por esta distribucin:

Se lanza un dado diez veces y se cuenta el nmero X de treses obtenidos: entonces X ~ B(10, 1/6) Se lanza una moneda dos veces y se cuenta el nmero X de caras obtenidas: entonces X ~ B(2, 1/2) Una partcula se mueve unidimensionalmente con probabilidad p de moverse de aqui para all y 1-q de moverse de all para ac

Experimento binomial Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno de los experimentos es independiente de los restantes (la probabilidad del resultado de un experimento no depende del resultado del resto). El resultado de cada experimento ha de admitir slo dos categoras (a las que se denomina xito y fracaso). Las probabilidades de ambas posibilidades han de ser constantes en todos los experimentos (se denotan como p y q o p y 1-p). Se designa por X a la variable que mide el nmero de xitos que se han producido en los n experimentos.

Probabilidad y Estadistica

Pgina 12

13

Cuando se dan estas circunstancias, se dice que la variable X sigue una distribucin de probabilidad binomial, y se denota B(n,p). Caractersticas analticas Su funcin de probabilidad es

donde

siendo ) Ejemplo

las combinaciones de

en

elementos tomados de

en

Supongamos que se lanza un dado 50 veces y queremos la probabilidad de que el nmero 3 salga 20 veces. En este caso tenemos una X ~ B(50, 1/6) y la probabilidad sera P(X=20):

Propiedades

Relaciones con otras variables aleatorias Si tiende a infinito y es tal que el producto entre ambos parmetros tiende a , entonces la distribucin de la variable aleatoria binomial tiende a una distribucin de Poisson de parmetro . Por ltimo, se cumple que cuando n es muy grande (usualmente se exige que distribucin binomial puede aproximarse mediante la distribucin normal. ) la

Probabilidad y Estadistica

Pgina 13

14

Distribucin Geomtrica En teora de probabilidad y estadstica, la distribucin geomtrica es cualquiera de las dos distribuciones de probabilidad discretas siguientes:

la distribucin de probabilidad del nmero X del ensayo de Bernoulli necesaria para obtener un xito, contenido en el conjunto { 1, 2, 3,...} o la distribucin de probabilidad del nmero Y = X 1 de fallos antes del primer xito, contenido en el conjunto { 0, 1, 2, 3,... }.

Cual de stas es la que uno llama "la" distribucin geomtrica, es una cuestin de convencin y conveniencia. [editar] Propiedades Si la probabilidad de xito en cada ensayo es p, entonces la probabilidad de que x ensayos sean necesarios para obtener un xito es

para x = 1, 2, 3,.... Equivalentemente, la probabilidad de que haya x fallos antes del primer xito es

para x = 0, 1, 2, 3,.... En ambos casos, la secuencia de probabilidades es una progresin geomtrica. El valor esperado de una variable aleatoria X distribuida geomtricamente es

y dado que Y = X-1,

En ambos casos, la varianza es

Probabilidad y Estadistica

Pgina 14

15

Las funciones generatrices de probabilidad de X y la de Y son, respectivamente,

Como su anloga continua, la distribucin exponencial, la distribucin geomtrica carece de memoria. Esto significa que si intentamos repetir el experimento hasta el primer xito, entonces, dado que el primer xito todava no ha ocurrido, la distribucin de probabilidad condicional del nmero de ensayos adicionales no depende de cuantos fallos se hayan observado. El dado o la moneda que uno lanza no tiene "memoria" de estos fallos. La distribucin geomtrica es de hecho la nica distribucin discreta sin memoria. De todas estas distribuciones de probabilidad contenidas en {1, 2, 3,... } con un valor esperado dado , la distribucin geomtrica X con parmetro p = 1/ es la de mayor entropa. La distribucin geomtrica del nmero y de fallos antes del primer xito es infinitamente divisible, esto es, para cualquier entero positivo n, existen variables aleatorias independientes Y 1,..., Yn distribuidas idnticamente la suma de las cuales tiene la misma distribucin que tiene Y. Estas no sern geomtricamente distribuidas a menos que n = 1.

Distribucin por posicin o de Poisson

En teora de probabilidad y estadstica, la distribucin de Poisson es una distribucin de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad que ocurra un determinado nmero de eventos durante cierto periodo de tiempo. Fue descubierta por Simon-Denis Poisson, que la dio a conocer en 1838 en su trabajo Recherches sur la probabilit des jugements en matires criminelles et matire civile (Investigacin sobre la probabilidad de los juicios en materias criminales y civiles).

Probabilidad y Estadistica

Pgina 15

16

El eje horizontal es el ndice k. La funcin solamente est definida en valores enteros de k. Las lneas que conectan los puntos son solo guas para el ojo y no indican continuidad.
Funcin de probabilidad

El eje horizontal es el ndice k. Funcin de distribucin de probabilidad

Probabilidad y Estadistica

Pgina 16

17

Propiedades La funcin de masa de la distribucin de Poisson es

donde

k es el nmero de ocurrencias del evento o fenmeno (la funcin nos da la probabilidad de que el evento suceda precisamente k veces). es un parmetro positivo que representa el nmero de veces que se espera que ocurra el fenmeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribucin de Poisson con = 104 = 40. e es la base de los logaritmos naturales (e = 2,71828...)

Tanto el valor esperado como la varianza de una variable aleatoria con distribucin de Poisson son iguales a . Los momentos de orden superior son polinomios de Touchard en cuyos coeficientes tienen una interpretacin combinatorio. De hecho, cuando el valor esperado de la distribucin de Poisson es 1, entonces segn la frmula de Dobinski, el nsimo momento iguala al nmero de particiones de tamao n. La moda de una variable aleatoria de distribucin de Poisson con un no entero es igual a , el mayor de los enteros menores que (los smbolos representan la funcin parte entera). Cuando es un entero positivo, las modas son y 1. La funcin generadora de momentos de la distribucin de Poisson con valor esperado es

Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente divisibles. La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de parmetro 0 a otra de parmetro es

Probabilidad y Estadistica

Pgina 17

18

Intervalo de confianza Un criterio fcil y rpido para calcular un intervalo de confianza aproximada de es propuesto por Guerriero (2012).1 Dada una serie de eventos k (al menos el 15 - 20) en un periodo de tiempo T, los lmites del intervalo de confianza para la frecuencia vienen dadas por:

entonces los lmites del parmetro estn dadas por:

Probabilidad y Estadistica

Pgina 18

19

Distribuciones Continuas

Distribucin Gamma

En estadstica la distribucin gamma es una distribucin de probabilidad continua con dos parmetros y cuya funcin de densidad para valores es

Aqu es el nmero e y

es la funcin gamma. Para valores

la aquella es

(el factorial de ). En este caso - por ejemplo para describir un proceso de Poisson - se llaman la distribicin distribucin Erlang con un parmetro .

El valor esperado y la varianza de una variable aleatoria X de distribucin gamma son

[editar] Relaciones El tiempo hasta que el suceso nmero ocurre en un Proceso de Poisson de intensidad es una variable aleatoria con distribucin gamma. Eso es la suma de variables aleatorias independientes de distribucin exponencial con parmetro .

Probabilidad y Estadistica

Pgina 19

20

Distribucin Normal En estadstica y probabilidad se llama distribucin normal, distribucin de Gauss o distribucin gaussiana, a una de las distribuciones de probabilidad de variable continua que con ms frecuencia aparece aproximada en fenmenos reales. La grfica de su funcin de densidad tiene una forma acampanada y es simtrica respecto de un determinado parmetro estadstico. Esta curva se conoce como campana de Gauss y es el grfico de una funcin gaussiana. La importancia de esta distribucin radica en que permite modelar numerosos fenmenos naturales, sociales y psicolgicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenmenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observacin se obtiene como la suma de unas pocas causas independientes. De hecho, la estadstica es un modelo matemtico que slo permite describir un fenmeno, sin explicacin alguna. Para la explicacin causal es preciso el diseo experimental, de ah que al uso de la estadstica en psicologa y sociologa sea conocido como mtodo correlacional. La distribucin normal tambin es importante por su relacin con la estimacin por mnimos cuadrados, uno de los mtodos de estimacin ms simples y antiguos. Algunos ejemplos de variables asociadas a fenmenos naturales que siguen el modelo de la normal son:

caracteres morfolgicos de individuos como la estatura; caracteres fisiolgicos como el efecto de un frmaco; caracteres sociolgicos como el consumo de cierto producto por un mismo grupo de individuos; caracteres psicolgicos como el cociente intelectual; nivel de ruido en telecomunicaciones; errores cometidos al medir ciertas magnitudes; etc.

Probabilidad y Estadistica

Pgina 20

21

La distribucin normal tambin aparece en muchas reas de la propia estadstica. Por ejemplo, la distribucin muestral de las medias muestrales es aproximadamente normal, cuando la distribucin de la poblacin de la cual se extrae la muestra no es normal. 1 Adems, la distribucin normal maximiza la entropa entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la eleccin natural de la distribucin subyacente a una lista de datos resumidos en trminos de media muestral y varianza. La distribucin normal es la ms extendida en estadstica y muchos tests estadsticos estn basados en una supuesta "normalidad". En probabilidad, la distribucin normal aparece como el lmite de varias distribuciones de probabilidad continuas y discretas.

Distribucin normal

La lnea verde corresponde a la distribucin normal estndar Funcin de densidad de probabilidad

Probabilidad y Estadistica

Pgina 21

22

Funcin de distribucin de probabilidad

Propiedades Algunas propiedades de la distribucin normal son: 1. Es simtrica respecto de su media, ; 2. La moda y la mediana son ambas iguales a la media, ; 3. Los puntos de inflexin de la curva se dan para x = y x = + . 4. Distribucin de probabilidad en un entorno de la media: 1. en el intervalo [ - , + ] se encuentra comprendida, aproximadamente, el 68,26% de la distribucin; 2. en el intervalo [ - 2, + 2] se encuentra, aproximadamente, el 95,44% de la distribucin; 3. por su parte, en el intervalo [ -3, + 3] se encuentra comprendida, aproximadamente, el 99,74% de la distribucin. Estas propiedades son de gran utilidad para el establecimiento de intervalos de confianza. Por otra parte, el hecho de que prcticamente la totalidad de la distribucin se encuentre a tres desviaciones tpicas de la media justifica los lmites de las tablas empleadas habitualmente en la normal estndar. 5. Si X ~ N(, 2) y a y b son nmeros reales, entonces (aX + b) ~ N(a+b, a22).
Probabilidad y Estadistica Pgina 22

23

6. Si X ~ N(x, x2) e Y ~ N(y, y2) son variables aleatorias normales independientes, entonces:
o

Su suma est normalmente distribuida con U = X + Y ~ N(x + y, x2 + y2) (demostracin). Recprocamente, si dos variables aleatorias independientes tienen una suma normalmente distribuida, deben ser normales (Teorema de Crmer). Su diferencia est normalmente . distribuida con

Si las varianzas de X e Y son iguales, entonces U y V son independientes entre s. La divergencia de Kullback-Leibler,

7. Si e normalmente distribuidas, entonces:


o

son variables aleatorias independientes

Su producto

sigue una distribucin con densidad dada por

donde segundo tipo.


o

es una funcin de Bessel modificada de

Su

cociente

sigue

una

distribucin

de

Cauchy

con

. De este modo la distribucin de Cauchy es un tipo especial de distribucin cociente. 8. Si son variables normales estndar independientes, entonces sigue una distribucin con n grados de libertad. 9. Si media son variables normales estndar independientes, entonces la muestral y la varianza muestral

son independientes. Esta propiedad caracteriza a las distribuciones normales y contribuye a explicar por qu el test-F no es robusto respecto a la no-normalidad).
Probabilidad y Estadistica Pgina 23

24

Distribucin de probabilidad alrededor de la media en una distribucin N(, ).

APLICACIONES
Dos aplicaciones principales de la teora de la probabilidad en el da a da son en el anlisis de riesgo y en el comercio de los mercados de materias primas. Los gobiernos normalmente aplican mtodos probabilsticos en regulacin ambiental donde se les llama "anlisis de vas de dispersin", y a menudo miden el bienestar usando mtodos que son estocsticos por naturaleza, y escogen qu proyectos emprender basndose en anlisis estadsticos de su probable efecto en la poblacin como un conjunto. No es correcto decir que la estadstica est incluida en el propio modelado, ya que tpicamente los anlisis de riesgo son para una nica vez y por lo tanto requieren ms modelos de probabilidad fundamentales, por ej. "la probabilidad de otro 11-S". Una ley de nmeros pequeos tiende a aplicarse a todas aquellas elecciones y percepciones del efecto de estas elecciones, lo que hace de las medidas probabilsticas un tema poltico. Un buen ejemplo es el efecto de la probabilidad percibida de cualquier conflicto generalizado sobre los precios del petrleo en Oriente Medio - que producen un efecto domin en la economa en conjunto. Un clculo por un mercado de materias primas en que la guerra es ms probable en contra de menos probable probablemente enva los precios hacia arriba o hacia abajo e indica a otros comerciantes esa opinin. Por consiguiente, las probabilidades no se calculan independientemente y tampoco son necesariamente muy racionales. La teora de las finanzas conductuales surgi para describir el efecto de este pensamiento de grupo en el precio, en la poltica, y en la paz y en los conflictos.
Probabilidad y Estadistica Pgina 24

25

Se puede decir razonablemente que el descubrimiento de mtodos rigurosos para calcular y combinar los clculos de probabilidad ha tenido un profundo efecto en la sociedad moderna. Por consiguiente, puede ser de alguna importancia para la mayora de los ciudadanos entender cmo se calculan los pronsticos y las probabilidades, y cmo contribuyen a la reputacin y a las decisiones, especialmente en una democracia. Otra aplicacin significativa de la teora de la probabilidad en el da a da es en la fiabilidad. Muchos bienes de consumo, como los automviles y la electrnica de consumo, utilizan la teora de la fiabilidad en el diseo del producto para reducir la probabilidad de avera. La probabilidad de avera tambin est estrechamente relacionada con la garanta del producto. Se puede decir que no existe una cosa llamada probabilidad. Tambin se puede decir que la probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el grado de nuestra ignorancia dada una situacin. Por consiguiente, puede haber una probabilidad de 1 entre 52 de que la primera carta en un baraja sea la J de diamantes. Sin embargo, si uno mira la primera carta y la reemplaza, entonces la probabilidad es o bien 100% 0%, y la eleccin correcta puede ser hecha con precisin por el que ve la carta. La fsica moderna proporciona ejemplos importantes de situaciones determinsticas donde slo la descripcin probabilstica es factible debido a informacin incompleta y la complejidad de un sistema as como ejemplos de fenmenos realmente aleatorios. En un universo determinista, basado en los conceptos newtonianos, no hay probabilidad si se conocen todas las condiciones. En el caso de una ruleta, si la fuerza de la mano y el periodo de esta fuerza es conocido, entonces el nmero donde la bola parar ser seguro. Naturalmente, esto tambin supone el conocimiento de la inercia y la friccin de la ruleta, el peso, lisura y redondez de la bola, las variaciones en la velocidad de la mano durante el movimiento y as sucesivamente. Una descripcin probabilstica puede entonces ser ms prctica que la mecnica newtoniana para analizar el modelo de las salidas de lanzamientos repetidos de la ruleta. Los fsicos se encuentran con la misma situacin en la teora cintica de los gases, donde el sistema determinstico en principio, es tan complejo (con el nmero de molculas tpicamente del orden de magnitud de la constante de Avogadro ) que slo la descripcin estadstica de sus propiedades es viable.

La mecnica cuntica, debido al principio de indeterminacin de Heisenberg, slo puede ser descrita actualmente a travs de distribuciones de probabilidad, lo que le da una gran importancia a las descripciones probabilsticas. Algunos cientficos hablan de la expulsin del paraso. Otros no se conforman con la prdida del determinismo. Albert Einstein coment estupendamente en una carta a Max Born: Jedenfalls bin ich berzeugt, da der Alte nicht wrfelt. (Estoy convencido de que Dios no tira el dado). No obstante hoy en da
Probabilidad y Estadistica Pgina 25

26

no existe un medio mejor para describir la fsica cuntica si no es a travs de la teora de la probabilidad. Mucha gente hoy en da confunde el hecho de que la mecnica cuntica se describe a travs de distribuciones de probabilidad con la suposicin de que es por ello un proceso aleatorio, cuando la mecnica cuntica es probabilstica no por el hecho de que siga procesos aleatorios sino por el hecho de no poder determinar con precisin sus parmetros fundamentales, lo que imposibilita la creacin de un sistema de ecuaciones determinista.

Probabilidad y Estadistica

Pgina 26

You might also like