You are on page 1of 63

Statistics

Probability

OpenMaths.com 1.1.5.3 Ver 01:03/02/2010


NOTA
La clasificación decimal de todos los temas de este manual tienen
implícito el comienzo 1.1.5.3 correspondiente a

1 SCIENCE
1.1 MATHEMATICS
1.1.5 STATISTICS
1.1.5.3 PROBABILIDAD

COPYLEFT
Este material así como los applets, powerpoints, videos y archivos de
sonido asociados, puede ser distribuido bajo los términos y condiciones
definidos en Open Publication License versión 1.0 o posterior (La
versión más reciente está disponible en
http://www.opencontent.org/openpub/).
El contenido está sujeto a constantes cambios sin previo aviso. Su fin
es didáctico y solo pretende la universalización de la cultura. Está
escrito en base a la colaboración de las miles de personas que
componen nuestra comunidad OpenUepc. Se ha exigido a los autores
que referencien todas las fuentes utilizadas y figuran al final del texto.
Cualquier distribución del mismo debe mencionar a OpenUepc como
fuente.
Miguel Pérez Fontenla
miguelperez@edu.xunta.es

INDICE AUTORES

Iniciado por: Miguel Pérez Fontenla


12/12/2009
TABLA DE CONTENIDO
INTRODUCCIÓN ..................................................................................................................... 4
Introducción histórica ............................................................................................................ 4
APLICACIONES DE LA PROBABILIDAD ....................................................................... 5
ALGEBRA DE SUCESOS ........................................................................................................ 7
Conceptos básicos .................................................................................................................. 7
Experimento aleatorio ........................................................................................................ 7
Suceso elemental ................................................................................................................ 7
Espacio Muestral ................................................................................................................ 7
Suceso ................................................................................................................................ 9
Inclusión........................................................................................................................... 10
Conjunto Universal y conjunto vacio .............................................................................. 10
Sucesos iguales ................................................................................................................ 10
Suceso seguro................................................................................................................... 10
Suceso imposible ............................................................................................................. 11
Suceso contrario ............................................................................................................... 11
Conjunto de todos los sucesos (Ω) ................................................................................ 11
OPERACIONES CON SUCESOS .......................................................................................... 12
Unión de sucesos A ∪ B ..................................................................................................... 12
Intersección de sucesos A ∩ B ........................................................................................... 12
Diferencia de sucesos A \ B ................................................................................................. 12
Suceso contrario Ac .............................................................................................................. 13
ALGEBRA DE SUCESOS ...................................................................................................... 14
Leyes del álgebra de sucesos ............................................................................................... 14
Sucesos compatibles y sucesos incompatibles ..................................................................... 15
Sistema completo de sucesos ............................................................................................... 15
PROBABILIDAD .................................................................................................................... 17
Frecuencia absoluta y relativa .............................................................................................. 17
Espacios equiprobables ........................................................................................................ 18
Definición de Probabilidad. Regla de Laplace .................................................................... 19
Definición de Probabilidad como límite de frecuencias ...................................................... 20
DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD ........................................................... 21
Definición: Probabilidad ...................................................................................................... 21
Propiedades de la Probabilidad ............................................................................................ 21
PROBABILIDAD CONDICIONADA.................................................................................... 25

| INTRODUCCIÓN 1
Propiedades de la probabilidad condicionada ...................................................................... 28
Regla del producto ............................................................................................................... 31
Sucesos independientes ........................................................................................................ 31
El teorema de la probabilidad total ...................................................................................... 33
Teorema de Bayes ................................................................................................................ 34
APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA ............................................. 39
Prevalencia ........................................................................................................................... 39
Incidencia ............................................................................................................................. 39
Sensibilidad .......................................................................................................................... 39
Especificidad ........................................................................................................................ 39
MODELIZACION DE PROBLEMAS CON BOLAS Y URNAS ..................................... 47
However....................................................................................................................... 52

| INTRODUCCIÓN 2
| INTRODUCCIÓN 3
INTRODUCCIÓN

EL ORIGEN DE LA VIDA

El hecho de que se haya creado la vida sobre el planeta tierra es fruto de una tremenda
casualidad. Para cuantificar esta pequeñísima probabilidad se utiliza el siguiente simil:
El origen de la vida tiene la misma probabilidad de originarse que el hecho de que sobre una
chatarrería pase un huracán y mueva las piezas metálicas de tal forma que el el viento por si
solo ensamble un perfecto Boeing 747 lleno de carburante y preparado para emprender el
vuelo.

Introducción histórica
El estudio científico de la probabilidad es un desarrollo moderno. Los juegos de azar
muestran que ha habido un interés en cuantificar las ideas de la probabilidad durante
milenios, pero las descripciones matemáticas
exactas de utilidad en estos problemas sólo
surgieron mucho después.
Según Richard Jeffrey, "Antes de la mitad del
siglo XVII, el término 'probable' (en latín
probable) significaba aprobable, y se aplicaba
en ese sentido, unívocamente, a la opinión y a
la acción. Una acción u opinión probable era
una que las personas sensatas emprenderían o
mantendrían, en las circunstancias."[1]
Aparte de algunas consideraciones elementales
hechas por Girolamo Cardano en el siglo XVI,
la doctrina de las probabilidades data de la
correspondencia de Pierre de Fermat y Blaise
Pascal (1654). Christiaan Huygens (1657) le
dio el tratamiento científico conocido más
temprano al concepto. Ars Conjectandi
(póstumo, 1713) de Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre
trataron el tema como una rama de las matemáticas. Véase El surgimiento de la probabilidad
(The Emergence of Probability) de Ian Hacking para una historia de los inicios del desarrollo
del propio concepto de probabilidad matemática.
Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la
combinación de observaciones a partir de los principios de la teoría de las probabilidades.
Representó la ley de la probabilidad de error con una curva y = φ(x), siendo x cualquier error
e y su probabilidad, y expuso tres propiedades de esta curva:

1. es simétrica al eje y;
2. el eje x es una asíntota, siendo la probabilidad del error igual a 0;
3. la superficie cerrada es 1, haciendo cierta la existencia de un error.

| INTRODUCCIÓN 4
Dedujo una fórmula para la media de tres observaciones. También obtuvo (1781) una fórmula
para la ley de facilidad de error (un término debido a Lagrange, 1774), pero una que llevaba a
ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del máximo producto
de las probabilidades de un sistema de errores concurrentes.
En el siglo XIX, los autores de la teoría general incluían a Laplace, Sylvestre Lacroix (1816),
Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872),
Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De Morgan y George
Boole mejoraron la exposición de la teoría.
En 1930 Andréi Kolmogorov desarrolló la base axiomática de la probabilidad utilizando
teoría de la medida.

APLICACIONES DE LA PROBABILIDAD
Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis
de riesgo y en el comercio de los mercados de materias primas. Los gobiernos normalmente
aplican métodos probabilísticos en regulación ambiental donde se les llama "análisis de vías
de dispersión", y a menudo miden el bienestar usando métodos que son estocásticos por
naturaleza, y escogen qué proyectos emprender basándose en análisis estadísticos de su
probable efecto en la población como un conjunto. No es correcto decir que la estadística está
incluida en el propio modelado, ya que típicamente los análisis de riesgo son para una única
vez y por lo tanto requieren más modelos de probabilidad fundamentales, por ej. "la
probabilidad de otro 11-S". Una ley de números pequeños tiende a aplicarse a todas aquellas
elecciones y percepciones del efecto de estas elecciones, lo que hace de las medidas
probabilísticas un tema político.
Un buen ejemplo es el efecto de la probabilidad percibida de cualquier conflicto generalizado
sobre los precios del petróleo en Oriente Medio - que producen un efecto dominó en la
economía en conjunto. Un cálculo por un mercado de materias primas en que la guerra es
más probable en contra de menos probable probablemente envía los precios hacia arriba o
hacia abajo e indica a otros comerciantes esa opinión. Por consiguiente, las probabilidades no
se calculan independientemente y tampoco son necesariamente muy racionales. La teoría de
las finanzas conductuales surgió para describir el efecto de este pensamiento de grupo en el
precio, en la política, y en la paz y en los conflictos.
Se puede decir razonablemente que el descubrimiento de métodos rigurosos para calcular y
combinar los cálculos de probabilidad ha tenido un profundo efecto en la sociedad moderna.
Por consiguiente, puede ser de alguna importancia para la mayoría de los ciudadanos
entender cómo se cálculan los pronósticos y las probabilidades, y cómo contribuyen a la
reputación y a las decisiones, especialmente en una democracia.
Otra aplicación significativa de la teoría de la probabilidad en el día a día es en la fiabilidad.
Muchos bienes de consumo, como los automóviles y la electrónica de consumo, utilizan la
teoría de la fiabilidad en el diseño del producto para reducir la probabilidad de avería. La
probabilidad de avería también está estrechamente relacionada con la garantía del producto.
Se puede decir que no existe una cosa llamada probabilidad. También se puede decir que la
probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el grado de nuestra
| INTRODUCCIÓN 5
ignorancia dada una situación. Por consiguiente, puede haber una probabilidad de 1 entre 52
de que la primera carta en un baraja de cartas es la J de diamantes. Sin embargo, si uno mira
la primera carta y la reemplaza, entonces la probabilidad es o bien 100% o 0%, y la elección
correcta puede ser hecha con precisión por el que ve la carta. La física moderna proporciona
ejemplos importantes de situaciones determinísticas donde sólo la descripción probabilística
es factible debido a información incompleta y la complejidad de un sistema así como
ejemplos de fenómenos realmente aleatorios.
En un universo determinista, basado en los conceptos newtonianos, no hay probabilidad si se
conocen todas las condiciones. En el caso de una ruleta, si la fuerza de la mano y el periodo
de esta fuerza es conocido, entonces el número donde la bola parará será seguro.
Naturalmente, esto también supone el conocimiento de la inercia y la fricción de la ruleta, el
peso, lisura y redondez de la bola, las variaciones en la velocidad de la mano durante el
movimiento y así sucesivamente. Una descripción probabilística puede entonces ser más
práctica que la mecánica newtoniana para analizar el modelo de las salidas de lanzamientos
repetidos de la ruleta. Los físicos se encuentran con la misma situación en la teoría cinética
de los gases, donde el sistema determinístico en principio, es tan complejo (con el número de
moléculas típicamente del orden de magnitud de la constante de Avogadro ) que
sólo la descripción estadística de sus propiedades es viable.
La mecánica cuántica, debido al principio de indeterminación de Heisenberg, sólo puede ser
descrita actualmente a través de distribuciones de probabilidad, lo que le da una gran
importancia a las descripciones probabilísticas. Algunos científicos hablan de la expulsión del
paraíso.[cita requerida] Otros no se conforman con la pérdida del determinismo. Albert Einstein
comentó estupendamente en una carta a Max Born: Jedenfalls bin ich überzeugt, daß der Alte
nicht würfelt. (Estoy convencido de que Dios no tira el dado). No obstante hoy en día no
existe un medio mejor para describir la física cuántica si no es a través de la teoría de la
probabilidad. Mucha gente hoy en día confunde el hecho de que la mecánica cuántica se
describe a través de distribuciones de probabilidad con la suposición de que es por ello un
proceso aleatorio, cuando la mecánica cuántica es probabilística no por el hecho de que siga
procesos aleatorios sino por el hecho de no poder determinar con precisión sus parámetros
fundamentales, lo que imposibilita la creación de un sistema de ecuaciones determinista.
Fuente: http://es.wikipedia.org/wiki/Probabilidad

| INTRODUCCIÓN 6
ALGEBRA DE SUCESOS

Conceptos básicos

Experimento aleatorio

En el diccionario de María Moliner se define aleatorio como aquello que depende de la suerte
o el azar. Pero la palabra aleatorio viene de la palabra latina aleo que significa suerte. Muy
conocida es la frase de Julio César “Alea Jacta est” que significa “La suerte está echada”
momentos antes de iniciar el cruce del rio Rubicón que separaba Italia de la Galia.
Más anécdotas en

http://www.isftic.mepsyd.es/w3/recursos/bachillerato/matematicas/probabilidad/busquedas/busquedasm.htm

En la naturaleza existen dos tipos de experimentos, los determinísticos y los aleatorios. El


experimento aleatorio es aquel en el que no podemos predecir el resultado, están sujetos al
azar, por ejemplo si o lanzas una moneda para saber si sale cara o cruz, si tiras un dado, si
extraes una carta de una baraja española de 40 cartas, saber el sexo de un niño antes de
nacimiento, el resultado de una ruleta, todos ellos son experimentos aleatorios.
Los experimentos determinísticos son aquellos que se rigen por leyes y por tanto podemos
predecir de antemano el resultado si las condiciones iniciales no varían. Por ejemplo que
volumen ocupa un gas a una determinada presión y temperatura, cual será la hipotenusa de un
triángulo rectángulo de catetos que midan 3 y 4. Un mismo juego puede ser aleatorio o
determinista si conoces la estrategia, por ejemplo el acorralado.
Actualmente, se habla también de experimentos caóticos, que son aquellos que con una
mínima (imperceptible o infinitamente pequeña) variación de las condiciones iniciales, el
resultado final es completamente diferente, por ejemplo si dejas caer varias canicas iguales de
tu mano al suelo, siempre desde la misma exacta posición, la ubicación final de las mismas en
el suelo sea muy diferente. El famoso efecto mariposa es el típico ejemplo de fenómeno
caótico.

Suceso elemental

Es cada uno de los resultados posibles que pueden ocurrir en un experimento aleatorio.
Así al lanzar una moneda hay dos posibles sucesos elementales: que salga cara o que salga
cruz. De la misma forma al lanzar un dado se pueden dar 6 sucesos elementales distintos, que
salga un 1, o un 2, o un 3, o un 4, o un 5 o un 6.

Espacio Muestral

El espacio muestral de un experimiento aleatorio, que denotaremos siempre por Ω, es el


conjunto de todos los resultados posibles que se pueden obtener en un experimento aleatorio.

Ejemplos

| ALGEBRA DE SUCESOS 7
Veamos unos ejemplos de espacios muestrales que vamos a usar muy frecientemente
en lo que sigue:

Tirar una moneda


Ω = { C, X }

Tirar dos monedas


Ω = { CC, CX, XC, XX }

Tirar tres monedas


Ω = { CCC, CCX, CXC, XCC, CXX , XCX, XXC, XXX }

Tirar un dado

Ω={ 1, 2, 3, 4, 5, 6 }
Tirar dos dados

Ω= { (1,1), (1,2), (1,3), (1,4), (1,5), (1,6)

(2,1), (2,2), (2,3), (2,4), (2,5), (2,6)


(3,1), (3,2), (3,3), (3,4), (3,5), (3,6)
(4,1), (4,2), (4,3), (4,4), (4,5), (4,6)
(5,1), (5,2), (5,3), (5,4), (5,5), (5,6)
(6,1), (6,2), (6,3), (6,4), (6,5), (6,6) }

| ALGEBRA DE SUCESOS 8
Extraer una ficha de domino
Ω = { (0,0), (1,0), (2,0), (3,0), (4,0), (5,0), (6,0),
(1,1), (2,1), (3,1), (4,1), (5,1), (6,1),
(2,2), (3,2), (4,2), (5,2), (6,2),
(3,3), (4,3), (5,3), (6,3),
(4,4), (5,4), (6,4),
(5,5), (6,5),
(6,6) }

Un dado y una moneda


Ω = { (C,1), (C,2), (C,3), (C,4), (C,5), (C,6),
(X,1), (X,2), (X,3), (X,4), (X,5), (X,6) }

Una carta de una Baraja española


Ω = { 1O, 2O, 3O, 4O, 5O, 6O, 7O, SO, CO, RO,
1C, 2C, 3C, 4C, 5C, 6C, 7C, SC, CC, RC,
1E, 2E, 3E, 4E, 5E, 6E, 7E, SE, CE, RE,
1B, 2B, 3B, 4B, 5B, 6B, 7B, SB, CB, RB }

Suceso

Es un subconjunto A cualquiera de sucesos


elementales de un espacio muestral Ω
Utilizaremos la notación conjuntista y los diagramas
de Venn
Al igual que en la teoría de conjuntos, y al tratarse
los sucesos de conjuntos dentro de un conjunto más
general que llamamos espacio muestral, toda la teoría
y propiedades dados entonces son válidos aqui, pero
repetiremos algunos conceptos adaptados a la nueva
terminología de algebra de sucesos en lugar de
algebra de conjuntos.
Los sucesos elementales son entonces sucesos unitarios o de un solo elemento de Ω
| ALGEBRA DE SUCESOS 9
Los sucesos, como cualquier conjunto, pueden estar definidos por extensión o por
comprensión. Así, el suceso A de los primos menores que 20 se puede escribir de dos
maneras, por comprensión A = { conjunto de nºs primos menores que 20 } o por extensión A
= { 2, 3, 5, 7, 11, 13, 17, 19 }

Inclusión

Dados A y B sucesos de Ω, diremos que el suceso


B es un subconjunto otro suceso A, y se escribe

B ⊂ A, si todos los elementos de B son tambien


elementos de A.
Escrito en notación conjuntista queda:
B ⊂ A ⇔ [∀a ∈ B ⇒ a ∈ A]

Se puede usar la inclusión en sentido inverso, es


decir es equivalente decir B ⊂ A, o A ⊃ B.

Se pueden usar la notación de las negaciones de estos símbolos como la ⊄

También mencionar que B ⊂ A no excluye la posibilidad que B = A, cuando sí ocurre que B


⊂ A pero además B ≠ A, entonces decimos que B es un subconjunto propio de A

Conjunto Universal y conjunto vacio

Recordemos que el conjunto universal es un ente imaginario que es el conjunto de todos los
posibles conjuntos. Es decir, cualquier conjunto que te imagines, siempre estará contenido en
uno enorme que es el universal y que denotaremos con la letra .

También recordemos que existe el conjunto de ningún elemento, que en nuestro caso sería un
suceso de ningún elemento que denominamos suceso vacío y lo denotamos con la letra
símbolo ∅

Sucesos iguales

Diremos que dos sucesos A y B de Ω, son iguales si tiene los mismos elementos.

En definición conjuntista se dice que los sucesos A = B ⇔ [ A ⊂ B ∧ B ⊂ A]

Suceso seguro

Es aquel suceso A que se cumple siempre en todos los elmentos del espacio muestral Ω.

Ejemplo
Obtener un nº menor que 7 al lanzar un dado
Obtener cara o cruz al lanzar una moneda

| ALGEBRA DE SUCESOS 10
Suceso imposible

Es aquel suceso A que no se cumple en elemnto alguno del espacio muestral Ω.

Lo simbolizaremos igual que el conjunto vacio ⌀.

Ejemplo
Obtener un nº superior a 6 al lanzar un dado
Obtener suma 1 al lanzar dos dados.

Suceso contrario

Dado el suceso A ∊ Ω, se define el suceso contrario de A, y se escribe Ac (también puede


aparecer aquí y en algunos autores con la notación A
), como el suceso formado por los elementos de Ω
que no pertenecen a A.
Otra definición equivalente es: Ac es el contrario de
A si y solo si  x ∈ Ac ⇒ x ∉ A 

En términos conjuntistas A es el complementario de


A en el espacio universal 

Ejemplo
Al lanzar un dado, el suceso contrario a A = { obtener múltiplo de 3} = { 3, 6 } es
Ac = { 1, 2, 4, 5}
Al lanzar dos monedas, el suceso contrario a A = { obtener lo msimo en ambas
monedas } = { (C,C), (X,X)} es Ac = { (C,X), (X,C) }

Conjunto de todos los sucesos  (Ω)

Dado un espacio muestral Ω, definimos el conjunto (Ω) como el conjunto de todos los
posibles sucesos que pueden estar incluídos en Ω

| ALGEBRA DE SUCESOS 11
OPERACIONES CON SUCESOS

Sean A y B dos sucesos de un espacio muestral Ω

Unión de sucesos A ∪ B

Sean A, B ∊ Ω, se define unión de A y B, y se escribe


A ∪ B , como el suceso formado por los elementos que
pertenecen a A ó a B ó a ambos

A ∪ B = {x / x ∈ A ∨ x ∈ B}

Con diagramas de Venn queda según el gráfico adjunto

Intersección de sucesos A ∩ B

Sean A, B ∊ Ω, se define intersección de A y B, y se escribe


A ∩ B , como el suceso formado por los elementos que
pertenecen simultáneamente a A y a B.

A ∩ B = { x / x ∈ A ∧ x ∈ B}

Diferencia de sucesos A \ B

Sean A, B ∊ Ω, se define diferencia de A y B, y se escribe


A \ B , como el suceso formado por los elementos que
pertenecen simultáneamente a A pero no a B.

A \ B = { x / x ∈ A ∧ x ∉ B}

| OPERACIONES CON SUCESOS 12


Suceso contrario Ac

Dado el suceso A ∊ Ω, se define el suceso contrario de


A, y se escribe Ac (complementario en términos
conjuntistas),como el suceso formado por los elementos
de  que no pertenecen a A.

Ac = { x / x ∈U ∧ x ∉ A}

Es decir, que también podemos interpretarlo como


Ac = U \ A

Ejemplo
Sea  = ℕ y sean A = { 2, 3, 5, 7, 11, 13} y sea B = { 1, 3, 5, 7, 9, 11, 13, 15}
entonces
A⋃B = { 1, 2, 3, 5, 7, 9, 11, 13, 15}

A⋂B = { 3, 5, 7, 11, 13}

A\B = { 2}

Ac = { 1, 4, 6, 8, 10, 12, 14, 16, ....} ={ 1 } ⋃ {pares a partir del 4}

| OPERACIONES CON SUCESOS 13


ALGEBRA DE SUCESOS

Definición: Algenra de Sucesos


Sea Ω un espacio muestral.

Consideramos una familia (Ω) de sucesos de Ω y axiomáticamente le exigimos:

1. El suceso imposible ⌀ pertenece a (Ω).


2. Si un suceso está en (Ω) también lo está su contrario: A ⊂ (Ω) => Ac (Ω)
3. Si la sucesión numerable de sucesos A1, A2, ..., An pertenece a (Ω) entonces su
unión ∪ ni=1 Ai pertence tambien a (Ω).
Pues bien, toda familia de sucesos (Ω) que verifique estos tres axiomas le llamamos álgebra
de sucesos.

Ejemplos

{ }
El conjunto ℑ ( Ω ) = ∅,U , A, A es un álgebra de sucesos

Leyes del álgebra de sucesos


Sean A, B, C sucesos de un espacio muestral Ω

Ley Ley dual

Idempotencia A⋃A=A A⋂A=A

Asociativa (A ⋃ B) ⋃ C A ⋂ (B ⋂ C)

Conmutativa A⋃B=B⋃A A⋂B=B⋂A

Distributiva A ⋃ (B ⋂ C) = (A ⋃ B) ⋂ (A ⋃ A ⋂ (B ⋃ C) = (A ⋂ B) ⋃ (A ⋂
C) C)

Identidad A⋃⌀=A A⋂=A

A⋃= A⋂⌀=⌀

Complemento A ⋃ Ac =  A ⋂ Ac = ⌀

(Ac )c = A c = ⌀ y ⌀c = 

Morgan (A ⋃ B) c = A c ⋂ B c (A ⋂ B) c = A c ⋃ B c

Todas estas leyes son leyes del álgebra de conjuntos y están demostradas en lógica al estudiar
el álgebra de proposiciones, luego omitimos aquí su demostración.

| ALGEBRA DE SUCESOS 14
Las leyes duales se obtienen se obtienen cambiando en la ley original las uniones ⋃ por
intersecciones ⋂ y permutando los conjuntos universal y vacio entre si. Se prueba en algebra
de conjuntos que si una ley es cierta también lo es su dual.

Sucesos compatibles y sucesos incompatibles


Diremos que dos sucesos A y B de Ω, son incompatibles si no tienen ningún elemento
común. También se pueden definir como que A ⋂ B =
⌀. (disjuntos en terminología conjuntista)

En caso contrario, si tienen elementos comunes, se dicen


compatibles. Es decir, A y B son compatibles si A ⋂ B
≠ ⌀.

En particular, dos sucesos contrarios son siempre


incompatibles.
En general, la sucesión de sucesos A1, A2, ..., An de Ω,
se dicen incompatibles si son incompatibles dos a dos, es decir si:
Ai ∩ Aj = ∅; ∀i ≠ j; i, j ∈ {1, 2,.., n}

Ejemplo
Al lanzar un dado los sucesos A = {sacar un nº par} y B = {sacar un múltiplo de 5}
son incompatibles.
Sin embargo, A = {sacar un nº par} y B = {sacar un número primo} son compatibles
pues el 2 pertenece a A y a B.

Sistema completo de sucesos


Se dice que los sucesos A1, A2, ..., An de Ω forman un sistema completo de sucesos del
espacio muestral Ω si todos los Ai , Aj son incompatibles dos a dos y además, cualquier
prueba del experimento aleatorio solo puede ser verificada por solo uno de los sucesos.
En terminología conjuntista diremos

A1, A2, ..., An sistema completo <=>  Ai ∩ A j = ∅; ∀i ≠ j  y  ∪ ni=1 Ai = Ω 

En terminología conjuntista también se denomina recubrimiento

Ejemplo
Dos sucesos contrarios, por si solos, forman siempre un sistema de sucesos

| ALGEBRA DE SUCESOS 15
Dado el experimento aleatorio lanzar 2 dados, uno primero rojo y otro segundo verde,
consideramos los sucesos A1, A2, A3, A4, A5, A6, donde Ai es el suceso consistente en
sacar un i en el dado rojo:
Ai = { (i,1), (i,2), (i,3), (i,4), (i,5), (i,6) }
El conjunto { Ai } constituye un sistema de sucesos, pues los Ai son disjuntos y
∪6i =1 Ai = Ω

Partición del espacio muestral Ω

Decimos que los sucesos A1, A2, A3,...,An representan una partición de Ω, si:

a) Ai ∩ Aj = φ ; ∀i ≠ j .

k
b) ∪ A = Ω.
i
i =1

c) P ( Ai ) > 0, ∀i

En otras palabras, cuando se efectúa una


prueba del experimento aleatorio con
espacio muestral Ω,, ocurre uno y sólo uno
de los eventos Aj.

| ALGEBRA DE SUCESOS 16
PROBABILIDAD

Frecuencia absoluta y relativa


Dado un experimento aleatorio tenemos dos maneras de afrontar su estudio.
La primera manera es por la propia experimentación, como su nombre indica, realizando n
pruebas del mismo, de tal manera que dado cualquier suceso A del espacio muestral Ω,
Llamamos f(A), que denominaremos frecuencia absoluta de A, al numero de veces que
sucede A:
f(A) = nº veces que sucede A a lo largo de n pruebas
Denominamos frecuencia relativa, y denotaremos fr(A) al cociente

f(A)
fr ( A) =
n
Esta función tiene una serie de propiedades tales como

• fr(A) es un número perteneciente a los números racionales ℚ donde 0 ≤ fr ( A) ≤ 1


• La frecuencia relativa de suceso seguro S es 1: fr(S) = 1
• La frecuencia relativa de suceso imposible ⌀ es 0: fr(⌀) = 0
• La suma de las frecuencias relativas del suceso A y de su contrario Ac es 1: fr(A) +
fr(Ac) = 1
• Si A y B son sucesos incompatibles, entonces fr(A⋃B) = fr(A) + fr(B)
• Al aumentar el número de pruebas n, la frecuencia relativa tienede siempre a un
número fijo. Esta propiedad se conoce como ley de los grandes números.

Ejemplo
Supongamos que no hemos estudiado nada de lo que hemos expuesto hasta ahora y
quisiésemos estudiar el experimento aleatorio de lanzar dos monedas, y en él
quisiésemos obtener la frecuencia relativa con la sale una cara y una cruz.
Supongamos también que lanzamos las dos monedas al aire n = 10 veces obteniendo
los resultados expresados en la siguiente tabla:

Lanzamiento 1 2 3 4 5 6 7 8 9 10

Resultado CyX XyX CyX CyC CyC XyX CyX CyC CyX XyX

Las frecuencias obtenidas vendrían simplificadas en la tabla siguiente:

| PROBABILIDAD 17
Resultado Frecuencia Absoluta Frecuencia relativa

Dos caras 3 3/10 = 0.3

Cara y Cruz 4 4/10 = 0.4

Dos cruces 3 3/10 = 0.3

Con estos datos se podrían concluir conclusiones erróneas, tales como que la
frecuencia relativa de los tres sucesos es la misma. Sin embargo, si en lugar de n = 10,
hacemos n = 100 pruebas un resultado de las frecuencias obtenidas bien podrían ser
algo similar a la tabla:

Resultado Frecuencia Absoluta Frecuencia relativa

Dos caras 27 27/100 = 0.27

Cara y Cruz 52 52/100 = 0.52

Dos cruces 21 21/100 = 0.21

Con lo que ya empezamos a intuir que estáráimos equivocados en ese supuesto


anterior y que P(Cara y Cruz) es el doble que cualquiera de las otras dos.
Si seguimos aumentando el número de pruebas se tendría que P(Cara y Cruz) tendería
a 1/2
Ver applet para una moneda en Descartes :

http://descartes.cnice.mec.es/materiales_didacticos/Azar_y_Probabilidad_jpr/lasmonedas.htm

La segunda manera es sin experimentación, es decir, sin realizar pruebas, sino estableciendo
un modelo matemático del que podamos obtener la frecuencia relativa que, en este caso,
llamaremos probabilidad matemática, o simplemente probabilidad, y la introducimos a
continuación como sigue:

Espacios equiprobables
Si en un espacio muestral Ω todos los sucesos elementales que lo componen tiene la misma
probabilidad, se dice que Ω es un espacio equiprobable. Así pues, un espacio muestral con n
elementos equiprobables, cada uno tendrá una probabilidad 1/n, y si un suceso tiene k
elementos, la probabilidad de que ocurra será k/n.
En general, la mayoría de los espacios con los que vamos a trabajar son equiprobables, pues
provienen de juegos tales como una baraja, un dado, una moneda, una bola en una bolsa, etc.

| PROBABILIDAD 18
Definición de Probabilidad. Regla de Laplace
En 1812 el matemático francés Pierre Laplace escribió un tratado llamado Teoría Analítica
de las probabilidades en el que reunió todo el conocimiento hasta ese momento acerca de
este tema. En dicho tratado definió probabilidad de forma matemática, sin necesidad de
pruebas, de la siguiente manera:
Sea A un suceso de un espacio muestral Ω, definimos probabilidad del suceso A como

nº maneras favorables a que suceda A


P( A) =
nº todos los sucesos posibles en Ω

Esta definición proviene al hecho comentado de que la probabilidad surgió como


consecuencia del estudio de los juegos de azar, así podemos ilustrarla con los siguientes
ejemplos

Ejemplos
a) Si estamos tirando una moneda, el espacio muestral es Ω = { C, X }, luego el nº de
suscesos posibles en Ω es 2. Entonces si queremos calcular la probabilidad de cara
sería:
nº maneras favorables a que suceda "cara" 1
P(C ) = =
nº todos los sucesos posibles en Ω 2

b) Si estamos tirando un dado, el espacio muestral es Ω = { 1, 2, 3, 4, 5, 6 }, luego el


nº de suscesos posibles en Ω es 6. Entonces si queremos calcular las probabilidades:
1
P ({sacar un 5} ) =
6
3
P ({sacar un par} ) = P ({2, 4, 6} ) =
6
3
P ({sacar un primo}) = P ({2, 3, 5} ) =
6
2
({ })
P sacar un 3ɺ = P ({3, 6} ) =
6

c) Si estamos tirando dos dados, el espacio muestral está descrito anteriormente, con
un nº de suscesos posibles en Ω de 36. Entonces:
1
P ({sacar suma 2} ) = P ({(1,1)} ) =
36
2
P ({sacar suma 3} ) = P ({(1,2), (2,2)} ) =
36
6
P ({sacar suma 7} ) = P ({(1,6), (6,1), (2,5), (5,2), (4, 3), (3,4) }) = ç
36
3
P ({sacar suma 10} ) = P ({(4,6), (6,4), (5,5)}) =
36
6
P ({sacar suma mayor de 9} ) = P ({(4,6), (6,4), (5,5), (5,6), (6,5), (6,6)}) =
36
| PROBABILIDAD 19
Definición de Probabilidad como límite de frecuencias
Al hablar de las frecuencias relativas hemos comentado que al aumentar el número de
pruebas n, la frecuencia relativa tienede siempre a un número fijo. Este número fijo le
llamamos probabilidad y lo definimos formalmente como

f ( A)
P( A) = lim
n →∞ n
Esta definición no resulta muy práctica porque para calcular cada probabilidad de un suceso
tendríamos que realizar un gran número de pruebas

| PROBABILIDAD 20
DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD

No fue hasta 1933 cuando el


matemático ruso Andrei Kolmogorov
proporcionó un nuevo enfoque a la
teoría de las probabilidades, usando
todo el bagage de la Teoría de
Conjuntos y mediante el álgebra de
sucesos proporcionó la denominada
Definición axiomática de
Probabilidad que con muy pocos
axiomas iniciales, solo tres, dotó a la
probabilidad de un modelo
matemático riguroso y preciso y que
exponemos a continuación:

Definición: Probabilidad
La probabilidad es una función definida de forma que a cada suceso aleatorio A, le asigna un
número real perteneciente al intervalo [0,1]. Esto es:

Ω 
P
→ [ 0,1] ⊂ ℝ
A 
→ P ( A)

Esta función P debe verificar tres axiomas

i. P ( A) ≥ 0;∀ A ⊂ Ω
ii. P(Ω) = 1
iii. Si A1,A2,…,An son n sucesos incompatibles de Ω entonces se verifica que
P( A1 ∪ A2 ∪ .... ∪ An ) = P( A1 ) + P( A2 ) + ... + P( An ) , o lo que es lo mismo
n
P ( ∪ ni=1 Ai ) = ∑ P ( Ai )
i =1

Propiedades de la Probabilidad

1. P(⌀) = 0
2. P(A) = P(A ⋂ B) + P(A ⋂ Bc)
3. Si B ⊂ A => P(B) ≤ P(A)
4. P(A) + P(Ac) = 1
5. P(A\B) = P(A) – P(A ⋂ B)

| DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD 21


6. Si A y B son dos sucesos compatibles de Ω, entonces P(A ⋃ B) = P(A) + P(B) – P(A
⋂ B)
7. Para tres conjuntos A , B y C se tiene que
P(A ⋃ B ⋃ C) = …

...= P(A) + P(B) + P(C) – P(A ⋂ B) - P(A ⋂ C) - P(B ⋂ C) + P(A ⋂ B ⋂ C)

Se verifican además todas las leyes del álgebra de sucesos

Demostración
1. Sea A un suceso cualquiera, entonces A ⋂ ⌀ = ⌀ por lo que A y ⌀ son incompatibles y
podemos aplicar el axioma iii:
P ( A ) = P ( A ∪ ∅ ) = P ( A) + P ( ∅ ) ⇒ P ( ∅ ) = P ( A) − P ( A ) = 0

2. Siempre se cumple que B ⋃ Bc =  (Ver diagrama adjunto) y como A ⋂  = A


entonces sustituyendo A = A ⋂  = A ⋂ (B ⋃ Bc ) . Por la propiedad distributiva de la
unión de sucesos con respecto a la intersección se tiene que A = (A ⋂ B) ⋃ (A ⋂ Bc);
donde además también resulta que

(A ⋂ B) ⋂ (A ⋂ Bc) = ⌀, es decir, son incompatibles.

Aplicando el axioma iii tenemos entonces que:

P(A) = P(A ⋂ B) + P(A ⋂ Bc)

3. Si B ⊂ A entonces A = B ⋃ A\B y además B y A\B son incompatibles pues B ⋂ A\B


= ⌀, entonces por el axioma iii se tiene que: P(A) = P(B ⋃ A\B) = P(B) + P(A\B)

Por el axioma i P(A\B) ≥ 0 para cualquier suceso de Ω luego P(B) ≤ P(A)

| DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD 22


4. A y Ac son incompatibles dado que A ⋂ Ac = ⌀ entonces por el axioma iii se tiene que

P(A ⋃ Ac) = P(A) + P(Ac) = 1

5. Si A y B son dos sucesos cualesquiera, entonces A se puede escribir como unión de dos
sucesos incompatibles A = (A\B) ⋃ (A ⋂ B) , por lo que aplicando el axioma iii tenemos:

P(A) = P[(A\B) ⋃ (A ⋂ B)] = P(A\B) + P(A ⋂ B) por lo que despejando P(A\B) = P(A) –
P(A ⋂ B)

6. Se tiene que A ⋃ B = A\B ⋃ B donde A\B y B son dos sucesos incompatibles por lo que
aplicando el axioma iii P(A ⋃ B) = P(A\B) + P(B). Si aplicamos ahora el teorema anterior y
sustituimos: P(A ⋃ B) = P(A\B) + P(B) = P(A) + P(B) – P(A ⋂ B)

| DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD 23


7. Para demostrarlo basta escribir A ⋃ B ⋃ C como (A ⋃ B) ⋃ C y aplicar la propiedad 6 a
los dos conjuntos, uno el (A ⋃ B) y otro el C, de esta forma quedaría que

P(A ⋃ B ⋃ C) = P [(A ⋃ B) ⋃ C] = P(A ⋃ B) + P(C) – P[(A ⋃ B) ⋂ C] y aplicando la


propiedad distributiva de la unión respecto a la intersección

P(A ⋃ B ⋃ C) = P(A) + P(B) – P(A ⋂ B) + P(C) – P[(A ⋂ C) ⋃ (B ⋂ C)] = …

…= P(A) + P(B) + P(C) – P(A ⋂ B) – P(A ⋂ C) - P(B ⋂ C) + P[(A ⋂ C) ⋂ (B ⋂ C)] =

…= P(A) + P(B) + P(C) – P(A ⋂ B) – P(A ⋂ C) - P(B ⋂ C) + P(A ⋂ B ⋂ C)

Ejemplo
En un colegio mayor donde hay 320 residentes, hay
15 que practican fútbol, baloncesto y atletismo, 23
que practican fútbol y baloncesto, 28 fútbol y
atletismo, 36 baloncesto y atletismo, 61 fútbol, 64
baloncesto y 75 atletismo. ¿Cuántos no practican
ningún deporte?

| DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD 24


PROBABILIDAD CONDICIONADA

La probabilidad condicionada puede ser identificada, en el ámbito de los ejercicios y


problemas relacionados con ella, con la conjunción condicional “si”, aunque también se
puede utilizar otras partículas gramaticales como “siempre que”, ”dado que”… aunque esto
no constituye regla alguna.

Ejemplos
Calcular la probabilidad de sacar cara si el primer lanzamiento fue …
Si tu lanzas dos dados, ¿cuál es la probabilidad de que ….?
Calcular la probabilidad de accidente siempre que esté nevando.

Una expresión que implica condición es “Estoy en clase, luego hoy no es sábado ni
domingo”. El hecho de que digamos “estoy en clase” es la condición del hecho que
afirmemos que hoy no es sábado ni domingo.

Si no hubiese condición, la probabilidad de que hoy sea martes es 1/7, sin embargo si estoy
en la escuela esa probabilidad queda reducida a 1/5, pues los sábados y domingos no son
lectivos.
Veamos otros ejemplos. En el juicio a OJ Simpson, su abogado defensor usó el siguiente
argumento estadístico:
El 99% de las veces que los hombres agreden a sus esposas
no acaban matándola, por lo tanto aunque OJ Simpson
golpeara a su mujer , es casi cierto que él no la mató.
La estadística argumentada es cierta, pero la conclusión es
falsa, porque un importante dato estadístico fue obviado
que es que “de las esposas que son golpeadas y acaban
falleciendo el 90% de las veces fueron asesinadas por sus
maridos”.
¿Puedes apreciar la diferencia? Por supuesto que la mayor
parte de la gente no mata a sus conyuges pero en aquel
pequeño porcentaje en que la mujer es asesinada, el 90% de
las veces fue el marido el causante.

Veamos otro ejemplo, otro dato estadístico es


que “El 99% de las veces que conduzcas bebido
no tendrán un accidente”.
Este dato aislado podría llegar a concluir que
conducir bebido es seguro, lo cual es obviamente
falso porque hay otra estadística que dice que el
alcohol involucra al 90% de los accidentes de
tráfico en USA.
La probabilidad condicionada reduce el conjunto

| PROBABILIDAD CONDICIONADA 25
de posibles circunstancias de forma que la estadística pueda ser medida de forma más precisa.

De esta manera, el razonamiento correcto en estos dos ejemplos sería:

El 99% de las veces que los hombres golpean a sus mujeres no las matan, pero la mujer de OJ
Simpson fue asesinada, luego ya no tenemos que seguir hablando de este 99% de casos en
que la mujer vive porque ella ya no vive, luego estamos en ese improbable 1% de los casos
en los que la mujer es asesinada. Cualquier estadística relacionada con el 99% de los casos en
que no fallece es aquí irrelevante. Esto es probabilidad condicionada, una probabilidad que
involucra en este caso, sólo al conjunto de casos en los que la mujer es asesinada.

Otro famoso problema relacionado con la probabilidad condicionada y que resolveremos en


detalle es el del test de SIDA. Consideremos los siguientes datos estadísticos ciertos:
• El 1 por mil de la población es portadora del virus del SIDA
• El test del SIDA tiene una precisión del 99%
Esto significa que si tu no eres portador del virus del SIDA el TEST te dará un falso positivo,
o bien que si tu fueses portador el TEST te dará en un 1% un falso negativo.

Ahora bien, vamos a plantear la pregunta siguiente: supongamos que te haces el TEST del
SIDA y te da positivo ¿Cuál es la probabilidad de que tu realmente seas portador del virus del
SIDA?
La respuesta no es el 99%
Incluso aunque el test es un 99% preciso e incluso aunque tu hayas dado positivo, no tienes el
99% de probabilidades de ser portador.
Veamos un ejemplo. Supongamos en España, en números redondos, 50 millones de
habitantes. Esto significa que el 1 por mil, es decir, 50 mil personas son portadores del virus
y 49,950,000 no lo son.
De las 50 mil personas que son portadoras si se hacen el test del SIDA a 500 de ellas
obtendrán un falso negativo (porque tiene una precisión del 99%, luego hay un 1% en el que
va a fallar el diagnóstico).
Y de los 49,950,000 personas no portadoras que se hagan el test, 499,500 de ellas tendrán un
falso positivo. ¡Esto es muchísima gente!. Las restantes
49,450,500 personas obtendrán un test negativo correcto.
Veremos que si obtuvieses un test positivo, ya no tienes que
compararte con toda la población sino solo con las 49,500 que
dieron test + siendo portadoras y las 499,500 perosnas que
dieron también test + sin ser portadortas. Fíjate que una
cantidad es solo un 10% de la otra.
Aquí volvemos a ver el concepto de probabilidad condicionada.
Si alguien da positivo en el test del SIDA ya no tiene que
preocuparte de los millones de personas que dan negativo, su
nuevo universo es el de los positivos y, entre ellos, hay casi un
10% de falsos positivos, luego aun queda esa esperanza que no
es alta, pero es una esperanza de que a pesar de haber obtenido
un test + no se en realidad portadora del virus.
Por ello siempre se repite el test.

| PROBABILIDAD CONDICIONADA 26
Definición: Probabilidad condicionada
Sean A y B dos sucesos de un espacio muestral Ω. Supongamos ahora que el suceso A ya
ocurrió, es decir, ya conocemos su resultado. Al haber ocurrido A, nuestro espacio muestral
ya no es todo Ω , sino que está limitado justamente a A, mientras que de B solo me tengo que
ocupar de aquellos elementos de B que también están en A, porque al haber ocurrido A, los
que no están ya no nos interesan porque no pueden ocurrir.
Formalicemos estas ideas anteriores del siguiente modo.
Definimos probabilidad de un suceso B condicionada a un suceso A, y la denotamos
( )
P B , a la probabilidad de B supuesto que A ha ocurrido.
A

Nota: En inglés utilizan la palabra given o given that para expresar P(A/B): “probability of A
given B”.

PB( A), es esencialmente P(B ) respecto


del nuevo espacio muestral A, en lugar del
espacio muestral inicial Ω.

Por ello la probabilidad condicionada viene dada por P B ( A) = P (PA( ∩A)B ) , definición que
solo tiene sentido en matemáticas si P(A)>0.

| PROBABILIDAD CONDICIONADA 27
Propiedades de la probabilidad condicionada

i) Si A y B son incompatibles entonces P A ( B) = 0

( )
Si A ∩ B = φ entonces P A = 0 ≤ P( A) puesto que si ocurrió B y son disjuntos, ya no puede
B
ocurrir A

( B) = P(PA(∩B)B) = PP((BA)) ≥ P( A) puesto que 0 < P(B) ≤ 1 .


ii) Si A ⊂ B entonces P A

ii) Si B ⊂ A entonces P A ( B ) = P(PA(∩B )B ) = PP((BB )) = 1 ≥ P( A) .

iii) si A y B son compatibles no podemos afirmar nada porque no tenemos


( )
información acerca de la magnitud relativa de P A y P( A) .
B

| PROBABILIDAD CONDICIONADA 28
Ejemplo
Ante la cuestión siguiente: Si lanzamos dos dados ¿cuál es la probabilidad de obtener
suma 7?
Y otra pregunta más Si lanzamos dos dados ¿cuál es la probabilidad de obtener suma
7 si uno de los dados es un 5?
En la segunda cuestión imponemos una condición que consiste en que uno de los dos
dados debe ser un 5
En la primera cuestión hay 6 posibilidades de obtener suma 7 entre 36 posibles
maneras, luego 6/36 o, equivalentemente 1/6.
En la segunda cuestión ya no estamos interesados en los 36 posibles resultados de
lanzar un dado sino sólo en aquellos en los que uno de los dados muestra un 5, esto
implica que nuestro nuevo espacio muestral es tan solo el formado por los 11
resultados (5,1) (5,2) (5,3) (5,4) (5,5) (5,6) y (1,5) (2,5) (3,5) (4,5) y (6,5), entre los
cuales solo el (5,29 y el (2,5) tienen suma 7, esto es 2/11.

Ejemplo
En una clase un 40% de los alumnos aprobaron Filosofía y un 50% aprobaron
Matemáticas. Se sabe que la probabilidad de aprobar Filosofía si se aprobó
Matemáticas es 0.6.
¿Qué porcentaje de alumnos aprobaron ambas materias?
De los alumnos que aprobaron Filosofía, ¿que porcentaje aprobó Matemáticas?
(Galicia PAU)
Solución
Sean los sucesos
M: “aprobar Matemáticas”,
F: “aprobar Filosofía”.
Según el enunciado P(M) = 0.5, P(F) = 0.4, P(F/M) = 0.6.
Construimos una tabla de contingencias con arreglo a esta situación

F Fc

M P(M⋂F) P(M⋂Fc) P(M) = 50

Mc P(Mc⋂F) P(Mc⋂Fc) P(Mc)

P(F) = 40 P(Fc) Total = 100

a) P(M⋂F) = P(M)·P(F/M) = 0.5·0.6 = 0.30


P( M ∩ F ) 0,3
b) P( M / F ) = = = 0,75.
P( F ) 0,4

| PROBABILIDAD CONDICIONADA 29
Outro razonamiento para realizar este problema se lleva a cabo llenando la tabla de
contingências de la siguiente manera:
La probabilidad de aprobar la Filosofía si se aprobó Matemáticas es 0.6, quiere esto
decir que entre el 50% de aprobados de esta materia un 60% aprobó Filosofía, y como
el 60% del 50% es un 30% del total, podemos completar los datos del enunciado de
la siguiente forma:

% F F Total
M 30 20 50
M 10 40 50
Total 40 60 100
30
a) P( M ∩ F ) = = 0,3.
100
30
b) P( M / F ) = = 0,75.
40

La probabilidad condicionada nos ayudará a contestar a preguntas como estas:


¿Cuál es la probabilidad de que yo tenga más de 50 años si mi edad está entre 40 y 60 años?
¿Cuál es a probabilidad de que yo tenga una determinada enfermedad si el test de dicha
enfermedad me ha dado positivo?
¿Cuál es la probabilidad de obtener un rey de un mazo de 45 cartas si ya han salido 2 reyes?
¿Cuál es la probabilidad de obtener dos caras en tres monedas si una de las monedas ya sé
que es cara?

| PROBABILIDAD CONDICIONADA 30
Regla del producto

De la definición, podemos despejar P ( A ∩ B ) = P ( A) ⋅ P B ( A)


y si generalizamos esta fórmula al caso de n sucesos tenemos la denominada regla del
producto:
A
P ( A1 ∩ A2 ∩ ... ∩ An ) = P ( A1 ) ⋅ P 2 ( )
A1
⋅ P  3

A
A1 ∩ A
 ⋅ ... ⋅ P  An

2
 A ∩ A ∩ ... ∩ A 
 1 2

n −1 

Sucesos dependientes e independientes


Se definen dos sucesos A y B independientes cuando el hecho de que ocurra uno de ellos A
no afecta para nada a la probabilidad del otro B posterior a A.

En un lenguaje matemático diremos: A independiente con B si y solo si P B ( A) = P( B)


o también: A independiente con B si y solo si P A ( B ) = P( A)
En este caso, la regla del producto se reduce a que:

P ( A ∩ B ) = P ( A) ⋅ P ( B / A) = P ( A) ⋅ P ( B )

y en el caso general:

P ( A1 ∩ A2 ∩ ... ∩ An ) = P ( A1 ) ⋅ P ( A2 ) ⋅ P ( A3 ) ⋅ ... ⋅ P ( An )

Podemos usar esta consecuencia como definición, es decir

A y B sucesos independientes  P ( A ∩ B ) = P ( A) ⋅ P ( B )

O más general, A1,A2,…,An son n sucesos independientes 

P ( A1 ∩ A2 ∩ ... ∩ An ) = P ( A1 ) ⋅ P ( A2 ) ⋅ P ( A3 ) ⋅ ... ⋅ P ( An )

Si dos sucesos A y B no son independientes entonces diremos que son dependientes.

Ejemplo
En el lanzamiento de dos dados tenemos ya calculado su espacio muestral de 36
elementos
Ω= { (1,1), (1,2), (1,3), (1,4), (1,5), (1,6)
(2,1), (2,2), (2,3), (2,4), (2,5), (2,6)
(3,1), (3,2), (3,3), (3,4), (3,5), (3,6)
(4,1), (4,2), (4,3), (4,4), (4,5), (4,6)
(5,1), (5,2), (5,3), (5,4), (5,5), (5,6)
(6,1), (6,2), (6,3), (6,4), (6,5), (6,6) }
Si queremos calcular la probabilidad de que salga un 1 ó un 2 en el primer dado,
| PROBABILIDAD CONDICIONADA 31
12 1
A = {1 ó 2 en el primer dado}, esto es: P ( A) = =
36 3
18
Si el suceso es B = {2, 3 ó 4 en el segundo dado}, esto es: P ( B ) =
36
Sin embargo, la probabilidad de la intersección de estos dos eventos incluye los
6
sucesos elementales (1,2) (1,3) (1,4) (2,2) (2,3) (2,4), luego es P ( A ∩ B ) =
36
Por ello la probabilidad de A condicionado a B es
6
P ( A ∩ B ) 36 6 1
P ( A / B) = = = =
P( B) 18 18 3
36
Y esto prueba también que A y B son independientes pues P(A) ha resultado igual que
P(A/B).

| PROBABILIDAD CONDICIONADA 32
El teorema de la probabilidad total
Dada una familia A1, A2, A3,...,An de sucesos una partición del espacio muestral Ω
(recubrimiento) , se tiene que

P ( A) = P A ( A ) P ( A ) + P ( A A ) P ( A ) +… + P  A A  P ( A )
1
1
2
2
n
n

Demostración
Sea A un suceso cualquiera de Ω y sea A1, A2,
A3,...,An una partición de Ω entonces por definición

a) Ai ∩ Aj = φ ; ∀i ≠ j .

k
b) ∪ A = Ω.
i
i =1

c) P ( Ai ) > 0, ∀i

podemos escribir:

A = ( A ∩ A1 ) ∪ ( A ∩ A2 ) ∪… ∪ ( A ∩ Ak ) donde todos los pares A ∩ Aj son mutuamente


disjuntos, por lo tanto podemos aplicar el axioma iii) de probabilidad:

P ( A) = P ( A ∩ A1 ) + P ( A ∩ A2 ) + … + P ( A ∩ Ak )

Como cada término P ( A ∩ Ai ) se puede escribir como P  A A  P ( Ai ) , obtenemos


 i

P ( A) = P A ( A ) P ( A ) + P ( A A ) P ( A ) +… + P  A A  P ( A )
1
1
2
2
n
n que también puede ser
expresado como
n
P ( A ) = ∑ P  A  P ( Ai )
i =1  Ai 

Con este teorema de la probabilidad total somos capaces de deducir la probabilidad del
suceso A (por ejemplo, que ocurra un accidente), a partir de las probabilidades de A respecto
de cada uno de los elementos de una partición de Ω (por ejemplo probabilidad de accidente
en el caso que llueva o en el caso de que haga buen tiempo)
Ahora vamos a estudiar el proceso inverso, conocido como teorema de BAYES. En él,
conocidas las probabilidades denominadas a priori, de cada uno de los elementos de la
partición (probabilidad de accidente en el caso que llueva o en el caso de que haga buen
tiempo), vamos a deducir para ellos las probabilidades denominadas a posteriori que son las
que están condicionadas por el hecho de que el suceso A ya ha ocurrido (si el accidente ya ha
ocurrido, calcular probabilidad de que o bien estuviese lloviendo o bien hiciese sol).

| PROBABILIDAD CONDICIONADA 33
Thomas Bayes nació en Londres, Inglaterra. Su padre fue ministro presbiteriano.
Posiblemente De Moivre fue su maestro particular,
pues se sabe que por ese entonces ejercía como
profesor en Londres.
Bayes fue ordenado ministro presbiteriano y muere en
1761. Sus restos descansan en el cementerio
londinense de Bunhill Fields. La traducción de la
inscripción en su tumba es
Reverendo Thomas Bayes.
Hijo de los conocidos Joshua y Ann Bayes. 7 de abril
de 1761. En reconocimiento al importante trabajo que
realizó Thomas Bayes en probabilidad. Su tumba fue
restaurada en 1969 con donativos de estadísticos de
todo el mundo.
Miembro de la Royal Society desde 1742, Bayes fue uno de los primeros en utilizar la
probabilidad inductivamente y establecer una base matemática para la inferencia
probabilística.

Publicó los trabajos:


Divine Providence and Government Is the Happiness of His Creatures (1731)
An Introduction to the Doctrine of Fluxions, and a Defence of The Analyst (1736)
En 1763, dos años después de su muerte, se publica Essay Towards Solving a Problem in the
Doctrine of Chances, en el que trataba el problema de las causas a través de los efectos
observados, y donde se enuncia el teorema que lleva su nombre. El trabajo fue entregado a la
Royal Society por Richard Price y es la base
de la técnica bayesiana.

Teorema de Bayes
Sean A1, A2, A3,...,An una partición de Ω y A
un suceso cualquiera de Ω. Se verifica que

P  A  P ( Ai )
P  i  =
A  Ai  ; i = 1, 2,..., n ,
 A k
A 
∑ P  P ( Aj )
j =1  Aj 

Incluir Bayes (1702-1761 en nuestra Orla)

| PROBABILIDAD CONDICIONADA 34
Demostración
Por la definición de probabilidad condicionada sabemos que

P 
Ai  = P ( Ai ∩ A)
 A  P ( A)

P ( A ∩ Ai )
Pero también sabemos que P  A  = ⇒ P ( A ∩ Ai ) = P  A  P ( Ai )
 Ai  P ( Ai )  Ai 

P  A  P ( Ai )
P ( Ai ∩ A) Ai 
Con lo que P  i A  = = 
A
  P ( A) P ( A)

n
Y como por el teorema de la probabilidad total se tiene que P ( A ) = ∑ P  A  P ( Ai ) ,
i =1  Ai 
concluímos que:

P  A  P ( Ai )
P  i  =
A  Ai 
 A n

∑ P  A  P ( Ai )
i =1  Ai 

Ejemplo 1
En un distrito universitario los estudiantes se
distribuyen entre las tres carreras que pueden
cursarse del siguiente modo: el 20% estudian
arquitectura, el 35% medicina y el 45%
economía. El porcentaje de alumnos que
finalizan sus estudios en cada caso es del 5%,
12% y del 18%. Elegido un alumno al azar
determinar la probabilidad de que haya acabado
los estudios.

Solución
Sea Ω el conjunto de todos los estudiantes, sean
A1 los que estudian arquitectura,
A2 los que estudian medicina y
A3 los que estudian economía y sea
A el suceso "finalizar los estudios".

Como Ω = A3 ⋃ A3 ⋃ A3 y además son disjuntos, pues no hay estudiantes que estén


estudiando dos carreras, entonces son una partición de Ω por lo que se tiene que:

A = A ∩ Ω = A ∩ ( A1 ∪ A2 ∪ A3 ) = ( A ∩ A1 ) ∪ ( A ∩ A2 ) ∪ ( A ∩ A3 )

| PROBABILIDAD CONDICIONADA 35
P ( A) = P ( A ∩ A1 ) + P ( A ∩ A2 ) + P ( A ∩ A3 )

P ( A) = P ( A1 ) P ( A / A1 ) + P ( A2 ) P ( A / A2 ) + P ( A3 ) P ( A / A3 )

Expresemos esto mediante un diagrama de árbol

De donde la probabilidad pedida de A es


P ( A) = 0.20 ⋅ 0.05 + 0.35 ⋅ 0.12 + 0.45 ⋅ 0.18 = 0.01 + 0.042 + 0.081 = 0.133

También resultan útiles para resolver estos problemas las tablas de contingencia, que
se construyen de forma simple, escribiendo en las casillas la probabilidad de la
intersección de los sucesos que la definen, tal y como sigue:

A1 Arquitectura A2 Medicina A3 Economia

A 0,01 0,042 0,081 P(A) = 0,133


c c
A 0,19 0,308 0,369 P(A ) = 0,867

P(A1) = 0,2 P(A2) = 0,35 P(A3) = 0,45

Conviene practicar ambos modelos, árbol y tabla de contingencia, pues en algunos


problemas uno de ellos es más cómodo que el otro.

Ejemplo 3
El parte meteorológico ha anunciado solo tres posibilidades para el fin de semana:
• Que llueva: probabilidad del 50%.

| PROBABILIDAD CONDICIONADA 36
• Que nieve: probabilidad del 30%
• Que haya niebla: probabilidad del 20%.
Según estos posibles estados meteorológicos, la posibilidad de que ocurra un
accidente es la siguiente:
• Si llueve: probabilidad de accidente del 20%.
• Si nieva: probabilidad de accidente del 10%
• Si hay niebla: probabilidad de accidente del 5%.
Y resulta que, efectivamente, ocurre un accidente y como no estábamos en la ciudad
no sabemos el tiempo que hizo. Calcular entonces que probabilidad hubo de llover, de
nevar o de hacer niebla el pasado fin de semana
Solución
Nuestro experimento aleatorio en este ejercicio es la predicción meteorológica del
tiempo.
Podemos construir una partición de nuestro espacio muestral con A1 = “llueve”, A2
=”nieva” y A3= “niebla”
El enunciado nos ofrece datos de un histórico de información meteorológica que dice
P(A1) = 0.5, P(A2) = 0.3 y P(A3) = 0.2
Sea A el suceso de ocurrir un accidente. El enunciado nos ofrece ahora unos datos
para tres situaciones concretas llamados probabilidades “a priori" siguientes
P(A/llueve) = P(A/ A1) = 0.20
P(A/nieva) = P(A/ A2) = 0.10
P(A/niebla) = P(A/ A3) = 0.05
Y nos está preguntando las denominadas probabilidades “a posteriori” que son las
que responden a que probabilidad hubo de lluvia, nieve o niebla si efectivamente
ocurrió un accidente, es decir P(A1/A) , P(A2/A) , P(A3/A)
Hacemos el siguiente diagrama de árbol
50
0.
ia
uv
Ll
1
A

Y respondemos a nuestro problema mediante Bayes:


Probabilidad de que estuviese lloviendo

| PROBABILIDAD CONDICIONADA 37
P ( A ∩ A1 ) P ( A1 ) P ( A / A1 ) 0.5 ⋅ 0.20
P ( A1 / A) = = = = 0.714
P ( A) 3
0.5 ⋅ 0.20 + 0.3 ⋅ 0.10 + 0.20 ⋅ 0.05
∑ P( A ) P( A/ A )
i =1
i i

Probabilidad de que estuviese nevando:


P ( A ∩ A2 ) P ( A2 ) P ( A / A2 ) 0.3 ⋅ 0.10
P ( A2 / A) = = 3 = = 0.214
P ( A) 0.5 ⋅ 0.20 + 0.3 ⋅ 0.10 + 0.20 ⋅ 0.05
∑ P ( Ai ) P ( A / Ai )
i =1
Probabilidad de que hubiera niebla:
P ( A ∩ A1 ) P ( A3 ) P ( A / A3 ) 0.20 ⋅ 0.05
P ( A3 / A) = = 3 = = 0.071
P ( A) 0.5 ⋅ 0.20 + 0.3 ⋅ 0.10 + 0.20 ⋅ 0.05
∑ P ( Ai ) P ( A / Ai )
i =1
Así que, ocurrido el accidente. las probabilidad de que lloviese es del 71.4%, que
nevase el 21.4% y que hiciese niebla el 7.14%

| PROBABILIDAD CONDICIONADA 38
APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA

Resultan de una gran utilidad en medicina los resultados que estamos obteniendo y su uso es
muy común. De hecho, procuraremos llenar de ejemplos aplicados a la medicina estos
apuntes teóricos. Pero, sin embargo, necesitamos definir algunos conceptos que son de uso
común en epidemiología:

Prevalencia
Proporción de individuos que presenten el fenómeno a estudio en una población y en un
momento determinado, bien sea una enfermedad o un factor de riesgo
Ejemplos:
La prevalencia de fumador es del 45% de la población de Madrid en el año 2000
La prevalencia de discapacitados en España en 1999 era del 9%
La prevalencia del SIDA en el Mundo en el 2003 era del 0.62%
HAITI tenía una prevalencia del SIDA del 5% en el año 2003

Incidencia
Proporción de casos nuevos de enfermedad que aparecen en una población durante un
periodo de tiempo
Ejemplos:
La incidencia del SIDA en el mundo en el año 2003 fue del 0.08%, es decir 5
millones de casos nuevos entre 6385 millones de habitantes)
Si la gripe A ha contagiado a 26.661 personas en España en las últimas dos semanas,
se diría que tiene una incidencia de 58 casos por cada 100,000 habitantes

Sensibilidad
La probabilidad de dar positivo en un test bajo la condición de estar enfermo, es decir, la
probabilidad de diagnosticar a un individuo como enfermo cuando realmente lo está.

Ejemplo
Dar positivo en el test del SIDA bajo la condición de estar efectivamente enfermo del
SIDA es del 100%. El test es, pues, infalible

Especificidad
La probabilidad de dar negativo en un test bajo la condición de estar sano, es decir, la
probabilidad de diagnosticar a un individuo como sano cuando realmente está sano.

Ejemplo

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 39


La especificidad del test del SIDA es del 99.7% lo cual quiere decir que hay un 0.3%
de individuos que el test le puede dar positivo cuando en realidad está sano.
Todo ello se puede representar en la siguiente tabla de contingencias:

Enfermo Sano

Test + VP FP VP
VPP =
Verdadero positivo Falso positivo VP + FP
Valor predictor positivo

Test - FN VN VN
VPN =
Falso Negativo Verdadero negativo FN + VN
Valor predictor negativo

VP VN VP + VN
Sens = Esp = VG =
VP + FN FP + VN FP + FN + VP + VN
Sensibilidad Especificidad Valor Global

Ejemplo 4
Un médico aplica un test a 10 alumnos de un colegio para detectar una enfermedad
cuya prevalencia sobre una población de niños es del 10%. La sensibilidad del test es
del 80% y la especificidad del 75%.

a) ¿Cual es la probabilidad de que exactamente a cuatro personas le de un


resultado positivo?
b) Si en la muestra hay cuatro personas a las que el test le da positivo, ¿cuál es la
probabilidad de que entre estas, exactamente dos estén sanas?
c) Calcular la probabilidad de que el test suministre un resultado incorrecto para
dos personas.
d) Calcular la probabilidad de que el resultado sea correcto para más de 7
personas.
Solución
Los datos de que disponemos son:

• Prevalencia: P(“enfermo”) = 0.1


• Sensibilidad: P(“VP verdadero positivo”) = P(T+/E) = 0.8
• Especificidad: P(“VN verdadero negativo”) = P(T-/S) = 0.75
Primero hagamos un diagrama de árbol que describa esta situación:

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 40


Con la tabla de contingencias quedaría

Enfermo Sano

Test + 0.080 0.225 VPP = 0.08/0.305=0.2623


Valor predictor positivo

Test - 0.020 0.675 VPN = 0.675/0.895=0.7542


Valor predictor negativo

S = 0.08/0.10 = 0.80 Es = 0.675/0.90 = 0.75


Sensibilidad Especificidad

a)
Si queremos saber P(T+) por el Teorema de la probabilidad total es:
P(T+) = P(T+/E) P(E) + P(T+/S) P(S) = 0.8 · 0.1 + (1 - 0.75) · (1 - 0.1) = 0.08 +
0.225 = 0.305
Sea ξ1 la variable aleatoria “número de resultados positivos entre 10 estudiantes”
sigue una distribución binomial

ξ1 ∊ B(n1,p1) donde n1 = 10 y p1 = P(T+) = 0.305, es decir ξ1 ∊ B( 10 , 0.305 )

Por lo que la probabilidad de que a cuatro personas le dé el test positivo es:

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 41


10 
P [ξ1 = 4] =   0.3054 ⋅ 0.69510 = 0.205
4
b)
La probabilidad de estar sano aunque el Test de positivo (falsos positivos) es

P( S ∩ T +) P(T + / S ) P( S ) 0.25 ⋅ 0.90


P( S / T +) = = = = 0.738
P(T +) P(T +) 0.305

Importante resultado, observa que estando sano tienes alrededor del 0.74 de
probabilidad de que el test te de positivo, lo cual es altísimo y suena muy
incongruente con los datos iniciales, pero es así.
Sea ξ2 la variable aleatoria “número de personas al que el test da positivo, pero que
están sanas”

ξ1 ∊ B(n2,p2) donde n2 = 4 y p2 = 0.738, es decir ξ2 ∊ B( 4 , 0.738 )

 4
Entonces P [ξ 2 = 2] =   0.7382 ⋅ 0.2622 = 0.225
 2
c)
La probabilidad de que el test de un resultado erróneo es:

P(Terroneo) = P( T+ ⋂ S) + P(T- ⋂ E) = P( T+/S)P(S) + P(T-/ E)P(E) = 0.25 0.9 +


0.20 0.10 = 0.245
d)
La variable aleatoria ξ3 “número de resultados erróneos del test” es

ξ 3 ∊ B(n3,p3) donde n3 = 10 y p3 = 0.245, es decir ξ3 ∊ B( 10 , 0.245 )

P ["Test correcto para mas de 7"] = P ["Test incorrecto para menos de 3"] = P [ξ3 ≤ 2] = ...
2
n  i 10  10  10 
...∑  3  p3 (1 − p3 ) 3 =   0.2450 ⋅ 0.75510 +   0.2451 ⋅ 0.7559 +   0.2452 ⋅ 0.7558 = 0.5407
n −i

i=0  i  0 1 2

Ejemplo 5
Supongamos que el médico de cabecera de una cierta persona sospecha que, de
acuerdo con los síntomas que detecta, ésta podría tener una rara variedad de cáncer. Y
quiere someterla a un determinado test para confirmarlo o descartarlo.
El médico le explica que de acuerdo con los estudios que se han hecho y que son de

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 42


dominio público y universal –es decir, en todo el mundo se aceptan como válidos al
día del test–, esta enfermedad afecta sólo al 1% de la población.
Por otro lado, se sabe que el único test que se conoce para detectar el problema no es
infalible. Es decir: si una persona tiene la enfermedad, el resultado va a ser positivo
sin ninguna duda pero podría pasar que usted no tenga esta variedad de cáncer y que,
sin embargo, el test dé positivo igual. Es lo que se llama un falso positivo.
Más aún: se sabe que el 20% de las veces el resultado es positivo aunque no haya
cáncer. O sea, el 80% de las veces que da positivo, el paciente está enfermo. Pero en
el restante 20% de los casos (que da positivo) no hay nada anómalo.
Pregunta: Si a esa persona le hacen el test, ¡y le da positivo!, ¿cuál es la probabilidad
de que efectivamente tenga este cáncer? (Obviamente, si de una persona se sospecha
que pueda tener la enfermedad y a su médico sólo le importa saber si la tiene o no,
para eso usa el test, y quiere saber cuán fiable es)
¿Qué quiere decir que dio positivo? ¿Qué probabilidad tiene de estar enfermo (de esa
variedad de cáncer)? ¿Quién interpreta esos datos?

Solución
Gran problema de gran aplicación práctica.
Resumimos los datos que se tienen sobre esta variedad de cáncer:
- Lo padece el 1 % de la población, es decir la prevalencia es del 0.01
- Si una persona tiene este cáncer, el test lo detecta y el resultado es siempre positivo.
En ese sentido, el test es perfecto.
- En el 80 % de los casos que da positivo, la persona tiene este cáncer.
- En el 20 % de los casos, el test da positivo; pero, sin embargo, la persona no está
enferma (un “falso positivo”).
La tentación es decir que si a una persona le dio positivo el test, entonces tiene un 80
por ciento de posibilidades de tener ese cáncer. Y eso es lo que contestaría la mayoría
de nosotros. Peor aún: varios estudios hechos en Estados Unidos, Francia e Italia
muestran que cuando los propios médicos son los que tuvieron que contestar la
pregunta, sólo respondió correctamente el 15 por ciento (¡quince por ciento!). Y uno
de esos exámenes se hizo (es cierto que en 1978) en uno de los hospitales de Harvard,
nada menos. Pero hay otros posteriores que exhiben que el problema persiste aún
ahora.
Vamos a razonarlo adecuadamente. Para ello, supongamos que la ciudad en la que
usted vive es de 10.000 personas (como sólo vamos a hablar de porcentajes, fijar el
número en 10.000 no producirá ninguna variante en el resultado final). Como sabemos
que el cáncer afecta al 1% 100, tiene que haber 100 personas que lo padecen. De las
restantes 9900 personas, si todas se hicieran el test, ¿a cuántas le daría positivo?
(Recuerde que el test ofrecía un 20 por ciento de falsos positivos.) Por tanto, el 20%
de 9900 personas son 1980 personas que darían positivo estando sanas. En total,
contando las 100 personas que dan positivo porque tendrían el cáncer, más las 1980
que darían positivo sólo por los defectos del test, tendríamos 2080 personas que
darían positivo.
| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 43
Y la pregunta era: ¿cuál es la probabilidad de que, siendo positivo, tenga el cáncer?

Traducido en estos números quiere decir: ¿cuál es la probabilidad de que usted sea
uno de los 100 que entre los 2080 tienen el cáncer? La respuesta es: 100/2080 =
0.04876
Luego, usted tiene un 4,87 por ciento de probabilidad de tener el cáncer (¡menos del 5
por ciento!), que ciertamente es un porcentaje importante, pero está bien lejos del 80
por ciento que parecía en principio.
Como dice Yudkowsky, “cuando uno se tropieza por primera vez con problemas de
este tipo, tiene la tentación de reemplazar el 1 por ciento de prevalencia que había en
la población (el dato original) por el del 80 por ciento que se sabe que da positivo en
el caso en que alguien tenga esta variedad de cáncer”. Y concluye: “La probabilidad
de que una persona a la que le da positivo el test tenga este cáncer no es la misma que
la probabilidad de que a una persona que tenga este cáncer le dé positivo el test”.
Veamos una manera más científica, elegante o matemática de hacerlo. Creamos el
siguiente diagrama de árbol:

La probabilidad pedida nos la resuelve el teorema de Bayes mediante

P (T + / E ) P ( E ) 0.01 0.01
P (E / T +) = = = = 0.04877
P (T + ) 0.198 + 0.01 0.208

Hoy en día los médicos estudian en Bioestadística, durante el primer año de carrera, esta
situación y la conocen y saben resolverla. Pero hay otros ejemplos de atletas (Mary Slaney,
velocista norteamericana en los Juegos Olímpicos de 1996) que fueron suspendidos por el
supuesto uso de esteroides y cuyos abogados probaron que había sido una mala lectura de la
información recogida. Y también hay casos de jueces que encontraron paternidades donde no
las había, o acusados y condenados por crímenes que no habían cometido. La lista es muy
larga (y el espacio y mis conocimientos, muy cortos).

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 44


En medicina, de hecho, en validación de pruebas diagnósticas, tienen dos conceptos
denominados sensibilidad y especificidad que se utilizan para determinar las probabilidades
de veracidad de un test:

Ejemplo 6
Una enfermedad puede ser producida por dos virus A y B. En un laboratorio se tienen
tres tubos del virus A y dos del virus B. La probabilidad de que el virus A produzca la
enfermedad es 1/3 y que la produzca el virus B es 2/5. Se inocula el azar un virus en
un animal y contrae la enfermedad. ¿Cual es la probabilidad de que el virus que se
inoculó fuera el A?, y ¿cual de que fuera el virus B? (Galicia Logse. Setiembre 1998)

Solución
Consideremos los sucesos

• A: “tener el virus A”;


• B: “tener el virus B”;
• E: “tener la enfermedad”.
Del enunciado del problema se deducen las siguientes probabilidades:

Enfermo E No enfermo Ec

Virus A P(E⋂A) = 1/5 P(Ec⋂A) ? P(A) = 3/5

Virus B P(E⋂B) = 4/25 P(Ec⋂B) ? P(B) = 2/5

P(E/A) = 1/3 ¿?

P(E/B) = 2/5 ¿?

Por la regla del producto se tiene que

3 1 2 2 9
P( E ) = P( A)·P( E / A) + P( B)·P( E / B) = · + · =
5 3 5 5 25
Y por el teorema de Bayes

3 1
·
P ( A)·P ( E / A) 5 3 5
P( A / E ) = = = . Por tanto, si un animal
P ( A)·P ( E / A) + P ( B)·P( E / B) 3 · 1 + 2 · 2 9
5 3 5 5
contrae la enfermedad, la probabilidad de que el virus que se inoculó fuese el A es
5/9, mientras que el suceso complementario, es decir, si un animal contrae la
enfermedad, la probabilidad de que el virus que se inoculí fuese el B es
5 4
P( B / E ) = 1 − P ( A / E ) = 1 − =
9 9
Si utilizamos la técnica, más intuitiva, del diagrama de árbol

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 45


1
P( A ∩ E ) 5 5 4
P( A / E ) = = 5 = ; de donde P( B / E ) = 1 − P ( A / E ) = 1 − =
P( E ) 1 4 9 9 9
+
5 25

Ejemplo 7
Han sido estudiadas los resultados de las mamografías de 2,227 mujeres en un gran
centro de Salud dependiente de la universidad de Harvard en el área metropolitana de
Boston. A estas mujeres se les practicaron un total de 9,747 mamografías a lo largo de
10 años. Sus edades estaban entre 40 y 80 años. 93 radiólogos distintos leyeron las
mamografías y fueron diagnosticadas 634 mamografías como sospechosas de revelar
falsos positivos. En resumen:

• Tenemos una proporción de falsos positivos del 6.5%.


• El ratio de falsos negativos está estimado en el 10%.
• Hay alrededor de 58,500,000 mujeres entre los 40 y 80 años en USA
• La incidencia del cáncer de mama en USA es de alrededor de 184,200 por año, es
decir 1 de cada 318.
Sea C es suceso de la ausencia de cáncer y Cc su complementario, es decir la
presencia de cáncer.
Sea M+ el suceso de un resultado positivo e la mamografía y M- un resultado
negativo
Supongamos que una amiga tuya recibe un resultado positivo en su mamografía ¿Que
probabilidad hay que efectivamente padezca cáncer?

Solución

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 46


MODELIZACION DE PROBLEMAS CON BOLAS Y URNAS
Es muy general la queja de que en matemáticas se usen enunciados engorrosos del tipo
“En una urna hay 5 bolas rojas, 3 azules y 2 verdes ....”
En lugar de enunciados mucho más amables como el de
En un cine proyectan tres películas y hay 100 espectadores en “El padrino”, 150 en “La
guerra de las Galaxias”, y 200 en “Ben-Hur”...
Esto acarrea a los matemáticos la fama de personas complejas y con ganas de enrevesar las
cosas más sencillas. ¿Por qué no utilizáis datos de nuestro entorno, obtenidos en la web del
INE (Instituto Nacional de Estadística), en lugar de las abstractas urnas y bolas?
Pero no es así, las urnas y las bolas nos sirven para modelizar un problema de forma general.
Es el estudiante o profesional el que en un caso práctico como el del cine tiene que saber
clasificar ese problema dentro de aquellos de urnas y bolas que ya ha estudiado. No cabe
duda que los problemas de enunciado atractivo son más estimulantes y que se deben usar para
captar el interés, pero no hay que olvidar que un matemático se encarga de desarrollar
modelos que después son utilizados por otras ciencias como ingeniería, economía, medicina,
física, química, etc. Así que cuando veas un problema con urnas y bolas, debes pensar que
cuando lo resuelvas sabrás resolver también cualquier otro, de cualquier otro ámbito, que sea
similar.
De hecho, muchísimos problemas de todo tipo que vas a encontrarte se podrían reescribir
usando el modelo de urnas y bolas. Piénsalo cada vez que resuelvas un problema. Te ayudará
a desarrollar tu capacidad de abstracción.
Los problemas de urnas y bolas con y sin devolución nos ofrecen un escenario abstracto
magnífico y uniforme para organizar tu mente y clasificar los problemas de probabilidades.
Las bolas de la urna constituyen el espacio muestral Ω, las colores forman una partición A1,
A2, A3,...,An de ese espacio muestral y si las devolvemos o no a la urna (reemplazamiento) y
si las observamos o no implican variantes que sirven para pormenorizar todavía más el
modelizado del problema...

Ejemplo 2
En una urna hay 5 bolas rojas, 3 azules y 2 verdes. Se saca una bola de la urna y sin
mirarla, se guarda. A continuación se vuelve a sacar otra bola que es verde. ¿Cuál es
la probabilidad de que la primera haya sido verde? Y si la segunda hubiera sido azul,
¿cuál es la probabilidad de que la primera sea verde? ¿Y azul?

Solución
Es un problema tipico de Bayes e igual al del ejemplo 1, pero con urnas y bolas, por lo
que
Ω está formado por todas las bolas contenidas en la urna.

• A1 lo constituyen las 5 bolas rojas;


• A2 lo constituyen las 3 bolas azules y

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 47


• A3 lo constituyen las 2 bolas verdes.
A1, A2, A3 constituyen también una partición de Ω (su unión es Ω y son disjuntos con
probabilidad mayor que cero)
Tenemos que hacer ahora un diagrama de árbol que describa las probabilidades
conocidas y calcule las no conocidas

Incluir diagrama de árbol similar al siguiente

Denotando por A3k la obtención del suceso A3 (bola verde) en la extracción k (1ª o 2ª),
lo que nos piden es, con solo mirar el árbol

( ) 1
P A3 = 0.2 es la probabilidad de 1ª extracción azul

( 1
P A2 ∩ A3
2
)= 0.06 0.06
( 1
P A / A3
2
)= = = 0.3 probabilidad de que 1ª
2
( )
P A3
2
0.10 + 0.06 + 0.04 0.20
fuese verde

( 2
P A3 ∩ A3
1
)= 0.04 0.04
( 1
P A / A3
2
)= = = 0.6 probabilidad de que 1ª
3
( )
P A3
2
0.10 + 0.06 + 0.04 0.20
fuese azul

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 48


Ejemplo 4
Un problema clásico de Bayes es el siguiente de las monedas de oro y plata:
Hay tres bolsas que tienen, cada una dos monedas. Las de la primera son de oro, las de
la segunda son de plata y las de la tercera son una de plata y otra de oro. Se escoje una
bolsa al azar y de ella una moneda también al azar. Si la moneda es de oro, ¿cuál es la
probabilidad de que la otra moneda en la bolsa sea de oro también?
Solución
Primero notemos que la segunda bolsa no pudo haber sido elegida (porque no tiene
monedas de oro), sólo pudo haber sido seleccionada la primera o la tercera. Si la bolsa
elegida hubiese sido la tercera, el evento cuya probabilidad nos interesa no se realiza.
De modo que el evento que nos interesa es equivalente a que se haya elegido la
primera bolsa.
Una vez establecido lo anterior, apliquemos el teorema de Bayes para calcular:
P(1ª|Au) = [P(1ª)P(Au|1ª)] / [P(1ª)P(Au|I) + P(2ª)P(Au|2ª) + P(3ª)P(Au|3ª)]
Las probabilidades que entran al lado derecho de la igualdad las sacamos,
inmediatamente, de las condiciones del problema y después de hacer cuentas tenemos:
1 1
3 2
P (1ª / Au ) = =3=
1 1 3 3
+ +0
3 6 6
Este problema es clásico porque existe una "solución" a la que muchas personas
llegan y es falsa. El argumento es el siguiente. Como todas las bolsas son igualmente
posibles, y el hecho de que la primer moneda extraída sea de oro, nos indica que no se
trata de la segunda bolsa. Concluímos que las dos bolsas restantes tienen igual
probabilidad y, por tanto, la probabilidad de que la otra moneda sea de oro es 1/2.
Si Ud. piensa de acuerdo a este razonamiento (¡erróneo!), es muy difícil que encuentre
en qué se equivoca.
Lo que está mal es que lo que averiguamos, al saber que la moneda extraída es de oro,
es algo más que el rechazo de la segunda bolsa. Si sólo nos dijeran que la bolsa
escogida al azar no fué la segunda, sin informarnos del metal de la moneda sacada,
todavía tendríamos incertidumbre respecto a la primera moneda; todavía podríamos
apostar a si ésta es de oro o de plata. Al decirnos que la moneda fué de oro, estamos
aprendiendo algo más, y eso echa por tierra el argumento de "igual probabilidad para
las dos bolsas restantes".
La información con la que contamos nos indica que nos hallamos frente a un caso en
el que la bolsa era la primera y sacamos, o la primera de las monedas que contenia, o
la segunda, (ya llevamos 2 posibilidades), o bien la bolsa era la tercera y en ese caso
tan solo podría ser que sacáramos en primer lugar la moneda de oro, luego la que
queda dentro es de plata (una única posibilidad). Tenemos 3 posibles sucesos en los
que en 2 de ellos sacaríamos a continuacion una moneda de oro (2/3 de probabilidad),
y tan solo una de las veces la nueva moneda sería de plata (1/3 de probabilidad).
Lo interesante del problema es que, si nos hubieran dicho que la moneda sacada fué
de plata, aplicando la fórmula de Bayes, llegamos a la conclusión de que la
probabilidad de que la otra moneda sea también de plata es 2/3 [¡Haga Ud. las
cuentas!].
| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 49
Es decir, si vamos a apostar al metal de la otra moneda, nos conviene apostar por el
metal de la primera.
Este ejemplo nos lleva a reflexionar sobre el uso adecuado de la información
contenida en "lo dado" en el cálculo de la probabilidad condicional.
Fuente: http://nutriserver.com/Cursos/Bioestadistica/Teorema_Bayes.html

Ejemplo 5

THE MONTHY HALL Problem


Suponga que asiste a uno de los numerosos programas de televisión en los que
después de haber hecho el payaso para diversión de la audiencia, le ofrecen que escoja
una de 3 puertas que esconden un gran regalo (por ejemplo un flamante coche nuevo)
una de ellas y las otras 2 contienen una cabra cada una. Tras elegir usted una, el
presentador del programa abre una de las que rechazó, mostrando que no contenía
nada (esto siempre lo podrá hacer, elija usted la que elija) y le da la oportunidad de
plantarse con la que escogió inicialmente o cambiar a la otra que queda aún sin abrir.
¿que debería hacer?. Tenga en cuenta que después de conocer el contenido de una de
las puertas que no eligió inicialmente "sabe algo más que al principio". Una pista: no
es indiferente plantarse o cambiar, uno de los 2 comportamientos es más ventajoso
que el otro.

Solución
Supongamos que se selecciona inicialmente la puerta 1
Supongamos que Monty le abre la puerta 2, en la que aparece una cabra.
Podemos calcular la probabilidad a posterior de que el coche esté en la puerta 1
después de que Monty nos ha proporcionado un nuevo dato, Para ello construimos el
siguiente modelo matemático
Sea Ci la situación de que el coche esté en la puerta i (entre el 1,2,3)
Sea Mi el suceso de que Monty abra la puerta i (entre el 1,2,3) mostrando la cabra.
La probabilidad de que el concursante gane el coche si cambia de puerta viene dada
por

1 1 2
P ( M 3 ∩ C2 ) + P ( M 2 ∩ C3 ) = P( M 3 / C2 ) P(C2 ) + P( M 2 / C3 ) P(C3 ) = ⋅1 + ⋅1 =
3 3 3
Si lo queremos razonar por Bayes, construímos el siguiente árbol de probabilidades:

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 50


P ( M 2 / C1 ) P (C1 )
Nosotros estamos buscando P ( C1 / M 2 ) =
P( M 2 )

Dado que P(C2 / M 2 ) = 0 podemos obtener P (C3 / M 2 ) restando P(C1 / M 2 ) de 1,


dado que los tress forman una partición de M2. Pero también lo podemos buscar
aplicando el teorema de Bayes:

P ( M 2 / C3 ) P (C3 )
P ( C3 / M 2 ) = =
P( M 2 )

Why is the Monty Hall Problem Interesting?


El problema de Monty Hall revela las limitaciones del proceso cognitivo humano en
casos de no certeza. Y provee de una buena ejemplificación n de los conceptos de
probabilidad. Sin duda entendiendo este ejercicio, se entiende cualquier otro ejercicio
de Bayes
Otra solución más intuitiva está publicada el el libro “The curious incident of the dog
in the night-time”
time” by Mark Haddon. Ofrecemos su gráfico

Actividad: Proyectar Video de “21 Black Jack”

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 51


Mathematical Solution

The probability that the prize is behind door X, P(X) = 1/3

The probability that Monty opens door B if the prize were behind A,

P(Monty opens B|A) = 1/2

The probability that Monty opens door B if the prize were behind B,

P(Monty opens B|B) = 0

The probability that Monty Hall opens door B if the prize were behind C,

P(Monty opens B|C) = 1

The probability that Monty opens door B is then

p(Monty opens B) = p(A)*p(M.o. B|A) + p(B)*p(M.o. B|B) + p(C)*p(M.o. B|C)

= 1/6 + 0 + 1/3 = 1/2

Then, by Bayes' Theorem,

P(A|Monty opens B) = p(A)*p(Monty opens B|A)/p(Monty opens B)

= (1/6)/(1/2)

= 1/3

and

P(C|Monty opens B) = p(C)*p(Monty opens B|C)/p(Monty opens B)

= (1/3)/(1/2)

= 2/3
Thus, your odds increase to 2/3 when you switch doors.

However...

A cool side-note to this problem exploits a loophole in the problem. Check out the Problem with the
Monty Hall ProblemEach of these is equally likely with a probablility of 1/3

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 52


Una materia en la que resulta eficazmente útil el teorema de Bayes es en medicina para
muchas situaciones pero entre ellas destaco la que describimos con el siguiente ejemplo

Wanna Bet?
Imagine someone tosses a coin in the air, and it comes up heads. Not surprising in itself.

Imagine they do it again, and it comes up heads again. Again, fine.

Imagine they do it seven more times, and every time it comes up heads. By now, if you've any
money riding on the outcome, you're surely feeling a bit itchy. Surely a tail must come up soon.

The tosser1 offers you a bet. If it comes up heads, you give him ten pounds. If it comes up tails,
he'll give you eight pounds. You ask him why not ten. He replies that it's surely time for a tail by
now, so you must have a better than even chance. He tosses the coin...

After a long run of heads, what are the odds of a tail? There are two possible answers to this:

1. They're exactly the same as the odds were for the first throw - 50/50. The bet is not fair
because the odds do not depend on the outcome of previous throws, as your 'friend' is
trying to suggest.

2. They're exactly the same as the odds were for the first throw - zero, because your friend is
tossing a double headed coin. The bet is not fair, but your friend has to pay for that
gimmicked coin somehow.

Dave likes jelly beans. He likes lemon ones and blackcurrant ones, so they're the only flavours he
ever buys. He prefers lemony ones, but he's not that fussy, really.

He sits in front of his computer with two piles of jelly beans on the desk. On the left, five lemon
and six blackcurrant. On the right, three lemon and four blackcurrant. Dave wants a jelly bean, but
he is engrossed in an h2g2 Entry about paradoxes, and can't tear his eyes away from the screen.
Given his preference for lemon jelly beans, which pile should he grope for?

Obviously, in this case, the pile on the left. He has a 45% chance of getting a lemon jelly bean if he
gropes off to the left, and only a 43% chance if he reaches right. So far, so easy.

There are two other piles on the desk. On the far left, a pile with six lemon and three blackcurrant.
On the far right, nine lemon and five blackcurrant. Still engrossed, Dave wants a jelly bean from
one of these two piles. Groping left offers a 67% chance of a lemon jelly bean, while reaching right
offers only a 64% chance.

So far this is simple enough. But disaster strikes when Dave's anally-retentive girlfriend bustles into
the room and 'tidies up'. She sweeps all the jelly beans on the left into a single pile, and all the
ones on the right into a single pile.

So now our hero wants a jelly bean, and would still prefer a lemon one. In either of the two cases
above, reaching left would give him the best chance of getting what he wants, so obviously he's
going to want to reach left, yes?

Wrong. Reaching left now offers a 55% chance of a lemon bean, while reaching right gives 57%. By
the simple act of tidying up, Dave's girlfriend has managed to reverse the probabilities and defy
common sense!

So what?

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 53


Statistical reversal is an important phenomenon with applications in many fields far more important
than jelly beans.

Imagine a doctor who wants to test the efficacy of a new treatment. He has patients in London and
Birmingham on whom he wishes to run a clinical trial. He consults a statistician, who advises him to
treat 91% of the London patients with the new drug, and the other 9% with the old one, selecting
randomly who is to get what. Similarly, he advises giving the new drug to one patient in
Birmingham for every 100 patients who are treated with the old drug.

The doctor goes away, tries the drug out and summarises the results.

Effectiveness of treatment London London Birmingham Birmingham

Old drug New Drug Old Drug New Drug

Not effective 950 (95%) 9000 (90%) 5000 (50%) 5 (5%)

Effective 50 (5%) 1000 (10%) 5000 (50%) 95 (95%)

He's quite happy - the new drug seems to him almost twice as effective as the old one. He's all
ready to write a positive report to the drug company, when he gets a message from the statistician,
telling him to stop prescribing the drug right away. His table of results (using exactly the same raw
data) looks like this:

Effectiveness Old drug New drug

Not effective 5,950 (54%) 9,005 (89%)

Effective 5,050 (46%) 1,095 (11%)

This is known as 'Simpson's Paradox', after E. H. Simpson, who first wrote about it in 1951.

Who is right? In this case, the doctor. In the example, there were 6,145 recoveries. If the new
treatment had been universal, we could expect 10,700. If only the old treatment were used, we
could expect 5,600. The new treatment really is significantly better.

So why does the statistician see what he does? Because he has failed to take into account that the
treatment was given to a much larger proportion of the London patients, and they are statistically
less likely to recover regardless of their treatment. This skews the combined results.

Conclusion
As the introduction stated, people are very poor at judging probabilities. The introduction of
statistics just makes it harder to judge - common sense ceases to be a useful guide even with fairly
simple examples like the piles of jelly beans. The possibility that we are not considering all the
possible contributory factors makes life even more difficult. Basically, in any situation involving
probabilities and statistics - never rely solely on your common sense and intuition. Do the maths.

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 54


Ejemplos
Por ejemplo al lanzar un dado el suceso de sacar un número par es un suceso formado
por los sucesos elementales 2, 4 y 6.
Al sacar cartas de una baraja española, un suceso sería que saliese un rey, otro que
saliese un triunfo, etc.

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 55


FALSAS CREENCIAS EN PROBABILIDAD

En muchas ocasiones hacemos valoraciones sobre lo probable o improbable de algún hecho


basándonos en apreciaciones subjetivas o cálculos completamente incorrectos. Algunos de estos
errores aparecen a continuación:

• El ya mencionado Caballero de Meré, comprobó que jugando a los dados era muy rentable apostar
a obtener al menos un seis cuando se lanzaban cuatro dados. Él justificaba este hecho de la
siguiente forma: si la probabilidad de obtener un 6 al lanzar un dado es igual a 1/6, la de obtener al
menos un 6 al lanzar cuatro dados debe ser igual a 4/6, es decir superior a 1/2.
Es cierto que la probabilidad es ligeramente superior a 1/2, de hecho es igual a 0’52, pero el cálculo
de Meré era incorrecto. ¿Por qué?.

•Otro error muy común es la creencia de que en el azar existe una especie de Ley de la
compensación. Imagina que

hemos lanzado una moneda 9 veces y que todos los resultados han resultado ser cruz. Muchas
personas tienden a pensar que en el siguiente lanzamiento debe obtenerse una cara, basándose en
el hecho de que, a la larga, la proporción de caras debe acercarse a 1/2.
Otras personas, en cambio, tienden a pensar que lo más probable es obtener una nueva cruz, al
deducir que la moneda debe de estar trucada, sin pensar que es imposible deducir este hecho
basándonos sólo en unos pocos lanzamientos. De hecho, la moneda no tiene memoria y la
probabilidad de cara o cruz en el siguiente lanzamiento es 1/2.

Te proponemos que hagas una prueba. Propón a un grupo de amigos jugar al juego del palillo más
corto, en él los jugadores, por turnos, van eligiendo un palillo y pierde aquél que coge el más corto.
Más de uno se negará a ser el último que elige, alegando que es mucho más probable perder cuando
se juega en el último lugar. Con un diagrama de árbol puedes probar que la probabilidad de perder
es igual para todos

No es infrecuente que en publicidad intenten inducirnos a


confundir las probabilidades condicionadas que relacionan dos
sucesos, es decir, la probabilidad P(A/B) (probabilidad del suceso
A condicionada por el suceso B) con P(B/A) probabilidad del
suceso B condicionada por el suceso A)

Por ejemplo, ciertas campañas publicitarias tienden a hacernos


pensar que vamos a ser más inteligentes si utilizamos un
determinado producto, utilizando para ello eslóganes publicitarios
del tipo: "9 de cada diez personas inteligentes lo usan"

Muy similar era la campaña publicitaria del Jabón Lux, que fue
muy popular en los años 50. El texto afirmaba: "El jabón que usan
9 de cada 10 estrellas de la pantalla".

¿Qué probabilidad condicionada es igual a 9/10?

¿p(Lux / Estrella) o p(Estrella / Lux)?

| 56
La probabilidad como herramienta jurídica

En alguna ocasión la probabilidad se ha utilizado como argumento determinante en un juicio. En


1964 en Los Ángeles se acusó a una pareja, Janet y Malcolm Collins, de ser responsables de un
atraco. La acusación se basaba en que coincidían con la descripción dada por varios testigos, que
habían descrito a sus atacantes como una mujer rubia, con coleta, vestida con ropa oscura, corriendo
hacia un coche amarillo en la que esperaba un joven de raza negra y con barba.

Un experto matemático, consultado por el juez, calculó la probabilidad de que existiera una pareja
reuniendo todas esas características, aplicando para ello la regla del producto de las probabilidades.
Esta regla establece que la probabilidad de que ocurran simultáneamente varios sucesos
independientes coincide con el producto de las

probabilidades de los sucesos individuales. Con ello, convenció al tribunal de que estadísticamente
era muy improbable la existencia de tantas coincidencias, ya que calculó que sólo una entre
12,000,000 reunía todas ellas. Basándose en este argumento, la pareja fue condenada.

Sin embargo, los acusados presentaron un recurso y finalmente fueron absueltos. Una vez más, el
tribunal basó su sentencia en la probabilidad. Por una parte discutió la independencia de las
características ya citadas y por otra, demostró, usando cálculos probabilísticos bastante complicados,
que la probabilidad de haya otra pareja con las mismas características, sabiendo que existe al menos
una, es bastante grande.

FUENTE
http://www.isftic.mepsyd.es/w3/recursos/bachillerato/matematicas/probabilidad/fuera_aula/fuera_aulam.htm
(extraordinaria pagina!!)

| FALSAS CREENCIAS EN PROBABILIDAD 57


Recursos didácticos
http://www.youtube.com/watch?v=vhToKaPwKE4&feature=related

http://www.youtube.com/watch?v=bLNfsh8Ax38
http://www.youtube.com/watch?v=4PwnvqGEHoU&feature=fvw

| FALSAS CREENCIAS EN PROBABILIDAD 58


U⌀ℕℤℚ∊ℝℂℙℐΩ⇐⇒⇔⇏∊∉∈∅⇾≈≔⇎⇝≡ℤ≤≥≲≳≴≵≮≯∀⇒∊λ≠∅⊂⟇·∊∃
A⨯Bεαβηθλµξσφφδεε

·∅U∩∪∼∿⊂⊃⊆⊇⊄⋂⋃⊅∧∨U⤳≮≠|∂∆√±∞ǀǁƟƩǃξχ∘6⊕⊗⊛⋅♫♯
⨁⨂✘✔×

| FALSAS CREENCIAS EN PROBABILIDAD 59

You might also like