You are on page 1of 11

´Indice general

´Indice general

I

1. Teor´ıa de la Probabilidad
1.1. Medida de Probabilidad . . . . . . . . . . . . . . . . . . .
1.2. Asignaci´on de Probabilidades . . . . . . . . . . . . . . . .
1.2.1. Conteo: Conceptos Fundamentales de Combinatoria
1.3. Probabilidad Condicional . . . . . . . . . . . . . . . . . . .
1.3.1. Dependencia e Independencia . . . . . . . . . . . .
1.4. Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . .
1.5. Redes Probabil´ısticas . . . . . . . . . . . . . . . . . . . . .
1.5.1. Sistemas Inteligentes . . . . . . . . . . . . . . . . .
1.5.2. Sistemas Inteligentes Probabil´ısticos . . . . . . . . .
1.5.3. Redes Bayesianas . . . . . . . . . . . . . . . . . . .
1.5.4. Razonamiento Probabil´ıstico. Inferencia . . . . . .
1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . .

i

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

1
1
2
4
6
6
7
10
11
12
15
16
16

lanzar un dado al aire y observar el nmero resultante). el conjunto muestral es un conjunto exhaustivo (contiene todas las posibles ocurrencias) y m´ utuamente exclusivo (no pueden darse dos ocurrencias a la vez). 2 Formalmente. Para obtener medidas con significado matem´atico claro y pr´actico. tambi´en para intersecciones A∩B = A¯ ∪ B). 1 Un experimento se denomina aleatorio cuando puede dar resultados distintos al realizarse en las mismas condiciones (por ejemplo. Medida de Probabilidad Para medir la incertidumbre existente en un experimento aleatorio1 dado. que es una colecci´on de subconjuntos que es cerrada para los operadores de uni´on ¯ A∪B y complementario A¯ = M\A (por tanto. Una vez definido el espacio muestral. el objetivo consiste en asignar a todo suceso compuesto A ⊂ M un n´ umero real que mida el grado de incertidumbre sobre su ocurrencia.CAP´ITULO 1 Teor´ıa de la Probabilidad 1. 1 . Sin embargo. una medida de probabilidad se define sobre una σ-´algebra del espacio muestral. es decir. optamos por una definici´on menos rigurosa y m´as intuitiva para introducir este concepto. Definici´ on 1. se imponen ciertas propiedades intuitivas que definen una clase de medidas que se conocen como medidas de probabilidad. Una funci´on p que proyecta los subconjuntos A ⊂ M en el intervalo [0.1. se parte de un espacio muestral M en el que se incluyen todos los posibles resultados individuales del experimento (sucesos elementales).1 Medida de Probabilidad. 1] se llama medida de probabilidad si satisface los siguientes axiomas2 : Axioma 1 (Normalizaci´ on): p(M) = 1.

p(A) + p(A) Normalizaci´ on: La evidencia asociada a una ausencia completa de informaci´on es cero. A∩ B. Si A ⊆ B ⊆ M. sabemos .1. existen numerosas medidas de probabilidad que cumplen los axiomas anteriores. ocurrir´a un elemento del espacio muestral M (es decir. Inclusi´ on-Exclusi´ on: Dado cualquier par de subconjuntos A y B de M. para A ⊂ M. independientemente de nuestro grado de certeza. sin embargo. TEOR´IA DE LA PROBABILIDAD 2 Axioma 2 (Aditividad): Para cualquier sucesi´ on infinita. As´ı. Por ejemplo: Complementariedad: La probabilidad de un suceso y la de su com¯ = 1. de subconjuntos disjuntos de M. Asignaci´on de Probabilidades Para un mismo experimento aleatorio. plementario suman uno. p(A) ≤ 1. . El Axioma 2 es una f´ormula de agregaci´on que se usa para calcular la probabilidad de la uni´on de subconjuntos disjuntos. se cumple la igualdad p Ã∞ [ i=1 ! Ai = ∞ X p (Ai ). entonces p(A) ≤ p(B).1) i=1 El Axioma 1 establece que.2. p(φ) = 0. la medida de probabilidad que se asigna a un experimento real debe de ajustarse a la incertidumbre real asociada con cada uno de los posibles sucesos. 1. . (1. N´otese que esta propiedad tambi´en se cumple para sucesiones finitas. p(B) = p((B ∩A)∪(B \A)) = p(A∪(B \A)) = p(A)+p(B \A) ≥ p(A). Establece que la incertidumbre de un cierto subconjunto es la suma de las incertidumbres de sus partes (disjuntas). A1 . B. . Acotaci´ on: La probabilidad de cualquier suceso es menor o igual que la unidad. Su demostraci´on es sencilla: 1 = p(M) = p(M ∪ φ) = p(M) + p(φ) ⇒ p(φ) = 0. y A ∪ B no son independientes.. el conjunto M es exhaustivo). A2 . se cumple siempre la siguiente igualdad: p(A ∪ B) = p(A) + p(B) − p(A ∩ B). Monotonicidad: La evidencia de la pertenencia de un elemento a un conjunto debe ser al menos la evidencia de cualquiera de sus subconjuntos.2) Esta propiedad establece que las probabilidades de los conjuntos A. De los axiomas anteriores pueden deducirse propiedades muy interesantes de la probabilidad. (1.

indicando que son equiprobables (ver figura 1. donde fn (A) representa la frecuencia relativa del suceo A en n realizaciones del experimento. Por ejemplo. se pueden aplicar las propiedades de la probabilidad descritas anteriormente para calcular la probabilidad de sucesos compuestos como “que sea invierno o llueva”. el conjunto de los posibles resultados del lanzamiento. y se basa en el principio de indiferencia: todos los sucesos elementales del espacio muestral son equiprobables (por ejemplo. 5. si se quiere asignar una probabilidad a los suscesos elementales del lanzamiento de un dado. 5 y 6. si alguna de las frecuencias se separa mucho del valor 1/6 se puede concluir que es un dado trucado. los seis nmeros tienen la misma probabilidad de ocurrir. en el caso de un dado no trucado). 3.1 (Lanzamiento de un dado). si los dados no est´an trucados. En la pr´actica. Esta idea se corresponde con el enfoque cl´asico de la asignaci´on de probabilidades. la probabilidad de un suceso dado se puede obtener como el cociente del n´ umero de casos favorables a dicho suceso entre el n´ umero de casos posibles. Por ejemplo. la direcci´on del viento y la ausencia o no de lluvia. Las frecuencias relativas de cada uno de estos sucesos elementales convergen al valor 1/6. Ejemplo 1. que se remonta al nacimiento de esta disciplina (Bernoulli. 4. y utilizando las propiedades de las medidas de probabilidad. ASIGNACION 3 que al jugar a los dados. podemos definir una medida de probabilidad en base a las frecuencias observadas en un per´ıodo amplio de tiempo (por ejemplo.´ DE PROBABILIDADES 1. o “que sea invierno y llueva”. diez a˜ nos): N=3650 NE SE SW NW INVIERNO Seco Lluvia 190 99 24 18 98 223 49 150 PRIMAVERA Seco Lluvia 287 166 6 4 18 119 95 277 VERANO Seco Lluvia 360 162 1 9 15 71 108 251 ˜ OTONO Seco Lluvia 177 89 33 26 94 248 36 147 Una vez que se han hallado las probabilidades de los sucesos elementales. se puede repetir el experimento un n´ umero elevado de veces y observar las frecuencias de aparici´on del 1. Ello lleva a definir la probabilidad de un suceso A como el l´ımite asint´otico de la frecuencia relativa de ocurrencia de dicho suceso en la realizaci´on del experimento: p(A) = n→∞ l´ım fn (A). 2. 2. 6}. Laplace). 4. En la pr´actica una aproximaci´on del l´ımite asint´otico se obtiene repitiendo el experimento un n´ umero suficientemente elevado de veces. a partir del cual fn (A) se estabiliza.2. . En este caso el espacio muestral es M = {1. si queremos asignar una probabilidad a los distintos sucesos meteorol´ogicos que pueden producirse seg´ un la estaci´on del a˜ no.1). Un ejemplo cl´asico que ilustra los axiomas y la asignaci´on de probabilidades es el del lanzamiento de un dado no trucado. A partir de esta asignaci´on de probabilidades. la probabilidad asociada a un suceso cualquiera de un experimento se puede asignar repitiendo el experimento un n´ umero suficiente de veces y observando las frecuencias relativas de dicho suceso. que “el viento no sople del NE”. es decir. En este caso. en este caso. 3.

1 los espacios muestrales y las asignaciones de probabilidades coinciden en ambos casos. nk . Definici´ on 1.5 Urna 2 Figura 1. Como se ve en la figura 1. etc. indicando que ambos experimentos son equivalentes. el problema de la asignaci´on de probabilidades se reduce a un simple problema de combinatoria en el que es necesario contar el n´ umero de resultados posibles (sucesos elementales) y cu´antos de ´estos son favorables al suceso cuya probabilidad se quiere calcular. 1.3 Combinaciones y Variaciones. TEOR´IA DE LA PROBABILIDAD 4 se puede calcular p({1.3) . 5} = 1/2. Un experimento equivalente a lanzar el dado consiste en extraer una bola de una urna que contiene seis bolas numeradas.5 1. con las cuales pueden resolverse numerosas situaciones pr´acticas.1.5 0. . .1. el n´ umero de suconjuntos (no importa el orden) de m elementos distintos que pueden formarse viene dado por el n´ umero combinaciones de n elementos tomados de m en m: Ã n Cm = n m ! = n! . . (n − m)! m! (1. 3. 3}) = p({1}) + p({3}) = 1/3. Definici´ on 1.2 Regla multiplicativa.1: Experimentos aleatorios equivalentes y no equivalentes.. Dados k conjuntos con n1 .5 1. x Ps(x) s(x) 1 2 Dado x P(x) 1 2 3 4 5 6 1/6 1/6 1/6 1/6 1/6 1/6 4 3 6 5 1 2 3 4 5 6 1/6 1/6 1/6 1/6 1/6 1/6 1 1 1 1 1 1 Urna 1 x Ps(x) s(x) 2 2 1 2 4 4 3 5 6 1 2 3 4 5 6 1/9 3/9 1/9 2/9 1/9 1/9 1.75 1. respectivamente. . Dado un conjunto de n elementos. nk elementos. .5 0. el n´ umero de muestras distintas de k elementos que pueden obtenerse tomando un elemento de cada conjunto es n1 . La siguentes definiciones muestran las reglas de conteo m´as elemtales. p(impar) = p{1.2. Conteo: Conceptos Fundamentales de Combinatoria En numerosas situaciones pr´acticas.

En cambio. las posibilidades para elegir a los tres mejores atletas son 20 = 1140. . . × 365 − k + 1 = 365!/(365 − k)!. ¿Cu´al es la probabilidad p(k) de que almenos dos personas cumplan a˜ nos el mismo da?. Por tanto la probabilidad de que todas la personas cumplan a˜ nos k en d´ıas distintos es b = a/365 y la probabilidad de su suceso complementario.2. Si k personas est´an en una habitaci´on. Ejemplo 1. Y ¿dos caras y dos cruces?. .4) En cambio. 3 Ejemplo 1. ¿de cu´antas formas se pueden obtener 3 caras?.5 es necesario un grupo de. La regla multiplicativa permite dividir un problema en partes (que ser´an finalmente multiplicadas) y las variaciones y combinaciones permiten tratar cada una de estas partes. es decir.3 Al lanzar una moneda 4 veces. Calculamos la probabilidad del suceso complementario al pedido en el enunciado. ¿Cu´antos podium (primero. (n − m)! (1. respectivamente. el n´ umero de conjuntos con elementos repetidos viene dado por las combinaciones con repetici´ on: Ã n CRm = n m ! = (n + m − 1)! .´ DE PROBABILIDADES 1. al menos. De ³ 4 3 ´ =4y ³ 4 2 ´ = 6. se puede observar que para que la probabilidad sea mayor de 0. 365k (365 − k)! V Rk365 Por ejemplo. que al menos dos personas cumplan a˜ nos el mismo d´ıa ser´ a: p(k) = 1 − b = 1 − 365! Vk365 = 1 − . el n´ umero de vectores (conjuntos ordenados) de m elementos distintos viene dado por variaciones de n elementos tomados de m en m: Vmn = n(n − 1) . cuando existe repetici´ on se habla de variaciones con repetici´ on n V Rm = mn .5) As´ımismo. . el suceso “todas las personas cumplen a˜ nos en das distintos”. . ¿de cu´antos formas distintas se puede elegir el conjunto de los tres mejores atletas? El n´ umero total de podium distintos viene dado por las permutaciones de las 50 personas tomadas de tres en tres 20 19 18 ³ = ´6840. (n − 1)! m! (1. es decir. El n´ umero total de combinaciones de d´ıas para los cumplea˜ nos de k personas es 365k . 21 personas.2 En una competici´ on donde participan 50 atletas. (n − m + 1) = n! . segundo y tercero) distintos se pueden dar?. Ejemplo 1. El n´ umero de permutaciones posibles es a = 365 × 364 × . ASIGNACION 5 Por otra parte.4 (El problema de cumplea˜ nos).

y suelen. Probabilidad Condicional El conocimiento de la ocurrencia de un suceso puede modificar las probabilidades de otros sucesos.1. p(An |A1 ∩ . .4 Probabilidad condicional. la probabilidad condicional de A dado B viene dada por p(A ∩ B) p(A|B) = . Esto conduce al concepto de probabilidad condicional. la probabilidad de obtener un dos al lanzar un dado cambia si se sabe que el resultado es un n´ umero par.8) Esta f´ormula puede probarse de forma sencilla a partir de (1. Dependencia e Independencia Cuando un suceso sucesos no suministra informaci´on alguna sobre la ocurrencia de otro se dice que ´estos dos sucesos son independientes. (1.7). ∩ An−1 ). . . (1. Entonces. Una propiedad importante de la relaci´on de independencia es su simetr´ıa. Definici´ on 1. cada vez que se dispone de nueva informaci´on.1. . (1. tambi´en la probabilidad de que un paciente tenga una enfermedad dada puede cambiar tras el conocimiento de los resultados de un an´alisis de sangre. se dice que el suceso B es independiente del A si P (B/A) = P (B).3. Por ejemplo. Recordando la definici´on de probabilidad condicionada se tiene P (B/A) = P (B ∩ A) = P (B) P (A) ⇔ P (A ∩ B) = P (A) P (B) y por tanto P (A/B) = P (A) P (B) P (A ∩ B) = = P (A) P (B) P (B) .7) Esta f´ormula puede generalizarse para intersecciones de m´as conjuntos. Sean A e B dos sucesos tales que p(B) > 0. . Por ello. 1. TEOR´IA DE LA PROBABILIDAD 6 1. cambiar. dando lugar a la llamada regla de la cadena: p(A1 ∩ A2 ∩ .3.6) implica que la probabilidad del suceso A ∩ B viene dada por p(A ∩ B) = p(B)p(A|B). las probabilidades de los sucesos pueden. ∩ An ) = p(A1 )p(A2 |A1 ) . . Definici´ on 1.6) p(B) La ecuaci´on (1.5 (Independencia de sucesos) Sean A y B dos sucesos tales queP (A) > 0 y P (B) > 0.

4. 1.573.1. Creciente Seco Lluvia 297 132 22 12 58 175 82 225 459 544 Nueva Seco Lluvia 254 141 14 17 43 155 78 177 389 490 Ahora: → P (lluvia) = 2059/3650 = 0. .586 → P (lluvia|LL) = 506/(506 + 377) = 0.4.564. Menguante Seco Lluvia 208 106 16 16 65 166 77 231 366 519 C. → P (lluvia|SW ) = P (LL ∩ SW )/P (SW ) = 661/886 = 0. lo que indica que la lluvia y la fase lunar son independientes.9) Ejemplo 1. tambi´en B es independiente de A. TEOREMA DE BAYES 7 luego si A es independiente de B.a las probabilidades condicionadas y resolver casos pr´acticos en los que la inforamci´on disponible a priori no permite realizar el c´alculo de forma directa.746 De esta forma vemos que los sucesos lluvia y viento son dependientes. por lo que se dice que A y B son independientes. N´otese que en la definici´on 1. lluvia). consideramos la fase lunar: N=3650 NE SE SW NW TOTAL ANUAL Seco Lluvia 1014 516 64 57 225 661 288 825 1591 2059 Llena Seco Lluvia 255 137 12 12 59 165 51 192 377 506 C.5 Supongamos que durante 10 aos los fen´omenos: estaci´on del ao.542 → P (lluvia|CM ) = 519/(519 + 366) = 0. podemos calcular: → P (lluvia) = 2059/3650 = 0. direcci´ on del viento y lluvia se han dado con las frecuencias mostradas en la siguiente tabla: N=3650 NE SE SW NW TOTAL ANUAL Seco Lluvia 1014 516 64 57 225 661 288 825 1591 2059 INVIERNO Seco Lluvia 190 99 24 18 98 223 49 150 361 490 PRIMAVERA Seco Lluvia 287 166 6 4 18 119 95 277 406 566 VERANO Seco Lluvia 360 162 1 9 15 71 108 251 484 493 OTOO Seco Lluvia 177 89 33 26 94 248 36 147 340 510 Si tomamos como sucesos elementales cada una las posibles combinaciones (estacion. Teorema de Bayes El teorema de Bayes es una u ´til f´ormula que nos permite “dar la vuelta.5 puede utilizarse la condici´on P (A ∩ B) = P (A)P (B) (1. → P (lluvia|CC) = 490/(490 + 389) = 0.564.557 → P (lluvia|LN ) = 544/(544 + 459) = 0. Supongamos ahora que en lugar de considerar la estaci´on del ao. viento.

A2 . denotado con g. El teorema de la probablidad total dice que la probabilidad de un s´ıntoma (por ejemplo. mientras que la zona blanca son los individuos libres de la enfermedad.2 (Bayes). TEOR´IA DE LA PROBABILIDAD 8 Teorema 1. . A su vez. . Sea {A1 . la siguiente figura muestra (en su zona sombreada) los individuos que poseen una enfermedad (c´ancer de est´omago). dolor d) se puede obtener como P (d) = P (d|g)P (g) + P (d|¯ g )P (¯ g ). Entonces se tiene que P (B) = n X P (B/Ai ) P (Ai ) i=1 Este teorema se puede demostrar f´acilmente de la siguiente forma: P (B) = P (B ∩ ( n S i=1 = Ai )) = P ( n P i=1 n S i=1 (B ∩ Ai )) = P (B ∩ Ai ) = n P i=1 P (B/Ai ) P (Ai ) Por ejemplo. An } una clase exhaustiva (su uni´on es el espacio muestral) de sucesos incompatibles dos a dos. Teorema 1. g¯ (estos dos sucesos son exhaustivos e incompatibles).1. En las condiciones del teorema anterior se tiene: P (B/Ai ) P (Ai ) P (Ai /B) = P n P (B/Ai ) P (Ai ) i=1 La demostraci´on de este teorema tambi´en es muy sencilla: P (Ai ∩ B) = P (B/Ai ) P (Ai ) = P (Ai /B) P (B) . existen otros sucesos (s´ıntomas) presentes en la poblaci´on. .1 (Probabilidad total).

12. puesto que p(v|¯ g ) = card({v. puesto que p(v|g) = card({v. los modelos de aprendizaje se basan fundamentalmente en la probabilidad condicionada. el doctor decide examinar al paciente para obtener m´as informaci´on. p(g) = 0. y 300 que no la tienen. que son las probabilidades de Ai despu´es de conocer la informaci´on B. g¯})/card(¯ g ) = 90/300 = 0. hay una probabilidad 700/1000 = 70 % de que el paciente tenga adenocarcinoma g´astrico. TEOREMA DE BAYES 9 y despejando P (Ai /B) y teniendo en cuenta el teorema de la probabilidad total resulta el teorema de Bayes.Un centro m´edico tiene una base de datos consistente en los historiales cl´ınicos de n = 1000 pacientes. mientras que s´olo 30 % de los pacientes que no tienen la enfermedad vomitan.4. p({v.44. p}|g) = card({v.45.5. p. hay 700 pacientes (la regi´on sombreada) que tienen la enfermedad adenocarcinoma g´astrico (g). p}|¯ g ) = card({v. Ejemplo 1. p. En el siguiente ejemplo se muestra una de las aplicaciones m´as importantes de este campo (el diagn´ostico m´edico) a la vez que se ilustra la aplicaci´on del teorema de Bayes. g¯})/card(¯ g ) = 35/300 ≈ 0.3. Esto significa que el 44 % de los pacientes vomitan. se considera que est´an ligados a esta enfermedad. Tres s´ıntomas. Por tanto. Verosimilitud: El 50 % de los pacientes que tienen la enfermedad vomitan. g})/card(g) = 350/700 = 0. puesto que se calcula con la informaci´on inicial. es decir. p({v.1. por ser las probabilidades antes de conocer la informaci´on B. Finalmente. Las probabilidades P (Ai /B). dolor (d). p(v) = card(v)/n = 440/1000 = 0. en estos sistemas. Por tanto.3 de equivocarse). Los conceptos presentados en este cap´ıtulo tienen mucha importancia en diversos campos aplicados como. A las probabilidades P (Ai ) se las suele llamar probabilidades a priori. Sup´ongase que los resultados del examen muestran que el paciente tiene los . cuando un paciente nuevo llega al centro m´edico. por ejemplo en la inteligencia artificial (sistemas expertos probabilsticos) pues permiten inferir conclusiones en base a informaci´on cuantitativa. las probabilidades P (B/Ai ) se llaman verosimilitudes. o “a priori”. Por ello.7. no es suficientemente alta para hacer un diagn´ostico (n´otese que tomar una decisi´on ahora implica una probabilidad 0. Puesto que la probabilidad inicial de que el paciente tenga adenocarcinoma g´astrico. g})/card(g) = 315/700 = 0. donde card(v) denota la frecuencia absoluta de pacientes de la base de datos que vomitan. Esta es la probabilidad inicial. antes de conocer informaci´on alguna sobre el paciente. pueden hacerse las afirmaciones siguientes: probabilidad “a priori”: 440 de 1000 pacientes vomitan.6 (Diagn´ ostico M´ edico). mientras que s´olo el 12 % de los que no tienen la enfermedad vomitan y pierden peso. Verosimilitud: El 45 % de los pacientes que tienen la enfermedad vomitan y pierden peso. reciben el nombre de probabilidades a posteriori. p´ erdida de peso (p) y v´ omitos (v).

9 = 0.12) (1. como sigue: Tras observar que el paciente vomita la probabilidad “a posteriori” es p(g|v) = = p(g)p(v|g) p(g)p(v|g) + p(¯ g )p(v|¯ g) 0. la probabilidad “a posteriori”.3) Tras observar que el paciente vomita y presenta p´erdida de peso la probabilidad “a posteriori” es p(g|{v. p}) = = p(g)p({v. Ahora.10) N´otese que cuando se aplica el teorema de Bayes sucesivamente.205 × 0.7.3 × 0. p}|¯ g) 0.795.5) + (0. TEOR´IA DE LA PROBABILIDAD 10 s´ıntomas v´omitos y p´erdida de peso.5.45 = 0. es decir. v}) 0.7 × 0.10). p}|g) + p(¯ g )p({v.5 = 0. En la u ´ltima d´ecada . N´otese tambi´en que la probabilidad cambia tras observar las evidencias.9. despu´es aument´o a 0.795.389) que da la misma respuesta que en (1. ¿cu´al es la probabilidad de que el paciente tenga la enfermedad? Esta probabilidad “a posteriori” puede ser obtenida de la probabilidad “a priori” y de las verosimilitudes.9.7 × 0. Sin embargo. la probabilidad “a posteriori” calculada en una etapa dada es la misma que la probabilidad “a priori” en la etapa siguiente.9 tras observar la evidencia acumulada.7) para que el doctor diagnostique que el paciente tiene la enfermedad. Esta probabilidad puede ser suficientemente alta (comparada con la probabilidad “a priori” 0. p}|g) p(g)p({v. el paciente tiene una probabilidad 0. y luego a 0.3 × 0.7 × 0. que se ha calculado en la primera etapa anterior. puede ser usada como probabilidad “a priori” en la segunda etapa. etc.795 × 0.7 × 0. v}) + p(¯ g |v)p(p|{¯ g . La probabilidad de tener la enfermedad era inicialmente 0. (0. p}) = = p(g|v)p(p|{g. p(g|{v. (0. computaci´on neuronal. ser´ıa conveniente observar nuevas evidencias antes de hacer este diagn´ostico. Por ejemplo. aplicando el teorema de Bayes en dos etapas. Al final de la u ´ltima etapa. 1. dada la evidencia (el paciente tiene esos s´ıntomas). v}) p(g|v)p(p|{g. (0.795 × 0.9) + (0. Redes Probabil´ısticas Durante los u ´ltimos a˜ nos la probabilidad se ha convertido en una herramienta fundamental en distintas ´areas de la computaci´on: aprendizaje autom´atico (machine learning).9 de tener la enfermedad.1.45) + (0.