You are on page 1of 15
Sn Aspectos Generales | @ Los clasificadores Bayesianos buscan responder a la pregunta: "basados en los valores observados de los predictores, {Cudl es la probabilidad de que el resultado sea la clase Cx?” @ Se encuentra basado en el teorema de Bayes-Price. @ Estudios comparativos de diversos algoritmos de clasificacién han en- contrado que Naive Bayes es comparable en performance a los drboles de decisién y las redes neuronales. @ Suelen tener alta preci bases de datos. ny rapidez cuando son aplicados a grandes @ Una asuncidn importante es que el efecto del valor de un atributo para una clase dada es independiente de los valores del resto de los atributos (Independencia Condicional dentro de clases). @ El supuesto anterior simplifica los cdlculos, por eso recibe el nombre de naive EG. Construccién de un Clasificador Bayesiano | @ Asumir que se quiere predecir la variable Y que asume K valores dis- tintos y que estos valores son 1,..., K. Asumir que hay m variables predictoras X = (Xi,...,Xm) @ Dividir el conjunto de datos en K subconjunto de datos Ilamados DS\, DS»,..., DS Definir DS; =Registros en los cuales Y = k Para cada grupo DS, usamos estimacion de densidad para estimar el modelo Mj, que modela la distribucion de las variables de entrada entre los registros Y =k @ Mx estima la funcién de probilidad conjunta por clase Pr[X|Y = k] RC Coe CC kd Construccién de un Clasificador Bayesiano II @ Idea 1 (No Bayesiana): Suponga que se quiere predecir la clase Y a la cual pertenece el vector (Xj = 21, X2 = 22,...,Xm = &m). Se puede tomar como la clase Y = k a aquella para la cual Pr [Y = k|X] sea la mayor posible. Esto es, yeredict — arg max Pr[X1 =a1...Xm = ¢mlY =k] y @ Idea 2 (Bayesiana): Para prededir a cual pertenece el nuevo vector de entradas (X) = 21, X2 = #2,...,Xm = @m) es mejor hallar la clase Y =k para la cual la probabilidad posterior Pr [Y = k|X] sea la mayor posible. rr @ MLE (Estimador Maximo Verosimil): yeredict — arg max Pr[X1 =21...Xm = 2mlY =] y @ MAP (Estimador Maximo a Posteriori): yrredict — arg max Pr [Y =k|X, =2)...Xm = am] y Calculo de la Probabilidad a Posteriori | Sea Y la variable de clasificacién que puede tomar los valores k=1,...,K y X la coleccién de variables predictoras. La probabilidad de pertenecer a una clase k para un conjunto de valores de X (evidencia) estard dada por la Regla de Bayes-Price: Pr[Y = k|X] _Pr[¥ =k] Pr[X|¥ =k] Pr[X] Pr[¥ = k]Pr[Xy = 21...Xm = aml¥ =k] Pr[X] = 2)... Xm =Fnl Pr[Y = k]Pr[Xy = 21...Xm = aml¥ =k] Dh Prk = 21... Xm =k] Pr[¥ =A] Pr[X1 =a... Xm =aml¥ = hl Pr[Y¥ = j]Pr(X, =21...Xm =2mlY = j] Im; CRUEL LS lores Calculo de la Probabilidad a Posteriori II @ Pr[Y =&|X] es la probabilidad a posteriori. Por ejemplo suponga- mos que tenemos las variables predictoras referidas a clientes descritos por los atributos edad e ingreso. Y de manera especifica, un cliente tiene 35 afios de edad con un ingreso de $40000. Supongamos que k es la hipdtesis de que el cliente comprard una computadora. Entonces se desea calcular la probabilidad de que el cliente compre una compu- tadora conociendo su edad e ingreso. © Pr[Y = kJ es la probabilidad a priori del resultado. Esencialmente, ba- sado en lo conocemos acerca del problema, cuanto esperariamos que sea la probabilidad de pertenecer a una clase. Para el ejemplo ante- rior, seria la probabilidad de que un cliente compre una computadora independientemente de su edad, ingreso o cualquier otra informacién CRUEL LS lores Calculo de la Probabilidad a Posteriori III @ Pr [X] es la probabilidad de los valores de los predictores. En otras palabras, si una nueva muestra sera predicha, {Qué tan probable es este patrén en comparacién con el resto de datos de entrenamiento?. Formalmente, esta probabilidad es calculada usando una distribucién de probabilidad multivariada. En la practica, se realizan asunciones para reducir la complejidad de este cdlculo. Para nuestro ejemplo, serd la probabilidad de que un cliente tenga 35 afios y gane $40000 @ Pr[X|¥ =k] Es la probabilidad condicional. Para los datos asociados con la clase k, {Cual es la probabilidad de observar los valores para las variables predictoras?. En el ejemplo, cual es la probabilidad de que un cliente tenga 35 afios y gane $40000 si sabemos que comprard una computadora Clasificacién en me a oa. Estimacién de un Clasificador Bayesiano | @ Estimar la distribucion de las predictoras en cada clase. Es decir, estimar Pr[X1 =21...Xm= Pr[Y¥ = J] Pr[X|Y = Jj] paral

You might also like