3. ¿Quién fue Bayes? Tomás Bayes: Londres, 1702-Tunbridge Wells, 1761) Matemático británico. Estudió el problema de la determinación de la probabilidad de las causas a través de los efectos observados. El teorema que lleva su nombre se refiere a la probabilidad de un suceso que se presenta como suma de diversos sucesos mutuamente excluyentes.
4. Teorema de Bayes Definiciones : Probabilidad a priori La probabilidad a priori o condicional asociada a una proposición a es el grado de creencia que se le otorga en ausencia de cualquier otra información; y se escribe como Pa. Probabilidad a posteriori o condicional Una vez que el agente obtiene alguna evidencia referente a las variables aleatorias desconocidas que constituyen el dominio, las probabilidades priori ya no son aplicables. En vez de eso, usamos probabilidades a posteriori o condicionales.
5. Teorema de Bayes La notación que se usa es P(a|b), donde a y b son proposiciones cualquiera. Las probabilidades condicionales pueden definirse en términos de probabilidades no condicionales. La ecuación que la define es: También se puede escribir como:
6. Teorema de Bayes Por la regla de conmutatividad tenemos: Igualando los miembros derechos y dividiendo por P(a) obtenemos la Regla de Bayes: Esta ecuación sencilla subyace en todos los sistemas de Inteligencia Artificial modernos con inferencia probabilística.
7. Clasificador Ingenuo (Naïve) de Bayes En abstracto, el modelo de probabilidad para un clasificador es sobre una variable dependiente C, con un pequeño número de resultados (o clases). Esta variable está condicionada por varias variables independientes desde F 1 a F n Problema: Si el número n de variables independientes es grande, basar este modelo en tablas de probabilidad se vuelve imposible. Por lo tanto, el modelo se reformula para hacerlo más manejable
8. Clasificador Ingenuo (Naïve) de Bayes Usando el teorema de Bayes se escribe: Lo anterior podría reescribirse en lenguaje común como: En la práctica sólo importa el numerador, ya que el denominador no depende de C y los valores de F i son datos, por lo que el denominador es, en la práctica, constante.
9. Clasificador Ingenuo (Naïve) de Bayes El numerador es equivalente a una probabilidad compuesta: que puede ser reescrita como sigue, aplicando repetidamente la definición de probabilidad condicional : ... y así sucesivamente. Ahora es cuando la asunción "naïve" de independencia condicional entra en juego: se asume que cada F i es independiente de cualquier otra F j para
10. Clasificador Ingenuo (Naïve) de Bayes Esto significa que por lo que la probabilidad compuesta puede expresarse como Esto significa que haciendo estas asunciones, la distribución condicional sobre la variable clasificatoria C puede expresarse de la siguiente manera: donde Z es un factor que depende sólo de F 1 ,…, F n, es decir, constante si los valores de F i son conocidos.
11.
12.
13.
14. Clasificador Ingenuo (Naïve) de Bayes Su uso contra el correo basura [ editar ] El filtrado Bayesiano aplicado a la detección de correo basura tiene las siguientes ventajas: Mira el mensaje completo Se adapta a sí mismo a lo largo del tiempo Es sensible/adaptable a la empresa/usuario Es multilingüe e internacional Utiliza inteligencia artificial Es difícil de engañar