3. INCERTIDUMBRE Se han propuestos diferentes métodos para manejar la incertidumbre es responsabilidad del deseñador elegir el método mas apropiado para un sistema experto, dependiendo de su aplicación.
4. TIPOS DE ERROR Muchos tipos de error diferentes pueden aportar incertidumbre. Las diferentes teorías de incertidumbre tratan de resolver parte o todo esto, para proporcionar la inferencia más confiable. Ejemplo Error Razón Apagar la válvula Ambiguo ¿Cuál válvula? Activar la válvula 1 Incompleto ¿De que manera? Apagar la válvula 1 Incorrecto ¿Lo correcto es encender? La válvula está pegada Falso positivo Las válvulas no se pegan La válvula no está pegada Falso negativo La válvula esta pegada Llevar la válvula 1 a 5 Impreciso Lo correcto es 5.4 Llevar la válvula de 1 a 5.4 No confiable Lo correcto es 9.2
5. TIPOS DE ERROR Ejemplo Error Razón Llevar la válvula de 1 a 5.4, No confiable Error de equipo 6 o 0 El valor de la válvula 1 es 5.4, Error aleatorio Fluctuación estadística 5.5 o 5.1 El valor de la válvula 1 es 7.5 Error sistemático Mala calibración La válvula 1 no esta pegada Inducción no válida La válvula está pegada porque nunca se ha pegado antes El resultado es normal y, Deducción invalida La válvula se quedó por tanto, la válvula 1 está pegada en posición En buenas condiciones abierta
6. ERROR E INDUCCIÓN Inducción invalida “ La válvula no está pegada por que nunca antes se ha pegado” La inducción trata de generalizar de lo particular a lo general como en. Mi disco nunca se ha descompuesto . . Mi disco nunca se descompondrá Con excepción de la inducción matemática, nunca puede probarse que los argumentos inductivos son correctos, sólo pueden proporcionar un grado de confianza de que la conclusión es correcta.
7. ERROR E INDUCCIÓN La alarma de fuego sonó Huelo a humo Mis ropas están quemándose . . Hay fuego Observe que este es un argumento deductivo, porque es posible ver las flamas. Los sistemas pueden estar formado por reglas deductivas e inductivas, donde las reglas inductivas son de naturaleza heurística.
8. PROBABILIDAD CLASICA Una herramienta antigua, pero todavía muy importante para la solución de problemas de IA es la probabilidad. Se trata de una manera cuantitativa de manejar la incertidumbre. A la probabilidad clásica también se le llamó probabilidad a priori debido a que trata con juegos o sistemas de azar. Una probabilidad a priori considera juegos como los dados las cartas, las monedas o cualquier cosa similar, como sistemas ideales que no se desgastan. Por ejemplo al tirar un dado, los tiros posibles son 1,2,3,4,5 y 6; si el dado es limpio (no está cargado), entonces cada cara tiene la misma probabilidad de salir P(1)=1/6, P(2)=1/6, etc. Cuando una prueba se repite varias veces y arroja exactamente el mismo resultado, el sistema es determinístico; en casi contrario, es no determinístico o aleatorio.
9. Dada una población conocida, la deducción nos permite hacer inferencias sobre la muestra desconocida; de manera correspondiente, dada una muestra conocida; la inducción nos permite hacer inferencias sobre la población desconocida. POBLACIÓN MUESTRA POBLACIÓN CONOCIDA MUESTRA DESCONOCIDA POBLACIÓN DESCONOCIDA MUESTRA CONOCIDA
10. PROBABILIDADES EXPERIMENTALES Y SUBJETIVAS La probabilidad clásica no puede responder a preguntas como cuál es la probabilidad de que su unidad de disco se descomponga mañana o cuál es la expectativa de vida para un hombre de 25 años. A diferencia del método a priori, la probabilidad experimental define la probabilidad de un evento, P(E), como límite de una distribución de frecuencia. P(E) = lím f(E) N ∞ También se le llama probabilidad a posteriori, que significa “después del evento”; también se le conoce como probabilidad posterior. La idea de esta es medir la frecuencia con que ocurre un evento, durante un gran número de pruebas y, a partir de ésta, inducir la probabilidad experimental.
11. PROBABILIDADES EXPERIMENTALES Y SUBJETIVAS Porcentaje total de descomposturas Horas de uso 10 100 25 250 50 500 75 750 99 1000 Si la unidad se ha utilizado durante 750 horas, entonces puede inducirse que hay un 75 por ciento de probabilidades de que se descomponga mañana. A diferencia de un juego ideal, esa unidad de disco no es exactamente igual a las demás, puede haber diferencias en los materiales usados, el control de calidad, las condiciones ambientales y el uso; todas ellas afectan al disco.
12. La probabilidad subjetiva trata con eventos que no son reproducibles y no tienen base histórica que sirva para la extrapolación. Una probabilidad subjetiva en realidad es una creencia u opinión expresada como una probabilidad, más que una probabilidad basada en axiomas o mediciones empíricas. Las creencias y opiniones de un especialista desempeñan importantes papeles en los sistemas expertos.
13. Las probabilidades de los eventos compuestos pueden calcularse a partir de sus espacios de la muestra. En un ejemplo simple, consideramos la probabilidad de lanzar un dado de manera tal que el resultado sea un número par y divisible entre tres. Esto puede expresarse como un diagrama de Venn para los conjuntos A={2,4,6} B={3,6} Para nuestro dado, los eventos de un numero par y divisible entre estas se afectan definitivamente entre sí y, de este modo, no es un experimento estocástico. La probabilidad de que caiga un número par en un dado y un número divisible entre tres el otro es estocástica. PROBABILIDADES COMPUESTAS
14. Los eventos que no son mutuamente excluyentes se influyen entre sí. Saber que un evento a ocurrido puede llevarnos a revisar la probabilidad de que otro evento ocurrirá. A la probabilidad de un evento A, dado que ocurrió el evento B, se llama probabilidad condicional, se indica con P(A|B) y se define como: P(A|B) = P (A ∩ B) para P(B) ≠ 0 P(B) PROBABILIDADES CONDICIONALES
15. La probabilidad condicional P(A|B), establece la probabilidad de un evento A dado que el evento B ocurrió. El problema contrario consiste en encontrar la probabilidad inversa, que establece la probabilidad de un evento anterior dado que ha ocurrido uno posterior. Este tipo de probabilidad sucede a menudo, como en el diagnóstico médico o de equipo, donde los síntomas aparecen y el problema consiste en encontrar la causa más probable. La solución a este problema es el teorema de Bayes. Suponiendo que se tiene una unidad y no se conoce su marca ¿cuál es la probabilidad de que, si se descompone, sea de la marca X?¿Y que no lo sea? TEOREMA DE BAYES
16. No elegir la marca X P(X’)=0.2 Elegir la marca X P(X)=0.8 No se descompone P(C’|X’)=0.5 Se descompone P(C’|X’)=0.5 No se descompone P(C’|X’)=0.25 Se descompone P(C|X)=0.75 P (C ∩ X’)=0.1 P (C’ ∩ X’)=0.1 P (C’ ∩ X)=0.2 P (C ∩ X)=0.6 P (X’|C’)= 0.1 P(X’|C)= 0.1 0.1+0.2 0.1+0.6 = 1/3 = 1/7 =2/3 = 6/7 P(E ∩ Hi) P(Hi | E) = __________ ∑ P(E ∩ Hi) J
17. El teorema de Bayes suele usarse para los análisis de árbol de decisión en los negocios y las ciencias sociales. Consideremos un ejemplo de exploración petrolera, el explorador debe decidir cuales son las oportunidades de encontrar petróleo; si no hay evidencias a favor ni en contra, puede asignar probabilidades previas subjetivas. P(O) = 0.6 P(O’)=0.4 Una herramienta muy importante para la exploración petrolera y mineral es la exploración sísmica. Desgraciadamente las pruebas sísmicas no son 100 por ciento exactas; algunas estructuras geológicas pueden afectar las ondas de sonido, causando que la prueba reporte la presencia de petróleo cuando en realidad no lo RAZONAMIENTO HIPOTÉTICO E INDUCCION HACIA ATRAS
18. hay (falso positivo) . De igual manera, la prueba puede reportar la ausencia de petróleo cuando en realidad si lo hay (falso negativo). En este caso es una probabilidad condicional por que la causa (petróleo o no) debe haber ocurrido antes del efecto (resultado de la prueba). Una probabilidad a posterior regresaría desde el efecto (resultado de la prueba) hacia la causa (petróleo o no). Por lo general la probabilidad condicional va hacia delante en el tiempo mientras que una probabilidad a posterior va hacia atrás. RAZONAMIENTO HIPOTÉTICO E INDUCCION HACIA ATRAS