1. 1
INSTITUTO TECNOLÓGICO DE LÁZARO
CÁRDENAS
2.6 EL MÉTODO DE RESOLUCIÓN DE ROBINSON
2.7 CONOCIMIENTO NO-MONÓTONO Y OTRAS LÓGICAS.
2.8 RAZONAMIENTO PROBABILÍSTICO.
2.9 TEOREMA DE BAYES.
ALUMNO: OROZCO MONTAÑO GERZAÍN
NO. CONTROL: 07560343
MATERIA: INTELIGENCIA ARTIFICIAL
PROFR.: JOSÉ ANTONIO LÓPEZ TELLO
CD. Y PTO. LÁZARO CÁRDENAS, MICH.
2. 2
2.6 EL MÉTODO DE RESOLUCIÓN DE ROBINSON.
2.6 EL MÉTODO DE RESOLUCIÓN DE ROBINSON
2.7 CONOCIMIENTO NO-MONÓTONO Y OTRAS LÓGICAS.
2.8 RAZONAMIENTO PROBABILÍSTICO.
2.9 TEOREMA DE BAYES.
Es un método para decidir si una proposición es válida. Introducido por Alan Robinson en
1965. Es simple de implementar. Se extiende a lógica de primer orden y otras lógicas no
Funcionales.
Es bastante popular en el ámbito de demostraciónautomática de teoremas.
El Método de Resoluciónes un intento de mecanizar el proceso de deducción
natural de esa forma eficiente. Las demostraciones se consiguen utilizando el
método refutativo (reducción al absurdo), es decir lo que intentamos es encontrar
contradicciones. Para probar una sentencia nos basta con demostrar que su
negación nos lleva a una contradicción con las sentencias conocidas (es
insatisfactible). Si la negación de una sentencia entra en contradicción con los
hechos de nuestra base de conocimiento es porque lo contrario, es decir, la
sentencia original era verdadera y se puede deducir lógicamente de las sentencias
que componen dicha base de conocimientos.
Definición
El proceso de agregar el resolvente de dos cláusulas que pertenecen a un conjunto S a S
(ie. de aplicar la regla de resolución a S) se llama un paso de resolución.
NB: Pasos de resolución preservan insatisfactibilidad
3. 3
Sea S un conjunto de cláusulas. Si C es la cláusula resolvente de C1, C2 2 S, entonces S
es insatisfactible siiS [ {C} es insatisfactible. O, lo que es lo mismo, S es
lógicamenteequivalente a S [ {C}.
Definición
Un conjunto de cláusulasS se llama una refutación si S contiene a la cláusulavacía.
Existen distintas Estrategias de Resolución: sistemática, con conjunto soporte,
unitaria, primaria y lineal.
4. 4
2.7 CONOCIMIENTO NO-MONÓTONO Y OTRAS LÓGICAS.
Diseñar reglas R que no sean “correctas”; es decir, que no tengan la propiedad
Usualmente, la aplicación de este tipo de reglas depende del conjunto completo, no
sólo de un subconjunto de premisas.
Propiedad de este tipo de reglas:
La base tienen menos modelos que .
Los modelos de que no son modelos de F son descartados .
Las reglas que verifican esta propiedad se llaman reglas no monótonas.
Hipótesis del mundo cerrado (CWA):Si un hecho (fórmulaatómica cerrada) no es
demostrable,suponemos que su negación es cierta.
Completación:Calcular F tal que impone que los elementos queverifican
cierto predicado son sólo los que certifica.
Razonamiento por defecto:Aplicar las reglas sin cualificación, y revisarlas en
casonecesario.
5. 5
2.8 RAZONAMIENTO PROBABILÍSTICO.
En la inferencia probabilística, la probabilidadmodela la incertidumbre y la función de
distribución conjunta de probabilidad de un sistema de variables se utiliza para describir
las relaciones de dependencia entre ellas y para obtener conclusiones sobre relaciones
causa-efecto.
La introducción de los modelos de redes probabilísticas ha permitido superar muchos
delos obstáculos de la inferencia probabilística. Estos modelos, incluyen las redes de
Markov y las Bayesianas y se basan en modelos gráficos de las relaciones entre las
variables. Una red Bayesiana es una red gráfica que representa las relaciones de
causalidad probabilísticas entre variables y permiten obtener soluciones a problemas de
decisiones bajo incertidumbre.
Se basan en las probabilidades condicionales y la probabilidad Bayesiana. Las
redesBayesianas permiten incluir conceptos de expertos o de información nueva obtenida
sobrela dependencia de eventos o variables, de una manera consistente y analizar su
propagación a través de toda la red para facilitar la toma de decisiones bajo
incertidumbre.
6. 6
2.9 TEOREMA DE BAYES.
La regla de Bayes es solo una técnica para calcular probabilidades condicionales,
y como regla de probabilidad es indiscutible así como su validez. A partir de un
conjunto de probabilidades llamadas "a priori" o "sin corregir", calcula un conjunto
de probabilidades "a posteriori" o "corregidas" que no son mas que una
modificación de las primeras ante la evidencia de que un determinado suceso
ha ocurrido.
Para aclarar estos conceptos, observemos a continuación la diferencia entre
el planteo de probabilidad condicional realizado hasta este momento y el de
Bayes. Cuando nosotros escribimos:
P(B|A)
decimos que esto es
- la probabilidad de que habiendo ocurrido el suceso A, ocurra B. Probabilidad
condicional.
El planteo que hace la Regla de Bayes es:
- el suceso B ha ocurrido, cual es la probabilidad de que provenga de A. Que
A sea causa de B. O sea debo hallar P(A|B).
De una manera mas general podemos decir : El evento B ha ocurrido, cual es la
probabilidad de que haya sido generado por el suceso A1, el A2, etc.; causas
posibles y excluyentes entre si.
Sabemos que P(B|A1) = P(B ^ A1)/P(A1) y P(A1|B) = P(B ^ A1)/P(B ) De lo que se
deduce,
P(A1|B).P(B) = P(B|A1).P(A1) Despejando P(A1|B) ,
7. 7
(ii) P(A1|B) = P(B|A1).P(A1)/P(B)
Para calcular P(B), supongamos que hay N eventos (A1,A2,A3,..An) mutuamente
excluyentes entre si que podrían causar el evento B(efecto).
El efectoB debería ser generado por una de esas causas; entonces la probabilidad
de que B ocurra puede estar dada por:
P(B) = P[(A1^B) U (A2^B) U (A3 ^ B) U...U (An^B)]
Como los sucesos Ai son mutuamente excluyentes, entonces: (Ai^B) y (Aj^B)
deben serlo para todo i distinto de j. Por la regla de adición obtenemos: P(B) =
P(A1).P(B|A1) + P(A2).P(B|A2) +...+ P(An).P(B|An)
Reemplazando este resultado en la ecuación (ii) obtenemos la
REGLA DE BAYES
P(A1|B) = P(A1).P(B|A1) / { P(A1).P(B|A1)+....+P(An)P(B|An) }
De un modo más general:
P(Ai|B) = P(Ai).P(B|Ai) / { P(Ak).P(B|Ak) } para i=1...n
Repasemos el significado de estos términos:
P(Ai|B) = Dado que ya ocurrió el evento B(efecto), probabilidad de que lo causara
Ai. P(Ai) = Probabilidad de ocurrencia del evento Ai ; probabilidad “a priori”
o sin corregir.
P(B|Ai) = Probabilidad del evento B dado que Ai ocurre.
8. 8
REFERENCIA BIBLIOGRÁFICA
2.6 EL MÉTODO DE RESOLUCIÓN DE ROBINSON.
- Nieves Pavón Pulido. Lógica matemática. Obtenido el día 06 de
Abril del 2011.
http://www.uhu.es/nieves.pavon/pprogramacion/temario/anexo
/anexo.html#_Toc495148247
- Stuart J Russell, Peter Norvig. 2004- Inteligencia Artificial, Un
Enfoque Moderno - Prentice Hall 2 Edición. pp. 22
2.7 CONOCIMIENTO NO-MONÓTONO Y OTRAS LÓGICAS.
- Luis Villaseñor Pineda. Representación del Conocimiento.
Obtenido el día 06 de Abril del 2011.
http://ccc.inaoep.mx
- Félix Lara. Razonamiento no monótono.Dpto. Ciencias de la
Computación Inteligencia Artificial. Universidad de Sevilla.Curso
2005–06.Obtenido el día 06 de Abril del 2011.
http://www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r35
841.PDF
2.8 RAZONAMIENTO PROBABILÍSTICO.
- Alvaro Torres M.*, Carolina Tranchita R.**. ¿Inferencia y
razonamiento probabilístico o difuso? Obtenido el día 06 de
Abril del 2011.
http://revistaing.uniandes.edu.co/pdf/Rev19-16.pdf
9. 9
2.9 TEOREMA DE BAYES.
- Facultad de Ciencias Económicas UNPSIP. Bayes. Obtenido el
día 06 de Abril del 2011.
http://www.economicasunp.edu.ar/02-
EGrado/materias/trelew/analisis_sistemas%20I/info/bayes.pdf
- Universidad del Quindío. Teorema de Bayes. Obtenido el 06
de Abril del 2011.
http://www.uniquindio.edu.co/uniquindio/ntic/trabajos/6/grupo3
/probabilidad/paginas/Bayes.htm