SlideShare una empresa de Scribd logo
1 de 207
Descargar para leer sin conexión
Una Introducción a las Redes Bayesianas
Serafín Moral
Departamento de Ciencias de la Computación
Universidad de Granada
Una Introducción a las Redes Bayesianas– p.1/??
Redes Bayesianas
Sistemas Expertos Probabilísticos
Representar conocimiento con incertidumbre.
Después se puede manipular para razonamiento y toma de
decisiones.
Se pueden tratar muchas variables.
Las reglas (probabilidades) se pueden estimar a partir de
datos.
Los modelos tienen una interpretación clara y bien definida.
Actualmente están teniendo un gran desarrollo.
Una Introducción a las Redes Bayesianas– p.2/??
Indicios de importancia
En 1999 J. Pearl uno de los pioneros en Inteligencia Artificial recibió el IJCAI
Award for Research Excellence (El séptimo de estos premios bianuales). Esta
es la distinción más importante en Inteligencia Artificial.
Evolución de publicaciones en JCR (base de datos de publicaciones) bajo la
búsqueda Bayesian Networks:
1990-1999: 118 publicaciones
2000-2006: 587 publicacione
Algunos artículos altamente citados en scholar.google.com:
Aprendizaje de Hecherman y col. (1995): 1249 citas
Clasificación supervisada de Friedman y col. (1997): 880 cirtas
Análisis de datos de expresión genética de Friedman y col. (2000): 906
citas
Filtrado de clientes de Breese y col. (1998) 1129 citas
Libro de Judea Pearl: 8027 citas
Una Introducción a las Redes Bayesianas– p.3/??
Referencias
E. Castillo, J.M. Gutiérrez, A.S. Hadi (1996) Sistemas Expertos y Modelos de
Redes Probabilísticas. Monografías de la Academia de Ingeniería. Academia
de Ingeniería, Madrid.
R.G. Cowell, A.P. Dawid, S.L. Lauritzen, D.J. Spiegelhalter (1999)
Probabilistic Networks and Expert Systems. Springer-Verlag, Nueva York.
F.V. Jensen (1996) An Introduction to Bayesian Networks. UCL Press,
Londres.
F.V. Jensen (2001) Bayesian Networks and Decision Graphs. Springer-Verlag,
Nueva York.
F.V. Jensen, T.D. Nielsen (2007) Bayesian Networks and Decision Graphs
(2nd Edition). Springer-Verlag, Nueva York.
U. Kjaerulff, A.L. Madsen (2007) Bayesian Networks and Influence Diagrams:
A Guide to Construction and Analysis. Springer-Verlag.
J. Pearl (1988) Probabilistic Reasoning in Intelligent Systems: Networks of
Plausible Inference. Morgan Kaufmann, San Mateo, CA.Una Introducción a las Redes Bayesianas– p.4/??
Contenido
Problemas para manejar conocimiento incierto
Teoría de la Probabilidad
Independencia
Redes Bayesianas, D-separación
Construcción de redes Bayesianas
Algoritmo de borrado o de eliminación de variables
El programa Elvira
Otros temas: configuración de máxima probabilidad,
diagramas de influencia, aprendizaje
Una Introducción a las Redes Bayesianas– p.5/??
Sistemas Basados en Reglas
SI es un animal con pelo ENTONCES es un mamífero
Incertidumbre:
SI tiene fiebre y dolor de cabeza, entonces tiene gripe (certeza
0.7)
MYCIN fue diseñado para determinar tratamientos en
infecciones de la sangre con 300 reglas.
Si una conclusión se obtiene por varias vías, los valores de
certeza se combinan.
Las certezas no eran probabilidades: éstas imponen unas
reglas de cálculo muy estrictas.
Su correcto funcionamiento se basa en un cuidadoso
diseño de las reglas en función del uso que se hace de
ellas. Una Introducción a las Redes Bayesianas– p.6/??
Problemas
La validez de una regla depende del contexto.
Si conozco el nivel de estudios de una persona, obtengo información
sobre su nivel de ingresos. Esta información puede ser equivocada y
ponerse de manifiesto si conozco el puesto de trabajo concreto que
esta persona desarrolla
Si al salir de casa vemos el césped mojado podemos sospechar que ha
llovido. Si descubrimos que nos hemos dejado la manguera abierta,
dejamos de sospechar que ha llovido.
Una Introducción a las Redes Bayesianas– p.7/??
Problemas
La validez de una regla depende del contexto.
Si conozco el nivel de estudios de una persona, obtengo información
sobre su nivel de ingresos. Esta información puede ser equivocada y
ponerse de manifiesto si conozco el puesto de trabajo concreto que
esta persona desarrolla
Si al salir de casa vemos el césped mojado podemos sospechar que ha
llovido. Si descubrimos que nos hemos dejado la manguera abierta,
dejamos de sospechar que ha llovido.
Las reglas con incertidumbre deberían de poder usarse en ambas
direcciones.
Si hay fuego debe de haber humo
Si vemos humo sospechamos la existencia de fuego
Una Introducción a las Redes Bayesianas– p.7/??
Problemas
La validez de una regla depende del contexto.
Si conozco el nivel de estudios de una persona, obtengo información
sobre su nivel de ingresos. Esta información puede ser equivocada y
ponerse de manifiesto si conozco el puesto de trabajo concreto que
esta persona desarrolla
Si al salir de casa vemos el césped mojado podemos sospechar que ha
llovido. Si descubrimos que nos hemos dejado la manguera abierta,
dejamos de sospechar que ha llovido.
Las reglas con incertidumbre deberían de poder usarse en ambas
direcciones.
Si hay fuego debe de haber humo
Si vemos humo sospechamos la existencia de fuego
Correlación entre las informaciones. Si una misma información se repite
muchas veces no debe de aumentar nuestra certidumbre.Una Introducción a las Redes Bayesianas– p.7/??
Probabilidad
La probabilidad como medida de certeza, no presenta ninguno
de estos problemas.
Puedo tener P(Gripe|Fiebre) =0.9,P(Gripe|Fiebre,Otitis) =0.1.
Presenta otro: necesito una distribución de probabilidad conjunta.
Si tengo 30 variables, X1,...,Xn y cada una de ellas, Xi,
toma dos posibles valores {ai,ai}, entonces necesitamos
partir de las probabilidades de todas las combinaciones
(x1,x2,...,xn), xi ∈ {ai,ai}
Si n = 30, necesitamos 230
valores, pero inicialmente
solemos disponer de unas cuantas probabilidades
condicionadas.
Una Introducción a las Redes Bayesianas– p.8/??
Probabilidad
Sólo vamos a considerar la probabilidad sobre conjuntos finitos.
Vamos a suponer un conjunto U finito de sucesos elementales y una familia
de conjuntos o sucesos B (si U es finito esta familia suele ser el conjunto de
las partes de U).
Una medida de probabilidad sobre (U,B) es una aplicación P : B → [0,1],
que verifica:
P(U) = 1
Si A y C son disjuntos P(A∪C) = P(A)+P(C)
Una Introducción a las Redes Bayesianas– p.9/??
Probabilidad Condicional
P(A|B) =
P(A∩B)
P(B)
, P(B) = 0
Aunque tiene sentido hablar de probabilidad condicionada a
sucesos de probabilidad 0, y en ese caso se debe de verificar:
P(A∩B) = P(A|B).P(B)
La probabilidad P(A|B) es la probabilidad de A cuando
conocemos que B y sólo B es cierto.
Una Introducción a las Redes Bayesianas– p.10/??
El Teorema de la Probabilidad Total
Si un paciente tiene la enfermedad E, entonces un test T resulta
positivo con probabilidad 0.95. Si la enfermedad no está
presente el test es positivo con probabilidad 0.03. Si la
probabilidad de sufrir la enfermedad es 0.01, ¿Cual es la
probabilidad de que un paciente cualquiera presente un test
positivo?
Queremos la probabilidad de T+, pero sólo conocemos la
probabilidad de T+ condicionado a la enferemedad y a que no
se tenga la enfermedad, y además conocemos las
probabilidades de tener y no tener las enfermedad.
Si {Hi}i∈I es una colección finita de sucesos disjuntos dos
a dos y cuya unión es el suceso seguro (U).
P(B) = ∑i∈I P(B|Hi)P(Hi)
Una Introducción a las Redes Bayesianas– p.11/??
El Teorema de la Probabilidad Total
Si {Hi}i∈I es una colección finita de sucesos disjuntos dos
a dos y cuya unión es el suceso seguro (U).
P(B) = ∑i∈I P(B|Hi)P(Hi)
Demostración: P(B) = P(B∩U) = P(B∩( i∈I Hi)) =
P( i∈I(B∩Hi)) = ∑i∈I P(B∩Hi) = ∑i∈I P(B|Hi)P(Hi)
P(T+) = P(T +|E).P(E)+P(T +|¬E).P(¬E) =
0.95×0.01+0.03×0.99 = 0.0392
Una Introducción a las Redes Bayesianas– p.12/??
El Teorema de Bayes
Si un paciente tiene la enfermedad E, entonces un test T resulta
positivo con probabilidad 0.95. Si la enfermedad no está
presente el test es positivo con probabilidad 0.03. Si la
probabilidad de sufrir la enfermedad es 0.01, ¿Cual es la
probabilidad de que un paciente con un test positivo sufra la
enfermedad?
Conocemos P(T +|E) y las probabilidades P(T +|¬E),P(E) y
queremos la probabilidad P(E|T+). Es como invertir la
probabilidad condicionada.
Si {Hi}i∈I es una colección de sucesos disjuntos dos a
dos y cuya unión es el suceso seguro (U).
P(Hj|B) =
P(Hj∩B)
P(B) =
P(B|Hj).P(Hj)
P(B) =
P(B|Hj).P(Hj)
∑i∈I P(B|Hi)P(Hi)
Una Introducción a las Redes Bayesianas– p.13/??
El Teorema de Bayes
Si un paciente tiene la enfermedad E, entonces un test T resulta
positivo con probabilidad 0.95. Si la enfermedad no está
presente el test es positivo con probabilidad 0.03. Si la
probabilidad de sufrir la enfermedad es 0.01, ¿Cual es la
probabilidad de que un paciente con un test positivo sufra la
enfermedad?
Si {Hi}i∈I es una colección de sucesos disjuntos dos a
dos y cuya unión es el suceso seguro (U).
P(Hj|B) =
P(B|Hj).P(Hj)
∑i∈I P(B|Hi)P(Hi)
En el caso del ejemplo,
P(E|T+) = P(T+|E).P(E)
P(T+|E).P(E)+P(T+|¬E).P(¬E) = 0.95×0.01
0.95×0.01+0.03×0.99 =
0.0095/0.0392 = 0.2423
Una Introducción a las Redes Bayesianas– p.14/??
Variables Inciertas
Una variable es una magnitud medible en un determinado
problema. Es incierta cuando su resultado no puede ser
determinado con exactitud.
Vamos a hablar en términos de variables inciertas. Las
variables aleatorias las representaremos por X,Y,Z,...
Temperatura con valores en
{≤ 36,36.5,37,37.5,38,38.5,39,39.5,≥ 40}
Hepatitis con valores en {Presente,Ausente}
N. de Hijos con valores en {0,1,2,3,> 3}
Un valor genérico de la variable X se representará por x
Un conjunto de variables se representará por X
Un valor genérico de X se representará por x
Una Introducción a las Redes Bayesianas– p.15/??
Variables Discretas y Continuas
Una variable es discreta si el conjunto de valores posibles
es finito (Presencia de una enfermedad, Número de
asignaturas matriculadas, Sexo, Estudios realizados)
Una variable es continua si toma valores en un intervalo de
los números reales (Altura, Peso, Luminosidad ).
Nosotros vamos a considerar variables discretas
Si hay continuas las discretizamos dividiéndolas en un
conjunto finito de intervalos
Una Introducción a las Redes Bayesianas– p.16/??
Distribuciones de probabilidad
Una distribución de probabilidad p sobre X es la función que
asigna a cada valor x, la probabilidad con que X toma dicho
valor. Se notará como p(x).
Ejemplo: Variable N. de hijos con valores {0,1,2,3,> 3} y la
distribución de probabilidad:
p 0 1 2 3 >3
0.1 0.3 0.4 0.15 0.05
Sus valores deben de sumar 1.
0.1
0.2
0.3
0.4
0 1 2 3 >3 Una Introducción a las Redes Bayesianas– p.17/??
Distribuciones Conjuntas
Si tenemos un conjunto de variables X una distribución de
probabilidad conjunta asocia a cada posible valor de estas x, su
probabilidad p(x).
Ejemplo: Tenemos las variables X(Color de los ojos) e Y
(Color del pelo), una distribución conjunta sobre estas variables
puede ser
Y
Moreno Rubio
X Marrones 0.5 0.15
Azules 0.05 0.3
También podemos tener distribuciones que dependan de más
de dos variables, p.e. p(x,y,z).
Una Introducción a las Redes Bayesianas– p.18/??
Distribuciones Condicionadas
Si tenemos dos variables, X,Y, la distribución de probabilidad
de Y dado X, es una función de los conjuntos dónde Y y X
toman sus valores en [0,1], dada por
p(y|x) = P(Y = y|X = x)
Es evidente que ∀x, ∑y p(y|x) = 1
Caso de los test y de las enfermedades p(t|e)
t+ t−
e 0.95 0.05
¬e 0.03 0.97
Una Introducción a las Redes Bayesianas– p.19/??
Distribuciones Condicionadas
Si condicionamos a varias variables, tenemos que dar el valor
de probabilidad de la variable para cada combinación de valores
de las variables condicionadas.
Ejemplo:
Sean X Cáncer de Pulmón, Y Fumador y Z Sexo. Supongamos
que tenemos que una probabilidad condicionada de X dadas las
variables Y y Z, tenemos que dar una tabla de valores como la
siguiente:
Y= Si Y = Si Y = No Y = No
Z= Hombre Z= Mujer Z = Hombre Z = Mujer
X=Si 0.5 0.4 0.2 0.1
X=No 0.5 0.6 0.8 0.9
Una Introducción a las Redes Bayesianas– p.20/??
Muchas Variables
¿Qué pasa si el número de variables es elevado?
Supongamos que en el problema de la enfermedad que se
detecta con un test, en vez de un sólo test tenemos 10
(T1,...,T10).
Ahora para especificar el problema y después poder aplicar el
teorema de Bayes, deberemos indicar todos los valores
p(t1,...,t10|e), ∀ti ∈ {+,−},e ∈ {pres,aus}
Esto constituye un número importante de valores y crece
exponencialmente en función del número de tests.
Una Introducción a las Redes Bayesianas– p.21/??
Independencia Condicional
Una hipótesis que permite simplificar el problema: Los tests son
condicionalmente independientes dada la enfermedad.
Entonces, podemos expresar
p(t1,...,t10|e) =
10
∏
i=1
p(ti|e)
La independencia será definida formalmente más adelante,
pero se puede interpretar como que los tests tienen distintos
mecanismos de medición, se fijan en distintos factores, no se
equivocan siempre en los mismos casos.
Una Introducción a las Redes Bayesianas– p.22/??
Bayes Naïve
En problemas de clasificación de una variable Y en función de
otras variables X1,...,Xn la hipótesis de independencia
condicional da lugar al método Naïve Bayes.
Fue usado por primera vez en 1.961 y es extremadamente
competitivo aún en casos en los que la hipótesis no sea
aplicable.
La razón: Los modelos son más sencillos y se pueden estimar
mejor.
Una Introducción a las Redes Bayesianas– p.23/??
Potenciales
Si X es un conjunto de variables y ΩX es el conjunto de todos los
valores posibles de X, un potencial sobre X es una aplicación f:
f : ΩX → R
donde R representa el conjunto de los números reales.
Un potencial asigna un valor numérico a cada combinación
posible de valores de las variables en X.
Una distribución de probabilidad conjunta o una distribución
condicionada son ejemplos de potenciales.
Un potencial se puede representar en un programa como una
tabla con tantos índices como variables y donde cada índice
puede tomar tantos valores como casos posibles tiene la
variable correspondiente.
Una Introducción a las Redes Bayesianas– p.24/??
Operaciones Básicas con Potenciales
Marginalización.- Si tenemos un potencial f definido sobre
las variables (X,Y) la marginalización de f sobre
Una Introducción a las Redes Bayesianas– p.25/??
Marginalización
Si tenemos un conjunto de variables Y = (X,Z), entonces la
marginalización permite obtener la distribución de probabilidad
sobre X (distribución marginal) a partir de la de Y.
Si p(x,z) es una distribución sobre (X,Z) entonces su
marginalización sobre X es la distribución que se obtiene de la
forma:
p(x) = ∑
z
p(x,z)
La marginalización sobre X se llama también borrado de las
variables en Z.
Por ejemplo, si tengo una distribución p(x,y,z) sobre (X,Y,Z) , la
marginalización sobre (X,Y) se obtiene como
p(x,y) = ∑z p(x,y,z)
Una Introducción a las Redes Bayesianas– p.26/??
Marginalización
Si tenemos un conjunto de variables Y = (X,Z), entonces la
marginalización permite obtener la distribución de probabilidad
sobre X (distribución marginal) a partir de la de Y.
Si p(x,z) es una distribución sobre (X,Z) entonces su
marginalización sobre X es la distribución que se obtiene de la
forma:
p(x) = ∑
z
p(x,z)
La marginalización sobre X se llama también borrado de las
variables en Z.
Por ejemplo, si tengo una distribución p(x,y,z) sobre (X,Y,Z) , la
marginalización sobre (X,Y) se obtiene como
p(x,y) = ∑z p(x,y,z)
Una Introducción a las Redes Bayesianas– p.27/??
Ejemplo
Sean X Cáncer de Pulmón, Y Fumador y Z Sexo. Supongamos
que tenemos la siguiente distribución de probabilidad conjunta
Y= Si Y = Si Y = No Y = No
Z= Hombre Z= Mujer Z = Hombre Z = Mujer
X=Si 0.14 0.168 0.024 0.018
X=No 0.14 0.252 0.096 0.162
Una Introducción a las Redes Bayesianas– p.28/??
Ejemplo
Sean X Cáncer de Pulmón, Y Fumador y Z Sexo. Supongamos
que tenemos la siguiente distribución de probabilidad conjunta
Y= Si Y = Si Y = No Y = No
Z= Hombre Z= Mujer Z = Hombre Z = Mujer
X=Si 0.14 0.168 0.024 0.018
X=No 0.14 0.252 0.096 0.162
La marginalización sobre (Y,Z) viene dada por la distribución de
probabilidad:
Y= Si Y = Si Y = No Y = No
Z= Hombre Z= Mujer Z = Hombre Z = Mujer
0.28 0.42 0.12 0.18
Una Introducción a las Redes Bayesianas– p.28/??
Ejemplo
La distribución sobre (Y,Z) la podemos marginalizar sobre
cualquiera de sus variables.
Y= Si Y = Si Y = No Y = No
Z= Hombre Z= Mujer Z = Hombre Z = Mujer
0.28 0.42 0.12 0.18
Sobre Y obtenemos
Y = Si Y = No
0.7 0.3
Sobre Z obtenemos
Z = Hombre Z = Mujer
0.4 0.6
El resultado de borrar dos variables consecutivas es el mismo
que si dichas variables se borran en un solo paso.
Una Introducción a las Redes Bayesianas– p.29/??
Independencia
Las variables X e Y son independientes si y solo si la
distribución de probabilidad verifica
pX,Y (x,y) = pX(x).pY (y), ∀x,y
donde pX, pY son las distribuciones de probabilidad marginales
sobre las variables X e Y respectivamente.
Una definición alternativa:
p(y|x) = p(y), ∀x,y
o, equivalentemente,
p(x|y) = p(x), ∀x,y
Una Introducción a las Redes Bayesianas– p.30/??
Ejemplo
Sean dos urnas con 10 bolas: una con 3 rojas y 7 blancas y otra
con 8 rojas y 2 blancas.
Se eligen dos bolas aleatoriamente, una de cada urna, sin
ninguna relación entre las extracciones.
Tabla de Probabilidades:
R1 B1
R2 0.24 0.56 0.80
B2 0.06 0.14 0.20
0.30 0.70 1.00
Una Introducción a las Redes Bayesianas– p.31/??
Independencia Condicional
Dadas las variables X, Y y Z decimos que X e Y son
condicionalmente independientes Z si y solo si
PX,Y,Z(x,y,z) = (PX,Z(x,z).PY,Z(y,z))/PZ(z), ∀x,y,z con PZ(z) > 0
donde pX,Z, pY,Z, pZ son las distribuciones de probabilidad
marginales sobre las variables (X,Z), (Y,Z) y Z,
respectivamente.
Análogamente se define para conjuntos de variables
Una Introducción a las Redes Bayesianas– p.32/??
Definiciones alternativas
PY|X,Z(y|x,z) = PY|Z(y|z), ∀x,y,z
PX|Y,Z(x|y,z) = PX|Z(x|z), ∀x,y,z
PX,Y|Z(x,y|z) = PX|Z(x|z).PY|Z(y|z), ∀x,y,z
PX,Y,Z(x,y,z) = f1(x,z). f2(y,z), ∀x,y,z
Una Introducción a las Redes Bayesianas– p.33/??
Ejemplo
Supongamos dos urnas con bolas blancas (b) y rojas ( r). La
primera tiene 99 rojas y 1 blanca; la segunda tiene 1 roja y 99
blancas.
Supongamos el siguiente experimento: elegimos aleatoriamente
una urna, las dos con la misma probabilidad (0.5).
Sea Z el resultado de la selección: con valores u1 (primera
urna), u2 (segunda).
Entonces elegimos dos bolas con reemplazamiento de la urna
elegida. Sean los colores de las bolas X e Y.
X e Y no son independientes: el color de una bola nos informa
sobre el color de la otra.
Una Introducción a las Redes Bayesianas– p.34/??
Ejemplo
Z: u1 (99 rojas y 1 blanca), u2 (1 roja y 99 blancas)
X, Y colores de las bolas.
La probabilidad de que X = b es
p(u1).pX (b|u1)+ p(u2).pX (b|u2) = 0.5×0.01+0,5×0.99 = 0.5
Análogamente, la probabilidad de que Y = b es 0.5. Sin
embargo, la probabilidad de que X = b,Y = b es
p(u1).pX (b|u1)pY (b|u1)+ p(u2).pX (b|u2).pY (b|u2) =
0.5×0.01×0.01+0.5×0.99×0.99 = 0.4901
Por tanto, PX,Y (b,b) = PX(b).PY (b)
Una Introducción a las Redes Bayesianas– p.35/??
Ejemplo
Z: u1 (99 rojas y 1 blanca), u2 (1 roja y 99 blancas)
X, Y colores de las bolas.
La probabilidad de que X = b es
p(u1).pX (b|u1)+ p(u2).pX (b|u2) = 0.5×0.01+0,5×0.99 = 0.5
Análogamente, la probabilidad de que Y = b es 0.5. Sin
embargo, la probabilidad de que X = b,Y = b es
p(u1).pX (b|u1)pY (b|u1)+ p(u2).pX (b|u2).pY (b|u2) =
0.5×0.01×0.01+0.5×0.99×0.99 = 0.4901
Por tanto, PX,Y (b,b) = PX(b).PY (b)
Sin embargo, X e Y son independientes dada Z, ya que las
extracciones se hacen con reemplazamiento de la misma urna.
Por ejemplo,
pX,Y (b,r|u1) = pX (b|u1).pY (r|u1) = 0.01×0.99 = 0.0099
Una Introducción a las Redes Bayesianas– p.35/??
Dificultades de la independencia
Si tenemos una conjunto de variable, tendríamos que
considerar todas las relaciones de independencia
I(X,Y|Z)
Variables Independ. Variables Observadas
Esta relación se lee X es independiente de Y dadas (o
conocidas) Z
Dado un conjunto de n variables, estas son n·(n−1)·2n−2.
Una Introducción a las Redes Bayesianas– p.36/??
Cambios en las Observaciones
Consideremos las variables:
A Alarma
R Robo
S Seismo
La Alarma puede sonar por un Robo o un Seismo.
Tenemos que R y S son independientes sin saber nada
(I(R,S|/0)).
Sin embargo, si conocemos que sonó la alarma, estas variables
se vuelven dependientes (¬I(R,S|A))
Al conocer más pasamos de independencia a dependencia.
Una Introducción a las Redes Bayesianas– p.37/??
Cambios en las Observaciones
M1 Transm. 1 M2 Transm. 2 M3
Se manda un mensaje (M1) por un transmisor. El mensaje que
se recibe (M2) se envía por un segundo transmisor. M3 es el
mensaje que se recible al final. Los transmisores tienen ruido y
pueden modificar los mensajes
Tenemos que M1 y M3 son dependientes sin conocer nada
(¬I(M1,M3|/0)). Sin embargo, conocido (M2) los mensajes M1 y
M3 son independientes (I(M1,M3|M2))
En este ejemplo, conocer más pasamos de dependencia a inde-
pendencia.
Una Introducción a las Redes Bayesianas– p.38/??
Redes Bayesianas
Una red bayesiana consta de dos partes:
Una cualitativa: un grafo dirigido acíclico
Un nodo por cada variable del problema
Un conjunto de enlaces dirigidos sin crear ciclos
dirigidos
SI NO
Una cuantitativa: una serie de probabilidades
condicionadas que determinan una única distribución de
probabilidad conjunta.
Una Introducción a las Redes Bayesianas– p.39/??
Redes Bayesianas. Nodo X
X
Nodo referencia
Padres
Ascendientes
Hijos
Descendientes
Otros
Una Introducción a las Redes Bayesianas– p.40/??
Representación de Independencias
Una red bayesiana representa un conjunto de independencias.
De ellas podemos distinguir:
Independencias Básicas.- Son aquellas que hay que tener
cuidado que se verifiquen cuando se construye la red.
Independencias Totales.- Son todas las que se deducen de
las básicas aplicando las propiedades de las relaciones de
independencia. Se puede comprobar mediante el llamado
criterio de D-separación.
Una Introducción a las Redes Bayesianas– p.41/??
Independencias Básicas
X
Nodo referencia
Padres
No descendientes
Descendientes
Cada nodo es independiente
de sus no-descendientes da-
dos sus padres.
Una Introducción a las Redes Bayesianas– p.42/??
Ejemplos
R S
A
I(R,S|/0)
M1
M2
M3
I(M1,M3|M2)
Una Introducción a las Redes Bayesianas– p.43/??
Otras independencias: D-separación
X es independiente de Y dado Z1,...,Zk si todo camino (usando
los arcos en ambas direcciones) entre X e Y está bloqueado en
algún nodo por las observaciones Z1,...,Zk.
Un camino entre X e Y está bloqueado en un nodo Z por un
conjunto de observaciones Z1,...,Zk cuando se da una de las
siguientes condiciones:
El camino pasa por el nodo Z con flechas no
cabeza-cabeza y el nodo está observado.
El camino pasa por el nodo Z con flechas cabeza-cabeza y
ni el nodo ni ninguno de sus descendientes está observado.
Una Introducción a las Redes Bayesianas– p.44/??
Dos formas de bloqueo
Dos formas básicas de bloqueo en un nodo:
X Y
No Cabeza-Cabeza
Nodos estudiados
Nodos observados
Nodos no observados
Nodo que bloquea (observado o no)
X Y
Cabeza-Cabeza
Nodo y descendientes
no observados
× ×
×
Una Introducción a las Redes Bayesianas– p.45/??
Cabeza-Cabeza
Cabeza-Cabeza
X
No Cabeza-Cabeza
X
X
X
Una Introducción a las Redes Bayesianas– p.46/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
Una Introducción a las Redes Bayesianas– p.47/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
× ×
Primer Camino Bloqueado
Una Introducción a las Redes Bayesianas– p.47/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
× ×
×
Segundo Camino Bloqueado
Una Introducción a las Redes Bayesianas– p.47/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
×
××
Tercer Camino Bloqueado
Una Introducción a las Redes Bayesianas– p.47/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
×
×
×
Cuarto Camino Bloqueado
Una Introducción a las Redes Bayesianas– p.47/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
Variables Independientes (sin obs.)
Una Introducción a las Redes Bayesianas– p.47/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
Una Introducción a las Redes Bayesianas– p.48/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
Primer Camino NO Bloqueado
Una Introducción a las Redes Bayesianas– p.48/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
Variables Dependientes (rojas obs.)
Una Introducción a las Redes Bayesianas– p.48/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
Una Introducción a las Redes Bayesianas– p.49/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
×
Primer Camino Bloqueado
Una Introducción a las Redes Bayesianas– p.49/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
×
Segundo Camino Bloqueado
Una Introducción a las Redes Bayesianas– p.49/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
×
×
Tercer Camino Bloqueado
Una Introducción a las Redes Bayesianas– p.49/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
×
×
Cuarto Camino Bloqueado
Una Introducción a las Redes Bayesianas– p.49/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
Variables Independientes (rojas obs.)
Una Introducción a las Redes Bayesianas– p.49/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
Una Introducción a las Redes Bayesianas– p.50/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
Primer Camino NO Bloqueado
Una Introducción a las Redes Bayesianas– p.50/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
Variables Dependientes (rojas obs.)
Una Introducción a las Redes Bayesianas– p.50/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
Una Introducción a las Redes Bayesianas– p.51/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
×
Primer Camino Bloqueado
Una Introducción a las Redes Bayesianas– p.51/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
Segundo Camino NO Bloqueado
Una Introducción a las Redes Bayesianas– p.51/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
Variables Dependientes (rojas obs.)
Una Introducción a las Redes Bayesianas– p.51/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
Una Introducción a las Redes Bayesianas– p.52/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
×
Primer Camino Bloqueado
Una Introducción a las Redes Bayesianas– p.52/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
×
Segundo Camino Bloqueado
Una Introducción a las Redes Bayesianas– p.52/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
×
×
Tercer Camino Bloqueado
Una Introducción a las Redes Bayesianas– p.52/??
Ejemplos de Independencia
Nodo Observado
Variables examinadas
Resto Variables
Variables Independientes (rojas obs.)
Una Introducción a las Redes Bayesianas– p.52/??
La Red Asia
Asia
Tuberculosis
Tuberc. ó
Cánc. Pulmón
Rayos X
Fumador
Cáncer Pulmón
Bronquitis
AsmaTos
Una Introducción a las Redes Bayesianas– p.53/??
Ejemplos 3 Variables
Edad
Ingresos
Restaurante
Edad
Ingresos
Coche
Edad Sexo
Ingresos
Una Introducción a las Redes Bayesianas– p.54/??
Ejemplo con tres variables
Edad
Conocimientos
Sexo
Edad
Sexo
Color
ojos
Ingresos
Edad
Conocimiento
Una Introducción a las Redes Bayesianas– p.55/??
Independencias y Causalidad
Edad
Ingresos
Coche
Ingresos
Edad
Conocimiento
En ambos casos las variables superior e inferior son
condicionalmente independientes dada la variable central, pero la
estructura causal es distinta. Una Introducción a las Redes Bayesianas– p.56/??
Representación de Independencias
Hay problemas con independencias que no pueden representarse de forma exacta
mediante redes Bayesinas.
Ejemplo: Tenemos dos interruptores con dos posiciones cada uno (0 y 1). Sean X
e Y las posiciones de estos interruptores. Tenemos una luz que está encendida si
los dos interruptores están en la misma posición y apagada si están en posición
distinta. Sea Z el estado de la luz. Supongamos que los interruptores son
independientes y que tienen la misma probabilidad (0.5) de estar en cualquiera de
los dos estados.
Tenemos que:
Se verifica I(X,Y|/0),I(X,Z|/0),I(Y,Z|/0).
Pero las independencias condicionadas no se verifican:
¬I(X,Y|Z),¬I(X,Z|Y),¬I(Y,Z|X).
Una Introducción a las Redes Bayesianas– p.57/??
Representación
Esto se puede representar mediante la red
X Y
Z
El problema es que representamos I(X,Y|/0) , pero no
I(X,Z|/0),I(Y,Z|/0).
Si quitamos cualquiera de los enlaces, ya estamos
representando alguna de las independencias condicionadas
que no se verificaban.
Una Introducción a las Redes Bayesianas– p.58/??
Mapas de Independencias Minimales
Un mapa de independencias minimal para un problema es un
grafo dirigido acíclico tal que todas las independencias del grafo
están en el problema, pero que si al grafo le quitamos alguna
arista, entonces aparecen independencias que no están en el
problema.
En general, nuestro objetivo ante un problema es construir un
mapa de independencias minimal. Si es posible, debería de
representar todas las independencias del problema.
Una Introducción a las Redes Bayesianas– p.59/??
Construcción de mapas de independencias
Supongamos que X es el conjunto de variables de partida.
Sea Y1,Y2,...,Yn un orden cualquiera de estas variables (no
deben de invertirse relaciones causales conocidas: Si A es
causa de B, entonces A debe de preceder a B)
El mapa de indepencias minimal, se construye
comenzando por el grafo vacío e introduciendo las
variables en el orden dado.
Una Introducción a las Redes Bayesianas– p.60/??
Construcción de mapas de independencias
Si vamos a introducir Yj y Aj = {Y1,...,Yj−1}, entonces se
determina un conjunto minimal de variables Bj (las variables de
las que Yj tiene una dependencia directa) que es un conjunto
minimal tal que I(Yj,Aj −Bj|Bj)
El grafo se construye haciendo que los padres de Yj sean los
nodos de Bj.
Una Introducción a las Redes Bayesianas– p.61/??
Construcción de mapas de independencias
Si vamos a introducir Yj y Aj = {Y1,...,Yj−1}, entonces se
determina un conjunto minimal de variables Bj (las variables de
las que Yj tiene una dependencia directa) que es un conjunto
minimal tal que I(Yj,Aj −Bj|Bj)
El grafo se construye haciendo que los padres de Yj sean los
nodos de Bj.
A B C
D E
Una Introducción a las Redes Bayesianas– p.61/??
Construcción de mapas de independencias
Si vamos a introducir Yj y Aj = {Y1,...,Yj−1}, entonces se
determina un conjunto minimal de variables Bj (las variables de
las que Yj tiene una dependencia directa) que es un conjunto
minimal tal que I(Yj,Aj −Bj|Bj)
El grafo se construye haciendo que los padres de Yj sean los
nodos de Bj.
A B C
D E
F
Una Introducción a las Redes Bayesianas– p.61/??
Construcción de mapas de independencias
Si vamos a introducir Yj y Aj = {Y1,...,Yj−1}, entonces se
determina un conjunto minimal de variables Bj (las variables de
las que Yj tiene una dependencia directa) que es un conjunto
minimal tal que I(Yj,Aj −Bj|Bj)
El grafo se construye haciendo que los padres de Yj sean los
nodos de Bj.
A B C
D E
F
B
D E
I(F,{A,C}|B,D,E)
{B,D,E} minimal
Una Introducción a las Redes Bayesianas– p.61/??
Construcción de mapas de independencias
Si vamos a introducir Yj y Aj = {Y1,...,Yj−1}, entonces se
determina un conjunto minimal de variables Bj (las variables de
las que Yj tiene una dependencia directa) que es un conjunto
minimal tal que I(Yj,Aj −Bj|Bj)
El grafo se construye haciendo que los padres de Yj sean los
nodos de Bj.
A B C
D E
F
B
D E
I(F,{A,C}|B,D,E)
{B,D,E} minimal
Una Introducción a las Redes Bayesianas– p.61/??
Construcción de mapas de independencias
Si vamos a introducir Yj y Aj = {Y1,...,Yj−1}, entonces se
determina un conjunto minimal de variables Bj (las variables de
las que Yj tiene una dependencia directa) que es un conjunto
minimal tal que I(Yj,Aj −Bj|Bj)
El grafo se construye haciendo que los padres de Yj sean los
nodos de Bj.
A B C
D E
F
B
D E
I(F,{A,C}|B,D,E)
{B,D,E} minimal
El Problema: Determinar un orden entre las variables.
Una Introducción a las Redes Bayesianas– p.61/??
Septiembre 2002
Tenemos un canal de información con dos transmisores. La entrada a los dos es la
misma: variable E con valores 0 ó 1. Las salidas de los transmisores (S1 y S2) serán
el mismo valor de entrada si funcionan correctamente o, en el caso de que no
funcionen la salida será aleatoria ( 0 ó 1 con probabilidad 1/2 cada uno). Las
variables C1 y C2 representan el comportamiento de estos dos transmisores,
respectivamente (con valor 0 si es aleatorio y 1 si es correcto). El comportamiento
de los dos transmisores depende del estado de la fuente de alimentación (F). Esta
puede estar en dos situaciones: calidad alta (1) y calidad baja (0). En el caso de
calidad baja, hay una mayor probabilidad de comportamiento incorrecto en ambos
casos. No hay ninguna otra influencia común sobre las variables C1 y C2. Existe un
dispositivo que mira las salidas de ambos transmisores y produce un valor Sf .
Cuando S1 = S2, entonces Sf coincide con ambos valores. Cuando S1 = S2,
entonces Sf toma el valor e. Finalmente, existe una variable (T) que comprueba el
funcionamiento del sistema. Si Sf = E, entonces T = 1 (funcionó correctamente). Si
Sf = e, entoces T = 2 (error detectado). Si Sf = e y Sj = E, entonces T = 0 (error no
detectado).
Una Introducción a las Redes Bayesianas– p.62/??
Septiembre 2002: Preguntas
1. Determinar una red bayesiana que sea compatible con las
relaciones entre las variables del sistema-
2. Escribir una tabla de probabilidad para S1 dados sus padres
que sea compatible con los datos anteriores.
3. Para los siguientes pares de variables determinar un
conjunto lo más pequeño posible, tal que si observamos
dicho conjunto de variables, entonces el par es
independiente:
a) E y F
b) T y S1
c) E y Sf
Una Introducción a las Redes Bayesianas– p.63/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
E
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
E
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1
F
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2
F
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2C2
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2C2
S1
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2C2
S1
C1 E
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2C2
S1S1
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2C2
S1S1 S2
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2C2
S1S1 S2
C2E
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2C2
S1S1 S2S2
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2C2
S1S1 S2S2
Sf
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2C2
S1S1 S2S2
Sf
S2S1
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2C2
S1S1 S2S2
SfSf
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2C2
S1S1 S2S2
SfSf
T
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2C2
S1S1 S2S2
SfSf
T
E
Sf
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2C2
S1S1 S2S2
SfSf
TT
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2C2
S1S1 S2S2
SfSf
TT
E = 0 E = 0 E = 1 E = 1
C1 = 0 C1 = 1 C1 = 0 C1 = 1
S1 = 0 0.5 1.0 0.5 0.0
S1 = 1 0.5 0.0 0.5 1.0
E y F:
T y S1:
E y Sf :
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2C2
S1S1 S2S2
SfSf
TT
E = 0 E = 0 E = 1 E = 1
C1 = 0 C1 = 1 C1 = 0 C1 = 1
S1 = 0 0.5 1.0 0.5 0.0
S1 = 1 0.5 0.0 0.5 1.0
E y F: /0
T y S1:
E y Sf :
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2C2
S1S1 S2S2
SfSf
TT
E = 0 E = 0 E = 1 E = 1
C1 = 0 C1 = 1 C1 = 0 C1 = 1
S1 = 0 0.5 1.0 0.5 0.0
S1 = 1 0.5 0.0 0.5 1.0
E y F: /0
T y S1: {E,Sf }
E y Sf :
Una Introducción a las Redes Bayesianas– p.64/??
Red
Orden: F,E,C1,C2,S1,S2,Sf ,T
F
EC1C1 C2C2
S1S1 S2S2
SfSf
TT
E = 0 E = 0 E = 1 E = 1
C1 = 0 C1 = 1 C1 = 0 C1 = 1
S1 = 0 0.5 1.0 0.5 0.0
S1 = 1 0.5 0.0 0.5 1.0
E y F: /0
T y S1: {E,Sf }
E y Sf : {S1,S2}
Una Introducción a las Redes Bayesianas– p.64/??
La Importancia de la Causalidad
Fumar
Cáncer
Pulmón
Dedos
Amarillos
Una Introducción a las Redes Bayesianas– p.65/??
La Importancia de la Causalidad
Fumar
Cáncer
Pulmón
Dedos
Amarillos
Dedos
Amarillos
Cáncer
Pulmón
Una Introducción a las Redes Bayesianas– p.65/??
La Importancia de la Causalidad
Fumar
Cáncer
Pulmón
Dedos
Amarillos
Dedos
Amarillos
Cáncer
Pulmón
P(Cancer Pulmon | Dedos Amarillos ) ≥ P(Cancer Pulmon)
P(Cancer Pulmon | a(Dedos Amarillos))?
donde a(Dedos Amarillos) es la acción de poner los dedos amarillos,
en lugar de observar los dedos amarillos. Una Introducción a las Redes Bayesianas– p.65/??
El Teorema de Descomposición
Dada una red bayesiana con variables X entonces la
distribución de probabilidad conjunta de estas variables se
puede descomponer de la forma:
p(x) = ∏
y∈x
p(y|pa(y))
donde pa(Y) es el conjunto de padres de la variable Y.
Consecuencia: Para especificar una red bayesiana solo hay que
dar, para cada variable, una distribución de probabilidad
condicionada dada sus padres.
Si la variable es raíz, la distribución será la distribución marginal
(sin condicionar ya que no tiene padres).
Una Introducción a las Redes Bayesianas– p.66/??
Ejemplo
A B C D
E F G
H I
p(a,b,c,d,e, f,g,h,i) =
p(a).p(b).p(c).p(d).p(e|a).p( f|b,c).p(g|c,d).p(h|b,e).p(i|c,d, f)
Una Introducción a las Redes Bayesianas– p.67/??
Redes Bayesianas: Números
La parte cuantitativa de una red bayesiana es:
Para cada variable de la red, una distribución de probabilidad
condicionada a sus padres
Si la red tiene n variables hay que especificar o calcular n
distribuciones condicionadas.
Estas distribuciones, por el teorema de descomposicón,
determinan una única distribución de probabilidad conjunta.
Una Introducción a las Redes Bayesianas– p.68/??
Cálculo de Probabilidades
Tenemos una red bayesiana asociada a un conjunto de
probabilidades el problema fundamental de las redes es: dado
un conjunto O de variables observadas: O = o y una variable
objetivo Z, queremos calcular p(z|o), para todos los valores de
la variable Z.
Podríamos calcular la distribución conjunta, marginalizarla en
las variables O∪{Z} y entonces calcular la distribución de
probabilidad condicionada deseada, pero esto tiene complejidad
exponencial en el número de variables.
Gran reto: Calcular la probabilidad condicionada sin tener que
calcular la conjunta (usando las distribuciones de cada variable
condicionadas a sus padres).
Una Introducción a las Redes Bayesianas– p.69/??
La Operación de Combinación
Si p(x,y) y q(y,z) son dos potenciales, entonces su combinación
es el potencial p.q(x,y,z) dado por
p.q(x,y,z) = p(x,y).q(y,z)
La distribución conjunta es la combinación de todas las distribu-
ciones condicionadas a sus padres de las variables de la red.
Una Introducción a las Redes Bayesianas– p.70/??
Ejemplo
p Y= Si Y = Si Y = No Y = No
Z= Hombre Z= Mujer Z = Hombre Z = Mujer
X=Si 0.5 0.4 0.2 0.1
X=No 0.5 0.6 0.8 0.9
q Y= Si Y = Si Y = No Y = No
Z= Hombre Z= Mujer Z = Hombre Z = Mujer
0.3 0.4 0.2 0.1
p.q Y= Si Y = Si Y = No Y = No
Z= Hombre Z= Mujer Z = Hombre Z = Mujer
X=Si 0.15 0.16 0.04 0.01
X=No 0.15 0.24 0.16 0.09
Una Introducción a las Redes Bayesianas– p.71/??
Ejemplo
p X= 0 X=0 X=1 X=1
Y= 0 Y=1 Y=0 Y=1
0.96 0.04 0.1 0.9
q Y= 0 Y=0 Y=1 Y=1
Z= 0 Z=1 Z=0 Z=1
0.97 0.03 0.2 0.8
Resultado:
p.q X= 0 X=0 X=1 X=1
Y= 0 Y=1 Y=0 Y=1
Z=0 0.9312 0.008 0.097 0.18
Z=1 0.0288 0.032 0.003 0.72
Una Introducción a las Redes Bayesianas– p.72/??
Cálculo sin Observaciones
Tenemos un conjunto de variables X y queremos calcular las
probabilidades sobre Z sin observaciones: p(z).
Supongamos que X = Y∪{Z}
Tenemos que:
p(z) = ∑
y
p(y,z)
Donde p(y,z) es la distribución conjunta. Es decir, es la
marginalización sobre Z de la distribución conjunta.
La forma más evidente de hacerlo es:
Combinar todas las distribuciones condicionadas para
calcular la conjunta
Marginalizar sobre Y
Una Introducción a las Redes Bayesianas– p.73/??
Ejemplo
A B C D
E F G
H I
Objetivo: Calcular las probabilidades sobre H.
p(h) = ∑
a,b,c,d,e, f,g,i
p(a,b,c,d,e, f,g,h,i) =
∑
b,c,d,e, f,g,i
p(a).p(b).p(c).p(d).p(e|a).p( f|b,c).p(g|c,d).p(h|b,e).p(i|c,d, f)
Una Introducción a las Redes Bayesianas– p.74/??
Algoritmo de Borrado. Bases
∑
a,b,c,d,e, f,g,i
p(a).p(b).p(c).p(d).p(e|a).p(f |b,c).p(g|c,d).p(h|b,e).p(i|c,d, f)
Una Introducción a las Redes Bayesianas– p.75/??
Algoritmo de Borrado. Bases
∑
a,b,c,d,e, f,g,i
p(a).p(b).p(c).p(d).p(e|a).p(f |b,c).p(g|c,d).p(h|b,e).p(i|c,d, f)
∑
b,c,d,e, f,g,i
∑
a
p(a).p(b).p(c).p(d).p(e|a).p(f|b,c).p(g|c,d).p(h|b,e).p(i|c,d, f )
Una Introducción a las Redes Bayesianas– p.75/??
Algoritmo de Borrado. Bases
∑
a,b,c,d,e, f,g,i
p(a).p(b).p(c).p(d).p(e|a).p(f |b,c).p(g|c,d).p(h|b,e).p(i|c,d, f)
∑
b,c,d,e, f,g,i
∑
a
p(a).p(b).p(c).p(d).p(e|a).p(f|b,c).p(g|c,d).p(h|b,e).p(i|c,d, f )
∑
b,c,d,e, f,g,i
p(b).p(c).p(d).p(f|b,c).p(g|c,d).p(h|b,e).p(i|c,d, f)∑a p(a).p(e|a)
Una Introducción a las Redes Bayesianas– p.75/??
Algoritmo de Borrado. Bases
∑
a,b,c,d,e, f,g,i
p(a).p(b).p(c).p(d).p(e|a).p(f |b,c).p(g|c,d).p(h|b,e).p(i|c,d, f)
∑
b,c,d,e, f,g,i
∑
a
p(a).p(b).p(c).p(d).p(e|a).p(f|b,c).p(g|c,d).p(h|b,e).p(i|c,d, f )
∑
b,c,d,e, f,g,i
p(b).p(c).p(d).p(f|b,c).p(g|c,d).p(h|b,e).p(i|c,d, f)∑a p(a).p(e|a)
∑
b,c,d,e, f,g,i
p(b).p(c).p(d).p(f|b,c).p(g|c,d).p(h|b,e).p(i|c,d, f )r(e)
r(e) = ∑a p(a).p(e|a)
Tenemos un problema similar, pero con una variable menos
Una Introducción a las Redes Bayesianas– p.75/??
Algoritmo de Borrado
T: Conjunto de potenciales (inicialmente probabilidades
condicionadas)
X: variables iniciales
H: variable objetivo
Y: variables iniciales, excepto H
Algoritmo:
1. Para cada variable Z ∈ Y
2. Sea TZ el conjunto de los potenciales
en T que contienen la variable Z
3. Sea q el potencial combinación de todos los
potenciales en TZ
4. Sea r el resultado de borrar Z en q
5. Hacer T igual a (T −TZ)∪{r}
6. p(h) es la combinación de todos los potenciales en T
Una Introducción a las Redes Bayesianas– p.76/??
Algoritmo de Borrado: Ejemplo
T =
{p(a), p(b), p(c), p(d), p(e|a), p( f|b,c), p(g|c,d), p(h|b,e), p(i|c,d, f)}
Elegimos variable: A.
Calculamos:
r(e) = ∑
a
p(a).p(e|a)
Calculamos el nuevo conjunto:
T = {p(b), p(c), p(d), p( f|b,c), p(g|c,d), p(h|b,e), p(i|c,d, f),r(e)}
Una Introducción a las Redes Bayesianas– p.77/??
Algoritmo de Borrado: Ejemplo
T = {p(b), p(c), p(d), p( f|b,c), p(g|c,d), p(h|b,e), p(i|c,d, f),r(e)}
Elegimos variable: I.
Calculamos:
s(c,d, f) = ∑
i
p(i|c,d, f)
Calculamos el nuevo conjunto:
T = {p(b), p(c), p(d), p( f|b,c), p(g|c,d), p(h|b,e),s(c,d, f),r(e)}
Una Introducción a las Redes Bayesianas– p.78/??
Algoritmo de Borrado: Ejemplo
T = {p(b), p(c), p(d), p( f|b,c), p(g|c,d), p(h|b,e),s(c,d, f),r(e)}
Elegimos variable: B.
Calculamos:
q(c,e, f,h) = ∑
b
p(b).p( f|b,c).p(h|b,e)
Calculamos el nuevo conjunto:
T = {p(c), p(d), p(g|c,d),s(c,d, f),r(e),q(c,e, f,h)}
Una Introducción a las Redes Bayesianas– p.79/??
Algoritmo de Borrado: Ejemplo
T = {p(c), p(d), p(g|c,d),s(c,d, f),r(e),q(c,e, f,h)}
Elegimos variable: D.
Calculamos:
t(c, f,g) = ∑
d
p(d).s(c,d, f).p(g|c,d)
Calculamos el nuevo conjunto:
T = {p(c),r(e),q(c,e, f,h),t(c, f,g)}
Una Introducción a las Redes Bayesianas– p.80/??
Algoritmo de Borrado: Ejemplo
T = {p(c),r(e),q(c,e, f,h),t(c, f,g)}
Elegimos variable: F.
Calculamos:
w(c,e,g,h) = ∑
f
q(c,e, f,h).t(c, f,g)
Calculamos el nuevo conjunto:
T = {p(c),r(e),w(c,e,g,h)}
Una Introducción a las Redes Bayesianas– p.81/??
Algoritmo de Borrado: Ejemplo
T = {p(c),r(e),w(c,e,g,h)}
Elegimos variable: E.
Calculamos:
m(c,g,h) = ∑
e
r(e).w(c,e,g,h)
Calculamos el nuevo conjunto:
T = {p(c),m(c,g,h)}
Una Introducción a las Redes Bayesianas– p.82/??
Algoritmo de Borrado: Ejemplo
T = {p(c),m(c,g,h)}
Elegimos variable: G.
Calculamos:
n(c,h) = ∑
g
m(c,g,h)
Calculamos el nuevo conjunto:
T = {p(c),n(c,h)}
Una Introducción a las Redes Bayesianas– p.83/??
Algoritmo de Borrado: Ejemplo
T = {p(c),n(c,h)}
Elegimos variable: C.
Calculamos:
v(h) = ∑
c
p(c).n(c,h)
Calculamos el nuevo conjunto:
T = {v(h)}
La probabilidad buscada es: p(h) = v(h)
Una Introducción a las Redes Bayesianas– p.84/??
Notas
Calculamos la probabilidad deseada sin calcular la
probabilidad conjunta
En nuestro caso el número máximo de variables en un
potencial es 5
Las variables se pueden elegir en cualquier orden. El
resultado es siempre correcto
Distintos órdenes pueden producir distinto número de
operaciones
Una buena heurística: elegir la variables más fácil de borrar
en cada momento
El problema es NP-duro, pero dependiendo de los grafos se
pueden resolver problemas con miles de variables
Una Introducción a las Redes Bayesianas– p.85/??
Variables Obervadas
Hemos obervado O = o y queremos calcular p(z|o) para una
variable Z.
El algoritmo de borrado calcula: p(z,o) para todos los valores de
Z
Después, del valor deseado p(z|o) se obtiene dividiendo cada
valor p(z,o) por ∑z p(z ,o) (normalizando).
Para calcular p(z,o) se aplica el mismo algoritmo de antes, pero
transformando los potenciales iniciales. El proceso consiste en
hacer iguales a cero los valores correspondientes a los valores
no obervados de las variables O.
Una Introducción a las Redes Bayesianas– p.86/??
Ejemplo. Variables Observadas
Supongamos el potencial p:
p Y= Si Y = Si Y = No Y = No
Z= Hombre Z= Mujer Z = Hombre Z = Mujer
X=Si 0.14 0.168 0.024 0.018
X=No 0.14 0.252 0.096 0.162
Y que hemos observado, Y = Si. Antes del algoritmo tendríamos
que transformar p en el potencial:
Y= Si Y = Si Y = No Y = No
Z= Hombre Z= Mujer Z = Hombre Z = Mujer
X=Si 0.14 0.168 0.0 0.0
X=No 0.14 0.252 0.0 0.0
Una Introducción a las Redes Bayesianas– p.87/??
Ejemplo 2. Variables Observadas
Supongamos el potencial p:
p Y= Si Y = Si Y = No Y = No
Z= Hombre Z= Mujer Z = Hombre Z = Mujer
X=Si 0.14 0.168 0.024 0.018
X=No 0.14 0.252 0.096 0.162
Y que hemos observado, Y = Si, Z=Hombre. Antes del algoritmo
tendríamos que transformar p en el potencial:
Y= Si Y = Si Y = No Y = No
Z= Hombre Z= Mujer Z = Hombre Z = Mujer
X=Si 0.14 0.0 0.0 0.0
X=No 0.14 0.0 0.0 0.0
Una Introducción a las Redes Bayesianas– p.88/??
Ejemplo: normalización
Si Z tiene tres valores {z1,z2,z3}, y al final del algoritmo hemos
obtenido el potencial:
q Z = z1 Z = z2 Z = z3
0.2 0.2 0.1
Entonces, las probabilidades condicionadas se obtienen
dividiendo estos valores por su suma:
p(z1|o) p(z2|o) p(z3|o)
0.4 0.4 0.2
Una Introducción a las Redes Bayesianas– p.89/??
La Configuración de Máxima Probabilidad
Tenemos un conjunto de variables X, y un conjunto de
observaciones O = o.
Objetivo: Calcular una configuración (un valor para cada
variable) no observada Y = a, donde Y = X−O tal que
P(a|o) = m´ax
y
P(y|o)
E1 E2
S1 S2 S3
Una Introducción a las Redes Bayesianas– p.90/??
Problemas de Decisión - Diagramas de Influenc
Existen dos nuevos tipos de nodos: nodos de decisión y nodos
de utilidad.
Un arco desde un nodo de azar a uno de decisión supone
que dicho nodo se conoce antes de tomar la decisión
Debe de existir un camino dirigido en el que aparezcan las
variables de decisión
Las observaciones no se olvidan
Howard y Matheson(1981), Olmsted (1983)
Shachter (1986), Cooper (1988), Shenoy (1992)
Una Introducción a las Redes Bayesianas– p.91/??
Diagrama de Influencia
Enfermedad
Síntomas N. Hormonal
Resultado
Test?
Tratamiento
Costo
Utilidad
Una Introducción a las Redes Bayesianas– p.92/??
Diagrama de Influencia
Plantación
Mildeu
Mildeu 2
Cosecha
TratamientoCosto
Utilidad
Una Introducción a las Redes Bayesianas– p.93/??
Construcción de Redes Bayesianas
A partir de expertos
Aprendizaje automático a partir de bases de datos
Estimación de los parámetros
Aprendizaje de la estructura
Modelos mixtos
Parámetros: A partir de una base de datos, determinando un
estimador de P(X = a|Y = b) contando el número de casos en
que X toma el valor a entre los que Y = b.
Mucho más común el uso de modelos Bayesianos,
principalmente basados en la distribuciónd e Dirichlet.
Una Introducción a las Redes Bayesianas– p.94/??
Aprendizaje Estructural
Dos Enfoques Básicos:
Comprobación de Independencias
Independencia de X e Y dado Z.
Métodos de Ajuste
Métrica que mide el ajuste (tratan de ajustar los datos,
pero penalizan la complejidad del modelo)
Algoritmo de búsqueda
Una Introducción a las Redes Bayesianas– p.95/??
Febrero 2002
Un determinado defecto genético (variable G) puede producir dos enfermedades
(variables E1, E2). En presencia de dicho defecto, las enfermedades se manifiestan
con una determinada probabilidad, pero no existe ninguna relación entre los
mecanismos que dan lugar a las enfermedades: el hecho de que una se manifieste
no hace a la otra más o menos probable. Existen tres posibles síntomas asociados
a las enfermedades (S1,S2,S3). Los síntomas S1 y S2 se asocian a la enfermedad E1
y los síntomas S2,S3 a la enfermedad E2. En la enfermedad E1 la presencia del
síntoma S1 hace al síntoma S2 más probable. En la enfermedad E2 la presencia de
uno de los síntomas no cambia la probabilidad de aparición del otro síntoma. Existe
una prueba de laboratorio (P), cuyo resultado depende de forma conjunta de la
presencia o ausencia de ambas enfermedades, pero tiene comportamiento distinto
en hombres y mujeres (variable T). Se supone que T no tiene relación directa con
ninguna otra variable del problema.
Una Introducción a las Redes Bayesianas– p.96/??
Febrero 2002 (Cont.)
Determinar un grafo dirigido con las variables anteriores que represente unas
relaciones de independencia entre las variables que sean compatibles con las
especificaciones anteriores. En el caso de incluir hipótesis adicionales,
indicarlas de forma precisa.
Indicar las independencias básicas representadas en el grafo.
Indicar las distribuciones de probabilidad condicionadas que habría que
especificar para determinar la distribución de probabilidad conjunta asociada al
grafo construido.
Una Introducción a las Redes Bayesianas– p.97/??
Respuesta
G
E1 E2
S1 S2 S3
P
T
Una Introducción a las Redes Bayesianas– p.98/??
Pregunta, Septiembre 2001
Dar ejemplos reales en las que para tres variables aleatorias X, Y, Z,
tenga sentido suponer las relaciones de independencia de cada una
de las siguientes situaciones:
1. X e Y son dependientes, pero condicionalmente independientes
conocida Z.
2. X e Y son independientes, pero son dependientes conocida la
variable Z.
3. X e Y son independientes y X y Z son independientes dada la
variable Y.
4. No se verifica ninguna relación de independencia (condicional o
no) entre estas variables.
Expresar, en cada caso, las relaciones de independencia existentes
mediante un grafo dirigido acíclico.
Una Introducción a las Redes Bayesianas– p.99/??
Respuestas
X e Y son independientes, pero son dependientes
conocida la variable Z
X: Número de lotería que compro
Y: Número de lotería que es premiado
Z: Soy rico
N. Compro N. Toca
Rico
Una Introducción a las Redes Bayesianas– p.100/??
Febrero 2001
Dado el siguiente grafo dirigido acíclico, determinar qué independencias
condicionadas de la siguiente lista se representan en el grafo, usando el criterio de
D-separación.
1 2 3 4
5
8 9
6 7
10 11
12
Una Introducción a las Redes Bayesianas– p.101/??
Febrero 2001 (Continuación)
Lista de independencias que hay que comprobar:
a)I(2,4|/0) e) I(1,3|5,10) h) I(2,4|9,12)
b) I(1,3|2,9,10) f) I(2,7|6) i) I(4,12|10,11)
c) I(3,4|10) g) I(2,10|7,9) j) I(3,4|11,12)
d) I(1,12|9)
Una Introducción a las Redes Bayesianas– p.102/??
Febrero 2003
He instalado una alarma en mi casa que puede activarse (variable A)
porque un intruso entre para robar (variable R) o haya un seismo
(variable S), que son bastante frecuentes en la zona en la que vivo. Si
suena la alarma un vecino que suele avisar a mi teléfono móvil
(variable L), pero hay veces que mi vecino no está (variable P) y no
me llama aunque suene la alarma. También es un vecino un poco
bromista y puede llamar sin que haya sonado la alarma (sea B la
variable que determina si el vecino es serio o está bromeando). En
caso de que haya un seismo existe una probabilidad alta de que sea
anunciado en la emisora de radio local (variable N). No siempre
escucho dicha emisora (la variable E representa si la estoy
escuchando), pero si me llama mi vecino, trato de escucharla para
descartar que haya habido un seismo. Sea C la variable que
representa que conozco que hay un seismo por escucharlo en la
radio.
Una Introducción a las Redes Bayesianas– p.103/??
Febrero 2003 (Cont.)
1. Determinar un grafo dirigido acíclico compatible con las
relaciones entre las variables del problema.
2. Determinar las probabilidades condicionadas que hay que
especificar como datos.
3. Aplicar el algoritmo de borrado para determinar las
operaciones necesarias para calcular la probabilidad
marginal sobre la variable C.
Una Introducción a las Redes Bayesianas– p.104/??
Solución
R S
AP B
L N
E
C
Una Introducción a las Redes Bayesianas– p.105/??
Septiembre 2003
Determinar la estructura de una red bayesiana para el siguiente
problema: un granjero quiere determinar si una vaca está
preñada (variable P) después de una inseminación artificial.
Para ello dispone de tres tests. El primero de ellos es una
ecografía (variable E) y los otros dos son un test de sangre
(variable S) y uno de orina (variable O). Se supone que los dos
últimos tests se basan en el nivel hormonal de la vaca (variable
H) que puede ser alto o bajo y que, a su vez, depende de si la
vaca está realmente preñada. Existe un tipo raro de sangre
(variable T) que hace que el resultado del test de sangre sea
siempre positivo con independencia de si la vaca está preñada
o no. Para descartar esta situación, el granjero también realiza
un test para comprobar el tipo de sangre (variable TT).
Una Introducción a las Redes Bayesianas– p.106/??
Septiembre 2003 (Cont.)
En caso de duda sobre la red, especificar las relaciones de
independencia que se han supuesto.
Especificar distribuciones de probabilidad condicionadas dados
sus padres para las variables S,E,T que sean compatibles con
la información del problema.
¿Podemos considerar que si se conoce el resultado del test del
nivel hormonal en la sangre, entonces el resultado del test de
tipo de sangre es independiente de que la vaca esté preñada?
Una Introducción a las Redes Bayesianas– p.107/??
Diciembre 2003
Considerar el problema de transmitir palabras de longitud cinco del alfabeto
A = {a,b} sobre un canal de transmisión. Las palabras se transmiten símbolo a
símbolo. La transmisión tiene ruido y algunas veces no se recibe el símbolo
emitido. Si se emite una a se recibe una a con probabilidad 0.8 y una b con
probabilidad 0.2. Si se emite una b se recibe una b con probabilidad 0.9 y una a con
probabilidad 0.1. La probabilidad de error solo depende del símbolo emitido y no de
la presencia de error en cualquier otro símbolo. Las palabras emitidas no son
completamente aleatorias y el valor de un símbolo determinado depende de los
símbolos que lo preceden, pero sólo del último de ellos.
1. Establecer una red bayesiana que relacione los símbolos emitidos y recibidos.
2. Indicar las probabilidades condicionadas que hay que especificar.
3. Indicar qué cálculos habría que realizar en el algoritmo de borrado para
calcular la probabilidad del primer símbolo emitido, dado que se conocen los
cinco símbolos recibidos.
Una Introducción a las Redes Bayesianas– p.108/??
Febrero 2004
Consideremos un estudio sobre las familias en el que vamos a considerar
las siguientes variables: A (nivel de estudios de la madre), B (nivel de
estudios del padre), C (ingresos del padre), D (ingresos de la madre), T
(ingresos totales en la familia), E (presencia internet en casa), F (coche), G
(gastos de la familia en ocio), H (número de hijos), I (presencia de televisión
de pago).
1. Diseñar una red que exprese unas independencias compatibles con el
signigicado de estas variables. Especificar las suposiciones que se
hacen.
2. Realizar una red obtenida a partir de la anterior, pero eliminando las
variables A y B (sólo debe de representar las independencias entre las
restantes variables que se verifiquen en la red del punto anterior),
3. En cada una de las redes, determinar un conjunto con un número de
variables tan pequeño como sea posible, para que conocidas las
variables de este conjunto, las variables E y F sean independientes.
Una Introducción a las Redes Bayesianas– p.109/??
Septiembre 2004
La probabilidad de que una vaca sufra mastitis un día (variable M) depende
de varios factores: si sufría mastitis el día anterior (D), número de días de la
enfermedad (I) y días en que ha recibido tratamiento (T). El ganadero
diagnostica la enfermedad en función del aspecto general (A) y de un test
que se realiza en la leche (L). Sin embargo, el test puede no ser fiable si la
vaca ha estado sometida a tratamiento durante más de tres días.
1. Describir un grafo de dependencias compatible con la situación
descrita.
2. Determinar una tabla de probabilidad condicionada para la variable L
en el grafo anterior.
3. Si la vaca no tuvo enfermedad el día anterior, y no ha sido tratada, y
sabiendo que en estas condiciones la probabilidad de sufrir la
enfermedad es de 0.01, determinar la probabilidad de que tenga la
enfermedad si el test L ha resultado positivo.
Una Introducción a las Redes Bayesianas– p.110/??
Septiembre 2004 (bis)
Supongamos tres variables con dos valores cada una:
X: He hecho un viaje a Asia recientemente
Y: Tengo tuberculosis
Z: Radiografía positiva
Realizar una red bayesiana basada en el siguiente orden de las
variables; X,Y,Z. Especificar probabilidades condicionadas para
las 3 variables, de acuerdo con la red construida. Calcular la
probabilidad marginal con la que Z toma sus valores, aplicando
el algoritmo de borrado y eliminando primero la variable X y
después la variable Y. Nota: es necesario calcular los valores
numéricos de las probabilidades, no siendo suficiente con
indicar las operaciones con los potenciales.
Una Introducción a las Redes Bayesianas– p.111/??
Febrero 2005
En una granja hay dos yeguas y un caballo sin ningún parentesco entre ellos y van
a nacer dos potros, uno de cada una de las yeguas. El caballo es el padre de
ambos potros. Existe una grave enfermedad que está ligada a la presencia de un
gen recesivo a. El gen normal se nota por A. Esto quiere decir que la carga
genética de cada individuo puede ser aa, aA, AA y la enfermedad sólo se manifiesta
cuando un individuo tiene carga genética aa. Si un individuo tiene aA no manifiesta
la enfermedad, pero es portador de ella.
1. Determinar una red Bayesiana que exprese las dependencias entre la carga
genética de cada uno de los caballos de la granja, incluyendo los dos potros
que van a nacer.
2. Si en la población general la probabilidad de ser portador es de 0.01 para los
caballos, de 0.02 para las yeguas, y los potros heredan un gen de cada uno
de los padres (se elige aletoriamente entre los dos posibles de cada padre),
detallar las distribuciones de probabilidad condicionadas asociadas a la red.
3. Si se observa que el primer potro que nace manifiesta la enfermedad (tiene
aa), calcular mediante el algoritmo de borrado la probabilidad de que el otro
potro también tenga la enfermedad y la probabilidad de que sea portador.
Una Introducción a las Redes Bayesianas– p.112/??
Solución
Las variables que se van a considerar son:
C: Carga genética del caballo
Y1: Carga genética de la primera yegua
Y2: Carga genética de la segunda yegua
P1: Carga genética del primer potro
P2: Carga genética del segundo potro
Una Introducción a las Redes Bayesianas– p.113/??
Solución
Una red bayesiana que exprese las relaciones de dependencia
entre estas variables es:
Y1 C Y2
P1 P2
Una Introducción a las Redes Bayesianas– p.114/??
Solución
En el problema se supone que las yeguas y el caballo no pueden
tener aa ya que esto supone que se desarrola la enfermedad y
entonces no se considerarían para la procreación (esto se indicó en
el examen).
Entonces las tablas de probabilidad son las siguientes (a cada
potencial le vamos a dar un nombre qi para poder hacer referencia a
él):
Para el caballo, un potencial q1 que depende de C:
q1 C = AA C = Aa
0.99 0.01
Para la primera yegua, un potencial q2 que depende de Y1:
q2 Y1 = AA Y1 = Aa
0.98 0.02
Una Introducción a las Redes Bayesianas– p.115/??
Solución
Para la segunda yegua, un potencial q3 que depende de Y2:
q3 Y2 = AA Y2 = Aa
0.98 0.02
Para el primer potro, un potencial q4 que depende de P1,Y1,C,
que expresa la probabilidad condicionada de P1 dados sus
padres Y1,C
q4 Y1 = AA Y1 = AA Y1 = Aa Y1 = Aa
C = AA C = Aa C = AA C = Aa
P1 = AA 1 0.5 0.5 0.25
P1 = Aa 0 0.5 0.5 0.5
P1 = aa 0 0 0 0.25
Una Introducción a las Redes Bayesianas– p.116/??
Solución
Para el segundo potro, un potencial q5 que depende de P2,Y2,C,
que expresa la probabilidad condicionada de P2 dados sus
padres Y2,C, y que es idéntica a la anterior en estructura y
valores:
q5 Y2 = AA Y2 = AA Y2 = Aa Y2 = Aa
C = AA C = Aa C = AA C = Aa
P2 = AA 1 0.5 0.5 0.25
P2 = Aa 0 0.5 0.5 0.5
P2 = aa 0 0 0 0.25
Una Introducción a las Redes Bayesianas– p.117/??
Solución
Observamos que P1 = aa y queremos calcular la
probabilidades condicionadas de los distintos valores de la
variable P2.
Para ello primero se restringen los potenciales a las
observaciones y después aplicamos el algoritmo de
borrado.
Restringir un potencial que contiene P1 a P1 = aa, es hacer
0.0 todas las casillas que correspondan a valores de P1
distintos del observado.
Sólo hay un potencial que depende de P1 y es q4.
Una Introducción a las Redes Bayesianas– p.118/??
Solución
Al resultado de restringir q4 a P1 = aa le llamamos q4 y es
como sigue:
q4 Y1 = AA Y1 = AA Y1 = Aa Y1 = Aa
C = AA C = Aa C = AA C = Aa
P1 = AA 0 0 0 0
P1 = Aa 0 0 0 0
P1 = aa 0 0 0 0.25
Ahora aplicamos el algoritmo de borrado a la lista de
potenciales q1,q2,q3,q4,q5.
Una Introducción a las Redes Bayesianas– p.119/??
Solución
Borramos P1. Sólo hay un pontencial que contiene esta variable, q4:
q4 Y1 = AA Y1 = AA Y1 = Aa Y1 = Aa
C = AA C = Aa C = AA C = Aa
P1 = AA 0 0 0 0
P1 = Aa 0 0 0 0
P1 = aa 0 0 0 0.25
No hay que hacer multiplicaciones, sólo marginalizar sobre Y1,C
obteniendo el potencial q6:
q6 Y1 = AA Y1 = AA Y1 = Aa Y1 = Aa
C = AA C = Aa C = AA C = Aa
0 0 0 0.25
Una Introducción a las Redes Bayesianas– p.120/??
Solución
Se elimina q4 de la lista y se añade q6, quedando q1,q2,q3,q5,q6.
Ahora se borra Y1. Para ello se multiplican los dos potenciales que
contienen esta variable: q2 y q6.
q2 Y1 = AA Y1 = Aa
0.98 0.02
y
q6 Y1 = AA Y1 = AA Y1 = Aa Y1 = Aa
C = AA C = Aa C = AA C = Aa
0 0 0 0.25
obteniéndose q7:
q7 Y1 = AA Y1 = AA Y1 = Aa Y1 = Aa
C = AA C = Aa C = AA C = Aa
0 0 0 0.005
Una Introducción a las Redes Bayesianas– p.121/??
Solución
En q7 se marginaliza sobre C, borrándose Y1 y obteniéndose el
potencial q8:
q8 C = AA C = Aa
0 0.005
Se eliminan q2 y q6 y se añade q8 a la lista, quedando
q1,q3,q5,q8.
Una Introducción a las Redes Bayesianas– p.122/??
Solución
En la lista q1,q3,q5,q8 se elimina la variable C.
Se multiplican los potenciales que contienen esta variable q1, q5 y q8:
q1 C = AA C = Aa
0.99 0.01
,
q5 Y2 = AA Y2 = AA Y2 = Aa Y2 = Aa
C = AA C = Aa C = AA C = Aa
P2 = AA 1 0.5 0.5 0.25
P2 = Aa 0 0.5 0.5 0.5
P2 = aa 0 0 0 0.25
y
q8 C = AA C = Aa
0 0.005
Una Introducción a las Redes Bayesianas– p.123/??
Solución
El resultado de la multiplicación es el potencial q9:
q5 Y2 = AA Y2 = AA Y2 = Aa Y2 = Aa
C = AA C = Aa C = AA C = Aa
P2 = AA 0 0.000025 0 0.0000125
P2 = Aa 0 0.000025 0 0.000025
P2 = aa 0 0 0 0.0000125
Se marginaliza sobre P2,Y2 borrando C, obteniéndose q10:
q10 Y2 = AA Y2 = Aa
P2 = AA 0.000025 0.0000125
P2 = Aa 0.000025 0.000025
P2 = aa 0 0.0000125
Una Introducción a las Redes Bayesianas– p.124/??
Solución
Se eliminan de la lista los potenciales combinados q1, q5 y q8, y se añade el
resultado q10.
La lista queda con los potenciales q3,q10.
Se elimina ahora la variable Y2.
Para ello se multiplican los potenciales que contienen esta variable, q3 y q10:
q3 Y2 = AA Y2 = Aa
0.98 0.02
y
q10 Y2 = AA Y2 = Aa
P2 = AA 0.000025 0.0000125
P2 = Aa 0.000025 0.000025
P2 = aa 0 0.0000125
obteniéndose q11:
q11 Y2 = AA Y2 = Aa
P2 = AA 0.0000245 0.00000025
P2 = Aa 0.0000245 0.0000005
P2 = aa 0 0.00000025
Una Introducción a las Redes Bayesianas– p.125/??
Solución
Se marginaliza q11 sobre P2, obteniéndose q12:
q12
P2 = AA 0.00002475
P2 = Aa 0.000025
P2 = aa 0.00000025
Se eliminan q3 y q10 de la lista y se añade q12.
La lista queda: q12.
Ya se han borrado todas las variables, excepto la variable en la que
estamos interesados. Ahora hay que multiplicar todos los potenciales
que quedan. Como sólo queda q12, el resultado es él mismo: q12.
Una Introducción a las Redes Bayesianas– p.126/??
Solución
Finalmente las probabilidades deseadas, se obtienen
normalizando este potencial, es decir dividiendo cada número
por la suma de todos los valores
0.00002475+0.000025+0.00000025
De
q12
P2 = AA 0.00002475
P2 = Aa 0.000025
P2 = aa 0.00000025
se pasa a
q12
P2 = AA 0.495
P2 = Aa 0.5
P2 = aa 0.005
En esta tabla tenemos la probabilidad de que el segundo potro
sea portador (P2 = Aa) y que es de 0.5 y la probabilidad de que
esté enfermo (P2 = aa) que es igual a 0.005. La de estar
completamente sano sin ser portador es de 0.495.
Una Introducción a las Redes Bayesianas– p.127/??
Septiembre 2005
Dar un ejemplo de red bayesiana con 4 variables (X1,X2,X3,X4) para
cada uno de los siguientes conjuntos de condiciones:
1. I(X1,X4|X2,X3),I(X2,X3|X1)
2. I(X1,X2|/0),I(X4,X3|X2),I(X4,X1|X2)
Las relaciones de independencia entre variables que no están
incluidas en las condiciones anteriores no deben de verificarse (por
ejemplo, en el caso primero, X1 y X2 deben de ser dependientes).
Dar nombres a las variables que correspondan con un ejemplo
real y en el que estas relaciones se verifiquen.
Para la red del primer conjunto de restricciones, dar ejemplos de
tablas de probabilidad condicionadas (todas las necesarias para
una distribución de probabilidad conjunta).
Una Introducción a las Redes Bayesianas– p.128/??
Febrero 2006
Un estudiante realiza un examen con 5 preguntas que se califican
cada una con los valores 0,1,2. Si el alumno obtiene más de cinco
puntos, aprueba la asignatura. Realizar una red bayesiana que
incluya los resultados de cada una de las preguntas (una variable
para cada pregunta) y el hecho de que el estudiante supere o no el
examen (variable A).
Construir una nueva red en la que aparezcan cuatro variables
además de las anteriores: formación básica del estudiante (F),
esfuerzo dedicado a la asignatura (E), asistencia a clase (C) y estado
anímico (N). Cada una de estas variables puede tener 3 valores:
bueno, malo, regular.
Una Introducción a las Redes Bayesianas– p.129/??
Febrero 2006 (Cont.)
Construir una tercera red en la que sólo aparezcan la variable F y las
dos primeras preguntas, suponiendo que los resultados de estas pre-
guntas son condicionalmente independientes dada F. Introducir valo-
res numéricos que permitan determinar una distribucón conjunta. Cal-
cular la probabilidad de que la formación básica de un estudiante sea
buena si ha obtenido 2 en ambas preguntas.
Una Introducción a las Redes Bayesianas– p.130/??
Septiembre 2006
Tenemos una enfermedad que queremos diagnosticar y tres tests
que se pueden aplicar que pueden ser positivos o negativos. Se sabe
que las probabilidades de que los tests den positivos según se tenga
o no la enfermedad son las de la siguiente tabla:
Test 1 positivo Test 2 positivo Test 3 positivo
Enfermo 0.9 0.8 0.75
No enfermo 0.2 0.05 0.06
Si se supone que los resultados de los tests son condicionalmente
independientes conocido si se tiene o no se tiene la enfermedad,
determinar una red bayesiana con sus tablas de probabilidad que
represente el problema. Si hay algún dato que falta, añadir un valor
arbitrario.
Calcular la probabilidad de que se tenga la enfermedad una vez que
los dos primeros tests han dado positivos y el tercero negativo.
Una Introducción a las Redes Bayesianas– p.131/??
Septiembre 2006 - Solución
Enfermedad
Enf. SI NO
0.01 0.99
Test 1
Enf. SI NO
Test1 + 0.9 0.2
Test1 - 0.1 0.8
Test 2
Enf. SI NO
Test2 + 0.8 0.05
Test2 - 0.2 0.95
Test 3
Enf. SI NO
Test3 + 0.75 0.06
Test3 - 0.25 0.94
Una Introducción a las Redes Bayesianas– p.132/??
Solución (cont.)
Para calcular la probabilidad condicionada de tener la
enfermedad dado que los tests 1 y 2 son potivos y el 3
negativo podemos aplicar el algoritmo de borrado a la lista
de potenciales después de transformarlos de acuerdo con
las observaciones.
Aquí vamos a aplicar directamente el teorema de Bayes.
Llamemos T1,T2,T3 a los tests con valores +,− y E con
valores SI,NO.
Sea O nuestro conjunto de observaciones
T1 = +,T2 = +,T3 = −.
Una Introducción a las Redes Bayesianas– p.133/??
Solución (cont.)
Aplicamos el teorema de Bayes:
P(E = SI|O) =
P(O|E = SI).P(E = SI)
P(O|E = SI).P(E = SI)+P(O|E = NO).P(E = NO)
Como los resultados de los tests son condicionalemente
independientes conocido si se tiene la enfermedad:
P(O|E = SI) = P(T1 = +,T2 = +,T3 = −|E = SI) =
P(T1 = +|E = SI).P(T2 = +|E = SI).P(T3 = −|E = SI) = 0.9×0.8×0.25 = 0.18
P(O|E = NO) = P(T1 = +,T2 = +,T3 = −|E = NO) =
P(T1 = +|E = NO).P(T2 = +|E = NO).P(T3 = −|E = NO) = 0.2×0.05×0.94 = 0.0094
Una Introducción a las Redes Bayesianas– p.134/??
Solución (Cont.)
Sustituimos, junto con P(E = SI) = 0,01,P(E = NO) = 0,99,
obteniendo
P(E = SI|O) =
0.18×0.01
0.18×0.01+0.0094×0.99
= 0.162
Nuestro resultado final es 0.162.
Este dependerá de la probabilidad ’a priori’ de la
enfermedad que hayamos puesto.
Una Introducción a las Redes Bayesianas– p.135/??
Febrero 2007
Consideremos un modelo de la intereracción entre tres factores (hierba, herbívoros,
carnívoros) en un sistema ecológico. Para ello se considerarán tres instantes de
tiempo y, en cada uno de ellos, los valores de estas tres variables (hay que hacer
tres versiones de cada una de las variables, una en cada instante de tiempo). Cada
variable tiene tres valores posibles (’escaso’,’normal’,’abundante’).
1. Determinar una red bayesiana que represente el modelo, describiendo la
parte cualitativa y cuantitativa. En la primera etapa se puede suponer que las
variables son independientes. Para las probabilidades se deben de
determinar valores numéricos que sean compatibles con la intuición (por
ejemplo, si hay pocos carnívoros y muchos herbívoros en un momento dado,
en el instante siguiente lo más probable es que el número de carnívoros sea
normal).
2. Describir sólo la red que incluya las variables hierba y herbívoros en el
instante 1 e hierba en el instante 2. Calcular la probabilidad marginal de la
variable hierba en el instante 2, aplicando el algoritmo de borrado.
Una Introducción a las Redes Bayesianas– p.136/??
Febrero 2007 (solución)
Consideremos las variables:
Hierba en el instante i: Hii
Herbívoros en el instante i: Hei
Carnívoros en el instante i: Ci
La red puede ser:
Hi1
He1
C1
Hi2
He2
C2
Hi3
He3
C3
Una Introducción a las Redes Bayesianas– p.137/??
Febrero 2007 (solución)
Si notamos: Escaso (E), Normal (N), Abundante (A).
Para las variables Hi1, He1, C1, podemos considerar la mista
tabla de probabilidad. Por ejemplo:
E N A
0.3 0.4 0.3
Para la Hii+1 condicionado a Hii y Hei:
Hii = E Hii = N Hii = A
Hei = E Hei = N Hei = A Hei = E Hei = N Hei = A Hei = E Hei = N Hei = A
Hii+1 = E 0.4 0.5 0.9 0.15 0.2 0.3 0.0 0.05 0.2
Hii+1 = N 0.5 0.45 0.09 0.6 0.6 0.6 0.2 0.25 0.3
Hii+1 = A 0.1 0.05 0.01 0.25 0.2 0.1 0.8 0.7 0.5
Una Introducción a las Redes Bayesianas– p.138/??
Febrero 2007 (solución)
Para la Hei+1 condicionado a Hii, Hei y Ca, la tabla es más
complicada. En tres partes puede ser:
Hii = E
Hei = E Hei = N Hei = A
Ci = E Ci = N Ci = A Ci = E Ci = N Ci = A Ci = E Ci = N Ci = A
Hei+1 = E 0.5 0.7 0.95 0.35 0.3 0.4 0.1 0.15 0.3
Hei+1 = N 0.5 0.3 0.05 0.5 0.6 0.55 0.2 0.25 0.3
Hei+1 = A 0.0 0.00 0.00 0.15 0.1 0.05 0.7 0.6 0.4
Hii = N
Hei = E Hei = N Hei = A
Ci = E Ci = N Ci = A Ci = E Ci = N Ci = A Ci = E Ci = N Ci = A
Hei+1 = E 0.4 0.5 0.9 0.15 0.2 0.3 0.0 0.05 0.2
Hei+1 = N 0.5 0.45 0.09 0.6 0.6 0.6 0.2 0.25 0.3
Hei+1 = A 0.1 0.05 0.01 0.25 0.2 0.1 0.8 0.7 0.5
Una Introducción a las Redes Bayesianas– p.139/??
Febrero 2007 (solución)
Para la Hei+1 condicionado a Hii, Hei y Ca, la tabla es más
complicada. La tercera parte de la tabla:
Hii = A
Hei = E Hei = N Hei = A
Ci = E Ci = N Ci = A Ci = E Ci = N Ci = A Ci = E Ci = N Ci = A
Hei+1 = E 0.3 0.4 0.8 0.05 0.1 0.2 0.0 0.01 0.1
Hei+1 = N 0.5 0.45 0.09 0.6 0.6 0.6 0.1 0.14 0.3
Hei+1 = A 0.2 0.15 0.11 0.35 0.3 0.2 0.9 0.85 0.6
Una Introducción a las Redes Bayesianas– p.140/??
Febrero 2007 (solución)
Para la Ci+1 condicionado a Hei y Ci:
Hei = E Hei = N Hei = A
Ci = E Ci = N Ci = A Ci = E Ci = N Ci = A Ci = E Ci = N Ci = A
Ci+1 = E 0.9 0.7 0.3 0.35 0.2 0.1 0.1 0.05 0.0
Ci+1 = N 0.1 0.2 0.6 0.6 0.6 0.5 0.4 0.25 0.2
Ci+1 = A 0.0 0.1 0.1 0.05 0.2 0.4 0.5 0.7 0.8
Una Introducción a las Redes Bayesianas– p.141/??
Febrero 2007 (solución)
Describir sólo la red que incluya las variables hierba y herbívoros en el instante 1 e
hierba en el instante 2. Calcular la probabilidad marginal de la variable hierba en el
instante 2, aplicando el algoritmo de borrado.
Hi1
He1
Hi2
Para Hi1 tabla:
Hi1 E N A
0.3 0.4 0.3
Para He1 tabla:
He1 E N A
0.3 0.4 0.3
Hi2 condicionado a Hi1 y He1:
Hi2|Hi1,He1 Hii = E Hii = N Hii = A
Hei = E Hei = N Hei = A Hei = E Hei = N Hei = A Hei = E Hei = N Hei = A
Hii+1 = E 0.4 0.5 0.9 0.15 0.2 0.3 0.0 0.05 0.2
Hii+1 = N 0.5 0.45 0.09 0.6 0.6 0.6 0.2 0.25 0.3
Hii+1 = A 0.1 0.05 0.01 0.25 0.2 0.1 0.8 0.7 0.5
Una Introducción a las Redes Bayesianas– p.142/??
Solución
Aplicamos el algoritmo de borrado, eliminando las variables
Hi1,He1 para obtener la marginal sobre He2.
Primero borramos Hi1. Para ello multiplicamos la tabla de Hi1
por la de Hi2 condicionado a Hi1,He1, obteniendo la tabla:
Hi1 = E Hi1 = N Hi1 = A
He1 = E He1 = N He1 = A He1 = E He1 = N He1 = A He1 = E He1 = N He1 = A
Hi2 = E 0.12 0.15 0.27 0.06 0.08 0.12 0.0 0.015 0.06
Hi2 = N 0.15 0.135 0.027 0.24 0.24 0.24 0.06 0.075 0.09
Hi2 = A 0.03 0.015 0.003 0.1 0.08 0.04 0.24 0.21 0.15
Una Introducción a las Redes Bayesianas– p.143/??
Solución (Febr. 2007)
Ahora marginalizamos la tabla anterior, sumando en Hi1 y
obteniendo:
Hi2,He1 He1 = E He1 = N He1 = A
Hi2 = E 0.18 0.245 0.45
Hi2 = N 0.45 0.45 0.357
Hi2 = A 0.37 0.305 0.193
Una Introducción a las Redes Bayesianas– p.144/??
Solución (Febr. 2007)
Ahora borramos la variable He1, multiplicando la tabla anterior:
Hi2,He1 He1 = E He1 = N He1 = A
Hi2 = E 0.18 0.245 0.45
Hi2 = N 0.45 0.45 0.357
Hi2 = A 0.37 0.305 0.193
por la de He1
He1 E N A
0.3 0.4 0.3
,obteniendo:
Hi2,He1 He1 = E He1 = N He1 = A
Hi2 = E 0.054 0.0980 0.135
Hi2 = N 0.135 0.18 0.1071
Hi2 = A 0.111 0.1220 0.0579
Una Introducción a las Redes Bayesianas– p.145/??
Solución (Febr. 2007)
En la tabla anterior marginalizamos sumando en He1,
obteniendo:
Hi2 E N A
0.287 0.4221 0.2909
La normalización no cambia esta tabla (la suma de los valores
es 1.0) y representa la probabilidad marginal sobre Hi2 que se
pedía.
Una Introducción a las Redes Bayesianas– p.146/??
Septiembre (2007)
Dibujar una red bayesiana con 5 variables (X1,X2,X3,X4,X5) en la se
verifiquen las siguientes independencias:
I(X1,X2|/0)
I(X4,X1|X3),I(X4,X2|X3)
I(X5,X1|X3),I(X5,X2|X3),I(X5,X4|X3)
y no se verifique ninguna otra independencia aparte de las que se
deduzcan de las anteriores por las propiedades de las
independencias representadas en grafos dirigidos acícilicos.
Si todas las variables pueden tomar dos valores ( 0,1), dar ejemplos
de tablas de probabilidad condicionadas para la red anterior.
Si consideramos la red con sólo las 4 primeras variables, calcular con
el algoritmo de borrado la probabilidad P(X3 = 0|X1 = 1,X4 = 0).
Una Introducción a las Redes Bayesianas– p.147/??

Más contenido relacionado

Destacado

20161007 - RaveemIsmailARPCPresentation
20161007 - RaveemIsmailARPCPresentation20161007 - RaveemIsmailARPCPresentation
20161007 - RaveemIsmailARPCPresentationRaveem Ismail
 
Icebergs asombrosos rayados
Icebergs asombrosos rayadosIcebergs asombrosos rayados
Icebergs asombrosos rayadosheuxeni
 
Supercreatividad vs sobrecarga de trabajo
Supercreatividad vs sobrecarga de trabajoSupercreatividad vs sobrecarga de trabajo
Supercreatividad vs sobrecarga de trabajoSara Couso
 
CALIDAD DE VIDA LABORAL
CALIDAD DE VIDA LABORALCALIDAD DE VIDA LABORAL
CALIDAD DE VIDA LABORALEFREN RUIZ
 
Metodo eva analizar bien
Metodo eva analizar bienMetodo eva analizar bien
Metodo eva analizar bienLaZlo Moraimaz
 
02. cuestionario de hechos capítulo 2 el espíritu santo (1a. parte)
02.  cuestionario de hechos capítulo 2 el espíritu santo (1a. parte)02.  cuestionario de hechos capítulo 2 el espíritu santo (1a. parte)
02. cuestionario de hechos capítulo 2 el espíritu santo (1a. parte)Yosef Sanchez
 
Estrategias de Distribución, Comercialización, Promoción y Comunicación.
Estrategias de Distribución, Comercialización, Promoción y Comunicación.Estrategias de Distribución, Comercialización, Promoción y Comunicación.
Estrategias de Distribución, Comercialización, Promoción y Comunicación.maria gutierrez
 

Destacado (12)

Cables
CablesCables
Cables
 
20161007 - RaveemIsmailARPCPresentation
20161007 - RaveemIsmailARPCPresentation20161007 - RaveemIsmailARPCPresentation
20161007 - RaveemIsmailARPCPresentation
 
01042016_Report Final
01042016_Report Final01042016_Report Final
01042016_Report Final
 
Ejercicio7
Ejercicio7Ejercicio7
Ejercicio7
 
Icebergs asombrosos rayados
Icebergs asombrosos rayadosIcebergs asombrosos rayados
Icebergs asombrosos rayados
 
Liberar espacio en disco duro
Liberar espacio en disco duroLiberar espacio en disco duro
Liberar espacio en disco duro
 
Supercreatividad vs sobrecarga de trabajo
Supercreatividad vs sobrecarga de trabajoSupercreatividad vs sobrecarga de trabajo
Supercreatividad vs sobrecarga de trabajo
 
CALIDAD DE VIDA LABORAL
CALIDAD DE VIDA LABORALCALIDAD DE VIDA LABORAL
CALIDAD DE VIDA LABORAL
 
Metodo eva analizar bien
Metodo eva analizar bienMetodo eva analizar bien
Metodo eva analizar bien
 
02. cuestionario de hechos capítulo 2 el espíritu santo (1a. parte)
02.  cuestionario de hechos capítulo 2 el espíritu santo (1a. parte)02.  cuestionario de hechos capítulo 2 el espíritu santo (1a. parte)
02. cuestionario de hechos capítulo 2 el espíritu santo (1a. parte)
 
Estrategias de Distribución, Comercialización, Promoción y Comunicación.
Estrategias de Distribución, Comercialización, Promoción y Comunicación.Estrategias de Distribución, Comercialización, Promoción y Comunicación.
Estrategias de Distribución, Comercialización, Promoción y Comunicación.
 
mwjournal_u3700
mwjournal_u3700mwjournal_u3700
mwjournal_u3700
 

Similar a Redesia2

Probabilidades
ProbabilidadesProbabilidades
Probabilidadeswillypi
 
Salud publica 3 Dr. García.pdf
Salud publica 3 Dr. García.pdfSalud publica 3 Dr. García.pdf
Salud publica 3 Dr. García.pdfMadelineDelgado8
 
4. principios de probabilidad
4. principios de probabilidad4. principios de probabilidad
4. principios de probabilidadpilarupav
 
BIOESTADISTICA.ppt
BIOESTADISTICA.pptBIOESTADISTICA.ppt
BIOESTADISTICA.pptOmarAillon2
 
ESTADISTICA un archivo importante para aprender
ESTADISTICA un archivo importante para aprenderESTADISTICA un archivo importante para aprender
ESTADISTICA un archivo importante para aprenderdaterosda
 
Estad uma 04_probabilidades
Estad uma 04_probabilidadesEstad uma 04_probabilidades
Estad uma 04_probabilidadesnchacinp
 
Sistemas expertosprobabilisticos
Sistemas expertosprobabilisticosSistemas expertosprobabilisticos
Sistemas expertosprobabilisticosUVM
 
Inferencia bayesiana
Inferencia bayesianaInferencia bayesiana
Inferencia bayesianaLuis Bautista
 
estad_uma_04.ppt
estad_uma_04.pptestad_uma_04.ppt
estad_uma_04.pptLazloMR
 
Trabajo de probabilidad
Trabajo de probabilidadTrabajo de probabilidad
Trabajo de probabilidadMonica Gaspar
 
Teoria de la probabilida
Teoria de la probabilidaTeoria de la probabilida
Teoria de la probabilidaYomev
 

Similar a Redesia2 (20)

Probabilidadeshtml
ProbabilidadeshtmlProbabilidadeshtml
Probabilidadeshtml
 
Probabilidades
ProbabilidadesProbabilidades
Probabilidades
 
Estad uma 04
Estad uma 04Estad uma 04
Estad uma 04
 
Salud publica 3 Dr. García.pdf
Salud publica 3 Dr. García.pdfSalud publica 3 Dr. García.pdf
Salud publica 3 Dr. García.pdf
 
Probabilidades est
Probabilidades estProbabilidades est
Probabilidades est
 
4. principios de probabilidad
4. principios de probabilidad4. principios de probabilidad
4. principios de probabilidad
 
Estadística II
Estadística IIEstadística II
Estadística II
 
Biometria clase 4
Biometria clase 4Biometria clase 4
Biometria clase 4
 
Clase 3
Clase 3Clase 3
Clase 3
 
BIOESTADISTICA.ppt
BIOESTADISTICA.pptBIOESTADISTICA.ppt
BIOESTADISTICA.ppt
 
ESTADISTICA un archivo importante para aprender
ESTADISTICA un archivo importante para aprenderESTADISTICA un archivo importante para aprender
ESTADISTICA un archivo importante para aprender
 
Estad uma 04_probabilidades
Estad uma 04_probabilidadesEstad uma 04_probabilidades
Estad uma 04_probabilidades
 
Sistemas expertosprobabilisticos
Sistemas expertosprobabilisticosSistemas expertosprobabilisticos
Sistemas expertosprobabilisticos
 
Inferencia bayesiana
Inferencia bayesianaInferencia bayesiana
Inferencia bayesiana
 
estad_uma_04.ppt
estad_uma_04.pptestad_uma_04.ppt
estad_uma_04.ppt
 
estadistica descriptiva
estadistica descriptivaestadistica descriptiva
estadistica descriptiva
 
Trabajo de probabilidad
Trabajo de probabilidadTrabajo de probabilidad
Trabajo de probabilidad
 
Teoria de la probabilida
Teoria de la probabilidaTeoria de la probabilida
Teoria de la probabilida
 
Estadistica
EstadisticaEstadistica
Estadistica
 
Estadistica
EstadisticaEstadistica
Estadistica
 

Más de Jorge Antonio Parra Serquen (12)

Procesamiento informacion
Procesamiento informacionProcesamiento informacion
Procesamiento informacion
 
Sis percep0
Sis percep0Sis percep0
Sis percep0
 
Image j advanced
Image j   advancedImage j   advanced
Image j advanced
 
Dialnet estudio delefectodelasmascarasdeconvolucionenimagen-4902816 (1)
Dialnet estudio delefectodelasmascarasdeconvolucionenimagen-4902816 (1)Dialnet estudio delefectodelasmascarasdeconvolucionenimagen-4902816 (1)
Dialnet estudio delefectodelasmascarasdeconvolucionenimagen-4902816 (1)
 
Dialnet preprocesamientodeimagenesaplicadasamamografiasdig-4829296
Dialnet preprocesamientodeimagenesaplicadasamamografiasdig-4829296Dialnet preprocesamientodeimagenesaplicadasamamografiasdig-4829296
Dialnet preprocesamientodeimagenesaplicadasamamografiasdig-4829296
 
Dialnet estudio delefectodelasmascarasdeconvolucionenimagen-4902816
Dialnet estudio delefectodelasmascarasdeconvolucionenimagen-4902816Dialnet estudio delefectodelasmascarasdeconvolucionenimagen-4902816
Dialnet estudio delefectodelasmascarasdeconvolucionenimagen-4902816
 
Tema4
Tema4Tema4
Tema4
 
A02v6n2
A02v6n2A02v6n2
A02v6n2
 
Segmentación por umbralización método de otsu
Segmentación por umbralización   método de otsuSegmentación por umbralización   método de otsu
Segmentación por umbralización método de otsu
 
Formato inventario 2011BBB
Formato inventario  2011BBBFormato inventario  2011BBB
Formato inventario 2011BBB
 
Servidor hpVVVV
Servidor hpVVVVServidor hpVVVV
Servidor hpVVVV
 
Linked data
Linked dataLinked data
Linked data
 

Último

COMPETENCIAS CIUDADANASadadadadadadada .pdf
COMPETENCIAS CIUDADANASadadadadadadada .pdfCOMPETENCIAS CIUDADANASadadadadadadada .pdf
COMPETENCIAS CIUDADANASadadadadadadada .pdfOscarBlas6
 
Institucion educativa la esperanza sede la magdalena
Institucion educativa la esperanza sede la magdalenaInstitucion educativa la esperanza sede la magdalena
Institucion educativa la esperanza sede la magdalenadanielaerazok
 
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsxactividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx241532171
 
Buscadores, SEM SEO: el desafío de ser visto en la web
Buscadores, SEM SEO: el desafío de ser visto en la webBuscadores, SEM SEO: el desafío de ser visto en la web
Buscadores, SEM SEO: el desafío de ser visto en la webDecaunlz
 
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptx
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptxrodriguez_DelAngel_MariaGPE_M1S3AL6.pptx
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptxssuser61dda7
 
institucion educativa la esperanza sede magdalena
institucion educativa la esperanza sede magdalenainstitucion educativa la esperanza sede magdalena
institucion educativa la esperanza sede magdalenajuniorcuellargomez
 
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptx
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptxPRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptx
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptxRodriguezLucero
 
2º SOY LECTOR PART 2- MD EDUCATIVO (6).pdf
2º SOY LECTOR PART 2- MD  EDUCATIVO (6).pdf2º SOY LECTOR PART 2- MD  EDUCATIVO (6).pdf
2º SOY LECTOR PART 2- MD EDUCATIVO (6).pdfFernandaHernandez312615
 
Historia de la Medicina y bases para desarrollo de ella
Historia de la Medicina y bases para desarrollo de ellaHistoria de la Medicina y bases para desarrollo de ella
Historia de la Medicina y bases para desarrollo de ellajuancamilo3111391
 
MODELO CARACTERIZACION DE PROCESOS SENA.
MODELO CARACTERIZACION DE PROCESOS SENA.MODELO CARACTERIZACION DE PROCESOS SENA.
MODELO CARACTERIZACION DE PROCESOS SENA.imejia2411
 
libro de Ciencias Sociales_6to grado.pdf
libro de Ciencias Sociales_6to grado.pdflibro de Ciencias Sociales_6to grado.pdf
libro de Ciencias Sociales_6to grado.pdfFAUSTODANILOCRUZCAST
 
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENA
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENAINSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENA
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENAdanielaerazok
 
NUVO PROGRAMAS DE ESCUELAS NUEVO-ACUERDO-CTE.pdf
NUVO PROGRAMAS DE ESCUELAS NUEVO-ACUERDO-CTE.pdfNUVO PROGRAMAS DE ESCUELAS NUEVO-ACUERDO-CTE.pdf
NUVO PROGRAMAS DE ESCUELAS NUEVO-ACUERDO-CTE.pdfisrael garcia
 

Último (13)

COMPETENCIAS CIUDADANASadadadadadadada .pdf
COMPETENCIAS CIUDADANASadadadadadadada .pdfCOMPETENCIAS CIUDADANASadadadadadadada .pdf
COMPETENCIAS CIUDADANASadadadadadadada .pdf
 
Institucion educativa la esperanza sede la magdalena
Institucion educativa la esperanza sede la magdalenaInstitucion educativa la esperanza sede la magdalena
Institucion educativa la esperanza sede la magdalena
 
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsxactividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx
 
Buscadores, SEM SEO: el desafío de ser visto en la web
Buscadores, SEM SEO: el desafío de ser visto en la webBuscadores, SEM SEO: el desafío de ser visto en la web
Buscadores, SEM SEO: el desafío de ser visto en la web
 
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptx
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptxrodriguez_DelAngel_MariaGPE_M1S3AL6.pptx
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptx
 
institucion educativa la esperanza sede magdalena
institucion educativa la esperanza sede magdalenainstitucion educativa la esperanza sede magdalena
institucion educativa la esperanza sede magdalena
 
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptx
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptxPRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptx
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptx
 
2º SOY LECTOR PART 2- MD EDUCATIVO (6).pdf
2º SOY LECTOR PART 2- MD  EDUCATIVO (6).pdf2º SOY LECTOR PART 2- MD  EDUCATIVO (6).pdf
2º SOY LECTOR PART 2- MD EDUCATIVO (6).pdf
 
Historia de la Medicina y bases para desarrollo de ella
Historia de la Medicina y bases para desarrollo de ellaHistoria de la Medicina y bases para desarrollo de ella
Historia de la Medicina y bases para desarrollo de ella
 
MODELO CARACTERIZACION DE PROCESOS SENA.
MODELO CARACTERIZACION DE PROCESOS SENA.MODELO CARACTERIZACION DE PROCESOS SENA.
MODELO CARACTERIZACION DE PROCESOS SENA.
 
libro de Ciencias Sociales_6to grado.pdf
libro de Ciencias Sociales_6to grado.pdflibro de Ciencias Sociales_6to grado.pdf
libro de Ciencias Sociales_6to grado.pdf
 
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENA
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENAINSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENA
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENA
 
NUVO PROGRAMAS DE ESCUELAS NUEVO-ACUERDO-CTE.pdf
NUVO PROGRAMAS DE ESCUELAS NUEVO-ACUERDO-CTE.pdfNUVO PROGRAMAS DE ESCUELAS NUEVO-ACUERDO-CTE.pdf
NUVO PROGRAMAS DE ESCUELAS NUEVO-ACUERDO-CTE.pdf
 

Redesia2

  • 1. Una Introducción a las Redes Bayesianas Serafín Moral Departamento de Ciencias de la Computación Universidad de Granada Una Introducción a las Redes Bayesianas– p.1/??
  • 2. Redes Bayesianas Sistemas Expertos Probabilísticos Representar conocimiento con incertidumbre. Después se puede manipular para razonamiento y toma de decisiones. Se pueden tratar muchas variables. Las reglas (probabilidades) se pueden estimar a partir de datos. Los modelos tienen una interpretación clara y bien definida. Actualmente están teniendo un gran desarrollo. Una Introducción a las Redes Bayesianas– p.2/??
  • 3. Indicios de importancia En 1999 J. Pearl uno de los pioneros en Inteligencia Artificial recibió el IJCAI Award for Research Excellence (El séptimo de estos premios bianuales). Esta es la distinción más importante en Inteligencia Artificial. Evolución de publicaciones en JCR (base de datos de publicaciones) bajo la búsqueda Bayesian Networks: 1990-1999: 118 publicaciones 2000-2006: 587 publicacione Algunos artículos altamente citados en scholar.google.com: Aprendizaje de Hecherman y col. (1995): 1249 citas Clasificación supervisada de Friedman y col. (1997): 880 cirtas Análisis de datos de expresión genética de Friedman y col. (2000): 906 citas Filtrado de clientes de Breese y col. (1998) 1129 citas Libro de Judea Pearl: 8027 citas Una Introducción a las Redes Bayesianas– p.3/??
  • 4. Referencias E. Castillo, J.M. Gutiérrez, A.S. Hadi (1996) Sistemas Expertos y Modelos de Redes Probabilísticas. Monografías de la Academia de Ingeniería. Academia de Ingeniería, Madrid. R.G. Cowell, A.P. Dawid, S.L. Lauritzen, D.J. Spiegelhalter (1999) Probabilistic Networks and Expert Systems. Springer-Verlag, Nueva York. F.V. Jensen (1996) An Introduction to Bayesian Networks. UCL Press, Londres. F.V. Jensen (2001) Bayesian Networks and Decision Graphs. Springer-Verlag, Nueva York. F.V. Jensen, T.D. Nielsen (2007) Bayesian Networks and Decision Graphs (2nd Edition). Springer-Verlag, Nueva York. U. Kjaerulff, A.L. Madsen (2007) Bayesian Networks and Influence Diagrams: A Guide to Construction and Analysis. Springer-Verlag. J. Pearl (1988) Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference. Morgan Kaufmann, San Mateo, CA.Una Introducción a las Redes Bayesianas– p.4/??
  • 5. Contenido Problemas para manejar conocimiento incierto Teoría de la Probabilidad Independencia Redes Bayesianas, D-separación Construcción de redes Bayesianas Algoritmo de borrado o de eliminación de variables El programa Elvira Otros temas: configuración de máxima probabilidad, diagramas de influencia, aprendizaje Una Introducción a las Redes Bayesianas– p.5/??
  • 6. Sistemas Basados en Reglas SI es un animal con pelo ENTONCES es un mamífero Incertidumbre: SI tiene fiebre y dolor de cabeza, entonces tiene gripe (certeza 0.7) MYCIN fue diseñado para determinar tratamientos en infecciones de la sangre con 300 reglas. Si una conclusión se obtiene por varias vías, los valores de certeza se combinan. Las certezas no eran probabilidades: éstas imponen unas reglas de cálculo muy estrictas. Su correcto funcionamiento se basa en un cuidadoso diseño de las reglas en función del uso que se hace de ellas. Una Introducción a las Redes Bayesianas– p.6/??
  • 7. Problemas La validez de una regla depende del contexto. Si conozco el nivel de estudios de una persona, obtengo información sobre su nivel de ingresos. Esta información puede ser equivocada y ponerse de manifiesto si conozco el puesto de trabajo concreto que esta persona desarrolla Si al salir de casa vemos el césped mojado podemos sospechar que ha llovido. Si descubrimos que nos hemos dejado la manguera abierta, dejamos de sospechar que ha llovido. Una Introducción a las Redes Bayesianas– p.7/??
  • 8. Problemas La validez de una regla depende del contexto. Si conozco el nivel de estudios de una persona, obtengo información sobre su nivel de ingresos. Esta información puede ser equivocada y ponerse de manifiesto si conozco el puesto de trabajo concreto que esta persona desarrolla Si al salir de casa vemos el césped mojado podemos sospechar que ha llovido. Si descubrimos que nos hemos dejado la manguera abierta, dejamos de sospechar que ha llovido. Las reglas con incertidumbre deberían de poder usarse en ambas direcciones. Si hay fuego debe de haber humo Si vemos humo sospechamos la existencia de fuego Una Introducción a las Redes Bayesianas– p.7/??
  • 9. Problemas La validez de una regla depende del contexto. Si conozco el nivel de estudios de una persona, obtengo información sobre su nivel de ingresos. Esta información puede ser equivocada y ponerse de manifiesto si conozco el puesto de trabajo concreto que esta persona desarrolla Si al salir de casa vemos el césped mojado podemos sospechar que ha llovido. Si descubrimos que nos hemos dejado la manguera abierta, dejamos de sospechar que ha llovido. Las reglas con incertidumbre deberían de poder usarse en ambas direcciones. Si hay fuego debe de haber humo Si vemos humo sospechamos la existencia de fuego Correlación entre las informaciones. Si una misma información se repite muchas veces no debe de aumentar nuestra certidumbre.Una Introducción a las Redes Bayesianas– p.7/??
  • 10. Probabilidad La probabilidad como medida de certeza, no presenta ninguno de estos problemas. Puedo tener P(Gripe|Fiebre) =0.9,P(Gripe|Fiebre,Otitis) =0.1. Presenta otro: necesito una distribución de probabilidad conjunta. Si tengo 30 variables, X1,...,Xn y cada una de ellas, Xi, toma dos posibles valores {ai,ai}, entonces necesitamos partir de las probabilidades de todas las combinaciones (x1,x2,...,xn), xi ∈ {ai,ai} Si n = 30, necesitamos 230 valores, pero inicialmente solemos disponer de unas cuantas probabilidades condicionadas. Una Introducción a las Redes Bayesianas– p.8/??
  • 11. Probabilidad Sólo vamos a considerar la probabilidad sobre conjuntos finitos. Vamos a suponer un conjunto U finito de sucesos elementales y una familia de conjuntos o sucesos B (si U es finito esta familia suele ser el conjunto de las partes de U). Una medida de probabilidad sobre (U,B) es una aplicación P : B → [0,1], que verifica: P(U) = 1 Si A y C son disjuntos P(A∪C) = P(A)+P(C) Una Introducción a las Redes Bayesianas– p.9/??
  • 12. Probabilidad Condicional P(A|B) = P(A∩B) P(B) , P(B) = 0 Aunque tiene sentido hablar de probabilidad condicionada a sucesos de probabilidad 0, y en ese caso se debe de verificar: P(A∩B) = P(A|B).P(B) La probabilidad P(A|B) es la probabilidad de A cuando conocemos que B y sólo B es cierto. Una Introducción a las Redes Bayesianas– p.10/??
  • 13. El Teorema de la Probabilidad Total Si un paciente tiene la enfermedad E, entonces un test T resulta positivo con probabilidad 0.95. Si la enfermedad no está presente el test es positivo con probabilidad 0.03. Si la probabilidad de sufrir la enfermedad es 0.01, ¿Cual es la probabilidad de que un paciente cualquiera presente un test positivo? Queremos la probabilidad de T+, pero sólo conocemos la probabilidad de T+ condicionado a la enferemedad y a que no se tenga la enfermedad, y además conocemos las probabilidades de tener y no tener las enfermedad. Si {Hi}i∈I es una colección finita de sucesos disjuntos dos a dos y cuya unión es el suceso seguro (U). P(B) = ∑i∈I P(B|Hi)P(Hi) Una Introducción a las Redes Bayesianas– p.11/??
  • 14. El Teorema de la Probabilidad Total Si {Hi}i∈I es una colección finita de sucesos disjuntos dos a dos y cuya unión es el suceso seguro (U). P(B) = ∑i∈I P(B|Hi)P(Hi) Demostración: P(B) = P(B∩U) = P(B∩( i∈I Hi)) = P( i∈I(B∩Hi)) = ∑i∈I P(B∩Hi) = ∑i∈I P(B|Hi)P(Hi) P(T+) = P(T +|E).P(E)+P(T +|¬E).P(¬E) = 0.95×0.01+0.03×0.99 = 0.0392 Una Introducción a las Redes Bayesianas– p.12/??
  • 15. El Teorema de Bayes Si un paciente tiene la enfermedad E, entonces un test T resulta positivo con probabilidad 0.95. Si la enfermedad no está presente el test es positivo con probabilidad 0.03. Si la probabilidad de sufrir la enfermedad es 0.01, ¿Cual es la probabilidad de que un paciente con un test positivo sufra la enfermedad? Conocemos P(T +|E) y las probabilidades P(T +|¬E),P(E) y queremos la probabilidad P(E|T+). Es como invertir la probabilidad condicionada. Si {Hi}i∈I es una colección de sucesos disjuntos dos a dos y cuya unión es el suceso seguro (U). P(Hj|B) = P(Hj∩B) P(B) = P(B|Hj).P(Hj) P(B) = P(B|Hj).P(Hj) ∑i∈I P(B|Hi)P(Hi) Una Introducción a las Redes Bayesianas– p.13/??
  • 16. El Teorema de Bayes Si un paciente tiene la enfermedad E, entonces un test T resulta positivo con probabilidad 0.95. Si la enfermedad no está presente el test es positivo con probabilidad 0.03. Si la probabilidad de sufrir la enfermedad es 0.01, ¿Cual es la probabilidad de que un paciente con un test positivo sufra la enfermedad? Si {Hi}i∈I es una colección de sucesos disjuntos dos a dos y cuya unión es el suceso seguro (U). P(Hj|B) = P(B|Hj).P(Hj) ∑i∈I P(B|Hi)P(Hi) En el caso del ejemplo, P(E|T+) = P(T+|E).P(E) P(T+|E).P(E)+P(T+|¬E).P(¬E) = 0.95×0.01 0.95×0.01+0.03×0.99 = 0.0095/0.0392 = 0.2423 Una Introducción a las Redes Bayesianas– p.14/??
  • 17. Variables Inciertas Una variable es una magnitud medible en un determinado problema. Es incierta cuando su resultado no puede ser determinado con exactitud. Vamos a hablar en términos de variables inciertas. Las variables aleatorias las representaremos por X,Y,Z,... Temperatura con valores en {≤ 36,36.5,37,37.5,38,38.5,39,39.5,≥ 40} Hepatitis con valores en {Presente,Ausente} N. de Hijos con valores en {0,1,2,3,> 3} Un valor genérico de la variable X se representará por x Un conjunto de variables se representará por X Un valor genérico de X se representará por x Una Introducción a las Redes Bayesianas– p.15/??
  • 18. Variables Discretas y Continuas Una variable es discreta si el conjunto de valores posibles es finito (Presencia de una enfermedad, Número de asignaturas matriculadas, Sexo, Estudios realizados) Una variable es continua si toma valores en un intervalo de los números reales (Altura, Peso, Luminosidad ). Nosotros vamos a considerar variables discretas Si hay continuas las discretizamos dividiéndolas en un conjunto finito de intervalos Una Introducción a las Redes Bayesianas– p.16/??
  • 19. Distribuciones de probabilidad Una distribución de probabilidad p sobre X es la función que asigna a cada valor x, la probabilidad con que X toma dicho valor. Se notará como p(x). Ejemplo: Variable N. de hijos con valores {0,1,2,3,> 3} y la distribución de probabilidad: p 0 1 2 3 >3 0.1 0.3 0.4 0.15 0.05 Sus valores deben de sumar 1. 0.1 0.2 0.3 0.4 0 1 2 3 >3 Una Introducción a las Redes Bayesianas– p.17/??
  • 20. Distribuciones Conjuntas Si tenemos un conjunto de variables X una distribución de probabilidad conjunta asocia a cada posible valor de estas x, su probabilidad p(x). Ejemplo: Tenemos las variables X(Color de los ojos) e Y (Color del pelo), una distribución conjunta sobre estas variables puede ser Y Moreno Rubio X Marrones 0.5 0.15 Azules 0.05 0.3 También podemos tener distribuciones que dependan de más de dos variables, p.e. p(x,y,z). Una Introducción a las Redes Bayesianas– p.18/??
  • 21. Distribuciones Condicionadas Si tenemos dos variables, X,Y, la distribución de probabilidad de Y dado X, es una función de los conjuntos dónde Y y X toman sus valores en [0,1], dada por p(y|x) = P(Y = y|X = x) Es evidente que ∀x, ∑y p(y|x) = 1 Caso de los test y de las enfermedades p(t|e) t+ t− e 0.95 0.05 ¬e 0.03 0.97 Una Introducción a las Redes Bayesianas– p.19/??
  • 22. Distribuciones Condicionadas Si condicionamos a varias variables, tenemos que dar el valor de probabilidad de la variable para cada combinación de valores de las variables condicionadas. Ejemplo: Sean X Cáncer de Pulmón, Y Fumador y Z Sexo. Supongamos que tenemos que una probabilidad condicionada de X dadas las variables Y y Z, tenemos que dar una tabla de valores como la siguiente: Y= Si Y = Si Y = No Y = No Z= Hombre Z= Mujer Z = Hombre Z = Mujer X=Si 0.5 0.4 0.2 0.1 X=No 0.5 0.6 0.8 0.9 Una Introducción a las Redes Bayesianas– p.20/??
  • 23. Muchas Variables ¿Qué pasa si el número de variables es elevado? Supongamos que en el problema de la enfermedad que se detecta con un test, en vez de un sólo test tenemos 10 (T1,...,T10). Ahora para especificar el problema y después poder aplicar el teorema de Bayes, deberemos indicar todos los valores p(t1,...,t10|e), ∀ti ∈ {+,−},e ∈ {pres,aus} Esto constituye un número importante de valores y crece exponencialmente en función del número de tests. Una Introducción a las Redes Bayesianas– p.21/??
  • 24. Independencia Condicional Una hipótesis que permite simplificar el problema: Los tests son condicionalmente independientes dada la enfermedad. Entonces, podemos expresar p(t1,...,t10|e) = 10 ∏ i=1 p(ti|e) La independencia será definida formalmente más adelante, pero se puede interpretar como que los tests tienen distintos mecanismos de medición, se fijan en distintos factores, no se equivocan siempre en los mismos casos. Una Introducción a las Redes Bayesianas– p.22/??
  • 25. Bayes Naïve En problemas de clasificación de una variable Y en función de otras variables X1,...,Xn la hipótesis de independencia condicional da lugar al método Naïve Bayes. Fue usado por primera vez en 1.961 y es extremadamente competitivo aún en casos en los que la hipótesis no sea aplicable. La razón: Los modelos son más sencillos y se pueden estimar mejor. Una Introducción a las Redes Bayesianas– p.23/??
  • 26. Potenciales Si X es un conjunto de variables y ΩX es el conjunto de todos los valores posibles de X, un potencial sobre X es una aplicación f: f : ΩX → R donde R representa el conjunto de los números reales. Un potencial asigna un valor numérico a cada combinación posible de valores de las variables en X. Una distribución de probabilidad conjunta o una distribución condicionada son ejemplos de potenciales. Un potencial se puede representar en un programa como una tabla con tantos índices como variables y donde cada índice puede tomar tantos valores como casos posibles tiene la variable correspondiente. Una Introducción a las Redes Bayesianas– p.24/??
  • 27. Operaciones Básicas con Potenciales Marginalización.- Si tenemos un potencial f definido sobre las variables (X,Y) la marginalización de f sobre Una Introducción a las Redes Bayesianas– p.25/??
  • 28. Marginalización Si tenemos un conjunto de variables Y = (X,Z), entonces la marginalización permite obtener la distribución de probabilidad sobre X (distribución marginal) a partir de la de Y. Si p(x,z) es una distribución sobre (X,Z) entonces su marginalización sobre X es la distribución que se obtiene de la forma: p(x) = ∑ z p(x,z) La marginalización sobre X se llama también borrado de las variables en Z. Por ejemplo, si tengo una distribución p(x,y,z) sobre (X,Y,Z) , la marginalización sobre (X,Y) se obtiene como p(x,y) = ∑z p(x,y,z) Una Introducción a las Redes Bayesianas– p.26/??
  • 29. Marginalización Si tenemos un conjunto de variables Y = (X,Z), entonces la marginalización permite obtener la distribución de probabilidad sobre X (distribución marginal) a partir de la de Y. Si p(x,z) es una distribución sobre (X,Z) entonces su marginalización sobre X es la distribución que se obtiene de la forma: p(x) = ∑ z p(x,z) La marginalización sobre X se llama también borrado de las variables en Z. Por ejemplo, si tengo una distribución p(x,y,z) sobre (X,Y,Z) , la marginalización sobre (X,Y) se obtiene como p(x,y) = ∑z p(x,y,z) Una Introducción a las Redes Bayesianas– p.27/??
  • 30. Ejemplo Sean X Cáncer de Pulmón, Y Fumador y Z Sexo. Supongamos que tenemos la siguiente distribución de probabilidad conjunta Y= Si Y = Si Y = No Y = No Z= Hombre Z= Mujer Z = Hombre Z = Mujer X=Si 0.14 0.168 0.024 0.018 X=No 0.14 0.252 0.096 0.162 Una Introducción a las Redes Bayesianas– p.28/??
  • 31. Ejemplo Sean X Cáncer de Pulmón, Y Fumador y Z Sexo. Supongamos que tenemos la siguiente distribución de probabilidad conjunta Y= Si Y = Si Y = No Y = No Z= Hombre Z= Mujer Z = Hombre Z = Mujer X=Si 0.14 0.168 0.024 0.018 X=No 0.14 0.252 0.096 0.162 La marginalización sobre (Y,Z) viene dada por la distribución de probabilidad: Y= Si Y = Si Y = No Y = No Z= Hombre Z= Mujer Z = Hombre Z = Mujer 0.28 0.42 0.12 0.18 Una Introducción a las Redes Bayesianas– p.28/??
  • 32. Ejemplo La distribución sobre (Y,Z) la podemos marginalizar sobre cualquiera de sus variables. Y= Si Y = Si Y = No Y = No Z= Hombre Z= Mujer Z = Hombre Z = Mujer 0.28 0.42 0.12 0.18 Sobre Y obtenemos Y = Si Y = No 0.7 0.3 Sobre Z obtenemos Z = Hombre Z = Mujer 0.4 0.6 El resultado de borrar dos variables consecutivas es el mismo que si dichas variables se borran en un solo paso. Una Introducción a las Redes Bayesianas– p.29/??
  • 33. Independencia Las variables X e Y son independientes si y solo si la distribución de probabilidad verifica pX,Y (x,y) = pX(x).pY (y), ∀x,y donde pX, pY son las distribuciones de probabilidad marginales sobre las variables X e Y respectivamente. Una definición alternativa: p(y|x) = p(y), ∀x,y o, equivalentemente, p(x|y) = p(x), ∀x,y Una Introducción a las Redes Bayesianas– p.30/??
  • 34. Ejemplo Sean dos urnas con 10 bolas: una con 3 rojas y 7 blancas y otra con 8 rojas y 2 blancas. Se eligen dos bolas aleatoriamente, una de cada urna, sin ninguna relación entre las extracciones. Tabla de Probabilidades: R1 B1 R2 0.24 0.56 0.80 B2 0.06 0.14 0.20 0.30 0.70 1.00 Una Introducción a las Redes Bayesianas– p.31/??
  • 35. Independencia Condicional Dadas las variables X, Y y Z decimos que X e Y son condicionalmente independientes Z si y solo si PX,Y,Z(x,y,z) = (PX,Z(x,z).PY,Z(y,z))/PZ(z), ∀x,y,z con PZ(z) > 0 donde pX,Z, pY,Z, pZ son las distribuciones de probabilidad marginales sobre las variables (X,Z), (Y,Z) y Z, respectivamente. Análogamente se define para conjuntos de variables Una Introducción a las Redes Bayesianas– p.32/??
  • 36. Definiciones alternativas PY|X,Z(y|x,z) = PY|Z(y|z), ∀x,y,z PX|Y,Z(x|y,z) = PX|Z(x|z), ∀x,y,z PX,Y|Z(x,y|z) = PX|Z(x|z).PY|Z(y|z), ∀x,y,z PX,Y,Z(x,y,z) = f1(x,z). f2(y,z), ∀x,y,z Una Introducción a las Redes Bayesianas– p.33/??
  • 37. Ejemplo Supongamos dos urnas con bolas blancas (b) y rojas ( r). La primera tiene 99 rojas y 1 blanca; la segunda tiene 1 roja y 99 blancas. Supongamos el siguiente experimento: elegimos aleatoriamente una urna, las dos con la misma probabilidad (0.5). Sea Z el resultado de la selección: con valores u1 (primera urna), u2 (segunda). Entonces elegimos dos bolas con reemplazamiento de la urna elegida. Sean los colores de las bolas X e Y. X e Y no son independientes: el color de una bola nos informa sobre el color de la otra. Una Introducción a las Redes Bayesianas– p.34/??
  • 38. Ejemplo Z: u1 (99 rojas y 1 blanca), u2 (1 roja y 99 blancas) X, Y colores de las bolas. La probabilidad de que X = b es p(u1).pX (b|u1)+ p(u2).pX (b|u2) = 0.5×0.01+0,5×0.99 = 0.5 Análogamente, la probabilidad de que Y = b es 0.5. Sin embargo, la probabilidad de que X = b,Y = b es p(u1).pX (b|u1)pY (b|u1)+ p(u2).pX (b|u2).pY (b|u2) = 0.5×0.01×0.01+0.5×0.99×0.99 = 0.4901 Por tanto, PX,Y (b,b) = PX(b).PY (b) Una Introducción a las Redes Bayesianas– p.35/??
  • 39. Ejemplo Z: u1 (99 rojas y 1 blanca), u2 (1 roja y 99 blancas) X, Y colores de las bolas. La probabilidad de que X = b es p(u1).pX (b|u1)+ p(u2).pX (b|u2) = 0.5×0.01+0,5×0.99 = 0.5 Análogamente, la probabilidad de que Y = b es 0.5. Sin embargo, la probabilidad de que X = b,Y = b es p(u1).pX (b|u1)pY (b|u1)+ p(u2).pX (b|u2).pY (b|u2) = 0.5×0.01×0.01+0.5×0.99×0.99 = 0.4901 Por tanto, PX,Y (b,b) = PX(b).PY (b) Sin embargo, X e Y son independientes dada Z, ya que las extracciones se hacen con reemplazamiento de la misma urna. Por ejemplo, pX,Y (b,r|u1) = pX (b|u1).pY (r|u1) = 0.01×0.99 = 0.0099 Una Introducción a las Redes Bayesianas– p.35/??
  • 40. Dificultades de la independencia Si tenemos una conjunto de variable, tendríamos que considerar todas las relaciones de independencia I(X,Y|Z) Variables Independ. Variables Observadas Esta relación se lee X es independiente de Y dadas (o conocidas) Z Dado un conjunto de n variables, estas son n·(n−1)·2n−2. Una Introducción a las Redes Bayesianas– p.36/??
  • 41. Cambios en las Observaciones Consideremos las variables: A Alarma R Robo S Seismo La Alarma puede sonar por un Robo o un Seismo. Tenemos que R y S son independientes sin saber nada (I(R,S|/0)). Sin embargo, si conocemos que sonó la alarma, estas variables se vuelven dependientes (¬I(R,S|A)) Al conocer más pasamos de independencia a dependencia. Una Introducción a las Redes Bayesianas– p.37/??
  • 42. Cambios en las Observaciones M1 Transm. 1 M2 Transm. 2 M3 Se manda un mensaje (M1) por un transmisor. El mensaje que se recibe (M2) se envía por un segundo transmisor. M3 es el mensaje que se recible al final. Los transmisores tienen ruido y pueden modificar los mensajes Tenemos que M1 y M3 son dependientes sin conocer nada (¬I(M1,M3|/0)). Sin embargo, conocido (M2) los mensajes M1 y M3 son independientes (I(M1,M3|M2)) En este ejemplo, conocer más pasamos de dependencia a inde- pendencia. Una Introducción a las Redes Bayesianas– p.38/??
  • 43. Redes Bayesianas Una red bayesiana consta de dos partes: Una cualitativa: un grafo dirigido acíclico Un nodo por cada variable del problema Un conjunto de enlaces dirigidos sin crear ciclos dirigidos SI NO Una cuantitativa: una serie de probabilidades condicionadas que determinan una única distribución de probabilidad conjunta. Una Introducción a las Redes Bayesianas– p.39/??
  • 44. Redes Bayesianas. Nodo X X Nodo referencia Padres Ascendientes Hijos Descendientes Otros Una Introducción a las Redes Bayesianas– p.40/??
  • 45. Representación de Independencias Una red bayesiana representa un conjunto de independencias. De ellas podemos distinguir: Independencias Básicas.- Son aquellas que hay que tener cuidado que se verifiquen cuando se construye la red. Independencias Totales.- Son todas las que se deducen de las básicas aplicando las propiedades de las relaciones de independencia. Se puede comprobar mediante el llamado criterio de D-separación. Una Introducción a las Redes Bayesianas– p.41/??
  • 46. Independencias Básicas X Nodo referencia Padres No descendientes Descendientes Cada nodo es independiente de sus no-descendientes da- dos sus padres. Una Introducción a las Redes Bayesianas– p.42/??
  • 48. Otras independencias: D-separación X es independiente de Y dado Z1,...,Zk si todo camino (usando los arcos en ambas direcciones) entre X e Y está bloqueado en algún nodo por las observaciones Z1,...,Zk. Un camino entre X e Y está bloqueado en un nodo Z por un conjunto de observaciones Z1,...,Zk cuando se da una de las siguientes condiciones: El camino pasa por el nodo Z con flechas no cabeza-cabeza y el nodo está observado. El camino pasa por el nodo Z con flechas cabeza-cabeza y ni el nodo ni ninguno de sus descendientes está observado. Una Introducción a las Redes Bayesianas– p.44/??
  • 49. Dos formas de bloqueo Dos formas básicas de bloqueo en un nodo: X Y No Cabeza-Cabeza Nodos estudiados Nodos observados Nodos no observados Nodo que bloquea (observado o no) X Y Cabeza-Cabeza Nodo y descendientes no observados × × × Una Introducción a las Redes Bayesianas– p.45/??
  • 51. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables Una Introducción a las Redes Bayesianas– p.47/??
  • 52. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables × × Primer Camino Bloqueado Una Introducción a las Redes Bayesianas– p.47/??
  • 53. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables × × × Segundo Camino Bloqueado Una Introducción a las Redes Bayesianas– p.47/??
  • 54. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables × ×× Tercer Camino Bloqueado Una Introducción a las Redes Bayesianas– p.47/??
  • 55. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables × × × Cuarto Camino Bloqueado Una Introducción a las Redes Bayesianas– p.47/??
  • 56. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables Variables Independientes (sin obs.) Una Introducción a las Redes Bayesianas– p.47/??
  • 57. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables Una Introducción a las Redes Bayesianas– p.48/??
  • 58. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables Primer Camino NO Bloqueado Una Introducción a las Redes Bayesianas– p.48/??
  • 59. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables Variables Dependientes (rojas obs.) Una Introducción a las Redes Bayesianas– p.48/??
  • 60. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables Una Introducción a las Redes Bayesianas– p.49/??
  • 61. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables × Primer Camino Bloqueado Una Introducción a las Redes Bayesianas– p.49/??
  • 62. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables × Segundo Camino Bloqueado Una Introducción a las Redes Bayesianas– p.49/??
  • 63. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables × × Tercer Camino Bloqueado Una Introducción a las Redes Bayesianas– p.49/??
  • 64. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables × × Cuarto Camino Bloqueado Una Introducción a las Redes Bayesianas– p.49/??
  • 65. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables Variables Independientes (rojas obs.) Una Introducción a las Redes Bayesianas– p.49/??
  • 66. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables Una Introducción a las Redes Bayesianas– p.50/??
  • 67. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables Primer Camino NO Bloqueado Una Introducción a las Redes Bayesianas– p.50/??
  • 68. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables Variables Dependientes (rojas obs.) Una Introducción a las Redes Bayesianas– p.50/??
  • 69. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables Una Introducción a las Redes Bayesianas– p.51/??
  • 70. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables × Primer Camino Bloqueado Una Introducción a las Redes Bayesianas– p.51/??
  • 71. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables Segundo Camino NO Bloqueado Una Introducción a las Redes Bayesianas– p.51/??
  • 72. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables Variables Dependientes (rojas obs.) Una Introducción a las Redes Bayesianas– p.51/??
  • 73. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables Una Introducción a las Redes Bayesianas– p.52/??
  • 74. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables × Primer Camino Bloqueado Una Introducción a las Redes Bayesianas– p.52/??
  • 75. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables × Segundo Camino Bloqueado Una Introducción a las Redes Bayesianas– p.52/??
  • 76. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables × × Tercer Camino Bloqueado Una Introducción a las Redes Bayesianas– p.52/??
  • 77. Ejemplos de Independencia Nodo Observado Variables examinadas Resto Variables Variables Independientes (rojas obs.) Una Introducción a las Redes Bayesianas– p.52/??
  • 78. La Red Asia Asia Tuberculosis Tuberc. ó Cánc. Pulmón Rayos X Fumador Cáncer Pulmón Bronquitis AsmaTos Una Introducción a las Redes Bayesianas– p.53/??
  • 79. Ejemplos 3 Variables Edad Ingresos Restaurante Edad Ingresos Coche Edad Sexo Ingresos Una Introducción a las Redes Bayesianas– p.54/??
  • 80. Ejemplo con tres variables Edad Conocimientos Sexo Edad Sexo Color ojos Ingresos Edad Conocimiento Una Introducción a las Redes Bayesianas– p.55/??
  • 81. Independencias y Causalidad Edad Ingresos Coche Ingresos Edad Conocimiento En ambos casos las variables superior e inferior son condicionalmente independientes dada la variable central, pero la estructura causal es distinta. Una Introducción a las Redes Bayesianas– p.56/??
  • 82. Representación de Independencias Hay problemas con independencias que no pueden representarse de forma exacta mediante redes Bayesinas. Ejemplo: Tenemos dos interruptores con dos posiciones cada uno (0 y 1). Sean X e Y las posiciones de estos interruptores. Tenemos una luz que está encendida si los dos interruptores están en la misma posición y apagada si están en posición distinta. Sea Z el estado de la luz. Supongamos que los interruptores son independientes y que tienen la misma probabilidad (0.5) de estar en cualquiera de los dos estados. Tenemos que: Se verifica I(X,Y|/0),I(X,Z|/0),I(Y,Z|/0). Pero las independencias condicionadas no se verifican: ¬I(X,Y|Z),¬I(X,Z|Y),¬I(Y,Z|X). Una Introducción a las Redes Bayesianas– p.57/??
  • 83. Representación Esto se puede representar mediante la red X Y Z El problema es que representamos I(X,Y|/0) , pero no I(X,Z|/0),I(Y,Z|/0). Si quitamos cualquiera de los enlaces, ya estamos representando alguna de las independencias condicionadas que no se verificaban. Una Introducción a las Redes Bayesianas– p.58/??
  • 84. Mapas de Independencias Minimales Un mapa de independencias minimal para un problema es un grafo dirigido acíclico tal que todas las independencias del grafo están en el problema, pero que si al grafo le quitamos alguna arista, entonces aparecen independencias que no están en el problema. En general, nuestro objetivo ante un problema es construir un mapa de independencias minimal. Si es posible, debería de representar todas las independencias del problema. Una Introducción a las Redes Bayesianas– p.59/??
  • 85. Construcción de mapas de independencias Supongamos que X es el conjunto de variables de partida. Sea Y1,Y2,...,Yn un orden cualquiera de estas variables (no deben de invertirse relaciones causales conocidas: Si A es causa de B, entonces A debe de preceder a B) El mapa de indepencias minimal, se construye comenzando por el grafo vacío e introduciendo las variables en el orden dado. Una Introducción a las Redes Bayesianas– p.60/??
  • 86. Construcción de mapas de independencias Si vamos a introducir Yj y Aj = {Y1,...,Yj−1}, entonces se determina un conjunto minimal de variables Bj (las variables de las que Yj tiene una dependencia directa) que es un conjunto minimal tal que I(Yj,Aj −Bj|Bj) El grafo se construye haciendo que los padres de Yj sean los nodos de Bj. Una Introducción a las Redes Bayesianas– p.61/??
  • 87. Construcción de mapas de independencias Si vamos a introducir Yj y Aj = {Y1,...,Yj−1}, entonces se determina un conjunto minimal de variables Bj (las variables de las que Yj tiene una dependencia directa) que es un conjunto minimal tal que I(Yj,Aj −Bj|Bj) El grafo se construye haciendo que los padres de Yj sean los nodos de Bj. A B C D E Una Introducción a las Redes Bayesianas– p.61/??
  • 88. Construcción de mapas de independencias Si vamos a introducir Yj y Aj = {Y1,...,Yj−1}, entonces se determina un conjunto minimal de variables Bj (las variables de las que Yj tiene una dependencia directa) que es un conjunto minimal tal que I(Yj,Aj −Bj|Bj) El grafo se construye haciendo que los padres de Yj sean los nodos de Bj. A B C D E F Una Introducción a las Redes Bayesianas– p.61/??
  • 89. Construcción de mapas de independencias Si vamos a introducir Yj y Aj = {Y1,...,Yj−1}, entonces se determina un conjunto minimal de variables Bj (las variables de las que Yj tiene una dependencia directa) que es un conjunto minimal tal que I(Yj,Aj −Bj|Bj) El grafo se construye haciendo que los padres de Yj sean los nodos de Bj. A B C D E F B D E I(F,{A,C}|B,D,E) {B,D,E} minimal Una Introducción a las Redes Bayesianas– p.61/??
  • 90. Construcción de mapas de independencias Si vamos a introducir Yj y Aj = {Y1,...,Yj−1}, entonces se determina un conjunto minimal de variables Bj (las variables de las que Yj tiene una dependencia directa) que es un conjunto minimal tal que I(Yj,Aj −Bj|Bj) El grafo se construye haciendo que los padres de Yj sean los nodos de Bj. A B C D E F B D E I(F,{A,C}|B,D,E) {B,D,E} minimal Una Introducción a las Redes Bayesianas– p.61/??
  • 91. Construcción de mapas de independencias Si vamos a introducir Yj y Aj = {Y1,...,Yj−1}, entonces se determina un conjunto minimal de variables Bj (las variables de las que Yj tiene una dependencia directa) que es un conjunto minimal tal que I(Yj,Aj −Bj|Bj) El grafo se construye haciendo que los padres de Yj sean los nodos de Bj. A B C D E F B D E I(F,{A,C}|B,D,E) {B,D,E} minimal El Problema: Determinar un orden entre las variables. Una Introducción a las Redes Bayesianas– p.61/??
  • 92. Septiembre 2002 Tenemos un canal de información con dos transmisores. La entrada a los dos es la misma: variable E con valores 0 ó 1. Las salidas de los transmisores (S1 y S2) serán el mismo valor de entrada si funcionan correctamente o, en el caso de que no funcionen la salida será aleatoria ( 0 ó 1 con probabilidad 1/2 cada uno). Las variables C1 y C2 representan el comportamiento de estos dos transmisores, respectivamente (con valor 0 si es aleatorio y 1 si es correcto). El comportamiento de los dos transmisores depende del estado de la fuente de alimentación (F). Esta puede estar en dos situaciones: calidad alta (1) y calidad baja (0). En el caso de calidad baja, hay una mayor probabilidad de comportamiento incorrecto en ambos casos. No hay ninguna otra influencia común sobre las variables C1 y C2. Existe un dispositivo que mira las salidas de ambos transmisores y produce un valor Sf . Cuando S1 = S2, entonces Sf coincide con ambos valores. Cuando S1 = S2, entonces Sf toma el valor e. Finalmente, existe una variable (T) que comprueba el funcionamiento del sistema. Si Sf = E, entonces T = 1 (funcionó correctamente). Si Sf = e, entoces T = 2 (error detectado). Si Sf = e y Sj = E, entonces T = 0 (error no detectado). Una Introducción a las Redes Bayesianas– p.62/??
  • 93. Septiembre 2002: Preguntas 1. Determinar una red bayesiana que sea compatible con las relaciones entre las variables del sistema- 2. Escribir una tabla de probabilidad para S1 dados sus padres que sea compatible con los datos anteriores. 3. Para los siguientes pares de variables determinar un conjunto lo más pequeño posible, tal que si observamos dicho conjunto de variables, entonces el par es independiente: a) E y F b) T y S1 c) E y Sf Una Introducción a las Redes Bayesianas– p.63/??
  • 94. Red Orden: F,E,C1,C2,S1,S2,Sf ,T Una Introducción a las Redes Bayesianas– p.64/??
  • 95. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F Una Introducción a las Redes Bayesianas– p.64/??
  • 96. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F E Una Introducción a las Redes Bayesianas– p.64/??
  • 97. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F E Una Introducción a las Redes Bayesianas– p.64/??
  • 98. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1 Una Introducción a las Redes Bayesianas– p.64/??
  • 99. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1 F Una Introducción a las Redes Bayesianas– p.64/??
  • 100. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 Una Introducción a las Redes Bayesianas– p.64/??
  • 101. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2 Una Introducción a las Redes Bayesianas– p.64/??
  • 102. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2 F Una Introducción a las Redes Bayesianas– p.64/??
  • 103. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2C2 Una Introducción a las Redes Bayesianas– p.64/??
  • 104. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2C2 S1 Una Introducción a las Redes Bayesianas– p.64/??
  • 105. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2C2 S1 C1 E Una Introducción a las Redes Bayesianas– p.64/??
  • 106. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2C2 S1S1 Una Introducción a las Redes Bayesianas– p.64/??
  • 107. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2C2 S1S1 S2 Una Introducción a las Redes Bayesianas– p.64/??
  • 108. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2C2 S1S1 S2 C2E Una Introducción a las Redes Bayesianas– p.64/??
  • 109. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2C2 S1S1 S2S2 Una Introducción a las Redes Bayesianas– p.64/??
  • 110. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2C2 S1S1 S2S2 Sf Una Introducción a las Redes Bayesianas– p.64/??
  • 111. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2C2 S1S1 S2S2 Sf S2S1 Una Introducción a las Redes Bayesianas– p.64/??
  • 112. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2C2 S1S1 S2S2 SfSf Una Introducción a las Redes Bayesianas– p.64/??
  • 113. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2C2 S1S1 S2S2 SfSf T Una Introducción a las Redes Bayesianas– p.64/??
  • 114. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2C2 S1S1 S2S2 SfSf T E Sf Una Introducción a las Redes Bayesianas– p.64/??
  • 115. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2C2 S1S1 S2S2 SfSf TT Una Introducción a las Redes Bayesianas– p.64/??
  • 116. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2C2 S1S1 S2S2 SfSf TT E = 0 E = 0 E = 1 E = 1 C1 = 0 C1 = 1 C1 = 0 C1 = 1 S1 = 0 0.5 1.0 0.5 0.0 S1 = 1 0.5 0.0 0.5 1.0 E y F: T y S1: E y Sf : Una Introducción a las Redes Bayesianas– p.64/??
  • 117. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2C2 S1S1 S2S2 SfSf TT E = 0 E = 0 E = 1 E = 1 C1 = 0 C1 = 1 C1 = 0 C1 = 1 S1 = 0 0.5 1.0 0.5 0.0 S1 = 1 0.5 0.0 0.5 1.0 E y F: /0 T y S1: E y Sf : Una Introducción a las Redes Bayesianas– p.64/??
  • 118. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2C2 S1S1 S2S2 SfSf TT E = 0 E = 0 E = 1 E = 1 C1 = 0 C1 = 1 C1 = 0 C1 = 1 S1 = 0 0.5 1.0 0.5 0.0 S1 = 1 0.5 0.0 0.5 1.0 E y F: /0 T y S1: {E,Sf } E y Sf : Una Introducción a las Redes Bayesianas– p.64/??
  • 119. Red Orden: F,E,C1,C2,S1,S2,Sf ,T F EC1C1 C2C2 S1S1 S2S2 SfSf TT E = 0 E = 0 E = 1 E = 1 C1 = 0 C1 = 1 C1 = 0 C1 = 1 S1 = 0 0.5 1.0 0.5 0.0 S1 = 1 0.5 0.0 0.5 1.0 E y F: /0 T y S1: {E,Sf } E y Sf : {S1,S2} Una Introducción a las Redes Bayesianas– p.64/??
  • 120. La Importancia de la Causalidad Fumar Cáncer Pulmón Dedos Amarillos Una Introducción a las Redes Bayesianas– p.65/??
  • 121. La Importancia de la Causalidad Fumar Cáncer Pulmón Dedos Amarillos Dedos Amarillos Cáncer Pulmón Una Introducción a las Redes Bayesianas– p.65/??
  • 122. La Importancia de la Causalidad Fumar Cáncer Pulmón Dedos Amarillos Dedos Amarillos Cáncer Pulmón P(Cancer Pulmon | Dedos Amarillos ) ≥ P(Cancer Pulmon) P(Cancer Pulmon | a(Dedos Amarillos))? donde a(Dedos Amarillos) es la acción de poner los dedos amarillos, en lugar de observar los dedos amarillos. Una Introducción a las Redes Bayesianas– p.65/??
  • 123. El Teorema de Descomposición Dada una red bayesiana con variables X entonces la distribución de probabilidad conjunta de estas variables se puede descomponer de la forma: p(x) = ∏ y∈x p(y|pa(y)) donde pa(Y) es el conjunto de padres de la variable Y. Consecuencia: Para especificar una red bayesiana solo hay que dar, para cada variable, una distribución de probabilidad condicionada dada sus padres. Si la variable es raíz, la distribución será la distribución marginal (sin condicionar ya que no tiene padres). Una Introducción a las Redes Bayesianas– p.66/??
  • 124. Ejemplo A B C D E F G H I p(a,b,c,d,e, f,g,h,i) = p(a).p(b).p(c).p(d).p(e|a).p( f|b,c).p(g|c,d).p(h|b,e).p(i|c,d, f) Una Introducción a las Redes Bayesianas– p.67/??
  • 125. Redes Bayesianas: Números La parte cuantitativa de una red bayesiana es: Para cada variable de la red, una distribución de probabilidad condicionada a sus padres Si la red tiene n variables hay que especificar o calcular n distribuciones condicionadas. Estas distribuciones, por el teorema de descomposicón, determinan una única distribución de probabilidad conjunta. Una Introducción a las Redes Bayesianas– p.68/??
  • 126. Cálculo de Probabilidades Tenemos una red bayesiana asociada a un conjunto de probabilidades el problema fundamental de las redes es: dado un conjunto O de variables observadas: O = o y una variable objetivo Z, queremos calcular p(z|o), para todos los valores de la variable Z. Podríamos calcular la distribución conjunta, marginalizarla en las variables O∪{Z} y entonces calcular la distribución de probabilidad condicionada deseada, pero esto tiene complejidad exponencial en el número de variables. Gran reto: Calcular la probabilidad condicionada sin tener que calcular la conjunta (usando las distribuciones de cada variable condicionadas a sus padres). Una Introducción a las Redes Bayesianas– p.69/??
  • 127. La Operación de Combinación Si p(x,y) y q(y,z) son dos potenciales, entonces su combinación es el potencial p.q(x,y,z) dado por p.q(x,y,z) = p(x,y).q(y,z) La distribución conjunta es la combinación de todas las distribu- ciones condicionadas a sus padres de las variables de la red. Una Introducción a las Redes Bayesianas– p.70/??
  • 128. Ejemplo p Y= Si Y = Si Y = No Y = No Z= Hombre Z= Mujer Z = Hombre Z = Mujer X=Si 0.5 0.4 0.2 0.1 X=No 0.5 0.6 0.8 0.9 q Y= Si Y = Si Y = No Y = No Z= Hombre Z= Mujer Z = Hombre Z = Mujer 0.3 0.4 0.2 0.1 p.q Y= Si Y = Si Y = No Y = No Z= Hombre Z= Mujer Z = Hombre Z = Mujer X=Si 0.15 0.16 0.04 0.01 X=No 0.15 0.24 0.16 0.09 Una Introducción a las Redes Bayesianas– p.71/??
  • 129. Ejemplo p X= 0 X=0 X=1 X=1 Y= 0 Y=1 Y=0 Y=1 0.96 0.04 0.1 0.9 q Y= 0 Y=0 Y=1 Y=1 Z= 0 Z=1 Z=0 Z=1 0.97 0.03 0.2 0.8 Resultado: p.q X= 0 X=0 X=1 X=1 Y= 0 Y=1 Y=0 Y=1 Z=0 0.9312 0.008 0.097 0.18 Z=1 0.0288 0.032 0.003 0.72 Una Introducción a las Redes Bayesianas– p.72/??
  • 130. Cálculo sin Observaciones Tenemos un conjunto de variables X y queremos calcular las probabilidades sobre Z sin observaciones: p(z). Supongamos que X = Y∪{Z} Tenemos que: p(z) = ∑ y p(y,z) Donde p(y,z) es la distribución conjunta. Es decir, es la marginalización sobre Z de la distribución conjunta. La forma más evidente de hacerlo es: Combinar todas las distribuciones condicionadas para calcular la conjunta Marginalizar sobre Y Una Introducción a las Redes Bayesianas– p.73/??
  • 131. Ejemplo A B C D E F G H I Objetivo: Calcular las probabilidades sobre H. p(h) = ∑ a,b,c,d,e, f,g,i p(a,b,c,d,e, f,g,h,i) = ∑ b,c,d,e, f,g,i p(a).p(b).p(c).p(d).p(e|a).p( f|b,c).p(g|c,d).p(h|b,e).p(i|c,d, f) Una Introducción a las Redes Bayesianas– p.74/??
  • 132. Algoritmo de Borrado. Bases ∑ a,b,c,d,e, f,g,i p(a).p(b).p(c).p(d).p(e|a).p(f |b,c).p(g|c,d).p(h|b,e).p(i|c,d, f) Una Introducción a las Redes Bayesianas– p.75/??
  • 133. Algoritmo de Borrado. Bases ∑ a,b,c,d,e, f,g,i p(a).p(b).p(c).p(d).p(e|a).p(f |b,c).p(g|c,d).p(h|b,e).p(i|c,d, f) ∑ b,c,d,e, f,g,i ∑ a p(a).p(b).p(c).p(d).p(e|a).p(f|b,c).p(g|c,d).p(h|b,e).p(i|c,d, f ) Una Introducción a las Redes Bayesianas– p.75/??
  • 134. Algoritmo de Borrado. Bases ∑ a,b,c,d,e, f,g,i p(a).p(b).p(c).p(d).p(e|a).p(f |b,c).p(g|c,d).p(h|b,e).p(i|c,d, f) ∑ b,c,d,e, f,g,i ∑ a p(a).p(b).p(c).p(d).p(e|a).p(f|b,c).p(g|c,d).p(h|b,e).p(i|c,d, f ) ∑ b,c,d,e, f,g,i p(b).p(c).p(d).p(f|b,c).p(g|c,d).p(h|b,e).p(i|c,d, f)∑a p(a).p(e|a) Una Introducción a las Redes Bayesianas– p.75/??
  • 135. Algoritmo de Borrado. Bases ∑ a,b,c,d,e, f,g,i p(a).p(b).p(c).p(d).p(e|a).p(f |b,c).p(g|c,d).p(h|b,e).p(i|c,d, f) ∑ b,c,d,e, f,g,i ∑ a p(a).p(b).p(c).p(d).p(e|a).p(f|b,c).p(g|c,d).p(h|b,e).p(i|c,d, f ) ∑ b,c,d,e, f,g,i p(b).p(c).p(d).p(f|b,c).p(g|c,d).p(h|b,e).p(i|c,d, f)∑a p(a).p(e|a) ∑ b,c,d,e, f,g,i p(b).p(c).p(d).p(f|b,c).p(g|c,d).p(h|b,e).p(i|c,d, f )r(e) r(e) = ∑a p(a).p(e|a) Tenemos un problema similar, pero con una variable menos Una Introducción a las Redes Bayesianas– p.75/??
  • 136. Algoritmo de Borrado T: Conjunto de potenciales (inicialmente probabilidades condicionadas) X: variables iniciales H: variable objetivo Y: variables iniciales, excepto H Algoritmo: 1. Para cada variable Z ∈ Y 2. Sea TZ el conjunto de los potenciales en T que contienen la variable Z 3. Sea q el potencial combinación de todos los potenciales en TZ 4. Sea r el resultado de borrar Z en q 5. Hacer T igual a (T −TZ)∪{r} 6. p(h) es la combinación de todos los potenciales en T Una Introducción a las Redes Bayesianas– p.76/??
  • 137. Algoritmo de Borrado: Ejemplo T = {p(a), p(b), p(c), p(d), p(e|a), p( f|b,c), p(g|c,d), p(h|b,e), p(i|c,d, f)} Elegimos variable: A. Calculamos: r(e) = ∑ a p(a).p(e|a) Calculamos el nuevo conjunto: T = {p(b), p(c), p(d), p( f|b,c), p(g|c,d), p(h|b,e), p(i|c,d, f),r(e)} Una Introducción a las Redes Bayesianas– p.77/??
  • 138. Algoritmo de Borrado: Ejemplo T = {p(b), p(c), p(d), p( f|b,c), p(g|c,d), p(h|b,e), p(i|c,d, f),r(e)} Elegimos variable: I. Calculamos: s(c,d, f) = ∑ i p(i|c,d, f) Calculamos el nuevo conjunto: T = {p(b), p(c), p(d), p( f|b,c), p(g|c,d), p(h|b,e),s(c,d, f),r(e)} Una Introducción a las Redes Bayesianas– p.78/??
  • 139. Algoritmo de Borrado: Ejemplo T = {p(b), p(c), p(d), p( f|b,c), p(g|c,d), p(h|b,e),s(c,d, f),r(e)} Elegimos variable: B. Calculamos: q(c,e, f,h) = ∑ b p(b).p( f|b,c).p(h|b,e) Calculamos el nuevo conjunto: T = {p(c), p(d), p(g|c,d),s(c,d, f),r(e),q(c,e, f,h)} Una Introducción a las Redes Bayesianas– p.79/??
  • 140. Algoritmo de Borrado: Ejemplo T = {p(c), p(d), p(g|c,d),s(c,d, f),r(e),q(c,e, f,h)} Elegimos variable: D. Calculamos: t(c, f,g) = ∑ d p(d).s(c,d, f).p(g|c,d) Calculamos el nuevo conjunto: T = {p(c),r(e),q(c,e, f,h),t(c, f,g)} Una Introducción a las Redes Bayesianas– p.80/??
  • 141. Algoritmo de Borrado: Ejemplo T = {p(c),r(e),q(c,e, f,h),t(c, f,g)} Elegimos variable: F. Calculamos: w(c,e,g,h) = ∑ f q(c,e, f,h).t(c, f,g) Calculamos el nuevo conjunto: T = {p(c),r(e),w(c,e,g,h)} Una Introducción a las Redes Bayesianas– p.81/??
  • 142. Algoritmo de Borrado: Ejemplo T = {p(c),r(e),w(c,e,g,h)} Elegimos variable: E. Calculamos: m(c,g,h) = ∑ e r(e).w(c,e,g,h) Calculamos el nuevo conjunto: T = {p(c),m(c,g,h)} Una Introducción a las Redes Bayesianas– p.82/??
  • 143. Algoritmo de Borrado: Ejemplo T = {p(c),m(c,g,h)} Elegimos variable: G. Calculamos: n(c,h) = ∑ g m(c,g,h) Calculamos el nuevo conjunto: T = {p(c),n(c,h)} Una Introducción a las Redes Bayesianas– p.83/??
  • 144. Algoritmo de Borrado: Ejemplo T = {p(c),n(c,h)} Elegimos variable: C. Calculamos: v(h) = ∑ c p(c).n(c,h) Calculamos el nuevo conjunto: T = {v(h)} La probabilidad buscada es: p(h) = v(h) Una Introducción a las Redes Bayesianas– p.84/??
  • 145. Notas Calculamos la probabilidad deseada sin calcular la probabilidad conjunta En nuestro caso el número máximo de variables en un potencial es 5 Las variables se pueden elegir en cualquier orden. El resultado es siempre correcto Distintos órdenes pueden producir distinto número de operaciones Una buena heurística: elegir la variables más fácil de borrar en cada momento El problema es NP-duro, pero dependiendo de los grafos se pueden resolver problemas con miles de variables Una Introducción a las Redes Bayesianas– p.85/??
  • 146. Variables Obervadas Hemos obervado O = o y queremos calcular p(z|o) para una variable Z. El algoritmo de borrado calcula: p(z,o) para todos los valores de Z Después, del valor deseado p(z|o) se obtiene dividiendo cada valor p(z,o) por ∑z p(z ,o) (normalizando). Para calcular p(z,o) se aplica el mismo algoritmo de antes, pero transformando los potenciales iniciales. El proceso consiste en hacer iguales a cero los valores correspondientes a los valores no obervados de las variables O. Una Introducción a las Redes Bayesianas– p.86/??
  • 147. Ejemplo. Variables Observadas Supongamos el potencial p: p Y= Si Y = Si Y = No Y = No Z= Hombre Z= Mujer Z = Hombre Z = Mujer X=Si 0.14 0.168 0.024 0.018 X=No 0.14 0.252 0.096 0.162 Y que hemos observado, Y = Si. Antes del algoritmo tendríamos que transformar p en el potencial: Y= Si Y = Si Y = No Y = No Z= Hombre Z= Mujer Z = Hombre Z = Mujer X=Si 0.14 0.168 0.0 0.0 X=No 0.14 0.252 0.0 0.0 Una Introducción a las Redes Bayesianas– p.87/??
  • 148. Ejemplo 2. Variables Observadas Supongamos el potencial p: p Y= Si Y = Si Y = No Y = No Z= Hombre Z= Mujer Z = Hombre Z = Mujer X=Si 0.14 0.168 0.024 0.018 X=No 0.14 0.252 0.096 0.162 Y que hemos observado, Y = Si, Z=Hombre. Antes del algoritmo tendríamos que transformar p en el potencial: Y= Si Y = Si Y = No Y = No Z= Hombre Z= Mujer Z = Hombre Z = Mujer X=Si 0.14 0.0 0.0 0.0 X=No 0.14 0.0 0.0 0.0 Una Introducción a las Redes Bayesianas– p.88/??
  • 149. Ejemplo: normalización Si Z tiene tres valores {z1,z2,z3}, y al final del algoritmo hemos obtenido el potencial: q Z = z1 Z = z2 Z = z3 0.2 0.2 0.1 Entonces, las probabilidades condicionadas se obtienen dividiendo estos valores por su suma: p(z1|o) p(z2|o) p(z3|o) 0.4 0.4 0.2 Una Introducción a las Redes Bayesianas– p.89/??
  • 150. La Configuración de Máxima Probabilidad Tenemos un conjunto de variables X, y un conjunto de observaciones O = o. Objetivo: Calcular una configuración (un valor para cada variable) no observada Y = a, donde Y = X−O tal que P(a|o) = m´ax y P(y|o) E1 E2 S1 S2 S3 Una Introducción a las Redes Bayesianas– p.90/??
  • 151. Problemas de Decisión - Diagramas de Influenc Existen dos nuevos tipos de nodos: nodos de decisión y nodos de utilidad. Un arco desde un nodo de azar a uno de decisión supone que dicho nodo se conoce antes de tomar la decisión Debe de existir un camino dirigido en el que aparezcan las variables de decisión Las observaciones no se olvidan Howard y Matheson(1981), Olmsted (1983) Shachter (1986), Cooper (1988), Shenoy (1992) Una Introducción a las Redes Bayesianas– p.91/??
  • 152. Diagrama de Influencia Enfermedad Síntomas N. Hormonal Resultado Test? Tratamiento Costo Utilidad Una Introducción a las Redes Bayesianas– p.92/??
  • 153. Diagrama de Influencia Plantación Mildeu Mildeu 2 Cosecha TratamientoCosto Utilidad Una Introducción a las Redes Bayesianas– p.93/??
  • 154. Construcción de Redes Bayesianas A partir de expertos Aprendizaje automático a partir de bases de datos Estimación de los parámetros Aprendizaje de la estructura Modelos mixtos Parámetros: A partir de una base de datos, determinando un estimador de P(X = a|Y = b) contando el número de casos en que X toma el valor a entre los que Y = b. Mucho más común el uso de modelos Bayesianos, principalmente basados en la distribuciónd e Dirichlet. Una Introducción a las Redes Bayesianas– p.94/??
  • 155. Aprendizaje Estructural Dos Enfoques Básicos: Comprobación de Independencias Independencia de X e Y dado Z. Métodos de Ajuste Métrica que mide el ajuste (tratan de ajustar los datos, pero penalizan la complejidad del modelo) Algoritmo de búsqueda Una Introducción a las Redes Bayesianas– p.95/??
  • 156. Febrero 2002 Un determinado defecto genético (variable G) puede producir dos enfermedades (variables E1, E2). En presencia de dicho defecto, las enfermedades se manifiestan con una determinada probabilidad, pero no existe ninguna relación entre los mecanismos que dan lugar a las enfermedades: el hecho de que una se manifieste no hace a la otra más o menos probable. Existen tres posibles síntomas asociados a las enfermedades (S1,S2,S3). Los síntomas S1 y S2 se asocian a la enfermedad E1 y los síntomas S2,S3 a la enfermedad E2. En la enfermedad E1 la presencia del síntoma S1 hace al síntoma S2 más probable. En la enfermedad E2 la presencia de uno de los síntomas no cambia la probabilidad de aparición del otro síntoma. Existe una prueba de laboratorio (P), cuyo resultado depende de forma conjunta de la presencia o ausencia de ambas enfermedades, pero tiene comportamiento distinto en hombres y mujeres (variable T). Se supone que T no tiene relación directa con ninguna otra variable del problema. Una Introducción a las Redes Bayesianas– p.96/??
  • 157. Febrero 2002 (Cont.) Determinar un grafo dirigido con las variables anteriores que represente unas relaciones de independencia entre las variables que sean compatibles con las especificaciones anteriores. En el caso de incluir hipótesis adicionales, indicarlas de forma precisa. Indicar las independencias básicas representadas en el grafo. Indicar las distribuciones de probabilidad condicionadas que habría que especificar para determinar la distribución de probabilidad conjunta asociada al grafo construido. Una Introducción a las Redes Bayesianas– p.97/??
  • 158. Respuesta G E1 E2 S1 S2 S3 P T Una Introducción a las Redes Bayesianas– p.98/??
  • 159. Pregunta, Septiembre 2001 Dar ejemplos reales en las que para tres variables aleatorias X, Y, Z, tenga sentido suponer las relaciones de independencia de cada una de las siguientes situaciones: 1. X e Y son dependientes, pero condicionalmente independientes conocida Z. 2. X e Y son independientes, pero son dependientes conocida la variable Z. 3. X e Y son independientes y X y Z son independientes dada la variable Y. 4. No se verifica ninguna relación de independencia (condicional o no) entre estas variables. Expresar, en cada caso, las relaciones de independencia existentes mediante un grafo dirigido acíclico. Una Introducción a las Redes Bayesianas– p.99/??
  • 160. Respuestas X e Y son independientes, pero son dependientes conocida la variable Z X: Número de lotería que compro Y: Número de lotería que es premiado Z: Soy rico N. Compro N. Toca Rico Una Introducción a las Redes Bayesianas– p.100/??
  • 161. Febrero 2001 Dado el siguiente grafo dirigido acíclico, determinar qué independencias condicionadas de la siguiente lista se representan en el grafo, usando el criterio de D-separación. 1 2 3 4 5 8 9 6 7 10 11 12 Una Introducción a las Redes Bayesianas– p.101/??
  • 162. Febrero 2001 (Continuación) Lista de independencias que hay que comprobar: a)I(2,4|/0) e) I(1,3|5,10) h) I(2,4|9,12) b) I(1,3|2,9,10) f) I(2,7|6) i) I(4,12|10,11) c) I(3,4|10) g) I(2,10|7,9) j) I(3,4|11,12) d) I(1,12|9) Una Introducción a las Redes Bayesianas– p.102/??
  • 163. Febrero 2003 He instalado una alarma en mi casa que puede activarse (variable A) porque un intruso entre para robar (variable R) o haya un seismo (variable S), que son bastante frecuentes en la zona en la que vivo. Si suena la alarma un vecino que suele avisar a mi teléfono móvil (variable L), pero hay veces que mi vecino no está (variable P) y no me llama aunque suene la alarma. También es un vecino un poco bromista y puede llamar sin que haya sonado la alarma (sea B la variable que determina si el vecino es serio o está bromeando). En caso de que haya un seismo existe una probabilidad alta de que sea anunciado en la emisora de radio local (variable N). No siempre escucho dicha emisora (la variable E representa si la estoy escuchando), pero si me llama mi vecino, trato de escucharla para descartar que haya habido un seismo. Sea C la variable que representa que conozco que hay un seismo por escucharlo en la radio. Una Introducción a las Redes Bayesianas– p.103/??
  • 164. Febrero 2003 (Cont.) 1. Determinar un grafo dirigido acíclico compatible con las relaciones entre las variables del problema. 2. Determinar las probabilidades condicionadas que hay que especificar como datos. 3. Aplicar el algoritmo de borrado para determinar las operaciones necesarias para calcular la probabilidad marginal sobre la variable C. Una Introducción a las Redes Bayesianas– p.104/??
  • 165. Solución R S AP B L N E C Una Introducción a las Redes Bayesianas– p.105/??
  • 166. Septiembre 2003 Determinar la estructura de una red bayesiana para el siguiente problema: un granjero quiere determinar si una vaca está preñada (variable P) después de una inseminación artificial. Para ello dispone de tres tests. El primero de ellos es una ecografía (variable E) y los otros dos son un test de sangre (variable S) y uno de orina (variable O). Se supone que los dos últimos tests se basan en el nivel hormonal de la vaca (variable H) que puede ser alto o bajo y que, a su vez, depende de si la vaca está realmente preñada. Existe un tipo raro de sangre (variable T) que hace que el resultado del test de sangre sea siempre positivo con independencia de si la vaca está preñada o no. Para descartar esta situación, el granjero también realiza un test para comprobar el tipo de sangre (variable TT). Una Introducción a las Redes Bayesianas– p.106/??
  • 167. Septiembre 2003 (Cont.) En caso de duda sobre la red, especificar las relaciones de independencia que se han supuesto. Especificar distribuciones de probabilidad condicionadas dados sus padres para las variables S,E,T que sean compatibles con la información del problema. ¿Podemos considerar que si se conoce el resultado del test del nivel hormonal en la sangre, entonces el resultado del test de tipo de sangre es independiente de que la vaca esté preñada? Una Introducción a las Redes Bayesianas– p.107/??
  • 168. Diciembre 2003 Considerar el problema de transmitir palabras de longitud cinco del alfabeto A = {a,b} sobre un canal de transmisión. Las palabras se transmiten símbolo a símbolo. La transmisión tiene ruido y algunas veces no se recibe el símbolo emitido. Si se emite una a se recibe una a con probabilidad 0.8 y una b con probabilidad 0.2. Si se emite una b se recibe una b con probabilidad 0.9 y una a con probabilidad 0.1. La probabilidad de error solo depende del símbolo emitido y no de la presencia de error en cualquier otro símbolo. Las palabras emitidas no son completamente aleatorias y el valor de un símbolo determinado depende de los símbolos que lo preceden, pero sólo del último de ellos. 1. Establecer una red bayesiana que relacione los símbolos emitidos y recibidos. 2. Indicar las probabilidades condicionadas que hay que especificar. 3. Indicar qué cálculos habría que realizar en el algoritmo de borrado para calcular la probabilidad del primer símbolo emitido, dado que se conocen los cinco símbolos recibidos. Una Introducción a las Redes Bayesianas– p.108/??
  • 169. Febrero 2004 Consideremos un estudio sobre las familias en el que vamos a considerar las siguientes variables: A (nivel de estudios de la madre), B (nivel de estudios del padre), C (ingresos del padre), D (ingresos de la madre), T (ingresos totales en la familia), E (presencia internet en casa), F (coche), G (gastos de la familia en ocio), H (número de hijos), I (presencia de televisión de pago). 1. Diseñar una red que exprese unas independencias compatibles con el signigicado de estas variables. Especificar las suposiciones que se hacen. 2. Realizar una red obtenida a partir de la anterior, pero eliminando las variables A y B (sólo debe de representar las independencias entre las restantes variables que se verifiquen en la red del punto anterior), 3. En cada una de las redes, determinar un conjunto con un número de variables tan pequeño como sea posible, para que conocidas las variables de este conjunto, las variables E y F sean independientes. Una Introducción a las Redes Bayesianas– p.109/??
  • 170. Septiembre 2004 La probabilidad de que una vaca sufra mastitis un día (variable M) depende de varios factores: si sufría mastitis el día anterior (D), número de días de la enfermedad (I) y días en que ha recibido tratamiento (T). El ganadero diagnostica la enfermedad en función del aspecto general (A) y de un test que se realiza en la leche (L). Sin embargo, el test puede no ser fiable si la vaca ha estado sometida a tratamiento durante más de tres días. 1. Describir un grafo de dependencias compatible con la situación descrita. 2. Determinar una tabla de probabilidad condicionada para la variable L en el grafo anterior. 3. Si la vaca no tuvo enfermedad el día anterior, y no ha sido tratada, y sabiendo que en estas condiciones la probabilidad de sufrir la enfermedad es de 0.01, determinar la probabilidad de que tenga la enfermedad si el test L ha resultado positivo. Una Introducción a las Redes Bayesianas– p.110/??
  • 171. Septiembre 2004 (bis) Supongamos tres variables con dos valores cada una: X: He hecho un viaje a Asia recientemente Y: Tengo tuberculosis Z: Radiografía positiva Realizar una red bayesiana basada en el siguiente orden de las variables; X,Y,Z. Especificar probabilidades condicionadas para las 3 variables, de acuerdo con la red construida. Calcular la probabilidad marginal con la que Z toma sus valores, aplicando el algoritmo de borrado y eliminando primero la variable X y después la variable Y. Nota: es necesario calcular los valores numéricos de las probabilidades, no siendo suficiente con indicar las operaciones con los potenciales. Una Introducción a las Redes Bayesianas– p.111/??
  • 172. Febrero 2005 En una granja hay dos yeguas y un caballo sin ningún parentesco entre ellos y van a nacer dos potros, uno de cada una de las yeguas. El caballo es el padre de ambos potros. Existe una grave enfermedad que está ligada a la presencia de un gen recesivo a. El gen normal se nota por A. Esto quiere decir que la carga genética de cada individuo puede ser aa, aA, AA y la enfermedad sólo se manifiesta cuando un individuo tiene carga genética aa. Si un individuo tiene aA no manifiesta la enfermedad, pero es portador de ella. 1. Determinar una red Bayesiana que exprese las dependencias entre la carga genética de cada uno de los caballos de la granja, incluyendo los dos potros que van a nacer. 2. Si en la población general la probabilidad de ser portador es de 0.01 para los caballos, de 0.02 para las yeguas, y los potros heredan un gen de cada uno de los padres (se elige aletoriamente entre los dos posibles de cada padre), detallar las distribuciones de probabilidad condicionadas asociadas a la red. 3. Si se observa que el primer potro que nace manifiesta la enfermedad (tiene aa), calcular mediante el algoritmo de borrado la probabilidad de que el otro potro también tenga la enfermedad y la probabilidad de que sea portador. Una Introducción a las Redes Bayesianas– p.112/??
  • 173. Solución Las variables que se van a considerar son: C: Carga genética del caballo Y1: Carga genética de la primera yegua Y2: Carga genética de la segunda yegua P1: Carga genética del primer potro P2: Carga genética del segundo potro Una Introducción a las Redes Bayesianas– p.113/??
  • 174. Solución Una red bayesiana que exprese las relaciones de dependencia entre estas variables es: Y1 C Y2 P1 P2 Una Introducción a las Redes Bayesianas– p.114/??
  • 175. Solución En el problema se supone que las yeguas y el caballo no pueden tener aa ya que esto supone que se desarrola la enfermedad y entonces no se considerarían para la procreación (esto se indicó en el examen). Entonces las tablas de probabilidad son las siguientes (a cada potencial le vamos a dar un nombre qi para poder hacer referencia a él): Para el caballo, un potencial q1 que depende de C: q1 C = AA C = Aa 0.99 0.01 Para la primera yegua, un potencial q2 que depende de Y1: q2 Y1 = AA Y1 = Aa 0.98 0.02 Una Introducción a las Redes Bayesianas– p.115/??
  • 176. Solución Para la segunda yegua, un potencial q3 que depende de Y2: q3 Y2 = AA Y2 = Aa 0.98 0.02 Para el primer potro, un potencial q4 que depende de P1,Y1,C, que expresa la probabilidad condicionada de P1 dados sus padres Y1,C q4 Y1 = AA Y1 = AA Y1 = Aa Y1 = Aa C = AA C = Aa C = AA C = Aa P1 = AA 1 0.5 0.5 0.25 P1 = Aa 0 0.5 0.5 0.5 P1 = aa 0 0 0 0.25 Una Introducción a las Redes Bayesianas– p.116/??
  • 177. Solución Para el segundo potro, un potencial q5 que depende de P2,Y2,C, que expresa la probabilidad condicionada de P2 dados sus padres Y2,C, y que es idéntica a la anterior en estructura y valores: q5 Y2 = AA Y2 = AA Y2 = Aa Y2 = Aa C = AA C = Aa C = AA C = Aa P2 = AA 1 0.5 0.5 0.25 P2 = Aa 0 0.5 0.5 0.5 P2 = aa 0 0 0 0.25 Una Introducción a las Redes Bayesianas– p.117/??
  • 178. Solución Observamos que P1 = aa y queremos calcular la probabilidades condicionadas de los distintos valores de la variable P2. Para ello primero se restringen los potenciales a las observaciones y después aplicamos el algoritmo de borrado. Restringir un potencial que contiene P1 a P1 = aa, es hacer 0.0 todas las casillas que correspondan a valores de P1 distintos del observado. Sólo hay un potencial que depende de P1 y es q4. Una Introducción a las Redes Bayesianas– p.118/??
  • 179. Solución Al resultado de restringir q4 a P1 = aa le llamamos q4 y es como sigue: q4 Y1 = AA Y1 = AA Y1 = Aa Y1 = Aa C = AA C = Aa C = AA C = Aa P1 = AA 0 0 0 0 P1 = Aa 0 0 0 0 P1 = aa 0 0 0 0.25 Ahora aplicamos el algoritmo de borrado a la lista de potenciales q1,q2,q3,q4,q5. Una Introducción a las Redes Bayesianas– p.119/??
  • 180. Solución Borramos P1. Sólo hay un pontencial que contiene esta variable, q4: q4 Y1 = AA Y1 = AA Y1 = Aa Y1 = Aa C = AA C = Aa C = AA C = Aa P1 = AA 0 0 0 0 P1 = Aa 0 0 0 0 P1 = aa 0 0 0 0.25 No hay que hacer multiplicaciones, sólo marginalizar sobre Y1,C obteniendo el potencial q6: q6 Y1 = AA Y1 = AA Y1 = Aa Y1 = Aa C = AA C = Aa C = AA C = Aa 0 0 0 0.25 Una Introducción a las Redes Bayesianas– p.120/??
  • 181. Solución Se elimina q4 de la lista y se añade q6, quedando q1,q2,q3,q5,q6. Ahora se borra Y1. Para ello se multiplican los dos potenciales que contienen esta variable: q2 y q6. q2 Y1 = AA Y1 = Aa 0.98 0.02 y q6 Y1 = AA Y1 = AA Y1 = Aa Y1 = Aa C = AA C = Aa C = AA C = Aa 0 0 0 0.25 obteniéndose q7: q7 Y1 = AA Y1 = AA Y1 = Aa Y1 = Aa C = AA C = Aa C = AA C = Aa 0 0 0 0.005 Una Introducción a las Redes Bayesianas– p.121/??
  • 182. Solución En q7 se marginaliza sobre C, borrándose Y1 y obteniéndose el potencial q8: q8 C = AA C = Aa 0 0.005 Se eliminan q2 y q6 y se añade q8 a la lista, quedando q1,q3,q5,q8. Una Introducción a las Redes Bayesianas– p.122/??
  • 183. Solución En la lista q1,q3,q5,q8 se elimina la variable C. Se multiplican los potenciales que contienen esta variable q1, q5 y q8: q1 C = AA C = Aa 0.99 0.01 , q5 Y2 = AA Y2 = AA Y2 = Aa Y2 = Aa C = AA C = Aa C = AA C = Aa P2 = AA 1 0.5 0.5 0.25 P2 = Aa 0 0.5 0.5 0.5 P2 = aa 0 0 0 0.25 y q8 C = AA C = Aa 0 0.005 Una Introducción a las Redes Bayesianas– p.123/??
  • 184. Solución El resultado de la multiplicación es el potencial q9: q5 Y2 = AA Y2 = AA Y2 = Aa Y2 = Aa C = AA C = Aa C = AA C = Aa P2 = AA 0 0.000025 0 0.0000125 P2 = Aa 0 0.000025 0 0.000025 P2 = aa 0 0 0 0.0000125 Se marginaliza sobre P2,Y2 borrando C, obteniéndose q10: q10 Y2 = AA Y2 = Aa P2 = AA 0.000025 0.0000125 P2 = Aa 0.000025 0.000025 P2 = aa 0 0.0000125 Una Introducción a las Redes Bayesianas– p.124/??
  • 185. Solución Se eliminan de la lista los potenciales combinados q1, q5 y q8, y se añade el resultado q10. La lista queda con los potenciales q3,q10. Se elimina ahora la variable Y2. Para ello se multiplican los potenciales que contienen esta variable, q3 y q10: q3 Y2 = AA Y2 = Aa 0.98 0.02 y q10 Y2 = AA Y2 = Aa P2 = AA 0.000025 0.0000125 P2 = Aa 0.000025 0.000025 P2 = aa 0 0.0000125 obteniéndose q11: q11 Y2 = AA Y2 = Aa P2 = AA 0.0000245 0.00000025 P2 = Aa 0.0000245 0.0000005 P2 = aa 0 0.00000025 Una Introducción a las Redes Bayesianas– p.125/??
  • 186. Solución Se marginaliza q11 sobre P2, obteniéndose q12: q12 P2 = AA 0.00002475 P2 = Aa 0.000025 P2 = aa 0.00000025 Se eliminan q3 y q10 de la lista y se añade q12. La lista queda: q12. Ya se han borrado todas las variables, excepto la variable en la que estamos interesados. Ahora hay que multiplicar todos los potenciales que quedan. Como sólo queda q12, el resultado es él mismo: q12. Una Introducción a las Redes Bayesianas– p.126/??
  • 187. Solución Finalmente las probabilidades deseadas, se obtienen normalizando este potencial, es decir dividiendo cada número por la suma de todos los valores 0.00002475+0.000025+0.00000025 De q12 P2 = AA 0.00002475 P2 = Aa 0.000025 P2 = aa 0.00000025 se pasa a q12 P2 = AA 0.495 P2 = Aa 0.5 P2 = aa 0.005 En esta tabla tenemos la probabilidad de que el segundo potro sea portador (P2 = Aa) y que es de 0.5 y la probabilidad de que esté enfermo (P2 = aa) que es igual a 0.005. La de estar completamente sano sin ser portador es de 0.495. Una Introducción a las Redes Bayesianas– p.127/??
  • 188. Septiembre 2005 Dar un ejemplo de red bayesiana con 4 variables (X1,X2,X3,X4) para cada uno de los siguientes conjuntos de condiciones: 1. I(X1,X4|X2,X3),I(X2,X3|X1) 2. I(X1,X2|/0),I(X4,X3|X2),I(X4,X1|X2) Las relaciones de independencia entre variables que no están incluidas en las condiciones anteriores no deben de verificarse (por ejemplo, en el caso primero, X1 y X2 deben de ser dependientes). Dar nombres a las variables que correspondan con un ejemplo real y en el que estas relaciones se verifiquen. Para la red del primer conjunto de restricciones, dar ejemplos de tablas de probabilidad condicionadas (todas las necesarias para una distribución de probabilidad conjunta). Una Introducción a las Redes Bayesianas– p.128/??
  • 189. Febrero 2006 Un estudiante realiza un examen con 5 preguntas que se califican cada una con los valores 0,1,2. Si el alumno obtiene más de cinco puntos, aprueba la asignatura. Realizar una red bayesiana que incluya los resultados de cada una de las preguntas (una variable para cada pregunta) y el hecho de que el estudiante supere o no el examen (variable A). Construir una nueva red en la que aparezcan cuatro variables además de las anteriores: formación básica del estudiante (F), esfuerzo dedicado a la asignatura (E), asistencia a clase (C) y estado anímico (N). Cada una de estas variables puede tener 3 valores: bueno, malo, regular. Una Introducción a las Redes Bayesianas– p.129/??
  • 190. Febrero 2006 (Cont.) Construir una tercera red en la que sólo aparezcan la variable F y las dos primeras preguntas, suponiendo que los resultados de estas pre- guntas son condicionalmente independientes dada F. Introducir valo- res numéricos que permitan determinar una distribucón conjunta. Cal- cular la probabilidad de que la formación básica de un estudiante sea buena si ha obtenido 2 en ambas preguntas. Una Introducción a las Redes Bayesianas– p.130/??
  • 191. Septiembre 2006 Tenemos una enfermedad que queremos diagnosticar y tres tests que se pueden aplicar que pueden ser positivos o negativos. Se sabe que las probabilidades de que los tests den positivos según se tenga o no la enfermedad son las de la siguiente tabla: Test 1 positivo Test 2 positivo Test 3 positivo Enfermo 0.9 0.8 0.75 No enfermo 0.2 0.05 0.06 Si se supone que los resultados de los tests son condicionalmente independientes conocido si se tiene o no se tiene la enfermedad, determinar una red bayesiana con sus tablas de probabilidad que represente el problema. Si hay algún dato que falta, añadir un valor arbitrario. Calcular la probabilidad de que se tenga la enfermedad una vez que los dos primeros tests han dado positivos y el tercero negativo. Una Introducción a las Redes Bayesianas– p.131/??
  • 192. Septiembre 2006 - Solución Enfermedad Enf. SI NO 0.01 0.99 Test 1 Enf. SI NO Test1 + 0.9 0.2 Test1 - 0.1 0.8 Test 2 Enf. SI NO Test2 + 0.8 0.05 Test2 - 0.2 0.95 Test 3 Enf. SI NO Test3 + 0.75 0.06 Test3 - 0.25 0.94 Una Introducción a las Redes Bayesianas– p.132/??
  • 193. Solución (cont.) Para calcular la probabilidad condicionada de tener la enfermedad dado que los tests 1 y 2 son potivos y el 3 negativo podemos aplicar el algoritmo de borrado a la lista de potenciales después de transformarlos de acuerdo con las observaciones. Aquí vamos a aplicar directamente el teorema de Bayes. Llamemos T1,T2,T3 a los tests con valores +,− y E con valores SI,NO. Sea O nuestro conjunto de observaciones T1 = +,T2 = +,T3 = −. Una Introducción a las Redes Bayesianas– p.133/??
  • 194. Solución (cont.) Aplicamos el teorema de Bayes: P(E = SI|O) = P(O|E = SI).P(E = SI) P(O|E = SI).P(E = SI)+P(O|E = NO).P(E = NO) Como los resultados de los tests son condicionalemente independientes conocido si se tiene la enfermedad: P(O|E = SI) = P(T1 = +,T2 = +,T3 = −|E = SI) = P(T1 = +|E = SI).P(T2 = +|E = SI).P(T3 = −|E = SI) = 0.9×0.8×0.25 = 0.18 P(O|E = NO) = P(T1 = +,T2 = +,T3 = −|E = NO) = P(T1 = +|E = NO).P(T2 = +|E = NO).P(T3 = −|E = NO) = 0.2×0.05×0.94 = 0.0094 Una Introducción a las Redes Bayesianas– p.134/??
  • 195. Solución (Cont.) Sustituimos, junto con P(E = SI) = 0,01,P(E = NO) = 0,99, obteniendo P(E = SI|O) = 0.18×0.01 0.18×0.01+0.0094×0.99 = 0.162 Nuestro resultado final es 0.162. Este dependerá de la probabilidad ’a priori’ de la enfermedad que hayamos puesto. Una Introducción a las Redes Bayesianas– p.135/??
  • 196. Febrero 2007 Consideremos un modelo de la intereracción entre tres factores (hierba, herbívoros, carnívoros) en un sistema ecológico. Para ello se considerarán tres instantes de tiempo y, en cada uno de ellos, los valores de estas tres variables (hay que hacer tres versiones de cada una de las variables, una en cada instante de tiempo). Cada variable tiene tres valores posibles (’escaso’,’normal’,’abundante’). 1. Determinar una red bayesiana que represente el modelo, describiendo la parte cualitativa y cuantitativa. En la primera etapa se puede suponer que las variables son independientes. Para las probabilidades se deben de determinar valores numéricos que sean compatibles con la intuición (por ejemplo, si hay pocos carnívoros y muchos herbívoros en un momento dado, en el instante siguiente lo más probable es que el número de carnívoros sea normal). 2. Describir sólo la red que incluya las variables hierba y herbívoros en el instante 1 e hierba en el instante 2. Calcular la probabilidad marginal de la variable hierba en el instante 2, aplicando el algoritmo de borrado. Una Introducción a las Redes Bayesianas– p.136/??
  • 197. Febrero 2007 (solución) Consideremos las variables: Hierba en el instante i: Hii Herbívoros en el instante i: Hei Carnívoros en el instante i: Ci La red puede ser: Hi1 He1 C1 Hi2 He2 C2 Hi3 He3 C3 Una Introducción a las Redes Bayesianas– p.137/??
  • 198. Febrero 2007 (solución) Si notamos: Escaso (E), Normal (N), Abundante (A). Para las variables Hi1, He1, C1, podemos considerar la mista tabla de probabilidad. Por ejemplo: E N A 0.3 0.4 0.3 Para la Hii+1 condicionado a Hii y Hei: Hii = E Hii = N Hii = A Hei = E Hei = N Hei = A Hei = E Hei = N Hei = A Hei = E Hei = N Hei = A Hii+1 = E 0.4 0.5 0.9 0.15 0.2 0.3 0.0 0.05 0.2 Hii+1 = N 0.5 0.45 0.09 0.6 0.6 0.6 0.2 0.25 0.3 Hii+1 = A 0.1 0.05 0.01 0.25 0.2 0.1 0.8 0.7 0.5 Una Introducción a las Redes Bayesianas– p.138/??
  • 199. Febrero 2007 (solución) Para la Hei+1 condicionado a Hii, Hei y Ca, la tabla es más complicada. En tres partes puede ser: Hii = E Hei = E Hei = N Hei = A Ci = E Ci = N Ci = A Ci = E Ci = N Ci = A Ci = E Ci = N Ci = A Hei+1 = E 0.5 0.7 0.95 0.35 0.3 0.4 0.1 0.15 0.3 Hei+1 = N 0.5 0.3 0.05 0.5 0.6 0.55 0.2 0.25 0.3 Hei+1 = A 0.0 0.00 0.00 0.15 0.1 0.05 0.7 0.6 0.4 Hii = N Hei = E Hei = N Hei = A Ci = E Ci = N Ci = A Ci = E Ci = N Ci = A Ci = E Ci = N Ci = A Hei+1 = E 0.4 0.5 0.9 0.15 0.2 0.3 0.0 0.05 0.2 Hei+1 = N 0.5 0.45 0.09 0.6 0.6 0.6 0.2 0.25 0.3 Hei+1 = A 0.1 0.05 0.01 0.25 0.2 0.1 0.8 0.7 0.5 Una Introducción a las Redes Bayesianas– p.139/??
  • 200. Febrero 2007 (solución) Para la Hei+1 condicionado a Hii, Hei y Ca, la tabla es más complicada. La tercera parte de la tabla: Hii = A Hei = E Hei = N Hei = A Ci = E Ci = N Ci = A Ci = E Ci = N Ci = A Ci = E Ci = N Ci = A Hei+1 = E 0.3 0.4 0.8 0.05 0.1 0.2 0.0 0.01 0.1 Hei+1 = N 0.5 0.45 0.09 0.6 0.6 0.6 0.1 0.14 0.3 Hei+1 = A 0.2 0.15 0.11 0.35 0.3 0.2 0.9 0.85 0.6 Una Introducción a las Redes Bayesianas– p.140/??
  • 201. Febrero 2007 (solución) Para la Ci+1 condicionado a Hei y Ci: Hei = E Hei = N Hei = A Ci = E Ci = N Ci = A Ci = E Ci = N Ci = A Ci = E Ci = N Ci = A Ci+1 = E 0.9 0.7 0.3 0.35 0.2 0.1 0.1 0.05 0.0 Ci+1 = N 0.1 0.2 0.6 0.6 0.6 0.5 0.4 0.25 0.2 Ci+1 = A 0.0 0.1 0.1 0.05 0.2 0.4 0.5 0.7 0.8 Una Introducción a las Redes Bayesianas– p.141/??
  • 202. Febrero 2007 (solución) Describir sólo la red que incluya las variables hierba y herbívoros en el instante 1 e hierba en el instante 2. Calcular la probabilidad marginal de la variable hierba en el instante 2, aplicando el algoritmo de borrado. Hi1 He1 Hi2 Para Hi1 tabla: Hi1 E N A 0.3 0.4 0.3 Para He1 tabla: He1 E N A 0.3 0.4 0.3 Hi2 condicionado a Hi1 y He1: Hi2|Hi1,He1 Hii = E Hii = N Hii = A Hei = E Hei = N Hei = A Hei = E Hei = N Hei = A Hei = E Hei = N Hei = A Hii+1 = E 0.4 0.5 0.9 0.15 0.2 0.3 0.0 0.05 0.2 Hii+1 = N 0.5 0.45 0.09 0.6 0.6 0.6 0.2 0.25 0.3 Hii+1 = A 0.1 0.05 0.01 0.25 0.2 0.1 0.8 0.7 0.5 Una Introducción a las Redes Bayesianas– p.142/??
  • 203. Solución Aplicamos el algoritmo de borrado, eliminando las variables Hi1,He1 para obtener la marginal sobre He2. Primero borramos Hi1. Para ello multiplicamos la tabla de Hi1 por la de Hi2 condicionado a Hi1,He1, obteniendo la tabla: Hi1 = E Hi1 = N Hi1 = A He1 = E He1 = N He1 = A He1 = E He1 = N He1 = A He1 = E He1 = N He1 = A Hi2 = E 0.12 0.15 0.27 0.06 0.08 0.12 0.0 0.015 0.06 Hi2 = N 0.15 0.135 0.027 0.24 0.24 0.24 0.06 0.075 0.09 Hi2 = A 0.03 0.015 0.003 0.1 0.08 0.04 0.24 0.21 0.15 Una Introducción a las Redes Bayesianas– p.143/??
  • 204. Solución (Febr. 2007) Ahora marginalizamos la tabla anterior, sumando en Hi1 y obteniendo: Hi2,He1 He1 = E He1 = N He1 = A Hi2 = E 0.18 0.245 0.45 Hi2 = N 0.45 0.45 0.357 Hi2 = A 0.37 0.305 0.193 Una Introducción a las Redes Bayesianas– p.144/??
  • 205. Solución (Febr. 2007) Ahora borramos la variable He1, multiplicando la tabla anterior: Hi2,He1 He1 = E He1 = N He1 = A Hi2 = E 0.18 0.245 0.45 Hi2 = N 0.45 0.45 0.357 Hi2 = A 0.37 0.305 0.193 por la de He1 He1 E N A 0.3 0.4 0.3 ,obteniendo: Hi2,He1 He1 = E He1 = N He1 = A Hi2 = E 0.054 0.0980 0.135 Hi2 = N 0.135 0.18 0.1071 Hi2 = A 0.111 0.1220 0.0579 Una Introducción a las Redes Bayesianas– p.145/??
  • 206. Solución (Febr. 2007) En la tabla anterior marginalizamos sumando en He1, obteniendo: Hi2 E N A 0.287 0.4221 0.2909 La normalización no cambia esta tabla (la suma de los valores es 1.0) y representa la probabilidad marginal sobre Hi2 que se pedía. Una Introducción a las Redes Bayesianas– p.146/??
  • 207. Septiembre (2007) Dibujar una red bayesiana con 5 variables (X1,X2,X3,X4,X5) en la se verifiquen las siguientes independencias: I(X1,X2|/0) I(X4,X1|X3),I(X4,X2|X3) I(X5,X1|X3),I(X5,X2|X3),I(X5,X4|X3) y no se verifique ninguna otra independencia aparte de las que se deduzcan de las anteriores por las propiedades de las independencias representadas en grafos dirigidos acícilicos. Si todas las variables pueden tomar dos valores ( 0,1), dar ejemplos de tablas de probabilidad condicionadas para la red anterior. Si consideramos la red con sólo las 4 primeras variables, calcular con el algoritmo de borrado la probabilidad P(X3 = 0|X1 = 1,X4 = 0). Una Introducción a las Redes Bayesianas– p.147/??