Estadística bayesiana, inteligencia artificial y las cadenas de Márkov
1. ESTADÍSTICA BAYESIANA, INTELIGENCIA ARTIFICIAL Y LAS CADENAS
DE MÁRKOV
Elaborado por: María José Varela
Dentro de las aplicaciones de la teoría de la probabilidad es válido enunciar el
Teorema de Bayes como expresión de probabilidad condicional que demuestra
los beneficios obtenidos en las estimaciones basadas en conocimientos
intrínsecos. La metodología bayesiana especifica un modelo de probabilidad
que contiene algún tipo conocimiento previo acerca de una investigación, de
este modo se acondiciona al modelo de probabilidad para realizar el ajuste de
los supuestos.
Por otro lado, la importancia de la inteligencia artificial radica en que busca
mejorar, aprender, entender y razonar situaciones complejas, además busca
aplicar conocimientos del ser humano y las maneras diferentes que se actúa,
ante una posible situación. La metodología y terminología de la IA está todavía
en vías de desarrollo. La IA se está dividiendo y encontrando otros campos
relacionados: lógica, redes neuronales, programación orientada a objetos,
lenguajes formales, robótica, entre otros.
Finalmente, otro tema que se abordará de suma importancia, son las cadenas
de Márkov, que hacen referencia a una herramienta para analizar el
comportamiento de determinados tipos de procesos que evolucionan de forma
no determinística a lo largo del tiempo en torno a un conjunto de estados. Una
cadena de Márkov, por tanto, representa un sistema que varía un estado a lo
largo del tiempo, siendo cada cambio una transición del sistema.
La Estadística bayesiana es un subconjunto del campo de la estadística en la
que la evidencia sobre el verdadero estado del mundo, se expresa en términos
de grados de creencia o, más específicamente, las probabilidades bayesianas.
La diferencia fundamental entre la estadística clásica (frecuentista) y la
bayesiana es el concepto de probabilidad. Para la estadística clásica es un
concepto objetivo, que se encuentra en la naturaleza, mientras que para la
estadística bayesiana se encuentra en el observador, siendo así un concepto
subjetivo (Es simplemente una medida de la incertidumbre, asociada a un
evento, asignada por un decisor. En otras palabras, es un juicio personal sobre
la verosimilitud de que ocurra un resultado).
La inferencia bayesiana es un tipo de inferencia estadística en la que las
evidencias u observaciones se emplean para actualizar o inferir la probabilidad
de que una hipótesis pueda ser cierta. El nombre “bayesiana” proviene del uso
frecuente que se hace del teorema de Bayes durante el proceso de inferencia.
El teorema de Bayes se ha derivado del trabajo realizado por el matemático
2. Thomas Bayes. Hoy en día, uno de los campos de aplicación es en la teoría de
la decisión, visión artificial (simulación de la percepción en general) y el
reconocimiento de patrones por ordenador.
La metodología bayesiana consta de tres pasos fundamentales:
1. Especificar un modelo de probabilidad que incluya algún tipo de
conocimiento previo (a priori) sobre los parámetros del modelo dado.
2. Actualizar el conocimiento sobre los parámetros desconocidos
condicionando este modelo de probabilidad a los datos observados.
3. Evaluar el ajuste del modelo a los datos y la sensibilidad de las
conclusiones a cambios en los supuestos del modelo.
Al admitir un manejo subjetivo de la probabilidad, el analista bayesiano podrá
emitir juicios de probabilidad sobre una hipótesis H y expresar por esa vía
su grado de convicción al respecto, tanto antes como después de haber
observado los datos. En su versión más elemental y en este contexto, el
teorema de Bayes asume la forma siguiente:
𝑃( 𝐴 𝑖 | 𝐵) = 𝑃( 𝐵| 𝐴 𝑖 ) 𝑃( 𝐴 𝑖)
𝑃( 𝐵)
Donde:
· ( 𝐴) son las probabilidades a priori.
· ( 𝐵| 𝐴) es la probabilidad de 𝐵 en la hipótesis 𝐴 .
· ( 𝐴 𝑖 | 𝐵) son las probabilidades a posteriori.
Por otro lado, La inteligencia artificial es considerada una rama de la
computación y relaciona un fenómeno natural con una analogía artificial a
través de programas de computador. La inteligencia artificial puede ser tomada
como ciencia si se enfoca hacia la elaboración de programas basados en
comparaciones con la eficiencia del hombre, contribuyendo a un mayor
entendimiento del conocimiento humano.
Si por otro lado es tomada como ingeniería, basada en una relación deseable
de entrada-salida para sintetizar un programa de computador. "El resultado es
un programa de alta eficiencia que funciona como una poderosa herramienta
para quien la utiliza."
A través de la inteligencia artificial se han desarrollado los sistemas expertos
que pueden imitar la capacidad mental del hombre y relacionan reglas de
sintaxis del lenguaje hablado y escrito sobre la base de la experiencia, para
3. luego hacer juicios acerca de un problema, cuya solución se logra con mejores
juicios y más rápidamente que el ser humano.
No obstante, una cadena de Márkov es una serie de eventos, en la cual la
probabilidad de que ocurra un evento depende del evento inmediato anterior.
En efecto, las cadenas de este tipo tienen memoria, "Recuerdan" el último
evento y esto condiciona las posibilidades de los eventos futuros. Esta
dependencia del evento anterior distingue a las cadenas de Márkov de las
series de eventos independientes, como tirar una moneda al aire o un dado. En
los negocios, las cadenas de Márkov se han utilizado para analizar los patrones
de compra, los deudores morosos, para planear las necesidades de personal y
para analizar el reemplazo de equipo.
Permite encontrar la probabilidad de que un sistema se encuentre en un estado
en particular en un momento dado. Algo más importante aún, es que permite
encontrar el promedio a la larga o las probabilidades de estado estable, para
cada estado. Con esta información se puede predecir el comportamiento del
sistema a través del tiempo. La tarea más difícil es reconocer cuándo puede
aplicarse. La característica más importante que hay que buscar en la memoria
de un evento a otro.