Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Investigacion
1. 1
Nombre de la materia:
Tecnologías innovadoras
Tema:
Investigacion
Nombre del maestro:
ISC. Lizbeth Hernández Olan
Nombre del alumno:
Gilberto Leonel Piñeyro Castillo
Grado:
9 semestre
Grupo:
“B”
Fecha:
18 de diciembre del 2015
3. 3
Introducción
Durante años la actividad de la Inteligencia Artificial estuvo dedicada a las
investigaciones teóricas y al desarrollo de experimentos a través de programas que
demostraran “actitudes inteligentes”, con estos programas se pretendía que la
máquina jugara ajedrez, demostrara teoremas matemáticos, etc.
No fue hasta los años 70 que surgió un nuevo paradigma en la Inteligencia
Artificial “los Sistemas Expertos”, cuya función es desarrollar trabajos similares a los
que desarrollaría un especialista en un área determinada, la idea no es sustituir a
los expertos, sino que estos sistemas sirvan de apoyo a los especialistas en un
“dominio” de aplicación específico.
Estos sistemas expertos son en lo esencial sistemas de computación basados en
conocimientos cuyos componentes representan un enfoque cualitativo de la
programación. Muchas personas pueden creer que un Sistema Experto (SE) es un
sistema compuesto por subsistemas y a su vez estos por otros subsistemas hasta
llegar a los programas, y que los se miden por la cantidad de programas que
contienen. Sin embargo la cantidad no es lo que prima en los SE, si no la cualidad
del mismo, esta cualidad está dada por la separación de las reglas que describen el
problema (Base de Conocimientos), del programa de control que es quien
selecciona las reglas adecuadas (Motor de inferencias).
Podemos decir que un Sistema Experto es una Base de Conocimientos (BC), una
Base de Hechos (BH) y un Motor (o Máquina) de Inferencias (MI). Por otra parte
estos sistemas no se miden por la cantidad de instrucciones o programas sino por
la cantidad de reglas que hay contenida en su Base de Conocimientos.
A continuación expondremos algunos de los más usados en la actualidad.
4. 4
DRENDRAL
El proyector DENDRAL tuvo sus orígenes en 1965, cuando Feighembaum, tras
instalarse en la Universidad de Stanford, comenzó a trabajar con el profesor Joshua
Lederberg, especializado en Química Molecular. Ambos investigadores, compartían
la misma inquietud: la posibilidad de usar los ordenadores para modelar el
pensamiento científico.
Es un sistema experto que permite resolver la cuestión planteada anteriormente
a través de un proceso de búsqueda de generación y prueba jerárquica que se
divide en tres partes funcionales: plan, generación y prueba. Su base de
conocimientos se desglosa en dos conjuntos de reglas correspondientes a cada una
de las fases de desarrollo del sistema.
J. Lederber realiza la descripción autobiográfica del desarrollo de este sistema. A
lo largo de este documento se distinguen dos fases de diseño bien diferenciadas
que se detallan a continuación:
Primera Fase: Consistía en calcular todos los compuestos que podían dan
lugar al número másico de la molécula inicial, teniendo en cuenta el número
másico de cada uno de los átomos en los que se dividía el compuesto y las
restricciones de valencia. Estas restricciones permitieron podar el árbol de
posibles soluciones rápidamente, reduciendo el coste computacional de la
búsqueda exhaustiva que se estaba realizando.
Segunda Fase Intentaba modelar el procedimiento inferencial del experto
químico para encontrar la estructura molecular de la combinación que se
consideraba solución: representar dicha estructura en forma de grafo.
5. 5
XCON
El programa R1 (luego llamado XCON, por Configurador Experto) era un sistema
de producción basado en reglas escrito en OPS5 por John P. McDermott de CMU
en 1978 para asistir a los pedidos de los sistemas de computadores VAX de DEC
(Digital Equipment Corporation) seleccionando los componentes del sistema de
acuerdo a los requerimientos del cliente. El desarrollo de XCON siguió a dos
fracasos de escribir un sistema experto para esta tarea en FORTRAN y BASIC.
XCON se usó por primera vez en la planta de DEC en Salem, New Hampshire.
Este tenía alrededor de 2500 reglas. Para 1986, había procesado 80000 órdenes y
alcanzaba un 95-98% de precisión. Se estimaba que le ahorraba a DEC 25 millones
de dólares al año reduciendo la necesidad de dar a los clientes componentes
gratuitos cuando los técnicos cometían errores, aumentando la velocidad del
proceso de ensamblaje e incrementando la satisfacción del cliente.
Antes de XCON, cuando se pedía una VAX de DEC, cada cable, conexión y bit
del software tenía que pedirse por separado (las computadoras y periféricos no se
vendían completas en cajas como hoy en día). El personal de ventas no siempre
era experto técnicamente, así que los clientes podían encontrar que tenían
hardware sin los cables correctos, impresoras sin los drivers correctos,
procesadores sin el lenguaje correcto, etc. Esto significaba demoras y provocaba
una gran insatisfacción en el cliente y podía terminar en una acción legal. XCON
interactuó con el personal de Ventas, haciendo preguntas críticas antes de imprimir
una hoja de especificaciones para sistema coherente y efectivo.
El éxito de XCON llevó a DEC a reescribir XCON como XSEL (una versión de
XCON creada para ser usada por el departamento de ventas de DEC para auxiliar
a los clientes a configurar apropiadamente su VAX (así ellos no eligirían una
computadora demasiado grande como para pasar a través de su puerta de entrada
o con gabinetes muy chicos para los componentes). Los problemas de locación y
de configuración todavía eran manejados por otro sistema experto, XSITE.
6. 6
MYCIT
Mycin fue uno de los primeros sistemas expertos que se usaron para diagnosticar
enfermedades en medicina. El sistema podía identificar bacterias que causaban
severas infecciones, tales como la bacteremia y la meningitis. Igualmente, podía
recomendar antibióticos dosificados, basándose en el peso del paciente. El nombre
del programa derivó de los antibióticos que tienen muchas veces el sufijo “mycin”.
El sistema también se usó para diagnosticar enfermedades infecciosas de la sangre.
Mycin se desarrolló por unos cinco o seis años a principios de los años setenta
del siglo pasado, en la Universidad de Stanford. Se escribió en Lisp y fue la
disertación doctoral de Edward Shortliffe, bajo la dirección de Bruce Buchanan,
Stanley N. Cohen y otros.
Curiosamente, Mycin jamás se usó en la práctica. Los resultados del sistema
fueron evaluados y se logró hallar que un 69% de los casos, el sistema daba con la
respuesta adecuada y el diagnóstico correcto, lo cual era mejor que el desempeño
de los expertos en enfermedades infecciosas, quienes fueron juzgados usando el
mismo criterio. Funciona a partir de un esquema de inferencias relativamente
simple, con una base de conocimientos que oscila en unas 600 reglas. El usuario
tiene que responder con “sí” y “no” a las preguntas de Mycin y al final da una lista
de posibles bacterias culpables, que van en un rango de mayor a menor en la
probabilidad del diagnóstico, así como su índice de confiabilidad en la probabilidad
del diagnóstico, la razón por la cual llegó a esas conclusiones y el tratamiento de
drogas que se le debiese dar al enfermo.
Hubo estudios posteriores en donde se mostró que el modelo de factores de
certeza podía ser interpretado en un sentido probabilístico, y así mostrar problemas
con lo que el sistema asume desde un principio dentro del modelo. Sin embargo, la
estructura modular de Mycin demostró ser muy exitosa llevando al desarrollo de
modelos gráficos de redes bayesianas.
7. 7
PROLOG
Prolog es un lenguaje de programación lógica cuya primera versión fue
desarrollada a principios de la década de 1970 por Colmerauer en la universidad de
Marsella. Contrariamente a otros lenguajes de programación basados es
estructuras de control y definición de funciones para calcular resultados, Prolog está
orientado a la especificación de relaciones para responder consultas. En ese sentido
Prolog es similar a un sistema de base de datos, aunque en el contexto de la
inteligencia artificial se prefiere hablar de bases de conocimiento, enfatizando la
complejidad estructural de los datos y de las deducciones que se pueden obtener
de ellos.
Prolog genera soluciones a estas ecuaciones lógicas dándole valores a las
variables. Cuando la consulta no tiene variables, como en los dos primeros casos
del ejemplo anterior, la respuesta es polar (Yes o No). Cuando hay variables, Prolog
entrega la secuencia de soluciones. Para ver la lista de soluciones se debe
presionar ';' (el último No indica que no hay más soluciones). Las variables son
identificadores que empiezan siempre con una letra mayúscula. Los identificadores
con letra inicial minúscula corresponden a nombres de predicados o átomos. La
forma general de una consulta consiste en una secuencia de predicados que deben
ser satisfechos conjuntamente en el orden especificado. Esto permite consultas
complejas similares al join en bases de datos.
Otro aspecto notable de Prolog es que las relaciones pueden establecerse no
sólo entre átomos sino que también entre términos estructurados. Un término es ya
sea un átomo (identificador, número, string, variable) o un nombre de término (o
functor) asociado a una lista de argumentos t(t1,t2,...,tn). Así, cuando se define una
relación entre términos estructurados mediante reglas, lo que en realidad se está
haciendo es definir como se construyen los valores de respuesta a las variables de
la consulta.
8. 8
DIMETER ADVISOR
Dipmeter Advisor (Asesor) fue un sistema experto temprano desarrollado en 1980
por Schlumberger Doll Research para auxiliar en el análisis de los datos
recolectados durante la exploración petrolera.
El Asesor no era simplemente un motor de inferencias y una base de
conocimientos de 90 reglas, sino que era una estación de trabajo completa,
corriendo sobre una máquina Dolphin Lisp de Xerox (o, en general, en un
procesador de información científica de la serie 1100 de Xerox) y escrito en
INTERLISP-D, con una capa de reconocimiento de patrones que era alimentada por
una interfaz gráfica de usuario basada en menús. Fue desarrollado por un grupo de
gente, incluyendo a Reid G. Smith, James D. Baker y Robert L. Young.
Era principalmente influyente, no por un gran salto técnico, sino porque era
bastante exitoso para las divisiones petroleras de Schlumberger y porque fue una
de las poco historia exitosas dentro de la burbuja de la Inteligencia Artificial en recibir
amplia publicidad.
Las reglas de Inteligencia Artificial de Dipmeter Advisor eran principalmente
derivadas de AI Gilreath, un ingeniero de interpretación de Schlumberger que
desarrolló el método de los patrones rojo, verde, azul de la interpretación dipmeter.
Desafortunadamente este método tenía aplicaciones limitadas en entornos
geológicos más complejos fuera de la costa del Golfo, y el Dipmeter Advisor era
principalmente usado dentro de Schlumberger más como una herramienta de
visualización gráfica para asistir en la interpretación de científicos geológicos
entrenados, que como una herramienta de inteligencia artificial para ser usada por
intérpretes novatos. Sin embargo, la herramienta fue un acercamiento pionero a las
estaciones de trabajo con interpretación gráfica de la información geológica.
9. 9
Conclusiones
Un sistema experto puede, sin lugar a dudas, ofrecernos el mismo resultado que
un experto humano, aunque existen ciertas excepciones a dicha regla, puesto que
en lo referente al régimen empresarial, los problemas siempre serán demasiado
específicos. No obstante, es espera que en un futuro inclusive estas excepciones
puedan ser resueltas.
A pesar de todo el avance en el último siglo, aun la inteligencia artificial no es
capaz de resolver problemas complejos que requieran de un concienzudo uso de
sentido común, por lo cual resulta obvio que aunque se les llame expertos, aun les
queda un largo camino por recorrer.
Bibliografía
http://www.uaeh.edu.mx/docencia/Tesis/icbi/licenciatura/documentos/Sistem
as%20expertos%20y%20sus%20aplicaciones.pdf
http://users.dcc.uchile.cl/~abassi/IA/Prolog.html
http://www.it.uc3m.es/jvillena/irc/practicas/estudios/DENDRAL.pdf