1. Precursores De La IA
Yorka M. Perez Feliz
Mat: 11-1157
Materia: Inteligencia Artificial
2. Yorka M. Perez Mat: 11-1157
Materia: IA
Aporte Y Diferencias Entre Fundadores de la IA.
George Boole, En 1849 desarrollo los
principios de la lógica proposicional con
los que pretendía recoger algunos
fundamentos relativos a la naturaleza y a la
constitución de la mente humana. Escribió
una obra llamada “Una investigación sobre
las leyes del pensamiento, sobre las cuales
están fundamentadas las teorías
matemáticas de la lógica y de la
probabilidad”. Él fue el creador de la tabla
de verdad, que aun ahora se utiliza
enormemente es todo el campo matemático
y computacional.
Herbert Simon
Simon propuso la hipótesis del símbolo físico como una forma de representar y modelar
el pensamiento humano. Sobre esta línea se siguió el desarrollo de la Inteligencia
Artificial en su primera etapa. Desafortunadamente después de esta época de gran
crecimiento, las expectativas que se forjaron fueron muy altas. Se empezaron a hacer
proyecciones muy ambiciosas, que debido al nivel tecnológico de esos tiempos fueron
imposibles de implementar
Kurt Gödel, En 1931 considerado el matemático más trascendente del siglo XX,
propuso y comprobó su teorema de incompletitud de la Aritmética; un resultado
filosóficamente revolucionario en todos los ámbitos del conocimiento formal
principalmente en las matemáticas y que vino a dar respuesta a uno de los veintitrés
problemas que el celebre matemático alemán David Hilbert consideró de esencial
importancia para la disciplina su resolución . Para que Gödel lograra y obtuviera dicha
respuesta hizo uso de una herramienta matemática de alta utilidad llamada Recursion;
que básicamente es una expresión en un lenguaje formal que a partir de una operación
define otra, haciendo necesaria así una función original para crear las demás.
Alan Turing y Alonzo Church fueron matemáticos anglos que hoy son reconocidos
como los padres de la teoría formal de algoritmos por sus aportaciones teóricas en lo
que a algoritmos (procesos recursivos) incumbe. Pero no fue hasta los trabajos de Gödel
que Turing y Church tuvieron suficientes bases teóricas para desarrollar un teoría de la
computación robusta y útil, la clave era la recursion. Es de notable importancia enfatizar
que Gödel no pretendía fundamentar la computación (en 1931 físicamente inexistente),
sino las matemáticas. Pero en su trabajo se hacía uso de conceptos jamás antes
utilizados que resultaron altamente útiles para la computación.
3. Yorka M. Perez Mat: 11-1157
Materia: IA
Contrariamente a Gödel,Turing y Church buscaban crear bases teóricas suficientes
para que décadas después se consagrara el sueño del siglo XIX llamado computadora.
No obstante en la década de los treinta Turing ya había inventado la primer
“computadora” en la historia, la denominada máquina de Turing, que es un dispositivo
teórico creada por el mismo Alan que su única función es operar algoritmos
denominados Turing-Computables, lo interesante de este hallazgo es que las
computadoras de hoy en día llevan acabo procesos Turing-Computables. En pocas
palabras Turing inventó la computadora más poderosa jamás creada, ya que todas los
procesos en una computadora son lógicamente reduicíbles a un algoritmo Turing-
Computable.
Una de las conclusiones más relevantes obtenidas del modelo computacional de Turing
es los puntos en los que se entrelaza con el teorema de Gödel. Ya que ambos hablan
básicamente de lo mismo, formalismo. De hecho es importante mencionar que el mismo
Turing pulió la demostración del teorema de incompletitud de Gödel, al punto en que la
demostración dada por Turing es la que se suele estudiar en las academias hoy en día.
El Teorema de Gödel en resumidas cuentas dice que las matemáticas no pueden
reducirse al Formalismo; ósea al lenguaje formal. En otras palabra que no importa como
pretenda formalizar la Aritmética siempre se me escaparan verdades aritméticas
(matemáticas). Esto se traduce de manera análoga a las máquinas de Turing, es decir; no
importa lo avanzado del diseño de una computadora siempre existirán enunciados
formales (algoritmos) que no se puedan resolver. Es decir que existen funciones bien
definidas en el lenguaje de la computadora que no podrá llevar acabo; por la misma
razón que al lenguaje formal se le escapan verdades matemáticas.
Estos resultados dejan interpretaciones muy interesantes sobre el alcance de la
inteligencia artificial, haciendo que el hombre se reconcilie con su intelecto. Ya que a
inicios del siglo pasado se creía que las computadoras sustituirían la labor matemática
en el mundo; y con ello la mayor parte del conocimiento científico. Pero los resultado
de Gödel y Turing arrojan que los matemáticos todavía tienen una labor que hacer y
pareciera matemáticamente imposible que un autómata los releve de su labor.
Warren McCulloch
(1927). Después de trabajar varios años en el Bellevue Hospital de Nueva York, inició
su actividad académica en el laboratorio de neurofisiología de la Universidad de Yale
(1934-41), donde trabaja con Dusser de Barenne, y, posteriormente, en el departamento
de psiquiatría de la Universidad de Illinois en Chicago (1941-52), período en el trabaja
con Walter Pitts. En 1952, se incorporó al laboratorio de investigaciones electrónicas
del MIT, donde investigó acerca de un modelo de red neuronal destinado a examinar el
sistema de percepción visual en el ojo de la rana y el procesamiento de la información
en el cerebro. Fundador de la American Society for Cybernetics, de la que fue su primer
presidente (1967-68).
4. Yorka M. Perez Mat: 11-1157
Materia: IA
De izquierda a derecha, W.Ross Ashby, Warren
McCulloch, Grey Walter y Norbert Wiener en
París. (P. de Latil, Thinking By Machine, 1956).
Con Walter Pitts publica "A Logical Calculus of the Ideas Immanent in Nervous
Activity" (1943) y "How We Know Universals: The Perception of Auditory and Visual
Forms" (1947), ambos trabajos en el Bulletin of Mathematical Biophysics, que se
convertirán en la base teórica para el conocimiento de las redes neuronales, la
computación, la cibernética y la inteligencia artificial. Sus planteamientos, probados en
modelizaciones neuronales computarizadas en el MIT, reconstruyeron la actividad
cerebral y sirvieron para abrir todo un espacio de hipótesis acerca de la creación de
máquinas inteligentes -Turing le calificó de "charlatan"- y de lo que, en base a estas
ideas, Norbert Wiener denominó ‘cibernética’. El trabajo de McCulloch está en el
origen de los desarrollos de la neurofisiología de los procesos cognitivos, el
constructivismo radical y de la biología del conocimiento de Maturana y Varela, entre
otros.
Uno no menos reconocido fue, Gottlob Frebe y su lógica de primer orden, quien
extendió la lógica empleada por Boole para incluir objetos y relaciones entre ellos.
Actualmente lógica de primer orden se utiliza como el sistema más básica de
respresentación del conocimiento, también se tiene la contribución de la teoría de
referencia de Alfred Tarski, quien explica como relacionar objetos de una lógica con
objetos del mundo real. Con las bases establecidas se pasó a definir los límites de lo que
se podía hacer con la lógica y la informática.
Con esta nueva concepción de objetos se introduce lo que
se piensa es el primer algoritmo no trivial por parte
de Euclídeo. Cabe señalar que en matemáticas el término
trivial se usa frecuentemente para los objetos que tienen
una estructura simple o bien para referirse a una opción o
caso poco interesante pero que debe mencionarse para
complementar (como un axioma o un conjunto vacío).
Aunque se refiere a la Persia del siglo IX y a Al-
Khorwarazmi como de los primeros matemáticos en usar a
los algoritmos como objetos.
5. Yorka M. Perez Mat: 11-1157
Materia: IA
Los esfuerzos de matemáticos como Boole aportaron los primeros algoritmos para
llevar acabo deducciones lógicas, todo para formalizar el razonamiento matemático,
esto es lógica deductiva.
Entscheidungsproblem (Problema de decisión) propuesto entre los 23 problemas
por David Hilbert, fue un reto de lógica simbólica para encontrar un algoritmo general
que decidiera si una fórmula del cálculo de primer orden es un teorema. Un poco más
tarde Alonzo Church Y Alan Turing, demostraron que ese imposible escribir tal
algoritmo. Esto respondía a la icognita de Hilbert sobre si hay límites fundamentales en
la capacidad de los procedimientos efectivos de demostración. Por lo tanto existen
límites reales, demostrado por Kurt Gödel en 1930 para la lógica de primer orden con
su famoso teorema de la incompletitud.
En cualquier formalización consistente de las matemáticas que sea lo bastante fuerte
para definir el concepto de números naturales, se puede construir una afirmación que ni
se puede demostrar ni se puede refutar dentro de ese sistema. Kurt Gödel .
Estas contribuciones afectaban en gran medida a la tesis de Church-Turing, donde se
afirma que la máquina de Turing es capaz de calcular cualquier función computable,
aunque esto aceptado de forma generalizada, se sabe que de las interpretaciones
anteriores por Gödel, que existen algunas funciones de los números enteros que no se
pueden representar mediante un algoritmo. ¿Realmente es todo el pensamiento
computable? ¿Puede ser todo ello expresado bajo un algoritmo entendible?
Esto nos lleva al camino de la intratabilidad representada en la Complejidad
computacional que estudia la complejidad inherente a la resolución de un programa
computable. Los recursos más estudiados son: el tiempo y el espacio, que miden el
tiempo ejecución de un código y la memoria que ocupa. Entonces la intratabilidad que
en términos generales se dice de aquellos problemas intratables cuando el tiempo
necesario para la resolución de casos particulares de dicho problema crece
exponencialmente con el tamaño de dichos casos, por ejemplo la deducción del camino
a tomar cuando las opciones son demasiadas, no siempre se escoge la más eficiente.
Estas diferencias entre el crecimiento polinomial y exponencial fue presentado en los 60
por Cobham y Edmonds.
Los problemas grandes, considerando el entorno de ejecución, pueden ser intratables y
por consiguiente es mejor dividirlos en subproblemas, muy a acorde a como funcionan
algunas soluciones como @SETI que buscan encontrar vida extreterrestre analizando
paquetes que son tratados de forma individual por un sin número de personas que donan
tiempo de CPU.
En los 70′s Steven Cook y Richard Karp demostraron la existencia de grandes clases
de problemas que implican sobre todo razonamiento y búsqueda combinatoria canónica
que son NP-completos, de ahí nace la teoría de la NP-completitud. Un ejemplo de ello
en teoría de grafos es el isoformismo de grafos: Dos grafos son isomorfos si se puede
transformar uno en el otro simplemente renombrando los vértices.
6. Yorka M. Perez Mat: 11-1157
Materia: IA
Se remonta al optimismo de los primeros computadores y las falacias de la prensa al
pronunciar a las primeras computadoras como ¡Súper cerebros electrónicos que eran
más rápidos que Einstein!, aunque no alcanzamos esos niveles, en la I.A. los sistemas
inteligentes se caracterizan por el uso apropiado de los recursos, el conocimiento
general de las cosas convierte al mundo en un ejemplo de problema extremadamente
grande. Unos problemas conllevan a tener cierto espectro del conocimiento humano que
bajo los dispositivos actuales sería complicado de obtener resultados satisfactorios
cuando se trabaja con problemas NP-completitud puesto que no hay suficiente memoria
y el tiempo es excesivo si lo comparamos con lo bien administrado en cuanto a recursos
es el cerebro.
El trabajo de Turing, quien falleció prematuramente, fue continuado en los Estados
Unidos por John Von Neumann durante la década de los cincuentas. Su contribución
central fue la idea de que las computadoras deberían diseñarse tomando como modelo al
cerebro humano. Von Neumann fue el primero en "antropomorfizar" el lenguaje y la
concepción de la computación al hablar de la "memoria", los "sensores", etc., de las
computadoras. Construyó una serie de máquinas utilizando lo que a principios de los
cincuentas se conocía sobre el cerebro humano, y diseñó los primeros programas
almacenados en la memoria de una computadora.
Sin embargo, esta línea de investigación pronto encontró serias limitaciones. La
concentración en la imitación de la constitución físico-química del cerebro, no permitió
ver, a Von Neumann y sus seguidores, que la analogía sería mucho más eficiente si se
estudiaran las funciones del cerebro, es decir, sus capacidades como procesador de
información.