SlideShare una empresa de Scribd logo
1 de 57
Descargar para leer sin conexión
Historia de la inteligencia artificial y características1
Ms. Ing. Jairo E. Márquez D.
La Inteligencia Artificial surge a partir de algunos trabajos publicados en la década de
1940, los cuales no tuvieron gran repercusión, pero a partir del influyente trabajo en 1950
de Alan Turing, matemático británico, se abre una nueva disciplina de las ciencias de la
información.
Si bien las ideas fundamentales se
remontan a la lógica y algoritmos de los
griegos, y a las matemáticas de los árabes,
varios siglos antes de Cristo, el concepto
de obtener razonamiento artificial aparece
en el siglo XIV. A finales del siglo XIX se
obtienen lógicas formales suficientemente
poderosas y a mediados del siglo XX, se
obtienen máquinas capaces de hacer uso de
tales lógicas y algoritmos de solución.
Entonces, ¿qué es la inteligencia artificial?
- Es el nuevo y excitante esfuerzo de hacer que los computadores piensen…
máquinas con mentes, en el más amplio sentido literal. (Haugeland, 1985).
- El estudio de los cálculos que hacen posible percibir, razonar y actuar. (Winston,
1992).
- El arte de desarrollar máquinas con capacidad para realizar funciones que cuando
son realizadas por personas requieren de inteligencia. (Kurzweil, 1990).
- Es el resultado de combinar distintas áreas (ciencias) con el propósito de crear
máquinas que puedan (inteligencia). (Grupo 13).
- El estudio de como hacer computadoras que hagan cosas que, de momento, la gente
hace mejor. (Rich y Knight, 1991).
- Un campo de estudio que busca explicar y emular el comportamiento inteligente en
términos de procesos computacionales. (Schalkoff, 1990).
- El estudio de las facultades mentales a través del estudio de modelos
computacionales. (Charniak y McDermott, 1985)
Estos conceptos confluyen a lo que se puede definir como Máquina inteligente; la cual es
toda aquella que toma una decisión o piensa, producto de deducir de la información que
dispone en su memoria. En otras palabras, lo que deduce no se encuentra exactamente igual
en la memoria, sino que se toma información que fue almacenada anteriormente para
1
Fuente de consulta. Historia de la inteligencia artificial.
http://es.wikipedia.org/wiki/Historia_de_la_inteligencia_artificial [En línea] Consultado el 18 de noviembre
de 2011. Modificado y/o adaptado por el autor.
realizar una deducción. Por consiguiente, se infiere que la IA a diferencia de los sistemas
operacionales presenta ciertos elementos que la distinguen, como son:
Los sistemas operacionales se caracterizan por:
- Pensar el algoritmo para luego programarlo.
- Procesamiento de datos mayormente.
- Solo acepta la mejor solución posible.
Para el caso de la IA:
- Busca la información necesaria para solucionar un problema.
- Procesamiento de conocimiento.
- Acepta una respuesta o solución viable.
La Inteligencia Artificial comenzó como el
resultado de la investigación en psicología
cognitiva y lógica matemática. Se ha enfocado
sobre la explicación del trabajo mental
y construcción de algoritmos de solución
a problemas de propósito general. Punto de vista
que favorece la abstracción y la generalidad.
La Inteligencia Artificial es una combinación
de la ciencia del computador, fisiología y
filosofía, tan general y amplio como eso, es que
reúne varios campos (robótica, sistemas
expertos, por ejemplo), todos los cuales tienen
en común la creación de máquinas que pueden
"pensar".
Trabajos teóricos fundamentales fueron el desarrollo de algoritmos matemáticos por
Warren McCullock y Walter Pitts, en 1943, necesarios para posibilitar el trabajo de
clasificación, o funcionamiento en sentido general, de una red neuronal. En 1949 Donald
Hebb desarrolló un algoritmo de aprendizaje para dichas redes neuronalescreando, en
conjunto con los trabajos de McCullock y Pitts, la escuela creacionista. Esta escuela se
considera hoy como el origen de la Inteligencia Artificial, sin embargo se trató poco por
muchos años, dando paso al razonamiento simbólico basado en reglas de producción, lo
que se conoce como sistemas expertos.
Características de la Inteligencia Artificial2
1. Una característica fundamental que distingue a los métodos de Inteligencia
Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque
2
Fuente. Neurociencia y Realidad virtual. http://neurocienciaeia.blogspot.com/ [On line] Consultado el 20 de
julio de 2012.
no es suficiente para distinguirlo completamente. Otros tipos de programas como
los compiladores y sistemas de bases de datos, también procesan símbolos y no se
considera que usen técnicas de Inteligencia Artificial.
2. El comportamiento de los programas no es descrito explícitamente por el algoritmo.
La secuencia de pasos seguidos por el programa es influenciado por el problema
particular presente. El programa especifica cómo encontrar la secuencia de pasos
necesarios para resolver un problema dado.
3. Estos programas incorporan factores y relaciones del mundo real y del ámbito
del conocimiento en que ellos operan.
4. Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia
Artificial los programas no pueden trabajar con este tipo de problemas.
Heurística e Inteligencia Artificial3
La heurística se trata del arte de innovar, de visualizar en el diseño, de concebir nuevas
ideas, de hacer descubrimientos o logros, también es la capacidad de un sistema para
realizar de forma inmediata innovaciones positivas para sus fines. La capacidad heurística
es un rasgo característico de los humanos, desde cuyo punto de vista puede describirse
como el arte y la ciencia del descubrimiento y de la invención o de resolver problemas
mediante la creatividad y el pensamiento lateral o pensamiento divergente.
Los procesos que se llevan a cabo en el cerebro pueden ser analizados, a un nivel de
abstracción dado, como procesos computacionales de algún tipo.
En cierto sentido, el enfoque heurístico es el característico de la IA. Newell y Simon
asociaban el "método de búsqueda heurística" con el tipo de representación de soluciones
3
Heurística e Inteligencia Artificial. Revista. Hiperenciclopedica de Divulgación del saber. Año 2006. Vol. 5,
némuro 4. Octubre a diciembre de 2011.
parciales. Nosotros nos vamos a limitar a explicar qué significa el término "heurística" en el
ámbito de la inteligencia artificial.
Desde el inicio de la IA, el término "heurística" osciló entre dos sentidos fundamentales
vinculados a la utilización de información del dominio de problemas (con el fin de hacer
una búsqueda más eficiente) y a la imposibilidad de garantizar encontrar la solución de un
problema.
Estas definiciones se refieren, a dos conjuntos diferentes de métodos: dispositivos que
mejoran la eficiencia y dispositivos que no garantizan obtener un resultado. El paradigma
metaheurístico consiste en una familia de métodos de búsqueda que comenzó a
desarrollarse con ese nombre a partir de la década del 80. Estrictamente no se lo considera
un paradigma sino simplemente un conjunto de métodos o herramientas de búsqueda, pero
es posible que tarde o temprano entre en esta categoría. Osman y Kelly (1996) describen la
metaheurística del siguiente modo: "Estas familias de enfoques incluyen pero no se limitan
a procedimientos adaptativos aleatorios golosos, algoritmos genéticos, búsqueda de umbral
y sus híbridos. Incorporan conceptos basados en la evolución biológica, la resolución
inteligente de problemas, las ciencias matemáticas y físicas, el estudio del sistema nervioso
y la mecánica estadística". Un poco más adelante los autores describen a la disciplina de la
siguiente forma: "Las metaheurísticas son una clase de métodos aproximados, que están
diseñados para atacar problemas de optimización combinatoria difíciles para los que las
heurísticas clásicas fracasaron en ser efectivas y eficientes. Las metaheurísticas
proporcionan marcos generales que permiten crear nuevos híbridos combinando diferentes
conceptos de: heurísticas clásicas; inteligencia artificial; evolución biológica; sistemas
neuronales y mecánica estadística".
Finalmente, Osman y Kelly comentan: "Debe notarse que existen convergencias teóricas
para algunas de las metaheurísticas bajo algunos supuestos. Sin embargo, estos supuestos
no pueden satisfacerse o aproximarse en la mayoría de las aplicaciones prácticas. Por lo
tanto, se pierde la capacidad para demostrar optimalidad y se obtienen soluciones
aproximadas. A pesar de este inconveniente, las metaheurísticas han sido altamente
exitosas en encontrar soluciones óptimas o cuasi óptimas en muchas aplicaciones prácticas
de optimizaciones en diversas áreas, más que sus heurísticas subordinadas".
Yagiura e Ibaraki (1996) mencionan la combinación de herramientas heurísticas en marcos
más sofisticados como característica distintiva de las metaheurísticas y consideran que dos
de sus propiedades atractivas son la simplicidad y la robustez.
Finalmente y para que conste la estrecha relación entre heurística e inteligencia artificial
presentamos algunas definiciones clásicas de Inteligencia Artificial:
 Systems that can demonstrate human-like reasoning capability to enhance the quality of
life and improve business competitiveness. (Japan-S’pore AI Centre)
 La Inteligencia Artificial es el estudio de técnicas de resolución de problemas con
complejidad exponencial a partir del conocimiento del campo de aplicación del
problema. (Rich)
Tipos de algoritmos Heurísticos
En una primera clasificación podemos decir que los algoritmos heurísticos pueden ser
simples o complejos. Los algoritmos simples tienden a tener reglas de terminación bien
definidas, y se detienen en un óptimo local, mientras que los algoritmos más complejos
pueden no tener reglas de terminación estándar, y buscan soluciones mejores hasta alcanzar
un punto de parada arbitrario.
Dentro de los algoritmos heurísticos complejos podemos hacer una segunda clasificación,
esta vez orientada a la funcionalidad de los mismos. En primer lugar podemos encontrarnos
con algoritmos que fueron diseñados para dar solución a problemas de búsqueda de
óptimos o clasificación y por otro lado tenemos los algoritmos que tratan de deducir
conocimiento a partir de un conjunto de axiomas, estos últimos conocidos como sistemas
basados en el conocimiento.
Entre los algoritmos de búsqueda de óptimos se encuentran los siguientes métodos:
 Búsqueda Tabú
 Temple Simulado
 Algoritmos Genéticos
 Redes Neuronales
 Agentes inteligentes
Los sistemas basados en el conocimiento definen un área muy concreta dentro de la
inteligencia artificial, conocida como Ingeniería del conocimiento. Los sistemas
desarrollados en este campo siguen un patrón heurístico similar al razonamiento humano.
Búsqueda Tabú
La búsqueda tabú es un procedimiento o estrategia dado a conocer en los trabajos de
Glover, y que esta teniendo grandes éxitos y mucha aceptación en los últimos años. Según
su creador, es un procedimiento que "explora el espacio de soluciones más allá del óptimo
local", (Glover y Laguna). Se permiten cambios hacia arriba o que empeoran la solución,
una vez que se llega a un óptimo local. Simultáneamente los últimos movimientos se
califican como tabús durante las siguientes iteraciones para evitar que se vuelvan a
soluciones anteriores y el algoritmo cicle. El término tabú hace referencia a un tipo de
inhibición a algo debido a connotaciones culturales o históricas y que puede ser superada en
determinadas condiciones. (Glover).
Temple Simulado
El uso del temple simulado en problemas
de Optimización se ha extendido desde
mediados de los ochenta hasta ahora, a
partir de los trabajos de Kirpatrick, Gelatt
& Vecchi. Los algoritmos Temple
Simulado están basados en una estrecha
analogía entre los procesos físicos
termodinámicos y los elementos de un
problema de optimización combinatoria.
Aunque asintóticamente estos algoritmos
se comportan como exactos, (un análisis
exhaustivo de esta afirmación se puede
encontrar en el trabajo de Aarts & Korst),
en la práctica se diseñan como heurísticos.
El campo de aplicaciones se ha extendido
durante estos años. En problemas de rutas
destacan las aportaciones de Osman, para
el VRP; y Aarts y otros, para el problema
del viajante de comercio.
Algoritmos Genéticos
En los años setenta, de la mano de John Holland surgió una de las líneas más prometedoras
de la inteligencia artificial, la de los algoritmos genéticos. Son llamados así porque se
inspiran en la evolución biológica y su base genético-molecular. Estos algoritmos hacen
evolucionar una población de individuos sometiéndola a acciones aleatorias semejantes a
las que actúan en la evolución biológica (mutaciones y recombinación genética), así como
también a una selección de acuerdo con algún criterio, en función del cual se decide cuáles
son los individuos más adaptados, que sobreviven, y cuáles los menos aptos, que son
descartados.
Redes Neuronales
En inteligencia artificial las redes de neuronas artificiales (RNA) son un ejemplo de
aprendizaje y procesamiento automático basado en el funcionamiento del sistema nervioso
animal. Se trata de simular el comportamiento observado en las redes neuronales biológicas
a través de modelos matemáticos mediante mecanismos artificiales (circuitos integrados,
ordenadores...). Con las RNA se pretende conseguir que las máquinas den repuestas
similares a las del cerebro humano, caracterizadas por su generalización y robustez.
Sistemas expertos
Los sistemas expertos se basan en simular el razonamiento humano con un doble interés: en
primer lugar el del analizar el razonamiento de un experto en la materia para poder
codificarlo con la ayuda de un determinado lenguaje informático; por otra parte, la síntesis
artificial de los razonamientos para que se parezcan a los del experto humano en la
resolución de un determinado problema. Estos dos intereses han hecho que los
investigadores del campo de la IA intenten establecer una metodología que les permita
verificar la "comunicación" con los expertos y separar los distintos tipos de razonamiento
(formal, deductivo, inductivo...), además de construir los elementos necesarios para
modelizarlos.
Mientras que en la programación clásica se diferencia solamente entre el programa y los
datos, en los sistemas expertos se diferencian tres componentes:
 Una base de conocimientos
 Una base de hechos
 Un motor de inferencia
La base de conocimientos
almacena toda la información
específica relativa al campo de
conocimiento deseado. Para ello se
hace uso de un lenguaje específico
para representar los conocimientos
y que permite definir al experto su
propio vocabulario técnico.
En la base de hechos se encuentran
los datos relativos a los problemas
que se quieren resolver con la
ayuda del sistema. La memoria de
trabajo almacena los resultados
intermedios, pudiendo guardar el rastro de las inferencias realizadas. Es por eso que puede
utilizarse para explicar la forma en la que el sistema ha deducido la información durante
una sesión de trabajo o describir el comportamiento del propio sistema. Al comienzo del
período de trabajo, en la base de hechos sólo se encuentran los datos introducidos por el
usuario del sistema, pero a medida que actúa el motor de inferencia, almacena las
inducciones y deducciones que ha llevado a cabo el sistema para conseguir las
conclusiones.
El motor de inferencia, es un programa que a partir del "conocimiento" puede resolver el
problema especificado. Esto se consigue gracias a los datos de la base de hechos del
sistema. Por lo general, las reglas de la base de conocimiento son silogismos demostrativos
(si A es cierto entonces deducimos B). En este caso, el motor de inferencias selecciona,
valida y activa las reglas que permiten obtener la solución correspondiente al problema en
cuestión.
Existen dos tipos de motor de inferencia: los que emplean el razonamiento aproximado
(cuyo resultado puede ser erróneo) y los que usan un tipo de razonamiento a partir del que
se puede obtener resultado verdadero.
Los elementos básicos de todo sistema experto son:
1. Base de conocimientos: diseñada a partir del conocimiento de un experto o
grupo de expertos humanos, está formada por reglas de validez general,
distribuciones de probabilidad,...
2. Motor de inferencia: sistema de procesamiento lógico o probabilístico que
permite obtener unas conclusiones a partir de unos datos.
3. Interface de usuario: medio de comunicación entre el usuario y la máquina.
A través de la interface el sistema solicita datos al usuario y le muestra las
conclusiones obtenidas.
4. Subsistema de adquisición de conocimiento: controla la forma en la que
nuevo conocimiento es incorporado a la base de conocimientos.
5. Subsistema de explicación: se encarga de justificar las conclusiones
obtenidas.
Esquema de funcionamiento de un sistema experto
Agentes inteligentes
En los últimos años, dentro de la Inteligencia Artificial se están dedicando importantes
esfuerzos a la construcción de programas conocidos como agentes inteligentes. Se trata de
programas capaces de llegar a averiguar los gustos o preferencias del usuario y adaptarse a
ellos. Aunque son muchos los posibles usos, uno de los más destacados es la búsqueda de
información en Internet. En la red pueden encontrarse ya programas que son capaces de
llegar a identificar los temas de interés de un usuario particular a partir de las búsquedas
que habitualmente realiza, una vez identificados esos temas pueden actuar como filtros,
mostrando al usuario únicamente la información que le pueda resultar relevante, o
informando automáticamente de la aparición de nuevas páginas sobre sus temas de interés.
(Cobo O. Ángel).
Introducción a la verificación en la ingeniería del conocimiento.
Al igual que la ingeniería del software, la ingeniería del conocimiento cuenta entre sus
fases con una destinada a la evaluación del sistema desarrollado.
Fases habituales en la ingeniería del conocimiento:
1. Estudio de viabilidad
2. Adquisición del conocimiento
3. Conceptualización (análisis)
4. Formalización (diseño)
5. Implementación
6. Evaluación
La fase de evaluación en la ingeniería del conocimiento se caracteriza por los siguientes
aspectos a tener en cuenta
 Verificación
 Sintaxis y estructura adecuada (no redundante, completa, consistente)
 Se realiza en modelos conceptuales, formales y computables
 Validación
 Semántica adecuada [experto]
 Se realiza en modelos conceptuales, formales y computables
Por lo tanto podemos considerar como un proceso fundamental en la evaluación de
"software inteligente" la creación de modelos matemáticos.
Modelos Matemáticos
Una de las fases del método heurístico se
basa en construir modelos. Aunque
existen muchas definiciones de modelo,
una de las más interesantes es la de Aracil: "Un modelo constituye una representación
abstracta de un cierto aspecto de la realidad, y tiene una estructura que está formada por los
elementos que caracterizan el aspecto de la realidad modelada y por las relaciones entre
estos elementos".
Nosotros estamos interesados en modelos formales basados en la lógica matemática, y estos
están basados en un conjunto de relaciones matemáticas (relaciones lógicas, ecuaciones,
inecuaciones, etc.) que representan las relaciones existentes en el mundo real. Un modelo
queda por lo tanto definido por las relaciones que contiene.
Podemos clasificar los modelos matemáticos según su función:
 Modelos predictivos: Son aquellos que nos informan sobre el comportamiento de la
variable en el futuro, esto es, lo que debería ser. Los modelos basados en técnicas
estadísticas se corresponden con este tipo.
 Modelos evaluativos: Se basan en medir las diferentes alternativas para comparar los
resultados de ellas. Este es el caso de los árboles de decisión.
 Modelos de optimización: Estos modelos tratan de localizar un optimo del problema
(generalmente el óptimo global), es decir, buscan la mejor alternativa posible. Están
basados en técnicas de programación matemática.
Una vez se ha mostrado una breve clasificación de los modelos, es necesario aportar una
medida de su solución, puesto que el objetivo de definir un modelo es, resolverlo
"cómodamente" y extraer los resultados necesarios para tomar alguna decisión.
La resolubilidad de los problemas depende de tres características:
1. El tamaño del problema: La variables y ecuaciones que contiene. para un mayor
número de éstas resultará más difícil resolver el problema.
2. El tipo del problema: entero, lineal y no lineal. Los problemas lineales son "fáciles"
de resolver, mientras que los no lineales son muy difíciles.
3. El tipo de instancias: Deterministas o ciertas, con riesgo (conociendo la
probabilidad de ocurrencia), con incertidumbre (se conocen los posibles resultados
pero no la probabilidad de que ocurran) y turbulencia (no conocemos ninguna
cosa).
Punto de inflexión de la disciplina
En su histórico artículo de 1950, Turing propuso que la pregunta «¿puede pensar una
máquina?» era demasiado filosófica para tener valor y, para hacerlo más concreto, propuso
un «juego de imitación». En la prueba de Turing intervienen dos personas y un
computadora. Una persona, el interrogador, se sienta en una sala y teclea preguntas en la
terminal de una computadora. Cuando aparecen las respuestas en la terminal, el
interrogador intenta determinar si fueron hechas por otra persona o por una computadora. Si
actúa de manera inteligente, según Turing es inteligente. Turing, señaló que una máquina
podría fracasar y aún ser inteligente. Aun así creía que las máquinas podrían superar la
prueba a finales del siglo XX.
De todas maneras esta prueba no tuvo el valor práctico que se esperaba, aunque sus
repercusiones teóricas son fundamentales. El enfoque de Turing de ver a la inteligencia
artificial como una imitación del comportamiento humano no fue tan práctico a lo largo
del tiempo y el enfoque dominante ha sido el del comportamiento racional, de manera
similar, en el campo de la aeronáutica se dejó de lado el enfoque de tratar de imitar a los
pájaros y se tomó el enfoque de comprender las reglas de aerodinámica. Aunque desde
luego, el enfoque del comportamiento humano y el del pensamiento humano siguen
siendo estudiados por las ciencias cognitivas4
y continúan aportando interesantes resultados
a la Inteligencia Artificial, y viceversa.
Disciplinas sobre las que se apoya
La ciencia no se define, sino que se reconoce. Para la evolución de la Inteligencia Artificial
las dos fuerzas más importantes fueron la lógica matemática, la cual se desarrolla
rápidamente a finales del siglo XIX, y las nuevas ideas acerca de computación y los
avances en electrónica que permitieron la construcción de los primeros computadores en
1940. También son fuente de la inteligencia artificial: la filosofía, la neurociencia y la
lingüística. La lógica matemática ha continuando siendo un área muy activa en la
inteligencia artificial. Incluso antes de la existencia de los ordenadores con los sistemas
lógicos deductivos.
4
Se denomina ciencia cognitiva al estudio interdisciplinario de cómo la información es representada y
transformada en la mente/cerebro. Es el conjunto de disciplinas que surgen de la convergencia
transdisciplinaria de investigaciones científicas y tecnológicas, en torno a los fenómenos funcionales y
emergentes, dados a partir de las actividades neurofisiológicas del encéfalo y del sistema nervioso,
incorporados, y que típicamente se les denomina como: mente y comportamiento.
La naturaleza de las investigaciones cognitivas es necesariamente transdisciplinaria (es decir, tanto inter como
multidisciplinarias), surgiendo en un primer momento a partir de disciplinas autónomas como la lingüística, la
psicobiología cognitiva y la inteligencia artificial, y añadiéndose en una etapa más reciente la neurociencia y
la antropología cognitiva.
Orígenes y Evolución Cronológica
Antecedentes
Los juegos matemáticos antiguos, como el de
las Torres de Hanói (hacia el 3000 a. C.),
muestran el interés por la búsqueda de un modo
resolutor, capaz de ganar con los mínimos
movimientos posibles.
Cerca de 300 a. C., Aristóteles fue el primero
en describir de manera estructurada un conjunto
de reglas, silogismos, que describen una parte
del funcionamiento de la mente humana y que,
al seguirlas paso a paso, producen conclusiones
racionales a partir de premisas dadas.
En 250 a. C. Ctesibio de Alejandría construyó
la primera máquina autocontrolada, un
regulador del flujo de agua que actuaba
modificando su comportamiento
"racionalmente" (correctamente) pero
claramente sin razonamiento.
En 1315, Ramon Llull tuvo la idea de que el razonamiento podía ser efectuado de manera
artificial.
En 1847 George Boole estableció la lógica proposicional (booleana), mucho más completa
que los silogismos de Aristóteles, pero aún algo poco potente.
En 1879 Gottlob Frege extiende la lógica booleana y obtiene la Lógica de Primer Orden la
cual cuenta con un mayor poder de expresión y es utilizada universalmente en la actualidad.
En 1903 Lee De Forest inventa el triodo, también llamado bulbo o válvula de vacío.
En 1937 Alan Turing publicó un artículo de bastante repercusión sobre los "Números
Calculables", un artículo que estableció las bases teóricas para todas las ciencias de
computación, y que puede considerarse el origen oficial de la informática teórica. En este
artículo introdujo el concepto de Máquina de Turing, una entidad matemática abstracta que
formalizó el concepto de algoritmo y resultó ser la precursora de las computadoras
digitales. Podía conceptualmente leer instrucciones de una cinta de papel perforada y
ejecutar todas las operaciones críticas de un computador. El artículo fijó los límites de las
ciencias de la computación porque demostró que no es posible resolver problemas con
ningún tipo de computador. Con ayuda de su máquina, Turing pudo demostrar que existen
problemas irresolubles, de los que ningún ordenador será capaz de obtener su solución, por
lo que se le considera el padre de la teoría de la computabilidad5
.
En 1940 Alan Turing y su equipo construyeron el primer computador electromecánico y en
1941 Konrad Zuse creó la primera computadora programable y el primer lenguaje de
5
La Teoría de la computabilidad es la parte de la computación que estudia los problemas de decisión que
pueden ser resueltos con un algoritmo o equivalentemente con una máquina de Turing. La teoría de la
computabilidad se interesa a cuatro preguntas:
 ¿Qué problemas puede resolver una máquina de Turing?
 ¿Qué otros formalismos equivalen a las máquinas de Turing?
 ¿Qué problemas requieren máquinas más poderosas?
 ¿Qué problemas requieren máquinas menos poderosas?
La teoría de la complejidad computacional clasifica las funciones computables según el uso que hacen de
diversos recursos en diversos tipos de máquina.
programación de alto nivel Plankalkül. Las máquinas más potentes, aunque con igual
concepto, fueron la ABC y ENIAC.
En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales,
el cual se considera el primer trabajo del campo de inteligencia artificial, aun cuando
todavía no existía el término.
1950´s
En 1950 Turing consolidó el campo de la inteligencia artificial con su artículo Computing
Machinery and Intelligence, en el que propuso una prueba concreta para determinar si una
máquina era inteligente o no, su famosa Prueba de Turing por lo que se le considera el
padre de la Inteligencia Artificial. Años después Turing se convirtió en el adalid que
quienes defendían la posibilidad de emular le pensamiento humano a través de la
computación y fue coautor del primer programa para jugar ajedrez.
En 1951 William Shockley inventa el transistor de unión. El invento hizo posible una nueva
generación de computadoras mucho más rápidas y pequeñas.
Durante este periodo la IA se redujo a una actividad académica poco conocida fuera de los
ambientes especializados. La ambición exagerada en los objetivos planteados se contrapuso
con las limitaciones de la tecnología de la época, lo que conllevaría una desilusión
generalizada al final de estos años, y no solo por estas limitaciones, sobre todo por la
constatación teórica de la imposibilidad de obtener resultados en ciertos casos.
A pesar de esto, se realizaron avances menos ambiciosos, y entre los proyectos más
destacados se encuentran:6
- Logic theorist. (1956). Fue programado por Alan Newell, Herbert Simon y J.C. Shaw y
buscaba las demostraciones de Teoremas Lógicos, es decir, de la forma: supuesto que o
bien X o bien Y es verdadera, y supuesto que Y es falsa, entonces X es verdadera.
En 1956 se acuñó el término "inteligencia artificial" en Dartmouth durante una conferencia
convocada por McCarthy, a la cual asistieron, entre otros, Minsky, Newell y Simon. En esta
conferencia se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo
que provocó el abandono casi total de las investigaciones durante quince años.
- General Problem Solver.(GPS) Este programa intentaba resolver problemas mediante una
técnica que permitiera, dados el objetivo y los medios disponibles, encontrar la manera de
utilizar dichos medios para alcanzar el objetivo (análisis medios-fines), pero solo se pudo
aplicar a algunas tareas muy simples ya que requería gran cantidad de conocimientos sobre
el dominio.
6
Fuente de consulta. Historia e la inteligencia artificial.
http://matap.dmae.upm.es/LE/Divulgacion/IA/ISMAESWEB/historia/historia.htm [On line] Consultado el 20
de julio de 2012.
- Perceptrón. (1958). Fue iniciado por Frank Rosenblatt, con la intención de determinar
algunas de las propiedades fundamentales de los sistemas inteligentes. Rosenblatt creía que
la conducción de la información a través de las redes neuronales tenía un gran componente
aleatorio, y por eso utilizó la teoría de probabilidad. La mejora del Perceptrón hizo que
fuera capaz de distinguir y clasificar patrones muy complejos, y aunque en 1969, Minsky y
Papert con su "Perceptrons: An Introduction to Computational Geometry" pusieron de
manifiesto las limitaciones de este tipo de redes, como el de solucionar problemas que no
sean linealmente separables, el Perceptrón ha servido como base para otros modelos de red
neuronal como la Adaline, o las redes multicapa.
- LISP. (1958). Jhon McCarthy creo el lenguaje de programación de los investigadores de
la IA
- SAINT. (1961) Programa de J. Slagle, que inicia la automatización de la integración
simbólica.
- Geometry Theorem Prover. (1958). Programa desarrollado por IBM para resolver
problemas geométricos.
- Programa para jugar a las damas. (1962). Creado por Samuel, y también desarrollado
por IBM, era capaz de aprender de la experiencia, y corregir sus propios errores para
partidas posteriores. Bernstein logró lo mismo para el ajedrez, pero las quejas de los
accionistas de IBM, al considerar que se estaba gastando su dinero que frivolidades acabo
con estos proyectos.
- Traducción Automática. Tras la II Guerra Mundial, en la que los británicos utilizaron
ordenadores para descifrar códigos secretos nazis, la CIA intento crear un programa que
tradujera casi en el acto cualquier texto de cualquier idioma, pero tras un gran esfuerzo
humano y económico el proyecto resulto un fracaso y se paralizaron todos las
investigaciones lingüísticas financiadas con dinero público. Un ejemplo del resultado de la
traducción del inglés al ruso y luego del ruso al inglés.
Original en ingles: El espíritu es fuerte, pero la carne es débil.
Resultado después de traducir al ruso y luego al inglés: El vodka es bueno, pero el filete
está podrido.
- Micromundos de Bloques. (1963). Tras desistir de los intentos en visión artificial, en los
que se intentaba conectar una cámara a un ordenador y que este describiera lo visto, se
intento llevarlo a cabo con unos objetivos más humildes. Los micromundos son
"representaciones" de laboratorio de la vida real, donde quien interactué con la realidad sea
un ordenador, y así en 1964 se crearon los programas STUDENT y SIR. El primero, creado
por Bobrow, entendía enunciados de problemas algebraicos y respondía a preguntas del
tipo: Juan tiene 10 años más que Pedro que tiene el doble de Luis... Por su parte el SIR
comprendía oraciones sencillas. Ambos funcionaban por "comparación de patrones", es
decir, detectando unas palabras clave en una posición determinada obtenía la información
necesaria.
- ELIZA. (1965) Creado por Weizenbaum, que perfeccionaba al STUDENT y al MIT,
permitiendo cambiar de tema, por ejemplo. ELIZA es un programa de gran importancia
dentro de la IA, pero su forma de entablar una conversación se debe a numerosos "trucos",
como repetir frases cambiando el "yo" por el "tu" o utilizar frases hechas ("ya veo", etc).
Parecía que el ELIZA lograría superar el test de Turing, pero no lo hizo, pues este
programa, en medio de una conversación, intercala frases hechas que un humano no
utilizaría.
- SHAKEY. (1969) Un equipo de investigación de Stanford tuvo la idea de poner ruedas a
un robot. El ejército americano vio en este proyecto la posibilidad de lograr un espía
mecánico, pero su apariencia no pasaba ni mucho menos inadvertida, y se redefinió el
proyecto. Al robot se le llamo Shakey, y se investigo su uso para recibir órdenes y llevar
objetos a determinados sitios, pero el proyecto dejo de ser subvencionado.
- DENTRAL. (1965) También en Stanford, y es el primer sistema experto. Significa árbol
en griego, y permitió a los químicos estudiar las características de un compuesto químico,
ya que hasta entonces su única forma de investigación era tomar hipótesis y compararlas
con los resultados experimentales. El exceso de optimismo, como anunciar con antelación
resultados que luego nunca se conseguirían marcaron hizo mucho mal a la inteligencia
artificial, y así, subestimar la dificultad de los problemas a los que se enfrentaban
desacreditaron mucho a la IA, llegando incluso a perder subvenciones millonarias.
1970 a 19797
Durante este periodo, se inicia la institucionalización de la comunidad científica de la IA,
con el Primer Congreso Internacional de Inteligencia Artificial y la aparición de la primera
revista especializada, Artificial Intelligence. También, se extiende su estudio de los círculos
académicos a centros de investigación y a las universidades, donde se tratan problemas
menos teóricos y se realizan aplicaciones más experimentales, como los sistemas expertos y
la programación lógica.
El exceso de optimismo y sus nefastas consecuencias dieron paso a un replanteamiento de
los objetivos y como consecuencia el tratamiento de problemas más concretos. Se
empezaron a utilizar sistemas expertos, que se basan en la simulación del razonamiento
humano y que supuso un gran avance, los mas destacados son:
- MYCIN (1976) Creado en Stanford por Feigenbaum y Buchanan se trata de un sistema
experto para el diagnóstico de enfermedades infecciosas. Desde los resultados de análisis
de sangre, cultivos bacterianos y otras datos, es capaz de determinar, o al menos sugerir el
microorganismo causante de la infección, y después de esto, recomienda una medicación
que se adaptaba perfectamente a las características del sujeto.
- PROSPECTOR (1978) Sistema experto capaz de encontrar yacimientos de minerales, en
particular cobre y uranio.
7
Ibid.
- XCON (1979) Creado por Jhon McDermott, es el primer sistema experto con aplicaciones
fuera de los ámbitos académicos y de los laboratorios de investigación. Este sistema
permitía configurar todos los ordenadores que DEC iba a sacar al mercado, y que tenían
configuraciones distintas entre sí, evitando de esta manera que los fallos de estos
ordenadores obligaran a arreglarlos uno por uno. Tras un primer fracaso, su posterior
desarrollo logro conseguir los objetivos marcados.
Dentro de la programación lógica se logra uno de los avances mas destacables con la
aparición del lenguaje PROLOG, en 1972 por la Universidad de Marsella. Los éxitos de
estos sistemas expertos animaron a muchas empresas a invertir en IA. Su desarrollo hizo
que estos programas fueran más rentables y así empezaron a sustituir a personas expertas en
determinadas materias.
1980´s
En 1980 la historia se repitió con el desafío japonés de la quinta generación, que dio lugar
al auge de los sistemas expertos pero que no alcanzó muchos de sus objetivos, por lo que
este campo sufrió una nueva interrupción en los años noventa.
En 1980 se crea el sistema experto matemático MAPLE, al que sigue en 1988 el
MATHEMÁTICA. Ambos programas permiten trabajar directamente con expresiones
simbólicas como derivadas, matrices o tensores.
En 1982 se funda el ECCAI (European Coordinating Committee for Artificial Intelligence).
En 1985 la Nasa crea el CLIPS, un generador de sistemas expertos codificado en C. Ese
mismo año se crea un juego de ajedrez que alcanza el nivel de Gran Maestro.
En 1987 Martin Fischles y Oscar Firschein describieron los atributos de un agente
inteligente. Al intentar describir con un mayor ámbito (no sólo la comunicación) los
atributos de un agente inteligente, la IA se ha expandido a muchas áreas que han creado
ramas de investigación enorme y diferenciada. Dichos atributos del agente inteligente son:
1. Tiene actitudes mentales tales como creencias e intenciones.
2. Tiene la capacidad de obtener conocimiento, es decir, aprender.
3. Puede resolver problemas, incluso particionando problemas complejos en otros más
simples.
4. Entiende. Posee la capacidad de crearle sentido, si es posible, a ideas ambiguas o
contradictorias.
5. Planifica, predice consecuencias, evalúa alternativas (como en los juegos de
ajedrez)
6. Conoce los límites de sus propias habilidades y conocimientos.
7. Puede distinguir a pesar de la similitud de las situaciones.
8. Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando
analogías.
9. Puede generalizar.
10. Puede percibir y modelar el mundo exterior.
11. Puede entender y utilizar el lenguaje y sus símbolos.
A finales de los 80 se recuperan los esquemas del Perceptrón para las redes neuronales, y se
empiezan a utilizar los nuevos microordenadores de Apple e IBM, siendo este el fin de las
LISP.
Podemos entonces decir que la IA posee características humanas tales como el aprendizaje,
la adaptación, el razonamiento, la autocorrección, el mejoramiento implícito, y la
percepción modular del mundo. Así, podemos hablar ya no sólo de un objetivo, sino de
muchos, dependiendo del punto de vista o utilidad que pueda encontrarse a la IA.
1990´s
En los 90´s surgen los agentes inteligentes.
“En 1997 se produjo uno de los hechos más
populares relacionado con la IA cuando Deep
Blue logro vencer a Kasparov, pero la industria
japonesa ha ido más alla y primero Honda con
ASIMO, un robot humanoide capaz de andar y
subir escalaras, y luego Sony con su AIBO, un
robot-perro al que se le han programado
emociones e instintos. Sus actos buscan
satisfacer sus deseos, que previamente han sido
generados por sus instintos, si los satisface
estará contento, sino mostrara su enfado hasta
lograr la atención que quiere y la manera con
que el amo responda a estas expresiones de emotividad influirá en su "personalidad". AIBO
puede reconocer hasta 40 voces y puede recordar el nombre que se le de y responder ante
su llamada.
Otros logros de la IA, son por ejemplo el reconocimiento de la voz para reservar billetes de
avión, protección de fraudes de tarjetas de crédito, detección de pequeñas anomalías
invisibles al ojo humano en radiografías, traducción automática de documentos o la
utilización de sistemas expertos en el diagnostico de enfermedades o incluso en el
funcionamiento del trasbordador espacial.”8
2000´s
El programa Artificial Linguistic Internet Computer Entity (A.L.I.C.E.) ganó el premio
Loebner al Chatbot mas humano en 2000, 2001 y 2004, y en 2007 el programa Ultra Hal
Assistant ganó el premio.
2010´s
En la actualidad se está tan lejos de cumplir la famosa prueba de Turing como cuando se
formuló: Existirá Inteligencia Artificial cuando no seamos capaces de distinguir entre un
ser humano y un programa de computadora en una conversación a ciegas. Como anécdota,
8
Ibidem.
muchos de los investigadores sobre IA sostienen que «la inteligencia es un programa capaz
de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro»:
En 2010 el programa Suzette ganó el premio Loebner. Algunos programas de inteligencia
artificial gratuitos son Dr. Abuse, Alice, Paula SG, Virtual woman millenium.
2011
Se crea por parte de investigadores de la Ecole Polytechnique Federale de Lausanne en
Suiza, un sistema que permite identificar y rastrear jugadores de baloncesto. Por ahora se
emplea para telemetría, pero lo que sigue es comentar las peripecias del juego, y otros
como la Formula 1. Ver
http://www.youtube.com/watch?feature=player_embedded&v=ZgbCZgXRRkY
SmartBird: Creado por Festo, este robot vuela como un ave. Ver
http://www.youtube.com/watch?feature=player_embedded&v=nnR8fDW3Ilo#!
Chatbot: El laboratorio Creative Machines de Cornell en los EE. UU diseñó este
experimento en el que dos IA conversaron de forma fluida. Ver
http://www.youtube.com/watch?feature=player_embedded&v=WnzlbyTZsQY
ASIMO. Este robot de Honda, ha venido evolucionando a lo largo de los años, en la que
hasta el 2011 ya este sistema reconoce voces en una conversación. Ver
http://www.youtube.com/watch?feature=player_embedded&v=MTtWETnWfHo#!
Robot Flexible. Científicos de Harvard mostraron el prototipo de un robot flexible, hecho
de materiales blandos, que le permite reconfigurar su estructura morfológica, de tal manera
que le permite obviar obstáculo. Ver
http://www.youtube.com/watch?feature=player_embedded&v=Z19OZUQV20E
Swarmanoid: Es la creación de varios robots actuando de forma colectiva. En la que unos
se especializan en la manipulación de objetos y la escalada, algunos se mueven en el suelo
y trasportan objetos, otros vuelan y observan el entorno desde lo alto. Este video presenta
este sistema cordianado por Marco Dorigo, financiado por la Comisión Europea. Ver
http://www.youtube.com/watch?feature=player_embedded&v=M2nn1X9Xlps
Otros proyectos que vale la pena mencionar son:
- Un equipo de neurocientíficos españoles ha desarrollado una interfaz cerebro-
ordenador basada en un teléfono móvil. Las personas con movilidad reducida
podrían beneficiarse de este innovador sistema en un futuro próximo. En el
experimento que aparece en la fotografía de portada, el participante utiliza
únicamente su pensamiento para marcar un número de teléfono.
- Supercomputador Watson: IBM desarrolló una supercomputadora llamada Watson ,
la cual ganó una ronda de tres juegos seguidos de Jeopardy9
, venciendo a sus dos
máximos campeones, y ganando un premio de 1 millón de dólares que IBM luego
donó a obras de caridad
2012
Científicos de un proyecto llamado COSPAL, patrocinado por la Unión Europea, han
creado un robot cuya inteligencia Artificial es comparable a un bebé humano de 2 a 3 años.
“Según los científicos que diseñaron el robot, el gran paso se dio al unificar en un solo
sistema las dos filosofías clásicas sobre cómo diseñar sistemas de Inteligencia Artificial
(IA). Por un lado está la manera clásica de proveerle a una IA un conjunto extenso de
reglas, las cuales son evaluadas por la IA y toma decisiones en base a ellas. La otra manera
más moderna es proveer lo que se llama una red neuronal, que permite que la IA misma
aprenda las reglas y se adapte al medio ambiente. Como ejemplo, al robot (el cual tiene
9
Jeopardy es un concurso de televisión estadounidense con preguntas sobre historia, literatura, arte, cultura
popular, ciencia, deportes, geografía, juegos de palabras, y otros temas. El programa tiene un formato de
"respuesta y pregunta", en el cual a los concursantes se les presentan pistas en forma de respuestas, y deben
dar sus respuestas en forma de una pregunta.
cámaras para ver y un brazo para manipular objetos) se le mostró el popular juguete para
niños en donde se le provee al bebé varias piezas de diferentes formas geométricas, y este
tiene que aprender a insertarlas en agujeros de la forma compatible con ellos. Se procedió a
entrenar al robot como se entrenaría a un niño, diciéndole simplemente si lo estaba
haciendo mal o no, pero en ningún momento programándole las reglas del juego, o ni
siquiera lo que debería hacer. El robot, poco a poco empezó a entender lo que debía hacer,
y no solo eso, sino que empezó a aprender la manera en que debía colocar las piezas en su
lugar. Esto, por mas sencillo que parezca, es un gigantesco paso en el desarrollo de
verdaderas entidades de IA, y sin duda alguna de aquí en adelante este tipo de tecnología
solo hará que estas Inteligencia Artificiales se tornen cada vez mas inteligentes, y
conscientes, de sí mismas.”10
Test de Turing
Si usted señor lector hablara con una máquina a través de internet, ¿podría distinguir si se
trata de un computador?
La prueba de Turing.
Los seres humanos evalúan la inteligencia de sus congéneres a través de la interacción con
ellos, si un computador pudiera hacerse pasar por una persona... ¿se podría afirmar que es
10
Fuente de información. Crean inteligencia artificial con inteligencia de un bebe. [On line]. Consultado el
17 de julio de 2012. http://www.eliax.com/?post_id=4615
inteligente? Existen algunos candidatos que están muy cerca de aprobar este examen,
conocido como el test de Turing, incluyendo al robot cleverbot.
El Test de Turing (o Prueba de Turing) es una prueba propuesta por Alan Turing para
demostrar la existencia de inteligencia en una máquina. Fue expuesto en 1950 en un
artículo (Computing machinery and intelligence) para la revista Mind, y sigue siendo uno
de los mejores métodos para los defensores de la Inteligencia Artificial. Se fundamenta en
la hipótesis positivista de que, si una máquina se comporta en todos los aspectos como
inteligente, entonces debe ser inteligente.
La prueba consiste en un desafío. Se supone un juez situado en una habitación, y una
máquina y un ser humano en otras. El juez debe descubrir cuál es el ser humano y cuál es la
máquina, estándoles a los dos permitido mentir al contestar por escrito las preguntas que el
juez les hiciera. La tesis de Turing es que si ambos jugadores eran suficientemente hábiles,
el juez no podría distinguir quién era el ser humano y quién la máquina. Todavía ninguna
máquina puede pasar este examen en una experiencia con método científico.
En 1990 se inició un concurso, el
Premio Loebner11
, una
competición de carácter anual
entre programas de ordenador
que sigue el estándar establecido
en la prueba de Turing. Un juez
humano se enfrenta a dos
pantallas de ordenador, una de
ellas que se encuentra bajo el
control de un ordenador, y la otra
bajo el control de un humano. El
juez plantea preguntas a las dos
pantallas y recibe respuestas. El
premio está dotado con 100.000
dólares estadounidenses para el programa que pase el test, y un premio de consolación para
el mejor programa anual. Todavía no ha sido otorgado el premio principal.
Pruebas paralelas
Existe otra prueba parecida, propuesta por John Searle y popularizada por Roger Penrose:
la "sala china"12
, para argumentar que la máquina no ha superado la Prueba de Turing. En
esencia, es igual en la forma, pero se realiza con personas encerradas en una habitación y se
11
El Premio Loebner es una competición de carácter anual que concede premios a un programa de
ordenador que esté considerado por el jurado que lo compone, como el más inteligente de los que se han
presentado. El formato de la competición sigue el estándar establecido en el test de Turing. Un juez humano
se enfrenta a dos pantallas de ordenador, una de ellas que se encuentra bajo el control de un ordenador, y la
otra bajo el control de un humano. El juez plantea preguntas a las dos pantallas y recibe respuestas. En base a
las respuestas, el juez debe decidir qué pantalla es la controlada por el ser humano y cuál es la controlada por
el programa de ordenador.
requiere que estas no conozcan el idioma en que se realiza la conversación. Para ello se usa
un diccionario que permite confeccionar una respuesta a una pregunta dada, sin entender
los símbolos. Como consecuencia, se argumenta que por mucho que una persona sea capaz
de enviar una cadena de símbolos en chino relacionada con otra cadena recibida, no quiere
decir que sepa chino, sino que sabe aplicar un conjunto de reglas que le indican lo que ha
de enviar.
Falta la semántica en el proceso y por eso es muy cuestionada como inteligencia artificial,
puesto que equipara una máquina pensante con una que parece que piensa. Ray Kurzweil
predice que el ordenador pasará la prueba de Turing hacia el 2029, basado en el concepto
de singularidad tecnológica.
Aplicaciones
Una de las aplicaciones de la prueba de Turing es el control de spam. Dado el gran volumen
de correos electrónicos enviados, el spam es, por lo general, enviado automáticamente por
una máquina. Así la prueba de Turing puede usarse para distinguir si el correo electrónico
era enviado por un remitente humano o por una máquina (por ejemplo por la prueba
Captcha).
El Captcha es el acrónimo de Completely Automated Public Turing test to tell Computers
and Humans Apart (Prueba de Turing pública y automática para diferenciar máquinas y
humanos).
Este es un típico test para la secuencia "smwm" que dificulta el reconocimiento de la
máquina distorsionando las letras y añadiendo un degradado de fondo.
Se trata de una prueba desafío-respuesta utilizada en computación para determinar cuándo
el usuario es o no humano. La típica prueba consiste en que el usuario introduzca un
conjunto de caracteres que se muestran en una imagen distorsionada que aparece en
pantalla. Se supone que una máquina no es capaz de comprender e introducir la secuencia
de forma correcta por lo que solamente el humano podría hacerlo.
Los captchas son utilizados para evitar que robots, también llamados spambots, puedan
utilizar ciertos servicios. Por ejemplo, para que no puedan participar en encuestas,
registrarse para usar cuentas de correo electrónico (o su uso para envío de correo basura)
y/o más recientemente, para evitar que correo basura pueda ser enviado por un robot (el
remitente debe pasar el test antes de que se entregue al destinatario).
El sistema captcha tiene las siguientes características por definición:
 Son completamente automatizados, es decir, no es necesario ningún tipo de
mantenimiento / intervención humana para su realización. Esto supone grandes
beneficios en cuanto a fiabilidad y coste.
El algoritmo utilizado es público. De esta forma la ruptura de un captcha pasa a ser un
problema de inteligencia artificial y no la ruptura de un algoritmo secreto.
La habitación China
La habitación china es un experimento mental, propuesto originalmente por John Searle y
popularizado por Roger Penrose, mediante el cual se trata de rebatir la validez del Test de
Turing y de la creencia de que una máquina puede llegar a pensar.
Searle se enfrenta a la analogía entre mente y ordenador cuando se trata de abordar la
cuestión de la conciencia. La mente implica no sólo la manipulación de símbolos, y además
de una sintaxis posee una semántica.
El experimento de la habitación china
Supongamos que han pasado muchos años, y que el ser humano ha construido una máquina
aparentemente capaz de entender el idioma chino, la cual recibe ciertos datos de entrada
que le da un hablante natural de ese idioma, estas entradas serían los signos que se le
introducen a la computadora, la cual más tarde proporciona una respuesta en su salida.
Supóngase a su vez que esta computadora fácilmente supera la Prueba de Turing, ya que
convence al hablante del idioma chino de que sí entiende completamente el idioma, y por
ello el chino dirá que la computadora entiende su idioma.
Ahora Searle pide suponer que él está dentro de ese computador completamente aislado del
exterior, salvo por algún tipo de dispositivo (una ranura para hojas de papel, por ejemplo)
por el que pueden entrar y salir textos escritos en chino.
Supongamos también que fuera de la sala o computador está el mismo chino que creyó que
la computador entendía su idioma y dentro de esta sala está Searle que no sabe ni una sola
palabra en dicho idioma, pero está equipado con una serie de manuales y diccionarios que
le indican las reglas que relacionan los caracteres chinos (algo parecido a "Si entran tal y tal
caracteres, escribe tal y tal otros").
De este modo Searle, que manipula esos textos, es capaz de responder a cualquier texto en
chino que se le introduzca, ya que tiene el manual con las reglas del idioma, y así hacer
creer a un observador externo que él sí entiende chino, aunque nunca haya hablado o leído
ese idioma.
Dada esta situación cabe preguntarse:
 ¿Cómo puede Searle responder si no entiende el idioma chino?
 ¿Acaso los manuales saben chino?
 ¿Se puede considerar todo el sistema de la sala (diccionarios, Searle y sus
respuestas) como, un sistema que entiende chino?
Manipular símbolos en base a su forma no significa que conozcamos su contenido.
De acuerdo a los creadores del experimento, los defensores de la inteligencia artificial
fuerte -los que afirman que programas de ordenador adecuados pueden comprender el
lenguaje natural o poseer otras propiedades de la mente humana, no simplemente
simularlas- deben admitir que, o bien la sala comprende el idioma chino, o bien el pasar el
test de Turing no es prueba suficiente de inteligencia. Para los creadores del experimento
ninguno de los componentes del experimento comprende el chino, y por tanto, aunque el
conjunto de componentes supere el test, el test no confirma que en realidad la persona
entienda chino, ya que como se sabe Searle no conoce ese idioma.
El argumento de la habitación china
Esto es así en el contexto de la siguiente argumentación:
1. Si la Inteligencia Artificial Fuerte es verdadera, hay un programa para el idioma chino tal
que cualquier mecanismo que lo ejecute entiende chino.
2. Una persona puede ejecutar mecánicamente un programa para el idioma chino sin
entender el idioma chino.
3. Los argumentos de la inteligencia artificial fuerte son falsos porque en realidad el
sistema no entiende chino, nada más simula entender.
Una puntualización importante: Searle no niega que las máquinas puedan pensar -el cerebro
es una máquina y piensa-, niega que al hacerlo apliquen un programa.
Críticas al experimento de la habitación china
El experimento mental de la habitación china
confirmaría la premisa 2, a juicio de sus defensores. A
juicio de sus detractores, la premisa 2 basada en la
inferencia a partir del experimento mental no es
concluyente. Las objeciones suelen seguir una de las
tres líneas siguientes:
 Aunque el habitante de la habitación no
entienda chino, es posible que el sistema más
amplio formado por la habitación, los
manuales y el habitante entienda chino.
 Una persona manipulando signos escritos
dentro de una habitación estática no es el único
candidato posible para ocupar el puesto de
sistema computacional capaz de entender
chino. Hay otros modelos posibles: a. un robot
capaz de interactuar con el entorno y aprender
del mismo; b. un programa que regule los
procesos neuronales involucrados en la comprensión del chino, etc. No hay razón
para decir que estos modelos sólo exhiben una comprensión aparente, como en el
caso de la habitación y su habitante, pero son modelos de Inteligencia Artificial.
 Si la conducta de la habitación no es evidencia suficiente de que entiende chino,
tampoco puede serlo la conducta de ninguna persona. Se hace uso de una figura
retórica tratando de desfigurar el concepto de entendimiento, ya pues es absurdo
decir que la máquina no puede "responder en chino a un hombre" porque "no
entiende realmente el chino", para entender de ese modo "se ha de ser capaz de
crear la idea en base a la forma conceptual", esa teoría de la idea quizás sea algo
más "idealista" que científica. En cualquier caso la mente de un hombre se basa en
algoritmos más complejos y más costosos de procesar que los que actualmente
poseen los actuales computadores. Es cuestión de tiempo.
 La adquisición de entendimiento (a lo que podemos llamar inteligencia) es un
proceso evolutivo, en el cuál puede aplicarse diferentes técnicas y herramientas que
conlleven al individuo a un aprendizaje (en este caso del idioma chino), por lo cual
se hace necesario establecer niveles de entendimiento en el tiempo.
Respuestas a los Argumentos en contra de la habitación China
 Aunque es verdad que el sistema maneja el chino, éste no entiende el idioma, es
decir, la persona dentro del cuarto no entiende lo que está haciendo, nada más lo
está haciendo. Por consiguiente, el que un computador maneje un idioma, no
significa que éste entienda lo que está haciendo, nada más significa que está
realizando una acción.
 A su vez, la persona que maneja el chino no sólo se puede entender como una
persona, lo que trata de mostrar el ejemplo es el cómo las computadoras no
entienden lo que manejan y nada más siguen unas reglas ya determinadas sin tener
que entenderlas.
 La última proposición tiene muchas contradicciones, por ejemplo se sabe que los
que están leyendo estas palabras sí entienden el idioma, al contrario de la
computadora, que tan solo maneja información sintáctica (es decir que nada más
manejan una acción, sin contenido propio), los humanos manejamos información
semántica (con contenido, lo que nos asegura que comprendamos lo que hacemos,
ya que le vemos contenido a lo que hacemos).
 Que un sistema pueda responder a acciones con una acción, no significa que tenga
Inteligencia en sí mismo, todo lo que hace para responder a las acciones con una
acción es inentendible para él, simplemente responde a las acciones con una acción
que sucede mediante inferencias, creando relaciones y agrupando, para determinar
una conclusión basta y probable de ser errónea. Es hasta ahora imposible poder
demostrar lo contrario pues no hay manera de plasmar lo biológico en una máquina,
y lo biológico es sumamente complejo más aún que lo artificial, lo artificial al
crearse es entendible en su totalidad, en cambio hay ciertas partes de lo biológico
que aún no se pueden interpretar, tal es el caso de la inteligencia de los seres. El ser
humano tiene capacidades que jamás podrán ser imitadas por una máquina,
simplemente por ser biológico, natural.
Singularidad tecnológica13
En futurología, la singularidad tecnológica (algunas veces llamada simplemente la
Singularidad) es un acontecimiento futuro en el que se predice que el progreso tecnológico
y el cambio social se acelerarán debido al desarrollo de inteligencia sobrehumana,
cambiando nuestro ambiente de manera tal, que cualquier ser humano anterior a la
Singularidad sería incapaz de comprender o predecir. Dicho acontecimiento se ha
nombrado así por analogía con la singularidad espaciotemporal observada en los agujeros
negros, donde existe un punto en el que las reglas de la física dejan de ser válidas, y donde
la convergencia hacia valores infinitos hace imposible el definir una función.
El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización de
máquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos.
La Singularidad Tecnológica (para
diferenciarla del concepto de Singularidad
en la física) contempla un momento en la
historia donde el progreso tecnológico
genera un cambio “comparable al
nacimiento de vida humana en la Tierra.
La causa precisa de este cambio es la
creación inminente de entidades con
inteligencia mayor a la humana por medio
de la tecnología”, escribió Vernor Vinge,
autor de ciencia ficción que propuso el
término de Singularidad Tecnológica en un ensayo publicado en 1993. Allí Vinge especula
que este cambio podría darse por medio de la inteligencia artificial, las interfaces
humano/computador, o por la modificación biológica del genoma humano. Luego de este
punto, terminaría la historia humana.14
Vinge afirma también que “Creo que es probable que con la tecnología podamos, en un
futuro muy cercano, crear o convertirnos en seres más inteligentes que los humanos. Tal
singularidad tecnológica revolucionaría nuestro mundo, llevándolo a una era post-
humana. Si fuera a pasar dentro de un millón de años, no valdría la pena preocuparse.
¿Así que a que me refiero cuando digo “un futuro muy cercano”? En mi ensayo de 1993,
13
Fuente. Singularidad tecnológica. http://es.wikipedia.org/wiki/Singularidad_tecnol%C3%B3gica [En línea]
consultado el 18 de noviembre de 2011.
14
Fuente. Especial H2blOg: La Singularidad Tecnológica. [en Linea] Consultado el 25 de junio de 2012.
http://proyectoliquido.net/h2blog/121/especial-h2blog-la-singularidad-tecnologica/
“El Advenimiento de la Singularidad Tecnológica”, dije que estaría sorprendido si la
singularidad no sucediera para el 2030. Mantengo mi posición con respecto a esa
afirmación asumiendo que evitamos las descomunales catástrofes –cosas como las guerras
nucleares, las superplagas, las emergencias climáticas– a las que le dedicamos
apropiadamente nuestra ansiedad.”
En ese punto Vinge espera que la singularidad se manifieste como una combinación de
elementos:
1. El Escenario IA: creamos inteligencia artificial (IA) superhumana en computadores.
2. El Escenario AI: mejoramos la inteligencia humana por medio de las interfaces
humano/computador, logrando amplificación de la inteligencia (AI).
3. El Escenario Biomédico: incrementamos directamente nuestra inteligencia
mejorando la operación neurológica de nuestros cerebros.
4. El Escenario Internet: la humanidad, sus redes, computadores, y bases de datos se
vuelven lo suficientemente efectivas como para ser consideradas un ser
superhumano.
5. El Escenario Gaia Digital: la red de microprocesadores embebidos se vuelve lo
suficientemente efectiva como para ser considerada un ser superhumano.
Vinge dice que dependiendo de nuestro ingenio (y el de nuestros artefactos) existe la
posibilidad de una transformación comparable al surgimiento de la inteligencia humana en
el mundo biológico.
Historia
Las consecuencias de estos estudios (Máquina
de turing y sala china que en si son lo mismo)
fueron discutidas durante la década de los 60s
por I.J. Good, y John von Neumann quien usa
el término "singularidad" para describir el
progreso tecnológico durante la década de
1950. Sin embargo, no es sino hasta en los 80s
que la Singularidad es popularizada por Vernor
Vinge. Si la Singularidad ocurrirá o no, es un
hecho muy debatido, pero la aproximación más
común entre los futuristas la sitúa dentro de la
tercera década del Siglo XXI.
Otros, notablemente Raymond Kurzweil, han propuesto teorías que expanden la Ley de
Moore15
hacia tipos de computación que van más allá de los simples transistores,
15
La Ley de Moore expresa que aproximadamente cada 18 meses se duplica el número de transistores en un
circuito integrado. Se trata de una ley empírica, formulada por el cofundador de Intel, Gordon E. Moore el 19
de abril de 1965, cuyo cumplimiento se ha podido constatar hasta el día de hoy. La Ley de Moore no es una
sugiriendo un patrón exponencial de progreso tecnológico. Sin embargo Kurzweil supone
que el propio patrón de crecimiento cambia y la aceleración se hace mayor hasta el punto
de adquirir un patrón de crecimiento hiperbólico. Lo cual es análogo al espacio hiperbólico
de los agujeros negros. Según Kurzweil, este patrón culmina en un progreso tecnológico
inimaginable en el Siglo XXI, el cual conduce a la Singularidad, un punto en el cual el
crecimiento se hace infinito.
ley en el sentido científico, sino más bien una observación, y ha sentado las bases de grandes saltos de
progreso.
 En 2004 la industria de los semiconductores produjo más transistores (y a un costo más bajo) que la
producción mundial de granos de arroz, según la Semiconductor Industry Association (Asociación de
la Industria de los Semiconductores) de los Estados Unidos.
 Gordon Moore solía estimar que el número de transistores vendidos en un año era igual al número de
hormigas en el mundo, pero para el 2003 la industria producía cerca de 1019
transistores y cada
hormiga necesitaba cargar 100 transistores a cuestas para conservar la precisión de esta analogía.
 En 1978, un vuelo comercial entre Nueva York y París costaba cerca de 900 dólares y tardaba 7
horas. Si se hubieran aplicado los mismos principios de la Ley de Moore a la industria de la aviación
comercial de la misma forma que se han aplicado a la industria de los semiconductores desde 1978,
ese vuelo habría costado cerca de un centavo de dólar y habría tardado menos de 1 segundo en
realizarse.
Ver el siguiente video http://www.youtube.com/watch?v=3z8I-KmaFUI
El crecimiento hiperbólico es el patrón que algunos indican que sigue el aumento de la
información y de hecho ha sido el ritmo en como ha venido creciendo la población mundial
por lo menos hasta principios de siglo. Robert Anton Wilson generalizo la ley del
crecimiento de la información bajo el nombre del fenómeno del Jesús saltador, que se
inspira en la idea de comenzar a contar los años a partir del nacimiento de Jesús, aunque
también parece un nombre irónico y humorístico, porque a medida que pasa el tiempo no
son pocos los que siguen pensando en el fin del mundo y la inminente llegada de Jesús.
Según Wilson, se inspiró en Alfred Korzybski, el autor de la Semántica General, quien
habría observado que la información se duplicaba cada cierto tiempo. Korzybski tomo
como base, de todo el conocimiento acumulado y disponible por la humanidad, el año 1
después de cristo, Wilson le llama el primer Jesús. La primera duplicación se habría dado
durante el apogeo del renacimiento, con lo que se tendrían entonces 2 Jesús. La segunda en
el año 1750, 4 Jesús y las siguientes en los años, 1900, 1950, 1960, 1967 y 1973 (128
Jesús). Para el 2000 se calculaba que la información se duplicaba 2 veces en un año. Sin
embargo de acuerdo a otro estudio realizado por la Universidad de Berkeley en el año 2004
por los profesores Peter Lyman y Hal Varian, a instancias de Microsoft Research, Intel, HP
y EMC, la información que se genera y se registra en el mundo aumenta a un ritmo de
solamente 30% anual desde 1999.
Superestructura tecnológica
Las discrepancias surgen a partir de la consideración que se tenga sobre el impacto
tecnológico en la sociedad. Si creemos que las tecnologías siempre serán una
infraestructura controlada por los humanos o aceptamos que dado su crecimiento acelerado,
su cada vez mayor autonomía y su creciente inteligencia (a lo cual no se le ve limites), se
pueda aceptar que se convertirán en una superestructura capaz de compartir las decisiones
con los humanos.
Por lo que tendremos cuatro enfoques:
1) Los que creen que la tecnología siempre será controlada por los humanos y el único
peligro está en el mal uso que se le dé. Por lo que basta con limitar, prohibir o
controlar la utilización de las mismas Desarrollo sostenible.
2) Los que creen que las tecnologías igualarán y superarán a los humanos, surgiendo
una superinteligencia. Singularidad tecnológica.
3) Los que aceptan que las tecnologías podrán ser una superestructura y creen que
dado el contexto actual de poder, estas se convertirían en un competidor demasiado
peligroso para los humanos, por lo cual hay que hacer todo lo posible para que esto
no suceda. Bioconservadurismo.
4) Los que ven a la tecnología como una aliada que nos pueda llevar a una
superinteligencia colectiva donde humanos y tecnologías cooperen por un futuro
sostenible Sostenibilidad tecnológica.
Inteligencia suprahumana
La idea de una singularidad, Vinge la sustenta sobre la ley de Moore que dice que la
capacidad de los microchips de un circuito integrado se duplicará cada dos años, lo cual
traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de
mantenerse este crecimiento acelerado conducirá inevitablemente a que las máquinas le den
alcance y luego superen la capacidad del cerebro para procesar la información y según un
gráfico elaborado por Hans Moravec, la paridad entre el hardware y el cerebro se alcanzará
alrededor del 2020 lo cual dará lugar a las máquinas ultra inteligentes.
Vinge define una máquina ultra inteligente como una máquina capaz de superar en mucho
todas las actividades intelectuales de cualquier humano independientemente de la
inteligencia de este y está convencido de que esa inteligencia superior será la que impulsará
el progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural.
Es así que afirma que estaremos entrando en un régimen radicalmente diferente de nuestro
pasado humano, y es a este evento al que le da el nombre de singularidad.
El transhumanista Nick Bostrom define una superinteligencia de la siguiente forma: Tendrá
superinteligencia cualquier intelecto que se comporte de manera bastamente superior en
comparación con los mejores cerebros humanos en prácticamente todos los aspectos y en
especial estos tres:
• Creatividad científica
• Sabiduría en general
• Desempeño científico
Esta definición deja abierta la manera de como se implementa esa superinteligencia
• Artificial: una computadora digital
• Colectiva: una red de computadoras
• Biológica: cultivo de tejidos corticales
• Híbrida: fusión entre computadoras y humanos
Caminos hacia la singularidad
Según el científico y escritor de ciencia ficción Vernor Vinge, la singularidad se puede
alcanzar por diferentes caminos:
 El desarrollo de un computador que alcance el nivel de inteligencia humana y
posteriormente lo supere (superinteligencia artificial).
 El desarrollo de redes de computadoras que se comporten como superneuronas de
un cerebro distribuido que "despierte" como ente inteligente (superinteligencia
colectiva).
 El desarrollo de elementos de interacción con computadoras que permitan a un
humano comportarse como un ser superinteligente (superinteligencia hibrida).
 Manipulaciones biológicas que permitan mejorar en algunos seres el nivel humano
de inteligencia (superinteligencia biológica)
En futurología, la singularidad tecnológica (algunas veces llamada simplemente la
Singularidad) es un acontecimiento futuro en el que se predice que el progreso tecnológico
y el cambio social se acelerarán debido al desarrollo de inteligencia superhumana,
cambiando nuestro ambiente de manera tal, que cualquier ser humano anterior a la
Singularidad sería incapaz de comprender o predecir. Dicho acontecimiento se ha
nombrado así por analogía con la singularidad espaciotemporal observada en los agujeros
negros, donde existe un punto en el que las reglas de la física dejan de ser válidas, y donde
la convergencia hacia valores infinitos hace imposible el definir una función.
El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización de
máquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos.
Superinteligencia artificial
Surgimiento de una superinteligencia
artificial superior a la inteligencia humana.
Estamos hablando de que los humanos sean
capaces de construir una inteligencia
artificial que los iguale y que después, esta
inteligencia no humana, sea capaz de
superarse a sí misma. Dado el crecimiento
veloz que tiene el hardware (ley de Moore)
y no en el desarrollo de programas que
emularan la inteligencia humana como se
pretendía en los primeros años de la
Inteligencia artificial. Estamos hablando de una inteligencia artificial fuerte que supone que
la consciencia es codificable (consideran que los estados mentales son algoritmos altamente
complejos) y puede ser descargada del cerebro y copiada en un soporte digital.
Superinteligencia colectiva
Surgimiento de una superinteligencia colectiva donde estén conectados en redes los
humanos y las maquinas, siguiendo las ideas de Pierre Levy de una inteligencia colectiva,
en la que Internet está jugando un papel importante y ya algunos están hablando del
surgimiento de un cerebro global que se está formando desde ahora en el contexto de la
Web 2.0 y de la naciente Web 3.0.
No se puede ignorar el impacto que está teniendo la Web 2.0 y la gran cantidad de
conocimiento que se está compartiendo en las Wikis, redes sociales y blogs y que se
podrían ir autoorganizado por medio de la Web semántica16
. Lo cual nos lleva a una
superestructura tecnológica donde humanos y máquinas cooperan entre sí.
Superinteligencia hibrida
Superinteligencia hibrida, Interconexión entre humanos y computadoras, tales como,
prótesis, implantes de chip, etc. Lo cual nos lleva al Cyborg, donde se fusionan los
humanos con las maquinas. La idea de una transhumanidad que transcienda a la condición
humana y con ello superar todos los límites de la especie humana y dar surgimiento a una
nueva especie posthumana. Esto nos arrastra a una singularidad fuerte donde humanos y
maquinas se fusionan.
16
La Web semántica o Web 3.0, es la "Web de los datos". Se basa en la idea de añadir metadatos semánticos
y ontológicos a la World Wide Web. Esas informaciones adicionales —que describen el contenido, el
significado y la relación de los datos— se deben proporcionar de manera formal, para que así sea posible
evaluarlas automáticamente por máquinas de procesamiento. El objetivo es mejorar Internet ampliando la
interoperabilidad entre los sistemas informáticos usando "agentes inteligentes". Agentes inteligentes son
programas en las computadoras que buscan información sin operadores humanos.
Superinteligencia biológica
Superinteligencia biológica, mejoramiento humano por bioingeniería sobre todo
modificaciones genéticas, dado que es una inteligencia mejorada por medio de la biología.
Se aspira al humano mejorado (humano+) por medio de la bioingeniería. Esto ira
conduciendo a la humanidad a una fusión progresiva y menos radical que la anterior.
Si bien algunos autores, como Roger Penrose, piensan que las computadoras no llegarán a
ser inteligentes (en el sentido de la prueba de Turing), el camino biológico para llegar a la
singularidad tecnológica no parece tener límite alguno.
Riesgos
Los defensores de la singularidad son conscientes de las amenazas que esta implica y
consideran los siguientes riesgos existenciales:
• Inteligencia artificial mal programada.
• Mal uso de la nanotecnologia.
• Mala utilización de la biotecnología.
• Uso generalizado de las prótesis (convirtiéndose en un robot).
• Tecnologías autónomas que se escapan de las manos (maquinas que se auto construyen a
sí mismas).
De aquí que sacan la conclusión que es necesario tomar el control de la evolución humana y
abalanzar hacia una transhumanidad.17
Proponen la sustitución de una especie humana
obsoleta por otra especie “superior” con poderes ilimitados y que por medio de las
tecnologías emergentes o convergentes (NBIC) se puede alcanzar la posthumanidad.
IA Fuerte
La Inteligencia Artificial Fuerte es aquella inteligencia artificial que iguala o excede la
inteligencia humana promedio – la inteligencia de una maquina que exitosamente puede
realizar cualquier tarea intelectual de cualquier ser humano -. Es un objetivo importante
para la investigación sobre IA y un tópico interesante para la ciencia ficción.
La IA Fuerte (IAF) igualmente es referida como Inteligencia General Artificial o como la
habilidad de ejecutar acciones generales inteligentes. La ciencia ficción asocia a la IAF con
cualidades humanas como la conciencia18
, la sensibilidad, la sapiencia y el
autoconocimiento.
17
El Transhumanismo es tanto un concepto filosófico como un movimiento intelectual internacional que
apoya el empleo de las nuevas ciencias y tecnologías para mejorar las capacidades mentales y físicas con el
objeto de corregir lo que considera aspectos indeseables e innecesarios de la condición humana, como
el sufrimiento, la enfermedad, el envejecimiento o incluso en última instancia la mortalidad. Los pensadores
transhumanistas estudian las posibilidades y consecuencias de desarrollar y usar la tecnología con estos
propósitos, preocupándose por estudiar tanto los peligros como los beneficios de estas manipulaciones.
El término "Transhumanismo" se simboliza como H+ (antes >H), y es usado como sinónimo de "humano
mejorado".
18
La conciencia (del latín conscientia 'conocimiento compartido', pero diferente de consciencia, ser
conscientes de ello) se define en general como el conocimiento que un ser tiene de sí mismo y de su entorno
se refiere a la moral o bien a la recepción normal de los estímulos del interior y el exterior. Conscientĭa
significa, literalmente, «con conocimiento» (del latín cum scientĭa).
Cerebro artificial
Es un término utilizado habitualmente en los medios de comunicación1
para describir la
investigación que pretende desarrollar software y hardware con habilidades cognitivas
similares al cerebro humano o animal.
Detalles
La investigación de «cerebros artificiales» desempeña tres papeles importantes para la
ciencia:
1. Un intento constante de los neurocientíficos para entender cómo funciona el cerebro
humano.
2. Un experimento mental en la filosofía de la inteligencia artificial(en)
, demostrando
que es posible, en teoría, crear una máquina que tenga todas las capacidades de un
ser humano.
3. Un proyecto serio a largo plazo para crear máquinas capaces de una acción general
inteligente o Inteligencia General Artificial. Esta idea ha sido popularizada por Ray
Kurzweil2
como IA fuerte (en el sentido de una máquina tan inteligente como un ser
humano).
Existen dudas sobre la naturaleza de la conciencia, y no se sabe con seguridad si la conciencia como
fenómeno cognitivo es sólo el resultado de la complejidad computacional o de otros factores. Roger Penrose
se ha ocupado del problema de la realidad física de la inteligencia y ha analizado diversas pretensiones
teóricas por parte de la inteligencia artificial de simular o construir artefactos que posean algún tipo de
conciencia. Penrose clasifica las posturas actuales ante la cuestión de si la conciencia es o no computable
algorítmicamente:
A. Todo pensamiento es un proceso de computación, es decir, en particular la percepción de uno
mismo y la autoconciencia son procesos emergentes que son resultado directo de la computación o
algoritmo adecuados.
B. La conciencia es una consecuencia del tipo de acción física que ocurre en el cerebro, y aunque
cualquier acción física puede simularse apropiada a través de medios computacionales; el hecho de
que se lleve a cabo un proceso de simulación computacional del cerebro no comportaría, por sí
mismo, la aparición auténtica de la autoconciencia.
C. La realización de cierta actividad física en el cerebro es lo que lleva a la aparición de la
autoconciencia en el ser humano; sin embargo, aunque puede ser reproducida artificialmente, dicha
acción no puede simularse algorítmicamente.
D. La conciencia de tipo humano no puede entenderse propiamente en términos físicos,
computacionales o científicos de otro tipo.
El punto de vista D claramente niega la posibilidad de comprensión científica de la conciencia. Muchos
investigadores del campo de la inteligencia artificial, en particular los más optimistas sobre sus logros, se
adhieren a la postura A. John Searle sería más bien un partidario de la postura B, y el propio Penrose ha
argumentado fuertemente en su trabajo por la postura C, relacionándola con varios otros problemas abiertos
de la física como la teoría cuántica de la gravedad.
Un ejemplo del primer objetivo es el proyecto informado por la Universidad de Aston en
Birmingham (Reino Unido) donde los investigadores están utilizando células biológicas
para crear «neuroesferas» (pequeños grupos de neuronas) con el fin de desarrollar nuevos
tratamientos para enfermedades como el mal de Alzheimer, la enfermedad de Parkinson y
la enfermedad de neurona motora.
El segundo objetivo es ejemplificado por la
máquina de Turing y más recientemente en el
funcionalismo de estados de la máquina de
Hilary Putnam.
El tercer objetivo es el que suele llamarse
inteligencia general artificial por los
investigadores. Sin embargo Kurzweil
prefiere el término más memorable IA
Fuerte. En su libro La Singularidad está
Cerca se centra en la emulación de todo el
cerebro usando máquinas de computación
convencionales como forma de
implementación de cerebros artificiales, y
afirma (por razón del poder de las
computadoras que sigue una tendencia de
crecimiento exponencial) que esto podría pasar en 2025. Henry Markram, director del
proyecto Blue Brain (que pretende la emulación del cerebro), hizo una afirmación similar
(2020) en la conferencia TED de Oxford en 2009.
A pesar de que la emulación directa del cerebro usando redes neuronales artificiales sobre
una máquina de computación de alto rendimiento es un enfoque común, existen otros
enfoques. Una implementación alternativa del cerebro artificial podría basarse en los
principios de coherencia/decoherencia de fase no lineal de la Tecnología Holográfica
Neural (HNeT). La analogía se ha hecho a los procesos cuánticos a través del algoritmo
sináptico nuclear que tiene grandes similitudes con la ecuación de onda QM.
Algunos críticos de la simulación cerebral creen que es más sencillo crear directamente una
acción inteligente general sin necesidad de imitar a la naturaleza. Algunos comentaristas19
han usado la analogía de que en los primeros intentos de construir máquinas voladoras estas
fueron modeladas como las aves, y que sin embargo las aeronaves modernas no lucen como
aves. Un argumento computacional es usado en AI - What is this, donde se muestra que, si
tenemos una definición formal de la IA general, el programa correspondiente se pueden
encontrar mediante la enumeración de todos los programas posibles y luego probar cada
uno de ellos para ver si coincide con la definición. No existe una definición adecuada en la
19
Fox and Hayes quoted in Nilsson, Nils (1998), Artificial Intelligence: A New Synthesis, p581 Morgan
Kaufmann Publishers, ISBN 978-1-55860-467-4.
actualidad. El EvBrain20
v es una forma de software evolutivo que puede hacer evolucionar
redes neuronales similares al cerebro, tales como la red inmediatamente detrás de la retina.
Hay buenas razones para creer que,
indistintamente de la estrategia de
aplicación, las predicciones sobre la
realización de cerebros artificiales en un
futuro próximo son optimistas. En
particular el cerebro (incluyendo el
cerebro humano) y la cognición no son
actualmente bien entendidos, y la escala
de computación requerida es
desconocida. Además parece haber
limitaciones en la potencia. El cerebro
consume unos 20 W de potencia,
mientras que las supercomputadoras
pueden usar tanto como de 1 MW o
sobre un orden de 100 mil más (nota: el
límite de Landauer es de 3.5x1020
operaciones/seg/watt a temperatura ambiente).
Además, hay cuestiones éticas que deben ser resueltas. La construcción y el mantenimiento
de un cerebro artificial plantean cuestiones morales, es decir, en relación con la
personalidad, la libertad y la muerte. ¿Un «cerebro en una caja» constituye una persona?
¿Qué derechos tendría esa entidad, legales o de otro tipo? Una vez activado, ¿tendrían los
seres humanos la obligación de continuar con su operación? ¿Constituiría la desactivación
de un cerebro artificial muerte, sueño, inconsciencia, o algún otro estado para el que no
existe ninguna descripción humana? Después de todo, un cerebro artificial no está sujeto a
la descomposición celular post mórtem (y la consiguiente pérdida de su función) como lo
están los cerebros humanos, por lo que un cerebro artificial podría, teóricamente, reanudar
su funcionalidad exactamente como estaba antes de que fuese desactivado.
Recursos
Desde noviembre de 2008, IBM recibió una subvención de 4.9 millones de dólares del
Pentágono para la investigación sobre la creación de computadoras inteligentes. El proyecto
Blue Brain se está llevando a cabo con la ayuda de IBM en Lausana.21
El proyecto se basa
en la premisa de que es posible enlazar artificialmente las neuronas «en la computadora»
mediante la colocación de treinta millones de sinapsis en sus adecuadas posiciones
tridimensionales.
En marzo de 2008, el proyecto Blue Brain estaba avanzando más rápido de lo esperado:
«La conciencia es sólo una enorme cantidad de información intercambiada por billones de
20
Jung, Sung Young, "A Topographical Development Method of Neural Networks for Artifical Brain
Evolution", Artificial Life, The MIT Press, vol. 11, issue 3 - summer, 2005, pp. 293-316.
21
Consultar en
http://newsvote.bbc.co.uk/mpapps/pagetools/print/news.bbc.co.uk/2/hi/science/nature/7740484.stm?ad=1
células cerebrales».22
Algunos defensores de la IA fuerte especulan que las computadoras
en el marco de Blue Brain y Soul Catcher pueden exceder la capacidad intelectual humana
en torno al 2015, y que es probable que seamos capaces de descargar el cerebro humano en
algún momento alrededor del 2050.23
El proyecto se ha dividido en dos fases, la primera de las cuales se completó en noviembre
de 2007.
Fase I
El objetivo inicial del proyecto es simular la
columna cortical, que puede considerarse la
menor unidad funcional del neocórtex (la parte
del cerebro que se cree responsable de las
funciones superiores como el pensamiento
consciente). Esta columna tiene una altura de
2mm, un diámetro de 0,5mm y contiene unas
60.000 neuronas en humanos.
La simulación se centra en la columna neocortical
de las ratas, que tienen una estructura muy similar
pero que contienen únicamente 10.000 neuronas y
108
conexiones sinápticas. Durante los últimos 10
años, el profesor Markram ha estudiado los tipos
de neuronas y sus conexiones en esta columna
para generar un modelo de su funcionamiento.
Fase II
Tras obtener el modelo de funcionamiento el siguiente paso es realizar y validar
simulaciones basadas en dicho modelo. En esta fase se continuará con dos ramas diferentes:
 Construcción de la simulación a nivel molecular, cuyo interés reside que permitirá
estudiar los efectos de los genes.
 Simplificación de la simulación de la columna para permitir la simulación paralela
de un gran número de columnas interconectadas, con el objetivo final de simular un
neocórtex completo (que en el caso de los humanos consiste en un millón de
columnas, aproximadamente).
Los siguientes pasos es ascender al nivel del gato para alcanzar seguidamente el de los
primates.
22
Consultar en http://seedmagazine.com/content/article/out_of_the_blue/
23
Jaap Bloem, Menno van Doorn, Sander Duivestein, Me the media: rise of the conversation society, VINT
reseach Institute of Sogeti, 2009, p.273.
IA Débil
Se define IA débil a la escuela que estudia los
procesos cerebrales y mentales por medio de
simulaciones.
La IA Débil no cree en las afirmaciones de la IA
Fuerte. Contrapone a esas ideas, estas otras: que las
computadoras podrían actuar como si fuesen
inteligentes, mimetizadas o como si lo fuesen,
simulando serlo. Podrían superar en "inteligencia"
a sus programadores, con motivo de su alta
capacidad combinatoria (deliberación) ejecutable
en cortos tiempos o de ejecución de "sistemas
expertos" en campos restringidos, llegando a
conclusiones que el hombre no conocía antes de su
descubrimiento informático (por ejemplo, un
ajedrecista que se acuerda de memoria y repite las
jugadas de la máquina en los finales de ajedrez).
La IA débil sostiene que no hay inconvenientes en
agregarles a las computadoras habilidades que no posee el ser humano, como conducir
helicópteros que pierden una pala en pleno vuelo, sin perder su estabilidad (imposible con
pilotos humanos) o reconocer con alta precisión quien es el que emite un cierto tipo de voz
o terminar con buen éxito sistemas expertos muy complicados.
En síntesis, la máquina es el tema central de investigación, la cual se ve como un todo (soft
y hard) y se pretende que ésta como tal alcance niveles de inteligencia, posiblemente no
alcanzados por el hombre, cada vez más avanzados. E igual manera, se especula sobre la
posibilidad de que la máquina sustituya al hombre, dada las posibilidades ilimitadas de la
misma.
Aplicaciones de la IA
Tareas de la vida diaria:
 Percepción
 Visión
 Habla
 Lenguaje natural
 Comprensión
 Generación
 Traducción
 Sentido común
 Control de un robot
Tareas formales:
 Juegos
 Ajedrez
 Backgammon
 Damas
 Go
 Matemáticas
 Geometría
 Lógica
 Cálculo Integral
 Demostración de las propiedades de los programas
Tareas de los expertos:
 Ingeniería
 Diseño
 Detección de fallos
 Planificación de manufacturación
 Análisis científico
 Diagnosis médica
 Análisis financiero
Una de las primeras aplicaciones de la IA
a nivel comercial, es el reconocimiento de
patrones se basa en la utilización de
distintas técnicas de clasificación para
identificar subgrupos con características
comunes en cada grupo. Estas técnicas se
utilizan, entre otras cosas, en procesos de
reconocimiento de imágenes,
reconocimiento de señales, diagnóstico de
fallos, etc.
Las técnicas de clasificación y
reconocimiento de patrones siguen siendo
objeto actualmente de estudio tanto a nivel
teórico como práctico.
Percepción y reconocimiento de formas: Una de las aplicaciones más interesantes de la
Inteligencia Artificial es la de la imitación de las capacidades sensoriales de los seres
humanos, tanto audición como visión artificial. No se trata solamente que el ordenador sea
capaz de percibir sonidos e imágenes, sino de identificarel sentido de lo percibido.
Una introducción general al problema de reconocimiento de voz puede verse en Rabiner y
Juang (1993).
En cuanto al tema de la visión artificial, se ha avanzado mucho en el reconocimiento de
formas bidimensionales, el caso de formas tridimensionales es objeto actualmente de
grandes esfuerzos investigadores. Una referencia básica en el tema de visión artificial es
Saphiro y Rosenfeld (1992).
Robótica: La robótica es una de las áreas más populares dentro de la Inteligencia Artificial.
Se trata de la creación de máquinas con capacidades perceptuales y habilidades
psicomotoras. Los robots combinan elementos mecánicos, sensores, dispositivos
electrónicos,... con técnicas de I.A. para conseguir que interactuen con el mundo real.
Visión por computador24
La visión por computador, o visión artificial, es un subcampo de la inteligencia artificial,
cuyo objetivo de investigación y desarrollo están centrados en programar
un computador para que "entienda" una escena o las características de una imagen.
Ninguna máquina puede procesar las imágenes obtenidas por cámaras de vigilancia como
lo hacen los humanos. Probablemente, el mayor reto a la hora de crear una IA es igualar la
habilidad humana de procesar información visual.
24
Marcus du Sautoy. ¿Podemos fabricar una inteligencia artificial?
http://www.bbc.co.uk/mundo/noticias/2012/04/120404_tecnologia_inteligencia_artificial_aa.shtml [On line]
consultadoel17dejuliode2012.
Las computadoras todavía distan mucho de lograr el nivel que tiene el cerebro humano
cuando interpreta lo que ve. Un ejemplo claro son esas letras que nos piden que escribamos
cuando algunos servicios de internet quieren asegurarse de que es una persona, y no una
máquina, la que está tratando de enviarles un mensaje.
Es como un test de Turing a la inversa donde la computadora trata ahora de distinguir entre
un humano y una máquina.
Los humanos somos capaces de distinguir entre estas rebuscadas letras mientras que la
computadora es incapaz.
Esto es tan sólo un ejemplo de cuán mal las computadoras procesan los estímulos visuales,
por ello esto se ha convertido en un reto crucial en el desarrollo de la IA. Teniendo en
cuenta la cantidad de cámaras de vigilancia que cada vez más abundan en los núcleos
urbanos de todo el mundo, las firmas de seguridad adorarían tener una máquina que tuviera
capacidades similares a las humanas.
La visión artificial involucra una serie de aspectos en su desarrollo, como son:25
 La detección, segmentación, localización y reconocimiento de ciertos objetos en
imágenes (por ejemplo, caras humanas).
25
Fuente. Visión artificial. http://es.wikipedia.org/wiki/Visi%C3%B3n_artificial [On line] Consultado el 19
de julio de 2012.
 La evaluación de los resultados (por ejemplo, segmentación, registro).
 Registro de diferentes imágenes de una misma escena u objeto, es decir, hacer
concordar un mismo objeto en diversas imágenes.
 Seguimiento de un objeto en una secuencia de imágenes.
 Mapeo de una escena para generar un modelo tridimensional de la escena; este modelo
podría ser usado por un robot para navegar por la escena.
 Estimación de las posturas tridimensionales de humanos.
 Búsqueda de imágenes digitales por su contenido.
Estos objetivos se consiguen por medio de reconocimiento de patrones, aprendizaje
estadístico, geometría de proyección, procesamiento de imágenes, teoría de grafos y otros
campos. La visión artificial cognitiva está muy relacionada con la psicología cognitiva y
la computación biológica.
Actualmente, los sistemas de cómputo “inteligentes”, dependen aun de los humanos para
detectar en las pantallas comportamientos sospechosos. Las computadoras tienden a leer las
imágenes píxel a píxel y para ellas es difícil integrar esta información. Por lo tanto, parece
que todavía tenemos un largo camino que recorrer para fabricar un procesador que pueda
rivalizar con la materia gris de 1,5 kg ubicada entre nuestras orejas.
Microscopía digital26
Producción de la imagen digital en microscopía óptica
La digitalización de una imagen electrónica o de video capturada por un microscopio óptico
permite obtener un incremento espectacular en las posibilidades de ampliar características,
extraer información o modificar la imagen. En comparación con el mecanismo tradicional
de captura de imágenes, la fotomicrografía27
en película, la digitalización de la imagen y el
proceso de postadquisición/recuperación permiten una modificación reversible de la
imagen como matriz ordenada de enteros fundamentalmente libre de ruido, más que una
mera serie de variaciones análogas en color e intensidad. Esta sección trata sobre diversos
temas de actualidad acerca de la adquisición y procesamiento de imágenes para
microscopía óptica.
Las imágenes de señal continua se reproducen mediante dispositivos electrónicos
analógicos que registran los datos de la imagen con precisión utilizando varios métodos,
como una secuencia de fluctuaciones de la señal eléctrica o cambios en la naturaleza
química de la emulsión de una película, que varían continuamente en los diferentes
aspectos de la imagen. Para procesar o visualizar en el ordenador una señal continua o una
imagen analógica, se debe convertir primero a un formato comprensible para el ordenador o
formato digital. Este proceso se aplica a todas las imágenes, independientemente de su
26
Ibídem.
27
Se llama fotografía microscópica o fotomicrografia al conjunto de técnicas fotográficas que permiten
obtener esas imágenes con una ampliación mínima de diez veces. Langford, M. (1977). Manual de técnica
fotográfica. Madrid: Hermann Blume ediciones. pp. 335, 330.
origen, de su complejidad y de si son en blanco y negro (escala de grises) o a todo color.
Una imagen digital se compone de una matriz rectangular (o cuadrada) de píxeles que
representan una serie de valores de intensidad ordenados en un sistema de coordenadas
(x,y).
Esquema de las relaciones entre la visión por computadora y otras áreas afines.
Detectores de imagen electrónicos
La gama de métodos de detección de luz y la amplia variedad de dispositivos de imagen
que están disponibles actualmente para el microscopista hacen que su selección sea difícil y
a menudo confusa. Con este documento se pretende ofrecer ayuda para la comprensión de
conceptos básicos sobre la detección de luz y proporcionar una guía para la selección del
detector electrónico adecuado (CCD28
o sistema de videocámara) con aplicaciones
específicas de microscopía óptica.
28
Un charge-coupled device o CCD (en español «dispositivo de carga acoplada») es un circuito
integrado que contiene un número determinado de condensadores enlazados o acoplados. Bajo el control de
un circuito interno, cada condensador puede transferir su carga eléctrica a uno o a varios de los condensadores
que estén a su lado en el circuito impreso. La alternativa digital a los CCD son los
dispositivos CMOS (complementary metal oxide semiconductor) utilizados en algunas cámaras digitales y en
Historia de la inteligencia artificial
Historia de la inteligencia artificial
Historia de la inteligencia artificial
Historia de la inteligencia artificial
Historia de la inteligencia artificial
Historia de la inteligencia artificial

Más contenido relacionado

Destacado (9)

Mapas conceptuales: representando conocimiento (1 de 2)
Mapas conceptuales: representando conocimiento (1 de 2)Mapas conceptuales: representando conocimiento (1 de 2)
Mapas conceptuales: representando conocimiento (1 de 2)
 
Ensayo a cerca de la película el ultimo regalo.
Ensayo a cerca de la película el ultimo regalo.Ensayo a cerca de la película el ultimo regalo.
Ensayo a cerca de la película el ultimo regalo.
 
Reglas de Inferencia
Reglas de Inferencia Reglas de Inferencia
Reglas de Inferencia
 
Historia de las estructuras
Historia de las estructurasHistoria de las estructuras
Historia de las estructuras
 
Inteligencia Artificial
Inteligencia ArtificialInteligencia Artificial
Inteligencia Artificial
 
Inteligencia artificial exposición.ppt
Inteligencia artificial exposición.pptInteligencia artificial exposición.ppt
Inteligencia artificial exposición.ppt
 
Probabilidades matematica
Probabilidades matematicaProbabilidades matematica
Probabilidades matematica
 
Estructuras
EstructurasEstructuras
Estructuras
 
Historia De La Computadora
Historia De La ComputadoraHistoria De La Computadora
Historia De La Computadora
 

Similar a Historia de la inteligencia artificial

Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificialcarolayheredia
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificialjobel97
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificialandres55504
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificialandres55504
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificialjose carlos
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificialyuriel98
 
Trabajo de teoría de la computación
Trabajo de teoría de la computaciónTrabajo de teoría de la computación
Trabajo de teoría de la computaciónUNT VJ
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificialyakoooooo
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificialJekabel
 
Inteligencia artificial
Inteligencia artificial Inteligencia artificial
Inteligencia artificial Shyrley López
 
Intenligencia artificial
Intenligencia artificialIntenligencia artificial
Intenligencia artificialDemin Trejo
 
La Inteligencia Artificial
La Inteligencia ArtificialLa Inteligencia Artificial
La Inteligencia ArtificialDanielAlberto76
 
Inteligencia Artificial
Inteligencia ArtificialInteligencia Artificial
Inteligencia Artificialaovalle460
 

Similar a Historia de la inteligencia artificial (20)

Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
INTELEGENCIA ARTIFICIAL
INTELEGENCIA ARTIFICIALINTELEGENCIA ARTIFICIAL
INTELEGENCIA ARTIFICIAL
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Trabajo de teoría de la computación
Trabajo de teoría de la computaciónTrabajo de teoría de la computación
Trabajo de teoría de la computación
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Compu
CompuCompu
Compu
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Inteligencia arficial
Inteligencia arficialInteligencia arficial
Inteligencia arficial
 
Inteligencia artificial
Inteligencia artificial Inteligencia artificial
Inteligencia artificial
 
Inteligencia michelle
Inteligencia michelleInteligencia michelle
Inteligencia michelle
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Intenligencia artificial
Intenligencia artificialIntenligencia artificial
Intenligencia artificial
 
La Inteligencia Artificial
La Inteligencia ArtificialLa Inteligencia Artificial
La Inteligencia Artificial
 
Modulo5
Modulo5Modulo5
Modulo5
 
Inteligencia Artificial
Inteligencia ArtificialInteligencia Artificial
Inteligencia Artificial
 
Introducción a la IA
Introducción a la IAIntroducción a la IA
Introducción a la IA
 

Más de Universidad Militar Nueva Granada-Universidad de Cundinamarca

Más de Universidad Militar Nueva Granada-Universidad de Cundinamarca (20)

Whats app messenger
Whats app messengerWhats app messenger
Whats app messenger
 
Internet protocol-television
Internet protocol-televisionInternet protocol-television
Internet protocol-television
 
Categoria de-los-modelos-atomicos
Categoria de-los-modelos-atomicosCategoria de-los-modelos-atomicos
Categoria de-los-modelos-atomicos
 
Plan de-contingencias
Plan de-contingenciasPlan de-contingencias
Plan de-contingencias
 
Magnetoresistencia gigante
Magnetoresistencia giganteMagnetoresistencia gigante
Magnetoresistencia gigante
 
Dns caracteristicas-y-propiedades
Dns caracteristicas-y-propiedadesDns caracteristicas-y-propiedades
Dns caracteristicas-y-propiedades
 
Ransomware
RansomwareRansomware
Ransomware
 
Tutorial file inyector
Tutorial file inyectorTutorial file inyector
Tutorial file inyector
 
Ejercicios electrónica básica
Ejercicios electrónica básicaEjercicios electrónica básica
Ejercicios electrónica básica
 
Ultrasonidos y tejidos biológicos
Ultrasonidos y tejidos biológicosUltrasonidos y tejidos biológicos
Ultrasonidos y tejidos biológicos
 
Taller de termodinámica
Taller de termodinámicaTaller de termodinámica
Taller de termodinámica
 
Qué es la radiación
Qué es la radiaciónQué es la radiación
Qué es la radiación
 
Metabolismo basal
Metabolismo basalMetabolismo basal
Metabolismo basal
 
El escalón de potencial
El escalón de potencialEl escalón de potencial
El escalón de potencial
 
Taller de termodinámica
Taller de termodinámicaTaller de termodinámica
Taller de termodinámica
 
Tipos de memoria usadas para sistemas informáticos
Tipos de memoria usadas para sistemas informáticosTipos de memoria usadas para sistemas informáticos
Tipos de memoria usadas para sistemas informáticos
 
BOARD, ALIMENTACIÓN, PUERTOS, BUSES, OVERCLOKING, GPUS Y ALGO MÁS
BOARD, ALIMENTACIÓN, PUERTOS, BUSES, OVERCLOKING, GPUS Y ALGO MÁSBOARD, ALIMENTACIÓN, PUERTOS, BUSES, OVERCLOKING, GPUS Y ALGO MÁS
BOARD, ALIMENTACIÓN, PUERTOS, BUSES, OVERCLOKING, GPUS Y ALGO MÁS
 
Las neuronas y su funcionalidad
Las neuronas  y su funcionalidadLas neuronas  y su funcionalidad
Las neuronas y su funcionalidad
 
Comandos telnet
Comandos telnetComandos telnet
Comandos telnet
 
Aerogeneradores urbanos 2.0
Aerogeneradores urbanos 2.0Aerogeneradores urbanos 2.0
Aerogeneradores urbanos 2.0
 

Último

Voladura Controlada Sobrexcavación (como se lleva a cabo una voladura)
Voladura Controlada  Sobrexcavación (como se lleva a cabo una voladura)Voladura Controlada  Sobrexcavación (como se lleva a cabo una voladura)
Voladura Controlada Sobrexcavación (como se lleva a cabo una voladura)ssuser563c56
 
Residente de obra y sus funciones que realiza .pdf
Residente de obra y sus funciones que realiza  .pdfResidente de obra y sus funciones que realiza  .pdf
Residente de obra y sus funciones que realiza .pdfevin1703e
 
sistema de construcción Drywall semana 7
sistema de construcción Drywall semana 7sistema de construcción Drywall semana 7
sistema de construcción Drywall semana 7luisanthonycarrascos
 
clases de dinamica ejercicios preuniversitarios.pdf
clases de dinamica ejercicios preuniversitarios.pdfclases de dinamica ejercicios preuniversitarios.pdf
clases de dinamica ejercicios preuniversitarios.pdfDanielaVelasquez553560
 
El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kV
El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kVEl proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kV
El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kVSebastianPaez47
 
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIPSEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIPJosLuisFrancoCaldern
 
Reporte de Exportaciones de Fibra de alpaca
Reporte de Exportaciones de Fibra de alpacaReporte de Exportaciones de Fibra de alpaca
Reporte de Exportaciones de Fibra de alpacajeremiasnifla
 
SOLICITUD-PARA-LOS-EGRESADOS-UNEFA-2022.
SOLICITUD-PARA-LOS-EGRESADOS-UNEFA-2022.SOLICITUD-PARA-LOS-EGRESADOS-UNEFA-2022.
SOLICITUD-PARA-LOS-EGRESADOS-UNEFA-2022.ariannytrading
 
CICLO DE DEMING que se encarga en como mejorar una empresa
CICLO DE DEMING que se encarga en como mejorar una empresaCICLO DE DEMING que se encarga en como mejorar una empresa
CICLO DE DEMING que se encarga en como mejorar una empresaSHERELYNSAMANTHAPALO1
 
Curso intensivo de soldadura electrónica en pdf
Curso intensivo de soldadura electrónica  en pdfCurso intensivo de soldadura electrónica  en pdf
Curso intensivo de soldadura electrónica en pdfFernandaGarca788912
 
PPT SERVIDOR ESCUELA PERU EDUCA LINUX v7.pptx
PPT SERVIDOR ESCUELA PERU EDUCA LINUX v7.pptxPPT SERVIDOR ESCUELA PERU EDUCA LINUX v7.pptx
PPT SERVIDOR ESCUELA PERU EDUCA LINUX v7.pptxSergioGJimenezMorean
 
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESA
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESAIPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESA
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESAJAMESDIAZ55
 
MANIOBRA Y CONTROL INNOVATIVO LOGO PLC SIEMENS
MANIOBRA Y CONTROL INNOVATIVO LOGO PLC  SIEMENSMANIOBRA Y CONTROL INNOVATIVO LOGO PLC  SIEMENS
MANIOBRA Y CONTROL INNOVATIVO LOGO PLC SIEMENSLuisLobatoingaruca
 
Introducción a los sistemas neumaticos.ppt
Introducción a los sistemas neumaticos.pptIntroducción a los sistemas neumaticos.ppt
Introducción a los sistemas neumaticos.pptEduardoCorado
 
Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...
Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...
Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...SuannNeyraChongShing
 
Calavera calculo de estructuras de cimentacion.pdf
Calavera calculo de estructuras de cimentacion.pdfCalavera calculo de estructuras de cimentacion.pdf
Calavera calculo de estructuras de cimentacion.pdfyoseka196
 
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdf
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdfReporte de simulación de flujo del agua en un volumen de control MNVA.pdf
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdfMikkaelNicolae
 
Comite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptxComite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptxClaudiaPerez86192
 
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdfTAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdfAntonioGonzalezIzqui
 
Magnetismo y electromagnetismo principios
Magnetismo y electromagnetismo principiosMagnetismo y electromagnetismo principios
Magnetismo y electromagnetismo principiosMarceloQuisbert6
 

Último (20)

Voladura Controlada Sobrexcavación (como se lleva a cabo una voladura)
Voladura Controlada  Sobrexcavación (como se lleva a cabo una voladura)Voladura Controlada  Sobrexcavación (como se lleva a cabo una voladura)
Voladura Controlada Sobrexcavación (como se lleva a cabo una voladura)
 
Residente de obra y sus funciones que realiza .pdf
Residente de obra y sus funciones que realiza  .pdfResidente de obra y sus funciones que realiza  .pdf
Residente de obra y sus funciones que realiza .pdf
 
sistema de construcción Drywall semana 7
sistema de construcción Drywall semana 7sistema de construcción Drywall semana 7
sistema de construcción Drywall semana 7
 
clases de dinamica ejercicios preuniversitarios.pdf
clases de dinamica ejercicios preuniversitarios.pdfclases de dinamica ejercicios preuniversitarios.pdf
clases de dinamica ejercicios preuniversitarios.pdf
 
El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kV
El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kVEl proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kV
El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kV
 
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIPSEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
 
Reporte de Exportaciones de Fibra de alpaca
Reporte de Exportaciones de Fibra de alpacaReporte de Exportaciones de Fibra de alpaca
Reporte de Exportaciones de Fibra de alpaca
 
SOLICITUD-PARA-LOS-EGRESADOS-UNEFA-2022.
SOLICITUD-PARA-LOS-EGRESADOS-UNEFA-2022.SOLICITUD-PARA-LOS-EGRESADOS-UNEFA-2022.
SOLICITUD-PARA-LOS-EGRESADOS-UNEFA-2022.
 
CICLO DE DEMING que se encarga en como mejorar una empresa
CICLO DE DEMING que se encarga en como mejorar una empresaCICLO DE DEMING que se encarga en como mejorar una empresa
CICLO DE DEMING que se encarga en como mejorar una empresa
 
Curso intensivo de soldadura electrónica en pdf
Curso intensivo de soldadura electrónica  en pdfCurso intensivo de soldadura electrónica  en pdf
Curso intensivo de soldadura electrónica en pdf
 
PPT SERVIDOR ESCUELA PERU EDUCA LINUX v7.pptx
PPT SERVIDOR ESCUELA PERU EDUCA LINUX v7.pptxPPT SERVIDOR ESCUELA PERU EDUCA LINUX v7.pptx
PPT SERVIDOR ESCUELA PERU EDUCA LINUX v7.pptx
 
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESA
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESAIPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESA
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESA
 
MANIOBRA Y CONTROL INNOVATIVO LOGO PLC SIEMENS
MANIOBRA Y CONTROL INNOVATIVO LOGO PLC  SIEMENSMANIOBRA Y CONTROL INNOVATIVO LOGO PLC  SIEMENS
MANIOBRA Y CONTROL INNOVATIVO LOGO PLC SIEMENS
 
Introducción a los sistemas neumaticos.ppt
Introducción a los sistemas neumaticos.pptIntroducción a los sistemas neumaticos.ppt
Introducción a los sistemas neumaticos.ppt
 
Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...
Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...
Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...
 
Calavera calculo de estructuras de cimentacion.pdf
Calavera calculo de estructuras de cimentacion.pdfCalavera calculo de estructuras de cimentacion.pdf
Calavera calculo de estructuras de cimentacion.pdf
 
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdf
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdfReporte de simulación de flujo del agua en un volumen de control MNVA.pdf
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdf
 
Comite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptxComite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptx
 
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdfTAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
 
Magnetismo y electromagnetismo principios
Magnetismo y electromagnetismo principiosMagnetismo y electromagnetismo principios
Magnetismo y electromagnetismo principios
 

Historia de la inteligencia artificial

  • 1. Historia de la inteligencia artificial y características1 Ms. Ing. Jairo E. Márquez D. La Inteligencia Artificial surge a partir de algunos trabajos publicados en la década de 1940, los cuales no tuvieron gran repercusión, pero a partir del influyente trabajo en 1950 de Alan Turing, matemático británico, se abre una nueva disciplina de las ciencias de la información. Si bien las ideas fundamentales se remontan a la lógica y algoritmos de los griegos, y a las matemáticas de los árabes, varios siglos antes de Cristo, el concepto de obtener razonamiento artificial aparece en el siglo XIV. A finales del siglo XIX se obtienen lógicas formales suficientemente poderosas y a mediados del siglo XX, se obtienen máquinas capaces de hacer uso de tales lógicas y algoritmos de solución. Entonces, ¿qué es la inteligencia artificial? - Es el nuevo y excitante esfuerzo de hacer que los computadores piensen… máquinas con mentes, en el más amplio sentido literal. (Haugeland, 1985). - El estudio de los cálculos que hacen posible percibir, razonar y actuar. (Winston, 1992). - El arte de desarrollar máquinas con capacidad para realizar funciones que cuando son realizadas por personas requieren de inteligencia. (Kurzweil, 1990). - Es el resultado de combinar distintas áreas (ciencias) con el propósito de crear máquinas que puedan (inteligencia). (Grupo 13). - El estudio de como hacer computadoras que hagan cosas que, de momento, la gente hace mejor. (Rich y Knight, 1991). - Un campo de estudio que busca explicar y emular el comportamiento inteligente en términos de procesos computacionales. (Schalkoff, 1990). - El estudio de las facultades mentales a través del estudio de modelos computacionales. (Charniak y McDermott, 1985) Estos conceptos confluyen a lo que se puede definir como Máquina inteligente; la cual es toda aquella que toma una decisión o piensa, producto de deducir de la información que dispone en su memoria. En otras palabras, lo que deduce no se encuentra exactamente igual en la memoria, sino que se toma información que fue almacenada anteriormente para 1 Fuente de consulta. Historia de la inteligencia artificial. http://es.wikipedia.org/wiki/Historia_de_la_inteligencia_artificial [En línea] Consultado el 18 de noviembre de 2011. Modificado y/o adaptado por el autor.
  • 2. realizar una deducción. Por consiguiente, se infiere que la IA a diferencia de los sistemas operacionales presenta ciertos elementos que la distinguen, como son: Los sistemas operacionales se caracterizan por: - Pensar el algoritmo para luego programarlo. - Procesamiento de datos mayormente. - Solo acepta la mejor solución posible. Para el caso de la IA: - Busca la información necesaria para solucionar un problema. - Procesamiento de conocimiento. - Acepta una respuesta o solución viable. La Inteligencia Artificial comenzó como el resultado de la investigación en psicología cognitiva y lógica matemática. Se ha enfocado sobre la explicación del trabajo mental y construcción de algoritmos de solución a problemas de propósito general. Punto de vista que favorece la abstracción y la generalidad. La Inteligencia Artificial es una combinación de la ciencia del computador, fisiología y filosofía, tan general y amplio como eso, es que reúne varios campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas que pueden "pensar". Trabajos teóricos fundamentales fueron el desarrollo de algoritmos matemáticos por Warren McCullock y Walter Pitts, en 1943, necesarios para posibilitar el trabajo de clasificación, o funcionamiento en sentido general, de una red neuronal. En 1949 Donald Hebb desarrolló un algoritmo de aprendizaje para dichas redes neuronalescreando, en conjunto con los trabajos de McCullock y Pitts, la escuela creacionista. Esta escuela se considera hoy como el origen de la Inteligencia Artificial, sin embargo se trató poco por muchos años, dando paso al razonamiento simbólico basado en reglas de producción, lo que se conoce como sistemas expertos. Características de la Inteligencia Artificial2 1. Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque 2 Fuente. Neurociencia y Realidad virtual. http://neurocienciaeia.blogspot.com/ [On line] Consultado el 20 de julio de 2012.
  • 3. no es suficiente para distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de bases de datos, también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial. 2. El comportamiento de los programas no es descrito explícitamente por el algoritmo. La secuencia de pasos seguidos por el programa es influenciado por el problema particular presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado. 3. Estos programas incorporan factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan. 4. Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas. Heurística e Inteligencia Artificial3 La heurística se trata del arte de innovar, de visualizar en el diseño, de concebir nuevas ideas, de hacer descubrimientos o logros, también es la capacidad de un sistema para realizar de forma inmediata innovaciones positivas para sus fines. La capacidad heurística es un rasgo característico de los humanos, desde cuyo punto de vista puede describirse como el arte y la ciencia del descubrimiento y de la invención o de resolver problemas mediante la creatividad y el pensamiento lateral o pensamiento divergente. Los procesos que se llevan a cabo en el cerebro pueden ser analizados, a un nivel de abstracción dado, como procesos computacionales de algún tipo. En cierto sentido, el enfoque heurístico es el característico de la IA. Newell y Simon asociaban el "método de búsqueda heurística" con el tipo de representación de soluciones 3 Heurística e Inteligencia Artificial. Revista. Hiperenciclopedica de Divulgación del saber. Año 2006. Vol. 5, némuro 4. Octubre a diciembre de 2011.
  • 4. parciales. Nosotros nos vamos a limitar a explicar qué significa el término "heurística" en el ámbito de la inteligencia artificial. Desde el inicio de la IA, el término "heurística" osciló entre dos sentidos fundamentales vinculados a la utilización de información del dominio de problemas (con el fin de hacer una búsqueda más eficiente) y a la imposibilidad de garantizar encontrar la solución de un problema. Estas definiciones se refieren, a dos conjuntos diferentes de métodos: dispositivos que mejoran la eficiencia y dispositivos que no garantizan obtener un resultado. El paradigma metaheurístico consiste en una familia de métodos de búsqueda que comenzó a desarrollarse con ese nombre a partir de la década del 80. Estrictamente no se lo considera un paradigma sino simplemente un conjunto de métodos o herramientas de búsqueda, pero es posible que tarde o temprano entre en esta categoría. Osman y Kelly (1996) describen la metaheurística del siguiente modo: "Estas familias de enfoques incluyen pero no se limitan a procedimientos adaptativos aleatorios golosos, algoritmos genéticos, búsqueda de umbral y sus híbridos. Incorporan conceptos basados en la evolución biológica, la resolución inteligente de problemas, las ciencias matemáticas y físicas, el estudio del sistema nervioso y la mecánica estadística". Un poco más adelante los autores describen a la disciplina de la siguiente forma: "Las metaheurísticas son una clase de métodos aproximados, que están diseñados para atacar problemas de optimización combinatoria difíciles para los que las heurísticas clásicas fracasaron en ser efectivas y eficientes. Las metaheurísticas proporcionan marcos generales que permiten crear nuevos híbridos combinando diferentes
  • 5. conceptos de: heurísticas clásicas; inteligencia artificial; evolución biológica; sistemas neuronales y mecánica estadística". Finalmente, Osman y Kelly comentan: "Debe notarse que existen convergencias teóricas para algunas de las metaheurísticas bajo algunos supuestos. Sin embargo, estos supuestos no pueden satisfacerse o aproximarse en la mayoría de las aplicaciones prácticas. Por lo tanto, se pierde la capacidad para demostrar optimalidad y se obtienen soluciones aproximadas. A pesar de este inconveniente, las metaheurísticas han sido altamente exitosas en encontrar soluciones óptimas o cuasi óptimas en muchas aplicaciones prácticas de optimizaciones en diversas áreas, más que sus heurísticas subordinadas". Yagiura e Ibaraki (1996) mencionan la combinación de herramientas heurísticas en marcos más sofisticados como característica distintiva de las metaheurísticas y consideran que dos de sus propiedades atractivas son la simplicidad y la robustez. Finalmente y para que conste la estrecha relación entre heurística e inteligencia artificial presentamos algunas definiciones clásicas de Inteligencia Artificial:  Systems that can demonstrate human-like reasoning capability to enhance the quality of life and improve business competitiveness. (Japan-S’pore AI Centre)
  • 6.  La Inteligencia Artificial es el estudio de técnicas de resolución de problemas con complejidad exponencial a partir del conocimiento del campo de aplicación del problema. (Rich) Tipos de algoritmos Heurísticos En una primera clasificación podemos decir que los algoritmos heurísticos pueden ser simples o complejos. Los algoritmos simples tienden a tener reglas de terminación bien definidas, y se detienen en un óptimo local, mientras que los algoritmos más complejos pueden no tener reglas de terminación estándar, y buscan soluciones mejores hasta alcanzar un punto de parada arbitrario. Dentro de los algoritmos heurísticos complejos podemos hacer una segunda clasificación, esta vez orientada a la funcionalidad de los mismos. En primer lugar podemos encontrarnos con algoritmos que fueron diseñados para dar solución a problemas de búsqueda de óptimos o clasificación y por otro lado tenemos los algoritmos que tratan de deducir conocimiento a partir de un conjunto de axiomas, estos últimos conocidos como sistemas basados en el conocimiento. Entre los algoritmos de búsqueda de óptimos se encuentran los siguientes métodos:  Búsqueda Tabú  Temple Simulado  Algoritmos Genéticos  Redes Neuronales  Agentes inteligentes Los sistemas basados en el conocimiento definen un área muy concreta dentro de la inteligencia artificial, conocida como Ingeniería del conocimiento. Los sistemas desarrollados en este campo siguen un patrón heurístico similar al razonamiento humano. Búsqueda Tabú
  • 7. La búsqueda tabú es un procedimiento o estrategia dado a conocer en los trabajos de Glover, y que esta teniendo grandes éxitos y mucha aceptación en los últimos años. Según su creador, es un procedimiento que "explora el espacio de soluciones más allá del óptimo local", (Glover y Laguna). Se permiten cambios hacia arriba o que empeoran la solución, una vez que se llega a un óptimo local. Simultáneamente los últimos movimientos se califican como tabús durante las siguientes iteraciones para evitar que se vuelvan a soluciones anteriores y el algoritmo cicle. El término tabú hace referencia a un tipo de inhibición a algo debido a connotaciones culturales o históricas y que puede ser superada en determinadas condiciones. (Glover). Temple Simulado El uso del temple simulado en problemas de Optimización se ha extendido desde mediados de los ochenta hasta ahora, a partir de los trabajos de Kirpatrick, Gelatt & Vecchi. Los algoritmos Temple Simulado están basados en una estrecha analogía entre los procesos físicos termodinámicos y los elementos de un problema de optimización combinatoria. Aunque asintóticamente estos algoritmos se comportan como exactos, (un análisis exhaustivo de esta afirmación se puede encontrar en el trabajo de Aarts & Korst), en la práctica se diseñan como heurísticos. El campo de aplicaciones se ha extendido durante estos años. En problemas de rutas destacan las aportaciones de Osman, para el VRP; y Aarts y otros, para el problema del viajante de comercio. Algoritmos Genéticos En los años setenta, de la mano de John Holland surgió una de las líneas más prometedoras de la inteligencia artificial, la de los algoritmos genéticos. Son llamados así porque se inspiran en la evolución biológica y su base genético-molecular. Estos algoritmos hacen evolucionar una población de individuos sometiéndola a acciones aleatorias semejantes a las que actúan en la evolución biológica (mutaciones y recombinación genética), así como también a una selección de acuerdo con algún criterio, en función del cual se decide cuáles son los individuos más adaptados, que sobreviven, y cuáles los menos aptos, que son descartados. Redes Neuronales
  • 8. En inteligencia artificial las redes de neuronas artificiales (RNA) son un ejemplo de aprendizaje y procesamiento automático basado en el funcionamiento del sistema nervioso animal. Se trata de simular el comportamiento observado en las redes neuronales biológicas a través de modelos matemáticos mediante mecanismos artificiales (circuitos integrados, ordenadores...). Con las RNA se pretende conseguir que las máquinas den repuestas similares a las del cerebro humano, caracterizadas por su generalización y robustez. Sistemas expertos Los sistemas expertos se basan en simular el razonamiento humano con un doble interés: en primer lugar el del analizar el razonamiento de un experto en la materia para poder codificarlo con la ayuda de un determinado lenguaje informático; por otra parte, la síntesis artificial de los razonamientos para que se parezcan a los del experto humano en la resolución de un determinado problema. Estos dos intereses han hecho que los investigadores del campo de la IA intenten establecer una metodología que les permita verificar la "comunicación" con los expertos y separar los distintos tipos de razonamiento (formal, deductivo, inductivo...), además de construir los elementos necesarios para modelizarlos. Mientras que en la programación clásica se diferencia solamente entre el programa y los datos, en los sistemas expertos se diferencian tres componentes:  Una base de conocimientos  Una base de hechos  Un motor de inferencia La base de conocimientos almacena toda la información específica relativa al campo de conocimiento deseado. Para ello se hace uso de un lenguaje específico para representar los conocimientos y que permite definir al experto su propio vocabulario técnico. En la base de hechos se encuentran los datos relativos a los problemas que se quieren resolver con la ayuda del sistema. La memoria de trabajo almacena los resultados intermedios, pudiendo guardar el rastro de las inferencias realizadas. Es por eso que puede utilizarse para explicar la forma en la que el sistema ha deducido la información durante una sesión de trabajo o describir el comportamiento del propio sistema. Al comienzo del período de trabajo, en la base de hechos sólo se encuentran los datos introducidos por el usuario del sistema, pero a medida que actúa el motor de inferencia, almacena las inducciones y deducciones que ha llevado a cabo el sistema para conseguir las conclusiones.
  • 9. El motor de inferencia, es un programa que a partir del "conocimiento" puede resolver el problema especificado. Esto se consigue gracias a los datos de la base de hechos del sistema. Por lo general, las reglas de la base de conocimiento son silogismos demostrativos (si A es cierto entonces deducimos B). En este caso, el motor de inferencias selecciona, valida y activa las reglas que permiten obtener la solución correspondiente al problema en cuestión. Existen dos tipos de motor de inferencia: los que emplean el razonamiento aproximado (cuyo resultado puede ser erróneo) y los que usan un tipo de razonamiento a partir del que se puede obtener resultado verdadero. Los elementos básicos de todo sistema experto son: 1. Base de conocimientos: diseñada a partir del conocimiento de un experto o grupo de expertos humanos, está formada por reglas de validez general, distribuciones de probabilidad,... 2. Motor de inferencia: sistema de procesamiento lógico o probabilístico que permite obtener unas conclusiones a partir de unos datos. 3. Interface de usuario: medio de comunicación entre el usuario y la máquina. A través de la interface el sistema solicita datos al usuario y le muestra las conclusiones obtenidas. 4. Subsistema de adquisición de conocimiento: controla la forma en la que nuevo conocimiento es incorporado a la base de conocimientos. 5. Subsistema de explicación: se encarga de justificar las conclusiones obtenidas. Esquema de funcionamiento de un sistema experto
  • 10. Agentes inteligentes En los últimos años, dentro de la Inteligencia Artificial se están dedicando importantes esfuerzos a la construcción de programas conocidos como agentes inteligentes. Se trata de programas capaces de llegar a averiguar los gustos o preferencias del usuario y adaptarse a ellos. Aunque son muchos los posibles usos, uno de los más destacados es la búsqueda de información en Internet. En la red pueden encontrarse ya programas que son capaces de llegar a identificar los temas de interés de un usuario particular a partir de las búsquedas que habitualmente realiza, una vez identificados esos temas pueden actuar como filtros, mostrando al usuario únicamente la información que le pueda resultar relevante, o informando automáticamente de la aparición de nuevas páginas sobre sus temas de interés. (Cobo O. Ángel). Introducción a la verificación en la ingeniería del conocimiento. Al igual que la ingeniería del software, la ingeniería del conocimiento cuenta entre sus fases con una destinada a la evaluación del sistema desarrollado. Fases habituales en la ingeniería del conocimiento: 1. Estudio de viabilidad 2. Adquisición del conocimiento 3. Conceptualización (análisis) 4. Formalización (diseño) 5. Implementación 6. Evaluación La fase de evaluación en la ingeniería del conocimiento se caracteriza por los siguientes aspectos a tener en cuenta  Verificación  Sintaxis y estructura adecuada (no redundante, completa, consistente)  Se realiza en modelos conceptuales, formales y computables  Validación  Semántica adecuada [experto]  Se realiza en modelos conceptuales, formales y computables Por lo tanto podemos considerar como un proceso fundamental en la evaluación de "software inteligente" la creación de modelos matemáticos. Modelos Matemáticos Una de las fases del método heurístico se basa en construir modelos. Aunque existen muchas definiciones de modelo,
  • 11. una de las más interesantes es la de Aracil: "Un modelo constituye una representación abstracta de un cierto aspecto de la realidad, y tiene una estructura que está formada por los elementos que caracterizan el aspecto de la realidad modelada y por las relaciones entre estos elementos". Nosotros estamos interesados en modelos formales basados en la lógica matemática, y estos están basados en un conjunto de relaciones matemáticas (relaciones lógicas, ecuaciones, inecuaciones, etc.) que representan las relaciones existentes en el mundo real. Un modelo queda por lo tanto definido por las relaciones que contiene. Podemos clasificar los modelos matemáticos según su función:  Modelos predictivos: Son aquellos que nos informan sobre el comportamiento de la variable en el futuro, esto es, lo que debería ser. Los modelos basados en técnicas estadísticas se corresponden con este tipo.  Modelos evaluativos: Se basan en medir las diferentes alternativas para comparar los resultados de ellas. Este es el caso de los árboles de decisión.  Modelos de optimización: Estos modelos tratan de localizar un optimo del problema (generalmente el óptimo global), es decir, buscan la mejor alternativa posible. Están basados en técnicas de programación matemática. Una vez se ha mostrado una breve clasificación de los modelos, es necesario aportar una medida de su solución, puesto que el objetivo de definir un modelo es, resolverlo "cómodamente" y extraer los resultados necesarios para tomar alguna decisión. La resolubilidad de los problemas depende de tres características: 1. El tamaño del problema: La variables y ecuaciones que contiene. para un mayor número de éstas resultará más difícil resolver el problema. 2. El tipo del problema: entero, lineal y no lineal. Los problemas lineales son "fáciles" de resolver, mientras que los no lineales son muy difíciles. 3. El tipo de instancias: Deterministas o ciertas, con riesgo (conociendo la probabilidad de ocurrencia), con incertidumbre (se conocen los posibles resultados pero no la probabilidad de que ocurran) y turbulencia (no conocemos ninguna cosa). Punto de inflexión de la disciplina En su histórico artículo de 1950, Turing propuso que la pregunta «¿puede pensar una máquina?» era demasiado filosófica para tener valor y, para hacerlo más concreto, propuso un «juego de imitación». En la prueba de Turing intervienen dos personas y un computadora. Una persona, el interrogador, se sienta en una sala y teclea preguntas en la terminal de una computadora. Cuando aparecen las respuestas en la terminal, el interrogador intenta determinar si fueron hechas por otra persona o por una computadora. Si actúa de manera inteligente, según Turing es inteligente. Turing, señaló que una máquina podría fracasar y aún ser inteligente. Aun así creía que las máquinas podrían superar la prueba a finales del siglo XX.
  • 12. De todas maneras esta prueba no tuvo el valor práctico que se esperaba, aunque sus repercusiones teóricas son fundamentales. El enfoque de Turing de ver a la inteligencia artificial como una imitación del comportamiento humano no fue tan práctico a lo largo del tiempo y el enfoque dominante ha sido el del comportamiento racional, de manera similar, en el campo de la aeronáutica se dejó de lado el enfoque de tratar de imitar a los pájaros y se tomó el enfoque de comprender las reglas de aerodinámica. Aunque desde luego, el enfoque del comportamiento humano y el del pensamiento humano siguen siendo estudiados por las ciencias cognitivas4 y continúan aportando interesantes resultados a la Inteligencia Artificial, y viceversa. Disciplinas sobre las que se apoya La ciencia no se define, sino que se reconoce. Para la evolución de la Inteligencia Artificial las dos fuerzas más importantes fueron la lógica matemática, la cual se desarrolla rápidamente a finales del siglo XIX, y las nuevas ideas acerca de computación y los avances en electrónica que permitieron la construcción de los primeros computadores en 1940. También son fuente de la inteligencia artificial: la filosofía, la neurociencia y la lingüística. La lógica matemática ha continuando siendo un área muy activa en la inteligencia artificial. Incluso antes de la existencia de los ordenadores con los sistemas lógicos deductivos. 4 Se denomina ciencia cognitiva al estudio interdisciplinario de cómo la información es representada y transformada en la mente/cerebro. Es el conjunto de disciplinas que surgen de la convergencia transdisciplinaria de investigaciones científicas y tecnológicas, en torno a los fenómenos funcionales y emergentes, dados a partir de las actividades neurofisiológicas del encéfalo y del sistema nervioso, incorporados, y que típicamente se les denomina como: mente y comportamiento. La naturaleza de las investigaciones cognitivas es necesariamente transdisciplinaria (es decir, tanto inter como multidisciplinarias), surgiendo en un primer momento a partir de disciplinas autónomas como la lingüística, la psicobiología cognitiva y la inteligencia artificial, y añadiéndose en una etapa más reciente la neurociencia y la antropología cognitiva.
  • 13. Orígenes y Evolución Cronológica Antecedentes Los juegos matemáticos antiguos, como el de las Torres de Hanói (hacia el 3000 a. C.), muestran el interés por la búsqueda de un modo resolutor, capaz de ganar con los mínimos movimientos posibles. Cerca de 300 a. C., Aristóteles fue el primero en describir de manera estructurada un conjunto de reglas, silogismos, que describen una parte del funcionamiento de la mente humana y que, al seguirlas paso a paso, producen conclusiones racionales a partir de premisas dadas. En 250 a. C. Ctesibio de Alejandría construyó la primera máquina autocontrolada, un regulador del flujo de agua que actuaba modificando su comportamiento "racionalmente" (correctamente) pero claramente sin razonamiento. En 1315, Ramon Llull tuvo la idea de que el razonamiento podía ser efectuado de manera artificial. En 1847 George Boole estableció la lógica proposicional (booleana), mucho más completa que los silogismos de Aristóteles, pero aún algo poco potente. En 1879 Gottlob Frege extiende la lógica booleana y obtiene la Lógica de Primer Orden la cual cuenta con un mayor poder de expresión y es utilizada universalmente en la actualidad. En 1903 Lee De Forest inventa el triodo, también llamado bulbo o válvula de vacío.
  • 14. En 1937 Alan Turing publicó un artículo de bastante repercusión sobre los "Números Calculables", un artículo que estableció las bases teóricas para todas las ciencias de computación, y que puede considerarse el origen oficial de la informática teórica. En este artículo introdujo el concepto de Máquina de Turing, una entidad matemática abstracta que formalizó el concepto de algoritmo y resultó ser la precursora de las computadoras digitales. Podía conceptualmente leer instrucciones de una cinta de papel perforada y ejecutar todas las operaciones críticas de un computador. El artículo fijó los límites de las ciencias de la computación porque demostró que no es posible resolver problemas con ningún tipo de computador. Con ayuda de su máquina, Turing pudo demostrar que existen problemas irresolubles, de los que ningún ordenador será capaz de obtener su solución, por lo que se le considera el padre de la teoría de la computabilidad5 . En 1940 Alan Turing y su equipo construyeron el primer computador electromecánico y en 1941 Konrad Zuse creó la primera computadora programable y el primer lenguaje de 5 La Teoría de la computabilidad es la parte de la computación que estudia los problemas de decisión que pueden ser resueltos con un algoritmo o equivalentemente con una máquina de Turing. La teoría de la computabilidad se interesa a cuatro preguntas:  ¿Qué problemas puede resolver una máquina de Turing?  ¿Qué otros formalismos equivalen a las máquinas de Turing?  ¿Qué problemas requieren máquinas más poderosas?  ¿Qué problemas requieren máquinas menos poderosas? La teoría de la complejidad computacional clasifica las funciones computables según el uso que hacen de diversos recursos en diversos tipos de máquina.
  • 15. programación de alto nivel Plankalkül. Las máquinas más potentes, aunque con igual concepto, fueron la ABC y ENIAC. En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo de inteligencia artificial, aun cuando todavía no existía el término. 1950´s En 1950 Turing consolidó el campo de la inteligencia artificial con su artículo Computing Machinery and Intelligence, en el que propuso una prueba concreta para determinar si una máquina era inteligente o no, su famosa Prueba de Turing por lo que se le considera el padre de la Inteligencia Artificial. Años después Turing se convirtió en el adalid que quienes defendían la posibilidad de emular le pensamiento humano a través de la computación y fue coautor del primer programa para jugar ajedrez. En 1951 William Shockley inventa el transistor de unión. El invento hizo posible una nueva generación de computadoras mucho más rápidas y pequeñas. Durante este periodo la IA se redujo a una actividad académica poco conocida fuera de los ambientes especializados. La ambición exagerada en los objetivos planteados se contrapuso con las limitaciones de la tecnología de la época, lo que conllevaría una desilusión generalizada al final de estos años, y no solo por estas limitaciones, sobre todo por la constatación teórica de la imposibilidad de obtener resultados en ciertos casos. A pesar de esto, se realizaron avances menos ambiciosos, y entre los proyectos más destacados se encuentran:6 - Logic theorist. (1956). Fue programado por Alan Newell, Herbert Simon y J.C. Shaw y buscaba las demostraciones de Teoremas Lógicos, es decir, de la forma: supuesto que o bien X o bien Y es verdadera, y supuesto que Y es falsa, entonces X es verdadera. En 1956 se acuñó el término "inteligencia artificial" en Dartmouth durante una conferencia convocada por McCarthy, a la cual asistieron, entre otros, Minsky, Newell y Simon. En esta conferencia se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años. - General Problem Solver.(GPS) Este programa intentaba resolver problemas mediante una técnica que permitiera, dados el objetivo y los medios disponibles, encontrar la manera de utilizar dichos medios para alcanzar el objetivo (análisis medios-fines), pero solo se pudo aplicar a algunas tareas muy simples ya que requería gran cantidad de conocimientos sobre el dominio. 6 Fuente de consulta. Historia e la inteligencia artificial. http://matap.dmae.upm.es/LE/Divulgacion/IA/ISMAESWEB/historia/historia.htm [On line] Consultado el 20 de julio de 2012.
  • 16. - Perceptrón. (1958). Fue iniciado por Frank Rosenblatt, con la intención de determinar algunas de las propiedades fundamentales de los sistemas inteligentes. Rosenblatt creía que la conducción de la información a través de las redes neuronales tenía un gran componente aleatorio, y por eso utilizó la teoría de probabilidad. La mejora del Perceptrón hizo que fuera capaz de distinguir y clasificar patrones muy complejos, y aunque en 1969, Minsky y Papert con su "Perceptrons: An Introduction to Computational Geometry" pusieron de manifiesto las limitaciones de este tipo de redes, como el de solucionar problemas que no sean linealmente separables, el Perceptrón ha servido como base para otros modelos de red neuronal como la Adaline, o las redes multicapa. - LISP. (1958). Jhon McCarthy creo el lenguaje de programación de los investigadores de la IA - SAINT. (1961) Programa de J. Slagle, que inicia la automatización de la integración simbólica. - Geometry Theorem Prover. (1958). Programa desarrollado por IBM para resolver problemas geométricos. - Programa para jugar a las damas. (1962). Creado por Samuel, y también desarrollado por IBM, era capaz de aprender de la experiencia, y corregir sus propios errores para partidas posteriores. Bernstein logró lo mismo para el ajedrez, pero las quejas de los accionistas de IBM, al considerar que se estaba gastando su dinero que frivolidades acabo con estos proyectos. - Traducción Automática. Tras la II Guerra Mundial, en la que los británicos utilizaron ordenadores para descifrar códigos secretos nazis, la CIA intento crear un programa que tradujera casi en el acto cualquier texto de cualquier idioma, pero tras un gran esfuerzo humano y económico el proyecto resulto un fracaso y se paralizaron todos las investigaciones lingüísticas financiadas con dinero público. Un ejemplo del resultado de la traducción del inglés al ruso y luego del ruso al inglés. Original en ingles: El espíritu es fuerte, pero la carne es débil. Resultado después de traducir al ruso y luego al inglés: El vodka es bueno, pero el filete está podrido. - Micromundos de Bloques. (1963). Tras desistir de los intentos en visión artificial, en los que se intentaba conectar una cámara a un ordenador y que este describiera lo visto, se intento llevarlo a cabo con unos objetivos más humildes. Los micromundos son "representaciones" de laboratorio de la vida real, donde quien interactué con la realidad sea un ordenador, y así en 1964 se crearon los programas STUDENT y SIR. El primero, creado por Bobrow, entendía enunciados de problemas algebraicos y respondía a preguntas del tipo: Juan tiene 10 años más que Pedro que tiene el doble de Luis... Por su parte el SIR comprendía oraciones sencillas. Ambos funcionaban por "comparación de patrones", es decir, detectando unas palabras clave en una posición determinada obtenía la información necesaria.
  • 17. - ELIZA. (1965) Creado por Weizenbaum, que perfeccionaba al STUDENT y al MIT, permitiendo cambiar de tema, por ejemplo. ELIZA es un programa de gran importancia dentro de la IA, pero su forma de entablar una conversación se debe a numerosos "trucos", como repetir frases cambiando el "yo" por el "tu" o utilizar frases hechas ("ya veo", etc). Parecía que el ELIZA lograría superar el test de Turing, pero no lo hizo, pues este programa, en medio de una conversación, intercala frases hechas que un humano no utilizaría. - SHAKEY. (1969) Un equipo de investigación de Stanford tuvo la idea de poner ruedas a un robot. El ejército americano vio en este proyecto la posibilidad de lograr un espía mecánico, pero su apariencia no pasaba ni mucho menos inadvertida, y se redefinió el proyecto. Al robot se le llamo Shakey, y se investigo su uso para recibir órdenes y llevar objetos a determinados sitios, pero el proyecto dejo de ser subvencionado. - DENTRAL. (1965) También en Stanford, y es el primer sistema experto. Significa árbol en griego, y permitió a los químicos estudiar las características de un compuesto químico, ya que hasta entonces su única forma de investigación era tomar hipótesis y compararlas con los resultados experimentales. El exceso de optimismo, como anunciar con antelación resultados que luego nunca se conseguirían marcaron hizo mucho mal a la inteligencia artificial, y así, subestimar la dificultad de los problemas a los que se enfrentaban desacreditaron mucho a la IA, llegando incluso a perder subvenciones millonarias. 1970 a 19797 Durante este periodo, se inicia la institucionalización de la comunidad científica de la IA, con el Primer Congreso Internacional de Inteligencia Artificial y la aparición de la primera revista especializada, Artificial Intelligence. También, se extiende su estudio de los círculos académicos a centros de investigación y a las universidades, donde se tratan problemas menos teóricos y se realizan aplicaciones más experimentales, como los sistemas expertos y la programación lógica. El exceso de optimismo y sus nefastas consecuencias dieron paso a un replanteamiento de los objetivos y como consecuencia el tratamiento de problemas más concretos. Se empezaron a utilizar sistemas expertos, que se basan en la simulación del razonamiento humano y que supuso un gran avance, los mas destacados son: - MYCIN (1976) Creado en Stanford por Feigenbaum y Buchanan se trata de un sistema experto para el diagnóstico de enfermedades infecciosas. Desde los resultados de análisis de sangre, cultivos bacterianos y otras datos, es capaz de determinar, o al menos sugerir el microorganismo causante de la infección, y después de esto, recomienda una medicación que se adaptaba perfectamente a las características del sujeto. - PROSPECTOR (1978) Sistema experto capaz de encontrar yacimientos de minerales, en particular cobre y uranio. 7 Ibid.
  • 18. - XCON (1979) Creado por Jhon McDermott, es el primer sistema experto con aplicaciones fuera de los ámbitos académicos y de los laboratorios de investigación. Este sistema permitía configurar todos los ordenadores que DEC iba a sacar al mercado, y que tenían configuraciones distintas entre sí, evitando de esta manera que los fallos de estos ordenadores obligaran a arreglarlos uno por uno. Tras un primer fracaso, su posterior desarrollo logro conseguir los objetivos marcados. Dentro de la programación lógica se logra uno de los avances mas destacables con la aparición del lenguaje PROLOG, en 1972 por la Universidad de Marsella. Los éxitos de estos sistemas expertos animaron a muchas empresas a invertir en IA. Su desarrollo hizo que estos programas fueran más rentables y así empezaron a sustituir a personas expertas en determinadas materias. 1980´s En 1980 la historia se repitió con el desafío japonés de la quinta generación, que dio lugar al auge de los sistemas expertos pero que no alcanzó muchos de sus objetivos, por lo que este campo sufrió una nueva interrupción en los años noventa. En 1980 se crea el sistema experto matemático MAPLE, al que sigue en 1988 el MATHEMÁTICA. Ambos programas permiten trabajar directamente con expresiones simbólicas como derivadas, matrices o tensores. En 1982 se funda el ECCAI (European Coordinating Committee for Artificial Intelligence). En 1985 la Nasa crea el CLIPS, un generador de sistemas expertos codificado en C. Ese mismo año se crea un juego de ajedrez que alcanza el nivel de Gran Maestro. En 1987 Martin Fischles y Oscar Firschein describieron los atributos de un agente inteligente. Al intentar describir con un mayor ámbito (no sólo la comunicación) los atributos de un agente inteligente, la IA se ha expandido a muchas áreas que han creado ramas de investigación enorme y diferenciada. Dichos atributos del agente inteligente son: 1. Tiene actitudes mentales tales como creencias e intenciones. 2. Tiene la capacidad de obtener conocimiento, es decir, aprender. 3. Puede resolver problemas, incluso particionando problemas complejos en otros más simples. 4. Entiende. Posee la capacidad de crearle sentido, si es posible, a ideas ambiguas o contradictorias. 5. Planifica, predice consecuencias, evalúa alternativas (como en los juegos de ajedrez) 6. Conoce los límites de sus propias habilidades y conocimientos. 7. Puede distinguir a pesar de la similitud de las situaciones. 8. Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando analogías. 9. Puede generalizar. 10. Puede percibir y modelar el mundo exterior. 11. Puede entender y utilizar el lenguaje y sus símbolos.
  • 19. A finales de los 80 se recuperan los esquemas del Perceptrón para las redes neuronales, y se empiezan a utilizar los nuevos microordenadores de Apple e IBM, siendo este el fin de las LISP. Podemos entonces decir que la IA posee características humanas tales como el aprendizaje, la adaptación, el razonamiento, la autocorrección, el mejoramiento implícito, y la percepción modular del mundo. Así, podemos hablar ya no sólo de un objetivo, sino de muchos, dependiendo del punto de vista o utilidad que pueda encontrarse a la IA. 1990´s En los 90´s surgen los agentes inteligentes. “En 1997 se produjo uno de los hechos más populares relacionado con la IA cuando Deep Blue logro vencer a Kasparov, pero la industria japonesa ha ido más alla y primero Honda con ASIMO, un robot humanoide capaz de andar y subir escalaras, y luego Sony con su AIBO, un robot-perro al que se le han programado emociones e instintos. Sus actos buscan satisfacer sus deseos, que previamente han sido generados por sus instintos, si los satisface estará contento, sino mostrara su enfado hasta lograr la atención que quiere y la manera con que el amo responda a estas expresiones de emotividad influirá en su "personalidad". AIBO puede reconocer hasta 40 voces y puede recordar el nombre que se le de y responder ante su llamada. Otros logros de la IA, son por ejemplo el reconocimiento de la voz para reservar billetes de avión, protección de fraudes de tarjetas de crédito, detección de pequeñas anomalías invisibles al ojo humano en radiografías, traducción automática de documentos o la utilización de sistemas expertos en el diagnostico de enfermedades o incluso en el funcionamiento del trasbordador espacial.”8 2000´s El programa Artificial Linguistic Internet Computer Entity (A.L.I.C.E.) ganó el premio Loebner al Chatbot mas humano en 2000, 2001 y 2004, y en 2007 el programa Ultra Hal Assistant ganó el premio. 2010´s En la actualidad se está tan lejos de cumplir la famosa prueba de Turing como cuando se formuló: Existirá Inteligencia Artificial cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas. Como anécdota, 8 Ibidem.
  • 20. muchos de los investigadores sobre IA sostienen que «la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro»: En 2010 el programa Suzette ganó el premio Loebner. Algunos programas de inteligencia artificial gratuitos son Dr. Abuse, Alice, Paula SG, Virtual woman millenium. 2011 Se crea por parte de investigadores de la Ecole Polytechnique Federale de Lausanne en Suiza, un sistema que permite identificar y rastrear jugadores de baloncesto. Por ahora se emplea para telemetría, pero lo que sigue es comentar las peripecias del juego, y otros como la Formula 1. Ver http://www.youtube.com/watch?feature=player_embedded&v=ZgbCZgXRRkY SmartBird: Creado por Festo, este robot vuela como un ave. Ver http://www.youtube.com/watch?feature=player_embedded&v=nnR8fDW3Ilo#!
  • 21. Chatbot: El laboratorio Creative Machines de Cornell en los EE. UU diseñó este experimento en el que dos IA conversaron de forma fluida. Ver http://www.youtube.com/watch?feature=player_embedded&v=WnzlbyTZsQY ASIMO. Este robot de Honda, ha venido evolucionando a lo largo de los años, en la que hasta el 2011 ya este sistema reconoce voces en una conversación. Ver http://www.youtube.com/watch?feature=player_embedded&v=MTtWETnWfHo#!
  • 22. Robot Flexible. Científicos de Harvard mostraron el prototipo de un robot flexible, hecho de materiales blandos, que le permite reconfigurar su estructura morfológica, de tal manera que le permite obviar obstáculo. Ver http://www.youtube.com/watch?feature=player_embedded&v=Z19OZUQV20E Swarmanoid: Es la creación de varios robots actuando de forma colectiva. En la que unos se especializan en la manipulación de objetos y la escalada, algunos se mueven en el suelo y trasportan objetos, otros vuelan y observan el entorno desde lo alto. Este video presenta este sistema cordianado por Marco Dorigo, financiado por la Comisión Europea. Ver http://www.youtube.com/watch?feature=player_embedded&v=M2nn1X9Xlps
  • 23.
  • 24.
  • 25. Otros proyectos que vale la pena mencionar son: - Un equipo de neurocientíficos españoles ha desarrollado una interfaz cerebro- ordenador basada en un teléfono móvil. Las personas con movilidad reducida podrían beneficiarse de este innovador sistema en un futuro próximo. En el experimento que aparece en la fotografía de portada, el participante utiliza únicamente su pensamiento para marcar un número de teléfono. - Supercomputador Watson: IBM desarrolló una supercomputadora llamada Watson , la cual ganó una ronda de tres juegos seguidos de Jeopardy9 , venciendo a sus dos máximos campeones, y ganando un premio de 1 millón de dólares que IBM luego donó a obras de caridad 2012 Científicos de un proyecto llamado COSPAL, patrocinado por la Unión Europea, han creado un robot cuya inteligencia Artificial es comparable a un bebé humano de 2 a 3 años. “Según los científicos que diseñaron el robot, el gran paso se dio al unificar en un solo sistema las dos filosofías clásicas sobre cómo diseñar sistemas de Inteligencia Artificial (IA). Por un lado está la manera clásica de proveerle a una IA un conjunto extenso de reglas, las cuales son evaluadas por la IA y toma decisiones en base a ellas. La otra manera más moderna es proveer lo que se llama una red neuronal, que permite que la IA misma aprenda las reglas y se adapte al medio ambiente. Como ejemplo, al robot (el cual tiene 9 Jeopardy es un concurso de televisión estadounidense con preguntas sobre historia, literatura, arte, cultura popular, ciencia, deportes, geografía, juegos de palabras, y otros temas. El programa tiene un formato de "respuesta y pregunta", en el cual a los concursantes se les presentan pistas en forma de respuestas, y deben dar sus respuestas en forma de una pregunta.
  • 26. cámaras para ver y un brazo para manipular objetos) se le mostró el popular juguete para niños en donde se le provee al bebé varias piezas de diferentes formas geométricas, y este tiene que aprender a insertarlas en agujeros de la forma compatible con ellos. Se procedió a entrenar al robot como se entrenaría a un niño, diciéndole simplemente si lo estaba haciendo mal o no, pero en ningún momento programándole las reglas del juego, o ni siquiera lo que debería hacer. El robot, poco a poco empezó a entender lo que debía hacer, y no solo eso, sino que empezó a aprender la manera en que debía colocar las piezas en su lugar. Esto, por mas sencillo que parezca, es un gigantesco paso en el desarrollo de verdaderas entidades de IA, y sin duda alguna de aquí en adelante este tipo de tecnología solo hará que estas Inteligencia Artificiales se tornen cada vez mas inteligentes, y conscientes, de sí mismas.”10 Test de Turing Si usted señor lector hablara con una máquina a través de internet, ¿podría distinguir si se trata de un computador? La prueba de Turing. Los seres humanos evalúan la inteligencia de sus congéneres a través de la interacción con ellos, si un computador pudiera hacerse pasar por una persona... ¿se podría afirmar que es 10 Fuente de información. Crean inteligencia artificial con inteligencia de un bebe. [On line]. Consultado el 17 de julio de 2012. http://www.eliax.com/?post_id=4615
  • 27. inteligente? Existen algunos candidatos que están muy cerca de aprobar este examen, conocido como el test de Turing, incluyendo al robot cleverbot. El Test de Turing (o Prueba de Turing) es una prueba propuesta por Alan Turing para demostrar la existencia de inteligencia en una máquina. Fue expuesto en 1950 en un artículo (Computing machinery and intelligence) para la revista Mind, y sigue siendo uno de los mejores métodos para los defensores de la Inteligencia Artificial. Se fundamenta en la hipótesis positivista de que, si una máquina se comporta en todos los aspectos como inteligente, entonces debe ser inteligente. La prueba consiste en un desafío. Se supone un juez situado en una habitación, y una máquina y un ser humano en otras. El juez debe descubrir cuál es el ser humano y cuál es la máquina, estándoles a los dos permitido mentir al contestar por escrito las preguntas que el juez les hiciera. La tesis de Turing es que si ambos jugadores eran suficientemente hábiles, el juez no podría distinguir quién era el ser humano y quién la máquina. Todavía ninguna máquina puede pasar este examen en una experiencia con método científico. En 1990 se inició un concurso, el Premio Loebner11 , una competición de carácter anual entre programas de ordenador que sigue el estándar establecido en la prueba de Turing. Un juez humano se enfrenta a dos pantallas de ordenador, una de ellas que se encuentra bajo el control de un ordenador, y la otra bajo el control de un humano. El juez plantea preguntas a las dos pantallas y recibe respuestas. El premio está dotado con 100.000 dólares estadounidenses para el programa que pase el test, y un premio de consolación para el mejor programa anual. Todavía no ha sido otorgado el premio principal. Pruebas paralelas Existe otra prueba parecida, propuesta por John Searle y popularizada por Roger Penrose: la "sala china"12 , para argumentar que la máquina no ha superado la Prueba de Turing. En esencia, es igual en la forma, pero se realiza con personas encerradas en una habitación y se 11 El Premio Loebner es una competición de carácter anual que concede premios a un programa de ordenador que esté considerado por el jurado que lo compone, como el más inteligente de los que se han presentado. El formato de la competición sigue el estándar establecido en el test de Turing. Un juez humano se enfrenta a dos pantallas de ordenador, una de ellas que se encuentra bajo el control de un ordenador, y la otra bajo el control de un humano. El juez plantea preguntas a las dos pantallas y recibe respuestas. En base a las respuestas, el juez debe decidir qué pantalla es la controlada por el ser humano y cuál es la controlada por el programa de ordenador.
  • 28. requiere que estas no conozcan el idioma en que se realiza la conversación. Para ello se usa un diccionario que permite confeccionar una respuesta a una pregunta dada, sin entender los símbolos. Como consecuencia, se argumenta que por mucho que una persona sea capaz de enviar una cadena de símbolos en chino relacionada con otra cadena recibida, no quiere decir que sepa chino, sino que sabe aplicar un conjunto de reglas que le indican lo que ha de enviar. Falta la semántica en el proceso y por eso es muy cuestionada como inteligencia artificial, puesto que equipara una máquina pensante con una que parece que piensa. Ray Kurzweil predice que el ordenador pasará la prueba de Turing hacia el 2029, basado en el concepto de singularidad tecnológica. Aplicaciones Una de las aplicaciones de la prueba de Turing es el control de spam. Dado el gran volumen de correos electrónicos enviados, el spam es, por lo general, enviado automáticamente por una máquina. Así la prueba de Turing puede usarse para distinguir si el correo electrónico era enviado por un remitente humano o por una máquina (por ejemplo por la prueba Captcha). El Captcha es el acrónimo de Completely Automated Public Turing test to tell Computers and Humans Apart (Prueba de Turing pública y automática para diferenciar máquinas y humanos). Este es un típico test para la secuencia "smwm" que dificulta el reconocimiento de la máquina distorsionando las letras y añadiendo un degradado de fondo. Se trata de una prueba desafío-respuesta utilizada en computación para determinar cuándo el usuario es o no humano. La típica prueba consiste en que el usuario introduzca un conjunto de caracteres que se muestran en una imagen distorsionada que aparece en pantalla. Se supone que una máquina no es capaz de comprender e introducir la secuencia de forma correcta por lo que solamente el humano podría hacerlo. Los captchas son utilizados para evitar que robots, también llamados spambots, puedan utilizar ciertos servicios. Por ejemplo, para que no puedan participar en encuestas, registrarse para usar cuentas de correo electrónico (o su uso para envío de correo basura) y/o más recientemente, para evitar que correo basura pueda ser enviado por un robot (el remitente debe pasar el test antes de que se entregue al destinatario). El sistema captcha tiene las siguientes características por definición:
  • 29.  Son completamente automatizados, es decir, no es necesario ningún tipo de mantenimiento / intervención humana para su realización. Esto supone grandes beneficios en cuanto a fiabilidad y coste. El algoritmo utilizado es público. De esta forma la ruptura de un captcha pasa a ser un problema de inteligencia artificial y no la ruptura de un algoritmo secreto. La habitación China La habitación china es un experimento mental, propuesto originalmente por John Searle y popularizado por Roger Penrose, mediante el cual se trata de rebatir la validez del Test de Turing y de la creencia de que una máquina puede llegar a pensar. Searle se enfrenta a la analogía entre mente y ordenador cuando se trata de abordar la cuestión de la conciencia. La mente implica no sólo la manipulación de símbolos, y además de una sintaxis posee una semántica. El experimento de la habitación china Supongamos que han pasado muchos años, y que el ser humano ha construido una máquina aparentemente capaz de entender el idioma chino, la cual recibe ciertos datos de entrada que le da un hablante natural de ese idioma, estas entradas serían los signos que se le introducen a la computadora, la cual más tarde proporciona una respuesta en su salida. Supóngase a su vez que esta computadora fácilmente supera la Prueba de Turing, ya que convence al hablante del idioma chino de que sí entiende completamente el idioma, y por ello el chino dirá que la computadora entiende su idioma.
  • 30. Ahora Searle pide suponer que él está dentro de ese computador completamente aislado del exterior, salvo por algún tipo de dispositivo (una ranura para hojas de papel, por ejemplo) por el que pueden entrar y salir textos escritos en chino. Supongamos también que fuera de la sala o computador está el mismo chino que creyó que la computador entendía su idioma y dentro de esta sala está Searle que no sabe ni una sola palabra en dicho idioma, pero está equipado con una serie de manuales y diccionarios que le indican las reglas que relacionan los caracteres chinos (algo parecido a "Si entran tal y tal caracteres, escribe tal y tal otros"). De este modo Searle, que manipula esos textos, es capaz de responder a cualquier texto en chino que se le introduzca, ya que tiene el manual con las reglas del idioma, y así hacer creer a un observador externo que él sí entiende chino, aunque nunca haya hablado o leído ese idioma. Dada esta situación cabe preguntarse:  ¿Cómo puede Searle responder si no entiende el idioma chino?  ¿Acaso los manuales saben chino?  ¿Se puede considerar todo el sistema de la sala (diccionarios, Searle y sus respuestas) como, un sistema que entiende chino? Manipular símbolos en base a su forma no significa que conozcamos su contenido.
  • 31. De acuerdo a los creadores del experimento, los defensores de la inteligencia artificial fuerte -los que afirman que programas de ordenador adecuados pueden comprender el lenguaje natural o poseer otras propiedades de la mente humana, no simplemente simularlas- deben admitir que, o bien la sala comprende el idioma chino, o bien el pasar el test de Turing no es prueba suficiente de inteligencia. Para los creadores del experimento ninguno de los componentes del experimento comprende el chino, y por tanto, aunque el conjunto de componentes supere el test, el test no confirma que en realidad la persona entienda chino, ya que como se sabe Searle no conoce ese idioma. El argumento de la habitación china Esto es así en el contexto de la siguiente argumentación: 1. Si la Inteligencia Artificial Fuerte es verdadera, hay un programa para el idioma chino tal que cualquier mecanismo que lo ejecute entiende chino. 2. Una persona puede ejecutar mecánicamente un programa para el idioma chino sin entender el idioma chino. 3. Los argumentos de la inteligencia artificial fuerte son falsos porque en realidad el sistema no entiende chino, nada más simula entender. Una puntualización importante: Searle no niega que las máquinas puedan pensar -el cerebro es una máquina y piensa-, niega que al hacerlo apliquen un programa. Críticas al experimento de la habitación china El experimento mental de la habitación china confirmaría la premisa 2, a juicio de sus defensores. A juicio de sus detractores, la premisa 2 basada en la inferencia a partir del experimento mental no es concluyente. Las objeciones suelen seguir una de las tres líneas siguientes:  Aunque el habitante de la habitación no entienda chino, es posible que el sistema más amplio formado por la habitación, los manuales y el habitante entienda chino.  Una persona manipulando signos escritos dentro de una habitación estática no es el único candidato posible para ocupar el puesto de sistema computacional capaz de entender chino. Hay otros modelos posibles: a. un robot capaz de interactuar con el entorno y aprender del mismo; b. un programa que regule los
  • 32. procesos neuronales involucrados en la comprensión del chino, etc. No hay razón para decir que estos modelos sólo exhiben una comprensión aparente, como en el caso de la habitación y su habitante, pero son modelos de Inteligencia Artificial.  Si la conducta de la habitación no es evidencia suficiente de que entiende chino, tampoco puede serlo la conducta de ninguna persona. Se hace uso de una figura retórica tratando de desfigurar el concepto de entendimiento, ya pues es absurdo decir que la máquina no puede "responder en chino a un hombre" porque "no entiende realmente el chino", para entender de ese modo "se ha de ser capaz de crear la idea en base a la forma conceptual", esa teoría de la idea quizás sea algo más "idealista" que científica. En cualquier caso la mente de un hombre se basa en algoritmos más complejos y más costosos de procesar que los que actualmente poseen los actuales computadores. Es cuestión de tiempo.  La adquisición de entendimiento (a lo que podemos llamar inteligencia) es un proceso evolutivo, en el cuál puede aplicarse diferentes técnicas y herramientas que conlleven al individuo a un aprendizaje (en este caso del idioma chino), por lo cual se hace necesario establecer niveles de entendimiento en el tiempo. Respuestas a los Argumentos en contra de la habitación China  Aunque es verdad que el sistema maneja el chino, éste no entiende el idioma, es decir, la persona dentro del cuarto no entiende lo que está haciendo, nada más lo está haciendo. Por consiguiente, el que un computador maneje un idioma, no significa que éste entienda lo que está haciendo, nada más significa que está realizando una acción.  A su vez, la persona que maneja el chino no sólo se puede entender como una persona, lo que trata de mostrar el ejemplo es el cómo las computadoras no entienden lo que manejan y nada más siguen unas reglas ya determinadas sin tener que entenderlas.  La última proposición tiene muchas contradicciones, por ejemplo se sabe que los que están leyendo estas palabras sí entienden el idioma, al contrario de la computadora, que tan solo maneja información sintáctica (es decir que nada más manejan una acción, sin contenido propio), los humanos manejamos información semántica (con contenido, lo que nos asegura que comprendamos lo que hacemos, ya que le vemos contenido a lo que hacemos).  Que un sistema pueda responder a acciones con una acción, no significa que tenga Inteligencia en sí mismo, todo lo que hace para responder a las acciones con una acción es inentendible para él, simplemente responde a las acciones con una acción que sucede mediante inferencias, creando relaciones y agrupando, para determinar una conclusión basta y probable de ser errónea. Es hasta ahora imposible poder demostrar lo contrario pues no hay manera de plasmar lo biológico en una máquina, y lo biológico es sumamente complejo más aún que lo artificial, lo artificial al crearse es entendible en su totalidad, en cambio hay ciertas partes de lo biológico
  • 33. que aún no se pueden interpretar, tal es el caso de la inteligencia de los seres. El ser humano tiene capacidades que jamás podrán ser imitadas por una máquina, simplemente por ser biológico, natural. Singularidad tecnológica13 En futurología, la singularidad tecnológica (algunas veces llamada simplemente la Singularidad) es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia sobrehumana, cambiando nuestro ambiente de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir. Dicho acontecimiento se ha nombrado así por analogía con la singularidad espaciotemporal observada en los agujeros negros, donde existe un punto en el que las reglas de la física dejan de ser válidas, y donde la convergencia hacia valores infinitos hace imposible el definir una función. El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización de máquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos. La Singularidad Tecnológica (para diferenciarla del concepto de Singularidad en la física) contempla un momento en la historia donde el progreso tecnológico genera un cambio “comparable al nacimiento de vida humana en la Tierra. La causa precisa de este cambio es la creación inminente de entidades con inteligencia mayor a la humana por medio de la tecnología”, escribió Vernor Vinge, autor de ciencia ficción que propuso el término de Singularidad Tecnológica en un ensayo publicado en 1993. Allí Vinge especula que este cambio podría darse por medio de la inteligencia artificial, las interfaces humano/computador, o por la modificación biológica del genoma humano. Luego de este punto, terminaría la historia humana.14 Vinge afirma también que “Creo que es probable que con la tecnología podamos, en un futuro muy cercano, crear o convertirnos en seres más inteligentes que los humanos. Tal singularidad tecnológica revolucionaría nuestro mundo, llevándolo a una era post- humana. Si fuera a pasar dentro de un millón de años, no valdría la pena preocuparse. ¿Así que a que me refiero cuando digo “un futuro muy cercano”? En mi ensayo de 1993, 13 Fuente. Singularidad tecnológica. http://es.wikipedia.org/wiki/Singularidad_tecnol%C3%B3gica [En línea] consultado el 18 de noviembre de 2011. 14 Fuente. Especial H2blOg: La Singularidad Tecnológica. [en Linea] Consultado el 25 de junio de 2012. http://proyectoliquido.net/h2blog/121/especial-h2blog-la-singularidad-tecnologica/
  • 34. “El Advenimiento de la Singularidad Tecnológica”, dije que estaría sorprendido si la singularidad no sucediera para el 2030. Mantengo mi posición con respecto a esa afirmación asumiendo que evitamos las descomunales catástrofes –cosas como las guerras nucleares, las superplagas, las emergencias climáticas– a las que le dedicamos apropiadamente nuestra ansiedad.” En ese punto Vinge espera que la singularidad se manifieste como una combinación de elementos: 1. El Escenario IA: creamos inteligencia artificial (IA) superhumana en computadores. 2. El Escenario AI: mejoramos la inteligencia humana por medio de las interfaces humano/computador, logrando amplificación de la inteligencia (AI). 3. El Escenario Biomédico: incrementamos directamente nuestra inteligencia mejorando la operación neurológica de nuestros cerebros. 4. El Escenario Internet: la humanidad, sus redes, computadores, y bases de datos se vuelven lo suficientemente efectivas como para ser consideradas un ser superhumano. 5. El Escenario Gaia Digital: la red de microprocesadores embebidos se vuelve lo suficientemente efectiva como para ser considerada un ser superhumano. Vinge dice que dependiendo de nuestro ingenio (y el de nuestros artefactos) existe la posibilidad de una transformación comparable al surgimiento de la inteligencia humana en el mundo biológico. Historia Las consecuencias de estos estudios (Máquina de turing y sala china que en si son lo mismo) fueron discutidas durante la década de los 60s por I.J. Good, y John von Neumann quien usa el término "singularidad" para describir el progreso tecnológico durante la década de 1950. Sin embargo, no es sino hasta en los 80s que la Singularidad es popularizada por Vernor Vinge. Si la Singularidad ocurrirá o no, es un hecho muy debatido, pero la aproximación más común entre los futuristas la sitúa dentro de la tercera década del Siglo XXI. Otros, notablemente Raymond Kurzweil, han propuesto teorías que expanden la Ley de Moore15 hacia tipos de computación que van más allá de los simples transistores, 15 La Ley de Moore expresa que aproximadamente cada 18 meses se duplica el número de transistores en un circuito integrado. Se trata de una ley empírica, formulada por el cofundador de Intel, Gordon E. Moore el 19 de abril de 1965, cuyo cumplimiento se ha podido constatar hasta el día de hoy. La Ley de Moore no es una
  • 35. sugiriendo un patrón exponencial de progreso tecnológico. Sin embargo Kurzweil supone que el propio patrón de crecimiento cambia y la aceleración se hace mayor hasta el punto de adquirir un patrón de crecimiento hiperbólico. Lo cual es análogo al espacio hiperbólico de los agujeros negros. Según Kurzweil, este patrón culmina en un progreso tecnológico inimaginable en el Siglo XXI, el cual conduce a la Singularidad, un punto en el cual el crecimiento se hace infinito. ley en el sentido científico, sino más bien una observación, y ha sentado las bases de grandes saltos de progreso.  En 2004 la industria de los semiconductores produjo más transistores (y a un costo más bajo) que la producción mundial de granos de arroz, según la Semiconductor Industry Association (Asociación de la Industria de los Semiconductores) de los Estados Unidos.  Gordon Moore solía estimar que el número de transistores vendidos en un año era igual al número de hormigas en el mundo, pero para el 2003 la industria producía cerca de 1019 transistores y cada hormiga necesitaba cargar 100 transistores a cuestas para conservar la precisión de esta analogía.  En 1978, un vuelo comercial entre Nueva York y París costaba cerca de 900 dólares y tardaba 7 horas. Si se hubieran aplicado los mismos principios de la Ley de Moore a la industria de la aviación comercial de la misma forma que se han aplicado a la industria de los semiconductores desde 1978, ese vuelo habría costado cerca de un centavo de dólar y habría tardado menos de 1 segundo en realizarse. Ver el siguiente video http://www.youtube.com/watch?v=3z8I-KmaFUI
  • 36. El crecimiento hiperbólico es el patrón que algunos indican que sigue el aumento de la información y de hecho ha sido el ritmo en como ha venido creciendo la población mundial por lo menos hasta principios de siglo. Robert Anton Wilson generalizo la ley del crecimiento de la información bajo el nombre del fenómeno del Jesús saltador, que se inspira en la idea de comenzar a contar los años a partir del nacimiento de Jesús, aunque también parece un nombre irónico y humorístico, porque a medida que pasa el tiempo no son pocos los que siguen pensando en el fin del mundo y la inminente llegada de Jesús. Según Wilson, se inspiró en Alfred Korzybski, el autor de la Semántica General, quien habría observado que la información se duplicaba cada cierto tiempo. Korzybski tomo como base, de todo el conocimiento acumulado y disponible por la humanidad, el año 1 después de cristo, Wilson le llama el primer Jesús. La primera duplicación se habría dado durante el apogeo del renacimiento, con lo que se tendrían entonces 2 Jesús. La segunda en el año 1750, 4 Jesús y las siguientes en los años, 1900, 1950, 1960, 1967 y 1973 (128 Jesús). Para el 2000 se calculaba que la información se duplicaba 2 veces en un año. Sin embargo de acuerdo a otro estudio realizado por la Universidad de Berkeley en el año 2004 por los profesores Peter Lyman y Hal Varian, a instancias de Microsoft Research, Intel, HP y EMC, la información que se genera y se registra en el mundo aumenta a un ritmo de solamente 30% anual desde 1999. Superestructura tecnológica Las discrepancias surgen a partir de la consideración que se tenga sobre el impacto tecnológico en la sociedad. Si creemos que las tecnologías siempre serán una infraestructura controlada por los humanos o aceptamos que dado su crecimiento acelerado, su cada vez mayor autonomía y su creciente inteligencia (a lo cual no se le ve limites), se pueda aceptar que se convertirán en una superestructura capaz de compartir las decisiones con los humanos. Por lo que tendremos cuatro enfoques: 1) Los que creen que la tecnología siempre será controlada por los humanos y el único peligro está en el mal uso que se le dé. Por lo que basta con limitar, prohibir o controlar la utilización de las mismas Desarrollo sostenible. 2) Los que creen que las tecnologías igualarán y superarán a los humanos, surgiendo una superinteligencia. Singularidad tecnológica. 3) Los que aceptan que las tecnologías podrán ser una superestructura y creen que dado el contexto actual de poder, estas se convertirían en un competidor demasiado peligroso para los humanos, por lo cual hay que hacer todo lo posible para que esto no suceda. Bioconservadurismo. 4) Los que ven a la tecnología como una aliada que nos pueda llevar a una superinteligencia colectiva donde humanos y tecnologías cooperen por un futuro sostenible Sostenibilidad tecnológica.
  • 37. Inteligencia suprahumana La idea de una singularidad, Vinge la sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicará cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un gráfico elaborado por Hans Moravec, la paridad entre el hardware y el cerebro se alcanzará alrededor del 2020 lo cual dará lugar a las máquinas ultra inteligentes. Vinge define una máquina ultra inteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de este y está convencido de que esa inteligencia superior será la que impulsará el progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural. Es así que afirma que estaremos entrando en un régimen radicalmente diferente de nuestro pasado humano, y es a este evento al que le da el nombre de singularidad. El transhumanista Nick Bostrom define una superinteligencia de la siguiente forma: Tendrá superinteligencia cualquier intelecto que se comporte de manera bastamente superior en comparación con los mejores cerebros humanos en prácticamente todos los aspectos y en especial estos tres: • Creatividad científica • Sabiduría en general • Desempeño científico
  • 38. Esta definición deja abierta la manera de como se implementa esa superinteligencia • Artificial: una computadora digital • Colectiva: una red de computadoras • Biológica: cultivo de tejidos corticales • Híbrida: fusión entre computadoras y humanos Caminos hacia la singularidad Según el científico y escritor de ciencia ficción Vernor Vinge, la singularidad se puede alcanzar por diferentes caminos:  El desarrollo de un computador que alcance el nivel de inteligencia humana y posteriormente lo supere (superinteligencia artificial).  El desarrollo de redes de computadoras que se comporten como superneuronas de un cerebro distribuido que "despierte" como ente inteligente (superinteligencia colectiva).  El desarrollo de elementos de interacción con computadoras que permitan a un humano comportarse como un ser superinteligente (superinteligencia hibrida).  Manipulaciones biológicas que permitan mejorar en algunos seres el nivel humano de inteligencia (superinteligencia biológica) En futurología, la singularidad tecnológica (algunas veces llamada simplemente la Singularidad) es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia superhumana, cambiando nuestro ambiente de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir. Dicho acontecimiento se ha nombrado así por analogía con la singularidad espaciotemporal observada en los agujeros negros, donde existe un punto en el que las reglas de la física dejan de ser válidas, y donde la convergencia hacia valores infinitos hace imposible el definir una función.
  • 39. El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización de máquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos. Superinteligencia artificial Surgimiento de una superinteligencia artificial superior a la inteligencia humana. Estamos hablando de que los humanos sean capaces de construir una inteligencia artificial que los iguale y que después, esta inteligencia no humana, sea capaz de superarse a sí misma. Dado el crecimiento veloz que tiene el hardware (ley de Moore) y no en el desarrollo de programas que emularan la inteligencia humana como se pretendía en los primeros años de la Inteligencia artificial. Estamos hablando de una inteligencia artificial fuerte que supone que la consciencia es codificable (consideran que los estados mentales son algoritmos altamente complejos) y puede ser descargada del cerebro y copiada en un soporte digital. Superinteligencia colectiva Surgimiento de una superinteligencia colectiva donde estén conectados en redes los humanos y las maquinas, siguiendo las ideas de Pierre Levy de una inteligencia colectiva, en la que Internet está jugando un papel importante y ya algunos están hablando del surgimiento de un cerebro global que se está formando desde ahora en el contexto de la Web 2.0 y de la naciente Web 3.0. No se puede ignorar el impacto que está teniendo la Web 2.0 y la gran cantidad de conocimiento que se está compartiendo en las Wikis, redes sociales y blogs y que se podrían ir autoorganizado por medio de la Web semántica16 . Lo cual nos lleva a una superestructura tecnológica donde humanos y máquinas cooperan entre sí. Superinteligencia hibrida Superinteligencia hibrida, Interconexión entre humanos y computadoras, tales como, prótesis, implantes de chip, etc. Lo cual nos lleva al Cyborg, donde se fusionan los humanos con las maquinas. La idea de una transhumanidad que transcienda a la condición humana y con ello superar todos los límites de la especie humana y dar surgimiento a una nueva especie posthumana. Esto nos arrastra a una singularidad fuerte donde humanos y maquinas se fusionan. 16 La Web semántica o Web 3.0, es la "Web de los datos". Se basa en la idea de añadir metadatos semánticos y ontológicos a la World Wide Web. Esas informaciones adicionales —que describen el contenido, el significado y la relación de los datos— se deben proporcionar de manera formal, para que así sea posible evaluarlas automáticamente por máquinas de procesamiento. El objetivo es mejorar Internet ampliando la interoperabilidad entre los sistemas informáticos usando "agentes inteligentes". Agentes inteligentes son programas en las computadoras que buscan información sin operadores humanos.
  • 40. Superinteligencia biológica Superinteligencia biológica, mejoramiento humano por bioingeniería sobre todo modificaciones genéticas, dado que es una inteligencia mejorada por medio de la biología. Se aspira al humano mejorado (humano+) por medio de la bioingeniería. Esto ira conduciendo a la humanidad a una fusión progresiva y menos radical que la anterior. Si bien algunos autores, como Roger Penrose, piensan que las computadoras no llegarán a ser inteligentes (en el sentido de la prueba de Turing), el camino biológico para llegar a la singularidad tecnológica no parece tener límite alguno. Riesgos Los defensores de la singularidad son conscientes de las amenazas que esta implica y consideran los siguientes riesgos existenciales: • Inteligencia artificial mal programada. • Mal uso de la nanotecnologia. • Mala utilización de la biotecnología. • Uso generalizado de las prótesis (convirtiéndose en un robot). • Tecnologías autónomas que se escapan de las manos (maquinas que se auto construyen a sí mismas).
  • 41. De aquí que sacan la conclusión que es necesario tomar el control de la evolución humana y abalanzar hacia una transhumanidad.17 Proponen la sustitución de una especie humana obsoleta por otra especie “superior” con poderes ilimitados y que por medio de las tecnologías emergentes o convergentes (NBIC) se puede alcanzar la posthumanidad. IA Fuerte La Inteligencia Artificial Fuerte es aquella inteligencia artificial que iguala o excede la inteligencia humana promedio – la inteligencia de una maquina que exitosamente puede realizar cualquier tarea intelectual de cualquier ser humano -. Es un objetivo importante para la investigación sobre IA y un tópico interesante para la ciencia ficción. La IA Fuerte (IAF) igualmente es referida como Inteligencia General Artificial o como la habilidad de ejecutar acciones generales inteligentes. La ciencia ficción asocia a la IAF con cualidades humanas como la conciencia18 , la sensibilidad, la sapiencia y el autoconocimiento. 17 El Transhumanismo es tanto un concepto filosófico como un movimiento intelectual internacional que apoya el empleo de las nuevas ciencias y tecnologías para mejorar las capacidades mentales y físicas con el objeto de corregir lo que considera aspectos indeseables e innecesarios de la condición humana, como el sufrimiento, la enfermedad, el envejecimiento o incluso en última instancia la mortalidad. Los pensadores transhumanistas estudian las posibilidades y consecuencias de desarrollar y usar la tecnología con estos propósitos, preocupándose por estudiar tanto los peligros como los beneficios de estas manipulaciones. El término "Transhumanismo" se simboliza como H+ (antes >H), y es usado como sinónimo de "humano mejorado". 18 La conciencia (del latín conscientia 'conocimiento compartido', pero diferente de consciencia, ser conscientes de ello) se define en general como el conocimiento que un ser tiene de sí mismo y de su entorno se refiere a la moral o bien a la recepción normal de los estímulos del interior y el exterior. Conscientĭa significa, literalmente, «con conocimiento» (del latín cum scientĭa).
  • 42. Cerebro artificial Es un término utilizado habitualmente en los medios de comunicación1 para describir la investigación que pretende desarrollar software y hardware con habilidades cognitivas similares al cerebro humano o animal. Detalles La investigación de «cerebros artificiales» desempeña tres papeles importantes para la ciencia: 1. Un intento constante de los neurocientíficos para entender cómo funciona el cerebro humano. 2. Un experimento mental en la filosofía de la inteligencia artificial(en) , demostrando que es posible, en teoría, crear una máquina que tenga todas las capacidades de un ser humano. 3. Un proyecto serio a largo plazo para crear máquinas capaces de una acción general inteligente o Inteligencia General Artificial. Esta idea ha sido popularizada por Ray Kurzweil2 como IA fuerte (en el sentido de una máquina tan inteligente como un ser humano). Existen dudas sobre la naturaleza de la conciencia, y no se sabe con seguridad si la conciencia como fenómeno cognitivo es sólo el resultado de la complejidad computacional o de otros factores. Roger Penrose se ha ocupado del problema de la realidad física de la inteligencia y ha analizado diversas pretensiones teóricas por parte de la inteligencia artificial de simular o construir artefactos que posean algún tipo de conciencia. Penrose clasifica las posturas actuales ante la cuestión de si la conciencia es o no computable algorítmicamente: A. Todo pensamiento es un proceso de computación, es decir, en particular la percepción de uno mismo y la autoconciencia son procesos emergentes que son resultado directo de la computación o algoritmo adecuados. B. La conciencia es una consecuencia del tipo de acción física que ocurre en el cerebro, y aunque cualquier acción física puede simularse apropiada a través de medios computacionales; el hecho de que se lleve a cabo un proceso de simulación computacional del cerebro no comportaría, por sí mismo, la aparición auténtica de la autoconciencia. C. La realización de cierta actividad física en el cerebro es lo que lleva a la aparición de la autoconciencia en el ser humano; sin embargo, aunque puede ser reproducida artificialmente, dicha acción no puede simularse algorítmicamente. D. La conciencia de tipo humano no puede entenderse propiamente en términos físicos, computacionales o científicos de otro tipo. El punto de vista D claramente niega la posibilidad de comprensión científica de la conciencia. Muchos investigadores del campo de la inteligencia artificial, en particular los más optimistas sobre sus logros, se adhieren a la postura A. John Searle sería más bien un partidario de la postura B, y el propio Penrose ha argumentado fuertemente en su trabajo por la postura C, relacionándola con varios otros problemas abiertos de la física como la teoría cuántica de la gravedad.
  • 43. Un ejemplo del primer objetivo es el proyecto informado por la Universidad de Aston en Birmingham (Reino Unido) donde los investigadores están utilizando células biológicas para crear «neuroesferas» (pequeños grupos de neuronas) con el fin de desarrollar nuevos tratamientos para enfermedades como el mal de Alzheimer, la enfermedad de Parkinson y la enfermedad de neurona motora. El segundo objetivo es ejemplificado por la máquina de Turing y más recientemente en el funcionalismo de estados de la máquina de Hilary Putnam. El tercer objetivo es el que suele llamarse inteligencia general artificial por los investigadores. Sin embargo Kurzweil prefiere el término más memorable IA Fuerte. En su libro La Singularidad está Cerca se centra en la emulación de todo el cerebro usando máquinas de computación convencionales como forma de implementación de cerebros artificiales, y afirma (por razón del poder de las computadoras que sigue una tendencia de crecimiento exponencial) que esto podría pasar en 2025. Henry Markram, director del proyecto Blue Brain (que pretende la emulación del cerebro), hizo una afirmación similar (2020) en la conferencia TED de Oxford en 2009. A pesar de que la emulación directa del cerebro usando redes neuronales artificiales sobre una máquina de computación de alto rendimiento es un enfoque común, existen otros enfoques. Una implementación alternativa del cerebro artificial podría basarse en los principios de coherencia/decoherencia de fase no lineal de la Tecnología Holográfica Neural (HNeT). La analogía se ha hecho a los procesos cuánticos a través del algoritmo sináptico nuclear que tiene grandes similitudes con la ecuación de onda QM. Algunos críticos de la simulación cerebral creen que es más sencillo crear directamente una acción inteligente general sin necesidad de imitar a la naturaleza. Algunos comentaristas19 han usado la analogía de que en los primeros intentos de construir máquinas voladoras estas fueron modeladas como las aves, y que sin embargo las aeronaves modernas no lucen como aves. Un argumento computacional es usado en AI - What is this, donde se muestra que, si tenemos una definición formal de la IA general, el programa correspondiente se pueden encontrar mediante la enumeración de todos los programas posibles y luego probar cada uno de ellos para ver si coincide con la definición. No existe una definición adecuada en la 19 Fox and Hayes quoted in Nilsson, Nils (1998), Artificial Intelligence: A New Synthesis, p581 Morgan Kaufmann Publishers, ISBN 978-1-55860-467-4.
  • 44. actualidad. El EvBrain20 v es una forma de software evolutivo que puede hacer evolucionar redes neuronales similares al cerebro, tales como la red inmediatamente detrás de la retina. Hay buenas razones para creer que, indistintamente de la estrategia de aplicación, las predicciones sobre la realización de cerebros artificiales en un futuro próximo son optimistas. En particular el cerebro (incluyendo el cerebro humano) y la cognición no son actualmente bien entendidos, y la escala de computación requerida es desconocida. Además parece haber limitaciones en la potencia. El cerebro consume unos 20 W de potencia, mientras que las supercomputadoras pueden usar tanto como de 1 MW o sobre un orden de 100 mil más (nota: el límite de Landauer es de 3.5x1020 operaciones/seg/watt a temperatura ambiente). Además, hay cuestiones éticas que deben ser resueltas. La construcción y el mantenimiento de un cerebro artificial plantean cuestiones morales, es decir, en relación con la personalidad, la libertad y la muerte. ¿Un «cerebro en una caja» constituye una persona? ¿Qué derechos tendría esa entidad, legales o de otro tipo? Una vez activado, ¿tendrían los seres humanos la obligación de continuar con su operación? ¿Constituiría la desactivación de un cerebro artificial muerte, sueño, inconsciencia, o algún otro estado para el que no existe ninguna descripción humana? Después de todo, un cerebro artificial no está sujeto a la descomposición celular post mórtem (y la consiguiente pérdida de su función) como lo están los cerebros humanos, por lo que un cerebro artificial podría, teóricamente, reanudar su funcionalidad exactamente como estaba antes de que fuese desactivado. Recursos Desde noviembre de 2008, IBM recibió una subvención de 4.9 millones de dólares del Pentágono para la investigación sobre la creación de computadoras inteligentes. El proyecto Blue Brain se está llevando a cabo con la ayuda de IBM en Lausana.21 El proyecto se basa en la premisa de que es posible enlazar artificialmente las neuronas «en la computadora» mediante la colocación de treinta millones de sinapsis en sus adecuadas posiciones tridimensionales. En marzo de 2008, el proyecto Blue Brain estaba avanzando más rápido de lo esperado: «La conciencia es sólo una enorme cantidad de información intercambiada por billones de 20 Jung, Sung Young, "A Topographical Development Method of Neural Networks for Artifical Brain Evolution", Artificial Life, The MIT Press, vol. 11, issue 3 - summer, 2005, pp. 293-316. 21 Consultar en http://newsvote.bbc.co.uk/mpapps/pagetools/print/news.bbc.co.uk/2/hi/science/nature/7740484.stm?ad=1
  • 45. células cerebrales».22 Algunos defensores de la IA fuerte especulan que las computadoras en el marco de Blue Brain y Soul Catcher pueden exceder la capacidad intelectual humana en torno al 2015, y que es probable que seamos capaces de descargar el cerebro humano en algún momento alrededor del 2050.23 El proyecto se ha dividido en dos fases, la primera de las cuales se completó en noviembre de 2007. Fase I El objetivo inicial del proyecto es simular la columna cortical, que puede considerarse la menor unidad funcional del neocórtex (la parte del cerebro que se cree responsable de las funciones superiores como el pensamiento consciente). Esta columna tiene una altura de 2mm, un diámetro de 0,5mm y contiene unas 60.000 neuronas en humanos. La simulación se centra en la columna neocortical de las ratas, que tienen una estructura muy similar pero que contienen únicamente 10.000 neuronas y 108 conexiones sinápticas. Durante los últimos 10 años, el profesor Markram ha estudiado los tipos de neuronas y sus conexiones en esta columna para generar un modelo de su funcionamiento. Fase II Tras obtener el modelo de funcionamiento el siguiente paso es realizar y validar simulaciones basadas en dicho modelo. En esta fase se continuará con dos ramas diferentes:  Construcción de la simulación a nivel molecular, cuyo interés reside que permitirá estudiar los efectos de los genes.  Simplificación de la simulación de la columna para permitir la simulación paralela de un gran número de columnas interconectadas, con el objetivo final de simular un neocórtex completo (que en el caso de los humanos consiste en un millón de columnas, aproximadamente). Los siguientes pasos es ascender al nivel del gato para alcanzar seguidamente el de los primates. 22 Consultar en http://seedmagazine.com/content/article/out_of_the_blue/ 23 Jaap Bloem, Menno van Doorn, Sander Duivestein, Me the media: rise of the conversation society, VINT reseach Institute of Sogeti, 2009, p.273.
  • 46. IA Débil Se define IA débil a la escuela que estudia los procesos cerebrales y mentales por medio de simulaciones. La IA Débil no cree en las afirmaciones de la IA Fuerte. Contrapone a esas ideas, estas otras: que las computadoras podrían actuar como si fuesen inteligentes, mimetizadas o como si lo fuesen, simulando serlo. Podrían superar en "inteligencia" a sus programadores, con motivo de su alta capacidad combinatoria (deliberación) ejecutable en cortos tiempos o de ejecución de "sistemas expertos" en campos restringidos, llegando a conclusiones que el hombre no conocía antes de su descubrimiento informático (por ejemplo, un ajedrecista que se acuerda de memoria y repite las jugadas de la máquina en los finales de ajedrez). La IA débil sostiene que no hay inconvenientes en agregarles a las computadoras habilidades que no posee el ser humano, como conducir helicópteros que pierden una pala en pleno vuelo, sin perder su estabilidad (imposible con pilotos humanos) o reconocer con alta precisión quien es el que emite un cierto tipo de voz o terminar con buen éxito sistemas expertos muy complicados. En síntesis, la máquina es el tema central de investigación, la cual se ve como un todo (soft y hard) y se pretende que ésta como tal alcance niveles de inteligencia, posiblemente no alcanzados por el hombre, cada vez más avanzados. E igual manera, se especula sobre la posibilidad de que la máquina sustituya al hombre, dada las posibilidades ilimitadas de la misma. Aplicaciones de la IA Tareas de la vida diaria:  Percepción  Visión  Habla  Lenguaje natural  Comprensión  Generación  Traducción  Sentido común  Control de un robot Tareas formales:
  • 47.  Juegos  Ajedrez  Backgammon  Damas  Go  Matemáticas  Geometría  Lógica  Cálculo Integral  Demostración de las propiedades de los programas Tareas de los expertos:  Ingeniería  Diseño  Detección de fallos  Planificación de manufacturación  Análisis científico  Diagnosis médica  Análisis financiero Una de las primeras aplicaciones de la IA a nivel comercial, es el reconocimiento de patrones se basa en la utilización de distintas técnicas de clasificación para identificar subgrupos con características comunes en cada grupo. Estas técnicas se utilizan, entre otras cosas, en procesos de reconocimiento de imágenes, reconocimiento de señales, diagnóstico de fallos, etc. Las técnicas de clasificación y reconocimiento de patrones siguen siendo objeto actualmente de estudio tanto a nivel teórico como práctico. Percepción y reconocimiento de formas: Una de las aplicaciones más interesantes de la Inteligencia Artificial es la de la imitación de las capacidades sensoriales de los seres humanos, tanto audición como visión artificial. No se trata solamente que el ordenador sea capaz de percibir sonidos e imágenes, sino de identificarel sentido de lo percibido. Una introducción general al problema de reconocimiento de voz puede verse en Rabiner y Juang (1993). En cuanto al tema de la visión artificial, se ha avanzado mucho en el reconocimiento de formas bidimensionales, el caso de formas tridimensionales es objeto actualmente de
  • 48. grandes esfuerzos investigadores. Una referencia básica en el tema de visión artificial es Saphiro y Rosenfeld (1992). Robótica: La robótica es una de las áreas más populares dentro de la Inteligencia Artificial. Se trata de la creación de máquinas con capacidades perceptuales y habilidades psicomotoras. Los robots combinan elementos mecánicos, sensores, dispositivos electrónicos,... con técnicas de I.A. para conseguir que interactuen con el mundo real. Visión por computador24 La visión por computador, o visión artificial, es un subcampo de la inteligencia artificial, cuyo objetivo de investigación y desarrollo están centrados en programar un computador para que "entienda" una escena o las características de una imagen. Ninguna máquina puede procesar las imágenes obtenidas por cámaras de vigilancia como lo hacen los humanos. Probablemente, el mayor reto a la hora de crear una IA es igualar la habilidad humana de procesar información visual. 24 Marcus du Sautoy. ¿Podemos fabricar una inteligencia artificial? http://www.bbc.co.uk/mundo/noticias/2012/04/120404_tecnologia_inteligencia_artificial_aa.shtml [On line] consultadoel17dejuliode2012.
  • 49. Las computadoras todavía distan mucho de lograr el nivel que tiene el cerebro humano cuando interpreta lo que ve. Un ejemplo claro son esas letras que nos piden que escribamos cuando algunos servicios de internet quieren asegurarse de que es una persona, y no una máquina, la que está tratando de enviarles un mensaje. Es como un test de Turing a la inversa donde la computadora trata ahora de distinguir entre un humano y una máquina. Los humanos somos capaces de distinguir entre estas rebuscadas letras mientras que la computadora es incapaz. Esto es tan sólo un ejemplo de cuán mal las computadoras procesan los estímulos visuales, por ello esto se ha convertido en un reto crucial en el desarrollo de la IA. Teniendo en cuenta la cantidad de cámaras de vigilancia que cada vez más abundan en los núcleos urbanos de todo el mundo, las firmas de seguridad adorarían tener una máquina que tuviera capacidades similares a las humanas. La visión artificial involucra una serie de aspectos en su desarrollo, como son:25  La detección, segmentación, localización y reconocimiento de ciertos objetos en imágenes (por ejemplo, caras humanas). 25 Fuente. Visión artificial. http://es.wikipedia.org/wiki/Visi%C3%B3n_artificial [On line] Consultado el 19 de julio de 2012.
  • 50.  La evaluación de los resultados (por ejemplo, segmentación, registro).  Registro de diferentes imágenes de una misma escena u objeto, es decir, hacer concordar un mismo objeto en diversas imágenes.  Seguimiento de un objeto en una secuencia de imágenes.  Mapeo de una escena para generar un modelo tridimensional de la escena; este modelo podría ser usado por un robot para navegar por la escena.  Estimación de las posturas tridimensionales de humanos.  Búsqueda de imágenes digitales por su contenido. Estos objetivos se consiguen por medio de reconocimiento de patrones, aprendizaje estadístico, geometría de proyección, procesamiento de imágenes, teoría de grafos y otros campos. La visión artificial cognitiva está muy relacionada con la psicología cognitiva y la computación biológica. Actualmente, los sistemas de cómputo “inteligentes”, dependen aun de los humanos para detectar en las pantallas comportamientos sospechosos. Las computadoras tienden a leer las imágenes píxel a píxel y para ellas es difícil integrar esta información. Por lo tanto, parece que todavía tenemos un largo camino que recorrer para fabricar un procesador que pueda rivalizar con la materia gris de 1,5 kg ubicada entre nuestras orejas. Microscopía digital26 Producción de la imagen digital en microscopía óptica La digitalización de una imagen electrónica o de video capturada por un microscopio óptico permite obtener un incremento espectacular en las posibilidades de ampliar características, extraer información o modificar la imagen. En comparación con el mecanismo tradicional de captura de imágenes, la fotomicrografía27 en película, la digitalización de la imagen y el proceso de postadquisición/recuperación permiten una modificación reversible de la imagen como matriz ordenada de enteros fundamentalmente libre de ruido, más que una mera serie de variaciones análogas en color e intensidad. Esta sección trata sobre diversos temas de actualidad acerca de la adquisición y procesamiento de imágenes para microscopía óptica. Las imágenes de señal continua se reproducen mediante dispositivos electrónicos analógicos que registran los datos de la imagen con precisión utilizando varios métodos, como una secuencia de fluctuaciones de la señal eléctrica o cambios en la naturaleza química de la emulsión de una película, que varían continuamente en los diferentes aspectos de la imagen. Para procesar o visualizar en el ordenador una señal continua o una imagen analógica, se debe convertir primero a un formato comprensible para el ordenador o formato digital. Este proceso se aplica a todas las imágenes, independientemente de su 26 Ibídem. 27 Se llama fotografía microscópica o fotomicrografia al conjunto de técnicas fotográficas que permiten obtener esas imágenes con una ampliación mínima de diez veces. Langford, M. (1977). Manual de técnica fotográfica. Madrid: Hermann Blume ediciones. pp. 335, 330.
  • 51. origen, de su complejidad y de si son en blanco y negro (escala de grises) o a todo color. Una imagen digital se compone de una matriz rectangular (o cuadrada) de píxeles que representan una serie de valores de intensidad ordenados en un sistema de coordenadas (x,y). Esquema de las relaciones entre la visión por computadora y otras áreas afines. Detectores de imagen electrónicos La gama de métodos de detección de luz y la amplia variedad de dispositivos de imagen que están disponibles actualmente para el microscopista hacen que su selección sea difícil y a menudo confusa. Con este documento se pretende ofrecer ayuda para la comprensión de conceptos básicos sobre la detección de luz y proporcionar una guía para la selección del detector electrónico adecuado (CCD28 o sistema de videocámara) con aplicaciones específicas de microscopía óptica. 28 Un charge-coupled device o CCD (en español «dispositivo de carga acoplada») es un circuito integrado que contiene un número determinado de condensadores enlazados o acoplados. Bajo el control de un circuito interno, cada condensador puede transferir su carga eléctrica a uno o a varios de los condensadores que estén a su lado en el circuito impreso. La alternativa digital a los CCD son los dispositivos CMOS (complementary metal oxide semiconductor) utilizados en algunas cámaras digitales y en