Este documento discute el desarrollo de la inteligencia artificial (IA) y su aplicación en la especulación financiera. Mientras que algunos investigadores como Kearns creen que la IA cambiará Wall Street y el mundo al permitir que las computadoras tomen decisiones financieras como operadores humanos, otros argumentan que la naturaleza abierta e impredecible de los mercados financieros hace que sea difícil para las computadoras imitar el juicio humano. Además, aunque los programas de IA pueden resolver problemas específicos, aún enfrentan desaf
Este documento proporciona una introducción a la inteligencia artificial. Define la inteligencia artificial como el estudio multidisciplinario de cómo crear sistemas capaces de resolver problemas por sí mismos utilizando la inteligencia humana como paradigma. Luego describe algunas de las aplicaciones más comunes de la inteligencia artificial, incluidas las finanzas, la medicina, la industria, los transportes, las telecomunicaciones, la aviación, las noticias y los juegos.
La historia del ordenador comenzó con Charles Babbage y su máquina analítica en el siglo XIX. Herman Hollerith desarrolló tarjetas perforadas para tabular el censo estadounidense de 1890. Durante la Segunda Guerra Mundial, se construyeron las primeras computadoras electrónicas como el Colossus y el ENIAC. En la década de 1950, John von Neumann introdujo el concepto de programa almacenado y UNIVAC fue la primera computadora comercial. Los microprocesadores de Intel y empresas como Apple y Microsoft llevaron las
Este documento resume la historia de los computadores a través del tiempo. Comienza explicando qué es un computador y cómo funciona. Luego describe las cinco generaciones de computadores, desde la primera generación con máquinas de bulbos hasta la quinta generación futura con inteligencia artificial. También menciona algunos hitos importantes en el desarrollo de dispositivos de cálculo mecánicos que precedieron a la computadora moderna.
Alan Turing fue un matemático y criptoanalista británico conocido por su trabajo en descifrar códigos durante la Segunda Guerra Mundial y por ser pionero en la computación e inteligencia artificial. Tuvo una infancia solitaria pero brillante académicamente. Trabajó descifrando códigos nazis en Bletchley Park y diseñó máquinas para romper el código Enigma. Después de la guerra continuó su trabajo pionero en computación e inteligencia artificial, pero fue condenado por homosexualidad y murió en circ
El ENIAC fue la primera computadora electrónica digital construida en 1946 para resolver problemas de balística del ejército estadounidense. Ocupaba 167 metros cuadrados y pesaba 27 toneladas, estaba compuesto por casi 18,000 tubos de vacío. Aunque lento, el ENIAC podía realizar 5000 sumas y 300 multiplicaciones por segundo y calculaba trayectorias de proyectiles en 1.5 segundos. Introdujo el sistema binario para acelerar cálculos y mejorar la fiabilidad frente a los primeros problemas con la memoria y fallos en los tub
El documento resume una charla sobre la vida y logros del matemático y científico de la computación Alan Turing. Turing hizo contribuciones fundamentales al desarrollo de la computación moderna al idear la máquina de Turing y trabajar en el descifrado de códigos durante la Segunda Guerra Mundial. Sin embargo, su carrera se vio interrumpida cuando fue condenado por homosexualidad y se le obligó a someterse a una castración química. La charla despertó el interés de los estudiantes sobre las matemáticas
El ábaco fue uno de los primeros dispositivos mecánicos para contar, utilizado por las civilizaciones griega y romana. Más tarde, se inventaron las máquinas mecánicas como la Pascalina y la máquina diferencial de Leibniz. La primera computadora fue la máquina analítica creada por Charles Babbage en el siglo XIX para realizar cálculos matemáticos de forma automática.
Este documento proporciona una introducción a la inteligencia artificial. Define la inteligencia artificial como el estudio multidisciplinario de cómo crear sistemas capaces de resolver problemas por sí mismos utilizando la inteligencia humana como paradigma. Luego describe algunas de las aplicaciones más comunes de la inteligencia artificial, incluidas las finanzas, la medicina, la industria, los transportes, las telecomunicaciones, la aviación, las noticias y los juegos.
La historia del ordenador comenzó con Charles Babbage y su máquina analítica en el siglo XIX. Herman Hollerith desarrolló tarjetas perforadas para tabular el censo estadounidense de 1890. Durante la Segunda Guerra Mundial, se construyeron las primeras computadoras electrónicas como el Colossus y el ENIAC. En la década de 1950, John von Neumann introdujo el concepto de programa almacenado y UNIVAC fue la primera computadora comercial. Los microprocesadores de Intel y empresas como Apple y Microsoft llevaron las
Este documento resume la historia de los computadores a través del tiempo. Comienza explicando qué es un computador y cómo funciona. Luego describe las cinco generaciones de computadores, desde la primera generación con máquinas de bulbos hasta la quinta generación futura con inteligencia artificial. También menciona algunos hitos importantes en el desarrollo de dispositivos de cálculo mecánicos que precedieron a la computadora moderna.
Alan Turing fue un matemático y criptoanalista británico conocido por su trabajo en descifrar códigos durante la Segunda Guerra Mundial y por ser pionero en la computación e inteligencia artificial. Tuvo una infancia solitaria pero brillante académicamente. Trabajó descifrando códigos nazis en Bletchley Park y diseñó máquinas para romper el código Enigma. Después de la guerra continuó su trabajo pionero en computación e inteligencia artificial, pero fue condenado por homosexualidad y murió en circ
El ENIAC fue la primera computadora electrónica digital construida en 1946 para resolver problemas de balística del ejército estadounidense. Ocupaba 167 metros cuadrados y pesaba 27 toneladas, estaba compuesto por casi 18,000 tubos de vacío. Aunque lento, el ENIAC podía realizar 5000 sumas y 300 multiplicaciones por segundo y calculaba trayectorias de proyectiles en 1.5 segundos. Introdujo el sistema binario para acelerar cálculos y mejorar la fiabilidad frente a los primeros problemas con la memoria y fallos en los tub
El documento resume una charla sobre la vida y logros del matemático y científico de la computación Alan Turing. Turing hizo contribuciones fundamentales al desarrollo de la computación moderna al idear la máquina de Turing y trabajar en el descifrado de códigos durante la Segunda Guerra Mundial. Sin embargo, su carrera se vio interrumpida cuando fue condenado por homosexualidad y se le obligó a someterse a una castración química. La charla despertó el interés de los estudiantes sobre las matemáticas
El ábaco fue uno de los primeros dispositivos mecánicos para contar, utilizado por las civilizaciones griega y romana. Más tarde, se inventaron las máquinas mecánicas como la Pascalina y la máquina diferencial de Leibniz. La primera computadora fue la máquina analítica creada por Charles Babbage en el siglo XIX para realizar cálculos matemáticos de forma automática.
El documento describe la historia de la computación desde los primeros dispositivos mecánicos como el ábaco hasta las primeras generaciones de computadoras. Explica que las primeras computadoras de la década de 1950 estaban construidas con tubos de vacío, eran programadas en lenguaje de máquina y tenían un alto costo. La segunda generación de los años 1960 usó transistores, lenguajes de alto nivel y tuvo un menor tamaño y costo. Finalmente, señala los objetivos de Japón y Estados Unidos de lograr un procesamiento par
El documento resume brevemente la historia de la computación, comenzando con dispositivos mecánicos como el ábaco y las primeras calculadoras mecánicas. Luego describe la máquina analítica de Charles Babbage, la primera computadora conceptualizada en el siglo XIX. Finalmente, detalla los hitos de la ENIAC, la primera computadora electrónica construida en 1947, y las contribuciones de John von Neumann considerado el padre de las computadoras modernas.
La ENIAC fue la primera computadora digital y de propósito general construida en 1946. Ocupaba 167 m2 y estaba compuesta por 17,468 tubos de vacío. A pesar de ser operada por seis mujeres programadoras, usualmente no se les da crédito en la historia de las computadoras. La ENIAC allanó el camino para las computadoras modernas al popularizar el procesamiento digital.
Alan Turing fue un matemático, científico de la computación y filósofo británico que diseñó uno de los primeros computadores electrónicos programables digitales y supervisó la construcción de la primera computadora electrónica llamada Colossus en 1939; también construyó otra de las primeras máquinas poco después.
El ENIAC fue la primera computadora electrónica digital con fines generales a gran escala, construida en la Universidad de Pensilvania entre 1943 y 1946. Pesaba casi 30 toneladas y ocupaba 167 metros cuadrados. Aunque fue diseñado originalmente para cálculos balísticos, también se usó para investigación científica. Fue programado por un equipo de seis mujeres pioneras en programación de computadoras.
El documento resume la historia de la inteligencia artificial desde sus inicios en 1950 hasta la actualidad. Algunos hitos importantes incluyen la prueba de Turing propuesta por Alan Turing en 1950, el desarrollo del transistor en 1951 que permitió computadoras más rápidas, y avances recientes como sistemas expertos en los 80s y programas que ganaron premios a chatbots humanos en los 2000s y 2010s. La IA ha progresado desde sus inicios teóricos hasta demostrar capacidades como vencer a humanos en juegos de preguntas y respuestas y
Este documento resume conceptos clave sobre inteligencia artificial (IA), incluyendo sus orígenes en 1943, el desarrollo del término "IA" en 1956, y aplicaciones actuales como Watson de IBM. Explica que la IA se basa en el análisis de comportamiento humano para tomar decisiones, y que redes neuronales artificiales imitan el funcionamiento de redes neuronales biológicas.
La inteligencia artificial se define como la inteligencia mostrada por artefactos creados por humanos como los computadores, y busca modelar la inteligencia humana en sistemas computacionales. Tiene sus orígenes en ideas filosóficas antiguas sobre la imitación de la naturaleza y la inteligencia humana, y ha evolucionado gracias a inventos como el transistor y conferencias como la de Dartmouth College en 1956 donde se acuñó el término. Actualmente, los chatbots y asistentes virtuales son áreas prometedoras, y en el futuro una
Este documento trata sobre la inteligencia artificial. Explica brevemente el origen e historia de la inteligencia artificial, desde sus inicios en la psicología cognitiva hasta su incorporación de otras áreas como la ciencia de la computación. También describe algunas aplicaciones actuales y futuras de la inteligencia artificial, incluyendo sistemas expertos, reconocimiento de voz y video, y simulación del cerebro humano a través de redes de computadoras. Además, analiza campos relacionados como la robótica y su uso en la industria y la
Nacimiento de la inteligencia artificial it_consolIT Consol Group
Para saber dónde estamos y hacia dónde nos dirigimos, debemos saber de dónde venimos. Los próximos hitos tendrán mucho que ver con cómo nació la Inteligencia Artificial.
El documento trata sobre la inteligencia artificial. Explica que la IA es un área multidisciplinaria que estudia cómo crear sistemas capaces de resolver problemas por sí mismos utilizando la inteligencia humana como paradigma. También define la IA como la capacidad de razonar de un agente no vivo.
El documento trata sobre la inteligencia artificial. Explica que la IA es un área multidisciplinaria que estudia cómo crear sistemas capaces de resolver problemas por sí mismos utilizando la inteligencia humana como paradigma. También define la IA como la capacidad de razonar de un agente no vivo.
Más información: https://www.universidadpopularc3c.es/index.php/actividades/conferencias/event/2742
Ponente: Víctor Amigó Ramos, matemático
Tema: Conferencia sobre Inteligencia Artificial parte I
Fecha: 10 de enero de 2017
Lugar: Universidad Popular Carmen de Michelena de Tres Cantos.
Descripción: Esta es la primera de una serie de charlas en las que se pretende contar la historia de la disciplina científica denominada “inteligencia artificial” de forma que resulte comprensible para gente sin una preparación especial en informática y en matemáticas.
La inteligencia artificial está de moda, porque de forma habitual aparecen en los medios de comunicación artículos sobre nuevos logros en este ámbito.
La inteligencia artificial, (a partir de aquí, la mencionaré como IA), trata de emular mediante máquinas, (ordenadores o robots), comportamientos que se suponen inteligentes.
La importancia de la IA reside en que tiene muchas implicaciones económicas, que pueden afectar en un futuro próximo al empleo y por otra parte está relacionada con bastantes otras ciencias, incluyendo los estudios sobre el cerebro.
Este documento presenta una introducción a la inteligencia artificial. Explica que la IA aspira a crear programas que imiten el comportamiento humano y describe algunos hitos históricos clave en el desarrollo de la IA, como la prueba de Turing y el desarrollo de sistemas expertos en las décadas de 1960 y 1970. También resume las principales áreas de investigación de la IA y ofrece definiciones de conceptos clave como agentes inteligentes.
Este documento trata sobre inteligencia artificial. Explica la historia y orígenes de la inteligencia artificial, incluyendo contribuciones clave de figuras como Turing, McCarthy y otros. También describe las categorías, aplicaciones y áreas de investigación de la inteligencia artificial como sistemas expertos, redes neuronales, robótica y neurocomputación.
El documento trata sobre la historia y evolución de la inteligencia artificial. Explica que el término fue acuñado en 1956 y que desde entonces ha habido avances significativos, incluyendo la creación del primer computador programable en 1941, el modelo de neuronas artificiales en 1943, y la prueba de Turing en 1950. También describe los cuatro tipos principales de inteligencia artificial según su capacidad cognitiva.
La inteligencia artificial se origina con las ideas de Alan Turing en 1936 y se refiere a la creación de máquinas con capacidades similares a los humanos. Existen diferentes tipos como la inteligencia artificial estrecha, general y superinteligencia. Aunque tiene usos en varios campos como la medicina, finanzas y transporte, también plantea riesgos como la pérdida de empleos y dominio de mercados. Actualmente se encuentra en asistentes digitales, vehículos y traducciones automáticas.
Este documento define la inteligencia artificial como la inteligencia exhibida por artefactos creados por humanos. Brevemente describe la historia de la IA desde la antigüedad hasta la actualidad, incluyendo hitos como la invención del transistor y el término "inteligencia artificial" acuñado en 1956. Finalmente, resume algunas técnicas y campos de la IA como aprendizaje automático, redes neuronales, sistemas expertos y procesamiento del lenguaje natural.
Este documento resume la historia de la computación desde sus orígenes hasta la actualidad. Comenzó con el desarrollo del ábaco como primera calculadora, luego avanzó a máquinas mecánicas y eléctricas para realizar cálculos a lo largo de los siglos XVII-XIX. En el siglo XX se crearon los primeros computadores electrónicos programables y luego los microprocesadores, dando paso a la era de los computadores personales y la Internet. Actualmente, la tecnología continúa evolucionando rápidamente y transformando a la soc
La inteligencia artificial surge a partir de 1940, pero no es hasta 1950 que Alan Turing propone formalmente el concepto. Turing sugiere que una máquina puede pensar si un interrogador no puede distinguir si las respuestas vienen de una persona o una computadora, conocida como la Prueba de Turing. Aunque esta prueba no ha sido superada, ha tenido gran influencia teórica en el desarrollo del campo. Las ideas fundamentales se remontan a los griegos, pero es en el siglo XX cuando avances en lógica matemática y computación permiten el desar
El documento habla sobre la historia e introducción de la inteligencia artificial. Explica que los esfuerzos por crear máquinas inteligentes se remontan a la antigüedad y que Alan Turing formalizó el campo en 1950 al proponer que las máquinas podrían pensar. También define la inteligencia artificial como el estudio interdisciplinario para crear sistemas que resuelven problemas usando la inteligencia humana como paradigma y discute los riesgos potenciales si la IA no es controlada adecuadamente.
El documento describe la historia de la computación desde los primeros dispositivos mecánicos como el ábaco hasta las primeras generaciones de computadoras. Explica que las primeras computadoras de la década de 1950 estaban construidas con tubos de vacío, eran programadas en lenguaje de máquina y tenían un alto costo. La segunda generación de los años 1960 usó transistores, lenguajes de alto nivel y tuvo un menor tamaño y costo. Finalmente, señala los objetivos de Japón y Estados Unidos de lograr un procesamiento par
El documento resume brevemente la historia de la computación, comenzando con dispositivos mecánicos como el ábaco y las primeras calculadoras mecánicas. Luego describe la máquina analítica de Charles Babbage, la primera computadora conceptualizada en el siglo XIX. Finalmente, detalla los hitos de la ENIAC, la primera computadora electrónica construida en 1947, y las contribuciones de John von Neumann considerado el padre de las computadoras modernas.
La ENIAC fue la primera computadora digital y de propósito general construida en 1946. Ocupaba 167 m2 y estaba compuesta por 17,468 tubos de vacío. A pesar de ser operada por seis mujeres programadoras, usualmente no se les da crédito en la historia de las computadoras. La ENIAC allanó el camino para las computadoras modernas al popularizar el procesamiento digital.
Alan Turing fue un matemático, científico de la computación y filósofo británico que diseñó uno de los primeros computadores electrónicos programables digitales y supervisó la construcción de la primera computadora electrónica llamada Colossus en 1939; también construyó otra de las primeras máquinas poco después.
El ENIAC fue la primera computadora electrónica digital con fines generales a gran escala, construida en la Universidad de Pensilvania entre 1943 y 1946. Pesaba casi 30 toneladas y ocupaba 167 metros cuadrados. Aunque fue diseñado originalmente para cálculos balísticos, también se usó para investigación científica. Fue programado por un equipo de seis mujeres pioneras en programación de computadoras.
El documento resume la historia de la inteligencia artificial desde sus inicios en 1950 hasta la actualidad. Algunos hitos importantes incluyen la prueba de Turing propuesta por Alan Turing en 1950, el desarrollo del transistor en 1951 que permitió computadoras más rápidas, y avances recientes como sistemas expertos en los 80s y programas que ganaron premios a chatbots humanos en los 2000s y 2010s. La IA ha progresado desde sus inicios teóricos hasta demostrar capacidades como vencer a humanos en juegos de preguntas y respuestas y
Este documento resume conceptos clave sobre inteligencia artificial (IA), incluyendo sus orígenes en 1943, el desarrollo del término "IA" en 1956, y aplicaciones actuales como Watson de IBM. Explica que la IA se basa en el análisis de comportamiento humano para tomar decisiones, y que redes neuronales artificiales imitan el funcionamiento de redes neuronales biológicas.
La inteligencia artificial se define como la inteligencia mostrada por artefactos creados por humanos como los computadores, y busca modelar la inteligencia humana en sistemas computacionales. Tiene sus orígenes en ideas filosóficas antiguas sobre la imitación de la naturaleza y la inteligencia humana, y ha evolucionado gracias a inventos como el transistor y conferencias como la de Dartmouth College en 1956 donde se acuñó el término. Actualmente, los chatbots y asistentes virtuales son áreas prometedoras, y en el futuro una
Este documento trata sobre la inteligencia artificial. Explica brevemente el origen e historia de la inteligencia artificial, desde sus inicios en la psicología cognitiva hasta su incorporación de otras áreas como la ciencia de la computación. También describe algunas aplicaciones actuales y futuras de la inteligencia artificial, incluyendo sistemas expertos, reconocimiento de voz y video, y simulación del cerebro humano a través de redes de computadoras. Además, analiza campos relacionados como la robótica y su uso en la industria y la
Nacimiento de la inteligencia artificial it_consolIT Consol Group
Para saber dónde estamos y hacia dónde nos dirigimos, debemos saber de dónde venimos. Los próximos hitos tendrán mucho que ver con cómo nació la Inteligencia Artificial.
El documento trata sobre la inteligencia artificial. Explica que la IA es un área multidisciplinaria que estudia cómo crear sistemas capaces de resolver problemas por sí mismos utilizando la inteligencia humana como paradigma. También define la IA como la capacidad de razonar de un agente no vivo.
El documento trata sobre la inteligencia artificial. Explica que la IA es un área multidisciplinaria que estudia cómo crear sistemas capaces de resolver problemas por sí mismos utilizando la inteligencia humana como paradigma. También define la IA como la capacidad de razonar de un agente no vivo.
Más información: https://www.universidadpopularc3c.es/index.php/actividades/conferencias/event/2742
Ponente: Víctor Amigó Ramos, matemático
Tema: Conferencia sobre Inteligencia Artificial parte I
Fecha: 10 de enero de 2017
Lugar: Universidad Popular Carmen de Michelena de Tres Cantos.
Descripción: Esta es la primera de una serie de charlas en las que se pretende contar la historia de la disciplina científica denominada “inteligencia artificial” de forma que resulte comprensible para gente sin una preparación especial en informática y en matemáticas.
La inteligencia artificial está de moda, porque de forma habitual aparecen en los medios de comunicación artículos sobre nuevos logros en este ámbito.
La inteligencia artificial, (a partir de aquí, la mencionaré como IA), trata de emular mediante máquinas, (ordenadores o robots), comportamientos que se suponen inteligentes.
La importancia de la IA reside en que tiene muchas implicaciones económicas, que pueden afectar en un futuro próximo al empleo y por otra parte está relacionada con bastantes otras ciencias, incluyendo los estudios sobre el cerebro.
Este documento presenta una introducción a la inteligencia artificial. Explica que la IA aspira a crear programas que imiten el comportamiento humano y describe algunos hitos históricos clave en el desarrollo de la IA, como la prueba de Turing y el desarrollo de sistemas expertos en las décadas de 1960 y 1970. También resume las principales áreas de investigación de la IA y ofrece definiciones de conceptos clave como agentes inteligentes.
Este documento trata sobre inteligencia artificial. Explica la historia y orígenes de la inteligencia artificial, incluyendo contribuciones clave de figuras como Turing, McCarthy y otros. También describe las categorías, aplicaciones y áreas de investigación de la inteligencia artificial como sistemas expertos, redes neuronales, robótica y neurocomputación.
El documento trata sobre la historia y evolución de la inteligencia artificial. Explica que el término fue acuñado en 1956 y que desde entonces ha habido avances significativos, incluyendo la creación del primer computador programable en 1941, el modelo de neuronas artificiales en 1943, y la prueba de Turing en 1950. También describe los cuatro tipos principales de inteligencia artificial según su capacidad cognitiva.
La inteligencia artificial se origina con las ideas de Alan Turing en 1936 y se refiere a la creación de máquinas con capacidades similares a los humanos. Existen diferentes tipos como la inteligencia artificial estrecha, general y superinteligencia. Aunque tiene usos en varios campos como la medicina, finanzas y transporte, también plantea riesgos como la pérdida de empleos y dominio de mercados. Actualmente se encuentra en asistentes digitales, vehículos y traducciones automáticas.
Este documento define la inteligencia artificial como la inteligencia exhibida por artefactos creados por humanos. Brevemente describe la historia de la IA desde la antigüedad hasta la actualidad, incluyendo hitos como la invención del transistor y el término "inteligencia artificial" acuñado en 1956. Finalmente, resume algunas técnicas y campos de la IA como aprendizaje automático, redes neuronales, sistemas expertos y procesamiento del lenguaje natural.
Este documento resume la historia de la computación desde sus orígenes hasta la actualidad. Comenzó con el desarrollo del ábaco como primera calculadora, luego avanzó a máquinas mecánicas y eléctricas para realizar cálculos a lo largo de los siglos XVII-XIX. En el siglo XX se crearon los primeros computadores electrónicos programables y luego los microprocesadores, dando paso a la era de los computadores personales y la Internet. Actualmente, la tecnología continúa evolucionando rápidamente y transformando a la soc
La inteligencia artificial surge a partir de 1940, pero no es hasta 1950 que Alan Turing propone formalmente el concepto. Turing sugiere que una máquina puede pensar si un interrogador no puede distinguir si las respuestas vienen de una persona o una computadora, conocida como la Prueba de Turing. Aunque esta prueba no ha sido superada, ha tenido gran influencia teórica en el desarrollo del campo. Las ideas fundamentales se remontan a los griegos, pero es en el siglo XX cuando avances en lógica matemática y computación permiten el desar
El documento habla sobre la historia e introducción de la inteligencia artificial. Explica que los esfuerzos por crear máquinas inteligentes se remontan a la antigüedad y que Alan Turing formalizó el campo en 1950 al proponer que las máquinas podrían pensar. También define la inteligencia artificial como el estudio interdisciplinario para crear sistemas que resuelven problemas usando la inteligencia humana como paradigma y discute los riesgos potenciales si la IA no es controlada adecuadamente.
El documento define la inteligencia artificial de varias formas, incluyendo como el estudio de cómo lograr que las computadoras realicen tareas que los humanos hacen mejor y la automatización de la conducta inteligente. También describe los dos enfoques principales de la IA: el enfoque simbólico que simula características inteligentes y el enfoque subsimbólico que se enfoca en los elementos de bajo nivel de los procesos inteligentes. Además, resume brevemente la historia de la IA y las principales escuelas de pens
La inteligencia artificial se define como la inteligencia exhibida por artefactos creados por humanos como los computadores. Se encarga de modelar la inteligencia humana en sistemas computacionales. La inteligencia artificial busca imitar la inteligencia humana aunque todavía no lo ha logrado completamente. Su historia se remonta a ideas antiguas sobre sistemas inteligentes y ha avanzado gracias a hitos como la máquina de Turing y modelos de agentes inteligentes. En el futuro, los robots conversacionales y el reconocimiento de voz y video podr
Este documento resume la historia de la computación desde sus orígenes hasta el presente. Comenzó con el desarrollo del ábaco como primera calculadora, luego avanzó a máquinas mecánicas y eléctricas en los siglos XVII-XIX. En el siglo XX se crearon los primeros computadores electrónicos programables y microprocesadores, llevando al desarrollo de computadoras personales. Hoy la computación se ha extendido a todas las áreas e impulsa cambios en la sociedad a través de Internet y la inteligencia artificial.
Este documento resume la historia de la computación desde sus orígenes hasta el presente. Comenzó con el desarrollo del ábaco como primera calculadora, luego avanzó a máquinas mecánicas y eléctricas en los siglos XVII-XIX. En el siglo XX se crearon los primeros computadores electrónicos programables y luego los microprocesadores llevaron a la era de los computadores personales. Hoy la computación se ha extendido a todas las áreas y continúa evolucionando rápidamente con la inteligencia artificial y la computación ubicua
Similar a Inteligencia Artificial Y Computadoras Capaces De Especular (20)
Durante el desarrollo embrionario, las células se multiplican y diferencian para formar tejidos y órganos especializados, bajo la regulación de señales internas y externas.
MATERIAL ESCOLAR 2024-2025. 4 AÑOS CEIP SAN CRISTOBAL
Inteligencia Artificial Y Computadoras Capaces De Especular
1. Inteligencia artificial y computadoras capaces de
especular
Michael Kearns, Vasant Dhar y otros herederos de Alan
Turing sueñan con la inteligencia artificial (IA). Pero su
sesgo es poco tranquilizador: la ponen al servicio de la
especulación financiera, no de la economía real ni la
sociedad.
Imagen: Ecuador Ciencia Trabajando para Lehman Brothers, por ejemplo, Kearns –
explica una investigación de Bloomberg, recién actualizada
en su sitrio- intenta desde hace tiempo que una
computadora haga algo hasta ahora casi imposible: pensar como un operador de Wall
Street, pero manejando miles de transacciones sin perder de vistas sutiles cambios en los
mercados.
En un sentido, la futura “máquina de sacar ganancias” parece una mutación muy peligrosa
de un proyecto japonés, conocido hace más de veinte años: los ordenadores de quinta
generación. Por motivos nunca bien claros (el trabajo de la agencia no dice una palabra al
respecto), la idea quedó sepultada en los archivos. Ahora, ingenieros de sistemas y
matemáticos la desentierran –sin mencionar su origen-, pero orientada a afinar instrumentos
para grandes intermediarios financieros y bursátiles.
Naturalmente, el concepto de IA remite a la “prueba de Turing” (1951) para reconocer la
inteligencia cibernética. Su epónimo, Alan Turing, se suicidó en 1954 y, recién en 1956,
surgió el término “inteligencia artificial”. A los dos años, se creó el programa Lisp, un
lenguaje de IA, substituido en 1964 por computadoras capaces de entender lenguaje
humano básico, suficiente para resolver problemas algebraicos. Por fin, en 1965, aparece
Eliza, un programa interactivo capaz de dialogar en inglés neutro y esquemático sobre
cualquier tópico.
Ahí arrancan las innovaciones que desembocarán en los presentes ensayos de “IA
financiera”. En 1968, un cineasta versado en esos temas, Stanley Kubrick, imagina –
partiendo de Arthur Clarke- en “2001” un ordenador inteligente de tipo holístico,
HAL-9000. A su vez, el escritor se inspiraba en el antepasado de la computación, Charles
Babbage (1792/1871), que concibió -pero no construyó- el ordenador de fichas perforadas.
Mucho después, en 1987/8, las operaciones automáticas computadas ayudaron a provocar
un crac bursátil global.
Ello no impide que diversas aplicaciones de IA (“máquinas que aprenden”) invadan todo
tipo de sectores y, al fin, Internet. En 1999, Sony presenta un perro robot que, como sus
versiones “humanas”, sólo parece servir para que los japoneses se diviertan. En 2001,
2. “Inteligencia artificial”, un producto mediocre de Steven Spielberg (astuto, pero nunca un
Kubrick) se candidatea para un Oscar que no obtiene.
Kearns es un optimista clásico y sostiene que “la AI cambiará Wall Street primero y
después, el mundo”. Olvida que gurúes de la efímera “nueva economía”, como Nicholas
Negroponte o Abigail Cohen (Goldman Sachs) prometían lo mismo hace casi diez años.
Tampoco advierte que, en el mundillo académico, “AI” tiene una traducción irónica,
“aventuras imposibles”. Sea como fuere, un ejército de analistas cuantitativos (AC) y
graduados terciarios desafía a operadores financieros convencionales.
Por supuesto, hace decenios que bancas de inversión, fondos de cobertura y otros
segmentos usan AC para detectar relaciones y tendencias subyacentes. El objeto consiste en
explotar esos datos en veloces transacciones computadas. Los AC pretenden excluir
móviles humanos –miedo, codicia-, pero ocurre que sus empleadores y los medios ven la
codicia como virtud teologal.
Pese a esa contradicción, apóstoles de la AI como Kearns, Vasant Dhar o Kathleen
McKeown creen que el tiempo está de su lado. Algunos tienen una meta nada modesta:
construir un Warren Buffett cibernético, capaz de procesar todo tipo de interrogante
financiero, económico, geopolítico, etc., que afecte al mercado. Por el contrario, muchos
científicos, empresarios o ejecutivos prefieren –como el difunto Peter Drucker, que conoció
a Turing-no tocar el tema. En verdad, la AI nunca satisfizo las ilusiones de los años 60 y
70.
Existe una razón objetiva, bellamente expuesta en “2001” (la novela, no tanto la película),
“Solyaris” –el filme de Andryéi Tarkovskiy- o el ciclo “Fundación” de Isaac Asìmov. Tiene
que ver con una situación ya clásica: un ordenador derrota a eximios ajedrecistas, pero no
puede predecir el decurso de una sola acción relevante. ¿Por qué? Porque el tablero de
ajedrez –aun el tridimensional- en un sistema cerrado, con cierto límite de piezas y movida.
Al revés, el mercado es un sistema abierto, con una masa ilimitada o cambiante de
operadores y otra similar de eventos, vínculos, situaciones e imponderables. Por ello, una
computadora no parece capaz de ganar una partida de póker ni la guerra en Irak.
Obviamente, según apunta Brian Hamilton (Raleigh), los programas tipo AI pueden
resolver problemas específicos según parámetros finitos. Así, en febrero Intel anunció
haber desarrollado un microprocesador tamaño uña capaz de procesar un billón de cálculos
por segundo. En los años 90, lo mismo exigía 10.000 semiconductores. Los creyentes en la
AI como absoluto sostienen que esto recién empieza. Pero ante ellos se yergue otro campo
muy difícil: el procesamiento de lenguajes naturales (PLN). Puesto en términos fáciles, la
posibilidad de que un ordenador entienda un idioma humano, pueda usarlo y hasta aplicarlo
a decisiones financieras. Esto supera a HAL 9000 (“2001”) o a los sistemas de “Viaje a las
estrellas” series II a IV.
Una firma norteamericana, Collective Intellect, emplea ya programas elementales tipo PLN
que “peinan” 55 millones de sitios web en pos de datos que generen utilidades a fondos de
cobertura. Esto es, especulación sobre futuros y opciones vía derivados. Otro campo de AI,
3. las redes neurales, implica replicar con “nanochips” el esquema de la corteza cerebral (los
mecanismos que guían la razón).
Su objeto: que los cibersistemas imiten las neuronas naturales, piensen como operadores
financieros y entiendan que el mundo no viene en blanco y negro, sino en un espectro de
grises. Pero, a diferencia de un programa tipo AI, esos grises pueden no tener límite.
Cuantificarlos equivale, como decían los presocráticos o Agustín de Hipona, a definir los
alcances del poder celeste.
Sin pretender tanto, los analistas cuantitativos (AC o “quants” en la jerga del oficio) sólo
quieren llegar al “hiperprotagonismo” en los mercados. Pero esta meta no carece de riesgos.
Por ejemplo, por ahora ni los programas más complejos de AI muestran sentido común u
olfato. A diferencia de los operadores humanos, en situaciones críticas pueden ocasionar
catástrofes (confiesan Kearns y Dhar).
Seguramente por todo eso, “muchos investigadores en AI prefieren por el momento aspirar
a menos y lograr más en materia de máquinas capaces de aprender”. Eso señala Thomas
Mitchell, docente universitario experto en el tema. En esta línea menos “fundamentalista”,
varias firmas financieras comienzan a desplegar programas básicos orientado a “máquinas
que aprenden”. Mediante algoritmos, analizan a la inversa horizontes probables y definen
medidas a adoptar en cada fase de una operación. Pero nada más.
BIBLIOGRAFÍA:
http://www.ecuadorciencia.org/articulos.asp?id=5193