Inteligencia Artificial Y Computadoras Capaces De Especular
1. Inteligencia artificial y computadoras capaces de
especular
Michael Kearns, Vasant Dhar y otros herederos de Alan
Turing sueñan con la inteligencia artificial (IA). Pero su
sesgo es poco tranquilizador: la ponen al servicio de la
especulación financiera, no de la economía real ni la
sociedad.
Imagen: Ecuador Ciencia Trabajando para Lehman Brothers, por ejemplo, Kearns –
explica una investigación de Bloomberg, recién actualizada
en su sitrio- intenta desde hace tiempo que una
computadora haga algo hasta ahora casi imposible: pensar como un operador de Wall
Street, pero manejando miles de transacciones sin perder de vistas sutiles cambios en los
mercados.
En un sentido, la futura “máquina de sacar ganancias” parece una mutación muy peligrosa
de un proyecto japonés, conocido hace más de veinte años: los ordenadores de quinta
generación. Por motivos nunca bien claros (el trabajo de la agencia no dice una palabra al
respecto), la idea quedó sepultada en los archivos. Ahora, ingenieros de sistemas y
matemáticos la desentierran –sin mencionar su origen-, pero orientada a afinar instrumentos
para grandes intermediarios financieros y bursátiles.
Naturalmente, el concepto de IA remite a la “prueba de Turing” (1951) para reconocer la
inteligencia cibernética. Su epónimo, Alan Turing, se suicidó en 1954 y, recién en 1956,
surgió el término “inteligencia artificial”. A los dos años, se creó el programa Lisp, un
lenguaje de IA, substituido en 1964 por computadoras capaces de entender lenguaje
humano básico, suficiente para resolver problemas algebraicos. Por fin, en 1965, aparece
Eliza, un programa interactivo capaz de dialogar en inglés neutro y esquemático sobre
cualquier tópico.
Ahí arrancan las innovaciones que desembocarán en los presentes ensayos de “IA
financiera”. En 1968, un cineasta versado en esos temas, Stanley Kubrick, imagina –
partiendo de Arthur Clarke- en “2001” un ordenador inteligente de tipo holístico,
HAL-9000. A su vez, el escritor se inspiraba en el antepasado de la computación, Charles
Babbage (1792/1871), que concibió -pero no construyó- el ordenador de fichas perforadas.
Mucho después, en 1987/8, las operaciones automáticas computadas ayudaron a provocar
un crac bursátil global.
Ello no impide que diversas aplicaciones de IA (“máquinas que aprenden”) invadan todo
tipo de sectores y, al fin, Internet. En 1999, Sony presenta un perro robot que, como sus
versiones “humanas”, sólo parece servir para que los japoneses se diviertan. En 2001,
2. “Inteligencia artificial”, un producto mediocre de Steven Spielberg (astuto, pero nunca un
Kubrick) se candidatea para un Oscar que no obtiene.
Kearns es un optimista clásico y sostiene que “la AI cambiará Wall Street primero y
después, el mundo”. Olvida que gurúes de la efímera “nueva economía”, como Nicholas
Negroponte o Abigail Cohen (Goldman Sachs) prometían lo mismo hace casi diez años.
Tampoco advierte que, en el mundillo académico, “AI” tiene una traducción irónica,
“aventuras imposibles”. Sea como fuere, un ejército de analistas cuantitativos (AC) y
graduados terciarios desafía a operadores financieros convencionales.
Por supuesto, hace decenios que bancas de inversión, fondos de cobertura y otros
segmentos usan AC para detectar relaciones y tendencias subyacentes. El objeto consiste en
explotar esos datos en veloces transacciones computadas. Los AC pretenden excluir
móviles humanos –miedo, codicia-, pero ocurre que sus empleadores y los medios ven la
codicia como virtud teologal.
Pese a esa contradicción, apóstoles de la AI como Kearns, Vasant Dhar o Kathleen
McKeown creen que el tiempo está de su lado. Algunos tienen una meta nada modesta:
construir un Warren Buffett cibernético, capaz de procesar todo tipo de interrogante
financiero, económico, geopolítico, etc., que afecte al mercado. Por el contrario, muchos
científicos, empresarios o ejecutivos prefieren –como el difunto Peter Drucker, que conoció
a Turing-no tocar el tema. En verdad, la AI nunca satisfizo las ilusiones de los años 60 y
70.
Existe una razón objetiva, bellamente expuesta en “2001” (la novela, no tanto la película),
“Solyaris” –el filme de Andryéi Tarkovskiy- o el ciclo “Fundación” de Isaac Asìmov. Tiene
que ver con una situación ya clásica: un ordenador derrota a eximios ajedrecistas, pero no
puede predecir el decurso de una sola acción relevante. ¿Por qué? Porque el tablero de
ajedrez –aun el tridimensional- en un sistema cerrado, con cierto límite de piezas y movida.
Al revés, el mercado es un sistema abierto, con una masa ilimitada o cambiante de
operadores y otra similar de eventos, vínculos, situaciones e imponderables. Por ello, una
computadora no parece capaz de ganar una partida de póker ni la guerra en Irak.
Obviamente, según apunta Brian Hamilton (Raleigh), los programas tipo AI pueden
resolver problemas específicos según parámetros finitos. Así, en febrero Intel anunció
haber desarrollado un microprocesador tamaño uña capaz de procesar un billón de cálculos
por segundo. En los años 90, lo mismo exigía 10.000 semiconductores. Los creyentes en la
AI como absoluto sostienen que esto recién empieza. Pero ante ellos se yergue otro campo
muy difícil: el procesamiento de lenguajes naturales (PLN). Puesto en términos fáciles, la
posibilidad de que un ordenador entienda un idioma humano, pueda usarlo y hasta aplicarlo
a decisiones financieras. Esto supera a HAL 9000 (“2001”) o a los sistemas de “Viaje a las
estrellas” series II a IV.
Una firma norteamericana, Collective Intellect, emplea ya programas elementales tipo PLN
que “peinan” 55 millones de sitios web en pos de datos que generen utilidades a fondos de
cobertura. Esto es, especulación sobre futuros y opciones vía derivados. Otro campo de AI,
3. las redes neurales, implica replicar con “nanochips” el esquema de la corteza cerebral (los
mecanismos que guían la razón).
Su objeto: que los cibersistemas imiten las neuronas naturales, piensen como operadores
financieros y entiendan que el mundo no viene en blanco y negro, sino en un espectro de
grises. Pero, a diferencia de un programa tipo AI, esos grises pueden no tener límite.
Cuantificarlos equivale, como decían los presocráticos o Agustín de Hipona, a definir los
alcances del poder celeste.
Sin pretender tanto, los analistas cuantitativos (AC o “quants” en la jerga del oficio) sólo
quieren llegar al “hiperprotagonismo” en los mercados. Pero esta meta no carece de riesgos.
Por ejemplo, por ahora ni los programas más complejos de AI muestran sentido común u
olfato. A diferencia de los operadores humanos, en situaciones críticas pueden ocasionar
catástrofes (confiesan Kearns y Dhar).
Seguramente por todo eso, “muchos investigadores en AI prefieren por el momento aspirar
a menos y lograr más en materia de máquinas capaces de aprender”. Eso señala Thomas
Mitchell, docente universitario experto en el tema. En esta línea menos “fundamentalista”,
varias firmas financieras comienzan a desplegar programas básicos orientado a “máquinas
que aprenden”. Mediante algoritmos, analizan a la inversa horizontes probables y definen
medidas a adoptar en cada fase de una operación. Pero nada más.
BIBLIOGRAFÍA:
http://www.ecuadorciencia.org/articulos.asp?id=5193