1. Los robots autoconscientes que aparecen en los
cuentos de Asimov y en otras obras, como
2001: Odisea en el Espacio y Battlestar
Galactica permanecen en un futuro lejano. Los
robots de hoy en día siguen careciendo de todo
tipo de autonomía real que les permita tomar
sus propias decisiones o adaptarse
inteligentemente a nuevos ambientes.
Pero los expertos advierten que puede aparecer
el peligro si los humanos empujan a los robots
más allá de sus límites actuales en la toma de
decisiones. Esto puede llevar a cometer errores
e incluso producir tragedias que impliquen
robots en fábricas o en operaciones militares, si
los humanos olvidan que la responsabilidad
2. ética y legad aún descansa totalmente sobre los
hombros del Homo sapiens.
“La fascinación con los robots ha llevado a
alguna gente a tratar de saltearse la
responsabilidad de tomar decisiones complejas,
con consecuencias potencialmente malas”, dijo
David Woods, ingeniero de sistemas en la
Universidad Estatal de Ohio.
Woods y otro investigador que lo acompaña
propusieron revisar las Tres Leyes y enfatizar la
responsabilidad humana sobre los robots.
También sugirieron que los que se manejen con
robots en nuestro planeta deberían recibir
consejos de la NASA cuando se trata de las
interacciones robot-humano.
Actualizando a Asimov
Las Tres Leyes de Asimov fueron imaginadas
para un futuro en el que los robots pueden
pensar y actuar por sí mismos. La primera ley
evita que los robots dañen a los humanos o que
los humanos puedan ser dañados por una
inacción del robot, la segunda ley obliga a los
robots a obedecer las órdenes de los humanos,
excepto que esto entrara en conflicto con la
primera ley. La tercera ley obliga a que los
robots protejan su propia existencia, excepto
cuando el hacerlo entrara en conflicto con las
dos leyes anteriores
Corea del Sur ha usado estas “leyes” como una
guía para su Robot Ethics Charter (Carta de
3. Ética Robótica), pero Woods y sus colegas creen
que esta solución carece de algunos puntos
vitales.
Woods trabajó junto con Robin Murphy, experta
en robots de rescate de la Universidad de Texas
A&M, para crear tres leyes que pongan a los
humanos en la posición de adultos inteligentes
y responsables de las relaciones robot-humano.
Su primera ley dice que los humanos no deben
implementar robots sin un sistema de trabajo
que cumpla con los máximos estándares
profesionales y legales de seguridad y ética. La
segunda ley revisada obliga a que los robots
respondan a los humanos de un forma que
adecue a sus roles, y se asume que los robots
son diseñados para responder a ciertas órdenes
de un número limitado de humanos.
La tercera ley revisada dice que los robots
deben tener suficiente autonomía como para
proteger su propia existencia, siempre que esta
protección no entre en conflicto con las dos
leyes anteriores y permita una transferencia
fluida de control entre humanos y robot. Esto
significa que los robots de Marte deberían saber
automáticamente que no deben ir hacia un
acantilado, salvo que los operadores humanos
le digan específicamente que lo hagan.
Woods y Murphy consideran necesaria esta
revisión dado que los fabricantes de robots no
reconocen la responsabilidad humana sobre los
robots. Murphy dijo que esta actitud viene de la
4. cultura de los programas de computadora, en lo
que la responsabilidad implica menos
consecuencias que al crear una máquina que
puede terminar hiriendo a los humanos o
dañando una propiedad.
“Lo que sucede es que vemos robotistas que
nunca han realizado una manufactura o
trabajado en el mundo físico, y no se dan
cuenta de que son responsables”, dijo Murphy a
SPACE.com. “Al final del día, si haces algo es
problema tuyo”.
Ella contrastó esta actitud con la “cultura de la
seguridad” de la NASA y la aproximación
metódica que prueba con cuidado los robots y
las sondas robóticas, reconoce los límites de los
robots y procura asegurar que los operadores
humanos puedan saltar rápidamente al asiento
del conductor cuando sea necesario.
A la manera de la NASA
Tanto Woods como Murphy dijeron que se
sienten confortables con la manera en que la
NASA encara las interacciones robot-humano,
ya sea las que implican brazos robóticos en la
Estación Espacial Internacional o a la sonda
Cassini en su viaje por el sistema de Saturno.
“Comprenden cuán valiosos son los recursos
robóticos”, explicó Woods. “Saben que tendrán
sorpresas en la exploración espacial”.
Murphy señala que el enfoque de la NASA con
los robots viene de la tradición de la Inteligencia
5. Artificial, donde la gente no hace asunciones
sobre tener un control perfecto sobre todo. El
lugar de eso, la agencia espacial ha usado
sistemas de IA que pueden desenvolverse bien
dentro de los patrones normales de operación, y
siguen dependiendo de la asistencia humana
para situaciones más inciertas.
Este enfoque le ha funcionado bien a la NASA
en muchas ocasiones. Por ejemplo, los
científicos han hecho hábiles reparaciones en
los róvers de Marte Spirit y Opportunity,
cuando los robots encontraron problemas no
previstos en el terreno y con el clima marciano.
En contraste, algunos investigadores que no
tienen una formación en IA asumen que pueden
programar robots que tengan un modelo o
visión completa del mundo, y que podrán
comportarse adecuadamente en cualquier
situación que se les presente. Esto coincide con
la tentación de asumir que dar a los robots más
autonomía significa que ellos pueden manejar
la mayor parte de las situaciones, o todas, por
sí mismos.
Murphy advirtió que este enfoque de “mundo
cerrado” funciona únicamente en ciertas
situaciones que presentan opciones limitadas
para una IA. No importa cuánta programación
se incluya en los robots, el mundo real abierto
representa un agujero lleno de trampas en
escenarios inesperados.
Transferencia de control
6. Indudablemente, la NASA aún desea tener
robots que puedan tomar más
responsabilidades, en especial en las misiones
en las que las sondas viajan más allá de la
Luna o Marte. Los investigadores han empezado
a desarrollar la próxima generación de robots,
que algún día podrían tomar más decisiones
básicas al explorar las grandes lunas, como
Europa o Titán.
Pero por ahora, la NASA reconoce que los
robots siguen necesitando supervisión humana,
un concepto que algunos fabricantes y
operadores en la Tierra tienen problemas para
aceptar. Las situaciones inesperadas, como un
mal funcionamiento del robot o sorpresas del
entorno pueden obligar a que los humanos
recobren rápidamente el control del robot, si
éstos fallan en acertar la respuesta correcta.
“Ahora mismo, lo que vemos una y otra vez es
que la transfencia de control es problemática”,
señala Murphy. Ella observó cuán rápido se les
presentan problemas a los operadores humanos
al manejar robots en “Disaster City” de Texas
A&M”, un área de simulación de entrenamiento
para rescatistas. Parte del problema también
aparece cuando la gente no conoce las
capacidades de su robot.
La NASA se da el lujo de tener un equipo de
científicos vigilando sus exploradores robóticos,
en lugar de simples operadores humanos. Pero
los controladores de misión también tienen una
7. gran conciencia de los límites de sus
exploradores robóticos, y saben cómo tomar el
control sin problemas.
“Ellos comprenden que cuando tienen un
entorno seguro o de bajo riesgo, pueden delegar
más autonomía en el robot”, dijo Woods.
“Cuando ocurren cosas inusuales, restringen la
autonomía”.
Woods comparó la situación con la de aquellos
padres que colocan un perímetro de seguridad
dentro del cual los niños pueden moverse y
explorar. Esta analogía puede seguir siendo
aplicable a la NASA y a otras personas que
controlan robots.
La gente está dando un salto de fe para creer
que la autonomía de los robots aumentará y
resolverá nuestros problemas, añade Woods.
“Pero no hay mucha evidencia de que la
autonomía en sí hará que desaparezcan estas
decisiones difíciles y de alto riesgo”.