En esta presentación trataremos temas éticos y dilemas morales acerca de la inteligencia artificial.
En los últimos años, el mundo ha experimentado eventos y cambios inesperados, que han transformado radicalmente los procesos de producción y de comunicación entre empresas y personas, abriendo nuevos paradigmas y dilemas éticos.
La tecnología, el internet y la revolución de la era de la información han venido a jugar un papel preponderante en las presentes y futuras generaciones.
Hablar de big data, inteligencia artificial (IA), machine learning o aprendizaje automático, cloud computing, realidad virtual y realidad aumentada, robótica avanzada, Internet de las Cosas (IofT), automóviles autónomos es algo cada vez más común. Forman parte de nuestra vida cotidiana, y su uso va a más.
2. La ética permite orientar la conducta
humana en la Informática, orienta y
guía las acciones del ser humano para
definir como comportarse ante
diversas experiencias en beneficio
propio y el de los demás.
Relación
de la ética
y la
informática
.
3. Puntos a tratar
• La ética frente a la inteligencia artificial
• Dilemas morales
• Estándares morales dirigidos a humanos, a
los creadores de tecnología.
4. En los últimos años, el mundo ha experimentado eventos y cambios
inesperados, que han transformado radicalmente los procesos de
producción y de comunicación entre empresas y personas, abriendo
nuevos paradigmas y dilemas éticos.
La tecnología, el internet y la revolución de la era de la información han
venido a jugar un papel preponderante en las presentes y futuras
generaciones.
La ética frente a la inteligencia artificial
5. 1. Hablar de big data, inteligencia artificial (IA), machine
learning o aprendizaje automático, cloud computing,
realidad virtual y realidad aumentada, robótica avanzada,
Internet de las Cosas (IofT), automóviles autónomos es
algo cada vez más común. Forman parte de nuestra vida
cotidiana, y su uso va a más.
6. 1. Todos ellos constituyen elementos esenciales del presente y nos
abren las puertas a un mundo de relación con el software, que incide
en el comportamiento humano y no está exento de cuestionamientos
éticos.
7. Hace un par de años, el Comité de Inteligencia Artificial del
Reino Unido, creado en la Cámara de los Lores (la cámara
alta del Parlamento británico) abordó estas preguntas y definió
cinco pilares éticos sobre los que debe construirse y
desarrollarse la capacidad de las máquinas en lo adelante:
8. 1. El desarrollo de la Inteligencia Artificial debe ser para el bien
común y el beneficio de la humanidad.
2. La Inteligencia Artificial debe basar su funcionamiento en
los principios de justicia e inteligibilidad.
3. La Inteligencia Artificial no debe utilizarse para reducir el derecho
a la información o el derecho a la privacidad de las personas,
las familias o la comunidad.
4. Todos los ciudadanos deberían tener derecho a ser educados para
florecer mentalmente, emocionalmente y económicamente,
paralelamente a la Inteligencia Artificial.
5. El poder autónomo para dañar, destruir o engañar a los seres
humanos no debería implementarse en la Inteligencia Artificial.
10. Hay que reconocer que nuestras vidas están ligadas a
la inteligencia artificial y cada vez lo estarán más, lo
cual nos hace codependientes.
Es cierto que el paradigma de un mundo altamente
tecnologizado nos aporta grandes ventajas como
usuarios, pero también presenta una serie de dilemas
éticos y morales que por su complejidad convienen
sean observados y ponderados seriamente.
11. Por ejemplo, si en nuestra ciudad se observa
que, estadísticamente, determinada población
de un cierto segmento y clase social, de sexo
masculino y con una edad promedio de 40 años,
es más proclive a cometer delitos, una máquina
asumiría que todo individuo que encaje en ese
perfil es, por ende, “necesariamente" un
delincuente.
12. En algunos países ya se han registrado casos de
“prejuicios" de máquinas en procesos de revisión
automatizada de perfiles profesionales:
La inteligencia artificial del sistema rechazaba
automáticamente todos los currículos de mujeres,
porque la posición ofertada había sido históricamente
ocupada por varones. Una discriminación por razón de
sexo que, seguramente, un reclutador humano no
habría consentido.
13. Empezamos a dar el poder a las
máquinas para que tomen decisiones
cotidianas que afectan la vida de las personas,
pero no están capacitadas para abordar
cuestiones morales, como en este último caso:
¿por qué rechazar a todas las candidatas
femeninas como el criterio concluyente para
ocupar un empleo?
14. El aspecto a considerar en un bot es que
los algoritmos con los cuales funciona
están concebidos básicamente para
resoluciones matemáticas; no consideran
así la ética, conducta y comportamiento
humanos en el marco de sus libertades,
deberes y derechos fundamentales.
15. Se ha tenido noticia de atropellos a peatones o ciclistas por
parte de autos autónomos que, aunque estaban supervisados
por un operador humano tras el guía, un sistema
completamente autónomo de inteligencia artificial llevaba el
control. El auto decidió chocar al peatón como alternativa a
salvar al supervisor a bordo del vehículo, cuya vida es, para
su algoritmo, prioritaria.
16. Se plantean en casos así cuestiones éticas y
legales. ¿Quién es el responsable del
accidente, el supervisor o el vehículo que
mantiene el control y toma la decisión de chocar
a un peatón como un “mal menor"? El vehículo,
al fin y al cabo, cumplió su cometido como
máquina “inteligente".
17. Esto deja claro que es primordial poder tener más
control sobre cómo los sistemas recogen y procesan
los datos y cómo los utilizan.
Porque no se trata de temer a la inteligencia artificial,
sino más bien controlar bien los procesos que llevan a
cabo las personas que desarrollan estos programas
informáticos para que esa inteligencia artificial logre
tomar decisiones más acordes a las de la inteligencia
humana.
18. Si actúan con integridad y pensando siempre en el bien
común del ser humano, los desarrolladores serán
responsables de crear una inteligencia artificial que apoye a la
persona y a la sociedad en su progreso y crecimiento.
Por igual, hay que crear los mecanismos para que el acceso
a los datos por parte de cualquier persona sea sencillo, justo
y responsable, para que los consumidores y ciudadanos en
general confíen en la tecnología y esta les garantice que
protege su privacidad e imagen personal en todo momento.
19. Una muestra de cómo esa imagen personal y la propia
credibilidad está en juego la constituyen los
llamados deepfakes, desarrollos informáticos que utilizan el
audio e incluso la voz de una persona y los manipulan de
forma fraudulenta, haciéndolos pasar por completamente
veraces.
Esto significa que hay que trabajar por mayor transparencia,
por el uso de datos abiertos, contar con comités éticos en
empresas de desarrollo informático, aprobar leyes y
reglamentos a nivel estatal que velen por la protección de los
datos personales y su integridad.
20. Otro aspecto fundamental es la formación en capacidades
tecnológicas de la población, a todos los niveles. Hay que invertir
en habilidades tecnológicas de forma importante, desde los
gobiernos a las empresas privadas, para garantizar una correcta
ciudadanía digital, reducir la brecha social y mitigar los efectos
negativos que pueden surgir con determinados desarrollos de la
inteligencia artificial.
21. 1. Por igual, este tipo de capacitación se convertirá en parte de
la formación continua de los trabajadores, por lo que las empresas
deberán considerarlo en sus planes internos de desarrollo de carrera
para no perder competitividad ni cuota de mercado.Por supuesto,
también implica fortalecer la ciberseguridad, especialmente en
infraestructuras de redes de portabilidad. A mayor codependencia
tecnológica, mayor riesgo asumimos de ciberataques, ocasionados
en muchas ocasiones por la propia inconsciencia o desinformación
del ciudadano.
2. Se hace necesaria una información continua para elevar el nivel de
conocimiento de la gente en este aspecto y hacer frente al
cibercrimen
22. 1. Recientemente, los medios destacaban el último lanzamiento de
Microsoft en este ámbito: DeepSinger, un desarrollo de inteligencia
artificial, basada en machine learning, que es capaz de cantar con
una voz "casi humana" (por el momento en inglés y en chino
mandarín), lo cual abre interrogantes sobre cómo evolucionará la
industria de la música a raíz de una innovación así.
2. El científico Stephen Hawking pensaba que el desarrollo de una
inteligencia artificial completa podría significar el fin de la raza
humana.
23. 1. Y para eso no falta mucho, al parecer. Hace poco el
empresario Elon Musk, que está muy enfocado en
el desarrollo de esta tecnología, advirtió que las
personas están subestimando el rápido desarrollo
del aprendizaje automático debido a los avances
tecnológicos y que en un lapso de cinco años la
IA adelantará a la inteligencia humana, pero que
eso no será el fin del mundo.
24. 1. Lo cierto es que estamos en un momento de
adaptación y aprendizaje para seguir avanzando: la
inteligencia humana tendrá que convivir,
desarrollarse y transformarse junto con la
inteligencia artificial, aprovechando todo lo bueno
que trae y mitigando los riesgos de un uso
malintencionado.
25. 1. Llegará el momento en que la inteligencia artificial
anticipe crisis sanitarias y económicas globales
como la que estamos viviendo y ayude a la
humanidad a evitarlas y evitar sus dramáticas
consecuencias en coste de vidas y de perjuicios
económicos.
26. 1. Se debe asegurar que la IA está centrada en el ser
humano.
2. Se debe prestar atención a los grupos
vulnerables, como los menores de edad o las
personas con discapacidades.
3. Debe respetar los derechos fundamentales y la
regulación aplicable.
4. Debe ser técnicamente robusta y fiable.
5. Debe funcionar con transparencia.
Estándares morales dirigidos a humanos, a los
creadores de tecnología. Los principios son
los siguientes: