4. IA incluye varios enfoques, como el aprendizaje automático o machine learning
(aprendizaje profundo o deep learning y aprendizaje por refuerzo), el
razonamientoautomático (la planificación, la programación, la representación del
conocimiento y el razonamiento, la búsqueda y la optimización) y la robótica (el
control, la percepción, los sensores y los actuadores, así como la integración de
todaslasdemástécnicasenlos sistemasciberfísicos).
IA se refiere a sistemas diseñados por seres humanos que,
dado un objetivo complejo, actúan en el mundo físico o
digital percibiendo su entorno, interpretando los datos,
razonando sobre el conocimiento derivado de estos datos y
decidiendo las mejores acciones a realizar (según parámetros
predefinidos) para lograr el objetivo dado.
(Comisión Europea)
5. Russell y Norvig (2016) clasifican las distintas definiciones en cuatro
categorías:
• Sistemas que actúan como humanos: visión inaugurada por Alan Turing y
su famoso test (1950). Se trata de sistemas y programas con capacidad de
procesar el lenguaje natural, representar conocimiento, razonar
automáticamente y aprender para adaptarse a nuevas circunstancias
(Kurzweil, 1990).
• Sistemas que piensan como humanos: sistemas capaces de automatizar
operaciones mentales, como la toma de decisiones, la resolución de
problemas o el aprendizaje (Bellman, 1978).
• Sistemas que piensan racionalmente: sistemas que tratan de emular el
pensamiento lógico racional y de alcanzar conclusiones de acuerdo a una
serie de leyes universales del pensamiento definidas por la lógica
(Winston, 1992).
• Sistemas que actúan racionalmente: sistemas que tratan de ampliar la
racionalidad más allá de las leyes de la lógica e incluir así otros elementos,
como la incertidumbre, la autonomía, el cambio, etc. (Poole, Mackworth y
Goebel, 1998).
6. ▪Objetivos
delaIA
1. Diseñar Modelos conceptuales: que proporcionen una
mejor comprensión de los procesos cognitivos que tienen
lugar en los seres humanos. Esta tarea se apoya en otras
ramas, como la epistemología, la neurología u otras
disciplinas relacionadas con la cognición. A esta rama de la
IA se la suele denominar “neurociencia computacional”.
2. Reescribir formalmente dichos modelos: una vez
observadas, analizadas y descritas las distintas funciones
cognitivas de los diversos seres inteligentes, es decir, pasar
de la descripción y observación del lenguaje natural a su
formulación en un lenguaje formal; de un modelo
conceptual del conocimiento humano a otro formal y
computable.
3. Estrategias de programación y máquinas físicas para
reproducir de la forma más eficiente y completa posible
las tareas cognitivas y científico-técnicas más genuinas de
los sistemas biológicos que hemos etiquetado como
inteligentes.
Con base en estos objetivos, la IA
suele dividirse en dos campos: la IA
como ciencia y la IA como ingeniería
del conocimiento (Marín y Palma,
2008).
7. ▪Bondades
delaIA
Anticipar errores en la cadena de montaje,
identificar productos defectuosos, ganar en
eficiencia médica, optimizar la producción de
hidrocarburos, combatir el cambio climático….
Pero el ser humano debe saber a dónde quiere
llegar. Y el infinito no es la respuesta.
La IA debería impedir los errores
humanos, aumentar la resiliencia frente a
los desastres naturales, garantizar la
seguridad alimentaria, desplegar
tecnologías verdes, diseñar mejores
edificios, incrementar el acierto en los
diagnósticos médicos…
9. Aplicaciones
de laIA
• Vehículos automatizados: robots, vehículos u otro tipo de
dispositivos móviles con capacidad para desplazarse de
forma autónoma sin la dirección de una persona.
• Reconocimiento de voz: dispositivos con capacidad de
identificar el lenguaje humano, procesarlo e interactuar con
él.
• Planificación autónoma: dispositivos con capacidad de
organizar y planificar tareas y operaciones de acuerdo a
unos objetivos previamente establecidos.
• Visión artificial: tecnología capaz de procesar, analizar y
comprender las imágenes del mundo real y formalizarlas para
que puedan ser tratadas por un ordenador.
• Machine learning: capacidad de aprender que poseen
determinados computadores y sistemas de aprendizaje, es
decir, la habilidad de mejorar su desempeño en una
determinada tarea a base de experiencia.
10. Riesgos
potencialesde
laIA
1. Destrucción de puestos de trabajo: se estima que entre el
21% y el 38% del empleo en los países desarrollados podría
desaparecer a causa de la digitalización y la automatización
de la economía (Berriman, Hawsworth y Goel, 2017)
2. Manipulación, seguridad y vulnerabilidad: pudieran
perseguirse distintos fines, como manipular unas elecciones
(Polonski, 2017) o modificar el precio de distintos
productos y servicios (OCDE, 2017).
3. Transformación de las relaciones humanas: al delegar en la en la IA muchas
de nuestras interacciones y procesos sociales -toma de decisiones,
comunicación, planificación- podría derivar en una pérdida significativa de
habilidades personales (Groth, Nitzberg y Esposito, 2018).
4. Erosión de la sociedad civil: existe el riesgo de que la introducción de
sistemas inteligentes en los medios de información y comunicación pueda
distorsionar la opinión pública y cercenar la pluralidad de puntos de vista.
12. ▪ ÉticadelaIA
¿Qué es la ética?
La ética es "la disciplina que trata de lo
que es bueno y malo, como un deber y
obligación moral", así como de "los
principios de la conducta que rigen la vida
de un sujeto o un grupo“
¿Qué es la ética de la I.A?
La “ética en la IA” se refiere a las bases
organizacionales que delinean la
conducta corporativa (valores, políticas,
códigos corporativos de ética y principios
rectores aplicados a las tecnologías de IA)
14. ¿Qué noesÉtica
dela IA?
• Llevar a cabo una labor que genere soluciones de IA buenas
y responsables.
• Maximizar los beneficios y eliminar o minimizar los
perjuicios.
• Distribuir de forma equitativa los beneficios y las
obligaciones.
• Comprender el impacto y las implicaciones de los sistemas
de IA.
• Cuestionar el status quo y verificar el ejercicio del poder.
• Aportar e incluir diferentes perspectivas.
• Navegar entre los dilemas y las compensaciones.
• Solo compliance (cumplimiento).
• Un conjunto de reglas fijas que seguir.
• Un marco únicamente negativo, más que una serie de riesgos.
• Un acontecimiento único (“configúralo y olvídate”).
• Una simple corrección técnica de errores.
¿Qué es Éticade
la IA?
15. Los DESAFÍOS tienen que ver con los problemas y
riesgos que se derivan de la aplicación de la IA a los
diferentes ámbitos.
Entre ellos se pueden citar los siguientes:
• La toma de decisiones basadas en la
tecnología.
• Los posibles sesgos de los algoritmos en los
que se basa.
• La necesidad de que esos algoritmos sean
transparentes y comprensibles.
• La responsabilidad asociada a su uso y a la
toma de decisiones.
Desafíos
éticos
delaIA
• La forma de aprender y de actuar de la
inteligencia artificial.
• Los aspectos de privacidad, el manejo y la
gestión de datos.
• Las cuestiones legales derivadas de las
consideraciones éticas.
16. Implicaciones
éticasdelaIA
Son abismales.
• ¿Quién es el
responsable del error
en un algoritmo?
• ¿Dónde se levantan
los muros de la
privacidad?
• ¿Tengo libertad para
restringir el uso de
mis datos?
¡Tal vez hay demasiados mesías de lo tecnológico
y pocos académicos de la ética!
17. Sabemos que las amenazas científicas son como las peleas
familiares:carecendereglas.
La amenaza de la discriminación algorítmica, la falta de
inteligibilidadytransparenciadelossistemas,ladefinicióndelos
umbralesderiesgo…
¿Quiénalfabetizaéticamenteaquienesprogramanloscódigosy
algoritmos?
Necesitamos una IA cuya base
sea la ÉTICA, respaldada por
una regulación sólida y
gobiernos que trabajen para
poner esta revolución
tecnológica al servicio del BIEN
COMÚN.
“Puedo buscar los secretos de
las estrellas, pero no debo
olvidar que tengo ante mis ojos
el hambre y la esclavitud”
(Anaxímenes)
18. Principios éticos
para el diseño y
desarrollo de la IA
✓ Respeto de la autonomía humana
✓ Transparencia
✓ Responsabilidad y rendición de cuentas
✓ Robustez y seguridad
✓ Justicia y no discriminación
19. Ética en los datos La inteligencia artificial (IA) ya no es cosa
de ciencia ficción, está en todas partes.
Tu banco la usa para saber si te va a dar
un crédito o no y los anuncios que Ud. ve
en las redes sociales salen de una
clasificación llevada a cabo por un
algoritmo, que te ha microsegmentado y
‘decidido’ si te muestra ofertas de cremas
antiarrugas o de vehículos de alta gama.
Los sistemas de reconocimiento facial,
que utilizan aeropuertos y fuerzas de
seguridad, también se basan en esta
tecnología
LOS DATOS SON MUY
VALIOSOS …
SI PODEMOS DARLES
SENTIDO
20. Losdatosrevelan:
•Nuestrossentimientos
•Nuestrasactitudes
•Nuestrasconexionessociales
•Nuestrasintenciones
•Loquehicimos
•Loquehacemos
•Loqueharemos
En un minuto en el mundo:
Tecnología e internet
•Los norteamericanos usan 3.138.420 GB de datos en
internet
•Se venden 2.833 teléfonos celulares
•Se envían 159.362.760 e-mails
•Se envían 12.986.111 mensajes de texto
•Se producen 3.877.140 búsquedas en Google
Media, entretenimiento y redes
•Se reproducen 97.222 horas de video en Netflix
•Los usuarios de Youtube miran 4.333.560 videos
•Se suben 400 horas de video a Youtube
•Se escriben 473.400 tweets en Twitter
•Se publican 49.380 fotos en Instagram
•Spotify reproduce más de 750.000 canciones
Retail
•Amazon envía 1.111 paquetes y vende $332.876
•Se generan 73.249 transacciones por internet
•Los compradores dejan $7.610.350 dólares abandonados
en sus carritos de compras
21. ▪ Marcos y
regulaciones
de la IA
Fuente: Comité de IA del Reino Unido.
Cinco principios para el uso ético de la IA.
2018.
22. GENERAL
DATA
PROTECTION
REGULATION
(GDPR)
LEGALIDAD, EQUIDAD Y TRANSPARENCIA
LIMITACIÓN DE PROPÓSITO
MINIMIZACIÓN DE DATOS
PRECISIÓN
LIMITACIÓN DE ALMACENAMIENTO
INTEGRIDAD Y CONFIDENCIALIDAD
RESPONSABILIDAD
Fuente: Consejo Europeo. Reglamento general
de protección de datos de la UE (GDPR). 2018.
23. REQUISITOS
PARA
UNA
IA
FIABLE
REQUISITOS SIGNIFICADO
Acción y supervisión
humanas
Incluye los derechos fundamentales, la acción humana y
la supervisión humana.
Solidez técnica y
seguridad
Incluye la capacidad de resiliencia a los ataques y la
seguridad, un plan de emergencia y seguridad general, la
precisión, la fiabilidad y la reproducibilidad.
Gestión de la
privacidad y de los
datos
Incluye el respeto de la privacidad y la calidad y la
integridad de los datos, así como el acceso a estos.
Transparencia Incluye la trazabilidad y la comunicación, así como que
se pueda explicar.
Diversidad, no
discriminación y
equidad
Incluye la ausencia de sesgos injustos, la accesibilidad y
el diseño universal, así como la participación de las
partes interesadas.
Bienestar social y
ambiental
Incluye la sostenibilidad y el respeto del medio
ambiente, el impacto social y los aspectos relacionados
con la sociedad y la democracia.
Rendición de
cuentas
Incluye la posibilidad de que sea auditable, la
minimización de efectos negativos y la notificación de
estos, la búsqueda de equilibrios y las compensaciones.
Fuente: Comisión Europea (Ethics guidelines
for trustworthy AI18). 2019.
27. ▪ Mejores prácticas 1.Mejorar el análisis interno y el conocimiento de lo que significa el
desarrollo y el uso de la IA en las empresas, teniendo en cuenta sus
impactos e integrando la ética como elemento clave.
2. Promover el uso ético de la IA dentro de las empresas, fomentando
una cultura digital que lo facilite. Conseguir que las empresas
prioricen la ética y generen valor compartido para la sociedad
mediante su uso. Pasar del interés inicial a la definición de códigos
éticos y guías y a la ejecución y gestión aplicadas al día a día.
3. Preparar a los directivos en conocimientos y herramientas para
mejorar la gestión ética de la IA. Conseguir que todos los directivos
que tomen decisiones sobre IA estén informados de su alcance y de su
impacto en los aspectos éticos. Establecer moratorias en el uso de la
tecnología hasta asegurar que su funcionamiento no genera ni
discriminación ni sesgos.
4. Trasladar la importancia del componente ético de la IA a toda la organización. Los valores de las empresas los marcan
las personas. Directivos éticos consiguen que las empresas se apoyen en valores sólidos y responsables.
5. Establecer principios rectores y procedimientos permitan tomar decisiones documentadas sobre el desarrollo y uso
ético de la IA. Incluir la ética de la tecnología en la gobernanza de las compañías. Priorizar principios como eficiencia,
trazabilidad, igualdad y no discriminación, impacto positivo, etc.
28. 6. Realizar un seguimiento desde el diseño de todo el ciclo de vida de
las aplicaciones de IA considerando el punto de vista ético (ethics by
design). Supervisar tanto el desarrollo como el uso de las aplicaciones
de la tecnología.
7. Crear un Comité de Ética de la IA multidisciplinar, que incluya
personas del Equipo Gerencial con conocimientos de la tecnología y
que garanticen el cumplimiento de las principales decisiones, así como
profesionales de las áreas de la empresa implicadas y profesionales
externos.
8. Alinear el desarrollo y el uso de la IA con la idea y estrategia de
negocio y asociarlos a las necesidades del cliente. Poner a las
personas en el centro del desarrollo y uso, y valorar el impacto de la
tecnología en ellas. Buscar un impacto social positivo de la IA que
ayude a mejorar la vida de las personas, evitando la puesta en marcha
de proyectos que no sean éticos aunque garanticen la rentabilidad.
9. Invertir en el seguimiento de la evolución tecnológica y legislativa de la IA para aplicarla a la gestión ética interna.
Conocer las buenas prácticas de otras empresas y organizaciones en materia de gestión ética de la IA y aprovechar sus
resultados.
10. Establecer canales internos para la detección y solución de irregularidades relacionadas con la gestión ética de IA.
29. Fuente: IBM Institute for Business Value. 2022
56% Compañías de hardware y software
51% Plataformas de streaming y entretenimiento
47% Telecomunicaciones
46% Fabricantes de automóviles
44% Proveedores de sanidad
43% Plataformas de redes sociales
41% Proveedores de servicios financieros
▪ Calificando a los diferentes sectores en materia
de “uso responsable” de tecnologías IA
41% Instituciones educativas
39% Proveedores de transporte y turismo
38% Medios tradicionales y de comunicación
38% Compañías de servicios
35% Aseguradoras
34% Comerciantes
34% Organizaciones gubernamentales
* Las compañías tecnológicas y las redes sociales reciben una notable calificación
** Los gobiernos están a la cola
30. ▪ Cerrando brechas
Lo que se
quiere
hacer
Lo que se
puede
hacer
Lo que se
realiza Lo que se
dice
que se
hace
Lo que se
espera
Revisar estilos
gerenciales
Brechas de
transparencia
Revisar
comunicación
Brechas de
reputación
Revisar
estrategias
Brechas de
estrategias
Brechas de
capacitación
Revisar
desarrollo de
competencias
Brechas de
operación
Lo que se
planifica
Brechas de
aspiración
Revisar
previsiones
Revisar
valores
Lo que se
percibe
31. ▪ Conclusiones
Abordar el
imperativo ético en
la IA: la
responsabilidad es
de TODOS
Las grandes
organizaciones, empresas
y gobiernos están
centrándose en los
problemas que pueden
surgir en el tema de la
ética de la IA
Es estratégico trazar
consideraciones,
prácticas y marcos
comunes de cara al
futuro.
Es preciso alcanzar un
acuerdo para
conceptualizar y regular las
prácticas derivadas. La
tecnología no es el fin; es
un paso más de nuestra
evolución
32. FATEN: F (Fairness, justicia
algorítmica), A (Autonomía,
Atribución de
Responsabilidad y Aumento
de inteligencia),
T (Trust y Transparency),
E (Educación, Efecto
beneficioso y Equidad) y
N (No maleficencia).
El valor del uso ético de la IA debe
estar por encima del rendimiento
económico que genere. La
empresa tiene la responsabilidad
de contribuir a la sociedad y de
reducir las desigualdades, como
señalan los Objetivos de
Desarrollo Sostenible (ODS) de
Naciones Unidas.
Los sectores que tienen que
ver con la vida de las
personas son las que
plantean una gestión ética
más crítica (finanzas, salud,
defensa, medios de
comunicación, seguros,
salud/medicina o automóvil)
No soy responsable de
todo lo que pasa, pero sí
soy responsable ante todo
lo que pasa.
33. Rafael Yuste: El juramento
hipocrático incluiría
compromisos como “la no
maleficencia (la tecnología debe
aplicarse siempre sin voluntad
de causar daño), la búsqueda
del bien común, el
consentimiento de los
afectados, la imparcialidad de
los algoritmos (que no deben
incluir ningún sesgo
discriminatorio), la
transparencia y el pleno respeto
por la dignidad de las personas”.
Marvin Minsky: hemos
enseñado a los ordenadores a
tomar decisiones autónomas
“que requieren inteligencia”, y
ese es un logro “tan
espectacular y esperanzador
como inquietante”. Ya no se
trata de robots que ejecutan
con precisión tareas
predeterminadas, sino de
sistemas artificiales que
“deciden” por sí mismos,
simulando nuestros procesos
cognitivos y de aprendizaje.
Maite López Sánchez: “Cada vez
somos más conscientes de que
el diseño de algoritmos y
sistemas de IA debe ser más
respetuoso con los valores
éticos de las personas, y eso
implica ir un paso más allá de si
es legal o no para contemplar
también hasta qué punto es
compatible con nuestro sistema
ético de valores”
David Leslie: “cuando los seres
humanos realizan tareas que
requieren inteligencia, se les
hace responsables del grado de
precisión, fiabilidad y sensatez
de sus decisiones”. ¿Puede la IA
ser responsable ética y
jurídicamente de sus actos?
Iñaki Ortega: “Los directivos de
las grandes empresas deberían
ser conscientes de que algunas
de las decisiones que adoptan
en el ejercicio de su actividad
pueden lesionar derechos y
llegar a ser inmorales. Propongo
un nuevo juramento hipocrático
para estos tecnólogos, algo que
muchas instituciones ya están
planteando”.
Daniel Bastida: “Antes de
desarrollar cualquier sistema de
inteligencia artificial, hay que
plantearse si resulta necesario,
proporcionado e idóneo”. Esos
son los tres criterios básicos que
aplica su compañía para
garantizar que “todos nuestros
procesos de innovación
tecnológica partan en primer
lugar de una reflexión ética”.
Iñaki Ortega: “Los profesionales
de todo el mundo deben
reconocer su responsabilidad
compartida en el impacto de las
tecnologías de la información”.
Desde su punto de vista, “la
buena tecnología ha sido uno de
los grandes descubrimientos de
la era de la pandemia. Se
requiere un humanismo
tecnológico”.
34. ▪Fuentes
• Popular (2021). La ética frente a la IA.
https://www.popularenlinea.com/Personas/blog/Pages/La-etica-frente-a-la-inteligencia-artificial.aspx
• Sinc (2021). Por qué debería preocuparte la ética de la IA.
https://www.agenciasinc.es/Reportajes/Por-que-deberia-preocuparte-la-etica-de-la-inteligencia-
artificial
• Deloitte (2021). Ética en la IA.
https://www2.deloitte.com/content/dam/Deloitte/co/Documents/risk/col-ai-ethics-a-new-
imperative-forbusinesses-boards-and-c-suites-espREV.pdf
• El País.com (2021). La importancia de la ética en la IA.
https://elpais.com/retina/2019/02/25/tendencias/1551089772_654032.html