SlideShare una empresa de Scribd logo
1 de 35
Descargar para leer sin conexión
IA
Implicaciones éticas
M I G U E L D E L VA L L E H . U C A B
C a r a c a s , 0 7 . 0 5 . 2 0 2 3
Agenda
▪ La IA: bondades y usos
▪ Ética de la IA: desafíos e implicaciones
▪ Marcos y regulaciones de la IA
▪ Mejores prácticas
▪ Conclusiones
Estábasadaenlaspersonas.
Nolasreemplazará,sinoquelas
ayudaráasermáseficientes.
IA: Desarrolla sistemas informáticos
capaces de efectuar tareas que
normalmente requieren inteligencia
humana (percepción visual,
reconocimiento del habla, traducción
entre idiomas y toma de decisiones).
IA incluye varios enfoques, como el aprendizaje automático o machine learning
(aprendizaje profundo o deep learning y aprendizaje por refuerzo), el
razonamientoautomático (la planificación, la programación, la representación del
conocimiento y el razonamiento, la búsqueda y la optimización) y la robótica (el
control, la percepción, los sensores y los actuadores, así como la integración de
todaslasdemástécnicasenlos sistemasciberfísicos).
IA se refiere a sistemas diseñados por seres humanos que,
dado un objetivo complejo, actúan en el mundo físico o
digital percibiendo su entorno, interpretando los datos,
razonando sobre el conocimiento derivado de estos datos y
decidiendo las mejores acciones a realizar (según parámetros
predefinidos) para lograr el objetivo dado.
(Comisión Europea)
Russell y Norvig (2016) clasifican las distintas definiciones en cuatro
categorías:
• Sistemas que actúan como humanos: visión inaugurada por Alan Turing y
su famoso test (1950). Se trata de sistemas y programas con capacidad de
procesar el lenguaje natural, representar conocimiento, razonar
automáticamente y aprender para adaptarse a nuevas circunstancias
(Kurzweil, 1990).
• Sistemas que piensan como humanos: sistemas capaces de automatizar
operaciones mentales, como la toma de decisiones, la resolución de
problemas o el aprendizaje (Bellman, 1978).
• Sistemas que piensan racionalmente: sistemas que tratan de emular el
pensamiento lógico racional y de alcanzar conclusiones de acuerdo a una
serie de leyes universales del pensamiento definidas por la lógica
(Winston, 1992).
• Sistemas que actúan racionalmente: sistemas que tratan de ampliar la
racionalidad más allá de las leyes de la lógica e incluir así otros elementos,
como la incertidumbre, la autonomía, el cambio, etc. (Poole, Mackworth y
Goebel, 1998).
▪Objetivos
delaIA
1. Diseñar Modelos conceptuales: que proporcionen una
mejor comprensión de los procesos cognitivos que tienen
lugar en los seres humanos. Esta tarea se apoya en otras
ramas, como la epistemología, la neurología u otras
disciplinas relacionadas con la cognición. A esta rama de la
IA se la suele denominar “neurociencia computacional”.
2. Reescribir formalmente dichos modelos: una vez
observadas, analizadas y descritas las distintas funciones
cognitivas de los diversos seres inteligentes, es decir, pasar
de la descripción y observación del lenguaje natural a su
formulación en un lenguaje formal; de un modelo
conceptual del conocimiento humano a otro formal y
computable.
3. Estrategias de programación y máquinas físicas para
reproducir de la forma más eficiente y completa posible
las tareas cognitivas y científico-técnicas más genuinas de
los sistemas biológicos que hemos etiquetado como
inteligentes.
Con base en estos objetivos, la IA
suele dividirse en dos campos: la IA
como ciencia y la IA como ingeniería
del conocimiento (Marín y Palma,
2008).
▪Bondades
delaIA
Anticipar errores en la cadena de montaje,
identificar productos defectuosos, ganar en
eficiencia médica, optimizar la producción de
hidrocarburos, combatir el cambio climático….
Pero el ser humano debe saber a dónde quiere
llegar. Y el infinito no es la respuesta.
La IA debería impedir los errores
humanos, aumentar la resiliencia frente a
los desastres naturales, garantizar la
seguridad alimentaria, desplegar
tecnologías verdes, diseñar mejores
edificios, incrementar el acierto en los
diagnósticos médicos…
UsosdelaIA
enlas
organizaciones
Fuente: IBM y Morning Consult.
Encuesta realizada a 7.500 responsables de la toma
de decisiones en empresas tecnológicas de todo el
mundo. 2021.
Aplicaciones
de laIA
• Vehículos automatizados: robots, vehículos u otro tipo de
dispositivos móviles con capacidad para desplazarse de
forma autónoma sin la dirección de una persona.
• Reconocimiento de voz: dispositivos con capacidad de
identificar el lenguaje humano, procesarlo e interactuar con
él.
• Planificación autónoma: dispositivos con capacidad de
organizar y planificar tareas y operaciones de acuerdo a
unos objetivos previamente establecidos.
• Visión artificial: tecnología capaz de procesar, analizar y
comprender las imágenes del mundo real y formalizarlas para
que puedan ser tratadas por un ordenador.
• Machine learning: capacidad de aprender que poseen
determinados computadores y sistemas de aprendizaje, es
decir, la habilidad de mejorar su desempeño en una
determinada tarea a base de experiencia.
Riesgos
potencialesde
laIA
1. Destrucción de puestos de trabajo: se estima que entre el
21% y el 38% del empleo en los países desarrollados podría
desaparecer a causa de la digitalización y la automatización
de la economía (Berriman, Hawsworth y Goel, 2017)
2. Manipulación, seguridad y vulnerabilidad: pudieran
perseguirse distintos fines, como manipular unas elecciones
(Polonski, 2017) o modificar el precio de distintos
productos y servicios (OCDE, 2017).
3. Transformación de las relaciones humanas: al delegar en la en la IA muchas
de nuestras interacciones y procesos sociales -toma de decisiones,
comunicación, planificación- podría derivar en una pérdida significativa de
habilidades personales (Groth, Nitzberg y Esposito, 2018).
4. Erosión de la sociedad civil: existe el riesgo de que la introducción de
sistemas inteligentes en los medios de información y comunicación pueda
distorsionar la opinión pública y cercenar la pluralidad de puntos de vista.
Desplieguede
laIA
Fuente: IBM y Morning Consult.
Despliegue de la IA en empresas
a nivel mundial. 2021.
▪ ÉticadelaIA
¿Qué es la ética?
La ética es "la disciplina que trata de lo
que es bueno y malo, como un deber y
obligación moral", así como de "los
principios de la conducta que rigen la vida
de un sujeto o un grupo“
¿Qué es la ética de la I.A?
La “ética en la IA” se refiere a las bases
organizacionales que delinean la
conducta corporativa (valores, políticas,
códigos corporativos de ética y principios
rectores aplicados a las tecnologías de IA)
Objetivo:¡unsistemaéticoparamiempresa!
CÓDIGO
CUSTODIOS / MENTORES
COMITÉ AUDITORIAS
INFORMACIÓNCOMUNICACIÓN FORMACIÓN
Evaluaciones / Incentivos / Reconocimiento
VALORES
Testimonios / Modelaje / Contagio
SIMBOLOS / HÉROES / RITUALES
¿Qué noesÉtica
dela IA?
• Llevar a cabo una labor que genere soluciones de IA buenas
y responsables.
• Maximizar los beneficios y eliminar o minimizar los
perjuicios.
• Distribuir de forma equitativa los beneficios y las
obligaciones.
• Comprender el impacto y las implicaciones de los sistemas
de IA.
• Cuestionar el status quo y verificar el ejercicio del poder.
• Aportar e incluir diferentes perspectivas.
• Navegar entre los dilemas y las compensaciones.
• Solo compliance (cumplimiento).
• Un conjunto de reglas fijas que seguir.
• Un marco únicamente negativo, más que una serie de riesgos.
• Un acontecimiento único (“configúralo y olvídate”).
• Una simple corrección técnica de errores.
¿Qué es Éticade
la IA?
Los DESAFÍOS tienen que ver con los problemas y
riesgos que se derivan de la aplicación de la IA a los
diferentes ámbitos.
Entre ellos se pueden citar los siguientes:
• La toma de decisiones basadas en la
tecnología.
• Los posibles sesgos de los algoritmos en los
que se basa.
• La necesidad de que esos algoritmos sean
transparentes y comprensibles.
• La responsabilidad asociada a su uso y a la
toma de decisiones.
Desafíos
éticos
delaIA
• La forma de aprender y de actuar de la
inteligencia artificial.
• Los aspectos de privacidad, el manejo y la
gestión de datos.
• Las cuestiones legales derivadas de las
consideraciones éticas.
Implicaciones
éticasdelaIA
Son abismales.
• ¿Quién es el
responsable del error
en un algoritmo?
• ¿Dónde se levantan
los muros de la
privacidad?
• ¿Tengo libertad para
restringir el uso de
mis datos?
¡Tal vez hay demasiados mesías de lo tecnológico
y pocos académicos de la ética!
Sabemos que las amenazas científicas son como las peleas
familiares:carecendereglas.
La amenaza de la discriminación algorítmica, la falta de
inteligibilidadytransparenciadelossistemas,ladefinicióndelos
umbralesderiesgo…
¿Quiénalfabetizaéticamenteaquienesprogramanloscódigosy
algoritmos?
Necesitamos una IA cuya base
sea la ÉTICA, respaldada por
una regulación sólida y
gobiernos que trabajen para
poner esta revolución
tecnológica al servicio del BIEN
COMÚN.
“Puedo buscar los secretos de
las estrellas, pero no debo
olvidar que tengo ante mis ojos
el hambre y la esclavitud”
(Anaxímenes)
Principios éticos
para el diseño y
desarrollo de la IA
✓ Respeto de la autonomía humana
✓ Transparencia
✓ Responsabilidad y rendición de cuentas
✓ Robustez y seguridad
✓ Justicia y no discriminación
Ética en los datos La inteligencia artificial (IA) ya no es cosa
de ciencia ficción, está en todas partes.
Tu banco la usa para saber si te va a dar
un crédito o no y los anuncios que Ud. ve
en las redes sociales salen de una
clasificación llevada a cabo por un
algoritmo, que te ha microsegmentado y
‘decidido’ si te muestra ofertas de cremas
antiarrugas o de vehículos de alta gama.
Los sistemas de reconocimiento facial,
que utilizan aeropuertos y fuerzas de
seguridad, también se basan en esta
tecnología
LOS DATOS SON MUY
VALIOSOS …
SI PODEMOS DARLES
SENTIDO
Losdatosrevelan:
•Nuestrossentimientos
•Nuestrasactitudes
•Nuestrasconexionessociales
•Nuestrasintenciones
•Loquehicimos
•Loquehacemos
•Loqueharemos
En un minuto en el mundo:
Tecnología e internet
•Los norteamericanos usan 3.138.420 GB de datos en
internet
•Se venden 2.833 teléfonos celulares
•Se envían 159.362.760 e-mails
•Se envían 12.986.111 mensajes de texto
•Se producen 3.877.140 búsquedas en Google
Media, entretenimiento y redes
•Se reproducen 97.222 horas de video en Netflix
•Los usuarios de Youtube miran 4.333.560 videos
•Se suben 400 horas de video a Youtube
•Se escriben 473.400 tweets en Twitter
•Se publican 49.380 fotos en Instagram
•Spotify reproduce más de 750.000 canciones
Retail
•Amazon envía 1.111 paquetes y vende $332.876
•Se generan 73.249 transacciones por internet
•Los compradores dejan $7.610.350 dólares abandonados
en sus carritos de compras
▪ Marcos y
regulaciones
de la IA
Fuente: Comité de IA del Reino Unido.
Cinco principios para el uso ético de la IA.
2018.
GENERAL
DATA
PROTECTION
REGULATION
(GDPR)
LEGALIDAD, EQUIDAD Y TRANSPARENCIA
LIMITACIÓN DE PROPÓSITO
MINIMIZACIÓN DE DATOS
PRECISIÓN
LIMITACIÓN DE ALMACENAMIENTO
INTEGRIDAD Y CONFIDENCIALIDAD
RESPONSABILIDAD
Fuente: Consejo Europeo. Reglamento general
de protección de datos de la UE (GDPR). 2018.
REQUISITOS
PARA
UNA
IA
FIABLE
REQUISITOS SIGNIFICADO
Acción y supervisión
humanas
Incluye los derechos fundamentales, la acción humana y
la supervisión humana.
Solidez técnica y
seguridad
Incluye la capacidad de resiliencia a los ataques y la
seguridad, un plan de emergencia y seguridad general, la
precisión, la fiabilidad y la reproducibilidad.
Gestión de la
privacidad y de los
datos
Incluye el respeto de la privacidad y la calidad y la
integridad de los datos, así como el acceso a estos.
Transparencia Incluye la trazabilidad y la comunicación, así como que
se pueda explicar.
Diversidad, no
discriminación y
equidad
Incluye la ausencia de sesgos injustos, la accesibilidad y
el diseño universal, así como la participación de las
partes interesadas.
Bienestar social y
ambiental
Incluye la sostenibilidad y el respeto del medio
ambiente, el impacto social y los aspectos relacionados
con la sociedad y la democracia.
Rendición de
cuentas
Incluye la posibilidad de que sea auditable, la
minimización de efectos negativos y la notificación de
estos, la búsqueda de equilibrios y las compensaciones.
Fuente: Comisión Europea (Ethics guidelines
for trustworthy AI18). 2019.
Principiosdela
OCDEsobreIA
Fuente: Organización para la
Cooperación y el Desarrollo
Económico (OCDE). 2019.
PRINCIPIOS BASADOS EN VALORES RECOMENDACIÓNES PARA RESPONSABLES
POLÍTICOS
DIRECTRICES
(OCDE)
LIBRO
BLANCO
Fuente: Comisión Europea: Libro Blanco sobre
la IA. Un enfoque europeo orientado a la
excelencia y la confianza”. 2020.
PRINCIPIOS
UNESPA
Fuente: UNESPA. 2022.
https://www.unespa.es/que-hacemos/publicaciones/informes/
PRINCIPIOS DE UNESPA PARA EL USO ÉTICO DE LA IA
1
TRATO JUSTO
2
PROPORCIONALIDAD
3
RESPONSABILIDAD PROACTIVA
4
SEGURIDAD
5
TRANSPARENCIA
6
FORMACIÓN
7
EVALUACIÓN Y REVISIÓN
▪ Mejores prácticas 1.Mejorar el análisis interno y el conocimiento de lo que significa el
desarrollo y el uso de la IA en las empresas, teniendo en cuenta sus
impactos e integrando la ética como elemento clave.
2. Promover el uso ético de la IA dentro de las empresas, fomentando
una cultura digital que lo facilite. Conseguir que las empresas
prioricen la ética y generen valor compartido para la sociedad
mediante su uso. Pasar del interés inicial a la definición de códigos
éticos y guías y a la ejecución y gestión aplicadas al día a día.
3. Preparar a los directivos en conocimientos y herramientas para
mejorar la gestión ética de la IA. Conseguir que todos los directivos
que tomen decisiones sobre IA estén informados de su alcance y de su
impacto en los aspectos éticos. Establecer moratorias en el uso de la
tecnología hasta asegurar que su funcionamiento no genera ni
discriminación ni sesgos.
4. Trasladar la importancia del componente ético de la IA a toda la organización. Los valores de las empresas los marcan
las personas. Directivos éticos consiguen que las empresas se apoyen en valores sólidos y responsables.
5. Establecer principios rectores y procedimientos permitan tomar decisiones documentadas sobre el desarrollo y uso
ético de la IA. Incluir la ética de la tecnología en la gobernanza de las compañías. Priorizar principios como eficiencia,
trazabilidad, igualdad y no discriminación, impacto positivo, etc.
6. Realizar un seguimiento desde el diseño de todo el ciclo de vida de
las aplicaciones de IA considerando el punto de vista ético (ethics by
design). Supervisar tanto el desarrollo como el uso de las aplicaciones
de la tecnología.
7. Crear un Comité de Ética de la IA multidisciplinar, que incluya
personas del Equipo Gerencial con conocimientos de la tecnología y
que garanticen el cumplimiento de las principales decisiones, así como
profesionales de las áreas de la empresa implicadas y profesionales
externos.
8. Alinear el desarrollo y el uso de la IA con la idea y estrategia de
negocio y asociarlos a las necesidades del cliente. Poner a las
personas en el centro del desarrollo y uso, y valorar el impacto de la
tecnología en ellas. Buscar un impacto social positivo de la IA que
ayude a mejorar la vida de las personas, evitando la puesta en marcha
de proyectos que no sean éticos aunque garanticen la rentabilidad.
9. Invertir en el seguimiento de la evolución tecnológica y legislativa de la IA para aplicarla a la gestión ética interna.
Conocer las buenas prácticas de otras empresas y organizaciones en materia de gestión ética de la IA y aprovechar sus
resultados.
10. Establecer canales internos para la detección y solución de irregularidades relacionadas con la gestión ética de IA.
Fuente: IBM Institute for Business Value. 2022
56% Compañías de hardware y software
51% Plataformas de streaming y entretenimiento
47% Telecomunicaciones
46% Fabricantes de automóviles
44% Proveedores de sanidad
43% Plataformas de redes sociales
41% Proveedores de servicios financieros
▪ Calificando a los diferentes sectores en materia
de “uso responsable” de tecnologías IA
41% Instituciones educativas
39% Proveedores de transporte y turismo
38% Medios tradicionales y de comunicación
38% Compañías de servicios
35% Aseguradoras
34% Comerciantes
34% Organizaciones gubernamentales
* Las compañías tecnológicas y las redes sociales reciben una notable calificación
** Los gobiernos están a la cola
▪ Cerrando brechas
Lo que se
quiere
hacer
Lo que se
puede
hacer
Lo que se
realiza Lo que se
dice
que se
hace
Lo que se
espera
Revisar estilos
gerenciales
Brechas de
transparencia
Revisar
comunicación
Brechas de
reputación
Revisar
estrategias
Brechas de
estrategias
Brechas de
capacitación
Revisar
desarrollo de
competencias
Brechas de
operación
Lo que se
planifica
Brechas de
aspiración
Revisar
previsiones
Revisar
valores
Lo que se
percibe
▪ Conclusiones
Abordar el
imperativo ético en
la IA: la
responsabilidad es
de TODOS
Las grandes
organizaciones, empresas
y gobiernos están
centrándose en los
problemas que pueden
surgir en el tema de la
ética de la IA
Es estratégico trazar
consideraciones,
prácticas y marcos
comunes de cara al
futuro.
Es preciso alcanzar un
acuerdo para
conceptualizar y regular las
prácticas derivadas. La
tecnología no es el fin; es
un paso más de nuestra
evolución
FATEN: F (Fairness, justicia
algorítmica), A (Autonomía,
Atribución de
Responsabilidad y Aumento
de inteligencia),
T (Trust y Transparency),
E (Educación, Efecto
beneficioso y Equidad) y
N (No maleficencia).
El valor del uso ético de la IA debe
estar por encima del rendimiento
económico que genere. La
empresa tiene la responsabilidad
de contribuir a la sociedad y de
reducir las desigualdades, como
señalan los Objetivos de
Desarrollo Sostenible (ODS) de
Naciones Unidas.
Los sectores que tienen que
ver con la vida de las
personas son las que
plantean una gestión ética
más crítica (finanzas, salud,
defensa, medios de
comunicación, seguros,
salud/medicina o automóvil)
No soy responsable de
todo lo que pasa, pero sí
soy responsable ante todo
lo que pasa.
Rafael Yuste: El juramento
hipocrático incluiría
compromisos como “la no
maleficencia (la tecnología debe
aplicarse siempre sin voluntad
de causar daño), la búsqueda
del bien común, el
consentimiento de los
afectados, la imparcialidad de
los algoritmos (que no deben
incluir ningún sesgo
discriminatorio), la
transparencia y el pleno respeto
por la dignidad de las personas”.
Marvin Minsky: hemos
enseñado a los ordenadores a
tomar decisiones autónomas
“que requieren inteligencia”, y
ese es un logro “tan
espectacular y esperanzador
como inquietante”. Ya no se
trata de robots que ejecutan
con precisión tareas
predeterminadas, sino de
sistemas artificiales que
“deciden” por sí mismos,
simulando nuestros procesos
cognitivos y de aprendizaje.
Maite López Sánchez: “Cada vez
somos más conscientes de que
el diseño de algoritmos y
sistemas de IA debe ser más
respetuoso con los valores
éticos de las personas, y eso
implica ir un paso más allá de si
es legal o no para contemplar
también hasta qué punto es
compatible con nuestro sistema
ético de valores”
David Leslie: “cuando los seres
humanos realizan tareas que
requieren inteligencia, se les
hace responsables del grado de
precisión, fiabilidad y sensatez
de sus decisiones”. ¿Puede la IA
ser responsable ética y
jurídicamente de sus actos?
Iñaki Ortega: “Los directivos de
las grandes empresas deberían
ser conscientes de que algunas
de las decisiones que adoptan
en el ejercicio de su actividad
pueden lesionar derechos y
llegar a ser inmorales. Propongo
un nuevo juramento hipocrático
para estos tecnólogos, algo que
muchas instituciones ya están
planteando”.
Daniel Bastida: “Antes de
desarrollar cualquier sistema de
inteligencia artificial, hay que
plantearse si resulta necesario,
proporcionado e idóneo”. Esos
son los tres criterios básicos que
aplica su compañía para
garantizar que “todos nuestros
procesos de innovación
tecnológica partan en primer
lugar de una reflexión ética”.
Iñaki Ortega: “Los profesionales
de todo el mundo deben
reconocer su responsabilidad
compartida en el impacto de las
tecnologías de la información”.
Desde su punto de vista, “la
buena tecnología ha sido uno de
los grandes descubrimientos de
la era de la pandemia. Se
requiere un humanismo
tecnológico”.
▪Fuentes
• Popular (2021). La ética frente a la IA.
https://www.popularenlinea.com/Personas/blog/Pages/La-etica-frente-a-la-inteligencia-artificial.aspx
• Sinc (2021). Por qué debería preocuparte la ética de la IA.
https://www.agenciasinc.es/Reportajes/Por-que-deberia-preocuparte-la-etica-de-la-inteligencia-
artificial
• Deloitte (2021). Ética en la IA.
https://www2.deloitte.com/content/dam/Deloitte/co/Documents/risk/col-ai-ethics-a-new-
imperative-forbusinesses-boards-and-c-suites-espREV.pdf
• El País.com (2021). La importancia de la ética en la IA.
https://elpais.com/retina/2019/02/25/tendencias/1551089772_654032.html
Muchasgracias
+ ética

Más contenido relacionado

La actualidad más candente

Chapter 3 artificial intelligence
Chapter 3   artificial intelligenceChapter 3   artificial intelligence
Chapter 3 artificial intelligence
JAPHETFULMARAN1
 
Ai Ethics
Ai EthicsAi Ethics
Ai Ethics
sparks & honey
 
Introducción a la Inteligencia Artificial y los Prompts - Presentación.pdf
Introducción a la Inteligencia Artificial y los Prompts - Presentación.pdfIntroducción a la Inteligencia Artificial y los Prompts - Presentación.pdf
Introducción a la Inteligencia Artificial y los Prompts - Presentación.pdf
Miguel Angel Vite Martinez
 
Artificial Intelligence
Artificial IntelligenceArtificial Intelligence
Artificial Intelligence
iarthur
 

La actualidad más candente (20)

Chapter 3 artificial intelligence
Chapter 3   artificial intelligenceChapter 3   artificial intelligence
Chapter 3 artificial intelligence
 
Ethics in the use of Data & AI
Ethics in the use of Data & AI Ethics in the use of Data & AI
Ethics in the use of Data & AI
 
Ai Ethics
Ai EthicsAi Ethics
Ai Ethics
 
Ethical Dimensions of Artificial Intelligence (AI) by Rinshad Choorappara
Ethical Dimensions of Artificial Intelligence (AI) by Rinshad ChoorapparaEthical Dimensions of Artificial Intelligence (AI) by Rinshad Choorappara
Ethical Dimensions of Artificial Intelligence (AI) by Rinshad Choorappara
 
Marcos de gobierno de ti
Marcos de gobierno de tiMarcos de gobierno de ti
Marcos de gobierno de ti
 
Artificial intelligence
Artificial intelligenceArtificial intelligence
Artificial intelligence
 
Artificial Intelligence
Artificial IntelligenceArtificial Intelligence
Artificial Intelligence
 
Artificial intelligence
Artificial intelligenceArtificial intelligence
Artificial intelligence
 
Responsible AI in Industry: Practical Challenges and Lessons Learned
Responsible AI in Industry: Practical Challenges and Lessons LearnedResponsible AI in Industry: Practical Challenges and Lessons Learned
Responsible AI in Industry: Practical Challenges and Lessons Learned
 
18364 1 artificial intelligence
18364 1 artificial intelligence18364 1 artificial intelligence
18364 1 artificial intelligence
 
Ethics and AI
Ethics and AIEthics and AI
Ethics and AI
 
El juicio moral
El juicio moralEl juicio moral
El juicio moral
 
Artificial_Intelligence
Artificial_IntelligenceArtificial_Intelligence
Artificial_Intelligence
 
Etica y moral.pptx 1
Etica y moral.pptx 1Etica y moral.pptx 1
Etica y moral.pptx 1
 
Introducción a la Inteligencia Artificial y los Prompts - Presentación.pdf
Introducción a la Inteligencia Artificial y los Prompts - Presentación.pdfIntroducción a la Inteligencia Artificial y los Prompts - Presentación.pdf
Introducción a la Inteligencia Artificial y los Prompts - Presentación.pdf
 
Drive digital transformation with AI
Drive digital transformation with AIDrive digital transformation with AI
Drive digital transformation with AI
 
Artificial Intelligence ppt
Artificial Intelligence pptArtificial Intelligence ppt
Artificial Intelligence ppt
 
Artificial Intelligence
Artificial IntelligenceArtificial Intelligence
Artificial Intelligence
 
Sistemas de información
Sistemas de informaciónSistemas de información
Sistemas de información
 
Introduction To Artificial Intelligence
Introduction To Artificial IntelligenceIntroduction To Artificial Intelligence
Introduction To Artificial Intelligence
 

Similar a Inteligencia Artificial. Implicaciones éticas.pdf

Diapositivas Sig Ii[1]
Diapositivas Sig Ii[1]Diapositivas Sig Ii[1]
Diapositivas Sig Ii[1]
Kelly Serna
 
Act.14.tc3 90169 9-paola-gutierrez_aporte3
Act.14.tc3 90169 9-paola-gutierrez_aporte3Act.14.tc3 90169 9-paola-gutierrez_aporte3
Act.14.tc3 90169 9-paola-gutierrez_aporte3
jaqin
 
Issumitloxa
IssumitloxaIssumitloxa
Issumitloxa
mishelle
 
Presentación inteligencia artificial
Presentación inteligencia artificialPresentación inteligencia artificial
Presentación inteligencia artificial
erikasuansalamanca
 
Inteligencia laura y jenni
Inteligencia laura y jenniInteligencia laura y jenni
Inteligencia laura y jenni
Yenifer Callejas
 

Similar a Inteligencia Artificial. Implicaciones éticas.pdf (20)

Diapositivas Sig Ii[1]
Diapositivas Sig Ii[1]Diapositivas Sig Ii[1]
Diapositivas Sig Ii[1]
 
Inteligencia artificial yamileth rivas
Inteligencia artificial yamileth rivasInteligencia artificial yamileth rivas
Inteligencia artificial yamileth rivas
 
Act.14.tc3 90169 9-paola-gutierrez_aporte3
Act.14.tc3 90169 9-paola-gutierrez_aporte3Act.14.tc3 90169 9-paola-gutierrez_aporte3
Act.14.tc3 90169 9-paola-gutierrez_aporte3
 
Issumitloxa
IssumitloxaIssumitloxa
Issumitloxa
 
IA codigo etica.pptx
IA codigo etica.pptxIA codigo etica.pptx
IA codigo etica.pptx
 
inteligencia artificial
inteligencia artificialinteligencia artificial
inteligencia artificial
 
Presentación inteligencia artificial
Presentación inteligencia artificialPresentación inteligencia artificial
Presentación inteligencia artificial
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Presentacion inteligencia artificial
Presentacion inteligencia artificialPresentacion inteligencia artificial
Presentacion inteligencia artificial
 
La
LaLa
La
 
InteligenciaArtificial12.pptx
InteligenciaArtificial12.pptxInteligenciaArtificial12.pptx
InteligenciaArtificial12.pptx
 
Tarea1
Tarea1Tarea1
Tarea1
 
Tarea1
Tarea1Tarea1
Tarea1
 
IA TRABAJO..docx
IA TRABAJO..docxIA TRABAJO..docx
IA TRABAJO..docx
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
inteligencia artificial.pptx
inteligencia artificial.pptxinteligencia artificial.pptx
inteligencia artificial.pptx
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Etica Informatica
Etica InformaticaEtica Informatica
Etica Informatica
 
Inteligencia laura y jenni
Inteligencia laura y jenniInteligencia laura y jenni
Inteligencia laura y jenni
 

Inteligencia Artificial. Implicaciones éticas.pdf

  • 1. IA Implicaciones éticas M I G U E L D E L VA L L E H . U C A B C a r a c a s , 0 7 . 0 5 . 2 0 2 3
  • 2. Agenda ▪ La IA: bondades y usos ▪ Ética de la IA: desafíos e implicaciones ▪ Marcos y regulaciones de la IA ▪ Mejores prácticas ▪ Conclusiones
  • 3. Estábasadaenlaspersonas. Nolasreemplazará,sinoquelas ayudaráasermáseficientes. IA: Desarrolla sistemas informáticos capaces de efectuar tareas que normalmente requieren inteligencia humana (percepción visual, reconocimiento del habla, traducción entre idiomas y toma de decisiones).
  • 4. IA incluye varios enfoques, como el aprendizaje automático o machine learning (aprendizaje profundo o deep learning y aprendizaje por refuerzo), el razonamientoautomático (la planificación, la programación, la representación del conocimiento y el razonamiento, la búsqueda y la optimización) y la robótica (el control, la percepción, los sensores y los actuadores, así como la integración de todaslasdemástécnicasenlos sistemasciberfísicos). IA se refiere a sistemas diseñados por seres humanos que, dado un objetivo complejo, actúan en el mundo físico o digital percibiendo su entorno, interpretando los datos, razonando sobre el conocimiento derivado de estos datos y decidiendo las mejores acciones a realizar (según parámetros predefinidos) para lograr el objetivo dado. (Comisión Europea)
  • 5. Russell y Norvig (2016) clasifican las distintas definiciones en cuatro categorías: • Sistemas que actúan como humanos: visión inaugurada por Alan Turing y su famoso test (1950). Se trata de sistemas y programas con capacidad de procesar el lenguaje natural, representar conocimiento, razonar automáticamente y aprender para adaptarse a nuevas circunstancias (Kurzweil, 1990). • Sistemas que piensan como humanos: sistemas capaces de automatizar operaciones mentales, como la toma de decisiones, la resolución de problemas o el aprendizaje (Bellman, 1978). • Sistemas que piensan racionalmente: sistemas que tratan de emular el pensamiento lógico racional y de alcanzar conclusiones de acuerdo a una serie de leyes universales del pensamiento definidas por la lógica (Winston, 1992). • Sistemas que actúan racionalmente: sistemas que tratan de ampliar la racionalidad más allá de las leyes de la lógica e incluir así otros elementos, como la incertidumbre, la autonomía, el cambio, etc. (Poole, Mackworth y Goebel, 1998).
  • 6. ▪Objetivos delaIA 1. Diseñar Modelos conceptuales: que proporcionen una mejor comprensión de los procesos cognitivos que tienen lugar en los seres humanos. Esta tarea se apoya en otras ramas, como la epistemología, la neurología u otras disciplinas relacionadas con la cognición. A esta rama de la IA se la suele denominar “neurociencia computacional”. 2. Reescribir formalmente dichos modelos: una vez observadas, analizadas y descritas las distintas funciones cognitivas de los diversos seres inteligentes, es decir, pasar de la descripción y observación del lenguaje natural a su formulación en un lenguaje formal; de un modelo conceptual del conocimiento humano a otro formal y computable. 3. Estrategias de programación y máquinas físicas para reproducir de la forma más eficiente y completa posible las tareas cognitivas y científico-técnicas más genuinas de los sistemas biológicos que hemos etiquetado como inteligentes. Con base en estos objetivos, la IA suele dividirse en dos campos: la IA como ciencia y la IA como ingeniería del conocimiento (Marín y Palma, 2008).
  • 7. ▪Bondades delaIA Anticipar errores en la cadena de montaje, identificar productos defectuosos, ganar en eficiencia médica, optimizar la producción de hidrocarburos, combatir el cambio climático…. Pero el ser humano debe saber a dónde quiere llegar. Y el infinito no es la respuesta. La IA debería impedir los errores humanos, aumentar la resiliencia frente a los desastres naturales, garantizar la seguridad alimentaria, desplegar tecnologías verdes, diseñar mejores edificios, incrementar el acierto en los diagnósticos médicos…
  • 8. UsosdelaIA enlas organizaciones Fuente: IBM y Morning Consult. Encuesta realizada a 7.500 responsables de la toma de decisiones en empresas tecnológicas de todo el mundo. 2021.
  • 9. Aplicaciones de laIA • Vehículos automatizados: robots, vehículos u otro tipo de dispositivos móviles con capacidad para desplazarse de forma autónoma sin la dirección de una persona. • Reconocimiento de voz: dispositivos con capacidad de identificar el lenguaje humano, procesarlo e interactuar con él. • Planificación autónoma: dispositivos con capacidad de organizar y planificar tareas y operaciones de acuerdo a unos objetivos previamente establecidos. • Visión artificial: tecnología capaz de procesar, analizar y comprender las imágenes del mundo real y formalizarlas para que puedan ser tratadas por un ordenador. • Machine learning: capacidad de aprender que poseen determinados computadores y sistemas de aprendizaje, es decir, la habilidad de mejorar su desempeño en una determinada tarea a base de experiencia.
  • 10. Riesgos potencialesde laIA 1. Destrucción de puestos de trabajo: se estima que entre el 21% y el 38% del empleo en los países desarrollados podría desaparecer a causa de la digitalización y la automatización de la economía (Berriman, Hawsworth y Goel, 2017) 2. Manipulación, seguridad y vulnerabilidad: pudieran perseguirse distintos fines, como manipular unas elecciones (Polonski, 2017) o modificar el precio de distintos productos y servicios (OCDE, 2017). 3. Transformación de las relaciones humanas: al delegar en la en la IA muchas de nuestras interacciones y procesos sociales -toma de decisiones, comunicación, planificación- podría derivar en una pérdida significativa de habilidades personales (Groth, Nitzberg y Esposito, 2018). 4. Erosión de la sociedad civil: existe el riesgo de que la introducción de sistemas inteligentes en los medios de información y comunicación pueda distorsionar la opinión pública y cercenar la pluralidad de puntos de vista.
  • 11. Desplieguede laIA Fuente: IBM y Morning Consult. Despliegue de la IA en empresas a nivel mundial. 2021.
  • 12. ▪ ÉticadelaIA ¿Qué es la ética? La ética es "la disciplina que trata de lo que es bueno y malo, como un deber y obligación moral", así como de "los principios de la conducta que rigen la vida de un sujeto o un grupo“ ¿Qué es la ética de la I.A? La “ética en la IA” se refiere a las bases organizacionales que delinean la conducta corporativa (valores, políticas, códigos corporativos de ética y principios rectores aplicados a las tecnologías de IA)
  • 13. Objetivo:¡unsistemaéticoparamiempresa! CÓDIGO CUSTODIOS / MENTORES COMITÉ AUDITORIAS INFORMACIÓNCOMUNICACIÓN FORMACIÓN Evaluaciones / Incentivos / Reconocimiento VALORES Testimonios / Modelaje / Contagio SIMBOLOS / HÉROES / RITUALES
  • 14. ¿Qué noesÉtica dela IA? • Llevar a cabo una labor que genere soluciones de IA buenas y responsables. • Maximizar los beneficios y eliminar o minimizar los perjuicios. • Distribuir de forma equitativa los beneficios y las obligaciones. • Comprender el impacto y las implicaciones de los sistemas de IA. • Cuestionar el status quo y verificar el ejercicio del poder. • Aportar e incluir diferentes perspectivas. • Navegar entre los dilemas y las compensaciones. • Solo compliance (cumplimiento). • Un conjunto de reglas fijas que seguir. • Un marco únicamente negativo, más que una serie de riesgos. • Un acontecimiento único (“configúralo y olvídate”). • Una simple corrección técnica de errores. ¿Qué es Éticade la IA?
  • 15. Los DESAFÍOS tienen que ver con los problemas y riesgos que se derivan de la aplicación de la IA a los diferentes ámbitos. Entre ellos se pueden citar los siguientes: • La toma de decisiones basadas en la tecnología. • Los posibles sesgos de los algoritmos en los que se basa. • La necesidad de que esos algoritmos sean transparentes y comprensibles. • La responsabilidad asociada a su uso y a la toma de decisiones. Desafíos éticos delaIA • La forma de aprender y de actuar de la inteligencia artificial. • Los aspectos de privacidad, el manejo y la gestión de datos. • Las cuestiones legales derivadas de las consideraciones éticas.
  • 16. Implicaciones éticasdelaIA Son abismales. • ¿Quién es el responsable del error en un algoritmo? • ¿Dónde se levantan los muros de la privacidad? • ¿Tengo libertad para restringir el uso de mis datos? ¡Tal vez hay demasiados mesías de lo tecnológico y pocos académicos de la ética!
  • 17. Sabemos que las amenazas científicas son como las peleas familiares:carecendereglas. La amenaza de la discriminación algorítmica, la falta de inteligibilidadytransparenciadelossistemas,ladefinicióndelos umbralesderiesgo… ¿Quiénalfabetizaéticamenteaquienesprogramanloscódigosy algoritmos? Necesitamos una IA cuya base sea la ÉTICA, respaldada por una regulación sólida y gobiernos que trabajen para poner esta revolución tecnológica al servicio del BIEN COMÚN. “Puedo buscar los secretos de las estrellas, pero no debo olvidar que tengo ante mis ojos el hambre y la esclavitud” (Anaxímenes)
  • 18. Principios éticos para el diseño y desarrollo de la IA ✓ Respeto de la autonomía humana ✓ Transparencia ✓ Responsabilidad y rendición de cuentas ✓ Robustez y seguridad ✓ Justicia y no discriminación
  • 19. Ética en los datos La inteligencia artificial (IA) ya no es cosa de ciencia ficción, está en todas partes. Tu banco la usa para saber si te va a dar un crédito o no y los anuncios que Ud. ve en las redes sociales salen de una clasificación llevada a cabo por un algoritmo, que te ha microsegmentado y ‘decidido’ si te muestra ofertas de cremas antiarrugas o de vehículos de alta gama. Los sistemas de reconocimiento facial, que utilizan aeropuertos y fuerzas de seguridad, también se basan en esta tecnología LOS DATOS SON MUY VALIOSOS … SI PODEMOS DARLES SENTIDO
  • 20. Losdatosrevelan: •Nuestrossentimientos •Nuestrasactitudes •Nuestrasconexionessociales •Nuestrasintenciones •Loquehicimos •Loquehacemos •Loqueharemos En un minuto en el mundo: Tecnología e internet •Los norteamericanos usan 3.138.420 GB de datos en internet •Se venden 2.833 teléfonos celulares •Se envían 159.362.760 e-mails •Se envían 12.986.111 mensajes de texto •Se producen 3.877.140 búsquedas en Google Media, entretenimiento y redes •Se reproducen 97.222 horas de video en Netflix •Los usuarios de Youtube miran 4.333.560 videos •Se suben 400 horas de video a Youtube •Se escriben 473.400 tweets en Twitter •Se publican 49.380 fotos en Instagram •Spotify reproduce más de 750.000 canciones Retail •Amazon envía 1.111 paquetes y vende $332.876 •Se generan 73.249 transacciones por internet •Los compradores dejan $7.610.350 dólares abandonados en sus carritos de compras
  • 21. ▪ Marcos y regulaciones de la IA Fuente: Comité de IA del Reino Unido. Cinco principios para el uso ético de la IA. 2018.
  • 22. GENERAL DATA PROTECTION REGULATION (GDPR) LEGALIDAD, EQUIDAD Y TRANSPARENCIA LIMITACIÓN DE PROPÓSITO MINIMIZACIÓN DE DATOS PRECISIÓN LIMITACIÓN DE ALMACENAMIENTO INTEGRIDAD Y CONFIDENCIALIDAD RESPONSABILIDAD Fuente: Consejo Europeo. Reglamento general de protección de datos de la UE (GDPR). 2018.
  • 23. REQUISITOS PARA UNA IA FIABLE REQUISITOS SIGNIFICADO Acción y supervisión humanas Incluye los derechos fundamentales, la acción humana y la supervisión humana. Solidez técnica y seguridad Incluye la capacidad de resiliencia a los ataques y la seguridad, un plan de emergencia y seguridad general, la precisión, la fiabilidad y la reproducibilidad. Gestión de la privacidad y de los datos Incluye el respeto de la privacidad y la calidad y la integridad de los datos, así como el acceso a estos. Transparencia Incluye la trazabilidad y la comunicación, así como que se pueda explicar. Diversidad, no discriminación y equidad Incluye la ausencia de sesgos injustos, la accesibilidad y el diseño universal, así como la participación de las partes interesadas. Bienestar social y ambiental Incluye la sostenibilidad y el respeto del medio ambiente, el impacto social y los aspectos relacionados con la sociedad y la democracia. Rendición de cuentas Incluye la posibilidad de que sea auditable, la minimización de efectos negativos y la notificación de estos, la búsqueda de equilibrios y las compensaciones. Fuente: Comisión Europea (Ethics guidelines for trustworthy AI18). 2019.
  • 24. Principiosdela OCDEsobreIA Fuente: Organización para la Cooperación y el Desarrollo Económico (OCDE). 2019. PRINCIPIOS BASADOS EN VALORES RECOMENDACIÓNES PARA RESPONSABLES POLÍTICOS
  • 25. DIRECTRICES (OCDE) LIBRO BLANCO Fuente: Comisión Europea: Libro Blanco sobre la IA. Un enfoque europeo orientado a la excelencia y la confianza”. 2020.
  • 26. PRINCIPIOS UNESPA Fuente: UNESPA. 2022. https://www.unespa.es/que-hacemos/publicaciones/informes/ PRINCIPIOS DE UNESPA PARA EL USO ÉTICO DE LA IA 1 TRATO JUSTO 2 PROPORCIONALIDAD 3 RESPONSABILIDAD PROACTIVA 4 SEGURIDAD 5 TRANSPARENCIA 6 FORMACIÓN 7 EVALUACIÓN Y REVISIÓN
  • 27. ▪ Mejores prácticas 1.Mejorar el análisis interno y el conocimiento de lo que significa el desarrollo y el uso de la IA en las empresas, teniendo en cuenta sus impactos e integrando la ética como elemento clave. 2. Promover el uso ético de la IA dentro de las empresas, fomentando una cultura digital que lo facilite. Conseguir que las empresas prioricen la ética y generen valor compartido para la sociedad mediante su uso. Pasar del interés inicial a la definición de códigos éticos y guías y a la ejecución y gestión aplicadas al día a día. 3. Preparar a los directivos en conocimientos y herramientas para mejorar la gestión ética de la IA. Conseguir que todos los directivos que tomen decisiones sobre IA estén informados de su alcance y de su impacto en los aspectos éticos. Establecer moratorias en el uso de la tecnología hasta asegurar que su funcionamiento no genera ni discriminación ni sesgos. 4. Trasladar la importancia del componente ético de la IA a toda la organización. Los valores de las empresas los marcan las personas. Directivos éticos consiguen que las empresas se apoyen en valores sólidos y responsables. 5. Establecer principios rectores y procedimientos permitan tomar decisiones documentadas sobre el desarrollo y uso ético de la IA. Incluir la ética de la tecnología en la gobernanza de las compañías. Priorizar principios como eficiencia, trazabilidad, igualdad y no discriminación, impacto positivo, etc.
  • 28. 6. Realizar un seguimiento desde el diseño de todo el ciclo de vida de las aplicaciones de IA considerando el punto de vista ético (ethics by design). Supervisar tanto el desarrollo como el uso de las aplicaciones de la tecnología. 7. Crear un Comité de Ética de la IA multidisciplinar, que incluya personas del Equipo Gerencial con conocimientos de la tecnología y que garanticen el cumplimiento de las principales decisiones, así como profesionales de las áreas de la empresa implicadas y profesionales externos. 8. Alinear el desarrollo y el uso de la IA con la idea y estrategia de negocio y asociarlos a las necesidades del cliente. Poner a las personas en el centro del desarrollo y uso, y valorar el impacto de la tecnología en ellas. Buscar un impacto social positivo de la IA que ayude a mejorar la vida de las personas, evitando la puesta en marcha de proyectos que no sean éticos aunque garanticen la rentabilidad. 9. Invertir en el seguimiento de la evolución tecnológica y legislativa de la IA para aplicarla a la gestión ética interna. Conocer las buenas prácticas de otras empresas y organizaciones en materia de gestión ética de la IA y aprovechar sus resultados. 10. Establecer canales internos para la detección y solución de irregularidades relacionadas con la gestión ética de IA.
  • 29. Fuente: IBM Institute for Business Value. 2022 56% Compañías de hardware y software 51% Plataformas de streaming y entretenimiento 47% Telecomunicaciones 46% Fabricantes de automóviles 44% Proveedores de sanidad 43% Plataformas de redes sociales 41% Proveedores de servicios financieros ▪ Calificando a los diferentes sectores en materia de “uso responsable” de tecnologías IA 41% Instituciones educativas 39% Proveedores de transporte y turismo 38% Medios tradicionales y de comunicación 38% Compañías de servicios 35% Aseguradoras 34% Comerciantes 34% Organizaciones gubernamentales * Las compañías tecnológicas y las redes sociales reciben una notable calificación ** Los gobiernos están a la cola
  • 30. ▪ Cerrando brechas Lo que se quiere hacer Lo que se puede hacer Lo que se realiza Lo que se dice que se hace Lo que se espera Revisar estilos gerenciales Brechas de transparencia Revisar comunicación Brechas de reputación Revisar estrategias Brechas de estrategias Brechas de capacitación Revisar desarrollo de competencias Brechas de operación Lo que se planifica Brechas de aspiración Revisar previsiones Revisar valores Lo que se percibe
  • 31. ▪ Conclusiones Abordar el imperativo ético en la IA: la responsabilidad es de TODOS Las grandes organizaciones, empresas y gobiernos están centrándose en los problemas que pueden surgir en el tema de la ética de la IA Es estratégico trazar consideraciones, prácticas y marcos comunes de cara al futuro. Es preciso alcanzar un acuerdo para conceptualizar y regular las prácticas derivadas. La tecnología no es el fin; es un paso más de nuestra evolución
  • 32. FATEN: F (Fairness, justicia algorítmica), A (Autonomía, Atribución de Responsabilidad y Aumento de inteligencia), T (Trust y Transparency), E (Educación, Efecto beneficioso y Equidad) y N (No maleficencia). El valor del uso ético de la IA debe estar por encima del rendimiento económico que genere. La empresa tiene la responsabilidad de contribuir a la sociedad y de reducir las desigualdades, como señalan los Objetivos de Desarrollo Sostenible (ODS) de Naciones Unidas. Los sectores que tienen que ver con la vida de las personas son las que plantean una gestión ética más crítica (finanzas, salud, defensa, medios de comunicación, seguros, salud/medicina o automóvil) No soy responsable de todo lo que pasa, pero sí soy responsable ante todo lo que pasa.
  • 33. Rafael Yuste: El juramento hipocrático incluiría compromisos como “la no maleficencia (la tecnología debe aplicarse siempre sin voluntad de causar daño), la búsqueda del bien común, el consentimiento de los afectados, la imparcialidad de los algoritmos (que no deben incluir ningún sesgo discriminatorio), la transparencia y el pleno respeto por la dignidad de las personas”. Marvin Minsky: hemos enseñado a los ordenadores a tomar decisiones autónomas “que requieren inteligencia”, y ese es un logro “tan espectacular y esperanzador como inquietante”. Ya no se trata de robots que ejecutan con precisión tareas predeterminadas, sino de sistemas artificiales que “deciden” por sí mismos, simulando nuestros procesos cognitivos y de aprendizaje. Maite López Sánchez: “Cada vez somos más conscientes de que el diseño de algoritmos y sistemas de IA debe ser más respetuoso con los valores éticos de las personas, y eso implica ir un paso más allá de si es legal o no para contemplar también hasta qué punto es compatible con nuestro sistema ético de valores” David Leslie: “cuando los seres humanos realizan tareas que requieren inteligencia, se les hace responsables del grado de precisión, fiabilidad y sensatez de sus decisiones”. ¿Puede la IA ser responsable ética y jurídicamente de sus actos? Iñaki Ortega: “Los directivos de las grandes empresas deberían ser conscientes de que algunas de las decisiones que adoptan en el ejercicio de su actividad pueden lesionar derechos y llegar a ser inmorales. Propongo un nuevo juramento hipocrático para estos tecnólogos, algo que muchas instituciones ya están planteando”. Daniel Bastida: “Antes de desarrollar cualquier sistema de inteligencia artificial, hay que plantearse si resulta necesario, proporcionado e idóneo”. Esos son los tres criterios básicos que aplica su compañía para garantizar que “todos nuestros procesos de innovación tecnológica partan en primer lugar de una reflexión ética”. Iñaki Ortega: “Los profesionales de todo el mundo deben reconocer su responsabilidad compartida en el impacto de las tecnologías de la información”. Desde su punto de vista, “la buena tecnología ha sido uno de los grandes descubrimientos de la era de la pandemia. Se requiere un humanismo tecnológico”.
  • 34. ▪Fuentes • Popular (2021). La ética frente a la IA. https://www.popularenlinea.com/Personas/blog/Pages/La-etica-frente-a-la-inteligencia-artificial.aspx • Sinc (2021). Por qué debería preocuparte la ética de la IA. https://www.agenciasinc.es/Reportajes/Por-que-deberia-preocuparte-la-etica-de-la-inteligencia- artificial • Deloitte (2021). Ética en la IA. https://www2.deloitte.com/content/dam/Deloitte/co/Documents/risk/col-ai-ethics-a-new- imperative-forbusinesses-boards-and-c-suites-espREV.pdf • El País.com (2021). La importancia de la ética en la IA. https://elpais.com/retina/2019/02/25/tendencias/1551089772_654032.html