SlideShare una empresa de Scribd logo
1 de 17
RETOS DEL
APRENDIZAJE
AUTOMATICO
MARCHENARUEDAALHANSMITH
PROFESORAJENNY
EMPRENDIMIENTO
10°
¿QUE ES EL APRENDIZAJE
AUTOMATICO?
El aprendizaje automático es un
subconjunto de inteligencia
artificial que permite que un
sistema aprenda y mejore de
forma autónoma mediante
redes neuronales
y aprendizaje profundo, sin
tener que ser programado
explícitamente, a través de la
ingesta de grandes cantidades
de datos.
CARACTERISTICAS
Las características en el aprendizaje automático son las variables
independientes en cada uno de los modelos que se suelen emplear. Hacen
referencia a lo que un programa debe aprender, es decir, el conjunto de
características y parámetros que generan funciones o modelos apropiados
para solucionar un problema concreto.
Las características que dan forma a estas variables pueden presentarse
como datos sin procesar o como datos ya analizados y procesados. En
muchas ocasiones para solventar un problema, basta con utilizar los datos
tal cual llegan, pero en otras muchas es necesario procesarlos y codificarlos
de distintas formas.
MODELOS DE APRENDIZAJE
AUTOMATICO
SUPERVISADO:
En este caso el algoritmo se entrena
con datos etiquetados y subconjuntos
de datos que forman parte de un
conglomerado de datos más grande.
NO SUPERVISADO:
El aprendizaje automático no
supervisado el algoritmo
implementado puede trabajar con
conjuntos de datos grandes y sin
etiquetar, por lo que no necesita
supervisión humana.
POR REFUERZO:
Este modelo se inspira en la forma
en la que aprendemos los seres
humanos. Se emplea un algoritmo
que es capaz de aprender a partir de
las nuevas situaciones que se le
plantean a base de ensayo y error.
¿DONDE SE UTILIZA EL
APRENDIZAJE AUTOMATICO?
Hoy en día, el aprendizaje automático está en todas
partes. Cuando interactuamos con bancos,
realizamos compras online o usamos redes sociales,
los algoritmos de aprendizaje automático entran en
juego para que nuestra experiencia sea eficiente,
fluida y segura.
LOS NUEVE DESAFIOS DEL
APRENDIZAJE AUTOMATICO
1. Malas intenciones…
2. La tendencia de los desarrolladores…
3. Los parámetros del sistema no siempre tienen en
cuenta la ética…
4. Relatividad ética…
5. El aprendizaje automático cambia a los humanos…
6. Falsas correlaciones…
7. Circuitos de retroalimentación…
8. Datos de referencia “contaminados” o
“envenenados”…
9. Engaño…
MALAS INTENCIONES
Si enseñamos a un ejército de drones a matar gente mediante
inteligencia artificial, ¿serían éticos los resultados?
El año pasado surgió un pequeño escándalo en torno a este
tema. Google estaba desarrollando software para un proyecto
militar con drones llamado Project Maven que, en el futuro,
podría ayudar a crear sistemas de armas completamente
autónomos.
Como resultado, 12 empleados de Google dimitieron en acto
de protesta y 4000 firmaron una petición pidiendo a la
compañía que abandonara el contrato con las fuerzas
armadas. Más de 1000 científicos reputados en el campo de
la IA, la ética y la informática escribieron una carta abierta a
Google, pidiendo a la empresa que abandonara el proyecto y
respaldara un acuerdo internacional que prohibiera las armas
autónomas.
LA TENDENCIA DE LOS
DESARROLLADORES
Aunque los desarrolladores de algoritmos de aprendizaje automático
no quieran dañar a nadie, lo que sí quieren muchos de ellos es ganar
dinero, es decir, crean los algoritmos para beneficiarse ellos mismos y
no necesariamente por el bien de la sociedad. Algunos algoritmos
pueden recomendar los tratamientos más costosos como los que
mejores resultados ofrecen al paciente, por ejemplo.
A veces, es la propia sociedad la que no tiene interés en que un
algoritmo se convierta en un modelo para la sociedad. Por ejemplo, hay
una fuerte relación entre la velocidad de tráfico y el índice de
mortalidad debido a accidentes. Así que, podríamos programar los
coches autónomos para que no circulen a más de 20 km/h, lo cual
reduciría el número de muertes en las carreteras a casi cero, pero
anularía la mayoría de los beneficios de usar coche.
Los parámetros del sistema no
siempre tienen en cuenta la ética
Por defecto, las computadoras no tienen principios éticos. Un
algoritmo puede elaborar un presupuesto nacional con el objetivo de
“aumentar el PIB/la productividad laboral/la esperanza de vida”,
pero si no se incluyen limitaciones éticas en el programa del modelo,
podría eliminar el presupuesto destinado a los colegios, los
hospitales de cuidados paliativos y el medio ambiente, porque no
aumentarían el PIB.
De hecho, si su propósito fuera más amplio, podría incluso decidir
aumentar la productividad deshaciéndose de aquellos que no estén
capacitados para trabajar. La cuestión es: se deben incorporar
principios éticos desde el principio.
Relatividad ética
La ética va cambiando con el tiempo y a veces lo hace muy rápido. Por
ejemplo, las opiniones sobre ciertas cuestiones como los derechos LGTB
y el matrimonio entre castas o interracial pueden cambiar
significativamente de una generación a otra.
La ética también puede variar entre grupos del mismo país, por no hablar
de distintos países. Por ejemplo, en China, se ha comenzado a utilizar el
reconocimiento facial como principal medida de vigilancia masiva, sin
embargo, otros países pueden ver este problema de manera diferente y la
decisión puede depender según la situación.
El clima político también importa. Por ejemplo, la guerra contra el
terrorismo ha cambiado significativamente (y muy rápido) algunas
normas éticas e ideales en muchos países
El aprendizaje automático cambia a
los humanos
Los sistemas de aprendizaje automático (solo un ejemplo de
IA que afecta a la gente directamente) te recomiendan
nuevas películas según tu puntuación a otras y después de
comparar tus preferencias con otros usuarios. A algunos
sistemas ya se les da bastante bien.
Un sistema de recomendación de películas cambia tus
preferencias con el tiempo y las limita. Sin él, te enfrentarías
a la pesadilla de tener que ver películas malas y de géneros
que no deseas. Pero con la IA, darás en el clavo con cada
película y, al final, dejarás de investigar y solo consumirás lo
que te ofrezca.
Cabe destacar que no solemos darnos cuenta de cómo nos
manipulan estos algoritmos. Este ejemplo de las películas no
asusta, pero piensa en las noticias o en la publicidad.
Falsas correlaciones
Una falsa correlación tiene lugar cuando cosas totalmente
independientes empiezan a mostrar un comportamiento similar, lo que
podría generar la ilusión de que puedan estar conectadas de alguna
forma. Por ejemplo, ¿sabías que el consumo de margarina en EEUU está
muy relacionado con la tasa de divorcio en Maine?
Está claro que una persona real, que depende de su experiencia personal
y su inteligencia humana, asumiría de inmediato que cualquier conexión
directa entre la margarina y el divorcio es muy poco probable. Sin
embargo, un modelo matemático no posee ese conocimiento, solo
aprende y generaliza datos.
Un ejemplo muy conocido es un programa que clasifica a los pacientes
según el nivel de urgencia que concluyó que los pacientes asmáticos con
neumonía no necesitaban tan urgentemente la asistencia como los
pacientes con neumonía, pero sin asma. El programa comprobó los datos
y concluyó que los pacientes con asma tienen menos peligro de muerte y,
por tanto, no deberían ser una prioridad. Y lo cierto es que sus índices de
mortalidad eran tan bajos porque siempre recibían atención urgente
debido al riego inherente a su condición.
Circuitos de retroalimentación
Un circuito de retroalimentación es peor que las falsas
correlaciones, ya que es una situación en la que las
decisiones del algoritmo afectan a la realidad, que, a su vez,
convence al algoritmo de que su conclusión es acertada.
Por ejemplo, un programa de prevención de la delincuencia
en California sugirió que la policía debería enviar más
oficiales a los barrios afroamericanos según el índice de
delincuencia (el número de delito registrados). Pero al ver
tantos coches de policía en el barrio, los residentes
comenzaron a denunciar delitos con mayor frecuencia, lo que
llevó a que los oficiales redactaran más protocolos e
informes y resultó en un índice de criminalidad más alto, por
lo que tendrían que destinar aún más patrullas a la zona.
Datos de referencia “contaminados” o
“envenenados”
Los resultados del algoritmo de aprendizaje dependen de los datos de referencia
que forman la base del aprendizaje. Los datos pueden ser erróneos y
distorsionados por accidente o porque alguien los haya envenenado.
¿Cómo se pueden contaminar los datos de referencia? Por ejemplo, si los datos
utilizados como muestra de formación para un algoritmo de contratación se han
obtenido de una empresa con prácticas de contratación racistas, el algoritmo
también será racista.
Microsoft una vez enseñó a un chatbot a comunicarse en Twitter permitiendo que
cualquiera chateara con él. Tuvieron que desconectar el proyecto en menos de 24
horas porque los amables usuarios de Internet enseñaron rápidamente al bot a
maldecir y recitar Mein Kampf.
ENGAÑO
Incluso un buen modelo matemático que haya demostrado su efectividad
(que confíe en buenos datos) puede ser engañado, si se sabe cómo
funciona. Por ejemplo, un grupo de investigadores descubrió cómo
engañar al algoritmo de reconocimiento facial con unas gafas de colores
especiales que introducían distorsiones mínimas en la imagen y alteraban
por completo el resultado.
Con gafas con monturas de colores especiales, los investigadores
engañaron a un algoritmo de reconocimiento facial para que pensara que
eran otra persona.
Incluso en situaciones que no parecen involucrar nada complicado, una
máquina puede ser engañada fácilmente utilizando métodos desconocidos
para una persona inexperta en la materia.
GRACIAS POR SU
ATENCION

Más contenido relacionado

La actualidad más candente

Registros de control y estados de la CPU
Registros de control y estados de la CPURegistros de control y estados de la CPU
Registros de control y estados de la CPU
Ivan Porras
 
Mecanismos de exclusion mutua y algoritmos
Mecanismos de exclusion mutua y algoritmosMecanismos de exclusion mutua y algoritmos
Mecanismos de exclusion mutua y algoritmos
Abimael hernandez
 
Algoritmo de planificación srt
Algoritmo de planificación srtAlgoritmo de planificación srt
Algoritmo de planificación srt
Carlos Solano
 
Osorio alvarez neil_angelo sistema de matricula
Osorio alvarez neil_angelo sistema de matriculaOsorio alvarez neil_angelo sistema de matricula
Osorio alvarez neil_angelo sistema de matricula
RAUL CHIPANA LARICO
 
Linea del tiempo de linux
Linea del tiempo de linuxLinea del tiempo de linux
Linea del tiempo de linux
Cristian Flume
 
Arquitectura de los computadores
Arquitectura de los computadoresArquitectura de los computadores
Arquitectura de los computadores
fabio_14
 
1.1. historia del lenguaje de programacion
1.1. historia del lenguaje de programacion1.1. historia del lenguaje de programacion
1.1. historia del lenguaje de programacion
Alejandro Sanchez Jose
 

La actualidad más candente (20)

El código ascii
El código asciiEl código ascii
El código ascii
 
Registros de control y estados de la CPU
Registros de control y estados de la CPURegistros de control y estados de la CPU
Registros de control y estados de la CPU
 
Creación de tablas y relaciones en mysql workbench
Creación de tablas y relaciones en mysql workbenchCreación de tablas y relaciones en mysql workbench
Creación de tablas y relaciones en mysql workbench
 
Mecanismos de exclusion mutua y algoritmos
Mecanismos de exclusion mutua y algoritmosMecanismos de exclusion mutua y algoritmos
Mecanismos de exclusion mutua y algoritmos
 
CUESTIONARIO DE PROGRAMACION I
CUESTIONARIO DE PROGRAMACION  ICUESTIONARIO DE PROGRAMACION  I
CUESTIONARIO DE PROGRAMACION I
 
Algoritmo de planificación srt
Algoritmo de planificación srtAlgoritmo de planificación srt
Algoritmo de planificación srt
 
Sala limpia bc
Sala limpia bcSala limpia bc
Sala limpia bc
 
Algoritmos secuenciales resueldos
Algoritmos  secuenciales resueldosAlgoritmos  secuenciales resueldos
Algoritmos secuenciales resueldos
 
Osorio alvarez neil_angelo sistema de matricula
Osorio alvarez neil_angelo sistema de matriculaOsorio alvarez neil_angelo sistema de matricula
Osorio alvarez neil_angelo sistema de matricula
 
Ejemplo dfd
Ejemplo dfdEjemplo dfd
Ejemplo dfd
 
Linea del tiempo de linux
Linea del tiempo de linuxLinea del tiempo de linux
Linea del tiempo de linux
 
GESTION DE PROCESOS EN SISTEMAS OPERATIVOS
GESTION DE PROCESOS EN SISTEMAS OPERATIVOSGESTION DE PROCESOS EN SISTEMAS OPERATIVOS
GESTION DE PROCESOS EN SISTEMAS OPERATIVOS
 
Sistemas operativos - Sistemas De Archivos - reporte unidad 5
Sistemas operativos - Sistemas De Archivos - reporte unidad 5Sistemas operativos - Sistemas De Archivos - reporte unidad 5
Sistemas operativos - Sistemas De Archivos - reporte unidad 5
 
Arquitectura de los computadores
Arquitectura de los computadoresArquitectura de los computadores
Arquitectura de los computadores
 
Introduccion a la computacion en la nube
Introduccion a la computacion en la nubeIntroduccion a la computacion en la nube
Introduccion a la computacion en la nube
 
Informe de Sistemas Expertos
Informe de Sistemas ExpertosInforme de Sistemas Expertos
Informe de Sistemas Expertos
 
El Modelado de Negocios y la Producción del Software, un Ensayo
El Modelado de Negocios y la Producción del Software, un EnsayoEl Modelado de Negocios y la Producción del Software, un Ensayo
El Modelado de Negocios y la Producción del Software, un Ensayo
 
Matematica discreta diapositivas nº 1
Matematica discreta   diapositivas nº 1Matematica discreta   diapositivas nº 1
Matematica discreta diapositivas nº 1
 
1.1. historia del lenguaje de programacion
1.1. historia del lenguaje de programacion1.1. historia del lenguaje de programacion
1.1. historia del lenguaje de programacion
 
Pruebas de Uniformidad
Pruebas de UniformidadPruebas de Uniformidad
Pruebas de Uniformidad
 

Similar a RETOS DEL APRENDIZAJE AUTOMATICO.pptx

10 ejemplos de inteligencia artificial que usamos a diario tec hcetera
10 ejemplos de inteligencia artificial que usamos a diario   tec hcetera10 ejemplos de inteligencia artificial que usamos a diario   tec hcetera
10 ejemplos de inteligencia artificial que usamos a diario tec hcetera
jairote1974
 
Statistical application and the interpretation of data is importan.docx
Statistical application and the interpretation of data is importan.docxStatistical application and the interpretation of data is importan.docx
Statistical application and the interpretation of data is importan.docx
lillie234567
 
Qué es el machine learning aplicado a geologia.docx
Qué es el machine learning aplicado a geologia.docxQué es el machine learning aplicado a geologia.docx
Qué es el machine learning aplicado a geologia.docx
mariamore9
 
Aprendizaje automático I - Sesión 1 Intro.pdf
Aprendizaje automático I - Sesión 1 Intro.pdfAprendizaje automático I - Sesión 1 Intro.pdf
Aprendizaje automático I - Sesión 1 Intro.pdf
Gerard Alba
 
Análisis Predictivo en la red social Twitter para Detectar tweets con tendenc...
Análisis Predictivo en la red social Twitter para Detectar tweets con tendenc...Análisis Predictivo en la red social Twitter para Detectar tweets con tendenc...
Análisis Predictivo en la red social Twitter para Detectar tweets con tendenc...
thienhongphuc002
 

Similar a RETOS DEL APRENDIZAJE AUTOMATICO.pptx (20)

10 ejemplos de inteligencia artificial que usamos a diario tec hcetera
10 ejemplos de inteligencia artificial que usamos a diario   tec hcetera10 ejemplos de inteligencia artificial que usamos a diario   tec hcetera
10 ejemplos de inteligencia artificial que usamos a diario tec hcetera
 
Lo esencial es invisible a los ojos. O cómo luchar contra la opacidad de los ...
Lo esencial es invisible a los ojos. O cómo luchar contra la opacidad de los ...Lo esencial es invisible a los ojos. O cómo luchar contra la opacidad de los ...
Lo esencial es invisible a los ojos. O cómo luchar contra la opacidad de los ...
 
Internet Health Report 2019. Mozilla. Versión Corta
Internet Health Report 2019. Mozilla. Versión CortaInternet Health Report 2019. Mozilla. Versión Corta
Internet Health Report 2019. Mozilla. Versión Corta
 
InteligenciaArtificial12.pptx
InteligenciaArtificial12.pptxInteligenciaArtificial12.pptx
InteligenciaArtificial12.pptx
 
"La inteligencia artificial decide por vos"
"La inteligencia artificial decide por vos""La inteligencia artificial decide por vos"
"La inteligencia artificial decide por vos"
 
Aprendizaje Automatizado
Aprendizaje AutomatizadoAprendizaje Automatizado
Aprendizaje Automatizado
 
Etica artificial
Etica artificialEtica artificial
Etica artificial
 
Guía de Estudi 4.docx
Guía de Estudi 4.docxGuía de Estudi 4.docx
Guía de Estudi 4.docx
 
Statistical application and the interpretation of data is importan.docx
Statistical application and the interpretation of data is importan.docxStatistical application and the interpretation of data is importan.docx
Statistical application and the interpretation of data is importan.docx
 
Unidad 1.docx
Unidad 1.docxUnidad 1.docx
Unidad 1.docx
 
Qué es el machine learning aplicado a geologia.docx
Qué es el machine learning aplicado a geologia.docxQué es el machine learning aplicado a geologia.docx
Qué es el machine learning aplicado a geologia.docx
 
Aprendizaje automático I - Sesión 1 Intro.pdf
Aprendizaje automático I - Sesión 1 Intro.pdfAprendizaje automático I - Sesión 1 Intro.pdf
Aprendizaje automático I - Sesión 1 Intro.pdf
 
Análisis Predictivo en la red social Twitter para Detectar tweets con tendenc...
Análisis Predictivo en la red social Twitter para Detectar tweets con tendenc...Análisis Predictivo en la red social Twitter para Detectar tweets con tendenc...
Análisis Predictivo en la red social Twitter para Detectar tweets con tendenc...
 
Ciencia de datos
Ciencia de datosCiencia de datos
Ciencia de datos
 
Ética informática
Ética informáticaÉtica informática
Ética informática
 
Automaticion de procesos informe final
Automaticion de procesos informe finalAutomaticion de procesos informe final
Automaticion de procesos informe final
 
Tareas del mundo real
Tareas del mundo realTareas del mundo real
Tareas del mundo real
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Inteligencia Artificial en las aulas de los institutos
Inteligencia Artificial en las aulas de los institutosInteligencia Artificial en las aulas de los institutos
Inteligencia Artificial en las aulas de los institutos
 

RETOS DEL APRENDIZAJE AUTOMATICO.pptx

  • 2. ¿QUE ES EL APRENDIZAJE AUTOMATICO? El aprendizaje automático es un subconjunto de inteligencia artificial que permite que un sistema aprenda y mejore de forma autónoma mediante redes neuronales y aprendizaje profundo, sin tener que ser programado explícitamente, a través de la ingesta de grandes cantidades de datos.
  • 3. CARACTERISTICAS Las características en el aprendizaje automático son las variables independientes en cada uno de los modelos que se suelen emplear. Hacen referencia a lo que un programa debe aprender, es decir, el conjunto de características y parámetros que generan funciones o modelos apropiados para solucionar un problema concreto. Las características que dan forma a estas variables pueden presentarse como datos sin procesar o como datos ya analizados y procesados. En muchas ocasiones para solventar un problema, basta con utilizar los datos tal cual llegan, pero en otras muchas es necesario procesarlos y codificarlos de distintas formas.
  • 4. MODELOS DE APRENDIZAJE AUTOMATICO SUPERVISADO: En este caso el algoritmo se entrena con datos etiquetados y subconjuntos de datos que forman parte de un conglomerado de datos más grande. NO SUPERVISADO: El aprendizaje automático no supervisado el algoritmo implementado puede trabajar con conjuntos de datos grandes y sin etiquetar, por lo que no necesita supervisión humana. POR REFUERZO: Este modelo se inspira en la forma en la que aprendemos los seres humanos. Se emplea un algoritmo que es capaz de aprender a partir de las nuevas situaciones que se le plantean a base de ensayo y error.
  • 5. ¿DONDE SE UTILIZA EL APRENDIZAJE AUTOMATICO? Hoy en día, el aprendizaje automático está en todas partes. Cuando interactuamos con bancos, realizamos compras online o usamos redes sociales, los algoritmos de aprendizaje automático entran en juego para que nuestra experiencia sea eficiente, fluida y segura.
  • 6.
  • 7. LOS NUEVE DESAFIOS DEL APRENDIZAJE AUTOMATICO 1. Malas intenciones… 2. La tendencia de los desarrolladores… 3. Los parámetros del sistema no siempre tienen en cuenta la ética… 4. Relatividad ética… 5. El aprendizaje automático cambia a los humanos… 6. Falsas correlaciones… 7. Circuitos de retroalimentación… 8. Datos de referencia “contaminados” o “envenenados”… 9. Engaño…
  • 8. MALAS INTENCIONES Si enseñamos a un ejército de drones a matar gente mediante inteligencia artificial, ¿serían éticos los resultados? El año pasado surgió un pequeño escándalo en torno a este tema. Google estaba desarrollando software para un proyecto militar con drones llamado Project Maven que, en el futuro, podría ayudar a crear sistemas de armas completamente autónomos. Como resultado, 12 empleados de Google dimitieron en acto de protesta y 4000 firmaron una petición pidiendo a la compañía que abandonara el contrato con las fuerzas armadas. Más de 1000 científicos reputados en el campo de la IA, la ética y la informática escribieron una carta abierta a Google, pidiendo a la empresa que abandonara el proyecto y respaldara un acuerdo internacional que prohibiera las armas autónomas.
  • 9. LA TENDENCIA DE LOS DESARROLLADORES Aunque los desarrolladores de algoritmos de aprendizaje automático no quieran dañar a nadie, lo que sí quieren muchos de ellos es ganar dinero, es decir, crean los algoritmos para beneficiarse ellos mismos y no necesariamente por el bien de la sociedad. Algunos algoritmos pueden recomendar los tratamientos más costosos como los que mejores resultados ofrecen al paciente, por ejemplo. A veces, es la propia sociedad la que no tiene interés en que un algoritmo se convierta en un modelo para la sociedad. Por ejemplo, hay una fuerte relación entre la velocidad de tráfico y el índice de mortalidad debido a accidentes. Así que, podríamos programar los coches autónomos para que no circulen a más de 20 km/h, lo cual reduciría el número de muertes en las carreteras a casi cero, pero anularía la mayoría de los beneficios de usar coche.
  • 10. Los parámetros del sistema no siempre tienen en cuenta la ética Por defecto, las computadoras no tienen principios éticos. Un algoritmo puede elaborar un presupuesto nacional con el objetivo de “aumentar el PIB/la productividad laboral/la esperanza de vida”, pero si no se incluyen limitaciones éticas en el programa del modelo, podría eliminar el presupuesto destinado a los colegios, los hospitales de cuidados paliativos y el medio ambiente, porque no aumentarían el PIB. De hecho, si su propósito fuera más amplio, podría incluso decidir aumentar la productividad deshaciéndose de aquellos que no estén capacitados para trabajar. La cuestión es: se deben incorporar principios éticos desde el principio.
  • 11. Relatividad ética La ética va cambiando con el tiempo y a veces lo hace muy rápido. Por ejemplo, las opiniones sobre ciertas cuestiones como los derechos LGTB y el matrimonio entre castas o interracial pueden cambiar significativamente de una generación a otra. La ética también puede variar entre grupos del mismo país, por no hablar de distintos países. Por ejemplo, en China, se ha comenzado a utilizar el reconocimiento facial como principal medida de vigilancia masiva, sin embargo, otros países pueden ver este problema de manera diferente y la decisión puede depender según la situación. El clima político también importa. Por ejemplo, la guerra contra el terrorismo ha cambiado significativamente (y muy rápido) algunas normas éticas e ideales en muchos países
  • 12. El aprendizaje automático cambia a los humanos Los sistemas de aprendizaje automático (solo un ejemplo de IA que afecta a la gente directamente) te recomiendan nuevas películas según tu puntuación a otras y después de comparar tus preferencias con otros usuarios. A algunos sistemas ya se les da bastante bien. Un sistema de recomendación de películas cambia tus preferencias con el tiempo y las limita. Sin él, te enfrentarías a la pesadilla de tener que ver películas malas y de géneros que no deseas. Pero con la IA, darás en el clavo con cada película y, al final, dejarás de investigar y solo consumirás lo que te ofrezca. Cabe destacar que no solemos darnos cuenta de cómo nos manipulan estos algoritmos. Este ejemplo de las películas no asusta, pero piensa en las noticias o en la publicidad.
  • 13. Falsas correlaciones Una falsa correlación tiene lugar cuando cosas totalmente independientes empiezan a mostrar un comportamiento similar, lo que podría generar la ilusión de que puedan estar conectadas de alguna forma. Por ejemplo, ¿sabías que el consumo de margarina en EEUU está muy relacionado con la tasa de divorcio en Maine? Está claro que una persona real, que depende de su experiencia personal y su inteligencia humana, asumiría de inmediato que cualquier conexión directa entre la margarina y el divorcio es muy poco probable. Sin embargo, un modelo matemático no posee ese conocimiento, solo aprende y generaliza datos. Un ejemplo muy conocido es un programa que clasifica a los pacientes según el nivel de urgencia que concluyó que los pacientes asmáticos con neumonía no necesitaban tan urgentemente la asistencia como los pacientes con neumonía, pero sin asma. El programa comprobó los datos y concluyó que los pacientes con asma tienen menos peligro de muerte y, por tanto, no deberían ser una prioridad. Y lo cierto es que sus índices de mortalidad eran tan bajos porque siempre recibían atención urgente debido al riego inherente a su condición.
  • 14. Circuitos de retroalimentación Un circuito de retroalimentación es peor que las falsas correlaciones, ya que es una situación en la que las decisiones del algoritmo afectan a la realidad, que, a su vez, convence al algoritmo de que su conclusión es acertada. Por ejemplo, un programa de prevención de la delincuencia en California sugirió que la policía debería enviar más oficiales a los barrios afroamericanos según el índice de delincuencia (el número de delito registrados). Pero al ver tantos coches de policía en el barrio, los residentes comenzaron a denunciar delitos con mayor frecuencia, lo que llevó a que los oficiales redactaran más protocolos e informes y resultó en un índice de criminalidad más alto, por lo que tendrían que destinar aún más patrullas a la zona.
  • 15. Datos de referencia “contaminados” o “envenenados” Los resultados del algoritmo de aprendizaje dependen de los datos de referencia que forman la base del aprendizaje. Los datos pueden ser erróneos y distorsionados por accidente o porque alguien los haya envenenado. ¿Cómo se pueden contaminar los datos de referencia? Por ejemplo, si los datos utilizados como muestra de formación para un algoritmo de contratación se han obtenido de una empresa con prácticas de contratación racistas, el algoritmo también será racista. Microsoft una vez enseñó a un chatbot a comunicarse en Twitter permitiendo que cualquiera chateara con él. Tuvieron que desconectar el proyecto en menos de 24 horas porque los amables usuarios de Internet enseñaron rápidamente al bot a maldecir y recitar Mein Kampf.
  • 16. ENGAÑO Incluso un buen modelo matemático que haya demostrado su efectividad (que confíe en buenos datos) puede ser engañado, si se sabe cómo funciona. Por ejemplo, un grupo de investigadores descubrió cómo engañar al algoritmo de reconocimiento facial con unas gafas de colores especiales que introducían distorsiones mínimas en la imagen y alteraban por completo el resultado. Con gafas con monturas de colores especiales, los investigadores engañaron a un algoritmo de reconocimiento facial para que pensara que eran otra persona. Incluso en situaciones que no parecen involucrar nada complicado, una máquina puede ser engañada fácilmente utilizando métodos desconocidos para una persona inexperta en la materia.