2. ¿QUE ES EL APRENDIZAJE
AUTOMATICO?
El aprendizaje automático es un
subconjunto de inteligencia
artificial que permite que un
sistema aprenda y mejore de
forma autónoma mediante
redes neuronales
y aprendizaje profundo, sin
tener que ser programado
explícitamente, a través de la
ingesta de grandes cantidades
de datos.
3. CARACTERISTICAS
Las características en el aprendizaje automático son las variables
independientes en cada uno de los modelos que se suelen emplear. Hacen
referencia a lo que un programa debe aprender, es decir, el conjunto de
características y parámetros que generan funciones o modelos apropiados
para solucionar un problema concreto.
Las características que dan forma a estas variables pueden presentarse
como datos sin procesar o como datos ya analizados y procesados. En
muchas ocasiones para solventar un problema, basta con utilizar los datos
tal cual llegan, pero en otras muchas es necesario procesarlos y codificarlos
de distintas formas.
4. MODELOS DE APRENDIZAJE
AUTOMATICO
SUPERVISADO:
En este caso el algoritmo se entrena
con datos etiquetados y subconjuntos
de datos que forman parte de un
conglomerado de datos más grande.
NO SUPERVISADO:
El aprendizaje automático no
supervisado el algoritmo
implementado puede trabajar con
conjuntos de datos grandes y sin
etiquetar, por lo que no necesita
supervisión humana.
POR REFUERZO:
Este modelo se inspira en la forma
en la que aprendemos los seres
humanos. Se emplea un algoritmo
que es capaz de aprender a partir de
las nuevas situaciones que se le
plantean a base de ensayo y error.
5. ¿DONDE SE UTILIZA EL
APRENDIZAJE AUTOMATICO?
Hoy en día, el aprendizaje automático está en todas
partes. Cuando interactuamos con bancos,
realizamos compras online o usamos redes sociales,
los algoritmos de aprendizaje automático entran en
juego para que nuestra experiencia sea eficiente,
fluida y segura.
6.
7. LOS NUEVE DESAFIOS DEL
APRENDIZAJE AUTOMATICO
1. Malas intenciones…
2. La tendencia de los desarrolladores…
3. Los parámetros del sistema no siempre tienen en
cuenta la ética…
4. Relatividad ética…
5. El aprendizaje automático cambia a los humanos…
6. Falsas correlaciones…
7. Circuitos de retroalimentación…
8. Datos de referencia “contaminados” o
“envenenados”…
9. Engaño…
8. MALAS INTENCIONES
Si enseñamos a un ejército de drones a matar gente mediante
inteligencia artificial, ¿serían éticos los resultados?
El año pasado surgió un pequeño escándalo en torno a este
tema. Google estaba desarrollando software para un proyecto
militar con drones llamado Project Maven que, en el futuro,
podría ayudar a crear sistemas de armas completamente
autónomos.
Como resultado, 12 empleados de Google dimitieron en acto
de protesta y 4000 firmaron una petición pidiendo a la
compañía que abandonara el contrato con las fuerzas
armadas. Más de 1000 científicos reputados en el campo de
la IA, la ética y la informática escribieron una carta abierta a
Google, pidiendo a la empresa que abandonara el proyecto y
respaldara un acuerdo internacional que prohibiera las armas
autónomas.
9. LA TENDENCIA DE LOS
DESARROLLADORES
Aunque los desarrolladores de algoritmos de aprendizaje automático
no quieran dañar a nadie, lo que sí quieren muchos de ellos es ganar
dinero, es decir, crean los algoritmos para beneficiarse ellos mismos y
no necesariamente por el bien de la sociedad. Algunos algoritmos
pueden recomendar los tratamientos más costosos como los que
mejores resultados ofrecen al paciente, por ejemplo.
A veces, es la propia sociedad la que no tiene interés en que un
algoritmo se convierta en un modelo para la sociedad. Por ejemplo, hay
una fuerte relación entre la velocidad de tráfico y el índice de
mortalidad debido a accidentes. Así que, podríamos programar los
coches autónomos para que no circulen a más de 20 km/h, lo cual
reduciría el número de muertes en las carreteras a casi cero, pero
anularía la mayoría de los beneficios de usar coche.
10. Los parámetros del sistema no
siempre tienen en cuenta la ética
Por defecto, las computadoras no tienen principios éticos. Un
algoritmo puede elaborar un presupuesto nacional con el objetivo de
“aumentar el PIB/la productividad laboral/la esperanza de vida”,
pero si no se incluyen limitaciones éticas en el programa del modelo,
podría eliminar el presupuesto destinado a los colegios, los
hospitales de cuidados paliativos y el medio ambiente, porque no
aumentarían el PIB.
De hecho, si su propósito fuera más amplio, podría incluso decidir
aumentar la productividad deshaciéndose de aquellos que no estén
capacitados para trabajar. La cuestión es: se deben incorporar
principios éticos desde el principio.
11. Relatividad ética
La ética va cambiando con el tiempo y a veces lo hace muy rápido. Por
ejemplo, las opiniones sobre ciertas cuestiones como los derechos LGTB
y el matrimonio entre castas o interracial pueden cambiar
significativamente de una generación a otra.
La ética también puede variar entre grupos del mismo país, por no hablar
de distintos países. Por ejemplo, en China, se ha comenzado a utilizar el
reconocimiento facial como principal medida de vigilancia masiva, sin
embargo, otros países pueden ver este problema de manera diferente y la
decisión puede depender según la situación.
El clima político también importa. Por ejemplo, la guerra contra el
terrorismo ha cambiado significativamente (y muy rápido) algunas
normas éticas e ideales en muchos países
12. El aprendizaje automático cambia a
los humanos
Los sistemas de aprendizaje automático (solo un ejemplo de
IA que afecta a la gente directamente) te recomiendan
nuevas películas según tu puntuación a otras y después de
comparar tus preferencias con otros usuarios. A algunos
sistemas ya se les da bastante bien.
Un sistema de recomendación de películas cambia tus
preferencias con el tiempo y las limita. Sin él, te enfrentarías
a la pesadilla de tener que ver películas malas y de géneros
que no deseas. Pero con la IA, darás en el clavo con cada
película y, al final, dejarás de investigar y solo consumirás lo
que te ofrezca.
Cabe destacar que no solemos darnos cuenta de cómo nos
manipulan estos algoritmos. Este ejemplo de las películas no
asusta, pero piensa en las noticias o en la publicidad.
13. Falsas correlaciones
Una falsa correlación tiene lugar cuando cosas totalmente
independientes empiezan a mostrar un comportamiento similar, lo que
podría generar la ilusión de que puedan estar conectadas de alguna
forma. Por ejemplo, ¿sabías que el consumo de margarina en EEUU está
muy relacionado con la tasa de divorcio en Maine?
Está claro que una persona real, que depende de su experiencia personal
y su inteligencia humana, asumiría de inmediato que cualquier conexión
directa entre la margarina y el divorcio es muy poco probable. Sin
embargo, un modelo matemático no posee ese conocimiento, solo
aprende y generaliza datos.
Un ejemplo muy conocido es un programa que clasifica a los pacientes
según el nivel de urgencia que concluyó que los pacientes asmáticos con
neumonía no necesitaban tan urgentemente la asistencia como los
pacientes con neumonía, pero sin asma. El programa comprobó los datos
y concluyó que los pacientes con asma tienen menos peligro de muerte y,
por tanto, no deberían ser una prioridad. Y lo cierto es que sus índices de
mortalidad eran tan bajos porque siempre recibían atención urgente
debido al riego inherente a su condición.
14. Circuitos de retroalimentación
Un circuito de retroalimentación es peor que las falsas
correlaciones, ya que es una situación en la que las
decisiones del algoritmo afectan a la realidad, que, a su vez,
convence al algoritmo de que su conclusión es acertada.
Por ejemplo, un programa de prevención de la delincuencia
en California sugirió que la policía debería enviar más
oficiales a los barrios afroamericanos según el índice de
delincuencia (el número de delito registrados). Pero al ver
tantos coches de policía en el barrio, los residentes
comenzaron a denunciar delitos con mayor frecuencia, lo que
llevó a que los oficiales redactaran más protocolos e
informes y resultó en un índice de criminalidad más alto, por
lo que tendrían que destinar aún más patrullas a la zona.
15. Datos de referencia “contaminados” o
“envenenados”
Los resultados del algoritmo de aprendizaje dependen de los datos de referencia
que forman la base del aprendizaje. Los datos pueden ser erróneos y
distorsionados por accidente o porque alguien los haya envenenado.
¿Cómo se pueden contaminar los datos de referencia? Por ejemplo, si los datos
utilizados como muestra de formación para un algoritmo de contratación se han
obtenido de una empresa con prácticas de contratación racistas, el algoritmo
también será racista.
Microsoft una vez enseñó a un chatbot a comunicarse en Twitter permitiendo que
cualquiera chateara con él. Tuvieron que desconectar el proyecto en menos de 24
horas porque los amables usuarios de Internet enseñaron rápidamente al bot a
maldecir y recitar Mein Kampf.
16. ENGAÑO
Incluso un buen modelo matemático que haya demostrado su efectividad
(que confíe en buenos datos) puede ser engañado, si se sabe cómo
funciona. Por ejemplo, un grupo de investigadores descubrió cómo
engañar al algoritmo de reconocimiento facial con unas gafas de colores
especiales que introducían distorsiones mínimas en la imagen y alteraban
por completo el resultado.
Con gafas con monturas de colores especiales, los investigadores
engañaron a un algoritmo de reconocimiento facial para que pensara que
eran otra persona.
Incluso en situaciones que no parecen involucrar nada complicado, una
máquina puede ser engañada fácilmente utilizando métodos desconocidos
para una persona inexperta en la materia.