Es común referirse al "Dark Data" como aquellos conjuntos de datos que no son directamente aprovechables por medios automatizados y que requerirían la intervención de expertos humanos para interpretarlos correctamente. En esta sesión se presentan las nuevas técnicas y herramientas de Deep Learning, que hacen posible la extracción automática de metadatos y relaciones semánticas mediante el uso de redes de neuronas profundas. En particular, se analizarán los casos de uso más habituales en los ecosistemas Big Data: visión artificial y comprensión del lenguaje.
BDAS-2017 | Deep Learning para Extracción de Valor en Contenidos Digitales
1. BIG DATA
Agosto 25 y 26 | Lima – Perú 2017
ANALYTICS SUMMIT
#BIGDATASUMMIT2017
2. BIG DATA
Agosto 25 y 26 | Lima – Perú 2017
ANALYTICS SUMMIT
#BIGDATASUMMIT2017
Deep Learning
para extracción de valor
Dr. Raúl Arrabales Moreno
3. ¡Hola!
Soy Raúl Arrabales
Ingeniero en Informática, Psicólogo,
Doctor en Inteligencia Artificial y MBA
Me puedes encontrar como @ConsciousRobots
www.conscious-robots.com
20. Deep Learning
Se puede considerar como una
subdisciplina dentro de Aprendizaje
Automático.
◦ Es un enfoque más bio-inspirado, en el que se
refleja mejor la complejidad de un sistema
nervioso natural.
◦ No obstante, en esencia, todos los algoritmos
de Aprendizaje Automático se pueden
considerar modelos estadísticos/matemáticos
de descenso de gradiente del error. #BIGDATASUMMIT2017
24. Deep Learning
Se pueden establecer diferentes arquitecturas
para la implementación de DL:
◦ Redes de Neuronas Profundas (DNN).
◦ Redes de Neuronas Profundas Convolucionales
(CDNN).
◦ Redes de Neuronas Recurrentes (RNN).
◦ Redes de Creencias Profundas (DBN).
◦ …
#BIGDATASUMMIT2017
25. Deep Learning
Estrategias de entrenamiento. Elegir:
◦ Tipos de variables, escalado, etc.
◦ Tipo de red, arquitectura.
◦ Número de nodos, de capas ocultas, etc.
◦ Tipo de capas.
◦ Inicialización de pesos.
◦ Función de activación, umbral, etc.
◦ Optimizaciones posibles.
#BIGDATASUMMIT2017
26. Deep Learning
Solemos tener muchos problemas para entrenar con
éxito las DNN
◦ Normalización de datos ([0..1], [-1..1]).
◦ Inicialización de los pesos (relu, Xavier).
◦ Épocas e iteraciones (pasadas del dataset).
◦ Tasa y política de aprendizaje (0.1, 0.03, etc.).
◦ Función de activación (tanh, sigmoide, relu, etc.).
◦ Función de pérdida (reconstruction entropy, etc.).
◦ Regularización (L1/L2, dropout, etc).
◦ Tamaño de minibatch (16, 128).
◦ Optimización y Updater (Stochastic Gradient Descent, etc.).
◦ …
#BIGDATASUMMIT2017