- El documento presenta una introducción al curso de Machine Learning de MindsDB. Los objetivos del curso son aprender a preparar y visualizar datos, entender diferentes algoritmos de ML, y explorar deep learning y redes neuronales.
- Explica brevemente que el ML identifica patrones en datos para resolver problemas, y que los modelos usualmente son de aprendizaje supervisado u no supervisado. El aprendizaje supervisado predice un objetivo, mientras que el no supervisado encuentra estructura en los datos.
- Resalta que el ML es un campo en
Este documento describe los tres principales tipos de aprendizaje artificial: 1) aprendizaje supervisado, que utiliza datos etiquetados para predecir valores objetivo; 2) aprendizaje no supervisado, que identifica patrones en datos no etiquetados; y 3) aprendizaje por refuerzo, donde un algoritmo aprende a través de recompensas y castigos de su interacción con el entorno. También describe tres tipos de aprendizaje profundo: redes neuronales convolucionales para procesamiento de imágenes, redes recurrentes para aná
En la charla realizada por Néstor Campos de Metric Arts (https://metricarts.com/), nos presentaron su producto Video Analytics y cómo utilizan Algoritmos de Machine Learning, junto a procesos y modelamientos de Visual Computing para poder realizar seguimiento de objetos y personas a través de video.
El documento describe los conceptos clave de minería de datos e incluye las siguientes secciones: (1) definición de minería de datos, (2) proceso de minería de datos, (3) características principales, (4) aplicaciones, (5) extracción de conocimiento en bases de datos (KDD), (6) técnicas como clasificación, agrupamiento, asociación, y (7) herramientas de software como Weka.
¿Qué es transformación digital?
¿Qué es ciencia de datos?
¿Qué es un científico de datos?
¿Qué es Machine Learning?
“Hola Mundo en Machine Learning”: Algoritmo de Clasificación
Demo: Algoritmo de Clasificación
La ciencia de datos combina múltiples campos como estadísticas, métodos científicos y análisis de datos para extraer valor de los datos. Los científicos de datos usan varios conocimientos para analizar datos de fuentes como la web y sensores. La ciencia de datos revela tendencias en los datos que permiten a las empresas tomar mejores decisiones y crear productos más innovadores.
Los trabajos que más peligro corren debido al avance de la Inteligencia Artificial son:
2. Cajero - Ya existen cajas automáticas y es previsible que en el futuro se automatice completamente este trabajo.
3. Cocinero en un restaurante - Algunas tareas como cortar verduras, freír alimentos o preparar ensaladas podrían automatizarse.
5. Traductor - La traducción automática ha avanzado mucho y es posible que en el futuro muchos traductores humanos sean reemplazados.
6. Radiologo - La
Este documento define y explica conceptos clave relacionados con la ciencia de datos, el aprendizaje automático y el big data. Explica que la ciencia de datos involucra el uso de computación, estadística, modelado y otras disciplinas para extraer información de grandes conjuntos de datos. También define aprendizaje automático, inteligencia artificial y big data, y describe algunas aplicaciones y tendencias en estos campos.
Este documento describe los tres principales tipos de aprendizaje artificial: 1) aprendizaje supervisado, que utiliza datos etiquetados para predecir valores objetivo; 2) aprendizaje no supervisado, que identifica patrones en datos no etiquetados; y 3) aprendizaje por refuerzo, donde un algoritmo aprende a través de recompensas y castigos de su interacción con el entorno. También describe tres tipos de aprendizaje profundo: redes neuronales convolucionales para procesamiento de imágenes, redes recurrentes para aná
En la charla realizada por Néstor Campos de Metric Arts (https://metricarts.com/), nos presentaron su producto Video Analytics y cómo utilizan Algoritmos de Machine Learning, junto a procesos y modelamientos de Visual Computing para poder realizar seguimiento de objetos y personas a través de video.
El documento describe los conceptos clave de minería de datos e incluye las siguientes secciones: (1) definición de minería de datos, (2) proceso de minería de datos, (3) características principales, (4) aplicaciones, (5) extracción de conocimiento en bases de datos (KDD), (6) técnicas como clasificación, agrupamiento, asociación, y (7) herramientas de software como Weka.
¿Qué es transformación digital?
¿Qué es ciencia de datos?
¿Qué es un científico de datos?
¿Qué es Machine Learning?
“Hola Mundo en Machine Learning”: Algoritmo de Clasificación
Demo: Algoritmo de Clasificación
La ciencia de datos combina múltiples campos como estadísticas, métodos científicos y análisis de datos para extraer valor de los datos. Los científicos de datos usan varios conocimientos para analizar datos de fuentes como la web y sensores. La ciencia de datos revela tendencias en los datos que permiten a las empresas tomar mejores decisiones y crear productos más innovadores.
Los trabajos que más peligro corren debido al avance de la Inteligencia Artificial son:
2. Cajero - Ya existen cajas automáticas y es previsible que en el futuro se automatice completamente este trabajo.
3. Cocinero en un restaurante - Algunas tareas como cortar verduras, freír alimentos o preparar ensaladas podrían automatizarse.
5. Traductor - La traducción automática ha avanzado mucho y es posible que en el futuro muchos traductores humanos sean reemplazados.
6. Radiologo - La
Este documento define y explica conceptos clave relacionados con la ciencia de datos, el aprendizaje automático y el big data. Explica que la ciencia de datos involucra el uso de computación, estadística, modelado y otras disciplinas para extraer información de grandes conjuntos de datos. También define aprendizaje automático, inteligencia artificial y big data, y describe algunas aplicaciones y tendencias en estos campos.
Como crear Plataformas Big Data y ML basadas en open source: como almacenar y gestionar grandes volúmenes de información con origenes de datos abiertos turisticos y externos de todo tipo: Redes, Telefonía, apps, vuelos, hoteles, estadisticos....
Introducción al análisis predictivo con SQL ServerEduardo Castro
Este documento presenta una introducción al análisis predictivo con SQL Server. Explica conceptos clave como minería de datos, modelado predictivo y análisis predictivo. Luego describe herramientas de análisis predictivo en SQL Server como árboles de decisión, regresión logística y agrupación. Finalmente, muestra ejemplos de cómo resolver problemas empresariales reales utilizando estas herramientas.
Este documento presenta un proyecto de minería de datos aplicado a la Encuesta Permanente de Hogares. Describe las herramientas de software utilizadas como DB2, DB2 Intelligent Miner y WebSphere. Explica cómo se aplicaron algoritmos de clustering y árboles de decisión a los datos de la encuesta para generar reglas sobre los ingresos y características socioeconómicas de la población. Concluye que las tecnologías permitieron obtener conocimiento sobre la población y que se pueden aplicar más técnicas de miner
Novedades tecnológicas de la información y las comunicaciones, avances, descubrimientos, opiniones, comentarios, ofertas de productos, servicios y mucho más.
Conferencia impartida como parte de las actividades realizadas por el 52 aniversario de la Facultad de Ciencias Puras y Naturales de la Universidad Mayor de San Andrés (UMSA).
Descubriendo el corazón de la optimización “Estadísticas más que un concepto”SpanishPASSVC
El documento habla sobre las estadísticas en las bases de datos y su importancia para la optimización de consultas. Explica que las estadísticas representan la distribución de datos en columnas y ayudan al optimizador a determinar la selectividad, cardinalidad y densidad de los datos. También cubre cómo crear estadísticas de forma automática o manual, leer estadísticas existentes y mantenerlas de forma automática u manual para que reflejen los cambios en los datos.
El documento presenta una introducción al machine learning. Explica que el machine learning permite identificar patrones en grandes volúmenes de datos para predecir resultados mediante aprendizaje automático. Se detalla que el curso enseñará conceptos de machine learning, el proceso de desarrollo de modelos, y el uso de Python para aplicar machine learning a casos reales. Los estudiantes aprenderán diferentes técnicas de machine learning supervisado y no supervisado, y cómo construir y evaluar modelos predictivos para consolidar los conocimientos adquiridos.
"Educación y datos masivos (Big Data)" - Fernando SantamariaNivel 7
En esta conferencia haremos un repaso de las características de los datos masivos, de sus conceptos emergentes que surgen alrededor, de sus ventajas y desventajas, de los efectos y consecuencias que tendrá sobre los sistemas educativos y de los peligros vistos desde nuestra estructura mental y social que es de pre-datos masivos.
Los datos masivos (Big Data) están cambiando la forma de acceder, comprender, planificar y también la forma de vivir. Este nuevo paradigma están entrando de lleno en todos los ámbitos sociales. El mundo académico y de aprendizaje no va ser menos. La analítica del aprendizaje y académico está focalizado en la educación. En esta presentación (en beta) presentamos en MoodleMoot 2014 Colombia para dar a conocer todo este ecosistema del dato.
"Educación y datos masivos (Big Data)" - Fernando SantamariaNivel 7
En esta conferencia haremos un repaso de las características de los datos masivos, de sus conceptos emergentes que surgen alrededor, de sus ventajas y desventajas, de los efectos y consecuencias que tendrá sobre los sistemas educativos y de los peligros vistos desde nuestra estructura mental y social que es de pre-datos masivos.
El análisis de datos se originó en 1904 con el método de análisis de factores de Spearman y se define como el proceso de recopilar, limpiar y transformar datos para resaltar información útil y sacar conclusiones que ayuden en la toma de decisiones. Involucra etapas como la entrada, preparación y exploración de datos mediante métodos cualitativos, cuantitativos y predictivos, utilizando herramientas como Power BI y algoritmos para identificar patrones. Tiene muchas aplicaciones y ventajas como una mayor rapidez para tomar decisiones
MACHINE LEARNING (Aprendizaje Automático) es la ciencia que permite que las computadoras aprendan y actúen como lo hacen los humanos, mejorando su aprendizaje a lo largo del tiempo de una forma autónoma, alimentándolas con datos e información en forma de observaciones e interacciones con el mundo real.
Este documento describe la minería de datos como una técnica para extraer conocimiento y patrones de grandes conjuntos de datos. Explica que la minería de datos involucra etapas como la selección, preparación y análisis de datos, la aplicación de técnicas como redes neuronales, árboles de decisión y agrupamiento, y la interpretación de los resultados. Finalmente, discute ejemplos de cómo se usa la minería de datos en contextos como la detección de sospechosos por parte de la policía.
La Minería de Datos en la Analítica PredictivaLPI ONG
El documento describe la minería de datos y su importancia en el análisis predictivo. La minería de datos es el proceso de descubrir patrones y comportamientos en grandes volúmenes de datos usando computadoras e inteligencia artificial. Una metodología importante para proyectos de minería de datos es CRISP-DM, la cual divide el proceso en 6 etapas como entendimiento del negocio, preparación de datos, modelado y evaluación. Las técnicas comunes de minería de datos incluyen detección de anomalías, aprendizaje
En esta plática hablo sobre lo que es el Machine Learning y cómo puede ayudarnos para resolver problemas de clasificación, predicción y detección de anomalías en función de los datos que tenemos. Además, hablamos de Azure Machine Learning como plataforma para simplificar la creación de experimentos de ML, así como su consumo en una app móvil.
Video de la charla: https://youtu.be/zC-18rxvOpY
Código fuente en GitHub: https://github.com/icebeam7/CalificacionesApp
Exposicion mineria de datos - Franklin Rodríguez Ana Delgado
Este documento describe la minería de datos. Se define como un proceso que intenta descubrir patrones en grandes volúmenes de datos para extraer información útil. Se explican algunas técnicas comunes como redes neuronales, árboles de decisión y algoritmos supervisados y no supervisados. También se mencionan algunos dominios de aplicación como finanzas, mercadeo y medicina.
Este documento presenta una introducción a la minería de datos y el modelado predictivo usando regresión lineal. Explica qué es la minería de datos, su historia y su importancia. Luego, describe el objetivo de la minería de datos y los tipos de modelos que se pueden desarrollar, incluyendo la regresión lineal. Finalmente, muestra un ejemplo práctico de la implementación de un modelo de regresión lineal en R para predecir el tamaño de naranjas basado en su edad.
Este documento presenta una charla sobre las lecciones aprendidas en proyectos de ciencia de datos. Explica brevemente conceptos clave como aprendizaje automático, fases típicas de un proyecto y desafíos comunes como definir claramente el problema, limpiar y entender los datos, seleccionar adecuadamente los algoritmos y métricas de evaluación, y utilizar correctamente conjuntos de entrenamiento, validación y prueba. También menciona cómo el contexto de Big Data introduce nuevos retos tecnológicos.
El documento publicado por el Dr. Gabriel Toro aborda los priones y las enfermedades relacionadas con estos agentes infecciosos. Los priones son proteínas mal plegadas que pueden inducir el plegamiento incorrecto de otras proteínas normales en el cerebro, llevando a enfermedades neurodegenerativas mortales. El Dr. Toro examina tanto la estructura y función de los priones como su capacidad para propagarse y causar enfermedades devastadoras como la enfermedad de Creutzfeldt-Jakob, la encefalopatía espongiforme bovina (conocida como "enfermedad de las vacas locas"), y el síndrome de Gerstmann-Sträussler-Scheinker. En el documento, se exploran los mecanismos moleculares detrás de la replicación de los priones, así como las implicaciones para la salud pública y la investigación en tratamientos potenciales. Además, el Dr. Toro analiza los desafíos y avances en el diagnóstico y manejo de estas enfermedades priónicas, destacando la necesidad de una mayor comprensión y desarrollo de terapias eficaces.
Más contenido relacionado
Similar a slides-espanol-curso-introduccion-machine-learning-por-mindsdb_8c5ff985-0581-4977-9ecf-53dd1817fc3f.pdf
Como crear Plataformas Big Data y ML basadas en open source: como almacenar y gestionar grandes volúmenes de información con origenes de datos abiertos turisticos y externos de todo tipo: Redes, Telefonía, apps, vuelos, hoteles, estadisticos....
Introducción al análisis predictivo con SQL ServerEduardo Castro
Este documento presenta una introducción al análisis predictivo con SQL Server. Explica conceptos clave como minería de datos, modelado predictivo y análisis predictivo. Luego describe herramientas de análisis predictivo en SQL Server como árboles de decisión, regresión logística y agrupación. Finalmente, muestra ejemplos de cómo resolver problemas empresariales reales utilizando estas herramientas.
Este documento presenta un proyecto de minería de datos aplicado a la Encuesta Permanente de Hogares. Describe las herramientas de software utilizadas como DB2, DB2 Intelligent Miner y WebSphere. Explica cómo se aplicaron algoritmos de clustering y árboles de decisión a los datos de la encuesta para generar reglas sobre los ingresos y características socioeconómicas de la población. Concluye que las tecnologías permitieron obtener conocimiento sobre la población y que se pueden aplicar más técnicas de miner
Novedades tecnológicas de la información y las comunicaciones, avances, descubrimientos, opiniones, comentarios, ofertas de productos, servicios y mucho más.
Conferencia impartida como parte de las actividades realizadas por el 52 aniversario de la Facultad de Ciencias Puras y Naturales de la Universidad Mayor de San Andrés (UMSA).
Descubriendo el corazón de la optimización “Estadísticas más que un concepto”SpanishPASSVC
El documento habla sobre las estadísticas en las bases de datos y su importancia para la optimización de consultas. Explica que las estadísticas representan la distribución de datos en columnas y ayudan al optimizador a determinar la selectividad, cardinalidad y densidad de los datos. También cubre cómo crear estadísticas de forma automática o manual, leer estadísticas existentes y mantenerlas de forma automática u manual para que reflejen los cambios en los datos.
El documento presenta una introducción al machine learning. Explica que el machine learning permite identificar patrones en grandes volúmenes de datos para predecir resultados mediante aprendizaje automático. Se detalla que el curso enseñará conceptos de machine learning, el proceso de desarrollo de modelos, y el uso de Python para aplicar machine learning a casos reales. Los estudiantes aprenderán diferentes técnicas de machine learning supervisado y no supervisado, y cómo construir y evaluar modelos predictivos para consolidar los conocimientos adquiridos.
"Educación y datos masivos (Big Data)" - Fernando SantamariaNivel 7
En esta conferencia haremos un repaso de las características de los datos masivos, de sus conceptos emergentes que surgen alrededor, de sus ventajas y desventajas, de los efectos y consecuencias que tendrá sobre los sistemas educativos y de los peligros vistos desde nuestra estructura mental y social que es de pre-datos masivos.
Los datos masivos (Big Data) están cambiando la forma de acceder, comprender, planificar y también la forma de vivir. Este nuevo paradigma están entrando de lleno en todos los ámbitos sociales. El mundo académico y de aprendizaje no va ser menos. La analítica del aprendizaje y académico está focalizado en la educación. En esta presentación (en beta) presentamos en MoodleMoot 2014 Colombia para dar a conocer todo este ecosistema del dato.
"Educación y datos masivos (Big Data)" - Fernando SantamariaNivel 7
En esta conferencia haremos un repaso de las características de los datos masivos, de sus conceptos emergentes que surgen alrededor, de sus ventajas y desventajas, de los efectos y consecuencias que tendrá sobre los sistemas educativos y de los peligros vistos desde nuestra estructura mental y social que es de pre-datos masivos.
El análisis de datos se originó en 1904 con el método de análisis de factores de Spearman y se define como el proceso de recopilar, limpiar y transformar datos para resaltar información útil y sacar conclusiones que ayuden en la toma de decisiones. Involucra etapas como la entrada, preparación y exploración de datos mediante métodos cualitativos, cuantitativos y predictivos, utilizando herramientas como Power BI y algoritmos para identificar patrones. Tiene muchas aplicaciones y ventajas como una mayor rapidez para tomar decisiones
MACHINE LEARNING (Aprendizaje Automático) es la ciencia que permite que las computadoras aprendan y actúen como lo hacen los humanos, mejorando su aprendizaje a lo largo del tiempo de una forma autónoma, alimentándolas con datos e información en forma de observaciones e interacciones con el mundo real.
Este documento describe la minería de datos como una técnica para extraer conocimiento y patrones de grandes conjuntos de datos. Explica que la minería de datos involucra etapas como la selección, preparación y análisis de datos, la aplicación de técnicas como redes neuronales, árboles de decisión y agrupamiento, y la interpretación de los resultados. Finalmente, discute ejemplos de cómo se usa la minería de datos en contextos como la detección de sospechosos por parte de la policía.
La Minería de Datos en la Analítica PredictivaLPI ONG
El documento describe la minería de datos y su importancia en el análisis predictivo. La minería de datos es el proceso de descubrir patrones y comportamientos en grandes volúmenes de datos usando computadoras e inteligencia artificial. Una metodología importante para proyectos de minería de datos es CRISP-DM, la cual divide el proceso en 6 etapas como entendimiento del negocio, preparación de datos, modelado y evaluación. Las técnicas comunes de minería de datos incluyen detección de anomalías, aprendizaje
En esta plática hablo sobre lo que es el Machine Learning y cómo puede ayudarnos para resolver problemas de clasificación, predicción y detección de anomalías en función de los datos que tenemos. Además, hablamos de Azure Machine Learning como plataforma para simplificar la creación de experimentos de ML, así como su consumo en una app móvil.
Video de la charla: https://youtu.be/zC-18rxvOpY
Código fuente en GitHub: https://github.com/icebeam7/CalificacionesApp
Exposicion mineria de datos - Franklin Rodríguez Ana Delgado
Este documento describe la minería de datos. Se define como un proceso que intenta descubrir patrones en grandes volúmenes de datos para extraer información útil. Se explican algunas técnicas comunes como redes neuronales, árboles de decisión y algoritmos supervisados y no supervisados. También se mencionan algunos dominios de aplicación como finanzas, mercadeo y medicina.
Este documento presenta una introducción a la minería de datos y el modelado predictivo usando regresión lineal. Explica qué es la minería de datos, su historia y su importancia. Luego, describe el objetivo de la minería de datos y los tipos de modelos que se pueden desarrollar, incluyendo la regresión lineal. Finalmente, muestra un ejemplo práctico de la implementación de un modelo de regresión lineal en R para predecir el tamaño de naranjas basado en su edad.
Este documento presenta una charla sobre las lecciones aprendidas en proyectos de ciencia de datos. Explica brevemente conceptos clave como aprendizaje automático, fases típicas de un proyecto y desafíos comunes como definir claramente el problema, limpiar y entender los datos, seleccionar adecuadamente los algoritmos y métricas de evaluación, y utilizar correctamente conjuntos de entrenamiento, validación y prueba. También menciona cómo el contexto de Big Data introduce nuevos retos tecnológicos.
Similar a slides-espanol-curso-introduccion-machine-learning-por-mindsdb_8c5ff985-0581-4977-9ecf-53dd1817fc3f.pdf (20)
El documento publicado por el Dr. Gabriel Toro aborda los priones y las enfermedades relacionadas con estos agentes infecciosos. Los priones son proteínas mal plegadas que pueden inducir el plegamiento incorrecto de otras proteínas normales en el cerebro, llevando a enfermedades neurodegenerativas mortales. El Dr. Toro examina tanto la estructura y función de los priones como su capacidad para propagarse y causar enfermedades devastadoras como la enfermedad de Creutzfeldt-Jakob, la encefalopatía espongiforme bovina (conocida como "enfermedad de las vacas locas"), y el síndrome de Gerstmann-Sträussler-Scheinker. En el documento, se exploran los mecanismos moleculares detrás de la replicación de los priones, así como las implicaciones para la salud pública y la investigación en tratamientos potenciales. Además, el Dr. Toro analiza los desafíos y avances en el diagnóstico y manejo de estas enfermedades priónicas, destacando la necesidad de una mayor comprensión y desarrollo de terapias eficaces.
Esta exposición tiene como objetivo educar y concienciar al público sobre la dualidad del oxígeno en la biología humana. A través de una mezcla de ciencia, historia y tecnología, se busca inspirar a los visitantes a apreciar la complejidad del oxígeno y a adoptar estilos de vida que promuevan un equilibrio saludable entre sus beneficios y sus potenciales riesgos.
¡Únete a nosotros para descubrir cómo el oxígeno puede ser tanto un salvador como un destructor, y qué podemos hacer para maximizar sus beneficios y minimizar sus daños!
Esta presentación nos informa sobre los pólipos nasales, estos son crecimientos benignos en el revestimiento de los senos paranasales o fosas nasales, causados por inflamación crónica debido a alergias, infecciones o asma.
Priones, definiciones y la enfermedad de las vacas locasalexandrajunchaya3
Durante este trabajo de la doctora Mar junto con la coordinadora Hidalgo, se presenta un didáctico documento en donde repasaremos la definición de este misterio de la biología y medicina. Proteinas que al tener una estructura incorrecta, pueden esparcir esta estructura no adecuada, generando huecos en el cerebro, de esta manera creando el tejido espongiforme.
3. Objetivos de este curso
Nuestros objetivos son:
● Aprender a preparar datos y visualizarlos.
● Entender diferentes algoritmos de machine
learning.
● Explorar deep learning y redes neuronales.
5. ¿Qué es machine learning?
Machine learning es la ciencia de
usar algoritmos para identificar
patrones en datos con el fin de
resolver un problema de interés.
6. Features:
Descriptores de tus datos
que pueden ayudarte en la
tarea que quieres resolver.
Aprendizaje no
supervisado
Aprendizaje
supervisado
X1
X1 X
2
X
2
Referencias:
Figure adapted: B. Qian et al. “Orchestrating the
Development Lifecycle of Machine Learning-Based
IoT Applications: A Taxonomy and Survey”, ArXiv
(2019)
7. Machine learning es usado
actualmente en la vida
de todo mundo
Emails de spam cuestan a empresas cerca de
$21 mil millones de dólares [1, 2] en 2021.
8. En 2015 Google dijo que
puede identificar el 99.9%
de emails de spam. [3]
Referencias:
[1] Statistic from Radicati Group, Nucleus Research
[2] Joseph Johnson. “Number of sent and received e-mails per day worldwide from 2017 to 2025”, Statista (2021)
[3] Cade Metz. “Google Says Its AI Catches 99.9 Percent of Gmail Spam”. Wired (2015)
9. Estimado cliente de
BigBanking,
Hemos detectado una
actividad sospechosa en su
cuenta.
Por favor, haga clic en el
siguiente enlace y
proporcione sus datos
bancarios.
Lo mejor,
XXX
Estimado cliente,
Su cambio de contraseña
ha sido aceptado. Gracias
por utilizar los servicios de
BigBanking.
Lo mejor,
XXX
Spam Normal
10. Historia del machine learning
Referencias:
Figure adapted from Kelly Nguyen. “The History of Machine Learning: A Timeline”, Experian (2020)
Patricia Jean Eckhart, “Tiled DANNA: Dynamic Adaptive Neural Network Array Scaled Across Multiple Chips”, Master’s
Thesis, The University of Tennessee, Knoxville (2017)
Dr. Paul Marsden. “Artificial Intelligence Timeline Infographic – From Eliza to Tay and beyond” (2017)
1940-1950
IBM crea el
primer
programa
exitoso para
jugar damas.
1990s
1960s
1940s 2020s
~1959
Arthur Samuel
usa el término
“machine
learning”.
1990-2020
● Roombas son las primeras aspiradoras
autónomas producidas en masa.
● Crecimiento de asistentes personales
(Siri, Alexa).
● AlphaGo vence al campeón mundial en
el complejo juego de Go con cerca de
2170
posibles posiciones jugables.
11. Machine learning
sigue creciendo
2014 2015 2016 2017 2018 2019
25
20
15
10
5
0
Financiamiento en AI/ML startups
Financiamiento
(M)
Año
Referencias:
Figure adapted from:
Khari Johnson. “CB
Insights: AI startup
funding hit new high of
$26.6 billion in 2019”,
VentureBeat (2020)
12. El mercado para machine
learning sigue creciendo
Top 10 de habilidades tech de 2020 [2]
● Python
● React (web)
● Angular
● Machine learning
● Docker
● Django
● CompTia
● Amazon AWS
● Deep learning
● React Native (mobile)
Referencias:
Figure adapted from: Louis Columbus. “AI Skills Among The Most In-Demand
For 2020” Forbes (2019) from Udemy
13. Resumen
● Modelos de ML encuentran patrones
en datos para resolver problemas.
● Los modelos aprenden patrones de
los features.
● Machine learning (ML) es un campo
en crecimiento.
15. ● Data/Datos: unidades de información o “hechos” de
observaciones.
● Features: tipos de información acerca de tus
observaciones.
● Filas: observaciones individuales o muestras.
● Columnas: features que describen tus observaciones.
Terminología para
ciencia de datos
Referencias:
"Statistical Language - What are Data?". Australian Bureau of Statistics. 2013-07-13.
16. ● Outlier: punto(s) de datos o data point(s) que se
comporta de forma extraña.
● Pre-processing: preparar datos para su uso en un
modelo de machine learning.
● ETL pipeline: framework de data science para extraer,
transformar y cargar.
Terminología para
ciencia de datos
Referencias:
"Statistical Language - What are Data?". Australian Bureau of Statistics. 2013-07-13.
18. Referencias: Kaggle Diabetes Dataset by Mehmet A. (https://www.kaggle.com/mathchi/diabetes-data-set)
Fila: Ejemplo de 1
data point
Columnas:
Representan features de los aspectos de los datos.
Estos datos tienen 10 columnas.
Target: Variable de salida es la variable que te gustaría
predecir. No todos los datasets tienen un target.
0 6 148 72 35 0 33.6 NaN 0.627 50 1
1 1 85 66 29 0 26.6 NaN 0.351 31 0
2 8 183 64 0 0 23.3 NaN 0.672 32 1
3 1 89 66 23 94 28.1 NaN 0.167 21 0
4 0 137 40 35 168 43.1 NaN 2.288 33 1
Pregnancies
Glucose
Blood
Pressure
Skin
thickness
Insulin
BMI
Diabetes
Function
Age
Outcome
19. Tipos de datos
● Numéricos: su feature
es un número de tipo
entero o flotante.
● Categórica: sus
features representan
una clase o tipo;
usualmente se
representan como un
mapeo de números o
un “one-hot” vector.
● Image: su feature
representa una imagen.
● Texto: su feature es en
la forma de texto, sea
corto (como Twitter) o
largo (como en
noticias).
● NaN: su feature es
desconocido o perdido.
20. Convertir datos categóricos
en etiquetas
Estoy tomando datos del estado del tiempo de afuera.
Diario por 5 días. Etiqueto el clima si es “Soleado”,
“Lluvioso”, “Nublado”, o “Nevado”.
Día 1 Día 2 Día 3 Día 4 Día 5
Soleado Soleado Nublado Lluvioso Nevado
21. Convertir datos categóricos
en etiquetas
Etiqueto a cada tipo de clima con un número: “Soleado –
1”, “Lluvioso – 2”, “Nublado – 3”, y “Nevado – 4”. Así
puedo convertir mis datos en números:
Día 1 Día 2 Día 3 Día 4 Día 5
1 1 3 2 4
22. Convertir etiquetas en 1-hot
encodings (OHE)
“Soleado – 1”, “Lluvioso – 2”, “Nublado – 3”, and “Nevado – 4”
“El día 2 estuvo soleado y el día 3 estuvo nublado”
27. Visualización de datos –
Histogramas
● Te dice qué tan
“frecuentes” son
ciertos valores en
tus datos.
● Requiere de ti para
“agrupar” los datos.
28. Ejemplo de histograma
Contando el número de monedas en los bolsillos de un
grupo de personas. Obtengo los siguientes datos, x:
Creamos algunos contenedores o grupos. Son:
Tiene
0 monedas
[0, 1)
Tiene
1 monedas
[1, 2)
Tiene
2 monedas
[2, 3)
Tiene
3 monedas
[3, 4)
Tiene más
de 4
monedas
[4, 11]
N = 1 N = 2 N = 3 N = 2 N = 5
29. Visualización de datos –
Gráficas de dispersión
● Muestra la relación
entre 2 features
graficándolos como
pares ordenados.
● En cada eje, un
feature.
● Te puede ayudar a
detectar anomalías.
Age Blood Pressure
Age
Blood Pressure
30. Ejemplo de gráfica
de dispersión
¿Cuál es la relación entre x y y?
x - Input feature
y - output target
xi
- input feature para ith
data point
yi
- output target para ith
data point
31. Resumen
● Pandas ayuda a cargar y analizar datos.
● Histogramas ayudan a ver la distribución
de un feature.
● Gráficas de dispersión permiten ver la
relación entre dos features.
34. Aprendizaje supervisado
El modelo obtiene features de entrada y salida.
Hay un target/objetivo a predecir.
● Regresión:
Target output (objetivo de salida) es numérico.
● Clasificación:
Target output es una etiqueta.
35. Retención de
clientes
Clasificación de
imágenes
Detección de fraude de
identidad Diagnósticos
Clasificación
Aprendizaje
supervisado
Estimación de
esperanza de vida
Advertising
popularity prediction
Pronósticos de
temperatura
Pronósticos de
mercado
Regresión
Machine
learning
Referencias:
Figure adapted: Sukunya Bag “Which Machine
Learning Algorithm Should You Use By Problem
Type?”. Medium (2020)
36. Aprendizaje no supervisado
Objetivo desconocido, queremos encontrar estructura
y grupos dentro de los datos.
● Clustering:
Queremos encontrar grupos en los datos.
● Dimensionality reduction:
Queremos encontrar qué features de entrada en los
datos son de ayuda.
39. Resumen
● Algoritmos de machine learning generalmente
son supervisados o no supervisados.
● Algoritmos supervisados predicen un objetivo
o target. Pueden ser de regresión o
clasificación.
● Algoritmos no supervisados predicen patrones
o estructura en los datos. Generalmente son de
clustering o dimensionality reduction.
41. Resumen de módulo
● Los modelos de machine learning encuentran
patrones en datos para resolver problemas.
● La visualización de datos con gráficas nos
ayuda a entender qué relación existe antes de
entrenar un modelo.
● Los modelos usualmente son supervisados
(con un objetivo) o no supervisados (sin un
objetivo).
43. Objetivos de este módulo
1. Los “ingredientes” de los algoritmos de machine
learning.
2. Algoritmos de aprendizaje supervisado.
3. Algoritmos de aprendizaje no supervisado.
44. Receta de algoritmos ML
1. Proceso de decisión: cómo los modelos hacen una
predicción, o retornan una respuesta, usando los
parámetros.
2. Función de error/coste: cómo evaluar si los parámetros
en el modelo generan buenas predicciones.
3. Regla de actualización: cómo mejorar los parámetros
para hacer mejores predicciones (usando optimización
numérica).
Referencias:
[1] Michael Tamir. “What is Machine Learning?” Hosted by UC Berkeley School of Information (2020)
45. Normalizar tus datos numéricos
Para cada columna de tu dataset con valores numéricos:
1. Calcular el promedio de tus datos (μ).
2. Calcular la desviación estándar (σ) de tus datos.
3. Para cada punto de datos, realizar:
46. Preparar tus datos
para modelos
Original Data Set
Training Validation Testing
● Training: (60-80%) datos de los que el modelo aprende patrones.
● Validation: (0-20%) datos que usas para verificar que el modelo
aprende.
● Testing: (0-20%) datos que se apartan para revisar si el modelo
fue exitoso al predecir.
48. Regresión lineal:
bases
Referencias:
[1] Laerd Statistics. “Linear Regression Analysis using SPSS Statistics” (2014)
x
y
Lineal - positiva Lineal - negativa No lineal
Mientras x
crece, y crece.
Mientras x crece,
y disminuye.
x
y
x
y
49. Regresión lineal: parámetros
Diferentes parámetros
cambian lo que pensamos
de la relación entre input
features (x) y el output
target (ypred
).
W1
= un cambio en “x” resulta
un cambio en “y”
W0
= El valor de “y” si “x” es 0
50. Regresión lineal:
función de coste
Referencias:
[1] Adapted from Mayank Tripathi. “Understanding Linear Regression with Python: Practical Guide 2”. Data Science
Foundation (2020)
Mean- square Error
(MSE) Loss:
El costo (∈ ) es la
diferencia entre el valor
del target (yi
) y el valor
predecido de nuestra
línea (ypred
)
51. Regresión lineal:
regla de actualización
Queremos minimizar la
distancia yi , pred
sobre
cada punto de datos en
entrenamiento.
Cambiamos w0
y w1
hasta encontrar una
suma de distancia
menor.
52. Regresión lineal:
rendimiento
Referencias:
[1] Figure from Dan Shiebler. “R and R^2, the relationship between correlation and the coefficient of determination.”
Personal Blog (http://danshiebler.com/) (2017)
MSE and R2
ayudan
a identificar la
fortaleza de la
relación entre
features de entrada y
de salida.
53. Proceso de decisión:
Una función para predecir el target de
salida basada en features de entrada.
Repaso: ingredientes de la
regresión lineal
Regla de actualización:
Encuentra valores w, w0
que
mejoren las predicciones.
Función de error/coste:
El promedio de qué tan
bien se predice el target.
57. Regresión logística:
parámetros
La salida es la
probabilidad para cada
entrada (estudiante)
Para etiquetar decimos
que cualquiera “arriba”
de 0.5 pasará; y por
debajo, no lo hará.
58. Regresión logística: función de
coste y regla de actualización
Sumatoria
sobre todos los
puntos de
datos (todos
los N
estudiantes).
Si el
estudiante ha
pasado el
examen, este
término no es
0.
Si el estudiante
no ha pasado es
“no pasando”.
Este término no
es 0.
59. Regresión logística: función de
coste y regla de actualización
Encuentra los valores w y w0
que mejor
predicen la probabilidad.
61. Repaso: ingredientes de la
regresión logística
Proceso de decisión:
probabilidad de que un
estudiante pase (y=1).
Función de error/coste el
promedio de qué tan bien
se predice que un
estudiante pasa.
Regla de actualización:
encuentra valores w and
w0
que mejor predicen
esta probabilidad.
63. Árboles de decisión: bases
B B
G
G B
B B
B
¿Es azul?
¿Es círculo?
Sí
No
Sí
No
Nodo hoja
La etiqueta de
asignación
B
G
G
B
B G
G
Nodo de decisión
Parte los datos
67. Árboles de decisión: bases
Los conjuntos nos
permiten "votar" por la
respuesta correcta.
6 árboles predicen 1;
3 árboles predicen 0
Respuesta final: 1
68. Árboles de decisión:
parámetros
Número de árboles:
más árboles, menor la
variación, pero más cómputo.
Max features:
El número de features usados
para partir (split).
Max depth:
El número de niveles del árbol
de decisión.
69. Nsplit
= Min samples split:
Número de data points que un
nodo debe tener antes de
dividirse.
nmin
= Min samples leaf:
El mínimo número de muestras
requeridas para estar en una
hoja (leaf).
Árboles de decisión:
parámetros
70. Árboles de decisión: función de
coste y regla de actualización
Función de coste: para un feature seleccionado
encuentra el mejor split-point (punto de separación)
y separa los datos en dos nodos más pequeños.
Regla de actualización: Si el nodo hoja tiene más de
nmin
puntos de datos, repite la función de coste, sino
para.
73. Repaso: ingredientes de
árbol de decisión
● Proceso de decisión:
De un subset de features aleatorios de tus datos elige un
feature. Divide tus datos.
● Función de error/coste:
Usar Gini o criterio de entropía para encontrar el mejor umbral
de separación de los datos.
● Regla de actualización:
Si los nodos hoja no tienen nmin
puntos de datos, repite el
proceso.
76. K-Means: bases
Referencias:
[1] R. K. Grewal. “Microarray data
analysis: Gaining biological insights”
(2013) Journal of Biomedical
Science and Engineering
06(10):996-1005
77. K-Means: parámetros
“K” se refiere al número de grupos que piensas existen en los datos.
Referencias:
[1] http://andysbrainblog.blogspot.com/2015/05/k-means-analysis-with-fmri-data.html
K=2 K=3 K=4
x1
x1
x1
x2
78. K-Means: función de coste
Función de distancia
(Euclideana)
Suma sobre todos
los clusters
1. Asigna cada punto de datos en un cluster.
2. Calcula los centroides como el promedio de los puntos
de datos.
Suma todos los puntos
de datos en un cluster j
Posición de un ith
punto de datos en
el cluster j
Posición del centroide
para el cluster j
79. K-Means: regla de
actualización
Colocar
(aleatoriamen
te) k
centroides
Calcular la
distancia de
cada punto
de datos a
cada
centroide
Asigna cada
punto de
datos a un
cluster
basado en la
distancia más
corta.
Computa
nuevos
centroides
como
promedios de
los miembros
del cluster.
Repetir hasta que los miembros asignados no cambien
80. X1
X2
K-Means: regla de
actualización
Referencias:
[1] Azika Amelia. “K-Means Clustering:
From A to Z Everything you need to know
about K-means clustering” Towards Data
Science (2018)
Link:
https://towardsdatascience.com/k-mean
s-clustering-from-a-to-z-f6242a314e9a
81. K-Means: rendimiento
Para 1 solo modelo
Inertia: qué tan cerca están los puntos de datos
al centroide. Este número se necesita pequeño.
Silhouette score: qué tan lejanos son los
clusters, de[-1, 1]. Este número debe ser cercano
a 1.
82. K-Means: rendimiento
Tasa de cambio más
lenta para número de
clusters
Solo para más
de 1 modelo
Idealmente prueba
K-Means para diferente
número de k.
83. Repaso: ingredientes de
K-Means
Proceso de decisión:
● Calcular la distancia de cada punto de datos a cada centroide.
● Asignar cada punto de datos al centroide más cercano.
● Calcular los nuevos centroides promediando los puntos de
datos asignados al cluster.
Función de coste/error:
Minimizar la distancia de
los puntos de datos a los
clusters.
Regla de actualización:
Repite el proceso de
decisión hasta que los
puntos de datos asignados
a cada cluster sean los
mismos.
84. Reto: aplicar machine learning
al Iris dataset
References:
[1] R.A. Fisher. UCI Machine learning Repository (https://archive.ics.uci.edu/ml/datasets/iris) (1988)
[2] Figure from Yong Cui. “The Iris Dataset — A Little Bit of History and Biology” Towards Data Science, 2020
Queremos identificar especies de plantas con 4 features:
longitud del sépalo, ancho del sépalo, longitud del pétalo, ancho del pétalo.
86. Resumen de módulo
● 3 ingredientes para problemas de ML (proceso
de decisión, función de coste, regla de
actualización).
● Algoritmos de aprendizaje supervisado
(regresión lineal, regresión logística, árboles de
decisión).
● Algoritmos de aprendizaje no supervisado
(K-means clustering).
88. Objetivos de este módulo
1. Entender arquitectura básica de una red neuronal.
2. Entender cómo funciona el entrenamiento de redes
neuronales.
3. Explorar cómo mejorar las redes neuronales.
89. Capa de entrada Capa de salida
Capa oculta
“Neurona” o nodo
“Conexión” o Edge
Valor de
salida
predecido
Una red neuronal es un modelo que usa neuronas y
conexiones entre ellos para hacer predicciones.
Son usadas usualmente para aprendizaje supervisado.
90. Redes neuronales:
un ejemplo
Queremos predecir si a alguien le gustará un anuncio (ad)
basado en su historial de compra.
Edad
Salario
Dinero gastado
previamente
Número de
objetos
comprados
91. Capa de entrada a una
unidad oculta
Edad
Salario
Dinero gastado
previamente
Número de
objetos
comprados
Los pesos gobiernan la
fuerza de una conexión
entre nodos. Pesos altos
== conexión fuerte.
La unidad escondida
(nodo) acepta una
combinación lineal de
nodos adjuntos
previamente a él.
92. Capa de entrada: un ejemplo
Edad
Salario
Conocemos esto de un
cliente:
● Edad: 23 años
● Gana $35,000 dólares al
año.
● Nuevo cliente (sin dinero
gastado u objetos
comprados
previamente).
Dinero gastado
previamente
Número de
objetos
comprados
94. Cada unidad oculta recibe una
combinación lineal de todas las
entradas.
Para la misma entrada existen
diferentes pesos dependiendo de
cuál unidad oculta esté adjunta.
Estos pesos pueden ser distintos.
Ejemplo:
W2,3
⸺ El peso de la segunda
entrada a la tercera unidad.
Capa de entrada conecta con
múltiples unidades ocultas
95. Hidden units
perform a function
Combinación lineal de
nodos de la capa anterior
Función de
activación
La unidad oculta ejecuta una función en la combinación lineal (g1
(x)).
Esta función es una función de activación.
96. Tipos de función de
activación de capas ocultas
*Usar no linealidad para funciones complejas.
Función de activación “pasa” una señal.
97. Tipos de función de
activación de capas ocultas
Función de activación “pasa” una señal.
*Usar no linealidad para funciones complejas.
98. La predicción:
la capa de salida
Valor de
salida
predecido
Existen diferentes funciones de activación
para clasificación y regresión.
99. Tipos de función de activación
para la capa de salida
● Algunas funciones de activación tienen un
rango limitado (ex: softmax/sigmoide),
mientras que otras se extienden
indefinidamente (ReLUs, lineal).
101. Deep learning:
añadiendo más capas
Profundidad – agregar más capas.
Ancho– agregar más unidades ocultas.
Valor de
salida
predecido
Capa de
entrada
Capa de salida
Capa
oculta 1
Capa
oculta 2
Capa
oculta 3
x1
x2
x3
x4
o1
103. Entrenar neural networks
1. Escoge tu arquitectura.
2. La “receta” de entrenamiento.
3. Ajustar tu tasa de entrenamiento.
104. Escoge tu arquitectura
Convolucional
(CNNs)
Referencias:
[1] Fjodor van Veen and Stefan Leijnen. “The Neural Network Zoo”. The Asimov Institute (2016)
https://www.asimovinstitute.org/neural-network-zoo/
Recurrente
(RNNs)
Deep Feed-Forward
(DNNs)
105. Escoge tu arquitectura
References:
[1] Fjodor van Veen and Stefan Leijnen. “The Neural Network Zoo”. The Asimov Institute (2016)
https://www.asimovinstitute.org/neural-network-zoo/
Deep Feed-Forward
(DNNs) ● Funciones de
activación.
● Usada en muchos
problemas
complejos.
106. Escoge tu arquitectura
Convolucional
(CNNs)
Referencias:
[1] Fjodor van Veen and Stefan Leijnen. “The Neural Network Zoo”. The Asimov Institute (2016)
https://www.asimovinstitute.org/neural-network-zoo/
● Operador
convolucional/pool
y kernels.
● Usada en imágenes
y genómicos.
107. Escoge tu arquitectura
Referencias:
[1] Fjodor van Veen and Stefan Leijnen. “The Neural Network Zoo”. The Asimov Institute (2016)
https://www.asimovinstitute.org/neural-network-zoo/
Recurrente (RNNs)
● Celdas de
memoria/puerta.
● Representa
secuencias.
● Usada en lenguaje.
108. La receta para
redes neuronales
Preparar los
datos e inicializar
los pesos de la
red
Computar la
predicción “hacia
adelante”
Calcular la pérdida
Backpropagation para
ajustar los pesos
Revisar el
desempeño del
equipo de prueba
¿Cambia el
desempeño
de pérdida
/validación?
1 época/epoch
Sí
110. Función de pérdida (error/coste)
Error cuadrático medio (MSE)
Para regresión. Diferencia en valor verdadero versus
predecido.
111. Función de pérdida (error/coste)
Binary Cross-Entropy (BCE)
Para clasificación. Calcula qué tan confiable el modelo
predice la probabilidad de una clase para 2 clases.
112. Para clasificación. Similar a BCE, pero para más de 2
etiquetas.
Función de pérdida (error/coste)
Categorical Cross-Entropy (CCE)
114. Backpropagation
Actualizamos cada peso en la red tomando
la derivada (parcial) de ello con respecto a
cada nodo, empezando desde la salida hacia
atrás hasta las entradas.
115. Analogía de la
tasa de aprendizaje
Referencias:
[1] Figure generated by Alec Radford; Hosted on Deniz Yuret’s Homepage
http://www.denizyuret.com/2015/03/alec-radfords-animations-for.html
La optimización se usa para
encontrar pesos de acuerdo a
las reglas de actualización.
● Si la tasa de aprendizaje
(learning rate) es muy
pequeña, toma mucho
tiempo encontrar buenos
pesos.
● Si es muy grande, el
modelo podría atorarse
en una mala solución.
117. Dropout protege
ante el overfitting
ReferencIas:
[1] Figure adapted from OlexSys “Data/Parameter Ratio”
https://www.olexsys.org/olex2/docs/reference/diagnosti
cs/data-parameter-ratio/
Las redes neuronales tienden al overfitting porque tienen muchos parámetros.
Dropout aleatoriamente “ignora”
algunos nodos mientras entrena.
118. Prevenir el overfitting
Referencias:
[1] Figure adapted from
KnimeAnalytics “How
to generate Accuracy
Curve by Epoch to
detect Overfitting with
Training & Validation
Data”
https://forum.knime.co
m/t/how-to-generate-a
ccuracy-curve-by-epoc
h-to-detect-overfitting-
with-training-validation-
data/11916
Rendimiento
Número de épocas
Rendimiento de
entrenamiento
Rendimiento de
validación
Detener
entrenamiento
120. Resumen del módulo
● Las redes neuronales tienen tres capas generales:
entrada, ocultas, salida.
● Funciones de activación para capas ocultas y de
salida.
● Entrenar involucra avanzar en la red, calcular la
pérdida y backpropagation.
● Tasa de aprendizaje y dropout son importantes para
el entrenamiento.
● Revisar la pérdida y el rendimiento en el set de
validación.
122. Qué aprendimos
● Bases de ciencia de datos y visualizaciones.
● Algoritmos de aprendizaje supervisado.
● Algoritmos de aprendizaje no supervisado.
● Redes neuronales y deep learning.
123. Qué más aprender
● Uso práctico y avanzado de
algoritmos de machine learning y
redes neuronales.
● Uso avanzado de librerías ML
como scikit-learn y TensorFlow.
● Despliegue de aplicaciones de ML.
● Procesamiento de lenguaje natural
y más.