SlideShare una empresa de Scribd logo
1 de 30
Descargar para leer sin conexión
Aprendizaje automático I
ODS 12, 13
Tema 3: Algoritmos de Aprendizaje
Automático Supervisado
2
Tema 3: Aprendizaje Automático Supervisado
Overfitting o
sobrejuste
Introducción
Clasificación y
Regresión
Ejemplos en
Python
Algoritmos de
Machine
Learning
Supervisado
Conceptos principales
Aprendizaje Automático Supervisado
4
• El aprendizaje automático Supervisado es uno de los
más utilizados y exitosos entre los distintos tipos de
machine learning. Incluye un conjunto variado de
algoritmos, como veremos durante el tema. En el
Tema 2 anterior hemos visto un caso práctico
precisamente de este tipo
• En el aprendizaje Supervisado queremos realizar una
predicción del resultado a partir de unos datos de
entrada o input, basándonos en ejemplos de pares
entrada-resultado ya conocidos
• Construimos un modelo en base a estos datos ya
etiquetados, con un conjunto de ejemplos del
resultado correspondiente a una variable o input de
entrada, que nos sirven para entrenar el algoritmo.
Nuestro objetivo es poder aplicar luego el modelo
para nuevos datos de entrada, de los cuales no se
conoce el resultado previamente
• Estos modelos requieren la participación humana
para ser entrenados, pero después permiten
automatizar y eficientar tareas
Clasificación vs Regresión
5
Clasificación Regresión
• Dependiendo del tipo de etiqueta, dentro del aprendizaje supervisado existen dos tipos de modelos:
• Los modelos de clasificación, que producen como salida una etiqueta discreta dentro de un conjunto finito de
etiquetas posibles. A su vez, los modelos de clasificación pueden ser binarios si tenemos que predecir entre dos
clases(enfermedad o no enfermedad, clasificación de correos como “spam” o no “spam”) o multiclase, cuando
se tiene que clasificar más de dos clases (clasificación de imágenes de animales, análisis de sentimientos, etc.)
• Los modelos de regresión, que producen como salida un valor numérico
Overfitting
6
• El modelo decimos que es capaz de generalizar si hace predicciones correctas con datos nuevos, a
partir de los datos de entrenamiento
• En el entrenamiento del algoritmo, construimos un modelo que realiza predicciones precisas sobre los
datos de entrenamiento. Si el modelo que construimos es muy complejo, puede ocurrir que sea muy
preciso con estos datos de entrenamiento, pero que luego no sea tan preciso con datos nuevos o los
datos de test. Veremos ejemplos de esto. Decimos en estos casos que tenemos un sobreajuste o
overfitting
Ejemplo: underfitting y overfitting
7
• Vamos a estudiar un ejemplo sencillo con casos de underfitting y de overfitting
• Consideramos un problema sencillo del tipo y=f(x) (dos variables, una independiente, y la otra la dependiente
(que queremos modelizar)
Ejemplo: underfitting y overfitting
8
• Construimos los
modelos de
aprendizaje
automático
polinómicos para el
ejemplo (Regresión
polinómica
utilizando
LinearRegression):
Ejemplo: underfitting y overfitting
9
• El modelo de algoritmo de aprendizaje está sobregeneralizado (con desajuste o underfitting) si no puede generalizar
correctamente ni los datos de entrenamiento ni nuevas observaciones. En el ejemplo, para el caso de grado=1, usamos
una hipótesis lineal simple, que no representa los datos de entrenamiento reales y tendrá un rendimiento muy bajo
• Si nuestro algoritmo recuerda cada observación que se le mostró entonces tendrá un bajo rendimiento con nuevas
observaciones que estén fuera del set de datos de entrenamiento. A esto se le llama sobreajuste (overfitting). Por
ejemplo, un modelo polinómico de trigésimo grado (grado=30) pasa por la mayoría de los puntos y tiene una buena
puntuación en el set de entrenamiento pero cualquier otro dato fuera de esto tendrá un mal rendimiento.
Ejemplo: Complejidad y Overfitting
10
• Vamos a investigar otro ejemplo sobre la relación entre la complejidad y el sobreajuste. Utilizaremos los datos
del Breast Cancer dataset
Ejemplo: Complejidad y Overfitting
11
• La base de datos Wisconsin Breast Cancer se encuentra en los datasets de la librería scikit-learn. Contiene registros
médicos de tumores de pecho con cáncer. Están estiquetados (machine learning supervisado) con las clases benigno o
maligno. Los algortimos construidos aprenden a predecir si un tumor es cancerígeno a partir de varias variables o
características del tumor
Ejemplo: Complejidad y Overfitting
12
• En este ejemplo utilizaremos el algoritmo supervisado de k-NN (los k vecinos más cercanos, o k-Nearest Neighbors)
Nuevo
elemento a
clasificar
Ejemplo: Complejidad y Overfitting
13
• Utilizamos el algoritmo supervisado de k-NN (los k
vecinos más cercanos, o k-Nearest Neighbors). En los
ejercicios de evaluación del Tema 4 vamos a realizar una
práctica similar con otro algoritmo, los árboles de
decisión
• El gráfico calculado muestra la precisión (en %), según
el número de vecinos k de los distintos modelos. A
mayor valor de k, más complejidad del algoritmo
(utilizamos más elementos para definir la predicción del
modelo)
• Observamos que el modelo es muy preciso para los
datos de train con k=1 (cada elemento del dataset de
entrenamiento es parte del modelo), aunque no sirve
para predecir con datos nuevos de test. Se produce
claramente un sobreajuste o overfitting
• En cambio, en el otro extremos, si k es elevado (modelo
más simple, menos vecindarios), el modelo se
comporta mal en datos de train y de set. En este caso
tenemos un underfitting
Algoritmos de ML Supervisado
14
• A continuación algunos de los principales algoritmos utilizados en aprendizaje automático supervisado
• Algoritmos de Regresión Lineal
• Algoritmos de Regresión Logística
• Algoritmos de Naïve Bayes
• Máquinas de Vectores Soporte
• Árboles de Decisión
• kNN (k-Nearest Neighbor)
• Bosques Aleatorios (Random Forest)
• Algoritmos de Potenciación del Gradiente (Gradient Boost)
• Redes Neuronales
• Veremos el detalle de funcionamiento e implementación de algunos de estos algoritmos durante el curso
Algoritmos de Regresión Lineal
15
• Los algoritmos de regresión lineal muestran o predicen la relación
entre dos variables o factores ajustando o construyendo como
modelo una línea recta continua a los datos. La línea suele calcularse
con la función de coste del error cuadrático. La regresión lineal es
uno de los tipos de análisis de regresión más populares
• Aunque no vamos a ver los detalles de la formulación matemática
(en el Tema 4 podéis encontrar todo el proceso para otra categoría
de algoritmo), la función de coste o optimización en este caso es la
fórmula del error cuadrático de la ecuación. Se resuelve
numéricamente con la técnica de descenso por gradiente (gradient
descent)
https://youtu.be/MFXKcEeT-M0
Algoritmos de Regresión Logística
16
• En muchas ocasiones el problema real consiste en predecir datos
categóricos para obtener respuestas a preguntas como:
ü ¿Es un perro o un gato?
ü ¿Este tumor es maligno o benigno?
ü ¿Este email es spam o no?
• O incluso:
ü ¿Qué número está en esta foto?
• Todas estas preguntas son específicas del problema de clasificación. Y el
algoritmo de clasificación más sencillo se llama regresión logística, el cual
es muy similar a la regresión lineal excepto que tiene una hipótesis
diferente
• Regresión Logística Binaria: la variable objetivo tiene solo dos resultados
posible, Llueve o NO Llueve, Sube o Baja.
• Regresión Logística Multinomial: la variable objetivo tiene tres o más
categorías nominales, como predecir el tipo de vino.
• Regresión Logística Ordinal: la variable objetivo tiene tres o más categorías
ordinales, como clasificar un restaurante o un producto del 1 al 5
https://youtu.be/NgXNOlrYRh0
Algoritmos de Regresión Logística
17
• La Regresión Logística lleva el nombre de la función utilizada en el núcleo del método, la función
logística es también llamada función Sigmoide. Esta función es una curva en forma de S que puede
tomar cualquier número de valor real y asignar a un valor entre 0 y 1
• Si la salida de la función Sigmoide es mayor que 0.5, podemos clasificar el resultado como 1 o SI, y si es
menor que 0.5 podemos clasificarlo como 0 o NO. Por su parte si el resultado es 0.75, podemos decir en
términos de probabilidad como, hay un 75% de probabilidades
Algoritmos de Regresión Logística
18
• La Regresión Logística se formula matemáticamente:
Algoritmos de Naïve Bayes
19
• Los algoritmos de clasificación Naïve Bayes son similares a los
modelos lineales. Pero se centran en las estadísticas o
probabilidades de cada clase o categoría de etiqueta con cada
característica o variable independeiente por separado (supone
independencia entre las características)
• Asumir que el efecto de las características es independiente es una
simplificación (naïve), aunque facilita el cálculo para problemas
con datasets muy grandes
• Hay tres tipos principales: Gaussiana, Bernoulli i Multinomial,según
la hipótesis de distribbución de probabilidad p(xi | y)
https://youtu.be/949tYJgRvRg
Algoritmos de Naïve Bayes: ejemplo
20
• La fórmula de Bayes nos permite obtener las probabilidades condicionales
con cada variable
• Y, en base a estas, podremos hacer predicciones con nuevos datos:
¿Jugaremos hoy a golf?
Algoritmos de Naïve Bayes: ejemplo
21
• Y, en base a estas, podremos hacer predicciones con nuevos datos: ¿Jugaremos hoy a golf?
Algoritmos de Naïve Bayes: caso práctico flores Iris
22
Máquinas de Vectores Soporte (SVM)
23
• Los algoritmos Support Vector Machines (o SVM) utilizan un hiperplano
(lineal) para clasificar de manera óptima. El uso de kernels permiten
generalizaciones
• El objetivo sería crear un límite de decisión (una línea que separa las dos
clases de nuestros puntos de datos, como la línea dibujada)
• Buscamos el mejor límite de decisión como aquél que maximiza su
distancia desde cualquiera de los vectores de soporte. Los vectores de
soporte son puntos de datos de cada clase más cercanos a la clase
opuesta. Presentan el mayor riesgo de clasificación errónea debido a su
proximidad a la otra clase
• El entrenamiento de una máquina de vectores de soporte consiste en
encontrar una línea que maximice (optimice) el margen entre los vectores
de soporte
https://youtu.be/GOaIZqMh5PE
Máquinas de Vectores Soporte (SVM): kernels
24
• En los algoritmos Support Vector Machines (o SVM) existe una técnica avanzada que permite transformar los datos
originales mediante una función (kernel), de modo que la clasificación mediante SVM tenga mayor precisión
• Lo podemos ver en el siguiente ejemplo, dónde los datos no se separan fácilmente con una función lineal con los datos
originales. Pero si aplicando una transformación con la función kernel z
• Podéis ver el vídeo en el enlace para aprender más
https://youtu.be/YO1yAEKDA64
𝑧!
= 𝑥!
+ 𝑦!
Algoritmos kNN
25
• Los algoritmos de K vecinos más cercanos o kNN (k Nearest Neighbors) almacenan todos los puntos de
datos disponibles y clasifican cada punto de datos nuevo en función de los puntos de datos más
cercanos a él, medidos por una función de distancia
https://youtu.be/FHHuo7xEeo4
Redes Neuronales
26
• Una Red Neuronal (Neural network o NN) procesa los
datos de entrenamiento simulando el comportamiento
de un cerebro humano, mediante capas de nodos o
neuronas. Cada nodo consta de: inputs, pesos, un
escalón de activación (threshold), y un output. Si el valor
de salida o output supera el escalón o nivel de
activación, el nodo se activa, pasando los datos a la
siguiente capa de la red. Esta función de mapeo se
entrena con datos etiquetados. Utilizan funciones de
pérdida y métodos numéricos de gradiente
descendiente. Cuando la función de pérdida es cercana a
cero, el modelo es correcto
• Pueden utilizarse, además, en algunos problemas de
aprendizaje no-supervisado
https://youtu.be/dlxhyt8m0wo
Tema 3: Ejercicios de Clasificación y Regresión
• Ejercicio: consideramos las siguientes características de algoritmos. Para cada afirmación o
sentencia, indicar si corresponde a un algoritmo de Clasificación o Regresión
1. En el problema a resolver, las variables objetivo o dependientes son discretas
2. El resultado del modelo son valores continuos
3. El objetivo es predecir categorías o etiquetas de clases
4. Ejemplos de estos modelos son: predicción del precio de una acción en bolsa; predecir
el precio de un inmueble; predecir la cantidad de demanda de un producto
5. A este grupo pertenecen las regresiones lineales y no-lineales
Tema 3: Ejercicios de Clasificación y Regresión
• Ejercicio: consideramos el siguiente algoritmo en Python que implementa el modelo de aprendizaje
automático k-NN visto en el Tema 3. El programa nos muestra los resultados del modelo k-NN con
un número de parámetros n_neighbors creciente. Es decir, podemos observar en el gráfico la
precisión de los modelos ajustados, a medida que aumentamos la complejidad del algoritmo (más
parámetros n_neighbors)
Tema 3: Ejercicios de Clasificación y Regresión
• Comentar estos resultados. ¿Los modelos generalizan mejor a mayor complejidad?
Explicar brevemente
Sede Universitat Carlemany
Av. Verge de Canòlich, 47
AD600 Sant Julià de Lòria
Principat d’Andorra
Linkedin Facebook
+376 878 300

Más contenido relacionado

Similar a Aprendizaje automático I - Tema 3 Aprendizaje Automático Supervisado.pdf

2 como simular
2 como simular2 como simular
2 como simulardantori
 
The fisher assumptions and how to check them
The fisher assumptions and how to check themThe fisher assumptions and how to check them
The fisher assumptions and how to check themAlex
 
Mi primer modelo de clasificación utilizando regresión logística
Mi primer modelo de clasificación utilizando regresión logísticaMi primer modelo de clasificación utilizando regresión logística
Mi primer modelo de clasificación utilizando regresión logísticaJOSE AHIAS LOPEZ PORTILLO
 
capitulo v materiales y métodos
capitulo v materiales y métodoscapitulo v materiales y métodos
capitulo v materiales y métodosDiskCom - Negocios
 
TestingAR Meetup VIII - Luis Argerich - Una Breve Introducción a Machine Lear...
TestingAR Meetup VIII - Luis Argerich - Una Breve Introducción a Machine Lear...TestingAR Meetup VIII - Luis Argerich - Una Breve Introducción a Machine Lear...
TestingAR Meetup VIII - Luis Argerich - Una Breve Introducción a Machine Lear...TestingAR Meetup
 
Machine Learning para la Optimización y Mejora de Procesos
Machine Learning para la Optimización y Mejora de ProcesosMachine Learning para la Optimización y Mejora de Procesos
Machine Learning para la Optimización y Mejora de ProcesosMiguel Angel Patiño Antonioli
 
Modelos var y de corrección de error
Modelos var y de corrección de errorModelos var y de corrección de error
Modelos var y de corrección de errorkengy hurtado quispe
 
Teoria de optimizacion by. manuel rivas
Teoria de optimizacion by. manuel rivasTeoria de optimizacion by. manuel rivas
Teoria de optimizacion by. manuel rivasmanuelrivasv95
 
Teoría de Optimización
Teoría de OptimizaciónTeoría de Optimización
Teoría de OptimizaciónHector Farias
 
Javierperez teoría de la optimización
Javierperez teoría de la optimizaciónJavierperez teoría de la optimización
Javierperez teoría de la optimizaciónRobin Duben
 
S6 1 Intro Imput
S6  1 Intro ImputS6  1 Intro Imput
S6 1 Intro Imputtaecoep
 
Aprendizaje automático I - Sesión 2 Caso Práctico.pdf
Aprendizaje automático I - Sesión 2 Caso Práctico.pdfAprendizaje automático I - Sesión 2 Caso Práctico.pdf
Aprendizaje automático I - Sesión 2 Caso Práctico.pdfGerard Alba
 
Modelamiento predictivo en Analítica Predictiva
Modelamiento predictivo en Analítica PredictivaModelamiento predictivo en Analítica Predictiva
Modelamiento predictivo en Analítica PredictivaLPI ONG
 

Similar a Aprendizaje automático I - Tema 3 Aprendizaje Automático Supervisado.pdf (20)

Modelo de señal de entrada
Modelo de señal de entradaModelo de señal de entrada
Modelo de señal de entrada
 
2 como simular
2 como simular2 como simular
2 como simular
 
3401667.ppt
3401667.ppt3401667.ppt
3401667.ppt
 
The fisher assumptions and how to check them
The fisher assumptions and how to check themThe fisher assumptions and how to check them
The fisher assumptions and how to check them
 
Mi primer modelo de clasificación utilizando regresión logística
Mi primer modelo de clasificación utilizando regresión logísticaMi primer modelo de clasificación utilizando regresión logística
Mi primer modelo de clasificación utilizando regresión logística
 
capitulo v materiales y métodos
capitulo v materiales y métodoscapitulo v materiales y métodos
capitulo v materiales y métodos
 
TestingAR Meetup VIII - Luis Argerich - Una Breve Introducción a Machine Lear...
TestingAR Meetup VIII - Luis Argerich - Una Breve Introducción a Machine Lear...TestingAR Meetup VIII - Luis Argerich - Una Breve Introducción a Machine Lear...
TestingAR Meetup VIII - Luis Argerich - Una Breve Introducción a Machine Lear...
 
Informe - Investigacion de Operaciones
Informe - Investigacion de OperacionesInforme - Investigacion de Operaciones
Informe - Investigacion de Operaciones
 
Machine Learning para la Optimización y Mejora de Procesos
Machine Learning para la Optimización y Mejora de ProcesosMachine Learning para la Optimización y Mejora de Procesos
Machine Learning para la Optimización y Mejora de Procesos
 
Investigacion de operaciones_1_1
Investigacion de operaciones_1_1Investigacion de operaciones_1_1
Investigacion de operaciones_1_1
 
Modelos var y de corrección de error
Modelos var y de corrección de errorModelos var y de corrección de error
Modelos var y de corrección de error
 
Teoria de optimizacion by. manuel rivas
Teoria de optimizacion by. manuel rivasTeoria de optimizacion by. manuel rivas
Teoria de optimizacion by. manuel rivas
 
Teoría de Optimización
Teoría de OptimizaciónTeoría de Optimización
Teoría de Optimización
 
Capítulo viii simulacion montecarlo
Capítulo viii simulacion montecarloCapítulo viii simulacion montecarlo
Capítulo viii simulacion montecarlo
 
Pintar la Barda
Pintar la BardaPintar la Barda
Pintar la Barda
 
Javierperez teoría de la optimización
Javierperez teoría de la optimizaciónJavierperez teoría de la optimización
Javierperez teoría de la optimización
 
S6 1 Intro Imput
S6  1 Intro ImputS6  1 Intro Imput
S6 1 Intro Imput
 
UNIDAD I.pptx
UNIDAD I.pptxUNIDAD I.pptx
UNIDAD I.pptx
 
Aprendizaje automático I - Sesión 2 Caso Práctico.pdf
Aprendizaje automático I - Sesión 2 Caso Práctico.pdfAprendizaje automático I - Sesión 2 Caso Práctico.pdf
Aprendizaje automático I - Sesión 2 Caso Práctico.pdf
 
Modelamiento predictivo en Analítica Predictiva
Modelamiento predictivo en Analítica PredictivaModelamiento predictivo en Analítica Predictiva
Modelamiento predictivo en Analítica Predictiva
 

Más de Gerard Alba

TV2 - OOAD Case Study- Flight Systems.pdf
TV2 - OOAD Case Study- Flight Systems.pdfTV2 - OOAD Case Study- Flight Systems.pdf
TV2 - OOAD Case Study- Flight Systems.pdfGerard Alba
 
Module3 - Object Oriented Analysis & Functional Model.pdf
Module3 - Object Oriented Analysis & Functional Model.pdfModule3 - Object Oriented Analysis & Functional Model.pdf
Module3 - Object Oriented Analysis & Functional Model.pdfGerard Alba
 
Module1 - Introduction to Software Engineering.pdf
Module1 - Introduction to Software Engineering.pdfModule1 - Introduction to Software Engineering.pdf
Module1 - Introduction to Software Engineering.pdfGerard Alba
 
Aprendizaje automático I - Tema 6 Aprendizaje Automático K-Means.pdf
Aprendizaje automático I - Tema 6 Aprendizaje Automático K-Means.pdfAprendizaje automático I - Tema 6 Aprendizaje Automático K-Means.pdf
Aprendizaje automático I - Tema 6 Aprendizaje Automático K-Means.pdfGerard Alba
 
Aprendizaje automático I - Sesión 4 Árboles de Decisión.pdf
Aprendizaje automático I - Sesión 4 Árboles de Decisión.pdfAprendizaje automático I - Sesión 4 Árboles de Decisión.pdf
Aprendizaje automático I - Sesión 4 Árboles de Decisión.pdfGerard Alba
 
Aprendizaje automático I - Sesión 1 Intro.pdf
Aprendizaje automático I - Sesión 1 Intro.pdfAprendizaje automático I - Sesión 1 Intro.pdf
Aprendizaje automático I - Sesión 1 Intro.pdfGerard Alba
 
Algoritmos y Estructuras de Datos I - Sesión 1.pptx
Algoritmos y Estructuras de Datos I - Sesión 1.pptxAlgoritmos y Estructuras de Datos I - Sesión 1.pptx
Algoritmos y Estructuras de Datos I - Sesión 1.pptxGerard Alba
 
Master class Fintech
Master class FintechMaster class Fintech
Master class FintechGerard Alba
 
Machine Learning en Inversiones 20210414
Machine Learning en Inversiones 20210414Machine Learning en Inversiones 20210414
Machine Learning en Inversiones 20210414Gerard Alba
 
EFPA ESG Advisor - summary
EFPA ESG Advisor - summaryEFPA ESG Advisor - summary
EFPA ESG Advisor - summaryGerard Alba
 
Gestión de Carteras Óptimas - Roboadvisors
Gestión de Carteras Óptimas - RoboadvisorsGestión de Carteras Óptimas - Roboadvisors
Gestión de Carteras Óptimas - RoboadvisorsGerard Alba
 
Agenda lecture GA PETD digital transformation financial services 20190524
Agenda lecture GA PETD digital transformation financial services 20190524Agenda lecture GA PETD digital transformation financial services 20190524
Agenda lecture GA PETD digital transformation financial services 20190524Gerard Alba
 
Machine Learning in Investment Management March 2018
Machine Learning in Investment Management March 2018Machine Learning in Investment Management March 2018
Machine Learning in Investment Management March 2018Gerard Alba
 
Cinquanta anys d'Star Trek: un futur amb tipus d'interès negatius ja no és ci...
Cinquanta anys d'Star Trek: un futur amb tipus d'interès negatius ja no és ci...Cinquanta anys d'Star Trek: un futur amb tipus d'interès negatius ja no és ci...
Cinquanta anys d'Star Trek: un futur amb tipus d'interès negatius ja no és ci...Gerard Alba
 
Specialized Functions in Finance 201605
Specialized Functions in Finance 201605Specialized Functions in Finance 201605
Specialized Functions in Finance 201605Gerard Alba
 
ANDBANK Microfinance Fund
ANDBANK Microfinance FundANDBANK Microfinance Fund
ANDBANK Microfinance FundGerard Alba
 
2015 July 1st: launching of Sigma-Andbank European Equities for Israel investors
2015 July 1st: launching of Sigma-Andbank European Equities for Israel investors2015 July 1st: launching of Sigma-Andbank European Equities for Israel investors
2015 July 1st: launching of Sigma-Andbank European Equities for Israel investorsGerard Alba
 
Plan pensiones Andbank
Plan pensiones AndbankPlan pensiones Andbank
Plan pensiones AndbankGerard Alba
 
Andbank Funds UCITS - Flexible Allocation 201403
Andbank Funds UCITS - Flexible Allocation 201403Andbank Funds UCITS - Flexible Allocation 201403
Andbank Funds UCITS - Flexible Allocation 201403Gerard Alba
 
Fondos Andbank UCITS, Valencia 201403
Fondos Andbank UCITS, Valencia 201403Fondos Andbank UCITS, Valencia 201403
Fondos Andbank UCITS, Valencia 201403Gerard Alba
 

Más de Gerard Alba (20)

TV2 - OOAD Case Study- Flight Systems.pdf
TV2 - OOAD Case Study- Flight Systems.pdfTV2 - OOAD Case Study- Flight Systems.pdf
TV2 - OOAD Case Study- Flight Systems.pdf
 
Module3 - Object Oriented Analysis & Functional Model.pdf
Module3 - Object Oriented Analysis & Functional Model.pdfModule3 - Object Oriented Analysis & Functional Model.pdf
Module3 - Object Oriented Analysis & Functional Model.pdf
 
Module1 - Introduction to Software Engineering.pdf
Module1 - Introduction to Software Engineering.pdfModule1 - Introduction to Software Engineering.pdf
Module1 - Introduction to Software Engineering.pdf
 
Aprendizaje automático I - Tema 6 Aprendizaje Automático K-Means.pdf
Aprendizaje automático I - Tema 6 Aprendizaje Automático K-Means.pdfAprendizaje automático I - Tema 6 Aprendizaje Automático K-Means.pdf
Aprendizaje automático I - Tema 6 Aprendizaje Automático K-Means.pdf
 
Aprendizaje automático I - Sesión 4 Árboles de Decisión.pdf
Aprendizaje automático I - Sesión 4 Árboles de Decisión.pdfAprendizaje automático I - Sesión 4 Árboles de Decisión.pdf
Aprendizaje automático I - Sesión 4 Árboles de Decisión.pdf
 
Aprendizaje automático I - Sesión 1 Intro.pdf
Aprendizaje automático I - Sesión 1 Intro.pdfAprendizaje automático I - Sesión 1 Intro.pdf
Aprendizaje automático I - Sesión 1 Intro.pdf
 
Algoritmos y Estructuras de Datos I - Sesión 1.pptx
Algoritmos y Estructuras de Datos I - Sesión 1.pptxAlgoritmos y Estructuras de Datos I - Sesión 1.pptx
Algoritmos y Estructuras de Datos I - Sesión 1.pptx
 
Master class Fintech
Master class FintechMaster class Fintech
Master class Fintech
 
Machine Learning en Inversiones 20210414
Machine Learning en Inversiones 20210414Machine Learning en Inversiones 20210414
Machine Learning en Inversiones 20210414
 
EFPA ESG Advisor - summary
EFPA ESG Advisor - summaryEFPA ESG Advisor - summary
EFPA ESG Advisor - summary
 
Gestión de Carteras Óptimas - Roboadvisors
Gestión de Carteras Óptimas - RoboadvisorsGestión de Carteras Óptimas - Roboadvisors
Gestión de Carteras Óptimas - Roboadvisors
 
Agenda lecture GA PETD digital transformation financial services 20190524
Agenda lecture GA PETD digital transformation financial services 20190524Agenda lecture GA PETD digital transformation financial services 20190524
Agenda lecture GA PETD digital transformation financial services 20190524
 
Machine Learning in Investment Management March 2018
Machine Learning in Investment Management March 2018Machine Learning in Investment Management March 2018
Machine Learning in Investment Management March 2018
 
Cinquanta anys d'Star Trek: un futur amb tipus d'interès negatius ja no és ci...
Cinquanta anys d'Star Trek: un futur amb tipus d'interès negatius ja no és ci...Cinquanta anys d'Star Trek: un futur amb tipus d'interès negatius ja no és ci...
Cinquanta anys d'Star Trek: un futur amb tipus d'interès negatius ja no és ci...
 
Specialized Functions in Finance 201605
Specialized Functions in Finance 201605Specialized Functions in Finance 201605
Specialized Functions in Finance 201605
 
ANDBANK Microfinance Fund
ANDBANK Microfinance FundANDBANK Microfinance Fund
ANDBANK Microfinance Fund
 
2015 July 1st: launching of Sigma-Andbank European Equities for Israel investors
2015 July 1st: launching of Sigma-Andbank European Equities for Israel investors2015 July 1st: launching of Sigma-Andbank European Equities for Israel investors
2015 July 1st: launching of Sigma-Andbank European Equities for Israel investors
 
Plan pensiones Andbank
Plan pensiones AndbankPlan pensiones Andbank
Plan pensiones Andbank
 
Andbank Funds UCITS - Flexible Allocation 201403
Andbank Funds UCITS - Flexible Allocation 201403Andbank Funds UCITS - Flexible Allocation 201403
Andbank Funds UCITS - Flexible Allocation 201403
 
Fondos Andbank UCITS, Valencia 201403
Fondos Andbank UCITS, Valencia 201403Fondos Andbank UCITS, Valencia 201403
Fondos Andbank UCITS, Valencia 201403
 

Último

presentación del desensamble y ensamble del equipo de computo en base a las n...
presentación del desensamble y ensamble del equipo de computo en base a las n...presentación del desensamble y ensamble del equipo de computo en base a las n...
presentación del desensamble y ensamble del equipo de computo en base a las n...axelv9257
 
Guia Basica para bachillerato de Circuitos Basicos
Guia Basica para bachillerato de Circuitos BasicosGuia Basica para bachillerato de Circuitos Basicos
Guia Basica para bachillerato de Circuitos BasicosJhonJairoRodriguezCe
 
presentacion_desamblado_de_una_computadora_base_a_las_normas_de_seguridad.pdf
presentacion_desamblado_de_una_computadora_base_a_las_normas_de_seguridad.pdfpresentacion_desamblado_de_una_computadora_base_a_las_normas_de_seguridad.pdf
presentacion_desamblado_de_una_computadora_base_a_las_normas_de_seguridad.pdfaxelv9257
 
AVANCES TECNOLOGICOS DEL SIGLO XXI. 10-08..pptx
AVANCES TECNOLOGICOS  DEL SIGLO XXI. 10-08..pptxAVANCES TECNOLOGICOS  DEL SIGLO XXI. 10-08..pptx
AVANCES TECNOLOGICOS DEL SIGLO XXI. 10-08..pptxdulcemonterroza
 
infor expo AVANCES TECNOLOGICOS DEL SIGLO 21.pptx
infor expo AVANCES TECNOLOGICOS DEL SIGLO 21.pptxinfor expo AVANCES TECNOLOGICOS DEL SIGLO 21.pptx
infor expo AVANCES TECNOLOGICOS DEL SIGLO 21.pptxgustavovasquezv56
 
QUINTA SEXTA GENERACION de COMPUTADORAS
QUINTA  SEXTA GENERACION de COMPUTADORASQUINTA  SEXTA GENERACION de COMPUTADORAS
QUINTA SEXTA GENERACION de COMPUTADORASMarc Liust
 
Editorial. Grupo de 12B de La Salle Margarita.pdf
Editorial. Grupo de 12B de La Salle Margarita.pdfEditorial. Grupo de 12B de La Salle Margarita.pdf
Editorial. Grupo de 12B de La Salle Margarita.pdfYanitza28
 
2023 07 Casos prácticos para Realidad aumentada, metaverso y realidad extendida
2023 07 Casos prácticos para Realidad aumentada, metaverso y realidad extendida2023 07 Casos prácticos para Realidad aumentada, metaverso y realidad extendida
2023 07 Casos prácticos para Realidad aumentada, metaverso y realidad extendidaLuis Francisco Reyes Aceves
 
Buenos_Aires_Meetup_Redis_20240430_.pptx
Buenos_Aires_Meetup_Redis_20240430_.pptxBuenos_Aires_Meetup_Redis_20240430_.pptx
Buenos_Aires_Meetup_Redis_20240430_.pptxFederico Castellari
 
redes informaticas en una oficina administrativa
redes informaticas en una oficina administrativaredes informaticas en una oficina administrativa
redes informaticas en una oficina administrativanicho110
 
10°8 - Avances tecnologicos del siglo XXI 10-8
10°8 - Avances tecnologicos del siglo XXI 10-810°8 - Avances tecnologicos del siglo XXI 10-8
10°8 - Avances tecnologicos del siglo XXI 10-8antoniopalmieriluna
 
investigación de los Avances tecnológicos del siglo XXI
investigación de los Avances tecnológicos del siglo XXIinvestigación de los Avances tecnológicos del siglo XXI
investigación de los Avances tecnológicos del siglo XXIhmpuellon
 
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...JohnRamos830530
 
Editorial. Grupo de 12B. La Salle Margarita.pdf
Editorial. Grupo de 12B. La Salle Margarita.pdfEditorial. Grupo de 12B. La Salle Margarita.pdf
Editorial. Grupo de 12B. La Salle Margarita.pdfYanitza28
 
Función del analizador léxico.pdf presentacion
Función del analizador léxico.pdf presentacionFunción del analizador léxico.pdf presentacion
Función del analizador léxico.pdf presentacionEmanuelMuoz11
 
EVOLUCION DE LA TECNOLOGIA Y SUS ASPECTOSpptx
EVOLUCION DE LA TECNOLOGIA Y SUS ASPECTOSpptxEVOLUCION DE LA TECNOLOGIA Y SUS ASPECTOSpptx
EVOLUCION DE LA TECNOLOGIA Y SUS ASPECTOSpptxJorgeParada26
 
Innovaciones tecnologicas en el siglo 21
Innovaciones tecnologicas en el siglo 21Innovaciones tecnologicas en el siglo 21
Innovaciones tecnologicas en el siglo 21mariacbr99
 
How to use Redis with MuleSoft. A quick start presentation.
How to use Redis with MuleSoft. A quick start presentation.How to use Redis with MuleSoft. A quick start presentation.
How to use Redis with MuleSoft. A quick start presentation.FlorenciaCattelani
 

Último (18)

presentación del desensamble y ensamble del equipo de computo en base a las n...
presentación del desensamble y ensamble del equipo de computo en base a las n...presentación del desensamble y ensamble del equipo de computo en base a las n...
presentación del desensamble y ensamble del equipo de computo en base a las n...
 
Guia Basica para bachillerato de Circuitos Basicos
Guia Basica para bachillerato de Circuitos BasicosGuia Basica para bachillerato de Circuitos Basicos
Guia Basica para bachillerato de Circuitos Basicos
 
presentacion_desamblado_de_una_computadora_base_a_las_normas_de_seguridad.pdf
presentacion_desamblado_de_una_computadora_base_a_las_normas_de_seguridad.pdfpresentacion_desamblado_de_una_computadora_base_a_las_normas_de_seguridad.pdf
presentacion_desamblado_de_una_computadora_base_a_las_normas_de_seguridad.pdf
 
AVANCES TECNOLOGICOS DEL SIGLO XXI. 10-08..pptx
AVANCES TECNOLOGICOS  DEL SIGLO XXI. 10-08..pptxAVANCES TECNOLOGICOS  DEL SIGLO XXI. 10-08..pptx
AVANCES TECNOLOGICOS DEL SIGLO XXI. 10-08..pptx
 
infor expo AVANCES TECNOLOGICOS DEL SIGLO 21.pptx
infor expo AVANCES TECNOLOGICOS DEL SIGLO 21.pptxinfor expo AVANCES TECNOLOGICOS DEL SIGLO 21.pptx
infor expo AVANCES TECNOLOGICOS DEL SIGLO 21.pptx
 
QUINTA SEXTA GENERACION de COMPUTADORAS
QUINTA  SEXTA GENERACION de COMPUTADORASQUINTA  SEXTA GENERACION de COMPUTADORAS
QUINTA SEXTA GENERACION de COMPUTADORAS
 
Editorial. Grupo de 12B de La Salle Margarita.pdf
Editorial. Grupo de 12B de La Salle Margarita.pdfEditorial. Grupo de 12B de La Salle Margarita.pdf
Editorial. Grupo de 12B de La Salle Margarita.pdf
 
2023 07 Casos prácticos para Realidad aumentada, metaverso y realidad extendida
2023 07 Casos prácticos para Realidad aumentada, metaverso y realidad extendida2023 07 Casos prácticos para Realidad aumentada, metaverso y realidad extendida
2023 07 Casos prácticos para Realidad aumentada, metaverso y realidad extendida
 
Buenos_Aires_Meetup_Redis_20240430_.pptx
Buenos_Aires_Meetup_Redis_20240430_.pptxBuenos_Aires_Meetup_Redis_20240430_.pptx
Buenos_Aires_Meetup_Redis_20240430_.pptx
 
redes informaticas en una oficina administrativa
redes informaticas en una oficina administrativaredes informaticas en una oficina administrativa
redes informaticas en una oficina administrativa
 
10°8 - Avances tecnologicos del siglo XXI 10-8
10°8 - Avances tecnologicos del siglo XXI 10-810°8 - Avances tecnologicos del siglo XXI 10-8
10°8 - Avances tecnologicos del siglo XXI 10-8
 
investigación de los Avances tecnológicos del siglo XXI
investigación de los Avances tecnológicos del siglo XXIinvestigación de los Avances tecnológicos del siglo XXI
investigación de los Avances tecnológicos del siglo XXI
 
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...
 
Editorial. Grupo de 12B. La Salle Margarita.pdf
Editorial. Grupo de 12B. La Salle Margarita.pdfEditorial. Grupo de 12B. La Salle Margarita.pdf
Editorial. Grupo de 12B. La Salle Margarita.pdf
 
Función del analizador léxico.pdf presentacion
Función del analizador léxico.pdf presentacionFunción del analizador léxico.pdf presentacion
Función del analizador léxico.pdf presentacion
 
EVOLUCION DE LA TECNOLOGIA Y SUS ASPECTOSpptx
EVOLUCION DE LA TECNOLOGIA Y SUS ASPECTOSpptxEVOLUCION DE LA TECNOLOGIA Y SUS ASPECTOSpptx
EVOLUCION DE LA TECNOLOGIA Y SUS ASPECTOSpptx
 
Innovaciones tecnologicas en el siglo 21
Innovaciones tecnologicas en el siglo 21Innovaciones tecnologicas en el siglo 21
Innovaciones tecnologicas en el siglo 21
 
How to use Redis with MuleSoft. A quick start presentation.
How to use Redis with MuleSoft. A quick start presentation.How to use Redis with MuleSoft. A quick start presentation.
How to use Redis with MuleSoft. A quick start presentation.
 

Aprendizaje automático I - Tema 3 Aprendizaje Automático Supervisado.pdf

  • 2. Tema 3: Algoritmos de Aprendizaje Automático Supervisado 2
  • 3. Tema 3: Aprendizaje Automático Supervisado Overfitting o sobrejuste Introducción Clasificación y Regresión Ejemplos en Python Algoritmos de Machine Learning Supervisado Conceptos principales
  • 4. Aprendizaje Automático Supervisado 4 • El aprendizaje automático Supervisado es uno de los más utilizados y exitosos entre los distintos tipos de machine learning. Incluye un conjunto variado de algoritmos, como veremos durante el tema. En el Tema 2 anterior hemos visto un caso práctico precisamente de este tipo • En el aprendizaje Supervisado queremos realizar una predicción del resultado a partir de unos datos de entrada o input, basándonos en ejemplos de pares entrada-resultado ya conocidos • Construimos un modelo en base a estos datos ya etiquetados, con un conjunto de ejemplos del resultado correspondiente a una variable o input de entrada, que nos sirven para entrenar el algoritmo. Nuestro objetivo es poder aplicar luego el modelo para nuevos datos de entrada, de los cuales no se conoce el resultado previamente • Estos modelos requieren la participación humana para ser entrenados, pero después permiten automatizar y eficientar tareas
  • 5. Clasificación vs Regresión 5 Clasificación Regresión • Dependiendo del tipo de etiqueta, dentro del aprendizaje supervisado existen dos tipos de modelos: • Los modelos de clasificación, que producen como salida una etiqueta discreta dentro de un conjunto finito de etiquetas posibles. A su vez, los modelos de clasificación pueden ser binarios si tenemos que predecir entre dos clases(enfermedad o no enfermedad, clasificación de correos como “spam” o no “spam”) o multiclase, cuando se tiene que clasificar más de dos clases (clasificación de imágenes de animales, análisis de sentimientos, etc.) • Los modelos de regresión, que producen como salida un valor numérico
  • 6. Overfitting 6 • El modelo decimos que es capaz de generalizar si hace predicciones correctas con datos nuevos, a partir de los datos de entrenamiento • En el entrenamiento del algoritmo, construimos un modelo que realiza predicciones precisas sobre los datos de entrenamiento. Si el modelo que construimos es muy complejo, puede ocurrir que sea muy preciso con estos datos de entrenamiento, pero que luego no sea tan preciso con datos nuevos o los datos de test. Veremos ejemplos de esto. Decimos en estos casos que tenemos un sobreajuste o overfitting
  • 7. Ejemplo: underfitting y overfitting 7 • Vamos a estudiar un ejemplo sencillo con casos de underfitting y de overfitting • Consideramos un problema sencillo del tipo y=f(x) (dos variables, una independiente, y la otra la dependiente (que queremos modelizar)
  • 8. Ejemplo: underfitting y overfitting 8 • Construimos los modelos de aprendizaje automático polinómicos para el ejemplo (Regresión polinómica utilizando LinearRegression):
  • 9. Ejemplo: underfitting y overfitting 9 • El modelo de algoritmo de aprendizaje está sobregeneralizado (con desajuste o underfitting) si no puede generalizar correctamente ni los datos de entrenamiento ni nuevas observaciones. En el ejemplo, para el caso de grado=1, usamos una hipótesis lineal simple, que no representa los datos de entrenamiento reales y tendrá un rendimiento muy bajo • Si nuestro algoritmo recuerda cada observación que se le mostró entonces tendrá un bajo rendimiento con nuevas observaciones que estén fuera del set de datos de entrenamiento. A esto se le llama sobreajuste (overfitting). Por ejemplo, un modelo polinómico de trigésimo grado (grado=30) pasa por la mayoría de los puntos y tiene una buena puntuación en el set de entrenamiento pero cualquier otro dato fuera de esto tendrá un mal rendimiento.
  • 10. Ejemplo: Complejidad y Overfitting 10 • Vamos a investigar otro ejemplo sobre la relación entre la complejidad y el sobreajuste. Utilizaremos los datos del Breast Cancer dataset
  • 11. Ejemplo: Complejidad y Overfitting 11 • La base de datos Wisconsin Breast Cancer se encuentra en los datasets de la librería scikit-learn. Contiene registros médicos de tumores de pecho con cáncer. Están estiquetados (machine learning supervisado) con las clases benigno o maligno. Los algortimos construidos aprenden a predecir si un tumor es cancerígeno a partir de varias variables o características del tumor
  • 12. Ejemplo: Complejidad y Overfitting 12 • En este ejemplo utilizaremos el algoritmo supervisado de k-NN (los k vecinos más cercanos, o k-Nearest Neighbors) Nuevo elemento a clasificar
  • 13. Ejemplo: Complejidad y Overfitting 13 • Utilizamos el algoritmo supervisado de k-NN (los k vecinos más cercanos, o k-Nearest Neighbors). En los ejercicios de evaluación del Tema 4 vamos a realizar una práctica similar con otro algoritmo, los árboles de decisión • El gráfico calculado muestra la precisión (en %), según el número de vecinos k de los distintos modelos. A mayor valor de k, más complejidad del algoritmo (utilizamos más elementos para definir la predicción del modelo) • Observamos que el modelo es muy preciso para los datos de train con k=1 (cada elemento del dataset de entrenamiento es parte del modelo), aunque no sirve para predecir con datos nuevos de test. Se produce claramente un sobreajuste o overfitting • En cambio, en el otro extremos, si k es elevado (modelo más simple, menos vecindarios), el modelo se comporta mal en datos de train y de set. En este caso tenemos un underfitting
  • 14. Algoritmos de ML Supervisado 14 • A continuación algunos de los principales algoritmos utilizados en aprendizaje automático supervisado • Algoritmos de Regresión Lineal • Algoritmos de Regresión Logística • Algoritmos de Naïve Bayes • Máquinas de Vectores Soporte • Árboles de Decisión • kNN (k-Nearest Neighbor) • Bosques Aleatorios (Random Forest) • Algoritmos de Potenciación del Gradiente (Gradient Boost) • Redes Neuronales • Veremos el detalle de funcionamiento e implementación de algunos de estos algoritmos durante el curso
  • 15. Algoritmos de Regresión Lineal 15 • Los algoritmos de regresión lineal muestran o predicen la relación entre dos variables o factores ajustando o construyendo como modelo una línea recta continua a los datos. La línea suele calcularse con la función de coste del error cuadrático. La regresión lineal es uno de los tipos de análisis de regresión más populares • Aunque no vamos a ver los detalles de la formulación matemática (en el Tema 4 podéis encontrar todo el proceso para otra categoría de algoritmo), la función de coste o optimización en este caso es la fórmula del error cuadrático de la ecuación. Se resuelve numéricamente con la técnica de descenso por gradiente (gradient descent) https://youtu.be/MFXKcEeT-M0
  • 16. Algoritmos de Regresión Logística 16 • En muchas ocasiones el problema real consiste en predecir datos categóricos para obtener respuestas a preguntas como: ü ¿Es un perro o un gato? ü ¿Este tumor es maligno o benigno? ü ¿Este email es spam o no? • O incluso: ü ¿Qué número está en esta foto? • Todas estas preguntas son específicas del problema de clasificación. Y el algoritmo de clasificación más sencillo se llama regresión logística, el cual es muy similar a la regresión lineal excepto que tiene una hipótesis diferente • Regresión Logística Binaria: la variable objetivo tiene solo dos resultados posible, Llueve o NO Llueve, Sube o Baja. • Regresión Logística Multinomial: la variable objetivo tiene tres o más categorías nominales, como predecir el tipo de vino. • Regresión Logística Ordinal: la variable objetivo tiene tres o más categorías ordinales, como clasificar un restaurante o un producto del 1 al 5 https://youtu.be/NgXNOlrYRh0
  • 17. Algoritmos de Regresión Logística 17 • La Regresión Logística lleva el nombre de la función utilizada en el núcleo del método, la función logística es también llamada función Sigmoide. Esta función es una curva en forma de S que puede tomar cualquier número de valor real y asignar a un valor entre 0 y 1 • Si la salida de la función Sigmoide es mayor que 0.5, podemos clasificar el resultado como 1 o SI, y si es menor que 0.5 podemos clasificarlo como 0 o NO. Por su parte si el resultado es 0.75, podemos decir en términos de probabilidad como, hay un 75% de probabilidades
  • 18. Algoritmos de Regresión Logística 18 • La Regresión Logística se formula matemáticamente:
  • 19. Algoritmos de Naïve Bayes 19 • Los algoritmos de clasificación Naïve Bayes son similares a los modelos lineales. Pero se centran en las estadísticas o probabilidades de cada clase o categoría de etiqueta con cada característica o variable independeiente por separado (supone independencia entre las características) • Asumir que el efecto de las características es independiente es una simplificación (naïve), aunque facilita el cálculo para problemas con datasets muy grandes • Hay tres tipos principales: Gaussiana, Bernoulli i Multinomial,según la hipótesis de distribbución de probabilidad p(xi | y) https://youtu.be/949tYJgRvRg
  • 20. Algoritmos de Naïve Bayes: ejemplo 20 • La fórmula de Bayes nos permite obtener las probabilidades condicionales con cada variable • Y, en base a estas, podremos hacer predicciones con nuevos datos: ¿Jugaremos hoy a golf?
  • 21. Algoritmos de Naïve Bayes: ejemplo 21 • Y, en base a estas, podremos hacer predicciones con nuevos datos: ¿Jugaremos hoy a golf?
  • 22. Algoritmos de Naïve Bayes: caso práctico flores Iris 22
  • 23. Máquinas de Vectores Soporte (SVM) 23 • Los algoritmos Support Vector Machines (o SVM) utilizan un hiperplano (lineal) para clasificar de manera óptima. El uso de kernels permiten generalizaciones • El objetivo sería crear un límite de decisión (una línea que separa las dos clases de nuestros puntos de datos, como la línea dibujada) • Buscamos el mejor límite de decisión como aquél que maximiza su distancia desde cualquiera de los vectores de soporte. Los vectores de soporte son puntos de datos de cada clase más cercanos a la clase opuesta. Presentan el mayor riesgo de clasificación errónea debido a su proximidad a la otra clase • El entrenamiento de una máquina de vectores de soporte consiste en encontrar una línea que maximice (optimice) el margen entre los vectores de soporte https://youtu.be/GOaIZqMh5PE
  • 24. Máquinas de Vectores Soporte (SVM): kernels 24 • En los algoritmos Support Vector Machines (o SVM) existe una técnica avanzada que permite transformar los datos originales mediante una función (kernel), de modo que la clasificación mediante SVM tenga mayor precisión • Lo podemos ver en el siguiente ejemplo, dónde los datos no se separan fácilmente con una función lineal con los datos originales. Pero si aplicando una transformación con la función kernel z • Podéis ver el vídeo en el enlace para aprender más https://youtu.be/YO1yAEKDA64 𝑧! = 𝑥! + 𝑦!
  • 25. Algoritmos kNN 25 • Los algoritmos de K vecinos más cercanos o kNN (k Nearest Neighbors) almacenan todos los puntos de datos disponibles y clasifican cada punto de datos nuevo en función de los puntos de datos más cercanos a él, medidos por una función de distancia https://youtu.be/FHHuo7xEeo4
  • 26. Redes Neuronales 26 • Una Red Neuronal (Neural network o NN) procesa los datos de entrenamiento simulando el comportamiento de un cerebro humano, mediante capas de nodos o neuronas. Cada nodo consta de: inputs, pesos, un escalón de activación (threshold), y un output. Si el valor de salida o output supera el escalón o nivel de activación, el nodo se activa, pasando los datos a la siguiente capa de la red. Esta función de mapeo se entrena con datos etiquetados. Utilizan funciones de pérdida y métodos numéricos de gradiente descendiente. Cuando la función de pérdida es cercana a cero, el modelo es correcto • Pueden utilizarse, además, en algunos problemas de aprendizaje no-supervisado https://youtu.be/dlxhyt8m0wo
  • 27. Tema 3: Ejercicios de Clasificación y Regresión • Ejercicio: consideramos las siguientes características de algoritmos. Para cada afirmación o sentencia, indicar si corresponde a un algoritmo de Clasificación o Regresión 1. En el problema a resolver, las variables objetivo o dependientes son discretas 2. El resultado del modelo son valores continuos 3. El objetivo es predecir categorías o etiquetas de clases 4. Ejemplos de estos modelos son: predicción del precio de una acción en bolsa; predecir el precio de un inmueble; predecir la cantidad de demanda de un producto 5. A este grupo pertenecen las regresiones lineales y no-lineales
  • 28. Tema 3: Ejercicios de Clasificación y Regresión • Ejercicio: consideramos el siguiente algoritmo en Python que implementa el modelo de aprendizaje automático k-NN visto en el Tema 3. El programa nos muestra los resultados del modelo k-NN con un número de parámetros n_neighbors creciente. Es decir, podemos observar en el gráfico la precisión de los modelos ajustados, a medida que aumentamos la complejidad del algoritmo (más parámetros n_neighbors)
  • 29. Tema 3: Ejercicios de Clasificación y Regresión • Comentar estos resultados. ¿Los modelos generalizan mejor a mayor complejidad? Explicar brevemente
  • 30. Sede Universitat Carlemany Av. Verge de Canòlich, 47 AD600 Sant Julià de Lòria Principat d’Andorra Linkedin Facebook +376 878 300