SlideShare una empresa de Scribd logo
1 de 11
Descargar para leer sin conexión
La Regresión Logística es un algoritmo que permite tomar una serie de datos y
clasificarlos en una de dos posibles categorías o clases. El algoritmo toma como
entrada una serie de datos X y genera a la salida una variable Y con uno de dos
posibles valores, clases o categorías: 0 o 1.
Supongamos que se tiene un set de 100 datos. Cada dato se representa con dos
características (dos cantidades numéricas) y además pertenece a una de dos
posibles categorías: 0 ó 1.
La regresión logística y multiclase y su relación con redes
neuronales
lunes, 19 de abril de 2021 2:23 p. m.
Clase Redes Neuronales 3 página 1
El objetivo de la Regresión Logística es clasificar de forma automática estos datos
en las dos categorías existentes. Esto equivale a encontrar una frontera que
permita separar los datos en dos agrupaciones diferentes, como se muestra a
continuación:
Para obtener la frontera de decisión el problema se puede modelar como una red
Clase Redes Neuronales 3 página 2
Para obtener la frontera de decisión el problema se puede modelar como una red
neuronal que lleva a cabo los siguientes pasos:
Transformación de los datos de entrada
•
Aplicación de una función de activación
•
Transformación de los datos de entrada.
Es aquí donde el problema se modela como una red neuronal, donde una neurona
recibe los datos de entrada y los transforma primero en un número Z de salida.
Como en este caso, tenemos 2 datos de entrada (X1,X2); cada dato tendrá su peso
(w1, w2); y se realiza la combinación lineal, y luego se le suma la constante "b" al
resultado.
En el ejemplo, como tenemos 100 datos, entonces,
Esos 100 datos son los "datos de entrenamiento", donde cada dato tiene una
etiqueta (1 o 0) (Aprendizaje supervisado).
El valor de Z es un número natural. El paso siguiente es hallar la "probabilidad" de
que ese número corresponda a la etiqueta 1 o 0. Para hallar esa probabilidad se
debe evaluar en Z una función llamada "Función de Activación", la cual dará un
número entre 0 y 1. Si el resultado es menor o igual que 0.5; la etiqueta se
colocará como CERO, y si el resultado es mayor a 0.5, la etiqueta se colocará como
1.
Clase Redes Neuronales 3 página 3
La función de activación común usada en una neurona es la "Función Sigmoidal",
cuya expresión y gráfica son:
Es así como finalmente se obtiene de la neurona, un dato que es 1 o 0, de acuerdo
al dato de la entrada.
Formalmente entonces se puede definir una neurona, llamada "Perceptron", como
una unidad algorítmica que toma un vector de entrada y genera un vector de
salida llevando primero una acción de transformación de los datos,
multplicándolos por unos pesos y luego sumando una constate y luego
aplicando una función de activación.
Clase Redes Neuronales 3 página 4
Los pesos y la constante se hallan por un proceso de entrenamiento que sigue
normalmente los siguientes pasos:
Definición de la función de error.
•
Inicialización aleatoria de los parámetros del modelo.
•
Definición de la tasa de aprendizaje y el número de iteraciones.
•
Actualización de los parámetros del modelo usando el algoritmo del Gradiente
Descendente.
•
En cuanto a la función de error, en este caso el error se halla con valores binarios,
y si se usara una función de error ECM (Error cuadrático medio), con el error en
función de "w", como lo vimos la clase pasada, si se hace eso con este tipo de
datos binarios, dicha función daría con mínimos locales, como se muestra en la
figura:
Clase Redes Neuronales 3 página 5
Por lo tanto, es posible que el algoritmo de gradiente descendiente no calcule el
valor mínimo del error en forma adecuada.
Por lo tanto, en las redes neuronales de clasificación, como es el caso de la
regresión logística, se usa mejor la siguiente función de error llamada "Entropía
Cruzada":
Esta función es convexa y garantiza un único mínimo, lo cual a su vez, garantiza la
efectividad del algoritmo de gradiente descendiente.
Una vez entrenada la red, se dan los valores y de entrenamiento. Con
estos valores se puede construir la frontera de decision mostrada en la figura de
arriba. Pero esta frontera de decisión es "lineal", y por lo tanto solo clasificará bien
los datos, si estos se pueden separar por una línea. En el caso que la distribución
de los datos no se adapte a que sean separados por una línea, es necesario un
modelo de red neuronal diferente, que se adapte a una frontera de decisión no
lineal.
TALLER 1
Clase Redes Neuronales 3 página 6
Los datos de entrenamiento de la neurona del ejemplo anterior son
y
1.
Escoja 3 puntos y usando la neurona entrenada con estos puntos
como entrada, determine cada punto en donde queda clasificado (1 o 0).
Anote el paso a paso para hallar la clasificación en el taller. (Paso 1,
transformación; Paso 2, función de activación)
Invente 10 puntos y un nuevo valor para w1, w2 y b. Ahora, con esos
datos, evalue la función de error de entropia cruzada. ¿Cuánto da el error?.
Nota: Los valores de Y que deben dar, calcúlelos con y
; y los valores que estan dando hallelos con los nuevos valores de w1,
w2 y b que se inventó.
2.
En este punto anote en el taller el paso a paso de todos los cálculos.
Ahora, implemente en COLAB, el siguiente código de python el cual desarrolla el
algoritmo de regresión logística, con datos X1 y X2 de entrada, donde X1 es el
número de horas de estudio, y X2 es el número de horas de sueño, de unos
estudiantes encuestados; y la salida es el éxito o fracaso al presentar un examen.
codigo
regresion ...
dataset2
Algunos aspectos a tener en cuenta de este código, adicionales a los ejemplos que
ya hemos desarrollado en COLAB, son:
El dato de entrada contiene dos dimensiones ( y ), mientras que el dato de
salida tendrá una dimensión (“0” ó “1”). Además, es necesario el uso de
np.random.seed para garantizar la reproducibilidad de los resultados en
diferentes computadores.
•
Clase Redes Neuronales 3 página 7
diferentes computadores.
En la última línea de código hemos definido una función de activación
sigmoidal (activation = 'sigmoid') que corresponde precisamente a la función
usada en la Regresión Logística.
•
Para el optimizador hemos definido una tasa de aprendizaje (lr) igual a 0.2.
Adicionalmente, además de la entropía cruzada (loss='binary_crossentropy')
usaremos la precisión (metrics=['accuracy']) para medir el desempeño del
modelo. Esta precisión es simplemente la cantidad de datos clasificador
erróneamente, dividida entre la cantidad total de datos.
•
Al imprimir la información sobre el modelo (usando modelo.summary()),
podemos observar que el modelo tiene tres parámetros entrenables
(Trainable params: 3). Estos parámetros corresponden a los dos coeficientes w
y al parámetro b.
•
Al ejecutar la anterior línea de código observamos que la precisión se
incrementa progresivamente, iniciando con un valor cercano al 55% (acc =
0.55) en la iteración 1, hasta un valor del 89% (acc = 0.89) en la última
iteración.
•
De los 100 datos, 11 fueron clasificados incorrectamente y 89 correctamente,
lo que equivale a una precisión del 89%, que fue el valor obtenido en la última
iteración del entrenamiento. Incluso si se incrementa el número de
iteraciones, la precisión no sobrepasará este 89%. Esto se debe a la forma
como están distribuidos los datos, y a la limitación inherente de la Regresión
Logística, que no permite obtener una frontera de decisión no lineal (la cual
mejoraría la precisión en la clasificación).
•
Para hacer la predicción de un dato, puede usar la línea:
•
Z = modelo.predict_classes(np.c_[X1,X2])
print(Z)
Donde X1 y X2 es el dato que usted busca hallar la predicción.
TALLER 2
Ejecute el código en COLAB. En la ejecución coloque su nombre al final de la
ejecución programa para el informe.
1.
Luego de ejecutar el programa, realice una predicción de cómo le irá en el
parcial 2 de la materia, colocando las horas que piensa estudiar y las horas de
sueño.
2.
REGRESIÓN MULTICLASE
Clase Redes Neuronales 3 página 8
REGRESIÓN MULTICLASE
Permite realizar la clasificación de datos cuando existen tres o más categorías.
Por ejemplo, supongamos que se tienen los siguientes datos, donde cada uno está
clasificado en una de tres categorías.
El objetivo de la Regresión Multiclase es clasificar los datos en estas tres
categorías, encontrando de forma automática las fronteras de decisión que
establecen los límites entre una y otra. Estas fronteras de decisión se muestran
como líneas rectas de color azul en la siguiente figura:
Clase Redes Neuronales 3 página 9
Para obtener las fronteras de decisión el problema se puede modelar como una
red neuronal que lleva a cabo tres pasos:
Transformación de los datos de entrada
•
Aplicación de una función de activación
•
Clasificación en una de las tres categorías existentes.
•
Note que como hay 3 posibles categorizaciones se usarán 3 neuronas, que luego
de transformar los datos, ejecutar la función de activación y hallar las
Clase Redes Neuronales 3 página 10
de transformar los datos, ejecutar la función de activación y hallar las
probabilidades, dará en la salida un vector de un 1 y 2 ceros; donde la posición de
del 1 indicará la categoría a la que pertenece.
En este caso, la función de activación tiene en cuenta 3 entradas, se llama softmax,
y es la siguiente:
Esta función permite normalizar las tres probabilidades, garantizando que la suma
de las mismas sea igual a 1.0. Posteriormente, para realizar la clasificación se
determina cuál de las tres probabilidades calculadas tiene el valor más alto, que
corresponderá a la clase asignada.
TALLER 3
Suponga que la red neuronal ya entrenada dio los siguientes resultados para cada
perceptrón:
Perceptrón 1: y
Perceptrón 2: y
Perceptrón 3: y
Compruebe que si la entrada es X=(1.839, 0.557) la red clasifica ese dato en la
categoría 2. Debe hacer en el informe el paso a paso de esta comprobación.
1.
Repita el punto 1 pero con otro valor de X que quede clasificado en la
categoría 1, y otro que quede clasificado en la categoría 3.
2.
Clase Redes Neuronales 3 página 11

Más contenido relacionado

La actualidad más candente

Introducción de redes neuronales artificiales
Introducción de redes neuronales artificialesIntroducción de redes neuronales artificiales
Introducción de redes neuronales artificialesfelibuca
 
Suma de imagenes
Suma de imagenesSuma de imagenes
Suma de imagenesanar26
 
Resolución de ecuaciones diferenciales con MATLAB R2015a
Resolución de ecuaciones diferenciales  con  MATLAB  R2015aResolución de ecuaciones diferenciales  con  MATLAB  R2015a
Resolución de ecuaciones diferenciales con MATLAB R2015aJoanny Ibarbia Pardo
 
Java problems
Java problemsJava problems
Java problemsNoe Lopez
 
Utp sirn_s12_sistemas de control basados en logic difusa
 Utp sirn_s12_sistemas de control basados en logic difusa Utp sirn_s12_sistemas de control basados en logic difusa
Utp sirn_s12_sistemas de control basados en logic difusajcbp_peru
 
Sistemas ecuacion simulink
Sistemas ecuacion simulinkSistemas ecuacion simulink
Sistemas ecuacion simulinkAlex Santos
 
Tecnicas de Busqueda en IA
Tecnicas de Busqueda en IATecnicas de Busqueda en IA
Tecnicas de Busqueda en IAAlfredoAlejo1
 
Presentacion Modelo Markov
Presentacion Modelo MarkovPresentacion Modelo Markov
Presentacion Modelo Markovguest3066cc
 
Utp sirn_s13_sistemas de control basados en logic difusa
 Utp sirn_s13_sistemas de control basados en logic difusa Utp sirn_s13_sistemas de control basados en logic difusa
Utp sirn_s13_sistemas de control basados en logic difusajcbp_peru
 
Metodos numericos 2013 ma9301
Metodos numericos 2013 ma9301Metodos numericos 2013 ma9301
Metodos numericos 2013 ma9301Maestros Online
 
Estructuras de controlm
Estructuras de controlmEstructuras de controlm
Estructuras de controlmK Manuel TN
 
Electrónica digital: Sistemas secuenciales
Electrónica digital: Sistemas secuenciales Electrónica digital: Sistemas secuenciales
Electrónica digital: Sistemas secuenciales SANTIAGO PABLO ALBERTO
 

La actualidad más candente (19)

Introducción de redes neuronales artificiales
Introducción de redes neuronales artificialesIntroducción de redes neuronales artificiales
Introducción de redes neuronales artificiales
 
Suma de imagenes
Suma de imagenesSuma de imagenes
Suma de imagenes
 
Examen parcial 2
Examen parcial 2Examen parcial 2
Examen parcial 2
 
Resolución de ecuaciones diferenciales con MATLAB R2015a
Resolución de ecuaciones diferenciales  con  MATLAB  R2015aResolución de ecuaciones diferenciales  con  MATLAB  R2015a
Resolución de ecuaciones diferenciales con MATLAB R2015a
 
Java problems
Java problemsJava problems
Java problems
 
Capitulo5
Capitulo5Capitulo5
Capitulo5
 
matlab
matlabmatlab
matlab
 
Guia 3 matlab
Guia 3 matlabGuia 3 matlab
Guia 3 matlab
 
Tutorial rapido de octave
Tutorial rapido de octaveTutorial rapido de octave
Tutorial rapido de octave
 
Utp sirn_s12_sistemas de control basados en logic difusa
 Utp sirn_s12_sistemas de control basados en logic difusa Utp sirn_s12_sistemas de control basados en logic difusa
Utp sirn_s12_sistemas de control basados en logic difusa
 
Matlab
MatlabMatlab
Matlab
 
Sistemas ecuacion simulink
Sistemas ecuacion simulinkSistemas ecuacion simulink
Sistemas ecuacion simulink
 
Tecnicas de Busqueda en IA
Tecnicas de Busqueda en IATecnicas de Busqueda en IA
Tecnicas de Busqueda en IA
 
Presentacion Modelo Markov
Presentacion Modelo MarkovPresentacion Modelo Markov
Presentacion Modelo Markov
 
Utp sirn_s13_sistemas de control basados en logic difusa
 Utp sirn_s13_sistemas de control basados en logic difusa Utp sirn_s13_sistemas de control basados en logic difusa
Utp sirn_s13_sistemas de control basados en logic difusa
 
Metodos numericos 2013 ma9301
Metodos numericos 2013 ma9301Metodos numericos 2013 ma9301
Metodos numericos 2013 ma9301
 
TDA
TDATDA
TDA
 
Estructuras de controlm
Estructuras de controlmEstructuras de controlm
Estructuras de controlm
 
Electrónica digital: Sistemas secuenciales
Electrónica digital: Sistemas secuenciales Electrónica digital: Sistemas secuenciales
Electrónica digital: Sistemas secuenciales
 

Similar a Regresión Logística clasifica datos en categorías

Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzadaDiego Guamán
 
Clasificador Caracteres Logsig Tansig
Clasificador Caracteres Logsig TansigClasificador Caracteres Logsig Tansig
Clasificador Caracteres Logsig TansigYeferson Torres Berru
 
algoritmos en R Studio
algoritmos en R Studioalgoritmos en R Studio
algoritmos en R Studiojuan198
 
Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansigVanee2014
 
Método Simplex Mercadotecnia Análisis de Decisiones Equipo 2
Método Simplex Mercadotecnia Análisis de Decisiones Equipo 2 Método Simplex Mercadotecnia Análisis de Decisiones Equipo 2
Método Simplex Mercadotecnia Análisis de Decisiones Equipo 2 MarketingAD
 
Manual NeuroSolutions
Manual NeuroSolutionsManual NeuroSolutions
Manual NeuroSolutionsESCOM
 
Guion controlpor variables
Guion controlpor variablesGuion controlpor variables
Guion controlpor variablesleswil
 
Red Neuronal Difusa
Red Neuronal DifusaRed Neuronal Difusa
Red Neuronal DifusaESCOM
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialCarlos Mendoza
 
Simulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelSimulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelAlvaro Gil
 
diseño_contro_PID_discreto conv.docx
diseño_contro_PID_discreto conv.docxdiseño_contro_PID_discreto conv.docx
diseño_contro_PID_discreto conv.docxProfessorWilliams
 
Funciones satlin y satlins
Funciones satlin y satlinsFunciones satlin y satlins
Funciones satlin y satlinsJuan Pinzón
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisadoESCOM
 
Sesgo BacoProgpagation
Sesgo BacoProgpagationSesgo BacoProgpagation
Sesgo BacoProgpagationLevy GT
 
Sesgo en una Red Neuronal Artificial
Sesgo en una Red Neuronal ArtificialSesgo en una Red Neuronal Artificial
Sesgo en una Red Neuronal ArtificialLevy GT
 

Similar a Regresión Logística clasifica datos en categorías (20)

Examen Parcial 2
Examen Parcial 2Examen Parcial 2
Examen Parcial 2
 
Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzada
 
Clasificador Caracteres Logsig Tansig
Clasificador Caracteres Logsig TansigClasificador Caracteres Logsig Tansig
Clasificador Caracteres Logsig Tansig
 
algoritmos en R Studio
algoritmos en R Studioalgoritmos en R Studio
algoritmos en R Studio
 
Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansig
 
Método Simplex Mercadotecnia Análisis de Decisiones Equipo 2
Método Simplex Mercadotecnia Análisis de Decisiones Equipo 2 Método Simplex Mercadotecnia Análisis de Decisiones Equipo 2
Método Simplex Mercadotecnia Análisis de Decisiones Equipo 2
 
Trabajo Final
Trabajo FinalTrabajo Final
Trabajo Final
 
Manual NeuroSolutions
Manual NeuroSolutionsManual NeuroSolutions
Manual NeuroSolutions
 
Guion controlpor variables
Guion controlpor variablesGuion controlpor variables
Guion controlpor variables
 
Red Neuronal Difusa
Red Neuronal DifusaRed Neuronal Difusa
Red Neuronal Difusa
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
 
Simulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelSimulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con Promodel
 
diseño_contro_PID_discreto conv.docx
diseño_contro_PID_discreto conv.docxdiseño_contro_PID_discreto conv.docx
diseño_contro_PID_discreto conv.docx
 
Funciones satlin y satlins
Funciones satlin y satlinsFunciones satlin y satlins
Funciones satlin y satlins
 
Gauss
GaussGauss
Gauss
 
Gauss
GaussGauss
Gauss
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisado
 
Sesgo BacoProgpagation
Sesgo BacoProgpagationSesgo BacoProgpagation
Sesgo BacoProgpagation
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Sesgo en una Red Neuronal Artificial
Sesgo en una Red Neuronal ArtificialSesgo en una Red Neuronal Artificial
Sesgo en una Red Neuronal Artificial
 

Último

Manual_Identificación_Geoformas_140627.pdf
Manual_Identificación_Geoformas_140627.pdfManual_Identificación_Geoformas_140627.pdf
Manual_Identificación_Geoformas_140627.pdfedsonzav8
 
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdf
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdfReporte de simulación de flujo del agua en un volumen de control MNVA.pdf
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdfMikkaelNicolae
 
Mapas y cartas topográficas y de suelos.pptx
Mapas y cartas topográficas y de suelos.pptxMapas y cartas topográficas y de suelos.pptx
Mapas y cartas topográficas y de suelos.pptxMONICADELROCIOMUNZON1
 
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.pptARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.pptMarianoSanchez70
 
01 MATERIALES AERONAUTICOS VARIOS clase 1.ppt
01 MATERIALES AERONAUTICOS VARIOS clase 1.ppt01 MATERIALES AERONAUTICOS VARIOS clase 1.ppt
01 MATERIALES AERONAUTICOS VARIOS clase 1.pptoscarvielma45
 
clases de porcinos generales de porcinos
clases de porcinos generales de porcinosclases de porcinos generales de porcinos
clases de porcinos generales de porcinosDayanaCarolinaAP
 
Elaboración de la estructura del ADN y ARN en papel.pdf
Elaboración de la estructura del ADN y ARN en papel.pdfElaboración de la estructura del ADN y ARN en papel.pdf
Elaboración de la estructura del ADN y ARN en papel.pdfKEVINYOICIAQUINOSORI
 
CONCEPTOS EN HIDROGEOLOGIA-diapositivas varias.pptx
CONCEPTOS EN HIDROGEOLOGIA-diapositivas varias.pptxCONCEPTOS EN HIDROGEOLOGIA-diapositivas varias.pptx
CONCEPTOS EN HIDROGEOLOGIA-diapositivas varias.pptxBrayanJavierCalle2
 
aCARGA y FUERZA UNI 19 marzo 2024-22.ppt
aCARGA y FUERZA UNI 19 marzo 2024-22.pptaCARGA y FUERZA UNI 19 marzo 2024-22.ppt
aCARGA y FUERZA UNI 19 marzo 2024-22.pptCRISTOFERSERGIOCANAL
 
PPT ELABORARACION DE ADOBES 2023 (1).pdf
PPT ELABORARACION DE ADOBES 2023 (1).pdfPPT ELABORARACION DE ADOBES 2023 (1).pdf
PPT ELABORARACION DE ADOBES 2023 (1).pdfalexquispenieto2
 
tema05 estabilidad en barras mecanicas.pdf
tema05 estabilidad en barras mecanicas.pdftema05 estabilidad en barras mecanicas.pdf
tema05 estabilidad en barras mecanicas.pdfvictoralejandroayala2
 
CLASe número 4 fotogrametria Y PARALAJE.pptx
CLASe número 4 fotogrametria Y PARALAJE.pptxCLASe número 4 fotogrametria Y PARALAJE.pptx
CLASe número 4 fotogrametria Y PARALAJE.pptxbingoscarlet
 
Base de Datos en Microsoft SQL Server 2024
Base de Datos en Microsoft SQL Server 2024Base de Datos en Microsoft SQL Server 2024
Base de Datos en Microsoft SQL Server 2024CESARHERNANPATRICIOP2
 
04. Sistema de fuerzas equivalentes II - UCV 2024 II.pdf
04. Sistema de fuerzas equivalentes II - UCV 2024 II.pdf04. Sistema de fuerzas equivalentes II - UCV 2024 II.pdf
04. Sistema de fuerzas equivalentes II - UCV 2024 II.pdfCristhianZetaNima
 
ECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdfECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdfmatepura
 
clasificasion de vias arteriales , vias locales
clasificasion de vias arteriales , vias localesclasificasion de vias arteriales , vias locales
clasificasion de vias arteriales , vias localesMIGUELANGEL2658
 
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIASTEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIASfranzEmersonMAMANIOC
 
desarrollodeproyectoss inge. industrial
desarrollodeproyectoss  inge. industrialdesarrollodeproyectoss  inge. industrial
desarrollodeproyectoss inge. industrialGibranDiaz7
 
Obras paralizadas en el sector construcción
Obras paralizadas en el sector construcciónObras paralizadas en el sector construcción
Obras paralizadas en el sector construcciónXimenaFallaLecca1
 
Clase 7 MECÁNICA DE FLUIDOS 2 INGENIERIA CIVIL
Clase 7 MECÁNICA DE FLUIDOS 2 INGENIERIA CIVILClase 7 MECÁNICA DE FLUIDOS 2 INGENIERIA CIVIL
Clase 7 MECÁNICA DE FLUIDOS 2 INGENIERIA CIVILProblemSolved
 

Último (20)

Manual_Identificación_Geoformas_140627.pdf
Manual_Identificación_Geoformas_140627.pdfManual_Identificación_Geoformas_140627.pdf
Manual_Identificación_Geoformas_140627.pdf
 
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdf
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdfReporte de simulación de flujo del agua en un volumen de control MNVA.pdf
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdf
 
Mapas y cartas topográficas y de suelos.pptx
Mapas y cartas topográficas y de suelos.pptxMapas y cartas topográficas y de suelos.pptx
Mapas y cartas topográficas y de suelos.pptx
 
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.pptARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
 
01 MATERIALES AERONAUTICOS VARIOS clase 1.ppt
01 MATERIALES AERONAUTICOS VARIOS clase 1.ppt01 MATERIALES AERONAUTICOS VARIOS clase 1.ppt
01 MATERIALES AERONAUTICOS VARIOS clase 1.ppt
 
clases de porcinos generales de porcinos
clases de porcinos generales de porcinosclases de porcinos generales de porcinos
clases de porcinos generales de porcinos
 
Elaboración de la estructura del ADN y ARN en papel.pdf
Elaboración de la estructura del ADN y ARN en papel.pdfElaboración de la estructura del ADN y ARN en papel.pdf
Elaboración de la estructura del ADN y ARN en papel.pdf
 
CONCEPTOS EN HIDROGEOLOGIA-diapositivas varias.pptx
CONCEPTOS EN HIDROGEOLOGIA-diapositivas varias.pptxCONCEPTOS EN HIDROGEOLOGIA-diapositivas varias.pptx
CONCEPTOS EN HIDROGEOLOGIA-diapositivas varias.pptx
 
aCARGA y FUERZA UNI 19 marzo 2024-22.ppt
aCARGA y FUERZA UNI 19 marzo 2024-22.pptaCARGA y FUERZA UNI 19 marzo 2024-22.ppt
aCARGA y FUERZA UNI 19 marzo 2024-22.ppt
 
PPT ELABORARACION DE ADOBES 2023 (1).pdf
PPT ELABORARACION DE ADOBES 2023 (1).pdfPPT ELABORARACION DE ADOBES 2023 (1).pdf
PPT ELABORARACION DE ADOBES 2023 (1).pdf
 
tema05 estabilidad en barras mecanicas.pdf
tema05 estabilidad en barras mecanicas.pdftema05 estabilidad en barras mecanicas.pdf
tema05 estabilidad en barras mecanicas.pdf
 
CLASe número 4 fotogrametria Y PARALAJE.pptx
CLASe número 4 fotogrametria Y PARALAJE.pptxCLASe número 4 fotogrametria Y PARALAJE.pptx
CLASe número 4 fotogrametria Y PARALAJE.pptx
 
Base de Datos en Microsoft SQL Server 2024
Base de Datos en Microsoft SQL Server 2024Base de Datos en Microsoft SQL Server 2024
Base de Datos en Microsoft SQL Server 2024
 
04. Sistema de fuerzas equivalentes II - UCV 2024 II.pdf
04. Sistema de fuerzas equivalentes II - UCV 2024 II.pdf04. Sistema de fuerzas equivalentes II - UCV 2024 II.pdf
04. Sistema de fuerzas equivalentes II - UCV 2024 II.pdf
 
ECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdfECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdf
 
clasificasion de vias arteriales , vias locales
clasificasion de vias arteriales , vias localesclasificasion de vias arteriales , vias locales
clasificasion de vias arteriales , vias locales
 
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIASTEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
 
desarrollodeproyectoss inge. industrial
desarrollodeproyectoss  inge. industrialdesarrollodeproyectoss  inge. industrial
desarrollodeproyectoss inge. industrial
 
Obras paralizadas en el sector construcción
Obras paralizadas en el sector construcciónObras paralizadas en el sector construcción
Obras paralizadas en el sector construcción
 
Clase 7 MECÁNICA DE FLUIDOS 2 INGENIERIA CIVIL
Clase 7 MECÁNICA DE FLUIDOS 2 INGENIERIA CIVILClase 7 MECÁNICA DE FLUIDOS 2 INGENIERIA CIVIL
Clase 7 MECÁNICA DE FLUIDOS 2 INGENIERIA CIVIL
 

Regresión Logística clasifica datos en categorías

  • 1. La Regresión Logística es un algoritmo que permite tomar una serie de datos y clasificarlos en una de dos posibles categorías o clases. El algoritmo toma como entrada una serie de datos X y genera a la salida una variable Y con uno de dos posibles valores, clases o categorías: 0 o 1. Supongamos que se tiene un set de 100 datos. Cada dato se representa con dos características (dos cantidades numéricas) y además pertenece a una de dos posibles categorías: 0 ó 1. La regresión logística y multiclase y su relación con redes neuronales lunes, 19 de abril de 2021 2:23 p. m. Clase Redes Neuronales 3 página 1
  • 2. El objetivo de la Regresión Logística es clasificar de forma automática estos datos en las dos categorías existentes. Esto equivale a encontrar una frontera que permita separar los datos en dos agrupaciones diferentes, como se muestra a continuación: Para obtener la frontera de decisión el problema se puede modelar como una red Clase Redes Neuronales 3 página 2
  • 3. Para obtener la frontera de decisión el problema se puede modelar como una red neuronal que lleva a cabo los siguientes pasos: Transformación de los datos de entrada • Aplicación de una función de activación • Transformación de los datos de entrada. Es aquí donde el problema se modela como una red neuronal, donde una neurona recibe los datos de entrada y los transforma primero en un número Z de salida. Como en este caso, tenemos 2 datos de entrada (X1,X2); cada dato tendrá su peso (w1, w2); y se realiza la combinación lineal, y luego se le suma la constante "b" al resultado. En el ejemplo, como tenemos 100 datos, entonces, Esos 100 datos son los "datos de entrenamiento", donde cada dato tiene una etiqueta (1 o 0) (Aprendizaje supervisado). El valor de Z es un número natural. El paso siguiente es hallar la "probabilidad" de que ese número corresponda a la etiqueta 1 o 0. Para hallar esa probabilidad se debe evaluar en Z una función llamada "Función de Activación", la cual dará un número entre 0 y 1. Si el resultado es menor o igual que 0.5; la etiqueta se colocará como CERO, y si el resultado es mayor a 0.5, la etiqueta se colocará como 1. Clase Redes Neuronales 3 página 3
  • 4. La función de activación común usada en una neurona es la "Función Sigmoidal", cuya expresión y gráfica son: Es así como finalmente se obtiene de la neurona, un dato que es 1 o 0, de acuerdo al dato de la entrada. Formalmente entonces se puede definir una neurona, llamada "Perceptron", como una unidad algorítmica que toma un vector de entrada y genera un vector de salida llevando primero una acción de transformación de los datos, multplicándolos por unos pesos y luego sumando una constate y luego aplicando una función de activación. Clase Redes Neuronales 3 página 4
  • 5. Los pesos y la constante se hallan por un proceso de entrenamiento que sigue normalmente los siguientes pasos: Definición de la función de error. • Inicialización aleatoria de los parámetros del modelo. • Definición de la tasa de aprendizaje y el número de iteraciones. • Actualización de los parámetros del modelo usando el algoritmo del Gradiente Descendente. • En cuanto a la función de error, en este caso el error se halla con valores binarios, y si se usara una función de error ECM (Error cuadrático medio), con el error en función de "w", como lo vimos la clase pasada, si se hace eso con este tipo de datos binarios, dicha función daría con mínimos locales, como se muestra en la figura: Clase Redes Neuronales 3 página 5
  • 6. Por lo tanto, es posible que el algoritmo de gradiente descendiente no calcule el valor mínimo del error en forma adecuada. Por lo tanto, en las redes neuronales de clasificación, como es el caso de la regresión logística, se usa mejor la siguiente función de error llamada "Entropía Cruzada": Esta función es convexa y garantiza un único mínimo, lo cual a su vez, garantiza la efectividad del algoritmo de gradiente descendiente. Una vez entrenada la red, se dan los valores y de entrenamiento. Con estos valores se puede construir la frontera de decision mostrada en la figura de arriba. Pero esta frontera de decisión es "lineal", y por lo tanto solo clasificará bien los datos, si estos se pueden separar por una línea. En el caso que la distribución de los datos no se adapte a que sean separados por una línea, es necesario un modelo de red neuronal diferente, que se adapte a una frontera de decisión no lineal. TALLER 1 Clase Redes Neuronales 3 página 6
  • 7. Los datos de entrenamiento de la neurona del ejemplo anterior son y 1. Escoja 3 puntos y usando la neurona entrenada con estos puntos como entrada, determine cada punto en donde queda clasificado (1 o 0). Anote el paso a paso para hallar la clasificación en el taller. (Paso 1, transformación; Paso 2, función de activación) Invente 10 puntos y un nuevo valor para w1, w2 y b. Ahora, con esos datos, evalue la función de error de entropia cruzada. ¿Cuánto da el error?. Nota: Los valores de Y que deben dar, calcúlelos con y ; y los valores que estan dando hallelos con los nuevos valores de w1, w2 y b que se inventó. 2. En este punto anote en el taller el paso a paso de todos los cálculos. Ahora, implemente en COLAB, el siguiente código de python el cual desarrolla el algoritmo de regresión logística, con datos X1 y X2 de entrada, donde X1 es el número de horas de estudio, y X2 es el número de horas de sueño, de unos estudiantes encuestados; y la salida es el éxito o fracaso al presentar un examen. codigo regresion ... dataset2 Algunos aspectos a tener en cuenta de este código, adicionales a los ejemplos que ya hemos desarrollado en COLAB, son: El dato de entrada contiene dos dimensiones ( y ), mientras que el dato de salida tendrá una dimensión (“0” ó “1”). Además, es necesario el uso de np.random.seed para garantizar la reproducibilidad de los resultados en diferentes computadores. • Clase Redes Neuronales 3 página 7
  • 8. diferentes computadores. En la última línea de código hemos definido una función de activación sigmoidal (activation = 'sigmoid') que corresponde precisamente a la función usada en la Regresión Logística. • Para el optimizador hemos definido una tasa de aprendizaje (lr) igual a 0.2. Adicionalmente, además de la entropía cruzada (loss='binary_crossentropy') usaremos la precisión (metrics=['accuracy']) para medir el desempeño del modelo. Esta precisión es simplemente la cantidad de datos clasificador erróneamente, dividida entre la cantidad total de datos. • Al imprimir la información sobre el modelo (usando modelo.summary()), podemos observar que el modelo tiene tres parámetros entrenables (Trainable params: 3). Estos parámetros corresponden a los dos coeficientes w y al parámetro b. • Al ejecutar la anterior línea de código observamos que la precisión se incrementa progresivamente, iniciando con un valor cercano al 55% (acc = 0.55) en la iteración 1, hasta un valor del 89% (acc = 0.89) en la última iteración. • De los 100 datos, 11 fueron clasificados incorrectamente y 89 correctamente, lo que equivale a una precisión del 89%, que fue el valor obtenido en la última iteración del entrenamiento. Incluso si se incrementa el número de iteraciones, la precisión no sobrepasará este 89%. Esto se debe a la forma como están distribuidos los datos, y a la limitación inherente de la Regresión Logística, que no permite obtener una frontera de decisión no lineal (la cual mejoraría la precisión en la clasificación). • Para hacer la predicción de un dato, puede usar la línea: • Z = modelo.predict_classes(np.c_[X1,X2]) print(Z) Donde X1 y X2 es el dato que usted busca hallar la predicción. TALLER 2 Ejecute el código en COLAB. En la ejecución coloque su nombre al final de la ejecución programa para el informe. 1. Luego de ejecutar el programa, realice una predicción de cómo le irá en el parcial 2 de la materia, colocando las horas que piensa estudiar y las horas de sueño. 2. REGRESIÓN MULTICLASE Clase Redes Neuronales 3 página 8
  • 9. REGRESIÓN MULTICLASE Permite realizar la clasificación de datos cuando existen tres o más categorías. Por ejemplo, supongamos que se tienen los siguientes datos, donde cada uno está clasificado en una de tres categorías. El objetivo de la Regresión Multiclase es clasificar los datos en estas tres categorías, encontrando de forma automática las fronteras de decisión que establecen los límites entre una y otra. Estas fronteras de decisión se muestran como líneas rectas de color azul en la siguiente figura: Clase Redes Neuronales 3 página 9
  • 10. Para obtener las fronteras de decisión el problema se puede modelar como una red neuronal que lleva a cabo tres pasos: Transformación de los datos de entrada • Aplicación de una función de activación • Clasificación en una de las tres categorías existentes. • Note que como hay 3 posibles categorizaciones se usarán 3 neuronas, que luego de transformar los datos, ejecutar la función de activación y hallar las Clase Redes Neuronales 3 página 10
  • 11. de transformar los datos, ejecutar la función de activación y hallar las probabilidades, dará en la salida un vector de un 1 y 2 ceros; donde la posición de del 1 indicará la categoría a la que pertenece. En este caso, la función de activación tiene en cuenta 3 entradas, se llama softmax, y es la siguiente: Esta función permite normalizar las tres probabilidades, garantizando que la suma de las mismas sea igual a 1.0. Posteriormente, para realizar la clasificación se determina cuál de las tres probabilidades calculadas tiene el valor más alto, que corresponderá a la clase asignada. TALLER 3 Suponga que la red neuronal ya entrenada dio los siguientes resultados para cada perceptrón: Perceptrón 1: y Perceptrón 2: y Perceptrón 3: y Compruebe que si la entrada es X=(1.839, 0.557) la red clasifica ese dato en la categoría 2. Debe hacer en el informe el paso a paso de esta comprobación. 1. Repita el punto 1 pero con otro valor de X que quede clasificado en la categoría 1, y otro que quede clasificado en la categoría 3. 2. Clase Redes Neuronales 3 página 11