El documento propone utilizar la técnica de máquina de soporte vectorial (SVM) para clasificar datos de un sistema de potencia y así identificar fallas de manera más rápida. SVM permite clasificar los datos en grupos separando los con hiperplanos de máxima distancia entre clases. Los resultados muestran que SVM es efectiva para clasificar datos de sistemas de potencia y mejorar la detección de fallas.
El documento describe las máquinas de vectores de soporte (SVM), incluyendo su historia, objetivos, clasificación óptima, regularización, el truco del kernel, idea básica, tipos de SVM para clasificación y regresión, aplicaciones y conclusiones. Las SVM buscan el hiperplano óptimo que maximiza la distancia entre las clases para clasificar nuevos datos de forma efectiva.
Este documento presenta varios métodos y técnicas para la toma de decisiones, incluyendo matrices de pagos, árboles de decisión, análisis de riesgos, y métodos cuantitativos como programación lineal. También discute conceptos como la entropía en sistemas y cómo los sistemas se adaptan al cambio a través de ajustes a su estructura y procesos.
Métodos predictivos y Descriptivos - MINERÍA DE DATOSlalopg
Este documento describe los modelos predictivos y descriptivos en minería de datos. Explica que los modelos predictivos se basan en datos de entrenamiento para predecir variables, mientras que los modelos descriptivos forman grupos de datos sin supervisión para describir patrones. También proporciona ejemplos de algoritmos comúnmente usados como redes neuronales, árboles de decisión y análisis de asociaciones. El objetivo es extraer conocimiento útil de grandes bases de datos para la toma de decisiones.
Clasificacion Supervisada Y Algoritmos EvolutivosALONSO UCHIHA
Este documento describe varios modelos de recuperación de información, incluyendo modelos vectoriales, booleanos, probabilísticos y basados en lenguaje natural. También discute el uso de clasificación no supervisada y algoritmos evolutivos como algoritmos genéticos para tareas de minería de datos como la clasificación.
Proyecto final 3r parcial herramientas de infojuan_gregorio
Este documento presenta una introducción a los conceptos básicos de sistemas de información, bases de datos y Microsoft Publisher. Explica los componentes clave de un sistema de información como su definición, ciclo de vida y tipos. Luego describe las características y funcionalidades de las bases de datos y Microsoft Access, incluyendo tablas, campos, registros y tipos de relaciones. Finalmente, define Microsoft Publisher y sus usos para crear folletos, libretas de direcciones y calendarios.
Aplicación de aprendizaje automático en minería de datos en la evaluación del...mariasusanaSD
El documento describe la aplicación de técnicas de minería de datos y aprendizaje automático para predecir el nivel de aceptación de cursos ofrecidos por la OUI utilizando un algoritmo de clasificación J48. Los resultados mostraron que el 98.5% de las instancias fueron clasificadas correctamente con un error relativo del 37.77%.
El documento describe el proceso de análisis de sistemas de información. El objetivo del análisis es obtener una especificación detallada del sistema que satisfaga las necesidades de información de los usuarios. El análisis incluye actividades como la definición del sistema, el establecimiento de requisitos, la identificación de subsistemas, y el análisis de casos de uso, clases, datos y procesos. La participación de los usuarios es fundamental para garantizar que el sistema satisfaga sus necesidades. El análisis concluye con la verific
El documento describe las máquinas de vectores de soporte (SVM), incluyendo su historia, objetivos, clasificación óptima, regularización, el truco del kernel, idea básica, tipos de SVM para clasificación y regresión, aplicaciones y conclusiones. Las SVM buscan el hiperplano óptimo que maximiza la distancia entre las clases para clasificar nuevos datos de forma efectiva.
Este documento presenta varios métodos y técnicas para la toma de decisiones, incluyendo matrices de pagos, árboles de decisión, análisis de riesgos, y métodos cuantitativos como programación lineal. También discute conceptos como la entropía en sistemas y cómo los sistemas se adaptan al cambio a través de ajustes a su estructura y procesos.
Métodos predictivos y Descriptivos - MINERÍA DE DATOSlalopg
Este documento describe los modelos predictivos y descriptivos en minería de datos. Explica que los modelos predictivos se basan en datos de entrenamiento para predecir variables, mientras que los modelos descriptivos forman grupos de datos sin supervisión para describir patrones. También proporciona ejemplos de algoritmos comúnmente usados como redes neuronales, árboles de decisión y análisis de asociaciones. El objetivo es extraer conocimiento útil de grandes bases de datos para la toma de decisiones.
Clasificacion Supervisada Y Algoritmos EvolutivosALONSO UCHIHA
Este documento describe varios modelos de recuperación de información, incluyendo modelos vectoriales, booleanos, probabilísticos y basados en lenguaje natural. También discute el uso de clasificación no supervisada y algoritmos evolutivos como algoritmos genéticos para tareas de minería de datos como la clasificación.
Proyecto final 3r parcial herramientas de infojuan_gregorio
Este documento presenta una introducción a los conceptos básicos de sistemas de información, bases de datos y Microsoft Publisher. Explica los componentes clave de un sistema de información como su definición, ciclo de vida y tipos. Luego describe las características y funcionalidades de las bases de datos y Microsoft Access, incluyendo tablas, campos, registros y tipos de relaciones. Finalmente, define Microsoft Publisher y sus usos para crear folletos, libretas de direcciones y calendarios.
Aplicación de aprendizaje automático en minería de datos en la evaluación del...mariasusanaSD
El documento describe la aplicación de técnicas de minería de datos y aprendizaje automático para predecir el nivel de aceptación de cursos ofrecidos por la OUI utilizando un algoritmo de clasificación J48. Los resultados mostraron que el 98.5% de las instancias fueron clasificadas correctamente con un error relativo del 37.77%.
El documento describe el proceso de análisis de sistemas de información. El objetivo del análisis es obtener una especificación detallada del sistema que satisfaga las necesidades de información de los usuarios. El análisis incluye actividades como la definición del sistema, el establecimiento de requisitos, la identificación de subsistemas, y el análisis de casos de uso, clases, datos y procesos. La participación de los usuarios es fundamental para garantizar que el sistema satisfaga sus necesidades. El análisis concluye con la verific
Unidad 4 tema 7 - equipo dcs - deteccion de fallas acpicegudomonagas
Este documento presenta diferentes métodos estadísticos para la detección de fallas en procesos industriales, incluyendo análisis de componentes principales, análisis discriminante de Fisher, y análisis discriminante generalizado. Estos métodos utilizan datos históricos del proceso para generar patrones que permitan identificar condiciones de falla, lo cual tiene ventajas sobre métodos basados en modelos matemáticos precisos. El documento también discute el papel de los sistemas SCADA en la detección de fallas y la import
El documento describe los pasos para recolectar datos sobre el mantenimiento y fallas de equipos. Incluye técnicas como entrevistas y encuestas para obtener información, así como detalles sobre operaciones de mantenimiento, tipos de datos e información recopilada, códigos de fallas, listas de inspección y caracterización de fallas.
El documento describe la metodología MEDSI seleccionada para el diseño de un sistema de información. La metodología fue desarrollada por Jonás Montilva y consta de 8 fases que van desde la definición del proyecto hasta la prueba y entrega del sistema, cubriendo todo el ciclo de vida. Se explican brevemente cada una de las fases de la metodología.
El documento presenta varios métodos para evaluar riesgos, incluyendo el Método de Evaluación de Riesgos del NIST, el Método de Análisis Histórico de Riesgo, el Método de Análisis Preliminar, el Método de Análisis Funcional de Operabilidad, el Método de Análisis Cualitativo mediante Árbol de Fallos y el Método Gretener. Cada método tiene un objetivo específico, una descripción y un procedimiento definido para identificar, analizar y evaluar riesgos.
Este documento presenta información sobre diferentes métodos y modelos probabilísticos aplicados a la investigación de operaciones, incluyendo cadenas de Markov, teoría de colas, y programación no lineal. Describe brevemente cada uno de estos métodos y ofrece ejemplos de su aplicación. Además, incluye una tabla de diagnóstico inicial que analiza los métodos probabilísticos requeridos y las referencias documentales correspondientes.
Este documento describe los conceptos básicos de los sistemas de información y los métodos para su desarrollo. Define un sistema como un conjunto de elementos dinámicamente relacionados para alcanzar un objetivo. Explica que los sistemas pueden ser físicos o abstractos, abiertos o cerrados. Luego, describe tres métodos para el desarrollo de sistemas: el ciclo de vida, el análisis estructurado y el prototipo. Finalmente, detalla ocho etapas para el desarrollo de un sistema.
Este documento describe varias metodologías para el diseño de sistemas, incluyendo los pasos de las metodologías de Hall y Jenkins. También explica conceptos como sistemas duros, características de los sistemas duros, y aplicaciones de las interfaces de programación de aplicaciones.
Reconocimiento de los metodos probabilisticosAngiePea36
El documento presenta un resumen de los métodos probabilísticos aplicados a diferentes estrategias como proyección, compra, decisión, participación, servicio y optimización. Describe los modelos probabilísticos mínimos cuadrados, exponencial, binomial, de revisión continua, de inventario sin déficit e incremento absoluto. También presenta cadenas de Markov, distribución estacionaria, tiempo de espera, tiempo entre servicio y tiempo de salida.
El documento describe las 7 fases del ciclo de vida de desarrollo de sistemas, incluyendo la identificación de problemas, determinación de requerimientos, análisis de necesidades, diseño del sistema, desarrollo y documentación de software, pruebas y mantenimiento, e implementación y evaluación. El ciclo de vida ayuda a los analistas a desarrollar sistemas que satisfagan las necesidades de los clientes siguiendo un proceso estructurado.
El sistema automatizará el centro de cómputo mediante la ejecución de tareas como la asignación de equipos a estudiantes, registro de usuarios, monitoreo del estado de las computadoras y registro de préstamos de equipo. El sistema se desarrollará en Visual Basic y se conectará a una base de datos en Access para almacenar información de usuarios y recursos.
El documento presenta una introducción a la investigación de operaciones (IO). Explica que la IO usa el método científico para modelar problemas del mundo real y encontrar soluciones óptimas mediante el uso de técnicas matemáticas. También describe los pasos típicos del método científico aplicado en la IO, incluyendo la delimitación del problema, modelación, resolución del modelo, verificación y conclusión.
1. El estudiante diseñó un mentefacto sobre el modelo de colas M/G/C-FCFS con una política de inventario de revisión continua (R,Q) usando CmapTools.
2. El estudiante identificó que la cadena de Markov, el modelo de línea de espera de un solo servidor y la programación estocástica son los modelos probabilísticos requeridos para abordar las estrategias de participación, servicio y optimización propuestas en el estudio de caso.
3. El estudiante justificó los modelos se
Este documento describe varias técnicas comunes de minería de datos como redes neuronales, árboles de decisión, algoritmos genéticos, clustering, aprendizaje automático, regresión lineal, reglas de inducción y modelos estadísticos. Estas técnicas se utilizan para descubrir patrones y relaciones en grandes conjuntos de datos a través de métodos predictivos, descriptivos y de verificación. La minería de datos permite entregar información prospectiva y proactiva con el soporte de recolección masiva de datos
Este documento describe el desarrollo de un sistema experto para diagnosticar fallas en computadoras usando Prolog. Explica brevemente los sistemas expertos y su importancia, y luego detalla el modelado del problema, el diseño de reglas y la implementación del sistema experto para diagnosticar fallas en computadoras basado en síntomas provistos por el usuario.
Este documento describe el desarrollo de un sistema experto para diagnosticar fallas en computadoras usando Prolog. Explica brevemente los sistemas expertos y su importancia, y luego detalla el modelado del problema, el diseño de reglas y la implementación del sistema experto para diagnosticar fallas en computadoras basado en síntomas provistos por el usuario.
Este documento describe el desarrollo de un sistema experto para diagnosticar fallas en computadoras usando Prolog. Explica brevemente los sistemas expertos y su importancia, y luego detalla el modelado del problema, el diseño de reglas y la implementación del sistema experto para diagnosticar fallas en computadoras basado en síntomas provistos por el usuario.
Sistema de Informacion: Ciclo de Vida y DiseñoRaimonKoudsi
El documento describe el ciclo de vida de un sistema de información, incluyendo sus fases principales como la planificación, el análisis, el diseño, el desarrollo, la integración y pruebas, e implementación. También cubre los componentes clave, procedimientos y metodologías utilizadas para el diseño de sistemas de información.
El documento describe el uso de diferentes técnicas de toma de decisiones como árboles de decisión, PCA y SVM para analizar datos. Se aplican estas técnicas a diferentes conjuntos de datos como datos de cáncer de mama para reducir dimensiones, clasificar y visualizar los datos. El documento concluye que estas técnicas facilitan la interpretación y comprensión de la toma de decisiones y recomienda analizar correctamente los enlaces en los árboles de decisión para obtener información precisa.
El documento describe las principales técnicas de minería de datos, incluyendo aprendizaje supervisado y no supervisado, redes neuronales, árboles de decisión, algoritmos genéticos, clustering, predicción, análisis de enlaces, patrones secuenciales y Naive Bayes. Explica que estas técnicas crean modelos predictivos y descriptivos para extraer conocimiento e identificar patrones en grandes conjuntos de datos.
Este documento presenta una guía para diseñar modelos basados en aprendizaje. Explica que estos modelos se obtienen a partir de datos y se asemejan al cerebro en que adquieren conocimiento a través del aprendizaje. Detalla los tipos de aplicaciones como aproximación funcional, clasificación, predicción y clustering. Luego, cubre el análisis y procesamiento de variables, la estructura de entrada-salida, distribución de datos, estructura del modelo, adaptación del modelo y validación.
TIA portal Bloques PLC Siemens______.pdfArmandoSarco
Bloques con Tia Portal, El sistema de automatización proporciona distintos tipos de bloques donde se guardarán tanto el programa como los datos
correspondientes. Dependiendo de la exigencia del proceso el programa estará estructurado en diferentes bloques.
Unidad 4 tema 7 - equipo dcs - deteccion de fallas acpicegudomonagas
Este documento presenta diferentes métodos estadísticos para la detección de fallas en procesos industriales, incluyendo análisis de componentes principales, análisis discriminante de Fisher, y análisis discriminante generalizado. Estos métodos utilizan datos históricos del proceso para generar patrones que permitan identificar condiciones de falla, lo cual tiene ventajas sobre métodos basados en modelos matemáticos precisos. El documento también discute el papel de los sistemas SCADA en la detección de fallas y la import
El documento describe los pasos para recolectar datos sobre el mantenimiento y fallas de equipos. Incluye técnicas como entrevistas y encuestas para obtener información, así como detalles sobre operaciones de mantenimiento, tipos de datos e información recopilada, códigos de fallas, listas de inspección y caracterización de fallas.
El documento describe la metodología MEDSI seleccionada para el diseño de un sistema de información. La metodología fue desarrollada por Jonás Montilva y consta de 8 fases que van desde la definición del proyecto hasta la prueba y entrega del sistema, cubriendo todo el ciclo de vida. Se explican brevemente cada una de las fases de la metodología.
El documento presenta varios métodos para evaluar riesgos, incluyendo el Método de Evaluación de Riesgos del NIST, el Método de Análisis Histórico de Riesgo, el Método de Análisis Preliminar, el Método de Análisis Funcional de Operabilidad, el Método de Análisis Cualitativo mediante Árbol de Fallos y el Método Gretener. Cada método tiene un objetivo específico, una descripción y un procedimiento definido para identificar, analizar y evaluar riesgos.
Este documento presenta información sobre diferentes métodos y modelos probabilísticos aplicados a la investigación de operaciones, incluyendo cadenas de Markov, teoría de colas, y programación no lineal. Describe brevemente cada uno de estos métodos y ofrece ejemplos de su aplicación. Además, incluye una tabla de diagnóstico inicial que analiza los métodos probabilísticos requeridos y las referencias documentales correspondientes.
Este documento describe los conceptos básicos de los sistemas de información y los métodos para su desarrollo. Define un sistema como un conjunto de elementos dinámicamente relacionados para alcanzar un objetivo. Explica que los sistemas pueden ser físicos o abstractos, abiertos o cerrados. Luego, describe tres métodos para el desarrollo de sistemas: el ciclo de vida, el análisis estructurado y el prototipo. Finalmente, detalla ocho etapas para el desarrollo de un sistema.
Este documento describe varias metodologías para el diseño de sistemas, incluyendo los pasos de las metodologías de Hall y Jenkins. También explica conceptos como sistemas duros, características de los sistemas duros, y aplicaciones de las interfaces de programación de aplicaciones.
Reconocimiento de los metodos probabilisticosAngiePea36
El documento presenta un resumen de los métodos probabilísticos aplicados a diferentes estrategias como proyección, compra, decisión, participación, servicio y optimización. Describe los modelos probabilísticos mínimos cuadrados, exponencial, binomial, de revisión continua, de inventario sin déficit e incremento absoluto. También presenta cadenas de Markov, distribución estacionaria, tiempo de espera, tiempo entre servicio y tiempo de salida.
El documento describe las 7 fases del ciclo de vida de desarrollo de sistemas, incluyendo la identificación de problemas, determinación de requerimientos, análisis de necesidades, diseño del sistema, desarrollo y documentación de software, pruebas y mantenimiento, e implementación y evaluación. El ciclo de vida ayuda a los analistas a desarrollar sistemas que satisfagan las necesidades de los clientes siguiendo un proceso estructurado.
El sistema automatizará el centro de cómputo mediante la ejecución de tareas como la asignación de equipos a estudiantes, registro de usuarios, monitoreo del estado de las computadoras y registro de préstamos de equipo. El sistema se desarrollará en Visual Basic y se conectará a una base de datos en Access para almacenar información de usuarios y recursos.
El documento presenta una introducción a la investigación de operaciones (IO). Explica que la IO usa el método científico para modelar problemas del mundo real y encontrar soluciones óptimas mediante el uso de técnicas matemáticas. También describe los pasos típicos del método científico aplicado en la IO, incluyendo la delimitación del problema, modelación, resolución del modelo, verificación y conclusión.
1. El estudiante diseñó un mentefacto sobre el modelo de colas M/G/C-FCFS con una política de inventario de revisión continua (R,Q) usando CmapTools.
2. El estudiante identificó que la cadena de Markov, el modelo de línea de espera de un solo servidor y la programación estocástica son los modelos probabilísticos requeridos para abordar las estrategias de participación, servicio y optimización propuestas en el estudio de caso.
3. El estudiante justificó los modelos se
Este documento describe varias técnicas comunes de minería de datos como redes neuronales, árboles de decisión, algoritmos genéticos, clustering, aprendizaje automático, regresión lineal, reglas de inducción y modelos estadísticos. Estas técnicas se utilizan para descubrir patrones y relaciones en grandes conjuntos de datos a través de métodos predictivos, descriptivos y de verificación. La minería de datos permite entregar información prospectiva y proactiva con el soporte de recolección masiva de datos
Este documento describe el desarrollo de un sistema experto para diagnosticar fallas en computadoras usando Prolog. Explica brevemente los sistemas expertos y su importancia, y luego detalla el modelado del problema, el diseño de reglas y la implementación del sistema experto para diagnosticar fallas en computadoras basado en síntomas provistos por el usuario.
Este documento describe el desarrollo de un sistema experto para diagnosticar fallas en computadoras usando Prolog. Explica brevemente los sistemas expertos y su importancia, y luego detalla el modelado del problema, el diseño de reglas y la implementación del sistema experto para diagnosticar fallas en computadoras basado en síntomas provistos por el usuario.
Este documento describe el desarrollo de un sistema experto para diagnosticar fallas en computadoras usando Prolog. Explica brevemente los sistemas expertos y su importancia, y luego detalla el modelado del problema, el diseño de reglas y la implementación del sistema experto para diagnosticar fallas en computadoras basado en síntomas provistos por el usuario.
Sistema de Informacion: Ciclo de Vida y DiseñoRaimonKoudsi
El documento describe el ciclo de vida de un sistema de información, incluyendo sus fases principales como la planificación, el análisis, el diseño, el desarrollo, la integración y pruebas, e implementación. También cubre los componentes clave, procedimientos y metodologías utilizadas para el diseño de sistemas de información.
El documento describe el uso de diferentes técnicas de toma de decisiones como árboles de decisión, PCA y SVM para analizar datos. Se aplican estas técnicas a diferentes conjuntos de datos como datos de cáncer de mama para reducir dimensiones, clasificar y visualizar los datos. El documento concluye que estas técnicas facilitan la interpretación y comprensión de la toma de decisiones y recomienda analizar correctamente los enlaces en los árboles de decisión para obtener información precisa.
El documento describe las principales técnicas de minería de datos, incluyendo aprendizaje supervisado y no supervisado, redes neuronales, árboles de decisión, algoritmos genéticos, clustering, predicción, análisis de enlaces, patrones secuenciales y Naive Bayes. Explica que estas técnicas crean modelos predictivos y descriptivos para extraer conocimiento e identificar patrones en grandes conjuntos de datos.
Este documento presenta una guía para diseñar modelos basados en aprendizaje. Explica que estos modelos se obtienen a partir de datos y se asemejan al cerebro en que adquieren conocimiento a través del aprendizaje. Detalla los tipos de aplicaciones como aproximación funcional, clasificación, predicción y clustering. Luego, cubre el análisis y procesamiento de variables, la estructura de entrada-salida, distribución de datos, estructura del modelo, adaptación del modelo y validación.
TIA portal Bloques PLC Siemens______.pdfArmandoSarco
Bloques con Tia Portal, El sistema de automatización proporciona distintos tipos de bloques donde se guardarán tanto el programa como los datos
correspondientes. Dependiendo de la exigencia del proceso el programa estará estructurado en diferentes bloques.
1. La técnica de la Máquina de Soporte Vectorial.
Aplicación del SVM para el análisis de sistemas de
potencia.
Resumen
Los sistemas de distribución poseen una gran importancia en la sociedad
actual, por lo que una interrupción de dicho sistema debe ser atendido
con la mayor urgencia posible, debido a que la suspensión del servicio
puede ocasionas daños considerables al cliente y a la calidad del servicio
en general. Este documento propone la técnica de Descubrimiento de
Patrones, específicamente la Máquina de Soporte Vectorial, para obtener
información relevante a partir de una base de datos, que ayude a la toma
de decisiones para mantener la calidad del sistema de distribución. Los
resultados del estudio confirman la eficacia del método para la
clasificación de datos provenientes de un sistema de potencia.
Palabras claves
Máquina de Soporte Vectorial, Kernel, Técnica de Descubrimiento de Patrones,
Sistema de Distribución, Sistema de Potencia, Clasificación.
I. INTRODUCCION
El tamaño de los Sistemas de
Potencia (SPs) ha crecido
vertiginosamente, impulsado por el
desarrollo económico y crecimiento
poblacional de las grandes
ciudades. En la misma medida, la
información provista por estos
gigantescos SPs se ha vuelto
altamente compleja y difícil de
manejar para las direcciones
encargadas de la planificación
operativa del sistema. Los datos
aportados por el SP pueden ser
recolectados por sistemas
computarizados como el SCADA,
con el fin de crear bases centrales
de datos que podrán ser entonces
analizadas con técnicas avanzadas
para extraer conocimiento oculto,
novedoso y útil para la gerencia del
SP(Dong & Zhang, 2010).
La identificación de la falla de un
sistema de distribución puede ser
concebida como un problema de
clasificación. Es por eso que una de
las tareas básicas en el análisis de
una base de datos es la
clasificación (Xu & Chow, 2006)
La clasificación es el proceso por el
cual un grupo de datos es dividido
en varios subgrupos basados en la
información cuantitativa que posee
cada dato. Cada grupo es
denominado “clase”, con un nombre
específico (etiqueta de clase 𝐶𝑗).
Por lo general, cada dato es
2. ingresado o presentado como un
vector que puede ser discreto o
continuo (Han & Kamber, 2006). La
clasificación es un método de
aprendizaje supervisado en el que,
a partir de la información generada
a través de un grupo de datos de
entrenamiento, se estima la función
de densidad 𝐹(𝑥,𝐶 𝑗). Luego, se
estima la probabilidad de que un
elemento 𝑥 de un grupo de prueba,
pertenezca a la clase 𝐶𝑗, bajo la
supervisión del grupo de
entrenamiento (Riobó, 2010).
Las Máquinas de Soporte Vectorial
o SVMs (Support Vector Machines)
son ampliamente reconocidas por la
comunidad científica como
excelentes herramientas para la
clasificación de datos. Esta técnica
permite minimizar el error en el
proceso de clasificación y maximizar
el margen geométrico entre las
clases, lo que hace que la
clasificación sea más efectiva
(Lukomski & Wilkosz, 2010).
El documento está organizado de la
siguiente manera. El estado del arte
de los sistemas de distribución es
descrito en la sección II. La sección
III expone el estado del arte de la
Técnica de Descubrimiento de
Patrones. La sección IV se dedica a
describir el funcionamiento de la
técnica SVM. La sección V
selecciona el modelo SVM. La
simulación es ejecutada y sus
resultados son analizados en la
sección VI. El documento finaliza
con las conclusiones presentadas
en el capítulo VII.
II. ESTADO DEL ARTE DE LOS
SISTEMAS DE DISTRIBUCIÓN
La función principal de un sistema
de distribución debe ser suministrar
energía eléctrica a los usuarios de
la manera más confiable,
económica, segura y eficiente
posible. Sin embargo, los
componentes de los sistemas de
distribución están geométricamente
muy dispersos y sometidos a
distintos escenarios y condiciones
ambientales que pueden afectar
significativamente la calidad del
servicio. Entre las causas de fallas
de un sistema de distribución más
comunes están la falla de equipos,
el contacto de animales, la caída de
árboles, el impacto de rayos, etc.
Actualmente, la seguridad de los
sistemas de distribución se
encuentra en etapa de desarrollo en
la cual se procura la implementación
de sistemas de detección rápida de
las causas de las fallas. Sin
embargo, aún se mantiene de
manera general la repuesta típica
en la cual, al ocurrir la falla, el
operador estima la localización de la
falla basado en su experiencia,
información disponible pero escasa,
generalmente aportada por su
personal técnico y de
mantenimiento (Xu & Chow, 2006).
Durante estas acciones de
corrección, el equipo de reparación
puede recorrer kilómetros buscando
la falla. Una vez detectada, se
procede a aislar la contingencia,
mientras se buscan los equipos a
ser sustituidos o se cambian las
condiciones que produjeron la falla,
tal como el retiro del cadáver de un
3. animal que ocasionó cortocircuito o
el retiro de un árbol caído sobre las
líneas. Estas acciones pueden
tardar horas, lo que puede
ocasionar grandes pérdidas para el
cliente.
Así, el sistema de distribución
permanece expuesto a todo tipo de
factores que potencialmente
perturban su desempeño,
provocando la ocurrencia de fallas.
La técnica de Descubrimiento de
Patrones o PD (Pattern Discovery),
ha de mostrado ser una excelente
alternativa para mejorar la
seguridad de los sistemas de
distribución, demostrando mayor
capacidad que otros métodos para
la predicción de fallas. El PD
descubre estadísticamente múltiples
híper-rectángulos en el espacio
Euclidiano de alta dimensión, con
patrones que representan regiones
seguras o inseguras del sistema de
distribución, brindando a los
operadores de dichos sistemas una
medida visual y gráfica de las
condiciones de operación del
mismo, permitiéndoles evaluar y
tomar decisiones al respecto
basados en la clasificación de las
clases de fallas, controlando la
estabilidad del punto de operación
(Luo & Yang, 2015).
III. ESTADO DEL ARTE DE LA
TÉCNICA DE DESCUBRIMIENTO
DE PATRONES
Para lograr la más rápida
identificación de las causas de
interrupción en un sistema de
distribución de energía eléctrica, es
esencial el uso de métodos
computacionales avanzados,
agrupados bajo el término Técnicas
de Descubrimiento de Patrones.
Como se señalaba anteriormente, la
identificación de fallas puede
entenderse como una tarea de
clasificación en la que el operador
de la línea trata de categorizar dicha
falla de acuerdo a ciertas clases
predefinidas por sistemas expertos.
Los problemas de clasificación
típicos extraen un modelo de un
conjunto de datos de entrenamiento
de donde se diseñan las clases para
categorizar futuros datos. Entre los
métodos de clasificación más
popularmente para analizar los
sistemas de distribución utilizados
se encuentran: DT (Decision Tree),
ANN (Artificial Neural Network),
SVM y el LR (Logistic Regression)
(Xu & Chow, 2006).
Un LR es un modelo paramétrico
utilizado para analizar problemas
con variables dependientes
dicotómicas, mientras que la ANN
es un método no paramétrico
utilizado ampliamente no sólo en el
análisis de sistemas de potencia
sino en muchas otras áreas de
investigación y en diversas
aplicaciones (Xu & Chow, 2006).
Por otra parte, el DT ha ganado
especial interés porque provee
información útil para diseñar las
acciones de contingencia para
modificar convenientemente y con
anticipación, las condiciones
inseguras en una línea de
transmisión. La mayoría de los
trabajos académicos recientes en
DSA (Dynamic Security
4. Assessment), aplican DT debido a
que las variables consideradas son
los predictores más eficientes para
detectar problemas de seguridad del
SP. DT es una herramienta gráfica
binaria, en forma de árbol. Hace uso
de algoritmos conocidos como
CART (Classification and
Regression Trees, CT o RT) (Dong
& Zhang, 2010).
El SVM construye un hiperplano o
conjunto de hiperplanos. Dicho
hiperplano permite separar las
clases en dos espacios lo más
amplios posibles. Este hiperplano es
en realidad el vector entre los dos
puntos más cercanos de dos clases.
Por ello se dice que la máquina de
aprendizaje diseñada mediante
SVM, es un método de clasificación
binaria para los datos de prueba
analizados. La clasificación de datos
en dos clases es el caso de
aplicación más sencillo para SVM.
En el caso de que las nuevas
muestras del grupo de prueba se
correspondan con el modelo SVM
creado mediante el grupo de
entrenamiento, las mismas podrán
ser clasificadas de una clase u otra
(Vapnik & Cortes , 1995). El SVM
tiene mayor capacidad de
generalización a medida que son
mayores los márgenes de
separación de los hiperplanos, por
lo que representa un algoritmo con
mejor desempeño que otras
técnicas de clasificación.
IV. SVM - FUNCIONAMIENTO
Como se señalaba anteriormente, la
tarea de clasificación requiere de la
separación de los datos para formar
dos grupos: entrenamiento y prueba
(training and testing). A partir del
grupo de entrenamiento, la principal
función del SVM es desarrollar un
modelo que permita predecir el
“valor meta” (etiquetas de clase)
del grupo de prueba, del cual sólo
se conocen sus “atributos”
(variables observadas) (Hsu,
Chang, & Lin, 2016).
Al realizar la clasificación de
patrones en base de datos, el SVM
es una técnica especialmente útil
cuando se trata de dos categorías
diferentes de patrones, (Zeng &
Qiao, 2011). Pertenece a la familia
de métodos Kernel Machines, que
permiten describir el problema en un
espacio de características de mayor
dimensión, aplicando algoritmos
lineales para problemas no lineales.
Esta es la principal utilidad de las
funciones Kernel, debido a que la
mayoría de los problemas no son
linealmente separables. Por tanto,
transforma los datos del grupo de
entrenamiento a un espacio
vectorial de alta dimensión donde es
posible la separación lineal
(Ribadas, 2012).
La capacidad de generalización del
modelo SVM depende del cálculo
del hiperplano que separa las
clases de datos. Mediante un
proceso de optimización, este
hiperplano separa los datos con la
máxima distancia entre clases. Es
importante resaltar que el grupo de
datos de entrenamiento debe
describir las variaciones del SP. En
caso contrario, si dicho grupo no
muestra suficiente variabilidad, el
5. SVM no puede ser aplicado
satisfactoriamente (Andersson,
2005).
El SVM requiere que los datos de
entrada estén representados como
un vector de números reales. Por
tanto, de existir atributos
cualitativos, como por ejemplo (rojo,
verde, azul), estos deben
transformarse en datos
cuantitativos, como por ejemplo (0,
0,1). Este primer paso se denomina
Procesamiento de Datos, que
además tiene el valor agregado de
evitar la redundancia. Como paso
siguiente, siempre es recomendable
escalar los datos antes de aplicar
SVM. El costo computacional es
mayor al procesar, por ejemplo, un
dato numérico tal como [−10, 10],
que otro equivalente expresado
como [−1, +1]. La principal ventaja
del escalamiento es evitar que los
atributos expresados en datos
numéricos grandes dominen
aquellos expresados en datos
numéricos pequeños (Hsu, Chang,
& Lin, 2016). Por tanto, se
recomienda el escalamiento lineal
de cada atributo a un rango de
[−1, +1], o [0, +1].
Dado el espacio de entrada
𝑋(≡ ℝ 𝑛
, 𝑑𝑖𝑚𝑒𝑛𝑠𝑖ó𝑛 𝑛), y el espacio
de salida 𝑌 = {−1, +1}, cada dato
del grupo de entrenamiento será un
par (𝑥𝑖,⃗⃗⃗⃗ 𝑦𝑖) con 𝑥1⃗⃗⃗⃗⃗⃗ ∈ 𝑋, mientras
que 𝑦𝑖 ∈ 𝑌. El grupo de
entrenamiento es definido como
𝐿 = {(𝑥1,⃗⃗⃗⃗⃗ 𝑦1), (𝑥2,⃗⃗⃗⃗⃗ 𝑦2), … . . (𝑥𝑙,⃗⃗⃗⃗ 𝑦𝑙)}
El objetivo del SVM es encontrar un
hiperplano 𝒉 de dimensión (𝑛 − 1)
que separe los ejemplos del grupo
de entrenamiento etiquetados con -
1 de los etiquetados con +1 con un
margen máximo (Ribadas, 2012).
V. SELECCIÓN DEL MODELO
Los datos 𝑥 𝑘 y su atributo 𝑦 𝑘 del
grupo de entrenamiento, deben ser
transformados a un espacio de
mayor dimensión mediante una
función Kernel polinomial o
gaussiana 𝐺 𝑘 = 𝜑(𝑥 𝑘, 𝑦 𝑘). Luego se
construye un discriminador lineal en
este espacio aumentado de la forma
𝑍(𝐺) = 〈𝑊, 𝐺〉=𝑊 𝑡
𝐺.
Dicho discriminador es una familia
de hiperplanos, siendo el hiperplano
separador 𝑊 𝑡
𝐺=0 (Caicedo &
Mendivelso , 2007).
Se recomienda considerar en primer
lugar la función Kernel RBF (Radial
Basis Function) determinada por
𝜑(𝑥, 𝑦) = 𝑒−𝛾‖𝑥−𝑦‖2
, donde el
parámetro 𝛾 > 0, ya que puede
manejar etiquetas de clase y
atributos no lineales, no posee
tantos parámetros como la función
polinomial y tiene menos
dificultades numéricas. En definitiva,
la función RBF, también
denominada Gaussiano, tiene dos
parámetros (𝐶, 𝛾). De antemano, en
un determinado problema no se
sabe cuales serán los valores
ideales para 𝐶 𝑦 𝛾. El objetivo de la
selección de un modelo es
determinar los valores de 𝐶 𝑦 𝛾 que
permitirán la clasificación más
precisa de los datos del grupo de
prueba (Hsu, Chang, & Lin, 2016).
Se dice que mediante los
procedimientos descritos
6. anteriormente, lo primero que hace
la SVM es mapear los puntos de
entrada a un espacio de
características con dimensión
mayor. Por ejemplo, puede pasar
los datos de entrada de ℝ2
→ ℝ3
.
Luego encuentra un hiperplano que
los separe y maximice el margen
entre las clases. Maximizar este
margen es un problema de
optimización cuadrática. Sin
embargo, se pueden presentar dos
casos: a) el conjunto de datos de
entrenamiento son linealmente
separables, b) el conjunto de datos
de entrenamiento no son
linealmente separables. Como se
señaló anteriormente, la mayoría de
los problemas no son linealmente
separables. Por lo que este
documento se enfoca en el caso b),
en el cual se hará uso de la función
Kernel 𝜑(𝑥, 𝑦) para lograr la
transformación, según se puede
ilustrar en la Figura 1 (Betancourt,
2005):
Figura 1. Transformación mediante función
Kernel.
Figura 1 muestra un proceso
conocido como el truco de Kernel,
que permite clasificar mediante la
estructura:
ℎ 𝑥 = 𝑠𝑖𝑔𝑛(𝑤⃗⃗ . 𝜑(𝑥𝑖) − 𝑏) = {
+1
−1
.
El dato del grupo de entrenamiento
(𝑥𝑖,⃗⃗⃗⃗ 𝑦𝑖) ∈ 𝐿 se puede considerar
como bien clasificado si se verifica
lo siguiente (Moore, 2001):
𝑤⃗⃗ . 𝑥𝑖⃗⃗⃗ + 𝑏 ≥ +1 − 𝜉𝑖 para 𝑦𝑖 = +1
𝑤⃗⃗ . 𝑥𝑖⃗⃗⃗ + 𝑏 ≤ −1 + 𝜉𝑖 para 𝑦𝑖 = −1
Con 𝜉𝑖 ≥ 0 ∀ 𝑖 ∈ {1,2, … . , 𝑙}
Dónde:
𝜉𝑖: Pérdida/holgura admitida para el
dato ejemplo (𝑥𝑖,⃗⃗⃗⃗ 𝑦𝑖),
Mientras que ∑ 𝜉𝑖
𝑙
𝑖=1 puede ser
tomado como una medida del error
cometido en la clasificación.
𝑤⃗⃗ ≈ Vector de pesos,
𝑏: Umbral
La cantidad máxima de pérdidas
admitidas sobre el conjunto de
datos de entrenamiento, se acota
mediante el parámetro constante de
regularización 𝐶. Existen muchos
hiperplanos que pueden separar los
datos, sin embargo, sólo uno puede
maximizar el margen. Se puede
demostrar que el hiperplano que
más óptimamente separa los datos
es aquel que minimiza a Φ 𝑤 =
(
1
2
) ‖𝑤‖2
(Gunn, 1998). En resumen,
el problema de hiperplano requiere
la solución del siguiente problema
de optimización (Hsu, Chang, & Lin,
2016): encontrar 𝑏 y 𝑤 que:
MINIMICEN
(
1
2
) ‖𝑤‖2
+ 𝐶 ∑ 𝜉𝑖
𝑙
𝑖=1
SUJETO A:
𝑦1(𝑤⃗⃗ . 𝑥1⃗⃗⃗ + 𝑏) ≥ +1 − 𝜉1
𝑦2(𝑤⃗⃗ . 𝑥2⃗⃗⃗⃗ + 𝑏) ≥ +1 − 𝜉2
……………………
7. 𝑦𝑙(𝑤⃗⃗ . 𝑥𝑙⃗⃗⃗ + 𝑏) ≥ +1 − 𝜉𝑙
Y 𝜉𝑖 ≥ 0 ∀ 𝑖 ∈ {1,2, … . , 𝑙}
Es un problema de optimización
cuadrática o QP (Quadratic
Programming) en la que se trata de
identificar los parámetros que
optimicen una ecuación de segundo
grado. Existen algoritmos
razonablemente eficientes para
resolverlos. Sin embargo, debido a
que 𝑤⃗⃗ puede expresarse como la
combinación lineal de los ejemplos
de entrenamiento [(𝑥𝑖,⃗⃗⃗⃗ 𝑦𝑖) ∈ 𝐿] en
la forma 𝑤⃗⃗ =∑ 𝛼𝑖 𝑦𝑖 𝑥𝑖⃗⃗⃗𝑙
𝑖=1 (Ribadas,
2012), el problema de optimización
puede ser resuelto construyendo un
Langrangiano y transformándolo en
el Dual (Betancourt, 2005), que
resulta un procedimiento más
práctico y que se enuncia como
sigue:
Dado un conjunto de datos de
entrenamiento previamente
clasificado
𝐿 = {(𝑥1,⃗⃗⃗⃗⃗ 𝑦1), (𝑥2,⃗⃗⃗⃗⃗ 𝑦2), … . . , (𝑥𝑙,⃗⃗⃗⃗ 𝑦𝑙)}
y una cota máxima de pérdidas 𝐶,
encontrar los valores de
𝛼1, 𝛼2, … . , 𝛼𝑙, que:
MAXIMICEN
∑ 𝛼𝑖
𝑙
𝑖=1 − (
1
2
) ∑ ∑ 𝛼𝑖 𝛼𝑗 𝑦𝑖 𝑦𝑗
𝑙
𝑗=1
𝑙
𝑖=1 𝜑(𝑥𝑖, 𝑥𝑗)
SUJETO A: ∑ 𝛼𝑖
𝑙
𝑖=1 𝑦𝑖 = 0
Y 0 ≤ 𝛼𝑖 ≤ 𝐶
∀ 𝑖 ∈ {1,2, … . , 𝑙}.
La Figura 2 muestra la función de
los parámetros 𝛼𝑖, 𝜉𝑖, 𝐶 en la
determinación del hiperplano que
maximiza el margen entre los
valores más cercanos de ambas
clases en la clasificación:
Figura 2. Hiperplano de margen máximo.
Existe un multiplicador de Lagrange
𝛼𝑖 para cada dato de
entrenamiento. Pero solo los puntos
más cercanos al hiperplano tienen
𝛼𝑖 > 0 y son esos los llamados
vectores de soporte. Todos los
demás tienen 𝛼𝑖 = 0 (Fries,
Cristianini, & Campbell, 2000). Esto
significa que en la representación
de la solución, sólo contribuyen los
puntos más cercanos al hiperplano.
Es decir, sólo los vectores soporte
participan en la definición del vector
𝑤⃗⃗ definido anteriormente.
El hiperplano de margen máximo
mostrado en la Figura 2 quedaría
entonces definido por
ℎ 𝑥 = 𝑤⃗⃗ . 𝑥 + 𝑏 = ∑ 𝛼𝑖
𝑙
𝑖=1 𝑦𝑖 𝜑(𝑥𝑖⃗⃗⃗ , 𝑥) + 𝑏.
VI. EJEMPLO DE APLICACION Y
SIMULACION
Para demostrar su eficacia, el
modelo propuesto fue implementado
en MATLAB. El método ha sido
8. evaluado utilizando una base de
datos en la que se monitorea la
tensión y el pico de voltaje de una
línea de transmisión. Los datos
extraídos de esta base sirven como
grupo de entrenamiento para el
modelo propuesto. Se utilizan
entonces dos variables X_3
(columna 3 de la base de datos
original) y X_19 (columna 19), como
predictores, cada una cargada en
forma de vector con 21802
muestras (Para ver base de datos
completa ver Anexo), y la variable Y
como etiqueta, con los valores +1 y
-1, que representan falla y no falla
respectivamente, tal como lo
establece la Tabla 1, donde se
describe como se organizan los
datos. El vector de etiquetas asigna
un valor en código binario a cada
dato de entrenamiento:
Tabla 1. Descripción de la organización de
datos utilizados para la simulación.
Tensión
de línea
( X_3 )
Pico de
Voltaje
(X_19)
Etiqueta
(Y)
Dato de
entrenamien
to No. 1
121,26 V 180,6 V +1
(Falla)
…… …. …. …..
Dato de
entrenamien
to No.
21802
121,31 V 180,3 V -1 (No
falla)
La Figura 3 muestra los resultados
de la simulación. Consiste en un
modelo entrenado de clasificación
utilizando la configuración de datos
establecida en la Tabla 1, y la
aplicación de la técnica SVM
mediante un algoritmo expresado en
código MATLAB (Ver Anexo).
Figura 3. Modelo de clasificación,
entrenado mediante los datos de
entrenamiento agrupados en las variables
Tensión de Línea (X_3) y Pico de Voltaje
(X_19).
El modelo de la Figura 3 ha sido
entrenado mediante la función
Kernel RBF (Fine Gaussian SVM).
Los puntos rojos y azules
representan No falla y Falla
respectivamente, según la leyenda.
Este modelo puede ser almacenado
como comportamiento histórico de
la línea y utilizado posteriormente
como modelo para la clasificación
de nuevos datos.
VII. CONCLUSION
Las fallas en los Sistemas de
Distribución de energía eléctrica
afectan significativamente la calidad
del servicio, por lo que es necesario
contar con herramientas
computacionales para identificar en
tiempo real las causas de dichas
fallas. El método de clasificación
propuesto mediante el uso de
conocimiento previo extraído de una
9. base de datos que monitorea los
valores de un Sistema de Potencia,
y la aplicación de un modelo o
algoritmo diseñado mediante la
técnica de Máquinas de Soporte
Vectorial o SVM, demuestra que la
Técnica de Descubrimiento de
Patrones (PD) es una excelente
alternativa para identificar lo más
pronto posible las fallas que puedan
ocurrir en un sistema de
distribución. El método puede ser
aplicado en el análisis en tiempo
real de los numerosos nodos de una
red de energía eléctrica, teniendo
como variables la tensión o la
corriente. El proceso de aprendizaje
que aporta la técnica del SVM es
relativamente corto cuando se le
compara con otros métodos, debido
al alto rendimiento del algoritmo
propuesto, basado en uno o dos
parámetros. Por tanto, el PD puede
reconocer los límites de seguridad o
inseguridad de un sistema de
distribución con gran eficacia y
eficiencia.
VIII. BIBLIOGRAFIA
Andersson, C. (2005). Power
System Security Assessment.
Application of Learning
Algorithms. Lund: Lund
university.
Betancourt, G. (2005). Las
Máquinas de Soporte
Vectorial. Scientia et
Technica Año XI, No 27, pp.
67-72.
Caicedo, J., & Mendivelso , J.
(2007). Support Vector
Machine. Bogotá:
Universidad Nacional de
Colombia. .
Dong, Z., & Zhang, P. (2010).
Emerging Techniques in
Power System Analysis.
Londres: Springer.
Fries, T., Cristianini, N., & Campbell,
C. (2000). The Kernel-
Adatron Algorithm. A Fast
and Simple Learning
Procedure for Support Vector
Machines. Bristol:
Universidad de Bristol.
Gunn, S. (1998). Support Vector
Machines for Classification
and Regression.
Southampton: Universidad de
Southampton. Facultad de
Ingeniería. .
Han, J., & Kamber, M. (2006). Data
Mining. Concepts and
Techniques. 2nd Edn. San
Francisco: Morgan
Kaufmann.
Hsu, C.-W., Chang, C.-C., & Lin, C.-
J. (2016). A Practical Guide
to Support Vector Classi.
Taipei: Department of
Computer Science. National
Taiwan University.
Lukomski, R., & Wilkosz, K. (2010).
Utilization of Support Vector
Machine Classifiers to Power
System Topology Verification.
Modern Electric Power
System. Paper P48.
Luo, F., & Yang, Z. (2015). 4)
Advanced pattern-discovery
based fuzzy classification
10. method for PS dynamic
security assessment. IEEE
TRANSACTIONS ON
INDUSTRIAL
INFORMATICS, VOL. 11,
NO. 2., pp. 416-426.
Moore, A. (2001). Support Vector
Machines. Universidad
Carnegie Mellon .
Ribadas, F. (2012). Support Vector
Machine.
Riobó, V. (2010). Reconocimiento
de Localizaciones Mediante
Máquinas de Soporte
Vectorial. Madrid:
Universidad Carlos III de
Madrid.
Vapnik, V., & Cortes , C. (1995).
Support Vector Networks. .
Machine Learning 20, pp.
273-297.
Xu , L., & Chow, M.-Y. (2006). A
classification approach for
power distribution systems
fault cause identification.
IEEE Transactions on Power
Systems, vol. 21, no. 1., pp.
53-60.
Zeng, J., & Qiao, W. (2011). Support
Vector Machine-Based Short-
Term Wind Power
Forecasting. Lincoln:
University of Nebraska.
Faculty Publications from the
Department of Electrical
Engineering.Paper 158.