El documento propone utilizar la técnica de máquina de soporte vectorial (SVM) para clasificar datos de un sistema de potencia y así identificar fallas de manera más rápida. SVM permite clasificar los datos en grupos separando los con hiperplanos de máxima distancia entre clases. Los resultados muestran que SVM es efectiva para clasificar datos de sistemas de potencia y mejorar la detección de fallas.
1. La técnica de la Máquina de Soporte Vectorial.
Aplicación del SVM para el análisis de sistemas de
potencia.
Resumen
Los sistemas de distribución poseen una gran importancia en la sociedad
actual, por lo que una interrupción de dicho sistema debe ser atendido
con la mayor urgencia posible, debido a que la suspensión del servicio
puede ocasionas daños considerables al cliente y a la calidad del servicio
en general. Este documento propone la técnica de Descubrimiento de
Patrones, específicamente la Máquina de Soporte Vectorial, para obtener
información relevante a partir de una base de datos, que ayude a la toma
de decisiones para mantener la calidad del sistema de distribución. Los
resultados del estudio confirman la eficacia del método para la
clasificación de datos provenientes de un sistema de potencia.
Palabras claves
Máquina de Soporte Vectorial, Kernel, Técnica de Descubrimiento de Patrones,
Sistema de Distribución, Sistema de Potencia, Clasificación.
I. INTRODUCCION
El tamaño de los Sistemas de
Potencia (SPs) ha crecido
vertiginosamente, impulsado por el
desarrollo económico y crecimiento
poblacional de las grandes
ciudades. En la misma medida, la
información provista por estos
gigantescos SPs se ha vuelto
altamente compleja y difícil de
manejar para las direcciones
encargadas de la planificación
operativa del sistema. Los datos
aportados por el SP pueden ser
recolectados por sistemas
computarizados como el SCADA,
con el fin de crear bases centrales
de datos que podrán ser entonces
analizadas con técnicas avanzadas
para extraer conocimiento oculto,
novedoso y útil para la gerencia del
SP(Dong & Zhang, 2010).
La identificación de la falla de un
sistema de distribución puede ser
concebida como un problema de
clasificación. Es por eso que una de
las tareas básicas en el análisis de
una base de datos es la
clasificación (Xu & Chow, 2006)
La clasificación es el proceso por el
cual un grupo de datos es dividido
en varios subgrupos basados en la
información cuantitativa que posee
cada dato. Cada grupo es
denominado “clase”, con un nombre
específico (etiqueta de clase 𝐶𝑗).
Por lo general, cada dato es
2. ingresado o presentado como un
vector que puede ser discreto o
continuo (Han & Kamber, 2006). La
clasificación es un método de
aprendizaje supervisado en el que,
a partir de la información generada
a través de un grupo de datos de
entrenamiento, se estima la función
de densidad 𝐹(𝑥,𝐶 𝑗). Luego, se
estima la probabilidad de que un
elemento 𝑥 de un grupo de prueba,
pertenezca a la clase 𝐶𝑗, bajo la
supervisión del grupo de
entrenamiento (Riobó, 2010).
Las Máquinas de Soporte Vectorial
o SVMs (Support Vector Machines)
son ampliamente reconocidas por la
comunidad científica como
excelentes herramientas para la
clasificación de datos. Esta técnica
permite minimizar el error en el
proceso de clasificación y maximizar
el margen geométrico entre las
clases, lo que hace que la
clasificación sea más efectiva
(Lukomski & Wilkosz, 2010).
El documento está organizado de la
siguiente manera. El estado del arte
de los sistemas de distribución es
descrito en la sección II. La sección
III expone el estado del arte de la
Técnica de Descubrimiento de
Patrones. La sección IV se dedica a
describir el funcionamiento de la
técnica SVM. La sección V
selecciona el modelo SVM. La
simulación es ejecutada y sus
resultados son analizados en la
sección VI. El documento finaliza
con las conclusiones presentadas
en el capítulo VII.
II. ESTADO DEL ARTE DE LOS
SISTEMAS DE DISTRIBUCIÓN
La función principal de un sistema
de distribución debe ser suministrar
energía eléctrica a los usuarios de
la manera más confiable,
económica, segura y eficiente
posible. Sin embargo, los
componentes de los sistemas de
distribución están geométricamente
muy dispersos y sometidos a
distintos escenarios y condiciones
ambientales que pueden afectar
significativamente la calidad del
servicio. Entre las causas de fallas
de un sistema de distribución más
comunes están la falla de equipos,
el contacto de animales, la caída de
árboles, el impacto de rayos, etc.
Actualmente, la seguridad de los
sistemas de distribución se
encuentra en etapa de desarrollo en
la cual se procura la implementación
de sistemas de detección rápida de
las causas de las fallas. Sin
embargo, aún se mantiene de
manera general la repuesta típica
en la cual, al ocurrir la falla, el
operador estima la localización de la
falla basado en su experiencia,
información disponible pero escasa,
generalmente aportada por su
personal técnico y de
mantenimiento (Xu & Chow, 2006).
Durante estas acciones de
corrección, el equipo de reparación
puede recorrer kilómetros buscando
la falla. Una vez detectada, se
procede a aislar la contingencia,
mientras se buscan los equipos a
ser sustituidos o se cambian las
condiciones que produjeron la falla,
tal como el retiro del cadáver de un
3. animal que ocasionó cortocircuito o
el retiro de un árbol caído sobre las
líneas. Estas acciones pueden
tardar horas, lo que puede
ocasionar grandes pérdidas para el
cliente.
Así, el sistema de distribución
permanece expuesto a todo tipo de
factores que potencialmente
perturban su desempeño,
provocando la ocurrencia de fallas.
La técnica de Descubrimiento de
Patrones o PD (Pattern Discovery),
ha de mostrado ser una excelente
alternativa para mejorar la
seguridad de los sistemas de
distribución, demostrando mayor
capacidad que otros métodos para
la predicción de fallas. El PD
descubre estadísticamente múltiples
híper-rectángulos en el espacio
Euclidiano de alta dimensión, con
patrones que representan regiones
seguras o inseguras del sistema de
distribución, brindando a los
operadores de dichos sistemas una
medida visual y gráfica de las
condiciones de operación del
mismo, permitiéndoles evaluar y
tomar decisiones al respecto
basados en la clasificación de las
clases de fallas, controlando la
estabilidad del punto de operación
(Luo & Yang, 2015).
III. ESTADO DEL ARTE DE LA
TÉCNICA DE DESCUBRIMIENTO
DE PATRONES
Para lograr la más rápida
identificación de las causas de
interrupción en un sistema de
distribución de energía eléctrica, es
esencial el uso de métodos
computacionales avanzados,
agrupados bajo el término Técnicas
de Descubrimiento de Patrones.
Como se señalaba anteriormente, la
identificación de fallas puede
entenderse como una tarea de
clasificación en la que el operador
de la línea trata de categorizar dicha
falla de acuerdo a ciertas clases
predefinidas por sistemas expertos.
Los problemas de clasificación
típicos extraen un modelo de un
conjunto de datos de entrenamiento
de donde se diseñan las clases para
categorizar futuros datos. Entre los
métodos de clasificación más
popularmente para analizar los
sistemas de distribución utilizados
se encuentran: DT (Decision Tree),
ANN (Artificial Neural Network),
SVM y el LR (Logistic Regression)
(Xu & Chow, 2006).
Un LR es un modelo paramétrico
utilizado para analizar problemas
con variables dependientes
dicotómicas, mientras que la ANN
es un método no paramétrico
utilizado ampliamente no sólo en el
análisis de sistemas de potencia
sino en muchas otras áreas de
investigación y en diversas
aplicaciones (Xu & Chow, 2006).
Por otra parte, el DT ha ganado
especial interés porque provee
información útil para diseñar las
acciones de contingencia para
modificar convenientemente y con
anticipación, las condiciones
inseguras en una línea de
transmisión. La mayoría de los
trabajos académicos recientes en
DSA (Dynamic Security
4. Assessment), aplican DT debido a
que las variables consideradas son
los predictores más eficientes para
detectar problemas de seguridad del
SP. DT es una herramienta gráfica
binaria, en forma de árbol. Hace uso
de algoritmos conocidos como
CART (Classification and
Regression Trees, CT o RT) (Dong
& Zhang, 2010).
El SVM construye un hiperplano o
conjunto de hiperplanos. Dicho
hiperplano permite separar las
clases en dos espacios lo más
amplios posibles. Este hiperplano es
en realidad el vector entre los dos
puntos más cercanos de dos clases.
Por ello se dice que la máquina de
aprendizaje diseñada mediante
SVM, es un método de clasificación
binaria para los datos de prueba
analizados. La clasificación de datos
en dos clases es el caso de
aplicación más sencillo para SVM.
En el caso de que las nuevas
muestras del grupo de prueba se
correspondan con el modelo SVM
creado mediante el grupo de
entrenamiento, las mismas podrán
ser clasificadas de una clase u otra
(Vapnik & Cortes , 1995). El SVM
tiene mayor capacidad de
generalización a medida que son
mayores los márgenes de
separación de los hiperplanos, por
lo que representa un algoritmo con
mejor desempeño que otras
técnicas de clasificación.
IV. SVM - FUNCIONAMIENTO
Como se señalaba anteriormente, la
tarea de clasificación requiere de la
separación de los datos para formar
dos grupos: entrenamiento y prueba
(training and testing). A partir del
grupo de entrenamiento, la principal
función del SVM es desarrollar un
modelo que permita predecir el
“valor meta” (etiquetas de clase)
del grupo de prueba, del cual sólo
se conocen sus “atributos”
(variables observadas) (Hsu,
Chang, & Lin, 2016).
Al realizar la clasificación de
patrones en base de datos, el SVM
es una técnica especialmente útil
cuando se trata de dos categorías
diferentes de patrones, (Zeng &
Qiao, 2011). Pertenece a la familia
de métodos Kernel Machines, que
permiten describir el problema en un
espacio de características de mayor
dimensión, aplicando algoritmos
lineales para problemas no lineales.
Esta es la principal utilidad de las
funciones Kernel, debido a que la
mayoría de los problemas no son
linealmente separables. Por tanto,
transforma los datos del grupo de
entrenamiento a un espacio
vectorial de alta dimensión donde es
posible la separación lineal
(Ribadas, 2012).
La capacidad de generalización del
modelo SVM depende del cálculo
del hiperplano que separa las
clases de datos. Mediante un
proceso de optimización, este
hiperplano separa los datos con la
máxima distancia entre clases. Es
importante resaltar que el grupo de
datos de entrenamiento debe
describir las variaciones del SP. En
caso contrario, si dicho grupo no
muestra suficiente variabilidad, el
5. SVM no puede ser aplicado
satisfactoriamente (Andersson,
2005).
El SVM requiere que los datos de
entrada estén representados como
un vector de números reales. Por
tanto, de existir atributos
cualitativos, como por ejemplo (rojo,
verde, azul), estos deben
transformarse en datos
cuantitativos, como por ejemplo (0,
0,1). Este primer paso se denomina
Procesamiento de Datos, que
además tiene el valor agregado de
evitar la redundancia. Como paso
siguiente, siempre es recomendable
escalar los datos antes de aplicar
SVM. El costo computacional es
mayor al procesar, por ejemplo, un
dato numérico tal como [−10, 10],
que otro equivalente expresado
como [−1, +1]. La principal ventaja
del escalamiento es evitar que los
atributos expresados en datos
numéricos grandes dominen
aquellos expresados en datos
numéricos pequeños (Hsu, Chang,
& Lin, 2016). Por tanto, se
recomienda el escalamiento lineal
de cada atributo a un rango de
[−1, +1], o [0, +1].
Dado el espacio de entrada
𝑋(≡ ℝ 𝑛
, 𝑑𝑖𝑚𝑒𝑛𝑠𝑖ó𝑛 𝑛), y el espacio
de salida 𝑌 = {−1, +1}, cada dato
del grupo de entrenamiento será un
par (𝑥𝑖,⃗⃗⃗⃗ 𝑦𝑖) con 𝑥1⃗⃗⃗⃗⃗⃗ ∈ 𝑋, mientras
que 𝑦𝑖 ∈ 𝑌. El grupo de
entrenamiento es definido como
𝐿 = {(𝑥1,⃗⃗⃗⃗⃗ 𝑦1), (𝑥2,⃗⃗⃗⃗⃗ 𝑦2), … . . (𝑥𝑙,⃗⃗⃗⃗ 𝑦𝑙)}
El objetivo del SVM es encontrar un
hiperplano 𝒉 de dimensión (𝑛 − 1)
que separe los ejemplos del grupo
de entrenamiento etiquetados con -
1 de los etiquetados con +1 con un
margen máximo (Ribadas, 2012).
V. SELECCIÓN DEL MODELO
Los datos 𝑥 𝑘 y su atributo 𝑦 𝑘 del
grupo de entrenamiento, deben ser
transformados a un espacio de
mayor dimensión mediante una
función Kernel polinomial o
gaussiana 𝐺 𝑘 = 𝜑(𝑥 𝑘, 𝑦 𝑘). Luego se
construye un discriminador lineal en
este espacio aumentado de la forma
𝑍(𝐺) = 〈𝑊, 𝐺〉=𝑊 𝑡
𝐺.
Dicho discriminador es una familia
de hiperplanos, siendo el hiperplano
separador 𝑊 𝑡
𝐺=0 (Caicedo &
Mendivelso , 2007).
Se recomienda considerar en primer
lugar la función Kernel RBF (Radial
Basis Function) determinada por
𝜑(𝑥, 𝑦) = 𝑒−𝛾‖𝑥−𝑦‖2
, donde el
parámetro 𝛾 > 0, ya que puede
manejar etiquetas de clase y
atributos no lineales, no posee
tantos parámetros como la función
polinomial y tiene menos
dificultades numéricas. En definitiva,
la función RBF, también
denominada Gaussiano, tiene dos
parámetros (𝐶, 𝛾). De antemano, en
un determinado problema no se
sabe cuales serán los valores
ideales para 𝐶 𝑦 𝛾. El objetivo de la
selección de un modelo es
determinar los valores de 𝐶 𝑦 𝛾 que
permitirán la clasificación más
precisa de los datos del grupo de
prueba (Hsu, Chang, & Lin, 2016).
Se dice que mediante los
procedimientos descritos
6. anteriormente, lo primero que hace
la SVM es mapear los puntos de
entrada a un espacio de
características con dimensión
mayor. Por ejemplo, puede pasar
los datos de entrada de ℝ2
→ ℝ3
.
Luego encuentra un hiperplano que
los separe y maximice el margen
entre las clases. Maximizar este
margen es un problema de
optimización cuadrática. Sin
embargo, se pueden presentar dos
casos: a) el conjunto de datos de
entrenamiento son linealmente
separables, b) el conjunto de datos
de entrenamiento no son
linealmente separables. Como se
señaló anteriormente, la mayoría de
los problemas no son linealmente
separables. Por lo que este
documento se enfoca en el caso b),
en el cual se hará uso de la función
Kernel 𝜑(𝑥, 𝑦) para lograr la
transformación, según se puede
ilustrar en la Figura 1 (Betancourt,
2005):
Figura 1. Transformación mediante función
Kernel.
Figura 1 muestra un proceso
conocido como el truco de Kernel,
que permite clasificar mediante la
estructura:
ℎ 𝑥 = 𝑠𝑖𝑔𝑛(𝑤⃗⃗ . 𝜑(𝑥𝑖) − 𝑏) = {
+1
−1
.
El dato del grupo de entrenamiento
(𝑥𝑖,⃗⃗⃗⃗ 𝑦𝑖) ∈ 𝐿 se puede considerar
como bien clasificado si se verifica
lo siguiente (Moore, 2001):
𝑤⃗⃗ . 𝑥𝑖⃗⃗⃗ + 𝑏 ≥ +1 − 𝜉𝑖 para 𝑦𝑖 = +1
𝑤⃗⃗ . 𝑥𝑖⃗⃗⃗ + 𝑏 ≤ −1 + 𝜉𝑖 para 𝑦𝑖 = −1
Con 𝜉𝑖 ≥ 0 ∀ 𝑖 ∈ {1,2, … . , 𝑙}
Dónde:
𝜉𝑖: Pérdida/holgura admitida para el
dato ejemplo (𝑥𝑖,⃗⃗⃗⃗ 𝑦𝑖),
Mientras que ∑ 𝜉𝑖
𝑙
𝑖=1 puede ser
tomado como una medida del error
cometido en la clasificación.
𝑤⃗⃗ ≈ Vector de pesos,
𝑏: Umbral
La cantidad máxima de pérdidas
admitidas sobre el conjunto de
datos de entrenamiento, se acota
mediante el parámetro constante de
regularización 𝐶. Existen muchos
hiperplanos que pueden separar los
datos, sin embargo, sólo uno puede
maximizar el margen. Se puede
demostrar que el hiperplano que
más óptimamente separa los datos
es aquel que minimiza a Φ 𝑤 =
(
1
2
) ‖𝑤‖2
(Gunn, 1998). En resumen,
el problema de hiperplano requiere
la solución del siguiente problema
de optimización (Hsu, Chang, & Lin,
2016): encontrar 𝑏 y 𝑤 que:
MINIMICEN
(
1
2
) ‖𝑤‖2
+ 𝐶 ∑ 𝜉𝑖
𝑙
𝑖=1
SUJETO A:
𝑦1(𝑤⃗⃗ . 𝑥1⃗⃗⃗ + 𝑏) ≥ +1 − 𝜉1
𝑦2(𝑤⃗⃗ . 𝑥2⃗⃗⃗⃗ + 𝑏) ≥ +1 − 𝜉2
……………………
7. 𝑦𝑙(𝑤⃗⃗ . 𝑥𝑙⃗⃗⃗ + 𝑏) ≥ +1 − 𝜉𝑙
Y 𝜉𝑖 ≥ 0 ∀ 𝑖 ∈ {1,2, … . , 𝑙}
Es un problema de optimización
cuadrática o QP (Quadratic
Programming) en la que se trata de
identificar los parámetros que
optimicen una ecuación de segundo
grado. Existen algoritmos
razonablemente eficientes para
resolverlos. Sin embargo, debido a
que 𝑤⃗⃗ puede expresarse como la
combinación lineal de los ejemplos
de entrenamiento [(𝑥𝑖,⃗⃗⃗⃗ 𝑦𝑖) ∈ 𝐿] en
la forma 𝑤⃗⃗ =∑ 𝛼𝑖 𝑦𝑖 𝑥𝑖⃗⃗⃗𝑙
𝑖=1 (Ribadas,
2012), el problema de optimización
puede ser resuelto construyendo un
Langrangiano y transformándolo en
el Dual (Betancourt, 2005), que
resulta un procedimiento más
práctico y que se enuncia como
sigue:
Dado un conjunto de datos de
entrenamiento previamente
clasificado
𝐿 = {(𝑥1,⃗⃗⃗⃗⃗ 𝑦1), (𝑥2,⃗⃗⃗⃗⃗ 𝑦2), … . . , (𝑥𝑙,⃗⃗⃗⃗ 𝑦𝑙)}
y una cota máxima de pérdidas 𝐶,
encontrar los valores de
𝛼1, 𝛼2, … . , 𝛼𝑙, que:
MAXIMICEN
∑ 𝛼𝑖
𝑙
𝑖=1 − (
1
2
) ∑ ∑ 𝛼𝑖 𝛼𝑗 𝑦𝑖 𝑦𝑗
𝑙
𝑗=1
𝑙
𝑖=1 𝜑(𝑥𝑖, 𝑥𝑗)
SUJETO A: ∑ 𝛼𝑖
𝑙
𝑖=1 𝑦𝑖 = 0
Y 0 ≤ 𝛼𝑖 ≤ 𝐶
∀ 𝑖 ∈ {1,2, … . , 𝑙}.
La Figura 2 muestra la función de
los parámetros 𝛼𝑖, 𝜉𝑖, 𝐶 en la
determinación del hiperplano que
maximiza el margen entre los
valores más cercanos de ambas
clases en la clasificación:
Figura 2. Hiperplano de margen máximo.
Existe un multiplicador de Lagrange
𝛼𝑖 para cada dato de
entrenamiento. Pero solo los puntos
más cercanos al hiperplano tienen
𝛼𝑖 > 0 y son esos los llamados
vectores de soporte. Todos los
demás tienen 𝛼𝑖 = 0 (Fries,
Cristianini, & Campbell, 2000). Esto
significa que en la representación
de la solución, sólo contribuyen los
puntos más cercanos al hiperplano.
Es decir, sólo los vectores soporte
participan en la definición del vector
𝑤⃗⃗ definido anteriormente.
El hiperplano de margen máximo
mostrado en la Figura 2 quedaría
entonces definido por
ℎ 𝑥 = 𝑤⃗⃗ . 𝑥 + 𝑏 = ∑ 𝛼𝑖
𝑙
𝑖=1 𝑦𝑖 𝜑(𝑥𝑖⃗⃗⃗ , 𝑥) + 𝑏.
VI. EJEMPLO DE APLICACION Y
SIMULACION
Para demostrar su eficacia, el
modelo propuesto fue implementado
en MATLAB. El método ha sido
8. evaluado utilizando una base de
datos en la que se monitorea la
tensión y el pico de voltaje de una
línea de transmisión. Los datos
extraídos de esta base sirven como
grupo de entrenamiento para el
modelo propuesto. Se utilizan
entonces dos variables X_3
(columna 3 de la base de datos
original) y X_19 (columna 19), como
predictores, cada una cargada en
forma de vector con 21802
muestras (Para ver base de datos
completa ver Anexo), y la variable Y
como etiqueta, con los valores +1 y
-1, que representan falla y no falla
respectivamente, tal como lo
establece la Tabla 1, donde se
describe como se organizan los
datos. El vector de etiquetas asigna
un valor en código binario a cada
dato de entrenamiento:
Tabla 1. Descripción de la organización de
datos utilizados para la simulación.
Tensión
de línea
( X_3 )
Pico de
Voltaje
(X_19)
Etiqueta
(Y)
Dato de
entrenamien
to No. 1
121,26 V 180,6 V +1
(Falla)
…… …. …. …..
Dato de
entrenamien
to No.
21802
121,31 V 180,3 V -1 (No
falla)
La Figura 3 muestra los resultados
de la simulación. Consiste en un
modelo entrenado de clasificación
utilizando la configuración de datos
establecida en la Tabla 1, y la
aplicación de la técnica SVM
mediante un algoritmo expresado en
código MATLAB (Ver Anexo).
Figura 3. Modelo de clasificación,
entrenado mediante los datos de
entrenamiento agrupados en las variables
Tensión de Línea (X_3) y Pico de Voltaje
(X_19).
El modelo de la Figura 3 ha sido
entrenado mediante la función
Kernel RBF (Fine Gaussian SVM).
Los puntos rojos y azules
representan No falla y Falla
respectivamente, según la leyenda.
Este modelo puede ser almacenado
como comportamiento histórico de
la línea y utilizado posteriormente
como modelo para la clasificación
de nuevos datos.
VII. CONCLUSION
Las fallas en los Sistemas de
Distribución de energía eléctrica
afectan significativamente la calidad
del servicio, por lo que es necesario
contar con herramientas
computacionales para identificar en
tiempo real las causas de dichas
fallas. El método de clasificación
propuesto mediante el uso de
conocimiento previo extraído de una
9. base de datos que monitorea los
valores de un Sistema de Potencia,
y la aplicación de un modelo o
algoritmo diseñado mediante la
técnica de Máquinas de Soporte
Vectorial o SVM, demuestra que la
Técnica de Descubrimiento de
Patrones (PD) es una excelente
alternativa para identificar lo más
pronto posible las fallas que puedan
ocurrir en un sistema de
distribución. El método puede ser
aplicado en el análisis en tiempo
real de los numerosos nodos de una
red de energía eléctrica, teniendo
como variables la tensión o la
corriente. El proceso de aprendizaje
que aporta la técnica del SVM es
relativamente corto cuando se le
compara con otros métodos, debido
al alto rendimiento del algoritmo
propuesto, basado en uno o dos
parámetros. Por tanto, el PD puede
reconocer los límites de seguridad o
inseguridad de un sistema de
distribución con gran eficacia y
eficiencia.
VIII. BIBLIOGRAFIA
Andersson, C. (2005). Power
System Security Assessment.
Application of Learning
Algorithms. Lund: Lund
university.
Betancourt, G. (2005). Las
Máquinas de Soporte
Vectorial. Scientia et
Technica Año XI, No 27, pp.
67-72.
Caicedo, J., & Mendivelso , J.
(2007). Support Vector
Machine. Bogotá:
Universidad Nacional de
Colombia. .
Dong, Z., & Zhang, P. (2010).
Emerging Techniques in
Power System Analysis.
Londres: Springer.
Fries, T., Cristianini, N., & Campbell,
C. (2000). The Kernel-
Adatron Algorithm. A Fast
and Simple Learning
Procedure for Support Vector
Machines. Bristol:
Universidad de Bristol.
Gunn, S. (1998). Support Vector
Machines for Classification
and Regression.
Southampton: Universidad de
Southampton. Facultad de
Ingeniería. .
Han, J., & Kamber, M. (2006). Data
Mining. Concepts and
Techniques. 2nd Edn. San
Francisco: Morgan
Kaufmann.
Hsu, C.-W., Chang, C.-C., & Lin, C.-
J. (2016). A Practical Guide
to Support Vector Classi.
Taipei: Department of
Computer Science. National
Taiwan University.
Lukomski, R., & Wilkosz, K. (2010).
Utilization of Support Vector
Machine Classifiers to Power
System Topology Verification.
Modern Electric Power
System. Paper P48.
Luo, F., & Yang, Z. (2015). 4)
Advanced pattern-discovery
based fuzzy classification
10. method for PS dynamic
security assessment. IEEE
TRANSACTIONS ON
INDUSTRIAL
INFORMATICS, VOL. 11,
NO. 2., pp. 416-426.
Moore, A. (2001). Support Vector
Machines. Universidad
Carnegie Mellon .
Ribadas, F. (2012). Support Vector
Machine.
Riobó, V. (2010). Reconocimiento
de Localizaciones Mediante
Máquinas de Soporte
Vectorial. Madrid:
Universidad Carlos III de
Madrid.
Vapnik, V., & Cortes , C. (1995).
Support Vector Networks. .
Machine Learning 20, pp.
273-297.
Xu , L., & Chow, M.-Y. (2006). A
classification approach for
power distribution systems
fault cause identification.
IEEE Transactions on Power
Systems, vol. 21, no. 1., pp.
53-60.
Zeng, J., & Qiao, W. (2011). Support
Vector Machine-Based Short-
Term Wind Power
Forecasting. Lincoln:
University of Nebraska.
Faculty Publications from the
Department of Electrical
Engineering.Paper 158.