SlideShare una empresa de Scribd logo
1 de 7
Descargar para leer sin conexión
Funciones de Base Radial

      Diego Sarmiento
Las funciones de base radial se caracterizan por una salida que se
incrementa (o decrece) monótonamente con la distancia de la entrada
respeto a un punto central (distancia euclidiana). Son por lo tanto
funciones de la forma R(X,u,σ ) , donde c es el punto central de la función
R , y σ es el ancho de la misma, indica como se incrementa (o decrece) el
valor de la función con la distancia de la entrada X a su centro.




                  (a)               (b)                  (C)
A continuación tenemos ejemplos de funciones de base radial centradas
en 0 y de ancho con valor 1mas utilizadas en la implementación de este
tipo de redes.
    RBF Gaussiana: R( x) = exp


    RBF cuadrática:

    RBF logística: R(x) =
La estructura característica de este tipo de redes es una red estática con
una capa oculta, donde las funciones de activación son de tipo radial
(gauseana) en la capa oculta y lineal en la capa de salida, como se
muestra a continuación:
Una red RBF que tiene una función de activación lineal en la capa de salida
puede hacer una aproximación arbitrariamente cercana a cualquier función
continua siempre y cuando tenga el número suficiente de neuronas en la
capa oculta.
De la implementación de las funciones de base radial como funciones de
activación para redes neuronales que ha sido realizada por Broomhead , han
seguido posteriormente bastantes trabajos de investigación, debido a las
características que tienen estas funciones como su sencilla configuración y el
haber demostrado que son unos aproximadores universales como lo pueden
ser los perceptrones multicapa.
MLP (2 neuronas ocultas)                      RBF (5 neuronas ocultas)
La capa de salida realiza clasificación lineal sobre las salidas de la oculta
La capa oculta realiza una expansión no lineal del espacio de entrada en un
espacio “oculto” donde las clases son linealmente separables
Teorema de Cover sobre la separabilidad de patrones dice: “un problema de
clasificación de patrones transformado no linealmente a un espacio de
dimensión superior tiene mayor probabilidad de ser linealmente separable
que en un espacio de dimensión menor”.
     • Cuanto mayor es el nº de neuronas ocultas mayor es la probabilidad de
    separabilidad lineal
    • En muchos problemas es suficiente con una transformación no lineal sin
    aumentar la dimensión
         Separabilidad del problema XOR




Capacidad de clasificación MLP-RBF
La eficiencia de cada modelo (nº de neuronas que resuelven el problema de
clasificación) depende de la distribución de las clases
Ejemplo : clases anidadas
(RBF independiente de la dimensión)
MLP (3 nodos ocultos) RBF (1 nodo oculto)




Ejemplo 2: clases separables
RBF y MLP dependientes de la dimensión
Bibliografía:

Mouncef Filali Bouami, “Desarrollo y optimización de nuevos modelos
de redes neuronales basadas en funciones de base radial”, Universidad
de Granada, Tesis doctoral, Departamento de Arquitectura y Tecnología
de Computadores, 2005.
Simon Haykin, “Neural Networks”, 2nd edition, Prentice Hall, 1999.

Más contenido relacionado

La actualidad más candente

Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptronjcbp_peru
 
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Tribunal Electoral Provincia de Misiones
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagationjcbenitezp
 
Backpropagation con momentum
Backpropagation  con momentumBackpropagation  con momentum
Backpropagation con momentumESCOM
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisadoESCOM
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2jcbp_peru
 
Capitulo4 funciones bases_radiales
Capitulo4 funciones bases_radialesCapitulo4 funciones bases_radiales
Capitulo4 funciones bases_radialesmayra jimenez
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagationjcbp_peru
 
redes neuronales con Levenberg-Marquardt lmbp
redes neuronales con Levenberg-Marquardt lmbpredes neuronales con Levenberg-Marquardt lmbp
redes neuronales con Levenberg-Marquardt lmbpESCOM
 
Variantes de BACKPROPAGATION
Variantes de BACKPROPAGATIONVariantes de BACKPROPAGATION
Variantes de BACKPROPAGATIONESCOM
 
REDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanREDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanESCOM
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptronjcbp_peru
 
Utp sirn_2015-2 lab3
 Utp sirn_2015-2 lab3 Utp sirn_2015-2 lab3
Utp sirn_2015-2 lab3jcbenitezp
 
Utp sirn_s13_sistemas de control basados en logic difusa
 Utp sirn_s13_sistemas de control basados en logic difusa Utp sirn_s13_sistemas de control basados en logic difusa
Utp sirn_s13_sistemas de control basados en logic difusajcbp_peru
 
Utp sirn_2015-2 lab1
 Utp sirn_2015-2 lab1 Utp sirn_2015-2 lab1
Utp sirn_2015-2 lab1jcbp_peru
 
Utp ia_2014-2_s4_red perceptron
 Utp ia_2014-2_s4_red perceptron Utp ia_2014-2_s4_red perceptron
Utp ia_2014-2_s4_red perceptronhiperu2005
 
Utp sirn_s12_sistemas de control basados en logic difusa
 Utp sirn_s12_sistemas de control basados en logic difusa Utp sirn_s12_sistemas de control basados en logic difusa
Utp sirn_s12_sistemas de control basados en logic difusajcbp_peru
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptronc09271
 

La actualidad más candente (20)

Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
 
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
 
Backpropagation con momentum
Backpropagation  con momentumBackpropagation  con momentum
Backpropagation con momentum
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisado
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2
 
Boletin3
Boletin3Boletin3
Boletin3
 
Capitulo4 funciones bases_radiales
Capitulo4 funciones bases_radialesCapitulo4 funciones bases_radiales
Capitulo4 funciones bases_radiales
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
 
redes neuronales con Levenberg-Marquardt lmbp
redes neuronales con Levenberg-Marquardt lmbpredes neuronales con Levenberg-Marquardt lmbp
redes neuronales con Levenberg-Marquardt lmbp
 
Variantes de BACKPROPAGATION
Variantes de BACKPROPAGATIONVariantes de BACKPROPAGATION
Variantes de BACKPROPAGATION
 
REDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanREDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES Elman
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
 
Utp sirn_2015-2 lab3
 Utp sirn_2015-2 lab3 Utp sirn_2015-2 lab3
Utp sirn_2015-2 lab3
 
Utp sirn_s13_sistemas de control basados en logic difusa
 Utp sirn_s13_sistemas de control basados en logic difusa Utp sirn_s13_sistemas de control basados en logic difusa
Utp sirn_s13_sistemas de control basados en logic difusa
 
Utp sirn_2015-2 lab1
 Utp sirn_2015-2 lab1 Utp sirn_2015-2 lab1
Utp sirn_2015-2 lab1
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Utp ia_2014-2_s4_red perceptron
 Utp ia_2014-2_s4_red perceptron Utp ia_2014-2_s4_red perceptron
Utp ia_2014-2_s4_red perceptron
 
Utp sirn_s12_sistemas de control basados en logic difusa
 Utp sirn_s12_sistemas de control basados en logic difusa Utp sirn_s12_sistemas de control basados en logic difusa
Utp sirn_s12_sistemas de control basados en logic difusa
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptron
 

Similar a Funciones de base Radial

INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESESCOM
 
Clasificador Caracteres Logsig Tansig
Clasificador Caracteres Logsig TansigClasificador Caracteres Logsig Tansig
Clasificador Caracteres Logsig TansigYeferson Torres Berru
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronalesjcbenitezp
 
Utp sirn_sl4 la rna perceptron
 Utp sirn_sl4 la rna perceptron Utp sirn_sl4 la rna perceptron
Utp sirn_sl4 la rna perceptronc09271
 
redes neuronales perceptron
redes neuronales  perceptronredes neuronales  perceptron
redes neuronales perceptronMarc Llanos
 
Red Neuronal Difusa
Red Neuronal DifusaRed Neuronal Difusa
Red Neuronal DifusaESCOM
 
Utp ia_sl4 la rna perceptron
 Utp ia_sl4 la rna perceptron Utp ia_sl4 la rna perceptron
Utp ia_sl4 la rna perceptronjcbenitezp
 
Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlabInnoVacompu
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaLevy GT
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptronjcbp_peru
 
Minimización de Red
Minimización de RedMinimización de Red
Minimización de RedMilenaVelarde
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas SomESCOM
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales KohonenESCOM
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL BackpropagationESCOM
 
Inteligencia Artificial - Leonys B
Inteligencia Artificial - Leonys BInteligencia Artificial - Leonys B
Inteligencia Artificial - Leonys BJose Andres
 
RELES NEURONALES ARTIFICIALES EN LA PROTECCIÓN DE DISTANCIA EN LÍNEAS DE TRAN...
RELES NEURONALES ARTIFICIALES EN LA PROTECCIÓN DE DISTANCIA EN LÍNEAS DE TRAN...RELES NEURONALES ARTIFICIALES EN LA PROTECCIÓN DE DISTANCIA EN LÍNEAS DE TRAN...
RELES NEURONALES ARTIFICIALES EN LA PROTECCIÓN DE DISTANCIA EN LÍNEAS DE TRAN...Omar Jaramillo
 
Mapas autoorganizados
Mapas autoorganizadosMapas autoorganizados
Mapas autoorganizadosJesus Rojas
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes NeuronalesESCOM
 
Función de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELINFunción de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELINRossy Faican Cango
 

Similar a Funciones de base Radial (20)

INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 
Clasificador Caracteres Logsig Tansig
Clasificador Caracteres Logsig TansigClasificador Caracteres Logsig Tansig
Clasificador Caracteres Logsig Tansig
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
Utp sirn_sl4 la rna perceptron
 Utp sirn_sl4 la rna perceptron Utp sirn_sl4 la rna perceptron
Utp sirn_sl4 la rna perceptron
 
redes neuronales perceptron
redes neuronales  perceptronredes neuronales  perceptron
redes neuronales perceptron
 
Red Neuronal Difusa
Red Neuronal DifusaRed Neuronal Difusa
Red Neuronal Difusa
 
Utp ia_sl4 la rna perceptron
 Utp ia_sl4 la rna perceptron Utp ia_sl4 la rna perceptron
Utp ia_sl4 la rna perceptron
 
Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlab
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
 
Minimización de Red
Minimización de RedMinimización de Red
Minimización de Red
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
Slidecats
SlidecatsSlidecats
Slidecats
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Inteligencia Artificial - Leonys B
Inteligencia Artificial - Leonys BInteligencia Artificial - Leonys B
Inteligencia Artificial - Leonys B
 
RELES NEURONALES ARTIFICIALES EN LA PROTECCIÓN DE DISTANCIA EN LÍNEAS DE TRAN...
RELES NEURONALES ARTIFICIALES EN LA PROTECCIÓN DE DISTANCIA EN LÍNEAS DE TRAN...RELES NEURONALES ARTIFICIALES EN LA PROTECCIÓN DE DISTANCIA EN LÍNEAS DE TRAN...
RELES NEURONALES ARTIFICIALES EN LA PROTECCIÓN DE DISTANCIA EN LÍNEAS DE TRAN...
 
Mapas autoorganizados
Mapas autoorganizadosMapas autoorganizados
Mapas autoorganizados
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes Neuronales
 
Función de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELINFunción de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELIN
 

Funciones de base Radial

  • 1. Funciones de Base Radial Diego Sarmiento
  • 2. Las funciones de base radial se caracterizan por una salida que se incrementa (o decrece) monótonamente con la distancia de la entrada respeto a un punto central (distancia euclidiana). Son por lo tanto funciones de la forma R(X,u,σ ) , donde c es el punto central de la función R , y σ es el ancho de la misma, indica como se incrementa (o decrece) el valor de la función con la distancia de la entrada X a su centro. (a) (b) (C) A continuación tenemos ejemplos de funciones de base radial centradas en 0 y de ancho con valor 1mas utilizadas en la implementación de este tipo de redes. RBF Gaussiana: R( x) = exp RBF cuadrática: RBF logística: R(x) =
  • 3. La estructura característica de este tipo de redes es una red estática con una capa oculta, donde las funciones de activación son de tipo radial (gauseana) en la capa oculta y lineal en la capa de salida, como se muestra a continuación:
  • 4. Una red RBF que tiene una función de activación lineal en la capa de salida puede hacer una aproximación arbitrariamente cercana a cualquier función continua siempre y cuando tenga el número suficiente de neuronas en la capa oculta. De la implementación de las funciones de base radial como funciones de activación para redes neuronales que ha sido realizada por Broomhead , han seguido posteriormente bastantes trabajos de investigación, debido a las características que tienen estas funciones como su sencilla configuración y el haber demostrado que son unos aproximadores universales como lo pueden ser los perceptrones multicapa. MLP (2 neuronas ocultas) RBF (5 neuronas ocultas)
  • 5. La capa de salida realiza clasificación lineal sobre las salidas de la oculta La capa oculta realiza una expansión no lineal del espacio de entrada en un espacio “oculto” donde las clases son linealmente separables Teorema de Cover sobre la separabilidad de patrones dice: “un problema de clasificación de patrones transformado no linealmente a un espacio de dimensión superior tiene mayor probabilidad de ser linealmente separable que en un espacio de dimensión menor”. • Cuanto mayor es el nº de neuronas ocultas mayor es la probabilidad de separabilidad lineal • En muchos problemas es suficiente con una transformación no lineal sin aumentar la dimensión Separabilidad del problema XOR Capacidad de clasificación MLP-RBF La eficiencia de cada modelo (nº de neuronas que resuelven el problema de clasificación) depende de la distribución de las clases
  • 6. Ejemplo : clases anidadas (RBF independiente de la dimensión) MLP (3 nodos ocultos) RBF (1 nodo oculto) Ejemplo 2: clases separables RBF y MLP dependientes de la dimensión
  • 7. Bibliografía: Mouncef Filali Bouami, “Desarrollo y optimización de nuevos modelos de redes neuronales basadas en funciones de base radial”, Universidad de Granada, Tesis doctoral, Departamento de Arquitectura y Tecnología de Computadores, 2005. Simon Haykin, “Neural Networks”, 2nd edition, Prentice Hall, 1999.