El Perceptrón  Multicapa
El Perceptrón Multinivel Red Feeforward Red Multicapa Clasificación de patrones no linealmente separables Aprendizaje supervisado Aprendizaje offline
Problemas  linealmente Separables
Resuelve Problemas No linealmente separables
El Perceptrón Multicapa
Multilayer Neural Network Required to deal with more complex problems Multilayer, Feed Forward, Back Propagation
El Perceptrón básico de dos capas (entrada con neuronas lineales, analógicas, y la de salida con función de activación de tipo escalón, digital) solo pude establecer dos regiones separadas por una frontera lineal en el espacio de patrones de entrada, donde se tendría un hiperplano .
Hiperplanos En el espacio  3D , un plano es un objeto de 2 dimensiones, un único plano puede descomponer el espacio tridimensional en 2 regiones distintas; 2 planos pueden dar lugar a 3 o 4 regiones distintas, dependiendo de sus orientaciones relativas, y asi sucesivamente, por extensión en un espacio n-dimensional, los hiperplanos son objetos de (n-1) dimensiones.
Los espacios n-dimensionales suelen recibir el nombre de hiperespacio. Una colocación adecuada de hiperplanos permite descomponer los espacios n-dimensionales en varias regiones diferentes.
Un Perceptrón con tres niveles de neuronas puede formar cualquier región convexa en este espacio. Las regiones convexas se forman mediante la intelección entre las regiones formadas por cada neurona de la segunda capa, cada uno de estos elementos se comporta como un Perceptrón simple, activándose su salida para los patrones de un lado del hiperplano.
Un Perceptrón con cuatro capas puede generar regiones de decisión arbitrariamente complejas. El proceso de separación en clases que se lleva a cabo consiste en la partición de la región deseada en pequeños hipercubos.  Cada hipercubo requiere 2n neuronas en la segunda capa (siendo n el numero de entradas a la red), una por cada lado del hipercubo, y otra en la tercera capa, que lleva a cabo el and lógico de la salida de los nodos del nivel anterior.
La salida de los nodos de este tercer nivel se activaran solo para las entradas de cada hipercubo. Los hipercubos se asignan a la región de decisión adecuada mediante la conexión de la salida de cada nodo del tercer nivel solo con la neurona de salida (cuarta capa) correspondiente a la región de decisión en la que este comprendido el hipercubo llevándose a cabo una operación lógica Or en cada nodo de salida. Este procedimiento se pude generalizar de manera que la forma de las regiones convexas sea arbitraria, en lugar de hipercubos.
En teoría, el Perceptrón de 4 capas puede resuelve una gran variedad de problemas cuyas entradas sean analógicas, la salida sea digital y sea linealmente separable. El problema práctico radica en el numero de neuronas, en el numero idóneo de capas ocultas, la extensión de la función de activación, el tiempo de entrenamiento de la red, las implicaciones en la generación de ruido (al tener un numero excesivo de neuronas) en contraparte con la ventaja de tener un sistema tolerante a  fallas al tener un numero de neuronas redundante.
El Perceptrón  de 3 capas (una oculta) Formación de regiones convexas en el espacio El número de neuronas ocultas, lo suficientemente grande para formar una región compleja que solucione el problema. El numero de nodos no debe ser tan grande que el valor de los pesos no resulte fiable
El Perceptrón  4 capas (2 capas ocultas) Regiones de decisión arbitrariamente complejas. Partición de la región en pequeños hipercubos Cada hipercubo 2N neuronas en la segunda capa. La tercera capa es una AND lógica de las capas Nivel 3 mayor a1 ; N2 mayor que 3N3
Regiones de Clasificación con el Perceptrón Multicapa
Ejercicios del perceptrón Multicapa
Ejemplo 1:  Solucion  de la Or-Exclusiva
Dudas ???
Hasta la próxima !!!
Hipercubo
El Perceptrón
El Perceptrón
El Perceptron

El Perceptrón Multicapa

  • 1.
    El Perceptrón Multicapa
  • 2.
    El Perceptrón MultinivelRed Feeforward Red Multicapa Clasificación de patrones no linealmente separables Aprendizaje supervisado Aprendizaje offline
  • 3.
  • 4.
    Resuelve Problemas Nolinealmente separables
  • 5.
  • 6.
    Multilayer Neural NetworkRequired to deal with more complex problems Multilayer, Feed Forward, Back Propagation
  • 7.
    El Perceptrón básicode dos capas (entrada con neuronas lineales, analógicas, y la de salida con función de activación de tipo escalón, digital) solo pude establecer dos regiones separadas por una frontera lineal en el espacio de patrones de entrada, donde se tendría un hiperplano .
  • 8.
    Hiperplanos En elespacio 3D , un plano es un objeto de 2 dimensiones, un único plano puede descomponer el espacio tridimensional en 2 regiones distintas; 2 planos pueden dar lugar a 3 o 4 regiones distintas, dependiendo de sus orientaciones relativas, y asi sucesivamente, por extensión en un espacio n-dimensional, los hiperplanos son objetos de (n-1) dimensiones.
  • 9.
    Los espacios n-dimensionalessuelen recibir el nombre de hiperespacio. Una colocación adecuada de hiperplanos permite descomponer los espacios n-dimensionales en varias regiones diferentes.
  • 10.
    Un Perceptrón contres niveles de neuronas puede formar cualquier región convexa en este espacio. Las regiones convexas se forman mediante la intelección entre las regiones formadas por cada neurona de la segunda capa, cada uno de estos elementos se comporta como un Perceptrón simple, activándose su salida para los patrones de un lado del hiperplano.
  • 11.
    Un Perceptrón concuatro capas puede generar regiones de decisión arbitrariamente complejas. El proceso de separación en clases que se lleva a cabo consiste en la partición de la región deseada en pequeños hipercubos. Cada hipercubo requiere 2n neuronas en la segunda capa (siendo n el numero de entradas a la red), una por cada lado del hipercubo, y otra en la tercera capa, que lleva a cabo el and lógico de la salida de los nodos del nivel anterior.
  • 12.
    La salida delos nodos de este tercer nivel se activaran solo para las entradas de cada hipercubo. Los hipercubos se asignan a la región de decisión adecuada mediante la conexión de la salida de cada nodo del tercer nivel solo con la neurona de salida (cuarta capa) correspondiente a la región de decisión en la que este comprendido el hipercubo llevándose a cabo una operación lógica Or en cada nodo de salida. Este procedimiento se pude generalizar de manera que la forma de las regiones convexas sea arbitraria, en lugar de hipercubos.
  • 13.
    En teoría, elPerceptrón de 4 capas puede resuelve una gran variedad de problemas cuyas entradas sean analógicas, la salida sea digital y sea linealmente separable. El problema práctico radica en el numero de neuronas, en el numero idóneo de capas ocultas, la extensión de la función de activación, el tiempo de entrenamiento de la red, las implicaciones en la generación de ruido (al tener un numero excesivo de neuronas) en contraparte con la ventaja de tener un sistema tolerante a  fallas al tener un numero de neuronas redundante.
  • 14.
    El Perceptrón de 3 capas (una oculta) Formación de regiones convexas en el espacio El número de neuronas ocultas, lo suficientemente grande para formar una región compleja que solucione el problema. El numero de nodos no debe ser tan grande que el valor de los pesos no resulte fiable
  • 15.
    El Perceptrón 4 capas (2 capas ocultas) Regiones de decisión arbitrariamente complejas. Partición de la región en pequeños hipercubos Cada hipercubo 2N neuronas en la segunda capa. La tercera capa es una AND lógica de las capas Nivel 3 mayor a1 ; N2 mayor que 3N3
  • 16.
    Regiones de Clasificacióncon el Perceptrón Multicapa
  • 17.
  • 18.
    Ejemplo 1: Solucion de la Or-Exclusiva
  • 19.
  • 20.
  • 21.
  • 22.
  • 23.
  • 24.