1. UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO
CENTRO UNIVERSITARIO UAEM ATLACOMULCO
LÍNEA DE APRENDIZAJE: REDES NEURONALES
INGENIERO: MARCO ANTONIO LOPEZ PAREDES
RED
MONOCAPA Y MULTICAPA
ICO 17 5to Semestre
“Cachorros”
Rogelio Valdés Sánchez
Juan Carlos Tomas Reyes
Oscar Longinos Velázquez
Oliver Sánchez Cruz
Levi Guadarrama Tercero
3. Redes Monocapa:
Las redes monocapa se utilizan típicamente en
en tareas relacionadas en lo que se conoce como
autoasociación: por ejemplo, para regenerar
informaciones de entrada que se presentan a la
red incompletas o distorsionadas.
l1 l ln 2
P/ejemplo
Hopfield, BSB,
Learnig Matrix
4. Red de Hopfield
Una red de Hopfield es una forma de red
neuronal artificial recurrente inventada
por John Hopfield. Las redes de Hopfield
se usan como sistemas de Memoria
asociativa con unidades binarias. Están
diseñadas para converger a un mínimo
local, pero la convergencia a uno de los
patrones almacenados no está
garantizada.
5. Red de Hopfield
Las unidades de las redes Hopfield son binarias, es decir, sólo
tienen dos valores posibles para sus estados y el valor se
determina si las unidades superan o no un determinado umbral.
Los valores posibles pueden ser 1 ó -1, o bien 1 ó 0.
6. BRAIN STATE IN A BOX (BSB)
James Anderson, que desarrolló un
modelo lineal, llamado Asociador Lineal,
que consistía en unos elementos
integradores lineales (neuronas) que
sumaban sus entradas.
7. Dentro de sus características podemos mencionar las siguientes:
•BSB es generalmente una red recurrente auto asociativa.
•Es una red monocapa de n unidades (neuronas) totalmente
conectadas.
•Es prácticamente una red de Hopfield con conexiones auto
recurentes que pueden tomar valores diferentes de cero.
•BSB aprende de manera auto organizada usando el postulado de
Hebb.
•Es capaz de efectuar cálculos basados en la dinámica de atractores.
•El estado del sistema es atrapado dentro de una caja cuadrada,
como una hiperregión delimitada en un hipercubo [+1, -1].
•Los estados estables de la red son representados por las aristas de
un hipercubo n dimensional
•Los valores de entrada de cada neurona es un valor analógico.
•El estado de salida de cada neurona es un valor real continuo entre
+1 y -1. Tiende a saturarse a estos últimos valores.
•La región de una red con n nodos es un hipercubo n dimensional.
•El BSB posee una función de energía (Lyapunov).
•El modelo BSB es una red que minimiza su estado de energía.
•La función de energía E del modelo BSB decrece con el numero de
iteraciones hasta alcanzar un punto de equilibrio.
11. Introducción.
Los sistemas neurales artificiales imitan la estructura del hardware del
sistema nervioso, con la intención de construir sistemas de procesamiento
de información paralelos, distributivos y adaptivos, que puedan presentar
un cierto comportamiento “Inteligente”.
12. Red Multicapa
Cuando las neuronas de una capa reciben señales
de entrada de otra capa anterior, mas cercana a la
red, y envían señales de salida a una capa posterior,
estamos ante una red de conexiones hacia adelante
o Feedforward.
13. Uso
Son especialmente útiles en aplicación de
reconocimiento o clasificación e patrones.
14. La mayoría se las redes
multicapa son Bicapa; este
tipo de estructura es
particularmente adecuada par
realizar una asociación de la
información o patrón de
entrada con otra información
patrón de salida en la segunda
capa.
15. Redes con conexiones
hacia adelante y hacia atrás
(feedforward / feedback):
En este tipo de redes
circula información tanto
hacia adelante como hacia
atrás durante el
funcionamiento de la red.
Para que esto sea posible,
existen conexiones
feedforward y conexiones
feedback entre las neuronas.
16. Redes Con Conexiones Hacia Adelante Y Hacia
Atrás
(feedforward / Feedback)
También existen algunas que
tienen conexiones laterales
entre neuronas de la
misma capa. Estas
conexiones se diseñan
como excitadores (con
peso positivo) o
inhibidoras (con peso
negativo), estableciendose
una competencia entre las
neuronas correspondientes.
17. Perceptron
El perceptrón multicapa consta de una capa de entrada
y una capa de salida y una o más capas ocultas. Dichas
capas se unen de forma total hacia delante, esto es, la
capa entrada se une con la primera capa oculta y esta
con la siguiente y la última capa oculta se une con la
capa de salida. Los valores que el perceptrón multicapa
acepta son reales.
18. Perceptron
Las capas pueden clasificarse en tres tipos:
•Capa de entrada: Constituida por aquellas neuronas que
introducen los patrones de entrada en la red. En estas neuronas no
se produce procesamiento.
•Capas ocultas: Formada por aquellas neuronas cuyas entradas
provienen de capas anteriores y cuyas salidas pasan a neuronas de
capas posteriores.
•Capa de salida: Neuronas cuyos valores de salida se corresponden
con las salidas de toda la red.
19. Adaline
Adaline posee la ventaja de que su gráfica de error es un
hiperparaboloide que posee o bien un único mínimo global, o bien
una recta de infinitos mínimos, todos ellos globales. Esto evita la
gran cantidad de problemas que da el perceptrón a la hora del
entrenamiento debido a que su función de error (también llamada
de coste) posee numerosos mínimos locales.
20. Adaline
Aplicaciones
•Asociación de patrones: se puede aplicar a este tipo de
problemas siempre que los patrones sean linealmente separables.
En el campo del procesamiento de señales:
•Filtros de ruido: Limpiar ruido de señales transmisoras de
información.
•Filtros adaptativos: Un adaline es capaz de predecir el valor de
una señal en el instante t+1 si se conoce el valor de la misma en los
p instantes anteriores (p es >0 y su valor depende del problema).
El error de la predicción será mayor o menor según qué señal
queramos predecir. Si la señal se corresponde a una serie temporal
el Adaline, pasado un tiempo, será capaz de dar predicciones
exactas.
Se pueden combinar múltiples Adalines formando lo que se
denomina el Madaline.
21. Backpropagation
El algoritmo emplea un ciclo propagación
– adaptación de dos fases. Una vez que se
ha aplicado un patrón a la entrada de la
red como estímulo, este se propaga desde
la primera capa a través de las capas
superiores de la red, hasta generar una
salida. La señal de salida se compara con
la salida deseada y se calcula una señal de
error para cada una de las salidas. Las
salidas de error se propagan hacia atrás,
partiendo de la capa de salida, hacia
todas las neuronas de la capa oculta que
contribuyen directamente a la salida.
22. Las redes monocapa
Crean conexiones
laterales
Hopfield
La red BRAIN-STATE-IN-A-BOX
Maquinas estocásticas de
Botzmann
Cauchy.
Están ordenadas
ordenadas
reciben la señal
Las redes multicapa: varias capas de neuronas
una sola capa
conexiones feedforward y Feedback:
Perceptron, Adaline, Madaline y backpropagation.
Red Monocapa
y Multicapa