Las redes neuronales son un modelo computacional basado en un gran conjunto de unidades neuronales simples de forma aproximadamente análoga al comportamiento observado en los axones de las neuronas en los cerebros biológicos.
ALGORITMO DE YOUTUBE BASADO EN REDES NEURONALES
https://www.youtube.com/watch?v=JBZx03342eM&t=330s
3. 3
Contenido
1. Introducción: ...........................................................................................................................4
a) El modelo de tipo biológico.............................................................................................4
b) El modelo dirigido a aplicación........................................................................................5
2. Historia de las redes neuronales:............................................................................................5
3. Definición.................................................................................................................................6
4. ¿Qué son las redes neuronales?..............................................................................................7
5. LA RED NEURONAL ARTIFICIAL................................................................................................9
5.1 DEFINICIÓN........................................................................................................................9
5.2 ARQUITECTURA DE LAS RNA ...........................................................................................10
5.2.1 Función de entrada:..................................................................................................10
5.2.2 Función de activación:..............................................................................................11
5.2.3 Función de salida:.....................................................................................................12
5.3 APRENDIZAJE DE LAS RNA ...............................................................................................12
5.3.1 Paradigma de aprendizaje.....................................................................................12
5.3.2 Paradigma no supervisado o auto organizado.............................................................13
5.4 TIPOS DE NEURONAS ARTIFICIALES.................................................................................14
5.5 TOPOLOGIA DE LAS REDES NEURONALES .......................................................................14
WEBGRAFIA ...............................................................................................................................16
4. 4
REDES NEURONALES
1. Introducción:
Las redes neuronales son más que otra forma de emular ciertas características propias
de los humanos, como la capacidad de memorizar y de asociar hechos. Si se examinan
con atención aquellos problemas que no pueden expresarse a través de un algoritmo,
se observará que todos ellos tienen una característica en común: la experiencia. El
hombre es capaz de resolver estas situaciones acudiendo a la experiencia acumulada.
Así, parece claro que una forma de aproximarse al problema consista en la construcción
de sistemas que sean capaces de reproducir esta característica humana.
En definitiva, las redes neuronales no son más que un modelo artificial y simplificado del
cerebro humano, que es el ejemplo más perfecto del que disponemos para un sistema
que es capaz de adquirir conocimiento a través de la experiencia. Una red neuronal es
“un nuevo sistema para el tratamiento de la información, cuya unidad básica de
procesamiento está inspirada en la célula fundamental del sistema nervioso humano: la
neurona”.
Todos los procesos del cuerpo humano se relacionan en alguna u otra forma con la
(in)actividad de estas neuronas. Las mismas son un componente relativamente simple
del ser humano, pero cuando millares de ellas se conectan en forma conjunta se hacen
muy poderosas.
Lo que básicamente ocurre en una neurona biológica es lo siguiente: la neurona es
estimulada o excitada a través de sus entradas (inputs) y cuando se alcanza un cierto
umbral, la neurona se dispara o activa, pasando una señal hacia el axon.
Como ya se sabe, el pensamiento tiene lugar en el cerebro, que consta de billones de
neuronas interconectadas. Así, el secreto de la “inteligencia” -sin importar como se
defina- se sitúa dentro de estas neuronas interconectadas y de su interacción.
También, es bien conocido que los humanos son capaces de aprender. Aprendizaje
significa que aquellos problemas que inicialmente no pueden resolverse, pueden ser
resueltos después de obtener más información acerca del problema. Por lo tanto, las
Redes Neuronales:
• Consisten de unidades de procesamiento que intercambian datos o información.
• Se utilizan para reconocer patrones, incluyendo imágenes, manuscritos y
secuencias de tiempo (por ejemplo: tendencias financieras).
• Tienen capacidad de aprender y mejorar su funcionamiento.
Una primera clasificación de los modelos de redes neuronales podría ser, atendiendo a
su similitud con la realidad biológica:
a) El modelo de tipo biológico. Este comprende las redes que tratan de simular
los sistemas neuronales biológicos, así como las funciones auditivas o algunas
funciones básicas de la visión.
5. 5
b) El modelo dirigido a aplicación. Este modelo no tiene por qué guardar similitud
con los sistemas biológicos. Su arquitectura está fuertemente ligada a las
necesidades de las aplicaciones para la que es diseñada.
2. Historia de las redes neuronales:
➢ 1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de ver el
mundo de la computación. Sin embargo, los primeros teóricos que concibieron los
fundamentos de la computación neuronal fueron Warren McCulloch, un
neurofisiólogo, y Walter Pitts, un matemático, quienes, en 1943, lanzaron una teoría
acerca de la forma de trabajar de las neuronas (Un Cálculo Lógico de la Inminente
Idea de la Actividad Nerviosa - Boletín de Matemática Biofísica 5: 115-133). Ellos
modelaron una red neuronal simple mediante circuitos eléctricos.
➢ 1949 - Donald Hebb. Fue el primero en explicar los procesos del aprendizaje (que
es el elemento básico de la inteligencia humana) desde un punto de vista
psicológico, desarrollando una regla de como el aprendizaje ocurría. Aun hoy, este
es el fundamento de la mayoría de las funciones de aprendizaje que pueden hallarse
en una red neuronal. Su idea fue que el aprendizaje ocurría cuando ciertos cambios
en una neurona eran activados. También intentó encontrar semejanzas entre el
aprendizaje y la actividad nerviosa. Los trabajos de Hebb formaron las bases de la
Teoría de las Redes Neuronales.
➢ 1950 - Karl Lashley. En sus series de ensayos, encontró que la información no era
almacenada en forma centralizada en el cerebro sino que era distribuida encima de
él.
➢ 1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona para
indicar el nacimiento de la inteligencia artificial.
➢ 1957 - Frank Rosenblatt. Comenzó el desarrollo del Perceptron. Esta es la red
neuronal más antigua; utilizándose hoy en día para aplicación como identificador de
patrones. Este modelo era capaz de generalizar, es decir, después de haber
aprendido una serie de patrones podía reconocer otros similares, aunque no se le
hubiesen presentado en el entrenamiento. Sin embargo, tenía una serie de
limitaciones, por ejemplo, su incapacidad para resolver el problema de la función
OR-exclusiva y, en general, era incapaz de clasificar clases no separables
linealmente.
➢ 1959 - Frank Rosenblatt: Principios de Neurodinámica. En este libro confirmó que,
bajo ciertas condiciones, el aprendizaje del Perceptron convergía hacia un estado
finito (Teorema de Convergencia del Perceptron).
➢ 1960 - Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline (ADAptative
LINear Elements). Esta fue la primera red neuronal aplicada a un problema real
6. 6
(filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado
comercialmente durante varias décadas.
➢ 1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones
técnicas (memoria asociativa).
➢ 1969 - Marvin Minsky/Seymour Papert. En este año casi se produjo la “muerte
abrupta” de las Redes Neuronales; ya que Minsky y Papert probaron
(matemáticamente) que el Perceptrons no era capaz de resolver problemas
relativamente fáciles, tales como el aprendizaje de una función no-lineal. Esto
demostró que el Perceptron era muy débil, dado que las funciones no-lineales son
extensamente empleadas en computación y en los problemas del mundo real.
➢ 1974 - Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje de
propagación hacia atrás (backpropagation); cuyo significado quedó definitivamente
aclarado en 1985.
➢ 1977 - Stephen Grossberg: Teoría de Resonancia Adaptada (TRA). La Teoría de
Resonancia Adaptada es una arquitectura de red que se diferencia de todas las
demás previamente inventadas. La misma simula otras habilidades del cerebro:
memoria a largo y corto plazo.
➢ 1985 - John Hopfield. Provocó el renacimiento de las redes neuronales con su libro:
“Computación neuronal de decisiones en problemas de optimización.”
➢ 1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de
propagación hacia atrás (backpropagation). A partir de 1986, el panorama fue
alentador con respecto a las investigaciones y el desarrollo de las redes neuronales.
En la actualidad, son numerosos los trabajos que se realizan y publican cada año,
las aplicaciones nuevas que surgen (sobretodo en el área de control) y las empresas
que lanzan al mercado productos nuevos, tanto hardware como software (sobre todo
para simulación).
3. Definición
Existen numerosas formas de definir a las redes neuronales; desde las definiciones
cortas y genéricas hasta las que intentan explicar más detalladamente qué son las redes
neuronales. A continuación, se muestran algunas:
✓ Una nueva forma de computación, inspirada en modelos biológicos.
✓ Un modelo matemático compuesto por un gran número de elementos procesales
organizados en niveles.
✓ Un sistema de computación compuesto por un gran número de elementos simples,
elementos de procesos muy interconectados, los cuales procesan información por
medio de su estado dinámico como respuesta a entradas externas.
7. 7
✓ Redes neuronales artificiales son redes interconectadas masivamente en paralelo
de elementos simples (usualmente adaptativos) y con organización jerárquica, las
cuales intentan interactuar con los objetos del mundo real del mismo modo que lo
hace el sistema nervioso biológico.
4. ¿Qué son las redes neuronales?
Las Redes Neuronales son un campo de la Inteligencia
Artificial. Inspirándose en el comportamiento conocido
del cerebro humano (principalmente el referido a las
neuronas y sus conexiones), trata de crear modelos
artificiales que solucionen problemas difíciles de
resolver mediante técnicas algorítmicas
convencionales.
Una red neuronal es un modelo simplificado que
emula el modo en que el cerebro humano procesa la
información: Funciona simultaneando un número
elevado de unidades de procesamiento interconectadas
que parecen versiones abstractas de neuronas.
LA NEURONA BIOLOGÍCA
Fue Ramón y Cajal (1888) quién descubrió la estructura celular (neurona) del sistema
nervioso. Defendió la teoría de que las neuronas se interconectaban entre sí de forma
paralela, y no formando un circuito cerrado como el sistema sanguíneo.
Una neurona consta de un cuerpo celular (soma) de entre 10 y 80 mm, del que surge
un denso árbol de ramificaciones (dendritas) y una fibra tubular (axón) de entre 100 mm
y un metro.
De alguna forma, una neurona es un procesador de información muy simple:
· Canal de entrada: dendritas.
· Procesador: soma.
· Canal de salida: axón.
8. 8
Una neurona cerebral puede recibir unas 10.000 entradas y enviar a su vez su
salida a varios cientos de neuronas.
La conexión entre neuronas se llama sinapsis. No es una conexión física, sino que hay
unos 2 mm de separación. Son conexiones unidireccionales, en la que la transmisión de
la información se hace de forma eléctrica en el interior de la neurona y de forma química
entre neuronas; gracias a unas sustancias específicas llamadas neurotransmisores.
No todas las neuronas son iguales, existen muchos tipos diferentes según el número
de ramificaciones de sus dendritas, la longitud del axón y otros detalles estructurales.
Sin embargo, como hemos visto, todas ellas operan con los mismos principios básicos.
NEURONA ARTIFICIAL
El modelo de Rumelhart y McClelland (1986) define un elemento de proceso (EP), o
neurona artificial, como un dispositivo que a partir de un conjunto de entradas, xi(i=1...n)
o vector x, genera una única salida y.
Esta neurona artificial consta de los siguientes elementos:
- Conjunto de entradas o vector de entradas x, de n componentes
- Conjunto de pesos sinápticos wij. Representan la interacción entre la neurona
presináptica j y la postsináptica i.
- Regla de propagación d(wij,xj(t)): proporciona el potencial postsináptico, hi(t).
- Función de activación ai(t)=f(ai(t-1), hi(t)): proporciona el estado de activación de
la neurona en función del estado anterior y del valor postsináptico.
- Función de salida Fi(t): proporciona la salida yi(t), en función del estado de
activación.
Las señales de entrada y salida pueden ser señales binarias (0,1 – neuronas de
McCulloch y Pitts), bipolares (-1,1), números enteros o continuos, variables borrosas,
etc.
La regla de propagación suele ser una suma ponderada del producto escalar del vector
de entrada y el vector de pesos:
También se usa a menudo la distancia euclídea entre ambos vectores:
Existen otro tipo de reglas menos conocidas como la distancia de Voronoi, de
Mahalanobis, etc.
La función de activación no suele tener en cuenta el estado anterior de la neurona, sino
sólo el potencial hi(t). Suele ser una función determinista y, casi siempre, continua y
9. 9
monótona creciente. Las más comunes son la función signo (+1 si hi(t)>0, -1 en caso
contrario), la función semilineal y las funciones sigmoides:
La función de salida suele ser la identidad. En algunos casos es un valor umbral (la
neurona no se activa hasta que su estado supera un determinado valor).
Con todo esto, el modelo de neurona queda bastante simplificado:
5. LA RED NEURONAL ARTIFICIAL
5.1 DEFINICIÓN
Una red neuronal artificial (RNA) se puede definir (Hecht – Nielssen 93) como un grafo
dirigido con las siguientes restricciones:
▪ Los nodos se llaman elementos de proceso (EP).
▪ Los enlaces se llaman conexiones y funcionan como caminos unidireccionales
instantáneos
▪ Cada EP puede tener cualquier número de conexiones.
▪ Todas las conexiones que salgan de un EP deben tener la misma señal.
▪ Los EP pueden tener memoria local.
▪ Cada EP posee una función de transferencia que, en función de las entradas
y la memoria local produce una señal de salida y / o altera la memoria local.
▪ Las entradas a la RNA llegan del mundo exterior, mientras que sus salidas son
conexiones que abandonan la RNA.
10. 10
5.2 ARQUITECTURA DE LAS RNA
La arquitectura de una RNA es la estructura o patrón de conexiones de la red. Es
conveniente recordar que las conexiones sinápticas son direccionales, es decir, la
información sólo se transmite en un sentido.
En general, las neuronas suelen agruparse en unidades estructurales llamadas capas.
Dentro de una capa, las neuronas suelen ser del mismo tipo. Se pueden distinguir tres
tipos de capas:
❖ De entrada. Reciben datos o señales procedentes del entorno.
❖ De salida. Proporcionan la respuesta de la red a los estímulos de la entrada.
❖ Ocultas. No reciben ni suministran información al entorno (procesamiento
interno de la red). No tienen contacto directo con el entorno exterior. El número
de niveles ocultos puede estar entre creo y un número elevado. las neuronas de
las capas ocultas pueden estar interconectadas de distintas maneras, lo que
determina, junto con su número, las distintas topologías de redes neuronales.
Generalmente las conexiones se realizan entre neuronas de distintas capas, pero puede
haber conexiones intracapa o laterales y conexiones de realimentación que siguen un
sentido contrario al de entrada-salida.
5.2.1 Función de entrada:
La neurona trata a muchos valores de entrada como si fueran uno solo; esto recibe el
nombre de entrada global. Por lo tanto, ahora nos enfrentamos al problema de cómo se
pueden combinar estas simples entradas (ini1, ini2, ...) dentro de la entrada global, gini.
Esto se logra a través de la función de entrada, la cual se calcula a partir del vector
entrada. La función de entrada puede describirse como sigue:
donde: * representa al operador apropiado (por ejemplo: máximo, sumatoria, producto,
etc.), n al número de entradas a la neurona Ni y Wi al peso.
Los valores de entrada se multiplican por los pesos anteriormente ingresados a la
neurona. Por consiguiente, los pesos que generalmente no están restringidos cambian
la medida de influencia que tienen los valores de entrada. Es decir, que permiten que
un gran valor de entrada tenga solamente una pequeña influencia, si estos son lo
11. 11
suficientemente pequeños.
Algunas de las funciones de entrada más comúnmente utilizadas y conocidas son:
a. Sumatoria de las entradas: Es la suma de todos los valores de entrada a la
neurona, multiplicados por sus correspondientes pesos.
b. Producto de las entradas: Es el producto de todos los valores de entrada a la
neurona, multiplicados por sus correspondientes pesos.
c. Máximo de las entradas: Solamente toma en consideración el valor de entrada más
fuerte, previamente multiplicado por su peso correspondiente.
5.2.2 Función de activación:
Una neurona biológica puede estar activa (excitada) o inactiva (no excitada); es decir,
que tiene un “estado de activación”. Las neuronas artificiales también tienen diferentes
estados de activación; algunas de ellas solamente dos, al igual que las biológicas, pero
otras pueden tomar cualquier valor dentro de un conjunto determinado.
La función activación calcula el estado de actividad de una neurona; transformando la
entrada global en un valor (estado) de activación, cuyo rango normalmente va de (0 a
1) o de (–1 a 1).
Las funciones de activación más comúnmente utilizadas se detallan a continuación:
a) Función lineal:
b) Función sigmoidea:
12. 12
c) Función tangente hiperbólica:
5.2.3 Función de salida:
El último componente que una neurona necesita es la función de salida. El valor
resultante de esta función es la salida de la neurona i (outi); por ende, la función de
salida determina que valor se transfiere a las neuronas vinculadas.
Si la función de activación está por debajo de un umbral determinado, ninguna salida se
pasa a la neurona subsiguiente.
Normalmente, no cualquier valor es permitido como una entrada para una neurona, por
lo tanto, los valores de salida están comprendidos en el rango [0, 1] o [-1, 1]. También
pueden ser binarios {0, 1} o {-1, 1}. Dos de las funciones de salida más comunes son:
✓ Ninguna: este es el tipo de función más sencillo, tal que la salida es la misma que
la entrada. Es también llamada función identidad.
✓ Binaria:
5.3 APRENDIZAJE DE LAS RNA
Es el proceso por el que una RNA actualiza los pesos (y, en algunos casos, la
arquitectura) con el propósito de que la red pueda llevar a cabo de forma efectiva una
tarea determinada. Hay tres conceptos fundamentales en el aprendizaje:
5.3.1 Paradigma de aprendizaje. Información de la que dispone la red.
5.3.1.1Paradigma supervisado. la red trata de minimizar un error entre
la salida que calcula y la salida deseada (conocida), de modo que la
salida calculada termine siendo la deseada.
a. Aprendizaje por corrección de error. Consiste en ajustar los
pesos de las conexiones de la red en función de la diferencia
entre los valores deseados y los obtenidos a la salida de la
red, es decir, en función del error cometido en la salida.
b. Aprendizaje por refuerzo. Aprendizaje supervisado más
lento que el anterior, que se basa en la idea de no disponer
de un ejemplo completo del comportamiento deseado, es
decir, de no indicar durante el entrenamiento exactamente la
salida que se desea que proporcione la red ante una
determinada entrada. En el aprendizaje por refuerzo la función
del supervisor se reduce a indicar mediante una señal de
refuerzo si la salida obtenida en la red se ajusta a la deseada
(éxito = +1 o fracaso = -1), y en función de ello se ajustan los
13. 13
pesos basándose en un mecanismo de probabilidades. Se
podría decir que en este tipo de aprendizaje la función del
supervisor se asemeja más a la de un crítico (que opina sobre
la respuesta de la red) que a la de un maestro (que indica a la
red la respuesta concreta que debe generar), como ocurría en
el caso de supervisión por corrección del error.
c. Aprendizaje estocástico. Consiste básicamente en realizar
cambios aleatorios en los valores de los pesos de las
conexiones de la red y evaluar su efecto a partir del objetivo
deseado y de distribuciones de probabilidad.
5.3.2 Paradigma no supervisado o auto organizado.
Las redes con aprendizaje no supervisado (también conocido como
autosupervisado) no requieren influencia externa para ajustar los pesos
de las conexiones entre sus neuronas. La red no recibe ninguna
información por parte del entorno que le indique si la salida generada en
respuesta a una determinada entrada es o no correcta.
Estas redes deben encontrar las características, regularidades,
correlaciones o categorías que se puedan establecer entre los datos que
se presenten en su entrada. Existen varias posibilidades en cuanto a la
interpretación de la salida de estas redes, que dependen de su estructura
y del algoritmo de aprendizaje empleado.
En algunos casos, la salida representa el grado de familiaridad o similitud
entre la información que se le está presentando en la entrada y las
informaciones que se le han mostrado hasta entonces (en el pasado). En
otro caso, podría realizar una clusterización (clustering) o establecimiento
de categorías, indicando la red a la salida a qué categoría pertenece la
información presentada a la entrada, siendo la propia red quien debe
encontrar las categorías apropiadas a partir de las correlaciones entre las
informaciones presentadas.
En cuanto a los algoritmos de aprendizaje no supervisado, en general se
suelen considerar dos tipos, que dan lugar a los siguientes aprendizajes:
a. Aprendizaje hebbiano.
Esta regla de aprendizaje es la base de muchas otras, la cual
pretende medir la familiaridad o extraer características de los datos
de entrada. El fundamento es una suposición bastante simple: si dos
neuronas Ni y Nj toman el mismo estado simultáneamente (ambas
activas o ambas inactivas), el peso de la conexión entre ambas se
incrementa. Las entradas y salidas permitidas a la neurona son: {-1,
1} o {0, 1} (neuronas binarias). Esto puede explicarse porque la regla
de aprendizaje de Hebb se originó a partir de la neurona biológica
clásica, que solamente puede tener dos estados: activa o inactiva.
b. Aprendizaje competitivo y comparativo.
Se orienta a la clusterización o clasificación de los datos de entrada.
Como característica principal del aprendizaje competitivo se puede
decir que, si un patrón nuevo se determina que pertenece a una clase
14. 14
reconocida previamente, entonces la inclusión de este nuevo patrón
a esta clase matizará la representación de la misma. Si el patrón de
entrada se determinó que no pertenece a ninguna de las clases
reconocidas anteriormente, entonces la estructura y los pesos de la
red neuronal serán ajustados para reconocer la nueva clase.
5.4 TIPOS DE NEURONAS ARTIFICIALES
las neuronas artificiales se pueden clasificar de acuerdo a los valores que puede tomar.
Por ahora es suficiente distinguir entre dos tipos principales:
❖ Neuronas binarias
❖ Neuronas reales
Las neuronas binarias solamente pueden tomar valores dentro del intervalo
{0, 1} o {-1, 1}, mientras que las neuronas reales pueden hacerlo dentro del rango
[0, 1] o [-1, 1]. Los pesos normalmente no están restringidos a un cierto intervalo,
aunque para aplicaciones específicas puede ser esto necesario.
5.5 TOPOLOGIA DE LAS REDES NEURONALES
La topología o arquitectura de una red neuronal consiste en la organización y disposición
de las neuronas en la misma, formando capas o agrupaciones de neuronas más o
menos alejadas de la entrada y salida de dicha red. En este sentido, los parámetros
fundamentales de la red son: el número de capas, el número de neuronas por capa, el
grado de conectividad y el tipo de conexiones entre neuronas.
• Redes monocapa.
En las redes monocapa, se establecen conexiones entre las neuronas que
pertenecen a la única capa que constituye la red. Las redes monocapas se
utilizan generalmente en tareas relacionadas con lo que se conoce como
autoasociación (regenerar información de entrada que se presenta a la red de
forma incompleta o distorsionada).
• Redes multicapa.
Las redes multicapas son aquellas que disponen de un conjunto de neuronas
agrupadas en varios (2, 3, etc.) niveles o capas. En estos casos, una forma para
15. 15
distinguir la capa a la que pertenece una neurona, consistiría en fijarse en el
origen de las señales que recibe a la entrada y el destino de la señal de salida.
Normalmente, todas las neuronas de una capa reciben señales de entrada desde
otra capa anterior (la cual está más cerca a la entrada de la red), y envían
señales de salida a una capa posterior (que está más cerca a la salida de la red).
A estas conexiones se las denomina conexiones hacia adelante o feedforward.
Sin embargo, en un gran número de estas redes también existe la posibilidad de
conectar la salida de las neuronas de capas posteriores a la entrada de capas
anteriores a estas conexiones se las denomina conexiones hacia atrás o
feedback.
Estas dos posibilidades permiten distinguir entre dos tipos de redes con múltiples
capas: las redes con conexiones hacia adelante o redes feedforward, y las redes
que disponen de conexiones tanto hacia adelante como hacia atrás o redes
feedforward/feedback.
• Conexión entre neuronas.
La conectividad entre los nodos de una red neuronal está relacionada con la
forma en que las salidas de las neuronas están canalizadas para convertirse en
entradas de otras neuronas. La señal de salida de un nodo puede ser una
entrada de otro elemento de proceso, o incluso ser una entrada de sí mismo
(conexión autorrecurrente).
• Redes de propagación hacia atrás.
El nombre de backpropagation resulta de la forma en que el error es propagado
hacia atrás a través de la red neuronal, en otras palabras, el error se propaga
hacia atrás desde la capa de salida. Esto permite que los pesos sobre las
conexiones de las neuronas ubicadas en las capas ocultas cambien durante el
entrenamiento.
El cambio de los pesos en las conexiones de las neuronas además de influir
sobre la entrada global, influye en la activación y por consiguiente en la salida
de una neurona. Por lo tanto, es de gran utilidad considerar las variaciones de la
función activación al modificarse el valor de los pesos. Esto se llama sensibilidad
de la función activación, de acuerdo al cambio en los pesos.
16. 16
WEBGRAFIA
• http://avellano.fis.usal.es/~lalonso/RNA/index.htm
• Damián Jorge Matich. (2001). Redes Neuronales: Conceptos Básicos y
Aplicaciones. . 19/10/2018, de Universidad Tecnológica Nacional –
Facultad Regional Rosario Departamento de Ingeniería Química Grupo
de Investigación Aplicada a la Ingeniería Química (GIAIQ) Sitio web:
https://www.frro.utn.edu.ar/repositorio/catedras/quimica/5_anio/ori
entadora1/monograias/matich-redesneuronales.pdf