SlideShare una empresa de Scribd logo
1 de 16
Descargar para leer sin conexión
Trujillo - 2018
REDES NEURONALES
Inteligencia Artificial
Docente:
Mg. TENORIO CABRERA, JULIO LUIS
2
CURSO: INTELIGENCIA ARTIFICIAL.
TEMA: REDES NEURONALES.
DOCENTE: Mg. TENORIO CABRERA, JULIO LUIS.
CICLO: VIII.
INTEGRANTES:
• ROMERO BARDALES, SARITHA.
• SALIRROSAS SANCHEZ, IRIS.
• RUIZ VIDAURRE, CAROLINE.
• RUITON RAMIREZ, DENNIS.
• TACILLA VILELA, MAX.
3
Contenido
1. Introducción: ...........................................................................................................................4
a) El modelo de tipo biológico.............................................................................................4
b) El modelo dirigido a aplicación........................................................................................5
2. Historia de las redes neuronales:............................................................................................5
3. Definición.................................................................................................................................6
4. ¿Qué son las redes neuronales?..............................................................................................7
5. LA RED NEURONAL ARTIFICIAL................................................................................................9
5.1 DEFINICIÓN........................................................................................................................9
5.2 ARQUITECTURA DE LAS RNA ...........................................................................................10
5.2.1 Función de entrada:..................................................................................................10
5.2.2 Función de activación:..............................................................................................11
5.2.3 Función de salida:.....................................................................................................12
5.3 APRENDIZAJE DE LAS RNA ...............................................................................................12
5.3.1 Paradigma de aprendizaje.....................................................................................12
5.3.2 Paradigma no supervisado o auto organizado.............................................................13
5.4 TIPOS DE NEURONAS ARTIFICIALES.................................................................................14
5.5 TOPOLOGIA DE LAS REDES NEURONALES .......................................................................14
WEBGRAFIA ...............................................................................................................................16
4
REDES NEURONALES
1. Introducción:
Las redes neuronales son más que otra forma de emular ciertas características propias
de los humanos, como la capacidad de memorizar y de asociar hechos. Si se examinan
con atención aquellos problemas que no pueden expresarse a través de un algoritmo,
se observará que todos ellos tienen una característica en común: la experiencia. El
hombre es capaz de resolver estas situaciones acudiendo a la experiencia acumulada.
Así, parece claro que una forma de aproximarse al problema consista en la construcción
de sistemas que sean capaces de reproducir esta característica humana.
En definitiva, las redes neuronales no son más que un modelo artificial y simplificado del
cerebro humano, que es el ejemplo más perfecto del que disponemos para un sistema
que es capaz de adquirir conocimiento a través de la experiencia. Una red neuronal es
“un nuevo sistema para el tratamiento de la información, cuya unidad básica de
procesamiento está inspirada en la célula fundamental del sistema nervioso humano: la
neurona”.
Todos los procesos del cuerpo humano se relacionan en alguna u otra forma con la
(in)actividad de estas neuronas. Las mismas son un componente relativamente simple
del ser humano, pero cuando millares de ellas se conectan en forma conjunta se hacen
muy poderosas.
Lo que básicamente ocurre en una neurona biológica es lo siguiente: la neurona es
estimulada o excitada a través de sus entradas (inputs) y cuando se alcanza un cierto
umbral, la neurona se dispara o activa, pasando una señal hacia el axon.
Como ya se sabe, el pensamiento tiene lugar en el cerebro, que consta de billones de
neuronas interconectadas. Así, el secreto de la “inteligencia” -sin importar como se
defina- se sitúa dentro de estas neuronas interconectadas y de su interacción.
También, es bien conocido que los humanos son capaces de aprender. Aprendizaje
significa que aquellos problemas que inicialmente no pueden resolverse, pueden ser
resueltos después de obtener más información acerca del problema. Por lo tanto, las
Redes Neuronales:
• Consisten de unidades de procesamiento que intercambian datos o información.
• Se utilizan para reconocer patrones, incluyendo imágenes, manuscritos y
secuencias de tiempo (por ejemplo: tendencias financieras).
• Tienen capacidad de aprender y mejorar su funcionamiento.
Una primera clasificación de los modelos de redes neuronales podría ser, atendiendo a
su similitud con la realidad biológica:
a) El modelo de tipo biológico. Este comprende las redes que tratan de simular
los sistemas neuronales biológicos, así como las funciones auditivas o algunas
funciones básicas de la visión.
5
b) El modelo dirigido a aplicación. Este modelo no tiene por qué guardar similitud
con los sistemas biológicos. Su arquitectura está fuertemente ligada a las
necesidades de las aplicaciones para la que es diseñada.
2. Historia de las redes neuronales:
➢ 1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de ver el
mundo de la computación. Sin embargo, los primeros teóricos que concibieron los
fundamentos de la computación neuronal fueron Warren McCulloch, un
neurofisiólogo, y Walter Pitts, un matemático, quienes, en 1943, lanzaron una teoría
acerca de la forma de trabajar de las neuronas (Un Cálculo Lógico de la Inminente
Idea de la Actividad Nerviosa - Boletín de Matemática Biofísica 5: 115-133). Ellos
modelaron una red neuronal simple mediante circuitos eléctricos.
➢ 1949 - Donald Hebb. Fue el primero en explicar los procesos del aprendizaje (que
es el elemento básico de la inteligencia humana) desde un punto de vista
psicológico, desarrollando una regla de como el aprendizaje ocurría. Aun hoy, este
es el fundamento de la mayoría de las funciones de aprendizaje que pueden hallarse
en una red neuronal. Su idea fue que el aprendizaje ocurría cuando ciertos cambios
en una neurona eran activados. También intentó encontrar semejanzas entre el
aprendizaje y la actividad nerviosa. Los trabajos de Hebb formaron las bases de la
Teoría de las Redes Neuronales.
➢ 1950 - Karl Lashley. En sus series de ensayos, encontró que la información no era
almacenada en forma centralizada en el cerebro sino que era distribuida encima de
él.
➢ 1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona para
indicar el nacimiento de la inteligencia artificial.
➢ 1957 - Frank Rosenblatt. Comenzó el desarrollo del Perceptron. Esta es la red
neuronal más antigua; utilizándose hoy en día para aplicación como identificador de
patrones. Este modelo era capaz de generalizar, es decir, después de haber
aprendido una serie de patrones podía reconocer otros similares, aunque no se le
hubiesen presentado en el entrenamiento. Sin embargo, tenía una serie de
limitaciones, por ejemplo, su incapacidad para resolver el problema de la función
OR-exclusiva y, en general, era incapaz de clasificar clases no separables
linealmente.
➢ 1959 - Frank Rosenblatt: Principios de Neurodinámica. En este libro confirmó que,
bajo ciertas condiciones, el aprendizaje del Perceptron convergía hacia un estado
finito (Teorema de Convergencia del Perceptron).
➢ 1960 - Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline (ADAptative
LINear Elements). Esta fue la primera red neuronal aplicada a un problema real
6
(filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado
comercialmente durante varias décadas.
➢ 1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones
técnicas (memoria asociativa).
➢ 1969 - Marvin Minsky/Seymour Papert. En este año casi se produjo la “muerte
abrupta” de las Redes Neuronales; ya que Minsky y Papert probaron
(matemáticamente) que el Perceptrons no era capaz de resolver problemas
relativamente fáciles, tales como el aprendizaje de una función no-lineal. Esto
demostró que el Perceptron era muy débil, dado que las funciones no-lineales son
extensamente empleadas en computación y en los problemas del mundo real.
➢ 1974 - Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje de
propagación hacia atrás (backpropagation); cuyo significado quedó definitivamente
aclarado en 1985.
➢ 1977 - Stephen Grossberg: Teoría de Resonancia Adaptada (TRA). La Teoría de
Resonancia Adaptada es una arquitectura de red que se diferencia de todas las
demás previamente inventadas. La misma simula otras habilidades del cerebro:
memoria a largo y corto plazo.
➢ 1985 - John Hopfield. Provocó el renacimiento de las redes neuronales con su libro:
“Computación neuronal de decisiones en problemas de optimización.”
➢ 1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de
propagación hacia atrás (backpropagation). A partir de 1986, el panorama fue
alentador con respecto a las investigaciones y el desarrollo de las redes neuronales.
En la actualidad, son numerosos los trabajos que se realizan y publican cada año,
las aplicaciones nuevas que surgen (sobretodo en el área de control) y las empresas
que lanzan al mercado productos nuevos, tanto hardware como software (sobre todo
para simulación).
3. Definición
Existen numerosas formas de definir a las redes neuronales; desde las definiciones
cortas y genéricas hasta las que intentan explicar más detalladamente qué son las redes
neuronales. A continuación, se muestran algunas:
✓ Una nueva forma de computación, inspirada en modelos biológicos.
✓ Un modelo matemático compuesto por un gran número de elementos procesales
organizados en niveles.
✓ Un sistema de computación compuesto por un gran número de elementos simples,
elementos de procesos muy interconectados, los cuales procesan información por
medio de su estado dinámico como respuesta a entradas externas.
7
✓ Redes neuronales artificiales son redes interconectadas masivamente en paralelo
de elementos simples (usualmente adaptativos) y con organización jerárquica, las
cuales intentan interactuar con los objetos del mundo real del mismo modo que lo
hace el sistema nervioso biológico.
4. ¿Qué son las redes neuronales?
Las Redes Neuronales son un campo de la Inteligencia
Artificial. Inspirándose en el comportamiento conocido
del cerebro humano (principalmente el referido a las
neuronas y sus conexiones), trata de crear modelos
artificiales que solucionen problemas difíciles de
resolver mediante técnicas algorítmicas
convencionales.
Una red neuronal es un modelo simplificado que
emula el modo en que el cerebro humano procesa la
información: Funciona simultaneando un número
elevado de unidades de procesamiento interconectadas
que parecen versiones abstractas de neuronas.
LA NEURONA BIOLOGÍCA
Fue Ramón y Cajal (1888) quién descubrió la estructura celular (neurona) del sistema
nervioso. Defendió la teoría de que las neuronas se interconectaban entre sí de forma
paralela, y no formando un circuito cerrado como el sistema sanguíneo.
Una neurona consta de un cuerpo celular (soma) de entre 10 y 80 mm, del que surge
un denso árbol de ramificaciones (dendritas) y una fibra tubular (axón) de entre 100 mm
y un metro.
De alguna forma, una neurona es un procesador de información muy simple:
· Canal de entrada: dendritas.
· Procesador: soma.
· Canal de salida: axón.
8
Una neurona cerebral puede recibir unas 10.000 entradas y enviar a su vez su
salida a varios cientos de neuronas.
La conexión entre neuronas se llama sinapsis. No es una conexión física, sino que hay
unos 2 mm de separación. Son conexiones unidireccionales, en la que la transmisión de
la información se hace de forma eléctrica en el interior de la neurona y de forma química
entre neuronas; gracias a unas sustancias específicas llamadas neurotransmisores.
No todas las neuronas son iguales, existen muchos tipos diferentes según el número
de ramificaciones de sus dendritas, la longitud del axón y otros detalles estructurales.
Sin embargo, como hemos visto, todas ellas operan con los mismos principios básicos.
NEURONA ARTIFICIAL
El modelo de Rumelhart y McClelland (1986) define un elemento de proceso (EP), o
neurona artificial, como un dispositivo que a partir de un conjunto de entradas, xi(i=1...n)
o vector x, genera una única salida y.
Esta neurona artificial consta de los siguientes elementos:
- Conjunto de entradas o vector de entradas x, de n componentes
- Conjunto de pesos sinápticos wij. Representan la interacción entre la neurona
presináptica j y la postsináptica i.
- Regla de propagación d(wij,xj(t)): proporciona el potencial postsináptico, hi(t).
- Función de activación ai(t)=f(ai(t-1), hi(t)): proporciona el estado de activación de
la neurona en función del estado anterior y del valor postsináptico.
- Función de salida Fi(t): proporciona la salida yi(t), en función del estado de
activación.
Las señales de entrada y salida pueden ser señales binarias (0,1 – neuronas de
McCulloch y Pitts), bipolares (-1,1), números enteros o continuos, variables borrosas,
etc.
La regla de propagación suele ser una suma ponderada del producto escalar del vector
de entrada y el vector de pesos:
También se usa a menudo la distancia euclídea entre ambos vectores:
Existen otro tipo de reglas menos conocidas como la distancia de Voronoi, de
Mahalanobis, etc.
La función de activación no suele tener en cuenta el estado anterior de la neurona, sino
sólo el potencial hi(t). Suele ser una función determinista y, casi siempre, continua y
9
monótona creciente. Las más comunes son la función signo (+1 si hi(t)>0, -1 en caso
contrario), la función semilineal y las funciones sigmoides:
La función de salida suele ser la identidad. En algunos casos es un valor umbral (la
neurona no se activa hasta que su estado supera un determinado valor).
Con todo esto, el modelo de neurona queda bastante simplificado:
5. LA RED NEURONAL ARTIFICIAL
5.1 DEFINICIÓN
Una red neuronal artificial (RNA) se puede definir (Hecht – Nielssen 93) como un grafo
dirigido con las siguientes restricciones:
▪ Los nodos se llaman elementos de proceso (EP).
▪ Los enlaces se llaman conexiones y funcionan como caminos unidireccionales
instantáneos
▪ Cada EP puede tener cualquier número de conexiones.
▪ Todas las conexiones que salgan de un EP deben tener la misma señal.
▪ Los EP pueden tener memoria local.
▪ Cada EP posee una función de transferencia que, en función de las entradas
y la memoria local produce una señal de salida y / o altera la memoria local.
▪ Las entradas a la RNA llegan del mundo exterior, mientras que sus salidas son
conexiones que abandonan la RNA.
10
5.2 ARQUITECTURA DE LAS RNA
La arquitectura de una RNA es la estructura o patrón de conexiones de la red. Es
conveniente recordar que las conexiones sinápticas son direccionales, es decir, la
información sólo se transmite en un sentido.
En general, las neuronas suelen agruparse en unidades estructurales llamadas capas.
Dentro de una capa, las neuronas suelen ser del mismo tipo. Se pueden distinguir tres
tipos de capas:
❖ De entrada. Reciben datos o señales procedentes del entorno.
❖ De salida. Proporcionan la respuesta de la red a los estímulos de la entrada.
❖ Ocultas. No reciben ni suministran información al entorno (procesamiento
interno de la red). No tienen contacto directo con el entorno exterior. El número
de niveles ocultos puede estar entre creo y un número elevado. las neuronas de
las capas ocultas pueden estar interconectadas de distintas maneras, lo que
determina, junto con su número, las distintas topologías de redes neuronales.
Generalmente las conexiones se realizan entre neuronas de distintas capas, pero puede
haber conexiones intracapa o laterales y conexiones de realimentación que siguen un
sentido contrario al de entrada-salida.
5.2.1 Función de entrada:
La neurona trata a muchos valores de entrada como si fueran uno solo; esto recibe el
nombre de entrada global. Por lo tanto, ahora nos enfrentamos al problema de cómo se
pueden combinar estas simples entradas (ini1, ini2, ...) dentro de la entrada global, gini.
Esto se logra a través de la función de entrada, la cual se calcula a partir del vector
entrada. La función de entrada puede describirse como sigue:
donde: * representa al operador apropiado (por ejemplo: máximo, sumatoria, producto,
etc.), n al número de entradas a la neurona Ni y Wi al peso.
Los valores de entrada se multiplican por los pesos anteriormente ingresados a la
neurona. Por consiguiente, los pesos que generalmente no están restringidos cambian
la medida de influencia que tienen los valores de entrada. Es decir, que permiten que
un gran valor de entrada tenga solamente una pequeña influencia, si estos son lo
11
suficientemente pequeños.
Algunas de las funciones de entrada más comúnmente utilizadas y conocidas son:
a. Sumatoria de las entradas: Es la suma de todos los valores de entrada a la
neurona, multiplicados por sus correspondientes pesos.
b. Producto de las entradas: Es el producto de todos los valores de entrada a la
neurona, multiplicados por sus correspondientes pesos.
c. Máximo de las entradas: Solamente toma en consideración el valor de entrada más
fuerte, previamente multiplicado por su peso correspondiente.
5.2.2 Función de activación:
Una neurona biológica puede estar activa (excitada) o inactiva (no excitada); es decir,
que tiene un “estado de activación”. Las neuronas artificiales también tienen diferentes
estados de activación; algunas de ellas solamente dos, al igual que las biológicas, pero
otras pueden tomar cualquier valor dentro de un conjunto determinado.
La función activación calcula el estado de actividad de una neurona; transformando la
entrada global en un valor (estado) de activación, cuyo rango normalmente va de (0 a
1) o de (–1 a 1).
Las funciones de activación más comúnmente utilizadas se detallan a continuación:
a) Función lineal:
b) Función sigmoidea:
12
c) Función tangente hiperbólica:
5.2.3 Función de salida:
El último componente que una neurona necesita es la función de salida. El valor
resultante de esta función es la salida de la neurona i (outi); por ende, la función de
salida determina que valor se transfiere a las neuronas vinculadas.
Si la función de activación está por debajo de un umbral determinado, ninguna salida se
pasa a la neurona subsiguiente.
Normalmente, no cualquier valor es permitido como una entrada para una neurona, por
lo tanto, los valores de salida están comprendidos en el rango [0, 1] o [-1, 1]. También
pueden ser binarios {0, 1} o {-1, 1}. Dos de las funciones de salida más comunes son:
✓ Ninguna: este es el tipo de función más sencillo, tal que la salida es la misma que
la entrada. Es también llamada función identidad.
✓ Binaria:
5.3 APRENDIZAJE DE LAS RNA
Es el proceso por el que una RNA actualiza los pesos (y, en algunos casos, la
arquitectura) con el propósito de que la red pueda llevar a cabo de forma efectiva una
tarea determinada. Hay tres conceptos fundamentales en el aprendizaje:
5.3.1 Paradigma de aprendizaje. Información de la que dispone la red.
5.3.1.1Paradigma supervisado. la red trata de minimizar un error entre
la salida que calcula y la salida deseada (conocida), de modo que la
salida calculada termine siendo la deseada.
a. Aprendizaje por corrección de error. Consiste en ajustar los
pesos de las conexiones de la red en función de la diferencia
entre los valores deseados y los obtenidos a la salida de la
red, es decir, en función del error cometido en la salida.
b. Aprendizaje por refuerzo. Aprendizaje supervisado más
lento que el anterior, que se basa en la idea de no disponer
de un ejemplo completo del comportamiento deseado, es
decir, de no indicar durante el entrenamiento exactamente la
salida que se desea que proporcione la red ante una
determinada entrada. En el aprendizaje por refuerzo la función
del supervisor se reduce a indicar mediante una señal de
refuerzo si la salida obtenida en la red se ajusta a la deseada
(éxito = +1 o fracaso = -1), y en función de ello se ajustan los
13
pesos basándose en un mecanismo de probabilidades. Se
podría decir que en este tipo de aprendizaje la función del
supervisor se asemeja más a la de un crítico (que opina sobre
la respuesta de la red) que a la de un maestro (que indica a la
red la respuesta concreta que debe generar), como ocurría en
el caso de supervisión por corrección del error.
c. Aprendizaje estocástico. Consiste básicamente en realizar
cambios aleatorios en los valores de los pesos de las
conexiones de la red y evaluar su efecto a partir del objetivo
deseado y de distribuciones de probabilidad.
5.3.2 Paradigma no supervisado o auto organizado.
Las redes con aprendizaje no supervisado (también conocido como
autosupervisado) no requieren influencia externa para ajustar los pesos
de las conexiones entre sus neuronas. La red no recibe ninguna
información por parte del entorno que le indique si la salida generada en
respuesta a una determinada entrada es o no correcta.
Estas redes deben encontrar las características, regularidades,
correlaciones o categorías que se puedan establecer entre los datos que
se presenten en su entrada. Existen varias posibilidades en cuanto a la
interpretación de la salida de estas redes, que dependen de su estructura
y del algoritmo de aprendizaje empleado.
En algunos casos, la salida representa el grado de familiaridad o similitud
entre la información que se le está presentando en la entrada y las
informaciones que se le han mostrado hasta entonces (en el pasado). En
otro caso, podría realizar una clusterización (clustering) o establecimiento
de categorías, indicando la red a la salida a qué categoría pertenece la
información presentada a la entrada, siendo la propia red quien debe
encontrar las categorías apropiadas a partir de las correlaciones entre las
informaciones presentadas.
En cuanto a los algoritmos de aprendizaje no supervisado, en general se
suelen considerar dos tipos, que dan lugar a los siguientes aprendizajes:
a. Aprendizaje hebbiano.
Esta regla de aprendizaje es la base de muchas otras, la cual
pretende medir la familiaridad o extraer características de los datos
de entrada. El fundamento es una suposición bastante simple: si dos
neuronas Ni y Nj toman el mismo estado simultáneamente (ambas
activas o ambas inactivas), el peso de la conexión entre ambas se
incrementa. Las entradas y salidas permitidas a la neurona son: {-1,
1} o {0, 1} (neuronas binarias). Esto puede explicarse porque la regla
de aprendizaje de Hebb se originó a partir de la neurona biológica
clásica, que solamente puede tener dos estados: activa o inactiva.
b. Aprendizaje competitivo y comparativo.
Se orienta a la clusterización o clasificación de los datos de entrada.
Como característica principal del aprendizaje competitivo se puede
decir que, si un patrón nuevo se determina que pertenece a una clase
14
reconocida previamente, entonces la inclusión de este nuevo patrón
a esta clase matizará la representación de la misma. Si el patrón de
entrada se determinó que no pertenece a ninguna de las clases
reconocidas anteriormente, entonces la estructura y los pesos de la
red neuronal serán ajustados para reconocer la nueva clase.
5.4 TIPOS DE NEURONAS ARTIFICIALES
las neuronas artificiales se pueden clasificar de acuerdo a los valores que puede tomar.
Por ahora es suficiente distinguir entre dos tipos principales:
❖ Neuronas binarias
❖ Neuronas reales
Las neuronas binarias solamente pueden tomar valores dentro del intervalo
{0, 1} o {-1, 1}, mientras que las neuronas reales pueden hacerlo dentro del rango
[0, 1] o [-1, 1]. Los pesos normalmente no están restringidos a un cierto intervalo,
aunque para aplicaciones específicas puede ser esto necesario.
5.5 TOPOLOGIA DE LAS REDES NEURONALES
La topología o arquitectura de una red neuronal consiste en la organización y disposición
de las neuronas en la misma, formando capas o agrupaciones de neuronas más o
menos alejadas de la entrada y salida de dicha red. En este sentido, los parámetros
fundamentales de la red son: el número de capas, el número de neuronas por capa, el
grado de conectividad y el tipo de conexiones entre neuronas.
• Redes monocapa.
En las redes monocapa, se establecen conexiones entre las neuronas que
pertenecen a la única capa que constituye la red. Las redes monocapas se
utilizan generalmente en tareas relacionadas con lo que se conoce como
autoasociación (regenerar información de entrada que se presenta a la red de
forma incompleta o distorsionada).
• Redes multicapa.
Las redes multicapas son aquellas que disponen de un conjunto de neuronas
agrupadas en varios (2, 3, etc.) niveles o capas. En estos casos, una forma para
15
distinguir la capa a la que pertenece una neurona, consistiría en fijarse en el
origen de las señales que recibe a la entrada y el destino de la señal de salida.
Normalmente, todas las neuronas de una capa reciben señales de entrada desde
otra capa anterior (la cual está más cerca a la entrada de la red), y envían
señales de salida a una capa posterior (que está más cerca a la salida de la red).
A estas conexiones se las denomina conexiones hacia adelante o feedforward.
Sin embargo, en un gran número de estas redes también existe la posibilidad de
conectar la salida de las neuronas de capas posteriores a la entrada de capas
anteriores a estas conexiones se las denomina conexiones hacia atrás o
feedback.
Estas dos posibilidades permiten distinguir entre dos tipos de redes con múltiples
capas: las redes con conexiones hacia adelante o redes feedforward, y las redes
que disponen de conexiones tanto hacia adelante como hacia atrás o redes
feedforward/feedback.
• Conexión entre neuronas.
La conectividad entre los nodos de una red neuronal está relacionada con la
forma en que las salidas de las neuronas están canalizadas para convertirse en
entradas de otras neuronas. La señal de salida de un nodo puede ser una
entrada de otro elemento de proceso, o incluso ser una entrada de sí mismo
(conexión autorrecurrente).
• Redes de propagación hacia atrás.
El nombre de backpropagation resulta de la forma en que el error es propagado
hacia atrás a través de la red neuronal, en otras palabras, el error se propaga
hacia atrás desde la capa de salida. Esto permite que los pesos sobre las
conexiones de las neuronas ubicadas en las capas ocultas cambien durante el
entrenamiento.
El cambio de los pesos en las conexiones de las neuronas además de influir
sobre la entrada global, influye en la activación y por consiguiente en la salida
de una neurona. Por lo tanto, es de gran utilidad considerar las variaciones de la
función activación al modificarse el valor de los pesos. Esto se llama sensibilidad
de la función activación, de acuerdo al cambio en los pesos.
16
WEBGRAFIA
• http://avellano.fis.usal.es/~lalonso/RNA/index.htm
• Damián Jorge Matich. (2001). Redes Neuronales: Conceptos Básicos y
Aplicaciones. . 19/10/2018, de Universidad Tecnológica Nacional –
Facultad Regional Rosario Departamento de Ingeniería Química Grupo
de Investigación Aplicada a la Ingeniería Química (GIAIQ) Sitio web:
https://www.frro.utn.edu.ar/repositorio/catedras/quimica/5_anio/ori
entadora1/monograias/matich-redesneuronales.pdf

Más contenido relacionado

La actualidad más candente

Introducción a las Redes Neuronales Artificiales
Introducción a las Redes Neuronales ArtificialesIntroducción a las Redes Neuronales Artificiales
Introducción a las Redes Neuronales ArtificialesBiblioteca EPM
 
5.2 Redes neuronales (RN) [presentación].
5.2 Redes neuronales (RN) [presentación].5.2 Redes neuronales (RN) [presentación].
5.2 Redes neuronales (RN) [presentación].Humberto Chalate Jorge
 
Funciones satlin satlins
Funciones satlin satlinsFunciones satlin satlins
Funciones satlin satlinsChristian Lara
 
Inteligencia artificial maog
Inteligencia artificial maogInteligencia artificial maog
Inteligencia artificial maogMIRTA8A
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificialKathy Camino
 
Modelo de procesamiento de la información II
Modelo de procesamiento de la información IIModelo de procesamiento de la información II
Modelo de procesamiento de la información IIsaladehistoria.net
 
Inteligencia Artificial
Inteligencia ArtificialInteligencia Artificial
Inteligencia ArtificialJoyce Romero
 
La inteligencia artificial
La inteligencia artificialLa inteligencia artificial
La inteligencia artificialluis davalos
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificialDaniel Merino
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificialSolSolange
 
INTELIGENCIA ARTIFICIAL
INTELIGENCIA ARTIFICIALINTELIGENCIA ARTIFICIAL
INTELIGENCIA ARTIFICIALkezzzi
 
Modelo de procesamiento de la información I
Modelo de procesamiento de la información IModelo de procesamiento de la información I
Modelo de procesamiento de la información Isaladehistoria.net
 

La actualidad más candente (18)

Introducción a las Redes Neuronales Artificiales
Introducción a las Redes Neuronales ArtificialesIntroducción a las Redes Neuronales Artificiales
Introducción a las Redes Neuronales Artificiales
 
5.2 Redes neuronales (RN) [presentación].
5.2 Redes neuronales (RN) [presentación].5.2 Redes neuronales (RN) [presentación].
5.2 Redes neuronales (RN) [presentación].
 
El cerebro humano: una perspectiva científica y filosófica
El cerebro humano: una perspectiva científica y filosóficaEl cerebro humano: una perspectiva científica y filosófica
El cerebro humano: una perspectiva científica y filosófica
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Funciones satlin satlins
Funciones satlin satlinsFunciones satlin satlins
Funciones satlin satlins
 
Inteligencia artificial maog
Inteligencia artificial maogInteligencia artificial maog
Inteligencia artificial maog
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Redes Neuronales
 Redes Neuronales Redes Neuronales
Redes Neuronales
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Modelo de procesamiento de la información II
Modelo de procesamiento de la información IIModelo de procesamiento de la información II
Modelo de procesamiento de la información II
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Inteligencia Artificial
Inteligencia ArtificialInteligencia Artificial
Inteligencia Artificial
 
La inteligencia artificial
La inteligencia artificialLa inteligencia artificial
La inteligencia artificial
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
INTELIGENCIA ARTIFICIAL
INTELIGENCIA ARTIFICIALINTELIGENCIA ARTIFICIAL
INTELIGENCIA ARTIFICIAL
 
Modelo de procesamiento de la información I
Modelo de procesamiento de la información IModelo de procesamiento de la información I
Modelo de procesamiento de la información I
 

Similar a Redes neuronales

REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALESHB09
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesAngel G
 
Aplicacion redes neuronales
Aplicacion redes neuronalesAplicacion redes neuronales
Aplicacion redes neuronalesErik Perera
 
Red Neuronal Artificial
Red Neuronal ArtificialRed Neuronal Artificial
Red Neuronal ArtificialJORGE ARMANDO
 
Sistemas neuronales
Sistemas neuronalesSistemas neuronales
Sistemas neuronalescrujerdenye
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesanlie
 
Redes neuronales jesus molleda
Redes neuronales jesus molledaRedes neuronales jesus molleda
Redes neuronales jesus molledaJesús Molleda
 
Treballderecerca 090301103205-phpapp01
Treballderecerca 090301103205-phpapp01Treballderecerca 090301103205-phpapp01
Treballderecerca 090301103205-phpapp01rossana fernandez
 
Avances en la investigación de las NEUROCIENCIAS.pdf
Avances en la investigación de las NEUROCIENCIAS.pdfAvances en la investigación de las NEUROCIENCIAS.pdf
Avances en la investigación de las NEUROCIENCIAS.pdfMARCOANTONIOLUNAANCO
 
Neurociencia (1)
Neurociencia (1)Neurociencia (1)
Neurociencia (1)rossymar_62
 
El conexionismo
El conexionismoEl conexionismo
El conexionismogueariel
 
Funciones de activación Satlin y Satlins en Matlab
Funciones de activación Satlin y Satlins en MatlabFunciones de activación Satlin y Satlins en Matlab
Funciones de activación Satlin y Satlins en MatlabGabyta Rodríguez
 

Similar a Redes neuronales (20)

Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALES
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Aplicacion redes neuronales
Aplicacion redes neuronalesAplicacion redes neuronales
Aplicacion redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Red Neuronal Artificial
Red Neuronal ArtificialRed Neuronal Artificial
Red Neuronal Artificial
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Sistemas neuronales
Sistemas neuronalesSistemas neuronales
Sistemas neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales jesus molleda
Redes neuronales jesus molledaRedes neuronales jesus molleda
Redes neuronales jesus molleda
 
Treballderecerca 090301103205-phpapp01
Treballderecerca 090301103205-phpapp01Treballderecerca 090301103205-phpapp01
Treballderecerca 090301103205-phpapp01
 
Rafael yuste
Rafael yusteRafael yuste
Rafael yuste
 
Avances en la investigación de las NEUROCIENCIAS.pdf
Avances en la investigación de las NEUROCIENCIAS.pdfAvances en la investigación de las NEUROCIENCIAS.pdf
Avances en la investigación de las NEUROCIENCIAS.pdf
 
Neurociencia (1)
Neurociencia (1)Neurociencia (1)
Neurociencia (1)
 
El conexionismo
El conexionismoEl conexionismo
El conexionismo
 
Satlin y satlins
Satlin y satlinsSatlin y satlins
Satlin y satlins
 
Funciones de activación Satlin y Satlins en Matlab
Funciones de activación Satlin y Satlins en MatlabFunciones de activación Satlin y Satlins en Matlab
Funciones de activación Satlin y Satlins en Matlab
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
inteligencia artificial unidad 1
inteligencia artificial unidad 1inteligencia artificial unidad 1
inteligencia artificial unidad 1
 

Último

Sternhell & Sznajder & Asheri. - El nacimiento de la ideología fascista [ocr]...
Sternhell & Sznajder & Asheri. - El nacimiento de la ideología fascista [ocr]...Sternhell & Sznajder & Asheri. - El nacimiento de la ideología fascista [ocr]...
Sternhell & Sznajder & Asheri. - El nacimiento de la ideología fascista [ocr]...frank0071
 
Tortosa et al. 2º Simposio Internacional Composta.pdf
Tortosa et al. 2º Simposio Internacional Composta.pdfTortosa et al. 2º Simposio Internacional Composta.pdf
Tortosa et al. 2º Simposio Internacional Composta.pdfGermán Tortosa
 
HISTORIA NATURAL DE LA ENFEREMEDAD: SARAMPION
HISTORIA NATURAL DE LA ENFEREMEDAD: SARAMPIONHISTORIA NATURAL DE LA ENFEREMEDAD: SARAMPION
HISTORIA NATURAL DE LA ENFEREMEDAD: SARAMPIONAleMena14
 
Exploracion de la boca Propedéutica de la Clínica
Exploracion de la boca Propedéutica de la ClínicaExploracion de la boca Propedéutica de la Clínica
Exploracion de la boca Propedéutica de la Clínicacriscris80000
 
Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdf
Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdfHolland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdf
Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdffrank0071
 
López, L. - Destierro y memoria. Trayectorias de familias judías piemontesas ...
López, L. - Destierro y memoria. Trayectorias de familias judías piemontesas ...López, L. - Destierro y memoria. Trayectorias de familias judías piemontesas ...
López, L. - Destierro y memoria. Trayectorias de familias judías piemontesas ...frank0071
 
valoracion hemodinamica y respuesta a fluidorerapia
valoracion hemodinamica y respuesta a fluidorerapiavaloracion hemodinamica y respuesta a fluidorerapia
valoracion hemodinamica y respuesta a fluidorerapiaresiutihjaf
 
problemas_oscilaciones_amortiguadas.pdf aplicadas a la mecanica
problemas_oscilaciones_amortiguadas.pdf aplicadas a la mecanicaproblemas_oscilaciones_amortiguadas.pdf aplicadas a la mecanica
problemas_oscilaciones_amortiguadas.pdf aplicadas a la mecanicaArturoDavilaObando
 
Teoría de usos y gratificaciones 2024.pptx
Teoría de usos y gratificaciones 2024.pptxTeoría de usos y gratificaciones 2024.pptx
Teoría de usos y gratificaciones 2024.pptxlm24028
 
el lugar santo y santisimo final.pptx y sus partes
el lugar santo y santisimo final.pptx y sus partesel lugar santo y santisimo final.pptx y sus partes
el lugar santo y santisimo final.pptx y sus partesAsihleyyanguez
 
EXAMEN ANDROLOGICO O CAPACIDAD REPRODUCTIVA EN EQUINOS.pptx
EXAMEN ANDROLOGICO O CAPACIDAD REPRODUCTIVA  EN EQUINOS.pptxEXAMEN ANDROLOGICO O CAPACIDAD REPRODUCTIVA  EN EQUINOS.pptx
EXAMEN ANDROLOGICO O CAPACIDAD REPRODUCTIVA EN EQUINOS.pptxJhonFonseca16
 
Woods, Thomas E. - Cómo la Iglesia construyó la Civilización Occidental [ocr]...
Woods, Thomas E. - Cómo la Iglesia construyó la Civilización Occidental [ocr]...Woods, Thomas E. - Cómo la Iglesia construyó la Civilización Occidental [ocr]...
Woods, Thomas E. - Cómo la Iglesia construyó la Civilización Occidental [ocr]...frank0071
 
LOS DISTINTOS MUNICIPIO_SALUDABLE DE BOLIVIA
LOS DISTINTOS MUNICIPIO_SALUDABLE DE BOLIVIALOS DISTINTOS MUNICIPIO_SALUDABLE DE BOLIVIA
LOS DISTINTOS MUNICIPIO_SALUDABLE DE BOLIVIALozadaAcuaMonserratt
 
4.-ENLACE-QUÍMICO.-LIBRO-PRINCIPAL (1).pdf
4.-ENLACE-QUÍMICO.-LIBRO-PRINCIPAL (1).pdf4.-ENLACE-QUÍMICO.-LIBRO-PRINCIPAL (1).pdf
4.-ENLACE-QUÍMICO.-LIBRO-PRINCIPAL (1).pdfvguadarramaespinal
 
Procedimiento e interpretación de los coprocultivos.pdf
Procedimiento e interpretación de los coprocultivos.pdfProcedimiento e interpretación de los coprocultivos.pdf
Procedimiento e interpretación de los coprocultivos.pdfCarlaLSarita1
 
SEMIOLOGIA RESPIRATORIA, CLINICA BASICA .pdf
SEMIOLOGIA RESPIRATORIA, CLINICA BASICA .pdfSEMIOLOGIA RESPIRATORIA, CLINICA BASICA .pdf
SEMIOLOGIA RESPIRATORIA, CLINICA BASICA .pdfrvillegasp16001
 
Tractos ascendentes y descendentes de la médula
Tractos ascendentes y descendentes de la médulaTractos ascendentes y descendentes de la médula
Tractos ascendentes y descendentes de la méduladianymorales5
 
DIAPOSITIVASDEPRIMERACATEGORIAIIPARTE (1).pptx
DIAPOSITIVASDEPRIMERACATEGORIAIIPARTE (1).pptxDIAPOSITIVASDEPRIMERACATEGORIAIIPARTE (1).pptx
DIAPOSITIVASDEPRIMERACATEGORIAIIPARTE (1).pptxprofesionalscontable
 
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALES
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALESECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALES
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALEScarlasanchez99166
 
Fritzsche, Peter. - Vida y muerte en el Tercer Reich [ocr] [2009].pdf
Fritzsche, Peter. - Vida y muerte en el Tercer Reich [ocr] [2009].pdfFritzsche, Peter. - Vida y muerte en el Tercer Reich [ocr] [2009].pdf
Fritzsche, Peter. - Vida y muerte en el Tercer Reich [ocr] [2009].pdffrank0071
 

Último (20)

Sternhell & Sznajder & Asheri. - El nacimiento de la ideología fascista [ocr]...
Sternhell & Sznajder & Asheri. - El nacimiento de la ideología fascista [ocr]...Sternhell & Sznajder & Asheri. - El nacimiento de la ideología fascista [ocr]...
Sternhell & Sznajder & Asheri. - El nacimiento de la ideología fascista [ocr]...
 
Tortosa et al. 2º Simposio Internacional Composta.pdf
Tortosa et al. 2º Simposio Internacional Composta.pdfTortosa et al. 2º Simposio Internacional Composta.pdf
Tortosa et al. 2º Simposio Internacional Composta.pdf
 
HISTORIA NATURAL DE LA ENFEREMEDAD: SARAMPION
HISTORIA NATURAL DE LA ENFEREMEDAD: SARAMPIONHISTORIA NATURAL DE LA ENFEREMEDAD: SARAMPION
HISTORIA NATURAL DE LA ENFEREMEDAD: SARAMPION
 
Exploracion de la boca Propedéutica de la Clínica
Exploracion de la boca Propedéutica de la ClínicaExploracion de la boca Propedéutica de la Clínica
Exploracion de la boca Propedéutica de la Clínica
 
Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdf
Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdfHolland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdf
Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdf
 
López, L. - Destierro y memoria. Trayectorias de familias judías piemontesas ...
López, L. - Destierro y memoria. Trayectorias de familias judías piemontesas ...López, L. - Destierro y memoria. Trayectorias de familias judías piemontesas ...
López, L. - Destierro y memoria. Trayectorias de familias judías piemontesas ...
 
valoracion hemodinamica y respuesta a fluidorerapia
valoracion hemodinamica y respuesta a fluidorerapiavaloracion hemodinamica y respuesta a fluidorerapia
valoracion hemodinamica y respuesta a fluidorerapia
 
problemas_oscilaciones_amortiguadas.pdf aplicadas a la mecanica
problemas_oscilaciones_amortiguadas.pdf aplicadas a la mecanicaproblemas_oscilaciones_amortiguadas.pdf aplicadas a la mecanica
problemas_oscilaciones_amortiguadas.pdf aplicadas a la mecanica
 
Teoría de usos y gratificaciones 2024.pptx
Teoría de usos y gratificaciones 2024.pptxTeoría de usos y gratificaciones 2024.pptx
Teoría de usos y gratificaciones 2024.pptx
 
el lugar santo y santisimo final.pptx y sus partes
el lugar santo y santisimo final.pptx y sus partesel lugar santo y santisimo final.pptx y sus partes
el lugar santo y santisimo final.pptx y sus partes
 
EXAMEN ANDROLOGICO O CAPACIDAD REPRODUCTIVA EN EQUINOS.pptx
EXAMEN ANDROLOGICO O CAPACIDAD REPRODUCTIVA  EN EQUINOS.pptxEXAMEN ANDROLOGICO O CAPACIDAD REPRODUCTIVA  EN EQUINOS.pptx
EXAMEN ANDROLOGICO O CAPACIDAD REPRODUCTIVA EN EQUINOS.pptx
 
Woods, Thomas E. - Cómo la Iglesia construyó la Civilización Occidental [ocr]...
Woods, Thomas E. - Cómo la Iglesia construyó la Civilización Occidental [ocr]...Woods, Thomas E. - Cómo la Iglesia construyó la Civilización Occidental [ocr]...
Woods, Thomas E. - Cómo la Iglesia construyó la Civilización Occidental [ocr]...
 
LOS DISTINTOS MUNICIPIO_SALUDABLE DE BOLIVIA
LOS DISTINTOS MUNICIPIO_SALUDABLE DE BOLIVIALOS DISTINTOS MUNICIPIO_SALUDABLE DE BOLIVIA
LOS DISTINTOS MUNICIPIO_SALUDABLE DE BOLIVIA
 
4.-ENLACE-QUÍMICO.-LIBRO-PRINCIPAL (1).pdf
4.-ENLACE-QUÍMICO.-LIBRO-PRINCIPAL (1).pdf4.-ENLACE-QUÍMICO.-LIBRO-PRINCIPAL (1).pdf
4.-ENLACE-QUÍMICO.-LIBRO-PRINCIPAL (1).pdf
 
Procedimiento e interpretación de los coprocultivos.pdf
Procedimiento e interpretación de los coprocultivos.pdfProcedimiento e interpretación de los coprocultivos.pdf
Procedimiento e interpretación de los coprocultivos.pdf
 
SEMIOLOGIA RESPIRATORIA, CLINICA BASICA .pdf
SEMIOLOGIA RESPIRATORIA, CLINICA BASICA .pdfSEMIOLOGIA RESPIRATORIA, CLINICA BASICA .pdf
SEMIOLOGIA RESPIRATORIA, CLINICA BASICA .pdf
 
Tractos ascendentes y descendentes de la médula
Tractos ascendentes y descendentes de la médulaTractos ascendentes y descendentes de la médula
Tractos ascendentes y descendentes de la médula
 
DIAPOSITIVASDEPRIMERACATEGORIAIIPARTE (1).pptx
DIAPOSITIVASDEPRIMERACATEGORIAIIPARTE (1).pptxDIAPOSITIVASDEPRIMERACATEGORIAIIPARTE (1).pptx
DIAPOSITIVASDEPRIMERACATEGORIAIIPARTE (1).pptx
 
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALES
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALESECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALES
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALES
 
Fritzsche, Peter. - Vida y muerte en el Tercer Reich [ocr] [2009].pdf
Fritzsche, Peter. - Vida y muerte en el Tercer Reich [ocr] [2009].pdfFritzsche, Peter. - Vida y muerte en el Tercer Reich [ocr] [2009].pdf
Fritzsche, Peter. - Vida y muerte en el Tercer Reich [ocr] [2009].pdf
 

Redes neuronales

  • 1. Trujillo - 2018 REDES NEURONALES Inteligencia Artificial Docente: Mg. TENORIO CABRERA, JULIO LUIS
  • 2. 2 CURSO: INTELIGENCIA ARTIFICIAL. TEMA: REDES NEURONALES. DOCENTE: Mg. TENORIO CABRERA, JULIO LUIS. CICLO: VIII. INTEGRANTES: • ROMERO BARDALES, SARITHA. • SALIRROSAS SANCHEZ, IRIS. • RUIZ VIDAURRE, CAROLINE. • RUITON RAMIREZ, DENNIS. • TACILLA VILELA, MAX.
  • 3. 3 Contenido 1. Introducción: ...........................................................................................................................4 a) El modelo de tipo biológico.............................................................................................4 b) El modelo dirigido a aplicación........................................................................................5 2. Historia de las redes neuronales:............................................................................................5 3. Definición.................................................................................................................................6 4. ¿Qué son las redes neuronales?..............................................................................................7 5. LA RED NEURONAL ARTIFICIAL................................................................................................9 5.1 DEFINICIÓN........................................................................................................................9 5.2 ARQUITECTURA DE LAS RNA ...........................................................................................10 5.2.1 Función de entrada:..................................................................................................10 5.2.2 Función de activación:..............................................................................................11 5.2.3 Función de salida:.....................................................................................................12 5.3 APRENDIZAJE DE LAS RNA ...............................................................................................12 5.3.1 Paradigma de aprendizaje.....................................................................................12 5.3.2 Paradigma no supervisado o auto organizado.............................................................13 5.4 TIPOS DE NEURONAS ARTIFICIALES.................................................................................14 5.5 TOPOLOGIA DE LAS REDES NEURONALES .......................................................................14 WEBGRAFIA ...............................................................................................................................16
  • 4. 4 REDES NEURONALES 1. Introducción: Las redes neuronales son más que otra forma de emular ciertas características propias de los humanos, como la capacidad de memorizar y de asociar hechos. Si se examinan con atención aquellos problemas que no pueden expresarse a través de un algoritmo, se observará que todos ellos tienen una característica en común: la experiencia. El hombre es capaz de resolver estas situaciones acudiendo a la experiencia acumulada. Así, parece claro que una forma de aproximarse al problema consista en la construcción de sistemas que sean capaces de reproducir esta característica humana. En definitiva, las redes neuronales no son más que un modelo artificial y simplificado del cerebro humano, que es el ejemplo más perfecto del que disponemos para un sistema que es capaz de adquirir conocimiento a través de la experiencia. Una red neuronal es “un nuevo sistema para el tratamiento de la información, cuya unidad básica de procesamiento está inspirada en la célula fundamental del sistema nervioso humano: la neurona”. Todos los procesos del cuerpo humano se relacionan en alguna u otra forma con la (in)actividad de estas neuronas. Las mismas son un componente relativamente simple del ser humano, pero cuando millares de ellas se conectan en forma conjunta se hacen muy poderosas. Lo que básicamente ocurre en una neurona biológica es lo siguiente: la neurona es estimulada o excitada a través de sus entradas (inputs) y cuando se alcanza un cierto umbral, la neurona se dispara o activa, pasando una señal hacia el axon. Como ya se sabe, el pensamiento tiene lugar en el cerebro, que consta de billones de neuronas interconectadas. Así, el secreto de la “inteligencia” -sin importar como se defina- se sitúa dentro de estas neuronas interconectadas y de su interacción. También, es bien conocido que los humanos son capaces de aprender. Aprendizaje significa que aquellos problemas que inicialmente no pueden resolverse, pueden ser resueltos después de obtener más información acerca del problema. Por lo tanto, las Redes Neuronales: • Consisten de unidades de procesamiento que intercambian datos o información. • Se utilizan para reconocer patrones, incluyendo imágenes, manuscritos y secuencias de tiempo (por ejemplo: tendencias financieras). • Tienen capacidad de aprender y mejorar su funcionamiento. Una primera clasificación de los modelos de redes neuronales podría ser, atendiendo a su similitud con la realidad biológica: a) El modelo de tipo biológico. Este comprende las redes que tratan de simular los sistemas neuronales biológicos, así como las funciones auditivas o algunas funciones básicas de la visión.
  • 5. 5 b) El modelo dirigido a aplicación. Este modelo no tiene por qué guardar similitud con los sistemas biológicos. Su arquitectura está fuertemente ligada a las necesidades de las aplicaciones para la que es diseñada. 2. Historia de las redes neuronales: ➢ 1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de ver el mundo de la computación. Sin embargo, los primeros teóricos que concibieron los fundamentos de la computación neuronal fueron Warren McCulloch, un neurofisiólogo, y Walter Pitts, un matemático, quienes, en 1943, lanzaron una teoría acerca de la forma de trabajar de las neuronas (Un Cálculo Lógico de la Inminente Idea de la Actividad Nerviosa - Boletín de Matemática Biofísica 5: 115-133). Ellos modelaron una red neuronal simple mediante circuitos eléctricos. ➢ 1949 - Donald Hebb. Fue el primero en explicar los procesos del aprendizaje (que es el elemento básico de la inteligencia humana) desde un punto de vista psicológico, desarrollando una regla de como el aprendizaje ocurría. Aun hoy, este es el fundamento de la mayoría de las funciones de aprendizaje que pueden hallarse en una red neuronal. Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una neurona eran activados. También intentó encontrar semejanzas entre el aprendizaje y la actividad nerviosa. Los trabajos de Hebb formaron las bases de la Teoría de las Redes Neuronales. ➢ 1950 - Karl Lashley. En sus series de ensayos, encontró que la información no era almacenada en forma centralizada en el cerebro sino que era distribuida encima de él. ➢ 1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona para indicar el nacimiento de la inteligencia artificial. ➢ 1957 - Frank Rosenblatt. Comenzó el desarrollo del Perceptron. Esta es la red neuronal más antigua; utilizándose hoy en día para aplicación como identificador de patrones. Este modelo era capaz de generalizar, es decir, después de haber aprendido una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado en el entrenamiento. Sin embargo, tenía una serie de limitaciones, por ejemplo, su incapacidad para resolver el problema de la función OR-exclusiva y, en general, era incapaz de clasificar clases no separables linealmente. ➢ 1959 - Frank Rosenblatt: Principios de Neurodinámica. En este libro confirmó que, bajo ciertas condiciones, el aprendizaje del Perceptron convergía hacia un estado finito (Teorema de Convergencia del Perceptron). ➢ 1960 - Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline (ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a un problema real
  • 6. 6 (filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente durante varias décadas. ➢ 1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones técnicas (memoria asociativa). ➢ 1969 - Marvin Minsky/Seymour Papert. En este año casi se produjo la “muerte abrupta” de las Redes Neuronales; ya que Minsky y Papert probaron (matemáticamente) que el Perceptrons no era capaz de resolver problemas relativamente fáciles, tales como el aprendizaje de una función no-lineal. Esto demostró que el Perceptron era muy débil, dado que las funciones no-lineales son extensamente empleadas en computación y en los problemas del mundo real. ➢ 1974 - Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás (backpropagation); cuyo significado quedó definitivamente aclarado en 1985. ➢ 1977 - Stephen Grossberg: Teoría de Resonancia Adaptada (TRA). La Teoría de Resonancia Adaptada es una arquitectura de red que se diferencia de todas las demás previamente inventadas. La misma simula otras habilidades del cerebro: memoria a largo y corto plazo. ➢ 1985 - John Hopfield. Provocó el renacimiento de las redes neuronales con su libro: “Computación neuronal de decisiones en problemas de optimización.” ➢ 1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de propagación hacia atrás (backpropagation). A partir de 1986, el panorama fue alentador con respecto a las investigaciones y el desarrollo de las redes neuronales. En la actualidad, son numerosos los trabajos que se realizan y publican cada año, las aplicaciones nuevas que surgen (sobretodo en el área de control) y las empresas que lanzan al mercado productos nuevos, tanto hardware como software (sobre todo para simulación). 3. Definición Existen numerosas formas de definir a las redes neuronales; desde las definiciones cortas y genéricas hasta las que intentan explicar más detalladamente qué son las redes neuronales. A continuación, se muestran algunas: ✓ Una nueva forma de computación, inspirada en modelos biológicos. ✓ Un modelo matemático compuesto por un gran número de elementos procesales organizados en niveles. ✓ Un sistema de computación compuesto por un gran número de elementos simples, elementos de procesos muy interconectados, los cuales procesan información por medio de su estado dinámico como respuesta a entradas externas.
  • 7. 7 ✓ Redes neuronales artificiales son redes interconectadas masivamente en paralelo de elementos simples (usualmente adaptativos) y con organización jerárquica, las cuales intentan interactuar con los objetos del mundo real del mismo modo que lo hace el sistema nervioso biológico. 4. ¿Qué son las redes neuronales? Las Redes Neuronales son un campo de la Inteligencia Artificial. Inspirándose en el comportamiento conocido del cerebro humano (principalmente el referido a las neuronas y sus conexiones), trata de crear modelos artificiales que solucionen problemas difíciles de resolver mediante técnicas algorítmicas convencionales. Una red neuronal es un modelo simplificado que emula el modo en que el cerebro humano procesa la información: Funciona simultaneando un número elevado de unidades de procesamiento interconectadas que parecen versiones abstractas de neuronas. LA NEURONA BIOLOGÍCA Fue Ramón y Cajal (1888) quién descubrió la estructura celular (neurona) del sistema nervioso. Defendió la teoría de que las neuronas se interconectaban entre sí de forma paralela, y no formando un circuito cerrado como el sistema sanguíneo. Una neurona consta de un cuerpo celular (soma) de entre 10 y 80 mm, del que surge un denso árbol de ramificaciones (dendritas) y una fibra tubular (axón) de entre 100 mm y un metro. De alguna forma, una neurona es un procesador de información muy simple: · Canal de entrada: dendritas. · Procesador: soma. · Canal de salida: axón.
  • 8. 8 Una neurona cerebral puede recibir unas 10.000 entradas y enviar a su vez su salida a varios cientos de neuronas. La conexión entre neuronas se llama sinapsis. No es una conexión física, sino que hay unos 2 mm de separación. Son conexiones unidireccionales, en la que la transmisión de la información se hace de forma eléctrica en el interior de la neurona y de forma química entre neuronas; gracias a unas sustancias específicas llamadas neurotransmisores. No todas las neuronas son iguales, existen muchos tipos diferentes según el número de ramificaciones de sus dendritas, la longitud del axón y otros detalles estructurales. Sin embargo, como hemos visto, todas ellas operan con los mismos principios básicos. NEURONA ARTIFICIAL El modelo de Rumelhart y McClelland (1986) define un elemento de proceso (EP), o neurona artificial, como un dispositivo que a partir de un conjunto de entradas, xi(i=1...n) o vector x, genera una única salida y. Esta neurona artificial consta de los siguientes elementos: - Conjunto de entradas o vector de entradas x, de n componentes - Conjunto de pesos sinápticos wij. Representan la interacción entre la neurona presináptica j y la postsináptica i. - Regla de propagación d(wij,xj(t)): proporciona el potencial postsináptico, hi(t). - Función de activación ai(t)=f(ai(t-1), hi(t)): proporciona el estado de activación de la neurona en función del estado anterior y del valor postsináptico. - Función de salida Fi(t): proporciona la salida yi(t), en función del estado de activación. Las señales de entrada y salida pueden ser señales binarias (0,1 – neuronas de McCulloch y Pitts), bipolares (-1,1), números enteros o continuos, variables borrosas, etc. La regla de propagación suele ser una suma ponderada del producto escalar del vector de entrada y el vector de pesos: También se usa a menudo la distancia euclídea entre ambos vectores: Existen otro tipo de reglas menos conocidas como la distancia de Voronoi, de Mahalanobis, etc. La función de activación no suele tener en cuenta el estado anterior de la neurona, sino sólo el potencial hi(t). Suele ser una función determinista y, casi siempre, continua y
  • 9. 9 monótona creciente. Las más comunes son la función signo (+1 si hi(t)>0, -1 en caso contrario), la función semilineal y las funciones sigmoides: La función de salida suele ser la identidad. En algunos casos es un valor umbral (la neurona no se activa hasta que su estado supera un determinado valor). Con todo esto, el modelo de neurona queda bastante simplificado: 5. LA RED NEURONAL ARTIFICIAL 5.1 DEFINICIÓN Una red neuronal artificial (RNA) se puede definir (Hecht – Nielssen 93) como un grafo dirigido con las siguientes restricciones: ▪ Los nodos se llaman elementos de proceso (EP). ▪ Los enlaces se llaman conexiones y funcionan como caminos unidireccionales instantáneos ▪ Cada EP puede tener cualquier número de conexiones. ▪ Todas las conexiones que salgan de un EP deben tener la misma señal. ▪ Los EP pueden tener memoria local. ▪ Cada EP posee una función de transferencia que, en función de las entradas y la memoria local produce una señal de salida y / o altera la memoria local. ▪ Las entradas a la RNA llegan del mundo exterior, mientras que sus salidas son conexiones que abandonan la RNA.
  • 10. 10 5.2 ARQUITECTURA DE LAS RNA La arquitectura de una RNA es la estructura o patrón de conexiones de la red. Es conveniente recordar que las conexiones sinápticas son direccionales, es decir, la información sólo se transmite en un sentido. En general, las neuronas suelen agruparse en unidades estructurales llamadas capas. Dentro de una capa, las neuronas suelen ser del mismo tipo. Se pueden distinguir tres tipos de capas: ❖ De entrada. Reciben datos o señales procedentes del entorno. ❖ De salida. Proporcionan la respuesta de la red a los estímulos de la entrada. ❖ Ocultas. No reciben ni suministran información al entorno (procesamiento interno de la red). No tienen contacto directo con el entorno exterior. El número de niveles ocultos puede estar entre creo y un número elevado. las neuronas de las capas ocultas pueden estar interconectadas de distintas maneras, lo que determina, junto con su número, las distintas topologías de redes neuronales. Generalmente las conexiones se realizan entre neuronas de distintas capas, pero puede haber conexiones intracapa o laterales y conexiones de realimentación que siguen un sentido contrario al de entrada-salida. 5.2.1 Función de entrada: La neurona trata a muchos valores de entrada como si fueran uno solo; esto recibe el nombre de entrada global. Por lo tanto, ahora nos enfrentamos al problema de cómo se pueden combinar estas simples entradas (ini1, ini2, ...) dentro de la entrada global, gini. Esto se logra a través de la función de entrada, la cual se calcula a partir del vector entrada. La función de entrada puede describirse como sigue: donde: * representa al operador apropiado (por ejemplo: máximo, sumatoria, producto, etc.), n al número de entradas a la neurona Ni y Wi al peso. Los valores de entrada se multiplican por los pesos anteriormente ingresados a la neurona. Por consiguiente, los pesos que generalmente no están restringidos cambian la medida de influencia que tienen los valores de entrada. Es decir, que permiten que un gran valor de entrada tenga solamente una pequeña influencia, si estos son lo
  • 11. 11 suficientemente pequeños. Algunas de las funciones de entrada más comúnmente utilizadas y conocidas son: a. Sumatoria de las entradas: Es la suma de todos los valores de entrada a la neurona, multiplicados por sus correspondientes pesos. b. Producto de las entradas: Es el producto de todos los valores de entrada a la neurona, multiplicados por sus correspondientes pesos. c. Máximo de las entradas: Solamente toma en consideración el valor de entrada más fuerte, previamente multiplicado por su peso correspondiente. 5.2.2 Función de activación: Una neurona biológica puede estar activa (excitada) o inactiva (no excitada); es decir, que tiene un “estado de activación”. Las neuronas artificiales también tienen diferentes estados de activación; algunas de ellas solamente dos, al igual que las biológicas, pero otras pueden tomar cualquier valor dentro de un conjunto determinado. La función activación calcula el estado de actividad de una neurona; transformando la entrada global en un valor (estado) de activación, cuyo rango normalmente va de (0 a 1) o de (–1 a 1). Las funciones de activación más comúnmente utilizadas se detallan a continuación: a) Función lineal: b) Función sigmoidea:
  • 12. 12 c) Función tangente hiperbólica: 5.2.3 Función de salida: El último componente que una neurona necesita es la función de salida. El valor resultante de esta función es la salida de la neurona i (outi); por ende, la función de salida determina que valor se transfiere a las neuronas vinculadas. Si la función de activación está por debajo de un umbral determinado, ninguna salida se pasa a la neurona subsiguiente. Normalmente, no cualquier valor es permitido como una entrada para una neurona, por lo tanto, los valores de salida están comprendidos en el rango [0, 1] o [-1, 1]. También pueden ser binarios {0, 1} o {-1, 1}. Dos de las funciones de salida más comunes son: ✓ Ninguna: este es el tipo de función más sencillo, tal que la salida es la misma que la entrada. Es también llamada función identidad. ✓ Binaria: 5.3 APRENDIZAJE DE LAS RNA Es el proceso por el que una RNA actualiza los pesos (y, en algunos casos, la arquitectura) con el propósito de que la red pueda llevar a cabo de forma efectiva una tarea determinada. Hay tres conceptos fundamentales en el aprendizaje: 5.3.1 Paradigma de aprendizaje. Información de la que dispone la red. 5.3.1.1Paradigma supervisado. la red trata de minimizar un error entre la salida que calcula y la salida deseada (conocida), de modo que la salida calculada termine siendo la deseada. a. Aprendizaje por corrección de error. Consiste en ajustar los pesos de las conexiones de la red en función de la diferencia entre los valores deseados y los obtenidos a la salida de la red, es decir, en función del error cometido en la salida. b. Aprendizaje por refuerzo. Aprendizaje supervisado más lento que el anterior, que se basa en la idea de no disponer de un ejemplo completo del comportamiento deseado, es decir, de no indicar durante el entrenamiento exactamente la salida que se desea que proporcione la red ante una determinada entrada. En el aprendizaje por refuerzo la función del supervisor se reduce a indicar mediante una señal de refuerzo si la salida obtenida en la red se ajusta a la deseada (éxito = +1 o fracaso = -1), y en función de ello se ajustan los
  • 13. 13 pesos basándose en un mecanismo de probabilidades. Se podría decir que en este tipo de aprendizaje la función del supervisor se asemeja más a la de un crítico (que opina sobre la respuesta de la red) que a la de un maestro (que indica a la red la respuesta concreta que debe generar), como ocurría en el caso de supervisión por corrección del error. c. Aprendizaje estocástico. Consiste básicamente en realizar cambios aleatorios en los valores de los pesos de las conexiones de la red y evaluar su efecto a partir del objetivo deseado y de distribuciones de probabilidad. 5.3.2 Paradigma no supervisado o auto organizado. Las redes con aprendizaje no supervisado (también conocido como autosupervisado) no requieren influencia externa para ajustar los pesos de las conexiones entre sus neuronas. La red no recibe ninguna información por parte del entorno que le indique si la salida generada en respuesta a una determinada entrada es o no correcta. Estas redes deben encontrar las características, regularidades, correlaciones o categorías que se puedan establecer entre los datos que se presenten en su entrada. Existen varias posibilidades en cuanto a la interpretación de la salida de estas redes, que dependen de su estructura y del algoritmo de aprendizaje empleado. En algunos casos, la salida representa el grado de familiaridad o similitud entre la información que se le está presentando en la entrada y las informaciones que se le han mostrado hasta entonces (en el pasado). En otro caso, podría realizar una clusterización (clustering) o establecimiento de categorías, indicando la red a la salida a qué categoría pertenece la información presentada a la entrada, siendo la propia red quien debe encontrar las categorías apropiadas a partir de las correlaciones entre las informaciones presentadas. En cuanto a los algoritmos de aprendizaje no supervisado, en general se suelen considerar dos tipos, que dan lugar a los siguientes aprendizajes: a. Aprendizaje hebbiano. Esta regla de aprendizaje es la base de muchas otras, la cual pretende medir la familiaridad o extraer características de los datos de entrada. El fundamento es una suposición bastante simple: si dos neuronas Ni y Nj toman el mismo estado simultáneamente (ambas activas o ambas inactivas), el peso de la conexión entre ambas se incrementa. Las entradas y salidas permitidas a la neurona son: {-1, 1} o {0, 1} (neuronas binarias). Esto puede explicarse porque la regla de aprendizaje de Hebb se originó a partir de la neurona biológica clásica, que solamente puede tener dos estados: activa o inactiva. b. Aprendizaje competitivo y comparativo. Se orienta a la clusterización o clasificación de los datos de entrada. Como característica principal del aprendizaje competitivo se puede decir que, si un patrón nuevo se determina que pertenece a una clase
  • 14. 14 reconocida previamente, entonces la inclusión de este nuevo patrón a esta clase matizará la representación de la misma. Si el patrón de entrada se determinó que no pertenece a ninguna de las clases reconocidas anteriormente, entonces la estructura y los pesos de la red neuronal serán ajustados para reconocer la nueva clase. 5.4 TIPOS DE NEURONAS ARTIFICIALES las neuronas artificiales se pueden clasificar de acuerdo a los valores que puede tomar. Por ahora es suficiente distinguir entre dos tipos principales: ❖ Neuronas binarias ❖ Neuronas reales Las neuronas binarias solamente pueden tomar valores dentro del intervalo {0, 1} o {-1, 1}, mientras que las neuronas reales pueden hacerlo dentro del rango [0, 1] o [-1, 1]. Los pesos normalmente no están restringidos a un cierto intervalo, aunque para aplicaciones específicas puede ser esto necesario. 5.5 TOPOLOGIA DE LAS REDES NEURONALES La topología o arquitectura de una red neuronal consiste en la organización y disposición de las neuronas en la misma, formando capas o agrupaciones de neuronas más o menos alejadas de la entrada y salida de dicha red. En este sentido, los parámetros fundamentales de la red son: el número de capas, el número de neuronas por capa, el grado de conectividad y el tipo de conexiones entre neuronas. • Redes monocapa. En las redes monocapa, se establecen conexiones entre las neuronas que pertenecen a la única capa que constituye la red. Las redes monocapas se utilizan generalmente en tareas relacionadas con lo que se conoce como autoasociación (regenerar información de entrada que se presenta a la red de forma incompleta o distorsionada). • Redes multicapa. Las redes multicapas son aquellas que disponen de un conjunto de neuronas agrupadas en varios (2, 3, etc.) niveles o capas. En estos casos, una forma para
  • 15. 15 distinguir la capa a la que pertenece una neurona, consistiría en fijarse en el origen de las señales que recibe a la entrada y el destino de la señal de salida. Normalmente, todas las neuronas de una capa reciben señales de entrada desde otra capa anterior (la cual está más cerca a la entrada de la red), y envían señales de salida a una capa posterior (que está más cerca a la salida de la red). A estas conexiones se las denomina conexiones hacia adelante o feedforward. Sin embargo, en un gran número de estas redes también existe la posibilidad de conectar la salida de las neuronas de capas posteriores a la entrada de capas anteriores a estas conexiones se las denomina conexiones hacia atrás o feedback. Estas dos posibilidades permiten distinguir entre dos tipos de redes con múltiples capas: las redes con conexiones hacia adelante o redes feedforward, y las redes que disponen de conexiones tanto hacia adelante como hacia atrás o redes feedforward/feedback. • Conexión entre neuronas. La conectividad entre los nodos de una red neuronal está relacionada con la forma en que las salidas de las neuronas están canalizadas para convertirse en entradas de otras neuronas. La señal de salida de un nodo puede ser una entrada de otro elemento de proceso, o incluso ser una entrada de sí mismo (conexión autorrecurrente). • Redes de propagación hacia atrás. El nombre de backpropagation resulta de la forma en que el error es propagado hacia atrás a través de la red neuronal, en otras palabras, el error se propaga hacia atrás desde la capa de salida. Esto permite que los pesos sobre las conexiones de las neuronas ubicadas en las capas ocultas cambien durante el entrenamiento. El cambio de los pesos en las conexiones de las neuronas además de influir sobre la entrada global, influye en la activación y por consiguiente en la salida de una neurona. Por lo tanto, es de gran utilidad considerar las variaciones de la función activación al modificarse el valor de los pesos. Esto se llama sensibilidad de la función activación, de acuerdo al cambio en los pesos.
  • 16. 16 WEBGRAFIA • http://avellano.fis.usal.es/~lalonso/RNA/index.htm • Damián Jorge Matich. (2001). Redes Neuronales: Conceptos Básicos y Aplicaciones. . 19/10/2018, de Universidad Tecnológica Nacional – Facultad Regional Rosario Departamento de Ingeniería Química Grupo de Investigación Aplicada a la Ingeniería Química (GIAIQ) Sitio web: https://www.frro.utn.edu.ar/repositorio/catedras/quimica/5_anio/ori entadora1/monograias/matich-redesneuronales.pdf