2. El hombre se ha caracterizado siempre por su búsqueda constante de nuevas
vías para mejorar sus condiciones de vida. Estos esfuerzos le han servido para
reducir el trabajo en aquellas operaciones en las que la fuerza juega un papel
primordial.
Los progresos obtenidos han permitido dirigir estos esfuerzos a otros campos,
como, por ejemplo, a la construcción de máquinas calculadoras que ayuden a
resolver de forma automática y rápida determinadas operaciones que resultan
tediosas cuando se realizan a mano.
3. Alan Turing: Fue el primero en estudiar el cerebro como una
forma de ver el mundo de la computación.
1936
Warren McCulloch, un neurofisiólogo, y Walter Pitts, un
matemático, lanzaron una teoría acerca de la forma de trabajar de
las neuronas1943
Donald Hebb: Fue el primero en explicar los procesos del
aprendizaje desde un punto de vista psicológico, desarrollando
una regla de como el aprendizaje ocurría.
1949
4. Congreso de Dartmouth: Este Congreso frecuentemente se
menciona para indicar el nacimiento de la inteligencia artificial.
1956
Frank Rosenblatt: Comenzó el desarrollo del Perceptron.
1957
Frank Rosenblatt: Principios de Neurodinámica.
1959
Karl Lashley: En sus series de ensayos, encontró que la
información no era almacenada en forma centralizada en el
cerebro, sino que era distribuida encima de él.1950
5. Karl Steinbeck/Die Lernmatrix. Red neuronal para simples
realizaciones técnicas (memoria asociativa).
1961
Marvin Minsky/Seymour Papert: En este año casi se produjo la
“muerte abrupta” de las Redes Neuronales.
1969
Paul Werbos: Desarrolló la idea básica del algoritmo de
aprendizaje de propagación hacia atrás (backpropagation);
1974
Bernard Widroff/Marcian Hoff: Desarrollaron el modelo Adaline
(ADAptative LINear Elements).
1960
6. John Hopfield: Provocó el renacimiento de las redes neuronales
con su libro: “Computación neuronal de decisiones en problemas
de optimización.”1985
David Rumelhart/G. Hinton: Redescubrieron el algoritmo de
aprendizaje de propagación hacia atrás (backpropagation).
1986
Stephen Grossberg: Teoría de Resonancia Adaptada (TRA).
1977
7. Definición
Una red neuronal es un procesador distribuido en paralelo de forma masiva
con una propensión natural a almacenar conocimiento experimental y
convertirlo en disponible para su uso. Asemeja al cerebro en dos aspectos:
El conocimiento se adquiere por la red mediante un proceso de aprendizaje.
Las fuerzas de conexión interneuronal, conocidas como ponderaciones
sinápticas, se utilizan para almacenar el conocimiento.
.
13. Mecanismos de aprendizaje
Un aspecto importante respecto al aprendizaje de las redes neuronales es el
conocer cómo se modifican los valores de los pesos, es decir, cuáles son los
criterios que se siguen para cambiar el valor asignado a las conexiones cuando
se pretende que la red aprenda una nueva información.
Hay dos métodos de aprendizaje importantes que pueden distinguirse:
1. Aprendizaje supervisado
2. Aprendizaje no supervisado
14. Aprendizaje supervisado
Es una técnica para deducir una función a partir de datos de entrenamiento.
En este tipo de aprendizaje existen tres formas de llevarlo a cabo.
Aprendizaje por corrección de error
Aprendizaje por refuerzo.
Aprendizaje estocástico
15. Aprendizaje no supervisado
Es un método de Aprendizaje Automático donde un modelo es ajustado a las
observaciones. Se suelen considerar dos tipos aprendizajes no supervisados.
Aprendizaje hebbiano
Aprendizaje competitivo y comparativo