REDES NEURONALES ARTIFICIALESLa tecnología neuronal trata de reproducir el proceso de solución de problemas delcerebro. As...
1977 - Stephen Grossberg: Teoría de Resonancia Adaptada (TRA). La Teoría deResonancia Adaptada es una arquitectura de red ...
Hay varias formas de definir a la s redes neuronales:1) Una nueva forma de computación, inspirada en modelos biológicos.2)...
Algoritmo Backpropagation• No es garantizado que converja a zero en error deentrenamiento, puede converger a mínima local ...
Redes neuronales
Redes neuronales
Próxima SlideShare
Cargando en…5
×

Redes neuronales

702 visualizaciones

Publicado el

Publicado en: Educación
0 comentarios
0 recomendaciones
Estadísticas
Notas
  • Sé el primero en comentar

  • Sé el primero en recomendar esto

Sin descargas
Visualizaciones
Visualizaciones totales
702
En SlideShare
0
De insertados
0
Número de insertados
2
Acciones
Compartido
0
Descargas
27
Comentarios
0
Recomendaciones
0
Insertados 0
No insertados

No hay notas en la diapositiva.

Redes neuronales

  1. 1. REDES NEURONALES ARTIFICIALESLa tecnología neuronal trata de reproducir el proceso de solución de problemas delcerebro. Así como los humanos aplican el conocimiento ganado con la experienciaa nuevos problemas o situaciones una red neuronal toma como ejemplosproblemas resueltos para construir un sistema que toma realiza y clasificaciones.Los problemas adecuados para la solución neuronal son aquellos que no tienensolución computacional precisa o que requieren algoritmos muy extensos como enel caso de reconocimiento e imágenes. HISTORIA DE LAS REDES NEURONALESAlrededor de 1943 los investigadores Warren McCulloch y Walter Pitsspropusieron el primer modelo simple de la neurona. En las década de loscincuenta y los setenta, el movimiento en redes neuronales fue liderado por B.Widrow y M.E.Hoof., quienes trabajaron con una maquina llamada Adaline(adaptive linear Element).Otro pionero fue el psicólogo Frank Rosenblatt de la universidada de Corell. En1959, Rosenblatt construyo una maquina neuronal simple que llamo Perceptron.Esta tena una matriz con 400 fotoceldas que se conectaban aleatoriamente a 512unidades tipo neurona. Cuando se representa un patrón a las unidades censorasestas envían una señal aun banco de neurona que indicaba la categoría de lpatrón. El perceptron de Rosenblatt reconocio reconocio todas las letras delalfabeto.1960 - Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline(ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a unProblema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) quese ha utilizado comercialmente durante varias décadas.1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizacionestécnicas (memoria asociativa).1969 - Marvin Minsky/Seymour Papert. En este año casi se produjo la “muerteabrupta” de las Redes Neuronales; ya que Minsky y Papert probaron(matemáticamente) que el Perceptrons no era capaz de resolver problemasrelativamente fáciles, tales comoel aprendizaje de una función no-lineal. Estodemostró que el Perceptor era muy débil, dado que las funciones no-lineales sonextensamente empleadas en computación y en los problemas del mundo real.1974 - Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizajedepropagación hacia atrás (backpropagation); cuyo significado quedódefinitivamenteaclarado en 1985.
  2. 2. 1977 - Stephen Grossberg: Teoría de Resonancia Adaptada (TRA). La Teoría deResonancia Adaptada es una arquitectura de red que se diferencia de todas lasdemás previamente inventadas. La misma simula otras habilidades del cerebro:memoria a largo y corto plazo.1985 - John Hopfield. Provocó el renacimiento de las redes neuronales con sulibro: “Computación neuronal de decisiones en problemas de optimización.”1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje depropagación hacia atrás (backpropagation).A partir de 1986, el panorama fue alentador con respecto a lasinvestigaciones y el desarrollo de las redes neuronales. En la actualidad, sonnumerosos los trabajos que se realizan y publican cada año, las aplicacionesnuevas que surgen (sobretodo en el área de control) y las empresas que lanzan almercado productos nuevos, tanto hardware como software (sobre todo parasimulación). DEFINICION DE REDES NEURONALESLas redes neuronales se basan en generalizar información extraída de datosexperimentales, tablas bibliografías o bases de datos los cuales se determinan porexpertos humanos.dichas redes neuronales toman en cuneta las entradas(corriente, voltaje) y como salidas las señales del sistema (velocidad, temperaturay torque).Ejemplo De Una Red Neuronal Totalmente Conectada
  3. 3. Hay varias formas de definir a la s redes neuronales:1) Una nueva forma de computación, inspirada en modelos biológicos.2) Un modelo matemático compuesto por un gran número de elementosProcesales organizados en niveles.3) un sistema de computación compuesto por un gran número de elementosSimples, elementos de procesos muy interconectados, los cuales procesaninformaciónpor medio de su estado dinámico como respuesta a entradas externas.4) Redes neuronales artificiales son redes interconectadas masivamente enparalelo de elementos simples (usualmente adaptativos) y con organizaciónjerárquica, las cuales intentan interactuar con los objetos del mundo real delREDES DE RETROPROPAGACION (backpropagation)Es un principio para entender una red multicapa empleando el algoritmo deretropropagacion.El algoritmo backpropagation para redes multicapa es una generalización delalgoritmo de mínimos cuadrados. Ambos algoritmos realizan su laborDe actualización de peso y ganancias con base en el error medio cuadrático. Lared propagation trabaja bajo aprendizaje supervisado y por tanto necesita unconjunto de instrucciones de entrenamiento que le describa cada salida y su valorde salida esperado.Algoritmo Backpropagation• No es garantizado que converja a zero en error deentrenamiento, puede converger a mínima local oscilar• En la practica converge a un bajo error para muchas redes• Muchas épocas (miles de iteraciones) pueden ser requeridas• Para evitar mínima local usar varias corridas (runs) con pesos inicializadosaleatoriamente (randomrestarts).– Tomar resultados de red que da menor error.
  4. 4. Algoritmo Backpropagation• No es garantizado que converja a zero en error deentrenamiento, puede converger a mínima local oscilar• En la practica converge a un bajo error para muchas redes• Muchas épocas (miles de iteraciones) pueden ser requeridas• Para evitar mínima local usar varias corridas (runs) con pesos inicializadosaleatoriamente (randomrestarts).– Tomar resultados de red que da menor error.

×