2. son un modelo computacionalbasado en un
gran conjunto de unidades neuronales
simples (neuronas artificiales), de forma
aproximadamente análoga al
comportamiento observado en los axones de
las neuronas en los cerebros biológicos.
3. Cada unidad neuronal, de forma individual,
opera empleando funciones de suma. Puede
existir una función limitadora o umbral en
cada conexión y en la propia unidad, de tal
modo que la señal debe sobrepasar un límite
antes de propagarse a otra neurona. Estos
sistemas aprenden y se forman a sí mismos,
en lugar de ser programados de forma
explícita, y sobresalen en áreas donde la
detección de soluciones o características es
difícil de expresar con la programación
convencional.
4. Las redes neuronales suelen consistir en varias
capas o un diseño de cubo, y la ruta de la señal
atraviesa de adelante hacia atrás. Propagación
hacia atrás es donde se utiliza la estimulación
hacia adelante o en el "frente" para restablecer
los pesos de las unidades neuronales y esto a
veces se realiza en combinación con una
formación en la que se conoce el resultado
correcto. Las redes modernas son un poco más
libres en el sentido de que fluye en términos de
estimulación e inhibición con conexiones que
interactúan de una manera mucho más caótica y
compleja. Las redes neuronales dinámicas son lo
más avanzadas en que se pueden formar
dinámicamente nuevas conexiones e incluso
nuevas unidades neuronales.
5. El objetivo de la red neuronal es resolver los
problemas de la misma manera que el
cerebro humano, aunque las redes
neuronales son más abstractas. Los proyectos
de redes neurales modernas suelen trabajar
desde unos miles a unos pocos millones de
unidades neuronales y millones de
conexiones que, si bien son muchas órdenes,
siguen siendo de una magnitud menos
compleja que la del cerebro humano, más
bien cercana a la potencia de cálculo de un
gusano
6.
7. Nuevas investigaciones sobre el cerebro a
menudo estimulan nuevos patrones en las
redes neuronales. Un nuevo enfoque está
utilizando conexiones que se extienden
mucho más allá y capas de procesamiento de
enlace en lugar de estar siempre localizado
en las neuronas adyacentes. Otra
investigación está estudiando los diferentes
tipos de señal en el tiempo que los axones se
propagan, como el aprendizaje profundo ,
interpola una mayor complejidad que un
conjunto de variables booleanas que son
simplemente encendido o apagado.
8.
9. Las Redes Neuronales son un campo muy
importante dentro de la Inteligencia Artificial.
Inspirándose en el comportamiento conocido del
cerebro humano (principalmente el referido a las
neuronas y sus conexiones), trata de crear
modelos artificiales que solucionen problemas
difíciles de resolver mediante técnicas
algorítmicas convencionales.
En esta página web trataremos de acercar al
visitante a este tema, mostrando las bases
neurológicas y matemáticas, los principales
modelos vigentes y ejemplos interactivos que
solucionan algunos problemas de forma eficaz
10. Desde la década de los 40, en la que nació y comenzó a desarrollarse la informática, el modelo
neuronal la ha acompañado. De hecho, la aparición de los computadores digitales y el desarrollo
de las teorías modernas acerca del aprendizaje y del procesamiento neuronal se produjeron
aproximadamente al mismo tiempo, a finales de los años cuarenta.
Desde entonces hasta nuestros días, la investigación neurofisiológica y el estudio de sistemas
neuronales artificiales (ANS, Artificial Neural Systems) han ido de la mano. Sin embargo, los
modelos de ANS no se centran en la investigación neurológica, si no que toma conceptos e ideas
del campo de las ciencias naturales para aplicarlos a la resolución de problemas pertenecientes a
otras ramas de las ciencias y la ingeniería.
Podemos decir que la tecnología ANS incluye modelos inspirados por nuestra comprensión del
cerebro, pero que no tienen por qué ajustarse exactamente a los modelos derivados de dicho
entendimiento.
Los primeros ejemplos de estos sistemas aparecen al final de la década de los cincuenta. La
referencia histórica más corriente es la que alude al trabajo realizado por Frank Rosenblatt en un
dispositivo denominado perceptrón. Hay otros ejemplos, tales como el desarrollo del Adaline por
el profesor Bernard Widrow.
Durante todos estos años, la tecnología ANS no siempre ha tenido la misma consideración en las
ramas de la ingeniería y las ciencias de la computación, más ansiosas de resultados que las
ciencias neuronales. A partir de 1969, el pesimismo debido a las limitadas capacidades del
perceptrón hizo languidecer este tipo de investigación.
A principios de los 80, por un lado Hopfield y sus conferencias acerca de la memoria autoasociativa
y por otro lado la aparición del libro Parallel Distributed Processing (PDP), escrito por Rumelhart y
McClelland reactivaron la investigación en el campo de las redes neuronales. Hubo grandes
avances que propiciaron el uso comercial en campos tan variados como el diagnóstico de
enfermedades, la aproximación de funciones o el reconocimiento de imágenes.
Hoy en día, la tecnología ANS no está en su mejor momento, pero a pesar de ello existen revistas,
ciclos de conferencias, etc; que mantienen vías de investigación abiertas.