1. Universidad Autónoma de Coahuila.
Ingeniero en Sistemas Computacionales.
Materia: Metodología de la Investigación.
Tema: Redes Neuronales Artificiales (RNA)
Profesor: M.A. Juan Carlos López Sarmiento.
Alumno: Cecilio Andreu Moctezuma.
22 de Octubre 2010
1
2. INDICE GENERAL.
1. ¿Por qué esta investigación?.......................................................................3
2. El objetivo de esta investigación…………………………………..…….…….3
3. Introducción……………………………………………………….………..……4
4. Inspiración biológica……………………………………………….……..……..7
5. Definición de redes neuronales artificiales (RNA)…………….……………..7
6. Sistema neuronal biológico……………………………………….…...……….8
7. Sistema neuronal artificial…………………………………………....……….11
8. Niveles o capas de neuronas…………………………..……….…………....12
9. Evolución histórica………………………………………..……….………..…13
10. Campo de aplicación…………………………………………..……..……..…16
11. ¿Cómo se construyen las Redes Neuronales?..........................................17
12. Elemento básico. De la (RNA)…….……………………………..…….…..…17
13. Tipo de información que manejan (RNA)…………………………...………18
14. Los elementos que constituyen la neurona son……………….…..……….19
15. Peso sinóptico…………………………………………………….……………20
16. El aprendizaje de las redes neuronales……………………….….…………21
17. Ejemplo…………………………………………………………….……………22
18. Conclusión……………………………………………………….….………….30
19. Bibliografías……………………………………………………….……………31
2
3. ¿Por que de esta investigación?
Mi investigación es sobre redes neuronales, ya que en la actualidad se utilizan en
las empresas, hospitales, problemas matemáticos, etc. Porque se les puede
agregar una gran cantidad de datos y son mas rápidas en procesar la información
que el cerebro humano y tiene un margen de error muy mínimo o ninguno.
Actualmente son la punta de la tecnología por su gran procesamiento de
información. Hoy en día existen una gran cantidad de sistemas de software
comerciales que se basan en los análisis de datos para hacer tareas como:
análisis financieros, vigilancia, economía.
Los biólogos y los ingenieros de software, los de robótica han tenido que unirse
para poder llevar acabo este tipo de redes aportando cada uno parte de sus
conocimientos para hacer mas rápido una tarea especifica y compleja.
El objetivo de esta investigación es: darnos cuenta has donde a llegado el ser
humano con la ayuda de la tecnología y como a ido evolucionando que,
actualmente hay máquinas inteligentes y con la apariencia de un ser humano. Y
como se han inspirado en el cerebro los ingenieros para poder realizar este tipo de
investigaciones y poder llevarlas a la tecnología.
Conocer la inspiración biológica de las Redes Neuronales Artificiales (RNA)
y sus fundamentos.
Entender el funcionamiento de los modelos de las RNA.
Identificar en donde se pueden aplicar los modelos de RNA.
3
4. Introducción.
Muchos de los desarrollos del hombre se deben a su capacidad para explicar y
emular funciones que son realizadas por seres vivos.
Por ejemplo, se puede citar el radar, que surge como imitación de la forma como
un murciélago es capaz de detectar los objetos que están en su camino sin
necesidad de verlos, por medio de emisión de una onda ultrasónica, la posterior
recepción de la señal de eco y su procesamiento. Así como el anterior hay muchos
ejemplos más: El helicóptero, el avión, el submarino.
Existen dos tipos de visión nocturna:
por aumento de luz y por visión
térmica, ambas técnicas son
utilizadas por los animales. La retina
de un animal (la parte de atrás del ojo
donde se forma la imagen) está
compuesto mayormente por dos tipos
de células sensibles a la luz llamadas
bastones y conos. Los bastones son
responsables para potenciar los
estímulos lumínicos pequeños
4
5. Radares y murciélagos
Ambos, el radar y el murciélago utilizan
el mismo principio: el eco. Las ondas
reflejadas por los objetos son
percibidas por los oídos del murciélago
y, en el otro caso, por una antena de
radar que las transforma en
información.
El avión y las aves
El principio que utilizan los aviones es
básicamente el mismo que utilizan las
aves, es la forma del ala y su posición
relativa con respecto a la corriente de
aire lo que produce la fuerza de
sustentación.
El submarino y el nautilos
Los submarinos poseen "tanques de
inmersión" ubicados a ambas bandas
los que, una vez inundados, le dan al
submarino una flotabilidad apenas
positiva. Posee otro tanque, ubicado en
el centro, relativamente chico, que al
ser totalmente inundado le da al buque
flotabilidad negativa para ir a inmersión
5
6. El camarón mantis y los
aparatos de DVD. El ojo del
camarón mantis puede convertir
luz de todos los colores del
espectro visible. Las
investigaciones apuntan a que,
tomando como modelo el ojo de
este camarón, los ingenieros
podrían fabricar un aparato de
DVD que reprodujera discos con
mucha más información que los
actuales.
Aunque el hombre ha sido capaz de emular funciones de los animales, para él
siempre ha sido un sueño poder conocer e imitar, la llamada por muchos la
máquina perfecta: el cerebro humano. Cuando la neurociencia pudo explicar de
forma un poco convincente el funcionamiento de la unidad principal de
procesamiento de información que posee el cerebro, la neurona, surge casi de
manera automática la idea de poder emular dicho funcionamiento en un elemento
artificial "La neurona artificial."
6
7. Inspiración biológica.
El cerebro humano.
• Trata gran cantidad de información.
• Capacidad de tratar situaciones nuevas.
• Capacidad de aprendizaje
• Almacenamiento distribuido.
• No binario, no estable y no secuencial.
• Poder desconocido
• 1011 Neuronas (procesadores)
• 1000 – 10000 conexiones por neurona.
• Capacidad basada en las conexiones.
• Cada neurona es muy compleja.
Definición de redes neuronales artificiales (RNA).
Las Redes Neuronales Artificiales (RNA) o sistemas conexionistas son sistemas
de procesamiento de la información cuya estructura y funcionamiento están
inspirados en las redes neuronales biológicas. Consisten en un conjunto de
elementos simples de procesamiento llamados nodos o neuronas conectadas
entre sí por conexiones que tienen un valor numérico modificable llamado peso.
7
8. Los tres conceptos claves de los sistemas biológicos, que se pretenden emular en
los artificiales son:
• Paralelismo de cálculo.
• Memoria distribuida.
• Adaptabilidad al entorno.
Las redes neuronales artificiales (RNAs) son modelos computacionales que
surgieron como un intento de conseguir formalizaciones matemáticas acerca de la
estructura del cerebro. Las RNAs imitan la estructura del hardware del sistema
nervioso, centrándose en el funcionamiento del cerebro humano, basado en el
aprendizaje a través de la experiencia, con la consiguiente extracción de
conocimiento a partir de la misma.
Sistema neuronal biológico:
Los elementos básicos de un sistema neuronal biológico son las neuronas,
agrupadas en redes compuestas por millones de ellas y organizadas a través de
una estructura de capas, que constituyen un sistema con funcionalidad propia.
8
9. En general una neurona consta de un cuerpo celular más o menos esférico de 5 a
10 micras de diámetro, del que sale una rama principal el axón, y varias ramas
más cortas denominadas dendritas.
Neurona.
• Pueden presentar muchas formas, aunque presentan un aspecto similar.
• Cuerpo celular o soma (10 – 80 micras).
• Dendritas de entradas
• Un axón de salida
• Sinapsis de conexión.
9
10. En la tabla 1 se muestra un paralelo entre un computador secuencial (Computador
de Von Neumann) y un sistema biológico
Característica Computador secuencial Sistema biológico neuronal
Unidad de Compleja, Veloz, Única Simple, Lenta, Muchas
Procesamiento
Memoria Separada del procesador, Integrada dentro del
Localizada procesador, Distribuida,
Direccionable por contenido
Procesamiento de Centralizado, Secuencial, Distribuido ,Paralelo, Auto
los Datos Programas almacenados aprendizaje
Confiabilidad Muy vulnerable Robusto
Especialización Manipulaciones simbólicas y Problemas perceptuales
numéricas
Ambiente de Bien definido, Muy restringido Pobremente definido, Sin
operación restricciones
En la tabla 2 se muestra la velocidad de procesamiento de información del cerebro
y la computadora.
10
11. Sistema neuronal artificial:
En un sistema neuronal artificial puede establecerse una estructura jerárquica
similar, de forma RNA puede concebirse como una colección de procesadores
elementales (neuronas artificiales), conectados a otras neuronas o bien a entradas
externas y con una salida que permite propagar las señales por múltiples caminos.
El elemento esencial de partida es la neurona artificial, que se organiza en capas;
varias capas constituyen una red neuronal; y, por ultimo, una red neuronal (o un
conjunto de ellas), junto con las interfaces de entrada y salida constituirán el
sistema neuronal.
11
12. Niveles o capas de neuronas.
La distribución de neuronas dentro de una red se realiza formando niveles o capas
de un número de neuronas determinado, donde se conoce como capa o nivel a un
conjunto de neuronas cuyas entradas provienen de la misma fuente (que puede
ser otra capa de neuronas) y cuyas salidas se dirigen al mismo destino (que puede
ser otra capa de neuronas).
Se pueden distinguir tres tipos de capas:
1. Capa de Entrada.
Es la capa que recibe directamente la información proveniente de las
fuentes externas de la red
2. Capa Oculta.
Son internas a la red y no tiene contacto directo con el exterior. El número
de niveles ocultos puede estar entre cero y un número elevado. Las
neuronas de la capa oculta pueden estar interconectadas de diferentes
maneras, lo que determina, junto con su número, las distintas tipologías de
redes neuronales.
3. Capa de Salida.
Transfieren información de la red hacia el exterior.
12
13. Evolución histórica
Los primeros análisis acerca del comportamiento del cerebro y el pensamiento se
deben a filósofos griegos, destacando las aportaciones realizadas por Aristóteles
(384 – 422 A.C).y Platón (427 – 347 A.C), continuadas en la Edad Media por
Descartes (1596 – 1650) y por los filósofos empiristas del siglo XVII.
En 1936, Alan Turing fue el primero en estudiar el cerebro desde el punto de vista
computacional, si bien los trabajos pioneros para la construcción de modelos
matemáticos que imitasen el comportamiento de las neuronas biológicas se deben
a Warren McCulloch y Walter Pitts (neurofisiólogo y matemático, respectivamente),
que presentaron en 1943 uno de los primeros modelos abstractos de una neurona
artificial.
13
14. La historia de las redes neuronales puede dividirse en varios periodos:
1. Primeros intentos: Se realizaron algunas simulaciones usando lógica formal.
McCulloch and Pitts (1943) desarrollaron modelos de redes neuronales basados
en su conocimiento de neurología. Sus redes se basaban en neuronas simples,
consideradas como dispositivos binarios con umbrales fijos. Los resultados de sus
modelos fueron funciones lógicas elementales tales como "a o b" y "a y b". Dos
grupos (Farley and Clark, 1954; Rochester, Holland, Haibit and Duda, 1956) lo
intentaron usando simulaciones computacionales. El primer grupo conformado por
investigadores de IBM mantenía un contacto cercano con neurocientíficos de la
universidad de McGill.
2. Tecnología emergente y promisoria: No solo la neurociencia influía en el
desarrollo de las redes neuronales, también los físicos y los ingenieros contribuían
al progreso de las simulaciones de redes neuronales. Rosenblatt (1958) revitalizó
fuertemente el interés y la actividad en esta área cuando diseñó y desarrollo su
Perceptrón. El Perceptrón tiene tres capas, incluida la capa del medio denominada
de asociación. Este sistema pudo aprender a conectar y asociar unas entradas
dadas a una unidad de salida aleatoria. Otro sistema fue el ADALINE (ADAptive
LInear Element) el cual fue desarrollado en 1960 por Widrow and Hoff (de la
Universidad de Stanford). El ADALINE fue un dispositivo electrónico analógico
hecho de componentes simples, con un método de aprendizaje diferente al del
Perceptron, empleando una regla de aprendizaje basada en mínimos cuadrados
(LMS).
3. Periodo de frustración y desprestigio: En 1969 Minsky and Papert
escribieron un libro en cual ellos generalizaban las limitaciones de un Perceptron
monocapa a sistemas multicapa. En el libro ellos decían: "...nuestro intuitivo juicio
es que la extensión (a sistemas multicapa) es una tarea estéril". El resultado de las
afirmaciones de este libro fue eliminar la financiación para los investigadores que
trabajaban con simulaciones de redes neuronales. Las conclusiones del libro de
14
15. Minsky and Papert soportadas con el desencanto de los investigadores en el área,
trajo como resultado un gran prejuicio contra la actividad de la misma.
4. Innovación: Aunque el interés público por las redes neuronales era mínimo,
varios investigadores continuaron trabajando en el desarrollo de métodos
computacionales basados en neuromorfología para problemas de identificación de
patrones. Durante este periodo varios paradigmas fueron generados, los cuales
aun continúan con trabajos modernos, se puede mencionar a: Steve Grossberg
and Gail Carpenter quienes desarrollaron la teoría de la resonancia adaptativa,
ART (Adaptive Resonance Theory), Anderson y Kohonen (1982) quienes
desarrollaron técnicas para aprendizaje asociativo. Hopfield (1984) quien
desarrolló una red neuronal haciendo un símil energético. Werbos (Paul Werbos
1982) desarrolló y usó el método de aprendizaje conocido como Backpropagation,
destacando que varios años después de popularizarse este método, es
actualmente la arquitectura de red neuronal mejor conocida y más utilizada en las
aplicaciones de redes neuronales. En esencia una red Back-propagation es un
Perceptron con múltiples capas, con diferentes funciones de activación en las
neuronas artificiales y con una regla de aprendizaje más robusta y confiable.
5. Resurgimiento: Durante el final de la década de los 70s y principios de los 80s,
fue importante el resurgimiento del interés en el campo de las redes neuronales.
Varios factores han influenciado este movimiento, tales como la aparición de libros
y conferencias que han dado a conocer las bondades de esta técnica a personas
de diferentes áreas.
El financiamiento a proyectos de investigación en redes neuronales en Europa,
EUA y Japón que han hecho que aparezcan una gran variedad de aplicaciones
comerciales e industriales.
15
16. 6. Hoy: Se han realizado progresos muy significativos en el campo de las RNA, lo
suficientes como para atraer una gran atención e interés en financiar
investigaciones. Ya se encuentran comercialmente circuitos integrados basados
en RNAs y las aplicaciones desarrolladas resuelven problemas cada vez más
complejos. Sin lugar a dudas, hoy es un periodo de transición y fuerte evolución
para la tecnología en redes neuronales.
Campo de aplicación.
Las Redes neuronales artificiales son interesantes para una gran cantidad de
personas de diferentes áreas:
Científicos de la computación que quieren averiguar sobre las propiedades
del procesamiento de información no-simbólica con una red neuronal y
sobre sistemas de aprendizaje en general.
Estadísticos utilizan redes neuronales como modelos de clasificación y
regresión no lineal flexible
Ingenieros de varias especialidades se aprovechan de las capacidades de
redes neuronales en muchas áreas, como procesamiento de señales y
control automático
Los científicos cognoscitivos ven redes nerviosas como un posible aparato
para describir modelos de pensamiento y conciencia (función cerebral de
alto-nivel).
Neuro-fisiólogos utilizan redes neuronales para describir y explorar
funciones cerebrales de medio-nivel (memoria del ej., sistema sensorial y
motriz).
Físicos usan redes neuronales para modelar fenómenos en mecánica
estadística y para muchas otras tareas.
Biólogos utilizan Redes Neuronales para interpretar sucesiones del
nucleótido.
16
17. Filósofos y otras personas también pueden ser interesadas en Redes
Nerviosas por las varias razones.
Las RNA con su capacidad para deducir un significado desde datos complicados o
imprecisos, pueden ser utilizadas para detectar patrones o detectar una tendencia
que es muy compleja de hallar por una persona con modelos determísticos o por
otras técnicas computacionales tradicionales.
Una red entrenada puede ser vista como un experto en el manejo de la
información que se le ha dado para analizar. Este experto puede ser utilizado para
proporcionar proyecciones ante nuevas situaciones de interés.
¿Cómo se construyen las Redes Neuronales?
Se pueden realizar de varias maneras. Por ejemplo en hardware utilizando
transistores o amplificadores operacionales, pero la mayoría de las RNA se
construyen en software, esto es en programas de computación.
Elemento básico de la (RNA).
Una neurona artificial es un elemento con entradas, salida y memoria que puede
ser realizada mediante software o hardware. Posee entradas (I) que son
ponderadas (w), sumadas y comparadas con un umbral (t).
La señal computada de esa manera, es tomada como argumento para una función
no lineal (f), la cual determinará el tipo de neurona y en parte el tipo de red
neuronal
17
18. Tipo de información que manejan (RNA).
Las redes neuronales manejan dos tipos de información.
La primera, es la información volátil, que se refiere a los datos que se están
usando y varían con la dinámica de la computación de la red, se encuentra
almacenada en el estado dinámico de las neuronas
El segundo tipo de información que manejan las redes neuronales, es la
información no volátil que se mantiene para recordar los patrones aprendidos y se
encuentra almacenada en los pesos sinápticos.
18
19. Sinápticos: la conexión entre el axón de una neurona y las dendritas de otra
recibe el nombre de sinapsis o synapsis, y determina la fuerza y tipo de relación
entre ellas.
Las conexiones sinápticas son las vías o caminos de comunicación entre los
diferentes elementos de procesos (neuronas) y entre éstos y las entradas/salidas
del sistema.
Los elementos que constituyen la neurona son:
• Conjunto de entradas, Xj(t).
• Pesos sinápticos de la neurona i. Wij representa la intensidad de
interacción entre cada neurona pre sináptica j y la neurona post sináptica i.
• Regla de propagación g(Wij, Xj(t)). Proporciona el valor del potencial post
sináptico hi(t) = g(Wij, Xj(t)) de la neurona i en función de sus pesos y
entradas.
19
20. • Función de activación fi(ai(t-1), hi(t)), que proporciona el estado de
activación actual ai(t) =fi(ai(t-1), hi(t)) de la neurona i, en función de su
estado anterior ai(t-1) y de su potencial post sináptico actual.
• Función de salida Fi(ai(t)), que proporciona la salida actual yi(t) = Fi(ai(t)) de la
neurona i en función de su estado de activación.
De este modo, la operación de la neurona i puede expresarse como:
yi(t) = Fi(fi[ai(t-1), g(Wij, Xj(t))])
Interacción entre una neurona pre sináptica y una post sináptica:
Peso sináptico
Si el peso es positivo tendera a excitar a la neurona post sináptica, si el peso es
negativo tenderá a inhibirla. Así se habla de sinapsis excitadora e inhibidora en las
redes neuronales artificiales.
20
21. El aprendizaje de las redes neuronales.
Es el proceso de presentar los patrones a aprender, a la red y el cambio de los
pesos de las conexiones sinápticas usando una regla de aprendizaje.
La regla de aprendizaje consiste en algoritmos basados en formulas matemáticas,
que usando técnicas como minimización del error o la optimización de alguna
"función de energía", modifican el valor de los pesos sinápticos en función de las
entradas disponibles y con ello optimizan la respuesta de la red a las salidas que
deseamos.
El aprendizaje se basa en el entrenamiento de la red con patrones, que
usualmente son llamados patrones de muestra o entrenamiento. El proceso usual
del algoritmo es que la red ejecuta los patrones iterativamente, cambiando los
pesos de las sinapsis, hasta que convergen a un conjunto de pesos óptimos que
representan a los patrones lo suficientemente bien, entonces mostrará una
respuesta satisfactoria para esos patrones. Esto es, sus pesos sinápticos se
ajustan para dar respuestas correctas al conjunto de patrones de entrenamiento
que le hemos mostrado.
Podemos distinguir tres tipos de aprendizaje.
El modo más intuitivo es el Aprendizaje supervisado, que consiste en que la
red dispone de los patrones de entrada y los patrones de salida que deseamos
para esa entrada y en función de ellos se modifican los pesos de las sinapsis para
ajustar la entrada a esa salida.
Otro modo de aprendizaje, Aprendizaje no supervisado, consiste en no
presentar patrones objetivos, si no solo patrones de entrada, y dejar a la red
clasificar dichos patrones en función de las características comunes de los
patrones.
21
22. Existe otro tipo de aprendizaje, que usa una formula híbrida, el supervisor no
enseña patrones objetivos si no que solo le dice se acierta o falla en su respuesta
ante un patrón de entrada. Es el aprendizaje reforzado,
Ejemplo:
Resumen
Este trabajo tuvo como objetivo predecir las manifestaciones macroscópicas de los
dos principales fenómenos de transferencia de masa en tres frutas (melón,
lechosa y manzana) osmóticamente deshidratadas.
Se consideró el efecto de cinco variables de proceso: tipo de alimento,
concentración de la solución osmótica, tamaño de la fruta, temperatura y tiempo
de proceso, sobre la pérdida de agua y ganancia de sólidos de las frutas. Para ello
se desarrolló un modelo neuronal artificial compuesto por cinco neuronas de
entrada y dos capas ocultas de procesamiento de información compuestas por
cinco neuronas cada una, utilizando funciones sigmoides como medio de
comunicación, y dos neuronas de salida representando a las variables
dependientes del modelo. La arquitectura neuronal desarrollada y entrenada
mediante el algoritmo Levenberg-Marquardt permitió predecir más de los 90% de
la variabilidad de los datos en los dos fenómenos de transferencia estudiados,
constituyéndose en un modelo alternativo a las ecuaciones para métricas
desarrolladas hasta el momento.
Introducción
La deshidratación osmótica es una tecnología que ha sido aplicada principalmente
en frutas, con el objeto de reducir la actividad de agua y el contenido de humedad
de las mismas, para así generar alimentos de humedad intermedia con una
22
23. estabilidad relativamente limitada, por lo cual, el proceso osmótico es usualmente
combinado con otra técnica de preservación que permita extender la vida útil del
alimento.
Generalmente, el proceso se desarrolla mediante la inmersión de trozos de fruta
en soluciones de sacarosa, mediante el control de variables como temperatura,
agitación y tiempo de proceso. En el curso de la tecnología se suscitan tres
fenómenos de transferencia de masa: la migración de agua desde la fruta hacia la
solución de impregnación, la transferencia de solutos de la solución a la fruta y la
salida de solutos propios del alimento a la solución.
El tercer fenómeno de transferencia resulta cuantitativamente despreciable en
comparación con los dos primeros, los cuales caracterizan el proceso y permiten
el logro de los objetivos ulteriores de la tecnología: la estabilidad del alimento
mediante el control de su contenido de humedad y la actividad de agua, y la
posibilidad de aplicación de efectos de formulación específicos mediante
componentes específicos.
En tal sentido, el objetivo de la presente investigación es desarrollar un modelo de
red neuronal artificial basado en un algoritmo de retro propagación del error, para
el modelado predictivo de los fenómenos de pérdida de agua y ganancia de
sólidos en frutas osmóticamente deshidratadas.
23
24. Materiales y Métodos
Proceso de deshidratación osmótica
Las frutas usadas en la investigación, lechosa, melón y manzana, seleccionadas
en virtud de su naturaleza porosa y por ende facilitadora de los fenómenos de
transferencia de masa, se obtuvieron de un mismo establecimiento comercial, sin
lesiones externas y con características similares de forma, tamaño y color. Se
determinó el contenido de humedad inicial de las frutas, de acuerdo a la
metodología de la AOAC (AOAC, 1990), obteniéndose los siguientes resultados:
lechosa 88,93% ± 0,71% (n=5), melón 93,07% ± 0,85% (n=5) y manzana 87,32%
±0,82% (n=5). Una vez lavadas, las frutas fueron picadas en cubos mediante la
utilización de un vernier y un cuchillo previamente desinfectado. Es importante
señalar que las frutas, con características similares de madurez (de acuerdo a la
relación ºBrix / pH), fueron asignadas aleatoriamente a cada condición
experimental (1 fruta o individuo por tratamiento) y se obtuvieron 10 unidades
experimentales (cubos) de cada fruta para conformar una réplica de cada i-ésimo
tratamiento (Tabla I). La obtención de cubos de geometría regular con
características finitas, permitió reducir la dimensión característica de las frutas y
minimizar los tiempos de impregnación empleados. Una vez cortadas y registrado
el peso inicial de las muestras de frutas, las mismas se sumergieron en las
soluciones de impregnación (soluciones de sacarosa), para cada una de las
condiciones experimentales (Tabla I). Para satisfacer cada una de las condiciones
de temperatura, las soluciones fueron colocadas en baños de agua y tapadas para
evitar la evaporación de las soluciones. Al finalizar el tiempo de proceso, los trozos
de fruta fueron cuidadosamente secados con papel absorbente para remover el
exceso de solución osmótica de la superficie y su peso se registró
inmediatamente. Posteriormente, las muestras se secaron en un horno de
convección a 60ºC por 16h., y posteriormente en una estufa al vacío a 70ºC por
24h., para determinar la masa seca de las frutas osmóticamente tratadas y
24
25. calcular por balance de masa el contenido de humedad de las mismas
(Panagiotou et al., 1998). Cada condición experimental se realizó por duplicado.
Con la primera réplica se entrenó la arquitectura neuronal artificial y con la
segunda, constituida a partir de muestras de frutas totalmente independientes de
las utilizadas para la primera réplica, se validó la habilidad predictiva y de
generalización del modelo (Millán et al., 2001).
Como se señaló en la introducción, los dos principales fenómenos de transferencia
de masa que se suscitan en la deshidratación osmótica, se evidencian
macroscópicamente mediante la pérdida de agua (PA) y la ganancia de sólidos
(GS), las cuales pueden ser definidas por las ecuaciones.
25
26. Donde M0: masa inicial de fruta antes de ser sometida al tratamiento osmótico, M:
masa de fruta luego del tratamiento osmótico, m0: masa seca inicial de la muestra
de fruta, y m: masa seca de la fruta luego del tratamiento osmótico.
Desarrollo del modelo neuronal artificial
Se desarrolló una estructura neuronal de retro propagación del error con 5
neuronas de entrada, constituidas por las variables tipo de alimento (melón,
lechosa y manzana), concentración de la solución de impregnación, tamaño de la
muestra de fruta, temperatura y tiempo de proceso, y dos neuronas de salida,
representativas de la pérdida de agua y ganancia de sólidos, como
manifestaciones macroscópicas de la transferencia de agua desde la fruta hacia la
solución de impregnación y la transferencia de solutos desde la solución de
impregnación hacia la fruta, respectivamente. Los valores de entrada a las i-
ésimas neuronas de entrada estuvieron constituidos por los valores que
conforman las variables independientes mencionadas (Tabla I). A estos valores se
asoció aleatoriamente un peso de conexión de poca magnitud, que permitió la
propagación de la información a la primera capa de neuronas ocultas de
procesamiento de datos. La asignación aleatoria de los pesos de inicio de poca
magnitud es la técnica normalmente usada cuando no se dispone de información
previa acerca del sistema que se está modelando, ya que impide la temprana
26
27. saturación de la red por cuanto induce a la ruptura de simetría. Así, la entrada neta
de la j-ésima neurona de la capa oculta puede representarse a través de la
ecuación
Donde xpi: entrada que recibe la neurona procedente de la i-ésima unidad de
entrada, wjih: peso de la conexión y jh: término de tendencia. El índice h se
refiere a magnitudes de la capa oculta y el subíndice p al p-ésimo vector de
entrenamiento. El establecimiento del número de capas ocultas y el número de
neuronas que conforman dichas capas se seleccionó mediante un proceso de
ensayo y error
Luego, la salida de las j-ésimas neuronas de la capa oculta se transfirió a las
neuronas de la capa de salida mediante una función de transferencia fjh. Dicha
salida se representa por la ecuación
Donde ypj: salida neta de cada j-ésima neurona de la capa oculta, y netpjh:
entrada neta a la j-ésima neurona de la capa oculta. La función de transferencia
más empleada en las redes de retro propagación del error es la tangente
hiperbólica (Reed y Marks, 1999).
Luego, la entrada neta a la capa de neuronas de salida, representadas por el
número de variables dependientes del sistema, en este caso la pérdida de agua y
la ganancia de sólidos de las frutas osmóticamente deshidratadas, se representa
mediante la ecuación
27
28. Donde el índice 0 se refiere a magnitudes de la capa de salida, ypj: entrada
procedente de la j-ésima neurona oculta, wkj0: peso de conexión entre la j-ésima
unidad oculta y la k-ésima neurona de salida, k0: término de tendencia asociado
a la k-ésima neurona de salida, y netpk: entrada neta a la k-ésima neurona de
salida. Finalmente, la salida de las neuronas de salida se comparó con un vector
objetivo constituido por los valores experimentales de pérdida de agua y ganancia
de sólidos y se generó la siguiente función de error, constituida por la suma de
errores cuadráticos (Reed y Marks, 1999):
Donde ESSE: suma de cuadrados del error, p: vector de entrenamiento o conjunto
de datos experimentales, i: salida emitida por las neuronas de salida de la red, y
tpi y ypi representan el objetivo o conjunto de valores observados y la salida de la
red, respectivamente.
El proceso de entrenamiento y aprendizaje de la red se basó entonces en la
reducción de la función de error anterior, a través de un proceso iterativo de
actualización de pesos de conexión y términos de tendencia que se representa
esquemáticamente en la Figura 1.
28
29. La arquitectura neuronal, así como el proceso de entrenamiento, aprendizaje y
posterior simulación de la red, se desarrollaron con el módulo de redes del
programa Matlab 6.0.
29
30. Conclusión.
Los computadores digitales actuales superan al hombre en su capacidad de
cálculo numérico y el manejo de símbolos relacionales. Sin embargo, el hombre
puede solucionar problemas mucho más complejos de percepción (por ejemplo,
reconocer a un amigo entre un tumulto desde un simple vistazo de su cara o al
escuchar su voz, incluso por el modo de caminar; definir la habitabilidad de un
aula a partir de sensaciones de temperatura, ruido, humedad, iluminación, etc.) a
muy altas velocidades y sin necesidad de concebir un complejo modelo
matemático o computacional.
La respuesta está en la arquitectura del sistema neuronal biológico que es
completamente diferente a la arquitectura del computador.
En este momento se ha dado solución a problemas con altos niveles de
incertidumbre que con métodos tradicionales jamás se habría obtenido.
Soluciones tan novedosas e interesantes como la reconstrucción craneofacial
para la identificación de hombres, música neurocomputacional, sistemas de
detección de virus en computadores conocidos y desconocidos, identificación de
usuarios en cajeros automáticos desde la imagen del iris de los ojos,
reconocimiento de emisores en comunicaciones, diagnóstico de hepatitis,
recuperación de telecomunicaciones ante fallas en el software, interpretación de
palabras chinas, detección de minas submarinas, análisis de texturas,
reconocimiento de objetos tridimensionales y reconocimiento de texto manuscrito.
30
31. 9.- Bibliografías:
Flórez López Raquel. (2008). Las Redes Neuronales Artificiales. Prited in
Spain.
Pino Diez Raúl (2001). Introducción a la inteligencia artificial. Servicio de
publicaciones Universidad de Oviedo
Jesús de la Fuente María (1999). Aplicaciones de las redes neuronales en
supervisión, diagnosis y control de procesos. Impreso en Venezuela.
Flórez López José María ( ). Las redes neuronales artificiales.
Hernández López Leonor. ( ). Predicción y optimización de emisores y
consumo mediante redes neuronales
http://www.redes-neuronales.netfirms.com/tutorial-redes-
neuronales/clasificacion-de-redes-neuronales-respecto-al-aprendizaje.htm
http://www.books.google.com/books?id=X0uLwi1Ap4QC&pg=PA16&dq=co
ncepto+de+redes+neuronales+artificiales&hl=es&ei=dwW_TMuzIoL88Aaa-
826Bg&sa=X&oi=book_result&ct=book-
thumbnail&resnum=1&ved=0CC8Q6wEwAA#v=onepage&q=concepto%20d
e%20redes%20neuronales%20artificiales&f=false
http://members.tripod.com/jesus_alfonso_lopez/RnaIntro.html
http://listas.20minutos.es/lista/inventos-humanos-basados-en-aptitudes-
animales-187409/
http://www.answermath.com/neural-networks/tutorial-esp-4-
construccion.htm
31