SlideShare una empresa de Scribd logo
1 de 10
Universidad Yacambu
Facultad de Ingeniería
Inteligencia Artificial
Redes Neuronales
Andres Rodrigues
IEC – 143 – 00500
Jose Garcia
IEC – 152 – 00523.
Manuel Jimenez
IEC – 143 – 00434
Cabudare, 16 de noviembre de 2017
¿Qué son las redes neuronales?
En los años 40 cuando comenzó a desarrollarse la informática el modelo neuronal le
acompañó, iniciando la aparición de computadores digitales y las teorías de procesamiento
neuronal se iniciaron a finales de los años 40. Desde ese entonces hasta estos días, la
investigación neurofisiológica y el estudio de sistemas neuronales artificiales (ANS, Artificial
Neural Systems) han ido de la mano. Los modelos ANS tiene conceptos del campo de las ciencias
naturales para aplicar en la solución de problemas pertenecientes a otras ramas de la ciencia e
ingeniería mientras que la investigación neurofisiológica tiene conceptos en ciencias
neurológicas.
Las redes neuronales (también conocidas como sistemas conexionistas) son un modelo
computacional basado en un gran conjunto de unidades neuronales simples (neuronas
artificiales), de forma aproximadamente análoga al comportamiento observado en los axones
de las neuronas en los cerebros biológicos. Cada unidad neuronal está conectada con muchas
otras y los enlaces entre ellas pueden incrementar o inhibir el estado de activación de las
neuronas adyacentes. Cada unidad neuronal, de forma individual, opera empleando funciones
de suma. Puede existir una función limitadora o umbral en cada conexión y en la propia unidad,
de tal modo que la señal debe sobrepasar un límite antes de propagarse a otra neurona. Estos
sistemas aprenden y se forman a sí mismos, en lugar de ser programados de forma explícita, y
sobresalen en áreas donde la detección de soluciones o características es difícil de expresar con
la programación convencional.
Las Redes Neuronales son una base importante para el desarrollo de la Inteligencia
artificial. Son inspiradas en el comportamiento de las neuronas y conexiones del cerebro
humano tratando de crear un programa, sistema o máquina que sea capaz de solucionar
problemas difíciles, actuar de forma humana, y realizar trabajos pesados mediante técnicas
algorítmicas convencionales.
Herramientas y conocimientos para manejar las redes neuronales artificiales
• Aprendizaje adaptativo.
La capacidad de aprendizaje adaptativo es una de las características más atractivas de
redes neuronales. Esto es, aprenden a llevar a cabo ciertas tareas mediante un entrenamiento
con ejemplos ilustrativos.
Como las redes neuronales pueden aprender a diferenciar patrones mediante ejemplos
y entrenamientos, no es necesario elaborar modelos a priori ni necesidad de especificar
funciones de distribución de probabilidad.
Las redes neuronales son sistemas dinámicos autoadaptativos. Son adaptables debido a
la capacidad de autoajuste de los elementos procesales (neuronas) que componen el sistema.
Son dinámicos, pues son capaces de estar constantemente cambiando para adaptarse a las
nuevas condiciones.
• Tolerancia a fallos.
Las redes neuronales fueron los primeros métodos computacionales con la capacidad
inherente de tolerancia a fallos. Comparados con los sistemas computacionales tradicionales,
los cuales pierden su funcionalidad cuando sufren un pequeño error de memoria, en las redes
neuronales, si se produce un fallo en un número no muy grande de neuronas y aunque el
comportamiento del sistema se ve influenciado, no sufre una caída repentina.
Hay dos aspectos distintos respecto a la tolerancia a fallos:
o Las redes pueden aprender a reconocer patrones con ruido,
distorsionados o incompletos. Esta es una tolerancia a fallos respecto a
los datos.
o Las redes pueden seguir realizando su función (con cierta degradación)
aunque se destruya parte de la red.
La razón por la que las redes neuronales son tolerantes a los fallos es que tienen su
información distribuida en las conexiones entre neuronas, existiendo cierto grado de
redundancia en este tipo de almacenamiento. La mayoría de los ordenadores algorítmicos y
sistemas de recuperación de datos almacenan cada pieza de información en un espacio único,
localizado y direccionable. En cambio, las redes neuronales almacenan información no
localizada. Por lo tanto, la mayoría de las interconexiones entre los nodos de la red tendrán sus
valores en función de los estímulos recibidos, y se generará un patrón de salida que represente
la información almacenada.
• Operación en tiempo real.
Una de las mayores prioridades, casi en la totalidad de las áreas de aplicación, es la
necesidad de realizar procesos con datos de forma muy rápida. Las redes neuronales se adaptan
bien a esto debido a su implementación paralela. Para que la mayoría de las redes puedan
operar en un entorno de tiempo real, la necesidad de cambio en los pesos de las conexiones o
entrenamiento es mínimo.
• Fácil inserción dentro de la tecnología existente.
Una red individual puede ser entrenada para desarrollar una única y bien definida tarea
(tareas complejas, que hagan múltiples selecciones de patrones, requerirán sistemas de redes
interconectadas). Con las herramientas computacionales existentes (no del tipo PC), una red
puede ser rápidamente entrenada, comprobada, verificada y trasladada a una implementación
hardware de bajo coste. Por lo tanto, no se presentan dificultades para la inserción de redes
neuronales en aplicaciones específicas, por ejemplo, de control, dentro de los sistemas
existentes. De esta manera, las redes neuronales se pueden utilizar para mejorar sistemas en
forma incremental y cada paso puede ser evaluado antes de acometer un desarrollo más amplio.
• Redes neuronales y computadoras digitales.
Para entender el potencial de la computación neuronal, sería necesario hacer una breve
distinción entre sistemas de computación neuronales y digitales: los sistemas neurológicos no
aplican principios de circuitos lógicos o digitales.
Un sistema de computación digital debe ser síncrono o asíncrono. Si fuera asíncrono, la
duración de los impulsos neuronales debería ser variable para mantener uno de los valores
binarios por periodos de tiempo indefinido, lo cual no es el caso. Si el principio fuera síncrono,
se necesitaría un reloj global o maestro con el cual los pulsos estén sincronizados. Éste tampoco
es el caso. Las neuronas no pueden ser circuitos de umbral lógico, porque hay miles de entradas
variables en la mayoría de las neuronas y el umbral es variable con el tiempo, siendo afectado
por la estimulación, atenuación, etc. La precisión y estabilidad de tales circuitos no es suficiente
para definir ninguna función booleana. Los procesos colectivos que son importantes en
computación neuronal no pueden implementarse por computación digital. Por todo ello, el
cerebro debe ser un computador analógico.
• Elementos básicos que componen una red neuronal.
Un esquema de una red neuronal sería:
La misma está constituida por neuronas interconectadas y arregladas en tres capas (esto
último puede variar). Los datos ingresan por medio de la “capa de entrada”, pasan a través de
la “capa oculta” y salen por la “capa de salida”. Cabe mencionar que la capa oculta puede estar
constituida por varias capas.
Tanto las neuronas articiales y las biológicas tienen similitudes, como lo son entradas,
pesos y generan salidas. Sería algo:
Mientras una neurona es muy pequeña en sí misma, cuando se combinan
cientos, miles o millones de ellas pueden resolver problemas muy complejos. Por ejemplo, el
cerebro humano se compone de billones de tales neuronas.
o Función de entrada (input function).
La neurona trata a muchos valores de entrada como si fueran uno solo; esto recibe el
nombre de entrada global. Por lo tanto, ahora nos enfrentamos al problema de cómo se pueden
combinar estas simples entradas (ini1, ini2, ...) dentro de la entrada global, gini. Esto se logra a
través de la función de entrada, la cual se calcula a partir del vector entrada. La función de
entrada puede describirse como:
𝑖𝑛𝑝𝑢𝑡𝑖 = (𝑖𝑛𝑖1 𝑤𝑖1) ∗ (𝑖𝑛𝑖2 𝑤𝑖2) ∗ … (𝑖𝑛𝑖𝑛 𝑤𝑖𝑛)
donde: * representa al operador apropiado (por ejemplo: máximo, sumatoria, producto,
etc.), n al número de entradas a la neurona Ni y Wi al peso. Los valores de entrada se multiplican
por los pesos anteriormente ingresados a la neurona. Por consiguiente, los pesos que
generalmente no están restringidos cambian la medida de influencia que tienen los valores de
entrada. Es decir, que permiten que un gran valor de entrada tenga solamente una pequeña
influencia, si estos son lo suficientemente pequeños.
En la imagen anterior, se puede observar a una neurona con dos entradas y una salida.
La nomenclatura utilizada es: ini1 = entrada número 1 a la neurona Ni; wi1 = peso
correspondiente a ini1; ini2 = entrada número 2 a la neurona Ni; wi2 = peso correspondiente a
ini2; y outi = salida de la neurona Ni. El conjunto de todas las n entradas ini = (ini1, ini2, ..., inin)
es comúnmente llamado “vector entrada”.
Algunas de las funciones de entrada más comúnmente utilizadas y conocidas son:
1) Sumatoria de las entradas pesadas: es la suma de todos los valores de entrada a la
neurona, multiplicados por sus correspondientes pesos.
∑(𝑛𝑖𝑗 𝑤𝑖𝑗)
𝑗
, 𝑐𝑜𝑛 𝑗 = 1, 2, … , 𝑛
2) Productoria de las entradas pesadas: es el producto de todos los valores de entrada
a la neurona, multiplicados por sus correspondientes pesos.
∏(𝑛𝑖𝑗 𝑤𝑖𝑗), 𝑐𝑜𝑛 𝑗 = 1, 2, … , 𝑛
𝑗
3) Máximo de las entradas pesadas: solamente toma en consideración el valor de
entrada más fuerte, previamente multiplicado por su peso correspondiente.
𝑀𝐴𝑋𝐽 (𝑛𝑖𝑗 𝑤𝑖𝑗), 𝑐𝑜𝑛 𝑗 = 1, 2, … , 𝑛
o Función de activación
Una neurona biológica puede estar activa (excitada) o inactiva (no excitada); es decir,
que tiene un “estado de activación”. Las neuronas artificiales también tienen diferentes estados
de activación; algunas de ellas solamente dos, al igual que las biológicas, pero otras pueden
tomar cualquier valor dentro de un conjunto determinado.
La función activación calcula el estado de actividad de una neurona; transformando la
entrada global (menos el umbral, Θi) en un valor (estado) de activación, cuyo rango
normalmente va de (0 a 1) o de (–1 a 1). Esto es así, porque una neurona puede estar totalmente
inactiva (0 o –1) o activa (1).
La función activación, es una función de la entrada global (gini) menos el umbral (Θi).
Las funciones de activación más comúnmente utilizadas se detallan a continuación:
1) Función lineal:
𝑓(𝑥) {
−1 𝑥 ≤ −1/𝑎
𝑎 ∗ 𝑥 − 1/𝑎 < 𝑥 < 1/𝑎
1 𝑥 ≥ 1/𝑎
con x = gini - Θi, y a > 0.
Los valores de salida obtenidos por medio de
esta función de activación serán: a·(gini - Θi),
cuando el argumento de (gini - Θi) esté
comprendido dentro del rango (-1/a, 1/a). Por
encima o por debajo de esta zona se fija la salida en 1 o –1, respectivamente. Cuando
a = 1 (siendo que la misma afecta la pendiente de la gráfica), la salida es igual a la
entrada.
2) Función sigmoidea:
𝑓(𝑥) =
1
1 + 𝑒−8𝑥
, 𝑐𝑜𝑛 𝑥 = 𝑔𝑖𝑛𝑖 − 𝜃𝑖
Los valores de salida que proporciona esta
función están comprendidos dentro de un rango
que va de 0 a 1. Al modificar el valor de g se ve
afectada la pendiente de la función de
activación.
3) Función tangente hiperbólica:
𝑓(𝑥) =
𝑒8𝑥
− 𝑒−8𝑥
𝑒8𝑥 − 𝑒−8𝑥
, 𝑐𝑜𝑛 𝑥 = 𝑔𝑖𝑛𝑖 − 𝜃𝑖
Los valores de salida de la función tangente
hiperbólica están comprendidos dentro de un
rango que va de -1 a 1. Al modificar el valor de
g se ve afectada la pendiente de la función de
activación.
Para explicar porque se utilizan estas funciones de activación se suele emplear la
analogía a la aceleración de un automóvil. Cuando un auto inicia su movimiento necesita una
potencia elevada para comenzar a acelerar. Pero al ir tomando velocidad, éste demanda un
menor incremento de dicha potencia para mantener la aceleración. Al llegar a altas velocidades,
nuevamente un amplio incremento en la potencia es necesario para obtener una pequeña
ganancia de velocidad. En resumen, en ambos extremos del rango de aceleración de un
automóvil se demanda una mayor potencia para la aceleración que en la mitad de dicho rango.
o Función de salida
El último componente que una neurona necesita es la función de salida. El valor
resultante de esta función es la salida de la neurona i (outi); por ende, la función de salida
determina que valor se transfiere a las neuronas vinculadas. Si la función de activación está por
debajo de un umbral determinado, ninguna salida se pasa a la neurona subsiguiente.
Normalmente, no cualquier valor es permitido como una entrada para una neurona, por lo
tanto, los valores de salida están comprendidos en el rango [0, 1] o [-1, 1]. También pueden ser
binarios {0, 1} o {-1, 1}.
Dos de las funciones de salida más comunes son:
1) Ninguna: este es el tipo de función más sencillo, tal que la salida es la misma que
la entrada. Es también llamada función identidad.
2) Binaria: {
1
0
𝑠𝑖 𝑎𝑐𝑡𝑖≥𝜉𝑖
𝑑𝑒 𝑙𝑜 𝑐𝑜𝑛𝑡𝑟𝑎𝑟𝑖𝑜
, 𝑑𝑜𝑛𝑑𝑒 𝜉𝑖 𝑒𝑠 𝑒𝑙 𝑢𝑚𝑏𝑟𝑎𝑙
Topología de las redes neuronales:
La topología o arquitectura de una red neuronal consiste en la organización y disposición
de las neuronas en la misma, formando capas o agrupaciones de neuronas más o menos alejadas
de la entrada y salida de dicha red. En este sentido, los parámetros fundamentales de la red son:
el número de capas, el número de neuronas por capa, el grado de conectividad y el tipo de
conexiones entre neuronas.
• Redes monocapas:
En las redes monocapa, se establecen conexiones entre las neuronas que
pertenecen a la única capa que constituye la red. Las redes monocapas se
utilizan generalmente en tareas relacionadas con lo que se conoce como
autoasociación (regenerar información de entrada que se presenta a la red de
forma incompleta o distorsionada).
• Redes multicapas:
Las redes multicapas son aquellas que disponen de un conjunto de neuronas
agrupadas en varios (2, 3, etc.) niveles o capas. En estos casos, una forma para
distinguir la capa a la que pertenece una neurona, consistiría en fijarse en el
origen de las señales que recibe a la entrada y el destino de la señal de salida.
Normalmente, todas las neuronas de una capa reciben señales de entrada desde
otra capa anterior (la cual está más cerca a la entrada de la red), y envían señales
de salida a una capa posterior (que está más cerca a la salida de la red). A estas
conexiones se las denomina conexiones hacia adelante o feedforward.
Sin embargo, en un gran número de estas redes también existe la posibilidad de
conectar la salida de las neuronas de capas posteriores a la entrada de capas
anteriores; a estas conexiones se las denomina conexiones hacia atrás o
feedback.
Estas dos posibilidades permiten distinguir entre dos tipos de redes con
múltiples capas: las redes con conexiones hacia adelante o redes feedforward,
y las redes que disponen de conexiones tanto hacia adelante como hacia atrás
o redes feedforward/feedback.
Conexión entre neuronas:
La conectividad entre los nodos de una red neuronal está relacionada con la forma en
que las salidas de las neuronas están canalizadas para convertirse en entradas de otras
neuronas. La señal de salida de un nodo puede ser una entrada de otro elemento de proceso, o
incluso ser una entrada de sí mismo (conexión autorrecurrente). Cuando ninguna salida de las
neuronas es entrada de neuronas del mismo nivel o de niveles precedentes, la red se describe
como de conexión hacia delante. Cuando las salidas pueden ser conectadas como entradas de
neuronas de niveles previos o del mismo nivel, incluyéndose ellas mismas, la red es de conexión
hacia atrás.
Las redes de propagación hacia atrás que tienen lazos cerrados son llamadas: sistemas
recurrentes.
El nombre de backpropagation resulta de la forma en que el error es propagado hacia
atrás a través de la red neuronal, en otras palabras el error se propaga hacia atrás desde la capa
de salida. Esto permite que los pesos sobre las conexiones de las neuronas ubicadas en las capas
ocultas cambien durante el entrenamiento. El cambio de los pesos en las conexiones de las
neuronas además de influir sobre la entrada global, influye en la activación y por consiguiente
en la salida de una neurona. Por lo tanto, es de gran utilidad considerar las variaciones de la
función activación al modificarse el valor de los pesos. Esto se llama sensibilidad de la función
activación, de acuerdo con el cambio en los pesos.
Perceptrones:
• Simple:
El modelo biológico más simple de un perceptrón es una neurona y viceversa.
Es decir, el modelo matemático más simple de una neurona es un perceptrón.
La neurona es una célula especializada y caracterizada por poseer una cantidad
indefinida de canales de entrada llamados dendritas y un canal de salida llamado
axón. Las dendritas operan como sensores que recogen información de la región
donde se hallan y la derivan hacia el cuerpo de la neurona que reacciona
mediante una sinapsis que envía una respuesta hacia el cerebro, esto en el caso
de los seres vivos.
Una neurona sola y aislada carece de razón de ser. Su labor especializada se
torna valiosa en la medida en que se asocia a otras neuronas, formando una red.
Normalmente, el axón de una neurona entrega su información como "señal de
entrada" a una dendrita de otra neurona y así sucesivamente. El perceptrón que
capta la señal en adelante se extiende formando una red de neuronas, sean
éstas biológicas o de sustrato semiconductor (compuertas lógicas).
El perceptrón usa una matriz para representar las redes neuronales y es un
discriminador terciario que traza su entrada x (un vector binario) a un único
valor de salida f(x) (un solo valor binario) a través de dicha matriz.
𝑓(𝑥) = {
1
0
𝑠𝑖 𝑤 ∗ 𝑥 − 𝑢 > 0
𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
Donde w es un vector de pesos reales y w*x es el producto escalar (que computa
una suma ponderada). u es el “umbral”, el cual representa el grado de inhibición
de la neurona, es un término constante que no depende del valor que tome la
entrada.
El valor de f(x) (0 o 1) se usa para clasificar x como un caso positivo o un caso
negativo, en el caso de un problema de clasificación binario. El umbral puede
pensarse de como compensar la función de activación, o dando un nivel bajo de
actividad a la neurona del rendimiento. La suma ponderada de las entradas debe
producir un valor mayor que u para cambiar la neurona de estado 0 a 1.
• Adeline:
Generalmente se compone de una sola capa de n neuronas (por tanto n valores
de salida ) con m entradas con las siguientes características:
o Las m entradas representan un vector x de entrada que pertenece al
espacio Rm
.
o Por cada neurona, existe un vector w de pesos sinápticos que indican la
fuerza de conexión entre los valores de entrada y la neurona. En la
práctica representan la ponderación de cada entrada sobre la neurona.
o Una constante 𝜃.
o La salida y de la neurona se representa por la función activadora, que se
define como 𝑦 = ∑ 𝑥𝑖 𝑤𝑖
𝑛
𝑖=1 + 𝜃
• Multicapa:
El perceptrón multicapa es una red neuronal artificial (RNA) formada por
múltiples capas, esto le permite resolver problemas que no son linealmente
separables, lo cual es la principal limitación del perceptrón (también llamado
perceptrón simple). El perceptrón multicapa puede ser totalmente o localmente
conectado. En el primer caso cada salida de una neurona de la capa "i" es
entrada de todas las neuronas de la capa "i+1", mientras que en el segundo cada
neurona de la capa "i" es entrada de una serie de neuronas (región) de la capa
"i+1".
Compuerta OR
Donde Q = A + B
Tabla de verdad:
Input Output
A B A OR B
0 0 0
0 1 1
1 0 1
1 1 1
Del análisis de las tablas de verdad se concluye que la compuerta OR, tendrá siempre en su salida
un “0” lógico cuando todas sus entradas sean “0” lógico, sin importar cuantas entradas tenga la
compuerta. En los demás casos la salida será un “1” lógico.

Más contenido relacionado

La actualidad más candente

5.2 Redes neuronales (RN) [presentación].
5.2 Redes neuronales (RN) [presentación].5.2 Redes neuronales (RN) [presentación].
5.2 Redes neuronales (RN) [presentación].Humberto Chalate Jorge
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificialesESCOM
 
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALESINTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALESESCOM
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes NeuronalesDavid852
 
Sistemas De InformacióN Redes Neuronales
Sistemas De InformacióN Redes NeuronalesSistemas De InformacióN Redes Neuronales
Sistemas De InformacióN Redes Neuronalesvanessa beltran
 
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...zeithy
 
5.2 Redes neuronales (RN) [investigación]
5.2 Redes neuronales (RN) [investigación]5.2 Redes neuronales (RN) [investigación]
5.2 Redes neuronales (RN) [investigación]Humberto Chalate Jorge
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronalesjcbenitezp
 
Nedes Neuronales Artificiales
Nedes Neuronales Artificiales Nedes Neuronales Artificiales
Nedes Neuronales Artificiales Rufino meri?
 
Equipo Redes Neuronales Artificiales
Equipo Redes Neuronales ArtificialesEquipo Redes Neuronales Artificiales
Equipo Redes Neuronales ArtificialesArgenis Vicent
 
Red Neuronal Artificial
Red Neuronal ArtificialRed Neuronal Artificial
Red Neuronal ArtificialJORGE ARMANDO
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesAngel G
 
Introducción a las Redes Neuronales Artificiales
Introducción a las Redes Neuronales ArtificialesIntroducción a las Redes Neuronales Artificiales
Introducción a las Redes Neuronales ArtificialesBiblioteca EPM
 
Generalidades De Las Redes Neuronales Artificiales (RNA)
Generalidades De Las  Redes Neuronales Artificiales  (RNA)Generalidades De Las  Redes Neuronales Artificiales  (RNA)
Generalidades De Las Redes Neuronales Artificiales (RNA)ESCOM
 

La actualidad más candente (20)

Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
5.2 Redes neuronales (RN) [presentación].
5.2 Redes neuronales (RN) [presentación].5.2 Redes neuronales (RN) [presentación].
5.2 Redes neuronales (RN) [presentación].
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificiales
 
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALESINTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Sistemas De InformacióN Redes Neuronales
Sistemas De InformacióN Redes NeuronalesSistemas De InformacióN Redes Neuronales
Sistemas De InformacióN Redes Neuronales
 
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...
 
5.2 Redes neuronales (RN) [investigación]
5.2 Redes neuronales (RN) [investigación]5.2 Redes neuronales (RN) [investigación]
5.2 Redes neuronales (RN) [investigación]
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
Neurona de Mc culloch
Neurona de Mc cullochNeurona de Mc culloch
Neurona de Mc culloch
 
Nedes Neuronales Artificiales
Nedes Neuronales Artificiales Nedes Neuronales Artificiales
Nedes Neuronales Artificiales
 
Equipo Redes Neuronales Artificiales
Equipo Redes Neuronales ArtificialesEquipo Redes Neuronales Artificiales
Equipo Redes Neuronales Artificiales
 
Red Neuronal Artificial
Red Neuronal ArtificialRed Neuronal Artificial
Red Neuronal Artificial
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Introducción a las Redes Neuronales Artificiales
Introducción a las Redes Neuronales ArtificialesIntroducción a las Redes Neuronales Artificiales
Introducción a las Redes Neuronales Artificiales
 
Generalidades De Las Redes Neuronales Artificiales (RNA)
Generalidades De Las  Redes Neuronales Artificiales  (RNA)Generalidades De Las  Redes Neuronales Artificiales  (RNA)
Generalidades De Las Redes Neuronales Artificiales (RNA)
 

Similar a Redes neuronales

06mem inteligencia artificial redes neuronales y sus aplicciones
06mem inteligencia artificial redes neuronales y sus aplicciones06mem inteligencia artificial redes neuronales y sus aplicciones
06mem inteligencia artificial redes neuronales y sus apliccionesjcbp_peru
 
Lectura ia rna y aplicaciones 2 as_06mem
Lectura ia rna y aplicaciones 2 as_06memLectura ia rna y aplicaciones 2 as_06mem
Lectura ia rna y aplicaciones 2 as_06memjcbp_peru
 
Overview of Artificial Neural Networks and its Applications
Overview of Artificial Neural Networks and its ApplicationsOverview of Artificial Neural Networks and its Applications
Overview of Artificial Neural Networks and its ApplicationsRamiro Aduviri Velasco
 
Redes neuronales y sus aplicaciones
Redes neuronales y sus aplicacionesRedes neuronales y sus aplicaciones
Redes neuronales y sus aplicacionesAmbBixenman
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronaleselianmarin
 
Redes Neuronales(Examen)
Redes Neuronales(Examen)Redes Neuronales(Examen)
Redes Neuronales(Examen)diego28mauricio
 
Redes Neuronales(Examen)
Redes Neuronales(Examen)Redes Neuronales(Examen)
Redes Neuronales(Examen)diego28mauricio
 
2024-T8-Redes_Neuronales_I.ppsx
2024-T8-Redes_Neuronales_I.ppsx2024-T8-Redes_Neuronales_I.ppsx
2024-T8-Redes_Neuronales_I.ppsxRicardo Lopez-Ruiz
 
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesTema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesESCOM
 
Funciones de activacion Poslin y Purelin
Funciones de activacion Poslin y PurelinFunciones de activacion Poslin y Purelin
Funciones de activacion Poslin y PurelinDiego Guamán
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigJefferson Sarmiento
 

Similar a Redes neuronales (20)

Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
06mem
06mem06mem
06mem
 
06mem inteligencia artificial redes neuronales y sus aplicciones
06mem inteligencia artificial redes neuronales y sus aplicciones06mem inteligencia artificial redes neuronales y sus aplicciones
06mem inteligencia artificial redes neuronales y sus aplicciones
 
Lectura ia rna y aplicaciones 2 as_06mem
Lectura ia rna y aplicaciones 2 as_06memLectura ia rna y aplicaciones 2 as_06mem
Lectura ia rna y aplicaciones 2 as_06mem
 
Overview of Artificial Neural Networks and its Applications
Overview of Artificial Neural Networks and its ApplicationsOverview of Artificial Neural Networks and its Applications
Overview of Artificial Neural Networks and its Applications
 
Redes neuronales y sus aplicaciones
Redes neuronales y sus aplicacionesRedes neuronales y sus aplicaciones
Redes neuronales y sus aplicaciones
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
110641.ppt
110641.ppt110641.ppt
110641.ppt
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales(Examen)
Redes Neuronales(Examen)Redes Neuronales(Examen)
Redes Neuronales(Examen)
 
Redes Neuronales(Examen)
Redes Neuronales(Examen)Redes Neuronales(Examen)
Redes Neuronales(Examen)
 
2024-T8-Redes_Neuronales_I.ppsx
2024-T8-Redes_Neuronales_I.ppsx2024-T8-Redes_Neuronales_I.ppsx
2024-T8-Redes_Neuronales_I.ppsx
 
Slidecats
SlidecatsSlidecats
Slidecats
 
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesTema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
redes neuronales
redes neuronalesredes neuronales
redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Funciones de activacion Poslin y Purelin
Funciones de activacion Poslin y PurelinFunciones de activacion Poslin y Purelin
Funciones de activacion Poslin y Purelin
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansig
 
Red neuronal
Red neuronalRed neuronal
Red neuronal
 

Último

Redes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfRedes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfsoporteupcology
 
El uso delas tic en la vida cotidiana MFEL
El uso delas tic en la vida cotidiana MFELEl uso delas tic en la vida cotidiana MFEL
El uso delas tic en la vida cotidiana MFELmaryfer27m
 
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...FacuMeza2
 
Arenas Camacho-Practica tarea Sesión 12.pptx
Arenas Camacho-Practica tarea Sesión 12.pptxArenas Camacho-Practica tarea Sesión 12.pptx
Arenas Camacho-Practica tarea Sesión 12.pptxJOSEFERNANDOARENASCA
 
Crear un recurso multimedia. Maricela_Ponce_DomingoM1S3AI6-1.pptx
Crear un recurso multimedia. Maricela_Ponce_DomingoM1S3AI6-1.pptxCrear un recurso multimedia. Maricela_Ponce_DomingoM1S3AI6-1.pptx
Crear un recurso multimedia. Maricela_Ponce_DomingoM1S3AI6-1.pptxNombre Apellidos
 
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdfPARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdfSergioMendoza354770
 
Plan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxPlan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxpabonheidy28
 
trabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdftrabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdfIsabellaMontaomurill
 
KELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesKELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesFundación YOD YOD
 
tics en la vida cotidiana prepa en linea modulo 1.pptx
tics en la vida cotidiana prepa en linea modulo 1.pptxtics en la vida cotidiana prepa en linea modulo 1.pptx
tics en la vida cotidiana prepa en linea modulo 1.pptxazmysanros90
 
Actividad integradora 6 CREAR UN RECURSO MULTIMEDIA
Actividad integradora 6    CREAR UN RECURSO MULTIMEDIAActividad integradora 6    CREAR UN RECURSO MULTIMEDIA
Actividad integradora 6 CREAR UN RECURSO MULTIMEDIA241531640
 
SalmorejoTech 2024 - Spring Boot <3 Testcontainers
SalmorejoTech 2024 - Spring Boot <3 TestcontainersSalmorejoTech 2024 - Spring Boot <3 Testcontainers
SalmorejoTech 2024 - Spring Boot <3 TestcontainersIván López Martín
 
Presentación inteligencia artificial en la actualidad
Presentación inteligencia artificial en la actualidadPresentación inteligencia artificial en la actualidad
Presentación inteligencia artificial en la actualidadMiguelAngelVillanuev48
 
Medidas de formas, coeficiente de asimetría y coeficiente de curtosis.pptx
Medidas de formas, coeficiente de asimetría y coeficiente de curtosis.pptxMedidas de formas, coeficiente de asimetría y coeficiente de curtosis.pptx
Medidas de formas, coeficiente de asimetría y coeficiente de curtosis.pptxaylincamaho
 
El uso de las TIC's en la vida cotidiana.
El uso de las TIC's en la vida cotidiana.El uso de las TIC's en la vida cotidiana.
El uso de las TIC's en la vida cotidiana.241514949
 
Clase N°4 - Purificación y secuenciación de acidos nucleicos Benoit Diringer ...
Clase N°4 - Purificación y secuenciación de acidos nucleicos Benoit Diringer ...Clase N°4 - Purificación y secuenciación de acidos nucleicos Benoit Diringer ...
Clase N°4 - Purificación y secuenciación de acidos nucleicos Benoit Diringer ...Luis Olivera
 
Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024GiovanniJavierHidalg
 
El gusano informático Morris (1988) - Julio Ardita (1995) - Citizenfour (2014...
El gusano informático Morris (1988) - Julio Ardita (1995) - Citizenfour (2014...El gusano informático Morris (1988) - Julio Ardita (1995) - Citizenfour (2014...
El gusano informático Morris (1988) - Julio Ardita (1995) - Citizenfour (2014...JaquelineJuarez15
 
dokumen.tips_36274588-sistema-heui-eui.ppt
dokumen.tips_36274588-sistema-heui-eui.pptdokumen.tips_36274588-sistema-heui-eui.ppt
dokumen.tips_36274588-sistema-heui-eui.pptMiguelAtencio10
 
GonzalezGonzalez_Karina_M1S3AI6... .pptx
GonzalezGonzalez_Karina_M1S3AI6... .pptxGonzalezGonzalez_Karina_M1S3AI6... .pptx
GonzalezGonzalez_Karina_M1S3AI6... .pptx241523733
 

Último (20)

Redes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfRedes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdf
 
El uso delas tic en la vida cotidiana MFEL
El uso delas tic en la vida cotidiana MFELEl uso delas tic en la vida cotidiana MFEL
El uso delas tic en la vida cotidiana MFEL
 
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
 
Arenas Camacho-Practica tarea Sesión 12.pptx
Arenas Camacho-Practica tarea Sesión 12.pptxArenas Camacho-Practica tarea Sesión 12.pptx
Arenas Camacho-Practica tarea Sesión 12.pptx
 
Crear un recurso multimedia. Maricela_Ponce_DomingoM1S3AI6-1.pptx
Crear un recurso multimedia. Maricela_Ponce_DomingoM1S3AI6-1.pptxCrear un recurso multimedia. Maricela_Ponce_DomingoM1S3AI6-1.pptx
Crear un recurso multimedia. Maricela_Ponce_DomingoM1S3AI6-1.pptx
 
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdfPARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
 
Plan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxPlan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docx
 
trabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdftrabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdf
 
KELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesKELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento Protégeles
 
tics en la vida cotidiana prepa en linea modulo 1.pptx
tics en la vida cotidiana prepa en linea modulo 1.pptxtics en la vida cotidiana prepa en linea modulo 1.pptx
tics en la vida cotidiana prepa en linea modulo 1.pptx
 
Actividad integradora 6 CREAR UN RECURSO MULTIMEDIA
Actividad integradora 6    CREAR UN RECURSO MULTIMEDIAActividad integradora 6    CREAR UN RECURSO MULTIMEDIA
Actividad integradora 6 CREAR UN RECURSO MULTIMEDIA
 
SalmorejoTech 2024 - Spring Boot <3 Testcontainers
SalmorejoTech 2024 - Spring Boot <3 TestcontainersSalmorejoTech 2024 - Spring Boot <3 Testcontainers
SalmorejoTech 2024 - Spring Boot <3 Testcontainers
 
Presentación inteligencia artificial en la actualidad
Presentación inteligencia artificial en la actualidadPresentación inteligencia artificial en la actualidad
Presentación inteligencia artificial en la actualidad
 
Medidas de formas, coeficiente de asimetría y coeficiente de curtosis.pptx
Medidas de formas, coeficiente de asimetría y coeficiente de curtosis.pptxMedidas de formas, coeficiente de asimetría y coeficiente de curtosis.pptx
Medidas de formas, coeficiente de asimetría y coeficiente de curtosis.pptx
 
El uso de las TIC's en la vida cotidiana.
El uso de las TIC's en la vida cotidiana.El uso de las TIC's en la vida cotidiana.
El uso de las TIC's en la vida cotidiana.
 
Clase N°4 - Purificación y secuenciación de acidos nucleicos Benoit Diringer ...
Clase N°4 - Purificación y secuenciación de acidos nucleicos Benoit Diringer ...Clase N°4 - Purificación y secuenciación de acidos nucleicos Benoit Diringer ...
Clase N°4 - Purificación y secuenciación de acidos nucleicos Benoit Diringer ...
 
Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024
 
El gusano informático Morris (1988) - Julio Ardita (1995) - Citizenfour (2014...
El gusano informático Morris (1988) - Julio Ardita (1995) - Citizenfour (2014...El gusano informático Morris (1988) - Julio Ardita (1995) - Citizenfour (2014...
El gusano informático Morris (1988) - Julio Ardita (1995) - Citizenfour (2014...
 
dokumen.tips_36274588-sistema-heui-eui.ppt
dokumen.tips_36274588-sistema-heui-eui.pptdokumen.tips_36274588-sistema-heui-eui.ppt
dokumen.tips_36274588-sistema-heui-eui.ppt
 
GonzalezGonzalez_Karina_M1S3AI6... .pptx
GonzalezGonzalez_Karina_M1S3AI6... .pptxGonzalezGonzalez_Karina_M1S3AI6... .pptx
GonzalezGonzalez_Karina_M1S3AI6... .pptx
 

Redes neuronales

  • 1. Universidad Yacambu Facultad de Ingeniería Inteligencia Artificial Redes Neuronales Andres Rodrigues IEC – 143 – 00500 Jose Garcia IEC – 152 – 00523. Manuel Jimenez IEC – 143 – 00434 Cabudare, 16 de noviembre de 2017
  • 2. ¿Qué son las redes neuronales? En los años 40 cuando comenzó a desarrollarse la informática el modelo neuronal le acompañó, iniciando la aparición de computadores digitales y las teorías de procesamiento neuronal se iniciaron a finales de los años 40. Desde ese entonces hasta estos días, la investigación neurofisiológica y el estudio de sistemas neuronales artificiales (ANS, Artificial Neural Systems) han ido de la mano. Los modelos ANS tiene conceptos del campo de las ciencias naturales para aplicar en la solución de problemas pertenecientes a otras ramas de la ciencia e ingeniería mientras que la investigación neurofisiológica tiene conceptos en ciencias neurológicas. Las redes neuronales (también conocidas como sistemas conexionistas) son un modelo computacional basado en un gran conjunto de unidades neuronales simples (neuronas artificiales), de forma aproximadamente análoga al comportamiento observado en los axones de las neuronas en los cerebros biológicos. Cada unidad neuronal está conectada con muchas otras y los enlaces entre ellas pueden incrementar o inhibir el estado de activación de las neuronas adyacentes. Cada unidad neuronal, de forma individual, opera empleando funciones de suma. Puede existir una función limitadora o umbral en cada conexión y en la propia unidad, de tal modo que la señal debe sobrepasar un límite antes de propagarse a otra neurona. Estos sistemas aprenden y se forman a sí mismos, en lugar de ser programados de forma explícita, y sobresalen en áreas donde la detección de soluciones o características es difícil de expresar con la programación convencional. Las Redes Neuronales son una base importante para el desarrollo de la Inteligencia artificial. Son inspiradas en el comportamiento de las neuronas y conexiones del cerebro humano tratando de crear un programa, sistema o máquina que sea capaz de solucionar problemas difíciles, actuar de forma humana, y realizar trabajos pesados mediante técnicas algorítmicas convencionales. Herramientas y conocimientos para manejar las redes neuronales artificiales • Aprendizaje adaptativo. La capacidad de aprendizaje adaptativo es una de las características más atractivas de redes neuronales. Esto es, aprenden a llevar a cabo ciertas tareas mediante un entrenamiento con ejemplos ilustrativos. Como las redes neuronales pueden aprender a diferenciar patrones mediante ejemplos y entrenamientos, no es necesario elaborar modelos a priori ni necesidad de especificar funciones de distribución de probabilidad. Las redes neuronales son sistemas dinámicos autoadaptativos. Son adaptables debido a la capacidad de autoajuste de los elementos procesales (neuronas) que componen el sistema. Son dinámicos, pues son capaces de estar constantemente cambiando para adaptarse a las nuevas condiciones. • Tolerancia a fallos. Las redes neuronales fueron los primeros métodos computacionales con la capacidad inherente de tolerancia a fallos. Comparados con los sistemas computacionales tradicionales, los cuales pierden su funcionalidad cuando sufren un pequeño error de memoria, en las redes
  • 3. neuronales, si se produce un fallo en un número no muy grande de neuronas y aunque el comportamiento del sistema se ve influenciado, no sufre una caída repentina. Hay dos aspectos distintos respecto a la tolerancia a fallos: o Las redes pueden aprender a reconocer patrones con ruido, distorsionados o incompletos. Esta es una tolerancia a fallos respecto a los datos. o Las redes pueden seguir realizando su función (con cierta degradación) aunque se destruya parte de la red. La razón por la que las redes neuronales son tolerantes a los fallos es que tienen su información distribuida en las conexiones entre neuronas, existiendo cierto grado de redundancia en este tipo de almacenamiento. La mayoría de los ordenadores algorítmicos y sistemas de recuperación de datos almacenan cada pieza de información en un espacio único, localizado y direccionable. En cambio, las redes neuronales almacenan información no localizada. Por lo tanto, la mayoría de las interconexiones entre los nodos de la red tendrán sus valores en función de los estímulos recibidos, y se generará un patrón de salida que represente la información almacenada. • Operación en tiempo real. Una de las mayores prioridades, casi en la totalidad de las áreas de aplicación, es la necesidad de realizar procesos con datos de forma muy rápida. Las redes neuronales se adaptan bien a esto debido a su implementación paralela. Para que la mayoría de las redes puedan operar en un entorno de tiempo real, la necesidad de cambio en los pesos de las conexiones o entrenamiento es mínimo. • Fácil inserción dentro de la tecnología existente. Una red individual puede ser entrenada para desarrollar una única y bien definida tarea (tareas complejas, que hagan múltiples selecciones de patrones, requerirán sistemas de redes interconectadas). Con las herramientas computacionales existentes (no del tipo PC), una red puede ser rápidamente entrenada, comprobada, verificada y trasladada a una implementación hardware de bajo coste. Por lo tanto, no se presentan dificultades para la inserción de redes neuronales en aplicaciones específicas, por ejemplo, de control, dentro de los sistemas existentes. De esta manera, las redes neuronales se pueden utilizar para mejorar sistemas en forma incremental y cada paso puede ser evaluado antes de acometer un desarrollo más amplio. • Redes neuronales y computadoras digitales. Para entender el potencial de la computación neuronal, sería necesario hacer una breve distinción entre sistemas de computación neuronales y digitales: los sistemas neurológicos no aplican principios de circuitos lógicos o digitales. Un sistema de computación digital debe ser síncrono o asíncrono. Si fuera asíncrono, la duración de los impulsos neuronales debería ser variable para mantener uno de los valores binarios por periodos de tiempo indefinido, lo cual no es el caso. Si el principio fuera síncrono, se necesitaría un reloj global o maestro con el cual los pulsos estén sincronizados. Éste tampoco es el caso. Las neuronas no pueden ser circuitos de umbral lógico, porque hay miles de entradas variables en la mayoría de las neuronas y el umbral es variable con el tiempo, siendo afectado por la estimulación, atenuación, etc. La precisión y estabilidad de tales circuitos no es suficiente
  • 4. para definir ninguna función booleana. Los procesos colectivos que son importantes en computación neuronal no pueden implementarse por computación digital. Por todo ello, el cerebro debe ser un computador analógico. • Elementos básicos que componen una red neuronal. Un esquema de una red neuronal sería: La misma está constituida por neuronas interconectadas y arregladas en tres capas (esto último puede variar). Los datos ingresan por medio de la “capa de entrada”, pasan a través de la “capa oculta” y salen por la “capa de salida”. Cabe mencionar que la capa oculta puede estar constituida por varias capas. Tanto las neuronas articiales y las biológicas tienen similitudes, como lo son entradas, pesos y generan salidas. Sería algo: Mientras una neurona es muy pequeña en sí misma, cuando se combinan cientos, miles o millones de ellas pueden resolver problemas muy complejos. Por ejemplo, el cerebro humano se compone de billones de tales neuronas. o Función de entrada (input function). La neurona trata a muchos valores de entrada como si fueran uno solo; esto recibe el nombre de entrada global. Por lo tanto, ahora nos enfrentamos al problema de cómo se pueden combinar estas simples entradas (ini1, ini2, ...) dentro de la entrada global, gini. Esto se logra a través de la función de entrada, la cual se calcula a partir del vector entrada. La función de entrada puede describirse como: 𝑖𝑛𝑝𝑢𝑡𝑖 = (𝑖𝑛𝑖1 𝑤𝑖1) ∗ (𝑖𝑛𝑖2 𝑤𝑖2) ∗ … (𝑖𝑛𝑖𝑛 𝑤𝑖𝑛) donde: * representa al operador apropiado (por ejemplo: máximo, sumatoria, producto, etc.), n al número de entradas a la neurona Ni y Wi al peso. Los valores de entrada se multiplican por los pesos anteriormente ingresados a la neurona. Por consiguiente, los pesos que generalmente no están restringidos cambian la medida de influencia que tienen los valores de
  • 5. entrada. Es decir, que permiten que un gran valor de entrada tenga solamente una pequeña influencia, si estos son lo suficientemente pequeños. En la imagen anterior, se puede observar a una neurona con dos entradas y una salida. La nomenclatura utilizada es: ini1 = entrada número 1 a la neurona Ni; wi1 = peso correspondiente a ini1; ini2 = entrada número 2 a la neurona Ni; wi2 = peso correspondiente a ini2; y outi = salida de la neurona Ni. El conjunto de todas las n entradas ini = (ini1, ini2, ..., inin) es comúnmente llamado “vector entrada”. Algunas de las funciones de entrada más comúnmente utilizadas y conocidas son: 1) Sumatoria de las entradas pesadas: es la suma de todos los valores de entrada a la neurona, multiplicados por sus correspondientes pesos. ∑(𝑛𝑖𝑗 𝑤𝑖𝑗) 𝑗 , 𝑐𝑜𝑛 𝑗 = 1, 2, … , 𝑛 2) Productoria de las entradas pesadas: es el producto de todos los valores de entrada a la neurona, multiplicados por sus correspondientes pesos. ∏(𝑛𝑖𝑗 𝑤𝑖𝑗), 𝑐𝑜𝑛 𝑗 = 1, 2, … , 𝑛 𝑗 3) Máximo de las entradas pesadas: solamente toma en consideración el valor de entrada más fuerte, previamente multiplicado por su peso correspondiente. 𝑀𝐴𝑋𝐽 (𝑛𝑖𝑗 𝑤𝑖𝑗), 𝑐𝑜𝑛 𝑗 = 1, 2, … , 𝑛 o Función de activación Una neurona biológica puede estar activa (excitada) o inactiva (no excitada); es decir, que tiene un “estado de activación”. Las neuronas artificiales también tienen diferentes estados de activación; algunas de ellas solamente dos, al igual que las biológicas, pero otras pueden tomar cualquier valor dentro de un conjunto determinado. La función activación calcula el estado de actividad de una neurona; transformando la entrada global (menos el umbral, Θi) en un valor (estado) de activación, cuyo rango
  • 6. normalmente va de (0 a 1) o de (–1 a 1). Esto es así, porque una neurona puede estar totalmente inactiva (0 o –1) o activa (1). La función activación, es una función de la entrada global (gini) menos el umbral (Θi). Las funciones de activación más comúnmente utilizadas se detallan a continuación: 1) Función lineal: 𝑓(𝑥) { −1 𝑥 ≤ −1/𝑎 𝑎 ∗ 𝑥 − 1/𝑎 < 𝑥 < 1/𝑎 1 𝑥 ≥ 1/𝑎 con x = gini - Θi, y a > 0. Los valores de salida obtenidos por medio de esta función de activación serán: a·(gini - Θi), cuando el argumento de (gini - Θi) esté comprendido dentro del rango (-1/a, 1/a). Por encima o por debajo de esta zona se fija la salida en 1 o –1, respectivamente. Cuando a = 1 (siendo que la misma afecta la pendiente de la gráfica), la salida es igual a la entrada. 2) Función sigmoidea: 𝑓(𝑥) = 1 1 + 𝑒−8𝑥 , 𝑐𝑜𝑛 𝑥 = 𝑔𝑖𝑛𝑖 − 𝜃𝑖 Los valores de salida que proporciona esta función están comprendidos dentro de un rango que va de 0 a 1. Al modificar el valor de g se ve afectada la pendiente de la función de activación. 3) Función tangente hiperbólica: 𝑓(𝑥) = 𝑒8𝑥 − 𝑒−8𝑥 𝑒8𝑥 − 𝑒−8𝑥 , 𝑐𝑜𝑛 𝑥 = 𝑔𝑖𝑛𝑖 − 𝜃𝑖 Los valores de salida de la función tangente hiperbólica están comprendidos dentro de un rango que va de -1 a 1. Al modificar el valor de g se ve afectada la pendiente de la función de activación. Para explicar porque se utilizan estas funciones de activación se suele emplear la analogía a la aceleración de un automóvil. Cuando un auto inicia su movimiento necesita una potencia elevada para comenzar a acelerar. Pero al ir tomando velocidad, éste demanda un menor incremento de dicha potencia para mantener la aceleración. Al llegar a altas velocidades, nuevamente un amplio incremento en la potencia es necesario para obtener una pequeña ganancia de velocidad. En resumen, en ambos extremos del rango de aceleración de un automóvil se demanda una mayor potencia para la aceleración que en la mitad de dicho rango.
  • 7. o Función de salida El último componente que una neurona necesita es la función de salida. El valor resultante de esta función es la salida de la neurona i (outi); por ende, la función de salida determina que valor se transfiere a las neuronas vinculadas. Si la función de activación está por debajo de un umbral determinado, ninguna salida se pasa a la neurona subsiguiente. Normalmente, no cualquier valor es permitido como una entrada para una neurona, por lo tanto, los valores de salida están comprendidos en el rango [0, 1] o [-1, 1]. También pueden ser binarios {0, 1} o {-1, 1}. Dos de las funciones de salida más comunes son: 1) Ninguna: este es el tipo de función más sencillo, tal que la salida es la misma que la entrada. Es también llamada función identidad. 2) Binaria: { 1 0 𝑠𝑖 𝑎𝑐𝑡𝑖≥𝜉𝑖 𝑑𝑒 𝑙𝑜 𝑐𝑜𝑛𝑡𝑟𝑎𝑟𝑖𝑜 , 𝑑𝑜𝑛𝑑𝑒 𝜉𝑖 𝑒𝑠 𝑒𝑙 𝑢𝑚𝑏𝑟𝑎𝑙 Topología de las redes neuronales: La topología o arquitectura de una red neuronal consiste en la organización y disposición de las neuronas en la misma, formando capas o agrupaciones de neuronas más o menos alejadas de la entrada y salida de dicha red. En este sentido, los parámetros fundamentales de la red son: el número de capas, el número de neuronas por capa, el grado de conectividad y el tipo de conexiones entre neuronas. • Redes monocapas: En las redes monocapa, se establecen conexiones entre las neuronas que pertenecen a la única capa que constituye la red. Las redes monocapas se utilizan generalmente en tareas relacionadas con lo que se conoce como autoasociación (regenerar información de entrada que se presenta a la red de forma incompleta o distorsionada). • Redes multicapas: Las redes multicapas son aquellas que disponen de un conjunto de neuronas agrupadas en varios (2, 3, etc.) niveles o capas. En estos casos, una forma para distinguir la capa a la que pertenece una neurona, consistiría en fijarse en el origen de las señales que recibe a la entrada y el destino de la señal de salida. Normalmente, todas las neuronas de una capa reciben señales de entrada desde otra capa anterior (la cual está más cerca a la entrada de la red), y envían señales de salida a una capa posterior (que está más cerca a la salida de la red). A estas conexiones se las denomina conexiones hacia adelante o feedforward. Sin embargo, en un gran número de estas redes también existe la posibilidad de conectar la salida de las neuronas de capas posteriores a la entrada de capas anteriores; a estas conexiones se las denomina conexiones hacia atrás o feedback. Estas dos posibilidades permiten distinguir entre dos tipos de redes con múltiples capas: las redes con conexiones hacia adelante o redes feedforward, y las redes que disponen de conexiones tanto hacia adelante como hacia atrás o redes feedforward/feedback.
  • 8. Conexión entre neuronas: La conectividad entre los nodos de una red neuronal está relacionada con la forma en que las salidas de las neuronas están canalizadas para convertirse en entradas de otras neuronas. La señal de salida de un nodo puede ser una entrada de otro elemento de proceso, o incluso ser una entrada de sí mismo (conexión autorrecurrente). Cuando ninguna salida de las neuronas es entrada de neuronas del mismo nivel o de niveles precedentes, la red se describe como de conexión hacia delante. Cuando las salidas pueden ser conectadas como entradas de neuronas de niveles previos o del mismo nivel, incluyéndose ellas mismas, la red es de conexión hacia atrás. Las redes de propagación hacia atrás que tienen lazos cerrados son llamadas: sistemas recurrentes. El nombre de backpropagation resulta de la forma en que el error es propagado hacia atrás a través de la red neuronal, en otras palabras el error se propaga hacia atrás desde la capa de salida. Esto permite que los pesos sobre las conexiones de las neuronas ubicadas en las capas ocultas cambien durante el entrenamiento. El cambio de los pesos en las conexiones de las neuronas además de influir sobre la entrada global, influye en la activación y por consiguiente en la salida de una neurona. Por lo tanto, es de gran utilidad considerar las variaciones de la función activación al modificarse el valor de los pesos. Esto se llama sensibilidad de la función activación, de acuerdo con el cambio en los pesos. Perceptrones: • Simple: El modelo biológico más simple de un perceptrón es una neurona y viceversa. Es decir, el modelo matemático más simple de una neurona es un perceptrón. La neurona es una célula especializada y caracterizada por poseer una cantidad indefinida de canales de entrada llamados dendritas y un canal de salida llamado axón. Las dendritas operan como sensores que recogen información de la región donde se hallan y la derivan hacia el cuerpo de la neurona que reacciona mediante una sinapsis que envía una respuesta hacia el cerebro, esto en el caso de los seres vivos. Una neurona sola y aislada carece de razón de ser. Su labor especializada se torna valiosa en la medida en que se asocia a otras neuronas, formando una red. Normalmente, el axón de una neurona entrega su información como "señal de entrada" a una dendrita de otra neurona y así sucesivamente. El perceptrón que capta la señal en adelante se extiende formando una red de neuronas, sean éstas biológicas o de sustrato semiconductor (compuertas lógicas). El perceptrón usa una matriz para representar las redes neuronales y es un discriminador terciario que traza su entrada x (un vector binario) a un único valor de salida f(x) (un solo valor binario) a través de dicha matriz. 𝑓(𝑥) = { 1 0 𝑠𝑖 𝑤 ∗ 𝑥 − 𝑢 > 0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
  • 9. Donde w es un vector de pesos reales y w*x es el producto escalar (que computa una suma ponderada). u es el “umbral”, el cual representa el grado de inhibición de la neurona, es un término constante que no depende del valor que tome la entrada. El valor de f(x) (0 o 1) se usa para clasificar x como un caso positivo o un caso negativo, en el caso de un problema de clasificación binario. El umbral puede pensarse de como compensar la función de activación, o dando un nivel bajo de actividad a la neurona del rendimiento. La suma ponderada de las entradas debe producir un valor mayor que u para cambiar la neurona de estado 0 a 1. • Adeline: Generalmente se compone de una sola capa de n neuronas (por tanto n valores de salida ) con m entradas con las siguientes características: o Las m entradas representan un vector x de entrada que pertenece al espacio Rm . o Por cada neurona, existe un vector w de pesos sinápticos que indican la fuerza de conexión entre los valores de entrada y la neurona. En la práctica representan la ponderación de cada entrada sobre la neurona. o Una constante 𝜃. o La salida y de la neurona se representa por la función activadora, que se define como 𝑦 = ∑ 𝑥𝑖 𝑤𝑖 𝑛 𝑖=1 + 𝜃 • Multicapa: El perceptrón multicapa es una red neuronal artificial (RNA) formada por múltiples capas, esto le permite resolver problemas que no son linealmente separables, lo cual es la principal limitación del perceptrón (también llamado perceptrón simple). El perceptrón multicapa puede ser totalmente o localmente conectado. En el primer caso cada salida de una neurona de la capa "i" es entrada de todas las neuronas de la capa "i+1", mientras que en el segundo cada neurona de la capa "i" es entrada de una serie de neuronas (región) de la capa "i+1".
  • 10. Compuerta OR Donde Q = A + B Tabla de verdad: Input Output A B A OR B 0 0 0 0 1 1 1 0 1 1 1 1 Del análisis de las tablas de verdad se concluye que la compuerta OR, tendrá siempre en su salida un “0” lógico cuando todas sus entradas sean “0” lógico, sin importar cuantas entradas tenga la compuerta. En los demás casos la salida será un “1” lógico.