Este documento describe las funciones de activación Poslin y Purelin utilizadas en redes neuronales artificiales. Poslin devuelve la salida si es mayor o igual a cero, y cero si es menor que cero. Purelin devuelve la salida igual a la entrada en una región lineal. El documento también explica conceptos como funciones de transferencia, aprendizaje supervisado y no supervisado, y provee un ejemplo práctico utilizando Matlab.
Este documento describe el uso de funciones de activación logsig y tansig en redes neuronales artificiales. Explica las características de las redes neuronales, incluyendo arquitecturas, aprendizaje y entrenamiento. Luego detalla las funciones logsig y tansig, que mapean valores de entrada continua a valores de salida entre 0 y 1 o -1 y 1 respectivamente. Finalmente, presenta un ejemplo de clasificación de cáncer de mama usando estas funciones en una red neuronal.
Las redes monocapa se utilizan típicamente para regenerar información incompleta o distorsionada mediante conexiones laterales como la red de Hopfield, BRAIN STATE IN A BOX y máquinas estocásticas de Boltzmann. Las redes multicapa constan de múltiples capas de neuronas con conexiones hacia adelante y hacia atrás y se usan para clasificación e identificación de patrones, incluyendo perceptrones, Adalines, Madalines y backpropagation.
Diseño de Redes Neuronales Multicapa y EntrenamientoESCOM
Este documento describe los conceptos básicos de diseño y entrenamiento de redes neuronales multicapa. Explica que las RNA son útiles para problemas que involucran reconocimiento de patrones, procesamiento de señales y control de sistemas complejos cuando los métodos convencionales no funcionan bien. También cubre temas como la selección del tipo de red, las entradas, salidas, funciones de transferencia, número de capas ocultas y neuronas, y el proceso de entrenamiento.
La carta de Smith fue desarrollada por Phillip H. Smith en 1939 para simplificar el análisis de líneas de transmisión. Representa una impedancia compleja normalizada en coordenadas polares, con círculos de resistencia y reactancia constantes. El módulo del coeficiente de reflexión es la distancia al origen, y su fase es el ángulo respecto al eje real. La carta permite determinar la impedancia de entrada a una línea conocida su longitud y carga.
Este documento describe los conceptos clave detrás de los mapas de memoria de los sistemas microprocesados. Explica que un mapa de memoria representa la organización y asignación de direcciones de las diferentes unidades de memoria y entrada/salida para adaptarse al ancho del bus de datos y al espacio direccionable del procesador. Además, proporciona ejemplos detallados del diseño de mapas de memoria para sistemas basados en el microprocesador 8085 de Intel.
El documento describe diferentes métodos para generar números pseudoaleatorios, incluyendo métodos manuales, tablas de números aleatorios, y métodos aritméticos como cuadrados medios y congruenciales. Explica que los números pseudoaleatorios deben distribuirse uniformemente, ser estadísticamente independientes y tener media de 1/2 y varianza de 1/12 para considerarse aleatorios.
Este documento describe varios métodos de optimización como el método de Fletcher-Reeves, el método de Fletcher-Powell, el método de Fibonacci y el método de Kuhn Tucker. Explica brevemente cómo funciona cada método y provee ejemplos para ilustrarlos. El objetivo general es preparar al lector con herramientas para abordar y resolver problemas de optimización.
Ejercicios de Multiplexores y decodificadoresBertha Vega
El documento contiene la solución a varios problemas relacionados con decodificadores y multiplexores. En el Problema 1, se implementa la función f(a,b,c)=Σm(0,3,6) utilizando decodificadores con diferentes configuraciones de salidas y puertas lógicas. Los Problemas 2-4 describen la implementación de funciones utilizando multiplexores de 1, 2 o 4 canales. El Problema 5 analiza circuitos propuestos en un boletín anterior.
Este documento describe el uso de funciones de activación logsig y tansig en redes neuronales artificiales. Explica las características de las redes neuronales, incluyendo arquitecturas, aprendizaje y entrenamiento. Luego detalla las funciones logsig y tansig, que mapean valores de entrada continua a valores de salida entre 0 y 1 o -1 y 1 respectivamente. Finalmente, presenta un ejemplo de clasificación de cáncer de mama usando estas funciones en una red neuronal.
Las redes monocapa se utilizan típicamente para regenerar información incompleta o distorsionada mediante conexiones laterales como la red de Hopfield, BRAIN STATE IN A BOX y máquinas estocásticas de Boltzmann. Las redes multicapa constan de múltiples capas de neuronas con conexiones hacia adelante y hacia atrás y se usan para clasificación e identificación de patrones, incluyendo perceptrones, Adalines, Madalines y backpropagation.
Diseño de Redes Neuronales Multicapa y EntrenamientoESCOM
Este documento describe los conceptos básicos de diseño y entrenamiento de redes neuronales multicapa. Explica que las RNA son útiles para problemas que involucran reconocimiento de patrones, procesamiento de señales y control de sistemas complejos cuando los métodos convencionales no funcionan bien. También cubre temas como la selección del tipo de red, las entradas, salidas, funciones de transferencia, número de capas ocultas y neuronas, y el proceso de entrenamiento.
La carta de Smith fue desarrollada por Phillip H. Smith en 1939 para simplificar el análisis de líneas de transmisión. Representa una impedancia compleja normalizada en coordenadas polares, con círculos de resistencia y reactancia constantes. El módulo del coeficiente de reflexión es la distancia al origen, y su fase es el ángulo respecto al eje real. La carta permite determinar la impedancia de entrada a una línea conocida su longitud y carga.
Este documento describe los conceptos clave detrás de los mapas de memoria de los sistemas microprocesados. Explica que un mapa de memoria representa la organización y asignación de direcciones de las diferentes unidades de memoria y entrada/salida para adaptarse al ancho del bus de datos y al espacio direccionable del procesador. Además, proporciona ejemplos detallados del diseño de mapas de memoria para sistemas basados en el microprocesador 8085 de Intel.
El documento describe diferentes métodos para generar números pseudoaleatorios, incluyendo métodos manuales, tablas de números aleatorios, y métodos aritméticos como cuadrados medios y congruenciales. Explica que los números pseudoaleatorios deben distribuirse uniformemente, ser estadísticamente independientes y tener media de 1/2 y varianza de 1/12 para considerarse aleatorios.
Este documento describe varios métodos de optimización como el método de Fletcher-Reeves, el método de Fletcher-Powell, el método de Fibonacci y el método de Kuhn Tucker. Explica brevemente cómo funciona cada método y provee ejemplos para ilustrarlos. El objetivo general es preparar al lector con herramientas para abordar y resolver problemas de optimización.
Ejercicios de Multiplexores y decodificadoresBertha Vega
El documento contiene la solución a varios problemas relacionados con decodificadores y multiplexores. En el Problema 1, se implementa la función f(a,b,c)=Σm(0,3,6) utilizando decodificadores con diferentes configuraciones de salidas y puertas lógicas. Los Problemas 2-4 describen la implementación de funciones utilizando multiplexores de 1, 2 o 4 canales. El Problema 5 analiza circuitos propuestos en un boletín anterior.
Circuitos secuenciales sincronos y asincronosAlexa Ramirez
Este documento describe los aspectos básicos de los circuitos secuenciales síncronos. Explica que estos circuitos utilizan elementos de memoria como flip-flops junto con una señal de reloj para controlar los cambios de estado. También describe cómo estos circuitos se pueden representar mediante autómatas de Mealy y Moore y los pasos para analizar y sintetizar circuitos secuenciales síncronos a partir de una especificación.
El documento explica los conceptos básicos de la modulación. La modulación consiste en colocar una señal de baja frecuencia sobre una señal de alta frecuencia. Esto permite transmitir más información de forma simultánea por el mismo canal y proteger la información de interferencias. Existen diferentes tipos de modulación como la modulación de amplitud, frecuencia y fase.
Instalacion y mantenimiento de circuitos de transformadoresJuan Simon
Este documento presenta información sobre la instalación y mantenimiento de circuitos de transformadores. Explica conceptos básicos sobre transformadores monofásicos y trifásicos, sus partes, tipos, conexiones y mantenimiento. También incluye secciones sobre bancos de transformadores, estaciones de transformación, autotransformadores y pruebas eléctricas realizadas a transformadores. El objetivo es proporcionar conocimientos para instalar y dar mantenimiento a equipos y circuitos de transformadores de manera segura.
Este documento presenta una conferencia sobre la capacidad de canal en la cual se discuten los siguientes temas:
1) Se define un canal discreto sin memoria (DMC) y se explican sus características como la matriz de probabilidades de transición.
2) Se introducen conceptos como la entropía condicional, la información mutua y la capacidad de canal.
3) Se calcula la capacidad de un canal simétrico binario como ejemplo y se explica que depende de la probabilidad de error p.
Este documento presenta un capítulo sobre señales y sistemas. Introduce conceptos clave como señales periódicas y no periódicas, señales de potencia y energía, y transformaciones de la variable independiente. También clasifica sistemas en tiempo continuo y discreto, con y sin memoria, causales, estables, invariantes en el tiempo y lineales. Finalmente, discute la interconexión de sistemas.
Este documento describe el transformador ideal, el cual tiene un acoplamiento perfecto entre sus bobinas y un núcleo de alta permeabilidad que provoca que el flujo enlace todas las vueltas. Explica que la relación de vueltas determina si es un transformador de aislamiento, elevador o reductor, y que la potencia de entrada es igual a la de salida. También presenta ejemplos para ilustrar conceptos como la relación de vueltas y la impedancia reflejada.
El documento describe el diseño de un sumador-restador binario mediante la utilización de sub-bloques funcionales como el medio sumador y el sumador completo de un bit. Explica cómo estos bloques se pueden combinar para realizar sumas de números de varios bits, incluyendo un ejemplo de sumador de 3 bits.
Este documento presenta información sobre diagramas de flujo de señales y diagramas de bloques. Explica que los diagramas de flujo de señales consisten en nodos y ramas que representan variables y factores de multiplicación en un sistema. Los diagramas de bloques representan sistemas mediante bloques que muestran entradas, salidas y relaciones. También describe la simbología, propiedades, operaciones y construcción de estos diagramas, así como la fórmula de ganancia de Mason y funciones de transferencia.
Este documento presenta una guía de laboratorio sobre el análisis y simulación de sistemas de control digital usando Matlab/Simulink. El objetivo es deducir la función de transferencia de un motor de CD controlado por armadura, obtener la función de transferencia de un controlador de posición angular con este motor, y analizar y simular el comportamiento de un sistema de control digital empleando Matlab. Se explican los conceptos teóricos y se detallan los pasos a seguir en Matlab para modelar el sistema, analizar su estabilidad y respuesta, e implementar
El documento describe el perceptrón multicapa, una red neuronal que puede resolver problemas de clasificación no linealmente separables. Explica que un perceptrón de 3 capas puede formar cualquier región convexa en el espacio de entrada, mientras que un perceptrón de 4 capas puede generar regiones de decisión arbitrariamente complejas partiéndolas en pequeños hipercubos. Finalmente, indica que en teoría un perceptrón de 4 capas puede resolver una gran variedad de problemas de clasificación siempre que las entradas sean analógicas y la salida digital.
Este documento describe una práctica de laboratorio sobre la medición de ondas estacionarias en antenas dipolo. En la práctica se midió la potencia incidente y reflejada de antenas dipolo de 20 y 40 metros para comunicación con Costa Rica. Las mediciones produjeron gráficas de frecuencia contra coeficiente de onda estacionaria que muestran la frecuencia de resonancia de cada antena. Adicionalmente, se midió la impedancia, frecuencia y coeficiente de onda estacionaria de varias antenas usadas en el curso.
Este documento describe los autómatas de pila y las gramáticas de Chomsky. Explica que los autómatas de pila son una extensión de los autómatas finitos deterministas que incluyen una memoria en forma de pila. También describe las cuatro clases principales de gramáticas de Chomsky - Tipo 0, 1, 2 y 3 - ordenadas de más expresiva a menos expresiva. Finalmente, resume que mientras que el lenguaje humano se ajusta a una gramática de Tipo 0, las expresiones regulares solo pueden describir gramáticas de Tipo 3
Este documento describe el desarrollo de un semáforo utilizando un circuito lógico secuencial con un temporizador 555, flip-flops JK 74LS73 y diodos LED en un protoboard. Explica los componentes del circuito, como el temporizador 555, los flip-flops JK y los diodos LED, y describe el funcionamiento del semáforo a través de una tabla de estados y mapas de Karnaugh. También incluye un marco teórico sobre circuitos secuenciales, biestables y tipos de basculas.
Este documento explica los conceptos de multiplexación por división de tiempo (TDM) y cómo se utiliza para enviar varias señales digitales a través de un único enlace. Explica los tipos de multiplexación TDM síncrona y cómo se gestionan las tasas de bit variables entre canales de entrada. También describe cómo se utiliza la multiplexación TDM en telefonía móvil para permitir que varios usuarios compartan simultáneamente un ancho de banda mediante la asignación de ranuras de tiempo.
Este documento describe el sistema de colas M/M/C, donde las llegadas siguen un proceso de Poisson, los tiempos de servicio se distribuyen exponencialmente, y hay C servidores. Explica que la intensidad de tráfico debe ser menor que 1/C para alcanzar el estado estable, y presenta una aplicación numérica de un almacén con 2 cajeras.
Este documento describe los principios fundamentales de la conversión de señales analógicas a digitales. Explica que un convertidor analógico a digital toma una señal de entrada analógica y genera un código digital de salida que representa la magnitud de la entrada. Luego describe los procesos clave involucrados: muestreo, cuantificación y codificación. El muestreo convierte una señal continua en una señal discreta en el tiempo mediante la toma de muestras a intervalos regulares. La cuantificación asigna valores discret
Los sistemas digitales son importantes porque pueden procesar, transmitir y almacenar información representada mediante combinaciones de solo dos valores, 0 y 1. Estos sistemas manipulan cantidades físicas o información en forma digital, lo que significa que solo pueden tomar valores discretos. Los sistemas digitales incluyen dispositivos electrónicos, mecánicos, magnéticos o neumáticos diseñados para procesar señales digitales y son cruciales en la tecnología moderna como la computación y el control automático.
Este documento describe la prueba de huecos o de distancia, la cual evalúa números pseudoaleatorios contando la distancia entre ocurrencias sucesivas de un mismo dígito. Explica que la probabilidad de cada tamaño de hueco se obtiene de ecuaciones teóricas, y que agrupar probabilidades para valores mayores o iguales a n permite comparar frecuencias esperadas y observadas para determinar si los números pasan la prueba.
Este documento describe cómo resolver ecuaciones lineales utilizando redes neuronales con funciones de activación poslin y purelin. Explica brevemente conceptos clave como redes neuronales, perceptrones y funciones de activación. Luego muestra un ejemplo numérico de cómo usar una red neuronal con función de activación poslin para clasificar datos de entrada y output proporcionados.
Circuitos secuenciales sincronos y asincronosAlexa Ramirez
Este documento describe los aspectos básicos de los circuitos secuenciales síncronos. Explica que estos circuitos utilizan elementos de memoria como flip-flops junto con una señal de reloj para controlar los cambios de estado. También describe cómo estos circuitos se pueden representar mediante autómatas de Mealy y Moore y los pasos para analizar y sintetizar circuitos secuenciales síncronos a partir de una especificación.
El documento explica los conceptos básicos de la modulación. La modulación consiste en colocar una señal de baja frecuencia sobre una señal de alta frecuencia. Esto permite transmitir más información de forma simultánea por el mismo canal y proteger la información de interferencias. Existen diferentes tipos de modulación como la modulación de amplitud, frecuencia y fase.
Instalacion y mantenimiento de circuitos de transformadoresJuan Simon
Este documento presenta información sobre la instalación y mantenimiento de circuitos de transformadores. Explica conceptos básicos sobre transformadores monofásicos y trifásicos, sus partes, tipos, conexiones y mantenimiento. También incluye secciones sobre bancos de transformadores, estaciones de transformación, autotransformadores y pruebas eléctricas realizadas a transformadores. El objetivo es proporcionar conocimientos para instalar y dar mantenimiento a equipos y circuitos de transformadores de manera segura.
Este documento presenta una conferencia sobre la capacidad de canal en la cual se discuten los siguientes temas:
1) Se define un canal discreto sin memoria (DMC) y se explican sus características como la matriz de probabilidades de transición.
2) Se introducen conceptos como la entropía condicional, la información mutua y la capacidad de canal.
3) Se calcula la capacidad de un canal simétrico binario como ejemplo y se explica que depende de la probabilidad de error p.
Este documento presenta un capítulo sobre señales y sistemas. Introduce conceptos clave como señales periódicas y no periódicas, señales de potencia y energía, y transformaciones de la variable independiente. También clasifica sistemas en tiempo continuo y discreto, con y sin memoria, causales, estables, invariantes en el tiempo y lineales. Finalmente, discute la interconexión de sistemas.
Este documento describe el transformador ideal, el cual tiene un acoplamiento perfecto entre sus bobinas y un núcleo de alta permeabilidad que provoca que el flujo enlace todas las vueltas. Explica que la relación de vueltas determina si es un transformador de aislamiento, elevador o reductor, y que la potencia de entrada es igual a la de salida. También presenta ejemplos para ilustrar conceptos como la relación de vueltas y la impedancia reflejada.
El documento describe el diseño de un sumador-restador binario mediante la utilización de sub-bloques funcionales como el medio sumador y el sumador completo de un bit. Explica cómo estos bloques se pueden combinar para realizar sumas de números de varios bits, incluyendo un ejemplo de sumador de 3 bits.
Este documento presenta información sobre diagramas de flujo de señales y diagramas de bloques. Explica que los diagramas de flujo de señales consisten en nodos y ramas que representan variables y factores de multiplicación en un sistema. Los diagramas de bloques representan sistemas mediante bloques que muestran entradas, salidas y relaciones. También describe la simbología, propiedades, operaciones y construcción de estos diagramas, así como la fórmula de ganancia de Mason y funciones de transferencia.
Este documento presenta una guía de laboratorio sobre el análisis y simulación de sistemas de control digital usando Matlab/Simulink. El objetivo es deducir la función de transferencia de un motor de CD controlado por armadura, obtener la función de transferencia de un controlador de posición angular con este motor, y analizar y simular el comportamiento de un sistema de control digital empleando Matlab. Se explican los conceptos teóricos y se detallan los pasos a seguir en Matlab para modelar el sistema, analizar su estabilidad y respuesta, e implementar
El documento describe el perceptrón multicapa, una red neuronal que puede resolver problemas de clasificación no linealmente separables. Explica que un perceptrón de 3 capas puede formar cualquier región convexa en el espacio de entrada, mientras que un perceptrón de 4 capas puede generar regiones de decisión arbitrariamente complejas partiéndolas en pequeños hipercubos. Finalmente, indica que en teoría un perceptrón de 4 capas puede resolver una gran variedad de problemas de clasificación siempre que las entradas sean analógicas y la salida digital.
Este documento describe una práctica de laboratorio sobre la medición de ondas estacionarias en antenas dipolo. En la práctica se midió la potencia incidente y reflejada de antenas dipolo de 20 y 40 metros para comunicación con Costa Rica. Las mediciones produjeron gráficas de frecuencia contra coeficiente de onda estacionaria que muestran la frecuencia de resonancia de cada antena. Adicionalmente, se midió la impedancia, frecuencia y coeficiente de onda estacionaria de varias antenas usadas en el curso.
Este documento describe los autómatas de pila y las gramáticas de Chomsky. Explica que los autómatas de pila son una extensión de los autómatas finitos deterministas que incluyen una memoria en forma de pila. También describe las cuatro clases principales de gramáticas de Chomsky - Tipo 0, 1, 2 y 3 - ordenadas de más expresiva a menos expresiva. Finalmente, resume que mientras que el lenguaje humano se ajusta a una gramática de Tipo 0, las expresiones regulares solo pueden describir gramáticas de Tipo 3
Este documento describe el desarrollo de un semáforo utilizando un circuito lógico secuencial con un temporizador 555, flip-flops JK 74LS73 y diodos LED en un protoboard. Explica los componentes del circuito, como el temporizador 555, los flip-flops JK y los diodos LED, y describe el funcionamiento del semáforo a través de una tabla de estados y mapas de Karnaugh. También incluye un marco teórico sobre circuitos secuenciales, biestables y tipos de basculas.
Este documento explica los conceptos de multiplexación por división de tiempo (TDM) y cómo se utiliza para enviar varias señales digitales a través de un único enlace. Explica los tipos de multiplexación TDM síncrona y cómo se gestionan las tasas de bit variables entre canales de entrada. También describe cómo se utiliza la multiplexación TDM en telefonía móvil para permitir que varios usuarios compartan simultáneamente un ancho de banda mediante la asignación de ranuras de tiempo.
Este documento describe el sistema de colas M/M/C, donde las llegadas siguen un proceso de Poisson, los tiempos de servicio se distribuyen exponencialmente, y hay C servidores. Explica que la intensidad de tráfico debe ser menor que 1/C para alcanzar el estado estable, y presenta una aplicación numérica de un almacén con 2 cajeras.
Este documento describe los principios fundamentales de la conversión de señales analógicas a digitales. Explica que un convertidor analógico a digital toma una señal de entrada analógica y genera un código digital de salida que representa la magnitud de la entrada. Luego describe los procesos clave involucrados: muestreo, cuantificación y codificación. El muestreo convierte una señal continua en una señal discreta en el tiempo mediante la toma de muestras a intervalos regulares. La cuantificación asigna valores discret
Los sistemas digitales son importantes porque pueden procesar, transmitir y almacenar información representada mediante combinaciones de solo dos valores, 0 y 1. Estos sistemas manipulan cantidades físicas o información en forma digital, lo que significa que solo pueden tomar valores discretos. Los sistemas digitales incluyen dispositivos electrónicos, mecánicos, magnéticos o neumáticos diseñados para procesar señales digitales y son cruciales en la tecnología moderna como la computación y el control automático.
Este documento describe la prueba de huecos o de distancia, la cual evalúa números pseudoaleatorios contando la distancia entre ocurrencias sucesivas de un mismo dígito. Explica que la probabilidad de cada tamaño de hueco se obtiene de ecuaciones teóricas, y que agrupar probabilidades para valores mayores o iguales a n permite comparar frecuencias esperadas y observadas para determinar si los números pasan la prueba.
Este documento describe cómo resolver ecuaciones lineales utilizando redes neuronales con funciones de activación poslin y purelin. Explica brevemente conceptos clave como redes neuronales, perceptrones y funciones de activación. Luego muestra un ejemplo numérico de cómo usar una red neuronal con función de activación poslin para clasificar datos de entrada y output proporcionados.
Este documento describe el uso de las funciones de activación purelin y poslin en redes neuronales. La función purelin devuelve directamente el valor de entrada, mientras que poslin devuelve 0 si la entrada es negativa y el valor de entrada si es positiva. El documento presenta ejemplos de redes neuronales que usan estas funciones para modificar un voltaje de entrada y variar la velocidad de un ventilador.
Este documento describe dos funciones de activación comúnmente usadas en redes neuronales artificiales: la función logarítmica sigmoidea (logsig) y la función tangente sigmoidal (tansig). La función logsig produce salidas entre 0 y 1, mientras que la función tansig produce salidas entre -1 y 1. El documento también incluye ejemplos de cómo calcular las salidas de una neurona usando estas funciones, y describe una interfaz gráfica creada en Matlab para entrenar una red neuronal y seleccionar entre estas dos funciones.
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESESCOM
Este documento proporciona una introducción a las redes neuronales artificiales, incluyendo la notación y modelos de neuronas individuales, funciones de transferencia, arquitecturas como redes de capa única y multicapa, y mecanismos de aprendizaje supervisado y no supervisado. Explica conceptos clave como aprendizaje por corrección de error, aprendizaje competitivo, y diferentes tipos de redes como feedforward, recurrentes y competitivas.
Este documento describe diferentes tipos de redes neuronales artificiales, incluyendo su estructura, funcionamiento y aplicaciones. Comienza explicando el modelo de una neurona artificial y cómo se inspiran en el cerebro biológico. Luego describe redes como Perceptrón, Adaline, Backpropagation, Kohonen y Hopfield, detallando sus características clave como la topología, aprendizaje y usos comunes. Finalmente, resume la evolución histórica del campo y cómo continúa desarrollándose.
1) La regla de Hebb incrementa el peso entre la entrada y salida de una neurona en proporción a su producto, permitiendo el aprendizaje asociativo no supervisado.
2) La regla de Hebb con degradación mejora a la anterior al degradar los pesos para evitar que crezcan sin límite.
3) La regla INSTAR considera la razón de aprendizaje igual a la de degradación, minimizando el olvido y proporcionando vectores de pesos normalizados.
Este documento describe diferentes tipos de aprendizaje asociativo, incluyendo el condicionamiento clásico de Pavlov, la regla de Hebb, la regla de Hebb con degradación, la regla INSTAR, la regla de Kohonen y la regla OUTSTAR. Explica cómo estas reglas de aprendizaje neuronal modifican los pesos sinápticos para formar asociaciones entre estímulos y respuestas.
Este documento presenta una introducción a las redes neuronales artificiales. Explica que las redes neuronales artificiales se inspiran en el sistema nervioso biológico y procesan información de manera paralela y distribuida, aprendiendo de su entorno. Describe los diferentes tipos de redes neuronales como perceptrones multicapa y redes recurrentes, y los métodos para entrenarlas, incluyendo algoritmos de aprendizaje supervisado como backpropagation y algoritmos genéticos. El documento también cubre aplicaciones generales de las redes neuronales y concluye
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Sheyli Patiño
Este documento propone el uso de redes neuronales artificiales para resolver problemas linealmente separables como la clasificación de vehículos y la determinación de los movimientos de un robot, utilizando las funciones de transferencia Hardlim y Hardlims. Describe la simulación de estas redes neuronales artificiales desarrolladas en Matlab para dar solución a estos problemas.
Este documento trata sobre las funciones hardlim y hardlims y su uso para clasificar personas en un entorno académico. Explica la historia, características y estructura de las neuronas artificiales, así como las funciones de activación hardlim y hardlims. Luego presenta un ejemplo práctico donde se usa MATLAB para clasificar personas en base a su ropa y edad usando las funciones hardlim y hardlims.
Este documento describe dos funciones de activación comúnmente usadas en redes neuronales artificiales: la función logarítmica sigmoidea (logsig) y la función tangente sigmoidal (tansig). La función logsig produce salidas entre 0 y 1, mientras que la función tansig produce salidas entre -1 y 1. El documento también presenta ejemplos del uso de estas funciones y una interfaz gráfica desarrollada en Matlab para crear y entrenar una red neuronal usando logsig o tansig.
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...Henry Quezada
Este documento describe el uso de funciones logsig y tansig en redes neuronales artificiales para resolver problemas relacionados con la fertilidad masculina en Matlab. Presenta conceptos básicos de redes neuronales y describe ejemplos de reconocimiento de dígitos y letras usando estas funciones de activación. Explica cómo el entrenamiento mejora la precisión de la red y muestra gráficas de los resultados.
Este documento describe la implementación de las funciones de transferencia satlin y satlins en una red neuronal feedforward utilizando Matlab. Se define la red neuronal, incluyendo neuronas, entradas, capas y funciones de transferencia. Luego, se entrena la red utilizando algoritmos como retropropagación y descenso de gradiente por lotes con momentun para minimizar el error. Finalmente, se simula la red neuronal para evaluar su desempeño.
Redes neuronales Luis Lozano CI 22.840.519lozanolc
Las redes neuronales artificiales RNA buscan imitar el comportamiento de las redes neuronales de las personas, y aplicarlas en las computadoras, esta presentación es una introducción a esta rama de la Inteligencia Artificial que cada dia toma mas importancia en el desarrollo de computadores de 6ta generación
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...Juan Carlos Gonzalez Ortiz
En el presente artículo se estudian las funciones de activación Satlin y Satlins, haciendo un mayor énfasis en la función Satlin porque es parte de la estructura del modelo de red neuronal Hopfield.
Matlab es utilizada para implementar la red de Hopfield que permiten el reconociemiento de un patrón incompleto que ha sido ingresado, y se relaciona con el patrón almacenado en la memoria y lo asocia con el que mas se parezca.
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabAna Mora
Redes Neuronales: Funciones de Activación
Hardlim para simular un circuito con sensor de
movimiento y Hardlims para determinar si una
persona es diabética en Matlab
Este documento describe cómo resolver ecuaciones lineales utilizando redes neuronales con funciones de activación poslin y purelin. Explica brevemente conceptos clave como redes neuronales, perceptrones y funciones de activación. Luego muestra un ejemplo numérico de cómo usar una red neuronal con función de activación poslin para clasificar datos de entrada y output.
El documento divide el razonamiento basado en casos en 4 procesos: recuperar casos similares, reutilizar la información de casos pasados, revisar la solución propuesta, y retener la experiencia para futuros problemas. Explica que al enfrentar un nuevo problema, lo primero es recordar casos relevantes previos y dar una solución basada en ellos.
Este documento describe cómo resolver ecuaciones lineales utilizando redes neuronales con funciones de activación poslin y purelin. Explica brevemente conceptos clave como redes neuronales, perceptrones y funciones de activación. Luego muestra un ejemplo numérico de cómo usar una red neuronal con función de activación poslin para clasificar datos de entrada y output proporcionados.
Las redes neuronales artificiales se inspiran en el funcionamiento del cerebro humano y tienen varias ventajas como el aprendizaje adaptativo, la auto-organización, la tolerancia a fallos y la operación en tiempo real. Una red neuronal típica consta de una capa de entrada, una o más capas ocultas y una capa de salida, donde la información pasa a través de las neuronas y sus conexiones sinápticas mediante funciones de activación.
Las redes neuronales artificiales se inspiran en el funcionamiento del cerebro humano y tienen varias ventajas como el aprendizaje adaptativo, la auto-organización, la tolerancia a fallos y la operación en tiempo real. Una red neuronal típica consta de una capa de entrada, una o más capas ocultas y una capa de salida, donde la información pasa a través de las neuronas y sus conexiones sinápticas mediante funciones de activación.
Las redes neuronales artificiales (RNA) son sistemas inspirados en el cerebro que aprenden a través de ejemplos. Una RNA está compuesta de unidades llamadas neuronas interconectadas que reciben entradas, las procesan y emiten una salida. Las RNA se usan para problemas de clasificación y reconocimiento de patrones debido a su capacidad de aprendizaje, flexibilidad y respuesta en tiempo real.
El documento describe el modelo de neurona de McCulloch-Pitts, que fue el primer modelo de red neuronal moderno. Una neurona de McCulloch-Pitts realiza una suma ponderada de las entradas, seguida de una función no lineal, para determinar su salida. Las redes neuronales de McCulloch-Pitts pueden aprender ajustando los pesos de las conexiones entre neuronas. Aunque simple, este modelo sentó las bases para el desarrollo de redes neuronales más complejas y capacitadas para tareas más avanzadas.
Existen muchos métodos o algoritmos para entrenar perceptron multicapas, sin embargo en este caso se mostrará la optimización de las respuestas al intentar entrenar una RNA Multicapa empleando el algoritmo de Simulated Annealing
Este documento describe el perceptrón simple y multicapa. El perceptrón simple es un modelo unidireccional con una capa de entrada y una de salida binaria. Aprende de forma supervisada pero tiene limitaciones como no poder aprender la función XOR. El perceptrón multicapa tiene múltiples capas ocultas y puede aproximar cualquier función. Aprende mediante retropropagación del error para ajustar los pesos entre las 300 neuronas y 20.000 conexiones.
El documento describe el uso de redes neuronales para modelar la frecuencia fundamental mediante síntesis de voz. Explica que las redes neuronales son métodos de clasificación que imitan el funcionamiento del cerebro y aprenden modificando los pesos de las conexiones entre neuronas. Luego, detalla los tipos de redes neuronales, incluyendo el perceptrón multicapa, y describe cómo funcionan las neuronas artificiales, la topología de las redes y los métodos de entrenamiento.
El documento describe la implementación de una neurona artificial tipo perceptrón en un dispositivo móvil con sistema operativo Android. Explica el funcionamiento básico de las neuronas biológicas y cómo el modelo de perceptrón de Rosenblatt simula este funcionamiento. Luego detalla el diseño de la neurona computacional con entradas, pesos y una función para calcular el umbral, así como el algoritmo de entrenamiento para ajustar los pesos. Finalmente, presenta cómo se programó la neurona en Android aprovechando su arquitectura basada en Linux y Java.
Similar a Función de Activación POSLIN y PURELIN (20)
Equipo 4. Mezclado de Polímeros quimica de polimeros.pptxangiepalacios6170
Presentacion de mezclado de polimeros, de la materia de Quimica de Polímeros ultima unidad. Se describe la definición y los tipos de mezclado asi como los aditivos usados para mejorar las propiedades de las mezclas de polimeros
Aletas de Transferencia de Calor o Superficies Extendidas.pdfJuanAlbertoLugoMadri
Se hablara de las aletas de transferencia de calor y superficies extendidas ya que son muy importantes debido a que son estructuras diseñadas para aumentar el calor entre un fluido, un sólido y en qué sitio son utilizados estos materiales en la vida cotidiana
1. POSLIN Y PURELIN
Faicán Rosa
Ingeniería en Sistemas
Loayza Freddy
Ingeniería en Sistemas
La utlización de las Funciones de Transferencia dependerá del problema que se trata de resolver
mediante la utilización de la red neuronal, tener un conocimiento claro del funcionamiento de
cada una de estas funciones así como también de los tipos de entrenamiento y los adecuados
para aplicar en la resolución de problemas debido a que existen varias funciones.
Introducción
Presentar soluciones a poblemas de la vida diaria como
lo hace el cerebro humano es una solución que se plantea
dentro del creciente avance tecnológico.
Los ordenadores son capaces de realizar 100 millones de
operaciones en coma flotante por segundo y son capaces de
entender el significado de las formas visuales o de distinguir
entre distintas clases de objetos.
Los sistemas de cómputo son exitosos en la resolución
de problemas matemáticos o científicos, en la creación,
manipulación y mantenimiento de bases de datos, en
comunicaciones electrónicas, en el procesamiento de textos,
gráficos y auto edición, incluso en funciones de control de
electrodomésticos, haciéndolos más eficientes y fáciles de
usar, pero definitivamente tienen una gran incapacidad para
interpretar el mundo.
Esta dificultad de los sistemas de computo ha hecho
que un gran número de investigadores centre su atención
en el desarrollo de nuevos sistemas de tratamiento de la
información, que permitan solucionar problemas cotidianos,
tal como lo hace el cerebro humano.
Redes Neuronales - Historia
Figura 1. Neurona
Fuente: Introducción a Las redes neuronales
Fue en 1943, cuando Warren McCulloch y Walter Pitts
propusieron el clásico modelo de neurona en el que se
basan las redes neuronales actuales. En 1949 en el libro The
Organization of Behavior, se presenta la regla de aprnedizaje
de Donald Hebb.(Tomás, s.f.)
En 1956, se da la primera conferencia sobre Inteligencia
Artificial (IA). se presenta la primera simulación de una
red neuronal, aunque aún no se podían interpretar los datos
resultantes.
En 1957, Frank Rosenblatt presentó el Perceptrón,
una red neuronal con aprendizaje supervisado cuya regla
de aprendizaje era una modificación de la propuesta por
Hebb. Trabaja con patrones de entrada binarios, y su
funcionamiento se realiza en dos fases: una de entradas y la
salidas deseadas.
En 1959, Widrow publica una teoría sobre la adaptación
neuronal y modelos inspirados en esa teoría, el Adaline
(Adaptative Linear Neuron) y el Madaline (Multiple
Adaline) estos modelos fueron usados por primera ves en un
problema real.(Villasana, s.f.)
En los 60, se proponen los modelos supervisados Adaline
Y Madaline.
En 1962, Rosemblatt publica los resultados de un gran
proyecto de investigación, el desarrollo del Perceptrón, un
identificador de patrones ópticos binarios, y salida binaria.
Las capacidades del Perceptrón se extendieron al desarrollar
la regla de aprendizaje Delta, que permitía emplear señales
continuas de entrada y salida.
Stephen Grossberg realiza el proyecto Avalancha el cual
consiste en elementos discretos con actividad que varía
con el tiempo, el cual permitió en su momento el resolver
actividades como reconocimiento continuo del habla y
aprendizaje del movimiento de los dedos de un robot.(Carlos
Pérez Ruiz, s.f.)
Actualmente existen numerosos trabajos que se publican
con cierta frecuencia e igualmente se lanzan al mercado pro-
2. Loaiza Freddy- Faicán Rosa Tutor: Ing Henry Paz
ductos nuevos tanto de hardware como de software, sobre
todo para simulación y reconocimiento de patrones.
Redes Neuronales Artificiales
Modelos matemáticos, computacionales, artificiales, idea-
les de una red neuronal empleados en estadística, psicología
cognitiva e inteligencia artificial.(Ledesma, s.f.)
Elementos
Figura 2. Elementos de una red neuronales
Fuente: Universidad de Santa María
Redes Lineales
Las caracteristicas del perceptrón son similiares a las
redes lineales, pero su función de transferencia es lineal, no
se limita a las salidas entre 0 y 1.
La clasificación lineal y el Filtramiento Adaptativo se
constituyen como las aplicaciones mas comunes dentro de
las redes lineales.(Navarro, s.f.)
Función de Transferencia
Las entradas a la red serán presentadas en el vector p, que
para el caso de una sola neurona contiene un solo elemento,
w sigue representando los pesos y la nueva entrada b es una
ganancia que refuerza la salida del sumador n, la cual es
la salida neta de la red; la salida total está determinada por
la función de transferencia , la cual puede ser una función
lineal o no lineal de n, y que es escogida dependiendo de
las especificaciones del problema que la neurona tenga que
resolver; aunque las RNA se inspiren en modelos biológicos
no existe ninguna limitación para realizar modificaciones en
las funciones de salida.(Gómez, s.f.)
Si la última capa de la Red Backpropagation tiene
neuronas con funciones sigmoides entonces las salidas de la
Figura 3. Neurona
Fuente: Universidad Tecnológica Nacional
red estarán limitadas en un rango pequeño.
Pero si se utiliza funciones lineales entonces las salidas de
la red podrán tomar valores diferentes.(Palacios, Junio 2000)
Funcion de Activación
Es quizás la característica principal o definitoria de las
neuronas, usándose diferentes tipos de funciones, como
simples funciones de umbral a funciones no lineales.
Encargándose de recalcular el nivel o estado de activación
de la neurona en función de la entrada total.(Araya, s.f.)
Además de otras funciones es necesario tener otras
extensiones que permitan calcular la activación en función
de la entrada total y funciones de salida calculan la salida en
función de la activación.(Crespo, s.f.)
La función de activación calcula la activación de la unidad
en función de la entrada total y la activación previa, aunque
en la mayor parte de los casos es simplemente una función no
decreciente de la entrada total. Los tipos de función más em-
pleados son: la función escalón, función lineal y la función
sigmoidal.(Paredes, s.f.)
Funciones Derivativas de las Funciones de Activación
En Backpropagation es importante poder calcular el
derivado de cualquier función de transferencia utilizada.
Cada una de las funciones como: tangencial, logaritmica y
purelin tienen una funcion derivatica que les corresponde:
dtansig, dlogsig, dpurelin.(Mera, s.f.)
Para obtener la función derivativa asociada a cada función
de transferencia se debe llamar a la función de transferencia
y a la función en Matlab ’deriv’.
Ejemplo:
tansig=’deriv’
ans=dtansig
UNIVERSIDAD NACIONAL DE LOJA
fploaizaa@unl.edu.ec, rvfaicanc@unl.edu.ec
2
3. Loaiza Freddy- Faicán Rosa Tutor: Ing Henry Paz
Las tres funciones de transferencia descritas anteriormen-
te son usadas normalmente para backpropagation, pero pue-
den crearse otras funciones diferentes y y usarse como back-
propagation si así se desea.(Ojeda, 2007)
Funcion de Activación Positiva Poslin
El algoritmo que utiliza la función de transferencia poslin
retorna la salida n si n es mayor o igual a cero y cero si es
menor o igual a cero.
Figura 4. Poslin
Fuente: Escuela Politécnica Nacional
Figura 5. Función Poslin en Matlab
Fuente: Escuela Politécnica Nacional
Funcion de Activación Purelin
De ves en cuando, el purelin o función de traslado lineal
se usa en redes Backpropagation.
Síntaxis
A=purelin(N,FP)
Donde N es una matriz SxQ de la entrada neta (columna)
vectores y FP es la estructura de la función de parámetros
(ignorada). Y devuelve A, la matriz SxQ de elementos igual
a N.(Collantes, Venezuela 2001)
Figura 6. Purelin
Fuente: Tutorial de redes neuronales Universidad
Tecnológica de Pereira
Donde K es el factor de amplificación en la región lineal
de operación.
La salida de una Función de Transferencia Lineal es igual
a su entrada.
En la gráfica se observa la salida a de la red comparada
con la entrada p más un valor de ganancia b, neuronas
Figura 7. Función Purelin en Matlab
Fuente: Tutorial de redes neuronales Universidad
Tecnológica de Pereira
que emplean está función son utlizadas en la red tipo
Adalin.(Cabrera, Agosto 2007)
Funciones de aprendizaje
Aprendizaje es el proceso por el cuál una red neuronal
aprende y modifica sus pesos con relación a las entradas que
reciben.
Los cambios que suceden en el proceso de aprendizaje
son la modificación, eliminación y creación y concexión
entre neuronas.
Las funciones de aprendizaje son:
1. Supervisado: - Entrada, Salida, Objetivo
A la red se le proporciona un conjunto de ejemplos del
comportamiento propio de la red. Tiene un supervisor
o agente externo, maestro el cual indica que salidas
debe generar la red. (inputs, targets).
a) Correción de error
b) Estocastico
c) por Refuerzo
2. No Supervisado: - Entrada, Salida
Las entradas son las únicas disponibles para el apren-
dizaje, el algoritmo de la red aprende a categorizar las
entradas. (clustering)(Meschino, 2006)
a) Asociativo
b) Competitivo
c) Cooperativo
3. Por Reforzamiento: - Recompensa, Castigo
A la red se proporciona un grado de desempeño de la
misma.
UNIVERSIDAD NACIONAL DE LOJA
fploaizaa@unl.edu.ec, rvfaicanc@unl.edu.ec
3
4. Loaiza Freddy- Faicán Rosa Tutor: Ing Henry Paz
Algoritmos de entrenamiento implementados por Matlab
Lista que resume las funciones para entrenamiento de re-
des con retro propagación que contiene el ‘Neural Network
Toolbox’ de Matlab:
1. Traingd: Usarse en entrenamiento de modo incremen-
tal.
2. Traingdm: Más rápido que Traingd, modo incremen-
tal.
3. Traingdx: Tasa de aprendizaje adaptativa, usado en
modo de entrenamiento por lotes.
4. Trainrp: Backpropagation flexible, algoritmo de entre-
namiento por lotes.
5. Trainlm: El algoritmo de entrenamiento más rápido
para redes de tamaño moderado.
6. Trainbr: Regularización Bayesiana.
Ejemplo Práctico
El presente ejemplo tiene como objetivo demostrar la
aplicación de las funciones POSLIN y PURELIN a través
del manejo de una interfaz gráfica.
Se muestra un grupo de pantallas en las cuales se describe
los datos a ingresar y las salidas que se tendrán como
resultado a estos ingresos.
Figura 8. Pantalla Principal
En esta pantalla se puede escoger la funciones que se
desea asi como tambien el entrenamiento, se puede ingre-
sar el número de capas, el número de neuronas por capa y el
valor de las entradas.
Se muestra una pantalla con datos ya ingresados asi como
también la respectiva gráfica.
Se muestra la Red Neuronal en báse a los datos anteriormente
ingresados.
Figura 9. Pantalla Principal con Datos
Figura 10. Gráfica de la Red Neuronal
Código en Matlab del ejemplo
AQUI SE SELECCIONA EL TIPO DE ENTRENA-
MIENTO QUE VA A TENER EL EJERCICIO.
function selecTipoEntrenamientCallback(hObject, eventdata, handles)
DENTRO DE ESTAS VARIABLES SE ALMACENA
EL VALOR OBTENIDO DEL COMBO BOX.
val = get(hObject,’Value’); str = get(hObject,’String’);
SE COMPARA EL VALOR, PARA ASIGNAR EL TIPO
DE ENTRENAMIENTO SEGÚN SEA EL CASO.
switch strval
case ’traingd’
handles.currentdat = traingd ;
guidata(hObject, handles);
case traingdx
handles.currentdat = traingdx ;
guidata(hObject, handles);
case trainc
handles.currentdat = trainc ;
guidata(hObject, handles);
end
guidata(hObject, handles);
CAJA DE TEXTO DONDE SE INGRESA EL NÚMERO
DE CAPAS A USAR.
function txtNumCapasCallback(hObject, eventdata, handles)
DENTRO DE ESTA VARIABLE SE ALMACENA EL
UNIVERSIDAD NACIONAL DE LOJA
fploaizaa@unl.edu.ec, rvfaicanc@unl.edu.ec
4
5. Loaiza Freddy- Faicán Rosa Tutor: Ing Henry Paz
VALOR INGRESADO.
NewStrVal=get(hObject,’String’);
SE TRANSFORMA EL VALOR OBTENIDO DE
STRING A UN VALOR NUMÉRICO
NewVal = str2double(NewStrVal);
SE ALMACENA LOS VALORES TRANSFORMADOS
ANTERIORMENTE COMO PUNTEROS
handles.numcapas=NewVal; guidata(hObject,handles);
CAJA DE TEXTO DONDE SE INGRESA EL NÚMERO
DE NEURONAS POR CAPA.
function txtNumNeuronasCallback(hObject, eventdata, handles)
NewS trVal = get(hObject, S tring );
NewVal = str2double(NewS trVal);
handles.numneuronas = NewVal;
guidata(hObject, handles);
CAJA DE TEXTO DONDE SE INGRESA EL VALOR
DE LAS ENTRADAS.
function txtValorPCallback(hObject, eventdata, handles)
NewS trVal = get(hObject, S tring );
handles.valorP = NewS trVal;
guidata(hObject, handles);
function txtFuncionActivacionCallback(hObject,
eventdata, handles)
NewS trVal = get(hObject, S tring );
handles.FuncionActivacion = NewS trVal;
guidata(hObject, handles);
BOTÓN DONDE SE GRAFICA LA RED NEURONAL
Y SE CALCULA LOS VALORES DEACUERDO A LA
FUNCIÓN DE ACTIVACIÓN
function btnCalculoCallback(hObject, eventdata, handles)
vv = str2num(get(handles.txtValorP,’String’));
aa=length(vv);
disp(aa);
if (a==aa)
CREACIÓN DE LA RED NEURONAL, AQUI SE
DEFINE EN RANGO DE ENTRADA MÁXIMO Y
MÍNIMO, NÚMERO DE NEURONAS POR CAPA, LA
FUNCIÓN DE ACTIVACIÓN SELECCIONADA Y EL
TIPO DE APRENDIZAJE.
net=newff(minmax(vv),handles.nca,
handles.faa,handles.currentdat);
epochs = str2num(get(handles.mni,’String’));
error= str2num(get(handles.txterrorp,’String’));
shows = str2num(get(handles.ivr,’String’));
lr = str2num(get(handles.lr,’String’));
Si se quiere modificar algunos de los parámetros de
entrenamiento predefinidos se hace así.
net.trainParam.show = 500;
net.trainParam.maxf ail = 3;
net.trainParam.lr = lr;
net.trainParam.epochs = epochs;
net.trainParam.goal = error;
a = sim(net, vv);
view(net);
plot(vv);
fff= mat2str(vv);
numCap=str2num(get(handles.txtNumCapas,’String’));
set(handles.txtFunActi,’string’,handles.faa);
set(handles.tipoEntre,’string’,handles.currentdat);
set(handles.txtnumCapasss, string , numCap);
set(handles.txtp, string , f f f);
else
msgbox(’Las Entradas no son iguale a las salidas’,’Error’);
function sliderFuncionActivacionCallback(hObject,
eventdata, handles)
val = get(hObject,’Value’);
str = get(hObject,’String’);
switch strval
case ’poslin’
handles.currentdata = poslin ;
guidata(hObject, handles);
case purelin
handles.currentdata = purelin ;
guidata(hObject, handles);
end
guidata(hObject, handles);
BOTÓN PARA INGRESAR EL NÚMERO DE NEURO-
NAS, SE PRESENTA OTRA PANATALLA.
function btnNumNeurnasCallback(hObject, eventdata, handles)
nueroCapasarreglo=[];
funconActivacionarreglo=;
numCapas=str2num(get(handles.txtNumCapas,’String’));
for cont=1:1: numCapas
entrad=inputdlg(’Numero de neuronas’,’Numero de Neuro-
nas’,1,’0’);
nueroCapasarreglo=[nueroCapasarreglo
UNIVERSIDAD NACIONAL DE LOJA
fploaizaa@unl.edu.ec, rvfaicanc@unl.edu.ec
5
6. Loaiza Freddy- Faicán Rosa Tutor: Ing Henry Paz
str2num(entrad1,1)];
funconActivacionarreglo(cont)=handles.currentdata;
end
nueroCapasarreglo;
handles.nca = nueroCapasarreglo;
guidata(hObject, handles);
funconActivacionarreglo;
handles.faa=funconActivacionarreglo;
guidata(hObject,handles);
f= mat2str(nueroCapasarreglo);
set(handles.txtNumNeuronas,’string’,f);
Referencias
Araya, S. (s.f.). ELO 307: Proyecto de Titulación.
Cabrera, S. S. (Agosto 2007). Redes neuronales aplicada a la Esti-
mación de la Probabilidad.
Carlos Pérez Ruiz, B. E. P. (s.f.). Estudio SALCER Inteligencia
Artificial.
Collantes, J. (Venezuela 2001). Predicción con Redes Neuronales.
Crespo, E. Q. (s.f.). DESARROLLO DE UN MODELO PARA LA
LOCALIZACIÓN DE FALLAS EN SISTEMAS DE TRANS-
MISION DE ENERGIA ELECTRICA UTILIZANDO TECNI-
CAS DE INTELIGENCIA ARTIFICIAL.
Gómez, M. D. (s.f.).
Ledesma, D. S. (s.f.). Las Redes Neuronales - Implementación y
consideraciones prácticas.
Mera, O. (s.f.). SISTEMA TRADUCTOR DE LENGUAJE FO-
NÉTICO A LENGUAJE DE SEÑAS A TRAVÉS DE REDES
NEURONALES.
Meschino, G. (2006). Redes Neuronales en Matlab.
Navarro, Y. G. (s.f.). Redes Neuronales Artificiales.
Ojeda, L. R. (2007). Matlab conceptos básicos y programación.
Palacios, F. (Junio 2000). Redes Neuronales Artificiales y Métodos
de Estinación de Funciones.
Paredes, C. (s.f.).
Tomás, V. A. (s.f.). Introducción a las redes neuronales artificiales.
Descargado de http://www.slideshare.net/mentelibre/
introduccion-a-las-redes-neuronales-artificiales
Villasana, M. (s.f.). Introducción a las Redes Neuronales (Neura-
les). Descargado de http://www.mathworks.com/access/
UNIVERSIDAD NACIONAL DE LOJA
fploaizaa@unl.edu.ec, rvfaicanc@unl.edu.ec
6