Presentación del proyecto de la materia de IAA de la UTPL.
Tema: Comparación de resultados en la convergencia de una red neuronal utilizando 1 y 2 capas ocultas respectivamente en el modelo del perceptrón multicapa utilizando el algoritmo BackPropagation al realizar el reconocimiento de señales de tránsito
Presentación del proyecto de la materia de IAA de la UTPL.
Tema: Comparación de resultados en la convergencia de una red neuronal utilizando 1 y 2 capas ocultas respectivamente en el modelo del perceptrón multicapa utilizando el algoritmo BackPropagation al realizar el reconocimiento de señales de tránsito
Introducción
Clasificación de redes neuronales: Estructura y Entrenamiento
Aplicación de las redes neuronales a la identificación de sistemas
Las redes neuronales en el control
Multiplicacion de matrices: Implementacion en clusterWalter Tejerina
La multiplicación de matrices es una de las operaciones más representativas para muchas aplicaciones, ya que involucran un elevado cálculo de datos con complejidad creciente de acuerdo a las dimensiones de las mismas. En la actualidad, dependiendo de las necesidades de cada aplicación, pueden encontrarse métodos variados para estos cálculos. En el presente trabajo se mostrará las diferencias entre un entorno paralelo, mediante una interfaz de paso de mensajes, tanto con un solo computador como con un arreglo de procesadores interconectados.
El presente artículo técnico tiene la siguiente estructura: estado del arte, resultados y conclusiones.
El estado del arte se define en las 5 primeras secciones:
Sección 1: Neurona biológica y artificial, describe la estructura neuronal.
Sección 2: Funciones de activación o trasnferencia, se realiza una comparación de las funciones de activación más utilizadas.
Sección 3: Funciones satlin y satlins, describe la aplicación de estas funciones.
Sección4: Redes neuronales de hopfield, describe la arquitectura de una red de hopfield.
Sección5: Diseño de una red de Hopfield, describe el diseño de la red de hopfield.
Resultados del ejercicio práctico:
Sección 7: Reconocimiento de Dígitos impares con Hopfield, se presenta la solución en matlab y resultados obtenidos.
Sección 8: Conclusiones.
La identificación de un sistema dinámico mediante una red neuronal consiste en determinar los parámetros de la red de tal manera que los dos sistemas tengan respuestas similares cuando son excitados con las mismas señales de control.
Introducción
Clasificación de redes neuronales: Estructura y Entrenamiento
Aplicación de las redes neuronales a la identificación de sistemas
Las redes neuronales en el control
Multiplicacion de matrices: Implementacion en clusterWalter Tejerina
La multiplicación de matrices es una de las operaciones más representativas para muchas aplicaciones, ya que involucran un elevado cálculo de datos con complejidad creciente de acuerdo a las dimensiones de las mismas. En la actualidad, dependiendo de las necesidades de cada aplicación, pueden encontrarse métodos variados para estos cálculos. En el presente trabajo se mostrará las diferencias entre un entorno paralelo, mediante una interfaz de paso de mensajes, tanto con un solo computador como con un arreglo de procesadores interconectados.
El presente artículo técnico tiene la siguiente estructura: estado del arte, resultados y conclusiones.
El estado del arte se define en las 5 primeras secciones:
Sección 1: Neurona biológica y artificial, describe la estructura neuronal.
Sección 2: Funciones de activación o trasnferencia, se realiza una comparación de las funciones de activación más utilizadas.
Sección 3: Funciones satlin y satlins, describe la aplicación de estas funciones.
Sección4: Redes neuronales de hopfield, describe la arquitectura de una red de hopfield.
Sección5: Diseño de una red de Hopfield, describe el diseño de la red de hopfield.
Resultados del ejercicio práctico:
Sección 7: Reconocimiento de Dígitos impares con Hopfield, se presenta la solución en matlab y resultados obtenidos.
Sección 8: Conclusiones.
La identificación de un sistema dinámico mediante una red neuronal consiste en determinar los parámetros de la red de tal manera que los dos sistemas tengan respuestas similares cuando son excitados con las mismas señales de control.
Las lámparas de alta intensidad de descarga o lámparas de descarga de alta in...espinozaernesto427
Las lámparas de alta intensidad de descarga o lámparas de descarga de alta intensidad son un tipo de lámpara eléctrica de descarga de gas que produce luz por medio de un arco eléctrico entre electrodos de tungsteno alojados dentro de un tubo de alúmina o cuarzo moldeado translúcido o transparente.
lámparas más eficientes del mercado, debido a su menor consumo y por la cantidad de luz que emiten. Adquieren una vida útil de hasta 50.000 horas y no generan calor alguna. Si quieres cambiar la iluminación de tu hogar para hacerla mucho más eficiente, ¡esta es tu mejor opción!
Las nuevas lámparas de descarga de alta intensidad producen más luz visible por unidad de energía eléctrica consumida que las lámparas fluorescentes e incandescentes, ya que una mayor proporción de su radiación es luz visible, en contraste con la infrarroja. Sin embargo, la salida de lúmenes de la iluminación HID puede deteriorarse hasta en un 70% durante 10,000 horas de funcionamiento.
Muchos vehículos modernos usan bombillas HID para los principales sistemas de iluminación, aunque algunas aplicaciones ahora están pasando de bombillas HID a tecnología LED y láser.1 Modelos de lámparas van desde las típicas lámparas de 35 a 100 W de los autos, a las de más de 15 kW que se utilizan en los proyectores de cines IMAX.
Esta tecnología HID no es nueva y fue demostrada por primera vez por Francis Hauksbee en 1705. Lámpara de Nernst.
Lámpara incandescente.
Lámpara de descarga. Lámpara fluorescente. Lámpara fluorescente compacta. Lámpara de haluro metálico. Lámpara de vapor de sodio. Lámpara de vapor de mercurio. Lámpara de neón. Lámpara de deuterio. Lámpara xenón.
Lámpara LED.
Lámpara de plasma.
Flash (fotografía) Las lámparas de descarga de alta intensidad (HID) son un tipo de lámparas de descarga de gas muy utilizadas en la industria de la iluminación. Estas lámparas producen luz creando un arco eléctrico entre dos electrodos a través de un gas ionizado. Las lámparas HID son conocidas por su gran eficacia a la hora de convertir la electricidad en luz y por su larga vida útil.
A diferencia de las luces fluorescentes, que necesitan un recubrimiento de fósforo para emitir luz visible, las lámparas HID no necesitan ningún recubrimiento en el interior de sus tubos. El propio arco eléctrico emite luz visible. Sin embargo, algunas lámparas de halogenuros metálicos y muchas lámparas de vapor de mercurio tienen un recubrimiento de fósforo en el interior de la bombilla para mejorar el espectro luminoso y reproducción cromática. Las lámparas HID están disponibles en varias potencias, que van desde los 25 vatios de las lámparas de halogenuros metálicos autobalastradas y los 35 vatios de las lámparas de vapor de sodio de alta intensidad hasta los 1.000 vatios de las lámparas de vapor de mercurio y vapor de sodio de alta intensidad, e incluso hasta los 1.500 vatios de las lámparas de halogenuros metálicos.
Las lámparas HID requieren un equipo de control especial llamado balasto para funcionar
Inteligencia Artificial y Ciberseguridad.pdfEmilio Casbas
Recopilación de los puntos más interesantes de diversas presentaciones, desde los visionarios conceptos de Alan Turing, pasando por la paradoja de Hans Moravec y la descripcion de Singularidad de Max Tegmark, hasta los innovadores avances de ChatGPT, y de cómo la IA está transformando la seguridad digital y protegiendo nuestras vidas.
En este documento analizamos ciertos conceptos relacionados con la ficha 1 y 2. Y concluimos, dando el porque es importante desarrollar nuestras habilidades de pensamiento.
Sara Sofia Bedoya Montezuma.
9-1.
(PROYECTO) Límites entre el Arte, los Medios de Comunicación y la Informáticavazquezgarciajesusma
En este proyecto de investigación nos adentraremos en el fascinante mundo de la intersección entre el arte y los medios de comunicación en el campo de la informática.
La rápida evolución de la tecnología ha llevado a una fusión cada vez más estrecha entre el arte y los medios digitales, generando nuevas formas de expresión y comunicación.
Continuando con el desarrollo de nuestro proyecto haremos uso del método inductivo porque organizamos nuestra investigación a la particular a lo general. El diseño metodológico del trabajo es no experimental y transversal ya que no existe manipulación deliberada de las variables ni de la situación, si no que se observa los fundamental y como se dan en su contestó natural para después analizarlos.
El diseño es transversal porque los datos se recolectan en un solo momento y su propósito es describir variables y analizar su interrelación, solo se desea saber la incidencia y el valor de uno o más variables, el diseño será descriptivo porque se requiere establecer relación entre dos o más de estás.
Mediante una encuesta recopilamos la información de este proyecto los alumnos tengan conocimiento de la evolución del arte y los medios de comunicación en la información y su importancia para la institución.
Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital, siendo este un componente electrónico, por tanto se ha desarrollado y se ofrece un amplio rango de soluciones al problema del almacenamiento de datos.
3Redu: Responsabilidad, Resiliencia y Respetocdraco
¡Hola! Somos 3Redu, conformados por Juan Camilo y Cristian. Entendemos las dificultades que enfrentan muchos estudiantes al tratar de comprender conceptos matemáticos. Nuestro objetivo es brindar una solución inclusiva y accesible para todos.
2. Redes Neuronales
Unidad neuronal
◦ Representa una “neurona” dentro de la red (también: unidad logística)
◦ Partes importantes:
◦ Función de propagación (combinación lineal de las entradas): 𝑧 ∈ ℝ
◦ Contiene pesos (𝒘 ∈ ℝ𝑑
) y bias (𝑏 ∈ ℝ)
◦ Función de activación: 𝑔 ∈ ℝ y activación 𝑎 ∈ ℝ
◦ Entrada: 𝒙 ∈ ℝ𝑑 (d atributos)
◦ Salida: 𝑦 ∈ ℝ
x1
x2
xd
3. 3
Redes Neuronales
Tienen como entrada la combinación lineal z = wTx+b
Función sigmoidea
- Llamada función logística
- Mapea a (0,1)
- Se usa para la salida de toda la red
Función tangente hiperbólica
- No tiene “bias” (centrado en 0)
- Mapea a (-1, 1)
- Se usa para capas ocultas
Funciones de Activación
4. 4
Redes Neuronales
Función ReLU
- Significa: “Rectified Linear Unit”
- Ventaja: facilidad de cálculo
- Se suele usar en capas ocultas
Función Leaky ReLU
- Variación de ReLU
- El valor no se fija a cero: pequeña pendiente
- Puede facilitar el “aprendizaje” (optimización)
Funciones de Activación
5. 5
Redes Neuronales
Ejemplo: red neuronal con una capa oculta y una capa de salida (el corchete
indica el número de capa)
En general puede haber más de 1 salida (para clasificar varias clases)
Redes Neuronales feedforward
“Capa” de
entrada
Capa
oculta
Capa de
salida
x1
x2
xd
6. Redes Neuronales
Llamadas: Deep Neural Networks (DNN)
Son redes neuronales con varias capas
“Capa” de
entrada
Capa 1
Capa de
salida
Capa 2 Capa 3 Capa 4
x1
x2
xd
Redes Neuronales Profundas
7. Redes Neuronales
Visión computacional “tradicional”
◦ Se basa en extracción manual de atributos (features)
◦ Los atributos se usan para el entrenamiento
Visión computacional basada en CNN (“convolutional neural networks”)
◦ Toda la imagen se usa para el entrenamiento
extracción de atributos
Entrenamiento
basado en atributos
(SVM, redes neuronales,
random forest,
AdaBoost, etc.)
Entrenamiento usando CNN
Aplicación en Visión Computacional
8. Convolución
La convolución es una operación matemática que combina dos funciones para describir la
superposición entre ambas. La convolución toma dos funciones, “desliza” una sobre la otra,
multiplica los valores de las funciones en todos los puntos de superposición, y suma los
productos para crear una nueva función. Este proceso crea una nueva función que representa
cómo interactúan las dos funciones originales entre sí.
9. Convolución
Formalmente, la convolución es una integral que expresa la cantidad de superposición de una
función, f(t) cuando se desplaza sobre otra función g(t), de este modo:
11. Convolución en el procesamiento de imágenes
En el procesamiento de imágenes, el filtrado convolucional se puede utilizar para implementar
algoritmos tales como detección de bordes, aumento de nitidez y desenfoque de imágenes.
Esto se logra seleccionando el kernel apropiado (matriz de convolución).
12. La operación convolución en una CNN
La convolución aplicada en una imagen para una CNN, tiene la función de
“aprende” a extraer los atributos o características de los objetos que
constituyen la imagen.
En la fase de entrenamiento de una CNN, la CNN “aprende” los valores
óptimos para cada filtro o kernel, esto valores óptimos son los que
permiten extraer atributos significativos (texturas, bordes, formas), y
estos atributos conforman el mapa de características de la imagen o
patrones, patrones que luego se utilizaran para clasificar los objetos en
otras imágenes.
13. La operación convolución en una CNN
El aumento de la cantidad de filtros (características del mapa de atributos de salida) que se
aplican a las capas convolucionales, también aumenta la cantidad de características que
puede extraer la CNN, este aumento de características mejora la precisión en la clasificación
de los objetos de una imagen, sin embargo, la aplicación y el entrenamiento de estos filtros
son en su mayoría los que consumen los recursos computacionales que utiliza la CNN.
Debido a lo anterior se debe buscar una justa medida en la cantidad mínima de filtros(extraer
características o patrones) que permitan extraer las características mas relevantes,
características que permitan obtener una clasificación precisa de los objetos que conforman la
imaginen.
14. La operación convolución en una CNN
La convolución discreta en su forma directa se define como y nos ayuda a entender la correlación(operación
que se aplica en las CNN)
Para realizar la operación convolución en imágenes es muy importante resaltar que los filtros o kernels w se
definen de tamaño impar , debido a que el origen de estas matrices se encuentra al centro, y es más sencillo
realizar este procedimiento teniendo un centro “real”.
15.
16. La operación convolución en una CNN
Como se observa en la figura(a) el origen para la imagen de entrada f
se ubica en la esquina superior izquierda, el cual es muy diferente para
el kernel , ya que los kernels definen su punto origen en el centro de la
matriz.
En la operación convolución se definen los índices de las dos
sumatorias , donde uno de los índices va desde −a hasta a y el otro
índice va desde -b hasta b como se observa en la figura (a), estos
índices indican el tamaño en coordenadas del kernel , donde cada una
de estas coordenadas se genera en la iteración de la sumatoria y
representa un elemento en la matriz del kernel w ,al iterar las dos
sumatorias se recorren todos los elementos del kernel en su totalidad
como lo indica la operación convolución.
17. 17
Redes Neuronales Convolucionales
Convolución consiste en:
- Sobreponer un filtro a la imagen, realizar las multiplicaciones término a término, y sumar el
resultado
- El filtro “recorre” toda la imagen
Convoluciones en 2 Dimensiones
filtro
(kernel)
Pixel de
origen
Pixel
destino
18. 18
Redes Neuronales Convolucionales
Ejemplo de convolución:
Convoluciones en 2 Dimensiones
filtro
(kernel)
Imagen de entrada
Imagen de entrada
Imagen de salida
Imagen de salida
filtro
(kernel)
https://indoml.com/2018/03/07/student-notes-convolutional-neural-networks-cnn-introduction/
19. 19
Redes Neuronales Convolucionales
Convoluciones en 3 Dimensiones
https://indoml.com/2018/03/07/student-notes-convolutional-neural-networks-cnn-introduction/
Esta forma como se aplica la
convolución en una imagen 3D, aplica
a más dimensiones
20. 20
Redes Neuronales Convolucionales
Componentes:
- Mapa de activación z (convolución de la entrada con los filtros + bias)
- Funciones de activación g (aplicadas a los mapas de activación)
◦ Usualmente ReLU (eventualmente tanh)
Ejemplo
Capa de Convolución
21. 21
Redes Neuronales Convolucionales
Simplificación de la representación:
- De manera simplificada (cuando hay varias capas):
Capa de Convolución
6 x 6 x 3
3 x 3 x 2
f[1] = 4
s[1] = 1
p[1] = 0
2 filtros
23. 23
Redes Neuronales Convolucionales
Reduce el tamaño de las representaciones (“downsampling”)
- Opera en cada canal de manera independiente
- No introduce ningún nuevo parámetro (no hay que “aprender” nada)
Tipos más utilizados
- Max Pooling: utiliza el valor máximo de cada conjunto de píxeles
- Average Pooling: utiliza el valor promedio de cada conjunto de píxeles
Capa de Pooling
f = 2
s = 2
f = 2
s = 2
Max Pooling Average Pooling
24. 24
Redes Neuronales Convolucionales
Es una capa que se encuentra completamente conectada (como en redes neuronales ordinarias)
Se le suele abreviar como FC
Capa “Fully Connected”
25. Redes Neuronales Convolucionales
Red “similar” a LeNet – 5
A medida que se va más adentro en la red:
◦ El tamaño tiende a decrecer
◦ La profundidad tiende a incrementarse
Patrón común: Conv-Pool-Conv-Pool-FC-FC-FC-Softmax
Max
Pool
Max
Pool
16
filtros
16
filtros
POOL 1 POOL 2
LeCun, Yann, et al. "Gradient-based learning applied to document recognition." (1998)
28. Estas capas realizan operaciones que modifican los datos, con el
propósito de comprender sus características particulares. Las 3 capas
más comunes son: convolución, activación o ReLU, y agrupación.
Convolución: Aplica un conjunto de filtros convolucionales a las imágenes de entrada; cada filtro
activa diferentes características de las imágenes.
Unidad lineal rectificada (ReLU): Mantiene los valores positivos y establece los valores negativos en
cero, lo que permite un entrenamiento más rápido y eficaz. También se lo conoce como activación, ya
que solo las características activadas prosiguen a la siguiente capa.
Agrupación: Simplifica la salida mediante reducción no lineal de la tasa de muestreo, lo que
disminuye el número de parámetros que la red debe aprender.
29. Estas operaciones se repiten en decenas o cientos de capas;
cada capa aprende a identificar diferentes características.
30. Pesos y sesgos compartidos
A diferencia de una red neuronal tradicional, una CNN tiene pesos y valores de sesgos compartidos,
que son los mismos para todas las neuronas ocultas de una capa determinada.
Esto significa que todas las neuronas ocultas detectan las mismas características, tales como bordes
o formas, en diferentes regiones de la imagen. Esto hace que la red sea tolerante a la traducción de
objetos de una imagen. Por ejemplo, una red entrenada para reconocer automóviles podrá hacerlo
independientemente de dónde aparezca el automóvil en la imagen.
31. Después de aprender características en muchas capas, la arquitectura de una CNN pasa a la
clasificación.
La penúltima capa está completamente conectada y genera un vector de K dimensiones, donde K es el
número de clases que se pueden predecir, y contiene las probabilidades para cada clase de una
imagen que se está clasificando.
La capa final de la arquitectura de la CNN utiliza una capa de clasificación para proporcionar la salida
de clasificación final.
Capas de clasificación
32. Ejemplo RNA convolucional
Carga la base de datos de imágenes
ubica_imagen = fullfile (matlabroot, 'toolbox', 'nnet', 'nndemos', 'nndatasets', ...
'DigitDataset');
BD_img= imageDatastore(ubica_imagen, 'IncludeSubfolders', true, 'LabelSource', 'foldernames');
% para agregar una base de datos propia
% BD_img = imageDatastore('dirección dónde se encuentra tu carpeta con las imágenes',...
% 'FileExtensions',{'.jpg','.tif'},...
% 'IncludeSubfolders',true,'LabelSource','foldernames').
% fullfile devuelve un vector de caracteres que contiene la ruta completa al archivo. Ej.
‘myfoldermysubfoldermyfile.m’
.
33. Ejemplo RNA convolucional
Es recomendable mostrar algunas de las imágenes de la base de datos recién cargada
%% mostrar algunas imagenes de la base de datos
figure()
aleatorio=randperm(10000,25); %selecciona 25 imágenes de forma aleatoria del total (10000)
for i=1:25
subplot(5,5,i)
imshow(BD_img.Files{aleatorio(i)});
End
% randperm(N) devuelve un vector que contiene una permutación aleatoria de los números enteros 1:N.
% imshow muestra la imagen almacenada en el archivo de gráficos BD_img. El archivo debe contener una imagen
que IMREAD o DICOMREAD pueda leer
34. Ejemplo RNA convolucional
Para determinar el número de imágenes en cada categoría, se emplea el comando labelCount,
el cual devuelve una tabla que contiene las etiquetas y el número de imágenes que tiene cada
etiqueta. Es importante conocer el numero de clases, debido a que es el valor que se le asigna
en la última capa fullyconnected como argumento.
%% determinar el numero de imágenes que tiene cada categoría
labelCount= countEachLabel(BD_img)
% countEachLabel Cuenta el número de veces que aparece cada etiqueta única. En otras
palabras, cuenta la cantidad de archivos con cada etiqueta única. La salida es una tabla con
nombres de variables Etiqueta y Recuento.
35. Ejemplo RNA convolucional
Se debe especificar el tamaño de las imágenes en la capa de entrada de la red neuronal. Para ello si no se
conoce el tamaño, se puede verificar
%% Verificar el tamaño de cada imagen
img=readimage(BD_img,10);
[l,c]=size(img);
% Cada imagen tiene un tamaño de 28 por 28 por 1 píxeles
Readimage: lee el Iésimo archivo de imagen de la base de datos ‘BD_img’, y devuelve lo datos de la imagen
36. Ejemplo RNA convolucional
Especifique los conjuntos de datos de entrenamiento y de validación
Se divide la base de datos total en subconjunto de entrenamiento y validación
%% Definir conjuntos de entrenamiento, validación
numTrain=700;
[imdsTrain, imdsValidation]=splitEachLabel(BD_img, numTrain, 'randomized');
37. Definir la Arquitectura de la RNA convolucional
Definir la Arquitectura de la RNA convolucional
imageInputLayer Capa de entrada de imagen
layer = imageInputLayer(inputSize) define una capa de entrada de imagen. inputSize es el tamaño de las
imágenes de entrada para la capa. Debe ser un vector fila de dos o tres números.
convolution2dLayer Capa de convolución 2D para redes neuronales Convolucionales
layer =convolución2dLayer(filterSize, numFilters) crea una capa para convolución 2D. filterSize especifica la
altura y el ancho del filtros. Puede ser un escalar, en cuyo caso los filtros tendrán la misma altura y ancho,
o un vector [h w] donde h especifica la altura para los filtros y w especifica el ancho. numFilters especifica el
número de filtros.
‘Padding': el relleno aplicado a la entrada a lo largo de los bordes. Puede ser: - la matriz de caracteres 'igual‘
(same). El relleno se establece para que el tamaño de salida sea el mismo que el tamaño de entrada cuando
el paso es 1. De manera más general, el tamaño de salida es ceil(inputSize/stride), donde inputSize es la
altura y el ancho de la entrada.
38. Definir la Arquitectura de la RNA convolucional
batchNormalizationLayer Capa de normalización por lotes
Layer = BatchNormalizationLayer() crea una capa de normalización por lotes. Este tipo de capa normaliza cada
canal en un mini lote. Esto puede resultar útil para reducir la sensibilidad a las variaciones dentro de los datos.
reluLayer Capa de unidad lineal rectificada (ReLU) Layer = reluLayer() crea una capa de unidad lineal
rectificada. Este tipo de capa realiza una operación de umbral simple, donde cualquier valor de entrada menor
que cero se establecerá en cero.
maxPooling2dLayer Capa de agrupación máxima 2-D
Layer = maxPooling2dLayer(poolSize) crea una capa que realiza una agrupación máxima. Una capa de
agrupación máxima divide la entrada en regiones de agrupación rectangulares y genera el máximo de cada
región. poolSize especifica el ancho y el alto de una región de agrupación.
39. Definir la Arquitectura de la RNA convolucional
fullyConnectedLayer Capa completamente conectada
Layer = FullyConnectedLayer(outputSize) crea una capa completamente conectada. OutputSize especifica el
tamaño de la salida de la capa.
softmaxLayer Capa Softmax
capa = softmaxLayer() crea una capa softmax. Esta capa es útil para problemas de clasificación.
ClassificationLayer Capa de salida de clasificación para una red neuronal.
Layer = ClassificationLayer() crea una capa de salida de clasificación para una red neuronal. La capa de salida
de clasificación contiene el nombre de la función de pérdida que se utiliza para entrenar la red, el tamaño de
la salida y las etiquetas de clase.