SlideShare una empresa de Scribd logo
1 de 55
REDES NEURONALES (Neural
Networks)
Y SU APLICACION A LA MINERIA
INTEGRANTES:
- MARTINEZVELARDE, Alfredo
- MELENDEZHUAMAN, Omar
- DE LA CRUZ ORDOÑEZ, David
- PANEZ DELGADO,Wilder
- ROJAS CRISTOBAL, Oscar
BASES BIOLOGICAS QUE
INSPIRARON LAS REDES
NEURONALES ARTIFICIALES
SISTEMA NERVIOSO BIOLOGICO
NEURONA
SINAPSIS
RED NEURONAL ARTIFICIAL
El cerebro humano es el sistema de cálculo más complejo que conoce el hombre. El
ordenador y el hombre realizan bien diferentes clases de tareas; así la operación de
reconocer el rostro de una persona resulta una tarea relativamente sencilla para el
hombre y difícil para el ordenador, mientras que la contabilidad de una empresa es tarea
costosa para un experto contable y una sencilla rutina para un ordenador básico.
Un grupo de investigadores ha perseguido la creación de un modelo en el ordenador que
iguale o adopte las distintas funciones básicas del cerebro. El resultado ha sido una nueva
tecnología llamada Computación Neuronal o también Redes Neuronales Artificiales.
CARACTERÍSTICAS DE LAS REDES NEURONALES ARTIFICIALES
Las Redes Neuronales Artificiales, ANN (Artificial Neural Networks) están inspiradas en las redes
neuronales biológicas del cerebro humano.
Las ANN al margen de "parecerse" al cerebro presentan una serie de características propias del
cerebro. Por ejemplo las ANN aprenden de la experiencia, generalizan de ejemplos previos a
ejemplos nuevos y abstraen las características principales de una serie de datos.
Abstraer: aislar mentalmente o considerar por separado las cualidades de un objeto.
ESTRUCTURA BÁSICA DE UNA RED NEURONAL
Redes Neuronales Artificiales.-En las Redes Neuronales Artificiales, ANN, la unidad análoga a la neurona biológica es el
elemento procesador, PE (process element). Un elemento procesador tiene varias entradas y las combina, normalmente con
una suma básica. La suma de las entradas es modificada por una función de transferencia y el valor de la salida de esta
función de transferencia se pasa directamente a la salida del elemento procesador.
La salida del PE se puede conectar a las entradas de otras neuronas artificiales (PE) mediante conexiones ponderadas
correspondientes a la eficacia de la sinapsis de las conexiones neuronales.
Una red neuronal consiste en un conjunto de unidades elementales PE conectadas de una forma concreta. El interés de las
ANN no reside solamente en el modelo del elemento PE sino en las formas en que se conectan estos elementos
procesadores. Generalmente los elementos PE están organizados en grupos llamados niveles o capas. Una red típica
consiste en una secuencia de capas con conexiones entre capas adyacentes consecutivas.
Existen dos capas con conexiones con el mundo exterior. Una capa de entrada, buffer de entrada, donde se presentan los
datos a la red, y una capa buffer de salida que mantiene la respuesta de la red a una entrada. El resto de las capas reciben
el nombre de capas ocultas.
1943 McCulloch y Pitts presentan la neurona formal.
1949 D. Hebb publica su regla de aprendizaje para neuronas.
1951 Minsky plantea su máquina neuronal.
1956 Rochester, Holland, entre otros, realizan pruebas sobre ensambles de células y su acción en el
cerebro.
1958 Von Neumann propone un modelo para el cerebro.
1958 Rosenblatt propone el perceptrón.
1960 Widrow y Hopf presentan el Adaline y el aprendizaje por ajuste de mínimos cuadrados. Lo aplican
a la eliminación del eco en llamadas telefónicas y constituye la primera aplicación práctica de las
redes neuronales.
1969 Minsky y Papert analizan el preceptrón y encuentran que tiene limitaciones lógicas importantes.
HISTORIA DE LA COMPUTACIÓN NEURONAL
Los primeros años
Reflexión y estancamiento
1972 Kohonen presenta sus primeros trabajos sobre redes neuronales y memorias
asociativas.
1972 J. Anderson desarrolla la red neuronal llamada: “estado cerebral en una caja”.
1975 Fukushima, en los laboratorios NHK, en Tokio, desarrolla el cognitrón, una red neuronal
especializada en reconocimiento de patrones. No logra reconocer caracteres
distorsionados o rotados.
1976 Grossberg, en la Universidad de Boston, inicia sus trabajos sobre redes neuronales
artificiales. Se distingue por su carácter altamente matemático y con sentido biológico.
1982 Kohonen presenta la red que ahora se llama mapeo autoorganizado (SOM por su nombre
en inglés).
La década de oro de las redes
neuronales
1982-1985 J. Hopfield presenta la red de aprendizaje mediante la regla de Hebb. Utiliza técnicas
de la Física Estadística para demostrar que tiene propiedades de memoria asociativa.
Gran impacto en el mundo de los físicos.
1984 Ackley, Hinton y Sejnoski desarrollan la máquina de Boltzmann. Una red neuronal
1985 Se establece el sistema de propagación hacia atrás, que había aparecido para ser olvidado en
diversas ocasiones.
1986 Surge el mapeo de Kohonen.
2000 El paralelismo, las redes neuronales y la inteligencia articial en general, convergen en una teoría del
aprendizaje de desarrollo acelerado con aplicaciones muy diversas.
Una red neuronal es un
sistema compuesto de
muchos elementos
procesadores simples
operando en paralelo,
cuya función es
determinada por la
estructura de la red,
fuerza en las conexiones
y el procesamiento
realizado por los
elementos
computacionales en los
nodos
"Una red neuronal es un procesamiento
distribuido masivamente paralelo que tiene una
tendencia natural para almacenar conocimiento
empírico y hacerlo disponible para el uso”
Haykin, S
Una Red Neuronal viene caracterizada por:
•Topología
•La intensidad de la conexión entre sus pares de neuronas
(pesos)
•Las propiedades de los nodos
•Las reglas de aprendizaje de pesos, controlan los pesos y/o
estados de los elementos de procesados (neuronas).
•Dos tipos de aprendizaje
•Supervisado
•No supervisado
•Dos fases de operación
•Entrenamiento de la red
•Recuperacion de lo aprendido
•No son algorítmicas
Las RNA generan ellas mismas sus propias "reglas", para
asociar la respuesta a su entrada; es decir, aprende por
ejemplos y de sus propios errores.
•Requieren de algún tipo de patrón
Problemas que son muy difíciles de calcular pero que no
requieren de respuestas perfectas, sólo respuestas rápidas y
buenas. Tal y como acontece con el escenario bursátil en el
que se quiere saber ¿compro?, ¿vendo?, ¿mantengo?, o en
el reconocimiento cuando se desea saber ¿se parece? ¿es
el mismo pero tienen una ligera modificación?
La ventaja de las Redes Neuronales Artificiales (RNA), reside en el
procesado paralelo, adaptativo y no lineal. Las (RNA) han
encontrado muchas aplicaciones con éxito en la visión artificial, en
el procesado de señales e imágenes, reconocimiento del habla y
de caracteres, análisis de imágenes médicas, control remoto,
control de robots, inspección industrial y exploración científica.
El dominio de aplicación de las (RNA) se puede clasificar de la
siguiente forma:
•Asociación y clasificación
•Regeneración de patrones
•Regresión y generalización
•Optimización
Las Redes Neuronales son útiles para:
Clasificación de patrones
Aproximación de funciones
Mapeo
En los que exista información imprecisa y con tolerancia a fallos
Aprendizaje Adaptativo
Autoorganización
Tolerancia a Fallos
Operación en tiempo real
Fácil construcción en circuitos integrados
La entrada total de la unidad k es la suma ponderada de
las entradas que recibe más el término de offset
Este tipo de expresiones que calculan la entrada total se
denominan reglas de propagación y, en general, pueden
tener diferentes expresiones
El número de capas intermedias y el número de neuronas de
cada capa dependerá del tipo de aplicación al que se vaya a
destinar la red neuronal.
BACKPROPAGATION
PERCEPTRON
Los elementos de procesado de una red neuronal se distribuyen
por capas, existen tres tipos de capas:
1. Capa de entrada: Dependen del problema a abordar
2. Capa de salida: Salidas que proporciona la estructura
3. Capas ocultas: Conjunto de elementos de procesado asociados
en capas que se encuentran entre la capa de entrada y la capa
de salida
•Las funciones (tanto de activación como de salida) de los
elementos de procesado pueden ser diferentes
•No existe limitación en el número de capas ocultas
•En general, cuanto mayor sea la diferencia entre los elementos
de entrada y los de salida, será necesario dotar a la estructura
de más capas ocultas
•La habilidad de la red para procesar información crece en
proporción directa al número de capas ocultas
En función de la dirección
del movimiento de la
información se puede
realizar una clasificación:
Redes feedforward
Redes feedback
Redes feedlateral
Supervisado
En el aprendizaje supervisado (aprender con un maestro),
la adaptación sucede cuando el sistema compara
directamente la salida que proporciona la red con la salida
que se desearía obtener de dicha red; existen 3 tipos:
Por corrección de error
Por refuerzo
Estocástico
Regla delta
Una red con una única capa con una única neurona en la salida con una
función de activación lineal, la salida viene dada por:
Supongamos que vamos a entrenar una red de decisión más idóneo para
un conjunto de muestras de entrada consistentes “x” y valores de
salida deseada “d”.
Para cada muestra dada del conjunto de entrada, la salida real de la red
difiere de la salida deseada en “d-y”, donde y es la salida real de la red
correspondiente a la entrada x
La función de error, dada por el método del menor error cuadrático
medio, es la suma de los cuadrados de los errores individuales de
cada patrón. Es decir, el error total E viene dado por:
Los valores de los pesos de conexión se buscan de forma tal que se
minimice la función E y este proceso se realiza por un método conocido
gradiente descendiente
Dado que la función de
activación es lineal, como se
comentaba al comienzo,
¿Cuántas capas ocultas?
Por experiencia se sabe que usar más de una capa oculta casi nunca es
benéfico. El problema es que el entrenamiento es dramáticamente más
lento cuando se usan más capas ocultas. Esto se debe a dos efectos:
•La capa adicional a través de la cual los errores deben ser
retropropagados hace que el gradiente sea más inestable.
•El número de mínimos falsos se incrementa usualmente de
una manera dramática.
¿Cuántas neuronas ocultas?
•El usar muy pocas neuronas ocultas dejará a la red neuronal sin los
recursos necesarios para resolver el problema
•El usar muchas neuronas podrá incrementar el tiempo de
entrenamiento
•Además, un número excesivo de neuronas ocultas puede causar un
problema de sobreajuste.
¿Cuántas neuronas ocultas?
Un paradigma somero para la elección del número de neuronas ocultas
en muchos problemas es la regla de la pirámide geométrica.
¿Cuánto tiempo se debe entrenar?
Se dice que las redes neuronales pueden ser sobreentrenadas. Quiere
decir que hay una cantidad óptima de entrenamiento y que se puede
entrenar más allá de dicho punto para mejorar el funcionamiento en el
conjunto de entrenamiento, pero degradando dicho funcionamiento en la
población general.
 Las principales aplicaciones de la inteligencia
artificial está constituido por sistemas
expertos, algoritmos genéticos , redes
neuronales, etc, sabiendo que la industria
minera trabaja con una gran cantidad de datos,
que matemáticamente su solución se vuelve
compleja complicándose encontrar una
correspondencia de la variables, las redes
neuronales destierran completamente a las
técnicas convencionales matemáticas.
APLICACIONES
 Algoritmos genéticos y redes neuronales
artificiales para la programación de vehículos
inteligentes no tripulados para la operación en
la mina con la finalidad de acceder a espacios
confinados, detonar tiros cortados o superar
condiciones de alto riesgo evitando la
presencia y exposición de colaboradores
humanos en dichas tareas.
 Redes neuronales artificiales para dosificar el
flujo de aire en la ventilación minera
subterránea de manera que se optimice las
descargas en función a la necesidad de aire,
reduciendo los costos.
 ESTIMACION DE PROPIEDADES
MECANICAS DE LA ROCA CON
REDES NEURONALES.
Propiedades petrofísicas
Porosidad.
Es la fracción del volumen total de la roca ocupada por su espacio vacío (lleno de agua , aire
) , y representa el porcentaje del espacio total que puede ser ocupado por líquidos
o gases. Esta propiedad determina la propiedad de acumulación de las rocas
y, generalmente, se expresa como porcentaje o fracción de la unidad .
Permeabilidad (k)
Es la capacidad de una roca para permitir el paso de fluidos a través de ellos sin modificar
su estructura interna, por lo que determina la velocidad a la que se desplaza el fluido que
contiene por unidad de tiempo.
Se dice que un material es permeable si deja pasar a través de el una
cantidad apreciable de fluido en un tiempo dado, e impermeable si la cantidad
de fluido es despreciable.
Propiedades Mecánicas
 Resistencia a la compresión sin confinamiento (UCS)
Porosidad % Permeabilidad (mD) Resistencia (PSI)
20 12 1200
18,8 40 3800
17,9 62 4700
17,4 69 5000
16,8 80 7000
15 96 8970
15,7 91 8300
12 183 15000
10 198 17000
8 307 25000
DATOS DE LABORATORIO
La tabla muestra claramente las entradas y salidas para cada propiedad.
Desarrollo de la herramienta
La figura muestra la representación gráfica de las configuraciones seleccionadas por
el algoritmo genético teniendo la porosidad y la permeabilidad como datos de entrada.
Como dato de salida se obtiene la resistencia a la compresión sin confinamiento (UCS).
Para el caso de la resistencia a la compresión uniaxial, la figura muestra la
comparación entre valores reales y estimados por la red neuronal.
Análisis de resultados
• Se probaron diferentes configuraciones de red neuronal por tipo de prueba,
buscando las que más se ajustaran al conjunto de datos y, la seleccionada presenta
error promedio de 2.2058 % respectivamente para cada una de las pruebas.
• Con las pruebas que se presentaron para diversos conjuntos de datos de
entrenamiento, se demuestra cómo realmente se logra una generalización con el
modelo propuesto y se facilita con su análisis determinar el número de datos que
se hacen necesarios para obtener resultados confiables.
Conclusiones
• Se calculo la propiedad mecánica de roca (resistencia a la compresión sin
confinamiento )utilizando métodos propios de la inteligencia artificial (redes
neuronales).
• El modelo de redes neuronales descrito muestra que este puede ser un modelo de
confianza para la determinación de las propiedades mecánicas utilizando
información de petrofísica y requiriendo un conjunto de datos experimentales
obtenidos previamente.
Creación y Entrenamiento de la Red Neuronal
ANEXO
Simulación de la Red Neuronal ya
entrenada
Parametros de interes durante el entrenamiento
0 500 1000 1500
10
-4
10
-3
10
-2
10
-1
10
0
1581 Epochs
Training-BlueGoal-Black
Performance is 9.99819e-005, Goal is 0.0001
Error vs Numero de Entrenamientos
(Epochs)
Utilización de la Red con datos de 14% de porosidad y 140 mD permeabilidad
Bibliografía
http://oa.upm.es/14183/1/MECANICA_DE_ROCAS_1.pdf
http://webcache.googleusercontent.com/search?q=cache:JbAH0u2gAWoJ:https://www.u-
cursos.cl/ingenieria/2011/2/GL5201/1/material_docente/objeto/384079+&cd=1&hl=es&ct=clnk&gl
=pe
http://ocw.uis.edu.co/ingenieria-civil/estabilidad-de-
taludes/clase11/ensayos_geotecnicos_de_rocas.pdf
Título: REDES NEURONALES ARTIFICIALES Y
SUS APLICACIONES Autor: Xavier Basogain Olave Escuela superior de ingeniería Bilbao
Título: NEURAL NETWORKS. Autor: Simon HayLin McMaster University.
Hamilton,Ontorio, Canada
Título: MODELIZACION ESTADISTICA CON REDES NEURONALES. Autor: Maria Castellano
Mendez. Diciembre 2009.

Más contenido relacionado

La actualidad más candente

REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALESHB09
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes NeuronalesESCOM
 
Utp sirn_cap4_5_red perceptron
 Utp sirn_cap4_5_red perceptron Utp sirn_cap4_5_red perceptron
Utp sirn_cap4_5_red perceptronjcbenitezp
 
Sistemas neuronales
Sistemas neuronalesSistemas neuronales
Sistemas neuronalescenation993
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUTLuis Álamo
 
Generalidades De Las Redes Neuronales Artificiales (RNA)
Generalidades De Las  Redes Neuronales Artificiales  (RNA)Generalidades De Las  Redes Neuronales Artificiales  (RNA)
Generalidades De Las Redes Neuronales Artificiales (RNA)ESCOM
 
5.2 Redes neuronales (RN) [presentación].
5.2 Redes neuronales (RN) [presentación].5.2 Redes neuronales (RN) [presentación].
5.2 Redes neuronales (RN) [presentación].Humberto Chalate Jorge
 
Red Neuronal Artificial
Red Neuronal ArtificialRed Neuronal Artificial
Red Neuronal ArtificialJORGE ARMANDO
 

La actualidad más candente (20)

REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALES
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Utp sirn_cap4_5_red perceptron
 Utp sirn_cap4_5_red perceptron Utp sirn_cap4_5_red perceptron
Utp sirn_cap4_5_red perceptron
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Sistemas neuronales
Sistemas neuronalesSistemas neuronales
Sistemas neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUT
 
Generalidades De Las Redes Neuronales Artificiales (RNA)
Generalidades De Las  Redes Neuronales Artificiales  (RNA)Generalidades De Las  Redes Neuronales Artificiales  (RNA)
Generalidades De Las Redes Neuronales Artificiales (RNA)
 
5.2 Redes neuronales (RN) [presentación].
5.2 Redes neuronales (RN) [presentación].5.2 Redes neuronales (RN) [presentación].
5.2 Redes neuronales (RN) [presentación].
 
Red Neuronal Artificial
Red Neuronal ArtificialRed Neuronal Artificial
Red Neuronal Artificial
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Perceptron
PerceptronPerceptron
Perceptron
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Slidecats
SlidecatsSlidecats
Slidecats
 

Similar a 2º asignacion redes neuronales

Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2UNEFA
 
Funciones satlin satlins
Funciones satlin satlinsFunciones satlin satlins
Funciones satlin satlinsChristian Lara
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesAngel G
 
REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALESguestbab2c8
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas SomESCOM
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapaJefferson Guillen
 
Utp sirn_s2_rna 2014-2
 Utp sirn_s2_rna 2014-2 Utp sirn_s2_rna 2014-2
Utp sirn_s2_rna 2014-2c09271
 
Utp sirn_s2_rna 2014-2
 Utp sirn_s2_rna 2014-2 Utp sirn_s2_rna 2014-2
Utp sirn_s2_rna 2014-2c09271
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigJefferson Sarmiento
 
Utp 2014-2_ia_s2_intro a las rna
 Utp 2014-2_ia_s2_intro a las rna  Utp 2014-2_ia_s2_intro a las rna
Utp 2014-2_ia_s2_intro a las rna c09271
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaLevy GT
 
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...zeithy
 

Similar a 2º asignacion redes neuronales (20)

Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2
 
Funciones satlin satlins
Funciones satlin satlinsFunciones satlin satlins
Funciones satlin satlins
 
redes neuronales
redes neuronalesredes neuronales
redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALES
 
110641.ppt
110641.ppt110641.ppt
110641.ppt
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
 
Utp sirn_s2_rna 2014-2
 Utp sirn_s2_rna 2014-2 Utp sirn_s2_rna 2014-2
Utp sirn_s2_rna 2014-2
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Utp sirn_s2_rna 2014-2
 Utp sirn_s2_rna 2014-2 Utp sirn_s2_rna 2014-2
Utp sirn_s2_rna 2014-2
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansig
 
Utp 2014-2_ia_s2_intro a las rna
 Utp 2014-2_ia_s2_intro a las rna  Utp 2014-2_ia_s2_intro a las rna
Utp 2014-2_ia_s2_intro a las rna
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
redes competitivas
redes competitivasredes competitivas
redes competitivas
 
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...
 

2º asignacion redes neuronales

  • 1. REDES NEURONALES (Neural Networks) Y SU APLICACION A LA MINERIA INTEGRANTES: - MARTINEZVELARDE, Alfredo - MELENDEZHUAMAN, Omar - DE LA CRUZ ORDOÑEZ, David - PANEZ DELGADO,Wilder - ROJAS CRISTOBAL, Oscar
  • 2. BASES BIOLOGICAS QUE INSPIRARON LAS REDES NEURONALES ARTIFICIALES
  • 7. El cerebro humano es el sistema de cálculo más complejo que conoce el hombre. El ordenador y el hombre realizan bien diferentes clases de tareas; así la operación de reconocer el rostro de una persona resulta una tarea relativamente sencilla para el hombre y difícil para el ordenador, mientras que la contabilidad de una empresa es tarea costosa para un experto contable y una sencilla rutina para un ordenador básico. Un grupo de investigadores ha perseguido la creación de un modelo en el ordenador que iguale o adopte las distintas funciones básicas del cerebro. El resultado ha sido una nueva tecnología llamada Computación Neuronal o también Redes Neuronales Artificiales.
  • 8. CARACTERÍSTICAS DE LAS REDES NEURONALES ARTIFICIALES Las Redes Neuronales Artificiales, ANN (Artificial Neural Networks) están inspiradas en las redes neuronales biológicas del cerebro humano. Las ANN al margen de "parecerse" al cerebro presentan una serie de características propias del cerebro. Por ejemplo las ANN aprenden de la experiencia, generalizan de ejemplos previos a ejemplos nuevos y abstraen las características principales de una serie de datos. Abstraer: aislar mentalmente o considerar por separado las cualidades de un objeto.
  • 9. ESTRUCTURA BÁSICA DE UNA RED NEURONAL Redes Neuronales Artificiales.-En las Redes Neuronales Artificiales, ANN, la unidad análoga a la neurona biológica es el elemento procesador, PE (process element). Un elemento procesador tiene varias entradas y las combina, normalmente con una suma básica. La suma de las entradas es modificada por una función de transferencia y el valor de la salida de esta función de transferencia se pasa directamente a la salida del elemento procesador. La salida del PE se puede conectar a las entradas de otras neuronas artificiales (PE) mediante conexiones ponderadas correspondientes a la eficacia de la sinapsis de las conexiones neuronales. Una red neuronal consiste en un conjunto de unidades elementales PE conectadas de una forma concreta. El interés de las ANN no reside solamente en el modelo del elemento PE sino en las formas en que se conectan estos elementos procesadores. Generalmente los elementos PE están organizados en grupos llamados niveles o capas. Una red típica consiste en una secuencia de capas con conexiones entre capas adyacentes consecutivas. Existen dos capas con conexiones con el mundo exterior. Una capa de entrada, buffer de entrada, donde se presentan los datos a la red, y una capa buffer de salida que mantiene la respuesta de la red a una entrada. El resto de las capas reciben el nombre de capas ocultas.
  • 10. 1943 McCulloch y Pitts presentan la neurona formal. 1949 D. Hebb publica su regla de aprendizaje para neuronas. 1951 Minsky plantea su máquina neuronal. 1956 Rochester, Holland, entre otros, realizan pruebas sobre ensambles de células y su acción en el cerebro. 1958 Von Neumann propone un modelo para el cerebro. 1958 Rosenblatt propone el perceptrón. 1960 Widrow y Hopf presentan el Adaline y el aprendizaje por ajuste de mínimos cuadrados. Lo aplican a la eliminación del eco en llamadas telefónicas y constituye la primera aplicación práctica de las redes neuronales. 1969 Minsky y Papert analizan el preceptrón y encuentran que tiene limitaciones lógicas importantes. HISTORIA DE LA COMPUTACIÓN NEURONAL Los primeros años
  • 11. Reflexión y estancamiento 1972 Kohonen presenta sus primeros trabajos sobre redes neuronales y memorias asociativas. 1972 J. Anderson desarrolla la red neuronal llamada: “estado cerebral en una caja”. 1975 Fukushima, en los laboratorios NHK, en Tokio, desarrolla el cognitrón, una red neuronal especializada en reconocimiento de patrones. No logra reconocer caracteres distorsionados o rotados. 1976 Grossberg, en la Universidad de Boston, inicia sus trabajos sobre redes neuronales artificiales. Se distingue por su carácter altamente matemático y con sentido biológico. 1982 Kohonen presenta la red que ahora se llama mapeo autoorganizado (SOM por su nombre en inglés).
  • 12. La década de oro de las redes neuronales 1982-1985 J. Hopfield presenta la red de aprendizaje mediante la regla de Hebb. Utiliza técnicas de la Física Estadística para demostrar que tiene propiedades de memoria asociativa. Gran impacto en el mundo de los físicos. 1984 Ackley, Hinton y Sejnoski desarrollan la máquina de Boltzmann. Una red neuronal 1985 Se establece el sistema de propagación hacia atrás, que había aparecido para ser olvidado en diversas ocasiones. 1986 Surge el mapeo de Kohonen. 2000 El paralelismo, las redes neuronales y la inteligencia articial en general, convergen en una teoría del aprendizaje de desarrollo acelerado con aplicaciones muy diversas.
  • 13. Una red neuronal es un sistema compuesto de muchos elementos procesadores simples operando en paralelo, cuya función es determinada por la estructura de la red, fuerza en las conexiones y el procesamiento realizado por los elementos computacionales en los nodos
  • 14. "Una red neuronal es un procesamiento distribuido masivamente paralelo que tiene una tendencia natural para almacenar conocimiento empírico y hacerlo disponible para el uso” Haykin, S
  • 15.
  • 16. Una Red Neuronal viene caracterizada por: •Topología •La intensidad de la conexión entre sus pares de neuronas (pesos) •Las propiedades de los nodos •Las reglas de aprendizaje de pesos, controlan los pesos y/o estados de los elementos de procesados (neuronas).
  • 17. •Dos tipos de aprendizaje •Supervisado •No supervisado •Dos fases de operación •Entrenamiento de la red •Recuperacion de lo aprendido
  • 18. •No son algorítmicas Las RNA generan ellas mismas sus propias "reglas", para asociar la respuesta a su entrada; es decir, aprende por ejemplos y de sus propios errores. •Requieren de algún tipo de patrón Problemas que son muy difíciles de calcular pero que no requieren de respuestas perfectas, sólo respuestas rápidas y buenas. Tal y como acontece con el escenario bursátil en el que se quiere saber ¿compro?, ¿vendo?, ¿mantengo?, o en el reconocimiento cuando se desea saber ¿se parece? ¿es el mismo pero tienen una ligera modificación?
  • 19. La ventaja de las Redes Neuronales Artificiales (RNA), reside en el procesado paralelo, adaptativo y no lineal. Las (RNA) han encontrado muchas aplicaciones con éxito en la visión artificial, en el procesado de señales e imágenes, reconocimiento del habla y de caracteres, análisis de imágenes médicas, control remoto, control de robots, inspección industrial y exploración científica. El dominio de aplicación de las (RNA) se puede clasificar de la siguiente forma: •Asociación y clasificación •Regeneración de patrones •Regresión y generalización •Optimización
  • 20. Las Redes Neuronales son útiles para: Clasificación de patrones Aproximación de funciones Mapeo En los que exista información imprecisa y con tolerancia a fallos Aprendizaje Adaptativo Autoorganización Tolerancia a Fallos Operación en tiempo real Fácil construcción en circuitos integrados
  • 21. La entrada total de la unidad k es la suma ponderada de las entradas que recibe más el término de offset Este tipo de expresiones que calculan la entrada total se denominan reglas de propagación y, en general, pueden tener diferentes expresiones
  • 22. El número de capas intermedias y el número de neuronas de cada capa dependerá del tipo de aplicación al que se vaya a destinar la red neuronal.
  • 24. Los elementos de procesado de una red neuronal se distribuyen por capas, existen tres tipos de capas: 1. Capa de entrada: Dependen del problema a abordar 2. Capa de salida: Salidas que proporciona la estructura 3. Capas ocultas: Conjunto de elementos de procesado asociados en capas que se encuentran entre la capa de entrada y la capa de salida
  • 25. •Las funciones (tanto de activación como de salida) de los elementos de procesado pueden ser diferentes •No existe limitación en el número de capas ocultas •En general, cuanto mayor sea la diferencia entre los elementos de entrada y los de salida, será necesario dotar a la estructura de más capas ocultas •La habilidad de la red para procesar información crece en proporción directa al número de capas ocultas
  • 26. En función de la dirección del movimiento de la información se puede realizar una clasificación: Redes feedforward Redes feedback Redes feedlateral
  • 27. Supervisado En el aprendizaje supervisado (aprender con un maestro), la adaptación sucede cuando el sistema compara directamente la salida que proporciona la red con la salida que se desearía obtener de dicha red; existen 3 tipos: Por corrección de error Por refuerzo Estocástico
  • 28. Regla delta Una red con una única capa con una única neurona en la salida con una función de activación lineal, la salida viene dada por: Supongamos que vamos a entrenar una red de decisión más idóneo para un conjunto de muestras de entrada consistentes “x” y valores de salida deseada “d”. Para cada muestra dada del conjunto de entrada, la salida real de la red difiere de la salida deseada en “d-y”, donde y es la salida real de la red correspondiente a la entrada x
  • 29. La función de error, dada por el método del menor error cuadrático medio, es la suma de los cuadrados de los errores individuales de cada patrón. Es decir, el error total E viene dado por: Los valores de los pesos de conexión se buscan de forma tal que se minimice la función E y este proceso se realiza por un método conocido gradiente descendiente
  • 30. Dado que la función de activación es lineal, como se comentaba al comienzo,
  • 31.
  • 32. ¿Cuántas capas ocultas? Por experiencia se sabe que usar más de una capa oculta casi nunca es benéfico. El problema es que el entrenamiento es dramáticamente más lento cuando se usan más capas ocultas. Esto se debe a dos efectos: •La capa adicional a través de la cual los errores deben ser retropropagados hace que el gradiente sea más inestable. •El número de mínimos falsos se incrementa usualmente de una manera dramática.
  • 33. ¿Cuántas neuronas ocultas? •El usar muy pocas neuronas ocultas dejará a la red neuronal sin los recursos necesarios para resolver el problema •El usar muchas neuronas podrá incrementar el tiempo de entrenamiento •Además, un número excesivo de neuronas ocultas puede causar un problema de sobreajuste.
  • 34. ¿Cuántas neuronas ocultas? Un paradigma somero para la elección del número de neuronas ocultas en muchos problemas es la regla de la pirámide geométrica.
  • 35. ¿Cuánto tiempo se debe entrenar? Se dice que las redes neuronales pueden ser sobreentrenadas. Quiere decir que hay una cantidad óptima de entrenamiento y que se puede entrenar más allá de dicho punto para mejorar el funcionamiento en el conjunto de entrenamiento, pero degradando dicho funcionamiento en la población general.
  • 36.  Las principales aplicaciones de la inteligencia artificial está constituido por sistemas expertos, algoritmos genéticos , redes neuronales, etc, sabiendo que la industria minera trabaja con una gran cantidad de datos, que matemáticamente su solución se vuelve compleja complicándose encontrar una correspondencia de la variables, las redes neuronales destierran completamente a las técnicas convencionales matemáticas. APLICACIONES
  • 37.  Algoritmos genéticos y redes neuronales artificiales para la programación de vehículos inteligentes no tripulados para la operación en la mina con la finalidad de acceder a espacios confinados, detonar tiros cortados o superar condiciones de alto riesgo evitando la presencia y exposición de colaboradores humanos en dichas tareas.
  • 38.  Redes neuronales artificiales para dosificar el flujo de aire en la ventilación minera subterránea de manera que se optimice las descargas en función a la necesidad de aire, reduciendo los costos.
  • 39.  ESTIMACION DE PROPIEDADES MECANICAS DE LA ROCA CON REDES NEURONALES.
  • 40. Propiedades petrofísicas Porosidad. Es la fracción del volumen total de la roca ocupada por su espacio vacío (lleno de agua , aire ) , y representa el porcentaje del espacio total que puede ser ocupado por líquidos o gases. Esta propiedad determina la propiedad de acumulación de las rocas y, generalmente, se expresa como porcentaje o fracción de la unidad . Permeabilidad (k) Es la capacidad de una roca para permitir el paso de fluidos a través de ellos sin modificar su estructura interna, por lo que determina la velocidad a la que se desplaza el fluido que contiene por unidad de tiempo. Se dice que un material es permeable si deja pasar a través de el una cantidad apreciable de fluido en un tiempo dado, e impermeable si la cantidad de fluido es despreciable.
  • 41.
  • 42. Propiedades Mecánicas  Resistencia a la compresión sin confinamiento (UCS)
  • 43.
  • 44. Porosidad % Permeabilidad (mD) Resistencia (PSI) 20 12 1200 18,8 40 3800 17,9 62 4700 17,4 69 5000 16,8 80 7000 15 96 8970 15,7 91 8300 12 183 15000 10 198 17000 8 307 25000 DATOS DE LABORATORIO
  • 45. La tabla muestra claramente las entradas y salidas para cada propiedad. Desarrollo de la herramienta
  • 46. La figura muestra la representación gráfica de las configuraciones seleccionadas por el algoritmo genético teniendo la porosidad y la permeabilidad como datos de entrada. Como dato de salida se obtiene la resistencia a la compresión sin confinamiento (UCS).
  • 47. Para el caso de la resistencia a la compresión uniaxial, la figura muestra la comparación entre valores reales y estimados por la red neuronal.
  • 48. Análisis de resultados • Se probaron diferentes configuraciones de red neuronal por tipo de prueba, buscando las que más se ajustaran al conjunto de datos y, la seleccionada presenta error promedio de 2.2058 % respectivamente para cada una de las pruebas. • Con las pruebas que se presentaron para diversos conjuntos de datos de entrenamiento, se demuestra cómo realmente se logra una generalización con el modelo propuesto y se facilita con su análisis determinar el número de datos que se hacen necesarios para obtener resultados confiables.
  • 49. Conclusiones • Se calculo la propiedad mecánica de roca (resistencia a la compresión sin confinamiento )utilizando métodos propios de la inteligencia artificial (redes neuronales). • El modelo de redes neuronales descrito muestra que este puede ser un modelo de confianza para la determinación de las propiedades mecánicas utilizando información de petrofísica y requiriendo un conjunto de datos experimentales obtenidos previamente.
  • 50. Creación y Entrenamiento de la Red Neuronal ANEXO
  • 51. Simulación de la Red Neuronal ya entrenada
  • 52. Parametros de interes durante el entrenamiento
  • 53. 0 500 1000 1500 10 -4 10 -3 10 -2 10 -1 10 0 1581 Epochs Training-BlueGoal-Black Performance is 9.99819e-005, Goal is 0.0001 Error vs Numero de Entrenamientos (Epochs)
  • 54. Utilización de la Red con datos de 14% de porosidad y 140 mD permeabilidad
  • 55. Bibliografía http://oa.upm.es/14183/1/MECANICA_DE_ROCAS_1.pdf http://webcache.googleusercontent.com/search?q=cache:JbAH0u2gAWoJ:https://www.u- cursos.cl/ingenieria/2011/2/GL5201/1/material_docente/objeto/384079+&cd=1&hl=es&ct=clnk&gl =pe http://ocw.uis.edu.co/ingenieria-civil/estabilidad-de- taludes/clase11/ensayos_geotecnicos_de_rocas.pdf Título: REDES NEURONALES ARTIFICIALES Y SUS APLICACIONES Autor: Xavier Basogain Olave Escuela superior de ingeniería Bilbao Título: NEURAL NETWORKS. Autor: Simon HayLin McMaster University. Hamilton,Ontorio, Canada Título: MODELIZACION ESTADISTICA CON REDES NEURONALES. Autor: Maria Castellano Mendez. Diciembre 2009.