UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...
2º asignacion redes neuronales
1. REDES NEURONALES (Neural
Networks)
Y SU APLICACION A LA MINERIA
INTEGRANTES:
- MARTINEZVELARDE, Alfredo
- MELENDEZHUAMAN, Omar
- DE LA CRUZ ORDOÑEZ, David
- PANEZ DELGADO,Wilder
- ROJAS CRISTOBAL, Oscar
7. El cerebro humano es el sistema de cálculo más complejo que conoce el hombre. El
ordenador y el hombre realizan bien diferentes clases de tareas; así la operación de
reconocer el rostro de una persona resulta una tarea relativamente sencilla para el
hombre y difícil para el ordenador, mientras que la contabilidad de una empresa es tarea
costosa para un experto contable y una sencilla rutina para un ordenador básico.
Un grupo de investigadores ha perseguido la creación de un modelo en el ordenador que
iguale o adopte las distintas funciones básicas del cerebro. El resultado ha sido una nueva
tecnología llamada Computación Neuronal o también Redes Neuronales Artificiales.
8. CARACTERÍSTICAS DE LAS REDES NEURONALES ARTIFICIALES
Las Redes Neuronales Artificiales, ANN (Artificial Neural Networks) están inspiradas en las redes
neuronales biológicas del cerebro humano.
Las ANN al margen de "parecerse" al cerebro presentan una serie de características propias del
cerebro. Por ejemplo las ANN aprenden de la experiencia, generalizan de ejemplos previos a
ejemplos nuevos y abstraen las características principales de una serie de datos.
Abstraer: aislar mentalmente o considerar por separado las cualidades de un objeto.
9. ESTRUCTURA BÁSICA DE UNA RED NEURONAL
Redes Neuronales Artificiales.-En las Redes Neuronales Artificiales, ANN, la unidad análoga a la neurona biológica es el
elemento procesador, PE (process element). Un elemento procesador tiene varias entradas y las combina, normalmente con
una suma básica. La suma de las entradas es modificada por una función de transferencia y el valor de la salida de esta
función de transferencia se pasa directamente a la salida del elemento procesador.
La salida del PE se puede conectar a las entradas de otras neuronas artificiales (PE) mediante conexiones ponderadas
correspondientes a la eficacia de la sinapsis de las conexiones neuronales.
Una red neuronal consiste en un conjunto de unidades elementales PE conectadas de una forma concreta. El interés de las
ANN no reside solamente en el modelo del elemento PE sino en las formas en que se conectan estos elementos
procesadores. Generalmente los elementos PE están organizados en grupos llamados niveles o capas. Una red típica
consiste en una secuencia de capas con conexiones entre capas adyacentes consecutivas.
Existen dos capas con conexiones con el mundo exterior. Una capa de entrada, buffer de entrada, donde se presentan los
datos a la red, y una capa buffer de salida que mantiene la respuesta de la red a una entrada. El resto de las capas reciben
el nombre de capas ocultas.
10. 1943 McCulloch y Pitts presentan la neurona formal.
1949 D. Hebb publica su regla de aprendizaje para neuronas.
1951 Minsky plantea su máquina neuronal.
1956 Rochester, Holland, entre otros, realizan pruebas sobre ensambles de células y su acción en el
cerebro.
1958 Von Neumann propone un modelo para el cerebro.
1958 Rosenblatt propone el perceptrón.
1960 Widrow y Hopf presentan el Adaline y el aprendizaje por ajuste de mínimos cuadrados. Lo aplican
a la eliminación del eco en llamadas telefónicas y constituye la primera aplicación práctica de las
redes neuronales.
1969 Minsky y Papert analizan el preceptrón y encuentran que tiene limitaciones lógicas importantes.
HISTORIA DE LA COMPUTACIÓN NEURONAL
Los primeros años
11. Reflexión y estancamiento
1972 Kohonen presenta sus primeros trabajos sobre redes neuronales y memorias
asociativas.
1972 J. Anderson desarrolla la red neuronal llamada: “estado cerebral en una caja”.
1975 Fukushima, en los laboratorios NHK, en Tokio, desarrolla el cognitrón, una red neuronal
especializada en reconocimiento de patrones. No logra reconocer caracteres
distorsionados o rotados.
1976 Grossberg, en la Universidad de Boston, inicia sus trabajos sobre redes neuronales
artificiales. Se distingue por su carácter altamente matemático y con sentido biológico.
1982 Kohonen presenta la red que ahora se llama mapeo autoorganizado (SOM por su nombre
en inglés).
12. La década de oro de las redes
neuronales
1982-1985 J. Hopfield presenta la red de aprendizaje mediante la regla de Hebb. Utiliza técnicas
de la Física Estadística para demostrar que tiene propiedades de memoria asociativa.
Gran impacto en el mundo de los físicos.
1984 Ackley, Hinton y Sejnoski desarrollan la máquina de Boltzmann. Una red neuronal
1985 Se establece el sistema de propagación hacia atrás, que había aparecido para ser olvidado en
diversas ocasiones.
1986 Surge el mapeo de Kohonen.
2000 El paralelismo, las redes neuronales y la inteligencia articial en general, convergen en una teoría del
aprendizaje de desarrollo acelerado con aplicaciones muy diversas.
13. Una red neuronal es un
sistema compuesto de
muchos elementos
procesadores simples
operando en paralelo,
cuya función es
determinada por la
estructura de la red,
fuerza en las conexiones
y el procesamiento
realizado por los
elementos
computacionales en los
nodos
14. "Una red neuronal es un procesamiento
distribuido masivamente paralelo que tiene una
tendencia natural para almacenar conocimiento
empírico y hacerlo disponible para el uso”
Haykin, S
15.
16. Una Red Neuronal viene caracterizada por:
•Topología
•La intensidad de la conexión entre sus pares de neuronas
(pesos)
•Las propiedades de los nodos
•Las reglas de aprendizaje de pesos, controlan los pesos y/o
estados de los elementos de procesados (neuronas).
17. •Dos tipos de aprendizaje
•Supervisado
•No supervisado
•Dos fases de operación
•Entrenamiento de la red
•Recuperacion de lo aprendido
18. •No son algorítmicas
Las RNA generan ellas mismas sus propias "reglas", para
asociar la respuesta a su entrada; es decir, aprende por
ejemplos y de sus propios errores.
•Requieren de algún tipo de patrón
Problemas que son muy difíciles de calcular pero que no
requieren de respuestas perfectas, sólo respuestas rápidas y
buenas. Tal y como acontece con el escenario bursátil en el
que se quiere saber ¿compro?, ¿vendo?, ¿mantengo?, o en
el reconocimiento cuando se desea saber ¿se parece? ¿es
el mismo pero tienen una ligera modificación?
19. La ventaja de las Redes Neuronales Artificiales (RNA), reside en el
procesado paralelo, adaptativo y no lineal. Las (RNA) han
encontrado muchas aplicaciones con éxito en la visión artificial, en
el procesado de señales e imágenes, reconocimiento del habla y
de caracteres, análisis de imágenes médicas, control remoto,
control de robots, inspección industrial y exploración científica.
El dominio de aplicación de las (RNA) se puede clasificar de la
siguiente forma:
•Asociación y clasificación
•Regeneración de patrones
•Regresión y generalización
•Optimización
20. Las Redes Neuronales son útiles para:
Clasificación de patrones
Aproximación de funciones
Mapeo
En los que exista información imprecisa y con tolerancia a fallos
Aprendizaje Adaptativo
Autoorganización
Tolerancia a Fallos
Operación en tiempo real
Fácil construcción en circuitos integrados
21. La entrada total de la unidad k es la suma ponderada de
las entradas que recibe más el término de offset
Este tipo de expresiones que calculan la entrada total se
denominan reglas de propagación y, en general, pueden
tener diferentes expresiones
22. El número de capas intermedias y el número de neuronas de
cada capa dependerá del tipo de aplicación al que se vaya a
destinar la red neuronal.
24. Los elementos de procesado de una red neuronal se distribuyen
por capas, existen tres tipos de capas:
1. Capa de entrada: Dependen del problema a abordar
2. Capa de salida: Salidas que proporciona la estructura
3. Capas ocultas: Conjunto de elementos de procesado asociados
en capas que se encuentran entre la capa de entrada y la capa
de salida
25. •Las funciones (tanto de activación como de salida) de los
elementos de procesado pueden ser diferentes
•No existe limitación en el número de capas ocultas
•En general, cuanto mayor sea la diferencia entre los elementos
de entrada y los de salida, será necesario dotar a la estructura
de más capas ocultas
•La habilidad de la red para procesar información crece en
proporción directa al número de capas ocultas
26. En función de la dirección
del movimiento de la
información se puede
realizar una clasificación:
Redes feedforward
Redes feedback
Redes feedlateral
27. Supervisado
En el aprendizaje supervisado (aprender con un maestro),
la adaptación sucede cuando el sistema compara
directamente la salida que proporciona la red con la salida
que se desearía obtener de dicha red; existen 3 tipos:
Por corrección de error
Por refuerzo
Estocástico
28. Regla delta
Una red con una única capa con una única neurona en la salida con una
función de activación lineal, la salida viene dada por:
Supongamos que vamos a entrenar una red de decisión más idóneo para
un conjunto de muestras de entrada consistentes “x” y valores de
salida deseada “d”.
Para cada muestra dada del conjunto de entrada, la salida real de la red
difiere de la salida deseada en “d-y”, donde y es la salida real de la red
correspondiente a la entrada x
29. La función de error, dada por el método del menor error cuadrático
medio, es la suma de los cuadrados de los errores individuales de
cada patrón. Es decir, el error total E viene dado por:
Los valores de los pesos de conexión se buscan de forma tal que se
minimice la función E y este proceso se realiza por un método conocido
gradiente descendiente
30. Dado que la función de
activación es lineal, como se
comentaba al comienzo,
31.
32. ¿Cuántas capas ocultas?
Por experiencia se sabe que usar más de una capa oculta casi nunca es
benéfico. El problema es que el entrenamiento es dramáticamente más
lento cuando se usan más capas ocultas. Esto se debe a dos efectos:
•La capa adicional a través de la cual los errores deben ser
retropropagados hace que el gradiente sea más inestable.
•El número de mínimos falsos se incrementa usualmente de
una manera dramática.
33. ¿Cuántas neuronas ocultas?
•El usar muy pocas neuronas ocultas dejará a la red neuronal sin los
recursos necesarios para resolver el problema
•El usar muchas neuronas podrá incrementar el tiempo de
entrenamiento
•Además, un número excesivo de neuronas ocultas puede causar un
problema de sobreajuste.
34. ¿Cuántas neuronas ocultas?
Un paradigma somero para la elección del número de neuronas ocultas
en muchos problemas es la regla de la pirámide geométrica.
35. ¿Cuánto tiempo se debe entrenar?
Se dice que las redes neuronales pueden ser sobreentrenadas. Quiere
decir que hay una cantidad óptima de entrenamiento y que se puede
entrenar más allá de dicho punto para mejorar el funcionamiento en el
conjunto de entrenamiento, pero degradando dicho funcionamiento en la
población general.
36. Las principales aplicaciones de la inteligencia
artificial está constituido por sistemas
expertos, algoritmos genéticos , redes
neuronales, etc, sabiendo que la industria
minera trabaja con una gran cantidad de datos,
que matemáticamente su solución se vuelve
compleja complicándose encontrar una
correspondencia de la variables, las redes
neuronales destierran completamente a las
técnicas convencionales matemáticas.
APLICACIONES
37. Algoritmos genéticos y redes neuronales
artificiales para la programación de vehículos
inteligentes no tripulados para la operación en
la mina con la finalidad de acceder a espacios
confinados, detonar tiros cortados o superar
condiciones de alto riesgo evitando la
presencia y exposición de colaboradores
humanos en dichas tareas.
38. Redes neuronales artificiales para dosificar el
flujo de aire en la ventilación minera
subterránea de manera que se optimice las
descargas en función a la necesidad de aire,
reduciendo los costos.
39. ESTIMACION DE PROPIEDADES
MECANICAS DE LA ROCA CON
REDES NEURONALES.
40. Propiedades petrofísicas
Porosidad.
Es la fracción del volumen total de la roca ocupada por su espacio vacío (lleno de agua , aire
) , y representa el porcentaje del espacio total que puede ser ocupado por líquidos
o gases. Esta propiedad determina la propiedad de acumulación de las rocas
y, generalmente, se expresa como porcentaje o fracción de la unidad .
Permeabilidad (k)
Es la capacidad de una roca para permitir el paso de fluidos a través de ellos sin modificar
su estructura interna, por lo que determina la velocidad a la que se desplaza el fluido que
contiene por unidad de tiempo.
Se dice que un material es permeable si deja pasar a través de el una
cantidad apreciable de fluido en un tiempo dado, e impermeable si la cantidad
de fluido es despreciable.
45. La tabla muestra claramente las entradas y salidas para cada propiedad.
Desarrollo de la herramienta
46. La figura muestra la representación gráfica de las configuraciones seleccionadas por
el algoritmo genético teniendo la porosidad y la permeabilidad como datos de entrada.
Como dato de salida se obtiene la resistencia a la compresión sin confinamiento (UCS).
47. Para el caso de la resistencia a la compresión uniaxial, la figura muestra la
comparación entre valores reales y estimados por la red neuronal.
48. Análisis de resultados
• Se probaron diferentes configuraciones de red neuronal por tipo de prueba,
buscando las que más se ajustaran al conjunto de datos y, la seleccionada presenta
error promedio de 2.2058 % respectivamente para cada una de las pruebas.
• Con las pruebas que se presentaron para diversos conjuntos de datos de
entrenamiento, se demuestra cómo realmente se logra una generalización con el
modelo propuesto y se facilita con su análisis determinar el número de datos que
se hacen necesarios para obtener resultados confiables.
49. Conclusiones
• Se calculo la propiedad mecánica de roca (resistencia a la compresión sin
confinamiento )utilizando métodos propios de la inteligencia artificial (redes
neuronales).
• El modelo de redes neuronales descrito muestra que este puede ser un modelo de
confianza para la determinación de las propiedades mecánicas utilizando
información de petrofísica y requiriendo un conjunto de datos experimentales
obtenidos previamente.