Aproximación de funciones Nos permite representar funciones de N variables Donde;  {  S   j }  j ∈  J  son  subconjuntos i...
Aprendizaje por retropropagación <ul><li>Red de retropropagación con rata de aprendizaje variable : </li></ul>Característi...
<ul><li>Método del gradiente conjugado: </li></ul>Se puede aplicar para obtener los pesos sinápticos del perceptrón  multi...
<ul><li>Algoritmo Levenberg – Marquadt :   </li></ul>Este algoritmo es una modificación del método de Newton, el que fue  ...
Próxima SlideShare
Cargando en…5
×

Aproximacion de Funciones

836 visualizaciones

Publicado el

Publicado en: Viajes, Empresariales
0 comentarios
0 recomendaciones
Estadísticas
Notas
  • Sé el primero en comentar

  • Sé el primero en recomendar esto

Sin descargas
Visualizaciones
Visualizaciones totales
836
En SlideShare
0
De insertados
0
Número de insertados
8
Acciones
Compartido
0
Descargas
13
Comentarios
0
Recomendaciones
0
Insertados 0
No insertados

No hay notas en la diapositiva.

Aproximacion de Funciones

  1. 1. Aproximación de funciones Nos permite representar funciones de N variables Donde; { S j } j ∈ J son subconjuntos incomparables Mediante  Funciones lineales La cual la podemos describir con la siguiente expresión
  2. 2. Aprendizaje por retropropagación <ul><li>Red de retropropagación con rata de aprendizaje variable : </li></ul>Característica de convergencia para una rata de aprendizaje variable Es un métodos heurísticos para modificar el algoritmo Backpropagation tradicional. A través de la siguiente matriz:
  3. 3. <ul><li>Método del gradiente conjugado: </li></ul>Se puede aplicar para obtener los pesos sinápticos del perceptrón multicapas que minimizan la función de error. Consiste en: Trayectoria del Gradiente Conjugado <ul><li>Seleccionar la dirección de p 0 del gradiente: </li></ul>Donde <ul><li>Seleccionar la rata de aprendizaje </li></ul>para minimizar la función a lo largo de la dirección <ul><li>Seleccionar la dirección siguiente de acuerdo a la ecuación </li></ul>
  4. 4. <ul><li>Algoritmo Levenberg – Marquadt : </li></ul>Este algoritmo es una modificación del método de Newton, el que fue diseñado para minimizar funciones que sean la suma de los cuadrados de otras funciones no lineales <ul><li>Se presentan todas las entradas a la red, se </li></ul><ul><li>calculan las correspondientes salidas y cada </li></ul><ul><li>uno de los errores según </li></ul><ul><li>                 </li></ul>2. Se calculan las sensitividades individuales y la matriz sensitividad total y con estas, se calculan los elementos de la matriz Jacobiana. 3. Se obtiene      4. Se recalcula la suma de los errores cuadrados usando . 5. El algoritmo debe alcanzar convergencia cuando la norma del gradiente de                                               Trayectoria del algoritmo Levenberg-Marquardt

×