Aproximación de funciones Nos permite representar funciones de N variables Donde;  {  S   j }  j ∈  J  son  subconjuntos incomparables   Mediante   Funciones lineales La cual la podemos describir con la siguiente expresión
Aprendizaje por retropropagación Red de retropropagación con rata de aprendizaje variable : Característica de convergencia para  una rata de aprendizaje variable   Es un métodos heurísticos para modificar  el algoritmo Backpropagation tradicional. A través de la siguiente matriz:
Método del gradiente conjugado: Se puede aplicar para obtener los pesos sinápticos del perceptrón  multicapas que minimizan la función de error. Consiste en: Trayectoria del  Gradiente Conjugado  Seleccionar la dirección de  p 0   del gradiente: Donde  Seleccionar la rata de aprendizaje  para minimizar la función a lo largo de la dirección  Seleccionar la dirección siguiente de acuerdo a la ecuación
Algoritmo Levenberg – Marquadt :   Este algoritmo es una modificación del método de Newton, el que fue  diseñado para minimizar funciones que sean la suma de los cuadrados  de otras funciones no lineales  Se presentan todas las entradas a la red, se  calculan las correspondientes salidas y cada  uno de los errores según                   2.  Se calculan las sensitividades individuales y la  matriz sensitividad total y con estas, se  calculan los elementos de la matriz Jacobiana.  3.  Se obtiene        4.  Se recalcula la suma de los errores cuadrados usando .  5.  El algoritmo debe alcanzar convergencia cuando la norma del gradiente de                                               Trayectoria del algoritmo  Levenberg-Marquardt

Aproximacion de Funciones

  • 1.
    Aproximación de funcionesNos permite representar funciones de N variables Donde; { S j } j ∈ J son subconjuntos incomparables Mediante  Funciones lineales La cual la podemos describir con la siguiente expresión
  • 2.
    Aprendizaje por retropropagaciónRed de retropropagación con rata de aprendizaje variable : Característica de convergencia para una rata de aprendizaje variable Es un métodos heurísticos para modificar el algoritmo Backpropagation tradicional. A través de la siguiente matriz:
  • 3.
    Método del gradienteconjugado: Se puede aplicar para obtener los pesos sinápticos del perceptrón multicapas que minimizan la función de error. Consiste en: Trayectoria del Gradiente Conjugado Seleccionar la dirección de p 0 del gradiente: Donde Seleccionar la rata de aprendizaje para minimizar la función a lo largo de la dirección Seleccionar la dirección siguiente de acuerdo a la ecuación
  • 4.
    Algoritmo Levenberg –Marquadt : Este algoritmo es una modificación del método de Newton, el que fue diseñado para minimizar funciones que sean la suma de los cuadrados de otras funciones no lineales Se presentan todas las entradas a la red, se calculan las correspondientes salidas y cada uno de los errores según                  2. Se calculan las sensitividades individuales y la matriz sensitividad total y con estas, se calculan los elementos de la matriz Jacobiana. 3. Se obtiene      4. Se recalcula la suma de los errores cuadrados usando . 5. El algoritmo debe alcanzar convergencia cuando la norma del gradiente de                                               Trayectoria del algoritmo Levenberg-Marquardt