1) El documento describe varias técnicas para mejorar el algoritmo de retropropagación como métodos heurísticos y de optimización numérica. 2) Los métodos heurísticos incluyen momento y razón de aprendizaje variable, mientras que los métodos de optimización son el gradiente conjugado y Levenberg-Marquardt. 3) Se proveen ejemplos para ilustrar la aplicación de estas técnicas.
46. Búsqueda de la sección de oro =0.618 Set c 1 = a 1 + (1- )( b 1 - a 1 ), F c = F ( c 1 ) d 1 = b 1 - (1- )( b 1 - a 1 ), F d = F ( d 1 ) For k =1,2, ... repeat If F c < F d then Set a k +1 = a k ; b k +1 = d k ; d k +1 = c k c k +1 = a k +1 + (1- )( b k +1 - a k +1 ) F d = F c ; F c = F ( c k +1 ) else Set a k +1 = c k ; b k +1 = b k ; c k +1 = d k d k +1 = b k +1 - (1- )( b k +1 - a k +1 ) F c = F d ; F d = F ( d k +1 ) end end until b k +1 - a k +1 < tol
47.
48. Algoritmo de gradiente Conjugado w 1 1,1 w 2 1,1 w 1 1,1 w 2 1,1 Pasos Intermedios Trayectoria Completa
53. Método de Gauss-Newton Aproximar la matriz Hessiana como: El método de Newton se transforma: x k J T x k J x k 1 – J T x k v x k – =
54. Algoritmo: Levenberg-Marquardt Gauss-Newton aproxima el Hesiano por: Esta matriz puede ser singular, pero puede ser invertible como sigue: Si los eigenvalores y eigenvectores de H son: entonces Eigenvalues of G
55. Ajuste de k Conforme k 0, LM se transforma en Gauss-Newton . Conforme k , LM se transforma en Gradiente Descendente con razón de aprendizaje pequeña .
56.
57. Aplicación a las Redes Multicapa El índice de desempeño para la red multicapa es: El vector de error es: El vector parámetro es: Las dimensiones de los dos vectores son:
58. Matriz Jacobiana J x e 1 1 w 1 1 1 - - - - - - - - - - - - - - e 1 1 w 1 2 1 - - - - - - - - - - - - - - e 1 1 w S 1 R 1 - - - - - - - - - - - - - - - - e 1 1 b 1 1 - - - - - - - - - - - - e 2 1 w 1 1 1 - - - - - - - - - - - - - - e 2 1 w 1 2 1 - - - - - - - - - - - - - - e 2 1 w S 1 R 1 - - - - - - - - - - - - - - - - e 2 1 b 1 1 - - - - - - - - - - - - e S M 1 w 1 1 1 - - - - - - - - - - - - - - - e S M 1 w 1 2 1 - - - - - - - - - - - - - - - e e S M 1 w S 1 R 1 - - - - - - - - - - - - - - - - e e S M 1 b 1 1 - - - - - - - - - - - - - - - - e 1 2 w 1 1 1 - - - - - - - - - - - - - - e 1 2 w 1 2 1 - - - - - - - - - - - - - - e 1 2 w S 1 R 1 - - - - - - - - - - - - - - - - e 1 2 b 1 1 - - - - - - - - - - - - =
59. Calculo del Jacobiano SDBP calcula terminos como: Para el Jacobiano se necesita calcular terminos como: Usando la regla de la cadena: Donde la sensibilidad Se calcula usando backpropagation.
60. Sensibilidad de Marquardt Si se define una sensibilidad de Marquardt : Se puede calcular la Jacobiana como sigue: Pesos W Umbral B
61. Calculo de las Sensibilidades Backpropagation Iniciación S ˜ m S ˜ 1 m S ˜ 2 m S ˜ Q m =