Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Javier perez metodos de optimizacion
1. REPÚBLICA BOLIVARIANA DE VENEZUELA
INSTITUTO UNIVERSITARIO POLITÉCNICO SANTIAGO MARIÑO
ESCUELA 47 – ING. DE SISTEMAS
OPTIMIZACIÓN DE SISTEMAS
EXTENSIÓN – PORLAMAR
Autor:
Javier Pérez
CI: 18865345
Porlamar, 06 de Marzo 2017
2. INTRODUCCIÓN
La optimización se utiliza en diversas áreas como las ciencias aplicadas, ingeniería,
economía y muchas más, los métodos de búsqueda han mostrado la relación existente entre
los diversos procesos y la solución de problemas complejos.
La mayoría de los métodos de búsqueda están inspirados en procesos naturales
algunos se consideran confiables y con la debida robustez para ser aplicados en la solución
de un problema de optimización.
Cada uno de los métodos descrito en la investigación pueden ser aplicado a cualquier
problema, cada uno de ellos tiene la robustez que se adecua a la dificultad del mismo, es
decir que el método adecuado evita tomar el camino más difícil de la solución.
Aunque la optimización y los métodos de búsqueda ya se evidenciaban en el año
1202 después de Cristo es cierto que guarda una gran relación con la IO y la programación
lineal, que se ha dedicado tanto a la maximización como a la minimización de funciones
donde las variables de la función están sujetas a una serie de restricciones, lo mismo que
propone Joseph LaGrange en su método el cual sirvió de generalización para las
condiciones de Karush Kuhn-Tucker.
3. Método de Fletcher Reevés
Corresponde a la versión del método del gradiente conjugado en el caso de una
función f general, el método de Fletcher Reeves deberá converger en N iteraciones para el
caso de una función cuadrática mal condicionadas, el método puede requerir mucho mas
de N iteraciones para converger.
La iteración se define de la siguiente manera:
Ejemplo: Volviendo al problema de optimización bi-dimensional.
min 1 − 2 + 1 − 2 2
En la siguiente tabla se muestran 3 iteraciones del método de Fletcher-Reeves a partir
de = 0.00, 3.00
Método Fletcher-Powell
Es una técnica de gradientes ampliamente utilizada, el método tiende a tener un buen
comportamiento en una gran variedad de problemas.
k ∇ ‖∇ ‖
0
1
2
3
(0.00, 3.00)
(2.54, 1.21)
(2.25, 1.10)
(2.19, 1.09)
52.00
0.10
0.008
0.0017
(−44.00, 24.00)
(0.87, −0.48)
(0.16, −0.20)
(0.05, −0.04)
50.12
0.99
0.32
0.06
0.062
0.11
0.10
0.11
= 0
= −∇
=
∇ f ∇
∇ ∇
= −∇ +
Etapa 0: Seleccionar un punto inicial 0 ∈ "#
Etapa 1: Calcular solución del problema unidimensional:
= arg '()* +
= +
Si ‖ − ‖ ≈ 0 => -./0
Si no, seguir a Etapa 2
Etapa 2: Calcular ∇
1 = 1 + 1 Y volver a la etapa 1
4. Una de las desventajas de este método es que es la necesidad de almacenar la matriz
A de N x N una de las dificultades comunes es la tendencia de A (K+1) a estar mal
condicionada, lo que causa una mayor dependencia a un procedimiento de reiniciación.
Este método se basa en genera direcciones conjugadas lo que nos permite obtener la
convergencia de una manera más rápida con respecto a otros métodos.
Ejemplo: '() , 2 "
3 = −4 ∇
1) Paso definir: 5 = , 1 = 1, 3 = 1 ‖∇ ‖ < ∈
min 5 +⋋ ⋋ ≥ 0
2) 9 = ⋋9 9 = 59 + 1 − 59 => 5 = 5 + ⋋
:9 = ∇ ;59 + 1< − ∇ 59 => ∇ 5
49 + 1 = 49 +
9 9
9 9
−
49 :9 :9 49
:9 49:9
Método de Fibonacci.
Fibonacci fue el más grandes de los matemáticos europeos dela edad media, su
nombre fue Leonardo Fibonacci de Pisa, ya que nació en Pisa en 1175 después de cristo,
este escribió un libro “Libro del Abaco” o “libro de cálculo”. En (1842-1891) el
matemático Francés Edouard Lucas dio el nombre de números de Fibonacci a la serie de
números mencionados por Fibonacci en su libro.
El método de Fibonacci está considerado como el más eficiente entre los métodos de
búsqueda. Difiere del método de la sección áurea en el hecho de que el valor de no
permanece constante en cada iteración además, el número de iteraciones viene
predeterminado en base al nivel de exactitud especificado por el usuario.
El método de Fibonacci debe su nombre a que se utiliza la sucesión de Fibonacci
=0 = =1 = 1; =) = =) − 1 + =) − 2.
5. Este simplemente se basa en seguir una secuencia sumando los dos últimos números
de la serie, ejemplo: 1 1 2 3 5 8 13.
Ejercicio:
Dada la sucesión 2?
; 3 ∗ )A
; 5 ∗ )C
; 7 E
∗ ) ; 11 F
∗ )A
; 5 ∗ )G
calcular:
H = − 5 A
− I
Solución: tK = pM
∗ nN
p → numeros primos
2; 3; 5; 7; 11; 13 … => 5 = 13
U → 7; 10; 14; 19; 25; I => I = 32
X → 0; 2; 6; 12; X; 30 => X = 20
H = − 5 A
− I = 20 − 13 A
− 32
Condición de KUHN – TUCKER
Las condiciones de Karush Kuhn – Tucker son una generalización del método de los
multiplicadores de LaGrange para restricciones de desigualdad.
Ejercicio: se pide encontrar los valores máximos y mínimos de la función
F.O = 3 −
1) ≤ 0 ≤ 0
52 + ≤ 2
2) Se igualan las variables
* ≤ 0
0 ≤ → * = − ≤ 0
0 ≤ → * = − ≤ 0
+ ≤ 2 → *G = 2 − 2 ≤ 0
3 4 5 6 7
2 4 6 8 10
7. Método de Fletcher Reevés
Corresponde a la versión del método del gradiente conjugado en el caso de una
función f general, el método de Fletcher Reeves deberá converger en N iteraciones para el
caso de una función cuadrática mal condicionadas, el método puede requerir mucho mas
de N iteraciones para converger.
La iteración se define de la siguiente manera:
Ejemplo: Volviendo al problema de optimización bi-dimensional.
min 1 − 2 + 1 − 2 2
En la siguiente tabla se muestran 3 iteraciones del método de Fletcher-Reeves a partir
de = 0.00, 3.00
Método Fletcher-Powell
Es una técnica de gradientes ampliamente utilizada, el método tiende a tener un buen
comportamiento en una gran variedad de problemas.
k ∇ ‖∇ ‖
0
1
2
3
(0.00, 3.00)
(2.54, 1.21)
(2.25, 1.10)
(2.19, 1.09)
52.00
0.10
0.008
0.0017
(−44.00, 24.00)
(0.87, −0.48)
(0.16, −0.20)
(0.05, −0.04)
50.12
0.99
0.32
0.06
0.062
0.11
0.10
0.11
= 0
= −∇
=
∇ f ∇
∇ ∇
= −∇ +
Etapa 0: Seleccionar un punto inicial 0 ∈ "#
Etapa 1: Calcular solución del problema unidimensional:
= arg '()* +
= +
Si ‖ − ‖ ≈ 0 => -./0
Si no, seguir a Etapa 2
Etapa 2: Calcular ∇
1 = 1 + 1 Y volver a la etapa 1