Este documento trata sobre la optimización de sistemas y funciones. Explica que la optimización busca encontrar la mejor forma de hacer algo para lograr mejores resultados, mayor eficiencia o mejor eficacia. Luego describe algunos métodos de optimización como el método de Lagrange, el método de Newton y el uso de matrices jacobianas y subgradientes para encontrar extremos de funciones sujetas a restricciones.
1. Instituto Universitario Politécnico
Santiago Mariño
Extensión Maracay
Optimización de Sistemas y
Funciones
Profesora:
Isabel Flores
Integrante:
Fernando Gonzalez
22.290.618
Maracay, Noviembre 2016
2. ¿Qué es optimizar?
Es la acción de buscar la mejor
forma de hacer algo, esto quiere decir que
es buscar mejores resultados, mayor
eficiencia o mejor eficacia en el desempeño
de algún trabajo u objetivo a lograr, en este
caso del recurso de una empresa,
llamándose optimización de recursos.
La Optimización de sistemas y
funciones
Se basa en sincronía de procesos y
pequeños ajustes, destinados a personas u
organizaciones que posean medianos o grandes
sistemas, requieran reducir sus tiempos de
procesamiento.
3. •Descripción de algoritmos para resolver
distintos tipos de problemas de
optimización.
•Análisis de las propiedades de los
algoritmos.
•Descripción de procedimientos numéricos
que permiten hacer una implementación
computacional eficiente del algoritmo.
Cálculos de optimización
Para los problemas irrestrictos con funciones dos veces
diferenciables, algunos puntos críticos pueden ser
encontrados detectando los puntos donde el gradiente de
la función objetivo es cero (es decir, los puntos
estacionarios). De forma más general, un subgradiente
cero certifica que un mínimo local ha sido encontrado
para los problemas de minimización con funciones
convexas u otras funciones de Lipschitz.
4. Restricciones de desigualdad
Para problemas con
restricciones de tipo desigualdad
también existen métodos que en
muchos casos permiten encontrar los
valores máximos o mínimos.
Si tanto restricciones como función
objetivo son lineales, el problema se
llama de Programación lineal, y
habitualmente se aborda
aplicando algoritmos basados en
el álgebra lineal elemental, como los
algoritmos de pivote y en especial los
llamados algoritmos simplex primal y
dual.
Restricciones de igualdad
Hay una categoría de problemas
en los cuales las variables de
decisión están sujetas solo a un
conjunto de ecuaciones de
igualdad.
Si la restricción no existe, o es
una restricción de igualdad, con
menor o igual número
de variables que la función
objetivo entonces, el cálculo
diferencial, da la respuesta, ya
que solo se trata de buscar los
valores extremos de una función
5. Métodos de Optimización
Matriz Jacobiana
La matriz Jacobiana es una matriz formada por las derivadas
parciales de primer orden de una función. Una de las aplicaciones más
interesantes de esta matriz es la posibilidad de aproximar función la
función en un punto. En este sentido, el Jacobiano representa la derivada
de una función multivariable.
Esta matriz es notada por:
o como
6. Método de LaGrange
Métodos de Optimización
Este método introduce una nueva variable escalar desconocida,
el multiplicador de Lagrange, para cada restricción y forma una
combinación lineal involucrando los multiplicadores como coeficientes.
Su demostración involucra derivadas parciales, o bien usando
diferenciales totales, o sus parientes cercanos, la regla de la cadena. El fin
es, usando alguna función implícita, encontrar las condiciones para que la
derivada con respecto a las variables independientes de una función sea
igual a cero.
2 +8λ 12 8 x
B1 = 12 4 + 2 λ 2 y
8 x 2 y 0
El primer paso consiste en determinar los puntos
críticos para ello se forma la función Lagrangeana:
Habiendo ubicado los puntos estacionarios viene el
problema de determinar si son máximos o mínimos
locales.
F ( x, λ) = f ( x) + Xm j=1 λ j gj ( x )
7. Método Newton
Métodos de Optimización
Es un algoritmo para encontrar aproximaciones de
los ceros o raíces de una función real. También puede ser
usado para encontrar el máximo o mínimo de una
función, encontrando los ceros de su primera derivada.
Sea f: [a, b] -> R función derivable definida en el
intervalo real [a, b]. Empezamos con un valor inicial x0y
definimos para cada número natural n
8. Hallar extremos restringidos significa determinar los extremos de una
función f(x; y)
sujetos a una restricción g(x; y) = 0. Para ello debe plantearse la
ecuación vectorial:
f = g
El valor se conoce como multiplicador de Lagrange y es un auxiliar
para determinar
los valores de las variables del dominio que satisfacen la ecuación
vectorial y la
restricción. Si existen varias restricciones, se plantean varios
multiplicadores.
Ejercicio Propuesto