2. Método Lagrange
En los problemas de optimización, los multiplicadores de Lagrange, son un
método para trabajar con funciones de varias variables que nos interesa
maximizar o minimizar, y está sujeta a ciertas restricciones.
Este método reduce el problema restringido en n variables en uno sin
restricciones de n + 1 variables cuyas ecuaciones pueden ser resueltas.
Este método introduce una nueva variable escalar desconocida, el
multiplicador de Lagrange, para cada restricción y forma una combinación
lineal involucrando los multiplicadores como coeficientes. Su demostración
involucra derivadas parciales, o bien usando diferenciales totales, o sus
parientes cercanos, la regla de la cadena. El fin es, usando alguna función
implícita, encontrar las condiciones para que la derivada con respecto a las
variables independientes de una función sea igual a cero.
5. Matriz Jacobiana
La matriz Jacobiana es una matriz formada por las derivadas parciales
de primer orden de una función. Una de las aplicaciones más
interesantes de esta matriz es la posibilidad de aproximar linealmente
a la función en un punto.
En este sentido, el Jacobiano representa la derivada de una función
multivariable. Supongamos F: Rn → Rm es una función que va del
espacio euclidiano n dimensional a otro espacio euclidiano m-
dimensional.
Esta función está determinada por m funciones reales: y1(x1,..., xn),...,
ym(x1,..., xn). Las derivadas parciales de estas (si existen) pueden ser
organizadas en una matriz m por n, la matriz Jacobiana de F
6.
7. Kuhn Tucker
No existe una única forma de abordar la resolución de un problema de
programación no lineal utilizando el teorema de KKT. Consideraremos la
aplicación de este teorema en este caso para problemas sólo con
restricciones "<=" (menor o igual).
Si el problema tiene restricciones ">=" éstas se pueden transformar por "<="
multiplicando por - 1. Básicamente el procedimiento consiste en resolver el
problema no lineal como uno sin restricciones, luego si la solución óptima
de dicho problema no cumple la totalidad o parte de las restricciones del
problema se activan dichas restricciones (en conjunto y/o secuencialmente)
y se resuelve nuevamente.
Esto se repite hasta llegar a un conjunto de restricciones activas cuya
solución también satisface las restricciones omitidas. Notar que si se han
activado la totalidad de restricciones sin encontrar una solución factible,
entonces el problema es infactible.
8. Sin pérdida de generalidad un modelo de Programación No Lineal se
puede representar a través del siguiente formato:
Luego podemos reescribir cualquier problema en dicha estructura
manteniendo la equivalencia de la representación matemática. Para
ejemplificar lo anterior consideremos el siguiente modelo de
optimización no lineal que resulta de interés su resolución.
9. Notar que sólo fue necesario cambiar la forma de las restricciones de no
negatividad (esto se puede hacer multiplicando por -1 cada una de ellas).
Cabe destacar que en este caso en particular el problema no considera
restricciones de igualdad. Luego las condiciones necesarias de primer
orden de Karush Kuhn Tucker (KKT) están dadas por:
Al calcular los gradientes respectivos se obtiene:
10. Lo cual da origen al siguiente sistema de ecuaciones:
Reemplazando x1=2 y x2=1 podemos despejar los valores de los
multiplicadores los cuales cumplen con las condiciones de no
negatividad:
Adicionalmente se puede verificar que x1=2 y x2=1 satisface las
restricciones omitidas (2,4 y 5) por lo cual se puede afirmar que dicha
solución cumple las condiciones necesarias de primer orden de Karush
Kuhn Tucker (KKT).
11. Extremos no estrictos con dos variables
Dada una función de varias variables, sabemos que presenta un punto
crítico cuando su gradiente es nulo. Para identificar de qué punto crítico se
trata, debemos usar el criterio de la segunda derivada.
Éste establece que dada una función f(x; y) que presenta un punto crítico
en (x0; y0), podemos calcular el siguiente discriminante
Si D > 0 y 22xf local en (x0; y0).
Si D < 0, se tiene un punto silla en (x0; y0).
Finalmente, si D= 0 el criterio de la segunda derivada no decide la
naturaleza del punto crítico en (x0;y0).
12. Cuando se desea obtener los extremos absolutos de una función en una
cierta región del dominio, se deben seguir los siguientes pasos:
1. Hallar los puntos críticos de la función en el dominio y calcular su
valor en ellos.
2. Hallar los valores extremos de la función sobre la frontera del
dominio.
3. Determinar los valores máximo y mínimo de entre todos los hallados
en los dos puntos anteriores.