La matriz Jacobiana está formada por las derivadas parciales de primer orden de una función. Representa la derivada de una función multivariable y permite aproximar linealmente la función en un punto. El determinante jacobiano da información sobre el comportamiento local de la función, como si es invertible o cómo expande o contrae volúmenes. El método de los multiplicadores de Lagrange reduce problemas de optimización con restricciones a problemas sin restricciones adicionales.
Matriz Jacobiana: derivadas parciales de funciones multivariables
1.
2. Matriz Jacobiana
La matriz Jacobiana es una matriz formada
por las derivadas parciales de primer orden de una
función. Una de las aplicaciones más interesantes
de esta matriz es la posibilidad de aproximar
linealmente a la función en un punto. En este
sentido, el Jacobiano representa la derivada de una
función multivariable.
Supongamos F: Rn → Rm es una función que va del
espacio euclidiano n-
dimensional a otro espacio euclidiano m-
dimensional. Esta función está
determinada por m funciones reales: y1(x1,..., xn),...,
ym(x1,..., xn). Las
derivadas parciales de estas (si existen) pueden ser
organizadas en una matriz
m por n, la matriz Jacobiana de F:
3. Ejemplo 1. La matriz jacobiana de la función F : R3
→ R3 definida como:
F(x_1,x_2,x_3) = (x_1,x5_3,x4_2^2-x2_3)
No siempre la matriz jacobiana es cuadrada.
Ejemplo 2. Supóngase la función F : R3 → R4, cuyas
componentes son:
Aplicando la definición de matriz
jacobiana:
4. Determinante jacobiano
Si m = n, entonces F es una función
que va de un espacio n-dimensional a
otro. En este caso la matriz jacobiana
es cuadrada y podemos calcular su
determinante, conocido como el
determinante jacobiano o
simplemente jacobiano.
El determinante jacobiano en un punto
dado nos da información importante
sobre el comportamiento de F cerca
de ese punto. Para empezar, una
función F es invertible cerca de p si el
determinante jacobiano en p es no
nulo. Más aún, el valor absoluto del
determinante en p nos da el factor
con el cual F expande o contrae su
volumen cerca de p.
5. Ejemplo . El determinante jacobiano
de la función F : R3 → R3 definida
como:
es:
El teorema de la función inversa garantiza que la función es
localmente invertible en todo el dominio excepto quizá donde x1 =
0 ó x2 = 0 (es decir, los valores para los que el determinante se hace
cero). Si imaginamos un objeto pequeño centrado en el punto
(1,1,1) y le aplicamos F, tendremos un objeto aproximadamente 40
veces más voluminoso que el original.
6. Ejemplo Karush Kuhn Tucker (KKT)
No existe una única forma de abordar la
resolución de un problema de programación no lineal
utilizando el teorema de KKT. Consideraremos la
aplicación de este teorema en este caso para problemas
sólo con restricciones "<=" (menor o igual). Si el problema
tiene restricciones ">=" éstas se pueden transformar por
"<=" multiplicando por -1.
Básicamente el procedimiento consiste en
resolver el problema no lineal como uno sin restricciones,
luego si la solución óptima de dicho problema no cumple
la totalidad o parte de las restricciones del problema se
activan dichas restricciones (en conjunto y/o
secuencialmente) y se resuelve nuevamente. Esto se
repite hasta llegar a un conjunto de restricciones activas
cuya solución también satisface las restricciones omitidas.
Notar que si se han activado la totalidad de restricciones
sin encontrar una solución factible, entonces el problema
es infactible.
7. Sin pérdida de generalidad un modelo de Programación No
Lineal se puede representar a través del siguiente formato:
luego podemos reescribir cualquier problema en dicha
estructura manteniendo la equivalencia de la representación
matemática. Para ejemplificar lo anterior consideremos el
siguiente modelo de optimización no lineal que resulta de
interés su resolución.
8. Notar que sólo fue necesario cambiar la forma de las restricciones de
no negatividad (esto se puede hacer multiplicando por -1 cada una
de ellas). Cabe destacar que en este caso en particular el problema
no considera restricciones de igualdad. Luego las condiciones
necesarias de primer orden de Karush Kuhn Tucker (KKT) están dadas
por:
Al calcular los gradientes respectivos se obtiene:
9. Lo cual da origen al siguiente sistema de
ecuaciones:
Reemplazando x1=2 y x2=1 podemos despejar los valores
de los multiplicadores los cuales cumplen con las
condiciones de no negatividad:
Adicionalmente se puede verificar que x1=2 y x2=1 satisface las
restricciones omitidas (2,4 y 5) por lo cual se puede afirmar que
dicha solución cumple las condiciones necesarias de primer
orden de Karush Kuhn Tucker (KKT).
10. Método Lagrange
En los problemas de optimización, los
multiplicadores de Lagrange, nombrados así en honor a
Joseph Louis Lagrange, son un método para trabajar con
funciones de varias variables que nos interesa maximizar o
minimizar, y está sujeta a ciertas restricciones. Este método
reduce el problema restringido en n variables en uno sin
restricciones de n + 1 variables cuyas ecuaciones pueden
ser resueltas.
Este método introduce una nueva variable escalar
desconocida, el multiplicador de Lagrange, para cada
restricción y forma una combinación lineal involucrando
los multiplicadores como coeficientes. Su demostración
involucra derivadas parciales, o bien usando diferenciales
totales, o sus parientes cercanos, la regla de la cadena. El
fin es, usando alguna función implícita, encontrar las
condiciones para que la derivada con respecto a las
variables independientes de una función sea igual a cero.
13. Dada una función de varias variables, sabemos que presenta un punto crítico cuando su
gradiente es nulo. Para identificar de qué punto crítico se trata, debemos usar el criterio
de la segunda derivada. Éste establece que dada una función f(x; y) que presenta un
punto crítico en (x0; y0), podemos calcular el siguiente discriminante:
Extremos no restrictos con dos variables
Si D > 0 y 22xflocal en (x0; y0). Si D < 0, se tiene un punto silla en (x0; y0). Finalmente, si D= 0 el
criterio de la segunda derivada no decide la naturaleza del punto crítico en (x0;y0).
Cuando se desea obtener los extremos absolutos de una función en una cierta región del
dominio, se deben seguir los siguientes pasos:
1. Hallar los puntos críticos de la función en el dominio y calcular su valor en ellos.
2. Hallar los valores extremos de la función sobre la frontera del dominio.
3. Determinar los valores máximo y mínimo de entre todos los hallados en los dos
puntos anteriores.
14. Hallar extremos restringidos significa determinar los
extremos de una función f(x; y)
sujetos a una restricción g(x; y) = 0. Para ello debe
plantearse la ecuación vectorial:
f = g
El valor se conoce como multiplicador de Lagrange y
es un auxiliar para determinar
los valores de las variables del dominio que satisfacen
la ecuación vectorial y la
restricción. Si existen varias restricciones, se plantean
varios multiplicadores.