SlideShare una empresa de Scribd logo
1 de 15
Matriz Jacobiana
La matriz Jacobiana es una matriz formada
por las derivadas parciales de primer orden de una
función. Una de las aplicaciones más interesantes
de esta matriz es la posibilidad de aproximar
linealmente a la función en un punto. En este
sentido, el Jacobiano representa la derivada de una
función multivariable.
Supongamos F: Rn → Rm es una función que va del
espacio euclidiano n-
dimensional a otro espacio euclidiano m-
dimensional. Esta función está
determinada por m funciones reales: y1(x1,..., xn),...,
ym(x1,..., xn). Las
derivadas parciales de estas (si existen) pueden ser
organizadas en una matriz
m por n, la matriz Jacobiana de F:
Ejemplo 1. La matriz jacobiana de la función F : R3
→ R3 definida como:
F(x_1,x_2,x_3) = (x_1,x5_3,x4_2^2-x2_3)
No siempre la matriz jacobiana es cuadrada.
Ejemplo 2. Supóngase la función F : R3 → R4, cuyas
componentes son:
Aplicando la definición de matriz
jacobiana:
Determinante jacobiano
Si m = n, entonces F es una función
que va de un espacio n-dimensional a
otro. En este caso la matriz jacobiana
es cuadrada y podemos calcular su
determinante, conocido como el
determinante jacobiano o
simplemente jacobiano.
El determinante jacobiano en un punto
dado nos da información importante
sobre el comportamiento de F cerca
de ese punto. Para empezar, una
función F es invertible cerca de p si el
determinante jacobiano en p es no
nulo. Más aún, el valor absoluto del
determinante en p nos da el factor
con el cual F expande o contrae su
volumen cerca de p.
Ejemplo . El determinante jacobiano
de la función F : R3 → R3 definida
como:
es:
El teorema de la función inversa garantiza que la función es
localmente invertible en todo el dominio excepto quizá donde x1 =
0 ó x2 = 0 (es decir, los valores para los que el determinante se hace
cero). Si imaginamos un objeto pequeño centrado en el punto
(1,1,1) y le aplicamos F, tendremos un objeto aproximadamente 40
veces más voluminoso que el original.
Ejemplo Karush Kuhn Tucker (KKT)
No existe una única forma de abordar la
resolución de un problema de programación no lineal
utilizando el teorema de KKT. Consideraremos la
aplicación de este teorema en este caso para problemas
sólo con restricciones "<=" (menor o igual). Si el problema
tiene restricciones ">=" éstas se pueden transformar por
"<=" multiplicando por -1.
Básicamente el procedimiento consiste en
resolver el problema no lineal como uno sin restricciones,
luego si la solución óptima de dicho problema no cumple
la totalidad o parte de las restricciones del problema se
activan dichas restricciones (en conjunto y/o
secuencialmente) y se resuelve nuevamente. Esto se
repite hasta llegar a un conjunto de restricciones activas
cuya solución también satisface las restricciones omitidas.
Notar que si se han activado la totalidad de restricciones
sin encontrar una solución factible, entonces el problema
es infactible.
Sin pérdida de generalidad un modelo de Programación No
Lineal se puede representar a través del siguiente formato:
luego podemos reescribir cualquier problema en dicha
estructura manteniendo la equivalencia de la representación
matemática. Para ejemplificar lo anterior consideremos el
siguiente modelo de optimización no lineal que resulta de
interés su resolución.
Notar que sólo fue necesario cambiar la forma de las restricciones de
no negatividad (esto se puede hacer multiplicando por -1 cada una
de ellas). Cabe destacar que en este caso en particular el problema
no considera restricciones de igualdad. Luego las condiciones
necesarias de primer orden de Karush Kuhn Tucker (KKT) están dadas
por:
Al calcular los gradientes respectivos se obtiene:
Lo cual da origen al siguiente sistema de
ecuaciones:
Reemplazando x1=2 y x2=1 podemos despejar los valores
de los multiplicadores los cuales cumplen con las
condiciones de no negatividad:
Adicionalmente se puede verificar que x1=2 y x2=1 satisface las
restricciones omitidas (2,4 y 5) por lo cual se puede afirmar que
dicha solución cumple las condiciones necesarias de primer
orden de Karush Kuhn Tucker (KKT).
Método Lagrange
En los problemas de optimización, los
multiplicadores de Lagrange, nombrados así en honor a
Joseph Louis Lagrange, son un método para trabajar con
funciones de varias variables que nos interesa maximizar o
minimizar, y está sujeta a ciertas restricciones. Este método
reduce el problema restringido en n variables en uno sin
restricciones de n + 1 variables cuyas ecuaciones pueden
ser resueltas.
Este método introduce una nueva variable escalar
desconocida, el multiplicador de Lagrange, para cada
restricción y forma una combinación lineal involucrando
los multiplicadores como coeficientes. Su demostración
involucra derivadas parciales, o bien usando diferenciales
totales, o sus parientes cercanos, la regla de la cadena. El
fin es, usando alguna función implícita, encontrar las
condiciones para que la derivada con respecto a las
variables independientes de una función sea igual a cero.
Ejemplo de Método Lagrange
Ejemplo de Método Lagrange
Dada una función de varias variables, sabemos que presenta un punto crítico cuando su
gradiente es nulo. Para identificar de qué punto crítico se trata, debemos usar el criterio
de la segunda derivada. Éste establece que dada una función f(x; y) que presenta un
punto crítico en (x0; y0), podemos calcular el siguiente discriminante:
Extremos no restrictos con dos variables
Si D > 0 y 22xflocal en (x0; y0). Si D < 0, se tiene un punto silla en (x0; y0). Finalmente, si D= 0 el
criterio de la segunda derivada no decide la naturaleza del punto crítico en (x0;y0).
Cuando se desea obtener los extremos absolutos de una función en una cierta región del
dominio, se deben seguir los siguientes pasos:
1. Hallar los puntos críticos de la función en el dominio y calcular su valor en ellos.
2. Hallar los valores extremos de la función sobre la frontera del dominio.
3. Determinar los valores máximo y mínimo de entre todos los hallados en los dos
puntos anteriores.
Hallar extremos restringidos significa determinar los
extremos de una función f(x; y)
sujetos a una restricción g(x; y) = 0. Para ello debe
plantearse la ecuación vectorial:
f = g
El valor  se conoce como multiplicador de Lagrange y
es un auxiliar para determinar
los valores de las variables del dominio que satisfacen
la ecuación vectorial y la
restricción. Si existen varias restricciones, se plantean
varios multiplicadores.
Ejemplo

Más contenido relacionado

La actualidad más candente

Analisis de sensibilidad ejercicios resueltos
Analisis de sensibilidad   ejercicios resueltosAnalisis de sensibilidad   ejercicios resueltos
Analisis de sensibilidad ejercicios resueltosLuis Nuñez
 
ANALISIS DE SENSIBILIDAD
ANALISIS DE SENSIBILIDADANALISIS DE SENSIBILIDAD
ANALISIS DE SENSIBILIDADAlumic S.A
 
Soluciones factibles y soluciones básicas factibles
Soluciones factibles y soluciones básicas factiblesSoluciones factibles y soluciones básicas factibles
Soluciones factibles y soluciones básicas factiblesLupita Rodríguez
 
Programación lineal entera y binaria
Programación lineal entera y binariaProgramación lineal entera y binaria
Programación lineal entera y binariaJaime Medrano
 
Metodo del punto fijo y de newton rapshon
Metodo del punto fijo y de newton rapshonMetodo del punto fijo y de newton rapshon
Metodo del punto fijo y de newton rapshonIsmael Campos Alanis
 
Dual y método dual simplex
Dual y método dual simplexDual y método dual simplex
Dual y método dual simplexJaime Medrano
 
Metodo algebraico. MTI. Ana Díaz
Metodo algebraico. MTI. Ana DíazMetodo algebraico. MTI. Ana Díaz
Metodo algebraico. MTI. Ana Díazmamorumx
 
Tema iii método gráfico y simplex
Tema iii   método gráfico y simplexTema iii   método gráfico y simplex
Tema iii método gráfico y simplexgoogle
 
Métodos de optimizacion
Métodos de optimizacionMétodos de optimizacion
Métodos de optimizacionSaid Mora
 

La actualidad más candente (20)

la distribucion de poisson
la distribucion de poissonla distribucion de poisson
la distribucion de poisson
 
Analisis de sensibilidad ejercicios resueltos
Analisis de sensibilidad   ejercicios resueltosAnalisis de sensibilidad   ejercicios resueltos
Analisis de sensibilidad ejercicios resueltos
 
ANALISIS DE SENSIBILIDAD
ANALISIS DE SENSIBILIDADANALISIS DE SENSIBILIDAD
ANALISIS DE SENSIBILIDAD
 
Tarea 4 operativa luis
Tarea 4 operativa luisTarea 4 operativa luis
Tarea 4 operativa luis
 
Metodo simplex
Metodo simplexMetodo simplex
Metodo simplex
 
Soluciones factibles y soluciones básicas factibles
Soluciones factibles y soluciones básicas factiblesSoluciones factibles y soluciones básicas factibles
Soluciones factibles y soluciones básicas factibles
 
Programacion lineal entera
Programacion lineal enteraProgramacion lineal entera
Programacion lineal entera
 
programacion lineal
 programacion lineal programacion lineal
programacion lineal
 
13 problema de redes
13 problema de redes13 problema de redes
13 problema de redes
 
Programación lineal
Programación linealProgramación lineal
Programación lineal
 
Programacion no lineal
Programacion no linealProgramacion no lineal
Programacion no lineal
 
Programación lineal entera y binaria
Programación lineal entera y binariaProgramación lineal entera y binaria
Programación lineal entera y binaria
 
Metodo del punto fijo y de newton rapshon
Metodo del punto fijo y de newton rapshonMetodo del punto fijo y de newton rapshon
Metodo del punto fijo y de newton rapshon
 
Dual y método dual simplex
Dual y método dual simplexDual y método dual simplex
Dual y método dual simplex
 
Metodo algebraico. MTI. Ana Díaz
Metodo algebraico. MTI. Ana DíazMetodo algebraico. MTI. Ana Díaz
Metodo algebraico. MTI. Ana Díaz
 
Programación deterministica
Programación deterministicaProgramación deterministica
Programación deterministica
 
Tema iii método gráfico y simplex
Tema iii   método gráfico y simplexTema iii   método gráfico y simplex
Tema iii método gráfico y simplex
 
Método simplex. Teoria
Método simplex. TeoriaMétodo simplex. Teoria
Método simplex. Teoria
 
Métodos de optimizacion
Métodos de optimizacionMétodos de optimizacion
Métodos de optimizacion
 
Método de dos fases
Método de dos fasesMétodo de dos fases
Método de dos fases
 

Similar a Matriz Jacobiana: derivadas parciales de funciones multivariables

Metodos de optimizacion
Metodos de optimizacionMetodos de optimizacion
Metodos de optimizacionluisatero
 
Programación no lineal
Programación no linealProgramación no lineal
Programación no linealMarcos Barboza
 
Metodos de Optimizacion
Metodos de OptimizacionMetodos de Optimizacion
Metodos de OptimizacionJ_cordero
 
Ejercicios de OPTIMIZACION DE SISTEMAS Y FUNCIONES
Ejercicios de OPTIMIZACION DE SISTEMAS Y FUNCIONESEjercicios de OPTIMIZACION DE SISTEMAS Y FUNCIONES
Ejercicios de OPTIMIZACION DE SISTEMAS Y FUNCIONESmanuelrivasv95
 
Metodo de optimización. listo
Metodo de optimización. listoMetodo de optimización. listo
Metodo de optimización. listomarinfranklin
 
Metodos de Optimizacion
Metodos de OptimizacionMetodos de Optimizacion
Metodos de OptimizacionLuisFeSilva
 
Prrogramacion no lineal sexta semana.pptx
Prrogramacion no lineal sexta semana.pptxPrrogramacion no lineal sexta semana.pptx
Prrogramacion no lineal sexta semana.pptxErnesto81098
 
Prrogramacion no lineal sexta semana-2.pptx
Prrogramacion no lineal sexta semana-2.pptxPrrogramacion no lineal sexta semana-2.pptx
Prrogramacion no lineal sexta semana-2.pptxErnesto81098
 
Marina.mallol optimizacion de sistemas
Marina.mallol optimizacion de sistemasMarina.mallol optimizacion de sistemas
Marina.mallol optimizacion de sistemasmarimallol
 
Ecuaciones y sist de ecuaciones no lineales
Ecuaciones y sist de ecuaciones no linealesEcuaciones y sist de ecuaciones no lineales
Ecuaciones y sist de ecuaciones no linealesRonny Malpica
 
Metodo de lagrange (1)
Metodo de lagrange (1)Metodo de lagrange (1)
Metodo de lagrange (1)AMBARPEREDA
 
Programación no linealeeee fernando yepez
Programación no linealeeee fernando yepezProgramación no linealeeee fernando yepez
Programación no linealeeee fernando yepezDra Yarelis Vargas
 
Metodos de optimizacion
Metodos de optimizacionMetodos de optimizacion
Metodos de optimizacionrsalazar16988
 
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdf
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdfPRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdf
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdfpumadesalvador
 
Unidad i calculo 2
Unidad i calculo 2Unidad i calculo 2
Unidad i calculo 2stephanieeps
 

Similar a Matriz Jacobiana: derivadas parciales de funciones multivariables (20)

Metodos de optimizacion
Metodos de optimizacionMetodos de optimizacion
Metodos de optimizacion
 
Programación no lineal
Programación no linealProgramación no lineal
Programación no lineal
 
Metodos de Optimizacion
Metodos de OptimizacionMetodos de Optimizacion
Metodos de Optimizacion
 
Optimizacion
OptimizacionOptimizacion
Optimizacion
 
Ejercicios de OPTIMIZACION DE SISTEMAS Y FUNCIONES
Ejercicios de OPTIMIZACION DE SISTEMAS Y FUNCIONESEjercicios de OPTIMIZACION DE SISTEMAS Y FUNCIONES
Ejercicios de OPTIMIZACION DE SISTEMAS Y FUNCIONES
 
Metodo de optimización. listo
Metodo de optimización. listoMetodo de optimización. listo
Metodo de optimización. listo
 
Metodos de Optimizacion
Metodos de OptimizacionMetodos de Optimizacion
Metodos de Optimizacion
 
Presentación de optimizacion
Presentación de optimizacionPresentación de optimizacion
Presentación de optimizacion
 
Presentación de optimizacion
Presentación de optimizacionPresentación de optimizacion
Presentación de optimizacion
 
Prrogramacion no lineal sexta semana.pptx
Prrogramacion no lineal sexta semana.pptxPrrogramacion no lineal sexta semana.pptx
Prrogramacion no lineal sexta semana.pptx
 
Prrogramacion no lineal sexta semana-2.pptx
Prrogramacion no lineal sexta semana-2.pptxPrrogramacion no lineal sexta semana-2.pptx
Prrogramacion no lineal sexta semana-2.pptx
 
Marina.mallol optimizacion de sistemas
Marina.mallol optimizacion de sistemasMarina.mallol optimizacion de sistemas
Marina.mallol optimizacion de sistemas
 
Ecuaciones y sist de ecuaciones no lineales
Ecuaciones y sist de ecuaciones no linealesEcuaciones y sist de ecuaciones no lineales
Ecuaciones y sist de ecuaciones no lineales
 
Metodo de lagrange (1)
Metodo de lagrange (1)Metodo de lagrange (1)
Metodo de lagrange (1)
 
Limite
LimiteLimite
Limite
 
Programación no linealeeee fernando yepez
Programación no linealeeee fernando yepezProgramación no linealeeee fernando yepez
Programación no linealeeee fernando yepez
 
Metodos de optimizacion
Metodos de optimizacionMetodos de optimizacion
Metodos de optimizacion
 
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdf
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdfPRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdf
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdf
 
Unidad i calculo 2
Unidad i calculo 2Unidad i calculo 2
Unidad i calculo 2
 
Optimización
OptimizaciónOptimización
Optimización
 

Más de ediwsongonzales (6)

auditoria
auditoria auditoria
auditoria
 
Canvas
CanvasCanvas
Canvas
 
Lienzo
LienzoLienzo
Lienzo
 
Lienzo
LienzoLienzo
Lienzo
 
Presentacion
PresentacionPresentacion
Presentacion
 
Aplicaciones java
Aplicaciones javaAplicaciones java
Aplicaciones java
 

Matriz Jacobiana: derivadas parciales de funciones multivariables

  • 1.
  • 2. Matriz Jacobiana La matriz Jacobiana es una matriz formada por las derivadas parciales de primer orden de una función. Una de las aplicaciones más interesantes de esta matriz es la posibilidad de aproximar linealmente a la función en un punto. En este sentido, el Jacobiano representa la derivada de una función multivariable. Supongamos F: Rn → Rm es una función que va del espacio euclidiano n- dimensional a otro espacio euclidiano m- dimensional. Esta función está determinada por m funciones reales: y1(x1,..., xn),..., ym(x1,..., xn). Las derivadas parciales de estas (si existen) pueden ser organizadas en una matriz m por n, la matriz Jacobiana de F:
  • 3. Ejemplo 1. La matriz jacobiana de la función F : R3 → R3 definida como: F(x_1,x_2,x_3) = (x_1,x5_3,x4_2^2-x2_3) No siempre la matriz jacobiana es cuadrada. Ejemplo 2. Supóngase la función F : R3 → R4, cuyas componentes son: Aplicando la definición de matriz jacobiana:
  • 4. Determinante jacobiano Si m = n, entonces F es una función que va de un espacio n-dimensional a otro. En este caso la matriz jacobiana es cuadrada y podemos calcular su determinante, conocido como el determinante jacobiano o simplemente jacobiano. El determinante jacobiano en un punto dado nos da información importante sobre el comportamiento de F cerca de ese punto. Para empezar, una función F es invertible cerca de p si el determinante jacobiano en p es no nulo. Más aún, el valor absoluto del determinante en p nos da el factor con el cual F expande o contrae su volumen cerca de p.
  • 5. Ejemplo . El determinante jacobiano de la función F : R3 → R3 definida como: es: El teorema de la función inversa garantiza que la función es localmente invertible en todo el dominio excepto quizá donde x1 = 0 ó x2 = 0 (es decir, los valores para los que el determinante se hace cero). Si imaginamos un objeto pequeño centrado en el punto (1,1,1) y le aplicamos F, tendremos un objeto aproximadamente 40 veces más voluminoso que el original.
  • 6. Ejemplo Karush Kuhn Tucker (KKT) No existe una única forma de abordar la resolución de un problema de programación no lineal utilizando el teorema de KKT. Consideraremos la aplicación de este teorema en este caso para problemas sólo con restricciones "<=" (menor o igual). Si el problema tiene restricciones ">=" éstas se pueden transformar por "<=" multiplicando por -1. Básicamente el procedimiento consiste en resolver el problema no lineal como uno sin restricciones, luego si la solución óptima de dicho problema no cumple la totalidad o parte de las restricciones del problema se activan dichas restricciones (en conjunto y/o secuencialmente) y se resuelve nuevamente. Esto se repite hasta llegar a un conjunto de restricciones activas cuya solución también satisface las restricciones omitidas. Notar que si se han activado la totalidad de restricciones sin encontrar una solución factible, entonces el problema es infactible.
  • 7. Sin pérdida de generalidad un modelo de Programación No Lineal se puede representar a través del siguiente formato: luego podemos reescribir cualquier problema en dicha estructura manteniendo la equivalencia de la representación matemática. Para ejemplificar lo anterior consideremos el siguiente modelo de optimización no lineal que resulta de interés su resolución.
  • 8. Notar que sólo fue necesario cambiar la forma de las restricciones de no negatividad (esto se puede hacer multiplicando por -1 cada una de ellas). Cabe destacar que en este caso en particular el problema no considera restricciones de igualdad. Luego las condiciones necesarias de primer orden de Karush Kuhn Tucker (KKT) están dadas por: Al calcular los gradientes respectivos se obtiene:
  • 9. Lo cual da origen al siguiente sistema de ecuaciones: Reemplazando x1=2 y x2=1 podemos despejar los valores de los multiplicadores los cuales cumplen con las condiciones de no negatividad: Adicionalmente se puede verificar que x1=2 y x2=1 satisface las restricciones omitidas (2,4 y 5) por lo cual se puede afirmar que dicha solución cumple las condiciones necesarias de primer orden de Karush Kuhn Tucker (KKT).
  • 10. Método Lagrange En los problemas de optimización, los multiplicadores de Lagrange, nombrados así en honor a Joseph Louis Lagrange, son un método para trabajar con funciones de varias variables que nos interesa maximizar o minimizar, y está sujeta a ciertas restricciones. Este método reduce el problema restringido en n variables en uno sin restricciones de n + 1 variables cuyas ecuaciones pueden ser resueltas. Este método introduce una nueva variable escalar desconocida, el multiplicador de Lagrange, para cada restricción y forma una combinación lineal involucrando los multiplicadores como coeficientes. Su demostración involucra derivadas parciales, o bien usando diferenciales totales, o sus parientes cercanos, la regla de la cadena. El fin es, usando alguna función implícita, encontrar las condiciones para que la derivada con respecto a las variables independientes de una función sea igual a cero.
  • 11. Ejemplo de Método Lagrange
  • 12. Ejemplo de Método Lagrange
  • 13. Dada una función de varias variables, sabemos que presenta un punto crítico cuando su gradiente es nulo. Para identificar de qué punto crítico se trata, debemos usar el criterio de la segunda derivada. Éste establece que dada una función f(x; y) que presenta un punto crítico en (x0; y0), podemos calcular el siguiente discriminante: Extremos no restrictos con dos variables Si D > 0 y 22xflocal en (x0; y0). Si D < 0, se tiene un punto silla en (x0; y0). Finalmente, si D= 0 el criterio de la segunda derivada no decide la naturaleza del punto crítico en (x0;y0). Cuando se desea obtener los extremos absolutos de una función en una cierta región del dominio, se deben seguir los siguientes pasos: 1. Hallar los puntos críticos de la función en el dominio y calcular su valor en ellos. 2. Hallar los valores extremos de la función sobre la frontera del dominio. 3. Determinar los valores máximo y mínimo de entre todos los hallados en los dos puntos anteriores.
  • 14. Hallar extremos restringidos significa determinar los extremos de una función f(x; y) sujetos a una restricción g(x; y) = 0. Para ello debe plantearse la ecuación vectorial: f = g El valor  se conoce como multiplicador de Lagrange y es un auxiliar para determinar los valores de las variables del dominio que satisfacen la ecuación vectorial y la restricción. Si existen varias restricciones, se plantean varios multiplicadores.