SlideShare una empresa de Scribd logo
1 de 15
Matriz Jacobiana
La matriz Jacobiana es una matriz formada
por las derivadas parciales de primer orden de una
función. Una de las aplicaciones más interesantes
de esta matriz es la posibilidad de aproximar
linealmente a la función en un punto. En este
sentido, el Jacobiano representa la derivada de una
función multivariable.
Supongamos F: Rn → Rm es una función que va del
espacio euclidiano n-
dimensional a otro espacio euclidiano m-
dimensional. Esta función está
determinada por m funciones reales: y1(x1,..., xn),...,
ym(x1,..., xn). Las
derivadas parciales de estas (si existen) pueden ser
organizadas en una matriz
m por n, la matriz Jacobiana de F:
Ejemplo 1. La matriz jacobiana de la función F : R3
→ R3 definida como:
F(x_1,x_2,x_3) = (x_1,x5_3,x4_2^2-x2_3)
No siempre la matriz jacobiana es cuadrada.
Ejemplo 2. Supóngase la función F : R3 → R4, cuyas
componentes son:
Aplicando la definición de matriz
jacobiana:
Determinante jacobiano
Si m = n, entonces F es una función
que va de un espacio n-dimensional a
otro. En este caso la matriz jacobiana
es cuadrada y podemos calcular su
determinante, conocido como el
determinante jacobiano o
simplemente jacobiano.
El determinante jacobiano en un punto
dado nos da información importante
sobre el comportamiento de F cerca
de ese punto. Para empezar, una
función F es invertible cerca de p si el
determinante jacobiano en p es no
nulo. Más aún, el valor absoluto del
determinante en p nos da el factor
con el cual F expande o contrae su
volumen cerca de p.
Ejemplo . El determinante jacobiano
de la función F : R3 → R3 definida
como:
es:
El teorema de la función inversa garantiza que la función es
localmente invertible en todo el dominio excepto quizá donde x1 =
0 ó x2 = 0 (es decir, los valores para los que el determinante se hace
cero). Si imaginamos un objeto pequeño centrado en el punto
(1,1,1) y le aplicamos F, tendremos un objeto aproximadamente 40
veces más voluminoso que el original.
Ejemplo Karush Kuhn Tucker (KKT)
No existe una única forma de abordar la
resolución de un problema de programación no lineal
utilizando el teorema de KKT. Consideraremos la
aplicación de este teorema en este caso para problemas
sólo con restricciones "<=" (menor o igual). Si el problema
tiene restricciones ">=" éstas se pueden transformar por
"<=" multiplicando por -1.
Básicamente el procedimiento consiste en
resolver el problema no lineal como uno sin restricciones,
luego si la solución óptima de dicho problema no cumple
la totalidad o parte de las restricciones del problema se
activan dichas restricciones (en conjunto y/o
secuencialmente) y se resuelve nuevamente. Esto se
repite hasta llegar a un conjunto de restricciones activas
cuya solución también satisface las restricciones omitidas.
Notar que si se han activado la totalidad de restricciones
sin encontrar una solución factible, entonces el problema
es infactible.
Sin pérdida de generalidad un modelo de Programación No
Lineal se puede representar a través del siguiente formato:
luego podemos reescribir cualquier problema en dicha
estructura manteniendo la equivalencia de la representación
matemática. Para ejemplificar lo anterior consideremos el
siguiente modelo de optimización no lineal que resulta de
interés su resolución.
Notar que sólo fue necesario cambiar la forma de las restricciones de
no negatividad (esto se puede hacer multiplicando por -1 cada una
de ellas). Cabe destacar que en este caso en particular el problema
no considera restricciones de igualdad. Luego las condiciones
necesarias de primer orden de Karush Kuhn Tucker (KKT) están dadas
por:
Al calcular los gradientes respectivos se obtiene:
Lo cual da origen al siguiente sistema de
ecuaciones:
Reemplazando x1=2 y x2=1 podemos despejar los valores
de los multiplicadores los cuales cumplen con las
condiciones de no negatividad:
Adicionalmente se puede verificar que x1=2 y x2=1 satisface las
restricciones omitidas (2,4 y 5) por lo cual se puede afirmar que
dicha solución cumple las condiciones necesarias de primer
orden de Karush Kuhn Tucker (KKT).
Método Lagrange
En los problemas de optimización, los
multiplicadores de Lagrange, nombrados así en honor a
Joseph Louis Lagrange, son un método para trabajar con
funciones de varias variables que nos interesa maximizar o
minimizar, y está sujeta a ciertas restricciones. Este método
reduce el problema restringido en n variables en uno sin
restricciones de n + 1 variables cuyas ecuaciones pueden
ser resueltas.
Este método introduce una nueva variable escalar
desconocida, el multiplicador de Lagrange, para cada
restricción y forma una combinación lineal involucrando
los multiplicadores como coeficientes. Su demostración
involucra derivadas parciales, o bien usando diferenciales
totales, o sus parientes cercanos, la regla de la cadena. El
fin es, usando alguna función implícita, encontrar las
condiciones para que la derivada con respecto a las
variables independientes de una función sea igual a cero.
Ejemplo de Método Lagrange
Ejemplo de Método Lagrange
Dada una función de varias variables, sabemos que presenta un punto crítico cuando su
gradiente es nulo. Para identificar de qué punto crítico se trata, debemos usar el criterio
de la segunda derivada. Éste establece que dada una función f(x; y) que presenta un
punto crítico en (x0; y0), podemos calcular el siguiente discriminante:
Extremos no restrictos con dos variables
Si D > 0 y 22xflocal en (x0; y0). Si D < 0, se tiene un punto silla en (x0; y0). Finalmente, si D= 0 el
criterio de la segunda derivada no decide la naturaleza del punto crítico en (x0;y0).
Cuando se desea obtener los extremos absolutos de una función en una cierta región del
dominio, se deben seguir los siguientes pasos:
1. Hallar los puntos críticos de la función en el dominio y calcular su valor en ellos.
2. Hallar los valores extremos de la función sobre la frontera del dominio.
3. Determinar los valores máximo y mínimo de entre todos los hallados en los dos
puntos anteriores.
Hallar extremos restringidos significa determinar los
extremos de una función f(x; y)
sujetos a una restricción g(x; y) = 0. Para ello debe
plantearse la ecuación vectorial:
f = g
El valor  se conoce como multiplicador de Lagrange y
es un auxiliar para determinar
los valores de las variables del dominio que satisfacen
la ecuación vectorial y la
restricción. Si existen varias restricciones, se plantean
varios multiplicadores.
Ejemplo

Más contenido relacionado

La actualidad más candente

Modelos optimizacion
Modelos optimizacionModelos optimizacion
Modelos optimizacion
javier101091
 
Modulo 1: Análisis Matemático de la Optimización
Modulo 1: Análisis Matemático de la OptimizaciónModulo 1: Análisis Matemático de la Optimización
Modulo 1: Análisis Matemático de la Optimización
Horacio Santander
 
4.metodo de la biseccion
4.metodo de la biseccion4.metodo de la biseccion
4.metodo de la biseccion
rjvillon
 
Las condiciones de kuhn tucker y lagrange
Las condiciones de kuhn tucker y lagrangeLas condiciones de kuhn tucker y lagrange
Las condiciones de kuhn tucker y lagrange
Chely Briceño
 
Presentacion Metodo de Newton
Presentacion Metodo de NewtonPresentacion Metodo de Newton
Presentacion Metodo de Newton
pabloaguilar3
 
Método de Gauss Jordan
Método de Gauss JordanMétodo de Gauss Jordan
Método de Gauss Jordan
Kike Prieto
 

La actualidad más candente (20)

Modelos optimizacion
Modelos optimizacionModelos optimizacion
Modelos optimizacion
 
Problemas de optimizacion
Problemas de optimizacionProblemas de optimizacion
Problemas de optimizacion
 
Multiplicadores de-lagrange-ppt
Multiplicadores de-lagrange-pptMultiplicadores de-lagrange-ppt
Multiplicadores de-lagrange-ppt
 
Modulo 1: Análisis Matemático de la Optimización
Modulo 1: Análisis Matemático de la OptimizaciónModulo 1: Análisis Matemático de la Optimización
Modulo 1: Análisis Matemático de la Optimización
 
1.método simplex para la solución de problemas de operaciones de investigaciones
1.método simplex para la solución de problemas de operaciones de investigaciones1.método simplex para la solución de problemas de operaciones de investigaciones
1.método simplex para la solución de problemas de operaciones de investigaciones
 
DISTRIBUCIÓN BERNOULLI Y DISTRIBUCIÓN BINOMIAL
DISTRIBUCIÓN BERNOULLI Y DISTRIBUCIÓN BINOMIALDISTRIBUCIÓN BERNOULLI Y DISTRIBUCIÓN BINOMIAL
DISTRIBUCIÓN BERNOULLI Y DISTRIBUCIÓN BINOMIAL
 
Notas imd
Notas imdNotas imd
Notas imd
 
Ensayo 004 aplicación de limites
Ensayo 004 aplicación de limitesEnsayo 004 aplicación de limites
Ensayo 004 aplicación de limites
 
4.metodo de la biseccion
4.metodo de la biseccion4.metodo de la biseccion
4.metodo de la biseccion
 
Optimizacion josreny
Optimizacion josrenyOptimizacion josreny
Optimizacion josreny
 
Modelos estocasticos
Modelos estocasticosModelos estocasticos
Modelos estocasticos
 
Las condiciones de kuhn tucker y lagrange
Las condiciones de kuhn tucker y lagrangeLas condiciones de kuhn tucker y lagrange
Las condiciones de kuhn tucker y lagrange
 
Ejemplo del Método de Falsa Posición
Ejemplo del Método de Falsa PosiciónEjemplo del Método de Falsa Posición
Ejemplo del Método de Falsa Posición
 
Presentacion Metodo de Newton
Presentacion Metodo de NewtonPresentacion Metodo de Newton
Presentacion Metodo de Newton
 
Distribucion Binomial
Distribucion BinomialDistribucion Binomial
Distribucion Binomial
 
Limites (calculo diferencial)
Limites (calculo diferencial)Limites (calculo diferencial)
Limites (calculo diferencial)
 
Método de Gauss Jordan
Método de Gauss JordanMétodo de Gauss Jordan
Método de Gauss Jordan
 
Metodo de euler
Metodo de eulerMetodo de euler
Metodo de euler
 
Integración por sustitución
Integración por sustituciónIntegración por sustitución
Integración por sustitución
 
Metodo simplex
Metodo simplexMetodo simplex
Metodo simplex
 

Similar a metodos de optimizacion

Metodos de Optimizacion
Metodos de OptimizacionMetodos de Optimizacion
Metodos de Optimizacion
J_cordero
 

Similar a metodos de optimizacion (20)

Metodos de optimizacion
Metodos de optimizacionMetodos de optimizacion
Metodos de optimizacion
 
Programación no lineal
Programación no linealProgramación no lineal
Programación no lineal
 
Metodos de Optimizacion
Metodos de OptimizacionMetodos de Optimizacion
Metodos de Optimizacion
 
Optimizacion
OptimizacionOptimizacion
Optimizacion
 
Ejercicios de OPTIMIZACION DE SISTEMAS Y FUNCIONES
Ejercicios de OPTIMIZACION DE SISTEMAS Y FUNCIONESEjercicios de OPTIMIZACION DE SISTEMAS Y FUNCIONES
Ejercicios de OPTIMIZACION DE SISTEMAS Y FUNCIONES
 
Metodo de optimización. listo
Metodo de optimización. listoMetodo de optimización. listo
Metodo de optimización. listo
 
Metodos de Optimizacion
Metodos de OptimizacionMetodos de Optimizacion
Metodos de Optimizacion
 
Presentación de optimizacion
Presentación de optimizacionPresentación de optimizacion
Presentación de optimizacion
 
Presentación de optimizacion
Presentación de optimizacionPresentación de optimizacion
Presentación de optimizacion
 
Prrogramacion no lineal sexta semana.pptx
Prrogramacion no lineal sexta semana.pptxPrrogramacion no lineal sexta semana.pptx
Prrogramacion no lineal sexta semana.pptx
 
Prrogramacion no lineal sexta semana-2.pptx
Prrogramacion no lineal sexta semana-2.pptxPrrogramacion no lineal sexta semana-2.pptx
Prrogramacion no lineal sexta semana-2.pptx
 
Marina.mallol optimizacion de sistemas
Marina.mallol optimizacion de sistemasMarina.mallol optimizacion de sistemas
Marina.mallol optimizacion de sistemas
 
Ecuaciones y sist de ecuaciones no lineales
Ecuaciones y sist de ecuaciones no linealesEcuaciones y sist de ecuaciones no lineales
Ecuaciones y sist de ecuaciones no lineales
 
Metodo de lagrange (1)
Metodo de lagrange (1)Metodo de lagrange (1)
Metodo de lagrange (1)
 
Limite
LimiteLimite
Limite
 
Programación no linealeeee fernando yepez
Programación no linealeeee fernando yepezProgramación no linealeeee fernando yepez
Programación no linealeeee fernando yepez
 
Metodos de optimizacion
Metodos de optimizacionMetodos de optimizacion
Metodos de optimizacion
 
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdf
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdfPRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdf
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdf
 
Unidad i calculo 2
Unidad i calculo 2Unidad i calculo 2
Unidad i calculo 2
 
Optimización
OptimizaciónOptimización
Optimización
 

Más de ediwsongonzales (6)

auditoria
auditoria auditoria
auditoria
 
Canvas
CanvasCanvas
Canvas
 
Lienzo
LienzoLienzo
Lienzo
 
Lienzo
LienzoLienzo
Lienzo
 
Presentacion
PresentacionPresentacion
Presentacion
 
Aplicaciones java
Aplicaciones javaAplicaciones java
Aplicaciones java
 

metodos de optimizacion

  • 1.
  • 2. Matriz Jacobiana La matriz Jacobiana es una matriz formada por las derivadas parciales de primer orden de una función. Una de las aplicaciones más interesantes de esta matriz es la posibilidad de aproximar linealmente a la función en un punto. En este sentido, el Jacobiano representa la derivada de una función multivariable. Supongamos F: Rn → Rm es una función que va del espacio euclidiano n- dimensional a otro espacio euclidiano m- dimensional. Esta función está determinada por m funciones reales: y1(x1,..., xn),..., ym(x1,..., xn). Las derivadas parciales de estas (si existen) pueden ser organizadas en una matriz m por n, la matriz Jacobiana de F:
  • 3. Ejemplo 1. La matriz jacobiana de la función F : R3 → R3 definida como: F(x_1,x_2,x_3) = (x_1,x5_3,x4_2^2-x2_3) No siempre la matriz jacobiana es cuadrada. Ejemplo 2. Supóngase la función F : R3 → R4, cuyas componentes son: Aplicando la definición de matriz jacobiana:
  • 4. Determinante jacobiano Si m = n, entonces F es una función que va de un espacio n-dimensional a otro. En este caso la matriz jacobiana es cuadrada y podemos calcular su determinante, conocido como el determinante jacobiano o simplemente jacobiano. El determinante jacobiano en un punto dado nos da información importante sobre el comportamiento de F cerca de ese punto. Para empezar, una función F es invertible cerca de p si el determinante jacobiano en p es no nulo. Más aún, el valor absoluto del determinante en p nos da el factor con el cual F expande o contrae su volumen cerca de p.
  • 5. Ejemplo . El determinante jacobiano de la función F : R3 → R3 definida como: es: El teorema de la función inversa garantiza que la función es localmente invertible en todo el dominio excepto quizá donde x1 = 0 ó x2 = 0 (es decir, los valores para los que el determinante se hace cero). Si imaginamos un objeto pequeño centrado en el punto (1,1,1) y le aplicamos F, tendremos un objeto aproximadamente 40 veces más voluminoso que el original.
  • 6. Ejemplo Karush Kuhn Tucker (KKT) No existe una única forma de abordar la resolución de un problema de programación no lineal utilizando el teorema de KKT. Consideraremos la aplicación de este teorema en este caso para problemas sólo con restricciones "<=" (menor o igual). Si el problema tiene restricciones ">=" éstas se pueden transformar por "<=" multiplicando por -1. Básicamente el procedimiento consiste en resolver el problema no lineal como uno sin restricciones, luego si la solución óptima de dicho problema no cumple la totalidad o parte de las restricciones del problema se activan dichas restricciones (en conjunto y/o secuencialmente) y se resuelve nuevamente. Esto se repite hasta llegar a un conjunto de restricciones activas cuya solución también satisface las restricciones omitidas. Notar que si se han activado la totalidad de restricciones sin encontrar una solución factible, entonces el problema es infactible.
  • 7. Sin pérdida de generalidad un modelo de Programación No Lineal se puede representar a través del siguiente formato: luego podemos reescribir cualquier problema en dicha estructura manteniendo la equivalencia de la representación matemática. Para ejemplificar lo anterior consideremos el siguiente modelo de optimización no lineal que resulta de interés su resolución.
  • 8. Notar que sólo fue necesario cambiar la forma de las restricciones de no negatividad (esto se puede hacer multiplicando por -1 cada una de ellas). Cabe destacar que en este caso en particular el problema no considera restricciones de igualdad. Luego las condiciones necesarias de primer orden de Karush Kuhn Tucker (KKT) están dadas por: Al calcular los gradientes respectivos se obtiene:
  • 9. Lo cual da origen al siguiente sistema de ecuaciones: Reemplazando x1=2 y x2=1 podemos despejar los valores de los multiplicadores los cuales cumplen con las condiciones de no negatividad: Adicionalmente se puede verificar que x1=2 y x2=1 satisface las restricciones omitidas (2,4 y 5) por lo cual se puede afirmar que dicha solución cumple las condiciones necesarias de primer orden de Karush Kuhn Tucker (KKT).
  • 10. Método Lagrange En los problemas de optimización, los multiplicadores de Lagrange, nombrados así en honor a Joseph Louis Lagrange, son un método para trabajar con funciones de varias variables que nos interesa maximizar o minimizar, y está sujeta a ciertas restricciones. Este método reduce el problema restringido en n variables en uno sin restricciones de n + 1 variables cuyas ecuaciones pueden ser resueltas. Este método introduce una nueva variable escalar desconocida, el multiplicador de Lagrange, para cada restricción y forma una combinación lineal involucrando los multiplicadores como coeficientes. Su demostración involucra derivadas parciales, o bien usando diferenciales totales, o sus parientes cercanos, la regla de la cadena. El fin es, usando alguna función implícita, encontrar las condiciones para que la derivada con respecto a las variables independientes de una función sea igual a cero.
  • 11. Ejemplo de Método Lagrange
  • 12. Ejemplo de Método Lagrange
  • 13. Dada una función de varias variables, sabemos que presenta un punto crítico cuando su gradiente es nulo. Para identificar de qué punto crítico se trata, debemos usar el criterio de la segunda derivada. Éste establece que dada una función f(x; y) que presenta un punto crítico en (x0; y0), podemos calcular el siguiente discriminante: Extremos no restrictos con dos variables Si D > 0 y 22xflocal en (x0; y0). Si D < 0, se tiene un punto silla en (x0; y0). Finalmente, si D= 0 el criterio de la segunda derivada no decide la naturaleza del punto crítico en (x0;y0). Cuando se desea obtener los extremos absolutos de una función en una cierta región del dominio, se deben seguir los siguientes pasos: 1. Hallar los puntos críticos de la función en el dominio y calcular su valor en ellos. 2. Hallar los valores extremos de la función sobre la frontera del dominio. 3. Determinar los valores máximo y mínimo de entre todos los hallados en los dos puntos anteriores.
  • 14. Hallar extremos restringidos significa determinar los extremos de una función f(x; y) sujetos a una restricción g(x; y) = 0. Para ello debe plantearse la ecuación vectorial: f = g El valor  se conoce como multiplicador de Lagrange y es un auxiliar para determinar los valores de las variables del dominio que satisfacen la ecuación vectorial y la restricción. Si existen varias restricciones, se plantean varios multiplicadores.