SlideShare una empresa de Scribd logo
1 de 15
Matriz Jacobiana
La matriz Jacobiana es una matriz formada
por las derivadas parciales de primer orden de una
función. Una de las aplicaciones más interesantes
de esta matriz es la posibilidad de aproximar
linealmente a la función en un punto. En este
sentido, el Jacobiano representa la derivada de una
función multivariable.
Supongamos F: Rn → Rm es una función que va del
espacio euclidiano n-
dimensional a otro espacio euclidiano m-
dimensional. Esta función está
determinada por m funciones reales: y1(x1,..., xn),...,
ym(x1,..., xn). Las
derivadas parciales de estas (si existen) pueden ser
organizadas en una matriz
m por n, la matriz Jacobiana de F:
Ejemplo 1. La matriz jacobiana de la función F : R3
→ R3 definida como:
F(x_1,x_2,x_3) = (x_1,x5_3,x4_2^2-x2_3)
No siempre la matriz jacobiana es cuadrada.
Ejemplo 2. Supóngase la función F : R3 → R4, cuyas
componentes son:
Aplicando la definición de matriz
jacobiana:
Determinante jacobiano
Si m = n, entonces F es una función
que va de un espacio n-dimensional a
otro. En este caso la matriz jacobiana
es cuadrada y podemos calcular su
determinante, conocido como el
determinante jacobiano o
simplemente jacobiano.
El determinante jacobiano en un punto
dado nos da información importante
sobre el comportamiento de F cerca
de ese punto. Para empezar, una
función F es invertible cerca de p si el
determinante jacobiano en p es no
nulo. Más aún, el valor absoluto del
determinante en p nos da el factor
con el cual F expande o contrae su
volumen cerca de p.
Ejemplo . El determinante jacobiano
de la función F : R3 → R3 definida
como:
es:
El teorema de la función inversa garantiza que la función es
localmente invertible en todo el dominio excepto quizá donde x1 =
0 ó x2 = 0 (es decir, los valores para los que el determinante se hace
cero). Si imaginamos un objeto pequeño centrado en el punto
(1,1,1) y le aplicamos F, tendremos un objeto aproximadamente 40
veces más voluminoso que el original.
Ejemplo Karush Kuhn Tucker (KKT)
No existe una única forma de abordar la
resolución de un problema de programación no lineal
utilizando el teorema de KKT. Consideraremos la
aplicación de este teorema en este caso para problemas
sólo con restricciones "<=" (menor o igual). Si el problema
tiene restricciones ">=" éstas se pueden transformar por
"<=" multiplicando por -1.
Básicamente el procedimiento consiste en
resolver el problema no lineal como uno sin restricciones,
luego si la solución óptima de dicho problema no cumple
la totalidad o parte de las restricciones del problema se
activan dichas restricciones (en conjunto y/o
secuencialmente) y se resuelve nuevamente. Esto se
repite hasta llegar a un conjunto de restricciones activas
cuya solución también satisface las restricciones omitidas.
Notar que si se han activado la totalidad de restricciones
sin encontrar una solución factible, entonces el problema
es infactible.
Sin pérdida de generalidad un modelo de Programación No
Lineal se puede representar a través del siguiente formato:
luego podemos reescribir cualquier problema en dicha
estructura manteniendo la equivalencia de la representación
matemática. Para ejemplificar lo anterior consideremos el
siguiente modelo de optimización no lineal que resulta de
interés su resolución.
Notar que sólo fue necesario cambiar la forma de las restricciones de
no negatividad (esto se puede hacer multiplicando por -1 cada una
de ellas). Cabe destacar que en este caso en particular el problema
no considera restricciones de igualdad. Luego las condiciones
necesarias de primer orden de Karush Kuhn Tucker (KKT) están dadas
por:
Al calcular los gradientes respectivos se obtiene:
Lo cual da origen al siguiente sistema de
ecuaciones:
Reemplazando x1=2 y x2=1 podemos despejar los valores
de los multiplicadores los cuales cumplen con las
condiciones de no negatividad:
Adicionalmente se puede verificar que x1=2 y x2=1 satisface las
restricciones omitidas (2,4 y 5) por lo cual se puede afirmar que
dicha solución cumple las condiciones necesarias de primer
orden de Karush Kuhn Tucker (KKT).
Método Lagrange
En los problemas de optimización, los
multiplicadores de Lagrange, nombrados así en honor a
Joseph Louis Lagrange, son un método para trabajar con
funciones de varias variables que nos interesa maximizar o
minimizar, y está sujeta a ciertas restricciones. Este método
reduce el problema restringido en n variables en uno sin
restricciones de n + 1 variables cuyas ecuaciones pueden
ser resueltas.
Este método introduce una nueva variable escalar
desconocida, el multiplicador de Lagrange, para cada
restricción y forma una combinación lineal involucrando
los multiplicadores como coeficientes. Su demostración
involucra derivadas parciales, o bien usando diferenciales
totales, o sus parientes cercanos, la regla de la cadena. El
fin es, usando alguna función implícita, encontrar las
condiciones para que la derivada con respecto a las
variables independientes de una función sea igual a cero.
Ejemplo de Método Lagrange
Ejemplo de Método Lagrange
Dada una función de varias variables, sabemos que presenta un punto crítico cuando su
gradiente es nulo. Para identificar de qué punto crítico se trata, debemos usar el criterio
de la segunda derivada. Éste establece que dada una función f(x; y) que presenta un
punto crítico en (x0; y0), podemos calcular el siguiente discriminante:
Extremos no restrictos con dos variables
Si D > 0 y 22xflocal en (x0; y0). Si D < 0, se tiene un punto silla en (x0; y0). Finalmente, si D= 0 el
criterio de la segunda derivada no decide la naturaleza del punto crítico en (x0;y0).
Cuando se desea obtener los extremos absolutos de una función en una cierta región del
dominio, se deben seguir los siguientes pasos:
1. Hallar los puntos críticos de la función en el dominio y calcular su valor en ellos.
2. Hallar los valores extremos de la función sobre la frontera del dominio.
3. Determinar los valores máximo y mínimo de entre todos los hallados en los dos
puntos anteriores.
Hallar extremos restringidos significa determinar los
extremos de una función f(x; y)
sujetos a una restricción g(x; y) = 0. Para ello debe
plantearse la ecuación vectorial:
f = g
El valor  se conoce como multiplicador de Lagrange y
es un auxiliar para determinar
los valores de las variables del dominio que satisfacen
la ecuación vectorial y la
restricción. Si existen varias restricciones, se plantean
varios multiplicadores.
Ejemplo

Más contenido relacionado

La actualidad más candente

Metodos abiertos
Metodos abiertosMetodos abiertos
Metodos abiertos
Natalia
 
Metodos numericos-3-1212530740013750-9
Metodos numericos-3-1212530740013750-9Metodos numericos-3-1212530740013750-9
Metodos numericos-3-1212530740013750-9
Xavier Davias
 
Presentacion Metodo de Newton
Presentacion Metodo de NewtonPresentacion Metodo de Newton
Presentacion Metodo de Newton
pabloaguilar3
 
Método del punto fijo
Método del punto fijoMétodo del punto fijo
Método del punto fijo
Kike Prieto
 
Ejercicios y problemas sobre maximización y minimización por el método gráfico.
Ejercicios y problemas sobre maximización y minimización por el método gráfico.Ejercicios y problemas sobre maximización y minimización por el método gráfico.
Ejercicios y problemas sobre maximización y minimización por el método gráfico.
yadipaosarchi
 
Expo 7 programación entera (algoritmo de gomory)
Expo 7   programación entera (algoritmo de gomory)Expo 7   programación entera (algoritmo de gomory)
Expo 7 programación entera (algoritmo de gomory)
Ayda Ramirez Montalvo
 
Modulo 1: Análisis Matemático de la Optimización
Modulo 1: Análisis Matemático de la OptimizaciónModulo 1: Análisis Matemático de la Optimización
Modulo 1: Análisis Matemático de la Optimización
Horacio Santander
 
Programacion Convexa Presentacion Definitivo
Programacion Convexa Presentacion DefinitivoProgramacion Convexa Presentacion Definitivo
Programacion Convexa Presentacion Definitivo
wadar3
 

La actualidad más candente (20)

Integración numerica método de Simpsom
Integración numerica método de SimpsomIntegración numerica método de Simpsom
Integración numerica método de Simpsom
 
Metodos abiertos
Metodos abiertosMetodos abiertos
Metodos abiertos
 
Campos vectoriales
Campos vectorialesCampos vectoriales
Campos vectoriales
 
Metodos numericos-3-1212530740013750-9
Metodos numericos-3-1212530740013750-9Metodos numericos-3-1212530740013750-9
Metodos numericos-3-1212530740013750-9
 
Problemas resueltos-cadenas-de-markov
Problemas resueltos-cadenas-de-markovProblemas resueltos-cadenas-de-markov
Problemas resueltos-cadenas-de-markov
 
Presentacion Metodo de Newton
Presentacion Metodo de NewtonPresentacion Metodo de Newton
Presentacion Metodo de Newton
 
Método del punto fijo
Método del punto fijoMétodo del punto fijo
Método del punto fijo
 
Ejercicios y problemas sobre maximización y minimización por el método gráfico.
Ejercicios y problemas sobre maximización y minimización por el método gráfico.Ejercicios y problemas sobre maximización y minimización por el método gráfico.
Ejercicios y problemas sobre maximización y minimización por el método gráfico.
 
Expo 7 programación entera (algoritmo de gomory)
Expo 7   programación entera (algoritmo de gomory)Expo 7   programación entera (algoritmo de gomory)
Expo 7 programación entera (algoritmo de gomory)
 
D10_DERIVADAS DIRECCIONALES Y GRADIENTE.pdf
D10_DERIVADAS DIRECCIONALES Y GRADIENTE.pdfD10_DERIVADAS DIRECCIONALES Y GRADIENTE.pdf
D10_DERIVADAS DIRECCIONALES Y GRADIENTE.pdf
 
Modulo 1: Análisis Matemático de la Optimización
Modulo 1: Análisis Matemático de la OptimizaciónModulo 1: Análisis Matemático de la Optimización
Modulo 1: Análisis Matemático de la Optimización
 
Programacion Convexa Presentacion Definitivo
Programacion Convexa Presentacion DefinitivoProgramacion Convexa Presentacion Definitivo
Programacion Convexa Presentacion Definitivo
 
Método simplex.
Método simplex. Método simplex.
Método simplex.
 
Presentacion programacion dinamica
Presentacion programacion dinamicaPresentacion programacion dinamica
Presentacion programacion dinamica
 
Operador anulador
Operador anuladorOperador anulador
Operador anulador
 
Investigaciones_de_operaciones_______Pg_15__57_.pdf.pdf
Investigaciones_de_operaciones_______Pg_15__57_.pdf.pdfInvestigaciones_de_operaciones_______Pg_15__57_.pdf.pdf
Investigaciones_de_operaciones_______Pg_15__57_.pdf.pdf
 
Método Newton Raphson
Método Newton RaphsonMétodo Newton Raphson
Método Newton Raphson
 
Ejercicios de integrales triples
Ejercicios de integrales triplesEjercicios de integrales triples
Ejercicios de integrales triples
 
1 teoria de la probabilidad
1 teoria de la probabilidad1 teoria de la probabilidad
1 teoria de la probabilidad
 
Optimizacion con multiplicador de Lagrange
Optimizacion con multiplicador de LagrangeOptimizacion con multiplicador de Lagrange
Optimizacion con multiplicador de Lagrange
 

Similar a metodos de optimizacion

Metodos de Optimizacion
Metodos de OptimizacionMetodos de Optimizacion
Metodos de Optimizacion
J_cordero
 

Similar a metodos de optimizacion (20)

Metodos de optimizacion
Metodos de optimizacionMetodos de optimizacion
Metodos de optimizacion
 
Programación no lineal
Programación no linealProgramación no lineal
Programación no lineal
 
Metodos de Optimizacion
Metodos de OptimizacionMetodos de Optimizacion
Metodos de Optimizacion
 
Optimizacion
OptimizacionOptimizacion
Optimizacion
 
Ejercicios de OPTIMIZACION DE SISTEMAS Y FUNCIONES
Ejercicios de OPTIMIZACION DE SISTEMAS Y FUNCIONESEjercicios de OPTIMIZACION DE SISTEMAS Y FUNCIONES
Ejercicios de OPTIMIZACION DE SISTEMAS Y FUNCIONES
 
Metodo de optimización. listo
Metodo de optimización. listoMetodo de optimización. listo
Metodo de optimización. listo
 
Metodos de Optimizacion
Metodos de OptimizacionMetodos de Optimizacion
Metodos de Optimizacion
 
Presentación de optimizacion
Presentación de optimizacionPresentación de optimizacion
Presentación de optimizacion
 
Presentación de optimizacion
Presentación de optimizacionPresentación de optimizacion
Presentación de optimizacion
 
Prrogramacion no lineal sexta semana.pptx
Prrogramacion no lineal sexta semana.pptxPrrogramacion no lineal sexta semana.pptx
Prrogramacion no lineal sexta semana.pptx
 
Prrogramacion no lineal sexta semana-2.pptx
Prrogramacion no lineal sexta semana-2.pptxPrrogramacion no lineal sexta semana-2.pptx
Prrogramacion no lineal sexta semana-2.pptx
 
Marina.mallol optimizacion de sistemas
Marina.mallol optimizacion de sistemasMarina.mallol optimizacion de sistemas
Marina.mallol optimizacion de sistemas
 
Ecuaciones y sist de ecuaciones no lineales
Ecuaciones y sist de ecuaciones no linealesEcuaciones y sist de ecuaciones no lineales
Ecuaciones y sist de ecuaciones no lineales
 
Metodo de lagrange (1)
Metodo de lagrange (1)Metodo de lagrange (1)
Metodo de lagrange (1)
 
Limite
LimiteLimite
Limite
 
Programación no linealeeee fernando yepez
Programación no linealeeee fernando yepezProgramación no linealeeee fernando yepez
Programación no linealeeee fernando yepez
 
Metodos de optimizacion
Metodos de optimizacionMetodos de optimizacion
Metodos de optimizacion
 
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdf
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdfPRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdf
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdf
 
Unidad i calculo 2
Unidad i calculo 2Unidad i calculo 2
Unidad i calculo 2
 
Optimización
OptimizaciónOptimización
Optimización
 

Más de ediwsongonzales (6)

auditoria
auditoria auditoria
auditoria
 
Canvas
CanvasCanvas
Canvas
 
Lienzo
LienzoLienzo
Lienzo
 
Lienzo
LienzoLienzo
Lienzo
 
Presentacion
PresentacionPresentacion
Presentacion
 
Aplicaciones java
Aplicaciones javaAplicaciones java
Aplicaciones java
 

metodos de optimizacion

  • 1.
  • 2. Matriz Jacobiana La matriz Jacobiana es una matriz formada por las derivadas parciales de primer orden de una función. Una de las aplicaciones más interesantes de esta matriz es la posibilidad de aproximar linealmente a la función en un punto. En este sentido, el Jacobiano representa la derivada de una función multivariable. Supongamos F: Rn → Rm es una función que va del espacio euclidiano n- dimensional a otro espacio euclidiano m- dimensional. Esta función está determinada por m funciones reales: y1(x1,..., xn),..., ym(x1,..., xn). Las derivadas parciales de estas (si existen) pueden ser organizadas en una matriz m por n, la matriz Jacobiana de F:
  • 3. Ejemplo 1. La matriz jacobiana de la función F : R3 → R3 definida como: F(x_1,x_2,x_3) = (x_1,x5_3,x4_2^2-x2_3) No siempre la matriz jacobiana es cuadrada. Ejemplo 2. Supóngase la función F : R3 → R4, cuyas componentes son: Aplicando la definición de matriz jacobiana:
  • 4. Determinante jacobiano Si m = n, entonces F es una función que va de un espacio n-dimensional a otro. En este caso la matriz jacobiana es cuadrada y podemos calcular su determinante, conocido como el determinante jacobiano o simplemente jacobiano. El determinante jacobiano en un punto dado nos da información importante sobre el comportamiento de F cerca de ese punto. Para empezar, una función F es invertible cerca de p si el determinante jacobiano en p es no nulo. Más aún, el valor absoluto del determinante en p nos da el factor con el cual F expande o contrae su volumen cerca de p.
  • 5. Ejemplo . El determinante jacobiano de la función F : R3 → R3 definida como: es: El teorema de la función inversa garantiza que la función es localmente invertible en todo el dominio excepto quizá donde x1 = 0 ó x2 = 0 (es decir, los valores para los que el determinante se hace cero). Si imaginamos un objeto pequeño centrado en el punto (1,1,1) y le aplicamos F, tendremos un objeto aproximadamente 40 veces más voluminoso que el original.
  • 6. Ejemplo Karush Kuhn Tucker (KKT) No existe una única forma de abordar la resolución de un problema de programación no lineal utilizando el teorema de KKT. Consideraremos la aplicación de este teorema en este caso para problemas sólo con restricciones "<=" (menor o igual). Si el problema tiene restricciones ">=" éstas se pueden transformar por "<=" multiplicando por -1. Básicamente el procedimiento consiste en resolver el problema no lineal como uno sin restricciones, luego si la solución óptima de dicho problema no cumple la totalidad o parte de las restricciones del problema se activan dichas restricciones (en conjunto y/o secuencialmente) y se resuelve nuevamente. Esto se repite hasta llegar a un conjunto de restricciones activas cuya solución también satisface las restricciones omitidas. Notar que si se han activado la totalidad de restricciones sin encontrar una solución factible, entonces el problema es infactible.
  • 7. Sin pérdida de generalidad un modelo de Programación No Lineal se puede representar a través del siguiente formato: luego podemos reescribir cualquier problema en dicha estructura manteniendo la equivalencia de la representación matemática. Para ejemplificar lo anterior consideremos el siguiente modelo de optimización no lineal que resulta de interés su resolución.
  • 8. Notar que sólo fue necesario cambiar la forma de las restricciones de no negatividad (esto se puede hacer multiplicando por -1 cada una de ellas). Cabe destacar que en este caso en particular el problema no considera restricciones de igualdad. Luego las condiciones necesarias de primer orden de Karush Kuhn Tucker (KKT) están dadas por: Al calcular los gradientes respectivos se obtiene:
  • 9. Lo cual da origen al siguiente sistema de ecuaciones: Reemplazando x1=2 y x2=1 podemos despejar los valores de los multiplicadores los cuales cumplen con las condiciones de no negatividad: Adicionalmente se puede verificar que x1=2 y x2=1 satisface las restricciones omitidas (2,4 y 5) por lo cual se puede afirmar que dicha solución cumple las condiciones necesarias de primer orden de Karush Kuhn Tucker (KKT).
  • 10. Método Lagrange En los problemas de optimización, los multiplicadores de Lagrange, nombrados así en honor a Joseph Louis Lagrange, son un método para trabajar con funciones de varias variables que nos interesa maximizar o minimizar, y está sujeta a ciertas restricciones. Este método reduce el problema restringido en n variables en uno sin restricciones de n + 1 variables cuyas ecuaciones pueden ser resueltas. Este método introduce una nueva variable escalar desconocida, el multiplicador de Lagrange, para cada restricción y forma una combinación lineal involucrando los multiplicadores como coeficientes. Su demostración involucra derivadas parciales, o bien usando diferenciales totales, o sus parientes cercanos, la regla de la cadena. El fin es, usando alguna función implícita, encontrar las condiciones para que la derivada con respecto a las variables independientes de una función sea igual a cero.
  • 11. Ejemplo de Método Lagrange
  • 12. Ejemplo de Método Lagrange
  • 13. Dada una función de varias variables, sabemos que presenta un punto crítico cuando su gradiente es nulo. Para identificar de qué punto crítico se trata, debemos usar el criterio de la segunda derivada. Éste establece que dada una función f(x; y) que presenta un punto crítico en (x0; y0), podemos calcular el siguiente discriminante: Extremos no restrictos con dos variables Si D > 0 y 22xflocal en (x0; y0). Si D < 0, se tiene un punto silla en (x0; y0). Finalmente, si D= 0 el criterio de la segunda derivada no decide la naturaleza del punto crítico en (x0;y0). Cuando se desea obtener los extremos absolutos de una función en una cierta región del dominio, se deben seguir los siguientes pasos: 1. Hallar los puntos críticos de la función en el dominio y calcular su valor en ellos. 2. Hallar los valores extremos de la función sobre la frontera del dominio. 3. Determinar los valores máximo y mínimo de entre todos los hallados en los dos puntos anteriores.
  • 14. Hallar extremos restringidos significa determinar los extremos de una función f(x; y) sujetos a una restricción g(x; y) = 0. Para ello debe plantearse la ecuación vectorial: f = g El valor  se conoce como multiplicador de Lagrange y es un auxiliar para determinar los valores de las variables del dominio que satisfacen la ecuación vectorial y la restricción. Si existen varias restricciones, se plantean varios multiplicadores.