SlideShare una empresa de Scribd logo
1 de 16
Joseph Louis Lagrange, bautizado como Giuseppe Lodovico
Lagrangia, también llamado Giuseppe Luigi Lagrangia o Lagrange (25 de
enero de 1736 en Turín - 10 de abril de 1813 en París) fue
un matemático, físico y astrónomo italiano que después vivió
en Rusia y Francia. Lagrange trabajó para Federico II de
Prusia, en Berlín, durante veinte años. Lagrange demostró el teorema del
valor medio, desarrolló la mecánica Lagrangiana y tuvo una importante
contribución en astronomía.
En
los
problemas
de
optimización,
los
multiplicadores
de Lagrange, nombrados así en honor a Joseph Louis Lagrange, son un
método para trabajar con funciones de varias variables que nos interesa
maximizar o minimizar, y está sujeta a ciertas restricciones. Este método
reduce el problema restringido en n variables en uno sin restricciones de n
+ 1 variables cuyas ecuaciones pueden ser resueltas. Este método introduce
una nueva variable escalar desconocida, el multiplicador de Lagrange, para
cada restricción y forma una combinación lineal involucrando los
multiplicadores como coeficientes. Su demostración involucra derivadas
parciales, o bien usando diferenciales totales, o sus parientes cercanos, la
regla de la cadena. El fin es, usando alguna función implícita, encontrar las
condiciones para que la derivada con respecto a las variables
independientes de una función sea igual a cero.
Uno de los problemas más comunes en el cálculo es el de encontrar máximos o
mínimos (en general, "extremos") de una función, pero a menudo es difícil encontrar
una forma cerrada para la función que se está extremized. Estas dificultades surgen a
menudo cuando se desea maximizar o minimizar una función sujeta a condiciones
exteriores fijos o restricciones. El método de los multiplicadores de Lagrange es una
herramienta poderosa para resolver esta clase de problemas sin la necesidad de
resolver explícitamente las condiciones y los utilizan para eliminar las variables
adicionales.
Para decirlo más sencillamente, no es por lo general suficiente para preguntar:
"¿Cómo puedo minimizar el aluminio necesario para hacer esta lata?" (La respuesta a
eso es claramente "Hacer un muy, muy pequeño puede!") ¡Tienes que preguntar:
"¿Cómo puedo minimizar el aluminio mientras se asegura la lata celebrará 10 onzas de
sopa ? " O del mismo modo, "¿Cómo puedo maximizar el beneficio de mi fábrica dado
que sólo tiene $ 15.000 a invertir ? " O, para tomar un ejemplo más sofisticado
", ¿Cuánto tarda en llegar a la montaña rusa de la tierra suponiendo que se mantiene
en el camino ? " En general, los multiplicadores de Lagrange son útiles cuando
algunas de las variables en la descripción más sencilla de un problema son despedidos
por las restricciones.
La optimización reprimida desempeña un papel central en la economía. Por
ejemplo, el problema selecto para un consumidor se representa como uno de
maximizar una función de utilidad sujeta a una coacción de presupuesto . El
multiplicador Lagrange tiene una interpretación económica como el precio de la
oposición asociado con la coacción, en este ejemplo la utilidad marginal
de ingresos . Otros ejemplos incluyen la maximización de la ganancia para una
firma, junto con varias aplicaciones macro-económicas.
En la teoría de control óptimo , los multiplicadores de Lagrange se
interpretan como constates variables, y los multiplicadores de Lagrange se
formulan de nuevo como la minimización del hamiltoniano , en el principio
mínimo de Pontryagin.
Ø Visualizar algunas superficies cuádricas y curvas de nivel para distintos
valores de la variable z.
Ø Identificar, a través de los simuladores, los puntos (x,y) sobre la curva
correspondiente a la función restricción donde la función principal tiene
extremos.
Ø Interpretar gráficamente los resultados obtenidos empleando el método
de multiplicadores de Lagrange.
Ø Aproximar las soluciones del problema a partir de la observación en el
simulador, de las curvas de nivel de la función principal y la curva
correspondiente a la función condicionante.
Ø Adquirir habilidad en la resolución de problemas de optimización en un
ambiente computacional.
Albert William Tucker (28 de noviembre de 1905 – 25 de enero de 1995) fue
un matemático estadounidense nacido en Canadá que realizó importantes
contribuciones a la Topología, Teoría de juegos y a la Programación no lineal.
Las condiciones necesarias que deben satisfacer los óptimos de problemas de
optimización no lineal con restricciones de desigualdad fueron publicadas
por primera vez (1939) en la tesis de Maestría de William Karush (1917-1997)
(en aquél entonces estudiante de matemáticas de la Universidad de
Chicago), aunque fueron renombradas tras un artículo en una conferencia de
Harold W. Kuhn y Albert W. Tucker en 1951.
Las condiciones de Karush-Kuhn-Tucker (KKT) son una generalización del
método de los multiplicadores de Lagrange para restricciones de desigualdad.
En programación matemática, las condiciones de Karush-KuhnTucker (también conocidas como las condiciones KKT o Kuhn-Tucker) son
condiciones necesarias y suficientes para que la solución de un problema de
programación matemática séa óptima. Es una generalización del método de
los Multiplicadores de Lagrange
La importancia de este teorema radica en que nos dice que podemos asociar una
función de utilidad a unas preferencias, esto nos abre la puerta de la potente
herramienta del análisis matemático al estudio del comportamiento del
consumidor.
Básicamente el procedimiento consiste en resolver el problema no lineal como
uno sin restricciones, luego si la solución óptima de dicho problema no cumple
la totalidad o parte de las restricciones del problema se activan dichas
restricciones (en conjunto y/o secuencialmente) y se resuelve nuevamente.
Esto se repite hasta llegar a un conjunto de restricciones activas cuya solución
también satisface las restricciones omitidas. Notar que si se han activado la
totalidad de restricciones sin encontrar una solución factible, entonces el
problema es infectable. Esta característica particular de los modelos no lineales
permite abordar problemas donde existen economías o de economías de escala
o en general donde los supuestos asociados a la proporcionalidad no se
cumplen.
Una de las características del ser humano es su capacidad para tomar
decisiones, lo que incluye, básicamente, su capacidad para analizar las
alternativas y evaluarlas en términos de su comportamiento respecto de los
objetivos que desea conseguir. Es una actividad tan cotidiana que
prácticamente no le prestamos atención. En muchos casos hemos
‘automatizado’ ese proceso de toma de decisiones como fruto de la
experiencia. Sin embargo, cuando el problema al que nos enfrentamos es
muy complejo, hay muchas alternativas posibles, y son graves sus
consecuencias, por lo que resulta difícil realizar este proceso de análisis y
evaluación.
Los problemas que surgen en las grandes organizaciones, tanto en el sector
privado como en el público, son tan complejos que no pueden resolverse
usando exclusivamente sentido común y experiencia práctica. Se deben tomar
decisiones sobre la manera ‘óptima’ de usar los recursos
disponibles, generalmente escasos, para lograr unos ciertos objetivos. La
Investigación Operativa proporciona modelos y técnicas para abordar estos
problemas, que permiten comprender los sistemas reales y, en
general, facilitan información sobre la decisión o el conjunto de decisiones
más adecuado de acuerdo con los objetivos establecidos y el impacto que
pueden tener sobre el funcionamiento del sistema como un todo.
Los multiplicadores de Khun-Tucker , al igual que los multiplicadores de
Lagrange en el caso de restricciones de igualdad, son calculados simultáneamente
a los puntos óptimos. Además de servir para utilizar las condiciones de
optimización de segundo orden y para indicar las restricciones que se encuentran
saturadas, tienen una clara interpretación económica y financiera.
Dado el óptimo de un programa con restricciones de desigualdad podría
plantearse un programa equivalente eliminando las restricciones no saturadas y
expresando en forma de igualdad las saturadas.
También son aplicados en sistemas eléctricos, en el área de
sistemas, matemática, toma de decisiones entre otras.
Kuhn Tucker y Lagrange

Más contenido relacionado

La actualidad más candente

Condiciones de kuhn tucker y lagrange
Condiciones de kuhn tucker y lagrangeCondiciones de kuhn tucker y lagrange
Condiciones de kuhn tucker y lagrangejesusrondon10
 
Lagrange y Kuhn-Tucker
Lagrange y Kuhn-TuckerLagrange y Kuhn-Tucker
Lagrange y Kuhn-TuckerJoe García
 
Programación no linealeeee fernando yepez
Programación no linealeeee fernando yepezProgramación no linealeeee fernando yepez
Programación no linealeeee fernando yepezDra Yarelis Vargas
 
Casos especiales del metodo simplex
Casos especiales del metodo simplexCasos especiales del metodo simplex
Casos especiales del metodo simplexbkike
 
Programación Dinámica
Programación DinámicaProgramación Dinámica
Programación DinámicaKimLinares
 
Programacion dinamica
Programacion dinamicaProgramacion dinamica
Programacion dinamicaRCOP
 
Presentacion programacion dinamica
Presentacion programacion dinamicaPresentacion programacion dinamica
Presentacion programacion dinamicaVINAYOCANDO13
 
Teoria de Optimizacion
Teoria de  OptimizacionTeoria de  Optimizacion
Teoria de Optimizacionrebeca ferrer
 
Metodo de optimizacion
Metodo de optimizacionMetodo de optimizacion
Metodo de optimizacionAngel Jhoan
 
Teoría de optimización
Teoría de optimizaciónTeoría de optimización
Teoría de optimizaciónAngel Jhoan
 
Programación dinamica (ea)
Programación dinamica (ea)Programación dinamica (ea)
Programación dinamica (ea)emalmeida23
 
Metodos de programacion no lineal javier perez
Metodos de programacion no lineal javier perezMetodos de programacion no lineal javier perez
Metodos de programacion no lineal javier perezjavier peeez
 
Programacion dinamica final
Programacion dinamica finalProgramacion dinamica final
Programacion dinamica finalWalter Toledo
 

La actualidad más candente (20)

Condiciones de kuhn tucker y lagrange
Condiciones de kuhn tucker y lagrangeCondiciones de kuhn tucker y lagrange
Condiciones de kuhn tucker y lagrange
 
Lagrange y Kuhn-Tucker
Lagrange y Kuhn-TuckerLagrange y Kuhn-Tucker
Lagrange y Kuhn-Tucker
 
Optimizacion
OptimizacionOptimizacion
Optimizacion
 
Programación no linealeeee fernando yepez
Programación no linealeeee fernando yepezProgramación no linealeeee fernando yepez
Programación no linealeeee fernando yepez
 
Casos especiales del metodo simplex
Casos especiales del metodo simplexCasos especiales del metodo simplex
Casos especiales del metodo simplex
 
Programación Dinámica
Programación DinámicaProgramación Dinámica
Programación Dinámica
 
Programacion dinamica
Programacion dinamicaProgramacion dinamica
Programacion dinamica
 
Presentacion programacion dinamica
Presentacion programacion dinamicaPresentacion programacion dinamica
Presentacion programacion dinamica
 
0208
02080208
0208
 
Teoria de Optimizacion
Teoria de  OptimizacionTeoria de  Optimizacion
Teoria de Optimizacion
 
Método Simplex
Método SimplexMétodo Simplex
Método Simplex
 
Programación dinámica
Programación dinámicaProgramación dinámica
Programación dinámica
 
Metodo de optimizacion
Metodo de optimizacionMetodo de optimizacion
Metodo de optimizacion
 
Optimización
OptimizaciónOptimización
Optimización
 
Teoría de optimización
Teoría de optimizaciónTeoría de optimización
Teoría de optimización
 
Programación dinamica (ea)
Programación dinamica (ea)Programación dinamica (ea)
Programación dinamica (ea)
 
Metodos de programacion no lineal javier perez
Metodos de programacion no lineal javier perezMetodos de programacion no lineal javier perez
Metodos de programacion no lineal javier perez
 
Unidad 3. Programación dinámica
Unidad 3. Programación dinámicaUnidad 3. Programación dinámica
Unidad 3. Programación dinámica
 
Programacion dinamica final
Programacion dinamica finalProgramacion dinamica final
Programacion dinamica final
 
Programación dinámica
Programación dinámica Programación dinámica
Programación dinámica
 

Similar a Kuhn Tucker y Lagrange

Condiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeCondiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeDanny Quintero
 
Condiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeCondiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeAndreina Arteaga
 
Edixon presentacion
Edixon presentacionEdixon presentacion
Edixon presentacionmedina08
 
Optimización de sistemas. Gerardo Caolo
Optimización de sistemas. Gerardo CaoloOptimización de sistemas. Gerardo Caolo
Optimización de sistemas. Gerardo CaoloGenesis Chacin Esteves
 
Kuhn tucker y lagrange jose avila
Kuhn tucker y lagrange jose avilaKuhn tucker y lagrange jose avila
Kuhn tucker y lagrange jose avilaJose Avila
 
Multiplicadores de lagrange
Multiplicadores de lagrangeMultiplicadores de lagrange
Multiplicadores de lagrangeBryan Guerra
 
Método de lagrange
Método de lagrangeMétodo de lagrange
Método de lagrangeSMCangry
 
Kuhn tucker y lagrange
Kuhn tucker y lagrangeKuhn tucker y lagrange
Kuhn tucker y lagrangeandressparada
 
Presentación optimizacion de sistema
Presentación optimizacion de sistemaPresentación optimizacion de sistema
Presentación optimizacion de sistemaDiRossalez
 
Trabajo programacion lineal
Trabajo  programacion  linealTrabajo  programacion  lineal
Trabajo programacion linealluis fernandez
 
Las condiciones de kuhn tucker y lagrange
Las condiciones de kuhn tucker y lagrangeLas condiciones de kuhn tucker y lagrange
Las condiciones de kuhn tucker y lagrangeChely Briceño
 
Javierperez teoría de la optimización
Javierperez teoría de la optimizaciónJavierperez teoría de la optimización
Javierperez teoría de la optimizaciónRobin Duben
 
Optimización de sistemas y funciones
Optimización de sistemas y funcionesOptimización de sistemas y funciones
Optimización de sistemas y funcionesjosealexanderlopez
 
Metodo lagrange & kuhn tucker - Optimizacion de sistemas y funciones.
Metodo lagrange & kuhn tucker - Optimizacion de sistemas y funciones.Metodo lagrange & kuhn tucker - Optimizacion de sistemas y funciones.
Metodo lagrange & kuhn tucker - Optimizacion de sistemas y funciones.Daniel Paz
 

Similar a Kuhn Tucker y Lagrange (20)

Optimizacion
OptimizacionOptimizacion
Optimizacion
 
LaGrange.
LaGrange.LaGrange.
LaGrange.
 
Condiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeCondiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrange
 
Condiciones de Lagrange y Tucker
Condiciones de Lagrange y TuckerCondiciones de Lagrange y Tucker
Condiciones de Lagrange y Tucker
 
Condiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeCondiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrange
 
Optimizacion
OptimizacionOptimizacion
Optimizacion
 
Edixon presentacion
Edixon presentacionEdixon presentacion
Edixon presentacion
 
Optimización de sistemas. Gerardo Caolo
Optimización de sistemas. Gerardo CaoloOptimización de sistemas. Gerardo Caolo
Optimización de sistemas. Gerardo Caolo
 
Kuhn tucker y lagrange jose avila
Kuhn tucker y lagrange jose avilaKuhn tucker y lagrange jose avila
Kuhn tucker y lagrange jose avila
 
Programacion no lineal
Programacion no linealProgramacion no lineal
Programacion no lineal
 
Multiplicadores de lagrange
Multiplicadores de lagrangeMultiplicadores de lagrange
Multiplicadores de lagrange
 
Método de lagrange
Método de lagrangeMétodo de lagrange
Método de lagrange
 
Kuhn tucker y lagrange
Kuhn tucker y lagrangeKuhn tucker y lagrange
Kuhn tucker y lagrange
 
Presentación optimizacion de sistema
Presentación optimizacion de sistemaPresentación optimizacion de sistema
Presentación optimizacion de sistema
 
Trabajo programacion lineal
Trabajo  programacion  linealTrabajo  programacion  lineal
Trabajo programacion lineal
 
Las condiciones de kuhn tucker y lagrange
Las condiciones de kuhn tucker y lagrangeLas condiciones de kuhn tucker y lagrange
Las condiciones de kuhn tucker y lagrange
 
Programacionnolineal
Programacionnolineal Programacionnolineal
Programacionnolineal
 
Javierperez teoría de la optimización
Javierperez teoría de la optimizaciónJavierperez teoría de la optimización
Javierperez teoría de la optimización
 
Optimización de sistemas y funciones
Optimización de sistemas y funcionesOptimización de sistemas y funciones
Optimización de sistemas y funciones
 
Metodo lagrange & kuhn tucker - Optimizacion de sistemas y funciones.
Metodo lagrange & kuhn tucker - Optimizacion de sistemas y funciones.Metodo lagrange & kuhn tucker - Optimizacion de sistemas y funciones.
Metodo lagrange & kuhn tucker - Optimizacion de sistemas y funciones.
 

Kuhn Tucker y Lagrange

  • 1.
  • 2. Joseph Louis Lagrange, bautizado como Giuseppe Lodovico Lagrangia, también llamado Giuseppe Luigi Lagrangia o Lagrange (25 de enero de 1736 en Turín - 10 de abril de 1813 en París) fue un matemático, físico y astrónomo italiano que después vivió en Rusia y Francia. Lagrange trabajó para Federico II de Prusia, en Berlín, durante veinte años. Lagrange demostró el teorema del valor medio, desarrolló la mecánica Lagrangiana y tuvo una importante contribución en astronomía.
  • 3. En los problemas de optimización, los multiplicadores de Lagrange, nombrados así en honor a Joseph Louis Lagrange, son un método para trabajar con funciones de varias variables que nos interesa maximizar o minimizar, y está sujeta a ciertas restricciones. Este método reduce el problema restringido en n variables en uno sin restricciones de n + 1 variables cuyas ecuaciones pueden ser resueltas. Este método introduce una nueva variable escalar desconocida, el multiplicador de Lagrange, para cada restricción y forma una combinación lineal involucrando los multiplicadores como coeficientes. Su demostración involucra derivadas parciales, o bien usando diferenciales totales, o sus parientes cercanos, la regla de la cadena. El fin es, usando alguna función implícita, encontrar las condiciones para que la derivada con respecto a las variables independientes de una función sea igual a cero.
  • 4. Uno de los problemas más comunes en el cálculo es el de encontrar máximos o mínimos (en general, "extremos") de una función, pero a menudo es difícil encontrar una forma cerrada para la función que se está extremized. Estas dificultades surgen a menudo cuando se desea maximizar o minimizar una función sujeta a condiciones exteriores fijos o restricciones. El método de los multiplicadores de Lagrange es una herramienta poderosa para resolver esta clase de problemas sin la necesidad de resolver explícitamente las condiciones y los utilizan para eliminar las variables adicionales. Para decirlo más sencillamente, no es por lo general suficiente para preguntar: "¿Cómo puedo minimizar el aluminio necesario para hacer esta lata?" (La respuesta a eso es claramente "Hacer un muy, muy pequeño puede!") ¡Tienes que preguntar: "¿Cómo puedo minimizar el aluminio mientras se asegura la lata celebrará 10 onzas de sopa ? " O del mismo modo, "¿Cómo puedo maximizar el beneficio de mi fábrica dado que sólo tiene $ 15.000 a invertir ? " O, para tomar un ejemplo más sofisticado ", ¿Cuánto tarda en llegar a la montaña rusa de la tierra suponiendo que se mantiene en el camino ? " En general, los multiplicadores de Lagrange son útiles cuando algunas de las variables en la descripción más sencilla de un problema son despedidos por las restricciones.
  • 5. La optimización reprimida desempeña un papel central en la economía. Por ejemplo, el problema selecto para un consumidor se representa como uno de maximizar una función de utilidad sujeta a una coacción de presupuesto . El multiplicador Lagrange tiene una interpretación económica como el precio de la oposición asociado con la coacción, en este ejemplo la utilidad marginal de ingresos . Otros ejemplos incluyen la maximización de la ganancia para una firma, junto con varias aplicaciones macro-económicas.
  • 6. En la teoría de control óptimo , los multiplicadores de Lagrange se interpretan como constates variables, y los multiplicadores de Lagrange se formulan de nuevo como la minimización del hamiltoniano , en el principio mínimo de Pontryagin.
  • 7. Ø Visualizar algunas superficies cuádricas y curvas de nivel para distintos valores de la variable z. Ø Identificar, a través de los simuladores, los puntos (x,y) sobre la curva correspondiente a la función restricción donde la función principal tiene extremos. Ø Interpretar gráficamente los resultados obtenidos empleando el método de multiplicadores de Lagrange. Ø Aproximar las soluciones del problema a partir de la observación en el simulador, de las curvas de nivel de la función principal y la curva correspondiente a la función condicionante. Ø Adquirir habilidad en la resolución de problemas de optimización en un ambiente computacional.
  • 8. Albert William Tucker (28 de noviembre de 1905 – 25 de enero de 1995) fue un matemático estadounidense nacido en Canadá que realizó importantes contribuciones a la Topología, Teoría de juegos y a la Programación no lineal.
  • 9. Las condiciones necesarias que deben satisfacer los óptimos de problemas de optimización no lineal con restricciones de desigualdad fueron publicadas por primera vez (1939) en la tesis de Maestría de William Karush (1917-1997) (en aquél entonces estudiante de matemáticas de la Universidad de Chicago), aunque fueron renombradas tras un artículo en una conferencia de Harold W. Kuhn y Albert W. Tucker en 1951. Las condiciones de Karush-Kuhn-Tucker (KKT) son una generalización del método de los multiplicadores de Lagrange para restricciones de desigualdad.
  • 10. En programación matemática, las condiciones de Karush-KuhnTucker (también conocidas como las condiciones KKT o Kuhn-Tucker) son condiciones necesarias y suficientes para que la solución de un problema de programación matemática séa óptima. Es una generalización del método de los Multiplicadores de Lagrange
  • 11. La importancia de este teorema radica en que nos dice que podemos asociar una función de utilidad a unas preferencias, esto nos abre la puerta de la potente herramienta del análisis matemático al estudio del comportamiento del consumidor.
  • 12. Básicamente el procedimiento consiste en resolver el problema no lineal como uno sin restricciones, luego si la solución óptima de dicho problema no cumple la totalidad o parte de las restricciones del problema se activan dichas restricciones (en conjunto y/o secuencialmente) y se resuelve nuevamente. Esto se repite hasta llegar a un conjunto de restricciones activas cuya solución también satisface las restricciones omitidas. Notar que si se han activado la totalidad de restricciones sin encontrar una solución factible, entonces el problema es infectable. Esta característica particular de los modelos no lineales permite abordar problemas donde existen economías o de economías de escala o en general donde los supuestos asociados a la proporcionalidad no se cumplen.
  • 13. Una de las características del ser humano es su capacidad para tomar decisiones, lo que incluye, básicamente, su capacidad para analizar las alternativas y evaluarlas en términos de su comportamiento respecto de los objetivos que desea conseguir. Es una actividad tan cotidiana que prácticamente no le prestamos atención. En muchos casos hemos ‘automatizado’ ese proceso de toma de decisiones como fruto de la experiencia. Sin embargo, cuando el problema al que nos enfrentamos es muy complejo, hay muchas alternativas posibles, y son graves sus consecuencias, por lo que resulta difícil realizar este proceso de análisis y evaluación.
  • 14. Los problemas que surgen en las grandes organizaciones, tanto en el sector privado como en el público, son tan complejos que no pueden resolverse usando exclusivamente sentido común y experiencia práctica. Se deben tomar decisiones sobre la manera ‘óptima’ de usar los recursos disponibles, generalmente escasos, para lograr unos ciertos objetivos. La Investigación Operativa proporciona modelos y técnicas para abordar estos problemas, que permiten comprender los sistemas reales y, en general, facilitan información sobre la decisión o el conjunto de decisiones más adecuado de acuerdo con los objetivos establecidos y el impacto que pueden tener sobre el funcionamiento del sistema como un todo.
  • 15. Los multiplicadores de Khun-Tucker , al igual que los multiplicadores de Lagrange en el caso de restricciones de igualdad, son calculados simultáneamente a los puntos óptimos. Además de servir para utilizar las condiciones de optimización de segundo orden y para indicar las restricciones que se encuentran saturadas, tienen una clara interpretación económica y financiera. Dado el óptimo de un programa con restricciones de desigualdad podría plantearse un programa equivalente eliminando las restricciones no saturadas y expresando en forma de igualdad las saturadas. También son aplicados en sistemas eléctricos, en el área de sistemas, matemática, toma de decisiones entre otras.