SlideShare una empresa de Scribd logo
1 de 15
Condiciones de
Kuhn-Tucker y
Lagrange
Realizado por: Andrea Alfonzo
Condiciones de
Kuhn-Tucker
Definición
Historia
Aplicaciones
Definición:
 

Las condiciones de Karush-Kuhn-Tucker (también
conocidas como las condiciones KKT o Kuhn-Tucker) son
condiciones necesarias y suficientes para que la solución
de un problema de programación matemática sea
óptima. Se dice estas son una generalización del método
de los multiplicadores de Lagrange.
Historia


 Condiciones

de Kuhn-Tuvker fue
desarrollado por  Albert William Tucker y
complementada por Harold Kuhn, quien
permitió mejoras en el proceso, pero se le
adjudico un papel secundario.
Aplicaciones
Condiciones necesarias de primer orden
 

Supongamos que la función objetivo, por ejemplo, a
minimizar, es  y las funciones de restricción son  y .
Además,
supongamos
que
son continuamente
diferenciables en el punto . Si  es un mínimo local,
entonces existe constantes ,  y  tales que:
Aplicaciones
 

Condiciones de regularidad (o cualificación de las
restricciones)
En la condición necesaria anterior, el multiplicador
dual puede ser igual a cero. Este caso se
denomina degenerado o anormal. La condición necesaria
no tiene en cuenta las propiedades de la función sino la
geometría de las restricciones. Existen una serie de
condiciones de regularidad que aseguran que la solución
no es degenerada. Estas incluyen:
*Cualificación de la restricción de independencia
lineal (CRIL): los gradientes de las restricciones activas
de desigualdad y los gradientes de las restricciones de
igualdad son linealmente independientes en x* .
*Cualificación de la restricción de MangasarianFromowitz (CRMF): los gradientes de las restricciones
activas de desigualdad y los gradientes de las
restricciones de igualdad son linealmente independientes
positivos en x*.
*Cualificación de la restricción de rango constante (CRRC): para
cada subconjunto de las restricciones activas de desigualdad y los
gradientes de las restricciones de igualdad, el rango en el entorno
de  es constante.
*Cualificación de la restricción de dependencia lineal constante
positiva (DLCP): para cada subconjunto de restricciones activas de
desigualdad y de gradientes de las restricciones de igualdad, si es
linealmente dependiente positivo en x* entonces es linealmente
dependiente positivo en el entorno de x*.
(es linealmente
dependiente positivo si existe  
distintos de
cero tal que
 
)
*Condición de Slater: para un problema únicamente con
restricciones de desigualdad, existe un punto x* tal que 
 para
todo 
Aplicaciones
Condiciones suficientes
 
Sea la función
objetivo y las funciones de
restricción
sean funciones convexas y
sean las funciones de afinidad, y sea un punto x*. si
existen constantes
y
tales
que:

entonces el punto x* es un mínimo global.
Condiciones de
Lagrange
Definición
Historia
Aplicaciones
Definición:
 

Se define como un procedimiento para
encontrar los máximos y mínimos de
funciones de múltiples variables sujetas a
restricciones.
Historia
Fue desarrollada por Joseph Louis de Lagrange
físico, matemático y astrónomo nacido en Italia,
pero de nacionalidad norteamericana, que hizo
grandes contribuciones en diversas disciplinas.
Aplicaciones
El método de los multiplicadores de Lagrange
 
Sea f (x) una función definida en un conjunto abierto
n-dimensional {x ∈ Rn}. Se definen s restricciones gk (x) =
0, k=1,..., s, y se observa (si las restricciones son
satisfechas) que:
Se procede a buscar un extremo para h
lo que es equivalente a
Los multiplicadores desconocidos λk se determinan a partir de las
ecuaciones con las restricciones y conjuntamente se obtiene un
extremo para h que al mismo tiempo satisface las restricciones
(i.e. gk=0), lo que implica que f ha sido optimizada
El método de multiplicadores de Lagrange es generalizado por las
condiciones de Karush-Kuhn-Tucker.
Condiciones de
Kuhn-Tucker y
Lagrange
Diferencia
La condicion de Kuhn-Tucker se desarrollo principalmente
para trabajar en la solución de problemas de programación
lineal, mientras que la de Langrange se adapta a una mayor
cantidad de casos, incluyendo casos rutinarios o de
cotidiniadad.

Más contenido relacionado

La actualidad más candente

Roy y shepard[1]
Roy y shepard[1]Roy y shepard[1]
Roy y shepard[1]guest3948d0
 
Condiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeCondiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeDanny Quintero
 
Aplicaciones del cálculo a la ingeniería
Aplicaciones del cálculo a la ingenieríaAplicaciones del cálculo a la ingeniería
Aplicaciones del cálculo a la ingenieríaNombre Apellidos
 
Teoria De La Utilidad Y Curva De Indiferencia
Teoria De La Utilidad Y Curva De IndiferenciaTeoria De La Utilidad Y Curva De Indiferencia
Teoria De La Utilidad Y Curva De Indiferenciaguested6102
 
Distribuciones de Probabilidad (Variable Aleatoria Continua)
Distribuciones de Probabilidad (Variable Aleatoria Continua)Distribuciones de Probabilidad (Variable Aleatoria Continua)
Distribuciones de Probabilidad (Variable Aleatoria Continua)Daniel Gómez
 
Ejercicio resuelto de equilibrio de nash en puras y mixtas.
Ejercicio resuelto de equilibrio de nash en puras y mixtas.Ejercicio resuelto de equilibrio de nash en puras y mixtas.
Ejercicio resuelto de equilibrio de nash en puras y mixtas.Juan Carlos Aguado Franco
 
Ejercicio resuelto del equilibrio del consumidor (Efecto renta y efecto susti...
Ejercicio resuelto del equilibrio del consumidor (Efecto renta y efecto susti...Ejercicio resuelto del equilibrio del consumidor (Efecto renta y efecto susti...
Ejercicio resuelto del equilibrio del consumidor (Efecto renta y efecto susti...Juan Carlos Aguado Franco
 
Multiplicadores de lagrange
Multiplicadores de lagrangeMultiplicadores de lagrange
Multiplicadores de lagrangeBryan Guerra
 
Teoría de juegos: eliminación iterativa de estrategias estrictamente dominadas
Teoría de juegos: eliminación iterativa de estrategias estrictamente dominadasTeoría de juegos: eliminación iterativa de estrategias estrictamente dominadas
Teoría de juegos: eliminación iterativa de estrategias estrictamente dominadasJuan Carlos Aguado Franco
 
Modulo 1: Análisis Matemático de la Optimización
Modulo 1: Análisis Matemático de la OptimizaciónModulo 1: Análisis Matemático de la Optimización
Modulo 1: Análisis Matemático de la OptimizaciónHoracio Santander
 
Clase 07 crecimiento-2014-unmsm (1)
Clase 07 crecimiento-2014-unmsm (1)Clase 07 crecimiento-2014-unmsm (1)
Clase 07 crecimiento-2014-unmsm (1)Andres Zelada Zamora
 
Tema 3 micro_i_bolonia
Tema 3 micro_i_boloniaTema 3 micro_i_bolonia
Tema 3 micro_i_boloniaEddy Lizarazu
 
Taller 1 microeconomía de rubinfeld y pindyck
Taller 1 microeconomía de rubinfeld y pindyckTaller 1 microeconomía de rubinfeld y pindyck
Taller 1 microeconomía de rubinfeld y pindyckAl Cougar
 
Ecuaciones diferenciales de grado superior
Ecuaciones diferenciales de grado superiorEcuaciones diferenciales de grado superior
Ecuaciones diferenciales de grado superiorDani
 

La actualidad más candente (20)

Roy y shepard[1]
Roy y shepard[1]Roy y shepard[1]
Roy y shepard[1]
 
Curva de engel
Curva de engelCurva de engel
Curva de engel
 
Condiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeCondiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrange
 
Funciones cuasicóncavas y cuasiconvexas
Funciones cuasicóncavas y cuasiconvexasFunciones cuasicóncavas y cuasiconvexas
Funciones cuasicóncavas y cuasiconvexas
 
Aplicaciones del cálculo a la ingeniería
Aplicaciones del cálculo a la ingenieríaAplicaciones del cálculo a la ingeniería
Aplicaciones del cálculo a la ingeniería
 
Programacion lineal entera
Programacion lineal enteraProgramacion lineal entera
Programacion lineal entera
 
Teoria De La Utilidad Y Curva De Indiferencia
Teoria De La Utilidad Y Curva De IndiferenciaTeoria De La Utilidad Y Curva De Indiferencia
Teoria De La Utilidad Y Curva De Indiferencia
 
Programación no lineal
Programación no linealProgramación no lineal
Programación no lineal
 
25 ejercicios de teoria y politica monetaria
25 ejercicios de teoria y politica monetaria25 ejercicios de teoria y politica monetaria
25 ejercicios de teoria y politica monetaria
 
Distribuciones de Probabilidad (Variable Aleatoria Continua)
Distribuciones de Probabilidad (Variable Aleatoria Continua)Distribuciones de Probabilidad (Variable Aleatoria Continua)
Distribuciones de Probabilidad (Variable Aleatoria Continua)
 
Ejercicio resuelto de equilibrio de nash en puras y mixtas.
Ejercicio resuelto de equilibrio de nash en puras y mixtas.Ejercicio resuelto de equilibrio de nash en puras y mixtas.
Ejercicio resuelto de equilibrio de nash en puras y mixtas.
 
Ejercicio resuelto del equilibrio del consumidor (Efecto renta y efecto susti...
Ejercicio resuelto del equilibrio del consumidor (Efecto renta y efecto susti...Ejercicio resuelto del equilibrio del consumidor (Efecto renta y efecto susti...
Ejercicio resuelto del equilibrio del consumidor (Efecto renta y efecto susti...
 
Aplicacion de integrales en la economia
Aplicacion de integrales en la economiaAplicacion de integrales en la economia
Aplicacion de integrales en la economia
 
Multiplicadores de lagrange
Multiplicadores de lagrangeMultiplicadores de lagrange
Multiplicadores de lagrange
 
Teoría de juegos: eliminación iterativa de estrategias estrictamente dominadas
Teoría de juegos: eliminación iterativa de estrategias estrictamente dominadasTeoría de juegos: eliminación iterativa de estrategias estrictamente dominadas
Teoría de juegos: eliminación iterativa de estrategias estrictamente dominadas
 
Modulo 1: Análisis Matemático de la Optimización
Modulo 1: Análisis Matemático de la OptimizaciónModulo 1: Análisis Matemático de la Optimización
Modulo 1: Análisis Matemático de la Optimización
 
Clase 07 crecimiento-2014-unmsm (1)
Clase 07 crecimiento-2014-unmsm (1)Clase 07 crecimiento-2014-unmsm (1)
Clase 07 crecimiento-2014-unmsm (1)
 
Tema 3 micro_i_bolonia
Tema 3 micro_i_boloniaTema 3 micro_i_bolonia
Tema 3 micro_i_bolonia
 
Taller 1 microeconomía de rubinfeld y pindyck
Taller 1 microeconomía de rubinfeld y pindyckTaller 1 microeconomía de rubinfeld y pindyck
Taller 1 microeconomía de rubinfeld y pindyck
 
Ecuaciones diferenciales de grado superior
Ecuaciones diferenciales de grado superiorEcuaciones diferenciales de grado superior
Ecuaciones diferenciales de grado superior
 

Similar a Condiciones KKT y Lagrange

Tucker- Lagrange Mariana Jaspe
Tucker- Lagrange Mariana JaspeTucker- Lagrange Mariana Jaspe
Tucker- Lagrange Mariana JaspeMIJZx3
 
Tucker-Lagrange
Tucker-LagrangeTucker-Lagrange
Tucker-LagrangeMIJZx3
 
Condiciones de kuhn tucker y lagrange
Condiciones de kuhn tucker y lagrangeCondiciones de kuhn tucker y lagrange
Condiciones de kuhn tucker y lagrangejesusrondon10
 
Metodos de Optimizacion
Metodos de OptimizacionMetodos de Optimizacion
Metodos de OptimizacionJ_cordero
 
Kuhn tucker y lagrange
Kuhn tucker y lagrangeKuhn tucker y lagrange
Kuhn tucker y lagrangeandressparada
 
Lagrange y kunh tucker
Lagrange y kunh tuckerLagrange y kunh tucker
Lagrange y kunh tuckerRaniels
 
Metodo lagrange & kuhn tucker - Optimizacion de sistemas y funciones.
Metodo lagrange & kuhn tucker - Optimizacion de sistemas y funciones.Metodo lagrange & kuhn tucker - Optimizacion de sistemas y funciones.
Metodo lagrange & kuhn tucker - Optimizacion de sistemas y funciones.Daniel Paz
 
Kuhn tucker
Kuhn tucker Kuhn tucker
Kuhn tucker maryolith
 
Kuhn tucker y lagrange jose avila
Kuhn tucker y lagrange jose avilaKuhn tucker y lagrange jose avila
Kuhn tucker y lagrange jose avilaJose Avila
 
Kuhn Tucker y Lagrange
Kuhn Tucker y LagrangeKuhn Tucker y Lagrange
Kuhn Tucker y LagrangeRenier007
 
optimizacion y funciones
optimizacion y funciones optimizacion y funciones
optimizacion y funciones pirela87
 
Metodo de optimización. listo
Metodo de optimización. listoMetodo de optimización. listo
Metodo de optimización. listomarinfranklin
 

Similar a Condiciones KKT y Lagrange (20)

Tucker- Lagrange Mariana Jaspe
Tucker- Lagrange Mariana JaspeTucker- Lagrange Mariana Jaspe
Tucker- Lagrange Mariana Jaspe
 
Tucker-Lagrange
Tucker-LagrangeTucker-Lagrange
Tucker-Lagrange
 
Nixon
NixonNixon
Nixon
 
Condiciones de kuhn tucker y lagrange
Condiciones de kuhn tucker y lagrangeCondiciones de kuhn tucker y lagrange
Condiciones de kuhn tucker y lagrange
 
Metodos de Optimizacion
Metodos de OptimizacionMetodos de Optimizacion
Metodos de Optimizacion
 
Optimizacion
OptimizacionOptimizacion
Optimizacion
 
Optimizacion 2013
Optimizacion 2013Optimizacion 2013
Optimizacion 2013
 
Kuhn tucker y lagrange
Kuhn tucker y lagrangeKuhn tucker y lagrange
Kuhn tucker y lagrange
 
Lagrange y kunh tucker
Lagrange y kunh tuckerLagrange y kunh tucker
Lagrange y kunh tucker
 
Metodo lagrange & kuhn tucker - Optimizacion de sistemas y funciones.
Metodo lagrange & kuhn tucker - Optimizacion de sistemas y funciones.Metodo lagrange & kuhn tucker - Optimizacion de sistemas y funciones.
Metodo lagrange & kuhn tucker - Optimizacion de sistemas y funciones.
 
Kuhn tucker
Kuhn tucker Kuhn tucker
Kuhn tucker
 
tennessis Delgado
tennessis Delgadotennessis Delgado
tennessis Delgado
 
Kuhn tucker y lagrange jose avila
Kuhn tucker y lagrange jose avilaKuhn tucker y lagrange jose avila
Kuhn tucker y lagrange jose avila
 
Kuhn Tucker y Lagrange
Kuhn Tucker y LagrangeKuhn Tucker y Lagrange
Kuhn Tucker y Lagrange
 
Saia opt
Saia optSaia opt
Saia opt
 
metodos de optimizacion
metodos de optimizacionmetodos de optimizacion
metodos de optimizacion
 
derivadas
derivadasderivadas
derivadas
 
optimizacion y funciones
optimizacion y funciones optimizacion y funciones
optimizacion y funciones
 
Metodos
MetodosMetodos
Metodos
 
Metodo de optimización. listo
Metodo de optimización. listoMetodo de optimización. listo
Metodo de optimización. listo
 

Condiciones KKT y Lagrange

  • 3. Definición:   Las condiciones de Karush-Kuhn-Tucker (también conocidas como las condiciones KKT o Kuhn-Tucker) son condiciones necesarias y suficientes para que la solución de un problema de programación matemática sea óptima. Se dice estas son una generalización del método de los multiplicadores de Lagrange.
  • 4. Historia   Condiciones de Kuhn-Tuvker fue desarrollado por  Albert William Tucker y complementada por Harold Kuhn, quien permitió mejoras en el proceso, pero se le adjudico un papel secundario.
  • 5. Aplicaciones Condiciones necesarias de primer orden   Supongamos que la función objetivo, por ejemplo, a minimizar, es  y las funciones de restricción son  y . Además, supongamos que son continuamente diferenciables en el punto . Si  es un mínimo local, entonces existe constantes ,  y  tales que:
  • 6. Aplicaciones   Condiciones de regularidad (o cualificación de las restricciones) En la condición necesaria anterior, el multiplicador dual puede ser igual a cero. Este caso se denomina degenerado o anormal. La condición necesaria no tiene en cuenta las propiedades de la función sino la geometría de las restricciones. Existen una serie de condiciones de regularidad que aseguran que la solución no es degenerada. Estas incluyen: *Cualificación de la restricción de independencia lineal (CRIL): los gradientes de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad son linealmente independientes en x* . *Cualificación de la restricción de MangasarianFromowitz (CRMF): los gradientes de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad son linealmente independientes positivos en x*.
  • 7. *Cualificación de la restricción de rango constante (CRRC): para cada subconjunto de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad, el rango en el entorno de  es constante. *Cualificación de la restricción de dependencia lineal constante positiva (DLCP): para cada subconjunto de restricciones activas de desigualdad y de gradientes de las restricciones de igualdad, si es linealmente dependiente positivo en x* entonces es linealmente dependiente positivo en el entorno de x*. (es linealmente dependiente positivo si existe   distintos de cero tal que   ) *Condición de Slater: para un problema únicamente con restricciones de desigualdad, existe un punto x* tal que   para todo 
  • 8. Aplicaciones Condiciones suficientes   Sea la función objetivo y las funciones de restricción sean funciones convexas y sean las funciones de afinidad, y sea un punto x*. si existen constantes y tales que: entonces el punto x* es un mínimo global.
  • 10. Definición:   Se define como un procedimiento para encontrar los máximos y mínimos de funciones de múltiples variables sujetas a restricciones.
  • 11. Historia Fue desarrollada por Joseph Louis de Lagrange físico, matemático y astrónomo nacido en Italia, pero de nacionalidad norteamericana, que hizo grandes contribuciones en diversas disciplinas.
  • 12. Aplicaciones El método de los multiplicadores de Lagrange   Sea f (x) una función definida en un conjunto abierto n-dimensional {x ∈ Rn}. Se definen s restricciones gk (x) = 0, k=1,..., s, y se observa (si las restricciones son satisfechas) que: Se procede a buscar un extremo para h lo que es equivalente a
  • 13. Los multiplicadores desconocidos λk se determinan a partir de las ecuaciones con las restricciones y conjuntamente se obtiene un extremo para h que al mismo tiempo satisface las restricciones (i.e. gk=0), lo que implica que f ha sido optimizada El método de multiplicadores de Lagrange es generalizado por las condiciones de Karush-Kuhn-Tucker.
  • 15. La condicion de Kuhn-Tucker se desarrollo principalmente para trabajar en la solución de problemas de programación lineal, mientras que la de Langrange se adapta a una mayor cantidad de casos, incluyendo casos rutinarios o de cotidiniadad.