SlideShare una empresa de Scribd logo
1 de 16
REPÚBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR
PARA LA EDUCACIÓN UNIVERSITARIA
INSTITUTO UNIVERSITARIO POLITECNICO
“SANTIAGO MARIÑO”
EXTENCIÓN COL-CABIMAS

Autor: Javier Petit
12713275
Optimización de Sistemas
Prof. Ing. Sara López
En los problemas de optimización, los multiplicadores
de Lagrange, nombrados así en honor a Joseph Louis Lagrange,
son un método para trabajar con funciones de varias variables
que nos interesa maximizar o minimizar, y está sujeta a ciertas
restricciones. Este método reduce el problema restringido en n
variables en uno sin restricciones de n + 1 variables cuyas
ecuaciones pueden ser resueltas. Este método introduce una
nueva variable escalar desconocida, el multiplicador de
Lagrange, para cada restricción y forma una combinación lineal
involucrando los multiplicadores como coeficientes. Su
demostración involucra derivadas parciales, o bien usando
diferenciales totales, o sus parientes cercanos, la regla de la
cadena. El fin es, usando alguna función implícita, encontrar las
condiciones para que la derivada con respecto a las variables
independientes de una función sea igual a cero.
Albert William Tucker (28 de noviembre de 1905 – 25 de
enero de 1995) fue un matemático estadounidense nacido en
Canadá
que
realizó
importantes
contribuciones
a
la Topología, Teoría de juegos y a la Programación no lineal.
OBJETIVOS DE
KUHN TUCKER
Cubrir todos los aspectos necesarios para satisfacer los problemas
relacionados con la optimización de programaciones lineales y no
lineales, independientemente de la causa o de la intensidad de estas,
otorgando como resultado final que no existan restricciones de
desigualdad que generen incertidumbre.
SU APLICACION
Consideremos el problema general de optimización:
Min f(x)
Sujeto a:
gi(x) ≤ 0,i = 1,…,m
hj(x) = 0,j = 1,…,l
Donde f(x) es la función objetivo a minimizar, gi(x) son las restricciones
de desigualdad, con m y l con el número de restricciones de
desigualdad e igualdad respectivamente.
SU IMPORTANCIA
La importancia de este teorema radica en que nos dice que podemos asociar una
función de utilidad a unas preferencias, esto nos abre la puerta de la potente
herramienta del análisis matemático al estudio del comportamiento del consumidor.

CAMPO DE APLICACION

Básicamente el procedimiento consiste en resolver el problema no lineal como uno sin
restricciones, luego si la solución óptima de dicho problema no cumple la totalidad o parte
de las restricciones del problema se activan dichas restricciones (en conjunto y/o
secuencialmente) y se resuelve nuevamente. Esto se repite hasta llegar a un conjunto de
restricciones activas cuya solución también satisface las restricciones omitidas. Notar que si
se han activado la totalidad de restricciones sin encontrar una solución factible, entonces
el problema es infectable. Esta característica particular de los modelos no lineales permite
abordar problemas donde existen economías o de economías de escala o en general
donde los supuestos asociados a la proporcionalidad no se cumplen.
CONDICION
1) Cualificación de la restricción de independencia lineal (CRIL): los
gradientes de las restricciones activas de desigualdad y los gradientes
de las restricciones de igualdad son linealmente independientes en .
2) Cualificación de la restricción de Mangasarian-Fromowitz (CRMF):
los gradientes de las restricciones activas de desigualdad y los
gradientes de las restricciones de igualdad son linealmente
independientes positivos en .
3) Cualificación de la restricción de rango constante (CRRC): para
cada subconjunto de las restricciones activas de desigualdad y los
gradientes de las restricciones de igualdad, el rango en el entorno de
es constante.
4) Cualificación de la restricción de dependencia lineal constante
positiva (DLCP): para cada subconjunto de restricciones activas de
desigualdad y de gradientes de las restricciones de igualdad, si es
linealmente dependiente positivo en entonces es linealmente
dependiente positivo en el entorno de . ( es linealmente dependiente
positivo si existe distintos de cero tal que )
METODO DE LAGRANGE
Uno de los problemas más comunes en el cálculo es el de
encontrar máximos o mínimos (en general, "extremos") de una
función, pero a menudo es difícil encontrar una forma cerrada para
la función que se está extremando. Estas dificultades surgen a
menudo cuando se desea maximizar o minimizar una función sujeta
a condiciones exteriores fijos o restricciones. El método de los
multiplicadores de Lagrange es una herramienta poderosa para
resolver esta clase de problemas sin la necesidad de resolver
explícitamente las condiciones y los utilizan para eliminar las
variables adicionales.
Para decirlo más sencillamente, no es por lo general suficiente
para preguntar: "¿Cómo puedo minimizar el aluminio necesario para
hacer esta lata?" (La respuesta a eso es claramente "Hacer un muy,
muy pequeño puede!") ¡Tienes que preguntar: "¿Cómo puedo
minimizar el aluminio mientras se asegura la lata celebrará 10 onzas
de sopa ? " O del mismo modo, "¿Cómo puedo maximizar el
beneficio de mi fábrica dado que sólo tiene $ 15.000 a invertir ? " O,
para tomar un ejemplo más sofisticado ", ¿Cuánto tarda en llegar a
la montaña rusa de la tierra suponiendo que se mantiene en el
camino ? " En general, los multiplicadores de Lagrange son útiles
cuando algunas de las variables en la descripción más sencilla de
un problema son despedidos por las restricciones.
DEFINICION
En optimización, se define como un procedimiento para encontrar los
máximos y mínimos de funciones de múltiples variables sujetas a
restricciones.

OBJETIVOS
Al permitir encontrar los puntos máximos y mínimos de funciones de
múltiples variables sujetas a restricciones, permite que esta teoría se
adapte a problemas de la vida cotidiana o inclusive mucho más
complejos, por permitir ver los resultados óptimos y peores posibles,
manejando con ello una amplia gama de oportunidades para
visualizar el panorama con el que se encuentra el o los individuos al
ejecutar una actividad o proyecto.
APORTES
Entre las magnificas creaciones y procesos que perfecciono Lagrange
se encuentran:
•El haber dado a conocer mucho de lo que en la actualidad se
conoce sobre astronomía.
•El haber desarrollado la mecánica Lagrangiana.
•El haber demostrado el teorema de valor medio.
APLICACIÓN DEL METODO DE
LARGRANGE
Las dos areas mas importantes donde se aplica este metodo:

Economía:
La optimización reprimida desempeña un papel central en
la economía.
APLICACIÓN DEL METODO DE
LARGRANGE
Por ejemplo, el problema selecto para un consumidor

se

representa

de

como

uno

de

maximizar

una

función

utilidad sujeta a una coacción de presupuesto .
El multiplicador Lagrange tiene una interpretación económica
como el precio de la oposición asociado con la coacción, en
este ejemplo la utilidad marginal de ingresos.
APLICACIÓN DEL METODO DE
LARGRANGE
Teoría de control:
En la teoría de control óptimo , los multiplicadores de Lagrange se interpretan
como constates variables, y los multiplicadores de Lagrange se formulan de nuevo como
la minimización del hamiltoniano , en el principio mínimo de Pontryagin.
DIFERENCIAS
La principal diferencia entre las condiciones de Kuhn Tucker y
Lagrange, y a pesar que comparten más similitudes que diferencias,
es que la primera fue creada con el fin de dar solución a problemas
relacionados con la programación lineal, la segunda se adapta a una
mayor cantidad de casos (inclusive cotidianos), por lo que se podría
decir que a pesar de tener un mayor tiempo desde su creación,
tiende a ser más importante la de Lagrange.
GRACIAS
Optimizacion

Más contenido relacionado

La actualidad más candente

Doc 5 leccion 10 11
Doc 5 leccion 10  11Doc 5 leccion 10  11
Doc 5 leccion 10 11Ingriid Diaz
 
Teoria de la dualidad y Analisis de la Sensibilidad
Teoria de la dualidad y Analisis de la SensibilidadTeoria de la dualidad y Analisis de la Sensibilidad
Teoria de la dualidad y Analisis de la SensibilidadJorge Andres Acero Almonacid
 
Analisis de sinsibilidad en problemas de programacion linial
Analisis de sinsibilidad en problemas de programacion linialAnalisis de sinsibilidad en problemas de programacion linial
Analisis de sinsibilidad en problemas de programacion linialJAVIER CAJAHUAMAN MALLCCO
 
Javierperez teoría de la optimización
Javierperez teoría de la optimizaciónJavierperez teoría de la optimización
Javierperez teoría de la optimizaciónRobin Duben
 
Optimizacion de Sistemas y Funciones por Jhonnathan Arrieta
Optimizacion de Sistemas y Funciones por Jhonnathan ArrietaOptimizacion de Sistemas y Funciones por Jhonnathan Arrieta
Optimizacion de Sistemas y Funciones por Jhonnathan ArrietaJhonnathan Arrieta
 
Teoria de optimizacion by. manuel rivas
Teoria de optimizacion by. manuel rivasTeoria de optimizacion by. manuel rivas
Teoria de optimizacion by. manuel rivasmanuelrivasv95
 
Trabajo dualidad sensibilidad
Trabajo dualidad sensibilidadTrabajo dualidad sensibilidad
Trabajo dualidad sensibilidadnmanaure
 
Optimizacion Angel Peña
Optimizacion Angel PeñaOptimizacion Angel Peña
Optimizacion Angel PeñaAngel Peña
 
Andres palencia 24.686.654
Andres palencia 24.686.654Andres palencia 24.686.654
Andres palencia 24.686.654Andres Palencia
 
Arduino cheat-sheet-1-2
Arduino cheat-sheet-1-2Arduino cheat-sheet-1-2
Arduino cheat-sheet-1-2Fredy Garcia
 

La actualidad más candente (12)

Doc 5 leccion 10 11
Doc 5 leccion 10  11Doc 5 leccion 10  11
Doc 5 leccion 10 11
 
Teoria de la dualidad y Analisis de la Sensibilidad
Teoria de la dualidad y Analisis de la SensibilidadTeoria de la dualidad y Analisis de la Sensibilidad
Teoria de la dualidad y Analisis de la Sensibilidad
 
Analisis de sinsibilidad en problemas de programacion linial
Analisis de sinsibilidad en problemas de programacion linialAnalisis de sinsibilidad en problemas de programacion linial
Analisis de sinsibilidad en problemas de programacion linial
 
Javierperez teoría de la optimización
Javierperez teoría de la optimizaciónJavierperez teoría de la optimización
Javierperez teoría de la optimización
 
Optimizacion de Sistemas y Funciones por Jhonnathan Arrieta
Optimizacion de Sistemas y Funciones por Jhonnathan ArrietaOptimizacion de Sistemas y Funciones por Jhonnathan Arrieta
Optimizacion de Sistemas y Funciones por Jhonnathan Arrieta
 
Clase3
Clase3Clase3
Clase3
 
Teoria de optimizacion by. manuel rivas
Teoria de optimizacion by. manuel rivasTeoria de optimizacion by. manuel rivas
Teoria de optimizacion by. manuel rivas
 
Trabajo dualidad sensibilidad
Trabajo dualidad sensibilidadTrabajo dualidad sensibilidad
Trabajo dualidad sensibilidad
 
Propagacionde errores
Propagacionde erroresPropagacionde errores
Propagacionde errores
 
Optimizacion Angel Peña
Optimizacion Angel PeñaOptimizacion Angel Peña
Optimizacion Angel Peña
 
Andres palencia 24.686.654
Andres palencia 24.686.654Andres palencia 24.686.654
Andres palencia 24.686.654
 
Arduino cheat-sheet-1-2
Arduino cheat-sheet-1-2Arduino cheat-sheet-1-2
Arduino cheat-sheet-1-2
 

Destacado

Leitura Caxias: duas décadas de histórias para contar - Hellenice ferreira
Leitura Caxias: duas décadas de histórias para contar - Hellenice ferreiraLeitura Caxias: duas décadas de histórias para contar - Hellenice ferreira
Leitura Caxias: duas décadas de histórias para contar - Hellenice ferreiraFabiana Esteves
 
Blanca nieves y los 7 enanitos
Blanca nieves y los 7 enanitosBlanca nieves y los 7 enanitos
Blanca nieves y los 7 enanitosanaidlv
 
Estudo de viabilidade para abertura de um restaurante fast-food em São Paulo
Estudo de viabilidade para abertura de um restaurante fast-food em São PauloEstudo de viabilidade para abertura de um restaurante fast-food em São Paulo
Estudo de viabilidade para abertura de um restaurante fast-food em São PauloEuclides Francisco Santos Faria
 
Ailhadossentimentos 100309150318-phpapp02
Ailhadossentimentos 100309150318-phpapp02Ailhadossentimentos 100309150318-phpapp02
Ailhadossentimentos 100309150318-phpapp02Artes 100 Fronteiras
 
EVOLUCION MICROPROCESADORES
EVOLUCION MICROPROCESADORESEVOLUCION MICROPROCESADORES
EVOLUCION MICROPROCESADORESKelly Sanchez
 
proyecto 1 alessandra marina
proyecto 1 alessandra marinaproyecto 1 alessandra marina
proyecto 1 alessandra marinaalessandramarina
 
Trabajo de informatica
Trabajo de informaticaTrabajo de informatica
Trabajo de informaticaculiscozio
 

Destacado (20)

Leitura Caxias: duas décadas de histórias para contar - Hellenice ferreira
Leitura Caxias: duas décadas de histórias para contar - Hellenice ferreiraLeitura Caxias: duas décadas de histórias para contar - Hellenice ferreira
Leitura Caxias: duas décadas de histórias para contar - Hellenice ferreira
 
Blanca nieves y los 7 enanitos
Blanca nieves y los 7 enanitosBlanca nieves y los 7 enanitos
Blanca nieves y los 7 enanitos
 
Estudo de viabilidade para abertura de um restaurante fast-food em São Paulo
Estudo de viabilidade para abertura de um restaurante fast-food em São PauloEstudo de viabilidade para abertura de um restaurante fast-food em São Paulo
Estudo de viabilidade para abertura de um restaurante fast-food em São Paulo
 
Conectores externos
Conectores externosConectores externos
Conectores externos
 
Mandriva linux
Mandriva linuxMandriva linux
Mandriva linux
 
Tv para me ver
Tv para me verTv para me ver
Tv para me ver
 
Estosiesuntatoo 1
Estosiesuntatoo 1 Estosiesuntatoo 1
Estosiesuntatoo 1
 
Ailhadossentimentos 100309150318-phpapp02
Ailhadossentimentos 100309150318-phpapp02Ailhadossentimentos 100309150318-phpapp02
Ailhadossentimentos 100309150318-phpapp02
 
Sobre o amor rosas - espinhos
Sobre o amor   rosas - espinhosSobre o amor   rosas - espinhos
Sobre o amor rosas - espinhos
 
La pastoral del servicio y de la comunion
La pastoral del servicio y de la comunionLa pastoral del servicio y de la comunion
La pastoral del servicio y de la comunion
 
Fronteiras
FronteirasFronteiras
Fronteiras
 
Elcuerpohumano1
Elcuerpohumano1Elcuerpohumano1
Elcuerpohumano1
 
Terra em velocidade (1)
Terra em velocidade (1)Terra em velocidade (1)
Terra em velocidade (1)
 
Palacio domabahce em estambul1
Palacio domabahce em estambul1Palacio domabahce em estambul1
Palacio domabahce em estambul1
 
Tarjeta madre
Tarjeta madreTarjeta madre
Tarjeta madre
 
EVOLUCION MICROPROCESADORES
EVOLUCION MICROPROCESADORESEVOLUCION MICROPROCESADORES
EVOLUCION MICROPROCESADORES
 
Presentacion carnaval
Presentacion carnavalPresentacion carnaval
Presentacion carnaval
 
Us ascii''tailndia
Us ascii''tailndiaUs ascii''tailndia
Us ascii''tailndia
 
proyecto 1 alessandra marina
proyecto 1 alessandra marinaproyecto 1 alessandra marina
proyecto 1 alessandra marina
 
Trabajo de informatica
Trabajo de informaticaTrabajo de informatica
Trabajo de informatica
 

Similar a Optimizacion

Método Kuhn Tucker y Lagrange
Método Kuhn Tucker y LagrangeMétodo Kuhn Tucker y Lagrange
Método Kuhn Tucker y Lagrangegilfrennys9208
 
Condiciones de Kuhn Tucker y Lagrange
Condiciones de Kuhn Tucker y LagrangeCondiciones de Kuhn Tucker y Lagrange
Condiciones de Kuhn Tucker y LagrangeEugenio Lugo
 
Edixon presentacion
Edixon presentacionEdixon presentacion
Edixon presentacionmedina08
 
Lagrange y Kuhn-Tucker
Lagrange y Kuhn-TuckerLagrange y Kuhn-Tucker
Lagrange y Kuhn-TuckerJoe García
 
Condiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeCondiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeAndreina Arteaga
 
Condiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeCondiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeAndreina Arteaga
 
Kuhn tucker
Kuhn tucker Kuhn tucker
Kuhn tucker maryolith
 
Condiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeCondiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeAlbrtoo Vsqz
 
Optimización de sistemas. Gerardo Caolo
Optimización de sistemas. Gerardo CaoloOptimización de sistemas. Gerardo Caolo
Optimización de sistemas. Gerardo CaoloGenesis Chacin Esteves
 
Multiplicadores de lagrange
Multiplicadores de lagrangeMultiplicadores de lagrange
Multiplicadores de lagrangeBryan Guerra
 
Optimización de sistemas y funciones
Optimización de sistemas y funcionesOptimización de sistemas y funciones
Optimización de sistemas y funcionesOscar Sosa
 
Optimización de Sistemas y Funciones (Conceptos Básicos)
Optimización de Sistemas y Funciones (Conceptos Básicos)Optimización de Sistemas y Funciones (Conceptos Básicos)
Optimización de Sistemas y Funciones (Conceptos Básicos)michaelvitriago
 
Kuhn tucker y lagrange jose avila
Kuhn tucker y lagrange jose avilaKuhn tucker y lagrange jose avila
Kuhn tucker y lagrange jose avilaJose Avila
 
Metodo simplex metodo grafico .raiza
Metodo simplex metodo grafico .raizaMetodo simplex metodo grafico .raiza
Metodo simplex metodo grafico .raizanellysamor
 
Presentación optimizacion de sistema
Presentación optimizacion de sistemaPresentación optimizacion de sistema
Presentación optimizacion de sistemaDiRossalez
 

Similar a Optimizacion (20)

Método Kuhn Tucker y Lagrange
Método Kuhn Tucker y LagrangeMétodo Kuhn Tucker y Lagrange
Método Kuhn Tucker y Lagrange
 
LaGrange.
LaGrange.LaGrange.
LaGrange.
 
Optimizacion
OptimizacionOptimizacion
Optimizacion
 
Condiciones de Kuhn Tucker y Lagrange
Condiciones de Kuhn Tucker y LagrangeCondiciones de Kuhn Tucker y Lagrange
Condiciones de Kuhn Tucker y Lagrange
 
Edixon presentacion
Edixon presentacionEdixon presentacion
Edixon presentacion
 
Lagrange y Kuhn-Tucker
Lagrange y Kuhn-TuckerLagrange y Kuhn-Tucker
Lagrange y Kuhn-Tucker
 
Condiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeCondiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrange
 
Condiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeCondiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrange
 
Kuhn tucker
Kuhn tucker Kuhn tucker
Kuhn tucker
 
Condiciones de Lagrange y Tucker
Condiciones de Lagrange y TuckerCondiciones de Lagrange y Tucker
Condiciones de Lagrange y Tucker
 
Condiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrangeCondiciones kuhn tucker y lagrange
Condiciones kuhn tucker y lagrange
 
Optimización de sistemas. Gerardo Caolo
Optimización de sistemas. Gerardo CaoloOptimización de sistemas. Gerardo Caolo
Optimización de sistemas. Gerardo Caolo
 
Programacion no lineal
Programacion no linealProgramacion no lineal
Programacion no lineal
 
Multiplicadores de lagrange
Multiplicadores de lagrangeMultiplicadores de lagrange
Multiplicadores de lagrange
 
Optimización de sistemas y funciones
Optimización de sistemas y funcionesOptimización de sistemas y funciones
Optimización de sistemas y funciones
 
Optimización de Sistemas y Funciones (Conceptos Básicos)
Optimización de Sistemas y Funciones (Conceptos Básicos)Optimización de Sistemas y Funciones (Conceptos Básicos)
Optimización de Sistemas y Funciones (Conceptos Básicos)
 
Programacionnolineal
Programacionnolineal Programacionnolineal
Programacionnolineal
 
Kuhn tucker y lagrange jose avila
Kuhn tucker y lagrange jose avilaKuhn tucker y lagrange jose avila
Kuhn tucker y lagrange jose avila
 
Metodo simplex metodo grafico .raiza
Metodo simplex metodo grafico .raizaMetodo simplex metodo grafico .raiza
Metodo simplex metodo grafico .raiza
 
Presentación optimizacion de sistema
Presentación optimizacion de sistemaPresentación optimizacion de sistema
Presentación optimizacion de sistema
 

Optimizacion

  • 1. REPÚBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN UNIVERSITARIA INSTITUTO UNIVERSITARIO POLITECNICO “SANTIAGO MARIÑO” EXTENCIÓN COL-CABIMAS Autor: Javier Petit 12713275 Optimización de Sistemas Prof. Ing. Sara López
  • 2. En los problemas de optimización, los multiplicadores de Lagrange, nombrados así en honor a Joseph Louis Lagrange, son un método para trabajar con funciones de varias variables que nos interesa maximizar o minimizar, y está sujeta a ciertas restricciones. Este método reduce el problema restringido en n variables en uno sin restricciones de n + 1 variables cuyas ecuaciones pueden ser resueltas. Este método introduce una nueva variable escalar desconocida, el multiplicador de Lagrange, para cada restricción y forma una combinación lineal involucrando los multiplicadores como coeficientes. Su demostración involucra derivadas parciales, o bien usando diferenciales totales, o sus parientes cercanos, la regla de la cadena. El fin es, usando alguna función implícita, encontrar las condiciones para que la derivada con respecto a las variables independientes de una función sea igual a cero.
  • 3. Albert William Tucker (28 de noviembre de 1905 – 25 de enero de 1995) fue un matemático estadounidense nacido en Canadá que realizó importantes contribuciones a la Topología, Teoría de juegos y a la Programación no lineal.
  • 4. OBJETIVOS DE KUHN TUCKER Cubrir todos los aspectos necesarios para satisfacer los problemas relacionados con la optimización de programaciones lineales y no lineales, independientemente de la causa o de la intensidad de estas, otorgando como resultado final que no existan restricciones de desigualdad que generen incertidumbre.
  • 5. SU APLICACION Consideremos el problema general de optimización: Min f(x) Sujeto a: gi(x) ≤ 0,i = 1,…,m hj(x) = 0,j = 1,…,l Donde f(x) es la función objetivo a minimizar, gi(x) son las restricciones de desigualdad, con m y l con el número de restricciones de desigualdad e igualdad respectivamente.
  • 6. SU IMPORTANCIA La importancia de este teorema radica en que nos dice que podemos asociar una función de utilidad a unas preferencias, esto nos abre la puerta de la potente herramienta del análisis matemático al estudio del comportamiento del consumidor. CAMPO DE APLICACION Básicamente el procedimiento consiste en resolver el problema no lineal como uno sin restricciones, luego si la solución óptima de dicho problema no cumple la totalidad o parte de las restricciones del problema se activan dichas restricciones (en conjunto y/o secuencialmente) y se resuelve nuevamente. Esto se repite hasta llegar a un conjunto de restricciones activas cuya solución también satisface las restricciones omitidas. Notar que si se han activado la totalidad de restricciones sin encontrar una solución factible, entonces el problema es infectable. Esta característica particular de los modelos no lineales permite abordar problemas donde existen economías o de economías de escala o en general donde los supuestos asociados a la proporcionalidad no se cumplen.
  • 7. CONDICION 1) Cualificación de la restricción de independencia lineal (CRIL): los gradientes de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad son linealmente independientes en . 2) Cualificación de la restricción de Mangasarian-Fromowitz (CRMF): los gradientes de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad son linealmente independientes positivos en . 3) Cualificación de la restricción de rango constante (CRRC): para cada subconjunto de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad, el rango en el entorno de es constante. 4) Cualificación de la restricción de dependencia lineal constante positiva (DLCP): para cada subconjunto de restricciones activas de desigualdad y de gradientes de las restricciones de igualdad, si es linealmente dependiente positivo en entonces es linealmente dependiente positivo en el entorno de . ( es linealmente dependiente positivo si existe distintos de cero tal que )
  • 8. METODO DE LAGRANGE Uno de los problemas más comunes en el cálculo es el de encontrar máximos o mínimos (en general, "extremos") de una función, pero a menudo es difícil encontrar una forma cerrada para la función que se está extremando. Estas dificultades surgen a menudo cuando se desea maximizar o minimizar una función sujeta a condiciones exteriores fijos o restricciones. El método de los multiplicadores de Lagrange es una herramienta poderosa para resolver esta clase de problemas sin la necesidad de resolver explícitamente las condiciones y los utilizan para eliminar las variables adicionales. Para decirlo más sencillamente, no es por lo general suficiente para preguntar: "¿Cómo puedo minimizar el aluminio necesario para hacer esta lata?" (La respuesta a eso es claramente "Hacer un muy, muy pequeño puede!") ¡Tienes que preguntar: "¿Cómo puedo minimizar el aluminio mientras se asegura la lata celebrará 10 onzas de sopa ? " O del mismo modo, "¿Cómo puedo maximizar el beneficio de mi fábrica dado que sólo tiene $ 15.000 a invertir ? " O, para tomar un ejemplo más sofisticado ", ¿Cuánto tarda en llegar a la montaña rusa de la tierra suponiendo que se mantiene en el camino ? " En general, los multiplicadores de Lagrange son útiles cuando algunas de las variables en la descripción más sencilla de un problema son despedidos por las restricciones.
  • 9. DEFINICION En optimización, se define como un procedimiento para encontrar los máximos y mínimos de funciones de múltiples variables sujetas a restricciones. OBJETIVOS Al permitir encontrar los puntos máximos y mínimos de funciones de múltiples variables sujetas a restricciones, permite que esta teoría se adapte a problemas de la vida cotidiana o inclusive mucho más complejos, por permitir ver los resultados óptimos y peores posibles, manejando con ello una amplia gama de oportunidades para visualizar el panorama con el que se encuentra el o los individuos al ejecutar una actividad o proyecto.
  • 10. APORTES Entre las magnificas creaciones y procesos que perfecciono Lagrange se encuentran: •El haber dado a conocer mucho de lo que en la actualidad se conoce sobre astronomía. •El haber desarrollado la mecánica Lagrangiana. •El haber demostrado el teorema de valor medio.
  • 11. APLICACIÓN DEL METODO DE LARGRANGE Las dos areas mas importantes donde se aplica este metodo: Economía: La optimización reprimida desempeña un papel central en la economía.
  • 12. APLICACIÓN DEL METODO DE LARGRANGE Por ejemplo, el problema selecto para un consumidor se representa de como uno de maximizar una función utilidad sujeta a una coacción de presupuesto . El multiplicador Lagrange tiene una interpretación económica como el precio de la oposición asociado con la coacción, en este ejemplo la utilidad marginal de ingresos.
  • 13. APLICACIÓN DEL METODO DE LARGRANGE Teoría de control: En la teoría de control óptimo , los multiplicadores de Lagrange se interpretan como constates variables, y los multiplicadores de Lagrange se formulan de nuevo como la minimización del hamiltoniano , en el principio mínimo de Pontryagin.
  • 14. DIFERENCIAS La principal diferencia entre las condiciones de Kuhn Tucker y Lagrange, y a pesar que comparten más similitudes que diferencias, es que la primera fue creada con el fin de dar solución a problemas relacionados con la programación lineal, la segunda se adapta a una mayor cantidad de casos (inclusive cotidianos), por lo que se podría decir que a pesar de tener un mayor tiempo desde su creación, tiende a ser más importante la de Lagrange.