SlideShare una empresa de Scribd logo
1 de 16
Métodos de optimización
Extremos no restictivos de dos variables
Las derivadas parciales de primer y segundo orden son
implementadas para hallar el punto critico de funciones
vectoriales y geométricas
Ejemplo de Extremos no restrictos con dos variables
Ejemplo:
En la siguiente función f (x,y)=3x3+1.5 y 2–18xy+17 encontrar los puntos críticos y
determinar si éstos son máximos o mínimos relativos, puntos de inflexión o puntos de
silla ?
Paso (1): Calculando la primera derivada e igualándola a 0 (condición de primer orden):
fx= 9x2 – 18y = 0 y= ½ x2
fy= 3y – 18x = 0 y = 6x
Donde x = 0, x = 12, y = 0, y = 72. Así, los puntos críticos son: (0,0) y (12,72)
Paso (2): Calculando las segundas derivadas:
fxx = 18x fyy = 3 fxy = fyx = -18
Paso (3): Evaluando el punto crítico (0,0) :
fxx = ( 0, 0 ) = 18 (0) = 0 fyy = ( 0, 0 ) = 3
¿Cumple que fxx ( 0, 0 ). fyy ( 0, 0 ) > [ fxy(0,0) ]2 ? 0.3 < ( -18 )2 (No cumple)
este punto crítico no es ni máximo ni mínimo. Puesto que fxx y fyy
(evaluadas en este punto crítico) tienen signos iguales entonces es un punto de
inflexión.
Paso (4): Evaluando el punto crítico (12,72) :
fxx = ( 12, 72 ) = 18 (12) = 216 fxy = ( 12, 72 ) = 3
¿Cumple que fxx( 12, 72 ).fyy( 12, 72 ) > [ fxy(12,72) ]2 ? 216.3 > ( -18 )2 (Si cumple!)
Dado que se cumple fxx ( 12, 72 ). fyy ( 12, 72 ) > [ fxy (12,72) ]2 y además, fxx , fyy > 0
entonces el punto en análisis es un mínimo relativo.
Método de LaGrange
El método Langrangiano son unas técnicas o métodos
que se utilizan para trabajar con las funciones de varias
variables que necesitas maximizar o que necesitamos
minimizar, las cuales poseen una serie de condiciones
o restricciones, es un método que reduce los
problemas restringidos en las variables “n” es uno sin
ningún tipo de restricciones de “n + 1” variables en las
cuales las ecuaciones se pueden resolver.
Ejemplo del Método de LaGrange
Paso (1): Primero dibujamos una caja donde sus lados sean paralelos a los ejes del
sistema de referencia xyz.
Del enunciado se saca que la función que se quiere maximizar, en este caso, es la
función capacidad o volumen de una caja rectangular o de un paralelepípedo
rectangular.
Entonces debemos escribir la llamada función del volumen de la caja de acuerdo a su
expresión geométrica= xyz
Además, se identifica la condición a cumplir o la restricción, dada por la superficie que
debe poseer dicha caja, que es de 64 cm. cuadrados. Escribimos el área de la
superficie (S):
S= 2xy + 2yz + 2xz = 64
Paso (2): de la función a maximizar, la función volumen
Vx= yz
Vy= xz
Vz= xy
Paso (3): luego el gradiente de la restricción
Sx = 2y + 2z
Sy = 2x + 2z
Sz = 2x + 2y
Paso (4): La ecuación de LaGrange se escribe:
 xyxzyz ,, =λ  yxzxzy 22,22,22 
Paso (5): Se forma el siguiente sistema de ecuaciones a partir de la igualación de cada
componente:
yz = λ( 2 y + 2z) …ec nº 1
xz = λ (2x + 2z) …ec nº 2
xz = λ (2x + 2y) …ec nº 3 y además
2xy + 2yz + 2xz = 64…ec nº4
Paso (6): Se resuelve el sistema de ecuaciones lineales por cualquiera de los métodos
conocidos para estos casos.
En particular, en este caso se multiplicara la ec nº 1 por x, la ec nº 2 por y, la ec nº 3 por
z. quedan así las ecuaciones:
xyz = 2 λx y + 2 λx z …ec nº 5
xyz = 2 λ xy + 2 λy z …ec nº 6
xyz =2 λ xz + 2 λ yz …ec nº7
Fíjese que las tres ecuaciones poseen igual los primeros términos (xyz), así que los
igualaremos a través de ellos.
Paso (7): Al igualar las ecuaciones nº 5 y nº 6:
2 λx y + 2 λx z = 2 λ xy + 2 λy z
2 λx y + 2 λx z = 2 λ xy + 2 λy z
2 λx z = 2 λy z, se obtiene:
x = y
Paso (8): Al igualar las ecuaciones nº 5 y nº 7:
2 λx y + 2 λx z = 2 λ xz + 2 λ yz
2 λx y = 2 λ yz
x = z
Así que se tiene: x =y = z
Se escribe la ecuación nº4 en función de una sola variable:
2xy + 2yz + 2xz = 64…ec nº4, respecto de x por ejemplo, queda:
, por representar x una distancia se toma el valor
positivo, así que:
, entonces:
y el volumen máximo para la condición dada es:
Matriz jacobiana
La matriz Jacobiana es una matriz formada por las
derivadas parciales de primer orden de una función.
Una de las aplicaciones más interesantes de esta
matriz es la posibilidad de aproximar linealmente a la
función en un punto. En este sentido, el Jacobiano
representa la derivada de una función multivariable.
Ejemplo de la Matriz jacobiana
calcular la matriz jacobiana de
Paso (1): Como en nuestro caso tenemos una función la matriz jacobiana
será de orden 2 x 3, y sus elementos vienen dados por:
Paso (2): Observa que en nuestro caso las componentes de ƒ son:
𝑓1(𝑥_1,𝑥_2,𝑥_(3 ))= . 1+𝑥_2.𝑥_3) y 𝑓2(𝑥_1,𝑥_2,𝑥_3 )=2𝑥_2−5
Paso (3): Calculamos ya los elementos de la matriz jacobiana:
𝜕𝑓1
𝜕𝑥1
= 2𝑥1. (1 + 𝑥2. 𝑥3) (pues 𝑥2 y 𝑥3 actúan como constante).
= . 𝑥3 (pues 𝑥1 y 𝑥3actúan como constantes).
= (pues 𝑥2 y 𝑥1 actúan como constantes).
(pues 𝑥1no aparece en la expresión 𝑓2).
(pues al derivar respeto 𝑥1 la 𝑥3 actúa como constante).
(pues al derivar respecto 𝑥3 la 𝑥2 actúa como constante).
Paso (4): De este modo la matriz jacobiana de nuestra función ƒ es:
Condiciones de Kuhn Tucker
las condiciones de kuhn-tucker
Muchos modelos en economía son, naturalmente, formulados, como problemas de
optimización con restricciones de desigualdad.
Consideremos, por ejemplo, el problema de la elección del consumidor. No hay
ninguna razón para insistir en que un consumidor pasa toda su riqueza, por lo que su
problema de optimización se formula con restricciones de desigualdad:
x max u (x) en p · x ≤ w y x ≥ 0.
En el carácter de la función y los valores de u p y w, podemos tener p x · w
<dependiendo o p · x = w a una solución de este problema.
Un enfoque para la solución de este problema comienza por determinar cuál de estas
dos condiciones se cumple en una solución. En problemas más complejos, con más
de una restricción, este enfoque no funciona bien. Consideremos, por ejemplo, un
consumidor que se enfrenta a dos limitaciones (tal vez tiempo y dinero). Tres
ejemplos se muestran en la figura siguiente, que debe convencer de que no podemos
deducir de propiedades simples de u solo que de las limitaciones, en su caso, están
satisfechos con la igualdad en una solución.
Ejemplo de Condiciones de Kuhn Tucker
Maximizar la función de beneficio sujeto a una restricción de producción.
Maximizar : π = 64x – 2x2 + 96y - 4y2 - 13
Sujeto a : x + y ≤ 36
Paso (1): Formamos la función Lagrangiana:
π = 64x – 2x2 + 96y - 4y2 - 13 + λ(36 – x – y)
Paso (2): Por las condiciones de Kuhn-Tucker:
πx= 64 – 4x - λ ≤ 0 πy= 96 – 8y - λ ≤ 0 λ π = 36 – x – y ≥ 0
x ≥ 0 y≥ 0 λ≥ 0
x ( 64 -4x - λ ) = 0 y ( 96 – 8y - λ ) = 0 λ( 36 – x – y ) = 0
Paso (3): Se testean o revisan las condiciones de Kuhn-Tucker:
(a): Si λ, x, y > 0 entonces de las condiciones de Kuhn-Tucker llevan a:
64 -4x - λ = 0
96 – 8y - λ = 0
36 – x – y = 0
Paso (4): En forma de matriz:
Paso (5): Usando la Regla de Cramer donde:
A∣ = 12 ∣Ax∣ = 256 ∣Ay∣ = 176 ∣Aλ ∣ = -256
se obtiene que: x= 21.33 y = 14.67 λ = -21.33
Lo cual no puede ser óptimo ya que λ< 0 y contradice las condiciones de Kuhn-Tucker
(b) Si λ= 0 y x, y > 0 entonces
64 – 4x = 0 x = 16
96 – 8y = 0 y = 12
Esto da la solución correcta: x = 16, y = 12 y λ= 0, lo cual es óptimo ya que no viola
ninguna condición de Kuhn-Tucker

Más contenido relacionado

La actualidad más candente

F4002 - L03 - Raíces de ecuaciones no lineales
F4002 - L03 - Raíces de ecuaciones no linealesF4002 - L03 - Raíces de ecuaciones no lineales
F4002 - L03 - Raíces de ecuaciones no linealesSergio Camacho-Leon
 
Integracion numerica
Integracion numericaIntegracion numerica
Integracion numericaKevinGVG
 
Diferenciación numérica Metodos Numericos
Diferenciación numérica Metodos NumericosDiferenciación numérica Metodos Numericos
Diferenciación numérica Metodos NumericosTensor
 
Método gráfico, Método de bisección y Método de la regla falsa
Método gráfico, Método de bisección  y Método de la regla falsa Método gráfico, Método de bisección  y Método de la regla falsa
Método gráfico, Método de bisección y Método de la regla falsa deberesautomotriz
 
Metodo de la secante
Metodo de la secanteMetodo de la secante
Metodo de la secanterocamaos
 
Multiplicadores de lagrange
Multiplicadores de lagrangeMultiplicadores de lagrange
Multiplicadores de lagrangeBryan Guerra
 
Metodos de Programacion no lineal
Metodos de Programacion no linealMetodos de Programacion no lineal
Metodos de Programacion no linealluisatero
 
Método de jacobi Métodos Númericos
Método de jacobi Métodos NúmericosMétodo de jacobi Métodos Númericos
Método de jacobi Métodos NúmericosTensor
 
Ecuaciones diferenciales exactas, factor integral, lineales y de dernulli
Ecuaciones diferenciales exactas, factor integral, lineales y de dernulliEcuaciones diferenciales exactas, factor integral, lineales y de dernulli
Ecuaciones diferenciales exactas, factor integral, lineales y de dernullige0ser
 
Método simplex
Método simplexMétodo simplex
Método simplexdeweey
 
Funciones asociadas de legendre (final)
Funciones asociadas de legendre (final)Funciones asociadas de legendre (final)
Funciones asociadas de legendre (final)jonnathan_andre
 
Ecuaciones diferenciales ordinarias Parte 2
Ecuaciones diferenciales ordinarias Parte 2Ecuaciones diferenciales ordinarias Parte 2
Ecuaciones diferenciales ordinarias Parte 2Kike Prieto
 
ejercicios-resueltos-integrales-dobles-y-triples-2011
ejercicios-resueltos-integrales-dobles-y-triples-2011ejercicios-resueltos-integrales-dobles-y-triples-2011
ejercicios-resueltos-integrales-dobles-y-triples-2011Carlos Farley Zamudio Melo
 
Interpolación lagrange[1]
Interpolación lagrange[1]Interpolación lagrange[1]
Interpolación lagrange[1]Pervys Rengifo
 
Valor esperado o media
Valor esperado o mediaValor esperado o media
Valor esperado o mediaJag Är Omxr
 
Interpolación Polinómica
Interpolación PolinómicaInterpolación Polinómica
Interpolación Polinómicalivysl
 

La actualidad más candente (20)

F4002 - L03 - Raíces de ecuaciones no lineales
F4002 - L03 - Raíces de ecuaciones no linealesF4002 - L03 - Raíces de ecuaciones no lineales
F4002 - L03 - Raíces de ecuaciones no lineales
 
Integracion numerica
Integracion numericaIntegracion numerica
Integracion numerica
 
Diferenciación numérica Metodos Numericos
Diferenciación numérica Metodos NumericosDiferenciación numérica Metodos Numericos
Diferenciación numérica Metodos Numericos
 
Método gráfico, Método de bisección y Método de la regla falsa
Método gráfico, Método de bisección  y Método de la regla falsa Método gráfico, Método de bisección  y Método de la regla falsa
Método gráfico, Método de bisección y Método de la regla falsa
 
Metodo de la secante
Metodo de la secanteMetodo de la secante
Metodo de la secante
 
Programacion no lineal
Programacion no linealProgramacion no lineal
Programacion no lineal
 
Multiplicadores de lagrange
Multiplicadores de lagrangeMultiplicadores de lagrange
Multiplicadores de lagrange
 
Metodos de Programacion no lineal
Metodos de Programacion no linealMetodos de Programacion no lineal
Metodos de Programacion no lineal
 
Teorema de lagrange
Teorema de lagrangeTeorema de lagrange
Teorema de lagrange
 
Método de lagrange
Método de lagrangeMétodo de lagrange
Método de lagrange
 
Método de jacobi Métodos Númericos
Método de jacobi Métodos NúmericosMétodo de jacobi Métodos Númericos
Método de jacobi Métodos Númericos
 
Ecuaciones diferenciales exactas, factor integral, lineales y de dernulli
Ecuaciones diferenciales exactas, factor integral, lineales y de dernulliEcuaciones diferenciales exactas, factor integral, lineales y de dernulli
Ecuaciones diferenciales exactas, factor integral, lineales y de dernulli
 
Método simplex
Método simplexMétodo simplex
Método simplex
 
Funciones asociadas de legendre (final)
Funciones asociadas de legendre (final)Funciones asociadas de legendre (final)
Funciones asociadas de legendre (final)
 
Ecuaciones diferenciales ordinarias Parte 2
Ecuaciones diferenciales ordinarias Parte 2Ecuaciones diferenciales ordinarias Parte 2
Ecuaciones diferenciales ordinarias Parte 2
 
ejercicios-resueltos-integrales-dobles-y-triples-2011
ejercicios-resueltos-integrales-dobles-y-triples-2011ejercicios-resueltos-integrales-dobles-y-triples-2011
ejercicios-resueltos-integrales-dobles-y-triples-2011
 
Interpolación lagrange[1]
Interpolación lagrange[1]Interpolación lagrange[1]
Interpolación lagrange[1]
 
Valor esperado o media
Valor esperado o mediaValor esperado o media
Valor esperado o media
 
Interpolación Polinómica
Interpolación PolinómicaInterpolación Polinómica
Interpolación Polinómica
 
Programacion no lineal
Programacion no linealProgramacion no lineal
Programacion no lineal
 

Similar a Presentación de optimizacion

Marina.mallol optimizacion de sistemas
Marina.mallol optimizacion de sistemasMarina.mallol optimizacion de sistemas
Marina.mallol optimizacion de sistemasmarimallol
 
Metodos de optimizacion
Metodos de optimizacionMetodos de optimizacion
Metodos de optimizacionrsalazar16988
 
Ejercicios detallados del obj 2 mat ii 178 179-
Ejercicios detallados del obj 2 mat ii  178 179-Ejercicios detallados del obj 2 mat ii  178 179-
Ejercicios detallados del obj 2 mat ii 178 179-Jonathan Mejías
 
Funciones CuadráTicas
Funciones CuadráTicas Funciones CuadráTicas
Funciones CuadráTicas Carmen Batiz
 
SAIA_ Stalin_Meza
SAIA_ Stalin_MezaSAIA_ Stalin_Meza
SAIA_ Stalin_MezaSTALIN MEZA
 
Metodos de optimizacion
Metodos de optimizacionMetodos de optimizacion
Metodos de optimizaciondev_david
 
Metodos de optimización
Metodos de optimizaciónMetodos de optimización
Metodos de optimizaciónErvin Er Negro
 
Ejercicios detallados del obj 8 mat i (175 176-177
Ejercicios detallados del obj 8 mat i (175 176-177Ejercicios detallados del obj 8 mat i (175 176-177
Ejercicios detallados del obj 8 mat i (175 176-177Jonathan Mejías
 
Expresiones Algebraicas Douglas-Rafael.pptx
Expresiones Algebraicas Douglas-Rafael.pptxExpresiones Algebraicas Douglas-Rafael.pptx
Expresiones Algebraicas Douglas-Rafael.pptxaventurero279aventur
 
ecuasiones de segundo grado
ecuasiones de segundo gradoecuasiones de segundo grado
ecuasiones de segundo gradomatematicasec29
 
Expresiones algebraicas y factorización
Expresiones algebraicas y factorizaciónExpresiones algebraicas y factorización
Expresiones algebraicas y factorizaciónMahielyCobarrubia
 
presentacion tati.docx
presentacion tati.docxpresentacion tati.docx
presentacion tati.docxKAPJ1
 
Documento de Ismael Sandoval.pptx
Documento de Ismael Sandoval.pptxDocumento de Ismael Sandoval.pptx
Documento de Ismael Sandoval.pptxIsmaelSandoval20
 

Similar a Presentación de optimizacion (20)

Optimizacion
OptimizacionOptimizacion
Optimizacion
 
Marina.mallol optimizacion de sistemas
Marina.mallol optimizacion de sistemasMarina.mallol optimizacion de sistemas
Marina.mallol optimizacion de sistemas
 
Optimización
OptimizaciónOptimización
Optimización
 
Metodos de optimizacion
Metodos de optimizacionMetodos de optimizacion
Metodos de optimizacion
 
Ejercicios detallados del obj 2 mat ii 178 179-
Ejercicios detallados del obj 2 mat ii  178 179-Ejercicios detallados del obj 2 mat ii  178 179-
Ejercicios detallados del obj 2 mat ii 178 179-
 
Funciones CuadráTicas
Funciones CuadráTicas Funciones CuadráTicas
Funciones CuadráTicas
 
SAIA_ Stalin_Meza
SAIA_ Stalin_MezaSAIA_ Stalin_Meza
SAIA_ Stalin_Meza
 
Metodos de optimizacion
Metodos de optimizacionMetodos de optimizacion
Metodos de optimizacion
 
Metodos de optimización
Metodos de optimizaciónMetodos de optimización
Metodos de optimización
 
Ejercicios detallados del obj 8 mat i (175 176-177
Ejercicios detallados del obj 8 mat i (175 176-177Ejercicios detallados del obj 8 mat i (175 176-177
Ejercicios detallados del obj 8 mat i (175 176-177
 
2._metodo_simplex.pdf
2._metodo_simplex.pdf2._metodo_simplex.pdf
2._metodo_simplex.pdf
 
Expresiones Algebraicas Douglas-Rafael.pptx
Expresiones Algebraicas Douglas-Rafael.pptxExpresiones Algebraicas Douglas-Rafael.pptx
Expresiones Algebraicas Douglas-Rafael.pptx
 
ecuasiones de segundo grado
ecuasiones de segundo gradoecuasiones de segundo grado
ecuasiones de segundo grado
 
5.4 mult lagrange
5.4 mult lagrange5.4 mult lagrange
5.4 mult lagrange
 
Ecuaciones
EcuacionesEcuaciones
Ecuaciones
 
Extremos condicionados
Extremos condicionadosExtremos condicionados
Extremos condicionados
 
Expresiones algebraicas y factorización
Expresiones algebraicas y factorizaciónExpresiones algebraicas y factorización
Expresiones algebraicas y factorización
 
metodos de optimizacion
metodos de optimizacionmetodos de optimizacion
metodos de optimizacion
 
presentacion tati.docx
presentacion tati.docxpresentacion tati.docx
presentacion tati.docx
 
Documento de Ismael Sandoval.pptx
Documento de Ismael Sandoval.pptxDocumento de Ismael Sandoval.pptx
Documento de Ismael Sandoval.pptx
 

Más de Fran Deivis Rojas Marcano (6)

Fran deivis rojas marcano
Fran deivis rojas marcanoFran deivis rojas marcano
Fran deivis rojas marcano
 
Presentación de optimizacion
Presentación de optimizacionPresentación de optimizacion
Presentación de optimizacion
 
Presentación electiva v
Presentación electiva vPresentación electiva v
Presentación electiva v
 
Fran Deivis Rojas Marcano
Fran Deivis Rojas MarcanoFran Deivis Rojas Marcano
Fran Deivis Rojas Marcano
 
mapa mental no numérica dos
mapa mental no numérica dosmapa mental no numérica dos
mapa mental no numérica dos
 
Presentacion no numerica 2
Presentacion no numerica 2Presentacion no numerica 2
Presentacion no numerica 2
 

Presentación de optimizacion

  • 2. Extremos no restictivos de dos variables Las derivadas parciales de primer y segundo orden son implementadas para hallar el punto critico de funciones vectoriales y geométricas
  • 3. Ejemplo de Extremos no restrictos con dos variables Ejemplo: En la siguiente función f (x,y)=3x3+1.5 y 2–18xy+17 encontrar los puntos críticos y determinar si éstos son máximos o mínimos relativos, puntos de inflexión o puntos de silla ? Paso (1): Calculando la primera derivada e igualándola a 0 (condición de primer orden): fx= 9x2 – 18y = 0 y= ½ x2 fy= 3y – 18x = 0 y = 6x Donde x = 0, x = 12, y = 0, y = 72. Así, los puntos críticos son: (0,0) y (12,72) Paso (2): Calculando las segundas derivadas: fxx = 18x fyy = 3 fxy = fyx = -18 Paso (3): Evaluando el punto crítico (0,0) : fxx = ( 0, 0 ) = 18 (0) = 0 fyy = ( 0, 0 ) = 3 ¿Cumple que fxx ( 0, 0 ). fyy ( 0, 0 ) > [ fxy(0,0) ]2 ? 0.3 < ( -18 )2 (No cumple)
  • 4. este punto crítico no es ni máximo ni mínimo. Puesto que fxx y fyy (evaluadas en este punto crítico) tienen signos iguales entonces es un punto de inflexión. Paso (4): Evaluando el punto crítico (12,72) : fxx = ( 12, 72 ) = 18 (12) = 216 fxy = ( 12, 72 ) = 3 ¿Cumple que fxx( 12, 72 ).fyy( 12, 72 ) > [ fxy(12,72) ]2 ? 216.3 > ( -18 )2 (Si cumple!) Dado que se cumple fxx ( 12, 72 ). fyy ( 12, 72 ) > [ fxy (12,72) ]2 y además, fxx , fyy > 0 entonces el punto en análisis es un mínimo relativo.
  • 5. Método de LaGrange El método Langrangiano son unas técnicas o métodos que se utilizan para trabajar con las funciones de varias variables que necesitas maximizar o que necesitamos minimizar, las cuales poseen una serie de condiciones o restricciones, es un método que reduce los problemas restringidos en las variables “n” es uno sin ningún tipo de restricciones de “n + 1” variables en las cuales las ecuaciones se pueden resolver.
  • 6. Ejemplo del Método de LaGrange Paso (1): Primero dibujamos una caja donde sus lados sean paralelos a los ejes del sistema de referencia xyz. Del enunciado se saca que la función que se quiere maximizar, en este caso, es la función capacidad o volumen de una caja rectangular o de un paralelepípedo rectangular. Entonces debemos escribir la llamada función del volumen de la caja de acuerdo a su expresión geométrica= xyz Además, se identifica la condición a cumplir o la restricción, dada por la superficie que debe poseer dicha caja, que es de 64 cm. cuadrados. Escribimos el área de la superficie (S): S= 2xy + 2yz + 2xz = 64 Paso (2): de la función a maximizar, la función volumen Vx= yz Vy= xz Vz= xy
  • 7. Paso (3): luego el gradiente de la restricción Sx = 2y + 2z Sy = 2x + 2z Sz = 2x + 2y Paso (4): La ecuación de LaGrange se escribe:  xyxzyz ,, =λ  yxzxzy 22,22,22  Paso (5): Se forma el siguiente sistema de ecuaciones a partir de la igualación de cada componente: yz = λ( 2 y + 2z) …ec nº 1 xz = λ (2x + 2z) …ec nº 2 xz = λ (2x + 2y) …ec nº 3 y además 2xy + 2yz + 2xz = 64…ec nº4 Paso (6): Se resuelve el sistema de ecuaciones lineales por cualquiera de los métodos conocidos para estos casos. En particular, en este caso se multiplicara la ec nº 1 por x, la ec nº 2 por y, la ec nº 3 por z. quedan así las ecuaciones: xyz = 2 λx y + 2 λx z …ec nº 5 xyz = 2 λ xy + 2 λy z …ec nº 6 xyz =2 λ xz + 2 λ yz …ec nº7
  • 8. Fíjese que las tres ecuaciones poseen igual los primeros términos (xyz), así que los igualaremos a través de ellos. Paso (7): Al igualar las ecuaciones nº 5 y nº 6: 2 λx y + 2 λx z = 2 λ xy + 2 λy z 2 λx y + 2 λx z = 2 λ xy + 2 λy z 2 λx z = 2 λy z, se obtiene: x = y Paso (8): Al igualar las ecuaciones nº 5 y nº 7: 2 λx y + 2 λx z = 2 λ xz + 2 λ yz 2 λx y = 2 λ yz x = z Así que se tiene: x =y = z Se escribe la ecuación nº4 en función de una sola variable: 2xy + 2yz + 2xz = 64…ec nº4, respecto de x por ejemplo, queda: , por representar x una distancia se toma el valor positivo, así que:
  • 9. , entonces: y el volumen máximo para la condición dada es:
  • 10. Matriz jacobiana La matriz Jacobiana es una matriz formada por las derivadas parciales de primer orden de una función. Una de las aplicaciones más interesantes de esta matriz es la posibilidad de aproximar linealmente a la función en un punto. En este sentido, el Jacobiano representa la derivada de una función multivariable.
  • 11. Ejemplo de la Matriz jacobiana calcular la matriz jacobiana de Paso (1): Como en nuestro caso tenemos una función la matriz jacobiana será de orden 2 x 3, y sus elementos vienen dados por: Paso (2): Observa que en nuestro caso las componentes de ƒ son: 𝑓1(𝑥_1,𝑥_2,𝑥_(3 ))= . 1+𝑥_2.𝑥_3) y 𝑓2(𝑥_1,𝑥_2,𝑥_3 )=2𝑥_2−5 Paso (3): Calculamos ya los elementos de la matriz jacobiana: 𝜕𝑓1 𝜕𝑥1 = 2𝑥1. (1 + 𝑥2. 𝑥3) (pues 𝑥2 y 𝑥3 actúan como constante). = . 𝑥3 (pues 𝑥1 y 𝑥3actúan como constantes). = (pues 𝑥2 y 𝑥1 actúan como constantes).
  • 12. (pues 𝑥1no aparece en la expresión 𝑓2). (pues al derivar respeto 𝑥1 la 𝑥3 actúa como constante). (pues al derivar respecto 𝑥3 la 𝑥2 actúa como constante). Paso (4): De este modo la matriz jacobiana de nuestra función ƒ es:
  • 13. Condiciones de Kuhn Tucker las condiciones de kuhn-tucker Muchos modelos en economía son, naturalmente, formulados, como problemas de optimización con restricciones de desigualdad. Consideremos, por ejemplo, el problema de la elección del consumidor. No hay ninguna razón para insistir en que un consumidor pasa toda su riqueza, por lo que su problema de optimización se formula con restricciones de desigualdad: x max u (x) en p · x ≤ w y x ≥ 0. En el carácter de la función y los valores de u p y w, podemos tener p x · w <dependiendo o p · x = w a una solución de este problema. Un enfoque para la solución de este problema comienza por determinar cuál de estas dos condiciones se cumple en una solución. En problemas más complejos, con más de una restricción, este enfoque no funciona bien. Consideremos, por ejemplo, un consumidor que se enfrenta a dos limitaciones (tal vez tiempo y dinero). Tres ejemplos se muestran en la figura siguiente, que debe convencer de que no podemos deducir de propiedades simples de u solo que de las limitaciones, en su caso, están satisfechos con la igualdad en una solución.
  • 14. Ejemplo de Condiciones de Kuhn Tucker Maximizar la función de beneficio sujeto a una restricción de producción. Maximizar : π = 64x – 2x2 + 96y - 4y2 - 13 Sujeto a : x + y ≤ 36 Paso (1): Formamos la función Lagrangiana: π = 64x – 2x2 + 96y - 4y2 - 13 + λ(36 – x – y) Paso (2): Por las condiciones de Kuhn-Tucker: πx= 64 – 4x - λ ≤ 0 πy= 96 – 8y - λ ≤ 0 λ π = 36 – x – y ≥ 0 x ≥ 0 y≥ 0 λ≥ 0 x ( 64 -4x - λ ) = 0 y ( 96 – 8y - λ ) = 0 λ( 36 – x – y ) = 0
  • 15. Paso (3): Se testean o revisan las condiciones de Kuhn-Tucker: (a): Si λ, x, y > 0 entonces de las condiciones de Kuhn-Tucker llevan a: 64 -4x - λ = 0 96 – 8y - λ = 0 36 – x – y = 0 Paso (4): En forma de matriz: Paso (5): Usando la Regla de Cramer donde: A∣ = 12 ∣Ax∣ = 256 ∣Ay∣ = 176 ∣Aλ ∣ = -256 se obtiene que: x= 21.33 y = 14.67 λ = -21.33 Lo cual no puede ser óptimo ya que λ< 0 y contradice las condiciones de Kuhn-Tucker
  • 16. (b) Si λ= 0 y x, y > 0 entonces 64 – 4x = 0 x = 16 96 – 8y = 0 y = 12 Esto da la solución correcta: x = 16, y = 12 y λ= 0, lo cual es óptimo ya que no viola ninguna condición de Kuhn-Tucker