El documento resume los conceptos clave de optimización con y sin restricciones. Para optimización sin restricciones, explica que se debe cumplir la condición de primer orden y, si la función es cóncava, la condición de segundo orden. Para optimización con restricciones, presenta el teorema de Karush-Kuhn-Tucker, el cual establece que es necesario que la derivada del lagrangiano sea cero y se cumplan las condiciones de holgura complementaria.
1. Universidad Nacional Andrés Bello
Facultad de Economía y Negocios
Microeconomía Avanzada
Prof: C. Belmar
Resumen de Optimización
Ayudante: Mauricio Vargas
24 de agosto de 2013
1. Optimización sin Restricciones
Sea f U ⊆ Rn
→ R. Diremos que x∗
es un máximo de f en U si y sólo si f (x∗
) ≥ f (x) para todo x ∈ U.
Para encontrar el máximo de una función f U ⊆ R → R dos veces derivable, existen dos criterior importantes. Cuando
un punto x∗
∈ U cumple con la siguiente condición de primer orden (CPO), la cual es necesaria, decimos que es un
candidato a máximo:
d f
dx
(x∗
) = 0. Para que el candidato x∗
sea el correspondiente al máximo valor de la función objetivo,
es suficiente que la función sea estrictamente cóncava en U. Esto corresponde a la condición suficiente de segundo orden
(CSO):
d2
f
dx2 (x∗
) < 0.
En el caso de una función de varias variables f U ⊆ Rn
→ R dos veces derivable. En este caso, las condiciones de primer
orden (CPO) están dadas por
∂ f
∂xi
(x∗
) = 0 para todo i ∈ {1, . . . , n}
Si la función f es estrictamente cóncava en U, existirá una única solución al sistema de ecuaciones dado por la condición
de primer orden. En caso contrario, debemos verificar que la matriz hessiana
H(x∗) =
⎡
⎢
⎢
⎢
⎢
⎢
⎢
⎣
∂2
f
∂x2
1
(x∗
) . . .
∂2
f
∂x1 ∂xn
(x∗
)
⋱
∂2
f
∂xn ∂x1
(x∗
) . . .
∂2
f
∂x2
n
(x∗
)
⎤
⎥
⎥
⎥
⎥
⎥
⎥
⎦
sea definida negativa en el punto x∗
. Esto es, ht
H(x∗)h < 0 para todo vector h ∈ Rn
.
Una regla de oro para probar que la matriz H(x∗
) es definida negativa consiste en encontrar los menores principales
evaluados en x∗
H1 =
∂2
f
∂x2
1
H2 =
∂2
f
∂x2
1
∂2
f
∂x1 ∂x2
∂2
f
∂x2 ∂x1
∂2
f
∂x2
2
Hn =
∂2
f
∂x2
1
. . .
∂2
f
∂x1 ∂xn
⋱
∂2
f
∂xn ∂x1
. . .
∂2
f
∂x2
n
y verificar que: H1 < 0, H2 > 0, H3 < 0,..., (−1)n
Hn > 0. Es importante aclarar que las segundas derivadas se leen de
derecha a izquierda, es decir
∂2
f
∂xj∂xi
(x∗
) =
∂
∂xj
(
∂ f
∂xi
(x∗
))
1
2. 2. Optimización sin Restricciones
Consideremos un problema con la siguiente estructura
m´ax
x
f (x)
s.a дi(x) = 0 ∀i ∈ {1, . . . , k}
hj(x) ≥ 0 ∀j ∈ {1, . . . , m}
Nuestro objetivo es reducir este problema a encontrar la solución de un problema sin restricciones. Para esto, maximizar
la función lagrangeano
L(x, λ, µ) = f (x) +
k
∑
i=1
λi дi(x) +
m
∑
j=1
µi hj(x)
es equivalente a encontrar una solución óptima del problema con restricciones.
Diremos que un vector x0 ∈ Rn
es factible si cumple las restricciones del problema anterior. Esto es,
дi(x0) = 0 para todo i ∈ {1, . . . , k}
hj(x0) ≥ 0 para todo j ∈ {1, . . . , m}
Teorema de Karush-Kuhn-Tucker: Una condición necesaria para que x0 ∈ S sea un óptimo factible del problema anterior
es que exista un vector (λ, µ) ∈ Rk
× Rm
+ tal que
∇x L(x0, λ, µ) = 0
µjhj(x0) = 0, µj ≥ 0 para todo j ∈ {1, . . . , m}
дi(x0) = 0 para todo i ∈ {1, . . . , k}
hj(x0) ≥ 0 para todo j ∈ {1, . . . .m}
Cuando las funciones f , hi son cóncavas las funciones дi son afines las condiciones descritas son suficientes para que x0
sea un máximo de f en S.
En el teorema anterior:
(1) ∇x L(x0, λ, µ) = 0 es equivalente a la expresión
∂L
∂xℓ
(x0, λ, µ) =
∂ f
∂xℓ
(x0) +
k
∑
i=1
λi
∂дi
∂xℓ
(x0) +
m
∑
j=1
µj
∂hj
∂xℓ
(x0) = 0 para todo ℓ ∈ {1, . . . , n}
(2) Una función afín es una función д U ⊆ Rn
→ R tal que dada una matriz A ∈ Rn×n
y un valor b ∈ R la función se
puede expresar como д(x) = Ax + b.
(3) La primera ecuación que aparece en el teorema es la Condición de Primer Orden aplicada al lagrangeano del problema
original.
(4) La segunda condición que aparece en el teorema se conoce Condición de Holgura Complementaria. Es importante
señalar que en esta condición las restricciones hj(x∗
) ≥ 0 que se cumplen con igualdad tienen un multiplicador
µj > 0 asociado. En otras palabras, la restricción evaluada en x∗
tiene valor cero o el multiplicador asociado tiene
valor cero pero no ambos.
(5) Si la función objetivo es convexa, esta función se puede minimizar. En tal caso minimizar dicha función equivale a
maximizar −f y el teorema sigue siendo aplicable.
(6) Cuando el problema es de maximización las restricciones de desigualdad se escriben hj(x) ≥ 0. Cuando el problema
es de minimización las restricciones de desigualdad se escriben hj(x) ≤ 0. En ambos casos los multiplicadores son
µj ≥ 0.
(7) En un problema, sea de maximización o minimización, nada se puede decir acerca del signo de los multiplicadores
λi.
2