2. OPTIMIZACIÓN
Optimización: La teoría de optimización clásica o programación matemática está
constituida por un conjunto de resultados y métodos analíticos y numéricos enfocados
a encontrar e identificar al mejor candidato de entre una colección de alternativas, sin
tener que enumerar y evaluar explícitamente todas esas alternativas.
Optimización: Es la selección del mejor elemento (con respecto a algún criterio)
de un conjunto de elementos disponibles.
Sistemas: es un conjunto de partes o elementos organizadas y relacionadas
que interactúan entre sí para lograr un objetivo.
Funciones: Son entidades matemáticas que asignan valores de salida únicos
a valores de entrada.
3. Un problema de optimización es, en general, un problema de decisión. Con el fin de
ilustrar de forma adecuada la estructura y composición de un problema de optimización.
Un problema de optimización puede ser representado de la siguiente forma
Dada: una función f : A R.
Buscar: un elemento x0 en A tal que f(x0) ≤ f(x) para todo x en A ("minimización") o tal que f(x0)
≥ f(x) para todo x en A ("maximización").
Tal formulación es llamada un problema de optimización o un problema de programación
matemática (un término no directamente relacionado con la programación de computadoras pero
todavía en uso, por ejemplo en la programación lineal. Muchos problemas teóricos y del mundo
real pueden ser modelados mediante este esquema general. Problemas formulados usando esta
técnica en los campos
de física y visión por computadora se refieren a la técnica como minimización de la energía,
hablando del valor de la función f representando la energía del sistema que está
siendo modelado.
FORMULACIÓN DE UN PROBLEMA
4. Típicamente, A es algún subconjunto del espacio euclídeo Rn, con frecuencia delimitado
por un conjunto de restricciones, igualdades o desigualdades que los elementos de Atienen que
satisfacer.
El dominio A de f es llamado el espacio de búsqueda o el conjunto de elección, mientras que los
elementos de A son llamados soluciones candidatas o soluciones factibles.
La función f es llamada, diversamente, función objetivo, función de costo (minimización), función de
utilidad (maximización), función de utilidad indirecta(minimización), o,
en ciertos campos, función de energía, o energía funcional. Una solución factible que minimice (o
maximice, si este es el propósito) la función objetivo, es llamada una solución óptima.
Por convenio, el formato estándar de un problema de optimización está declarado en términos de
minimización. Generalmente, a menos que ambas, la función objetivo y la región factible sean
convexas
en un problema de minimización, puede haber varios mínimos locales, donde un mínimo local x* se
define como un punto para el cual existe algún δ > 0, donde para todo x tal que a expresión es
verdadera; es decir, en alguna región alrededor de x* todos los valores de la función son mayores
que o iguales al valor en ese punto. El máximo local se define de modo similar.
FORMULACIÓN DE UN PROBLEMA
5. (Construcción de una caja con volumen máximo). Supongamos que queremos determinar las
dimensiones de una caja rectangular de forma que contenga el mayor volumen posible, pero
utilizando para ello una cantidad fija de material. El problema en forma abstracta se podría plantear
en los siguientes términos
Con el fin de resolver este problema habrá que modelizarlo matemáticamente, es decir tendremos
que expresarlo en términos matemáticos. El primer paso para modelizar un problema de
optimización es identificar y definir las variables que están implicadas en dicho problema, en este
caso y puesto que estamos tratando de determinar el tamaño de una caja rectangular, la opción más
clara es considerar como variables sus tres dimensiones rectangulares usuales (ancho, largo, alto) y
que representamos con X,Y,Z. Con estas variables, la función para la que tenemos que encontrar el
mejor valor será el volumen de la caja que puede expresarse como:
V (x y z) = xyz
Ejemplo
Maximizar Volumen de la caja
sujeto a Área lateral fija
6. A continuación debemos tener en cuenta las limitaciones existentes sobre el material.
Como este material se utiliza para construir las paredes de la caja, necesitaremos
considerar el área lateral de la misma, y si la caja tiene tapa, dicha área será (x y z)=
2(xy +yz + zx) Por último, teniendo en cuenta que las dimensiones de la caja no pueden
ser negativas el problema puede expresarse matemáticamente como
Maximizar xyz
Sujeto a 2 (xy + yz + zx) =
X Y Z ≥ 0
En este ejemplo se distinguen tres elementos fundamentales: las variables del problema,
una función de esas variables y un conjunto de relaciones que deben cumplir las variables
del problema. Estos elementos se repetirán en todos los problemas de optimización.
Ejemplo
7. Función objetivo: también llamado índice de rendimiento o criterio de elección.
Este es el elemento utilizado para decidir los valores adecuados de las variables de
decisión que resuelven el problema de optimización. La función objetivo permite
determinar los mejores valores para las variables de decisión. Independientemente del
criterio seleccionado, dentro del contexto de la optimización matemática el adjetivo “mejor”
siempre indica los valores de las variables de decisión que producen el mínimo o máximo
valor (según el criterio utilizado) de la función objetivo elegida. Algunos de estos criterios
pueden ser por ejemplo de tipo económico (coste total, beneficio), de tipo tecnológico
(energía mínima, máxima capacidad de carga, máxima tasa de producción) o de tipo
temporal (tiempo de producción mínimo) entre otros.
FUNCIÓN OBJETIVO
8. FUNCIÓN OBJETIVO
La función objetivo puede ser:
MAX!=
=
𝑖=1
𝑁
𝑓𝑖 𝑥 𝑋𝑖
o
MIN!=
=
𝑖=1
𝑁
𝑓𝑖 𝑥 𝑋𝑖
Donde: (Fi) = coeficientes son relativamente iguales a
cero.
También usa técnicas de programación lineal
o no lineal
9. MÉTODOS DE OPTIMIZACIÓN
Los métodos de optimización es una rama de las matemáticas que consistente en el uso
de modelos matemáticos. Frecuentemente trata del estudio de complejos sistemas reales, con la
finalidad de mejorar (u optimizar) su funcionamiento.
Métodos numéricos: los métodos numéricos son técnicas mediante las cuales es posible formular
problemas de tal forma que sean resueltos con operaciones aritméticas.
10. MÉTODOS DE OPTIMIZACIÓN
Método de Lagrange: Llamados así en honor al matemático, físico y astrónomo Joseph
Lagrange, son un procedimiento para encontrar el punto máximo y mínimo de una función de
varias variables sujetas a restricciones. El método se reduce a un problema de restringido con
una n cantidad de variables o a uno sin restricciones. Dichas variables son nombradas como
multiplicadores de Lagrange.
El método dice que: los puntos donde la función tiene un extremo condicionado con una cantidad
de restricciones, se encuentran entre los puntos estacionarios de una nueva función sin
restricciones como una combinación lineal de la función y las funciones implicadas en las
restricciones, cuyos coeficientes son los multiplicadores.
Este método hace uso de derivadas parciales y de la regla de la cadena para funciones de varias
variables.
En él se busca extraer una función implícita de las restricciones, y encontrar las condiciones para
que las derivadas parciales con respecto a las variables independientesde la función sean
iguales a cero
11. Uso del Método de Lagrange
Este método se puede utilizar para la solución de problemas en optimización
dinámica, ya que se encuentra vinculado a la resolución de problemas de optimización de
campos escalares sujetos a restricciones de las variables. Dentro de la optimización de
restricción es utilizada para resolver situaciones de complejidad mayor, restricciones de
igualdad y desigualdad y transformación de situaciones. Así como también se pueden
utilizar para resolver problemas no lineales.
MÉTODOS DE OPTIMIZACIÓN
12. MÉTODOS DE OPTIMIZACIÓN
Método de Jacobi: es un método iterativo, usado para resolver
sistemas de ecuaciones lineales del tipo A x = b. El algoritmo toma su nombre
del matemático alemán Carl Gustav Jakob Jacobi. El método de Jacobi
consiste en usar fórmulas como iteración de punto fijo.
Matriz Jacobiana:
Estas Son matrices formadas por la derivada parcial de primer orden de una función.
La matriz jacobiana representa la derivada de una función multivariable, pero hay
que tener en cuenta que esta no siempre se establecerá como una matriz
cuadrática. Su aplicación más resaltante es la de aproximar linealmente la función
en un punto. También es utilizada para pasar de un sistema de coordenadas a otro.
13. MÉTODOS DE OPTIMIZACIÓN
Condición Kuhn Tucker: El teorema que las soporta se basa en las
condiciones necesarias de optimalidad que constituyen la generalización de las
funciones dadas por Lagrange para problemas con restricciones de desigualdad. Por lo
tanto, para poder aplicarla este método será necesario en primer lugar que todas las
funciones que intervengan en el problema admitan derivadas parciales de primer orden
continuas.
En este método se tiene en cuenta el proceso de maximización por lo cual los
resultados a considerar son aquellos diferentes de 0 o valores positivos, pero teniendo
siempre en consideración que se deben conservar los valores negativos como referencia
en las graficas. Ya que además dentro de este método se busca expresar los resultados
mediante gráficas que puedan utilizarse para la interpretación de los resultados
obtenidos.
Dicho método fue creado con la finalidad de demostrar condiciones que no son sencillas
de verificar pero que si es posible hacerlo mediante una serie de cálculos basados en
hipótesis de restricciones
14. PROCEDIMIENTO GENERAL PARA RESOLVER UN
PROBLEMA DE OPTIMIZACIÓN
Leer e
Identificar el
problema
Identificar la
función
objetivo
Usar el
método de
optimización
necesario
Resolver el
problema.