3. El Modelo de Programación Lineal, es una representación simbólica de la
realidad que se estudia, o del problema que se va a solucionar. Se forma con
expresiones de lógicas matemáticas, conteniendo términos que significan
contribuciones: a la utilidad (con máximo) o al costo (con mínimo) en la Función
Objetivo del modelo. Y al consumo de recursos disponibles (con desigualdades = ó =
e igualdades =) en las restricciones.
Modelos Matemáticos de Programación Lineal de:
Maximización: cuando se desea maximizar o incrementar las utilidades,
producción, ventas, beneficios, rentabilidad, publicidad, etc.
Minimización: cuando se desea minimizar o disminuir los costos, perdidas,
paradas, desperdicios, distancias, tiempos inoperativos, etc.
4. Es un procedimiento de solución de problemas de programación lineal,
muy limitado en cuanto al número de variables (2 si es un gráfico 2D y 3 si
es 3D) pero muy rico en materia de interpretación de resultados e incluso
análisis de sensibilidad.
El procedimiento consiste en trazar
las ecuaciones de las restricciones en
un eje de coordenadas X1, X2 para
tratar de identificar el área de
soluciones factibles (soluciones que
cumplen con todas las restricciones).
5. es un algoritmo de resolución para modelos de Programación Lineal
desarrollado por George Dantzig en el año 1947. Como todo algoritmo
cuenta con un proceso iterativo que secuencialmente a través de pasos o
iteraciones va aproximando el valor óptimo del problema lineal en caso de
existir este último.
El Método Simplex es un método iterativo que permite ir mejorando la
solución en cada paso. La razón matemática de esta mejora radica en que el
método consiste en caminar del vértice de un poliedro a un vértice vecino de
manera que aumente o disminuya (según el contexto de la función objetivo,
sea maximizar o minimizar), dado que el número de vértices que presenta un
poliedro solución es finito siempre se hallará solución.
6. Esta estrategia algorítmica se aplica cuando luego de llevar un modelo de
programación lineal a su forma estándar no se dispone de una solución
básica factible inicial.
Fase 1: Consideramos un problema auxiliar que resulta de agregar tantas
variables auxiliares a las restricciones del problema, de modo de obtener una
solución básica factible. Luego se debe resolver utilizando el Método
Simplex un nuevo problema que considera como función objetivo la suma de
las variables auxiliares. Si el valor óptimo alcanzado al finalizar la Fase 1 es
cero ir a la Fase 2. En caso contrario, no existe solución factible.
Fase 2: Resolver a través del Método Simplex el problema original a partir de
la solución básica factible inicial hallada en la Fase1.
7. El método simplex dual resulta ser una estrategia algorítmica eficiente
cuando luego de llevar un modelo de programación lineal a su forma
estándar, la aplicación del método simplex no es inmediata o más bien
compleja, por ejemplo, puede requerir la utilización del método simplex de 2
fases.
Una aplicación típica del método simplex dual es en la resolución de
problemas con una función objetivo de minimización, con restricciones del
tipo mayor o igual y donde las variables de decisión son mayores o iguales a
cero.
8. La dualidad en programación lineal provee de resultados teóricos
interesantes que justifican su uso como herramienta alternativa y
complementaria de resolución.
La dualidad permite realizar
importantes interpretaciones
económicas de los problemas de
programación lineal.
9. El análisis de sensibilidad o postoptimal para los modelos de
Programación Lineal, tiene por objetivo identificar el impacto que resulta
en los resultados del problema original luego de determinadas variaciones
en los parámetros, variables o restricciones del modelo, sin que esto pase
por resolver el problema nuevamente.
Es decir, ya sea si resolvemos nuestro modelo gráficamente o utilizando el
Método Simplex, lo que se busca es que estas variaciones o sensibilidad hagan
uso de la solución y valor óptimo actual, sin tener la necesidad de resolver para
cada variación un nuevo problema.
10. El complemento Solver de Excel (que también esta disponible en una
versión Premium de Prueba) es una excelente herramienta para quienes se
inician en la resolución de modelos de Investigación Operativa por tener
una interfaz amigable, permite resolver aplicaciones estudiantiles (en
cuanto al tamaño del modelo) y esta disponible como un complemento del
software Excel. Ingrese a la sección Solver de Excel para interiorizarse en
cuanto a su uso.
Para hacer uso de Solver se debe activar este complemento y este
procedimiento varía dependiendo si se esta utilizando Office 2003 o Office
2007.
11. INSTALACIÓN SOLVER DE EXCEL UTILIZANDO
MICROSOFT OFFICE 2007
Paso 1: Seleccione el botón Office en la esquina superior izquierda.
Paso 2: Seleccione Opciones de Excel.
12. Paso 3: En el menú de la izquierda debe seleccionar Complementos y
luego presionar el botón Ir
13. Paso 4: Marque la opción Solver y luego seleccione Aceptar.
14. Paso 5: Probablemente se le pediría autorización para instalar el
complemento. Seleccione Sí.
Paso 6: Si la instalación ha resultado satisfactoria el complemento Solver
deberá estar disponible en la sección Datos de Excel.
16. Paso 1: Abrir una planilla de cálculo de Excel y definir las variables de
decisión y la función objetivo. En este ejemplo se han marcado con
amarillo y verde las variables de decisión y función objetivo
respectivamente sólo para facilitar la comprensión. Es importante notar
que la función objetivo (celda F4) será siempre una fórmula que depende
de los parámetros de la función objetivo (celdas B5, C5, D5) y las
variables de decisión (B4, C4, D4)
17. Paso 2: Se definen las restricciones del modelo. La columna en amarillo
bajo el titulo "Lado Izq" es una fórmula de los parámetros y las variables
de decisión en las respectivas restricciones. Por ejemplo, la fórmula
incorporada en E9 es simplemente: 15X + 7,5Y + 5Z. La celda F9 es el
lado derecho de dicha restricción y corresponde a una constante (315).
18. Paso 3: Ingresamos a la Opción Solver (Ver Instalacion Solver de Excel).
Luego definimos la celda objetivo (función objetivo), el valor que
buscamos (máximización o minimización), las celdas que deseamos
cambiar (variables de decisión) y las restricciones. Para nuestro ejemplo
está será la pantalla que se debe obtener:
19. Paso 4: Accedemos a "Opciones..." y seleccionamos "Adoptar modelo
lineal"y "Adoptar no negativos". Finalmente seleccionamos "Aceptar" y
luego "Resolver".
20. Paso 5: Si el proceso se ha desarrollado en forma correcta la planilla de
cálculo se actualizará y se obtendrán los siguientes resultados. Solución
Óptima: X=4, Y=10, Z=36. Valor Óptimo: V(P)=6.620. Se recomienda
requerir el informe de sensibilidad tal como se muestra en la imagen de
abajo.
21. Paso 6: La imagen a continuación ha sido levemente editada y
corresponde al informe de sensibilidad. Por ejemplo, el parámetro que
actualmente acompaña a X en la función objetivo es 200, sin embargo, si
este valor varía entre [120,240] se conservará la actual solución óptima.
En cuanto a las restricciones podemos decir, por ejemplo, que si el lado
derecho de la segunda restricción (actualmente este lado derecho es igual
a 110) aumenta a 120, es nuevo valor óptimo será V(P)=6.620 + 10*10
=6.720, es decir, el valor óptimo aumentará en forma proporcional al
precio sombra de dicha restricción. Se recomienda revisar la sección de
Análisis de Sensibilidad para reforzar estos conceptos.
23. Los modelos de Programación Entera se pueden clasificar en 2 grandes
áreas:
Mixta (PEM): A esta categoría pertenecen aquellos problemas de
optimización que consideran variables de decisión enteras o binarias
pero no de forma exclusiva.
Pura (PEP): En esta categoría encontramos aquellos modelos de
Programación Entera que consideran exclusivamente variables de
decisión que adoptan valores enteros o binarios
Es aquel cuya solución óptima tiene sentido solamente si una parte o todas
las variables de decisión toman valores restringidos a números enteros,
permitiendo incorporar en el modelamiento matemático algunos aspectos
que quedan fuera del alcance de los modelos de Programación Lineal.
24. El método de Branch and Bound (en español Ramificación y
Acotamiento) aborda la resolución de modelos de programación entera a
través de la resolución de una secuencia de modelos de programación lineal
que constituirán los nodos o subproblemas del problema entero.
Si bien el procedimiento es
extensible a un número mayor de
variables, para efectos prácticos
ilustraremos su aplicación para
modelos de programación entera en
2 variables.
26. Un modelo de Programación No Lineal (PNL) es aquel donde las
variables de decisión se expresan como funciones no lineales ya sea en la
función objetivo y/o restricciones de un modelo de optimización. Esta
característica particular de los modelos no lineales permite abordar
problemas donde existen economías o deseconomías de escala o en general
donde los supuestos asociados a la proporcionalidad no se cumplen.
27. En este sentido el método del gradiente (conocido también como método
de Cauchy o del descenso más pronunciado) consiste en un algortimo
específico para la resolución de modelos de PNL sin restricciones,
perteneciente a la categoría de algoritmos generales de descenso, donde la
búsqueda de un mínimo esta asociado a la resolución secuencial de una serie
de problemas unidimensionales.
28. El método de multiplicadores de Lagrange (el cual es generalizado por
las condiciones de optimalidad de Karush-Kuhn-Tucker) permite abordar la
resolución de modelos de programación no lineal que consideran
restricciones de igualdad.
En este sentido y como resulta natural, el dominio de soluciones factibles
considerará exclusivamente aquellas soluciones que permiten verificar el
cumplimiento de la igualdad de dichas restricciones.
Por el contrario, un problema de optimización que considera
inecuaciones como restricciones, sólo requiere que éstas se cumplan y no
necesariamente se deberá forzar el cumplimiento de ellas en igualdad
(activas).
29. Básicamente el procedimiento consiste en resolver el problema no lineal como
uno sin restricciones, luego si la solución óptima de dicho problema no cumple la
totalidad o parte de las restricciones del problema se activan dichas restricciones (en
conjunto y/o secuencialmente) y se resuelve nuevamente. Esto se repite hasta llegar
a un conjunto de restricciones activas cuya solución también satisface las
restricciones omitidas. Notar que si se han activado la totalidad de restricciones sin
encontrar una solución factible, entonces el problema es infactible.
No existe una única forma de abordar la resolución de un problema de
programación no lineal utilizando el teorema de KKT. Consideraremos la aplicación
de este teorema en este caso para problemas sólo con restricciones "<=" (menor o
igual). Si el problema tiene restricciones ">=" éstas se pueden transformar por "<="
multiplicando por -1.
30. El método o algoritmo de Frank Wolfe fue propuesto en 1956 por
Marguerite Frank y Philip Wolfe y se aplica a problemas de
optimización matemática con una función objetivo no lineal convexa
y cuyo dominio de soluciones factibles esta compuesto
exclusivamente por restricciones lineales, es decir, es un conjunto
convexo (en consecuencia el problema es convexo).