Este documento presenta una introducción a la dualidad y el análisis de sensibilidad en problemas de optimización. En primer lugar, explica cómo construir el problema dual asociado a un problema primal y algunos teoremas clave de dualidad. Luego, introduce el concepto de análisis de sensibilidad para determinar cómo varía la solución óptima ante cambios en los parámetros del problema. Finalmente, propone un problema de ejemplo sobre la maximización de ingresos por venta de arreglos florales sujeto a recursos disponibles.
El documento explica el método de integración por partes, el cual se basa en la derivada de un producto de funciones. Se presenta la fórmula para integrar por partes y una regla nemotécnica para recordarla. También se explica cómo determinar cuáles funciones serán u y dv dependiendo del tipo de función según la regla ALPES, y cómo aplicar la fórmula paso a paso con ejemplos.
El documento describe el Método Simplex para resolver problemas de optimización restringida. El Método Simplex es un proceso iterativo que comienza con una solución básica factible y mejora la solución en cada paso hasta alcanzar la solución óptima. El documento explica las fases del Método Simplex incluyendo estandarizar el modelo, determinar la solución básica inicial, construir la tabla inicial, encontrar la variable que entra y sale en cada iteración, y verificar cuando se alcanza la solución óptima.
Este documento describe el método de reducción de orden para encontrar la solución general de una ecuación diferencial lineal homogénea de segundo orden. El método involucra sustituir una segunda solución y2 en términos de una solución conocida y1, reduciendo así la ecuación a una de primer orden. Se presenta la fórmula para hallar y2 y se resuelven ejemplos para ilustrar el método.
El documento describe el proceso de resolución de un problema de programación lineal mediante el método simplex. Se maximiza la función objetivo Z = 3x1 + 2x2 sujeto a varias restricciones. Tras convertir las desigualdades en igualdades y establecer el tablero inicial, se realizan 3 iteraciones del método simplex que conducen a la solución óptima de x1 = 3, x2 = 12, s3 = 1.
El método simplex primal es una herramienta matemática para resolver problemas de optimización lineal mediante la construcción y solución de una matriz. Se identifican la función objetivo y restricciones, se construye un modelo de programación lineal en forma estándar y una matriz asociada, la cual se resuelve iterativamente mediante eliminación de Gauss-Jordan hasta alcanzar la solución óptima.
Este documento explica cómo resolver ecuaciones diferenciales de Bernoulli. Primero, la ecuación debe ponerse en forma ordinaria con un número real n distinto de cero. Luego, se sacan los valores p, q y w y se expresa en términos de la diferencial. Finalmente, se determina el factor integrante y se evalúa la ecuación aplicando la fórmula adecuada para resolverla.
El documento describe el método Simplex, desarrollado por George Dantzig en 1947 para resolver problemas de programación lineal. El método Simplex utiliza un algoritmo iterativo para encontrar la solución óptima (máxima o mínima) de una función sometida a restricciones lineales. Primero convierte las restricciones en ecuaciones lineales mediante la introducción de variables de holgura. Luego, recorre los vértices del espacio factible de forma eficiente hasta encontrar el vértice óptimo. Se presenta un ejemplo para ilustrar los pasos
Se muestra una descripcion d elos métdos mas simples de resolución de ecuaciones diferenciales de primer orden como ecuaciones separables y metodo de factor integrante. al final se anexan un par de palicaciones sobre ley de enfriamiento y moviemiento en medio resistente.
El documento explica el método de integración por partes, el cual se basa en la derivada de un producto de funciones. Se presenta la fórmula para integrar por partes y una regla nemotécnica para recordarla. También se explica cómo determinar cuáles funciones serán u y dv dependiendo del tipo de función según la regla ALPES, y cómo aplicar la fórmula paso a paso con ejemplos.
El documento describe el Método Simplex para resolver problemas de optimización restringida. El Método Simplex es un proceso iterativo que comienza con una solución básica factible y mejora la solución en cada paso hasta alcanzar la solución óptima. El documento explica las fases del Método Simplex incluyendo estandarizar el modelo, determinar la solución básica inicial, construir la tabla inicial, encontrar la variable que entra y sale en cada iteración, y verificar cuando se alcanza la solución óptima.
Este documento describe el método de reducción de orden para encontrar la solución general de una ecuación diferencial lineal homogénea de segundo orden. El método involucra sustituir una segunda solución y2 en términos de una solución conocida y1, reduciendo así la ecuación a una de primer orden. Se presenta la fórmula para hallar y2 y se resuelven ejemplos para ilustrar el método.
El documento describe el proceso de resolución de un problema de programación lineal mediante el método simplex. Se maximiza la función objetivo Z = 3x1 + 2x2 sujeto a varias restricciones. Tras convertir las desigualdades en igualdades y establecer el tablero inicial, se realizan 3 iteraciones del método simplex que conducen a la solución óptima de x1 = 3, x2 = 12, s3 = 1.
El método simplex primal es una herramienta matemática para resolver problemas de optimización lineal mediante la construcción y solución de una matriz. Se identifican la función objetivo y restricciones, se construye un modelo de programación lineal en forma estándar y una matriz asociada, la cual se resuelve iterativamente mediante eliminación de Gauss-Jordan hasta alcanzar la solución óptima.
Este documento explica cómo resolver ecuaciones diferenciales de Bernoulli. Primero, la ecuación debe ponerse en forma ordinaria con un número real n distinto de cero. Luego, se sacan los valores p, q y w y se expresa en términos de la diferencial. Finalmente, se determina el factor integrante y se evalúa la ecuación aplicando la fórmula adecuada para resolverla.
El documento describe el método Simplex, desarrollado por George Dantzig en 1947 para resolver problemas de programación lineal. El método Simplex utiliza un algoritmo iterativo para encontrar la solución óptima (máxima o mínima) de una función sometida a restricciones lineales. Primero convierte las restricciones en ecuaciones lineales mediante la introducción de variables de holgura. Luego, recorre los vértices del espacio factible de forma eficiente hasta encontrar el vértice óptimo. Se presenta un ejemplo para ilustrar los pasos
Se muestra una descripcion d elos métdos mas simples de resolución de ecuaciones diferenciales de primer orden como ecuaciones separables y metodo de factor integrante. al final se anexan un par de palicaciones sobre ley de enfriamiento y moviemiento en medio resistente.
El factor integrante es una función que, al multiplicar una ecuación diferencial de primer orden no exacta, la convierte en una ecuación exacta. Un factor integrante depende solo de la variable independiente x o solo de la variable dependiente y, y se puede encontrar integrando funciones separadas de x e y. El factor integrante preserva las soluciones de la ecuación original.
Este documento explica las ecuaciones diferenciales exactas. Para que una ecuación diferencial sea exacta, las derivadas parciales de sus funciones con respecto a cada variable deben ser iguales. Esto permite usar una fórmula básica para resolverla mediante integración. El documento también presenta un ejemplo paso a paso de cómo determinar si una ecuación es exacta y resolverla usando la fórmula general.
Este documento describe las ecuaciones diferenciales homogéneas. Explica que una ecuación es homogénea si los términos M y N tienen el mismo grado. Detalla dos métodos para determinar el grado: inspección y suma de exponentes. Finalmente, resume los pasos para resolver una ecuación diferencial homogénea mediante el cambio de variables y el método de variables separadas.
La resolución de problemas lineales con sólo dos o tres variables de decisión se puede ilustrar gráficamente, mostrándose como una ayuda visual para comprender muchos de los conceptos y términos que se utilizan y formalizan con métodos de solución más sofisticados, como por ejemplo el Método Simplex, necesarios para la resolución de problemas con varias variables. Para ello se puede usar el método Gráfico.
Aunque en la realidad rara vez surgen problemas con sólo dos o tres variables de decisión, es sin embargo muy útil esta metodología de solución e interpretación, en la que se verán las situaciones típicas que se pueden dar, como son la existencia de una solución óptima única, de soluciones óptimas alternativas, la no existencia de solución y la no acotación.
Solución de problemas en programación linealARLO SOLIS
El documento presenta dos ejercicios de programación lineal que deben resolverse utilizando los métodos de la gran M y de las dos fases. Se pide aplicar ambos métodos paso a paso para cada ejercicio, comparar los resultados y utilizar software de programación lineal. Finalmente, se solicita guardar los ejercicios resueltos y enviarlos para recibir retroalimentación.
El documento presenta el método de resolución de ecuaciones de Clairault. Resuelve un ejemplo aplicando el método y representando gráficamente las soluciones. Luego propone como ejercicio resolver otras ecuaciones de Clairault de forma similar.
Este documento presenta un método tabular para aplicar la integración por partes de manera sistemática. Propone usar la palabra "ILATE" para elegir las funciones u y dv, y representar la fórmula de integración por partes mediante un diagrama con tres columnas. Explica cómo usar este método en diferentes tipos de integrales como las que involucran funciones trigonométricas, exponenciales o polinomios.
Unmsm fisi - programación lineal - io1 cl03Julio Pari
Este documento presenta una introducción a la programación lineal. Explica que la programación lineal es una herramienta para resolver problemas de optimización donde las restricciones y función objetivo son funciones lineales. Luego describe las definiciones clave como función objetivo, restricciones, solución factible y solución óptima. Finalmente, presenta los principios básicos de la programación lineal como proporcionalidad, aditividad, divisibilidad y certidumbre.
El documento describe el diagrama de Pareto y el diagrama causa-efecto. El diagrama de Pareto es una gráfica que organiza datos por categorías en orden descendente para identificar las causas principales de un problema, usualmente el 20% de las causas son responsables del 80% del efecto. El diagrama causa-efecto muestra las relaciones entre causas y un efecto mediante una representación gráfica en forma de espina de pescado.
Es un resumen tomado de José Eligio Moisés Gutiérrez Arias
Facultad de Ciencias de la Electrónica, A.A.E. de Matemáticas y Nykolay Makarov Instituto de Ciencias, Laboratorio de F³sico-Química de Materiales.
Este documento describe el método de dos fases para resolver problemas de programación lineal. El método agrega variables auxiliares para obtener una solución factible inicial y luego resuelve el problema original. La fase 1 minimiza las variables auxiliares para encontrar una solución factible, y la fase 2 resuelve el problema original usando esa solución como punto de partida. El método se ilustra con un ejemplo de maximización con dos variables de decisión y dos restricciones.
La transformada de Laplace es una técnica matemática que convierte funciones de tiempo en funciones de una nueva variable llamada s. Se puede usar para resolver ecuaciones diferenciales y integrales lineales, especialmente aquellas con coeficientes constantes. La transformada de Laplace de una función f(t) se define como una integral impropia. Existen condiciones para que la transformada exista, como que la función sea continua por tramos y de orden exponencial.
Este documento describe cómo encontrar la solución general de una ecuación diferencial lineal no homogénea. Explica que primero se debe resolver la ecuación diferencial homogénea asociada para encontrar un conjunto fundamental de soluciones. Luego, se encuentra una solución particular de la ecuación no homogénea original. La solución general es la suma de las soluciones de la ecuación homogénea multiplicadas por constantes arbitrarias, más la solución particular.
Este documento explica cómo resolver ecuaciones diferenciales homogéneas. Primero, se debe verificar si la ecuación es homogénea evaluando si los términos M y N son funciones homogéneas del mismo grado. Luego, se realiza un cambio de variable sustituyendo x o y para dejar la ecuación en forma de variables separables que puede integrarse obteniendo la solución.
Ecuaciones diferenciales - Métodos de SoluciónKike Prieto
Este documento presenta métodos para resolver ecuaciones diferenciales, incluyendo variables separables, ecuaciones homogéneas y ecuaciones de coeficientes lineales. Define variables separables y muestra cómo integrarlas para obtener la solución general. Explica que las ecuaciones homogéneas pueden transformarse en variables separables mediante sustituciones adecuadas. Resuelve varios ejercicios como ejemplos de aplicación de estos métodos.
El método simplex se utiliza para resolver problemas de programación lineal estándar mediante la maximización o minimización de una función objetivo sujeta a restricciones. El método convierte las desigualdades en igualdades mediante la introducción de variables holgura y genera soluciones factibles iterativamente hasta alcanzar la solución óptima. Comienza con una tabla inicial simplex y selecciona la variable de entrada y salida en cada iteración para mejorar progresivamente el valor de la función objetivo.
Este documento presenta un resumen de las ecuaciones diferenciales con variables separables. Explica que este tipo de ecuaciones toman la forma de ∫f(x)dx + ∫f(y)dy y pueden resolverse separando las variables y luego integrando. Proporciona tres ejemplos resueltos de ecuaciones diferenciales con variables separables, mostrando los pasos para separar las variables y obtener la solución integral.
Ecuaciones Diferenciales - Ecuaciones de Segundo ordenKike Prieto
El documento presenta los objetivos y contenidos del capítulo 2 sobre ecuaciones diferenciales de segundo orden. Se explica cómo encontrar soluciones generales y particulares de este tipo de ecuaciones, así como su análisis cualitativo y estabilidad dinámica. Se detalla el tratamiento de ecuaciones homogéneas y no homogéneas con coeficientes constantes, incluyendo métodos para hallar las raíces de la ecuación auxiliar y las soluciones complementarias y particulares. Finalmente, se proponen algunos ejercicios resuelt
Este documento describe el método para resolver ecuaciones diferenciales de variables separables. Estas ecuaciones pueden factorizarse en la forma y'=f(x)g(y). El método implica: 1) factorizar la ecuación, 2) separar las variables, 3) integrar ambos lados para obtener la solución general. También presenta ejemplos de aplicación del método a ecuaciones específicas.
Este documento introduce las inecuaciones, que relacionan elementos mediante desigualdades. Presenta teoremas sobre desigualdades y define conceptos como valor absoluto. Explica cómo resolver inecuaciones mediante procedimientos algebraicos, tablas de signos y gráficamente. Finalmente, muestra ejemplos de inecuaciones para practicar estos métodos.
A) El problema dual permite resolver problemas lineales donde hay más restricciones que variables mediante la construcción de un modelo matemático alternativo. Resolver el problema dual proporciona automáticamente la solución del problema primal y viceversa.
B) Las condiciones de Kuhn-Tucker relacionan las soluciones óptimas de los problemas primal y dual.
C) La teoría de la dualidad tiene importancia porque facilita resolver problemas lineales de forma más rápida, profundizar en el análisis económico y considerar cambios en las variables del problema primal.
El factor integrante es una función que, al multiplicar una ecuación diferencial de primer orden no exacta, la convierte en una ecuación exacta. Un factor integrante depende solo de la variable independiente x o solo de la variable dependiente y, y se puede encontrar integrando funciones separadas de x e y. El factor integrante preserva las soluciones de la ecuación original.
Este documento explica las ecuaciones diferenciales exactas. Para que una ecuación diferencial sea exacta, las derivadas parciales de sus funciones con respecto a cada variable deben ser iguales. Esto permite usar una fórmula básica para resolverla mediante integración. El documento también presenta un ejemplo paso a paso de cómo determinar si una ecuación es exacta y resolverla usando la fórmula general.
Este documento describe las ecuaciones diferenciales homogéneas. Explica que una ecuación es homogénea si los términos M y N tienen el mismo grado. Detalla dos métodos para determinar el grado: inspección y suma de exponentes. Finalmente, resume los pasos para resolver una ecuación diferencial homogénea mediante el cambio de variables y el método de variables separadas.
La resolución de problemas lineales con sólo dos o tres variables de decisión se puede ilustrar gráficamente, mostrándose como una ayuda visual para comprender muchos de los conceptos y términos que se utilizan y formalizan con métodos de solución más sofisticados, como por ejemplo el Método Simplex, necesarios para la resolución de problemas con varias variables. Para ello se puede usar el método Gráfico.
Aunque en la realidad rara vez surgen problemas con sólo dos o tres variables de decisión, es sin embargo muy útil esta metodología de solución e interpretación, en la que se verán las situaciones típicas que se pueden dar, como son la existencia de una solución óptima única, de soluciones óptimas alternativas, la no existencia de solución y la no acotación.
Solución de problemas en programación linealARLO SOLIS
El documento presenta dos ejercicios de programación lineal que deben resolverse utilizando los métodos de la gran M y de las dos fases. Se pide aplicar ambos métodos paso a paso para cada ejercicio, comparar los resultados y utilizar software de programación lineal. Finalmente, se solicita guardar los ejercicios resueltos y enviarlos para recibir retroalimentación.
El documento presenta el método de resolución de ecuaciones de Clairault. Resuelve un ejemplo aplicando el método y representando gráficamente las soluciones. Luego propone como ejercicio resolver otras ecuaciones de Clairault de forma similar.
Este documento presenta un método tabular para aplicar la integración por partes de manera sistemática. Propone usar la palabra "ILATE" para elegir las funciones u y dv, y representar la fórmula de integración por partes mediante un diagrama con tres columnas. Explica cómo usar este método en diferentes tipos de integrales como las que involucran funciones trigonométricas, exponenciales o polinomios.
Unmsm fisi - programación lineal - io1 cl03Julio Pari
Este documento presenta una introducción a la programación lineal. Explica que la programación lineal es una herramienta para resolver problemas de optimización donde las restricciones y función objetivo son funciones lineales. Luego describe las definiciones clave como función objetivo, restricciones, solución factible y solución óptima. Finalmente, presenta los principios básicos de la programación lineal como proporcionalidad, aditividad, divisibilidad y certidumbre.
El documento describe el diagrama de Pareto y el diagrama causa-efecto. El diagrama de Pareto es una gráfica que organiza datos por categorías en orden descendente para identificar las causas principales de un problema, usualmente el 20% de las causas son responsables del 80% del efecto. El diagrama causa-efecto muestra las relaciones entre causas y un efecto mediante una representación gráfica en forma de espina de pescado.
Es un resumen tomado de José Eligio Moisés Gutiérrez Arias
Facultad de Ciencias de la Electrónica, A.A.E. de Matemáticas y Nykolay Makarov Instituto de Ciencias, Laboratorio de F³sico-Química de Materiales.
Este documento describe el método de dos fases para resolver problemas de programación lineal. El método agrega variables auxiliares para obtener una solución factible inicial y luego resuelve el problema original. La fase 1 minimiza las variables auxiliares para encontrar una solución factible, y la fase 2 resuelve el problema original usando esa solución como punto de partida. El método se ilustra con un ejemplo de maximización con dos variables de decisión y dos restricciones.
La transformada de Laplace es una técnica matemática que convierte funciones de tiempo en funciones de una nueva variable llamada s. Se puede usar para resolver ecuaciones diferenciales y integrales lineales, especialmente aquellas con coeficientes constantes. La transformada de Laplace de una función f(t) se define como una integral impropia. Existen condiciones para que la transformada exista, como que la función sea continua por tramos y de orden exponencial.
Este documento describe cómo encontrar la solución general de una ecuación diferencial lineal no homogénea. Explica que primero se debe resolver la ecuación diferencial homogénea asociada para encontrar un conjunto fundamental de soluciones. Luego, se encuentra una solución particular de la ecuación no homogénea original. La solución general es la suma de las soluciones de la ecuación homogénea multiplicadas por constantes arbitrarias, más la solución particular.
Este documento explica cómo resolver ecuaciones diferenciales homogéneas. Primero, se debe verificar si la ecuación es homogénea evaluando si los términos M y N son funciones homogéneas del mismo grado. Luego, se realiza un cambio de variable sustituyendo x o y para dejar la ecuación en forma de variables separables que puede integrarse obteniendo la solución.
Ecuaciones diferenciales - Métodos de SoluciónKike Prieto
Este documento presenta métodos para resolver ecuaciones diferenciales, incluyendo variables separables, ecuaciones homogéneas y ecuaciones de coeficientes lineales. Define variables separables y muestra cómo integrarlas para obtener la solución general. Explica que las ecuaciones homogéneas pueden transformarse en variables separables mediante sustituciones adecuadas. Resuelve varios ejercicios como ejemplos de aplicación de estos métodos.
El método simplex se utiliza para resolver problemas de programación lineal estándar mediante la maximización o minimización de una función objetivo sujeta a restricciones. El método convierte las desigualdades en igualdades mediante la introducción de variables holgura y genera soluciones factibles iterativamente hasta alcanzar la solución óptima. Comienza con una tabla inicial simplex y selecciona la variable de entrada y salida en cada iteración para mejorar progresivamente el valor de la función objetivo.
Este documento presenta un resumen de las ecuaciones diferenciales con variables separables. Explica que este tipo de ecuaciones toman la forma de ∫f(x)dx + ∫f(y)dy y pueden resolverse separando las variables y luego integrando. Proporciona tres ejemplos resueltos de ecuaciones diferenciales con variables separables, mostrando los pasos para separar las variables y obtener la solución integral.
Ecuaciones Diferenciales - Ecuaciones de Segundo ordenKike Prieto
El documento presenta los objetivos y contenidos del capítulo 2 sobre ecuaciones diferenciales de segundo orden. Se explica cómo encontrar soluciones generales y particulares de este tipo de ecuaciones, así como su análisis cualitativo y estabilidad dinámica. Se detalla el tratamiento de ecuaciones homogéneas y no homogéneas con coeficientes constantes, incluyendo métodos para hallar las raíces de la ecuación auxiliar y las soluciones complementarias y particulares. Finalmente, se proponen algunos ejercicios resuelt
Este documento describe el método para resolver ecuaciones diferenciales de variables separables. Estas ecuaciones pueden factorizarse en la forma y'=f(x)g(y). El método implica: 1) factorizar la ecuación, 2) separar las variables, 3) integrar ambos lados para obtener la solución general. También presenta ejemplos de aplicación del método a ecuaciones específicas.
Este documento introduce las inecuaciones, que relacionan elementos mediante desigualdades. Presenta teoremas sobre desigualdades y define conceptos como valor absoluto. Explica cómo resolver inecuaciones mediante procedimientos algebraicos, tablas de signos y gráficamente. Finalmente, muestra ejemplos de inecuaciones para practicar estos métodos.
A) El problema dual permite resolver problemas lineales donde hay más restricciones que variables mediante la construcción de un modelo matemático alternativo. Resolver el problema dual proporciona automáticamente la solución del problema primal y viceversa.
B) Las condiciones de Kuhn-Tucker relacionan las soluciones óptimas de los problemas primal y dual.
C) La teoría de la dualidad tiene importancia porque facilita resolver problemas lineales de forma más rápida, profundizar en el análisis económico y considerar cambios en las variables del problema primal.
Este documento presenta varios temas relacionados con la investigación de operaciones, incluyendo la teoría de dualidad, análisis de sensibilidad, modelos de transporte y métodos para resolver problemas de transporte. Explica que la teoría de dualidad establece que cada problema de programación lineal tiene un problema dual asociado, y que ambos problemas tienen la misma solución óptima. También describe el procedimiento para realizar un análisis de sensibilidad y varios métodos para resolver problemas de transporte como el método de la esquina noroeste.
Este documento introduce el concepto de análisis de sensibilidad y su importancia para la toma de decisiones gerenciales. Explica que el análisis de sensibilidad estudia cómo cambios en el modelo original afectan la solución óptima. También describe los conceptos clave de dualidad entre problemas primal y dual de programación lineal.
1) El documento explica el concepto de dualidad en programación lineal, donde un problema primal tiene asociado un problema dual matemáticamente relacionado.
2) Se describen las características y relaciones entre un problema primal de minimización y su correspondiente problema dual de maximización utilizando una tabla primal-dual.
3) El problema dual se obtiene sistemáticamente a partir del problema primal intercambiando variables y restricciones de acuerdo a las reglas de la tabla primal-dual.
Tema 6 Modelo Dual Simplex parte 2 03-09-23.pdfNoe Castillo
Este documento describe el método dual simplex para resolver problemas de programación lineal. Explica que el método dual simplex se aplica a problemas inicialmente factibles pero no óptimos. Luego detalla los criterios de factibilidad y optimalidad para seleccionar las variables que entran y salen de la base en cada iteración. Finalmente, presenta un ejemplo de maximización dual y define los pasos para construir el problema dual a partir del problema primal original.
El documento presenta la resolución de siete ejercicios de programación lineal mediante el algoritmo dual del simplex. Se incluye la teoría sobre el algoritmo dual del simplex y cómo se utiliza para resolver problemas irresolubles o aquellos que se complican al introducir variables artificiales. Cada ejercicio contiene el enunciado y la solución detallada aplicando los pasos del algoritmo dual del simplex.
El documento presenta una serie de ejercicios de investigación operativa resueltos. Incluye una breve introducción a los conceptos de algoritmo dual del simplex y dualidad para resolver problemas irresolubles, y analiza siete ejercicios de optimización lineal mediante el método del simplex.
El Método Simplex es un método iterativo para resolver problemas de programación lineal que permite mejorar la solución en cada paso moviéndose de un vértice a otro de un poliedro. Fue creado en 1947 y es capaz de resolver modelos más complejos que otros métodos. Permite maximizar o minimizar una función objetivo sujeto a restricciones de recursos.
Este documento resume varios conceptos clave sobre límites, incluyendo cómo sustituir valores en un límite, propiedades de límites, límites laterales, el teorema del emparedado, límites fundamentales, continuidad y el teorema del valor intermedio. También proporciona recursos adicionales en www.calculisto.com para practicar ejemplos y resolver dudas sobre límites.
Este documento resume el tema de la programación lineal II y la teoría de la dualidad. Explica cómo, dado un problema de programación lineal primal, se puede definir un problema dual asociado maximizando o minimizando funciones relacionadas. También presenta teoremas clave sobre las relaciones entre problemas primales y duales, y muestra ejemplos ilustrativos de su aplicación.
Este documento resume los principales problemas que pueden violar los supuestos del modelo de regresión clásico, como la multicolinealidad, errores de especificación, heteroscedasticidad y autocorrelación. Explica cómo la multicolinealidad ocurre cuando las variables explicativas están correlacionadas y cómo esto puede inflar la varianza de los parámetros estimados. También cubre posibles soluciones como agregar observaciones, restringir parámetros o eliminar variables.
Este documento describe la relación entre un problema de programación lineal primal y su correspondiente problema dual. Explica que para cada problema primal existe un problema dual asociado, y describe los pasos para convertir un problema primal en su forma dual. También incluye ejemplos numéricos que ilustran la conversión de un problema primal a su forma dual.
Este documento define la dualidad y explica la relación entre los problemas primal y dual en programación lineal. La dualidad se refiere a dos principios opuestos como el bien y el mal. En programación lineal, el problema dual está estrechamente relacionado con el problema primal original y tiene las mismas soluciones óptimas. El documento describe las características y elementos de los problemas primal y dual, como tener el mismo número de variables y restricciones pero en orden opuesto.
El documento presenta un resumen de conceptos básicos de programación lineal como función objetivo, variables de decisión, restricciones, solución factible, solución óptima, problema dual y métodos de resolución. Se trata de un trabajo para la asignatura de Investigación Operativa I en la carrera de Contabilidad y Auditoría de la Universidad Nacional de Chimborazo.
El documento presenta dos tipos de evaluación: las pruebas de respuesta alternativa y la resolución de problemas matemáticos. Las pruebas de respuesta alternativa consisten en proposiciones verdaderas o falsas con solo dos opciones de respuesta para evaluar conceptos, definiciones, relaciones causa-efecto y lógica. La resolución de problemas matemáticos evalúa los conceptos matemáticos, los errores matemáticos, y el razonamiento matemático usado para resolver problemas.
Este documento describe el método dual simplex para resolver problemas de optimización lineal que comienzan en un estado factible pero no óptimo. Explica que la variable saliente es aquella con el valor más negativo y la variable entrante se selecciona dividiendo los coeficientes entre los de la variable saliente. También define el problema dual sistemáticamente a partir del problema primal original y resume las reglas clave para construir el dual.
El documento describe cómo formular un problema dual a partir de un problema primal de programación lineal. Explica que el problema dual se construye sistemáticamente tomando los coeficientes de las restricciones del primal como coeficientes de la función objetivo dual, y los coeficientes del primal como restricciones del dual. También describe que la solución óptima de un problema proporciona automáticamente la solución óptima del otro, y que resolver el dual puede ser más eficiente si tiene menos restricciones que el primal.
El documento habla sobre la teoría de límites en matemáticas avanzadas. Explica que los límites son la herramienta principal del cálculo y que una función puede no estar definida en un punto pero aproximarse a un valor límite. También presenta ejemplos de cómo calcular límites usando métodos como la factorización y la regla de L'Hôpital para resolver indeterminaciones.
1. Universidad de Chile
Facultad de Ciencias F´
ısicas y Matem´ticas
a
Departamento de Ingenier´ Industrial
ıa
IN34A: Clase Auxiliar
Dualidad y An´lisis de Sensibilidad
a
Marcel Goic F.1
1
Esta es una versi´n bastante preliminar por lo que puede contar con numerosas faltas de ortograf´ y
o ıa
errores no forzados. Si encuentran alguno favor de denunciarlo a mgoic@ing.uchile.cl
2. IN34A: Optimizaci´n
o Pag. 1
1. Una brev´
ısima introducci´n.
o
Encontrar el ´ptimo de un problema de optimizaci´n, es solo una parte del proceso de
o o
soluci´n. Muchas veces nos interesar´ saber como var´ la soluci´n si var´ alguno de los
o a ıa o ıa
par´metros del problema que frecuentemente se asumen como determin´
a ısticos, pero que
tienen un caracter intr´
ınsicamente aleatorio. M´s especificamente nos interesar´ saber para
a a
que rango de los par´metros que determinan el problema sigue siendo valida la soluci´n
a o
encontrada.
Otro aspecto interesante es el tema de dualidad. Dualidad resulta de buscar relaciones que
permitan obtener informaci´n adicional de un problema de optimizaci´n general. Esto, tra-
o o
ducido a PL nos conduce a relaciones primal-dual. Adem´s veremos algunos teoremas utiles
a ´
de dualidad y el concepto de precio sombra.
2. Acerca de Dualidad
Todo problema de optimizaci´n (primal), tiene un problema asociado (dual) con numerosas
o
propiedades que los relacionan y nos permiten hacer un mejor an´lisis de los problemas. A
a
continuaci´n se describen los resultados que se ocupar´n en la resoluci´n de los problemas.
o a o
2.1. Construcci´n del problema dual
o
Bastante en general, para encontrar el dual de un problema lineal:
1. Si es problema de minimizaci´n el dual ser´ de maximizaci´n y viceversa.
o a o
2
2. En el dual habr´ tantas variables como restricciones
a en el primal.
3. En el dual habra tantas restricciones como variables en el primal.
4. Los coeficientes de la funci´n objetivo del dual vendr´n dados por los coeficientes del
o a
lado derecho de las restricciones del primal.
5. Los coeficientes del lado derecho del dual vendr´n dados por los coeficientes de la
a
funci´n objetivo del primal.
o
6. Los coeficientes que acompa˜ar´n a las variable en una restriccion del dual correspon-
n a
der´n a aquellos coeficientes que acompa˜an a la variable primal correspondiente a la
a n
restriccion dual 3 .
7. Para saber si las restricciones duales son de ≤, = ´ ≥, se recurre a la tabla de relaciones
o
primal-dual.
2
Suponemos restricciones l.i
3
O si se prefiere, los coeficeintes ser´n el resultado de transponer la matriz A de coeficientes
a
3. IN34A: Optimizaci´n
o Pag. 2
8. Para saber si las variables duales son ≤ 0, = 0 ´ ≥ 0, se recurre a tabla de relaciones
o
primal dual.
Relaciones Primal-Dual
Estas relaciones nos permiten pasar de un problema de primal a su dual en forma bastante
algor´
ıtmica, tanto para problemas de minimizaci´n como de maximizaci´n.
o o
´ ´
PROBLEMA DE MINIMIZACION PROBLEMA DE MAXIMIZACION
Restricciones Variables
≥ ≥0
= Irrestricta
≤ ≤0
Variables Restricciones
≥0 ≤
Irrestricta =
≤0 ≥
2.2. Algunos teoremas de dualidad
Consideremos el siguiente par primal-dual:
(P ) m´ın z = c·x (D) m´x
a w = y·b
t
s.a A · x ≥ b s.a A · y ≤ c
xi ≥ 0 yi ≥ 0
Teorema D´bil de Dualidad
e
Si x e y son factibles para (P ) y (D) respectivamente, entonces z(¯) ≥ w(¯).
¯ ¯ x y
Teorema Fundamental de Dualidad4
Dados un par de problemas primal-dual, si uno de ellos admite soluci´n ´ptima, en-
o o
tonces el otro tambien la admite y los respectivos valores ´ptimos son iguales.
o
Teorema de Holgura Complementaria
α1·
α2·
Sea β·1 β·2 · · · β·n = . una matriz de m filas y n columnas.
.
.
αm·
Sea el par primal-dual siguiente:
4
Tambi´n conocido como teorema fuerte de dualidad
e
4. IN34A: Optimizaci´n
o Pag. 3
(P ) m´ın z = c·x (D) m´x
a w = y·b
s.a αi · x ≥ bi s.a βj · y ≤ cj
xi ≥ 0 yi ≥ 0
Sean x e y soluciones factibles para los problema (P) y (D) respectivamente. x e y son
¯ ¯ ¯ ¯
o
´ptimos si y solo si:
i) (αi · x − bi ) · yi = 0
¯ ¯ i=1,...,m.
ii) (cj − y · βj ) · xj = 0
¯ ¯ j=1,...,n.
Obs:Notar que (αi · x − bi ) y (cj − y · βj ) son las variable de holgura de los problemas
¯ ¯
(P) y (D) respectivamente.
2.3. Acerca de los precios sombra
Los valores de las variables duales en el ´ptimo tienen una interpretaci´n econ´mica intere-
o o o
sante en problemas de programaci´n lineal: Corresponde a las tasas marginales de variaci´n
o o
del valor de la funci´n objetivo ante variaciones unitarias del lado derecho de una restricci´n.
o o
Por este motivo se le llama precio sombra al vector de variables duales en el ´ptimo.
o
3. Acerca de sensibilidad
Como ya se dijo, nos interesa ver como se ve afectada la soluci´n de un problema de opti-
o
mizaci´n si cambia alguno de los par´metros del problema. En este ´mbito, podemos distin-
o a a
guir 2 tipos de an´lisis:
a
Analisis de sensibilidad: Consiste en determinar cual es el rango de variaci´n de los
o
par´metros del problema de modo que la base ´ptima encontrada siga siendo ´ptima.
a o o
Analisis post optimal: Consiste en determinar como var´ la base ´ptima si cambia
ıa o
alguno de los par´metros del problema.
a
En la presente sesi´n nos concentraremos en an´lisis de sensibilidad dejando el an´lisi post
o a a
optimal para un poco mas adelante.
Consideremos la forma estandar siguiente:
(P ) m´ın z = c·x
s.a A · x = b
x ≥ 0
5. IN34A: Optimizaci´n
o Pag. 4
Sea B la base ´ptima. Nos interesa estudiar el rango de variaci´n de los parametros c y b de
o o
5
modo que B siga siendo ´ptima .
o
Variaci´n en el parametro b.
o
Buscamos el rango en el que puede tomar valores b de modo que la base B siga siendo
o
´ptima. Para ello debemos verificar:
1. Factibilidad: xB = B −1 b ≥ 0
2. Optimalidad: cR = cR − cB B −1 R ≥ 0
¯
Como en la ecuaci´n 2. no hay dependencia explicita de b, no impone condiciones y
o
por tanto solo debemos verificar 1.
Variaciones en el parametro c
Buscamos el rango en el que puede tomar valores c de modo que la base B siga siendo
o
´ptima. Para ello debemos verificar:
1. Factibilidad: xB = B −1 b ≥ 0
2. Optimalidad: cR = cR − cB B −1 R ≥ 0
¯
Como en la ecuaci´n 1. no hay dependencia explicita de b, no impone condiciones y
o
por tanto solo debemos verificar 2. Notemos que al variar un coeficiente de cj a cj e
ˆ
imponer la condici´n 2. surgen dos casos:
o
• Caso 1: variable xj es no b´sica.
a
−1
cj = cj − cB B βj
¯ ˆ cambia.
−1
ck = ck − cB B βk
¯ no cambia (i = j).
Por lo tanto s´lo tenemos que imponer 1 ecuaci´n: la de costo reducido asociado
o o
a variable que cambi´.
o
• Caso 2: variable xj es b´sica.
a
−1
ck = ck − cB B βk
¯ ¯ ˆ puede cambiar ∀ k.
Por lo tanto, no basta con examinar una unica ecuaci´n y se debe inspeccionar
´ o
todas las ecuaciones de costo reducido. As´
ı:
◦ Si cambia cj de variable no b´sica se impone cj ≥ 0.
a ¯
◦ Si cambia cj de variable b´sica se impone ck ≥ 0 ∀ xk no b´sica.
a ¯ a
5
En rigor, tambien podr´ interesarnos estudiar otras situaciones como por ejemplo variaciones en los
ıa
coeficientes de la matriz A, o que pasar´ si agregamos una nueva variable, etc. Sin embargo, por el momento
ıa
s´lo estudiaremos estos 2 casos cl´sicos
o a
6. IN34A: Optimizaci´n
o Pag. 5
4. Problemas
4.1. Problema 1
Una florista sabe hacer solo 2 tipos distintos de arreglos florales (x1 y x2 ) para los
cuales dispone de 3 tipos distintos de flores: rozas, tulipanes e ibizcos. Los requerimientos
de flores para cada arreglo, la disponibilidad de flores y los precios de cada arreglo vienen
dados por:
FLORES x1 x2 DISPONIBILIDAD
Rozas 3 1 300
Tulipanes 1 1 140
Ibizcos 1 3 300
PRECIO 2000 1000 -
1. Formule un PPL que resuelva el problema de maximizaci´n de ingresos por ventas
o
sujeto a la disponibilidad de recursos.
2. ¿Cual es el problema dual asociado? ¿Que situaci´n podr´ estar optimizando?
o ıa
3. Usando el teorema de holgura complementaria, encuentre el ´ptimo del problema dual
o
sabiendo que el ´ptimo primal viene dado por (x1 = 80, x2 = 60).
o
4. Suponga que retorna frustrado despu´s que una bella dama le cerrara la puerta cuando
e
usted le llevaba amablemente una rosa, un tulip´n y un ibizco 6 . Si se encuentra con
a
la florista, ¿Cuanto cree que estar´ dispuesta a pagar ella por sus flores?
ıa
Soluci´n
o
1. A estas alturas del curso, todos debieran de poder modelar un problema tan sencillo
como este por lo que ahorrar´ comentarios:
e
m´x z = 2000x1 + 1000x2
a
s.a 3x1 + x2 ≤ 300
x1 + x2 ≤ 140
x1 + 3x2 ≤ 300
x 1 , x2 ≥ 0
6
Dependiendo el caso, puede alternativamente imaginar que es usted una bella dama quien cerr´ la puerta
o
a un apuesto varon sin antes haberse quedado con las flores :)
7. IN34A: Optimizaci´n
o Pag. 6
2. Para encontrar el dual, procedemos como se describi´ en la introducci´n teorica de esta
o o
clase aplicando las relaciones de dualidad:
m´ w = 300y1 + 140y2 + 300y3
ın
s.a 3y1 + y2 + y3 ≥ 2000
y1 + y2 + 3y3 ≥ 1000
y 1 , y2 , y3 ≥ 0
Esta formulaci´n resuelve el problema de un agente externo que quiere saber que precio
o
unitario ofrecer por cada una de las flores si quiere comprarle todas las flores a la
florista. As´ y1 , y2 e y3 son los precios asociados a las rozas, tulipanes e ibizcos.
ı,
3. La florista ha encontrado su combinaci´n ´ptima (¯1 = 80, x2 = 60). Sabemos que en el
o o x ¯
o
´ptimo se cumple el teorema de holgura complementaria. Entonces, podemos aplicarlo:
a) (3¯1 + x2 − 300) · y1 = 0
x ¯ ¯
b) (¯1 + x2 − 140) · y2 = 0
x ¯ ¯
c) (¯1 + 3¯2 − 300) · y3 = 0
x x ¯
d ) (2000 − 3¯1 − y2 − y3 ) · x1 = 0
y ¯ ¯ ¯
e) (1000 − y1 − y2 − 3¯3 ) · x2 = 0
¯ ¯ y ¯
Como x1 = 80 y x2 = 60, se tiene que:
¯ ¯
a) ⇒ y1 ∈ R
¯
b) ⇒ y2 ∈ R
¯
c) ⇒ y3 = 0
¯
d ) ⇒ 3¯1 + y2 = 2000
y ¯
e) ⇒ y1 + y2 = 1000
¯ ¯
Resolviendo el sistema:
y1 = 500
¯ y2 = 500
¯ y3 = 0
¯
Notar que z(¯) = w(¯) = 220000
x y
¿Como se interpreta esto?. La florista vender´ rosas y tulipanes a un precio de $500
a
cada una y entregar´ como oferta los ibizcos gratis, pero esto solo si se vende todo
a
como un paquete. Esto toma sentido pues si vende todas las rosas y tulipanes (dado
que solo sabe hacer los arreglos florales descritos) no podr´ sacarle provecho alguno a
a
los ibizcos.
8. IN34A: Optimizaci´n
o Pag. 7
4. Asumiendo los paradigmas de competencia perfecta7 , la florista ofrecer´ por las flores
a
una cantidad identica a lo que ella ganar´ por ellas. Este valor viene dado nuevamente
ıa
por los ´ptimos duales o precios sombras:
o
y1 = 500
¯ y2 = 500
¯ y3 = 0
¯
En efecto y para reforzar lo dicho, en el ´ptimo se tendr´ que:
o a
z ∗ = cB B ∗ −1 b − cR xR
¯
no b´sica
a
∗
= π b− cR · xR
¯
no b´sica
a
Entonces
∂z ∗
= cB B ∗ −1 = πi
·i
∗
∂bi
4.2. Problema 2
Considere el cl´sico problema de combinaci´n de productos sujeto a restricciones de disponi-
a o
bilidad de recursos:
m´x z = x1 + 3x2
a
s.a x1 + 4x2 ≤ 100
x1 + 2x2 ≤ 60
x1 + x2 ≤ 50
x 1 , x2 ≥ 0
1. Realice un an´lisis de sensibilidad para el vector del lado derecho de las restricciones.
a
2. Realice un an´lisis de sensibilidad para el vector de coeficientes de la funci´n objetivo.
a o
3. Suponga que se evalua la posibilidad de fabricar un nuevo producto xnuevo de modo
que el problema queda descrito como
m´x z = x1 + 3x2 + xnuevo
a
s.a x1 + 4x2 + 5xnuevo ≤ 100
x1 + 2x2 + 3xnuevo ≤ 60
x1 + x2 + 2xnuevo ≤ 50
x1 , x2 , xnuevo ≥ 0
7
Es decir, que el precio de transacci´n de un bien es tal todos los agentes quedan indiferentes
o
9. IN34A: Optimizaci´n
o Pag. 8
¿Sigue siendo ´ptima la soluci´n anteriormente planteada?
o o
Hint: En el ´ptimo, la base esta formada por las variables x1 , x2 y x5 , en donde se
o
han asignado las variables x3 , x4 y x5 como holgura de las restricciones seg´n el orden
u
enunciado.
Soluci´n
o
Antes de cualquier cosa, pasamos a forma estandar:
m´ z = −x1 − 3x2
ın ˜
s.a x1 + 4x2 + x3 = 100
x1 + 2x2 + x4 = 60
x1 + x2 + x5 = 50
x 1 , x 2 , x3 , x 4 , x5 ≥ 0
De la indicaci´n.
o
x1 x2 x5
1 4 0 −1 2 0
B ∗ = 1 2 0 ⇒ B ∗ −1 = 1/2 −1/2 0
1 1 1 1/2 −3/2 1
1. Ante variaciones de b, ya dijimos que solo tenemos que verificar factibilidad:
−1 2 0 b1
B ∗ −1 · b = 1/2 −1/2 0 b2 ≥ 0
1/2 −3/2 1 b3
Un an´lisis general nos conducir´ a un espacio de soluciones en R3 . Sin embargo,
a ıa
lo usual es analizar la variaci´n de la disponibilidad de un recurso dejando los otros
o
constantes (ceteris paribus).
b1 :
−1 2 0 b1 −b1 + 120
1/2 −1/2 0 60 = b1 − 30 ≥ 0
2
b1
1/2 −3/2 1 50 2
− 40
Entonces, la inecuaci´n vectorial nos entrega 3 inecuaciones escalares que final-
o
mente imponen que:
80 ≤ b1 ≤ 120
10. IN34A: Optimizaci´n
o Pag. 9
b2 :
−1 2 0 100 −100 + 2b2
1/2 −1/2 0 b2 = 50 − b22 ≥0
1/2 −3/2 1 50 50 − 3b2 + 500
2
Entonces, la inecuaci´n vectorial nos entrega 3 inecuaciones escalares que final-
o
mente imponen que:
200
50 ≤ b2 ≤
3
b3 :
−1 2 0 100 −100 + 120
1/2 −1/2 0 60 = 50 − 30 ≥ 0
1/2 −3/2 1 b3 50 − 90 + b3
Entonces, la inecuaci´n vectorial nos entrega s´lo una inecuaci´n con dependencia
o o o
de b3 , la que nos dice que:
b3 ≤ 40
2. Como ya se argument´, ahora solo nos preocuparemos de la condici´n de optimalidad:
o o
−1
cR = cR − cB B R ≥ 0. Al igual que el caso anterior, se estudiar´ la sensibilidad de
¯ a
los parametros independientemente.
c1 : x1 es b´sica, entonces tenemos que considerar todos los costos reducidos.
a
(¯3 , c4 ) = (c3 , c4 ) − (c1 , c2 , c5 )B −1 R
c ¯
−1 2 0 1 0
= (0, 0) − (−c1 , −3, 0) 1/2 −1/2 0 0 1
1/2 −3/2 1 0 0
−1 2
= (0, 0) − (−c1 , −3, 0) 1/2 −1/2
1/2 −3/2
= −(c1 − 3/2, −2c1 + 3/2) ≥ (0, 0)
Entonces
3/4 ≤ c1 ≤ 3/2
11. IN34A: Optimizaci´n
o Pag. 10
c2 : x2 tambien es b´sica y por lo tanto tenemos que considerar todos los costos
a
reducidos.
(¯3 , c4 ) = (c3 , c4 ) − (c1 , c2 , c5 )B −1 R
c ¯
−1 2 0 1 0
= (0, 0) − (−1, −c2 , 0) 1/2 −1/2 0 0 1
1/2 −3/2 1 0 0
−1 2
= (0, 0) − (−1, −c2 , 0) 1/2 −1/2
1/2 −3/2
c2 c2
= −(1 − , −2 + ) ≥ (0, 0)
2 2
Entonces
2 ≤ c2 ≤ 4
Obs:An´lisis para c3 , c4 y c5 no tienen sentido para este problema pues las vari-
a
ables asociadas son las de holgura. De todas formas, el procedimiento es an´logo
a
(con la diferencia que cuando es variable no b´sica podr´ hacerse menos calcu-
a ıan
los).
3. Adelantando un poco, este problema cabe dentro de an´lisis post optimal pues vere-
a
mos cual es nuevo ´ptimo para una variaci´n dada del los parametros del problema.
o o
Claramente la incorporaci´n de este nuevo producto, como no se esta produciendo
o
(xnuevo = 0), no viola la factibilidad del problema. Luego, s´lo tenemos que verificar la
o
o
´ptimalidad:
−1 2 0 5 1 0
(¯nuevo , c3 , c4 ) = (−1, 0, 0)(−1, −3, 0) 1/2 −1/2 0 3 0 1
c ¯ ¯
1/2 −3/2 1 2 0 0
= −(3, 1/2, 1/2) ≥ (0, 0)
.·. La base sigue siendo ´ptima.
o
Obs: En mas de alguna parte habr´n le´ que dualidad es una poderosa herramienta de
a ıdo
an´lisis de sensibilidad y post optimal, pero sin embargo nunca la hemos usado con esos
a
propositos. En efecto, la parte 3. de este problema es equivalente a la verificaci´n de una
o
unica condici´n dada por la restricci´n dual asociada a la nueva variable xnuevo :
´ o o
5¯1 + 3¯2 + 3¯3 ≥ 1
y y y
y1 , y2 e y3 son los valores ´ptimos del problema original y se determinan a partir de la
¯ ¯ ¯ o
soluci´n primal.
o
12. IN34A: Optimizaci´n
o Pag. 11
4.3. Problema 3
Comente acerca de la veracidad o falsedad de las siguientes aseveraciones:
1. Si un problema de programaci´n lineal es infactible su dual es necesariamente no aco-
o
tado.
2. Si conozco la soluci´n ´ptima de un PPL, tengo inmediatamente el valor de la funci´n
o o o
objetivo ´ptima del problema dual asociado sin necesidad de utilizar el teorema de
o
holgura complementaria.
3. Si conozco los precios sombra de un problema de programaci´n lineal puedo reconstruir
o
directamente la soluci´n (primal) de este problema.
o
4. El precio sombra de toda restricci´n inactiva es cero.
o
5. Hacer an´lisis de sensibilidad corresponde a utilizar la informaci´n dada por la resolu-
a o
ci´n de un PPL para ver como seri´ la nueva soluci´n si var´ alguno de los par´metros
o a o ıa a
del problema.
Soluci´n
o
1. Falso ya que el problema dual puede ser infactible.
2. Verdadero porque se tendra que el valor de la funci´n objetivo dual ´ptima coin-
o o
cidir´ con el valor de la funci´n objetivo primal ´ptima.
a o o
3. Verdadero pues el vector de precios sombras es el vector de variables duales ´ptimas.
o
Luego, puedo aplicar el teorema de holgura complementaria para recuperar la soluci´n
o
primal.
4. Verdadero. Basta aplicar el teorema de holgura complementaria. Otra forma de verlo
es a trav´s de un problema de producci´n (combinaci´n de productos): Al aumentar
e o o
marginalmente la disponibilidad de un recurso sobre el cual tenemos holguras, no nos
aporta ning´n aumento de los beneficios.
u
5. Falso. Eso corresponder´ a an´lisis post optimal. An´lisis de sensibilidad estudia las
ıa a a
condiciones que deben darse sobre los par´metros para que la soluci´n siga siendo
a o
o
´ptima.