Instituto Universitario Politécnico Santiago
Mariño Extensión Maracay
Optimización de Sistemas y Funciones
Integrante
Azael Rodas
C.I. 22954610
La teoría de optimización clásica o programación
matemática está constituida por un conjunto de resultados y
métodos analíticos y numéricos enfocados a encontrar e
identificar al mejor candidato de entre una colección de
alternativas, sin tener que enumerar y evaluar
explícitamente todas esas alternativas. Un problema de
optimización es, en general, un problema de decisión
se puede definir como optimización, al proceso de
seleccionar a partir de un conjunto de alternativas
posibles, aquella que mejor satisfaga el o los objetivos
propuestos. Para resolver un problema de
optimización se requieren dos etapas principales: Es el
proceso que se realiza para mejorar el rendimiento de
una actividad o proceso, evitando así la pérdida de
tiempo y de datos. Es una forma de minimizar o
maximizar los costos o beneficios de una empresa o
de una función real.
CONCEPTOS
BASICOS DE
OPTIMIZACION
Formulación de un Problema de Optimización
Un procedimiento de optimización para la manipulación de las variables
independientes del proceso, que maximice las utilidades o minimice los costos
determinados por el modelo económico, restringido por el modelo del proceso.
se requieren tres componentes básicos que son: El modelo matemático que rige
el problema, además de una definición de las variables del proceso que se
pueden ser manipuladas o controladas.
Un modelo factible para el proceso, esto quiere decir una formula o ecuación que
incluye las utilidades obtenidas.
Función Objetivo
La función objetivo es una relación matemática entre las variables de decisión,
parámetros y una magnitud que representa el objetivo o producto del sistema
. Por ejemplo si el objetivo del sistema es minimizar los costos de operación, la
función objetivo debe expresar la relación entre el costo y las variables de decisión.
La solución ÓPTIMA se obtiene cuando el valor del costo sea mínimo para un
conjunto de valores factibles de las variables.
Es un procedimiento para encontrar los
máximos y mínimos de funciones de
múltiples variables sujetas a restricciones.
Este método reduce el problema
restringido con n variables a uno sin
restricciones de n + k variables, donde k es
igual al número de restricciones, y cuyas
ecuaciones pueden ser resueltas más
fácilmente. Estas nuevas variables
escalares desconocidas, una para cada
restricción, son llamadas multiplicadores
de LaGrange.
Métodos de Optimización
Método de LaGrange
Son condiciones necesarias y suficientes para que la solución de un
problema de programación matemática sea óptima. Es una
generalización del método de los Multiplicadores de LaGrange. Fue
creado con la finalidad de mostrar condiciones que no son sencillas de
verificar pero es posible mediante una serie de cálculos basados en
hipótesis de restricciones.
Métodos de
Optimización
Método Kuhn Tucker
Es una matriz formada por derivadas
parciales de primer orden de una función.
Una de las aplicaciones más interesantes
de esta matriz es la posibilidad de
aproximar linealmente a la función en un
punto. En este sentido, el Jacobiano
representa la deriva de una función
multivariable.
Métodos de
Optimización
Matriz Jacobiana
PROCEDIMIENTOS PARA RESOLVER UN PROBLEMA DE OPTIMIZACIÓN
Para resolver un problema de optimización de forma correcta vamos a establecer
una serie de pasos que nos harán más sencillo el planteamiento y la resolución:
1º. En primer lugar, establecemos cuál o cuáles son las incógnitas que nos plantea
el problema.
2º. A continuación tenemos que buscar y plantear qué es lo que tenemos que
maximizar o minimizar: f(x,y)
3º. Después buscamos la condición que se nos plantea. En la mayoría de los
problemas que nos encontremos, la función a maximizar o minimizar dependerá de
dos variables, por tanto la condición nos permitirá relacionar estas dos variables
para poner una en función de la otra.
4º. Una vez, que hemos despejado una variable en función de la otra, supongamos
y en función de x. Sustituimos en nuestra función a optimizar, quedándose ahora
en función de una sola variable: f(x)
5º. Derivamos la función y la igualamos a cero: f´(x)=0.
6º. Una vez obtenidas las soluciones nos falta el último paso, comprobar si
realmente se trata de un máximo o un mínimo, para ello, realizamos la segunda
derivada de tal forma que:
– si f´´(x)0, entonces se trata de un mínimo.
7º. El último paso, una vez que ya tenemos x, sería irnos al paso 3, donde
habíamos despejado y, y hallar el valor de y, y damos la solución.

Aza

  • 1.
    Instituto Universitario PolitécnicoSantiago Mariño Extensión Maracay Optimización de Sistemas y Funciones Integrante Azael Rodas C.I. 22954610
  • 2.
    La teoría deoptimización clásica o programación matemática está constituida por un conjunto de resultados y métodos analíticos y numéricos enfocados a encontrar e identificar al mejor candidato de entre una colección de alternativas, sin tener que enumerar y evaluar explícitamente todas esas alternativas. Un problema de optimización es, en general, un problema de decisión se puede definir como optimización, al proceso de seleccionar a partir de un conjunto de alternativas posibles, aquella que mejor satisfaga el o los objetivos propuestos. Para resolver un problema de optimización se requieren dos etapas principales: Es el proceso que se realiza para mejorar el rendimiento de una actividad o proceso, evitando así la pérdida de tiempo y de datos. Es una forma de minimizar o maximizar los costos o beneficios de una empresa o de una función real. CONCEPTOS BASICOS DE OPTIMIZACION
  • 3.
    Formulación de unProblema de Optimización Un procedimiento de optimización para la manipulación de las variables independientes del proceso, que maximice las utilidades o minimice los costos determinados por el modelo económico, restringido por el modelo del proceso. se requieren tres componentes básicos que son: El modelo matemático que rige el problema, además de una definición de las variables del proceso que se pueden ser manipuladas o controladas. Un modelo factible para el proceso, esto quiere decir una formula o ecuación que incluye las utilidades obtenidas.
  • 4.
    Función Objetivo La funciónobjetivo es una relación matemática entre las variables de decisión, parámetros y una magnitud que representa el objetivo o producto del sistema . Por ejemplo si el objetivo del sistema es minimizar los costos de operación, la función objetivo debe expresar la relación entre el costo y las variables de decisión. La solución ÓPTIMA se obtiene cuando el valor del costo sea mínimo para un conjunto de valores factibles de las variables.
  • 5.
    Es un procedimientopara encontrar los máximos y mínimos de funciones de múltiples variables sujetas a restricciones. Este método reduce el problema restringido con n variables a uno sin restricciones de n + k variables, donde k es igual al número de restricciones, y cuyas ecuaciones pueden ser resueltas más fácilmente. Estas nuevas variables escalares desconocidas, una para cada restricción, son llamadas multiplicadores de LaGrange. Métodos de Optimización Método de LaGrange
  • 6.
    Son condiciones necesariasy suficientes para que la solución de un problema de programación matemática sea óptima. Es una generalización del método de los Multiplicadores de LaGrange. Fue creado con la finalidad de mostrar condiciones que no son sencillas de verificar pero es posible mediante una serie de cálculos basados en hipótesis de restricciones. Métodos de Optimización Método Kuhn Tucker
  • 7.
    Es una matrizformada por derivadas parciales de primer orden de una función. Una de las aplicaciones más interesantes de esta matriz es la posibilidad de aproximar linealmente a la función en un punto. En este sentido, el Jacobiano representa la deriva de una función multivariable. Métodos de Optimización Matriz Jacobiana
  • 8.
    PROCEDIMIENTOS PARA RESOLVERUN PROBLEMA DE OPTIMIZACIÓN Para resolver un problema de optimización de forma correcta vamos a establecer una serie de pasos que nos harán más sencillo el planteamiento y la resolución: 1º. En primer lugar, establecemos cuál o cuáles son las incógnitas que nos plantea el problema. 2º. A continuación tenemos que buscar y plantear qué es lo que tenemos que maximizar o minimizar: f(x,y) 3º. Después buscamos la condición que se nos plantea. En la mayoría de los problemas que nos encontremos, la función a maximizar o minimizar dependerá de dos variables, por tanto la condición nos permitirá relacionar estas dos variables para poner una en función de la otra. 4º. Una vez, que hemos despejado una variable en función de la otra, supongamos y en función de x. Sustituimos en nuestra función a optimizar, quedándose ahora en función de una sola variable: f(x) 5º. Derivamos la función y la igualamos a cero: f´(x)=0. 6º. Una vez obtenidas las soluciones nos falta el último paso, comprobar si realmente se trata de un máximo o un mínimo, para ello, realizamos la segunda derivada de tal forma que: – si f´´(x)0, entonces se trata de un mínimo. 7º. El último paso, una vez que ya tenemos x, sería irnos al paso 3, donde habíamos despejado y, y hallar el valor de y, y damos la solución.