El documento describe varios métodos de optimización matemática como el método de Newton, Jacobi, Lagrange y Euler. Explica conceptos clave como función objetivo y restricciones. Además, presenta un procedimiento general para resolver problemas de optimización.
1. República Bolivariana de Venezuela
Instituto Universitario Politécnico “Santiago Mariño”
Porlamar. Estado Nueva Esparta
Sede Genoves
Teoría de optimización
Realizado por:
Br. Rebeca Ferrer
C.I.:24.695.638
Porlamar, Enero de 2017
2. Introducción
Las técnicas de optimización, conjuntamente con los sistemas informáticos,
se han convertido en una poderosa herramienta para el diagnóstico y solución de
múltiples problemas complejos, presentes en las ciencias de la administración,
convirtiéndose en elemento decisivo, que aporta elementos importantes en la toma de
decisiones.
En matemáticas, estadísticas, ciencias empíricas, ciencia de la computación, o
economía, optimización matemática o bien, optimización o programación
matemática, es la selección del mejor elemento con respecto a algún criterio de un
conjunto de elementos disponibles.
En el caso más simple, un problema de optimización consiste en maximizar o
minimizar una función real eligiendo sistemáticamente valores de entrada tomados
de un conjunto permitido y computando el valor de la función. La generalización de
la teoría de la optimización y técnicas para otras formulaciones comprende un área
grande de las matemáticas aplicadas. De forma general, la optimización incluye el
descubrimiento de los mejores valores de alguna función objetivo dado un dominio
definido, incluyendo una variedad de diferentes tipos de funciones objetivo y
diferentes tipos de dominios.
3. Técnicas de optimización clásica
Las técnicas de optimización son herramientas matemáticas que tienen como
objetivo la maximización de beneficios, digamos de la eficiencia de un proceso o la
minimización de esfuerzos o pérdidas, digamos de las pérdidas de un material para
elaborar un producto.
Dado que la medida de un esfuerzo requerido, medida de pérdidas o medida
de beneficios puede expresarse como una función (función objetivo) de varias
variables, el proceso de optimización se puede definir como el proceso de búsqueda
de aquellas variables que minimizan o maximizan el valor de la función.
El proceso de optimización con la búsqueda de la minimización o
maximización de una función objetivo se trata del mismo problema, simplemente
con el negativo de la función se obtiene el máximo o con la función se obtiene el
mínimo
Se puede decir que no existe un solo método para resolver todos los
problemas de optimización de forma eficiente, sino que se han desarrollado una gran
cantidad de métodos de optimización para resolver diferentes tipos de problemas.
Existen técnicas de optimización que se les conoce como técnicas de programación
matemática o determinísticas, técnicas estocásticas, técnicas estadísticas y técnicas
modernas.
√ Las técnicas determinísticas son muy útiles para encontrar el mínimo
de una función objetivo de varias variables bajo una serie de
restricciones pre-establecidas siendo las restricciones y las funciones,
lineal o no lineal.
√ Las técnicas estocásticas se pueden emplear para analizar problemas
descritos por un conjunto de variables aleatorias que tienen una
función de distribución de probabilidad.
4. √ Las técnicas estadísticas permiten analizar los problemas con datos
experimentales y la construcción de modelos empíricos para obtener
la representación más adecuada de la situación física que se quiere
optimizar.
√ Las técnicas modernas de optimización son algoritmos poderosos que
permiten resolver problemas tan complejos como el caso de
movimiento de masas o tendencias, entre otras, que se adecuaron para
ser aplicados a problemas de ingeniería.
Método de Newton
Es un algoritmo para encontrar aproximaciones de los ceros o raíces de una
función real. También puede ser usado para encontrar el máximo o mínimo de una
función, encontrando los ceros de su primera derivada
El método de Newton-Raphson es un método abierto, en el sentido de que no
está garantizada su convergencia global. La única manera de alcanzar la
convergencia es seleccionar un valor inicial lo suficientemente cercano a la raíz
buscada. Así, se ha de comenzar la iteración con un valor razonablemente cercano al
cero (denominado punto de arranque o valor supuesto). La relativa cercanía del punto
inicial a la raíz depende mucho de la naturaleza de la propia función; si ésta presenta
múltiples puntos de inflexión o pendientes grandes en el entorno de la raíz, entonces
las probabilidades de que el algoritmo diverja aumentan, lo cual exige seleccionar un
valor puesto cercano a la raíz. Una vez que se ha hecho esto, el método linealiza la
función por la recta tangente en ese valor supuesto. La abscisa en el origen de dicha
recta será, según el método, una mejor aproximación de la raíz que el valor anterior.
Se realizarán sucesivas iteraciones hasta que el método haya convergido lo
suficiente.
5. Función objetivo
La función objetivo es una relación matemática entre las variables de
decisión, parámetros y una magnitud que representa el objetivo o producto del
sistema. Es la medición de la efectividad del Modelo formulado en función de las
variables. Determina lo que se va optimizar Maximizar o Minimizar.
La solución ÓPTIMA se obtiene cuando el valor de la Función Objetivo es
óptimo (valor máximo o mínimo), para un conjunto de valores factibles de las
variables.
La función objetivo es la ecuación que será optimizada dadas las limitaciones
o restricciones determinadas y con variables que necesitan ser minimizadas o
maximizadas usando técnicas de programación lineal o no lineal.
F(x, y)= ax +by
Formas de la función objetivo
√ Ninguna solución óptima: se identifican infinidad de soluciones
factibles pero ningún punto como solución optima, porque siempre
habrá una mejor solución.
√ Exactamente una función optima: se identifican infinidad de
soluciones factibles pero solo un punto como solución óptima.
√ Una infinidad de soluciones óptimas: se identifican infinidad de
soluciones factibles y además soluciones óptimas múltiples.
Métodos de optimización
√ Newton Raspón: es un algoritmo para encontrar aproximaciones de los ceros
o raíces de una función real. Este método es uno de los mas utilizados para
6. localizar raíces ya que en general es muy eficiente y siempre converge para
una función polinomial. Se requiere que las funciones sean diferenciables, y
por tanto, continuas, para poder aplicar este método.
√ Jacobi: Cuando se resuelven numéricamente ecuaciones diferenciales pueden
surgir sistemas lineales con 20,000 variables. Los equipos de cómputo
disponibles en la actualidad podrían requerir incluso días para resolver estos
sistemas por métodos directos (como eliminación o factorización). El método
de Jácobi es un método iterativo con el cual se resuelve el sistema lineal. Un
sistema de ecuaciones algebraicas lineales es un conjunto de ecuaciones de la
forma:
En la solución de estos problemas pueden presentarse 3 casos:
1.- Solución única → Sistema compatible determinado.
2.- Mas de una solución → Sistema compatible e indeterminado. (Numero
infinito de soluciones)
3.- Sin solución → Sistema incompatible.
√ Lagrange: En los problemas de optimización, los multiplicadores de
Lagrange, nombrados así en honor a Joseph Louis Lagrange, son un método
para trabajar con funciones de varias variables que nos interesa maximizar o
minimizar, y está sujeta a ciertas restricciones. Este método reduce el
problema restringido en n variables en uno sin restricciones de n + 1 variables
cuyas ecuaciones pueden ser resueltas.
El primer paso consiste en determinar los puntos críticos para ello se forma la
función Lagrangeana:
F ( x, λ) = f ( x) + Xm j=1 λ j gj ( x )
Habiendo ubicado los puntos estacionarios viene el problema de determinar si
son máximos o mínimos locales.
√ Euler: Una ecuación diferencial es una ecuación en donde aparecen
funciones, sus derivadas, una o más variables independientes y una o mas
7. variables dependientes. El nombre es tradicional, sin embargo “ecuaciones en
derivadas” sería mas descriptivo. Estas se dividen en dos grupos:
1.- Ecuaciones Diferenciales Ordinarias (EDO) .- En donde aparece sólo una
variable independiente (que se denota con x).
2.- Ecuaciones Diferenciales Parciales (EDP) .- En las que aparece mas de
una variable independiente.
Procedimiento general para resolver un problema de optimización
Para resolver un problema de optimización de forma correcta vamos a
establecer una serie de pasos que nos harán más sencillo el planteamiento y la
resolución:
√ En primer lugar, establecemos cuál o cuáles son las incógnitas que nos
plantea el problema.
√ A continuación tenemos que buscar y plantear qué es lo que tenemos que
maximizar o minimizar: f(x,y)
√ Después buscamos la condición que se nos plantea. En la mayoría de los
problemas que nos encontremos, la función a maximizar o minimizar
dependerá de dos variables, por tanto la condición nos permitirá relacionar
estas dos variables para poner una en función de la otra.
√ Una vez, que hemos despejado una variable en función de la otra,
supongamos y en función de x. Sustituimos en nuestra función a optimizar,
quedándose ahora en función de una sola variable: f(x)
√ Derivamos la función y la igualamos a cero: f´(x)=0.
√ Una vez obtenidas las soluciones nos falta el último paso, comprobar si
realmente se trata de un máximo o un mínimo, para ello, realizamos la
segunda derivada de tal forma que: si f´´(x)0, entonces se trata de un mínimo.
√ El último paso, una vez que ya tenemos x, sería irnos al paso 3, donde
habíamos despejado y, y hallar el valor de y, y damos la solución.
8. Conclusión
√ El objetivo de la optimización global es encontrar la mejor solución de
modelos de decisiones difíciles frente a las múltiples soluciones locales
√ Los métodos de optimización clásica se basan principalmente en la búsqueda
de la solución más óptima de funciones objetivo continuas y diferenciables.
√ La comprensión de estos métodos permite entender más fácilmente el
funcionamiento de los métodos de optimización basados en técnicas
estocásticas, estadísticas y modernas.
√ Para la utilización de esta herramienta es necesario conocer su metodología
científica, así como poseer conocimientos mínimos de Matemáticas,
Estadística Matemática y en especial de Álgebra Lineal.