BIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdf
Optimizacion josreny
1. República Bolivariana de Venezuela
Ministerio del Poder Popular para la Educación Superior
Instituto Universitario Politécnico
´´Santiago Mariño´´
OPTIMIZACIÓN DE SISTEMAS
Y FUNCIONES
Docente: Autor:
Ysabel Flores Josreny Botardo
C. I: 20.897.038
2. En matemáticas, estadísticas, ciencias
empíricas, ciencia de la computación, o
economía, optimización matemática (o bien,
optimización o programación matemática) es
la selección del mejor elemento (con
respecto a algún criterio) de un conjunto de
elementos disponibles.
3. La formulación de un problema de
optimización puede ser de la siguiente
manera:
Buscar: un elemento x0 en A tal que f(x0) ≤
f(x) para todo x en A ("minimización") o tal
que f(x0) ≥ f(x) para todo x en A
("maximización").
4. Tal formulación es llamada un problema de
optimización o un problema de programación
matemática . Muchos problemas teóricos y del
mundo real pueden ser modelados mediante este
esquema general.
Problemas formulados usando esta técnica en los
campos de física y visión por computadora se
refieren a la técnica como minimización de la
energía, hablando del valor de la función f
representando la energía del sistema que está
siendo modelado.
5. Por convenio, el formato estándar de un problema de
optimización está declarado en términos de minimización.
Generalmente, a menos que ambas, la función objetivo y la
región factible sean convexas en un problema de
minimización, puede haber varios mínimos locales, donde un
mínimo local x* se define como un punto para el cual existe
algún δ > 0, donde para todo x tal que
Es verdadera; es decir, en alguna región alrededor de x*
todos los valores de la función son mayores que o iguales al
valor en ese punto. El máximo local se define de modo
similar.
6. La función objetivo es la ecuación que será optimizada
dadas las limitaciones o restricciones determinadas y
con variables que necesitan ser minimizadas o
maximizadas usando técnicas de programación lineal o
no lineal.
7. Métodos de Optimización Método Numérico
Método de Newton
Método de la Secante
Métodos de Eliminación
de Regiones
Método de la Sección
Dorada
Método de Fibonacci
Optimización de
Funciones Multivariables
8. Los métodos numéricos son técnicas
mediante las cuales es posible formular
problemas de tal forma que sean resueltos
con operaciones aritméticas. Aunque hay
muchos tipos de métodos, todos comparten
una característica común, llevan a cabo un
buen número de cálculos aritméticos y
emiten soluciones aproximadas.
9. El método de Newton consiste de la
siguiente manera:
10. • El método de la secante consiste de la
siguiente manera:
11. Los métodos de eliminación de regiones se basan
en eliminar una región, en cada etapa del intervalo
en el que está comprendido el mínimo. Cuando la
región posible es suficientemente pequeña la
búsqueda termina. El elemento básico dentro de
los métodos de eliminación de regiones es la
comparación de valores de f(x) en dos o más
puntos dentro del intervalo de x.
Los métodos más eficientes de búsqueda por
eliminación de regiones son los métodos de la
sección dorada y Fibonacci.
12.
13. La búsqueda o método de la sección dorada es
una técnica para hallar el extremo (mínimo o
máximo) de una función unimodal, mediante
reducciones sucesivas del rango de valores en
el cual se conoce el intervalo.
Función unimodal F(x)= X2-X
Intervalo [0,2]
L0 = b0 – τ ( b0 - a0)
r0 = a0 + τ ( b0 - a0)
τ= 0.618
14. El método de búsqueda de Fibonacci es
utilizado para obtener un punto óptimo en
funciones no diferenciables sin utilizar
derivadas es decir, que no sean derivables
en el intervalo (a,b). Este método es muy
eficiente para aproximar, bajo cierto margen
de error, un punto máximo o mínimo en
funciones unimodales
15. Para la aplicación de estos métodos solamente
es necesario conocer el valor de la función
objetivo en cualquier punto del espacio y no
necesitamos ninguna hipótesis adicional acerca
de la diferenciabilidad de la función. Métodos
indirectos Los métodos indirectos hacen uso de
derivadas en la determinación de las
direcciones de búsqueda. Una buena dirección
de búsqueda debería reducir la función
objetivo, entonces si x0 es el punto inicial y x1
es el nuevo punto: f(x1)<f(x0).
16. Para resolver un problema de optimización, lo primero es
construir la función a maximizar o minimizar, y conseguir
que ésta dependa de una sola variable.
Si en el contexto del problema aparecen más de una
variable, habrá que buscar alguna relación entre ellas de
entre los datos que nos aporte el problema. Una vez
encontrada esta relación, se tiene que despejar y sustituir
en la función para que esta sí dependa ya de una sola
variable.
Los valores candidatos a ser solución de un problema de
optimización se obtienen derivando la función, igualando a
cero la derivada y resolviendo la ecuación.
17. Esos valores se llaman puntos críticos de la
función.
Para comprobar si es la solución, aplicamos la
regla de la segunda derivada o el estudio de la
monotonía para comprobar si es máximo o
mínimo.
En muchos problemas, hay que examinar los
extremos del verdadero dominio dentro del
contexto y comparar el valor en esos puntos
con el que hemos obtenido en el extremo
relativo.