El documento trata sobre la optimización de sistemas y funciones. Explica conceptos básicos como optimización, sistemas y funciones. Luego describe métodos de optimización como Newton-Raphson, Jacobi, Lagrange y Euler. Finalmente presenta un ejercicio propuesto sobre encontrar la cantidad de dinero que maximice la rentabilidad de un plan de inversión y resuelve el ejercicio.
Concepto y definición de tipos de Datos Abstractos en c++.pptx
Optimización de sistemas y funciones: conceptos, métodos y ejemplos.
1. OPTIMIZACIÓN DE
SISTEMAS Y FUNCIONES.
REPUBLICA BOLIVARIANA DE VENEZUELA
INSTITUTO UNIVERSITARIO POLITECNICO “SANTIAGO MARIÑO”
EXTENSIÓN MARACAY
OPTIMIZACIÓN DE SISTEMAS Y FUNCIONES.
Conceptos básicos, métodos y ejemplos.
Autora: Nahilin Ochoa
CI: 23.791.664
Profesora: Ysabel Flores.
2. CONCEPTOS BÁSICOS
OPTIMIZACIÓN: Es la selección del mejor
elemento (con respecto a algún criterio) de
un conjunto de elementos disponibles.
SISTEMAS: Un sistema es un conjunto de
partes o elementos organizadas y
relacionadas que interactúan entre sí para
lograr un objetivo.
FUNCIONES: Las funciones son entidades
matemáticas que asignan valores de salida
únicos a valores de entrada dados.
La Optimización de sistemas y
funciones, se basa en sincronía
de procesos y pequeños
ajustes, destinados a personas
u organizaciones que posean
medianos o grandes sistemas,
requieran reducir sus tiempos
de procesamiento.
3. FUNCIÓN OBJETIVO
Es la ecuación que será optimizada dadas las limitaciones o restricciones
determinadas y con variables que necesitan ser minimizadas o
maximizadas usando técnicas de programación lineal o no lineal.
Ninguna Solución Óptima: Se identifican infinidad de soluciones factibles pero
ningún punto como solución óptima, porque siempre habrá una mejor solución.
Formas de la función objetivo
f(x,y) = ax + by.
Exactamente una función óptima: Se identifican infinidad de soluciones
factibles pero solo un punto como solución óptima.
Una infinidad de soluciones óptimas: Se identifican infinidad de soluciones
factibles y además soluciones óptimas múltiples.
4. METODOS DE OPTIMIZACIÓN
Newton Raphson
Este método es uno de los
mas utilizados para localizar
raíces ya que en general es
muy eficiente y siempre
converge para una función
polinomial. Se requiere que las
funciones sean diferenciables,
y por tanto, continuas, para
poder aplicar este método.
Si se extiende una tangente
desde el punto (xi, f (xi)), el punto
donde esta tangente cruza al eje
x representa una aproximación
mejorada de la raíz.
La fórmula de Newton-Raphson se
deduce a partir de la fórmula de la
pendiente de una recta.
5. METODOS DE OPTIMIZACIÓN
Jacobi
Cuando se resuelven numéricamente
ecuaciones diferenciales pueden surgir
sistemas lineales con 20,000
variables. Los equipos de cómputo
disponibles en la actualidad podrían
requerir incluso días para resolver
estos sistemas por métodos directos
(como eliminación o factorización).
El método de Jácobi es un método
iterativo con el cual se resuelve el
sistema lineal.
Ax = b
Un sistema de ecuaciones
algebraicas lineales es un
conjunto de ecuaciones de
la forma:
En la solución de estos problemas pueden
presentarse 3 casos:
1.- Solución única → Sistema compatible determinado.
2.- Mas de una solución → Sistema compatible e
indeterminado. (numero infinito de soluciones)
3.- Sin solución → Sistema incompatible.
6. METODOS DE OPTIMIZACIÓN
Lagrange
En los problemas de optimización, los
multiplicadores de Lagrange, nombrados
así en honor a Joseph Louis Lagrange,
son un método para trabajar con
funciones de varias variables que nos
interesa maximizar o minimizar, y está
sujeta a ciertas restricciones. Este
método reduce el problema restringido
en n variables en uno sin restricciones
de n + 1 variables cuyas ecuaciones
pueden ser resueltas.
El primer paso consiste en determinar los
puntos críticos para ello se forma la función
Lagrangeana: F ( x, λ) = f ( x) + Xm j=1 λ j gj ( x )
Habiendo ubicado los puntos estacionarios
viene el problema de determinar si son máximos
o mínimos locales.
2 +8λ 12 8 x
B1 = 12 4 + 2 λ 2 y
8 x 2 y 0
7. Una ecuación diferencial es una
ecuación en donde aparecen funciones, sus
derivadas, una o mas variables
independientes y una o mas variables
dependientes. El nombre es tradicional, sin
embargo “ecuaciones en derivadas” sería
mas descriptivo. Estas se dividen en dos
grupos:
1.- Ecuaciones Diferenciales Ordinarias
(EDO) .- En donde aparece sólo una
variable independiente (que se denota con
x).
2.- Ecuaciones Diferenciales Parciales
(EDP) .- En las que aparece mas de una
variable independiente.
METODOS DE OPTIMIZACIÓN
Euler
La Ecuación Diferencial Ordinaria (EDO) general
de primer orden es:
La solución que ofrece este método, es una tabla de la
función solución, con valores de “y” correspondientes a
valores específicos de “x”.
La ecuación del método de Euler es la
siguiente:
8. EJERCICIO PROPUESTO
Un banco lanza al mercado un plan de inversión cuya rentabilidad
R(x), en euros, viene dada en función de la cantidad invertida, x en
euros, por medio de la expresión: R(x) = - 0,001x² + 0,4x + 3,5.
Deducir qué cantidad de dinero convendrá invertir en dicho plan.
¿Qué rentabilidad se obtuvo en el caso anterior?
Planteamiento
9. EJERCICIO PROPUESTO
Solución
Obviamente, convendrá invertir la cantidad que
mayor rentabilidad produzca: R'(x) = - 0,002x + 0,4
R'(x) = 0 ⇒ - 0,002x + 0,4 = 0 ⇒ x = = 2000,4
0,002
R''(x) = - 0,002 < 0, por tanto x = 200€ es un máximo de la
función R(x)
La rentabilidad que se obtiene es R(200) ² - 0,001(200) + 0,4 .
200 + 3,5 = 43,5 ₤.