SlideShare una empresa de Scribd logo
1 de 19
Realizado:
Marcos Barboza
C.I: 15.059.191
Yoeny Bravo
C.I:15.260.528
 En matemáticas, programación no lineal es el proceso de resolución de un
sistema de igualdades y desigualdades sujetas a un conjunto de restricciones
sobre un conjunto de variables reales desconocidas, con un función objetivo a
maximizar (o minimizar), cuando alguna de las restricciones o la función
objetivo no son lineales.
El problema de programación no lineal puede enunciarse de una forma muy
simple:
max ƒ (x) maximizar una función objetivo
x Є X
mix ƒ (x) minimizar una función objetivo
x Є X
Donde
ƒ : Rn R
X С Rn.
 Si la función objetivo f es lineal y el espacio restringido es un politopo, el
problema es de Programación lineal y puede resolverse utilizando alguno de los
bien conocidos algoritmos de programación lineal.
 Si la función objetivo es cóncava (problema de maximización),
o convexa (problema de minimización) y el conjunto de restricciones
es convexo, entonces se puede utilizar el método general de Optimización
convexa
 Existe una variedad de métodos para resolver problemas no convexos. Uno de
ellos consiste en utilizar formulaciones especiales de problemas de
programación lineal. Otro método implica el uso de técnicas de Ramificación y
poda, cuando el problema se divide en subdivisiones a resolver mediante
aproximaciones que forman un límite inferior del coste total en cada
subdivisión. Mediante subdivisiones sucesivas, se obtendrá una solución cuyo
coste es igual o inferior que el mejor límite inferior obtenido por alguna de las
soluciones aproximadas. Esta solución es óptima, aunque posiblemente no sea
única. El algoritmo puede ser parado antes, con la garantía de que la mejor
solución será mejor que la solución encontrada en un porcentaje acotado. Ello
se utiliza en concreto en problemas importantes y especialmente difíciles y
cuando el problema cuenta con costes inciertos o valores donde la
incertidumbre puede ser estimada en un grado de fiabilidad apropiado.
 Las condiciones de Karush-Kuhn-Tucker proporcionan las condiciones
necesarias para que una solución sea óptima.
 Optimización no restringida.
 Optimización linealmente restringida.
 Programación cuadrática
 Programación convexa.
 Programación separable.
 Programación no convexa.
 Programación geométrica.
 Programación fraccional.
 En esta sección se presentarán dos algoritmos para el problema no restringido:
el algoritmo de búsqueda directa y el algoritmo degradiente.
1.- Método de búsqueda directa
Los métodos de búsqueda directa se aplican principalmente a funciones
estrictamente unimo- dales de una variable. Aunque puede parecer trivial
el caso, la sección 21.1.2 muestra que la optimización de funciones de una
variable juega un papel clave en el desarrollo de los algoritmos de varias
variables, más generales.
La idea de los métodos de búsqueda directa es identificar el intervalo de
incertidum- bre que comprenda al punto de solución óptima. El
procedimiento localiza el óptimo estrechando en forma progresiva el
intervalo de incertidumbre hasta cualquier grado de exactitud que se desee.
Método de búsqueda directa
En esta sección se presentan dos algoritmos estrechamente relacionados: los métodos
de búsqueda dicótomo y de sección dorada (o áurea). Ambos buscan la maximización de una
función unimodal/(x) en el intervalo a ^ x < b, que se sabe que incluye el punto óptimo x*.Los
dos métodos comienzan con /0 = (a, b) que representa el intervalo inicial de incertidumbre.
Paso general i. Sea /, _ , = (xD xR) el intervalo actual de incertidumbre (en la iteración 0, xL =
a y xR = b). A continuación se definen xx y x2tales que
xj^ ^ ^ x2 ^ xr
 El siguiente intervalo de incertidumbre, /z, se define como sigue:
Si f(xx) > /(x2), entonces xL < x* < x2. Se definen xR = x2 e /, = (xL, x2) (véase la figura 21.2[a]).
Si f(xx) < f(x2 entonces xx < x* < xR. Se definen xL = xx e I¡ = (xh xR) (véase la figura 21.1 [b]). .
Si f{x) = /(jc2), entonces xx < x* < x2. Se definen xL = x2 e /, = (xb x2).
La manera en que se determinan xx y x2 garantiza que /, < /,_ p como se
demostrará en breve. El algoritmo termina en la iteración ksilk< A,donde A es un
grado de exactitud definido por el Usuario
.
La diferencia entre los métodos dicótomo y de sección dorada estriba en la forma
en que se calculan xx y x2. La tabla siguiente presenta las fórmulas.
Método de búsqueda directa
En el método dicótomo los valores jc, y x2 se encuentran
simétricos respecto del punto medio del actual intervalo
de incertidumbre. Esto significa que
La aplicación repetida del algoritmo garantiza que la longitud del intervalo
de incertidumbre se acercará al nivel de exactitud deseado, A.
En el método de la sección dorada la idea es de mayor involucramiento. Se
puede apreciar que cada iteración del método dicótomo requiere calcular los
dos valores/(jc,) y f(x2), Pero termina por descartar alguno de ellos. Lo que
propone el método de la sección dorada es ahorrar cálculos mediante el reuso
del valor descartado en la iteración inmediata siguiente. Para definir 0 < a < 1
Cuando el intervalo de incertidumbre /, en la teración i es igual a
(jc¿, x2) o a (xu xR). Considere el caso en que /, = (jcl, x2), lo cual significa
que xx está incluido en /,. En la iteración /+1, seleccione x2 igual a jc, de la
iteración /, lo cual lleva a la siguiente ecuación:
x2(iteración i+l) = x{(iteración i)
Los problemas de optimización no restringida no tienen restricciones, por
lo que la función objetivo es sencillamente
Maximizar f(x)
sobre todos los valores x= (x1, x2,…,xn). Según el repaso del apéndice 3, la
condición necesaria para que una solución específica x = x* sea óptima
cuando f(x) es una función diferenciable es
Cuando f (x) es cóncava, esta condición también es suficiente, con lo que la obtención de x* se
reduce a resolver el sistema de las n ecuaciones obtenidas al establecer las n derivadas
parciales iguales a cero. Por desgracia, cuando se trata de funciones no lineales f (x), estas
ecuaciones suelen ser no lineales también, en cuyo caso es poco probable que se pueda obtener
una solución analítica simultánea.
¿Qué se puede hacer en ese caso? Las secciones 13.4 y 13.5 describen procedimientos
algorítmicos de búsqueda para encontrar x* primero para n = 1 y luego para n > 1. Estos
procedimientos también tienen un papel importante en la solución de varios tipos de
problemas con restricciones, que se describirán en seguida. La razón es que muchos algo-
ritmos para problemas restringidos están construidos de forma que se adaptan a versiones no
restringidas del problema en una parte de cada iteración.
Cuando una variable Xj tiene una restricción de no negatividad, x- > 0, la condición necesaria
(y tal vez) suficiente anterior cambia ligeramente a
para cada j de este tipo. Esta condición se ilustra en la figura 13.11, donde la solución óptima de
un problema con una sola variable es x = 0 aun cuando la derivada ahí es negativa y no cero.
Como este ejemplo tiene una función cóncava para maximizar sujeta a una restricción de no
negatividad, el que su derivada sea menor o igual a 0 en # = 0, es una condición necesaria y
suficiente para que x= 0 sea óptima.
Un problema que tiene algunas restricciones de no negatividad y que no tiene restricciones
funcionales es un caso especial (m = 0) de la siguiente clase de problemas.
Los problemas de optimización linealmente restringida se
caracterizan por restricciones que se ajustan por completo a
la programación lineal, de manera que todas las funciones de
restricción g¡ (x) son lineales, pero la función objetivo es no
lineal. El problema se simplifica mucho si sólo se tiene que
tomar en cuenta una función no lineal junto con una región
factible de programación lineal. Se han desarrollado varios
algoritmos especiales basados en una extensión del método
símplex para analizar la función objetivo no lineal.
Un caso especial importante descrito a continuación es la
programación cuadrática.
De nuevo los problemas
de programación
cuadrática tienen
restricciones lineales,
pero ahora la función
objetivo /(x) debe
ser cuadrática. Entonces,
la única diferencia entre
éstos y un problema de
programación lineal es
que algunos términos de
la función objetivo
incluyen el cuadrado de
una variable o
el producto de dos
variables
La programación convexa abarca una amplia clase de problemas, entre
ellos como casos especiales, están todos los tipos anteriores cuando /(x)
es cóncava. Las suposiciones son
1.- f(x) es cóncava.
2.- Cada una de las g(x) es convexa.
La programación separable es un caso especial de programación convexa,
en donde la suposición adicional es
Todas las funciones f(x) y g(x) son funciones separables.
Una función separable es una función en la que cada término incluye una
sola variable, por lo que la función se puede separar en una suma de
funciones de variables individuales. Por ejemplo, si f(x) es una función
separable, se puede expresar como
son cada tina funciones de una sola variable x1 y x2, respectivamente. Usando el mismo
razonamiento, se puede verificar que la función considerada en la figura 13.7 también es una
función separable.
Es importante distinguir estos problemas de otros de programación convexa, pues cualquier
problema de programación separable se puede aproximar muy de cerca mediante uno de
programación lineal y, entonces, se puede aplicar el eficiente métodosímplex.
La programación no convexa incluye todos los problemas de
programación no lineal que no satisfacen las suposiciones de
programación convexa. En este caso, aun cuando se tenga éxito en
encontrar un máximo local, no hay garantía de que sea también
un máximo global. Por lo tanto, no se tiene un algoritmo que
garantice encontrar una solución óptima para todos estos
problemas; pero sí existen algunos algoritmos bastante adecuados
para encontrar máximos locales, en especial cuando las formas de
las funciones no lineales no se desvían demasiado de aquellas que
se supusieron para programación convexa. En la sección 13.10 se
presenta uno de estos algoritmos.
Ciertos tipos específicos de problemas de programación no convexa
se pueden resolver sin mucha dificultad mediante métodos
especiales. Dos de ellos, de gran importancia, se presentarán más
adelante.
Cuando se aplica programación no lineal a problemas de diseño de
ingeniería, muchas veces la función objetivo y las funciones de restricción
toman la forma
En tales casos, las ci y a ty representan las constantes físicas y las x} son las
variables de diseño. Estas funciones por lo general no son ni cóncavas ni
convexas, por lo que las técnicas de programación convexa no se pueden
aplicar directamente a estos problemas de programación geo- métrica. Sin
embargo, existe un caso importante en el que el problema se puede
transformar en un problema de programación convexa equivalente. Este caso
es aquel en el que todos los coeficientes c¿ en cada función son estrictamente
positivos, es decir, las funciones son polinomios positivos
generalizados (ahora llamados posinomiales), y la función objetivo se tiene
que minimizar. El problema equivalente de programación convexa con
variables de decisión yx, y2,…, yn se obtiene entonces al establecer
Suponga que la función objetivo se encuentra en la forma de una fracción, esto es,
la razón o cociente de dos funciones,
Estos problemas de programación fraccional surgen, por ejemplo, cuando se maximiza
la razón de la producción entre las horas-hombre empleadas (productividad), o la
ganancia entre el capital invertido (tasa de rendimiento), o el valor esperado dividido
entre la desviación estándar de alguna medida de desempeño para una cartera de
inversiones (rendimiento/riesgo). Se han formulado algunos procedimientos de
solución especiales1 para ciertas formas de f1(x) y f2 (x)
Cuando se puede hacer, el enfoque más directo para resolver un problema de
programación fraccional es transformarlo en un problema equivalente de algún tipo
estándar que disponga de un procedimiento eficiente. Para ilustrar esto, suponga
que f(x) es de la forma de programación fraccional lineal
donde c y d son vectores renglón, x es un vector columna y c0 y dQ son escalares. También
suponga que las funciones de restricción g¡ (x)son lineales, es decir, las restricciones en
forma matricial son Ax < b y x > 0.
Con algunas suposiciones débiles adicionales, el problema se puede transformar en un
problema equivalente de programación lineal si se establece
que se puede resolver con el método símplex. En términos generales, se puede usar el mismo
tipo de transformación para convertir un problema de programación fraccional
con /¡(x) cóncava, f2 (x) convexa y g¡ (x) convexas, en un problema equivalente de
programación convexa.

Más contenido relacionado

La actualidad más candente

Métodos para planeación agregada
Métodos para planeación agregadaMétodos para planeación agregada
Métodos para planeación agregada
Alan Bringas
 
82253086 unidad-iv-pruebas-de-hipotesis-con-dos-muestras-y-varias-muestras-de...
82253086 unidad-iv-pruebas-de-hipotesis-con-dos-muestras-y-varias-muestras-de...82253086 unidad-iv-pruebas-de-hipotesis-con-dos-muestras-y-varias-muestras-de...
82253086 unidad-iv-pruebas-de-hipotesis-con-dos-muestras-y-varias-muestras-de...
Ekthor Daniel R G
 
2.3 metodos cuantitativos
2.3 metodos cuantitativos2.3 metodos cuantitativos
2.3 metodos cuantitativos
thecharlyccc
 
Problemas resueltos-de-metodos-de-transporte
Problemas resueltos-de-metodos-de-transporteProblemas resueltos-de-metodos-de-transporte
Problemas resueltos-de-metodos-de-transporte
Alexander Chunhuay Ruiz
 
Metodología De Investigación de Operaciones
Metodología De Investigación de OperacionesMetodología De Investigación de Operaciones
Metodología De Investigación de Operaciones
XSilvana XMonasteriosx
 
Analisis de sensibilidad ejercicios resueltos
Analisis de sensibilidad   ejercicios resueltosAnalisis de sensibilidad   ejercicios resueltos
Analisis de sensibilidad ejercicios resueltos
Luis Nuñez
 
Modelos de programacion lineal
Modelos de programacion linealModelos de programacion lineal
Modelos de programacion lineal
Manrique Cordero
 

La actualidad más candente (20)

Investigación de Operaciones
Investigación de OperacionesInvestigación de Operaciones
Investigación de Operaciones
 
Investigación de Operaciones II : Simulación
Investigación de Operaciones II : Simulación Investigación de Operaciones II : Simulación
Investigación de Operaciones II : Simulación
 
Programacion no lineal
Programacion no linealProgramacion no lineal
Programacion no lineal
 
Métodos para planeación agregada
Métodos para planeación agregadaMétodos para planeación agregada
Métodos para planeación agregada
 
82253086 unidad-iv-pruebas-de-hipotesis-con-dos-muestras-y-varias-muestras-de...
82253086 unidad-iv-pruebas-de-hipotesis-con-dos-muestras-y-varias-muestras-de...82253086 unidad-iv-pruebas-de-hipotesis-con-dos-muestras-y-varias-muestras-de...
82253086 unidad-iv-pruebas-de-hipotesis-con-dos-muestras-y-varias-muestras-de...
 
Investigacion de operaciones
Investigacion de operaciones Investigacion de operaciones
Investigacion de operaciones
 
Algoritmo de transporte
Algoritmo de transporteAlgoritmo de transporte
Algoritmo de transporte
 
Glosario de investigación de operaciones
Glosario de investigación de operacionesGlosario de investigación de operaciones
Glosario de investigación de operaciones
 
Algoritmo Coungrencial Multiplicativo & Aditivo
Algoritmo Coungrencial Multiplicativo & AditivoAlgoritmo Coungrencial Multiplicativo & Aditivo
Algoritmo Coungrencial Multiplicativo & Aditivo
 
Unidad 3. Transporte y asignación
Unidad 3. Transporte y asignaciónUnidad 3. Transporte y asignación
Unidad 3. Transporte y asignación
 
Programacion de metas y objetivos
Programacion de metas y objetivosProgramacion de metas y objetivos
Programacion de metas y objetivos
 
2.3 metodos cuantitativos
2.3 metodos cuantitativos2.3 metodos cuantitativos
2.3 metodos cuantitativos
 
Problemas resueltos-de-metodos-de-transporte
Problemas resueltos-de-metodos-de-transporteProblemas resueltos-de-metodos-de-transporte
Problemas resueltos-de-metodos-de-transporte
 
Metodología De Investigación de Operaciones
Metodología De Investigación de OperacionesMetodología De Investigación de Operaciones
Metodología De Investigación de Operaciones
 
PROBLEMA DE LA MOCHILA
PROBLEMA DE LA MOCHILAPROBLEMA DE LA MOCHILA
PROBLEMA DE LA MOCHILA
 
Teoria de la dualidad y Analisis de la Sensibilidad
Teoria de la dualidad y Analisis de la SensibilidadTeoria de la dualidad y Analisis de la Sensibilidad
Teoria de la dualidad y Analisis de la Sensibilidad
 
Analisis de sensibilidad ejercicios resueltos
Analisis de sensibilidad   ejercicios resueltosAnalisis de sensibilidad   ejercicios resueltos
Analisis de sensibilidad ejercicios resueltos
 
Modelos de programacion lineal
Modelos de programacion linealModelos de programacion lineal
Modelos de programacion lineal
 
Metodos de programacion no-lineal
Metodos de programacion no-linealMetodos de programacion no-lineal
Metodos de programacion no-lineal
 
Mapa Conceptual Investigación de operaciones I Wuilkins Piña
Mapa Conceptual Investigación de operaciones I Wuilkins PiñaMapa Conceptual Investigación de operaciones I Wuilkins Piña
Mapa Conceptual Investigación de operaciones I Wuilkins Piña
 

Destacado (10)

Métodos de programación no lineal
Métodos de programación no linealMétodos de programación no lineal
Métodos de programación no lineal
 
metodos de programacion no lineal
metodos de programacion no linealmetodos de programacion no lineal
metodos de programacion no lineal
 
INVESTIGACIÓN DE OPERACIONES
INVESTIGACIÓN DE OPERACIONESINVESTIGACIÓN DE OPERACIONES
INVESTIGACIÓN DE OPERACIONES
 
Nonlinear Programming, Solved Problem
Nonlinear Programming, Solved ProblemNonlinear Programming, Solved Problem
Nonlinear Programming, Solved Problem
 
HISTORIA DE LA INVESTIGACION DE OPERACIONES
HISTORIA DE LA INVESTIGACION DE OPERACIONESHISTORIA DE LA INVESTIGACION DE OPERACIONES
HISTORIA DE LA INVESTIGACION DE OPERACIONES
 
Clase Nº5 Programacion Lineal
Clase Nº5 Programacion LinealClase Nº5 Programacion Lineal
Clase Nº5 Programacion Lineal
 
Solver en la solución de modelos lineales
Solver en la solución de modelos linealesSolver en la solución de modelos lineales
Solver en la solución de modelos lineales
 
Programacion Lineal
Programacion LinealProgramacion Lineal
Programacion Lineal
 
Programación lineal
Programación linealProgramación lineal
Programación lineal
 
Paginas de matematicas
Paginas de matematicasPaginas de matematicas
Paginas de matematicas
 

Similar a Programación no lineal

Programación lineal
Programación linealProgramación lineal
Programación lineal
danile889_l
 
Oviedo variaciones
Oviedo variacionesOviedo variaciones
Oviedo variaciones
German Daza
 

Similar a Programación no lineal (20)

metodos de optimizacion
metodos de optimizacionmetodos de optimizacion
metodos de optimizacion
 
Metodos de programcion no lineal
Metodos de programcion no linealMetodos de programcion no lineal
Metodos de programcion no lineal
 
Metodos de Programacion no lineal
Metodos de Programacion no linealMetodos de Programacion no lineal
Metodos de Programacion no lineal
 
Programación no linealeeee fernando yepez
Programación no linealeeee fernando yepezProgramación no linealeeee fernando yepez
Programación no linealeeee fernando yepez
 
Metodos de optimizacion
Metodos de optimizacionMetodos de optimizacion
Metodos de optimizacion
 
Ecuaciones y sist de ecuaciones no lineales
Ecuaciones y sist de ecuaciones no linealesEcuaciones y sist de ecuaciones no lineales
Ecuaciones y sist de ecuaciones no lineales
 
Cal
CalCal
Cal
 
Prrogramacion no lineal sexta semana.pptx
Prrogramacion no lineal sexta semana.pptxPrrogramacion no lineal sexta semana.pptx
Prrogramacion no lineal sexta semana.pptx
 
Prrogramacion no lineal sexta semana-2.pptx
Prrogramacion no lineal sexta semana-2.pptxPrrogramacion no lineal sexta semana-2.pptx
Prrogramacion no lineal sexta semana-2.pptx
 
Optimizacion de sistemas y Funciones Programacion no lineal
Optimizacion de sistemas y Funciones Programacion no linealOptimizacion de sistemas y Funciones Programacion no lineal
Optimizacion de sistemas y Funciones Programacion no lineal
 
Raices deecuaciones
Raices deecuacionesRaices deecuaciones
Raices deecuaciones
 
Unidad 1. Programación entera
Unidad 1. Programación enteraUnidad 1. Programación entera
Unidad 1. Programación entera
 
Metodo de optimización. listo
Metodo de optimización. listoMetodo de optimización. listo
Metodo de optimización. listo
 
Programacionnolineal
Programacionnolineal Programacionnolineal
Programacionnolineal
 
2._metodo_simplex.pdf
2._metodo_simplex.pdf2._metodo_simplex.pdf
2._metodo_simplex.pdf
 
Programación lineal
Programación linealProgramación lineal
Programación lineal
 
Oviedo variaciones
Oviedo variacionesOviedo variaciones
Oviedo variaciones
 
Optimizacion de sistemas y funciónes
Optimizacion de sistemas y funciónesOptimizacion de sistemas y funciónes
Optimizacion de sistemas y funciónes
 
Optimizacion
OptimizacionOptimizacion
Optimizacion
 
Metodos de programacion no lineal javier perez
Metodos de programacion no lineal javier perezMetodos de programacion no lineal javier perez
Metodos de programacion no lineal javier perez
 

Último

2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
RigoTito
 
Concepto y definición de tipos de Datos Abstractos en c++.pptx
Concepto y definición de tipos de Datos Abstractos en c++.pptxConcepto y definición de tipos de Datos Abstractos en c++.pptx
Concepto y definición de tipos de Datos Abstractos en c++.pptx
Fernando Solis
 
TALLER DE DEMOCRACIA Y GOBIERNO ESCOLAR-COMPETENCIAS N°3.docx
TALLER DE DEMOCRACIA Y GOBIERNO ESCOLAR-COMPETENCIAS N°3.docxTALLER DE DEMOCRACIA Y GOBIERNO ESCOLAR-COMPETENCIAS N°3.docx
TALLER DE DEMOCRACIA Y GOBIERNO ESCOLAR-COMPETENCIAS N°3.docx
NadiaMartnez11
 
NUEVAS DIAPOSITIVAS POSGRADO Gestion Publica.pdf
NUEVAS DIAPOSITIVAS POSGRADO Gestion Publica.pdfNUEVAS DIAPOSITIVAS POSGRADO Gestion Publica.pdf
NUEVAS DIAPOSITIVAS POSGRADO Gestion Publica.pdf
UPTAIDELTACHIRA
 

Último (20)

Análisis de los Factores Externos de la Organización.
Análisis de los Factores Externos de la Organización.Análisis de los Factores Externos de la Organización.
Análisis de los Factores Externos de la Organización.
 
SISTEMA RESPIRATORIO PARA NIÑOS PRIMARIA
SISTEMA RESPIRATORIO PARA NIÑOS PRIMARIASISTEMA RESPIRATORIO PARA NIÑOS PRIMARIA
SISTEMA RESPIRATORIO PARA NIÑOS PRIMARIA
 
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
 
Usos y desusos de la inteligencia artificial en revistas científicas
Usos y desusos de la inteligencia artificial en revistas científicasUsos y desusos de la inteligencia artificial en revistas científicas
Usos y desusos de la inteligencia artificial en revistas científicas
 
Feliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdfFeliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdf
 
Tema 17. Biología de los microorganismos 2024
Tema 17. Biología de los microorganismos 2024Tema 17. Biología de los microorganismos 2024
Tema 17. Biología de los microorganismos 2024
 
Concepto y definición de tipos de Datos Abstractos en c++.pptx
Concepto y definición de tipos de Datos Abstractos en c++.pptxConcepto y definición de tipos de Datos Abstractos en c++.pptx
Concepto y definición de tipos de Datos Abstractos en c++.pptx
 
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLAACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
 
Lecciones 06 Esc. Sabática. Los dos testigos
Lecciones 06 Esc. Sabática. Los dos testigosLecciones 06 Esc. Sabática. Los dos testigos
Lecciones 06 Esc. Sabática. Los dos testigos
 
TALLER DE DEMOCRACIA Y GOBIERNO ESCOLAR-COMPETENCIAS N°3.docx
TALLER DE DEMOCRACIA Y GOBIERNO ESCOLAR-COMPETENCIAS N°3.docxTALLER DE DEMOCRACIA Y GOBIERNO ESCOLAR-COMPETENCIAS N°3.docx
TALLER DE DEMOCRACIA Y GOBIERNO ESCOLAR-COMPETENCIAS N°3.docx
 
semana 4 9NO Estudios sociales.pptxnnnn
semana 4  9NO Estudios sociales.pptxnnnnsemana 4  9NO Estudios sociales.pptxnnnn
semana 4 9NO Estudios sociales.pptxnnnn
 
Revista Apuntes de Historia. Mayo 2024.pdf
Revista Apuntes de Historia. Mayo 2024.pdfRevista Apuntes de Historia. Mayo 2024.pdf
Revista Apuntes de Historia. Mayo 2024.pdf
 
Tema 11. Dinámica de la hidrosfera 2024
Tema 11.  Dinámica de la hidrosfera 2024Tema 11.  Dinámica de la hidrosfera 2024
Tema 11. Dinámica de la hidrosfera 2024
 
SESION DE PERSONAL SOCIAL. La convivencia en familia 22-04-24 -.doc
SESION DE PERSONAL SOCIAL.  La convivencia en familia 22-04-24  -.docSESION DE PERSONAL SOCIAL.  La convivencia en familia 22-04-24  -.doc
SESION DE PERSONAL SOCIAL. La convivencia en familia 22-04-24 -.doc
 
CONCURSO NACIONAL JOSE MARIA ARGUEDAS.pptx
CONCURSO NACIONAL JOSE MARIA ARGUEDAS.pptxCONCURSO NACIONAL JOSE MARIA ARGUEDAS.pptx
CONCURSO NACIONAL JOSE MARIA ARGUEDAS.pptx
 
LA LITERATURA DEL BARROCO 2023-2024pptx.pptx
LA LITERATURA DEL BARROCO 2023-2024pptx.pptxLA LITERATURA DEL BARROCO 2023-2024pptx.pptx
LA LITERATURA DEL BARROCO 2023-2024pptx.pptx
 
TIENDAS MASS MINIMARKET ESTUDIO DE MERCADO
TIENDAS MASS MINIMARKET ESTUDIO DE MERCADOTIENDAS MASS MINIMARKET ESTUDIO DE MERCADO
TIENDAS MASS MINIMARKET ESTUDIO DE MERCADO
 
NUEVAS DIAPOSITIVAS POSGRADO Gestion Publica.pdf
NUEVAS DIAPOSITIVAS POSGRADO Gestion Publica.pdfNUEVAS DIAPOSITIVAS POSGRADO Gestion Publica.pdf
NUEVAS DIAPOSITIVAS POSGRADO Gestion Publica.pdf
 
Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024
 
Sesión de clase APC: Los dos testigos.pdf
Sesión de clase APC: Los dos testigos.pdfSesión de clase APC: Los dos testigos.pdf
Sesión de clase APC: Los dos testigos.pdf
 

Programación no lineal

  • 2.  En matemáticas, programación no lineal es el proceso de resolución de un sistema de igualdades y desigualdades sujetas a un conjunto de restricciones sobre un conjunto de variables reales desconocidas, con un función objetivo a maximizar (o minimizar), cuando alguna de las restricciones o la función objetivo no son lineales. El problema de programación no lineal puede enunciarse de una forma muy simple: max ƒ (x) maximizar una función objetivo x Є X mix ƒ (x) minimizar una función objetivo x Є X Donde ƒ : Rn R X С Rn.
  • 3.  Si la función objetivo f es lineal y el espacio restringido es un politopo, el problema es de Programación lineal y puede resolverse utilizando alguno de los bien conocidos algoritmos de programación lineal.  Si la función objetivo es cóncava (problema de maximización), o convexa (problema de minimización) y el conjunto de restricciones es convexo, entonces se puede utilizar el método general de Optimización convexa  Existe una variedad de métodos para resolver problemas no convexos. Uno de ellos consiste en utilizar formulaciones especiales de problemas de programación lineal. Otro método implica el uso de técnicas de Ramificación y poda, cuando el problema se divide en subdivisiones a resolver mediante aproximaciones que forman un límite inferior del coste total en cada subdivisión. Mediante subdivisiones sucesivas, se obtendrá una solución cuyo coste es igual o inferior que el mejor límite inferior obtenido por alguna de las soluciones aproximadas. Esta solución es óptima, aunque posiblemente no sea única. El algoritmo puede ser parado antes, con la garantía de que la mejor solución será mejor que la solución encontrada en un porcentaje acotado. Ello se utiliza en concreto en problemas importantes y especialmente difíciles y cuando el problema cuenta con costes inciertos o valores donde la incertidumbre puede ser estimada en un grado de fiabilidad apropiado.  Las condiciones de Karush-Kuhn-Tucker proporcionan las condiciones necesarias para que una solución sea óptima.
  • 4.  Optimización no restringida.  Optimización linealmente restringida.  Programación cuadrática  Programación convexa.  Programación separable.  Programación no convexa.  Programación geométrica.  Programación fraccional.
  • 5.  En esta sección se presentarán dos algoritmos para el problema no restringido: el algoritmo de búsqueda directa y el algoritmo degradiente. 1.- Método de búsqueda directa Los métodos de búsqueda directa se aplican principalmente a funciones estrictamente unimo- dales de una variable. Aunque puede parecer trivial el caso, la sección 21.1.2 muestra que la optimización de funciones de una variable juega un papel clave en el desarrollo de los algoritmos de varias variables, más generales. La idea de los métodos de búsqueda directa es identificar el intervalo de incertidum- bre que comprenda al punto de solución óptima. El procedimiento localiza el óptimo estrechando en forma progresiva el intervalo de incertidumbre hasta cualquier grado de exactitud que se desee.
  • 6. Método de búsqueda directa En esta sección se presentan dos algoritmos estrechamente relacionados: los métodos de búsqueda dicótomo y de sección dorada (o áurea). Ambos buscan la maximización de una función unimodal/(x) en el intervalo a ^ x < b, que se sabe que incluye el punto óptimo x*.Los dos métodos comienzan con /0 = (a, b) que representa el intervalo inicial de incertidumbre. Paso general i. Sea /, _ , = (xD xR) el intervalo actual de incertidumbre (en la iteración 0, xL = a y xR = b). A continuación se definen xx y x2tales que xj^ ^ ^ x2 ^ xr  El siguiente intervalo de incertidumbre, /z, se define como sigue: Si f(xx) > /(x2), entonces xL < x* < x2. Se definen xR = x2 e /, = (xL, x2) (véase la figura 21.2[a]). Si f(xx) < f(x2 entonces xx < x* < xR. Se definen xL = xx e I¡ = (xh xR) (véase la figura 21.1 [b]). . Si f{x) = /(jc2), entonces xx < x* < x2. Se definen xL = x2 e /, = (xb x2).
  • 7. La manera en que se determinan xx y x2 garantiza que /, < /,_ p como se demostrará en breve. El algoritmo termina en la iteración ksilk< A,donde A es un grado de exactitud definido por el Usuario . La diferencia entre los métodos dicótomo y de sección dorada estriba en la forma en que se calculan xx y x2. La tabla siguiente presenta las fórmulas. Método de búsqueda directa
  • 8. En el método dicótomo los valores jc, y x2 se encuentran simétricos respecto del punto medio del actual intervalo de incertidumbre. Esto significa que La aplicación repetida del algoritmo garantiza que la longitud del intervalo de incertidumbre se acercará al nivel de exactitud deseado, A. En el método de la sección dorada la idea es de mayor involucramiento. Se puede apreciar que cada iteración del método dicótomo requiere calcular los dos valores/(jc,) y f(x2), Pero termina por descartar alguno de ellos. Lo que propone el método de la sección dorada es ahorrar cálculos mediante el reuso del valor descartado en la iteración inmediata siguiente. Para definir 0 < a < 1
  • 9. Cuando el intervalo de incertidumbre /, en la teración i es igual a (jc¿, x2) o a (xu xR). Considere el caso en que /, = (jcl, x2), lo cual significa que xx está incluido en /,. En la iteración /+1, seleccione x2 igual a jc, de la iteración /, lo cual lleva a la siguiente ecuación: x2(iteración i+l) = x{(iteración i)
  • 10. Los problemas de optimización no restringida no tienen restricciones, por lo que la función objetivo es sencillamente Maximizar f(x) sobre todos los valores x= (x1, x2,…,xn). Según el repaso del apéndice 3, la condición necesaria para que una solución específica x = x* sea óptima cuando f(x) es una función diferenciable es
  • 11. Cuando f (x) es cóncava, esta condición también es suficiente, con lo que la obtención de x* se reduce a resolver el sistema de las n ecuaciones obtenidas al establecer las n derivadas parciales iguales a cero. Por desgracia, cuando se trata de funciones no lineales f (x), estas ecuaciones suelen ser no lineales también, en cuyo caso es poco probable que se pueda obtener una solución analítica simultánea. ¿Qué se puede hacer en ese caso? Las secciones 13.4 y 13.5 describen procedimientos algorítmicos de búsqueda para encontrar x* primero para n = 1 y luego para n > 1. Estos procedimientos también tienen un papel importante en la solución de varios tipos de problemas con restricciones, que se describirán en seguida. La razón es que muchos algo- ritmos para problemas restringidos están construidos de forma que se adaptan a versiones no restringidas del problema en una parte de cada iteración. Cuando una variable Xj tiene una restricción de no negatividad, x- > 0, la condición necesaria (y tal vez) suficiente anterior cambia ligeramente a para cada j de este tipo. Esta condición se ilustra en la figura 13.11, donde la solución óptima de un problema con una sola variable es x = 0 aun cuando la derivada ahí es negativa y no cero. Como este ejemplo tiene una función cóncava para maximizar sujeta a una restricción de no negatividad, el que su derivada sea menor o igual a 0 en # = 0, es una condición necesaria y suficiente para que x= 0 sea óptima. Un problema que tiene algunas restricciones de no negatividad y que no tiene restricciones funcionales es un caso especial (m = 0) de la siguiente clase de problemas.
  • 12. Los problemas de optimización linealmente restringida se caracterizan por restricciones que se ajustan por completo a la programación lineal, de manera que todas las funciones de restricción g¡ (x) son lineales, pero la función objetivo es no lineal. El problema se simplifica mucho si sólo se tiene que tomar en cuenta una función no lineal junto con una región factible de programación lineal. Se han desarrollado varios algoritmos especiales basados en una extensión del método símplex para analizar la función objetivo no lineal. Un caso especial importante descrito a continuación es la programación cuadrática.
  • 13. De nuevo los problemas de programación cuadrática tienen restricciones lineales, pero ahora la función objetivo /(x) debe ser cuadrática. Entonces, la única diferencia entre éstos y un problema de programación lineal es que algunos términos de la función objetivo incluyen el cuadrado de una variable o el producto de dos variables
  • 14. La programación convexa abarca una amplia clase de problemas, entre ellos como casos especiales, están todos los tipos anteriores cuando /(x) es cóncava. Las suposiciones son 1.- f(x) es cóncava. 2.- Cada una de las g(x) es convexa. La programación separable es un caso especial de programación convexa, en donde la suposición adicional es Todas las funciones f(x) y g(x) son funciones separables. Una función separable es una función en la que cada término incluye una sola variable, por lo que la función se puede separar en una suma de funciones de variables individuales. Por ejemplo, si f(x) es una función separable, se puede expresar como
  • 15. son cada tina funciones de una sola variable x1 y x2, respectivamente. Usando el mismo razonamiento, se puede verificar que la función considerada en la figura 13.7 también es una función separable. Es importante distinguir estos problemas de otros de programación convexa, pues cualquier problema de programación separable se puede aproximar muy de cerca mediante uno de programación lineal y, entonces, se puede aplicar el eficiente métodosímplex.
  • 16. La programación no convexa incluye todos los problemas de programación no lineal que no satisfacen las suposiciones de programación convexa. En este caso, aun cuando se tenga éxito en encontrar un máximo local, no hay garantía de que sea también un máximo global. Por lo tanto, no se tiene un algoritmo que garantice encontrar una solución óptima para todos estos problemas; pero sí existen algunos algoritmos bastante adecuados para encontrar máximos locales, en especial cuando las formas de las funciones no lineales no se desvían demasiado de aquellas que se supusieron para programación convexa. En la sección 13.10 se presenta uno de estos algoritmos. Ciertos tipos específicos de problemas de programación no convexa se pueden resolver sin mucha dificultad mediante métodos especiales. Dos de ellos, de gran importancia, se presentarán más adelante.
  • 17. Cuando se aplica programación no lineal a problemas de diseño de ingeniería, muchas veces la función objetivo y las funciones de restricción toman la forma En tales casos, las ci y a ty representan las constantes físicas y las x} son las variables de diseño. Estas funciones por lo general no son ni cóncavas ni convexas, por lo que las técnicas de programación convexa no se pueden aplicar directamente a estos problemas de programación geo- métrica. Sin embargo, existe un caso importante en el que el problema se puede transformar en un problema de programación convexa equivalente. Este caso es aquel en el que todos los coeficientes c¿ en cada función son estrictamente positivos, es decir, las funciones son polinomios positivos generalizados (ahora llamados posinomiales), y la función objetivo se tiene que minimizar. El problema equivalente de programación convexa con variables de decisión yx, y2,…, yn se obtiene entonces al establecer
  • 18. Suponga que la función objetivo se encuentra en la forma de una fracción, esto es, la razón o cociente de dos funciones, Estos problemas de programación fraccional surgen, por ejemplo, cuando se maximiza la razón de la producción entre las horas-hombre empleadas (productividad), o la ganancia entre el capital invertido (tasa de rendimiento), o el valor esperado dividido entre la desviación estándar de alguna medida de desempeño para una cartera de inversiones (rendimiento/riesgo). Se han formulado algunos procedimientos de solución especiales1 para ciertas formas de f1(x) y f2 (x) Cuando se puede hacer, el enfoque más directo para resolver un problema de programación fraccional es transformarlo en un problema equivalente de algún tipo estándar que disponga de un procedimiento eficiente. Para ilustrar esto, suponga que f(x) es de la forma de programación fraccional lineal
  • 19. donde c y d son vectores renglón, x es un vector columna y c0 y dQ son escalares. También suponga que las funciones de restricción g¡ (x)son lineales, es decir, las restricciones en forma matricial son Ax < b y x > 0. Con algunas suposiciones débiles adicionales, el problema se puede transformar en un problema equivalente de programación lineal si se establece que se puede resolver con el método símplex. En términos generales, se puede usar el mismo tipo de transformación para convertir un problema de programación fraccional con /¡(x) cóncava, f2 (x) convexa y g¡ (x) convexas, en un problema equivalente de programación convexa.