Este documento presenta una introducción a la optimización basada en cúmulos de partículas (PSO). Brevemente describe que PSO es un método heurístico inspirado en el comportamiento de bandadas de aves y bancos de peces. Explica que cada partícula representa una posible solución y actualiza su posición basada en su mejor posición y la mejor posición de sus vecinas. Finalmente, menciona algunos parámetros clave de PSO como los coeficientes de inercia y de influencia social e individual.
Este documento describe la optimización en ingeniería y la aplicación de la investigación de operaciones. Define la optimización como el uso de técnicas matemáticas y estadísticas para mejorar diversos sistemas mediante la modelización matemática de problemas. Explica conceptos clave como procesos, sistemas y modelos, y clasifica diferentes tipos de modelos. También cubre temas como la programación lineal, métodos de resolución como el método gráfico y el método simplex, y las etapas para aplicar la investigación de operaciones
Este documento presenta la materia de Investigación de Operaciones I impartida por el Dr. Carlos Pérez Méndez. Describe su objetivo de comprender los procesos y decisiones de una empresa, así como los requisitos para tareas y prácticas como entregar trabajos de manera individual, en formato adecuado y con documentación. También incluye el temario de la asignatura y conceptos clave de la investigación de operaciones.
El documento trata sobre la investigación de operaciones (IO), que es la aplicación del método científico para asignar recursos de forma eficiente en sistemas complejos. La IO tiene como objetivo ayudar en la toma de decisiones mediante un enfoque interdisciplinario. Se describe el método de la IO, que incluye la definición del problema, la formulación del modelo matemático, la resolución y el análisis de resultados. También se explica brevemente la historia y actualidad de la IO.
El documento describe conceptos básicos de optimización como buscar la mejor manera de realizar una actividad teniendo en cuenta recursos como tiempo, memoria, etc. Explica que la optimización de sistemas intenta adaptar programas para que realicen tareas de forma eficiente dependiendo del hardware. También presenta métodos de optimización como el método de Lagrange y condiciones de Karush-Kuhn-Tucker. Por último, detalla los pasos para formular un problema de optimización considerando variables, objetivo, restricciones y resolución.
Este documento presenta un resumen del curso de Investigación de Operaciones. El curso aplicará modelos cuantitativos como Programación Lineal, problemas de transporte y asignación, y simulación para resolver problemas de administración y optimizar soluciones. Los objetivos incluyen aplicar modelos cuantitativos, optimizar soluciones mediante Investigación de Operaciones, y conocer el potencial de la simulación y los sistemas de manejo de inventarios.
Este documento describe varias técnicas de optimización como el método de Newton y métodos determinísticos, estocásticos y estadísticos. Presenta un ejemplo de formulación de un problema de optimización para maximizar ganancias en una fábrica y encontrar la cantidad óptima de productos a manufacturar. Explica el procedimiento general para resolver problemas de optimización e incluye conclusiones sobre optimización de Pareto y el uso de métodos para encontrar máximos y mínimos.
El documento describe varios métodos de optimización matemática como el método de Newton, Jacobi, Lagrange y Euler. Explica conceptos clave como función objetivo y restricciones. Además, presenta un procedimiento general para resolver problemas de optimización.
Este documento describe la optimización en ingeniería y la aplicación de la investigación de operaciones. Define la optimización como el uso de técnicas matemáticas y estadísticas para mejorar diversos sistemas mediante la modelización matemática de problemas. Explica conceptos clave como procesos, sistemas y modelos, y clasifica diferentes tipos de modelos. También cubre temas como la programación lineal, métodos de resolución como el método gráfico y el método simplex, y las etapas para aplicar la investigación de operaciones
Este documento presenta la materia de Investigación de Operaciones I impartida por el Dr. Carlos Pérez Méndez. Describe su objetivo de comprender los procesos y decisiones de una empresa, así como los requisitos para tareas y prácticas como entregar trabajos de manera individual, en formato adecuado y con documentación. También incluye el temario de la asignatura y conceptos clave de la investigación de operaciones.
El documento trata sobre la investigación de operaciones (IO), que es la aplicación del método científico para asignar recursos de forma eficiente en sistemas complejos. La IO tiene como objetivo ayudar en la toma de decisiones mediante un enfoque interdisciplinario. Se describe el método de la IO, que incluye la definición del problema, la formulación del modelo matemático, la resolución y el análisis de resultados. También se explica brevemente la historia y actualidad de la IO.
El documento describe conceptos básicos de optimización como buscar la mejor manera de realizar una actividad teniendo en cuenta recursos como tiempo, memoria, etc. Explica que la optimización de sistemas intenta adaptar programas para que realicen tareas de forma eficiente dependiendo del hardware. También presenta métodos de optimización como el método de Lagrange y condiciones de Karush-Kuhn-Tucker. Por último, detalla los pasos para formular un problema de optimización considerando variables, objetivo, restricciones y resolución.
Este documento presenta un resumen del curso de Investigación de Operaciones. El curso aplicará modelos cuantitativos como Programación Lineal, problemas de transporte y asignación, y simulación para resolver problemas de administración y optimizar soluciones. Los objetivos incluyen aplicar modelos cuantitativos, optimizar soluciones mediante Investigación de Operaciones, y conocer el potencial de la simulación y los sistemas de manejo de inventarios.
Este documento describe varias técnicas de optimización como el método de Newton y métodos determinísticos, estocásticos y estadísticos. Presenta un ejemplo de formulación de un problema de optimización para maximizar ganancias en una fábrica y encontrar la cantidad óptima de productos a manufacturar. Explica el procedimiento general para resolver problemas de optimización e incluye conclusiones sobre optimización de Pareto y el uso de métodos para encontrar máximos y mínimos.
El documento describe varios métodos de optimización matemática como el método de Newton, Jacobi, Lagrange y Euler. Explica conceptos clave como función objetivo y restricciones. Además, presenta un procedimiento general para resolver problemas de optimización.
Este documento presenta una introducción a la investigación operativa. Define la investigación operativa como un enfoque científico para la toma de decisiones que involucra modelar situaciones complejas, desarrollar técnicas de solución y comunicar efectivamente los resultados. Explica que la investigación operativa se aplica para asignar recursos de forma eficaz evaluando el rendimiento de sistemas para mejorarlos. Además, resume brevemente la historia y el método de la investigación operativa.
Este documento presenta información sobre un proyecto de ingeniería bioquímica realizado por un equipo de 5 estudiantes del Instituto Tecnológico de Tuxtla Gutiérrez. Incluye detalles sobre la función objetivo y la formulación de un modelo de programación lineal para resolver problemas de optimización. También resume conceptos clave como mínimos locales y globales, y métodos numéricos como búsqueda de línea y región de confianza para la optimización de funciones.
Este documento presenta un problema de programación lineal para una compañía minera. Se define el objetivo de minimizar los costos de producción sujeto a restricciones de producción y un contrato de suministro. Se formula matemáticamente definiendo las variables, restricciones y objetivo para representar el problema como un modelo de programación lineal.
El documento describe varios conceptos relacionados con la optimización incluyendo la definición de optimización como la selección del mejor elemento de un conjunto para maximizar o minimizar una función objetivo. También describe la formulación de problemas de optimización, los pasos para resolver problemas de optimización, y métodos numéricos como el método de Newton para resolver problemas de optimización.
Introducción a la optimización heurística en ingeniería► Victor Yepes
Seminario del profesor Víctor Yepes sobre la optimización heurística en ingeniería realizada en octubre de 2013 en la Pontificia Universidad Católica de Chile
Implementaciones PHub ABH Búsquedas No Constructivasedmodi
Este documento presenta los resultados de cuatro algoritmos basados en trayectorias para resolver el problema p-hub. Se estudian tres casos usando búsqueda multiarranque básica, GRASP, GRASP extendido e ILS. GRASP construye soluciones greedy probabilísticas y las optimiza con búsqueda local, mientras que GRASP extendido aplica mutación adicional. Los resultados son analizados para comparar los métodos de búsqueda.
Este documento presenta una introducción a la optimización y varios métodos para resolver problemas de optimización. Explica que la optimización busca mejorar un proceso maximizando beneficios o minimizando costos. Luego describe métodos clásicos como el método de Newton y el procedimiento general para resolver problemas de optimización, el cual implica establecer variables, funciones objetivo, restricciones, derivar e igualar a cero para encontrar extremos. Finalmente, menciona formas de funciones objetivo y diferentes métodos numéricos para formular y resolver problemas de optimización
El documento describe diferentes sistemas de reducción y búsqueda heurística. Explica que los sistemas de reducción dividen un problema grande en subproblemas más pequeños y sencillos. Luego, describe que la búsqueda heurística explora primero las soluciones más prometedoras pero no garantiza encontrar una solución, y presenta algunos ejemplos como A* y la búsqueda en anchura y profundidad. Finalmente, resume diferentes estrategias de búsqueda como el gradiente, primero el mejor y búsqueda en haz.
Programa Analitico_41d7d282ce8eed666ac399e6cda646a1.pdfSarahCorderoElias
Este documento presenta un programa de formación para la asignatura de Fundamentos de Matemáticas. Define los datos generales de la asignatura, las competencias a desarrollar, los contenidos divididos en bloques temáticos, las estrategias de enseñanza y aprendizaje, los recursos didácticos y el sistema de evaluación. El sistema de evaluación se basa en evaluaciones diagnósticas, formativas y de promoción para medir el logro de competencias a través de evidencias de conocimiento, desempeño, actitud y productos.
La optimización es el proceso de mejorar algo mediante el análisis de variaciones iniciales y la información obtenida. Existen diferentes categorías de optimización como la continua, discreta y basada en modelos o empírica. La optimización implica el uso de técnicas matemáticas para encontrar la solución óptima a un problema, considerando compromisos entre variables y objetivos.
Este documento presenta la planificación de un curso de optimización que consta de 5 semanas. Cada semana se cubrirán aproximadamente 2 temas. Habrá un parcial a mediados del curso y un proyecto final al final del curso. El documento también incluye conceptos teóricos básicos de optimización como funciones objetivo, restricciones y regiones factibles.
1) El documento trata sobre técnicas de optimización de software y hardware para mejorar el rendimiento. 2) Describe métodos de optimización como local vs global y dependiente vs independiente de la máquina. 3) Explica conceptos clave como función objetivo y métodos como el de Newton para encontrar soluciones óptimas.
“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”vanessa sobvio
Este documento presenta un análisis para determinar cuál de dos complejos vitamínicos (Complejo B1 y Complejo B2) es mejor para comercializar. Utiliza un modelo de programación lineal para maximizar los beneficios tomando en cuenta la disponibilidad y composición de cada complejo. El modelo concluye que el Complejo B1 es el óptimo para comercializar al poder proporcionar mayores beneficios.
Un prototipo para el modelado de un sistema de metaheurísticas cooperativa...Emilio Serrano
Un prototipo para el modelado de un sistema de metaheurísticas cooperativas: obtención de conocimiento para el estudio del problema algoritmo-instancia
Este documento presenta los principios fundamentales de la teoría de optimización para resolver problemas que requieren obtener el máximo beneficio o el mínimo esfuerzo. Describe los métodos de optimización clásicos como el método de Newton y los métodos iterativos. También explica el proceso general para formular un problema de optimización, incluyendo la identificación de variables de decisión, parámetros, función objetivo y restricciones. Finalmente, resume varios métodos numéricos para resolver problemas de optimización.
Este documento resume diferentes estrategias de búsqueda informada como la búsqueda primero el mejor, búsqueda A*, búsqueda heurística con memoria acotada, y algoritmos de búsqueda local para problemas de optimización. También discute el uso de funciones heurísticas para guiar la búsqueda de manera más eficiente.
Presentación que abarca los conceptos básicos de la optimización, la formulación de problemas, métodos de optimización y el procedimiento para la resolución de estos problemas.
Este documento describe un curso sobre la aplicación de modelos cuantitativos de Investigación de Operaciones para resolver problemas reales. El curso busca aplicar modelos como Programación Lineal y Problemas de Transporte. Los objetivos son aplicar modelos cuantitativos en la resolución de problemas administrativos y optimizar soluciones usando Investigación de Operaciones. La metodología incluye clases expositivas, videos, tareas, prácticas y exámenes. La evaluación considera asistencia, trabajos individuales y en grupo, y un examen o proyect
La fase luminosa, fase clara, fase fotoquímica o reacción de Hill es la primera fase de la fotosíntesis, que depende directamente de la luz o energía lumínica para poder obtener energía química en forma de ATP y NADPH, a partir de la disociación de moléculas de agua, formando oxígeno e hidrógeno.
Este documento presenta una introducción a la investigación operativa. Define la investigación operativa como un enfoque científico para la toma de decisiones que involucra modelar situaciones complejas, desarrollar técnicas de solución y comunicar efectivamente los resultados. Explica que la investigación operativa se aplica para asignar recursos de forma eficaz evaluando el rendimiento de sistemas para mejorarlos. Además, resume brevemente la historia y el método de la investigación operativa.
Este documento presenta información sobre un proyecto de ingeniería bioquímica realizado por un equipo de 5 estudiantes del Instituto Tecnológico de Tuxtla Gutiérrez. Incluye detalles sobre la función objetivo y la formulación de un modelo de programación lineal para resolver problemas de optimización. También resume conceptos clave como mínimos locales y globales, y métodos numéricos como búsqueda de línea y región de confianza para la optimización de funciones.
Este documento presenta un problema de programación lineal para una compañía minera. Se define el objetivo de minimizar los costos de producción sujeto a restricciones de producción y un contrato de suministro. Se formula matemáticamente definiendo las variables, restricciones y objetivo para representar el problema como un modelo de programación lineal.
El documento describe varios conceptos relacionados con la optimización incluyendo la definición de optimización como la selección del mejor elemento de un conjunto para maximizar o minimizar una función objetivo. También describe la formulación de problemas de optimización, los pasos para resolver problemas de optimización, y métodos numéricos como el método de Newton para resolver problemas de optimización.
Introducción a la optimización heurística en ingeniería► Victor Yepes
Seminario del profesor Víctor Yepes sobre la optimización heurística en ingeniería realizada en octubre de 2013 en la Pontificia Universidad Católica de Chile
Implementaciones PHub ABH Búsquedas No Constructivasedmodi
Este documento presenta los resultados de cuatro algoritmos basados en trayectorias para resolver el problema p-hub. Se estudian tres casos usando búsqueda multiarranque básica, GRASP, GRASP extendido e ILS. GRASP construye soluciones greedy probabilísticas y las optimiza con búsqueda local, mientras que GRASP extendido aplica mutación adicional. Los resultados son analizados para comparar los métodos de búsqueda.
Este documento presenta una introducción a la optimización y varios métodos para resolver problemas de optimización. Explica que la optimización busca mejorar un proceso maximizando beneficios o minimizando costos. Luego describe métodos clásicos como el método de Newton y el procedimiento general para resolver problemas de optimización, el cual implica establecer variables, funciones objetivo, restricciones, derivar e igualar a cero para encontrar extremos. Finalmente, menciona formas de funciones objetivo y diferentes métodos numéricos para formular y resolver problemas de optimización
El documento describe diferentes sistemas de reducción y búsqueda heurística. Explica que los sistemas de reducción dividen un problema grande en subproblemas más pequeños y sencillos. Luego, describe que la búsqueda heurística explora primero las soluciones más prometedoras pero no garantiza encontrar una solución, y presenta algunos ejemplos como A* y la búsqueda en anchura y profundidad. Finalmente, resume diferentes estrategias de búsqueda como el gradiente, primero el mejor y búsqueda en haz.
Programa Analitico_41d7d282ce8eed666ac399e6cda646a1.pdfSarahCorderoElias
Este documento presenta un programa de formación para la asignatura de Fundamentos de Matemáticas. Define los datos generales de la asignatura, las competencias a desarrollar, los contenidos divididos en bloques temáticos, las estrategias de enseñanza y aprendizaje, los recursos didácticos y el sistema de evaluación. El sistema de evaluación se basa en evaluaciones diagnósticas, formativas y de promoción para medir el logro de competencias a través de evidencias de conocimiento, desempeño, actitud y productos.
La optimización es el proceso de mejorar algo mediante el análisis de variaciones iniciales y la información obtenida. Existen diferentes categorías de optimización como la continua, discreta y basada en modelos o empírica. La optimización implica el uso de técnicas matemáticas para encontrar la solución óptima a un problema, considerando compromisos entre variables y objetivos.
Este documento presenta la planificación de un curso de optimización que consta de 5 semanas. Cada semana se cubrirán aproximadamente 2 temas. Habrá un parcial a mediados del curso y un proyecto final al final del curso. El documento también incluye conceptos teóricos básicos de optimización como funciones objetivo, restricciones y regiones factibles.
1) El documento trata sobre técnicas de optimización de software y hardware para mejorar el rendimiento. 2) Describe métodos de optimización como local vs global y dependiente vs independiente de la máquina. 3) Explica conceptos clave como función objetivo y métodos como el de Newton para encontrar soluciones óptimas.
“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”vanessa sobvio
Este documento presenta un análisis para determinar cuál de dos complejos vitamínicos (Complejo B1 y Complejo B2) es mejor para comercializar. Utiliza un modelo de programación lineal para maximizar los beneficios tomando en cuenta la disponibilidad y composición de cada complejo. El modelo concluye que el Complejo B1 es el óptimo para comercializar al poder proporcionar mayores beneficios.
Un prototipo para el modelado de un sistema de metaheurísticas cooperativa...Emilio Serrano
Un prototipo para el modelado de un sistema de metaheurísticas cooperativas: obtención de conocimiento para el estudio del problema algoritmo-instancia
Este documento presenta los principios fundamentales de la teoría de optimización para resolver problemas que requieren obtener el máximo beneficio o el mínimo esfuerzo. Describe los métodos de optimización clásicos como el método de Newton y los métodos iterativos. También explica el proceso general para formular un problema de optimización, incluyendo la identificación de variables de decisión, parámetros, función objetivo y restricciones. Finalmente, resume varios métodos numéricos para resolver problemas de optimización.
Este documento resume diferentes estrategias de búsqueda informada como la búsqueda primero el mejor, búsqueda A*, búsqueda heurística con memoria acotada, y algoritmos de búsqueda local para problemas de optimización. También discute el uso de funciones heurísticas para guiar la búsqueda de manera más eficiente.
Presentación que abarca los conceptos básicos de la optimización, la formulación de problemas, métodos de optimización y el procedimiento para la resolución de estos problemas.
Este documento describe un curso sobre la aplicación de modelos cuantitativos de Investigación de Operaciones para resolver problemas reales. El curso busca aplicar modelos como Programación Lineal y Problemas de Transporte. Los objetivos son aplicar modelos cuantitativos en la resolución de problemas administrativos y optimizar soluciones usando Investigación de Operaciones. La metodología incluye clases expositivas, videos, tareas, prácticas y exámenes. La evaluación considera asistencia, trabajos individuales y en grupo, y un examen o proyect
La fase luminosa, fase clara, fase fotoquímica o reacción de Hill es la primera fase de la fotosíntesis, que depende directamente de la luz o energía lumínica para poder obtener energía química en forma de ATP y NADPH, a partir de la disociación de moléculas de agua, formando oxígeno e hidrógeno.
Plantas medicinales - cómo combaten la diabetes.pptx
PSO_MOPSO_SEMINARIO_OPMO.pptx
1. Optimización basada en
cúmulo (enjambre) de
partículas
Hugo Jair Escalante
Seminario de optimización multi-objetivo
Tonantzintla, Puebla Noviembre 23, 2012
2. Contenido
• Introducción
• Heurísticas inspiradas en metáforas
– Comentario al margen
• PSO: Optimización basada en cúmulo de
partículas
– Relevancia/presencia de PSO
– Algoritmo base
– Parámetros de PSO
• PSO Multi-objetivo
• Comentarios finales
2
3. Heuristics!, Patient rules of thumb, so often
scorned: Sloppy! Dumb! Yet, slowly, common
sense become. [Judea Pearl 1984]
3
4. Optimización heurística
• Métodos exactos: Proporcionan el óptimo pero suelen ser
muy costosos
• Métodos heurísticos: Son rápidos pero no garantizan
encontrar el óptimo
• Métodos heurísticos son adecuados para abordar
problemas:
– Complejos, que son difíciles de resolver con métodos
tradicionales/exactos
– Donde la función objetivo no es derivable
– Donde la función objetivo es no convexa, presenta muchos
mínimos locales o esta dominada por valles
En lo posible, siempre es preferible usar métodos exactos
4
6. Heurísticas inspiradas en metáforas
• Métodos de optimización heurística
inspirados en metáforas son muy
comunes hoy en día (e.g., GA, SA,
ACO, PSO, TS, GRASP, SS)
• Cada día se publican artículos con
mejoras a heurísticas establecidas, o
bien, nuevas heurísticas para
optimización
• Este tipo de métodos ha contribuido
de manera importante al área de
optimización
6
7. Heurísticas inspiradas en metáforas
• Métodos de optimización heurística
inspirados en metáforas son muy
comunes hoy en día (e.g., GA, SA,
ACO, PSO, TS, GRASP, SS)
• Cada día se publican artículos con
mejoras a heurísticas establecidas, o
bien, nuevas heurísticas para
optimización
• Este tipo de métodos ha contribuido
de manera importante al área de
optimización
7
8. Heurísticas “novedosas”
• Desde hace algún tiempo, nuevas heurísticas se proponen
con base en procesos que a primera vista tienen muy poco
que ver con optimización
• No se toma en cuenta en tipo de problema que se aborda,
su estructura o la forma en que un humano inteligente
resolvería el problema
• Aunque de algunas estás técnicas han obtenido resultados
aceptables y han avanzado el estado del arte en
optimización, existen muchas otras heurísticas “novedosas”
que podrían representar un retroceso para el área de
optimización heurística (SIN GENERALIZAR)
K. Sorensen. Metaheuristics – The Methapor Exposed. 2012 (Draft, tutorial - Euro2012) 8
9. • Nuevos métodos toman a otros
procesos como analogía:
– A new fruit fly optimization algorithm
– Shuffled frog leaping algorithm
– The reincarnation algorithm
– Intelligent water drop
– Fly algorithm
– Bat algorithm
– Bees & honey-bee mating algorithms
– Harmony search
– …..
Este es el problema
Heurísticas inspiradas en
metáforas
9
10. The imperialist competitive algorithm
http://en.wikipedia.org/wiki/Metaheuristics
Atashpaz-Gargari, E.; Lucas, C (2007). "Imperialist Competitive Algorithm: An algorithm for optimization inspired by
imperialistic competition". IEEE Congress on Evolutionary Computation. 7. pp. 4661–4666
10
11. The reincarnation algorithm
A. Sharma, A new optimizing algorithm using reincarnation concept. 11th International
Symposium on Computational Intelligence and Informatics (CINTI), pp. 281--288, IEEE, 2010
11
12. The reincarnation algorithm
A. Sharma, A new optimizing algorithm using reincarnation concept. 11th International
Symposium on Computational Intelligence and Informatics (CINTI), pp. 281--288, IEEE, 2010
12
13. Heurísticas inspiradas en
metáforas
• Algunas heurísticas
“novedosas”:
– son refritos de otros métodos;
– se basan en metáforas “raras”;
– no se siguen los principios de la
metáfora adoptada;
– no se realiza una experimentación
seria.
K. Sorensen. Metaheuristics – The Methapor Exposed. Submitted, 2012 (Keynote Euro2012)
Lo raro es que siempre
presentan mejores resultados
que otras alternativas y
eventualmente se publican 13
14. Heurísticas “novedosas” (mejoradas)
• Las mejoras a heurísticas usualmente son del
tipo:
– HC + CA para X
• Se reportan resultados en algunas instancias (sin
análisis de significancia) y se mejoran resultados
obtenidos por otros métodos (muy básicos o ad-
hoc)
• SIN GENERALIZAR
Donde:
HC: heurística conocida
CA: Mecanismo exitoso en otras
heurísticas
X: problema específico
K. Sorensen. Metaheuristics – The Methapor Exposed. 2012 (Draft, tutorial - Euro2012) 14
15. K. Sorensen. Metaheuristics – The Methapor Exposed. 2012 (Draft, tutorial - Euro2012)
Consejos para un buen diseño de heurísticas
15
16. K. Sorensen. Metaheuristics – The Methapor Exposed. 2012 (Draft, tutorial - Euro2012)
Consejos para un buen diseño de heurísticas
16
17. Consejos para un buen diseño de heurísticas
K. Sorensen. Metaheuristics – The Methapor Exposed. 2012 (Draft, tutorial - Euro2012) 17
19. Presencia de PSO
• PSO fue introducido en 1995 por J. Kennedy
(sociología) & R. Eberhart (cómputo)
J. Kennedy, R. Eberhart. Particle swarm optimization. Proceedings., IEEE International Conference on
Neural Networks, pp. 1942--1948, IEEE, 1995.
~3000 citas en 2012
Algunos números:
19
20. Presencia de PSO
Algunos números:
Distribución de publicaciones (ISI web of
knowledge) en cuanto a diversas meta-
heurísticas
Número de publicaciones sobre PSO ente
2001-2011
M. Eslami. A survey of the state of the art in particle swarm optimization. Research Journal of Applied Sciences
Engineering and Technology, 4(9):1181—1197, 2012
20
21. PSO: Optimización basada en
cúmulos de partículas
A. Rosales. Optimización Multi-Objetivo. Seminario de Optimización Multi-objetivo, 2012.
21
22. PSO: Optimización basada en
cúmulos de partículas
• Método de optimización heurística
inspirado en el comportamiento de
sociedades biológicas, donde los
individuos comparten objetivos y
presentan tanto comportamientos
individuales como sociales
– Parvadas de aves
– Bancos de peces
– Enjambres de abejas
22
23. PSO: Optimización basada en
cúmulos de partículas
• Método de optimización heurística
inspirado en el comportamiento de
sociedades biológicas, donde los
individuos comparten objetivos y
presentan tanto comportamientos
individuales como sociales
– Parvadas de aves
– Bancos de peces
– Enjambres de abejas
23
24. PSO: Optimización basada en
cúmulos de partículas
• Las partículas son atraídas hacia la
comida
• Cada partícula recuerda su posición
más cercana con respecto a la
comida
• Las partículas comparten
información con partículas vecinas
sobre cuál ha sido su posición más
cercana a la comida
24
25. PSO: la analogía
• Las partículas están asociadas a las soluciones
del problema a abordar
• La distancia entre la comida y cada partícula
se representa por la función que se desea
optimizar
• El cúmulo de partículas es la población de
soluciones que explorará el espacio de
búsqueda
• Las soluciones se representan por las
posiciones de las partículas en el espacio de
búsqueda
Idea:
Las soluciones tienen una posición en el espacio
de búsqueda (el óptimo tiene una posición
también). El objetivo es que las soluciones
exploren el espacio de búsqueda para llegar al
óptimo del problema. No se sabe donde está el
óptimo pero se sabe que tan lejos esta cada
solución del óptimo.
* Asumiendo que existe un óptimo y que es único.
25
26. PSO: la analogía
¿Es PSO un método de
cómputo evolutivo?
No*: la población inicial
se mantiene durante
todo el proceso de
optimización
26
27. PSO: el algoritmo
• En cada instante de tiempo t, cada
individuo i tiene una posición (xi
t) en el
espacio de búsqueda así como una
velocidad asociada (vi
t)
• El tamaño de xi
t = vi
t = d, las
dimensiones del problema a abordar
• Al inicio PSO solo trabajaba en
espacios continuos, hay extensiones
que permiten trabajar en problemas
de combinatoria o incluso mixtos
Discrete PSO, binary PSO, Geometric PSO
27
28. PSO: el algoritmo
• El algoritmo es un proceso iterativo
en cada instante de tiempo cada
partícula:
– Sabe cuál ha sido su mejor posición
con respecto al objetivo (personal-
best)
– Sabe cuál ha sido la mejor posición de
sus vecinos (global-best)
28
29. PSO: el algoritmo
• Las partículas actualizan su posición
en el espacio de búsqueda de
acuerdo a:
1
0 1 2
( ) ( )
t t t t
i i i i g i
v v p x p x
1 1
t t t
i i i
x v x
Inercia Info. local Info. global
29
30. PSO: el algoritmo
1. Inicializar aleatoriamente la población de
individuos (swarm)
2. Repetir el siguiente proceso iterativo hasta que
un criterio de parada se cumpla:
a) Evaluar la aptitud de cada partícula
b) Determinar las soluciones personal-best (pi), para cada
partícula, y global-best (pg)
c) Actualizar la posición y la velocidad de las partículas
3. Regresa la partícula mejor evaluada
Fitness
value
...
Init t=1 t=2 t=max_it
...
30
34. Parámetros de PSO
• Los principales parámetros de PSO son: φ0, φ1,
φ2 el tipo de vecindario, número de
soluciones, criterio de parada
1
0 1 2
( ) ( )
t t t t
i i i i g i
v v p x p x
1 1
t t t
i i i
x v x
Inercia Info. local Info. global
34
35. Parámetros de PSO
• Los principales parámetros de PSO son: φ0, φ1,
φ2 el tipo de vecindario, número de
soluciones, criterio de parada
1
0 1 2
( ) ( )
t t t t
i i i i g i
v v p x p x
1 1
t t t
i i i
x v x
1
1
1 r
c
2
2
2 r
c
35
36. PSMS sin influencia local
• c1=0; c2=2
Hugo Jair Escalante, Manuel montes, Enrique Sucar. Particle Swarm Model Selection. JMLR, Vol. 10, pp. 405—
440, 2009 36
37. PSMS sin influencia global
• c1=2; c2=0
Hugo Jair Escalante, Manuel montes, Enrique Sucar. Particle Swarm Model Selection. JMLR, Vol. 10, pp. 405—
440, 2009 37
38. PSMS igual influencia local y global
• c1=2; c2=2
Hugo Jair Escalante, Manuel montes, Enrique Sucar. Particle Swarm Model Selection. JMLR, Vol. 10, pp. 405—
440, 2009 38
39. Parámetros de PSO
• Si hacemos
• con
• Valores de garantizan la
convergencia* de PSO
1
1
1 r
c
2
2
2 r
c
2
1
*
8
.
3
*
* Note that in PSO we say that the swarm converges iff limt→inf pgt = p, where p is an arbitrary
position in the search space and t indexes iterations of PSO. Since p refers to an arbitrary position,
this definition does not mean either convergence to local or global optimum, but convergence to the
global best position in the swarm (van den Bergh, 2001; Reyes and Coello, 2006; Engelbrecht,
2006).
F. van den Bergh. An Analysis of Particle Swarm Optimizers. PhD thesis, University of Pretoria, Sudafrica,
November 2001.
39
40. Parámetros de PSO
• Sobre la inercia:
• Uno de los métodos más usados es un peso de inercia
adaptativo
• Se fija al inicio φ0 = wstart, y este valor es disminuido
linealmente durante k-iteraciones hasta un valor φ0 = wend
• Valores grandes de φ0 permiten moverse en pasos más
grandes mientras que valores pequeños de φ0 permiten
explorar intensivamente ciertas zonas
1
0 1 2
( ) ( )
t t t t
i i i i g i
v v p x p x
40
41. Parámetros de PSO
• Vecindario: El esquema más usado es el
esquema totalmente conectado, aunque hay
diversas variantes
41
42. Más allá de PSO
• Extensiones:
– Existe un gran número de variantes de
PSO (muchas del tipo Frankenstein)
– Desde hace algún tiempo se han
propuesto métodos híbridos
• Aplicaciones:
– La primera aplicación de PSO fue en el
entrenamiento de redes neuronales
(optimización de los pesos)
– Hoy en día PSO se ha aplicado en
infinidad de problemas
42
43. PSO: Optimización basada en
cúmulos de partículas
A. Rosales. Optimización Multi-Objetivo. Seminario de Optimización Multi-objetivo, 2012.
43
46. MOPSO: Versión multi-objetivo
• Cuando se intenta resolver un
problema de MOOP se tienen,
en general, tres objetivos:
– Maximizar el número de
elementos en el FP
– Minimizar la distancia del FP
producido por el método de
MOOP con respecto al FP real
– Maximizar la dispersión de
soluciones encontradas
46
47. MOPSO: Versión multi-objetivo
• De acuerdo a lo anterior, PSO debe ser modificado
tomando en cuenta lo siguiente:
– Cómo seleccionar partículas lideres dando preferencia a
soluciones no-dominadas
– Cómo retener soluciones no-dominadas encontradas
durante el proceso de búsqueda de manera que se
reporten soluciones no-dominadas con respecto a todas
las soluciones anteriores, es deseable que dichas
soluciones se posicionen dispersamente en el FP
– Cómo mantener diversidad en la población a fin de evitar
convergencia hacia una única solución
47
48. MOPSO: el algoritmo
• En cada instante de tiempo t, cada
individuo i tiene una posición (xi
t)
en el espacio de búsqueda así como
una velocidad asociada (vi
t)
• El tamaño de xi
t = vi
t = d, las
dimensiones del problema a
abordar
48
49. MOPSO: el algoritmo
• Las partículas actualizan su posición
en el espacio de búsqueda de
acuerdo a:
1
0 1 2
( ) ( )
t t t t
i i i i g i
v v p x p x
1 1
t t t
i i i
x v x
Inercia Info. local Info. global
Entonces, ¿qué cambia?
49
50. MOPSO: Versión multi-objetivo
PSO
MOPSO
Margarita Reyes-sierra , Carlos A. Coello Coello . Multi-Objective
particle swarm optimizers: A survey of the state-of-the-art,
INTERNATIONAL JOURNAL OF COMPUTATIONAL INTELLIGENCE
RESEARCH, 2006
50
51. MOPSO: Versión multi-objetivo
• Existen muchas variantes para dar solución a
cada sub-problema dentro de PSO, la mayoría
son heurísticas
Margarita Reyes-sierra , Carlos A. Coello Coello . Multi-Objective particle swarm optimizers: A survey of the state-
of-the-art, INTERNATIONAL JOURNAL OF COMPUTATIONAL INTELLIGENCE RESEARCH, 2006
51
52. Pros y contras de PSO
• Método simple y extremadamente fácil de
implementar
• No requiere de operadores especializados para la
generación de nuevas soluciones
• Permite controlar “fácilmente” la forma en que se
explora el espacio de búsqueda
• Se puede adaptar de acuerdo a las características del
problema
52
53. Pros y contras de PSO
• No hay un análisis de convergencia general,
solo hay resultados para simplificaciones
• No se garantiza encontrar el mínimo
• Tiene problemas con problemas de no-
continuos
53
54. Gracias por su atención
¿Preguntas?
hugojair@inaoep.mx
http://hugojair.org/
54