UNIVERSIDAD DE TALCA
FACULTAD DE INGENIERÍA
ALGORÍTMOS PARA EL PROBLEMA DEL ÁRBOL
DE EXPANSIÓN ROBUSTO CON INCERTIDUMBRE
I...
vi
vii
Esta tesis está dedicada a:
Las dos mujeres que me toleraron y acompañaron durante este proceso de intenso trabajo;
So...
viii
Agradecimientos
A toda mi familia, la cual me ha apoyado en cada paso que he dado en mi vida. En especial a "mi
amor"...
ix
Resumen
Esta tesis aborda el Problema Árbol de Expansión con incertidumbre intervalar en los costos,
utilizando el crit...
x
ÍNDICE
CAPÍTULO I: INTRODUCCIÓN............................................................................................
xi
5.3.3 Análisis del comportamiento de B&C............................................................................ 69...
xii
Tabla 23. Análisis de heurísticas instancias Ya(C,C) ....................................................................
xiii
ÍNDICE DE GRÁFICOS
Gráfico 1. Porcentaje de instancias resueltas para un tiempo dado....................................
CAPÍTULO I: INTRODUCCIÓN
Este capítulo tiene por objetivo dar a conocer la problemática, en particular, con la que se
trab...
15
1.1 CONTEXTUALIZACIÓN
Dentro de la Investigación de Operaciones (IO) una de las áreas más desarrolladas es la
optimizac...
16
trabajo realizado por Boruvka (1926) y considerando que la solución propuesta en dicho trabajo,
desde su punto de vista...
17
1.2 MANEJO DE INCERTIDUMBRE
Una de las discusiones presentes desde los orígenes de la investigación de operaciones es l...
18
corto, de ahora en adelante SP (Shortest Path) (Karasan et al. 2001), MST (Yaman et al., 2001),
problemas de localizaci...
19
1.4 ESTRUCTURA DE LA TESIS
El presente trabajo está organizado de la siguiente forma: en la sección 2 se entregan los
f...
CAPÍTULO II: MODELO MINMAX REGRET
En este capítulo se introduce la teoría actual de la optimización robusta con incertidum...
21
2.1 DESCRIPCIÓN GENERAL
Desde los orígenes de la investigación de operaciones la incerteza ha despertado el interés por...
22
gran relevancia, y más actualizada para este tipo de modelos, es la presentada por (Kasperski A.
,2008).
En este trabaj...
23
Otro criterio conocido para el manejo de la robustez a través de MinMax es el llamado MinMax
absolut, el cual es un cri...
24
, . A partir de lo anterior se pueden deducir las siguientes definiciones y el
teorema 1.
Definición 1: Un escenario es...
25
LUSTRACIÓN 2. CÁLCULO DEL REGRET PARTE II
ILUSTRACIÓN 3. CÁLCULO DEL REGRET PARTE III
ILUSTRACIÓN 4. CÁLCULO DEL REGRET...
26
Ahora se asocia al conjunto de soluciones con el de vectores binarios , éste
satisface las siguientes condiciones:
 Si...
27
la complejidad del modelo MMR. Una buena referencia se puede encontrar en (Aissi et al., 2005). A
continuación se prese...
28
CAPÍTULO III: MIN-MAX REGRET SPANNING TREE
En este capítulo se entrega la principios matemáticos del MMR-ST, además de ...
29
3.1 FORMULACIONES PARA MST
Para definir el problema MMR-ST y además conocer las distintas aproximaciones algorítmicas
p...
30
A continuación se presenta una extensión de formulación de este tipo basada en la
formulación del problema de flujo mul...
31
El siguiente teorema es la base para todos los estudios de formulación matemática propuestos
a la fecha.
Teorema 1: (Ya...
32
Esta formulación se aplicó a grafos completos con 10, 15, 20 y 25; la técnica de
preprocesamiento utilizada consistió e...
33
La descomposición de Benders es un método clásico de resolución de problema de gran
escala, fue propuesta por primera v...
34
irrestricto
Al plantear el dual del subproblema, se obtiene un problema de árbol clásico con un vector de
costos modifi...
35
modelo, antes de ser entregado a CPLEX (versión 12.3). El segundo parámetro de comparación es el
algorítmo branch and b...
36
Algoritmo Hm (G,c) Algoritmo Hu (G,c)
Input: Grafo G y función de costos c.
Output: Una solución factible Y para MMR-
S...
37
prominentes para la obtención de soluciones de calidad en POC complejos, este tipo de algoritmos se
basa en la explorac...
38
Tanto la estructura de vecindad como el espacio de búsqueda presentados anteriormente
presentan restricciones, relacion...
39
Algoritmo Búsqueda Tabú (G,c)
Input: Graph G(V, E)
Output: Solution .
1. Compute an initial solution of G
2.
3. Compute...
40
ii. Criterio de aspiración: El criterio de aspiración es una condición que permite realizar un
movimiento aunque este e...
41
CAPÍTULO IV: ALGORITMOS PROPUESTOS PARA
MMR-ST
En este capítulo se describe la propuesta de investigación de este traba...
42
4.1 APORTE DE LA TESIS
Los aportes principales de este trabajo están enfocados en la implementación de nuevos
algoritmo...
43
donde se realice un k-opt para encontrar soluciones similares y posteriormente se genera el corte
por cada solución enc...
44
finalmente las cut-set inequalities son manejadas a través de un algoritmo de flujo máximo de
acuerdo a lo mostrado en ...
45
El pseudocódigo del algoritmo se muestra a continuación.
Algoritmo Branch and Cut con cortes de Benders (G,c)
Input: Pr...
46
El pseudocódigo implementado para el algoritmo Branch and cut (B&C) con cortes de Benders
y apareamiento de restriccion...
47
introducida en los 80' por (Feo & Resende, 1989) y luego se formalizó en (Feo & Resende, 1995),
para revisiones detalla...
48
ILUSTRACIÓN 5. GRAFO G CON DATOS INTERVALARES
ILUSTRACIÓN 6. GRAFO CON NUEVO CRITERIO DE OPTIMIZACIÓN
Definición 1 (Reg...
49
ILUSTRACIÓN 7. COMPOSICIÓN DEL REGRET LOCAL
A continuación se muestra el cálculo del regret para la arista .
ILUSTRACIÓ...
50
ILUSTRACIÓN 9. CÁLCULO DEL REGRET LOCAL PARTE II
Finalmente el regret local de la arista se calcula de la siguiente for...
51
Matemáticamente la generación de la matriz de Regret locales y la respectiva versión
dinámica se realizan siguiendo los...
52
Otro aspecto importante de los algoritmos metaheurísticos propuestos es la definición de
vecindad. En este trabajo se u...
53
Encontrar el camino que une los nodos .
ILUSTRACIÓN 12. DEFINICIÓN DE VECINDARIO PARTE III
Seleccionar aleatoriamente u...
54
CAPÍTULO V: EXPERIMENTACIÓN Y ANÁLISIS DE
RESULTADOS
En este capítulo se estudia el desempeño de los diferentes algorit...
55
5.1 DESCRIPCIÓN DE INSTANCIAS
Para la experimentación se utilizó un subconjunto de las instancias propuestas en (Kasper...
56
capa se conecta con dos nodos (elegidos aleatoriamente) de la primera capa. Finalmente la tercera
capa, contiene un nod...
57
impacto similar (levemente mejor) a las instancias Ya. Es importante mencionar que para el
conjunto de instancias La el...
58
5.3 ALGORITMOS EXACTOS
Debido a que se tiene una propuesta amplia de algoritmos exactos, su análisis se realizará de
ma...
59
caso de las instancias He. En relación a las variantes, existe un pequeño margen de dominancia
por parte de EBD tanto e...
60
TABLA 6. TIEMPOS DE EJECUCIÓN PARA INSTANCIAS YA CON VARIANTES DE BENDERS
BBD EBD HBD
Min Av. Max N Min Av. Max N Min A...
61
TABLA 7. GAP DE INSTANCIAS HE Y MO PARA VARIANTES DE BENDERS SIN OPTIMALIDAD
BBD EBD HBD
N GAP* GAP N GAP* GAP N GAP* G...
62
GRÁFICO 1. PERFIL DE DESEMPEÑO DE LOS TIEMPOS DE RESOLUCIÓN
GRÁFICO 2. PORCENTAJE ACUMULADO DE INSTANCIAS PARA UN GAP D...
63
5.3.2 ANÁLISIS MILP, EBD Y B&C
Como se mencionó anteriormente la siguiente etapa consiste en comparar el rendimiento de...
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares
Próxima SlideShare
Cargando en…5
×

Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares

1.808 visualizaciones

Publicado el

Publicado en: Empresariales
0 comentarios
0 recomendaciones
Estadísticas
Notas
  • Sé el primero en comentar

  • Sé el primero en recomendar esto

Sin descargas
Visualizaciones
Visualizaciones totales
1.808
En SlideShare
0
De insertados
0
Número de insertados
3
Acciones
Compartido
0
Descargas
29
Comentarios
0
Recomendaciones
0
Insertados 0
No insertados

No hay notas en la diapositiva.

Algoritmos para el problema de árbol de expansión mínima robusto con datos intervalares

  1. 1. UNIVERSIDAD DE TALCA FACULTAD DE INGENIERÍA ALGORÍTMOS PARA EL PROBLEMA DEL ÁRBOL DE EXPANSIÓN ROBUSTO CON INCERTIDUMBRE INTERVALAR TESIS PARA OPTAR AL GRADO DE MAGÍSTER EN GESTIÓN DE OPERACIONES Por FRANCISCO JAVIER PÉREZ GALARCE COMISIÓN INTEGRADA POR LOS PROFESORES: Dr. Alfredo Candia Véjar Dr. Fernando Paredes Cajas Dr. Rodrigo Herrera Leiva Marzo, 2013 CURICÓ – CHILE
  2. 2. vi
  3. 3. vii Esta tesis está dedicada a: Las dos mujeres que me toleraron y acompañaron durante este proceso de intenso trabajo; Soledad Miranda y Francisca Pérez.
  4. 4. viii Agradecimientos A toda mi familia, la cual me ha apoyado en cada paso que he dado en mi vida. En especial a "mi amor" Soledad y "mi pequeña" Francisca; por su amor, apoyo y comprensión. A mi maestro Alfredo Candia, por su apoyo, motivación y confianza desde que comenzó mi proceso de magister. A Eduardo Álvarez, por ser mi compañero en este trabajo, brindarme su ayuda y apoyo, incluso desde la distancia. A mis compañeros de magister y pregrado, todos sin distinción son excelentes profesionales y aún mejores personas.
  5. 5. ix Resumen Esta tesis aborda el Problema Árbol de Expansión con incertidumbre intervalar en los costos, utilizando el criterio de Min-Max Regret. Varios algoritmos son implementados, tanto exactos como heurísticos. Con respecto a los algoritmos exactos, se implementan Descomposición de Benders y Branch and Cut, ambos incluyen variantes. Branch and Cut logra superar al resto de los algoritmos, incluso obteniendo gaps menores a un 10%, para 100 nodos, en un conjunto de instancias. En relación a las heurísticas, se desarrolla una heurística constructiva, la que utiliza la información de los intervalos, a diferencia de todas las aproximaciones de la literatura. Se proponen metaheurísticas basadas en Búsqueda Local (Mejora iterativa, Simulated Annealing y GRASP), se obtienen gaps de calidad, incluso para las instancias más complejas. Se realiza una comparación desde un punto de vista experimental, mostrando un buen desempeño, pues se igualan o mejoran los resultados existentes. Palabras clave: Incertidumbre, Min-Max Regret, Árbol de expansión. Abstract This thesis addresses The Robust Spanning Tree Problem with interval uncertainty in data costs, using the Min-Max Regret criterion. Several algorithms are implemented, both exact as heuristic. With respect to exact algorithms are implemented Benders decomposition and Branch and Cut, and both include some variants. Branch and Cut can ourperform the rest of the algorithms, obtaining gaps below 10% for instances with 100 nodes in a set of instances. In relation to heuristics, a constructive heuristic is developed, which uses the information of the intervals, and different to the known approaches from the literature, that only work with scenarios. Metaheuristics based on Local Search (iterative improvement, simulated annealing and GRASP) are proposed and they got quality gap, even for more complex instances . A comparison is made from an experimental point of view, showing a good performance, improving existing results for some group of instances. Key Words: Uncertainty, Min-Max Regret, Spanning Tree.
  6. 6. x ÍNDICE CAPÍTULO I: INTRODUCCIÓN...................................................................................................................... 14 1.1 Contextualización .............................................................................................................. 15 1.2 Manejo de Incertidumbre................................................................................................... 17 1.3 Objetivos............................................................................................................................ 18 1.3.1 Objetivos específicos..................................................................................................... 18 1.4 Estructura de la tesis......................................................................................................... 19 CAPÍTULO II: MODELO MINMAX REGRET................................................................................................... 20 2.1 Descripción General.......................................................................................................... 21 2.2 Modelo Min-Max Regret ................................................................................................... 22 CAPÍTULO III: MIN-MAX REGRET SPANNING TREE..................................................................................... 28 3.1 Formulaciones para MST ................................................................................................. 29 3.2 Definición del MMR-ST ..................................................................................................... 30 3.3 Algoritmos exactos ............................................................................................................ 32 3.4 Heurísticas para MMR-ST................................................................................................ 35 3.5 Metaheurísticas para MMR-ST ........................................................................................ 36 3.5.1 Simulated annealing...................................................................................................... 36 3.5.2 Búsqueda tabú .............................................................................................................. 38 CAPÍTULO IV: ALGORITMOS PROPUESTOS PARA MMR-ST ...................................................................... 41 4.1 Aporte de la Tesis.............................................................................................................. 42 4.1.1 Algoritmo exactos.......................................................................................................... 42 4.1.2 Algoritmos aproximados................................................................................................ 46 CAPÍTULO V: EXPERIMENTACIÓN Y ANÁLISIS DE RESULTADOS.................................................................. 54 5.1 Descripción de instancias........................................................................................................ 55 5.2 Preprocesamiento ............................................................................................................. 56 5.3 Algoritmos Exactos............................................................................................................ 58 5.3.1 Evaluación de variantes de Descomposición de Benders ............................................ 58 5.3.2 Análisis MILP, EBD y B&C ............................................................................................ 63
  7. 7. xi 5.3.3 Análisis del comportamiento de B&C............................................................................ 69 5.3.4 Análisis de instancias La............................................................................................... 72 5.4 Experimentación de algoritmos aproximados. .................................................................. 73 5.4.1 Análisis de heurísticas básicas ..................................................................................... 73 5.4.2 Análisis de metaheurísticas........................................................................................... 78 CAPÍTULO VI: CONCLUSIONES Y TRABAJOS FUTUROS................................................................................ 84 Referencias Bibliografía ............................................................................................................................. 87 Anexo 1: Estadísticas de heurísticas........................................................................................................... 93 Anexo 2: Parámetros GRASP...................................................................................................................... 97 ÍNDICE DE TABLAS Tabla 1. Estructura de costos instancias tipo yaman........................................................................ 55 Tabla 2. Pre procesamiento de instancias He y Mo ......................................................................... 57 Tabla 3. Pre procesamiento de instancias Ya................................................................................... 57 Tabla 4. Tiempos de ejecución He para variantes de Benders resueltas al óptimo......................... 59 Tabla 5. Tiempo de ejecución para instancias Mo con variantes de Benders ................................. 59 Tabla 6. Tiempos de ejecución para instancias Ya con variantes de Benders ................................ 60 Tabla 7. Gap de instancias He y Mo para variantes de Benders sin optimalidad ............................ 61 Tabla 8. Gap para instancias Ya con variantes de Benders............................................................. 61 Tabla 9. Tiempos de ejecución instancias He para MILP, EBD y B&C ............................................ 63 Tabla 10. Tiempo de ejecución instancias Mo para MILP, EBD y B&C ........................................... 64 Tabla 11. Tiempos de ejecución instancias Ya para MILP, EBD y B&C .......................................... 65 Tabla 12. Desviación porcentual instancias He para MILP, EBD y B&C.......................................... 66 Tabla 13. Desviación porcentual instancias Mo para MILP, EBD y B&C ......................................... 66 Tabla 14. Desviación porcentual instancias Ya para MILP, EBD y B&C.......................................... 66 Tabla 15. Análisis de tiempo de B&C para instancias Ya de mayor tamaño................................... 69 Tabla 16. Análisis de tiempo instancias He de mayor tamaño para B&C ........................................ 70 Tabla 17. Análisis de tiempo instancias Mo de mayor tamaño para B&C........................................ 70 Tabla 18. Gap de instancias Ya de mayor tamaño para B&C .......................................................... 71 Tabla 19. ANálisis de desviaciones porcentuales para B&C en instancias mayores tipo He .......... 72 Tabla 20. Análisis instancias MO para B&C en tamaños mayores................................................... 72 Tabla 21. Análisis de tiempos instancias La..................................................................................... 73 Tabla 22. Análisis de gap instancias La............................................................................................ 73
  8. 8. xii Tabla 23. Análisis de heurísticas instancias Ya(C,C) ....................................................................... 74 Tabla 24. Análisis de heurísticas instancias Ya(C,2C) ..................................................................... 75 Tabla 25. Análisis de heurísticas instancias Mo ............................................................................... 75 Tabla 26. Análisis de heurísticas instancias He................................................................................ 75 Tabla 27. Muestra de estadísticas de heurísticas para Ya(C,C) ...................................................... 76 Tabla 28. Muestra de estadísticas de heurísticas para Ya(C,2C) .................................................... 76 Tabla 29. Muestra de estadísticas de heurísticas para He............................................................... 77 Tabla 30. Muestra de estadísticas para heurísticas de Mo .............................................................. 78 Tabla 31. Mínima (min), promedio (av.) y máxima desviación porcentual desde solución de referencia para instancias con 100 nodos. ....................................................................................... 80 Tabla 32. Mínima (min), promedio (av.) Y máxima desviación porcentual desde solución de referencia para instancias con 80 nodos. ......................................................................................... 81 Tabla 33. Mínima (min), promedio (av.) Y máxima desviación porcentual desde solución de referencia para instancias con 60 nodos. ......................................................................................... 82 Tabla 34. Estadísticas de heuríticas Ya(c,c)..................................................................................... 93 Tabla 35. Estadísticas de heurísticas Ya(C,2C) ............................................................................... 94 Tabla 36. Estadísticas heurísticas He............................................................................................... 95 Tabla 37. Estadísticas heurísticas Mo .............................................................................................. 96 Tabla 38. Resultados de GRASP para 100 nodos con distintos conjuntos de parámetros por familia de instancias...................................................................................................................................... 97 ÍNDICE DE ILUSTRACIONES Ilustración 1. Cálculo del regret parte I ............................................................................................. 24 Ilustración 2. Cálculo del regret parte II ............................................................................................ 25 Ilustración 3. Cálculo del regret parte III ........................................................................................... 25 Ilustración 4. Cálculo del regret parte IV ........................................................................................... 25 Ilustración 5. Grafo G con datos intervalares.................................................................................... 48 Ilustración 6. Grafo con nuevo criterio de optimización .................................................................... 48 Ilustración 7. Composición del regret local ....................................................................................... 49 Ilustración 8. Cálculo de regret local parte 1..................................................................................... 49 Ilustración 9. Cálculo del regret local parte II .................................................................................... 50 Ilustración 10. Definición de vecindario parte I ................................................................................. 52 Ilustración 11. Definición de vecindario parte II ................................................................................ 52 Ilustración 12. Definición de vecindario parte III ............................................................................... 53 Ilustración 13. Definición de vecindario parte IV ............................................................................... 53
  9. 9. xiii ÍNDICE DE GRÁFICOS Gráfico 1. Porcentaje de instancias resueltas para un tiempo dado................................................. 62 Gráfico 2. Porcentaje acumulado de instancias para un gap dado .................................................. 62 Gráfico 3. Porcentaje acumulado de instancias v/s tiempo para MILP, EBD Y B&C ....................... 68 Gráfico 4. Porcentaje acumulado de instancias v/s gap para MILP, EBD Y B&C ............................ 68
  10. 10. CAPÍTULO I: INTRODUCCIÓN Este capítulo tiene por objetivo dar a conocer la problemática, en particular, con la que se trabaja, posteriormente se presentan los objetivos del trabajo. Finalmente, se describe la contribución que se realizó.
  11. 11. 15 1.1 CONTEXTUALIZACIÓN Dentro de la Investigación de Operaciones (IO) una de las áreas más desarrolladas es la optimización en redes. Los problemas del área han cautivado el interés de los investigadores de ésta y muchas otras áreas de investigación, que incluso escapan del contexto de la ingeniería, tales como ciencias de la computación, matemática y biología, por nombrar algunas. Dicha relevancia se debe principalmente a la gran variedad de situaciones que pueden ser modeladas en redes. Los estudios de optimización en redes se pueden relacionar con diversas áreas de aplicación, que van desde problemáticas básicas de logística, hasta el modelamiento de redes sociales. Los problemas en redes tienen la propiedad de poder ser representados de forma simple a través de grafos. Para mayor detalle al respecto de los conceptos y propiedades básicas de la teoría de grafos ver (Godsil & Royle, 2001). Una gran cantidad de problemas en grafos pueden ser modelados a través de la optimización combinatorial (CO), donde las restricciones buscan dar una topología particular a la solución, por ejemplo: un tour para el caso del problema del vendedor viajero (TSP), un camino para el caso del problema del camino más corto (SP) o un árbol para el caso del problema del árbol de expansión mínima (MST). La función objetivo busca optimizar una función de costos asociada a dicha estructura. Dentro de los problemas de optimización combinatorial en redes, uno de los más estudiados es el MST. Este problema se define sobre un grafo conexo y no dirigido , donde es un conjunto finito de vértices, que dependiendo de la aplicación pueden representar terminales, estaciones de telecomunicaciones, etc.; corresponde al conjunto de aristas, que representan los enlaces entre los vértices, cada una de estas conexiones tiene un número positivo- real asociado, el cual se denota como , que asocia el peso de ir del vértice al , el cual puede representar costo, tiempo, distancia, etc. Un árbol de expansión (ST) corresponde a un conjunto de n nodos y aristas, con la propiedad de conectar todos los vértices del grafo , luego un MST es el conjunto de aristas que conectan todos los vértices del grafo al menor costo posible. Este problema fue propuesto en diferentes contextos antes del siglo XX, sin embargo, su primera formulación matemática se presentó en 1926, por Boruvka (1926), quién según la historia, tuvo que aprender de dicho problema por petición de un amigo (Jindrich Saxel, empleado de un planta eléctrica), durante la electrificación del sur de Moravia, en la República Checa. Fue para resolver esta problemática, netamente práctica, donde se proporcionó el primer algoritmo conocido para resolver el MST; convencido del gran aporte realizado, Boruvka, el mismo año, publicó otro artículo en donde abordó con mayor detalle la contribución realizada (Boruvka, 1926b). Posteriormente, Vojtech Jarník, otro matemático checo, al darse cuenta de la importancia del
  12. 12. 16 trabajo realizado por Boruvka (1926) y considerando que la solución propuesta en dicho trabajo, desde su punto de vista era muy complicada, trabajó por lo tanto en una solución alternativa, para posteriormente enviarla a través de una carta a Boruvka y, finalmente, publicar un artículo con el mismo nombre de (Boruvka, 1926) con el subtítulo From the letter to Mr. Boruvka (Jarník, 1930). Traducciones de los trabajos de Boruvka y Jarník son presentadas en (Nesetril et al., 2001) y (Korte & Nesetril, 2001b) respectivamente. En la década de los 50’, con la aparición de los primeros computadores, surgieron numerosos estudios importantes, donde destacan los realizados por (Prim, 1957), quien de forma independiente a (Jarník, 1930) propone una alternativa semejante y (Kruskal, 1956) el cual propone una tercera alternativa de solución a la problemática. Si bien hasta la fecha se siguen proponiendo nuevos algoritmos, son estos trabajos los que juegan el rol principal en la historia del MST. Para una revisión completa de los aportes realizados respecto al MST ver (Graham & Hell, 1985), (Magnanti & Wolsey, 1995), (Nesetril, 1997) y (Nesetril et al., 2001). Los problemas de árbol han llamado el interés de la investigación de operaciones por diversas razones, en primer lugar por su gran aplicabilidad, debido a que las aplicaciones naturales de dicho problema están relacionadas con sistemas de comunicación, tales como: redes telefónicas, eléctricas, hidráulicas, de televisión por cable, computacionales y de transporte. Sin embargo, con el transcurso del tiempo este modelo ha sido propuesto para resolver problemáticas de diferente índole. Algunos trabajos en donde se muestra la diversidad de aplicaciones son: Reconocimiento de filogenia de imágenes en (Rocha & Dias, 2012), Análisis de Jerarquía celular en (Kiranyaz & Gabbouj, 2007), Problemas de localización (Tamir, 2000), diseño de algoritmos para clustering dentro del contexto de data mining (Huang & Li, 2007), diseño de sistemas energéticos eficientes (Zhang, Li, & Lim, 2010), (Li et al., 2011), análisis de crisis financieras (Zhang, et al., 2011), telecomunicaciones (Santos et al. 2008). Otras aplicaciones básicas se pueden encontrar en (Ahuja et al., 1995). Otro factor que ha gatillado el profundo estudio de árboles está dado por la facilidad (algoritmos de tiempo polinomial) con la que se puede resolver el MST clásico, esto ha permitido que todas las aplicaciones antes nombradas hayan sido viables computacionalmente. Un tercer punto de gran importancia es que los árboles están presentes en un área de gran importancia como lo es la optimización en redes, es más, los árboles representan uno de los modelos más básicos para el diseño de redes. Finalmente, los modelos de árbol representan un problema tipo para muchos problemas de optimización combinatorial, por lo que las técnicas estudiadas en éste pueden ser replicadas para esta clase de problemas. Para mayor detalle de las propiedades del MST que han despertado el interés de los investigadores ver (Magnanti & Wolsey, 1995).
  13. 13. 17 1.2 MANEJO DE INCERTIDUMBRE Una de las discusiones presentes desde los orígenes de la investigación de operaciones es la incerteza en los parámetros. Los modelos en forma clásica trabajan bajo el supuesto de que los datos son conocidos, es decir, su naturaleza es determinista. En la práctica trabajar bajo este supuesto es poco realista, la forma tradicional para obviar dicho supuesto es la programación estocástica, sin embargo, esta metodología implica realizar otra afirmación importante, pues requiere definir una distribución de probabilidad, lo cual muchas veces es una tarea titánica y asumir una equivocada, puede generar errores de gran magnitud. Algunos factores que pueden llevar a tener una incorrecta distribución de probabilidad son: poca cantidad de observaciones, muestra inadecuada, errores en proceso de muestreo, desconocimiento del tomador de decisión de la gama de distribuciones de probabilidad existentes, etc. Dada la dificultad para determinar una distribución de probabilidad, durante las últimas décadas ha tomado gran importancia una nueva línea de investigación, la cual trabaja la incertidumbre mediante datos intervalares, donde no se tiene conocimiento con respecto a su distribución de probabilidad. Dicha propuesta de modelamiento de la incertidumbre ha recibido el nombre de optimización robusta. Los acercamientos a la Optimización Robusta han sido diversos y se pueden observar a lo menos 4 fuentes de investigación, cada una con sus propias características. El modelo MinMax (y Minmax Regret) es presentado en la década de los 90’ en términos de optimización robusta, este trabaja los datos de forma intervalar y consideran diferentes criterios para la evaluación de la optimalidad, una compilación de resultados importante es mostrada en (Kouvelis & Yu, 1997). Otra importante fuentes de investigación relevante, es la propuesta por Bertsimas en sus trabajos (Bertsimas & Sim, 2003) y (Bertsimas & Sim, 2004), este se ha convertido en uno de los más importantes modelos en el contexto de la optimización robusta. La característica principal de este enfoque con datos intervalares es que deriva en un modelo de programación lineal entera que conserva la complejidad del problema original. Un tercer acercamiento para el tratamiento de la incertidumbre es el realizado por Ben-Tal, Nemirovski y Ghaoui (2009), donde se trabaja la incertidumbre como perteneciente a elipsoides, conformando un problema de optimización convexa, una excelente referencia se presenta en el libro (Ben Tal et al., 2009). El último y más reciente acercamiento, es el propuesto por (Chen et al., 1997) con un enfoque un tanto distinto, el cual tiene por objetivo minimizar el riesgo. Para mayor detalle del último acercamiento, ver los siguientes trabajos (Chen et al., 2009), (Chen, et al., 2009b), (Álvarez-Miranda et al., 2010) y (Álvarez-Miranda et al., 2011). En este trabajo se profundizará en el modelo Min-Max Regret (MMR) que en particular ha capturado gran atención; diferentes modelos han sido estudiados bajo este concepto; Camino más
  14. 14. 18 corto, de ahora en adelante SP (Shortest Path) (Karasan et al. 2001), MST (Yaman et al., 2001), problemas de localización, de ahora en adelante LP (Location Problem) (Averbakh & Berman, 2005), vendedor viajero, de ahora en adelante TSP (Traveling Salesman Problem) (Montemanni et al., 2007). Una característica importante de los Modelos de tipo MMR es que usualmente modelos que en la versión clásica son fáciles de resolver (tiempo polinomial) en la contraparte robusta se convierten en problemas NP-Hard. El MMR-ST (MinMax Regret Spanning Tree) es un problema que merece ser estudiado, por diversas razones: desafío algorítmico dado por la complejidad del problema, estructura particular que le permite ser un problema tipo (problema anidado MinMax). Luego, las técnicas utilizadas en este pueden ser replicadas a una gran cantidad de problemas en redes, fácil interpretación de la modelación, facilidad de obtención de los parámetros de entrada a diferencia de la programación estocástica, etc. 1.3 OBJETIVOS Estudiar y resolver el problema del Árbol de Expansión Robusto con datos intervalares a través del modelo Min-Max Regret (MMR-ST), mediante algoritmos heurísticos, meta-heurísticas y métodos exactos. 1.3.1 OBJETIVOS ESPECÍFICOS  Revisión bibliográfica de los métodos de optimización robusta con incertidumbre intervalar, con énfasis en el criterio de MMR.  Revisión bibliográfica de algoritmos exactos para solución del MMR-ST e implementar la (s) mejores alternativas.  Revisión bibliográfica y/o meta-heurísticas para la solución del MMR-ST e Implementar la (s) mejores alternativas.  Diseñar e implementar variantes de los algoritmos encontrados en la literatura, tanto para algoritmos heurísticos, meta-heurísticas como métodos exactos.  Analizar y confrontar los resultados obtenidos por los diferentes algoritmos heurísticos y exactos implementados.
  15. 15. 19 1.4 ESTRUCTURA DE LA TESIS El presente trabajo está organizado de la siguiente forma: en la sección 2 se entregan los fundamentos generales de la optimización robusta con especial énfasis en el modelo MMR, se muestran las motivaciones de su uso, se presenta la generalización matemática de un modelo de optimización combinatorial (CO) bajo este modelo. Además, se presenta una recopilación de estudios de su complejidad. En la sección 3, se formaliza el MMR-ST, primero, entregando los fundamentos de las formulaciones matemáticas del problema clásico, y luego, presentando una revisión de los algoritmos exactos y las heurísticas propuestas para la resolución de éste. En la sección 4, se presenta el aporte de esta tesis, es decir, se da una descripción detallada de los algoritmos tanto exactos como heurísticos propuestos para la resolución del problema en estudio. Los resultados de la experimentación son expuestos en la sección 5, acá se presenta además el conjunto de instancias utilizado para el análisis, en este apartado se entrega un análisis exhaustivo de los diferentes algoritmos utilizados. Finalmente, en la sección 6 se despliegan las conclusiones y los posibles trabajos futuros relacionados.
  16. 16. CAPÍTULO II: MODELO MINMAX REGRET En este capítulo se introduce la teoría actual de la optimización robusta con incertidumbre intervalar, dando especial énfasis en la metodología MMR.
  17. 17. 21 2.1 DESCRIPCIÓN GENERAL Desde los orígenes de la investigación de operaciones la incerteza ha despertado el interés por parte de los investigadores. Los modelos de investigación de operaciones en forma clásica trabajan bajo el supuesto de que los datos son conocidos, es decir, su naturaleza es determinista, esta condición es convencionalmente aceptada, sin embargo en ocasiones no considerar la incerteza puede no ser lo más adecuado, el primer acercamiento a la incerteza en un modelo matemático fue realizado por (Dantzig, 1955); a partir de este trabajo nació una de las técnicas más tradicionales para trabajar incerteza, como lo es la programación estocástica, excelentes referencias para profundizar en el tema se presentan en los libros (Uryasev & Pardalos, 2001), (Schneider & Kirkpatrick, 2006) y (Marti, 2008). Esta metodología implica realizar otra afirmación importante, pues requiere definir una distribución de probabilidad; en ocasiones asumir un distribución de probabilidad es una tarea titánica y asumir una equivocada puede generar errores de gran magnitud. Otra aproximación para el tratamiento de la incerteza corresponde a la incertidumbre difusa, la cual se basa en la determinación de una pertenencia gradual, que está dada por una función (función de pertenencia). Este acercamiento al igual que la programación estocástica requiere de una definición de parámetros, el origen de estos modelos está en el trabajo presentado por (Bellman & Zadeh, 1970), un poco de la historia de esta línea de investigación se puede revisar en el libro de (Zimmermann, 2005). Durante las últimas dos décadas ha surgido una nueva línea de investigación que trabaja la incertidumbre de forma determinística, también conocida como optimización robusta (OR). La característica principal es que tanto eventos con alta probabilidad de ocurrencia como eventos con baja probabilidad de ocurrencia tienen la misma importancia. El origen de esta aproximación a la incertidumbre es variado y sus principales precursores pertenecen a las ciencias aplicadas, donde destacan la estadística robusta (Huber & Ronchetti, 2009), el aprendizaje automático (Mitchell, 1997), el control robusto (Dullerud & Paganini, 2010) y obviamente la teoría de optimización. El objetivo de esta rama de investigación es buscar soluciones que entreguen cierta protección al tomador de decisión ante escenarios poco favorables. Los acercamientos a la optimización robusta han sido diversos y se pueden observar a lo menos 4 fuentes de investigación, cada una con sus propias características. El modelo MinMax es presentado en la década de los 90’ en términos de optimización robusta. Éste trabaja los datos de forma intervalar y considera diferentes criterios para la evaluación de la optimalidad. Una compilación de resultados importante es mostrada en (Kouvelis & Yu, 1997), quienes fueron pioneros en la adaptación de robustez a problemas de optimización combinatorial. Otra fuente de información de
  18. 18. 22 gran relevancia, y más actualizada para este tipo de modelos, es la presentada por (Kasperski A. ,2008). En este trabajo se estudiará en más detalle el modelo MMR, en tanto, continuación se profundizará en sus características. 2.2 MODELO MIN-MAX REGRET Los modelos MMR han capturado gran atención dentro de la investigación de operaciones, diferentes aplicaciones han sido estudiadas bajo este concepto: camino más corto (SP) (Karasan et al. 2001), Árbol de expansión (ST) (Yaman et al., 2001), Problemas de localización (LP) (Averbakh & Berman, 2005), vendedor viajero (TSP) (Montemanni et al., 2007), por mencionar algunos. En éstos y en un gran conjunto de trabajos adicionales, se ha analizado el modelo MMR desde diferentes perspectivas, tales como complejidad computacional, algoritmos exactos y heurísticas. Más adelante se verán en un mayor detalle los principales aportes en cada una de las perspectivas. En relación a las aplicaciones se han realizado numerosos esfuerzos para resolver situaciones reales. Ejemplos de esto son algunos trabajos que se mostrarán inmediatamente. En (Luolou & Kanudia, 1999) se utiliza una formulación para un problema relacionado con estrategias de disminución de emisiones de gas en invernaderos, Dicho estudio se llevó a cabo en la provincia de Québec en Canadá. En esta investigación se realizan interesantes comparaciones con una formulación de programación estocástica para el mismo problema. En los trabajos de (Chang & Davila, 2006) y (Chang & Davila, 2007) se utiliza el modelo MMR para abordar la problemática de la gestión de residuos sólidos. En el trabajo del año 2006 se utilizan técnicas de grey programming combinadas con una formulación MMR; posteriormente en (Chang & Davila, 2007) abordan el problema utilizando una formulación MIP para el modelo MMR, la metodología fue aplicada en el Valle Rio Grande (TX, USA). Otro trabajo interesante es presentado en (Kasakci et al., 2007) donde es desarrollado un modelo híbrido a través de Programación Lineal Intervalar (ILP) y la formulación del modelo MMR. En este estudio se analizó la localización de granjas destinadas a la fabricación de biocombustible en Francia. El modelo MMR pertenece a la familia de modelos Min-Max donde se modela la incertidumbre a través de datos intervalares o escenarios discretos. Para el caso de los datos intervalares, a cada parámetro se conoce el valor de su lower y upper bound, pudiendo tomar un valor dentro de este intervalo, que por lo demás, es independiente de los valores del resto de los parámetros. Cuando un conjunto de parámetros toma valores, se obtiene un escenario, lo que significa que cada combinación de parámetros determina un escenario particular, se tiene entonces un conjunto de escenarios que corresponde al producto cartesiano de los intervalos de incerteza. Con respecto a los escenarios discretos se tiene un conjunto que corresponde a una lista de escenarios .
  19. 19. 23 Otro criterio conocido para el manejo de la robustez a través de MinMax es el llamado MinMax absolut, el cual es un criterio bastante más conservador. MMR también conocido como desviación robusta, busca el escenario donde se obtiene la mejor peor desviación robusta, es decir, donde el máximo regret es mínimo. El término regret viene del inglés y significa arrepentimiento; en el contexto de optimización es encontrar la solución que minimice la brecha de la solución bajo cualquier escenario. Este problema puede ser modelado de la siguiente forma: Donde es el conjunto de soluciones factibles, es el conjunto de escenarios posibles, es la función objetivo y la solución optima bajo un escenario particular . El principal desarrollo de este modelo se ha realizado en el área de la CO. A continuación se definirá la notación utilizada para explicar MMR en problemas combinatoriales. Esta fue extraída desde (Averbakh & Lebedev, 2004). Lo primero es definir un problema combinatorial estándar (COP). = sea un conjunto finito de soluciones factibles y una función definida sobre con la propiedad de que el óptimo valor del problema: , siempre existe. Asumiendo que existe incerteza en la función objetivo, es decir, es miembro de una familia de funciones para algún conjunto de escenarios. Considerando independiente del conjunto de escenarios, se denota el óptimo valor para el siguiente problema. = , se obtiene que este problema para algún escenario se reduce a un problema clásico de COP. Luego, para algún y , la función se denomina regret para bajo el escenario . El regret del peor caso para algún y el respectivo escenario inducido se denotará por la función de que está definida por. Se puede observar que . Luego la versión MMR-COP está dada es: Para un problema MMR-COP se considera un conjunto finito base y el conjunto factible de soluciones. Luego cada elemento toma valores dentro de un intervalo
  20. 20. 24 , . A partir de lo anterior se pueden deducir las siguientes definiciones y el teorema 1. Definición 1: Un escenario es obtenido a través de la asignación de un costo . Definición 2: La desviación robusta para una solución factible de un problema combinatorial en un escenario , es la diferencia entre el costo de y el costo de la solución óptima para el escenario . Definición 3: una solución se dice solución robusta relativa (relative robust solution), si este tiene la mínima (entre todas las soluciones) máxima (entre todos los escenarios) desviación robusta. El siguiente teorema es la base para todos los estudios de formulación matemática propuestos a la fecha. Teorema 1: (Yaman et al., 2001). Dada una solución y un escenario , la desviación robusta máxima se produce cuando y , donde representa el escenario inducido por la solución . A continuación se presenta un ejemplo del cálculo del regret para una solución . Dado el grafo mostrado de la ilustración 1 a la 4. En primer lugar, en la ilustración 1, se tiene un grafo con datos intervalares, luego, en la ilustración 2 se tiene una solución . En la ilustración 3 se genera el peor escenario de acuerdo al teorema 1 y se calcula el costo de la solución Finalmente, en la ilustración 4, se procede a calcular la solución óptima en el peor escenario y se calcula su costo 7, y el respectivo regret . ILUSTRACIÓN 1. CÁLCULO DEL REGRET PARTE I
  21. 21. 25 LUSTRACIÓN 2. CÁLCULO DEL REGRET PARTE II ILUSTRACIÓN 3. CÁLCULO DEL REGRET PARTE III ILUSTRACIÓN 4. CÁLCULO DEL REGRET PARTE IV En (Candia-Véjar et al.,, 2011) se muestra un MIP genérico para MMR-COP con restricciones y función objetivo lineal, basado en el teorema antes mencionado y algunos supuestos que se presentarán a continuación. Una característica que resaltan los autores es que este modelo asocia un número polinomial de restricciones y variable. Una variable binaria es definida diciendo si es una parte de la solución construida. Un vector característico de un conjunto de elementos es un vector binario tal que 1 si y solo si .
  22. 22. 26 Ahora se asocia al conjunto de soluciones con el de vectores binarios , éste satisface las siguientes condiciones:  Si es un vector característico de una solución factible , entonces y  Si es un vector característico de un subconjunto además en tanto existe un tal que Luego contiene todos los vectores característicos de todas las soluciones factibles en y éste también puede contener vectores característicos de un subconjunto , tal que, . Sin embargo, en este caso debe contener una solución factible tal que A continuación se asumirá que puede ser descrito como un conjunto de ecuaciones lineales de la siguiente forma: Donde corresponde a un vector de variables auxiliares, que son utilizadas si es necesario, es una matriz y corresponde al vector de costos, primero se asume que la matriz es totalmente unimodular (cada sub matriz cuadrada de tiene determinante 1, 0 ó -1), luego se puede definir la siguiente función: En (Candia-Véjar et al.,, 2011) se muestra que un MMR-COP puede ser expresado de la siguiente forma. Claramente este problema no es lineal, sin embargo considerando la propiedad de total unimodularidad de la matriz es posible transformarlo en un problema lineal con variables binarias, para mayor detalle de esta transformación ver el artículo mencionado. Si bien el problema puede ser expresado como un modelo lineal, su complejidad es una arista de gran importancia, pues problemas que en su versión clásica son fáciles de resolver (en tiempo polinomial), como lo son: MST, SP, asignación, etc., en la versión robusta se transforman en problemas del tipo NP-Hard. Un estudio detallado de la complejidad computacional de los modelos MMR-CO es mostrada en (Kouvelis & Yu, 1997). Varios han sido los trabajos donde se ha estudiado
  23. 23. 27 la complejidad del modelo MMR. Una buena referencia se puede encontrar en (Aissi et al., 2005). A continuación se presentan algunos resultados relevantes de dichos trabajos. MMR-P = NP-Hard incluso con redes de dos capas de ancho y con solamente 2 escenarios. MMR-ST = NP-Hard inclusive si . MMR-Knapsack (en versión robusta absoluta): Fuertemente NP-Hard para conjuntos de escenarios no acotado. MMR-Allocation = NP-Hard inclusive si . MMR-Assigment = NP-Hard inclusive si .
  24. 24. 28 CAPÍTULO III: MIN-MAX REGRET SPANNING TREE En este capítulo se entrega la principios matemáticos del MMR-ST, además de una extensa revisión de los principales aportes algorítmicos realizados a la fecha.
  25. 25. 29 3.1 FORMULACIONES PARA MST Para definir el problema MMR-ST y además conocer las distintas aproximaciones algorítmicas propuestas a la fecha, es necesario conocer algunas formulaciones básicas del problema clásico (MST). Las formulaciones matemáticas para el MST se pueden clasificar en dos grandes grupos. Por un lado se tienen las formulaciones naturales o directas y por el otro las formulaciones derivadas. Con respecto a las formulaciones naturales se mostrarán dos, una basada en un subconjunto de restricciones que previenen circuitos (prevención de subtours) y otra basada en el aseguramiento de la conectividad (cut-set inequalities). Considere la variable binaria (para todo ) que toma valor 1, si el arco está dentro de la solución del MST. Se tiene la siguiente formulación: Restricciones de conectividad La restricción de cardinalidad (2.2) asegura que para cada nodo en el conjunto existe un arco incidente. Para los subconjuntos , se consideran las siguientes definiciones , cuando se tiene que , luego . Para asegurar la conectividad usualmente se utiliza o restricciones de eliminación de subtour, como en la restricción (2.4) o la inclusión de cut-set inequalities como en la restricción (2.5). Es importante mencionar que las cut-set se implementan sobre una versión bidirigida del grafo original, donde cada arista es reemplazada por el arco y cada arista es remplazada con dos arcos y arco , generando el conjunto de arcos , estos arcos heredan el costo o peso de la arista originaria Este tipo de formulación tiene la desventaja de que el número de restricciones de conectividad crece de forma exponencial con el tamaño del problema, pero también se han presentado formulaciones compactas.
  26. 26. 30 A continuación se presenta una extensión de formulación de este tipo basada en la formulación del problema de flujo multi-producto. En esta formulación adicionalmente a las variables se utilizarán las variables de decisión (para todo y ), lo cual especifica si el arco es usado en el camino desde el nodo raíz a La formulación del flujo multi-producto se presenta a continuación. , , Las restricciones de conservación del flujo (2.6), (2.7) y (2.8) establecen que la solución debe tener un camino, entre el nodo 0 y el nodo (para todo ), la restricción (2.9) asegura que solo es posible enviar flujo a través del nodo a través del arco si este arco se encuentra dentro de la solución. Estos conjuntos de restricciones permiten asegurar la conectividad de la solución. 3.2 DEFINICIÓN DEL MMR-ST El MMR-ST es definido sobre un grafo , donde es el conjunto de vértices y es el conjunto de aristas. Un intervalo con se asocia a cada arista . Los intervalos representan rangos de pesos posibles, pueden estar asociados a costos, distancias, tiempo, etc. Definición 1: Un escenario es obtenido a través de la asignación de un costo . Definición 2: La desviación robusta para un ST en un escenario , es la diferencia entre el costo de y el costo de la solución optima para el escenario . Definición 3: un ST se dice solución robusta relativa (relative robust solution), si éste tiene las más pequeña (entre todas las soluciones) máxima (entre todos los escenarios) desviación robusta.
  27. 27. 31 El siguiente teorema es la base para todos los estudios de formulación matemática propuestos a la fecha. Teorema 1: (Yaman et al., 2001). Dado un ST un escenario , la desviación robusta máxima se produce cuando y , donde representa el escenario inducido por la solución . Con respecto a la complejidad de este problema (Aron & Van Hentenryck, 2004) probaron que es NP-Hard inclusive si el intervalo de incerteza es igual a , polinomial si el número de aristas con intervalo de incerteza es fijo o acotado por el logaritmo de una función polinomial de el número total de aristas. En este mismo trabajo se generaliza el resultado antes mostrado. La clasificación de NP-Hard del MMR-ST fue probada independientemente por (Aissi et al., 2005). En este trabajo también se probó para intervalos de costo y además si el grafo es completo. La primera formulación matemática del modelo MMR-ST fue presentada por (Yaman et al., 2001), en dicho trabajo también presentan técnicas de pre-procesamiento, el modelo se basa en dos formulaciones matemáticas, la primera propuesta por (Magnanti & Wolsey, 1995) es la formulación single commodity model (F1), el segundo modelo utilizado es el problema dirigido de flujo multi- producto (F2) (Yaman et al., 2001) utiliza ambas formulaciones para representar el MMR-ST, para representar las aristas de un ST utiliza F1 y para modelar el arrepentimiento del ST utiliza el dual de F2. Luego la formulación resultante se presenta a continuación. Irrestricta
  28. 28. 32 Esta formulación se aplicó a grafos completos con 10, 15, 20 y 25; la técnica de preprocesamiento utilizada consistió en identificar aristas fuertes y débiles (strong y weak), con esto se logró eliminar un porcentaje de éstas, sin embargo los tiempos de ejecución son bastante altos para instancias de pequeño tamaño como los son las de experimentación. Con respecto al preprocesamiento, una arista es llamada strong si pertenece a un MST en algún escenario , donde es el conjunto de escenarios. Una arista es llamada weak si pertenece a un MST para todos los escenario . 3.3 ALGORITMOS EXACTOS Posterior al trabajo de (Yaman et al., 2001), se han propuesto algunas alternativas de resolución exactas; en (Aron & Van Hentenryck, 2004) se muestra un branch and bound (B&B). Este método mejoró el trabajo de (Yaman et al., 2001) permitiendo resolver instancias de un tipo particular con tamaño de hasta 40 nodos. Un nuevo algoritmo B&B fué propuesto en (Montemanni & Gambardella, 2005) el cual consideró las instancias utilizadas por los trabajos previos e incluyó un grupo con metodología de generación distinta. Para ambos grupos de instancias se mejorarón los resultados obtenidos por (Aron & Van Hentenryck, 2004), según los autores este B&B su esquema de ramificación fue más fuerte. Un acercamiento de gran importancia en relación a algoritmos exactos para la resolución del MMR-ST es el realizado por (Montemanni, 2006). En éste se presenta un algoritmo de descomposición de Benders, cuya formulación es similar a la de (Yaman et al., 2001) con la única salvedad de que cambia F1 por una formulación con menos variables pero con más restricciones, basada en cut-set inequalit. Luego la formulación matemática se presenta a continuación (F3). Irrestricta
  29. 29. 33 La descomposición de Benders es un método clásico de resolución de problema de gran escala, fue propuesta por primera vez por (Benders, 1962). Para ver detalles de la teoría ver también (Geoffrion, 1972). A grandes rasgos, esta metodología consiste en dividir el problema general en dos, un problema maestro y un subproblema. Los resultados de ambos problemas se alimentan de forma iterativa, luego el problema maestro recibe cortes en cada iteración, los cuales se forman a partir del resultado obtenido por el dual del subproblema. La solución de este problema se obtiene cuando el valor del maestro se hace igual al valor del subproblema, pues estos representan la cota inferior y superior del problema original respectivamente. Aplicaciones de esta metodología han sido muchas y en variadas áreas ver (Richardson, 1976), (Magnanti et al., 1986), (Cordeau et al., 2000). Estudios para mejorar el desempeño del algoritmo se muestran en (McDaniel & Devine, 1977) y (Magnanti & Wong, 1981). En relación al problema en estudio (MMR-ST), el subproblema primal recibe una solución que satisfacen las restricciones (4.13) y (4.14) en la primera iteración. Luego deben corresponder a la solución óptima que satisface las restricciones antes mencionadas más los cortes que se van generando. Éste puede ser presentado de la siguiente forma: Irrestricta Se puede realizar una transformación a la función objetivo y puede ser ajustada a la siguiente expresión, con el objetivo de tener un problema dual de la forma del MST. En tanto el modelo del subproblema primal queda de la siguiente forma:
  30. 30. 34 irrestricto Al plantear el dual del subproblema, se obtiene un problema de árbol clásico con un vector de costos modificado, en la formulación flujo multi-bien. Mayor detalle ver en (Magnanti & Wolsey, 1995). Finalmente, el problema maestro puede ser formulado como se muestra a continuación, para mayor detalle ver (Montemanni, 2006). corresponde a una región factible del problema dual, en tanto corresponde a los puntos extremos de esta región, además se introduce una variable para extender la definición del problema maestro. En (Montemanni, 2006) se compara el rendimiento del Benders propuesto, con el algoritmo presentado en (Yaman et al. 2001), que se basó en eficientes técnicas de preprocesamiento del
  31. 31. 35 modelo, antes de ser entregado a CPLEX (versión 12.3). El segundo parámetro de comparación es el algorítmo branch and bound propuesto en (Aron & Van Hentenryck, 2002), el tercer y último parámetro de comparación es el algorítmo branch and bound propuesto por (Montemanni & Gambardella, 2005). Los resultados presentados en este trabajo demuestran que el número de iteraciones del algorítmo de descomposición de Benders se incrementa con el número de nodos, como se esperaba, sin embargo su eficiencia decrece a medida que el paramétro difusor (utilizado para generar instancias) aumenta su valor. Con respecto a los algoritmos de comparación, Benders es el que obtiene los mejores resultados. 3.4 HEURÍSTICAS PARA MMR-ST Como se ha mencionado anteriormente, la alta complejidad del problema MMR-ST no permite obtener resultados de instancias de tamaño aun pequeño (40 nodos máximo) en un tiempo razonable. Lo mismo sucede con un grupo no menor de problemas combinatoriales, en mayor (ej. MMR-TSP) o menor grado (ej. MMR-P). Por el motivo antes presentado, han sido diversas las aproximaciones al problema a través de heurísticas, sin duda una de las propuestas heurísticas de mayor impacto para este tipo de problema ha sido la realizada por (Kasperski & Zielinski, 2006), quienes proponen un algoritmo (Hm) con cota de aproximación 2, esto significa que la peor solución obtenida no tendrá un valor mayor al doble del óptimo, con la ventaja de conservar la complejidad del problema clásico. Los algoritmos propuestos por (Kasperski & Zielinski, 2006) se basan en la definición de un escenario particular, luego se usa este escenario para obtener la solución óptima de un problema clásico, que también corresponde a una solución factible de un problema MMR. Dos escenarios han sido propuestos para la aplicación de esta heurística, el escenario del límite superior y el escenario del punto medio En la realidad estas heurísticas son complementarias, es decir, dado su bajo tiempo de ejecución se ejecutan ambas y se selecciona la mejor. Además queda un espacio para probar distintos escenarios dentro del intervalo de costos y seleccionar la solución que genera el menor arrepentimiento. Otra heurística propuesta, en primera instancia para el MMR-TSP en (Mardones, 2010), pero que puede ser fácilmente generalizada a otros problemas de Optimización combinatorial robusta, es , esta se fundamenta en el buen rendimiento de la heurística en experimentaciones previas y en el trabajo realizado por (Montemanni et al., 2007) La idea fundamental de esta heurística es generar un ranking creciente de costo de soluciones en el escenario . A continuación se muestra el pseudocódigo de las heurísticas de 1 escenario y de la .
  32. 32. 36 Algoritmo Hm (G,c) Algoritmo Hu (G,c) Input: Grafo G y función de costos c. Output: Una solución factible Y para MMR- ST y su arrepentimiento 1. for all do 2. 3. end for 4. Y OPT( ) 5. Z(Y) computeRegret(Y) 6. Return Y, Z(Y) Input: Grafo G y función de costos c. Output: Una solución factible Y para MMR-ST y su arrepentimiento 1. for all do 2. 3. end for 4. Y OPT( ) 5. Z(Y) computeRegret(Y) 6. Return Y, Z(Y) Algoritmo n-Hu (G,c) Input: Grafo G y función de costos c. Output: La mejor solución factible Y para MMR-ST y su arrepentimiento 1. for all do 2. 3. end for 4. OPT( ) 5. computeRegret( ) 6. Return , Ambas metodologías pueden ser generalizadas para cualquier escenario, el único paso que se debe modificar para esto, es el 2 y se debe reemplazar por . 3.5 METAHEURÍSTICAS PARA MMR-ST Con respecto a los algoritmos metaheurísticos, para el problema MMR-ST las propuestas de este tipo han sido escasas, siendo las de mayor impacto las propuestas por (Nikulin, 2008) donde se mostró un simulated annealing y la propuesta por (Kasperski et al., 2012) donde se propuso una algoritmo tabu search. En SA se utilizaron instancias de 10, 20 y 30 nodos obteniendos resultados razonables, donde en TS se utilizaron 6 conjuntos de instancias y se demostró la superioridad en relación a SA. A continuación se explicarán en detalle ambas aproximaciones metaheurísticas. 3.5.1 SIMULATED ANNEALING Simulated Annealing (SA) en una metaheurístca probabilística, propuesta en (Kirkpatrick, Gellat, & Vecchi, 1983) y en (Kirkpatrick A. , 1984), generalmente SA encuentra soluciones cercanas al óptimo en conjuntos de soluciones factibles extensos. SA al igual que Tabu Search (TS) pertenece al conjunto de heurísticas de búsqueda local, este tipo de algoritmos son una de las alternativas más
  33. 33. 37 prominentes para la obtención de soluciones de calidad en POC complejos, este tipo de algoritmos se basa en la exploración de soluciones vecinas, intentando mejorar la solución actual a través de cambios locales, el tipo de cambio local es definido por una estructura de vecindario. El algoritmo de búsqueda local más básico es la mejora iterativa, este algoritmo comienza en una solución inicial y de forma iterativa intenta mejorar la solución actual, hasta que se cumpla un criterio de parada, típicamente un número máximo de iteraciones. A continuación se presenta el pseudocódigo de dicho algoritmo. Algoritmo Mejora iterativa (G,c) Input: Graph G(V, E) Output: Solution S. 1. Compute an initial solution of G 2. 3. while stop criterion = false 4. Find a solution and cost 5. if then 6. 7. end if 8. end while 9. Return , SA se diferencia de este algoritmo de mejora iterativa básico, en primer lugar porque permite salir de óptimos locales a través del criterio de aceptación en base probabilística, es decir, acepta soluciones peores a la actual en la búsqueda, además para su aplicación se debe especificar el espacio de búsqueda, estructura de vecindad, función de probabilidad de aceptación, factor de descenso de temperatura, temperatura inicial, temperatura final y ciclos internos. En la propuesta hecha por (Nikulin, 2008) los principales aportes están en la definición del subespacio de búsqueda y la estructura de vecindad, y a continuación se presenta en detalle. i. Espacio de búsqueda: Un subconjunto del conjunto de aristas puede ser representado por un vector de variables booleanas donde , donde si la arista pertenece al actual subconjunto y en caso contrario. En consecuencia un vector representa el espacio de búsqueda y este es variable en cada iteración. ii. Estructura de vecindad: Sea el actual espacio de búsqueda, se debe escoger aleatoriamente , luego se construye el espacio de búsqueda del vecindario a través de la intervención de . donde si y en caso contrario. La solución inicial utilizada fue .
  34. 34. 38 Tanto la estructura de vecindad como el espacio de búsqueda presentados anteriormente presentan restricciones, relacionadas con el pre procesamiento del grafo. Algoritmo Simulated Annealing (G,c) Input: Graph G(V, E) Output: Solution . 1. Compute an initial solution of G 2. , , 3. ComputeRegret( ), 4. while do 5. 6. while do 7. Find a solution and cost 8. ComputeRegret( ) 9. if then 10. 11. if then 12. 13. end if 14. end if 15. else 16. , 17. if then 18. 19. end if 20. end else 21. 22. end while 23. end while 24. Return , 3.5.2 BÚSQUEDA TABÚ La metaheurística Búsqueda Tabú (Tabú Search - TS) fue propuesta en Glover (1986), en este mismo trabajo se introdujo además el término metaheurística, donde la característica principal de TS es el uso de memoria adaptativa. En relación a la memoria adaptativa de TS, ésta hace uso del historial del procedimiento de solución, dando énfasis en 4 aristas fundamentales como lo son: propiedad de ser reciente, frecuencia, calidad e influencia. El pseudocódigo del algoritmo TS se muestra en seguida.
  35. 35. 39 Algoritmo Búsqueda Tabú (G,c) Input: Graph G(V, E) Output: Solution . 1. Compute an initial solution of G 2. 3. ComputeRegret( ), 4. while stop criterion = false do 5. the move to is not forbidden or 6. Find a spanning tree of the smallest value of 7. 8. if then 9. , /* A better solution has been found*/ 10. 11. 12. end if 13. if then 14. compute a random spanning tree of 15. if then 16. , /* A better solution has been found*/ 17. end if 18. Go to line 4 /* Restart the algorithm*/ 19. else 20. /* performe the move*/ 21. Update TABU 22. end if 23. end while 24. Return , Posterior a conocer la estructura general del algoritmo, es importante conocer las características principales del algoritmo TS propuesto por (Kasperski et al., 2012) para el MMR-ST, estas se presentan a continuación. i. Lista Tabú: En el algoritmo TS al igual que SA es posible explorar soluciones con , con el objetivo de no permanecer en mínimos locales. Una forma de evitar las oscilaciones alrededor de mínimos locales es almacenar información relacionada con el desempeño de los movimientos, información que es almacenada en la llamada Lista Tabú. Esta lista contiene información acerca de movimientos que son prohibidos por un cierto número de iteraciones. Sea la solución actual, se realiza un movimiento agregando a la arista a y se elimina la arista desde , se obtiene la solución desde Con el fin de evitar volver a estar en , se agrega a la lista dos elementos y . Esto significa que se prohíbe agregar la arista a la actual solución por iteraciones y eliminar la arista por iteraciones.
  36. 36. 40 ii. Criterio de aspiración: El criterio de aspiración es una condición que permite realizar un movimiento aunque este esté prohibido, en (Kasperski et al., 2012) se utiliza un criterio donde siempre se permite mover a soluciones mejores . iii. Función de memoria a largo plazo: La lista tabú y el criterio de aspiración son consideradas funciones de memoria a corto plazo de TS. Esto significa que la información almacenada en estas es perdida después de un número pequeño de iteraciones. Con el fin de lograr una diversificación global algunas funciones de memoria a largo plazo pueden ser incorporadas. En (Kasperski et al., 2012) se incorpora un nuevo conjunto de aristas , en la solución inicial y cada vez que se mejora la solución actual se agrega a todo el conjunto de aristas que pertenece a . Después que un número de iteraciones se ha cumplido y la solución actual no mejora, se restaura la solución actual, generando una solución aleatoria del subgrafo . Es importante mencionar que en TS se utilizó una solución inicial aleatoria. Según los autores, después de un proceso de experimentación se llegó al consenso que el esfuerzo computacional para lograr salir de ese óptimo local es mayor al esfuerzo realizado para converger a una solución de calidad como las entregadas por estas heurísticas.
  37. 37. 41 CAPÍTULO IV: ALGORITMOS PROPUESTOS PARA MMR-ST En este capítulo se describe la propuesta de investigación de este trabajo, mencionando aportes esperados, metodologías de trabajo y modelos implementados.
  38. 38. 42 4.1 APORTE DE LA TESIS Los aportes principales de este trabajo están enfocados en la implementación de nuevos algoritmos para la resolución de problemas robustos bajo el criterio Min-Max Regret, particularmente el problema MMR-ST y evaluar su desempeño con respecto a lo propuesto en la literatura. Adicionalmente, se encuentran mejores soluciones para el conjunto de instancias propuestas en (Kasperski et al, 2012). Como se pudo ver en la revisión bibliográfica, los aportes realizados para resolver este tipo de problemas desde el punto de vista algorítmico no son extensos, en relación a algoritmos exactos sólo se muestran propuestas de algoritmos Branch & Bound y Descomposición de Benders. Con respecto a los algoritmos aproximados lo más destacado es Tabu Search, Simulated Annealing y las heurísticas de un escenario (Hu y Hm). A continuación se presentan los aportes de este trabajo divididos en dos grupos algoritmos exactos y algoritmos aproximados. 4.1.1 ALGORITMO EXACTOS Como se ha comentado anteriormente la descomposición de Benders es el algoritmo exacto que ha entregado los mejores resultados, en tanto es natural proponer alguna variante que pudiese mejorar su desempeño. El aporte específico que se realizará en este aspecto es implementar variantes al algoritmo Benders con la formulación cut set inequality mostrada en la literatura en (Montemanni, 2006), a continuación se presenta el pseucódigo del Benders básico. Descomposición de Benders Básica (G,c) Input: Grafo G y función de costos c. Output: Solución óptima y su arrepentimiento 1. Inicialización 1.1 FOMaestro MIN_INT, FOSubP MAX_INT 1.2 Inicializar Maestro con restricciones no complicantes 1.3 , 2. while (FOMaestro<FOSubP) do 2.1 Resolver Maestro 2.2 Resolver dual del problema clásico (MST clásico). 2.3 Agregar corte de benders 3. end while 4. Return , Las dos extensiones del algoritmo de Benders están inspiradas en el trabajo realizado por (Pereira & Averbakh, 2011) en el estudio del problema Set Covering robusto. La primera variante está relacionada con el ingreso de más de un corte por iteración, a diferencia del problema de Benders básico. Para esto se utilizan n búsquedas locales (n = número de cortes agregados)
  39. 39. 43 donde se realice un k-opt para encontrar soluciones similares y posteriormente se genera el corte por cada solución encontrada. Abajo se muestra el pseudocódigo del algoritmo descomposición de Benders con múltiples cortes. Descomposición de Benders con n cortes k-opt (G,c) Input: Grafo G y función de costos c. Output: Solución óptima y su arrepentimiento 1. Inicialización 1.1 FOMaestro MIN_INT, FOSubP MAX_INT 1.2 Inicializar Maestro con restricciones no complicantes 1.3 , 2. while (FOMaestro<FOSubP) do 2.1 Resolver Maestro 2.2 Resolver dual del problema clásico (MST clásico). 2.3 Agregar corte de Benders básico 2.4 Encontrar n soluciones similares a través k-opt 2.5 Ingresar cortes de soluciones similares 3. end while 4. Return , La segunda extensión de Benders está relacionada con el uso de las soluciones incumbentes de CPLEX en la resolución del maestro, es decir, en cada iteración se agrega el corte del problema básico y los cortes generados por cada solución incumbente encontrada en el maestro. Descomposición de Benders con cortes incumbentes (G,c) Input: Grafo G y función de costos c. Output: Solución óptima y su arrepentimiento 1. Inicialización 1.1 FOMaestro MIN_INT, FOSubP MAX_INT 1.2 Inicializar Maestro con restricciones no complicantes 1.3 , 2. while (FOMaestro<FOSubP) do 2.1 Resolver Maestro (guardando soluciones incumbentes) 2.2 Resolver dual del problema clásico (MST clásico). 2.3 Agregar corte de Benders básico 2.4 Ingresar cortes de soluciones incumbentes 3. end while 4. Return , Cabe destacar que el maestro de cada variante es resuelto con un algoritmo Branch and Cut, implementando heurísticas primales, las cuales se alimentan de la información de cada nodo del proceso de Branch and Bound. Además, se utilizan los cortes que posee CPLEX por defecto,
  40. 40. 44 finalmente las cut-set inequalities son manejadas a través de un algoritmo de flujo máximo de acuerdo a lo mostrado en (Álvarez-Miranda et al., 2012). Con respecto a algoritmos exactos en base a ramificación implementados para MMR-ST sólo se tienen las propuestas de Branch and Bound realizadas en (Aron & Van Hentenryck, 2002) y (Montemanni & Gambardella, 2005), sin embargo, los resultados no fueron alentadores. Por otra parte en (Averbakh & Berman, 2005) y (Pereira & Averbakh, 2011) se proponen algoritmos del tipo Branch and Cut para otros problemas del tipo MMR, basados en Benders cuts. En este trabajo se propone implementar este tipo de algoritmo al problema MMR-ST, considerando una doble separación de las restricciones, específicamnente, se dividen las restricciones topológicas del problema árbol y las restricciones asociadas a la robustez. En relación a la separación de las restricciones de robustez, luego de una pequeña adaptación en la formulación la restricción se puede expresar como se muestra en la restricción . Para este grupo de restricciones se utiliza un conjunto de inicialización que corresponden a las soluciones inducidas por los escenarios del límite inferior ( ), punto medio ( ) y límite superior ( ). Dentro del proceso de ramificación en cada nodo se buscan cortes violados utilizando el valor del conjunto de variable para generar , que es calculado como , el valor de es utilizado como peso de las aristas para aplicar un algoritmo para solución de , para cada solución encontrada se genera el peor escenario (Teorema 1) y para este escenario se encuentra la solución óptima . Las soluciones entregadas por corresponden a la solución actual y soluciones en las cuales se distorsiona el valor de a través de la multiplicación por un número aleatorio entre . Adicionalmente se generan soluciones aleatorias con la generación de escenarios donde cada arista toma un valor entre . Para manejar la topología del problema se manejan dos conjuntos de restricciones iniciales, las in dregree contraint y las restricciones de subtour basic La topología dentro del proceso de ramificación es manejado a través cut-set inequalities que son separadas a través de un algoritmo de flujo máximo como se describe en (Álvarez-Miranda et. al, 2012).
  41. 41. 45 El pseudocódigo del algoritmo se muestra a continuación. Algoritmo Branch and Cut con cortes de Benders (G,c) Input: Problema entero con un subconjunto de restricciones. Output: Solución óptima y su arrepentimiento 1. Ingresar cortes iniciales 2. Encontrar solución factible inicial , 3. Resolver la relajación lineal (LP) 4. Hasta aquí se cumple 5. Comenzar el proceso de B&B 6. En cada nodo del B&B ingresar cortes asociado a la robustez y a la topología 7. En cada nodo del B&B aplicar heurísticas primales 8. El proceso termina cuando , cuando esto se cumpla se retorna la solución óptima. 9. Return , Una propuesta de mejora para este algoritmo es mejorar la calidad de los cortes de Benders ingresados en el proceso de Branch and Bound (B&B), esta idea se basa en el apareamiento de restricciones, para esto se utiliza un procedimiento propuesto en (Guan et al., 2005). El esquema de apareamiento se basa en un conjunto de vectores no negativos , luego un vector define una restricción válida si: Dadas las dos ecuaciones válidas definidas por los vectores y , la primera definida por domina a la definida por si para todo y , esta situación se denota como . De acuerdo a estudios la estructura de los cortes de Benders, no es posible encontrar dominancia entre diferentes cortes de este tipo, además se descarta que se puedan utilizar las propiedades para restricciones anidadas (nested) y disjuntas (disjoint). Al no contar con los casos de restricciones anidadas y disjuntas, no es posible asegurar la dominancia de la restricción resultante en relación a las restricciones originales, pues existe un número exponencial de secuencias de apareamiento. Sin embargo, de todas formas se implementará un procedimiento de apareamiento, que es mostrado a continuación. Definición: Dados con , se define el pareo de y como,
  42. 42. 46 El pseudocódigo implementado para el algoritmo Branch and cut (B&C) con cortes de Benders y apareamiento de restricciones es el siguiente. Algoritmo Branch and Cut con cortes de Benders y apareamiento de cortes (G,c) Input: Problema entero con un subconjunto de restricciones. Output: Solución óptima y su arrepentimiento 1. Ingresar cortes iniciales 2. Encontrar solución factible inicial , 3. Resolver la relajación lineal (LP) 4. Hasta aquí se cumple 5. Comenzar el proceso de B&B 6. En cada nodo del B&B ingresar cortes asociado a la robustez y a la topología, aparear cortes robustos. 7. En cada nodo del B&B aplicar heurísticas primales 8. El proceso termina cuando , cuando esto se cumpla se retorna la solución óptima. 9. Return , 4.1.2 ALGORITMOS APROXIMADOS Como se evidenció en la revisión bibliográfica, los aportes heurísticos se reducen a dos metaheurísticas del tipo búsqueda local (SA y TS) y a las heurísticas de un escenario (hu y hm). En relación a las metaheurísticas en el trabajo de (Kasperski et al., 2012) se menciona el esfuerzo requerido para salir de las soluciones iniciales hu y hm. En este trabajo se propone una metaheurísica con la capacidad demostrada de no caer en óptimos locales como lo es GRASP y una heurística constructiva que utiliza la naturaleza del problema MMR-ST a diferencia de las heurísticas de un escenario, esta puede ser utilizada complementariamente con GRASP o de forma individual. Adicionalmente se implementan dos metaheurísticas de búsqueda más simples, como lo son la mejora iterativa simple y Simulated Annealing. También son implementadas las heurísticas de un escenario (Hu y Hm). La metodología GRASP (Greedy Randomized Adaptive Search Procedures) es una metaheurística para problemas de optimización combinatorial, la cual se fundamenta en la combinación de heurísticas constructivas y de búsqueda local. Consiste básicamente en aplicar k búsquedas locales, donde en cada búsqueda se debe partir desde una solución inicial distinta generada a través de un proceso constructivo con aleatoriedad incorporada. Este metodología fue
  43. 43. 47 introducida en los 80' por (Feo & Resende, 1989) y luego se formalizó en (Feo & Resende, 1995), para revisiones detalladas de la literatura ver (Festa & Resende, 2001), (Festa & Resende, 2008) y (Festa & Resende, 2008b). La fase constructiva consiste en generar de forma iterativa una solución factible, añadiendo un elemento en cada paso. Una función greedy determina la elección del elemento que se añadirá a la solución en cada iteración, dicha función mide el beneficio de añadir cada uno de los elementos. Adicionalmente, se dice que el heurístico greedy es adaptativo porque en cada iteración debe actualizar los beneficios de añadir cada elemento a la solución parcial. La heurística es aleatorizada (randomized) porque no, necesariamente, se selecciona el mejor candidato según la función greedy adaptativa, sino que con el objetivo de dar diversidad de soluciones iniciales, se construye una lista con los mejores candidatos seleccionando uno al azar. Luego el pseudocódigo del algoritmo GRASP se presenta a continuación. Algoritmo GRASP (G,c) Input: Grafo G y función de costos c. Output: Una solución factible y su arrepentimiento 1. Fase constructiva 1.1 Generar una lista de candidatos mediante una función greedy 1.2 Considerar una lista restringida de los mejores candidatos 1.3 Seleccionar aleatoriamente un elemento de la lista restringida 2. Fase de mejora 2.1 Hacer un proceso de búsqueda local a partir de la solución construida hasta que no se pueda mejorar más. 3. Actualización 3.1 Si la solución obtenida mejora a la mejor almacenada, actualizarla. Return , En la literatura no existe una heurística para el MMR-ST con las características que requiere GRASP (adaptativa, aleatorizada, greedy y constructiva ), luego en este trabajo se propone una heurística que cumple los requisitos, para poder explicar dicha heurística se deben considerar los siguientes conceptos. La idea inicial consiste en generar un criterio de optimización utilizando los datos intervalares, luego se propone pasar de un grafo con costos (Figura 1) a un grafo con costos (Figura 2).
  44. 44. 48 ILUSTRACIÓN 5. GRAFO G CON DATOS INTERVALARES ILUSTRACIÓN 6. GRAFO CON NUEVO CRITERIO DE OPTIMIZACIÓN Definición 1 (Regret local): Se tiene un grafo , donde se asume que falta agregar sólo un nodo a la solución. Luego el aporte al regret (o regret local) de cada arista se puede estimar como la máxima diferencia entre el límite superior de dicha arista con el límite inferior del resto de las aristas que conectan el nodo. El regret local de cada arista se compone de dos aportes (uno por cada nodo perteneciente a la arista), como se muestra en la figura 3.
  45. 45. 49 ILUSTRACIÓN 7. COMPOSICIÓN DEL REGRET LOCAL A continuación se muestra el cálculo del regret para la arista . ILUSTRACIÓN 8. CÁLCULO DE REGRET LOCAL PARTE 1 Luego la segunda componente del Regret local se muestra en la figura 4.
  46. 46. 50 ILUSTRACIÓN 9. CÁLCULO DEL REGRET LOCAL PARTE II Finalmente el regret local de la arista se calcula de la siguiente forma: Utilizando este criterio se puede generar una matriz con el aporte al regret de cada arista, luego, una alternativa válida consiste en aplicar los algoritmos clásicos para resolver problemas de árbol (PRIM, KRUSKAL, etc.), a esta matriz. En la experimentación se mostrará el desempeño de dicha alternativa. Sin embargo el método mostrado anteriormente no cumple con los requisitos para poder implementar GRASP, luego se genera un método dinámico que cada vez que se agregue un nodo a la solución se actualice la matriz de aporte al regret, esto en base a que las aristas ingresadas ya no deben ser utilizadas para el cálculo de los aportes, es importante mencionar que este algoritmo también puede ser utilizado de forma individual. El pseudocódigo de este algoritmo se presenta a continuación. Heurística constructiva (G,c) Input: Grafo G y función de costos c. Output: Una solución factible y su arrepentimiento 1. Generar matriz R (aporte al regret) 2. Aplicar algoritmo Prim o Kruskal para ingresar la primera arista. 3. Actualizar matriz R 4. Repetir 2 y 3 hasta que todos los nodos estén en la solución. Return ,
  47. 47. 51 Matemáticamente la generación de la matriz de Regret locales y la respectiva versión dinámica se realizan siguiendo los pseudocódigos que se presentan a continuación. Generación de Matriz Input: Grafo , costos y matriz Output: Matriz 1. forall (i,j) E 2. 3. 4. 5. 6. 7. end forall 8. return Algoritmo constructivo dinámico Input: Grafo , costos y matriz Output: solution 1. forall (i,j) E 2. 3. 4. 5. 6. 7. end forall 8. select 9. add ( , ) to solution, add and to nodesolution 10. size solution = 1 11. while size 12. forall (i,j) E 13. , 14. , 15. 16. 17. 18. end forall 19. select in 20. add to nodesolution, add ) to solution 21. Size solution = size solution + 1 22. end while 23. return solution
  48. 48. 52 Otro aspecto importante de los algoritmos metaheurísticos propuestos es la definición de vecindad. En este trabajo se utilizará la propuesta en (Kasperski et al., 2012), es pseudocódigo de esta se presenta a continuacón. Vecindad Input: Grafo , árbol de expansión de Output: Vecino 1. 2. Seleccionar aleatoriamente (i,j) E 3. Determinar el conjunto de aristas que están sobre el camino de a en 4. Seleccionar 5. Agregar a 6. return Gráficamente la descripción de la vecindad se representa en las siguientes imágenes. ILUSTRACIÓN 10. DEFINICIÓN DE VECINDARIO PARTE I Agregar aleatoriamente una arista . ILUSTRACIÓN 11. DEFINICIÓN DE VECINDARIO PARTE II
  49. 49. 53 Encontrar el camino que une los nodos . ILUSTRACIÓN 12. DEFINICIÓN DE VECINDARIO PARTE III Seleccionar aleatoriamente una arista dentro del camino y eliminarla. ILUSTRACIÓN 13. DEFINICIÓN DE VECINDARIO PARTE IV Es importante mencionar que el costo de la nueva solución puede ser calculada de una forma eficiente en función de la solución anterior de la siguiente forma. Donde corresponde a la arista agregada a la nueva solución y corresponde a la arista eliminada.
  50. 50. 54 CAPÍTULO V: EXPERIMENTACIÓN Y ANÁLISIS DE RESULTADOS En este capítulo se estudia el desempeño de los diferentes algoritmos implementados, además se describen los diferentes conjuntos de instancias estudiadas.
  51. 51. 55 5.1 DESCRIPCIÓN DE INSTANCIAS Para la experimentación se utilizó un subconjunto de las instancias propuestas en (Kasperski et al., 2012), se utilizaron aquellas instancias clasificadas como dificiles (Ya, He0, He1, La y Mo) en el trabajo antes mencionado, a continuación se describirán los cinco conjuntos de instancias utilizadas. Ya( , )- : Grafo completo con nodos. Para cada arista es uniformemente distribuido en y es uniformemente distribuido en el intervalo , esta clase de instancias fue propuesta en (Yaman et al., 2001). Existen dos estructuras de costos dentro de este grupo de instancias (Ya(C,C) y Ya(C,2C)), que por lo demás tienen un impacto en el rendimiento de los algoritmos, especialmente es el caso de los exactos, en la siguiente tabla se presentan las variantes utilizadas en la literatura para este conjutno. TABLA 1. ESTRUCTURA DE COSTOS INSTANCIAS TIPO YAMAN Set 1 Set 2 Set 3 Set 4 Set 5 Set 6 [0,10) [0,15) [0,20) [0,10) [0,15) [0,20) ( , 10] ( , 15] ( , 20] ( , 20] ( , 30] ( , 40] He0-n : Esta clase de instancias fue introducida en (Aron & Van Hentenryck, 2002). Un Grafo representa una red de dos niveles. El nivel inferior consiste de clusters (grafos completos) de 5 nodos cuyas aristas son generadas como en la clase Ya(10,10)- . El nivel superior vincula los clusters y estas aristas tienen costos más altos de acuerdo a Ya(10,10)- desplazado por una constante. En esta clase los grafos son completos y representa el número de nodos en G, que a la vez representa un múltiplo entero de 5, estas instancias son mostradas en (Kasperski et al., 2012) como He1-n. He1-n : Esta clase de instancias también fue introducida en Aron & Van Hentenryck (2002). y son similares a He0-n, con la excepción de que los vínculos del nivel inferior con el nivel superior están organizados como un árbol binario, estas instancias son mostradas por (Kasperski et al., 2012) como He2-n. Mo(p)-n: Grafo completo con nodos. Estos nodos son aleatoriamente localizados sobre una grilla de 50 x 50. Para cada arista es seleccionado aleatoriamente en el intervalo y es generado aleatoriamente en el intervalo , donde es la distancia euclidiana entre y , y es el parámetro de distorsión. Esta clase instancia fue estudiada e introducida en (Montemanni & Gambardella, 2005). La-n : Grafo con nodos, se compone de tres capas. La primera capa está formada por un grafo completo . La segunda capa está compuesta por nodos, cada nodo de esta
  52. 52. 56 capa se conecta con dos nodos (elegidos aleatoriamente) de la primera capa. Finalmente la tercera capa, contiene un nodo que es conectado con cada nodo de la segunda capa. Todos los intervalos de costos son . Grafos de este tipo aparecen en (Averbakh & Lebedev, 2004) . En (Kasperski et al., 2012) clasifican este conjunto de instancias como las más complejas del grupo estudiado. Cabe mencionar que cada uno de los grupos de instancias posee 10 instancias generadas bajo el mismo criterio además los tamaños de las instancias que se estudiarán van desde 10 nodos hasta 100 nodos, éstas fueron entregadas directamente por los autores del trabajo (Kasperski et al., 2012) 1 . Todos los algoritmos fueron implementados en C++ utilizando Leda en su versión libre 2 , para los algoritmos exactos se utilizó la versión IBM ILOG CPLEX Optimization Studio V12.3 y la máquina utilizada tiene un procesador Intel Core i7-3610QM con 8 GB de RAM. 5.2 PREPROCESAMIENTO Este análisis consiste en la evaluación del efecto del pre procesamiento, en los diferentes conjuntos de instancias lo cual también se ha analizado en otros trabajos. Para esto se consideran promedios de los conjuntos de instancias. Los indicadores utilizados para el análisis son; tamaño del problema , número de aristas iniciales , promedio de aristas finales , porcentaje promedio de reducción de aristas , promedio de aristas fuertes y porcentaje promedio de aristas fuertes . Un segmento de los resultados del pre procesamiento se presentan en las tablas 2 y 3. Las instancias Mo(0.15) son las que tienen un mayor promedio de aristas fuertes, seguido por Mo(0.5). Los conjuntos de instancias que tienen menor promedio de aristas fuertes son las Ya. Con respecto al tamaño del grafo reducido, el conjunto de instancias donde se obtiene el menor número de aristas son Mo(0.15) y Mo(0.5), transformándose en los conjuntos de instancias más favorecidos con el pre procesamiento, por ejemplo para Mo(0.15)-30 se tiene en promedio un grafo final de 38 aristas (solución con 29 aristas) y además 22 aristas están fijas en la solución (aristas fuertes). Los conjuntos de instancias donde se reduce en menor grado el número de aristas son la Ya, luego este conjunto de instancias es donde el pre procesamiento tiene un menor impacto. Con respecto a las instancias He, se puede decir que se encuentran en una posición intermedia entre Mo(0.15) y las instancias Ya. En el subconjunto He1 el pre procesamiento, específicamente la reducción, tiene un mayor impacto que en He0, en relación al número de aristas fuertes se observa un impacto similar. En las instancias Mo(0.85) el pre procesamiento tiene un 1 http://mariusz.makuchowski.staff.iiar.pwr.wroc.pl/www/research/robust.tree/ 2 http://www.algorithmic-solutions.com/leda/
  53. 53. 57 impacto similar (levemente mejor) a las instancias Ya. Es importante mencionar que para el conjunto de instancias La el pre procesamiento no tiene ningún efecto. Al ordenar de mayor a menor impacto del pre procesamiento los conjuntos analizados, se tiene la siguiente lista: Mo(0.15), Mo(0.5), He1, He0, Mo(0.85), Ya y La. Posteriormente en el análisis de los algoritmos estudiados se observará que este orden se relaciona casi perfectamente con el orden en relación a la dificultad del tipo de instancia. TABLA 2. PRE PROCESAMIENTO DE INSTANCIAS HE Y MO N He0-20 20.00 190.00 58.20 69.37% 4.90 2.58% He0-30 30.00 435.00 98.70 77.31% 8.30 1.91% He0-40 40.00 780.00 158.20 79.72% 9.90 1.27% He1-20 20.00 190.00 45.10 76.26% 4.40 2.32% He1-30 30.00 435.00 72.10 83.42% 6.00 1.38% He1-40 40.00 780.00 97.80 87.46% 7.70 0.99% Mo(0.15)-20 20.00 190.00 24.50 87.11% 15.10 7.95% Mo(0.15)-30 30.00 435.00 38.20 91.22% 22.30 5.13% Mo(0.15)-40 40.00 780.00 52.20 93.31% 29.60 3.79% Mo(0.50)-20 20.00 190.00 44.60 76.53% 8.20 4.32% Mo(0.50)-30 30.00 435.00 70.20 83.86% 12.00 2.76% Mo(0.50)-40 40.00 780.00 98.00 87.44% 16.20 2.08% Mo(0.85)-20 20.00 190.00 76.30 59.84% 3.90 2.05% Mo(0.85)-30 30.00 435.00 133.20 69.38% 4.60 1.06% Mo(0.85)-40 40.00 780.00 193.80 75.15% 7.40 0.95% TABLA 3. PRE PROCESAMIENTO DE INSTANCIAS YA N Ya(10-10)-20 20.00 190.00 79.70 58.05% 0.90 0.47% Ya(10-10)-30 30.00 435.00 148.80 65.79% 0.50 0.12% Ya(10-10)-40 40.00 780.00 229.50 70.58% 0.80 0.10% Ya(15-15)-20 20.00 190.00 114.00 40.00% 0.60 0.32% Ya(15-15)-30 30.00 435.00 213.40 50.94% 0.40 0.09% Ya(15-15)-40 40.00 780.00 331.90 57.45% 0.30 0.04% Ya(10-20)-20 20.00 190.00 76.50 59.74% 1.40 0.74% Ya(10-20)-30 30.00 435.00 137.90 68.30% 1.50 0.34% Ya(10-20)-40 40.00 780.00 215.80 72.33% 1.10 0.14% Ya(15-30)-20 20.00 190.00 105.70 44.37% 1.00 0.53% Ya(15-30)-30 30.00 435.00 214.80 50.62% 0.60 0.14% Ya(15-30)-40 40.00 780.00 330.30 57.65% 0.80 0.10%
  54. 54. 58 5.3 ALGORITMOS EXACTOS Debido a que se tiene una propuesta amplia de algoritmos exactos, su análisis se realizará de manera parcializada, la primera etapa consiste en evaluar la bondad de las variantes de los algoritmos de descomposición de Benders. Recordando la propuesta algorítmica se tienen tres alternativas, el algoritmo de Descomposición de Benders básico (BBD), la versión con la incorporación de cortes heurísticos (HBD) y la alternativa que incorpora los cortes de las soluciones incumbentes en la resolución del maestro en cada iteración (EBD). La segunda etapa consistirá en evaluar el mejor algoritmo del tipo Benders con el algoritmo B&C y el MILP, finalmente la tercera y última etapa consiste en evaluar el rendimiento del algoritmo B&C para instancias de mayor tamaño. Para las instancias del tipo La, se presenta un análisis separado, donde se compara la eficiencia del B&C y el MILP para instancias de hasta 50 nodos; es importante recordar que este conjunto de instancias es el conjunto que generó mayores problemas a (Kasperski, et al., 2012). 5.3.1 EVALUACIÓN DE VARIANTES DE DESCOMPOSICIÓN DE BENDERS La experimentación se realiza con instancias de 10, 20 y 30 nodos, para las instancias del tipo (He0, He1, Mo(0.15), Mo(0.5), Mo(0.85), Ya(10,10), Ya(10,20), Ya(15,15) y Ya(15,30)), cada una de estas familias de instancias se conforma por 10 instancias generadas bajo las mismas condiciones. Los análisis para cada familia de instancias (He, Ya y Mo) se realizan por separado, debido a las diferencias en los desempeños de los algoritmos para cada familia. En primer lugar se hace un análisis de los tiempos de ejecución para aquellas instancias donde se logra llegar al óptimo dentro del tiempo límite; en este análisis se considera la instancia resuelta en el menor tiempo para cada grupo (min), el promedio de los tiempos de las instancias resueltas dentro del tiempo límite (Av.), la instancia que se resuelve en el tiempo mayor (Max) y por último se muestra el número de instancias que son resueltas dentro del tiempo límite. Se considera un tiempo límite de 3.600 segundos. De la tabla 4 se puede observar que la versión básica del algoritmo de Benders (BBD) es la que presenta el peor desempeño, siendo dominada en todas las dimensiones evaluadas por ambas variantes (EBD y HBD). En relación a las variantes propuestas no existe una dominación por parte de ninguno de los algoritmos. Por ejemplo para las instancias del tipo He1 tanto para 20 como para 30 nodos la versión de Benders con cortes heurísticos (HBD) es la que presenta un mejor desempeño, tanto en los promedio como en el tiempo máximo. Para las instancias del tipo He0 los rendimientos son similares con un pequeño margen de ganancia para la versión de Benders con cortes de soluciones incumbentes (EBD). Para las instancias del tipo Mo (tabla 5), el desempeño de la versión básica del Benders (BBD) es dominado en todas las dimensiones por las variantes propuestas, al igual que para el
  55. 55. 59 caso de las instancias He. En relación a las variantes, existe un pequeño margen de dominancia por parte de EBD tanto en los tiempos mínimos como en los promedios. En los tiempos máximos para gran parte de las instancias es mejor, salvo en los grupos de instancias Mo(0.85) para 20 y 30 nodos donde HBD supera a EBD por aproximadamente 100 y 200 segundos respectivamente, cabe destacar que el conjunto de instancias (Mo(0.85)) ya con 30 nodos comienza a mostrar su complejidad. Más adelante se mostrará como uno de los más complejos en estudio. TABLA 4. TIEMPOS DE EJECUCIÓN HE PARA VARIANTES DE BENDERS RESUELTAS AL ÓPTIMO BBD EBD HBD Min Av. Max N Min Av. Max N Min Av. Max N He0-10 0.12 0.45 1.9 10 0.11 0.34 1.33 10 0.06 0.32 1.19 10 He0-20 1.31 63.12 275.39 10 0.64 46.63 214.56 10 1.25 51.22 240.47 10 He0-30 170.31 1445.07 3176.55 6 104.71 1089.13 2403.56 6 121.51 1045.1 2450.07 6 He1-10 0.13 0.45 1.98 10 0.1 0.31 1.32 10 0.08 0.31 1.18 10 He1-20 2.55 56.92 353.47 10 1.46 34.12 220.6 10 1.4 33.11 197.26 10 He1-30 119.92 1064.08 3443.77 7 56.78 811.69 2740.43 7 65.06 706.5 2471.73 7 Las instancias Ya (tabla 6) se pueden subdividir en dos tipos, Ya(C,C) y Ya(C,2C), luego se puede observar que la dificultad de las primeras es significativamente superior para los algoritmos analizados en este momento. En relación al número de instancias resueltas en tiempo límite cabe destacar que EBD es el ganador, en primer lugar en las instancias Ya(15-30)-30 resuelve 6 instancias y los otros algoritmos sólo resuelven 2, además no es dominado en ningún grupo de instancias en esta dimensión. Las instancias del grupo Ya(10,10)-30 son de gran dificultad y ningún algoritmo logra resolver alguna. La versión básica BBD es dominada en el número de instancias resueltas para los grupos Ya(15,15)-20 y Ya(10,20)-20. En general los tiempos de EBD son menores, pero esto se ve acentuado en algunos grupos de instancias (por ejemplo en Ya(15,30)- 20, Ya(10,20)-30 y Ya(10,20)-20). TABLA 5. TIEMPO DE EJECUCIÓN PARA INSTANCIAS MO CON VARIANTES DE BENDERS BBD EBD HBD Min Av. Max N Min Av. Max N Min Av. Max N Mo(0.15)-10 0.02 0.05 0.16 10 0.02 0.03 0.08 10 0.02 0.03 0.05 10 Mo(0.15)-20 0.02 0.13 0.41 10 0.02 0.09 0.22 10 0.02 0.09 0.18 10 Mo(0.15)-30 0.05 1.03 3.53 10 0.03 0.66 2.01 10 0.04 0.72 2.32 10 Mo(0.50)-10 0.03 0.1 0.23 10 0.03 0.09 0.19 10 0.04 0.09 0.23 10 Mo(0.50)-20 0.61 7.57 42.7 10 0.36 5.72 35.24 10 0.49 6.07 36.31 10 Mo(0.50)-30 11.57 144.65 528.34 10 4.73 94.36 357.58 10 7.52 98.53 390.93 10 Mo(0.85)-10 0.03 0.22 0.8 10 0.03 0.16 0.52 10 0.03 0.18 0.71 10 Mo(0.85)-20 2.08 208.28 1803 10 0.84 167.59 1502.53 10 1.94 164.1 1419.39 10 Mo(0.85)-30 67.64 653.65 1924.25 6 48.27 496.09 1672.29 6 62.75 522.81 1484.06 6
  56. 56. 60 TABLA 6. TIEMPOS DE EJECUCIÓN PARA INSTANCIAS YA CON VARIANTES DE BENDERS BBD EBD HBD Min Av. Max N Min Av. Max N Min Av. Max N Ya(10-10)-10 0.28 1.9 9.776 10 0.26 1.31 6.19 10 0.18 1.47 7.13 10 Ya(10-10)-20 158.51 770.17 1815.06 3 84.83 472.81 1125.96 3 115.26 547.18 1291.93 3 Ya(15-15)-10 0.08 4.56 26.55 10 0.08 2.94 16.52 10 0.1 3.13 17.31 10 Ya(15-15)-20 169.65 1515.54 3585.49 6 64.15 1203.96 2385.04 7 103.64 1351.43 3363.17 7 Ya(15-15)-30 1439.93 1439.93 1439.93 1 800.37 800.37 800.37 1 1449.05 1449.05 1449.05 1 Ya(10-20)-10 0.29 4.13 12.91 10 0.18 2.76 9.01 10 0.22 3.12 10.99 10 Ya(10-20)-20 41.69 393.2 1244.02 9 17.58 355.57 1847.4 10 22.96 561.59 2575.91 10 Ya(10-20)-30 1326.47 1583.7 1840.93 2 927.16 1052.19 1177.22 2 1275.3 1395.9 1516.5 2 Ya(15-30)-10 0.56 7.87 53.79 10 0.26 5.86 42.44 10 0.41 7.08 51.39 10 Ya(15-30)-20 45.18 205.75 532.51 10 27.56 111.13 316.54 10 40.92 228.23 665.91 10 Ya(15-30)-30 553.92 1005.93 1457.93 2 332.93 1710.65 3089.89 6 488.3 1008.55 1528.8 2 El siguiente análisis es complementario y corresponde a la evaluación de los gaps de aquellas instancias donde no se logró llegar al óptimo, luego en éste se indica el número de instancias que llegaron al óptimo de un total de 10 por grupo, se muestra además el gap relativo entre el UB y LB del algoritmo y finalmente se muestra el gap en relación al mejor de los tres algoritmos. A continuación se presenta el cálculo de ambos gaps. El cálculo de las desviaciones utilizadas está dado por, y , donde corresponde al valor de la mejor solución; puede ser la mejor solución conocida o la mejor en relación a los algoritmos analizados, para este análisis corresponde a la mejor en relación a los tres algoritmos analizados. Para las instancias del tipo He como para las Mo son pocos los grupos donde no se logran resolver todas (2 He y 1 Mo), adicionalmente los gaps entregados son bastante buenos. De la tabla 7 se puede apreciar que para estos grupos de instancias el LB provisto por BBD es de menor calidad, lo cual se fundamenta en el hecho de que el gap de este algoritmo es 0 para los tres grupos de instancias. Luego su UB es similar al de HBD, por lo que su gap* es mayor por tener un LB menor. De la tabla 8 se puede observar que EBD domina a los dos algoritmos restantes en la dimensión gap* en la mayoría de los grupos de instancias, salvo en Ya(15-15)-20. Entonces, esto indica que el LB provisto por este algoritmo es superior al de los dos restantes más aun si se considera que existen grupos donde los otros algoritmos tienen mejor UB (Ya(10-10)-20, Ya(10- 10)-30 y Ya(15-15)-30). En relación al UB medido a través del gap, la versión que obtiene los mejores resultados para la mayor parte de las instancias (salvo Ya(10-10)-20 y Ya(15-15)-20) es EBD.
  57. 57. 61 TABLA 7. GAP DE INSTANCIAS HE Y MO PARA VARIANTES DE BENDERS SIN OPTIMALIDAD BBD EBD HBD N GAP* GAP N GAP* GAP N GAP* GAP He0-30 6 2% 0% 6 2% 1% 6 1% 0% He1-30 7 3% 0% 7 2% 0% 7 2% 0% Mo(0.85)-30 6 1% 0% 7 1% 0% 6 1% 0% TABLA 8. GAP PARA INSTANCIAS YA CON VARIANTES DE BENDERS BBD EBD HBD N GAP* GAP N GAP* GAP N GAP* GAP Ya(10-10)-20 3 4% 0% 3 3% 1% 3 3% 0% Ya(10-10)-30 0 22% 1% 0 21% 2% 0 23% 2% Ya(15-15)-20 6 2% 0% 7 2% 1% 7 1% 0% Ya(15-15)-30 1 20% 2% 1 17% 2% 1 20% 3% Ya(10-20)-30 2 14% 3% 3 10% 2% 2 13% 3% Ya(15-30)-30 2 13% 7% 6 6% 1% 2 12% 6% Otro análisis importante puede ser realizado graficando el porcentaje de instancias resueltas en el tiempo; en el Gráfico 1 se presenta una agregación de todas las instancias evaluadas bajo este análisis. Se puede observar que EBD (cruz roja) se encuentra durante todo el intervalo evaluado sobre el resto de los algoritmos (BBD y HBD), adicionalmente se aprecia que es el algoritmo que resuelve en el óptimo el mayor porcentaje de instancias. Por otra parte se observa que la versión básica de Benders se encuentra por debajo de los otros algoritmos en todo el intervalo evaluado. Cabe destacar que este análisis es complementario al de porcentaje acumulado de instancias en función del gap final, es decir, el porcentaje acumulado de instancias para un gap dado. Del gráfico 2 se puede observar, al igual que en el gráfico 1, que el algoritmo EBD es el que presenta un mejor desempeño. Esto se basa principalmente en el hecho que siempre tiene un porcentaje acumulado de instancias mayor para todo gap y además tiene un umbral de gap menor, pues tiene el 100% de las instancias con gap menor o igual a un 45% (última cruz roja). De acuerdo al análisis anterior (tablas y gráficos), considerando la dominancia en los tiempos para la mayor parte de las instancias, la bondad de ambos indicadores de desviación porcentual (gap y gap*) y el análisis gráfico, se puede concluir que de las variantes de Benders la que presenta un mejor desempeño es EBD, por lo que de manera natural será el algoritmo seleccionado para medir su desempeño con B&C y MILP.
  58. 58. 62 GRÁFICO 1. PERFIL DE DESEMPEÑO DE LOS TIEMPOS DE RESOLUCIÓN GRÁFICO 2. PORCENTAJE ACUMULADO DE INSTANCIAS PARA UN GAP DADO
  59. 59. 63 5.3.2 ANÁLISIS MILP, EBD Y B&C Como se mencionó anteriormente la siguiente etapa consiste en comparar el rendimiento del mejor representante de los algoritmos tipo Benders (EBD), con el MILP y el algoritmo Branch and Cut (B&C). Este análisis considera instancias de tamaño 20, 30 y 40, para los mismos conjuntos de instancias que la etapa 1, esto principalmente debido a que es, en este intervalo, donde todos los algoritmos exactos propuestos en la literatura comienzan a perder efectividad. A continuación se presenta un análisis de tiempos para cada una de las familias de instancias antes mencionadas. Para la familia de instancias del tipo He (tabla 9) se puede hacer un primer análisis en relación al B&C comparado con el EBD, en este contexto se puede observar que EBD es dominado completamente por B&C y esto se ve reflejado en el número de instancias resueltas dentro del tiempo límite (He0-30, He0-40, He1-30 y He1-40). Otro análisis está relacionado al rendimiento del MILP en comparación con el B&C, acá no se observa dominancia, pues para las instancias del He0 B&C logra un desempeño notoriamente superior al MILP, por ejemplo en He0-20 se observa una diferencia significativa en los tiempos promedio, luego para He0 con 30 y 40 nodos el MILP explota y no logra resolver ni siquiera una instancia donde el B&C resuelve las 10 y 7, respectivamente. Para el subconjunto He1 el MILP tiene un rendimiento mejor a B&C obteniendo mejores tiempos y más importante aún, resolviendo una mayor cantidad de instancias en He1-40. Si bien B&C no logra dominar al MILP las ocasiones donde el MILP explota son bastante más drásticas que las oportunidades donde el B&C es superado. TABLA 9. TIEMPOS DE EJECUCIÓN INSTANCIAS HE PARA MILP, EBD Y B&C MILP EBD B&C Min Av. Max N Min Av. Max N Min Av. Max N He0-20 4.41 25.38 142.29 10 0.64 46.63 214.56 10 0.08 1.93 5.68 10 He0-30 - - - 0 104.71 1089.13 2403.56 6 4.98 114.67 578.11 10 He0-40 - - - 0 2220.6 2220.6 2220.6 1 189.28 1759.71 3069.07 7 He1-20 0.3 3.1 8.92 10 1.46 34.12 220.6 10 0.19 1.41 7.07 10 He1-30 4.28 38.88 145.24 10 56.78 811.69 2740.43 7 3.39 306.03 1487.95 10 He1-40 21.81 312.2 1227.26 9 600.24 600.24 600.24 1 46.3 1218.34 2154.09 5 Para las instancias del tipo Mo (tabla 10) se puede observar que existe una dominancia absoluta por parte del B&C tanto en relación al MILP como al EBD, esto se ve reflejado tanto en las dimensiones de tiempo como en el número de instancias resueltas dentro del tiempo límite. Se pueden observar diferencias dramáticas por ejemplo en los tiempos mínimos para los grupos de instancias Mo(0.85)-40, Mo(0.85)-30 y Mo(0.50)-40, caso similar ocurre en los tiempos promedios en las instancias Mo(0.85)-30 y Mo(0.50)-40.

×