SlideShare una empresa de Scribd logo
1 de 94
INDICE
1-INTRODUCCION.-.................................................................................................................... 1
1.1-OBJETIVOS.-..................................................................................................................... 2
1.2-HISTORIA.-....................................................................................................................... 2
1.3-PROBLEMÁTICA IDENTIFICADA.-........................................................................................ 3
1.3.1-BENEFICIOS.-............................................................................................................. 3
1.4-BALANCEO DE CARGA.-..................................................................................................... 3
1.5-FIREWALL.-...................................................................................................................... 5
1.5.1-FUNCIONAMIENTO DE UN SISTEMA FIREWALL.- ......................................................... 6
1.6-PROTOCOLONAT.-........................................................................................................... 7
1.6.1-ESTÁTICA.-................................................................................................................. 8
1.6.2-DINÁMICA.-............................................................................................................... 8
1.6.3-SOBRECARGA.- .......................................................................................................... 8
1.6.4-SOLAPAMIENTO.-....................................................................................................... 9
1.6.5-VENTAJAS DEL PROTOCOLO NAT.-............................................................................... 9
1.6.6-DESVENTAJAS DEL PROTOCOLO NAT.-........................................................................10
1.6.7-TIPOS DE PROTOCOLO NAT.-......................................................................................10
1.6.8-EJEMPLO DE CONFIGURACIÓN DISPOSITIVO CISCO.-....................................................11
1.7-IPTABLES.- ......................................................................................................................12
1.7.1-CARACTERISTICAS DE IPTABLE.-..................................................................................13
1.8-CLUSTER.-.......................................................................................................................18
1.8.1-CLASIFICACIÓN DE LOS CLUSTER.-..............................................................................19
2-TIPOS DE BALANCEO DE CARGA.-............................................................................................20
2.1-BALANCEO DE CARGA ESTÁTICO.-.....................................................................................21
2.2-DISTANCIA METRICA.-......................................................................................................23
2.3-FAIL OVER.-.....................................................................................................................24
2.4-TÉCNICAS DE BALANCEO DE CARGA ESTÁTICA.-.................................................................26
2.5BALANCEO DE CARGA DINÁMICO......................................................................................31
2.5.1-BALANCEO DE CARGA DINÁMICO CENTRALIZADO.-.....................................................33
2.5.2-BALANCEO DE CARGA DINÁMICO DISTRIBUIDO O DESCENTRALIZADO.-........................34
3-CONFIGURACIONES DINAMICAS.- ...........................................................................................35
3.1-BALANCEO DE CARGA EN RIP V1 (ROUTING INFORMATION PROTOCOL).-............................35
3.2-BALANCEO DE CARGA EN RIP V2 (ROUTING INFORMATION PROTOCOL).-............................42
3.3-BALANCEO DE CARGA EN IGRP (INTERIOR GATEWAY ROUTING PROTOCOL).-......................46
3.4-BALANCEO DE CARGA EN EIGRP.-.....................................................................................52
3.4.1METRICA EIGRP..........................................................................................................52
3.4.2-DISTANCIA ADMINISTRATIVA EIGRP.-..........................................................................53
3.4.3-BALANCEO DE CARGA DE MISMO COSTO.-..................................................................54
3.4.4-CONFIGURACIÓN DE BALANCEO DE CARGA EN ENLACES CON IGUAL COSTO EIGRP.-.....55
3.4.5-CONFIGURACIÓNDEBALANCEO DE CARGA EN ENLACES CON DESIGUALCOSTOEIGRP.-
........................................................................................................................................57
4-BALANCEO DE CARGAS POR DESTINO Y POR PAQUETE.-...........................................................58
4.1-EL BALANCE DE CARGAS POR DESTINO.- ...........................................................................58
4.2-EL BALANCE DE CARGA POR PAQUETE-.............................................................................59
5-GENERACIONES DEL BALANCEO DE CARGA.-............................................................................61
5.1-PRIMERA GENERACIÓN DE BALANCEO DE CARGA.-............................................................61
5.2-SEGUNDA GENERACIÓN DE BALANCEO DE CARGA.-...........................................................61
6-BALANCEO POR SOFTWARE.-..................................................................................................63
6.1-VENTAJAS DEL BALANCEO DE CARGA POR SOFTWARE.-.....................................................64
6.2-INCONVENIENTES O DESVENTAJA DEL BALANCEO DE CARGA POR SOFTWARE.-...................64
6.3-TIEMPO DE VIDA O TIME TO LIVE (TTL).- ...........................................................................65
7-BALANCEADOR DE CARGA POR HARDWARE.-...........................................................................66
7.1-VENTAJAS DEL BALANCEO DE CARGA POR HARDWARE.- ....................................................66
7.2-INCONVENIENTES O DESVENTAJA DEL BALANCEO DE CARGA POR HARDWARE.-..................67
7.3-HOST STANDBAY ROUTING PROTOCOL.-...........................................................................67
7.3.1-ESTADOS HSRP.- .......................................................................................................73
7.4-GLBP (GATEWAY LOAD BALANCING PROTOCOL).-..............................................................75
7.4.1-FUNCIONAMIENTO DEL GLBP.- ..................................................................................76
7.4.2-GLBP REDUNDANCIA.-...............................................................................................78
7.4.3-GLBP PONDERACIÓN Y SEGUIMIENTO DE INTERFAZ.- ..................................................79
7.4.4-ESTADOS DEL BALANCEO DE CARGA EN GLBP.- ...........................................................82
7.4.5-BENEFICIOS DE GLBP.-...............................................................................................83
7.4.6-GLBP VIRTUAL MAC DIRECCIÓN ASIGNACIÓN.-............................................................84
7.4.7-GLBP VIRTUAL PASARELA REDUNDANCIA.-..................................................................84
7.4.8-GLBP REDUNDANCIA FORWARDER VIRTUAL.- .............................................................85
7.4.9-GLBP PASARELA PRIORIDAD.-.....................................................................................86
7.4.10-GLBP PASARELA PONDERACIÓN Y SEGUIMIENTO.-.....................................................86
7.5-VRRP (VIRTUAL ROUTER REDUNDANCYPROTOCOL).-.........................................................87
1
1-INTRODUCCION.-
En esta monografía se investigara, se analizara el funcionamiento del balanceo de carga
además que está basado en los protocolos de ruteo estándar, como:
Routing Information Protocol (RIP), RIPv2, el Protocolo de ruteo de gateway interior
mejorado (EIGRP), Open Shortest Path First (OSPF) y el Protocolo de ruteo de gateway
interior (IGRP) o se deriva de las rutas configuradas estáticamente y de los mecanismos de
reenvío de paquetes.
El aspecto del balanceo de carga es bastante importante debido a que en muchas
aplicaciones paralelas, como la búsqueda o la optimización, es extraordinariamente difícil
predecir el tamaño de las tareas asignadas a cada procesador, de manera que se realice
una división de las mismas para que todos mantengan la carga computacional uniforme.
Cuando no es uniforme, es decir, hay desbalanceo en la carga, entonces algunos
procesadores terminarán permaneciendo inactivos mientras otros todavía están
calculando.
Se considera que el problema a resolver se divide en un número fijo de procesos que
pueden ejecutarse en paralelo. Cada proceso realiza una cantidad conocida de trabajo.
Además, se supone que los procesos se distribuyen entre las máquinas disponibles sin
tener en cuenta el tipo de procesador y su velocidad.
1.1-OBJETIVOS.-
→ Describir y Analizar los problemas a los que da solución el Balanceo de Carga
→ Determinar, Investigar el cómo Funciona, las negociaciones, tramas y protocolos
→ Implementar en el laboratorio físicamente la topología de toda la investigación del
Balanceo de Carga donde se encontrara funcionando correctamente con las
configuraciones establecidas sobre el tema
1.2-HISTORIA.-
Con el transcurrir de los años en la historia de la computación se han presentado diversos
problemas de tipo complejo que en el pasado no podían ser resueltos o que simplemente
el costo de su solución era sólo alcanzable para algunos.
Anteriormente en los primeros días de la Internet comercial, descubrieron graves
problemas. Las Mainframes no tienen software de servidor web (no hasta que el AS / 400e)
que era un equipo de IBM de gama media y alta con una interfaz controlada con menús y
comandos CL (Control Language) poseía un sistema operativo que su punto fuerte fue la
integración con la base de datos DB2 (sistema de gestión de base de datos.).
El problema para la mayoría de ellos era que no había manera de que un único servidor
basado en PC alguna vez iba a manejar la cantidad de tráfico.
Afortunadamente, algunas de esas personas en realidad tenía planes mediante la
resolución de ese problema en particular así nació el balance de carga.
Sin embargo, con la tecnología actual, estos problemas son blanco fácil para los
investigadores y con pocos recursos se puede llegar a la solución esperada.
1.3-PROBLEMÁTICA IDENTIFICADA.-
El estudio del balanceo de carga es muy importante para poder distribuir de una forma
equitativa la carga computacional entre todos los procesadores disponibles y con ello
conseguir la máxima velocidad de ejecución.
1.3.1-BENEFICIOS.-
 Mayor ancho de Banda: Varias conexiones simultáneas, en promedio, todas
juntas tienen acceso a un mayor ancho de banda, que se extenderá a la
suma de los anchos de banda de Internet de todos los enlaces que están
siendo equilibrados.
 Tolerancia a Fallos
Cuando tenemos una o más conexiones y cuando falla una salimos
automáticamente por la otra que sí que funcione. Si una de las líneas falla, el
router continua automáticamente la conexión utilizando exclusivamente la
segunda.
1.4-BALANCEO DECARGA.-
Viene a hacer un conjunto de 2 o más máquinas que comparten el peso del trabajo entre
ellas a realizar entre sí. También podemos decir que el balanceo de carga se puede repartir
ancho de banda, podemos usar una conexión a internet para un propósito y la segunda
para otro.
El balanceo de carga es lo que mayormente se usa en ISP (proveedor de servicios de
internet) para atender la demanda de sus usuarios, que quiere decir esto, se tiene una
pequeña base de red o servidor con una cierta cantidad de clientes los cuales necesitan
internet para no saturar ni congestionar el acceso ya que eso es lo más importante se
emplea un equipo balanceador para tener 2 o más líneas de acceso a internet para
equilibrar y evitar el saturamiento de la red
Un claro ejemplo: Tener una conexión permanente a Internet es un requisito casi
obligatorio en muchas empresas, el sistema de balanceo de carga puede proporcionar una
conectividad continua a través de 2, 3 o 4 conexiones a Internet, el sistema puede controlar
todas las conexiones constantemente hasta cuando una de las líneas de conexión queda
interrumpida por algún motivo, el sistema re-dirige todas las conexiones hacia las otras
línea.
El balanceo funciona sobre cualquier método de conexión a Internet, ya sea ADSL, Cable-
Modem, o LMDS
Específicamente el balanceo de carga en
una red LAN consiste en dividir los
paquetes entrantes en diferentes
interfaces de red o equipos de red
CONCEPTOS INTRODUCTORIOS.-
Antes de dar solución a un problema es necesario saber de qué se trata, como funciona,
que protocolo usa y que es necesario conocer para resolverlo, definimos que es un
firewall.
1.5-FIREWALL.-
Un firewall también es conocido como muro de fuego, este funciona entre las redes
conectadas permitiendo o denegando las comunicaciones entre dichas redes. Un firewall
también es considerado un filtro que controla el tráfico de varios protocolos como
TCP/UDP/ICMP que pasan por el para permitir o denegar algún servicio, el firewall examina
la petición y dependiendo de este lo puede bloquear o permitirle el acceso.
Un firewall puede ser un dispositivo de tipo Hardware o software que se instala entre la
conexión a Internet y las redes conectadas en el lugar.
1.5.1-FUNCIONAMIENTO DEUN SISTEMA FIREWALL.-
Un sistema firewall contiene un conjunto de reglas predefinidas que permiten:
* Autorizar una conexión (allow);
* Bloquear una conexión (deny);
* Redireccionar un pedido de conexión sin avisar al emisor (drop).
El conjunto de estas reglas permite instalar un método de filtración dependiente de la
política de seguridad adoptada por la organización. Se distinguen habitualmente 2 tipos de
políticas de seguridad que permiten:
- Permitir únicamente las comunicaciones autorizadas explícitamente: "Todo lo que no es
autorizado explícitamente está prohibido".
- Impedir cualquier comunicación que fue explícitamente prohibida.
Sea el tipo de firewall que sea, generalmente no tendrá más que un conjunto de reglas en
las que se examina el origen y destino de los paquetes del protocolo TCP/IP.
En cuanto a protocolos es probable que sean capaces de filtrar muchos tipos de ellos, no
solo los TCP, también los UDP, los ICMP, los GRE y otros protocolos vinculados a VPNs.
1.6-PROTOCOLO NAT.-
NAT o Network Address Translation (en castellano, Traducción de Direcciones de Red) La
idea es sencilla, hacer que redes de ordenadores utilicen un rango de direcciones
especiales (IPs privadas) y se conecten a Internet usando una única dirección IP (IP pública).
Gracias a este “parche”, las grandes empresas sólo utilizarían una dirección IP y no tantas
como máquinas hubiese en dicha empresa. También se utiliza para conectar redes
domésticas a Internet.
En el protocolo NAT existen varios tipos de funcionamiento:
1.6.1-ESTÁTICA.-
Una dirección IP privada se traduce siempre en una misma dirección IP pública. Este modo
de funcionamiento permitiría a un host dentro de la red ser visible desde Internet.
1.6.2-DINÁMICA.-
El router tiene asignadas varias direcciones IP públicas, de modo que cada dirección IP
privada se mapea usando una de las direcciones IP públicas que el router tiene asignadas,
de modo que a cada dirección IP privada le corresponde al menos una dirección IP pública.
Cada vez que un host requiera una conexión a Internet, el router le asignará una dirección
IP pública que no esté siendo utilizada. En esta ocasión se aumenta la seguridad ya que
dificulta que un host externo ingrese a la red ya que las direcciones IP públicas van
cambiando.
1.6.3-SOBRECARGA.-
La NAT con sobrecarga o PAT (Port Address Translation) es el más común de todos los
tipos, ya que es el utilizado en los hogares. Se pueden mapear múltiples direcciones IP
privadas a través de una dirección IP pública, con lo que evitamos contratar más de una
dirección IP pública. Además del ahorro económico, también se ahorran direcciones IPv4,
ya que aunque la subred tenga muchas máquinas, todas salen a Internet a través de una
misma dirección IP pública.
Para poder hacer esto el router hace uso de los puertos. En los protocolos TCP y UDP se
disponen de 65.536 puertos para establecer conexiones. De modo que cuando una
máquina quiere establecer una conexión, el router guarda su IP privada y el puerto de
origen y los asocia a la IP pública y un puerto al azar.
Cuando llega información a este puerto elegido al azar, el router comprueba la tabla y lo
reenvía a la IP privada y puerto que correspondan.
1.6.4-SOLAPAMIENTO.-
Cuando una dirección IP privada de una red es una dirección IP pública en uso, el router se
encarga de reemplazar dicha dirección IP por otra para evitar el conflicto de direcciones.
1.6.5-VENTAJAS DELPROTOCOLO NAT.-
El uso de la NAT tiene varias ventajas:
 La primera y más obvia, el gran ahorro de direcciones IPv4 que supone, recordemos
que podemos conectar múltiples máquinas de una red a Internet usando una única
dirección IP pública.
 Seguridad. Las máquinas conectadas a la red mediante NAT no son visibles desde el
exterior, por lo que un atacante externo no podría averiguar si una máquina está
conectada o no a la red.
 Mantenimiento de la red. Sólo sería necesario modificar la tabla de reenvío de un
router para desviar todo el tráfico hacia otra máquina mientras se llevan a cabo
tareas de mantenimiento.
1.6.6-DESVENTAJAS DEL PROTOCOLO NAT.-
Recordemos que la NAT es solo un parche, no una solución al verdadero problema, por
tanto también tiene una serie de desventajas asociadas a su uso:
 Checksums TCP y UDP: El router tiene que volver a calcular el checksum de cada
paquete que modifica. Por lo que se necesita mayor potencia de computación.
 No todas las aplicaciones y protocolos son compatibles con NAT. Hay protocolos que
introducen el puerto de origen dentro de la zona de datos de un paquete, por lo
que el router no lo modifica y la aplicación no funciona correctamente.
1.6.7-TIPOS DE PROTOCOLO NAT.-
 NAT de cono completo (Full-Cone NAT). En este caso de comunicación completa,
NAT mapeará la dirección IP y puerto interno a una dirección y puerto público
diferentes. Una vez establecido, cualquier host externo puede comunicarse con el
host de la red privada enviando los paquetes a una dirección IP y puerto externo
que haya sido mapeado. Esta implementación NAT es la menos segura, puesto que
una atacante puede adivinar qué puerto está abierto.
 NAT de cono restringido (Restricted Cone NAT). En este caso de la conexión
restringida, la IP y puerto externos de NAT son abiertos cuando el host de la red
privada quiere comunicarse con una dirección IP específica fuera de su red. El NAT
bloqueará todo tráfico que no venga de esa dirección IP específica.
 NAT de cono restringido de puertos (Port-Restricted Cone NAT). En una conexión
restringida por puerto NAT bloqueará todo el tráfico a menos que el host de la red
privada haya enviado previamente tráfico a una IP y puerto especifico, entonces
solo en ese caso ésa IP:puerto tendrán acceso a la red privada.
 NAT Simétrico (Symmetric NAT). En este caso la traducción de dirección IP privada a
dirección IP pública depende de la dirección IP de destino donde se quiere enviar el
tráfico.
1.6.8-EJEMPLO DE CONFIGURACIÓN DISPOSITIVO CISCO.-
NAT con sobrecarga (conexiones del equipo desde Internet a la red con ips' privadas)
1. Conecte los dispositivos entre sí por los puertos adecuados en cada caso
(ethernet, ATM, Serial, etc.)
2. Asumimos que usted sabe enrutamiento IP y cómo hacer converger la red
usando protocolo de enrutamientos. RIP se recomienda para configuraciones más
sencillas y rápidas.
3. Parametrizaciones del ejemplo:
 El puerto conectado a internet es el Ethernet0
 El puerto conectado a la red LAN es el Ethernet1
 El rango IP de la LAN es 192.168.1.0 con máscara 255.255.255.0 y wildmask 0.0.0.255
 La lista de accesos se llamará INTERNET
 PAT: Orientando puerto de Http 80 sobre máquina 192.168.0.1 puerto 8080
Router(config)#ip nat inside source list INTERNET interface Dialer0 overload
Router(config)#ip access-list standard INTERNET
Router(config)#permit 192.168.1.0 0.0.0.255
Router(config)#deny any
 Asociación de interfaces (puertos) al NAT
Router(config)#interface ethernet0
Router(config)#ip nat outside
Router(config)#interface ethernet1
Router(config)#ip nat inside
 Implementación del NAT
Router(config)#ip nat inside source static tcp 192.168.0.1 8080 interface ethernet0 80
1.7-IPTABLES.-
Herramienta de cortafuegos que permite no solamente filtrar paquetes y realizar
traducción de direcciones de red ósea NAT para IPv4 o mantener registros de log (que es
usado para registrar datos o información sobre quién, qué, cuándo, dónde y por qué), lo
que en otras palabras podemos decir que es un filtro y manipulador de paquetes IP
denominado PACEKT FILTER, porque todas las operaciones que realiza la hacen sobre
paquetes de red y nos permite realizar NAT para que las máquinas de la red LAN puedan
tener acceso a Internet.
El IPTABLE tiene reglas y se agrupa en cadena y estas cadenas en tablas, y las tablas están
asociadas a un tipo de procesamiento de paquetes.
1.7.1-CARACTERISTICAS DEIPTABLE.-
 Filtrado de paquetes
 Por protocolos, puertos, IP…
 Por estado de los paquetes (connection tracking)
 NAT (Traducción de dirección de direcciones)
 Infraestructura flexible
 Se pude añadir funcionalidades mediante PARCHES
CADENA: una cadena viene a hacer un conjunto de reglas para paquetes IP, que determina
qué hacer con dicho paquete.
TABLAS: Las tablas son contenedores de cadenas, existen 3 tipos de tablas las cuales son:
 Iptable_FILTER.
 Iptable_NAT.
 Iptable_MANGLE
IPTABLE_FILTER: Llamada también la tabla de filtro, encargada de filtrar todos los paquetes,
este filtrado se logra gracias a una serie de cadenas que la compone, las cuales son:
 INPUT (entrada)
 OUTPUT (salida)
 FORWARD (reenvió)
Entrada --> Enrutamiento ------> FORWARD ------> Salida -->
| ^
V |
INPUT OUTPUT
| ^
| |
+----------> PC Local ------------+
El enrutamiento no es más que decidir si el paquete está dirigido hacia la propia PC o hacia
una red externa, en caso de ser para la propia red, pasaría por la cadena de INPUT
(entrada), de lo contrario por la de FORWARD (reenvió).
Todo paquete generado localmente pasa por la cadena OUTPUT (salida).
REGLA: indica que sucederá con el paquete, siguen un orden, depende del orden en que
son ingresadas, entonces es el orden a seguir cuando se evaluaran a los paquetes.
DESTINO: viene a hacer la acción a realizar con un paquete, según una regla dada, por
defecto los destinos son:
 ACEPT: allow (Permitir)el paso del paquete.
 QUEUE: el paquete se transfiere a una cola de espera, para que sea revisado.
 RETURN: vuelve a la cadena anterior.
 DROP: elimina el paquete completamente. Sin mandar acuse de recibo.
IPTABLE_NAT: Su utilidad es hacer NAT (Traducción de dirección de red), con el fin de dar
salida a Internet a una red LAN con dirección IP privada, con una única IP pública. Posee 3
cadenas por defecto las cuales son:
---> PREROUTING --> Enrutamiento --> FORWARD --> POSTROUTING --->
| ^
V |
INPUT OUTPUT
| ^
| |
+-------> PC Local ------>---+
 OUTPUT: Es idéntica a la utilizada en IPTABLE_FILTER en cuanto al papel que
representa, la diferencia radica en las demás cadenas que posee esta tabla.
 PREROUTING: (pre-ruteo):
 POSTROUTING: (post-ruteo):
IPTABLE_MANGLE: Esta nueva tabla posee todas las cadenas antes mencionadas, con el fin
de modificar cualquier aspecto conocido, de un paquete dado.
Se puede observar la gráfica anterior que se tiene una pequeña red LAN, la cual necesita
salir a Internet por medio de un Firewall, el cual va a cumplir con el rol de Gateway,
haciendo filtrado de paquetes correspondiente con las políticas ACCEPT (aceptar) y DROP
(denegar) por omisión, también se implementara una zona desmilitarizada la cual va a
contener todos los servidores que estarán expuestos permanentemente a INET (Instituto
Nacional de Educación Tecnológica).
DMZ (ZONA DESMILITARIZADA) Es una zona segura que se ubica entre la red interna de una
organización y una red externa, generalmente en Internet. El objetivo de una DMZ es que las
conexiones desde la red interna y la externa a la DMZ estén permitidas, mientras que en general las
conexiones desde la DMZ solo se permitan a la red externa -- los equipos (hosts) en la DMZ no
pueden conectar con la red interna. Esto permite que los equipos (hosts) de la DMZ puedan dar
servicios a la red externa a la vez que protegen la red interna en el caso de que intrusos
comprometan la seguridad de los equipos (host) situados en la zona desmilitarizada
FW = Firewall
 Desde INTERNET solo es posible entrar directamente al servidor POSTGRESQL de la
LAN, el resto del tráfico hacia la LAN estará denegado.
 Puedo entrar a los servidores WEB y de CORREO desde INTERNET y desde la LAN,
usando
 puertos seguros para descarga y envío de correos.
 El servidor WEB puede acceder solamente al servidor SQL SERVER de la LAN.
 El servidor de CORREO puede acceder únicamente al servidor de impresión de la
LAN. siempre y cuando sea sábado o Domingo.
Los usuarios de la LAN no podrán acceder a los aplicativos que aparecen en el diagrama.
Hagamos una muy breve introducción a clúster de computadoras ya que se nombran en los
tipos de balanceo de carga.
1.8-CLUSTER.-
El concepto de Clúster nació cuando los pioneros de la supercomputación intentaban
difundir diferentes procesos entre varios computadores, para luego poder recoger los
resultados que dichos procesos debían producir, Hardware más barato y fácil de conseguir
Un clúster se define como trabajo realizado por 2 o más ordenadores que en juntos se
encargan de proveer una determinada solución. Podría decirse que simula el
comportamiento de un sistema MPP (Procesamiento Masivamente Paralelo) en si su
objetivo es agrupar el poder de cómputo de los nodos implicados para proporcionar una
mayor escalabilidad, disponibilidad y fiabilidad.
ESCALABILIDAD es la capacidad de un equipo para hacer frente a volúmenes de trabajo
cada vez mayores sin dejar de prestar un nivel de rendimiento aceptable.
DISPONIBILIDAD es la calidad de estar presente y listo para su uso
FIABILIDAD es la probabilidad de un correcto funcionamiento
Los clúster deben presentar ciertas características con el fin de que su función de optimizar
recursos se cumpla satisfactoriamente:
 Un clúster consta de 2 o más nodos.
 Los nodos de un clúster están conectados entre sí por al menos un canal de
comunicación
 Los clúster necesitan software de control especializado
o Software a nivel de aplicación
o Software a nivel de sistema
 Dependiendo del tipo de software el clúster puede estar más o menos acoplado.
o Acoplamiento Fuerte
o Acoplamiento Medio
o Acoplamiento Débil
 Todos los elementos del clúster trabajan para cumplir una funcionalidad conjunta,
sea esta la que sea.
 Mejora sobre la disponibilidad
 Mejora del rendimiento
1.8.1-CLASIFICACIÓN DE LOS CLUSTER.-
1. Alto rendimiento (HP, high performance): los clúster de alto rendimiento han sido
creados para compartir el recurso más valioso de un computador, el tiempo de
proceso. Cualquier operación que necesite altos tiempos de CPU puede ser utilizada
en un clúster de alto rendimiento, siempre que se encuentre un algoritmo que sea
paralelizable
2. Alta disponibilidad (HA, high availability): los clúster de alta disponibilidad son
bastante ortogonales en lo que se refieren a funcionalidad a un clúster de
alto rendimiento. Los clúster de alta disponibilidad pretenden dar servicios 7/24 de
cualquier tipo, son clúster donde la principal funcionalidad es estar controlando y
actuando para que un servicio ovarios se encuentren activos durante el máximo
periodo de tiempo posible.
3. Alta confiabilidad (HR, high reliability): estos clúster tratan de aportar la máxima
confiabilidad en un entorno, en la cual se necesite saber que el sistema se va a
comportar de una manera determinada. Puede tratarse por ejemplo de sistemas
de respuesta a tiempo real. Este tipo de clúster son los más difíciles de
implementar.
2-TIPOS DEBALANCEO DE CARGA.-
Existen dos formas de balanceo de carga:
 BALANCEO DE CARGA ESTÁTICO
 BALANCEO DE CARGA DINÁMICO.
En el primer caso, balanceo de carga estático la distribución de las tareas se realiza al
comienzo de la computación, lo cual permite al maestro (nodo principal dentro del clúster)
participar en la computación una vez que haya asignado una fracción del trabajo a cada
esclavo (el resto de los nodos de un clúster, los nodos esclavos obedecen órdenes del nodo
maestro). La asignación de tareas se puede realizar de una sola vez o de manera cíclica.
El segundo caso, balanceo de carga dinámico es muy útil cuando el número de 12 tareas es
mayor que el número de procesadores disponibles o cuando el número de tareas es
desconocido al comienzo de la aplicación.
Una importante característica del balanceo de carga dinámico es la capacidad que tiene la
aplicación de adaptarse a los posibles cambios del sistema, no sólo a la carga de los
procesadores sino también a posibles reconfiguraciones de los recursos del sistema.
Debido a esta característica, un clúster puede responder bastante bien cuando se produce
el fallo de algún procesador, lo cual simplifica la creación de aplicaciones tolerantes a fallos
que sean capaces de sobrevivir cuando se pierde algún esclavo o incluso el maestro.
2.1-BALANCEO DECARGA ESTÁTICO.-
El balanceo de carga también es llamado mapeado del problema o planificación del
problema. Este tipo de balanceo de carga se trata antes de la ejecución de cualquier
proceso. El balanceo de carga estático tiene serios inconvenientes que lo sitúan en
desventaja sobre el balanceo de carga dinámico. Entre ellos cabe destacar los siguientes:
o Es muy difícil estimar de forma precisa el tiempo de ejecución de todas las
partes en las que se divide un programa sin ejecutarlas.
o Algunos sistemas pueden tener retardos en las comunicaciones que pueden
variar bajo diferentes circunstancias, lo que dificulta incorporar la variable
retardo de comunicación en el balance de carga estático.
o A veces los problemas necesitan un número indeterminado de pasos
computacionales para alcanzar la solución. Por ejemplo, los algoritmos de
búsqueda normalmente atraviesan un grafo buscando la solución, y a priori
no se sabe cuántos caminos hay que probar, independientemente de que la
programación sea secuencial o paralela.
Ruta Estática: Las rutas estáticas se definen administrativamente y establecen rutas
específicas que han de seguir los paquetes para pasar de un puerto de origen hasta un
puerto de destino. Se establece un control preciso del enrutamiento según los parámetros
del administrador. Para conectividad de extremo a extremo, es necesario configurar la ruta
en ambas direcciones. Las rutas estaticas permiten la construcción manual de la tabla de
enrutamiento. El comando ip route configura una ruta estática, los parámetros del
comando definen la ruta estática
COMANDOS
FORMA1:
Router#configure terminal
Router#(config)# ip route "red de destino" "máscara de subred" "siguiente salto"
Ejemplo:
Router#(config)#ip route 192.168.0.0 255.255.255.0 10.0.0.1
FORMA 2:
Router#configure terminal
Router#(config)#ip route "red de destino" "máscara de subred" "interfaz de salida"
Ejemplo:
Router#(config)#ip route 172.168.0.0 255.255.255.0 serial 0/0/0
Antes de la ejecución de cualquier proceso, algunas técnicas potenciales de equilibrio de
carga estática son:
• ALGORITMO ROUNDROBIN - pasa a cabo tareas en secuencial fin de los procesos, de
volver a la primera, cuando todos procesos se han dado una tarea
• ALGORITMOS ALEATORIOS - selecciona procesos al azar tomar tareas
• BISECCIÓN RECURSIVA- divide de forma recursiva el problema en sub problemas de
esfuerzo computacional igual mientras minimizar el paso de mensajes
• RECOCIDO SIMULADO - una técnica de optimización
• ALGORITMO GENÉTICO - otra técnica de optimización
2.2-DISTANCIA METRICA.-
La métrica es un valor que usa los protocolos de enrutamiento para determinar que rutas
son mejores que otras. Las distancias administrativas es una medida de confianza otorgada
a cada fuete de información de enrutamiento cada protocolo de enrutamiento lleva
asociado una distancia administrativa los valores más bajos significa una mayor fiabilidad. U
router puede ejecutar varios protocolos de enrutamiento a la vez, obteniendo información
de una red por varias fuentes. En estos casos usara la ruta que provenga de la fuente con
menor distancia administrativa de los protocolos de enrutamiento
2.3-FAILOVER.-
Se utiliza para hacer los sistemas más tolerantes a fallos, y suele ser una parte integral de
los sistemas de misión crítica que deben estar constantemente disponibles.
La conmutación por error, o failover, es un modo de funcionamiento de respaldo en el que
las funciones de un componente de sistema (tal como un procesador, servidor, red o base
de datos, por ejemplo) son asumidos por componentes del sistema secundario cuando el
componente principal no está disponible ya sea debido a una falla o por el tiempo de
inactividad programado.
Se utiliza para hacer los sistemas más tolerantes a fallos, y suele ser una parte integral de
los sistemas de misión crítica que deben estar constantemente disponibles. El
procedimiento implica descargar tareas de forma automática a un componente del sistema
en modo de espera para que el procedimiento sea tan transparente como sea posible para
el usuario final.
La conmutación por error se aplica a cualquier aspecto de un sistema: dentro de un equipo
de cómputo personal, por ejemplo, el failover podría ser un mecanismo para proteger
contra un fallo de procesador; dentro de una red, se puede aplicar a cualquier componente
de la red o sistema de componentes, tales como una conexión ruta de acceso, dispositivo
de almacenamiento o servidor Web.
Originalmente, los datos almacenados se conectan a los servidores en configuraciones muy
básicas: ya sea punto a punto o de acoplamiento cruzado (cross-coupled). En tal ambiente,
la falla (o incluso el mantenimiento) de un solo servidor frecuentemente provocan que el
acceso a los datos sea imposible para un gran número de usuarios hasta que el servidor
esté de nuevo en línea.
Existen problemas que tiene que ver con la caída ya sea del enlace con el isp principal o en
su defecto la caída de la conectividad con internet, para explicarlo mejor podemos
definir 2 casos que pueden darse:
 Problemas de conectividad en el enlace con el isp principal (problemas de cableado,
problemas con las interfaces, problemas con el router del isp).
 Problemas de conectividad con internet (Puede darse el caso de que el enlace con el isp
funcione bien pero no se tenga conexión con internet).
2.4-TÉCNICAS DEBALANCEO DE CARGA ESTÁTICA.-
 ALGORITMO ROUND ROBIN
DNS Round Robin es una técnica de balanceo de carga o tolerancia a fallos de
aprovisionamiento múltiple y redundante para servidores de servicios IP, por
ejemplo, servidores web ó servidores FTP, que utiliza la gestión de nombres de
dominio (DNS del sistema) para hacer frente a las peticiones de los equipos cliente
según un modelo estadístico pertinente.
Es relativamente sencillo de implementar; consiste en responder a las solicitudes
DNS con una lista de direcciones IP de varios servidores que ofrezcan servicios
idénticos, en vez de responder con una sola dirección. El orden en que se devuelven
las direcciones IP de la lista es la base del término Round-Robin.
Con cada respuesta de DNS, es permutada la secuencia de direcciones IP en la lista.
Por lo general, los clientes IP básicos intentan conectar con la primera dirección que
ha sido devuelta en la consulta DNS, a fin de que en los clientes al realizar diferentes
intentos, puedan recibir el servicio de diferentes proveedores, con lo que
la distribución de la carga global se distribuya entre los servidores.
Las peticiones clientes son distribuidas equitativamente entre todos los servidores
existentes. Sin embargo, este método cíclico no tiene en cuenta las condiciones y
carga de cada servidor. Esto puede implicar que haya servidores que reciben
peticiones de carga mucho mayor, mientras hay servidores que apenas se
encuentran utilizando recursos.
 ALGORITMO ALEATORIO
La aleatoriedad y análisis probabilístico son temas que se involucran en muchas
áreas de las ciencias de la computación incluyendo al diseño de algoritmos, se
pueden considerar algoritmos aleatorizados o aleatorios a aquellos tradicionales
que se enfrentan a entradas generadas aleatoriamente y en otro caso algoritmos
que se comportan al azar, es decir el medio ofrece la misma entrada pero podemos
permitir que tome decisiones al azar ya una vez que procesa la entrada; al permitir
una asignación al azar el modelo se vuelve más potente, así que los problemas que
pueden no haber sido resueltos mediante algoritmos deterministas eficientes aún
pueden ser susceptibles de algoritmos aleatorios.
Los algoritmos aleatorizados a diferencia de los convencionales tienen una entrada
adicional que son los números aleatorios y que se obtienen durante la ejecución, es
decir, se usa algún grado de aleatoreidad como parte de su lógica; es importante
decir que este tipo de algoritmos son la base esencial de la simulación.
Realizan operaciones o toman decisiones distintas de forma aleatoria, se pueden
utilizar cuando no es posible explorar todas las posibilidades o resulta ser costosa.
Por ejemplo, supongamos tenemos dos puertas y detrás de una de ellas hay un
premio y en la otra no hay nada, nuestro interés está en descubrir ese premio,
un algoritmo determinista abriría una puerta y luego la siguiente, en el peor de los
casos las dos puertas serían abiertas. Con un algoritmo aleatorio existe la misma
posibilidad que tenemos cuando lanzamos una moneda al aire, es posible que en
nuestro primer intento podamos abrir la puerta correcta y obtener el premio sin
necesidad de abrir la siguiente.
Aplicando esta misma idea en el problema de encontrar el número 5 en una matriz
(M) de N elementos, donde:
M = [3, 4, 1, 5, 2]
Podemos resolver para este ejemplo de dos maneras, uno es seleccionar
aleatoriamente un elemento de los N definidos, o en todo caso posicionarnos en el
primer elemento e incrementar en 1 hasta encontrarlo.
De manera aleatoria donde en el mejor de los casos lo encontraremos en el primer
elemento aleatorio seleccionado, en el peor de los casos en el mismo número de
iteraciones que si incrementamos, lo que aleatorizar nuestro algoritmo mejora sus
posibilidades.
 RECOCIDO SIMULADO
Recocido simulado o en inglés Simulated annealing (SA) es un algoritmo de
aproximación a la solución óptima, y se basa en una analogía del comportamiento
de sistemas termodinámicos simples. Esta técnica se utiliza en la búsqueda de
soluciones a problemas de optimización de gran tamaño, desde el punto de vista
práctico se ha usado para resolver el problema del viajero.
Se ha empleado en problemas prácticos como el diseño automático de circuitos
integrados, análisis sintáctico del lenguaje, simulación del funcionamiento neuronal,
etc.
Otras aplicaciones de recocido simulado son:
– Comunicaciones
– Teoría de grafos
– Predicción de estructuras de cromosomas
– Clasificación de imágenes
– Diseño de circuitos electrónicos
El recocido simulado busca mejorar alguna de las propiedades de un objeto,
consiste en producir al azar cambios en sus valores.
La simulación del proceso puede usarse para describir la generación de soluciones
de un problema de optimización combinatoria, en donde conforme el proceso
cambia (azar) y teniendo como resultado la mejor solución.
Las soluciones de un problema de optimización combinatoria son equivalentes a los
estados de un sistema físico. El costo de una solución es equivalente a la energía de
un estado.
Descripción breve del algoritmo:
En cada iteración, el método evalúa algunos vecinos del estado actual
denominado S, y probabilísticamente decide entre efectuar una transición a un
nuevo estado S’ o quedarse en el estado inicial S. La comparación entre estados
vecinos se repite hasta que se encuentre un estado óptimo que minimice la energía
del sistema o hasta que se cumpla cierto tiempo computacional u otras condiciones.
 ALGORITMO GENETICOS
Los Algoritmos Genéticos (AGs) son métodos adaptativos que pueden usarse para
resolver problemas de búsqueda y optimización. Están basados en el proceso
genético de los organismos vivos. A lo largo de las generaciones, las poblaciones
evolucionan en la naturaleza de acorde con los principios de la selección natural y la
supervivencia de los más fuertes, postulados por Darwin.
Por imitación de este proceso, los Algoritmos Genéticos son capaces de ir creando
soluciones para problemas del mundo real. La evolución de dichas soluciones hacia
valores óptimos del problema depende en buena medida de una adecuada
codificación de las mismas.
Un algoritmo genético consiste en una función matemática o una rutina de software
que toma como entradas a los ejemplares y retorna como salidas cuales de ellos
deben generar descendencia para la nueva generación.
Operan de forma simultánea con varias soluciones, en vez de trabajar de forma
secuencial como las técnicas tradicionales.
Cuando se usan para problemas de optimización maximizar una función objetivo-
resultan menos afectados por los máximos locales (falsas soluciones) que las
técnicas tradicionales. Resulta sumamente fácil ejecutarlos en las modernas
arquitecturas masivamente paralelas.
Usan operadores probabilísticos, en vez de los típicos operadores determinísticos
de las otras técnicas.
Pueden tardar mucho en converger, o no converger en absoluto, dependiendo en
cierta medida de los parámetros que se utilicen tamaño de la población, número de
generaciones, etc.
Pueden converger prematuramente debido a una serie de problemas de diversa
índole.
2.5BALANCEO DE CARGADINÁMICO
Este tipo de balanceo de carga se trata durante la ejecución de procesos. Con el balanceo
de carga dinámico todos los inconvenientes que presenta el balanceo de carga estático se
tienen en cuenta. Esto es posible porque la división de la carga computacional depende de
las tareas que se están ejecutando y no de la estimación del tiempo que pueden tardar en
ejecutarse. Aunque el balanceo de carga dinámico lleva consigo una cierta sobrecarga
durante la ejecución del programa, resulta una alternativa mucho más eficiente que el
balanceo de carga estático.
El balance de carga dinámico se puede adaptar a los cambios que se presenten en el
sistema, acorde a un protocolo para detectar y enfrentar esos cambios, como por ejemplo
la migración de trabajos. El balance de carga dinámico es requerido en una variedad de
problemas de las ciencias de la computación, problemas de optimización combinatoria y en
general problemas de paralelismo en los que no se conoce a priori la naturaleza de los
trabajos a paralelizar. Existen dos esquemas bases en el balance de carga dinámico:
orientado al servidor (también conocido como work-sharing) y orientado al receptor (work-
stealing). El primero de ellos entrega las decisiones de migración al nodo que se encuentra
sobrecargado de trabajo, y su objetivo es que todos los nodos conectados tengan la misma
cantidad de trabajo.
El segundo entrega las decisiones de migración al nodo que no posee carga de trabajo, y su
objetivo es aprovechar los ciclos de CPU ociosos para realizar un trabajo en paralelo, no
existen resultados teóricos conocidos sobre work-stealing”.
Más aún, todos los estudios teóricos de balance de carga dinámico se fundamentan sobre
la migración fuerte de trabajos, en que los trabajos migran de un nodo a otro al momento
de recibir el requerimiento de migración y no sobre la migración débil, utilizada en la
práctica por su menor costo y en que los trabajos deben esperar por un estado estable en
su ejecución antes de realizar la migración
En el balanceo de carga dinámico, las tareas se reparten entre los procesadores durante la
ejecución del programa. Dependiendo de dónde y cómo se almacenen y repartan las tareas
el balanceo de carga dinámico se divide en:
• Balanceo de carga dinámico centralizado.
Se corresponde con la estructura típica de Maestro/Esclavo.
• Balanceo de carga dinámico distribuido o descentralizado.
Se utilizan varios maestros y cada uno controla a un grupo de esclavos.
2.5.1-BALANCEO DE CARGA DINÁMICO CENTRALIZADO.-
El nodo maestro es el que tiene la colección completa de tareas a realizar. Las tareas son
enviadas a los nodos esclavos. Cuando un nodo esclavo finaliza una tarea, solicita una
nueva al maestro.
Esta técnica también se denomina programación por demanda o bolsa de trabajo, y no sólo
es aplicable a problemas que tengan tareas de un mismo tamaño. En problemas con tareas
de distintos tamaños es mejor repartir primero aquellas que tengan una mayor carga
computacional.
Si la tarea más compleja se dejase para el final, las tareas más pequeñas serían realizadas
por esclavos que después estarían esperando sin hacer nada hasta que alguno completara
la tarea más compleja. También se puede utilizar esta técnica para problemas donde el
número de tareas pueda variar durante la ejecución.
En algunas aplicaciones, especialmente en algoritmos de búsqueda, la ejecución de una
tarea puede generar nuevas tareas, aunque al final el número de tareas se debe de reducir
a cero para alcanzar la finalización del programa. En este contexto se puede utilizar una
cola para mantener las tareas pendientes. Si todas las tareas son del mismo tamaño y de la
misma importancia o prioridad, una cola FIFO (First In First Out) puede ser más que
suficiente, en otro caso debe analizarse la estructura más adecuada
2.5.2-BALANCEO DE CARGA DINÁMICO DISTRIBUIDO O DESCENTRALIZADO.-
En el balanceo de carga descentralizado intervienen varios maestros los cuales tendrán el
control de un grupo diferente de esclavos. Una gran desventaja del balanceo de carga
dinámico centralizado es que el nodo maestro únicamente puede repartir una tarea cada
vez, y después de que haya enviado las tareas iniciales sólo podrá responder a nuevas
peticiones de una en una.
Por tanto, se pueden producir colisiones si varios esclavos solicitan peticiones de tareas de
manera simultánea. La estructura centralizada únicamente será recomendable si no hay
muchos esclavos y las tareas son intensivas computacionalmente. Para tareas de grano fino
(tareas con muy poca carga computacional) y muchos esclavos es apropiado distribuir las
tareas en más de un sitio
Recordando un poco que las rutas proviene de configuraciones estáticas o de protocolos
dinámicos tales como RIP, RIPv2, IGRP, EIGRP y OSPF. Anteriormente ya vimos
configuraciones estáticas ahora no tocas definir sobre dinámicas:
3-CONFIGURACIONES DINAMICAS.-
3.1-BALANCEODECARGAENRIPV1(ROUTINGINFORMATIONPROTOCOL).-
RIP evoluciono de un protocolo anterior llamado Protocolo de información de gateway
GWINFO desarrollado por Xerox. La primera versión de RIP se la denomina comúnmente
RIPv1 para distinguir claramente de RIPv2 ya que ambas versiones comparten muchas
funciones similares
Este protocolo RIPv1 mantiene una tabla de rutas de manera dinámica utilizando vector
distancia, protocolo popular debido a su simplicidad y amplia compatibilidad ya que es uno
de los protocolos más antiguos carece de la sofisticación de los protocolos de enrutamiento
más avanzados, este protocolo no es un protocolo en extinción, de lo contrario se cuenta
ya ahora con un tipo de RIP de IPv6 llamado RIPng (próxima generación).
La configuración de este protocolo es muy sencilla, sólo debe tomarse en cuenta qué
interfaces de red estarán ejecutando el protocolo y qué direcciones de red tienen esas
interfaces. Este protocolo solamente necesita las direcciones de RED que posee el Router,
nunca direcciones IP ni máscaras de subred.
utiliza el conteo de saltos como métrica, es decir, se considera un salto cada vez que un
paquete viaja de un router a otro con un límite de 16 saltos por paquete (TTL - tiempo de
vida del paquete) y su distancia administrativa es de 120.
Puntos destacables de este protocolo
 RIP es un protocolo de enrutamiento por vector de distancia.
 RIP utiliza el conteo de saltos como su única métrica para la selección de rutas.
 Las rutas publicadas con conteo de saltos mayores que 15 son inalcanzables.
 Se transmiten mensajes cada 30 segundos
 Funciona muy bien en redes pequeñas.
 Facilidad para la configuración.
Desventajas
 Está limitado a redes cuyos caminos más largos involucren 15 saltos.
 Converge lentamente ante malas noticias, tales como la ruptura de un enlace o la
ausencia de un nodo. Conteo al infinito.
 Usa una métrica fija que no es apropiada para situaciones basadas en tiempo real
tales como medida del retardo, confiabilidad o carga.
 No admite CIDR ni VLSM
 No hay un mecanismo de autenticación, haciéndola vulnerable a ataques.
 Su principal desventaja consiste en que para determinar la mejor métrica,
únicamente toma en cuenta el número de saltos, descartando otros criterios (ancho
de banda, congestión, carga, retardo, fiabilidad, etc.).
 El límite máximo de saltos es menor que el de otros protocolos, de forma que solo
se puede utilizar en redes de tamaño mediano o pequeño.
 RIP tampoco está diseñado para resolver cualquier posible problema de
enrutamiento.
La porción de datos de un mensaje de RIP se encapsula en un segmento UDP, con los
números de puerto de origen y destino establecidos en 520.
El encabezado IP y los encabezados de enlace de datos agregan direcciones de destino de
broadcast antes de enviar el mensaje a todas las interfaces configuradas con RIP
Se especifican tres campos en la porción del encabezado de cuatro bytes que se muestra
en la parte de la figura del cuadro de color amarillo.
El campo Comando especifica el tipo de mensaje.
El campo Versión se establece en 1 para la versión 1 de RIP.
El tercer campo que se rotula debe ser cero.
Los campos "Debe ser cero" ofrecen espacio para la futura expansión del protocolo.
RIP se desarrolló antes que IP y se utilizó para otros protocolos de red
En el funcionamiento de este protocolo RIP usa 2 tipos de mensajes en el campo comando.
 Mensaje de solicitud
 Mensaje de respuesta
Mensaje de solicitud.- Cada interfaz configurada con RIP envía un mensaje de solicitud
durante el inicio y solicita que todos los RIP vecinos envíen sus tablas de enrutamiento
completas.
Mensaje de respuesta.- Se envía de regreso un mensaje de respuesta por parte de los
vecinos habilitados con RIP. Cuando el router que realiza la solicitud recibe las respuestas,
evalúa cada entrada de ruta. Si una entrada de ruta es nueva, el router receptor instala la
ruta en la tabla de enrutamiento.
En casos que si la ruta ya se encuentra en la tabla, la entrada existente se reemplaza si la
nueva entrada tiene un mejor conteo de saltos.
Luego envía un update (actualizacion) disparado a todas las interfaces habilitadas con RIP
que incluyen su propia tabla de enrutamiento para que los RIP vecinos puedan recibir la
información acerca de todas las nuevas rutas.
Siguiendo con el funcionamiento del RIP pasamos a las direcciones ips que se asiganaran de
acuerdo a las Clase A, B, C y con mascara de subred de previamente de estudios anteriores
Otra característica de RIP es que permite balanceo de carga en 6 rutas de igual costo, 4 por
defecto.
La distancia administrativa (AD) es la confiabilidad (o preferencia) del origen de la ruta.
RIP tiene una distancia administrativa predeterminada de 120. Al compararlo con otros
protocolos de gateway interior, RIP es el protocolo de enrutamiento menos preferido. ISIS,
OSPF, IGRP y EIGRP tienen valores de AD predeterminados inferiores.
Comandos para la implementación del protocolo RIP
Ejemplo #1
router(config)#router rip
router(config-router)#network a.a.a.a
router(config-router)#network b.b.b.b
router(config-router)#network c.c.c.c
Donde:
router rip.- Comando para acceder al modo de configuración de router asignando el
protocolo de enrutamiento RIP.
network.- Comando que se utiliza para que el router publica las redes en sus paquetes de
actualización RIP.
a.a.a.a - Red que será publicada por el router.
Ejemplo #2
Router(config)#router rip
Router(config-router)#network 192.168.1.0
Router(config-router)#network 200.200.1.0
3.2-BALANCEODECARGAENRIPV2(ROUTINGINFORMATIONPROTOCOL).-
Debido a las limitaciones de la versión 1, se desarrolla RIPv2 en 1993. Esta versión soporta
subredes, permitiendo así CIDR y VLSM. Además, para tener retrocompatibilidad con RIPv1,
se mantuvo la limitación de 15 saltos.
Se agregó una característica de "interruptor de compatibilidad" para permitir ajustes de
interoperabilidad más precisos.
RIPv2 soporta autenticación, utilizando uno de los siguientes mecanismos: no
autentificación, autentificación mediante contraseña, y autentificación mediante
contraseña codificada mediante MD5.
Este protocolo solamente necesita las direcciones de RED, nunca direcciones IP ni máscaras
de sub-red.
RIP V2 es una extensión de RIP V1.
 Basado en el algoritmo Bellmand-Ford.
 Métrica: 15 saltos.
 Protocolo de enrutamiento Classless (admite VLSM y CIDR).
 Actualización cada 15 segundos.
 Hay un mecanismo de autenticación (No prevee que los router que usen RIPv1 lean
los mensajes de RIPv2).
 Uso de redes multicast (evitar procesamiento de routers que no reciban paquetes
RIP 2). Dirección multicast: 224.0.0.9.
Esta versión si admite el campo de Máscara de Subred y la dirección del siguiente salto
 Utiliza UDP para enviar sus mensajes a través del puerto 520.
 Cuando RIP descubre que una métrica ha cambiado, la difunde por broadcast a los
demás enrutadores.
 Por defecto, RIP v1 recibe y acepta actualizaciones de RIP v2, pero RIP v2 no acepta
actualizaciones de RIP v1.
 Para solventar este problema se ejecuta el comando en el enrutador con RIPv2:
_ip rip receive version 1
Desventaja
 Solamente determina la mejor ruta por la cantidad de saltos descartando criterios
como ancho de banda, congestión, carga, retardo, fiabilidad, etc. como si lo hacen
otros como OSPF, EIGRP.
A diferencia de otros protocolos de enrutamiento, RIP no utiliza sistemas autónomos, ni
números de área que identifiquen algún tipo de unidad administrativa.
Por este motivo, la configuración de RIPv2 es muy sencilla y bien comparada con RIPv1
Comandos para la implementación del protocolo RIP v2
Ejemplo #1
router(config)#router rip
router(config-router)#versión 2
router(config-router)#network a.a.a.a
router(config-router)#network b.b.b.b
router(config-router)#network c.c.c.c
Donde:
router rip.- Comando para acceder al modo de configuración de router asignando el
protocolo de enrutamiento RIP.
versión 2 .- Comando que indica la versión
network.- Comando que se utiliza para que el router publica las redes en sus paquetes de
actualización RIP.
a.a.a.a - Red que será publicada por el router.
Ejemplo #2
Router(config)#router rip
Router(config-router)# version 2
Router(config-router)# network 172.16.0.0
Este último parámetro indica que sobre cualquier interfaz que pertenezca a esa dirección
de red, el protocolo:
 Enviará actualizaciones de enrutamiento.
 Estará atento a la recepción de actualizaciones de enrutamiento.
 Incluirá la dirección de red de toda interfaz que se encuentre "on" en cualquier
actualización de enrutamiento que envíe.
3.3-BALANCEO DECARGA EN IGRP (INTERIOR GATEWAY ROUTINGPROTOCOL).-
El Interior Gateway Routing Protocol (IGRP) es un protocolo patentado desarrollado por
Cisco. Las características principales de diseño del IGRP son las siguientes:
Por defecto, el protocolo IGRP de enrutamiento usa el ancho de banda y el retardo como
métrica. Además, IGRP puede configurarse para utilizar una combinación de variables para
calcular una métrica compuesta. Estas variables incluyen:
Ancho de banda
 Retardo
 Carga
 Confiabilidad
Se envía un broadcast de las actualizaciones de enrutamiento cada 90 segundos.
El IGRP es el antecesor de EIGRP y actualmente se considera obsoleto.
IGRP es un protocolo con clase, lo que significa que no pueden manipularse las máscaras de
red (utiliza las máscaras por defecto de cada Clase)
IGRP es un protocolo de métrica vector-distancia, perteneciente a Cisco, utilizado para el
intercambio de información entre Routers. Lo que se encarga de hacer es buscar la mejor
vía de envío mediante el algoritmo de métrica vector-distancia.
Se utiliza comúnmente como IGP para intercambiar datos dentro de un Sistema Autónomo,
pero también se ha utilizado extensivamente como Exterior Gateway Protocol (EGP) para el
enrutamiento inter-dominio
Cada router que recibe la información, ajusta la distancia y la propaga a los routers vecinos
A medida que se propaga la información de enrutamiento por toda la red, los routers
realizan las siguientes funciones:
 Identificar nuevos destinos.
 Conocer de fallas.
IGRP utiliza los siguientes parámetros:
 Retraso de Envío: Representa el retraso medio en la red en unidades de 10
microsegundos.
 Ancho de Banda (BandWidth – Bw): Representa la velocidad del enlace, dentro del
rango de los 12000 Mbps y 10 Gbps. En realidad el valor usado es la inversa del
ancho de banda multiplicado por 107.
 Fiabilidad: va de 0 a 255, donde 255 es 100% confiable.
 Distancia administrativa (Load): toma valores de 0 a 255, para un enlace en
particular, en este caso el valor máximo (255) es el pero de los casos.
TIPO DE RUTAS
 Interior.- Rutas entre subredes de una red dada de alta en una interfaz del
enrutador, si esta red no tiene subredes, IGRP no avisa sobre estas rutas internas.
 System.- Rutas hacia redes del mismo sistema autónomo, obtenidas de los enlaces
directamente conectadas al enrutador. Este tipo de rutas no incluyen información
de las subredes.
 Exterior.- Rutas hacia redes fuera del sistema autónomo.
o Gateway of last resort  Router de salida hacia otros SAs.
IGRP cuenta con algunas características que mejoran su estabilidad:
 Holddowns.- Utilizados para prevenir mensajes de actualización erróneos. Cuando
un enrutador falla los enrutadores vecinos lo detectan y mandan updates avisando
este cambio.
 Split horizons.- Esta regla previene los routing loops no enviando información
duplicada y/o incorrecta de una ruta al mismo router que la ha descubierto.
 Poison reverse updates.- Previenen routing loops a lo largo de la red de enrutadores
(split horizon es sólo entre routers adjacentes). Este tipo de actualizaciones se
envían para remover rutas.
Ejemplo
Comandos para la implementación del Protocolo IGRP
Router0> enable
Router0#configure terminal
Router0(config)# router igrp 100
Esta última línea activa el protocolo IGRP con un numero de proceso autónomo de 100 y
nos cambia al modo de configuración de router
Router0(config-router)# network 192.168.3.0
Router0(config-router)# network 192.168.4.0
Con estas 2 líneas dimos de alta a las redes a la que tiene alcance
La configuración en el Router0 vendría ser igual para los demás Routers a configurar
Para configurar el balanceo de carga por rutas con costes desiguales en router con IGRP
se utilizan los siguientes comandos:
router(config-router)# variance <1-128>
El comando variance controla el balanceo de carga entre la ruta de mejor métrica y la de
peor métrica aceptable.
router(config-router)# traffic-share balanced|min
El comando traffic-share controla como se distribuye el balanceo de carga. La
opción balanced distribuye la carga de modo inversamente proporcional a la métrica de los
enlaces. Mientras que min balancea tráfico utilizando primero las rutas que tienen menor
métrica.
3.4-BALANCEO DECARGA EN EIGRP.-
El protocolo de gateway interior mejorado (EIGRP) es un protocolo de enrutamiento vector
distancia sin clase.
Características Generales de EIGRP:
 El protocolo de transporte confiable (RTP) proporciona una entrega confiable y
no confiable de paquetes EIGRP.
 EIGRP establece relaciones con routers conectados directamente que también
están habilitados para EIGRP. Estas relaciones crean adyacencias.
 Todo esto es utilizado por el algoritmo de actualización por difusión (DUAL).
 DUAL garantiza rutas simples y rutas de respaldo a través del dominio de
enrutamiento.
 Al igual que RIP v2, EIGRP funciona con enrutamiento sin clase o con clase.
 Podemos deshabilitar las sumarización automática y resumir manualmente
redes para reducir el tamaño de las tablas de enrutamiento (comando no auto-
summary)
3.4.1METRICA EIGRP
IGRP y EIGRP utilizan la métrica compuesta de ancho de banda, retardo, confiabilidad y
carga. Los protocolos de enrutamiento utilizan sólo el ancho de banda y el retardo en
forma predeterminada. Pero EIGRP utiliza cálculos más avanzados.
EIGRP no envía actualizaciones periódicas y las entradas de ruta no expiran. EIGRP utiliza un
protocolo Hello (muy ligero) para comprobar que sigue conectado a sus vecinos.
Sólo los nuevos cambios(por ejemplo cambios en la topología o la desconexión de una
interfaz) producen una actualización de enrutamiento.
DUAL nos asegura rutas sin bucles.
EIGRP no utiliza temporizadores de espera. Lo que hace es buscar las rutas por medio de un
sistema de cálculos de ruta entre los routers.
La consecuencia es una convergencia más rápida que la de los protocolos de enrutamiento
vector distancia.
Los routers EIGRP descubren vecinos y establecen adyacencias mediante el paquete de
saludo.
EIGRP envía actualizaciones parciales y limitadas (sólo propaga actualizaciones parciales de
aquellos routers que se ven afectados por un cambio). De esta forma eigrp minimiza el
ancho de banda requerido para enviar los paquetes EIGRP.
3.4.2-DISTANCIAADMINISTRATIVA EIGRP.-
La distancia administrativa constituye la confiabilidad del origen de la ruta. EIGRP tiene una
distancia administrativa predeterminada de 90 para las rutas internas y de 170 para las
rutas importadas desde un origen externo(como rutas predeterminadas). Además hemos
de tener en cuenta que EIGRP tiene el Valor de 5 para las rutas sumarizadas.
COMANDOS CISCO PARA EIGRP
Comandos para configurar EIGRP correctamente:
3.4.3-BALANCEO DE CARGA DE MISMO COSTO.-
Cuando un router tiene dos o más rutas hacia un destino con métrica del mismo costo, el
router reenvía los paquetes usando ambas rutas por igual. Esto se denomina “balanceo de
carga de mismo costo”. La tabla de routing contiene la única red de destino pero tiene
varias interfaces de salida, una para cada ruta de mismo costo. El router reenvía los
paquetes utilizando las distintas interfaces de salida que se indican en la tabla de routing.
Si está configurado correctamente, el balanceo de carga puede aumentar la efectividad y el
rendimiento de la red. El balanceo de carga de mismo costo puede configurarse para usar
tanto protocolos de enrutamiento dinámico como rutas estáticas.
EIGRP permite el balanceo de carga en enlaces con igual y diferente costo.
EIGRP automáticamente realiza balanceo de carga a enlaces de cargas iguales, para enlace
de cargas desiguales se utiliza el comando variance [multiplicador]
3.4.4-CONFIGURACIÓN DE BALANCEO DE CARGA EN ENLACES CON IGUAL COSTO EIGRP.-
Se configura los anchos de bandas enunciados con el comando Bandwidth. El proceso de
EIGRP escoge la mejor ruta de acuerdo a la métrica
Viendo la tabla de enrutamiento
En este caso los dos enlace Seriales tienen la misma métrica [90/3139840] debido a su
común ( Delay, bandwidth).
Introduciendo #show ip eigrp topology se puede ver los diferentes enlaces
3.4.5-CONFIGURACIÓN DE BALANCEO DE CARGA EN ENLACES CON DESIGUALCOSTO EIGRP.-
EIGRP permite balancear carga en enlaces de diferentes costos, esto es posible gracias al
comando Variance [multiplicador]. La variance es un número que multiplicado por el Costo
menor iguala o supera al costo mayor del grupo de enlaces a balancear.
Poniendo de ejemplo tenemos dos enlaces de 1024kbps y un enlace de 64kbps.
EIGRP le asigna un coste a cada enlace, tomando en cuenta el ancho de banda y otras cosas
(como delay). Podemos poner como ejemplo que EIGRP le da un costo de 20 a un enlace
de 1024Kbps, y uno de 450 a un enlace de 64kbps. Por lo tanto, EIGRP utilizara, por
defecto, el enlace con mejor costo (20 = enlace de 1024 kbps)
El numero que pones en el comando VARIANCE, es el numero que, multiplicado por el
coste de la ruta de 1024kbps, iguala o supera el coste de la ruta de 64kbps
Siguendo con el ejemplo, si el enlace de 1024kbps tiene un coste de 20 y el de 64kbps de
450, entonces el valor a introducir en el comando variance deberia de ser 23 (20 * 23 =
460). Con esto, se utilizarían los enlaces con coste de 20, hasta el enlace con coste de 460.
La configuracion seria la siguiente:
Router(config)# router eigrp 1
Router(config-router)# variance 23
Router(config-router)# traffic-share balanced
El comando "traffic-share balanced" hace que, el router balance las cargas
"proporcionalmente" en los enlaces. Por cada 23 paquetes enviados por el enlace de 1024,
se enviaría 1 en el enlace de 64.
4-BALANCEO DE CARGAS POR DESTINO Y POR PAQUETE.-
Puede configurarse el balance de cargas para que se realice por destino o por paquete.
4.1-EL BALANCEDE CARGAS POR DESTINO.-
significa que el router distribuye los paquetes según la dirección de destino. Dados dos
trayectos a la misma red, todos los paquetes para el destino1 en esa red se transmiten a
través del primer trayecto; todos los paquetes para el destino2 en esa red se transmiten a
través del segundo trayecto y así sucesivamente.
De esta manera se preserva el orden de paquetes, con un posible uso desigual de los
enlaces.
Si un host recibe la mayoría del tráfico, todos los paquetes usan un enlace, lo que deja el
ancho de banda en los demás enlaces sin utilizar. Una gran cantidad de direcciones de
destino lleva a más enlaces utilizados de forma equitativa.
Para lograr más enlaces utilizados equitativamente, use el software IOS para crear una
entrada de caché de ruta para cada dirección de destino, en lugar de cada red de destino,
como cuando sólo existe un único trayecto. Por consiguiente, el tráfico a diferentes hosts
en la red de mismo destino puede usar diferentes trayectos.
La desventaja de este enfoque es que los routers de núcleo/estructura básica que
transportan tráfico a miles de hosts de destino, los requisitos de memoria y procesamiento
para mantener la caché pueden ser muy exigentes.
4.2-EL BALANCEDE CARGA POR PAQUETE-
significa que el router envía un paquete para el destino1 a través del primer trayecto, el
segundo paquete para el (mismo) destino1 a través del segundo trayecto y así
sucesivamente.
El balance de carga por paquete asegura el balance de carga entre todos los enlaces. No
obstante, existe la posibilidad de que los paquetes puedan llegar sin un orden al destino a
causa de la demora diferencial que existe dentro de la red.
En el software Cisco IOS, excepto en la versión 11.1CC, el balance de cargas por paquete
deshabilita la aceleración de reenvío a través de la caché de rutas, dado que la información
de la caché de rutas incluye la interfaz saliente.
Para el balance de cargas por paquete, el proceso de reenvío determina la interfaz saliente
para cada paquete a través de una búsqueda en la tabla de rutas y la selección de la
interfaz menos utilizada.
De esta forma se garantiza la utilización equitativa de los enlaces, pero es una tarea que
requiere una alta utilización del procesador e impacta en el desempeño en general del
reenvío. Esta forma de balance de cargas por paquete no es la adecuada para las interfaces
de velocidad más alta
El balance de carga por destino o por paquete depende del tipo de esquema de
conmutación utilizado para los paquetes IP. De forma predeterminada, en la mayoría de los
routers Cisco, la conmutación rápida está habilitada en las interfaces.
Esto es un esquema de demanda de memoria caché que se ocupa del balance de carga por
destino.
Para establecer el balance de cargas, habilite la conmutación de procesos (o deshabilite la
conmutación rápida), use estos comandos:
Router# config t
Router(config)# interface Ethernet 0
Router(config-if)# no ip route-cache
Router(config-if)# ^Z
Ahora la CPU del router busca en cada paquete y equilibra la carga en la cantidad de rutas
en la tabla de ruteo para el destino.
Esto podría producir un fallo en un router de extremo bajo, dado que la CPU debe efectuar
todo el procesamiento.
Para volver a habilitar la conmutación rápida, utilice estos comandos:
Router# config t
Router(config)# interface Ethernet 0
Router(config-if)# ip route-cache
Router(config-if)# ^Z
5-GENERACIONES DEL BALANCEO DECARGA.-
5.1-PRIMERA GENERACIÓN DE BALANCEO DE CARGA.-
Las soluciones "reales" de balanceo de carga necesitan descubrir el rendimiento del
servidor. La primera generación puede detectar el rendimiento del servidor vía passive
polling, lo que significa que el balanceador de carga mide el tiempo de respuesta de los
servidores y por ello tiene una idea de cómo están funcionando.
En esta generación sólo descubre que los servidores tienen un problema después de que se
producen retrasos o, en el peor de los casos, cuando los servidores están completamente
caídos.
5.2-SEGUNDA GENERACIÓN DE BALANCEO DECARGA.-
El balanceo de carga más seguro sólo se puede conseguir considerando el uso real de los
servidores, permitiendo que los recursos existentes se empleen al máximo, al conocer
cómo están siendo utilizados estos recursos incluso antes de que las peticiones de los
clientes lleguen a ellos.
El tráfico se enruta proactivamente, cambiando el antiguo concepto existente de balanceo
de carga, hacia una solución de optimización del servidor, consiguiendo el mejor resultado
posible con la tecnología disponible.
Para lograrlo, el balanceador de carga continuamente realiza peticiones de datos de cada
servidor en la granja de servidores para monitorizar sus condiciones y direccionar las
peticiones de los clientes hacia el servidor que se encuentre más disponible y en mejor
estado para responder a dichas peticiones. Los parámetros solicitados, dependen del
producto utilizado.
Normalmente se emplea la utilización de la CPU del servidor, el uso de memoria y el
número de conexiones abiertas.
La segunda generación de balanceadores posee funciones de mensajería, informando si los
servidores están fuera de servicio, y si es así, cuándo serán devueltos a producción.
La mayoría de los servidores "revividos" pasan un período de prueba durante el cuál no se
llenan completamente de peticiones.
Se puede incluso desconectar los servidores para repararse o para realizar el
mantenimiento, a través del método de "apagado progresivo". El servidor, a partir de ese
momento, no acepta nuevas peticiones pero permanece activo hasta que las transacciones
de comercio electrónico y las descargas que se estén produciendo finalicen.
La segunda (algunas veces considerada la primera) regla más importante de una solución
de balanceo de carga, es incrementar la fiabilidad del sitio web y del contenido y los
servicios que está ofreciendo.
Normalmente la segunda generación de balanceadores de carga hardware se vende en
parejas, es decir, dos equipos iguales. Uno de ellos es la unidad activa y el segundo la
unidad de repuesto o de back up.
Una unidad de back up en modo stand by (en espera) con una misma
dirección IP y MAC significa que incluso cuando el balanceador se ve afectado por un
incidente como puede ser un fallo de cableado, fuego o error humano, hay una unidad de
repuesto pre-configurada que pasa a ser operacional de forma inmediata.
Todos estos conceptos de balanceo de carga que hemos visto más antes se encuentran
muy ligados a un concepto en particular el cual es llamado Alta Disponibilidad este término
significa la capacidad que posee un sistema o topología de hacer frente a posibles fallos ya
sean Físicos y lógicos en los cuales pueden ser externo o internos.
Cuando se utiliza alta disponibilidad se debe implementar un respaldo de todo equipo en el
sistema (topología) comenzando desde elementos mínimos como cables hasta los más
complejos como Routers, el único y principal inconveniente de la alta disponibilidad es su
alto costo ya que se debe hacer una inversión más grande duplicando hasta el ISP
(Proveedor de Internet).
Siempre cuando se habla de balanceo de carga, esta implícitamente definido un sistema de
alta disponibilidad y viceversa ya que el objetivo final de todo buen sistema de alta
disponibilidad es obtener un excelente desempeño en las transacciones que se procesan,
así como también la eficiencia del encaminamiento de datos.
Existen muchas alternativas para balancear la carga en un equipo
6-BALANCEO POR SOFTWARE.-
El cual consiste en utilizar dos placas de
red y usar un software de tercero para
administrarlas o simplemente utilizar el
software que viene con ellas cuando sea
posible y su configuración es tan básica
como definir las direcciones, sus rangos y
si enviaran, recibirán o ambas.
6.1-VENTAJAS DEL BALANCEO DE CARGA POR SOFTWARE.-
 Precio.
 Una vez no sea necesario el balanceador o se requiera uno más potente se puede
reciclar para otras tareas.
6.2-INCONVENIENTES O DESVENTAJA DELBALANCEO DE CARGAPOR SOFTWARE.-
 Mayor tiempo de mantenimiento.
 Menor potencia.
También existe un método llamado RRDNS (Round Robin DNS) el cual consiste en
configurar un servidor DNS, con las direcciones IPs a las cuales se desea redistribuir el
tráfico (podemos leer más información acerca de esto en las hojas anteriores).
Esta última opción es un poco más costosa ya que implica contratación de un servicio de
resolución de nombres, con su respectivo balanceo así como compra de equipo adicional
de re direccionamiento.
Una de sus principales desventajas es que la selección de servidor re direccionado se realiza
mediante la métrica de TTL (Time to live) del paquete.
6.3-TIEMPO DE VIDAO TIMETO LIVE (TTL).-
Indica por cuántos nodos puede pasar un paquete antes de ser descartado por la red o
devuelto a su origen.
El TTL como tal es un campo en la estructura del paquete del protocolo IP. Sin este campo,
paquetes enviados a través de rutas no existentes, o a direcciones erróneas, estarían
vagando por la red de manera infinita, utilizando ancho de banda sin una razón positiva.
El TTL (Time To Live), es utilizado en el paquete IP de manera que los Routers puedan
analizarlo y actuar según su contenido.
Si un router recibe un paquete con un TTL igual a uno o cero, no lo envía a través de sus
puertos, sino que notifica vía ICMP a la dirección IP origen que el destino se encuentra
"muy alejado" y procede a descartar dicho paquete.
Si un paquete es recibido por un router que no es el destino, éste decrementa el valor del
TTL en uno y envía el paquete al siguiente router (next hop). En el protocolo IP, esta
información se almacena en un campo de 8 bits. El valor óptimo para aprovechar el
rendimiento en Internet es de 128.
7-BALANCEADOR DECARGA POR HARDWARE.-
Los balanceadores de carga por hardware son máquinas (dispositivos) con un propósito
específico y solo son útiles para el balanceo de carga.
Equipos existen muchos en el mercado, todo depende a su capacidad de memoria,
desempeño y uso extremos entre los más potentes esta la ROUTERBOARD MIKROTIK 1200
de la Fig-1 (arriba) este equipo dispone de 10 puertos Gigabyte los cuales pueden
configurarse todos para funcionar como balanceo de carga y así tener 10 WAN para el uso
de una red
7.1-VENTAJAS DEL BALANCEO DE CARGA POR HARDWARE.-
 Potencia.
 Estabilidad.
 Escalabilidad.
Fig-1
Fig-2
7.2-INCONVENIENTES O DESVENTAJA DELBALANCEO DE CARGAPOR HARDWARE.-
 Precio (equipo, mantenimiento, técnicos).
 Sólo sirve para balanceo.
Otra opción para realizar el balanceo de carga es utilizar las herramientas integradas de
Windows 2000, siendo más específicos NLB, el cual se configura utilizando dos o más
tarjetas de red, configurando una dirección Gateway por defecto y estableciendo el puerto
de cada uno para funcionar como un solo enlace al unísono.
Una limitante de esta opción es que solo se puede realizar con adaptadores de red
certificados para usar con esta tecnología.
Dentro de las opciones más sencillas para balanceo de carga se encuentran las realizadas
por hardware especializado Router y switches los cuales se encargan de redistribuir el
tráfico según protocolos ya establecidos en sus interfaces de salida de red que han sido
configuradas con su respectivo balanceo de carga.
Dentro de estos protocolos se destacan algunos como:
 HSRP (Host Standbay Routing Protocol)
 GLBP (Gateway Load Balancing Routing Protocol)
 VRRP (Virtual Router Redundancy Protocol)
7.3-HOSTSTANDBAY ROUTING PROTOCOL.-
HSRP es un protocolo propietario de Cisco que permite que varios routers o switches
multicapa funcionen como si fuesen una sola puerta de enlace.
Este protocolo evita la existencia de puntos de fallo únicos en la red mediante técnicas de
redundancia y comprobación del estado de los routers.
El funcionamiento del protocolo HSRP es el siguiente: Se crea un grupo (también conocido
por el término inglés Clúster) de routers en el que uno de ellos actúa como maestro,
enrutando el tráfico, y los demás actúan como respaldo a la espera de que se produzca un
fallo en el maestro.
HSRP es un protocolo que actúa en la capa 3 del modelo OSI administrando las direcciones
virtuales que identifican alrouter que actúa como maestro en un momento dado.
HSRP genera una IP virtual (192.168.1.1) y una MAC virtual para esa direccion de capa 3
(0000.0C9F.0000).
El formato utilizado por HSRP para las direcciones MAC de las IP virtuales es
0000.0C9F.00XX donde XX hace referencia a los últimos dos dígitos del
grupo HSRP configurado (100).
El switch que obtiene el estado de Activo es el que funcionará como default gateway y el
que adquiere el estado de Standbay es el que queda de backup en caso de que
el Activo falle.
A través del intercambio de mensajes Hello los switches negocian el estado final que les
corresponde a través del parámetro priority, el que tenga mayor prioridad será el que
quede como Activo y es el que responderá a la MAC e IP virtuales configuradas.
En caso de que el switch Activo falle, el Standbay asumirá el rol y responderá a las MAC e IP
virtuales.
En el esquema presentado el switch SW0 se dará cuenta de que hay un problema en SW1
cuando no reciba respuesta durante tres intervalos de Hello consecutivos, en ese momento
declarará al Activo como inaccesible.
Hay dos parámetros importantes a tener en cuenta cuando se trabaja con este protocolo,
estos son
 preempt
 track
El parámetro preempt permite que, luego de haberse solucionado el problema que forzó
al default gateway Standbay a asumir el rol de Active, este vuelva a asumir su rol original
basado en su prioridad.
Si este parámetro no está configurado entonces el nuevo router activo quedará con en ese
rol a pesar de que un router con mayor prioridad vuelva a estar operativo.
El parámetro track evita un falso positivo importante ya que, si bien la interfaz del router
de cara hacia la LAN puede estar operativa, puede haber un problema en la interfaz que le
permite acceder a internet, en este escenario el protocolo HSRP no detectará que hay un
problema y los dispositivos de la red no tendran acceso a internet a pesar de que SW0
tenga una ruta alternativa funcional.
El parámetro track permite monitorear interfaces dentro del router y generar un
decremento en la prioridad de la IP HSRP en caso de que esta interfaz monitoreada se
encuentre inactiva.
Con el comando show standbay podemos visualizar la configuración de track
Podemos ver que estamos haciendo un trackeo de la interfaz FastEthernet 0/2 de SW1 que
es la interfaz con la que este dispositivo se conecta a internet, en caso de que esta interfaz
tenga una falla la prioridad HSRP se reducirá en 10 (125-10=115), permitiendo que SW0
(prioridad 120) asuma el rol de activo y empiece a funcionar como default gateway.
Otra cosa importante a destacar es que, cuando el SW1 está activo, la MAC address virtual
de HSRP en el switch de conexión es conocida a través de FastEthernet 0/2
Si FastEthernet 0/2 en SW1 falla entonces vemos que SW1 pasa a Standbay y SW0 a Active
Ahora podemos observar que en el switch de conexión la MAC address virtual
de HSRP ahora es concida a través de la interfaz FastEthernet 0/1, que es la interfaz donde
se encuentra conectado SW0.
Una vez que el problema en FastEthernet 0/2 en SW1 es solucionado, el
parametro preempt permite que SW1 vuelva a asumir el rol de Active automáticamente.
7.3.1-ESTADOS HSRP.-
Los routers antes de pasar a tener un rol, tienen que pasar por varios estados :
Initial State : Todos los routers inician con este estado. Este estado se da cuando se ha
realizado algun cambio en la configuración o cuando se ha iniciado una interface.
Learn State: En este estado aun no se ha determinado la Virtual IP address y no se ha
recibido ningun hello del Active Router. El router esta esperando y escuchando para recibir
algun hello del Active Router.
Listen State : El router conoce la Virtual IP address, pero no es ni el Active Router ni el
Standby Router. Todos los routers del grupo HSRP persisten en este modo incluso el Active
y Standby router.
Speak State : Este estado permite a los routers hablar periódicamente mediante hello’s y
participar en la elección del Active Router y el Standby Router. El router se queda en el
estado Speak almenos que se convierta en un Active o Standby router.
Standby State : Este estado coloca al router en modo backup y envia mensajes hello
periódicamente. En de perdida de conectividad con el Active Router el Standby Router pasa
a ser el Active . Tiene que haber como mínimo un router de Standby.
Active State : Este estado, el router es el encargado de reenviar los paquetes que llegan a la
Virtual IP y mac-address del grupo HSRP. El router activo también envía periódicamente
mensajes Hello.
HSRP LOAD BALANCING .-
Se puede realizar balanceo de carga mediante grupos HSRP y mientras que un router es
Active Router de un grupo, también puede ser Standby Router de otro grupo .
Puntos destacables del HSRP
Active Router : Es el router activo que recibe el tráfico para ser reenviado a su destino .
Standby Router : Es el router de backup en caso de que el Active Router se caiga.
Virtual Router : No es un router, pero representa al grupo HSRP como un router virtual y es
el actual default gateway para los hosts.
En realidad el host tiene configurado el default gateway del Virtual Router que realmente
pertenecerá al Active router que será el encargado de reenviar los paquetes al destino.
 Este protocolo envia mensajes de Hello como los de los protocolo de routing para
saber si su vecino esta vivo . Estos mensajes se envían cada 3 segundos mediante la
dirección multicast 224.0.0.2 y el puerto UDP 1985.
 Para determinar quien sera el Active Router se decide mediante la Standby Priority.
Que podremos poner valores entre 0 – 255. Por defecto viene a 100 y el que tenga
la prioridad más alta es el que se escoje como Active Router.
En caso de empatar con las prioridades, el router que tenga la IP address más
grande será el Active Router.
 En caso de no configurar la opción “preempt” sucederá que el primer router que
inicie sera el escogido como Active Router . Esto lo veremos más tarde dado que
esta opción permite recuperar a un Active Router cuando vuelve a estar operativo.
 En cuanto se escoge el Active Router los demás routers estan en modo monitor a la
posible espera de poder ser Active Router en caso de fallo.
Esto sucede en cuanto el hold time de los hello’s llega a los 10 segundos, que es el
parametro por defecto . En ese momento el Standby Router pasa a ser el Active
Router y se consigue que no haya perdida de diponibilidad.
7.4-GLBP (GATEWAY LOAD BALANCING PROTOCOL).-
Es un protocolo propietario de Cisco que permite balancear la carga asignando varias
direcciones MAC a una misma IP virtual, esto es posible debido a que existe un router con
el rol de AVG (Active Virtual Gateway) que es el encargado de responder a las solicitudes
ARP de los usuarios, AVG responderá con la dirección MAC de un router AVF (Active Virtual
Forwarder) según el algoritmo de balanceo seleccionado.
GLBP intenta superar las limitaciones de los protocolos de router redundantes existentes
mediante la adición de carga básica funcionalidad de equilibrio.
Son capaces de establecer prioridades en los diferentes routers de pasarela, GLBP permite
un parámetro de ponderación que se establezca. Sobre la base de esta ponderación (en
comparación con otros en el mismo grupo de router virtual), peticiones ARP serán
contestadas con direcciones MAC que apunta a diferentes routers.
Por lo tanto, de forma predeterminada, el equilibrio de carga o balanceo de carga no se
basa en la carga de tráfico, sino más bien en el número de hosts que utilizarán cada router
gateway. Por defecto equilibra la carga GLBP en round-robin.
GLBP elige a uno AVG (puerta de enlace virtual activo) para cada grupo. Otros miembros
del grupo actúan como respaldo en caso de fallo de AVG. En caso de que haya más de dos
miembros, el segundo mejor AVG se coloca en el estado de espera y todos los demás
miembros se colocan en estado de escucha. Esto se vigila por medio de hola y
temporizadores Holdtime, que son 3 y 10 segundos de forma predeterminada.
El AVG elegido a continuación, asigna una dirección MAC virtual a cada miembro del grupo
GLBP, incluido él mismo, lo que permite FAV (Forwarders virtuales activas).
Cada AVF asume la responsabilidad por el envío de paquetes enviados a su dirección MAC
virtual. Podría haber hasta cuatro FAV al mismo tiempo.
Por defecto, los routers GLBP utilizan la dirección de multidifusión local de 224.0.0.102
para enviar paquetes de saludo a sus compañeros cada 3 segundos sobre UDP 3222 (origen
y destino).
7.4.1-FUNCIONAMIENTO DEL GLBP.-
El propósito del desarrollo GLBP era para salvar una brecha que existía con el Protocolo de
Hot Standby Router (HSRP) facil implementación de balanceo de carga.
Con HSRP y VRRP, la versión estándar de HSRP, el problema que existe es que sólo un único
dispositivo dentro de un grupo es cada vez reenvío de tráfico en un momento dado.
Cuando sólo un único dispositivo de transmisión de datos es en realidad, una gran cantidad
de ancho de banda inactivo se deja sentado fuera de las interfaces de los dispositivos de
reserva.
Hay una manera de evitar esto mediante la configuración de múltiples grupos HSRP en los
dispositivos, pero esto también requiere que la mitad de los anfitriones pueden configurar
con una sola puerta de entrada y la otra mitad con otra que aumenta la cantidad de
administración y sigue siendo una solución en bruto a la problema.
GLBP funciona un poco diferente de estos otros protocolos. Para entender esto, hay dos
términos para las funciones del dispositivo GLBP que necesitan ser definidos: Puerta de
enlace activo virtual (AVG) y Forwarder virtual activa (FAV).
El AVG es responsable de la gestión del tráfico a todos los dispositivos GLBP configurado
activos Forwarder virtual (FAV). Esto se hace mediante el control del proceso de ARP.
Cuando GLBP aparece, AVG es elegido, y uno de sus primeros deberes es asumir la
responsabilidad de la dirección IP virtual y asignar cada uno de los dispositivos GLBP
configurados con una dirección virtual MAC (incluido él mismo).
Cuando un mensaje de ARP es visto por el AVG, responde y da un vistazo a estos
direcciones MAC virtuales en un formato de todos contra todos; De esta manera, cada uno
de los FAV se le asigna una cantidad uniforme de tráfico de los dispositivos que solicitan
acceso. Hasta cuatro diferentes direcciones MAC virtuales y así FAV pueden existir de
manera activa.
OTROS CONCEPTOS
Active Virtual Gateway (AVG):
Dentro de un grupo GLBP, un router virtual (puerta de enlace) es elegido como el Active
Virtual Gateway (AVG), y es el responsable de la operación del protocolo.
Este router AVG tiene el valor de prioridad o la dirección IP más alta en el grupo, responde
a todas las solicitudes ARP para direcciones MAC que se envían a la dirección IP del router
virtual.
Active Virtual Forwarder (AVF)
Un router dentro de un grupo GLBP es elegido como Active Virtual Forwarder (AVF). Este
AVF es responsable de reenviar paquetes que son enviados a la dirección mac asignada por
el router AVG.
Pueden existir múltiples AVF para cada grupo GLBP.
Así, cuando un cliente necesita enviar paquetes al AVG con la dirección IP configurada,
solicita la dirección MAC enviando una solicitud ARP (protocolo de resolución de
direcciones) en la subred.
El AVG responderá a estas peticiones ARP con la dirección MAC virtual de cada AVF, basado
en un algoritmo de reparto de carga configurado.
7.4.2-GLBP REDUNDANCIA.-
¿Cómo funciona la redundancia con GLBP puede ser un poco confuso, especialmente si el
ingeniero ha tenido experiencia con HSRP y / o VRRP. .
Con GLBP, en realidad hay dos tipos diferentes de redundancia: la redundancia AVG y AVF
redundancia redundancia AVG trabaja casi exactamente la misma que HSRP o VRRP
redundancia una sola AVG es elegido cuando GLBP se acerca y mantiene ese papel hasta
que se cae o hasta otro router toma el papel de ella.
Como HSRP y VRRP, GLBP utiliza una prioridad para elegir el AVG; en el caso de un empate
(el valor predeterminado es 100), se utiliza la dirección IP más alta. GLBP (AVG) de
preferencia está desactivada por defecto
Lo que esto significa es que la corriente de AVG debe dejar para otro dispositivo para
hacerse cargo del papel, incluso si tiene una prioridad más alta.
AVF redundancia es un poco diferente; si el dispositivo que se encarga de una dirección
virtual MAC específica falla, uno de los otros FAV actuales se hace cargo de las funciones de
reenvío al hacerse cargo de la dirección virtual MAC específica.
Este cambio se comunica a la corriente de AVG, y más de una serie de tiempos de espera,
el tráfico se transfiere desde esa dirección MAC virtual específico a otro, hasta la
actualidad, FAV. Preferencia para FAV está activado por defecto.
Esto permite a los otros dispositivos dentro GLBP no perder de vista cuando una FAV falla y
hacerse cargo de las tareas de forma proactiva.
7.4.3-GLBP PONDERACIÓN Y SEGUIMIENTO DEINTERFAZ.-
GLBP utiliza un concepto de ponderación para determinar la capacidad de carga de cada
uno de los FAV. De forma predeterminada, cada una de las FAV está configurado con una
ponderación de 100 (los valores van de 1 a 254).
Por defecto, el comportamiento de equilibrio de carga de GLBP es utilizar todos contra
todos, que siempre dará lugar a una distribución de los ejércitos de las FAV.
Si este comportamiento de equilibrio de carga fue alterado para usar ponderación, a
continuación, en función de la ponderación actual asignado a una FAV, cada promotor
específico tendría una carga específica del tráfico.
El pesaje también se puede configurar con los niveles inferior y superior. Estos se usan
entonces para determinar si una AVF debe ser de reenvío.
Por ejemplo, si se ha configurado con un límite inferior de 40 y un límite superior de 80
Cuando la ponderación en un dispositivo cambió a ser menor que 40, la FAV dejaría de
reenvío. Sería permanecerá en este estado hasta que su peso se incrementó por encima de
80.
La ponderación de las FAV específicos se puede controlar tanto estática como
dinámicamente. Cuando se configura de forma estática, la red administrador / ingeniero
configurará una ponderación específica a cada FAV.
Cuando se configura de forma dinámica, GLBP utiliza el estado de un objeto de seguimiento
para determinar la corriente ponderación FAV.
Objetos de pista pueden utilizar una serie de criterios diferentes para determinar su estado
(arriba o abajo).
El más básico de ellos es el estado de protocolo de línea de interfaz y la interfaz de la
capacidad de enrutamiento IP (es una dirección IP configurada).
La siguiente Página muestra una topología típica con GLBP
Tipos de mecanismos de balanceo de carga en GLBP
Existen tres mecanismos de equilibrio de carga que se utiliza con GLBP. Estos incluyen:
1. ROUND-ROBIN: Es el método por defecto. Cada AVF es elegido secuencialmente en
la resolución de direcciones respuestas para la dirección IP virtual. A cada solicitud
ARP se le responde con la dirección MAC del siguiente AVF y al llegar al final se
comienza desde el inicio.
2. HOST-DEPENDENT: Basado en la dirección MAC de un host, el mismo AVF se utiliza
siempre para un host en particular.
3. WEIGHTED: Sobre la base de la cuota depende del peso del usuario entre los
routers.
7.4.4-ESTADOS DEL BALANCEO DECARGA EN GLBP.-
Existen diferentes estados de AVG y AVF en un grupo GLBP. El AVG pueden tener 6 estados.
Estos incluyen:
1. Disabled: significa que no hay dirección IP virtual configurada.
2. Initial: significa que la dirección IP virtual configurada pero la configuración de
puerta de enlace virtual esta incompleta.
3. Listen: Se reciben paquetes Hello y el equipo pasará a "Speak" estado si no escucha
mensajes de un AVG disponible.
4. Speak: Significa que el equipo está tratando de convertirse en el AVG y está
informando a los demás equipos.
5. Standby: Listo para convertirse en el próximo AVG.
6. Active: significa que el equipo actual es el AVG y es responsable de responder a las
solicitudes ARP para la dirección IP virtual.
El AVF puede tener cuatro estados. Estos incluyen:
1. Disabled: significa que no hay dirección MAC virtual asignada.
2. Initial: La dirección MAC virtual está bien, pero la configuración de AVF está
incompleta.
3. Listen: El AVF está recibiendo Hello y está listo para pasar al estado "activo" como
AVF (Existe un AVG).
4. Active: El equipo actual es AVF y es responsable de reenviar paquetes enviados a la
dirección MAC virtual que le ha sido asignada.
7.4.5-BENEFICIOS DE GLBP.-
 Balanceo de carga. Puede configurar GLBP de tal manera que el tráfico de clientes
de LAN puede ser compartido por múltiples routers, compartiendo así la carga de
tráfico de manera más equitativa entre los routers disponibles.
 Múltiples routers virtuales. GLBP soporta hasta 1.024 routers virtuales (grupos
GLBP) en cada interfaz física de un router, y hasta 4 forwarders virtuales por grupo.
 Preemtion. El esquema de redundancia de GLBP le permite definit un AVG con una
prioridad configurable predefinida.
 Autenticación. Puede utilizar un esquema simple de autenticación de contraseña de
texto entre los miembros del grupo GLBP. Un router dentro de un grupo GLBP con
una llave de autenticación diferente a otros routers será ignorada por otros
miembros del grupo.
7.4.6-GLBP VIRTUAL MAC DIRECCIÓN ASIGNACIÓN.-
Un grupo GLBP permite hasta cuatro direcciones MAC virtuales por grupo. El AVG es
responsable de asignar las direcciones MAC virtuales a cada miembro del grupo. Otros
miembros del grupo solicitan una dirección MAC virtual después descubren la AVG a través
de mensajes de saludo. Gateways se les asigna la siguiente dirección MAC en secuencia.
Un promotor virtual que se asigna una dirección MAC virtual por el AVG es conocido como
un promotor de la virtual primario. Otros miembros del grupo GLBP aprenden las
direcciones MAC virtuales desde hello mensajes.
Un promotor virtual que ha aprendido la dirección MAC virtual se conoce como un
promotor de la virtual secundario.
7.4.7-GLBP VIRTUAL PASARELA REDUNDANCIA.-
GLBP opera redundancia puerta de enlace virtual en la misma forma que HSRP.
Una puerta de enlace es elegido como el AVG, otra puerta de enlace es elegido como
puerta de entrada virtual de espera, y las puertas de enlace restantes se colocan en un
estado de escucha.
Si un AVG falla, la puerta de entrada virtual en pausa asumirá la responsabilidad de la
dirección IP virtual.
Una nueva puerta de enlace virtual de espera es entonces elegido de las pasarelas en el
estado de escuchar.
7.4.8-GLBP REDUNDANCIA FORWARDER VIRTUAL.-
Redundancia promotor virtual es similar a la redundancia de puerta de enlace virtual con
una FAV. Si la FAV falla, uno de los transitarios virtuales secundarias en el estado escuchar
hacen responsables de la dirección MAC virtual.
El nuevo AVF es también un promotor de la virtual primario para un número promotor
diferente.
GLBP migra anfitriones lejos de la vieja serie promotor utilizando dos temporizadores que
comienzan tan pronto como la puerta cambios en el estado promotor virtual activo.
GLBP utiliza los mensajes de saludo para comunicar el estado actual de los temporizadores.
El tiempo de redirección es el intervalo durante el cual el AVG sigue redirigir anfitriones a la
antigua dirección MAC promotor virtual.
Cuando expire el tiempo de redirección, el AVG detiene redirigir anfitriones al transportista
virtual, aunque el promotor virtuales seguirá reenviar paquetes que fueron enviados a la
antigua dirección MAC promotor virtual.
El Holdtime secundaria es el intervalo durante el cual el promotor virtual es válida.
Cuando el Holdtime secundaria expira, el promotor virtual se elimina de todas las pasarelas
en el grupo GLBP. El número forwarder virtuales espirado se vuelve elegible para la
reasignación por la AVG.
Trfinal
Trfinal
Trfinal
Trfinal
Trfinal
Trfinal

Más contenido relacionado

La actualidad más candente

Software user guide_spanish
Software user guide_spanishSoftware user guide_spanish
Software user guide_spanishqwqwqwqeee
 
Manual ofimatica v2.3
Manual ofimatica v2.3Manual ofimatica v2.3
Manual ofimatica v2.3UCLA
 
TESIS PARA OPTAR AL TITULO DE INGENIERO CIVIL INDUSTRIAL
TESIS PARA OPTAR AL TITULO DE INGENIERO CIVIL INDUSTRIALTESIS PARA OPTAR AL TITULO DE INGENIERO CIVIL INDUSTRIAL
TESIS PARA OPTAR AL TITULO DE INGENIERO CIVIL INDUSTRIALGermán Rodríguez
 
Matlab adv esp
Matlab adv espMatlab adv esp
Matlab adv espLuis Maury
 
Cap 2 establecimientos particulares subvencionados
Cap 2 establecimientos particulares subvencionadosCap 2 establecimientos particulares subvencionados
Cap 2 establecimientos particulares subvencionadosnicolasmunozvera
 
Logica de programacion_efrain_oviedo
Logica de programacion_efrain_oviedoLogica de programacion_efrain_oviedo
Logica de programacion_efrain_oviedoJitle Noriega
 
Armando Sandoval Maravilla Tesis Maestria Moodle
Armando Sandoval  Maravilla Tesis Maestria MoodleArmando Sandoval  Maravilla Tesis Maestria Moodle
Armando Sandoval Maravilla Tesis Maestria MoodleArmando Sandoval
 
Manual prestashop by mario bescos aranda
Manual prestashop by mario bescos arandaManual prestashop by mario bescos aranda
Manual prestashop by mario bescos arandaMario Bescós Aranda
 
Guia prestashop español
Guia prestashop español Guia prestashop español
Guia prestashop español Axisual Promocom
 
94548395 atp-b1-guia
94548395 atp-b1-guia94548395 atp-b1-guia
94548395 atp-b1-guiaarequipa_juan
 
Trabajo Fin de Master Eduardo Audiche
Trabajo Fin de Master Eduardo AudicheTrabajo Fin de Master Eduardo Audiche
Trabajo Fin de Master Eduardo AudicheEduardo Audiche
 
Odca compute iaa_s_masterum_es
Odca compute iaa_s_masterum_esOdca compute iaa_s_masterum_es
Odca compute iaa_s_masterum_esHector C
 
Gestion auditoria del mantenimiento
Gestion auditoria del mantenimientoGestion auditoria del mantenimiento
Gestion auditoria del mantenimientoAlberto Alonso
 

La actualidad más candente (19)

Software user guide_spanish
Software user guide_spanishSoftware user guide_spanish
Software user guide_spanish
 
Manual ofimatica v2.3
Manual ofimatica v2.3Manual ofimatica v2.3
Manual ofimatica v2.3
 
TESIS PARA OPTAR AL TITULO DE INGENIERO CIVIL INDUSTRIAL
TESIS PARA OPTAR AL TITULO DE INGENIERO CIVIL INDUSTRIALTESIS PARA OPTAR AL TITULO DE INGENIERO CIVIL INDUSTRIAL
TESIS PARA OPTAR AL TITULO DE INGENIERO CIVIL INDUSTRIAL
 
Matlab adv esp
Matlab adv espMatlab adv esp
Matlab adv esp
 
Cap 2 establecimientos particulares subvencionados
Cap 2 establecimientos particulares subvencionadosCap 2 establecimientos particulares subvencionados
Cap 2 establecimientos particulares subvencionados
 
Logica de programacion_efrain_oviedo
Logica de programacion_efrain_oviedoLogica de programacion_efrain_oviedo
Logica de programacion_efrain_oviedo
 
Sintonizacion PID
Sintonizacion PID Sintonizacion PID
Sintonizacion PID
 
Notas aclaratorias tacografo
Notas aclaratorias tacografoNotas aclaratorias tacografo
Notas aclaratorias tacografo
 
Armando Sandoval Maravilla Tesis Maestria Moodle
Armando Sandoval  Maravilla Tesis Maestria MoodleArmando Sandoval  Maravilla Tesis Maestria Moodle
Armando Sandoval Maravilla Tesis Maestria Moodle
 
Manual prestashop by mario bescos aranda
Manual prestashop by mario bescos arandaManual prestashop by mario bescos aranda
Manual prestashop by mario bescos aranda
 
Guia prestashop español
Guia prestashop español Guia prestashop español
Guia prestashop español
 
Manual de usuario l850
Manual de usuario l850Manual de usuario l850
Manual de usuario l850
 
94548395 atp-b1-guia
94548395 atp-b1-guia94548395 atp-b1-guia
94548395 atp-b1-guia
 
Trabajo Fin de Master Eduardo Audiche
Trabajo Fin de Master Eduardo AudicheTrabajo Fin de Master Eduardo Audiche
Trabajo Fin de Master Eduardo Audiche
 
SKYTEC-MX
SKYTEC-MXSKYTEC-MX
SKYTEC-MX
 
Metodología scrum
Metodología scrumMetodología scrum
Metodología scrum
 
Odca compute iaa_s_masterum_es
Odca compute iaa_s_masterum_esOdca compute iaa_s_masterum_es
Odca compute iaa_s_masterum_es
 
Gestion auditoria del mantenimiento
Gestion auditoria del mantenimientoGestion auditoria del mantenimiento
Gestion auditoria del mantenimiento
 
indice
 indice indice
indice
 

Similar a Trfinal

Agentes inteligentes inteligencia artificial
Agentes inteligentes  inteligencia artificialAgentes inteligentes  inteligencia artificial
Agentes inteligentes inteligencia artificialjlopez300
 
Fundamentos de Programacion.pdf
Fundamentos de Programacion.pdfFundamentos de Programacion.pdf
Fundamentos de Programacion.pdfJorge Serran
 
ICONTEC compendio HSEQ NTC 9001:2015 NTC 18001:2007 NTC 14001:2015 ...
ICONTEC compendio HSEQ  NTC 9001:2015    NTC 18001:2007    NTC 14001:2015    ...ICONTEC compendio HSEQ  NTC 9001:2015    NTC 18001:2007    NTC 14001:2015    ...
ICONTEC compendio HSEQ NTC 9001:2015 NTC 18001:2007 NTC 14001:2015 ..... ..
 
Apuntes prac
Apuntes pracApuntes prac
Apuntes pracJusto Lux
 
Costos y presupuestos_en_edificacion_-_capeco
Costos y presupuestos_en_edificacion_-_capecoCostos y presupuestos_en_edificacion_-_capeco
Costos y presupuestos_en_edificacion_-_capecoVictoria Salazar Bazan
 
Cimentacion tuberias completo
Cimentacion tuberias completoCimentacion tuberias completo
Cimentacion tuberias completoRamiro Bucheli
 
Control automático de transferencia de energía eléctrica
Control automático de transferencia de energía eléctricaControl automático de transferencia de energía eléctrica
Control automático de transferencia de energía eléctricaPedro Chavez
 
Manual ingeniero mantenimiento diseñado para estudiantes universitarios
Manual ingeniero mantenimiento diseñado para estudiantes universitariosManual ingeniero mantenimiento diseñado para estudiantes universitarios
Manual ingeniero mantenimiento diseñado para estudiantes universitarioscspeirl2016
 
Manual de servicio (funcionamiento) Common Rail denso
Manual de servicio (funcionamiento) Common Rail densoManual de servicio (funcionamiento) Common Rail denso
Manual de servicio (funcionamiento) Common Rail densoJordan Felipe Cabrera Nuñez
 
Manual de servicio- funcionamiento common Rail Sistem
Manual de servicio- funcionamiento common Rail SistemManual de servicio- funcionamiento common Rail Sistem
Manual de servicio- funcionamiento common Rail SistemJordan Felipe Cabrera Nuñez
 
Postgres programmer josue
Postgres programmer josuePostgres programmer josue
Postgres programmer josueJosué Ruiz
 

Similar a Trfinal (20)

Agentes inteligentes inteligencia artificial
Agentes inteligentes  inteligencia artificialAgentes inteligentes  inteligencia artificial
Agentes inteligentes inteligencia artificial
 
Fundamentos de Programacion.pdf
Fundamentos de Programacion.pdfFundamentos de Programacion.pdf
Fundamentos de Programacion.pdf
 
ICONTEC compendio HSEQ NTC 9001:2015 NTC 18001:2007 NTC 14001:2015 ...
ICONTEC compendio HSEQ  NTC 9001:2015    NTC 18001:2007    NTC 14001:2015    ...ICONTEC compendio HSEQ  NTC 9001:2015    NTC 18001:2007    NTC 14001:2015    ...
ICONTEC compendio HSEQ NTC 9001:2015 NTC 18001:2007 NTC 14001:2015 ...
 
Micro Station V8
Micro Station V8Micro Station V8
Micro Station V8
 
Apuntes prac
Apuntes pracApuntes prac
Apuntes prac
 
Costos y presupuestos_en_edificacion_-_capeco
Costos y presupuestos_en_edificacion_-_capecoCostos y presupuestos_en_edificacion_-_capeco
Costos y presupuestos_en_edificacion_-_capeco
 
Costos y presupuestos en edificacion capeco
Costos y presupuestos en edificacion   capecoCostos y presupuestos en edificacion   capeco
Costos y presupuestos en edificacion capeco
 
Tesis pre - grado
Tesis pre - gradoTesis pre - grado
Tesis pre - grado
 
Manual writer 32
Manual writer 32Manual writer 32
Manual writer 32
 
1 manual general_de_adquisiciones
1 manual general_de_adquisiciones1 manual general_de_adquisiciones
1 manual general_de_adquisiciones
 
Cimentacion tuberias completo
Cimentacion tuberias completoCimentacion tuberias completo
Cimentacion tuberias completo
 
Hefesto v2.1
Hefesto v2.1Hefesto v2.1
Hefesto v2.1
 
Control automático de transferencia de energía eléctrica
Control automático de transferencia de energía eléctricaControl automático de transferencia de energía eléctrica
Control automático de transferencia de energía eléctrica
 
Manual ingeniero mantenimiento diseñado para estudiantes universitarios
Manual ingeniero mantenimiento diseñado para estudiantes universitariosManual ingeniero mantenimiento diseñado para estudiantes universitarios
Manual ingeniero mantenimiento diseñado para estudiantes universitarios
 
HARDWARE Y SOFTWARE
HARDWARE Y SOFTWAREHARDWARE Y SOFTWARE
HARDWARE Y SOFTWARE
 
Manual de servicio (funcionamiento) Common Rail denso
Manual de servicio (funcionamiento) Common Rail densoManual de servicio (funcionamiento) Common Rail denso
Manual de servicio (funcionamiento) Common Rail denso
 
Manual de servicio- funcionamiento common Rail Sistem
Manual de servicio- funcionamiento common Rail SistemManual de servicio- funcionamiento common Rail Sistem
Manual de servicio- funcionamiento common Rail Sistem
 
Componente45946
Componente45946Componente45946
Componente45946
 
Postgres programmer josue
Postgres programmer josuePostgres programmer josue
Postgres programmer josue
 
Manual de C
Manual de CManual de C
Manual de C
 

Último

SalmorejoTech 2024 - Spring Boot <3 Testcontainers
SalmorejoTech 2024 - Spring Boot <3 TestcontainersSalmorejoTech 2024 - Spring Boot <3 Testcontainers
SalmorejoTech 2024 - Spring Boot <3 TestcontainersIván López Martín
 
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdfPARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdfSergioMendoza354770
 
La era de la educación digital y sus desafios
La era de la educación digital y sus desafiosLa era de la educación digital y sus desafios
La era de la educación digital y sus desafiosFundación YOD YOD
 
KELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesKELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesFundación YOD YOD
 
guía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Josephguía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan JosephBRAYANJOSEPHPEREZGOM
 
Plan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxPlan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxpabonheidy28
 
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricGlobal Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricKeyla Dolores Méndez
 
Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024GiovanniJavierHidalg
 
Hernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxHernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxJOSEMANUELHERNANDEZH11
 
Proyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptxProyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptx241521559
 
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...silviayucra2
 
Trabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíaTrabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíassuserf18419
 
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE  DE TECNOLOGIA E INFORMATICA PRIMARIACLASE  DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIAWilbisVega
 
Instrumentación Hoy_ INTERPRETAR EL DIAGRAMA UNIFILAR GENERAL DE UNA PLANTA I...
Instrumentación Hoy_ INTERPRETAR EL DIAGRAMA UNIFILAR GENERAL DE UNA PLANTA I...Instrumentación Hoy_ INTERPRETAR EL DIAGRAMA UNIFILAR GENERAL DE UNA PLANTA I...
Instrumentación Hoy_ INTERPRETAR EL DIAGRAMA UNIFILAR GENERAL DE UNA PLANTA I...AlanCedillo9
 
International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)GDGSucre
 
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...FacuMeza2
 
EPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveEPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveFagnerLisboa3
 
trabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdftrabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdfIsabellaMontaomurill
 
Redes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfRedes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfsoporteupcology
 

Último (19)

SalmorejoTech 2024 - Spring Boot <3 Testcontainers
SalmorejoTech 2024 - Spring Boot <3 TestcontainersSalmorejoTech 2024 - Spring Boot <3 Testcontainers
SalmorejoTech 2024 - Spring Boot <3 Testcontainers
 
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdfPARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
 
La era de la educación digital y sus desafios
La era de la educación digital y sus desafiosLa era de la educación digital y sus desafios
La era de la educación digital y sus desafios
 
KELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesKELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento Protégeles
 
guía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Josephguía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Joseph
 
Plan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxPlan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docx
 
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricGlobal Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
 
Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024
 
Hernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxHernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptx
 
Proyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptxProyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptx
 
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
 
Trabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíaTrabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnología
 
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE  DE TECNOLOGIA E INFORMATICA PRIMARIACLASE  DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
 
Instrumentación Hoy_ INTERPRETAR EL DIAGRAMA UNIFILAR GENERAL DE UNA PLANTA I...
Instrumentación Hoy_ INTERPRETAR EL DIAGRAMA UNIFILAR GENERAL DE UNA PLANTA I...Instrumentación Hoy_ INTERPRETAR EL DIAGRAMA UNIFILAR GENERAL DE UNA PLANTA I...
Instrumentación Hoy_ INTERPRETAR EL DIAGRAMA UNIFILAR GENERAL DE UNA PLANTA I...
 
International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)
 
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
 
EPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveEPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial Uninove
 
trabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdftrabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdf
 
Redes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfRedes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdf
 

Trfinal

  • 1. INDICE 1-INTRODUCCION.-.................................................................................................................... 1 1.1-OBJETIVOS.-..................................................................................................................... 2 1.2-HISTORIA.-....................................................................................................................... 2 1.3-PROBLEMÁTICA IDENTIFICADA.-........................................................................................ 3 1.3.1-BENEFICIOS.-............................................................................................................. 3 1.4-BALANCEO DE CARGA.-..................................................................................................... 3 1.5-FIREWALL.-...................................................................................................................... 5 1.5.1-FUNCIONAMIENTO DE UN SISTEMA FIREWALL.- ......................................................... 6 1.6-PROTOCOLONAT.-........................................................................................................... 7 1.6.1-ESTÁTICA.-................................................................................................................. 8 1.6.2-DINÁMICA.-............................................................................................................... 8 1.6.3-SOBRECARGA.- .......................................................................................................... 8 1.6.4-SOLAPAMIENTO.-....................................................................................................... 9 1.6.5-VENTAJAS DEL PROTOCOLO NAT.-............................................................................... 9 1.6.6-DESVENTAJAS DEL PROTOCOLO NAT.-........................................................................10 1.6.7-TIPOS DE PROTOCOLO NAT.-......................................................................................10 1.6.8-EJEMPLO DE CONFIGURACIÓN DISPOSITIVO CISCO.-....................................................11 1.7-IPTABLES.- ......................................................................................................................12 1.7.1-CARACTERISTICAS DE IPTABLE.-..................................................................................13 1.8-CLUSTER.-.......................................................................................................................18 1.8.1-CLASIFICACIÓN DE LOS CLUSTER.-..............................................................................19 2-TIPOS DE BALANCEO DE CARGA.-............................................................................................20 2.1-BALANCEO DE CARGA ESTÁTICO.-.....................................................................................21 2.2-DISTANCIA METRICA.-......................................................................................................23 2.3-FAIL OVER.-.....................................................................................................................24 2.4-TÉCNICAS DE BALANCEO DE CARGA ESTÁTICA.-.................................................................26 2.5BALANCEO DE CARGA DINÁMICO......................................................................................31 2.5.1-BALANCEO DE CARGA DINÁMICO CENTRALIZADO.-.....................................................33 2.5.2-BALANCEO DE CARGA DINÁMICO DISTRIBUIDO O DESCENTRALIZADO.-........................34
  • 2. 3-CONFIGURACIONES DINAMICAS.- ...........................................................................................35 3.1-BALANCEO DE CARGA EN RIP V1 (ROUTING INFORMATION PROTOCOL).-............................35 3.2-BALANCEO DE CARGA EN RIP V2 (ROUTING INFORMATION PROTOCOL).-............................42 3.3-BALANCEO DE CARGA EN IGRP (INTERIOR GATEWAY ROUTING PROTOCOL).-......................46 3.4-BALANCEO DE CARGA EN EIGRP.-.....................................................................................52 3.4.1METRICA EIGRP..........................................................................................................52 3.4.2-DISTANCIA ADMINISTRATIVA EIGRP.-..........................................................................53 3.4.3-BALANCEO DE CARGA DE MISMO COSTO.-..................................................................54 3.4.4-CONFIGURACIÓN DE BALANCEO DE CARGA EN ENLACES CON IGUAL COSTO EIGRP.-.....55 3.4.5-CONFIGURACIÓNDEBALANCEO DE CARGA EN ENLACES CON DESIGUALCOSTOEIGRP.- ........................................................................................................................................57 4-BALANCEO DE CARGAS POR DESTINO Y POR PAQUETE.-...........................................................58 4.1-EL BALANCE DE CARGAS POR DESTINO.- ...........................................................................58 4.2-EL BALANCE DE CARGA POR PAQUETE-.............................................................................59 5-GENERACIONES DEL BALANCEO DE CARGA.-............................................................................61 5.1-PRIMERA GENERACIÓN DE BALANCEO DE CARGA.-............................................................61 5.2-SEGUNDA GENERACIÓN DE BALANCEO DE CARGA.-...........................................................61 6-BALANCEO POR SOFTWARE.-..................................................................................................63 6.1-VENTAJAS DEL BALANCEO DE CARGA POR SOFTWARE.-.....................................................64 6.2-INCONVENIENTES O DESVENTAJA DEL BALANCEO DE CARGA POR SOFTWARE.-...................64 6.3-TIEMPO DE VIDA O TIME TO LIVE (TTL).- ...........................................................................65 7-BALANCEADOR DE CARGA POR HARDWARE.-...........................................................................66 7.1-VENTAJAS DEL BALANCEO DE CARGA POR HARDWARE.- ....................................................66 7.2-INCONVENIENTES O DESVENTAJA DEL BALANCEO DE CARGA POR HARDWARE.-..................67 7.3-HOST STANDBAY ROUTING PROTOCOL.-...........................................................................67 7.3.1-ESTADOS HSRP.- .......................................................................................................73 7.4-GLBP (GATEWAY LOAD BALANCING PROTOCOL).-..............................................................75 7.4.1-FUNCIONAMIENTO DEL GLBP.- ..................................................................................76 7.4.2-GLBP REDUNDANCIA.-...............................................................................................78 7.4.3-GLBP PONDERACIÓN Y SEGUIMIENTO DE INTERFAZ.- ..................................................79 7.4.4-ESTADOS DEL BALANCEO DE CARGA EN GLBP.- ...........................................................82 7.4.5-BENEFICIOS DE GLBP.-...............................................................................................83
  • 3. 7.4.6-GLBP VIRTUAL MAC DIRECCIÓN ASIGNACIÓN.-............................................................84 7.4.7-GLBP VIRTUAL PASARELA REDUNDANCIA.-..................................................................84 7.4.8-GLBP REDUNDANCIA FORWARDER VIRTUAL.- .............................................................85 7.4.9-GLBP PASARELA PRIORIDAD.-.....................................................................................86 7.4.10-GLBP PASARELA PONDERACIÓN Y SEGUIMIENTO.-.....................................................86 7.5-VRRP (VIRTUAL ROUTER REDUNDANCYPROTOCOL).-.........................................................87
  • 4. 1 1-INTRODUCCION.- En esta monografía se investigara, se analizara el funcionamiento del balanceo de carga además que está basado en los protocolos de ruteo estándar, como: Routing Information Protocol (RIP), RIPv2, el Protocolo de ruteo de gateway interior mejorado (EIGRP), Open Shortest Path First (OSPF) y el Protocolo de ruteo de gateway interior (IGRP) o se deriva de las rutas configuradas estáticamente y de los mecanismos de reenvío de paquetes. El aspecto del balanceo de carga es bastante importante debido a que en muchas aplicaciones paralelas, como la búsqueda o la optimización, es extraordinariamente difícil predecir el tamaño de las tareas asignadas a cada procesador, de manera que se realice una división de las mismas para que todos mantengan la carga computacional uniforme. Cuando no es uniforme, es decir, hay desbalanceo en la carga, entonces algunos procesadores terminarán permaneciendo inactivos mientras otros todavía están calculando. Se considera que el problema a resolver se divide en un número fijo de procesos que pueden ejecutarse en paralelo. Cada proceso realiza una cantidad conocida de trabajo. Además, se supone que los procesos se distribuyen entre las máquinas disponibles sin tener en cuenta el tipo de procesador y su velocidad.
  • 5. 1.1-OBJETIVOS.- → Describir y Analizar los problemas a los que da solución el Balanceo de Carga → Determinar, Investigar el cómo Funciona, las negociaciones, tramas y protocolos → Implementar en el laboratorio físicamente la topología de toda la investigación del Balanceo de Carga donde se encontrara funcionando correctamente con las configuraciones establecidas sobre el tema 1.2-HISTORIA.- Con el transcurrir de los años en la historia de la computación se han presentado diversos problemas de tipo complejo que en el pasado no podían ser resueltos o que simplemente el costo de su solución era sólo alcanzable para algunos. Anteriormente en los primeros días de la Internet comercial, descubrieron graves problemas. Las Mainframes no tienen software de servidor web (no hasta que el AS / 400e) que era un equipo de IBM de gama media y alta con una interfaz controlada con menús y comandos CL (Control Language) poseía un sistema operativo que su punto fuerte fue la integración con la base de datos DB2 (sistema de gestión de base de datos.). El problema para la mayoría de ellos era que no había manera de que un único servidor basado en PC alguna vez iba a manejar la cantidad de tráfico. Afortunadamente, algunas de esas personas en realidad tenía planes mediante la resolución de ese problema en particular así nació el balance de carga. Sin embargo, con la tecnología actual, estos problemas son blanco fácil para los investigadores y con pocos recursos se puede llegar a la solución esperada.
  • 6. 1.3-PROBLEMÁTICA IDENTIFICADA.- El estudio del balanceo de carga es muy importante para poder distribuir de una forma equitativa la carga computacional entre todos los procesadores disponibles y con ello conseguir la máxima velocidad de ejecución. 1.3.1-BENEFICIOS.-  Mayor ancho de Banda: Varias conexiones simultáneas, en promedio, todas juntas tienen acceso a un mayor ancho de banda, que se extenderá a la suma de los anchos de banda de Internet de todos los enlaces que están siendo equilibrados.  Tolerancia a Fallos Cuando tenemos una o más conexiones y cuando falla una salimos automáticamente por la otra que sí que funcione. Si una de las líneas falla, el router continua automáticamente la conexión utilizando exclusivamente la segunda. 1.4-BALANCEO DECARGA.- Viene a hacer un conjunto de 2 o más máquinas que comparten el peso del trabajo entre ellas a realizar entre sí. También podemos decir que el balanceo de carga se puede repartir ancho de banda, podemos usar una conexión a internet para un propósito y la segunda para otro. El balanceo de carga es lo que mayormente se usa en ISP (proveedor de servicios de internet) para atender la demanda de sus usuarios, que quiere decir esto, se tiene una pequeña base de red o servidor con una cierta cantidad de clientes los cuales necesitan internet para no saturar ni congestionar el acceso ya que eso es lo más importante se emplea un equipo balanceador para tener 2 o más líneas de acceso a internet para equilibrar y evitar el saturamiento de la red
  • 7. Un claro ejemplo: Tener una conexión permanente a Internet es un requisito casi obligatorio en muchas empresas, el sistema de balanceo de carga puede proporcionar una conectividad continua a través de 2, 3 o 4 conexiones a Internet, el sistema puede controlar todas las conexiones constantemente hasta cuando una de las líneas de conexión queda interrumpida por algún motivo, el sistema re-dirige todas las conexiones hacia las otras línea. El balanceo funciona sobre cualquier método de conexión a Internet, ya sea ADSL, Cable- Modem, o LMDS Específicamente el balanceo de carga en una red LAN consiste en dividir los paquetes entrantes en diferentes interfaces de red o equipos de red
  • 8. CONCEPTOS INTRODUCTORIOS.- Antes de dar solución a un problema es necesario saber de qué se trata, como funciona, que protocolo usa y que es necesario conocer para resolverlo, definimos que es un firewall. 1.5-FIREWALL.- Un firewall también es conocido como muro de fuego, este funciona entre las redes conectadas permitiendo o denegando las comunicaciones entre dichas redes. Un firewall también es considerado un filtro que controla el tráfico de varios protocolos como TCP/UDP/ICMP que pasan por el para permitir o denegar algún servicio, el firewall examina la petición y dependiendo de este lo puede bloquear o permitirle el acceso. Un firewall puede ser un dispositivo de tipo Hardware o software que se instala entre la conexión a Internet y las redes conectadas en el lugar.
  • 9. 1.5.1-FUNCIONAMIENTO DEUN SISTEMA FIREWALL.- Un sistema firewall contiene un conjunto de reglas predefinidas que permiten: * Autorizar una conexión (allow); * Bloquear una conexión (deny); * Redireccionar un pedido de conexión sin avisar al emisor (drop). El conjunto de estas reglas permite instalar un método de filtración dependiente de la política de seguridad adoptada por la organización. Se distinguen habitualmente 2 tipos de políticas de seguridad que permiten: - Permitir únicamente las comunicaciones autorizadas explícitamente: "Todo lo que no es autorizado explícitamente está prohibido". - Impedir cualquier comunicación que fue explícitamente prohibida. Sea el tipo de firewall que sea, generalmente no tendrá más que un conjunto de reglas en las que se examina el origen y destino de los paquetes del protocolo TCP/IP. En cuanto a protocolos es probable que sean capaces de filtrar muchos tipos de ellos, no solo los TCP, también los UDP, los ICMP, los GRE y otros protocolos vinculados a VPNs.
  • 10. 1.6-PROTOCOLO NAT.- NAT o Network Address Translation (en castellano, Traducción de Direcciones de Red) La idea es sencilla, hacer que redes de ordenadores utilicen un rango de direcciones especiales (IPs privadas) y se conecten a Internet usando una única dirección IP (IP pública). Gracias a este “parche”, las grandes empresas sólo utilizarían una dirección IP y no tantas como máquinas hubiese en dicha empresa. También se utiliza para conectar redes domésticas a Internet. En el protocolo NAT existen varios tipos de funcionamiento:
  • 11. 1.6.1-ESTÁTICA.- Una dirección IP privada se traduce siempre en una misma dirección IP pública. Este modo de funcionamiento permitiría a un host dentro de la red ser visible desde Internet. 1.6.2-DINÁMICA.- El router tiene asignadas varias direcciones IP públicas, de modo que cada dirección IP privada se mapea usando una de las direcciones IP públicas que el router tiene asignadas, de modo que a cada dirección IP privada le corresponde al menos una dirección IP pública. Cada vez que un host requiera una conexión a Internet, el router le asignará una dirección IP pública que no esté siendo utilizada. En esta ocasión se aumenta la seguridad ya que dificulta que un host externo ingrese a la red ya que las direcciones IP públicas van cambiando. 1.6.3-SOBRECARGA.- La NAT con sobrecarga o PAT (Port Address Translation) es el más común de todos los tipos, ya que es el utilizado en los hogares. Se pueden mapear múltiples direcciones IP privadas a través de una dirección IP pública, con lo que evitamos contratar más de una dirección IP pública. Además del ahorro económico, también se ahorran direcciones IPv4, ya que aunque la subred tenga muchas máquinas, todas salen a Internet a través de una misma dirección IP pública. Para poder hacer esto el router hace uso de los puertos. En los protocolos TCP y UDP se disponen de 65.536 puertos para establecer conexiones. De modo que cuando una máquina quiere establecer una conexión, el router guarda su IP privada y el puerto de origen y los asocia a la IP pública y un puerto al azar.
  • 12. Cuando llega información a este puerto elegido al azar, el router comprueba la tabla y lo reenvía a la IP privada y puerto que correspondan. 1.6.4-SOLAPAMIENTO.- Cuando una dirección IP privada de una red es una dirección IP pública en uso, el router se encarga de reemplazar dicha dirección IP por otra para evitar el conflicto de direcciones. 1.6.5-VENTAJAS DELPROTOCOLO NAT.- El uso de la NAT tiene varias ventajas:  La primera y más obvia, el gran ahorro de direcciones IPv4 que supone, recordemos que podemos conectar múltiples máquinas de una red a Internet usando una única dirección IP pública.
  • 13.  Seguridad. Las máquinas conectadas a la red mediante NAT no son visibles desde el exterior, por lo que un atacante externo no podría averiguar si una máquina está conectada o no a la red.  Mantenimiento de la red. Sólo sería necesario modificar la tabla de reenvío de un router para desviar todo el tráfico hacia otra máquina mientras se llevan a cabo tareas de mantenimiento. 1.6.6-DESVENTAJAS DEL PROTOCOLO NAT.- Recordemos que la NAT es solo un parche, no una solución al verdadero problema, por tanto también tiene una serie de desventajas asociadas a su uso:  Checksums TCP y UDP: El router tiene que volver a calcular el checksum de cada paquete que modifica. Por lo que se necesita mayor potencia de computación.  No todas las aplicaciones y protocolos son compatibles con NAT. Hay protocolos que introducen el puerto de origen dentro de la zona de datos de un paquete, por lo que el router no lo modifica y la aplicación no funciona correctamente. 1.6.7-TIPOS DE PROTOCOLO NAT.-  NAT de cono completo (Full-Cone NAT). En este caso de comunicación completa, NAT mapeará la dirección IP y puerto interno a una dirección y puerto público diferentes. Una vez establecido, cualquier host externo puede comunicarse con el host de la red privada enviando los paquetes a una dirección IP y puerto externo que haya sido mapeado. Esta implementación NAT es la menos segura, puesto que una atacante puede adivinar qué puerto está abierto.
  • 14.  NAT de cono restringido (Restricted Cone NAT). En este caso de la conexión restringida, la IP y puerto externos de NAT son abiertos cuando el host de la red privada quiere comunicarse con una dirección IP específica fuera de su red. El NAT bloqueará todo tráfico que no venga de esa dirección IP específica.  NAT de cono restringido de puertos (Port-Restricted Cone NAT). En una conexión restringida por puerto NAT bloqueará todo el tráfico a menos que el host de la red privada haya enviado previamente tráfico a una IP y puerto especifico, entonces solo en ese caso ésa IP:puerto tendrán acceso a la red privada.  NAT Simétrico (Symmetric NAT). En este caso la traducción de dirección IP privada a dirección IP pública depende de la dirección IP de destino donde se quiere enviar el tráfico. 1.6.8-EJEMPLO DE CONFIGURACIÓN DISPOSITIVO CISCO.- NAT con sobrecarga (conexiones del equipo desde Internet a la red con ips' privadas) 1. Conecte los dispositivos entre sí por los puertos adecuados en cada caso (ethernet, ATM, Serial, etc.) 2. Asumimos que usted sabe enrutamiento IP y cómo hacer converger la red usando protocolo de enrutamientos. RIP se recomienda para configuraciones más sencillas y rápidas. 3. Parametrizaciones del ejemplo:  El puerto conectado a internet es el Ethernet0  El puerto conectado a la red LAN es el Ethernet1  El rango IP de la LAN es 192.168.1.0 con máscara 255.255.255.0 y wildmask 0.0.0.255  La lista de accesos se llamará INTERNET  PAT: Orientando puerto de Http 80 sobre máquina 192.168.0.1 puerto 8080
  • 15. Router(config)#ip nat inside source list INTERNET interface Dialer0 overload Router(config)#ip access-list standard INTERNET Router(config)#permit 192.168.1.0 0.0.0.255 Router(config)#deny any  Asociación de interfaces (puertos) al NAT Router(config)#interface ethernet0 Router(config)#ip nat outside Router(config)#interface ethernet1 Router(config)#ip nat inside  Implementación del NAT Router(config)#ip nat inside source static tcp 192.168.0.1 8080 interface ethernet0 80 1.7-IPTABLES.- Herramienta de cortafuegos que permite no solamente filtrar paquetes y realizar traducción de direcciones de red ósea NAT para IPv4 o mantener registros de log (que es usado para registrar datos o información sobre quién, qué, cuándo, dónde y por qué), lo que en otras palabras podemos decir que es un filtro y manipulador de paquetes IP denominado PACEKT FILTER, porque todas las operaciones que realiza la hacen sobre paquetes de red y nos permite realizar NAT para que las máquinas de la red LAN puedan tener acceso a Internet.
  • 16. El IPTABLE tiene reglas y se agrupa en cadena y estas cadenas en tablas, y las tablas están asociadas a un tipo de procesamiento de paquetes. 1.7.1-CARACTERISTICAS DEIPTABLE.-  Filtrado de paquetes  Por protocolos, puertos, IP…  Por estado de los paquetes (connection tracking)  NAT (Traducción de dirección de direcciones)  Infraestructura flexible  Se pude añadir funcionalidades mediante PARCHES CADENA: una cadena viene a hacer un conjunto de reglas para paquetes IP, que determina qué hacer con dicho paquete. TABLAS: Las tablas son contenedores de cadenas, existen 3 tipos de tablas las cuales son:  Iptable_FILTER.  Iptable_NAT.  Iptable_MANGLE
  • 17. IPTABLE_FILTER: Llamada también la tabla de filtro, encargada de filtrar todos los paquetes, este filtrado se logra gracias a una serie de cadenas que la compone, las cuales son:  INPUT (entrada)  OUTPUT (salida)  FORWARD (reenvió) Entrada --> Enrutamiento ------> FORWARD ------> Salida --> | ^ V | INPUT OUTPUT | ^ | | +----------> PC Local ------------+ El enrutamiento no es más que decidir si el paquete está dirigido hacia la propia PC o hacia una red externa, en caso de ser para la propia red, pasaría por la cadena de INPUT (entrada), de lo contrario por la de FORWARD (reenvió). Todo paquete generado localmente pasa por la cadena OUTPUT (salida). REGLA: indica que sucederá con el paquete, siguen un orden, depende del orden en que son ingresadas, entonces es el orden a seguir cuando se evaluaran a los paquetes.
  • 18. DESTINO: viene a hacer la acción a realizar con un paquete, según una regla dada, por defecto los destinos son:  ACEPT: allow (Permitir)el paso del paquete.  QUEUE: el paquete se transfiere a una cola de espera, para que sea revisado.  RETURN: vuelve a la cadena anterior.  DROP: elimina el paquete completamente. Sin mandar acuse de recibo. IPTABLE_NAT: Su utilidad es hacer NAT (Traducción de dirección de red), con el fin de dar salida a Internet a una red LAN con dirección IP privada, con una única IP pública. Posee 3 cadenas por defecto las cuales son: ---> PREROUTING --> Enrutamiento --> FORWARD --> POSTROUTING ---> | ^ V | INPUT OUTPUT | ^ | | +-------> PC Local ------>---+  OUTPUT: Es idéntica a la utilizada en IPTABLE_FILTER en cuanto al papel que representa, la diferencia radica en las demás cadenas que posee esta tabla.  PREROUTING: (pre-ruteo):  POSTROUTING: (post-ruteo): IPTABLE_MANGLE: Esta nueva tabla posee todas las cadenas antes mencionadas, con el fin de modificar cualquier aspecto conocido, de un paquete dado.
  • 19. Se puede observar la gráfica anterior que se tiene una pequeña red LAN, la cual necesita salir a Internet por medio de un Firewall, el cual va a cumplir con el rol de Gateway, haciendo filtrado de paquetes correspondiente con las políticas ACCEPT (aceptar) y DROP (denegar) por omisión, también se implementara una zona desmilitarizada la cual va a contener todos los servidores que estarán expuestos permanentemente a INET (Instituto Nacional de Educación Tecnológica). DMZ (ZONA DESMILITARIZADA) Es una zona segura que se ubica entre la red interna de una organización y una red externa, generalmente en Internet. El objetivo de una DMZ es que las conexiones desde la red interna y la externa a la DMZ estén permitidas, mientras que en general las conexiones desde la DMZ solo se permitan a la red externa -- los equipos (hosts) en la DMZ no pueden conectar con la red interna. Esto permite que los equipos (hosts) de la DMZ puedan dar servicios a la red externa a la vez que protegen la red interna en el caso de que intrusos comprometan la seguridad de los equipos (host) situados en la zona desmilitarizada FW = Firewall
  • 20.  Desde INTERNET solo es posible entrar directamente al servidor POSTGRESQL de la LAN, el resto del tráfico hacia la LAN estará denegado.  Puedo entrar a los servidores WEB y de CORREO desde INTERNET y desde la LAN, usando  puertos seguros para descarga y envío de correos.  El servidor WEB puede acceder solamente al servidor SQL SERVER de la LAN.  El servidor de CORREO puede acceder únicamente al servidor de impresión de la LAN. siempre y cuando sea sábado o Domingo. Los usuarios de la LAN no podrán acceder a los aplicativos que aparecen en el diagrama. Hagamos una muy breve introducción a clúster de computadoras ya que se nombran en los tipos de balanceo de carga.
  • 21. 1.8-CLUSTER.- El concepto de Clúster nació cuando los pioneros de la supercomputación intentaban difundir diferentes procesos entre varios computadores, para luego poder recoger los resultados que dichos procesos debían producir, Hardware más barato y fácil de conseguir Un clúster se define como trabajo realizado por 2 o más ordenadores que en juntos se encargan de proveer una determinada solución. Podría decirse que simula el comportamiento de un sistema MPP (Procesamiento Masivamente Paralelo) en si su objetivo es agrupar el poder de cómputo de los nodos implicados para proporcionar una mayor escalabilidad, disponibilidad y fiabilidad. ESCALABILIDAD es la capacidad de un equipo para hacer frente a volúmenes de trabajo cada vez mayores sin dejar de prestar un nivel de rendimiento aceptable. DISPONIBILIDAD es la calidad de estar presente y listo para su uso FIABILIDAD es la probabilidad de un correcto funcionamiento Los clúster deben presentar ciertas características con el fin de que su función de optimizar recursos se cumpla satisfactoriamente:  Un clúster consta de 2 o más nodos.  Los nodos de un clúster están conectados entre sí por al menos un canal de comunicación
  • 22.  Los clúster necesitan software de control especializado o Software a nivel de aplicación o Software a nivel de sistema  Dependiendo del tipo de software el clúster puede estar más o menos acoplado. o Acoplamiento Fuerte o Acoplamiento Medio o Acoplamiento Débil  Todos los elementos del clúster trabajan para cumplir una funcionalidad conjunta, sea esta la que sea.  Mejora sobre la disponibilidad  Mejora del rendimiento 1.8.1-CLASIFICACIÓN DE LOS CLUSTER.- 1. Alto rendimiento (HP, high performance): los clúster de alto rendimiento han sido creados para compartir el recurso más valioso de un computador, el tiempo de proceso. Cualquier operación que necesite altos tiempos de CPU puede ser utilizada en un clúster de alto rendimiento, siempre que se encuentre un algoritmo que sea paralelizable
  • 23. 2. Alta disponibilidad (HA, high availability): los clúster de alta disponibilidad son bastante ortogonales en lo que se refieren a funcionalidad a un clúster de alto rendimiento. Los clúster de alta disponibilidad pretenden dar servicios 7/24 de cualquier tipo, son clúster donde la principal funcionalidad es estar controlando y actuando para que un servicio ovarios se encuentren activos durante el máximo periodo de tiempo posible. 3. Alta confiabilidad (HR, high reliability): estos clúster tratan de aportar la máxima confiabilidad en un entorno, en la cual se necesite saber que el sistema se va a comportar de una manera determinada. Puede tratarse por ejemplo de sistemas de respuesta a tiempo real. Este tipo de clúster son los más difíciles de implementar. 2-TIPOS DEBALANCEO DE CARGA.- Existen dos formas de balanceo de carga:  BALANCEO DE CARGA ESTÁTICO  BALANCEO DE CARGA DINÁMICO. En el primer caso, balanceo de carga estático la distribución de las tareas se realiza al comienzo de la computación, lo cual permite al maestro (nodo principal dentro del clúster) participar en la computación una vez que haya asignado una fracción del trabajo a cada esclavo (el resto de los nodos de un clúster, los nodos esclavos obedecen órdenes del nodo maestro). La asignación de tareas se puede realizar de una sola vez o de manera cíclica. El segundo caso, balanceo de carga dinámico es muy útil cuando el número de 12 tareas es mayor que el número de procesadores disponibles o cuando el número de tareas es desconocido al comienzo de la aplicación.
  • 24. Una importante característica del balanceo de carga dinámico es la capacidad que tiene la aplicación de adaptarse a los posibles cambios del sistema, no sólo a la carga de los procesadores sino también a posibles reconfiguraciones de los recursos del sistema. Debido a esta característica, un clúster puede responder bastante bien cuando se produce el fallo de algún procesador, lo cual simplifica la creación de aplicaciones tolerantes a fallos que sean capaces de sobrevivir cuando se pierde algún esclavo o incluso el maestro. 2.1-BALANCEO DECARGA ESTÁTICO.- El balanceo de carga también es llamado mapeado del problema o planificación del problema. Este tipo de balanceo de carga se trata antes de la ejecución de cualquier proceso. El balanceo de carga estático tiene serios inconvenientes que lo sitúan en desventaja sobre el balanceo de carga dinámico. Entre ellos cabe destacar los siguientes: o Es muy difícil estimar de forma precisa el tiempo de ejecución de todas las partes en las que se divide un programa sin ejecutarlas. o Algunos sistemas pueden tener retardos en las comunicaciones que pueden variar bajo diferentes circunstancias, lo que dificulta incorporar la variable retardo de comunicación en el balance de carga estático. o A veces los problemas necesitan un número indeterminado de pasos computacionales para alcanzar la solución. Por ejemplo, los algoritmos de búsqueda normalmente atraviesan un grafo buscando la solución, y a priori no se sabe cuántos caminos hay que probar, independientemente de que la programación sea secuencial o paralela.
  • 25. Ruta Estática: Las rutas estáticas se definen administrativamente y establecen rutas específicas que han de seguir los paquetes para pasar de un puerto de origen hasta un puerto de destino. Se establece un control preciso del enrutamiento según los parámetros del administrador. Para conectividad de extremo a extremo, es necesario configurar la ruta en ambas direcciones. Las rutas estaticas permiten la construcción manual de la tabla de enrutamiento. El comando ip route configura una ruta estática, los parámetros del comando definen la ruta estática COMANDOS FORMA1: Router#configure terminal Router#(config)# ip route "red de destino" "máscara de subred" "siguiente salto" Ejemplo: Router#(config)#ip route 192.168.0.0 255.255.255.0 10.0.0.1 FORMA 2: Router#configure terminal Router#(config)#ip route "red de destino" "máscara de subred" "interfaz de salida" Ejemplo: Router#(config)#ip route 172.168.0.0 255.255.255.0 serial 0/0/0
  • 26. Antes de la ejecución de cualquier proceso, algunas técnicas potenciales de equilibrio de carga estática son: • ALGORITMO ROUNDROBIN - pasa a cabo tareas en secuencial fin de los procesos, de volver a la primera, cuando todos procesos se han dado una tarea • ALGORITMOS ALEATORIOS - selecciona procesos al azar tomar tareas • BISECCIÓN RECURSIVA- divide de forma recursiva el problema en sub problemas de esfuerzo computacional igual mientras minimizar el paso de mensajes • RECOCIDO SIMULADO - una técnica de optimización • ALGORITMO GENÉTICO - otra técnica de optimización 2.2-DISTANCIA METRICA.- La métrica es un valor que usa los protocolos de enrutamiento para determinar que rutas son mejores que otras. Las distancias administrativas es una medida de confianza otorgada a cada fuete de información de enrutamiento cada protocolo de enrutamiento lleva asociado una distancia administrativa los valores más bajos significa una mayor fiabilidad. U router puede ejecutar varios protocolos de enrutamiento a la vez, obteniendo información de una red por varias fuentes. En estos casos usara la ruta que provenga de la fuente con menor distancia administrativa de los protocolos de enrutamiento
  • 27. 2.3-FAILOVER.- Se utiliza para hacer los sistemas más tolerantes a fallos, y suele ser una parte integral de los sistemas de misión crítica que deben estar constantemente disponibles. La conmutación por error, o failover, es un modo de funcionamiento de respaldo en el que las funciones de un componente de sistema (tal como un procesador, servidor, red o base de datos, por ejemplo) son asumidos por componentes del sistema secundario cuando el componente principal no está disponible ya sea debido a una falla o por el tiempo de inactividad programado.
  • 28. Se utiliza para hacer los sistemas más tolerantes a fallos, y suele ser una parte integral de los sistemas de misión crítica que deben estar constantemente disponibles. El procedimiento implica descargar tareas de forma automática a un componente del sistema en modo de espera para que el procedimiento sea tan transparente como sea posible para el usuario final. La conmutación por error se aplica a cualquier aspecto de un sistema: dentro de un equipo de cómputo personal, por ejemplo, el failover podría ser un mecanismo para proteger contra un fallo de procesador; dentro de una red, se puede aplicar a cualquier componente de la red o sistema de componentes, tales como una conexión ruta de acceso, dispositivo de almacenamiento o servidor Web. Originalmente, los datos almacenados se conectan a los servidores en configuraciones muy básicas: ya sea punto a punto o de acoplamiento cruzado (cross-coupled). En tal ambiente, la falla (o incluso el mantenimiento) de un solo servidor frecuentemente provocan que el acceso a los datos sea imposible para un gran número de usuarios hasta que el servidor esté de nuevo en línea. Existen problemas que tiene que ver con la caída ya sea del enlace con el isp principal o en su defecto la caída de la conectividad con internet, para explicarlo mejor podemos definir 2 casos que pueden darse:  Problemas de conectividad en el enlace con el isp principal (problemas de cableado, problemas con las interfaces, problemas con el router del isp).  Problemas de conectividad con internet (Puede darse el caso de que el enlace con el isp funcione bien pero no se tenga conexión con internet).
  • 29. 2.4-TÉCNICAS DEBALANCEO DE CARGA ESTÁTICA.-  ALGORITMO ROUND ROBIN DNS Round Robin es una técnica de balanceo de carga o tolerancia a fallos de aprovisionamiento múltiple y redundante para servidores de servicios IP, por ejemplo, servidores web ó servidores FTP, que utiliza la gestión de nombres de dominio (DNS del sistema) para hacer frente a las peticiones de los equipos cliente según un modelo estadístico pertinente. Es relativamente sencillo de implementar; consiste en responder a las solicitudes DNS con una lista de direcciones IP de varios servidores que ofrezcan servicios idénticos, en vez de responder con una sola dirección. El orden en que se devuelven las direcciones IP de la lista es la base del término Round-Robin. Con cada respuesta de DNS, es permutada la secuencia de direcciones IP en la lista. Por lo general, los clientes IP básicos intentan conectar con la primera dirección que ha sido devuelta en la consulta DNS, a fin de que en los clientes al realizar diferentes intentos, puedan recibir el servicio de diferentes proveedores, con lo que la distribución de la carga global se distribuya entre los servidores. Las peticiones clientes son distribuidas equitativamente entre todos los servidores existentes. Sin embargo, este método cíclico no tiene en cuenta las condiciones y carga de cada servidor. Esto puede implicar que haya servidores que reciben peticiones de carga mucho mayor, mientras hay servidores que apenas se encuentran utilizando recursos.
  • 30.  ALGORITMO ALEATORIO La aleatoriedad y análisis probabilístico son temas que se involucran en muchas áreas de las ciencias de la computación incluyendo al diseño de algoritmos, se pueden considerar algoritmos aleatorizados o aleatorios a aquellos tradicionales que se enfrentan a entradas generadas aleatoriamente y en otro caso algoritmos que se comportan al azar, es decir el medio ofrece la misma entrada pero podemos permitir que tome decisiones al azar ya una vez que procesa la entrada; al permitir una asignación al azar el modelo se vuelve más potente, así que los problemas que pueden no haber sido resueltos mediante algoritmos deterministas eficientes aún pueden ser susceptibles de algoritmos aleatorios. Los algoritmos aleatorizados a diferencia de los convencionales tienen una entrada adicional que son los números aleatorios y que se obtienen durante la ejecución, es decir, se usa algún grado de aleatoreidad como parte de su lógica; es importante decir que este tipo de algoritmos son la base esencial de la simulación. Realizan operaciones o toman decisiones distintas de forma aleatoria, se pueden utilizar cuando no es posible explorar todas las posibilidades o resulta ser costosa. Por ejemplo, supongamos tenemos dos puertas y detrás de una de ellas hay un premio y en la otra no hay nada, nuestro interés está en descubrir ese premio, un algoritmo determinista abriría una puerta y luego la siguiente, en el peor de los casos las dos puertas serían abiertas. Con un algoritmo aleatorio existe la misma posibilidad que tenemos cuando lanzamos una moneda al aire, es posible que en nuestro primer intento podamos abrir la puerta correcta y obtener el premio sin necesidad de abrir la siguiente.
  • 31. Aplicando esta misma idea en el problema de encontrar el número 5 en una matriz (M) de N elementos, donde: M = [3, 4, 1, 5, 2] Podemos resolver para este ejemplo de dos maneras, uno es seleccionar aleatoriamente un elemento de los N definidos, o en todo caso posicionarnos en el primer elemento e incrementar en 1 hasta encontrarlo. De manera aleatoria donde en el mejor de los casos lo encontraremos en el primer elemento aleatorio seleccionado, en el peor de los casos en el mismo número de iteraciones que si incrementamos, lo que aleatorizar nuestro algoritmo mejora sus posibilidades.  RECOCIDO SIMULADO Recocido simulado o en inglés Simulated annealing (SA) es un algoritmo de aproximación a la solución óptima, y se basa en una analogía del comportamiento de sistemas termodinámicos simples. Esta técnica se utiliza en la búsqueda de soluciones a problemas de optimización de gran tamaño, desde el punto de vista práctico se ha usado para resolver el problema del viajero. Se ha empleado en problemas prácticos como el diseño automático de circuitos integrados, análisis sintáctico del lenguaje, simulación del funcionamiento neuronal, etc.
  • 32. Otras aplicaciones de recocido simulado son: – Comunicaciones – Teoría de grafos – Predicción de estructuras de cromosomas – Clasificación de imágenes – Diseño de circuitos electrónicos El recocido simulado busca mejorar alguna de las propiedades de un objeto, consiste en producir al azar cambios en sus valores. La simulación del proceso puede usarse para describir la generación de soluciones de un problema de optimización combinatoria, en donde conforme el proceso cambia (azar) y teniendo como resultado la mejor solución. Las soluciones de un problema de optimización combinatoria son equivalentes a los estados de un sistema físico. El costo de una solución es equivalente a la energía de un estado. Descripción breve del algoritmo: En cada iteración, el método evalúa algunos vecinos del estado actual denominado S, y probabilísticamente decide entre efectuar una transición a un nuevo estado S’ o quedarse en el estado inicial S. La comparación entre estados vecinos se repite hasta que se encuentre un estado óptimo que minimice la energía del sistema o hasta que se cumpla cierto tiempo computacional u otras condiciones.
  • 33.  ALGORITMO GENETICOS Los Algoritmos Genéticos (AGs) son métodos adaptativos que pueden usarse para resolver problemas de búsqueda y optimización. Están basados en el proceso genético de los organismos vivos. A lo largo de las generaciones, las poblaciones evolucionan en la naturaleza de acorde con los principios de la selección natural y la supervivencia de los más fuertes, postulados por Darwin. Por imitación de este proceso, los Algoritmos Genéticos son capaces de ir creando soluciones para problemas del mundo real. La evolución de dichas soluciones hacia valores óptimos del problema depende en buena medida de una adecuada codificación de las mismas. Un algoritmo genético consiste en una función matemática o una rutina de software que toma como entradas a los ejemplares y retorna como salidas cuales de ellos deben generar descendencia para la nueva generación. Operan de forma simultánea con varias soluciones, en vez de trabajar de forma secuencial como las técnicas tradicionales. Cuando se usan para problemas de optimización maximizar una función objetivo- resultan menos afectados por los máximos locales (falsas soluciones) que las técnicas tradicionales. Resulta sumamente fácil ejecutarlos en las modernas arquitecturas masivamente paralelas. Usan operadores probabilísticos, en vez de los típicos operadores determinísticos de las otras técnicas.
  • 34. Pueden tardar mucho en converger, o no converger en absoluto, dependiendo en cierta medida de los parámetros que se utilicen tamaño de la población, número de generaciones, etc. Pueden converger prematuramente debido a una serie de problemas de diversa índole. 2.5BALANCEO DE CARGADINÁMICO Este tipo de balanceo de carga se trata durante la ejecución de procesos. Con el balanceo de carga dinámico todos los inconvenientes que presenta el balanceo de carga estático se tienen en cuenta. Esto es posible porque la división de la carga computacional depende de las tareas que se están ejecutando y no de la estimación del tiempo que pueden tardar en ejecutarse. Aunque el balanceo de carga dinámico lleva consigo una cierta sobrecarga durante la ejecución del programa, resulta una alternativa mucho más eficiente que el balanceo de carga estático. El balance de carga dinámico se puede adaptar a los cambios que se presenten en el sistema, acorde a un protocolo para detectar y enfrentar esos cambios, como por ejemplo la migración de trabajos. El balance de carga dinámico es requerido en una variedad de problemas de las ciencias de la computación, problemas de optimización combinatoria y en general problemas de paralelismo en los que no se conoce a priori la naturaleza de los trabajos a paralelizar. Existen dos esquemas bases en el balance de carga dinámico: orientado al servidor (también conocido como work-sharing) y orientado al receptor (work- stealing). El primero de ellos entrega las decisiones de migración al nodo que se encuentra sobrecargado de trabajo, y su objetivo es que todos los nodos conectados tengan la misma cantidad de trabajo.
  • 35. El segundo entrega las decisiones de migración al nodo que no posee carga de trabajo, y su objetivo es aprovechar los ciclos de CPU ociosos para realizar un trabajo en paralelo, no existen resultados teóricos conocidos sobre work-stealing”. Más aún, todos los estudios teóricos de balance de carga dinámico se fundamentan sobre la migración fuerte de trabajos, en que los trabajos migran de un nodo a otro al momento de recibir el requerimiento de migración y no sobre la migración débil, utilizada en la práctica por su menor costo y en que los trabajos deben esperar por un estado estable en su ejecución antes de realizar la migración En el balanceo de carga dinámico, las tareas se reparten entre los procesadores durante la ejecución del programa. Dependiendo de dónde y cómo se almacenen y repartan las tareas el balanceo de carga dinámico se divide en: • Balanceo de carga dinámico centralizado. Se corresponde con la estructura típica de Maestro/Esclavo. • Balanceo de carga dinámico distribuido o descentralizado. Se utilizan varios maestros y cada uno controla a un grupo de esclavos.
  • 36. 2.5.1-BALANCEO DE CARGA DINÁMICO CENTRALIZADO.- El nodo maestro es el que tiene la colección completa de tareas a realizar. Las tareas son enviadas a los nodos esclavos. Cuando un nodo esclavo finaliza una tarea, solicita una nueva al maestro. Esta técnica también se denomina programación por demanda o bolsa de trabajo, y no sólo es aplicable a problemas que tengan tareas de un mismo tamaño. En problemas con tareas de distintos tamaños es mejor repartir primero aquellas que tengan una mayor carga computacional. Si la tarea más compleja se dejase para el final, las tareas más pequeñas serían realizadas por esclavos que después estarían esperando sin hacer nada hasta que alguno completara la tarea más compleja. También se puede utilizar esta técnica para problemas donde el número de tareas pueda variar durante la ejecución. En algunas aplicaciones, especialmente en algoritmos de búsqueda, la ejecución de una tarea puede generar nuevas tareas, aunque al final el número de tareas se debe de reducir a cero para alcanzar la finalización del programa. En este contexto se puede utilizar una cola para mantener las tareas pendientes. Si todas las tareas son del mismo tamaño y de la misma importancia o prioridad, una cola FIFO (First In First Out) puede ser más que suficiente, en otro caso debe analizarse la estructura más adecuada
  • 37. 2.5.2-BALANCEO DE CARGA DINÁMICO DISTRIBUIDO O DESCENTRALIZADO.- En el balanceo de carga descentralizado intervienen varios maestros los cuales tendrán el control de un grupo diferente de esclavos. Una gran desventaja del balanceo de carga dinámico centralizado es que el nodo maestro únicamente puede repartir una tarea cada vez, y después de que haya enviado las tareas iniciales sólo podrá responder a nuevas peticiones de una en una. Por tanto, se pueden producir colisiones si varios esclavos solicitan peticiones de tareas de manera simultánea. La estructura centralizada únicamente será recomendable si no hay muchos esclavos y las tareas son intensivas computacionalmente. Para tareas de grano fino (tareas con muy poca carga computacional) y muchos esclavos es apropiado distribuir las tareas en más de un sitio Recordando un poco que las rutas proviene de configuraciones estáticas o de protocolos dinámicos tales como RIP, RIPv2, IGRP, EIGRP y OSPF. Anteriormente ya vimos configuraciones estáticas ahora no tocas definir sobre dinámicas:
  • 38. 3-CONFIGURACIONES DINAMICAS.- 3.1-BALANCEODECARGAENRIPV1(ROUTINGINFORMATIONPROTOCOL).- RIP evoluciono de un protocolo anterior llamado Protocolo de información de gateway GWINFO desarrollado por Xerox. La primera versión de RIP se la denomina comúnmente RIPv1 para distinguir claramente de RIPv2 ya que ambas versiones comparten muchas funciones similares Este protocolo RIPv1 mantiene una tabla de rutas de manera dinámica utilizando vector distancia, protocolo popular debido a su simplicidad y amplia compatibilidad ya que es uno de los protocolos más antiguos carece de la sofisticación de los protocolos de enrutamiento más avanzados, este protocolo no es un protocolo en extinción, de lo contrario se cuenta ya ahora con un tipo de RIP de IPv6 llamado RIPng (próxima generación). La configuración de este protocolo es muy sencilla, sólo debe tomarse en cuenta qué interfaces de red estarán ejecutando el protocolo y qué direcciones de red tienen esas interfaces. Este protocolo solamente necesita las direcciones de RED que posee el Router, nunca direcciones IP ni máscaras de subred. utiliza el conteo de saltos como métrica, es decir, se considera un salto cada vez que un paquete viaja de un router a otro con un límite de 16 saltos por paquete (TTL - tiempo de vida del paquete) y su distancia administrativa es de 120. Puntos destacables de este protocolo  RIP es un protocolo de enrutamiento por vector de distancia.  RIP utiliza el conteo de saltos como su única métrica para la selección de rutas.  Las rutas publicadas con conteo de saltos mayores que 15 son inalcanzables.  Se transmiten mensajes cada 30 segundos  Funciona muy bien en redes pequeñas.  Facilidad para la configuración.
  • 39. Desventajas  Está limitado a redes cuyos caminos más largos involucren 15 saltos.  Converge lentamente ante malas noticias, tales como la ruptura de un enlace o la ausencia de un nodo. Conteo al infinito.  Usa una métrica fija que no es apropiada para situaciones basadas en tiempo real tales como medida del retardo, confiabilidad o carga.  No admite CIDR ni VLSM  No hay un mecanismo de autenticación, haciéndola vulnerable a ataques.  Su principal desventaja consiste en que para determinar la mejor métrica, únicamente toma en cuenta el número de saltos, descartando otros criterios (ancho de banda, congestión, carga, retardo, fiabilidad, etc.).  El límite máximo de saltos es menor que el de otros protocolos, de forma que solo se puede utilizar en redes de tamaño mediano o pequeño.  RIP tampoco está diseñado para resolver cualquier posible problema de enrutamiento. La porción de datos de un mensaje de RIP se encapsula en un segmento UDP, con los números de puerto de origen y destino establecidos en 520. El encabezado IP y los encabezados de enlace de datos agregan direcciones de destino de broadcast antes de enviar el mensaje a todas las interfaces configuradas con RIP
  • 40.
  • 41. Se especifican tres campos en la porción del encabezado de cuatro bytes que se muestra en la parte de la figura del cuadro de color amarillo. El campo Comando especifica el tipo de mensaje. El campo Versión se establece en 1 para la versión 1 de RIP. El tercer campo que se rotula debe ser cero. Los campos "Debe ser cero" ofrecen espacio para la futura expansión del protocolo. RIP se desarrolló antes que IP y se utilizó para otros protocolos de red
  • 42. En el funcionamiento de este protocolo RIP usa 2 tipos de mensajes en el campo comando.  Mensaje de solicitud  Mensaje de respuesta Mensaje de solicitud.- Cada interfaz configurada con RIP envía un mensaje de solicitud durante el inicio y solicita que todos los RIP vecinos envíen sus tablas de enrutamiento completas. Mensaje de respuesta.- Se envía de regreso un mensaje de respuesta por parte de los vecinos habilitados con RIP. Cuando el router que realiza la solicitud recibe las respuestas, evalúa cada entrada de ruta. Si una entrada de ruta es nueva, el router receptor instala la ruta en la tabla de enrutamiento. En casos que si la ruta ya se encuentra en la tabla, la entrada existente se reemplaza si la nueva entrada tiene un mejor conteo de saltos. Luego envía un update (actualizacion) disparado a todas las interfaces habilitadas con RIP que incluyen su propia tabla de enrutamiento para que los RIP vecinos puedan recibir la información acerca de todas las nuevas rutas. Siguiendo con el funcionamiento del RIP pasamos a las direcciones ips que se asiganaran de acuerdo a las Clase A, B, C y con mascara de subred de previamente de estudios anteriores Otra característica de RIP es que permite balanceo de carga en 6 rutas de igual costo, 4 por defecto.
  • 43. La distancia administrativa (AD) es la confiabilidad (o preferencia) del origen de la ruta. RIP tiene una distancia administrativa predeterminada de 120. Al compararlo con otros protocolos de gateway interior, RIP es el protocolo de enrutamiento menos preferido. ISIS, OSPF, IGRP y EIGRP tienen valores de AD predeterminados inferiores. Comandos para la implementación del protocolo RIP
  • 44. Ejemplo #1 router(config)#router rip router(config-router)#network a.a.a.a router(config-router)#network b.b.b.b router(config-router)#network c.c.c.c Donde: router rip.- Comando para acceder al modo de configuración de router asignando el protocolo de enrutamiento RIP. network.- Comando que se utiliza para que el router publica las redes en sus paquetes de actualización RIP. a.a.a.a - Red que será publicada por el router. Ejemplo #2 Router(config)#router rip Router(config-router)#network 192.168.1.0 Router(config-router)#network 200.200.1.0
  • 45. 3.2-BALANCEODECARGAENRIPV2(ROUTINGINFORMATIONPROTOCOL).- Debido a las limitaciones de la versión 1, se desarrolla RIPv2 en 1993. Esta versión soporta subredes, permitiendo así CIDR y VLSM. Además, para tener retrocompatibilidad con RIPv1, se mantuvo la limitación de 15 saltos. Se agregó una característica de "interruptor de compatibilidad" para permitir ajustes de interoperabilidad más precisos. RIPv2 soporta autenticación, utilizando uno de los siguientes mecanismos: no autentificación, autentificación mediante contraseña, y autentificación mediante contraseña codificada mediante MD5. Este protocolo solamente necesita las direcciones de RED, nunca direcciones IP ni máscaras de sub-red. RIP V2 es una extensión de RIP V1.  Basado en el algoritmo Bellmand-Ford.  Métrica: 15 saltos.  Protocolo de enrutamiento Classless (admite VLSM y CIDR).  Actualización cada 15 segundos.  Hay un mecanismo de autenticación (No prevee que los router que usen RIPv1 lean los mensajes de RIPv2).  Uso de redes multicast (evitar procesamiento de routers que no reciban paquetes RIP 2). Dirección multicast: 224.0.0.9.
  • 46. Esta versión si admite el campo de Máscara de Subred y la dirección del siguiente salto  Utiliza UDP para enviar sus mensajes a través del puerto 520.  Cuando RIP descubre que una métrica ha cambiado, la difunde por broadcast a los demás enrutadores.  Por defecto, RIP v1 recibe y acepta actualizaciones de RIP v2, pero RIP v2 no acepta actualizaciones de RIP v1.  Para solventar este problema se ejecuta el comando en el enrutador con RIPv2: _ip rip receive version 1
  • 47. Desventaja  Solamente determina la mejor ruta por la cantidad de saltos descartando criterios como ancho de banda, congestión, carga, retardo, fiabilidad, etc. como si lo hacen otros como OSPF, EIGRP. A diferencia de otros protocolos de enrutamiento, RIP no utiliza sistemas autónomos, ni números de área que identifiquen algún tipo de unidad administrativa. Por este motivo, la configuración de RIPv2 es muy sencilla y bien comparada con RIPv1 Comandos para la implementación del protocolo RIP v2 Ejemplo #1 router(config)#router rip router(config-router)#versión 2 router(config-router)#network a.a.a.a router(config-router)#network b.b.b.b router(config-router)#network c.c.c.c Donde: router rip.- Comando para acceder al modo de configuración de router asignando el protocolo de enrutamiento RIP. versión 2 .- Comando que indica la versión network.- Comando que se utiliza para que el router publica las redes en sus paquetes de actualización RIP. a.a.a.a - Red que será publicada por el router.
  • 48. Ejemplo #2 Router(config)#router rip Router(config-router)# version 2 Router(config-router)# network 172.16.0.0 Este último parámetro indica que sobre cualquier interfaz que pertenezca a esa dirección de red, el protocolo:  Enviará actualizaciones de enrutamiento.  Estará atento a la recepción de actualizaciones de enrutamiento.  Incluirá la dirección de red de toda interfaz que se encuentre "on" en cualquier actualización de enrutamiento que envíe.
  • 49. 3.3-BALANCEO DECARGA EN IGRP (INTERIOR GATEWAY ROUTINGPROTOCOL).- El Interior Gateway Routing Protocol (IGRP) es un protocolo patentado desarrollado por Cisco. Las características principales de diseño del IGRP son las siguientes: Por defecto, el protocolo IGRP de enrutamiento usa el ancho de banda y el retardo como métrica. Además, IGRP puede configurarse para utilizar una combinación de variables para calcular una métrica compuesta. Estas variables incluyen: Ancho de banda  Retardo  Carga  Confiabilidad Se envía un broadcast de las actualizaciones de enrutamiento cada 90 segundos. El IGRP es el antecesor de EIGRP y actualmente se considera obsoleto. IGRP es un protocolo con clase, lo que significa que no pueden manipularse las máscaras de red (utiliza las máscaras por defecto de cada Clase) IGRP es un protocolo de métrica vector-distancia, perteneciente a Cisco, utilizado para el intercambio de información entre Routers. Lo que se encarga de hacer es buscar la mejor vía de envío mediante el algoritmo de métrica vector-distancia. Se utiliza comúnmente como IGP para intercambiar datos dentro de un Sistema Autónomo, pero también se ha utilizado extensivamente como Exterior Gateway Protocol (EGP) para el enrutamiento inter-dominio
  • 50. Cada router que recibe la información, ajusta la distancia y la propaga a los routers vecinos A medida que se propaga la información de enrutamiento por toda la red, los routers realizan las siguientes funciones:  Identificar nuevos destinos.  Conocer de fallas. IGRP utiliza los siguientes parámetros:  Retraso de Envío: Representa el retraso medio en la red en unidades de 10 microsegundos.  Ancho de Banda (BandWidth – Bw): Representa la velocidad del enlace, dentro del rango de los 12000 Mbps y 10 Gbps. En realidad el valor usado es la inversa del ancho de banda multiplicado por 107.  Fiabilidad: va de 0 a 255, donde 255 es 100% confiable.  Distancia administrativa (Load): toma valores de 0 a 255, para un enlace en particular, en este caso el valor máximo (255) es el pero de los casos.
  • 51. TIPO DE RUTAS  Interior.- Rutas entre subredes de una red dada de alta en una interfaz del enrutador, si esta red no tiene subredes, IGRP no avisa sobre estas rutas internas.  System.- Rutas hacia redes del mismo sistema autónomo, obtenidas de los enlaces directamente conectadas al enrutador. Este tipo de rutas no incluyen información de las subredes.  Exterior.- Rutas hacia redes fuera del sistema autónomo. o Gateway of last resort  Router de salida hacia otros SAs.
  • 52. IGRP cuenta con algunas características que mejoran su estabilidad:  Holddowns.- Utilizados para prevenir mensajes de actualización erróneos. Cuando un enrutador falla los enrutadores vecinos lo detectan y mandan updates avisando este cambio.  Split horizons.- Esta regla previene los routing loops no enviando información duplicada y/o incorrecta de una ruta al mismo router que la ha descubierto.  Poison reverse updates.- Previenen routing loops a lo largo de la red de enrutadores (split horizon es sólo entre routers adjacentes). Este tipo de actualizaciones se envían para remover rutas.
  • 53. Ejemplo Comandos para la implementación del Protocolo IGRP Router0> enable Router0#configure terminal Router0(config)# router igrp 100 Esta última línea activa el protocolo IGRP con un numero de proceso autónomo de 100 y nos cambia al modo de configuración de router Router0(config-router)# network 192.168.3.0 Router0(config-router)# network 192.168.4.0 Con estas 2 líneas dimos de alta a las redes a la que tiene alcance La configuración en el Router0 vendría ser igual para los demás Routers a configurar
  • 54. Para configurar el balanceo de carga por rutas con costes desiguales en router con IGRP se utilizan los siguientes comandos: router(config-router)# variance <1-128> El comando variance controla el balanceo de carga entre la ruta de mejor métrica y la de peor métrica aceptable. router(config-router)# traffic-share balanced|min El comando traffic-share controla como se distribuye el balanceo de carga. La opción balanced distribuye la carga de modo inversamente proporcional a la métrica de los enlaces. Mientras que min balancea tráfico utilizando primero las rutas que tienen menor métrica.
  • 55. 3.4-BALANCEO DECARGA EN EIGRP.- El protocolo de gateway interior mejorado (EIGRP) es un protocolo de enrutamiento vector distancia sin clase. Características Generales de EIGRP:  El protocolo de transporte confiable (RTP) proporciona una entrega confiable y no confiable de paquetes EIGRP.  EIGRP establece relaciones con routers conectados directamente que también están habilitados para EIGRP. Estas relaciones crean adyacencias.  Todo esto es utilizado por el algoritmo de actualización por difusión (DUAL).  DUAL garantiza rutas simples y rutas de respaldo a través del dominio de enrutamiento.  Al igual que RIP v2, EIGRP funciona con enrutamiento sin clase o con clase.  Podemos deshabilitar las sumarización automática y resumir manualmente redes para reducir el tamaño de las tablas de enrutamiento (comando no auto- summary) 3.4.1METRICA EIGRP IGRP y EIGRP utilizan la métrica compuesta de ancho de banda, retardo, confiabilidad y carga. Los protocolos de enrutamiento utilizan sólo el ancho de banda y el retardo en forma predeterminada. Pero EIGRP utiliza cálculos más avanzados.
  • 56. EIGRP no envía actualizaciones periódicas y las entradas de ruta no expiran. EIGRP utiliza un protocolo Hello (muy ligero) para comprobar que sigue conectado a sus vecinos. Sólo los nuevos cambios(por ejemplo cambios en la topología o la desconexión de una interfaz) producen una actualización de enrutamiento. DUAL nos asegura rutas sin bucles. EIGRP no utiliza temporizadores de espera. Lo que hace es buscar las rutas por medio de un sistema de cálculos de ruta entre los routers. La consecuencia es una convergencia más rápida que la de los protocolos de enrutamiento vector distancia. Los routers EIGRP descubren vecinos y establecen adyacencias mediante el paquete de saludo. EIGRP envía actualizaciones parciales y limitadas (sólo propaga actualizaciones parciales de aquellos routers que se ven afectados por un cambio). De esta forma eigrp minimiza el ancho de banda requerido para enviar los paquetes EIGRP. 3.4.2-DISTANCIAADMINISTRATIVA EIGRP.- La distancia administrativa constituye la confiabilidad del origen de la ruta. EIGRP tiene una distancia administrativa predeterminada de 90 para las rutas internas y de 170 para las rutas importadas desde un origen externo(como rutas predeterminadas). Además hemos de tener en cuenta que EIGRP tiene el Valor de 5 para las rutas sumarizadas.
  • 57. COMANDOS CISCO PARA EIGRP Comandos para configurar EIGRP correctamente: 3.4.3-BALANCEO DE CARGA DE MISMO COSTO.- Cuando un router tiene dos o más rutas hacia un destino con métrica del mismo costo, el router reenvía los paquetes usando ambas rutas por igual. Esto se denomina “balanceo de carga de mismo costo”. La tabla de routing contiene la única red de destino pero tiene varias interfaces de salida, una para cada ruta de mismo costo. El router reenvía los paquetes utilizando las distintas interfaces de salida que se indican en la tabla de routing. Si está configurado correctamente, el balanceo de carga puede aumentar la efectividad y el rendimiento de la red. El balanceo de carga de mismo costo puede configurarse para usar tanto protocolos de enrutamiento dinámico como rutas estáticas. EIGRP permite el balanceo de carga en enlaces con igual y diferente costo. EIGRP automáticamente realiza balanceo de carga a enlaces de cargas iguales, para enlace de cargas desiguales se utiliza el comando variance [multiplicador]
  • 58. 3.4.4-CONFIGURACIÓN DE BALANCEO DE CARGA EN ENLACES CON IGUAL COSTO EIGRP.- Se configura los anchos de bandas enunciados con el comando Bandwidth. El proceso de EIGRP escoge la mejor ruta de acuerdo a la métrica
  • 59. Viendo la tabla de enrutamiento En este caso los dos enlace Seriales tienen la misma métrica [90/3139840] debido a su común ( Delay, bandwidth). Introduciendo #show ip eigrp topology se puede ver los diferentes enlaces
  • 60. 3.4.5-CONFIGURACIÓN DE BALANCEO DE CARGA EN ENLACES CON DESIGUALCOSTO EIGRP.- EIGRP permite balancear carga en enlaces de diferentes costos, esto es posible gracias al comando Variance [multiplicador]. La variance es un número que multiplicado por el Costo menor iguala o supera al costo mayor del grupo de enlaces a balancear. Poniendo de ejemplo tenemos dos enlaces de 1024kbps y un enlace de 64kbps. EIGRP le asigna un coste a cada enlace, tomando en cuenta el ancho de banda y otras cosas (como delay). Podemos poner como ejemplo que EIGRP le da un costo de 20 a un enlace de 1024Kbps, y uno de 450 a un enlace de 64kbps. Por lo tanto, EIGRP utilizara, por defecto, el enlace con mejor costo (20 = enlace de 1024 kbps) El numero que pones en el comando VARIANCE, es el numero que, multiplicado por el coste de la ruta de 1024kbps, iguala o supera el coste de la ruta de 64kbps Siguendo con el ejemplo, si el enlace de 1024kbps tiene un coste de 20 y el de 64kbps de 450, entonces el valor a introducir en el comando variance deberia de ser 23 (20 * 23 = 460). Con esto, se utilizarían los enlaces con coste de 20, hasta el enlace con coste de 460. La configuracion seria la siguiente: Router(config)# router eigrp 1 Router(config-router)# variance 23 Router(config-router)# traffic-share balanced El comando "traffic-share balanced" hace que, el router balance las cargas "proporcionalmente" en los enlaces. Por cada 23 paquetes enviados por el enlace de 1024, se enviaría 1 en el enlace de 64.
  • 61. 4-BALANCEO DE CARGAS POR DESTINO Y POR PAQUETE.- Puede configurarse el balance de cargas para que se realice por destino o por paquete. 4.1-EL BALANCEDE CARGAS POR DESTINO.- significa que el router distribuye los paquetes según la dirección de destino. Dados dos trayectos a la misma red, todos los paquetes para el destino1 en esa red se transmiten a través del primer trayecto; todos los paquetes para el destino2 en esa red se transmiten a través del segundo trayecto y así sucesivamente. De esta manera se preserva el orden de paquetes, con un posible uso desigual de los enlaces. Si un host recibe la mayoría del tráfico, todos los paquetes usan un enlace, lo que deja el ancho de banda en los demás enlaces sin utilizar. Una gran cantidad de direcciones de destino lleva a más enlaces utilizados de forma equitativa. Para lograr más enlaces utilizados equitativamente, use el software IOS para crear una entrada de caché de ruta para cada dirección de destino, en lugar de cada red de destino, como cuando sólo existe un único trayecto. Por consiguiente, el tráfico a diferentes hosts en la red de mismo destino puede usar diferentes trayectos. La desventaja de este enfoque es que los routers de núcleo/estructura básica que transportan tráfico a miles de hosts de destino, los requisitos de memoria y procesamiento para mantener la caché pueden ser muy exigentes.
  • 62. 4.2-EL BALANCEDE CARGA POR PAQUETE- significa que el router envía un paquete para el destino1 a través del primer trayecto, el segundo paquete para el (mismo) destino1 a través del segundo trayecto y así sucesivamente. El balance de carga por paquete asegura el balance de carga entre todos los enlaces. No obstante, existe la posibilidad de que los paquetes puedan llegar sin un orden al destino a causa de la demora diferencial que existe dentro de la red. En el software Cisco IOS, excepto en la versión 11.1CC, el balance de cargas por paquete deshabilita la aceleración de reenvío a través de la caché de rutas, dado que la información de la caché de rutas incluye la interfaz saliente. Para el balance de cargas por paquete, el proceso de reenvío determina la interfaz saliente para cada paquete a través de una búsqueda en la tabla de rutas y la selección de la interfaz menos utilizada. De esta forma se garantiza la utilización equitativa de los enlaces, pero es una tarea que requiere una alta utilización del procesador e impacta en el desempeño en general del reenvío. Esta forma de balance de cargas por paquete no es la adecuada para las interfaces de velocidad más alta El balance de carga por destino o por paquete depende del tipo de esquema de conmutación utilizado para los paquetes IP. De forma predeterminada, en la mayoría de los routers Cisco, la conmutación rápida está habilitada en las interfaces. Esto es un esquema de demanda de memoria caché que se ocupa del balance de carga por destino.
  • 63. Para establecer el balance de cargas, habilite la conmutación de procesos (o deshabilite la conmutación rápida), use estos comandos: Router# config t Router(config)# interface Ethernet 0 Router(config-if)# no ip route-cache Router(config-if)# ^Z Ahora la CPU del router busca en cada paquete y equilibra la carga en la cantidad de rutas en la tabla de ruteo para el destino. Esto podría producir un fallo en un router de extremo bajo, dado que la CPU debe efectuar todo el procesamiento. Para volver a habilitar la conmutación rápida, utilice estos comandos: Router# config t Router(config)# interface Ethernet 0 Router(config-if)# ip route-cache Router(config-if)# ^Z
  • 64. 5-GENERACIONES DEL BALANCEO DECARGA.- 5.1-PRIMERA GENERACIÓN DE BALANCEO DE CARGA.- Las soluciones "reales" de balanceo de carga necesitan descubrir el rendimiento del servidor. La primera generación puede detectar el rendimiento del servidor vía passive polling, lo que significa que el balanceador de carga mide el tiempo de respuesta de los servidores y por ello tiene una idea de cómo están funcionando. En esta generación sólo descubre que los servidores tienen un problema después de que se producen retrasos o, en el peor de los casos, cuando los servidores están completamente caídos. 5.2-SEGUNDA GENERACIÓN DE BALANCEO DECARGA.- El balanceo de carga más seguro sólo se puede conseguir considerando el uso real de los servidores, permitiendo que los recursos existentes se empleen al máximo, al conocer cómo están siendo utilizados estos recursos incluso antes de que las peticiones de los clientes lleguen a ellos. El tráfico se enruta proactivamente, cambiando el antiguo concepto existente de balanceo de carga, hacia una solución de optimización del servidor, consiguiendo el mejor resultado posible con la tecnología disponible. Para lograrlo, el balanceador de carga continuamente realiza peticiones de datos de cada servidor en la granja de servidores para monitorizar sus condiciones y direccionar las peticiones de los clientes hacia el servidor que se encuentre más disponible y en mejor estado para responder a dichas peticiones. Los parámetros solicitados, dependen del producto utilizado.
  • 65. Normalmente se emplea la utilización de la CPU del servidor, el uso de memoria y el número de conexiones abiertas. La segunda generación de balanceadores posee funciones de mensajería, informando si los servidores están fuera de servicio, y si es así, cuándo serán devueltos a producción. La mayoría de los servidores "revividos" pasan un período de prueba durante el cuál no se llenan completamente de peticiones. Se puede incluso desconectar los servidores para repararse o para realizar el mantenimiento, a través del método de "apagado progresivo". El servidor, a partir de ese momento, no acepta nuevas peticiones pero permanece activo hasta que las transacciones de comercio electrónico y las descargas que se estén produciendo finalicen. La segunda (algunas veces considerada la primera) regla más importante de una solución de balanceo de carga, es incrementar la fiabilidad del sitio web y del contenido y los servicios que está ofreciendo. Normalmente la segunda generación de balanceadores de carga hardware se vende en parejas, es decir, dos equipos iguales. Uno de ellos es la unidad activa y el segundo la unidad de repuesto o de back up. Una unidad de back up en modo stand by (en espera) con una misma dirección IP y MAC significa que incluso cuando el balanceador se ve afectado por un incidente como puede ser un fallo de cableado, fuego o error humano, hay una unidad de repuesto pre-configurada que pasa a ser operacional de forma inmediata.
  • 66. Todos estos conceptos de balanceo de carga que hemos visto más antes se encuentran muy ligados a un concepto en particular el cual es llamado Alta Disponibilidad este término significa la capacidad que posee un sistema o topología de hacer frente a posibles fallos ya sean Físicos y lógicos en los cuales pueden ser externo o internos. Cuando se utiliza alta disponibilidad se debe implementar un respaldo de todo equipo en el sistema (topología) comenzando desde elementos mínimos como cables hasta los más complejos como Routers, el único y principal inconveniente de la alta disponibilidad es su alto costo ya que se debe hacer una inversión más grande duplicando hasta el ISP (Proveedor de Internet). Siempre cuando se habla de balanceo de carga, esta implícitamente definido un sistema de alta disponibilidad y viceversa ya que el objetivo final de todo buen sistema de alta disponibilidad es obtener un excelente desempeño en las transacciones que se procesan, así como también la eficiencia del encaminamiento de datos. Existen muchas alternativas para balancear la carga en un equipo 6-BALANCEO POR SOFTWARE.- El cual consiste en utilizar dos placas de red y usar un software de tercero para administrarlas o simplemente utilizar el software que viene con ellas cuando sea posible y su configuración es tan básica como definir las direcciones, sus rangos y si enviaran, recibirán o ambas.
  • 67. 6.1-VENTAJAS DEL BALANCEO DE CARGA POR SOFTWARE.-  Precio.  Una vez no sea necesario el balanceador o se requiera uno más potente se puede reciclar para otras tareas. 6.2-INCONVENIENTES O DESVENTAJA DELBALANCEO DE CARGAPOR SOFTWARE.-  Mayor tiempo de mantenimiento.  Menor potencia. También existe un método llamado RRDNS (Round Robin DNS) el cual consiste en configurar un servidor DNS, con las direcciones IPs a las cuales se desea redistribuir el tráfico (podemos leer más información acerca de esto en las hojas anteriores). Esta última opción es un poco más costosa ya que implica contratación de un servicio de resolución de nombres, con su respectivo balanceo así como compra de equipo adicional de re direccionamiento. Una de sus principales desventajas es que la selección de servidor re direccionado se realiza mediante la métrica de TTL (Time to live) del paquete.
  • 68. 6.3-TIEMPO DE VIDAO TIMETO LIVE (TTL).- Indica por cuántos nodos puede pasar un paquete antes de ser descartado por la red o devuelto a su origen. El TTL como tal es un campo en la estructura del paquete del protocolo IP. Sin este campo, paquetes enviados a través de rutas no existentes, o a direcciones erróneas, estarían vagando por la red de manera infinita, utilizando ancho de banda sin una razón positiva. El TTL (Time To Live), es utilizado en el paquete IP de manera que los Routers puedan analizarlo y actuar según su contenido. Si un router recibe un paquete con un TTL igual a uno o cero, no lo envía a través de sus puertos, sino que notifica vía ICMP a la dirección IP origen que el destino se encuentra "muy alejado" y procede a descartar dicho paquete. Si un paquete es recibido por un router que no es el destino, éste decrementa el valor del TTL en uno y envía el paquete al siguiente router (next hop). En el protocolo IP, esta información se almacena en un campo de 8 bits. El valor óptimo para aprovechar el rendimiento en Internet es de 128.
  • 69. 7-BALANCEADOR DECARGA POR HARDWARE.- Los balanceadores de carga por hardware son máquinas (dispositivos) con un propósito específico y solo son útiles para el balanceo de carga. Equipos existen muchos en el mercado, todo depende a su capacidad de memoria, desempeño y uso extremos entre los más potentes esta la ROUTERBOARD MIKROTIK 1200 de la Fig-1 (arriba) este equipo dispone de 10 puertos Gigabyte los cuales pueden configurarse todos para funcionar como balanceo de carga y así tener 10 WAN para el uso de una red 7.1-VENTAJAS DEL BALANCEO DE CARGA POR HARDWARE.-  Potencia.  Estabilidad.  Escalabilidad. Fig-1 Fig-2
  • 70. 7.2-INCONVENIENTES O DESVENTAJA DELBALANCEO DE CARGAPOR HARDWARE.-  Precio (equipo, mantenimiento, técnicos).  Sólo sirve para balanceo. Otra opción para realizar el balanceo de carga es utilizar las herramientas integradas de Windows 2000, siendo más específicos NLB, el cual se configura utilizando dos o más tarjetas de red, configurando una dirección Gateway por defecto y estableciendo el puerto de cada uno para funcionar como un solo enlace al unísono. Una limitante de esta opción es que solo se puede realizar con adaptadores de red certificados para usar con esta tecnología. Dentro de las opciones más sencillas para balanceo de carga se encuentran las realizadas por hardware especializado Router y switches los cuales se encargan de redistribuir el tráfico según protocolos ya establecidos en sus interfaces de salida de red que han sido configuradas con su respectivo balanceo de carga. Dentro de estos protocolos se destacan algunos como:  HSRP (Host Standbay Routing Protocol)  GLBP (Gateway Load Balancing Routing Protocol)  VRRP (Virtual Router Redundancy Protocol) 7.3-HOSTSTANDBAY ROUTING PROTOCOL.- HSRP es un protocolo propietario de Cisco que permite que varios routers o switches multicapa funcionen como si fuesen una sola puerta de enlace. Este protocolo evita la existencia de puntos de fallo únicos en la red mediante técnicas de redundancia y comprobación del estado de los routers.
  • 71. El funcionamiento del protocolo HSRP es el siguiente: Se crea un grupo (también conocido por el término inglés Clúster) de routers en el que uno de ellos actúa como maestro, enrutando el tráfico, y los demás actúan como respaldo a la espera de que se produzca un fallo en el maestro. HSRP es un protocolo que actúa en la capa 3 del modelo OSI administrando las direcciones virtuales que identifican alrouter que actúa como maestro en un momento dado. HSRP genera una IP virtual (192.168.1.1) y una MAC virtual para esa direccion de capa 3 (0000.0C9F.0000). El formato utilizado por HSRP para las direcciones MAC de las IP virtuales es 0000.0C9F.00XX donde XX hace referencia a los últimos dos dígitos del grupo HSRP configurado (100). El switch que obtiene el estado de Activo es el que funcionará como default gateway y el que adquiere el estado de Standbay es el que queda de backup en caso de que el Activo falle.
  • 72. A través del intercambio de mensajes Hello los switches negocian el estado final que les corresponde a través del parámetro priority, el que tenga mayor prioridad será el que quede como Activo y es el que responderá a la MAC e IP virtuales configuradas. En caso de que el switch Activo falle, el Standbay asumirá el rol y responderá a las MAC e IP virtuales. En el esquema presentado el switch SW0 se dará cuenta de que hay un problema en SW1 cuando no reciba respuesta durante tres intervalos de Hello consecutivos, en ese momento declarará al Activo como inaccesible. Hay dos parámetros importantes a tener en cuenta cuando se trabaja con este protocolo, estos son  preempt  track El parámetro preempt permite que, luego de haberse solucionado el problema que forzó al default gateway Standbay a asumir el rol de Active, este vuelva a asumir su rol original basado en su prioridad. Si este parámetro no está configurado entonces el nuevo router activo quedará con en ese rol a pesar de que un router con mayor prioridad vuelva a estar operativo. El parámetro track evita un falso positivo importante ya que, si bien la interfaz del router de cara hacia la LAN puede estar operativa, puede haber un problema en la interfaz que le permite acceder a internet, en este escenario el protocolo HSRP no detectará que hay un problema y los dispositivos de la red no tendran acceso a internet a pesar de que SW0 tenga una ruta alternativa funcional.
  • 73. El parámetro track permite monitorear interfaces dentro del router y generar un decremento en la prioridad de la IP HSRP en caso de que esta interfaz monitoreada se encuentre inactiva. Con el comando show standbay podemos visualizar la configuración de track Podemos ver que estamos haciendo un trackeo de la interfaz FastEthernet 0/2 de SW1 que es la interfaz con la que este dispositivo se conecta a internet, en caso de que esta interfaz tenga una falla la prioridad HSRP se reducirá en 10 (125-10=115), permitiendo que SW0 (prioridad 120) asuma el rol de activo y empiece a funcionar como default gateway. Otra cosa importante a destacar es que, cuando el SW1 está activo, la MAC address virtual de HSRP en el switch de conexión es conocida a través de FastEthernet 0/2
  • 74. Si FastEthernet 0/2 en SW1 falla entonces vemos que SW1 pasa a Standbay y SW0 a Active Ahora podemos observar que en el switch de conexión la MAC address virtual de HSRP ahora es concida a través de la interfaz FastEthernet 0/1, que es la interfaz donde se encuentra conectado SW0.
  • 75. Una vez que el problema en FastEthernet 0/2 en SW1 es solucionado, el parametro preempt permite que SW1 vuelva a asumir el rol de Active automáticamente.
  • 76. 7.3.1-ESTADOS HSRP.- Los routers antes de pasar a tener un rol, tienen que pasar por varios estados : Initial State : Todos los routers inician con este estado. Este estado se da cuando se ha realizado algun cambio en la configuración o cuando se ha iniciado una interface. Learn State: En este estado aun no se ha determinado la Virtual IP address y no se ha recibido ningun hello del Active Router. El router esta esperando y escuchando para recibir algun hello del Active Router. Listen State : El router conoce la Virtual IP address, pero no es ni el Active Router ni el Standby Router. Todos los routers del grupo HSRP persisten en este modo incluso el Active y Standby router. Speak State : Este estado permite a los routers hablar periódicamente mediante hello’s y participar en la elección del Active Router y el Standby Router. El router se queda en el estado Speak almenos que se convierta en un Active o Standby router. Standby State : Este estado coloca al router en modo backup y envia mensajes hello periódicamente. En de perdida de conectividad con el Active Router el Standby Router pasa a ser el Active . Tiene que haber como mínimo un router de Standby. Active State : Este estado, el router es el encargado de reenviar los paquetes que llegan a la Virtual IP y mac-address del grupo HSRP. El router activo también envía periódicamente mensajes Hello.
  • 77. HSRP LOAD BALANCING .- Se puede realizar balanceo de carga mediante grupos HSRP y mientras que un router es Active Router de un grupo, también puede ser Standby Router de otro grupo . Puntos destacables del HSRP Active Router : Es el router activo que recibe el tráfico para ser reenviado a su destino . Standby Router : Es el router de backup en caso de que el Active Router se caiga. Virtual Router : No es un router, pero representa al grupo HSRP como un router virtual y es el actual default gateway para los hosts. En realidad el host tiene configurado el default gateway del Virtual Router que realmente pertenecerá al Active router que será el encargado de reenviar los paquetes al destino.  Este protocolo envia mensajes de Hello como los de los protocolo de routing para saber si su vecino esta vivo . Estos mensajes se envían cada 3 segundos mediante la dirección multicast 224.0.0.2 y el puerto UDP 1985.  Para determinar quien sera el Active Router se decide mediante la Standby Priority. Que podremos poner valores entre 0 – 255. Por defecto viene a 100 y el que tenga la prioridad más alta es el que se escoje como Active Router. En caso de empatar con las prioridades, el router que tenga la IP address más grande será el Active Router.  En caso de no configurar la opción “preempt” sucederá que el primer router que inicie sera el escogido como Active Router . Esto lo veremos más tarde dado que esta opción permite recuperar a un Active Router cuando vuelve a estar operativo.
  • 78.  En cuanto se escoge el Active Router los demás routers estan en modo monitor a la posible espera de poder ser Active Router en caso de fallo. Esto sucede en cuanto el hold time de los hello’s llega a los 10 segundos, que es el parametro por defecto . En ese momento el Standby Router pasa a ser el Active Router y se consigue que no haya perdida de diponibilidad. 7.4-GLBP (GATEWAY LOAD BALANCING PROTOCOL).- Es un protocolo propietario de Cisco que permite balancear la carga asignando varias direcciones MAC a una misma IP virtual, esto es posible debido a que existe un router con el rol de AVG (Active Virtual Gateway) que es el encargado de responder a las solicitudes ARP de los usuarios, AVG responderá con la dirección MAC de un router AVF (Active Virtual Forwarder) según el algoritmo de balanceo seleccionado. GLBP intenta superar las limitaciones de los protocolos de router redundantes existentes mediante la adición de carga básica funcionalidad de equilibrio. Son capaces de establecer prioridades en los diferentes routers de pasarela, GLBP permite un parámetro de ponderación que se establezca. Sobre la base de esta ponderación (en comparación con otros en el mismo grupo de router virtual), peticiones ARP serán contestadas con direcciones MAC que apunta a diferentes routers. Por lo tanto, de forma predeterminada, el equilibrio de carga o balanceo de carga no se basa en la carga de tráfico, sino más bien en el número de hosts que utilizarán cada router gateway. Por defecto equilibra la carga GLBP en round-robin.
  • 79. GLBP elige a uno AVG (puerta de enlace virtual activo) para cada grupo. Otros miembros del grupo actúan como respaldo en caso de fallo de AVG. En caso de que haya más de dos miembros, el segundo mejor AVG se coloca en el estado de espera y todos los demás miembros se colocan en estado de escucha. Esto se vigila por medio de hola y temporizadores Holdtime, que son 3 y 10 segundos de forma predeterminada. El AVG elegido a continuación, asigna una dirección MAC virtual a cada miembro del grupo GLBP, incluido él mismo, lo que permite FAV (Forwarders virtuales activas). Cada AVF asume la responsabilidad por el envío de paquetes enviados a su dirección MAC virtual. Podría haber hasta cuatro FAV al mismo tiempo. Por defecto, los routers GLBP utilizan la dirección de multidifusión local de 224.0.0.102 para enviar paquetes de saludo a sus compañeros cada 3 segundos sobre UDP 3222 (origen y destino). 7.4.1-FUNCIONAMIENTO DEL GLBP.- El propósito del desarrollo GLBP era para salvar una brecha que existía con el Protocolo de Hot Standby Router (HSRP) facil implementación de balanceo de carga. Con HSRP y VRRP, la versión estándar de HSRP, el problema que existe es que sólo un único dispositivo dentro de un grupo es cada vez reenvío de tráfico en un momento dado. Cuando sólo un único dispositivo de transmisión de datos es en realidad, una gran cantidad de ancho de banda inactivo se deja sentado fuera de las interfaces de los dispositivos de reserva. Hay una manera de evitar esto mediante la configuración de múltiples grupos HSRP en los dispositivos, pero esto también requiere que la mitad de los anfitriones pueden configurar con una sola puerta de entrada y la otra mitad con otra que aumenta la cantidad de administración y sigue siendo una solución en bruto a la problema.
  • 80. GLBP funciona un poco diferente de estos otros protocolos. Para entender esto, hay dos términos para las funciones del dispositivo GLBP que necesitan ser definidos: Puerta de enlace activo virtual (AVG) y Forwarder virtual activa (FAV). El AVG es responsable de la gestión del tráfico a todos los dispositivos GLBP configurado activos Forwarder virtual (FAV). Esto se hace mediante el control del proceso de ARP. Cuando GLBP aparece, AVG es elegido, y uno de sus primeros deberes es asumir la responsabilidad de la dirección IP virtual y asignar cada uno de los dispositivos GLBP configurados con una dirección virtual MAC (incluido él mismo). Cuando un mensaje de ARP es visto por el AVG, responde y da un vistazo a estos direcciones MAC virtuales en un formato de todos contra todos; De esta manera, cada uno de los FAV se le asigna una cantidad uniforme de tráfico de los dispositivos que solicitan acceso. Hasta cuatro diferentes direcciones MAC virtuales y así FAV pueden existir de manera activa. OTROS CONCEPTOS Active Virtual Gateway (AVG): Dentro de un grupo GLBP, un router virtual (puerta de enlace) es elegido como el Active Virtual Gateway (AVG), y es el responsable de la operación del protocolo. Este router AVG tiene el valor de prioridad o la dirección IP más alta en el grupo, responde a todas las solicitudes ARP para direcciones MAC que se envían a la dirección IP del router virtual.
  • 81. Active Virtual Forwarder (AVF) Un router dentro de un grupo GLBP es elegido como Active Virtual Forwarder (AVF). Este AVF es responsable de reenviar paquetes que son enviados a la dirección mac asignada por el router AVG. Pueden existir múltiples AVF para cada grupo GLBP. Así, cuando un cliente necesita enviar paquetes al AVG con la dirección IP configurada, solicita la dirección MAC enviando una solicitud ARP (protocolo de resolución de direcciones) en la subred. El AVG responderá a estas peticiones ARP con la dirección MAC virtual de cada AVF, basado en un algoritmo de reparto de carga configurado. 7.4.2-GLBP REDUNDANCIA.- ¿Cómo funciona la redundancia con GLBP puede ser un poco confuso, especialmente si el ingeniero ha tenido experiencia con HSRP y / o VRRP. . Con GLBP, en realidad hay dos tipos diferentes de redundancia: la redundancia AVG y AVF redundancia redundancia AVG trabaja casi exactamente la misma que HSRP o VRRP redundancia una sola AVG es elegido cuando GLBP se acerca y mantiene ese papel hasta que se cae o hasta otro router toma el papel de ella. Como HSRP y VRRP, GLBP utiliza una prioridad para elegir el AVG; en el caso de un empate (el valor predeterminado es 100), se utiliza la dirección IP más alta. GLBP (AVG) de preferencia está desactivada por defecto Lo que esto significa es que la corriente de AVG debe dejar para otro dispositivo para hacerse cargo del papel, incluso si tiene una prioridad más alta.
  • 82. AVF redundancia es un poco diferente; si el dispositivo que se encarga de una dirección virtual MAC específica falla, uno de los otros FAV actuales se hace cargo de las funciones de reenvío al hacerse cargo de la dirección virtual MAC específica. Este cambio se comunica a la corriente de AVG, y más de una serie de tiempos de espera, el tráfico se transfiere desde esa dirección MAC virtual específico a otro, hasta la actualidad, FAV. Preferencia para FAV está activado por defecto. Esto permite a los otros dispositivos dentro GLBP no perder de vista cuando una FAV falla y hacerse cargo de las tareas de forma proactiva. 7.4.3-GLBP PONDERACIÓN Y SEGUIMIENTO DEINTERFAZ.- GLBP utiliza un concepto de ponderación para determinar la capacidad de carga de cada uno de los FAV. De forma predeterminada, cada una de las FAV está configurado con una ponderación de 100 (los valores van de 1 a 254). Por defecto, el comportamiento de equilibrio de carga de GLBP es utilizar todos contra todos, que siempre dará lugar a una distribución de los ejércitos de las FAV. Si este comportamiento de equilibrio de carga fue alterado para usar ponderación, a continuación, en función de la ponderación actual asignado a una FAV, cada promotor específico tendría una carga específica del tráfico. El pesaje también se puede configurar con los niveles inferior y superior. Estos se usan entonces para determinar si una AVF debe ser de reenvío. Por ejemplo, si se ha configurado con un límite inferior de 40 y un límite superior de 80
  • 83. Cuando la ponderación en un dispositivo cambió a ser menor que 40, la FAV dejaría de reenvío. Sería permanecerá en este estado hasta que su peso se incrementó por encima de 80. La ponderación de las FAV específicos se puede controlar tanto estática como dinámicamente. Cuando se configura de forma estática, la red administrador / ingeniero configurará una ponderación específica a cada FAV. Cuando se configura de forma dinámica, GLBP utiliza el estado de un objeto de seguimiento para determinar la corriente ponderación FAV. Objetos de pista pueden utilizar una serie de criterios diferentes para determinar su estado (arriba o abajo). El más básico de ellos es el estado de protocolo de línea de interfaz y la interfaz de la capacidad de enrutamiento IP (es una dirección IP configurada). La siguiente Página muestra una topología típica con GLBP
  • 84. Tipos de mecanismos de balanceo de carga en GLBP Existen tres mecanismos de equilibrio de carga que se utiliza con GLBP. Estos incluyen: 1. ROUND-ROBIN: Es el método por defecto. Cada AVF es elegido secuencialmente en la resolución de direcciones respuestas para la dirección IP virtual. A cada solicitud ARP se le responde con la dirección MAC del siguiente AVF y al llegar al final se comienza desde el inicio.
  • 85. 2. HOST-DEPENDENT: Basado en la dirección MAC de un host, el mismo AVF se utiliza siempre para un host en particular. 3. WEIGHTED: Sobre la base de la cuota depende del peso del usuario entre los routers. 7.4.4-ESTADOS DEL BALANCEO DECARGA EN GLBP.- Existen diferentes estados de AVG y AVF en un grupo GLBP. El AVG pueden tener 6 estados. Estos incluyen: 1. Disabled: significa que no hay dirección IP virtual configurada. 2. Initial: significa que la dirección IP virtual configurada pero la configuración de puerta de enlace virtual esta incompleta. 3. Listen: Se reciben paquetes Hello y el equipo pasará a "Speak" estado si no escucha mensajes de un AVG disponible. 4. Speak: Significa que el equipo está tratando de convertirse en el AVG y está informando a los demás equipos. 5. Standby: Listo para convertirse en el próximo AVG. 6. Active: significa que el equipo actual es el AVG y es responsable de responder a las solicitudes ARP para la dirección IP virtual.
  • 86. El AVF puede tener cuatro estados. Estos incluyen: 1. Disabled: significa que no hay dirección MAC virtual asignada. 2. Initial: La dirección MAC virtual está bien, pero la configuración de AVF está incompleta. 3. Listen: El AVF está recibiendo Hello y está listo para pasar al estado "activo" como AVF (Existe un AVG). 4. Active: El equipo actual es AVF y es responsable de reenviar paquetes enviados a la dirección MAC virtual que le ha sido asignada. 7.4.5-BENEFICIOS DE GLBP.-  Balanceo de carga. Puede configurar GLBP de tal manera que el tráfico de clientes de LAN puede ser compartido por múltiples routers, compartiendo así la carga de tráfico de manera más equitativa entre los routers disponibles.  Múltiples routers virtuales. GLBP soporta hasta 1.024 routers virtuales (grupos GLBP) en cada interfaz física de un router, y hasta 4 forwarders virtuales por grupo.  Preemtion. El esquema de redundancia de GLBP le permite definit un AVG con una prioridad configurable predefinida.  Autenticación. Puede utilizar un esquema simple de autenticación de contraseña de texto entre los miembros del grupo GLBP. Un router dentro de un grupo GLBP con una llave de autenticación diferente a otros routers será ignorada por otros miembros del grupo.
  • 87. 7.4.6-GLBP VIRTUAL MAC DIRECCIÓN ASIGNACIÓN.- Un grupo GLBP permite hasta cuatro direcciones MAC virtuales por grupo. El AVG es responsable de asignar las direcciones MAC virtuales a cada miembro del grupo. Otros miembros del grupo solicitan una dirección MAC virtual después descubren la AVG a través de mensajes de saludo. Gateways se les asigna la siguiente dirección MAC en secuencia. Un promotor virtual que se asigna una dirección MAC virtual por el AVG es conocido como un promotor de la virtual primario. Otros miembros del grupo GLBP aprenden las direcciones MAC virtuales desde hello mensajes. Un promotor virtual que ha aprendido la dirección MAC virtual se conoce como un promotor de la virtual secundario. 7.4.7-GLBP VIRTUAL PASARELA REDUNDANCIA.- GLBP opera redundancia puerta de enlace virtual en la misma forma que HSRP. Una puerta de enlace es elegido como el AVG, otra puerta de enlace es elegido como puerta de entrada virtual de espera, y las puertas de enlace restantes se colocan en un estado de escucha. Si un AVG falla, la puerta de entrada virtual en pausa asumirá la responsabilidad de la dirección IP virtual. Una nueva puerta de enlace virtual de espera es entonces elegido de las pasarelas en el estado de escuchar.
  • 88. 7.4.8-GLBP REDUNDANCIA FORWARDER VIRTUAL.- Redundancia promotor virtual es similar a la redundancia de puerta de enlace virtual con una FAV. Si la FAV falla, uno de los transitarios virtuales secundarias en el estado escuchar hacen responsables de la dirección MAC virtual. El nuevo AVF es también un promotor de la virtual primario para un número promotor diferente. GLBP migra anfitriones lejos de la vieja serie promotor utilizando dos temporizadores que comienzan tan pronto como la puerta cambios en el estado promotor virtual activo. GLBP utiliza los mensajes de saludo para comunicar el estado actual de los temporizadores. El tiempo de redirección es el intervalo durante el cual el AVG sigue redirigir anfitriones a la antigua dirección MAC promotor virtual. Cuando expire el tiempo de redirección, el AVG detiene redirigir anfitriones al transportista virtual, aunque el promotor virtuales seguirá reenviar paquetes que fueron enviados a la antigua dirección MAC promotor virtual. El Holdtime secundaria es el intervalo durante el cual el promotor virtual es válida. Cuando el Holdtime secundaria expira, el promotor virtual se elimina de todas las pasarelas en el grupo GLBP. El número forwarder virtuales espirado se vuelve elegible para la reasignación por la AVG.