SlideShare una empresa de Scribd logo
1 de 64
II. Calidad de servicio (QoS).
En una red convergente las redes acarrean voz, video y tráfico de datos, estos flujos usan los
mismos medios. Estas diferentes ráfagas de tráfico difieren dramáticamente debido a sus
requerimientos, que nos acarrean varios problemas. Los más críticos son la voz y el video ya que
son muy sensibles al tiempo y deben tener mayor prioridad.
En una red convergente, constantemente paquetes pequeños de voz compiten con el tráfico de
datos. Los paquetes de voz en una red convergente son my pequeños, estos no son tolerantes al
retardo y las variaciones de retardo que estos sufren al atravesar la red. Cuando esto ocurre en la
voz se interrumpe y las palabras no son comprensibles.
Los paquetes IP son grandes y por naturaleza los paquetes toleran retardos y pérdidas. Estos es
posible porque se pueden retransmitir parte de un archivo de datos. Pero no es factible
retransmitir parte de una conversación de voz. La voz y el video deben tener mayor prioridad
sobre los datos.
Los administradores de red y los arquitectos de red requieren verificar el performance de la red
para manejar el retardo, la variación del retardo (jitter), ancho de banda y los parámetros de
paquetes perdidos con las técnicas de calidad de servicio (QoS).
Las ráfagas multimedia, como las usadas en la telefonía IP o en las videoconferencias son muy
sensibles al retardo y crean una única demanda de QoS. Si el servicio esta basado en el método
Best-effort, los paquetes no llegaran en orden, desfazados en tiempo o talvez no todos lleguen.
Dando como resultado imágenes borrosas, con movimientos lentos y el sonido no estará
sincronizado con las imágenes.
Problemas de calidad en una red convergente
Dentro de los problemas más comunes en una red convergente se encuentran:
La falta de ancho de banda: los flujos de múltiples compiten por una cantidad limitada de ancho de banda.
Retraso de extremo a extremo(fijos y variables): Los paquetes tienen que atravesar muchos dispositivos de red y
enlaces; este viaje se suma a la demora en general.
La variación de retardo (jitter): A veces hay una gran cantidad de tráfico de otros, lo que resulta en la demora variada y
creciente.
La pérdida de paquetes: Los paquetes pueden tener que ser descartados cuando se congestiona un enlace.
Medición de ancho de banda disponible
El ancho de banda máximo disponible es el ancho de banda del enlace más lento.
Múltiples flujos están compitiendo por el mismo ancho de banda, dando como resultado un menor ancho de banda
disponible para una sola aplicación.
La falta de ancho de banda puede tener impactos en el rendimiento en las aplicaciones de red.
2.1 Introducción a la Calidad de Servicios (QoS).
Calidad de servicio (QoS, Quality of Service) se refiere a la capacidad de una red de proporcionar
servicio preferencial al tráfico de la red seleccionado. El objetivo principal de QoS es proporcionar
prioridad, incluyendo ancho de banda dedicado, latencia, fluctuaciones controladas y menor
pérdida de paquetes.
Al crear las políticas de QoS para una organización, es importante enfocarse en el tipo de tráfico
que necesita tratamiento preferencial. Los diseñadores de red deben considerar de qué manera
los problemas de QoS afectan no sólo a los dispositivos de una red, sino también a las aplicaciones
que utilizan la red.
Los usuarios perciben la calidad del servicio según dos criterios:
• La velocidad con la que la red reacciona a sus solicitudes
• La disponibilidad de las aplicaciones que desean usar
QoS permite controlar estos aspectos para los flujos de tráfico dentro de la infraestructura de la
red y para las aplicaciones que utilizan la red.
Algunos de los dispositivos Cisco, como los routers, cuentan con mecanismos de QoS
incorporados.
INCREMENTANDO EL ANCHO DE BANDA DISPONIBLE
La mejor manera de aumentar el ancho de banda es aumentar la capacidad del enlace de la red para dar
cabida a todas las aplicaciones y usuarios, permitiendo ancho de banda adicional. Aunque esta solución
parece simple, el aumento de ancho de banda es caro y lleva tiempo poner en práctica. A menudo hay
limitaciones tecnológicas en la mejora de un mayor ancho de banda.
La mejor opción es clasificar el tráfico en las clases de calidad de servicio y dar prioridad a cada clase de
acuerdo a su importancia relativa. El mecanismo de colas de base es “First In First Out” (FIFO). Otros
mecanismos de cola proporcionar granularidad adicionales para atender la voz y el tráfico críticos.
Diferentes tipos de de tráfico deberían tener suficiente ancho de banda para apoyar sus requerimientos de
aplicación. El tráfico de voz debe recibir mayor prioridad de reenvío, y el tráfico menos importante debe
recibir el ancho de banda no asignados que queda después de acomodar el tráfico que es de prioridad.
Cisco IOS software QoS proporciona una variedad de mecanismos para dar prioridad de ancho de banda a
determinadas clases de tráfico:
•Prioridad de cola (PQ) o la uso de cola (CQ)
•Ronda Modificado Déficit Robin (MDRR) (en Cisco 12000 Series Routers)
•Tipo de servicio distribuido (ToS)-basado y el grupo de QoS basado en colas equitativas (WFQ) (en el 7x00
de la serie Cisco Routers)
•Clase base equitativa de cola (CBWFQ)
•Baja latencia de cola (CII)
Una manera de aumentar la relación ancho de banda disponible es optimizar el uso de enlaces mediante la
compresión de la carga útil de los marcos (virtualmente). La compresión, sin embargo, también aumenta la
demora debido a la complejidad de los algoritmos de compresión. El uso de la compresión de hardware
puede acelerar las compresiones de carga útil del paquete. Stacker y Predictor son dos algoritmos de
compresión que están disponibles en el software Cisco IOS.
Otro mecanismo que se utiliza para vincular la eficiencia de ancho de banda es la compresión de
encabezado. La compresión del encabezado es especialmente eficaz en las redes donde la mayoría de los paquetes de
datos son pequeños (es decir, cuando la carga a razón de encabezado es pequeño). Ejemplos típicos de la compresión de
encabezado son la compresión de encabezado TCP y Real-Time Transport Protocol (RTP).
USANDO EL ANCHO DE BANDA DISPONIBLE EFICIENTEMENTE
Usando los mecanismos de cola avanzada y de compresión de encabezado, el ancho de banda disponible
puede utilizarse de manera más eficiente:
Voz: LLQ y compresión de encabezado RTP
Tráfico interactivo: CBWFQ y la compresión de encabezado TCP
TIPOS DE RETARDO
Existen cuatro tipos de retardo:
Retardo en el procesamiento: Retardo en el procesamiento es el tiempo que le toma a un router (o switch
de capa 3) para poner un paquete de una interfaz de entrada y ponerlo en la cola de salida de la interfaz. El
retraso en el procesamiento depende de varios factores:
• Velocidad de la CPU
• Uso de la CPU
• IP modo de cambio
• Arquitectura de router
• Características configuradas en ambas interfaces.
Retardo de cola: El retardo de cola es el tiempo que un paquete se encuentra en la cola de salida de un
router. Este depende del número de paquetes que ya están en la cola y el tamaño de los paquetes. También
depende del ancho de banda de la interfaz y el mecanismo de manejo de cola que utilize.
Retardo de serialización: Es el tiempo que se tarda en colocar un frame en el medio físico para transportarlo.
Este retraso suele ser inversamente proporcional al ancho de banda del enlace.
Retardo de propagación: Retardo de propagación es el tiempo que tarda el paquete de cruzar el enlace de
un extremo a otro. Este por lo general depende del tipo de medios de comunicación que se utilizan, ya sea
de datos, voz o vídeo. Por ejemplo, los enlaces por satélite producen el retardo de propagación más largo
debido a la gran altura de los satélites de comunicaciones.
EL IMPACTO DEL RETARDO Y DEL JITTER EN LA CALIDAD
Retardo de extremo a extremo: Es la suma de todos los retardos, propagación, transformación, serialización,
y los retrasos de cola en la ruta.
Jitter: es la variación del retardo. En las redes best-effort, la propagación y los retrasos de serialización son fijos,
mientras que el procesamiento y la cola son retardos impredecibles.
CAMINO PARA REDUCIR EL RETARDO
Al considerar las soluciones al problema de retardos, hay dos cosas a considerar:
El procesamiento y el retardo de colas están relacionados con los dispositivos y están vinculados con el
comportamiento del sistema operativo.
La propagación y los retardos de señalización están relacionados con los medios de comunicación.
Hay muchas formas de reducir la demora en un router. Suponiendo que el router tiene el poder suficiente
para tomar decisiones de reenvío rápidamente, hay factores que influyen en la mayoría de colas y retardos
de señalización:
• Tamaño promedio de la cola.
• Tamaño promedio de los paquetes en la cola
• Ancho de banda del enlace
Los administradores de red pueden acelerar el envío de paquetes para los flujos sensibles:
Aumentar la capacidad del enlace: ancho de banda suficiente para reducir las colas, con la finalidadde que
los paquetes no esperen mucho tiempo antes de poder transmitirse. El aumento de ancho de banda reduce
el tiempo de serialización. Este enfoque puede ser poco realista debido a los costos que están asociados con
la actualización.
Dar prioridad a los paquetes sensibles: Este enfoque puede ser más efectivo en relación con el costo, que el
aumento de la capacidad de enlace. WFQ, CBWFQ, y LLQ pueden servir en primer lugar para el manejo de
las colas (este es un tipo de medidas preventivas de las colas de servicio).
Cambiar la prioridad de los paquetes: En algunos casos, es necesario cambiar la prioridad de los paquetes
importantes cuando se entra o sale de un dispositivo.
Compresión de carga: La compresión de carga reduce el tamaño de los paquetes, lo que aumenta
virtualmente el ancho de banda del enlace. Los paquetes comprimidos son más pequeños y se utiliza menos
tiempo para su transmisión. La compresión usa algoritmos complejos que añaden demora. Si está utilizando
la compresión de carga para reducir los retardos, asegúrese de que el tiempo que se necesita para
comprimir la carga no afecta los beneficios de tener menos datos que transferir por el enlace.
Compresión de encabezado: la compresión de encabezado no es tan intensivo con el CPU como la
compresión de la carga. La compresión de encabezado reduce el retardo cuando se usa con otros
mecanismos. La compresión de encabezado es especialmente útil para los paquetes de voz que tienen una
mala relación de carga entre el encabezado y los datos(el encabezado es grande relativamente en
comparación con la carga), que es mejorada por la reducción de la cabecera del paquete (compresión de
encabezado RTP).
Al minimizar la demora, los administradores de redes también puede reducir el jitter (el retardo es más
predecible que el jitter y más fácil de reducir).
EL IMPACTO DE PAQUETES PERDIDOS
Después del retardo, la preocupación más grave para las redes es la pérdida de paquetes. Por lo general, la
pérdida de paquetes se produce cuando los routers se quedan sin espacio de almacenamiento para una
interfaz particular (cola de salida).
TIPOS DE DESCARTE DE PAQUETES
Cola de interfaz de salida llena, hace que los paquetes nuevos que llegan van a ser retirados. El término que
se utiliza para el descarte es "descarte de salida" o "cola de descarte" (descarta los paquetes en la cola de la
cola).
Los Routers también pueden eliminar paquetes por otras razones menos comunes:
• Caída de la cola de entrada: La CPU principal está ocupado y no puede procesar los paquetes (la cola de
entrada está llena).
• No haga caso de: El router se queda sin espacio en el buffer.
• Sobrecarga: La CPU está ocupado y no puede asignar un espacio libre en el buffer al nuevo paquete.
• Errores del frame: El hardware detecta un error en el frame, por ejemplo, controles de redundancia cíclica
(CRC), incompleto y gigante.
Politicas de tráfico y configuración de tráfico
Cisco IOS software QoS proporciona los siguientes mecanismos para evitar la congestión:
Politicas de Tráfico se propaga en forma desencadenada. Cuando la tasa de tráfico alcanza la tasa máxima
configurada, el exceso de tráfico se descarta. El resultado es una tasa de salida que aparece como un diente
de sierra, con crestas y valles.
La configuración de tráfico en contraste con las políticas de tráfico, retiene el exceso de paquetes en una
cola y luego programan la transmisión más tarde por los incrementos de tiempo. El resultado de la
configuración del tráfico es una versión filtrada de la tasa de salida de paquetes.
Hacer implica la existencia de una cola y de la memoria suficiente para almacenar los paquetes con retraso,
mientras que las politicas no lo hacen. La cola es un concepto de salida, los paquetes que vayan a salir por
una interfaz pasan a la cola y puede ser clasificado. Sólo la politica puede aplicar al tráfico entrante en una
interfaz. Asegúrese de que tiene suficiente memoria al habilitar la configuración. Además, la configuración
requiere una función de programación para la transmisión posterior de los paquetes con retraso. Esta
función de programación le permite organizar la cola de la formación en diferentes colas. Ejemplos de
funciones de programación están CBWFQ y LLQ.
2.2 Modelos de Qos: Best-Effort, IntServ , DiffServ
Existen tres modelos de QoS
Modelo Caracteristicas
Best effort No se aplica QoS a los paquetes. Si no es importante cuándo o cómo los paquetes llegan, este
es el modelo más adecuado.
Servicios
Integrados
(IntServ)
Configuración a la señal de la red para las aplicaciones que requieren ciertos parámetros de
QoS (calidad de servicio).
Servicios
Diferenciados
(DiffServ)
La red reconoce las clases de tráfico que requieren QoS.
2.2.1 Best – effort
El diseño básico de la Internet se basa en el modelo best-effort para la entrega de paquetes de mayor
esfuerzo y no ofrece garantías. Este planteamiento sigue siendo predominante en Internet hoy en día y sigue
siendo apropiado para la mayoría de propósitos. El modelo best-effort trata a todos los paquetes de la red
de la misma manera, así que un mensaje de voz de emergencia se trata de la misma manera que una
fotografía digital adjunta a un e-mail. Sin calidad de servicio, la red no puede decir la diferencia entre los
paquetes y, en consecuencia, no puede tratar a los paquetes de preferencia.
Cuando usted envía una carta utilizando el correo postal tradicional, está utilizando el modelo best-effort. Su
carta es tratada exactamente igual que todas las letras de otros. Con el modelo de best-effort, la carta no
puede o no llegar, a menos que tenga un acuerdo de notificación por separado con los que recibieron la
carta, usted nunca puede saber que la carta no llegó.
Beneficios:
• El modelo tiene una escalabilidad prácticamente ilimitada. La única manera de llegar a los límites
de escalabilidad es llegar a los límites de ancho de banda, en cuyo caso todo el tráfico se ve
igualmente afectado.
• No es necesario emplear mecanismos de QoS especial para utilizar el modelo best-effort. Ademas
de que es el más fácil y rápido de implementar.
Desventajas:
• No hay garantías de entrega. Los paquetes llegarán siempre que puedan y en cualquier orden
posible, si es que llegan todos.
• No hay paquetes que tengan un trato preferencial. Los datos importantes se tratan del
mismo modo casual que el e-mail se trata.
2.2.2 INTSERV
Servicios Integrados (IntServ) proporciona una manera de lograr el end-to-end QoS, que aplicaciones en
tiempo real requieren, de forma explícita realiza la gestión de los recursos de red para proporcionar calidad
de servicio para flujos de paquetes específicos de usuarios, a veces llamado microflujos. IntServ utiliza
recursos de reserva y admisión de los mecanismos de control como elementos fundamentales para
establecer y mantener la calidad de servicio. Esta práctica es similar a un concepto conocido como “calidad
de servicio duro (Hard QoS)”.Este garantiza las características del tráfico, tales como el ancho de banda,
retraso, y las tasas de pérdida de paquetes, de extremo a extremo. Hard QoS asegura garantizados y
predecibles los niveles de servicio para aplicaciones críticas.
IntServ utiliza el Protocolo de reserva de recursos (RSVP) para indicar de forma explícita la calidad de servicio
de las necesidades de tráfico de una aplicación a lo largo de los dispositivos de extremo a extremo a través
de la ruta de red. Si los dispositivos de red a lo largo de la ruta de acceso pueden reservar el ancho de banda
necesario, se puede empezar a transmitir. Si la reserva solicitada no se realiza por el camino, no se envía
ningún dato.
En el modelo IntServ, la aplicación solicita un tipo específico de servicio de la red antes de enviar datos. La
aplicación informa a la red de su perfil de tráfico y pide un determinado tipo de servicio que puede abarcar
el ancho de banda y los requisitos de demora. La aplicación envía los datos sólo después de que reciba la
confirmación de los requisitos de ancho de banda y retardo de la red.
La red realiza el control de admisión basado en la información de la aplicación y recursos de red disponibles.
La red se compromete a cumplir los requisitos de calidad de servicio de la solicitud, siempre que el tráfico se
mantenga dentro de las especificaciones del perfil. La red cumple con su compromiso de mantener el estado
por flujo y luego de realizar la clasificación de paquetes, la aplicación de politicas, y el manejo de colas
inteligente basado en ese estado.
FUNCIONES DE INTSERV
Como un medio de ilustrar la función del modelo IntServ, la figura muestra la parte de control y de datos.
Además la señalización de extremo a extremo, IntServ requiere de varias funciones, a fin de estar
disponibles en los routers y switches a lo largo de la ruta de red. Estas funciones son las siguientes:
Control de acceso: Control de acceso determina si un nuevo flujo solicitado por los usuarios o los sistemas
se puede conceder con la calidad de servicio requerido, sin afectar las reservas existentes a fin de garantizar
QoS de extremo a extremo. Control de acceso garantiza que los recursos estén disponibles antes de permitir
una reservación.
Clasificación: Supone el uso de un descriptor de tráfico para categorizar un paquete dentro de un grupo
específico, para definir ese paquete y hacer posible el manejo de QoS en la red. La clasificación es
fundamental para las técnicas de políticas que los paquetes utilizan antes de seleccionar los diferentes tipos
de servicio QoS.
Politicas: Toma la acción, incluido el posible descarte de paquetes, cuando el tráfico no se ajusta a sus
características especificadas. Las politicas son definidas por los parámetros de velocidad y promedio, así
como por las acciones en el perfil y fuera del tráfico de perfil.
De cola: La cola acomoda la congestión temporal, en una interfaz de un dispositivo de red mediante el
almacenamiento de los paquetes excesivos, hasta que se tenga el acceso al ancho de banda disponible.
Programación: Un componente de calidad de servicio, el programador de calidad de servicio, negocia
solicitudes simultáneas de acceso a la red y determina que la cola es la prioridad principal. IntServ utiliza la
programación de round robin. La programación de Round Robin es un enfoque de tiempo compartido en el
que el programador le da una porción de tiempo breve para cada puesto de trabajo antes de pasar a la
siguiente tarea. De esta manera, todas las tareas se ejecutan, poco a poco, de forma controlada. La
programación de paquetes debe de cumplir con la reservación de colas y la programación de paquetes para
su transmisión.
Beneficios:
IntServ apoya el control de admisión que permite que le permite a una red rechazar o rebajar nuevas
sesiones RSVP si una de las interfaces en el camino ha llegado al límite (esto es, si todo el ancho de banda
que puede ser reservado es reservado).
RSVP señales de peticiones de QoS para cada flujo individual. En la solicitud, se envía el usuario autorizado
(objeto de la autorización) y la política de tráfico necesarios (objeto de la política). La red puede ofrecer
garantías a estos flujos individuales.
RSVP informa a los dispositivos de red de los parámetros de flujo (las direcciones IP y números de puerto).
Algunas aplicaciones utilizan números de puertos dinámicos, tales como las aplicaciones basadas en H.323,
lo que puede ser difícil para los dispositivos de red a reconocer. La Red de aplicaciones basada en el
reconocimiento (NBAR) es un mecanismo que complementa RSVP para las aplicaciones que utilice los
números de puertos dinámicos.
Desventajas:
No es continua, porque la señalización de la arquitectura de RSVP con estado que se suma a la sobrecarga
de ancho de banda. RSVP sigue la señalización para toda la duración del flujo. Si los cambios de red, o los
vínculos de enrutamiento y la convergencia no se produce, la red puede no ser capaz de soportar la
reservación.
El flujo de enfoque no es escalable para implementaciones de gran tamaño, como la Internet pública,
porque en el RSVP se lleva registro de cada flujo individual. Esta circunstancia hace la señalización de
extremo a extremo difícil. Una posible solución es combinar IntServ con los elementos del modelo DiffServ
para proporcionar la escalabilidad necesaria.
PROTOCOLO DE RESERVACIÓN DE RECURSOS (RSVP)
Protocolo de reservación de recursos (RSVP) se utiliza para implementar modelos IntServ.
El Protocolo de reserva de recursos (RSVP) es una red de protocolos de control que permite a las
aplicaciones de Internet obtener distintas calidades de servicio (QoS) para sus flujos de datos. Esta
capacidad reconoce que las diferentes aplicaciones tienen diferentes requisitos de rendimiento de la red.
Algunas aplicaciones, como los más tradicionales y aplicaciones interactivas, exigen la entrega fiable de
datos, pero no imponen ningún requisito estricto para la puntualidad de la entrega. Más nuevos tipos de
aplicaciones, incluyendo videoconferencia, telefonía IP, y otras formas de comunicaciones multimedia
requieren casi exactamente lo contrario: la entrega de datos debe ser oportuna, pero no necesariamente
fiables. Por lo tanto, RSVP tiene por objeto proporcionar redes IP con la capacidad de soportar los requisitos
de rendimiento divergentes de los diferentes tipos de aplicaciones.
Es importante tener en cuenta que RSVP no es un protocolo de enrutamiento. RSVP trabaja en conjunto con
los protocolos de enrutamiento e instala el equivalente de las listas de acceso dinámico a lo largo de las
rutas que utilizan los protocolos de enrutamiento. Por lo tanto, la aplicación de RSVP en una red existente
no requiere la migración a un nuevo protocolo de enrutamiento.
Si los recursos están disponibles, RSVP acepta una reservación e instala un clasificador de tráfico para
asignar una clase de calidad de servicio temporal, para darle una determinada QoS al flujo del tráfico. El
clasificador de tráfico indica la ruta de transmisión de QoS la forma de clasificar los paquetes de un flujo
particular y qué tratamiento de transmisión a proporcionar.
RSVP es un protocolo IP que utiliza el protocolo IP ID 46 y TCP y el puerto UDP 3455.
En RSVP, un flujo de datos es una secuencia de datagramas que tienen el mismo origen, destino
(independientemente de que el destino es una o más máquinas físicas), y los requisitos de QoS. Los
requisitos de QoS se comunican a través de una red a través de un pliego de condiciones de flujo. Una
especificación de flujo describe el nivel de servicio que se requiere para que el flujo de datos.
RSVP se centra en los siguientes dos tipos principales de tráfico:
Tasa de tráfico sensible: El tráfico que requiere una tasa de entrega garantizada y constante (o casi
constante) desde su origen hasta su destino. Un ejemplo de tal aplicación es la videoconferencia H.323.
RSVP permite una tasa de bits constantes en las redes de conmutación de paquetes a través de su índice de
nivel de sensibilidad de servicio. Este servicio se refiere a veces como garantía de tasa de servicio de bits.
Tráfico sensible al retraso: El tráfico que requiere puntualidad de la entrega y que varía según su tipo de
consecuencia. De vídeo MPEG-II, por ejemplo, un promedio de 3 a 7 Mbps, dependiendo de la velocidad a la
que la imagen está cambiando. RSVP apoya a los servicios de tráfico sensible al retraso que se denominan
servicio de control de retardo (no servicio en tiempo real) y el servicio de predicción (servicio en tiempo
real).
DEMONIO RSVP
Cada nodo que utiliza RSVP consta de dos módulos de decisiones locales:
De control de admisión: El control de admisión realiza un seguimiento de los recursos del sistema y
determina si el nodo tiene los recursos suficientes para satisfacer la calidad de servicio requerida. El
demonio de RSVP monitorea estas acciones de control. Si cualquier acción de verificación falla, el programa
RSVP devuelve un mensaje de error a la aplicación que originó la petición. Si ambas comprobaciones tienen
éxito, el demonio de RSVP establece los parámetros en el clasificador de paquetes y el Programador de
paquetes QoS para obtener el pedido.
Política de Control: Control de directiva que determina si el usuario tiene permisos de administrador para
realizar la reservación.
Si tanto el control de admisión como el control de políticas tienen éxito, el demonio a continuación,
establece los parámetros en las dos entidades, clasificador de paquetes y Programador de paquetes.
Clasificador de paquetes: El clasificador de paquetes RSVP determina la clase de ruta y la calidad de servicio
para cada paquete.
Programador de paquetes: el Programador de paquetes RSVP ordena los paquetes para su transmisión con
el fin de lograr la calidad de servicio prometida para cada flujo. El planificador asigna recursos para la
transmisión en un medio de la capa de enlace de datos para cada interfaz.
Proceso de enrutamiento-El demonio de RSVP también se comunica con el proceso de enrutamiento para
determinar la ruta de acceso para enviar sus solicitudes de reservacion y de manejar cambios entre las rutas.
Cada router que participa en la reservacion de recursos pasa los paquetes de datos entrantes a un
clasificador de paquetes y los paquetes de las colas en caso necesario a un planificador de paquetes.
Una vez que el clasificador de paquetes determina la clase de ruta y la calidad de servicio para cada paquete,
y el programador asigna recursos para la transmisión, RSVP pasa la solicitud a todos los nodos (routers y
hosts) a lo largo de las rutas de datos inversa a las fuentes de datos. En cada nodo, el programa RSVP aplica
un procedimiento de decisión local llamado control de admisión para determinar si ese nodo puede
proporcionar la calidad de servicio requerida. Si tiene éxito el control de admisión en la prestación de la
calidad de servicio requerida, el programa RSVP establece los parámetros del clasificador de paquetes y
planificador para obtener la calidad de servicio deseado. Si falla el control de admisión en cualquier nodo, el
programa RSVP devuelve una indicación de error a la aplicación que originó la petición. Los Routers a lo
largo de la ruta de datos de la secuencia inversa repiten esta reserva hasta que la reserva se fusiona con otra
reserva para el flujo de la misma fuente.
Diffserv
Los servicios diferenciados (DiffServ) especifican una arquitectura simple, escalable y granular gruesa para la
clasificación y gestión de tráfico de red y proporcionar garantías de QoS. Por ejemplo, Diffserv puede
proporcionar servicio garantizado de baja latencia (SG) para el tráfico de red críticos, tales como voz o video
mientras que proporciona la garantías best-effor a los servicios no críticos, tales como el tráfico web o
transferencias de archivos.
2.3 Descripción de DiffServ QoS.
El diseño DiffServ supera las limitaciones tanto del modelo best-effor como IntServ. DiffServ puede
proporcionar una calidad de servicio "casi garantizado" sin dejar de ser rentable y escalable.
El concepto de calidad de servicio suave es la base del modelo DiffServ. Hay que recordar que IntServ (QoS
duro) utiliza la señalización en la que el host final tiene sus propias QoS en base a las necesidades de la red.
DiffServ no utiliza la señalización, pero trabaja en el provisionamiento del modelo QoS, donde los elementos
de red están configurados para dar servicio de múltiples clases de tráfico a cada uno con diferentes
requisitos de QoS. Al clasificar los flujos en agregados (clases), y proporcionar calidad de servicio adecuado
para los agregados, DiffServ puede evitar una complejidad significativa, los costos y problemas de
escalabilidad.
Por ejemplo, en los grupos de DiffServ todos los flujos TCP se toman como una sola clase, y asigna el ancho
de banda para esa clase, en lugar de para los flujos individuales como QoS duro (DiffServ). Además de la
clasificación de tráfico y señalización, DiffServ minimiza los requisitos de mantenimiento del estado de cada
nodo de la red.
DiffServ divide el tráfico de red en las clases basadas en las necesidades de negocios. Cada una de las clases
se les puede asignar diferentes niveles de servicio. Como a los paquetes al atravesar una red, cada uno de
los dispositivos de red identifica la clase de paquetes y servicios el paquete de acuerdo a esa clase.
El modelo de QoS duro (IntServ), prevé una solución end-to-end QoS, utilizando la señalización de extremo a
extremo, el estado de mantenimiento y control de admisión. Este método consume importantes gastos,
restringiendo así su capacidad de ampliación. Por otra parte, DiffServ no puede hacer cumplir las garantías
de extremo a extremo, pero es un enfoque más escalable para la aplicación de QoS. Los mapas DiffServ
divide muchas aplicaciones en pequeños grupos de clases. DiffServ asigna a cada clase un conjunto similar
de calidad de servicio y cumple las conductas y aplica mecanismos de QoS en base a un salto a salto,
aplicando de manera uniforme el sentido global de cada clase de tráfico para proporcionar la flexibilidad y la
escalabilidad.
DiffServ funciona como un servicio de entrega de paquetes. Usted pide (y paga) un nivel de servicio al enviar
su paquete. A lo largo de la red de paquetes, el nivel de servicio es reconocido y tu paquete es ya sea
preferencial o normal de servicio, dependiendo de lo que se solicite.
Beneficios:
• Altamente escalable
• Muchos niveles de calidad posible
Desventajas:
• No hay garantía absoluta de servicio
• Requiere un conjunto de mecanismos complejos para trabajar en conjunto en toda la red
2.4 Clasificación y Marcado de Tráfico.
La clasificación es el proceso de identificación y de categorización de una clase de trafico. La
clasificación utiliza un descriptor de tráfico para categorizar un paquete dentro de un grupo
específico que define ese paquete. Después de que el paquete ha sido clasificado o identificado, el
paquete es accesible para el manejo de QoS en la red.
Los descriptores de tráfico que se suelen utilizar incluyen:
• Interfaz de entrada
• Precedencia IP
• Punto de código de servicios diferenciados (DSCP)
• Dirección origen o destino
• Aplicación
Usando la clasificación, los administradores de red pueden partir el tráfico de red en múltiples
clases de servicio (CoS). Cuando los descriptores de tráfico se utilizan para clasificar el tráfico, la
fuente implícitamente se compromete a cumplir las condiciones contratadas y las promesas de
QoS para la red. Varios mecanismos de QoS, tales como las politicas de tráfico, y técnicas de
puesta en cola, utilizar el descriptor de tráfico del paquete (es decir, la clasificación de los
paquetes) para garantizar el cumplimiento de ese acuerdo.
La clasificación debe tener lugar en el borde de la red, típicamente en el armario de cableado,
dentro de los teléfonos IP, o en los extremos de la red.
Cisco recomienda que la clasificación se produzca tan cerca de la fuente del tráfico como sea
posible.
NOTA: El termino clasificación es intercambiable con el termino clasificación de paquetes.
El Marcado está relacionado con la clasificación. Las Herramientas de clasificación de QoS
clasifican los paquetes al examinar el contenido del frame, celda , y el encabezado de los
paquetes, mientras que el marcado de QoS proporcionan una herramienta para cambiar la
cabecera del paquete para facilitar la clasificación.
El marcado consiste en colocar un valor en uno de los pocos frames bien definido, un paquete, o
campos de cabecera de la celda específicamente diseñado para el marcado de QoS. Al marcar un
paquete, otras funciones de calidad de servicio pueden realizar una clasificación basada en el
campo marcado dentro del encabezado. El marcado simplifica el diseño de la red en QoS, que
facilita la configuración de otras herramientas de QoS, y reduce los gastos generales requeridos
por cada una de las otras herramientas de QoS para clasificar los paquetes.
Marcar un paquete o un frame con su clasificación permite a los dispositivos de red con
posterioridad distinguir fácilmente el paquete o frame marcado como pertenecientes a una clase
específica. Después de los paquetes o frames se identifican como pertenecientes a una clase
específica, los mecanismos de QoS pueden aplicarse de manera uniforme para garantizar el
cumplimiento de las normas administrativas de QoS.
Marcadores comunes:
Capa de enlace:
CoS (ISL, 802.1p)
MPLS EXP bits
Frame Relay
Capa de red:
DSCP
Precedencia IP
CLASIFICACION Y MARCADO EN LA RED LAN CON IEEE 802.1Q
El estándar 802.1Q es la especificación para implementar VLAN´s en la capa 2 de las redes. Esta
especificación define 2 campos de 2 bytes (TPID Etiqueta identificador de protocolo y TCI Etiqueta
de control de información) esta es insertada dentro de un frame ethernet después del campo del
la dirección origen.
El campo TCI incluye 3 bits que son utilizados para identificar la prioridad del usuario. Estos bits
pueden ser usados para marcar los paquetes para especificar la clase del servicio a la que
pertenecen (CoS).
El marcado CoS permite al frame de capa 2 ethernet que son etiquetados con 8 niveles de
prioridad (valores de 0 a 7). 3 bits permiten 2^3 niveles de clasificación, permitiendo una
correspondencia directa con IP versión 4 (precedencia IP) y los valores de tipo de servicio (ToS).
Una desventaja de usar marcado CoS es que los frames pierden el marcado CoS mientras transitan
en un enlace no-802.1Q. El enlace troncal con 802.1Q debe ser activado antes de que el campo
CoS exista.
Tan pronto como el paquete de capa 3 sea enviado, cualquiera con un router o con un switch de
capa 3, el antiguo encabezado LAN sea descartado y el campo CoS se puede perder. Por lo tanto,
una marca permanente en todas partes debe utilizarse para el trafico de la red . Esto es
tipicamente logrado cuando trasladamos un marcado CoS dentro de otro marcado o simplemente
utilizando otro mecanismo de marcado.
CLASIFICACION Y MARCADO EN LA EMPRESA
Frame relay provee un simple mecanismo de QoS para asegurar el tasa de transmisión
comprometida (CIR):
Las notificaciones de congestión llamadas notificación explicita de congestión hacia adelante
(FECN) y las notificaciones de congestion explicita inversa (BECN), adicionalmente de la
fragmentación de los frames de datos, cuando los frames de voz están presentes, como se
describe en el estándar Frame Relay FRF.12.
Un componente de frame relay QoS es descartar los paquetes elegibles cuando se experimenta
congestion en la red. Frame relay permite que el trafico de la red que va ser enviado exceda el CIR.
Los frames que excedan la tasa de transmisión comprometida deben de ser marcados como
elegibles para descartar (DE) al ingresar al switch frame relay. Si la congestion ocurre dentro de la
red, los frames marcados con elegibles para descartar (DE) preferentemente deben de ser
descartados antes que los frames que no están marcados.
Cuando un cliente transmite paquetes IP de un sitio a otro, el campo de precedencia IP (los 3
primeros bits del campo DSCP en el encabezado de un paquete IP) especifica el CoS. Usando la
precedencia IP, el administrador de red debe asignar valores de 0 (por defecto) a 7 para clasificar y
priorizar los tipos de tráfico. Basados en el marcado de precedencia IP, el paquete se le da el
tratamiento deseado, como es garantizar el ancho de banda o latencia. La precedencia IP es
eliminado gradualmente en favor del DSCP, pero es soportada por muchas aplicaciones y router´s.
Los bits MPLS experimentales comprenden un campo de 3 bits que se puede utilizar para asignar
prioridad IP en una etiqueta MPLS. Esto permite que los enrutadores que tengan MPLS habilitado
puedan realizar funciones de QoS basada indirectamente en el campo original de precedencia IP
dentro de los paquetes IP encapsulados por MPLS, sin necesidad de gastar recursos para buscar en
la cabecera del paquete IP y examinar el campo de precedencia IP. Si el proveedor de servicios de
red es una red MPLS, a continuación, los bits de precedencia de IP se copian en el Campo
Experimental MPLS (CAD) de campo en el borde de la red. El campo MPLS EXP permite que el
proveedor de servicios pueda ofrecer QoS sin sobrescribir el valor en el campo de los clientes de
precedencia IP. El encabezado IP queda disponible para uso del cliente, y el marcado de paquetes
IP no se cambia, mientras que el paquete viaja a través de la red MPLS
En contraste con servicios integrados (IntServ), que es de grano fino, el flujo de mecanismo basado
en el servicio diferenciado (DiffServ) es un mecanismo basado en el grano grueso, clase para la
gestión del tráfico. La arquitectura DiffServ se basa en un modelo simple en el que los paquetes de
datos se colocan en un número limitado de clases de tráfico, en lugar de diferenciar el tráfico de
red basada en las necesidades de un flujo individual. Cada clase de tráfico se pueden manejar de
otra manera, asegurando un trato preferencial para tráfico de prioridad más alta en la red.
Uno de los principios fundamentales de DiffServ es que se debe marcar los paquetes tan cerca del
borde de la red como sea posible. A menudo es una tarea difícil y toma tiempo, para determinar
qué la clase de trafico a la que un paquete de datos pertenece. Se deben clasificar los datos lo
menos que sea posible. Al marcar el tráfico en el borde de la red, los dispositivos de la red básica y
otros dispositivos a lo largo de la ruta de transmisión serán capaces de determinar rápidamente el
CoS adecuada para aplicar a un determinado flujo de tráfico. Un beneficio clave de DiffServ es la
facilidad de escalabilidad en comparación con IntServ.
HERRAMIENTAS DE CLASIFICACION PARA LA PRECEDENCIA IP Y PUNTOS DE CODIGO DIFFSERV
El byte de Tipo de Servicio IP en la capa 2 cambia a menudo, de acuerdo a los medios de
comunicación que los paquetes atraviesen desde el origen al destino, una clasificación más
omnipresente que se producen en la capa 3. El segundo byte de un paquete IPv4 es el byte tipo de
servicio (ToS). Los tres primeros bits del byte ToS solo se conocen como la prioridad de la
propiedad intelectual (PPI) de bits. Estos mismos tres bits, en relación con los próximos tres bits,
se conocen colectivamente como los bits DSCP.
Los bits de precedencia IP, como 802.1p bits de CoS, permiten sólo 8 valores de marca de (0-7).
IPP valores de 6 y 7 son generalmente reservada para el tráfico del control de la red(como el
enrutamiento).
IPP valor 5 es recomendado para la voz.
IPP Valor 4 es compartida por videoconferencia y streaming de video.
IPP valor 3 es para el control de voz.
IPP valores 1 y 2 puede ser utilizado para aplicaciones de datos.
El valor IPP 0 es el valor por defecto.
Muchas empresas encuentran al marcado IPP, como excesivamente restrictivo y limitante,
favoreciendo en cambio el modelo de marcado DSCP 6-Bit/64-value.
IP byte ToS y el campo DS dentro del encabezado IP
Para apoyar DiffServ, el IPv4 Tipo de servicio (ToS) octeto se ha redefinido de 3-bit para
precedencia IP a 6-bit para el campo DSCP. Antes de DiffServ, las redes IP podría utilizar el campo
de precedencia en el tipo de servicio (TOS) de bytes de la cabecera IP para marcar el tráfico de
prioridad.
Como el byte TOS y la precedecnia IP no era ampliamente utilizado, el IETF acordó volver a utilizar
el byte TOS como el campo DS para las redes de DiffServ. A fin de mantener la compatibilidad con
dispositivos de red que aún utilizan el campo de precedencia, DiffServ define el PHB selector de
clase.
El Selector de puntos de código de clase son de la forma 'xxx000'. Los tres primeros bits son los
bits de precedencia IP. Cada valor de precedencia IP puede ser asignada a una clase de DiffServ. Si
se recibe un paquete de un router no-DiffServ consciente de que utiliza las marcas de prioridad de
investigación, el router DiffServ todavía puede entender la codificación de punto de código como
un selector de clase.
PRECEDENCIA IP Y COMPATIBILIDAD CON DSCP
RFC 2474 sustituye el campo TOS con el campo DiffServ, en el que una serie de ocho valores
(selector de clase) se utiliza para la compatibilidad con IP precedente. No hay compatibilidad con
otros bits utilizados por el campo TOS. El selector de clase Per Hop Behavior (PHB) fue definido
para proporcionar compatibilidad hacia atrás para DSCP con Tos-basada prioridad de
investigación.
RFC 1812 simplemente da prioridad a los paquetes de acuerdo con el valor de prioridad. En este
sentido, el PHB se define como la probabilidad de transmisión puntual.
Por ejemplo, considere una oferta de proveedor de servicios de los llamados "Juegos Olímpicos"
clases de servicio (Oro, Plata, Bronce) para que los paquetes en la experiencia de la clase de oro
tengan la carga más ligera, y por lo tanto tienen mayor probabilidad de transmisión oportuna que
los paquetes asignados a la clase plata. Los paquetes con mayor precedencia IP debería ser (en
promedio) los que se transmitan en menos tiempo que los paquetes con prioridad IP más bajos.
Los últimos 3 bits del DSCP (bits 2 a 4) se ponen a 0 para identificar una clase selectora de PHB.
COMPORTAMIENTO POR SALTOS
Ahora que los paquetes pueden ser marcados con el DSCP, ¿cómo podemos proveer de CoS
significativa, y proporcionar la calidad de servicio que se necesita?
En primer lugar, la organización de los paquetes que tienen el mismo valor DSCP (también llamado
punto de código) en ellos, y de paso en una dirección determinada se denomina "el
comportamiento global (BA). Los paquetes de múltiples aplicaciones y fuentes podrían pertenecer
a la misma BA. Formalmente, RFC-2475 define un Per Hop Behavior (PHB) como el
comportamiento de reenvío externamente observables aplicado a un nodo DS compatible con un
BA DS. En términos más concretos, un PHB se refiere a la programación de paquetes, de cola, la
politica, o la configuración del comportamiento de un nodo en cualquier paquete dado que
pertenecen a una BA, y tal como está configurado por un Acuerdo de Nivel de Servicio (SLA) o la
política.
Hasta la fecha, cuatro PHBs estándares están disponibles para construir un DiffServ habilitado para
red de grano grueso, de extremo a extremo de CoS y QoS: Default, EF, AF y de clase-selector.
PHBs se definen en términos de las características de comportamiento pertinentes para las
políticas de provisión de servicio, y no en términos de mecanismos de aplicación en particular. En
general, una variedad de mecanismos de aplicación pueden ser adecuados para la aplicación de un
grupo de PHB en particular. La arquitectura DiffServ define el campo DiffServ (DS) para hacer el
comportamiento por saltos (PHB) las decisiones sobre la clasificación de paquetes y funciones de
acondicionamiento de tráfico, como la medición, marcado, dar forma, y la politica. El PHB por
defecto (definida en el RFC-2474). El valor por defecto PHB especifica que un paquete marcado
con un valor DSCP (recomendado) de `000000 'obtiene el mejor servicio posible tradicionales de
un nodo DS compatible (una red que cumple todos los requisitos básicos DiffServ). Además, si un
paquete llega a un nodo DS compatible y su valor DSCP no está asignado a cualquiera de los otros
PHBs, obtendrá el valor por defecto asignado a PHB. Class-Selector de PHB (definido en el RFC-
2474). Para preservar la compatibilidad con el sistema de propiedad intelectual de precedencia,
los valores DSCP de la forma `xxx000", donde x es 0 o 1, se definen. Estos puntos de código se
denominan de clase puntos de código de selección. El PHB asociado con un punto de código de
selección de clase es una clase de selector de PHB. Estos PHBs retienen casi el mismo
comportamiento de reenvío como nodos que implementan la propiedad intelectual basados en la
clasificación y prioridad de reenvío. Por ejemplo, los paquetes con un valor DSCP de `110000 '(IP-
precedencia 110) tienen un tratamiento preferencial de transmisión (programación, colas, etc) en
comparación con los paquetes con un valor DSCP de` 100000' (IP-precedencia 100). Estos PHBs
garantizar que los DS-compatible con los nodos pueden coexistir con la propiedad intelectual
prioridad nodos consciente, con la excepción de los bits DTS.
ESTANDARES DE GRUPOS PHB
2.5 Mecanismos de QoS para administrar y evitar la congestión de la red.
Una manera de manejar elementos de la red de un desbordamiento o congestión de tráfico es
utilizar un algoritmo de cola para ordenar el tráfico y, a continuación, establecer un método de
prioridad en un enlace de salida. El software Cisco IOS incluye las herramientas de cola siguientes:
• Primero en entrar, primero en salir (FIFO), cola
• Prioridad de cola (PQ)
• Uso de cola(CQ)
• flujo basado en ponderación de cola justo(WFQ)
• Clase basada en ponderación de cola justa(CBWFQ)
Cada algoritmo de cola fue diseñado para resolver un problema específico de tráfico de la red y
tiene un particular efecto sobre el rendimiento de la red.
FIFO básicamente es la capacidad de almacenamiento y envio
En su forma más simple, hacer cola FIFO implica el almacenamiento de paquetes, cuando la red
está congestionada y la transmisión por orden de llegada cuando la red ya no está congestionado.
FIFO es el valor predeterminado del algoritmo de cola, en algunos casos, por lo que no requiere
configuración, pero tiene varios defectos. Importante, FIFO no hace cola de decisión sobre la
prioridad de paquetes, el orden de llegada determina el ancho de banda, rapidez, y la asignación
de amortiguamiento. Tampoco prevé la protección contra los malos comportamientos de las
aplicaciones (fuentes). Rafagas de las fuentes puede causar retrasos en el tiempo de entrega de
aplicaciones sensible al tráfico, y potencialmente para el control de la red y los mensajes de
señalización. La cola FIFO es necesario en primer lugar el paso en el control de tráfico de la red,
pero las redes inteligentes de hoy necesitan algoritmos más sofisticados.
Además, una cola completa causa gotas de cola. Esto no es deseable porque el paquete podría
haberse descartado siendo un paquete de alta prioridad. El enrutador no puedo evitar que este
paquete se elimine porque no había lugar en la cola para almacenarlo (además del hecho de que
FIFO no puede decidir de un paquete de alta prioridad a uno de mínima prioridad). El software
Cisco IOS implementa algoritmos de cola que evitar las deficiencias de cola FIFO.
PQ: priorización del tráfico
PQ garantiza que el tráfico importante sea manejado mejor en cada punto donde se utiliza. Fue
diseñado para dar prioridad al tráfico de estricta importante. La prioridad de cola flexible puede
priorizar de acuerdo al protocolo de red (por ejemplo, IP, IPX o AppleTalk), interfaz de entrada, el
tamaño de paquete, dirección de la fuente/destino, y así sucesivamente. En PQ, cada paquete se
coloca en una de las cuatro colas, alta, media, normal, o baja sobre la base de una de las
prioridades asignadas. Los paquetes que no están clasificados por esta prioridad en las listas
mecanismo de descarte en la cola normal (ver Figura Siguiente). Durante la transmisión, el
algoritmo da las colas de mayor prioridad trato preferencial absoluto sobre las colas de prioridad
baja.
PQ es útil para asegurarse de que el tráfico de misión crítica que atraviesa varios enlaces WAN se
le de tratamiento prioritario.
CQ: Garantía de ancho de banda
CQ fue diseñado para permitir que varias aplicaciones u organizaciones puedan compartir la red
entre las aplicaciones con ancho de banda mínimo o requisitos específicos de latencia. En estos
entornos, el ancho de banda debe ser compartido proporcionalmente entre las aplicaciones y los
usuarios. Usted puede utilizar la característica de Cisco para proporcionar CQ ancho de banda
garantizado en un punto de congestión potenciales, asegurando el tráfico especificado en una
parte fija del ancho de banda disponible y dejando el ancho de banda restante para la circulación.
Usando una cola para el manejo de tráfico mediante la asignación de una cantidad específica de
espacio en la cola a cada clase de paquetes y, a continuación el servicio de las colas en un round-
robin (ver Figura Siguiente).
Basadas en flujos WFQ: Realizando equidad entre diferentes flujos
Para las situaciones en las que es conveniente establecer el tiempo de respuesta coherente a la
red de datos entre los paquetes pesados y ligeros de los usuarios, por igual sin necesidad de añadir
ancho de banda excesivo, la solución está basada en el flujo de WFQ (comúnmente denominado
como el justo WFQ). WFQ es una de las técnicas de colas de cisco. Es un flujo basado en el
algoritmo de cola que crea bits de equidad al permitir a cada cola ser atendidos de forma
equitativa en términos de cantidad de bytes.
WFQ asegura que las colas no se priven de ancho de banda y el trafico reciba un servicio
predecible. El bajo volumen de flujos de tráfico, que constituyen la mayoría de tráfico, recibir el
servicio de aumento de que se transmite el mismo número de bytes como los arroyos de gran
volumen. Este comportamiento resulta en lo que parece a un trato preferencial para tráfico de
bajo volumen, cuando en realidad es hacer justicia, como se muestra en la siguiente figura.
WFQ está diseñado para reducir al mínimo el esfuerzo de configuración, y automáticamente se
adapta a los cambios de red y las condiciones del tráfico. De hecho, WFQ hace un trabajo tan
bueno para la mayoría de las aplicaciones que se ha hecho la modalidad por defecto de cola en la
mayoría de las interfaces de serie configurado para ejecutarse en o por debajo de las velocidades
de E1 (2,048 Mbps). Basado en flujos WFQ crea corrientes sobre la base de una serie de
características en un paquete. Cada flujo (también llamado como una conversación) tiene su
propia cola de búfer si se experimenta congestión.
La parte ponderada de WFQ proviene de la utilización de bits de precedencia IP para proporcionar
un mejor servicio para las colas. Utilizando los valores 0 a 5 (6 y 7 están reservados), WFQ utiliza su
algoritmo para determinar cómo una cola puede prestar muchos más de servicios. WFQ es
eficiente dado que utiliza cualquier ancho de banda disponible para reenviar el tráfico de baja
prioridad. Si no hay flujos de tráfico de los flujos de mayor prioridad está presente. Esto es
diferente de tiempo estrictos división Multiplexing (TDM), que simplemente divide al ancho de
banda y permite que se queden sin utilizarse, si no hay tráfico presente para un tipo de tráfico
particular. WFQ funciona tanto con precedencia de IP y Protocolo de reserva de recursos
(RSVP).
El algoritmo de WFQ también aborda el problema de la ronda de la variabilidad de retardo de
disparo. Si el volumen de múltiples conversaciones activas es alta, sus tasas de transferencia y los
períodos entre llegadas se hacen mucho más previsible. Esto es creado por el bit-equidad. Si las
conversaciones son atendidos de manera consistente con un enfoque round-robin, la variación de
retardo (o jitter) se estabiliza. WFQ mejora enormemente algoritmos como SNA, control de enlace
lógico (LLC) y el Protocolo de Control de Transmisión (TCP), el control de la congestión. El
resultado es que es más predecible el rendimiento y tiempo de respuesta para cada flujo activo,
como muestra en siguiente figura.
La cooperación entre WFQ y QoS tecnologias de señalización
Como se mencionó anteriormente, WFQ es prioridad IP-consciente, es decir, es capaz de detectar
la mayor prioridad de los paquetes marcados con prioridad por el despachador IP y puede
programarlos con mayor rapidez, dando siempre mejor tiempo de respuesta para este tráfico. Esta
es la parte ponderada de WFQ. El campo de precedencia IP tiene valores entre 0 (por defecto) y 7
(6 y 7 están reservados y normalmente no son fijados por los administradores de red). A medida
que aumenta el valor de prioridad, el algoritmo asigna más ancho de banda para que la
conversación pueda asegurarse de que se sirve con más rapidez aun cuando se produzca
congestión. WFQ asigna un peso a cada flujo, con el fin de determinar como se van a transmitir los
paquetes en la cola. En este esquema, bajo peso se dan más servicio. Precedencia IP sirve como un
divisor de este factor de ponderación. Por ejemplo, el tráfico con una IP Valor de un campo de
precedencia de 7 recibe un peso más bajo que el tráfico con el valor de un campo de precedencia
IP de 3, y por lo tanto, tiene prioridad en el orden de transmisión.
WFQ es también RSVP-aware; RSVP WFQ utiliza para asignar espacio de amortiguación y los
paquetes de programación, y es garantía de ancho de banda para los flujos reservados. Además,
en una red Frame Relay, la presencia de la congestión está marcado por la notificación de la
congestión con interés explícito (FECN) y hacia atrás explícita la notificación de la congestión
(BECN) bits. Los pesos WFQ se ven afectados por Frame Relay al descartar elegibles (DE),
FECN, y los bits BECN cuando el tráfico se cambia por el módulo de conmutación Frame Relay.
Cuándo se marca congestión, las ponderaciones utilizadas por el algoritmo se alteran de manera
que la conversación transmite con menos frecuencia.
Basada en clases WFQ: Garantizar ancho de banda para la red
Basada en clases WFQ (CBWFQ) es una de de las nuevas herramientas de administración de la
congestion de Cisco para proporcionar una mayor flexibilidad. Cuando se desea proporcionar una
mínima cantidad de ancho de banda, el uso CBWFQ. Esto es en comparación con un deseo de
proporcionar una cantidad máxima de ancho de banda. CAR y de tráfico se utilizan en ese caso.
CBWFQ permite a un administrador de red crear clases de ancho de banda mínimo garantizado. En
lugar de proporcionar una cola para cada flujo individual, se define una clase que consta de uno o
más flujos. A cada clase se le puede garantizar un mínimo de ancho de banda.
La baja latencia de cola permite a una clase ser atendidos como una cola de prioridad estricta. El
tráfico en esta clase se le dara servicio antes de cualquiera de las otras clases. Una reserva de una
cantidad de ancho de banda que se haga. Cualquier tráfico por encima de esta reserva se descarta.
Fuera de CBWFQ, puede utilizar la propiedad intelectual prioridad RTP (también conocido como
PQWFQ) o IP reserva RTP para prestar un servicio similar para el tráfico RTP solamente.
Administración de colas (Herramientas para evitar la congestión)
Evitar la congestión es una forma de administración de colas. Las técnicas para evitar la congestión
monitorean las cargas de tráfico de red en un esfuerzo para anticipar y evitar la congestión en los
cuellos de botella de la red común, como opuesto de las técnicas de manejo de congestión estas
operan el control de la congestión después de que esta ocurre. La herramienta primaria para
evitar la congestión del Cisco IOS es Weighted Random Early Detection (WRED).
WRED: Evita congestión
Los algoritmos de detección temprana de azar (Ramdom Early Detection RED) están diseñados
para evitar la congestión en las Internetworks antes de que se convierta en un problema. RED
funciona mediante el monitoreo en los puntos de carga de tráfico en la red y estocásticamente
descarta paquetes si la congestión comienza a aumentar. El resultado de la caída es que la fuente
detecta que el tráfico se descarta y disminuye su transmisión. RED es principalmente diseñado
para trabajar con TCP en IP en entornos de redes.
WRED Cooperación con las tecnologías de señalización QoS
WRED combina las capacidades del algoritmo de RED con precedencia IP. Esta combinación
proporciona preferencia para el tráfico de manipulación para los paquetes de mayor prioridad. De
manera selectiva se puede descartar el trafico de menor prioridad cuando la interfaz comienza a
estar congestionada y puede proporcionar un rendimiento diferenciado de acuerdo a las
características de las diferentes clases de servicio. WRED es como RSVP-aware y puede
proporcionar un servicio integrado de carga controlada para QoS.
Dentro de cada cola, un número finito de paquetes pueden ser alojados. Una cola completa causa
gotas de cola. Gotas de cola es descartar los paquetes que no caben en la cola porque la cola esta
llena. Esto no es deseable porque el paquete descartado puede haber sido de alta prioridad de
paquetes y el router no tiene la oportunidad de meterlo a la cola. Si la cola no está llena, el router
puede ver la prioridad de todos los paquetes que llegan y descartar los paquetes con menor
prioridad, permitiendo que los paquetes de alta prioridad entren en la cola. A través de la gestión
de la capacidad de la cola (el número de paquetes en la cola), descartando varios paquetes, el
router puede hacer todo lo posible para asegúrese de que la cola no se llene, y que las gotas de la
cola no se experimenten. Esto permite que el router tenga que tomar la decisión de los paquetes
que debe descartar cuando aumenta la capacidad de la cola. WRED también ayuda a evitar la
congestión general en una interconexión de redes. WRED utiliza un umbral mínimo para cada nivel
de precedencia IP para determinar cuando un paquete se puede descartar. (El umbral mínimo
debe ser superado para que WRED pueda considerar un paquete como un candidato para ser
descartados).
Flujo RED: RED para No-TCP-Cumplimiento de los flujos
WRED se utiliza principalmente para los flujos TCP que permite el reenvío si se interrumpe la
transmisión de un paquete. Esto es no-TCP-cumplimiento de flujos que no permiten el reenvío si
los paquetes son descartados. El Flujo RED se utiliza para tratar con esos flujos. El enfoque consiste
en aumentar la probabilidad de descartar un flujo si supera un umbral.
Basado en flujo WRED se basa en estos dos enfoques principales para solucionar el problema de
los paquetes lineal dumping:
• Se clasifica el tráfico entrante en los flujos en función de parámetros tales como direcciones de
destino y origen y los puertos.
• Se mantiene el estado sobre los flujos de activos, que son los flujos que tienen los paquetes en
las colas de salida.
El flujo basado en WRED utiliza esta clasificación y el estado de la información para asegurar que
cada flujo no consuma más de su cuota permitida de los recursos de búfer de salida. El flujo
basado en WRED determina los flujos que monopolizan los recursos, y en mayor medida penaliza a
estos flujos.
Así es como el flujo basado en WRED asegura la equidad entre los flujos:
Este mantiene un conteo del número de flujos activos que existen a través de una interfaz de
salida. Dado el número de los flujos de activos y el tamaño de la cola de salida, el flujo basadas en
WRED determina el número de búferes disponibles por flujo.
Para que haya una cierta explosividad, el flujo basado en WRED escala el número de búferes
disponibles por flujo por un factor configurado y permite que cada flujo activo pueda tener un
cierto número de paquetes en la cola de salida.
Este factor de escala es común para todos los flujos. La salida de escala por el número de buffers
trata de limitar el flujo. Cuando un flujo excede el límite por flujo, la probabilidad de que un
paquete de ese flujo se descarte se incrementa.
2.6 AutoQoS
Cisco AutoQoS: Automatizando la entrega de las redes QoS
El auto Qos de Cisco automatiza el despliegue de politicas de QoS en un entorno de negocios,
particularmente para las grandes y medianas empresas. AutoQoS ofrece algunos beneficios como:
• Incorpora valor agregado de inteligencia en CISCO IOS y en el sistema operativo de los
CISCO catalyst que proporcionan la implementación y la administración de QoS.
• Protege los datos críticos de negocios en la empresa que maximiza su disponibilidad.
• Provee QoS para router´s y switches, simplificando el despliegue de QoS.
• Los clientes pueden implementar requerimientos de QoS para voz, video y el trafico de
datos externo, independientemente de la tecnología(PPP, Frame Relay, ATM, Politicas de
Servicio y mecanismo de eficiencia del enlace).
• Simplifica la implementación del QoS y aumenta la velocidad mediante la tecnología de
QoS en una red CISCO. Esto reduce el potencial de un error humano y minimiza los costos
de capacitación.
• Crea un mapa de clases y mapas de políticas en la experiencia de Cisco y las mejores
practicas. AutoQoS crea una configuración de QoS, siguiendo los estándares industriales,
como el modelo DiffServ, para lograr un ambiente interoperable.
• Los clientes pueden utilizar los comandos de CISCO IOS para modificar la configuración
automática generada por el AutoQoS, que se necesita para requerimientos específicos.
Cisco AutoQoS: Automatizando los elementos clave de la implementación de QoS
El Cisco AuoQoS se basa en 5 elementos claves:
• Clasificacion de las aplicaciones: AutoQoS usa una clasificación inteligente en los routers,
utilizando Reconocimiento de la Aplicación Basada en la Red (NBAR) que provee una
inspección de paquetes profunda y completa. El AutoQoS usa el Protocolo de
Descubrimiento de Cisco (CDP) para reconocer los dispositivos, ayuda para descubrir si es
que un dispositivo de la red es realmente un Cisco IP Phone.
• Generacion de Politicas: El AutoQoS evalua el rendimiento de la red y genera una politica
inicial. Esta automáticamente determina las configuraciones WAN para la framentación,
compresión, encapsulamiento y Frame Relay – ATM internetworking, elimando la
necesidad de entender la teoría de QoS y diseñar practicas en varios escenarios. El cliente
debe conocer los requerimientos adicionales o especiales para modificar la política inicial.
• Configuración: Con un comando AutoQoS configura la interfaz para priorizar el trafico
critico mientras ofrecen flexibilidad para ajustar la configuración QoS para los
requerimientos de cada red. El AutoQoS no solamente detecta los Cisco Ip Phones y activa
la configuración QoS para el puerto del teléfono, también puede desactivar las
configuraciones QoS para prevenir la actividad maliciosa cuando se mueve o reubica un
Cisco IP phone.
• Monitoreo y reportes: El AutoQoS provee visibilidad dentro de las clases del servicio
usando el sistema de ingreso y el protocolo simple de administración de red (SNMP)
trampas con notificaciones o eventos anormales( por ejemplo la perdida de paquetes
VoIP). El Cisco QoS Administrador de Politicas (QPM) es el monitor de la plataforma QoS,
cuando usas el Cisco inteligencia de red IP para proveer visibilidad de las operaciones de
red. Tambien se puede medir la salida de trafico para las aplicaciones y clases de servicios.
Podemos resolver problemas con un historial en tiempo real de QoS feedback. AutoQoS
despliega el trafico y estadísticas en graficas de líneas o barras, en bits o paquetes por
segundo, por interface o política. Cisco QPM activa la vista de graficos antes y después de
QoS deployment, tied al filtro de trafico y políticas, como resultado de las políticas QoS.
• Consistencia: Las políticas AutoQoS trabajn junto con los dispositivos Cisco, ayudando a la
consistencia en el QoS de Fin – Fin. Cisco QPM activa las siguientes vistas:
o Estadisticas sobreponiendo políticas y filtros específicos, incluyendo NBAR filtros
de aplicaciones.
o El promedio de trafico antes de aplicar las políticas QoS y el trafico transmitido
posteriormente, además del trafico descartado como consecuencia de las
políticas.
o Estadisticas de acción QoS: weighted random early detection (WRED), politicas,
organización de trafico y colas.
CONFIGURACION MANUAL DE QoS CONTRA AUTOQoS
CONFIGURANDO CISCO AUTOQoS: PREREQUISITOS DEL ROUTER
Antes de configurar Cisco AutoQos debemos de conocer sus prerrequisitos:
• Debemos asegurarnos que la interfaz no tenga políticas de QoS agregadas. No se puede
configurar AutoQoS en una interfaz que ya tenga políticas QoS agregadas.
• Activar el Cisco envio express(CEF). AutoQoS utiliza NBAR para identificar varios tipos de
trafico de las aplicaciones y CEF es un prerrequisito para NBAR.
• Cisco AutoQoS clasifica los enlaces y la alta o baja velocidad depende del ancho de banda
del enlace. Recuerde que si en una interfaz serial no se especifica el ancho de banda se le
pone 1.544 Mbps por defecto. Entonces debemos asegurarnos de tener el correcto ancho
de banda en las interfaces o subinterfaces cuando Cisco AutoQoS este activado.
Implementación de QoS en 2 fases
Fase 1: Ejecutar Auto Descubrimiento para conocer el trafico:
Se debe recolectar datos para el trafico ofrecido por algunos dias o semanas como se desee.
Usar NBAR basado en el protocolo de descubrimiento.
Realizar análisis estadísticos.
Fase 2: Generar e implementar MQC basada en políticas QoS.
Mapear las aplicaciones que correspondan con las clases Diffserv. Asignando valores apropiados
para el ancho de banda y programando parámetros.
FASE 1: PERFILES DE TRAFICO EN LOS ROUTERS CON AUTO DESCUBRIMIENTO
Iniciar la fase de auto descubrimiento usando el comando auto discovery qos en la interfaz
seleccionada.
Cuando se ejecute el auto descubrimiento, observe estas restricciones:
El comando auto discovery qos no es soportado por la subinterfaces.
No cambie el ancho de banda en la interfaz cuando utilize el comando auto discovery qos.
Se deben quitar todas las políticas aplicadas en la interfaz.
La palabra opcional trust indica que los paquetes son marcados en base al DSCP (basado en) la
clasificación de voz, video y trafico de datos. Si no se especifica esta opción CiscoAutoQos clasifica
voz, video y el trafico de datos usando NBAR y los paquetes van a ser marcados con el valor
apropiado DSCP.
Notas sobre la fase de auto descubrimiento:
Si queremos parar el autodescubrimiento, usaremos el comando no auto discovery qos. Este
comando detendrá el proceso de recolección de datos y eliminara todos los datos recolectados.
Si queremos verificar el resultado parcial de el auto descubrimiento usaremos el comando show
auto discovery qos.
EJEMPLO DE ACTIVACIÓN DE AUTO DESCUBRIMIENTO QoS
FASE 2 Configurando políticas QoS en los routers
El comando auto qos genera para la empresa plantillas basadas en datos recogidos durante la fase
de auto descubrimiento y luego instala las plantillas de la interfaz. AutoQoS utiliza estas plantillas
para crear mapas de la clase y mapas de las políticas de la red y luego los instala en la interfaz.
Para eliminar el Cisco AutoQoS de una interfaz se utiliza la forma no del comando auto qos.
Se utiliza la palabra clave voip para generar plantillas con Cisco AutoQoS VoIP.
La palabra clave trust se utiliza para la confianza (es decir, depende de) las marcas DSCP para la
clasificación de tráfico de voz. Si no se especifica la palabra clave de la confianza opcional, Cisco
AutoQoS clasifica el tráfico de voz utilizando NBAR, y las marcas de los paquetes con el valor DSCP
apropiado.
La opción fr-atm activa Cisco AutoQoS VoIP para los enlaces de frame relay a ATM.
EJEMPLO DE LA APLICACION DE AutoQoS
COMO SE VERIFICA EL AUTOQoS EN LOS ROUTERS Y LOS SWITCHES
Muestra los datos recolectados durante el auto descubrimiento para una interfaz o para todas la
interfaces.
Despliega las plantillas de Cisco AutoQoS (Mapas de políticas, mapas de clases y ACL), creadas para
una o todas las interfaces.
Muestra las estadísticas para todas las clases de paquetes configurados para todas las políticas de
servicio en una interfaz especifica, subinterfaz o PVC.
Despliega la configuración de Cisco AutoQoS VoIP que fue inicialmente creada.
Muestra la información QoS a nivel de interfaz.
Muestra los mapas que se utilizan para generar la clasificación de valores DSCP, que representa la
prioridad del trafico.
III. VoIP
Objetivo: El alumno configurará protocolos de VoIP en una red convergente para establecer
comunicaciones de voz.
3.1 Introducción a la tecnología y arquitecturas de VoIP.
Las redes convergentes permiten transmitir señales de voz y datos sobre la misma red. Muchas
empresas de telecomunicaciones usan estas redes convergentes proporcionar servicios de
telefonía y datos con una infraestructura única de red basada en IP.
Los beneficios que se obtienen al utilizar la misma infraestructura para transferir distintos tipos de
señales son:
• Uso eficiente del ancho de banda y equipamiento.
• Bajos costos de transmisión.
• Reducción de los costos de equipamiento y operación.
• Mejoramiento de la productividad al utilizar aplicaciones de telefonía IP
• Acceso a nuevos dispositivos de comunicación.
La telefonía IP también es conocida como IP Telephony o Packet Telephony
Requerimientos de una red para soportar VoIP
A continuación se mencionan aspectos importantes que se deben tener en la red IP para implantar
este servicio en tiempo real
• Manejar peticiones RSVP que es un protocolo de reservación de recursos.
• El costo de servicio debe estar basado en el enrutamiento para las redes IP.
• Donde se conecta con la red publica conmutada un interruptor de telefonía IP debe
soportar el protocolo del Sistema de Señalización 7 (SS7). SS7 se usa eficazmente para fijar
llamadas inalámbricas y con línea en la PSTN y para acceder a los servidores de bases de
datos de la PSTN. El apoyo de SS7 en interruptores de telefonía IP representa un paso
importante en la integración de las PSTN y las redes de datos IP.
• Se debe trabajar con un comprensivo grupo de estándares de telefonía (SS7,
Recomendación H.323) para que los ambientes de telefonía IP y PBX/PSTN/ATM vídeo y
Gateway telefónica puedan operar en conjunto en todas sus características
3.2 Funciones y componentes de VoIP.
La tecnología basada en VoIP consiste en varios componentes como son:
• Teléfonos: Teléfonos IP, Software utilizado desde una PC, Analógicos o ISDN.
• Gateways: Dispositivos que interconectan la telefonía IP con la telefonía tradicional,
pueden ser teléfonos analógicos o ISDN, faxes, sistemas PBX(conmutadores) o switches
PSTN.
El Gateway es un elemento esencial en la mayoría de las redes pues su misión es la de
enlazar la red VoIP con la red telefónica analógica o RDSI. Podemos considerar al Gateway
como una caja que por un lado tiene un interface LAN y por el otro dispone de uno o
varios de los siguientes interfaces:
o FXO. Para conexión a extensiones de centralitas ó a la red telefónica básica.
o FXS. Para conexión a enlaces de centralitas o a teléfonos analógicos.
o E&M. Para conexión específica a centralitas.
o BRI. Acceso básico RDSI (2B+D)
o PRI. Acceso primario RDSI (30B+D)
o G703/G.704. (E&M digital) Conexión especifica a centralitas a 2 Mbps.
Los distintos elementos pueden residir en plataformas físicas separada, o nos podemos
encontrar con varios elementos conviviendo en la misma plataforma. De este modo es
bastante habitual encontrar juntos Gatekeeper y Gateway.
• Multipoint Control Unit (MCU): Requerido para conferencias y establecer comunicación
con varios participantes a la vez.
• GateKeepers: proveen control de administración de llamada (Call Admision Control, CAC).
Traducen números telefónicos o IP para llamadas routeadas en redes H.323
El Gatekeeper es un elemento opcional en la red, pero cuando está presente, todos los
demás elementos que contacten dicha red deben hacer uso de el. Su función es la de
gestión y control de los recursos de la red, de manera que no se produzcan situaciones de
saturación de la misma.
• Call Agents: Proveen CAC, control de ancho de banda y traducción de servicios a telefonía
IP.
• Video EndPoints: Provee características de video sobre telefonía para videoconferencias.
Permite combinar señales de video y audio digital.
En una red de telefonía IP algunas funciones se transmiten en DSPs(digital signal processors) que
se usa para convertir señales de voz analógica en formato digital y viceversa. También proveen
funciones como compresión de voz, transcoding(cambio de entre varios formatos de voz),
conferencias. Los DSPs se encuentran en los módulos de voz dentro de los gateways.
En la las redes VoIP que incluye dispositivos tradicionales como teléfonos analógicos, se necesita
un Gateway para convertir la señal, pero si todos los dispositivos son IP la conversión no es
necesaria.
Etapas de una llamada telefónica IP
En general el control de llamada telefónica incluye las etapas siguientes:
• Establecimiento: Determina la ruta destino, especifica requerimientos de ancho de banda,
envía mensaje de conexión al destino. A través de protocolos como H.323, MGCP, SIP se
definen diferentes tipos de mensajes para negociar las direcciones IP para los dos
dispositivos IP, los flujos RTP y el formato a utilizar(por ejemplo la compresión).
• Mantenimiento de la Sesión: establece medios para mantener activa la sesión, utilizando
mecanismos de control que permiten determinar la calidad de la conexión.
• Desconexión: Termina la sesión liberando los dispositivos para futuras llamadas.
3.3 Principales Protocolos de VoIP de acuerdo al Modelo OSI.
Para realizar envíos de voz sobre una red basada en IP, esta debe primero digitalizarse para
encapsularse en un paquete IP. IP no proporciona por si mismo mecanismos de transferencia de
voz, por lo que utiliza otro conjunto de protocolos de transporte. Los protocolos que se utilizan
para realizar la transmisión son TCP(Transmission Control Protocol), UDP(User Datagram Protocol)
y RTP(Real Time Protocol).
Las siguientes características de esos protocolos proporcionan a IP el mecanismo de transporte de
voz:
• Confiabilidad: TCP ofrece mecanismos orientados a conexión a través de acuses de recibo
de paquetes y retransmisiones.
• Reordenamiento: Como los paquetes pueden llevar en distinto orden, TCP provee la
manera de reconstruir ordenadamente los paquetes en el destino.
• Time-Stamping: RTP Provee control para manipular los retardos apropiados entre
paquetes y reordenamiento utilizados en aplicaciones de tiempo real.
• Multiplexación. Un dispositivo VoIP puede tener múltiples llamadas activas y debe trabajar
con paquetes que vienen de cada llamada. UDP proporciona un número de puerto para
identificar cada paquete que proviene de cada llamada. Los puertos usados por UDP para
RTP van del rango de 16348 al 32767.
• Otros: TCP (20 bytes)ocupa más bytes que UDP (8 bytes) por lo tanto significa qie el ancho
de banda requerido será menor o mayor según el protocolo utilizado.
3.4 Calculo de requerimientos de ancho de banda.
Para enviar voz sobre redes digitales, se requiere un proceso de conversión de señales analógicas
que son generadas por los teléfonos a señales digitales que se enviará a través de las redes
basadas en TCP/IP. Una vez que las señales de voz son digitalizadas, se deben encapsular en
estructuras soportadas por los protocolos, este proceso causa una sobrecarga de tiempo y de
proceso en los dispositivos de la red.
El ancho de banda que se requiere para la telefonía IP depende de lo siguiente:
• Packet Rate: especifica la el número de paquetes enviados en un cierto intervalo de
tiempo.
• Paketization Size: especifica el número de bytes que se necesitan para representar la
información de voz que será encapsulada por paquete.
• IP Overhead: especifica el número de bytes que se agregan a la información de voz
durante el encapsulamiento. Si se utiliza RSTP, UDP o IP la suma de los encabezados es el
resultado.
• Data Link Overhead: especifica el número de bytes que se necesitan durante el
encapsulamiento en la capa de enlace de datos. Depende del tipo del enlace que se utilice.
• Tuneling Overhead: especifica el número de bytes que se agregan para los protocolos de
seguridad o tuneling.
Los decodificadores(codecs) establecen el ancho de banda utilizado, de tal manera que se puede
calcular el ancho de banda a través del protocolo utilizado. Este costo es el mínimo y no incluye
packetization overhead.
El tamaño de los paquetes cambia dependiendo el tamaño de los segmentos de voz (chunk)
El áncho de banda depende directamente del códec y del tamaño del paquete de voz, un ejemplo
es el siguiente
En la capa de enlace de datos la diferencia es el encapsulado por tipo de enlace, ejemplo:
Cuando se utilizan protocolos de seguridad y/o tunneling se incluyen encabezados que modifican
el tamaño del paquete ejemplos:
Un ejemplo de los elementos agregados en un ambiente de red privada virtual (VPN)
Calculo del ancho de banda pata VoIP
• Básico: se puede establecer un procedimiento con los siguientes pasos:
1. Determinar el ancho de banda del códec a utilizar,
2. Determinar el tipo de enlace a utilizar
3. Determinar el tamaño o periodo del segmento de voz
4. Sumar los encabezados y segmentos definidos en los pasos anteriores
5. Calcular la tasa de envío paquetes (packet rate)
 Packet rate [pps] = 1 / (packetization period [ms per packet] / 1000)
 Packetization period [ms per packet] = (Packetization size [bytes per
packet] * 8 / 1000) / (codec bandwidth [kbps] / 1000)
 Packetization size [bytes per packet] = Packetization period [ms per
packet] * codec bandwidth [kbps] / 8
6. Calcular el total de ancho de banda total:
 Total packet size [bytes per packet] = Data-link overhead [bytes per
packet] + other overhead [bytes per packet] + IP overhead [bytes per
packet] + packetization size [bytes per packet]
En resumen se pueden especificar lo siguiente:
Si el empaquetamiento es en milisegundos:
Bandwidth [kbps] = (8 * (data-link overhead [bytes per packet] + other overhead [bytes
per packet] + IP overhead [bytes per packet]) + packetization period [ms per packet] *
codec bandwidth [kpbs]) / packetization period [ms per packet]
Si el empaquetamieto sedetermina en bytes en vez de tiempo:
Bandwidth [kbps] = (Codec bandwidth [kbps] / packetization size [bytes per packet]) *
(packetization size [bytes per packet] + data-link overhead [bytes per packet] + other
overhead [bytes per packet] + IP overhead [bytes per packet])
• Rápido: Una manera rápida de calcular el ancho de banda total es tener en cuenta que la
que la tasa total efectiva de información de voz (payload) es determinada por los codecs
de tal manera que la siguiente formula obtiene el ancho de banda basado en cálculos
rápidos
3.5 Configuración de puertos e interfaces de voz en un router.
La implementación de VoIP en una red utiliza componentes como Gateways, Gatekeepers, Cisco
Unified Call Manager y Telefonos IP.
Función del Gateway
Los Gateway convierten la señal analógica a señal digital para encapsularla en paquetes IP,
proporcionan el servicio de empaquetamiento para reducir la tasa de transferencia
3.6 Protocolo H.323
El H.323 es una familia de estándares definidos por el ITU para las comunicaciones multimedia
sobre redes LAN. Está definido específicamente para tecnologías LAN que no garantizan una
calidad de servicio (QoS). Algunos ejemplos son TCP/IP e IPX sobre Ethernet, Fast Ethernet o Token
Ring. La tecnología de red más común en la que se están implementando H.323 es IP (Internet
Protocol).
Este estándar define un amplio conjunto de características y funciones. Algunas son necesarias y
otras opcionales. El H.323 define mucho más que los terminales. El estándar define los siguientes
componente más relevantes:
• Terminal
• Gateway
• Gatekeeper
• Unidad de Control Multipunto
El H.323 utiliza los mismos algoritmos de compresión para el vídeo y el audio que la norma H.320,
aunque introduce algunos nuevos. Se utiliza T.120 para la colaboración de datos.
El H.323 soporta vídeo en tiempo real, audio y datos sobre redes de área local, metropolitana,
regional o de área extensa. Soporta así mismo Internet e intranets. En Mayo de 1997, el Grupo 15
del ITU redefinió el H.323 como la recomendación para "los sistemas multimedia de
comunicaciones en aquellas situaciones en las que el medio de transporte sea una red de
conmutación de paquetes que no pueda proporcionar una calidad de servicio garantizada. Nótese
que H.323 también soporta videoconferencia sobre conexiones punto a punto, telefónicas y RDSI.
En estos casos, se debe disponer un protocolo de transporte de paquetes tal como PPP.
Componentes H.323
• Entidad
La especificación H.323 define el término genérico entidad como cualquier componente
que cumpla con el estándar.
• Extremo
Un extremo H.323 es un componente de la red que puede enviar y recibir llamadas. Puede
generar y/o recibir secuencias de información.
• Terminal
Un terminal H.323 es un extremo de la red que proporciona comunicaciones
bidireccionales en tiempo real con otro terminal H.323, gateway o unidad de control
multipunto (MCU). Esta comunicación consta de señales de control, indicaciones, audio,
imagen en color en movimiento y /o datos entre los dos terminales. Conforme a la
especificación, un terminal H.323 puede proporcionar sólo voz, voz y datos, voz y vídeo, o
voz, datos y vídeo.
• Gatekeeper
El gatekeeper (GK) es una entidad que proporciona la traducción de direcciones y el
control de acceso a la red de los terminales H.323, gateways y MCUs. El GK puede también
ofrecer otros servicios a los terminales, gateways y MCUs, tales como gestión del ancho de
banda y localización de los gateways o pasarelas.
El Gatekeeper realiza dos funciones de control de llamadas que preservan la integridad de
la red corporativa de datos. La primera es la traslación de direcciones de los terminales de
la LAN a las correspondientes IP o IPX, tal y como se describe en la especificación RAS. La
segunda es la gestión del ancho de banda, fijando el número de conferencias que pueden
estar dándose simultáneamente en la LAN y rechazando las nuevas peticiones por encima
del nivel establecido, de manera tal que se garantice ancho de banda suficiente para las
aplicaciones de datos sobre la LAN. El Gatekeeper proporciona todas las funciones
anteriores para los terminales, Gateways y MCUs, que están registrados dentro de la
denominada Zona de control H.323.
• Gateway
Un gateway H.323 (GW) es un extremo que proporciona comunicaciones bidireccionales
en tiempo real entre terminales H.323 en la red IP y otros terminales o gateways en una
red conmutada. En general, el propósito del gateway es reflejar transparentemente las
características de un extremo en la red IP a otro en una red conmutada y viceversa.
• MCU (Multipoint Control Units)
La Unidad de Control Multipunto está diseñada para soportar la conferencia entre tres o
más puntos, bajo el estándar H.323, llevando la negociación entre terminales para
determinar las capacidades comunes para el proceso de audio y vídeo y controlar la
multidifusión.
La comunicación bajo H.323 contempla las señales de audio y vídeo. La señal de audio se
digitaliza y se comprime bajo uno de los algoritmos soportados, tales como el G.711 o
G.723, y la señal de vídeo (opcional) se trata con la norma H.261 o H.263. Los datos
(opcional) se manejan bajo el estándar T.120 que permite la compartición de aplicaciones
en conferencias punto a punto y multipunto.
IV. Tecnologías WAN.
4.1 Servicios de Banda Ancha y 3G
¿Qué es una WAN?
Una WAN es una red de comunicación de datos que tiene una cobertura geográfica relativamente
grande y suele utilizar las instalaciones de transmisión que ofrecen compañías portadoras de
servicios como las telefónicas. Las tecnologías WAN operan en las tres capas inferiores del
modelo OSI. La figura muestra algunas de las tecnologías WAN Y el nivel OSI en la que operan.
Fig. 4.1: Tecnologías WAN y Su Relación con las Capas OSI
Las WAN se diferencian de las LAN en varios aspectos. Mientras que una LAN conecta
computadoras, dispositivos periféricos y otros dispositivos de un solo edificio u de otra área
geográfica pequeña, una WAN permite la transmisión de datos a través de distancias geográficas
mayores. Además, la empresa debe suscribirse a un proveedor de servicios WAN para poder
utilizar los servicios de red de portadora de WAN. Las LAN normalmente son propiedad de la
empresa o de la organización que las utiliza.
¿Por qué son necesarias las WAN?
Con frecuencia, las organizaciones desean compartir información con otras organizaciones que se
encuentran a grandes distancias. Como, obviamente, no es posible conectar computadoras a nivel
nacional o mundial de la misma manera en la que las computadoras de una LAN se conectan con
cables, han evolucionado diferentes tecnologías para cubrir esta necesidad. Internet se está
utilizando cada vez más como una alternativa económica al uso de una WAN empresarial para
algunas aplicaciones. Hay nuevas tecnologías disponibles para las empresas que proporcionan
seguridad y privacidad para las comunicaciones y las transacciones a través de Internet. El uso de
redes WAN solas o en combinación con Internet permite a las organizaciones y a los particulares
satisfacer sus necesidades de comunicaciones de área extensa.
Fig. 4.2 Redes de área extensa
Tipo de redes WAN
Los tipos de redes WAN se clasifican en redes públicas y redes privadas, las cuales describiremos a
continuación.
Redes Públicas.
Las redes públicas son recursos WAN pertenecientes a las compañías de telecomunicación que
operan tanto en el país como en el mundo. Estos recursos son ofrecidos a los usuarios a través de
suscripción. Estas operadoras incluyen a todas las compañías de servicios de comunicación local,
las compañías de servicios de comunicación a larga distancia y los proveedores de servicios de
valor agregado, quienes ofrecen con frecuencia, servicios de comunicación WAN como
complemento a su verdadero negocio.
Redes Privadas.
Una red privada es una red de comunicaciones privada construida, mantenida y controlada por la
organización o compañía a la que sirve. Como mínimo una red privada requiere sus propios
equipos de conmutación y de comunicaciones. Puede también, emplear sus propios servicios de
comunicación o alquilar los servicios de una red pública o de otras redes privadas que hayan
construido sus propias líneas de comunicaciones. Aunque una red privada es costosa, en
compañías donde la seguridad y el control sobre el tráfico de datos son de alta prioridad, las líneas
privadas constituyen la única garantía de un alto nivel de servicio
Fig. 4.3 Pequeña empresa en crecimiento
Tecnología 3G
La tecnología 3G (tecnología inalámbrica de tercera generación) es un servicio de comunicaciones
inalámbricas que le permite estar conectado permanentemente a Internet a través del teléfono
móvil, el ordenador de bolsillo, el Tablet PC o el ordenador portátil. La tecnología 3G promete una
mejor calidad y fiabilidad, una mayor velocidad de transmisión de datos y un ancho de banda
superior (que incluye la posibilidad de ejecutar aplicaciones multimedia). Con velocidades de datos
de hasta 384 Kbps, es casi siete veces más rápida que una conexión telefónica estándar.
Lo que permite que podamos tener video llamadas, dado que dichas llamadas se harán con una
conexión directa a internet Telme ofrece este servicio de manera gratuita
¿Qué ventajas aporta la tecnología 3G?
Se dice que los usuarios de GPRS y 3G están "siempre conectados", dado que con estos métodos
de conexión tienen acceso permanente a Internet. Mediante los mensajes de texto cortos, los
empleados de campo pueden comunicar su progreso y solicitar asistencia. Los ejecutivos que se
encuentran de viaje pueden acceder al correo electrónico de la empresa, de igual modo que
puede hacerlo un empleado de ventas, que también puede consultar el inventario. Puede
automatizar su casa o su oficina con dispositivos GPRS y 3G supervisar sus inversiones.
4.2 Estándares WAN
Modelo de red jerárquico
El modelo de red jerárquico divide la red en tres capas.
Capa de acceso: permite el acceso de los usuarios a los dispositivos de la red. En una red de
campus, la capa de acceso generalmente incorpora dispositivos de conmutación de LAN con
puertos que proporcionan conectividad a las estaciones de trabajo y a los servidores. En el entorno
de la WAN, puede proporcionar a los trabajadores a distancia o a los sitios remotos acceso a la red
corporativa a través de la tecnología WAN.
Capa de distribución: agrupa los armarios de cableado y utiliza switches para segmentar grupos de
trabajo y aislar los problemas de la red en un entorno de campus. De manera similar, la capa de
distribución agrupa las conexiones WAN en el extremo del campus y proporciona conectividad
basada en políticas.
Capa núcleo (backbone): enlace troncal de alta velocidad que está diseñado para conmutar
paquetes tan rápido como sea posible. Como el núcleo es fundamental para la conectividad, debe
proporcionar un alto nivel de disponibilidad y adaptarse a los cambios con rapidez. También
proporciona escalabilidad y convergencia rápida.
Redes WAN y modelo OSI
Como se describió en relación con el modelo de referencia OSI, las operaciones de una WAN se
centran principalmente en las Capas 1 y 2. Los estándares de acceso WAN normalmente describen
tanto los métodos de entrega de la capa física como los requisitos de la capa de enlace de datos,
incluyendo la dirección física, el control del flujo y la encapsulación. La definición y la
administración de los estándares de acceso WAN están a cargo de varias autoridades reconocidas,
entre ellas la Organización Internacional de Normalización (OIE ), la Asociación de la Industria de
las Telecomunicaciones (TIA,Telecommunications Industry Association) y la Asociación de
Industrias Electrónicas (EIA, Electronic Industries Alliance).
Los protocolos de capa física (capa 1 del modelo OSI) describen cómo proporcionar las conexiones
eléctricas, mecánicas, operativas y funcionales a los servicios brindados por un proveedor de
servicios de comunicaciones.
Los protocolos de la capa de enlace de datos (Capa 2 del modelo OSI) definen cómo se encapsulan
los datos para su transmisión a lugares remotos y los mecanismos de transferencia de las tramas
resultantes. Se utiliza una variedad de tecnologías diferentes, como Frame Relay y ATM. Algunos
de estos protocolos utilizan los mismos mecanismos básicos de entramado, control de enlace de
datos de alto nivel (HDLC, High-Level Data Link Control), una norma ISO o uno de sus subgrupos o
variantes.
Terminología de la capa física de la WAN
Una de las diferencias primordiales entre una WAN y una LAN es que una empresa u organización
debe suscribirse a un proveedor de servicio WAN externo para utilizar los servicios de red de una
portadora WAN. Una WAN utiliza enlaces de datos suministrados por los servicios de una
operadora para acceder a Internet y conectar los sitios de una organización entre sí, con sitios de
otras organizaciones, con servicios externos y con usuarios remotos. La capa física de acceso a la
WAN describe la conexión física entre la red de la empresa y la red del proveedor de servicios. La
imagen muestra la terminología utilizada comúnmente para describir las conexiones físicas de la
WAN, por ejemplo:
Equipo local del cliente (CPE, Customer Premises Equipment): dispositivos y cableado interno
localizados en las instalaciones del suscriptor y conectados con un canal de telecomunicaciones de
una portadora. El suscriptor es dueño de un CPE o le alquila un CPE al proveedor de servicios. En
este contexto, un suscriptor es una empresa que contrata los servicios WAN de un proveedor de
servicios u operadora.
Equipo de comunicación de datos (DCE, Data Communications Equipment): también llamado
equipo de terminación de circuito de datos, el DCE está compuesto por dispositivos que ponen
datos en el bucle local. La tarea principal del DCE es suministrar una interfaz para conectar
suscriptores a un enlace de comunicación en la nube WAN.
Equipo terminal de datos (DTE, Data Terminal Equipment): dispositivos del cliente que pasan los
datos de la red o la computadora host de un cliente para transmisión a través de la WAN. El DTE se
conecta al bucle local a través del DCE.
Punto de demarcación: punto establecido en un edificio o un complejo para separar los equipos
del cliente de los equipos del proveedor de servicios. Físicamente, el punto de demarcación es la
caja de empalme del cableado que se encuentra en las instalaciones del cliente y que conecta los
cables del CPE con el bucle local. Normalmente se coloca en un lugar de fácil acceso para los
técnicos.
PPPoE y PPPoA
PPPoE: Significa “Protocolo de Punto a Punto sobre Ethernet“, se implementa una capa IP sobre
dos puertos Ethernet, dando la posibilidad de transferir paquetes de datos entre los dispositivos
que estén conectados. Estándar oficial RFC 2516 (PPPoE)
PPPoA: Igual que PPPoE pero, en vez de ser un protocolo sobre una capa Ethernet, se realiza sobre
una capa ATM. Gracias a este protocolo, las señales del router pueden negociar los parámetros de
conexión o de red entre el router y el ISP, con lo que sólo necesitas saber tu Identificador de
Usuario y contraseña para poder comenzar a navegar, puesto que el resto de datos se obtienen
automáticamente en el momento en que se efectúa la conexión. Estándar oficial RFC 2364
(PPPoA)
El protocolo PPPoA se utiliza principalmente en conexiones de banda ancha, como cable y DSL.
Este ofrece las principales funciones PPP como autenticación, cifrado y compresión de datos.
Actualmente es algo mejor que PPPoE debido a que reduce la pérdida de calidad en las
transmisiones. Al igual que PPPoE, PPPoA puede usarse en los modos VC-MUX y LLC.
Con PPPoE el router efectúa el encaminamiento IP con Network Address Translation (NAT) para la
LAN. El router que cuente con PPPoE también es compatible con la asignación dinámica de
direcciones IP a nodos de red local. Cuando se use la asignación dinámica, el router actuará como
servidor DHCP.
Dispositivos WAN
Las WAN utilizan numerosos tipos de dispositivos que son específicos para los entornos WAN,
entre ellos:
Módem: modula una señal portadora analógica para codificar información digital y demodula la
señal portadora para decodificar la información transmitida.
CSU/DSU: las líneas digitales, por ejemplo las líneas portadoras T1 o T3, necesitan una unidad de
servicio de canal (CSU, channel service unit) y una unidad de servicio de datos (DSU, data service
unit). Con frecuencia, las dos se encuentran combinadas en una sola pieza del equipo, llamada
CSU/DSU. La CSU proporciona la terminación para la señal digital y garantiza la integridad de la
conexión mediante la corrección de errores y la supervisión de la línea. La DSU convierte las
tramas de la línea Portadora T en tramas que la LAN puede interpretar y viceversa.
Servidor de acceso: concentra las comunicaciones de usuarios de servicios de acceso con
marcación. Un servidor de acceso puede tener una mezcla de interfaces analógicas y digitales y
admitir a cientos de usuarios al mismo tiempo.
Switch WAN: dispositivo de internetworking de varios puertos que se utiliza en redes portadoras.
Estos dispositivos normalmente conmutan el tráfico, por ejemplo Frame Relay, ATM o X.25, y
operan en la capa de enlace de datos del modelo de referencia OSI. Dentro de la nube también es
posible utilizar switches de red pública de telefonía conmutada (PSTN, Public Switched Telephone
Network) para conexiones de conmutación de circuitos, por ejemplo red digital de servicios
integrados (ISDN, Integrated Services Digital Network) o conexión telefónica analógica.
Router: proporciona puertos de interfaz de internetworking y acceso WAN que se utilizan para
conectarse con la red del proveedor de servicios. Estas interfaces pueden ser conexiones seriales u
otras interfaces WAN. En algunos tipos de interfaces WAN se necesita un dispositivo externo,
como una CSU/DSU o un módem (analógico, por cable o DSL) para conectar el router al punto de
presencia (POP, point of presence) local del proveedor de servicios.
Estándares de la capa física de una WAN
Los protocolos de la capa física de las WAN describen cómo proporcionar conexiones eléctricas,
mecánicas, operativas y funcionales para los servicios WAN. La capa física de la WAN también
describe la interfaz entre el DTE y el DCE. La interfaz DTE/DCE utiliza diversos protocolos de capa
física, entre ellos:
EIA/TIA-232: este protocolo permite velocidades de señal de hasta 64 Kbps en un conector D de
25 pins en distancias cortas. Antiguamente denominado RS-232. La especificación ITU-T V.24 es en
efecto lo mismo.
EIA/TIA-449/530: este protocolo es una versión más rápida (hasta 2 Mbps) del EIA/TIA-232. Utiliza
un conector D de 36 pins y admite cables más largos. Existen varias versiones. Este estándar
también se conoce como RS-422 y RS-423.
EIA/TIA-612/613: este estándar describe el protocolo de interfaz serial de alta velocidad (HSSI,
High-Speed Serial Interface), que brinda acceso a servicios de hasta 52 Mbps en un conector D de
60 pins.
V.35: este es el estándar de ITU-T para comunicaciones síncronas entre un dispositivo de acceso a
la red y una red de paquetes. Originalmente especificado para soportar velocidades de datos de 48
kbps, en la actualidad soporta velocidades de hasta 2.048 Mbps con un conector rectangular de 34
pins.
X.21: este protocolo es un estándar de UIT-T para comunicaciones digitales síncronas. Utiliza un
conector D de 15 pins.
Estos protocolos establecen los códigos y parámetros eléctricos que los dispositivos utilizan para
comunicarse entre sí. La selección del protocolo está determinada en mayor medida por el
método de comunicación del proveedor de servicios.
Antologia de red
Antologia de red
Antologia de red
Antologia de red
Antologia de red
Antologia de red
Antologia de red
Antologia de red
Antologia de red
Antologia de red
Antologia de red
Antologia de red
Antologia de red
Antologia de red
Antologia de red
Antologia de red
Antologia de red
Antologia de red
Antologia de red

Más contenido relacionado

La actualidad más candente

Arquitecturas de Cómputo
Arquitecturas de CómputoArquitecturas de Cómputo
Arquitecturas de CómputoVictor Quintero
 
Arquitectura de Sistemas de Bases de datos
Arquitectura de Sistemas de Bases de datosArquitectura de Sistemas de Bases de datos
Arquitectura de Sistemas de Bases de datosnegriz
 
Arquitectura de los sistemas operativos
Arquitectura de los sistemas operativosArquitectura de los sistemas operativos
Arquitectura de los sistemas operativosXavier Jose
 
El algoritmo de stp
El algoritmo de stpEl algoritmo de stp
El algoritmo de stpIsabel Yepes
 
Tecnologia front end back-end
Tecnologia front end back-end Tecnologia front end back-end
Tecnologia front end back-end Andressa Silveira
 
Conceptos Básicos del Encendido del CPU, BIOS, CMOS & SETUP
Conceptos Básicos del Encendido del CPU, BIOS, CMOS & SETUPConceptos Básicos del Encendido del CPU, BIOS, CMOS & SETUP
Conceptos Básicos del Encendido del CPU, BIOS, CMOS & SETUPCristian
 
Canales DMA
Canales DMACanales DMA
Canales DMAfalpema
 
Medios de transmisión guiados y no guiados
Medios de transmisión guiados y no guiadosMedios de transmisión guiados y no guiados
Medios de transmisión guiados y no guiadosmscamposl
 
Instalar y configurar Servidor DNS en linux
Instalar y configurar Servidor DNS en linuxInstalar y configurar Servidor DNS en linux
Instalar y configurar Servidor DNS en linuxHamza Beddouka
 
Proyecto de redes ejemplo
Proyecto de redes ejemploProyecto de redes ejemplo
Proyecto de redes ejemploIvan Porras
 
Tipos de módems, estandares y protocolos
Tipos de módems, estandares y protocolosTipos de módems, estandares y protocolos
Tipos de módems, estandares y protocolosLucre Castillo Lorenzo
 

La actualidad más candente (20)

Clasificacion de los sistemas operativos
Clasificacion de los sistemas operativosClasificacion de los sistemas operativos
Clasificacion de los sistemas operativos
 
10 distribuciones linux
10 distribuciones linux10 distribuciones linux
10 distribuciones linux
 
Arquitecturas de Cómputo
Arquitecturas de CómputoArquitecturas de Cómputo
Arquitecturas de Cómputo
 
Protocolo de capa 6
Protocolo de capa 6Protocolo de capa 6
Protocolo de capa 6
 
Arquitectura de Sistemas de Bases de datos
Arquitectura de Sistemas de Bases de datosArquitectura de Sistemas de Bases de datos
Arquitectura de Sistemas de Bases de datos
 
Ciclo de instrucción
Ciclo de instrucciónCiclo de instrucción
Ciclo de instrucción
 
Arquitectura de los sistemas operativos
Arquitectura de los sistemas operativosArquitectura de los sistemas operativos
Arquitectura de los sistemas operativos
 
El algoritmo de stp
El algoritmo de stpEl algoritmo de stp
El algoritmo de stp
 
LA CPU ALU y UC
LA CPU ALU y UCLA CPU ALU y UC
LA CPU ALU y UC
 
Tecnologia front end back-end
Tecnologia front end back-end Tecnologia front end back-end
Tecnologia front end back-end
 
Conceptos Básicos del Encendido del CPU, BIOS, CMOS & SETUP
Conceptos Básicos del Encendido del CPU, BIOS, CMOS & SETUPConceptos Básicos del Encendido del CPU, BIOS, CMOS & SETUP
Conceptos Básicos del Encendido del CPU, BIOS, CMOS & SETUP
 
Routers CIsco: configu
Routers CIsco: configuRouters CIsco: configu
Routers CIsco: configu
 
Tipos de adaptadores de red
Tipos de adaptadores de redTipos de adaptadores de red
Tipos de adaptadores de red
 
Canales DMA
Canales DMACanales DMA
Canales DMA
 
Medios de transmisión guiados y no guiados
Medios de transmisión guiados y no guiadosMedios de transmisión guiados y no guiados
Medios de transmisión guiados y no guiados
 
Instalar y configurar Servidor DNS en linux
Instalar y configurar Servidor DNS en linuxInstalar y configurar Servidor DNS en linux
Instalar y configurar Servidor DNS en linux
 
Capa 2
Capa 2Capa 2
Capa 2
 
Proyecto de redes ejemplo
Proyecto de redes ejemploProyecto de redes ejemplo
Proyecto de redes ejemplo
 
Funciones de un dba
Funciones de un dbaFunciones de un dba
Funciones de un dba
 
Tipos de módems, estandares y protocolos
Tipos de módems, estandares y protocolosTipos de módems, estandares y protocolos
Tipos de módems, estandares y protocolos
 

Similar a Antologia de red

Similar a Antologia de red (20)

QoS en Redes Corporativas
QoS en Redes CorporativasQoS en Redes Corporativas
QoS en Redes Corporativas
 
Servicio de calidad
Servicio de calidadServicio de calidad
Servicio de calidad
 
Servicio de calidad
Servicio de calidadServicio de calidad
Servicio de calidad
 
Qos
QosQos
Qos
 
Qo s redes inalambricas
Qo s redes inalambricasQo s redes inalambricas
Qo s redes inalambricas
 
Frame relay (FR)
Frame relay (FR)Frame relay (FR)
Frame relay (FR)
 
Presentaciones andres salinas}
Presentaciones andres salinas}Presentaciones andres salinas}
Presentaciones andres salinas}
 
Qo s excelente
Qo s excelenteQo s excelente
Qo s excelente
 
Diseño de lan
Diseño de lanDiseño de lan
Diseño de lan
 
Amplif 6
Amplif 6Amplif 6
Amplif 6
 
CONMUTACION - TEORIA DE COLA - INGENIERIA DE TRAFICO
CONMUTACION - TEORIA DE COLA - INGENIERIA DE TRAFICO CONMUTACION - TEORIA DE COLA - INGENIERIA DE TRAFICO
CONMUTACION - TEORIA DE COLA - INGENIERIA DE TRAFICO
 
sistemas de banda ancha y redes de datos
sistemas de banda ancha y redes de datossistemas de banda ancha y redes de datos
sistemas de banda ancha y redes de datos
 
Tecnología frame relay
Tecnología frame relayTecnología frame relay
Tecnología frame relay
 
Calidad de servicio en redes
Calidad de servicio en redesCalidad de servicio en redes
Calidad de servicio en redes
 
Tecnología IP
Tecnología IP Tecnología IP
Tecnología IP
 
Voz ip
Voz ipVoz ip
Voz ip
 
Tp9 v5
Tp9 v5Tp9 v5
Tp9 v5
 
Sistemas de comunicacion grupo 7
Sistemas de comunicacion grupo 7Sistemas de comunicacion grupo 7
Sistemas de comunicacion grupo 7
 
Tipos de qos
Tipos de qosTipos de qos
Tipos de qos
 
Las mejores practicas para diseñar comunicaciones en IP en un Contact Center
Las mejores practicas para  diseñar  comunicaciones en IP en un Contact CenterLas mejores practicas para  diseñar  comunicaciones en IP en un Contact Center
Las mejores practicas para diseñar comunicaciones en IP en un Contact Center
 

Antologia de red

  • 1. II. Calidad de servicio (QoS). En una red convergente las redes acarrean voz, video y tráfico de datos, estos flujos usan los mismos medios. Estas diferentes ráfagas de tráfico difieren dramáticamente debido a sus requerimientos, que nos acarrean varios problemas. Los más críticos son la voz y el video ya que son muy sensibles al tiempo y deben tener mayor prioridad. En una red convergente, constantemente paquetes pequeños de voz compiten con el tráfico de datos. Los paquetes de voz en una red convergente son my pequeños, estos no son tolerantes al retardo y las variaciones de retardo que estos sufren al atravesar la red. Cuando esto ocurre en la voz se interrumpe y las palabras no son comprensibles. Los paquetes IP son grandes y por naturaleza los paquetes toleran retardos y pérdidas. Estos es posible porque se pueden retransmitir parte de un archivo de datos. Pero no es factible retransmitir parte de una conversación de voz. La voz y el video deben tener mayor prioridad sobre los datos. Los administradores de red y los arquitectos de red requieren verificar el performance de la red para manejar el retardo, la variación del retardo (jitter), ancho de banda y los parámetros de paquetes perdidos con las técnicas de calidad de servicio (QoS). Las ráfagas multimedia, como las usadas en la telefonía IP o en las videoconferencias son muy sensibles al retardo y crean una única demanda de QoS. Si el servicio esta basado en el método Best-effort, los paquetes no llegaran en orden, desfazados en tiempo o talvez no todos lleguen. Dando como resultado imágenes borrosas, con movimientos lentos y el sonido no estará sincronizado con las imágenes. Problemas de calidad en una red convergente Dentro de los problemas más comunes en una red convergente se encuentran: La falta de ancho de banda: los flujos de múltiples compiten por una cantidad limitada de ancho de banda. Retraso de extremo a extremo(fijos y variables): Los paquetes tienen que atravesar muchos dispositivos de red y enlaces; este viaje se suma a la demora en general. La variación de retardo (jitter): A veces hay una gran cantidad de tráfico de otros, lo que resulta en la demora variada y creciente. La pérdida de paquetes: Los paquetes pueden tener que ser descartados cuando se congestiona un enlace.
  • 2. Medición de ancho de banda disponible El ancho de banda máximo disponible es el ancho de banda del enlace más lento. Múltiples flujos están compitiendo por el mismo ancho de banda, dando como resultado un menor ancho de banda disponible para una sola aplicación. La falta de ancho de banda puede tener impactos en el rendimiento en las aplicaciones de red. 2.1 Introducción a la Calidad de Servicios (QoS). Calidad de servicio (QoS, Quality of Service) se refiere a la capacidad de una red de proporcionar servicio preferencial al tráfico de la red seleccionado. El objetivo principal de QoS es proporcionar prioridad, incluyendo ancho de banda dedicado, latencia, fluctuaciones controladas y menor pérdida de paquetes. Al crear las políticas de QoS para una organización, es importante enfocarse en el tipo de tráfico que necesita tratamiento preferencial. Los diseñadores de red deben considerar de qué manera los problemas de QoS afectan no sólo a los dispositivos de una red, sino también a las aplicaciones que utilizan la red. Los usuarios perciben la calidad del servicio según dos criterios: • La velocidad con la que la red reacciona a sus solicitudes • La disponibilidad de las aplicaciones que desean usar QoS permite controlar estos aspectos para los flujos de tráfico dentro de la infraestructura de la red y para las aplicaciones que utilizan la red. Algunos de los dispositivos Cisco, como los routers, cuentan con mecanismos de QoS incorporados. INCREMENTANDO EL ANCHO DE BANDA DISPONIBLE La mejor manera de aumentar el ancho de banda es aumentar la capacidad del enlace de la red para dar cabida a todas las aplicaciones y usuarios, permitiendo ancho de banda adicional. Aunque esta solución parece simple, el aumento de ancho de banda es caro y lleva tiempo poner en práctica. A menudo hay limitaciones tecnológicas en la mejora de un mayor ancho de banda. La mejor opción es clasificar el tráfico en las clases de calidad de servicio y dar prioridad a cada clase de
  • 3. acuerdo a su importancia relativa. El mecanismo de colas de base es “First In First Out” (FIFO). Otros mecanismos de cola proporcionar granularidad adicionales para atender la voz y el tráfico críticos. Diferentes tipos de de tráfico deberían tener suficiente ancho de banda para apoyar sus requerimientos de aplicación. El tráfico de voz debe recibir mayor prioridad de reenvío, y el tráfico menos importante debe recibir el ancho de banda no asignados que queda después de acomodar el tráfico que es de prioridad. Cisco IOS software QoS proporciona una variedad de mecanismos para dar prioridad de ancho de banda a determinadas clases de tráfico: •Prioridad de cola (PQ) o la uso de cola (CQ) •Ronda Modificado Déficit Robin (MDRR) (en Cisco 12000 Series Routers) •Tipo de servicio distribuido (ToS)-basado y el grupo de QoS basado en colas equitativas (WFQ) (en el 7x00 de la serie Cisco Routers) •Clase base equitativa de cola (CBWFQ) •Baja latencia de cola (CII) Una manera de aumentar la relación ancho de banda disponible es optimizar el uso de enlaces mediante la compresión de la carga útil de los marcos (virtualmente). La compresión, sin embargo, también aumenta la demora debido a la complejidad de los algoritmos de compresión. El uso de la compresión de hardware puede acelerar las compresiones de carga útil del paquete. Stacker y Predictor son dos algoritmos de compresión que están disponibles en el software Cisco IOS. Otro mecanismo que se utiliza para vincular la eficiencia de ancho de banda es la compresión de encabezado. La compresión del encabezado es especialmente eficaz en las redes donde la mayoría de los paquetes de datos son pequeños (es decir, cuando la carga a razón de encabezado es pequeño). Ejemplos típicos de la compresión de encabezado son la compresión de encabezado TCP y Real-Time Transport Protocol (RTP). USANDO EL ANCHO DE BANDA DISPONIBLE EFICIENTEMENTE Usando los mecanismos de cola avanzada y de compresión de encabezado, el ancho de banda disponible puede utilizarse de manera más eficiente: Voz: LLQ y compresión de encabezado RTP Tráfico interactivo: CBWFQ y la compresión de encabezado TCP
  • 4. TIPOS DE RETARDO Existen cuatro tipos de retardo: Retardo en el procesamiento: Retardo en el procesamiento es el tiempo que le toma a un router (o switch de capa 3) para poner un paquete de una interfaz de entrada y ponerlo en la cola de salida de la interfaz. El retraso en el procesamiento depende de varios factores: • Velocidad de la CPU • Uso de la CPU • IP modo de cambio • Arquitectura de router • Características configuradas en ambas interfaces. Retardo de cola: El retardo de cola es el tiempo que un paquete se encuentra en la cola de salida de un router. Este depende del número de paquetes que ya están en la cola y el tamaño de los paquetes. También depende del ancho de banda de la interfaz y el mecanismo de manejo de cola que utilize. Retardo de serialización: Es el tiempo que se tarda en colocar un frame en el medio físico para transportarlo. Este retraso suele ser inversamente proporcional al ancho de banda del enlace. Retardo de propagación: Retardo de propagación es el tiempo que tarda el paquete de cruzar el enlace de un extremo a otro. Este por lo general depende del tipo de medios de comunicación que se utilizan, ya sea de datos, voz o vídeo. Por ejemplo, los enlaces por satélite producen el retardo de propagación más largo debido a la gran altura de los satélites de comunicaciones. EL IMPACTO DEL RETARDO Y DEL JITTER EN LA CALIDAD Retardo de extremo a extremo: Es la suma de todos los retardos, propagación, transformación, serialización, y los retrasos de cola en la ruta. Jitter: es la variación del retardo. En las redes best-effort, la propagación y los retrasos de serialización son fijos, mientras que el procesamiento y la cola son retardos impredecibles.
  • 5. CAMINO PARA REDUCIR EL RETARDO Al considerar las soluciones al problema de retardos, hay dos cosas a considerar: El procesamiento y el retardo de colas están relacionados con los dispositivos y están vinculados con el comportamiento del sistema operativo. La propagación y los retardos de señalización están relacionados con los medios de comunicación. Hay muchas formas de reducir la demora en un router. Suponiendo que el router tiene el poder suficiente para tomar decisiones de reenvío rápidamente, hay factores que influyen en la mayoría de colas y retardos de señalización: • Tamaño promedio de la cola. • Tamaño promedio de los paquetes en la cola • Ancho de banda del enlace Los administradores de red pueden acelerar el envío de paquetes para los flujos sensibles: Aumentar la capacidad del enlace: ancho de banda suficiente para reducir las colas, con la finalidadde que los paquetes no esperen mucho tiempo antes de poder transmitirse. El aumento de ancho de banda reduce el tiempo de serialización. Este enfoque puede ser poco realista debido a los costos que están asociados con la actualización. Dar prioridad a los paquetes sensibles: Este enfoque puede ser más efectivo en relación con el costo, que el aumento de la capacidad de enlace. WFQ, CBWFQ, y LLQ pueden servir en primer lugar para el manejo de las colas (este es un tipo de medidas preventivas de las colas de servicio). Cambiar la prioridad de los paquetes: En algunos casos, es necesario cambiar la prioridad de los paquetes importantes cuando se entra o sale de un dispositivo. Compresión de carga: La compresión de carga reduce el tamaño de los paquetes, lo que aumenta virtualmente el ancho de banda del enlace. Los paquetes comprimidos son más pequeños y se utiliza menos tiempo para su transmisión. La compresión usa algoritmos complejos que añaden demora. Si está utilizando la compresión de carga para reducir los retardos, asegúrese de que el tiempo que se necesita para comprimir la carga no afecta los beneficios de tener menos datos que transferir por el enlace. Compresión de encabezado: la compresión de encabezado no es tan intensivo con el CPU como la compresión de la carga. La compresión de encabezado reduce el retardo cuando se usa con otros mecanismos. La compresión de encabezado es especialmente útil para los paquetes de voz que tienen una mala relación de carga entre el encabezado y los datos(el encabezado es grande relativamente en comparación con la carga), que es mejorada por la reducción de la cabecera del paquete (compresión de encabezado RTP). Al minimizar la demora, los administradores de redes también puede reducir el jitter (el retardo es más predecible que el jitter y más fácil de reducir).
  • 6. EL IMPACTO DE PAQUETES PERDIDOS Después del retardo, la preocupación más grave para las redes es la pérdida de paquetes. Por lo general, la pérdida de paquetes se produce cuando los routers se quedan sin espacio de almacenamiento para una interfaz particular (cola de salida). TIPOS DE DESCARTE DE PAQUETES Cola de interfaz de salida llena, hace que los paquetes nuevos que llegan van a ser retirados. El término que se utiliza para el descarte es "descarte de salida" o "cola de descarte" (descarta los paquetes en la cola de la cola). Los Routers también pueden eliminar paquetes por otras razones menos comunes: • Caída de la cola de entrada: La CPU principal está ocupado y no puede procesar los paquetes (la cola de entrada está llena). • No haga caso de: El router se queda sin espacio en el buffer. • Sobrecarga: La CPU está ocupado y no puede asignar un espacio libre en el buffer al nuevo paquete. • Errores del frame: El hardware detecta un error en el frame, por ejemplo, controles de redundancia cíclica (CRC), incompleto y gigante. Politicas de tráfico y configuración de tráfico Cisco IOS software QoS proporciona los siguientes mecanismos para evitar la congestión: Politicas de Tráfico se propaga en forma desencadenada. Cuando la tasa de tráfico alcanza la tasa máxima configurada, el exceso de tráfico se descarta. El resultado es una tasa de salida que aparece como un diente de sierra, con crestas y valles.
  • 7. La configuración de tráfico en contraste con las políticas de tráfico, retiene el exceso de paquetes en una cola y luego programan la transmisión más tarde por los incrementos de tiempo. El resultado de la configuración del tráfico es una versión filtrada de la tasa de salida de paquetes. Hacer implica la existencia de una cola y de la memoria suficiente para almacenar los paquetes con retraso, mientras que las politicas no lo hacen. La cola es un concepto de salida, los paquetes que vayan a salir por una interfaz pasan a la cola y puede ser clasificado. Sólo la politica puede aplicar al tráfico entrante en una interfaz. Asegúrese de que tiene suficiente memoria al habilitar la configuración. Además, la configuración requiere una función de programación para la transmisión posterior de los paquetes con retraso. Esta función de programación le permite organizar la cola de la formación en diferentes colas. Ejemplos de funciones de programación están CBWFQ y LLQ. 2.2 Modelos de Qos: Best-Effort, IntServ , DiffServ Existen tres modelos de QoS Modelo Caracteristicas Best effort No se aplica QoS a los paquetes. Si no es importante cuándo o cómo los paquetes llegan, este es el modelo más adecuado. Servicios Integrados (IntServ) Configuración a la señal de la red para las aplicaciones que requieren ciertos parámetros de QoS (calidad de servicio). Servicios Diferenciados (DiffServ) La red reconoce las clases de tráfico que requieren QoS. 2.2.1 Best – effort El diseño básico de la Internet se basa en el modelo best-effort para la entrega de paquetes de mayor esfuerzo y no ofrece garantías. Este planteamiento sigue siendo predominante en Internet hoy en día y sigue siendo apropiado para la mayoría de propósitos. El modelo best-effort trata a todos los paquetes de la red de la misma manera, así que un mensaje de voz de emergencia se trata de la misma manera que una fotografía digital adjunta a un e-mail. Sin calidad de servicio, la red no puede decir la diferencia entre los paquetes y, en consecuencia, no puede tratar a los paquetes de preferencia.
  • 8. Cuando usted envía una carta utilizando el correo postal tradicional, está utilizando el modelo best-effort. Su carta es tratada exactamente igual que todas las letras de otros. Con el modelo de best-effort, la carta no puede o no llegar, a menos que tenga un acuerdo de notificación por separado con los que recibieron la carta, usted nunca puede saber que la carta no llegó. Beneficios: • El modelo tiene una escalabilidad prácticamente ilimitada. La única manera de llegar a los límites de escalabilidad es llegar a los límites de ancho de banda, en cuyo caso todo el tráfico se ve igualmente afectado. • No es necesario emplear mecanismos de QoS especial para utilizar el modelo best-effort. Ademas de que es el más fácil y rápido de implementar. Desventajas: • No hay garantías de entrega. Los paquetes llegarán siempre que puedan y en cualquier orden posible, si es que llegan todos. • No hay paquetes que tengan un trato preferencial. Los datos importantes se tratan del mismo modo casual que el e-mail se trata. 2.2.2 INTSERV Servicios Integrados (IntServ) proporciona una manera de lograr el end-to-end QoS, que aplicaciones en tiempo real requieren, de forma explícita realiza la gestión de los recursos de red para proporcionar calidad de servicio para flujos de paquetes específicos de usuarios, a veces llamado microflujos. IntServ utiliza recursos de reserva y admisión de los mecanismos de control como elementos fundamentales para establecer y mantener la calidad de servicio. Esta práctica es similar a un concepto conocido como “calidad de servicio duro (Hard QoS)”.Este garantiza las características del tráfico, tales como el ancho de banda, retraso, y las tasas de pérdida de paquetes, de extremo a extremo. Hard QoS asegura garantizados y predecibles los niveles de servicio para aplicaciones críticas. IntServ utiliza el Protocolo de reserva de recursos (RSVP) para indicar de forma explícita la calidad de servicio de las necesidades de tráfico de una aplicación a lo largo de los dispositivos de extremo a extremo a través de la ruta de red. Si los dispositivos de red a lo largo de la ruta de acceso pueden reservar el ancho de banda necesario, se puede empezar a transmitir. Si la reserva solicitada no se realiza por el camino, no se envía ningún dato. En el modelo IntServ, la aplicación solicita un tipo específico de servicio de la red antes de enviar datos. La aplicación informa a la red de su perfil de tráfico y pide un determinado tipo de servicio que puede abarcar el ancho de banda y los requisitos de demora. La aplicación envía los datos sólo después de que reciba la confirmación de los requisitos de ancho de banda y retardo de la red. La red realiza el control de admisión basado en la información de la aplicación y recursos de red disponibles. La red se compromete a cumplir los requisitos de calidad de servicio de la solicitud, siempre que el tráfico se mantenga dentro de las especificaciones del perfil. La red cumple con su compromiso de mantener el estado por flujo y luego de realizar la clasificación de paquetes, la aplicación de politicas, y el manejo de colas inteligente basado en ese estado. FUNCIONES DE INTSERV
  • 9. Como un medio de ilustrar la función del modelo IntServ, la figura muestra la parte de control y de datos. Además la señalización de extremo a extremo, IntServ requiere de varias funciones, a fin de estar disponibles en los routers y switches a lo largo de la ruta de red. Estas funciones son las siguientes: Control de acceso: Control de acceso determina si un nuevo flujo solicitado por los usuarios o los sistemas se puede conceder con la calidad de servicio requerido, sin afectar las reservas existentes a fin de garantizar QoS de extremo a extremo. Control de acceso garantiza que los recursos estén disponibles antes de permitir una reservación. Clasificación: Supone el uso de un descriptor de tráfico para categorizar un paquete dentro de un grupo específico, para definir ese paquete y hacer posible el manejo de QoS en la red. La clasificación es fundamental para las técnicas de políticas que los paquetes utilizan antes de seleccionar los diferentes tipos de servicio QoS. Politicas: Toma la acción, incluido el posible descarte de paquetes, cuando el tráfico no se ajusta a sus características especificadas. Las politicas son definidas por los parámetros de velocidad y promedio, así como por las acciones en el perfil y fuera del tráfico de perfil. De cola: La cola acomoda la congestión temporal, en una interfaz de un dispositivo de red mediante el almacenamiento de los paquetes excesivos, hasta que se tenga el acceso al ancho de banda disponible. Programación: Un componente de calidad de servicio, el programador de calidad de servicio, negocia solicitudes simultáneas de acceso a la red y determina que la cola es la prioridad principal. IntServ utiliza la programación de round robin. La programación de Round Robin es un enfoque de tiempo compartido en el que el programador le da una porción de tiempo breve para cada puesto de trabajo antes de pasar a la siguiente tarea. De esta manera, todas las tareas se ejecutan, poco a poco, de forma controlada. La programación de paquetes debe de cumplir con la reservación de colas y la programación de paquetes para su transmisión. Beneficios: IntServ apoya el control de admisión que permite que le permite a una red rechazar o rebajar nuevas sesiones RSVP si una de las interfaces en el camino ha llegado al límite (esto es, si todo el ancho de banda que puede ser reservado es reservado). RSVP señales de peticiones de QoS para cada flujo individual. En la solicitud, se envía el usuario autorizado (objeto de la autorización) y la política de tráfico necesarios (objeto de la política). La red puede ofrecer garantías a estos flujos individuales. RSVP informa a los dispositivos de red de los parámetros de flujo (las direcciones IP y números de puerto). Algunas aplicaciones utilizan números de puertos dinámicos, tales como las aplicaciones basadas en H.323,
  • 10. lo que puede ser difícil para los dispositivos de red a reconocer. La Red de aplicaciones basada en el reconocimiento (NBAR) es un mecanismo que complementa RSVP para las aplicaciones que utilice los números de puertos dinámicos. Desventajas: No es continua, porque la señalización de la arquitectura de RSVP con estado que se suma a la sobrecarga de ancho de banda. RSVP sigue la señalización para toda la duración del flujo. Si los cambios de red, o los vínculos de enrutamiento y la convergencia no se produce, la red puede no ser capaz de soportar la reservación. El flujo de enfoque no es escalable para implementaciones de gran tamaño, como la Internet pública, porque en el RSVP se lleva registro de cada flujo individual. Esta circunstancia hace la señalización de extremo a extremo difícil. Una posible solución es combinar IntServ con los elementos del modelo DiffServ para proporcionar la escalabilidad necesaria. PROTOCOLO DE RESERVACIÓN DE RECURSOS (RSVP) Protocolo de reservación de recursos (RSVP) se utiliza para implementar modelos IntServ. El Protocolo de reserva de recursos (RSVP) es una red de protocolos de control que permite a las aplicaciones de Internet obtener distintas calidades de servicio (QoS) para sus flujos de datos. Esta capacidad reconoce que las diferentes aplicaciones tienen diferentes requisitos de rendimiento de la red. Algunas aplicaciones, como los más tradicionales y aplicaciones interactivas, exigen la entrega fiable de datos, pero no imponen ningún requisito estricto para la puntualidad de la entrega. Más nuevos tipos de aplicaciones, incluyendo videoconferencia, telefonía IP, y otras formas de comunicaciones multimedia requieren casi exactamente lo contrario: la entrega de datos debe ser oportuna, pero no necesariamente fiables. Por lo tanto, RSVP tiene por objeto proporcionar redes IP con la capacidad de soportar los requisitos de rendimiento divergentes de los diferentes tipos de aplicaciones. Es importante tener en cuenta que RSVP no es un protocolo de enrutamiento. RSVP trabaja en conjunto con los protocolos de enrutamiento e instala el equivalente de las listas de acceso dinámico a lo largo de las rutas que utilizan los protocolos de enrutamiento. Por lo tanto, la aplicación de RSVP en una red existente no requiere la migración a un nuevo protocolo de enrutamiento. Si los recursos están disponibles, RSVP acepta una reservación e instala un clasificador de tráfico para asignar una clase de calidad de servicio temporal, para darle una determinada QoS al flujo del tráfico. El clasificador de tráfico indica la ruta de transmisión de QoS la forma de clasificar los paquetes de un flujo particular y qué tratamiento de transmisión a proporcionar. RSVP es un protocolo IP que utiliza el protocolo IP ID 46 y TCP y el puerto UDP 3455. En RSVP, un flujo de datos es una secuencia de datagramas que tienen el mismo origen, destino (independientemente de que el destino es una o más máquinas físicas), y los requisitos de QoS. Los requisitos de QoS se comunican a través de una red a través de un pliego de condiciones de flujo. Una especificación de flujo describe el nivel de servicio que se requiere para que el flujo de datos. RSVP se centra en los siguientes dos tipos principales de tráfico: Tasa de tráfico sensible: El tráfico que requiere una tasa de entrega garantizada y constante (o casi constante) desde su origen hasta su destino. Un ejemplo de tal aplicación es la videoconferencia H.323. RSVP permite una tasa de bits constantes en las redes de conmutación de paquetes a través de su índice de nivel de sensibilidad de servicio. Este servicio se refiere a veces como garantía de tasa de servicio de bits. Tráfico sensible al retraso: El tráfico que requiere puntualidad de la entrega y que varía según su tipo de consecuencia. De vídeo MPEG-II, por ejemplo, un promedio de 3 a 7 Mbps, dependiendo de la velocidad a la que la imagen está cambiando. RSVP apoya a los servicios de tráfico sensible al retraso que se denominan servicio de control de retardo (no servicio en tiempo real) y el servicio de predicción (servicio en tiempo real).
  • 11. DEMONIO RSVP Cada nodo que utiliza RSVP consta de dos módulos de decisiones locales: De control de admisión: El control de admisión realiza un seguimiento de los recursos del sistema y determina si el nodo tiene los recursos suficientes para satisfacer la calidad de servicio requerida. El demonio de RSVP monitorea estas acciones de control. Si cualquier acción de verificación falla, el programa RSVP devuelve un mensaje de error a la aplicación que originó la petición. Si ambas comprobaciones tienen éxito, el demonio de RSVP establece los parámetros en el clasificador de paquetes y el Programador de paquetes QoS para obtener el pedido. Política de Control: Control de directiva que determina si el usuario tiene permisos de administrador para realizar la reservación. Si tanto el control de admisión como el control de políticas tienen éxito, el demonio a continuación, establece los parámetros en las dos entidades, clasificador de paquetes y Programador de paquetes. Clasificador de paquetes: El clasificador de paquetes RSVP determina la clase de ruta y la calidad de servicio para cada paquete. Programador de paquetes: el Programador de paquetes RSVP ordena los paquetes para su transmisión con el fin de lograr la calidad de servicio prometida para cada flujo. El planificador asigna recursos para la transmisión en un medio de la capa de enlace de datos para cada interfaz. Proceso de enrutamiento-El demonio de RSVP también se comunica con el proceso de enrutamiento para determinar la ruta de acceso para enviar sus solicitudes de reservacion y de manejar cambios entre las rutas. Cada router que participa en la reservacion de recursos pasa los paquetes de datos entrantes a un clasificador de paquetes y los paquetes de las colas en caso necesario a un planificador de paquetes. Una vez que el clasificador de paquetes determina la clase de ruta y la calidad de servicio para cada paquete, y el programador asigna recursos para la transmisión, RSVP pasa la solicitud a todos los nodos (routers y hosts) a lo largo de las rutas de datos inversa a las fuentes de datos. En cada nodo, el programa RSVP aplica un procedimiento de decisión local llamado control de admisión para determinar si ese nodo puede proporcionar la calidad de servicio requerida. Si tiene éxito el control de admisión en la prestación de la calidad de servicio requerida, el programa RSVP establece los parámetros del clasificador de paquetes y planificador para obtener la calidad de servicio deseado. Si falla el control de admisión en cualquier nodo, el programa RSVP devuelve una indicación de error a la aplicación que originó la petición. Los Routers a lo largo de la ruta de datos de la secuencia inversa repiten esta reserva hasta que la reserva se fusiona con otra reserva para el flujo de la misma fuente.
  • 12. Diffserv Los servicios diferenciados (DiffServ) especifican una arquitectura simple, escalable y granular gruesa para la clasificación y gestión de tráfico de red y proporcionar garantías de QoS. Por ejemplo, Diffserv puede proporcionar servicio garantizado de baja latencia (SG) para el tráfico de red críticos, tales como voz o video mientras que proporciona la garantías best-effor a los servicios no críticos, tales como el tráfico web o transferencias de archivos. 2.3 Descripción de DiffServ QoS. El diseño DiffServ supera las limitaciones tanto del modelo best-effor como IntServ. DiffServ puede proporcionar una calidad de servicio "casi garantizado" sin dejar de ser rentable y escalable. El concepto de calidad de servicio suave es la base del modelo DiffServ. Hay que recordar que IntServ (QoS duro) utiliza la señalización en la que el host final tiene sus propias QoS en base a las necesidades de la red. DiffServ no utiliza la señalización, pero trabaja en el provisionamiento del modelo QoS, donde los elementos de red están configurados para dar servicio de múltiples clases de tráfico a cada uno con diferentes requisitos de QoS. Al clasificar los flujos en agregados (clases), y proporcionar calidad de servicio adecuado para los agregados, DiffServ puede evitar una complejidad significativa, los costos y problemas de escalabilidad. Por ejemplo, en los grupos de DiffServ todos los flujos TCP se toman como una sola clase, y asigna el ancho de banda para esa clase, en lugar de para los flujos individuales como QoS duro (DiffServ). Además de la clasificación de tráfico y señalización, DiffServ minimiza los requisitos de mantenimiento del estado de cada nodo de la red. DiffServ divide el tráfico de red en las clases basadas en las necesidades de negocios. Cada una de las clases se les puede asignar diferentes niveles de servicio. Como a los paquetes al atravesar una red, cada uno de los dispositivos de red identifica la clase de paquetes y servicios el paquete de acuerdo a esa clase. El modelo de QoS duro (IntServ), prevé una solución end-to-end QoS, utilizando la señalización de extremo a extremo, el estado de mantenimiento y control de admisión. Este método consume importantes gastos, restringiendo así su capacidad de ampliación. Por otra parte, DiffServ no puede hacer cumplir las garantías de extremo a extremo, pero es un enfoque más escalable para la aplicación de QoS. Los mapas DiffServ divide muchas aplicaciones en pequeños grupos de clases. DiffServ asigna a cada clase un conjunto similar de calidad de servicio y cumple las conductas y aplica mecanismos de QoS en base a un salto a salto, aplicando de manera uniforme el sentido global de cada clase de tráfico para proporcionar la flexibilidad y la escalabilidad. DiffServ funciona como un servicio de entrega de paquetes. Usted pide (y paga) un nivel de servicio al enviar su paquete. A lo largo de la red de paquetes, el nivel de servicio es reconocido y tu paquete es ya sea preferencial o normal de servicio, dependiendo de lo que se solicite. Beneficios:
  • 13. • Altamente escalable • Muchos niveles de calidad posible Desventajas: • No hay garantía absoluta de servicio • Requiere un conjunto de mecanismos complejos para trabajar en conjunto en toda la red 2.4 Clasificación y Marcado de Tráfico. La clasificación es el proceso de identificación y de categorización de una clase de trafico. La clasificación utiliza un descriptor de tráfico para categorizar un paquete dentro de un grupo específico que define ese paquete. Después de que el paquete ha sido clasificado o identificado, el paquete es accesible para el manejo de QoS en la red. Los descriptores de tráfico que se suelen utilizar incluyen: • Interfaz de entrada • Precedencia IP • Punto de código de servicios diferenciados (DSCP) • Dirección origen o destino • Aplicación Usando la clasificación, los administradores de red pueden partir el tráfico de red en múltiples clases de servicio (CoS). Cuando los descriptores de tráfico se utilizan para clasificar el tráfico, la fuente implícitamente se compromete a cumplir las condiciones contratadas y las promesas de QoS para la red. Varios mecanismos de QoS, tales como las politicas de tráfico, y técnicas de puesta en cola, utilizar el descriptor de tráfico del paquete (es decir, la clasificación de los paquetes) para garantizar el cumplimiento de ese acuerdo. La clasificación debe tener lugar en el borde de la red, típicamente en el armario de cableado, dentro de los teléfonos IP, o en los extremos de la red. Cisco recomienda que la clasificación se produzca tan cerca de la fuente del tráfico como sea posible. NOTA: El termino clasificación es intercambiable con el termino clasificación de paquetes. El Marcado está relacionado con la clasificación. Las Herramientas de clasificación de QoS clasifican los paquetes al examinar el contenido del frame, celda , y el encabezado de los paquetes, mientras que el marcado de QoS proporcionan una herramienta para cambiar la cabecera del paquete para facilitar la clasificación. El marcado consiste en colocar un valor en uno de los pocos frames bien definido, un paquete, o campos de cabecera de la celda específicamente diseñado para el marcado de QoS. Al marcar un paquete, otras funciones de calidad de servicio pueden realizar una clasificación basada en el campo marcado dentro del encabezado. El marcado simplifica el diseño de la red en QoS, que facilita la configuración de otras herramientas de QoS, y reduce los gastos generales requeridos por cada una de las otras herramientas de QoS para clasificar los paquetes. Marcar un paquete o un frame con su clasificación permite a los dispositivos de red con posterioridad distinguir fácilmente el paquete o frame marcado como pertenecientes a una clase específica. Después de los paquetes o frames se identifican como pertenecientes a una clase específica, los mecanismos de QoS pueden aplicarse de manera uniforme para garantizar el cumplimiento de las normas administrativas de QoS.
  • 14. Marcadores comunes: Capa de enlace: CoS (ISL, 802.1p) MPLS EXP bits Frame Relay Capa de red: DSCP Precedencia IP CLASIFICACION Y MARCADO EN LA RED LAN CON IEEE 802.1Q El estándar 802.1Q es la especificación para implementar VLAN´s en la capa 2 de las redes. Esta especificación define 2 campos de 2 bytes (TPID Etiqueta identificador de protocolo y TCI Etiqueta de control de información) esta es insertada dentro de un frame ethernet después del campo del la dirección origen. El campo TCI incluye 3 bits que son utilizados para identificar la prioridad del usuario. Estos bits pueden ser usados para marcar los paquetes para especificar la clase del servicio a la que pertenecen (CoS). El marcado CoS permite al frame de capa 2 ethernet que son etiquetados con 8 niveles de prioridad (valores de 0 a 7). 3 bits permiten 2^3 niveles de clasificación, permitiendo una correspondencia directa con IP versión 4 (precedencia IP) y los valores de tipo de servicio (ToS). Una desventaja de usar marcado CoS es que los frames pierden el marcado CoS mientras transitan en un enlace no-802.1Q. El enlace troncal con 802.1Q debe ser activado antes de que el campo CoS exista. Tan pronto como el paquete de capa 3 sea enviado, cualquiera con un router o con un switch de capa 3, el antiguo encabezado LAN sea descartado y el campo CoS se puede perder. Por lo tanto, una marca permanente en todas partes debe utilizarse para el trafico de la red . Esto es tipicamente logrado cuando trasladamos un marcado CoS dentro de otro marcado o simplemente utilizando otro mecanismo de marcado. CLASIFICACION Y MARCADO EN LA EMPRESA
  • 15. Frame relay provee un simple mecanismo de QoS para asegurar el tasa de transmisión comprometida (CIR): Las notificaciones de congestión llamadas notificación explicita de congestión hacia adelante (FECN) y las notificaciones de congestion explicita inversa (BECN), adicionalmente de la fragmentación de los frames de datos, cuando los frames de voz están presentes, como se describe en el estándar Frame Relay FRF.12. Un componente de frame relay QoS es descartar los paquetes elegibles cuando se experimenta congestion en la red. Frame relay permite que el trafico de la red que va ser enviado exceda el CIR. Los frames que excedan la tasa de transmisión comprometida deben de ser marcados como elegibles para descartar (DE) al ingresar al switch frame relay. Si la congestion ocurre dentro de la red, los frames marcados con elegibles para descartar (DE) preferentemente deben de ser descartados antes que los frames que no están marcados. Cuando un cliente transmite paquetes IP de un sitio a otro, el campo de precedencia IP (los 3 primeros bits del campo DSCP en el encabezado de un paquete IP) especifica el CoS. Usando la precedencia IP, el administrador de red debe asignar valores de 0 (por defecto) a 7 para clasificar y priorizar los tipos de tráfico. Basados en el marcado de precedencia IP, el paquete se le da el tratamiento deseado, como es garantizar el ancho de banda o latencia. La precedencia IP es eliminado gradualmente en favor del DSCP, pero es soportada por muchas aplicaciones y router´s. Los bits MPLS experimentales comprenden un campo de 3 bits que se puede utilizar para asignar prioridad IP en una etiqueta MPLS. Esto permite que los enrutadores que tengan MPLS habilitado puedan realizar funciones de QoS basada indirectamente en el campo original de precedencia IP dentro de los paquetes IP encapsulados por MPLS, sin necesidad de gastar recursos para buscar en la cabecera del paquete IP y examinar el campo de precedencia IP. Si el proveedor de servicios de red es una red MPLS, a continuación, los bits de precedencia de IP se copian en el Campo Experimental MPLS (CAD) de campo en el borde de la red. El campo MPLS EXP permite que el proveedor de servicios pueda ofrecer QoS sin sobrescribir el valor en el campo de los clientes de precedencia IP. El encabezado IP queda disponible para uso del cliente, y el marcado de paquetes IP no se cambia, mientras que el paquete viaja a través de la red MPLS En contraste con servicios integrados (IntServ), que es de grano fino, el flujo de mecanismo basado en el servicio diferenciado (DiffServ) es un mecanismo basado en el grano grueso, clase para la gestión del tráfico. La arquitectura DiffServ se basa en un modelo simple en el que los paquetes de datos se colocan en un número limitado de clases de tráfico, en lugar de diferenciar el tráfico de
  • 16. red basada en las necesidades de un flujo individual. Cada clase de tráfico se pueden manejar de otra manera, asegurando un trato preferencial para tráfico de prioridad más alta en la red. Uno de los principios fundamentales de DiffServ es que se debe marcar los paquetes tan cerca del borde de la red como sea posible. A menudo es una tarea difícil y toma tiempo, para determinar qué la clase de trafico a la que un paquete de datos pertenece. Se deben clasificar los datos lo menos que sea posible. Al marcar el tráfico en el borde de la red, los dispositivos de la red básica y otros dispositivos a lo largo de la ruta de transmisión serán capaces de determinar rápidamente el CoS adecuada para aplicar a un determinado flujo de tráfico. Un beneficio clave de DiffServ es la facilidad de escalabilidad en comparación con IntServ. HERRAMIENTAS DE CLASIFICACION PARA LA PRECEDENCIA IP Y PUNTOS DE CODIGO DIFFSERV El byte de Tipo de Servicio IP en la capa 2 cambia a menudo, de acuerdo a los medios de comunicación que los paquetes atraviesen desde el origen al destino, una clasificación más omnipresente que se producen en la capa 3. El segundo byte de un paquete IPv4 es el byte tipo de servicio (ToS). Los tres primeros bits del byte ToS solo se conocen como la prioridad de la propiedad intelectual (PPI) de bits. Estos mismos tres bits, en relación con los próximos tres bits, se conocen colectivamente como los bits DSCP. Los bits de precedencia IP, como 802.1p bits de CoS, permiten sólo 8 valores de marca de (0-7). IPP valores de 6 y 7 son generalmente reservada para el tráfico del control de la red(como el enrutamiento). IPP valor 5 es recomendado para la voz. IPP Valor 4 es compartida por videoconferencia y streaming de video. IPP valor 3 es para el control de voz. IPP valores 1 y 2 puede ser utilizado para aplicaciones de datos. El valor IPP 0 es el valor por defecto. Muchas empresas encuentran al marcado IPP, como excesivamente restrictivo y limitante, favoreciendo en cambio el modelo de marcado DSCP 6-Bit/64-value. IP byte ToS y el campo DS dentro del encabezado IP
  • 17. Para apoyar DiffServ, el IPv4 Tipo de servicio (ToS) octeto se ha redefinido de 3-bit para precedencia IP a 6-bit para el campo DSCP. Antes de DiffServ, las redes IP podría utilizar el campo de precedencia en el tipo de servicio (TOS) de bytes de la cabecera IP para marcar el tráfico de prioridad. Como el byte TOS y la precedecnia IP no era ampliamente utilizado, el IETF acordó volver a utilizar el byte TOS como el campo DS para las redes de DiffServ. A fin de mantener la compatibilidad con dispositivos de red que aún utilizan el campo de precedencia, DiffServ define el PHB selector de clase. El Selector de puntos de código de clase son de la forma 'xxx000'. Los tres primeros bits son los bits de precedencia IP. Cada valor de precedencia IP puede ser asignada a una clase de DiffServ. Si se recibe un paquete de un router no-DiffServ consciente de que utiliza las marcas de prioridad de investigación, el router DiffServ todavía puede entender la codificación de punto de código como un selector de clase. PRECEDENCIA IP Y COMPATIBILIDAD CON DSCP RFC 2474 sustituye el campo TOS con el campo DiffServ, en el que una serie de ocho valores (selector de clase) se utiliza para la compatibilidad con IP precedente. No hay compatibilidad con otros bits utilizados por el campo TOS. El selector de clase Per Hop Behavior (PHB) fue definido para proporcionar compatibilidad hacia atrás para DSCP con Tos-basada prioridad de investigación. RFC 1812 simplemente da prioridad a los paquetes de acuerdo con el valor de prioridad. En este sentido, el PHB se define como la probabilidad de transmisión puntual. Por ejemplo, considere una oferta de proveedor de servicios de los llamados "Juegos Olímpicos" clases de servicio (Oro, Plata, Bronce) para que los paquetes en la experiencia de la clase de oro tengan la carga más ligera, y por lo tanto tienen mayor probabilidad de transmisión oportuna que los paquetes asignados a la clase plata. Los paquetes con mayor precedencia IP debería ser (en promedio) los que se transmitan en menos tiempo que los paquetes con prioridad IP más bajos. Los últimos 3 bits del DSCP (bits 2 a 4) se ponen a 0 para identificar una clase selectora de PHB. COMPORTAMIENTO POR SALTOS
  • 18. Ahora que los paquetes pueden ser marcados con el DSCP, ¿cómo podemos proveer de CoS significativa, y proporcionar la calidad de servicio que se necesita? En primer lugar, la organización de los paquetes que tienen el mismo valor DSCP (también llamado punto de código) en ellos, y de paso en una dirección determinada se denomina "el comportamiento global (BA). Los paquetes de múltiples aplicaciones y fuentes podrían pertenecer a la misma BA. Formalmente, RFC-2475 define un Per Hop Behavior (PHB) como el comportamiento de reenvío externamente observables aplicado a un nodo DS compatible con un BA DS. En términos más concretos, un PHB se refiere a la programación de paquetes, de cola, la politica, o la configuración del comportamiento de un nodo en cualquier paquete dado que pertenecen a una BA, y tal como está configurado por un Acuerdo de Nivel de Servicio (SLA) o la política. Hasta la fecha, cuatro PHBs estándares están disponibles para construir un DiffServ habilitado para red de grano grueso, de extremo a extremo de CoS y QoS: Default, EF, AF y de clase-selector. PHBs se definen en términos de las características de comportamiento pertinentes para las políticas de provisión de servicio, y no en términos de mecanismos de aplicación en particular. En general, una variedad de mecanismos de aplicación pueden ser adecuados para la aplicación de un grupo de PHB en particular. La arquitectura DiffServ define el campo DiffServ (DS) para hacer el comportamiento por saltos (PHB) las decisiones sobre la clasificación de paquetes y funciones de acondicionamiento de tráfico, como la medición, marcado, dar forma, y la politica. El PHB por defecto (definida en el RFC-2474). El valor por defecto PHB especifica que un paquete marcado con un valor DSCP (recomendado) de `000000 'obtiene el mejor servicio posible tradicionales de un nodo DS compatible (una red que cumple todos los requisitos básicos DiffServ). Además, si un paquete llega a un nodo DS compatible y su valor DSCP no está asignado a cualquiera de los otros PHBs, obtendrá el valor por defecto asignado a PHB. Class-Selector de PHB (definido en el RFC- 2474). Para preservar la compatibilidad con el sistema de propiedad intelectual de precedencia, los valores DSCP de la forma `xxx000", donde x es 0 o 1, se definen. Estos puntos de código se denominan de clase puntos de código de selección. El PHB asociado con un punto de código de selección de clase es una clase de selector de PHB. Estos PHBs retienen casi el mismo comportamiento de reenvío como nodos que implementan la propiedad intelectual basados en la clasificación y prioridad de reenvío. Por ejemplo, los paquetes con un valor DSCP de `110000 '(IP- precedencia 110) tienen un tratamiento preferencial de transmisión (programación, colas, etc) en comparación con los paquetes con un valor DSCP de` 100000' (IP-precedencia 100). Estos PHBs garantizar que los DS-compatible con los nodos pueden coexistir con la propiedad intelectual prioridad nodos consciente, con la excepción de los bits DTS. ESTANDARES DE GRUPOS PHB
  • 19. 2.5 Mecanismos de QoS para administrar y evitar la congestión de la red. Una manera de manejar elementos de la red de un desbordamiento o congestión de tráfico es utilizar un algoritmo de cola para ordenar el tráfico y, a continuación, establecer un método de prioridad en un enlace de salida. El software Cisco IOS incluye las herramientas de cola siguientes: • Primero en entrar, primero en salir (FIFO), cola • Prioridad de cola (PQ) • Uso de cola(CQ) • flujo basado en ponderación de cola justo(WFQ) • Clase basada en ponderación de cola justa(CBWFQ) Cada algoritmo de cola fue diseñado para resolver un problema específico de tráfico de la red y tiene un particular efecto sobre el rendimiento de la red. FIFO básicamente es la capacidad de almacenamiento y envio En su forma más simple, hacer cola FIFO implica el almacenamiento de paquetes, cuando la red está congestionada y la transmisión por orden de llegada cuando la red ya no está congestionado. FIFO es el valor predeterminado del algoritmo de cola, en algunos casos, por lo que no requiere configuración, pero tiene varios defectos. Importante, FIFO no hace cola de decisión sobre la prioridad de paquetes, el orden de llegada determina el ancho de banda, rapidez, y la asignación de amortiguamiento. Tampoco prevé la protección contra los malos comportamientos de las aplicaciones (fuentes). Rafagas de las fuentes puede causar retrasos en el tiempo de entrega de aplicaciones sensible al tráfico, y potencialmente para el control de la red y los mensajes de señalización. La cola FIFO es necesario en primer lugar el paso en el control de tráfico de la red, pero las redes inteligentes de hoy necesitan algoritmos más sofisticados. Además, una cola completa causa gotas de cola. Esto no es deseable porque el paquete podría haberse descartado siendo un paquete de alta prioridad. El enrutador no puedo evitar que este paquete se elimine porque no había lugar en la cola para almacenarlo (además del hecho de que FIFO no puede decidir de un paquete de alta prioridad a uno de mínima prioridad). El software Cisco IOS implementa algoritmos de cola que evitar las deficiencias de cola FIFO. PQ: priorización del tráfico
  • 20. PQ garantiza que el tráfico importante sea manejado mejor en cada punto donde se utiliza. Fue diseñado para dar prioridad al tráfico de estricta importante. La prioridad de cola flexible puede priorizar de acuerdo al protocolo de red (por ejemplo, IP, IPX o AppleTalk), interfaz de entrada, el tamaño de paquete, dirección de la fuente/destino, y así sucesivamente. En PQ, cada paquete se coloca en una de las cuatro colas, alta, media, normal, o baja sobre la base de una de las prioridades asignadas. Los paquetes que no están clasificados por esta prioridad en las listas mecanismo de descarte en la cola normal (ver Figura Siguiente). Durante la transmisión, el algoritmo da las colas de mayor prioridad trato preferencial absoluto sobre las colas de prioridad baja. PQ es útil para asegurarse de que el tráfico de misión crítica que atraviesa varios enlaces WAN se le de tratamiento prioritario. CQ: Garantía de ancho de banda CQ fue diseñado para permitir que varias aplicaciones u organizaciones puedan compartir la red entre las aplicaciones con ancho de banda mínimo o requisitos específicos de latencia. En estos entornos, el ancho de banda debe ser compartido proporcionalmente entre las aplicaciones y los usuarios. Usted puede utilizar la característica de Cisco para proporcionar CQ ancho de banda garantizado en un punto de congestión potenciales, asegurando el tráfico especificado en una parte fija del ancho de banda disponible y dejando el ancho de banda restante para la circulación. Usando una cola para el manejo de tráfico mediante la asignación de una cantidad específica de espacio en la cola a cada clase de paquetes y, a continuación el servicio de las colas en un round- robin (ver Figura Siguiente).
  • 21. Basadas en flujos WFQ: Realizando equidad entre diferentes flujos Para las situaciones en las que es conveniente establecer el tiempo de respuesta coherente a la red de datos entre los paquetes pesados y ligeros de los usuarios, por igual sin necesidad de añadir ancho de banda excesivo, la solución está basada en el flujo de WFQ (comúnmente denominado como el justo WFQ). WFQ es una de las técnicas de colas de cisco. Es un flujo basado en el algoritmo de cola que crea bits de equidad al permitir a cada cola ser atendidos de forma equitativa en términos de cantidad de bytes. WFQ asegura que las colas no se priven de ancho de banda y el trafico reciba un servicio predecible. El bajo volumen de flujos de tráfico, que constituyen la mayoría de tráfico, recibir el servicio de aumento de que se transmite el mismo número de bytes como los arroyos de gran volumen. Este comportamiento resulta en lo que parece a un trato preferencial para tráfico de bajo volumen, cuando en realidad es hacer justicia, como se muestra en la siguiente figura. WFQ está diseñado para reducir al mínimo el esfuerzo de configuración, y automáticamente se adapta a los cambios de red y las condiciones del tráfico. De hecho, WFQ hace un trabajo tan bueno para la mayoría de las aplicaciones que se ha hecho la modalidad por defecto de cola en la mayoría de las interfaces de serie configurado para ejecutarse en o por debajo de las velocidades
  • 22. de E1 (2,048 Mbps). Basado en flujos WFQ crea corrientes sobre la base de una serie de características en un paquete. Cada flujo (también llamado como una conversación) tiene su propia cola de búfer si se experimenta congestión. La parte ponderada de WFQ proviene de la utilización de bits de precedencia IP para proporcionar un mejor servicio para las colas. Utilizando los valores 0 a 5 (6 y 7 están reservados), WFQ utiliza su algoritmo para determinar cómo una cola puede prestar muchos más de servicios. WFQ es eficiente dado que utiliza cualquier ancho de banda disponible para reenviar el tráfico de baja prioridad. Si no hay flujos de tráfico de los flujos de mayor prioridad está presente. Esto es diferente de tiempo estrictos división Multiplexing (TDM), que simplemente divide al ancho de banda y permite que se queden sin utilizarse, si no hay tráfico presente para un tipo de tráfico particular. WFQ funciona tanto con precedencia de IP y Protocolo de reserva de recursos (RSVP). El algoritmo de WFQ también aborda el problema de la ronda de la variabilidad de retardo de disparo. Si el volumen de múltiples conversaciones activas es alta, sus tasas de transferencia y los períodos entre llegadas se hacen mucho más previsible. Esto es creado por el bit-equidad. Si las conversaciones son atendidos de manera consistente con un enfoque round-robin, la variación de retardo (o jitter) se estabiliza. WFQ mejora enormemente algoritmos como SNA, control de enlace lógico (LLC) y el Protocolo de Control de Transmisión (TCP), el control de la congestión. El resultado es que es más predecible el rendimiento y tiempo de respuesta para cada flujo activo, como muestra en siguiente figura. La cooperación entre WFQ y QoS tecnologias de señalización Como se mencionó anteriormente, WFQ es prioridad IP-consciente, es decir, es capaz de detectar la mayor prioridad de los paquetes marcados con prioridad por el despachador IP y puede programarlos con mayor rapidez, dando siempre mejor tiempo de respuesta para este tráfico. Esta es la parte ponderada de WFQ. El campo de precedencia IP tiene valores entre 0 (por defecto) y 7 (6 y 7 están reservados y normalmente no son fijados por los administradores de red). A medida que aumenta el valor de prioridad, el algoritmo asigna más ancho de banda para que la conversación pueda asegurarse de que se sirve con más rapidez aun cuando se produzca congestión. WFQ asigna un peso a cada flujo, con el fin de determinar como se van a transmitir los paquetes en la cola. En este esquema, bajo peso se dan más servicio. Precedencia IP sirve como un divisor de este factor de ponderación. Por ejemplo, el tráfico con una IP Valor de un campo de precedencia de 7 recibe un peso más bajo que el tráfico con el valor de un campo de precedencia IP de 3, y por lo tanto, tiene prioridad en el orden de transmisión.
  • 23. WFQ es también RSVP-aware; RSVP WFQ utiliza para asignar espacio de amortiguación y los paquetes de programación, y es garantía de ancho de banda para los flujos reservados. Además, en una red Frame Relay, la presencia de la congestión está marcado por la notificación de la congestión con interés explícito (FECN) y hacia atrás explícita la notificación de la congestión (BECN) bits. Los pesos WFQ se ven afectados por Frame Relay al descartar elegibles (DE), FECN, y los bits BECN cuando el tráfico se cambia por el módulo de conmutación Frame Relay. Cuándo se marca congestión, las ponderaciones utilizadas por el algoritmo se alteran de manera que la conversación transmite con menos frecuencia. Basada en clases WFQ: Garantizar ancho de banda para la red Basada en clases WFQ (CBWFQ) es una de de las nuevas herramientas de administración de la congestion de Cisco para proporcionar una mayor flexibilidad. Cuando se desea proporcionar una mínima cantidad de ancho de banda, el uso CBWFQ. Esto es en comparación con un deseo de proporcionar una cantidad máxima de ancho de banda. CAR y de tráfico se utilizan en ese caso. CBWFQ permite a un administrador de red crear clases de ancho de banda mínimo garantizado. En lugar de proporcionar una cola para cada flujo individual, se define una clase que consta de uno o más flujos. A cada clase se le puede garantizar un mínimo de ancho de banda. La baja latencia de cola permite a una clase ser atendidos como una cola de prioridad estricta. El tráfico en esta clase se le dara servicio antes de cualquiera de las otras clases. Una reserva de una cantidad de ancho de banda que se haga. Cualquier tráfico por encima de esta reserva se descarta. Fuera de CBWFQ, puede utilizar la propiedad intelectual prioridad RTP (también conocido como PQWFQ) o IP reserva RTP para prestar un servicio similar para el tráfico RTP solamente. Administración de colas (Herramientas para evitar la congestión) Evitar la congestión es una forma de administración de colas. Las técnicas para evitar la congestión monitorean las cargas de tráfico de red en un esfuerzo para anticipar y evitar la congestión en los cuellos de botella de la red común, como opuesto de las técnicas de manejo de congestión estas operan el control de la congestión después de que esta ocurre. La herramienta primaria para evitar la congestión del Cisco IOS es Weighted Random Early Detection (WRED). WRED: Evita congestión Los algoritmos de detección temprana de azar (Ramdom Early Detection RED) están diseñados para evitar la congestión en las Internetworks antes de que se convierta en un problema. RED funciona mediante el monitoreo en los puntos de carga de tráfico en la red y estocásticamente descarta paquetes si la congestión comienza a aumentar. El resultado de la caída es que la fuente detecta que el tráfico se descarta y disminuye su transmisión. RED es principalmente diseñado para trabajar con TCP en IP en entornos de redes. WRED Cooperación con las tecnologías de señalización QoS WRED combina las capacidades del algoritmo de RED con precedencia IP. Esta combinación proporciona preferencia para el tráfico de manipulación para los paquetes de mayor prioridad. De manera selectiva se puede descartar el trafico de menor prioridad cuando la interfaz comienza a estar congestionada y puede proporcionar un rendimiento diferenciado de acuerdo a las características de las diferentes clases de servicio. WRED es como RSVP-aware y puede proporcionar un servicio integrado de carga controlada para QoS. Dentro de cada cola, un número finito de paquetes pueden ser alojados. Una cola completa causa gotas de cola. Gotas de cola es descartar los paquetes que no caben en la cola porque la cola esta
  • 24. llena. Esto no es deseable porque el paquete descartado puede haber sido de alta prioridad de paquetes y el router no tiene la oportunidad de meterlo a la cola. Si la cola no está llena, el router puede ver la prioridad de todos los paquetes que llegan y descartar los paquetes con menor prioridad, permitiendo que los paquetes de alta prioridad entren en la cola. A través de la gestión de la capacidad de la cola (el número de paquetes en la cola), descartando varios paquetes, el router puede hacer todo lo posible para asegúrese de que la cola no se llene, y que las gotas de la cola no se experimenten. Esto permite que el router tenga que tomar la decisión de los paquetes que debe descartar cuando aumenta la capacidad de la cola. WRED también ayuda a evitar la congestión general en una interconexión de redes. WRED utiliza un umbral mínimo para cada nivel de precedencia IP para determinar cuando un paquete se puede descartar. (El umbral mínimo debe ser superado para que WRED pueda considerar un paquete como un candidato para ser descartados). Flujo RED: RED para No-TCP-Cumplimiento de los flujos WRED se utiliza principalmente para los flujos TCP que permite el reenvío si se interrumpe la transmisión de un paquete. Esto es no-TCP-cumplimiento de flujos que no permiten el reenvío si los paquetes son descartados. El Flujo RED se utiliza para tratar con esos flujos. El enfoque consiste en aumentar la probabilidad de descartar un flujo si supera un umbral. Basado en flujo WRED se basa en estos dos enfoques principales para solucionar el problema de los paquetes lineal dumping: • Se clasifica el tráfico entrante en los flujos en función de parámetros tales como direcciones de destino y origen y los puertos. • Se mantiene el estado sobre los flujos de activos, que son los flujos que tienen los paquetes en las colas de salida. El flujo basado en WRED utiliza esta clasificación y el estado de la información para asegurar que cada flujo no consuma más de su cuota permitida de los recursos de búfer de salida. El flujo basado en WRED determina los flujos que monopolizan los recursos, y en mayor medida penaliza a estos flujos. Así es como el flujo basado en WRED asegura la equidad entre los flujos: Este mantiene un conteo del número de flujos activos que existen a través de una interfaz de salida. Dado el número de los flujos de activos y el tamaño de la cola de salida, el flujo basadas en WRED determina el número de búferes disponibles por flujo. Para que haya una cierta explosividad, el flujo basado en WRED escala el número de búferes disponibles por flujo por un factor configurado y permite que cada flujo activo pueda tener un cierto número de paquetes en la cola de salida. Este factor de escala es común para todos los flujos. La salida de escala por el número de buffers trata de limitar el flujo. Cuando un flujo excede el límite por flujo, la probabilidad de que un paquete de ese flujo se descarte se incrementa. 2.6 AutoQoS Cisco AutoQoS: Automatizando la entrega de las redes QoS
  • 25. El auto Qos de Cisco automatiza el despliegue de politicas de QoS en un entorno de negocios, particularmente para las grandes y medianas empresas. AutoQoS ofrece algunos beneficios como: • Incorpora valor agregado de inteligencia en CISCO IOS y en el sistema operativo de los CISCO catalyst que proporcionan la implementación y la administración de QoS. • Protege los datos críticos de negocios en la empresa que maximiza su disponibilidad. • Provee QoS para router´s y switches, simplificando el despliegue de QoS. • Los clientes pueden implementar requerimientos de QoS para voz, video y el trafico de datos externo, independientemente de la tecnología(PPP, Frame Relay, ATM, Politicas de Servicio y mecanismo de eficiencia del enlace). • Simplifica la implementación del QoS y aumenta la velocidad mediante la tecnología de QoS en una red CISCO. Esto reduce el potencial de un error humano y minimiza los costos de capacitación. • Crea un mapa de clases y mapas de políticas en la experiencia de Cisco y las mejores practicas. AutoQoS crea una configuración de QoS, siguiendo los estándares industriales, como el modelo DiffServ, para lograr un ambiente interoperable. • Los clientes pueden utilizar los comandos de CISCO IOS para modificar la configuración automática generada por el AutoQoS, que se necesita para requerimientos específicos. Cisco AutoQoS: Automatizando los elementos clave de la implementación de QoS El Cisco AuoQoS se basa en 5 elementos claves: • Clasificacion de las aplicaciones: AutoQoS usa una clasificación inteligente en los routers, utilizando Reconocimiento de la Aplicación Basada en la Red (NBAR) que provee una inspección de paquetes profunda y completa. El AutoQoS usa el Protocolo de Descubrimiento de Cisco (CDP) para reconocer los dispositivos, ayuda para descubrir si es que un dispositivo de la red es realmente un Cisco IP Phone. • Generacion de Politicas: El AutoQoS evalua el rendimiento de la red y genera una politica inicial. Esta automáticamente determina las configuraciones WAN para la framentación, compresión, encapsulamiento y Frame Relay – ATM internetworking, elimando la necesidad de entender la teoría de QoS y diseñar practicas en varios escenarios. El cliente debe conocer los requerimientos adicionales o especiales para modificar la política inicial. • Configuración: Con un comando AutoQoS configura la interfaz para priorizar el trafico critico mientras ofrecen flexibilidad para ajustar la configuración QoS para los requerimientos de cada red. El AutoQoS no solamente detecta los Cisco Ip Phones y activa la configuración QoS para el puerto del teléfono, también puede desactivar las
  • 26. configuraciones QoS para prevenir la actividad maliciosa cuando se mueve o reubica un Cisco IP phone. • Monitoreo y reportes: El AutoQoS provee visibilidad dentro de las clases del servicio usando el sistema de ingreso y el protocolo simple de administración de red (SNMP) trampas con notificaciones o eventos anormales( por ejemplo la perdida de paquetes VoIP). El Cisco QoS Administrador de Politicas (QPM) es el monitor de la plataforma QoS, cuando usas el Cisco inteligencia de red IP para proveer visibilidad de las operaciones de red. Tambien se puede medir la salida de trafico para las aplicaciones y clases de servicios. Podemos resolver problemas con un historial en tiempo real de QoS feedback. AutoQoS despliega el trafico y estadísticas en graficas de líneas o barras, en bits o paquetes por segundo, por interface o política. Cisco QPM activa la vista de graficos antes y después de QoS deployment, tied al filtro de trafico y políticas, como resultado de las políticas QoS. • Consistencia: Las políticas AutoQoS trabajn junto con los dispositivos Cisco, ayudando a la consistencia en el QoS de Fin – Fin. Cisco QPM activa las siguientes vistas: o Estadisticas sobreponiendo políticas y filtros específicos, incluyendo NBAR filtros de aplicaciones. o El promedio de trafico antes de aplicar las políticas QoS y el trafico transmitido posteriormente, además del trafico descartado como consecuencia de las políticas. o Estadisticas de acción QoS: weighted random early detection (WRED), politicas, organización de trafico y colas. CONFIGURACION MANUAL DE QoS CONTRA AUTOQoS CONFIGURANDO CISCO AUTOQoS: PREREQUISITOS DEL ROUTER Antes de configurar Cisco AutoQos debemos de conocer sus prerrequisitos: • Debemos asegurarnos que la interfaz no tenga políticas de QoS agregadas. No se puede configurar AutoQoS en una interfaz que ya tenga políticas QoS agregadas. • Activar el Cisco envio express(CEF). AutoQoS utiliza NBAR para identificar varios tipos de trafico de las aplicaciones y CEF es un prerrequisito para NBAR. • Cisco AutoQoS clasifica los enlaces y la alta o baja velocidad depende del ancho de banda del enlace. Recuerde que si en una interfaz serial no se especifica el ancho de banda se le pone 1.544 Mbps por defecto. Entonces debemos asegurarnos de tener el correcto ancho de banda en las interfaces o subinterfaces cuando Cisco AutoQoS este activado.
  • 27. Implementación de QoS en 2 fases Fase 1: Ejecutar Auto Descubrimiento para conocer el trafico: Se debe recolectar datos para el trafico ofrecido por algunos dias o semanas como se desee. Usar NBAR basado en el protocolo de descubrimiento. Realizar análisis estadísticos. Fase 2: Generar e implementar MQC basada en políticas QoS. Mapear las aplicaciones que correspondan con las clases Diffserv. Asignando valores apropiados para el ancho de banda y programando parámetros. FASE 1: PERFILES DE TRAFICO EN LOS ROUTERS CON AUTO DESCUBRIMIENTO Iniciar la fase de auto descubrimiento usando el comando auto discovery qos en la interfaz seleccionada. Cuando se ejecute el auto descubrimiento, observe estas restricciones: El comando auto discovery qos no es soportado por la subinterfaces. No cambie el ancho de banda en la interfaz cuando utilize el comando auto discovery qos. Se deben quitar todas las políticas aplicadas en la interfaz. La palabra opcional trust indica que los paquetes son marcados en base al DSCP (basado en) la clasificación de voz, video y trafico de datos. Si no se especifica esta opción CiscoAutoQos clasifica voz, video y el trafico de datos usando NBAR y los paquetes van a ser marcados con el valor apropiado DSCP. Notas sobre la fase de auto descubrimiento: Si queremos parar el autodescubrimiento, usaremos el comando no auto discovery qos. Este comando detendrá el proceso de recolección de datos y eliminara todos los datos recolectados. Si queremos verificar el resultado parcial de el auto descubrimiento usaremos el comando show auto discovery qos. EJEMPLO DE ACTIVACIÓN DE AUTO DESCUBRIMIENTO QoS
  • 28. FASE 2 Configurando políticas QoS en los routers El comando auto qos genera para la empresa plantillas basadas en datos recogidos durante la fase de auto descubrimiento y luego instala las plantillas de la interfaz. AutoQoS utiliza estas plantillas para crear mapas de la clase y mapas de las políticas de la red y luego los instala en la interfaz. Para eliminar el Cisco AutoQoS de una interfaz se utiliza la forma no del comando auto qos. Se utiliza la palabra clave voip para generar plantillas con Cisco AutoQoS VoIP. La palabra clave trust se utiliza para la confianza (es decir, depende de) las marcas DSCP para la clasificación de tráfico de voz. Si no se especifica la palabra clave de la confianza opcional, Cisco AutoQoS clasifica el tráfico de voz utilizando NBAR, y las marcas de los paquetes con el valor DSCP apropiado. La opción fr-atm activa Cisco AutoQoS VoIP para los enlaces de frame relay a ATM. EJEMPLO DE LA APLICACION DE AutoQoS COMO SE VERIFICA EL AUTOQoS EN LOS ROUTERS Y LOS SWITCHES
  • 29. Muestra los datos recolectados durante el auto descubrimiento para una interfaz o para todas la interfaces. Despliega las plantillas de Cisco AutoQoS (Mapas de políticas, mapas de clases y ACL), creadas para una o todas las interfaces. Muestra las estadísticas para todas las clases de paquetes configurados para todas las políticas de servicio en una interfaz especifica, subinterfaz o PVC. Despliega la configuración de Cisco AutoQoS VoIP que fue inicialmente creada. Muestra la información QoS a nivel de interfaz. Muestra los mapas que se utilizan para generar la clasificación de valores DSCP, que representa la prioridad del trafico. III. VoIP
  • 30. Objetivo: El alumno configurará protocolos de VoIP en una red convergente para establecer comunicaciones de voz. 3.1 Introducción a la tecnología y arquitecturas de VoIP. Las redes convergentes permiten transmitir señales de voz y datos sobre la misma red. Muchas empresas de telecomunicaciones usan estas redes convergentes proporcionar servicios de telefonía y datos con una infraestructura única de red basada en IP. Los beneficios que se obtienen al utilizar la misma infraestructura para transferir distintos tipos de señales son: • Uso eficiente del ancho de banda y equipamiento. • Bajos costos de transmisión. • Reducción de los costos de equipamiento y operación. • Mejoramiento de la productividad al utilizar aplicaciones de telefonía IP • Acceso a nuevos dispositivos de comunicación. La telefonía IP también es conocida como IP Telephony o Packet Telephony Requerimientos de una red para soportar VoIP A continuación se mencionan aspectos importantes que se deben tener en la red IP para implantar este servicio en tiempo real • Manejar peticiones RSVP que es un protocolo de reservación de recursos. • El costo de servicio debe estar basado en el enrutamiento para las redes IP. • Donde se conecta con la red publica conmutada un interruptor de telefonía IP debe soportar el protocolo del Sistema de Señalización 7 (SS7). SS7 se usa eficazmente para fijar llamadas inalámbricas y con línea en la PSTN y para acceder a los servidores de bases de datos de la PSTN. El apoyo de SS7 en interruptores de telefonía IP representa un paso importante en la integración de las PSTN y las redes de datos IP. • Se debe trabajar con un comprensivo grupo de estándares de telefonía (SS7, Recomendación H.323) para que los ambientes de telefonía IP y PBX/PSTN/ATM vídeo y Gateway telefónica puedan operar en conjunto en todas sus características 3.2 Funciones y componentes de VoIP. La tecnología basada en VoIP consiste en varios componentes como son: • Teléfonos: Teléfonos IP, Software utilizado desde una PC, Analógicos o ISDN. • Gateways: Dispositivos que interconectan la telefonía IP con la telefonía tradicional, pueden ser teléfonos analógicos o ISDN, faxes, sistemas PBX(conmutadores) o switches PSTN. El Gateway es un elemento esencial en la mayoría de las redes pues su misión es la de enlazar la red VoIP con la red telefónica analógica o RDSI. Podemos considerar al Gateway como una caja que por un lado tiene un interface LAN y por el otro dispone de uno o varios de los siguientes interfaces: o FXO. Para conexión a extensiones de centralitas ó a la red telefónica básica.
  • 31. o FXS. Para conexión a enlaces de centralitas o a teléfonos analógicos. o E&M. Para conexión específica a centralitas. o BRI. Acceso básico RDSI (2B+D) o PRI. Acceso primario RDSI (30B+D) o G703/G.704. (E&M digital) Conexión especifica a centralitas a 2 Mbps. Los distintos elementos pueden residir en plataformas físicas separada, o nos podemos encontrar con varios elementos conviviendo en la misma plataforma. De este modo es bastante habitual encontrar juntos Gatekeeper y Gateway. • Multipoint Control Unit (MCU): Requerido para conferencias y establecer comunicación con varios participantes a la vez. • GateKeepers: proveen control de administración de llamada (Call Admision Control, CAC). Traducen números telefónicos o IP para llamadas routeadas en redes H.323 El Gatekeeper es un elemento opcional en la red, pero cuando está presente, todos los demás elementos que contacten dicha red deben hacer uso de el. Su función es la de gestión y control de los recursos de la red, de manera que no se produzcan situaciones de saturación de la misma. • Call Agents: Proveen CAC, control de ancho de banda y traducción de servicios a telefonía IP. • Video EndPoints: Provee características de video sobre telefonía para videoconferencias. Permite combinar señales de video y audio digital. En una red de telefonía IP algunas funciones se transmiten en DSPs(digital signal processors) que se usa para convertir señales de voz analógica en formato digital y viceversa. También proveen
  • 32. funciones como compresión de voz, transcoding(cambio de entre varios formatos de voz), conferencias. Los DSPs se encuentran en los módulos de voz dentro de los gateways. En la las redes VoIP que incluye dispositivos tradicionales como teléfonos analógicos, se necesita un Gateway para convertir la señal, pero si todos los dispositivos son IP la conversión no es necesaria. Etapas de una llamada telefónica IP En general el control de llamada telefónica incluye las etapas siguientes: • Establecimiento: Determina la ruta destino, especifica requerimientos de ancho de banda, envía mensaje de conexión al destino. A través de protocolos como H.323, MGCP, SIP se definen diferentes tipos de mensajes para negociar las direcciones IP para los dos dispositivos IP, los flujos RTP y el formato a utilizar(por ejemplo la compresión). • Mantenimiento de la Sesión: establece medios para mantener activa la sesión, utilizando mecanismos de control que permiten determinar la calidad de la conexión. • Desconexión: Termina la sesión liberando los dispositivos para futuras llamadas.
  • 33. 3.3 Principales Protocolos de VoIP de acuerdo al Modelo OSI. Para realizar envíos de voz sobre una red basada en IP, esta debe primero digitalizarse para encapsularse en un paquete IP. IP no proporciona por si mismo mecanismos de transferencia de voz, por lo que utiliza otro conjunto de protocolos de transporte. Los protocolos que se utilizan para realizar la transmisión son TCP(Transmission Control Protocol), UDP(User Datagram Protocol) y RTP(Real Time Protocol). Las siguientes características de esos protocolos proporcionan a IP el mecanismo de transporte de voz: • Confiabilidad: TCP ofrece mecanismos orientados a conexión a través de acuses de recibo de paquetes y retransmisiones. • Reordenamiento: Como los paquetes pueden llevar en distinto orden, TCP provee la manera de reconstruir ordenadamente los paquetes en el destino. • Time-Stamping: RTP Provee control para manipular los retardos apropiados entre paquetes y reordenamiento utilizados en aplicaciones de tiempo real. • Multiplexación. Un dispositivo VoIP puede tener múltiples llamadas activas y debe trabajar con paquetes que vienen de cada llamada. UDP proporciona un número de puerto para identificar cada paquete que proviene de cada llamada. Los puertos usados por UDP para RTP van del rango de 16348 al 32767. • Otros: TCP (20 bytes)ocupa más bytes que UDP (8 bytes) por lo tanto significa qie el ancho de banda requerido será menor o mayor según el protocolo utilizado. 3.4 Calculo de requerimientos de ancho de banda. Para enviar voz sobre redes digitales, se requiere un proceso de conversión de señales analógicas que son generadas por los teléfonos a señales digitales que se enviará a través de las redes basadas en TCP/IP. Una vez que las señales de voz son digitalizadas, se deben encapsular en
  • 34. estructuras soportadas por los protocolos, este proceso causa una sobrecarga de tiempo y de proceso en los dispositivos de la red. El ancho de banda que se requiere para la telefonía IP depende de lo siguiente: • Packet Rate: especifica la el número de paquetes enviados en un cierto intervalo de tiempo. • Paketization Size: especifica el número de bytes que se necesitan para representar la información de voz que será encapsulada por paquete. • IP Overhead: especifica el número de bytes que se agregan a la información de voz durante el encapsulamiento. Si se utiliza RSTP, UDP o IP la suma de los encabezados es el resultado. • Data Link Overhead: especifica el número de bytes que se necesitan durante el encapsulamiento en la capa de enlace de datos. Depende del tipo del enlace que se utilice. • Tuneling Overhead: especifica el número de bytes que se agregan para los protocolos de seguridad o tuneling. Los decodificadores(codecs) establecen el ancho de banda utilizado, de tal manera que se puede calcular el ancho de banda a través del protocolo utilizado. Este costo es el mínimo y no incluye packetization overhead. El tamaño de los paquetes cambia dependiendo el tamaño de los segmentos de voz (chunk) El áncho de banda depende directamente del códec y del tamaño del paquete de voz, un ejemplo es el siguiente
  • 35. En la capa de enlace de datos la diferencia es el encapsulado por tipo de enlace, ejemplo: Cuando se utilizan protocolos de seguridad y/o tunneling se incluyen encabezados que modifican el tamaño del paquete ejemplos: Un ejemplo de los elementos agregados en un ambiente de red privada virtual (VPN)
  • 36. Calculo del ancho de banda pata VoIP • Básico: se puede establecer un procedimiento con los siguientes pasos: 1. Determinar el ancho de banda del códec a utilizar, 2. Determinar el tipo de enlace a utilizar 3. Determinar el tamaño o periodo del segmento de voz 4. Sumar los encabezados y segmentos definidos en los pasos anteriores 5. Calcular la tasa de envío paquetes (packet rate)  Packet rate [pps] = 1 / (packetization period [ms per packet] / 1000)  Packetization period [ms per packet] = (Packetization size [bytes per packet] * 8 / 1000) / (codec bandwidth [kbps] / 1000)  Packetization size [bytes per packet] = Packetization period [ms per packet] * codec bandwidth [kbps] / 8 6. Calcular el total de ancho de banda total:  Total packet size [bytes per packet] = Data-link overhead [bytes per packet] + other overhead [bytes per packet] + IP overhead [bytes per packet] + packetization size [bytes per packet]
  • 37. En resumen se pueden especificar lo siguiente: Si el empaquetamiento es en milisegundos: Bandwidth [kbps] = (8 * (data-link overhead [bytes per packet] + other overhead [bytes per packet] + IP overhead [bytes per packet]) + packetization period [ms per packet] * codec bandwidth [kpbs]) / packetization period [ms per packet] Si el empaquetamieto sedetermina en bytes en vez de tiempo: Bandwidth [kbps] = (Codec bandwidth [kbps] / packetization size [bytes per packet]) * (packetization size [bytes per packet] + data-link overhead [bytes per packet] + other overhead [bytes per packet] + IP overhead [bytes per packet]) • Rápido: Una manera rápida de calcular el ancho de banda total es tener en cuenta que la que la tasa total efectiva de información de voz (payload) es determinada por los codecs de tal manera que la siguiente formula obtiene el ancho de banda basado en cálculos rápidos
  • 38. 3.5 Configuración de puertos e interfaces de voz en un router. La implementación de VoIP en una red utiliza componentes como Gateways, Gatekeepers, Cisco Unified Call Manager y Telefonos IP. Función del Gateway Los Gateway convierten la señal analógica a señal digital para encapsularla en paquetes IP, proporcionan el servicio de empaquetamiento para reducir la tasa de transferencia 3.6 Protocolo H.323 El H.323 es una familia de estándares definidos por el ITU para las comunicaciones multimedia sobre redes LAN. Está definido específicamente para tecnologías LAN que no garantizan una calidad de servicio (QoS). Algunos ejemplos son TCP/IP e IPX sobre Ethernet, Fast Ethernet o Token Ring. La tecnología de red más común en la que se están implementando H.323 es IP (Internet Protocol). Este estándar define un amplio conjunto de características y funciones. Algunas son necesarias y otras opcionales. El H.323 define mucho más que los terminales. El estándar define los siguientes componente más relevantes: • Terminal • Gateway • Gatekeeper • Unidad de Control Multipunto El H.323 utiliza los mismos algoritmos de compresión para el vídeo y el audio que la norma H.320, aunque introduce algunos nuevos. Se utiliza T.120 para la colaboración de datos.
  • 39. El H.323 soporta vídeo en tiempo real, audio y datos sobre redes de área local, metropolitana, regional o de área extensa. Soporta así mismo Internet e intranets. En Mayo de 1997, el Grupo 15 del ITU redefinió el H.323 como la recomendación para "los sistemas multimedia de comunicaciones en aquellas situaciones en las que el medio de transporte sea una red de conmutación de paquetes que no pueda proporcionar una calidad de servicio garantizada. Nótese que H.323 también soporta videoconferencia sobre conexiones punto a punto, telefónicas y RDSI. En estos casos, se debe disponer un protocolo de transporte de paquetes tal como PPP. Componentes H.323 • Entidad La especificación H.323 define el término genérico entidad como cualquier componente que cumpla con el estándar. • Extremo Un extremo H.323 es un componente de la red que puede enviar y recibir llamadas. Puede generar y/o recibir secuencias de información. • Terminal Un terminal H.323 es un extremo de la red que proporciona comunicaciones bidireccionales en tiempo real con otro terminal H.323, gateway o unidad de control multipunto (MCU). Esta comunicación consta de señales de control, indicaciones, audio, imagen en color en movimiento y /o datos entre los dos terminales. Conforme a la especificación, un terminal H.323 puede proporcionar sólo voz, voz y datos, voz y vídeo, o voz, datos y vídeo. • Gatekeeper El gatekeeper (GK) es una entidad que proporciona la traducción de direcciones y el control de acceso a la red de los terminales H.323, gateways y MCUs. El GK puede también ofrecer otros servicios a los terminales, gateways y MCUs, tales como gestión del ancho de banda y localización de los gateways o pasarelas. El Gatekeeper realiza dos funciones de control de llamadas que preservan la integridad de la red corporativa de datos. La primera es la traslación de direcciones de los terminales de la LAN a las correspondientes IP o IPX, tal y como se describe en la especificación RAS. La segunda es la gestión del ancho de banda, fijando el número de conferencias que pueden estar dándose simultáneamente en la LAN y rechazando las nuevas peticiones por encima del nivel establecido, de manera tal que se garantice ancho de banda suficiente para las aplicaciones de datos sobre la LAN. El Gatekeeper proporciona todas las funciones anteriores para los terminales, Gateways y MCUs, que están registrados dentro de la denominada Zona de control H.323. • Gateway Un gateway H.323 (GW) es un extremo que proporciona comunicaciones bidireccionales en tiempo real entre terminales H.323 en la red IP y otros terminales o gateways en una red conmutada. En general, el propósito del gateway es reflejar transparentemente las características de un extremo en la red IP a otro en una red conmutada y viceversa.
  • 40. • MCU (Multipoint Control Units) La Unidad de Control Multipunto está diseñada para soportar la conferencia entre tres o más puntos, bajo el estándar H.323, llevando la negociación entre terminales para determinar las capacidades comunes para el proceso de audio y vídeo y controlar la multidifusión. La comunicación bajo H.323 contempla las señales de audio y vídeo. La señal de audio se digitaliza y se comprime bajo uno de los algoritmos soportados, tales como el G.711 o G.723, y la señal de vídeo (opcional) se trata con la norma H.261 o H.263. Los datos (opcional) se manejan bajo el estándar T.120 que permite la compartición de aplicaciones en conferencias punto a punto y multipunto. IV. Tecnologías WAN. 4.1 Servicios de Banda Ancha y 3G ¿Qué es una WAN? Una WAN es una red de comunicación de datos que tiene una cobertura geográfica relativamente grande y suele utilizar las instalaciones de transmisión que ofrecen compañías portadoras de servicios como las telefónicas. Las tecnologías WAN operan en las tres capas inferiores del modelo OSI. La figura muestra algunas de las tecnologías WAN Y el nivel OSI en la que operan. Fig. 4.1: Tecnologías WAN y Su Relación con las Capas OSI Las WAN se diferencian de las LAN en varios aspectos. Mientras que una LAN conecta computadoras, dispositivos periféricos y otros dispositivos de un solo edificio u de otra área geográfica pequeña, una WAN permite la transmisión de datos a través de distancias geográficas mayores. Además, la empresa debe suscribirse a un proveedor de servicios WAN para poder utilizar los servicios de red de portadora de WAN. Las LAN normalmente son propiedad de la empresa o de la organización que las utiliza. ¿Por qué son necesarias las WAN? Con frecuencia, las organizaciones desean compartir información con otras organizaciones que se encuentran a grandes distancias. Como, obviamente, no es posible conectar computadoras a nivel nacional o mundial de la misma manera en la que las computadoras de una LAN se conectan con cables, han evolucionado diferentes tecnologías para cubrir esta necesidad. Internet se está utilizando cada vez más como una alternativa económica al uso de una WAN empresarial para algunas aplicaciones. Hay nuevas tecnologías disponibles para las empresas que proporcionan
  • 41. seguridad y privacidad para las comunicaciones y las transacciones a través de Internet. El uso de redes WAN solas o en combinación con Internet permite a las organizaciones y a los particulares satisfacer sus necesidades de comunicaciones de área extensa. Fig. 4.2 Redes de área extensa Tipo de redes WAN Los tipos de redes WAN se clasifican en redes públicas y redes privadas, las cuales describiremos a continuación. Redes Públicas. Las redes públicas son recursos WAN pertenecientes a las compañías de telecomunicación que operan tanto en el país como en el mundo. Estos recursos son ofrecidos a los usuarios a través de suscripción. Estas operadoras incluyen a todas las compañías de servicios de comunicación local, las compañías de servicios de comunicación a larga distancia y los proveedores de servicios de valor agregado, quienes ofrecen con frecuencia, servicios de comunicación WAN como complemento a su verdadero negocio. Redes Privadas. Una red privada es una red de comunicaciones privada construida, mantenida y controlada por la organización o compañía a la que sirve. Como mínimo una red privada requiere sus propios equipos de conmutación y de comunicaciones. Puede también, emplear sus propios servicios de comunicación o alquilar los servicios de una red pública o de otras redes privadas que hayan construido sus propias líneas de comunicaciones. Aunque una red privada es costosa, en compañías donde la seguridad y el control sobre el tráfico de datos son de alta prioridad, las líneas privadas constituyen la única garantía de un alto nivel de servicio Fig. 4.3 Pequeña empresa en crecimiento Tecnología 3G
  • 42. La tecnología 3G (tecnología inalámbrica de tercera generación) es un servicio de comunicaciones inalámbricas que le permite estar conectado permanentemente a Internet a través del teléfono móvil, el ordenador de bolsillo, el Tablet PC o el ordenador portátil. La tecnología 3G promete una mejor calidad y fiabilidad, una mayor velocidad de transmisión de datos y un ancho de banda superior (que incluye la posibilidad de ejecutar aplicaciones multimedia). Con velocidades de datos de hasta 384 Kbps, es casi siete veces más rápida que una conexión telefónica estándar. Lo que permite que podamos tener video llamadas, dado que dichas llamadas se harán con una conexión directa a internet Telme ofrece este servicio de manera gratuita ¿Qué ventajas aporta la tecnología 3G? Se dice que los usuarios de GPRS y 3G están "siempre conectados", dado que con estos métodos de conexión tienen acceso permanente a Internet. Mediante los mensajes de texto cortos, los empleados de campo pueden comunicar su progreso y solicitar asistencia. Los ejecutivos que se encuentran de viaje pueden acceder al correo electrónico de la empresa, de igual modo que puede hacerlo un empleado de ventas, que también puede consultar el inventario. Puede automatizar su casa o su oficina con dispositivos GPRS y 3G supervisar sus inversiones. 4.2 Estándares WAN Modelo de red jerárquico El modelo de red jerárquico divide la red en tres capas. Capa de acceso: permite el acceso de los usuarios a los dispositivos de la red. En una red de campus, la capa de acceso generalmente incorpora dispositivos de conmutación de LAN con puertos que proporcionan conectividad a las estaciones de trabajo y a los servidores. En el entorno de la WAN, puede proporcionar a los trabajadores a distancia o a los sitios remotos acceso a la red corporativa a través de la tecnología WAN. Capa de distribución: agrupa los armarios de cableado y utiliza switches para segmentar grupos de trabajo y aislar los problemas de la red en un entorno de campus. De manera similar, la capa de distribución agrupa las conexiones WAN en el extremo del campus y proporciona conectividad basada en políticas. Capa núcleo (backbone): enlace troncal de alta velocidad que está diseñado para conmutar paquetes tan rápido como sea posible. Como el núcleo es fundamental para la conectividad, debe proporcionar un alto nivel de disponibilidad y adaptarse a los cambios con rapidez. También proporciona escalabilidad y convergencia rápida. Redes WAN y modelo OSI Como se describió en relación con el modelo de referencia OSI, las operaciones de una WAN se centran principalmente en las Capas 1 y 2. Los estándares de acceso WAN normalmente describen tanto los métodos de entrega de la capa física como los requisitos de la capa de enlace de datos, incluyendo la dirección física, el control del flujo y la encapsulación. La definición y la administración de los estándares de acceso WAN están a cargo de varias autoridades reconocidas, entre ellas la Organización Internacional de Normalización (OIE ), la Asociación de la Industria de las Telecomunicaciones (TIA,Telecommunications Industry Association) y la Asociación de Industrias Electrónicas (EIA, Electronic Industries Alliance).
  • 43. Los protocolos de capa física (capa 1 del modelo OSI) describen cómo proporcionar las conexiones eléctricas, mecánicas, operativas y funcionales a los servicios brindados por un proveedor de servicios de comunicaciones. Los protocolos de la capa de enlace de datos (Capa 2 del modelo OSI) definen cómo se encapsulan los datos para su transmisión a lugares remotos y los mecanismos de transferencia de las tramas resultantes. Se utiliza una variedad de tecnologías diferentes, como Frame Relay y ATM. Algunos de estos protocolos utilizan los mismos mecanismos básicos de entramado, control de enlace de datos de alto nivel (HDLC, High-Level Data Link Control), una norma ISO o uno de sus subgrupos o variantes. Terminología de la capa física de la WAN Una de las diferencias primordiales entre una WAN y una LAN es que una empresa u organización debe suscribirse a un proveedor de servicio WAN externo para utilizar los servicios de red de una portadora WAN. Una WAN utiliza enlaces de datos suministrados por los servicios de una operadora para acceder a Internet y conectar los sitios de una organización entre sí, con sitios de otras organizaciones, con servicios externos y con usuarios remotos. La capa física de acceso a la WAN describe la conexión física entre la red de la empresa y la red del proveedor de servicios. La imagen muestra la terminología utilizada comúnmente para describir las conexiones físicas de la WAN, por ejemplo: Equipo local del cliente (CPE, Customer Premises Equipment): dispositivos y cableado interno localizados en las instalaciones del suscriptor y conectados con un canal de telecomunicaciones de una portadora. El suscriptor es dueño de un CPE o le alquila un CPE al proveedor de servicios. En este contexto, un suscriptor es una empresa que contrata los servicios WAN de un proveedor de servicios u operadora. Equipo de comunicación de datos (DCE, Data Communications Equipment): también llamado equipo de terminación de circuito de datos, el DCE está compuesto por dispositivos que ponen datos en el bucle local. La tarea principal del DCE es suministrar una interfaz para conectar suscriptores a un enlace de comunicación en la nube WAN. Equipo terminal de datos (DTE, Data Terminal Equipment): dispositivos del cliente que pasan los datos de la red o la computadora host de un cliente para transmisión a través de la WAN. El DTE se conecta al bucle local a través del DCE. Punto de demarcación: punto establecido en un edificio o un complejo para separar los equipos del cliente de los equipos del proveedor de servicios. Físicamente, el punto de demarcación es la caja de empalme del cableado que se encuentra en las instalaciones del cliente y que conecta los
  • 44. cables del CPE con el bucle local. Normalmente se coloca en un lugar de fácil acceso para los técnicos. PPPoE y PPPoA PPPoE: Significa “Protocolo de Punto a Punto sobre Ethernet“, se implementa una capa IP sobre dos puertos Ethernet, dando la posibilidad de transferir paquetes de datos entre los dispositivos que estén conectados. Estándar oficial RFC 2516 (PPPoE) PPPoA: Igual que PPPoE pero, en vez de ser un protocolo sobre una capa Ethernet, se realiza sobre una capa ATM. Gracias a este protocolo, las señales del router pueden negociar los parámetros de conexión o de red entre el router y el ISP, con lo que sólo necesitas saber tu Identificador de Usuario y contraseña para poder comenzar a navegar, puesto que el resto de datos se obtienen automáticamente en el momento en que se efectúa la conexión. Estándar oficial RFC 2364 (PPPoA) El protocolo PPPoA se utiliza principalmente en conexiones de banda ancha, como cable y DSL. Este ofrece las principales funciones PPP como autenticación, cifrado y compresión de datos. Actualmente es algo mejor que PPPoE debido a que reduce la pérdida de calidad en las transmisiones. Al igual que PPPoE, PPPoA puede usarse en los modos VC-MUX y LLC. Con PPPoE el router efectúa el encaminamiento IP con Network Address Translation (NAT) para la LAN. El router que cuente con PPPoE también es compatible con la asignación dinámica de direcciones IP a nodos de red local. Cuando se use la asignación dinámica, el router actuará como servidor DHCP. Dispositivos WAN Las WAN utilizan numerosos tipos de dispositivos que son específicos para los entornos WAN, entre ellos: Módem: modula una señal portadora analógica para codificar información digital y demodula la señal portadora para decodificar la información transmitida. CSU/DSU: las líneas digitales, por ejemplo las líneas portadoras T1 o T3, necesitan una unidad de servicio de canal (CSU, channel service unit) y una unidad de servicio de datos (DSU, data service unit). Con frecuencia, las dos se encuentran combinadas en una sola pieza del equipo, llamada CSU/DSU. La CSU proporciona la terminación para la señal digital y garantiza la integridad de la conexión mediante la corrección de errores y la supervisión de la línea. La DSU convierte las tramas de la línea Portadora T en tramas que la LAN puede interpretar y viceversa. Servidor de acceso: concentra las comunicaciones de usuarios de servicios de acceso con marcación. Un servidor de acceso puede tener una mezcla de interfaces analógicas y digitales y admitir a cientos de usuarios al mismo tiempo. Switch WAN: dispositivo de internetworking de varios puertos que se utiliza en redes portadoras. Estos dispositivos normalmente conmutan el tráfico, por ejemplo Frame Relay, ATM o X.25, y operan en la capa de enlace de datos del modelo de referencia OSI. Dentro de la nube también es posible utilizar switches de red pública de telefonía conmutada (PSTN, Public Switched Telephone Network) para conexiones de conmutación de circuitos, por ejemplo red digital de servicios integrados (ISDN, Integrated Services Digital Network) o conexión telefónica analógica. Router: proporciona puertos de interfaz de internetworking y acceso WAN que se utilizan para conectarse con la red del proveedor de servicios. Estas interfaces pueden ser conexiones seriales u otras interfaces WAN. En algunos tipos de interfaces WAN se necesita un dispositivo externo, como una CSU/DSU o un módem (analógico, por cable o DSL) para conectar el router al punto de presencia (POP, point of presence) local del proveedor de servicios. Estándares de la capa física de una WAN Los protocolos de la capa física de las WAN describen cómo proporcionar conexiones eléctricas, mecánicas, operativas y funcionales para los servicios WAN. La capa física de la WAN también
  • 45. describe la interfaz entre el DTE y el DCE. La interfaz DTE/DCE utiliza diversos protocolos de capa física, entre ellos: EIA/TIA-232: este protocolo permite velocidades de señal de hasta 64 Kbps en un conector D de 25 pins en distancias cortas. Antiguamente denominado RS-232. La especificación ITU-T V.24 es en efecto lo mismo. EIA/TIA-449/530: este protocolo es una versión más rápida (hasta 2 Mbps) del EIA/TIA-232. Utiliza un conector D de 36 pins y admite cables más largos. Existen varias versiones. Este estándar también se conoce como RS-422 y RS-423. EIA/TIA-612/613: este estándar describe el protocolo de interfaz serial de alta velocidad (HSSI, High-Speed Serial Interface), que brinda acceso a servicios de hasta 52 Mbps en un conector D de 60 pins. V.35: este es el estándar de ITU-T para comunicaciones síncronas entre un dispositivo de acceso a la red y una red de paquetes. Originalmente especificado para soportar velocidades de datos de 48 kbps, en la actualidad soporta velocidades de hasta 2.048 Mbps con un conector rectangular de 34 pins. X.21: este protocolo es un estándar de UIT-T para comunicaciones digitales síncronas. Utiliza un conector D de 15 pins. Estos protocolos establecen los códigos y parámetros eléctricos que los dispositivos utilizan para comunicarse entre sí. La selección del protocolo está determinada en mayor medida por el método de comunicación del proveedor de servicios.