1) El documento describe varios problemas que afectan el desempeño de las redes LAN Ethernet compartidas, incluida la naturaleza de broadcast de Ethernet, los métodos de acceso CSMA/CD y la congestión causada por aplicaciones que demandan mucho ancho de banda. 2) También explica cómo la segmentación de la red con puentes o switches puede aliviar la congestión al dividir la red en dominios más pequeños. 3) Finalmente, discute cómo la transmisión full-duplex y el uso de switches puede mejorar el rendimiento al permitir la transmisión y rece
1. Diversos problemas de las comunicaciones de LAN
Elementos de las redes Ethernet/802.3
La arquitectura más común de LAN es Ethernet. Ethernet se utiliza para transportar datos
entre dispositivos en una red, tal como computadoras, impresoras y servidores de archivo.
Como aparece en el gráfico, todos los dispositivos se conectan al mismo medio de entrega.
Los medios Ethernet utilizan un método de broadcast de trama de datos para transmitir y
recibir datos a todos los nodos de los medios compartidos. (Diapositiva 01)
El desempeño de una LAN Ethernet/802.3 de medio compartido puede verse afectado de
forma negativa por distintos factores:
• La naturaleza de entrega de broadcast de trama de datos de las LAN Ethernet/802.3.
• Los métodos de acceso múltiple con detección de portadora y detección de colisiones
(CSMA/CD) sólo permiten que una estación a la vez pueda transmitir.
• Las aplicaciones multimediales con mayor demanda de ancho de banda, tales como
vídeo e Internet, sumadas a la naturaleza de broadcast de Ethernet, pueden crear
congestión de red.
• La latencia normal a medida que las tramas viajan a través del medio de Capa 1 y a
través de los dispositivos de networking de Capa 1, 2 y 3 y la latencia agregada por la
extensión con repidores de redes LAN Ethernet/802.3
• La extensión de distancias de redes LAN Ethernet/802.3 con el uso de repetidores de
Capa 1
Ethernet, con el uso de CSMA/CD y un medio compartido, puede soportar velocidades de
transmisión de datos de hasta 100 Mbps. CSMA/CD es un método de acceso que sólo
permite que una estación pueda transmitir a la vez. El objetivo de Ethernet es proporcionar
un servicio de entrega de máximo esfuerzo y permitir que todos los dispositivos en el
medio puedan transmitir de forma equitativa. Como aparece en la Diapositiva 02 , uno de
los problemas inherentes a la tecnología CSMA/CD son las colisiones.
Ethernet half-duplex (Diapositiva 03)
Ethernet es una tecnología semidúplex. Cada host de Ethernet verifica la red para
comprobar si los datos se están transmitiendo antes de seguir transmitiendo datos. Si la red
está en uso, la transmisión se retarda. A pesar del retardo de la transmisión, dos o más hosts
Ethernet pueden transmitir al mismo tiempo, dando como resultado una colisión. Cuando se
produce una colisión, el host que detecta primero la colisión envía una señal de
atascamiento. Al escuchar la señal de atascamiento, cada host espera durante un lapso de
tiempo aleatorio antes de intentar la transmisión. Este período de tiempo aleatorio se
conoce como algoritmo de postergación. A medida que más hosts se agregan a la red y
empiezan a transmitir, es más probable que se produzcan colisiones.
Las LAN Ethernet se saturan porque los usuarios ejecutan software que utilizan
intensivamente la red, como aplicaciones cliente/servidor que hacen que los hosts deban
transmitir con mayor frecuencia y durante períodos de tiempo más prologados. El conector
físico (por ej., NIC) utilizado por dispositivos en una LAN Ethernet proporciona varios
circuitos de manera que se puedan producir las comunicaciones entre dispositivos.
Congestión de red (Diapositiva 04)
Los avances de la tecnología están produciendo computadores de escritorio y estaciones de
trabajo cada vez más rápidos e inteligentes. (4). La combinación de
computadores/estaciones de trabajo más poderosos y las aplicaciones que hacen uso
2. intensivo de la red han creado la necesidad de una capacidad o ancho de banda de red muy
superior a la de 10 Mbps disponible en las LAN Ethernet/802.3 compartidas. (5).
Actualmente las redes están experimentando un aumento en la transmisión de archivos de
gráficos grandes, imágenes, vídeos con movimiento y aplicaciones multimedia, así como un
aumento en la cantidad de usuarios de red. Todos estos factores representan una exigencia
aún mayor para la capacidad del ancho de banda de 10 Mbps de Ethernet. (6). Cuando cada
vez más personas utilizan la red para compartir grandes archivos, acceder a servidores de
archivo y conectarse a Internet, se produce la congestión de red. Esto puede dar como
resultado tiempos de respuesta más lentos, transferencias de archivos muy largas y usuarios
de red menos productivos debido a los retardos de red. Para aliviar la congestión de red, se
necesita más ancho de banda o bien, el ancho de banda disponible debe usarse con mayor
eficiencia.
Latencia de red (7)
La latencia, a veces denominada retardo de propagación, es el tiempo que una trama o
paquete de datos tarda hacer el recorrido desde la estación o nodo origen hasta su destino
final en la red. Como las LAN de Ethernet usan CSMA/CD para proporcionar una entrega
de máximo esfuerzo, habrá una cierta cantidad de latencia en el sistema para detectar
colisiones y negociar derechos de transmisión en la red.
La latencia no depende únicamente de la distancia y la cantidad de dispositivos. Por
ejemplo, si tres switches separan dos estaciones de trabajo, las estaciones de trabajo
experimentan menos latencia que si dos routers las hubieran separado. Esto se debe a que
los routers ejecutan funciones de toma de decisiones más complejas y que llevan más
tiempo.
Tiempo de transmisión de Ethernet 10BASE-T (8)
El tiempo de transmisión es el tiempo que le lleva a una trama o paquete (los datos se
colocan en un paquete o trama) para desplazarse desde la capa de enlace de datos hasta la
capa física (dentro del cableado físico de la red). La tabla muestra el tiempo de transmisión
para cuatro tamaños distintos de paquetes.
Cada bit de Ethernet de 10 Mbps posee una ventana de 100 ns para realizar la transmisión.
Un byte es igual a 8 bits Por lo tanto, 1 byte tarda un mínimo de 800 ns para transmitirse.
Una trama de 64 bytes tarda 51.200 ns o 51,2 microsegundos para transmitirse (64 bytes a
800 ns equivalen a 51.200 ns y 51.200 ns/1000 equivalen a 51,2 microsegundos). El tiempo
de transmisión de un paquete de 1000 bytes desde la Estación de trabajo 1 al servidor o a la
estación de trabajo 2, requiere 800 microsegundos debido a la latencia de los dispositivos
de la red.
Ventajas del uso de repetidores
La distancia que una LAN puede abarcar es limitada debido a la atenuación; atenuación
significa que la señal se debilita (es decir, se atenúa) a medida que recorre la red. La
atenuación es causada por la resistencia del cable o medio. Un repetidor de Ethernet es un
dispositivo de capa física en la red que incrementa o regenera la señal en una LAN
Ethernet. Al utilizar un repetidor Ethernet para extender la distancia de una LAN, una sola
red puede abarcar una distancia mayor y más usuarios pueden compartir esta misma red,
como vemos aquí. Sin embargo, el uso de los repetidores también complica el aspecto de
3. los broadcasts y colisiones y tiene un efecto negativo sobre el desempeño general de la
LAN de medios compartidos. (9)
Un repetidor multipuerto también se conoce como hub. En una LAN de medios
compartidos que utiliza hubs, los problemas de broadcast y de colisión se mezclan, y el
ancho de banda total de la LAN es de 10 Mbps (10)
Transmisión de Full-Duplex, estándar Fast Ethernet y segmentación de LAN
Ethernet de Full-Duplex (11)
Ethernet de dúplex completo permite la transmisión de un paquete y la recepción de un
paquete distinto al mismo tiempo. Esta transmisión y recepción simultánea requiere del uso
de dos pares de hilos dentro del cable y una conexión conmutada entre cada nodo. Esta
conexión se considera de punto a punto y está libre de colisiones. Debido a que ambos
nodos pueden transmitir y recibir al mismo tiempo, no existen negociaciones para el ancho
de banda. Ethernet de dúplex completo puede utilizar un medio compartido existente
siempre y cuando el medio cumpla con los estándares de Ethernet mínimos.
Para transmitir y recibir de forma simultánea, se necesita un puerto dedicado para cada
nodo. La conexiones dúplex completo pueden utilizar medios 10BASE-T, 100BASE-TX o
100BASE-FX para crear conexiones punto a punto. Las tarjetas de interfaz de red (NIC)
ubicadas a ambos extremos deben tener capacidades dúplex completas.
El switch Ethernet dúplex completo aprovecha los dos pares de hilos que se encuentran
dentro del cable. Esto se realiza creando una conexión directa entre el transmisor (TX) en
un extremo del circuito y el receptor (RX) en el otro extremo. Con estas dos estaciones
conectadas de esta manera, se crea un dominio libre de colisiones debido a que se produce
la transmisión y la recepción de los datos en circuitos separados no competitivos.
Ethernet generalmente puede usar únicamente 50%-60% del ancho de banda de 10-Mbps
disponible debido a las colisiones y la latencia. Ethernet de dúplex completo ofrece 100%
del ancho de banda en ambas direcciones. Esto produce un rendimiento potencial de 20-
Mbps: 10-Mbps TX y 10-Mbps RX
Segmentación de LAN
na red se puede dividir en unidades más pequeñas denominadas segmentos. Cada segmento
utiliza el método de acceso CSMA/CD y mantiene el tráfico entre los usuarios del
segmento.
La diapositiva (12) muestra un ejemplo de una red Ethernet segmentada. La red completa
posee 15 computadores (6 servidores de archivos y 9 PCs). Al utilizar segmentos en una
red, menos usuarios/dispositivos comparten los mismos 10 Mbps al comunicarse entre sí
dentro del segmento. Cada segmento se considera como un solo dominio de colisión. (13)
Dividiendo la red en tres segmentos, un administrador de red puede reducir la congestión
de la red dentro de cada segmento. Al transmitir los datos dentro de un segmento, los cinco
dispositivos dentro de cada segmento comparten el ancho de banda de 10-Mbps por
segmento. En una LAN Ethernet segmentada, los datos que pasan entre los segmentos se
transmiten en el backbone de la red utilizando un puente, router o switch.
Segmentación de LAN con puentes
Las LAN Ethernet que utilizan un puente para segmentar la LAN proporcionan más ancho
de banda por usuario porque existen menos usuarios en cada segmento. En comparación,
4. las LAN que no utilizan puentes para la segmentación proporcionan menos ancho de banda
por usuario ya que existen más usuarios en una LAN no segmentada. (14)
Los puentes "aprenden" la segmentación de una red construyendo tablas de direcciones que
contienen la dirección de cada dispositivo de red y qué segmento utilizar para alcanzar esos
dispositivos. Los puentes son dispositivos a nivel de Capa 2 que envían tramas de datos
según las direcciones de Control de Acceso al medio (MAC) de las tramas. Además, los
puentes son transparentes para los demás dispositivos de la red.
Los puentes aumentan la latencia en una red de 10% a 30%. Esta latencia se debe a la toma
de decisiones que se requiere del puente o de los puentes durante la transmisión de datos.
Se considera al puente como un dispositivo de almacenamiento y envío ya que debe
examinar el campo de dirección destino en la trama antes de determinar la interfaz a la cual
se envía la trama. (15). El tiempo que lleva realizar todas estas tareas hace que las
transmisiones de red sean más lentas, lo que provoca latencia. (16)
Las ventajas y desventajas de la segmentación de LAN con routers (17)
Los routers son más avanzados que los puentes típicos. Un puente es pasivo en la red y
opera a nivel de capa de enlace de datos. Un router opera a nivel de capa de red y basa
todas sus decisiones de envío entre segmentos en la dirección de protocolo de la capa de
red. Los routers crean el nivel más alto de segmentación enviando datos al hub, al cual se
conectan las estaciones de trabajo. Un router toma decisiones sobre envío a segmentos
examinando la dirección destino en el paquete de datos y consultando su tabla de
enrutamiento para elaborar instrucciones de envío. Un router debe examinar un paquete
para determinar la mejor ruta para el envío de ese paquete a su destino. Este proceso lleva
tiempo. Los protocolos que necesitan un acuse de recibo del receptor al emisor para cada
paquete a medida que se realizan las entregas (conocido como protocolos orientados a
acuse de recibo) tienen de 30% a 40% de pérdida de rendimiento. Los protocolos que
requieren acuses de recibo mínimos (protocolos de ventanas deslizantes) sufren de 20% a
30% de pérdida del rendimiento. Esto se debe al hecho de que existe menos tráfico de datos
entre el emisor y el receptor (es decir, menos acuses de recibo).
Las ventajas y desventajas de la segmentación de LAN con switches (18)
La conmutación de LAN compensa la escasez de ancho de banda y los cuellos de botella de
la red, como los que aparecen entre varios PCs y un servidor de archivos remoto. Un switch
puede segmentar una LAN en microsegmentos, que son segmentos de un solo host. Esto
crea dominios libres de colisión a partir de un dominio de colisión grande. Aunque el
switch de LAN elimina los dominios de colisión, todos los hosts conectados al switch
siguen estando en el mismo dominio de broadcast. Por lo tanto, todos los nodos conectados
a través del switch de LAN pueden ver un broadcast desde un solo nodo.
La Ethernet conmutada se basa en Ethernet Cada nodo está directamente conectado a uno
de sus puertos o a un segmento conectado a uno de los puertos del switch. Esto crea una
conexión de ancho de banda de 10 Mbps entre cada nodo y cada segmento del switch. Un
computador conectado directamente a un switch de Ethernet representa su propio dominio
de colisión y accede a los 10 Mbps completos.
Una LAN que utiliza una topología de Ethernet conmutada crea una red que se comporta
como si tuviera solamente dos nodos: el nodo emisor y el nodo receptor. Estos dos nodos
comparten el ancho de banda de 10 Mbps entre sí, lo que significa que casi todo el ancho de
banda está disponible para la transmisión de datos. Dado que una LAN Ethernet conmutada
5. utiliza el ancho de banda de manera tan eficiente, puede proporcionar una topología de la
LAN más rápida que las LAN Ethernet. En la implementación de Ethernet conmutado, el
ancho de banda disponible puede alcanzar cerca de 100%.
La conmutación de Ethernet aumenta el ancho de banda disponible en una red creando
segmentos de red dedicados (es decir, conexiones punto a punto) y conectando dichos
segmentos en una red virtual dentro del switch. Este circuito de red virtual existe solamente
cuando dos nodos necesitan comunicarse. Es por ello que se llama circuito virtual, existe
solamente cuando se necesita y se establece dentro del switch.
Conmutación y VLAN
Dos operaciones básicas de un switch
La conmutación es una tecnología que reduce la congestión en las LAN Ethernet, Token
Ring y la Interfaz de datos distribuida por fibra (FDDI) reduciendo el tráfico y aumentando
el ancho de banda. Los switches LAN se utilizan frecuentemente para reemplazar hubs
compartidos. Están diseñados para funcionar con infraestructuras de cable ya existentes, de
manera que se puede instalar sin provocar disturbios en el tráfico de red existente.
Actualmente en la comunicación de datos, todos los equipos de conmutación realizan dos
operaciones básicas:
• Conmutación de tramas de datos: Esto ocurre cuando una trama llega a un medio de
entrada y se transmite a un medio de salida.
• Mantenimiento de las operaciones de conmutación: un switch desarrolla y mantiene
las tablas de conmutación.
El término puenteo se refiere a la tecnología en la cual un dispositivo conocido como
puente conecta dos o más segmentos de la LAN. Un puente transmite datagramas de un
segmento a sus destinos en otros segmentos. Cuando un puente se activa y empieza a
operar, examina la dirección MAC de los datagramas entrantes y crea una tabla de destinos
conocidos. Si el puente sabe que el destino de un datagrama se encuentra en el mismo
segmento que el origen del datagrama, descarta el datagrama ya que no hay necesidad de
transmitirlo. Si el puente sabe que el destino se encuentra en otro segmento, transmite el
datagrama a ese segmento solamente. Si el puente no conoce el segmento destino, transmite
el datagrama a todos los segmentos salvo el segmento origen (técnica conocida como
inundación). La ventaja principal de la técnica de puenteo es que limita el tráfico a ciertos
segmentos de red.
Tanto puentes como switches conectan los segmentos de LAN, utilizan una tabla de
direcciones MAC para determinar el segmento al que se debe transmitir un datagrama y
reducen el tráfico. Los switches son más funcionales que los puentes en las redes actuales
porque operan a una velocidad mucho más grande que los puentes y soportan nueva
funcionalidad, tal como, las LAN virtuales (VLAN).
Los puentes se conectan generalmente utilizando software; los switches se conectan
generalmente utilizando hardware.
Latencia del switch Ethernet
Cada switch utilizado en una LAN Ethernet de 10 Mbps agrega latencia a la red. Sin
embargo, el tipo de conmutación utilizada puede ayudar a superar la latencia intrínseca de
algunos switches. Un switch entre una estación de trabajo y un servidor agrega 21
microsegundos al proceso de transmisión. Un paquete de 1000 bytes tiene un tiempo de
transmisión de 800 microsegundos. Un paquete enviado desde una estación de trabajo a un
6. servidor tiene un tiempo de transmisión total de 821 microsegundos (800 + 21 = 821).
Debido a la conmutación empleada, conocida como método de corte, la dirección MAC del
dispositivo destino se lee y el switch empieza a transmitir el paquete antes que el paquete
llegue completamente al switch. Esto compensa con creces la latencia inherente del switch.
Conmutación de Capa 2 y Capa 3
xisten dos métodos de conmutación de tramas de datos: la conmutación a nivel de Capa 2 y
de Capa 3. La conmutación es el proceso de tomar una trama que llega de una interfaz y
enviar a través de otra interfaz. Los routers utilizan la conmutación de Capa 3 para enrutar
un paquete; los switches (switches de Capa 2) utilizan la conmutación de Capa 2 para
enviar tramas.
La diferencia entre la conmutación de Capa 2 y Capa 3 es el tipo de información que se
encuentra dentro de la trama y que se utiliza para determinar la interfaz de salida correcta.
Con la conmutación de Capa 2, las tramas se conmutan tomando como base la información
de la dirección MAC. Con la conmutación de Capa 3, las tramas se conmutan tomando
como base la información de la capa de red.
La conmutación de Capa 2 no mira dentro de un paquete para obtener información de la
capa de red como lo hace la conmutación de Capa 3. La conmutación de capa 2 busca una
dirección MAC destino dentro de una trama. Envía la información a la interfaz apropiada si
conoce la ubicación de la dirección destino. La conmutación de capa 2 crea y mantiene una
tabla de conmutación que ayuda a ubicar las direcciones MAC que pertenecen a cada
puerto o interfaz.
Si el switch de capa 2 no sabe dónde enviar la trama, realiza el broadcast de la trama desde
todos sus puertos hacia la red a fin de saber cuál es el destino correcto. Una vez que vuelve
la trama de respuesta, el switch aprende la ubicación de la nueva dirección y agrega la
información a la tabla de conmutación. El fabricante del equipo de comunicación de datos
determina las direcciones de Capa 2. Son direcciones únicas que se componen de dos
partes: el código de fabricación (MFG) y el identificador único. El Instituto de Ingeniería
Eléctrica y Electrónica (IEEE) asigna un código MFG a cada distribuidor. El distribuidor
asigna un identificador único. Salvo en el caso de las redes de Arquitectura de Sitemas de
Red (SNA), los usuarios tienen poco o ningún control sobre el direccionamiento de capa 2
ya que las direcciones de Capa 2 se ajustan con un dispositivo, mientras que las direcciones
de Capa 3 se pueden modificar. Además, las direcciones de Capa 2 utilizan un espacio de
dirección plano con direcciones universalmente únicas. La conmutación de Capa 3 opera a
nivel de la capa de red. Examina la información del paquete y envía los paquetes tomando
como base las direcciones destino de la capa de red. La conmutación de Capa 3 también
soporta la funcionalidad del router.
En la mayoría de los casos, el administrador de red determina las direcciones de Capa 3.
Los protocolos como IP, IPX y AppleTalk utilizan el direccionamiento de Capa 3. Al crear
direcciones de Capa 3, un administrador de red crea áreas locales que actúan como
unidades de direccionamiento únicas (similares a las calles, ciudades, estados y países) y
asigna un número a cada entidad local. Si los usuarios se mudan a otro edificio, sus
estaciones finales obtienen nuevas direcciones de Capa 3, paro sus direcciones de Capa 2
permanecen iguales.
Como los routers operan a nivel de Capa 3 del modelo de referencia OSI, pueden adoptar y
crear una estructura de direccionamiento jerárquico. Por lo tanto, una red enrutada puede
unir una estructura de direccionamiento lógico a una infraestructura física, por ejemplo, a
7. través de subredes TCP/IP o redes IPX para cada segmento. El flujo de tráfico en una red
conmutada (es decir, plana) es por lo tanto inherentemente diferente del flujo de tráfico en
una red enrutada (es decir, jerárquica). Las redes jerárquicas permiten un flujo de tráfico
más flexible que las redes planas ya que pueden usar la jerarquía de red para determinar las
rutas óptimas y contener los dominios de broadcast.
Microsegmentación (19)
El poder creciente de los procesadores de escritorio, los requisitos cliente/servidor y las
aplicaciones multimediales han creado y aumentado la necesidad de un ancho de banda
mayor en los entornos de medios compartidos tradicionales. Estos requisitos indican a los
diseñadores de red que deben reemplazar los hubs en los centros de cableado por switches.
Los switches de Capa 2 utilizan la microsegmentación para satisfacer las demandas de
mayor ancho de banda y un mejor desempeño, pero los diseñadores de red deben enfrentar
ahora el aumento de las demandas relativas a la comunicación intersubred. Por ejemplo,
cada vez que un usuario accede a los servidores y a otros recursos ubicados en distintas
subredes, el tráfico debe pasar por un dispositivo de Capa 3.
Potencialmente, esto representa un tremendo cuello de botella, que puede provocar
disturbios en el desempeño de la red. Para evitar este cuello de botella, los diseñadores de
red pueden agregar capacidades de la Capa 3 a través de la red, aliviando de esta manera la
carga sobre los routers centralizados. Por lo tanto, un switch mejora el ancho de banda
separando los dominios de colisión y enviando de forma selectiva el tráfico a los segmentos
correspondientes de una red.
Cómo conoce un switch las direcciones (20)
Un switch Ethernet puede aprender la dirección de cada dispositivo de la red leyendo la
dirección origen de cada paquete transmitido y anotando el puerto donde la trama se
introdujo en el switch. El switch luego agrega esta información a su base de datos de envío.
Las direcciones se aprenden de forma dinámica. Esto significa que, a medida que se leen
las nuevas direcciones, éstas se aprenden y se almacenan en una memoria de contenido
direccionable (CAM). Cuando se lee un origen que no se encuentra en la CAM, se aprende
y almacena para su uso futuro.
Cada vez que una dirección se almacena, se le agrega una marca horaria. Esto permite
almacenar las direcciones durante un período de tiempo determinado. Cada vez que se hace
referencia a una dirección o que se encuentra en CAM, recibe una nueva marca horaria. Las
direcciones a las cuales no se hace referencia durante un determinado período de tiempo, se
eliminan de la lista. Al eliminar direcciones antiguas, CAM mantiene una base de datos de
envío precisa y funcional.
Ventajas de la conmutación de LAN (21)
Los switches ofrecen muchas ventajas. Un switch de LAN permite que varios usuarios
puedan comunicarse en paralelo usando circuitos virtuales y segmentos de red dedicados en
un entorno sin colisiones. Esto maximiza el ancho de banda disponible en el medio
compartido. Además, el desplazamiento hacia un entorno LAN conmutado es muy
económico ya que se puede volver a utilizar el hardware y el cableado existentes.
Finalmente, el poder del switch combinado con el software para la configuración de las
LAN, otorga a los administradores de red gran flexibilidad para el manejo de la red.
8. Conmutación simétrica y asimétrica
La conmutación simétrica es una forma de caracterizar un switch de LAN según el ancho
de banda asignado a cada puerto del switch. (22) Un switch simétrico proporciona
conexiones conmutadas entre puertos con el mismo ancho de banda, tal como puertos de 10
Mbps o todos los puertos de 100 Mbps. Como aparece en la diapositiva (23) un switch de
LAN asimétrico proporciona conexiones conmutadas entre puertos con distinto ancho de
banda por ejemplo, una combinación de puertos de 10 Mbps y de 100 Mbps.
La conmutación asimétrica hace que la mayor parte del tráfico de red cliente/servidor fluya
donde múltiples clientes se están comunicando con un servidor al mismo tiempo, por lo que
se necesita más ancho de banda dedicado al puerto del switch al cual está conectado el
servidor a fin de evitar el cuello de botella en este puerto. Como aprenderá en la siguiente
sección, se requiere un búfering de memoria en un switch asimétrico para permitir que el
tráfico del puerto de 100 Mbps pueda enviarse al puerto de 10 Mbps sin provocar
demasiada congestión en el puerto de 10 Mbps.
Búfering de memoria
Un switch Ethernet puede utilizar una técnica de búfering para almacenar y enviar paquetes
al puerto o los puertos correcto(s). El área de memoria donde el switch almacena los datos
destino y de transmisión se denomina búfer de memoria. Este búfer de memoria puede
utilizar dos métodos para enviar paquetes: el búfering de memoria basado en puerto y el
búfering de memoria compartida.
En el búfering de memoria basado en puerto, los paquetes se almacenan en colas enlazadas
a puertos de entrada específicos. Un paquete se transmite al puerto de salida una vez que
todos los paquetes que están delante de éste en la cola se hayan transmitido con éxito. Es
posible que un solo paquete retarde la transmisión de todos los paquetes almacenados en la
memoria debido al tráfico del puerto destino. Este retardo se produce aún si los demás
paquetes se pueden transmitir a puertos destino abiertos.
El búfering de memoria compartida deposita todos los paquetes en un búfer de memoria
común que comparten todos los puertos del switch. La cantidad de memoria asignada a un
puerto se determina según la cantidad que cada puerto requiere. Esto se
denomina asignación dinámica de la memoria del búfer. Los paquetes en el búfer entonces
se enlazan dinámicamente al puerto de transmisión: el paquete se enlaza a la asignación de
memoria de dicho puerto de transmisión. Esto permite recibir el paquete en un puerto y
transmitirlo a otro puerto, sin tener que colocarlo en otra cola.
El switch conserva un mapa de los puertos a los cuales un paquete debe ser transmitido. El
switch despeja este mapa de puertos destino sólo después de que el paquete se haya
transmitido con éxito. Como el búfer de memoria se comparte, se restringe el paquete según
el tamaño del búfer de memoria, no simplemente por la asignación a un determinado
puerto. Esto significa que los paquetes más grandes se pueden transmitir con menos
paquetes descartados. Esto es importante para la conmutación 10/100, donde un puerto de
100 Mbps puede enviar un paquete a un puerto de 10 Mbps.
Dos métodos de conmutación
Se pueden utilizar dos modos de conmutación para enviar una trama a través de un switch:
(24) (25)
• Almacenamiento y envío: La trama completa se recibe antes de que se realice
cualquier tipo de envío. Las direcciones destino y/u origen se leen y se aplican
filtros antes de enviar la trama. Se produce latencia mientras se recibe la trama; la
9. latencia es mayor con tramas más grandes, debido a que la trama completa tarda
más en leerse. La detección de errores es alta debido a la cantidad de tiempo
disponible para que el switch verifique los errores mientras espera la recepción de la
trama completa.
• Método de corte: El switch lee la dirección destino antes de recibir la trama
completa. La trama luego comienza a ser enviada antes de que esta llegue
completamente. Este modo reduce la latencia de la transmisión y la detección de
errores de conmutación de la LAN es pobre. Conmutación rápida y libre de
fragmentos son dos formas de conmutación de método de corte.
o La conmutación rápida ofrece el nivel de latencia más bajo, al enviar
inmediatamente un paquete luego de recibir la dirección destino. Como la
conmutación rápida empieza a realizar los envíos antes de recibir el paquete
completo, de vez en cuando los paquetes se pueden entregar con errores.
Aunque esto se produce con muy poca frecuencia y el adaptador de red
destino descarta el paquete defectuoso en el momento de su recepción, el
tráfico superfluo puede considerarse inaceptable en ciertos entornos. Utilice
la opción libre de fragmentos para reducir la cantidad de paquetes enviados
con errores. En el modo rápido, la latencia se mide desde el primer bit
recibido al primer bit transmitido, o bien el primero en entrar y el primero en
salir (FIFO).
o Conmutación libre de fragmentos: La conmutación libre de fragmentos filtra
los fragmentos de colisión, que constituyen la mayoría de los errores de
paquete antes de iniciar el envío. En una red que funciona correctamente, los
fragmentos de colisión deben ser menores de 64 bytes. Cualquier cosa
superior a 64 bytes es un paquete válido y se recibe generalmente sin
errores. La conmutación libre de fragmentos espera hasta que se determine si
el paquete no es un fragmento de colisión antes de enviar el paquete. En el
modo libre de fragmentos, la latencia se mide como FIFO.
La latencia de cada modo de conmutación depende de la manera en que el switch envía las
tramas. Cuanto más rápido sea el modo de conmutación, menor será la latencia dentro del
switch. Para agilizar el envío de la trama, el switch dedica menos tiempo a la verificación
de errores. Como compensación, se reduce la verificación de errores, lo que puede llevar a
aumentar la cantidad de retransmisiones. (26) (27)
Configuración de una VLAN (28)
Un switch Ethernet segmenta físicamente una LAN en dominios de colisión individuales.
Sin embargo, cada segmento sigue formando parte de un dominio de broadcast. La cantidad
total de segmentos en un switch es igual a un dominio de broadcast. Esto significa que
todos los nodos de todos los segmentos pueden ver un broadcast desde un nodo de un
segmento.
Una VLAN es una agrupación lógica de dispositivos de red o de usuarios que no se limita a
un segmento de switch físico. Los dispositivos o usuarios de una VLAN se pueden agrupar
por funciones, departamentos, aplicaciones, etc., independientemente de la ubicación física
de su segmento. Una VLAN crea un dominio de broadcast único que no se restringe a un
segmento físico y se considera como una subred. La configuración de la VLAN se realiza
en el switch a través del software. Las VLAN no están estandarizadas y requieren el uso de
software propietario del fabricante del switch.
10. Protocolo de Spanning-Tree
Descripción general del protocolo del spanning-tree
La función principal del protocolo de spanning-tree de extensión es permitir rutas
conmutadas/puenteadas duplicadas sin incurrir en los efectos de latencia de los loops en la
red. Los puentes y los switches toman sus decisiones de envío para tramas de broadcast
únicas tomando como base la dirección MAC destino de la trama. Si no se conoce la
dirección MAC, el dispositivo inunda la trama desde todos los puertos e intenta alcanzar el
destino deseado. También lo hace para todas las tramas de broadcast. (29)
El algoritmo de spanning tree, implementado por el protocolo de spanning-tree, evita los
loops calculando una topología de red de spanning tree estable. Al crear redes tolerantes a
las fallas, una ruta libre de loop debe existir entre todos los nodos Ethernet de la red. El
algoritmo de spanning tree se utiliza para calcular una ruta libre de loops. Las tramas del
spanning tree, denominadas unidades de datos del protocolo puente (BPDU), son enviadas
y recibidas por todos los switches de la red a intervalos regulares y se utilizan para
determinar la topología del spanning tree.
Un switch utiliza el protocolo de spanning-tree en todas las VLAN basadas en Ethernet y
Fast Ethernet. El protocolo de spanning-tree detecta y elimina loops colocando algunas
conexiones en modo de espera, que se activa en caso de una falla de conexión activa. Una
instancia separada del protocolo de spanning-tree se ejecuta dentro de cada VLAN
configurada, asegurando las topologías de Ethernet que cumplen con los estándares de la
industria en toda la red.
Los cinco estados del protocolo del spanning-tree (30)
Los estados de protocolo del spanning-tree son los siguientes:
• Bloquear: Ninguna trama enviada, se escuchan BPDU
• Escuchar: Ninguna trama enviada, escuchar tramas.
• Aprender: Ninguna trama se envía, aprender direcciones.
• Enviar: Tramas enviadas, aprender direcciones.
• Desactivado: Ninguna trama enviada, no se escuchan BPDU
El estado para cada VLAN es establecido inicialmente por la configuración y luego
modificado por el proceso de protocolo de spanning-tree. Se puede determinar el estado,
costo y prioridad de los puertos y las VLAN utilizando el comando show
spantree Después de que se determina el estado Puerto a VLAN, el Protocolo de spanning-
tree determina si el puerto envía o bloquea las tramas. Los puertos se pueden configurar
para entrar directamente en el modo de envío del protocolo de spanning-tree cuando se
realiza una conexión, en lugar de seguir la secuencia habitual de bloqueo, aprendizaje y
luego envío. La capacidad para pasar rápidamente del modo Bloquear al modo Enviar en
lugar de atravesar los estados de puerto de transición resulta muy útil en situaciones donde
se requiere el acceso inmediato a un servidor
Resumen
• La combinación de computadores/estaciones de trabajo más poderosos y las
aplicaciones que hacen uso intensivo de la red han creado la necesidad de ancho de
banda de red muy superior a la de 10 Mbps disponible en las LAN Ethernet/802.3
compartidas.
• Cuando cada vez más personas utilizan la red para compartir grandes archivos,
acceder a servidores de archivo y conectarse a Internet, se produce la congestión de
red.
11. • Una red se puede dividir en unidades más pequeñas denominadas segmentos. Cada
segmento se considera como un solo dominio de colisión
• En una LAN Ethernet segmentada, los datos que pasan entre los segmentos se
transmiten a través de la red con un puente, router o switch.
• Una LAN que utiliza una topología Ethernet conmutada crea una red que se
comporta como si tuviera solamente dos nodos: el nodo emisor y el nodo receptor.
• Un switch segmenta una LAN en microsegmentos, creando dominios libres de
colisiones a partir de un dominio de colisión más grande.
• Los switches alcanzan altas velocidades de transferencia de datos leyendo la
dirección MAC destino de la Capa 2 del paquete, como lo haría un puente. Esto da
como resultado velocidades muy altas para el envío de paquetes
• La conmutación Ethernet aumenta el ancho de banda disponible en una red creando
segmentos de red dedicados (conexiones punto a punto) y conectando dichos
segmentos en una red virtual dentro del switch.
• La conmutación simétrica es una forma de caracterizar un switch LAN según el
ancho de banda asignado a cada puerto del switch.
• Un switch de LAN asimétrico proporciona conexiones de conmutación entre
puertos con distinto ancho de banda por ejemplo, una combinación de puertos de 10
Mbps y de 100 Mbps.
• Se pueden utilizar dos modos de conmutación para enviar tramas a través de un
switch: almacenamiento y envío y por método de corte
• Una VLAN es una agrupación de dispositivos de red o de usuarios que no se limita
a un segmento de switch físico.
• La función principal del protocolo de spanning-tree es permitir rutas
conmutadas/puenteadas duplicadas sin sufrir los efectos de latencia de los loops en
la red.