1. InfiniBandTechnology
Carrillo González Jhovani
http://www.oracle.com/technetwork/server-storage/networking/documentation/o12-020-1653901.pdf
Infiniband surge como resultado de la unión de dos diseños competidores, Future I/O,
desarrollado por Compaq, IBM y Hewlett-Packard, junto con NextGeneration I/O, diseñado
por Intel, Microsoft y Sun Microsystems.
Infiniband se diseñó en un principio como una red a nivel de sistema que valdría para
conectar procesadores y proporcionar funciones de entrada/salida de alta velocidad para las
aplicaciones de bajo nivel. Jugando este papel podría desplazar a muchos estándares de
entrada/salida de datos, como PCI, FibreChannel e incluso algunas redes como Ethernet. En
su lugar, todas las CPUs y periféricos se conectarían a un sólo nodo de conmutación
Infiniband. Esta visión ofrecía un gran número de ventajas aparte de la alta velocidad, como
por ejemplo que la entrada/salida dejaría de cargar a los procesadores y dispositivos de
almacenamiento. En teoría, esto permitiría crear clústeres a menor precio y con mayor
facilidad, porque los dispositivos podrían ser compartidos y movidos fácilmente según la
carga de trabajo.
Su usohoy en día es en su mayor parte para clústeres de alto rendimiento, aunque ha habido
esfuerzos para adaptar el estándar a conexiones entre máquinas de bajo coste para
aplicaciones comerciales y técnicas más usuales.
InfiniBandentonces está destinado a proporcionar interconexión para entornos de
computación de gama alta, proporcionando ancho de banda de acuerdo con una latencia
extremadamente baja. En otras palabras, se permite a los puntos finales de computación
para intercambiar más datos, más rápidos
En comparación con Ethernet que ofrece ancho de banda 1GB/seg y 10Gb/sec. InfiniBand
ofrece hasta 40 Gb/s de ancho de banda con menor latencia que la observada en medios
Ethernet.
En los últimos años de evolución de la tecnología, las capacidades de plataformas
informáticas han llegado a un punto en que puedan utilizar una velocidad de red mejor y más
alto para comunicarse con las plataformas de pares de manera más eficiente. Nos referimos
con el término - cuellos de botella, cuando se producen estas situaciones. En entornos de
alta computación exigentes, InfiniBand resuelve este problema al permitir que las
computadoras puedan intercambiar datos más rápido.
InfiniBandnecesita un equipo de hardware especializado. Cada punto final computing
necesita una tarjeta de E/S que llamamos como adaptador de canal de host o HCA. Se
conectan a conmutadores InfiniBand con especiales cables que se han diseñado para llevar
sus datos en esta alta tasa de precisión.
Solaris
3NM51