DOCENTE:
M.S.C ODEMARIS MARTINEZ ACEVEDO
ASIGNATURA:
SISTEMAS OPERATIVOS II
TEMA:
CLÚSTER Y VIRTUALIZACÍON.
SEMESTRE:
QUINTO.
ESPECIALIDAD:
INGENIERIA EN INFORMÁTICA.
EQUIPO:
ANAYA MANZANO JUAN.
VELASCO SANTIAGO SINDY JANET
TUXTEPEC, OAXACA. 31 / AGOSTO / 2015.
Introducción.
En éste trabajo se hará mención del clúster, sus características, ventajas y
desventajas con el fin de analizar su funcionamiento desarrollando diversas
técnicas. También se hablará de la virtualización, sus características, ventajas y
desventajas, para así conocer sus componentes y configurarlo de manera adecuada
usando éste software tan potente.
¿Qué es un clúster?
Un cúmulo, granja o clúster de computadoras, lo podemos definir como un sistema
de procesamiento paralelo o distribuido. Consta de un conjunto de computadoras
independientes, interconectadas entre sí, de tal manera que funcionan como un solo
recurso computacional. A cada uno de los elementos del clúster se le conoce como
nodo.
Estos son aparatos o torres que pueden tener uno o varios procesadores, memoria
RAM, interfaces de red, dispositivos de entrada y salida, y sistema operativo. Los
nodos pueden estar contenidos e interconectados en un solo gabinete, o, como en
muchos casos, acoplados a través de una red de área local (LAN (Local Área
Network)).
Otro componente básico en un clúster es la interfaz de la red, la cual es responsable
de transmitir y recibir los paquetes de datos, que viajan a través de la red entre los
nodos. Finalmente el lograr que todos estos elementos funcionen como un solo
sistema, es la meta a la que se quiere llegar para dar origen a un clúster.
Comúnmente, en los clúster existe una máquina (con monitor, teclado, ratón,
etcétera) que funciona como nodo-maestro y se encarga de administrar, controlar y
monitorear todas las aplicaciones y recursos del sistema, en tanto que el resto de
los nodos está dedicado al procesamiento de datos o a ejecutar operaciones
aritméticas. Se les conoce como nodos-esclavos.
De un clúster se espera que presente combinaciones de los siguientes servicios:
 Alto rendimiento
 Alta disponibilidad
 Balanceo de carga
 Escalabilidad
La construcción de los ordenadores del clúster es más fácil y económica debido a
su flexibilidad: pueden tener todas las mismas configuraciones de hardware y
sistema operativo (clúster homogéneo), diferente rendimiento pero con
arquitecturas y sistemas operativos similares (clúster semihomogéneo), o tener
diferente hardware y sistema operativo (clúster heterogéneo), lo que hace más fácil
y económica su construcción.
Clasificación de los clústers.
El término clúster tiene diferentes connotaciones para diferentes grupos de
personas. Los tipos de clústeres, establecidos de acuerdo con el uso que se dé y
los servicios que ofrecen, determinan el significado del término para el grupo que lo
utiliza. Los clústeres pueden clasificarse según sus características:
 HPCC (High Performance Computing Clústers: clústeres de alto
rendimiento).
 HA o HACC (High Availability Computing Clústers: clústeres de alta
disponibilidad).
 HT o HTCC (High Throughput Computing Clústers: clústeres de alta
eficiencia).
Alto rendimiento: Son clústeres en los cuales se ejecutan tareas que requieren de
gran capacidad computacional, grandes cantidades de memoria, o ambos a la vez.
El llevar a cabo estas tareas puede comprometer los recursos del clúster por largos
periodos de tiempo.
Alta disponibilidad: Son clústeres cuyo objetivo de diseño es el de proveer
disponibilidad y confiabilidad. Estos clústeres tratan de brindar la máxima
disponibilidad de los servicios que ofrecen. La confiabilidad se provee mediante
software que detecta fallos y permite recuperarse frente a los mismos, mientras que
en hardware se evita tener un único punto de fallos.
Alta eficiencia: Son clústeres cuyo objetivo de diseño es el ejecutar la mayor
cantidad de tareas en el menor tiempo posible. Existe independencia de datos entre
las tareas individuales. El retardo entre los nodos del clúster no es considerado un
gran problema.
Los clústeres pueden también clasificar en:
 clústeres de IT comerciales (de alta disponibilidad y alta eficiencia) y
 clústeres científicos (de alto rendimiento).
A pesar de las discrepancias a nivel de requisitos de las aplicaciones, muchas de
las características de las arquitecturas de hardware y software, que están por debajo
de las aplicaciones en todos estos clústeres, son las mismas. Más aún, un clúster
de determinado tipo, puede también presentar características de los otros.
Componentes de un clúster.
En general, un clúster necesita de varios componentes de software y hardware para
poder funcionar:
 Nodos: Pueden ser simples ordenadores, sistemas multiprocesador o
estaciones de trabajo (workstations).
 Almacenamiento: El almacenamiento puede consistir en una NAS, una
SAN, o almacenamiento interno en el servidor. El protocolo más comúnmente
utilizado es NFS (Network File System), sistema de ficheros compartido entre
servidor y los nodos. Sin embargo existen sistemas de ficheros específicos
para clústeres como Lustre (CFS) y PVFS2.
 Sistemas operativos: Un sistema operativo debe ser multiproceso y
multiusuario. Otras características deseables son la facilidad de uso y
acceso.
 Conexiones de red: Los nodos de un clúster pueden conectarse mediante
una simple red Ethernet con placas comunes (adaptadores de red o NICs), o
utilizarse tecnologías especiales de alta velocidad como Fast Ethernet,
Gigabit Ethernet, Myrinet, InfiniBand, SCI, etc.
 Middleware: El middleware es un software que generalmente actúa entre el
sistema operativo y las aplicaciones con la finalidad de proveer a un clúster
Una interfaz única de acceso al sistema, denominada SSI (Single System
Image), la cual genera la sensación al usuario de que utiliza un único
ordenador muy potente
 Protocolos de comunicación y servicios
 Aplicaciones
 Ambientes de programación paralela: Los ambientes de programación
paralela permiten implementar algoritmos que hagan uso de recursos
compartidos: CPU (central processing unit: ‘unidad central de proceso’),
memoria, datos y servicios.
Sistemas Clústers Implementados
Beowulf:
Fue construido por Donald Becker y Thomas Sterling en 1994. Fue construido con
16 computadores personales con procesadores Intel DX4 de 200 MHz, que estaban
conectados a través de un switch Ethernet. El rendimiento teórico era de 3.2 GFlops.
Berkeley NOW:
El sistema NOW de Berkeley estuvo conformado por 105 estaciones de trabajo Sun
Ultra 170, conectadas a través de una red Myrinet. Cada estación de trabajo
contenía un microprocesador Ultra1 de 167 MHz, caché de nivel 2 de 512 MB, 128
MB de memoria, dos discos de 2.3 GB, tarjetas de red Ethernet y Myrinet. En abril
de 1997, NOW logró un rendimiento de 10 GFlops.
Google:
Durante el año 2003, el cluster Google llegó a estar conformado por más de 15.000
computadores personales. En promedio, una consulta en Google lee cientos de
megabytes y consume algunos billones de ciclos del CPU.
Cluster PS2:
En el año 2004, en la Universidad de Illinois en Urbana-Champaign, Estados
Unidos, se exploró el uso de consolas Play Station 2 (PS2) en cómputo científico y
visualización de alta resolución. Se construyó un cluster conformado por 70 PS2;
utilizando Sony Linux Kit (basado en Linux Kondora y Linux Red Hat) y MPI.
Cluster X:
En la lista “TOP 500” de noviembre de 2004 fue considerado el séptimo sistema
más rápido del mundo; sin embargo, para julio de 2005 ocupa la posición catorce.
Cluster X fue construido en el Tecnológico de Virginia en el 2003; su instalación fue
realizada por estudiantes del Tecnológico. Está constituido por 2200 procesadores
Apple G5 de 2.3 GHz. Utiliza dos redes: Infiniband 4x para las comunicaciones entre
procesos y Gigabit Ethernet para la administración. Cluster X posee 4 Terabytes de
memoria RAM y 176 Terabytes de disco duro, su rendimiento es de 12.25 TFlops.
Se lo conoce también como Terascale.
MareNostrum:
En julio de 2004 se creó el Centro de Supercomputación de Barcelona (BSC), de la
Universidad Técnica de Cataluña, España. El BSC creó el cluster MareNostrum. En
noviembre de 2004 MareNostrum se ubicó en el “TOP 500”, como el primer cluster
más veloz y el cuarto sistema más rápido del mundo; sin embargo, para julio de
2005 se ubicó en la quinta posición. Está conformado por 3564 procesadores
PowerPC970 de 2.2 GHz. Utiliza una red Myrinet. Su rendimiento es de 20.53
TFlops.
Thunder:
Thunder fue construido por el Laboratorio Nacional Lawrence Livermore de la
Universidad de California. Está conformado por 4096 procesadores Intel Itanium2
Tiger4 de 1.4GHz. Utiliza una red basada en tecnología Quadrics. Su rendimiento
es de 19.94 TFlops. Se ubicó en la segunda posición del “TOP 500” durante junio
de 2004, luego en la quinta posición en noviembre de 2004 y en la lista de julio de
2005 se ubicó en la séptima posición.
ASCI Q:
ASCI Q fue construido en el año 2002 por el Laboratorio Nacional Los Álamos,
Estados Unidos. Está constituido por 8192 procesadores AlphaServer SC45 de 1.25
GHz. Su rendimiento es de 13.88 TFlops. Se ubicó en la segunda posición del “TOP
500” durante junio y noviembre de 2003, luego en la tercera posición en junio de
2004, en la sexta posición en noviembre de 2004 y en la doceava posición en julio
de 2005.
Esquema y otras características
Las características básicas de un cluster de carácter general podrían resumirse en
el siguiente esquema:
 Un cluster consta de 2 o más nodos conectados entre sí por un canal de
comunicación funcional.
 En cada nodo es imprescindible un elemento de proceso, memoria y un
interfaz para comunicarse con la red del cluster.
 Los clusteres necesitan software especializado. Este software y las
máquinas conforman el cluster. El software puede ser:
o aplicación
o sistema
 Se define acoplamiento de un cluster como nivel de colaboración que une
los elementos del cluster. De este modo se categorizan en:
o Acoplamiento fuerte
o Acoplamiento medio o moderado
o Acoplamiento débil
 Todos los elementos del cluster trabajan para cumplir una funcionalidad
conjunta, sea esta la que sea. Es la funcionalidad la que caracteriza el
sistema.
¿Qué es un virtualizador?
En Informática, virtualización es la creación -a través de software- de una versión
virtual de algún recurso tecnológico, como puede ser una plataforma de hardware,
un sistema operativo, un dispositivo de almacenamiento u otros recursos de red.
Dicho de otra manera, se refiere a la abstracción de los recursos de una
computadora, llamada Hypervisor o VMM (Virtual Machine Monitor) que crea una
capa de abstracción entre el hardware de la máquina física (host) y el sistema
operativo de la máquina virtual (virtual machine, guest), dividiéndose el recurso en
uno o más entornos de ejecución.
Esta capa de software (VMM) maneja, gestiona y arbitra los cuatro recursos
principales de una computadora (CPU, Memoria, Dispositivos Periféricos y
Conexiones de Red) y así podrá repartir dinámicamente dichos recursos entre todas
las máquinas virtuales definidas en el computador central. Esto hace que se puedan
tener varios ordenadores virtuales ejecutándose en el mismo ordenador físico.
Hay varias formas de ver o catalogar la virtualización, pero en general se trata de
uno de estos dos casos: virtualización de plataforma o virtualización de recursos.
 Virtualización de plataforma: se trata de simular una máquina real (servidor
o PC) con todos sus componentes (los cuales no necesariamente son todos
los de la máquina física) y prestarle todos los recursos necesarios para su
funcionamiento. En general, hay un software anfitrión que es el que controla
que las diferentes máquinas virtuales sean atendidas correctamente y que
está ubicado entre el hardware y las máquinas virtuales. Dentro de este
esquema caben la mayoría de las formas de virtualización más conocidas,
incluidas la virtualización de sistemas operativos, la virtualización de
aplicaciones y la emulación de sistemas operativos.
 Virtualización de recursos: esta permite agrupar varios dispositivos para
que sean vistos como uno solo, o al revés, dividir un recurso en múltiples
recursos independientes. Generalmente se aplica a medios de
almacenamiento. También existe una forma de virtualización de recursos
muy popular que no es sino las redes privadas virtuales o VPN, abstracción
que permite a un PC conectarse a una red corporativa a través de la Internet
como si estuviera en la misma sede física de la compañía.
Características de una máquina virtual.
 Las máquinas virtuales están aisladas entre sí, igual que las máquinas
físicas. Por ejemplo, si hay 3 máquinas virtuales en una máquina real y falla
una de ellas, las otras dos siguen estando disponibles.
 Una máquina virtual ni siquiera sabe que es virtual; se comporta como una
máquina física real.
 Una máquina virtual es compatible con sistemas operativos estándar como
Windows o Linux, es decir, cualquier programa desarrollado para dichos
sistemas operativos puede ejecutarse en una máquina virtual.
 Una máquina virtual es completamente independiente del hardware físico. La
máquina virtual tiene todos los componentes físicos pero éstos son virtuales
(placa base virtual, tarjeta VGA virtual, controlador de tarjeta de red virtual,…,
etc.), esto quiere decir que una máquina virtual puede ejecutarse en una
máquina real con tarjeta de red de marca x, pero siempre verá una tarjeta de
red virtual. Esto es útil porque permite que una máquina virtual se pueda
mover de una maquina real a otra, sin realizar cambios en los controladores
del dispositivo aunque las 2 máquinas reales sean de 2 fabricantes distintos.
La independencia del hardware proporciona más portabilidad y flexibilidad
para la gestión de servidores por ejemplo.
 Las aplicaciones están protegidas de los problemas de estabilidad y
rendimiento de otras aplicaciones existentes en la máquina real, es decir; si
una persona tiene todas sus aplicaciones en una máquina virtual, la
estabilidad y rendimiento es independiente de lo que suceda en la máquina
real. El comportamiento es como si se tratara de otro ordenador.
 Una máquina virtual se encapsula en una colección de archivos, y al igual
que los archivos, las máquinas virtuales se pueden copiar, mover, distribuir
(enviar por correo, grabar en DVD, etc.)
Ventajas de la virtualización.
1. Disminuye el número de servidores físicos. Esto trae como consecuencia una
reducción directa de los costos de mantenimiento de hardware.
2. Mediante la implementación de una estrategia de consolidación de
servidores, puede aumentar la eficiencia de la utilización del espacio en su
centro de datos.
3. Al tener cada aplicación dentro de su propio “servidor virtual” puede evitar
que una aplicación impacte otras aplicaciones al momento de realizar
mejoras o cambios.
4. Se puede desarrollar una norma de construcción de servidor virtual que se
puede duplicar fácilmente lo que acelerará la implementación del servidor.
5. Desplegar múltiples tecnologías de sistemas operativos en una sola
plataforma de hardware (es decir, Windows Server 2003, Linux, Windows
2000, etc.)
6. Compatibilidad: las máquinas virtuales, que poseen todos los componentes
presentes en un ordenador físico, son compatibles con la totalidad de
sistemas operativos x86, aplicaciones y controladores de dispositivos
estándar. Además, pueden ejecutar el mismo software que un ordenador x86
físico.
7. Aislamiento: aunque las máquinas virtuales pueden compartir los recursos
físicos de un único ordenador, permanecen tan aisladas unas de otras como
si se tratara de máquinas independientes. La disponibilidad y seguridad de
las aplicaciones que se ejecutan en un entorno virtual son muy superiores a
aquellas de las aplicaciones que se ejecutan en un sistema no virtualizado.
8. Encapsulación: gracias a esta característica, una máquina virtual es portátil
y fácil de gestionar, pues contiene un conjunto completo de recursos de
hardware virtual con un sistema operativo y todas sus aplicaciones. La
máquina virtual se puede mover y copiar como cualquier otro archivo, y
guardarse en cualquier medio de almacenamiento de datos estándar.
9. Independencia del hardware: dado que las máquinas virtuales son
independientes del hardware físico subyacente, se pueden configurar con
componentes virtuales que difieren totalmente de los componentes físicos
presentes en ese hardware subyacente. Incluso pueden ejecutar distintos
tipos de sistemas operativos.
Desventajas de la virtualización:
 Aplicaciones son más lentas
 Interoperabilidad entre diferentes máquinas virtuales.
 A través de pruebas se ha determinado que se logran pequeñas mejoras en
servidores (Java, de correo, servidor), Web, servidor de base de datos, y
servidor de archivos) utilizando virtualización.
 Aplicaciones nativas del microprocesador
Máquinas virtuales:
PVM:
La Máquina Virtual Paralela (conocida como PVM por sus siglas en inglés de
Parallel Virtual Machine) es una biblioteca para el cómputo paralelo en un sistema
distribuido de computadoras. Está diseñado para permitir que una red de
computadoras heterogénea comparta sus recursos de cómputo (como el
procesador y la memoria RAM) con el fin de aprovechar esto para disminuir el
tiempo de ejecución de un programa al distribuir la carga de trabajo en varias
computadoras.
La biblioteca PVM fue desarrollada por la Universidad de Tennessee, el Laboratorio
Nacional Oak Ridge y la Universidad Emory. La primera versión fue escrita en ORNL
en 1989, y después de ser modificadopor la Universidad de Tennessee, fue lanzada
la versión 2 en marzo de 1991. La versión 3 fue lanzada en marzo de 1993 con
mejoras en la tolerancia a fallas y portabilidad. Dispone de un Debugger gráfico que
se llama XPVM, aunque hay otros desarrollos similares
Conclusión.
Para concluir se puede mencionar que las principales características del clúster son
lo que los hacen ser tan potentes y es por eso que su uso sigue siendo vigente, así
como también el uso de las máquinas virtuales para conocer diversos sistemas
operativos o cualquier software.
Referencias:
https://es.wikipedia.org/wiki/Cl%C3%BAster_(inform%C3%A1tica)
www.revista.unam.mx/vol.4/num2/art3/cluster.htm
http://clusterfie.epn.edu.ec/clusters/Definiciones/definiciones.html
http://www.ibiblio.org/pub/linux/docs/LuCaS/Manuales-LuCAS/doc-manual-
openMosix-1.0/doc-manual-openMosix_html-1.0/node16_ct.html
http://www.pymesyautonomos.com/tecnologia/que-es-la-virtualizacion
http://blog.capacityacademy.com/2012/08/07/que-es-la-virtualizacion-y-cuales-son-
sus-beneficios/
https://es.wikipedia.org/wiki/Virtualizaci%C3%B3n
https://www.vmware.com/es/products/vsphere/features/compute
https://ticostyle.wordpress.com/tag/ventajas-y-desventajas-de-virtualizar/
https://es.wikipedia.org/wiki/M%C3%A1quina_Virtual_Paralela
http://www.aprenderaprogramar.com/index.php?option=com_attachments&task=d
ownload&id=139

Clúster

  • 1.
    DOCENTE: M.S.C ODEMARIS MARTINEZACEVEDO ASIGNATURA: SISTEMAS OPERATIVOS II TEMA: CLÚSTER Y VIRTUALIZACÍON. SEMESTRE: QUINTO. ESPECIALIDAD: INGENIERIA EN INFORMÁTICA. EQUIPO: ANAYA MANZANO JUAN. VELASCO SANTIAGO SINDY JANET TUXTEPEC, OAXACA. 31 / AGOSTO / 2015.
  • 2.
    Introducción. En éste trabajose hará mención del clúster, sus características, ventajas y desventajas con el fin de analizar su funcionamiento desarrollando diversas técnicas. También se hablará de la virtualización, sus características, ventajas y desventajas, para así conocer sus componentes y configurarlo de manera adecuada usando éste software tan potente.
  • 3.
    ¿Qué es unclúster? Un cúmulo, granja o clúster de computadoras, lo podemos definir como un sistema de procesamiento paralelo o distribuido. Consta de un conjunto de computadoras independientes, interconectadas entre sí, de tal manera que funcionan como un solo recurso computacional. A cada uno de los elementos del clúster se le conoce como nodo. Estos son aparatos o torres que pueden tener uno o varios procesadores, memoria RAM, interfaces de red, dispositivos de entrada y salida, y sistema operativo. Los nodos pueden estar contenidos e interconectados en un solo gabinete, o, como en muchos casos, acoplados a través de una red de área local (LAN (Local Área Network)). Otro componente básico en un clúster es la interfaz de la red, la cual es responsable de transmitir y recibir los paquetes de datos, que viajan a través de la red entre los nodos. Finalmente el lograr que todos estos elementos funcionen como un solo sistema, es la meta a la que se quiere llegar para dar origen a un clúster. Comúnmente, en los clúster existe una máquina (con monitor, teclado, ratón, etcétera) que funciona como nodo-maestro y se encarga de administrar, controlar y monitorear todas las aplicaciones y recursos del sistema, en tanto que el resto de los nodos está dedicado al procesamiento de datos o a ejecutar operaciones aritméticas. Se les conoce como nodos-esclavos. De un clúster se espera que presente combinaciones de los siguientes servicios:  Alto rendimiento  Alta disponibilidad  Balanceo de carga  Escalabilidad
  • 4.
    La construcción delos ordenadores del clúster es más fácil y económica debido a su flexibilidad: pueden tener todas las mismas configuraciones de hardware y sistema operativo (clúster homogéneo), diferente rendimiento pero con arquitecturas y sistemas operativos similares (clúster semihomogéneo), o tener diferente hardware y sistema operativo (clúster heterogéneo), lo que hace más fácil y económica su construcción. Clasificación de los clústers. El término clúster tiene diferentes connotaciones para diferentes grupos de personas. Los tipos de clústeres, establecidos de acuerdo con el uso que se dé y los servicios que ofrecen, determinan el significado del término para el grupo que lo utiliza. Los clústeres pueden clasificarse según sus características:  HPCC (High Performance Computing Clústers: clústeres de alto rendimiento).  HA o HACC (High Availability Computing Clústers: clústeres de alta disponibilidad).  HT o HTCC (High Throughput Computing Clústers: clústeres de alta eficiencia). Alto rendimiento: Son clústeres en los cuales se ejecutan tareas que requieren de gran capacidad computacional, grandes cantidades de memoria, o ambos a la vez. El llevar a cabo estas tareas puede comprometer los recursos del clúster por largos periodos de tiempo. Alta disponibilidad: Son clústeres cuyo objetivo de diseño es el de proveer disponibilidad y confiabilidad. Estos clústeres tratan de brindar la máxima disponibilidad de los servicios que ofrecen. La confiabilidad se provee mediante
  • 5.
    software que detectafallos y permite recuperarse frente a los mismos, mientras que en hardware se evita tener un único punto de fallos. Alta eficiencia: Son clústeres cuyo objetivo de diseño es el ejecutar la mayor cantidad de tareas en el menor tiempo posible. Existe independencia de datos entre las tareas individuales. El retardo entre los nodos del clúster no es considerado un gran problema. Los clústeres pueden también clasificar en:  clústeres de IT comerciales (de alta disponibilidad y alta eficiencia) y  clústeres científicos (de alto rendimiento). A pesar de las discrepancias a nivel de requisitos de las aplicaciones, muchas de las características de las arquitecturas de hardware y software, que están por debajo de las aplicaciones en todos estos clústeres, son las mismas. Más aún, un clúster de determinado tipo, puede también presentar características de los otros. Componentes de un clúster. En general, un clúster necesita de varios componentes de software y hardware para poder funcionar:  Nodos: Pueden ser simples ordenadores, sistemas multiprocesador o estaciones de trabajo (workstations).  Almacenamiento: El almacenamiento puede consistir en una NAS, una SAN, o almacenamiento interno en el servidor. El protocolo más comúnmente utilizado es NFS (Network File System), sistema de ficheros compartido entre servidor y los nodos. Sin embargo existen sistemas de ficheros específicos para clústeres como Lustre (CFS) y PVFS2.
  • 6.
     Sistemas operativos:Un sistema operativo debe ser multiproceso y multiusuario. Otras características deseables son la facilidad de uso y acceso.  Conexiones de red: Los nodos de un clúster pueden conectarse mediante una simple red Ethernet con placas comunes (adaptadores de red o NICs), o utilizarse tecnologías especiales de alta velocidad como Fast Ethernet, Gigabit Ethernet, Myrinet, InfiniBand, SCI, etc.  Middleware: El middleware es un software que generalmente actúa entre el sistema operativo y las aplicaciones con la finalidad de proveer a un clúster Una interfaz única de acceso al sistema, denominada SSI (Single System Image), la cual genera la sensación al usuario de que utiliza un único ordenador muy potente  Protocolos de comunicación y servicios  Aplicaciones  Ambientes de programación paralela: Los ambientes de programación paralela permiten implementar algoritmos que hagan uso de recursos compartidos: CPU (central processing unit: ‘unidad central de proceso’), memoria, datos y servicios.
  • 7.
    Sistemas Clústers Implementados Beowulf: Fueconstruido por Donald Becker y Thomas Sterling en 1994. Fue construido con 16 computadores personales con procesadores Intel DX4 de 200 MHz, que estaban conectados a través de un switch Ethernet. El rendimiento teórico era de 3.2 GFlops. Berkeley NOW: El sistema NOW de Berkeley estuvo conformado por 105 estaciones de trabajo Sun Ultra 170, conectadas a través de una red Myrinet. Cada estación de trabajo contenía un microprocesador Ultra1 de 167 MHz, caché de nivel 2 de 512 MB, 128 MB de memoria, dos discos de 2.3 GB, tarjetas de red Ethernet y Myrinet. En abril de 1997, NOW logró un rendimiento de 10 GFlops. Google: Durante el año 2003, el cluster Google llegó a estar conformado por más de 15.000 computadores personales. En promedio, una consulta en Google lee cientos de megabytes y consume algunos billones de ciclos del CPU. Cluster PS2: En el año 2004, en la Universidad de Illinois en Urbana-Champaign, Estados Unidos, se exploró el uso de consolas Play Station 2 (PS2) en cómputo científico y visualización de alta resolución. Se construyó un cluster conformado por 70 PS2; utilizando Sony Linux Kit (basado en Linux Kondora y Linux Red Hat) y MPI.
  • 8.
    Cluster X: En lalista “TOP 500” de noviembre de 2004 fue considerado el séptimo sistema más rápido del mundo; sin embargo, para julio de 2005 ocupa la posición catorce. Cluster X fue construido en el Tecnológico de Virginia en el 2003; su instalación fue realizada por estudiantes del Tecnológico. Está constituido por 2200 procesadores Apple G5 de 2.3 GHz. Utiliza dos redes: Infiniband 4x para las comunicaciones entre procesos y Gigabit Ethernet para la administración. Cluster X posee 4 Terabytes de memoria RAM y 176 Terabytes de disco duro, su rendimiento es de 12.25 TFlops. Se lo conoce también como Terascale. MareNostrum: En julio de 2004 se creó el Centro de Supercomputación de Barcelona (BSC), de la Universidad Técnica de Cataluña, España. El BSC creó el cluster MareNostrum. En noviembre de 2004 MareNostrum se ubicó en el “TOP 500”, como el primer cluster más veloz y el cuarto sistema más rápido del mundo; sin embargo, para julio de 2005 se ubicó en la quinta posición. Está conformado por 3564 procesadores PowerPC970 de 2.2 GHz. Utiliza una red Myrinet. Su rendimiento es de 20.53 TFlops. Thunder: Thunder fue construido por el Laboratorio Nacional Lawrence Livermore de la Universidad de California. Está conformado por 4096 procesadores Intel Itanium2 Tiger4 de 1.4GHz. Utiliza una red basada en tecnología Quadrics. Su rendimiento es de 19.94 TFlops. Se ubicó en la segunda posición del “TOP 500” durante junio de 2004, luego en la quinta posición en noviembre de 2004 y en la lista de julio de 2005 se ubicó en la séptima posición.
  • 9.
    ASCI Q: ASCI Qfue construido en el año 2002 por el Laboratorio Nacional Los Álamos, Estados Unidos. Está constituido por 8192 procesadores AlphaServer SC45 de 1.25 GHz. Su rendimiento es de 13.88 TFlops. Se ubicó en la segunda posición del “TOP 500” durante junio y noviembre de 2003, luego en la tercera posición en junio de 2004, en la sexta posición en noviembre de 2004 y en la doceava posición en julio de 2005. Esquema y otras características Las características básicas de un cluster de carácter general podrían resumirse en el siguiente esquema:  Un cluster consta de 2 o más nodos conectados entre sí por un canal de comunicación funcional.  En cada nodo es imprescindible un elemento de proceso, memoria y un interfaz para comunicarse con la red del cluster.  Los clusteres necesitan software especializado. Este software y las máquinas conforman el cluster. El software puede ser: o aplicación o sistema  Se define acoplamiento de un cluster como nivel de colaboración que une los elementos del cluster. De este modo se categorizan en:
  • 10.
    o Acoplamiento fuerte oAcoplamiento medio o moderado o Acoplamiento débil  Todos los elementos del cluster trabajan para cumplir una funcionalidad conjunta, sea esta la que sea. Es la funcionalidad la que caracteriza el sistema. ¿Qué es un virtualizador? En Informática, virtualización es la creación -a través de software- de una versión virtual de algún recurso tecnológico, como puede ser una plataforma de hardware, un sistema operativo, un dispositivo de almacenamiento u otros recursos de red. Dicho de otra manera, se refiere a la abstracción de los recursos de una computadora, llamada Hypervisor o VMM (Virtual Machine Monitor) que crea una capa de abstracción entre el hardware de la máquina física (host) y el sistema operativo de la máquina virtual (virtual machine, guest), dividiéndose el recurso en uno o más entornos de ejecución. Esta capa de software (VMM) maneja, gestiona y arbitra los cuatro recursos principales de una computadora (CPU, Memoria, Dispositivos Periféricos y Conexiones de Red) y así podrá repartir dinámicamente dichos recursos entre todas las máquinas virtuales definidas en el computador central. Esto hace que se puedan tener varios ordenadores virtuales ejecutándose en el mismo ordenador físico. Hay varias formas de ver o catalogar la virtualización, pero en general se trata de uno de estos dos casos: virtualización de plataforma o virtualización de recursos.
  • 11.
     Virtualización deplataforma: se trata de simular una máquina real (servidor o PC) con todos sus componentes (los cuales no necesariamente son todos los de la máquina física) y prestarle todos los recursos necesarios para su funcionamiento. En general, hay un software anfitrión que es el que controla que las diferentes máquinas virtuales sean atendidas correctamente y que está ubicado entre el hardware y las máquinas virtuales. Dentro de este esquema caben la mayoría de las formas de virtualización más conocidas, incluidas la virtualización de sistemas operativos, la virtualización de aplicaciones y la emulación de sistemas operativos.  Virtualización de recursos: esta permite agrupar varios dispositivos para que sean vistos como uno solo, o al revés, dividir un recurso en múltiples recursos independientes. Generalmente se aplica a medios de almacenamiento. También existe una forma de virtualización de recursos muy popular que no es sino las redes privadas virtuales o VPN, abstracción que permite a un PC conectarse a una red corporativa a través de la Internet como si estuviera en la misma sede física de la compañía. Características de una máquina virtual.  Las máquinas virtuales están aisladas entre sí, igual que las máquinas físicas. Por ejemplo, si hay 3 máquinas virtuales en una máquina real y falla una de ellas, las otras dos siguen estando disponibles.  Una máquina virtual ni siquiera sabe que es virtual; se comporta como una máquina física real.  Una máquina virtual es compatible con sistemas operativos estándar como Windows o Linux, es decir, cualquier programa desarrollado para dichos sistemas operativos puede ejecutarse en una máquina virtual.
  • 12.
     Una máquinavirtual es completamente independiente del hardware físico. La máquina virtual tiene todos los componentes físicos pero éstos son virtuales (placa base virtual, tarjeta VGA virtual, controlador de tarjeta de red virtual,…, etc.), esto quiere decir que una máquina virtual puede ejecutarse en una máquina real con tarjeta de red de marca x, pero siempre verá una tarjeta de red virtual. Esto es útil porque permite que una máquina virtual se pueda mover de una maquina real a otra, sin realizar cambios en los controladores del dispositivo aunque las 2 máquinas reales sean de 2 fabricantes distintos. La independencia del hardware proporciona más portabilidad y flexibilidad para la gestión de servidores por ejemplo.  Las aplicaciones están protegidas de los problemas de estabilidad y rendimiento de otras aplicaciones existentes en la máquina real, es decir; si una persona tiene todas sus aplicaciones en una máquina virtual, la estabilidad y rendimiento es independiente de lo que suceda en la máquina real. El comportamiento es como si se tratara de otro ordenador.  Una máquina virtual se encapsula en una colección de archivos, y al igual que los archivos, las máquinas virtuales se pueden copiar, mover, distribuir (enviar por correo, grabar en DVD, etc.)
  • 13.
    Ventajas de lavirtualización. 1. Disminuye el número de servidores físicos. Esto trae como consecuencia una reducción directa de los costos de mantenimiento de hardware. 2. Mediante la implementación de una estrategia de consolidación de servidores, puede aumentar la eficiencia de la utilización del espacio en su centro de datos. 3. Al tener cada aplicación dentro de su propio “servidor virtual” puede evitar que una aplicación impacte otras aplicaciones al momento de realizar mejoras o cambios. 4. Se puede desarrollar una norma de construcción de servidor virtual que se puede duplicar fácilmente lo que acelerará la implementación del servidor. 5. Desplegar múltiples tecnologías de sistemas operativos en una sola plataforma de hardware (es decir, Windows Server 2003, Linux, Windows 2000, etc.) 6. Compatibilidad: las máquinas virtuales, que poseen todos los componentes presentes en un ordenador físico, son compatibles con la totalidad de sistemas operativos x86, aplicaciones y controladores de dispositivos estándar. Además, pueden ejecutar el mismo software que un ordenador x86 físico. 7. Aislamiento: aunque las máquinas virtuales pueden compartir los recursos físicos de un único ordenador, permanecen tan aisladas unas de otras como
  • 14.
    si se tratarade máquinas independientes. La disponibilidad y seguridad de las aplicaciones que se ejecutan en un entorno virtual son muy superiores a aquellas de las aplicaciones que se ejecutan en un sistema no virtualizado. 8. Encapsulación: gracias a esta característica, una máquina virtual es portátil y fácil de gestionar, pues contiene un conjunto completo de recursos de hardware virtual con un sistema operativo y todas sus aplicaciones. La máquina virtual se puede mover y copiar como cualquier otro archivo, y guardarse en cualquier medio de almacenamiento de datos estándar. 9. Independencia del hardware: dado que las máquinas virtuales son independientes del hardware físico subyacente, se pueden configurar con componentes virtuales que difieren totalmente de los componentes físicos presentes en ese hardware subyacente. Incluso pueden ejecutar distintos tipos de sistemas operativos. Desventajas de la virtualización:  Aplicaciones son más lentas  Interoperabilidad entre diferentes máquinas virtuales.  A través de pruebas se ha determinado que se logran pequeñas mejoras en servidores (Java, de correo, servidor), Web, servidor de base de datos, y servidor de archivos) utilizando virtualización.  Aplicaciones nativas del microprocesador
  • 15.
    Máquinas virtuales: PVM: La MáquinaVirtual Paralela (conocida como PVM por sus siglas en inglés de Parallel Virtual Machine) es una biblioteca para el cómputo paralelo en un sistema distribuido de computadoras. Está diseñado para permitir que una red de computadoras heterogénea comparta sus recursos de cómputo (como el procesador y la memoria RAM) con el fin de aprovechar esto para disminuir el tiempo de ejecución de un programa al distribuir la carga de trabajo en varias computadoras. La biblioteca PVM fue desarrollada por la Universidad de Tennessee, el Laboratorio Nacional Oak Ridge y la Universidad Emory. La primera versión fue escrita en ORNL en 1989, y después de ser modificadopor la Universidad de Tennessee, fue lanzada la versión 2 en marzo de 1991. La versión 3 fue lanzada en marzo de 1993 con mejoras en la tolerancia a fallas y portabilidad. Dispone de un Debugger gráfico que se llama XPVM, aunque hay otros desarrollos similares
  • 16.
    Conclusión. Para concluir sepuede mencionar que las principales características del clúster son lo que los hacen ser tan potentes y es por eso que su uso sigue siendo vigente, así como también el uso de las máquinas virtuales para conocer diversos sistemas operativos o cualquier software.
  • 17.
    Referencias: https://es.wikipedia.org/wiki/Cl%C3%BAster_(inform%C3%A1tica) www.revista.unam.mx/vol.4/num2/art3/cluster.htm http://clusterfie.epn.edu.ec/clusters/Definiciones/definiciones.html http://www.ibiblio.org/pub/linux/docs/LuCaS/Manuales-LuCAS/doc-manual- openMosix-1.0/doc-manual-openMosix_html-1.0/node16_ct.html http://www.pymesyautonomos.com/tecnologia/que-es-la-virtualizacion http://blog.capacityacademy.com/2012/08/07/que-es-la-virtualizacion-y-cuales-son- sus-beneficios/ https://es.wikipedia.org/wiki/Virtualizaci%C3%B3n https://www.vmware.com/es/products/vsphere/features/compute https://ticostyle.wordpress.com/tag/ventajas-y-desventajas-de-virtualizar/ https://es.wikipedia.org/wiki/M%C3%A1quina_Virtual_Paralela http://www.aprenderaprogramar.com/index.php?option=com_attachments&task=d ownload&id=139