SlideShare una empresa de Scribd logo
1 de 10
DOSSIER
                                                                                                                                        Généralisation de la virtualisation des serveurs : l’approche d’Intel
                                                                                                                                        En partenariat avec Intel

                                                                                                                                        John Humphreys			                    Tim Grieser
                                                                                                                                        Juin 2006




                                                                                                                                        L’AVIS D’IDC
IDC France • 124 Bureaux de la colline • 92213 SAINT-CLOUD CEDEX • Tél. : 01 55 39 61 00 • Fax : 01 55 39 61 01 • wwww.idc.com/france




                                                                                                                                        La démocratisation rapide de la virtualisation logicielle des serveurs d’architecture Intel
                                                                                                                                        (IA) qui est intervenue ces dernières années fait aujourd’hui de cette technique une
                                                                                                                                        solution incontournable pour le partage de ressources matérielles «  horizontales  »
                                                                                                                                        (plusieurs ordinateurs). Avec un emploi de plus en plus fréquent en environnement de
                                                                                                                                        production, les stratégies de sa mise en œuvre perdent en complexité et gagnent en
                                                                                                                                        efficacité. Face à l’intérêt qu’elle suscite, il est d’autant plus important, pour obtenir
                                                                                                                                        la plate-forme la plus rentable, la plus performante et la plus fiable possible, qu’une
                                                                                                                                        intégration intervienne entre les couches matérielles et logicielles. L’approche d’Intel
                                                                                                                                        repose sur la nouvelle technologie Intel® VT (Virtualization Technology) qui, assurant
                                                                                                                                        une virtualisation assistée par matériel, vise à rationaliser le fonctionnement des
                                                                                                                                        hyperviseurs de machines virtuelles.

                                                                                                                                        DANS CE DOSSIER…
                                                                                                                                        Ce dossier IDC aborde l’essor de la virtualisation sur plates-formes dotées de
                                                                                                                                        processeurs Xeon® ainsi que l’action d’Intel pour généraliser la virtualisation sur plates-
                                                                                                                                        formes fondées sur son architecture.

                                                                                                                                        INTRODUCTION
                                                                                                                                        Sous la forme du partitionnement d’un serveur physique en plusieurs serveurs virtuels
                                                                                                                                        («  machines virtuelles  »), la virtualisation est une solution connue et utilisée depuis
                                                                                                                                        longtemps pour le partage des ressources matérielles de plates-formes serveurs
                                                                                                                                        «  verticales  » (un seul ordinateur très puissant). Dans ces environnements, elle a
                                                                                                                                        évolué au fil des ans pour devenir une technique stable et performante d’amélioration
                                                                                                                                        du rendement matériel et de rationalisation du traitement des charges de production, y
                                                                                                                                        compris à l’intention des applications stratégiques. L’historique de la virtualisation sur
                                                                                                                                        ces plates-formes correspond à l’évolution du partitionnement des ressources de base,
                                                                                                                                        d’abord logiciel uniquement, puis logiciel assisté par matériel, jusqu’à une assistance
                                                                                                                                        matérielle élargie.

                                                                                                                                        ESSOR RAPIDE DE LA VIRTUALISATION
                                                                                                                                        Ces dernières années, la virtualisation s’est peu à peu imposée comme une stratégie
                                                                                                                                        essentielle pour le partage des ressources de plates-formes d’architecture Intel en
                                                                                                                                        environnement horizontal. On lui prédit par ailleurs un essor rapide quant au nombre
                                                                                                                                        des serveurs capables de gérer des machines virtuelles. Jusqu’ici, sa mise en œuvre
                                                                                                                                        sur architecture Intel reposait essentiellement sur des logiciels — les « hyperviseurs de
                                                                                                                                        machines virtuelles » — capables de partitionner des serveurs physiques en plusieurs
                                                                                                                                        serveurs logiques appelés « machines virtuelles » (VM).
Chacune de ces VM peut comporter l’image d’un système d’exploitation (Windows,
Linux, etc.) et un ensemble applicatif. Comme le montre la figure 1, les livraisons de
plates-formes serveurs matérielles dotées de capacités de virtualisation logicielles
devraient, selon les prévisions actuelles d’IDC, augmenter rapidement, pour passer
ainsi de 172 000 unités en 2004 à 1 209 000 en 2009, soit un taux de croissance annuel
composé de 47,7 %. Parallèlement, le nombre de plates-formes serveurs virtualisées
devrait passer de 778 000 en 2004 à 5 107 000 en 2009, soit un taux de croissance
annuel composé de 45,7 %. Sur l’ensemble des plates-formes virtualisées, celles gérés
sous Windows ou Linux devraient augmenter de 51,4 et 55,3 % respectivement, ce
même taux étant plus faible pour Unix puisqu’il ne serait que de 34,7 %.




FIGURE  1

É v olut i o n d e s l i v ra i s o n s d e s e rv e urs à vi rtual i ser (2004-2009)

                     6 000 000

                     5 000 000
 (en nb. d’unités)




                     4 000 000

                     3 000 000

                     2 000 000

                     1 000 000

                            0
                                   2
                                   	 004	     2005	      2006	       2007	   2008	      2009


                                 Serveurs physiques virtualisés

                                 Machines virtuelles

Source : IDC, 2006.




LES PLATES-FORMES INTEL ET LA VIRTUALISATION
La virtualisation sur serveurs haut de gamme se pratique depuis une trentaine d’années,
c’est-à-dire depuis qu’IBM l’a instaurée sur ses macro-ordinateurs (mainframes).
De ces configurations, elle s’est étendue aux serveurs d’architecture RISC à partir
d’une combinaison matériel/logiciel exclusive (micrologiciel, système d’exploitation,
hyperviseur), pour arriver ces dernières années sur serveurs équipés de processeurs
Xeon, avec l’apparition de solutions de virtualisation logicielle d’éditeurs tels que
VMware et Microsoft ainsi que dans le cadre du projet Xeon Open Source. Si la
virtualisation logicielle sur architecture Intel est aujourd’hui une réalité concrète, c’est
aussi en raison de la très forte augmentation de leurs capacités qu’ont enregistrée
les plates‑formes équipées de processeurs Xeon.




2	                                                            n° 201922                       © 2006, IDC
Approche de la virtualisation logicielle
La mise en œuvre du partitionnement et de machines virtuelles sur architecture Intel
s’est effectuée grâce à des logiciels appelés «  moniteurs de machines virtuelles  » ou
«  hyperviseurs  » et, en particulier, ceux de VMware (ESX Server), Microsoft (Microsoft
Virtual Server) et Xen. Dans le cadre de ces implémentations uniquement logicielles,
l’hyperviseur intercale un niveau d’abstraction (la machine virtuelle, autrement dit le
serveur logique) entre le matériel de base (le serveur physique) et le système d’exploitation
(Windows, Linux), ce qui permet à chaque OS gérant une machine virtuelle de se
comporter comme s’il avait le contrôle du matériel sous-jacent. C’est ainsi l’hyperviseur
qui autorise la coexistence de plusieurs machines virtuelles sur une même plate-forme
matérielle et de plusieurs systèmes d’exploitation et leurs ensembles applicatifs respectifs
sur un même serveur physique. Ces OS et applications gérés sur partitions virtuelles sont
en général qualifiés d’« invités », pour les distinguer de leurs homologues fonctionnant en
environnement serveur non virtualisé.

À la base, la virtualisation est une technique de partage des moyens matériels. Le principal
avantage des machines virtuelles est en effet qu’elles permettent de relever le rendement
des serveurs physiques grâce, précisément, au partage par plusieurs applications d’un
même ensemble de ressources physiques. On abandonne ainsi le modèle classique d’une
application par serveur qui caractérisait souvent les environnements serveur classiques,
autrement dit non virtualisés. Un autre avantage des VM est la possibilité d’isoler une
application des autres en termes de mémoire vive, de données et de contenus sur mémoire
de masse, pour ainsi éviter les problèmes tels que les conflits de pilotes.

On utilise par exemple les machines virtuelles en environnements d’études et de test.
On s’en sert ainsi pour gérer les évolutions d’un système d’exploitation (gestion de deux
versions successives de Windows sur le même serveur physique, par exemple), pour
faire fonctionner plusieurs versions d’une application sur un même serveur ainsi que pour
mettre en place, pour les essais, plusieurs environnements logiques assortis chacun d’une
configuration matérielle virtuelle. On fait par ailleurs de plus en plus fréquemment appel
à des VM sur architecture Intel en contexte de production, par exemple dans le cas de
serveurs consolidés (gestion de plusieurs applications regroupées sur un serveur, qui se
traduit par un rendement moyen en très nette hausse, mais qui conserve une réserve de
puissance convenable).

Limites de la virtualisation logicielle

La virtualisation purement logicielle offre certes de nombreux avantages, mais elle n’est
pas sans inconvénients en termes de temps système, de performances et de prise en
charge. La raison en est que les systèmes d’exploitation sont prévus pour disposer de la
maîtrise totale du matériel sous-jacent et non pas pour favoriser le partage des moyens.
Or les capacités matérielles qu’offre la technologie Intel VT, associées aux logiciels de
virtualisation actuels, ont précisément été pensées pour palier ces inconvénients.

L’APPROCHE INTEL VT
Au travers de la technologie Intel VT, Intel instaure une prise en charge matérielle de
la virtualisation. Cette technologie, qui vise à renforcer l’efficacité et les possibilités des
solutions de virtualisation logicielles, correspond à un ensemble d’optimisations apportées
aux plates-formes d’Intel et, en particulier, à ses processeurs. L’architecture Intel se fonde
en effet sur le principe d’anneaux de privilèges à quatre niveaux, du ring0 au ring3. Le
ring0 correspond à l’anneau disposant des privilèges les plus élevés et c’est celui qui, en
environnement natif, est dédié au système d’exploitation.




© 2006, IDC	                                          n° 201922                                  3
En mode purement logiciel, l’hyperviseur est géré en ring0, ce qui ramène les privilèges
du système d’exploitation à ceux du ring1. Cette approche fonctionne, mais présente
certains inconvénients — en termes d’exécution à un autre niveau de privilèges que
prévu (ring aliasing), d’instructions de non-déroutement (non-trapping instructions), de
déclaration excessive d’erreurs (faulting), de changement de contexte pour l’état CPU
et de compression de l’espace d’adresses — qui peuvent nuire aux performances ou à
la fiabilité de la solution. Aujourd’hui, la virtualisation des processeurs d’architecture x86
nécessite ainsi de complexes solutions logicielles de contournement.

La technologie Intel VT est prévue pour éliminer ces obstacles et la nécessité de ces
solutions palliatives, en gérant l’hyperviseur sur une couche racine, c’est-à-dire sur un
anneau de niveau inédit. On conserve ainsi la structure classique, avec le système
d’exploitation en ring0 et les logiciels d’application en ring2 (cf. figure 2).




FIGURE  2

La v ir t u a l i s a ti o n a v a n t e t a p rè s l a technol ogi e Intel V T



                VM1                     VMn                                       VM1                     VMn




                                                  Ring 3                                                        Ring 3
            App                       App                                   App                    App


             OS                       OS          Ring 1                     OS                     OS          Ring 0


                                                                                                                Racine
                                                  Ring 0
                        Hyperviseur                                                  Hyperviseur                VMX

                                                                                  Technologie Intel® VT
            Matériel physique partagé
                                                                            Matériel physique partagé


       •	L’hyperviseur ramène l’exécution de l’OS                       •	L’hyperviseur est géré à un niveau de
         invité en ring1 et occupe le ring0                               privilèges qui lui est propre
       •	L’OS ignore qu’il ne bénéficie pas des                         •	L’OS invité ne perd pas ses privilèges
         privilèges du ring0                                            •	L’OS est géré directement sur le matériel
       •	Nécessite une traduction logicielle lourde




Source : Intel, 2006.




4	                                                         n° 201922                                              © 2006, IDC
En palliant les inconvénients d’une virtualisation purement logicielle, la technologie Intel
VT est le socle de solutions susceptibles d’un large déploiement, sur tout un éventail
d’applications et pour de multiples environnements de production.

`` Surcharge en calcul et performances. Pour assurer l’émulation des ressources
   serveur, les hyperviseurs uniquement logiciels entraînent un allongement du
   temps système dans des domaines tels que ceux des E/S, de la gestion mémoire
   (pagination) et de la simulation des instructions CPU « privilégiées ». Or, en prenant
   en charge ces fonctions par une virtualisation matérielle, la technologie Intel VT
   contribue à réduire ce temps système et élargit donc l’ensemble des applications
   qui se prêtent à la virtualisation.

`` Simplification. Les solutions actuelles de virtualisation logicielle imposent au
   système d’exploitation de passer par l’hyperviseur pour communiquer avec le
   matériel sous-jacent, car l’OS est géré dans l’espace d’adresses et au niveau de
   privilèges normalement réservés aux applications. Avec ces solutions, c’est par
   l’intermédiaire d’une traduction binaire et du patchage de l’OS que l’on parvient
   à gérer ce dernier comme invité en environnement virtualisé, en lui faisant croire
   qu’il fonctionne sur une «  machine nue  ». Cette traduction peut intervenir en
   dynamique, à l’exécution (runtime) ou bien de manière statique, par avance (c’est
   ce qu’on appelle la paravirtualisation). Lorsqu’il y a traduction, à chaque mise à
   jour de l’OS (nouvelle version, Service Pack, correctif, etc.), l’hyperviseur doit
   systématiquement être patché.

     Or, par la mise en place d’une architecture nouvelle qui permet à l’OS de fonctionner
     en invité, sans modification, la virtualisation assistée par matérielle élimine cette
     traduction binaire et ce patchage.

`` Fiabilité. Nombreux sont les utilisateurs à craindre que la traduction logicielle
   et le patchage ne nuisent à la fiabilité globale de la solution. La technologie
   Intel VT y répond par la prise en charge matérielle d’un élargissement des
   anneaux de privilèges, qui se traduit par une simplification de l’hyperviseur :
   celui-ci s’exécute dans un nouvel anneau, aux privilèges plus forts, l’OS invité
   continuant de tourner en anneau 0.

`` Champ d’application. Comparée aux solutions purement logicielles actuelles, la
   technologie Intel VT élargit la virtualisation à des systèmes d’exploitation bien plus
   nombreux. Elle assure en effet la prise en charge directe des OS patrimoniaux
   sans modification (plusieurs versions de Linux et Windows). Elle gère par ailleurs
   aussi les OS 64 bits invités, ce qui a toute son importance face à la rapide montée
   en puissance des solutions articulées sur les processeurs Xeon 64 bits d’Intel (et
   sachant que les solutions actuelles n’en sont pas capables).

`` Flexibilité. L’un des objectifs premiers de la technologie Intel VT est d’assurer
   l’indépendance des hyperviseurs par rapport à tel ou tel système d’exploitation,
   pour dispenser d’avoir à mettre à jour ceux-ci à chaque évolution d’un OS.

`` Fiabilité de la plate-forme. Avec l’évolution d’environnements où chaque
   application a plus ou moins son serveur vers un contexte où un même serveur
   virtualisé hébergera toute d’une série d’entre elles, l’impératif est à la fiabilité
   du matériel. Pour limiter les risques liés au fait de «  mettre tous ses œufs
   sans le même panier  », les utilisateurs ne pourront donc que se tourner vers
   la plate-forme la plus susceptible de leur assurer fiabilité, continuité de service
   et facilité d’intervention (RAS).




© 2006, IDC	                                        n° 201922                                 5
Dans l’ensemble, la virtualisation assistée par matériel que propose la technologie Intel
VT, associée au soutien continu de celle-ci par les éditeurs d’hyperviseurs, va optimiser
les environnements virtualisés. Le lancement de cette technologie constitue la première
étape dans les perspectives à long terme d’Intel pour la virtualisation.

SOUTIEN DE L’ÉCOSYSTÈME
Le succès de la technologie Intel VT repose sur le soutien d’un vaste écosystème
de constructeurs, d’éditeurs, de revendeurs, d’entreprises utilisatrices et d’instances
normatives. Intel travaille en l’occurrence avec des éditeurs de logiciels pour assurer la
prise en charge de cette technologie par leurs hyperviseurs : Microsoft et VMware ainsi
que Xen pour l’Open Source.

Intel intervient par ailleurs activement auprès de grands constructeurs et distributeurs
pour veiller à ce que leurs plates-formes soient équipées d’un BIOS compatible avec les
derniers-nés de ses processeurs dotés de la technologie Intel VT.

L’objectif est de proposer au secteur informatique une plate-forme de virtualisation
assistée par matériel qui soit monostandard, qui gère les systèmes d’exploitation invités
qu’ils soient paravirtualisés ou patrimoniaux et qui puisse s’appliquer aux serveurs
équipés de processeurs Xeon® et Itanium® attendus en cours d’année ainsi qu’aux
micro-ordinateurs.

Intel a ainsi annoncé la prise en charge d’interfaces d’hyperviseur définies pour
le système d’exploitation hôte, la pile logicielle d’administration système et/ou le
micrologiciel (firmware) et les périphériques de la plate-forme. Cette interface prend
en partie en charge les activités de bas niveau afin de limiter le temps système lié à
la couche de virtualisation ainsi que pour renforcer les performances, la sécurité et la
fiabilité des services virtualisés. Aux plates-formes qui en sont dotées, la technologie
Intel VT permet aussi l’exécution directe d’un hyperviseur sur une architecture et un jeu
d’instructions IA-32.

L’arrivée de la virtualisation CPU, fin 2005, représente la première d’une série de solutions
de virtualisation d’Intel dont « VT » est le nom générique. Cette entreprise concentre
ses activités d’études actuelles sur une assistance à la virtualisation des processeurs
et de la mémoire. Elle entend ensuite élargir cette technique aux sous-systèmes d’E/S,
afin d’améliorer encore les capacités de virtualisation à l’échelle de toute la plate-forme.
C’est ainsi qu’en mars 2006, Intel a publié la spécification préliminaire de la technologie
Intel VT-d (Virtualization Technology for Directed I/O), après l’avoir communiquée aux
constructeurs concernés.

La technologie Intel VT-d assure une assistance matérielle au jeu de composants
(chipset) pour le remappage DMA (Direct Memory Access) et l’attribution directe de
mémoire. En prenant en charge ce remappage au niveau du matériel, elle protège mieux
la mémoire contre le code DMA erratique et renforce la fiabilité globale. Les hyperviseurs
peuvent aussi faire appel à la technologie Intel VT-d pour attribuer directement des
ressources d’E/S à des machines virtuelles précises, ce qui assure à l’OS invité un
accès direct aux fonctions des périphériques physiques pour lesquels l’éditeur de
l’hyperviseur n’a peut-être pas publié de pilotes d’émulation. Cette technologie stimule
également les performances des E/S pour certains schémas d’utilisation, par exemple
les environnements stratégiques ou d’études et de tests. Les premiers processeurs
dotés de la technologie VT-d seront mis à la disposition des éditeurs d’hyperviseurs en
2006, pour une livraison effective en phase avec les projets de l’écosystème.

L’échéance suivante d’Intel portera sur une virtualisation plus granulaire de la mémoire
afin d’améliorer encore les performances et la stabilité des hyperviseurs.




6	                                                   n° 201922                                 © 2006, IDC
FIGURE  3

La v ir tu a l i s a ti o n m a té ri e l l e s e l o n Intel


             VM 1                   VM 2                      VM 3

                                                                         VT-x et VT-I :
                                                                         virtualisation CPU
                              Hyperviseur
                                                                         et mémoire




                                  MCH
                              PCIe x8

                                        PCIe x8

                                                  PCIe x8

                                                            PCIe x8
                        DMI




          Boot
         anciens
           OS                                                            VT-d : virtualisation
                                                                         des sous-systèmes
                                                                         d’E/S
Source : Intel, 2006.




PERSPECTIVES
Les perspectives de la virtualisation sont immenses. Une récente étude d’IDC indique
en effet que les entreprises qui l’emploient déjà l’ont mise en œuvre sur un cinquième
de leurs serveurs et que cette proportion devrait passer à 50 % d’ici à la fin 2006.

On constate ainsi de plus en plus que cette technique cesse d’être l’apanage des
réceptifs précoces et qu’elle se généralise au contraire, en raison des usages
supplémentaires qui lui sont trouvés et de ses nombreux atouts, dont la suite
de ce document dresse la liste.




© 2006, IDC	                                                          n° 201922                 7
Consolidation de serveurs

La possibilité de partitionner un serveur permet de gérer sur chaque partition un BIOS,
un OS et des applications distincts. La virtualisation purement logicielle assure le partage
des moyens matériels physiques avec isolement complet de la partie logicielle. Elle
favorise une réduction des coûts matériels (mais coûts logiciels inchangés) et facilite
l’administration en la simplifiant. Elle réduit par ailleurs la consommation électrique, le
câblage et l’encombrement des datacenters. Il s’agit actuellement de l’usage le plus
courant de la virtualisation.

`` Consolidation de l’infrastructure informatique

`` Tout un datacenter en seul rack de serveurs

`` Environnements multi-OS

Environnement d’études et de tests

L’une des applications de la virtualisation à connaître un engouement certain est la
gestion de solutions pilotes dans des partitions virtuelles distinctes. Cette approche tire
parti de tous les avantages de la consolidation des serveurs (en réduisant le nombre des
machines sous-exploitées) et favorise une plus grande flexibilité grâce à la possibilité
d’un déploiement applicatif plus rapide. Avant de les déployer sur tout un datacenter,
on peut en effet valider des applications nouvelles dans une simple partition, ce qui
renforce la stabilité de la solution concernée.

`` Meilleur rendement de la ou des machines de test

`` Déploiement de nouvelles applications

`` Déploiement accéléré

Migrations et mises à niveau matérielles

Les atouts de la virtualisation pour les migrations matérielles sont comparables à
ceux qu’elle assure aux environnements d’études et de tests. Elle permet en effet de
phaser la migration d’un système d’exploitation et de ses applications sur une nouvelle
machine. En validant les solutions correspondantes sur des partitions virtuelles, les
équipes informatiques limitent ainsi les risques de perturbation de service qu’implique
cette opération. Lorsqu’il s’agit de changer d’architecture, le phasage de cette migration
sur des serveurs virtualisés permet une validation complète avant déploiement.

`` Gestion des changements

`` Migration des systèmes d’exploitation

`` Correctifs et mises à niveau

Continuité de l’activité

La majorité des datacenters dispose d’un système ou d’un autre de basculement de la
charge d’un serveur en cas d’indisponibilité de celui-ci, en général sur une machine qui
est la réplique de la première. Or, dans la mesure où une grande partie des défaillances
de serveurs sont d’origine logicielle, réaliser cette duplication sous forme de deux
partitions virtuelles de la même machine se traduit par une baisse du coût. Ce dispositif
nécessite cependant, bien sûr, que la machine elle-même soit extrêmement fiable,
ce qui est le cas des serveurs équipés de processeurs Intel Xeon MP grâce à leurs


8	                                                  n° 201922                                 © 2006, IDC
caractéristiques RAS de pointe. De plus, avec la fiabilité sans cesse croissance des
nouveaux serveurs Xeon et Itanium, cette application de la virtualisation ne peut que
se développer.

`` Prise de relais, sur incident, d’une machine virtuelle par une autre

`` Partition réservée aux services informatiques

`` Reprise sur sinistre et incident (sauvegardes)


Gestion prévisionnelle des moyens

Les partitions virtuelles peuvent se dimensionner et se redimensionner à loisir, en
fonction des besoins. Cette particularité offre une grande souplesse aux services
informatiques, qui peuvent ainsi mettre en place des ressources de calcul massives si
nécessaire (clôture de fin de trimestre, par exemple), pour les réduire ensuite. Grâce à
cette attribution des moyens de traitement à la carte, le rendement global des serveurs
est optimisé.

À l’avenir, le provisionnement des capacités de traitement sera encore plus dynamique,
en particulier pour leur mise en place et leur suppression.

`` Globalisation de l’infrastructure

`` Dimensionnement applicative dynamique

`` Informatique à la demande


Équilibrage de charges

Dans le cadre de la virtualisation, les outils d’équilibrage des charges surveillent le taux
d’utilisation des machines virtuelles et modifient, en appliquant des règles préétablies,
la répartition de ces charges sur plusieurs VM pour optimiser la capacité de traitement
par rapport à la réserve de puissance.

`` Équilibrage des charges sur plusieurs plates-formes

`` Gestion de la réserve de puissance

`` Dimensionnement applicative dynamique

Depuis l’apparition de la virtualisation, ses applications se sont considérablement
élargies. Technique réservée à l’origine au renforcement du rendement des serveurs par
leur consolidation, elle s’emploie également aujourd’hui pour pérenniser les applications
gérées sous d’anciens systèmes d’exploitation en les déplaçant des machines qui les
hébergeaient vers des serveurs plus puissants.

Ses applications se sont également étendues à la continuité de l’activité, à la gestion
prévisionnelle des moyens informatiques et à l’automatisation à partir d’un ensemble de
règles, qui sont les prémices d’une vraie informatique à la demande.

C’est cette palette d’usages en constante expansion qui rend la virtualisation aussi
intéressante pour les entreprises et c’est aussi la raison pour laquelle Intel, ses partenaires
constructeurs et les éditeurs spécialisés travaillent à créer ensemble une plate-forme
de virtualisation performante, qui englobe les aspects matériels et logiciels ainsi que
de gestion et d’administration. Cette collaboration est essentielle pour surmonter les
obstacles à cette technique et pour pleinement exploiter son potentiel.


© 2006, IDC	                                          n° 201922                                  9
ENJEUX
Les enjeux qui se présentent à Intel pour la virtualisation assistée par matériel consistent
surtout à faire accepter cette solution. Cette entreprise devra ainsi continuer de démontrer
tant à ses clients qu’à ses partenaires éditeurs que la technique en question renforce les
performances et voit ses applications se multiplier.

Elle devra également continuer de développer l’écosystème autour de la technologie
Intel VT et mettre en place un cadre où les éditeurs et elle-même pourront travailler en
partenariat. L’enjeu auquel elle répond actuellement est ainsi d’orchestrer la prise en
charge de cette technologie par les hyperviseurs des trois grands éditeurs concernés :
VMware, Microsoft et Xen.

Le déploiement de serveurs dotés de cette technologie et des hyperviseurs correspondants
s’effectue dans le souci des besoins des utilisateurs. Sa réussite conduirait à renforcer
la crédibilité de cette solution et aiderait Intel à planter le premier le drapeau de la
virtualisation pour les ordinateurs d’architecture x86.

L’entreprise restera par ailleurs vigilante en continuant de se démarquer par la virtualisation
matérielle, d’innover et de promouvoir les standards. Or innover sur le marché de
l’informatique standard, où les partenaires d’un intervenant jouent un rôle crucial dans
sa réussite, est un art dans lequel l’entreprise est passée maître. Il lui faudra néanmoins
impérativement continuer à appliquer ces enseignements au marché de la virtualisation
en veillant à fournir à ses partenaires éditeurs la marge de manœuvre dont ils ont besoin
pour améliorer les capacités des produits qu’ils proposent.

CONCLUSION
La virtualisation se dessine comme l’une des tendances majeures pour le marché des
serveurs et la réalité des datacenters. Elle trouve déjà toute une série d’applications, de
l’amélioration du rendement des moyens matériels à la reprise sur sinistre, en passant par
les infrastructures d’études et de tests, la pérennisation des investissements applicatifs et
le renforcement de la continuité de service.

Son évolution vers une technologie habilitante horizontale est l’une des principales
raisons à l’engouement qu’elle suscite. Pour concrétiser son plein potentiel et élargir la
palette des applications pour lesquelles elle démontre un avantage, elle doit néanmoins
s’intégrer plus fortement au matériel.

En s’efforçant de l’incorporer à toute la gamme de ses plates-formes, Intel réalise
actuellement les investissements nécessaires à sa généralisation, ce qui assurera la
disponibilité de plates-formes à haut rendement, stables et ultraperformantes pour toute
une panoplie de technologies de virtualisation.




Note de copyright
Publication externe d’informations et données d’IDC. Toute utilisation d’informations
d’IDC pour la publicité, dans un communiqué de presse ou sur un support promotionnel
ne peut intervenir que sur autorisation écrite du vice-président d’IDC concerné ou du
responsable IDC pour le pays concerné. Un avant-projet du document doit accompagner
la demande d’autorisation. IDC est libre de refuser cette autorisation.

© 2006, IDC. Toute reproduction sans autorisation écrite est strictement interdite.




10	                                                   n° 201922                                  © 2006, IDC

Más contenido relacionado

La actualidad más candente

La Virtualisation Des Failles Bien Reelles Ou Virtuelles
La Virtualisation Des Failles Bien Reelles Ou VirtuellesLa Virtualisation Des Failles Bien Reelles Ou Virtuelles
La Virtualisation Des Failles Bien Reelles Ou VirtuellesDavid Girard
 
La haute disponibilité avec Dynamics CRM 2011 et SQL Server 2012
La haute disponibilité avec Dynamics CRM 2011 et SQL Server 2012La haute disponibilité avec Dynamics CRM 2011 et SQL Server 2012
La haute disponibilité avec Dynamics CRM 2011 et SQL Server 2012Microsoft
 
2011.06.24 Le Cloud pour les nouveaux - Daphne Alecian
2011.06.24 Le Cloud pour les nouveaux - Daphne Alecian2011.06.24 Le Cloud pour les nouveaux - Daphne Alecian
2011.06.24 Le Cloud pour les nouveaux - Daphne AlecianClub Alliances
 
Cross-client brochure
Cross-client brochureCross-client brochure
Cross-client brochureChristian Hym
 
Server Platform Brief
Server Platform BriefServer Platform Brief
Server Platform BriefChristian Hym
 
La virtualisation dans le Datacenter
La virtualisation dans le DatacenterLa virtualisation dans le Datacenter
La virtualisation dans le DatacenterParis, France
 
Atelier Hitachi Information Forum 2012 - Les solutions « Cloud Optimized » de...
Atelier Hitachi Information Forum 2012 - Les solutions « Cloud Optimized » de...Atelier Hitachi Information Forum 2012 - Les solutions « Cloud Optimized » de...
Atelier Hitachi Information Forum 2012 - Les solutions « Cloud Optimized » de...Hitachi Data Systems France
 
Poste de Travail : Consumérisation et virtualisation
Poste de Travail : Consumérisation et virtualisationPoste de Travail : Consumérisation et virtualisation
Poste de Travail : Consumérisation et virtualisationEvenements01
 
[En route vers le cloud] Solutions cloud et virtualisation - IBM
[En route vers le cloud] Solutions cloud et virtualisation - IBM[En route vers le cloud] Solutions cloud et virtualisation - IBM
[En route vers le cloud] Solutions cloud et virtualisation - IBMGroupe D.FI
 
Dell Active Infrastructure, la Convergence globale du Data Center selon Dell ...
Dell Active Infrastructure, la Convergence globale du Data Center selon Dell ...Dell Active Infrastructure, la Convergence globale du Data Center selon Dell ...
Dell Active Infrastructure, la Convergence globale du Data Center selon Dell ...Microsoft
 
Le Cloud Hybride avec System Center 2012 et Azure
Le Cloud Hybride avec System Center 2012 et AzureLe Cloud Hybride avec System Center 2012 et Azure
Le Cloud Hybride avec System Center 2012 et AzureMicrosoft
 
Vista Solution Brief
Vista Solution BriefVista Solution Brief
Vista Solution BriefChristian Hym
 
Cloud competing dp invelia
Cloud competing dp inveliaCloud competing dp invelia
Cloud competing dp inveliainvelia
 
Virtualisation du stockage : Homogénéité, sécurité et performance.
Virtualisation du stockage : Homogénéité, sécurité et performance.Virtualisation du stockage : Homogénéité, sécurité et performance.
Virtualisation du stockage : Homogénéité, sécurité et performance.Inetum
 
Webinar on IBM SmartCloud Application Services Feb 7th. 2013
Webinar on IBM SmartCloud Application Services Feb 7th. 2013 Webinar on IBM SmartCloud Application Services Feb 7th. 2013
Webinar on IBM SmartCloud Application Services Feb 7th. 2013 Malika Lardjane
 
Prospectus 2011
Prospectus 2011Prospectus 2011
Prospectus 2011sebesna
 
IT FUTURE 2011 - Microsoft Hyper V
IT FUTURE 2011 - Microsoft Hyper VIT FUTURE 2011 - Microsoft Hyper V
IT FUTURE 2011 - Microsoft Hyper VFujitsu France
 
Webinar telecloud director vfinale
Webinar telecloud director vfinaleWebinar telecloud director vfinale
Webinar telecloud director vfinaleTelehouse
 
Acronis VM protect
Acronis VM protectAcronis VM protect
Acronis VM protectPROJECT SI
 

La actualidad más candente (20)

La Virtualisation Des Failles Bien Reelles Ou Virtuelles
La Virtualisation Des Failles Bien Reelles Ou VirtuellesLa Virtualisation Des Failles Bien Reelles Ou Virtuelles
La Virtualisation Des Failles Bien Reelles Ou Virtuelles
 
La haute disponibilité avec Dynamics CRM 2011 et SQL Server 2012
La haute disponibilité avec Dynamics CRM 2011 et SQL Server 2012La haute disponibilité avec Dynamics CRM 2011 et SQL Server 2012
La haute disponibilité avec Dynamics CRM 2011 et SQL Server 2012
 
2011.06.24 Le Cloud pour les nouveaux - Daphne Alecian
2011.06.24 Le Cloud pour les nouveaux - Daphne Alecian2011.06.24 Le Cloud pour les nouveaux - Daphne Alecian
2011.06.24 Le Cloud pour les nouveaux - Daphne Alecian
 
Cross-client brochure
Cross-client brochureCross-client brochure
Cross-client brochure
 
Server Platform Brief
Server Platform BriefServer Platform Brief
Server Platform Brief
 
La virtualisation dans le Datacenter
La virtualisation dans le DatacenterLa virtualisation dans le Datacenter
La virtualisation dans le Datacenter
 
Atelier Hitachi Information Forum 2012 - Les solutions « Cloud Optimized » de...
Atelier Hitachi Information Forum 2012 - Les solutions « Cloud Optimized » de...Atelier Hitachi Information Forum 2012 - Les solutions « Cloud Optimized » de...
Atelier Hitachi Information Forum 2012 - Les solutions « Cloud Optimized » de...
 
Poste de Travail : Consumérisation et virtualisation
Poste de Travail : Consumérisation et virtualisationPoste de Travail : Consumérisation et virtualisation
Poste de Travail : Consumérisation et virtualisation
 
[En route vers le cloud] Solutions cloud et virtualisation - IBM
[En route vers le cloud] Solutions cloud et virtualisation - IBM[En route vers le cloud] Solutions cloud et virtualisation - IBM
[En route vers le cloud] Solutions cloud et virtualisation - IBM
 
Dell Active Infrastructure, la Convergence globale du Data Center selon Dell ...
Dell Active Infrastructure, la Convergence globale du Data Center selon Dell ...Dell Active Infrastructure, la Convergence globale du Data Center selon Dell ...
Dell Active Infrastructure, la Convergence globale du Data Center selon Dell ...
 
Le Cloud Hybride avec System Center 2012 et Azure
Le Cloud Hybride avec System Center 2012 et AzureLe Cloud Hybride avec System Center 2012 et Azure
Le Cloud Hybride avec System Center 2012 et Azure
 
Vista Solution Brief
Vista Solution BriefVista Solution Brief
Vista Solution Brief
 
Cloud competing dp invelia
Cloud competing dp inveliaCloud competing dp invelia
Cloud competing dp invelia
 
Virtualisation du stockage : Homogénéité, sécurité et performance.
Virtualisation du stockage : Homogénéité, sécurité et performance.Virtualisation du stockage : Homogénéité, sécurité et performance.
Virtualisation du stockage : Homogénéité, sécurité et performance.
 
Webinar on IBM SmartCloud Application Services Feb 7th. 2013
Webinar on IBM SmartCloud Application Services Feb 7th. 2013 Webinar on IBM SmartCloud Application Services Feb 7th. 2013
Webinar on IBM SmartCloud Application Services Feb 7th. 2013
 
Prospectus 2011
Prospectus 2011Prospectus 2011
Prospectus 2011
 
fiche produit c3 xlumis
fiche produit c3 xlumisfiche produit c3 xlumis
fiche produit c3 xlumis
 
IT FUTURE 2011 - Microsoft Hyper V
IT FUTURE 2011 - Microsoft Hyper VIT FUTURE 2011 - Microsoft Hyper V
IT FUTURE 2011 - Microsoft Hyper V
 
Webinar telecloud director vfinale
Webinar telecloud director vfinaleWebinar telecloud director vfinale
Webinar telecloud director vfinale
 
Acronis VM protect
Acronis VM protectAcronis VM protect
Acronis VM protect
 

Destacado

World Ahead Healthcare Release
World Ahead Healthcare ReleaseWorld Ahead Healthcare Release
World Ahead Healthcare ReleaseChristian Hym
 
Latest Science and Technology Center
Latest Science and Technology CenterLatest Science and Technology Center
Latest Science and Technology CenterChristian Hym
 
"Mobility" project – Healthcare
"Mobility" project – Healthcare"Mobility" project – Healthcare
"Mobility" project – HealthcareChristian Hym
 
Earnings Release Q2'11
Earnings Release Q2'11Earnings Release Q2'11
Earnings Release Q2'11Christian Hym
 
Workstation brief fr
Workstation brief frWorkstation brief fr
Workstation brief frChristian Hym
 
"Mobility" project – Retail
"Mobility" project – Retail"Mobility" project – Retail
"Mobility" project – RetailChristian Hym
 

Destacado (8)

World Ahead Healthcare Release
World Ahead Healthcare ReleaseWorld Ahead Healthcare Release
World Ahead Healthcare Release
 
Latest Science and Technology Center
Latest Science and Technology CenterLatest Science and Technology Center
Latest Science and Technology Center
 
"Mobility" project – Healthcare
"Mobility" project – Healthcare"Mobility" project – Healthcare
"Mobility" project – Healthcare
 
Education brochure
Education brochureEducation brochure
Education brochure
 
Earnings Release Q2'11
Earnings Release Q2'11Earnings Release Q2'11
Earnings Release Q2'11
 
Workstation brief fr
Workstation brief frWorkstation brief fr
Workstation brief fr
 
Atos White Paper
Atos White PaperAtos White Paper
Atos White Paper
 
"Mobility" project – Retail
"Mobility" project – Retail"Mobility" project – Retail
"Mobility" project – Retail
 

Similar a IDC Vitrualization Whitepaper

Virtualisation et intégration des applications d'entreprise en environnement ...
Virtualisation et intégration des applications d'entreprise en environnement ...Virtualisation et intégration des applications d'entreprise en environnement ...
Virtualisation et intégration des applications d'entreprise en environnement ...Kouotou Aboubakar Sidiki, Eng, PMP
 
L'Offre Dell et MS pour la virtualisation de votre IT
L'Offre Dell et MS pour la virtualisation de votre ITL'Offre Dell et MS pour la virtualisation de votre IT
L'Offre Dell et MS pour la virtualisation de votre ITMicrosoft
 
Comprendre les systèmes informatiques virtuels
Comprendre les systèmes informatiques virtuels Comprendre les systèmes informatiques virtuels
Comprendre les systèmes informatiques virtuels Roland Kouakou
 
cours-supcom-virt.pptx
cours-supcom-virt.pptxcours-supcom-virt.pptx
cours-supcom-virt.pptxManellansari
 
Sécurité et Virtualisation IDC
Sécurité et Virtualisation IDCSécurité et Virtualisation IDC
Sécurité et Virtualisation IDCPROJECT SI
 
Ce qu'il faut savoir sur le Cloud Computing
Ce qu'il faut savoir sur le Cloud ComputingCe qu'il faut savoir sur le Cloud Computing
Ce qu'il faut savoir sur le Cloud ComputingMedinsoft
 
Atelier Hitachi Information Forum 2012 - Les approches concrètes pour le dépl...
Atelier Hitachi Information Forum 2012 - Les approches concrètes pour le dépl...Atelier Hitachi Information Forum 2012 - Les approches concrètes pour le dépl...
Atelier Hitachi Information Forum 2012 - Les approches concrètes pour le dépl...Hitachi Data Systems France
 
Flexible Workstyle : Comment réussir l'évolution du poste de travail vers les...
Flexible Workstyle : Comment réussir l'évolution du poste de travail vers les...Flexible Workstyle : Comment réussir l'évolution du poste de travail vers les...
Flexible Workstyle : Comment réussir l'évolution du poste de travail vers les...Microsoft Technet France
 
Comment intégrer une application ASP.NET dans Windows Azure
Comment intégrer une application ASP.NET dans Windows AzureComment intégrer une application ASP.NET dans Windows Azure
Comment intégrer une application ASP.NET dans Windows AzureMicrosoft Technet France
 
Microsoft Office Solution Brief
Microsoft Office Solution BriefMicrosoft Office Solution Brief
Microsoft Office Solution BriefChristian Hym
 
Les avantages de la virtualisation
Les avantages de la virtualisationLes avantages de la virtualisation
Les avantages de la virtualisationNRC
 
DCS : La solution de Cloud Privé par Microsoft Services
DCS : La solution de Cloud Privé par Microsoft ServicesDCS : La solution de Cloud Privé par Microsoft Services
DCS : La solution de Cloud Privé par Microsoft ServicesMicrosoft Technet France
 
Fujitsu IT Future 2013 : Construire votre architecture Cloud pour vous, vos p...
Fujitsu IT Future 2013 : Construire votre architecture Cloud pour vous, vos p...Fujitsu IT Future 2013 : Construire votre architecture Cloud pour vous, vos p...
Fujitsu IT Future 2013 : Construire votre architecture Cloud pour vous, vos p...Fujitsu France
 
Pourquoi l'automisation est essential pour une virtualisation des resaux reussie
Pourquoi l'automisation est essential pour une virtualisation des resaux reussiePourquoi l'automisation est essential pour une virtualisation des resaux reussie
Pourquoi l'automisation est essential pour une virtualisation des resaux reussieITOutcomes
 
Pourquoi l’automatisation est essentielle pour une virtualisation des réseaux...
Pourquoi l’automatisation est essentielle pour une virtualisation des réseaux...Pourquoi l’automatisation est essentielle pour une virtualisation des réseaux...
Pourquoi l’automatisation est essentielle pour une virtualisation des réseaux...ITOutcomes
 
Microsoft - Solution Virtualisation Windows Server 08
Microsoft - Solution Virtualisation Windows Server 08Microsoft - Solution Virtualisation Windows Server 08
Microsoft - Solution Virtualisation Windows Server 08actualblog
 
L’hyperconvergence au cœur du Software-defined data center
L’hyperconvergence au cœur du Software-defined data centerL’hyperconvergence au cœur du Software-defined data center
L’hyperconvergence au cœur du Software-defined data centerColloqueRISQ
 
Environnements_virtuels_-_Partie_1.pptx.pdf
Environnements_virtuels_-_Partie_1.pptx.pdfEnvironnements_virtuels_-_Partie_1.pptx.pdf
Environnements_virtuels_-_Partie_1.pptx.pdfismailoss
 

Similar a IDC Vitrualization Whitepaper (20)

Virtualisation et intégration des applications d'entreprise en environnement ...
Virtualisation et intégration des applications d'entreprise en environnement ...Virtualisation et intégration des applications d'entreprise en environnement ...
Virtualisation et intégration des applications d'entreprise en environnement ...
 
Virtualisation
VirtualisationVirtualisation
Virtualisation
 
L'Offre Dell et MS pour la virtualisation de votre IT
L'Offre Dell et MS pour la virtualisation de votre ITL'Offre Dell et MS pour la virtualisation de votre IT
L'Offre Dell et MS pour la virtualisation de votre IT
 
Comprendre les systèmes informatiques virtuels
Comprendre les systèmes informatiques virtuels Comprendre les systèmes informatiques virtuels
Comprendre les systèmes informatiques virtuels
 
cours-supcom-virt.pptx
cours-supcom-virt.pptxcours-supcom-virt.pptx
cours-supcom-virt.pptx
 
Sécurité et Virtualisation IDC
Sécurité et Virtualisation IDCSécurité et Virtualisation IDC
Sécurité et Virtualisation IDC
 
Ce qu'il faut savoir sur le Cloud Computing
Ce qu'il faut savoir sur le Cloud ComputingCe qu'il faut savoir sur le Cloud Computing
Ce qu'il faut savoir sur le Cloud Computing
 
Atelier Hitachi Information Forum 2012 - Les approches concrètes pour le dépl...
Atelier Hitachi Information Forum 2012 - Les approches concrètes pour le dépl...Atelier Hitachi Information Forum 2012 - Les approches concrètes pour le dépl...
Atelier Hitachi Information Forum 2012 - Les approches concrètes pour le dépl...
 
Rational cloud
Rational cloudRational cloud
Rational cloud
 
Flexible Workstyle : Comment réussir l'évolution du poste de travail vers les...
Flexible Workstyle : Comment réussir l'évolution du poste de travail vers les...Flexible Workstyle : Comment réussir l'évolution du poste de travail vers les...
Flexible Workstyle : Comment réussir l'évolution du poste de travail vers les...
 
Comment intégrer une application ASP.NET dans Windows Azure
Comment intégrer une application ASP.NET dans Windows AzureComment intégrer une application ASP.NET dans Windows Azure
Comment intégrer une application ASP.NET dans Windows Azure
 
Microsoft Office Solution Brief
Microsoft Office Solution BriefMicrosoft Office Solution Brief
Microsoft Office Solution Brief
 
Les avantages de la virtualisation
Les avantages de la virtualisationLes avantages de la virtualisation
Les avantages de la virtualisation
 
DCS : La solution de Cloud Privé par Microsoft Services
DCS : La solution de Cloud Privé par Microsoft ServicesDCS : La solution de Cloud Privé par Microsoft Services
DCS : La solution de Cloud Privé par Microsoft Services
 
Fujitsu IT Future 2013 : Construire votre architecture Cloud pour vous, vos p...
Fujitsu IT Future 2013 : Construire votre architecture Cloud pour vous, vos p...Fujitsu IT Future 2013 : Construire votre architecture Cloud pour vous, vos p...
Fujitsu IT Future 2013 : Construire votre architecture Cloud pour vous, vos p...
 
Pourquoi l'automisation est essential pour une virtualisation des resaux reussie
Pourquoi l'automisation est essential pour une virtualisation des resaux reussiePourquoi l'automisation est essential pour une virtualisation des resaux reussie
Pourquoi l'automisation est essential pour une virtualisation des resaux reussie
 
Pourquoi l’automatisation est essentielle pour une virtualisation des réseaux...
Pourquoi l’automatisation est essentielle pour une virtualisation des réseaux...Pourquoi l’automatisation est essentielle pour une virtualisation des réseaux...
Pourquoi l’automatisation est essentielle pour une virtualisation des réseaux...
 
Microsoft - Solution Virtualisation Windows Server 08
Microsoft - Solution Virtualisation Windows Server 08Microsoft - Solution Virtualisation Windows Server 08
Microsoft - Solution Virtualisation Windows Server 08
 
L’hyperconvergence au cœur du Software-defined data center
L’hyperconvergence au cœur du Software-defined data centerL’hyperconvergence au cœur du Software-defined data center
L’hyperconvergence au cœur du Software-defined data center
 
Environnements_virtuels_-_Partie_1.pptx.pdf
Environnements_virtuels_-_Partie_1.pptx.pdfEnvironnements_virtuels_-_Partie_1.pptx.pdf
Environnements_virtuels_-_Partie_1.pptx.pdf
 

Más de Christian Hym

Intel Challenge Winner Press Release
Intel Challenge Winner Press ReleaseIntel Challenge Winner Press Release
Intel Challenge Winner Press ReleaseChristian Hym
 
Intel Viiv Guide Book for RSO Training
Intel Viiv Guide Book for RSO TrainingIntel Viiv Guide Book for RSO Training
Intel Viiv Guide Book for RSO TrainingChristian Hym
 
Xmas 2006 - Module 6 Sell Tech
Xmas 2006 - Module 6 Sell TechXmas 2006 - Module 6 Sell Tech
Xmas 2006 - Module 6 Sell TechChristian Hym
 
Xmas 2006 - Module 5 Holiday 2006 Support
Xmas 2006 - Module 5 Holiday 2006 SupportXmas 2006 - Module 5 Holiday 2006 Support
Xmas 2006 - Module 5 Holiday 2006 SupportChristian Hym
 
Xmas 2006 - Module 4 About Intel
Xmas 2006 - Module 4 About IntelXmas 2006 - Module 4 About Intel
Xmas 2006 - Module 4 About IntelChristian Hym
 
Xmas 2006 - Module 3 vPro
Xmas 2006 - Module 3 vProXmas 2006 - Module 3 vPro
Xmas 2006 - Module 3 vProChristian Hym
 
Xmas 2006 - Module 1b C2D Expert
Xmas 2006 - Module 1b C2D ExpertXmas 2006 - Module 1b C2D Expert
Xmas 2006 - Module 1b C2D ExpertChristian Hym
 
Catalogue Microsoft Hardware 2010
Catalogue Microsoft Hardware 2010Catalogue Microsoft Hardware 2010
Catalogue Microsoft Hardware 2010Christian Hym
 
Citrix/Intel Brochure salon Hit
Citrix/Intel Brochure salon HitCitrix/Intel Brochure salon Hit
Citrix/Intel Brochure salon HitChristian Hym
 
Aaltiris Solution Brief
Aaltiris Solution BriefAaltiris Solution Brief
Aaltiris Solution BriefChristian Hym
 
"Mobility" project – Manufacturing
"Mobility" project – Manufacturing"Mobility" project – Manufacturing
"Mobility" project – ManufacturingChristian Hym
 
"Mobility" project – Finance
"Mobility" project – Finance"Mobility" project – Finance
"Mobility" project – FinanceChristian Hym
 

Más de Christian Hym (20)

Intel Challenge Winner Press Release
Intel Challenge Winner Press ReleaseIntel Challenge Winner Press Release
Intel Challenge Winner Press Release
 
Praises
PraisesPraises
Praises
 
Praises
PraisesPraises
Praises
 
Centrino brochure
Centrino brochureCentrino brochure
Centrino brochure
 
Intel POS Leaflet
Intel POS LeafletIntel POS Leaflet
Intel POS Leaflet
 
Intel Viiv Guide Book for RSO Training
Intel Viiv Guide Book for RSO TrainingIntel Viiv Guide Book for RSO Training
Intel Viiv Guide Book for RSO Training
 
Intel Viiv Flyer
Intel Viiv FlyerIntel Viiv Flyer
Intel Viiv Flyer
 
Xmas 2006 - Module 6 Sell Tech
Xmas 2006 - Module 6 Sell TechXmas 2006 - Module 6 Sell Tech
Xmas 2006 - Module 6 Sell Tech
 
Xmas 2006 - Module 5 Holiday 2006 Support
Xmas 2006 - Module 5 Holiday 2006 SupportXmas 2006 - Module 5 Holiday 2006 Support
Xmas 2006 - Module 5 Holiday 2006 Support
 
Xmas 2006 - Module 4 About Intel
Xmas 2006 - Module 4 About IntelXmas 2006 - Module 4 About Intel
Xmas 2006 - Module 4 About Intel
 
Xmas 2006 - Module 3 vPro
Xmas 2006 - Module 3 vProXmas 2006 - Module 3 vPro
Xmas 2006 - Module 3 vPro
 
Xmas 2006 - Module 1b C2D Expert
Xmas 2006 - Module 1b C2D ExpertXmas 2006 - Module 1b C2D Expert
Xmas 2006 - Module 1b C2D Expert
 
IVT Flyezr
IVT FlyezrIVT Flyezr
IVT Flyezr
 
CMDT Xmas Flyer
CMDT Xmas FlyerCMDT Xmas Flyer
CMDT Xmas Flyer
 
C2D Mobile Hanger
C2D Mobile HangerC2D Mobile Hanger
C2D Mobile Hanger
 
Catalogue Microsoft Hardware 2010
Catalogue Microsoft Hardware 2010Catalogue Microsoft Hardware 2010
Catalogue Microsoft Hardware 2010
 
Citrix/Intel Brochure salon Hit
Citrix/Intel Brochure salon HitCitrix/Intel Brochure salon Hit
Citrix/Intel Brochure salon Hit
 
Aaltiris Solution Brief
Aaltiris Solution BriefAaltiris Solution Brief
Aaltiris Solution Brief
 
"Mobility" project – Manufacturing
"Mobility" project – Manufacturing"Mobility" project – Manufacturing
"Mobility" project – Manufacturing
 
"Mobility" project – Finance
"Mobility" project – Finance"Mobility" project – Finance
"Mobility" project – Finance
 

IDC Vitrualization Whitepaper

  • 1. DOSSIER Généralisation de la virtualisation des serveurs : l’approche d’Intel En partenariat avec Intel John Humphreys Tim Grieser Juin 2006 L’AVIS D’IDC IDC France • 124 Bureaux de la colline • 92213 SAINT-CLOUD CEDEX • Tél. : 01 55 39 61 00 • Fax : 01 55 39 61 01 • wwww.idc.com/france La démocratisation rapide de la virtualisation logicielle des serveurs d’architecture Intel (IA) qui est intervenue ces dernières années fait aujourd’hui de cette technique une solution incontournable pour le partage de ressources matérielles «  horizontales  » (plusieurs ordinateurs). Avec un emploi de plus en plus fréquent en environnement de production, les stratégies de sa mise en œuvre perdent en complexité et gagnent en efficacité. Face à l’intérêt qu’elle suscite, il est d’autant plus important, pour obtenir la plate-forme la plus rentable, la plus performante et la plus fiable possible, qu’une intégration intervienne entre les couches matérielles et logicielles. L’approche d’Intel repose sur la nouvelle technologie Intel® VT (Virtualization Technology) qui, assurant une virtualisation assistée par matériel, vise à rationaliser le fonctionnement des hyperviseurs de machines virtuelles. DANS CE DOSSIER… Ce dossier IDC aborde l’essor de la virtualisation sur plates-formes dotées de processeurs Xeon® ainsi que l’action d’Intel pour généraliser la virtualisation sur plates- formes fondées sur son architecture. INTRODUCTION Sous la forme du partitionnement d’un serveur physique en plusieurs serveurs virtuels («  machines virtuelles  »), la virtualisation est une solution connue et utilisée depuis longtemps pour le partage des ressources matérielles de plates-formes serveurs «  verticales  » (un seul ordinateur très puissant). Dans ces environnements, elle a évolué au fil des ans pour devenir une technique stable et performante d’amélioration du rendement matériel et de rationalisation du traitement des charges de production, y compris à l’intention des applications stratégiques. L’historique de la virtualisation sur ces plates-formes correspond à l’évolution du partitionnement des ressources de base, d’abord logiciel uniquement, puis logiciel assisté par matériel, jusqu’à une assistance matérielle élargie. ESSOR RAPIDE DE LA VIRTUALISATION Ces dernières années, la virtualisation s’est peu à peu imposée comme une stratégie essentielle pour le partage des ressources de plates-formes d’architecture Intel en environnement horizontal. On lui prédit par ailleurs un essor rapide quant au nombre des serveurs capables de gérer des machines virtuelles. Jusqu’ici, sa mise en œuvre sur architecture Intel reposait essentiellement sur des logiciels — les « hyperviseurs de machines virtuelles » — capables de partitionner des serveurs physiques en plusieurs serveurs logiques appelés « machines virtuelles » (VM).
  • 2. Chacune de ces VM peut comporter l’image d’un système d’exploitation (Windows, Linux, etc.) et un ensemble applicatif. Comme le montre la figure 1, les livraisons de plates-formes serveurs matérielles dotées de capacités de virtualisation logicielles devraient, selon les prévisions actuelles d’IDC, augmenter rapidement, pour passer ainsi de 172 000 unités en 2004 à 1 209 000 en 2009, soit un taux de croissance annuel composé de 47,7 %. Parallèlement, le nombre de plates-formes serveurs virtualisées devrait passer de 778 000 en 2004 à 5 107 000 en 2009, soit un taux de croissance annuel composé de 45,7 %. Sur l’ensemble des plates-formes virtualisées, celles gérés sous Windows ou Linux devraient augmenter de 51,4 et 55,3 % respectivement, ce même taux étant plus faible pour Unix puisqu’il ne serait que de 34,7 %. FIGURE  1 É v olut i o n d e s l i v ra i s o n s d e s e rv e urs à vi rtual i ser (2004-2009) 6 000 000 5 000 000 (en nb. d’unités) 4 000 000 3 000 000 2 000 000 1 000 000 0 2 004 2005 2006 2007 2008 2009 Serveurs physiques virtualisés Machines virtuelles Source : IDC, 2006. LES PLATES-FORMES INTEL ET LA VIRTUALISATION La virtualisation sur serveurs haut de gamme se pratique depuis une trentaine d’années, c’est-à-dire depuis qu’IBM l’a instaurée sur ses macro-ordinateurs (mainframes). De ces configurations, elle s’est étendue aux serveurs d’architecture RISC à partir d’une combinaison matériel/logiciel exclusive (micrologiciel, système d’exploitation, hyperviseur), pour arriver ces dernières années sur serveurs équipés de processeurs Xeon, avec l’apparition de solutions de virtualisation logicielle d’éditeurs tels que VMware et Microsoft ainsi que dans le cadre du projet Xeon Open Source. Si la virtualisation logicielle sur architecture Intel est aujourd’hui une réalité concrète, c’est aussi en raison de la très forte augmentation de leurs capacités qu’ont enregistrée les plates‑formes équipées de processeurs Xeon. 2 n° 201922 © 2006, IDC
  • 3. Approche de la virtualisation logicielle La mise en œuvre du partitionnement et de machines virtuelles sur architecture Intel s’est effectuée grâce à des logiciels appelés «  moniteurs de machines virtuelles  » ou «  hyperviseurs  » et, en particulier, ceux de VMware (ESX Server), Microsoft (Microsoft Virtual Server) et Xen. Dans le cadre de ces implémentations uniquement logicielles, l’hyperviseur intercale un niveau d’abstraction (la machine virtuelle, autrement dit le serveur logique) entre le matériel de base (le serveur physique) et le système d’exploitation (Windows, Linux), ce qui permet à chaque OS gérant une machine virtuelle de se comporter comme s’il avait le contrôle du matériel sous-jacent. C’est ainsi l’hyperviseur qui autorise la coexistence de plusieurs machines virtuelles sur une même plate-forme matérielle et de plusieurs systèmes d’exploitation et leurs ensembles applicatifs respectifs sur un même serveur physique. Ces OS et applications gérés sur partitions virtuelles sont en général qualifiés d’« invités », pour les distinguer de leurs homologues fonctionnant en environnement serveur non virtualisé. À la base, la virtualisation est une technique de partage des moyens matériels. Le principal avantage des machines virtuelles est en effet qu’elles permettent de relever le rendement des serveurs physiques grâce, précisément, au partage par plusieurs applications d’un même ensemble de ressources physiques. On abandonne ainsi le modèle classique d’une application par serveur qui caractérisait souvent les environnements serveur classiques, autrement dit non virtualisés. Un autre avantage des VM est la possibilité d’isoler une application des autres en termes de mémoire vive, de données et de contenus sur mémoire de masse, pour ainsi éviter les problèmes tels que les conflits de pilotes. On utilise par exemple les machines virtuelles en environnements d’études et de test. On s’en sert ainsi pour gérer les évolutions d’un système d’exploitation (gestion de deux versions successives de Windows sur le même serveur physique, par exemple), pour faire fonctionner plusieurs versions d’une application sur un même serveur ainsi que pour mettre en place, pour les essais, plusieurs environnements logiques assortis chacun d’une configuration matérielle virtuelle. On fait par ailleurs de plus en plus fréquemment appel à des VM sur architecture Intel en contexte de production, par exemple dans le cas de serveurs consolidés (gestion de plusieurs applications regroupées sur un serveur, qui se traduit par un rendement moyen en très nette hausse, mais qui conserve une réserve de puissance convenable). Limites de la virtualisation logicielle La virtualisation purement logicielle offre certes de nombreux avantages, mais elle n’est pas sans inconvénients en termes de temps système, de performances et de prise en charge. La raison en est que les systèmes d’exploitation sont prévus pour disposer de la maîtrise totale du matériel sous-jacent et non pas pour favoriser le partage des moyens. Or les capacités matérielles qu’offre la technologie Intel VT, associées aux logiciels de virtualisation actuels, ont précisément été pensées pour palier ces inconvénients. L’APPROCHE INTEL VT Au travers de la technologie Intel VT, Intel instaure une prise en charge matérielle de la virtualisation. Cette technologie, qui vise à renforcer l’efficacité et les possibilités des solutions de virtualisation logicielles, correspond à un ensemble d’optimisations apportées aux plates-formes d’Intel et, en particulier, à ses processeurs. L’architecture Intel se fonde en effet sur le principe d’anneaux de privilèges à quatre niveaux, du ring0 au ring3. Le ring0 correspond à l’anneau disposant des privilèges les plus élevés et c’est celui qui, en environnement natif, est dédié au système d’exploitation. © 2006, IDC n° 201922 3
  • 4. En mode purement logiciel, l’hyperviseur est géré en ring0, ce qui ramène les privilèges du système d’exploitation à ceux du ring1. Cette approche fonctionne, mais présente certains inconvénients — en termes d’exécution à un autre niveau de privilèges que prévu (ring aliasing), d’instructions de non-déroutement (non-trapping instructions), de déclaration excessive d’erreurs (faulting), de changement de contexte pour l’état CPU et de compression de l’espace d’adresses — qui peuvent nuire aux performances ou à la fiabilité de la solution. Aujourd’hui, la virtualisation des processeurs d’architecture x86 nécessite ainsi de complexes solutions logicielles de contournement. La technologie Intel VT est prévue pour éliminer ces obstacles et la nécessité de ces solutions palliatives, en gérant l’hyperviseur sur une couche racine, c’est-à-dire sur un anneau de niveau inédit. On conserve ainsi la structure classique, avec le système d’exploitation en ring0 et les logiciels d’application en ring2 (cf. figure 2). FIGURE  2 La v ir t u a l i s a ti o n a v a n t e t a p rè s l a technol ogi e Intel V T VM1 VMn VM1 VMn Ring 3 Ring 3 App App App App OS OS Ring 1 OS OS Ring 0 Racine Ring 0 Hyperviseur Hyperviseur VMX Technologie Intel® VT Matériel physique partagé Matériel physique partagé • L’hyperviseur ramène l’exécution de l’OS • L’hyperviseur est géré à un niveau de invité en ring1 et occupe le ring0 privilèges qui lui est propre • L’OS ignore qu’il ne bénéficie pas des • L’OS invité ne perd pas ses privilèges privilèges du ring0 • L’OS est géré directement sur le matériel • Nécessite une traduction logicielle lourde Source : Intel, 2006. 4 n° 201922 © 2006, IDC
  • 5. En palliant les inconvénients d’une virtualisation purement logicielle, la technologie Intel VT est le socle de solutions susceptibles d’un large déploiement, sur tout un éventail d’applications et pour de multiples environnements de production. `` Surcharge en calcul et performances. Pour assurer l’émulation des ressources serveur, les hyperviseurs uniquement logiciels entraînent un allongement du temps système dans des domaines tels que ceux des E/S, de la gestion mémoire (pagination) et de la simulation des instructions CPU « privilégiées ». Or, en prenant en charge ces fonctions par une virtualisation matérielle, la technologie Intel VT contribue à réduire ce temps système et élargit donc l’ensemble des applications qui se prêtent à la virtualisation. `` Simplification. Les solutions actuelles de virtualisation logicielle imposent au système d’exploitation de passer par l’hyperviseur pour communiquer avec le matériel sous-jacent, car l’OS est géré dans l’espace d’adresses et au niveau de privilèges normalement réservés aux applications. Avec ces solutions, c’est par l’intermédiaire d’une traduction binaire et du patchage de l’OS que l’on parvient à gérer ce dernier comme invité en environnement virtualisé, en lui faisant croire qu’il fonctionne sur une «  machine nue  ». Cette traduction peut intervenir en dynamique, à l’exécution (runtime) ou bien de manière statique, par avance (c’est ce qu’on appelle la paravirtualisation). Lorsqu’il y a traduction, à chaque mise à jour de l’OS (nouvelle version, Service Pack, correctif, etc.), l’hyperviseur doit systématiquement être patché. Or, par la mise en place d’une architecture nouvelle qui permet à l’OS de fonctionner en invité, sans modification, la virtualisation assistée par matérielle élimine cette traduction binaire et ce patchage. `` Fiabilité. Nombreux sont les utilisateurs à craindre que la traduction logicielle et le patchage ne nuisent à la fiabilité globale de la solution. La technologie Intel VT y répond par la prise en charge matérielle d’un élargissement des anneaux de privilèges, qui se traduit par une simplification de l’hyperviseur : celui-ci s’exécute dans un nouvel anneau, aux privilèges plus forts, l’OS invité continuant de tourner en anneau 0. `` Champ d’application. Comparée aux solutions purement logicielles actuelles, la technologie Intel VT élargit la virtualisation à des systèmes d’exploitation bien plus nombreux. Elle assure en effet la prise en charge directe des OS patrimoniaux sans modification (plusieurs versions de Linux et Windows). Elle gère par ailleurs aussi les OS 64 bits invités, ce qui a toute son importance face à la rapide montée en puissance des solutions articulées sur les processeurs Xeon 64 bits d’Intel (et sachant que les solutions actuelles n’en sont pas capables). `` Flexibilité. L’un des objectifs premiers de la technologie Intel VT est d’assurer l’indépendance des hyperviseurs par rapport à tel ou tel système d’exploitation, pour dispenser d’avoir à mettre à jour ceux-ci à chaque évolution d’un OS. `` Fiabilité de la plate-forme. Avec l’évolution d’environnements où chaque application a plus ou moins son serveur vers un contexte où un même serveur virtualisé hébergera toute d’une série d’entre elles, l’impératif est à la fiabilité du matériel. Pour limiter les risques liés au fait de «  mettre tous ses œufs sans le même panier  », les utilisateurs ne pourront donc que se tourner vers la plate-forme la plus susceptible de leur assurer fiabilité, continuité de service et facilité d’intervention (RAS). © 2006, IDC n° 201922 5
  • 6. Dans l’ensemble, la virtualisation assistée par matériel que propose la technologie Intel VT, associée au soutien continu de celle-ci par les éditeurs d’hyperviseurs, va optimiser les environnements virtualisés. Le lancement de cette technologie constitue la première étape dans les perspectives à long terme d’Intel pour la virtualisation. SOUTIEN DE L’ÉCOSYSTÈME Le succès de la technologie Intel VT repose sur le soutien d’un vaste écosystème de constructeurs, d’éditeurs, de revendeurs, d’entreprises utilisatrices et d’instances normatives. Intel travaille en l’occurrence avec des éditeurs de logiciels pour assurer la prise en charge de cette technologie par leurs hyperviseurs : Microsoft et VMware ainsi que Xen pour l’Open Source. Intel intervient par ailleurs activement auprès de grands constructeurs et distributeurs pour veiller à ce que leurs plates-formes soient équipées d’un BIOS compatible avec les derniers-nés de ses processeurs dotés de la technologie Intel VT. L’objectif est de proposer au secteur informatique une plate-forme de virtualisation assistée par matériel qui soit monostandard, qui gère les systèmes d’exploitation invités qu’ils soient paravirtualisés ou patrimoniaux et qui puisse s’appliquer aux serveurs équipés de processeurs Xeon® et Itanium® attendus en cours d’année ainsi qu’aux micro-ordinateurs. Intel a ainsi annoncé la prise en charge d’interfaces d’hyperviseur définies pour le système d’exploitation hôte, la pile logicielle d’administration système et/ou le micrologiciel (firmware) et les périphériques de la plate-forme. Cette interface prend en partie en charge les activités de bas niveau afin de limiter le temps système lié à la couche de virtualisation ainsi que pour renforcer les performances, la sécurité et la fiabilité des services virtualisés. Aux plates-formes qui en sont dotées, la technologie Intel VT permet aussi l’exécution directe d’un hyperviseur sur une architecture et un jeu d’instructions IA-32. L’arrivée de la virtualisation CPU, fin 2005, représente la première d’une série de solutions de virtualisation d’Intel dont « VT » est le nom générique. Cette entreprise concentre ses activités d’études actuelles sur une assistance à la virtualisation des processeurs et de la mémoire. Elle entend ensuite élargir cette technique aux sous-systèmes d’E/S, afin d’améliorer encore les capacités de virtualisation à l’échelle de toute la plate-forme. C’est ainsi qu’en mars 2006, Intel a publié la spécification préliminaire de la technologie Intel VT-d (Virtualization Technology for Directed I/O), après l’avoir communiquée aux constructeurs concernés. La technologie Intel VT-d assure une assistance matérielle au jeu de composants (chipset) pour le remappage DMA (Direct Memory Access) et l’attribution directe de mémoire. En prenant en charge ce remappage au niveau du matériel, elle protège mieux la mémoire contre le code DMA erratique et renforce la fiabilité globale. Les hyperviseurs peuvent aussi faire appel à la technologie Intel VT-d pour attribuer directement des ressources d’E/S à des machines virtuelles précises, ce qui assure à l’OS invité un accès direct aux fonctions des périphériques physiques pour lesquels l’éditeur de l’hyperviseur n’a peut-être pas publié de pilotes d’émulation. Cette technologie stimule également les performances des E/S pour certains schémas d’utilisation, par exemple les environnements stratégiques ou d’études et de tests. Les premiers processeurs dotés de la technologie VT-d seront mis à la disposition des éditeurs d’hyperviseurs en 2006, pour une livraison effective en phase avec les projets de l’écosystème. L’échéance suivante d’Intel portera sur une virtualisation plus granulaire de la mémoire afin d’améliorer encore les performances et la stabilité des hyperviseurs. 6 n° 201922 © 2006, IDC
  • 7. FIGURE  3 La v ir tu a l i s a ti o n m a té ri e l l e s e l o n Intel VM 1 VM 2 VM 3 VT-x et VT-I : virtualisation CPU Hyperviseur et mémoire MCH PCIe x8 PCIe x8 PCIe x8 PCIe x8 DMI Boot anciens OS VT-d : virtualisation des sous-systèmes d’E/S Source : Intel, 2006. PERSPECTIVES Les perspectives de la virtualisation sont immenses. Une récente étude d’IDC indique en effet que les entreprises qui l’emploient déjà l’ont mise en œuvre sur un cinquième de leurs serveurs et que cette proportion devrait passer à 50 % d’ici à la fin 2006. On constate ainsi de plus en plus que cette technique cesse d’être l’apanage des réceptifs précoces et qu’elle se généralise au contraire, en raison des usages supplémentaires qui lui sont trouvés et de ses nombreux atouts, dont la suite de ce document dresse la liste. © 2006, IDC n° 201922 7
  • 8. Consolidation de serveurs La possibilité de partitionner un serveur permet de gérer sur chaque partition un BIOS, un OS et des applications distincts. La virtualisation purement logicielle assure le partage des moyens matériels physiques avec isolement complet de la partie logicielle. Elle favorise une réduction des coûts matériels (mais coûts logiciels inchangés) et facilite l’administration en la simplifiant. Elle réduit par ailleurs la consommation électrique, le câblage et l’encombrement des datacenters. Il s’agit actuellement de l’usage le plus courant de la virtualisation. `` Consolidation de l’infrastructure informatique `` Tout un datacenter en seul rack de serveurs `` Environnements multi-OS Environnement d’études et de tests L’une des applications de la virtualisation à connaître un engouement certain est la gestion de solutions pilotes dans des partitions virtuelles distinctes. Cette approche tire parti de tous les avantages de la consolidation des serveurs (en réduisant le nombre des machines sous-exploitées) et favorise une plus grande flexibilité grâce à la possibilité d’un déploiement applicatif plus rapide. Avant de les déployer sur tout un datacenter, on peut en effet valider des applications nouvelles dans une simple partition, ce qui renforce la stabilité de la solution concernée. `` Meilleur rendement de la ou des machines de test `` Déploiement de nouvelles applications `` Déploiement accéléré Migrations et mises à niveau matérielles Les atouts de la virtualisation pour les migrations matérielles sont comparables à ceux qu’elle assure aux environnements d’études et de tests. Elle permet en effet de phaser la migration d’un système d’exploitation et de ses applications sur une nouvelle machine. En validant les solutions correspondantes sur des partitions virtuelles, les équipes informatiques limitent ainsi les risques de perturbation de service qu’implique cette opération. Lorsqu’il s’agit de changer d’architecture, le phasage de cette migration sur des serveurs virtualisés permet une validation complète avant déploiement. `` Gestion des changements `` Migration des systèmes d’exploitation `` Correctifs et mises à niveau Continuité de l’activité La majorité des datacenters dispose d’un système ou d’un autre de basculement de la charge d’un serveur en cas d’indisponibilité de celui-ci, en général sur une machine qui est la réplique de la première. Or, dans la mesure où une grande partie des défaillances de serveurs sont d’origine logicielle, réaliser cette duplication sous forme de deux partitions virtuelles de la même machine se traduit par une baisse du coût. Ce dispositif nécessite cependant, bien sûr, que la machine elle-même soit extrêmement fiable, ce qui est le cas des serveurs équipés de processeurs Intel Xeon MP grâce à leurs 8 n° 201922 © 2006, IDC
  • 9. caractéristiques RAS de pointe. De plus, avec la fiabilité sans cesse croissance des nouveaux serveurs Xeon et Itanium, cette application de la virtualisation ne peut que se développer. `` Prise de relais, sur incident, d’une machine virtuelle par une autre `` Partition réservée aux services informatiques `` Reprise sur sinistre et incident (sauvegardes) Gestion prévisionnelle des moyens Les partitions virtuelles peuvent se dimensionner et se redimensionner à loisir, en fonction des besoins. Cette particularité offre une grande souplesse aux services informatiques, qui peuvent ainsi mettre en place des ressources de calcul massives si nécessaire (clôture de fin de trimestre, par exemple), pour les réduire ensuite. Grâce à cette attribution des moyens de traitement à la carte, le rendement global des serveurs est optimisé. À l’avenir, le provisionnement des capacités de traitement sera encore plus dynamique, en particulier pour leur mise en place et leur suppression. `` Globalisation de l’infrastructure `` Dimensionnement applicative dynamique `` Informatique à la demande Équilibrage de charges Dans le cadre de la virtualisation, les outils d’équilibrage des charges surveillent le taux d’utilisation des machines virtuelles et modifient, en appliquant des règles préétablies, la répartition de ces charges sur plusieurs VM pour optimiser la capacité de traitement par rapport à la réserve de puissance. `` Équilibrage des charges sur plusieurs plates-formes `` Gestion de la réserve de puissance `` Dimensionnement applicative dynamique Depuis l’apparition de la virtualisation, ses applications se sont considérablement élargies. Technique réservée à l’origine au renforcement du rendement des serveurs par leur consolidation, elle s’emploie également aujourd’hui pour pérenniser les applications gérées sous d’anciens systèmes d’exploitation en les déplaçant des machines qui les hébergeaient vers des serveurs plus puissants. Ses applications se sont également étendues à la continuité de l’activité, à la gestion prévisionnelle des moyens informatiques et à l’automatisation à partir d’un ensemble de règles, qui sont les prémices d’une vraie informatique à la demande. C’est cette palette d’usages en constante expansion qui rend la virtualisation aussi intéressante pour les entreprises et c’est aussi la raison pour laquelle Intel, ses partenaires constructeurs et les éditeurs spécialisés travaillent à créer ensemble une plate-forme de virtualisation performante, qui englobe les aspects matériels et logiciels ainsi que de gestion et d’administration. Cette collaboration est essentielle pour surmonter les obstacles à cette technique et pour pleinement exploiter son potentiel. © 2006, IDC n° 201922 9
  • 10. ENJEUX Les enjeux qui se présentent à Intel pour la virtualisation assistée par matériel consistent surtout à faire accepter cette solution. Cette entreprise devra ainsi continuer de démontrer tant à ses clients qu’à ses partenaires éditeurs que la technique en question renforce les performances et voit ses applications se multiplier. Elle devra également continuer de développer l’écosystème autour de la technologie Intel VT et mettre en place un cadre où les éditeurs et elle-même pourront travailler en partenariat. L’enjeu auquel elle répond actuellement est ainsi d’orchestrer la prise en charge de cette technologie par les hyperviseurs des trois grands éditeurs concernés : VMware, Microsoft et Xen. Le déploiement de serveurs dotés de cette technologie et des hyperviseurs correspondants s’effectue dans le souci des besoins des utilisateurs. Sa réussite conduirait à renforcer la crédibilité de cette solution et aiderait Intel à planter le premier le drapeau de la virtualisation pour les ordinateurs d’architecture x86. L’entreprise restera par ailleurs vigilante en continuant de se démarquer par la virtualisation matérielle, d’innover et de promouvoir les standards. Or innover sur le marché de l’informatique standard, où les partenaires d’un intervenant jouent un rôle crucial dans sa réussite, est un art dans lequel l’entreprise est passée maître. Il lui faudra néanmoins impérativement continuer à appliquer ces enseignements au marché de la virtualisation en veillant à fournir à ses partenaires éditeurs la marge de manœuvre dont ils ont besoin pour améliorer les capacités des produits qu’ils proposent. CONCLUSION La virtualisation se dessine comme l’une des tendances majeures pour le marché des serveurs et la réalité des datacenters. Elle trouve déjà toute une série d’applications, de l’amélioration du rendement des moyens matériels à la reprise sur sinistre, en passant par les infrastructures d’études et de tests, la pérennisation des investissements applicatifs et le renforcement de la continuité de service. Son évolution vers une technologie habilitante horizontale est l’une des principales raisons à l’engouement qu’elle suscite. Pour concrétiser son plein potentiel et élargir la palette des applications pour lesquelles elle démontre un avantage, elle doit néanmoins s’intégrer plus fortement au matériel. En s’efforçant de l’incorporer à toute la gamme de ses plates-formes, Intel réalise actuellement les investissements nécessaires à sa généralisation, ce qui assurera la disponibilité de plates-formes à haut rendement, stables et ultraperformantes pour toute une panoplie de technologies de virtualisation. Note de copyright Publication externe d’informations et données d’IDC. Toute utilisation d’informations d’IDC pour la publicité, dans un communiqué de presse ou sur un support promotionnel ne peut intervenir que sur autorisation écrite du vice-président d’IDC concerné ou du responsable IDC pour le pays concerné. Un avant-projet du document doit accompagner la demande d’autorisation. IDC est libre de refuser cette autorisation. © 2006, IDC. Toute reproduction sans autorisation écrite est strictement interdite. 10 n° 201922 © 2006, IDC