3. PARTICIPANTS
Ce rapport fait suite aux travaux du groupe « Réseaux hauts débits et multimédia » du Cigref
auquel ont participé :
Yves Fouquet - Animateur du groupe (EDF) Jean-Luc Lemosquet (PMU)
Hadj Amrani (Unedic) Robert Louge (Aérospatiale)
Philippe Balin (Air France) Michel Lussignol (CNCA)
Daniel Beaupoil (Cogema) Pierre Martin (RATP)
Jean-Pierre Blouet (CNAM) Alain Mugnier (Société Générale)
Eric Bonnenfant (Radio France) Chantal Neu (Air France)
Emmanuel Bougeard (Axa) Bernard Papet (MACIF)
Pierre Bourgeot (CNAF) Denis Poiret (AP-HP)
Jacques Bourlier (GEC Alsthom) Patrice Pouyet (Informatique CDC)
Jean-Lou Bouvard (Hoffmann Laroche) Bernard Querard (Saint-Gobain)
Franck Bugnot (L’Oréal) Philippe Quesney (Axa)
André Chamot (FNCA) James Rebotier (PSA Peugeot Citroën)
Joëlle Chatelain (FNCA) Jean-Jacques Richard (AGF)
Martine Chicault (Radio France) Yves Sallard (Mutuelles du Mans)
Patrick Denimal (Total) Gérard Sampic (Crédit Lyonnais)
Olivier-Pascal Fagot (TF1) Pierre Siri (Usinor Sacilor)
Michel Fernandez (Air France) Fabien Soula (Air France)
Serge Gauffeny (Michelin) Nabil Souli (RATP)
Jean-David Geyl (Groupama) Walter T’Joen (La Redoute)
Christophe Gobert (Rhône-Poulenc) Huong Tan (Mairie de Paris)
Stéphane Gobin (Agirc) Florence Théodore (Bolloré)
Philippe Goron (Renault) Olivier Porte (Cigref)
Daniel Le Floch (CCMSA)
Marc Leblond (Radio France)
3
5. SOMMAIRE
1. CHRONIQUE D'UN AVENEMENT ANNONCE............................................................................7
1.1. RETOUR SUR LES TRAVAUX DU CIGREF EN 1994 ..................................................................................7
1.2. OBJECTIFS POURSUIVIS EN 1997..............................................................................................................8
1.3. UN EXEMPLE A MEDITER.........................................................................................................................10
1.4. LES AVANCEES TECHNOLOGIQUES DE L 'ATM.....................................................................................13
1.4.1. Les accords d'Anchorage : la victoire du pragmatisme .......................................................... 13
1.4.2. Le recentrage d'ATM sur les réseaux fédérateurs.................................................................... 16
1.5. DES BESOINS DESORMAIS BIEN REELS...................................................................................................17
1.5.1. Le workgroup et l'abolition des distances.................................................................................. 17
1.5.2. Les réseaux fédérateurs de bureautique et de messagerie...................................................... 18
1.5.3. L’impact du client / serveur.......................................................................................................... 18
1.5.4. Le phénomène Internet / Intranet................................................................................................ 18
1.5.5. L'émergence d'applications multimédia..................................................................................... 19
2. LA BATAILLE DES STANDARDS N’AURA PAS LIEU.......................................................... 21
2.1. IP, LA LAME DE FOND ..............................................................................................................................21
2.2. LES BIENFAITS D’IP POUR LES UTILISATEURS......................................................................................23
2.3. L’INTEGRATION D’IP DANS LES RESEAUX DES OPERATEURS ............................................................25
2.4. L’INTEGRATION D’IP DANS LES RESEAUX D’ENTREPRISE ..................................................................27
2.4.1. Frame Relay, le provisoire qui dure........................................................................................... 27
2.4.2. Ethernet, le protocole qui repousse ses limites......................................................................... 29
2.4.3. ATM et IP, le meilleur des mondes ? .......................................................................................... 30
3. COMMENT ALLER VERS LES HAUTS DEBITS ? .................................................................. 35
3.1. DES GRANDES ENTREPRISES FRANÇAISES QUI AVANCENT .................................................................35
3.1.1. EDF................................................................................................................................................... 36
3.1.2. RATP................................................................................................................................................. 38
3.1.3. Bibliothèque nationale de France............................................................................................... 40
3.2. PRINCIPES DE GESTION DES PROJETS HAUTS DEBITS...........................................................................43
3.2.1. La définition du périmètre ............................................................................................................ 43
3.2.2. Les processus de décision et les aspects financiers.................................................................. 44
3.3. LE RECOURS AUX OPERATEURS..............................................................................................................45
3.4. LES FACTEURS DE REUSSITE...................................................................................................................48
3.4.1. Le rôle clé de l'intégrateur............................................................................................................ 48
3.4.2. L'évolution des compétences........................................................................................................ 50
3.4.3. L'administration de réseau........................................................................................................... 51
4. QUELLES INFRASTRUCTURES RESEAU DEMAIN ? .......................................................... 53
5
7. 1. CHRONIQUE D'UN AVENEMENT ANNONCE
1.1. Retour sur les travaux du Cigref en 1994
La montée en puissance de l’interconnexion des réseaux locaux informatiques du
début des années 1990, qui succédait elle- même à la forte poussée des
architectures LAN de la fin des années 1980, avait déjà conduit le Cigref à
s’interroger sur les réseaux hauts débits : c’était en 1994. Il s’agissait alors de
réfléchir à l’évolution des techniques et des architectures d’interconnexion de
réseaux locaux et, dans ce cadre, d’évaluer la maturité des technologies
émergentes, principalement de l’ATM.
Ces travaux avaient fait ressortir que l’ATM présentait un indéniable potentiel
pour l’interconnexion de réseaux locaux, mais des questions majeures restaient en
suspens :
• La bonne interface (du point de vue de l’utilisateur) pour l’accès au réseau
d’interconnexion était-elle de type ATM ?
• A partir de quand une infrastructure de communication longue distance adaptée
à l’utilisation d’ATM serait-elle disponible ?
• Y avait-il un marché viable pour l’ATM dans les réseaux d’entreprise ?
Face à ces interrogations, le groupe était convenu que seul le temps permettrait
d’y répondre, et que ce temps pourrait également être mis à profit pour évaluer les
avancées des travaux de normalisation, les standards ayant à l’époque été
considérés comme loin d’être stabilisés et de ce fait susceptibles de remettre en
cause la pérennité de certains investissements.
7
8. 1.2. Objectifs poursuivis en 1997
Suivant la formule consacrée, de l’eau a coulé sous les ponts au cours des trois
dernières années et la situation a notablement évolué depuis 1994 :
+ Les responsables télécoms et réseaux des grandes entreprises françaises ont
assuré la mise en oeuvre d’infrastructures évoluées dans des domaines qui
ont profondément changé l’organisation du travail. On citera notamment :
• Le « workgroup » et l'abolition des distances
• Les réseaux fédérateurs de bureautique et de messagerie
• Les architectures client / serveur
• Le phénomène Internet et Intranet
• Les premières applications multimédia
+ Parallèlement à cette évolution des besoins, de nombreuses avancées ont été
enregis trées dans le domaine de la normalisation des différentes
technologies hauts débits, à travers les travaux menés au Frame Relay
Forum, à l’ATM Forum et à l’Internet Engineering Task Force (IETF). De
façon générale, chaque nouveau standard s’appuie maintenant sur un
consortium qui joue le rôle de force d’appui marketing et technologique.
+ Enfin, les premières offres commerciales des opérateurs ont vu le jour, mais
le phénomène de rattrapage par rapport à la satisfaction de la demande n’en
est encore qu’à ses premiers balbutiements. La meilleure preuve en est
l’évolution de la taille de marché du segment « matériels » et du segment
« services », évaluée tous les ans par Data Communications :
Vente de matériels ATM / Frame Relay Vente de services ATM / Frame Relay
(millions de $) (millions de $)
1500 3000
1000 ATM 2000 ATM
500 Frame Relay 1000 Frame Relay
0 0
1995 1996 1997 1995 1996 1997
+ En d’autres termes, si ATM soutient la comparaison avec Frame Relay dans
la construction de réseaux privés, comme en témoignent des ventes de
matériels dans un rapport de 1 à 2, il reste beaucoup à faire au niveau des
offres des opérateurs pour atteindre un rapport similaire sur les services.
8
9. Compte tenu de toutes ces évolutions, les membres du Cigref ont donc décidé de
réactiver le dossier des hauts débits en 1997, considérant en particulier que des
premiers retours d’expérience étaient maintenant disponibles. L’agenda s’est dès
lors organisé autour des objectifs suivants :
• Dresser la typologie des besoins (hier/aujourd’hui/demain, sur le réseau
fédérateur / sur le poste de travail / sur le WAN / sur le LAN...)
+ voir la section 1.5 du rapport.
• Positionner les services-support dans le temps et par type de besoins (ex:
Frame Relay sur l’interconnexion de réseaux locaux à l’international, IP
switching ou ATM pour l’Intranet, Fast Ethernet sur les LANs...).
+ voir la section 2 du rapport.
• Profiter des retours d’expérience sur les hauts débits dans des grandes
entreprises françaises qui avancent.
+ voir la section 3.1 du rapport.
• Définir les grands principes de mise en oeuvre des projets hauts débits : impact
organisationnel, choix du périmètre et des technologies utilisées, processus de
décision, prise en compte des aspects financiers...
+ voir la section 3.2 du rapport.
• Evaluer les principaux freins et obstacles vis-à-vis de l’offre des opérateurs
+ voir la section 3.3 du rapport.
Mais avant cela, il nous a semblé essentiel, pour que le lecteur comprenne bien
pourquoi les membres du Cigref ont décidé de travailler sur un sujet déjà traité
trois ans auparavant, de revenir sur deux phénomènes qui feront date :
• L’explosion d’Internet
• Le changement d’image de l’ATM
9
10. 1.3. Un exemple à méditer
L’histoire des télécommunications est riche de concepts qui semblaient bien
formés et bien partis et qui ne sont jamais arrivés. Mais lorqu’il existe une
demande solvable, il est rare qu’elle reste longtemps orpheline de tout concept
capable de la satisfaire. Et par chance, il y a généralement suffisamment de
concepts en sommeil qui peuvent être ré-utilisés pour l’occasion.
Que dire des « autoroutes de l’information » dans un tel contexte, elles qui furent
portées sur les fonds baptismaux par Bill Clinton et Al Gore en 1993, si ce n’est
que le monde se divise en 1997 en deux catégories :
• Ceux qui cherchent encore les financements pour construire ces pharaoniques
autoroutes de fibre optique,
• Ceux qui proposent des services Internet.
Nous ne rentrerons pas ici dans le débat consistant à savoir si Internet usurpe
l’appellation d’autoroute de l’information, mais Internet a en trois ans
puissamment contribué à augmenter la solvabilité (et donc la crédibilité) de la
demande en hauts débits.
Les hauts débits sont ainsi en train de laisser à d’autres concepts le privilège des
batailles d’experts, et se conforment dorénavant à un principe de réalité où chaque
avancée technologique est jugée sur pièces.
Et à ce titre, l’exemple du NSF Net (National Science Foundation Network) aux
Etats Unis nous semble devoir être mis en exergue, car ce réseau qui a
interconnecté à partir de 1986 l’ensemble des sites de recherche nord-américains
puis mondiaux a dû plus que tout autre faire face à l’explosion du trafic de
l’Internet. Quelques chiffres pour fixer les idées :
1988 : 195 millions de paquets/mois
1992 : 24 000 millions de paquets/mois
1995 : 86 000 millions de paquets/mois
En 1995, pour la première fois le trafic web y dépassa tous les autres types de
trafic (SMTP, FTP, gopher...). La tendance n’a fait que s’accentuer depuis.
Compte tenu du nombre sans cesse croissant de sites raccordés, l’idéologie a
toujours tenu très peu de place dans les évolutions de NSF Net et ce sont bien les
technologies les plus opérationnelles du moment qui ont été à chaque fois
retenues. Et aujourd’hui, c’est l’ATM qui est au coeur du réseau vBNS qui a
succédé à NSF Net.
Le temps de l’ATM semble enfin venu...
10
11. + 1986/88 : 56 kb/s, La préhistoire de NSFNet
+ 1989/92 : T1 (1,5 Mb/s), les premiers pas
11
12. + 1992/95 : T3 (45 Mb/s), la crise de croissance
+ depuis 1996 : ATM (155 Mb/s), la croissance maîtrisée
very High Speed Backbone Network Services (vBNS, opéré par MCI)
12
13. 1.4. Les avancées technologiques de l'ATM
Après avoir entrevu l’ampleur de la vague Internet à travers l’exemple NSFNet, et
avant de poursuivre dans la chronique de ce qui a changé chez les utilisateurs, il
nous semble également important de revenir sur le changement d’image intervenu
dans le monde de l’ATM, car cela a joué un rôle indéniable dans le décollage d’un
marché où nombre de projets étaient auto-censurés faute d’une solution de
communication jugée crédible et abordable.
Tout se passe comme si après avoir longtemps rêvé d’un réseau et d’une
technologie universels, les uns et les autres avaient enfin réalisé que de plus en
plus de besoins applicatifs ne pouvaient plus attendre pour être satisfaits la sortie
d’un hypothétique nirvana de la télécommunication, et qu’il était plus que temps
de proposer une démarche réaliste de migration vers les hauts débits sur les
réseaux d’entreprise.
1.4.1. Les accords d'Anchorage : la victoire du pragmatisme
Introduction
En avril 96 le comité technique de l’ATM Forum s’est réuni pour définir ce qu’on
a appelé les accords d’Anchorage. Ces accords ont ensuite été mis à jour lors de la
réunion du comité technique en juin 96. Malgré le fait que ces accords avaient
pour but d’expliquer les directions prises par le comité technique de l’ATM
Forum, une formulation malheureuse des premiers drafts et une presse mal
informée ont entraîné une confusion et une opportunité pour des détracteurs
proclamant la mort de l’ATM. Le tir a heureusement été corrigé depuis...
Antécédents menant aux accords d’Anchorage
L’ATM Forum a longtemps fait la promotion de l’ATM en tant que technologie
révolutionnaire de l’avenir. Si ATM doit un jour atteindre ce but, un ensemble
important de standards doit être développé. Aussi, sans remettre en cause leurs
propres programmes de travail internes, de nombreux constructeurs de produits
ATM ont investi de façon conséquente dans le développement d’un large éventail
de standards ATM.
Contrairement à d’autres organismes de standardisation, très peu de choses sont
nécessaires pour obtenir l’approbation de l’ATM Forum pour la création d’une
nouvelle activité. Globalement la seule chose nécessaire au développement d’un
nouveau standard est la démonstration d’un intérêt parmi les membres principaux
de l’ATM Forum.
13
14. Ces deux facteurs ont eu pour résultat la mise en place d’un grand nombre
d’activités au sein du comité technique. Ceci a cependant rendu difficile pour un
observateur non- initié (utilisateur potentiel des équipements et services ATM) la
compréhension de ce qui se passe dans ces standards, quels sont ceux qui vont
répondre à son besoin, et quels sont ceux qui sont terminés et ratifiés. Ce manque
de compréhension, tout particulièrement dans la presse spécialisée, a mené à la
perception d’un comité technique désorganisé et de progrès ralentis voire stoppés.
+ En d’autres termes, l’ATM Forum avait un problème de marketing. Le
conseil des directeurs et le responsable du comité technique ont décidé de
répondre à ce problème avec les accords d’Anchorage, afin d’expliquer
comment les activités du comité technique sont complémentaires entre elles
et forment un tout.
Malheureusement, les premiers drafts ont véhiculé un message différent. La
presse spécialisée a décrit ces accords comme une volonté de la part des
constructeurs de ralentir la standardisation afin de leur permettre de rattraper les
standards en terme d’implémentation. Le mot « gel » a été associé aux accords, et
certains observateurs de l’industrie ont conclu que la standardisation de l’ATM
était devenue moribonde, ce qui a eu pour effet d’encourager les acheteurs
potentiels à stopper l’achat d’équipements ou de services ATM. Comme il est
décrit dans la section suivante, les véritables accords d’Anchorage tels qu’ils ont
été modifiés en Juin 96 véhiculent un message bien différent.
Détail des accords
Voici le texte de l’introduction des accords d’Anchorage :
« Le comité technique de l’ATM Forum a identifié un ensemble cohérent de
spécifications qui permet d’offrir une base de travail ATM fiable.
Cet ensemble inclut des spécifications de base nécessaires à la construction
d’une infrastructure ATM, et des spécifications concernant des fonctions
étendues, nécessaires pour permettre une migration vers des réseaux ATM
multiservices.
Dans le futur, les spécifications de base seront revues si des problèmes
d’intéropérabilité sont rencontrés.
L’ATM Forum continuera de définir aussi rapidement que possible des
nouvelles spécifications permettant de mettre en évidence l’utilité de l’ATM
et ayant une compatibilité ascendante avec ce plan de travail.
Dans cette orientation, l’ATM Forum peut maintenir son approche
dynamique et orientée marché, tout en assurant aux utilisateurs une base
solide pour un déploiement. »
14
15. On peut remarquer que nulle part il n’est question de « geler » ou de « ralentir »
les efforts, mais plutôt d’agir « aussi vite que possible ». L’accent est mis en
revanche sur la stabilité et l’utilité des spécifications existantes.
Les accords d’Anchorage contiennent aussi trois listes de spécifications : des
spécifications de base qui sont les standards permettant le déploiement des
réseaux ATM aujourd’hui, des spécifications de fonctionnalités étendues basées
sur les spécifications de base et permettant de nouvelles utilisations d’ATM ou
une migration d’une ancienne technologie vers ATM, et enfin une liste de
spécifications pour le futur.
Spécifications de base
1. User Network Interface (UNI) v3.1
2. Broadband ISDN Inter-Carrier Interface (B-ICI) v2.0
3. Integrated Local Management Interface (ILMI) v4.0
4. Network Management specifications
5. Physical Layer Specifications at the UNI
6. Interim Inter-switch Signaling Protocol (IISP)
7. Private Network Node Interface (PNNI) v1.0
8. Signaling v4.0
9. Traffic Management v4.0
Spécifications de fonctionnalités étendues
1. Audio/visual Multimedia Service (AMS) v1.0
2. LAN Emulation (LANE) v1.0 with addendum and LANE Client Management
3. Native ATM Services : Semantic Description (API) v1.0
4. Frame-based UNI (FUNI)
5. Circuit Emulation Services (CES)
6. Frame Relay (FR)/ATM Service Interworking, and FR/ATM Network Interworking
7. SMDS/ATM Service Interworking
8. Data eXchange Interface (DXI)
9. All of the Test Suite Specifications and PICS Proforma
Spécifications futures
1. Voice and Telephony over ATM (VTOA)
2. Multi Protocol Over ATM (MPOA)
3. Directory Services effort developping ATM Name System (ANS)
4. ATM level Security specifications
5. LAN Emulation v2.0
6. Residential Broadband (RBB)
7. Additional Physical layer specifications as appropriate
8. PNNI v2.0
9. B-ICI v3.0
10. Network Management specifications (M3 & M4)
11. Native ATM Services : Semantic Description (API) v2.0
12. More testing specifications
13. Public/Private Interworking
14. Wireless ATM
15
16. 1.4.2. Le recentrage d'ATM sur les réseaux fédérateurs
Après une analyse attentive, la plupart des grands utilisateurs ont été réconfortés
par les accords d’Anchorage, aussi bien en France qu’au Royaume-Uni ou dans
d’autres pays européens.
Concrètement, on l’a vu, ces accords se sont traduits par un jeu de spécifications
de base nécessaire à la mise en oeuvre de backbones ATM, ainsi qu’en un
deuxième jeu de spécifications étendues pour la migration de réseaux existants
vers l’ATM et la mise en oeuvre de plateformes multimédia.
Par ailleurs, les travaux en cours ont été recentrés de façon prioritaire sur les
réseaux ATM multiservices et la mise en oeuvre de réseaux de plus grande taille,
à travers la finalisation de trois standards :
• LAN Emulation v2.0
• MPOA (Multi Protocol Over ATM),
• PNNI (Private Network to Network Interface)
Aujourd’hui, on peut donc considérer que trois architectures de sous-réseaux
ATM sont envisageables chez les clients. La tendance est clairement de réserver la
première d’entre elles à des niches, et c’est plutôt dans les deux dernières que se
trouve le futur d’ATM dans les réseaux d’entreprise:
• Classical IP, que l’on retrouvera essentiellement pour les réseaux
interconnectant des stations de travail,
• Lan Emulation (version 1 aujourd’hui), qui permet par des techniques de
pontage de niveau 2 et des conversions d’adresses MAC, de faire passer des
applications existantes sur une infrastructure ATM. Cette technique est bien
adaptée jusqu’à 200-300 postes, mais il faut attendre la version 2.0 de LAN
Emulation pour pouvoir envisager plus sereinement de passer à des
configurations de plusieurs milliers de postes.
• MPOA, qui à la différence de LAN Emulation opère au niveau 3, et qui
associé à PNNI doit permettre à la fois de s’affranchir des limitations de taille
des réseaux et de mettre en oeuvre progressivement des réseaux multimédia.
MPOA, par les fonctionnalités qu’il devrait offrir en termes de gestion de VLAN
et de garantie de performances aussi bien sur le LAN que sur le WAN, semble
aujourd’hui particulièrement adapté à des topologies de type campus ou des
réseaux métropolitains (qui pourraient eux- mêmes constituer des moyens
d’accès à des artères hauts débits de transporteurs longue distance).
16
17. 1.5. Des besoins désormais bien réels
1.5.1. Le workgroup et l'abolition des distances
C’est un lieu commun que de dire que les entreprises cherchent en permanence
des gisements de productivité et une optimisation de leur cycle de production. Le
fait nouveau, c’est l’ampleur prise par le phénomène dans un contexte de
mondialisation. De nouveaux modes d’organisation du travail ont été définis en
conséquence. L’un des plus importants est celui de l’entreprise étendue, dans
lequel les réseaux hauts débits ont un rôle-clé à jouer. Le cas de Renault est
particulièrement illustratif de cette tendance :
• Renault est placé, et pour longtemps, dans une situation de concurrence forte.
Pour survivre, il lui est impératif de réduire de façon continue le temps de
conception et de mise en production des nouveaux modèles.
• Dans ce contexte, Renault s’est fixé comme objectif de faire passer le temps de
développement d’un nouveau véhicule de 52 mois aujourd’hui à 38 mois en
l’an 2000.
• Pour atteindre cet objectif, il faut que les centaines de problèmes qui
surviennent dans la phase de conception et sont traitées au cours de réunions de
projet mensuelles réunissant tous les intervenants puissent être résolus au fur
et à mesure de leur apparition, par la personne la plus compétente, où que se
trouve cette personne.
+ Le moyen identifié par Renault, c’est le développement d’une plate- forme
d’applications d’ingénierie simultanée s’appuyant sur une infrastructure hauts
débits, ATM en l’occurrence, et l’équipement en stations multimédia de
l’ensemble des participants au projet.
Dans cette approche, on voit que c’est l’organisation du travail qui a créé le
besoin de déploiement d’une nouvelle infrastructure réseau; mais il ne fait guère
de doute qu’une fois un tel processus amorcé, de nouvelles itérations suivront :
• ou bien le réseau devra être remis à niveau parce que les besoins de
communication entre les équipes augmentent,
• ou bien l’organisation devra être encore optimisée pour tirer la quintessence de
la puissance intrinsèque de l’infrastructure réseau.
On le verra plus loin, dérouler ces itérations successives suppose aussi qu’à aucun
moment la tarification du réseau ne devienne un obstacle à la recherche de
l’optimum productif.
17
18. 1.5.2. Les réseaux fédérateurs de bureautique et de messagerie
Dans de nombreuses entreprises, la « bureautique communicante » est devenue la
principale consommatrice de bande passante, et aucun point d’inflexion n’a
jusqu’à présent été enregistré dans la croissance du trafic : la messagerie
électronique est entrée dans une phase d’accumulation comparable à celle du
trafic téléphonique il y a quelques décennies : chaque nouveau connecté arrive
avec ses besoins de trafic, mais constitue aussi un destinataire potentiel
supplémentaire pour l’ensemble des personnes déjà connectées.
Le phénomène est accentué par la généralisation progressive des listes de
diffusion, qui ne sont encore que très imparfaitement gérées par les différents
protocoles de transport, et par la taille sans cesse croissante des pièces jointes.
Ceci explique qu’après avoir contribué au succès de Frame Relay dans la première
moitié des années 1990, la bureautique communicante soit en train de favoriser
l’introduction d’infrastructures encore plus performantes entre les principaux
établissements des grandes entreprises.
1.5.3. L’impact du client / serveur
Il ne s’agit pas là de refaire la genèse de cette technologie, mais plutôt de mettre
l’accent sur une tendance observée depuis peu : la recentralisation.
La généralisation du client/serveur sur les réseaux locaux a dans un premier temps
permis de rapprocher les applications et les données du client final et de lui
procurer un confort d’utilisation bien meilleur que celui obtenu précédemment à
travers des transactions distantes entre des sites centraux et des grappes de
terminaux.
Mais des effets pervers sont apparus, le principal d’entre eux étant la difficulté de
synchroniser des serveurs et des bases de données répartis.
On voit donc un retour de balancier s’engager : non pas un retour vers les sites
centraux, mais une recentralisation des serveurs. Faut- il préciser que dans ce cas,
l’utilisateur ne s’attend pas à un moindre confort d’utilisation ? Le début de la
solution réside alors dans une infrastructure réseau puissante, capable d’assurer
des temps de réponse comparables à une connexion locale.
1.5.4. Le phénomène Internet / Intranet
L’explosion du trafic Internet a rendu critique la migration de l’infrastructure des
fournisseurs d’accès vers les hauts débits. Tous n’y vont pas à la même vitesse et
tous n’y vont pas par le même chemin, mais le mouvement est inéluctable.
18
19. D’ores et déjà les liens à 45 Mb/s et au delà sont courants chez les principaux
fournisseurs d’accès nord-américains ainsi que sur les liaisons entre les noeuds de
l’Internet (Network Access Points). A ces vitesses, peu de protocoles de transport
peuvent rivaliser. Les principales tendances observées sont les suivantes :
• Les solutions les plus accessibles consistent à rester en IP de bout en bout et à
muscler le réseau de routeurs jusqu’aux limites de l’engorgement, ou bien à
passer une infrastructure Frame Relay pour le transport longue distance, ce qui
fonctionne relativement bien jusqu’à 45 Mb/s comme le réseau NSF Net l’a
montré dans le passé.
• Lorsque ces limites sont atteintes, ce qui est de plus en plus le cas, il faut
migrer vers des technologies de nouvelle génération qui permettent de gérer
des bandes passantes plus importantes et une qualité de service personnalisée
pour les flux très différents que sont les données, la voix et l’image. Les
technologies en compétition, qui sont décrites plus loin dans le document, sont
dès lors ATM, IP nouvelle génération (Ipv6) ou IP switching, qui combine IP
et ATM. Les solutions mises en oeuvre consistent en un dosage subtil entre ces
trois techniques, qui peuvent varier en fonction des convictions propres de
chaque fournisseur d’accès.
Ce qu’on observe aujourd’hui sur Internet, on le verra demain sur les Intranet des
plus grandes entreprises, américaines d’abord, européennes ensuite.
1.5.5. L'émergence d'applications multimédia
Il est communément admis que le cerveau humain est plus réceptif aux images
qu’à des textes. Pourtant, pour des raisons d’étroitesse de la bande passante, ce
sont bien les applications de transmissions de données qui ont régné en maître
jusqu’ici dans les communications d’entreprise.
Sans assister à un retournement de tendance, on peut dire aujourd’hui qu’on
assiste à l’émergence d’applications multimédia, l’Internet ayant d’ailleurs joué
un rôle important de popularisation du concept au cours des dernières années.
Là encore, le fait que des avancées technologiques aient été enregistrées
récemment peut changer la perspective économique d’une famille d’applications
qui restait coincée entre la transmission sur des réseaux de multiplexeurs, très
coûteuse pour des communications occasionnelles, et la diffusion sur des réseaux
de télévision, à l’interactivité très limitée. La finalisation d’un ensemble de
standards ATM véritablement adaptés à la transmission vidéo rendra désormais
possible la mise en oeuvre de services vidéo commutés.
19
21. 2. LA BATAILLE DES STANDARDS N’AURA PAS LIEU
2.1. IP, la lame de fond
Si des technologies comme Frame Relay ont décollé, IP a véritablement explosé
au cours des trois dernières années, au point que le protocole lui- même doit être
sérieusement revisité pour faire face aux besoins : C’est la raison d’être d’IP
nouvelle génération, ou IP v6. L’organisme cette fois-ci en charge de produire les
standards est l’IETF (Internet Engineering Task Force).
Cisco, leader mondial de ce marché, a fait le point lors d’une réunion du Cigref
sur les principaux travaux de l’IETF sur IP v6. La littérature sur le sujet étant
extrêmement abondante et sans cesse remise à jour sur le worldwide web, on
retiendra simplement les quatre mutations incontournables auxquelles les
travaux de normalisation d’IPv6 tentent d’apporter des réponses satisfaisantes :
+ optimisation d’IP v4,
• Augmentation du nombre d’adresses disponibles par quadruplement du
champ adresse porté à 16 octets,
• Longueur fixe,
• Pas de checksum (fait au niveau 2),
• Label de flux permettant de gérer les priorités (voir plus loin)
+ renforcement des techniques de sécurité et encryptage,
21
22. + définition de qualité de service différenciée par classes de flux,
• utilisation des champs « label de flux » et « priorité »
• permet d’envisager des services multimédia ou temps réel
• adapté aux technologies Tag Switching et MPLS (voir plus loin)
• peut être combiné avec les options de l’en-tête de Source Routing
+ migration depuis IP v4 et cohabitation des deux normes.
IPv6 Transition Strategy
• Goal - facilitate partial/incremental
upgrades
(Hosts, Servers, DNS, Routers)
• Host approach - Dual Stack (IPv6 API defined)
IPv IPv
6 Driver
4
IPv4 Backbone
IPv IPv
6 Driver
4
IPv IPv6 IPv6
6
• Network approach - Tunneling
De façon générale, les constructeurs les plus actifs sur IP v6 sont ceux qui avaient
déjà un savoir-faire dans le domaine de l’OSI, notamment Cisco, DEC, IBM et
Bay Networks.
22
23. 2.2. Les bienfaits d’IP pour les utilisateurs
Il y a bien longtemps, au début des années 1980, la fine fleur des experts des PTT
des principaux pays industriels se rassemblèrent pour annoncer au monde entier
l’avènement d’une technologie qui allait à brève échéance remplacer tout ce qui
existait jusqu’alors et envoyer les modems au cimetière : le RNIS (Réseau
Numérique à Intégration de Services), ou dans sa version anglaise ISDN
(Integrated Service Digital Network).
Les américains eurent tôt fait de lui trouver une autre signification : Innovation
Subscribers Don’t Need...et il fallut presque quinze ans pour que les possibilités
techniques offertes par le RNIS commencent réellement à être exploitées.
Ce petit exemple parmi d’autres illustre une des tares les plus fréquentes dans la
profession : les dérives d’experts loin, très loin du marché.
A contrario, cela explique les raisons du succès du protocole IP à travers le
monde. Le processus de normalisation d’IP et des protocoles associés (TCP, UDP,
SMTP, SNMP...) n’est pourtant pas intrinsèquement plus vertueux que les autres
et résulte lui aussi de rapport de forces.
Mais la grande différence provient du fait que ce sont les « fournisseurs du bout
de chaîne » qui sont les plus influents dans ce processus. Par construction,
l’activité d’élaboration d’un nouveau standard IP ne commence donc que lorsqu’il
y a une demande avérée chez les développeurs d’applications, ce qui a plusieurs
effets :
• Chaque nouveau standard IP est toujours supporté par au moins un leader de
l’industrie informatique,
• Le « time-to-market » des standards IP est beaucoup plus rapide que n’est celui
des autres standards en moyenne,
• Les drivers peuvent être préparés en parallèle par les développeurs
d’applications, ce qui évite aux nouveaux standards de rester orphelins trop
longtemps.
Ces trois points constituent évidemment des atouts majeurs pour les utilisateurs. A
cela s’ajoutent deux effets induits :
• L’activité de standardisation d’IP a toujours été tellement foisonnante que
jusqu’à présent aucun fournisseur ne s’est jamais retrouvé en position
dominante.
• La masse critique est désormais atteinte, et IP peut être considéré comme un
passeport pour les réseaux d’aujourd’hui et de demain.
Toutes ces raisons expliquent le succès grandissant rencontré par IP à partir de la
fin des années 1980.
23
24. La situation a en quelque sorte atteint un point de non-retour depuis 1995, sous les
coups de boutoir de trois « killer applications » qui s’appuient toutes sur IP :
+ Le décollage du worldwide web (même si formellement le protocole http
pourrait fonctionner avec d’autres protocoles comme IPX),
+ L’explosion de la messagerie internet (qui repose elle sur une
combinaison SMTP/TCP/IP) pour interconnecter des messageries privées,
+ Le remplacement de Windows 3.11 par Windows 95, qui incorpore de
façon native un driver IP.
D’ailleurs, l’usage des protocoles issus de la démarche de normalisation OSI,
comme X25 ou X400, s’il s’était maintenu jusqu’au milieu des anénes 1990, a
brutalement fléchi depuis.
Il reste maintenant à voir comment les standards évolueront au fur et à mesure des
tentatives de fédérer de nouveaux flux, notamment les applications temps réel
comme la voix ou l’image qui ne pourront se satisfaire d’une qualité de service
approximative.
24
25. 2.3. L’intégration d’IP dans les réseaux des opérateurs
Les réseaux des opérateurs historiques ont été construits autour d’une technologie,
la commutation de circuits, et d’un produit, le téléphone, qui bien que tous les
deux centenaires, contribuent encore à plus de 70% du chiffre d’affaires et à la
quasi- totalité des profits.
Autant dire que l’introduction d’une infrastructure adaptée à IP ne se fera pas sans
vagues, surtout si les utilisateurs voient en elle un cheval de Troie pour acheminer
leur cher trafic téléphonique à moindre coût.
Nolens volens, l’idée commence cependant à faire son chemin selon laquelle tous
les acteurs auraient dorénavant intérêt à rentrer dans une logique de
développement des usages, car les économies réalisées sur le trafic téléphonique
pourraient être plus que compensées par le déploiement d’applications
multimédia.
Petit à petit, les centres de recherche des grands opérateurs comme les Bell Labs
aux Etats-Unis, les BT Labs de Martlesham au Royaume Uni ou le CNET en
France, ont donc lancé des travaux pour étudier comment proposer des services IP
de qualité.
Les solutions qui sont en train d’être élaborées tournent pour la plupart autour
d’une combinaison entre ATM et IP. Si l’on raisonne en terme de service, ces
deux technologies ont en effet de bonnes raisons de cohabiter :
• ATM apporte une réponse à la coexistence sur un seul backbone de réseaux IP
différents
• ATM apporte une réponse au support de la qualité de service par un réseau de
routeurs
• Les requêtes RSVP peuvent être converties en signalisation ATM
Bien évidemment, les deux standards étant d’inspiration différente, des points de
friction demeurent, et il importe de rester vigilant sur les aspects suivants :
• Garder un compromis entre les performances de commutation du niveau ATM
et la performance et la souplesse du routage IP pour le trafic sporadique,
• Harmoniser les modèles de trafic pour construire un réseau cohérent,
• Simplifier l’administration
25
26. Sur ces trois derniers points, les solutions seront en grande partie empiriques, au
fil de la montée en charge des réseaux opérateurs. Mais il en a été de même au
milieu des années 80 lorsque le trafic Minitel est venu se mêler au trafic X25
professionnel au point de nécessiter un reengineering complet du réseau Transpac
ou au début des années 90 lorsque les premiers opérateurs Frame Relay ont
tâtonné pour fixer les règles de design de leurs backbone en fonction des
demandes et de CIR de leurs clients.
Pour l’heure, l’ouverture des premiers services commerciaux comme celui de
Telecom Finland donne des résultats encourageants.
+ Le vrai test viendra lorsque le trafic téléphonique en provenance de centaines
de milliers d’abonnés équipés d’un téléphone (et pas seulement de quelques
internautes isolés équipés du dernier logiciel audio ou vidéo à la mode)
commencera à emprunter cette infrastructure.
Mais il faut que les opérateurs historiques finissent de se persuader que si ce ne
sont pas eux qui le proposent rapidement, ce seront leurs concurrents moins
encombrés par leur base installée...
26
27. 2.4. L’intégration d’IP dans les réseaux d’entreprise
2.4.1. Frame Relay, le provisoire qui dure
De même que pour l’ATM, une instance réunit également tous les fournisseurs : le
Frame Relay Forum. Les travaux du Frame Relay Forum sont cependant très
différents de ceux menés au sein de l’ATM Forum, pour une raison simple : la
maturité du marché.
En effet, le Frame Relay est aujourd’hui parfaitement stable en termes
d’environnement normatif (c’est bien le moins que l’on pouvait attendre d’une
technologie appelée parfois « de transition »). Aussi, plutôt que s’attarder sur les
spécifications du Frame Relay Forum, le Cigref a cherché à mieux comprendre la
pénétration et les usages du Frame Relay chez les clients, à travers les résultats
d’une enquête menée au printemps 1996 pour le compte du Frame Relay Forum
auprès d’une vingtaine d’opérateurs :
Le décollage du marché
Le nombre de clients est passé de 1,000 à 15,000 de janvier 1994 à janvier 1996.
Quant au nombre de ports, il est passé au cours de la même période de 11,000 à
135,000 ports dans le monde. On peut noter que la tendance au ralentissement est
très progressive, puisque la revue Data Communicaitons a calculé une
augmentation de 105% en 1996 et prévoit une croissance d’environ 120% en
1997, à comparer avec une stagnation du marché X25 sur ces deux années, soit un
marché multiplié par 50 en quatre ans.
A l’inverse de l’explosion du nombre de ports, certaines valeurs restent quant à
elles constantes au cours du temps :
• le nombre de ports par client reste compris entre 8 et 10
• le nombre de PVC par port est toujours autour de 1.5 (mais les PVC sans aucun
CIR sont passés de 50% à 20% du total entre 1994 et 1996, preuve d’une
meilleure connaissance des flux).
Enfin, concernant la distribution des vitesses d’accès, le Frame Relay se
positionne clairement sur la gamme 64kb/s - 2 Mb/s : 98% des accès sont dans
ces gammes d’accès, dont les 2/3 à 64kb/s.
Les usages du Frame Relay
La topologie des réseaux Frame Relay est assez explicite : seuls un quart d’entre
eux sont maillés, les autres étant soit point à point, soit en étoile. La raison en est
simple : Frame Relay est fréquemment vu aujourd’hui comme un substitut moins
onéreux aux liaisons spécialisées.
C’est ce premier phénomène, purement tarifaire, qui explique pourquoi Frame
Relay a rencontré autant de succès.
27
28. Concernant les usages proprement dits, c’est du côté des équipements raccordés
qu’il faut regarder :
• 75% des équipements d’accès sont des routeurs
• 15% des équipements d’accès sont des passerelles (3745 / FRAD) vers SNA
• 10% des équipements d’accès sont des passerelles (FRAD) vers X25
Ces trois catégories correspondent à autant d’usages :
1. L’interconnexion de réseaux locaux, avec deux applications phares :
l’Intranet et la messagerie électronique.
2. La migration de réseaux SNA vers TCP/IP, pour l’ accès aux applications
critiques et aux bases de données de l’entreprise
3. Le remplacement des réseaux X25 par des techniques tirant mieux parti de la
qualité des liaisons numériques
On peut donc dire que Frame Relay a trouvé son marché dans la transmission de
données sur les réseaux étendus, et sera relativement difficile à détrôner tant
qu’une dimension supplémentaire (multimédia par exemple) ne sera pas apportée
par une autre technologie.
+ En tout état de cause, un tour de table effectué auprès des représentants des
grandes entreprises dans le groupe du Cigref a permis de constater que
ceux-ci n’avaient aucune réticence à recourir de plus en plus souvent à cette
technologie opérationnelle et économique.
28
29. 2.4.2. Ethernet, le protocole qui repousse ses limites
A l’autre bout du spectre par rapport à Frame Relay (qui a le quasi- monopole des
accès longue distance dans la tranche allant de 64kb/s à 2 Mb/s), Ethernet règne
en maître sur le marché des courtes distances. Le nombre de réseaux locaux
utilisant cette technologie se compte désormais en dizaines de millions à travers le
monde, ce qui a plusieurs impacts :
• la profusion de fournisseurs,
• une bonne compétence des responsables réseau,
• des prix très compétitifs.
Il résulte de ce cocktail que beaucoup de gens ont eu intérêt à faire évoluer
Ethernet pour coller à l’évolution des besoins en général, et à l’augmentation des
débits en particulier. C’est ainsi qu’est né Fast Ethernet, qui a permis de
désengorger certains réseaux saturés et de doter les stations de travail les plus
puissantes d’accès plus performants. Fast Ethernet a ainsi autorisé le passage de
10 Mb/s à 100 Mb/s.
Aujourd’hui, les mêmes acteurs qui s’étaient rassemblé s au sein de « l’alliance
Fast Ethernet» voudraient bien reproduire le même schéma au sein de « l’alliance
Gigabit Ethernet», faisant cette fois miroiter le passage de 100 Mb/s à 1 Gb/s.
Il serait très risqué à ce stade de dire quel sera le futur de Gigabit Ethernet, et il
ne faut jamais désespérer de la créativité et de la pugnacité des fournisseurs. Mais
on peut quand même citer trois obstacles que cette technologie devra surmonter si
elle veut trouver son marché :
+ Définition et mise en oeuvre de procédures de gestion de la qualité de
service afin de pouvoir supporter les applications multimédia.
+ Préservation d’un débit utile proche de 1 Gb/s une fois retirées les collisions
de trames inhérentes à la technologie CSMA/CD.
+ Adaptation aux réseaux métropolitains (la portée en fibre monomode reste
limitée à 2 km) et surtout meilleure prise en compte du câblage existant,
puisque la portée en câblage UTP5 reste limitée à 100 mètres.
29
30. 2.4.3. ATM et IP, le meilleur des mondes ?
Outre les travaux de normalisation sur IP v6 entamés depuis 1994/1995, et qui ont
pour la plupart abouti au développement de nouvelles piles de protocoles
(notamment RSVP utilisé pour la gestion de la qualité de service), on notera que
l’effort porte aussi beaucoup depuis quelques mois sur l’ intégration d’IP dans
des réseaux étendus à hauts débits, au premier rang desquels figurent les
réseaux ATM.
En effet, à la suite de travaux préliminaires sur le TAG Switching et de la sortie
au printemps 1996 de produits Ipsilon Networks proposant une nouvelle technique
baptisée IP Switching combinant les protocoles IP et la commutation de cellules
ATM, la plupart des fournisseurs ont rejoint un groupe de l’IETF baptisé MPLS
(Multi Protocol Label Switching) lancé par Cisco.
L’idée de base du groupe MPLS est de produire un standard permettant de gérer
de façon plus fine la qualité de service et la consommation de bande passante sur
un réseau étendu, en indiquant dans un champ spécifique d’IP v6 (Flow Label) le
niveau de priorité affecté au flux considéré, et en traduisant ensuite cette valeur
dans un champ spécifique du protocole utilisé pour le transport sur le réseau
étendu (par exemple le champ VCI en ATM). Cette technique semble assez
prometteuse puisqu’elle permettrait de marier les avantages d’IP et ATM, comme
l’indiquent les schémas suivants :
Encapsulations
ATM Cell Header GFC VPI VCI PTI CLP HEC DATA
Tag
Tag
IPv6 Flow Label Field Ver Prio Flow Label •••
Tag
Tag
PPP Header PPP Header Tag Layer 3 Header
LAN MAC Tag Header
30
31. MPLS and ATM Services
Co-Existing on Same Platform! (Ships in Night)
• ATM services for real-time services IP IP
PNNI/UNI signaling
Voice trunking ATM
Circuit Emulation (CES) ATM
FR
• MPLS for data traffic
FR IP
Offloads signaling-intensive traffic
Reduces call set-up dependencies
MPLS Benefits
Router Backbones Switched Router Backbones
• Multiprotocol support • Improves scalability
• Enables traffic management • Eliminates router peering issues
• Provides load balancing • Multiprotocol support
• Enhanced QOS • Minimizes signaling issues
A ce stade, il est cependant impossible de dire si les produits qui sortiront
prochainement avec la fonction MPLS auront un rapport prix/performance
compétitif.
31
32. Mais dans une approche plus radicale, une telle évolution des besoins peut
justifier aussi l’arrivée de standards complètement nouveaux : Ipsilon, start-up
américaine, a ainsi fait un triple constat :
+ IP a gagné la bataille des protocoles
+ La règle du 80/20 pour la répartition des flux locaux et distants est de moins
en moins respectée
+ La course à la puissance des routeurs est une solution très coûteuse pour
faire face à la montée en charge des communications « any-to-any », et
ATM n’est pas à lui seul une alternative totalement crédible, notamment en
raison de son manque de capacité à faire du routage au niveau 3, ce qui est
très pénalisant pour les communications entre sous-réseaux.
La réponse Ipsilon a été de concilier le routage IP avec la commutation
hardware ATM , à travers un nouvel ensemble de standards : IP switching.
IP switching s’appuie principalement sur deux protocoles qui ont été présentés à
l’IETF et y ont recueilli un accueil favorable :
• GSMP (General Switch Management Protocol), décrit dans le RFC 1987,
• IFMP (Ipsilon Flow Management Protocol), décrit dans le RFC 1953.
Ipsilon, pour assurer le succès de ces protocoles, a mis les RFC en ligne sur son
serveur web. Des compagnies comme 3Com, IBM et Cascade ont déjà affirmé
leur support à IFMP. On peut également souligner que ces protocoles représentent
beaucoup moins de lignes de code que Q2931 et LAN Emulation utilisés
généralement au dessus d’ATM, ce qui augmente les performances.
Les avantages et inconvénients d’IP switching
Au rayon des avantages, Ipsilon a insisté sur les atouts suivants :
• La modularité,
• L’utilisation de matériels standards ATM et du processeur Pentium pro,
• L’optimisation du code en fonction d’IP,
• La classification dynamique des flux,
• La performance globale de routage, qui se compte en millions de paquets/s,
• La possibilité de continuer à utiliser les outils d’adminitration de réseau
existant dans l’entreprise pour gérer les réseaux IP.
Au rayon des inconvénients potent iels, les participants du Cigref ont soulevé les
questions suivantes :
32
33. • support de protocoles autres qu’IP : Ipsilon a une démarche très « market-
oriented » et, comme telle, privilégie clairement IP. Néanmoins, des
développements sont en cours pour intégrer IPX et le bridging.
• gestion de la qualité de service : voir la section suivante.
• compatibilité avec les VLAN : d’après Ipsilon, cela peut être géré à travers le
concept très proche d’IP subnet.
La gestion de la qualité de service
IP switching se distingue à la fois de RSVP et des dispositifs type CBR de l’ATM,
en ce sens que le niveau de priorité d’un flux donné est décidé par
l’administrateur.
Ipsilon plaide qu’à la différence d’ATM, qui met en oeuvre une qualité de service
basée sur la reconnaissance des adresses MAC (niveau 2), IP switching, en se
basant sur l’adresse IP (niveau 3), permet de mettre en oeuvre une qualité de
service par application.
Certains membres du groupe du Cigref ont néanmoins émis des réserves sur la
capacité à déployer une telle l gique dynamique à grande échelle, en préservant
o
une cohérence d’ensemble.
Au final, il est donc vraisemblable que l’intégration se fera autour du Tag
switching (MPLS) ou de l’IP switching, qui peuvent paraître assez similaires dans
leur approche, mais ne sont pas soutenus par les mêmes industriels.
Gageons que le marché, dans sa grande sagesse, retiendra le meilleur, c’est-à-dire
(entre autres), le plus robuste, le plus souple et le plus économique...Faites vos
jeux.
Le cabinet Dataquest a fait les siens et estime quant à lui qu’IP switching est le
plus prometteur, car les premiers produits sont disponibles, des alliances et des
accords de licence ont été ratifiés, et des développements sont en cours pour
intégrer les autres protocoles requis dans les réseaux d’entreprise hétérogènes
(IPX et le bridging essentiellement).
De l’autre côté, Dataquest estime que MPLS reste à l’état de concept et c’est à
Cisco, promoteur du projet, qu’il reviendra de convaincre le marché qu’il peut
innover et apporter des économies significatives sur une niche de marché (les
routeurs haut de gamme) où il détient une position dominante et réalise la plus
grand part de ses profits.
33
34. Et en attendant, y-a-t-il d’autres compromis possibles ?
Comme nous l’avons déjà précisé toutes les technologies citées dans ce rapport
sont chacune sponsorisées par une instance rassemblant tous les fournisseurs. Ces
instances sont parfois amenées à dialoguer les unes avec les autres, dans le but de
rendre les technologies interopérables.
Parmi les travaux récents, il faut citer ici la cohabitation entre Frame Relay et
ATM sur les réseaux longue distance.
Frame Relay et ATM sont d’une certaine façon issus de la même école de pensée :
le Fast Packet. Moins ambitieux au départ qu’ATM, Frame Relay est sorti plus
rapidement sur le marché, et des aménagements ultérieurs lui ont permis de gérer
les circuits virtuels commutés, et de transporter des flux aussi différents que la
voix ou le trafic SNA.
Le mouvement naturel consiste aujourd’hui à préserver les béné fices apportés par
Frame Relay sur le réseau d’accès et à l’interfacer avec un réseau de transit plus
puissant, reposant lui sur ATM.
Le Frame Relay Forum et l’ATM Forum ont d’ailleurs pris acte de cette demande
des grands utilisateurs et ont formalisé le mode d’interopérabilité à travers un
« Frame Relay-to-ATM Service PCV Interworking Agreement ».
Chacun pourra ainsi, à son rythme et en fonction de ses flux, combiner Frame
Relay et ATM sur son réseau de transport dans les proportions les plus adaptées.
34
35. 3. COMMENT ALLER VERS LES HAUTS DEBITS ?
3.1. Des grandes entreprises françaises qui avancent
Comme cela a été dit en introduction, ce groupe n’aurait certainement pas vu le
jour s’il n’y avait eu chez nos membres le sentiment que les réalisations étaient
dorénavant suffisamment nombreuses pour en tirer les premières leçons.
Cette section n’a d’autre ambition que de restituer la teneur des projets présentés
cette année au cours des réunions du groupe de travail du Cigref...et de donner à
ceux qui n’ont pas encore sauté le pas quelques bonnes raisons de ne pas attendre
trop longtemps pour le faire.
35
36. 3.1.1. EDF
EDF
Electricité
de France Projets Haut-Débit à l'EDF
u Solution ATM LAN
– LANE dans 2 centrales (3COM, Bay
Networks)
– Validation des solution LANE avec les tests de
l'association ARISTOTE (performance et
intéropérabilité)
u Solution ATM WAN
– interconnexion de deux sites de la Direction
des Etudes et Recherches avec FT
Yves Fouquet - Direction des Etudes et Recherches
ED F
Ele c tric i té
d e Fran c e Projets ATM-WAN
u Interconnexion des sites de la Direction des
Etudes et Recherches
– tests d'ATM sur une LS 34Mbps
– tests de l'offre multiservice ATM de FT
Yves Fouquet - Direction des Etudes et Recherches
36
37. ED F
Ele c t ri c it é
d e Fr a n c e 2 Solutions de Test avec FT
P U
A
B Cas n°1 R
A
X D
E1 E1
vidéoconf. FT
RS449 switch switch E1 RS449 vidéoconf.
1,920Mb/s E1 34Mb/s
TNLO TNLO
1,920Mb/s
ASM ASM
40 ATM ATM 40
FDDI R
Clamart R UNI UNI
FDDI
Chatou
P
Cas n°2 U
A R
B A
X FT D
E1 14 (10+2+2) Mbps E1
vidéoconf. RS449 vidéoconf.
RS449
E1 switch switch E1
1,920Mb/s 1,920Mb/s
E3
ASM E3 ASM
40 ATM switch ATM 40
FDDI R
Clamart R UNI
ATM
UNI
FDDI
Chatou
Yves Fouquet - Direction des Etudes et Recherches
ED F
Ele c tr i c i t é
d e Fra n c e Conclusion
•2 solutions qui fonctionnent
•Cas n°1 doit être administré par l'utilisateur
•Cas n°2 : solution moins fiable qu'une LS (mais plus chère)
• quel futur à l'offre ATM multiservice de FT???
•Solution n°1 plus rentable mais plus difficile à mettre en place
Yves Fouquet - Direction des Etudes et Recherches
37
38. 3.1.2. RATP
La genèse du projet
La topologie du réseau RATP s’articule autour de deux sites informatiques
majeurs : Noisy le Grand (500 pers.) et Lyon-Bercy (1500 pers.), et de 350 gares
et 100 bâtiments divers.
Ce réseau s’est construit en plusieurs étapes, dont on peut fixer les principales
bornes comme suit :
• 1990 : LAN 10 Mb/s et Hub Cabletron. Routeurs Cisco AGS+
• 1993 : Introduction de LAN Switch. Six mois après le déploiement, constat que
le ratio 90/10 sur communications locales et distantes n’est déjà plus respecté,
en raison des déménagements.
• 1996 : Définition d’une nouvelle architecture compatible avec trois objectifs :
l’augmentation des débits, la télé-administration, et l’indépendance de
l’adressage des réseaux par rapport à la localisation géographique.
Après un processus d’appel d’offres (où les écarts de prix enregistrés furent
considérables), le choix de la RATP s’est porté sur une solution combinant
Ethernet et ATM et comportant les éléments suivants :
• Commutateurs Ethernet / ATM Cellplex de 3Com,
• Réseau maillé de commutateurs ATM sur fibre optique
• Liens ATM à 155 Mb/s,
• Routeurs Cisco 4700,
• Utilisation du backbone FDDI de l’entreprise (réseau Rameau).
Le câblage (catégorie 5) n’a pas été modifié, les réseaux Ethernet ont été répartis
en Ethernet partagé pour la bureautique et la messagerie, et Ethernet commuté
pour les postes de travail CAO & DAO, et les VLAN’s ont été affectés à raison de
trois par étage (catia, autocad, bureautique), pour tenir compte de cette typologie
des usages.
Cette architecture hybride, en place depuis plusieurs mois, fonctionne de façon
très satisfaisante, aussi bien au niveau des Cellplex, tantôt en ATM, tantôt en 100
base T, qu’au niveau du backbone ATM qui n’a jamais constitué un goulot
d’étranglement. Ce bon fonctionnement n’est pas uniquement l’impression des
techniciens réseau, mais correspond à une remontée d’informations en provenance
des informaticiens et des utilisateurs.
Les aspects technico-économiques
38
39. Le processus d’appel d’offres pour la mise en place de la nouvelle architecture
avait conduit à l’établissement d’une short list comprenant les leaders du marché
(dont Cisco, Bay networks et 3 Com). Le choix définitif n’est intervenu qu’après
un maquettage de plusieurs semaines.
+ Par ailleurs, la branche de l’alternative « tout en 100 base T commuté »
n’a pas été retenue , car elle n’offrait pas d’avantage financier particulier, et
l’expérience menée avec cette technologie sur un des principaux sites de la
RATP a plaidé en défaveur de cette solution.
+ On peut aussi noter que les accès directs sur ATM n’ont pas été probants,
car difficiles à installer et d’une performance plafonnant à 10 Mb/s.
Enfin, l’administration de réseau, qui fait l’objet d’un VLAN hors-bande à 10
Mb/s, n’offre encore que des fonctions assez rudimentaires. Le passage à la
prochaine version du système utilisé (Transcend) devrait permettre une remontée
vers HP Openview.
Les leçons à tirer
+ L’architecture mise en oeuvre correspond bien en termes de service aux
attentes actuelles des utilisateurs . Les principales craintes qui n’avaient pu
être levées avant la phase de généralisation se sont révélées sans fondement
: il n’y a pas eu d’avalanches de broadcast (en cas de coupure électrique et
rétablissement), et lors des coupures de liens, le re-routage s’est effectué en
90 secondes maximum.
+ Le passage en ATM peut être considéré à l’arrivée comme relativement
indolore . D’une certaine façon, il s’agit du remplacement d’un protocole de
niveau 2, et cette évolution a été plutôt moins lourde que la précédente.
+ Les prochaines évolutions devraient concerner l’intégration de la voix, de
la donnée et de l’image. ATM devrait donc prendre de plus en plus de
place, mais il restera quand même une couche de routage, surtout parce qu’il
y aura toujours d’autres protocoles qu’IP qui continueront à être utilisés.
39
40. 3.1.3. Bibliothèque nationale de France
Le Cigref a eu le plaisir de rencontrer les responsables de l’architecture de
communication du Système d’information de la Bibliothèque Nationale de France
(BNF) lors d’une visite du site Francois Mitterrand organisée pour l’occasion, et
d’engager un débat sur ce que certains ont parfois qualifié à juste titre de « joyau
ATM français ».
Les orientations stratégiques du réseau de la BNF
L’objectif principal était de rester parfaitement cohérent avec les objectifs
techniques et économiques du Système d’information dans son ensemble :
• Permettre aux usagers d’accéder aux applications et aux fonds numérisés de
manière performante,
• Fournir une architecture de communication à plus de 3000 utilisateurs
simultanés (chercheurs et public),
• Demeurer apte à suivre les évolutions de l’informatique et du multimédia,
• Disposer d’une infrastructure prête à supporter de nouveaux services,
• Assurer à la BNF la pérennité de son investissement
• Permettre à la BNF de maîtriser ses coûts de fonctionnement
• Assurer la fédération des systèmes connexes au Système d’info rmation
• Conforter la BNF dans son ouverture vers l’extérieur
Vue d'ensemble du projet informatique
Le découpage technique des services
offerts par le SI
Services au public
Accréditation Consultation
des usagers du catalogue
Gestion des
demandes Contrôle des
des lecteurs circulations
Encaissements
Billeteries
Gestion des
Information Consultation
automatisée Prêts et
aux publics
Emprunts
Logistique
administrative
Services internes
Traitements des documents Ressources et Services communs
Moyens de
transport
Production du Bâtiments et
catalogue Magasinage Manifestations
et colloques équipements
Gestion des
ateliers du Gestion
document opérationnelle
Ressources Ressources
financières humaines des ressources
Conservation Gestion des
Accroissements
40
41. Vue d'ensemble du projet informatique
Les interfaces du SI
Sites de SI Système
de sûreté
Province
Services au public GMAO
Bibliothèques Maintenance
municipales
classées traitement des Ressources et
Gestion des
documents services communs lampes
Bibliothèques d'appel
universitaires
Système
Internet audiovisuel
Système
Bases de transitique
données FAX Signalétique
externes
dynamique
Système de
GIE gestion des
Autocommutateur cartes bancaires casiers de salle
Pourquoi ATM ?
• ATM est un mode de transfert transparent :
- pour les informations (voix, données, images, vidéo) gérées par la BNF
- selon un multiplexage asynchrone
- proposant une large gamme de débits
- sur des réseaux maillés (publics et privés)
- offrant des mécanismes de LAN virtuel et de qualité de service
- apte à suivre les évolutions du multimédia
• L’information numérique prend une place de plus en plus importante
• Banalisation de l’accès : application de gestion ou multimédia
41
42. Les caractéristiques du réseau
• Technologie ATM de bout en bout (postes de travail et serveurs) :
- mode LAN Emulation et protocole IP
- UNI 3.1, évolution vers UNI 4.0
• Débit unique 155 Mb/s
- utilisation d’une bande passante importante
- satisfaction des utilisateurs
- pérennité assurée
• Support de groupes virtuels de travail
- Projection logique des aspects organisationnels de la BNF
• Allocation dynamique d’adresses IP
- Liée au protocole DHCP (Dynamic Host Configuration Protocol)
- Banalisation des postes de travail
• Evolution programmée vers MPOA
Présentation de la V1 et des spécifications V2
Marché d'équipement :
Réseaux et services logistiques
3 coupe feux
Serveur d’administration
ZWG 120Mz
2 Escala M220 AIX 3*32Mo
2*256Mo é*4,4Go 2Vdat
3*2Go
ISM
Routeurs NT
Contrôleur secondaire de domaine NT
Anté-serveur
Anté-serveur serveur de distribution SMS
logistique local
logistique local serveur DHCP Serveur RTC
PC ZDS NT
PC ZDS NT Profils du groupe PC ZDS NT
32Mo 2Go
n LANs virtuels Serveur sauvegarde
ATM 155 Mb/s Bi proc Escala AIX
Passerelle
128Mo 6Go Vdat
ATM EPOCH
X400 et SMPT
Zserver MX 133
32Mo 2Go
PC ZDS NT 155 Mb/s
Anté-serveurs
de routage 4 Zserver MX
Anté-serveur Sequent SE40 ATM passerelles fax
logistique local 6 CPU 1Go 10Go 133Mz
PC ZDS NT 4*32Mo 4*2Go
155 Mb/s
doublé
LAN virtuel MLV
Serveur de connexions
ATM 155 Mb/s
Internet et Minitel
Sequent SE30
Routeurs
PC ZDS NT Contrôleur primaire domaine NT
Anté-serveur serveur primaire SMS
logistique central serveur SQL
PC ZDS NT 100Mz Profils obligatoires
64Mo 4Go
Anté-serveur
logistique central Secours
PC ZDS NT 100Mz
64Mo 4Go
42
43. 3.2. Principes de gestion des projets hauts débits
3.2.1. La définition du périmètre
C’est la première étape et comme telle elle est essentielle pour bien cadrer le
projet. Les principaux points à identifier sont :
L’impact de l’organisation
• Est- il possible de fédérer les flux voix et données sur les mêmes artères ?
• Plusieurs pays ou branches peuvent-ils être impliqués dans le projet ?
• Et dans ce cas, quels seront les principes d’allocation des coûts ?
Modes de travail
• Quelles sont les évolutions attendues dans le comportement des utilisateurs et
leur impact sur l’infrastructure du réseau ?
• En particulier, le fonctionnement en groupes de travail virtuels et la mobilité du
personnel sont- ils en haussse significative ?
Technologie
• Le projet doit il porter sur :
- le réseau local,
- une fédération de réseaux locaux au niveau d’un campus,
- un réseau métropolitain,
- un réseau longue distance
- une combinaison de ces différents types de réseaux ?
• Le câblage existant reste-t-il adapté ?
Architecture
• Quels sont les niveaux ou couches impactés ? Niveaux 1, 2 , 3, 4 ?
• Cela sera-t- il transparent pour les utilisateurs ?
• Et pour les développeurs d’applications ?
On pourrait rallonger la liste presque à l’infini. L’important est de comprendre
que le passage aux hauts débits, s’il doit chaque fois que possible être transparent
fonctionnellement pour les utilisateurs et les développeurs, ne pré-suppose pas un
statu quo de l’organisation et peut voir son intérêt démultiplié par une fédération
intelligente de besoins traités jusqu’alors séparément.
43
44. 3.2.2. Les processus de décision et les aspects financiers
Il est indéniable qu’à partir d’une certaine taille (notamment dans les sièges des
grandes entreprises), les réseaux locaux sont menacés d’engorgement, et qu’il faut
décongestionner l’ensemble au moyen d’un réseau fédérateur.
ATM tient d’autant plus sa place dans ses réseaux fédérateurs que le multimédia y
occupe une place importante et qu’il n’y pas trop d’autres protocoles qu’IP à gérer
en bout de chaîne.
Et pourtant, si on peut dire aujourd’hui que les solutions ATM sont de plus en
plus souvent considérées, le circuit de décision les concernant reste complexe.
Un responsable réseau n’a concrètement jamais l’autorité de décider seul d’une
solution ATM (alors qu’il peut souvent le faire pour de l’Ethernet), et doit
systématiquement obtenir l’accord de son DSI, et souvent d’un représentant de la
DG (Finance ou Achats).
Dans beaucoup d’organisations, construire un plan de financement pour les hauts
débits reste problématique. De fait, dans bien des cas, les bénéfices apparaissent
plus difficilement quantifiables que les coûts. Dans le cas d’ATM en particulier,
où les coûts unitaires des composants sont en moyenne plus élevés, il faut encore
démontrer des bénéfices supplémentaires par rapport à des technologies plus
traditionnelles.
Une enquête réalisée aux Etats Unis a montré que sur le marché de la longue
distance, la majorité des utilisateurs n’attendaient pas de bénéfices financiers
immédiats de l’introduction d’ATM, mais qu’à terme, cela pourrait contribuer à
réduire leur facture de liaisons louées de 20 à 40%. Plusieurs raisons à celà :
• Une meilleure gestion de la bande passante,
• Un maillage du réseau à moindre coût,
• Une administration de réseau plus efficace.
Hormis les cas où la performance d’ATM est la seule à pouvoir répondre au
besoin fonctionnel (imagerie médicale par exemple) et où le facteur coût passe
dans une certaine mesure au second plan, on peut dire que le défi à relever pour
une technologie universelle comme l’ATM est d’être le plus économique
globalement tout en étant compétitive avec les technologies concurrentes sur
chacun des segments :
• Ethernet et ses dérivés sur les réseaux locaux,
• FDDI sur les réseaux métropolitains,
• Les liaisons louées entre multiplexeurs sur les réseaux longue distance.
44
45. 3.3. Le recours aux opérateurs
Le moins que l’on puisse dire est que les offres ATM ne sont pas encore légion et
restent généralement réservées dans chaque pays à l’opérateur historique, les
nouveaux entrants ayant jusqu’à présent préféré concentrer leurs investissements
sur des créneaux rémunérateurs à plus court terme.
En attendant d’être éventuellement démenti par les nouveaux entrants, le Cigref a
donc examiné les caractéristiques de l’offre de France Telecom dans le domaine :
OmA (Offre multi- services ATM).
Les points à retenir sont les suivants :
Couverture géographique
Comme le montre le schéma ci-dessous, la couverture du service OmA prévue
pour 1997 est encore loin de celle d’un service banalisé. Concrètement, cela
signifie que pour une durée encore indéterminée, il va falloir que les utilisateurs
fassent preuve de « créativité » dans le design de leurs réseaux d’entreprise, afin
de panacher ATM avec d’autres services.
OmA : couverture géographique
- En France : progressive, notamment pour le déploiement de plaques
- Vers USA dès aujourd’hui comme support IP
- 3 à 4 nouvelles destinations prévues avant 1998
Lille
Rouen
Lannio Paris
n
Brest Strasbourg
Rennes
Nantes
Lyon
Grenoble
Bordeaux
Montpellier
Toulouse Sophia-Antipolis
Nice
Marseille
En effet, compte tenu de l’ouverture à la concurrence, il est très peu probable que
France Telecom se lance dans une expansion effrénée de la couverture d’OmA
dans des agglomérations où la masse critique n’est pas atteinte.
Les solutions possibles consistent à obtenir :
45
46. • Un couplage à tarif attractif des offres OmA et SMHD (services multisites
hauts débits, c’est-à-dire une offre de réseaux métropolitains) pour constituer
des plaques régionales
• Des liaisons numériques Transfix sur la tranche 2 Mb/s - 34 Mb/s à des prix
beaucoup plus bas que ceux d’aujourd’hui pour rapatrier le trafic des
établissements isolés vers le noeud OmA le plus proche.
A moyen terme, les utilisateurs attendent que l’offre OmA puisse être intégrée en
tout ou partie dans le portefeuille de Transpac, ce qui présenterait deux avantages:
d’une part une couverture géographique digne de ce nom si un accès OmA est
ajouté à chaque point de présence Transpac, et d’autre part la possibilité de migrer
de Frame Relay vers ATM comme les utilisateurs l’ont fait au début des années
1990 en passant de X25 à Frame Relay.
Caractéristiques et fonctionnalités proposées
Les principaux services sont :
• Accès ATM natif
• Emulation de circuit
• Interconnexion de PABX numériques
• Interconnexion de terminaux de données en Frame Relay ou HDLC
• Interconnexion de réseaux locaux
• Circuits Vidéo
En dehors de la couverture géographique insuffisante, on peut considérer que les
points faibles sont principalement au nombre de deux :
• La limitation du service à des circuits à débits constants, reconfigurables par
France Telecom (et pas par le client) sur préavis
• L’obligation de passer par une offre sur mesure pour les réseaux de plaques
régionales évoqués précédemment
Si l’on compare à une offre traditionnelle en liaisons louées, il faut néanmoins
reconnaître que le service OmA présente déjà dans sa configuration actuelle
plusieurs avantages, à savoir :
• Une granularité plus fine dans les débits des liaisons
• Une plus grande souplesse pour des réseaux multi-sites
• Une meilleure supervision des flux et des possibilités de reconfiguration
46
47. Tarification et zone de compétitivité
Les principes retenus à ce jour par France Telecom sont les suivants
• Des frais de racordement forfaitaires dans la zone de proximité autour des
points de présence, avec une surcharge fonction de la distance au delà d’un
certain seuil.
• Des tarifs de connexion mensuels en fonction de la distance et du débit entre
les points de présence, avec des surcharges éventuelles en fonction de la classe
de service désirée.
• Des locations d’équipements et d’interfaces.
• Des frais d’usage variant suivant le mode (permanent ou réservé, à terme
commuté).
De façon générale, les principes de tarification sont très similaires à ceux
pratiqués aujourd’hui par les principaux opérateurs Frame Relay. La principale
différence n’est pas sur les principes, mais sur le positionnement du curseur des
tarifs, car il est relativement fréquent que deux accès Frame Relay soient
compétitifs par rapport à un liaison louée entre les deux sites, ce qui ne sera pas le
cas, selon les dires de France Telecom, pour l’offre OmA.
La zone de compétitivité d’OmA se situera donc plus particulièrement dans es
réseaux en étoile comme le montre le schéma ci-dessous :
R éseau étoile
Site C
Site A
"POP"
points de présence
Site B
Site D
L'économie par rapport au réseau de Liaisons Louées provient :
- d'un tarif plat (hors frais multiplexeur) sur le tronçon final
- entre POP : on ne paie qu'à l'usage
Elle dépend des distances
47
48. 3.4. Les facteurs de réussite
3.4.1. Le rôle clé de l'intégrateur
Le Cigref a eu l’occasion de s’en entretenir avec Experdata, l’un des leaders du
marché de l’intégration de réseaux.
Au cours de ces discussions, les membres se sont accordés à reconnaître que pour
des raisons aussi bien techniques (a-t’on choisi le bon produit ?), qu’économiques
(le projet sera-t’il viable ?) ou organisationnelles (le périmètre adressé est- il le
meilleur ou aurais je intérêt à l’élargir à d’autres secteurs de l’entreprise ?), il
pouvait être très utile de faire appel à un intégrateur qui a l’obligation de se
maintenir à l’état de l’art.
Les différentes solutions préconisées par Experdata au cours de ces deux dernières
années montrent en effet combien le contexte reste mouvant et qu’il n’existe pas
de solutions toutes faites dans ce domaine.
Air France (1995/996)
Pour ce projet concernant plus de 1000 postes de travail, c’est Fast Ethernet qui a
été retenu, autour de matériels Bay Networks. Principales raisons:
• Fin 1994, au moment de l’appel d’offres, ATM était dans les limbes.
• Le trafic était essentiellement bureautique ou de terminal vers site central
(IBM, Unisys) et le besoin multimédia inexistant.
• Il y avait un fort besoin d’IPX.
Nestlé France (1996)
Pour ce projet de la fin de l’année 1996 concernant 1800 postes de travail, il
s’agissait de mettre en place un réseau fédérateur tirant le meilleur parti de
l’infratsructure existante, à savoir un campus tout en Fibre optique et de la paire
torsadée à 100 Mb/s dans des bâtiments équipés de façon homogène en réseaux
Ethernet à 10 ou 100 Mb/s.
Pour une des premières fois, c’est un réseau fédérateur ATM qui a été retenu,
Experdata a choisi de travailler avec Cisco, qui offrait le meilleur compromis
compte tenu des fonctionnalités demandées (LANE 1.0, PNNI phase 1, pas de
redondance des LES/BUS, phase intermédiaire en 100 base T).
12 ELAN’s ont été installés, et le projet s’est étalé sur 18-24 mois entre le
lancement de l’appel d’offres et la recette définitive.
48
49. Unilever France (1996/1997)
Les principales caractéristiques de ce projet récent étaient les suivantes :
• Emménagement de quatre sièges de sociétés du groupe Unilever dans un seul
batîment neuf (150m x 8 étages), avec un partage des moyens techniques mais
une étanchéité complète entre les quatre réseaux logiques.
• Une informatique très hétérogène, avec une centaine de serveurs
d’architectures très diverses (SAP, IBM, Unix, HP).
• De nombreux réseaux Ethernet à fédérer, mais également des réseaux Token
Ring à migrer en Ethernet.
• Un partage de charge à réaliser et une redondance complète entre la salle
informatique et la salle de back- up.
La solution mise en oeuvre par Experdata a consisté en un backbone ATM pour
fédérer l’ensemble des réseaux Ethernet, autour de matériels Bay Networks. Cette
mise en oeuvre est passée par plusieurs étapes :
• Réalisation de maquettes sur les bancs d’essais d’Experdata afin de valider la
configuration à installer.
• Migration en Ethernet avant le déménagement des deux sociétés fonctionnant
jusque- là en Token Ring.
• Mise en place des réseaux Ethernet, à raison d’environ 100 utilisateurs pour 3
segments.
• Mise en place de 8 ELAN’s (dont 1 pour l’administration).
Conclusion
On le voit, les solutions sont évolutives et dépendent notamment des rapports de
force technologiques au moment du choix. Mais dans bien des cas, le choix de
produits hauts débits n’est pas une finalité en soi, mais juste une étape dans la
constitution d’un service. Et c’est à l’aune de la qualité du service que la réussite
d’un projet sera jugée. Il est donc primordial d’évaluer au moment du choix et de
la technologie sous-jacente l’impact qu’ils auront sur deux composantes-clés du
service à l’utilisateur :
• les compétences en support technique
• l’intégration dans l’administration de réseau
49
50. 3.4.2. L'évolution des compétences
Les ressources télécoms et réseaux demeurent des ressources rares, donc
relativement chères. Compte tenu des coûts d’appropriation des nouvelles
technologies, il n’est pas rare de voir certaines entreprises, même de taille
conséquente, faire plus ou moins l’impasse sur une technologie émergente et
prometteuse sur le papier, mais à la durée de vie incertaine.
Certains protocoles de l’OSI sont mort-nés en partie à cause de cet état de fait, car
la courbe d’apprentissage etait tout simplement beaucoup trop ardue pour la
majorité des clients visés.
A ce titre, tous les standards ne sont pas égaux entre eux, et il est clair qu’atteindre
une masse critique de techniciens familiers d’un standard est vital pour la survie
du dit standard.
Aujourd’hui, deux technologies se détachent très nettement :
• IP
• Ethernet
Il est à peu près acquis que dans les prochaines années, aucun standard ne pourra
rivaliser avec ces deux technologies sur les réseaux d’accès.
En revanche, le jeu reste ouvert sur les réseaux fédérateurs, et le changement
d’image intervenu dans la perception de l’ATM rend plus probable son adoption
dans un nombre croissant de réseaux de grande envergure : réseaux d’opérateurs,
puis réseaux de fournisseurs d’accès Internet, et enfin grands réseaux d’entreprise.
Mais cette mutation sera très progressive, et cela reste objectivement un des
obstacles à une pénétration plus rapide de l’ATM.
50
51. 3.4.3. L'administration de réseau
SNMP a profité de la vague IP pour devenir le standard de facto de
l’administration de réseau.
Des travaux considérables ont été réalisés tant par les instances de normalisation
que par les constructeurs pour mettre en place des modules SNMP dans les
matériels ATM. En tout état de cause, ATM supporte très largement la
comparaison en ce domaine avec des nouvelles technologies comme le Gigabit
Ethernet.
Mais la principale force d’ATM dans l’administration de réseau et ce qui le
différencie de ses concurrents, c’est la gamme d’outils qu’il offre pour fournir une
qualité de service personnalisée par type de flux.
Et au moment du choix d’une technologie haut débit appelée à véhiculer des flux
critiques pour l’entreprise, cet argument de choc contrebalance très largement la
relative pénurie de spécialistes de l’ATM évoquée dans la section précédente.
51