SlideShare una empresa de Scribd logo
1 de 60
LIVRE BLANC
www.gfi.fr
Les vrais chiffres
du Big Data
La « data » est l’essence de la transformation
numérique des entreprises.
Préface
Par Bruno Chapuis, colonel de Gendarmerie,
auditeur de la 47e
session « armement et économie
de défense » de l’Institut des hautes études de
défense nationale (IHEDN)
| LES VRAIS CHIFFRES DU BIG DATA | 03
Far West 2.0 : à la conquête de la « data »
Nouvel Eldorado. Conquêtes de nouveaux espaces. Le développement du numérique
s’apparente à une nouvelle étape du Far West, avec « son bon, sa brute et son truand »,
ses indiens, son cavalier solitaire et ses duels. Dans cet espace inconnu, chacun rêve de
faire sa place. Pour de l’or bien évidemment, chères pépites d’or des temps nouveaux,
légalement gagnées ou non. En effet, Internet développe sa propre délinquance et ses
truands d’un monde nouveau, les cybercriminels. Plus de colts, de lassos, mais une toile
bien tissée, un « dark web » rappelant les villes fantômes de nos westerns.
On ne vend plus de troupeaux de chevaux, on ne compte plus « en cornes », mais on y
échange de précieuses données, fichiers, codes et algorithmes. On y crée des cookies, non
de délicieux gâteaux pour les meneurs de bêtes, mais de véritables traqueurs invisibles
des habitudes des consommateurs du Net. Tout simplement pour subsister comme des
millions de sites marchands repositionnés sur la toile devant la désaffection de leurs
magasins réels. De nouveaux saloons ouvrent ainsi chaque jour. Dans ce monde émergent,
la petite épicerie de Mme Olson, de « La petite maison dans la prairie », côtoie le pire
saloon aux enfants prostitués.
Et les Indiens ? Toujours là. Les autres, ceux qu’il faut évincer. Plus de signaux de fumée,
mais des données corrompues. La vieille méthode des couvertures souillées de bactéries
est utilisée : des virus sont envoyés. Et comme au Far West, des noms émergent, des
géants aux colts en argent. Buffalo Bill et Geronimo ont fait place à Google et… Mais où
est Lucky Luke ? Le shérif ? Peut-il y avoir un ordre dans ce Far West ? Certains États le
pensent, réglementant les activités, interdisant la diffusion de telles ou telles images. Mais
la réalité les submerge, les engloutit dans une virtualité qu’ils ne peuvent contrôler. Peut-
on compter sur l’éthique ? Celle d’individus, devenant des héros tel Snowden, nouveau
pasteur des temps modernes ? Car le pire s’assoit au côté du meilleur dans cette conquête
de la « data ». On y crée du lien, ou du moins on croit en créer, on partage, on échange de
l’information à la mode Wikipédia.
Cette ruée vers la « data » est une révolution, autant que la conquête de l’Ouest a
bouleversé le monde. Comme les pionniers face aux Rocheuses, nous n’avons pas
conscience de cette révolution numérique en marche, n’y voyant bien trop souvent qu’un
nouvel outil de bureautique. Car à force de vouloir conquérir l’Ouest, puis la lune, l’espace,
et le numérique, l’homme ne va-t-il pas se perdre lui-même, pris dans sa propre toile, ne
sachant plus où est le réel et la matrice, propre création transhumaniste d’un homme à
la recherche non plus de l’or mais de sa propre existence, de sa propre donnée et donc de
son créateur ?
| LES VRAIS CHIFFRES DU BIG DATA | 04
Longtemps réservé à une communauté d’initiés, le Big Data est aujourd’hui un
phénomène bien réel. Les études, cadrages et « Proofs of Concept » menés depuis plus
de deux ans laissent place aux réalisations de projets « drivés » par les cas métiers.
Normal : la data est l’essence même de la transformation numérique des entreprises.
Nul ne peut résister à la vague Big Data ! Et cela ne saurait s’arrêter tant les usages et les
domaines d’applications sont nombreux.
Dans ce contexte, Gfi Informatique, acteur européen de référence en matière de services
et solutions numériques à forts enjeux métiers, entend jouer un rôle majeur dans
l’adoption du Big Data par les entreprises françaises.
Gfi Informatique met au service de ses clients une combinaison unique de savoir-faire
en matière d’accompagnement métier, de pilotage de programmes, de réalisation de
solutions de qualité industrielle et de services de proximité.
Ce livre blanc, réalisé avec le concours du Cabinet Pierre Audoin Consultants, vise à
mesurer en France l’impact de la donnée dans la conduite de projets de transformation
digitale.
Fruit d’une enquête réalisée auprès de 221 DSI et illustrée de témoignages clients, cette
étude vous propose une perspective objective des évolutions en cours et des bonnes
pratiques de nos répondants pour mieux engager, grâce à la donnée, leur transformation
numérique. Il s’adresse à toutes les entreprises qui souhaitent faire du Big Data un
vecteur d’innovation et d’efficience opérationnelle.
Vincent Rouaix,
Président-directeur général, Gfi Informatique
Le mot
du Président
| LES VRAIS CHIFFRES DU BIG DATA | 05
Les chiffres clés de l’étude Les chiffres de Gfi Informatique
4 freins
2,5 Po
1 solution
un réseau de
startups
+ 1700
Panels de projets de l’étude
dont 66 % dépendent de la Data !
950
Consultants
Digital & Data
74 %
des sondés estiment
les projets Data critiques
12 plateformes Hadoop
—
• Performance et
Sécurisation Hadoop
• Moteur de Dataviz
Analytique
—
UN VERTICAL MÉTIER
EN CYBERSÉCURITÉ
Solution de SIEM
(VigieSI)
• Culture d’entreprise
• Résistance de l’IT
• Volonté d’autonomie par les métiers
• Manque de compétences internes
UNE COURBE
D’EXPÉRIENCE SUR
majeurs en 2016
EN CUMULÉ
50
Architectes Seniors
Data Scientists
Consultants
de niveau international
60 %
des projets se font en
moins de 6 mois
—
20 % entre 7 et 12 mois
3 bénéfices
Gain de parts de marché
Réduction des coûts internes
Amélioration de l’image de marque
— Cités à plus de 20 % chacun —
300 millions
d’objets connectés sur
les systèmes en production
EN
2018
DEPUIS
2010
Cités à plus
de 25 %
chacun
| LES VRAIS CHIFFRES DU BIG DATA | 07
La donnée est l’un des segments qui croît le plus dans le marché du
numérique aujourd’hui.
Rien d’étonnant à cela : la donnée est à la fois un point d’ancrage
ancien, qui a permis aux entreprises de prendre des décisions sur la base
d’informations justes et quantifiables, et le levier qui permet d’imaginer
et de mettre en œuvre de nouvelles stratégies adaptées au contexte de
l’économie numérique.
Le marché de la donnée au sens large (comprenant les applications
analytiques et de data management traditionnelles et maintenant celui
du Big Data) devrait connaître une croissance moyenne avoisinant les
10 % par an sur la période 2013-2019, pour atteindre près de 5 Md€,
alors que dans le même temps le marché total des logiciels et des services
en France ne dépassera guère les 2 % de croissance annuelle moyenne.
En 2019, le Big Data pèsera plus de la moitié de ce marché : l’analytique
traditionnel est un marché mature, en cours de tassement, alors que
le marché des logiciels et des services autour du Big Data en France
devrait croître de 35 % par an en moyenne entre 2015 et 2019 !
Dans un contexte de dépenses informatiques contenues, il peut paraître
audacieux d’envisager une telle hausse. Cependant, toutes nos études
le démontrent : la grande majorité des projets de modernisation et
de transformation numérique passe par une valorisation accrue de la
donnée, et tous les acteurs de l’entreprise, direction générale, directions
métier, direction informatique, en ont conscience et s’y attellent.
L’étude dont nous livrons ici les conclusions le montre clairement : la
donnée est au cœur de la réflexion des entreprises, que celles-ci décident
de partir de la donnée pour élaborer de nouveaux services, ou bien qu’elles
imaginent ce qu’elles peuvent devenir et cherchent ensuite à s’appuyer
sur les données disponibles.
Introduction
| LES VRAIS CHIFFRES DU BIG DATA | 08
L’étude recense ainsi plus de 1 100 projets de transformation basés sur
la donnée !
L’examen de tous ces projets ne permet pas de dégager un chemin unique
de transformation par la donnée. Il montre que chaque entreprise définit
sa stratégie et les meilleurs moyens à mettre en œuvre pour y parvenir
selon sonvécu et sonorganisation.On peut néanmoinsdégager un certain
nombre d’éléments communs, présents dans ce document, permettant à
la donnée de faire sens.
L’objectif est de vous donner, sur la base de plus de 220 répondants et
plus de 1 000 projets de transformation basés sur la data, une synthèse
des bonnes pratiques et des moyens à incorporer à votre propre stratégie
de valorisation de la donnée et de transformation de votre organisation
afin de bénéficier au plus vite des effets de la transformation numérique.
Traditional analytics & data management
*TCAM : taux de c�oissance annuelle moyen
Ma�ché �rançais
en M€
Big Data
2013 2014 2015 2016 2017 2018 2019
0
1 000 —
2 000 —
3 000 —
4 000 —
5 000 —
6 000 —
+ 9,6 %
TCAM* 2013 > 2019
Graphique 1. Volume et croissance du marché des logiciels et des
services liés à la donnée
| LES VRAIS CHIFFRES DU BIG DATA | 09
56 % des entreprises jugent la donnée
critique pour le business p.10
Les deux tiers des projets de
transformation numérique sont basés sur
la donnée p.16
31 % des entreprises cherchent des « data
scientists » pour confirmer ou infirmer
leurs intuitions p.22
Un « datalake » déjà en construction pour
60 % des entreprises p.30
60 % des projets « data » durent moins de
6 mois p.36
La vision de Gfi Informatique p.42
Témoignages p.48
Remerciements p.55
Annexes p.56
Sommaire
1.
2.
3.
4.
5.
6.
7.
1.
56 % DES
ENTREPRISES
JUGENT LA
DONNÉE CRITIQUE
POUR LE BUSINESS.
| LES VRAIS CHIFFRES DU BIG DATA | 12
L
orsqu’on l’interroge sur la donnée,
souvent qualifiée de « nouvel or noir
de l’économie numérique », Henri
Verdier (DINSIC) rectifie : contrairement au
pétrole, carburant fossile, la donnée s’enrichit
lorsqu’on l’utilise. Pour cet entrepreneur,
ardent défenseur de l’Open Data, aujourd’hui à
la tête de la DSI de l’État, il ne fait aucun doute
que la donnée peut et doit être exploitée pour
gagner en compétitivité.
Cet avis est partagé par les interviewés de
notre enquête. Qu’il s’agisse de PME ou
de grands comptes, dans tous les secteurs
et à tous les postes, nos répondants sont
unanimes : la donnée est essentielle pour
croître et prospérer. Elle l’est même d’autant
plus que l’économie se transforme. Lorsqu’on
demande aux entreprises de regarder deux
ans en arrière, puis de se projeter dans les
deux prochaines années, leur sentiment est
que la quantité de données générée par leur
activité explose (29 % des personnes sondées
approuvent ce constat « il y a deux ans »
tandis que 68 % l’anticipent « dans 2 ans »).
La courbe d’exploitation de ces données suit la
même tendance passant, elle, de 28 % à 66 %.
Le fait d’exploiter les données pour améliorer
le business ne date pas d’hier. Une enquête
récemment réalisée par PAC pour le Syntec
Numérique montre que les entreprises
n’ont pas attendu le marketing qui entoure
le Big Data pour s’y intéresser, même en-
dehors du périmètre classique de la Business
Intelligence : amélioration de la traçabilité,
optimisation de la qualité et analyse des
risques ressortent ainsi parmi les premiers
usages.
Aujourd’hui, le Big Data renouvelle cet intérêt,
en montrant qu’il est possible d’exploiter
—
Aujourd’hui, 56 % des entreprises considèrent que la donnée a
une importance critique pour le business, soit une
note de 7/10 ou plus. En se projetant à 2 ans,
cette proportion monte à 74 % !
32 % 56 % 74 %
1.
| LES VRAIS CHIFFRES DU BIG DATA | 13
davantage de données ainsi que de nouveaux
types de données, pour de nouveaux usages.
Les objectifs des projets basés sur la donnée
sont très opérationnels ; il s’agit de gagner
des parts de marché (21 % le citent comme
premier bénéfice), réduire les coûts (20 %) et
améliorer l’image de marque de l’entreprise
(20 %). Ces résultats confirment la façon très
pragmatique dont la donnée contribue à la
transformation numérique.
Graphique 2. L’importance de la donnée pour le business
Il y a 2 ans Aujourd’hui Dans 2 ans
23% 25%
45% 42%
38%
59%59%
23%
33%
48%
66%
61%
La compréhension de
votre direction générale
du rôle de la donnée
dans la transformation
de votre entreprise
L’implication de la
direction marketing
dans cette valorisation
de la donnée
L’implication des
autres directions
métier dans cette
valorisation de la
donnée
L’implication de la
direction IT dans cette
valorisation de la
donnée
Les 3 principaux bénéfices
métiers liés à la data :
Gagner des
parts de
marché
Réduire les
coûts
Améliorer
l’image de
marque
Avis d’expert
| LES VRAIS CHIFFRES DU BIG DATA |
Nous assistons enfin au passage du point d’inflexion
tant attendu en France. Les études, cadrages et
POCs menés depuis plus de deux ans laissent place
aux réalisations de projets « drivés » par les cas métiers. Au
sein de certains grands groupes, cela se matérialise par des
changements d’orientation stratégiques forts, ce qui est assez
nouveau, comme pour l’usage des véhicules connectés dans le
secteur des Assurances. Cependant, les initiatives ou projets se
déroulent sans réellement suivre de standards. Les freins et le
manque de compétences ralentissent d’autant la progression
du marché français. La principale règle commune qui émerge
semble être celle-ci : plus le lien est étroit entre la direction, les
métiers, la DSI et l’accès aux données, plus les bénéfices issus
de la « culture » de la donnée sont durables, à l’image de ce
qui se pratique dans les entreprises dont l’économie est « data
driven » (comme chez Criteo).
En fait, le retard pris par le marché français s’explique en bonne
partie par sa composante culturelle. En France, nos DSI testent
les solutions uniquement sur le plan technique, trop souvent
sans instaurer dès le départ un dialogue itératif fondamental
entre les intuitions métiers et l’obtention de la quintessence de
la donnée brute qui conduit à la réussite même de ces projets.
Contrairement à la France, les Anglo-Saxons partent d’une idée
business et implémentent des technologies du Big Data pour
leurs besoins métier.
Fini le règne des POCs. Enfin l’ère des projets !
Par Alvin Ramgobeen, Directeur des Practices BI & Big Data, Gfi Informatique
Avis d’expert
| LES VRAIS CHIFFRES DU BIG DATA | 141414| LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA |
| LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA |
Avant la mi-2015, la grande majorité
des entreprises effectuait des POCs pour
adopter les technologies du Big Data et
engageait des réflexions interminables sur
ce qu’il convenait d’en faire. Aujourd’hui,
on assiste à une réelle bascule. La
réflexion fait place aux moyens à trouver
pour créer de nouveaux services digitaux
conduisant à une monétisation sur la base
de données « augmentées ». Et cela grâce
à la technologie qui atteint aujourd’hui un
bon niveau de maturité.
Enfin, l’étude confirme au travers des
indicateurs de confiance à deux ans que
les projets de transformation numérique
autour de la donnée vont réellement se
démocratiser (plus des deux tiers des
directions seront impliquées d’ici 2 ans),
ce qui mènera inévitablement à une
accélération de cette tendance.
151515
“ POUR ALLER PLUS LOIN
RETROUVEZ TOUS NOS AVIS D’EXPERTS
EN SCANNANT CE QR CODE
LES DEUX TIERS
DES PROJETS DE
TRANSFORMATION
NUMÉRIQUE SONT
BASÉS SUR LA
DONNÉE.
2.
| LES VRAIS CHIFFRES DU BIG DATA | 18
L
a transformation numérique compte
autant de définitions que d’acteurs
concernés. Néanmoins, dans la
grande majorité des cas, la donnée tient un
rôle de premier plan. Sur un total de 1 722
projets de transformation recensés par nos
221 répondants, les deux tiers, soit 1 131,
s’appuient essentiellement sur l’exploitation
des données.
Cet usage de la donnée va aujourd’hui
bien au-delà de la Business Intelligence
traditionnelle. Alors que l’objectif de la BI
traditionnelle a longtemps été centrée sur la
simple compréhension de ce qu’il s’est passé,
la transformation numérique demande une
approche analytique plus complète : il s’agit
d’exploiter la donnée, qu’elle soit statique
ou dynamique, qu’elle soit interne ou captée
à l’extérieur de l’entreprise, et d’essayer
d’anticiper les événements.
Déjà 57 % de nos répondants disent croiser
les données internes et externes pour enrichir
leurs analyses.Unopérateurdans lestélécoms,
lestransportsou l’énergie, par exemple, pourra
anticiper le comportement de son réseau
et de ses clients en fonction d’informations
météorologiques ou événementielles. 45 %
déclarent réaliser des analyses prédictives, et
42 % pensent mettre cela en pratique dans les
deux ans. Il s’agit d’une proportion que nous
rencontrons souvent dans nos enquêtes, dans
des départements marketing bien entendu,
pour mieux cerner les clients, mais aussi
dans nombre d’entreprises lorsqu’il s’agit
d’opérer de la maintenance préventive sur des
équipements industriels ou autres (serveurs,
éléments d’un réseau, véhicules, optimisation
de la tournée des agents…).
Ces analyses s’appuient, le cas échéant,
sur d’autres types de données : les « logs »
d’équipements, de serveurs, de sondes,
les données issues des machines et objets
connectés, ainsi que les flux de données des
réseaux sociaux…
Graphique 3. Évolution du poids de la donnée
Il y a 2 ans Aujourd’hui Dans 2 ans
29% 28%
47% 47%
66%68%
La quantité de données
générée par vos
activités
Votre niveau
d’exploitation de
ces données
des projets de
transformation, déjà
réalisés, en cours ou
planifiés, dépendent
essentiellement de
la valorisation des
données.
66 %
2.
Proportion de répondants ayant jugé ce poids très important
(note de 7/10 ou plus).
| LES VRAIS CHIFFRES DU BIG DATA | 19
La manipulation de ces données ouvre un
éventail de nouvelles possibilités qui doivent
être mises au service d’objectifs précis. De
façon générale, les entreprises ayant mené des
projets ciblés de transformation sont plutôt
satisfaites (+ 67 %) des résultats obtenus.
Graphique 4. Résultats obtenus des projets de transformation numérique
En-deçà de mes attentes Conformes à mes attentes, voire au-delà
25%
71% 70%
23%
67%
26%
67%
22%
61%
32%
L’amélioration de
l’image et la
valorisation de la
marque de votre
entreprise
Votre capacité à
résister face à la
concurrence
L’augmentation
de votre chiffre
d’affaires
L’optimisation du
fonctionnement
interne et la
réduction des
coûts
Le gain de parts
de marché
des projets en moyenne
ont permis d’atteindre
les objectifs métier.
67 %
Avis d’expert
| LES VRAIS CHIFFRES DU BIG DATA |
Des projets industriels en production mêlant IoT, Big Data et
Par Florent Bornard, Practice Manager Customer Experience Management, Gfi Informatique
À partir de services métier existants qui génèrent
de la donnée comme ceux liés aux Box (TV, ADSL,
Fibre), il est possible de dégager des indicateurs
de contexte et des leviers d’action utiles à différentes
cellules, tant en back-office qu’en front-office (exposées aux
clients). Si l’opérateur arrive à diagnostiquer que l’origine
de l’incident est exogène à la Box elle-même, alors on peut
limiter, voire réduire de moitié, le nombre de retours à l’usine
de box défaillantes. Les gains sont alors conséquents !
Autre exemple issu du secteur Télécom. Le centre de support
téléphonique dispose à la fois des paramètres, de l’historique
du trafic réseau et des informations sur la qualité perçue
par les différents consommateurs, que ce soit les enfants
sur la tablette ou les parents sur la télévision. Cela permet
d’augmenter la qualité de la prise en charge proactive des
appels entrants sur les incidents et d’améliorer l’efficacité
des actions de correction. Enfin, cela réduit le temps total
passé sur l’anomalie.
Il en découle une augmentation de l’efficacité des centres de
support téléphonique, une amélioration de l’expérience client
et une réduction du « churn » (taux d’attrition des clients) :
le résultat du ROI est évident et substantiel.
| LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA | 202020
| LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA |
Expérience utilisateur : zoom sur 5 ans d’expérience.
En résonance à l’étude, les acteurs qui
disposent de ces premiers niveaux de
diagnostic quantitatif personnalisé ont
développé des algorithmes pour anticiper
très tôt les problèmes. Les résultats
sont assez surprenants. Ils permettent
de dégager de vrais bénéfices tant pour
les recommandations (liste d’actions
de corrections adaptées au contexte
de panne) que pour la prise en charge
(meilleur aiguillage des personnes non
satisfaites). Ainsi on constate une baisse
conséquente du volume d’appels pour
mécontentement et de fait, une réduction
des coûts liés à leur prise en charge.
À cela s’ajoute la progression de
l’ouverture des données (Open Data) qui
représente un carburant additionnel dont
la richesse est en devenir. Les entreprises
maîtrisent encore mal ce qu’elles peuvent
partager, notamment vis-à-vis de la
protection des droits et des libertés
individuelles (régulation de la Cnil) d’une
part, et d’autre part, face au risque que
l’émetteur puisse laisser échapper la
valorisation des données exposées. Là
encore, le manque de repères peut créer
des inquiétudes quant au juste niveau
d’exposition des données permettant à
des acteurs tiers d’en tirer parti. Cela est
particulièrement flagrant dans le cas des
acteurs monopolistiques (notamment dans
le secteur des Transports).
“
POUR ALLER PLUS LOIN
RETROUVEZ TOUS NOS AVIS D’EXPERTS
EN SCANNANT CE QR CODE
212121
3.
31 % DES
ENTREPRISES
CHERCHENT DES
‘DATA SCIENTISTS’
POUR CONFIRMER
OU INFIRMER
LEURS INTUITIONS.
| LES VRAIS CHIFFRES DU BIG DATA | 24
R
elier la donnée avec un objectif
business précis peut s’avérer ardu. En
partant de la donnée – qu’on aura au
préalable rassemblée, ou au moins fédérée - il
faut s’interroger sur le sens qu’elle peut avoir
dans un contexte précis, dépendant de la
nature de l’entreprise et de ce qu’elle essaie
d’accomplir à un moment donné. Le champ
des possibles est vaste.
Le processus d’élaboration des projets
de transformation portés par la donnée
comporte plusieurs étapes, que chacun
agence différemment. Dans notre étude, nous
avons défini ces étapes et avons demandé
aux entreprises de les placer dans un ordre
préférentiel ; aucun cheminement consensuel
n’a émergé de cet exercice. Ainsi, l’étape
de « réflexion sur la stratégie globale de
l’entreprise » est choisie comme étape n°1 par
19 % de nos répondants et comme dernière
étape par 16 % !
Ce processus d’élaboration requiert une
approche itérative, prenant en compte aussi
bien les objectifs à atteindre que les données
à exploiter. C’est donc un délicat travail
d’orchestration qui devra être mené par les
bonnes personnes. Au niveau de la donnée, un
CDO (Chief Data Officer) aura la lourde tâche
de référencer, normaliser, nettoyer, enrichir et
connecter la donnée. Au niveau de la direction
générale, un autre type de CDO (Chief
Digital Officer) établira un programme de
transformation à long terme et les objectifs de
court terme. Le chaînon entre ces deux CDO
fera le lien entre ces objectifs et la donnée ; il
s’agit du très recherché « data scientist ».
Lorsqu’on demande aux entreprises ce qui
leur manque pour confirmer ou infirmer leurs
intuitions, deux éléments arrivent largement
en tête : des outils de type « machine
learning » (33 % des réponses) et des « data
scientists » (31 %). Ne reste plus qu’à
s’accorder sur les compétences de ce dernier.
En l’occurrence, nos répondants semblent voir
le « data scientist » comme un statisticien de
nouvelle génération, dont la connaissance du
métier serait la qualité numéro un.
Il reste donc un travail d’évangélisation à
réaliser sur ce qu’un tel profil peut apporter à
tous les contextes professionnels. Bien formé
aux outils analytiques et à la statistique mais
aussi et surtout à une nouvelle algorithmique
des entreprises
estiment avoir une
bonne maîtrise de ce
que leurs données
peuvent leur apporter.
souhaitent vérifier leur
intuition.
s’avouent dans le flou.
34 %
20 %
46 %
3.
| LES VRAIS CHIFFRES DU BIG DATA | 25
démocratisée par les techniques liées au Big
Data, le « data scientist » aide à créer les
nouvelles opportunités de business à partir de
la donnée. Il ne remplace cependant pas les
spécialistes du métier : il les accompagne.
Graphique 5. Les qualités recherchées en priorité chez un « data scientist »
29%
21%
18%
16%
15%
La connaissance de votre métier ou de votre
domaine d’activité
La maîtrise des outils de
statistiques et de datamining
La capacité à imaginer de nouveaux services ou
« business models » s’appuyant sur la donnée
La capacité à coder des algorithmes pour aller
au-delà des modèles fournis par les outils
La maîtrise des outils
de « machine learning »
| LES VRAIS CHIFFRES DU BIG DATA | 25
démocratisée par les techniques liées au Big
Data, le « data scientist » aide à créer les
nouvelles opportunités de business à partir de
la donnée. Il ne remplace cependant pas les
spécialistes du métier : il les accompagne.
18%
16%
15%
La capacité à imaginer de nouveaux services ou
« business models » s’appuyant sur la donnée
La capacité à coder des algorithmes pour aller
au-delà des modèles fournis par les outils
La maîtrise des outils
de « machine learning »
| LES VRAIS CHIFFRES DU BIG DATA | 26
Du datamining à la
‘data science’
La « data science » représente le deuxième palier
du Big Data, celui qui succède à la collecte des
données et à l’établissement du « datalake », socle
indispensable à la réalisation de processus industriels
en environnement de production.
Comme tout marché émergeant, il est en recherche de
repères, avec certaines spécificités communes à l’arrivée
du Big Data en France, à savoir que les techniques
algorithmiques utilisées en « data science » sont toutes
déjà existantes, mais que la nouveauté réside dans le
fait que la philosophie bascule du « model driven » tel
qu’il est pratiqué dans le datamining, au « data driven » :
l’examen est guidé par la donnée, plus que par un
modèle défini au préalable. Pour aider à la lecture de son
évolution nous avons repositionné les méthodes les plus
usitées.
Cette cartographie permet à tout un chacun de se
positionner selon son degré d’avancement ou de
maturité.
—
CARTOGRAPHIE —
| LES VRAIS CHIFFRES DU BIG DATA | 26| LES VRAIS CHIFFRES DU BIG DATA | 26
| LES VRAIS CHIFFRES DU BIG DATA | 27
Hindsight
Insight
Foresight
Extended Intelligence
Difficulté
Valeur
COMPLEXITÉDELAMÉTHODE
Analyse
Descriptive
Calcul énergie
Knowledge
Discovery
DataVisualisation
multi-dimensionnelle
DataVisualisation
multi-dimensionnelle
Réseau de Petri
Stochastique
Data Fusion
Artificial
Intelligence
(ex. Watson)
Drill Down
of Trees
Forêts aléatoires
Scoring
d’arborescences
Algorithmes
génétiques
Ensemble flou
Plus court
chemin
Graphes
Proba. Et réseaux
Bayésiens
Théorie de
la croyance
BI traditionnelle Échantillonnage
Drill-Down
Clustering &
Pattern
recognition
Rule Based Scoring
d’indicateurs
Rule-based
programming
Knowledge
Management
ARMA
ARIMA
Inférence
parallèle
Bootstraping
Arbres de
décision
Régression
linéaire
AFC
ACPPréparation de donnéesData Visualisation
bidimensionnelle
Qualité des données historiques
Machine Learning
(supervisé ou non supervisé)
Réseaux de
Neuronnes
Receiver Operating
Charasteristic
Rétro programmation
Méthode par transfert
et renforcement
Boltzman
Hopefield
Cohonen
Fréquence et Fonction de
répartition
Entropie
Vapnik, Gibbs & Copule
Analyse
Diagnostique
Analyse
Prédictive
Analyse
Prescriptive
I N F O R M AT I O N
L E V I E R
D ’A C T I O N
Avis d’expert
| LES VRAIS CHIFFRES DU BIG DATA |
Même si aujourd’hui 80 % des clients estiment
maîtriser en bonne partie le contour de leur
cas d’usage, il apparaît évident que bon nombre
d’entre eux ne savent pas encore réellement estimer l’effort
à engager, la composition des compétences, les activités et les
savoir-faire pour aller le plus directement au but : détecter
des niches de plus-value ayant un ROI notable.
Ayant été confrontés depuis plusieurs années à la recherche
du signifiant et de la valeur que les données peuvent dégager,
nous avons été amenés à traiter le sujet sous l’angle de la
« data complexity ». Notre démarche consiste à tirer parti
des innombrables croisements qu’offre la superposition de
plusieurs jeux de données. L’aspect hautement combinatoire
des sujets de recherche les plus fréquents de connaissance
dans les données n’est pas résolu par la Business Intelligence
traditionnelle. Il s’agit d’y adjoindre une couche de calcul
pour simplifier et détecter les éléments multidimensionnels
qui concourent à l’explication de phénomènes (à risque ou à
opportunité) et à l’activation des leviers de performance.
L’expérience montre que les boîtes noires de calcul et les
résultats des techniciens de la statistique ne sont plus
suffisants. Il s’agit de présenter de façon compréhensible à
La Data Science, deuxième marche du Big Data, ou comment év
Par Stéphane Chauvin, CEO de MyDataBall, partenaire start-up de Gfi Informatique
| LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA | 282828
| LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA |
iter une fois de plus de reculer d’un pas.
“
POUR ALLER PLUS LOIN
RETROUVEZ TOUS NOS AVIS D’EXPERTS
EN SCANNANT CE QR CODE
des acteurs métiers les atypismes et faits
remarquables que l’algorithmique peut
extraire. C’est bien le métier qui valide ce
qui a du sens et non pas la logique seule.
Au travers de la création de notre solution
de « data science », nous avons en quelque
sorte condensé une partie des activités
que des équipes de « data science »
doivent mener au quotidien.
La réalité montre qu’il est fréquemment
demandé aux « data scientists » plus
qu’ils ne peuvent apporter dans leur
grande majorité. Le gain méthodologique
doit porter non seulement sur le temps
accordé à la collecte, la compréhension et
la réconciliation des données, mais aussi
sur les choix des méthodes et algorithmes
correspondant au problème et également
sur la façon de représenter les données
et de les rendre accessibles à différents
métiers. C’est bien l’affaire d’une équipe
pluridisciplinaire qui doit s’organiser
autour d’une investigation commune
et accéder visuellement à des résultats
denses et parfois complexes. Tel est le
challenge du partage de la connaissance
dans un monde de données.
292929
4.
UN ‘DATALAKE’
DÉJÀ EN
CONSTRUCTION
POUR 60 % DES
ENTREPRISES.
| LES VRAIS CHIFFRES DU BIG DATA | 32
O
n peut certainement tabler sur le
fait que, d’ici quelques années, tout
responsable métier pourra accéder
à l’ensemble des données dont il aura besoin
(données archivées, données de production
en temps réel, etc.) d’un simple clic, et que
des systèmes intelligents auto-apprenants lui
permettront d’évaluer plusieurs scénarios et
de réaliser une analyse pertinente sans passer
par la case « requête spécifique à la DSI ».
Parvenir à un tel scénario, cependant,
demandera des efforts et une certaine
coopération pour sortir des KPI exprimés par
des métiers distincts et des données stockées
en silos. Les DSI devront donc repenser leur
organisation ainsi que l’architecture des
systèmes de stockage et de traitement des
données de façon à supporter ces nouveaux
usages.
La nécessité de disposer d’un moyen d’accéder
à l’ensemble des données de l’entreprise quel
que soit leur emplacement est reconnue par
nos répondants, qui sont 61 % à avoir mis en
place, ou prévu de mettre en place, un outil
offrantunevueunifiéedesdonnées.Leconcept
de « datalake », regroupant l’ensemble des
données pour faciliter leur exploration, est lui
aussi plébiscité, avec 60 % des suffrages.
Si dans certains cas, le « datalake » peut
s’apparenter en fait à une évolution/
complémentarité des traditionnels
datawarehouses, notre étude montre
également une forte appétence pour les
technologies nouvelles et alternatives,
comme les bases de données en mémoire,
qui permettent de manipuler des données
en mode temps réel, et autres systèmes
de stockage et d’accès à la donnée de type
NoSQL.
Une autre évolution notable concerne
l’irruption du Cloud dans les architectures
de stockage et de traitement de la donnée,
qu’il s’agisse d’architectures hybrides ou de
systèmes entièrement dans le Cloud. Là aussi,
la transformation numérique a changé la
donne : simplicité de déploiement et agilité du
Cloud, montée en puissance des offres et des
usages, le marché poursuit sa maturation et
offre encore plus de richesse.
Avec l’essor du e-commerce, de l’Internet des
objets, des offres SaaS (Software as a Service)
et des réseaux sociaux, une grande partie des
données est déjà en ligne. Nos répondants
n’hésitent donc plus à recourir à des offres de
des entreprises jugent
que la priorité n°1 est
de mettre en œuvre des
analyses temps réel.
49 %
4.
| LES VRAIS CHIFFRES DU BIG DATA | 33
type SaaS pour l’analyse (64 % ont des projets
déjà réalisés ou démarrés en 2015), mais aussi
àdu PaaS (Platform as aService) pour exploiter
des outils middleware en ligne (61 %). Le
Cloud est ainsi un très bon moyen de disposer
rapidement d’un bac à sable sur Hadoop ou
d’autres outils spécialisés pour tester des cas
d’usage. Il est même envisageable que l’intérêt
d’une partie des entreprises se porte, dans un
proche avenir, vers des offres externalisées
clés-en-main proposant à la fois des outils en
ligne et un service d’analyse de la donnée.
Graphique 6. Les nouvelles architectures de données adoptées à 80 %
62% 16%
16%
21%
17%
17%
19%
61%
61%
60%
57%
51%
Une architecture hybride interne et Cloud
Un outil d’agrégation offrant une vue unifiée des
sources de données
Un environnement de production de type NoSQL
(ou base de données en mémoire)
Un environnement exploratoire
de type « data lake »
Une architecture de données uniquement
dans le Cloud
Un environnement de production
de type cluster Hadoop
Déjà réalisé ou en cours À l’étude
Avis d’expert
| LES VRAIS CHIFFRES DU BIG DATA |
L’écosystème des solutions Big Data est aussi riche, vivant et
Par Jean-François Saluden, Directeur technique BI & Big Data, Gfi Informatique
Avant tout, il est important de rappeler ce
que les solutions technologiques nouvelles
apportent, ainsi que les promesses qu’elles
ne peuvent pas tenir. Même si ces solutions repoussent
les limites de traitement au niveau des 3 V (Volume,
Vitesse, Variété des données), elles sont basées sur les
standards connus tant en matériel (CPU standard, disque
attaché, réseau 10G Ethernet, etc.) qu’en langages (C,
Java, Python, etc.). Leurs bénéfices résident dans le fait
qu’elles gèrent différemment la donnée et la performance
que par le passé.
Cependant, ces familles de solutions (Hadoop, MongoDB,
Cassandra, Neo4J, etc.) ont été bâties chacune pour
des besoins spécifiques en stockage et traitement,
leurs domaines de performance sont donc bornés à
un couplage « type de données stockés/typologie de
traitement ». Par exemple, il n’est pas possible de traiter
les problématiques de récursivité pour trouver les plus
proches voisins dans un graphe social à partir d’une
base comme HBase, alors que cela est aisé pour une
base orientée graphes comme Neo4J. En la matière, bon
nombre de responsables s’abandonnent à des raccourcis
qu’il n’est pas conseillé de prendre. Ce serait comme
de demander à Usain Bolt, qui court le 100 mètres en
| LES VRAIS CHIFFRES DU BIG DATA | 343434| LES VRAIS CHIFFRES DU BIG DATA |
| LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA |
diversifié que le nombre d’épreuves aux J.O.
moins de 9,6 secondes de réitérer son
exploit au 100 mètres nage libre. À chaque
contexte correspond une solution, comme à
chaque challenge correspond une discipline
olympique. Une fois ce concept acquis, cela
ouvre la possibilité de résoudre tout type
de besoins en traitement complexe de la
donnée en combinant plusieurs couches
d’hybridations.
J’en retiendrai deux principales dont la
première est le couplage de différentes
briques Big Data (ex. Kafka pour du temps
réel et HBase pour des accès rapides en
lecture/écriture) et la deuxième, le couplage
de solutions Big Data avec des systèmes
existants SQL et/ou des bases massivement
parallèles analytiques (ex. Teradata, Netezza
ou Vertica). Les combinatoires sont donc
nombreuses, tant le spectre des cas d’usage
est large.
“ POUR ALLER PLUS LOIN
RETROUVEZ TOUS NOS AVIS D’EXPERTS
EN SCANNANT CE QR CODE
353535
5.
60 % DES
PROJETS ‘DATA’
DURENT MOINS
DE 6 MOIS.
| LES VRAIS CHIFFRES DU BIG DATA | 38
L
a capacité d’une entreprise à exploiter
au mieux ses données pour optimiser
son fonctionnement et inventer de
nouveauxservicescréateursdevaleurnerelève
pas tant de problématiques technologiques
que de facteurs organisationnels et culturels
internes.On l’avu, lestechnologies existent, et
si les compétences ne sont pas suffisamment
nombreuses en interne pour les mettre en
œuvre, elles sont disponibles auprès des
prestataires de l’entreprise.
Les freins les plus sérieux relèvent surtout de
l’organisation interne : il faut non seulement
concilier les aspirations contradictoires
d’équipes IT qui aiment la stabilité et
d’équipes métier qui veulent aller vite mais
en ordre dispersé, mais également bousculer
les façons de penser à tous les niveaux. La
direction générale doit prendre conscience
que l’entreprise évolue dans un nouvel
environnement, que les concurrents ont
changé de nature (ces fameux GAFA – Google,
Amazon,Facebook&Apple–etNATU–Netflix,
Airbnb, Tesla & Uber – qui bousculent les
industries traditionnelles) et que tout évolue
très vite. Les équipes métier et IT doivent de
leur côté penser en termes d’expérience client
et privilégier des approches agiles, explorer les
différentes possibilités, sans peur d’échouer :
cela fait partie du processus.
On constate d’ailleurs une importante
évolution quant à la durée des projets. Les
projets qui s’étalent sur plusieurs années ne
sont pas légion et c’est heureux : dans un
Graphique 7. Une majorité de projets courts
22 %
38 %
21 %
9 %
6 %
4 %
moins de
3 mois
4 à 6
mois
7 > 12 13 > 18 19 > 24 plus de 24
c’est le taux
d’entreprises qui
jugent très forts les 4
freins suivants dans les
projets de valorisation
de la donnée :
• la culture d’entreprise
• le manque de compétences
internes
• la résistance des équipes IT
• la volonté d’autonomie des
métiers par rapport à l’IT
23 à 25 %
5.
Durée moyenne des projets de création de services numériques
basés sur de la donnée, en mois.
| LES VRAIS CHIFFRES DU BIG DATA | 39
contexte où tout évolue très vite, les projets se
font plus courts. Ilfaut en effet savoir répondre
rapidement à une demande, exploiter un
marché, bien se positionner pour bénéficier
d’une fenêtre d’opportunité, en privilégiant
donc des démarches agiles et itératives, sans
perdre de vue une stratégie et des objectifs à
plus long terme.
L’exploration des bonnes pratiques mises en
œuvre et recommandées par les entreprises
montre que, si les anciens schémas de pensée
ressortent en premier (« il faut des moyens
financiers et humains »), on commence à voir
émergerdenouvellespratiquesindispensables,
qui relèvent d’une décision stratégique et
transversale de déverrouiller la donnée.
Force est de constater, en revanche, que peu
de répondants citent parmi leurs priorités
le sponsoring du top management, or
l’implication de la direction générale est
indispensable pour faire bouger l’ensemble
des lignes. L’entreprise ne pourra, la plupart
du temps, mener sa stratégie à bien qu’en
transformant les métiers en interne.
De même, rares sont les entreprises à se mettre
à la place du client pour imaginer de nouveaux
services, dans un processus d’apprentissage et
d’amélioration continue. Mais cela viendra :
nous ne sommes qu’au début de l’adaptation
culturelle des entreprises à l’économie
numérique et à ses nouveaux usages.
Graphique 8. Des bonnes pratiques encore peu adaptées aux nouveaux enjeux
14 % 12 % 11 %
11 % 7 % 14 %
10 %12 % 8 %
11 %8 % 10 %
8 %9 % 10 %
5 %9 % 11 %
7 %6 % 9 %
6 %10 % 5 %
7 %6 % 7 %
6 %6 % 8 %
7 %5 % 6 %
7 %4 % 5 %
Allocation de moyens financiers
Constitution d’une équipe mixte : métiers et IT
Autorisation du management d’accéder à toute la donnée
pertinente de l’entreprise
Allocation de moyens humains
Désignation d’un responsable transversal de la donnée
Désignation d’un responsable transversal de la transformation
numérique (« chief digital officer »)
Apprendre à composer avec la logique Test/Fail & Learn
S’appuyer sur un plan de communication ciblé
Implication d’une ou plusieurs start-up
Sponsoring du Top Management
Ateliers d’affinage des cas d’usage en plaçant l’ergonomie et les
points d’intérêt des consommateurs/utilisateurs au centre
Ne pas chercher à être industriel/parfait dès le démarrage
Rang 1 Rang 2 Rang 3
Bonnes pratiques recommandées, par ordre d’importance. Exemple de lecture : pour 14% des répondants, la priorité n°1 est
d’obtenir des moyens financiers. Au total, 37% des répondants classent cette pratique dans les 3 premières priorités.
Avis d’expert
| LES VRAIS CHIFFRES DU BIG DATA |
Les repères pour réussir ces projets nous amènent à changer nos
Par Claude Daub, Architecte senior Big Data, Gfi Informatique
Il existe plusieurs approches pour débuter.
Le recours à une étude de cadrage ou l’appui
d’une compétence extérieure qui a déjà du
vécu, par exemple. Cela peut passer par l’acquisition d’un
peu de matériel pour constituer un premier cluster et de
quelques licences (notamment en « data visualisation »).
Parfois, on commence par une étude quantitative via
une start-up. Mais ça, c’était avant. Aujourd’hui, les
programmes ont mûri à tous les étages. Les cellules
d’architectures ont pré-sélectionné des choix de solutions
logicielles et de matériels. Les métiers ont recensé
parfois jusqu’à plus d’une centaine de « use cases ».
Enfin, la direction générale a imaginé une nouvelle
organisation ou bien les modifications nécessaires au sein
des organisations existantes avec parfois le support de sa
cellule innovation comme incubateur.
Depuis mi-2105, nous assistons à une réelle mue des
réalisations des projets Big Data où les méthodes les
plus abouties sont inspirées pour beaucoup du monde du
Digital. Les principales méthodes et bénéfices à retenir
portent sur les méthodologies projets, pratiques et
organisations, les nouvelles formes de communication
ainsi que les négociations intra-métier en ce qui concerne
l’accès à la donnée. D’une part, les méthodologies projets
| LES VRAIS CHIFFRES DU BIG DATA | 404040| LES VRAIS CHIFFRES DU BIG DATA |
| LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA |
habitudes et notre de façon de concevoir le monde.
itératives de type « Test, Fail and Learn
Fast » augmentées par des pratiques
comme MVP (Minimum Valuable Product)
et DevOps, garantissent les meilleures
chances à un projet d’aboutir étant donné
que les technologies déployées sont
encore mal maîtrisées et les « use cases »
métier souvent non encore affermis
par une étude quantitative aboutie.
Pour répondre à cela, il est impératif de
constituer une équipe pluridisciplinaire
métier, DSI et sachants Big Data, en
nombre restreint et localisée au même
endroit (idéalement un plateau projet).
Par ailleurs, faire parler les multitudes de
données entre elles exige de rapprocher
des métiers jusque-là cloisonnés et
d’échanger avec les référents des
systèmes producteurs des données. Les
nouveaux outils de communication adaptés
à cela sont le « data storytelling » et les
moyens visuels et vidéos hérités cette
fois-ci des agences de communication,
comme l’ont démontré à plusieurs reprises
les équipes de notre agence Awak’iT.
À cela, peuvent s’ajouter d’autres
catalyseurs indispensables comme
les approches de co-création de
valeur de type « design thinking » qui
permettent de projeter dès le départ le
consommateur/usager au sein de son
nouveau service digital. S’il persistait
enfin des points de blocage quant à l’accès
de la donnée, il serait plus efficace de
chercher à concilier les intérêts de chacun
des fournisseurs de données via des
approches de contrepartie indirecte.
“
POUR ALLER PLUS LOIN
RETROUVEZ TOUS NOS AVIS D’EXPERTS
EN SCANNANT CE QR CODE
414141
LA VISION
DE GFI
INFORMATIQUE.
—
Architecte ensemblier de vos projets Big Data.
6.
| LES VRAIS CHIFFRES DU BIG DATA | 44
L
es pratiques décisionnelles assez
largement rependues chez les ESN
(Entreprises de services numériques)
légitiment une sous-partie des « practices »
BI à traiter les sujets de la donnée. En effet,
elles traitent leur gouvernance, leur véracité,
leur cycle de vie et leur utilisation par les
métiers tant sur le plan du pilotage de la
performance opérationnelle que sur celui de
l’analyse descriptive. Ces équipes habituées
aux modèles de données et aux KPI et
dashboards, quand elles s’attachent à donner
un sens pragmatique aux indicateurs auprès/
avec les métiers, sont alors prédisposées à
basculer dans le monde ouvert des nouveaux
modèles business, du « data storytelling »
et des analyses dont le sens est enfoui dans
le détail de la complexité des données : le
fameux « data driven ».
Depuis 2008, Gfi Informatique a pris le virage
du « data driven » pour le compte d’un grand
avionneur mondial afin de découvrir, à l’aide
de l’exploration algorithmique, comment
réduire les coûts de maintenance des
moteurs et également fiabiliser l’arrivée des
nouvelles générations de long-courriers. Les
enseignements ont été nombreux et se sont
enrichis depuis, au fil des années et d’autres
clients dans d’autres secteurs d’activité
pour arriver à la conclusion évidente qu’une
ESN seule ne peut assumer la complexité
des changements que le Digital distille au
fur et à mesure de son expansion. Après la
révolution de la « data » dans les télécoms,
nous allons entrer dans l’ère des objets
connectés et bientôt des réseaux intelligents
qui étendra le maillage de l’univers Digital
bien au-delà des senseurs des smartphones.
Les bouleversements économiques à l’aune du
retour des « encore réchauffées » approches
analytiques de type « machine learning » et
« deep machine learning » seront encore plus
brutaux que lors de la dernière décennie.
Pour ces raisons, nous travaillons en réseau
et ce de façon fractale. En premier plan, les
ressources avancées des différentes Business
Unit de Gfi Informatique collaborent entre
elles. Leurs forces s’additionnent avec
l’écosystème de start-up françaises de Gfi
Informatique pour au final continuer de
s’adapter aux changements du marché de par
les contraintes que leurs clients/partenaires
leur offrent à co-découvrir. Cette nouvelle
façon d’appréhender les multiples facettes
du monde dépassé de l’informatique est
imposée par les impérieux « drivers » de la
transformation digitale.
Notre position nous amène donc à repenser
nos convictions, nos acquis et savoir-faire
pour rejoindre ce qui se déroule actuellement
dans l’univers des bâtisseurs de « méga-
structures », ceux-là mêmes qui bâtissent
des monuments modernes sans précédents
comme des tours de plus de 800 mètres ou
encore des ponts de plus de 150 kilomètres
de long. Gfi Informatique s’inspire ainsi du
concept d’Architecte Ensemblier à qui l’on
6.
| LES VRAIS CHIFFRES DU BIG DATA | 45
confie un nouvel « édifice de la donnée » qui
rend un nouveau service ou procure des gains
de rentabilité substantiels. La réussite de ces
projets complexes repose sur un équilibre
instable qui évolue sans cesse notamment sur
le plan technologique, de son business model,
ou des contraintes réglementaires.
De nouvelles perspectives s’ouvrent et
imposentànotresociétéderéfléchirsurautant
de sujets d’actualité que le Digital Banking,
l’Usine 4.0, l’Internet des Objets, ou bien
encore le Customer Experience Management.
Les changements de paradigme touchent
toutes les thématiques du Digital, à
commencer par le Big Data.
Nous découvrons ainsi qu’il n’est plus suffisant
de faire former et certifier des ingénieurs
sur Hadoop, mais que le « Mindset », l’état
d’esprit, est prédominant. Car les chiffres sont
là : 80 % des ingénieurs certifiés n’arrivent pas
à développer sur les nouvelles technologies.
Ceux qui y parviennent regroupent un certain
nombre de compétences intrinsèques comme
la capacité à apprendre un nouveau langage
rapidement, à s’attacher à comprendre
comment fonctionne un système ou un
langage, à être suffisamment autonome, à
apprendre pas à pas en expérimentant plutôt
que d’attendre une formation institutionnelle,
et bien d’autres qualités encore.
L’accumulationdechangementsdeparadigmes
nous a conduit, à l’instar de grandes sociétés,
à nous doter d’une cellule Innovation qui
incube depuis plus d’un an un certain nombre
d’essais, de co-développements avec de
grands clients, et ce pour créer une partie des
services de demain, à l’image de solutions
mobiles citoyennes comme City Hub ou bien
encore de la vision à 360° des camions pour
Volvo Truck.
La création de nouveaux services ne s’arrêtant
bien sûr pas aux frontières de l’Innovation,
notre branche Software, qui est notamment
leader des solutions sur le marché de l’édition
progicielle à destination des collectivités
locales en France avec plus de 60 produits et
plus de 40 % des parts de marché, suit elle
aussi le mouvement de la transformation
digitale. Sa dernière-née en la matière est
VigieSI, dont le socle repose sur les solutions
du monde Big Data.
Avis d’expert
| LES VRAIS CHIFFRES DU BIG DATA |
Qu’il s’agisse de la connaissance de ses clients,
d’informations liées à son métier ou de son
savoir-faire, les données informatiques d’une
entreprise sont de plus en plus stratégiques et sensibles.
La valeur accordée à ces données conditionne un besoin
d’intégrité, de disponibilité et impose également sa
confidentialité. Dans ce contexte, il est essentiel de
détecter au plus tôt les cyber-attaques, d’alerter et de
disposer de moyens d’analyse des activités suspectes.
VigieSI supervise la sécurité du système d’information
(SI) de l’entreprise en temps réel, permettant ainsi
d’améliorer la posture de sécurité de l’entreprise.
Dans le cadre du Programme d’investissements d’avenir
(PIA), l’État a alloué un budget de 150 millions d’euros
au développement et à la diffusion des technologies du
« cœur de filière du numérique ». La sécurité numérique
fait partie des quatre thèmes ciblés. C’est suite à un
appel à projet du PIA autour de cette problématique
que Gfi Informatique a été sélectionné par un comité
associant notamment Bpifrance, la Direction générale
des entreprises, le ministère de la Défense et l’Agence
nationale de la sécurité des systèmes d’information
(ANSSI). Le soutien de l’État vise à financer des
développements innovants venant compléter la solution
L’offre anti-intrusion française des systèmes d’information :
Par Fabien Corrard, Solution Manager VigieSI, Gfi Informatique
Présentation d’offre
464646| LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA |
| LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA |
VigieSI afin qu’elle puisse répondre aux
attentes de grands comptes dans le
domaine de la sécurité.
La solution VigieSI fait partie de la
nouvelle génération des SIEM (Security
Information and Event Management) :
elle propose une approche « small data »
pour l’analyse temps réel du SI à l’aide
de puissants corrélateurs d’événements,
ainsi qu’une approche Big Data pour
l’analyse a posteriori des événements
de sécurité. Son module de « machine
learning » permet de faire de l’analyse
comportementale à partir d’algorithmes
d’intelligence artificielle. Ce module
permet de détecter les nouvelles
attaques et les signaux faibles. Grâce
à son architecture de calcul distribué,
la solution s’adapte à la volumétrie en
entrée, pouvant même provisionner
automatiquement des machines
virtuelles si elle est hébergée dans une
infrastructure de type Cloud.
Lors du Forum
International de
la Cybersécurité
(FIC) tenu à Lille
les 25 & 26 janvier
2016, regroupant les plus grands acteurs
internationaux de cyber-sécurité, Gfi
Informatique s’est vu remettre le label
« FRANCE CYBERSECURITY 2016 » pour sa
solution VigieSI délivré par l’Alliance pour
la confiance numérique (ACN) des mains
du député Frédéric Lefebvre. Ce label est
destiné à promouvoir les produits français
dits « souverains ».
“
VigieSI.
POUR ALLER PLUS LOIN
RETROUVEZ TOUS NOS AVIS D’EXPERTS
EN SCANNANT CE QR CODE
474747
TÉMOIGNAGES.
7.
—
Plusieurs clients de Gfi Informatique nous ont fait
l’amitié de témoigner ici de leur recours au Big Data.
Nous les en remercions infiniment.
| LES VRAIS CHIFFRES DU BIG DATA | 50
MINISTÈRES ÉCONOMIQUES
ET FINANCIERS
Par le coordinateur du projet SIRANO
LE CONTEXTE DU PROJET
Dans le cadre de sa mission de lutte contre la fraude, le secrétariat général
des ministères économiques et financiers a lancé fin 2014 le programme
SIRANO visant à mettre en évidence des typologies de fraude sur la base
du recoupement de différents types d’informations détenues par ses
administrations et d’autres sources externes (Open Data notamment).
SIRANO fait partie des 50 projets SI de haute importance pour le
gouvernement et son déroulement est supervisé à ce titre par la DINSIC
(Direction interministérielle du numérique et des systèmes d’information et
de communication de l’État).
Résolument orienté vers la donnée, le nouveau système met en œuvre
plusieurs technologies récentes relevant du Big Data (écosystème Hadoop
et traitements d’analyse « machine learning » notamment) afin de répondre
à deux enjeux :
• Le fort taux d’accroissement des données disponibles alors que le nombre
d’agents chargés de les exploiter n’a pas vocation à évoluer aussi rapidement ;
• Les opportunités offertes par le croisement massif des données complexes
d’origines diverses afin de mettre en évidence des comportements atypiques.
L’objectif final de la démarche est d’intégrer pleinement les résultats de ces
analyses dans le processus de sélection des investigations afin de traiter en
priorité et de fiabiliser les dossiers présentant le plus fort intérêt en termes
économiques notamment.
LES BÉNÉFICES DE LA PLATEFORME BIG DATA
Les bénéfices se retrouvent tout d’abord dans la faculté de l’environnement
Hadoop à faire face à la croissance soutenue des données susceptibles
d’être collectées dans les années à venir (celles issues du secteur bancaire
notamment x 1 000), et ce pour des coûts maîtrisés, ainsi que la possibilité
“
TÉMOIGNAGE —
| LES VRAIS CHIFFRES DU BIG DATA | 51
de mettre en place des traitements synchrones sur
la base d’un flot permanent de données ingérées,
ce qui pour nous est nécessaire compte tenu des
contraintes de réactivité qui sont les nôtres sur
certains sujets (saisie d’avoirs par exemple).
Ensuite, le Big Data nous donne la possibilité de
valoriser pleinement la masse d’informations
détenues par nos administrations en mettant en
place de manière itérative des traitements d’analyse
massive capables non seulement de faire ressortir
par croisement des phénomènes atypiques liés à
des schémas de fraude connus, dans une logique
d’amélioration continue (« machine learning »),
voire d’explorer toute cette masse de données
sans pour autant savoir quelle fraude rechercher...
Ce point est particulièrement important dans un
contexte comme le nôtre où les fraudeurs font
parfois preuve de beaucoup d’imagination.
De fait, cette nouvelle approche technique permet
de considérer l’accumulation de données comme
une réelle opportunité dans un domaine où l’État
s’est fixé des objectifs d’efficacité très ambitieux.
LES APPORTS DE GFI INFORMATIQUE
Nous avons d’abord trouvé chez Gfi Informatique
des gens passionnés qui nous ont fait prendre
conscience qu’il n’est pas nécessaire de disposer de
très gros volumes de données pour commencer à
augmenter la pertinence de nos analyses.
De plus, dans un domaine technique en manque de
maturité, l’approche industrielle de Gfi Informatique
consistant à s’appuyer en partie sur un réseau de
partenaires technologiques à forte valeur ajoutée
(« pure players ») nous a semblé particulièrement
sécurisante.
Enfin, ils ont également su écouter nos spécificités
pour nous guider sur nos choix d’architectures que
nous avons souhaitées ouvertes afin de permettre
un bon niveau d’appropriation par nos acteurs SI
(exploitants, « data scientists ») et garantir à l’avenir
la montée en charge de SIRANO.
“
SECRÉTARIAT D’ÉTAT
AU BUDGET
MINISTÈRE DES FINANCES
ET DES COMPTES PUBLICS
| LES VRAIS CHIFFRES DU BIG DATA | 52
BUREAU DE RECHERCHES
GÉOLOGIQUES ET MINIÈRES
Par Pierre Lagarde, Responsable de la division Information scientifique et
technologies numériques
LE CONTEXTE DU PROJET
Le BRGM, établissement publicde référencedans les applicationsdes sciences
de la Terre, est l’un des acteurs majeurs de la diffusion de l’information
environnementale en France, notamment sur les données publiques de
l’eau. Avec l’Office national de l’eau et des milieux aquatiques (ONEMA) et
le ministère du Développement durable en charge du pilotage du Système
national d’information sur l’eau (SIE), le BRGM a proposé d’utiliser les
technologies du Big Data afin de répondre à un challenge de ses partenaires :
« Comment rendre les données sur l’eau plus simplement accessibles aux
utilisateurs et favoriser la réutilisation de données dans le cadre de l’Open
Data ? » En effet, en France, les données publiques sur l’eau – mesures de
la qualité des cours d’eau, suivi des niveaux des nappes souterraines, prix
de l’eau potable par service… – sont largement disponibles mais elles sont
produites par des centaines d’organismes, stockées dans des dizaines de bases
de données spécialisées (selon un système d’information distribué avec des
échanges B2B standardisés) et sont structurées dans des formats dédiés aux
experts, entraînant une réutilisation trop complexe.
LES BÉNÉFICES DE LA PLATEFORME BIG DATA
Dans le cadre du programme d’investissement d’avenir (PIA 2015), le BRGM
et l’ONEMA (pôle de recherche et d’innovation INSIDE) ont lancé le projet
d’une plateforme HUB’EAU, une interface de façade entre les données/
formats du SIE et les « ré-utilisateurs ». HUB’EAU collecte toutes les données
sur l’eau, du capteur sur le terrain à l’information réglementaire saisie par
un service de l’État, les « digère » avec des traitements intelligents, puis les
restitue sous forme d’une API simple avec des temps de réponse compatibles
pour des besoins mobiles, applications web, etc.
L’organisation distribuée du SIE, les flux incessants de données dans des
formats spécialisés, la volumétrie continuellement croissante et les
© photothéque BRGM
“
TÉMOIGNAGE —
| LES VRAIS CHIFFRES DU BIG DATA | 53
exigences sur les temps de réponse de l’API nous
ont incités à retenir une solution d’infrastructure
et d’architecture Big Data. Du point de vue
méthodologique, nous avons orienté notre projet
avec une approche dédiée : constitution d’une
équipe pluridisciplinaire regroupant développeurs
web, « data scientists », « devops » et utilisateurs,
puis travail sur des cas d’utilisation courts en
exploitant pas à pas les technologies d’Hadoop
depuis les plus simples jusqu’aux fonctionnalités les
plus poussées – par exemple sur le traitement des
données géographiques ou l’indexation complexe.
Cette stratégie nous permet de mieux comprendre
les forces et les limites du Big Data et de les adapter
au fil de notre expérience pour le meilleur usage
possible.
LES APPORTS DE GFI INFORMATIQUE
Les experts de Gfi Informatique nous ont
accompagnés au long de ce projet, notamment
dans le choix des briques techniques les plus
adéquates pour nos besoins : infrastructure dédiée
dans le datacenter du BRGM et solution Hadoop
HortonWorks.
De plus, la volonté du BRGM a été de monter en
autonomie le plus vite possible sur ces nouveaux
sujets et ce autant sur les volets infrastructures
et exploitation que sur le plan de la maîtrise des
concepts générauxdu Big Data etdes spécificitésdes
modules du framework Hadoop ou des technologies
NoSQL. Nous voulions choisir par nous-mêmes et
les équipes de Gfi Informatique ont su nous faire
comprendre rapidement ce nouvel univers par de
nombreux retours d’expériences et parfois certaines
métaphores fort utiles.
Le projet HUB’EAU est une première expérience
pour le BRGM dans le Big Data. L’étude du meilleur
appareillage technologique, la commande, la mise
en œuvre du cluster Hadoop et les formations des
équipes d’exploitation et de développement auront
été menées en moins de 4 mois conjointement avec
les équipes deGfi Informatique. D’autres cas d’usage
sont déjà imaginés avec la communauté scientifique
et technique des géosciences et de l’environnement.
Plus d’informations sur le projet HUB’EAU : www.hubeau. fr et api.hubeau.fr “
| LES VRAIS CHIFFRES DU BIG DATA | 54
UN CAS RÉEL DE FRAUDE DU
MONDE DE L’ASSURANCE
LE CONTEXTE DU PROJET
Un assureur s’inquiétait des raisons des disparités
et dérapages des coûts associés à un même type
de sinistre. Suspectant des cas possibles de fraude
de la part de certains assurés automobilistes, les
directions du contrôle de gestion et de l’actuariat
souhaitaient partager les diagnostics élaborés
par les diverses entités régionales et nationales
et analyser ces données, de façon à pouvoir être
automatiquement alertées à l’avenir des suspicions
de fraude (plus de 150 Go de données).
LES BÉNÉFICES DE LA PLATEFORME
MYDATABALL
Durantlapremièrephaseditede« DataCollection »,
le croisement des différents domaines de données
dans un environnement fichiers plats (« datalake »
avec méta-données) a permisde récolter plusde 600
mesures et axes d’analyses : données du conducteur,
du contrat, des antécédents, de l’automobile et de
ses caractéristiques, des conditions de réparation
et des prestataires intervenus sur le sinistre, des
écritures comptables…
Dans la seconde phaseditede « Data Preparation »,
nous avons appliqué des méthodes de type ACP
(Analyse en composantes principales), Cluster,
Régression linéaire, afin de réduire la granularité de
certaines données (nombre de modèles de voiture
par exemple) et ainsi diminuer la variance des règles
à détecter.
Dans la troisième phase dite de « Data
Modelisation », les matrices de corrélation et les
calculs de régression ont permis de construire des
scores de survenance d’événements multi-agents
pour chaque domaine de données et donc de mettre
en place des indicateurs de groupe de données.
Dans la quatrième et dernière phase de « Data
Discovery », l’utilisation d’algorithmes de Random
Forest agrémentés par des techniques de recuit
simulé a permis de calculer un ensemble de relations
à plus de 5 dimensions ayant chacun un score de
qualité de prise de décision.
LES APPORTS DE MYDATABALL
L’application de cette méthodologie en 20 jours a
confirmé le diagnostic sur un fournisseur, un type
de véhicule et une région (différente des régions
assureurs).
Les métiers gérant la fraude suivent son évolution
grâce à l’envoi d’alertes émises en cas de divergence
des diagnostics initiaux sur la base d’un recalcul
automatisé.
“
TÉMOIGNAGE —
Par StéphaneChauvin, CEO de MyDataBall, partenaire start-up deGfi Informatique
Gfi Informatique tient également à remercier
chaleureusement les personnes suivantes :
Pierre Foulquier, Pierre Lagarde, Bruno Chapuis,
Gilles Duvat, Pierre Montcel, Jean-Pierre de Araujo,
Sylvie Rebaudo, Olivier Rafal, David Gautier,
Vincent Gelineau, Cyril Carretero, Claude Daub,
Jean-François Saluden, Florent Bornard, Fabien Corrard,
Stéphane Chauvin, Pascal Nanni, Sébastien Dupuis,
Stéphane Maisonneuve, Jean Taboni, Maxime Toledano,
Jérôme Nabec, Armelle Giroud, Laurent Sollier,
Bernard Lehembre et Mylène Couvidoux.
—
Remerciements
—
Gfi Informatique remercie tous les interlocuteurs ayant permis
la réalisation de ce livre blanc co-rédigé par
Alvin Ramgobeen et l’analyste PAC ainsi que l’ensemble
des relecteurs dont les éclairages multiples contribuent à la
lisibilité d’un sujet émergeant, complexe et motivant.
Gfi Informatique tient à remercier MyDataBall, start-up
française dont l’outil de visualisation des données a été mis à
contribution pour analyser les données de l’enquête et mettre
en exergue un certain nombre d’éléments saillants.
MyDataBall représente les données complexes sous forme
d’arborescences, afin d’identifier les corrélations pertinentes
de tous les indicateurs et variables présents dans des jeux de
données différents.
| LES VRAIS CHIFFRES DU BIG DATA | 55
| LES VRAIS CHIFFRES DU BIG DATA | 56
Annexe
Méthodologie de l’enquête réalisée pour Gfi Informatique
—
PAC, une société du groupe CXP, a réalisé une enquête pour Gfi Informatique en juin et juillet
2015 auprès de 221 organisations de 200 personnes et plus en France, sur des problématiques
liées à la valorisation des données dans un contexte de transformation numérique.
Les graphiques suivants montrent la composition de l’échantillon interrogé.
21 %
Industrie
et Énergie
Transport/
Logistique
Banque/Assurance
Distribution/
Commerce
Télécoms/
Utilities
Public
Services
Autre
16 %
14 %
13 %
7 %
20 %
3 %
6 %
5 000 et plus
de 1 000 à 4 999
personnes
de 500 à 999
personnes
de 200 à 499
personnes
22 %
28 %
30 %
20 %
DSI/Responsable SI
Spécialiste
de la donnée
Autre
Di�ecteur/Responsable
métier (aut�es)— 10 %
Di�ecteur/Responsable
logistique— 3 %
Di�ecteur/Responsable
Ma�keting— 2 %
Di�ecteur/Responsable
RH— 2 %
Président/DG
Responsable
transversal
rattaché
à la DG
(CDO, CMO...)
7 %
9 %
17 %
38 %
19 %
10 %
Directeur/Responsable ventes
Graphique 9. Répartition des répondants à
l’enquête par secteur d’activité
Graphique 11. Répartition des répondants par
taille d’entreprise
Graphique 10. Répartition des répondants par
domaine fonctionnel
| LES VRAIS CHIFFRES DU BIG DATA | 57
Résultats exhaustifs de l’étude
—
Le texte de ce livre blanc s’appuie sur des éléments saillants de l’étude, que nous souhaitions
mettre en avant et détailler. Cependant, d’autres enseignements peuvent être tirés des
résultats, comme la liste complète des freins à prendre en compte lors de l’élaboration d’un
projet de transformation basé sur la donnée, ou les modes de financement envisagés ou déjà
mis en œuvre pour permettre l’éclosion des nouvelles offres de services numériques. On
apprend ainsi que 22 % des entreprises pratiquent la revente de données à des tiers, tandis
que 45 % envisagent de le faire.
Dans un souci de partage avec le plus grand nombre, et afin que chacun puisse en tirer ses
conclusions en fonction de son contexte, nous publions les autres résultats de cette étude en
ligne, sur le site www.gfi.fr.
Autres études citées dans le document
—
Ce livre blanc s’appuie en premier lieu sur l’enquête réalisée pour Gfi Informatique. Notre
expertise sur le sujet se fonde aussi sur des centaines d’interactions chaque année avec les
utilisateurs comme les fournisseurs de technologies, ainsi que sur d’autres enquêtes, dont
vous trouverez les sources des plus récentes ci-dessous :
• Big Data Use Cases 2015 : enquête réalisée par BARC, une société du groupe CXP, auprès
de 559 organisations dans le monde, sur leur usage de la donnée.
À télécharger sur : http://goo.gl/e0vZOx (téléchargement gratuit)
• CxO 3000 - Investment Priorities – Big Data - Market InSight - Worldwide : étude
réalisée par PAC, une société du groupe CXP, auprès de 3000 organisations dans le monde,
sur leurs priorités en matière d’investissement IT.
À télécharger sur : https://goo.gl/K8cV9L (document payant)
• Document de synthèse Syntec Numérique : de la data au Big Data : enquête réalisée
par PAC à la demande de Syntec Numérique auprès de 100 profils métier en France sur
leurs projets de valorisation de la donnée (document réservé aux membres de Syntec
Numérique).
| LES VRAIS CHIFFRES DU BIG DATA | 58
À PROPOS DE GFI INFORMATIQUE
Acteur européen de référence des services informatiques à valeur ajoutée et
des logiciels, Gfi Informatique occupe un positionnement stratégique différenciant entre
les opérateurs de taille mondiale et les acteurs de niche. Avec son profil
de multi-spécialiste, le Groupe met au service de ses clients une combinaison unique
de proximité, d’organisation sectorielle et de solutions de qualité industrielle.
Le Groupe qui compte près de 12 000 collaborateurs a réalisé en 2015
un chiffre d’affaires de 894 M€.
Pour plus d’informations : www.gfi.fr
Suivez-nous sur Twitter : @gfiinformatique
À PROPOS DE PAC
Fondé en 1976, Pierre Audoin Consultants (PAC) fait partie du CXP Group, le premier
cabinet européen indépendant d’analyse et de conseil dans le domaine des logiciels,
des services informatiques et de la transformation numérique. Il offre à ses clients un
service complet d’assistance pour l’évaluation, la sélection et l’optimisation de solutions
logicielles, l’évaluation et la sélection des ESN et les accompagne dans l’optimisation
de leur stratégie de sourcing et dans leurs projets d’investissements. Ainsi, le CXP Group
accompagne DSI et directions fonctionnelles dans leur transformation numérique.
Enfin, le Groupe CXP aide les éditeurs et les ESN à optimiser leur stratégie et leur go-
to-market à travers des analyses quantitatives et qualitatives ainsi que des prestations
de conseil opérationnel et stratégique. Les organisations et les institutions publiques se
réfèrent également à nos études pour développer leurs politiques informatiques.
Capitalisant sur 40 ans d’expérience, implanté dans 8 pays (et 17 bureaux dans le
monde), fort de 140 collaborateurs, le CXP Group apporte chaque année son expertise
à plus de 1 500 DSI et directions fonctionnelles de grands comptes et entreprises du
mid-market et à ses fournisseurs. Le CXP Group est composé de 3 filiales : le CXP, BARC
(Business Application Research Center) et Pierre Audoin Consultants (PAC).
Pour plus d’informations : www.pac-online.com/fr
Suivez-nous sur Twitter : @PAC_FR
/gfiinformatique
@gfiinformatique
/company/gfi-informatique
/gfiinformatique
/gfiinformatique
@gfiinformatique
/company/gfi-informatique
/gfiinformatique
Publié par
Gfi Informatique
145 boulevard Victor Hugo, 93400 Saint-Ouen
Contact : Alvin Ramgobeen
alvin.ramgobeen@gfi.fr
et
Pierre Audoin Consultants (PAC)
Groupe CXP
8 avenue des Ternes, 75017 Paris
Contact : Olivier Rafal
o.rafal@pac-online.com
—
Conception graphique
© Gfi Informatique,
Département Marketing et Communication
—
Impression
Handiprint, Groupe Lecaux
31 rue des peupliers
92000 Nanterre
—
Crédits photos
© Fotolia.com
—
www.gfi.fr
/gfiinformatique
@gfiinformatique
/company/gfi-informatique
/gfiinformatique
/gfiinformatique
/@gfiinformatique
/company/gfi-informatique
/gfiinformatique

Más contenido relacionado

La actualidad más candente

Ouverture des données publiques, à chacun ses enjeux!
Ouverture des données publiques, à chacun ses enjeux!Ouverture des données publiques, à chacun ses enjeux!
Ouverture des données publiques, à chacun ses enjeux!eGov Innovation Center
 
(Big) Data, opportunités et défis - Ludovic Levy - Orange - Forum du GFII 2014
(Big) Data, opportunités et défis - Ludovic Levy - Orange - Forum du GFII 2014(Big) Data, opportunités et défis - Ludovic Levy - Orange - Forum du GFII 2014
(Big) Data, opportunités et défis - Ludovic Levy - Orange - Forum du GFII 2014Le_GFII
 
1-2-Economie-Georgios Fradelos Big Data et évolution des Big Data-3
1-2-Economie-Georgios Fradelos Big Data et évolution des Big Data-31-2-Economie-Georgios Fradelos Big Data et évolution des Big Data-3
1-2-Economie-Georgios Fradelos Big Data et évolution des Big Data-3Georgios Fradelos
 
LA TRANSFORMATION NUMÉRIQUE DE L'ÉCONOMIE TUNISIENNE : VECTEURS ET DIVIDEN...
LA TRANSFORMATION  NUMÉRIQUE  DE L'ÉCONOMIE TUNISIENNE :  VECTEURS ET DIVIDEN...LA TRANSFORMATION  NUMÉRIQUE  DE L'ÉCONOMIE TUNISIENNE :  VECTEURS ET DIVIDEN...
LA TRANSFORMATION NUMÉRIQUE DE L'ÉCONOMIE TUNISIENNE : VECTEURS ET DIVIDEN...Mahmoud Sami Nabi
 
Big data : Défi, enjeux et impacts métiers
Big data : Défi, enjeux et impacts métiersBig data : Défi, enjeux et impacts métiers
Big data : Défi, enjeux et impacts métiersBruno Patin
 
Ey étude (Big) data - Où en sont les entreprises françaises ?
Ey étude (Big) data - Où en sont les entreprises françaises ?Ey étude (Big) data - Où en sont les entreprises françaises ?
Ey étude (Big) data - Où en sont les entreprises françaises ?polenumerique33
 
Note d'analyse - Demain, l'Internet des objets
Note d'analyse - Demain, l'Internet des objets Note d'analyse - Demain, l'Internet des objets
Note d'analyse - Demain, l'Internet des objets polenumerique33
 
Numerique moteur de croissance
Numerique moteur de croissanceNumerique moteur de croissance
Numerique moteur de croissanceLaurent Fiard
 
Qu’est ce que l’internet industriel?
Qu’est ce que l’internet industriel?Qu’est ce que l’internet industriel?
Qu’est ce que l’internet industriel?REPEX
 
L'intelligence artificielle appliquée aux infrastructures routières et à la m...
L'intelligence artificielle appliquée aux infrastructures routières et à la m...L'intelligence artificielle appliquée aux infrastructures routières et à la m...
L'intelligence artificielle appliquée aux infrastructures routières et à la m...Leonard
 
Big Data, Charles Huot, Aproged,février 2013
Big Data, Charles Huot, Aproged,février 2013Big Data, Charles Huot, Aproged,février 2013
Big Data, Charles Huot, Aproged,février 2013ADBS
 
Connected Event - Du Big Data au Smart Data 7Oct2015 - EPFL
Connected Event - Du Big Data au Smart Data 7Oct2015 - EPFLConnected Event - Du Big Data au Smart Data 7Oct2015 - EPFL
Connected Event - Du Big Data au Smart Data 7Oct2015 - EPFLRaphael Rollier
 
Central634_Dossier_completDV_001
Central634_Dossier_completDV_001Central634_Dossier_completDV_001
Central634_Dossier_completDV_001Bruno CAMBOUNET
 
BIG DATA - Les données au service de la business intelligence
BIG DATA - Les données au service de la business intelligenceBIG DATA - Les données au service de la business intelligence
BIG DATA - Les données au service de la business intelligenceJulien DEMAUGÉ-BOST
 
Orange applications for business
Orange applications for businessOrange applications for business
Orange applications for businessAbhishek Sood
 
Quelle stratégie digitale pour les assureurs? - Roland Berger
Quelle stratégie digitale pour les assureurs? - Roland BergerQuelle stratégie digitale pour les assureurs? - Roland Berger
Quelle stratégie digitale pour les assureurs? - Roland BergerChristophe Angoulvant
 
L’IA, une technologie démocratisée et accessible?
L’IA, une technologie démocratisée et accessible?L’IA, une technologie démocratisée et accessible?
L’IA, une technologie démocratisée et accessible?Agence du Numérique (AdN)
 

La actualidad más candente (20)

Ouverture des données publiques, à chacun ses enjeux!
Ouverture des données publiques, à chacun ses enjeux!Ouverture des données publiques, à chacun ses enjeux!
Ouverture des données publiques, à chacun ses enjeux!
 
(Big) Data, opportunités et défis - Ludovic Levy - Orange - Forum du GFII 2014
(Big) Data, opportunités et défis - Ludovic Levy - Orange - Forum du GFII 2014(Big) Data, opportunités et défis - Ludovic Levy - Orange - Forum du GFII 2014
(Big) Data, opportunités et défis - Ludovic Levy - Orange - Forum du GFII 2014
 
1-2-Economie-Georgios Fradelos Big Data et évolution des Big Data-3
1-2-Economie-Georgios Fradelos Big Data et évolution des Big Data-31-2-Economie-Georgios Fradelos Big Data et évolution des Big Data-3
1-2-Economie-Georgios Fradelos Big Data et évolution des Big Data-3
 
LA TRANSFORMATION NUMÉRIQUE DE L'ÉCONOMIE TUNISIENNE : VECTEURS ET DIVIDEN...
LA TRANSFORMATION  NUMÉRIQUE  DE L'ÉCONOMIE TUNISIENNE :  VECTEURS ET DIVIDEN...LA TRANSFORMATION  NUMÉRIQUE  DE L'ÉCONOMIE TUNISIENNE :  VECTEURS ET DIVIDEN...
LA TRANSFORMATION NUMÉRIQUE DE L'ÉCONOMIE TUNISIENNE : VECTEURS ET DIVIDEN...
 
Le Procès du Numérique
Le Procès du NumériqueLe Procès du Numérique
Le Procès du Numérique
 
Big data : Défi, enjeux et impacts métiers
Big data : Défi, enjeux et impacts métiersBig data : Défi, enjeux et impacts métiers
Big data : Défi, enjeux et impacts métiers
 
Ey étude (Big) data - Où en sont les entreprises françaises ?
Ey étude (Big) data - Où en sont les entreprises françaises ?Ey étude (Big) data - Où en sont les entreprises françaises ?
Ey étude (Big) data - Où en sont les entreprises françaises ?
 
Note d'analyse - Demain, l'Internet des objets
Note d'analyse - Demain, l'Internet des objets Note d'analyse - Demain, l'Internet des objets
Note d'analyse - Demain, l'Internet des objets
 
Numerique moteur de croissance
Numerique moteur de croissanceNumerique moteur de croissance
Numerique moteur de croissance
 
2169 bn
2169 bn2169 bn
2169 bn
 
Qu’est ce que l’internet industriel?
Qu’est ce que l’internet industriel?Qu’est ce que l’internet industriel?
Qu’est ce que l’internet industriel?
 
L'intelligence artificielle appliquée aux infrastructures routières et à la m...
L'intelligence artificielle appliquée aux infrastructures routières et à la m...L'intelligence artificielle appliquée aux infrastructures routières et à la m...
L'intelligence artificielle appliquée aux infrastructures routières et à la m...
 
Big Data, Charles Huot, Aproged,février 2013
Big Data, Charles Huot, Aproged,février 2013Big Data, Charles Huot, Aproged,février 2013
Big Data, Charles Huot, Aproged,février 2013
 
Connected Event - Du Big Data au Smart Data 7Oct2015 - EPFL
Connected Event - Du Big Data au Smart Data 7Oct2015 - EPFLConnected Event - Du Big Data au Smart Data 7Oct2015 - EPFL
Connected Event - Du Big Data au Smart Data 7Oct2015 - EPFL
 
Central634_Dossier_completDV_001
Central634_Dossier_completDV_001Central634_Dossier_completDV_001
Central634_Dossier_completDV_001
 
BIG DATA - Les données au service de la business intelligence
BIG DATA - Les données au service de la business intelligenceBIG DATA - Les données au service de la business intelligence
BIG DATA - Les données au service de la business intelligence
 
Big data
Big dataBig data
Big data
 
Orange applications for business
Orange applications for businessOrange applications for business
Orange applications for business
 
Quelle stratégie digitale pour les assureurs? - Roland Berger
Quelle stratégie digitale pour les assureurs? - Roland BergerQuelle stratégie digitale pour les assureurs? - Roland Berger
Quelle stratégie digitale pour les assureurs? - Roland Berger
 
L’IA, une technologie démocratisée et accessible?
L’IA, une technologie démocratisée et accessible?L’IA, une technologie démocratisée et accessible?
L’IA, une technologie démocratisée et accessible?
 

Destacado

2016 - Data & Big Data - weave - PrésentationExtract2
2016 - Data & Big Data - weave - PrésentationExtract22016 - Data & Big Data - weave - PrésentationExtract2
2016 - Data & Big Data - weave - PrésentationExtract2Jonathan Vercruysse
 
DigiData Septembre 2016
DigiData Septembre 2016DigiData Septembre 2016
DigiData Septembre 2016Digitools.io
 
Evolving the service provider architecture to unleash the potential of IoT - ...
Evolving the service provider architecture to unleash the potential of IoT - ...Evolving the service provider architecture to unleash the potential of IoT - ...
Evolving the service provider architecture to unleash the potential of IoT - ...FrenchWeb.fr
 
Building a Scalable Digital Asset Management Platform in the Cloud (MED402) |...
Building a Scalable Digital Asset Management Platform in the Cloud (MED402) |...Building a Scalable Digital Asset Management Platform in the Cloud (MED402) |...
Building a Scalable Digital Asset Management Platform in the Cloud (MED402) |...Amazon Web Services
 
Big Data Industry Insights 2015
Big Data Industry Insights 2015 Big Data Industry Insights 2015
Big Data Industry Insights 2015 Den Reymer
 
Big data landscape v 3.0 - Matt Turck (FirstMark)
Big data landscape v 3.0 - Matt Turck (FirstMark) Big data landscape v 3.0 - Matt Turck (FirstMark)
Big data landscape v 3.0 - Matt Turck (FirstMark) Matt Turck
 
Business & Decision - Atteignez le ROI2 sur vos projets Data - Congrès Big Da...
Business & Decision - Atteignez le ROI2 sur vos projets Data - Congrès Big Da...Business & Decision - Atteignez le ROI2 sur vos projets Data - Congrès Big Da...
Business & Decision - Atteignez le ROI2 sur vos projets Data - Congrès Big Da...Business & Decision
 
Introduction to Oracle Financials
Introduction to Oracle FinancialsIntroduction to Oracle Financials
Introduction to Oracle Financialshasan2000
 
Solution de transfert mobile - Formats d'échange
Solution de transfert mobile - Formats d'échangeSolution de transfert mobile - Formats d'échange
Solution de transfert mobile - Formats d'échangeOCTO Technology
 
Food of the future
Food of the futureFood of the future
Food of the futureKari900
 
Target audience AA 1
Target audience AA 1Target audience AA 1
Target audience AA 1nctcmedia12
 

Destacado (20)

2016 - Data & Big Data - weave - PrésentationExtract2
2016 - Data & Big Data - weave - PrésentationExtract22016 - Data & Big Data - weave - PrésentationExtract2
2016 - Data & Big Data - weave - PrésentationExtract2
 
API pour les nuls
API pour les nulsAPI pour les nuls
API pour les nuls
 
DigiData Septembre 2016
DigiData Septembre 2016DigiData Septembre 2016
DigiData Septembre 2016
 
Démystifions l'API-culture!
Démystifions l'API-culture!Démystifions l'API-culture!
Démystifions l'API-culture!
 
Evolving the service provider architecture to unleash the potential of IoT - ...
Evolving the service provider architecture to unleash the potential of IoT - ...Evolving the service provider architecture to unleash the potential of IoT - ...
Evolving the service provider architecture to unleash the potential of IoT - ...
 
Building a Scalable Digital Asset Management Platform in the Cloud (MED402) |...
Building a Scalable Digital Asset Management Platform in the Cloud (MED402) |...Building a Scalable Digital Asset Management Platform in the Cloud (MED402) |...
Building a Scalable Digital Asset Management Platform in the Cloud (MED402) |...
 
Big Data Industry Insights 2015
Big Data Industry Insights 2015 Big Data Industry Insights 2015
Big Data Industry Insights 2015
 
The Ecosystem is too damn big
The Ecosystem is too damn big The Ecosystem is too damn big
The Ecosystem is too damn big
 
Big data landscape v 3.0 - Matt Turck (FirstMark)
Big data landscape v 3.0 - Matt Turck (FirstMark) Big data landscape v 3.0 - Matt Turck (FirstMark)
Big data landscape v 3.0 - Matt Turck (FirstMark)
 
Business & Decision - Atteignez le ROI2 sur vos projets Data - Congrès Big Da...
Business & Decision - Atteignez le ROI2 sur vos projets Data - Congrès Big Da...Business & Decision - Atteignez le ROI2 sur vos projets Data - Congrès Big Da...
Business & Decision - Atteignez le ROI2 sur vos projets Data - Congrès Big Da...
 
Introduction to Oracle Financials
Introduction to Oracle FinancialsIntroduction to Oracle Financials
Introduction to Oracle Financials
 
Solution de transfert mobile - Formats d'échange
Solution de transfert mobile - Formats d'échangeSolution de transfert mobile - Formats d'échange
Solution de transfert mobile - Formats d'échange
 
Food of the future
Food of the futureFood of the future
Food of the future
 
Pengertian dinul islam ppt
Pengertian dinul islam ppt Pengertian dinul islam ppt
Pengertian dinul islam ppt
 
Target audience AA 1
Target audience AA 1Target audience AA 1
Target audience AA 1
 
Sistemes operatius
Sistemes operatiusSistemes operatius
Sistemes operatius
 
Fake malware and virus scanners
Fake malware and virus scannersFake malware and virus scanners
Fake malware and virus scanners
 
Frogappt1
Frogappt1Frogappt1
Frogappt1
 
2008glhy12a22
2008glhy12a222008glhy12a22
2008glhy12a22
 
ResCNMVMSL2013
ResCNMVMSL2013ResCNMVMSL2013
ResCNMVMSL2013
 

Similar a LIVRE BLANC - Les vrais chiffres du Big Data

Big data, l'accélération d'innovation
Big data, l'accélération d'innovationBig data, l'accélération d'innovation
Big data, l'accélération d'innovationLionel Martins
 
Big Data RenaissanceNumerique
Big Data RenaissanceNumeriqueBig Data RenaissanceNumerique
Big Data RenaissanceNumeriqueFanny Despouys
 
Livre blanc "Big Data" de l'EBG
Livre blanc "Big Data" de l'EBGLivre blanc "Big Data" de l'EBG
Livre blanc "Big Data" de l'EBGMargarita Zlatkova
 
[Data day] Etude sur la data
[Data day] Etude sur la data[Data day] Etude sur la data
[Data day] Etude sur la dataFrenchWeb.fr
 
Etude AKOYA Big Data
Etude AKOYA Big DataEtude AKOYA Big Data
Etude AKOYA Big DataJocelyn Muret
 
Livre Blanc ALTARES: La Data, nouveau disrupteur du business model des entrep...
Livre Blanc ALTARES: La Data, nouveau disrupteur du business model des entrep...Livre Blanc ALTARES: La Data, nouveau disrupteur du business model des entrep...
Livre Blanc ALTARES: La Data, nouveau disrupteur du business model des entrep...Altares D&B
 
Big Data: quelle valeur pour l'entreprise
Big Data: quelle valeur pour l'entrepriseBig Data: quelle valeur pour l'entreprise
Big Data: quelle valeur pour l'entrepriseGenève Lab
 
Livre Blanc Big Data : fin ou renouveau du Marketing ?
Livre Blanc Big Data : fin ou renouveau du Marketing ?Livre Blanc Big Data : fin ou renouveau du Marketing ?
Livre Blanc Big Data : fin ou renouveau du Marketing ?Aproged
 
Livre blanc big data écosystème français
Livre blanc big data écosystème françaisLivre blanc big data écosystème français
Livre blanc big data écosystème françaisMatthias Fille
 
Matinée Découverte Big Data & Data Science - 24012017
Matinée Découverte Big Data & Data Science - 24012017Matinée Découverte Big Data & Data Science - 24012017
Matinée Découverte Big Data & Data Science - 24012017Micropole Group
 
Gfi News - Numéro 4 - Mars 2015
Gfi News - Numéro 4 - Mars 2015Gfi News - Numéro 4 - Mars 2015
Gfi News - Numéro 4 - Mars 2015Inetum
 
Quelques heures à San Francisco...
Quelques heures à San Francisco...Quelques heures à San Francisco...
Quelques heures à San Francisco...Stéphane Toullieux
 
Big data-2-170220212621
Big data-2-170220212621Big data-2-170220212621
Big data-2-170220212621Haifa Akermi
 
Big Data Des méandres des outils au potentiel business
Big Data   Des méandres des outils au potentiel businessBig Data   Des méandres des outils au potentiel business
Big Data Des méandres des outils au potentiel businessMouhsine LAKHDISSI
 
Big data : avis d'Experts
Big data : avis d'ExpertsBig data : avis d'Experts
Big data : avis d'ExpertsLinda Bor
 
Perspectives n°17 aout-septembre 2013 - athénéa conseils
Perspectives n°17   aout-septembre 2013 - athénéa conseilsPerspectives n°17   aout-septembre 2013 - athénéa conseils
Perspectives n°17 aout-septembre 2013 - athénéa conseilsYoann DUCUING
 

Similar a LIVRE BLANC - Les vrais chiffres du Big Data (20)

2014-12-16-G9plus-LB-Big-Data
2014-12-16-G9plus-LB-Big-Data2014-12-16-G9plus-LB-Big-Data
2014-12-16-G9plus-LB-Big-Data
 
Big data, l'accélération d'innovation
Big data, l'accélération d'innovationBig data, l'accélération d'innovation
Big data, l'accélération d'innovation
 
Big Data RenaissanceNumerique
Big Data RenaissanceNumeriqueBig Data RenaissanceNumerique
Big Data RenaissanceNumerique
 
MAGCOM n°4
MAGCOM n°4MAGCOM n°4
MAGCOM n°4
 
Le Big Data
Le Big DataLe Big Data
Le Big Data
 
Livre blanc "Big Data" de l'EBG
Livre blanc "Big Data" de l'EBGLivre blanc "Big Data" de l'EBG
Livre blanc "Big Data" de l'EBG
 
[Data day] Etude sur la data
[Data day] Etude sur la data[Data day] Etude sur la data
[Data day] Etude sur la data
 
Etude AKOYA Big Data
Etude AKOYA Big DataEtude AKOYA Big Data
Etude AKOYA Big Data
 
Livre Blanc ALTARES: La Data, nouveau disrupteur du business model des entrep...
Livre Blanc ALTARES: La Data, nouveau disrupteur du business model des entrep...Livre Blanc ALTARES: La Data, nouveau disrupteur du business model des entrep...
Livre Blanc ALTARES: La Data, nouveau disrupteur du business model des entrep...
 
Big Data: quelle valeur pour l'entreprise
Big Data: quelle valeur pour l'entrepriseBig Data: quelle valeur pour l'entreprise
Big Data: quelle valeur pour l'entreprise
 
Livre Blanc Big Data : fin ou renouveau du Marketing ?
Livre Blanc Big Data : fin ou renouveau du Marketing ?Livre Blanc Big Data : fin ou renouveau du Marketing ?
Livre Blanc Big Data : fin ou renouveau du Marketing ?
 
Livre blanc big data écosystème français
Livre blanc big data écosystème françaisLivre blanc big data écosystème français
Livre blanc big data écosystème français
 
Matinée Découverte Big Data & Data Science - 24012017
Matinée Découverte Big Data & Data Science - 24012017Matinée Découverte Big Data & Data Science - 24012017
Matinée Découverte Big Data & Data Science - 24012017
 
Gfi News - Numéro 4 - Mars 2015
Gfi News - Numéro 4 - Mars 2015Gfi News - Numéro 4 - Mars 2015
Gfi News - Numéro 4 - Mars 2015
 
Quelques heures à San Francisco...
Quelques heures à San Francisco...Quelques heures à San Francisco...
Quelques heures à San Francisco...
 
Big data-2-170220212621
Big data-2-170220212621Big data-2-170220212621
Big data-2-170220212621
 
Big Data Des méandres des outils au potentiel business
Big Data   Des méandres des outils au potentiel businessBig Data   Des méandres des outils au potentiel business
Big Data Des méandres des outils au potentiel business
 
Big data : avis d'Experts
Big data : avis d'ExpertsBig data : avis d'Experts
Big data : avis d'Experts
 
Perspectives n°17 aout-septembre 2013 - athénéa conseils
Perspectives n°17   aout-septembre 2013 - athénéa conseilsPerspectives n°17   aout-septembre 2013 - athénéa conseils
Perspectives n°17 aout-septembre 2013 - athénéa conseils
 
2169 bn
2169 bn2169 bn
2169 bn
 

Más de Inetum

Innovation Guide Pratique
Innovation Guide Pratique Innovation Guide Pratique
Innovation Guide Pratique Inetum
 
Carte identité Groupe Gfi Informatique
Carte identité Groupe Gfi InformatiqueCarte identité Groupe Gfi Informatique
Carte identité Groupe Gfi InformatiqueInetum
 
Marketplaces : point d'étape et perspectives
Marketplaces : point d'étape et perspectivesMarketplaces : point d'étape et perspectives
Marketplaces : point d'étape et perspectivesInetum
 
Présentation de Gfi Espagne
Présentation de Gfi EspagnePrésentation de Gfi Espagne
Présentation de Gfi EspagneInetum
 
Book référence Gfi - Liferay 2016
Book référence Gfi - Liferay 2016Book référence Gfi - Liferay 2016
Book référence Gfi - Liferay 2016Inetum
 
Catalogue de stages et d'alternances (2015 - 2016) - Gfi Informatique
Catalogue de stages et d'alternances (2015 - 2016) - Gfi InformatiqueCatalogue de stages et d'alternances (2015 - 2016) - Gfi Informatique
Catalogue de stages et d'alternances (2015 - 2016) - Gfi InformatiqueInetum
 
[LIVRE BLANC] La transformation numérique du parcours de vie
[LIVRE BLANC] La transformation numérique du parcours de vie[LIVRE BLANC] La transformation numérique du parcours de vie
[LIVRE BLANC] La transformation numérique du parcours de vieInetum
 
LIVRE BLANC : Tendances Innovation 2015-2017
LIVRE BLANC : Tendances Innovation 2015-2017LIVRE BLANC : Tendances Innovation 2015-2017
LIVRE BLANC : Tendances Innovation 2015-2017Inetum
 
LIVRE BLANC : De l’Omni-Commerce au Continuous Commerce, la révolution Digita...
LIVRE BLANC : De l’Omni-Commerce au Continuous Commerce, la révolution Digita...LIVRE BLANC : De l’Omni-Commerce au Continuous Commerce, la révolution Digita...
LIVRE BLANC : De l’Omni-Commerce au Continuous Commerce, la révolution Digita...Inetum
 
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi InformatiqueInetum
 
Découvrez notre produit VigieSI - Gfi Informatique
Découvrez notre produit VigieSI - Gfi InformatiqueDécouvrez notre produit VigieSI - Gfi Informatique
Découvrez notre produit VigieSI - Gfi InformatiqueInetum
 
Responsabilite societale-de-l-entreprise-gfi-informatique
Responsabilite societale-de-l-entreprise-gfi-informatiqueResponsabilite societale-de-l-entreprise-gfi-informatique
Responsabilite societale-de-l-entreprise-gfi-informatiqueInetum
 
LIVRE BLANC : Secteur public - Agenda 2020
LIVRE BLANC : Secteur public - Agenda 2020LIVRE BLANC : Secteur public - Agenda 2020
LIVRE BLANC : Secteur public - Agenda 2020Inetum
 
Forum Secteur Public 2014 de Gfi Informatique
Forum Secteur Public 2014 de Gfi InformatiqueForum Secteur Public 2014 de Gfi Informatique
Forum Secteur Public 2014 de Gfi InformatiqueInetum
 
LIVRE BLANC : "Les nouveaux horizons du PLM"
LIVRE BLANC : "Les nouveaux horizons du PLM"LIVRE BLANC : "Les nouveaux horizons du PLM"
LIVRE BLANC : "Les nouveaux horizons du PLM"Inetum
 
Carte identité 2014 de Gfi Informatique
Carte identité 2014 de Gfi InformatiqueCarte identité 2014 de Gfi Informatique
Carte identité 2014 de Gfi InformatiqueInetum
 
LIVRE BLANC : 10 conseils d’expert pour relever avec succès les défis de la c...
LIVRE BLANC : 10 conseils d’expert pour relever avec succès les défis de la c...LIVRE BLANC : 10 conseils d’expert pour relever avec succès les défis de la c...
LIVRE BLANC : 10 conseils d’expert pour relever avec succès les défis de la c...Inetum
 
Gfi News - Numéro 3 - Juin 2014
Gfi News - Numéro 3 - Juin 2014Gfi News - Numéro 3 - Juin 2014
Gfi News - Numéro 3 - Juin 2014Inetum
 
Gfi News Maroc - Numéro 2
Gfi News Maroc - Numéro 2Gfi News Maroc - Numéro 2
Gfi News Maroc - Numéro 2Inetum
 
Catalogue de stages et d'alternances - Gfi Informatique
Catalogue de stages et d'alternances - Gfi InformatiqueCatalogue de stages et d'alternances - Gfi Informatique
Catalogue de stages et d'alternances - Gfi InformatiqueInetum
 

Más de Inetum (20)

Innovation Guide Pratique
Innovation Guide Pratique Innovation Guide Pratique
Innovation Guide Pratique
 
Carte identité Groupe Gfi Informatique
Carte identité Groupe Gfi InformatiqueCarte identité Groupe Gfi Informatique
Carte identité Groupe Gfi Informatique
 
Marketplaces : point d'étape et perspectives
Marketplaces : point d'étape et perspectivesMarketplaces : point d'étape et perspectives
Marketplaces : point d'étape et perspectives
 
Présentation de Gfi Espagne
Présentation de Gfi EspagnePrésentation de Gfi Espagne
Présentation de Gfi Espagne
 
Book référence Gfi - Liferay 2016
Book référence Gfi - Liferay 2016Book référence Gfi - Liferay 2016
Book référence Gfi - Liferay 2016
 
Catalogue de stages et d'alternances (2015 - 2016) - Gfi Informatique
Catalogue de stages et d'alternances (2015 - 2016) - Gfi InformatiqueCatalogue de stages et d'alternances (2015 - 2016) - Gfi Informatique
Catalogue de stages et d'alternances (2015 - 2016) - Gfi Informatique
 
[LIVRE BLANC] La transformation numérique du parcours de vie
[LIVRE BLANC] La transformation numérique du parcours de vie[LIVRE BLANC] La transformation numérique du parcours de vie
[LIVRE BLANC] La transformation numérique du parcours de vie
 
LIVRE BLANC : Tendances Innovation 2015-2017
LIVRE BLANC : Tendances Innovation 2015-2017LIVRE BLANC : Tendances Innovation 2015-2017
LIVRE BLANC : Tendances Innovation 2015-2017
 
LIVRE BLANC : De l’Omni-Commerce au Continuous Commerce, la révolution Digita...
LIVRE BLANC : De l’Omni-Commerce au Continuous Commerce, la révolution Digita...LIVRE BLANC : De l’Omni-Commerce au Continuous Commerce, la révolution Digita...
LIVRE BLANC : De l’Omni-Commerce au Continuous Commerce, la révolution Digita...
 
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
 
Découvrez notre produit VigieSI - Gfi Informatique
Découvrez notre produit VigieSI - Gfi InformatiqueDécouvrez notre produit VigieSI - Gfi Informatique
Découvrez notre produit VigieSI - Gfi Informatique
 
Responsabilite societale-de-l-entreprise-gfi-informatique
Responsabilite societale-de-l-entreprise-gfi-informatiqueResponsabilite societale-de-l-entreprise-gfi-informatique
Responsabilite societale-de-l-entreprise-gfi-informatique
 
LIVRE BLANC : Secteur public - Agenda 2020
LIVRE BLANC : Secteur public - Agenda 2020LIVRE BLANC : Secteur public - Agenda 2020
LIVRE BLANC : Secteur public - Agenda 2020
 
Forum Secteur Public 2014 de Gfi Informatique
Forum Secteur Public 2014 de Gfi InformatiqueForum Secteur Public 2014 de Gfi Informatique
Forum Secteur Public 2014 de Gfi Informatique
 
LIVRE BLANC : "Les nouveaux horizons du PLM"
LIVRE BLANC : "Les nouveaux horizons du PLM"LIVRE BLANC : "Les nouveaux horizons du PLM"
LIVRE BLANC : "Les nouveaux horizons du PLM"
 
Carte identité 2014 de Gfi Informatique
Carte identité 2014 de Gfi InformatiqueCarte identité 2014 de Gfi Informatique
Carte identité 2014 de Gfi Informatique
 
LIVRE BLANC : 10 conseils d’expert pour relever avec succès les défis de la c...
LIVRE BLANC : 10 conseils d’expert pour relever avec succès les défis de la c...LIVRE BLANC : 10 conseils d’expert pour relever avec succès les défis de la c...
LIVRE BLANC : 10 conseils d’expert pour relever avec succès les défis de la c...
 
Gfi News - Numéro 3 - Juin 2014
Gfi News - Numéro 3 - Juin 2014Gfi News - Numéro 3 - Juin 2014
Gfi News - Numéro 3 - Juin 2014
 
Gfi News Maroc - Numéro 2
Gfi News Maroc - Numéro 2Gfi News Maroc - Numéro 2
Gfi News Maroc - Numéro 2
 
Catalogue de stages et d'alternances - Gfi Informatique
Catalogue de stages et d'alternances - Gfi InformatiqueCatalogue de stages et d'alternances - Gfi Informatique
Catalogue de stages et d'alternances - Gfi Informatique
 

LIVRE BLANC - Les vrais chiffres du Big Data

  • 1. LIVRE BLANC www.gfi.fr Les vrais chiffres du Big Data La « data » est l’essence de la transformation numérique des entreprises.
  • 2. Préface Par Bruno Chapuis, colonel de Gendarmerie, auditeur de la 47e session « armement et économie de défense » de l’Institut des hautes études de défense nationale (IHEDN)
  • 3. | LES VRAIS CHIFFRES DU BIG DATA | 03 Far West 2.0 : à la conquête de la « data » Nouvel Eldorado. Conquêtes de nouveaux espaces. Le développement du numérique s’apparente à une nouvelle étape du Far West, avec « son bon, sa brute et son truand », ses indiens, son cavalier solitaire et ses duels. Dans cet espace inconnu, chacun rêve de faire sa place. Pour de l’or bien évidemment, chères pépites d’or des temps nouveaux, légalement gagnées ou non. En effet, Internet développe sa propre délinquance et ses truands d’un monde nouveau, les cybercriminels. Plus de colts, de lassos, mais une toile bien tissée, un « dark web » rappelant les villes fantômes de nos westerns. On ne vend plus de troupeaux de chevaux, on ne compte plus « en cornes », mais on y échange de précieuses données, fichiers, codes et algorithmes. On y crée des cookies, non de délicieux gâteaux pour les meneurs de bêtes, mais de véritables traqueurs invisibles des habitudes des consommateurs du Net. Tout simplement pour subsister comme des millions de sites marchands repositionnés sur la toile devant la désaffection de leurs magasins réels. De nouveaux saloons ouvrent ainsi chaque jour. Dans ce monde émergent, la petite épicerie de Mme Olson, de « La petite maison dans la prairie », côtoie le pire saloon aux enfants prostitués. Et les Indiens ? Toujours là. Les autres, ceux qu’il faut évincer. Plus de signaux de fumée, mais des données corrompues. La vieille méthode des couvertures souillées de bactéries est utilisée : des virus sont envoyés. Et comme au Far West, des noms émergent, des géants aux colts en argent. Buffalo Bill et Geronimo ont fait place à Google et… Mais où est Lucky Luke ? Le shérif ? Peut-il y avoir un ordre dans ce Far West ? Certains États le pensent, réglementant les activités, interdisant la diffusion de telles ou telles images. Mais la réalité les submerge, les engloutit dans une virtualité qu’ils ne peuvent contrôler. Peut- on compter sur l’éthique ? Celle d’individus, devenant des héros tel Snowden, nouveau pasteur des temps modernes ? Car le pire s’assoit au côté du meilleur dans cette conquête de la « data ». On y crée du lien, ou du moins on croit en créer, on partage, on échange de l’information à la mode Wikipédia. Cette ruée vers la « data » est une révolution, autant que la conquête de l’Ouest a bouleversé le monde. Comme les pionniers face aux Rocheuses, nous n’avons pas conscience de cette révolution numérique en marche, n’y voyant bien trop souvent qu’un nouvel outil de bureautique. Car à force de vouloir conquérir l’Ouest, puis la lune, l’espace, et le numérique, l’homme ne va-t-il pas se perdre lui-même, pris dans sa propre toile, ne sachant plus où est le réel et la matrice, propre création transhumaniste d’un homme à la recherche non plus de l’or mais de sa propre existence, de sa propre donnée et donc de son créateur ?
  • 4. | LES VRAIS CHIFFRES DU BIG DATA | 04 Longtemps réservé à une communauté d’initiés, le Big Data est aujourd’hui un phénomène bien réel. Les études, cadrages et « Proofs of Concept » menés depuis plus de deux ans laissent place aux réalisations de projets « drivés » par les cas métiers. Normal : la data est l’essence même de la transformation numérique des entreprises. Nul ne peut résister à la vague Big Data ! Et cela ne saurait s’arrêter tant les usages et les domaines d’applications sont nombreux. Dans ce contexte, Gfi Informatique, acteur européen de référence en matière de services et solutions numériques à forts enjeux métiers, entend jouer un rôle majeur dans l’adoption du Big Data par les entreprises françaises. Gfi Informatique met au service de ses clients une combinaison unique de savoir-faire en matière d’accompagnement métier, de pilotage de programmes, de réalisation de solutions de qualité industrielle et de services de proximité. Ce livre blanc, réalisé avec le concours du Cabinet Pierre Audoin Consultants, vise à mesurer en France l’impact de la donnée dans la conduite de projets de transformation digitale. Fruit d’une enquête réalisée auprès de 221 DSI et illustrée de témoignages clients, cette étude vous propose une perspective objective des évolutions en cours et des bonnes pratiques de nos répondants pour mieux engager, grâce à la donnée, leur transformation numérique. Il s’adresse à toutes les entreprises qui souhaitent faire du Big Data un vecteur d’innovation et d’efficience opérationnelle. Vincent Rouaix, Président-directeur général, Gfi Informatique Le mot du Président
  • 5. | LES VRAIS CHIFFRES DU BIG DATA | 05 Les chiffres clés de l’étude Les chiffres de Gfi Informatique 4 freins 2,5 Po 1 solution un réseau de startups + 1700 Panels de projets de l’étude dont 66 % dépendent de la Data ! 950 Consultants Digital & Data 74 % des sondés estiment les projets Data critiques 12 plateformes Hadoop — • Performance et Sécurisation Hadoop • Moteur de Dataviz Analytique — UN VERTICAL MÉTIER EN CYBERSÉCURITÉ Solution de SIEM (VigieSI) • Culture d’entreprise • Résistance de l’IT • Volonté d’autonomie par les métiers • Manque de compétences internes UNE COURBE D’EXPÉRIENCE SUR majeurs en 2016 EN CUMULÉ 50 Architectes Seniors Data Scientists Consultants de niveau international 60 % des projets se font en moins de 6 mois — 20 % entre 7 et 12 mois 3 bénéfices Gain de parts de marché Réduction des coûts internes Amélioration de l’image de marque — Cités à plus de 20 % chacun — 300 millions d’objets connectés sur les systèmes en production EN 2018 DEPUIS 2010 Cités à plus de 25 % chacun
  • 6.
  • 7. | LES VRAIS CHIFFRES DU BIG DATA | 07 La donnée est l’un des segments qui croît le plus dans le marché du numérique aujourd’hui. Rien d’étonnant à cela : la donnée est à la fois un point d’ancrage ancien, qui a permis aux entreprises de prendre des décisions sur la base d’informations justes et quantifiables, et le levier qui permet d’imaginer et de mettre en œuvre de nouvelles stratégies adaptées au contexte de l’économie numérique. Le marché de la donnée au sens large (comprenant les applications analytiques et de data management traditionnelles et maintenant celui du Big Data) devrait connaître une croissance moyenne avoisinant les 10 % par an sur la période 2013-2019, pour atteindre près de 5 Md€, alors que dans le même temps le marché total des logiciels et des services en France ne dépassera guère les 2 % de croissance annuelle moyenne. En 2019, le Big Data pèsera plus de la moitié de ce marché : l’analytique traditionnel est un marché mature, en cours de tassement, alors que le marché des logiciels et des services autour du Big Data en France devrait croître de 35 % par an en moyenne entre 2015 et 2019 ! Dans un contexte de dépenses informatiques contenues, il peut paraître audacieux d’envisager une telle hausse. Cependant, toutes nos études le démontrent : la grande majorité des projets de modernisation et de transformation numérique passe par une valorisation accrue de la donnée, et tous les acteurs de l’entreprise, direction générale, directions métier, direction informatique, en ont conscience et s’y attellent. L’étude dont nous livrons ici les conclusions le montre clairement : la donnée est au cœur de la réflexion des entreprises, que celles-ci décident de partir de la donnée pour élaborer de nouveaux services, ou bien qu’elles imaginent ce qu’elles peuvent devenir et cherchent ensuite à s’appuyer sur les données disponibles. Introduction
  • 8. | LES VRAIS CHIFFRES DU BIG DATA | 08 L’étude recense ainsi plus de 1 100 projets de transformation basés sur la donnée ! L’examen de tous ces projets ne permet pas de dégager un chemin unique de transformation par la donnée. Il montre que chaque entreprise définit sa stratégie et les meilleurs moyens à mettre en œuvre pour y parvenir selon sonvécu et sonorganisation.On peut néanmoinsdégager un certain nombre d’éléments communs, présents dans ce document, permettant à la donnée de faire sens. L’objectif est de vous donner, sur la base de plus de 220 répondants et plus de 1 000 projets de transformation basés sur la data, une synthèse des bonnes pratiques et des moyens à incorporer à votre propre stratégie de valorisation de la donnée et de transformation de votre organisation afin de bénéficier au plus vite des effets de la transformation numérique. Traditional analytics & data management *TCAM : taux de c�oissance annuelle moyen Ma�ché �rançais en M€ Big Data 2013 2014 2015 2016 2017 2018 2019 0 1 000 — 2 000 — 3 000 — 4 000 — 5 000 — 6 000 — + 9,6 % TCAM* 2013 > 2019 Graphique 1. Volume et croissance du marché des logiciels et des services liés à la donnée
  • 9. | LES VRAIS CHIFFRES DU BIG DATA | 09 56 % des entreprises jugent la donnée critique pour le business p.10 Les deux tiers des projets de transformation numérique sont basés sur la donnée p.16 31 % des entreprises cherchent des « data scientists » pour confirmer ou infirmer leurs intuitions p.22 Un « datalake » déjà en construction pour 60 % des entreprises p.30 60 % des projets « data » durent moins de 6 mois p.36 La vision de Gfi Informatique p.42 Témoignages p.48 Remerciements p.55 Annexes p.56 Sommaire 1. 2. 3. 4. 5. 6. 7.
  • 10. 1. 56 % DES ENTREPRISES JUGENT LA DONNÉE CRITIQUE POUR LE BUSINESS.
  • 11.
  • 12. | LES VRAIS CHIFFRES DU BIG DATA | 12 L orsqu’on l’interroge sur la donnée, souvent qualifiée de « nouvel or noir de l’économie numérique », Henri Verdier (DINSIC) rectifie : contrairement au pétrole, carburant fossile, la donnée s’enrichit lorsqu’on l’utilise. Pour cet entrepreneur, ardent défenseur de l’Open Data, aujourd’hui à la tête de la DSI de l’État, il ne fait aucun doute que la donnée peut et doit être exploitée pour gagner en compétitivité. Cet avis est partagé par les interviewés de notre enquête. Qu’il s’agisse de PME ou de grands comptes, dans tous les secteurs et à tous les postes, nos répondants sont unanimes : la donnée est essentielle pour croître et prospérer. Elle l’est même d’autant plus que l’économie se transforme. Lorsqu’on demande aux entreprises de regarder deux ans en arrière, puis de se projeter dans les deux prochaines années, leur sentiment est que la quantité de données générée par leur activité explose (29 % des personnes sondées approuvent ce constat « il y a deux ans » tandis que 68 % l’anticipent « dans 2 ans »). La courbe d’exploitation de ces données suit la même tendance passant, elle, de 28 % à 66 %. Le fait d’exploiter les données pour améliorer le business ne date pas d’hier. Une enquête récemment réalisée par PAC pour le Syntec Numérique montre que les entreprises n’ont pas attendu le marketing qui entoure le Big Data pour s’y intéresser, même en- dehors du périmètre classique de la Business Intelligence : amélioration de la traçabilité, optimisation de la qualité et analyse des risques ressortent ainsi parmi les premiers usages. Aujourd’hui, le Big Data renouvelle cet intérêt, en montrant qu’il est possible d’exploiter — Aujourd’hui, 56 % des entreprises considèrent que la donnée a une importance critique pour le business, soit une note de 7/10 ou plus. En se projetant à 2 ans, cette proportion monte à 74 % ! 32 % 56 % 74 % 1.
  • 13. | LES VRAIS CHIFFRES DU BIG DATA | 13 davantage de données ainsi que de nouveaux types de données, pour de nouveaux usages. Les objectifs des projets basés sur la donnée sont très opérationnels ; il s’agit de gagner des parts de marché (21 % le citent comme premier bénéfice), réduire les coûts (20 %) et améliorer l’image de marque de l’entreprise (20 %). Ces résultats confirment la façon très pragmatique dont la donnée contribue à la transformation numérique. Graphique 2. L’importance de la donnée pour le business Il y a 2 ans Aujourd’hui Dans 2 ans 23% 25% 45% 42% 38% 59%59% 23% 33% 48% 66% 61% La compréhension de votre direction générale du rôle de la donnée dans la transformation de votre entreprise L’implication de la direction marketing dans cette valorisation de la donnée L’implication des autres directions métier dans cette valorisation de la donnée L’implication de la direction IT dans cette valorisation de la donnée Les 3 principaux bénéfices métiers liés à la data : Gagner des parts de marché Réduire les coûts Améliorer l’image de marque
  • 14. Avis d’expert | LES VRAIS CHIFFRES DU BIG DATA | Nous assistons enfin au passage du point d’inflexion tant attendu en France. Les études, cadrages et POCs menés depuis plus de deux ans laissent place aux réalisations de projets « drivés » par les cas métiers. Au sein de certains grands groupes, cela se matérialise par des changements d’orientation stratégiques forts, ce qui est assez nouveau, comme pour l’usage des véhicules connectés dans le secteur des Assurances. Cependant, les initiatives ou projets se déroulent sans réellement suivre de standards. Les freins et le manque de compétences ralentissent d’autant la progression du marché français. La principale règle commune qui émerge semble être celle-ci : plus le lien est étroit entre la direction, les métiers, la DSI et l’accès aux données, plus les bénéfices issus de la « culture » de la donnée sont durables, à l’image de ce qui se pratique dans les entreprises dont l’économie est « data driven » (comme chez Criteo). En fait, le retard pris par le marché français s’explique en bonne partie par sa composante culturelle. En France, nos DSI testent les solutions uniquement sur le plan technique, trop souvent sans instaurer dès le départ un dialogue itératif fondamental entre les intuitions métiers et l’obtention de la quintessence de la donnée brute qui conduit à la réussite même de ces projets. Contrairement à la France, les Anglo-Saxons partent d’une idée business et implémentent des technologies du Big Data pour leurs besoins métier. Fini le règne des POCs. Enfin l’ère des projets ! Par Alvin Ramgobeen, Directeur des Practices BI & Big Data, Gfi Informatique Avis d’expert | LES VRAIS CHIFFRES DU BIG DATA | 141414| LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA |
  • 15. | LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA | Avant la mi-2015, la grande majorité des entreprises effectuait des POCs pour adopter les technologies du Big Data et engageait des réflexions interminables sur ce qu’il convenait d’en faire. Aujourd’hui, on assiste à une réelle bascule. La réflexion fait place aux moyens à trouver pour créer de nouveaux services digitaux conduisant à une monétisation sur la base de données « augmentées ». Et cela grâce à la technologie qui atteint aujourd’hui un bon niveau de maturité. Enfin, l’étude confirme au travers des indicateurs de confiance à deux ans que les projets de transformation numérique autour de la donnée vont réellement se démocratiser (plus des deux tiers des directions seront impliquées d’ici 2 ans), ce qui mènera inévitablement à une accélération de cette tendance. 151515 “ POUR ALLER PLUS LOIN RETROUVEZ TOUS NOS AVIS D’EXPERTS EN SCANNANT CE QR CODE
  • 16. LES DEUX TIERS DES PROJETS DE TRANSFORMATION NUMÉRIQUE SONT BASÉS SUR LA DONNÉE. 2.
  • 17.
  • 18. | LES VRAIS CHIFFRES DU BIG DATA | 18 L a transformation numérique compte autant de définitions que d’acteurs concernés. Néanmoins, dans la grande majorité des cas, la donnée tient un rôle de premier plan. Sur un total de 1 722 projets de transformation recensés par nos 221 répondants, les deux tiers, soit 1 131, s’appuient essentiellement sur l’exploitation des données. Cet usage de la donnée va aujourd’hui bien au-delà de la Business Intelligence traditionnelle. Alors que l’objectif de la BI traditionnelle a longtemps été centrée sur la simple compréhension de ce qu’il s’est passé, la transformation numérique demande une approche analytique plus complète : il s’agit d’exploiter la donnée, qu’elle soit statique ou dynamique, qu’elle soit interne ou captée à l’extérieur de l’entreprise, et d’essayer d’anticiper les événements. Déjà 57 % de nos répondants disent croiser les données internes et externes pour enrichir leurs analyses.Unopérateurdans lestélécoms, lestransportsou l’énergie, par exemple, pourra anticiper le comportement de son réseau et de ses clients en fonction d’informations météorologiques ou événementielles. 45 % déclarent réaliser des analyses prédictives, et 42 % pensent mettre cela en pratique dans les deux ans. Il s’agit d’une proportion que nous rencontrons souvent dans nos enquêtes, dans des départements marketing bien entendu, pour mieux cerner les clients, mais aussi dans nombre d’entreprises lorsqu’il s’agit d’opérer de la maintenance préventive sur des équipements industriels ou autres (serveurs, éléments d’un réseau, véhicules, optimisation de la tournée des agents…). Ces analyses s’appuient, le cas échéant, sur d’autres types de données : les « logs » d’équipements, de serveurs, de sondes, les données issues des machines et objets connectés, ainsi que les flux de données des réseaux sociaux… Graphique 3. Évolution du poids de la donnée Il y a 2 ans Aujourd’hui Dans 2 ans 29% 28% 47% 47% 66%68% La quantité de données générée par vos activités Votre niveau d’exploitation de ces données des projets de transformation, déjà réalisés, en cours ou planifiés, dépendent essentiellement de la valorisation des données. 66 % 2. Proportion de répondants ayant jugé ce poids très important (note de 7/10 ou plus).
  • 19. | LES VRAIS CHIFFRES DU BIG DATA | 19 La manipulation de ces données ouvre un éventail de nouvelles possibilités qui doivent être mises au service d’objectifs précis. De façon générale, les entreprises ayant mené des projets ciblés de transformation sont plutôt satisfaites (+ 67 %) des résultats obtenus. Graphique 4. Résultats obtenus des projets de transformation numérique En-deçà de mes attentes Conformes à mes attentes, voire au-delà 25% 71% 70% 23% 67% 26% 67% 22% 61% 32% L’amélioration de l’image et la valorisation de la marque de votre entreprise Votre capacité à résister face à la concurrence L’augmentation de votre chiffre d’affaires L’optimisation du fonctionnement interne et la réduction des coûts Le gain de parts de marché des projets en moyenne ont permis d’atteindre les objectifs métier. 67 %
  • 20. Avis d’expert | LES VRAIS CHIFFRES DU BIG DATA | Des projets industriels en production mêlant IoT, Big Data et Par Florent Bornard, Practice Manager Customer Experience Management, Gfi Informatique À partir de services métier existants qui génèrent de la donnée comme ceux liés aux Box (TV, ADSL, Fibre), il est possible de dégager des indicateurs de contexte et des leviers d’action utiles à différentes cellules, tant en back-office qu’en front-office (exposées aux clients). Si l’opérateur arrive à diagnostiquer que l’origine de l’incident est exogène à la Box elle-même, alors on peut limiter, voire réduire de moitié, le nombre de retours à l’usine de box défaillantes. Les gains sont alors conséquents ! Autre exemple issu du secteur Télécom. Le centre de support téléphonique dispose à la fois des paramètres, de l’historique du trafic réseau et des informations sur la qualité perçue par les différents consommateurs, que ce soit les enfants sur la tablette ou les parents sur la télévision. Cela permet d’augmenter la qualité de la prise en charge proactive des appels entrants sur les incidents et d’améliorer l’efficacité des actions de correction. Enfin, cela réduit le temps total passé sur l’anomalie. Il en découle une augmentation de l’efficacité des centres de support téléphonique, une amélioration de l’expérience client et une réduction du « churn » (taux d’attrition des clients) : le résultat du ROI est évident et substantiel. | LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA | 202020
  • 21. | LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA | Expérience utilisateur : zoom sur 5 ans d’expérience. En résonance à l’étude, les acteurs qui disposent de ces premiers niveaux de diagnostic quantitatif personnalisé ont développé des algorithmes pour anticiper très tôt les problèmes. Les résultats sont assez surprenants. Ils permettent de dégager de vrais bénéfices tant pour les recommandations (liste d’actions de corrections adaptées au contexte de panne) que pour la prise en charge (meilleur aiguillage des personnes non satisfaites). Ainsi on constate une baisse conséquente du volume d’appels pour mécontentement et de fait, une réduction des coûts liés à leur prise en charge. À cela s’ajoute la progression de l’ouverture des données (Open Data) qui représente un carburant additionnel dont la richesse est en devenir. Les entreprises maîtrisent encore mal ce qu’elles peuvent partager, notamment vis-à-vis de la protection des droits et des libertés individuelles (régulation de la Cnil) d’une part, et d’autre part, face au risque que l’émetteur puisse laisser échapper la valorisation des données exposées. Là encore, le manque de repères peut créer des inquiétudes quant au juste niveau d’exposition des données permettant à des acteurs tiers d’en tirer parti. Cela est particulièrement flagrant dans le cas des acteurs monopolistiques (notamment dans le secteur des Transports). “ POUR ALLER PLUS LOIN RETROUVEZ TOUS NOS AVIS D’EXPERTS EN SCANNANT CE QR CODE 212121
  • 22. 3. 31 % DES ENTREPRISES CHERCHENT DES ‘DATA SCIENTISTS’ POUR CONFIRMER OU INFIRMER LEURS INTUITIONS.
  • 23.
  • 24. | LES VRAIS CHIFFRES DU BIG DATA | 24 R elier la donnée avec un objectif business précis peut s’avérer ardu. En partant de la donnée – qu’on aura au préalable rassemblée, ou au moins fédérée - il faut s’interroger sur le sens qu’elle peut avoir dans un contexte précis, dépendant de la nature de l’entreprise et de ce qu’elle essaie d’accomplir à un moment donné. Le champ des possibles est vaste. Le processus d’élaboration des projets de transformation portés par la donnée comporte plusieurs étapes, que chacun agence différemment. Dans notre étude, nous avons défini ces étapes et avons demandé aux entreprises de les placer dans un ordre préférentiel ; aucun cheminement consensuel n’a émergé de cet exercice. Ainsi, l’étape de « réflexion sur la stratégie globale de l’entreprise » est choisie comme étape n°1 par 19 % de nos répondants et comme dernière étape par 16 % ! Ce processus d’élaboration requiert une approche itérative, prenant en compte aussi bien les objectifs à atteindre que les données à exploiter. C’est donc un délicat travail d’orchestration qui devra être mené par les bonnes personnes. Au niveau de la donnée, un CDO (Chief Data Officer) aura la lourde tâche de référencer, normaliser, nettoyer, enrichir et connecter la donnée. Au niveau de la direction générale, un autre type de CDO (Chief Digital Officer) établira un programme de transformation à long terme et les objectifs de court terme. Le chaînon entre ces deux CDO fera le lien entre ces objectifs et la donnée ; il s’agit du très recherché « data scientist ». Lorsqu’on demande aux entreprises ce qui leur manque pour confirmer ou infirmer leurs intuitions, deux éléments arrivent largement en tête : des outils de type « machine learning » (33 % des réponses) et des « data scientists » (31 %). Ne reste plus qu’à s’accorder sur les compétences de ce dernier. En l’occurrence, nos répondants semblent voir le « data scientist » comme un statisticien de nouvelle génération, dont la connaissance du métier serait la qualité numéro un. Il reste donc un travail d’évangélisation à réaliser sur ce qu’un tel profil peut apporter à tous les contextes professionnels. Bien formé aux outils analytiques et à la statistique mais aussi et surtout à une nouvelle algorithmique des entreprises estiment avoir une bonne maîtrise de ce que leurs données peuvent leur apporter. souhaitent vérifier leur intuition. s’avouent dans le flou. 34 % 20 % 46 % 3.
  • 25. | LES VRAIS CHIFFRES DU BIG DATA | 25 démocratisée par les techniques liées au Big Data, le « data scientist » aide à créer les nouvelles opportunités de business à partir de la donnée. Il ne remplace cependant pas les spécialistes du métier : il les accompagne. Graphique 5. Les qualités recherchées en priorité chez un « data scientist » 29% 21% 18% 16% 15% La connaissance de votre métier ou de votre domaine d’activité La maîtrise des outils de statistiques et de datamining La capacité à imaginer de nouveaux services ou « business models » s’appuyant sur la donnée La capacité à coder des algorithmes pour aller au-delà des modèles fournis par les outils La maîtrise des outils de « machine learning » | LES VRAIS CHIFFRES DU BIG DATA | 25 démocratisée par les techniques liées au Big Data, le « data scientist » aide à créer les nouvelles opportunités de business à partir de la donnée. Il ne remplace cependant pas les spécialistes du métier : il les accompagne. 18% 16% 15% La capacité à imaginer de nouveaux services ou « business models » s’appuyant sur la donnée La capacité à coder des algorithmes pour aller au-delà des modèles fournis par les outils La maîtrise des outils de « machine learning »
  • 26. | LES VRAIS CHIFFRES DU BIG DATA | 26 Du datamining à la ‘data science’ La « data science » représente le deuxième palier du Big Data, celui qui succède à la collecte des données et à l’établissement du « datalake », socle indispensable à la réalisation de processus industriels en environnement de production. Comme tout marché émergeant, il est en recherche de repères, avec certaines spécificités communes à l’arrivée du Big Data en France, à savoir que les techniques algorithmiques utilisées en « data science » sont toutes déjà existantes, mais que la nouveauté réside dans le fait que la philosophie bascule du « model driven » tel qu’il est pratiqué dans le datamining, au « data driven » : l’examen est guidé par la donnée, plus que par un modèle défini au préalable. Pour aider à la lecture de son évolution nous avons repositionné les méthodes les plus usitées. Cette cartographie permet à tout un chacun de se positionner selon son degré d’avancement ou de maturité. — CARTOGRAPHIE — | LES VRAIS CHIFFRES DU BIG DATA | 26| LES VRAIS CHIFFRES DU BIG DATA | 26
  • 27. | LES VRAIS CHIFFRES DU BIG DATA | 27 Hindsight Insight Foresight Extended Intelligence Difficulté Valeur COMPLEXITÉDELAMÉTHODE Analyse Descriptive Calcul énergie Knowledge Discovery DataVisualisation multi-dimensionnelle DataVisualisation multi-dimensionnelle Réseau de Petri Stochastique Data Fusion Artificial Intelligence (ex. Watson) Drill Down of Trees Forêts aléatoires Scoring d’arborescences Algorithmes génétiques Ensemble flou Plus court chemin Graphes Proba. Et réseaux Bayésiens Théorie de la croyance BI traditionnelle Échantillonnage Drill-Down Clustering & Pattern recognition Rule Based Scoring d’indicateurs Rule-based programming Knowledge Management ARMA ARIMA Inférence parallèle Bootstraping Arbres de décision Régression linéaire AFC ACPPréparation de donnéesData Visualisation bidimensionnelle Qualité des données historiques Machine Learning (supervisé ou non supervisé) Réseaux de Neuronnes Receiver Operating Charasteristic Rétro programmation Méthode par transfert et renforcement Boltzman Hopefield Cohonen Fréquence et Fonction de répartition Entropie Vapnik, Gibbs & Copule Analyse Diagnostique Analyse Prédictive Analyse Prescriptive I N F O R M AT I O N L E V I E R D ’A C T I O N
  • 28. Avis d’expert | LES VRAIS CHIFFRES DU BIG DATA | Même si aujourd’hui 80 % des clients estiment maîtriser en bonne partie le contour de leur cas d’usage, il apparaît évident que bon nombre d’entre eux ne savent pas encore réellement estimer l’effort à engager, la composition des compétences, les activités et les savoir-faire pour aller le plus directement au but : détecter des niches de plus-value ayant un ROI notable. Ayant été confrontés depuis plusieurs années à la recherche du signifiant et de la valeur que les données peuvent dégager, nous avons été amenés à traiter le sujet sous l’angle de la « data complexity ». Notre démarche consiste à tirer parti des innombrables croisements qu’offre la superposition de plusieurs jeux de données. L’aspect hautement combinatoire des sujets de recherche les plus fréquents de connaissance dans les données n’est pas résolu par la Business Intelligence traditionnelle. Il s’agit d’y adjoindre une couche de calcul pour simplifier et détecter les éléments multidimensionnels qui concourent à l’explication de phénomènes (à risque ou à opportunité) et à l’activation des leviers de performance. L’expérience montre que les boîtes noires de calcul et les résultats des techniciens de la statistique ne sont plus suffisants. Il s’agit de présenter de façon compréhensible à La Data Science, deuxième marche du Big Data, ou comment év Par Stéphane Chauvin, CEO de MyDataBall, partenaire start-up de Gfi Informatique | LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA | 282828
  • 29. | LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA | iter une fois de plus de reculer d’un pas. “ POUR ALLER PLUS LOIN RETROUVEZ TOUS NOS AVIS D’EXPERTS EN SCANNANT CE QR CODE des acteurs métiers les atypismes et faits remarquables que l’algorithmique peut extraire. C’est bien le métier qui valide ce qui a du sens et non pas la logique seule. Au travers de la création de notre solution de « data science », nous avons en quelque sorte condensé une partie des activités que des équipes de « data science » doivent mener au quotidien. La réalité montre qu’il est fréquemment demandé aux « data scientists » plus qu’ils ne peuvent apporter dans leur grande majorité. Le gain méthodologique doit porter non seulement sur le temps accordé à la collecte, la compréhension et la réconciliation des données, mais aussi sur les choix des méthodes et algorithmes correspondant au problème et également sur la façon de représenter les données et de les rendre accessibles à différents métiers. C’est bien l’affaire d’une équipe pluridisciplinaire qui doit s’organiser autour d’une investigation commune et accéder visuellement à des résultats denses et parfois complexes. Tel est le challenge du partage de la connaissance dans un monde de données. 292929
  • 31.
  • 32. | LES VRAIS CHIFFRES DU BIG DATA | 32 O n peut certainement tabler sur le fait que, d’ici quelques années, tout responsable métier pourra accéder à l’ensemble des données dont il aura besoin (données archivées, données de production en temps réel, etc.) d’un simple clic, et que des systèmes intelligents auto-apprenants lui permettront d’évaluer plusieurs scénarios et de réaliser une analyse pertinente sans passer par la case « requête spécifique à la DSI ». Parvenir à un tel scénario, cependant, demandera des efforts et une certaine coopération pour sortir des KPI exprimés par des métiers distincts et des données stockées en silos. Les DSI devront donc repenser leur organisation ainsi que l’architecture des systèmes de stockage et de traitement des données de façon à supporter ces nouveaux usages. La nécessité de disposer d’un moyen d’accéder à l’ensemble des données de l’entreprise quel que soit leur emplacement est reconnue par nos répondants, qui sont 61 % à avoir mis en place, ou prévu de mettre en place, un outil offrantunevueunifiéedesdonnées.Leconcept de « datalake », regroupant l’ensemble des données pour faciliter leur exploration, est lui aussi plébiscité, avec 60 % des suffrages. Si dans certains cas, le « datalake » peut s’apparenter en fait à une évolution/ complémentarité des traditionnels datawarehouses, notre étude montre également une forte appétence pour les technologies nouvelles et alternatives, comme les bases de données en mémoire, qui permettent de manipuler des données en mode temps réel, et autres systèmes de stockage et d’accès à la donnée de type NoSQL. Une autre évolution notable concerne l’irruption du Cloud dans les architectures de stockage et de traitement de la donnée, qu’il s’agisse d’architectures hybrides ou de systèmes entièrement dans le Cloud. Là aussi, la transformation numérique a changé la donne : simplicité de déploiement et agilité du Cloud, montée en puissance des offres et des usages, le marché poursuit sa maturation et offre encore plus de richesse. Avec l’essor du e-commerce, de l’Internet des objets, des offres SaaS (Software as a Service) et des réseaux sociaux, une grande partie des données est déjà en ligne. Nos répondants n’hésitent donc plus à recourir à des offres de des entreprises jugent que la priorité n°1 est de mettre en œuvre des analyses temps réel. 49 % 4.
  • 33. | LES VRAIS CHIFFRES DU BIG DATA | 33 type SaaS pour l’analyse (64 % ont des projets déjà réalisés ou démarrés en 2015), mais aussi àdu PaaS (Platform as aService) pour exploiter des outils middleware en ligne (61 %). Le Cloud est ainsi un très bon moyen de disposer rapidement d’un bac à sable sur Hadoop ou d’autres outils spécialisés pour tester des cas d’usage. Il est même envisageable que l’intérêt d’une partie des entreprises se porte, dans un proche avenir, vers des offres externalisées clés-en-main proposant à la fois des outils en ligne et un service d’analyse de la donnée. Graphique 6. Les nouvelles architectures de données adoptées à 80 % 62% 16% 16% 21% 17% 17% 19% 61% 61% 60% 57% 51% Une architecture hybride interne et Cloud Un outil d’agrégation offrant une vue unifiée des sources de données Un environnement de production de type NoSQL (ou base de données en mémoire) Un environnement exploratoire de type « data lake » Une architecture de données uniquement dans le Cloud Un environnement de production de type cluster Hadoop Déjà réalisé ou en cours À l’étude
  • 34. Avis d’expert | LES VRAIS CHIFFRES DU BIG DATA | L’écosystème des solutions Big Data est aussi riche, vivant et Par Jean-François Saluden, Directeur technique BI & Big Data, Gfi Informatique Avant tout, il est important de rappeler ce que les solutions technologiques nouvelles apportent, ainsi que les promesses qu’elles ne peuvent pas tenir. Même si ces solutions repoussent les limites de traitement au niveau des 3 V (Volume, Vitesse, Variété des données), elles sont basées sur les standards connus tant en matériel (CPU standard, disque attaché, réseau 10G Ethernet, etc.) qu’en langages (C, Java, Python, etc.). Leurs bénéfices résident dans le fait qu’elles gèrent différemment la donnée et la performance que par le passé. Cependant, ces familles de solutions (Hadoop, MongoDB, Cassandra, Neo4J, etc.) ont été bâties chacune pour des besoins spécifiques en stockage et traitement, leurs domaines de performance sont donc bornés à un couplage « type de données stockés/typologie de traitement ». Par exemple, il n’est pas possible de traiter les problématiques de récursivité pour trouver les plus proches voisins dans un graphe social à partir d’une base comme HBase, alors que cela est aisé pour une base orientée graphes comme Neo4J. En la matière, bon nombre de responsables s’abandonnent à des raccourcis qu’il n’est pas conseillé de prendre. Ce serait comme de demander à Usain Bolt, qui court le 100 mètres en | LES VRAIS CHIFFRES DU BIG DATA | 343434| LES VRAIS CHIFFRES DU BIG DATA |
  • 35. | LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA | diversifié que le nombre d’épreuves aux J.O. moins de 9,6 secondes de réitérer son exploit au 100 mètres nage libre. À chaque contexte correspond une solution, comme à chaque challenge correspond une discipline olympique. Une fois ce concept acquis, cela ouvre la possibilité de résoudre tout type de besoins en traitement complexe de la donnée en combinant plusieurs couches d’hybridations. J’en retiendrai deux principales dont la première est le couplage de différentes briques Big Data (ex. Kafka pour du temps réel et HBase pour des accès rapides en lecture/écriture) et la deuxième, le couplage de solutions Big Data avec des systèmes existants SQL et/ou des bases massivement parallèles analytiques (ex. Teradata, Netezza ou Vertica). Les combinatoires sont donc nombreuses, tant le spectre des cas d’usage est large. “ POUR ALLER PLUS LOIN RETROUVEZ TOUS NOS AVIS D’EXPERTS EN SCANNANT CE QR CODE 353535
  • 36. 5. 60 % DES PROJETS ‘DATA’ DURENT MOINS DE 6 MOIS.
  • 37.
  • 38. | LES VRAIS CHIFFRES DU BIG DATA | 38 L a capacité d’une entreprise à exploiter au mieux ses données pour optimiser son fonctionnement et inventer de nouveauxservicescréateursdevaleurnerelève pas tant de problématiques technologiques que de facteurs organisationnels et culturels internes.On l’avu, lestechnologies existent, et si les compétences ne sont pas suffisamment nombreuses en interne pour les mettre en œuvre, elles sont disponibles auprès des prestataires de l’entreprise. Les freins les plus sérieux relèvent surtout de l’organisation interne : il faut non seulement concilier les aspirations contradictoires d’équipes IT qui aiment la stabilité et d’équipes métier qui veulent aller vite mais en ordre dispersé, mais également bousculer les façons de penser à tous les niveaux. La direction générale doit prendre conscience que l’entreprise évolue dans un nouvel environnement, que les concurrents ont changé de nature (ces fameux GAFA – Google, Amazon,Facebook&Apple–etNATU–Netflix, Airbnb, Tesla & Uber – qui bousculent les industries traditionnelles) et que tout évolue très vite. Les équipes métier et IT doivent de leur côté penser en termes d’expérience client et privilégier des approches agiles, explorer les différentes possibilités, sans peur d’échouer : cela fait partie du processus. On constate d’ailleurs une importante évolution quant à la durée des projets. Les projets qui s’étalent sur plusieurs années ne sont pas légion et c’est heureux : dans un Graphique 7. Une majorité de projets courts 22 % 38 % 21 % 9 % 6 % 4 % moins de 3 mois 4 à 6 mois 7 > 12 13 > 18 19 > 24 plus de 24 c’est le taux d’entreprises qui jugent très forts les 4 freins suivants dans les projets de valorisation de la donnée : • la culture d’entreprise • le manque de compétences internes • la résistance des équipes IT • la volonté d’autonomie des métiers par rapport à l’IT 23 à 25 % 5. Durée moyenne des projets de création de services numériques basés sur de la donnée, en mois.
  • 39. | LES VRAIS CHIFFRES DU BIG DATA | 39 contexte où tout évolue très vite, les projets se font plus courts. Ilfaut en effet savoir répondre rapidement à une demande, exploiter un marché, bien se positionner pour bénéficier d’une fenêtre d’opportunité, en privilégiant donc des démarches agiles et itératives, sans perdre de vue une stratégie et des objectifs à plus long terme. L’exploration des bonnes pratiques mises en œuvre et recommandées par les entreprises montre que, si les anciens schémas de pensée ressortent en premier (« il faut des moyens financiers et humains »), on commence à voir émergerdenouvellespratiquesindispensables, qui relèvent d’une décision stratégique et transversale de déverrouiller la donnée. Force est de constater, en revanche, que peu de répondants citent parmi leurs priorités le sponsoring du top management, or l’implication de la direction générale est indispensable pour faire bouger l’ensemble des lignes. L’entreprise ne pourra, la plupart du temps, mener sa stratégie à bien qu’en transformant les métiers en interne. De même, rares sont les entreprises à se mettre à la place du client pour imaginer de nouveaux services, dans un processus d’apprentissage et d’amélioration continue. Mais cela viendra : nous ne sommes qu’au début de l’adaptation culturelle des entreprises à l’économie numérique et à ses nouveaux usages. Graphique 8. Des bonnes pratiques encore peu adaptées aux nouveaux enjeux 14 % 12 % 11 % 11 % 7 % 14 % 10 %12 % 8 % 11 %8 % 10 % 8 %9 % 10 % 5 %9 % 11 % 7 %6 % 9 % 6 %10 % 5 % 7 %6 % 7 % 6 %6 % 8 % 7 %5 % 6 % 7 %4 % 5 % Allocation de moyens financiers Constitution d’une équipe mixte : métiers et IT Autorisation du management d’accéder à toute la donnée pertinente de l’entreprise Allocation de moyens humains Désignation d’un responsable transversal de la donnée Désignation d’un responsable transversal de la transformation numérique (« chief digital officer ») Apprendre à composer avec la logique Test/Fail & Learn S’appuyer sur un plan de communication ciblé Implication d’une ou plusieurs start-up Sponsoring du Top Management Ateliers d’affinage des cas d’usage en plaçant l’ergonomie et les points d’intérêt des consommateurs/utilisateurs au centre Ne pas chercher à être industriel/parfait dès le démarrage Rang 1 Rang 2 Rang 3 Bonnes pratiques recommandées, par ordre d’importance. Exemple de lecture : pour 14% des répondants, la priorité n°1 est d’obtenir des moyens financiers. Au total, 37% des répondants classent cette pratique dans les 3 premières priorités.
  • 40. Avis d’expert | LES VRAIS CHIFFRES DU BIG DATA | Les repères pour réussir ces projets nous amènent à changer nos Par Claude Daub, Architecte senior Big Data, Gfi Informatique Il existe plusieurs approches pour débuter. Le recours à une étude de cadrage ou l’appui d’une compétence extérieure qui a déjà du vécu, par exemple. Cela peut passer par l’acquisition d’un peu de matériel pour constituer un premier cluster et de quelques licences (notamment en « data visualisation »). Parfois, on commence par une étude quantitative via une start-up. Mais ça, c’était avant. Aujourd’hui, les programmes ont mûri à tous les étages. Les cellules d’architectures ont pré-sélectionné des choix de solutions logicielles et de matériels. Les métiers ont recensé parfois jusqu’à plus d’une centaine de « use cases ». Enfin, la direction générale a imaginé une nouvelle organisation ou bien les modifications nécessaires au sein des organisations existantes avec parfois le support de sa cellule innovation comme incubateur. Depuis mi-2105, nous assistons à une réelle mue des réalisations des projets Big Data où les méthodes les plus abouties sont inspirées pour beaucoup du monde du Digital. Les principales méthodes et bénéfices à retenir portent sur les méthodologies projets, pratiques et organisations, les nouvelles formes de communication ainsi que les négociations intra-métier en ce qui concerne l’accès à la donnée. D’une part, les méthodologies projets | LES VRAIS CHIFFRES DU BIG DATA | 404040| LES VRAIS CHIFFRES DU BIG DATA |
  • 41. | LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA | habitudes et notre de façon de concevoir le monde. itératives de type « Test, Fail and Learn Fast » augmentées par des pratiques comme MVP (Minimum Valuable Product) et DevOps, garantissent les meilleures chances à un projet d’aboutir étant donné que les technologies déployées sont encore mal maîtrisées et les « use cases » métier souvent non encore affermis par une étude quantitative aboutie. Pour répondre à cela, il est impératif de constituer une équipe pluridisciplinaire métier, DSI et sachants Big Data, en nombre restreint et localisée au même endroit (idéalement un plateau projet). Par ailleurs, faire parler les multitudes de données entre elles exige de rapprocher des métiers jusque-là cloisonnés et d’échanger avec les référents des systèmes producteurs des données. Les nouveaux outils de communication adaptés à cela sont le « data storytelling » et les moyens visuels et vidéos hérités cette fois-ci des agences de communication, comme l’ont démontré à plusieurs reprises les équipes de notre agence Awak’iT. À cela, peuvent s’ajouter d’autres catalyseurs indispensables comme les approches de co-création de valeur de type « design thinking » qui permettent de projeter dès le départ le consommateur/usager au sein de son nouveau service digital. S’il persistait enfin des points de blocage quant à l’accès de la donnée, il serait plus efficace de chercher à concilier les intérêts de chacun des fournisseurs de données via des approches de contrepartie indirecte. “ POUR ALLER PLUS LOIN RETROUVEZ TOUS NOS AVIS D’EXPERTS EN SCANNANT CE QR CODE 414141
  • 42. LA VISION DE GFI INFORMATIQUE. — Architecte ensemblier de vos projets Big Data. 6.
  • 43.
  • 44. | LES VRAIS CHIFFRES DU BIG DATA | 44 L es pratiques décisionnelles assez largement rependues chez les ESN (Entreprises de services numériques) légitiment une sous-partie des « practices » BI à traiter les sujets de la donnée. En effet, elles traitent leur gouvernance, leur véracité, leur cycle de vie et leur utilisation par les métiers tant sur le plan du pilotage de la performance opérationnelle que sur celui de l’analyse descriptive. Ces équipes habituées aux modèles de données et aux KPI et dashboards, quand elles s’attachent à donner un sens pragmatique aux indicateurs auprès/ avec les métiers, sont alors prédisposées à basculer dans le monde ouvert des nouveaux modèles business, du « data storytelling » et des analyses dont le sens est enfoui dans le détail de la complexité des données : le fameux « data driven ». Depuis 2008, Gfi Informatique a pris le virage du « data driven » pour le compte d’un grand avionneur mondial afin de découvrir, à l’aide de l’exploration algorithmique, comment réduire les coûts de maintenance des moteurs et également fiabiliser l’arrivée des nouvelles générations de long-courriers. Les enseignements ont été nombreux et se sont enrichis depuis, au fil des années et d’autres clients dans d’autres secteurs d’activité pour arriver à la conclusion évidente qu’une ESN seule ne peut assumer la complexité des changements que le Digital distille au fur et à mesure de son expansion. Après la révolution de la « data » dans les télécoms, nous allons entrer dans l’ère des objets connectés et bientôt des réseaux intelligents qui étendra le maillage de l’univers Digital bien au-delà des senseurs des smartphones. Les bouleversements économiques à l’aune du retour des « encore réchauffées » approches analytiques de type « machine learning » et « deep machine learning » seront encore plus brutaux que lors de la dernière décennie. Pour ces raisons, nous travaillons en réseau et ce de façon fractale. En premier plan, les ressources avancées des différentes Business Unit de Gfi Informatique collaborent entre elles. Leurs forces s’additionnent avec l’écosystème de start-up françaises de Gfi Informatique pour au final continuer de s’adapter aux changements du marché de par les contraintes que leurs clients/partenaires leur offrent à co-découvrir. Cette nouvelle façon d’appréhender les multiples facettes du monde dépassé de l’informatique est imposée par les impérieux « drivers » de la transformation digitale. Notre position nous amène donc à repenser nos convictions, nos acquis et savoir-faire pour rejoindre ce qui se déroule actuellement dans l’univers des bâtisseurs de « méga- structures », ceux-là mêmes qui bâtissent des monuments modernes sans précédents comme des tours de plus de 800 mètres ou encore des ponts de plus de 150 kilomètres de long. Gfi Informatique s’inspire ainsi du concept d’Architecte Ensemblier à qui l’on 6.
  • 45. | LES VRAIS CHIFFRES DU BIG DATA | 45 confie un nouvel « édifice de la donnée » qui rend un nouveau service ou procure des gains de rentabilité substantiels. La réussite de ces projets complexes repose sur un équilibre instable qui évolue sans cesse notamment sur le plan technologique, de son business model, ou des contraintes réglementaires. De nouvelles perspectives s’ouvrent et imposentànotresociétéderéfléchirsurautant de sujets d’actualité que le Digital Banking, l’Usine 4.0, l’Internet des Objets, ou bien encore le Customer Experience Management. Les changements de paradigme touchent toutes les thématiques du Digital, à commencer par le Big Data. Nous découvrons ainsi qu’il n’est plus suffisant de faire former et certifier des ingénieurs sur Hadoop, mais que le « Mindset », l’état d’esprit, est prédominant. Car les chiffres sont là : 80 % des ingénieurs certifiés n’arrivent pas à développer sur les nouvelles technologies. Ceux qui y parviennent regroupent un certain nombre de compétences intrinsèques comme la capacité à apprendre un nouveau langage rapidement, à s’attacher à comprendre comment fonctionne un système ou un langage, à être suffisamment autonome, à apprendre pas à pas en expérimentant plutôt que d’attendre une formation institutionnelle, et bien d’autres qualités encore. L’accumulationdechangementsdeparadigmes nous a conduit, à l’instar de grandes sociétés, à nous doter d’une cellule Innovation qui incube depuis plus d’un an un certain nombre d’essais, de co-développements avec de grands clients, et ce pour créer une partie des services de demain, à l’image de solutions mobiles citoyennes comme City Hub ou bien encore de la vision à 360° des camions pour Volvo Truck. La création de nouveaux services ne s’arrêtant bien sûr pas aux frontières de l’Innovation, notre branche Software, qui est notamment leader des solutions sur le marché de l’édition progicielle à destination des collectivités locales en France avec plus de 60 produits et plus de 40 % des parts de marché, suit elle aussi le mouvement de la transformation digitale. Sa dernière-née en la matière est VigieSI, dont le socle repose sur les solutions du monde Big Data.
  • 46. Avis d’expert | LES VRAIS CHIFFRES DU BIG DATA | Qu’il s’agisse de la connaissance de ses clients, d’informations liées à son métier ou de son savoir-faire, les données informatiques d’une entreprise sont de plus en plus stratégiques et sensibles. La valeur accordée à ces données conditionne un besoin d’intégrité, de disponibilité et impose également sa confidentialité. Dans ce contexte, il est essentiel de détecter au plus tôt les cyber-attaques, d’alerter et de disposer de moyens d’analyse des activités suspectes. VigieSI supervise la sécurité du système d’information (SI) de l’entreprise en temps réel, permettant ainsi d’améliorer la posture de sécurité de l’entreprise. Dans le cadre du Programme d’investissements d’avenir (PIA), l’État a alloué un budget de 150 millions d’euros au développement et à la diffusion des technologies du « cœur de filière du numérique ». La sécurité numérique fait partie des quatre thèmes ciblés. C’est suite à un appel à projet du PIA autour de cette problématique que Gfi Informatique a été sélectionné par un comité associant notamment Bpifrance, la Direction générale des entreprises, le ministère de la Défense et l’Agence nationale de la sécurité des systèmes d’information (ANSSI). Le soutien de l’État vise à financer des développements innovants venant compléter la solution L’offre anti-intrusion française des systèmes d’information : Par Fabien Corrard, Solution Manager VigieSI, Gfi Informatique Présentation d’offre 464646| LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA |
  • 47. | LES VRAIS CHIFFRES DU BIG DATA || LES VRAIS CHIFFRES DU BIG DATA | VigieSI afin qu’elle puisse répondre aux attentes de grands comptes dans le domaine de la sécurité. La solution VigieSI fait partie de la nouvelle génération des SIEM (Security Information and Event Management) : elle propose une approche « small data » pour l’analyse temps réel du SI à l’aide de puissants corrélateurs d’événements, ainsi qu’une approche Big Data pour l’analyse a posteriori des événements de sécurité. Son module de « machine learning » permet de faire de l’analyse comportementale à partir d’algorithmes d’intelligence artificielle. Ce module permet de détecter les nouvelles attaques et les signaux faibles. Grâce à son architecture de calcul distribué, la solution s’adapte à la volumétrie en entrée, pouvant même provisionner automatiquement des machines virtuelles si elle est hébergée dans une infrastructure de type Cloud. Lors du Forum International de la Cybersécurité (FIC) tenu à Lille les 25 & 26 janvier 2016, regroupant les plus grands acteurs internationaux de cyber-sécurité, Gfi Informatique s’est vu remettre le label « FRANCE CYBERSECURITY 2016 » pour sa solution VigieSI délivré par l’Alliance pour la confiance numérique (ACN) des mains du député Frédéric Lefebvre. Ce label est destiné à promouvoir les produits français dits « souverains ». “ VigieSI. POUR ALLER PLUS LOIN RETROUVEZ TOUS NOS AVIS D’EXPERTS EN SCANNANT CE QR CODE 474747
  • 48. TÉMOIGNAGES. 7. — Plusieurs clients de Gfi Informatique nous ont fait l’amitié de témoigner ici de leur recours au Big Data. Nous les en remercions infiniment.
  • 49.
  • 50. | LES VRAIS CHIFFRES DU BIG DATA | 50 MINISTÈRES ÉCONOMIQUES ET FINANCIERS Par le coordinateur du projet SIRANO LE CONTEXTE DU PROJET Dans le cadre de sa mission de lutte contre la fraude, le secrétariat général des ministères économiques et financiers a lancé fin 2014 le programme SIRANO visant à mettre en évidence des typologies de fraude sur la base du recoupement de différents types d’informations détenues par ses administrations et d’autres sources externes (Open Data notamment). SIRANO fait partie des 50 projets SI de haute importance pour le gouvernement et son déroulement est supervisé à ce titre par la DINSIC (Direction interministérielle du numérique et des systèmes d’information et de communication de l’État). Résolument orienté vers la donnée, le nouveau système met en œuvre plusieurs technologies récentes relevant du Big Data (écosystème Hadoop et traitements d’analyse « machine learning » notamment) afin de répondre à deux enjeux : • Le fort taux d’accroissement des données disponibles alors que le nombre d’agents chargés de les exploiter n’a pas vocation à évoluer aussi rapidement ; • Les opportunités offertes par le croisement massif des données complexes d’origines diverses afin de mettre en évidence des comportements atypiques. L’objectif final de la démarche est d’intégrer pleinement les résultats de ces analyses dans le processus de sélection des investigations afin de traiter en priorité et de fiabiliser les dossiers présentant le plus fort intérêt en termes économiques notamment. LES BÉNÉFICES DE LA PLATEFORME BIG DATA Les bénéfices se retrouvent tout d’abord dans la faculté de l’environnement Hadoop à faire face à la croissance soutenue des données susceptibles d’être collectées dans les années à venir (celles issues du secteur bancaire notamment x 1 000), et ce pour des coûts maîtrisés, ainsi que la possibilité “ TÉMOIGNAGE —
  • 51. | LES VRAIS CHIFFRES DU BIG DATA | 51 de mettre en place des traitements synchrones sur la base d’un flot permanent de données ingérées, ce qui pour nous est nécessaire compte tenu des contraintes de réactivité qui sont les nôtres sur certains sujets (saisie d’avoirs par exemple). Ensuite, le Big Data nous donne la possibilité de valoriser pleinement la masse d’informations détenues par nos administrations en mettant en place de manière itérative des traitements d’analyse massive capables non seulement de faire ressortir par croisement des phénomènes atypiques liés à des schémas de fraude connus, dans une logique d’amélioration continue (« machine learning »), voire d’explorer toute cette masse de données sans pour autant savoir quelle fraude rechercher... Ce point est particulièrement important dans un contexte comme le nôtre où les fraudeurs font parfois preuve de beaucoup d’imagination. De fait, cette nouvelle approche technique permet de considérer l’accumulation de données comme une réelle opportunité dans un domaine où l’État s’est fixé des objectifs d’efficacité très ambitieux. LES APPORTS DE GFI INFORMATIQUE Nous avons d’abord trouvé chez Gfi Informatique des gens passionnés qui nous ont fait prendre conscience qu’il n’est pas nécessaire de disposer de très gros volumes de données pour commencer à augmenter la pertinence de nos analyses. De plus, dans un domaine technique en manque de maturité, l’approche industrielle de Gfi Informatique consistant à s’appuyer en partie sur un réseau de partenaires technologiques à forte valeur ajoutée (« pure players ») nous a semblé particulièrement sécurisante. Enfin, ils ont également su écouter nos spécificités pour nous guider sur nos choix d’architectures que nous avons souhaitées ouvertes afin de permettre un bon niveau d’appropriation par nos acteurs SI (exploitants, « data scientists ») et garantir à l’avenir la montée en charge de SIRANO. “ SECRÉTARIAT D’ÉTAT AU BUDGET MINISTÈRE DES FINANCES ET DES COMPTES PUBLICS
  • 52. | LES VRAIS CHIFFRES DU BIG DATA | 52 BUREAU DE RECHERCHES GÉOLOGIQUES ET MINIÈRES Par Pierre Lagarde, Responsable de la division Information scientifique et technologies numériques LE CONTEXTE DU PROJET Le BRGM, établissement publicde référencedans les applicationsdes sciences de la Terre, est l’un des acteurs majeurs de la diffusion de l’information environnementale en France, notamment sur les données publiques de l’eau. Avec l’Office national de l’eau et des milieux aquatiques (ONEMA) et le ministère du Développement durable en charge du pilotage du Système national d’information sur l’eau (SIE), le BRGM a proposé d’utiliser les technologies du Big Data afin de répondre à un challenge de ses partenaires : « Comment rendre les données sur l’eau plus simplement accessibles aux utilisateurs et favoriser la réutilisation de données dans le cadre de l’Open Data ? » En effet, en France, les données publiques sur l’eau – mesures de la qualité des cours d’eau, suivi des niveaux des nappes souterraines, prix de l’eau potable par service… – sont largement disponibles mais elles sont produites par des centaines d’organismes, stockées dans des dizaines de bases de données spécialisées (selon un système d’information distribué avec des échanges B2B standardisés) et sont structurées dans des formats dédiés aux experts, entraînant une réutilisation trop complexe. LES BÉNÉFICES DE LA PLATEFORME BIG DATA Dans le cadre du programme d’investissement d’avenir (PIA 2015), le BRGM et l’ONEMA (pôle de recherche et d’innovation INSIDE) ont lancé le projet d’une plateforme HUB’EAU, une interface de façade entre les données/ formats du SIE et les « ré-utilisateurs ». HUB’EAU collecte toutes les données sur l’eau, du capteur sur le terrain à l’information réglementaire saisie par un service de l’État, les « digère » avec des traitements intelligents, puis les restitue sous forme d’une API simple avec des temps de réponse compatibles pour des besoins mobiles, applications web, etc. L’organisation distribuée du SIE, les flux incessants de données dans des formats spécialisés, la volumétrie continuellement croissante et les © photothéque BRGM “ TÉMOIGNAGE —
  • 53. | LES VRAIS CHIFFRES DU BIG DATA | 53 exigences sur les temps de réponse de l’API nous ont incités à retenir une solution d’infrastructure et d’architecture Big Data. Du point de vue méthodologique, nous avons orienté notre projet avec une approche dédiée : constitution d’une équipe pluridisciplinaire regroupant développeurs web, « data scientists », « devops » et utilisateurs, puis travail sur des cas d’utilisation courts en exploitant pas à pas les technologies d’Hadoop depuis les plus simples jusqu’aux fonctionnalités les plus poussées – par exemple sur le traitement des données géographiques ou l’indexation complexe. Cette stratégie nous permet de mieux comprendre les forces et les limites du Big Data et de les adapter au fil de notre expérience pour le meilleur usage possible. LES APPORTS DE GFI INFORMATIQUE Les experts de Gfi Informatique nous ont accompagnés au long de ce projet, notamment dans le choix des briques techniques les plus adéquates pour nos besoins : infrastructure dédiée dans le datacenter du BRGM et solution Hadoop HortonWorks. De plus, la volonté du BRGM a été de monter en autonomie le plus vite possible sur ces nouveaux sujets et ce autant sur les volets infrastructures et exploitation que sur le plan de la maîtrise des concepts générauxdu Big Data etdes spécificitésdes modules du framework Hadoop ou des technologies NoSQL. Nous voulions choisir par nous-mêmes et les équipes de Gfi Informatique ont su nous faire comprendre rapidement ce nouvel univers par de nombreux retours d’expériences et parfois certaines métaphores fort utiles. Le projet HUB’EAU est une première expérience pour le BRGM dans le Big Data. L’étude du meilleur appareillage technologique, la commande, la mise en œuvre du cluster Hadoop et les formations des équipes d’exploitation et de développement auront été menées en moins de 4 mois conjointement avec les équipes deGfi Informatique. D’autres cas d’usage sont déjà imaginés avec la communauté scientifique et technique des géosciences et de l’environnement. Plus d’informations sur le projet HUB’EAU : www.hubeau. fr et api.hubeau.fr “
  • 54. | LES VRAIS CHIFFRES DU BIG DATA | 54 UN CAS RÉEL DE FRAUDE DU MONDE DE L’ASSURANCE LE CONTEXTE DU PROJET Un assureur s’inquiétait des raisons des disparités et dérapages des coûts associés à un même type de sinistre. Suspectant des cas possibles de fraude de la part de certains assurés automobilistes, les directions du contrôle de gestion et de l’actuariat souhaitaient partager les diagnostics élaborés par les diverses entités régionales et nationales et analyser ces données, de façon à pouvoir être automatiquement alertées à l’avenir des suspicions de fraude (plus de 150 Go de données). LES BÉNÉFICES DE LA PLATEFORME MYDATABALL Durantlapremièrephaseditede« DataCollection », le croisement des différents domaines de données dans un environnement fichiers plats (« datalake » avec méta-données) a permisde récolter plusde 600 mesures et axes d’analyses : données du conducteur, du contrat, des antécédents, de l’automobile et de ses caractéristiques, des conditions de réparation et des prestataires intervenus sur le sinistre, des écritures comptables… Dans la seconde phaseditede « Data Preparation », nous avons appliqué des méthodes de type ACP (Analyse en composantes principales), Cluster, Régression linéaire, afin de réduire la granularité de certaines données (nombre de modèles de voiture par exemple) et ainsi diminuer la variance des règles à détecter. Dans la troisième phase dite de « Data Modelisation », les matrices de corrélation et les calculs de régression ont permis de construire des scores de survenance d’événements multi-agents pour chaque domaine de données et donc de mettre en place des indicateurs de groupe de données. Dans la quatrième et dernière phase de « Data Discovery », l’utilisation d’algorithmes de Random Forest agrémentés par des techniques de recuit simulé a permis de calculer un ensemble de relations à plus de 5 dimensions ayant chacun un score de qualité de prise de décision. LES APPORTS DE MYDATABALL L’application de cette méthodologie en 20 jours a confirmé le diagnostic sur un fournisseur, un type de véhicule et une région (différente des régions assureurs). Les métiers gérant la fraude suivent son évolution grâce à l’envoi d’alertes émises en cas de divergence des diagnostics initiaux sur la base d’un recalcul automatisé. “ TÉMOIGNAGE — Par StéphaneChauvin, CEO de MyDataBall, partenaire start-up deGfi Informatique
  • 55. Gfi Informatique tient également à remercier chaleureusement les personnes suivantes : Pierre Foulquier, Pierre Lagarde, Bruno Chapuis, Gilles Duvat, Pierre Montcel, Jean-Pierre de Araujo, Sylvie Rebaudo, Olivier Rafal, David Gautier, Vincent Gelineau, Cyril Carretero, Claude Daub, Jean-François Saluden, Florent Bornard, Fabien Corrard, Stéphane Chauvin, Pascal Nanni, Sébastien Dupuis, Stéphane Maisonneuve, Jean Taboni, Maxime Toledano, Jérôme Nabec, Armelle Giroud, Laurent Sollier, Bernard Lehembre et Mylène Couvidoux. — Remerciements — Gfi Informatique remercie tous les interlocuteurs ayant permis la réalisation de ce livre blanc co-rédigé par Alvin Ramgobeen et l’analyste PAC ainsi que l’ensemble des relecteurs dont les éclairages multiples contribuent à la lisibilité d’un sujet émergeant, complexe et motivant. Gfi Informatique tient à remercier MyDataBall, start-up française dont l’outil de visualisation des données a été mis à contribution pour analyser les données de l’enquête et mettre en exergue un certain nombre d’éléments saillants. MyDataBall représente les données complexes sous forme d’arborescences, afin d’identifier les corrélations pertinentes de tous les indicateurs et variables présents dans des jeux de données différents. | LES VRAIS CHIFFRES DU BIG DATA | 55
  • 56. | LES VRAIS CHIFFRES DU BIG DATA | 56 Annexe Méthodologie de l’enquête réalisée pour Gfi Informatique — PAC, une société du groupe CXP, a réalisé une enquête pour Gfi Informatique en juin et juillet 2015 auprès de 221 organisations de 200 personnes et plus en France, sur des problématiques liées à la valorisation des données dans un contexte de transformation numérique. Les graphiques suivants montrent la composition de l’échantillon interrogé. 21 % Industrie et Énergie Transport/ Logistique Banque/Assurance Distribution/ Commerce Télécoms/ Utilities Public Services Autre 16 % 14 % 13 % 7 % 20 % 3 % 6 % 5 000 et plus de 1 000 à 4 999 personnes de 500 à 999 personnes de 200 à 499 personnes 22 % 28 % 30 % 20 % DSI/Responsable SI Spécialiste de la donnée Autre Di�ecteur/Responsable métier (aut�es)— 10 % Di�ecteur/Responsable logistique— 3 % Di�ecteur/Responsable Ma�keting— 2 % Di�ecteur/Responsable RH— 2 % Président/DG Responsable transversal rattaché à la DG (CDO, CMO...) 7 % 9 % 17 % 38 % 19 % 10 % Directeur/Responsable ventes Graphique 9. Répartition des répondants à l’enquête par secteur d’activité Graphique 11. Répartition des répondants par taille d’entreprise Graphique 10. Répartition des répondants par domaine fonctionnel
  • 57. | LES VRAIS CHIFFRES DU BIG DATA | 57 Résultats exhaustifs de l’étude — Le texte de ce livre blanc s’appuie sur des éléments saillants de l’étude, que nous souhaitions mettre en avant et détailler. Cependant, d’autres enseignements peuvent être tirés des résultats, comme la liste complète des freins à prendre en compte lors de l’élaboration d’un projet de transformation basé sur la donnée, ou les modes de financement envisagés ou déjà mis en œuvre pour permettre l’éclosion des nouvelles offres de services numériques. On apprend ainsi que 22 % des entreprises pratiquent la revente de données à des tiers, tandis que 45 % envisagent de le faire. Dans un souci de partage avec le plus grand nombre, et afin que chacun puisse en tirer ses conclusions en fonction de son contexte, nous publions les autres résultats de cette étude en ligne, sur le site www.gfi.fr. Autres études citées dans le document — Ce livre blanc s’appuie en premier lieu sur l’enquête réalisée pour Gfi Informatique. Notre expertise sur le sujet se fonde aussi sur des centaines d’interactions chaque année avec les utilisateurs comme les fournisseurs de technologies, ainsi que sur d’autres enquêtes, dont vous trouverez les sources des plus récentes ci-dessous : • Big Data Use Cases 2015 : enquête réalisée par BARC, une société du groupe CXP, auprès de 559 organisations dans le monde, sur leur usage de la donnée. À télécharger sur : http://goo.gl/e0vZOx (téléchargement gratuit) • CxO 3000 - Investment Priorities – Big Data - Market InSight - Worldwide : étude réalisée par PAC, une société du groupe CXP, auprès de 3000 organisations dans le monde, sur leurs priorités en matière d’investissement IT. À télécharger sur : https://goo.gl/K8cV9L (document payant) • Document de synthèse Syntec Numérique : de la data au Big Data : enquête réalisée par PAC à la demande de Syntec Numérique auprès de 100 profils métier en France sur leurs projets de valorisation de la donnée (document réservé aux membres de Syntec Numérique).
  • 58. | LES VRAIS CHIFFRES DU BIG DATA | 58 À PROPOS DE GFI INFORMATIQUE Acteur européen de référence des services informatiques à valeur ajoutée et des logiciels, Gfi Informatique occupe un positionnement stratégique différenciant entre les opérateurs de taille mondiale et les acteurs de niche. Avec son profil de multi-spécialiste, le Groupe met au service de ses clients une combinaison unique de proximité, d’organisation sectorielle et de solutions de qualité industrielle. Le Groupe qui compte près de 12 000 collaborateurs a réalisé en 2015 un chiffre d’affaires de 894 M€. Pour plus d’informations : www.gfi.fr Suivez-nous sur Twitter : @gfiinformatique À PROPOS DE PAC Fondé en 1976, Pierre Audoin Consultants (PAC) fait partie du CXP Group, le premier cabinet européen indépendant d’analyse et de conseil dans le domaine des logiciels, des services informatiques et de la transformation numérique. Il offre à ses clients un service complet d’assistance pour l’évaluation, la sélection et l’optimisation de solutions logicielles, l’évaluation et la sélection des ESN et les accompagne dans l’optimisation de leur stratégie de sourcing et dans leurs projets d’investissements. Ainsi, le CXP Group accompagne DSI et directions fonctionnelles dans leur transformation numérique. Enfin, le Groupe CXP aide les éditeurs et les ESN à optimiser leur stratégie et leur go- to-market à travers des analyses quantitatives et qualitatives ainsi que des prestations de conseil opérationnel et stratégique. Les organisations et les institutions publiques se réfèrent également à nos études pour développer leurs politiques informatiques. Capitalisant sur 40 ans d’expérience, implanté dans 8 pays (et 17 bureaux dans le monde), fort de 140 collaborateurs, le CXP Group apporte chaque année son expertise à plus de 1 500 DSI et directions fonctionnelles de grands comptes et entreprises du mid-market et à ses fournisseurs. Le CXP Group est composé de 3 filiales : le CXP, BARC (Business Application Research Center) et Pierre Audoin Consultants (PAC). Pour plus d’informations : www.pac-online.com/fr Suivez-nous sur Twitter : @PAC_FR /gfiinformatique @gfiinformatique /company/gfi-informatique /gfiinformatique /gfiinformatique @gfiinformatique /company/gfi-informatique /gfiinformatique
  • 59. Publié par Gfi Informatique 145 boulevard Victor Hugo, 93400 Saint-Ouen Contact : Alvin Ramgobeen alvin.ramgobeen@gfi.fr et Pierre Audoin Consultants (PAC) Groupe CXP 8 avenue des Ternes, 75017 Paris Contact : Olivier Rafal o.rafal@pac-online.com — Conception graphique © Gfi Informatique, Département Marketing et Communication — Impression Handiprint, Groupe Lecaux 31 rue des peupliers 92000 Nanterre — Crédits photos © Fotolia.com