Comment exploiter le big data pour améliorer l'expérience client ? Quelles utilisations de la DMP pour un marketing personnalisé et créatif ? Comment associer big data et programmatiques ?
Toutes les réponses à ces questions, et bien d'autres encore, dans ce livret de synthèse clôturant ce cycle de l'année 2017 consacré à la big data, organisé par l'EBG en partenariat avec IBM, Turn et fifty-five.
4. 2
PRÉAMBULE
Le big data est mort, vive le big data !
Les annonceurs semblent entrer dans
une nouvelle phase de maturité vis-à-
vis de l’utilisation qu’ils font de la data
client. La course au stockage effrénée
est pour beaucoup révolue, et le nerf
de la guerre réside aujourd’hui dans
la capacité à activer la data de façon
rapide et innovante.
Dans la bataille, les lignes des organi-
sations vacillent et s’ouvrent néces-
sairement, l’enjeu étant de croiser les
données au-delà des silos de l’entre-
prise : c’est la fameuse data-driven
company qui émerge. Soit dit entre
nous, le terme est un euphémisme,
car la data n’a de valeur qu’à partir
du moment où elle permet de faire
entendre la voix du client, encore et
toujours roi, plus exigeant que jamais.
Le nouvel eldorado, c’est peut-être la
customer-driven company.
Finalement, les choix technologiques
derrière l’élaboration d’infrastructures
big data ne sont qu’une composante
de chantiers éminemment stratégiques
et dont l’enjeu est simple : continuer
d’exister face au client dans un contexte
de transformation des usages.
5. 3
Pour réfléchir aux meilleures
manières de résoudre le défi, pour
la 3ème année consécutive, l’EBG a
conduit en association avec 55, Turn
et IBM, un cycle de 7 événements,
pour permettre à 150 décideurs mar-
keting, data et digital de partager
leurs retours d’expérience autour de
l’avancée de leurs projets big data.
Le présent livret restitue les enseigne-
ments du cycle, cette année intitulé
Data-Driven Company, à travers sept
grandes synthèses des rencontres,
parsemées de citations des partici-
pants, de chiffres éloquents, d’avis
d’experts et enrichies d’entretiens
complémentaires.
L’EBG remercie l’ensemble des adhé-
rents contributeurs aux rencontres
et aux interviews complémentaires
d’avoir joué le jeu du partage d’expé-
riences. Merci également à nos
partenaires de 55, Turn et IBM avec
qui nous avons bâti le cycle et qui ont
parfaitement su animer ou éclairer les
rencontres de leurs avis experts.
Bonne lecture !
6. 4
P.18
PRÉAMBULEP.02 P.06
P.20
P.08
P.22
P.32
P.34
P.36
P.46
CHAPITRE 1 :
COMMENT EXPLOITER
LE BIG DATA
POUR AMÉLIORER
L'EXPÉRIENCE CLIENT ?
SYNTHÈSE
DE LA TABLE RONDE
DU 17.06.2016
ENTRETIEN AVEC
ALEXIS TRICHET,
ORANGE
CHAPITRE 2 :
QUELLES UTILISATIONS
DE LA DMP POUR
UN MARKETING
PERSONNALISÉ
ET CRÉATIF ?
SYNTHÈSE
DE L’ATELIER DU
20.09.2016
ENTRETIEN AVEC
NICOLAS CAPURON,
TF1
CHAPITRE 3 :
DATA LAKE, L’OUTIL
INDISPENSABLE DE LA
VISION CLIENT 360°?
SYNTHÈSE
DE L’ATELIER DU
16.10.2017
ENTRETIEN AVEC
GAUTHIER LE MASNE
DE CHERMONT,
AIR FRANCE
7. 5
CONTRIBUTEURS
PARTENAIRESP.72
P.86
P.50 P.74
P.58
P.62
P.70
P.60
P.84
P.88
P.96
P.98
P.104
SOMMAIRECHAPITRE 4 :
ASSOCIER BIG DATA
ET PROGRAMMATIQUE
POUR DES CAMPAGNES
PLUS PERFORMANTES
SYNTHÈSE
DE L’ATELIER DU
13.12.2016
ENTRETIEN AVEC
JULIEN CAFEDE,
AUCHAN.FR
CHAPITRE 5 :
METTRE LA DATA
SCIENCE AU SERVICE
DES MÉTIERS
SYNTHÈSE
DE L’ATELIER DU
17.01.2017
ENTRETIEN AVEC
ÉLISABETH ZEHNDER,
KIABI
CHAPITRE 6 :
INTERNALISATION
DE L'ACHAT MÉDIA :
UNE TENDANCE
DE FOND ?
SYNTHÈSE
DE LA TABLE RONDE
DU 17.03.2017
ENTRETIEN AVEC
SIMON VIVIEN,
WARNER BROS
CHAPITRE 7 :
LA DATA AU SERVICE
DE L'EFFICACITÉ
MARKETING
SYNTHÈSE
DE L’ATELIER DU
17.05.2017
ENTRETIEN AVEC
JULIEN-HENRI
MAURICE,
BAZARCHIC
P.48
8. 6
Comment exploiter
le big data pour améliorer
l'expérience client ?
La montée en puissance des canaux digitaux réinterroge la proximité
entre la marque et le client. Beaucoup d’annonceurs ont gardé trace
des interactions à distance qu’ils entretenaient avec leurs cibles, et qu’ils ont
transformées en masses de données éclatées dans diverses bases.
Depuis, le big data est passé par là. Dès lors, comment repenser
sa stratégie marketing pour mobiliser ses données au service
du nerf de la guerre : l’expérience client ?
11. 9 9
PROGRAMME
Le big data est capable de traiter de très forts volumes de données
et de prendre en charge des types d’informations très hétérogènes.
Comment peut-il contribuer à pousser un cran plus loin l’optimisation
de l’expérience client, et à la décliner dans une logique omnicanale ?
• Comment globaliser la gestion de l’expérience client avec le
big data ?
• Visualisation, tableaux de bord : comment suivre en temps réel
les comportements des clients ?
• Comment croiser efficacement données internes et externes
dans une perspective big data ?
ANIMATEURS
• LA MUTUELLE GÉNÉRALE, Stéphane Barde, Responsable big data,
Information Management
• ORANGE, Alexis Trichet, Directeur Anticipation et Connaissance Client
• VOYAGES-SNCF.COM, Béatrice Tourvieille, Directrice Marketing
INTERVENANTS
• FIFTY-FIVE
Samboy Camara,
Practice Leader : Tech, Insurance
Utilities
• IBM
Yan Lemoigne, Head of Sales
Analytics Platform
12. 10
L’EXPÉRIENCE CLIENT,
3 ENJEUX, 1 MÊME
PRIORITÉ
La montée en puissance des canaux
digitaux réinterroge la proximité entre
la marque et le client. La question de
l’expérience en ligne devient absolument
décisive. Essentielle, même, pour tout pure
player. Chez voyages-sncf.com, Béatrice
Tourvieille considère d’ailleurs que « c'est
le premier driver de préférence et de choix
du service de réservations. » Cette priorité
révèle un fort enjeu de personnalisation.
« L'an passé (en 2015), nous avons lancé
un grand projet de refonte de notre service
avec une stratégie axée autour de la notion
de smart tourisme. Cette dernière repose
sur plusieurs piliers : un accès fluide aux
inventaires, un accompagnement sans
couture du voyage. Pour soutenir cette
stratégie, l'expérience client et la data sont
les deux blocs majeurs.
Voyages-sncf.com est le site de tous
les Français. Les 12 millions de visiteurs
mensuels n'attendent pas la même chose.
Le voyage est une expérience impliquante
et on a tous des besoins différents. Les
niveaux de maturité des clients sont très
hétérogènes. C'est pour cela que le besoin
de personnalisation est très puissant. La
convergence de l'expérience client et de la
data vise à répondre à ces enjeux-là. »
Hyperconnecté et de moins
en moins engagé envers une
marque ou un fournisseur,
le consommateur cherche
non seulement des prix
avantageux, mais aussi à
faire de son acte d’achat une
expérience affinitaire auprès
d’un vendeur qui le connaît,
le reconnaît et anticipe ses
besoins.
À ce titre, l’amélioration de
l’expérience client reste plus
que jamais essentielle pour
attirer et retenir les
consommateurs.
13. 11
Chez Orange, c’est la satisfaction client qui
préside à la recherche d’une « expérience
incomparable », notion centrale du plan
Essentiel 2020, rapporte Alexis Trichet.
« Si on veut parvenir à piloter l'expérience
client comme on pilote aujourd'hui le CA ou
la conquête de clients, il faut se donner un
objectif clair. Pour nous l’objectif c’est de
diminuer le nombre de clients insatisfaits
et d’augmenter le nombre de clients très
satisfaits. Si l’on parle des clients insa-
tisfaits, aujourd'hui, ils sont environ 20 %.
Les entreprises les plus performantes
sont plutôt autour de 10 %. Ce sont ces
niveaux que nous voulons atteindre. C'est
une rupture par rapport aux périodes
précédentes où l'on s'attaquait à la notion
d'expérience client par petites touches et
sans objectif global. »
Mais la révolution de la relation client se
joue à la fois du physique et du digital. C’est
particulièrement le cas dans le monde de
l’assurance. « Historiquement, rappelle
Stéphane Barde (La Mutuelle Générale),
les contacts se sont faits en agence, puis
en call-center. Désormais, nous sommes
dans l'ère de la multicanalité. » Dès lors,
avant même de penser personnalisation,
un premier enjeu s’impose, celui de la
« cohérence de l'expérience que l'on fait
vivre à nos clients. Les interactions sont
peu fréquentes, et lorsque l'on appelle son
assureur, c'est généralement parce qu'il
y a un problème. L'interaction est donc
connotée assez négativement. L'enjeu
consiste à avoir davantage d'interactions
positives. »
ENRICHIR LES DONNÉES
INTERNES DE LA VOIX
DU CLIENT
Les canaux digitaux ont permis aux marques
d’accumuler foultitude de données depuis
plusieurs années, sans doute davantage
qu’elles n’étaient réellement capables de
traiter. Le big data en permet maintenant
une exploitation suffisamment rapide parfois
même en temps réel. Belle promesse, mais
qui ne saurait suffire.
Pour Alexis Trichet, les data internes à
l’entreprise doivent impérativement être
croisées avec « la voix du client ». Au
regard de l’enjeu d’Orange de maximiser
la satisfaction client, il s’en explique. « On
note trois grands motifs d'insatisfaction
des clients : le réseau, l'offre et la
relation client. Le premier produit d'un
opérateur, c'est le réseau. On considère
que les principaux efforts doivent se
concentrer sur ce point. Cela passe par
une compréhension fine des attentes des
clients. Cela a modifié la vision des équipes
techniques. Typiquement sur le mobile,
40 %
RÉCONCILIATION / AGRÉGATION
DE DONNÉES HÉTÉROGÈNES
32 %
COMMUNICATION / COMPRÉHENSION ENTRE
LES INTERVENANTS TECHNIQUES ET MÉTIERS
31 %
PROCESSUS DE COLLECTE
DE LA DONNÉE COMPLEXE
31 %
MANQUE DE COMPÉTENCES TECHNIQUES OU
DE RESSOURCES QUALIFIÉES
QUELLES SONT LES PRINCIPALES DIFFICULTÉS À SURMONTER CONCERNANT
VOS PROJETS STRATÉGIQUES AUTOUR DE LA DATA ? (Plusieurs réponses possibles)
Source : Baromètre EBG « Data Driven Entreprise » conduit auprès de 800 répondants, novembre 2016
14. 12
cela nous a obligés à revoir l’importance
de la couverture vs les débits, et de revenir
à des évidences : les gens veulent être
connectés partout et aujourd’hui cette
demande n’est pas encore totalement
satisfaite. Il y a donc une grande mutation
en cours : le marketing, qui était jusque-
là concentré sur l'ingénierie tarifaire, doit
désormais éclairer les porteurs de coûts,
soit les équipes techniques et relation
client, sur les projets prioritaires pour tenir
nos objectifs de satisfaction. »
Voyages-sncf.com a « également vécu
cette phase de remise au centre des
attentes clients » confie Béatrice Tourvieille.
« Il y a une grande complémentarité
entre la partie data et la partie études
pour permettre aux équipes de mieux
s'approprier les attentes des clients. Notre
communication était très centrée sur les
tarifs ; il a fallu faire davantage remonter
des éléments liés au voyage en tant que
tel. La voix du client a été un élément très
fédérateur et mobilisateur pour les équipes,
à travers des KPIs très clairs. »
Le big data porte peut-être mal son nom.
À l’heure du marketing personnalisé, son
principal avantage n’est pas tant de permettre
l’exploitation de larges bases de données,
mais de savoir faire parler des données
de diverses sources et recelant des
informations variées. « L'expérience client
est également un moyen de capter des
données qui, aujourd'hui, nous manquent.
Ces données, une fois travaillées, nous
permettront de personnaliser ce que l'on
apporte aux clients, avant et après la vente. »
observe ainsi Stéphane Barde (La Mutelle
Générale).
SOURCES DE DONNÉES :
FAUT-IL ALLER VOIR
AILLEURS ?
Une fois la « voix du client » captée, faut-
il se tourner vers les multiples sources de
données externes, aujourd’hui disponibles,
en accès libre ou payant ?
Chez voyages-sncf.com, qui a « la chance
de ne pas manquer de données (CRM,
usage, navigation), le cœur de ce qui est
utilisé, ce sont les données internes. »
Ce qui n’empêche pas d’aller voir ailleurs.
« Nous utilisons aussi des données
externes, comme les données de ciblage
que peuvent nous apporter tous les outils
d'acquisition. Nous avons aussi recours à
des données autour du voyage (référentiels
géographiques, points d'intérêts, données
météorologiques, etc.). »
Une logique similaire prévaut chez Orange,
où la priorité va d’abord à l’exploitation des
données internes. « Nous faisons quelques
achats pour ce qui concerne l'activation
sur Internet. Mais sur l'amélioration du
service rendu, ce sont avant tout nos
propres données qu'il convient de scruter.
88 % des entreprises estiment disposer
d’une bonne connaissance de leurs clients
15. 13
Les équipes techniques n'ont pas manqué
l'arrivée d'Hadoop il y a quelques années.
Elles étaient plutôt en avance sur nous. »
Le recours aux données externes vient
donc dans un second temps. Il importe
avant cela de savoir capter soi-même les
bonnes données. En 2016, La Mutuelle
Générale travaillait sur ce chantier. « Il y a de
nombreuses réflexions menées autour de
la donnée. Il nous manque énormément de
matière pour faire de la personnalisation.
Il convient donc d'identifier les données
clefs qui nous manquent et de modifier nos
parcours clients pour capter ces données.
Des projets de personnalisation de la page
d’accueil, du tunnel de vente, de l'espace
client sont en cours et la Data Management
Platform devrait nous y aider.
Pour l'heure, nous n'avons pas tellement
eu recours à des données externes. Sur
l'open data, on reste sur de grand classique
(données INSEE, densité de professionnels
de santé par km², etc.). Une expérience
intéressante en cours vise à avoir un
thermomètre sur le mécontentement en
analysant des forums. On n'en est encore
qu'au stade du balbutiement sur ce point. »
UN EFFORT DE
DÉSILOTAGE CHEZ TOUT
LE MONDE ENGAGÉ
Une fois les données captées ou acquises,
le chantier ne fait que débuter. Et puisque
l’expérience client implique de près ou de
loin toutes les fonctions, la transformation
sera collaborative ou ne sera pas. Pour
Stéphane Barde (La Mutuelle Générale),
« l'enjeu de l'expérience client est avant tout
un enjeu de prise de conscience sur le fait
que cela ne concerne pas que le marketing !
Il s'agit donc de travailler de manière
transverse autour du concept de parcours
client et d'amélioration de l'expérience. »
Béatrice Tourvieille (voyages-sncf.com)
dresse un constat similaire. « La partie data
a été placée au marketing. Ensuite, il y a
un vrai enjeu de rayonnement de cette data
au sein de l'organisation. Nous sommes
organisés autour de feature teams, qui
sont des équipes multi-compétences
chargées de gérer des fonctionnalités du
site. Aujourd'hui, la data doit être injectée
au sein de chacune de ces feature teams. »
Chez Orange, la transversalité est aussi de
mise, avec pour objectif d’aligner chaque
direction autour des mêmes objectifs
de satisfaction client. « Au point de vue
organisationnel, témoigne Alexis Trichet,
il a fallu s'appuyer sur une gouvernance
destinée à traiter les problèmes de
1. Source : Talend
Mais seulement 61%des consommateurs
pensent que les entreprises comprennent leurs
besoins1
16. 14
satisfaction client. Elle réunit la Direction
Technique, la Direction de la Relation Client
et la Direction Marketing. Tous les quinze
jours, nous analysons les indicateurs de
qualité tournés clients. »
Cet alignement dépasse la question de
l’organisation et de la gouvernance. Les
outils utilisés doivent également évoluer
pour permettre un pilotage plus customer-
centric. « Ce que nous cherchons à faire
c’est à piloter pour chacun de nos clients
leur satisfaction. Cela nécessite une
évolution notable de notre CRM qui, jusqu’à
présent, était plutôt orienté historiques des
interactions, offres et options. Notre vision
c’est qu’il contienne tous les éléments qui
nous permettront de considérer ce client
comme satisfait ou insatisfait pour pouvoir
agir en conséquence.
Il y a évidemment des fiches clients sur
lesquelles sont inscrites quasiment toutes
les interactions. Il s'agit ici de construire une
vue à 360 degrés en inscrivant également
ce que l'on a compris de l'expérience
technique telle que le client l'a vécue.
Nous n'en sommes qu'aux prémices, mais
l'interaction avec le produit/service doit
être résumable. »
DEPUIS 2016, PREMIERS
PAS VERS LA DMP
Interrogés sur leurs recours à la DMP,
les intervenants confient tous trois s’être
lancés. Mais Béatrice Tourvieille avertit,
« pour bien utiliser la DMP, il faut déjà avoir
un niveau de compréhension des canaux
assez fin. On travaille ainsi sur des scénarii
d'activation en cross-canal. » Elle précise le
contexte du recours de voyages-sncf.com à
la DMP. « L'acquisition est assez centrale
dans le modèle, avec des degrés
d'importance différents dans le business.
En France, on est davantage dans une
approche CRM ; à l'international on est plus
dans une logique de conquête. La DMP
nous permet d'avoir une activation la plus
fine possible pour activer en acquisition et
sur des canaux externes des clients que
nous connaissons déjà. Il a d'abord fallu
passer par une phase de mise à niveau de
tous les canaux d'activation. »
À La Mutuelle Générale, la DMP est
également vue comme un levier d’optimi-
sation de la stratégie d’acquisition. « Pour
l’acquisition, explique Stéphane Barde, en
fonction des canaux d'entrée, on essaie
déjà de comprendre comment les clients
vont se révéler appartenir à tel ou tel type
de profil. L'idée consiste à faire les bons
investissements médias en amont, en
TOP 3 DES OUTILS D’ANALYSE DE LA DATA (Plusieurs réponses possibles)
OUTILS DE WEB ANALYTICS
OUTILS CLASSIQUES DE REPORTING
OUTILS D’ANALYSE STATISTIQUE / DATAMINING
55 %
48 %
45 %
Source : Baromètre EBG « Data Driven Entreprise » conduit auprès de 800 répondants, novembre 2016
17. 15
fonction du type de clients que l'on aimerait
avoir. La DMP nous servira à atteindre cet
objectif, en faisant le lien entre différents
segments de données. »
NOUVELLES
COMPÉTENCES : LES
ATTIRER…ETLESRETENIR
On l’a vu, repenser l’expérience client
grâce au big data, c’est savoir capter les
bonnes données et par la suite, repenser
l’organisation, la gouvernance et ses outils.
Mais ce n’est pas tout. Le nerf de la guerre,
ce sont les compétences.
Des remarques récurrentes à ce propos
pointent la difficulté à trouver des profils de
data scientists. La compétence est sans
doute d’autant plus rare qu’elle requiert
tout à la fois une bonne compréhension des
enjeux métiers et la maîtrise d’outils pointus.
À La Mutuelle Générale, la compétence
est d’ailleurs « partagée entre différentes
équipes travaillant en mode agile ». Aussi
Stéphane Barde confie-t-il. « Le premier
challenge, avec les data scientists, c'est
de parvenir à les recruter ! Les vrais
profils sont assez rares et le monde de la
data science est actuellement très petit.
Il y a peu de seniors dans ce domaine.
Quand on n'est pas un pure player et que
l'on se lance dans la data science, c'est
difficile. Nous avons choisi de valoriser les
compétences internes et de prendre un
ou deux très bons data scientists. Nous
avons aussi pris des stagiaires issus de
très bonnes écoles que nous formons.
Cette formule fonctionne plutôt bien. Tout
l'enjeu consiste à les faire rester en rendant
les missions intéressantes. »
Pour disposer des compétences suffisantes,
Béatrice Tourvieille (voyages-sncf.com) mise
elle aussi sur la montée en compétences,
avec le développement d’un écosystème
de profils. « Il est en effet très difficile
de recruter, puis de retenir des data
scientists. Nous avons recruté des juniors
et seniors avec cette logique de montée en
compétences. Des prestataires travaillent
également avec nous pour compléter les
équipes. Nous tenons à mettre en place
une certaine porosité entre les équipes
datamining et les équipes data science
pour offrir de la montée en compétences.
La confrontation des équipes data science
avec des contraintes business, des con-
traintes d'implémentation ne se fait pas
naturellement. Nous avons créé des
nouveaux rôles, comme par exemple celui
de product owner d'algorithme, pour jouer
un rôle de facilitateur. Un écosystème de
profils se crée et évolue dans le temps ; il
convient de le faire vivre régulièrement. »
Pour les quelques acteurs qui, comme
Orange, ont la chance de pouvoir capitaliser
sur une expertise historique d’analyse de la
donnée, la data science peut également être
vue comme une chance de nourrir une partie
d’équipe en sujets nouveaux et entrainants.
« Historiquement, rappelle Alexis Trichet, il
y a toute une partie recherche de France
En 2016
19% des annonceurs français affirmaient s’être déjà dotés d’une DMP
23% y travaillaient 25% y réfléchissaient
18. 0
0
60 %
48 %
47 %
46 %
Source : Forrester Consulting pour Accenture Interactive, Juin 2016, Via EMarketer
DÉVELOPPER/AMÉLIORER LES CANAUX DIGITAUX
DÉVELOPPER/AMÉLIORER LES CANAUX
TRADITIONNELS
AMÉLIORER SES CAPACITÉS D’ANALYSE POUR
AMÉLIORER LES INSIGHTS
CRÉER DAVANTAGE DE CONTENUS PERTINENTS
POUR LES CLIENTS
Télécom qui était très pointue dans le
domaine des statistiques. Nous avons
donc la chance d’avoir une expertise très
solide depuis de nombreuses années.
L’équipe de datamining/datascience, qui
traditionnellement au marketing était
concentré sur des sujets de pricing et
d’évaluation de ROI, est depuis 2 ans
redéployée en partie sur le sujet de la
satisfaction, sujet passionnant pour les
équipes. »
LA CONFIANCE AU CŒUR
DES DÉBATS
La condition essentielle pour une expé-
rience client incomparable est sans conteste
le maintien du lien de confiance entre
l’utilisateur et la marque. Le client n’autorisera
pas la manipulation à distance de ses
données personnelles sans contreparties ;
en premier lieu, il exigera de se voir apporter
un supplément de valeur. Un pure player
comme voyages-sncf.com en a pleinement
pris conscience. « Nous utilisons les données
clients pour travailler des éléments de
personnalisation et améliorer la satisfaction.
On reste donc dans des enjeux d'apport de
valeur ajoutée. C'est d'ailleurs notre sujet
principal, il n'y a donc aucune tentation de
diverger de cette ligne.
L'expérience client est globalement en
train de se disperser, de s’éclater. Il y a un
enjeu fort à porter notre message et notre
service à l'endroit où sont nos clients.
Pour apporter de la valeur ajoutée partout,
c'est la connaissance client qui constitue
le socle. C'est là-dessus que se fonde la
pertinence de nos interactions. »
La deuxième contrepartie pour avoir
légitimité à manipuler à distance les
données personnelles du client, c’est
d’être transparent sur l’usage que l’on fait
des data – ainsi que le prévoit d’ailleurs la
réglementation. Alexis Trichet rappelle pour
Orange : « Dès que l'on entre dans des
démarches commerciales, on demande
évidemment l'accord du consommateur.
La CNIL est prise au pied de la lettre et on
reste bien à distance des terrains glissants. »
Stéphane Barde (La Mutuelle Générale)
résume en concluant qu’il y a pour eux
« deux garde-fous naturels : les contraintes
légales et la nature même de l'entreprise.
Une des valeurs essentielles des mutuelles,
c'est la solidarité. Nous avons donc une
barrière éthique qui s'impose naturellement
à nous-mêmes. Par exemple, nous avons
refusé d'établir un score qui prenne en
compte le prénom.
Par défaut, les données sont anonymisées.
Ce parti-pris fort coûte de l'argent et de
l'énergie. Pour chaque data set traité, une
fiche sécurité est créée pour mentionner
les données sensibles qui s'y rapportent. »
PRINCIPALES INITIATIVES POUR AMÉLIORER L’EXPÉRIENCE CLIENT
(Étude internationale)
19. 17
Nicolas Vaudran
55
L’analyse et l’activation des données ont désormais des applications infinies à chaque
étape du parcours client, que ce soit en phase :
• d’acquisition : scoring de lead, ciblage, segmentation, personnalisation des canaux
proposés selon les préférences du client…
• d’engagement et de conversion : pilotage des parcours grâce à l’analytics, up-sell
et cross-sell ciblé…
• ou de fidélisation / rétention : campagnes de fidélisation personnalisées, programmes
prédictifs anti-churn…
L’exploitation des données permet de mettre en perspective les comportements des clients
pour adapter sa stratégie de marque, et de mesurer la juste performance des actions menées.
Face à cette richesse, l’enjeu est de proposer une expérience client différenciante par
rapport aux concurrents et cohérente du point de vue client, à l’heure où celle-ci devient
centrale dans la stratégie de marque.
Le pilotage de l’expérience client par la donnée dépasse maintenant le seul cadre du digital :
ainsi, l’utilisation de bases de données tierces, par exemple celle de Facebook et ses
30 millions d’utilisateurs en France, permet de recouper les informations contenues dans
les programmes de fidélité des commerçants (nom, prénom, adresse email) et les données
de navigation digitales, décrivant ainsi les parcours client digitaux en amont de l’achat en
boutique.
De nouvelles notions voient alors le jour, comme le super chiffre d’affaires (CA)
rassemblant CA digital et CA en magasin, ou encore les contributions des campagnes
mobiles aux conversions en magasin, qui constituent autant d’outils de pilotage de
l’amélioration de l’expérience client globale, à la fois physique et digitale.
Comment exploiter le big data pour améliorer
l'expérience client ?
AVIS D'EXPERT
20. 18
« Le potentiel
est gigantesque »
ORANGE
ALEXIS TRICHET
Directeur Anticipation
et Connaissance Client
Alexis Trichet partage ses impressions
sur la conférence d’ouverture et insiste
sur le potentiel de l’utilisation des
données internes dans l’amélioration
de la satisfaction client.
Entretien
QUE VOUS INSPIRENT LES PROJETS
DE VOYAGES-SNCF.COM, LA
MUTUELLEGÉNÉRALEETVOUS-MÊME?
Ce qui m’a marqué, c’est que nous avons
tous décidé de prendre le sujet du big data
par les use cases. Nous partageons l’idée
qu’il faut avoir une question business à
résoudre.
J’ai également observé que nous sommes
tous en train de nous réapproprier nos
propres données : il y a déjà tant à faire
avec ce dont nous disposons. Le potentiel
est gigantesque et alimentera sans doute
fortement les 2-3 prochaines années.
COMMENT SÉLECTIONNEZ-VOUS LA
BONNE DONNÉE ?
Nous faisons quelques achats pour ce
qui concerne l'activation sur Internet.
Mais sur l'amélioration du service rendu,
ce sont avant tout nos propres données
qu'il convient de scruter. Les équipes
techniques n'ont pas manqué l'arrivée
d'Hadoop il y a quelques années. Elles
étaient plutôt en avance sur nous.
VOUS AVEZ DÉCRIT LA SATISFACTION
CLIENT COMME UN ÉLÉMENT CENTRAL
DU PLAN ESSENTIEL 2020 ?
Nous sommes en plein effort pour
comprendre ce qui est déterminant dans
la satisfaction de nos clients. Le fait de
croiser la voix du client et les données
internes à l’entreprise se révèle donc
absolument essentiel pour poser les bons
diagnostics. Et sans bon diagnostic, pas
de bon remède.
Si l’on n'est pas en mesure d'aller loin
dans la résolution de nos problèmes de
qualité, c'est parce que jusqu'à présent,
les équipes s'attachaient soit aux données
internes, soit au client, mais pas à ces
deux éléments simultanément. La réunion
de ces deux axes permet d'avoir une
vision autrement plus pertinente.
AVEZ-VOUS, VOUS AUSSI, FAIT LE
CHOIX DE LA DMP ?
Nous avons aussi décidé de mettre
en place une DMP qui tourne depuis
quelques mois sur deux cas : la fibre
et Sosh. Nous sommes encore en
rodage mais les premiers résultats sont
prometteurs.
18
21. 19
CONCLUSION
Les directeurs marketing seraient en passe de devenir les gardiens du temple
de l’expérience client. Une affirmation à nuancer, au moins deux fois.
Tout d’abord, parce que les métiers du marketing devront accélérer leur
mutation, autour du triptyque personnalisation, contenus et data. Ces trois
ambitions sollicitent des compétences et des savoir-faire nouveaux : la maîtrise
des outils issus du big data, la capacité à entraîner les agences vers une
créativité sans cesse renouvelée, le bagage technique pour dialoguer avec des
profils davantage math que mad men…
De plus, pour faire de l’expérience client l’alpha et l’oméga de sa stratégie
marketing, la transformation des métiers du marketing ne saurait y suffire.
Il revient aussi aux équipes IT, digitales, data, ou encore, des opérations, de
se changer en éclaireuses au-delà des silos ; car ce dernier obstacle empêche
encore de disposer d’un réel panorama clients, prélude indispensable à la
qualité de l’expérience.
22. 20
Quelles utilisations de la DMP
pour un marketing
personnalisé et créatif ?
Les consommateurs ont adopté toute une série de tactiques
pour contourner les messages publicitaires.
La DMP peut-elle aider les équipes marketing
à construire des messages plus percutants
qui sachent (re)conquérir l’attention de leur audience ?
25. 23 23
• TURN, Kamal Mouhcine, Sales Director South Europe
• TURN, Eymeric Chateau, Country manager Central Southern Europe
ANIMATEURS
PROGRAMME
La DMP promet de maximiser la connaissance de chaque client et
prospect pour produire une interaction hyper-individualisée. Mais dans
le même temps, les équipes marketing doivent repenser leur stratégie
éditoriale et trouver de nouvelles façons d’engager l’utilisateur tout au
long du tunnel de conversion.
• Comment la data peut-elle nourrir une stratégie de marketing
de contenus créative ?
• Scénarisation : quelles bonnes pratiques pour construire
des campagnes imaginatives et engageantes ?
• Quels sont les apports et les limites de la DMP dans ce nouveau
marketing personnalisé et créatif ?
PARTICIPANTS
• TRANSAT FRANCE
Roberta Graser, Responsable Pôle
Audience Acquisition
• FRANCE TÉLÉVISIONS
Skander Essid, Responsable
Technique Data et Digital Marketing
• SPECIALCHEM
Éric Escure, Directeur Technique
• IBM
Bertrand Douriez, IBM Software Sales
• CRÉDIT MUTUEL NORD EUROPE
Rémi Deltombe,
Responsable Data Management
• BOURSORAMA
Caroline Baldeyrou, Directrice Média
• BOURSORAMA
Aurélie Rossignol,
Responsable Datamining
• FNAC
Camille Berland, Responsable
Marketing Digital Relationnel
• UBISOFT
Gwenn Berhault, EMEA CRM Manager
• FIFTY-FIVE
Mike Bettan, Media Analytics
Senior Manager
• FIFTY-FIVE
Gwenn Charlot, Project Lead
• CABINET HOCHE
Régis Carral, Avocat Associé
• RENAULT
Servane Corot,
Chef de projet PRM
• CHANEL
Laura Yedid, Responsable
Fidélisation e-commerce
• ORANGE
Valérie Pernelle,
Head of Customer Value
Management Big data
• KIABI
Arnaud Mandon, Trafic Manager
26. 24
RÉPONDRE À UN DEVOIR
D’INSTANTANÉITÉ
Avant de débuter les échanges, Kamal
Mouhcine (Turn) rappelle la raison d’être de
la DMP.
« Une Data Management Platform est, en
quelque sorte, un entrepôt de données
dans lequel seront stockées un maximum
d’informations issues de sources différen-
tes. Le principal enjeu consiste à unifier
ces sources d’informations afin de les
mettre au service de l’amélioration de
la connaissance client. La grande force
d’une bonne DMP, c’est d’avoir un
maximum de connexions préétablies, afin
de faciliter le fonctionnement du dispositif
global. Tout ce système doit répondre à
un devoir d’instantanéité : bien souvent,
une information (par exemple, le signe
d’une volonté de résiliation du contrat d’un
consommateur) doit nécessiter une réaction
marketing immédiate (appeler l’abonné pour
faire le point sur sa situation, selon le même
exemple). Malheureusement, l’insight est
bien souvent assez peu valorisé, les acteurs
tendent à rechercher le ROI immédiat… Le
grand défi n’est pas de récolter toujours
davantage de données, mais de parvenir à
identifier les bons insights.
Concernant la notion de programmatique,
l’écosystème n’en est encore qu’aux
balbutiements. Mais l’objectif ultime consiste
à disposer d’une vision véritablement unifiée
(social, vidéo, mobile, display, etc.). »
Par Kamal Mouhcine
et Eymeric Chateau, Turn
« La notion de big data ouvre
la voie à la collecte d’un
nombre très important de
données, peut-être même
trop important… Au cours
des dernières années, de
plus en plus d’internautes
ont adopté les dispositifs
adblockers, car ils estiment
que les messages ne sont
pas adaptés, ou sont trop
peu créatifs. Aujourd’hui, il
est nécessaire de parvenir à
déclencher une véritable
conversation avec les
consommateurs, sinon le
message sera noyé parmi
des centaines d’autres… »
27. 25
DE LA CONNAISSANCE À
L’ENGAGEMENT CLIENT
Kamal Mouhcine (Turn) prolonge ses propos
introductifs.
« Comment la data peut-elle vous aider à
proposer des campagnes plus intelligentes ?
La donnée brute relève de la notion de
connaissance client, alors que la créativité
se propose de toucher à la notion
d’engagement. En un mot, la créativité
permet d’optimiser l’expérience de marque.
Du côté de l’annonceur, l’enjeu principal
consisteàrationalisertouteslesdonnéesafin
d’aller rapidement à l’essentiel : commencer
par des choses simples, identifier une
poignée de données clefs, regrouper cette
donnée en cibles marketing, rechercher
des insights utiles. Dans ce contexte,
les créatifs doivent impérativement être
intégrés dans l’ensemble de cette chaîne.
Turn a interrogé environ 250 créatifs présents
au Royaume-Uni. Le premier grand ensei-
gnement de cette étude, c’est que le
concept de data est bien peu maîtrisé par
cette population, alors même qu’il est d’une
très grande utilité et que les data ont tout
intérêt à être partagées avec la totalité de la
chaîne de valeur.
Cette étude contribue également à montrer
qu’il existe de très grands écarts en fonction
des générations de créatifs. Jeunesse
ne rime pas forcément avec sagesse, car
pour les millennials ou la génération Y,
la donnée n’est pas jugée absolument
nécessaire… Or, bien comprendre son
audience à travers les data permet de
proposer des formats beaucoup plus
impactants. Il convient donc d’évangéliser
ces populations en proposant davantage de
transparence, en les impliquant beaucoup
plus dans la réflexion, en fluidifiant au
maximum le partage. »
PERSONNALISER LES
MESSAGES GRÂCE À
LA DMP
L’objet de l’atelier était de réfléchir aux
usages de la DMP au service de campagnes
imaginatives et engageantes. Il convient
donc de sortir des messages standardisés.
L’importance de la personnalisation à l’ère
du marketing digital n’est plus à démontrer :
début 2014, une étude Terradata révélait
déjà que 80 % des directions marketing
digital y voyaient la clé de succès de leurs
initiatives1
.
Skander Essid (France Télévisions) partage
un cas d’usage de la DMP en ce sens. « Sur
la plateforme Culturebox qui regroupe
toute l’offre culturelle de France Télévisions,
la newsletter proposait auparavant à tous
les abonnés les mêmes sujets présentés
de la même façon... Depuis quelques
temps, grâce à la DMP, nous sommes en
1. Teradata 2014, Étude « Digital Marketing Insight Report » menée auprès de 1506 décideurs marketing
à travers le monde.
Début 2014, 80%des directions marketing
digital voyaient déjà dans la personnalisation la
clé de succès de leurs initiatives1
.
28. mesure de proposer une personnalisation.
Une analyse du parcours sur Culturebox
et sur les autres sites du groupe France
Télévisions permet de segmenter les
appétences : théâtre, cinéma, comédies
musicales, etc. Il s’agit de données
comportementales et anonymes, car il
n’est pas nécessaire d’être logué pour
naviguer sur nos sites.
Aujourd’hui, l’objet de la newsletter
ainsi que l’article présenté à la une sont
personnalisés en fonction du profil de
chaque abonné. Le dispositif nous a permis
de multiplier par cinq le taux d’ouverture. »
La DMP peut donc être utilisée pour affiner
en continu le ciblage de l’audience et en
ce sens, scénariser une succession de
messages plus percutants, plus vivants.
Eymeric Chateau (Turn) détaille ce principe
de scénarisation. « Au-delà de la data,
l’enjeu est de créer différents segments.
Sur le marché, une grande tendance
émerge : le dispositif d’analyse de clusters.
Le premier constat, c’est qu’il y a plein
de caractéristiques contradictoires dans
l’audience, et le risque est d’entrer bien
trop dans le détail. Autant d’opportunités
manquées pour les marques…
L’ambition de l’analyse de clusters consiste
à identifier quelques grandes tendances
dans des populations très larges afin
de former, ensuite, des sous-groupes
représentatifs dotés d’une poignée de
caractéristiques définies.
Cette analyse offre la possibilité de voir
subtilementdequellemanièrelesaudiences
réagissent aux messages créatifs. C’est
l’opportunité de créer des contenus qui
vont faire écho à votre audience.
Il s’agit également de comprendre la
complexité du fameux customer journey :
on porte une analyse macro sur chacun
des groupes afin de déterminer quelle
fréquence de messages paraît la plus
appropriée, par exemple.
Enfin, l’objectif ultime consiste à prédire les
prochains intérêts de vos clients et de vos
prospects. À terme, nous parviendrons à
déployer des outils qui soient en mesure de
tout intégrer : CRM, vidéo, mobile, social… »
ADAPTER SA PUBLICITÉ À LA GÉNÉRATION : RÉPARTITION DE
L’INVESTISSEMENT MÉDIA PAR CANAL
Les annonceurs investissent 500 % de plus auprès de la génération Y que de toute autre audience
Dans le display Dans les réseaux
sociaux
Dans les appareils
mobiles
Dans les vidéos
26
29. 27
Régis Carral
Cabinet Hoche
L’ŒIL DE L’AVOCAT
« Vouloir mieux connaître son client ne doit
pas avoir pour conséquence de limiter
ses droits et libertés »
La DMP a pour objet d’améliorer la qualité de la relation client, notamment en centralisant
l’ensemble des données le concernant collectées par différents moyens au cours de la
relation. Une fois centralisées, ces données peuvent être analysées et classées afin d’établir
le profil du client et lui proposer des services adaptés et personnalisés. Les informations
analysées sont de plus en nombreuses et précises en vue d’élaborer ces profils clients
qui se veulent plus pertinents.
Toutefois, vouloir mieux connaitre son client ne doit pas avoir pour conséquence de limiter
ses droits et libertés en matière de protection des données personnelles, à plus forte raison
si les interactions avec le client et leurs contenus dépendent de l’appartenance à un profil
déterminé.
En effet, selon le Règlement UE n°2016/679 du 27 avril 2016 relatif à la protection des
données personnelles, applicable à compter du 25 mai 2018, le profilage consiste à traiter
des données personnelles pour analyser, évaluer certains aspects personnels ou prédire
les préférences et les comportements d’une personne. Le principe est l’interdiction de
recourir au profilage puisque le texte prévoit le droit ne pas faire l’objet d’une décision
exclusivement fondée sur le profilage, sous réserve des quelques dérogations prévues par
ce texte. Dans l’hypothèse d’un profilage, la personne concernée doit être informée de son
existence, des conséquences et de son droit de s’opposer à celui-ci.
Enfin, en cas d’évaluation systématique et approfondie d’aspects personnels, notamment
grâce au profilage, le Règlement prévoit qu’une analyse d’impact relative à la protection
des données est requise.
Source : Résultats de l’analyse des données provenant de la plateforme Turn, 2016
30. 28
MÉDIAS VS. CRM :
QUI PILOTE LA DMP ?
Comme Gwenn Berhault (Ubisoft) le rappelle,
« on tend généralement à opérer une
distinction assez nette entre DMP CRM
et DMP Média. Pourtant, il semble que le
grand enjeu consiste justement à fondre
ces deux environnements, sinon les
organisations verront les silos perdurer…
Pour l’heure, le média semble dans le
flou ; il a besoin de la connaissance client
pour pouvoir déclencher des campagnes
véritablement optimisées. »
Eymeric Chateau (Turn) consent qu’il existe
en effet « des DMP qui ont un ADN média,
et d’autres qui ont un ADN plutôt CRM.
S’ajoute à cette distinction la complexité
liée à la question de la privacy. Mais
évidemment, le grand enjeu qui doit nous
animer, c’est que demain la DMP soit aussi
performante côté CRM que côté média. »
Ce qui amène à la question centrale, posée
par Kamal Mouchine (Turn), « qui pilote la
DMP ? Ce ne doit pas être une équipe
CRM ni une équipe média, mais une équipe
véritablement unifiée. »
Eymeric Chateau conclut alors : « au plan
organisationnel, l’objectif doit être de briser
les silos et de limiter les outils technologiques.
Pendant la phase d’exécution de la DMP, le
piège serait de recréer des silos… aussitôt,
tout l’avantage de la DMP serait réduit à
néant. »
BÉNÉFICES ET LIMITES
DE LA DMP
KamalMouhcine(Turn)poursuitlaconclusion
en ces termes.
« Même si nous n’en sommes encore
qu’aux balbutiements sur la DMP, les princi-
paux bénéfices sont les suivants :
• Segmenter
• Avoir une vision unifiée du customer
journey
• Casser les silos
• Améliorer la connaissance client
• Créer des sous-segments à transmettre
à l’agence créative (laquelle doit être
data approach)
• Réagir rapidement
• Faire travailler des équipes qui n’auraient
a priori jamais évolué ensemble
Dans ce contexte, demeurent quelques
limites :
• Risques de tiraillements au sein des
équipes
• L’implémentation représente un processus
long et complexe qui nécessite des
ingénieurs pour bien saisir l’ensemble
des enjeux
• Intégrer une technologie nouvelle à
l’existant est un véritable challenge
technologique et humain (d’autant que,
au sein de l’entreprise, certains métiers
peuvent être mis en péril) »
Au même titre que le design et le synopsis, font partie des
priorités d’une publicité digitale4
:
La pertinence, pour 67%des collaborateurs en agence
Le lieu, pour 60% La temporalité, pour 59%
4. Étude Morar Consulting pour Turn, mai 2016
31. 29
Eymeric Chateau
Turn
Créativité et programmatique devraient être en symbiose. La programmatique peut
en effet donner aux créatifs les données dont ils ont besoin pour créer des publicités
efficaces et ciblées. Malheureusement, aujourd’hui, les équipes programmatiques et
créatives ne travaillent pas suffisamment ensemble. Dans le monde de l’entreprise, la
tendance est en effet de fonctionner en silos.
Les responsables créatifs pensent souvent que leur travail repose sur l’inspiration et
consiste à créer quelque chose de convaincant et d’émotif. Les données pourraient
pourtant renforcer cette créativité, tout en rendant leur approche moins intrusive. Au
cours des dernières années, de plus en plus d’internautes ont adopté les dispositifs
adblockers, jugeant les messages inadaptés ou trop peu créatifs. Aujourd’hui, il est
nécessaire de parvenir à déclencher une véritable conversation avec les consommateurs,
pour éviter que le message ne soit noyé parmi des centaines d’autres…
En parallèle, la notion de big data ouvre la voie à la collecte d’un nombre toujours
plus important de données, dont le principal enjeu consiste à unifier ces sources
d’informations afin de les mettre au service de l’amélioration de la connaissance client.
Les meilleures campagnes créatives ont souvent comme point de départ une analyse de
ces données. Pour optimiser l’impact de leurs campagnes, les marques doivent veiller
à ce que les équipes créatives d'une part, et les équipes de planification et d'exécution
de plan média d’autre part, travaillent ensemble et aient accès aux mêmes données et
informations.
AVIS D'EXPERT
35%des créatifs britanniques indiquent
que les marques ont du mal à partager leurs
données avec eux3
3. Étude Morar Consulting pour Turn, mai 2016
32.
33. 31
CONCLUSION
Les consommateurs ont adopté toute une série de tactiques pour contourner
les messages publicitaires, quel que soit le format : généralisation des
adblockers, fermeture immédiate des messages vidéos détection des
informercials… Les marques doivent donc développer des stratégies de
content marketing à valeur ajoutée, dont la promesse produit authentiquement
du sens pour le visiteur. Cette stratégie d’animation doit être à la fois créative
et omnicanale, avec une cohérence entre le message et la recherche du client,
ses besoins, son profil familial, sa localisation géographique ou sa CSP…
La DMP promet précisément de maximiser la connaissance de chaque client
et prospect pour produire une interaction hyper-individualisée. Mais comme
tout projet data de grande ampleur, la mise en place d’une DMP, avertit Kamal
Mouhcine (Turn), doit « être portée par des équipes communes, l’idée étant de
chercher toujours à fluidifier le partage. Il ne faut pas chercher à démontrer trop
de choses à la fois. La bonne pratique consiste à définir en amont un objectif
avec un impact clair et rapidement quantifiable. Sinon, on risque de bâtir des
usines à gaz dans lesquelles prennent part bien trop d’intervenants. »
34. « Mettre la technologie
au service du business »
TF1
NICOLAS CAPURON
Directeur Transformation Digitale,
Data Marketing Digital
TF1 a fait le choix de la DMP
et de l’approche Data Lake. En 2017,
le déploiement de l’infrastructure
big data s’accélère.
Entretien POURQUOI AVOIR FAIT LE CHOIX
DE LA DMP ?
La DMP a été déployée chez TF1
dès 2016, sur l’ensemble de nos
services et de nos écrans. Ce choix
s’est inscrit dans le cadre de la mise
en place d’une infrastructure big data,
dans une approche data lake. Avec la
DMP, nous récupérons des données
comportementales que nous associons
depuis avril au SSO de mytf1, donc à
une donnée non plus anonymisée mais
associée à un nom, prénom et à un
e-mail.
QU’ALLEZ-VOUS FAIRE DE CETTE
DATA AINSI COLLECTÉE ?
Le bénéfice sera double : des
performances publicitaires optimisées,
bien évidemment, mais également, sur
notre activité d’éditeur, une meilleure
compréhension des usages et des
attentes qui va nous permettre de faire
de la recommandation personnalisée.
L’objectif final, c’est une augmentation
de l’audience et de la satisfaction client
grâce à une expérience optimisée.
32
35. QUELS SONT VOS PROCHAINS
DÉFIS ?
Nous connaissions déjà particulièrement
bien nos utilisateurs, l’authentification
va nous permettre d’aller encore
plus loin. Le niveau de finesse dans
la compréhension de notre audience
va nous permettre d’individualiser
l’expérience consommateur et de
développer des dispositifs innovants
pour nos partenaires annonceurs. Un
chantier important est également le
déploiement de notre infrastructure big
data qui va occasionner un changement
des métiers et des savoir faire, au-delà
du digital. Car notre approche data lake
implique de centraliser la donnée de
l’ensemble des métiers du groupe, le
digital, l’entertainment, la musique, les
spectacles mais aussi la télévision.
Pour ce faire, nous sommes entourés
de data scientists et d’architectes
techniques avec des compétences
pointues.
ALLEZ-VOUS AUSSI TRAVAILLER
SUR LE CONTENU DES MESSAGES ?
Notre principale préoccupation est
la compréhension des besoins des
annonceurs et notre capacité à répondre
à leurs demandes. Aujourd’hui, les
messages vidéo sont ciblés sur des
critères Socio-Demo ; la DMP et
notre data lake vont permettre de le
faire de manière encore plus efficace.
L’objectif à terme sera en effet d’adapter
également les créations et les messages
publicitaires au regard de notre
segmentation extrêmement fine.
À QUELLE ÉCHÉANCE ?
Nous le faisons d’ores et déjà et allons
amplifier le mouvement d’ici la fin de
l’année 2017.
AVEZ-VOUS DES DIFFICULTÉS À
TROUVER DES PROFILS SUR LES
COMPÉTENCES BIG DATA ?
Un peu moins qu’avant. On trouve
de plus en plus de compétences
techniques, les formations big data sont
aujourd’hui bien mieux adaptées qu’il y a
2 ou 3 ans. La difficulté, c’est de trouver
des personnes avec la double sensibilité
technique et business. Car l’enjeu majeur
de transformation des métiers, c’est la
mise à disposition de la technologie au
service du business.
33
36. 34
Data lake,
l’outil indispensable
de la vision client 360°?
Prérequis au déploiement de nouvelles stratégies de conquête
et de fidélisation, la vision client 360° suppose de disposer de toutes
les données relatives aux consommateurs, quelles qu’en soient
la provenance et la fraîcheur.
Mais pour agréger cette masse considérable de données
souvent fortement hétérogènes, les traditionnels data marts
et data warehouses suffisent-ils encore ?
39. 37 37
• IBM, Jacques Milman, Executive Architect IBM Analytics
• IBM, Laurent Sergueenkoff, IBM Analytics Platform - Sales Manager
ANIMATEURS
PROGRAMME
Le data lake constitue un gisement de données brutes qui seront
ensuite retravaillées par les data scientists et exploitées en fonction des
différents besoins. La mise en œuvre initiale d’une vision client 360°
est sans doute envisageable sans data lake, mais ce dernier semble
s’imposer dès que les quantités de données manipulées augmentent.
• État des lieux : quelle est la valeur ajoutée à ce jour du data lake dans
la mise en place d’une vision client 360°?
• Quelles stratégies internes mettre en place pour s’assurer que le
data lake est bien alimenté par toutes les entités ?
• Le data lake est-il un composant inévitable ou existe-t-il des
alternatives ?
PARTICIPANTS
• GROUPE CHANTELLE
Amélie Le Deist, Responsable CRM
Data Management
• LA MUTUELLE GÉNÉRALE
Yann-Erlé Le Roux, Dataminer
• SAINT-GOBAIN
Deniz Loué, Responsable Projets et
Veille Marketing Stratégique
• YVES ROCHER LABORATOIRES
David Ramond, Head of Data
Business Analyst / IT
• BOURSORAMA
Aurélie Rossignol,
Responsable Datamining
• COYOTE
Florian Servaux, Chef de Produit
Services Smart Data
• FRANCE TÉLÉVISIONS
Valentin Vivier, Chef de Projets Data
• UBISOFT
Jérôme Durand,
Directeur, Data Science
• UBISOFT
Vincent Nicolas, Data Scientist
• ORANGE GROUPE
Anne-Sophie Gimenez,
Head of learning agency
• ORANGE
Éric Moison, Information based
strategy Program Manager
• CANAL + DISTRIBUTION
Fatma Kourar,
Responsable MOA Data
• BOUYGUES TÉLÉCOM
César Lagarde, Responsable
Pilotage Planification CRM
• FIFTY-FIVE
Pierre Harand,
Directeur Général, France
• FIFTY-FIVE
Jean-Hubert Cornet,
Head of Automotive Practice
40. 38
DENIZ LOUÉ
SAINT-GOBAIN
Au sein de l'équipe marketing, je suis
responsable des projets liés à la donnée.
Nous venons de lancer un projet relatif aux
données clients, et sommes surtout dans
une phase exploratoire.
AMÉLIE LE DEIST
GROUPE CHANTELLE
Je suis responsable CRM et data
management pour les marques Orcanta
et Passionata. Nous sommes aux
prémices d'un projet data lake. Nous
nous interrogeons encore sur ce que ce
dispositif pourrait réellement nous apporter.
DAVID RAMOND
YVES ROCHER LABORATOIRES
Nous sortons tout juste d'un prototype big
data mené autour de la vision de la cliente.
Cela a permis aux Métiers de concrétiser
les apports de ces nouvelles technologies
et tester la possibilité de nouveaux usages
autour de la data. Cela a été également
une étape indispensable pour faire
émerger un consensus parmi les différents
sponsors et préparer le lancement d’un
projet de nouvelle plateforme data orientée
omnicanale.
FLORIAN SERVAUX
COYOTE
Je suis responsable de l'équipe Smart
Data. Nous travaillons actuellement sur
la mise en place d'un data lake, avec
une double ambition : tendre vers cette
fameuse vision 360 de nos clients, et
faciliter le traitement et l'analyse de notre
historique de données volumineux.
YANN-ERLÉ LE ROUX
LA MUTUELLE GÉNÉRALE
Le terme data lake me semble
relativement récent, par rapport au data
warehouse ou au data mart. Dans ce
contexte, l'idée est d'identifier clairement
les spécificités du data lake en vue d'une
bonne exploitation.
VALENTIN VIVIER
FRANCE TÉLÉVISIONS
France Télévisions a mis en place une
cellule data depuis 2015. Celle-ci répond
aux besoins des métiers sous le prisme
de la data et du client et déploie les outils
nécessaires pour y arriver. Forts d’une DMP
et d’un data warehouse interconnectés à
notre écosystème d’outils, un projet data
lake est en cours. Celui-ci devrait nous
permettre notamment d’historiser la data et
d’avoir un grand niveau de granularité pour
croiser nos données. Nous souhaitons
donc recenser les meilleures pratiques,
identifier les écueils et affiner notre
compréhension des cas d’usage.
AURÉLIE ROSSIGNOL
BOURSORAMA
Un projet data lake mené par l'équipe
BI est actuellement en cours chez
Boursorama. Nous avons mis en place
différents PoCs avec l'ambition de repérer
les principaux écueils.
LE DATA LAKE VU PAR
LES PARTICIPANTS
41. 39
ÉRIC MOISON
ORANGE
Je suis justement en charge de cette
vue à 360 du client pour le groupe, sur
les aspects métiers/business. Nous
définissons les orientations pour les pays,
avec les équipes ITN. Ce sur différents
aspects, dont les technologies comme le
data lake, qui contribuent à la vue 360° du
client. Il sera donc nécessaire d'en avoir
une parfaite maîtrise.
ANNE-SOPHIE GIMENEZ
ORANGE GROUPE
Mon client, c'est plutôt le salarié Orange.
Je suis à la tête de l'entité Learning
agency qui, pour le compte du client
interne, développe des projets de digital
learning. Dans ce cadre, il nous faut
structurer la donnée des employés,
avec de nombreuses problématiques de
sécurité. La RH accuse un certain retard
par rapport aux équipes marketing sur ce
sujet.
VINCENT NICOLAS
UBISOFT
Avant de rejoindre Ubisoft récemment,
j'étais data engineer chez Mille Mercis,
en charge notamment de la co-création
du data lake. Ubisoft ayant un projet de
data lake, ma mission est, entre autres, de
conduire les équipes dédiées.
JÉRÔME DURAND
UBISOFT
L'idée est de savoir dans quelle mesure le
data lake que l'on souhaite créer permettra
bel et bien d'ouvrir la donnée à tous les
départements... Le risque est que les silos
perdurent.
CÉSAR LAGARDE
BOUYGUES TELECOM
Notre objectif est d'acquérir une meilleure
vision à 360 degrés de nos clients, ainsi
qu'une meilleure perception de leur
ressenti, que ce soit en boutique, sur
le Web ou en mobilité... Nous avons
beaucoup de données, mais notre
organisation silotée nous empêche de les
exploiter de manière satisfaisante. L'enjeu
est justement de briser ces silos pour que
chacun puisse véritablement s'approprier
la donnée.
Au regard de la complexité de la structure
IT actuelle, le data lake est-il réellement
la solution ultime ? Aura-t-il une valeur
ajoutée, alors même que nous faisons par
exemple du trigger web avec notre data
warehouse actuel, que nous faisons des
emails de processus sur du comportement
sans data lake.
FATMA KOURAR
CANAL + DISTRIBUTION
Après un audit de quelques mois,
Canal+ s’est lancé en septembre dans
un grand plan de transformation data :
20 chantiers opérationnels et techniques
et une organisation data-driven, avec
la structuration d’un pôle dédié à la data
au sein du Marketing. Côté Canal+, nous
avons une bonne et longue culture de la
data avec un data warehouse riche et en
accès direct à différents métiers (analystes)
et une maitrise d’ouvrage décisionnelle
pour accompagner son évolution et
les utilisateurs métier. La mise en place
d’un data lake m’est présentée comme
complémentaire à notre data warehouse.
J’admets ne pas être au clair sur ce qui
les différencie : Quelle donnée est stockée
où ? Quel(le) retraitement/intelligence où ?
Temps réel ? Quel positionnement du data
lake dans l'architecture globale ?
42. Jacques MILMAN
IBM France
Le concept de data lake est généralement associé aux big data. Il permet d’analyser un
grand volume d’informations issues de sources multiples et hétérogènes, internes, externes,
structurées, non-structurées…
Pour beaucoup d’entreprises, le data lake est une évolution de l’entrepôt de données
traditionnel. Le big data et le machine learning poussent à organiser les données et les
traitements différemment. C’est là une évolution importante. À l’ère du big data, on ne connaît
pas toujours par avance la valeur et l’intérêt de toutes les données que l’on capture et l’usage
que l’on pourrait en faire dans le futur.
Le concept de data lake offre la possibilité de créer des plateformes d’innovation puissantes
et souples permettant très rapidement d’intégrer et d’analyser des données.
Ingérer des données à l’état le plus brut change la nature de la chaîne de traitement qui
prévalait jusqu’alors. D’une logique d’ETL (Extract, Transform, Load), on passe à un mode
'ELT', où l’on extrait les données, on les charge et on les transforme seulement après.
Enfin, dernier argument de poids, le coût d’une telle solution est inférieure à celle d’un data
warehouse dans un facteur d’un à dix, même si l’intégration des applications existantes peut
révéler d’importants coûts cachés.
Pour les aider à mettre en œuvre un data lake, les entreprises peuvent s’appuyer sur
des approches progressives et des méthodes agiles permettant de limiter les risques et
d’apporter au plus vite de la valeur aux métiers tout en aidant les équipes informatiques à
prendre en main ces technologies innovantes.
AVIS D'EXPERT
A DATA LAKE IS . . .
AN ENVIRONMENT WHERE USERS CAN ACCESS
VAST AMOUNTS OF RAW DATA
AN ENVIRONMENT FOR DEVELOPING AND PROVING AN
ANALYTICS MODEL, AND THEN MOVING IT INTO PRODUCTION
AN ANALYTICS SANDBOX FOR EXPLORING DATA
TO GAIN INSIGHT
AN ENTERPRISE-WIDE CATALOG THAT HELPS USERS FIND DATA
AND LINK BUSINESS TERMS WITH TECHNICAL METADATA
AN ENVIRONMENT FOR ENABLING REUSE OF DATA
TRANSFORMATIONS AND QUERIES
A DATA LAKE IS NOT . . .
A DATA WAREHOUSE OR DATA MART FOR HOUSING ALL OF THE
DATA IN AN ENTERPRISE
A REPLACEMENT OPERATIONAL DATA STORE (ODS)
A HIGH-PERFORMANCE PRODUCTION ENVIRONMENT
A PRODUCTION REPORTING APPLICATION
A PURPOSE-BUILT SYSTEM TO SOLVE A SPECIFIC PROBLEM
(THOUGH A PURPOSE-BUILT DATA MART COULD BE FED FROM
A DATA LAKE)
43. 41
LE DATA LAKE ET LE DÉFI
DU TEMPS RÉEL
Un avantage fréquemment associé au
data lake est celui du temps réel. Mais
comme l’observe Fatma Kourar (Canal +
Distribution), s’il ne s’agit que de stocker
en temps réel des données brutes
inexploitables, cela n’a pas d’intérêt.
« Le data lake m’a été avant tout présenté
en mettant en avant la possibilité d’un
stockage temps réel, quitte à se passer
d’une partie de l’intelligence apportée
par les retraitements/enrichissements. Cela
pose un problème, car la stratégie
déployée autour du client ne peut se faire
uniquement avec des données brutes à
mon sens à l’heure de la personnalisation…
Le temps réel ne se suffit pas. Et apporter
de l’intelligence à la donnée coûte en
temps de calcul. »
Il est donc important de prendre conscience
que « faire un data lake n'est pas une fin
en soi : le projet est lancé pour servir
certains usages bien identifiés. Vouloir
tout collecter, tout réconcilier pour prévoir
tous les usages, ce n’est pas réalisable.
Au contraire, le cas d’usage doit toujours
être un point de départ à partir duquel il
convient de construire l’ensemble de la
chaîne » (Pierre Harand, fifty-five).
Car Jacques Milman d’IBM le rappelle,
« il est difficile de fournir une définition
précise du data lake. C'est avant tout une
plateforme qui va permettre d'intégrer
Par Jacques Milman et Laurent
Sergueenkoff, IBM
« Il y a un peu plus d’un an,
nous avions déjà organisé un
atelier autour du sujet data
lake. Sur une vingtaine de
participants présents, seuls
deux ou trois avaient lancé
des projets data lake, mais
les autres participants avaient
envie de faire de même.
L’idée, pour la majorité, était
de construire un data lake
rassemblant l’ensemble des
données de l’entreprise… Or,
depuis, il est apparu que ceux
qui menaient une telle initiative
avaient bien des difficultés à
progresser. Ils se heurtent à
des problématiques liées à la
sécurisation, à la gouvernance,
à la confidentialité des
données… Autant de freins
à l’agilité.
En revanche, ceux qui avaient
mis en place un data lake plus
thématique (IoT ou CRM, par
exemple) avancent bien plus
rapidement. Les premiers
succès qu’ils rencontrent sur
des thèmes bien précis
permettent de déclencher un
effet boule de neige et le
data lake s’ouvre progressive-
ment à d’autres sujets. Ce qui
a été mis en place pour le sujet
de l’IoT donne envie aux autres
entités d’utiliser le data lake
pour leurs cas d’usage… »
44. l'ensemble des données et de les partager.
Ensuite, des services peuvent s'intégrer
à cette plateforme : machine learning,
indexation, search, découverte... »
DATA LAKE OU DATA
WAREHOUSE ?
Lorsque le terme data lake a émergé, il
était fréquemment confondu avec celui de
data warehouse. Il semble s’en être suivi
un second temps, qui voit les deux modèles
s’opposer, comme s’ils étaient concurrents.
Laurent Sergueenkoff clarifie la distinction.
« Dans un data warehouse traditionnel, il y
aura plutôt des données structurées, alors
qu'un data lake peut accueillir tous types
de données. Autre bénéfice du data lake :
les technologies actuelles permettent de
stocker dans un format brut d'immenses
volumes de données. Les capacités
de traitement peuvent directement être
implantées sur le data lake, avec des
technologies Hadoop. »
Il n’empêche que les deux modèles peuvent
parfaitement co-exister. C’est par exemple
le cas chez Yves Rocher Laboratoires, où
David Ramond témoigne qu’en « en termes
d’architecture cible, l'idée consisterait plutôt
à mettre en œuvre une architecture hybride :
• D’une part, un data lake à même
de stocker de grands volumes de
données à un coût raisonnable, avec
peu ou pas de transformation de la
donnée brute, nous permettant d’être
le plus agnostique vis-à-vis des futurs
modèles de données de l’entreprise ;
• D’autre part, un data warehouse qui
gère une couche sémantique et qui
permet d’exposer les données métier
structurées, contrôlées et avec un
niveau de service élevé. »
Yves Rocher Laboratoires ne s’arrête pas
là. David Ramond confie ainsi qu’ « il est
également envisagé de mettre en œuvre
des data hubs dédiés à des usages
spécifiques. Par exemple, il peut s’agir
d’utiliser la puissance de calcul du data
lake pour consolider à la volée une vision
360 du client à partir des éléments de
signalétiques, de comportements d’achats,
de contacts CRM, etc. et d’exposer cette
vue via une API à des fins opérationnelles. »
UN DATA LAKE, OUI MAIS
POUR QUOI ?
Vincent Nicolas (Ubisoft) en convient
également, le data lake n’est « certainement
pas un substitut au data warehouse.
Les deux éléments sont totalement
complémentaires. Le data lake offre
la possibilité de jouer et de faire des
scorings avec des données très variées
(ce que l’on ne peut pas faire dans un
data warehouse) et avec une puissance
incroyable. » Ce qui ramène à la conclusion
qu’ « avoir un data lake n’est pas une fin
L'APPROCHE DATA LAKE : EXEMPLE DE GOUVERNANCE
Data
Data is used
and reused
Relevant data is
collaboratively
governed
Data is cataloged,
tagged and
registered
42
45. 43
plug and play » (Pierre Harand, fifty-five).
Tout d’abord, « il faut considérer l’outil
dans son environnement technique :
quels sont les flux de données entrants et
sortants ? » Deuxièmement, « la question
organisationnelle est également majeure,
avec la mise en place d’une gouvernance. »
Le troisième point à poursuivre, et c’est
l’objectif final, c’est de demander du data
lake qu’il serve à « mettre la data dans les
mains des opérationnels » (Anne-Sophie
Gimenez). « Par exemple, un commercial
doit pouvoir accéder en un clic à une vue à
360 degrés du client qu’il a en face de lui. Le
point fort de ce dispositif, c’est la réactivité.
L’idée serait de crawler les données, où
qu’elles soient, sans pour autant se poser
la question du format utilisé. »
En corollaire, cela pourrait avoir pour effet
de favoriser le développement d’une data
science au service des métiers. Florian
Servaux (Coyote) observe ainsi que
« la problématique se situe plutôt sur les
performances à traiter la données brute et
la capacité à comprendre la donnée d'un
point de vue métier. (…) Selon moi, le data
scientist doit avant tout pouvoir partir de la
vision métier de la donnée. »
Dans cette perspective, Florian Servaux
préconiserait plutôt, « pour les entreprises
disposant par exemple d’une équipe BI
(…), de partir de structures BI traduisant les
données brutes en données Métier. »
en soi » (Jérôme Durand, Ubisoft). Car « la
data science va directement chercher les
données dans le data lake quand elle a
une idée précise de ce qu’elle cherche, où
le trouver et comment l’interpréter. Sinon,
mieux vaut passer par l’IT ou le créateur
de la donnée pour générer des tables
d’analyse dans un data warehouse. (…)
Le débat intéressant porte surtout sur ce
que l'on fait de la donnée, quelle que soit la
techno placée derrière. »
Quels sont justement ces usages de la
donnée qui pourraient justifier d’un recours
à ce nouvel outil surpuissant ? « Pour nous,
confie César Lagarde (Bouygues Telecom),
dans l’objectif de créer des campagnes
CRM, le data lake vise surtout à garantir
la transparence sur une information pour
toutes les parties prenantes. Il y a donc une
différence entre l'étude de la connaissance
client et l'interopérabilité directe de la
donnée. »
« Au final le data lake peut être intéressant
au plan de la vision client », reconnaît César
Lagarde.
UNE TRANSFORMATION
EN 3 ÉTAPES
Le pré-requis absolu, lorsque l’on veut
s’équiper d’un data lake, c’est donc de
réfléchir d’abord à l’usage. Et quel qu’il
soit, plusieurs éléments connexes sont
également à prendre en compte dans le
déploiement de cet outil qui est « tout sauf
80%des Décideurs marketing
Se disent satisfaits des solutions de collecte de données en temps
réel qu’ils utilisent3
3. Information recueillie auprès de 40 décideurs marketing en France et au Royaume-Uni dans le cadre de l’étude
Benchmark by EBG 2017
Et 84 %des DSI pensent que leur entreprise est capable
d'analyser les données en temps réel4
46. 44
Régis Carral
Cabinet Hoche
L’ŒIL DE L’AVOCAT
« Assurer un traitement de données personnelles
loyal et transparent »
« L’intérêt du data lake est de pouvoir stocker de grands volumes de données brutes non
structurées, tout en ne sachant pas à l’avance la façon dont celles-ci vont être analysées
et exploitées. Au regard des données à caractère personnel, la personne concernée
doit savoir quelle utilisation est faite des données personnelles la concernant et pouvoir
maîtriser cette exploitation. Le cadre juridique vient ainsi freiner cette collecte de masse
qu’offre par exemple le recours à un data lake de telle sorte que lorsqu’il s’agit de données
personnelles, la collecte ne peut pas être quantitative mais doit être qualitative.
À cet égard, le Règlement UE n°2016/679 du 27 avril 2016 relatif à la protection des
données personnelles vient notamment renforcer les obligations d’information du
responsable de traitement. Ce dernier doit assurer un traitement de données personnelles
loyal et transparent. En vertu de ce principe de transparence, les personnes concernées
doivent avoir connaissance des finalités spécifiques, explicites et déterminées et ce, au
moment de la collecte de leurs données personnelles. De plus, lorsque le responsable de
traitement a l’intention d’effectuer un traitement ultérieur des données personnelles pour
une finalité autre que celle pour laquelle les données ont été collectées, il doit fournir au
préalable des informations sur cette autre finalité.
Enfin, le Règlement pose également un principe de minimisation des données, selon lequel
les données personnelles collectées doivent être adéquates, pertinentes et limitées à ce qui
est nécessaire au regard des finalités pour lesquelles elles sont traitées. »
4. Étude 2015 Real-time Data Report menée auprès de 150 DSI, responsables informatiques et développeurs, in ZDnet.fr,
« Les données en temps réel, de la réalité à la perception », mars 2016
Mais 66 %des DSI, responsables informatiques et
développeurs pensent que, dans plus de la moitié des cas, les
applications en temps réel ne répondent pas aux besoins de
l'entreprise4
47. 45
CONCLUSION
Le recours au data lake revêt souvent un caractère exploratoire, mais aussi,
nécessairement transformateur… Ce qui fait que, « par rapport aux coûts et
à l’engagement que cela implique, par rapport aux lourds enjeux de
gouvernance », beaucoup d’annonceurs hésitent encore à se lancer plus avant.
Mais comme Laurent Sergueenkoff (IBM) le rappelle, « il ne faut pas opposer
data lake et data warehouse, les usages étant totalement complémentaires.
L'un ne peut remplacer l'autre. Si c'est pour placer un usage existant du data
warehouse dans un data lake, le ROI n'est en effet pas évident... En revanche,
le ROI du data lake se situe incontestablement sur des usages nouveaux, sur
des données nouvelles. »
Source tableau et figure : IBM Analytics, « The governed data lake approach », Copyright IBM Corporation 2016
48. « Réduire le stress de nos
clients »
AIR FRANCE
GAUTHIER LE MASNE DE CHERMONT
Chief Customer Data Officer
Si Air France a développé son data
lake customer 360, c’est que le
partage des données tout au long
du parcours client est une priorité.
Gauthier le Masne de Chermont
revient sur les initiatives de ses
équipes en la matière.
Entretien
TOUTES VOS SOURCES DE
DONNÉES VIENNENT ALIMENTER
UNE BASE COMMUNE, ET
INVERSEMENT. AVEC QUELLE
ORGANISATION ?
Nous avons mis en place une
organisation dédiée au Customer
Data Management il y a deux ans,
avec une double mission. La première
était de relever le défi technique de
créer une plateforme Big Data en vue
d’optimiser l’utilisation de la donnée
sur l’ensemble des métiers du groupe,
pour la connaissance et le service
au client. La seconde mission portait
sur le management de la donnée, en
améliorer la qualité et s’assurer que la
réglementation sur la protection des
donné est respectée.
Nous aidons à ce que tous les métiers
puissent avancer de façon coordonnée.
C’est indispensable si l’on veut proposer
au client une expérience personnalisée
sur les différents canaux et avec une
réelle cohérence d’informations.
VERS QUELS CAS D’USAGE
SE PORTE VOTRE DATA LAKE
CUSTOMER 360 ?
Nous faisons un peu de mesure de
performance, tout comme le réalise
par ailleurs chaque métier. Mais les
principaux cas d’usage consistent à
proposer la bonne offre sur le bon canal
au bon moment. Je vous donne un
exemple. Dès lors que nous savons d’un
client qu’il aura une appétence pour
voyager avec un bagage supplémentaire,
nous sommes en capacité de le lui
proposer au moment que nous jugeons
le plus opportun : lors d’une promotion,
d’un document de préparation au vol, de
l’enregistrement, etc. Plus généralement
nous sommes en mesure de suivre et
d’anticiper des préférences : si le client
voyage toujours côté hublot, on peut
choisir ce siège pour lui sans avoir à lui
poser de questions.
46
49. COMMENT MESURER LA
PERFORMANCE DE CETTE
PERSONNALISATION ?
Sur la satisfaction, d’une part, même si
cet élément est aujourd’hui devenu un
facteur attendu plutôt que différentiant.
Par ailleurs, nous personnalisons de plus
en plus nos communications avec de
l’A/B testing. Une communication qui
met en avant des destinations dont on
a calculé qu’elles sont plus susceptibles
d’intéresser apporte une différence
significative en termes de performance.
QUELLES PROCHAINES ÉTAPES
VOUS FIXEZ-VOUS ?
Le prochain objectif important, c’est
d’avoir l’ensemble des points de
contact bien coordonnés et à même
de communiquer entre eux de façon
fluide. Cela permettra, par exemple, de
pouvoir tenir au courant les hôtesses
et stewards d’un appel qui aurait été
passé par un client avant le vol vers un
call center. Nous avons également pour
objectif d’automatiser le traitement d’un
certain nombre d’aléas. Nous voulons
nous focaliser sur la réduction du stress
de nos clients : les informer le plus
rapidement possible, communiquer de
façon toujours plus fluide et régler les
problèmes avant même que les clients
n’aient pu se faire le moindre souci.
VOUS ÊTES-VOUS ÉQUIPÉS
D’UN BOT ?
Il a été initié par les équipes digitales
et sera lancé en juin. Nous venons en
support pour être sûrs que l‘initiative
bénéficie au maximum de la compétence
client que nous avons collectée.
QUELLE GOUVERNANCE AVEZ-VOUS
MISE EN PLACE POUR JOUER CE
RÔLE DE SOUTIEN ?
Chaque personne du Customer Data
Management est à la fois responsable
de développements en propre mais
aussi de l’interface avec les différents
métiers, avec pour objectif de récolter
leurs besoins autour de l’utilisation de la
donnée et de partager les initiatives au
sein de l’entreprise.
COMMENT GÉREZ-VOUS LES
ÉVOLUTIONS RÉGLEMENTAIRES
LIÉES AUX DONNÉES
PERSONNELLES ?
Les données que nous utilisons étaient
déjà en base ; notre valeur additionnelle
est de les réunir et d’injecter de
l’algorithmie. Cela dit, nos use cases
sont conçus au service des clients,
et pour ce faire, en coopération avec
les équipes techniques, les équipes
opérationnelles et les clients. Finalement,
cette réglementation a un effet plutôt
bénéfique. Elle apporte de la clarté sur
ce que l’on veut faire de la donnée.
C’est le positionnement que nous avions
de toute façon adopté vis-à-vis de nos
clients.
47
50. 48
Associer big data
et programmatique pour des
campagnes plus performantes
Le programmatique permet d’automatiser les prises de décision
et de gagner un temps considérable dans l’exécution des campagnes.
Mais pour adresser des messages personnalisés et contextualisés,
il devient indispensable d’y adjoindre les ressources du big data,
tant la quantité de data à prendre en compte a récemment explosé.
Comment combiner les ressources du programmatique et du big data ?
53. 51 51
PARTICIPANTS
• TURN, Kamal Mouhcine, Sales Director South Europe
• FIFTY-FIVE, Samboy Camara, Practice Leader : Tech, Insurance Utilities
• FIFTY-FIVE, Salem Handoura, Consulting Manager
ANIMATEURS
PROGRAMME
Le programmatique permet certes de gagner du temps. Mais pour
que chaque campagne porte ses fruits, aller plus vite ne suffit pas :
il faut aussi cibler avec un maximum de précision, se baser non plus
sur des groupes définis par des caractéristiques globales, mais sur un
croisement de toutes les informations associées à un consommateur
potentiel : profil, historique des relations, localisation, actions
récentes, etc.
C’est tout l’enjeu de l’association du programmatique et du big data.
Mais comment réussir à combiner ainsi agilité et précision dans la
construction de ses campagnes ?
• Faire converger les démarches programmatiques et les projets
big data : quelles équipes, quelle organisation, quel timing ?
• Comment faire dialoguer data scientists et opérationnels marketing ?
• Le data-driven marketing est-il un objectif prioritaire ?
Quelles stratégies pour le mettre en place ?
• ORANGE
Samira Amgroud,
Communication Group Buyer
• EUROP ASSISTANCE
Olivier Baes,
Head of Digital Data Innovation
• AUCHAN
Julien Cafede, Traffic Manager
• UBISOFT
Camille Duval,
Responsable média digital
• ANTALIS
Aïcha Hellal, Marketing E-business
Project Manager
• LA FOURCHETTE
Fiona Ongaro, Responsable
Connaissance Client
• BNP PARIBAS PERSONAL
FINANCE
Djamel Megharbi, Responsable
du Centre de Compétence
54. 52
L’ESSOR DU
PROGRAMMATIQUE
Pour Samboy Camara (fifty-five), « il y a
toujours eu du programmatique dans le
digital. Le levier display, qui était jusque-là
acheté avec des méthodes traditionnelles,
est en train de devenir de plus en plus
automatisé. Sur les marchés les plus
avancés, 80 % des achats digitaux sont
réalisés en programmatique… Qui dit pro-
grammatique dit modes d’achats automati-
sés et données permettant d’acheter
intelligemment les bons profils. C’est là que
se pose la question de la collecte, pour faire
en sorte de disposer d’un réel avantage
concurrentiel.
Pour rappel, on distingue communément
trois types de données :
• Les données first party : certaines
entreprises sont richement dotées,
comme les opérateurs télécoms, alors
que d’autres sont plus data poor, car
elles n’ont pas de points de contact
directs avec leurs clients. Cette donnée
est rare, mais c’est incontestablement
celle qui a le plus de valeur, car elle
permettra de vous positionner avec le
plus de singularité.
• Les données second party : c’est la
data issue de partenaires, comme
des annonceurs qui disposent de jeux
de données (échanges de données ou
échanges financiers).
• Les données third party : elles seront
louées à des spécialistes de l’achat
La personnalisation des
campagnes marketing a
franchi une nouvelle étape
avec l’émergence des
plateformes programmatiques.
Celles-ci augmentent la
réactivité des annonceurs
en automatisant les prises
de décision complexes, un
gain de temps qui autorise
à multiplier les niveaux de
personnalisation, à faire 10,
100 ou 1 000 campagnes au
lieu d’une.
Mais comment réussir à
combiner ainsi agilité et
précision dans la construction
de ses campagnes ?
EN 2016
des annonceurs
et agences
utilisaient le
programmatique
pour leurs achats
display online
des entreprises
avaient déjà
réalisé ou
conduisaient
déjà un projet
big data
67% 59%
55. 53
de données. Ces data très étendues
permettront de rechercher des signaux
complémentaires afin d’enrichir la
connaissance client.
L’univers est totalement fragmenté, avec
une multitude de devices, de systèmes
d’exploitation, etc. Il convient donc de
réconcilier l’utilisateur sous son identité
unique. La maturité montre qu’on se dirige
de plus en plus vers un marketing des
segments, un marketing des audiences.
La DMP a l‘ambition de réunir des données
issues de sources variées pour les mettre
en cohérence. »
RÉUNIR AUTOUR DE
LA TABLE TOUTES LES
PARTIES PRENANTES
Dès lors que l’on veut adjoindre au
marketing programmatique les ressources
du big data, la première difficulté consiste
à faire converger les enjeux. Car, « si vous
faites le compte des acteurs impliqués dans
une campagne , observe Samboy Camara
(fifty-five), on descend très rarement sous
la barre des cinq interlocuteurs ! Or,
aujourd’hui, la notion de temps réel devient
une obligation. Le programmatique a
justement vocation à simplifier la phase de
gestion des campagnes. L’automatisation
permet de gagner du temps pour éviter les
points bloquants. Cela implique toutefois
un réajustement organisationnel pour
passer d’une approche patrimoniale de
la donnée (data = stock) à une vision en
termes de circulation (data = flux).»
Fiona Ongaro (La Fourchette) confie ainsi
avoir « recruté quelqu'un qui fait avant tout
figure d’électron libre, c’est-à-dire qu’il n’est
pas rattaché à un pôle Métier en particulier »
mais reconnaît : « Nous avons encore du
mal à identifier la bonne organisation. »
Pour Kamal Mouhcine (Turn), il est important
de créer ce rôle transverse notamment pour
démontrer la valeur ajoutée des plateformes
data pouvant préfigurer de l'automatisation.
« Pour les organisations qui ont une taille
critique, la DMP présente un réel intérêt.
Encore faut-il parvenir à démontrer cet
intérêt, d’où l’importance du rôle dévolu au
CDO. Lors de la mise en place d’une DMP,
il convient de commencer par démontrer
des choses très simples. »
Ce travail de démonstration est essentiel,
d'autant qu'au final, « comme avec des
tels projets [data], le ROI à court terme est
difficilement lisible, il est bien difficile de
prioriser » (Fiona Ongaro, La Fourchette).
En retour, le big data est une opportunité
d'ancrer dans l'opérationnel un réajustement
organisationnel. Julien Cafede témoigne
ainsi du cas d'Auchan. « Notre DMP nous
permet notamment de créer et utiliser
des segments des données dynamiques
que nous pouvons ensuite plugger à nos
plateformes partenaires. Aujourd’hui,
les entités e-commerce, Drive, Direct,
Proximité, etc. ont été regroupées sous
une nouvelle entité : Auchan Retail ; il
s’agit désormais de les faire communiquer
plus étroitement et le big data semble être
une bonne clé d’entrée. »
« L’automatisation permet de gagner du temps pour éviter les
points bloquants. »
Samboy Camara, fifty-five
56. 54
Eymeric Chateau
TURN
La personnalisation des campagnes marketing a franchi une nouvelle étape avec
l’émergence des plateformes programmatiques. Ces plateformes augmentent en effet la
réactivité des annonceurs en automatisant les prises de décision complexes, un gain de
temps qui permet de multiplier les niveaux de personnalisation.
La personnalisation des campagnes n’est cependant pas le seul facteur pour qu’elles
portent leurs fruits. Il faut également cibler l’audience avec un maximum de précision.
C’est tout l’enjeu de l’association du programmatique et du big data : réussir à combiner
agilité et précision dans la construction des campagnes.
L’enjeu consiste à avoir une approche unifiée, depuis la collecte jusqu’à l’exécution.
Il faut veiller à ne pas multiplier les outils technologiques, car ce serait prendre
le risque de s’exposer à un problème de communication entre tous ces outils,
ce qui provoquerait des déperditions.
AVIS D'EXPERT
AVOIR UNE APPROCHE
UNIFIÉE
La réconciliation de données hétéroclites
constitue sans conteste une priorité majeure
pour tout annonceur souhaitant renforcer
la personnalisation de ses campagnes.
Chez La Fourchette, qui propose déjà la
personnalisation dans les e-mails, l'ambition
est bien « de disposer d'une meilleure vue
à 360 degrés du client, en nous appuyant
sur nos propres données. » Comme bien
d'autres, « La Fourchette n'a pas forcément
vocation à aller vers des partenaires pour
les jeux de données. »
Et bien que l'on entende nombre d'annon-
ceurs s'avouer dépassés par les quantités
colossales de données collectées, certains
rencontrent dans les faits des problèmes
de volumétrie sur leurs data 1st
party.
C'est par exemple le cas chez Auchan.
Julien Cafede s'en explique. « Malgré un
volume important de data, nous sommes
confrontés à une problématique liée au
57. 55
volume de contacts adressables. Le
premier frein est le taux de matching qui
varie énormément entre nos partenaires.
À titre d’exemple, Facebook retrouve
entre 40 et 60 % des adresses que nous
lui communiquons et parvient à toucher
la moitié de ces utilisateurs. Pour Google,
le taux et entre 20 et 40 % et la portée
s’avère désastreuse. Un acteur comme
Criteo nous offre la possibilité d’avoir un
taux de matching très intéressant, mais,
contrairement à Facebook ou Google, il ne
dispose pas de réseau en propre et donc
de nouvelles problématiques se créent.
Conséquencedirectedelafaiblevolumétrie:
dès que l’on souhaite toucher nos affini-
taires, nous avons du mal à générer un
volume conséquent de CA. L’une des
solutions : se tourner vers des scénarii de
look alike, et le seul acteur performant et
pertinent dans ce domaine aujourd’hui,
c’est Facebook… »
Kamal Mouhcine (Turn) préconise donc
« un gros travail en amont en termes de
structuration de la first party data », avec
pour objectif, la possibilité de« recourir
à une plateforme unifiée, extrêmement
intéressante en ceci qu’elle permet d’éviter
les déperditions (…). Multiplier les outils
technologiques, c’est prendre le risque de
s’exposer à un problème de communication
entre tous ces outils. Rares sont les
technologies qui unifient complètement
l’approche, depuis la collecte jusqu’à
l’exécution. »
UNE NOUVELLE DONNE
STRATÉGIQUE
Au-delà des choix technologiques,
« ce qui fait la richesse des plateformes
programmatiques, c'est l'exploitation des
données propres » rappelle Kamal Mouhcine
(Turn). Cette nouvelle donne apporte deux
novations dans le pilotage de la stratégie
marketing.
Lapremièreconsisteà«délaisserl'approche
en termes de volume, où l'objectif est
de faire le maximum de conversions.
Les indicateurs choisis doivent être les
plus proches possible de votre équation
économique, afin de rémunérer au mieux
les bons partenaires. » (Samboy Camara,
fifty-five)
La deuxième novation découle de la
première. Le rapport aux agences évolue.
Dès lors, « le rôle des agences passe par le
conseil. Celles-ci doivent être en capacité
de réunir autour de la table toutes les
parties prenantes. Sur la partie Média,
l'agence de demain n'est pas une agence
qui opère, mais une agence qui conseille. »
En corollaire, l'annonceur doit veiller à
ramener de la valeur vers lui, à conserver les
« learnings » des campagnes ; car « le KPI
principal en programmatique, c'est la vision
du Marketing Director. »
PILOTER LES CAMPAGNES EN
TEMPS RÉEL
AFFINER ET OPTIMISER LE
CIBLAGE DES CAMPAGNES
75 %
66 %
AUGMENTER LA PERFORMANCE
DES CAMPAGNES
74 %
40 %
33 %
42 %
2016 2015
LES 3 AVANTAGES PRINCIPAUX DU PROGRAMMATIQUE CITÉS PAR
LES UTILISATEURS (Plusieurs réponses possibles)
58. 56
Mike Bettan
55
La gestion et l’analyse des campagnes programmatiques imposent le traitement de volumes
de données colossaux. Ces traitements varient selon les objectifs ou les KPI suivis, mais
également selon les acteurs qui les effectuent.
Les agences média ou trading desks indépendants ont pour but de combiner rentabilité
et performance de l’achat média, c’est-à-dire acheter ou vendre un maximum d’espaces
publicitaires au meilleur prix, tout en garantissant le ROI des campagnes en termes de
couverture sur cible, d’engagement ou de recrutement. Pour cela, ils misent sur leur
propre infrastructure technique (DSP compris), leurs algorithmes propriétaires émulés au
machine learning, et capitalisent sur l’ensemble des données disponibles : historiques
de performance, enchères, ciblages, attributs des audiences (device, géolocalisation,
comportement). Ceci, en vue d’optimiser les campagnes selon les objectifs fixés : reach,
volume de conversions, CPA...
Côté conseil média, les traitements big data appliqués au programmatique portent
généralement sur des sujets différents : il pourra s’agir de la réconciliation ou l’enrichissement
de données (CRM onboarding, second-party data, etc.), de segmentation ou scoring de
prospects et clients, d’analyses d’attribution... L’accès aux données dites “granulaires”, où
chaque action d’exposition, de clic ou de conversion est répertoriée et qualifiée selon une
temporalité, permet de recomposer les différents parcours des consommateurs. On pourra
alors mieux allouer les investissements et optimiser la performance globale. Ces études
nécessitent donc des manipulations de volumes de données conséquents, une infrastructure
technique, et de l’expertise pour réussir à en sortir des enseignements stratégiques.
Le mariage entre big data et programmatique (ou plus largement, campagnes digitales) est
désormais une évidence, pour ne pas dire un pré-requis de pilotage.
Associer big data et programmatique pour des campagnes
performantes
AVIS D'EXPERT
Source Graphiques et chiffres : Baromètres EBG « Data Driven Entreprise » et « Programmatique Branding », chacun
conduit auprès de 800 répondants, septembre et novembre 2016.
59. 57
CONCLUSION
Chez Ubisoft, qui réalise ses campagnes digitales majoritairement en
programmatique depuis fin 2015, Camille Duval a l'impression que « tout ce
que l'on peut faire en programmatique est fait. »
Mais comme le rappelle Samboy Camara (fifty-five), « nous ne sommes qu'au
début du chemin : le programmatique va s’ouvrir progressivement à d’autres
canaux et va prendre de nouvelles formes. Demain, le programmatique va
concerner les achats en TV ou en radio. D’où l’importance de bien anticiper
toutes ces perspectives nouvelles. » Pour l'heure, l'enjeu se résume, pour
revenir à l'exemple d'Ubisoft, à unifier et à « mieux utiliser ses data ».
Sans oublier, pour ceux qui en disposent, ses data offline qui peuvent être
onboardées. Il existe sur ces sujets un goulot d'étranglement, car cette mise en
ordre des données internes nécessite des ajustements organisationnels, une
approche unifiée et une gouvernance idoine. Des sujets que l'on ne peut mener
depuis sa tour d'ivoire, mais dont il convient au contraire de démontrer la valeur
ajoutée à travers quelques cas choisis.
60. 58
« La data comme point
de départ »
AUCHAN.FR
JULIEN CAFEDE
Traffic manager
Entretien
QUEL EST VOTRE PÉRIMÈTRE CHEZ
AUCHAN.FR ?
Je suis Traffic manager pour le site
Auchan.fr, en charge de l’ensemble
des leviers push marketing : Display,
Retargeting, Social Adset Affiliation. Je
m’occupe notamment du projet de
« Médias Ciblés », qui consiste à utiliser
nos data online et offline afin d’optimiser
notre communication en termes de
coût et de pertinence, mais aussi, de
créer des scénarii de campagnes
d’acquisitions beaucoup plus fins et
personnalisés.
QUELLES SONT VOS SOURCES
DE DONNÉES ?
Notre site faisant régulièrement partie
du top 15 français en termes de trafic,
nous récoltons d’importants volumes
de data Online que nous complétons en
acquisition par des données provenant
de nos partenaires. J’ai aussi la chance
de faire partie d’une entreprise acteur
majeur de la distribution, et qui donc,
possède beaucoup de data offline, avec
une volonté d’accélérer sa mue
omni-canal.
QUELLE PART LE
PROGRAMMATIQUE PREND-IL
DANS VOTRE ACHAT MÉDIA ?
Chez Auchan.fr, notre achat média
s’effectue majoritairement en
programmatique mais sans passer
par les trading desks habituels. Nous
l’effectuons en temps réel notamment
via Facebook, Google et Criteo, dans un
modèle de CPC, car nous souhaitons
avant tout optimiser la rentabilité de nos
campagnes.
VOUS ÉVOQUIEZ EN ATELIER
TRAVAILLER DE FAÇON
RAPPROCHÉE AVEC CES
3 ACTEURS ?
Nous avançons effectivement très bien
avec eux trois sur l’activation des data.
Avec l’exploitation des mécaniques
de Custom Audiences (audience
personnalisée), nous sommes en mesure
61. de préparer en amont des ciblages
de population sur une thématique
précise afin de les activer ensuite sur
les réseaux. Par exemple, un segment
affinitaire jardin nous permet, avec Criteo,
de recibler les clients appétant au jardin
online ou ayant acheté des produits
s’y rattachant offline. Avec Facebook,
nous pouvons également adresser les
look alike de nos segments de clients.
Via Google, plus particulièrement sur
le search, nous sommes en mesure
de pousser un message particulier
ou d’augmenter le niveau d’enchère,
auprès d’une population affinitaire de
sorte à booster nos taux de clic et de
transformation.
ÊTES-VOUS SATISFAITS DE
CES DISPOSITIFS ?
Globalement très satisfait. Le réseau
propriétaire, connecté et mobile
de Facebook nous permet d’avoir
un excellent taux de matching. Sur
Criteo, même si le matching est aussi
intéressant, la portée est plus faible mais
nous générons tout de même un volume
d’impressions très élevés sur nos cibles
stratégiques. Dans le cas de Google,
nous cherchons à nous concentrer sur
leur force, notamment celle de créer
des audiences sur la base de parcours
sur site en exploitant les données de
navigation.
QUELS OUTILS UTILISEZ-VOUS
POUR LA SEGMENTATION ?
Nous avons une DMP qui nous sert à
collecter et ordonner nos données first
party, que l’on connecte ensuite via API
aux plateformes de nos partenaires.
Nous l’utilisons aussi onsite pour
améliorer le parcours client couplé avec
des outils de personnalisation. Cela
permet d’afficher la bonne publicité
au bon endroit tout en créant une
cohérence entre l’acquisition en dehors
du site et l’expérience sur site.
QUELS SONT VOS PROCHAINS
CHANTIERS ?
Nous continuons d’avancer avec nos
partenaires afin d’atteindre nos objectifs
de visibilité et de rentabilité avec des
stratégies marketing orientées clients
dans une démarche data-driven. Dans
ce cadre, nous prenons toujours la data
comme point de départ. Une campagne,
c’est avant tout une problématique
marketing et un ciblage pertinent. Dans
un second temps,on peut alors imaginer
aller chercher du look alike ou bien
croiser nos données avec des 2nd
ou 3rd
party, dès lors que l’on recherche plus
de volume.
Dans cette perspective, il est évident
que Facebook excelle sur le modèle de
Custom Audiences. Concernant Google,
comme je vous l’expliquais, nous
cherchons à conserver le très bon niveau
de performance du search tout en
poursuivant la personnalisation de nos
messages par une exploitation optimisée
des cookies. Le cas de Criteo est
aussi intéressant que particulier. Nous
ne les voyons plus comme un simple
retargeter mais comme un véritable
partenaire stratégique pour avancer
sur de nombreux sujets, notamment
de prospection ; avec Criteo, 30 % des
produits achetés en retargeting n’ont
jamais été vus par l’internaute. Ils ont su
nous démontrer que leur algorithme est
aussi pertinent pour la recommandation
de produit et le ciblage d’internaute que
pour le reciblage classique.
ILS VOUS ACCOMPAGNENT AUSSI
POUR FAIRE CONVERGER
ON ET OFFLINE ?
Nous cherchons effectivement à mettre
en évidence les impacts du online sur le
offline et inversement. Ces partenaires
doivent à eux trois réunis couvrir 99 %
du reach français ; ils pourraient donc
nous permettre d’être beaucoup plus fins
dans la mesure, l’attribution et in fine,
l’optimisation et la rentabilité de nos
campagnes.
59
62. 60
Mettre la data science au
service des métiers
Le big data et les nouvelles technologies open source ont ouvert le champ
des possibles de la data science, mais ils apportent leur lot de questions…
Quels outils utiliser ? Comment enrichir ses compétences et rester à niveau ?
Quel langage privilégier ? Quels algorithmes choisir ?
Comment partager ses résultats ?
65. 63
PARTICIPANTS
• IBM, Laurent Sergueenkoff, Big Data Sales Team Leader
• IBM, Jacques Milman, Big Data Executive Architect
ANIMATEURS
PROGRAMME
Cet atelier réservé à 25 décideurs a permis de croiser les regards entre
profils data et métiers pour imaginer une data science qui permette de :
• construire plus facilement des solutions pertinentes pour les métiers
• rendre simple l'exploitation de tout type de données
• permettre d'accélérer les cycles de développement et
l'industrialisation des projets
• favoriser la co-création / la co-innovation
• LA POSTE
Géraud Felgines, Directeur Marketing
Particuliers et Professionnels
Benoît De Corn, Directeur Innovations
et Stratégie Télécom
Gaëlle Bonnefoux, Responsable
Études, Performance et Pilotage
Stratégique
• IDBUS
Anthony Delmeire, Responsable BI
• MALAKOFF MÉDÉRIC
Nicolas Baron, Directeur de Projets -
Direction du Plan de Transformation
• EUROP ASSISTANCE
Olivier Baes,
Head of Digital Data Innovation
• CRM SERVICES
Anne-Sophie D’anthouard, Product
Owner Projets Clients
• CAISSE DES DÉPÔTS
Clément Carrier, Data Scientist
• MEILLEURTAUX.COM
Yannick Busson, Responsable
datamining
• CRÉDIT AGRICOLE SA
Claire Bussac, Direction du
Développement et de l'innovation RH
Sébastien Dulys, Responsable du pôle
Big Data et CRM
• MÉTEO FRANCE
Hugues Berthelot, Chargé d'études
• SOCIÉTÉ GÉNÉRALE
Laurence Ricaud,
Responsable Marketing Études
• AIR FRANCE KLM
Francine Quentel, Director IMO Sales,
Data BI
• MOËT HENNESSY
Amine Mekouar, Data Manager
• M6
Karim Louedec, Head of Data Strategy /
Chief Data Scientist
• CHANEL PARFUMS BEAUTÉ
Xavier Le Roy, Études Internationales -
Département Marketing Research and
Consumer Insight
• CHANEL
Benoît Rigaut, Responsable internet
digital corporate
• BNP PARIBAS
Cédric Le Merlus, Responsable Business
Intelligence
• PMU
Christelle Jason, Responsable
Datamining et Sponsor Data du projet
Big Data
• BARCLAYS BANK PLC
Pierre-Yves Hemon, Head of Digital
Channel development
• GROUPE ERAM
Julien Haillot, Digital Project Manager
• SYNGENTA
Vincent Godet, Digital Project Manager
• CABINET HOCHE
Régis Carral, Avocat Associé
• FIFTY FIVE
Romain Warlop, Data Scientist Lead
Céline Craipeau, Senior Data Analyst
• SPECIALCHEM
Aldric Tourres, Exec. VP Head of Sales
Marketing
• TF1
Philippe Toublant, Directeur Adjoint Data
• BOURSORAMA
Aurélie Rossignol, Responsable
Datamining