Converteo vous présente le support de communication de son Data Breakfast, le RDV dédié à la transformation digitale à l'heure de la data. La matinée est composée de trois tables rondes incluant le retour d'expérience d'entreprises engagées dans leur transformation data sur :
- La démocratisation de la data
- L'achat média à l'heure de la data
- Les vrais apports du Big Data entreprise
4. #DataBreakfast2016#DataBreakfast2016
Véronique Chupin
Consultante Web Analytics – Direction Marketing Digital
Matthieu Ruault
Directeur Solutions Marketing Digital & Smart Data
Damien Bigot
Responsable Data et Outils Marketing
La démocratisation de la data
Table ronde animée par : Raphaël Fétique - Directeur Associé (Converteo)
8. #DataBreakfast2016#DataBreakfast2016
Le mouvement est en marche / Chiffres à l’appui !
• 1 214 tickets JIRA traités
• + de 100 personnes formées
• 245 comptes Adobe actifs en 2016
• 30 000 pages trackées
• + de 100 tags actifs sur Eulerian
• 425 litres de café et 37 paquets de schoko-bons
10. #DataBreakfast2016#DataBreakfast2016
Le projet data democratizator
Prise besoin métier
Plan de marquage +
création du ticket
JIRA
Evaluation et
priorisation du ticket
Rédaction des specs
et développements
Recette préliminaire
Développements
Recette avant MEP
MEP
MEP
Recette post MEPWebana
Métier
Feature Team
Webana
Technique
Accompagnement
métier
Développements
Support lors de la
recette
MEP
Support recette
post MEP
Webana Métier
Feature Team
Webana
Technique
15. #DataBreakfast2016#DataBreakfast2016
Quel rôle pour la DG dans la démocratisation de la data ?
http://www.lefigaro.fr/societes/2015/04/22/20005-20150422ARTFIG00339-comment-la-sncf-compte-attirer-les-touristes-etrangers-en-france.php
17. #DataBreakfast2016#DataBreakfast2016
L’achat média à l’heure de la data
Aline Ducret
Responsable E-Business
Sophie Guillot
Responsable Acquisition & Data E-Commerce
Bintou Mariko Quattara
Responsable Acquisition de Trafic Digital
Table ronde animée par : Frédéric Marty-Debat, Manager (Converteo)
25. #DataBreakfast2016#DataBreakfast2016
25
La technologie au
service de la libération
des contraintes
traditionnelles
associées à la gestion
des actifs data des
organisations
Possibilité de traitements et
d’exploitation
Volumes de stockage & Variété
des données
Coûts de stockage & de calcul
Temps
Silos
#DataBreakfast2016
33. #DataBreakfast2016#DataBreakfast2016
Les exemples
33
“Notre client connait chaque année des
périodes de pic d’activité. Afin de staffer au
mieux les équipes logistiques, un
algorithme de prévision des ventes a été
créé pour mieux anticiper la demande.”
Google
BigQuery
Les données issues de
différentes sources
(transactions, analytics, plan
commercial, etc.) ont été
centralisées et processées par
Google BigQuery (+1TB total)
Prediction
Un modéle “maison” basé
sur les séries temporelles a
été construit en R afin de
prévoir les ventes selon 5
catégories produits pour plus
de 6 pays
Small team
Une équipe restreinte autour
de 2 consultants Converteo
a permis de rapidement
délivrer le projet. Au total,
moins de 10 personnes
différentes sont intervenues
Value
Le projet a permis de
disposer d’un outil
permettant d’ajuster au
mieux les effectifs en
entrepôt en fonction de
l’activité réélle
Sales
Forecast
#DataBreakfast2016
34. #DataBreakfast2016#DataBreakfast2016
Les exemples
34
“Notre client souhaitait croiser ses données
provenant de différentes sources (analytics,
crm, survey, …). Un datalake basé sur Amazon
a permis de répondre à leurs attentes.”
AWS
Redshift
Utilisation du stack AWS
d’Amazon afin de constituer
un socle de données pour le
décisionnel
Visualisation
Les dashboards ont été
construits sur Qlikview qui se
nourrit directement des
données issues du socle
Redshift
Python
Python a permis de récupérer,
structurer et diffuser les
données à travers les
différents outils. Il fait
désormais partie du nouveau
socle “Data Science”
Value
La nouvelle infrastructure
permet de désiloter les
données et de disposer d’un
puissant outil capable de
processer d’importantes
volumétries de données
DataLake
#DataBreakfast2016
35. #DataBreakfast2016#DataBreakfast2016
Les exemples
35
Google
Speech API
Utilisation de la Google API
Speech afin de transcrire les
échanges téléphoniques en
texte
NLP
Analyse textuel des
retranscriptions afin
d’identifier des arguments
clés parmi les meilleurs
vendeurs
“Notre client cherchait à rendre les campagnes
marketing plus performantes. Avec Converteo,
un outil permettant d’extraire le meilleur
argumentaire à partir des conversations a été
construit.”
2 mois
C’est un projet qui peut être
mis en place sous deux
mois, de la phase de
conception à la phase
d’implémentation
Value
Meilleures formations des
opérateurs et compréhension
des attentes des clients par
rapport au produit proposé
Speech
Analysis
#DataBreakfast2016
Intervenant : Matthieu
Thèmes à aborder :
Rappel de l’activité
Chiffres clés possibles à communiquer (audience, classement parmi sites e-commerce de tourisme, nombre de transactions, nombre de billets vendus / mn, nombres téléchargements app…)
Omniture : mesurer le trafic sur le site
Eulerian : mesurer la performance des campagnes marketing
Dart/GPT : Gestion d’affichage des publicités
Content Square : Gestion de clickmaps et de scrollmaps
Demeter : Outil de mesure de la performance de navigation des utilisateurs
Définir la démocratisation / Quel périmètre ? Collecte / Traitement / Accès / Analyse / Modélisation ?
Comprendre dans quelle mesure la démocratisation de la donnée est devenue un enjeu clef au service de vos objectifs et de ceux de l’entreprise…
Par exemple, se concentrer sur les analyses à plus forte valeur ajoutée vs. Analyses de 1er niveau gérées par les formations
Les objectifs de l’équipe Analytics
Répondre aux différents besoins en tracking
Etre garant de la qualité de la donnée
Evangéliser les équipes
Assurer le support sur les outils de Web analyse (Adobe et Eulerian)
Former les équipes
Apporter un support dans la réalisation d’analyses
Réaliser des analyses complexes
Pourquoi VSC a adopté la méthode agile ?
Compatibilité avec le sujet data ?
Nécessaire pour démocratiser la data ?
L’objectif du Data Democratizator est de fournir aux Feature Team un ensemble d’outils et de process permettant une autonomie dans la gestion du tracking
=> Cela va éviter ainsi les délais de mise en place, liés aux nombreuses étapes décrites précédemment.
Les outils proposés couvriront les besoins suivants :
Paramétrage du tracking
Documentation et génération de templates du Tag Json Vsca_pageTag
Automatisation des tests sur le tracking
Un ensemble de webservices pour gérer le paramétrage du tracking, ainsi que l’accès à des métriques simples provenant d’Omniture
Choix de former un grand nombre de collaborateurs aux outils de Web analytics pour permettre l’appropriation de la donnée
Extraits des supports de présentation pour responsabiliser sur la nécessite d’une data de qualité et expliquer son rôle pour l’atteinte des objectifs business
API Adobe vers l’intranet
Le travail sur les tableaux de bord (dataviz) et faire circuler la donnée avec les API
Les équipes métier formées pour réaliser les analyses 1er niveau /Immersion dans les équipes via les Data marketing expert/ Les experts peuvent se concentrer sur les formations et les analyses plus pointues
Le calendrier d’évènement comme exemple de collaboration et d’échange de data de contexte
Autre exemple de projet : segmentation plus lisible pour rendre le marketing plus autonome
Transversalité / Vision / Frein / Moyens
Sans les données, une idée n’est qu’une opinion sans rationalisation
Avant nous n’avions pas de données notamment parce qu’on ne savait pas les stocker (exemple de la disquette qui faisait 1.4 Mo)
Maintenant il existe des systèmes qui peuvent stocker des volumétries monstrueuses et du coup des données on en a beaucoup
Voici pourquoi il faut démocratiser la donnée
On peut stocker n’importe quel type de données dans des volumes énormes
Et possibilité de scalabilité facile notamment grâce au cloud
Le déployement d’hadoop est facile (distribution, cloud)
Avec dataproc, monter un cluster se fait en 90 sec !
Pour démocratiser la donnée il faut déjà pouvoir la stocker quelques soit sa forme
On peut processer plusieurs TB voir des PB dans des temps records quelques dizaines de secondes (Exemple bigquery 30 sec pour 15 TB processés)
Et possibilité de faire du temps réel (architecture lambda, spark streaming/kafka, etc.) attention à son utilité (exemple chaine de vêtement qui analyse toutes les heures les ventes et qui peut être amené à surréagir face à un épiphénomène)
La technologie n’est donc plus un problème
Pour démocratiser la donnée, il faut pouvoir l’interroger et la manipuler à volonté et facilement
Et les coûts de stockages on drastiquement diminuer grâce à l’utilisation de commonware
(anecdote serveur oracle aphm)
Le cloud permet de maitriser/monitorer facilement les coûts. Permet aussi de diminuer la demande de compétences internes, de s’adapter à son marché (si il y a un pic on augmente, si il y a un creux on diminue)
Le désilotage, ce n’est pas un projet it mais un projet métier avant tout. On conseil de procéder par étape, en fonction des use cases à déployer
Un projet data lake, ne signifie pas la centralisation de l’ensemble des données au même endroit. Ce genre de projet est voué à l’échec, il n’apporte pas de valeur parce que c’est inexploitable
Le big data est devenu un enjeu métier !
Pour démocratiser la donnée, il faut arriver à la dompter, la gouverner
Les données restent au cœur du système
Il faut ranger ses données et surtout bien documenter les métadonnées (Qui a généré cette donnée, quand est-ce qu’elle a été généré, quoi qu’est ce que c’est)
Différents types de données :
Données structurés (transactionnels, etc.)
Données semi-structurés (logs systèmes, etc.)
Données non structurés (pdf, audio, etc.)
Et il faut la retravailler : les logs systèmes, la durée d’une session n’existe pas (c’est un différentiel, potentiellement pas la même définition pour tout le monde)
La démocratisation de la donnée, passe par son mangement
Avoir des données est fondamental, mais il faut aussi trouver des moyens de les exploiter à leur plein potentiel et trouver des projets quickwin à fort ROI
Use cases possibles :
- Réduction des coûts
- Amélioration de l’existant
Nouveaux services
Démocratiser la donnée se traduit par des projets à fortes valeurs ajoutées