SlideShare una empresa de Scribd logo
1 de 65
1
© OCTO 2013© OCTO 2012© OCTO 2013
Big Data : Usages et opportunités
Retour d’expérience sur Hadoop
2
© OCTO 2013
Joseph Glorieux
Directeur général
OCTO Suisse
jglorieux@octo.com
Rémy SAISSY
Architecte senior
expert Hadoop
OCTO
rsaissy@octo.com
3
© OCTO 2013
Big Data
Définition
Pourquoi maintenant?
Pourquoi faire?
Questions/réponses
Big Data et Hadoop
Questions/réponses
Retour d’expérience
10 Best practices pour dimensionner et configurer un cluster
Hadoop
Hadoop CDH4 sous YARN dans les coms
Questions/réponses
Conclusion
Agenda
4
© OCTO 2013© OCTO 2012© OCTO 2013
Big Data : définition
5
© OCTO 2013
6
© OCTO 2013
Big Data, une écosystème multiple
Web
Google, Amazon,
Facebook, Twitter,
…
Logiciel IT
IBM, Teradata,
Vmware, EMC,
…
Management
McKinsey, BC
G, Deloitte, …
7
© OCTO 2013
Il n’existe pas aujourd’hui de définition claire de Big Data
Définir Big Data
Super datawarehouse?
Stockage low cost?
NoSQL?
Cloud?
Internet
Intelligence?
Analyse en temps
réel?
Non structuré? Open Data?
8
© OCTO 2013
Le marché parle des 3V
Volume
Variété
Vélocité
BatchJ+1
Seconde
Temps réel
Mo ToGo PoFichier
SGBDRéseaux
sociaux
API
Photo
Video
Web
Non structurées
Audio
9
© OCTO 2013
Définition technologique
Application
orientée Flux
évènementiel
Application orientée
Transaction
Application orientée
Stockage
Application orientée
Calculs
Univers
« standard »
SGBDR,
Serveur d’application,
ETL, ESB
Au-delà de 10 To en ligne, les
architectures « classiques »
nécessitent des adaptations
logiques et matérielles très
importantes.
Au-delà de 1 000
transactions/seconde, les
architectures « classiques » des
adaptations logiques et
matérielles très importantes
Au-delà de 10 threads/Core
CPU, la programmation
séquentielle classique atteint
ses limites (I/O).
Au-delà de 1 000
évènements/seconde, les
architectures « classiques »
nécessitent des adaptations
logiques et matérielles très
importantes.
Stockage
distribué
Share
nothing
XTP
Programmation
parallèle
Event Stream
Processing
10
© OCTO 2013
Notre définition
Big data est l’ambition de tirer un
avantage économique
de
l’analyse quantitative des
données
internes et externes de l’entreprise
11
© OCTO 2013© OCTO 2012© OCTO 2013
Big Data : pourquoi maintenant?
12
© OCTO 2013
Une évolution du « hardware » toujours fantastique…
13
© OCTO 2013
Evolution non uniforme de la capacité et du débit
des disques
0
10
20
30
40
50
60
70
Débit(MB/s)
Gain : x100
64 MB/s
0,7 MB/s
Seagate
Barracuda
7200.10
Seagate
Barracuda
ATA IV
IBM DTTA
35010
Gain : x100 000
1990 2010
La croissance du débit reste très inférieure de celle de la capacité
14
© OCTO 2013
Evolution des architectures pour dépasser
cette limite structurelle
Architecture In Memory
• Réduire la latence en utilisant
des supports plus rapides
(DRAM, SSD)
• Bénéficier de l’évolution des
capacités des composants
• La limite structurelle n’est que
déplacée : pour
évoluer, l’architecture doit
devenir une grille In Memory
Architecture en grille
• Paralléliser les accès I/O en
divisant les volumes (sharding)
• Bénéficier du différentiel de
coût entre commodity
hardware et haut de gamme
• Le réseau de la grille devient
un composant
principal, nécessitant co-
localisation des données et
des traitements
• Permet de scaler à l’infini, c’est
le Warehouse scale
computing!
15
© OCTO 2013
Théorème de CAP
L’univers des
SGBRD
La stratégie des sites
à gros trafic.
Avec cohérence in fine
« Consistency »
Tous les clients ont
la même vue de la
donnée
« Partition tolerance »
Le système continue a
fonctionner en cas de
« partition » - plusieurs
sous-ensembles n’arrivent
plus à communiquer
« Availability »
Les clients peuvent
toujours accéder au
système (lecture écriture)
« Il est impossible pour un système informatique de calcul distribué de garantir en
même temps la consistance, la disponibilité et la résistance au morcellement »
Eric Brewer
C
A
P
16
© OCTO 2013
Panorama de solutions
Application
orientée Flux
évènementiel
Application orientée
Transaction
Application orientée
Stockage
Application orientée
Calculs
Cassandra, Mong
oDB, CouchDB
Univers
« standard »
SGBDR,
Serveur
d’application,
ETL, ESB
HDFS
SQLFire
Teradata
Hana
Grid Computing
Giga Spaces
Map Reduce
GPU
Voldemort
Exadata
HBase
Esper
Quartet
ActivePivot
Sqoop
RabbitMQ,
Zero MQ
Ultra Low
latency
Hama
Igraph
MapR
EMC
Redis
ExalyticsIn memory
Distribué
17
© OCTO 2013© OCTO 2012© OCTO 2013
Big Data : pourquoi faire?
18
© OCTO 2013
19
© OCTO 2013
Scoring de crédit
Supply-chain
management
Les nouveaux cas d’usages
Prévention de
l’attrition
Lutte contre la
fraude
Modèle de
tarification
Segmentation client
Calcul du risque
Optimisation du réseau
20
© OCTO 2013
Les opportunités peuvent être perçues sous 2
angles :
Big Data comme « Cost killer »
Big Data comme « Ouvrir le champs des possibles »
Big Data : de nouvelles opportunités?
21
© OCTO 2013
Comparatif machine à « puissance équivalente (RAM/CPU) »
Comparatif stockage
Big Data comme « cost killer »
Source :
http://www.slideshare.net/lucenerevolution/the-search-is-over-integrating-solr-and-
hadoop-in-the-same-cluster-to-simplify-big-data-analytics
SAN
$2 - $10 par GB
0,5 PB
200 000 IOPS
1 GB per second
Filers NAS
$1 - $5 par GB
1 PB
400 000 IOPS
2 GB per second
Local storage
$0,05 par GB
20 PB
10 000 000 IOPS
800 GB per second
Available storage
for 1 million $
22
© OCTO 2013
Archivage
Déchargement d’entrepôt de données
ET(L)
Fail-over
Big Data comme « cost killer » : use cases
23
© OCTO 2013
Analyser des données de l’entreprise qu’il paraissait
illusoire de vouloir analyser du fait du volume ou de la
capacité de traitement sous-jacent :
Analyse des logs web
Profondeur d’analyse étendue : plusieurs années, plusieurs
dizaines d’année…
Croisement entre SI cloisonné
Analyser des données exogènes de l’entreprise et les
croiser avec les données existantes
Réseaux sociaux
Recherches internet
Internet des objets
Big Data comme « Ouvrir le champs des possibles »
24
© OCTO 2013
Ouvrir le champs des possibles : grille de lecture
Segmentation Comportement Influence
Concurrence Usage / Exp Adoption / Reco
Mesure Optimisation Collaboration
Données
d’Identité
Données
d’Usage
Données de
Relation
Axesd’analyse
Sources de données
Client
Produit
Services
Processus
25
© OCTO 2013
26
© OCTO 2013© OCTO 2012© OCTO 2013
Big Data et Hadoop
27
© OCTO 2013
Hadoop dans l’univers Big data
Application
orientée Flux
évènementiels
Application orientée
Transactions
Application orientée
Stockage
Application orientée
Calculs
Parrallel database
NoSQL
NewSQL
CEP, ESP
H
a
d
o
o
p
In Memory
28
© OCTO 2013
Hadoop s’impose comme une architecture
de référence sur le marché
• Apache Hadoop
Open Source
• Cloudera CDH
• Hortonworks
• MapR
COTS
• Greenplum (EMC)
• IBM InfoSphere BigInsights (CDH)
• Oracle Big data appliance (CDH)
• Teradata (aster)
Editeurs
• Amazon EMR (MapR)
• VirtualScale (CDH)
Cloud
29
© OCTO 2013
Hadoop et les outils de BI et de Data mining
30
© OCTO 2013
Hadoop, un écosystème riche et complexe
Traitement
MapReduce
Framework permettant de traiter des données en parallèle
Requêtage
Pig
Langage de flux de données
Hive
DSL de requêtage « SQL-like »
Workflow
Oozie / Azkaban
Workflow pour jobs Hadoops dépendants
Infrastructure
Intégration au SI
Flume, Chukwa, Scribe…
Collection de données fiable et résiliente
Sqoop
Intégration RDBMS & Hadoop
Supervision
Platform Management
Console
Hue
Traitement distribué avancé
Mahout
Machine learning
Hama
Bulk Synchronous Processing
Stockage
HDFS
Un système de fichiers distribué write-once, read-many
Hbase
Base de données pour des accès aléatoires read/write
Reporting
Hue Beeswax
Interface web de requêtage
Pentaho
Reporting
IBM BigSheets
Outil de requêtage
31
© OCTO 2013
Répartition des données sur plusieurs machines
Réplication des données pour assurer le « fail-over » : « rack
awareness »
Hadoop Distributed File System (HDFS)
32
© OCTO 2013
Paralléliser et distribuer les traitements
Traiter plus rapidement des volumes de données unitaires plus faibles
Co-localiser traitements / données
MapReduce, le système de traitement
33
© OCTO 2013
Hadoop est à la fois :
Un système de stockage distribué pour les grands fichiers
Un système d’agrégation et de traitement parallèle en mode batch
à la demande, reposant sur la grille de stockage
Hadoop n’est pas :
Un système d’accès à la donnée unitaire (random access)
Un système temps réel, mais batch à la demande
Hadoop nécessite des composants externes pour compléter le
puzzle
Des outils de visualisation graphique des données
Une librairie de traitements statistiques et text mining finalisée
Mahout, Hama fournissent des algorithmes parallèles
…
Les mythes et réalités sur Hadoop
34
© OCTO 2013
35
© OCTO 2013© OCTO 2012© OCTO 2013
10 best practices pour
dimensionner et configurer un
cluster Hadoop
36
© OCTO 2013
Piège 1 : la tentation des machines « monstres de guerre »
Piège 2 : le réseau, mieux vaut 10Gb/s c’est plus sûr
Piège 3 : pour superviser, mes outils actuels suffisent !
Piège 4 : un SCM ? Pas le temps, SSH fera l’affaire !
Piège 5 : les logs c’est important, il faut tous les collecter
Piège 6 : conserver les paramètres mémoire par défaut
Piège 7 : conserver la configuration par défaut de HDFS
Piège 8 : conserver la configuration par défaut de MapReduce
Piège 9 : utiliser les formats de fichier par défaut
Piège 10 : benchmarker son cluster avec TeraSort
Sommaire
37
© OCTO 2013
Le piège
Des ressources inutilisées
Un niveau de parallélisme insuffisant
Un surcoût aux performances non garanties
Best Practice
Penser parallélisation
Notion de conteneur : 1 CPU physique / xGo de RAM / Disque dur
HDFS
Dimensionner pour du temps de traitement
Piège 1 : la tentation des machines « monstres de guerre »
38
© OCTO 2013
Le piège
Pour garder de bonnes perfs, il faut éviter la sursouscription
Switchs de rack plus gros, donc plus cher
10Gb/s = 1Go/s = 40Go/s au niveau du switch
Backbone encore plus gros, donc encore plus cher
40Go/s * <nombre de racks> = ?
Best Practice
Utiliser deux cartes 1Gb/s FD
Moins de disque sur chaque serveur
Superviser
Piège 2 : le réseau, mieux vaut 10Gb/s c’est plus sûr
39
© OCTO 2013
Le piège
Pas de détail sur les métriques internes d’Hadoop
Lectures / écritures de HDFS par nœud
Consommation mémoire pendant les étapes d’un job
Best Practice
Pensez aux développeurs !
Utiliser Ganglia pour des métriques fines
Piège 3 : pour superviser, mes outils actuels suffisent !
40
© OCTO 2013
Le piège
Un petit cluster Hadoop, c’est 10 machines
Configuration et maintenance à la main difficile
Perte de temps
Best Practice
Utiliser un SCM
Piège 4 : un SCM ? Pas le temps, SSH fera l’affaire !
41
© OCTO 2013
Le piège
500 mappers et 20 reducers
520 fichiers de logs à collecter sur tout le cluster
Peu d’informations utiles à long terme
Best Practice
Pas de collecte sur les slaves
Collecte sur les masters
Piège 5 : les logs c’est important, il faut tous les collecter
42
© OCTO 2013
Le piège
Ils ne sont pas optimisés pour votre cluster
Sous utilisation des ressources
Échecs possibles de certains jobs
Best Practice
2Go pour les démons tasktracker et datanode
4Go pour le démon JobTracker
4Go + 1Go par million de bloc pour le namenode
Utiliser 4Go voire 8Go par tâche de map et de reduce
Superviser
Piège 6 : conserver les paramètres mémoire par défaut
43
© OCTO 2013
Le piège
Pas optimisée pour un cluster
Les paramètres dépendent de vos données, de votre réseau, …
Best Practice
Configurer en pensant I/O vs mémoire vs réseau
Chaque cas d’utilisation a sa propre configuration optimisée
Superviser
Piège 7 : conserver la configuration par défaut de HDFS
44
© OCTO 2013
Le piège
Pas optimisée pour un cluster
Les paramètres dépendent de votre utilisation
Best Practice
Utiliser le CapacityScheduler
Configurer avec des règles de calcul
Auditer l’usage réel pour optimiser les configurations
Piège 8 : conserver la configuration par défaut de MapReduce
45
© OCTO 2013
Le piège
Lenteur des jobs dû à un stockage inefficace
Plus d’espace utilisé que nécessaire
Best Practice
Format de stockage : distinguer les usages
Base de données
Données binaires
Compression : quelle fréquence d’accès ?
Donnée utilisée
Archivage
Piège 9 : utiliser les formats de fichier par défaut
46
© OCTO 2013
Le piège
Non représentatif de l’usage réel du cluster
Best Practice
Utiliser du code de production
Piège 10 : benchmarker son cluster avec TeraSort
47
© OCTO 2013
48
© OCTO 2013© OCTO 2012© OCTO 2013
Hadoop CDH4 sous YARN dans
les télécoms. Retour d'expérience
49
© OCTO 2013
Contexte
Caractéristiques du cluster
Déroulement du projet
Déploiement de Hadoop
Déploiement des outils support
Les alimentations de données
L’analyse des données
La migration du cluster
Le benchmark du cluster
Cluster en fin de mission
Conclusion
Sommaire
50
© OCTO 2013
Durée : 3 mois
Equipe opérationnelle : 8 personnes
Trois enjeux majeurs :
Construire une plateforme Big Data opérationnelle
Montée en compétence des équipes
Préconisations pour une plateforme industrielle
Equipe colocalisée
Contexte
51
© OCTO 2013
1 rack, 12 serveurs
1 nœud pour les outils, 1 autre pour l’anonymisation
2 nœuds master
namenode / resourcemanager
secondary namenode
8 nœuds slave : datanode et nodemanager
Caractéristiques du cluster
Slaves
Masters
Outils
Accès Masters et
Outils
52
© OCTO 2013
Déroulement du projet
53
© OCTO 2013
Réseau de production : utiliser un mirroir local
Configuration OS : compétences système et réseau requises
Utiliser un SCM pour déployer
Nécessité d’avoir des profils polyvalents
Déploiement de Hadoop
A l’attaque
!
54
© OCTO 2013
Relativement facile une fois Hadoop correctement installé
Peu d’impact sur le cluster en lui même
Ne déployer que le nécessaire
Déploiement des outils support
55
© OCTO 2013
KISS : Keep It Simple Stupid
Ne pas négliger le travail en amont de l’analyse !
Les alimentations de données
56
© OCTO 2013
Beaucoup de travail en amont
Un cluster s’optimise au contact de la réalité
Limites des outils
Ajustement de l’ordonnanceur
Configuration mémoire
Configuration d’HDFS
L’analyse des données
57
© OCTO 2013
Passage de CDH 4.0.1 à CDH 4.1.2
Des leçons
Du travail en amont
Le SCM aurait fait gagner du temps
Suivre les préconisations !
La migration du cluster
58
© OCTO 2013
Initialement en début de projet…
Terasort ? Plutôt HiBench
Au final, le travail réalisé pendant le projet a été le meilleur
benchmark
Le benchmark du cluster
59
© OCTO 2013
Cluster YARN opérationnel
Plusieurs outils testés au cours de l’exploration
HDFS occupé à 70% : 1 427 251 fichiers, 280To
Les jobs ne saturent pas complètement le cluster
Cluster en fin de mission
60
© OCTO 2013
Des points positifs
YARN : stable et ouvre à d’autres frameworks que Map Reduce
Des outils polyvalents
Des points à améliorer
Maturité des outils et de leur environnement de travail
Complexité de la configuration de Hadoop comme de ses outils
Des documentations et des abaques
Mettre en place votre cluster ?
une équipe pluri disciplinaire
de la polyvalence technique
Bilan
61
© OCTO 2013
62
© OCTO 2013© OCTO 2012© OCTO 2013
Conclusion
63
© OCTO 2013
Use cases
Cost killer
Ouvrir le champs des possibles
L’écosystème Hadoop est riche et complexe, en
mouvement
L’usage a une incidence forte sur l’architecture et la
configuration
Conclusion
64
© OCTO 2013
Identifiez les use cases métiers applicables dans votre contexte, en
benchmarkant les projets lancés dans d’autres secteurs et au-delà
Lancez un POC métier d’exploration des données, avec les métiers les
plus early adopters
Marketing
Distribution
Trading
Risques
Valorisez les résultats du POC en termes métiers
Définissez une architecture cible de classe industrielle pour généraliser
l’approche en réduisant les coûts
Comment démarrer cet après midi?
65
© OCTO 2013
OCTO et le Big Data
Une offre cohérente entre technologie et analyse prédictive
CONSEIL EN SI BIG DATA
 Etude et positionnement des solutions
en fonction de votre contexte
 Transformation de SI Décisionnel vers le
Big Data
 Cadrage de projets Big Data
ARCHITECTURE DES SYSTÈMES BIG DATA
 POC sur Hadoop et NoSQL
 Conception et réalisation de systèmes
sous Hadoop et NoSQL
 Formation Hadoop
CONSEIL EN ANALYSE DE DONNÉES AVANCÉES
 Benchmarks de projets Big Data par
secteur
 Formation des équipes de datamining
aux techniques Big Data
 Accompagnent des projets pilotes
métiers
COLLECTE DE DONNÉES EXTERNES
 Identification de sources de données
 Collecte et traitements de données non
structurées
 Recherche de corrélations économiques
DIRECTION SI DIRECTION MÉTIER

Más contenido relacionado

La actualidad más candente

Hadoop MapReduce - OSDC FR 2009
Hadoop MapReduce - OSDC FR 2009Hadoop MapReduce - OSDC FR 2009
Hadoop MapReduce - OSDC FR 2009Olivier Grisel
 
BigData_Chp2: Hadoop & Map-Reduce
BigData_Chp2: Hadoop & Map-ReduceBigData_Chp2: Hadoop & Map-Reduce
BigData_Chp2: Hadoop & Map-ReduceLilia Sfaxi
 
Big Data, Hadoop & Spark
Big Data, Hadoop & SparkBig Data, Hadoop & Spark
Big Data, Hadoop & SparkAlexia Audevart
 
Big Data: Hadoop Map / Reduce sur Windows et Windows Azure
Big Data: Hadoop Map / Reduce sur Windows et Windows AzureBig Data: Hadoop Map / Reduce sur Windows et Windows Azure
Big Data: Hadoop Map / Reduce sur Windows et Windows AzureMicrosoft
 
Hadoop et son écosystème
Hadoop et son écosystèmeHadoop et son écosystème
Hadoop et son écosystèmeKhanh Maudoux
 
Casablanca Hadoop & Big Data Meetup - Introduction à Hadoop
Casablanca Hadoop & Big Data Meetup - Introduction à HadoopCasablanca Hadoop & Big Data Meetup - Introduction à Hadoop
Casablanca Hadoop & Big Data Meetup - Introduction à HadoopBenoît de CHATEAUVIEUX
 
Introduction aux bases de données NoSQL
Introduction aux bases de données NoSQLIntroduction aux bases de données NoSQL
Introduction aux bases de données NoSQLAntoine Augusti
 
Hadoop Introduction in Paris
Hadoop Introduction in ParisHadoop Introduction in Paris
Hadoop Introduction in ParisTed Drake
 
MapReduce: Traitement de données distribué à grande échelle simplifié
MapReduce: Traitement de données distribué à grande échelle simplifiéMapReduce: Traitement de données distribué à grande échelle simplifié
MapReduce: Traitement de données distribué à grande échelle simplifiéMathieu Dumoulin
 
Big Data: Concepts, techniques et démonstration de Apache Hadoop
Big Data: Concepts, techniques et démonstration de Apache HadoopBig Data: Concepts, techniques et démonstration de Apache Hadoop
Big Data: Concepts, techniques et démonstration de Apache Hadoophajlaoui jaleleddine
 
BigData_TP2: Design Patterns dans Hadoop
BigData_TP2: Design Patterns dans HadoopBigData_TP2: Design Patterns dans Hadoop
BigData_TP2: Design Patterns dans HadoopLilia Sfaxi
 
Les technologies big data avec speech commentaries
Les technologies big data avec speech commentariesLes technologies big data avec speech commentaries
Les technologies big data avec speech commentariesRima Jamli Faidi
 
Hadoop Hbase - Introduction
Hadoop Hbase - IntroductionHadoop Hbase - Introduction
Hadoop Hbase - IntroductionBlandine Larbret
 
Hadoop and friends : introduction
Hadoop and friends : introductionHadoop and friends : introduction
Hadoop and friends : introductionfredcons
 
BigData_Chp4: NOSQL
BigData_Chp4: NOSQLBigData_Chp4: NOSQL
BigData_Chp4: NOSQLLilia Sfaxi
 
Cartographie du big data
Cartographie du big dataCartographie du big data
Cartographie du big dataacogoluegnes
 
BigData_TP3 : Spark
BigData_TP3 : SparkBigData_TP3 : Spark
BigData_TP3 : SparkLilia Sfaxi
 
Spark (v1.3) - Présentation (Français)
Spark (v1.3) - Présentation (Français)Spark (v1.3) - Présentation (Français)
Spark (v1.3) - Présentation (Français)Alexis Seigneurin
 

La actualidad más candente (20)

Hadoop MapReduce - OSDC FR 2009
Hadoop MapReduce - OSDC FR 2009Hadoop MapReduce - OSDC FR 2009
Hadoop MapReduce - OSDC FR 2009
 
BigData_Chp2: Hadoop & Map-Reduce
BigData_Chp2: Hadoop & Map-ReduceBigData_Chp2: Hadoop & Map-Reduce
BigData_Chp2: Hadoop & Map-Reduce
 
Big Data, Hadoop & Spark
Big Data, Hadoop & SparkBig Data, Hadoop & Spark
Big Data, Hadoop & Spark
 
Big Data: Hadoop Map / Reduce sur Windows et Windows Azure
Big Data: Hadoop Map / Reduce sur Windows et Windows AzureBig Data: Hadoop Map / Reduce sur Windows et Windows Azure
Big Data: Hadoop Map / Reduce sur Windows et Windows Azure
 
Hadoop et son écosystème
Hadoop et son écosystèmeHadoop et son écosystème
Hadoop et son écosystème
 
Casablanca Hadoop & Big Data Meetup - Introduction à Hadoop
Casablanca Hadoop & Big Data Meetup - Introduction à HadoopCasablanca Hadoop & Big Data Meetup - Introduction à Hadoop
Casablanca Hadoop & Big Data Meetup - Introduction à Hadoop
 
Introduction aux bases de données NoSQL
Introduction aux bases de données NoSQLIntroduction aux bases de données NoSQL
Introduction aux bases de données NoSQL
 
Hadoop Introduction in Paris
Hadoop Introduction in ParisHadoop Introduction in Paris
Hadoop Introduction in Paris
 
MapReduce: Traitement de données distribué à grande échelle simplifié
MapReduce: Traitement de données distribué à grande échelle simplifiéMapReduce: Traitement de données distribué à grande échelle simplifié
MapReduce: Traitement de données distribué à grande échelle simplifié
 
Big Data: Concepts, techniques et démonstration de Apache Hadoop
Big Data: Concepts, techniques et démonstration de Apache HadoopBig Data: Concepts, techniques et démonstration de Apache Hadoop
Big Data: Concepts, techniques et démonstration de Apache Hadoop
 
Tech day hadoop, Spark
Tech day hadoop, SparkTech day hadoop, Spark
Tech day hadoop, Spark
 
BigData_TP2: Design Patterns dans Hadoop
BigData_TP2: Design Patterns dans HadoopBigData_TP2: Design Patterns dans Hadoop
BigData_TP2: Design Patterns dans Hadoop
 
Les technologies big data avec speech commentaries
Les technologies big data avec speech commentariesLes technologies big data avec speech commentaries
Les technologies big data avec speech commentaries
 
Hadoop Hbase - Introduction
Hadoop Hbase - IntroductionHadoop Hbase - Introduction
Hadoop Hbase - Introduction
 
Hadoop and friends : introduction
Hadoop and friends : introductionHadoop and friends : introduction
Hadoop and friends : introduction
 
HADOOP + R
HADOOP + RHADOOP + R
HADOOP + R
 
BigData_Chp4: NOSQL
BigData_Chp4: NOSQLBigData_Chp4: NOSQL
BigData_Chp4: NOSQL
 
Cartographie du big data
Cartographie du big dataCartographie du big data
Cartographie du big data
 
BigData_TP3 : Spark
BigData_TP3 : SparkBigData_TP3 : Spark
BigData_TP3 : Spark
 
Spark (v1.3) - Présentation (Français)
Spark (v1.3) - Présentation (Français)Spark (v1.3) - Présentation (Français)
Spark (v1.3) - Présentation (Français)
 

Destacado

Bases de données NoSQL
Bases de données NoSQLBases de données NoSQL
Bases de données NoSQLSamy Dindane
 
Big Data Analytics for connected home
Big Data Analytics for connected homeBig Data Analytics for connected home
Big Data Analytics for connected homeHéloïse Nonne
 
NoSql : conception des schémas, requêtage, et optimisation
NoSql : conception des schémas, requêtage, et optimisationNoSql : conception des schémas, requêtage, et optimisation
NoSql : conception des schémas, requêtage, et optimisationMicrosoft Technet France
 
Enquête RegionsJob : emploi et réseaux sociaux, deuxième édition
Enquête RegionsJob : emploi et réseaux sociaux, deuxième éditionEnquête RegionsJob : emploi et réseaux sociaux, deuxième édition
Enquête RegionsJob : emploi et réseaux sociaux, deuxième éditionHelloWork
 
Présentation pfe Big Data Hachem SELMI et Ahmed DRIDI
Présentation pfe Big Data Hachem SELMI et Ahmed DRIDIPrésentation pfe Big Data Hachem SELMI et Ahmed DRIDI
Présentation pfe Big Data Hachem SELMI et Ahmed DRIDIHaShem Selmi
 
Architectures techniques NoSQL
Architectures techniques NoSQLArchitectures techniques NoSQL
Architectures techniques NoSQLOCTO Technology
 
Cours HBase et Base de Données Orientées Colonnes (HBase, Column Oriented Dat...
Cours HBase et Base de Données Orientées Colonnes (HBase, Column Oriented Dat...Cours HBase et Base de Données Orientées Colonnes (HBase, Column Oriented Dat...
Cours HBase et Base de Données Orientées Colonnes (HBase, Column Oriented Dat...Hatim CHAHDI
 
Valtech - Du BI au Big Data, une révolution dans l’entreprise
Valtech - Du BI au Big Data, une révolution dans l’entrepriseValtech - Du BI au Big Data, une révolution dans l’entreprise
Valtech - Du BI au Big Data, une révolution dans l’entrepriseValtech
 
Big Data : concepts, cas d'usage et tendances
Big Data : concepts, cas d'usage et tendancesBig Data : concepts, cas d'usage et tendances
Big Data : concepts, cas d'usage et tendancesJean-Michel Franco
 
Big data - Cours d'introduction l Data-business
Big data - Cours d'introduction l Data-businessBig data - Cours d'introduction l Data-business
Big data - Cours d'introduction l Data-businessVincent de Stoecklin
 
BigData_Chp3: Data Processing
BigData_Chp3: Data ProcessingBigData_Chp3: Data Processing
BigData_Chp3: Data ProcessingLilia Sfaxi
 
Support de cours EJB 3 version complète Par Mr Youssfi, ENSET, Université Ha...
Support de cours EJB 3 version complète Par Mr  Youssfi, ENSET, Université Ha...Support de cours EJB 3 version complète Par Mr  Youssfi, ENSET, Université Ha...
Support de cours EJB 3 version complète Par Mr Youssfi, ENSET, Université Ha...ENSET, Université Hassan II Casablanca
 
BigData_Chp1: Introduction à la Big Data
BigData_Chp1: Introduction à la Big DataBigData_Chp1: Introduction à la Big Data
BigData_Chp1: Introduction à la Big DataLilia Sfaxi
 

Destacado (20)

Bases de données NoSQL
Bases de données NoSQLBases de données NoSQL
Bases de données NoSQL
 
Une introduction à MapReduce
Une introduction à MapReduceUne introduction à MapReduce
Une introduction à MapReduce
 
Big Data Analytics for connected home
Big Data Analytics for connected homeBig Data Analytics for connected home
Big Data Analytics for connected home
 
NoSql : conception des schémas, requêtage, et optimisation
NoSql : conception des schémas, requêtage, et optimisationNoSql : conception des schémas, requêtage, et optimisation
NoSql : conception des schémas, requêtage, et optimisation
 
Enquête RegionsJob : emploi et réseaux sociaux, deuxième édition
Enquête RegionsJob : emploi et réseaux sociaux, deuxième éditionEnquête RegionsJob : emploi et réseaux sociaux, deuxième édition
Enquête RegionsJob : emploi et réseaux sociaux, deuxième édition
 
Hadopp Vue d'ensemble
Hadopp Vue d'ensembleHadopp Vue d'ensemble
Hadopp Vue d'ensemble
 
Présentation pfe Big Data Hachem SELMI et Ahmed DRIDI
Présentation pfe Big Data Hachem SELMI et Ahmed DRIDIPrésentation pfe Big Data Hachem SELMI et Ahmed DRIDI
Présentation pfe Big Data Hachem SELMI et Ahmed DRIDI
 
Introduction à HDFS
Introduction à HDFSIntroduction à HDFS
Introduction à HDFS
 
Une introduction à Hive
Une introduction à HiveUne introduction à Hive
Une introduction à Hive
 
Un introduction à Pig
Un introduction à PigUn introduction à Pig
Un introduction à Pig
 
Architectures techniques NoSQL
Architectures techniques NoSQLArchitectures techniques NoSQL
Architectures techniques NoSQL
 
Cours HBase et Base de Données Orientées Colonnes (HBase, Column Oriented Dat...
Cours HBase et Base de Données Orientées Colonnes (HBase, Column Oriented Dat...Cours HBase et Base de Données Orientées Colonnes (HBase, Column Oriented Dat...
Cours HBase et Base de Données Orientées Colonnes (HBase, Column Oriented Dat...
 
Une introduction à HBase
Une introduction à HBaseUne introduction à HBase
Une introduction à HBase
 
Valtech - Du BI au Big Data, une révolution dans l’entreprise
Valtech - Du BI au Big Data, une révolution dans l’entrepriseValtech - Du BI au Big Data, une révolution dans l’entreprise
Valtech - Du BI au Big Data, une révolution dans l’entreprise
 
Big Data : concepts, cas d'usage et tendances
Big Data : concepts, cas d'usage et tendancesBig Data : concepts, cas d'usage et tendances
Big Data : concepts, cas d'usage et tendances
 
Big data - Cours d'introduction l Data-business
Big data - Cours d'introduction l Data-businessBig data - Cours d'introduction l Data-business
Big data - Cours d'introduction l Data-business
 
Les BD NoSQL
Les BD NoSQLLes BD NoSQL
Les BD NoSQL
 
BigData_Chp3: Data Processing
BigData_Chp3: Data ProcessingBigData_Chp3: Data Processing
BigData_Chp3: Data Processing
 
Support de cours EJB 3 version complète Par Mr Youssfi, ENSET, Université Ha...
Support de cours EJB 3 version complète Par Mr  Youssfi, ENSET, Université Ha...Support de cours EJB 3 version complète Par Mr  Youssfi, ENSET, Université Ha...
Support de cours EJB 3 version complète Par Mr Youssfi, ENSET, Université Ha...
 
BigData_Chp1: Introduction à la Big Data
BigData_Chp1: Introduction à la Big DataBigData_Chp1: Introduction à la Big Data
BigData_Chp1: Introduction à la Big Data
 

Similar a Présentation Big Data et REX Hadoop

Big Data ou comment retrouver une aiguille dans une botte de foin
Big Data ou comment retrouver une aiguille dans une botte de foinBig Data ou comment retrouver une aiguille dans une botte de foin
Big Data ou comment retrouver une aiguille dans une botte de foinPALO IT
 
SAS Forum Soft Computing Théâtre
SAS Forum Soft Computing ThéâtreSAS Forum Soft Computing Théâtre
SAS Forum Soft Computing ThéâtreSoft Computing
 
Spad big data - sfds - 2016
Spad   big data - sfds - 2016Spad   big data - sfds - 2016
Spad big data - sfds - 2016Julien BLAIZE
 
BigData_Technologies_PL.pdf
BigData_Technologies_PL.pdfBigData_Technologies_PL.pdf
BigData_Technologies_PL.pdfMissaouiWissal
 
BigData_Technologies_PL.pdf
BigData_Technologies_PL.pdfBigData_Technologies_PL.pdf
BigData_Technologies_PL.pdfAhmedToujani1
 
Hug france - Administration Hadoop et retour d’expérience BI avec Impala, lim...
Hug france - Administration Hadoop et retour d’expérience BI avec Impala, lim...Hug france - Administration Hadoop et retour d’expérience BI avec Impala, lim...
Hug france - Administration Hadoop et retour d’expérience BI avec Impala, lim...Modern Data Stack France
 
Petit-déjeuner OCTO Technology : Calculez vos indicateurs en temps réel ave...
Petit-déjeuner OCTO Technology :  Calculez vos indicateurs en temps réel ave...Petit-déjeuner OCTO Technology :  Calculez vos indicateurs en temps réel ave...
Petit-déjeuner OCTO Technology : Calculez vos indicateurs en temps réel ave...OCTO Technology
 
Big data: NoSQL comme solution
Big data: NoSQL comme solutionBig data: NoSQL comme solution
Big data: NoSQL comme solutionJEMLI Fathi
 
Morning with MongoDB Paris 2012 - Fast Connect
Morning with MongoDB Paris 2012 - Fast ConnectMorning with MongoDB Paris 2012 - Fast Connect
Morning with MongoDB Paris 2012 - Fast ConnectMongoDB
 
Vision et poc EDFsur les enjeux big data
Vision et poc EDFsur les enjeux big dataVision et poc EDFsur les enjeux big data
Vision et poc EDFsur les enjeux big dataBruno Patin
 
Mathias Herberts fait le retour d'expérience Hadoop au Crédit Mutuel Arkéa
Mathias Herberts fait le retour d'expérience Hadoop au Crédit Mutuel ArkéaMathias Herberts fait le retour d'expérience Hadoop au Crédit Mutuel Arkéa
Mathias Herberts fait le retour d'expérience Hadoop au Crédit Mutuel ArkéaModern Data Stack France
 
Gab17 lyon - La BI traditionnelle est une histoire du passée. Impacts de la r...
Gab17 lyon - La BI traditionnelle est une histoire du passée. Impacts de la r...Gab17 lyon - La BI traditionnelle est une histoire du passée. Impacts de la r...
Gab17 lyon - La BI traditionnelle est une histoire du passée. Impacts de la r...AZUG FR
 
No Sql - Olivier Mallassi - September 2010
No Sql - Olivier Mallassi - September 2010No Sql - Olivier Mallassi - September 2010
No Sql - Olivier Mallassi - September 2010JUG Lausanne
 
Big Data : SQL, NoSQL ? Pourquoi faire un choix ?
Big Data : SQL, NoSQL ? Pourquoi faire un choix ?Big Data : SQL, NoSQL ? Pourquoi faire un choix ?
Big Data : SQL, NoSQL ? Pourquoi faire un choix ?Microsoft Décideurs IT
 
OSA02 - Pas de transactionnel haute performance sans un couple machine logici...
OSA02 - Pas de transactionnel haute performance sans un couple machine logici...OSA02 - Pas de transactionnel haute performance sans un couple machine logici...
OSA02 - Pas de transactionnel haute performance sans un couple machine logici...Nicolas Desachy
 
Distributed programing (hadoop &amp;&amp; java) version finale.pptx
Distributed programing  (hadoop &amp;&amp; java) version finale.pptxDistributed programing  (hadoop &amp;&amp; java) version finale.pptx
Distributed programing (hadoop &amp;&amp; java) version finale.pptxAhmed rebai
 
Session en ligne: Découverte du Logical Data Fabric & Data Virtualization
Session en ligne: Découverte du Logical Data Fabric & Data VirtualizationSession en ligne: Découverte du Logical Data Fabric & Data Virtualization
Session en ligne: Découverte du Logical Data Fabric & Data VirtualizationDenodo
 
Petit-déjeuner OCTO : Hadoop, plateforme multi-tenant, à tout d'une grande !
Petit-déjeuner OCTO : Hadoop, plateforme multi-tenant, à tout d'une grande !Petit-déjeuner OCTO : Hadoop, plateforme multi-tenant, à tout d'une grande !
Petit-déjeuner OCTO : Hadoop, plateforme multi-tenant, à tout d'une grande !OCTO Technology
 

Similar a Présentation Big Data et REX Hadoop (20)

Big Data ou comment retrouver une aiguille dans une botte de foin
Big Data ou comment retrouver une aiguille dans une botte de foinBig Data ou comment retrouver une aiguille dans une botte de foin
Big Data ou comment retrouver une aiguille dans une botte de foin
 
SAS Forum Soft Computing Théâtre
SAS Forum Soft Computing ThéâtreSAS Forum Soft Computing Théâtre
SAS Forum Soft Computing Théâtre
 
Afterwork hadoop
Afterwork hadoopAfterwork hadoop
Afterwork hadoop
 
Spad big data - sfds - 2016
Spad   big data - sfds - 2016Spad   big data - sfds - 2016
Spad big data - sfds - 2016
 
Quel hadoop (#quelhadoop)
Quel hadoop (#quelhadoop)Quel hadoop (#quelhadoop)
Quel hadoop (#quelhadoop)
 
BigData_Technologies_PL.pdf
BigData_Technologies_PL.pdfBigData_Technologies_PL.pdf
BigData_Technologies_PL.pdf
 
BigData_Technologies_PL.pdf
BigData_Technologies_PL.pdfBigData_Technologies_PL.pdf
BigData_Technologies_PL.pdf
 
Hug france - Administration Hadoop et retour d’expérience BI avec Impala, lim...
Hug france - Administration Hadoop et retour d’expérience BI avec Impala, lim...Hug france - Administration Hadoop et retour d’expérience BI avec Impala, lim...
Hug france - Administration Hadoop et retour d’expérience BI avec Impala, lim...
 
Petit-déjeuner OCTO Technology : Calculez vos indicateurs en temps réel ave...
Petit-déjeuner OCTO Technology :  Calculez vos indicateurs en temps réel ave...Petit-déjeuner OCTO Technology :  Calculez vos indicateurs en temps réel ave...
Petit-déjeuner OCTO Technology : Calculez vos indicateurs en temps réel ave...
 
Big data: NoSQL comme solution
Big data: NoSQL comme solutionBig data: NoSQL comme solution
Big data: NoSQL comme solution
 
Morning with MongoDB Paris 2012 - Fast Connect
Morning with MongoDB Paris 2012 - Fast ConnectMorning with MongoDB Paris 2012 - Fast Connect
Morning with MongoDB Paris 2012 - Fast Connect
 
Vision et poc EDFsur les enjeux big data
Vision et poc EDFsur les enjeux big dataVision et poc EDFsur les enjeux big data
Vision et poc EDFsur les enjeux big data
 
Mathias Herberts fait le retour d'expérience Hadoop au Crédit Mutuel Arkéa
Mathias Herberts fait le retour d'expérience Hadoop au Crédit Mutuel ArkéaMathias Herberts fait le retour d'expérience Hadoop au Crédit Mutuel Arkéa
Mathias Herberts fait le retour d'expérience Hadoop au Crédit Mutuel Arkéa
 
Gab17 lyon - La BI traditionnelle est une histoire du passée. Impacts de la r...
Gab17 lyon - La BI traditionnelle est une histoire du passée. Impacts de la r...Gab17 lyon - La BI traditionnelle est une histoire du passée. Impacts de la r...
Gab17 lyon - La BI traditionnelle est une histoire du passée. Impacts de la r...
 
No Sql - Olivier Mallassi - September 2010
No Sql - Olivier Mallassi - September 2010No Sql - Olivier Mallassi - September 2010
No Sql - Olivier Mallassi - September 2010
 
Big Data : SQL, NoSQL ? Pourquoi faire un choix ?
Big Data : SQL, NoSQL ? Pourquoi faire un choix ?Big Data : SQL, NoSQL ? Pourquoi faire un choix ?
Big Data : SQL, NoSQL ? Pourquoi faire un choix ?
 
OSA02 - Pas de transactionnel haute performance sans un couple machine logici...
OSA02 - Pas de transactionnel haute performance sans un couple machine logici...OSA02 - Pas de transactionnel haute performance sans un couple machine logici...
OSA02 - Pas de transactionnel haute performance sans un couple machine logici...
 
Distributed programing (hadoop &amp;&amp; java) version finale.pptx
Distributed programing  (hadoop &amp;&amp; java) version finale.pptxDistributed programing  (hadoop &amp;&amp; java) version finale.pptx
Distributed programing (hadoop &amp;&amp; java) version finale.pptx
 
Session en ligne: Découverte du Logical Data Fabric & Data Virtualization
Session en ligne: Découverte du Logical Data Fabric & Data VirtualizationSession en ligne: Découverte du Logical Data Fabric & Data Virtualization
Session en ligne: Découverte du Logical Data Fabric & Data Virtualization
 
Petit-déjeuner OCTO : Hadoop, plateforme multi-tenant, à tout d'une grande !
Petit-déjeuner OCTO : Hadoop, plateforme multi-tenant, à tout d'une grande !Petit-déjeuner OCTO : Hadoop, plateforme multi-tenant, à tout d'une grande !
Petit-déjeuner OCTO : Hadoop, plateforme multi-tenant, à tout d'une grande !
 

Más de Joseph Glorieux

Devops - vision et pratiques
Devops - vision et pratiquesDevops - vision et pratiques
Devops - vision et pratiquesJoseph Glorieux
 
Afterwork big data et data viz - du lac à votre écran
Afterwork big data et data viz - du lac à votre écranAfterwork big data et data viz - du lac à votre écran
Afterwork big data et data viz - du lac à votre écranJoseph Glorieux
 
Giants of the web - creadigitalday
Giants of the web - creadigitaldayGiants of the web - creadigitalday
Giants of the web - creadigitaldayJoseph Glorieux
 
Fintech, demain comment travailler ensemble
Fintech, demain comment travailler ensembleFintech, demain comment travailler ensemble
Fintech, demain comment travailler ensembleJoseph Glorieux
 
Les business analystes face à l'agilité
Les business analystes face à l'agilitéLes business analystes face à l'agilité
Les business analystes face à l'agilitéJoseph Glorieux
 
Une Data driven company à l'heure de la digitalisation
Une Data driven company à l'heure de la digitalisationUne Data driven company à l'heure de la digitalisation
Une Data driven company à l'heure de la digitalisationJoseph Glorieux
 
Session USI 2012 : les SI composites
Session USI 2012 : les SI compositesSession USI 2012 : les SI composites
Session USI 2012 : les SI compositesJoseph Glorieux
 
Etat de l art business intelligence
Etat de l art business intelligenceEtat de l art business intelligence
Etat de l art business intelligenceJoseph Glorieux
 

Más de Joseph Glorieux (10)

Devops - vision et pratiques
Devops - vision et pratiquesDevops - vision et pratiques
Devops - vision et pratiques
 
Afterwork big data et data viz - du lac à votre écran
Afterwork big data et data viz - du lac à votre écranAfterwork big data et data viz - du lac à votre écran
Afterwork big data et data viz - du lac à votre écran
 
Giants of the web - creadigitalday
Giants of the web - creadigitaldayGiants of the web - creadigitalday
Giants of the web - creadigitalday
 
Fintech, demain comment travailler ensemble
Fintech, demain comment travailler ensembleFintech, demain comment travailler ensemble
Fintech, demain comment travailler ensemble
 
Les business analystes face à l'agilité
Les business analystes face à l'agilitéLes business analystes face à l'agilité
Les business analystes face à l'agilité
 
Une Data driven company à l'heure de la digitalisation
Une Data driven company à l'heure de la digitalisationUne Data driven company à l'heure de la digitalisation
Une Data driven company à l'heure de la digitalisation
 
Agile for executives
Agile for executivesAgile for executives
Agile for executives
 
L'entreprise agile
L'entreprise agileL'entreprise agile
L'entreprise agile
 
Session USI 2012 : les SI composites
Session USI 2012 : les SI compositesSession USI 2012 : les SI composites
Session USI 2012 : les SI composites
 
Etat de l art business intelligence
Etat de l art business intelligenceEtat de l art business intelligence
Etat de l art business intelligence
 

Présentation Big Data et REX Hadoop

  • 1. 1 © OCTO 2013© OCTO 2012© OCTO 2013 Big Data : Usages et opportunités Retour d’expérience sur Hadoop
  • 2. 2 © OCTO 2013 Joseph Glorieux Directeur général OCTO Suisse jglorieux@octo.com Rémy SAISSY Architecte senior expert Hadoop OCTO rsaissy@octo.com
  • 3. 3 © OCTO 2013 Big Data Définition Pourquoi maintenant? Pourquoi faire? Questions/réponses Big Data et Hadoop Questions/réponses Retour d’expérience 10 Best practices pour dimensionner et configurer un cluster Hadoop Hadoop CDH4 sous YARN dans les coms Questions/réponses Conclusion Agenda
  • 4. 4 © OCTO 2013© OCTO 2012© OCTO 2013 Big Data : définition
  • 6. 6 © OCTO 2013 Big Data, une écosystème multiple Web Google, Amazon, Facebook, Twitter, … Logiciel IT IBM, Teradata, Vmware, EMC, … Management McKinsey, BC G, Deloitte, …
  • 7. 7 © OCTO 2013 Il n’existe pas aujourd’hui de définition claire de Big Data Définir Big Data Super datawarehouse? Stockage low cost? NoSQL? Cloud? Internet Intelligence? Analyse en temps réel? Non structuré? Open Data?
  • 8. 8 © OCTO 2013 Le marché parle des 3V Volume Variété Vélocité BatchJ+1 Seconde Temps réel Mo ToGo PoFichier SGBDRéseaux sociaux API Photo Video Web Non structurées Audio
  • 9. 9 © OCTO 2013 Définition technologique Application orientée Flux évènementiel Application orientée Transaction Application orientée Stockage Application orientée Calculs Univers « standard » SGBDR, Serveur d’application, ETL, ESB Au-delà de 10 To en ligne, les architectures « classiques » nécessitent des adaptations logiques et matérielles très importantes. Au-delà de 1 000 transactions/seconde, les architectures « classiques » des adaptations logiques et matérielles très importantes Au-delà de 10 threads/Core CPU, la programmation séquentielle classique atteint ses limites (I/O). Au-delà de 1 000 évènements/seconde, les architectures « classiques » nécessitent des adaptations logiques et matérielles très importantes. Stockage distribué Share nothing XTP Programmation parallèle Event Stream Processing
  • 10. 10 © OCTO 2013 Notre définition Big data est l’ambition de tirer un avantage économique de l’analyse quantitative des données internes et externes de l’entreprise
  • 11. 11 © OCTO 2013© OCTO 2012© OCTO 2013 Big Data : pourquoi maintenant?
  • 12. 12 © OCTO 2013 Une évolution du « hardware » toujours fantastique…
  • 13. 13 © OCTO 2013 Evolution non uniforme de la capacité et du débit des disques 0 10 20 30 40 50 60 70 Débit(MB/s) Gain : x100 64 MB/s 0,7 MB/s Seagate Barracuda 7200.10 Seagate Barracuda ATA IV IBM DTTA 35010 Gain : x100 000 1990 2010 La croissance du débit reste très inférieure de celle de la capacité
  • 14. 14 © OCTO 2013 Evolution des architectures pour dépasser cette limite structurelle Architecture In Memory • Réduire la latence en utilisant des supports plus rapides (DRAM, SSD) • Bénéficier de l’évolution des capacités des composants • La limite structurelle n’est que déplacée : pour évoluer, l’architecture doit devenir une grille In Memory Architecture en grille • Paralléliser les accès I/O en divisant les volumes (sharding) • Bénéficier du différentiel de coût entre commodity hardware et haut de gamme • Le réseau de la grille devient un composant principal, nécessitant co- localisation des données et des traitements • Permet de scaler à l’infini, c’est le Warehouse scale computing!
  • 15. 15 © OCTO 2013 Théorème de CAP L’univers des SGBRD La stratégie des sites à gros trafic. Avec cohérence in fine « Consistency » Tous les clients ont la même vue de la donnée « Partition tolerance » Le système continue a fonctionner en cas de « partition » - plusieurs sous-ensembles n’arrivent plus à communiquer « Availability » Les clients peuvent toujours accéder au système (lecture écriture) « Il est impossible pour un système informatique de calcul distribué de garantir en même temps la consistance, la disponibilité et la résistance au morcellement » Eric Brewer C A P
  • 16. 16 © OCTO 2013 Panorama de solutions Application orientée Flux évènementiel Application orientée Transaction Application orientée Stockage Application orientée Calculs Cassandra, Mong oDB, CouchDB Univers « standard » SGBDR, Serveur d’application, ETL, ESB HDFS SQLFire Teradata Hana Grid Computing Giga Spaces Map Reduce GPU Voldemort Exadata HBase Esper Quartet ActivePivot Sqoop RabbitMQ, Zero MQ Ultra Low latency Hama Igraph MapR EMC Redis ExalyticsIn memory Distribué
  • 17. 17 © OCTO 2013© OCTO 2012© OCTO 2013 Big Data : pourquoi faire?
  • 19. 19 © OCTO 2013 Scoring de crédit Supply-chain management Les nouveaux cas d’usages Prévention de l’attrition Lutte contre la fraude Modèle de tarification Segmentation client Calcul du risque Optimisation du réseau
  • 20. 20 © OCTO 2013 Les opportunités peuvent être perçues sous 2 angles : Big Data comme « Cost killer » Big Data comme « Ouvrir le champs des possibles » Big Data : de nouvelles opportunités?
  • 21. 21 © OCTO 2013 Comparatif machine à « puissance équivalente (RAM/CPU) » Comparatif stockage Big Data comme « cost killer » Source : http://www.slideshare.net/lucenerevolution/the-search-is-over-integrating-solr-and- hadoop-in-the-same-cluster-to-simplify-big-data-analytics SAN $2 - $10 par GB 0,5 PB 200 000 IOPS 1 GB per second Filers NAS $1 - $5 par GB 1 PB 400 000 IOPS 2 GB per second Local storage $0,05 par GB 20 PB 10 000 000 IOPS 800 GB per second Available storage for 1 million $
  • 22. 22 © OCTO 2013 Archivage Déchargement d’entrepôt de données ET(L) Fail-over Big Data comme « cost killer » : use cases
  • 23. 23 © OCTO 2013 Analyser des données de l’entreprise qu’il paraissait illusoire de vouloir analyser du fait du volume ou de la capacité de traitement sous-jacent : Analyse des logs web Profondeur d’analyse étendue : plusieurs années, plusieurs dizaines d’année… Croisement entre SI cloisonné Analyser des données exogènes de l’entreprise et les croiser avec les données existantes Réseaux sociaux Recherches internet Internet des objets Big Data comme « Ouvrir le champs des possibles »
  • 24. 24 © OCTO 2013 Ouvrir le champs des possibles : grille de lecture Segmentation Comportement Influence Concurrence Usage / Exp Adoption / Reco Mesure Optimisation Collaboration Données d’Identité Données d’Usage Données de Relation Axesd’analyse Sources de données Client Produit Services Processus
  • 26. 26 © OCTO 2013© OCTO 2012© OCTO 2013 Big Data et Hadoop
  • 27. 27 © OCTO 2013 Hadoop dans l’univers Big data Application orientée Flux évènementiels Application orientée Transactions Application orientée Stockage Application orientée Calculs Parrallel database NoSQL NewSQL CEP, ESP H a d o o p In Memory
  • 28. 28 © OCTO 2013 Hadoop s’impose comme une architecture de référence sur le marché • Apache Hadoop Open Source • Cloudera CDH • Hortonworks • MapR COTS • Greenplum (EMC) • IBM InfoSphere BigInsights (CDH) • Oracle Big data appliance (CDH) • Teradata (aster) Editeurs • Amazon EMR (MapR) • VirtualScale (CDH) Cloud
  • 29. 29 © OCTO 2013 Hadoop et les outils de BI et de Data mining
  • 30. 30 © OCTO 2013 Hadoop, un écosystème riche et complexe Traitement MapReduce Framework permettant de traiter des données en parallèle Requêtage Pig Langage de flux de données Hive DSL de requêtage « SQL-like » Workflow Oozie / Azkaban Workflow pour jobs Hadoops dépendants Infrastructure Intégration au SI Flume, Chukwa, Scribe… Collection de données fiable et résiliente Sqoop Intégration RDBMS & Hadoop Supervision Platform Management Console Hue Traitement distribué avancé Mahout Machine learning Hama Bulk Synchronous Processing Stockage HDFS Un système de fichiers distribué write-once, read-many Hbase Base de données pour des accès aléatoires read/write Reporting Hue Beeswax Interface web de requêtage Pentaho Reporting IBM BigSheets Outil de requêtage
  • 31. 31 © OCTO 2013 Répartition des données sur plusieurs machines Réplication des données pour assurer le « fail-over » : « rack awareness » Hadoop Distributed File System (HDFS)
  • 32. 32 © OCTO 2013 Paralléliser et distribuer les traitements Traiter plus rapidement des volumes de données unitaires plus faibles Co-localiser traitements / données MapReduce, le système de traitement
  • 33. 33 © OCTO 2013 Hadoop est à la fois : Un système de stockage distribué pour les grands fichiers Un système d’agrégation et de traitement parallèle en mode batch à la demande, reposant sur la grille de stockage Hadoop n’est pas : Un système d’accès à la donnée unitaire (random access) Un système temps réel, mais batch à la demande Hadoop nécessite des composants externes pour compléter le puzzle Des outils de visualisation graphique des données Une librairie de traitements statistiques et text mining finalisée Mahout, Hama fournissent des algorithmes parallèles … Les mythes et réalités sur Hadoop
  • 35. 35 © OCTO 2013© OCTO 2012© OCTO 2013 10 best practices pour dimensionner et configurer un cluster Hadoop
  • 36. 36 © OCTO 2013 Piège 1 : la tentation des machines « monstres de guerre » Piège 2 : le réseau, mieux vaut 10Gb/s c’est plus sûr Piège 3 : pour superviser, mes outils actuels suffisent ! Piège 4 : un SCM ? Pas le temps, SSH fera l’affaire ! Piège 5 : les logs c’est important, il faut tous les collecter Piège 6 : conserver les paramètres mémoire par défaut Piège 7 : conserver la configuration par défaut de HDFS Piège 8 : conserver la configuration par défaut de MapReduce Piège 9 : utiliser les formats de fichier par défaut Piège 10 : benchmarker son cluster avec TeraSort Sommaire
  • 37. 37 © OCTO 2013 Le piège Des ressources inutilisées Un niveau de parallélisme insuffisant Un surcoût aux performances non garanties Best Practice Penser parallélisation Notion de conteneur : 1 CPU physique / xGo de RAM / Disque dur HDFS Dimensionner pour du temps de traitement Piège 1 : la tentation des machines « monstres de guerre »
  • 38. 38 © OCTO 2013 Le piège Pour garder de bonnes perfs, il faut éviter la sursouscription Switchs de rack plus gros, donc plus cher 10Gb/s = 1Go/s = 40Go/s au niveau du switch Backbone encore plus gros, donc encore plus cher 40Go/s * <nombre de racks> = ? Best Practice Utiliser deux cartes 1Gb/s FD Moins de disque sur chaque serveur Superviser Piège 2 : le réseau, mieux vaut 10Gb/s c’est plus sûr
  • 39. 39 © OCTO 2013 Le piège Pas de détail sur les métriques internes d’Hadoop Lectures / écritures de HDFS par nœud Consommation mémoire pendant les étapes d’un job Best Practice Pensez aux développeurs ! Utiliser Ganglia pour des métriques fines Piège 3 : pour superviser, mes outils actuels suffisent !
  • 40. 40 © OCTO 2013 Le piège Un petit cluster Hadoop, c’est 10 machines Configuration et maintenance à la main difficile Perte de temps Best Practice Utiliser un SCM Piège 4 : un SCM ? Pas le temps, SSH fera l’affaire !
  • 41. 41 © OCTO 2013 Le piège 500 mappers et 20 reducers 520 fichiers de logs à collecter sur tout le cluster Peu d’informations utiles à long terme Best Practice Pas de collecte sur les slaves Collecte sur les masters Piège 5 : les logs c’est important, il faut tous les collecter
  • 42. 42 © OCTO 2013 Le piège Ils ne sont pas optimisés pour votre cluster Sous utilisation des ressources Échecs possibles de certains jobs Best Practice 2Go pour les démons tasktracker et datanode 4Go pour le démon JobTracker 4Go + 1Go par million de bloc pour le namenode Utiliser 4Go voire 8Go par tâche de map et de reduce Superviser Piège 6 : conserver les paramètres mémoire par défaut
  • 43. 43 © OCTO 2013 Le piège Pas optimisée pour un cluster Les paramètres dépendent de vos données, de votre réseau, … Best Practice Configurer en pensant I/O vs mémoire vs réseau Chaque cas d’utilisation a sa propre configuration optimisée Superviser Piège 7 : conserver la configuration par défaut de HDFS
  • 44. 44 © OCTO 2013 Le piège Pas optimisée pour un cluster Les paramètres dépendent de votre utilisation Best Practice Utiliser le CapacityScheduler Configurer avec des règles de calcul Auditer l’usage réel pour optimiser les configurations Piège 8 : conserver la configuration par défaut de MapReduce
  • 45. 45 © OCTO 2013 Le piège Lenteur des jobs dû à un stockage inefficace Plus d’espace utilisé que nécessaire Best Practice Format de stockage : distinguer les usages Base de données Données binaires Compression : quelle fréquence d’accès ? Donnée utilisée Archivage Piège 9 : utiliser les formats de fichier par défaut
  • 46. 46 © OCTO 2013 Le piège Non représentatif de l’usage réel du cluster Best Practice Utiliser du code de production Piège 10 : benchmarker son cluster avec TeraSort
  • 48. 48 © OCTO 2013© OCTO 2012© OCTO 2013 Hadoop CDH4 sous YARN dans les télécoms. Retour d'expérience
  • 49. 49 © OCTO 2013 Contexte Caractéristiques du cluster Déroulement du projet Déploiement de Hadoop Déploiement des outils support Les alimentations de données L’analyse des données La migration du cluster Le benchmark du cluster Cluster en fin de mission Conclusion Sommaire
  • 50. 50 © OCTO 2013 Durée : 3 mois Equipe opérationnelle : 8 personnes Trois enjeux majeurs : Construire une plateforme Big Data opérationnelle Montée en compétence des équipes Préconisations pour une plateforme industrielle Equipe colocalisée Contexte
  • 51. 51 © OCTO 2013 1 rack, 12 serveurs 1 nœud pour les outils, 1 autre pour l’anonymisation 2 nœuds master namenode / resourcemanager secondary namenode 8 nœuds slave : datanode et nodemanager Caractéristiques du cluster Slaves Masters Outils Accès Masters et Outils
  • 53. 53 © OCTO 2013 Réseau de production : utiliser un mirroir local Configuration OS : compétences système et réseau requises Utiliser un SCM pour déployer Nécessité d’avoir des profils polyvalents Déploiement de Hadoop A l’attaque !
  • 54. 54 © OCTO 2013 Relativement facile une fois Hadoop correctement installé Peu d’impact sur le cluster en lui même Ne déployer que le nécessaire Déploiement des outils support
  • 55. 55 © OCTO 2013 KISS : Keep It Simple Stupid Ne pas négliger le travail en amont de l’analyse ! Les alimentations de données
  • 56. 56 © OCTO 2013 Beaucoup de travail en amont Un cluster s’optimise au contact de la réalité Limites des outils Ajustement de l’ordonnanceur Configuration mémoire Configuration d’HDFS L’analyse des données
  • 57. 57 © OCTO 2013 Passage de CDH 4.0.1 à CDH 4.1.2 Des leçons Du travail en amont Le SCM aurait fait gagner du temps Suivre les préconisations ! La migration du cluster
  • 58. 58 © OCTO 2013 Initialement en début de projet… Terasort ? Plutôt HiBench Au final, le travail réalisé pendant le projet a été le meilleur benchmark Le benchmark du cluster
  • 59. 59 © OCTO 2013 Cluster YARN opérationnel Plusieurs outils testés au cours de l’exploration HDFS occupé à 70% : 1 427 251 fichiers, 280To Les jobs ne saturent pas complètement le cluster Cluster en fin de mission
  • 60. 60 © OCTO 2013 Des points positifs YARN : stable et ouvre à d’autres frameworks que Map Reduce Des outils polyvalents Des points à améliorer Maturité des outils et de leur environnement de travail Complexité de la configuration de Hadoop comme de ses outils Des documentations et des abaques Mettre en place votre cluster ? une équipe pluri disciplinaire de la polyvalence technique Bilan
  • 62. 62 © OCTO 2013© OCTO 2012© OCTO 2013 Conclusion
  • 63. 63 © OCTO 2013 Use cases Cost killer Ouvrir le champs des possibles L’écosystème Hadoop est riche et complexe, en mouvement L’usage a une incidence forte sur l’architecture et la configuration Conclusion
  • 64. 64 © OCTO 2013 Identifiez les use cases métiers applicables dans votre contexte, en benchmarkant les projets lancés dans d’autres secteurs et au-delà Lancez un POC métier d’exploration des données, avec les métiers les plus early adopters Marketing Distribution Trading Risques Valorisez les résultats du POC en termes métiers Définissez une architecture cible de classe industrielle pour généraliser l’approche en réduisant les coûts Comment démarrer cet après midi?
  • 65. 65 © OCTO 2013 OCTO et le Big Data Une offre cohérente entre technologie et analyse prédictive CONSEIL EN SI BIG DATA  Etude et positionnement des solutions en fonction de votre contexte  Transformation de SI Décisionnel vers le Big Data  Cadrage de projets Big Data ARCHITECTURE DES SYSTÈMES BIG DATA  POC sur Hadoop et NoSQL  Conception et réalisation de systèmes sous Hadoop et NoSQL  Formation Hadoop CONSEIL EN ANALYSE DE DONNÉES AVANCÉES  Benchmarks de projets Big Data par secteur  Formation des équipes de datamining aux techniques Big Data  Accompagnent des projets pilotes métiers COLLECTE DE DONNÉES EXTERNES  Identification de sources de données  Collecte et traitements de données non structurées  Recherche de corrélations économiques DIRECTION SI DIRECTION MÉTIER