SlideShare una empresa de Scribd logo
1 de 63
Descargar para leer sin conexión
Hadoopデータプラットフォーム	
  
2013/11/07	
  
Cloudera株式会社 嶋内 翔	
  

1	
  
自己紹介	
  
嶋内 翔(しまうち しょう)	
  
•  2011年4月にClouderaの最初の日本人社員として入
社	
  
•  テクニカルサポート業務をメインに、日本における技
術に関係する業務全般を担当	
  
•  email:	
  sho@cloudera.com	
  
•  twi?er:	
  @shiumachi	
  
• 

2	
  
Hadoop オペレーションの日本語訳が発売予定です	
  
• 
• 
• 
• 
• 
• 

3	
  

11月下旬発売
通称「パカ」本  (?)
Cloudera  の Eric  Sammer  著
翻訳は安心の玉川竜司さん
レビューを手伝ってました
日本語版のみの付録も執筆!
Cloudera  Impala  の⽇日本語フリーブック
• 
• 
• 

オライリーの「インパラ本」、日本語PDF版が無償公開される予定です!
Cloudera  の John  Russell  著
Hadoop、HBase、Hadoopオペレーション、
プログラミングHiveなどを翻訳された
玉川竜司さんが翻訳!

「これまでClouderaの皆
さんにご尽力いただいた
翻訳レビューへの感謝の
気持ちとして、Cloudera
World Tokyo開催のお祝
いに翻訳寄贈します!」

4	
  
今日のアジェンダ	
  
Hadoopシステムの全体構成	
  
•  データの取り込み	
  
•  Hive	
  /	
  Impala	
  を使ったデータの活用	
  
•  Cloudera	
  Searchとの統合	
  
•  データ基盤におけるクラスタ管理	
  
• 

5	
  
Hadoopシステムの全体構成	
  

6	
  
Hadoopシステムの全体構成	
  
APIアクセス	
  

外部システム	
  

外部システム	
  

APIアクセス	
  

BIツール	
  
+	
  JDBC/ODBC	
  
Webサーバ等の	
  
ログを生成するサーバ	
  

SQL	
  

Hadoop	
  
検索	
  

ログ収集	
  

ユーザ	
  

携帯端末の	
  
通信ログ	
  

分散バッチ処理	
  

RDBMS	
  

7

テーブルごと	
  
インポート	
  

機械学習	
  

テーブルごと	
  
エクスポート	
  

DWH	
  
Hadoopのシステム全体構成	
  
APIアクセス	
  

外部システム	
  

外部システム	
  

APIアクセス	
  

データの取り込み	
  

Webサーバ等の	
  
ログを生成するサーバ	
  

データの	
  
保存	
  
Hadoop	
  

データの活用	
  
BIツール	
  
+	
  JDBC/ODBC	
  

分析	
  
SQL	
  
探索	
  
提供	
  
検索	
  

ログ収集	
  

ユーザ	
  

携帯端末の	
  
通信ログ	
  

分散バッチ処理	
  

RDBMS	
  

8

テーブルごと	
  
インポート	
  

データの処理	
  
機械学習	
  

テーブルごと	
  
エクスポート	
  

DWH	
  
Hadoopのシステム全体構成	
  
APIアクセス	
  

外部システム	
  

外部システム	
  

APIアクセス	
  

データの取り込み	
  

Webサーバ等の	
  
ログを生成するサーバ	
  

データの	
  
保存	
  
Hadoop	
  

データの活用	
  
BIツール	
  
+	
  JDBC/ODBC	
  

分析	
  
SQL	
  
探索	
  
提供	
  
検索	
  

ログ収集	
  

ETLツール	
  

BI・DWH	
  

携帯端末の	
  
通信ログ	
  

ユーザ	
  

分散バッチ処理	
  

RDBMS	
  

9

テーブルごと	
  
インポート	
  

データの処理	
  
機械学習	
  

テーブルごと	
  
エクスポート	
  

DWH	
  
Hadoopシステムの全体構成	
  
APIアクセス	
  

外部システム	
  

外部システム	
  

APIアクセス	
  

BIツール	
  
+	
  JDBC/ODBC	
  
Webサーバ等の	
  
ログを生成するサーバ	
  

SQL	
  

Hadoop	
  
検索	
  

ログ収集	
  

ユーザ	
  

携帯端末の	
  
通信ログ	
  

分散バッチ処理	
  

RDBMS	
  

10

テーブルごと	
  
インポート	
  

機械学習	
  

テーブルごと	
  
エクスポート	
  

DWH	
  
データの取り込み	
  

11
データの取り込み	
  

外部システム	
  

データの	
  
取り込み	
  

APIアクセス	
  

外部システム	
  

APIアクセス	
  

BIツール	
  
+	
  JDBC/ODBC	
  
Webサーバ等の	
  
ログを生成するサーバ	
  

SQL	
  

Hadoop	
  
検索	
  

ログ収集	
  

ユーザ	
  

携帯端末の	
  
通信ログ	
  

分散バッチ処理	
  

RDBMS	
  

12

テーブルごと	
  
インポート	
  

機械学習	
  

テーブルごと	
  
エクスポート	
  

DWH	
  
Flume	
  
• 

⽣生成される⼤大量量のデータを効率率率的に移動させるための分散システム
• 

• 

⾼高い信頼性と可⽤用性、そして拡張性を備える	
  

Flumeは各種サーバのログファイルをHDFSに取り込むために使う	
  
• 
• 
• 

ウェブサーバ	
  
ファイアーウォール	
  
メールサーバ	
  

HDFS

Flume
エージェント
ネットワーク

Application Application Application
Server
Server
Server
Network
Switch

Network
Switch

Network
Router

13

Network
Switch

Network
Router

Network
Router
Flumeによるイベント収集の一例	
  
Webサーバ	
  

メールサーバ	
  

Flumeエージェント	
  

Flumeエージェント	
  

Flumeエージェント	
  

Flumeエージェント	
  
syslog	
  

圧縮	
  
暗号化	
  

14

Hadoop	
  

DWH	
  
Sqoop	
  
• 
• 

RDBMS/DWHとのデータインポート・エクスポートライ
ブラリ	
  
MapReduceを使うので高速にデータをロード可能	
  

DWH	
  

DWH	
  

Hadoop	
  
RDBMS	
  

16

テーブルごと	
  
インポート	
  

テーブルごと	
  
エクスポート	
  

RDBMS	
  
HBaseを使ったデータの取り込み	
  
• 
• 
• 

REST	
  API	
  を使って外部システムからデータを収集	
  
Flume	
  から直接流し込むことも可能	
  
CSVファイルなどからバルクアップロードも可能	
  

CSVファイル	
  
Flumeエージェント	
  

外部システム	
  

17

APIアクセス	
  

バルクロード	
  
HDFS	
  
• 

単なるファイルも、HDFSにアップロード可能	
  
• 

• 
• 
• 

FTPサーバのような	
  put/get	
  が可能	
  

他のシステムでzipに固めたデータをアップロードすると
きなどに使う	
  
CDH4からはREST	
  APIでアクセス可能に	
  
CDH5からはNFSマウントも可能に	
  

ファイル	
  
Hadoop	
  

18
HueによるWebブラウザからのファイル操作	
  
zipファイルをアップロードすると自動的に展開してくれる	
  

19
Hive	
  /	
  Impala	
  を使ったデータの活用	
  

20
Hive	
  と	
  Cloudera	
  Impala	
  	
  
Hive
SQLライクなクエリ言語	
  
クエリ言語はMapReduce	
  アプリケーションにコンパイルされる	
  

Cloudera Impala
オープンソースの低レイテンシクエリ言語	
  
MapReduceを使わない。非常に高速	
  
SELECT customer.id, customer.name, sum(order.cost)
FROM customer INNER JOIN order ON (customer.id = order.customer_id)
WHERE customer.zipcode = '63105’ GROUP BY customer.id, customer.name;
21
生データをHive/Impalaで活用する	
  

json	
  

BIアナリスト	
  

生データA	
  

テーブルa	
  

テーブルd	
  

テーブルa’	
  

中間テーブルc	
  

sequencefile	
  
生データB	
  

22	
  

テーブルb	
  

テーブルe	
  

アドホックな	
  
クエリの結果	
  
生データをHive/Impalaで活用する	
  

json	
  
生データA	
  

sequencefile	
  
生データB	
  

23	
  

BIアナリスト	
  
データは完全に生のままHadoopに入
れるより、最低限の加工処理をほど
テーブルa	
  
こしておいた方がいい	
  
•  圧縮	
  
テーブルd	
  
テーブルa’	
  
•  ファイルの結合	
  
•  etc…	
   中間テーブルc	
  
テーブルe	
  

テーブルb	
  

アドホックな	
  
クエリの結果	
  
生データをHive/Impalaで活用する	
  

json	
  

BIアナリスト	
  

生データA	
  

テーブルa’	
  

中間テーブルc	
  

sequencefile	
  
生データB	
  

24	
  

どんなデータでもSerDe
テーブルa	
  
を使うことでテーブル構
造としてパース可能	
  
テーブルd	
  
(Hiveのみ)	
  

テーブルb	
  

テーブルe	
  

アドホックな	
  
クエリの結果	
  
スキーマ・オン・リード	
  
• 
• 
• 

Hiveの最も強力な「概念」の一つ	
  
データを読むときにスキーマを使う	
  
自由にデータが投入可能になる	
  
テーブルA	
  

Hadoop	
  
CSV	
  

25

ログ	
  

テキスト	
  

テーブルB	
  
Hiveのスキーマ作成クエリの例	
  
CREATE	
  EXTERNAL	
  TABLE	
  tweets	
  (	
  
	
  	
  id	
  BIGINT,	
  
	
  	
  created_at	
  STRING,	
  
	
  	
  favorited	
  BOOLEAN,	
  
	
  	
  retweet_count	
  INT,	
  
	
  	
  retweeted_status	
  STRUCT<	
  
	
  	
  	
  	
  text:STRING,	
  
	
  	
  	
  	
  user:STRUCT<screen_name:STRING,name:STRING>>	
  
)	
  
PARTITIONED	
  BY	
  (datehour	
  INT)	
  
ROW	
  FORMAT	
  SERDE	
  'com.cloudera.hive.serde.JSONSerDe'	
  
LOCATION	
  '/user/flume/tweets'	
  
26
Hiveのスキーマ作成クエリの例	
  
CREATE	
  EXTERNAL	
  TABLE	
  tweets	
  (	
  
	
  	
  id	
  BIGINT,	
  
	
  	
  created_at	
  STRING,	
  
	
  	
  favorited	
  BOOLEAN,	
  
外部テーブル	
  
	
  	
  retweet_count	
  INT,	
  
	
  	
  retweeted_status	
  STRUCT<	
  
	
  	
  	
  	
  text:STRING,	
  
	
  	
  	
  	
  user:STRUCT<screen_name:STRING,name:STRING>>	
  
)	
  
データのパス	
  
PARTITIONED	
  BY	
  (datehour	
  INT)	
  
ROW	
  FORMAT	
  SERDE	
  'com.cloudera.hive.serde.JSONSerDe'	
  
LOCATION	
  '/user/flume/tweets'	
  
27
外部テーブル	
  
• 
• 

ファイルシステム上にあるデータをそのままテーブルとして扱
える	
他のツールとデータを共有することも簡単にできる	
  

Hive	
  
テーブルA	
  

MapReduce	
  

Impala	
  

CSV	
  
CSV	
  
CSV	
  
/user/sho/super_cool_web_service/access_log	
  
28
外部テーブル	
  
• 

テーブルを削除しても、データは消えない	
  

Hive	
  
テーブルA	
  

MapReduce	
  

Impala	
  

影響なし!	
  
CSV	
  
CSV	
  
CSV	
  
/user/sho/super_cool_web_service/access_log	
  
29
Hiveのスキーマ作成クエリの例	
  
CREATE	
  EXTERNAL	
  TABLE	
  tweets	
  (	
  
	
  	
  id	
  BIGINT,	
  
	
  	
  created_at	
  STRING,	
  
	
  	
  favorited	
  BOOLEAN,	
  
	
  	
  retweet_count	
  INT,	
  
	
  	
  retweeted_status	
  STRUCT<	
  
	
  	
  	
  	
  text:STRING,	
  
SerDe	
  
	
  	
  	
  	
  user:STRUCT<screen_name:STRING,name:STRING>>	
  
)	
  
PARTITIONED	
  BY	
  (datehour	
  INT)	
  
ROW	
  FORMAT	
  SERDE	
  'com.cloudera.hive.serde.JSONSerDe'	
  
LOCATION	
  '/user/flume/tweets'	
  
30
SerDe	
  
• 
• 
• 

Serializer	
  /	
  Deserializer	
  の略。「さーでぃー」と読む	
  
あらゆるデータをHiveレコードに変換するためのイン
タフェースを提供する	
  
組み込みSerDeもいくつかある	
  
• 

• 

テキスト以外のバイナリデータなども、カスタム
SerDeを実装することで読み込むことは可能	
  
• 

31

RegexSerDeなど	
  

ただしJavaのクラスを実装する必要がある	
  
生データを少し加工しておく	
  
• 

とはいえ、純粋に生データのまま保存するといくつか
問題がある	
  
• 
• 

• 

ファイル数が多くなる→NNのヒープ圧迫などの問題	
  
無圧縮→ストレージを圧迫	
  

再利用しやすい形に加工しておくと便利	
  
• 

ファイルの結合	
  
• 
• 

• 

圧縮	
  
• 
• 

32	
  

SequenceFile	
  など	
  
Hive	
  /	
  Impala	
  からしか使わないのであれば RCFile	
  /	
  Parquet	
  も可	
  
gzip	
  
snappy	
  
追記:	
  データの加工について	
  
あくまで生データを管理しやすいようにパッキングす
るという意味です	
  
•  情報を削ったり、別のものに変換するという意味では
ないです	
  
• 

• 
• 

• 

33	
  

この辺もケースバイケース	
  
明らかに不要な情報なら削ってもいいかもしれない(でもそ
れが明らかに不要って誰が証明できる?)	
  

自分達のシステムに一番合った形に保存して起きま
しょう	
  
加工例:	
  SequenceFile(BLOCK)	
  +	
  gzip	
  
テーブル作成	
  
CREATE TABLE seq_table (id INT, name STRING, … )
STORED AS SEQUENCEFILE;

set mapred.output.compression.type = BLOCK;
set hive.exec.compress.output = true;
set mapred.output.compression.codec =
org.apache.hadoop.io.compress.GzipCodec;
INSERT INTO seq_table SELECT * FROM raw_table;
34	
  
加工例:	
  SequenceFile(BLOCK)	
  +	
  gzip	
  
テーブル作成	
  
外部テーブル	
  +	
  S (id INT, name STRING, … )
CREATE TABLE seq_table erDe	
  を組み合わせて、生
STORED AS データに対するスキーマを作る	
  
SEQUENCEFILE;

set mapred.output.compression.type = BLOCK;
SequenceFile形式の
テーブルに変換する	
  
set hive.exec.compress.output = true;
set mapred.output.compression.codec =
org.apache.hadoop.io.compress.GzipCodec;
INSERT INTO seq_table SELECT * FROM raw_table;
35	
  
生データをHive/Impalaで活用する	
  

json	
  

BIアナリスト	
  

生データA	
  

テーブルa	
  

テーブルd	
  

テーブルa’	
  

中間テーブルc	
  

sequencefile	
  
生データB	
  

36	
  

テーブルb	
  

テーブルe	
  

アドホックな	
  
クエリの結果	
  
Hadoop活用のポイント(1)	
  
富豪的プログラミング	
  
• 

Hadoopを使うときはリソースをケチらない!	
  
• 
• 

• 

Hiveの場合、サブクエリのネストに注意	
  
• 

• 

ネストが深い	
  =	
  MapReduce	
  の実行数が多い	
  

特に再利用することが多い場合は中間テーブルを作
りましょう	
  
• 

38	
  

特にストレージリソースの活用は見落としがち	
  
他のシステムに比べてHadoopのストレージリソースは安
い	
  

使い終わった中間テーブルはきちんと消すこと	
  
Hadoop活用のポイント(1)	
  
富豪的プログラミング	
  
こうするより……	
  

この方が断然速い(トータルは遅い)	
  

SELECT … FROM
(SELECT … FROM
(SELECT … FROM
…

SELECT … FROM tmp_table

中間テーブルA’	
  
テーブルA	
  
テーブルA	
  
生データをHive/Impalaで活用する	
  

json	
  

BIアナリスト	
  

無理に全部Hadoop上で処理し
生データA	
  
ようとせず、ローカルPCで処理
できるぐらいのデータ量になっ
テーブルa’	
  
たらエクスポートする	
  

40	
  

テーブルd	
  

中間テーブルc	
  

sequencefile	
  
生データB	
  

テーブルa	
  

テーブルb	
  

テーブルe	
  

アドホックな	
  
クエリの結果	
  
Hadoop活用のポイント(2)	
  
なるべくHadoopを使わない	
  
• 

基本は「ローカルでできることはなるべくローカルでやる」	
  
• 

• 

その処理、本当にHive/Impalaでやる必要があります
か?	
  
• 
• 

• 

フィルタ・集計した結果が1GB以下になったらローカルPCに落と
してRやPythonなど好きなスクリプト言語を使いましょう	
  
もちろんExcelが使えるなら使いましょう	
  

もちろん、クラスタで処理した方が速いものはクラスタで
行う	
  
• 
• 

41	
  

Hadoopが必要な処理はそんなに多くない	
  

バランスが大事	
  
このあたりはもう経験を積むしかない	
  
Oozieによるワークフローの管理	
  
多段処理はOozieでひとまとめに	
  
スケジューリングによる定期実
行も可能	
  

json	
  

BIアナリスト	
  

生データA	
  

テーブルa	
  

テーブルd	
  

テーブルa’	
  

中間テーブルc	
  

sequencefile	
  
生データB	
  

42	
  

テーブルb	
  

テーブルe	
  

アドホックな	
  
クエリの結果	
  
Hue	
  の Oozie	
  ワークフロー管理	
  
スケジューリング実行な
どはOozieに任せてしまう
のが便利	
  
(日次集計など)	
  

43	
  
Cloudera	
  Searchと統合する	
  

44	
  
Cloudera	
  Search	
  と統合する	
  

json	
  

BIアナリスト	
  

生データA	
  

テーブルa	
  

テーブルd	
  

テーブルa’	
  

中間テーブルc	
  

sequencefile	
  
生データB	
  

45	
  

テーブルb	
  

テーブルe	
  

アドホックな	
  
クエリの結果	
  
Cloudera	
  Search	
  と統合する	
  
検索	
  
インデックス	
  

検索UI	
  

json	
  

BIアナリスト	
  

生データA	
  

テーブルa	
  

テーブルd	
  

テーブルa’	
  

中間テーブルc	
  

sequencefile	
  
生データB	
  

46	
  

テーブルb	
  

テーブルe	
  

アドホックな	
  
クエリの結果	
  
Cloudera	
  Search	
  
Hadoop上のデータに対してインデックスを貼り、Solrで検
索できる	
  
•  利点は色々	
  
• 

• 
• 

47	
  

検索エンジンのように利用できる	
  
検索結果でまず当たりをつけてから分析に入れる	
  
データ基盤におけるクラスタ管理	
  

48	
  
クラスタの管理	
  
Cloudera	
  Managerがどんなに素晴らしくても、クラス
タを使うのも管理するのも人の役目	
  
•  ここでは「人」に視点をおいたクラスタ管理の方法に
ついて説明します	
  
• 

	
  
	
  
	
  
※	
  Cloudera	
  Manager:	
  Cloudera	
  の運用管理ツール。後のセッションで説明し
ます	
  
49	
  
リソース管理	
  
• 

Hadoopのリソース	
  
• 
• 

• 

リソースはみんなのもの	
  
• 

50	
  

計算リソース(CPU	
  +	
  メモリ、あるいはタスクスロット)	
  
ストレージリソース	
  
譲りあって仲良く使いましょう	
  
計算リソースの管理	
  
• 

誰がリソース管理をするのか?	
  
• 

小規模なチーム:	
  全員	
  
• 

• 

中規模なチーム:	
  クラスタ管理者	
  
• 
• 

• 

「お前のジョブ長すぎ。(ジョブを)殺すから」	
  
ジョブ監視の仕組みが必要	
  

大規模なチームは?	
  
• 
• 
• 
• 

51	
  

「ちょっとクラスタ使うよ」と声かければ済む	
  

スケジューラ	
  
cgroup	
  
YARN	
  
チーム単位でリソース配分が出来る Cloudera	
  Manager	
  5	
  を使い
ましょう!	
  
ストレージリソースの管理	
  
• 

富豪も無限にお金持ちではない	
  
• 

いくらリソースをケチらないといっても限度がある	
  

必ず出てくる、やたらとストレージ圧迫するユーザ	
  
•  対処法	
  
• 

• 

小規模なチーム	
  
• 

• 

中規模なチーム	
  
• 

• 

管理者が容量をチェックしつつ、メールで指摘しましょう	
  

大規模なチーム	
  
• 

52	
  

声かけましょう	
  

Cloudera	
  Manager	
  のレポート機能を使いましょう	
  
そもそも誰に使わせるのか?	
  
• 

少数精鋭型	
  
• 
• 
• 

• 

全員に使わせる	
  
• 
• 

53	
  

大半の企業はこのタイプになるはず	
  
管理が楽なのがメリット	
  
反面、チームは他の部署からの問合せ対応に追われるし、
他の部署はほしいデータがすぐに手に入らないのが不満
になる	
  
管理は大変だが、誰もがデータにアクセスできるので、
データを活用する文化が根づいていれば強力	
  
Kerberos認証などのセキュリティ機構をフル活用する必要
がある	
  
セキュリティ	
  
• 

オペレーションミス防止のためにも最低限のセキュリ
ティは必要	
  
• 

• 

マルチテナント環境では必須	
  
• 
• 
• 

54	
  

HDFSのパーミッション、Hiveの権限など	
  
Kerberos認証	
  
Apache	
  Sentryによるアクセス制御	
  
Cloudera	
  Navigator	
  によるアクセス監査	
  
Cloudera	
  Navigator	
  によるアクセス監査	
  

55	
  
管理者はどこまで管理するのか?	
  
容量・種類ともに増大していくデータを、中身まで全
て面倒を見るのか?	
  
•  自分のチームのデータのみ	
  
• 

• 

• 

他部署との連携によるデータの送受信	
  
• 
• 

56	
  

管理可能	
  
中規模の企業でも管理が困難	
  
大規模な企業だとまず不可能	
  
イントラネット	
  
イントラネット	
  
トップページ	
  

事業部門B	
  

社長メッセージ	
  
事業部門A	
  

製品a	
  
エコキャンペーン	
  

57	
  

製品b	
  

事業部門Bの
部門ブログ	
  
イントラネット	
  
イントラネット管理者は、	
  
新規に作られたページ全てを把握・管理す
イントラネット	
  
トップページ	
  
るわけではない	
  
このコンテンツだけの管理者が別にいる	
  
事業部門B	
  

社長メッセージ	
  
事業部門A	
  

製品a	
  

製品b	
  

エコキャンペーン	
  

しかし社員は検索結果に表れればこ
のコンテンツを使うことができる	
  
58	
  

事業部門Bの
部門ブログ	
  
データプラットフォームの理想型	
  
データベース	
  

顧客情報	
  

シンクタンクからの情報	
  
製品情報	
  

製品a	
  
政府情報	
  

59	
  

製品b	
  

新規顧客A社	
  
の情報	
  
データプラットフォームの理想型	
  
データプラットフォームの管理者はデータ全てを把握する
データベース	
  
必要はない	
  
個別のデータ管理者が管理する	
  
顧客情報	
  

シンクタンクからの情報	
  
製品情報	
  

製品a	
  

製品b	
  

政府情報	
  

しかし社員は検索結果に表れればこ
のデータを使うことができる	
  
60	
  

新規顧客A社	
  
の情報	
  
まとめ	
  

61	
  
Hadoopシステムの全体構成	
  
APIアクセス	
  

外部システム	
  

外部システム	
  

APIアクセス	
  

BIツール	
  
+	
  JDBC/ODBC	
  
Webサーバ等の	
  
ログを生成するサーバ	
  

SQL	
  

Hadoop	
  
検索	
  

ログ収集	
  

ユーザ	
  

携帯端末の	
  
通信ログ	
  

分散バッチ処理	
  

RDBMS	
  

62

テーブルごと	
  
インポート	
  

機械学習	
  

テーブルごと	
  
エクスポート	
  

DWH	
  
We	
  are	
  Hiring!	
  
• 

Clouderaは貴方を求めています!!	
  
• 

ソリューションアーキテクト	
  
• 

• 

カスタマーオペレーションエンジニア(サポート)	
  
• 

• 
• 
• 

Hadoopを使ったコンサルティングやモデリング	
  
世界中のお客様のHadoopを守る!	
  

インストラクター	
  
システムエンジニア(技術営業)	
  
セールス	
  

興味のある方は	
  
info-­‐jp@cloudera.com	
  まで	
  
ご連絡下さい!	
  
63
We	
  are	
  Hiring!	
  

64
65	
  

Más contenido relacionado

La actualidad más candente

ただいまHadoop勉強中
ただいまHadoop勉強中ただいまHadoop勉強中
ただいまHadoop勉強中Satoshi Noto
 
Hadoop for programmer
Hadoop for programmerHadoop for programmer
Hadoop for programmerSho Shimauchi
 
Apache Hadoop の現在と将来(Hadoop / Spark Conference Japan 2016 キーノート講演資料)
Apache Hadoop の現在と将来(Hadoop / Spark Conference Japan 2016 キーノート講演資料)Apache Hadoop の現在と将来(Hadoop / Spark Conference Japan 2016 キーノート講演資料)
Apache Hadoop の現在と将来(Hadoop / Spark Conference Japan 2016 キーノート講演資料)Hadoop / Spark Conference Japan
 
世界一簡単なHadoopの話
世界一簡単なHadoopの話世界一簡単なHadoopの話
世界一簡単なHadoopの話Koichi Shimazaki
 
Amazon Elastic MapReduce@Hadoop Conference Japan 2011 Fall
Amazon Elastic MapReduce@Hadoop Conference Japan 2011 FallAmazon Elastic MapReduce@Hadoop Conference Japan 2011 Fall
Amazon Elastic MapReduce@Hadoop Conference Japan 2011 FallShinpei Ohtani
 
Hadoop概要説明
Hadoop概要説明Hadoop概要説明
Hadoop概要説明Satoshi Noto
 
MapReduceプログラミング入門
MapReduceプログラミング入門MapReduceプログラミング入門
MapReduceプログラミング入門Satoshi Noto
 
Hadoopの概念と基本的知識
Hadoopの概念と基本的知識Hadoopの概念と基本的知識
Hadoopの概念と基本的知識Ken SASAKI
 
並列分散処理基盤Hadoopの紹介と、開発者が語るHadoopの使いどころ (Silicon Valley x 日本 / Tech x Business ...
並列分散処理基盤Hadoopの紹介と、開発者が語るHadoopの使いどころ (Silicon Valley x 日本 / Tech x Business ...並列分散処理基盤Hadoopの紹介と、開発者が語るHadoopの使いどころ (Silicon Valley x 日本 / Tech x Business ...
並列分散処理基盤Hadoopの紹介と、開発者が語るHadoopの使いどころ (Silicon Valley x 日本 / Tech x Business ...NTT DATA OSS Professional Services
 
Apache Hadoop & Hive 入門 (マーケティングデータ分析基盤技術勉強会)
Apache Hadoop & Hive 入門 (マーケティングデータ分析基盤技術勉強会)Apache Hadoop & Hive 入門 (マーケティングデータ分析基盤技術勉強会)
Apache Hadoop & Hive 入門 (マーケティングデータ分析基盤技術勉強会)Takeshi Mikami
 
HDFS新機能総まとめin 2015 (日本Hadoopユーザー会 ライトニングトーク@Cloudera World Tokyo 2015 講演資料)
HDFS新機能総まとめin 2015 (日本Hadoopユーザー会 ライトニングトーク@Cloudera World Tokyo 2015 講演資料)HDFS新機能総まとめin 2015 (日本Hadoopユーザー会 ライトニングトーク@Cloudera World Tokyo 2015 講演資料)
HDFS新機能総まとめin 2015 (日本Hadoopユーザー会 ライトニングトーク@Cloudera World Tokyo 2015 講演資料)NTT DATA OSS Professional Services
 
Hadoopのシステム設計・運用のポイント
Hadoopのシステム設計・運用のポイントHadoopのシステム設計・運用のポイント
Hadoopのシステム設計・運用のポイントCloudera Japan
 
オライリーセミナー Hive入門 #oreilly0724
オライリーセミナー Hive入門  #oreilly0724オライリーセミナー Hive入門  #oreilly0724
オライリーセミナー Hive入門 #oreilly0724Cloudera Japan
 

La actualidad más candente (20)

ただいまHadoop勉強中
ただいまHadoop勉強中ただいまHadoop勉強中
ただいまHadoop勉強中
 
Hadoop for programmer
Hadoop for programmerHadoop for programmer
Hadoop for programmer
 
はやわかりHadoop
はやわかりHadoopはやわかりHadoop
はやわかりHadoop
 
Apache Hadoop の現在と将来(Hadoop / Spark Conference Japan 2016 キーノート講演資料)
Apache Hadoop の現在と将来(Hadoop / Spark Conference Japan 2016 キーノート講演資料)Apache Hadoop の現在と将来(Hadoop / Spark Conference Japan 2016 キーノート講演資料)
Apache Hadoop の現在と将来(Hadoop / Spark Conference Japan 2016 キーノート講演資料)
 
世界一簡単なHadoopの話
世界一簡単なHadoopの話世界一簡単なHadoopの話
世界一簡単なHadoopの話
 
Amazon Elastic MapReduce@Hadoop Conference Japan 2011 Fall
Amazon Elastic MapReduce@Hadoop Conference Japan 2011 FallAmazon Elastic MapReduce@Hadoop Conference Japan 2011 Fall
Amazon Elastic MapReduce@Hadoop Conference Japan 2011 Fall
 
Hadoop 基礎
Hadoop 基礎Hadoop 基礎
Hadoop 基礎
 
Hadoop概要説明
Hadoop概要説明Hadoop概要説明
Hadoop概要説明
 
MapReduceプログラミング入門
MapReduceプログラミング入門MapReduceプログラミング入門
MapReduceプログラミング入門
 
Hadoopの概念と基本的知識
Hadoopの概念と基本的知識Hadoopの概念と基本的知識
Hadoopの概念と基本的知識
 
並列分散処理基盤Hadoopの紹介と、開発者が語るHadoopの使いどころ (Silicon Valley x 日本 / Tech x Business ...
並列分散処理基盤Hadoopの紹介と、開発者が語るHadoopの使いどころ (Silicon Valley x 日本 / Tech x Business ...並列分散処理基盤Hadoopの紹介と、開発者が語るHadoopの使いどころ (Silicon Valley x 日本 / Tech x Business ...
並列分散処理基盤Hadoopの紹介と、開発者が語るHadoopの使いどころ (Silicon Valley x 日本 / Tech x Business ...
 
Hadoop入門
Hadoop入門Hadoop入門
Hadoop入門
 
Apache Hadoop & Hive 入門 (マーケティングデータ分析基盤技術勉強会)
Apache Hadoop & Hive 入門 (マーケティングデータ分析基盤技術勉強会)Apache Hadoop & Hive 入門 (マーケティングデータ分析基盤技術勉強会)
Apache Hadoop & Hive 入門 (マーケティングデータ分析基盤技術勉強会)
 
Apache Sparkのご紹介 (後半:技術トピック)
Apache Sparkのご紹介 (後半:技術トピック)Apache Sparkのご紹介 (後半:技術トピック)
Apache Sparkのご紹介 (後半:技術トピック)
 
Hadoop / MapReduce とは
Hadoop / MapReduce とはHadoop / MapReduce とは
Hadoop / MapReduce とは
 
Apache Hive 紹介
Apache Hive 紹介Apache Hive 紹介
Apache Hive 紹介
 
HDFS新機能総まとめin 2015 (日本Hadoopユーザー会 ライトニングトーク@Cloudera World Tokyo 2015 講演資料)
HDFS新機能総まとめin 2015 (日本Hadoopユーザー会 ライトニングトーク@Cloudera World Tokyo 2015 講演資料)HDFS新機能総まとめin 2015 (日本Hadoopユーザー会 ライトニングトーク@Cloudera World Tokyo 2015 講演資料)
HDFS新機能総まとめin 2015 (日本Hadoopユーザー会 ライトニングトーク@Cloudera World Tokyo 2015 講演資料)
 
Hadoopのシステム設計・運用のポイント
Hadoopのシステム設計・運用のポイントHadoopのシステム設計・運用のポイント
Hadoopのシステム設計・運用のポイント
 
オライリーセミナー Hive入門 #oreilly0724
オライリーセミナー Hive入門  #oreilly0724オライリーセミナー Hive入門  #oreilly0724
オライリーセミナー Hive入門 #oreilly0724
 
SASとHadoopとの連携
SASとHadoopとの連携SASとHadoopとの連携
SASとHadoopとの連携
 

Destacado

Hadoopを業務で使ってみた
Hadoopを業務で使ってみたHadoopを業務で使ってみた
Hadoopを業務で使ってみたTatsuya Sasaki
 
Amebaサービスのログ解析基盤
Amebaサービスのログ解析基盤Amebaサービスのログ解析基盤
Amebaサービスのログ解析基盤Toshihiro Suzuki
 
Facebookのリアルタイム Big Data 処理
Facebookのリアルタイム Big Data 処理Facebookのリアルタイム Big Data 処理
Facebookのリアルタイム Big Data 処理maruyama097
 
Spark Streaming の基本とスケールする時系列データ処理 - Spark Meetup December 2015/12/09
Spark Streaming の基本とスケールする時系列データ処理 - Spark Meetup December 2015/12/09Spark Streaming の基本とスケールする時系列データ処理 - Spark Meetup December 2015/12/09
Spark Streaming の基本とスケールする時系列データ処理 - Spark Meetup December 2015/12/09MapR Technologies Japan
 
Hadoop最新情報 - YARN, Omni, Drill, Impala, Shark, Vertica - MapR CTO Meetup 2014...
Hadoop最新情報 - YARN, Omni, Drill, Impala, Shark, Vertica - MapR CTO Meetup 2014...Hadoop最新情報 - YARN, Omni, Drill, Impala, Shark, Vertica - MapR CTO Meetup 2014...
Hadoop最新情報 - YARN, Omni, Drill, Impala, Shark, Vertica - MapR CTO Meetup 2014...MapR Technologies Japan
 
Oracle Cloudで始める、DBエンジニアのためのHadoop超入門(db tech showcase 2016 Oracle セッション資料)
Oracle Cloudで始める、DBエンジニアのためのHadoop超入門(db tech showcase 2016 Oracle セッション資料)Oracle Cloudで始める、DBエンジニアのためのHadoop超入門(db tech showcase 2016 Oracle セッション資料)
Oracle Cloudで始める、DBエンジニアのためのHadoop超入門(db tech showcase 2016 Oracle セッション資料)オラクルエンジニア通信
 
Apache Drill で JSON 形式の オープンデータを分析してみる - db tech showcase Tokyo 2015 2015/06/11
Apache Drill で JSON 形式の オープンデータを分析してみる - db tech showcase Tokyo 2015 2015/06/11Apache Drill で JSON 形式の オープンデータを分析してみる - db tech showcase Tokyo 2015 2015/06/11
Apache Drill で JSON 形式の オープンデータを分析してみる - db tech showcase Tokyo 2015 2015/06/11MapR Technologies Japan
 
IoTアプリケーションで利用するApache NiFi
IoTアプリケーションで利用するApache NiFiIoTアプリケーションで利用するApache NiFi
IoTアプリケーションで利用するApache NiFiYuta Imai
 
そのデータフロー NiFiで楽にしてあげましょう
そのデータフロー NiFiで楽にしてあげましょうそのデータフロー NiFiで楽にしてあげましょう
そのデータフロー NiFiで楽にしてあげましょうKoji Kawamura
 
ビッグデータ処理データベースの全体像と使い分け
ビッグデータ処理データベースの全体像と使い分けビッグデータ処理データベースの全体像と使い分け
ビッグデータ処理データベースの全体像と使い分けRecruit Technologies
 
TLS 1.3 と 0-RTT のこわ〜い話
TLS 1.3 と 0-RTT のこわ〜い話TLS 1.3 と 0-RTT のこわ〜い話
TLS 1.3 と 0-RTT のこわ〜い話Kazuho Oku
 
Apache NiFiと 他プロダクトのつなぎ方
Apache NiFiと他プロダクトのつなぎ方Apache NiFiと他プロダクトのつなぎ方
Apache NiFiと 他プロダクトのつなぎ方Sotaro Kimura
 

Destacado (12)

Hadoopを業務で使ってみた
Hadoopを業務で使ってみたHadoopを業務で使ってみた
Hadoopを業務で使ってみた
 
Amebaサービスのログ解析基盤
Amebaサービスのログ解析基盤Amebaサービスのログ解析基盤
Amebaサービスのログ解析基盤
 
Facebookのリアルタイム Big Data 処理
Facebookのリアルタイム Big Data 処理Facebookのリアルタイム Big Data 処理
Facebookのリアルタイム Big Data 処理
 
Spark Streaming の基本とスケールする時系列データ処理 - Spark Meetup December 2015/12/09
Spark Streaming の基本とスケールする時系列データ処理 - Spark Meetup December 2015/12/09Spark Streaming の基本とスケールする時系列データ処理 - Spark Meetup December 2015/12/09
Spark Streaming の基本とスケールする時系列データ処理 - Spark Meetup December 2015/12/09
 
Hadoop最新情報 - YARN, Omni, Drill, Impala, Shark, Vertica - MapR CTO Meetup 2014...
Hadoop最新情報 - YARN, Omni, Drill, Impala, Shark, Vertica - MapR CTO Meetup 2014...Hadoop最新情報 - YARN, Omni, Drill, Impala, Shark, Vertica - MapR CTO Meetup 2014...
Hadoop最新情報 - YARN, Omni, Drill, Impala, Shark, Vertica - MapR CTO Meetup 2014...
 
Oracle Cloudで始める、DBエンジニアのためのHadoop超入門(db tech showcase 2016 Oracle セッション資料)
Oracle Cloudで始める、DBエンジニアのためのHadoop超入門(db tech showcase 2016 Oracle セッション資料)Oracle Cloudで始める、DBエンジニアのためのHadoop超入門(db tech showcase 2016 Oracle セッション資料)
Oracle Cloudで始める、DBエンジニアのためのHadoop超入門(db tech showcase 2016 Oracle セッション資料)
 
Apache Drill で JSON 形式の オープンデータを分析してみる - db tech showcase Tokyo 2015 2015/06/11
Apache Drill で JSON 形式の オープンデータを分析してみる - db tech showcase Tokyo 2015 2015/06/11Apache Drill で JSON 形式の オープンデータを分析してみる - db tech showcase Tokyo 2015 2015/06/11
Apache Drill で JSON 形式の オープンデータを分析してみる - db tech showcase Tokyo 2015 2015/06/11
 
IoTアプリケーションで利用するApache NiFi
IoTアプリケーションで利用するApache NiFiIoTアプリケーションで利用するApache NiFi
IoTアプリケーションで利用するApache NiFi
 
そのデータフロー NiFiで楽にしてあげましょう
そのデータフロー NiFiで楽にしてあげましょうそのデータフロー NiFiで楽にしてあげましょう
そのデータフロー NiFiで楽にしてあげましょう
 
ビッグデータ処理データベースの全体像と使い分け
ビッグデータ処理データベースの全体像と使い分けビッグデータ処理データベースの全体像と使い分け
ビッグデータ処理データベースの全体像と使い分け
 
TLS 1.3 と 0-RTT のこわ〜い話
TLS 1.3 と 0-RTT のこわ〜い話TLS 1.3 と 0-RTT のこわ〜い話
TLS 1.3 と 0-RTT のこわ〜い話
 
Apache NiFiと 他プロダクトのつなぎ方
Apache NiFiと他プロダクトのつなぎ方Apache NiFiと他プロダクトのつなぎ方
Apache NiFiと 他プロダクトのつなぎ方
 

Similar a Hadoopデータプラットフォーム #cwt2013

TokyoWebminig カジュアルなHadoop
TokyoWebminig カジュアルなHadoopTokyoWebminig カジュアルなHadoop
TokyoWebminig カジュアルなHadoopTeruo Kawasaki
 
Apache Kuduは何がそんなに「速い」DBなのか? #dbts2017
Apache Kuduは何がそんなに「速い」DBなのか? #dbts2017Apache Kuduは何がそんなに「速い」DBなのか? #dbts2017
Apache Kuduは何がそんなに「速い」DBなのか? #dbts2017Cloudera Japan
 
Tuning maniax 2014 Hadoop編
Tuning maniax 2014 Hadoop編Tuning maniax 2014 Hadoop編
Tuning maniax 2014 Hadoop編ThinkIT_impress
 
ATN No.1 MapReduceだけでない!? Hadoopとその仲間たち
ATN No.1 MapReduceだけでない!? Hadoopとその仲間たちATN No.1 MapReduceだけでない!? Hadoopとその仲間たち
ATN No.1 MapReduceだけでない!? Hadoopとその仲間たちAdvancedTechNight
 
Impala概要 道玄坂LT祭り 20150312 #dogenzakalt
Impala概要 道玄坂LT祭り 20150312 #dogenzakaltImpala概要 道玄坂LT祭り 20150312 #dogenzakalt
Impala概要 道玄坂LT祭り 20150312 #dogenzakaltCloudera Japan
 
ゾウ使いへの第一歩
ゾウ使いへの第一歩ゾウ使いへの第一歩
ゾウ使いへの第一歩Fumito Ito
 
A 2-3ゾウ使いへの第一歩 hadoop on azure 編
A 2-3ゾウ使いへの第一歩 hadoop on azure 編A 2-3ゾウ使いへの第一歩 hadoop on azure 編
A 2-3ゾウ使いへの第一歩 hadoop on azure 編GoAzure
 
CDHの歴史とCDH5新機能概要 #at_tokuben
CDHの歴史とCDH5新機能概要 #at_tokubenCDHの歴史とCDH5新機能概要 #at_tokuben
CDHの歴史とCDH5新機能概要 #at_tokubenCloudera Japan
 
HDFS HA セミナー #hadoop
HDFS HA セミナー #hadoopHDFS HA セミナー #hadoop
HDFS HA セミナー #hadoopCloudera Japan
 
Hadoopビッグデータ基盤の歴史を振り返る #cwt2015
Hadoopビッグデータ基盤の歴史を振り返る #cwt2015Hadoopビッグデータ基盤の歴史を振り返る #cwt2015
Hadoopビッグデータ基盤の歴史を振り返る #cwt2015Cloudera Japan
 
Cloudera大阪セミナー 20130219
Cloudera大阪セミナー 20130219Cloudera大阪セミナー 20130219
Cloudera大阪セミナー 20130219Cloudera Japan
 
Hiveハンズオン
HiveハンズオンHiveハンズオン
HiveハンズオンSatoshi Noto
 
Cloudera Manager 5 (hadoop運用) #cwt2013
Cloudera Manager 5 (hadoop運用)  #cwt2013Cloudera Manager 5 (hadoop運用)  #cwt2013
Cloudera Manager 5 (hadoop運用) #cwt2013Cloudera Japan
 
[CWT2017]Infrastructure as Codeを活用したF.O.Xのクラウドビッグデータ環境の変化
[CWT2017]Infrastructure as Codeを活用したF.O.Xのクラウドビッグデータ環境の変化[CWT2017]Infrastructure as Codeを活用したF.O.Xのクラウドビッグデータ環境の変化
[CWT2017]Infrastructure as Codeを活用したF.O.Xのクラウドビッグデータ環境の変化Takahiro Moteki
 
Hadoop Operations #cwt2013
Hadoop Operations #cwt2013Hadoop Operations #cwt2013
Hadoop Operations #cwt2013Cloudera Japan
 
ひしめき合うOpen PaaSを徹底解剖! PaaSの今と未来
ひしめき合うOpen PaaSを徹底解剖! PaaSの今と未来ひしめき合うOpen PaaSを徹底解剖! PaaSの今と未来
ひしめき合うOpen PaaSを徹底解剖! PaaSの今と未来Kazuto Kusama
 
[db tech showcase Tokyo 2015] B34:データの仮想化を具体化するIBMのロジカルデータウェアハウス by 日本アイ・ビー・エ...
[db tech showcase Tokyo 2015] B34:データの仮想化を具体化するIBMのロジカルデータウェアハウス by 日本アイ・ビー・エ...[db tech showcase Tokyo 2015] B34:データの仮想化を具体化するIBMのロジカルデータウェアハウス by 日本アイ・ビー・エ...
[db tech showcase Tokyo 2015] B34:データの仮想化を具体化するIBMのロジカルデータウェアハウス by 日本アイ・ビー・エ...Insight Technology, Inc.
 
CDH4.1オーバービュー
CDH4.1オーバービューCDH4.1オーバービュー
CDH4.1オーバービューCloudera Japan
 

Similar a Hadoopデータプラットフォーム #cwt2013 (20)

TokyoWebminig カジュアルなHadoop
TokyoWebminig カジュアルなHadoopTokyoWebminig カジュアルなHadoop
TokyoWebminig カジュアルなHadoop
 
Apache Kuduは何がそんなに「速い」DBなのか? #dbts2017
Apache Kuduは何がそんなに「速い」DBなのか? #dbts2017Apache Kuduは何がそんなに「速い」DBなのか? #dbts2017
Apache Kuduは何がそんなに「速い」DBなのか? #dbts2017
 
Tuning maniax 2014 Hadoop編
Tuning maniax 2014 Hadoop編Tuning maniax 2014 Hadoop編
Tuning maniax 2014 Hadoop編
 
ATN No.1 MapReduceだけでない!? Hadoopとその仲間たち
ATN No.1 MapReduceだけでない!? Hadoopとその仲間たちATN No.1 MapReduceだけでない!? Hadoopとその仲間たち
ATN No.1 MapReduceだけでない!? Hadoopとその仲間たち
 
Impala概要 道玄坂LT祭り 20150312 #dogenzakalt
Impala概要 道玄坂LT祭り 20150312 #dogenzakaltImpala概要 道玄坂LT祭り 20150312 #dogenzakalt
Impala概要 道玄坂LT祭り 20150312 #dogenzakalt
 
ゾウ使いへの第一歩
ゾウ使いへの第一歩ゾウ使いへの第一歩
ゾウ使いへの第一歩
 
A 2-3ゾウ使いへの第一歩 hadoop on azure 編
A 2-3ゾウ使いへの第一歩 hadoop on azure 編A 2-3ゾウ使いへの第一歩 hadoop on azure 編
A 2-3ゾウ使いへの第一歩 hadoop on azure 編
 
CDHの歴史とCDH5新機能概要 #at_tokuben
CDHの歴史とCDH5新機能概要 #at_tokubenCDHの歴史とCDH5新機能概要 #at_tokuben
CDHの歴史とCDH5新機能概要 #at_tokuben
 
HDFS HA セミナー #hadoop
HDFS HA セミナー #hadoopHDFS HA セミナー #hadoop
HDFS HA セミナー #hadoop
 
Hadoopビッグデータ基盤の歴史を振り返る #cwt2015
Hadoopビッグデータ基盤の歴史を振り返る #cwt2015Hadoopビッグデータ基盤の歴史を振り返る #cwt2015
Hadoopビッグデータ基盤の歴史を振り返る #cwt2015
 
OSC2014 Tokyo/Spring Hadoop
OSC2014 Tokyo/Spring HadoopOSC2014 Tokyo/Spring Hadoop
OSC2014 Tokyo/Spring Hadoop
 
Cloudera大阪セミナー 20130219
Cloudera大阪セミナー 20130219Cloudera大阪セミナー 20130219
Cloudera大阪セミナー 20130219
 
Hiveハンズオン
HiveハンズオンHiveハンズオン
Hiveハンズオン
 
Cloudera Manager 5 (hadoop運用) #cwt2013
Cloudera Manager 5 (hadoop運用)  #cwt2013Cloudera Manager 5 (hadoop運用)  #cwt2013
Cloudera Manager 5 (hadoop運用) #cwt2013
 
[CWT2017]Infrastructure as Codeを活用したF.O.Xのクラウドビッグデータ環境の変化
[CWT2017]Infrastructure as Codeを活用したF.O.Xのクラウドビッグデータ環境の変化[CWT2017]Infrastructure as Codeを活用したF.O.Xのクラウドビッグデータ環境の変化
[CWT2017]Infrastructure as Codeを活用したF.O.Xのクラウドビッグデータ環境の変化
 
Hadoop Operations #cwt2013
Hadoop Operations #cwt2013Hadoop Operations #cwt2013
Hadoop Operations #cwt2013
 
ひしめき合うOpen PaaSを徹底解剖! PaaSの今と未来
ひしめき合うOpen PaaSを徹底解剖! PaaSの今と未来ひしめき合うOpen PaaSを徹底解剖! PaaSの今と未来
ひしめき合うOpen PaaSを徹底解剖! PaaSの今と未来
 
Hadoopエコシステムのデータストア振り返り
Hadoopエコシステムのデータストア振り返りHadoopエコシステムのデータストア振り返り
Hadoopエコシステムのデータストア振り返り
 
[db tech showcase Tokyo 2015] B34:データの仮想化を具体化するIBMのロジカルデータウェアハウス by 日本アイ・ビー・エ...
[db tech showcase Tokyo 2015] B34:データの仮想化を具体化するIBMのロジカルデータウェアハウス by 日本アイ・ビー・エ...[db tech showcase Tokyo 2015] B34:データの仮想化を具体化するIBMのロジカルデータウェアハウス by 日本アイ・ビー・エ...
[db tech showcase Tokyo 2015] B34:データの仮想化を具体化するIBMのロジカルデータウェアハウス by 日本アイ・ビー・エ...
 
CDH4.1オーバービュー
CDH4.1オーバービューCDH4.1オーバービュー
CDH4.1オーバービュー
 

Más de Cloudera Japan

Impala + Kudu を用いたデータウェアハウス構築の勘所 (仮)
Impala + Kudu を用いたデータウェアハウス構築の勘所 (仮)Impala + Kudu を用いたデータウェアハウス構築の勘所 (仮)
Impala + Kudu を用いたデータウェアハウス構築の勘所 (仮)Cloudera Japan
 
機械学習の定番プラットフォームSparkの紹介
機械学習の定番プラットフォームSparkの紹介機械学習の定番プラットフォームSparkの紹介
機械学習の定番プラットフォームSparkの紹介Cloudera Japan
 
HDFS Supportaiblity Improvements
HDFS Supportaiblity ImprovementsHDFS Supportaiblity Improvements
HDFS Supportaiblity ImprovementsCloudera Japan
 
分散DB Apache Kuduのアーキテクチャ DBの性能と一貫性を両立させる仕組み 「HybridTime」とは
分散DB Apache KuduのアーキテクチャDBの性能と一貫性を両立させる仕組み「HybridTime」とは分散DB Apache KuduのアーキテクチャDBの性能と一貫性を両立させる仕組み「HybridTime」とは
分散DB Apache Kuduのアーキテクチャ DBの性能と一貫性を両立させる仕組み 「HybridTime」とはCloudera Japan
 
Apache Impalaパフォーマンスチューニング #dbts2018
Apache Impalaパフォーマンスチューニング #dbts2018Apache Impalaパフォーマンスチューニング #dbts2018
Apache Impalaパフォーマンスチューニング #dbts2018Cloudera Japan
 
Apache Hadoop YARNとマルチテナントにおけるリソース管理
Apache Hadoop YARNとマルチテナントにおけるリソース管理Apache Hadoop YARNとマルチテナントにおけるリソース管理
Apache Hadoop YARNとマルチテナントにおけるリソース管理Cloudera Japan
 
HBase Across the World #LINE_DM
HBase Across the World #LINE_DMHBase Across the World #LINE_DM
HBase Across the World #LINE_DMCloudera Japan
 
Cloudera のサポートエンジニアリング #supennight
Cloudera のサポートエンジニアリング #supennightCloudera のサポートエンジニアリング #supennight
Cloudera のサポートエンジニアリング #supennightCloudera Japan
 
Train, predict, serve: How to go into production your machine learning model
Train, predict, serve: How to go into production your machine learning modelTrain, predict, serve: How to go into production your machine learning model
Train, predict, serve: How to go into production your machine learning modelCloudera Japan
 
Apache Kuduを使った分析システムの裏側
Apache Kuduを使った分析システムの裏側Apache Kuduを使った分析システムの裏側
Apache Kuduを使った分析システムの裏側Cloudera Japan
 
Cloudera in the Cloud #CWT2017
Cloudera in the Cloud #CWT2017Cloudera in the Cloud #CWT2017
Cloudera in the Cloud #CWT2017Cloudera Japan
 
先行事例から学ぶ IoT / ビッグデータの始め方
先行事例から学ぶ IoT / ビッグデータの始め方先行事例から学ぶ IoT / ビッグデータの始め方
先行事例から学ぶ IoT / ビッグデータの始め方Cloudera Japan
 
Clouderaが提供するエンタープライズ向け運用、データ管理ツールの使い方 #CW2017
Clouderaが提供するエンタープライズ向け運用、データ管理ツールの使い方 #CW2017Clouderaが提供するエンタープライズ向け運用、データ管理ツールの使い方 #CW2017
Clouderaが提供するエンタープライズ向け運用、データ管理ツールの使い方 #CW2017Cloudera Japan
 
How to go into production your machine learning models? #CWT2017
How to go into production your machine learning models? #CWT2017How to go into production your machine learning models? #CWT2017
How to go into production your machine learning models? #CWT2017Cloudera Japan
 
Apache Kudu - Updatable Analytical Storage #rakutentech
Apache Kudu - Updatable Analytical Storage #rakutentechApache Kudu - Updatable Analytical Storage #rakutentech
Apache Kudu - Updatable Analytical Storage #rakutentechCloudera Japan
 
Hue 4.0 / Hue Meetup Tokyo #huejp
Hue 4.0 / Hue Meetup Tokyo #huejpHue 4.0 / Hue Meetup Tokyo #huejp
Hue 4.0 / Hue Meetup Tokyo #huejpCloudera Japan
 
Cloudera Data Science WorkbenchとPySparkで 好きなPythonライブラリを 分散で使う #cadeda
Cloudera Data Science WorkbenchとPySparkで 好きなPythonライブラリを 分散で使う #cadedaCloudera Data Science WorkbenchとPySparkで 好きなPythonライブラリを 分散で使う #cadeda
Cloudera Data Science WorkbenchとPySparkで 好きなPythonライブラリを 分散で使う #cadedaCloudera Japan
 
Cloudera + MicrosoftでHadoopするのがイイらしい。 #CWT2016
Cloudera + MicrosoftでHadoopするのがイイらしい。 #CWT2016Cloudera + MicrosoftでHadoopするのがイイらしい。 #CWT2016
Cloudera + MicrosoftでHadoopするのがイイらしい。 #CWT2016Cloudera Japan
 
Cloud Native Hadoop #cwt2016
Cloud Native Hadoop #cwt2016Cloud Native Hadoop #cwt2016
Cloud Native Hadoop #cwt2016Cloudera Japan
 
大規模データに対するデータサイエンスの進め方 #CWT2016
大規模データに対するデータサイエンスの進め方 #CWT2016大規模データに対するデータサイエンスの進め方 #CWT2016
大規模データに対するデータサイエンスの進め方 #CWT2016Cloudera Japan
 

Más de Cloudera Japan (20)

Impala + Kudu を用いたデータウェアハウス構築の勘所 (仮)
Impala + Kudu を用いたデータウェアハウス構築の勘所 (仮)Impala + Kudu を用いたデータウェアハウス構築の勘所 (仮)
Impala + Kudu を用いたデータウェアハウス構築の勘所 (仮)
 
機械学習の定番プラットフォームSparkの紹介
機械学習の定番プラットフォームSparkの紹介機械学習の定番プラットフォームSparkの紹介
機械学習の定番プラットフォームSparkの紹介
 
HDFS Supportaiblity Improvements
HDFS Supportaiblity ImprovementsHDFS Supportaiblity Improvements
HDFS Supportaiblity Improvements
 
分散DB Apache Kuduのアーキテクチャ DBの性能と一貫性を両立させる仕組み 「HybridTime」とは
分散DB Apache KuduのアーキテクチャDBの性能と一貫性を両立させる仕組み「HybridTime」とは分散DB Apache KuduのアーキテクチャDBの性能と一貫性を両立させる仕組み「HybridTime」とは
分散DB Apache Kuduのアーキテクチャ DBの性能と一貫性を両立させる仕組み 「HybridTime」とは
 
Apache Impalaパフォーマンスチューニング #dbts2018
Apache Impalaパフォーマンスチューニング #dbts2018Apache Impalaパフォーマンスチューニング #dbts2018
Apache Impalaパフォーマンスチューニング #dbts2018
 
Apache Hadoop YARNとマルチテナントにおけるリソース管理
Apache Hadoop YARNとマルチテナントにおけるリソース管理Apache Hadoop YARNとマルチテナントにおけるリソース管理
Apache Hadoop YARNとマルチテナントにおけるリソース管理
 
HBase Across the World #LINE_DM
HBase Across the World #LINE_DMHBase Across the World #LINE_DM
HBase Across the World #LINE_DM
 
Cloudera のサポートエンジニアリング #supennight
Cloudera のサポートエンジニアリング #supennightCloudera のサポートエンジニアリング #supennight
Cloudera のサポートエンジニアリング #supennight
 
Train, predict, serve: How to go into production your machine learning model
Train, predict, serve: How to go into production your machine learning modelTrain, predict, serve: How to go into production your machine learning model
Train, predict, serve: How to go into production your machine learning model
 
Apache Kuduを使った分析システムの裏側
Apache Kuduを使った分析システムの裏側Apache Kuduを使った分析システムの裏側
Apache Kuduを使った分析システムの裏側
 
Cloudera in the Cloud #CWT2017
Cloudera in the Cloud #CWT2017Cloudera in the Cloud #CWT2017
Cloudera in the Cloud #CWT2017
 
先行事例から学ぶ IoT / ビッグデータの始め方
先行事例から学ぶ IoT / ビッグデータの始め方先行事例から学ぶ IoT / ビッグデータの始め方
先行事例から学ぶ IoT / ビッグデータの始め方
 
Clouderaが提供するエンタープライズ向け運用、データ管理ツールの使い方 #CW2017
Clouderaが提供するエンタープライズ向け運用、データ管理ツールの使い方 #CW2017Clouderaが提供するエンタープライズ向け運用、データ管理ツールの使い方 #CW2017
Clouderaが提供するエンタープライズ向け運用、データ管理ツールの使い方 #CW2017
 
How to go into production your machine learning models? #CWT2017
How to go into production your machine learning models? #CWT2017How to go into production your machine learning models? #CWT2017
How to go into production your machine learning models? #CWT2017
 
Apache Kudu - Updatable Analytical Storage #rakutentech
Apache Kudu - Updatable Analytical Storage #rakutentechApache Kudu - Updatable Analytical Storage #rakutentech
Apache Kudu - Updatable Analytical Storage #rakutentech
 
Hue 4.0 / Hue Meetup Tokyo #huejp
Hue 4.0 / Hue Meetup Tokyo #huejpHue 4.0 / Hue Meetup Tokyo #huejp
Hue 4.0 / Hue Meetup Tokyo #huejp
 
Cloudera Data Science WorkbenchとPySparkで 好きなPythonライブラリを 分散で使う #cadeda
Cloudera Data Science WorkbenchとPySparkで 好きなPythonライブラリを 分散で使う #cadedaCloudera Data Science WorkbenchとPySparkで 好きなPythonライブラリを 分散で使う #cadeda
Cloudera Data Science WorkbenchとPySparkで 好きなPythonライブラリを 分散で使う #cadeda
 
Cloudera + MicrosoftでHadoopするのがイイらしい。 #CWT2016
Cloudera + MicrosoftでHadoopするのがイイらしい。 #CWT2016Cloudera + MicrosoftでHadoopするのがイイらしい。 #CWT2016
Cloudera + MicrosoftでHadoopするのがイイらしい。 #CWT2016
 
Cloud Native Hadoop #cwt2016
Cloud Native Hadoop #cwt2016Cloud Native Hadoop #cwt2016
Cloud Native Hadoop #cwt2016
 
大規模データに対するデータサイエンスの進め方 #CWT2016
大規模データに対するデータサイエンスの進め方 #CWT2016大規模データに対するデータサイエンスの進め方 #CWT2016
大規模データに対するデータサイエンスの進め方 #CWT2016
 

Hadoopデータプラットフォーム #cwt2013