SlideShare a Scribd company logo
1 of 59
Download to read offline
© Opt, Inc. All Rights Reserved.
データマート対応した話
株式会社オプト 仙台テクノロジー開発部
第2回タガヤス登壇資料 
© Opt, Inc. All Rights Reserved.
自己紹介
- 佐藤宏(不惑)
- 株式会社オプト 仙台テクノロジー開発部 所属
- 2011年入社
- シニアエンジニア
© Opt, Inc. All Rights Reserved.
不惑って(いきなり余談)
子曰、
吾十有五而志于学、
三十而立、
四十而不惑、
五十而知天命、
六十而耳順、
七十而従心所欲、不踰矩。
© Opt, Inc. All Rights Reserved.
Amazon Redshift 始めました(2016年)
※dc2.8xlargeを前提
© Opt, Inc. All Rights Reserved.
Redshift が向いている利用シーン
1. 大量データを扱う
2. 分散処理技術に詳しいインフラエンジニアがいな
い・少ない
© Opt, Inc. All Rights Reserved.
Redshift が向いている利用シーン(1)
- 大量データを扱う
- 大量データを短時間で登録
- 大量データを分析するクエリが実行可
- テーブルへカラム追加が容易
© Opt, Inc. All Rights Reserved.
Redshift が向いている利用シーン(2)
- 分散処理技術に詳しいインフラエンジニアがいな
い・少ない
- フルマネージド
© Opt, Inc. All Rights Reserved.
Redshift って凄い
思っている事が何でもできそう
© Opt, Inc. All Rights Reserved.
魔法のシステムではない
得意・不得意がある
© Opt, Inc. All Rights Reserved.
Redshift の向いている処理って?
© Opt, Inc. All Rights Reserved.
得意な事
- オンライン分析処理(OLAP)
- 大量のデータを素早く集計する
- 大量のデータを容易に取り込める(from S3)
© Opt, Inc. All Rights Reserved.
不得意な事
- オンライントランザクション処理(OLTP)
- オンラインサービスのバックエンドには向かない
- 複雑なロジックを埋め込んだクエリ(経験則)
© Opt, Inc. All Rights Reserved.
Redshift の特徴が
分かったところで
© Opt, Inc. All Rights Reserved.
素早いレスポンス速度とは?
あなたが感じる「速さ」とは...
© Opt, Inc. All Rights Reserved.
シンキングタイム...
© Opt, Inc. All Rights Reserved.
例えば
- 検索サイトでの応答速度
- ECサイトやSNSの画面表示
- 100MByteのファイルのDL時間
© Opt, Inc. All Rights Reserved.
速度って
- 速度だけだと抽象的な言葉
- 想定シーンで異なる
- 個人の主観でも異なる
© Opt, Inc. All Rights Reserved.
抽象的なままだとどうなるか
- 主観が入り込む
- 想定が異なる
- 認識相違が生じやすい
© Opt, Inc. All Rights Reserved.
例えば
- 数千万単位のデータから集計するクエリを秒単位
で応答を返している
© Opt, Inc. All Rights Reserved.
開発者の視点
- 通常のRDBだとこんなレスポンスはでない
- めっちゃ速い
© Opt, Inc. All Rights Reserved.
利用者の視点
- Webシステムで1,2秒レスポンスにかかったら遅
い
- 裏側の仕組みなんて知ったことではない
© Opt, Inc. All Rights Reserved.
立場が違うから仕方ない?
© Opt, Inc. All Rights Reserved.
非機能要件
- 性能や信頼性,拡張性,セキュリティなど,機能
要件以外
- 具体的な数値を提示する
© Opt, Inc. All Rights Reserved.
例えば
機能Xは、応答に10秒かかる
© Opt, Inc. All Rights Reserved.
機能Xに10秒
1. 数百MByteのファイルをダウンロードする機能
2. 仙台の日ごと(1か月分)の最高気温が表示され
る機能
- 結果は31件程度のデータ
- 日本全国の観測地点の1か月分データ
© Opt, Inc. All Rights Reserved.
Redshiftの得意な事
- 大量のデータを扱うのは得意
- 集計したデータを別テーブルに用意しておけば、
さらに早くなるのでは?
© Opt, Inc. All Rights Reserved.
Redshiftの苦手な事
- 少量のデータでも時間がかかる
- 1秒弱くらい
- 内部的な処理でオーバーヘッドがかかる
© Opt, Inc. All Rights Reserved.
そもそも少量データならRedshift
じゃない方がいい
© Opt, Inc. All Rights Reserved.
データマートを作ろう
© Opt, Inc. All Rights Reserved.
その前に…
© Opt, Inc. All Rights Reserved.
インターネットの広告って?
© Opt, Inc. All Rights Reserved.
こことか
ここも
これは、
ディスプレイ広告
© Opt, Inc. All Rights Reserved.
こことか
キーワード広告。
サーチ、
リスティング広告
といいます
© Opt, Inc. All Rights Reserved.
Yahoo!
広告A
広告B
広告C
Google
広告A
広告B
広告C
Facebook
広告A
広告B
広告C
Twitter
広告A
広告B
広告C
佐藤工務店
© Opt, Inc. All Rights Reserved.
Yahoo!
KW1
KW2
KW3
Google
KW1
KW2
KW3
Facebook
広告A
広告B
広告C
Twitter
広告A
広告B
広告C
佐藤工務店
© Opt, Inc. All Rights Reserved.
媒体(アカウント)
キャンペーンキャンペーン
広告グループ広告グループ広告グループ
KW1
KW2
KW3
広告A
広告B
広告C
広告グループ
KW1
KW2
KW3
広告A
広告B
広告C
© Opt, Inc. All Rights Reserved.
データ種別 1か月分の日別レコード数
アカウント 8万~12万
キャンペーン 20万~60万
広告 600万~1200万
キーワード 1000万~2000万
※概算のレコード数
© Opt, Inc. All Rights Reserved.
キャンペーン
データマートを作ろう
© Opt, Inc. All Rights Reserved.
まずはRedshiftから
データを出力しよう
© Opt, Inc. All Rights Reserved.
Redshiftからのデータ移行
- 基本はS3へのエクスポート
- S3に出力したデータを他のDBに取り込む
© Opt, Inc. All Rights Reserved.
もう少しリアルタイムに連携した
い
© Opt, Inc. All Rights Reserved.
dblink
© Opt, Inc. All Rights Reserved.
dblinkって
- 他のデータベースをSQLから直接操作できるモ
ジュール
- 分散環境で複数のデータベースをまたがる処理
を行うことができる
© Opt, Inc. All Rights Reserved.
データマートに使うDBは?
- RedshiftはPostgreSQL 8.0.2から派生
- RedshiftがPostgreSQLのtcpプロトコルで接続で
きるためdblinkで接続可
- PostgreSQL側からRedshiftへ接続できる
- Redshiftのクエリ結果を受け取れる(データを
そのまま登録できる)
© Opt, Inc. All Rights Reserved.
データマートに使うDBは?
- PostgreSQLで確定!!
- Amazon Aurora with PostgreSQL(まだ日本リージョンに
は来ていないが)
© Opt, Inc. All Rights Reserved.
dblinkを使う準備
© Opt, Inc. All Rights Reserved.
CREATE EXTENSION postgres_fdw;
CREATE EXTENSION dblink;
CREATE SERVER [外部サーバ名]
FOREIGN DATA WRAPPER postgres_fdw OPTIONS (
host 'xxx.xxx.xxx.xxx', -- Redshiftのホスト
port 'nnnn', -- Redshiftのポート
dbname 'xxxx' -- Redshiftのデータベース
);
CREATE USER MAPPING FOR [ユーザ名]
SERVER [外部サーバ名] OPTIONS (
user 'user_id', -- Redshiftの接続ユーザ
password 'user_pswd' -- Redshiftの接続ユーザパスワード
);
© Opt, Inc. All Rights Reserved.
dblinkを使ったクエリ
© Opt, Inc. All Rights Reserved.
INSERT INTO [Postgresqlテーブル名]
SELECT *
FROM dblink('[外部サーバ名]',$REDSHIFT$
SELECT account_id,campaign_id,day,SUM(cost)
FROM [Redshiftテーブル名]
GROUP BY account_id,campaign_id,day
$REDSHIFT$
) AS t1 (
ac_id VARCHAR(255),cp_id BIGINT,rp_date DATE,cost
BIGINT);
© Opt, Inc. All Rights Reserved.
INSERT INTO [Postgresqlテーブル名]
SELECT *
FROM dblink('[外部サーバ名]',$REDSHIFT$
SELECT account_id,campaign_id,day,SUM(cost)
FROM [Redshiftテーブル名]
GROUP BY account_id,campaign_id,day
$REDSHIFT$
) AS t1 (
ac_id VARCHAR(255),cp_id BIGINT,rp_date DATE,cost BIGINT);$REDSHIFT$ で囲まれた文字列は、Redshiftに送られるクエリ
CREATE SERVERの名前と合わせる
© Opt, Inc. All Rights Reserved.
INSERT INTO [Postgresqlテーブル名]
SELECT *
FROM dblink('[外部サーバ名]',$REDSHIFT$
SELECT account_id,campaign_id,day,SUM(cost)
FROM [Redshiftテーブル名]
GROUP BY account_id,campaign_id,day
$REDSHIFT$
) AS t1 (
ac_id VARCHAR(255),cp_id BIGINT,rp_date
DATE,cost BIGINT);
Redshiftで実行されたクエリの結果セット(データ型など)を指定
© Opt, Inc. All Rights Reserved.
INSERT INTO [Postgresqlテーブル名]
SELECT *
FROM dblink('[外部サーバ名]',$REDSHIFT$
SELECT account_id,campaign_id,day,SUM(cost)
FROM [Redshiftテーブル名]
GROUP BY account_id,campaign_id,day
$REDSHIFT$
) AS t1 (
ac_id VARCHAR(255),cp_id BIGINT,rp_date DATE,cost
BIGINT);
© Opt, Inc. All Rights Reserved.
最後に(まとめ)
© Opt, Inc. All Rights Reserved.
データマートの導入の前に
- よく使われるデータで集計しておく
- そもそものデータ量が減る
© Opt, Inc. All Rights Reserved.
データマートの導入結果
- 応答時間がミリ秒単位
- 小さいクエリを捌く事が得意なDBを使う
© Opt, Inc. All Rights Reserved.
データマートからの応答速度
- 複数媒体&複数月のデータから返す場合
48秒(Redshift)→1秒弱(PostgreSQL)
- 純粋に1媒体&1か月のデータから返す場合
1秒(Redshift)→0.1秒(PostgreSQL)
© Opt, Inc. All Rights Reserved.
データ種別 1か月分の日別レコード数
アカウント 8万~12万
キャンペーン 20万~60万
広告グループ 300万~500万
広告 600万~1200万
キーワード 1000万~2000万
※概算のレコード数
© Opt, Inc. All Rights Reserved.
最後に
- 大量のデータをデータマートに持ってきてもレスポ
ンスは出ない
© Opt, Inc. All Rights Reserved.
ご清聴ありがとうございました

More Related Content

What's hot

db tech showcase2019オープニングセッション @ 森田 俊哉
db tech showcase2019オープニングセッション @ 森田 俊哉 db tech showcase2019オープニングセッション @ 森田 俊哉
db tech showcase2019オープニングセッション @ 森田 俊哉 Insight Technology, Inc.
 
AI/ML開発・運用ワークフロー検討案(日本ソフトウェア科学会 機械学習工学研究会 本番適用のためのインフラと運用WG主催 討論会)
AI/ML開発・運用ワークフロー検討案(日本ソフトウェア科学会 機械学習工学研究会 本番適用のためのインフラと運用WG主催 討論会)AI/ML開発・運用ワークフロー検討案(日本ソフトウェア科学会 機械学習工学研究会 本番適用のためのインフラと運用WG主催 討論会)
AI/ML開発・運用ワークフロー検討案(日本ソフトウェア科学会 機械学習工学研究会 本番適用のためのインフラと運用WG主催 討論会)NTT DATA Technology & Innovation
 
データテクノロジースペシャル:Yahoo! JAPANにおけるメタデータ管理の試み
データテクノロジースペシャル:Yahoo! JAPANにおけるメタデータ管理の試みデータテクノロジースペシャル:Yahoo! JAPANにおけるメタデータ管理の試み
データテクノロジースペシャル:Yahoo! JAPANにおけるメタデータ管理の試みYahoo!デベロッパーネットワーク
 
ビッグデータ活用を加速する!分散SQLエンジン Spark SQL のご紹介 20161105 OSC Tokyo Fall
ビッグデータ活用を加速する!分散SQLエンジン Spark SQL のご紹介 20161105 OSC Tokyo Fallビッグデータ活用を加速する!分散SQLエンジン Spark SQL のご紹介 20161105 OSC Tokyo Fall
ビッグデータ活用を加速する!分散SQLエンジン Spark SQL のご紹介 20161105 OSC Tokyo FallYusukeKuramata
 
[db analytics showcase Sapporo 2018] B25 Hadoop上で動く世界最速のAnalytic DBをSparkと一緒に...
[db analytics showcase Sapporo 2018] B25 Hadoop上で動く世界最速のAnalytic DBをSparkと一緒に...[db analytics showcase Sapporo 2018] B25 Hadoop上で動く世界最速のAnalytic DBをSparkと一緒に...
[db analytics showcase Sapporo 2018] B25 Hadoop上で動く世界最速のAnalytic DBをSparkと一緒に...Insight Technology, Inc.
 
大規模サイトを支えるビッグデータプラットフォーム技術
大規模サイトを支えるビッグデータプラットフォーム技術大規模サイトを支えるビッグデータプラットフォーム技術
大規模サイトを支えるビッグデータプラットフォーム技術Yahoo!デベロッパーネットワーク
 
データ分析を支える技術 データ分析基盤再入門
データ分析を支える技術 データ分析基盤再入門データ分析を支える技術 データ分析基盤再入門
データ分析を支える技術 データ分析基盤再入門Satoru Ishikawa
 
Investment in Yahoo! JAPAN's dataplatform and business growth by big data
Investment in Yahoo! JAPAN's dataplatform and business growth by big dataInvestment in Yahoo! JAPAN's dataplatform and business growth by big data
Investment in Yahoo! JAPAN's dataplatform and business growth by big dataDataWorks Summit/Hadoop Summit
 
[db tech showcase OSS 2017] A27: Talend + MariaDB(SpiderEngine)+ TableauでBI基盤...
[db tech showcase OSS 2017] A27: Talend + MariaDB(SpiderEngine)+ TableauでBI基盤...[db tech showcase OSS 2017] A27: Talend + MariaDB(SpiderEngine)+ TableauでBI基盤...
[db tech showcase OSS 2017] A27: Talend + MariaDB(SpiderEngine)+ TableauでBI基盤...Insight Technology, Inc.
 
Use case and Live demo : Agile data integration from Legacy system to Hadoop ...
Use case and Live demo : Agile data integration from Legacy system to Hadoop ...Use case and Live demo : Agile data integration from Legacy system to Hadoop ...
Use case and Live demo : Agile data integration from Legacy system to Hadoop ...DataWorks Summit/Hadoop Summit
 
Spark Summit 2015 参加報告
Spark Summit 2015 参加報告Spark Summit 2015 参加報告
Spark Summit 2015 参加報告Katsunori Kanda
 
最新事例から学ぶビッグデータの活用法 #ocif16 #hortonworks
最新事例から学ぶビッグデータの活用法 #ocif16 #hortonworks最新事例から学ぶビッグデータの活用法 #ocif16 #hortonworks
最新事例から学ぶビッグデータの活用法 #ocif16 #hortonworksKimihiko Kitase
 
分散処理基盤ApacheHadoop入門とHadoopエコシステムの最新技術動向(OSC2015 Kansai発表資料)
分散処理基盤ApacheHadoop入門とHadoopエコシステムの最新技術動向(OSC2015 Kansai発表資料)分散処理基盤ApacheHadoop入門とHadoopエコシステムの最新技術動向(OSC2015 Kansai発表資料)
分散処理基盤ApacheHadoop入門とHadoopエコシステムの最新技術動向(OSC2015 Kansai発表資料)NTT DATA OSS Professional Services
 
リクルートライフスタイルの考える ストリームデータの活かし方(Hadoop Spark Conference2016)
リクルートライフスタイルの考えるストリームデータの活かし方(Hadoop Spark Conference2016)リクルートライフスタイルの考えるストリームデータの活かし方(Hadoop Spark Conference2016)
リクルートライフスタイルの考える ストリームデータの活かし方(Hadoop Spark Conference2016)Atsushi Kurumada
 
QConTokyo2015「Sparkを用いたビッグデータ解析 〜後編〜」
QConTokyo2015「Sparkを用いたビッグデータ解析 〜後編〜」QConTokyo2015「Sparkを用いたビッグデータ解析 〜後編〜」
QConTokyo2015「Sparkを用いたビッグデータ解析 〜後編〜」Kazuki Taniguchi
 
Ansibleで構成管理始める人のモチベーションをあげたい! (Cloudera World Tokyo 2014LT講演資料)
Ansibleで構成管理始める人のモチベーションをあげたい! (Cloudera World Tokyo 2014LT講演資料)Ansibleで構成管理始める人のモチベーションをあげたい! (Cloudera World Tokyo 2014LT講演資料)
Ansibleで構成管理始める人のモチベーションをあげたい! (Cloudera World Tokyo 2014LT講演資料)NTT DATA OSS Professional Services
 
スキーマレスカラムナフォーマット「Yosegi」で実現する スキーマの柔軟性と処理性能を両立したログ収集システム / Hadoop / Spark Con...
スキーマレスカラムナフォーマット「Yosegi」で実現する スキーマの柔軟性と処理性能を両立したログ収集システム / Hadoop / Spark Con...スキーマレスカラムナフォーマット「Yosegi」で実現する スキーマの柔軟性と処理性能を両立したログ収集システム / Hadoop / Spark Con...
スキーマレスカラムナフォーマット「Yosegi」で実現する スキーマの柔軟性と処理性能を両立したログ収集システム / Hadoop / Spark Con...Yahoo!デベロッパーネットワーク
 

What's hot (20)

db tech showcase2019オープニングセッション @ 森田 俊哉
db tech showcase2019オープニングセッション @ 森田 俊哉 db tech showcase2019オープニングセッション @ 森田 俊哉
db tech showcase2019オープニングセッション @ 森田 俊哉
 
大規模クラスタでのHadoop課題
大規模クラスタでのHadoop課題大規模クラスタでのHadoop課題
大規模クラスタでのHadoop課題
 
AI/ML開発・運用ワークフロー検討案(日本ソフトウェア科学会 機械学習工学研究会 本番適用のためのインフラと運用WG主催 討論会)
AI/ML開発・運用ワークフロー検討案(日本ソフトウェア科学会 機械学習工学研究会 本番適用のためのインフラと運用WG主催 討論会)AI/ML開発・運用ワークフロー検討案(日本ソフトウェア科学会 機械学習工学研究会 本番適用のためのインフラと運用WG主催 討論会)
AI/ML開発・運用ワークフロー検討案(日本ソフトウェア科学会 機械学習工学研究会 本番適用のためのインフラと運用WG主催 討論会)
 
データテクノロジースペシャル:Yahoo! JAPANにおけるメタデータ管理の試み
データテクノロジースペシャル:Yahoo! JAPANにおけるメタデータ管理の試みデータテクノロジースペシャル:Yahoo! JAPANにおけるメタデータ管理の試み
データテクノロジースペシャル:Yahoo! JAPANにおけるメタデータ管理の試み
 
ビッグデータ活用を加速する!分散SQLエンジン Spark SQL のご紹介 20161105 OSC Tokyo Fall
ビッグデータ活用を加速する!分散SQLエンジン Spark SQL のご紹介 20161105 OSC Tokyo Fallビッグデータ活用を加速する!分散SQLエンジン Spark SQL のご紹介 20161105 OSC Tokyo Fall
ビッグデータ活用を加速する!分散SQLエンジン Spark SQL のご紹介 20161105 OSC Tokyo Fall
 
[db analytics showcase Sapporo 2018] B25 Hadoop上で動く世界最速のAnalytic DBをSparkと一緒に...
[db analytics showcase Sapporo 2018] B25 Hadoop上で動く世界最速のAnalytic DBをSparkと一緒に...[db analytics showcase Sapporo 2018] B25 Hadoop上で動く世界最速のAnalytic DBをSparkと一緒に...
[db analytics showcase Sapporo 2018] B25 Hadoop上で動く世界最速のAnalytic DBをSparkと一緒に...
 
大規模サイトを支えるビッグデータプラットフォーム技術
大規模サイトを支えるビッグデータプラットフォーム技術大規模サイトを支えるビッグデータプラットフォーム技術
大規模サイトを支えるビッグデータプラットフォーム技術
 
データ分析を支える技術 データ分析基盤再入門
データ分析を支える技術 データ分析基盤再入門データ分析を支える技術 データ分析基盤再入門
データ分析を支える技術 データ分析基盤再入門
 
Investment in Yahoo! JAPAN's dataplatform and business growth by big data
Investment in Yahoo! JAPAN's dataplatform and business growth by big dataInvestment in Yahoo! JAPAN's dataplatform and business growth by big data
Investment in Yahoo! JAPAN's dataplatform and business growth by big data
 
Spark MLlibではじめるスケーラブルな機械学習
Spark MLlibではじめるスケーラブルな機械学習Spark MLlibではじめるスケーラブルな機械学習
Spark MLlibではじめるスケーラブルな機械学習
 
[db tech showcase OSS 2017] A27: Talend + MariaDB(SpiderEngine)+ TableauでBI基盤...
[db tech showcase OSS 2017] A27: Talend + MariaDB(SpiderEngine)+ TableauでBI基盤...[db tech showcase OSS 2017] A27: Talend + MariaDB(SpiderEngine)+ TableauでBI基盤...
[db tech showcase OSS 2017] A27: Talend + MariaDB(SpiderEngine)+ TableauでBI基盤...
 
Use case and Live demo : Agile data integration from Legacy system to Hadoop ...
Use case and Live demo : Agile data integration from Legacy system to Hadoop ...Use case and Live demo : Agile data integration from Legacy system to Hadoop ...
Use case and Live demo : Agile data integration from Legacy system to Hadoop ...
 
Spark Summit 2015 参加報告
Spark Summit 2015 参加報告Spark Summit 2015 参加報告
Spark Summit 2015 参加報告
 
最新事例から学ぶビッグデータの活用法 #ocif16 #hortonworks
最新事例から学ぶビッグデータの活用法 #ocif16 #hortonworks最新事例から学ぶビッグデータの活用法 #ocif16 #hortonworks
最新事例から学ぶビッグデータの活用法 #ocif16 #hortonworks
 
分散処理基盤ApacheHadoop入門とHadoopエコシステムの最新技術動向(OSC2015 Kansai発表資料)
分散処理基盤ApacheHadoop入門とHadoopエコシステムの最新技術動向(OSC2015 Kansai発表資料)分散処理基盤ApacheHadoop入門とHadoopエコシステムの最新技術動向(OSC2015 Kansai発表資料)
分散処理基盤ApacheHadoop入門とHadoopエコシステムの最新技術動向(OSC2015 Kansai発表資料)
 
リクルートライフスタイルの考える ストリームデータの活かし方(Hadoop Spark Conference2016)
リクルートライフスタイルの考えるストリームデータの活かし方(Hadoop Spark Conference2016)リクルートライフスタイルの考えるストリームデータの活かし方(Hadoop Spark Conference2016)
リクルートライフスタイルの考える ストリームデータの活かし方(Hadoop Spark Conference2016)
 
QConTokyo2015「Sparkを用いたビッグデータ解析 〜後編〜」
QConTokyo2015「Sparkを用いたビッグデータ解析 〜後編〜」QConTokyo2015「Sparkを用いたビッグデータ解析 〜後編〜」
QConTokyo2015「Sparkを用いたビッグデータ解析 〜後編〜」
 
Ansibleで構成管理始める人のモチベーションをあげたい! (Cloudera World Tokyo 2014LT講演資料)
Ansibleで構成管理始める人のモチベーションをあげたい! (Cloudera World Tokyo 2014LT講演資料)Ansibleで構成管理始める人のモチベーションをあげたい! (Cloudera World Tokyo 2014LT講演資料)
Ansibleで構成管理始める人のモチベーションをあげたい! (Cloudera World Tokyo 2014LT講演資料)
 
スキーマレスカラムナフォーマット「Yosegi」で実現する スキーマの柔軟性と処理性能を両立したログ収集システム / Hadoop / Spark Con...
スキーマレスカラムナフォーマット「Yosegi」で実現する スキーマの柔軟性と処理性能を両立したログ収集システム / Hadoop / Spark Con...スキーマレスカラムナフォーマット「Yosegi」で実現する スキーマの柔軟性と処理性能を両立したログ収集システム / Hadoop / Spark Con...
スキーマレスカラムナフォーマット「Yosegi」で実現する スキーマの柔軟性と処理性能を両立したログ収集システム / Hadoop / Spark Con...
 
Apache Hadoop 2.8.0 の新機能 (抜粋)
Apache Hadoop 2.8.0 の新機能 (抜粋)Apache Hadoop 2.8.0 の新機能 (抜粋)
Apache Hadoop 2.8.0 の新機能 (抜粋)
 

Similar to データマート対応した話

[db tech showcase Tokyo 2017] C25: 世界最速のAnalytic DBがHadoopとタッグを組んだ! ~スケールアウト検...
[db tech showcase Tokyo 2017] C25: 世界最速のAnalytic DBがHadoopとタッグを組んだ! ~スケールアウト検...[db tech showcase Tokyo 2017] C25: 世界最速のAnalytic DBがHadoopとタッグを組んだ! ~スケールアウト検...
[db tech showcase Tokyo 2017] C25: 世界最速のAnalytic DBがHadoopとタッグを組んだ! ~スケールアウト検...Insight Technology, Inc.
 
[db analytics showcase Sapporo 2017] B27:世界最速のAnalytic DBはHadoopの夢を見るか by 株式会...
[db analytics showcase Sapporo 2017] B27:世界最速のAnalytic DBはHadoopの夢を見るか by 株式会...[db analytics showcase Sapporo 2017] B27:世界最速のAnalytic DBはHadoopの夢を見るか by 株式会...
[db analytics showcase Sapporo 2017] B27:世界最速のAnalytic DBはHadoopの夢を見るか by 株式会...Insight Technology, Inc.
 
マーケティングテクノロジー勉強会
マーケティングテクノロジー勉強会マーケティングテクノロジー勉強会
マーケティングテクノロジー勉強会伊藤 孝
 
おすすめインフラ! for スタートアップ
おすすめインフラ! for スタートアップおすすめインフラ! for スタートアップ
おすすめインフラ! for スタートアップKoichiro Sumi
 
Jazug-8th: Azure AKS & FIWARE & Robot
Jazug-8th: Azure AKS & FIWARE & RobotJazug-8th: Azure AKS & FIWARE & Robot
Jazug-8th: Azure AKS & FIWARE & RobotNobuyuki Matsui
 
空気を読む家のキッチン(3-3)
空気を読む家のキッチン(3-3)空気を読む家のキッチン(3-3)
空気を読む家のキッチン(3-3)aitc_jp
 
Beginner must-see! A future that can be opened by learning Hadoop
Beginner must-see! A future that can be opened by learning HadoopBeginner must-see! A future that can be opened by learning Hadoop
Beginner must-see! A future that can be opened by learning HadoopDataWorks Summit
 
データサイエンティスト協会 木曜勉強会 #02 講演2:『ビッグデータの0次分析手法と適用例のご紹介 ~俯瞰から始まる企業内ビッグデータの活用~』
データサイエンティスト協会 木曜勉強会 #02 講演2:『ビッグデータの0次分析手法と適用例のご紹介 ~俯瞰から始まる企業内ビッグデータの活用~』データサイエンティスト協会 木曜勉強会 #02 講演2:『ビッグデータの0次分析手法と適用例のご紹介 ~俯瞰から始まる企業内ビッグデータの活用~』
データサイエンティスト協会 木曜勉強会 #02 講演2:『ビッグデータの0次分析手法と適用例のご紹介 ~俯瞰から始まる企業内ビッグデータの活用~』The Japan DataScientist Society
 
第4回SIA研究会(例会)プレゼン資料1_ m2 soft 紹介資料
第4回SIA研究会(例会)プレゼン資料1_ m2 soft 紹介資料第4回SIA研究会(例会)プレゼン資料1_ m2 soft 紹介資料
第4回SIA研究会(例会)プレゼン資料1_ m2 soft 紹介資料Tae Yoshida
 
第11回SIA例会プレゼン資料
第11回SIA例会プレゼン資料第11回SIA例会プレゼン資料
第11回SIA例会プレゼン資料Tae Yoshida
 
Cloudera Impalaをサービスに組み込むときに苦労した話
Cloudera Impalaをサービスに組み込むときに苦労した話Cloudera Impalaをサービスに組み込むときに苦労した話
Cloudera Impalaをサービスに組み込むときに苦労した話Yukinori Suda
 
MBAAで覚えるDBREの大事なおしごと
MBAAで覚えるDBREの大事なおしごとMBAAで覚えるDBREの大事なおしごと
MBAAで覚えるDBREの大事なおしごとInsight Technology, Inc.
 
一枚岩なレガシーシステムを ラクスルではどのようにRebuildしているのか?
一枚岩なレガシーシステムを ラクスルではどのようにRebuildしているのか?一枚岩なレガシーシステムを ラクスルではどのようにRebuildしているのか?
一枚岩なレガシーシステムを ラクスルではどのようにRebuildしているのか?nixiesan
 
PostgreSQLによるデータ分析ことはじめ
PostgreSQLによるデータ分析ことはじめPostgreSQLによるデータ分析ことはじめ
PostgreSQLによるデータ分析ことはじめOhyama Masanori
 
RT ミドルウェアの IoT プラットフォームへの適用
RT ミドルウェアの IoT プラットフォームへの適用RT ミドルウェアの IoT プラットフォームへの適用
RT ミドルウェアの IoT プラットフォームへの適用Device WebAPI Consortium
 
複数DBのバックアップ・切り戻し運用手順が異なって大変?!運用性の大幅改善、その先に。。
複数DBのバックアップ・切り戻し運用手順が異なって大変?!運用性の大幅改善、その先に。。 複数DBのバックアップ・切り戻し運用手順が異なって大変?!運用性の大幅改善、その先に。。
複数DBのバックアップ・切り戻し運用手順が異なって大変?!運用性の大幅改善、その先に。。 Insight Technology, Inc.
 
[db tech showcase Tokyo 2014] B33: 超高速データベースエンジンでのビッグデータ分析活用事例 by 株式会社日立製作所 ...
[db tech showcase Tokyo 2014] B33: 超高速データベースエンジンでのビッグデータ分析活用事例  by 株式会社日立製作所 ...[db tech showcase Tokyo 2014] B33: 超高速データベースエンジンでのビッグデータ分析活用事例  by 株式会社日立製作所 ...
[db tech showcase Tokyo 2014] B33: 超高速データベースエンジンでのビッグデータ分析活用事例 by 株式会社日立製作所 ...Insight Technology, Inc.
 
AWS IoT Eventsで遊んでみた
AWS IoT Eventsで遊んでみたAWS IoT Eventsで遊んでみた
AWS IoT Eventsで遊んでみたKen'ichirou Kimura
 
事例から探る Oracle APEX 成功パターン
事例から探る Oracle APEX 成功パターン事例から探る Oracle APEX 成功パターン
事例から探る Oracle APEX 成功パターン良 亀井
 

Similar to データマート対応した話 (20)

[db tech showcase Tokyo 2017] C25: 世界最速のAnalytic DBがHadoopとタッグを組んだ! ~スケールアウト検...
[db tech showcase Tokyo 2017] C25: 世界最速のAnalytic DBがHadoopとタッグを組んだ! ~スケールアウト検...[db tech showcase Tokyo 2017] C25: 世界最速のAnalytic DBがHadoopとタッグを組んだ! ~スケールアウト検...
[db tech showcase Tokyo 2017] C25: 世界最速のAnalytic DBがHadoopとタッグを組んだ! ~スケールアウト検...
 
[db analytics showcase Sapporo 2017] B27:世界最速のAnalytic DBはHadoopの夢を見るか by 株式会...
[db analytics showcase Sapporo 2017] B27:世界最速のAnalytic DBはHadoopの夢を見るか by 株式会...[db analytics showcase Sapporo 2017] B27:世界最速のAnalytic DBはHadoopの夢を見るか by 株式会...
[db analytics showcase Sapporo 2017] B27:世界最速のAnalytic DBはHadoopの夢を見るか by 株式会...
 
マーケティングテクノロジー勉強会
マーケティングテクノロジー勉強会マーケティングテクノロジー勉強会
マーケティングテクノロジー勉強会
 
おすすめインフラ! for スタートアップ
おすすめインフラ! for スタートアップおすすめインフラ! for スタートアップ
おすすめインフラ! for スタートアップ
 
Jazug-8th: Azure AKS & FIWARE & Robot
Jazug-8th: Azure AKS & FIWARE & RobotJazug-8th: Azure AKS & FIWARE & Robot
Jazug-8th: Azure AKS & FIWARE & Robot
 
空気を読む家のキッチン(3-3)
空気を読む家のキッチン(3-3)空気を読む家のキッチン(3-3)
空気を読む家のキッチン(3-3)
 
Beginner must-see! A future that can be opened by learning Hadoop
Beginner must-see! A future that can be opened by learning HadoopBeginner must-see! A future that can be opened by learning Hadoop
Beginner must-see! A future that can be opened by learning Hadoop
 
データサイエンティスト協会 木曜勉強会 #02 講演2:『ビッグデータの0次分析手法と適用例のご紹介 ~俯瞰から始まる企業内ビッグデータの活用~』
データサイエンティスト協会 木曜勉強会 #02 講演2:『ビッグデータの0次分析手法と適用例のご紹介 ~俯瞰から始まる企業内ビッグデータの活用~』データサイエンティスト協会 木曜勉強会 #02 講演2:『ビッグデータの0次分析手法と適用例のご紹介 ~俯瞰から始まる企業内ビッグデータの活用~』
データサイエンティスト協会 木曜勉強会 #02 講演2:『ビッグデータの0次分析手法と適用例のご紹介 ~俯瞰から始まる企業内ビッグデータの活用~』
 
第4回SIA研究会(例会)プレゼン資料1_ m2 soft 紹介資料
第4回SIA研究会(例会)プレゼン資料1_ m2 soft 紹介資料第4回SIA研究会(例会)プレゼン資料1_ m2 soft 紹介資料
第4回SIA研究会(例会)プレゼン資料1_ m2 soft 紹介資料
 
第11回SIA例会プレゼン資料
第11回SIA例会プレゼン資料第11回SIA例会プレゼン資料
第11回SIA例会プレゼン資料
 
Cloudera Impalaをサービスに組み込むときに苦労した話
Cloudera Impalaをサービスに組み込むときに苦労した話Cloudera Impalaをサービスに組み込むときに苦労した話
Cloudera Impalaをサービスに組み込むときに苦労した話
 
MBAAで覚えるDBREの大事なおしごと
MBAAで覚えるDBREの大事なおしごとMBAAで覚えるDBREの大事なおしごと
MBAAで覚えるDBREの大事なおしごと
 
一枚岩なレガシーシステムを ラクスルではどのようにRebuildしているのか?
一枚岩なレガシーシステムを ラクスルではどのようにRebuildしているのか?一枚岩なレガシーシステムを ラクスルではどのようにRebuildしているのか?
一枚岩なレガシーシステムを ラクスルではどのようにRebuildしているのか?
 
PostgreSQLによるデータ分析ことはじめ
PostgreSQLによるデータ分析ことはじめPostgreSQLによるデータ分析ことはじめ
PostgreSQLによるデータ分析ことはじめ
 
ログについて改めて考えてみた
ログについて改めて考えてみたログについて改めて考えてみた
ログについて改めて考えてみた
 
RT ミドルウェアの IoT プラットフォームへの適用
RT ミドルウェアの IoT プラットフォームへの適用RT ミドルウェアの IoT プラットフォームへの適用
RT ミドルウェアの IoT プラットフォームへの適用
 
複数DBのバックアップ・切り戻し運用手順が異なって大変?!運用性の大幅改善、その先に。。
複数DBのバックアップ・切り戻し運用手順が異なって大変?!運用性の大幅改善、その先に。。 複数DBのバックアップ・切り戻し運用手順が異なって大変?!運用性の大幅改善、その先に。。
複数DBのバックアップ・切り戻し運用手順が異なって大変?!運用性の大幅改善、その先に。。
 
[db tech showcase Tokyo 2014] B33: 超高速データベースエンジンでのビッグデータ分析活用事例 by 株式会社日立製作所 ...
[db tech showcase Tokyo 2014] B33: 超高速データベースエンジンでのビッグデータ分析活用事例  by 株式会社日立製作所 ...[db tech showcase Tokyo 2014] B33: 超高速データベースエンジンでのビッグデータ分析活用事例  by 株式会社日立製作所 ...
[db tech showcase Tokyo 2014] B33: 超高速データベースエンジンでのビッグデータ分析活用事例 by 株式会社日立製作所 ...
 
AWS IoT Eventsで遊んでみた
AWS IoT Eventsで遊んでみたAWS IoT Eventsで遊んでみた
AWS IoT Eventsで遊んでみた
 
事例から探る Oracle APEX 成功パターン
事例から探る Oracle APEX 成功パターン事例から探る Oracle APEX 成功パターン
事例から探る Oracle APEX 成功パターン
 

More from 株式会社オプト 仙台ラボラトリ

More from 株式会社オプト 仙台ラボラトリ (6)

クラウド入門(AWS編)
クラウド入門(AWS編)クラウド入門(AWS編)
クラウド入門(AWS編)
 
失敗から学ぶAWSの監視
失敗から学ぶAWSの監視失敗から学ぶAWSの監視
失敗から学ぶAWSの監視
 
フレームワークも使っていないWebアプリをLaravel+PWAでモバイルアプリっぽくしてみちゃう
フレームワークも使っていないWebアプリをLaravel+PWAでモバイルアプリっぽくしてみちゃうフレームワークも使っていないWebアプリをLaravel+PWAでモバイルアプリっぽくしてみちゃう
フレームワークも使っていないWebアプリをLaravel+PWAでモバイルアプリっぽくしてみちゃう
 
RPAって何、どんなことできるの
RPAって何、どんなことできるのRPAって何、どんなことできるの
RPAって何、どんなことできるの
 
業務の自動化をはじめよう!!
業務の自動化をはじめよう!!業務の自動化をはじめよう!!
業務の自動化をはじめよう!!
 
RPA(ロボティック・プロセ ス・オートメーション) 仮想労働者の雇い方
RPA(ロボティック・プロセ ス・オートメーション) 仮想労働者の雇い方RPA(ロボティック・プロセ ス・オートメーション) 仮想労働者の雇い方
RPA(ロボティック・プロセ ス・オートメーション) 仮想労働者の雇い方
 

データマート対応した話

  • 1. © Opt, Inc. All Rights Reserved. データマート対応した話 株式会社オプト 仙台テクノロジー開発部 第2回タガヤス登壇資料 
  • 2. © Opt, Inc. All Rights Reserved. 自己紹介 - 佐藤宏(不惑) - 株式会社オプト 仙台テクノロジー開発部 所属 - 2011年入社 - シニアエンジニア
  • 3. © Opt, Inc. All Rights Reserved. 不惑って(いきなり余談) 子曰、 吾十有五而志于学、 三十而立、 四十而不惑、 五十而知天命、 六十而耳順、 七十而従心所欲、不踰矩。
  • 4. © Opt, Inc. All Rights Reserved. Amazon Redshift 始めました(2016年) ※dc2.8xlargeを前提
  • 5. © Opt, Inc. All Rights Reserved. Redshift が向いている利用シーン 1. 大量データを扱う 2. 分散処理技術に詳しいインフラエンジニアがいな い・少ない
  • 6. © Opt, Inc. All Rights Reserved. Redshift が向いている利用シーン(1) - 大量データを扱う - 大量データを短時間で登録 - 大量データを分析するクエリが実行可 - テーブルへカラム追加が容易
  • 7. © Opt, Inc. All Rights Reserved. Redshift が向いている利用シーン(2) - 分散処理技術に詳しいインフラエンジニアがいな い・少ない - フルマネージド
  • 8. © Opt, Inc. All Rights Reserved. Redshift って凄い 思っている事が何でもできそう
  • 9. © Opt, Inc. All Rights Reserved. 魔法のシステムではない 得意・不得意がある
  • 10. © Opt, Inc. All Rights Reserved. Redshift の向いている処理って?
  • 11. © Opt, Inc. All Rights Reserved. 得意な事 - オンライン分析処理(OLAP) - 大量のデータを素早く集計する - 大量のデータを容易に取り込める(from S3)
  • 12. © Opt, Inc. All Rights Reserved. 不得意な事 - オンライントランザクション処理(OLTP) - オンラインサービスのバックエンドには向かない - 複雑なロジックを埋め込んだクエリ(経験則)
  • 13. © Opt, Inc. All Rights Reserved. Redshift の特徴が 分かったところで
  • 14. © Opt, Inc. All Rights Reserved. 素早いレスポンス速度とは? あなたが感じる「速さ」とは...
  • 15. © Opt, Inc. All Rights Reserved. シンキングタイム...
  • 16. © Opt, Inc. All Rights Reserved. 例えば - 検索サイトでの応答速度 - ECサイトやSNSの画面表示 - 100MByteのファイルのDL時間
  • 17. © Opt, Inc. All Rights Reserved. 速度って - 速度だけだと抽象的な言葉 - 想定シーンで異なる - 個人の主観でも異なる
  • 18. © Opt, Inc. All Rights Reserved. 抽象的なままだとどうなるか - 主観が入り込む - 想定が異なる - 認識相違が生じやすい
  • 19. © Opt, Inc. All Rights Reserved. 例えば - 数千万単位のデータから集計するクエリを秒単位 で応答を返している
  • 20. © Opt, Inc. All Rights Reserved. 開発者の視点 - 通常のRDBだとこんなレスポンスはでない - めっちゃ速い
  • 21. © Opt, Inc. All Rights Reserved. 利用者の視点 - Webシステムで1,2秒レスポンスにかかったら遅 い - 裏側の仕組みなんて知ったことではない
  • 22. © Opt, Inc. All Rights Reserved. 立場が違うから仕方ない?
  • 23. © Opt, Inc. All Rights Reserved. 非機能要件 - 性能や信頼性,拡張性,セキュリティなど,機能 要件以外 - 具体的な数値を提示する
  • 24. © Opt, Inc. All Rights Reserved. 例えば 機能Xは、応答に10秒かかる
  • 25. © Opt, Inc. All Rights Reserved. 機能Xに10秒 1. 数百MByteのファイルをダウンロードする機能 2. 仙台の日ごと(1か月分)の最高気温が表示され る機能 - 結果は31件程度のデータ - 日本全国の観測地点の1か月分データ
  • 26. © Opt, Inc. All Rights Reserved. Redshiftの得意な事 - 大量のデータを扱うのは得意 - 集計したデータを別テーブルに用意しておけば、 さらに早くなるのでは?
  • 27. © Opt, Inc. All Rights Reserved. Redshiftの苦手な事 - 少量のデータでも時間がかかる - 1秒弱くらい - 内部的な処理でオーバーヘッドがかかる
  • 28. © Opt, Inc. All Rights Reserved. そもそも少量データならRedshift じゃない方がいい
  • 29. © Opt, Inc. All Rights Reserved. データマートを作ろう
  • 30. © Opt, Inc. All Rights Reserved. その前に…
  • 31. © Opt, Inc. All Rights Reserved. インターネットの広告って?
  • 32. © Opt, Inc. All Rights Reserved. こことか ここも これは、 ディスプレイ広告
  • 33. © Opt, Inc. All Rights Reserved. こことか キーワード広告。 サーチ、 リスティング広告 といいます
  • 34. © Opt, Inc. All Rights Reserved. Yahoo! 広告A 広告B 広告C Google 広告A 広告B 広告C Facebook 広告A 広告B 広告C Twitter 広告A 広告B 広告C 佐藤工務店
  • 35. © Opt, Inc. All Rights Reserved. Yahoo! KW1 KW2 KW3 Google KW1 KW2 KW3 Facebook 広告A 広告B 広告C Twitter 広告A 広告B 広告C 佐藤工務店
  • 36. © Opt, Inc. All Rights Reserved. 媒体(アカウント) キャンペーンキャンペーン 広告グループ広告グループ広告グループ KW1 KW2 KW3 広告A 広告B 広告C 広告グループ KW1 KW2 KW3 広告A 広告B 広告C
  • 37. © Opt, Inc. All Rights Reserved. データ種別 1か月分の日別レコード数 アカウント 8万~12万 キャンペーン 20万~60万 広告 600万~1200万 キーワード 1000万~2000万 ※概算のレコード数
  • 38. © Opt, Inc. All Rights Reserved. キャンペーン データマートを作ろう
  • 39. © Opt, Inc. All Rights Reserved. まずはRedshiftから データを出力しよう
  • 40. © Opt, Inc. All Rights Reserved. Redshiftからのデータ移行 - 基本はS3へのエクスポート - S3に出力したデータを他のDBに取り込む
  • 41. © Opt, Inc. All Rights Reserved. もう少しリアルタイムに連携した い
  • 42. © Opt, Inc. All Rights Reserved. dblink
  • 43. © Opt, Inc. All Rights Reserved. dblinkって - 他のデータベースをSQLから直接操作できるモ ジュール - 分散環境で複数のデータベースをまたがる処理 を行うことができる
  • 44. © Opt, Inc. All Rights Reserved. データマートに使うDBは? - RedshiftはPostgreSQL 8.0.2から派生 - RedshiftがPostgreSQLのtcpプロトコルで接続で きるためdblinkで接続可 - PostgreSQL側からRedshiftへ接続できる - Redshiftのクエリ結果を受け取れる(データを そのまま登録できる)
  • 45. © Opt, Inc. All Rights Reserved. データマートに使うDBは? - PostgreSQLで確定!! - Amazon Aurora with PostgreSQL(まだ日本リージョンに は来ていないが)
  • 46. © Opt, Inc. All Rights Reserved. dblinkを使う準備
  • 47. © Opt, Inc. All Rights Reserved. CREATE EXTENSION postgres_fdw; CREATE EXTENSION dblink; CREATE SERVER [外部サーバ名] FOREIGN DATA WRAPPER postgres_fdw OPTIONS ( host 'xxx.xxx.xxx.xxx', -- Redshiftのホスト port 'nnnn', -- Redshiftのポート dbname 'xxxx' -- Redshiftのデータベース ); CREATE USER MAPPING FOR [ユーザ名] SERVER [外部サーバ名] OPTIONS ( user 'user_id', -- Redshiftの接続ユーザ password 'user_pswd' -- Redshiftの接続ユーザパスワード );
  • 48. © Opt, Inc. All Rights Reserved. dblinkを使ったクエリ
  • 49. © Opt, Inc. All Rights Reserved. INSERT INTO [Postgresqlテーブル名] SELECT * FROM dblink('[外部サーバ名]',$REDSHIFT$ SELECT account_id,campaign_id,day,SUM(cost) FROM [Redshiftテーブル名] GROUP BY account_id,campaign_id,day $REDSHIFT$ ) AS t1 ( ac_id VARCHAR(255),cp_id BIGINT,rp_date DATE,cost BIGINT);
  • 50. © Opt, Inc. All Rights Reserved. INSERT INTO [Postgresqlテーブル名] SELECT * FROM dblink('[外部サーバ名]',$REDSHIFT$ SELECT account_id,campaign_id,day,SUM(cost) FROM [Redshiftテーブル名] GROUP BY account_id,campaign_id,day $REDSHIFT$ ) AS t1 ( ac_id VARCHAR(255),cp_id BIGINT,rp_date DATE,cost BIGINT);$REDSHIFT$ で囲まれた文字列は、Redshiftに送られるクエリ CREATE SERVERの名前と合わせる
  • 51. © Opt, Inc. All Rights Reserved. INSERT INTO [Postgresqlテーブル名] SELECT * FROM dblink('[外部サーバ名]',$REDSHIFT$ SELECT account_id,campaign_id,day,SUM(cost) FROM [Redshiftテーブル名] GROUP BY account_id,campaign_id,day $REDSHIFT$ ) AS t1 ( ac_id VARCHAR(255),cp_id BIGINT,rp_date DATE,cost BIGINT); Redshiftで実行されたクエリの結果セット(データ型など)を指定
  • 52. © Opt, Inc. All Rights Reserved. INSERT INTO [Postgresqlテーブル名] SELECT * FROM dblink('[外部サーバ名]',$REDSHIFT$ SELECT account_id,campaign_id,day,SUM(cost) FROM [Redshiftテーブル名] GROUP BY account_id,campaign_id,day $REDSHIFT$ ) AS t1 ( ac_id VARCHAR(255),cp_id BIGINT,rp_date DATE,cost BIGINT);
  • 53. © Opt, Inc. All Rights Reserved. 最後に(まとめ)
  • 54. © Opt, Inc. All Rights Reserved. データマートの導入の前に - よく使われるデータで集計しておく - そもそものデータ量が減る
  • 55. © Opt, Inc. All Rights Reserved. データマートの導入結果 - 応答時間がミリ秒単位 - 小さいクエリを捌く事が得意なDBを使う
  • 56. © Opt, Inc. All Rights Reserved. データマートからの応答速度 - 複数媒体&複数月のデータから返す場合 48秒(Redshift)→1秒弱(PostgreSQL) - 純粋に1媒体&1か月のデータから返す場合 1秒(Redshift)→0.1秒(PostgreSQL)
  • 57. © Opt, Inc. All Rights Reserved. データ種別 1か月分の日別レコード数 アカウント 8万~12万 キャンペーン 20万~60万 広告グループ 300万~500万 広告 600万~1200万 キーワード 1000万~2000万 ※概算のレコード数
  • 58. © Opt, Inc. All Rights Reserved. 最後に - 大量のデータをデータマートに持ってきてもレスポ ンスは出ない
  • 59. © Opt, Inc. All Rights Reserved. ご清聴ありがとうございました