SlideShare una empresa de Scribd logo
1 de 133
DataWorksハンズオン
SBクラウド株式会社
技術部 テクニカルコンサル課
(2019/04/00)
ハンズオンで想定するデータパイプライン
2
ログ・業務データ等の
ローデータ
分散
ストレージ
バッチ処理
データを蓄積 データを集計・加工
データマート
分析用に一部を抽出 可視化ツールで
レポート閲覧
ハンズオンシステム構成図
3
OSS
ローカルPC
レポート
閲覧
データ収集 データ蓄積 データ処理 データ準備 データ利用
Action Trail
(監査サービス)
RDS
ワークフロー作成
Data V
アップロード
Data
Integration
DataStudio
Max Compute
テーブル
(入力データ)
SQL
テーブル
(出力データ)
Data
Integration
監査レポート
閲覧
CSV
VPC
root
ユーザー
一般
ユーザー
root
ユーザー
Alibaba Cloud
作業の流れ
4
③DataWorks作業
DataWorksAccessKey設定
Project作成
データソース設定
②OSS
Bucket作成
コンテンツアップロード
⑥DataV
サービス有効化(購入)
Project作成
⑤RDS
サービス有効化(購入)
DB作成
①RAM
RAMユーザ作成
ロール作成
Step1. 環境構築
④VPC
VPC作成
vSwitch作成
作業の流れ
5
Step1. 環境構築
# プロダクト 作業内容
1 RAM RAMユーザ作成
ロール作成
2 OSS Bucket作成
データアップロード
3 DataWorks DataWorksAccessKey設定
Project作成
データソース設定
4 VPC VPC作成
vSwitch作成
5 RDS サービス有効化(購入)
DB作成
6 DataV サービス有効化(購入)
Project作成
作業の流れ
6
②ノード作成
Virtual Node
ODPS SQL Node
Data Sync Node
Step2-1. データ同期設定
①BusinessFlow作成
③Nodeの依頼関係設定
Start
④スケジュール設定
⑤JOBのSumbit
①データソース設定
Step2-2. JOB作成 Step2-3. JOB実施状況確認
①JOB実施状況確認
サンプルデータダウンロード
7
下記のURLよりダウンロード
https://sbc-assets.oss-ap-northeast-1.aliyuncs.com/dataworks_handson/sampletweet.csv
Step1.環境構築
ー プロダクトの購入とインスタンス作成 ー
RAM
サービス有効化
RAMユーザー作成
権限付与ポリシー編集
9
ドキュメントURL:
https://jp.alibabacloud.com/help/product/28625.htm?spm=a21mg.m28257.a1.48.121a2f9fZnHaFs
10
アカウント種別 アカウント名 用途
root (メールアドレス) 普段は使用しません。
環境構築など、rootアカウントが必要な操作を行う場合のみ使用します。
RAM bigdata ユーザーのログイン用アカウントです。
普段はこちらのアカウントでコンソールにログインします。
RAM di Data Integration専用アカウントです。
Data IntegrationがOSS・RDSにアクセスするのに使用します。
今回の環境では以下のアカウントを使用します。
次ページからRAMアカウントを作成していきます。
RAM アカウント一覧
コンソールからRAMへ
11
①
②
RAM ユーザー作成(1)
12
①
②
RAM ユーザー作成(2)
13
設定項目 値
ログイン名 bigdata
表示名 bigdata
【ID: bigdata】
設定項目 値
ログイン名 di
表示名 fordi
【ID: di】
RAM 権限付与ポリシー編集(1)
14
①
②
RAM 権限付与ポリシー編集(2)
15
ポリシーを選択して権限ポリシー
に追加
設定項目 値
追加する権限付与ポリシー AdministratorAccess
【ID: bigdata】
【ID: di】
設定項目 値
追加する権限付与ポリシー AliyunOSSFullAccess
AliyunRDSFullAccess
RAM AccessKeyの作成(1)
16
①
②
“di”ユーザーのAccessKeyを後工程で使用するので、作成します。
RAM AccessKeyの作成(2)
17
AccessKeyを保存します。
「AK情報を保存」をクリックするとCSVダウンロードが可能です。
OSS
購入・バケット作成
デモデータアップロード
18
ドキュメントURL:
https://jp.alibabacloud.com/help/product/31815.htm?spm=a21mg.m28257.a1.8.121a2f9fAyMp7z
ハンズオンシステム構成図
19
OSS
ローカルPC
レポート
閲覧
データ収集 データ蓄積 データ処理 データ準備 データ利用
Action Trail
(監査サービス)
RDS
ワークフロー作成
Data V
アップロード
Data
Integration
DataStudio
Max Compute
テーブル
(入力データ)
SQL
テーブル
(出力データ)
Data
Integration
監査レポート
閲覧
CSV
VPC
root
ユーザー
一般
ユーザー
root
ユーザー
Alibaba Cloud
OSS(Object Storage Service)とは
20
コンソールからOSSへ
21
①
②
バケットの作成(1)
22
バケットの作成(2)
23
設定項目 値
パケット名 twitter-rawdata<ランダムな数字>
※パケット名はユニークである必要
があります
リージョン Japan(Tokyo)
ストレージクラス 標準ストレージ
ACL 非公開
デモデータのアップロード(1)
24
デモデータのアップロード(2)
25
設定項目 値
アップロード カレントディレクトリ
ファイルACL パケットから継承
アップロード デモ用ファイル(sampletweet.csv)
「アップロード」を
クリック
デモデータのアップロード(3)
26
OSSにファイルをアップロードできました。
DataWorks AccessKey 設定(初回アクセス時)
27
DataWorksのタスク実行を円滑にするため、DataWorksにAccess Keyを設定します。
AccessKeyはAlibaba Cloudサービス間の認証のために使用されます。
詳細は下記を参照してください。
https://jp.alibabacloud.com/help/doc-detail/74246.htm
ハンズオンシステム構成図
28
OSS
ローカルPC
レポート
閲覧
データ収集 データ蓄積 データ処理 データ準備 データ利用
Action Trail
(監査サービス)
RDS
ワークフロー作成
Data V
アップロード
Data
Integration
DataStudio
Max Compute
テーブル
(入力データ)
SQL
テーブル
(出力データ)
Data
Integration
監査レポート
閲覧
CSV
VPC
root
ユーザー
一般
ユーザー
root
ユーザー
Alibaba Cloud
AccessKey取得(1)
29
①
②
rootユーザーのAccessKeyを取得します。
AccessKey取得(2)
30
AccessKey取得(3)
31
AccessKeyを保存します。
「AK情報を保存」をクリックするとCSVダウンロードが可能です。
コンソールからビックデータ概要へ
32
①
②
DataWorks AccessKey 設定(1)
33
DataWorks AccessKey 設定(2)
34
DataWorks AccessKey 設定(3)
35
作成したAccessKeyのIDとSecretを設定します。
設定項目 値
AccessKey ID 先の手順で作成したもの
AccessKey
Secret
先の手順で作成したもの
Dataworks
購入・プロジェクト作成
36
ドキュメントURL:
https://jp.alibabacloud.com/help/product/72772.htm?spm=a21mg.m28257.a1.41.d7b92f9fLjwFWc
コンソールからDataworksへ
37
①
②
MaxComputeの購入(1)
38
“Go buy”をクリックし、購入画面に進み
ます。
MaxComputeの購入(2)
39
「東京(日本)」リージョンを選択
Data Integrationの購入(1)
40
“Go buy”をクリックし、購入画面に進み
ます。
Data Integrationの購入(2)
41
「アジア太平洋NE1(日本)」を選択
WorkSpaceを作成(初回作成画面)
42
設定項目 値
project name 任意
WorkSpaceの作成完了
43
作成したWorkSpaceが表示されています。
クリックするとDataStudio画面に遷移する。
VPC
サービス有効化
VPC作成・vSwitch作成
44
ドキュメントURL:
https://jp.alibabacloud.com/help/product/27706.htm?spm=a21mg.m28257.a1.19.ef882f9fBf0VbT
ハンズオンシステム構成図
45
OSS
ローカルPC
レポート
閲覧
データ収集 データ蓄積 データ処理 データ準備 データ利用
Action Trail
(監査サービス)
RDS
ワークフロー作成
Data V
アップロード
Data
Integration
DataStudio
Max Compute
テーブル
(入力データ)
SQL
テーブル
(出力データ)
Data
Integration
監査レポート
閲覧
CSV
VPC
root
ユーザー
一般
ユーザー
root
ユーザー
Alibaba Cloud
コンソールからVPCへ
46
①
②
VPC作成(1)
47
「VPCの作成」をクリック
VPC作成(2)
48
大項目 小項目 値
VPC
名前 任意
例)bigdata-vpc
IPv4 CIDR ブロック 例)
192.168.0.0/16
vSwitch
名前 任意
例)bigdata-vswitch
ゾーン Tokyo Zone A
RDS
サービス有効化・DB作成
設定
49
ドキュメントURL:
https://jp.alibabacloud.com/help/product/26090.htm?spm=a21mg.m28257.a1.12.5e4d2f9fXdHbOO
ハンズオンシステム構成図
50
OSS
ローカルPC
レポート
閲覧
データ収集 データ蓄積 データ処理 データ準備 データ利用
Action Trail
(監査サービス)
RDS
ワークフロー作成
Data V
アップロード
Data
Integration
DataStudio
Max Compute
テーブル
(入力データ)
SQL
テーブル
(出力データ)
Data
Integration
監査レポート
閲覧
CSV
VPC
root
ユーザー
一般
ユーザー
root
ユーザー
Alibaba Cloud
コンソールからRDSへ
51
①
②
RDS DB作成(1)
52
RDS DB作成(2)
53
「従量課金」をクリック 設定項目 値
リージョン 日本
DBエンジン MySQL
バージョン 5.6
エディション ハイアベイラビリティ
ストレージタイプ ローカルSSD
ゾーン マルチゾーン(ゾーンA+ゾーンB)
RDS DB作成(3)
54
大項目 小項目 値
ネットワーク タイプ VPC
VPC bigdata-vpc
vSwitch bigdata-vswitch
インスタンス
タイプ
タイプ 1コア、1GB(インスタン
スタイプコード:
rds.mysql.t1.small)
ストレージ 容量 5GB
購入プラン 数量 1
RDS ホワイトリスト設定(1)
55
RDS ホワイトリスト設定(2)
56
RDS ホワイトリスト設定(3)
57
設定項目 値
ネットワーク分離
モード
VPC(既定)
グループ名 任意
例)bigdata
ホワイトリスト 以下のIPアドレスをコンマ区切りで入
力してください。
・DataWorksのJapanリージョンのIP
アドレス
IPアドレス一覧は下記参照
https://jp.alibabacloud.com/help/doc-
detail/72977.htm
・ローカルPCのIPアドレス
下記サイトで調べることができます。
https://www.cman.jp/network/support/g
o_access.cgi
RDS アカウント作成(1)
58
①
②
RDS アカウント作成(2)
59
設定項目 値
データベースアカ
ウント
bigdata
アカウントタイプ 特権アカウント
パスワード 任意
RDS データベース作成(1)
60
① ②
RDS データベース作成(2)
61
設定項目 値
データベース(DB)
名
twitter
サポートされる文
字コード
utf8
許可されたアカウ
ント
空欄
(何も操作しなくてOKです)
RDS テーブル作成(1)
62
①
②
③
RDS テーブル作成(2)
63
次の作業で使うので、「インターネットアドレ
ス」をコピーしてください。
RDS テーブル作成(1)
64
MySQLクライアントソフトでRDSに接続し、テーブルを作成します。
このハンズオンではクライアントソフトとしてSequel Proを使用します。
※SequelPro… MacOS専用のクライアントソフト。 https://www.sequelpro.com/
設定項目 値
名前 任意
ホスト RDSのインターネットアドレス
(例:rm-
XXXX.mysql.japan.rds.aliyuncs.com
)
ユーザ名 bigdata
パスワード (bigdataのパスワード)
データベース (空欄でOK)
ポート (空欄でOK)
SSLを使用して接
続
チェックしない
RDS テーブル作成(2)
65
①”twitter”をクリック
②「クエリ」をクリック
④「前を実行」をクリック
③SQL文を入力
(SQL文は次スライドを参
照)
RDS テーブル作成(3)
66
CREATE TABLE `lang_count` (
`lang` varchar(100) DEFAULT NULL,
`count` varchar(100) DEFAULT NULL
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
出力テーブル作成
RDS テーブル作成(4)
67
テーブルが作成されました。
DataV
サービス有効化・Project作成
68
ドキュメントURL:
https://jp.alibabacloud.com/help/product/43570.htm?spm=a21mg.m28257.a1.43.23172f9f6z3bBj
ハンズオンシステム構成図
69
OSS
ローカルPC
レポート
閲覧
データ収集 データ蓄積 データ処理 データ準備 データ利用
Action Trail
(監査サービス)
RDS
ワークフロー作成
Data V
アップロード
Data
Integration
DataStudio
Max Compute
テーブル
(入力データ)
SQL
テーブル
(出力データ)
Data
Integration
監査レポート
閲覧
CSV
VPC
root
ユーザー
一般
ユーザー
root
ユーザー
Alibaba Cloud
コンソールからDataVへ
70
①
②
DataV 購入
71
設定項目 値
リージョン 日本
バージョン ベーシック
購入期間 1年
DataV プロジェクト作成(1)
72
DataV プロジェクト作成(2)
73
①”Blank Canvas”を選択
②”作成する”をクリック
PoC環境構築
Step2-1. データソース設定
ー データソースを設定 ー
ハンズオンシステム構成図
75
OSS
ローカルPC
レポート
閲覧
データ収集 データ蓄積 データ処理 データ準備 データ利用
Action Trail
(監査サービス)
RDS
ワークフロー作成
Data V
アップロード
Data
Integration
DataStudio
Max Compute
テーブル
(入力データ)
SQL
テーブル
(出力データ)
Data
Integration
監査レポート
閲覧
CSV
VPC
root
ユーザー
一般
ユーザー
root
ユーザー
Alibaba Cloud
Data Integrationの設定
76
Data Integrationをクリック
DataWorksの管理コンソール画面から、
対象のPJの「Enter Project」ボタンク
リックし、「DataStudio」画面に遷移
する。
Data Integrationの設定
77
①
②
MaxComputeのテーブルのコネクタ、
デフォルトに作られる。
78
OSSデータソースの設定(1)
OSSデータソースの設定(2)
79
設定項目 値
Data Source Name raw_data
Description 任意
Endpoint oss-ap-northeast-1-
internal.aliyuncs.com
Bucket twitter-rawdata<ランダム
な数字>
(パケット作成したもの)
Accesskey ID (RAMユーザー「di」作成
時に作成したAccessKeyの
情報を入力)
AccessKey Secret (RAMユーザー「di」作成
時に作成したAccessKeyの
情報を入力)
接続テストにパスしたら
Completeをクリック
(参考) OSS情報の参照箇所
80
Bucket名
Endpoint
OSSデータソースの設定(3)
81
先ほど設定したOSSデータソースがこちらに表示されています
RDSデータソースの設定(1)
82
RDSデータソースの設定(2)
83
設定項目 値
Data Source
Name
twitter
RDS Instance ID (次スライド参照)
RDS Instance
Account
(次スライド参照)
Database Name twitter
Username bigdata
Password RDS作成時に作ったもの
接続テストにパスしたら
Completeをクリック
参考:RDS情報の参照箇所
84
RDS Instance ID
RDS Instance
Account
Database Name
RDSデータソースの設定(3)
85
先ほど設定したRDSデータソースがこちらに表示されています
Step2−2DataWorksでのJOB作成
ー DataWorks作業ー
ハンズオンシステム構成図
87
OSS
ローカルPC
レポート
閲覧
データ収集 データ蓄積 データ処理 データ準備 データ利用
Action Trail
(監査サービス)
RDS
ワークフロー作成
Data V
アップロード
Data
Integration
DataStudio
Max Compute
テーブル
(入力データ)
SQL
テーブル
(出力データ)
Data
Integration
監査レポート
閲覧
CSV
VPC
root
ユーザー
一般
ユーザー
root
ユーザー
Alibaba Cloud
3.リリース&実行状況確認
DataWorksでの作業の流れ
88
1.JOB・テーブル作成
②
③
①
毎日12時間間隔で実行したい
②
③
①
②
③
①
0時
②
③
①
12時
インスタンス
生成
BusinessFlow
BusinessFlow
2.スケジュール・依存関係設定
「1.Job・テーブル作成」の流れ
89
下準備
1. 入力テーブルを作成
2. BusinessFlowを作成
※出力テーブルはJobで都度作成するの
で下準備では作成しません。
Business Flow
Job
入力
テーブル
OSS
Job
DataWorks
出力
テーブル
RDS
本作業
1. Job作成
DataWorksプロジェクトを開く
90
①Alibabaコンソール上で
「DataWorks」をクリックする
②対象のPJを選択し、
「Enter Project」ボタンをクリック
する
入力テーブル作成
91
Tips:
[|||]マークをクリックし、
サイドメニューを開くことができます
入力テーブル作成
92
設定項目 値
Node Name createtable_rawdata
①SQL文を入力
(次スライド参照)
②実行ボタンをクリック
入力テーブル作成
93
CREATE TABLE `raw_data` (
`created_at` string COMMENT 'ツイートの投稿日時',
`id` string COMMENT 'ツイートid',
`text` string COMMENT 'ツイート本文',
`source` string COMMENT 'ツイートに使用されたクライアント',
`user_id` string COMMENT 'ユーザーid',
`user_name` string COMMENT 'ユーザー名',
`user_creen_name` string COMMENT 'ユーザーのスクリーンネーム',
`user_created_at` string COMMENT 'ユーザー作成の日時',
`user_lang` string COMMENT 'ユーザーの言語',
`user_followers_count` string COMMENT 'ユーザーのフォロワー数',
`user_friends_count` string COMMENT 'ユーザーのフォロー数',
`user_statuses_count` string COMMENT 'ユーザーのツイート数',
`user_profile_background_image_url_https` string COMMENT 'ユーザーのプロフィールバックグラウンド写真のurl',
`user_profile_image_url` string COMMENT 'ユーザー写真のurl',
`lang` string COMMENT 'ツイート言語'
)
PARTITIONED BY (twitter_date string)
LIFECYCLE 100;
入力テーブルの作成には以下のSQL文を使用してください。
BusinessFlow作成
94
Tips:
[|||]マークをクリックし、
サイドメニューを開くことができ
ます
BusinessFlow作成
95
①「BusinessFlow」を右クリック
する。
②「Create Business Flow」を選
択する
方法1 方法2
アイコンをクリッ
クし、
「BusinessFlow」を選
択する
BusinessFlow作成
96
「BusinessFlowName」と
「Description」を入力した
上で、「Create」ボタンを
クリックする。
設定項目 値
BusinessFlowName handson
Description handson
BusinessFlow作成
97
名称 説明
Data Integration データ転送用に使用する
Data Analytics データ分析時に使用する
Table 生成されたテーブルを管理
する
Resource MPやその他のリソースの
管理用
Function MaxComputeで利用できる
関数一覧
Algorithm 機械学習Node
Control コントロールノード管理
一つのBusinessFlowで作成する要素がカテゴリ別に整理されて表示されます。
作成するワークフロー
98
【フロー開始Node】
仮想Node。処理は特に行わない。
【Data Integration Node(CSVから入力テーブル)】
OSS上のCSVファイルの中身を「Create_table」で作成した入力テー
ブル(raw_data)に同期する
【Data Integration Node(出力テーブルからRDS)】
出力テーブル(lang_count_data)のデータをRDSへ同期する
【SQL実行Node】
SQLを実行して集計を行うNode
言語別のツイート数の集計を行い、出力テーブル(lang_count_data)
に書き込む
【フロー終了Node】
仮想Node。処理は特に行わない。
Node一覧紹介(1)
99
中カテゴリ 小カテゴリ 説明
Data Integration
Data Sync DataIntegrationの同期Node
OSS(CSVやテキスト), 各種DBと同期ができる
Data Analytics
ODPS SQL MaxComputeへの問合せ時に使用するSQL Node
文法はHiveに似ている
SQL Component SQL文の定型文Node
PyODPS Python Node
Virtual Node 仮想Nodeで、計算などの処理は行わない。
一般的に処理の開始Node”start”として利用される
ODPS MR Map-Reduce Node
Jarファイルをアップし、MapReduce処理を行う
Node一覧紹介(2)
100
中カテゴリ 小カテゴリ 説明
Control
do-while 繰り返しNode、繰り返し処理が必要の時に使用する
Merge Node 上位二つ以上のNodeの輸出値を纏める時に使用する
Branch node 分岐Node、あらかじめ設定された条件により、分岐
を行う
※Assignment Nodeと一緒に使用する
Assignment Node Branch nodeに値を輸出時に使用する
※Branch Nodeと一緒に使用する
Cross-Tenant Node 他のアカウントのNodeへ通信する必要がある時使用
する
フロー開始Node 作成
101
①「Virtual Node」
をクリックする
② NodeNameを
入力し、「Submit」ボ
タンをクリックする
設定項目 値
Node Name start
Data Integration Node作成
102
①「DataSync」
をクリックする
②NodeNameを入力し、
「Submit」ボタンを
クリックする
設定項目 値
Node Name import_rawdata
Data Integration Node作成
103
対象のDIノードをダブル
クリックし、DIの設定画
面を開く
Data Integration Node作成
104
入力側(どこから)
の設定
出力側(どこへ)
の設定
Data Integration Node作成(Source)
105
名称 ”import_rawdata” Nodeの入
力項目
説明
Data Source OSS 事前に設定したデータソー
ス名
Object Name csvstore/sampletweet.csv OSS上取り込みたいファイ
ルのパス
File Type csv サポートファイルタイプ:
csv,text
Field Delimiter ,
Encoding UTF-8 SJISはサポート範囲外
Null String (空欄)
Compression Format None 圧縮対象:Gzip,Bzip2,Zip
Include Header No 実際のファイル内容に応じ
て選択
[Preview]ボタンをクリックし、対
象ファイルの中身を確認すること
ができます。
Data Integration Nodeは二つ作成します。
【”import_rawdata” Nodeのプロパティ】
Data Integration Node作成(Destination)
106
名称 入力項目 説明
Connection ODPS odps_first 事前に設定した項目名
Table raw_data 事前に作成したテーブル
名
Partition Key
Column
1 パーティションキー
Writing Rule Write with Original Data
Deleted (Insert Overwrite)
データの書き込み方式を
選択する
上書き、追記
Convert Empty
String to Null
No デフォルトはNo
Data Integration Nodeは二つ作成します。
【”import_rawdata” Nodeのプロパティ】
Data Integration Node作成(Source)
107
名称 ”import_rawdata” Nodeの入
力項目
説明
Data Source OSS 事前に設定したデータソー
ス名
Object Name csvstore/sampletweet.csv OSS上取り込みたいファイ
ルのパス
File Type csv サポートファイルタイプ:
csv,text
Field Delimiter ,
Encoding UTF-8 SJISはサポート範囲外
Null String (空欄)
Compression
Format
None 圧縮対象:Gzip,Bzip2,Zip
Include Header No 実際のファイル内容に応じ
て選択
Data Integration Nodeは二つ作成します。
【”export_lang_count” Nodeのプロパティ】
Data Integration Node作成(Destination)
108
名称 入力項目 説明
Data Source ODPS 事前に設定した項目名
Table raw_data 事前に作成したテーブル
名
Writing Rule Write with Original Data
Deleted (Insert Overwrite)
データの書き込み方式を
選択する
上書き、追記
Convert Empty
String to Null
No デフォルトはNo
Data Integration Nodeは二つ作成します。
【”export_lang_count” Nodeのプロパティ】
Data Integration Node作成(Mapping)
109
クリックする
Data Integration Node作成(Mapping)
110
①足りない行数を補充
する
②「OK」クリック
Data Integration Node作成(Mapping)
111
同行mappingを選択する
Data Integration Node作成(Mapping)
112
mapping結果を確認
Data Integration Node作成(Channel)
113
名称 入力項目
DMU 1
Concurrent Jobs 2
Bandwidth Throttling Disabled
DMU:同期タスクの実行に使用されるリソースの量。
Concurrent Jobs: 1 つの同期タスクで同時にデータソース
からデータを読み取る、またはターゲットデータソースに
データを書き込むために使用できるスレッドの最大数。
Bandwidth Throttling:同期速度の制限の有無
Data Integration Node作成
114
保存ボタンをクリックし、
設定画面を閉じる
SQL実行 Node作成
115
①「ODPS SQL」
をクリックする
設定項目 値
Node Name lang_count
②NodeNameを入力し、
「Submit」ボタンを
クリックする
SQL実行 Node作成
116
①SQL文を入力する
(次スライド参照)
②Saveをクリックして保存
SQL実行 Node作成
117
drop TABLE IF EXISTS lang_result;
create table lang_result as
select lang, count(lang) as count
from `twitter_csv`
where twitter_date = '1'
group BY lang;
SELECT * FROM lang_result;
スケジュール設定
118
②実施させたいスケジ
ュールを設定する
①設定対象Nodeを開き、
右側の「Schedule」を
クリックする
名称 入力項目
Instance Created Next Day
Schedule Normal
Recurrence Day
Specify Time チェック
Run At 任意
依頼関係を設定する
119
実行したい順番で
GUI上で並べます 線でNodeを結ぶ
Startノードの依頼関係設定
120
①Scheduleをクリックする
②Use Root Nodeをクリッ
クする
Jobの動作確認
121
実行ボタンをクリックする
Jobの動作確認(Logの確認方法)
122
対象Nodeを右クリックし、
「View Log」をクリックす
る
Jobの動作確認
123
JOB submit
124
①submitボタンをクリック
する
②リリース対象ノードをチ
ェック入れる
③submitボタンをクリック
PoC環境構築
Step2−3 JOB実施状況確認
ー DataWorks作業 ー
OperationCenter切り替え
126
「Operation Center」をクリ
ックし、画面を切り替える
OperationCenter(O&M Overview)
127
毎日インスタンスの実施状
況を確認できるダッシュボ
ード
JOB実施状況確認
128
②「Cycle Task」を
クリック
JOB実施状況確認(sumbitしたNode)
129
①「DataStudio」でSumbit
したNodeをここで確認する
ことができる
「ProjectName_root」はPJのルー
トノード、全てのノードはこのル
ートノードの下にぶら下がる
※PJ作成時に自動生成される。作
成&Sumbitする必要がありません
JOB実施状況確認
130
①デフォルトでは上下Node
3層しか表示させません
②上下Nodeを確認したい場
合は、端っこのNodeを右ク
リックし、「Show Child
Nodes」→「Layer」数を選
択する
JOB実施状況確認(インスタンスの確認方法)
131
「Cycle Instance」をクリッ
クする
241は生成されたインスタン
スの番号、意味はその日生
成された241番目のインスタ
ンス
※スケジュールの設定は10
分間隔です
インスタンスの実施Logの確認方法
132
①対象Nodeを右クリックし、
「View Log」をクリックす
る
②新しい画面でLogViewが
表示される
EOF

Más contenido relacionado

La actualidad más candente

SQL Server 2008/2008 R2/ 2012(/ 2014) 新機能
SQL Server 2008/2008 R2/ 2012(/ 2014) 新機能SQL Server 2008/2008 R2/ 2012(/ 2014) 新機能
SQL Server 2008/2008 R2/ 2012(/ 2014) 新機能Koichiro Sasaki
 
20160220 MSのビッグデータ分析基盤 - データマイニング+WEB@東京
20160220 MSのビッグデータ分析基盤 - データマイニング+WEB@東京20160220 MSのビッグデータ分析基盤 - データマイニング+WEB@東京
20160220 MSのビッグデータ分析基盤 - データマイニング+WEB@東京Koichiro Sasaki
 
Japan SQL Server Users Group - 第31回 SQL Server 2019勉強会 - Azure Synapse Analyt...
Japan SQL Server Users Group - 第31回 SQL Server 2019勉強会 - Azure Synapse Analyt...Japan SQL Server Users Group - 第31回 SQL Server 2019勉強会 - Azure Synapse Analyt...
Japan SQL Server Users Group - 第31回 SQL Server 2019勉強会 - Azure Synapse Analyt...Daiyu Hatakeyama
 
【ウェブセミナー】マネージドな 100% OSS アナリティクス プラットフォーム HDInsight の最新事情
【ウェブセミナー】マネージドな 100% OSS アナリティクス プラットフォーム HDInsight の最新事情【ウェブセミナー】マネージドな 100% OSS アナリティクス プラットフォーム HDInsight の最新事情
【ウェブセミナー】マネージドな 100% OSS アナリティクス プラットフォーム HDInsight の最新事情Hideo Takagi
 
NoSQL/SQLデュアルインタフェースを備えたIoT向けデータベースGridDB ~コマンドライン・インターフェース(CLI)を使ってみましょう~
NoSQL/SQLデュアルインタフェースを備えたIoT向けデータベースGridDB ~コマンドライン・インターフェース(CLI)を使ってみましょう~NoSQL/SQLデュアルインタフェースを備えたIoT向けデータベースGridDB ~コマンドライン・インターフェース(CLI)を使ってみましょう~
NoSQL/SQLデュアルインタフェースを備えたIoT向けデータベースGridDB ~コマンドライン・インターフェース(CLI)を使ってみましょう~griddb
 
[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装
[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装
[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装de:code 2017
 
遂に登場! GridDBからデータベースサービス GridDB Cloud ~その設計思想と運用の原則
遂に登場! GridDBからデータベースサービス GridDB Cloud ~その設計思想と運用の原則遂に登場! GridDBからデータベースサービス GridDB Cloud ~その設計思想と運用の原則
遂に登場! GridDBからデータベースサービス GridDB Cloud ~その設計思想と運用の原則griddb
 
Nosqlの基礎知識(2013年7月講義資料)
Nosqlの基礎知識(2013年7月講義資料)Nosqlの基礎知識(2013年7月講義資料)
Nosqlの基礎知識(2013年7月講義資料)CLOUDIAN KK
 
第29回 SQL Server 勉強会 (JSSUG) - Azure Synapse Analytics 概要
第29回 SQL Server 勉強会 (JSSUG) - Azure Synapse Analytics 概要 第29回 SQL Server 勉強会 (JSSUG) - Azure Synapse Analytics 概要
第29回 SQL Server 勉強会 (JSSUG) - Azure Synapse Analytics 概要 Daiyu Hatakeyama
 
やりたいことから考えるMicrosoft Azure 上の データストアの選び方とデータサイエンティスト向け活用法。KVSからDWHまで
やりたいことから考えるMicrosoft Azure 上の データストアの選び方とデータサイエンティスト向け活用法。KVSからDWHまでやりたいことから考えるMicrosoft Azure 上の データストアの選び方とデータサイエンティスト向け活用法。KVSからDWHまで
やりたいことから考えるMicrosoft Azure 上の データストアの選び方とデータサイエンティスト向け活用法。KVSからDWHまでDaisuke Masubuchi
 
[db analytics showcase Sapporo 2018] B13 Cloud Spanner の裏側〜解析からベストプラクティスへ〜
[db analytics showcase Sapporo 2018] B13 Cloud Spanner の裏側〜解析からベストプラクティスへ〜[db analytics showcase Sapporo 2018] B13 Cloud Spanner の裏側〜解析からベストプラクティスへ〜
[db analytics showcase Sapporo 2018] B13 Cloud Spanner の裏側〜解析からベストプラクティスへ〜Insight Technology, Inc.
 
Db2 & Db2 Warehouse v11.5.4 最新情報アップデート2020年8月25日
Db2 & Db2 Warehouse v11.5.4 最新情報アップデート2020年8月25日Db2 & Db2 Warehouse v11.5.4 最新情報アップデート2020年8月25日
Db2 & Db2 Warehouse v11.5.4 最新情報アップデート2020年8月25日IBM Analytics Japan
 
Db2 Warehouse on Cloud Flex テクニカルハンドブック 2020年3月版
Db2 Warehouse on Cloud Flex テクニカルハンドブック 2020年3月版Db2 Warehouse on Cloud Flex テクニカルハンドブック 2020年3月版
Db2 Warehouse on Cloud Flex テクニカルハンドブック 2020年3月版IBM Analytics Japan
 
SQL Server 2019 とともに知る Microsoft Data Platform
SQL Server 2019 とともに知る Microsoft Data PlatformSQL Server 2019 とともに知る Microsoft Data Platform
SQL Server 2019 とともに知る Microsoft Data PlatformDaiyu Hatakeyama
 
OSS on Azure で構築するウェブアプリケーション
OSS on Azure で構築するウェブアプリケーションOSS on Azure で構築するウェブアプリケーション
OSS on Azure で構築するウェブアプリケーションDaisuke Masubuchi
 
Data platformdesign
Data platformdesignData platformdesign
Data platformdesignRyoma Nagata
 
[DI10] IoT を実践する最新のプラクティス ~ Azure IoT Hub 、SDK 、Azure IoT Suite ~
[DI10] IoT を実践する最新のプラクティス ~ Azure IoT Hub 、SDK 、Azure IoT Suite ~[DI10] IoT を実践する最新のプラクティス ~ Azure IoT Hub 、SDK 、Azure IoT Suite ~
[DI10] IoT を実践する最新のプラクティス ~ Azure IoT Hub 、SDK 、Azure IoT Suite ~de:code 2017
 
Oracle Cloud MySQL Service
Oracle Cloud MySQL ServiceOracle Cloud MySQL Service
Oracle Cloud MySQL ServiceShinya Sugiyama
 
Microsoft Ignite 2019 最新アップデート - Azure Big Data Services を俯瞰的に眺める
Microsoft Ignite 2019 最新アップデート - Azure Big Data Services を俯瞰的に眺めるMicrosoft Ignite 2019 最新アップデート - Azure Big Data Services を俯瞰的に眺める
Microsoft Ignite 2019 最新アップデート - Azure Big Data Services を俯瞰的に眺めるDaiyu Hatakeyama
 

La actualidad más candente (20)

SQL Server 2008/2008 R2/ 2012(/ 2014) 新機能
SQL Server 2008/2008 R2/ 2012(/ 2014) 新機能SQL Server 2008/2008 R2/ 2012(/ 2014) 新機能
SQL Server 2008/2008 R2/ 2012(/ 2014) 新機能
 
20160220 MSのビッグデータ分析基盤 - データマイニング+WEB@東京
20160220 MSのビッグデータ分析基盤 - データマイニング+WEB@東京20160220 MSのビッグデータ分析基盤 - データマイニング+WEB@東京
20160220 MSのビッグデータ分析基盤 - データマイニング+WEB@東京
 
Japan SQL Server Users Group - 第31回 SQL Server 2019勉強会 - Azure Synapse Analyt...
Japan SQL Server Users Group - 第31回 SQL Server 2019勉強会 - Azure Synapse Analyt...Japan SQL Server Users Group - 第31回 SQL Server 2019勉強会 - Azure Synapse Analyt...
Japan SQL Server Users Group - 第31回 SQL Server 2019勉強会 - Azure Synapse Analyt...
 
【ウェブセミナー】マネージドな 100% OSS アナリティクス プラットフォーム HDInsight の最新事情
【ウェブセミナー】マネージドな 100% OSS アナリティクス プラットフォーム HDInsight の最新事情【ウェブセミナー】マネージドな 100% OSS アナリティクス プラットフォーム HDInsight の最新事情
【ウェブセミナー】マネージドな 100% OSS アナリティクス プラットフォーム HDInsight の最新事情
 
NoSQL/SQLデュアルインタフェースを備えたIoT向けデータベースGridDB ~コマンドライン・インターフェース(CLI)を使ってみましょう~
NoSQL/SQLデュアルインタフェースを備えたIoT向けデータベースGridDB ~コマンドライン・インターフェース(CLI)を使ってみましょう~NoSQL/SQLデュアルインタフェースを備えたIoT向けデータベースGridDB ~コマンドライン・インターフェース(CLI)を使ってみましょう~
NoSQL/SQLデュアルインタフェースを備えたIoT向けデータベースGridDB ~コマンドライン・インターフェース(CLI)を使ってみましょう~
 
[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装
[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装
[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装
 
遂に登場! GridDBからデータベースサービス GridDB Cloud ~その設計思想と運用の原則
遂に登場! GridDBからデータベースサービス GridDB Cloud ~その設計思想と運用の原則遂に登場! GridDBからデータベースサービス GridDB Cloud ~その設計思想と運用の原則
遂に登場! GridDBからデータベースサービス GridDB Cloud ~その設計思想と運用の原則
 
Nosqlの基礎知識(2013年7月講義資料)
Nosqlの基礎知識(2013年7月講義資料)Nosqlの基礎知識(2013年7月講義資料)
Nosqlの基礎知識(2013年7月講義資料)
 
第29回 SQL Server 勉強会 (JSSUG) - Azure Synapse Analytics 概要
第29回 SQL Server 勉強会 (JSSUG) - Azure Synapse Analytics 概要 第29回 SQL Server 勉強会 (JSSUG) - Azure Synapse Analytics 概要
第29回 SQL Server 勉強会 (JSSUG) - Azure Synapse Analytics 概要
 
やりたいことから考えるMicrosoft Azure 上の データストアの選び方とデータサイエンティスト向け活用法。KVSからDWHまで
やりたいことから考えるMicrosoft Azure 上の データストアの選び方とデータサイエンティスト向け活用法。KVSからDWHまでやりたいことから考えるMicrosoft Azure 上の データストアの選び方とデータサイエンティスト向け活用法。KVSからDWHまで
やりたいことから考えるMicrosoft Azure 上の データストアの選び方とデータサイエンティスト向け活用法。KVSからDWHまで
 
[db analytics showcase Sapporo 2018] B13 Cloud Spanner の裏側〜解析からベストプラクティスへ〜
[db analytics showcase Sapporo 2018] B13 Cloud Spanner の裏側〜解析からベストプラクティスへ〜[db analytics showcase Sapporo 2018] B13 Cloud Spanner の裏側〜解析からベストプラクティスへ〜
[db analytics showcase Sapporo 2018] B13 Cloud Spanner の裏側〜解析からベストプラクティスへ〜
 
Db2 & Db2 Warehouse v11.5.4 最新情報アップデート2020年8月25日
Db2 & Db2 Warehouse v11.5.4 最新情報アップデート2020年8月25日Db2 & Db2 Warehouse v11.5.4 最新情報アップデート2020年8月25日
Db2 & Db2 Warehouse v11.5.4 最新情報アップデート2020年8月25日
 
Db2 Warehouse on Cloud Flex テクニカルハンドブック 2020年3月版
Db2 Warehouse on Cloud Flex テクニカルハンドブック 2020年3月版Db2 Warehouse on Cloud Flex テクニカルハンドブック 2020年3月版
Db2 Warehouse on Cloud Flex テクニカルハンドブック 2020年3月版
 
SQL Server 2019 とともに知る Microsoft Data Platform
SQL Server 2019 とともに知る Microsoft Data PlatformSQL Server 2019 とともに知る Microsoft Data Platform
SQL Server 2019 とともに知る Microsoft Data Platform
 
OSS on Azure で構築するウェブアプリケーション
OSS on Azure で構築するウェブアプリケーションOSS on Azure で構築するウェブアプリケーション
OSS on Azure で構築するウェブアプリケーション
 
Data platformdesign
Data platformdesignData platformdesign
Data platformdesign
 
Big Data Architecture 全体概要
Big Data Architecture 全体概要Big Data Architecture 全体概要
Big Data Architecture 全体概要
 
[DI10] IoT を実践する最新のプラクティス ~ Azure IoT Hub 、SDK 、Azure IoT Suite ~
[DI10] IoT を実践する最新のプラクティス ~ Azure IoT Hub 、SDK 、Azure IoT Suite ~[DI10] IoT を実践する最新のプラクティス ~ Azure IoT Hub 、SDK 、Azure IoT Suite ~
[DI10] IoT を実践する最新のプラクティス ~ Azure IoT Hub 、SDK 、Azure IoT Suite ~
 
Oracle Cloud MySQL Service
Oracle Cloud MySQL ServiceOracle Cloud MySQL Service
Oracle Cloud MySQL Service
 
Microsoft Ignite 2019 最新アップデート - Azure Big Data Services を俯瞰的に眺める
Microsoft Ignite 2019 最新アップデート - Azure Big Data Services を俯瞰的に眺めるMicrosoft Ignite 2019 最新アップデート - Azure Big Data Services を俯瞰的に眺める
Microsoft Ignite 2019 最新アップデート - Azure Big Data Services を俯瞰的に眺める
 

Similar a Sbc odps 200_data_works_handson_ver1.0

Dat009 クラウドでビック
Dat009 クラウドでビックDat009 クラウドでビック
Dat009 クラウドでビックTech Summit 2016
 
【de:code 2020】 Azure Synapse Analytics 技術編 ~ 最新の統合分析プラットフォームによる新しい価値の創出(後編)
【de:code 2020】 Azure Synapse Analytics 技術編 ~ 最新の統合分析プラットフォームによる新しい価値の創出(後編)【de:code 2020】 Azure Synapse Analytics 技術編 ~ 最新の統合分析プラットフォームによる新しい価値の創出(後編)
【de:code 2020】 Azure Synapse Analytics 技術編 ~ 最新の統合分析プラットフォームによる新しい価値の創出(後編)日本マイクロソフト株式会社
 
Dat009 クラウドでビック
Dat009 クラウドでビックDat009 クラウドでビック
Dat009 クラウドでビックTech Summit 2016
 
20190516_DLC10_PGStrom
20190516_DLC10_PGStrom20190516_DLC10_PGStrom
20190516_DLC10_PGStromKohei KaiGai
 
sbc_rc_200_RealtimeCompute_handson_ver1.0
sbc_rc_200_RealtimeCompute_handson_ver1.0 sbc_rc_200_RealtimeCompute_handson_ver1.0
sbc_rc_200_RealtimeCompute_handson_ver1.0 洋 謝
 
20190705 mas ken_azure_stack
20190705 mas ken_azure_stack20190705 mas ken_azure_stack
20190705 mas ken_azure_stackOsamu Takazoe
 
2014年12月04日 ヒーロー島 Azureスペシャル
2014年12月04日 ヒーロー島 Azureスペシャル2014年12月04日 ヒーロー島 Azureスペシャル
2014年12月04日 ヒーロー島 AzureスペシャルDaiyu Hatakeyama
 
Data Factory V2 新機能徹底活用入門
Data Factory V2 新機能徹底活用入門Data Factory V2 新機能徹底活用入門
Data Factory V2 新機能徹底活用入門Keisuke Fujikawa
 
Spark Analytics - スケーラブルな分散処理
Spark Analytics - スケーラブルな分散処理Spark Analytics - スケーラブルな分散処理
Spark Analytics - スケーラブルな分散処理Tusyoshi Matsuzaki
 
Azure上の データベース 機能の選び方。KVSからDWHまで
Azure上の データベース 機能の選び方。KVSからDWHまでAzure上の データベース 機能の選び方。KVSからDWHまで
Azure上の データベース 機能の選び方。KVSからDWHまでDaisuke Masubuchi
 
15分でお届けする Elastic Stack on Azure 設計・構築ノウハウ
15分でお届けする Elastic Stack on Azure 設計・構築ノウハウ15分でお届けする Elastic Stack on Azure 設計・構築ノウハウ
15分でお届けする Elastic Stack on Azure 設計・構築ノウハウYoichi Kawasaki
 
[de:code 2019 振り返り Night!] Data Platform
[de:code 2019 振り返り Night!] Data Platform[de:code 2019 振り返り Night!] Data Platform
[de:code 2019 振り返り Night!] Data PlatformNaoki (Neo) SATO
 
Cld002 windows server_2016_で作るシンプ
Cld002 windows server_2016_で作るシンプCld002 windows server_2016_で作るシンプ
Cld002 windows server_2016_で作るシンプTech Summit 2016
 
[ウェビナー] Build 2018 アップデート ~ データ プラットフォーム/IoT編 ~
[ウェビナー] Build 2018 アップデート ~ データ プラットフォーム/IoT編 ~[ウェビナー] Build 2018 アップデート ~ データ プラットフォーム/IoT編 ~
[ウェビナー] Build 2018 アップデート ~ データ プラットフォーム/IoT編 ~Naoki (Neo) SATO
 
アプリケーション開発者のためのAzure Databricks入門
アプリケーション開発者のためのAzure Databricks入門アプリケーション開発者のためのAzure Databricks入門
アプリケーション開発者のためのAzure Databricks入門Yoichi Kawasaki
 
[db tech showcase OSS 2017] A24: マイクロソフトと OSS Database - Azure Database for M...
[db tech showcase OSS 2017] A24: マイクロソフトと OSS Database - Azure Database for M...[db tech showcase OSS 2017] A24: マイクロソフトと OSS Database - Azure Database for M...
[db tech showcase OSS 2017] A24: マイクロソフトと OSS Database - Azure Database for M...Insight Technology, Inc.
 
20141110 tf azure_iaas
20141110 tf azure_iaas20141110 tf azure_iaas
20141110 tf azure_iaasOsamu Takazoe
 

Similar a Sbc odps 200_data_works_handson_ver1.0 (20)

Dat009 クラウドでビック
Dat009 クラウドでビックDat009 クラウドでビック
Dat009 クラウドでビック
 
【de:code 2020】 Azure Synapse Analytics 技術編 ~ 最新の統合分析プラットフォームによる新しい価値の創出(後編)
【de:code 2020】 Azure Synapse Analytics 技術編 ~ 最新の統合分析プラットフォームによる新しい価値の創出(後編)【de:code 2020】 Azure Synapse Analytics 技術編 ~ 最新の統合分析プラットフォームによる新しい価値の創出(後編)
【de:code 2020】 Azure Synapse Analytics 技術編 ~ 最新の統合分析プラットフォームによる新しい価値の創出(後編)
 
Dat009 クラウドでビック
Dat009 クラウドでビックDat009 クラウドでビック
Dat009 クラウドでビック
 
20190516_DLC10_PGStrom
20190516_DLC10_PGStrom20190516_DLC10_PGStrom
20190516_DLC10_PGStrom
 
sbc_rc_200_RealtimeCompute_handson_ver1.0
sbc_rc_200_RealtimeCompute_handson_ver1.0 sbc_rc_200_RealtimeCompute_handson_ver1.0
sbc_rc_200_RealtimeCompute_handson_ver1.0
 
20190705 mas ken_azure_stack
20190705 mas ken_azure_stack20190705 mas ken_azure_stack
20190705 mas ken_azure_stack
 
[Japan Tech summit 2017] CLD 011
[Japan Tech summit 2017]  CLD 011[Japan Tech summit 2017]  CLD 011
[Japan Tech summit 2017] CLD 011
 
2014年12月04日 ヒーロー島 Azureスペシャル
2014年12月04日 ヒーロー島 Azureスペシャル2014年12月04日 ヒーロー島 Azureスペシャル
2014年12月04日 ヒーロー島 Azureスペシャル
 
20180216 sapporo techbar_db_migration
20180216 sapporo techbar_db_migration20180216 sapporo techbar_db_migration
20180216 sapporo techbar_db_migration
 
Data Factory V2 新機能徹底活用入門
Data Factory V2 新機能徹底活用入門Data Factory V2 新機能徹底活用入門
Data Factory V2 新機能徹底活用入門
 
Spark Analytics - スケーラブルな分散処理
Spark Analytics - スケーラブルな分散処理Spark Analytics - スケーラブルな分散処理
Spark Analytics - スケーラブルな分散処理
 
Azure上の データベース 機能の選び方。KVSからDWHまで
Azure上の データベース 機能の選び方。KVSからDWHまでAzure上の データベース 機能の選び方。KVSからDWHまで
Azure上の データベース 機能の選び方。KVSからDWHまで
 
15分でお届けする Elastic Stack on Azure 設計・構築ノウハウ
15分でお届けする Elastic Stack on Azure 設計・構築ノウハウ15分でお届けする Elastic Stack on Azure 設計・構築ノウハウ
15分でお届けする Elastic Stack on Azure 設計・構築ノウハウ
 
[de:code 2019 振り返り Night!] Data Platform
[de:code 2019 振り返り Night!] Data Platform[de:code 2019 振り返り Night!] Data Platform
[de:code 2019 振り返り Night!] Data Platform
 
Sum awsloft tko-iotloft-10-lt4-may-2020
Sum awsloft tko-iotloft-10-lt4-may-2020Sum awsloft tko-iotloft-10-lt4-may-2020
Sum awsloft tko-iotloft-10-lt4-may-2020
 
Cld002 windows server_2016_で作るシンプ
Cld002 windows server_2016_で作るシンプCld002 windows server_2016_で作るシンプ
Cld002 windows server_2016_で作るシンプ
 
[ウェビナー] Build 2018 アップデート ~ データ プラットフォーム/IoT編 ~
[ウェビナー] Build 2018 アップデート ~ データ プラットフォーム/IoT編 ~[ウェビナー] Build 2018 アップデート ~ データ プラットフォーム/IoT編 ~
[ウェビナー] Build 2018 アップデート ~ データ プラットフォーム/IoT編 ~
 
アプリケーション開発者のためのAzure Databricks入門
アプリケーション開発者のためのAzure Databricks入門アプリケーション開発者のためのAzure Databricks入門
アプリケーション開発者のためのAzure Databricks入門
 
[db tech showcase OSS 2017] A24: マイクロソフトと OSS Database - Azure Database for M...
[db tech showcase OSS 2017] A24: マイクロソフトと OSS Database - Azure Database for M...[db tech showcase OSS 2017] A24: マイクロソフトと OSS Database - Azure Database for M...
[db tech showcase OSS 2017] A24: マイクロソフトと OSS Database - Azure Database for M...
 
20141110 tf azure_iaas
20141110 tf azure_iaas20141110 tf azure_iaas
20141110 tf azure_iaas
 

Sbc odps 200_data_works_handson_ver1.0