Más contenido relacionado
La actualidad más candente (20)
Similar a Oracle Cloudで始める、DBエンジニアのためのHadoop超入門(db tech showcase 2016 Oracle セッション資料) (20)
Oracle Cloudで始める、DBエンジニアのためのHadoop超入門(db tech showcase 2016 Oracle セッション資料)
- 2. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
OracleとJavaは、Oracle Corporation 及びその子会社、関連会社の米国及びその他の国における登録商標です。
文中の社名、商品名等は各社の商標または登録商標である場合があります。
以下の事項は、弊社の一般的な製品の方向性に関する概要を説明する
ものです。また、情報提供を唯一の目的とするものであり、いかなる契約
にも組み込むことはできません。以下の事項は、マテリアルやコード、機能
を提供することをコミットメント(確約)するものではないため、購買決定を
行う際の判断材料になさらないで下さい。オラクル製品に関して記載され
ている機能の開発、リリースおよび時期については、弊社の裁量により決
定されます。
2
- 3. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
最近、とっても仲良しな二人
3
- 4. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
本日のお話
• Oracle DBのお客様においても、HadoopやNOSQL等と共存する事例が増
えてきました。
RDBエンジニアの皆様も、突然Hadoopとのハイブリッドな案 件にアサイン
されて、とりあえず象本を読んでみたが途方に暮れたご経験がある方もい
らっしゃるのではないでしょうか。
本セッションでは、Hadoopおよび基本的な周辺ソフトウェアを用いての開
発手順をチュートリアル形式でご紹介します。
極力、基盤的なお話は触れずに、どうやって使うのかにフォーカスを当て
た超入門的内容です。
4
- 5. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
そもそもHadoopって何に使われてる?
Hadoop
売上up
Customer360
リコメンド
コストdown
バッチの
高速化
DWHの拡張
5
- 6. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
Hadoopによるバッチの高速化
6
ETLツールや
Javaなどによる
バッチサーバ
As – Is 課題
DISK I/O
がボトルネック
ソリューション
オフロード
(Hadoopで分散処理)
スケールアップ
(フラッシュ/インメモリ)
MFによる
バッチ処理
処理内容
<
MIPS単価
アプリ影響:小
コスト:大
アプリ影響:中
コスト:小
- 7. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
オフロード(Hadoopで分散処理)のイメージ
7
As-IS 処理
A
処理
B
処理C 処理D 処理
E
To-Be
ボトルネック
処理
A
処理
B
処理C 処理D
処理
E
処理C 処理D
処理C 処理D
処理C 処理D
短縮
- 8. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. | 8
• メインフレーム・ダウンサイジング
– MIPS:30%削減
– バッチ処理時間:50%削減
• Exadata+Big Data Appliance(Hadoop 基
盤)のハイブリッド構成
– 既存データマートの集約
– OPEX:約40% 削減
• データ配布モデルの近代化
– 「データありき」
vs 「スキーマ/モデルありき」
– 顧客360°ビューの実現
お客様 事例 金融業
ITコスト削減と、情報の一元化によるビジネス変革実現
La Caixa様(スペインの銀行)メインフレームテープ サブシステム・DWHバッチ処理 レポート
Data Reservoir
(Hadoop)
ソーシャルデータ
顧客情報
決済情報
バッチ処理の削減による
コスト削減メインフレーム
およびテープ上の
ストレステスト
データの移行
レポート
顧客360°
DWH
(RDBMS)
- 9. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
• メリット
– 安い!
• IAサーバ + オープンソース
– ファイルサーバー
• スキーマ設計、変換しなくても、とりあえず
ファイルのままデータを放りこめる
– 分散できる処理は速い
• スケールアウトが容易
• デメリット
– 管理ポイントが多い
• マネジメントシステムが発展途上
– SLAを満たすと高コストになりがち
• RDBに比べて開発コストは増えます
– 制約がありそう
• 小回りは利きません
(RDBmsでも出来るのに) なんでHadoopなの?
9
- 10. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
• メリット
– 安い!
• IAサーバ + オープンソース
– ファイルサーバー
• スキーマ設計、変換しなくても、とりあえず
ファイルのままデータを放りこめる
– 分散できる処理は速い
• スケールアウトが容易
• デメリット
– 管理ポイントが多い
• マネジメントシステムが発展途上
– SLAを満たすと高コストになりがち
• RDBに比べて開発コストは増えます
– 制約がありそう
• 小回りは利きません
(RDBでも出来るのに) なんでHadoopなの?
10
ならば
メリット > デメリットなところで
使えば良い
↓
要件を明確化しやすいバッチ処理が最適
- 11. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. | 11
じゃあ、
どうやってバッチ処理をオフロードするの?
- 12. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
MoviePlex社の重いバッチ処理をなんとかしてみる(As-Is)
12
•MoviePlex社は、ビデオのストリーミング配信する仮想会社です。
•日次で締め処理を行い、配給元会社へのロイヤリティを算出しています。
<課題>
ロイヤリティ計算システムに渡すデータの前処理バッチの負荷が高く、日次バッチ
に収まらずにオンラインサービスに影響が発生している
日次締め処理
売上Close
バックアップ
売上集計
ロイヤリティ計算
(他システム)
ロイヤリティ
計算システム
配給
会社
売上 作品別
売上
支払
バッチ
- 13. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
ご提案
• Active Data Guard/Golden Gateによるスタンバイサイトへの
低負荷なレプリケーション
• スタンバイサイトからバックアップサイトへのRMAN
• スタンバイサイトでのバッチ処理
13
構成、リスク、生産性などを鑑みると、たぶんこれがベストなソリューション
とはいえ、
クリティカルなシステムではないので、もう少し安く構築したい
そんな時には、Hadoopによるオフロードが最適
- 14. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
To-Be象
14
•DBにある売上データをHadoopに転送する
•Hadoop上で売上データを作品別に集計する
•集計結果を他DBに転送する
日次締め処理
売上Close
バックアップ
売上集計
ロイヤリティ計算
(他システム)
ロイヤリティ
計算システム
配給
会社映画
購入
売上
作品別
売上
支払
要件 対応ソフトウェア
Sqoop
Hive
Hadoop
- 15. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
対応ソフトウェア
• Apache Hadoop
– 大きなデータの処理が得意なファイルサーバー ≒ ACFS (クラスタファイルシステム)
• Apache Hive
– Hadoop上のファイルに対するSQL風なインターフェース ≒ 外部表
– コマンドラインは、beeline ≒ sqlplus
• Apache Sqoop
– HadoopとDB間でデータ転送するためのコマンドラインツール
15
- 16. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
• 事前設定済のオラクルビッグデータ製品の
最新バージョンをインストール作業の必要なく、
すぐに利用可能
• OTNサイトから無料でダウンロード
• サンプルデータ込、自己学習のための動画、
デモスクリプトも公開
• RDBMS、Hadoop、NoSQL、R、Spatial, Graph、、
興味のある製品から、ビッグデータ活用の全体フローまで
お好きな製品をローカルの仮想マシン環境上で
• お試し、自己学習、開発環境としてぜひお試しください
検証環境
Oracle Big Data Lite Virtual Machine
http://www.oracle.com/technetwork/database/bigdata-appliance/oracle-bigdatalite-2104726.html
16
- 17. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
手元にマシンがないから、AWSで。。。
• あるんです。オラクルにもlaasが!
ちょっと待ってください
17
Compute Cloud Service
Storage Cloud Service
いわゆるOS貸し
Oracle LinuxをはじめUbuntu,Cent,Solaris
もちろんWindowsもあります
ストレージです。
でも、お高いんでしょう?
- 18. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
Compute Cloud Service: 競合サービスとの比較 (商用Linux)
18
$0.100
/hour
$0.180
/hour
$0.310
/hour
Compute
1OCPU*
15GB RAM
EC2: m4.large
2vCPU
8GB RAM
(RHEL, US East)
VMs: A5
2vCPU
14GB RAM
135GB Disk
(RHEL, US East)
* OCPU(Oracle CPU)
* 1OCPU = 2vCPU
2016年6月時点
- 19. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
Storage Cloud Archive Service: 競合サービスとの比較
19
$0.001
$/GB/Mo.
$0.007 - $0.013
$/GB/Mo.
$0.011
$/GB/Mo.
Storage Cloud
Archive
Service
Amazon Glacier Google Nearline
競合サービスと比較し、1/10 の圧倒的価格で提供。1TB 120円/月で利用可能
2016年6月時点
- 20. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
Oracle Cloudの使い方は以下の資料をご参照ください
http://www.slideshare.net/oracle4engineer/oracle-iaas-infrastructure-as-a-service
20
• マニュアル(英語)
– http://docs.oracle.com/cloud/latest/stcomputecs/index.html
• マニュアル(日本語)
– http://docs.oracle.com/cd/E60665_01/index.html?tab=3
• Compute Cloud Service チュートリアル
– https://docs.oracle.com/cloud/latest/stcomputecs/compute-cloud-tutorials.html
– Create an Instance Using a CentOS Linux 7 Image
– Create an Instance Using a Debian Image
- 21. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. | 21
①DBからHadoopにデータ転送
さて、Hadoopに話を戻します
- 22. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
①DBからHadoopにデータ転送
22
要件 対応ソフトウェア
•DBにある売上データをHadoopに転送する Sqoop
- 23. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
①DBからHadoopにデータ転送
23
1.まずは、ソースとなるOracle Tableを確認
$ sqlplus moviedemo@orcl/welcome1
> select * from movie_sales where rownum < 3;
2.Sqoopコマンドを確認してみる
$ sqoop help
Available commands:
・・・
export Export an HDFS directory to a database table
import Import a table from a database to HDFS
・・・
sqoop
import
Export
- 24. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
①DBからHadoopにデータ転送
24
3.Sqoop importの実行
$ sqoop import
--connect jdbc:oracle:thin:@localhost:1521/orcl
--username moviedemo --password welcome1
--table MOVIE_SALES
--hive-import
-m 1
JDBC接続定義 orclに1521ポートで接続
orclのユーザネーム/パスワード
ソースとなるテーブル
条件を付けたい場合は “--query”オプションで記述
ターゲットをHive表にするオプション
表名を指定する場合は”--hive-table <tablename>”
Mapper(並列度)の数
・・・
16/06/29 03:28:26 INFO mapreduce.JobSubmitter: Submitting tokens
for job: job_1465880963618_0069
16/06/29 03:28:35 INFO mapreduce.Job: map 0% reduce 0%
16/06/29 03:28:47 INFO mapreduce.Job: map 100% reduce 0%
16/06/29 03:28:47 INFO mapreduce.Job: Job
job_1465880963618_0069 completed successfully
・・・
OK
Time taken: 3.36 seconds
Loading data to table default.movie_sales
- 25. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
データはどこにいった?
SqoopコマンドによってHadoopにコピーされたデータを確認してみよう
25
Hadoopのファイルを確認するコマンドは「hadoop fs」
$ hadoop fs -ls /user/hive/warehouse/movie_sales
Found 1 items
-rwxrwxrwx 1 oracle hive 19096979 2016-06-29 03:28 /user/hive/warehouse/movie_sales/part-m-00000
コマンドのオプションは、通常のLinuxファイル操作と
基本的には同じ
中身をちらっと見てみる Mapperを1で実行したので
1ファイル作成されている
$ hadoop fs -cat /user/hive/warehouse/movie_sales/part-m-00000 |head
9999999 2010-01-01 14:14:06.0 45612 9 1.99
9999999 2010-01-01 14:18:14.0 22327 6 1.99
Hadoopからローカルにダウンロードするオプションは「-get」 アップロードは「-put」
$ hadoop fs -get /user/hive/warehouse/movie_sales/part-m-00000 カレントディレクトリに同名のファ
イルがダウンロードされる
- 26. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. | 26
②HiveでHadoopのデータを加工
- 27. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
②HiveでHadoopのデータを加工
27
要件 対応ソフトウェア
•Hadoop上で売上データを作品別に集計する Hive
- 28. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
②HiveでHadoopのデータを加工
28
1.まずは、Hiveのコマンドラインである「beeline」を起動
$ beeline
2.Hiveに接続
beeline> !connect jdbc:hive2://localhost:10000 oracle welcome1
3.Hive Tableをリストする
0: jdbc:hive2://localhost:10000> show tables;
+-------------------------------------+--+
| tab_name |
+-------------------------------------+--+
| consolidated_credit_products |
・・・
| movie_sales |
Hiveサーバに対するJDBC接続定義
ID
パスワード
MYSQLのコマンドに似てる
- 29. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
②HiveでHadoopのデータを加工
29
4.movie_salesをちょっと見てみる
0: jdbc:hive2://localhost:10000> select * from movie_sales limit 3;
0: jdbc:hive2://localhost:10000>
create table movie_sales_sum as
select movie_id,sum(sales) as sales from movie_sales group by movie_id;
5.movie_idでサマリして、新しいテーブルに挿入する
- 30. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
②HiveでHadoopのデータを加工
30
6.作成したHive表のDDLを確認してみる
0: jdbc:hive2://localhost:10000> show create table movie_sales_sum;
実体のHadoopファイルの場所
Drop Tableすると、このディレクトリも
一緒に削除される
ファイルのフォーマット
通常はTEXTだが、SeaquenceFileや
Parquet,ORCなど様々なものがある
列のフォーマット
JsonやXML、正規表現などを2次元
表に変換する仕組み
- 31. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
ここまでの流れのおさらい
31
•Sqoopの実行
データベースのDDLをHive用に変換し、Hiveのテーブルを作成
JDBCでデータベースのデータを取得し、HIVE表にロード
(HDFS上にファイルが作成される)
•HIVEQLの実行
HIVE表を読み取り、集計した結果を別のHIVE表にロード
(テーブル毎にHDFSの異なるディレクトリが作成される)
Create Table
Insert
Select
/user/hive/warehouse
Hadoop
HDFS
data data
CTAS
- 32. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
Hiveの位置付け
32
バッチ処理 アドホック
MapReduce/Spark Impala / Presto / Oracle Big Data SQL 等処理エンジン
インター
フェース
プログラム SQLHive
データ Hadoop (HDFS)
開発ツール Asakusa / Oracle Data Integrator / OHSH BIツール(Tableau , Oracle BI 等)
- 33. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. | 33
③HadoopからOracleにデータロード
- 34. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
③HadoopからOracleにデータロード
34
要件 対応ソフトウェア
•集計結果を他DBに転送する Sqoop
- 35. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
③HadoopからOracleにデータロード
35
1.ターゲットになるOracleのテーブルを作成
>CREATE TABLE movie_sales_sum(
movie_id number,
sales number);
2.Sqoopのexportコマンドを実行
$sqoop export
--connect jdbc:oracle:thin:@localhost:1521/orcl
--username moviedemo --password welcome1
--table MOVIE_SALES_SUM
--hcatalog-table MOVIE_SALES_SUM
$ sqlplus moviedemo@orcl/welcome1
ターゲットになるOracleDBの設定
ソースになるHive表の設定
作業完了!!
- 36. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
③HadoopからOracleにデータロード
36
1.ターゲットになるOracleのテーブルを作成
>CREATE TABLE movie_sales_sum(
movie_id number,
sales number);
2.Sqoopのexportコマンドを実行
$ sqoop export
--connect jdbc:oracle:thin:@localhost:1521/orcl
--username moviedemo
--password welcome1
--table MOVIE_SALES_SUM --hcatalog-table MOVIE_SALES_SUM
$ sqlplus moviedemo@orcl/welcome1
ターゲットになるOracleDBの設定
ソースになるHive表の設定
作業完了!!
- 37. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
できたっ!! けど。。。
37
ロイヤリティ
計算システム
配給
会社映画
購入
売上
作品別
売上
支払
トランザクションは良いが、マスター
データをHadoopに移すのは、セキュ
リティや整合性的に不安
DBへのロードを早くしたいけど、DB
に負荷はかけたくない
HiveやSqoopのコーディングが面倒
そもそもロードせずに直接参照したい
- 38. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
ここまで、ご紹介した内容は、一般的なHadoop技術
実は、Oracleは、HadoopのPaasもあるんです
38
Oracle Big Data Cloud Service
- 39. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
蓄積
把握・
加工
分析
意思
決定
アク
ション
収集
Oracle Big Data Cloud Service
データの蓄積・加工・分析など、クラウド上での全ての機能実現を支える中核基盤
39
Database
Business
Intelligenc
e
Big Data
Discovery
SaaS
IoT
GoldenGate
Big Data SQL
and other
PaaS, SaaS, IaaS ..
Big Data
Cloud Service
Data as
a Service
Big Data
Preparatio
n
NoSQL
- 40. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
Oracle Big Data Cloudにある便利な機能のご紹介
40
課題 便利な機能 概要
マスターデータをHadoopに移すのは、
セキュリティや整合性的に不安
OTA4H
Hiveから透過的にOracleのテーブルを
参照
DBへのロードを早くしたいけど、DBに
負荷はかけたくない
Oracle Shell for Hadoop Loaders
Hadoop側でDBパーティション単位に
Pumpファイルを作成し、ダイレクトロード
そもそもロードせずに直接参照したい Oracle Big Data SQL
Oracle DBからHadoop上のデータをシー
ムレスにOracle SQLでアクセス可能
HiveやSqoopのコーディングが面倒 ODI(ETLツール) GUIでデータ加工を設定
- 41. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
OTA4H (Oracle Table Access for Hadoop)
Hiveから透過的にOracleDBのテーブルを参照
41
1.OracleDBのテーブルを確認
$ sqlplus moviedemo@orcl/welcome1
> desc GENRE
ジャンルマスタ
2.Hiveのテーブルを作成
create table genre_ota4h( genre_id INT, name STRING)
STORED BY 'oracle.hcat.osh.OracleStorageHandler'
WITH SERDEPROPERTIES (
'oracle.hcat.osh.columns.mapping' = 'GENRE_ID,NAME')
TBLPROPERTIES (
'mapreduce.jdbc.url' = 'jdbc:oracle:thin:@localhost:1521:orcl',
'mapreduce.jdbc.username' = 'moviedemo',
'mapreduce.jdbc.password' = 'welcome1',
'mapreduce.jdbc.input.table.name' = 'GENRE');
3.HiveQL
Select * from genre_ota4h;
6 Comedy
43 Game-Show
・・・
マスターデータをHadoopに移すのは、
セキュリティや整合性的に不安
- 42. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
Oracle Shell for Hadoop Loaders Release 1.0.0
Hadoop用統合シェルインターフェース
42
OHSH
bash
Hadoop
Client
Hive
Client
sqlplus OLH OSCH
Copy2
Hadoop
Hadoop to Oracle
高速ローダ
SQLコネクタ
for HDFS
Pumpファイルを
Hadoopにコピー
詳しくはこちら
https://blogs.oracle.com/bigdataconnectors/entry/oracle_shell_for_hadoop_loaders
Data
Oracle Loader for Hadoopの機能
M/R pump
ファイルをMapReduceでOracleDBの
パーティション単位にpumpファイル
化しパラレルロードする
OracleDB
DBへのロードを早くしたいけど、DBに
負荷はかけたくない
- 43. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
Oracle Shell for Hadoop Loaders Release 1.0.0
43
2.シェルの起動
$ ohsh
3.接続定義(リソース)の作成
ohsh> create hive resource hive_moviedemo database="MOVIEDEMO"
1.ターゲット表(Oracle DB)の作成
create table movieapp_log_stage(
custid number,
movieid number,
genreid number,
time varchar2(20),
recommended number,
activity number,
rating number,
sales number);
Hive
ohsh> create sqlplus resource sql user="MOVIEDEMO" connectid="orcl"
sqlplus
ohsh>
create oracle jdbc resource moviedemo user="MOVIEDEMO" connectid="orcl"
OracleDB(JDBC)
ohsh> set defaultdirectory DEFAULT_DIR
外部表用のディレクトリオブジェクト
4.ロード実行
ohsh> load oracle table moviedemo:movieapp_log_stage
from hive table hive_moviedemo:movieapp_log_stage using etl
5.確認
ohsh> %sql select * from movieapp_log_stage where rownum < 2;
- 44. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
Oracle Big Data SQL
44
SQL一つで、
必要なデータが
高速にセキュアに返されるSmart Scan
クエリをHadoopの
データノードにオフロード
SQL
必要データ
のみ移動
SQL
Hivemetadata
Oracle DBからHadoop上のデータをシームレスにOracle SQLでアクセス可能
そもそもロードせずに直接参照したい
Cloudera
HortonWorks
Oracle12c
外部表だから
・すべてのSQLクエリが実行可能
・実表とのJOINももちろん可能
・DBセキュリティ設定も可能
- 45. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
Oracle Data Integrator GUIでデータ加工を設定
45
HiveやSqoopのコーディングが面倒
論理デザイン
Oracle
Hive
MySQL
Hive
物理デザイン
Oracle
MySQL
Hive
Sqoop
Sqoop
HiveQLや
Sqoopコマンド
などを自動生成
- 46. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
超入門の次は?
46
超入門
(今日)
ハンズオン
ラボ
Oracle
Learning
Library
トレーニング(無償)
オンライン
Hadoopおよび周辺
エコシステムの概要
および運用の観点
を習得
自習(無償)
Big Data lite
MapReduceや
Pig,Hive,Sparkなど
のエコシステムに一
通り触れてみる
BDLのダウンロードページ下部
にある「Hands-on Labs」
セミナー(無償)
Big Data lite
Hadoopやエコシス
テムで出来る事のイ
メージを理解する
- 47. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. | 47
Appendix
- 48. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
Oracle Cloud Platform - 長年培ったテクノロジをクラウドへ
Application Container Cloud
Java Cloud
BI
Cloud
ビジネス
インテリジェンス 73°
ビックデータ
探索
Database Cloud
NoSQL Database
Big Data Cloud
インテグレーション
データベース
専用マシン
ビックデータ
専用マシン
HadoopNoSQL
Internet
of things
リレーショナル
データベース
Big Data
Discovery
Cloud
Integration Cloud
IoT
Cloud
Application
Container
Cloud
コンテナ型仮想技術
スクリプト言語 等
ビジュアル
アナリティクス
Data
Visualization
Cloud
統合運用管理
コードレス
開発
Application
Builder
Cloud
Management Cloud
「エンタープライズ」「堅牢性」 「イノベーション」「流動性」
- 49. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
New! Oracle Cloud 基本戦略
On-Premises
DEVELOP AND DEPLOY ANYWHERE
Public Cloud
同じ「アーキテクチャ」
同じ「オラクル製品」
同じ「知識・ノウハウ」
Cloud at Customer
New
Public Cloud のサー
ビスをそのままお客様
DC内で利用可能に
- 50. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
• 開発・検証の効率化
– 損保ジャパン日本興亜 (Java)
– テンプホールディングス (DB, Exadata)
– 東京ガスiネット (DB, Java)
– マツダ (DB, Java)
– ライトウェル (DB)
– リコー (DB, Java)
• 新規システムの迅速な展開
– アイデム (DB)
– アクサ損害保険 (DB, Java)
– ソフトバンク/PSソリューションズ (IoT, DB, Java)
– 萩原電気 (DB)
• BI Cloud Service
– DAサーチ&リンク
– パソナ
• Documents Cloud Service
– アイアンドディー
– 愛仁会
– アウトソーシング
– 生活クラブ連合会
• Integration Cloud Service
– ウイングアーク1st
• Management Cloud Service
– NTTデータ先端技術
Oracle Cloud Platform – お客様活用事例(抜粋) *敬称略
– パンチ工業
– ときわ会 常磐病院
– ファンケル
– フォーサイトシステム
– リコー
• Mobile Cloud Service
– 東京ガスiネット
Oracle Cloud Platform(PaaS/IaaS):お客様活用事例 http://bit.ly/29fFYuO
- 51. Copyright © 2016, Oracle and/or its affiliates. All rights reserved. |
どれだけカンタンに
環境を作成できるんだろう・・・
使い勝手を試してみたい!
使うために必要な設定
を確認したい!
どんなツールが
あるんだろう・・・ トライアルのお申し込みサイトはコチラ
トライアルのお申し込みサイト
- 上記サイトより、ご利用したいクラウドサービスを選択し、お申し込み頂けます。
- Oracle PaaS/IaaSの各サービスは「プラットフォーム(PaaS/IaaS)」項目をご参照ください
Database Cloud
Database Backup
Java Cloud
BI Cloud
Documents Cloud 等々
詳細なお申込み方法はFAQにてご案内しております
以下手順にて申し込みしたい該当サービスのFAQをご参照ください
- https://faq.oracle.co.jp/app/home へアクセス
- 検索キーワードに [オラクル クラウド トライアル] を入力
お申込みの流れ
お申し込みは数ステップでカンタン!30日間お試し放題!!
Oracleプロファイルの
ご登録
トライアルサブスクリプション
のサインアップ
トライアル環境への
アクセス