SlideShare una empresa de Scribd logo
1 de 28
Descargar para leer sin conexión
R使いがSparkを使ったら
早川 敦士
自己紹介
早川 敦士
株式会社リクルートコミュニケーションズ 2015年4月 新卒入社
大学時代の専門:品質管理・信頼性工学
Japan.R 2015 主催
·
·
主な担当業務: アドホック分析や可視化ツール開発-
·
·
普段はR言語のコミュニティに生息-
2/28
R言語とSpark
R言語ユーザから見えるSpark
Scala?
関数型言語?
よく分からないけど、難しそう
·
·
·
4/28
Strata Hadoop
カンファレンスのメインテーマはSpark
5/28
Strata Hadoop参加後の僕
時代はSparkだ!
R言語では捌けない大規模データをSparkで処理したい!
馴染み深いDataFrameも使える!
·
·
·
6/28
R言語ユーザにとってお馴染みのdata.frame
R言語ユーザはdata.frameで生活している
dplyrサイコー
データの集計・加工が簡単になる!
·
·
·
7/28
google trendにおけるDataFrame
8/28
dplyrによるデータ加工例
iris %>% head(2)
## Sepal.Length Sepal.Width Petal.Length Petal.Width Species
## 1 5.1 3.5 1.4 0.2 setosa
## 2 4.9 3.0 1.4 0.2 setosa
iris %>%
filter(Species %in% c("setosa", "versicolor")) %>%
group_by(Species) %>%
summarise(sepal_length_sum = sum(Sepal.Length)) %>%
head()
## Source: local data frame [2 x 2]
##
## Species sepal_length_sum
9/28
SparkにおけるDataFrame
http://spark.apache.org/docs/latest/sql-programming-guide.html
大体の事は、ここに書いてある。 10/28
困ったら、更なる深みへ
http://spark.apache.org/docs/latest/api/scala
/index.html#org.apache.spark.sql.DataFrame
検討をつけて、検索して漁る
ドキュメントに情報が無いことが多いので、こっちを見ることが多い。
11/28
Sparkにおけるデータの流れ
spark-whats-new-whats-coming
Machine Learning Library (MLlib) Guide
·
·
12/28
S3
Spark
Core
RDD現在
DataFrame
API
org.apache.
spark.mllib
現在
現在
org.apache.
spark.ml
将来
 
Spark DataFrameとR言
語の比較
13/28
データの読み込み
R
Spark
csvを読み込む場合は自前でパースするか、別のライブラリを用いる。
df <- read.csv("iris.csv")
val hadoopConf=sc.hadoopConfiguration;
hadoopConf.set("fs.s3.impl", "org.apache.hadoop.fs.s3native.NativeS3FileSystem")
hadoopConf.set("fs.s3.awsAccessKeyId","ほげ")
hadoopConf.set("fs.s3.awsSecretAccessKey","ほげ")
val sqlContext = new org.apache.spark.sql.SQLContext(sc)
val df = sqlContext.read.json(s"s3://ほげ/iris.json")
14/28
最初の?行を見る
R
Spark
df %>% head(1)
df.limit(1)
15/28
列の選択
R
Spark
df %>% select("Sepal_Length")
df.select("Sepal_Length")
16/28
条件に一致する行を取り出す
R
Spark
or
df %>% filter(Sepal_Length > 5)
df.filter($"Sepal_Length".gt(5))
df.filter($"Sepal_Length" > 5)
17/28
groubyで行数を数える
R
Spark
or
df %>%
group_by("Species") %>%
summarize(count = n())
df.
groupBy("Species").count()
df.
groupBy("Species").agg($"Species", count("Sepal_Length"))
18/28
groupbyで集計する
R
Spark
df %>%
group_by(Species) %>%
summarize(max(Sepal_Length), min(Sepal_Length))
df.
groupBy("Species").
agg($"Species", max("Sepal_Length"), min("Sepal_Length"))
19/28
ソート
R
Spark
iris %>%
arrange(Sepal.Length)
df.
sort(asc("Sepal_Length"))
20/28
ランクを求める
R
Spark
HiveContextを使う必要がある。
df %>% mutate(Sepal_Length, rank=rank(Sepal.Length))
import org.apache.spark.sql.hive.HiveContext
import org.apache.spark.sql.expressions.Window
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
val df = sqlContext.read.json(s"s3://ほげ/iris.json")
val wSpec = Window.orderBy($"Sepal_Length")
val wSpec = Window.orderBy($"Sepal_Length")
df.select($"Sepal_Length", rank().over(wSpec).alias("rank"))
21/28
partitionByでランクを求める
R
Spark
df %>%
group_by("Species") %>%
mutate(rank=rank(Sepal_Length))
val wSpec = Window.partitionBy(df("Species")).orderBy(df("Sepal_Length"))
df.select($"Sepal_Length",
$"Species",
rank().over(wSpec).alias("rank"))
22/28
partitionByでrowNumberを使ってランクを求
める
R
Spark
df %>%
arrange(Sepal_Length) %>%
mutate(row_number = 1:n())
val wSpec = Window.orderBy(df("Sepal_Length"))
df.select($"Sepal_Length",
$"Species", rowNumber.over(wSpec).alias("row_number"))
23/28
Species毎にSepal_Lengthで並び替えて差分を
求める
R
Spark
df %>%
group_by(Species) %>%
arrange(Sepal_Length) %>%
mutate(Sepal_Length_lag = Sepal_Length - lag(Sepal_Length))
val wSpec = Window.partitionBy($"Species").orderBy($"Sepal_Length")
df.select($"Sepal_Length", $"Species",
($"Sepal_Length" - lag($"Sepal_Length", 1).
over(wSpec)).alias("Sepal_Length_lag"))
24/28
Species毎にSepal_Lengthで並び替えて累積
和を求める
R
Spark
df %>%
group_by(Species) %>%
arrange(Sepal_Length) %>%
mutate(Sepal_Length_cumsum = cumsum(Sepal_Length))
val wSpec = Window.partitionBy($"Species").orderBy("Sepal_Length")
df.select($"Sepal_Length",
$"Species",
sum($"Sepal_Length").over(wSpec).alias("Sepal_Length_cumsum"))
25/28
inner joinする
R
Spark
sample1 %>%
inner_join(., sample2, by=c("prefecture", "city"))
val sample1_url = s"s3://ほげ/sample1.json"
val sample2_url = s"s3://ほげ/sample2.json"
val sample1 = sqlContext.read.json(sample1_url).as("sample1")
val sample2 = sqlContext.read.json(sample2_url).as("sample2")
sample1.join(sample2).
where($"sample1.prefecture" === $"sample2.prefecture" &&
$"sample1.city" === $"sample2.city")
26/28
最後に
データ加工をする上で頻出する(data.frame|DataFrame)の操作をRのdplyrと
SparkのDataFrameで比較した。
今後のSparkはRDDではなく、DataFrameがメインになっていく可能性が高い
ので、 明日から使おう!!
27/28
 
ENJOY DataFrame
28/28

Más contenido relacionado

La actualidad más candente

基幹業務もHadoopで!! -ローソンにおける店舗発注業務への Hadoop + Hive導入と その取り組みについて-
基幹業務もHadoopで!! -ローソンにおける店舗発注業務へのHadoop + Hive導入と その取り組みについて-基幹業務もHadoopで!! -ローソンにおける店舗発注業務へのHadoop + Hive導入と その取り組みについて-
基幹業務もHadoopで!! -ローソンにおける店舗発注業務への Hadoop + Hive導入と その取り組みについて-
Keigo Suda
 

La actualidad más candente (20)

データ活用をもっともっと円滑に! ~データ処理・分析基盤編を少しだけ~
データ活用をもっともっと円滑に!~データ処理・分析基盤編を少しだけ~データ活用をもっともっと円滑に!~データ処理・分析基盤編を少しだけ~
データ活用をもっともっと円滑に! ~データ処理・分析基盤編を少しだけ~
 
ビッグデータ活用を加速する!分散SQLエンジン Spark SQL のご紹介 20161105 OSC Tokyo Fall
ビッグデータ活用を加速する!分散SQLエンジン Spark SQL のご紹介 20161105 OSC Tokyo Fallビッグデータ活用を加速する!分散SQLエンジン Spark SQL のご紹介 20161105 OSC Tokyo Fall
ビッグデータ活用を加速する!分散SQLエンジン Spark SQL のご紹介 20161105 OSC Tokyo Fall
 
Apache Hadoop 2.8.0 の新機能 (抜粋)
Apache Hadoop 2.8.0 の新機能 (抜粋)Apache Hadoop 2.8.0 の新機能 (抜粋)
Apache Hadoop 2.8.0 の新機能 (抜粋)
 
分散処理基盤ApacheHadoop入門とHadoopエコシステムの最新技術動向(OSC2015 Kansai発表資料)
分散処理基盤ApacheHadoop入門とHadoopエコシステムの最新技術動向(OSC2015 Kansai発表資料)分散処理基盤ApacheHadoop入門とHadoopエコシステムの最新技術動向(OSC2015 Kansai発表資料)
分散処理基盤ApacheHadoop入門とHadoopエコシステムの最新技術動向(OSC2015 Kansai発表資料)
 
Ansibleで構成管理始める人のモチベーションをあげたい! (Cloudera World Tokyo 2014LT講演資料)
Ansibleで構成管理始める人のモチベーションをあげたい! (Cloudera World Tokyo 2014LT講演資料)Ansibleで構成管理始める人のモチベーションをあげたい! (Cloudera World Tokyo 2014LT講演資料)
Ansibleで構成管理始める人のモチベーションをあげたい! (Cloudera World Tokyo 2014LT講演資料)
 
Apache Spark超入門 (Hadoop / Spark Conference Japan 2016 講演資料)
Apache Spark超入門 (Hadoop / Spark Conference Japan 2016 講演資料)Apache Spark超入門 (Hadoop / Spark Conference Japan 2016 講演資料)
Apache Spark超入門 (Hadoop / Spark Conference Japan 2016 講演資料)
 
Hadoop ecosystem NTTDATA osc15tk
Hadoop ecosystem NTTDATA osc15tkHadoop ecosystem NTTDATA osc15tk
Hadoop ecosystem NTTDATA osc15tk
 
Hadoop / Spark Conference Japan 2016 ご挨拶・Hadoopを取り巻く環境
Hadoop / Spark Conference Japan 2016 ご挨拶・Hadoopを取り巻く環境Hadoop / Spark Conference Japan 2016 ご挨拶・Hadoopを取り巻く環境
Hadoop / Spark Conference Japan 2016 ご挨拶・Hadoopを取り巻く環境
 
SIerとオープンソースの美味しい関係 ~コミュニティの力を活かして世界を目指そう~
SIerとオープンソースの美味しい関係 ~コミュニティの力を活かして世界を目指そう~SIerとオープンソースの美味しい関係 ~コミュニティの力を活かして世界を目指そう~
SIerとオープンソースの美味しい関係 ~コミュニティの力を活かして世界を目指そう~
 
Hadoopエコシステムの最新動向とNTTデータの取り組み (OSC 2016 Tokyo/Spring 講演資料)
Hadoopエコシステムの最新動向とNTTデータの取り組み (OSC 2016 Tokyo/Spring 講演資料)Hadoopエコシステムの最新動向とNTTデータの取り組み (OSC 2016 Tokyo/Spring 講演資料)
Hadoopエコシステムの最新動向とNTTデータの取り組み (OSC 2016 Tokyo/Spring 講演資料)
 
Apache Sparkに手を出してヤケドしないための基本 ~「Apache Spark入門より」~ (デブサミ 2016 講演資料)
Apache Sparkに手を出してヤケドしないための基本 ~「Apache Spark入門より」~ (デブサミ 2016 講演資料)Apache Sparkに手を出してヤケドしないための基本 ~「Apache Spark入門より」~ (デブサミ 2016 講演資料)
Apache Sparkに手を出してヤケドしないための基本 ~「Apache Spark入門より」~ (デブサミ 2016 講演資料)
 
並列分散処理基盤Hadoopの紹介と、開発者が語るHadoopの使いどころ (Silicon Valley x 日本 / Tech x Business ...
並列分散処理基盤Hadoopの紹介と、開発者が語るHadoopの使いどころ (Silicon Valley x 日本 / Tech x Business ...並列分散処理基盤Hadoopの紹介と、開発者が語るHadoopの使いどころ (Silicon Valley x 日本 / Tech x Business ...
並列分散処理基盤Hadoopの紹介と、開発者が語るHadoopの使いどころ (Silicon Valley x 日本 / Tech x Business ...
 
ちょっと理解に自信がないな という皆さまに贈るHadoop/Sparkのキホン (IBM Datapalooza Tokyo 2016講演資料)
ちょっと理解に自信がないなという皆さまに贈るHadoop/Sparkのキホン (IBM Datapalooza Tokyo 2016講演資料)ちょっと理解に自信がないなという皆さまに贈るHadoop/Sparkのキホン (IBM Datapalooza Tokyo 2016講演資料)
ちょっと理解に自信がないな という皆さまに贈るHadoop/Sparkのキホン (IBM Datapalooza Tokyo 2016講演資料)
 
Pythonで入門するApache Spark at PyCon2016
Pythonで入門するApache Spark at PyCon2016Pythonで入門するApache Spark at PyCon2016
Pythonで入門するApache Spark at PyCon2016
 
分散処理基盤Apache Hadoopの現状と、NTTデータのHadoopに対する取り組み
分散処理基盤Apache Hadoopの現状と、NTTデータのHadoopに対する取り組み分散処理基盤Apache Hadoopの現状と、NTTデータのHadoopに対する取り組み
分散処理基盤Apache Hadoopの現状と、NTTデータのHadoopに対する取り組み
 
今からはじめるPuppet 2016 ~ インフラエンジニアのたしなみ ~
今からはじめるPuppet 2016 ~ インフラエンジニアのたしなみ ~今からはじめるPuppet 2016 ~ インフラエンジニアのたしなみ ~
今からはじめるPuppet 2016 ~ インフラエンジニアのたしなみ ~
 
Apache Spark 2.4 and 3.0 What's Next?
Apache Spark 2.4 and 3.0  What's Next? Apache Spark 2.4 and 3.0  What's Next?
Apache Spark 2.4 and 3.0 What's Next?
 
Apache Hadoop and YARN, current development status
Apache Hadoop and YARN, current development statusApache Hadoop and YARN, current development status
Apache Hadoop and YARN, current development status
 
基幹業務もHadoopで!! -ローソンにおける店舗発注業務への Hadoop + Hive導入と その取り組みについて-
基幹業務もHadoopで!! -ローソンにおける店舗発注業務へのHadoop + Hive導入と その取り組みについて-基幹業務もHadoopで!! -ローソンにおける店舗発注業務へのHadoop + Hive導入と その取り組みについて-
基幹業務もHadoopで!! -ローソンにおける店舗発注業務への Hadoop + Hive導入と その取り組みについて-
 
ストリームデータ分散処理基盤Storm
ストリームデータ分散処理基盤Stormストリームデータ分散処理基盤Storm
ストリームデータ分散処理基盤Storm
 

Destacado

Machine learning for biginner
Machine learning for biginnerMachine learning for biginner
Machine learning for biginner
Atsushi Hayakawa
 
Apache HBase 入門 (第2回)
Apache HBase 入門 (第2回)Apache HBase 入門 (第2回)
Apache HBase 入門 (第2回)
tatsuya6502
 
Hpca2012 facebook keynote
Hpca2012 facebook keynoteHpca2012 facebook keynote
Hpca2012 facebook keynote
parallellabs
 
Apache HBase 入門 (第1回)
Apache HBase 入門 (第1回)Apache HBase 入門 (第1回)
Apache HBase 入門 (第1回)
tatsuya6502
 

Destacado (20)

リクルートライフスタイル全サービス横断のリアルタイムログ収集・可視化・分析基盤
リクルートライフスタイル全サービス横断のリアルタイムログ収集・可視化・分析基盤リクルートライフスタイル全サービス横断のリアルタイムログ収集・可視化・分析基盤
リクルートライフスタイル全サービス横断のリアルタイムログ収集・可視化・分析基盤
 
論文輪読会 - A Multi-level Trend-Renewal Process for Modeling Systems with Recurre...
論文輪読会 - A Multi-level Trend-Renewal Process for Modeling Systems with Recurre...論文輪読会 - A Multi-level Trend-Renewal Process for Modeling Systems with Recurre...
論文輪読会 - A Multi-level Trend-Renewal Process for Modeling Systems with Recurre...
 
Confluence上でレポート自動生成によってKPIを共有する
Confluence上でレポート自動生成によってKPIを共有するConfluence上でレポート自動生成によってKPIを共有する
Confluence上でレポート自動生成によってKPIを共有する
 
CET(Capture EveryThing)プロジェクトにおけるﰀ機械学 習・データマイニング最前線
CET(Capture EveryThing)プロジェクトにおけるﰀ機械学 習・データマイニング最前線CET(Capture EveryThing)プロジェクトにおけるﰀ機械学 習・データマイニング最前線
CET(Capture EveryThing)プロジェクトにおけるﰀ機械学 習・データマイニング最前線
 
クラウド上でHadoopを構築できる Cloudera Director 2.0 の紹介 #dogenzakalt
クラウド上でHadoopを構築できる Cloudera Director 2.0 の紹介 #dogenzakaltクラウド上でHadoopを構築できる Cloudera Director 2.0 の紹介 #dogenzakalt
クラウド上でHadoopを構築できる Cloudera Director 2.0 の紹介 #dogenzakalt
 
Cloudera + MicrosoftでHadoopするのがイイらしい。 #CWT2016
Cloudera + MicrosoftでHadoopするのがイイらしい。 #CWT2016Cloudera + MicrosoftでHadoopするのがイイらしい。 #CWT2016
Cloudera + MicrosoftでHadoopするのがイイらしい。 #CWT2016
 
20161004 データ処理のプラットフォームとしてのpythonとpandas 東京
20161004 データ処理のプラットフォームとしてのpythonとpandas 東京20161004 データ処理のプラットフォームとしてのpythonとpandas 東京
20161004 データ処理のプラットフォームとしてのpythonとpandas 東京
 
Machine learning for biginner
Machine learning for biginnerMachine learning for biginner
Machine learning for biginner
 
Hadoopトレーニング番外編 〜間違えられやすいHadoopの7つの仕様〜
Hadoopトレーニング番外編 〜間違えられやすいHadoopの7つの仕様〜Hadoopトレーニング番外編 〜間違えられやすいHadoopの7つの仕様〜
Hadoopトレーニング番外編 〜間違えられやすいHadoopの7つの仕様〜
 
Apache HBase 入門 (第2回)
Apache HBase 入門 (第2回)Apache HBase 入門 (第2回)
Apache HBase 入門 (第2回)
 
The Future of Hadoop: A deeper look at Apache Spark
The Future of Hadoop: A deeper look at Apache SparkThe Future of Hadoop: A deeper look at Apache Spark
The Future of Hadoop: A deeper look at Apache Spark
 
統計的学習の基礎 4.4~
統計的学習の基礎 4.4~統計的学習の基礎 4.4~
統計的学習の基礎 4.4~
 
Impala Unlocks Interactive BI on Hadoop
Impala Unlocks Interactive BI on HadoopImpala Unlocks Interactive BI on Hadoop
Impala Unlocks Interactive BI on Hadoop
 
Cloudera Impala Overview (via Scott Leberknight)
Cloudera Impala Overview (via Scott Leberknight)Cloudera Impala Overview (via Scott Leberknight)
Cloudera Impala Overview (via Scott Leberknight)
 
Cloud Native Hadoop #cwt2016
Cloud Native Hadoop #cwt2016Cloud Native Hadoop #cwt2016
Cloud Native Hadoop #cwt2016
 
Hpca2012 facebook keynote
Hpca2012 facebook keynoteHpca2012 facebook keynote
Hpca2012 facebook keynote
 
Rstudio上でのパッケージインストールを便利にするaddin4githubinstall
Rstudio上でのパッケージインストールを便利にするaddin4githubinstallRstudio上でのパッケージインストールを便利にするaddin4githubinstall
Rstudio上でのパッケージインストールを便利にするaddin4githubinstall
 
Apache Tez: Accelerating Hadoop Query Processing
Apache Tez: Accelerating Hadoop Query Processing Apache Tez: Accelerating Hadoop Query Processing
Apache Tez: Accelerating Hadoop Query Processing
 
Apache HBase 入門 (第1回)
Apache HBase 入門 (第1回)Apache HBase 入門 (第1回)
Apache HBase 入門 (第1回)
 
Apache Spark の紹介(前半:Sparkのキホン)
Apache Spark の紹介(前半:Sparkのキホン)Apache Spark の紹介(前半:Sparkのキホン)
Apache Spark の紹介(前半:Sparkのキホン)
 

Similar a R使いがSparkを使ったら

線形型のある言語でLEDを光らせる
線形型のある言語でLEDを光らせる線形型のある言語でLEDを光らせる
線形型のある言語でLEDを光らせる
啓 小笠原
 
Asakusa Framework 勉強会 2014 夏
Asakusa Framework 勉強会 2014 夏Asakusa Framework 勉強会 2014 夏
Asakusa Framework 勉強会 2014 夏
鉄平 土佐
 

Similar a R使いがSparkを使ったら (20)

20160127三木会 RDB経験者のためのspark
20160127三木会 RDB経験者のためのspark20160127三木会 RDB経験者のためのspark
20160127三木会 RDB経験者のためのspark
 
Introduction to Hadoop and Spark (before joining the other talk) and An Overv...
Introduction to Hadoop and Spark (before joining the other talk) and An Overv...Introduction to Hadoop and Spark (before joining the other talk) and An Overv...
Introduction to Hadoop and Spark (before joining the other talk) and An Overv...
 
20151205 Japan.R SparkRとParquet
20151205 Japan.R SparkRとParquet20151205 Japan.R SparkRとParquet
20151205 Japan.R SparkRとParquet
 
Scala採用の背景とその後 @ hitomedia night #5
Scala採用の背景とその後 @ hitomedia night #5Scala採用の背景とその後 @ hitomedia night #5
Scala採用の背景とその後 @ hitomedia night #5
 
Apache spark 2.3 and beyond
Apache spark 2.3 and beyondApache spark 2.3 and beyond
Apache spark 2.3 and beyond
 
Big datauniversity
Big datauniversityBig datauniversity
Big datauniversity
 
What makes Apache Spark?
What makes Apache Spark?What makes Apache Spark?
What makes Apache Spark?
 
SAP TechEd 2019 歩き方セッション「ブロガーがみてきたSAP TechEd 2018」
SAP TechEd 2019 歩き方セッション「ブロガーがみてきたSAP TechEd 2018」SAP TechEd 2019 歩き方セッション「ブロガーがみてきたSAP TechEd 2018」
SAP TechEd 2019 歩き方セッション「ブロガーがみてきたSAP TechEd 2018」
 
Scala Daysに行ってみて
Scala Daysに行ってみてScala Daysに行ってみて
Scala Daysに行ってみて
 
線形型のある言語でLEDを光らせる
線形型のある言語でLEDを光らせる線形型のある言語でLEDを光らせる
線形型のある言語でLEDを光らせる
 
9/16 Tokyo Apache Drill Meetup - drill vs sparksql
9/16 Tokyo Apache Drill Meetup - drill vs sparksql9/16 Tokyo Apache Drill Meetup - drill vs sparksql
9/16 Tokyo Apache Drill Meetup - drill vs sparksql
 
Asakusa Framework 勉強会 2014 夏
Asakusa Framework 勉強会 2014 夏Asakusa Framework 勉強会 2014 夏
Asakusa Framework 勉強会 2014 夏
 
Introduction r (R入門)
Introduction r (R入門)Introduction r (R入門)
Introduction r (R入門)
 
Hadoop scr第7回 hw2011フィードバック
Hadoop scr第7回 hw2011フィードバックHadoop scr第7回 hw2011フィードバック
Hadoop scr第7回 hw2011フィードバック
 
20190517 Spark+AI Summit2019最新レポート
20190517 Spark+AI Summit2019最新レポート20190517 Spark+AI Summit2019最新レポート
20190517 Spark+AI Summit2019最新レポート
 
生粋のRubyistがJavaを好きになった理由
生粋のRubyistがJavaを好きになった理由生粋のRubyistがJavaを好きになった理由
生粋のRubyistがJavaを好きになった理由
 
クラウドから始めるRのビッグデータ分析- Oracle R Enterprise in Cloud
クラウドから始めるRのビッグデータ分析- Oracle R Enterprise in Cloudクラウドから始めるRのビッグデータ分析- Oracle R Enterprise in Cloud
クラウドから始めるRのビッグデータ分析- Oracle R Enterprise in Cloud
 
活動報告8 r入門-
活動報告8  r入門-活動報告8  r入門-
活動報告8 r入門-
 
Overview of Scala ~ Hacker Tackle
Overview of Scala ~ Hacker TackleOverview of Scala ~ Hacker Tackle
Overview of Scala ~ Hacker Tackle
 
SAIS/SIGMOD参加報告 in SAIS/DWS2018報告会@Yahoo! JAPAN
SAIS/SIGMOD参加報告 in SAIS/DWS2018報告会@Yahoo! JAPANSAIS/SIGMOD参加報告 in SAIS/DWS2018報告会@Yahoo! JAPAN
SAIS/SIGMOD参加報告 in SAIS/DWS2018報告会@Yahoo! JAPAN
 

R使いがSparkを使ったら