Enviar búsqueda
Cargar
Jubatusにおける機械学習のテスト@MLCT
•
34 recomendaciones
•
17,915 vistas
Yuya Unno
Seguir
Tecnología
Denunciar
Compartir
Denunciar
Compartir
1 de 44
Descargar ahora
Descargar para leer sin conexión
Recomendados
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Yuya Unno
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Yuya Unno
Jubatus: 分散協調をキーとした大規模リアルタイム機械学習プラットフォーム
Jubatus: 分散協調をキーとした大規模リアルタイム機械学習プラットフォーム
Preferred Networks
深層学習時代の自然言語処理
深層学習時代の自然言語処理
Yuya Unno
情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜
Yuya Unno
Jubatusの紹介@第6回さくさくテキストマイニング
Jubatusの紹介@第6回さくさくテキストマイニング
Yuya Unno
予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル
Yuya Unno
言語資源と付き合う
言語資源と付き合う
Yuya Unno
Recomendados
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Yuya Unno
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Yuya Unno
Jubatus: 分散協調をキーとした大規模リアルタイム機械学習プラットフォーム
Jubatus: 分散協調をキーとした大規模リアルタイム機械学習プラットフォーム
Preferred Networks
深層学習時代の自然言語処理
深層学習時代の自然言語処理
Yuya Unno
情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜
Yuya Unno
Jubatusの紹介@第6回さくさくテキストマイニング
Jubatusの紹介@第6回さくさくテキストマイニング
Yuya Unno
予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル
Yuya Unno
言語資源と付き合う
言語資源と付き合う
Yuya Unno
Twitter分析のためのリアルタイム分析基盤@第4回Twitter研究会
Twitter分析のためのリアルタイム分析基盤@第4回Twitter研究会
Yuya Unno
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
Yuya Unno
Development and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and maf
Kenta Oono
形態素解析の過去・現在・未来
形態素解析の過去・現在・未来
Preferred Networks
Jubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組み
JubatusOfficial
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習
Preferred Networks
ディープラーニングで株価予測をやってみた
ディープラーニングで株価予測をやってみた
卓也 安東
言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール
Yuya Unno
Python 機械学習プログラミング データ分析演習編
Python 機械学習プログラミング データ分析演習編
Etsuji Nakai
乱択データ構造の最新事情 -MinHash と HyperLogLog の最近の進歩-
乱択データ構造の最新事情 -MinHash と HyperLogLog の最近の進歩-
Takuya Akiba
Pythonによる機械学習
Pythonによる機械学習
Kimikazu Kato
Pythonによるソーシャルデータ分析―わたしはこうやって修士号を取得しました―
Pythonによるソーシャルデータ分析―わたしはこうやって修士号を取得しました―
Hisao Soyama
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
Yuya Unno
ICML2013読み会 ELLA: An Efficient Lifelong Learning Algorithm
ICML2013読み会 ELLA: An Efficient Lifelong Learning Algorithm
Yuya Unno
機械学習
機械学習
Hikaru Takemura
質問応答システム入門
質問応答システム入門
Hiroyoshi Komatsu
協調フィルタリング with Mahout
協調フィルタリング with Mahout
Katsuhiro Takata
bigdata2012nlp okanohara
bigdata2012nlp okanohara
Preferred Networks
深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴
Yuya Unno
Randomforestで高次元の変数重要度を見る #japanr LT
Randomforestで高次元の変数重要度を見る #japanr LT
Akifumi Eguchi
パーソナライズニュースを支えるML業務のまわしかた@Yahoo! JAPAN
パーソナライズニュースを支えるML業務のまわしかた@Yahoo! JAPAN
Yahoo!デベロッパーネットワーク
Machine Learning Casual Talks opening talk
Machine Learning Casual Talks opening talk
Aki Ariga
Más contenido relacionado
La actualidad más candente
Twitter分析のためのリアルタイム分析基盤@第4回Twitter研究会
Twitter分析のためのリアルタイム分析基盤@第4回Twitter研究会
Yuya Unno
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
Yuya Unno
Development and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and maf
Kenta Oono
形態素解析の過去・現在・未来
形態素解析の過去・現在・未来
Preferred Networks
Jubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組み
JubatusOfficial
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習
Preferred Networks
ディープラーニングで株価予測をやってみた
ディープラーニングで株価予測をやってみた
卓也 安東
言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール
Yuya Unno
Python 機械学習プログラミング データ分析演習編
Python 機械学習プログラミング データ分析演習編
Etsuji Nakai
乱択データ構造の最新事情 -MinHash と HyperLogLog の最近の進歩-
乱択データ構造の最新事情 -MinHash と HyperLogLog の最近の進歩-
Takuya Akiba
Pythonによる機械学習
Pythonによる機械学習
Kimikazu Kato
Pythonによるソーシャルデータ分析―わたしはこうやって修士号を取得しました―
Pythonによるソーシャルデータ分析―わたしはこうやって修士号を取得しました―
Hisao Soyama
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
Yuya Unno
ICML2013読み会 ELLA: An Efficient Lifelong Learning Algorithm
ICML2013読み会 ELLA: An Efficient Lifelong Learning Algorithm
Yuya Unno
機械学習
機械学習
Hikaru Takemura
質問応答システム入門
質問応答システム入門
Hiroyoshi Komatsu
協調フィルタリング with Mahout
協調フィルタリング with Mahout
Katsuhiro Takata
bigdata2012nlp okanohara
bigdata2012nlp okanohara
Preferred Networks
深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴
Yuya Unno
Randomforestで高次元の変数重要度を見る #japanr LT
Randomforestで高次元の変数重要度を見る #japanr LT
Akifumi Eguchi
La actualidad más candente
(20)
Twitter分析のためのリアルタイム分析基盤@第4回Twitter研究会
Twitter分析のためのリアルタイム分析基盤@第4回Twitter研究会
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
Development and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and maf
形態素解析の過去・現在・未来
形態素解析の過去・現在・未来
Jubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組み
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習
ディープラーニングで株価予測をやってみた
ディープラーニングで株価予測をやってみた
言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール
Python 機械学習プログラミング データ分析演習編
Python 機械学習プログラミング データ分析演習編
乱択データ構造の最新事情 -MinHash と HyperLogLog の最近の進歩-
乱択データ構造の最新事情 -MinHash と HyperLogLog の最近の進歩-
Pythonによる機械学習
Pythonによる機械学習
Pythonによるソーシャルデータ分析―わたしはこうやって修士号を取得しました―
Pythonによるソーシャルデータ分析―わたしはこうやって修士号を取得しました―
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
ICML2013読み会 ELLA: An Efficient Lifelong Learning Algorithm
ICML2013読み会 ELLA: An Efficient Lifelong Learning Algorithm
機械学習
機械学習
質問応答システム入門
質問応答システム入門
協調フィルタリング with Mahout
協調フィルタリング with Mahout
bigdata2012nlp okanohara
bigdata2012nlp okanohara
深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴
Randomforestで高次元の変数重要度を見る #japanr LT
Randomforestで高次元の変数重要度を見る #japanr LT
Destacado
パーソナライズニュースを支えるML業務のまわしかた@Yahoo! JAPAN
パーソナライズニュースを支えるML業務のまわしかた@Yahoo! JAPAN
Yahoo!デベロッパーネットワーク
Machine Learning Casual Talks opening talk
Machine Learning Casual Talks opening talk
Aki Ariga
Julia 100 exercises #JuliaTokyo
Julia 100 exercises #JuliaTokyo
Aki Ariga
素人がDeep Learningと他の機械学習の性能を比較してみた
素人がDeep Learningと他の機械学習の性能を比較してみた
Toru Imai
Introduction to Kanagawa Ruby Kaigi01 #kana01
Introduction to Kanagawa Ruby Kaigi01 #kana01
Aki Ariga
あなたの業務に機械学習を活用する5つのポイント
あなたの業務に機械学習を活用する5つのポイント
Shohei Hido
Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~
Yuya Unno
[D23] SQL Server 2014 リリース記念!~Hekaton, カラムストアを試して、さらにギンギンに速くしてみました!~by Daisuk...
[D23] SQL Server 2014 リリース記念!~Hekaton, カラムストアを試して、さらにギンギンに速くしてみました!~by Daisuk...
Insight Technology, Inc.
ACL2011読み会 Exploiting Web-Derived Selectional Preference to Improve Statistic...
ACL2011読み会 Exploiting Web-Derived Selectional Preference to Improve Statistic...
Yuya Unno
Jubatus workshop - 分散処理の仕組み
Jubatus workshop - 分散処理の仕組み
JubatusOfficial
形態素列パターンマッチャーMIURAをつくりました @DSIRNLP#6
形態素列パターンマッチャーMIURAをつくりました @DSIRNLP#6
Yuya Unno
ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014
Shuyo Nakatani
N-gram統計量からの係り受け情報の復元 (YANS2011)
N-gram統計量からの係り受け情報の復元 (YANS2011)
Yuya Unno
20140618 google earthの最前線
20140618 google earthの最前線
Taichi Furuhashi
jubatus pressrelease
jubatus pressrelease
JubatusOfficial
Jubatus 0.6.0 新機能紹介
Jubatus 0.6.0 新機能紹介
JubatusOfficial
DBpedia Citation Challenge. (Not only) Polish Citations in Wikipedia: analysi...
DBpedia Citation Challenge. (Not only) Polish Citations in Wikipedia: analysi...
Krzysztof Wecel
バラバラの同僚を社内勉強会でつなげよう
バラバラの同僚を社内勉強会でつなげよう
Masakatsu Sugii
UXデザインとコンセプト評価~俺様企画はだめなのよ
UXデザインとコンセプト評価~俺様企画はだめなのよ
Masaya Ando
自然言語処理@春の情報処理祭
自然言語処理@春の情報処理祭
Yuya Unno
Destacado
(20)
パーソナライズニュースを支えるML業務のまわしかた@Yahoo! JAPAN
パーソナライズニュースを支えるML業務のまわしかた@Yahoo! JAPAN
Machine Learning Casual Talks opening talk
Machine Learning Casual Talks opening talk
Julia 100 exercises #JuliaTokyo
Julia 100 exercises #JuliaTokyo
素人がDeep Learningと他の機械学習の性能を比較してみた
素人がDeep Learningと他の機械学習の性能を比較してみた
Introduction to Kanagawa Ruby Kaigi01 #kana01
Introduction to Kanagawa Ruby Kaigi01 #kana01
あなたの業務に機械学習を活用する5つのポイント
あなたの業務に機械学習を活用する5つのポイント
Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~
[D23] SQL Server 2014 リリース記念!~Hekaton, カラムストアを試して、さらにギンギンに速くしてみました!~by Daisuk...
[D23] SQL Server 2014 リリース記念!~Hekaton, カラムストアを試して、さらにギンギンに速くしてみました!~by Daisuk...
ACL2011読み会 Exploiting Web-Derived Selectional Preference to Improve Statistic...
ACL2011読み会 Exploiting Web-Derived Selectional Preference to Improve Statistic...
Jubatus workshop - 分散処理の仕組み
Jubatus workshop - 分散処理の仕組み
形態素列パターンマッチャーMIURAをつくりました @DSIRNLP#6
形態素列パターンマッチャーMIURAをつくりました @DSIRNLP#6
ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014
N-gram統計量からの係り受け情報の復元 (YANS2011)
N-gram統計量からの係り受け情報の復元 (YANS2011)
20140618 google earthの最前線
20140618 google earthの最前線
jubatus pressrelease
jubatus pressrelease
Jubatus 0.6.0 新機能紹介
Jubatus 0.6.0 新機能紹介
DBpedia Citation Challenge. (Not only) Polish Citations in Wikipedia: analysi...
DBpedia Citation Challenge. (Not only) Polish Citations in Wikipedia: analysi...
バラバラの同僚を社内勉強会でつなげよう
バラバラの同僚を社内勉強会でつなげよう
UXデザインとコンセプト評価~俺様企画はだめなのよ
UXデザインとコンセプト評価~俺様企画はだめなのよ
自然言語処理@春の情報処理祭
自然言語処理@春の情報処理祭
Similar a Jubatusにおける機械学習のテスト@MLCT
Deep Learningと自然言語処理
Deep Learningと自然言語処理
Preferred Networks
C# から java へのプログラム移植で体験したtddの効果は?
C# から java へのプログラム移植で体験したtddの効果は?
Shinichi Hirauchi
20180830 implement dqn_platinum_data_meetup_vol1
20180830 implement dqn_platinum_data_meetup_vol1
Keisuke Nakata
Inside frogc in Dart
Inside frogc in Dart
Goro Fuji
前回のCasual Talkでいただいたご要望に対する進捗状況
前回のCasual Talkでいただいたご要望に対する進捗状況
JubatusOfficial
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
Masahiro Suzuki
Jubatusでマルウェア分類
Jubatusでマルウェア分類
Shuzo Kashihara
Example of exiting legacy system
Example of exiting legacy system
TakamchiTanaka
Perl で自然言語処理
Perl で自然言語処理
Toshinori Sato
Groovy Bootcamp 2015 by JGGUG
Groovy Bootcamp 2015 by JGGUG
Uehara Junji
Introduce Groovy 2.3 trait
Introduce Groovy 2.3 trait
Uehara Junji
Mutation Testing (Aug 2012)
Mutation Testing (Aug 2012)
Takehiko Murakawa
Buildinsider OFFLINE TypeScriptの基礎から実践・利用事例まで
Buildinsider OFFLINE TypeScriptの基礎から実践・利用事例まで
Masahiro Wakame
Java8移行から始めた技術的負債との戦い(jjug ccc 2015 fall)
Java8移行から始めた技術的負債との戦い(jjug ccc 2015 fall)
sogdice
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 2 章
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 2 章
YOSHIKAWA Ryota
Spock's world
Spock's world
Takuma Watabiki
SQLアンチパターン - 開発者を待ち受ける25の落とし穴
SQLアンチパターン - 開発者を待ち受ける25の落とし穴
Takuto Wada
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
Tokyo r30 beginner
Tokyo r30 beginner
Takashi Minoda
Proxy War
Proxy War
zaki4649
Similar a Jubatusにおける機械学習のテスト@MLCT
(20)
Deep Learningと自然言語処理
Deep Learningと自然言語処理
C# から java へのプログラム移植で体験したtddの効果は?
C# から java へのプログラム移植で体験したtddの効果は?
20180830 implement dqn_platinum_data_meetup_vol1
20180830 implement dqn_platinum_data_meetup_vol1
Inside frogc in Dart
Inside frogc in Dart
前回のCasual Talkでいただいたご要望に対する進捗状況
前回のCasual Talkでいただいたご要望に対する進捗状況
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
Jubatusでマルウェア分類
Jubatusでマルウェア分類
Example of exiting legacy system
Example of exiting legacy system
Perl で自然言語処理
Perl で自然言語処理
Groovy Bootcamp 2015 by JGGUG
Groovy Bootcamp 2015 by JGGUG
Introduce Groovy 2.3 trait
Introduce Groovy 2.3 trait
Mutation Testing (Aug 2012)
Mutation Testing (Aug 2012)
Buildinsider OFFLINE TypeScriptの基礎から実践・利用事例まで
Buildinsider OFFLINE TypeScriptの基礎から実践・利用事例まで
Java8移行から始めた技術的負債との戦い(jjug ccc 2015 fall)
Java8移行から始めた技術的負債との戦い(jjug ccc 2015 fall)
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 2 章
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 2 章
Spock's world
Spock's world
SQLアンチパターン - 開発者を待ち受ける25の落とし穴
SQLアンチパターン - 開発者を待ち受ける25の落とし穴
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Tokyo r30 beginner
Tokyo r30 beginner
Proxy War
Proxy War
Más de Yuya Unno
深層学習で切り拓くパーソナルロボットの未来
深層学習で切り拓くパーソナルロボットの未来
Yuya Unno
深層学習時代の自然言語処理ビジネス
深層学習時代の自然言語処理ビジネス
Yuya Unno
ベンチャー企業で言葉を扱うロボットの研究開発をする
ベンチャー企業で言葉を扱うロボットの研究開発をする
Yuya Unno
PFNにおけるセミナー活動
PFNにおけるセミナー活動
Yuya Unno
深層学習フレームワークChainerとその進化
深層学習フレームワークChainerとその進化
Yuya Unno
進化するChainer
進化するChainer
Yuya Unno
深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション
Yuya Unno
最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...
最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...
Yuya Unno
Chainer, Cupy入門
Chainer, Cupy入門
Yuya Unno
Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用
Yuya Unno
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得
Yuya Unno
NIP2015読み会「End-To-End Memory Networks」
NIP2015読み会「End-To-End Memory Networks」
Yuya Unno
Chainer入門と最近の機能
Chainer入門と最近の機能
Yuya Unno
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
Yuya Unno
企業における自然言語処理技術利用の最先端
企業における自然言語処理技術利用の最先端
Yuya Unno
「知識」のDeep Learning
「知識」のDeep Learning
Yuya Unno
ピーFIの研究開発現場
ピーFIの研究開発現場
Yuya Unno
大規模データ時代に求められる自然言語処理 -言語情報から世界を捉える-
大規模データ時代に求められる自然言語処理 -言語情報から世界を捉える-
Yuya Unno
EMNLP2014読み会 "Efficient Non-parametric Estimation of Multiple Embeddings per ...
EMNLP2014読み会 "Efficient Non-parametric Estimation of Multiple Embeddings per ...
Yuya Unno
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
Yuya Unno
Más de Yuya Unno
(20)
深層学習で切り拓くパーソナルロボットの未来
深層学習で切り拓くパーソナルロボットの未来
深層学習時代の自然言語処理ビジネス
深層学習時代の自然言語処理ビジネス
ベンチャー企業で言葉を扱うロボットの研究開発をする
ベンチャー企業で言葉を扱うロボットの研究開発をする
PFNにおけるセミナー活動
PFNにおけるセミナー活動
深層学習フレームワークChainerとその進化
深層学習フレームワークChainerとその進化
進化するChainer
進化するChainer
深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション
最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...
最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...
Chainer, Cupy入門
Chainer, Cupy入門
Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得
NIP2015読み会「End-To-End Memory Networks」
NIP2015読み会「End-To-End Memory Networks」
Chainer入門と最近の機能
Chainer入門と最近の機能
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
企業における自然言語処理技術利用の最先端
企業における自然言語処理技術利用の最先端
「知識」のDeep Learning
「知識」のDeep Learning
ピーFIの研究開発現場
ピーFIの研究開発現場
大規模データ時代に求められる自然言語処理 -言語情報から世界を捉える-
大規模データ時代に求められる自然言語処理 -言語情報から世界を捉える-
EMNLP2014読み会 "Efficient Non-parametric Estimation of Multiple Embeddings per ...
EMNLP2014読み会 "Efficient Non-parametric Estimation of Multiple Embeddings per ...
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
Jubatusにおける機械学習のテスト@MLCT
1.
Jubatusにおける機械学習の テスト 株式会社Preferred Infrastructure 海野 裕也 (@unnonouno) 2014/06/06 Machine
Learning Casual Talks@Cookpad
2.
⾃自⼰己紹介 海野 裕也(@unnonouno) l (株) Preferred
Infrastructure l Jubatus開発者 l 専⾨門:⾃自然⾔言語処理理、テキストマイニング l クックパッドプレミアム会員 2
3.
l 今⽇日はJubatusがどのようなテストをしている のかを話します l 別の⾔言い⽅方をすると、今までのJubatusのバグ の歴史を紹介します 3
4.
Jubatus (http://jubat.us/) l 分散オンライン学習のフレームワーク l
分類・回帰・レコメンド・グラフ・近傍探索索・異異常検 知・クラスタリング l 特徴抽出エンジンも備えているので、⽣生データも扱える l 全て分散環境かつオンラインで動く 4
5.
Jubatusサーバーの構成 5 サーバー クライアント (各⾔言語) msgpack-rpc ドライバー コア
6.
各モジュールの役割 l サーバー・クライアント l msgpack-rpcサーバー・クライアントとして振る舞る l
だいたい⾃自動⽣生成される l ドライバー l ⽣生データ(⽂文書など)を処理理する層 l 特徴抽出、重み付け、学習を結びつける役割 l コア l ベクトルを受け取る⽣生の学習器 l ベクトルを⽣生成する⽣生の特徴抽出器 l 最近リポジトリを分離離した(jubatus_core) 6
7.
各レイヤーのテスト l サーバー・クライアント l 正しくクライアントのリクエスト受けつけて、処理理をドライ バーに投げられるか l
ドライバー l ⽣生データを正しくそれぞれのモジュールに引き渡しているか l コア l ちゃんと学習するか 7
8.
各レイヤーのテスト l サーバー・クライアント l 正しくクライアントのリクエスト受けつけて、処理理をドライ バーに投げられるか l
ドライバー l ⽣生データを正しくそれぞれのモジュールに引き渡しているか l コア l ちゃんと学習するか 8 割りと一般的なテスト
9.
各レイヤーのテスト l サーバー・クライアント l 正しくクライアントのリクエスト受けつけて、処理理をドライ バーに投げられるか l
ドライバー l ⽣生データを正しくそれぞれのモジュールに引き渡しているか l コア l ちゃんと学習するか 9 今日の話はこっち
10.
「ちゃんと」って? 10
11.
3つの「ちゃんと」の話をします l 「ちゃんと」問題が解けるか l 「ちゃんと」論論⽂文通りか l
「ちゃんと」使えるか 11
12.
「ちゃんと」問題を解けるか どう考えても解けるだろうという擬似問題を解かせる 12 (1, 1)と(-1, -1)を原点、分散1の正規分布からそれ ぞれ正例例と負例例をサンプリングして分類器に投げ て学習する 例:分類器の場合
13.
テストを書いてみた・・ l Perceptron l 正解率率率:95% l
Passive Aggressive l 正解率率率:97% l Confidence Weighted l 正解率率率:98% l AROW l 正解率率率:98% l NHERD l 正解率率率:70% 13
14.
??? 14
15.
何か変だ・・ 15 流流⽯石に精度度低くないですかね? ハイパーパラメータ チューニングしてないし、 不不安定な⼿手法なのかもね ナルホド、タシカニ
16.
落落ち着いて考えよう しかし、2以上も離離れている点を中⼼心にして分散 1ってことは、もうほとんど線形分離離可能だろう どんな適当なことしても70%ってことはなくない か・・・??? 16
17.
Crammer系⼿手法のおさらい 17 initialize w, ∑" for
(x, y) in data:" #m = y (x・w)" #if m < e:" # #w := w + αy∑x" # #update ∑" l ベースのアルゴリズムはシンプル l 各⼿手法は、上記のe, α, ∑だけが違う
18.
とはいえ、予想以上にグチャグチャ 式が極めて⻑⾧長いということはないが、正しく写経 できているか確認しづらい 18
19.
雰囲気だけ・・・ 19 void normal_herd::update( const common::sfv_t&
sfv, float margin, float variance, const string& pos_label, const string& neg_label) { for (common::sfv_t::const_iterator it = sfv.begin(); it != sfv.end(); ++it) { // 中略略 storage_->set2(feature, pos_label, storage::val2_t(pos_val.v1 + (1.f - margin) * val_covariance_pos / (val_covariance_pos * val + 1.f / C), 1.f / ((1.f / pos_val.v2) + (2 * C + C * C * variance) * val * val))); if (neg_label != "") { storage_->set2(feature, neg_label, storage::val2_t(neg_val.v1 + (1.f - margin) * val_covariance_neg / (val_covariance_neg * val + 1.f / C), 1.f / ((1.f / neg_val.v2) + (2 * C + C * C * variance) * val * val))); } } } この中に⼀一箇所だけ+と−を間違えています
20.
結局、何が起こっていたか l 1箇所だけ正負を間違えていた l 何度度も何度度も⾒見見返してようやく発⾒見見した l
数式とコードのギャップは深い l 発散するでもなく、完全にランダムでもなく、 妙に精度度が低かった l 精度度が思ったよりも悪かったら、疑うべき(あ たりまえだけど) 20
21.
「ちゃんと」論論⽂文の書いてある通りに実装されてい るか l 「精度度が出ない」ことがわかるのなら、頑張っ て原因を探せば良良い l 「精度度が出ていた」ら、正しく実装できている のか? 細部が異異なっていても「割と期待通りに」 動いてしまうことは多い 21
22.
あっ、あっ、あっ 22
23.
正直すまんかった @@ -38,7 +38,7
@@ void PA::train(const sfv_t& sfv, const string& label) {" if (sfv_norm == 0.f) {" return;" }" - update_weight(sfv, loss / sfv_norm, label, incorrect_label);" + update_weight(sfv, loss / (2 * sfv_norm), label, incorrect_label);" }" " string PA::name() const { 23
24.
結局、どうなったのか l そこらにあるテストセット(news20など)を利利 ⽤用して精度度の変化を試したが、ほとんど変わら なかった l 何故か間違った実装のほうが精度度が出た l
意図した実装でないことは事実、しかし発⾒見見は 極めて困難 l テストだけでは発⾒見見出来ない 24
25.
「ちゃんと」利利⽤用者に使い⽅方がわかるか l 実装のテストというか仕様のテスト? l どういう設定をするどどうなるのかが利利⽤用者に とってわかりやすくなっているか l
もっと⾔言えば、望まない結果が得られた時にど う対処すればよいかわかるようにできているか 25
26.
みんな⼤大好き-cオプション l 「Cいくつにした?」と聞かれる l 正則化項と損失の⽐比率率率を調整する重みのこと 26 %
svm-train" Usage: svm-train [options] training_set_file [model_file]" options:" ..." -c cost : set the parameter C of C-SVC, epsilon-SVR, and nu-SVR (default 1)" ...
27.
AROWの論論⽂文より、途中の式変形 27 以降降、この式を解く
28.
λ1とλ2どこ⾏行行った? 28
29.
AROWの論論⽂文より 29
30.
AROWの論論⽂文より 30
31.
r、お前誰? 31
32.
よく⾒見見ると・・・ l 本質的には r
と λ の役割は同じ l ところが⼤大⼩小関係が逆なので、⼤大きくしたり⼩小 さくした時の挙動が他のアルゴリズムと逆にな る 32
33.
ハイパーパラメータは所詮ハイパーパラメータ l λ が正しいか
1/r が正しいかの議論論は不不⽑毛 l いずれにせよ、ハイパーパラメータチューニン グで最適化するものであるから、いずれかが間 違いとは⾔言えない l 利利⽤用者側の観点でみると、考えるべきは論論⽂文と の整合性よりも使い勝⼿手(⼀一貫性) 33
34.
直しました --- a/src/classifier/arow.cpp" +++ b/src/classifier/arow.cpp" @@
-40,7 +40,7 @@ void AROW::train(const sfv_t& sfv, const string& label){" if (margin >= 1.f) {" return;" }" - float beta = 1.f / (variance + config.C);" + float beta = 1.f / (variance + 1.f / config.C);" float alpha = (1.f - margin) * beta; // max(0, 1- margin) = 1-margin" update(sfv, alpha, beta, label, incorrect_label);" } 34
35.
直しました 35
36.
設定の与え⽅方を気をつける l 式中のハイパーパラメータを外から設定できる ようにしたいが、パラメータに名前をつけるの は難しい l 仮に「元論論⽂文(2)式中のrです」と書いても、適 切切な値は探索索しないとわからない l
上下したときの影響がわかりやすく、⼀一貫性が 取れるようにする 36
37.
ハイパーパラメータが1つだけだと思うなよ l 分類器なら正則化パラメータや学習率率率程度度だっ た l 教師無しになるほど何かしらの過程を置く l
◯◯分布を仮定する l ◯◯個のトピック、クラスタを仮定する 37 ハイパーパラメータの数が爆発
38.
CoreSetクラスタリング l ⼊入⼒力力データ点から⼀一部の点を「うまく」選ぶことで、元 のデータをk-meansした時とだいたい同じセントロイド が得られる l Jubatus内部では、この処理理を段階的に適⽤用して、内部 の使⽤用メモリ量量を⼀一定に抑えている 38 青の点の代わりに 緑の点だけ保存し ておく
39.
お、おう・・・ l クラスタ数K以外に、 ハイパーパラメータ が沢⼭山 39 設定値は6個ある
40.
何でこんなにパラメータが多いのか? l 段階的に圧縮していくため、圧縮の頻度度、1回での圧縮 率率率、2段⽬目以降降の圧縮のタイミング、最⼤大圧縮段数など 調整できるパラメータが増える 40 圧縮のタイ ミング 圧縮後のサ イズ 多段圧縮の タイミング 最⼤大圧縮段数
41.
最近思っていること パラメータによる影響範囲がなるべく限定的にし、 複数の変化が起きにくくするのがよい l メモリ消費量量 l イテレーションの時間 l
スループット l 直近のデータへの感度度・過去データの忘却の程 度度 41 1つのパラメータで3つ以上変化 すると制御は難しい
42.
まとめ l 「ちゃんと」問題が解けるか l 解けそうな問題を解けるか l
簡単な問題にヒドイ間違いをしないか l 「ちゃんと」論論⽂文通りか l 数式はちゃんと写しているか l 確認する⽅方法は・・・頑張れ・・・ l 「ちゃんと」使えるか l 設定は⼗十分意味が伝わり、⼀一貫性が有るか l 挙動を制御しやすいか 42
43.
次回 「機械学習のデバック術」 乞うご期待 43
44.
ご静聴ありがとうございました 44
Descargar ahora