SlideShare a Scribd company logo
1 of 51
Download to read offline
深層学習時代の⾃自然⾔言語処理理
(株)Preferred Infrastructure
海野  裕也(@unnonouno)
2015/01/24 TokyoWebmining
⾃自⼰己紹介
海野  裕也
l  (株)プリファードインフラストラクチャー
l  ⾃自然⾔言語処理理、情報検索索、機械学習、テキストマイ
ニングなどの研究開発
l  画像解析とかもやります
l  Jubatusの開発など
NLP若若⼿手の会共同委員⻑⾧長(2014-)
2
宣伝:NLP若若⼿手の会(YANS)
l  YANSシンポジウム(9⽉月)
l  若若⼿手研究者(40歳未満くらい)の若若⼿手研究者が、⾃自
⾝身の研究を進めるための集まり
l  学⽣生やエンジニアの参加も歓迎
l  今年年も合宿をやる予定です
l  スポンサーも募集する予定です
l  YANS懇(3⽉月)
l  ⾔言語処理理学会全国⼤大会期間中に懇親会をします
l  単なる飲み会です  J
3
今⽇日のはなし
l  ⾔言語処理理系でよくみる深層学習系の話のざっく
りまとめ
l  既存の⾔言語処理理技術との関係性について議論論
(←こっちがメイン)
4
おすすめ資料料
l  渡邉陽太郎郎さんのチュートリアルがよくまとまっている
l  http://ibisml.org/archive/ibis2013/pdfs/ibis2013-watanabe.pdf
5
⾔言語処理理固有(?)の問題
1.  ⼊入⼒力力はシーケンス
2.  シーケンスの各要素の異異なり数は膨⼤大(単語)
3.  極めて規則的に各要素が選ばれる(⽂文法)
6
⾔言語処理理に於ける深層学習を観るポイント
l  シーケンスをどう扱うか⼿手法毎に違う
l  1つの単語は1つのベクトルで表す
l  ⽂文法的な規則が学習できると信じる
7
⾔言語処理理でよくみる深層(表現)学習3種
l  Recurrent Neural Network
l  Recursive Neural Network
l  Skip-gram
8
⾔言語処理理でよくみる深層(表現)学習3種
l  Recurrent Neural Network
l  Recursive Neural Network
l  Skip-gram
9	
Skip-gramは
このあと@piroyoungさんが
説明してくれる!
l  Recurrent Neural Network
l  Recursive Neural Network
10
Recurrent Neural Network (RNN)
l  系列列に対するネットワーク
l  隠れ層をコピーして、次の⼊入
⼒力力に使うところがポイント
l  必ずしも予測は必要ない
11	
⽂文字、単語
時刻  t-‐‑‒1  の隠れ層
隠れ層 予測
コピー
詳しいことは得居さんの資料料を⾒見見て下さい
http://www.slideshare.net/beam2d/pfi-seminar-20141030rnn
12	
オススメ
つなげて書くと・・・
13	
⽂文字1
時刻  0  の隠れ層
隠れ層
時刻1の
予測
⽂文字2
時刻2の
予測
⽂文字3
時刻3の
予測
ふつうのニューラルネットとの関係
l  横⽅方向に並べて書くと・・・
14	
ここだけみると、⽂文
⻑⾧長と同じ⻑⾧長さのニュー
ラルネットワーク
Recurrent Neural Network Language Model
(RNNLM) [Mikolov+10]
l  RNNを使った⾔言語モデル
l  次の単語を予測する
l  隠れ層に⽂文脈情報が埋め込ま
れていくイメージ
15	
⽂文字、単語
時刻  t-‐‑‒1  の隠れ層
隠れ層 次の⼊入⼒力力
の予測
コピー
Back Propagation Through Time (BPTT)で学習
l  展開した状態で誤差逆伝搬(Back Propagation)する
と、時間をさかのぼって学習しているように⾒見見える
16
深いネットワークと同様の問題が発⽣生する
l  何度度も掛け算が発⽣生するので、重みが爆発したり、勾配
が消失する問題が発⽣生する
l  そのため、⻑⾧長期依存を学習できない
17
Long Short-Term Memory
l  勾配が消えないようにエラーを内部に貯めこむ構造に
なっている
l  ⼊入出⼒力力のゲートを作って、情報を選択的に流流すようにす
る(流流すタイミングを学習するイメージ)
18	
情報が貯
まる
出⼒力力タイ
ミング
⼊入⼒力力タイ
ミング
昨年年後半からLSTMが流流⾏行行(?)
l  Sequence to sequenceのLSTMで機械翻訳 [Sutskever
+14]
l  原⽂文を全部⾷食わせてベクトルを作って、そこから翻訳⽂文を⽣生成
する
l  同じ⽅方法を構⽂文解析に適⽤用 [Vinyals+15]
l  いずれもGoogle
19
l  Recurrent Neural Network
l  Recursive Neural Network
20
Recursive Neural Network (RNN)
l  2つの単語の表現ベクトルを組合せて、フレーズ
の表現ベクトルを構成する
l  再帰的に繰り返すことで、⽂文全体の表現ベクト
ルを作る
21
RNNによる構⽂文解析 [Socher+11]
l  隣隣接単語からフレーズを
構成する
l  構成を繰り返すことで、
⽊木ができる
l  画像の構造推定にも使え
る
22
RNNによる評判分析 [Socher+13]
l  構⽂文⽊木に沿ってベクトルを再帰的に構築して、分類する
l  各フレーズ単位でもpos/negの判定ができる
23
RecurrentはRecursiveの⼀一種?
l  Recursiveでは、普通は⽊木構造(構⽂文⽊木)に沿ってベク
トルを再帰的に構築する
l  Recurrentは、⽊木ではなくてシーケンスに沿って構築し
ていると⾒見見ると、Recursiveの特殊ケースに思える・・
24	
x1 x2 x3 x4
h1
h2
h3
議論論:Recursive Neural NetworkとConvolutional
Neural Network (CNN) の関係?
l  いずれも隣隣接要素から新しいベクトルを構成している点
で似ている
l  CNNはどのような構造があるか仮定を置いていない点、
繰り返しの回数が予め決まっている点、層毎に重みが違
う点で異異なる
25
Recurrent vs Recursive
いずれも⼊入⼒力力(シーケンス)に対して単⼀一のベク
トルが作られる
l  Recurrentは前から順番にベクトルを構成する
l  Recursiveは⽊木構造に沿ってベクトルを構成する
26
ここからが本題
27
今⽇日の議論論
⾃自然⾔言語処理理において
深層学習のアプローチは
何が嬉しいのか考えてみる
28
構⽂文解析のことを考える・・・
l  構⽂文解析とは⽂文の構造を推定するタスク
l  「構造」は、ふつう句句構造か係り受け構造
l  もっとも標準的な⾃自然⾔言語処理理のタスク
29	
⽂文
私は りんごを ⾷食べた
動詞句句
私は りんごを ⾷食べた
余談:プログラミング⾔言語の構⽂文解析の場合
⾃自然⾔言語と違って・・・
l  曖昧性がない(2通りの解釈は許されない)
l  線形の計算量量で解析できる(CKY法はO(n3)時
間)
ことが強く要請される
30
構⽂文解析⼿手法(特に係り受け)の2⼤大派閥
l  Transition-based(局所最適型)
l  ⽂文を前から順番に読んで、スタックに積んでいく
l  Shift-Reduce法
l  Graph-based(⼤大域最適型)
l  全ての構造の候補からスコアの最⼤大となる⽊木を効率率率
的に選ぶ
l  MST法、Eisner法、CKYアルゴリズム
31
Shift-Reduce法(1/2)
l  単語を前から順番に読み込んで、スタックに積みながら
⽊木を構築していく
l  普通は単語を読むたびに決定的に「操作」を⾏行行うため、
⽂文⻑⾧長に対して線形時間で解析できる
32
Shift-Reduce法(2/2)
l  ⽂文を前から読んで、スタックに積む(Shift)か消す
(Reduce)の分類を繰り返す
l  操作のたびにスタックの中⾝身は変化する
l  スタックの中⾝身と、⽂文中の単語からいずれの操作をする
か判断する
33	
 時間変化
スタックの操作の仕⽅方で⼿手法が変わる
l  前から順番に読むのは同じだが、スタックに対
する操作の⽅方法で亜種が沢⼭山ある
l  Arc-Eager / Arc-Standardなど
l  どういう操作体系にするかが性能にも影響を与
える
34
RecurrentとShift-Reduce法の類似性
l  前から順番に読んでいく
l  内部状態(隠れベクトル or スタック)を次々に更更新し
ていく
35	
内部状態
RNNの隠れ状態の中にスタック相当の情報が埋め込
まれている???
36	
?	
いい感じのスタック操作になるように学習している?
⽂文脈⾃自由⽂文法(context free grammar, CFG)
l  チョムスキー階層の3番⽬目
l  書き換え規則の左辺は1つの⾮非終端記号し
か現れない
37	
X à Y Z
X à α
確率率率的⽂文脈⾃自由⽂文法(PCFG)による構⽂文解析
l  ⽂文脈⾃自由⽂文法の各規則にスコア(確率率率)をつけて、スコ
アの総和が最⼤大になる⽊木を探索索する
l  データに基づいてスコアは決められる
38	
名詞句句
⾚赤い りんごの ⽊木
名詞句句 名詞句句
⾚赤い りんごの ⽊木
名詞句句>
CKYアルゴリズム
l  局所的な規則の総和が最⼤大となる⽊木を探すのは、動的計
画法によりO(n3)時間で求められる(CKY)
39	
区間 [i, j) の最⼤大スコアは
s(i, j) = maxk s(i, k) + s(k, j) + t(i, j, k)
i	
 k	
 j
RecursiveとPCFGとの類似性
l  いずれも、⼊入⼒力力列列に対して構造を再帰的に構築
している
l  そもそもRecursiveは構⽂文⽊木をつかっているし、
そもそも構⽂文解析タスクも解いてる・・・
40
品詞の粒粒度度では⾜足りない
l  同じ品詞でも振る舞いは異異なる
l  ⾃自動詞、他動詞、⽬目的語の数、補語の有無 etc.
l  時制や⼈人称などの細かい規則が表現しきれない
l  無限に品詞を増やすことになる・・・?
41
語彙ごとに振る舞いが異異なる
l  どの語を使っているかという情報が構⽂文解析に
有効であることがわかっている
l  例例えばgoなら、toがつきやすいなど
l  単語⾃自体を特徴として学習することは有効
l  しかし、頻度度の低い単語の学習ができな
い・・・
42
品詞  vs 語
43	
品詞 語
•  数が少ない
•  表現力不足	
•  数が多すぎる
•  表現力は十分	
この辺にいいのがあるは
ず・・・
品詞以上語以下の表現を獲得する歴史
l  HPSGやCCGといった、語彙情報に統語的な振る舞いを
記述する⽂文法
l  PCFGに隠れ変数を持たせて、振る舞いの似ている単語
をまとめる⼿手法
l  こうした情報を単語ベクトルの中で表現されるのでは?
(深層学習系アプローチ)
44
主辞駆動句句構造⽂文法(HPSG)
l  それぞれの語に対して、⽂文法的な振る舞い(感覚的には
ルール)を記述する
l  振る舞いに応じて構造を推定できる
45	
語彙項目	
[宮尾12]など参照
Recursiveでこうした語彙項⽬目相当の情報が獲得で
きている???
46	
?
⾔言語処理理における深層学習に期待すること
l  ⽂文法(規則)によるアプローチは構⽂文解析で有
効だった
l  複雑な⽂文法に相当するような情報をベクトル空
間の中に埋め込んでくれる?
l  構⽂文解析以外のタスクでも複雑な規則相当の情
報を学習してくれたら嬉しい?
47
まとめ
l  ⾃自然⾔言語処理理でよく⾒見見られる深層学習を紹介した
l  Recurrent Neural Networkは状態をもって前から順に読む
l  Recursive Neural Networkは構造に沿ってベクトルを構築する
l  RecurrentはShift-Reduceパーザーの状態を埋め込んで
いるようにみえる
l  RecursiveはHPSGパーザーの語彙項⽬目相当の情報を埋め
込んでいるように⾒見見える
l  いずれも⾮非⾃自明な規則を学習によって獲得してくれてい
る・・・のかな・・?
48
参考⽂文献
l  [Mikolov+10] T Mikolov, M Karafiát, L Burget, J Cernocký, S
Khudanpur.
Recurrent neural network based language model.
Interspeech 2010.
l  [Sutskever+14] Ilya Sutskever, Oriol Vinyals, Quoc V. Le.
Sequence to Sequence Learning with Neural Networks.
NIPS 2014.
l  [Vinyals+15] Oriol Vinyals, Lukasz Kaiser, Terry Koo, Slav Petrov,
Ilya Sutskever, Geoffrey Hinton.
Grammar as a foreign language.
ICLR 2015.
49
参考⽂文献
l  [Socher+11] Richard Socher, Cliff Lin, Andrew Y. Ng,
Christopher D. Manning.
Parsing Natural Scenes and Natural Language with Recursive
Neural Networks.
ICML 2011
l  [Socher+13] Richard Socher, Alex Perelygin, Jean Wu, Jason
Chuang, Chris Manning, Andrew Ng, Chris Potts.
Recursive Deep Models for Semantic Compositionality Over a
Sentiment Treebank.
EMNLP 2013.
50
参考⽂文献
l  [渡邉13] 渡邉陽太郎郎.
⾃自然⾔言語処理理分野におけるディープラーニングの現状.
IBIS 2013 チュートリアル.
http://ibisml.org/archive/ibis2013/pdfs/ibis2013-
watanabe.pdf
l  [得居14] 得居誠也.
Recurrent Neural Network.
PFI seminar.
http://www.slideshare.net/beam2d/pfi-seminar-20141030rnn
l  [宮尾12] 宮尾祐介.
⾃自然⾔言語処理理における構⽂文解析と⾔言語理理論論の関係.
http://www.ism.ac.jp/~daichi/workshop/2012-parsing/
parsing2012-miyao.pdf
51

More Related Content

What's hot

2019年度チュートリアルBPE
2019年度チュートリアルBPE2019年度チュートリアルBPE
2019年度チュートリアルBPE広樹 本間
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明Satoshi Hara
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language ModelsDeep Learning JP
 
Transformerを用いたAutoEncoderの設計と実験
Transformerを用いたAutoEncoderの設計と実験Transformerを用いたAutoEncoderの設計と実験
Transformerを用いたAutoEncoderの設計と実験myxymyxomatosis
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Modelscvpaper. challenge
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?hoxo_m
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜Megagon Labs
 
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」Hitomi Yanaka
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化gree_tech
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説tancoro
 
情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜Yuya Unno
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門Takuji Tahara
 
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions [DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions Deep Learning JP
 
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだことnishio
 
推薦アルゴリズムの今までとこれから
推薦アルゴリズムの今までとこれから推薦アルゴリズムの今までとこれから
推薦アルゴリズムの今までとこれからcyberagent
 

What's hot (20)

2019年度チュートリアルBPE
2019年度チュートリアルBPE2019年度チュートリアルBPE
2019年度チュートリアルBPE
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
 
Transformerを用いたAutoEncoderの設計と実験
Transformerを用いたAutoEncoderの設計と実験Transformerを用いたAutoEncoderの設計と実験
Transformerを用いたAutoEncoderの設計と実験
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
数式からみるWord2Vec
数式からみるWord2Vec数式からみるWord2Vec
数式からみるWord2Vec
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜
 
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
 
情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門
 
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions [DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
 
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
 
推薦アルゴリズムの今までとこれから
推薦アルゴリズムの今までとこれから推薦アルゴリズムの今までとこれから
推薦アルゴリズムの今までとこれから
 

Viewers also liked

論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative ModelsSeiya Tokui
 
Recurrent Neural Networks
Recurrent Neural NetworksRecurrent Neural Networks
Recurrent Neural NetworksSeiya Tokui
 
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会Shotaro Sano
 
Clause Anaphora Resolution for Japanese Demonstrative Determiner based on Sem...
Clause Anaphora Resolution for Japanese Demonstrative Determiner based on Sem...Clause Anaphora Resolution for Japanese Demonstrative Determiner based on Sem...
Clause Anaphora Resolution for Japanese Demonstrative Determiner based on Sem...Yukino Ikegami
 
Why 40? なぜ40個のサンプルで調査をするのか ― 数値例からの考察
Why 40? なぜ40個のサンプルで調査をするのか ― 数値例からの考察Why 40? なぜ40個のサンプルで調査をするのか ― 数値例からの考察
Why 40? なぜ40個のサンプルで調査をするのか ― 数値例からの考察Toshiyuki Shimono
 
自然言語処理における意味解析と意味理解
自然言語処理における意味解析と意味理解自然言語処理における意味解析と意味理解
自然言語処理における意味解析と意味理解Kanji Takahashi
 
[DL輪読会]Wavenet a generative model for raw audio
[DL輪読会]Wavenet a generative model for raw audio[DL輪読会]Wavenet a generative model for raw audio
[DL輪読会]Wavenet a generative model for raw audioDeep Learning JP
 
Long Short-term Memory
Long Short-term MemoryLong Short-term Memory
Long Short-term Memorynishio
 
crossnoteの機械学習でパブリックコメントを分類する
crossnoteの機械学習でパブリックコメントを分類するcrossnoteの機械学習でパブリックコメントを分類する
crossnoteの機械学習でパブリックコメントを分類するupdateitjp
 
Ml説明資料
Ml説明資料Ml説明資料
Ml説明資料updateitjp
 
crossnoteの機械学習でWikipediaの記事を分類する
crossnoteの機械学習でWikipediaの記事を分類するcrossnoteの機械学習でWikipediaの記事を分類する
crossnoteの機械学習でWikipediaの記事を分類するupdateitjp
 
crossnoteの機械学習で文章から作者を判別する
crossnoteの機械学習で文章から作者を判別するcrossnoteの機械学習で文章から作者を判別する
crossnoteの機械学習で文章から作者を判別するupdateitjp
 
Deep Learningの技術と未来
Deep Learningの技術と未来Deep Learningの技術と未来
Deep Learningの技術と未来Seiya Tokui
 
大規模データ時代に求められる自然言語処理
大規模データ時代に求められる自然言語処理大規模データ時代に求められる自然言語処理
大規模データ時代に求められる自然言語処理Preferred Networks
 
[DLHacks] DLHacks説明資料
[DLHacks] DLHacks説明資料[DLHacks] DLHacks説明資料
[DLHacks] DLHacks説明資料Deep Learning JP
 
深層学習を医療に応用するために
深層学習を医療に応用するために深層学習を医療に応用するために
深層学習を医療に応用するためにReNom User Group
 
~チュートリアル第1弾~ チュートリアルの概要と事例の紹介
~チュートリアル第1弾~ チュートリアルの概要と事例の紹介~チュートリアル第1弾~ チュートリアルの概要と事例の紹介
~チュートリアル第1弾~ チュートリアルの概要と事例の紹介ReNom User Group
 
AIによる働き方改革!~本当にストレスを感じている社員を見逃すな~
AIによる働き方改革!~本当にストレスを感じている社員を見逃すな~AIによる働き方改革!~本当にストレスを感じている社員を見逃すな~
AIによる働き方改革!~本当にストレスを感じている社員を見逃すな~ReNom User Group
 

Viewers also liked (20)

論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models
 
深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向
 
自然言語処理
自然言語処理自然言語処理
自然言語処理
 
Recurrent Neural Networks
Recurrent Neural NetworksRecurrent Neural Networks
Recurrent Neural Networks
 
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
 
Clause Anaphora Resolution for Japanese Demonstrative Determiner based on Sem...
Clause Anaphora Resolution for Japanese Demonstrative Determiner based on Sem...Clause Anaphora Resolution for Japanese Demonstrative Determiner based on Sem...
Clause Anaphora Resolution for Japanese Demonstrative Determiner based on Sem...
 
Why 40? なぜ40個のサンプルで調査をするのか ― 数値例からの考察
Why 40? なぜ40個のサンプルで調査をするのか ― 数値例からの考察Why 40? なぜ40個のサンプルで調査をするのか ― 数値例からの考察
Why 40? なぜ40個のサンプルで調査をするのか ― 数値例からの考察
 
自然言語処理における意味解析と意味理解
自然言語処理における意味解析と意味理解自然言語処理における意味解析と意味理解
自然言語処理における意味解析と意味理解
 
[DL輪読会]Wavenet a generative model for raw audio
[DL輪読会]Wavenet a generative model for raw audio[DL輪読会]Wavenet a generative model for raw audio
[DL輪読会]Wavenet a generative model for raw audio
 
Long Short-term Memory
Long Short-term MemoryLong Short-term Memory
Long Short-term Memory
 
crossnoteの機械学習でパブリックコメントを分類する
crossnoteの機械学習でパブリックコメントを分類するcrossnoteの機械学習でパブリックコメントを分類する
crossnoteの機械学習でパブリックコメントを分類する
 
Ml説明資料
Ml説明資料Ml説明資料
Ml説明資料
 
crossnoteの機械学習でWikipediaの記事を分類する
crossnoteの機械学習でWikipediaの記事を分類するcrossnoteの機械学習でWikipediaの記事を分類する
crossnoteの機械学習でWikipediaの記事を分類する
 
crossnoteの機械学習で文章から作者を判別する
crossnoteの機械学習で文章から作者を判別するcrossnoteの機械学習で文章から作者を判別する
crossnoteの機械学習で文章から作者を判別する
 
Deep Learningの技術と未来
Deep Learningの技術と未来Deep Learningの技術と未来
Deep Learningの技術と未来
 
大規模データ時代に求められる自然言語処理
大規模データ時代に求められる自然言語処理大規模データ時代に求められる自然言語処理
大規模データ時代に求められる自然言語処理
 
[DLHacks] DLHacks説明資料
[DLHacks] DLHacks説明資料[DLHacks] DLHacks説明資料
[DLHacks] DLHacks説明資料
 
深層学習を医療に応用するために
深層学習を医療に応用するために深層学習を医療に応用するために
深層学習を医療に応用するために
 
~チュートリアル第1弾~ チュートリアルの概要と事例の紹介
~チュートリアル第1弾~ チュートリアルの概要と事例の紹介~チュートリアル第1弾~ チュートリアルの概要と事例の紹介
~チュートリアル第1弾~ チュートリアルの概要と事例の紹介
 
AIによる働き方改革!~本当にストレスを感じている社員を見逃すな~
AIによる働き方改革!~本当にストレスを感じている社員を見逃すな~AIによる働き方改革!~本当にストレスを感じている社員を見逃すな~
AIによる働き方改革!~本当にストレスを感じている社員を見逃すな~
 

Similar to 深層学習時代の自然言語処理

言語資源と付き合う
言語資源と付き合う言語資源と付き合う
言語資源と付き合うYuya Unno
 
言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクールYuya Unno
 
20150415 automatic retirieval_and_clustering_of_similar_words
20150415 automatic retirieval_and_clustering_of_similar_words20150415 automatic retirieval_and_clustering_of_similar_words
20150415 automatic retirieval_and_clustering_of_similar_wordsKanji Takahashi
 
形態素解析の過去・現在・未来
形態素解析の過去・現在・未来形態素解析の過去・現在・未来
形態素解析の過去・現在・未来Preferred Networks
 
Jubatusが目指すインテリジェンス基盤
Jubatusが目指すインテリジェンス基盤Jubatusが目指すインテリジェンス基盤
Jubatusが目指すインテリジェンス基盤Shohei Hido
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Yuya Unno
 
Hayashi tutorial ne2017
Hayashi tutorial ne2017Hayashi tutorial ne2017
Hayashi tutorial ne2017yukisachi
 
第64回情報科学談話会(岡﨑 直観 准教授)
第64回情報科学談話会(岡﨑 直観 准教授) 第64回情報科学談話会(岡﨑 直観 准教授)
第64回情報科学談話会(岡﨑 直観 准教授) gsis gsis
 
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Toru Fujino
 
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Yuya Unno
 
Sakuteki02 yokkuns
Sakuteki02 yokkunsSakuteki02 yokkuns
Sakuteki02 yokkunsYohei Sato
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?Masanao Ochi
 
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするDaiki Shimada
 
子どもの言語獲得のモデル化とNN Language ModelsNN
子どもの言語獲得のモデル化とNN Language ModelsNN 子どもの言語獲得のモデル化とNN Language ModelsNN
子どもの言語獲得のモデル化とNN Language ModelsNN Chiba Institute of Technology
 
おとなのテキストマイニング
おとなのテキストマイニングおとなのテキストマイニング
おとなのテキストマイニングMunenori Sugimura
 
マイニング探検会#31 情報検索システムのユーザーのニーズを考える
マイニング探検会#31 情報検索システムのユーザーのニーズを考えるマイニング探検会#31 情報検索システムのユーザーのニーズを考える
マイニング探検会#31 情報検索システムのユーザーのニーズを考えるYoji Kiyota
 
"There and Back Again: Revisiting Backpropagation Saliency Methods" (CVPR2020)
"There and Back Again: Revisiting Backpropagation Saliency Methods" (CVPR2020)"There and Back Again: Revisiting Backpropagation Saliency Methods" (CVPR2020)
"There and Back Again: Revisiting Backpropagation Saliency Methods" (CVPR2020)Shoki Miyagawa
 
20230516 @Mix Leap Hirohiko_Suwa
20230516 @Mix Leap Hirohiko_Suwa20230516 @Mix Leap Hirohiko_Suwa
20230516 @Mix Leap Hirohiko_SuwaMasashi Nakagawa
 
第8回Language and Robotics研究会20221010_AkiraTaniguchi
第8回Language and Robotics研究会20221010_AkiraTaniguchi第8回Language and Robotics研究会20221010_AkiraTaniguchi
第8回Language and Robotics研究会20221010_AkiraTaniguchiAkira Taniguchi
 
Variational Template Machine for Data-to-Text Generation
Variational Template Machine for Data-to-Text GenerationVariational Template Machine for Data-to-Text Generation
Variational Template Machine for Data-to-Text Generationharmonylab
 

Similar to 深層学習時代の自然言語処理 (20)

言語資源と付き合う
言語資源と付き合う言語資源と付き合う
言語資源と付き合う
 
言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール
 
20150415 automatic retirieval_and_clustering_of_similar_words
20150415 automatic retirieval_and_clustering_of_similar_words20150415 automatic retirieval_and_clustering_of_similar_words
20150415 automatic retirieval_and_clustering_of_similar_words
 
形態素解析の過去・現在・未来
形態素解析の過去・現在・未来形態素解析の過去・現在・未来
形態素解析の過去・現在・未来
 
Jubatusが目指すインテリジェンス基盤
Jubatusが目指すインテリジェンス基盤Jubatusが目指すインテリジェンス基盤
Jubatusが目指すインテリジェンス基盤
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
 
Hayashi tutorial ne2017
Hayashi tutorial ne2017Hayashi tutorial ne2017
Hayashi tutorial ne2017
 
第64回情報科学談話会(岡﨑 直観 准教授)
第64回情報科学談話会(岡﨑 直観 准教授) 第64回情報科学談話会(岡﨑 直観 准教授)
第64回情報科学談話会(岡﨑 直観 准教授)
 
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
 
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
 
Sakuteki02 yokkuns
Sakuteki02 yokkunsSakuteki02 yokkuns
Sakuteki02 yokkuns
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
 
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
 
子どもの言語獲得のモデル化とNN Language ModelsNN
子どもの言語獲得のモデル化とNN Language ModelsNN 子どもの言語獲得のモデル化とNN Language ModelsNN
子どもの言語獲得のモデル化とNN Language ModelsNN
 
おとなのテキストマイニング
おとなのテキストマイニングおとなのテキストマイニング
おとなのテキストマイニング
 
マイニング探検会#31 情報検索システムのユーザーのニーズを考える
マイニング探検会#31 情報検索システムのユーザーのニーズを考えるマイニング探検会#31 情報検索システムのユーザーのニーズを考える
マイニング探検会#31 情報検索システムのユーザーのニーズを考える
 
"There and Back Again: Revisiting Backpropagation Saliency Methods" (CVPR2020)
"There and Back Again: Revisiting Backpropagation Saliency Methods" (CVPR2020)"There and Back Again: Revisiting Backpropagation Saliency Methods" (CVPR2020)
"There and Back Again: Revisiting Backpropagation Saliency Methods" (CVPR2020)
 
20230516 @Mix Leap Hirohiko_Suwa
20230516 @Mix Leap Hirohiko_Suwa20230516 @Mix Leap Hirohiko_Suwa
20230516 @Mix Leap Hirohiko_Suwa
 
第8回Language and Robotics研究会20221010_AkiraTaniguchi
第8回Language and Robotics研究会20221010_AkiraTaniguchi第8回Language and Robotics研究会20221010_AkiraTaniguchi
第8回Language and Robotics研究会20221010_AkiraTaniguchi
 
Variational Template Machine for Data-to-Text Generation
Variational Template Machine for Data-to-Text GenerationVariational Template Machine for Data-to-Text Generation
Variational Template Machine for Data-to-Text Generation
 

More from Yuya Unno

深層学習で切り拓くパーソナルロボットの未来
深層学習で切り拓くパーソナルロボットの未来深層学習で切り拓くパーソナルロボットの未来
深層学習で切り拓くパーソナルロボットの未来Yuya Unno
 
深層学習時代の 自然言語処理ビジネス
深層学習時代の自然言語処理ビジネス深層学習時代の自然言語処理ビジネス
深層学習時代の 自然言語処理ビジネスYuya Unno
 
ベンチャー企業で言葉を扱うロボットの研究開発をする
ベンチャー企業で言葉を扱うロボットの研究開発をするベンチャー企業で言葉を扱うロボットの研究開発をする
ベンチャー企業で言葉を扱うロボットの研究開発をするYuya Unno
 
PFNにおける セミナー活動
PFNにおけるセミナー活動PFNにおけるセミナー活動
PFNにおける セミナー活動Yuya Unno
 
深層学習フレームワーク Chainerとその進化
深層学習フレームワークChainerとその進化深層学習フレームワークChainerとその進化
深層学習フレームワーク Chainerとその進化Yuya Unno
 
進化するChainer
進化するChainer進化するChainer
進化するChainerYuya Unno
 
予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアルYuya Unno
 
深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーションYuya Unno
 
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...
最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...Yuya Unno
 
Chainer, Cupy入門
Chainer, Cupy入門Chainer, Cupy入門
Chainer, Cupy入門Yuya Unno
 
Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用Yuya Unno
 
深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴Yuya Unno
 
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得Yuya Unno
 
NIP2015読み会「End-To-End Memory Networks」
NIP2015読み会「End-To-End Memory Networks」NIP2015読み会「End-To-End Memory Networks」
NIP2015読み会「End-To-End Memory Networks」Yuya Unno
 
Chainer入門と最近の機能
Chainer入門と最近の機能Chainer入門と最近の機能
Chainer入門と最近の機能Yuya Unno
 
Chainerの使い方と 自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と 自然言語処理への応用Yuya Unno
 
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてYuya Unno
 
企業における自然言語処理技術利用の最先端
企業における自然言語処理技術利用の最先端企業における自然言語処理技術利用の最先端
企業における自然言語処理技術利用の最先端Yuya Unno
 
「知識」のDeep Learning
「知識」のDeep Learning「知識」のDeep Learning
「知識」のDeep LearningYuya Unno
 
自然言語処理@春の情報処理祭
自然言語処理@春の情報処理祭自然言語処理@春の情報処理祭
自然言語処理@春の情報処理祭Yuya Unno
 

More from Yuya Unno (20)

深層学習で切り拓くパーソナルロボットの未来
深層学習で切り拓くパーソナルロボットの未来深層学習で切り拓くパーソナルロボットの未来
深層学習で切り拓くパーソナルロボットの未来
 
深層学習時代の 自然言語処理ビジネス
深層学習時代の自然言語処理ビジネス深層学習時代の自然言語処理ビジネス
深層学習時代の 自然言語処理ビジネス
 
ベンチャー企業で言葉を扱うロボットの研究開発をする
ベンチャー企業で言葉を扱うロボットの研究開発をするベンチャー企業で言葉を扱うロボットの研究開発をする
ベンチャー企業で言葉を扱うロボットの研究開発をする
 
PFNにおける セミナー活動
PFNにおけるセミナー活動PFNにおけるセミナー活動
PFNにおける セミナー活動
 
深層学習フレームワーク Chainerとその進化
深層学習フレームワークChainerとその進化深層学習フレームワークChainerとその進化
深層学習フレームワーク Chainerとその進化
 
進化するChainer
進化するChainer進化するChainer
進化するChainer
 
予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル
 
深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション
 
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...
最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...
 
Chainer, Cupy入門
Chainer, Cupy入門Chainer, Cupy入門
Chainer, Cupy入門
 
Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用
 
深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴
 
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得
 
NIP2015読み会「End-To-End Memory Networks」
NIP2015読み会「End-To-End Memory Networks」NIP2015読み会「End-To-End Memory Networks」
NIP2015読み会「End-To-End Memory Networks」
 
Chainer入門と最近の機能
Chainer入門と最近の機能Chainer入門と最近の機能
Chainer入門と最近の機能
 
Chainerの使い方と 自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と 自然言語処理への応用
 
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
 
企業における自然言語処理技術利用の最先端
企業における自然言語処理技術利用の最先端企業における自然言語処理技術利用の最先端
企業における自然言語処理技術利用の最先端
 
「知識」のDeep Learning
「知識」のDeep Learning「知識」のDeep Learning
「知識」のDeep Learning
 
自然言語処理@春の情報処理祭
自然言語処理@春の情報処理祭自然言語処理@春の情報処理祭
自然言語処理@春の情報処理祭
 

深層学習時代の自然言語処理