SlideShare una empresa de Scribd logo
1 de 34
Descargar para leer sin conexión
自然言語処理における
深層ニューラルネットワーク
東北大学大学院情報科学研究科
岡崎 直観(okazaki@ecei.tohoku.ac.jp)
http://www.chokkan.org/
@chokkanorg
2016-06-09 言語処理における深層ニューラルネットワーク 1
自然言語処理とは
• 言葉を操る賢いコンピュータを作る
• 応用: 情報検索,機械翻訳,質問応答,自動要
約,対話生成,評判分析,SNS分析,…
• 基礎: 品詞タグ付け(形態素解析),チャンキ
ング,固有表現抽出,構文解析,共参照解析,
意味役割付与,…
• 多くのタスクは「入力𝑥𝑥から出力�𝑦𝑦を予測」
�𝑦𝑦 = argmax
𝑦𝑦∈𝑌𝑌
𝑃𝑃(𝑦𝑦|𝑥𝑥)
※確率ではないモデルもあります
2016-06-09 言語処理における深層ニューラルネットワーク 2
単語列からラベル: ̂𝑦𝑦 = argmax
𝑦𝑦∈𝑌𝑌
𝑃𝑃(𝑦𝑦|𝒙𝒙)
2016-06-09 言語処理における深層ニューラルネットワーク 3
The movie is the best I’ve ever seen!
The movie is coming soon on cinemas.
This movie is rubbish!!!
• モデル:ナイーブ・ベイズ,パーセプトロン,
ロジスティック回帰,サポート・ベクトル・マシン
𝒙𝒙: 単語列 𝑃𝑃(𝑦𝑦|𝒙𝒙) �𝑦𝑦
単語列から系列ラベル: �𝒚𝒚 = argmax
𝒚𝒚∈𝑌𝑌 𝑚𝑚
𝑃𝑃(𝒚𝒚|𝒙𝒙)
2016-06-09 言語処理における深層ニューラルネットワーク 4
• モデル:隠れマルコフモデル,条件付き確率場,符号・復号
• 探索法:点予測,動的計画法,ビーム探索,…
In March 2005, the New York Times acquired About, Inc.
IN NNP CD DT NNP NNP NNP VBD NNP NNP
O B-NP I-NP B-NP I-NP I-NP I-NP B-VP B-NP B-NP
2005年 3月 , ニューヨーク・タイムズ は About 社 を 買収 し た .
(品詞)
(句)
(翻訳)
(入力)
I heard Google and Yahoo were among the other bidders.(対話)
単語列から木構造: �𝒚𝒚 = argmax
𝒚𝒚∈Gen(𝒙𝒙)
𝑃𝑃(𝒚𝒚|𝒙𝒙)
2016-06-09 言語処理における深層ニューラルネットワーク 5
• モデル:確率的文脈自由文法,条件付き確率場
• 探索法:Shift-Reduce法,Eisner法,CKY法,最小全域木
markets
had
effect
on
.
][[ ROOT ]
Stack Queue
news
Economic
nmod
sbj
little
nmod
financial
nmod
pmod
nmod
obj
p
root
DNN以前の特徴抽出: 固有表現抽出の例
2016-06-09 言語処理における深層ニューラルネットワーク 6
w[-2]=EU w[-1]=rejects w[0]=German w[1]=call w[2]=to w[-2]|w[-
1]=EU|rejects w[-1]|w[0]=rejects|German w[0]|w[1]=German|call
w[1]|w[2]=call|to pos[-2]=NNP pos[-1]=VBZ pos[0]=JJ pos[1]=NN
pos[2]=TO pos[-2]|pos[-1]=NNP|VBZ pos[-1]|pos[0]=VBZ|JJ
pos[0]|pos[1]=JJ|NN pos[1]|pos[2]=NN|TO chk[-2]=B-NP chk[-1]=B-VP
chk[0]=B-NP chk[1]=I-NP chk[2]=B-VP chk[-2]|chk[-1]=B-NP|B-VP
chk[-1]|chk[0]=B-VP|B-NP chk[0]|chk[1]=B-NP|I-NP chk[1]|chk[2]=I-
NP|B-VP iu[-2]=True iu[-1]=False iu[0]=True iu[1]=False
iu[2]=False iu[-2]|iu[-1]=True|False iu[-1]|iu[0]=False|True
iu[0]|iu[1]=True|False iu[1]|iu[2]=False|False
B-ORG EU NNP B-NP
O rejects VBZ B-VP
B-MISC German JJ B-NP
O call NN I-NP
O to TO B-VP
O boycott VB I-VP
B-MISC British JJ B-NP
O lamb NN I-NP
O . . O
• 単語n-gram
• 品詞n-gram
• チャンクn-gram
• 大文字パターン
• 辞書マッチなど他にも沢山
DNN時代の到来
• 画像認識でブレークスルー (2012年)
• エラー率が10%以上減少 (ILSVRC 2012)
• 当時,言語処理での衝撃は限定的だった
• 文字や単語などの明確な特徴量があったため?
• 画像認識のようなブレークスルーはまだ無い
• 現在,多くのタスクでDNNが使われる
• 地道な研究成果の積み重ね
• 前スライドの固有表現抽出もDNNで最高精度
2016-06-09 言語処理における深層ニューラルネットワーク 7
言語処理における(D)NNの主な成果
• Neural Language Model (Bengio 03)
• SENNA (CNNでNLP) (Collobert+ 08)
• Recursive Neural Network (Socher+ 11)
• Skip-gram & CBOW model (Mikolov+ 13)
• Encoder-decoder (Sutskever+ 14; Cho+ 14)
• Memory networks (Weston+ 14)
• Attention mechanism (Bahdanau+ 15)
2016-06-09 言語処理における深層ニューラルネットワーク 8
分散表現 分散表現の合成 符号・複号化
単語の分散表現
(distributed representations)
2016-06-09 言語処理における深層ニューラルネットワーク 9
分散表現 (Hinton+ 1986)
• 局所表現(local representation)
• 各概念に1つの計算要素 (記号, ニューロン, 次元) を割り当て
• 分散表現(distributed representation)
• 各概念は複数の計算要素で表現される
• 各計算要素は複数の概念の表現に関与する
2016-06-09 言語処理における深層ニューラルネットワーク 10
バス 萌えバス
… …
#2948
… …
#19023840334
バス 萌えバス萌えトラック
ニューロンの
興奮パターン
≒ベクトル表現
http://ja.wikipedia.org/wiki/富士急山梨バス http://saori223.web.fc2.com/
Skip-gram with Negative Sampling (SGNS)
(Mikolov+ 2013)
2016-06-09 言語処理における深層ニューラルネットワーク 11
draughtofferpubs beer, cider, and wine
last
use
place
people
make
city
full
know
build
time
group
have
new
game
rather
age
show
take
take
team
season
say
個
の
単
語
を
ユ
ニ
グ
ラ
ム
分
布
か
ら
サ
ン
プ
リ
ン
グ
し
,
こ
れ
ら
が
予
測
さ
れ
な
い
よ
う
に
更
新
(
負
例
)
個
の
文
脈
語
を
予
測
す
る
よ
う
に
更
新
同じ単語がサン
プルされること
もあり得る
単語ベクトル𝒗𝒗𝑤𝑤 (𝑑𝑑次元)
予測ベクトル�𝒗𝒗𝑐𝑐 (𝑑𝑑次元)
: 内積 → +∞ へ
: 内積 → −∞ へ
ベクトルの更新方針
コーパス
(文脈幅ℎ = 2, 負例サンプル数𝑘𝑘 = 1の場合の例)
SGNSで学習した分散表現は加法構成性を持つ
• 有名な例: king − man + woman ≈ queen
2016-06-09 言語処理における深層ニューラルネットワーク 12
(Mikolov+ 2013)
国名と首都名が同じ向きに並ぶ
(Mikolov+ 2013)
分散表現の合成
(composition)
2016-06-09 言語処理における深層ニューラルネットワーク 13
句や文をDNNでモデル化したい
• 単語の分散表現の有用性が明らかになった
• 次は句や文の分散表現を獲得したい
• 構成性の原理に基づき,単語の分散表現か
ら句や文の分散表現を合成する
• 句や文の意味は,その構成要素の意味とその合
成手続きから計算できる
• 最も単純かつ強力な手法は平均
𝒑𝒑 =
1
2
𝒖𝒖 + 𝒗𝒗
2016-06-09 言語処理における深層ニューラルネットワーク 14
Recursive Neural Network (RNN)
(Socher+ 2011)
• 句ベクトルを次式で合成
𝒑𝒑 = 𝑓𝑓 𝒖𝒖, 𝒗𝒗 = 𝑔𝑔 𝑊𝑊
𝒖𝒖
𝒗𝒗
• 𝑊𝑊 ∈ ℝ𝑑𝑑×2𝑑𝑑
: ℝ2𝑑𝑑
→ ℝ𝑑𝑑
の変換行列
• 𝑔𝑔: 活性化関数 (𝜎𝜎やtanh)
• 文の句構造に従って再帰的に
句ベクトルを計算
• 訓練データを用い,誤差逆伝
搬法で𝑊𝑊を学習
• 単語ベクトルも同時に学習
2016-06-09 言語処理における深層ニューラルネットワーク 15
moviegoodvery
𝑊𝑊 (𝑑𝑑 × 2𝑑𝑑)
・
・
very good
very good
movie
𝑊𝑊 (𝑑𝑑 × 2𝑑𝑑)
Recurrent Neural Network (RNN)
(Sutskever+ 2011)
2016-06-09 言語処理における深層ニューラルネットワーク 16
very good movie
𝑥𝑥𝑡𝑡
𝑊𝑊(ℎ𝑥𝑥)
ℎ𝑡𝑡
𝑊𝑊(𝑦𝑦𝑦)
𝑊𝑊(ℎℎ)
𝑊𝑊(ℎℎ)
𝑦𝑦𝑡𝑡
潜在変数: ℎ𝑡𝑡 = 𝜎𝜎 𝑊𝑊(ℎ𝑥𝑥)
𝑥𝑥𝑡𝑡 + 𝑊𝑊(ℎℎ)
ℎ𝑡𝑡−1 + 𝑏𝑏ℎ
出力: 𝑦𝑦𝑡𝑡 = 𝜎𝜎 𝑊𝑊(𝑦𝑦𝑦)ℎ𝑡𝑡 + 𝑏𝑏𝑦𝑦
Input vector
Hidden vector
(memory)
Output vector:
Long Short-Term Memory (LSTM)
(Graves 2013) (単純化したもの)
2016-06-09 言語処理における深層ニューラルネットワーク 17
very good movie
𝑥𝑥𝑡𝑡
𝑐𝑐𝑡𝑡
ℎ𝑡𝑡
Input gate
Output gate
Forget gate Forget gate
• 各ゲートはマスクの役割を担う(ベクトルの要素ごとの積)
• 各ゲートのマスクパターンを入力𝑥𝑥𝑡𝑡,記憶ℎ𝑡𝑡−1,出力ℎ𝑡𝑡−1などで制御する
• 長い系列での誤差逆伝搬時の勾配消失をゲートで防止する(→長期依存の保存)
LSTMもNNの一種
Input gate: 𝑖𝑖𝑡𝑡 = 𝜎𝜎 𝑊𝑊(𝑥𝑥𝑥𝑥)
𝑥𝑥𝑡𝑡 + 𝑊𝑊(ℎ𝑖𝑖)
ℎ𝑡𝑡−1 + 𝑊𝑊(𝑐𝑐𝑖𝑖)
𝑐𝑐𝑡𝑡−1 + 𝑏𝑏𝑖𝑖
Forget gate: 𝑓𝑓𝑡𝑡 = 𝜎𝜎 𝑊𝑊(𝑥𝑥𝑥𝑥) 𝑥𝑥𝑡𝑡 + 𝑊𝑊(ℎ𝑓𝑓)ℎ𝑡𝑡−1 + 𝑊𝑊(𝑐𝑐𝑐𝑐) 𝑐𝑐𝑡𝑡−1 + 𝑏𝑏𝑓𝑓
Cell: 𝑐𝑐𝑡𝑡 = 𝑓𝑓𝑡𝑡 ⊙ 𝑐𝑐𝑡𝑡−1 + 𝑖𝑖𝑡𝑡 ⊙ tanh 𝑊𝑊(𝑥𝑥𝑥𝑥) 𝑥𝑥𝑡𝑡 + 𝑊𝑊(ℎ𝑐𝑐)ℎ𝑡𝑡−1 + 𝑏𝑏𝑐𝑐
Output gate: 𝑜𝑜𝑡𝑡 = 𝜎𝜎 𝑊𝑊(𝑥𝑥𝑥𝑥) 𝑥𝑥𝑡𝑡 + 𝑊𝑊(ℎ𝑜𝑜)ℎ𝑡𝑡−1 + 𝑊𝑊(𝑐𝑐𝑐𝑐) 𝑐𝑐𝑡𝑡 + 𝑏𝑏𝑜𝑜
Hidden variable: ℎ𝑡𝑡 = 𝑜𝑜𝑡𝑡 ⊙ tanh 𝑐𝑐𝑡𝑡
2016-06-09 言語処理における深層ニューラルネットワーク 18
Graves (2013)
⊗(数式中は⊙)は
要素ごとの積
Convolutional Neural Network (CNN)
(Kim 14)
• 領域ベクトル: 𝑥𝑥𝑡𝑡:𝑡𝑡+𝛿𝛿 = 𝑥𝑥𝑡𝑡 ⊕ 𝑥𝑥𝑡𝑡+1 ⊕ ⋯ ⊕ 𝑥𝑥𝑡𝑡+𝛿𝛿−1
• 時間毎の特徴量: 𝑝𝑝𝑡𝑡 = 𝑔𝑔(𝑤𝑤 ⋅ 𝑥𝑥𝑡𝑡:𝑡𝑡+𝛿𝛿 + 𝑏𝑏)
• 特徴量 (maxプーリング): 𝑐𝑐 = max
1<𝑡𝑡<𝑇𝑇−𝛿𝛿+1
𝑝𝑝𝑡𝑡
2016-06-09 言語処理における深層ニューラルネットワーク 19
very
good
movie
It
is
a
w
w
p c
領域ベクトル
xt
時刻毎の特徴量
畳み込み演算
(フィルタ) プーリング
タスクに
応じた予測
t
特徴量 出力
Stanford Sentiment Treebank (Socher+ 2013)
2016-06-09 言語処理における深層ニューラルネットワーク 20
映画のレビューコーパス
(Pang+ 2005) の文を
Stanford Parser句構造解
析し,句ノードに評価極性
(--, -, 0, +, ++)を3人
のアノテータで付与
評価極性を示す単語と
否定表現,活性・不活
性表現による構成性を
扱うことを目的として
作られたコーパス
Stanford Sentiment Treebank での性能
2016-06-09 言語処理における深層ニューラルネットワーク 21
Tai+ (2015)
符号化・復号化
(Encoder-decoder models)
2016-06-09 言語処理における深層ニューラルネットワーク 22
分散表現から文を生成できるか?
• 単語から句や文の分散表現を合成できる
• 句や文の分散表現から単語列を取り出せるか?
• 符号化・復号化 (encoder-decoder) モデル
• 与えられた文の内容をベクトルで表現し,文を出力する
• 単語列から単語列を予測できる
• DNNの応用がさらに広がる
• 機械翻訳 (Sutskever+ 14, Cho+ 14, Luong+ 15)
• 対話文生成 (Vinyals+ 15)
• 自動要約 (Rush+ 15)
• 画像説明文の生成 (Vinyals+ 14)
2016-06-09 言語処理における深層ニューラルネットワーク 23
Sequence-to-sequence (Sutskever+ 14)
2016-06-09 言語処理における深層ニューラルネットワーク 24
very good movie
とても よい 映画 だ
<EOS> とても よい 映画 だ
<EOS>
𝑥𝑥𝑡𝑡
ℎ𝑡𝑡
𝑦𝑦𝑡𝑡
• 英語 (𝑥𝑥𝑡𝑡) から日本語 (𝑦𝑦𝑡𝑡) への機械翻訳の例
• ℎ𝑡𝑡 = 𝜎𝜎(𝑊𝑊(ℎ𝑥𝑥) 𝑥𝑥𝑡𝑡 + 𝑊𝑊(ℎℎ)ℎ𝑡𝑡−1)
• 𝑦𝑦𝑡𝑡 = 𝑊𝑊(𝑦𝑦𝑦)ℎ𝑡𝑡 (𝑦𝑦𝑡𝑡は出力単語のスコアのベクトル表現)
• 出力単語を入力側に戻すことで,翻訳履歴を考慮
• 実際にはRNNではなく2-layer LSTMを用いる
入力文の意味
ベクトル
対話の生成 (Vinyals+ 15)
• 学習データ: OpenSubtitles
• 映画の字幕から抽出した対話文(約6200万文)
• Sequence-to-sequenceで生成した例
2016-06-09 言語処理における深層ニューラルネットワーク 25
Attention mechanism
(Bahdanau+ 15, Luong+, 15)
2016-06-09 言語処理における深層ニューラルネットワーク 26
very good movie
とても よい
<EOS> とても
𝑥𝑥𝑠𝑠
ℎ𝑠𝑠 ℎ𝑡𝑡
𝑎𝑎𝑡𝑡(𝑠𝑠)
𝑐𝑐𝑡𝑡
�ℎ𝑡𝑡 = tanh(𝑊𝑊𝑐𝑐[𝑐𝑐𝑡𝑡; ℎ𝑡𝑡])
𝑎𝑎𝑡𝑡(𝑠𝑠) =
exp score(ℎ𝑡𝑡, ℎ𝑠𝑠)
∑𝑠𝑠′ exp score(ℎ𝑡𝑡, ℎ𝑠𝑠𝑠)
score ℎ𝑡𝑡, ℎ𝑠𝑠 = ℎ𝑡𝑡 ⋅ ℎ𝑠𝑠
𝑐𝑐𝑡𝑡 = �
𝑠𝑠
𝑎𝑎𝑡𝑡(𝑠𝑠)ℎ𝑠𝑠
• 固定長のベクトルで文の意味をエンコードするには限界がある
• 位置𝑡𝑡の単語を生成するときに,入力のどの単語に着目すべき
かの重み𝑎𝑎𝑡𝑡(𝑠𝑠)を求め,入力単語のベクトルℎ𝑠𝑠の重み付き平均
ベクトル𝑐𝑐𝑡𝑡も用いて出力単語を生成する
研究室での取り組み
2016-06-09 言語処理における深層ニューラルネットワーク 27
関係パタンの意味合成 (Takase+ 2016)
• 因果関係などの「関係」を表す言語表現の分散表現を,
構成単語の分散表現から合成する手法を提案
• 関係の分散表現の評価データを作成・公開
2016-06-09 言語処理における深層ニューラルネットワーク 28
passive smoking increases the risk of lung cancer
xs xs+1 xs+2 xs+T-1
xs+T xs+T+1xs-2 xs-1
(3)
(4) (5)
hs hs+1 hs+2
hs+T-1
(3)
ws ws+1 ws+2 ws+T-1
(3)
ws+T ws+T+1
(4) (5)
ws-2 ws-1
fs fs+1 fs+2
is is+1 is+2 is+3
~ ~ ~ ~
Parameter update
by Skip-gram model
Parameter update by
Skip-gram model
Pattern vector computed by Gated Additive Composition (GAC)
T = 4 δ = 2δ = 2
Context window Context windowRelation pattern
(word vectors)(context vectors) (context vectors)
(hidden vectors)
動的分散表現による読解 (Kobayashi+ 2016)
Once X1 was the U.S. president. X1 faced criticism for affairs.
2016-06-09 言語処理における深層ニューラルネットワーク 29
X1の表現1
Later X1 was divorced with the wife X2.
質問: [?] was the wife of the president.
X1の表現2
X1の表現3 X2の表現1
双方向LSTMでXのベク
トルをエンコード(先頭
と末尾の単語のベクトル
も結合して用いる)
[?]の表現
X1の表現 X2の表現
アテンションでXの異なる
文脈のベクトルを統合
内積の大きい方を解答
するようにモデル化
Max-poolingによる初期化
(D)NNを用いたその他の研究
• 構文解析のための分散表現の学習 (Komatsu+, 15)
• Dependency-based Compositional Semanticsと加
法構成性に基づく意味合成 (Tian+, 16)
• CNNによるツイートの賛否分類 (Igarashi+, 16)
• Wikipedia記事の意味カテゴリ推定 (Suzuki+,
submitted)
• 画像内の物体間の関係抽出 (Muraoka+,
submitted)
2016-06-09 言語処理における深層ニューラルネットワーク 30
まとめ
• 言語処理における(D)NN研究の最近の流れ
• 2013年-: 単語の分散表現
• 2011年-: 構成性に基づく句の分散表現
• 2014年-: 符号化・復号化モデル
• 2015年-: アテンション・メカニズム
• 2016年-: ?
• 今後DNNで取り組みたいと思っているテーマ
• 文脈のモデリングとその応用
• 分散表現による知識の表現と推論
2016-06-09 言語処理における深層ニューラルネットワーク 31
さらに詳しく知りたい方へ
2016-06-09 言語処理における深層ニューラルネットワーク 32
人工知能 2016年3月号特集記事岩波DS Vol. 2 (2016年2月)
参考文献 (1/2)
• Bahdanau, D., Cho, K., and Bengio, Y.: Neural Machine Translation by Jointly Learning to Align and Translate, in ICLR
(2015)
• Bengio, Y., Ducharme, R., Vincent, P., and Janvin, C.: A Neural Probabilistic Language Model, Journal of Machine Learning
Research, Vol. 3, pp. 1137–1155 (2003)
• Cho, K., Merrienboer, van B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., and Bengio, Y.: Learning Phrase
Representations using RNN Encoder–Decoder for Statistical Machine Translation, in Proc. of EMNLP, pp. 1724–1734
(2014)
• Collobert, R. and Weston, J.: A Unified Architecture for Natural Language Processing: Deep Neural Networks with
Multitask Learning, in Proc of ICML, pp. 160–167 (2008)
• Graves, A.: Generating Sequences With Recurrent Neural Networks, CoRR, Vol. abs/1308.0850, (2013)
• Hinton, G., McClelland, J., and Rumelhart, D.: Distributed representations, in Rumelhart, D. E., McClelland, J. L., and
Group, P. R. eds., Parallel distributed processing: Explorations in the microstructure of cognition, Vol. I, chapter 3, pp.
77–109, MIT Press, Cambridge, MA (1986)
• Igarashi, Y., Komatsu, H., Kobayashi, S., Okazaki, N., Inui, K.: Feature-based Model versus Convolutional Neural Network
for Stance Detection, in Proc. of SemEval (2016)Kim, Y.: Convolutional Neural Networks for Sentence Classification, in
Proc. of EMNLP, pp. 1746–1751 (2014)
• Kobayashi, K., Tian, R., Okazaki, N., Inui, K.: Dynamic Entity Representation with Max-pooling Improves Machine Reading,
in Proc. of NAACL (2016)
• Komatsu, H., Tian, R., Okazaki, N., Inui, K.: Reducing Lexical features in Parsing by Word Embeddings. in Proc. of PACLIC,
pp.106-113 (2015)
• Luong, M.-T., Pham, H., Manning, C. D.: Effective Approaches to Attention-based Neural Machine Translation, in Proc. of
EMNLP, pp. 1412-1421 (2015)
2016-06-09 言語処理における深層ニューラルネットワーク 33
参考文献 (2/2)
• Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., and Dean, J.: Distributed Representations ofWords and Phrases and
their Compositionality, in Proc. of NIPS, pp. 3111–3119 (2013)
• Rush, A. M., Chopra, S., Weston, J.: A Neural Attention Model for Sentence Summarization
• , in Proc. of EMNLP, pp. 379-389 (2015)
• Socher, R., Pennington, J., Huang, E. H., Ng, A. Y., and Manning, C. D.: Semi-Supervised Recursive Autoencoders for
Predicting Sentiment Distributions, in Proc. of EMNLP, pp. 151–161 (2011)
• Socher, R., Perelygin, A., Wu, J., Chuang, J., Manning, C. D., Ng, A., and Potts, C.: Recursive Deep Models for Semantic
Compositionality Over a Sentiment Treebank, in Proc. of EMNLP, pp. 1631–1642 (2013)
• Sutskever, I., Martens, J., and Hinton, G.: Generating Text with Recurrent Neural Networks, in Proc. of ICML, pp. 1017–
1024 (2011)
• Sutskever, I., Vinyals, O., and Le, Q. V.: Sequence to Sequence Learning with Neural Networks, in Proc. of NIPS, pp.
3104–3112 (2014)
• Tai, K. S., Socher, R., and Manning, C. D.: Improved Semantic Representations From Tree-Structured Long Short-Term
Memory Networks, in Proc. of ACL-IJCNLP, pp. 1556–1566 (2015)
• Takase, S., Okazaki, N., Inui, K.: Composing Distributed Representations of Relational Patterns, in Proc. of ACL (2016)
• Tian, R., Okazaki, N., Inui, K.: Learning Semantically and Additively Compositional Distributional Representations, in
Proc. of ACL (2016)
• Vinyals, O., Le, Q. V., A Neural Conversational Model, in Proc. of ICML Deep Learning Workshop, (2015)
• Vinyals, O., Toshev, A., Bengio, S., and Erhan, D.: Show and tell: A neural image caption generator, in Proc. of CVPR
(2015)
• Weston, J., Chopra, S., Bordes, A.: Memory Networks, in Proc. of ICLR, (2015)
2016-06-09 言語処理における深層ニューラルネットワーク 34

Más contenido relacionado

La actualidad más candente

Deep Learningと自然言語処理
Deep Learningと自然言語処理Deep Learningと自然言語処理
Deep Learningと自然言語処理Preferred Networks
 
言語資源と付き合う
言語資源と付き合う言語資源と付き合う
言語資源と付き合うYuya Unno
 
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...Yuya Unno
 
画像キャプションの自動生成
画像キャプションの自動生成画像キャプションの自動生成
画像キャプションの自動生成Yoshitaka Ushiku
 
Chainer with natural language processing hands on
Chainer with natural language processing hands onChainer with natural language processing hands on
Chainer with natural language processing hands onOgushi Masaya
 
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするDaiki Shimada
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Yuya Unno
 
STAIR Lab Seminar 202105
STAIR Lab Seminar 202105STAIR Lab Seminar 202105
STAIR Lab Seminar 202105Sho Takase
 
予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアルYuya Unno
 
質問応答システム入門
質問応答システム入門質問応答システム入門
質問応答システム入門Hiroyoshi Komatsu
 
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
[DL輪読会]Learning to Simulate Complex Physics with Graph NetworksDeep Learning JP
 
[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networksDeep Learning JP
 
言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクールYuya Unno
 
単語・句の分散表現の学習
単語・句の分散表現の学習単語・句の分散表現の学習
単語・句の分散表現の学習Naoaki Okazaki
 
単語の分散表現と構成性の計算モデルの発展
単語の分散表現と構成性の計算モデルの発展単語の分散表現と構成性の計算モデルの発展
単語の分散表現と構成性の計算モデルの発展Naoaki Okazaki
 
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)Ohsawa Goodfellow
 
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Yuya Unno
 
[DL輪読会]GENESIS: Generative Scene Inference and Sampling with Object-Centric L...
[DL輪読会]GENESIS: Generative Scene Inference and Sampling with Object-Centric L...[DL輪読会]GENESIS: Generative Scene Inference and Sampling with Object-Centric L...
[DL輪読会]GENESIS: Generative Scene Inference and Sampling with Object-Centric L...Deep Learning JP
 
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習Preferred Networks
 

La actualidad más candente (20)

Deep Learningと自然言語処理
Deep Learningと自然言語処理Deep Learningと自然言語処理
Deep Learningと自然言語処理
 
言語資源と付き合う
言語資源と付き合う言語資源と付き合う
言語資源と付き合う
 
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
 
画像キャプションの自動生成
画像キャプションの自動生成画像キャプションの自動生成
画像キャプションの自動生成
 
Chainer with natural language processing hands on
Chainer with natural language processing hands onChainer with natural language processing hands on
Chainer with natural language processing hands on
 
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
 
STAIR Lab Seminar 202105
STAIR Lab Seminar 202105STAIR Lab Seminar 202105
STAIR Lab Seminar 202105
 
予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル
 
質問応答システム入門
質問応答システム入門質問応答システム入門
質問応答システム入門
 
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
 
[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks
 
NLP2017 NMT Tutorial
NLP2017 NMT TutorialNLP2017 NMT Tutorial
NLP2017 NMT Tutorial
 
言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール
 
単語・句の分散表現の学習
単語・句の分散表現の学習単語・句の分散表現の学習
単語・句の分散表現の学習
 
単語の分散表現と構成性の計算モデルの発展
単語の分散表現と構成性の計算モデルの発展単語の分散表現と構成性の計算モデルの発展
単語の分散表現と構成性の計算モデルの発展
 
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
 
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
 
[DL輪読会]GENESIS: Generative Scene Inference and Sampling with Object-Centric L...
[DL輪読会]GENESIS: Generative Scene Inference and Sampling with Object-Centric L...[DL輪読会]GENESIS: Generative Scene Inference and Sampling with Object-Centric L...
[DL輪読会]GENESIS: Generative Scene Inference and Sampling with Object-Centric L...
 
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
 

Destacado

第64回情報科学談話会(滝沢 寛之 准教授)
第64回情報科学談話会(滝沢 寛之 准教授) 第64回情報科学談話会(滝沢 寛之 准教授)
第64回情報科学談話会(滝沢 寛之 准教授) gsis gsis
 
第68回情報科学談話会(田中 太初 准教授)
第68回情報科学談話会(田中 太初 准教授)第68回情報科学談話会(田中 太初 准教授)
第68回情報科学談話会(田中 太初 准教授)gsis gsis
 
Confluence上でレポート自動生成によってKPIを共有する
Confluence上でレポート自動生成によってKPIを共有するConfluence上でレポート自動生成によってKPIを共有する
Confluence上でレポート自動生成によってKPIを共有するatsushi_hayakawa
 
論文輪読会 - A Multi-level Trend-Renewal Process for Modeling Systems with Recurre...
論文輪読会 - A Multi-level Trend-Renewal Process for Modeling Systems with Recurre...論文輪読会 - A Multi-level Trend-Renewal Process for Modeling Systems with Recurre...
論文輪読会 - A Multi-level Trend-Renewal Process for Modeling Systems with Recurre...atsushi_hayakawa
 
Word2vecの理論背景
Word2vecの理論背景Word2vecの理論背景
Word2vecの理論背景Masato Nakai
 
ジャーナルが論文をリジェクトする最も一般的な理由
ジャーナルが論文をリジェクトする最も一般的な理由ジャーナルが論文をリジェクトする最も一般的な理由
ジャーナルが論文をリジェクトする最も一般的な理由英文校正エディテージ
 
研究発表のためのプレゼンテーション技術
研究発表のためのプレゼンテーション技術研究発表のためのプレゼンテーション技術
研究発表のためのプレゼンテーション技術Shinnosuke Takamichi
 
最近の機械学習テクノロジーとビジネスの応用先 自然言語処理を中心に
最近の機械学習テクノロジーとビジネスの応用先 自然言語処理を中心に最近の機械学習テクノロジーとビジネスの応用先 自然言語処理を中心に
最近の機械学習テクノロジーとビジネスの応用先 自然言語処理を中心にtmprcd12345
 
研究法(Claimとは)
研究法(Claimとは)研究法(Claimとは)
研究法(Claimとは)Jun Rekimoto
 
大規模データ時代に求められる自然言語処理
大規模データ時代に求められる自然言語処理大規模データ時代に求められる自然言語処理
大規模データ時代に求められる自然言語処理Preferred Networks
 
JIRA / Confluence の 必須プラグインはこれだ
JIRA / Confluence の必須プラグインはこれだJIRA / Confluence の必須プラグインはこれだ
JIRA / Confluence の 必須プラグインはこれだNarichika Kajihara
 
論文に関する基礎知識2016
 論文に関する基礎知識2016 論文に関する基礎知識2016
論文に関する基礎知識2016Mai Otsuki
 
Building Deep Learning Powered Big Data: Spark Summit East talk by Jiao Wang ...
Building Deep Learning Powered Big Data: Spark Summit East talk by Jiao Wang ...Building Deep Learning Powered Big Data: Spark Summit East talk by Jiao Wang ...
Building Deep Learning Powered Big Data: Spark Summit East talk by Jiao Wang ...Spark Summit
 
新たなRNNと自然言語処理
新たなRNNと自然言語処理新たなRNNと自然言語処理
新たなRNNと自然言語処理hytae
 
御清聴ありがとうございました
御清聴ありがとうございました御清聴ありがとうございました
御清聴ありがとうございましたHiromi Ishii
 
優れた研究論文の書き方―7つの提案
優れた研究論文の書き方―7つの提案優れた研究論文の書き方―7つの提案
優れた研究論文の書き方―7つの提案Masanori Kado
 
クックパッド特売情報 における自然言語処理 〜固有表現抽出を利用した検索システム〜
クックパッド特売情報 における自然言語処理 〜固有表現抽出を利用した検索システム〜クックパッド特売情報 における自然言語処理 〜固有表現抽出を利用した検索システム〜
クックパッド特売情報 における自然言語処理 〜固有表現抽出を利用した検索システム〜Takeshi Arabiki
 
先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15Yoichi Ochiai
 
深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーションYuya Unno
 

Destacado (20)

第64回情報科学談話会(滝沢 寛之 准教授)
第64回情報科学談話会(滝沢 寛之 准教授) 第64回情報科学談話会(滝沢 寛之 准教授)
第64回情報科学談話会(滝沢 寛之 准教授)
 
第68回情報科学談話会(田中 太初 准教授)
第68回情報科学談話会(田中 太初 准教授)第68回情報科学談話会(田中 太初 准教授)
第68回情報科学談話会(田中 太初 准教授)
 
Confluence上でレポート自動生成によってKPIを共有する
Confluence上でレポート自動生成によってKPIを共有するConfluence上でレポート自動生成によってKPIを共有する
Confluence上でレポート自動生成によってKPIを共有する
 
論文輪読会 - A Multi-level Trend-Renewal Process for Modeling Systems with Recurre...
論文輪読会 - A Multi-level Trend-Renewal Process for Modeling Systems with Recurre...論文輪読会 - A Multi-level Trend-Renewal Process for Modeling Systems with Recurre...
論文輪読会 - A Multi-level Trend-Renewal Process for Modeling Systems with Recurre...
 
Word2vecの理論背景
Word2vecの理論背景Word2vecの理論背景
Word2vecの理論背景
 
ジャーナルが論文をリジェクトする最も一般的な理由
ジャーナルが論文をリジェクトする最も一般的な理由ジャーナルが論文をリジェクトする最も一般的な理由
ジャーナルが論文をリジェクトする最も一般的な理由
 
Bambooによる継続的デリバリー
Bambooによる継続的デリバリーBambooによる継続的デリバリー
Bambooによる継続的デリバリー
 
研究発表のためのプレゼンテーション技術
研究発表のためのプレゼンテーション技術研究発表のためのプレゼンテーション技術
研究発表のためのプレゼンテーション技術
 
最近の機械学習テクノロジーとビジネスの応用先 自然言語処理を中心に
最近の機械学習テクノロジーとビジネスの応用先 自然言語処理を中心に最近の機械学習テクノロジーとビジネスの応用先 自然言語処理を中心に
最近の機械学習テクノロジーとビジネスの応用先 自然言語処理を中心に
 
研究法(Claimとは)
研究法(Claimとは)研究法(Claimとは)
研究法(Claimとは)
 
大規模データ時代に求められる自然言語処理
大規模データ時代に求められる自然言語処理大規模データ時代に求められる自然言語処理
大規模データ時代に求められる自然言語処理
 
JIRA / Confluence の 必須プラグインはこれだ
JIRA / Confluence の必須プラグインはこれだJIRA / Confluence の必須プラグインはこれだ
JIRA / Confluence の 必須プラグインはこれだ
 
論文に関する基礎知識2016
 論文に関する基礎知識2016 論文に関する基礎知識2016
論文に関する基礎知識2016
 
Building Deep Learning Powered Big Data: Spark Summit East talk by Jiao Wang ...
Building Deep Learning Powered Big Data: Spark Summit East talk by Jiao Wang ...Building Deep Learning Powered Big Data: Spark Summit East talk by Jiao Wang ...
Building Deep Learning Powered Big Data: Spark Summit East talk by Jiao Wang ...
 
新たなRNNと自然言語処理
新たなRNNと自然言語処理新たなRNNと自然言語処理
新たなRNNと自然言語処理
 
御清聴ありがとうございました
御清聴ありがとうございました御清聴ありがとうございました
御清聴ありがとうございました
 
優れた研究論文の書き方―7つの提案
優れた研究論文の書き方―7つの提案優れた研究論文の書き方―7つの提案
優れた研究論文の書き方―7つの提案
 
クックパッド特売情報 における自然言語処理 〜固有表現抽出を利用した検索システム〜
クックパッド特売情報 における自然言語処理 〜固有表現抽出を利用した検索システム〜クックパッド特売情報 における自然言語処理 〜固有表現抽出を利用した検索システム〜
クックパッド特売情報 における自然言語処理 〜固有表現抽出を利用した検索システム〜
 
先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15
 
深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション
 

Similar a 第64回情報科学談話会(岡﨑 直観 准教授)

dont_count_predict_in_acl2014
dont_count_predict_in_acl2014dont_count_predict_in_acl2014
dont_count_predict_in_acl2014Sho Takase
 
機械学習を用いたWeb上の産学連携関連文書の抽出
機械学習を用いたWeb上の産学連携関連文書の抽出機械学習を用いたWeb上の産学連携関連文書の抽出
機械学習を用いたWeb上の産学連携関連文書の抽出National Institute of Informatics
 
2015 08 survey
2015 08 survey2015 08 survey
2015 08 surveymarujirou
 
深層学習を用いた文生成モデルの歴史と研究動向
深層学習を用いた文生成モデルの歴史と研究動向深層学習を用いた文生成モデルの歴史と研究動向
深層学習を用いた文生成モデルの歴史と研究動向Shunta Ito
 
大規模言語モデルとChatGPT
大規模言語モデルとChatGPT大規模言語モデルとChatGPT
大規模言語モデルとChatGPTnlab_utokyo
 
COLING2014 読み会@小町研 “Morphological Analysis for Japanese Noisy Text Based on C...
COLING2014 読み会@小町研 “Morphological Analysis for Japanese Noisy Text Based on C...COLING2014 読み会@小町研 “Morphological Analysis for Japanese Noisy Text Based on C...
COLING2014 読み会@小町研 “Morphological Analysis for Japanese Noisy Text Based on C...Yuki Tomo
 
第8回Language and Robotics研究会20221010_AkiraTaniguchi
第8回Language and Robotics研究会20221010_AkiraTaniguchi第8回Language and Robotics研究会20221010_AkiraTaniguchi
第8回Language and Robotics研究会20221010_AkiraTaniguchiAkira Taniguchi
 
分布あるいはモーメント間距離最小化に基づく統計的音声合成
分布あるいはモーメント間距離最小化に基づく統計的音声合成分布あるいはモーメント間距離最小化に基づく統計的音声合成
分布あるいはモーメント間距離最小化に基づく統計的音声合成Shinnosuke Takamichi
 
Interop2017
Interop2017Interop2017
Interop2017tak9029
 
おとなのテキストマイニング
おとなのテキストマイニングおとなのテキストマイニング
おとなのテキストマイニングMunenori Sugimura
 
学術情報XML推進協議会 第5回総会・講演会(2016) : XML Scholarly Publishing Association; XSPA
学術情報XML推進協議会 第5回総会・講演会(2016) : XML Scholarly Publishing Association; XSPA学術情報XML推進協議会 第5回総会・講演会(2016) : XML Scholarly Publishing Association; XSPA
学術情報XML推進協議会 第5回総会・講演会(2016) : XML Scholarly Publishing Association; XSPAKazuhiro Hayashi
 
Nl237 presentation
Nl237 presentationNl237 presentation
Nl237 presentationRoy Ray
 
蔵書選定のための学位論文タイトルマイニング
蔵書選定のための学位論文タイトルマイニング蔵書選定のための学位論文タイトルマイニング
蔵書選定のための学位論文タイトルマイニングgenroku
 
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecShin Asakawa
 
WaveNetが音声合成研究に与える影響
WaveNetが音声合成研究に与える影響WaveNetが音声合成研究に与える影響
WaveNetが音声合成研究に与える影響NU_I_TODALAB
 

Similar a 第64回情報科学談話会(岡﨑 直観 准教授) (20)

dont_count_predict_in_acl2014
dont_count_predict_in_acl2014dont_count_predict_in_acl2014
dont_count_predict_in_acl2014
 
FPGAX2019
FPGAX2019FPGAX2019
FPGAX2019
 
機械学習を用いたWeb上の産学連携関連文書の抽出
機械学習を用いたWeb上の産学連携関連文書の抽出機械学習を用いたWeb上の産学連携関連文書の抽出
機械学習を用いたWeb上の産学連携関連文書の抽出
 
2015 08 survey
2015 08 survey2015 08 survey
2015 08 survey
 
深層学習を用いた文生成モデルの歴史と研究動向
深層学習を用いた文生成モデルの歴史と研究動向深層学習を用いた文生成モデルの歴史と研究動向
深層学習を用いた文生成モデルの歴史と研究動向
 
4thNLPDL
4thNLPDL4thNLPDL
4thNLPDL
 
大規模言語モデルとChatGPT
大規模言語モデルとChatGPT大規模言語モデルとChatGPT
大規模言語モデルとChatGPT
 
2012 09-25-sig-ifat
2012 09-25-sig-ifat2012 09-25-sig-ifat
2012 09-25-sig-ifat
 
COLING2014 読み会@小町研 “Morphological Analysis for Japanese Noisy Text Based on C...
COLING2014 読み会@小町研 “Morphological Analysis for Japanese Noisy Text Based on C...COLING2014 読み会@小町研 “Morphological Analysis for Japanese Noisy Text Based on C...
COLING2014 読み会@小町研 “Morphological Analysis for Japanese Noisy Text Based on C...
 
Paper: seq2seq 20190320
Paper: seq2seq 20190320Paper: seq2seq 20190320
Paper: seq2seq 20190320
 
第8回Language and Robotics研究会20221010_AkiraTaniguchi
第8回Language and Robotics研究会20221010_AkiraTaniguchi第8回Language and Robotics研究会20221010_AkiraTaniguchi
第8回Language and Robotics研究会20221010_AkiraTaniguchi
 
分布あるいはモーメント間距離最小化に基づく統計的音声合成
分布あるいはモーメント間距離最小化に基づく統計的音声合成分布あるいはモーメント間距離最小化に基づく統計的音声合成
分布あるいはモーメント間距離最小化に基づく統計的音声合成
 
Information extraction 1
Information extraction 1Information extraction 1
Information extraction 1
 
Interop2017
Interop2017Interop2017
Interop2017
 
おとなのテキストマイニング
おとなのテキストマイニングおとなのテキストマイニング
おとなのテキストマイニング
 
学術情報XML推進協議会 第5回総会・講演会(2016) : XML Scholarly Publishing Association; XSPA
学術情報XML推進協議会 第5回総会・講演会(2016) : XML Scholarly Publishing Association; XSPA学術情報XML推進協議会 第5回総会・講演会(2016) : XML Scholarly Publishing Association; XSPA
学術情報XML推進協議会 第5回総会・講演会(2016) : XML Scholarly Publishing Association; XSPA
 
Nl237 presentation
Nl237 presentationNl237 presentation
Nl237 presentation
 
蔵書選定のための学位論文タイトルマイニング
蔵書選定のための学位論文タイトルマイニング蔵書選定のための学位論文タイトルマイニング
蔵書選定のための学位論文タイトルマイニング
 
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vec
 
WaveNetが音声合成研究に与える影響
WaveNetが音声合成研究に与える影響WaveNetが音声合成研究に与える影響
WaveNetが音声合成研究に与える影響
 

第64回情報科学談話会(岡﨑 直観 准教授)

  • 2. 自然言語処理とは • 言葉を操る賢いコンピュータを作る • 応用: 情報検索,機械翻訳,質問応答,自動要 約,対話生成,評判分析,SNS分析,… • 基礎: 品詞タグ付け(形態素解析),チャンキ ング,固有表現抽出,構文解析,共参照解析, 意味役割付与,… • 多くのタスクは「入力𝑥𝑥から出力�𝑦𝑦を予測」 �𝑦𝑦 = argmax 𝑦𝑦∈𝑌𝑌 𝑃𝑃(𝑦𝑦|𝑥𝑥) ※確率ではないモデルもあります 2016-06-09 言語処理における深層ニューラルネットワーク 2
  • 3. 単語列からラベル: ̂𝑦𝑦 = argmax 𝑦𝑦∈𝑌𝑌 𝑃𝑃(𝑦𝑦|𝒙𝒙) 2016-06-09 言語処理における深層ニューラルネットワーク 3 The movie is the best I’ve ever seen! The movie is coming soon on cinemas. This movie is rubbish!!! • モデル:ナイーブ・ベイズ,パーセプトロン, ロジスティック回帰,サポート・ベクトル・マシン 𝒙𝒙: 単語列 𝑃𝑃(𝑦𝑦|𝒙𝒙) �𝑦𝑦
  • 4. 単語列から系列ラベル: �𝒚𝒚 = argmax 𝒚𝒚∈𝑌𝑌 𝑚𝑚 𝑃𝑃(𝒚𝒚|𝒙𝒙) 2016-06-09 言語処理における深層ニューラルネットワーク 4 • モデル:隠れマルコフモデル,条件付き確率場,符号・復号 • 探索法:点予測,動的計画法,ビーム探索,… In March 2005, the New York Times acquired About, Inc. IN NNP CD DT NNP NNP NNP VBD NNP NNP O B-NP I-NP B-NP I-NP I-NP I-NP B-VP B-NP B-NP 2005年 3月 , ニューヨーク・タイムズ は About 社 を 買収 し た . (品詞) (句) (翻訳) (入力) I heard Google and Yahoo were among the other bidders.(対話)
  • 5. 単語列から木構造: �𝒚𝒚 = argmax 𝒚𝒚∈Gen(𝒙𝒙) 𝑃𝑃(𝒚𝒚|𝒙𝒙) 2016-06-09 言語処理における深層ニューラルネットワーク 5 • モデル:確率的文脈自由文法,条件付き確率場 • 探索法:Shift-Reduce法,Eisner法,CKY法,最小全域木 markets had effect on . ][[ ROOT ] Stack Queue news Economic nmod sbj little nmod financial nmod pmod nmod obj p root
  • 6. DNN以前の特徴抽出: 固有表現抽出の例 2016-06-09 言語処理における深層ニューラルネットワーク 6 w[-2]=EU w[-1]=rejects w[0]=German w[1]=call w[2]=to w[-2]|w[- 1]=EU|rejects w[-1]|w[0]=rejects|German w[0]|w[1]=German|call w[1]|w[2]=call|to pos[-2]=NNP pos[-1]=VBZ pos[0]=JJ pos[1]=NN pos[2]=TO pos[-2]|pos[-1]=NNP|VBZ pos[-1]|pos[0]=VBZ|JJ pos[0]|pos[1]=JJ|NN pos[1]|pos[2]=NN|TO chk[-2]=B-NP chk[-1]=B-VP chk[0]=B-NP chk[1]=I-NP chk[2]=B-VP chk[-2]|chk[-1]=B-NP|B-VP chk[-1]|chk[0]=B-VP|B-NP chk[0]|chk[1]=B-NP|I-NP chk[1]|chk[2]=I- NP|B-VP iu[-2]=True iu[-1]=False iu[0]=True iu[1]=False iu[2]=False iu[-2]|iu[-1]=True|False iu[-1]|iu[0]=False|True iu[0]|iu[1]=True|False iu[1]|iu[2]=False|False B-ORG EU NNP B-NP O rejects VBZ B-VP B-MISC German JJ B-NP O call NN I-NP O to TO B-VP O boycott VB I-VP B-MISC British JJ B-NP O lamb NN I-NP O . . O • 単語n-gram • 品詞n-gram • チャンクn-gram • 大文字パターン • 辞書マッチなど他にも沢山
  • 7. DNN時代の到来 • 画像認識でブレークスルー (2012年) • エラー率が10%以上減少 (ILSVRC 2012) • 当時,言語処理での衝撃は限定的だった • 文字や単語などの明確な特徴量があったため? • 画像認識のようなブレークスルーはまだ無い • 現在,多くのタスクでDNNが使われる • 地道な研究成果の積み重ね • 前スライドの固有表現抽出もDNNで最高精度 2016-06-09 言語処理における深層ニューラルネットワーク 7
  • 8. 言語処理における(D)NNの主な成果 • Neural Language Model (Bengio 03) • SENNA (CNNでNLP) (Collobert+ 08) • Recursive Neural Network (Socher+ 11) • Skip-gram & CBOW model (Mikolov+ 13) • Encoder-decoder (Sutskever+ 14; Cho+ 14) • Memory networks (Weston+ 14) • Attention mechanism (Bahdanau+ 15) 2016-06-09 言語処理における深層ニューラルネットワーク 8 分散表現 分散表現の合成 符号・複号化
  • 10. 分散表現 (Hinton+ 1986) • 局所表現(local representation) • 各概念に1つの計算要素 (記号, ニューロン, 次元) を割り当て • 分散表現(distributed representation) • 各概念は複数の計算要素で表現される • 各計算要素は複数の概念の表現に関与する 2016-06-09 言語処理における深層ニューラルネットワーク 10 バス 萌えバス … … #2948 … … #19023840334 バス 萌えバス萌えトラック ニューロンの 興奮パターン ≒ベクトル表現 http://ja.wikipedia.org/wiki/富士急山梨バス http://saori223.web.fc2.com/
  • 11. Skip-gram with Negative Sampling (SGNS) (Mikolov+ 2013) 2016-06-09 言語処理における深層ニューラルネットワーク 11 draughtofferpubs beer, cider, and wine last use place people make city full know build time group have new game rather age show take take team season say 個 の 単 語 を ユ ニ グ ラ ム 分 布 か ら サ ン プ リ ン グ し , こ れ ら が 予 測 さ れ な い よ う に 更 新 ( 負 例 ) 個 の 文 脈 語 を 予 測 す る よ う に 更 新 同じ単語がサン プルされること もあり得る 単語ベクトル𝒗𝒗𝑤𝑤 (𝑑𝑑次元) 予測ベクトル�𝒗𝒗𝑐𝑐 (𝑑𝑑次元) : 内積 → +∞ へ : 内積 → −∞ へ ベクトルの更新方針 コーパス (文脈幅ℎ = 2, 負例サンプル数𝑘𝑘 = 1の場合の例)
  • 12. SGNSで学習した分散表現は加法構成性を持つ • 有名な例: king − man + woman ≈ queen 2016-06-09 言語処理における深層ニューラルネットワーク 12 (Mikolov+ 2013) 国名と首都名が同じ向きに並ぶ (Mikolov+ 2013)
  • 14. 句や文をDNNでモデル化したい • 単語の分散表現の有用性が明らかになった • 次は句や文の分散表現を獲得したい • 構成性の原理に基づき,単語の分散表現か ら句や文の分散表現を合成する • 句や文の意味は,その構成要素の意味とその合 成手続きから計算できる • 最も単純かつ強力な手法は平均 𝒑𝒑 = 1 2 𝒖𝒖 + 𝒗𝒗 2016-06-09 言語処理における深層ニューラルネットワーク 14
  • 15. Recursive Neural Network (RNN) (Socher+ 2011) • 句ベクトルを次式で合成 𝒑𝒑 = 𝑓𝑓 𝒖𝒖, 𝒗𝒗 = 𝑔𝑔 𝑊𝑊 𝒖𝒖 𝒗𝒗 • 𝑊𝑊 ∈ ℝ𝑑𝑑×2𝑑𝑑 : ℝ2𝑑𝑑 → ℝ𝑑𝑑 の変換行列 • 𝑔𝑔: 活性化関数 (𝜎𝜎やtanh) • 文の句構造に従って再帰的に 句ベクトルを計算 • 訓練データを用い,誤差逆伝 搬法で𝑊𝑊を学習 • 単語ベクトルも同時に学習 2016-06-09 言語処理における深層ニューラルネットワーク 15 moviegoodvery 𝑊𝑊 (𝑑𝑑 × 2𝑑𝑑) ・ ・ very good very good movie 𝑊𝑊 (𝑑𝑑 × 2𝑑𝑑)
  • 16. Recurrent Neural Network (RNN) (Sutskever+ 2011) 2016-06-09 言語処理における深層ニューラルネットワーク 16 very good movie 𝑥𝑥𝑡𝑡 𝑊𝑊(ℎ𝑥𝑥) ℎ𝑡𝑡 𝑊𝑊(𝑦𝑦𝑦) 𝑊𝑊(ℎℎ) 𝑊𝑊(ℎℎ) 𝑦𝑦𝑡𝑡 潜在変数: ℎ𝑡𝑡 = 𝜎𝜎 𝑊𝑊(ℎ𝑥𝑥) 𝑥𝑥𝑡𝑡 + 𝑊𝑊(ℎℎ) ℎ𝑡𝑡−1 + 𝑏𝑏ℎ 出力: 𝑦𝑦𝑡𝑡 = 𝜎𝜎 𝑊𝑊(𝑦𝑦𝑦)ℎ𝑡𝑡 + 𝑏𝑏𝑦𝑦 Input vector Hidden vector (memory) Output vector:
  • 17. Long Short-Term Memory (LSTM) (Graves 2013) (単純化したもの) 2016-06-09 言語処理における深層ニューラルネットワーク 17 very good movie 𝑥𝑥𝑡𝑡 𝑐𝑐𝑡𝑡 ℎ𝑡𝑡 Input gate Output gate Forget gate Forget gate • 各ゲートはマスクの役割を担う(ベクトルの要素ごとの積) • 各ゲートのマスクパターンを入力𝑥𝑥𝑡𝑡,記憶ℎ𝑡𝑡−1,出力ℎ𝑡𝑡−1などで制御する • 長い系列での誤差逆伝搬時の勾配消失をゲートで防止する(→長期依存の保存)
  • 18. LSTMもNNの一種 Input gate: 𝑖𝑖𝑡𝑡 = 𝜎𝜎 𝑊𝑊(𝑥𝑥𝑥𝑥) 𝑥𝑥𝑡𝑡 + 𝑊𝑊(ℎ𝑖𝑖) ℎ𝑡𝑡−1 + 𝑊𝑊(𝑐𝑐𝑖𝑖) 𝑐𝑐𝑡𝑡−1 + 𝑏𝑏𝑖𝑖 Forget gate: 𝑓𝑓𝑡𝑡 = 𝜎𝜎 𝑊𝑊(𝑥𝑥𝑥𝑥) 𝑥𝑥𝑡𝑡 + 𝑊𝑊(ℎ𝑓𝑓)ℎ𝑡𝑡−1 + 𝑊𝑊(𝑐𝑐𝑐𝑐) 𝑐𝑐𝑡𝑡−1 + 𝑏𝑏𝑓𝑓 Cell: 𝑐𝑐𝑡𝑡 = 𝑓𝑓𝑡𝑡 ⊙ 𝑐𝑐𝑡𝑡−1 + 𝑖𝑖𝑡𝑡 ⊙ tanh 𝑊𝑊(𝑥𝑥𝑥𝑥) 𝑥𝑥𝑡𝑡 + 𝑊𝑊(ℎ𝑐𝑐)ℎ𝑡𝑡−1 + 𝑏𝑏𝑐𝑐 Output gate: 𝑜𝑜𝑡𝑡 = 𝜎𝜎 𝑊𝑊(𝑥𝑥𝑥𝑥) 𝑥𝑥𝑡𝑡 + 𝑊𝑊(ℎ𝑜𝑜)ℎ𝑡𝑡−1 + 𝑊𝑊(𝑐𝑐𝑐𝑐) 𝑐𝑐𝑡𝑡 + 𝑏𝑏𝑜𝑜 Hidden variable: ℎ𝑡𝑡 = 𝑜𝑜𝑡𝑡 ⊙ tanh 𝑐𝑐𝑡𝑡 2016-06-09 言語処理における深層ニューラルネットワーク 18 Graves (2013) ⊗(数式中は⊙)は 要素ごとの積
  • 19. Convolutional Neural Network (CNN) (Kim 14) • 領域ベクトル: 𝑥𝑥𝑡𝑡:𝑡𝑡+𝛿𝛿 = 𝑥𝑥𝑡𝑡 ⊕ 𝑥𝑥𝑡𝑡+1 ⊕ ⋯ ⊕ 𝑥𝑥𝑡𝑡+𝛿𝛿−1 • 時間毎の特徴量: 𝑝𝑝𝑡𝑡 = 𝑔𝑔(𝑤𝑤 ⋅ 𝑥𝑥𝑡𝑡:𝑡𝑡+𝛿𝛿 + 𝑏𝑏) • 特徴量 (maxプーリング): 𝑐𝑐 = max 1<𝑡𝑡<𝑇𝑇−𝛿𝛿+1 𝑝𝑝𝑡𝑡 2016-06-09 言語処理における深層ニューラルネットワーク 19 very good movie It is a w w p c 領域ベクトル xt 時刻毎の特徴量 畳み込み演算 (フィルタ) プーリング タスクに 応じた予測 t 特徴量 出力
  • 20. Stanford Sentiment Treebank (Socher+ 2013) 2016-06-09 言語処理における深層ニューラルネットワーク 20 映画のレビューコーパス (Pang+ 2005) の文を Stanford Parser句構造解 析し,句ノードに評価極性 (--, -, 0, +, ++)を3人 のアノテータで付与 評価極性を示す単語と 否定表現,活性・不活 性表現による構成性を 扱うことを目的として 作られたコーパス
  • 21. Stanford Sentiment Treebank での性能 2016-06-09 言語処理における深層ニューラルネットワーク 21 Tai+ (2015)
  • 23. 分散表現から文を生成できるか? • 単語から句や文の分散表現を合成できる • 句や文の分散表現から単語列を取り出せるか? • 符号化・復号化 (encoder-decoder) モデル • 与えられた文の内容をベクトルで表現し,文を出力する • 単語列から単語列を予測できる • DNNの応用がさらに広がる • 機械翻訳 (Sutskever+ 14, Cho+ 14, Luong+ 15) • 対話文生成 (Vinyals+ 15) • 自動要約 (Rush+ 15) • 画像説明文の生成 (Vinyals+ 14) 2016-06-09 言語処理における深層ニューラルネットワーク 23
  • 24. Sequence-to-sequence (Sutskever+ 14) 2016-06-09 言語処理における深層ニューラルネットワーク 24 very good movie とても よい 映画 だ <EOS> とても よい 映画 だ <EOS> 𝑥𝑥𝑡𝑡 ℎ𝑡𝑡 𝑦𝑦𝑡𝑡 • 英語 (𝑥𝑥𝑡𝑡) から日本語 (𝑦𝑦𝑡𝑡) への機械翻訳の例 • ℎ𝑡𝑡 = 𝜎𝜎(𝑊𝑊(ℎ𝑥𝑥) 𝑥𝑥𝑡𝑡 + 𝑊𝑊(ℎℎ)ℎ𝑡𝑡−1) • 𝑦𝑦𝑡𝑡 = 𝑊𝑊(𝑦𝑦𝑦)ℎ𝑡𝑡 (𝑦𝑦𝑡𝑡は出力単語のスコアのベクトル表現) • 出力単語を入力側に戻すことで,翻訳履歴を考慮 • 実際にはRNNではなく2-layer LSTMを用いる 入力文の意味 ベクトル
  • 25. 対話の生成 (Vinyals+ 15) • 学習データ: OpenSubtitles • 映画の字幕から抽出した対話文(約6200万文) • Sequence-to-sequenceで生成した例 2016-06-09 言語処理における深層ニューラルネットワーク 25
  • 26. Attention mechanism (Bahdanau+ 15, Luong+, 15) 2016-06-09 言語処理における深層ニューラルネットワーク 26 very good movie とても よい <EOS> とても 𝑥𝑥𝑠𝑠 ℎ𝑠𝑠 ℎ𝑡𝑡 𝑎𝑎𝑡𝑡(𝑠𝑠) 𝑐𝑐𝑡𝑡 �ℎ𝑡𝑡 = tanh(𝑊𝑊𝑐𝑐[𝑐𝑐𝑡𝑡; ℎ𝑡𝑡]) 𝑎𝑎𝑡𝑡(𝑠𝑠) = exp score(ℎ𝑡𝑡, ℎ𝑠𝑠) ∑𝑠𝑠′ exp score(ℎ𝑡𝑡, ℎ𝑠𝑠𝑠) score ℎ𝑡𝑡, ℎ𝑠𝑠 = ℎ𝑡𝑡 ⋅ ℎ𝑠𝑠 𝑐𝑐𝑡𝑡 = � 𝑠𝑠 𝑎𝑎𝑡𝑡(𝑠𝑠)ℎ𝑠𝑠 • 固定長のベクトルで文の意味をエンコードするには限界がある • 位置𝑡𝑡の単語を生成するときに,入力のどの単語に着目すべき かの重み𝑎𝑎𝑡𝑡(𝑠𝑠)を求め,入力単語のベクトルℎ𝑠𝑠の重み付き平均 ベクトル𝑐𝑐𝑡𝑡も用いて出力単語を生成する
  • 28. 関係パタンの意味合成 (Takase+ 2016) • 因果関係などの「関係」を表す言語表現の分散表現を, 構成単語の分散表現から合成する手法を提案 • 関係の分散表現の評価データを作成・公開 2016-06-09 言語処理における深層ニューラルネットワーク 28 passive smoking increases the risk of lung cancer xs xs+1 xs+2 xs+T-1 xs+T xs+T+1xs-2 xs-1 (3) (4) (5) hs hs+1 hs+2 hs+T-1 (3) ws ws+1 ws+2 ws+T-1 (3) ws+T ws+T+1 (4) (5) ws-2 ws-1 fs fs+1 fs+2 is is+1 is+2 is+3 ~ ~ ~ ~ Parameter update by Skip-gram model Parameter update by Skip-gram model Pattern vector computed by Gated Additive Composition (GAC) T = 4 δ = 2δ = 2 Context window Context windowRelation pattern (word vectors)(context vectors) (context vectors) (hidden vectors)
  • 29. 動的分散表現による読解 (Kobayashi+ 2016) Once X1 was the U.S. president. X1 faced criticism for affairs. 2016-06-09 言語処理における深層ニューラルネットワーク 29 X1の表現1 Later X1 was divorced with the wife X2. 質問: [?] was the wife of the president. X1の表現2 X1の表現3 X2の表現1 双方向LSTMでXのベク トルをエンコード(先頭 と末尾の単語のベクトル も結合して用いる) [?]の表現 X1の表現 X2の表現 アテンションでXの異なる 文脈のベクトルを統合 内積の大きい方を解答 するようにモデル化 Max-poolingによる初期化
  • 30. (D)NNを用いたその他の研究 • 構文解析のための分散表現の学習 (Komatsu+, 15) • Dependency-based Compositional Semanticsと加 法構成性に基づく意味合成 (Tian+, 16) • CNNによるツイートの賛否分類 (Igarashi+, 16) • Wikipedia記事の意味カテゴリ推定 (Suzuki+, submitted) • 画像内の物体間の関係抽出 (Muraoka+, submitted) 2016-06-09 言語処理における深層ニューラルネットワーク 30
  • 31. まとめ • 言語処理における(D)NN研究の最近の流れ • 2013年-: 単語の分散表現 • 2011年-: 構成性に基づく句の分散表現 • 2014年-: 符号化・復号化モデル • 2015年-: アテンション・メカニズム • 2016年-: ? • 今後DNNで取り組みたいと思っているテーマ • 文脈のモデリングとその応用 • 分散表現による知識の表現と推論 2016-06-09 言語処理における深層ニューラルネットワーク 31
  • 33. 参考文献 (1/2) • Bahdanau, D., Cho, K., and Bengio, Y.: Neural Machine Translation by Jointly Learning to Align and Translate, in ICLR (2015) • Bengio, Y., Ducharme, R., Vincent, P., and Janvin, C.: A Neural Probabilistic Language Model, Journal of Machine Learning Research, Vol. 3, pp. 1137–1155 (2003) • Cho, K., Merrienboer, van B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., and Bengio, Y.: Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation, in Proc. of EMNLP, pp. 1724–1734 (2014) • Collobert, R. and Weston, J.: A Unified Architecture for Natural Language Processing: Deep Neural Networks with Multitask Learning, in Proc of ICML, pp. 160–167 (2008) • Graves, A.: Generating Sequences With Recurrent Neural Networks, CoRR, Vol. abs/1308.0850, (2013) • Hinton, G., McClelland, J., and Rumelhart, D.: Distributed representations, in Rumelhart, D. E., McClelland, J. L., and Group, P. R. eds., Parallel distributed processing: Explorations in the microstructure of cognition, Vol. I, chapter 3, pp. 77–109, MIT Press, Cambridge, MA (1986) • Igarashi, Y., Komatsu, H., Kobayashi, S., Okazaki, N., Inui, K.: Feature-based Model versus Convolutional Neural Network for Stance Detection, in Proc. of SemEval (2016)Kim, Y.: Convolutional Neural Networks for Sentence Classification, in Proc. of EMNLP, pp. 1746–1751 (2014) • Kobayashi, K., Tian, R., Okazaki, N., Inui, K.: Dynamic Entity Representation with Max-pooling Improves Machine Reading, in Proc. of NAACL (2016) • Komatsu, H., Tian, R., Okazaki, N., Inui, K.: Reducing Lexical features in Parsing by Word Embeddings. in Proc. of PACLIC, pp.106-113 (2015) • Luong, M.-T., Pham, H., Manning, C. D.: Effective Approaches to Attention-based Neural Machine Translation, in Proc. of EMNLP, pp. 1412-1421 (2015) 2016-06-09 言語処理における深層ニューラルネットワーク 33
  • 34. 参考文献 (2/2) • Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., and Dean, J.: Distributed Representations ofWords and Phrases and their Compositionality, in Proc. of NIPS, pp. 3111–3119 (2013) • Rush, A. M., Chopra, S., Weston, J.: A Neural Attention Model for Sentence Summarization • , in Proc. of EMNLP, pp. 379-389 (2015) • Socher, R., Pennington, J., Huang, E. H., Ng, A. Y., and Manning, C. D.: Semi-Supervised Recursive Autoencoders for Predicting Sentiment Distributions, in Proc. of EMNLP, pp. 151–161 (2011) • Socher, R., Perelygin, A., Wu, J., Chuang, J., Manning, C. D., Ng, A., and Potts, C.: Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank, in Proc. of EMNLP, pp. 1631–1642 (2013) • Sutskever, I., Martens, J., and Hinton, G.: Generating Text with Recurrent Neural Networks, in Proc. of ICML, pp. 1017– 1024 (2011) • Sutskever, I., Vinyals, O., and Le, Q. V.: Sequence to Sequence Learning with Neural Networks, in Proc. of NIPS, pp. 3104–3112 (2014) • Tai, K. S., Socher, R., and Manning, C. D.: Improved Semantic Representations From Tree-Structured Long Short-Term Memory Networks, in Proc. of ACL-IJCNLP, pp. 1556–1566 (2015) • Takase, S., Okazaki, N., Inui, K.: Composing Distributed Representations of Relational Patterns, in Proc. of ACL (2016) • Tian, R., Okazaki, N., Inui, K.: Learning Semantically and Additively Compositional Distributional Representations, in Proc. of ACL (2016) • Vinyals, O., Le, Q. V., A Neural Conversational Model, in Proc. of ICML Deep Learning Workshop, (2015) • Vinyals, O., Toshev, A., Bengio, S., and Erhan, D.: Show and tell: A neural image caption generator, in Proc. of CVPR (2015) • Weston, J., Chopra, S., Bordes, A.: Memory Networks, in Proc. of ICLR, (2015) 2016-06-09 言語処理における深層ニューラルネットワーク 34