SlideShare una empresa de Scribd logo
1 de 31
Descargar para leer sin conexión
深層リカレントニューラルネットワーク
を用いた日本語述語項構造解析
大内 啓樹 進藤 裕之 松本 裕治
ouchi.hiroki.nt6@is.naist.jp
奈良先端科学技術大学院大学 自然言語処理学研究室
2016/12/22 (木)
情報処理学会 第229回 自然言語処理研究会
本研究の概要
2
単語分割
品詞付与
係り受け
述語項構造
入力文
既存研究
×深層RNN
日本語
述語項構造解析
複数の述語を考慮
可能なRNNの提案
入力文
本研究
78.15
80.90
79.23
81.22
IM09 MA14 OU15 DRGM
単語などの
表層情報のみ使用
最先端の解析器を
上回る性能を達成
単語分割
述語項構造
述語項構造とは?
3
「誰が 何を 誰に どうした」
• 花子は太郎を殴った。
• 太郎は花子に殴られた。
殴る
ガ 花子
ヲ 太郎
ニ None
述語項構造は表層の違いを正規化する
述語 出来事や状態を表す語や句
項 出来事や状態を表すのに必要な語や句
格 述語項間の意味的役割
項の種類
4
コロッケを受け取った彼女は、急いで食べた。
(φが)ジュースも飲んだ。
ガヲ ガ
ヲ
ヲ
ガ
• 係り受け有 精度: 85-90%
• 文内ゼロ 精度: 30-55%
• 文間ゼロ 精度: 10-20%
3種類の項
本研究の
解析対象
関連研究
日本語述語項構造解析手法
6
Taira+ 08 SVM + Decision List
Maximum Entropy Model
Tournament Model
Markov Logic Network
点推定アプローチ
同時推定アプローチ
Graph-Based Joint Model + Hill Climbing
Imamura+ 09
Hayashibe+ 11
Yoshikawa+ 11
Sasano+ 11
Ouchi+ 15
Shibata+ 16 Ouchi + Neural Net
Iida+ 16 Convolutional Neural Net
Log-Linear Model + Case Frames
点推定アプローチ
7
Imamura+ 09 述語ごとに独立に項を推定
警察は 犯人を 逮捕したが、 数日後に 逃走した。
ガ格
逮捕する
警察
犯人
数日後
2.8
3.9
1.3
NULL0.6
ガ格
逃走する
警察
犯人
数日後
2.9
2.6
0.7
NULL0.5
同時推定アプローチ
8
警察
犯人
数日後
逮捕する
逃走する
NULL
逮捕する
逃走する
ガ 警察
ヲ 犯人
ニ NULL
ガ 犯人
ヲ NULL
ニ NULL ガ ヲ ニ
Ouchi+ 15 文内の全述語項を同時に推定
点推定と同時推定
9
警察
犯人
数日後
逮捕する
逃走する
NULL
警察
犯人
数日後
逮捕する
NULL
警察
犯人
数日後
逮捕する
NULL
警察
犯人
数日後
逮捕する
NULL
警察
犯人
数日後
逃走する
NULL
警察
犯人
数日後
逃走する
NULL
警察
犯人
数日後
逃走する
NULL
点推定 同時推定
深層リカレントモデル
問題設定
11
<単語> 彼女 は コロッケ を 食べた 。
<ラベル> GA NONE WO NONE PRED NONE
• 各単語にラベルを付与する多値分類問題
• ラベルは {GA, WO, NI, NONE, PRED} の5つ
モデルの概要
12
• RNN (GRU) を使用
• 単語素性がスパースになることを防ぐため
• 長距離の依存関係をとらえる必要があるため
文内ゼロ項の解析には,長距離の
依存関係を考慮する必要がある
長距離依存の例 モデルのイメージ
• 係り受け有
• 文内ゼロ
使用する素性
13
<単語> 彼女 は コロッケ を 食べた 。
Arg Pred Pred Context Mark
1 彼女 食べた を 食べた 。 0
2 は 食べた を 食べた 。 0
3 コロッケ 食べた を 食べた 。 0
4 を 食べた を 食べた 。 1
5 食べた 食べた を 食べた 。 1
6 。 食べた を 食べた 。 1
• Pred Context: 述語とその周りの単語
• Mark: Pred Context に含まれているか否か
素性ベクトルの作り方
14
Word
Emb
Mark
Emb
Concat
1 彼女 食べた を 食べた 。 0
𝒙 𝟏
ネットワークアーキテクチャ
15
RNN
Layer 2
RNN
Layer 1
Output
Layer
𝑥1 𝑥 𝑡 𝑥 𝑇
・・・
・・・
・・・
Input
Layer
彼女 コロッケ 。・・・
・・・
・・・
・・・
Input
GA 0.2
WO 0.1
NI 0.2
NONE 0.4
PRED 0.1
• 双方向型RNN (GRU) を使用
ラベルの確率
DRMにおける複数述語を含む文の解析
16
朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
NONE PRED NONE GA NONE NONE NONE NONE NONE NONE NONE NONE
朝起きて、彼女はコロッケを食べ、学校に向かった。
朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
NONE NONE NONE GA NONE WO NONE PRED NONE NONE NONE NONE
朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
NONE NONE NONE GA NONE NONE NONE NONE NONE NI PRED NONE
※ 各述語に対して異なるターゲットのラベル列が決まる
DRMにおける複数述語を含む文の解析
17
朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
𝒙 𝟐,𝟏 𝒙 𝟐,𝟐 𝒙 𝟐,𝟑 𝒙 𝟐,𝟒 𝒙 𝟐,𝟓 𝒙 𝟐,𝟔 𝒙 𝟐,𝟕 𝒙 𝟐,𝟖 𝒙 𝟐,𝟗
𝒙 𝟏,𝟏𝟎 𝒙 𝟏,𝟏𝟏 𝒙 𝟏,𝟏𝟐𝒙 𝟏,𝟏 𝒙 𝟏,𝟐 𝒙 𝟏,𝟑 𝒙 𝟏,𝟒 𝒙 𝟏,𝟓 𝒙 𝟏,𝟔 𝒙 𝟏,𝟕 𝒙 𝟏,𝟖 𝒙 𝟏,𝟗
𝒙 𝟐,𝟏𝟎 𝒙 𝟐,𝟏𝟏 𝒙 𝟐,𝟏𝟐
𝒙 𝟑,𝟏 𝒙 𝟑,𝟐 𝒙 𝟑,𝟑 𝒙 𝟑,𝟒 𝒙 𝟑,𝟓 𝒙 𝟑,𝟔 𝒙 𝟑,𝟕 𝒙 𝟑,𝟖 𝒙 𝟑,𝟗 𝒙 𝟑,𝟏𝟎 𝒙 𝟑,𝟏𝟏 𝒙 𝟑,𝟏𝟐
𝒙 𝟏,𝟑𝒙 𝟏,𝟏 𝒙 𝟏,𝟐
𝑫𝒆𝒆𝒑 𝑹𝑵𝑵
Label Label Label
𝒙 𝟐,𝟑𝒙 𝟐,𝟏 𝒙 𝟐,𝟐
𝑫𝒆𝒆𝒑 𝑹𝑵𝑵
Label Label Label
𝒙 𝟑,𝟑𝒙 𝟑,𝟏 𝒙 𝟑,𝟐
𝑫𝒆𝒆𝒑 𝑹𝑵𝑵
Label Label Label
朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
素性ベクトル作成
各系列ごとに計算
問題点・解決策
18
深層リカレントモデル (DRM)
複数の述語を同時に考慮できない×
複数の述語を同時に考慮できる〇
深層リカレントグリッドモデル (DRGM)
深層リカレントグリッドモデル
モチベーション
20
• 複数の述語を考慮できるモデルの提案
• 解決策: RNNをグリッド状に連結する
モデルのイメージ グリッド連結のイメージ
素性ベクトルの計算を
系列間でも行う
DRMとDRGMの違い
21
DRM
𝒙 𝟐,𝟏 𝒙 𝟐,𝟕
𝒙 𝟏,𝟏𝟐𝒙 𝟏,𝟏 𝒙 𝟏,𝟕
𝒙 𝟐,𝟏𝟐
𝒙 𝟑,𝟏 𝒙 𝟑,𝟕 𝒙 𝟑,𝟏𝟐
𝒙 𝟏,𝟏𝟐𝒙 𝟏,𝟏 𝒙 𝟏,𝟕
𝑫𝒆𝒆𝒑 𝑹𝑵𝑵
Label Label Label
・・・ ・・・
・・・ ・・・
𝒙 𝟐,𝟏𝟐𝒙 𝟐,𝟏 𝒙 𝟐,𝟕
𝑫𝒆𝒆𝒑 𝑹𝑵𝑵
Label Label Label
・・・ ・・・
・・・ ・・・
𝒙 𝟑,𝟏𝟐𝒙 𝟑,𝟏 𝒙 𝟑,𝟕
𝑫𝒆𝒆𝒑 𝑹𝑵𝑵
Label Label Label
・・・ ・・・
・・・ ・・・
𝑫𝒆𝒆𝒑 𝑹𝑵𝑵
Label Label Label・・・ ・・・
Label Label Label・・・ ・・・
Label Label Label・・・ ・・・
DRGM
・・・ ・・・
・・・ ・・・
・・・ ・・・
使用する素性
22
朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
𝒙 𝟐,𝟏 𝒙 𝟐,𝟐 𝒙 𝟐,𝟑 𝒙 𝟐,𝟒 𝒙 𝟐,𝟓 𝒙 𝟐,𝟔 𝒙 𝟐,𝟕 𝒙 𝟐,𝟖 𝒙 𝟐,𝟗
1 2 3 4 5 6 7 8 9 10 11 12
1
2
p t
朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
3 朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
𝒙 𝟏,𝟏𝟎 𝒙 𝟏,𝟏𝟏 𝒙 𝟏,𝟏𝟐𝒙 𝟏,𝟏 𝒙 𝟏,𝟐 𝒙 𝟏,𝟑 𝒙 𝟏,𝟒 𝒙 𝟏,𝟓 𝒙 𝟏,𝟔 𝒙 𝟏,𝟕 𝒙 𝟏,𝟖 𝒙 𝟏,𝟗
𝒙 𝟐,𝟏𝟎 𝒙 𝟐,𝟏𝟏 𝒙 𝟐,𝟏𝟐
𝒙 𝟑,𝟏 𝒙 𝟑,𝟐 𝒙 𝟑,𝟑 𝒙 𝟑,𝟒 𝒙 𝟑,𝟓 𝒙 𝟑,𝟔 𝒙 𝟑,𝟕 𝒙 𝟑,𝟖 𝒙 𝟑,𝟗 𝒙 𝟑,𝟏𝟎 𝒙 𝟑,𝟏𝟏 𝒙 𝟑,𝟏𝟐
朝起きて、彼女はコロッケを食べ、学校に向かった。
ネットワークアーキテクチャ
23
𝑥1,1
𝑥2,1
𝑥3,1
Input
Layer
𝑥1,𝑡
𝑥2,𝑡
𝑥3,𝑡
𝑥1,𝑇
𝑥2,𝑇
𝑥3,𝑇
Grid
Layer 1
・・・
・・・
・・・
・・・
・・・ ・・・
・・・ ・・・
Grid
Layer 2
・・・ ・・・
・・・ ・・・
・・・ ・・・
・・・ ・・・
・・・ ・・・
Output
Layer
・・・ ・・・
・・・ ・・・
・・・ ・・・
・・・
・・・
・・・
GA 0.2
WO 0.1
NI 0.2
NONE 0.4
PRED 0.1
ラベルの確率
各グリッド層
24
ℎ1,2
(𝑙)
ℎ1,1
(𝑙)
ℎ1,3
(𝑙)
ℎ1,4
(𝑙)
ℎ1,5
(𝑙)
• 単語間の接続
深層リカレントモデルと同様
各グリッド層
25
ℎ1,2
(𝑙)
ℎ1,1
(𝑙)
ℎ2,1
(𝑙)
ℎ3,1
(𝑙)
ℎ1,3
(𝑙)
ℎ1,4
(𝑙)
ℎ1,5
(𝑙)
ℎ2,2
(𝑙)
ℎ2,3
(𝑙)
ℎ2,4
(𝑙)
ℎ2,5
(𝑙)
ℎ3,2
(𝑙)
ℎ3,3
(𝑙)
ℎ3,4
(𝑙)
ℎ3,5
(𝑙)
• 系列にまたがる接続
実験・結果・結論
実験設定
27
 データセット
NAIST Text Corpus Ver. 1.5
 訓練 25,000
 開発 5,000
 評価 9,000
 実装
 ライブラリ: Theano
 ハイパーパラメータ
 単語/隠れ層の次元: 32次元, ランダム初期化
 最適化手法: Adam
 L2正則化: [0.0001, 0.0005, 0.001]
実験結果: F値
28
中間層数 開発 評価
深層リカレント
モデル
(DRM)
2 80.14 80.58
4 80.66 80.91
6 80.52 80.37
8 80.74 80.70
深層リカレント
グリッドモデル
(DRGM)
2 80.43 80.63
4 80.78 80.93
6 81.14 81.22
8 80.90 81.06
• DRM < DRGM
• 複数の述語を考慮することによる効果
実験結果: 先行研究とのF値比較
29
Imamura+ 09 78.15
Matsubayashi+ 14 80.90
Ouchi+ 15 79.23
DRM 80.70
DRGM 81.22
NAIST Text Corpus 1.5を用いた先行研究との比較
• 先行研究の性能を上回る結果
実験結果: 格ごとのF値
30
係り受け有 文内ゼロ
ガ ヲ ニ ガ ヲ ニ
DRM 88.74 92.90 64.84 51.24 35.13 8.90
DRGM 88.66 93.95 66.50 51.57 38.06 9.44
Imamura+ 09 86.50 92.84 30.97 45.56 21.38 0.83
Matsubayashi+ 14 87.8 94.0 63.7 49.0 27.7 25.7
Ouchi+ 15 88.13 92.74 38.39 48.11 24.43 4.80
• 係り受け有
• 文内ゼロ
結論
31
1. 深層RNNを用いた述語項構造解析モデルの提案
2. 最先端の解析器を上回る精度を達成
https://github.com/hiroki13/neural-pasa-system
ソースコード
今後の課題
まとめ
• 本モデルの詳細なエラー分析
• 文間にまたがる述語項の同定

Más contenido relacionado

La actualidad más candente

La actualidad más candente (20)

SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
【DL輪読会】Scaling laws for single-agent reinforcement learning
【DL輪読会】Scaling laws for single-agent reinforcement learning【DL輪読会】Scaling laws for single-agent reinforcement learning
【DL輪読会】Scaling laws for single-agent reinforcement learning
 
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation
 
BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装
 
[DL輪読会]Attention Is All You Need
[DL輪読会]Attention Is All You Need[DL輪読会]Attention Is All You Need
[DL輪読会]Attention Is All You Need
 
【DL輪読会】GPT-4Technical Report
【DL輪読会】GPT-4Technical Report【DL輪読会】GPT-4Technical Report
【DL輪読会】GPT-4Technical Report
 
DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向
 
Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
 
先駆者に学ぶ MLOpsの実際
先駆者に学ぶ MLOpsの実際先駆者に学ぶ MLOpsの実際
先駆者に学ぶ MLOpsの実際
 
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
 
Decision Transformer: Reinforcement Learning via Sequence Modeling
Decision Transformer: Reinforcement Learning via Sequence ModelingDecision Transformer: Reinforcement Learning via Sequence Modeling
Decision Transformer: Reinforcement Learning via Sequence Modeling
 
BERTology のススメ
BERTology のススメBERTology のススメ
BERTology のススメ
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
 
機械学習モデルを REST API としてサービングするシステム開発における上流プロセスの絞り込みと効果検証(PM学会2023年度秋季研究発表大会 発表資料)
機械学習モデルを REST API としてサービングするシステム開発における上流プロセスの絞り込みと効果検証(PM学会2023年度秋季研究発表大会 発表資料)機械学習モデルを REST API としてサービングするシステム開発における上流プロセスの絞り込みと効果検証(PM学会2023年度秋季研究発表大会 発表資料)
機械学習モデルを REST API としてサービングするシステム開発における上流プロセスの絞り込みと効果検証(PM学会2023年度秋季研究発表大会 発表資料)
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
 

Destacado

「HOME'Sデータセット」を活用した不動産物件画像への深層学習の適用の取り組み
「HOME'Sデータセット」を活用した不動産物件画像への深層学習の適用の取り組み「HOME'Sデータセット」を活用した不動産物件画像への深層学習の適用の取り組み
「HOME'Sデータセット」を活用した不動産物件画像への深層学習の適用の取り組み
Yoji Kiyota
 

Destacado (9)

Duolingo.pptx
Duolingo.pptxDuolingo.pptx
Duolingo.pptx
 
「HOME'Sデータセット」を活用した不動産物件画像への深層学習の適用の取り組み
「HOME'Sデータセット」を活用した不動産物件画像への深層学習の適用の取り組み「HOME'Sデータセット」を活用した不動産物件画像への深層学習の適用の取り組み
「HOME'Sデータセット」を活用した不動産物件画像への深層学習の適用の取り組み
 
NL20161222invited
NL20161222invitedNL20161222invited
NL20161222invited
 
Decoupled Neural Interfaces輪読資料
Decoupled Neural Interfaces輪読資料Decoupled Neural Interfaces輪読資料
Decoupled Neural Interfaces輪読資料
 
GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]
GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]
GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
ニューラルチューリングマシン入門
ニューラルチューリングマシン入門ニューラルチューリングマシン入門
ニューラルチューリングマシン入門
 
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 

深層リカレントニューラルネットワークを用いた日本語述語項構造解析