SlideShare una empresa de Scribd logo
1 de 16
1




隠れマルコフモデルから
ビタビアルゴリズムまで
関口宏司@ロンウイット
英語の品詞タグ付けでの利用例
2




                                        入力
                                       テキスト

                 HMM:
                 Hidden Markov Model

     コーパス
                      HMM               POS     Viterbi
     (教師あ   学習                         Tagger   Algorithm
      り)              モデル



                                        出力
                                       品詞タグ付
                                       きテキスト
系列ラベリング
3


       データ系列の入力に対し、クラスの系列を出力
       普通の分類問題とは異なる
         普通の分類問題:F →c
         系列ラベリング:F1F2…Fn → c1c2…cn




               F1      F2     F3      F4      F5

              Time   flies   like    an     allow.
               c1      c2     c3      c4      c5

              [名詞]   [動詞]    [前置詞]   [冠詞]    [名詞]
系列ラベリング問題の解き方
4


       通常の分類器の逐次適用
         ciの推定に、Fi,   Fi-1, Fi+1やci-1などを用いる
            F1   F2    F3    F4   F5   …
            c1   c2    c3    c4   c5   …


       隠れマルコフモデル


       条件付き確率場(CRF)
マルコフ過程
5


       マルコフ過程
         ある記号の出力確率が、直前のN個の記号によって決
        まるとする確率過程
       隠れマルコフモデル
         「システムがパラメータ未知のマルコフ過程」と仮定
          し、観測可能な情報からその未知パラメータを推定
          (Wikipedia)
         外部で観測されるのは単語列であり、内部状態として
          見えない品詞の遷移がある(参考文献[1], [2])
         教師あり学習データを用いるのに「隠れ」とは違和感
          あるが、NLPでは呼称が定着(参考文献[3])
確率モデルの近似
6
HMM=オートマトンの一種
7



    隠れマルコフモデルは5項組 M=(Q, Σ, A, B, π) により定義される。


                            状態の有限集合

                            出力記号の有限集合

                                       状態遷移確率分布



                                           記号出力確率分布


                             初期状態確率分布
単語/品詞のHMM
8

                                                          0.3
                                                                                time … 0.6
                                                                                flies … 0.1
                                                                  名詞            arrow … 0.3
                                                                  0.6


                                                                                         0.4
                                              0.7
                                                                                   0.3
                   an … 1.0                                                                                           0.1

                              冠詞                                  0.2                                  動詞
                              0.4                                                                      0.0
                                                    0.5                           0.2                             time … 0.1
                                                          0.1             0.6
                                                                                                                  flies … 0.2
                                                                                                                  like … 0.7
                                                            0.3          0.2                   0.2
                                       0.1
                               0.3

              出力記号(単語)
               …出力確率
     状態(品詞)
    初期状態確率
                                             形容詞                   0.1                   前置詞         like … 1.0
                          like … 1.0          0.0                                         0.0
       状態遷移確率                  0.4
                                                                                                                       出典:参考文献 [2]
HMMを適用する問題
9


       評価問題                                : 出力記号系列
           P(o1T|M)を求める問題
           素朴な方法(O(NT))
                                            : 状態遷移系列
           前向きアルゴリズム(O(N2T))
           後向きアルゴリズム(O(N2T))
       復号化問題
           argmax{q1T}P(o1T,q1T|M)を求める問題
           ビタビアルゴリズム
       推定問題
           argmax{M}P(o1T|M)を求める問題
           前向き後向きアルゴリズム
           EMアルゴリズム
状態遷移系列の生成確率
10




     N: 名詞,   V: 動詞,   P: 前置詞,   D: 冠詞   出典:参考文献 [2]
前向きアルゴリズム
11


     1.   前向き確率の初期化



     2.   前向き確率の再帰的な計算



     3.   最終確率の計算
前向きアルゴリズム
12

                 time            flies                         like                   an                arrow


          0.6    名詞     0.3     名詞             0.4            動詞      0.2            冠詞      0.7        名詞
     文頭
                 0.6            0.1                           0.7                    1.0                0.3
                        0.4                     0.1
                 0.36         0.0108                        0.00504               0.004068           0.0008542
                                                                      0.3
          前向き確率αt+1                                   0.2


                                動詞               0.2         前置詞            0.1
                                0.2                           1.0

                              0.0288                  0.1 0.00792
                                         0.2




                                                             形容詞
                                                              1.0

                                                            0.00684




                                                                                                   出典:参考文献 [2]
ビタビアルゴリズム
13


        時刻tで状態qiに到達する状態遷移系列q1t-1に関し
         て最大の確率値を記憶する




        時刻t+1で最大の確率値を与える直前の時刻tの状
         態iを記憶する
ビタビアルゴリズム
14


     1.   変数の初期化



     2.   最大確率値と状態の再帰計算



     3.   再帰計算の終了



     4.   バックトラックによる最適状態遷移系列の復元
ビタビアルゴリズム
15

                 time            flies                         like                    an                arrow


          0.6    名詞     0.3     名詞             0.4            動詞       0.2            冠詞      0.7        名詞
     文頭
                 0.6            0.1                           0.7                     1.0                0.3
                        0.4                     0.1
                 0.36         0.0108                        0.003024               0.001728           0.0003628
                                                                       0.3
          最大の確率値 δt+1                                 0.2


                                動詞               0.2         前置詞             0.1
                                0.2                           1.0

                              0.0288                  0.1 0.00576
                                         0.2




                                                             形容詞
                                                              1.0

                                                            0.00576




                                                                                                    出典:参考文献 [2]
参考文献
16


        [1] 岩波講座ソフトウェア科学15自然言語処理長
         尾真編岩波書店
        [2] 言語と計算4確率的言語モデル北研二著東京大
         学出版会
        [3] 自然言語処理シリーズ1言語処理のための機械
         学習入門奥村学監修コロナ社
        [4] 自然言語処理の基礎奥村学著コロナ社

Más contenido relacionado

La actualidad más candente

グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会Kenyu Uehara
 
トピックモデルの基礎と応用
トピックモデルの基礎と応用トピックモデルの基礎と応用
トピックモデルの基礎と応用Tomonari Masada
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布sleipnir002
 
MCMCとともだちになろう【※Docswellにも同じものを上げています】
MCMCとともだちになろう【※Docswellにも同じものを上げています】MCMCとともだちになろう【※Docswellにも同じものを上げています】
MCMCとともだちになろう【※Docswellにも同じものを上げています】Hiroyuki Muto
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)Tatsuya Yokota
 
強化学習その2
強化学習その2強化学習その2
強化学習その2nishio
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法Kenichi Hironaka
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Shohei Kumagai
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学Ken'ichi Matsui
 
局所特徴量と統計学習手法による物体検出
局所特徴量と統計学習手法による物体検出局所特徴量と統計学習手法による物体検出
局所特徴量と統計学習手法による物体検出MPRG_Chubu_University
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
続わかりやすいパターン認識8章
続わかりやすいパターン認識8章続わかりやすいパターン認識8章
続わかりやすいパターン認識8章Akiyoshi Hara
 
pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話Classi.corp
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38horihorio
 

La actualidad más candente (20)

グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
 
Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門
 
トピックモデルの基礎と応用
トピックモデルの基礎と応用トピックモデルの基礎と応用
トピックモデルの基礎と応用
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
 
MCMCとともだちになろう【※Docswellにも同じものを上げています】
MCMCとともだちになろう【※Docswellにも同じものを上げています】MCMCとともだちになろう【※Docswellにも同じものを上げています】
MCMCとともだちになろう【※Docswellにも同じものを上げています】
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
 
強化学習その2
強化学習その2強化学習その2
強化学習その2
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
 
局所特徴量と統計学習手法による物体検出
局所特徴量と統計学習手法による物体検出局所特徴量と統計学習手法による物体検出
局所特徴量と統計学習手法による物体検出
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
続わかりやすいパターン認識8章
続わかりやすいパターン認識8章続わかりやすいパターン認識8章
続わかりやすいパターン認識8章
 
pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話
 
Stan超初心者入門
Stan超初心者入門Stan超初心者入門
Stan超初心者入門
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38
 

Más de Koji Sekiguchi

20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf
20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf
20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdfKoji Sekiguchi
 
Solr から使う OpenNLP の日本語固有表現抽出
Solr から使う OpenNLP の日本語固有表現抽出Solr から使う OpenNLP の日本語固有表現抽出
Solr から使う OpenNLP の日本語固有表現抽出Koji Sekiguchi
 
Learning-to-Rank meetup Vol. 1
Learning-to-Rank meetup Vol. 1Learning-to-Rank meetup Vol. 1
Learning-to-Rank meetup Vol. 1Koji Sekiguchi
 
Lucene 6819-good-bye-index-time-boost
Lucene 6819-good-bye-index-time-boostLucene 6819-good-bye-index-time-boost
Lucene 6819-good-bye-index-time-boostKoji Sekiguchi
 
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習Koji Sekiguchi
 
An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)
An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)
An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)Koji Sekiguchi
 
An Introduction to NLP4L
An Introduction to NLP4LAn Introduction to NLP4L
An Introduction to NLP4LKoji Sekiguchi
 
コーパス学習による Apache Solr の徹底活用
コーパス学習による Apache Solr の徹底活用コーパス学習による Apache Solr の徹底活用
コーパス学習による Apache Solr の徹底活用Koji Sekiguchi
 
情報検索の基礎からデータの徹底活用まで
情報検索の基礎からデータの徹底活用まで情報検索の基礎からデータの徹底活用まで
情報検索の基礎からデータの徹底活用までKoji Sekiguchi
 
LUCENE-5252 NGramSynonymTokenizer
LUCENE-5252 NGramSynonymTokenizerLUCENE-5252 NGramSynonymTokenizer
LUCENE-5252 NGramSynonymTokenizerKoji Sekiguchi
 
情報検索におけるランキング計算の紹介
情報検索におけるランキング計算の紹介情報検索におけるランキング計算の紹介
情報検索におけるランキング計算の紹介Koji Sekiguchi
 
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出Koji Sekiguchi
 
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョン
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョンLuceneインデックスの共起単語分析とSolrによる共起単語サジェスチョン
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョンKoji Sekiguchi
 
Lucene terms extraction
Lucene terms extractionLucene terms extraction
Lucene terms extractionKoji Sekiguchi
 
Visualize terms network in Lucene index
Visualize terms network in Lucene indexVisualize terms network in Lucene index
Visualize terms network in Lucene indexKoji Sekiguchi
 
WikipediaからのSolr用類義語辞書の自動生成
WikipediaからのSolr用類義語辞書の自動生成WikipediaからのSolr用類義語辞書の自動生成
WikipediaからのSolr用類義語辞書の自動生成Koji Sekiguchi
 
OpenNLP - MEM and Perceptron
OpenNLP - MEM and PerceptronOpenNLP - MEM and Perceptron
OpenNLP - MEM and PerceptronKoji Sekiguchi
 

Más de Koji Sekiguchi (20)

20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf
20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf
20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf
 
Solr から使う OpenNLP の日本語固有表現抽出
Solr から使う OpenNLP の日本語固有表現抽出Solr から使う OpenNLP の日本語固有表現抽出
Solr から使う OpenNLP の日本語固有表現抽出
 
Learning-to-Rank meetup Vol. 1
Learning-to-Rank meetup Vol. 1Learning-to-Rank meetup Vol. 1
Learning-to-Rank meetup Vol. 1
 
Lucene 6819-good-bye-index-time-boost
Lucene 6819-good-bye-index-time-boostLucene 6819-good-bye-index-time-boost
Lucene 6819-good-bye-index-time-boost
 
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
 
An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)
An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)
An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)
 
An Introduction to NLP4L
An Introduction to NLP4LAn Introduction to NLP4L
An Introduction to NLP4L
 
Nlp4 l intro-20150513
Nlp4 l intro-20150513Nlp4 l intro-20150513
Nlp4 l intro-20150513
 
コーパス学習による Apache Solr の徹底活用
コーパス学習による Apache Solr の徹底活用コーパス学習による Apache Solr の徹底活用
コーパス学習による Apache Solr の徹底活用
 
情報検索の基礎からデータの徹底活用まで
情報検索の基礎からデータの徹底活用まで情報検索の基礎からデータの徹底活用まで
情報検索の基礎からデータの徹底活用まで
 
LUCENE-5252 NGramSynonymTokenizer
LUCENE-5252 NGramSynonymTokenizerLUCENE-5252 NGramSynonymTokenizer
LUCENE-5252 NGramSynonymTokenizer
 
情報検索におけるランキング計算の紹介
情報検索におけるランキング計算の紹介情報検索におけるランキング計算の紹介
情報検索におけるランキング計算の紹介
 
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出
 
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョン
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョンLuceneインデックスの共起単語分析とSolrによる共起単語サジェスチョン
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョン
 
Html noise reduction
Html noise reductionHtml noise reduction
Html noise reduction
 
Lucene terms extraction
Lucene terms extractionLucene terms extraction
Lucene terms extraction
 
Visualize terms network in Lucene index
Visualize terms network in Lucene indexVisualize terms network in Lucene index
Visualize terms network in Lucene index
 
WikipediaからのSolr用類義語辞書の自動生成
WikipediaからのSolr用類義語辞書の自動生成WikipediaからのSolr用類義語辞書の自動生成
WikipediaからのSolr用類義語辞書の自動生成
 
NLP x Lucene/Solr
NLP x Lucene/SolrNLP x Lucene/Solr
NLP x Lucene/Solr
 
OpenNLP - MEM and Perceptron
OpenNLP - MEM and PerceptronOpenNLP - MEM and Perceptron
OpenNLP - MEM and Perceptron
 

Último

スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ       2024/04/12の勉強会で発表されたものです。新人研修のまとめ       2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。iPride Co., Ltd.
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 
20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directoryosamut
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 
UPWARD_share_company_information_20240415.pdf
UPWARD_share_company_information_20240415.pdfUPWARD_share_company_information_20240415.pdf
UPWARD_share_company_information_20240415.pdffurutsuka
 
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxIoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxAtomu Hidaka
 
PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000Shota Ito
 
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。iPride Co., Ltd.
 

Último (9)

スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ       2024/04/12の勉強会で発表されたものです。新人研修のまとめ       2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 
20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 
UPWARD_share_company_information_20240415.pdf
UPWARD_share_company_information_20240415.pdfUPWARD_share_company_information_20240415.pdf
UPWARD_share_company_information_20240415.pdf
 
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxIoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
 
PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000
 
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
 

HMM viterbi

  • 2. 英語の品詞タグ付けでの利用例 2 入力 テキスト HMM: Hidden Markov Model コーパス HMM POS Viterbi (教師あ 学習 Tagger Algorithm り) モデル 出力 品詞タグ付 きテキスト
  • 3. 系列ラベリング 3  データ系列の入力に対し、クラスの系列を出力  普通の分類問題とは異なる  普通の分類問題:F →c  系列ラベリング:F1F2…Fn → c1c2…cn F1 F2 F3 F4 F5 Time flies like an allow. c1 c2 c3 c4 c5 [名詞] [動詞] [前置詞] [冠詞] [名詞]
  • 4. 系列ラベリング問題の解き方 4  通常の分類器の逐次適用  ciの推定に、Fi, Fi-1, Fi+1やci-1などを用いる F1 F2 F3 F4 F5 … c1 c2 c3 c4 c5 …  隠れマルコフモデル  条件付き確率場(CRF)
  • 5. マルコフ過程 5  マルコフ過程  ある記号の出力確率が、直前のN個の記号によって決 まるとする確率過程  隠れマルコフモデル  「システムがパラメータ未知のマルコフ過程」と仮定 し、観測可能な情報からその未知パラメータを推定 (Wikipedia)  外部で観測されるのは単語列であり、内部状態として 見えない品詞の遷移がある(参考文献[1], [2])  教師あり学習データを用いるのに「隠れ」とは違和感 あるが、NLPでは呼称が定着(参考文献[3])
  • 7. HMM=オートマトンの一種 7 隠れマルコフモデルは5項組 M=(Q, Σ, A, B, π) により定義される。 状態の有限集合 出力記号の有限集合 状態遷移確率分布 記号出力確率分布 初期状態確率分布
  • 8. 単語/品詞のHMM 8 0.3 time … 0.6 flies … 0.1 名詞 arrow … 0.3 0.6 0.4 0.7 0.3 an … 1.0 0.1 冠詞 0.2 動詞 0.4 0.0 0.5 0.2 time … 0.1 0.1 0.6 flies … 0.2 like … 0.7 0.3 0.2 0.2 0.1 0.3 出力記号(単語) …出力確率 状態(品詞) 初期状態確率 形容詞 0.1 前置詞 like … 1.0 like … 1.0 0.0 0.0 状態遷移確率 0.4 出典:参考文献 [2]
  • 9. HMMを適用する問題 9  評価問題 : 出力記号系列  P(o1T|M)を求める問題  素朴な方法(O(NT)) : 状態遷移系列  前向きアルゴリズム(O(N2T))  後向きアルゴリズム(O(N2T))  復号化問題  argmax{q1T}P(o1T,q1T|M)を求める問題  ビタビアルゴリズム  推定問題  argmax{M}P(o1T|M)を求める問題  前向き後向きアルゴリズム  EMアルゴリズム
  • 10. 状態遷移系列の生成確率 10 N: 名詞, V: 動詞, P: 前置詞, D: 冠詞 出典:参考文献 [2]
  • 11. 前向きアルゴリズム 11 1. 前向き確率の初期化 2. 前向き確率の再帰的な計算 3. 最終確率の計算
  • 12. 前向きアルゴリズム 12 time flies like an arrow 0.6 名詞 0.3 名詞 0.4 動詞 0.2 冠詞 0.7 名詞 文頭 0.6 0.1 0.7 1.0 0.3 0.4 0.1 0.36 0.0108 0.00504 0.004068 0.0008542 0.3 前向き確率αt+1 0.2 動詞 0.2 前置詞 0.1 0.2 1.0 0.0288 0.1 0.00792 0.2 形容詞 1.0 0.00684 出典:参考文献 [2]
  • 13. ビタビアルゴリズム 13  時刻tで状態qiに到達する状態遷移系列q1t-1に関し て最大の確率値を記憶する  時刻t+1で最大の確率値を与える直前の時刻tの状 態iを記憶する
  • 14. ビタビアルゴリズム 14 1. 変数の初期化 2. 最大確率値と状態の再帰計算 3. 再帰計算の終了 4. バックトラックによる最適状態遷移系列の復元
  • 15. ビタビアルゴリズム 15 time flies like an arrow 0.6 名詞 0.3 名詞 0.4 動詞 0.2 冠詞 0.7 名詞 文頭 0.6 0.1 0.7 1.0 0.3 0.4 0.1 0.36 0.0108 0.003024 0.001728 0.0003628 0.3 最大の確率値 δt+1 0.2 動詞 0.2 前置詞 0.1 0.2 1.0 0.0288 0.1 0.00576 0.2 形容詞 1.0 0.00576 出典:参考文献 [2]
  • 16. 参考文献 16  [1] 岩波講座ソフトウェア科学15自然言語処理長 尾真編岩波書店  [2] 言語と計算4確率的言語モデル北研二著東京大 学出版会  [3] 自然言語処理シリーズ1言語処理のための機械 学習入門奥村学監修コロナ社  [4] 自然言語処理の基礎奥村学著コロナ社