SlideShare una empresa de Scribd logo
1 de 27
Descargar para leer sin conexión
情報検索の基礎
Introduction to Information Retrieval

   ∼第11章 確率的情報検索∼
             田中 克季
概要
本章において扱われる問題
ユーザが与えるクエリで関連文書を検索する際に
ユーザ自身がクエリの補正を行い、精度の高い情
報検索を実現する。


    最も成功したアプローチの一つ
       適合フィードバック
目次
-   (復習)9章 適合フィードバック


-   11.1 ベイズの規則


-   11.2 確率ランキング原理(PRP)


-   11.3 バイナリー独立モデル(BIM)


-   11.4 確率モデルの評価
目次
-   (復習)9章 適合フィードバック


-   11.1 ベイズの規則


-   11.2 確率ランキング原理(PRP)


-   11.3 バイナリー独立モデル(BIM)


-   11.4 確率モデルの評価
適合フィードバック
適合フィードバックとは...

 ベクトル空間モデルにおける文書検索の手法


文書検索プロセスにおいてユーザと対話し、
最終的に関連しているとする文書の集合を
改善していくアプローチ
∼ 適合フィードバック ∼

              定義とモデル(TFIDF法)
                      d1 , ..., dN
全文書集合 D が与えられたときに各文書を       とし、ある文書 d 中
における用語 t の出現頻度を tf(t) としたときに文書 dの文書ベクトル は以下の
ように表す。


 vd   =   (wt1 , wt2 , ..., wtm )
            d     d          d

 d
wt    = tf (t, d)idf (t)
               N                    ある文書だけ多く出現し、他の文書にはあ
idf   = log         +1
             df (t)                 まり出現しない語のベクトル値を大きく強
                                    調するよう表現

N   : 文書の総数

tf (t, d) : Dにおける語 t を含む文書数
∼ 適合フィードバック ∼

       適合フィードバックの手続き

          q
1. ユーザがクエリ  を入力(クエリ自身も文書ベクトルとして表現)
2. クエリベクトルを生成し、初期検索を行う
                         D         D
3. 検索結果の上位  個の文書を評価し、関連文書  r と非関連文書  nr に
          N
分ける
4. ユーザが十分な関連文書が得られたと判断したら、検索終了
5. クエリベクトルを修正
6. 修正されたクエリベクトルで再検索を実施し、3へ
∼ 適合フィードバック ∼


            Rocchioの公式
              1                       1
 qm   = q0 +                   dj                       dj
             |Dr |                  |Dnr |
                     dj   Dr                 dj   Dnr


 q0   : 元のクエリベクトル

 qm   : 変更されたクエリベクトル

 dj   : 文書ベクトル

  , ,    : 各用語の重み
確率論的適合フィードバック

検索により得られる関連文書と非関連文書から
ベクトル空間におけるクエリーの重みを調整



  ナイーブベイズ確率モデルを使用する
  確率論的アプローチ
    ➡ 確率論的適合フィードバック
目次
-   (復習)9章 適合フィードバック


-   11.1 ベイズの規則


-   11.2 確率ランキング原理(PRP)


-   11.3 バイナリー独立モデル(BIM)


-   11.4 確率モデルの評価
ベイズ規則
0   P (A)   1
P (A, B) = P (A    B) = P (A|B)P (B) = P (B|A)P (A)
                      ¯
P (B) = P (A, B) + P (A, B)

ベイズ規則(Bayes’ rule)

          P (B|A)P (A)                P (B|A)
P (A|B) =              =                              P (A)
              P (B)            X   {A,A} P (B|X)P (X)
                                      ¯

P (A|B)   : 事後確率
                         確率の変化
P (A)     : 事前確率                       P (A)    P (A)
                          Odds: O(A) = P (A) = 1 P (A)
                                          ¯
目次
-   (復習)9章 適合フィードバック


-   11.1 ベイズの規則


-   11.2 確率ランキング原理(PRP)


-   11.3 バイナリー独立モデル(BIM)


-   11.4 確率モデルの評価
11.2 確率ランキング原理(PRP)
R をクエリq に対して文書 d が関連するかどうかを表す指標確率変数したときに
以下の推定確率によって文書をランク付けする


P (R = 1|d, q)   :d, q が与えられた場合に文書 d が関連する確率


評価方法が関連するかしないかでのみの二値的であるため、評価が正しくない
場合に発生する損失

                           ➡ 1/0損失(1/0 loss)
∼ 確率ランキング原理 ∼

           ベイズ最適決定規則


ベイズ最適決定規則

  d が関連する        P (R = 1|d, q) > P (R = 0|d, q)


定理11.1
  PRPは1/0損失のもとで期待される損失を
    最小にするという意味で最適である

                 ➡ 証明はRipley (1996) に記載
目次
-   (復習)9章 適合フィードバック


-   11.1 ベイズの規則


-   11.2 確率ランキング原理(PRP)


-   11.3 バイナリー独立モデル(BIM)


-   11.4 確率モデルの評価
11.3 バイナリー独立モデル(BIM)
文書が関連する確率をモデル化 .
ベイズの規則により以下の式が成り立つ .


                   P (x|R = 1, q)P (R = 1|q)
P (R = 1|x, q) =
                           P (x|q)
                   P (x|R = 0, q)P (R = 0|q)
P (R = 0|x, q) =
                           P (x|q)

         P (R = 1|x, q) + P (R = 0|x, q) = 1
∼ バイナリ独立モデルBIM ∼


        関連性確率のモデル化

                                 P (x|R=1,q )P (R=1|q )
            P (R = 1|x, q)              P (x|q )
O(R|x, q) =                  =   P (x|R=0,q )P (R=0|q )
            P (R = 0|x, q)
                                        P (x|q )
                                 P (R = 1|q) P (x|R = 1, q)
                             =
                                 P (R = 0|q) P (x|R = 0, q)


                             ➡ 文書をランク付け
∼ バイナリ独立モデルBIM ∼


             ranking関数の導出1
ナイーブベイズの条件付き独立の仮定
                              M
           P (x|R = 1, q)     P (xt |R = 1, q)
                          =
           P (x|R = 0, q) t=1 P (xt |R = 0, q)

                                M
                                P (xt |R = 1, q)
         O(R|x, q) = O(R|q)
                            t=1
                                P (xt |R = 0, q)


           P (xt = 1|R = 1, q)           P (xt = 0|R = 1, q)
 t:xt   =1
           P (xt = 1|R = 0, q) t:x    =0
                                         P (xt = 0|R = 0, q)
                                  t
∼ バイナリ独立モデルBIM ∼


         ranking関数の導出2




                                    pt                     1       pt
 O(R|x, q) = O(R|q)
                      t:xt =qt   =1
                                    ut     t:xt =0,qt   =1
                                                           1       ut

                                   pt (1      ut )             1    pt
O(R|x, q) = O(R|q)
                     t:xt =qt   =1
                                   ut (1      pt ) t:q      =1
                                                               1    ut
                                                        t
∼ バイナリ独立モデルBIM ∼


          ranking関数の導出3
                           pt (1   ut )                      pt (1   ut )
RSVd = log                              =                log
             t:xt =qt   =1
                           ut (1   pt ) t:x                  ut (1   pt )
                                              t =qt   =1


          ➡ 検索状態値 retrieval status value(RSV)
            pt (1        ut )         pt          (1 ut )
   ct = log                   = log         + log
            ut (1        pt )       (1 pt )         ut

                                        ct を推定すればよい
∼ バイナリ独立モデルBIM ∼


                  確率推定の理論


     s            dft   s
pt =         ut =
     S            N     S
                      s/(S s)
ct = log
           (dft   s)/((N dft )        (S     s))
                     (s +   2 )/(S
                            1
                                         s+  2)
                                             1
ct = log
ˆ
           (dft   s + 2 )/((N
                      1
                                     dft ) (S      s) +   2)
                                                          1


log [(1    ut )/ut )] = log [(N      dft )/dft ]
適合フィードバックの
           確率論的アプローチ1


1. ptとutの初期推定値を推測
2. 推定されたpt, utで関連文書集合Rを決定する
3. ユーザと対話し、文書の部分集合Vに対して、
関連性の判断を行う

V R = {d     V, Rd,q = 1}
V N R = {d     V, Rd,q = 0}
適合フィードバックの
             確率論的アプローチ1
4. 3で得た関連文書と非関連文書をもとにpt, utを再
推定する。最尤法より以下を得る。
                              |V Rt | + 1
 pt = |V Rt |/|V R|      pt =           2
                               |V R| + 1
                                               (k)
                       (k+1)     |V Rt | +    pt
                      pt       =
                                    |V R| +

5. 2に戻り、ユーザが満足するまでステップを繰り
返す
適合フィードバックの
                     確率論的アプローチ2

     |Vt | +   1
                              dft     |Vt | +1
pt =           2
                         ut =                2
     |V | + 1                  N      |V | + 1

               pt        1       ut           |Vt | +
                                                    1
                                                         N
ct = log                              log           2
           1        pt       ut           |V | |Vt | + 1 dft

             |Vt | +         1
                              N
ct = log                + log2
         |V | |Vt | + 1       dft
目次
-   (復習)9章 適合フィードバック


-   11.1 ベイズの規則


-   11.2 確率ランキング原理(PRP)


-   11.3 バイナリー独立モデル(BIM)


-   11.4 確率モデルの評価
木構造の依存関係



Rijsbergen(1979)
用語の依存関係を木構造で
表現し、推定モデルを提案
非バイナリモデル
                                Okapi BM25

用語頻度や文書長を考慮したRSVの推定モデルを考案

                     N
RSVd =           log
         t     q
                     dft

                                   (|V Rt | + 1 )/(|V N Rt | + 1 )
RSVd =          log                            2               2

         t q
                      (dft     |V Rt | + 1 )/(N dft |V R| + |V Rt | + 1 )
                                         2                            2

                                      (k1 + 1)tftd              (k3 + 1)tftq
                           k1 ((1   b) + b(Ld /Lave )) + tftd    k3 + tftq

Más contenido relacionado

La actualidad más candente

Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Kota Matsui
 
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical SearchWSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Searchsleepy_yoshi
 
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめDSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめsleepy_yoshi
 
たのしい高階関数
たのしい高階関数たのしい高階関数
たのしい高階関数Shinichi Kozake
 
機械学習を用いたWeb上の産学連携関連文書の抽出
機械学習を用いたWeb上の産学連携関連文書の抽出機械学習を用いたWeb上の産学連携関連文書の抽出
機械学習を用いたWeb上の産学連携関連文書の抽出National Institute of Informatics
 
OWLで何が書けるか
OWLで何が書けるかOWLで何が書けるか
OWLで何が書けるかKazuro Fukuhara
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)Kota Matsui
 
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Koji Matsuda
 
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...Yusuke Iwasawa
 
SIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to RankSIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to Ranksleepy_yoshi
 
WordNetで作ろう! 言語横断検索サービス
WordNetで作ろう! 言語横断検索サービスWordNetで作ろう! 言語横断検索サービス
WordNetで作ろう! 言語横断検索サービスShintaro Takemura
 
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)Yusuke Iwasawa
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Seiya Tokui
 
JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習
JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習
JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習Yusuke Iwasawa
 

La actualidad más candente (17)

Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
 
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical SearchWSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
 
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめDSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめ
 
HiroshimaR4_LT_sakaue
HiroshimaR4_LT_sakaueHiroshimaR4_LT_sakaue
HiroshimaR4_LT_sakaue
 
yyoshida thesis
yyoshida thesisyyoshida thesis
yyoshida thesis
 
たのしい高階関数
たのしい高階関数たのしい高階関数
たのしい高階関数
 
機械学習を用いたWeb上の産学連携関連文書の抽出
機械学習を用いたWeb上の産学連携関連文書の抽出機械学習を用いたWeb上の産学連携関連文書の抽出
機械学習を用いたWeb上の産学連携関連文書の抽出
 
OWLで何が書けるか
OWLで何が書けるかOWLで何が書けるか
OWLで何が書けるか
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
 
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
 
SIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to RankSIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to Rank
 
WordNetで作ろう! 言語横断検索サービス
WordNetで作ろう! 言語横断検索サービスWordNetで作ろう! 言語横断検索サービス
WordNetで作ろう! 言語横断検索サービス
 
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)
 
Skip gram shirakawa_20141121
Skip gram shirakawa_20141121Skip gram shirakawa_20141121
Skip gram shirakawa_20141121
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
 
JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習
JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習
JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習
 

Destacado

Rでソーシャルネットワーク分析
Rでソーシャルネットワーク分析Rでソーシャルネットワーク分析
Rでソーシャルネットワーク分析Hiroko Onari
 
情報推薦システム入門:講義スライド
情報推薦システム入門:講義スライド情報推薦システム入門:講義スライド
情報推薦システム入門:講義スライドKenta Oku
 
情報検索の基礎からデータの徹底活用まで
情報検索の基礎からデータの徹底活用まで情報検索の基礎からデータの徹底活用まで
情報検索の基礎からデータの徹底活用までKoji Sekiguchi
 
「ふわっと関連検索」のこれまでとこれから
「ふわっと関連検索」のこれまでとこれから「ふわっと関連検索」のこれまでとこれから
「ふわっと関連検索」のこれまでとこれからMasao Takaku
 
ビジネスで使えるオープンデータの技術@ビジネス活用のためのオープンデータセミナー(2016.01.22)
ビジネスで使えるオープンデータの技術@ビジネス活用のためのオープンデータセミナー(2016.01.22)ビジネスで使えるオープンデータの技術@ビジネス活用のためのオープンデータセミナー(2016.01.22)
ビジネスで使えるオープンデータの技術@ビジネス活用のためのオープンデータセミナー(2016.01.22)Ikki Ohmukai
 
高久研究室の紹介(2016年度)
高久研究室の紹介(2016年度)高久研究室の紹介(2016年度)
高久研究室の紹介(2016年度)Masao Takaku
 
Brain Profile Ppt 01 10
Brain Profile Ppt 01 10Brain Profile Ppt 01 10
Brain Profile Ppt 01 10IIR
 
研究室紹介:高久研究室
研究室紹介:高久研究室研究室紹介:高久研究室
研究室紹介:高久研究室Masao Takaku
 
つながる目録、つながるサービス@図書館総合展(2015.11.12)
つながる目録、つながるサービス@図書館総合展(2015.11.12)つながる目録、つながるサービス@図書館総合展(2015.11.12)
つながる目録、つながるサービス@図書館総合展(2015.11.12)Ikki Ohmukai
 
生命科学・農学研究のための情報検索の基礎
生命科学・農学研究のための情報検索の基礎生命科学・農学研究のための情報検索の基礎
生命科学・農学研究のための情報検索の基礎Takeru Nakazato
 
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習Koji Sekiguchi
 
おとなのテキストマイニング
おとなのテキストマイニングおとなのテキストマイニング
おとなのテキストマイニングMunenori Sugimura
 
パケットジェネレータipgenから見るnetmap
パケットジェネレータipgenから見るnetmapパケットジェネレータipgenから見るnetmap
パケットジェネレータipgenから見るnetmapfurandon_pig
 
はてなブックマークに基づく関連記事レコメンドエンジンの開発
はてなブックマークに基づく関連記事レコメンドエンジンの開発はてなブックマークに基づく関連記事レコメンドエンジンの開発
はてなブックマークに基づく関連記事レコメンドエンジンの開発Shunsuke Kozawa
 
elasticsearchソースコードを読みはじめてみた
elasticsearchソースコードを読みはじめてみたelasticsearchソースコードを読みはじめてみた
elasticsearchソースコードを読みはじめてみたfurandon_pig
 
「人工知能」をあなたのビジネスで活用するには
「人工知能」をあなたのビジネスで活用するには「人工知能」をあなたのビジネスで活用するには
「人工知能」をあなたのビジネスで活用するにはTakahiro Kubo
 
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計Takahiro Kubo
 
質問応答システム入門
質問応答システム入門質問応答システム入門
質問応答システム入門Hiroyoshi Komatsu
 
推薦システムを構築する手順書 with Azure Machine Learning
推薦システムを構築する手順書 with Azure Machine Learning推薦システムを構築する手順書 with Azure Machine Learning
推薦システムを構築する手順書 with Azure Machine LearningMasayuki Ota
 

Destacado (20)

Rでソーシャルネットワーク分析
Rでソーシャルネットワーク分析Rでソーシャルネットワーク分析
Rでソーシャルネットワーク分析
 
情報推薦システム入門:講義スライド
情報推薦システム入門:講義スライド情報推薦システム入門:講義スライド
情報推薦システム入門:講義スライド
 
情報検索の基礎からデータの徹底活用まで
情報検索の基礎からデータの徹底活用まで情報検索の基礎からデータの徹底活用まで
情報検索の基礎からデータの徹底活用まで
 
「ふわっと関連検索」のこれまでとこれから
「ふわっと関連検索」のこれまでとこれから「ふわっと関連検索」のこれまでとこれから
「ふわっと関連検索」のこれまでとこれから
 
ビジネスで使えるオープンデータの技術@ビジネス活用のためのオープンデータセミナー(2016.01.22)
ビジネスで使えるオープンデータの技術@ビジネス活用のためのオープンデータセミナー(2016.01.22)ビジネスで使えるオープンデータの技術@ビジネス活用のためのオープンデータセミナー(2016.01.22)
ビジネスで使えるオープンデータの技術@ビジネス活用のためのオープンデータセミナー(2016.01.22)
 
高久研究室の紹介(2016年度)
高久研究室の紹介(2016年度)高久研究室の紹介(2016年度)
高久研究室の紹介(2016年度)
 
Brain Profile Ppt 01 10
Brain Profile Ppt 01 10Brain Profile Ppt 01 10
Brain Profile Ppt 01 10
 
研究室紹介:高久研究室
研究室紹介:高久研究室研究室紹介:高久研究室
研究室紹介:高久研究室
 
つながる目録、つながるサービス@図書館総合展(2015.11.12)
つながる目録、つながるサービス@図書館総合展(2015.11.12)つながる目録、つながるサービス@図書館総合展(2015.11.12)
つながる目録、つながるサービス@図書館総合展(2015.11.12)
 
生命科学・農学研究のための情報検索の基礎
生命科学・農学研究のための情報検索の基礎生命科学・農学研究のための情報検索の基礎
生命科学・農学研究のための情報検索の基礎
 
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
 
おとなのテキストマイニング
おとなのテキストマイニングおとなのテキストマイニング
おとなのテキストマイニング
 
パケットジェネレータipgenから見るnetmap
パケットジェネレータipgenから見るnetmapパケットジェネレータipgenから見るnetmap
パケットジェネレータipgenから見るnetmap
 
はてなブックマークに基づく関連記事レコメンドエンジンの開発
はてなブックマークに基づく関連記事レコメンドエンジンの開発はてなブックマークに基づく関連記事レコメンドエンジンの開発
はてなブックマークに基づく関連記事レコメンドエンジンの開発
 
elasticsearchソースコードを読みはじめてみた
elasticsearchソースコードを読みはじめてみたelasticsearchソースコードを読みはじめてみた
elasticsearchソースコードを読みはじめてみた
 
「人工知能」をあなたのビジネスで活用するには
「人工知能」をあなたのビジネスで活用するには「人工知能」をあなたのビジネスで活用するには
「人工知能」をあなたのビジネスで活用するには
 
Gensim
GensimGensim
Gensim
 
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
 
質問応答システム入門
質問応答システム入門質問応答システム入門
質問応答システム入門
 
推薦システムを構築する手順書 with Azure Machine Learning
推薦システムを構築する手順書 with Azure Machine Learning推薦システムを構築する手順書 with Azure Machine Learning
推薦システムを構築する手順書 with Azure Machine Learning
 

Similar a 情報検索の基礎(11章)

Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0Koji Sekiguchi
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰sleipnir002
 
有限オートマトンとスティッカー系に関するCoqによる形式証明について
有限オートマトンとスティッカー系に関するCoqによる形式証明について有限オートマトンとスティッカー系に関するCoqによる形式証明について
有限オートマトンとスティッカー系に関するCoqによる形式証明についてYoshihiro Mizoguchi
 
Infer net wk77_110613-1523
Infer net wk77_110613-1523Infer net wk77_110613-1523
Infer net wk77_110613-1523Wataru Kishimoto
 
プログラミング言語 Julia の紹介
プログラミング言語 Julia の紹介プログラミング言語 Julia の紹介
プログラミング言語 Julia の紹介Kentaro Iizuka
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationtakutori
 
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半koba cky
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知Chika Inoshita
 
FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)Haruka Ozaki
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)Yukara Ikemiya
 
卒業論文発表スライド 分割統治法の拡張
卒業論文発表スライド 分割統治法の拡張卒業論文発表スライド 分割統治法の拡張
卒業論文発表スライド 分割統治法の拡張masakazuyamanaka
 
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜Takeshi Arabiki
 
量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析Shu Tanaka
 
Rate-Distortion Function for Gamma Sources under Absolute-Log Distortion
Rate-Distortion Function for Gamma Sources under Absolute-Log DistortionRate-Distortion Function for Gamma Sources under Absolute-Log Distortion
Rate-Distortion Function for Gamma Sources under Absolute-Log Distortion奈良先端大 情報科学研究科
 
Deep Learning を実装する
Deep Learning を実装するDeep Learning を実装する
Deep Learning を実装するShuhei Iitsuka
 

Similar a 情報検索の基礎(11章) (20)

Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
演習発表 Sari v.1.1
演習発表 Sari v.1.1演習発表 Sari v.1.1
演習発表 Sari v.1.1
 
有限オートマトンとスティッカー系に関するCoqによる形式証明について
有限オートマトンとスティッカー系に関するCoqによる形式証明について有限オートマトンとスティッカー系に関するCoqによる形式証明について
有限オートマトンとスティッカー系に関するCoqによる形式証明について
 
Infer net wk77_110613-1523
Infer net wk77_110613-1523Infer net wk77_110613-1523
Infer net wk77_110613-1523
 
π計算
π計算π計算
π計算
 
NLPforml5
NLPforml5NLPforml5
NLPforml5
 
プログラミング言語 Julia の紹介
プログラミング言語 Julia の紹介プログラミング言語 Julia の紹介
プログラミング言語 Julia の紹介
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___information
 
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 
FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
卒業論文発表スライド 分割統治法の拡張
卒業論文発表スライド 分割統治法の拡張卒業論文発表スライド 分割統治法の拡張
卒業論文発表スライド 分割統治法の拡張
 
汎化性能測定
汎化性能測定汎化性能測定
汎化性能測定
 
C07
C07C07
C07
 
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
 
量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析
 
Rate-Distortion Function for Gamma Sources under Absolute-Log Distortion
Rate-Distortion Function for Gamma Sources under Absolute-Log DistortionRate-Distortion Function for Gamma Sources under Absolute-Log Distortion
Rate-Distortion Function for Gamma Sources under Absolute-Log Distortion
 
Deep Learning を実装する
Deep Learning を実装するDeep Learning を実装する
Deep Learning を実装する
 

Último

ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ssusere0a682
 
UniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptUniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptyuitoakatsukijp
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ssusere0a682
 
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2Tokyo Institute of Technology
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationYukiTerazawa
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024koheioishi1
 

Último (6)

ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
 
UniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptUniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScript
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
 
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
 

情報検索の基礎(11章)