SlideShare una empresa de Scribd logo
1 de 51
Descargar para leer sin conexión
WSDM2012読み会:
Learning to Rank with Multi-Aspect
   Relevance for Vertical Search


            2012-04-07
          Yoshihiko Suhara
           @sleepy_yoshi
                                     1
今日紹介する論文
• Learning to Rank with Multi-Aspect Relevance
  for Vertical Search
  – by Changsung Kang, Xuanhui Wang, Yi Chang,
    Belle Tseng (Yahoo! Labs)
     • SIGIR, WWW, WSDM, CIKM, KDD あたり




                                                 2
1枚概要
• 問題
 – Vertical search (分野特化型検索エンジン) におけ
   るランキングの最適化

• 課題
 – 複数のaspectに対するランキング関数の学習

• 解き方
 – label aggregation, model aggregationを提案

                                             3
Vertical searchとは?




                     4
Yahoo! の例




            5
背景
• ウェブ検索クエリの20%は場所に関する意図
  を持つ ⇒ Local searchは大切だよね!

• Local searchの場合,3つの aspect を持つ
  – (1) text matching aspect
     • テキストクエリへの一致度
  – (2) distance aspect
     • 場所クエリに対してどれだけ近いか
  – (3) reputation aspect
     • 店の評判

                                   6
Vertical searchの検索結果

   クエリ



(情報検索で
いうところの)
  文書




                           7
各文書に対する評価方法
評価ガイドライン



           text matching aspect



               distance aspect



             reputation aspect




                                 8
各文書に対する評価方法


                   text matching aspect



各文書について3つのaspectに対する aspect
                  distance

  適合度ラベルが付与される
                     reputation aspect




                                         9
やりたいこと
• 入力されたクエリに対して複数のaspectを持
  つ文書のランキングの最適化する
                       ただし適合度
                      ラベルがスカラー
                   𝑞1 ではなくベクトル𝑞2                           𝑞𝑁
 Training      1       1        2       2              𝑁        𝑁
            (𝒙1 , 𝑦1 )       (𝒙1 , 𝑦1 )           (𝒙1 , 𝑦1 )
   data
               1       1        2       2
                                              …        𝑁        𝑁
            (𝒙2    , 𝑦2 )    (𝒙2    , 𝑦2 )        (𝒙2 , 𝑦2 )
                   …




               1       1
                                    …




                                                           …
            (𝒙 𝑛1 , 𝑦 𝑛1 )
                                                       𝑁        𝑁
                                2       2         (𝒙 𝑛 𝑁 , 𝑦 𝑛 𝑁 )
                             (𝒙 𝑛2 , 𝑦 𝑛2 )


                                                                     10
従来のアプローチ
• Learning-to-rank手法はひとつのaspect (=
  relevance) を最適化する手法

• 複数のスコアが与えられた場合には解き方は自
  明ではない

• 従来手法 (今回のベースライン)
  – 経験知と勘によって用意されたルールに基づいて複
    数スコアの線形和で最終スコアに変換
  – 最終スコアを適合度と見なして従来のLearning to
    rankのアプローチで解く

                                     11
従来手法の欠点
• (1) ルールの作成が困難

• (2) 現実の問題をとらえるにはちと粗い
 – ある素性空間で複数aspectの特徴を表現できる
   のか?
   • aspect毎に異なる素性空間を利用したい


• (3) aspectが増加するとルールも指数的に増
  加するのでスケールしない
                              12
提案手法のアプローチ
2つのアプローチを提案

• (1) Label aggregation method
  – ラベルの重みを学習 => 1ラベルに変換
  – 1ラベルのランキング学習でモデル作成

• (2) Model aggregation method
  – 各ラベルについてランキング学習でモデル作成
  – 各モデルの重みを学習

                                 13
(ちょっと退屈な)
定義とかの説明



            14
定義1: Aspect Relevance
• クエリqにおける文書dのk番目のaspectの適
  合度は 𝑙 ∈ 𝐿 𝑘 = 𝑙 𝑘,1 ≺, … , ≺ 𝑙 𝑘,𝑛 𝑘
               悪い              良い




                                         15
定義2: Multi-Aspect Relevance
• m個のaspectが与えられた場合には,各
  aspectに対する適合度をm次元のベクトル
   𝒚 = 𝑦1 , … , 𝑦 𝑚 𝑇 で表現する




                                 16
定義3: Mapping Function
• k番目のaspectの写像関数𝜙 𝑘 : 𝐿 𝑘 → ℝは適合
  度ラベルを実数値に写像する
 – ただし,順序は保持




                                17
定義4: Label Aggregation Function
• 𝒚をoverall relevance value 𝑧に写像する関数
  ℎ: ℝ 𝑚 → ℝ




                                       18
よーするに


        19
Multi-aspect label から overall relevance へ


                       𝑙1,3




                                   (
✔                      𝑙1,2   𝜙1   𝑦1
                       𝑙1,1


✔                      𝑙2,3
                       𝑙2,2   𝜙2   𝑦2 = 𝒚   ℎ        𝑧
                       𝑙2,1

                       𝑙3,3

✔
                       𝑙3,2
                       𝑙3,1
                              𝜙3   𝑦3



                                   )
     文書に対して1つのラベルに落とし込んだので
    従来手法を用いてランキング関数の学習が可能
                                                20
用意するもの



         21
用意するもの
• 訓練データ
              ℱ=      𝒙, 𝒚
• 選好評価
          𝒚 𝑖 , 𝒚 𝑗 ∈ 𝒫 または 𝒙 𝑖 , 𝒙 𝑗 ∈ 𝒫




 論文中にはranking feature xに関する記述一切なし!!
            推して知るべし!!
                                            22
図解: 用意するもの
                     𝑞1                            𝑞2                         𝑞𝑁
 Training
   data          1         1              2             2                𝑁          𝑁
ℱ={(𝒙, 𝒚)}    (𝒙1 , 𝒚1 )             (𝒙1 , 𝒚1 )                      (𝒙1 , 𝒚1 )
                                                                 …
                 1          1           2             2                  𝑁          𝑁
              (𝒙2    ,    𝒚2     )   (𝒙2       ,    𝒚2       )       (𝒙2 , 𝒚2 )


                         …
                 1           1




                                                   …




                                                                              …
              (𝒙 𝑛1 , 𝒚 𝑛1 )
                                                                          𝑁         𝑁
                                          2             2
                                                                     (𝒙 𝑛 𝑁 , 𝒚 𝑛 𝑁 )
                                     (𝒙   𝑛2   , 𝒚      𝑛2   )




                     𝑞1                            𝑞2                          𝑞3
                                               2             2            𝑁             𝑁
Preference    𝒚1
                1
                     ,    𝒚2
                            1             𝒚1 , 𝒚2                     𝒚1 , 𝒚2
  pairs 𝒫
                1          1
              𝒚1 , 𝒚3
                                               …




                                                                              …
                                                                                            23
図解: 用意するもの
                     𝑞1                            𝑞2                         𝑞𝑁
 Training
   data          1         1              2             2                𝑁          𝑁
ℱ={(𝒙, 𝒚)}    (𝒙1 , 𝒚1 )             (𝒙1 , 𝒚1 )                      (𝒙1 , 𝒚1 )
                                                                 …
                 1          1           2             2                  𝑁          𝑁
              (𝒙2    ,    𝒚2     )   (𝒙2       ,    𝒚2       )       (𝒙2 , 𝒚2 )


                         …
                 1           1




                                                   …




                                                                              …
              (𝒙 𝑛1 , 𝒚 𝑛1 )
                                                                          𝑁         𝑁
                                          2             2
                                                                     (𝒙 𝑛 𝑁 , 𝒚 𝑛 𝑁 )
                                     (𝒙   𝑛2   , 𝒚      𝑛2   )




                     𝑞1                            𝑞2                          𝑞3
                                               2             2            𝑁             𝑁
Preference    𝒚1
                1
                     ,    𝒚2
                            1             𝒚1 , 𝒚2                     𝒚1 , 𝒚2
  pairs 𝒫
                1          1
              𝒚1 , 𝒚3
                                               …




                                                                              …
                                                                                            24
補足: ranking feature について
𝒙 (= Φ 𝑞, 𝑑 ) =




                                                 ・ 地理的な要因
                                             +
                                                 ・ 評判を反映するような要因

                                                                         など?




                                            MSLR-WEB datasetのfeature (の一部)
                                                                               25
 (http://research.microsoft.com/en-us/projects/mslr/feature.aspx より抜粋)
(1) Label aggregation method




                               26
Label aggregation methodの流れ
• 1. 𝒫を用いてaggregation function ℎ(𝒚) を学習
  – 設定されなければ写像関数Φも学習
                                   大事なのここだけ

• 2. 訓練データにℱ = 𝒙, 𝒚      にℎ(𝒚) を適用して
  ℱ = 𝒙, ℎ 𝒚 を生成
         1つの適合度ラベル

• 3. 従来のランキング学習手法を用いてランキング関
  数𝑓ℎ を学習



                                          27
Label aggregation method
以下の2つを提案
• (A) Linear aggregation method
   – ラベルの写像関数は人手で設定
• (B) Joint learning method
   – ラベルの写像関数も同時に学習

                         𝑙1,3




                                     (
       ✔                 𝑙1,2   𝜙1   𝑦1
                         𝑙1,1                     (A) ここだけ学習
       ✔                 𝑙2,3
                         𝑙2,2   𝜙2   𝑦2 = 𝒚   ℎ      𝑧
                         𝑙2,1
                         𝑙3,3
       ✔                 𝑙3,2   𝜙3   𝑦3
                         𝑙3,1
                                     )




                                     (B) ここも学習
                                                               28
(A) Linear aggregation method




                                29
A Linear Aggregation Method (1/2)
• 最も簡単な方法は,
                           𝑠−1
      𝑦 𝑘 = 𝜙 𝑘 𝑙 𝑘,𝑠 =          for   𝑠 = 1, … , 𝑛 𝑘
                          𝑛 𝑘 −1
• これを用いてrelevance label 𝑙 𝑘,𝑠 を[0, 1]に写像

                                               𝑙1,𝑠 → 𝑦1

                                               𝑙2,𝑠 → 𝑦2

                                               𝑙3,𝑠 → 𝑦3



                                                           30
A Linear Aggregation Method (2/2)
• multi-aspect relevance vector yに対する線形重み
  ベクトルwを学習するため,以下の損失関数を利用
         1                               𝑇                  𝑇      2
      𝐿=                    max 0, 1 − 𝒘 𝒚 𝑖 + 𝒘 𝒚 𝑗
         2
              𝒚 𝑖 ,𝒚 𝑗 ∈𝑃

  – はて,ヒンジロスを2乗する意図は? (HELP!)
  – なお線形「重み」にしたいので𝒘 ≽ 0
  – 勾配法で解く (後述)          𝒘 𝑇 (𝒚 𝑖 −                      𝒚 𝑗 )と解釈すると
                                                    「選好順序」に対する0-1損失
                                                    の近似
                                loss
         hinge-loss                    こんな損失


             0-1 loss
                                                                       31
                                             1- 𝒘 𝑇 (𝒚 𝑖 − 𝒚 𝑗 )
(A) Joint learning method




                            32
A Joint Learning Method
• 先ほどの例ではk番目のaspectに対するラベルの写
  像関数𝜙 𝑘 𝑙 𝑘,𝑠 は人手で設定されたものを利用
  – これも同時に学習したい!


• そこで今度は下記のような損失関数を利用
      1                                𝑇 Φ(𝒚              𝑇Φ
                                                                    2
   𝐿=                   max 0, 1 − 𝒘           𝑖)   + 𝒘        𝒚𝑗
      2
          𝒚 𝑖 ,𝒚 𝑗 ∈𝑃                                     特に記述はないが線形関数?




• gradient-and-projection で最適化

                                                                        33
Gradient-and-projection (1/2)
     • 先ほどの損失関数の勾配を計算
            – 各パラメータで偏微分




ここで
                                                             ヒント:
  𝒜 𝑘,𝑠 =    𝒚 𝑖 , 𝒚 𝒋 ∈ 𝒫 𝑦 𝑖,𝑘 = 𝑙 𝑘,𝑠 , 𝑦 𝑗,𝑘 ≠ 𝑙 𝑘,𝑠 }                                   𝜙1 𝑙1,𝑠
 ℬ 𝑘,𝑠 =    𝒚 𝑖 , 𝒚 𝑗 ∈ 𝒫 𝑦 𝑖,𝑘 ≠ 𝑙 𝑘,𝑠 , 𝑦 𝑗,𝑘 = 𝑙 𝑘,𝑠 }     𝒘 𝑇 Φ 𝑦 𝑖 = ( 𝑤1   …   𝑤 𝑚)       ⋮
                                                                                            𝜙 𝑚 34𝑚,𝑠
                                                                                                 𝑙
Gradient-and-projection (1/2)
   • gradient した後に制約を満たすように projection


                        変更を小さく                                         変更を小さく




                                                             制約を満たすように


                    目的関数が凸+線形制約=二次計画

[質問] gradient-and-projection は割とスタンダードな手法なんでしょうか?
FOBOS [Duchi+ 09] と同じノリ?
 [Duchi+ 09] J. Duchi, Y. Singer, “Efficient Online and Batch Learning using Forward
 Backward Splitting”, JMLR, 2009.                                                      35
(2) Model Aggregation




                        36
Model aggregation methodの流れ
• 1. 各aspect 𝑎 𝑖 に対して 𝑦 𝑖 = 𝜙 𝑖 𝑙 𝑖,𝑠 に基づい
  てランキング関数𝑓 𝑎 𝑖 を学習
  – 従来のランキング学習手法を利用

• 2. 各データについてm次元ベクトル
  𝐟 𝒙 = [𝑓 𝑎1 𝒙 , … , 𝑓 𝑎 𝑚 (𝒙)]を生成

• 3. 𝐟 𝒙 と𝒫 を用いてaggregation function ℎを
  学習
                                      大事なのここだけ
                                           37
Aggregation function ℎ の学習
• Aggregation function: ℎ 𝐟 𝒙   = 𝒘𝑇𝐟 𝒙

• 𝒘 を学習するために以下の損失を利用
  – 最適化は先ほどと同じ


        ※ preference pairsを利用




                                          38
Model aggregation の利点
• (1) 各aspectに異なるモデルを利用可能
 – 例) text matching aspect には複雑なモデル,
   distance aspect には単純な回帰モデル


• (2) 𝒚が不要.𝐟 𝒙 があればよい
 – クリックログデータなどの外部情報を 𝒙 𝑖 , 𝒙 𝑗 ∈ 𝒫
   として利用可能



                                       39
評価実験
(オフライン実験/オンライン実験)



                    40
オフライン実験のデータセット

 informational        例) Chinese restaurant
                         Los Angeles, CA 90018


                      例) Bank of America
 navigational
                         Los Angeles, CA 90018



ラベルの比率




                (a) Category Queries             (b) Business Name Queries   41
評価指標
• ペア一致率         ※ 今回の損失関数で近似的に最適化している指標

 – for label aggregation




 – for model aggregation




                                          42
比較手法
   • Rule
        – 人手で 𝒚 → 𝑧 してランキング学習
   • Ed-overall
        – 𝒫 𝑡𝑟𝑎𝑖𝑛 を使ってランキング学習
   • Click
        – クリックログを使ってランキング学習
   • Linear [proposed]
        – linear aggregation model
   • Joint [proposed]
        – joint learning model
   • ModAgg [proposed]
        – Model aggregation method
※ ランキング学習にはGBRank (Gradient Boosting Tree) [Zheng+ 08] を利用
[Zheng+ 08] Z. Zheng, H. Zha, T. Zhang, O. Chapelle, K. Chen, and G. Sun, “A general boosting method
                                                                                                   43
and its application to learning ranking functions for web search”, NIPS 2008.
補足: クリックログの量



• √1441975 ≒ 1200 (≒ 約1200文書)
• √58782 ≒ 242 (≒ 約242文書)
                  クエリ数は論文に記述されておらず...




                                        44
実験1: Label aggregation の精度



• これ↑だけを使って label aggregation した場合のペア一致
  率の比較




             Jointで精度が上がらないのは𝜙 𝑘 が線形関数だから?




                                             45
実験2: Model aggregation の精度




                             46
考察: 各 aspect の重み
• Category query




• Business name query
  – distance が効いてくる




                           47
オンライン実験
• Local search engine で Bucket test
   – Cookie でユーザを分類
   – 同じユーザに対しては同じランキング手法で結果を提示

• 実験手法
   – Rule vs. Linear (2 weeks)
   – Linear vs. ModAgg (another 2 weeks)

• 評価: Click-Through Rate (CTR) @i
   – 検索結果i番目までに表示された数のうち,クリックされた比率




                                           48
CTR5の比較
x軸は日付




Linear > Rule (p-value < 0.01)   ModAgg > Linear (p-value < 0.01)

※ 期間が異なるのでLinear の結果が異なっていることに注意                                    49
まとめ
• 複数のaspectを持つvertical search (今回はlocal search)
  におけるランキング関数学習において以下の2つのアプ
  ローチを提案
  – (1) Label aggregation
     • (A) Linear aggregation
     • (B) Joint aggregation
  – (2) Model aggregation

• オフライン,オンラインいずれの実験においてもベースラ
  インを上回る精度を示した

• 今回の手法では aspect は人手で設定されている必要
  がある.Aspect の自動獲得はfuture work.

                                              50
おしまい



       51

Más contenido relacionado

La actualidad más candente

Clustering _ishii_2014__ch10
Clustering  _ishii_2014__ch10Clustering  _ishii_2014__ch10
Clustering _ishii_2014__ch10Kota Mori
 
パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩t_ichioka_sg
 
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII
 
Ibisml2011 06-20
Ibisml2011 06-20Ibisml2011 06-20
Ibisml2011 06-20Yasuo Tabei
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習Masahiro Suzuki
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介Deep Learning JP
 
情報検索の基礎(11章)
情報検索の基礎(11章)情報検索の基礎(11章)
情報検索の基礎(11章)Katsuki Tanaka
 
Information retrieval model
Information retrieval modelInformation retrieval model
Information retrieval modelYuku Takahashi
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
各言語の k-means 比較
各言語の k-means 比較各言語の k-means 比較
各言語の k-means 比較y-uti
 
Or seminar2011final
Or seminar2011finalOr seminar2011final
Or seminar2011finalMikio Kubo
 
Hive/Pigを使ったKDD'12 track2の広告クリック率予測
Hive/Pigを使ったKDD'12 track2の広告クリック率予測Hive/Pigを使ったKDD'12 track2の広告クリック率予測
Hive/Pigを使ったKDD'12 track2の広告クリック率予測Makoto Yui
 
行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術Yoshihiro Mizoguchi
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)Kota Matsui
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Takao Yamanaka
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Kota Matsui
 
NIPS2010読み会: A New Probabilistic Model for Rank Aggregation
NIPS2010読み会: A New Probabilistic Model for Rank AggregationNIPS2010読み会: A New Probabilistic Model for Rank Aggregation
NIPS2010読み会: A New Probabilistic Model for Rank Aggregationsleepy_yoshi
 
Large scale gan training for high fidelity natural
Large scale gan training for high fidelity naturalLarge scale gan training for high fidelity natural
Large scale gan training for high fidelity naturalKCS Keio Computer Society
 

La actualidad más candente (20)

Clustering _ishii_2014__ch10
Clustering  _ishii_2014__ch10Clustering  _ishii_2014__ch10
Clustering _ishii_2014__ch10
 
パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩
 
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
 
Ibisml2011 06-20
Ibisml2011 06-20Ibisml2011 06-20
Ibisml2011 06-20
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
 
情報検索の基礎(11章)
情報検索の基礎(11章)情報検索の基礎(11章)
情報検索の基礎(11章)
 
FOBOS
FOBOSFOBOS
FOBOS
 
Information retrieval model
Information retrieval modelInformation retrieval model
Information retrieval model
 
Gurobi python
Gurobi pythonGurobi python
Gurobi python
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
各言語の k-means 比較
各言語の k-means 比較各言語の k-means 比較
各言語の k-means 比較
 
Or seminar2011final
Or seminar2011finalOr seminar2011final
Or seminar2011final
 
Hive/Pigを使ったKDD'12 track2の広告クリック率予測
Hive/Pigを使ったKDD'12 track2の広告クリック率予測Hive/Pigを使ったKDD'12 track2の広告クリック率予測
Hive/Pigを使ったKDD'12 track2の広告クリック率予測
 
行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
 
NIPS2010読み会: A New Probabilistic Model for Rank Aggregation
NIPS2010読み会: A New Probabilistic Model for Rank AggregationNIPS2010読み会: A New Probabilistic Model for Rank Aggregation
NIPS2010読み会: A New Probabilistic Model for Rank Aggregation
 
Large scale gan training for high fidelity natural
Large scale gan training for high fidelity naturalLarge scale gan training for high fidelity natural
Large scale gan training for high fidelity natural
 

Destacado

ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...sleepy_yoshi
 
Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Yo Ehara
 
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelsICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelssleepy_yoshi
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰hagino 3000
 
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Yuki Matsubara
 
EMNLP 2015 yomikai
EMNLP 2015 yomikai EMNLP 2015 yomikai
EMNLP 2015 yomikai Yo Ehara
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてエクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてHiroshi Shimizu
 

Destacado (8)

ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
 
Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法
 
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelsICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic models
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰
 
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰
 
EMNLP 2015 yomikai
EMNLP 2015 yomikai EMNLP 2015 yomikai
EMNLP 2015 yomikai
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてエクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについて
 

Similar a WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search

PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7sleepy_yoshi
 
Deep Learning 勉強会 (Chapter 7-12)
Deep Learning 勉強会 (Chapter 7-12)Deep Learning 勉強会 (Chapter 7-12)
Deep Learning 勉強会 (Chapter 7-12)Ohsawa Goodfellow
 
BERTに関して
BERTに関してBERTに関して
BERTに関してSaitama Uni
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
 
これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法kenyanonaka
 
「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)
「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)
「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)Kensuke Otsuki
 
Rで実験計画法 後編
Rで実験計画法 後編Rで実験計画法 後編
Rで実験計画法 後編itoyan110
 
WUPC2nd G問題
WUPC2nd G問題WUPC2nd G問題
WUPC2nd G問題Dai Hamada
 

Similar a WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search (11)

PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
 
Deep Learning 勉強会 (Chapter 7-12)
Deep Learning 勉強会 (Chapter 7-12)Deep Learning 勉強会 (Chapter 7-12)
Deep Learning 勉強会 (Chapter 7-12)
 
PRML 8.4-8.4.3
PRML 8.4-8.4.3 PRML 8.4-8.4.3
PRML 8.4-8.4.3
 
BERTに関して
BERTに関してBERTに関して
BERTに関して
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
直交領域探索
直交領域探索直交領域探索
直交領域探索
 
これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法
 
「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)
「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)
「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)
 
Rで実験計画法 後編
Rで実験計画法 後編Rで実験計画法 後編
Rで実験計画法 後編
 
WUPC2nd G問題
WUPC2nd G問題WUPC2nd G問題
WUPC2nd G問題
 

Más de sleepy_yoshi

KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on TwitterKDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twittersleepy_yoshi
 
KDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking MeasuresKDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking Measuressleepy_yoshi
 
PRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじPRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじsleepy_yoshi
 
PRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじPRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじsleepy_yoshi
 
PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじPRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじsleepy_yoshi
 
PRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじPRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじsleepy_yoshi
 
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and RecommendationSEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendationsleepy_yoshi
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-sleepy_yoshi
 
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじPRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじsleepy_yoshi
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するsleepy_yoshi
 
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじPRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじsleepy_yoshi
 
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5sleepy_yoshi
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1sleepy_yoshi
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじsleepy_yoshi
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじsleepy_yoshi
 
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5sleepy_yoshi
 
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5sleepy_yoshi
 
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじPRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじsleepy_yoshi
 
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)sleepy_yoshi
 
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++sleepy_yoshi
 

Más de sleepy_yoshi (20)

KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on TwitterKDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
 
KDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking MeasuresKDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking Measures
 
PRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじPRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじ
 
PRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじPRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじ
 
PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじPRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじ
 
PRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじPRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじ
 
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and RecommendationSEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
 
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじPRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじ
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
 
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじPRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじ
 
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
 
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
 
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5
 
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじPRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじ
 
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
 
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
 

Último

業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 

Último (7)

業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 

WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search

  • 1. WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search 2012-04-07 Yoshihiko Suhara @sleepy_yoshi 1
  • 2. 今日紹介する論文 • Learning to Rank with Multi-Aspect Relevance for Vertical Search – by Changsung Kang, Xuanhui Wang, Yi Chang, Belle Tseng (Yahoo! Labs) • SIGIR, WWW, WSDM, CIKM, KDD あたり 2
  • 3. 1枚概要 • 問題 – Vertical search (分野特化型検索エンジン) におけ るランキングの最適化 • 課題 – 複数のaspectに対するランキング関数の学習 • 解き方 – label aggregation, model aggregationを提案 3
  • 6. 背景 • ウェブ検索クエリの20%は場所に関する意図 を持つ ⇒ Local searchは大切だよね! • Local searchの場合,3つの aspect を持つ – (1) text matching aspect • テキストクエリへの一致度 – (2) distance aspect • 場所クエリに対してどれだけ近いか – (3) reputation aspect • 店の評判 6
  • 7. Vertical searchの検索結果 クエリ (情報検索で いうところの) 文書 7
  • 8. 各文書に対する評価方法 評価ガイドライン text matching aspect distance aspect reputation aspect 8
  • 9. 各文書に対する評価方法 text matching aspect 各文書について3つのaspectに対する aspect distance 適合度ラベルが付与される reputation aspect 9
  • 10. やりたいこと • 入力されたクエリに対して複数のaspectを持 つ文書のランキングの最適化する ただし適合度 ラベルがスカラー 𝑞1 ではなくベクトル𝑞2 𝑞𝑁 Training 1 1 2 2 𝑁 𝑁 (𝒙1 , 𝑦1 ) (𝒙1 , 𝑦1 ) (𝒙1 , 𝑦1 ) data 1 1 2 2 … 𝑁 𝑁 (𝒙2 , 𝑦2 ) (𝒙2 , 𝑦2 ) (𝒙2 , 𝑦2 ) … 1 1 … … (𝒙 𝑛1 , 𝑦 𝑛1 ) 𝑁 𝑁 2 2 (𝒙 𝑛 𝑁 , 𝑦 𝑛 𝑁 ) (𝒙 𝑛2 , 𝑦 𝑛2 ) 10
  • 11. 従来のアプローチ • Learning-to-rank手法はひとつのaspect (= relevance) を最適化する手法 • 複数のスコアが与えられた場合には解き方は自 明ではない • 従来手法 (今回のベースライン) – 経験知と勘によって用意されたルールに基づいて複 数スコアの線形和で最終スコアに変換 – 最終スコアを適合度と見なして従来のLearning to rankのアプローチで解く 11
  • 12. 従来手法の欠点 • (1) ルールの作成が困難 • (2) 現実の問題をとらえるにはちと粗い – ある素性空間で複数aspectの特徴を表現できる のか? • aspect毎に異なる素性空間を利用したい • (3) aspectが増加するとルールも指数的に増 加するのでスケールしない 12
  • 13. 提案手法のアプローチ 2つのアプローチを提案 • (1) Label aggregation method – ラベルの重みを学習 => 1ラベルに変換 – 1ラベルのランキング学習でモデル作成 • (2) Model aggregation method – 各ラベルについてランキング学習でモデル作成 – 各モデルの重みを学習 13
  • 15. 定義1: Aspect Relevance • クエリqにおける文書dのk番目のaspectの適 合度は 𝑙 ∈ 𝐿 𝑘 = 𝑙 𝑘,1 ≺, … , ≺ 𝑙 𝑘,𝑛 𝑘 悪い 良い 15
  • 16. 定義2: Multi-Aspect Relevance • m個のaspectが与えられた場合には,各 aspectに対する適合度をm次元のベクトル 𝒚 = 𝑦1 , … , 𝑦 𝑚 𝑇 で表現する 16
  • 17. 定義3: Mapping Function • k番目のaspectの写像関数𝜙 𝑘 : 𝐿 𝑘 → ℝは適合 度ラベルを実数値に写像する – ただし,順序は保持 17
  • 18. 定義4: Label Aggregation Function • 𝒚をoverall relevance value 𝑧に写像する関数 ℎ: ℝ 𝑚 → ℝ 18
  • 20. Multi-aspect label から overall relevance へ 𝑙1,3 ( ✔ 𝑙1,2 𝜙1 𝑦1 𝑙1,1 ✔ 𝑙2,3 𝑙2,2 𝜙2 𝑦2 = 𝒚 ℎ 𝑧 𝑙2,1 𝑙3,3 ✔ 𝑙3,2 𝑙3,1 𝜙3 𝑦3 ) 文書に対して1つのラベルに落とし込んだので 従来手法を用いてランキング関数の学習が可能 20
  • 22. 用意するもの • 訓練データ ℱ= 𝒙, 𝒚 • 選好評価 𝒚 𝑖 , 𝒚 𝑗 ∈ 𝒫 または 𝒙 𝑖 , 𝒙 𝑗 ∈ 𝒫 論文中にはranking feature xに関する記述一切なし!! 推して知るべし!! 22
  • 23. 図解: 用意するもの 𝑞1 𝑞2 𝑞𝑁 Training data 1 1 2 2 𝑁 𝑁 ℱ={(𝒙, 𝒚)} (𝒙1 , 𝒚1 ) (𝒙1 , 𝒚1 ) (𝒙1 , 𝒚1 ) … 1 1 2 2 𝑁 𝑁 (𝒙2 , 𝒚2 ) (𝒙2 , 𝒚2 ) (𝒙2 , 𝒚2 ) … 1 1 … … (𝒙 𝑛1 , 𝒚 𝑛1 ) 𝑁 𝑁 2 2 (𝒙 𝑛 𝑁 , 𝒚 𝑛 𝑁 ) (𝒙 𝑛2 , 𝒚 𝑛2 ) 𝑞1 𝑞2 𝑞3 2 2 𝑁 𝑁 Preference 𝒚1 1 , 𝒚2 1 𝒚1 , 𝒚2 𝒚1 , 𝒚2 pairs 𝒫 1 1 𝒚1 , 𝒚3 … … 23
  • 24. 図解: 用意するもの 𝑞1 𝑞2 𝑞𝑁 Training data 1 1 2 2 𝑁 𝑁 ℱ={(𝒙, 𝒚)} (𝒙1 , 𝒚1 ) (𝒙1 , 𝒚1 ) (𝒙1 , 𝒚1 ) … 1 1 2 2 𝑁 𝑁 (𝒙2 , 𝒚2 ) (𝒙2 , 𝒚2 ) (𝒙2 , 𝒚2 ) … 1 1 … … (𝒙 𝑛1 , 𝒚 𝑛1 ) 𝑁 𝑁 2 2 (𝒙 𝑛 𝑁 , 𝒚 𝑛 𝑁 ) (𝒙 𝑛2 , 𝒚 𝑛2 ) 𝑞1 𝑞2 𝑞3 2 2 𝑁 𝑁 Preference 𝒚1 1 , 𝒚2 1 𝒚1 , 𝒚2 𝒚1 , 𝒚2 pairs 𝒫 1 1 𝒚1 , 𝒚3 … … 24
  • 25. 補足: ranking feature について 𝒙 (= Φ 𝑞, 𝑑 ) = ・ 地理的な要因 + ・ 評判を反映するような要因 など? MSLR-WEB datasetのfeature (の一部) 25 (http://research.microsoft.com/en-us/projects/mslr/feature.aspx より抜粋)
  • 27. Label aggregation methodの流れ • 1. 𝒫を用いてaggregation function ℎ(𝒚) を学習 – 設定されなければ写像関数Φも学習 大事なのここだけ • 2. 訓練データにℱ = 𝒙, 𝒚 にℎ(𝒚) を適用して ℱ = 𝒙, ℎ 𝒚 を生成 1つの適合度ラベル • 3. 従来のランキング学習手法を用いてランキング関 数𝑓ℎ を学習 27
  • 28. Label aggregation method 以下の2つを提案 • (A) Linear aggregation method – ラベルの写像関数は人手で設定 • (B) Joint learning method – ラベルの写像関数も同時に学習 𝑙1,3 ( ✔ 𝑙1,2 𝜙1 𝑦1 𝑙1,1 (A) ここだけ学習 ✔ 𝑙2,3 𝑙2,2 𝜙2 𝑦2 = 𝒚 ℎ 𝑧 𝑙2,1 𝑙3,3 ✔ 𝑙3,2 𝜙3 𝑦3 𝑙3,1 ) (B) ここも学習 28
  • 30. A Linear Aggregation Method (1/2) • 最も簡単な方法は, 𝑠−1 𝑦 𝑘 = 𝜙 𝑘 𝑙 𝑘,𝑠 = for 𝑠 = 1, … , 𝑛 𝑘 𝑛 𝑘 −1 • これを用いてrelevance label 𝑙 𝑘,𝑠 を[0, 1]に写像 𝑙1,𝑠 → 𝑦1 𝑙2,𝑠 → 𝑦2 𝑙3,𝑠 → 𝑦3 30
  • 31. A Linear Aggregation Method (2/2) • multi-aspect relevance vector yに対する線形重み ベクトルwを学習するため,以下の損失関数を利用 1 𝑇 𝑇 2 𝐿= max 0, 1 − 𝒘 𝒚 𝑖 + 𝒘 𝒚 𝑗 2 𝒚 𝑖 ,𝒚 𝑗 ∈𝑃 – はて,ヒンジロスを2乗する意図は? (HELP!) – なお線形「重み」にしたいので𝒘 ≽ 0 – 勾配法で解く (後述) 𝒘 𝑇 (𝒚 𝑖 − 𝒚 𝑗 )と解釈すると 「選好順序」に対する0-1損失 の近似 loss hinge-loss こんな損失 0-1 loss 31 1- 𝒘 𝑇 (𝒚 𝑖 − 𝒚 𝑗 )
  • 32. (A) Joint learning method 32
  • 33. A Joint Learning Method • 先ほどの例ではk番目のaspectに対するラベルの写 像関数𝜙 𝑘 𝑙 𝑘,𝑠 は人手で設定されたものを利用 – これも同時に学習したい! • そこで今度は下記のような損失関数を利用 1 𝑇 Φ(𝒚 𝑇Φ 2 𝐿= max 0, 1 − 𝒘 𝑖) + 𝒘 𝒚𝑗 2 𝒚 𝑖 ,𝒚 𝑗 ∈𝑃 特に記述はないが線形関数? • gradient-and-projection で最適化 33
  • 34. Gradient-and-projection (1/2) • 先ほどの損失関数の勾配を計算 – 各パラメータで偏微分 ここで ヒント: 𝒜 𝑘,𝑠 = 𝒚 𝑖 , 𝒚 𝒋 ∈ 𝒫 𝑦 𝑖,𝑘 = 𝑙 𝑘,𝑠 , 𝑦 𝑗,𝑘 ≠ 𝑙 𝑘,𝑠 } 𝜙1 𝑙1,𝑠 ℬ 𝑘,𝑠 = 𝒚 𝑖 , 𝒚 𝑗 ∈ 𝒫 𝑦 𝑖,𝑘 ≠ 𝑙 𝑘,𝑠 , 𝑦 𝑗,𝑘 = 𝑙 𝑘,𝑠 } 𝒘 𝑇 Φ 𝑦 𝑖 = ( 𝑤1 … 𝑤 𝑚) ⋮ 𝜙 𝑚 34𝑚,𝑠 𝑙
  • 35. Gradient-and-projection (1/2) • gradient した後に制約を満たすように projection 変更を小さく 変更を小さく 制約を満たすように 目的関数が凸+線形制約=二次計画 [質問] gradient-and-projection は割とスタンダードな手法なんでしょうか? FOBOS [Duchi+ 09] と同じノリ? [Duchi+ 09] J. Duchi, Y. Singer, “Efficient Online and Batch Learning using Forward Backward Splitting”, JMLR, 2009. 35
  • 37. Model aggregation methodの流れ • 1. 各aspect 𝑎 𝑖 に対して 𝑦 𝑖 = 𝜙 𝑖 𝑙 𝑖,𝑠 に基づい てランキング関数𝑓 𝑎 𝑖 を学習 – 従来のランキング学習手法を利用 • 2. 各データについてm次元ベクトル 𝐟 𝒙 = [𝑓 𝑎1 𝒙 , … , 𝑓 𝑎 𝑚 (𝒙)]を生成 • 3. 𝐟 𝒙 と𝒫 を用いてaggregation function ℎを 学習 大事なのここだけ 37
  • 38. Aggregation function ℎ の学習 • Aggregation function: ℎ 𝐟 𝒙 = 𝒘𝑇𝐟 𝒙 • 𝒘 を学習するために以下の損失を利用 – 最適化は先ほどと同じ ※ preference pairsを利用 38
  • 39. Model aggregation の利点 • (1) 各aspectに異なるモデルを利用可能 – 例) text matching aspect には複雑なモデル, distance aspect には単純な回帰モデル • (2) 𝒚が不要.𝐟 𝒙 があればよい – クリックログデータなどの外部情報を 𝒙 𝑖 , 𝒙 𝑗 ∈ 𝒫 として利用可能 39
  • 41. オフライン実験のデータセット informational 例) Chinese restaurant Los Angeles, CA 90018 例) Bank of America navigational Los Angeles, CA 90018 ラベルの比率 (a) Category Queries (b) Business Name Queries 41
  • 42. 評価指標 • ペア一致率 ※ 今回の損失関数で近似的に最適化している指標 – for label aggregation – for model aggregation 42
  • 43. 比較手法 • Rule – 人手で 𝒚 → 𝑧 してランキング学習 • Ed-overall – 𝒫 𝑡𝑟𝑎𝑖𝑛 を使ってランキング学習 • Click – クリックログを使ってランキング学習 • Linear [proposed] – linear aggregation model • Joint [proposed] – joint learning model • ModAgg [proposed] – Model aggregation method ※ ランキング学習にはGBRank (Gradient Boosting Tree) [Zheng+ 08] を利用 [Zheng+ 08] Z. Zheng, H. Zha, T. Zhang, O. Chapelle, K. Chen, and G. Sun, “A general boosting method 43 and its application to learning ranking functions for web search”, NIPS 2008.
  • 44. 補足: クリックログの量 • √1441975 ≒ 1200 (≒ 約1200文書) • √58782 ≒ 242 (≒ 約242文書) クエリ数は論文に記述されておらず... 44
  • 45. 実験1: Label aggregation の精度 • これ↑だけを使って label aggregation した場合のペア一致 率の比較 Jointで精度が上がらないのは𝜙 𝑘 が線形関数だから? 45
  • 47. 考察: 各 aspect の重み • Category query • Business name query – distance が効いてくる 47
  • 48. オンライン実験 • Local search engine で Bucket test – Cookie でユーザを分類 – 同じユーザに対しては同じランキング手法で結果を提示 • 実験手法 – Rule vs. Linear (2 weeks) – Linear vs. ModAgg (another 2 weeks) • 評価: Click-Through Rate (CTR) @i – 検索結果i番目までに表示された数のうち,クリックされた比率 48
  • 49. CTR5の比較 x軸は日付 Linear > Rule (p-value < 0.01) ModAgg > Linear (p-value < 0.01) ※ 期間が異なるのでLinear の結果が異なっていることに注意 49
  • 50. まとめ • 複数のaspectを持つvertical search (今回はlocal search) におけるランキング関数学習において以下の2つのアプ ローチを提案 – (1) Label aggregation • (A) Linear aggregation • (B) Joint aggregation – (2) Model aggregation • オフライン,オンラインいずれの実験においてもベースラ インを上回る精度を示した • 今回の手法では aspect は人手で設定されている必要 がある.Aspect の自動獲得はfuture work. 50