Más contenido relacionado 第1回メドレー読書会2. • 名前
• 徐 聖博(じょ せいぼ)
• 2014/04∼2015/06
• グリー株式会社
• 2015/07∼
• 株式会社メドレー
• 2014/04∼
• ターゲットスポーツ
• 保有資格
• ダーツプロライセンス
• 大学院時代の研究
• 人工知能(進化計算)
• ICML RLCompetition 1位
自己紹介
2
http://2013.rl-competition.org/results
33. • ユーザベース
• 同じ用なユーザは同じようなもの買う
➡ 但し、大量の購入データがないとうまく学習できない
• コンテンツベース
• 似た商品をサジェストする
➡ 個人に最適化されないが、コンテンツデータがあれば大丈夫
• ハイブリット
• コンテンツベースとユーザベースのハイブリット
• 実装がちょっと激しい。。。
協調フィルタリング
33
38. • 線形関数で表せるモデル
• y =α0+α1X1+α2X2+…+αnXnのようなもの
• y =α+βX+γX2は、曲線であるが(1,x,x2)に対し線形
• 損失関数
• 関数最適化する過程で二乗誤差を損失関数と扱う
• 一般的には、 を二乗和として扱う
• 目的関数
• 二乗誤差の合計を目的関数と扱い、それを最小化する
• 一般的には、 と表す
線形回帰
38
46. コードにすると(気持ちこんな感じ)
46
THRESHOLD = 0.001
while true do
n.times do |i|
tmp0 = 2*alpha * ((y[i] - (a * x[i] + b)) * x[i]) / n
tmp1 = 2*alpha * (y[i] - (a * x[i] + b)) / n
end
a = a - tmp0
b = b - tmp1
break if tmp0 < THRESHOLD && tmp1 < THRESHOLD
end
47. • 入力
• 求人に対する応募数
• 出力
• 売上(金額)
• 学習データと結果
• 過去3年分のデータを元に学習
• 応募あたりの金額がわかる、応募数から売上がわかる
コードにすると(気持ちこんな感じ)
47
48. • 2変数の場合
• 目的関数は以下のようになる
•
• 最適化(偏微分)するものが3つになるだけ
• 2乗とか出てきても、基本同じ
• リッジ回帰
• 過学習:訓練データに最適化し汎用性がなくなること
• 過学習に避けるため、パラメータの正則化を行う
• 目的関数(例):
2変数の場合とリッジ回帰
48
53. • ヒンジ損失
• 関数:
• ヒンジ損失関数
•
サポートベクターマシン
53
ヒンジ損失とロジスティック損失
© 2015 技術評論社 データサイエンティスト養成読本 機械学習入門
62. • 主成分分析
• 次元削減の代表的手法
• ここでは、2次元→1次元を考える
• 下記の例では、いい例と悪い例を表している
次元削減:データを要約する
62
© 2015 技術評論社 データサイエンティスト養成読本 機械学習入門
66. • K平均法
• K個のグループに分割する
• 各グループの中心を決め、各サンプルが「グループ中心が自分
と最も似ている」グループに所属するようにする
• アルゴリズム
1. K個のグループ中心をランダムに選ぶ
2. 次の手順を繰り返す
I. 各サンプルの所属グループを推定する:各サンプルを、グループ中心が
そのサンプルと最も似ているグループに所属させる
II. 各グループのグループ中心を推定する:各グループに所属するサンプル
の平均値を、新しいグループ中心とする
(再掲)クラスタリング:グループを見つける
66
72. • 実際に特異値分解してみる
• Rを使えば簡単!(なにも頭を使わず特異値分解できる)
推薦:ユーザが好むアイテムを見つける
72
> M <- matrix( c( 3, 2, 2, 2, 7, 2, 2, 2, 5 ), 3 )
> svd( M )
$d
[1] 9.428639 3.921622 1.649738
$u
[,1] [,2] [,3]
[1,] -0.3971125 0.2331920 -0.8876503
[2,] -0.7557893 -0.6317813 0.1721479
[3,] -0.5206574 0.7392387 0.4271323
$v
[,1] [,2] [,3]
[1,] -0.3971125 0.2331920 -0.8876503
[2,] -0.7557893 -0.6317813 0.1721479
[3,] -0.5206574 0.7392387 0.4271323
74. • 正規分布を利用した異常検知
• 正規分布
• 世の中の様々なデータが正規分布に基づいていると言われている
• 発生確率が少ないほど異常であると言える
異常検知:他と異なるサンプルを見つける
74
© 2015 技術評論社 データサイエンティスト養成読本 機械学習入門
- 2
-2 x 2に95.4%ある
-1 x 1に68.3%ある
75. • 正規分布を利用した異常検知
• 正規分布
• 世の中の様々なデータが正規分布に基づいていると言われている
• 発生確率が少ないほど異常であると言える
異常検知:他と異なるサンプルを見つける
75
© 2015 技術評論社 データサイエンティスト養成読本 機械学習入門
- 2
平均値:μ=0
分散:σ2=1
の正規分布を
標準正規分布と呼ぶ