Más contenido relacionado
La actualidad más candente (20)
2 4.devianceと尤度比検定
- 29. 29
ポアソン回帰
𝑒−𝜆
𝜆 𝑦
𝑦!
対数尤度
≒ log(0.18 × 0.15 × 0.12 × 0.10)
≒ -8.006734
線形モデルの最大化対数尤度
カンペキ予測のカンペキ対数尤度
対数尤度
≒ log(0.18 × 0.15 × 0.13 × 0.10)
≒ -8.001173
完璧予測の方が大きい
この差分が大事
Y : 5, 7, 10, 15
- 32. 32
deviance残差
≒ log 0.18 + log 0.15 + log 0.12 + log(0.10)
線形モデルの最大化対数尤度
カンペキ予測のカンペキ対数尤度
≒ log 0.18 + log 0.15 + log 0.13 + log(0.10)
つねに「カンペキ対数尤度」の方が大きい
→このままだと、残差は常に正になってしまう
差
- 33. 33
≒ log 0.18 + log 0.15 + log 0.12 + log(0.10)
線形モデルの最大化対数尤度
カンペキ予測のカンペキ対数尤度
≒ log 0.18 + log 0.15 + log 0.13 + log(0.10)
予測より
小さかった
予測より
大きかった
予測された期待値 λ
過少予測なら
+の残差
過大に予測していれば
ーの残差
- 36. Wald検定
Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 1.2144 0.4870 2.493 0.0127 *
x 0.3704 0.1556 2.380 0.0173 *
---
summary(glm.model)の結果 コレのこと
今までt検定で「パラメタが0かどうか」検定してきた
GLMではWald検定を使う
→パラメタが正規分布していることを利用
→検定の意味付けはt検定とほとんど同じなので省略
- 40. 40
モデル|Y ~ X1 + X2 + Option1 + Option2
予測残差は“有意に”増えたか? を検定
Type II ANOVA
モデル|Y ~ + X2 + Option1 + Option2
X1を抜くことによって「有意に」予測残差が増えた
→X1はYを予測するモデルに必要不可欠な存在である
→ほかの変数(Option1等)があったとしても、
それでもX1という変数が必要なのかどうか検定
- 41. 41
モデル|Y ~ X1 + X2 + Option1 + Option2
予測残差は“有意に”増えたか? を検定
Type II ANOVA
モデル|Y ~ X1 + + Option1 + Option2
モデル|Y ~ X1 + X2 + + Option2
モデル|Y ~ X1 + X2 + Option1 +
モデル|Y ~ + X2 + Option1 + Option2
- 42. 42
普通のANOVA、Type II ANOVA
モデル|Y ~ X1
ナイーブ予測(Null.Model)
普通のANOVA
Type II ANOVA
モデル|Y ~ X1 + X2 + Option1 + Option2
モデル|Y ~ + X2 + Option1 + Option2
変数を増やすと予測残差は“有意に”減ったか?
変数を減らすと予測残差は“有意に”増えたか?
- 43. 43
GLMなType II ANOVA
Type II ANOVA
モデル|Y ~ X1 + X2 + Option1 + Option2
モデル|Y ~ + X2 + Option1 + Option2
変数を減らすと予測残差は“有意に”増えたか?
残差をdevianceに置き換える
- 44. 44
モデル|Y ~ X1 + X2 + Option1 + Option2
devianceは“有意に”増えたか? を検定
Type II ANOVA
モデル|Y ~ + X2 + Option1 + Option2
X1を抜くことによって「有意に」 devianceが増えた
→X1はYを予測するモデルに必要不可欠な存在である
→ほかの変数(Option1等)があったとしても、
それでもX1という変数が必要なのかどうか検定
質問どうぞ!
- 45. 45
尤度比検定あれこれ
deviance
= 2×(カンペキ対数尤度 - 最大化対数尤度)
二つのモデルの比較( ②の方が複雑なモデル)
deviance① ー deviance②
=2×「カンペキ対数尤度 - 最大化対数尤度①」
- 2× 「カンペキ対数尤度 - 最大化対数尤度② 」
=2×(最大化対数尤度② - 最大化対数尤度① )
devianceの差=最大化対数尤度の差の2倍
- 53. 53
ln 𝑔 𝑦 − ln 𝑓 𝑦
+∞
−∞
𝑔 𝑦 𝑑𝑦
注意! 別にわからなくてもいいです
真の
確率密度関数
予測された
確率密度関数
確率をかけてから積分(合計)している
→期待値!
- 56. 56
注意! 別にわからなくてもいいです
= ln 𝑔 𝑦
+∞
−∞
𝑔 𝑦 𝑑𝑦 − ln 𝑓 𝑦 𝑔 𝑦 𝑑𝑦
+∞
−∞
f(y)が入ってない
→予測された確率分布関係なし!
こいつだけ使う
→こいつが大きければ
KL情報量は小さくなる
ln 𝑔 𝑦 − ln 𝑓 𝑦
+∞
−∞
𝑔 𝑦 𝑑𝑦
真の
確率密度関数
予測された
確率密度関数
- 57. 57
ln 𝑓 𝑦 𝑔 𝑦 𝑑𝑦
+∞
−∞
注意! 別にわからなくてもいいです
コイツ→
を大きくしたい
予測された
確率密度関数
確率をかけてから積分(合計)している!
「データが得られる確率の対数」の期待値をとっている
対数尤度の期待値=平均対数尤度