SlideShare una empresa de Scribd logo
1 de 15
統計的推測 2   Statistical
Inference




     検定
検定 testing
仮説検定 Hypothesis testing

 母集団の特性値についてある情報を持っ
 ている
 その情報が正しいか否かを知りたい
  帰無仮説と対立仮説
  null hypothesis/ alternative hypotheis
仮説検定の考え方
    H 0 : µ = µ0   帰無仮説 (null hypothesis)

    H1 : µ ≠ µ 0
          対立仮説 (alternative hypothesis)
のどちらが尤もらしいか、データに基づいて確率的に判定

    検定の誤り
      第1種の誤り 帰無仮説が正しいときに棄
      却
      第2種の誤り 帰無仮説が正しくないとき
      に受容

    両方の誤りの確率をできるだけ小さくし
有意水準 (significance level)

 第1種の誤りの確率を「有意水準」以下
 に抑え、その上で、第2種の誤りの確率
 を最小化する。H } ≤ α
     Pr{H |
          1   0

      という条件で
      Pr{H 0 | H1} → 最小化
 有意水準 α としては、 0.05 、 0.01 とい
 う値が例ではよく使われる
「有意」 (significance) とは

 H0 を棄却したとき、その結論が誤ってい
 る(第1種の誤り)確率は高々有意水準 α

 H0 を受容したとき、その結論が誤ってい
 る(第2種の誤り)確率は計算できない
 場合がおおい。
 このため最悪の場合を考えると H0 を受容
 しても、それが誤りである確率は大きい
 と考える
 ==>この結論には意味が無い
P 値 (P-value)
 多くの統計ソフトでは、検定統計量の値とともに「 P
 値」が表示される。

 P 値とは検定結果を有意にする( H0 を棄却する)最小
 の有意水準のこと

 有意水準 α をいくらにすれば有意になるか

 逆に言えば
  P 値< α    有意
  P 値> α    有意でない
検定統計量の作り方

H0 を正しいと仮定して、データから求め
た統計量が得られる確率を計算

その確率が小さいとき、
 確率が小さい(めずらしい)ことがたまたま
 起きた
 データ得られている以上、確率は小さくない
 はず
 H0 を正しいと仮定したので確率がちいさく
 なった
 H0 は正しくない
棄却域と受容域

棄却域 (rejection region)      R
受容域 (acceptance region)     A
  
帰無仮説 H0 を正しいと仮定して、
検定統計量 T=T(X1,…,Xn) の分布を求め、
  T∈R  => H0 を reject
 T∈A  => H0 を accept
言うまでもなく、
  T∪A=[-∞,∞], Pr(T ∈R|H0)=α
正規分布の母平均の検定
 (分散既知)
データ
   X 1 , X 2 , , X n~NID ( µ , σ 2 )
仮説
   H 0 : µ = µ 0
   H1 : µ ≠ µ 0
                                             有意水準 α  より
H 0を正しいと仮定すると
                                                Z > kα / 2 ) = α
                                              Pr(
   X 1 , X 2 , , X n~NID ( µ 0 , σ )    2

                                             となるkα / 2を数表から求め
                n
                      Xi           2
                                    σ
    X = ∑                ~N ( µ 0   )
                                  ,             > kα / 2    帰無仮説H 0を棄却
                                              Z          ⇒
               i =1   n              n

    Z =
               X − µ0
                            ~ N (0,1)
                                                ≤ kα / 2    帰無仮説H 0を受容
                                              Z          ⇒
                      σ2
                      n
シミュレーション
> (ntest 10 0.05)
                        有意水準 α=0.05 で検定し NoSig
NIL
> (ntest 10 0.05)        有意水準 α=0.05 で検定し NoSig
NIL
> (ntest 10 0.05)
                        有意水準 α=0.05 で検定し Significant
T
> (def rslt (ntest-sim 100 10 0.05))
RSLT                    有意水準 α=0.05 での検定を 100 回
> rslt                  シミュレーションで繰り返した
(NIL NIL NIL NIL NIL NIL  途中省略
 NIL NIL NIL NIL)
> (which rslt)
                        100 回中、第 28 回目と、 29 回目の
(28 29)
                        2 回が significant
> (which (ntest-sim 100 10 0.05))   100 回中、 5 回が significant
(13 53 64 80 94)
> (which (ntest-sim 100 10 0.05))   100 回中、 6 回が significant
(1 34 36 52 66 80)




      100 回中何回有意になるか、
      有意の回数の分布はどんなものか?
有意水準 0.05 の検定で 100 回
 中、
 有意になる回数の分布
> (def data (hist-sig 1000 100 10 0.05))
DATA
> (fivnum data)
(0 3 5 6 13)
> (def gh (histogram data))
GH
> (send gh :num-bins 14)
14
> (send gh :bin-counts)
(36 65 153 182 188 151 99 73 26 19 5 2 1 0)
正規分布の母平均の検定(分散未
知)
H 0 : µ = µ0
H1 : µ ≠ µ 0
     X − µ0                       X − µ0
Z=             ~ N (0,1),   T =            ~ t n −1
       σ  2
                                    u2


        n                            n

有意水準αよりtα / 2 (n − 1)を求める
   T > tα / 2 (n − 1)) = α
 Pr(


T > tα / 2 (n − 1) ⇒ 帰無仮説H 0を棄却
その他の場合 ⇒ 帰無仮説H 0を受容
母分散の検定(平均未知)
仮説
                               χ 0 > χ n −1 (α / 2)または
                                 2     2
 H 0 : σ 2 = σ 0
               2

                               χ 0 < χ n −1 (1 − α / 2)     H 0棄却
                                 2     2
                                                          ⇒
 H1 : σ 2 ≠ σ 0
              2

                               その他の場合      H 0受容
                                         ⇒
データ
 X 1 , X 2 ,  , X n~N ( µ , σ 0 )
                               2


帰無仮説 H 0 が真のとき
          Xi − X 2
          n
 χ = ∑ (
    2
    0           ) ~χ n −1
                     2

     i =1  σ0
検定統計量
                         ∑i =1
                             n
        n
          xi − x 2             ( xi − x ) 2
 χ = ∑(
   2
   0            ) =
     i =1  σ0                    σ0
                                  2


            1
                ∑
                   n
   (n − 1)            ( xi − x ) 2
 =         n − 1 i =1
                σ0
                 2


             1
                 ∑i =1
                    n
   (n − 1)(            ( xi − x ) 2 ) 2
 =          n −1
                σ02


   (n − 1)u 2
 =
      σ0 2

Más contenido relacionado

La actualidad más candente

2014年5月14日_水曜セミナー発表内容_FINAL
2014年5月14日_水曜セミナー発表内容_FINAL2014年5月14日_水曜セミナー発表内容_FINAL
2014年5月14日_水曜セミナー発表内容_FINALTomoshige Nakamura
 
K070 点推定
K070 点推定K070 点推定
K070 点推定t2tarumi
 
20140512_水曜セミナードラフトv1
20140512_水曜セミナードラフトv120140512_水曜セミナードラフトv1
20140512_水曜セミナードラフトv1Tomoshige Nakamura
 
異常検知と変化検知 第4章 近傍法による異常検知
異常検知と変化検知 第4章 近傍法による異常検知異常検知と変化検知 第4章 近傍法による異常検知
異常検知と変化検知 第4章 近傍法による異常検知Ken'ichi Matsui
 
卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-Tomoshige Nakamura
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ssuserf4860b
 
相互情報量を用いた独立性の検定
相互情報量を用いた独立性の検定相互情報量を用いた独立性の検定
相互情報量を用いた独立性の検定Joe Suzuki
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法Ken'ichi Matsui
 
2016年度秋学期 応用数学(解析) 第5回 微分方程式とは,変数分離形 (2016. 10. 27)
2016年度秋学期 応用数学(解析) 第5回 微分方程式とは,変数分離形 (2016. 10. 27)2016年度秋学期 応用数学(解析) 第5回 微分方程式とは,変数分離形 (2016. 10. 27)
2016年度秋学期 応用数学(解析) 第5回 微分方程式とは,変数分離形 (2016. 10. 27)Akira Asano
 
第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)Shin Asakawa
 
Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Shintaro Fukushima
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-Joe Suzuki
 
第5章 統計的仮説検定 (Rによるやさしい統計学)
第5章 統計的仮説検定 (Rによるやさしい統計学)第5章 統計的仮説検定 (Rによるやさしい統計学)
第5章 統計的仮説検定 (Rによるやさしい統計学)Prunus 1350
 

La actualidad más candente (20)

2014年5月14日_水曜セミナー発表内容_FINAL
2014年5月14日_水曜セミナー発表内容_FINAL2014年5月14日_水曜セミナー発表内容_FINAL
2014年5月14日_水曜セミナー発表内容_FINAL
 
C05
C05C05
C05
 
K070 点推定
K070 点推定K070 点推定
K070 点推定
 
20140512_水曜セミナードラフトv1
20140512_水曜セミナードラフトv120140512_水曜セミナードラフトv1
20140512_水曜セミナードラフトv1
 
異常検知と変化検知 第4章 近傍法による異常検知
異常検知と変化検知 第4章 近傍法による異常検知異常検知と変化検知 第4章 近傍法による異常検知
異常検知と変化検知 第4章 近傍法による異常検知
 
C02
C02C02
C02
 
卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
 
相互情報量を用いた独立性の検定
相互情報量を用いた独立性の検定相互情報量を用いた独立性の検定
相互情報量を用いた独立性の検定
 
PRML セミナー
PRML セミナーPRML セミナー
PRML セミナー
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
 
2016年度秋学期 応用数学(解析) 第5回 微分方程式とは,変数分離形 (2016. 10. 27)
2016年度秋学期 応用数学(解析) 第5回 微分方程式とは,変数分離形 (2016. 10. 27)2016年度秋学期 応用数学(解析) 第5回 微分方程式とは,変数分離形 (2016. 10. 27)
2016年度秋学期 応用数学(解析) 第5回 微分方程式とは,変数分離形 (2016. 10. 27)
 
第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)
 
偏微分と連続
偏微分と連続偏微分と連続
偏微分と連続
 
Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Numpy scipyで独立成分分析
Numpy scipyで独立成分分析
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-
 
prml4.1.3-4.1.4
prml4.1.3-4.1.4prml4.1.3-4.1.4
prml4.1.3-4.1.4
 
第5章 統計的仮説検定 (Rによるやさしい統計学)
第5章 統計的仮説検定 (Rによるやさしい統計学)第5章 統計的仮説検定 (Rによるやさしい統計学)
第5章 統計的仮説検定 (Rによるやさしい統計学)
 
Prml 4.1.1
Prml 4.1.1Prml 4.1.1
Prml 4.1.1
 

Similar a 080 統計的推測 検定

コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) Takahiro (Poly) Horikawa
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論sleepy_yoshi
 
Jokyonokai
JokyonokaiJokyonokai
Jokyonokainwpmq516
 
Jokyonokai
JokyonokaiJokyonokai
Jokyonokainwpmq516
 
086 独立性の検定
086 独立性の検定086 独立性の検定
086 独立性の検定t2tarumi
 
Distributed Stochastic Gradient MCMC
Distributed Stochastic Gradient MCMCDistributed Stochastic Gradient MCMC
Distributed Stochastic Gradient MCMCKaede Hayashi
 
カーネル法:正定値カーネルの理論
カーネル法:正定値カーネルの理論カーネル法:正定値カーネルの理論
カーネル法:正定値カーネルの理論Daiki Tanaka
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論sleepy_yoshi
 
030 2変数の集計
030 2変数の集計030 2変数の集計
030 2変数の集計t2tarumi
 
量子アニーリング解説 1
量子アニーリング解説 1量子アニーリング解説 1
量子アニーリング解説 1Kohta Ishikawa
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布t2tarumi
 
コホート研究 isseing333
コホート研究 isseing333コホート研究 isseing333
コホート研究 isseing333Issei Kurahashi
 
Infomation geometry(overview)
Infomation geometry(overview)Infomation geometry(overview)
Infomation geometry(overview)Yoshitake Misaki
 

Similar a 080 統計的推測 検定 (20)

分布 isseing333
分布 isseing333分布 isseing333
分布 isseing333
 
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
 
linhyp.pdf
linhyp.pdflinhyp.pdf
linhyp.pdf
 
Jokyonokai
JokyonokaiJokyonokai
Jokyonokai
 
Jokyonokai
JokyonokaiJokyonokai
Jokyonokai
 
ndwave6.pdf
ndwave6.pdfndwave6.pdf
ndwave6.pdf
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
2013 03 25
2013 03 252013 03 25
2013 03 25
 
086 独立性の検定
086 独立性の検定086 独立性の検定
086 独立性の検定
 
Distributed Stochastic Gradient MCMC
Distributed Stochastic Gradient MCMCDistributed Stochastic Gradient MCMC
Distributed Stochastic Gradient MCMC
 
ndwave7.pdf
ndwave7.pdfndwave7.pdf
ndwave7.pdf
 
カーネル法:正定値カーネルの理論
カーネル法:正定値カーネルの理論カーネル法:正定値カーネルの理論
カーネル法:正定値カーネルの理論
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
 
030 2変数の集計
030 2変数の集計030 2変数の集計
030 2変数の集計
 
量子アニーリング解説 1
量子アニーリング解説 1量子アニーリング解説 1
量子アニーリング解説 1
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
 
コホート研究 isseing333
コホート研究 isseing333コホート研究 isseing333
コホート研究 isseing333
 
ndwave8.pdf
ndwave8.pdfndwave8.pdf
ndwave8.pdf
 
Infomation geometry(overview)
Infomation geometry(overview)Infomation geometry(overview)
Infomation geometry(overview)
 

Más de t2tarumi

K090 仮説検定
K090 仮説検定K090 仮説検定
K090 仮説検定t2tarumi
 
K060 中心極限定理clt
K060 中心極限定理cltK060 中心極限定理clt
K060 中心極限定理cltt2tarumi
 
K050 t分布f分布
K050 t分布f分布K050 t分布f分布
K050 t分布f分布t2tarumi
 
K040 確率分布とchi2分布
K040 確率分布とchi2分布K040 確率分布とchi2分布
K040 確率分布とchi2分布t2tarumi
 
K030 appstat201203 2variable
K030 appstat201203 2variableK030 appstat201203 2variable
K030 appstat201203 2variablet2tarumi
 
K020 appstat201202
K020 appstat201202K020 appstat201202
K020 appstat201202t2tarumi
 
K010 appstat201201
K010 appstat201201K010 appstat201201
K010 appstat201201t2tarumi
 
K080 区間推定
K080 区間推定K080 区間推定
K080 区間推定t2tarumi
 
000 統計学入門 目標
000 統計学入門 目標000 統計学入門 目標
000 統計学入門 目標t2tarumi
 
076 母比率の推定
076 母比率の推定076 母比率の推定
076 母比率の推定t2tarumi
 
060 期待値・中心極限定理
060 期待値・中心極限定理060 期待値・中心極限定理
060 期待値・中心極限定理t2tarumi
 
040 相関
040 相関040 相関
040 相関t2tarumi
 
020 1変数の集計
020 1変数の集計020 1変数の集計
020 1変数の集計t2tarumi
 
010 統計学とは
010 統計学とは010 統計学とは
010 統計学とはt2tarumi
 

Más de t2tarumi (14)

K090 仮説検定
K090 仮説検定K090 仮説検定
K090 仮説検定
 
K060 中心極限定理clt
K060 中心極限定理cltK060 中心極限定理clt
K060 中心極限定理clt
 
K050 t分布f分布
K050 t分布f分布K050 t分布f分布
K050 t分布f分布
 
K040 確率分布とchi2分布
K040 確率分布とchi2分布K040 確率分布とchi2分布
K040 確率分布とchi2分布
 
K030 appstat201203 2variable
K030 appstat201203 2variableK030 appstat201203 2variable
K030 appstat201203 2variable
 
K020 appstat201202
K020 appstat201202K020 appstat201202
K020 appstat201202
 
K010 appstat201201
K010 appstat201201K010 appstat201201
K010 appstat201201
 
K080 区間推定
K080 区間推定K080 区間推定
K080 区間推定
 
000 統計学入門 目標
000 統計学入門 目標000 統計学入門 目標
000 統計学入門 目標
 
076 母比率の推定
076 母比率の推定076 母比率の推定
076 母比率の推定
 
060 期待値・中心極限定理
060 期待値・中心極限定理060 期待値・中心極限定理
060 期待値・中心極限定理
 
040 相関
040 相関040 相関
040 相関
 
020 1変数の集計
020 1変数の集計020 1変数の集計
020 1変数の集計
 
010 統計学とは
010 統計学とは010 統計学とは
010 統計学とは
 

080 統計的推測 検定

  • 1. 統計的推測 2   Statistical Inference 検定
  • 2. 検定 testing 仮説検定 Hypothesis testing 母集団の特性値についてある情報を持っ ている その情報が正しいか否かを知りたい 帰無仮説と対立仮説 null hypothesis/ alternative hypotheis
  • 3. 仮説検定の考え方 H 0 : µ = µ0 帰無仮説 (null hypothesis) H1 : µ ≠ µ 0 対立仮説 (alternative hypothesis) のどちらが尤もらしいか、データに基づいて確率的に判定 検定の誤り 第1種の誤り 帰無仮説が正しいときに棄 却 第2種の誤り 帰無仮説が正しくないとき に受容 両方の誤りの確率をできるだけ小さくし
  • 4. 有意水準 (significance level) 第1種の誤りの確率を「有意水準」以下 に抑え、その上で、第2種の誤りの確率 を最小化する。H } ≤ α Pr{H | 1 0 という条件で Pr{H 0 | H1} → 最小化 有意水準 α としては、 0.05 、 0.01 とい う値が例ではよく使われる
  • 5. 「有意」 (significance) とは H0 を棄却したとき、その結論が誤ってい る(第1種の誤り)確率は高々有意水準 α H0 を受容したとき、その結論が誤ってい る(第2種の誤り)確率は計算できない 場合がおおい。 このため最悪の場合を考えると H0 を受容 しても、それが誤りである確率は大きい と考える ==>この結論には意味が無い
  • 6. P 値 (P-value) 多くの統計ソフトでは、検定統計量の値とともに「 P 値」が表示される。 P 値とは検定結果を有意にする( H0 を棄却する)最小 の有意水準のこと 有意水準 α をいくらにすれば有意になるか 逆に言えば P 値< α    有意 P 値> α    有意でない
  • 7. 検定統計量の作り方 H0 を正しいと仮定して、データから求め た統計量が得られる確率を計算 その確率が小さいとき、 確率が小さい(めずらしい)ことがたまたま 起きた データ得られている以上、確率は小さくない はず H0 を正しいと仮定したので確率がちいさく なった H0 は正しくない
  • 8. 棄却域と受容域 棄却域 (rejection region)      R 受容域 (acceptance region)     A    帰無仮説 H0 を正しいと仮定して、 検定統計量 T=T(X1,…,Xn) の分布を求め、 T∈R  => H0 を reject T∈A  => H0 を accept 言うまでもなく、   T∪A=[-∞,∞], Pr(T ∈R|H0)=α
  • 9. 正規分布の母平均の検定 (分散既知) データ    X 1 , X 2 , , X n~NID ( µ , σ 2 ) 仮説    H 0 : µ = µ 0    H1 : µ ≠ µ 0 有意水準 α  より H 0を正しいと仮定すると    Z > kα / 2 ) = α Pr(    X 1 , X 2 , , X n~NID ( µ 0 , σ ) 2 となるkα / 2を数表から求め n Xi 2 σ     X = ∑ ~N ( µ 0   ) ,    > kα / 2    帰無仮説H 0を棄却 Z ⇒ i =1 n n     Z = X − µ0  ~ N (0,1)    ≤ kα / 2    帰無仮説H 0を受容 Z ⇒ σ2 n
  • 10. シミュレーション > (ntest 10 0.05) 有意水準 α=0.05 で検定し NoSig NIL > (ntest 10 0.05) 有意水準 α=0.05 で検定し NoSig NIL > (ntest 10 0.05) 有意水準 α=0.05 で検定し Significant T > (def rslt (ntest-sim 100 10 0.05)) RSLT 有意水準 α=0.05 での検定を 100 回 > rslt シミュレーションで繰り返した (NIL NIL NIL NIL NIL NIL  途中省略 NIL NIL NIL NIL) > (which rslt) 100 回中、第 28 回目と、 29 回目の (28 29) 2 回が significant
  • 11. > (which (ntest-sim 100 10 0.05)) 100 回中、 5 回が significant (13 53 64 80 94) > (which (ntest-sim 100 10 0.05)) 100 回中、 6 回が significant (1 34 36 52 66 80) 100 回中何回有意になるか、 有意の回数の分布はどんなものか?
  • 12. 有意水準 0.05 の検定で 100 回 中、 有意になる回数の分布 > (def data (hist-sig 1000 100 10 0.05)) DATA > (fivnum data) (0 3 5 6 13) > (def gh (histogram data)) GH > (send gh :num-bins 14) 14 > (send gh :bin-counts) (36 65 153 182 188 151 99 73 26 19 5 2 1 0)
  • 13. 正規分布の母平均の検定(分散未 知) H 0 : µ = µ0 H1 : µ ≠ µ 0 X − µ0 X − µ0 Z= ~ N (0,1),   T = ~ t n −1 σ 2 u2 n n 有意水準αよりtα / 2 (n − 1)を求める    T > tα / 2 (n − 1)) = α Pr( T > tα / 2 (n − 1) ⇒ 帰無仮説H 0を棄却 その他の場合 ⇒ 帰無仮説H 0を受容
  • 14. 母分散の検定(平均未知) 仮説 χ 0 > χ n −1 (α / 2)または 2 2  H 0 : σ 2 = σ 0 2 χ 0 < χ n −1 (1 − α / 2)     H 0棄却 2 2 ⇒  H1 : σ 2 ≠ σ 0 2 その他の場合      H 0受容 ⇒ データ  X 1 , X 2 ,  , X n~N ( µ , σ 0 ) 2 帰無仮説 H 0 が真のとき Xi − X 2 n  χ = ∑ ( 2 0 ) ~χ n −1 2 i =1 σ0
  • 15. 検定統計量 ∑i =1 n n xi − x 2 ( xi − x ) 2 χ = ∑( 2 0 ) = i =1 σ0 σ0 2 1 ∑ n (n − 1) ( xi − x ) 2 = n − 1 i =1 σ0 2 1 ∑i =1 n (n − 1)( ( xi − x ) 2 ) 2 = n −1 σ02 (n − 1)u 2 = σ0 2