SlideShare una empresa de Scribd logo
1 de 56
11 모집단과
표본 추정하기
  예측하기
표본     모집단



표본에서 모집단을 추정.
모집단에서 표본을 추정.
표본에서 모집단으로

표본에서 모집단의 평균값과 분산
추정


61.9   62.6   63.3   64.8   65.1

66.4   67.1   67.2   68.7   69.9
모집단의 평균값 추정

표본의 평균값을 모집단의 평균값
으로 사용.
            거의 동일하다고 기대
도수




     표본         모집단

            맛 지속시간
점추정(point estimator)
점추정(point estimator)

표본의 평균값이 모집단의 평균값과 정확
히 일치한다고 할 수 없다.
점추정(point estimator)

표본의 평균값이 모집단의 평균값과 정확
히 일치한다고 할 수 없다.
그러나, 최선의 예측.
점추정(point estimator)

표본의 평균값이 모집단의 평균값과 정확
히 일치한다고 할 수 없다.
그러나, 최선의 예측.
표본의 평균값은 모집단의 평균값을 위한
점추정이라 한다.
점추정(point estimator)

표본의 평균값이 모집단의 평균값과 정확
히 일치한다고 할 수 없다.
그러나, 최선의 예측.
표본의 평균값은 모집단의 평균값을 위한
점추정이라 한다.
점추정은 모집단의 평균값을 추정하기 위
해 표본의 데이터에 기초한 계산.
점추정



점추정은
모집단 파라미터의 근사치를
구할 수 있다.
점추정



점추정은 ^ 기호를 사용

모집단의 평균값 : μ
점추정 :
표본의 평균값



x̅ = ∑ x / n

모집단의 평균값을 표본의 평균값을 이용해
서 추정.
연필을 깎으며...

표본의 데이터가 아래와 같을 경우
모집단의 평균값은?


61.9    62.6   63.3   64.8   65.1

66.4    67.1   67.2   68.7   69.9
표본이 편향된 경우



표본이 편향된 경우 점추정이 정확하지 않다.
표본의 크기가 클수록 점추정값들이 정확해
진다.
모집단의 분산 추정

 표본의 분산으로 모집단의 분산을
 추정하는 것은 최선의 방법이 아니
 다.
도수         표본에는 더 적은 수의 값이 포함되어,
           극단적인 값들이 포함되지 않을 가능
                   성이 높다




      표본           모집단

                맛 지속시간
모집단의 분산 추정

표본의 분산보다 좀 더 높은 값을 제공하는
함수가 필요.
연필을 깎으며...

표본의 데이터가 아래와 같을 경우
모집단의 분산은?

61.9    62.6   63.3   64.8   65.1

66.4    67.1   67.2   68.7   69.9
연필을 깎으며...

표본의 데이터가 아래와 같을 경우
모집단의 분산은?

61.9    62.6   63.3   64.8   65.1

66.4    67.1   67.2   68.7   69.9


        6.23 < 6.92
 (n-1에 의해 분산이 더 커졌다)
표본 비율에서 모집단 비율
표본 비율에서 모집단 비율


40명의 사람중 32명이 좋아하고,
8명은 좋아하지 않는다.
표본 비율에서 모집단 비율


40명의 사람중 32명이 좋아하고,
8명은 좋아하지 않는다.
즉, 32/40 = 0.8 비율.
표본 비율에서 모집단 비율


40명의 사람중 32명이 좋아하고,
8명은 좋아하지 않는다.
즉, 32/40 = 0.8 비율.
표본의 성공 비율로
모집단의 성공 비율 추정 가능.
표본 비율에서 모집단 비율




Ps = 성공의 횟수 / 표본의 크기
모집단에서의 성공 비율에 대한 점추정도 0.8
확률과 비율의 관계


성공을 얻을 확률을 계산하는 것과 성공의 비
율을 계산하는 과정은 완전히 똑같다.
5개질문에 성공 확률과 비율 => 3/5


   1   1   0   0   1
표본의 비율에 대한 확률


모집단의 25%가 빨간색 풍선껌.
하나의 박스에 100개의 풍선껌.
하나의 박스를 선택했을 때
빨간색 풍선껌이
40%가 있을 확률.
표본의 확률
표본의 확률

모든 표본에 대한 비율 검사.
표본의 확률

모든 표본에 대한 비율 검사.
표본의 비율에 대한
기대치와 분산 계산.
표본의 확률

모든 표본에 대한 비율 검사.
표본의 비율에 대한
기대치와 분산 계산.
비율의 분포를 이용하여
표본의 확률을 계산.
비율의 표본분포


 X~B(n,p)   Ps = X/n

표본 각각의 분포는 이항분포에 따른다.
각 표본에 대한 빨강 풍선껌의 비율에 대한
분포를 비율의 표본분포 또는
Ps의 분포라고 한다.
Ps 의 기대치?

모집단의 빨간 풍선껌의 비율이 25% 이므로
표본의 비율도 25%와 비슷할 것이다.
E(Ps) = E(X/n) = E(X)/n
      = np/n = p
X~B(n,p), E(X)=np
Ps 의 분산?

Var(Ps) = Var(X/n) = Var(X)/n2
= npq / n2 = pq / n
Var(ax) = a2Var(x)
X~B(n,p), Var(X)=npq
비율의 표준오차=√(pq/n)
Ps의 분포

E(Ps)=p, Var(Ps)=pq/n
n의 값이 클 때 Ps의 분포
                        기대치=P




           분산=pq/n
Ps는 정규분포

일반적으로 30<n 큰 경우
정규분포를 따른다.
Ps~N(p, pq/n)
Ps = X/n, 연속성 보정 = ±(1/2)
Ps 에 대한 연속성 보정
= ±(1/2)/n = ±1/2n
연습문제



모집단 빨간 풍선껌 25%,
100개의 풍선껌을 담고 있는 상자에 40%가
빨강색일 확률?
모집단과 표본
모집단과 표본


표본을 이용해서 모집단을 예측.
모집단과 표본


표본을 이용해서 모집단을 예측.
모집단에 대한 지식을 활용해서 표
본을 예측.
표본 평균값의 확률



봉지 포장에 풍선껌의 개수는 10개이고 분산
은 1이다.
30봉지를 구입했는데,
풍선껌의 평균값이 8.5 였다?
표본 평균값의 확률
표본 평균값의 확률

모든 표본에 대한 평균값 검사.
표본 평균값의 확률

모든 표본에 대한 평균값 검사.
표본의 평균값에 대한
기대치와 분산 계산.
표본 평균값의 확률

모든 표본에 대한 평균값 검사.
표본의 평균값에 대한
기대치와 분산 계산.
표본 평균값의 분포를 이용하여
표본의 확률을 계산.
봉지 하나에 대한 기대치, 분산




하나의 봉지 포장에 대한 풍선껌의 수
E(X)= μ , Var(X)=σ2
여러 봉지 표본


N개로 구성된 봉지로 이루어진 표본에 담긴
풍선껌
x̅ = (x1 + x2 + ... + xn) / n
평균값들이 형성하는 분포를 평균값의 표본
분포 혹은 x̅의 분포라고 한다.
x̅ 의 기대치?

E(x̅) = E((x1 + x2 + ... + xn) / n)
= 1/n (E(x1) + E(x2) + ... + E(xn))
= 1/n (μ+μ+...+μ)
= 1/n (nμ)
=μ
모든 표본이 갖는 평균값의 기대치는
모집단의 평균값과 같다.
x̅ 의 분산?

var(x̅) = var((x1+x2+...+xn)/n)
= var(1/n*x1+1/n*x2+...+1/n*xn)
= var(1/n*x1)+var(1/n*x2)+...+var(1/n*xn)
= (1/n)2*(var(x1)+var(x2)+...+var(xn))
= (1/n)2*nσ2
= σ2/n
평균값의 표준오차=σ/√n
평균값의 표준오차
     평균값의 표준오차=σ/√n

도수         x̅의 분포




                    봉지당 풍선껌의 수
x̅ 의 분포?

x 가 정규분포면 x̅ 정규분포?




만약 x~n(μ, σ2)이면 x̅~n(μ, σ2/n)
중심극한정리
(central limit theorem)
중심극한정리
  (central limit theorem)

정규분포를 따르지 않는 모집단 x에서 어떤 표본
을 추출했을 때,
표본의 크기가 충분히 크면 x̅분포가 근사적으로
정규분포이다.
중심극한정리
   (central limit theorem)

정규분포를 따르지 않는 모집단 x에서 어떤 표본
을 추출했을 때,
표본의 크기가 충분히 크면 x̅분포가 근사적으로
정규분포이다.

x̅~n(μ, σ2/n) ☞ x가 정규분포일때와 동일.
중심극한정리
   (central limit theorem)

정규분포를 따르지 않는 모집단 x에서 어떤 표본
을 추출했을 때,
표본의 크기가 충분히 크면 x̅분포가 근사적으로
정규분포이다.

x̅~n(μ, σ2/n) ☞ x가 정규분포일때와 동일.

단, x가 정규분포이면 표본의 크기는 상관없음.
중심극한정리와 이항분포



n이 30보다 클 때 X~B(n,p)인 모집단있을 때,
μ=np이고, σ=npq 이다.
중심극한정리에 의해
x̅~N(np, pq)
중심극한정리와 포아송분


n이 30보다 클 때 X-Po(λ)인 모집단이 있을 때,
μ = σ2 = λ 이다.
중심극한정리에 의해
x̅~N(μ, σ2/n) ☞ x̅~N(λ, λ/n)
연습문제


봉지에 담긴 풍선껌 수의 평균값은 10, 분산
은 1 이다.
30개의 봉지로 이루어진 표본을 취했을 때 봉
지 당 풍선껌의 표본 평균값이 8.5 이하일 확
률?

Más contenido relacionado

Similar a Hfs ch11

통계 기초 용어1
통계 기초 용어1통계 기초 용어1
통계 기초 용어1Seong-Bok Lee
 
0228 2 sample_distribution
0228 2 sample_distribution0228 2 sample_distribution
0228 2 sample_distributionJeonghun Yoon
 
0307 1 estimation_theory
0307 1 estimation_theory0307 1 estimation_theory
0307 1 estimation_theoryJeonghun Yoon
 
Probability with MLE, MAP
Probability with MLE, MAPProbability with MLE, MAP
Probability with MLE, MAPJunho Lee
 
랜덤Walks, 몬테카를로 시뮬레이션
랜덤Walks, 몬테카를로 시뮬레이션랜덤Walks, 몬테카를로 시뮬레이션
랜덤Walks, 몬테카를로 시뮬레이션Sunggon Song
 
Chapter 16 structured probabilistic models for deep learning - 2
Chapter 16 structured probabilistic models for deep learning - 2Chapter 16 structured probabilistic models for deep learning - 2
Chapter 16 structured probabilistic models for deep learning - 2KyeongUkJang
 
Ensemble Model (Hybrid model)
Ensemble Model (Hybrid model)Ensemble Model (Hybrid model)
Ensemble Model (Hybrid model)Jeonghun Yoon
 
[확률통계]04모수추정
[확률통계]04모수추정[확률통계]04모수추정
[확률통계]04모수추정jaypi Ko
 
03. linear regression
03. linear regression03. linear regression
03. linear regressionJeonghun Yoon
 
0221 basic probability theory
0221 basic probability theory0221 basic probability theory
0221 basic probability theoryJeonghun Yoon
 
5.model evaluation and improvement
5.model evaluation and improvement5.model evaluation and improvement
5.model evaluation and improvementHaesun Park
 
Mathematical Structures for CS [Chapter3]456
Mathematical Structures for CS [Chapter3]456Mathematical Structures for CS [Chapter3]456
Mathematical Structures for CS [Chapter3]456codevania
 
11_통계 자료분석 입문
11_통계 자료분석 입문11_통계 자료분석 입문
11_통계 자료분석 입문noerror
 
연구학교 데이터분석
연구학교 데이터분석 연구학교 데이터분석
연구학교 데이터분석 성훈 김
 

Similar a Hfs ch11 (20)

표집
표집표집
표집
 
통계 기초 용어1
통계 기초 용어1통계 기초 용어1
통계 기초 용어1
 
0228 2 sample_distribution
0228 2 sample_distribution0228 2 sample_distribution
0228 2 sample_distribution
 
Decision tree
Decision treeDecision tree
Decision tree
 
0307 1 estimation_theory
0307 1 estimation_theory0307 1 estimation_theory
0307 1 estimation_theory
 
07. PCA
07. PCA07. PCA
07. PCA
 
08.추정
08.추정08.추정
08.추정
 
Probability with MLE, MAP
Probability with MLE, MAPProbability with MLE, MAP
Probability with MLE, MAP
 
0314 1 anova
0314 1 anova0314 1 anova
0314 1 anova
 
랜덤Walks, 몬테카를로 시뮬레이션
랜덤Walks, 몬테카를로 시뮬레이션랜덤Walks, 몬테카를로 시뮬레이션
랜덤Walks, 몬테카를로 시뮬레이션
 
Chapter 16 structured probabilistic models for deep learning - 2
Chapter 16 structured probabilistic models for deep learning - 2Chapter 16 structured probabilistic models for deep learning - 2
Chapter 16 structured probabilistic models for deep learning - 2
 
Ensemble Model (Hybrid model)
Ensemble Model (Hybrid model)Ensemble Model (Hybrid model)
Ensemble Model (Hybrid model)
 
[확률통계]04모수추정
[확률통계]04모수추정[확률통계]04모수추정
[확률통계]04모수추정
 
06.확률분포
06.확률분포06.확률분포
06.확률분포
 
03. linear regression
03. linear regression03. linear regression
03. linear regression
 
0221 basic probability theory
0221 basic probability theory0221 basic probability theory
0221 basic probability theory
 
5.model evaluation and improvement
5.model evaluation and improvement5.model evaluation and improvement
5.model evaluation and improvement
 
Mathematical Structures for CS [Chapter3]456
Mathematical Structures for CS [Chapter3]456Mathematical Structures for CS [Chapter3]456
Mathematical Structures for CS [Chapter3]456
 
11_통계 자료분석 입문
11_통계 자료분석 입문11_통계 자료분석 입문
11_통계 자료분석 입문
 
연구학교 데이터분석
연구학교 데이터분석 연구학교 데이터분석
연구학교 데이터분석
 

Más de Kyungryul KIM

전문검색기술도전
전문검색기술도전전문검색기술도전
전문검색기술도전Kyungryul KIM
 
Nib_NSWindowController
Nib_NSWindowControllerNib_NSWindowController
Nib_NSWindowControllerKyungryul KIM
 
서버인프라를지탱하는기술5 1 2
서버인프라를지탱하는기술5 1 2서버인프라를지탱하는기술5 1 2
서버인프라를지탱하는기술5 1 2Kyungryul KIM
 
Chaper24 languages high_and_low
Chaper24 languages high_and_lowChaper24 languages high_and_low
Chaper24 languages high_and_lowKyungryul KIM
 
Ch22 운영체제
Ch22 운영체제Ch22 운영체제
Ch22 운영체제Kyungryul KIM
 

Más de Kyungryul KIM (20)

Ch4 pugixml
Ch4 pugixmlCh4 pugixml
Ch4 pugixml
 
Node ch12
Node ch12Node ch12
Node ch12
 
11.scripting
11.scripting11.scripting
11.scripting
 
32 osx app_release
32 osx app_release32 osx app_release
32 osx app_release
 
Meteor ddp
Meteor ddpMeteor ddp
Meteor ddp
 
Cocos2dx 7.1-7.2
Cocos2dx 7.1-7.2Cocos2dx 7.1-7.2
Cocos2dx 7.1-7.2
 
Cocos2 d x-7.3_4
Cocos2 d x-7.3_4Cocos2 d x-7.3_4
Cocos2 d x-7.3_4
 
Cocos2d x-ch5-1
Cocos2d x-ch5-1Cocos2d x-ch5-1
Cocos2d x-ch5-1
 
Coco2d x
Coco2d xCoco2d x
Coco2d x
 
23 drag drop
23 drag drop23 drag drop
23 drag drop
 
Hadoop ch5
Hadoop ch5Hadoop ch5
Hadoop ch5
 
전문검색기술도전
전문검색기술도전전문검색기술도전
전문검색기술도전
 
Nib_NSWindowController
Nib_NSWindowControllerNib_NSWindowController
Nib_NSWindowController
 
Dsas
DsasDsas
Dsas
 
서버인프라를지탱하는기술5 1 2
서버인프라를지탱하는기술5 1 2서버인프라를지탱하는기술5 1 2
서버인프라를지탱하는기술5 1 2
 
Chaper24 languages high_and_low
Chaper24 languages high_and_lowChaper24 languages high_and_low
Chaper24 languages high_and_low
 
Ch22 운영체제
Ch22 운영체제Ch22 운영체제
Ch22 운영체제
 
Mibis ch20
Mibis ch20Mibis ch20
Mibis ch20
 
Mibis ch15
Mibis ch15Mibis ch15
Mibis ch15
 
Mibis ch8
Mibis ch8Mibis ch8
Mibis ch8
 

Hfs ch11

Notas del editor

  1. \n
  2. \n
  3. &amp;#xD48D;&amp;#xC120;&amp;#xAECC;&amp;#xC758; &amp;#xD5A5;&amp;#xC774; &amp;#xC5BC;&amp;#xB9C8;&amp;#xB098; &amp;#xC624;&amp;#xB798; &amp;#xAC00;&amp;#xB294;&amp;#xC9C0;?\n&amp;#xD45C;&amp;#xBCF8;&amp;#xC758; &amp;#xD3C9;&amp;#xADE0;&amp;#xAC12;/&amp;#xBD84;&amp;#xC0B0;&amp;#xC73C;&amp;#xB85C; &amp;#xBAA8;&amp;#xC9D1;&amp;#xB2E8;&amp;#xC758; &amp;#xD3C9;&amp;#xADE0;&amp;#xAC12;/&amp;#xBD84;&amp;#xC0B0;&amp;#xC744; &amp;#xCD94;&amp;#xC815;&amp;#xD558;&amp;#xC790;.\n
  4. \n
  5. \n
  6. \n
  7. \n
  8. \n
  9. \n
  10. \n
  11. xbar &amp;#xB294; &amp;#xD45C;&amp;#xBCF8;&amp;#xC758; &amp;#xD3C9;&amp;#xADE0;&amp;#xAC12;.\n
  12. &amp;#xBBA4;&amp;#xCE90;&amp;#xB7FF; = &amp;#xC5D1;&amp;#xC2A4;&amp;#xBC14; = 65.7\n
  13. \n
  14. \n
  15. &amp;#xD45C;&amp;#xBCF8;&amp;#xC758; &amp;#xD06C;&amp;#xAE30;&amp;#xAC00; &amp;#xC791;&amp;#xB2E4;&amp;#xB294; &amp;#xAC83;&amp;#xC740; &amp;#xD45C;&amp;#xBCF8;&amp;#xC758; &amp;#xBD84;&amp;#xC0B0;&amp;#xACFC; &amp;#xBAA8;&amp;#xC9D1;&amp;#xB2E8;&amp;#xC758; &amp;#xBD84;&amp;#xC0B0; &amp;#xC0AC;&amp;#xC774; &amp;#xCC28;&amp;#xC774;&amp;#xB294; &amp;#xD06C;&amp;#xB2E4;.\n&amp;#xD45C;&amp;#xBCF8;&amp;#xC758; &amp;#xC218;&amp;#xC5D0;&amp;#xC11C; 1&amp;#xC744; &amp;#xBE80; &amp;#xAC12;.\n
  16. &amp;#xC2DC;&amp;#xADF8;&amp;#xB9C8;&amp;#xCE90;&amp;#xB7FF;^2 = &amp;#xC2DC;&amp;#xADF8;&amp;#xB9C8;(x-xbar)^2 / (n-1) = 6.92\n62.32 -&gt; 9&amp;#xB85C; &amp;#xB098;&amp;#xB204;&amp;#xB290;&amp;#xB0D0;? 10&amp;#xC73C;&amp;#xB85C; &amp;#xB098;&amp;#xB204;&amp;#xB290;&amp;#xB0D0;?\n&amp;#xC989; &amp;#xBD84;&amp;#xD3EC;&amp;#xAC00; &amp;#xB113;&amp;#xB2E4;.\n
  17. &amp;#xD48D;&amp;#xC120;&amp;#xAECC;&amp;#xC744; &amp;#xC88B;&amp;#xC544;&amp;#xD558;&amp;#xB294;&amp;#xC9C0;?\n
  18. &amp;#xD48D;&amp;#xC120;&amp;#xAECC;&amp;#xC744; &amp;#xC88B;&amp;#xC544;&amp;#xD558;&amp;#xB294;&amp;#xC9C0;?\n
  19. &amp;#xD48D;&amp;#xC120;&amp;#xAECC;&amp;#xC744; &amp;#xC88B;&amp;#xC544;&amp;#xD558;&amp;#xB294;&amp;#xC9C0;?\n
  20. &amp;#xD45C;&amp;#xBCF8;&amp;#xC758; &amp;#xBE44;&amp;#xC728;&amp;#xB85C; &amp;#xBAA8;&amp;#xC9D1;&amp;#xB2E8;&amp;#xC758; &amp;#xBE44;&amp;#xC728;\n40&amp;#xBA85;&amp;#xC5D0;&amp;#xC11C; 50&amp;#xBA85;, 100&amp;#xBA85;&amp;#xC73C;&amp;#xB85C; &amp;#xD45C;&amp;#xBCF8;&amp;#xC774; &amp;#xB298;&amp;#xC5B4;&amp;#xB098;&amp;#xB294; &amp;#xACBD;&amp;#xC6B0;?\n&amp;#xBAA8;&amp;#xC9D1;&amp;#xB2E8;&amp;#xC774; &amp;#xAC16;&amp;#xB294; &amp;#xC131;&amp;#xACF5;&amp;#xC758; &amp;#xBE44;&amp;#xC728;&amp;#xC5D0; &amp;#xB300;&amp;#xD55C; &amp;#xC810;&amp;#xCD94;&amp;#xC810; pcaret = ps &amp;#xD45C;&amp;#xBCF8;&amp;#xC774; &amp;#xAC16;&amp;#xB294; &amp;#xC131;&amp;#xACF5;&amp;#xC758; &amp;#xBE44;&amp;#xC728;\n
  21. \n
  22. &amp;#xBAA8;&amp;#xC9D1;&amp;#xB2E8;&amp;#xC5D0;&amp;#xC11C; &amp;#xD45C;&amp;#xBCF8;&amp;#xC744; &amp;#xC5B4;&amp;#xB5BB;&amp;#xAC8C; &amp;#xCD94;&amp;#xC815;&amp;#xD560;&amp;#xAE4C;?\n&amp;#xB178;&amp;#xB780;&amp;#xC790; &amp;#xB450;&amp;#xAC1C;&amp;#xB97C; &amp;#xAC00;&amp;#xC9C0;&amp;#xB294; &amp;#xB2EC;&amp;#xAC40;&amp;#xC744; &amp;#xC120;&amp;#xD0DD;&amp;#xD560; &amp;#xD655;&amp;#xB960;?\n
  23. \n
  24. \n
  25. \n
  26. ps &amp;#xB294; &amp;#xD45C;&amp;#xBCF8;&amp;#xC774; &amp;#xBE68;&amp;#xAC04;&amp;#xC0C9; &amp;#xD48D;&amp;#xC120;&amp;#xAECC;&amp;#xC758; &amp;#xBE44;&amp;#xC728;.\n&amp;#xB2E4;&amp;#xC74C;&amp;#xC7A5;&amp;#xC5D0;&amp;#xC11C; &amp;#xAE30;&amp;#xB300;&amp;#xCE58;&amp;#xB97C; &amp;#xAD6C;&amp;#xD55C;&amp;#xB2E4;.\n
  27. p502\n&amp;#xC774;&amp;#xD56D;&amp;#xBD84;&amp;#xD3EC;&amp;#xC5D0; &amp;#xC758;&amp;#xD574; &amp;#xB3C4;&amp;#xCD9C;.p338\n\n
  28. &amp;#xBE44;&amp;#xC728;&amp;#xC758; &amp;#xD45C;&amp;#xC900;&amp;#xC624;&amp;#xCC28;=&gt;&amp;#xD45C;&amp;#xC900;&amp;#xD45C;&amp;#xCC28;.\n
  29. \n
  30. p505\n
  31. Ps&amp;#xAC00; &amp;#xBE68;&amp;#xAC04;&amp;#xC0C9; &amp;#xD48D;&amp;#xC120;&amp;#xAECC;&amp;#xC758; &amp;#xBE44;&amp;#xC728;&amp;#xC774;&amp;#xB77C;&amp;#xBA74; &amp;#xBD84;&amp;#xD3EC;&amp;#xB294;?\nPs~N(p, pq/n), p=0.25, q=0.75, n=100. pq/n=0.001875\nP(Ps&gt;=0.4)=P(Ps&gt;0.4 - 1/(2x100))=P(Ps&gt;0.395)\nz=(x-mu)/sigma=3.35\n1-P(z&lt;3.35)=1-0.9996=0.0004\n
  32. \n
  33. \n
  34. \n
  35. \n
  36. \n
  37. \n
  38. &amp;#x3BC;&amp;#xC640; &amp;#x3C3;^2&amp;#xC73C;&amp;#xB85C; &amp;#xAC01;&amp;#xAC01;&amp;#xC744; &amp;#xD45C;&amp;#xD604;&amp;#xD558;&amp;#xC790;.\n
  39. \n
  40. \n
  41. \n
  42. n&amp;#xC774; &amp;#xCEE4;&amp;#xC9C8;&amp;#xC218;&amp;#xB85D; &amp;#xD45C;&amp;#xC900;&amp;#xC624;&amp;#xCC28;&amp;#xB294; &amp;#xC904;&amp;#xC5B4;&amp;#xB4E0;&amp;#xB2E4;.\nn&amp;#xC740; &amp;#xD45C;&amp;#xBCF8;&amp;#xC758; &amp;#xAC1C;&amp;#xC218;\n
  43. \n
  44. \n
  45. \n
  46. \n
  47. \n
  48. \n
  49. \n