SlideShare una empresa de Scribd logo
1 de 50
Descargar para leer sin conexión
Stanでガウス過程
清水裕士
関西学院大学
本発表の目的
• ガウス過程の位置づけを理解する
– 数理的な理解は今回は目的としない
• 線形代数の知識が不可欠なので
– ガウス過程をあてはめることの意味を理解
• Stanでガウス過程を実行する
– 写経を超えて理解できればなおよい
注意
• 本発表の表記
– 小文字(𝑦)はスカラー
– 大文字(𝑌)をベクトルとする
– サンプルサイズは𝑛
ガウス過程のモチベーション
一次式
破線は予測区間
2次式で推定
3次式
4次式
何次式がいいだろうか?
• データに合わせすぎる
– たとえば4次式
– オーバーフィッティング
• モデルが単純すぎる
– たとえば2次式
– モデルと予測が乖離
オーバーフィッティング
• 今回のデータに予測を合わせすぎてしまう
– データはサンプリングの変動を必ず含む
– たまたま高めだったり低めだったりする
– そういう「たまたま」を「真のメカニズム」と判断してし
まい、予測してしまうと、外れる
• パラメータの複雑さについてのジレンマ
– WAICなどの汎化性能を評価する指標も使える
– データから直接いい感じに推定したい
– →ガウス過程回帰
ガウス過程を一言でいうと
• データにうまくフィットする関数を推定する
– 関数系そのものを推定する
– 𝑦𝑖 = 𝑓(𝑥𝑖)
• 𝑖 ∈ 1 … 𝑛
• 普通の線形回帰
– 𝑦𝑖 = 𝑤0 + 𝑤1 𝑥𝑖 + 𝑤2 𝑥𝑖
2
… 𝑤 𝑚 𝑥𝑖
𝑚
– どういう関数形にすればいいのかわかんない
– それ自体を推定するのがガウス過程
ざっくりいえば平滑化手法
• ヒストグラムを平滑化
– カーネル密度推定
• 予測モデルを平滑化
– カーネル回帰
• これらを確率モデルで表現すると・・
– ガウス過程という方法が浮かび上がってくる
古典的平滑化の例
• カーネル密度推定
古典的ノンパラ手法の限界
• 確率モデルの長所を生かせない
– モデル評価がしにくい
– ハイパーパラメータの最適化が困難
ガウス過程を使うと・・
• 自動的に平滑化+予測区間の推定
平滑化も確率モデルで!
• まずはカーネル法の導入
– モデルの見方をちょいと変えれば、パラメータを
消去して、直接データを予測することが可能
– カーネルトリック!
• カーネルトリックの話はちょっと難しい・・
– 理解するにはちょっと数学的な素養が必要
– カーネルトリックがわからなくてもガウス過程は使
える
確率モデルということは・・・
• Yes,Bayesian!
– ベイズ推定が可能
– ノンパラメトリックベイズとは、要は確率過程を用いた
ベイズ推定のこと
• ガウス過程
• ディリクレ過程
• ガウス過程を使うと・・・
– ノンパラモデルをベイズ推定可能になる
– ハイパーパラメータの自動学習もできる
ガウス過程は機械学習の奥義
• ほとんどの機械学習はガウス過程で表現可能
– サポートベクターマシーン
– ディープラーニング
• 中間層のニューロン無限のDNN
– カーネル回帰分析
• ガウス過程回帰
– カーネル主成分分析
• ガウス過程潜在変数モデル(GPLVM)
• 統計のプロからのコメント
– ガウス過程はなんでも上手くいくからおもんない
ガウス過程回帰分析
線形回帰とカーネル回帰
• 普通の線形回帰
– データ𝑌に対して𝑋で線形モデルをあてはめる
• 𝑋は𝑥の𝑚次元多項式
– パラメータ𝑤を求める(切片、回帰係数)
– 𝑦𝑖 = 𝑤0 + 𝑤1 𝑥𝑖 + 𝑤 𝑤 𝑥2
+ ⋯ + 𝑤 𝑚 𝑥 𝑚
• 𝑌 = 𝑋𝑊
基底関数
• 基底関数を使った表現
– 任意の𝑥の基底関数を𝜙(𝑥)とする
• 基底関数・・・𝑥 𝑎
とかsin(𝑥)とかみたいに𝑥から一意に決まる
変換関数
• ここでは上と同じように多項式(べき関数)だけを考えてOK
• 基底関数を使って書き直す
– 𝑦𝑖 = 𝑤0 + 𝑤1 𝜙1(𝑥) + 𝑤2 𝜙2(𝑥) + ⋯ + 𝑤 𝑚 𝜙 𝑚(𝑥)
– 𝑌 = ΦW
– パラメータ𝑤と𝑥、基底関数𝜙から予測値ො𝑦を推定する
確率モデルを考える
• 𝑤が正規分布に従うと仮定する
– 𝑤~𝑁𝑜𝑟𝑚𝑎𝑙 0, 𝜆𝐼 𝑚
• 𝐼 𝑚は𝑚次元単位行列
• 𝜆はスカラー
• これはリッジ回帰と同じ仮定
• 𝑤の確率分布から、𝑌の確率分布を導く
– 𝑌は線形結合による関数なので、𝑌も正規分布にな
ることが想像できる
Yの平均と分散を計算する
• 𝑌の平均と共分散を計算する
– 𝜇 𝑌 = 𝐸 𝑌 = 𝐸 Φ𝑊 𝑇
= Φ𝐸 𝑊 𝑇
= 𝟎
– 𝑛次元の0ベクトル
• 𝑌の共分散行列
– Σ 𝑌 = 𝐸 𝑌𝑌 𝑇 − 𝐸 𝑌 𝐸 𝑌 𝑇 = 𝐸[Φ𝑊 Φ𝑊 𝑇] =
Φ𝐸[𝑊𝑊 𝑇]Φ 𝑇 = 𝜆Φ𝐸 𝐼 𝑚 𝐼 𝑚
𝑇
Φ 𝑇 = 𝜆ΦΦ 𝑇
• 変数×変数ではなく、サンプル×サンプルの共分散行列を考える
• 𝑌の確率モデル
– 𝑌 ~ 𝑀𝑢𝑙𝑡𝑖𝑁𝑜𝑟𝑚𝑎𝑙(𝟎, 𝜆ΦΦ 𝑇
)
– 𝑛変量正規分布
カーネルトリック
• 共分散行列𝜆ΦΦ 𝑇
に注目
– 𝑛 × 𝑛の正方行列で、正定値なものであればなんでも
いい
– つまり、基底関数行列Φがなんであっても、最終的に
はなんらかの共分散行列を指定するだけで、𝑦の確
率モデルが構成できる
• カーネル関数にすべてを還元
– 𝜅 𝑥, 𝑥′
= 𝜆ΦΦ 𝑇
– 関数系Φを具体的に指定せずとも、任意のカーネル
関数を使って共分散行列𝜅 𝑥, 𝑥′ を作ればよい
カーネルトリック
• 内積をとることのメリット
– ΦΦ′つまり𝑥についての多項式の内積をとると、たか
だか𝑛次元の多変量正規分布を考えるだけでよい
• 無限次元の多項式(一般には基底)関数が、有
限次元のカーネル関数で表現できる
– カーネルトリック!
– 𝑚は無限次元でも、データの次元を超える関数形を
考える必要がない、という点がポイント
ガウス過程の確率モデル
• 𝑌~𝑀𝑢𝑙𝑡𝑖𝑁𝑜𝑟𝑚𝑎𝑙 𝟎, 𝜅(𝑥, 𝑥′
)
– サンプルサイズが𝑛の場合、𝑛変量正規分布を考
える
– 𝜅(𝑥, 𝑥′)は𝑛×𝑛の共分散行列を構成する関数
• カーネル関数と呼ぶ
• この共分散行列をどのように決めればいい?
– ガウス過程はカーネル関数をどうするかがすべ
てといって過言ではない
カーネル関数
• ここからが重要!
– ガウス過程のほぼすべてがここに詰まっている
• データポイント間の相関を表現する関数
– 予測変数𝑥とハイパーパラメータを使って、データ
ポイント間の近さを表現するような行列を作る
例:とある時系列データ
• 20個のデータ
– 20次元変量正規分布を考える
– 任意の2点のデータポイントと類似性を表す
𝑥の距離が近いほど𝑦の相関が高くなるようにすれば
なめらかな予測が可能
ガウスカーネル
• よく使われるのがガウスカーネル
– 𝜅 𝑥, 𝑥′ = 𝜃1 exp −
𝑥−𝑥′ 2
2𝜃2
• ガウスカーネルとガウス過程は別物なので注意!
• exp −
𝑥−𝑥′ 2
2
の部分が正規分布の密度関数のカー
ネルと一致している
– RBFやexponential quadric kernelなどと呼ばれる
ガウスカーネルの例
x <- seq(1,5)
n <- length(x)
theta <- 10
kappa <- array(dim=c(n,n))
for(i in 1:n){
for(j in 1:n){
kappa[i,j] <- exp(-(x[i]-x[j])^2/(2*theta))
}
}
kappa
近い点ほど
相関が大き
い
距離が離れると相関が減る
ガウスカーネルのハイパーパラメータ
• 𝜅 𝑥, 𝑥′ = 𝜃1 exp −
𝑥−𝑥′ 2
2𝜃2
– 𝜃1ガウスカーネル自体がどれくらいカーネル関数全
体に寄与しているかを表している
– 𝜃2ガウスカーネルのハイパーパラメータで、距離に応
じてどれくらい相関が小さくなるかの程度
• 𝜃2が大きいほど、なめらかな予測になる
– ただし、これらはすべてMCMCで推定可能
• なんらかの方法で事前に決めてもいい
ガウスカーネルで推定
• なめらかに予測を行うことができる
それ以外にもカーネル関数はある
• 線形カーネル
– 𝜅 𝑥, 𝑥′
= 𝜃𝑥𝑥′
x <- seq(1,5)
n <- length(x)
kappa <- x%*%t(x)
kappa
任意の2点の相関が1
xの分散の応じて分散は
大きくなる
任意のべき乗をいれれば、
多項式回帰と同じにできる
それ以外にもカーネル関数はある
• フィッシャーカーネル
• シグモイドカーネル
• ニューラルネットカーネル
– これはよく知らん!
カーネルを組み合わせる
• よく使われる組み合わせ
– ガウス+線形+ノイズ
– 𝜅 𝑥, 𝑥′ = 𝜃1 exp −
𝑥−𝑥′ 2
2𝜃2
+ 𝜃3 𝑥𝑥 𝑇 + 𝑑𝑖𝑎𝑔(𝜃4)
– これをStanに書けばOK!
ガウス+線形の推定
• ガウスカーネルだけよりも線形的予測が入る
カーネル部分のStanコード
𝜅 𝑥, 𝑥′ = 𝜃1 exp −
𝑥 − 𝑥′ 2
2𝜃2
+ 𝜃3 𝑥𝑥 𝑇 + 𝑑𝑖𝑎𝑔(𝜃4)
今回はガウスカーネル+ノイズで推定
𝑦1と𝑥1のプロット
• 𝑥1は1~20の20個
– 𝑦1はそれに対応する目的変数
– 𝑥が21~30のො𝑦を推定したい
まずは𝑥2を作る
• N2は任意の数
– 推定したい点の数
– 𝑥2は1~30の間を59分割した点
N1 <- nrow(dat)
x1 <- dat$x
y1 <- dat$y
N2 <- 59
x2 <- seq(1,30,length.out = N2)
data.gp <- list(N1 = N1,
N2 = N2,
x1 = x1,
x2 = x2,
y1 = y1)
x2
• この点についてො𝑦を推定する
– 𝑦1に対応する𝑥1と被っていても問題ない
– むしろ、𝑦1の予測値ො𝑦を知りたいこともあるので、
被らせるほうがいいかも
– イメージとしては、既知の𝑦を使ってカーネルのパ
ラメータを推定し、ො𝑦をそこから推定する感じ
コードの解説
• N1
– サンプルサイズ
– 𝑥1と𝑦1は実際にデータとしてとったもの
• N2
– 推定したいො𝑦のサイズ
– X2は推定したいො𝑦に対応する𝑥
コードの解説
• Nはデータ+推定したい点の総数
– すでにあるデータを使って ො𝑦 を推定するためには、
ベクトルを合成しておく必要がある
コードの解説
• theta
– カーネル関数のハイパーパラメータ
• 今回は3つ
• 𝑦2
– 推定したいො𝑦
コードの解説
• ガウス過程の確率モデル
– シンプルに平均0の多変量正規分布
xの分散を入れることでtheta[2]が大きくな
りすぎるのを防いでいる
なくても推定は可能
最終的なRコード
dat <- read.csv("gp_test.csv")
N1 <- nrow(dat)
x1 <- dat$x
y1 <- dat$y
N2 <- 59
x2 <- seq(1,30,length.out = N2)
data.gp <- list(N1 = N1,
N2 = N2,
x1 = x1,
x2 = x2,
y1 = y1)
model.gp <- stan_model("GP_reg.stan")
fit.gp <- sampling(model.gp,
data = data.gp,
iter = 5000,
chains = 4,
cores = 4)
なめらかーに予測
カエルの卵みた
いとか言わない
プロットのためのコード
y2.med <- apply(ext.fit$y2, 2, median)
y2.low <- apply(ext.fit$y2, 2, quantile, probs = 0.05)
y2.high <- apply(ext.fit$y2, 2, quantile, probs = 0.95)
d.est <- data.frame(x=x2, y=y2.med, ymax=y2.high, ymin=y2.low)
d.obs <- data.frame(x=x1, y=y1, ymax=rep(0,N1), ymin=rep(0,N1))
p <- ggplot(d.est, aes(x = x, y = y, ymax=ymax, ymin=ymin))
p <- p + xlab("x") + ylab("y")
p <- p + geom_ribbon(alpha = 1/3)
p <- p + geom_line(aes(y = y), color = "blue")
p <- p + geom_point(data = d.obs)
p
ハイパーパラメータ
• いい感じに推定してくれる
– フルベイズのいい点
まとめ
• ガウス過程
– 回帰の関数を明示的に決めなくても、いい感じの予
測を自動でしてくれるテクニック
– カーネル関数はいろいろあるので、うまくいくものを組
み合わせてみよう
• 回帰以外も使える
– 密度関数や潜在変数モデル、クラスタリングなど、い
ろんな分野にガウス過程は使える
– (若干遅いが)Stanで簡単に実装可能

Más contenido relacionado

La actualidad más candente

PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
Ohsawa Goodfellow
 
5分でわかるベイズ確率
5分でわかるベイズ確率5分でわかるベイズ確率
5分でわかるベイズ確率
hoxo_m
 
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
shima o
 

La actualidad más candente (20)

StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
 
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー階層ベイズと自由エネルギー
階層ベイズと自由エネルギー
 
MCMCでマルチレベルモデル
MCMCでマルチレベルモデルMCMCでマルチレベルモデル
MCMCでマルチレベルモデル
 
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
 
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
WAICとWBICのご紹介
WAICとWBICのご紹介WAICとWBICのご紹介
WAICとWBICのご紹介
 
5分でわかるベイズ確率
5分でわかるベイズ確率5分でわかるベイズ確率
5分でわかるベイズ確率
 
階層ベイズとWAIC
階層ベイズとWAIC階層ベイズとWAIC
階層ベイズとWAIC
 
MCMC法
MCMC法MCMC法
MCMC法
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択
 
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
 
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布について
 
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータStanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
ベイズ主義による研究の報告方法
ベイズ主義による研究の報告方法ベイズ主義による研究の報告方法
ベイズ主義による研究の報告方法
 
RStanとShinyStanによるベイズ統計モデリング入門
RStanとShinyStanによるベイズ統計モデリング入門RStanとShinyStanによるベイズ統計モデリング入門
RStanとShinyStanによるベイズ統計モデリング入門
 
2 3.GLMの基礎
2 3.GLMの基礎2 3.GLMの基礎
2 3.GLMの基礎
 

Similar a Stanでガウス過程

Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
. .
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
Koji Matsuda
 

Similar a Stanでガウス過程 (20)

Or学会用20160915.ver2
Or学会用20160915.ver2Or学会用20160915.ver2
Or学会用20160915.ver2
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
 
Yamadai.Rデモンストレーションセッション
Yamadai.RデモンストレーションセッションYamadai.Rデモンストレーションセッション
Yamadai.Rデモンストレーションセッション
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
 
PRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargePRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in charge
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 
PRML chap.10 latter half
PRML chap.10 latter halfPRML chap.10 latter half
PRML chap.10 latter half
 
第15回 配信講義 計算科学技術特論B(2022)
第15回 配信講義 計算科学技術特論B(2022)第15回 配信講義 計算科学技術特論B(2022)
第15回 配信講義 計算科学技術特論B(2022)
 
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
 
Hyperoptとその周辺について
Hyperoptとその周辺についてHyperoptとその周辺について
Hyperoptとその周辺について
 
「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)
「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)
「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
ニューラルネットワークを用いた自然言語処理
ニューラルネットワークを用いた自然言語処理ニューラルネットワークを用いた自然言語処理
ニューラルネットワークを用いた自然言語処理
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
 
4thNLPDL
4thNLPDL4thNLPDL
4thNLPDL
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 
El text.tokuron a(2019).yoshii190704
El text.tokuron a(2019).yoshii190704El text.tokuron a(2019).yoshii190704
El text.tokuron a(2019).yoshii190704
 

Más de Hiroshi Shimizu

Más de Hiroshi Shimizu (20)

Cmdstanr入門とreduce_sum()解説
Cmdstanr入門とreduce_sum()解説Cmdstanr入門とreduce_sum()解説
Cmdstanr入門とreduce_sum()解説
 
SapporoR#6 初心者セッションスライド
SapporoR#6 初心者セッションスライドSapporoR#6 初心者セッションスライド
SapporoR#6 初心者セッションスライド
 
Tokyo r53
Tokyo r53Tokyo r53
Tokyo r53
 
心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズ心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズ
 
glmmstanパッケージを作ってみた
glmmstanパッケージを作ってみたglmmstanパッケージを作ってみた
glmmstanパッケージを作ってみた
 
媒介分析について
媒介分析について媒介分析について
媒介分析について
 
rstanで簡単にGLMMができるglmmstan()を作ってみた
rstanで簡単にGLMMができるglmmstan()を作ってみたrstanで簡単にGLMMができるglmmstan()を作ってみた
rstanで簡単にGLMMができるglmmstan()を作ってみた
 
社会心理学とGlmm
社会心理学とGlmm社会心理学とGlmm
社会心理学とGlmm
 
Rで潜在ランク分析
Rで潜在ランク分析Rで潜在ランク分析
Rで潜在ランク分析
 
エクセルで統計分析5 マルチレベル分析のやり方
エクセルで統計分析5 マルチレベル分析のやり方エクセルで統計分析5 マルチレベル分析のやり方
エクセルで統計分析5 マルチレベル分析のやり方
 
Rで因子分析 商用ソフトで実行できない因子分析のあれこれ
Rで因子分析 商用ソフトで実行できない因子分析のあれこれRで因子分析 商用ソフトで実行できない因子分析のあれこれ
Rで因子分析 商用ソフトで実行できない因子分析のあれこれ
 
Latent rank theory
Latent rank theoryLatent rank theory
Latent rank theory
 
エクセルでテキストマイニング TTM2HADの使い方
エクセルでテキストマイニング TTM2HADの使い方エクセルでテキストマイニング TTM2HADの使い方
エクセルでテキストマイニング TTM2HADの使い方
 
マルチレベルモデル講習会 実践編
マルチレベルモデル講習会 実践編マルチレベルモデル講習会 実践編
マルチレベルモデル講習会 実践編
 
マルチレベルモデル講習会 理論編
マルチレベルモデル講習会 理論編マルチレベルモデル講習会 理論編
マルチレベルモデル講習会 理論編
 
Excelでも統計分析 HADについて SappoRo.R#3
Excelでも統計分析 HADについて SappoRo.R#3Excelでも統計分析 HADについて SappoRo.R#3
Excelでも統計分析 HADについて SappoRo.R#3
 
エクセルで統計分析2 HADの使い方
エクセルで統計分析2 HADの使い方エクセルで統計分析2 HADの使い方
エクセルで統計分析2 HADの使い方
 
エクセルで統計分析4 因子分析のやり方
エクセルで統計分析4 因子分析のやり方エクセルで統計分析4 因子分析のやり方
エクセルで統計分析4 因子分析のやり方
 
エクセルで統計分析3 回帰分析のやり方
エクセルで統計分析3 回帰分析のやり方エクセルで統計分析3 回帰分析のやり方
エクセルで統計分析3 回帰分析のやり方
 
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてエクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについて
 

Stanでガウス過程