SlideShare una empresa de Scribd logo
1 de 28
Descargar para leer sin conexión
距離まとめ

12/02/27 尾崎遼
し た
                    んで
                 ませ
      ら        れ
距離まとめ

12/02/27 尾崎遼
自己紹介
おざき はるか

情報生命科学専攻 M2

バイオインフォマティクス

@yuifu

R初心者
本日の内容
距離行列について

距離行列をつくる関数

距離行列の使い方

 多次元尺度法

 クラスタリング

懇親会について
距離と類似度
距離=非類似度

距離

大きいほど違う

類似度

大きいほど似てる
ID
データ表                 攻撃        防御       すば
            A        90        78       44
            B        45        10       88
各行がデータを表す
            C        120       78           2
            D        14        18       10
各列が変数を表す    E        81        47       37
            F        67        42       100


距離行列             A   B     C   D    E   F
            A

各データ同士の距離   B 34
            C 23 45
通常、下三角行列    D 21 87 17
            E    23 98 85 99
            F    19 32 34 11 22
距離を何に使うのか
クラスタリング

多次元尺度法    データ1   データ2


分類
                 データ
                  集合2
          データ
          集合1
距離行列をつくる関数
dist {stats}
as.dist {stats}
daisy {cluster}
gdist {mvpart}
mahalanobis {stats}
など…
dist {stats}
dist(x, method = "euclidean", diag = FALSE, upper = FALSE, p = 2)

     x: 各行がデータを表す 数値行列
     method: "euclidean", "maximum", "manhattan", "canberra", "binary”, "minkowski"
     p: minkowski を指定した時、p を別に指定する。 p>=1, 実数。
ミンコフスキー距離
p >= 1 (実数)


p=1 マンハッタン距離


p=2 ユークリッド距離


p→∞ チェビシェフ距離


   コルモゴロフ・スミルノフ検定の検定統計量
キャンベラ距離




バイナリ距離

(片方のみが1である変数の数)/
                   > x<-c(1,1,0,0)
(どちらか一方が1である変数の    > y<-c(1,0,1,1)
                   > dist(rbind(x,y), method="binary")
数)                     x
                   y 0.75
変数がバイナリのとき
mahalanobis {stats}
mahalanobis(x, center, cov, inverted=FALSE, ...)
 x: vector or matrix
 center: mean vector of the distribution or second data vector of
        length p.
 cov: 共分散行列




マハラノビス距離の2乗を返す

外れ値の検出に使える
as.dist
as.dist(m, diag = FALSE, upper = FALSE)

  m: matrix 型の距離行列


dist objectでない距離行列を dist object に変換す
る

  相関係数行列など
距離は負の値でもOK?

> d <- matrix(rnorm(20,0,1),5,5)
> as.dist(d)
         1       2        3      4
2 0.79034338
3 1.98162963 1.25013985
4 -1.28975678 0.46171713 0.86106480
5 0.39608483 0.01728395 -0.63603978 0.91020976
> h<-hclust(as.dist(d))
> plot(h)
> h<-hclust(as.dist(d)+3)
> plot(h)
> as.dist(d)+3
      1      2      3     4
2 3.790343
3 4.981630 4.250140
4 1.710243 3.461717 3.861065
5 3.396085 3.017284 2.363960 3.910210
daisy {cluster}
library(“cluster”)
daisy(x, metric = c("euclidean", "manhattan", "gower"),
        stand = FALSE, type = list(), weights = rep.int(1, p))

  x: データ行列。各列が異なるタイプの変数( numeric, factor, orderedなど)
  でも可。
  metric: “euclidean”, “manhattan”, “gower”
  非類似度が行の間で計算され                               それぞれの変数について距
  る                                           離を計算し、2つのデータ
                                              の距離は個々の変数の距離
  gower distance                              の合計
    numericじゃなかったらこ
    れ。                                        重みを付けられる
                                              dissimilarity.object
gdist {mvpart}
library(“mvpart”)
gdist(x, method="bray", keepdiag=FALSE, full=FALSE, sq=FALSE)



  x: Data matirx
  method: "euclidean", "manhattan", "gower", "canberra", "bray", "kulczynski",
  "maximum", "binary", "chord"

  ‘canberra’ d[jk] = (1/NZ) sum ((x[ij]-x[ik])/(x[ij]+x[ik]))
  ‘bray’     d[jk] = (sum abs(x[ij]-x[ik])/(sum (x[ij]+x[ik]))
  ‘kulczynski’ d[jk] 1 - 0.5*((sum min(x[ij],x[ik])/(sum x[ij]) + (sum min(x[ij],x
  [ik])/(sum x[ik]))
  ‘binary’    d[jk] = max(abs(x[ij]>0 -x[ik]>0))
  ‘chord’     d[jk] = sqrt((sum (x[ij]-x[ik])^2)/(sum (x[ij]+x[ik])^2))

  where NZ is the number of non-zero entries.
cor {stats}
cor(x, y = NULL, use = "everything",
       method = c("pearson", "kendall", "spearman"))

as.dist(1-correlation.matrix)


  library(“cluster”)
  daisy(x, metric = c("euclidean", "manhattan", "gower"),
          stand = FALSE, type = list(), weights = rep.int(1, p))



  (行同士でなく)列同士を比較する

  相関係数が [-1,1] なので、1-corは [0,2]
距離を扱う関数

hclust {stats}

cmdscale

など…

もっと色々ある
類似度

ピアソン相関係数




スピアマンの順位相関係数

d: 2つのデータ間での順位の差

ケンドールの順位相関係数

                   BY D.C.ATTY
分布の差
d: 2つのデータ間での順位の差




チェビシェフ距離

Jensen-Shannon divergence
cmdscale {stats}
cmdscale(d, k = 2, eig = FALSE, add = FALSE, x.ret = FALSE)

    d: 距離行列
    k: 次元数


  多次元尺度法
     ユークリッド距離を用いると
     主成分分析と等価


  iris.cmd <- cmdscale(dist(iris[, -5]))
  plot(iris.cmd, type="n")
  iris.lab <- factor(c(rep("S", 50),
                rep("C", 50), rep("V",50)))
  text(iris.cmd, labels=iris.lab,
                    col=unclass(iris.lab))
hclust {stats}
hclust(d, method = "complete", members=NULL)

plot(x, ...)

cutree(h, k)

d: 距離行列

h: hclustオブジェクト
k: クラスターの数
hclust {stats}
hclust(d, method = "complete", members=NULL)

plot(x, ...)

cutree(h, k)

d: 距離行列

h: hclustオブジェクト
k: クラスターの数
plot(hclust(as.dist(1-cor(t(d[,2:8])))))




                                                        時刻



                                                 遺伝子

cl <- cutree(hclust(as.dist(1-cor(t(d[,2:8])))), k=6)
d <- cbind(d,cl)

heatmap.2(as.matrix(d[d[,11]==1,2:8]),
density.info="none",Colv=NA, labRow=NA,
trace="none",dendrogram="none", scale="row")
クラスター間の距離
最短距離法

最長距離法

群平均法

重心法

メディアン法

ウォード法
         HTTP://MICRO.MAGNET.FSU.EDU/INDEX.HTML
参考

金明哲「Rによるデータサイエンス」森北出版

http://infoshako.sk.tsukuba.ac.jp/~jgoto/wma/cluster_k-
means.pdf

Wikipedia
懇親会について
鍋

20:30-22:30

柏キャンパス総合研究棟
3F  364号室

終了後、三々五々移動
懇親会について
鍋

20:30-22:30

柏キャンパス総合研究棟
3F  364号室

終了後、三々五々移動

参加費 約1000円 <-NEW!

Más contenido relacionado

La actualidad más candente

変数同士の関連_MIC
変数同士の関連_MIC変数同士の関連_MIC
変数同士の関連_MICShushi Namba
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理Taiji Suzuki
 
Hyperoptとその周辺について
Hyperoptとその周辺についてHyperoptとその周辺について
Hyperoptとその周辺についてKeisuke Hosaka
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門hoxo_m
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルohken
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎Preferred Networks
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)Tatsuya Yokota
 
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー階層ベイズと自由エネルギー
階層ベイズと自由エネルギーHiroshi Shimizu
 
最適化超入門
最適化超入門最適化超入門
最適化超入門Takami Sato
 
データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習Seiichi Uchida
 
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)Toru Imai
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法Ken'ichi Matsui
 
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Satoshi Kato
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章Shuyo Nakatani
 

La actualidad más candente (20)

変数同士の関連_MIC
変数同士の関連_MIC変数同士の関連_MIC
変数同士の関連_MIC
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
Hyperoptとその周辺について
Hyperoptとその周辺についてHyperoptとその周辺について
Hyperoptとその周辺について
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
 
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー階層ベイズと自由エネルギー
階層ベイズと自由エネルギー
 
線形計画法入門
線形計画法入門線形計画法入門
線形計画法入門
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
 
データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習
 
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
 
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
 

Similar a 距離まとめられませんでした

2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4Takeshi Sakaki
 
MMDs10.6-7
MMDs10.6-7MMDs10.6-7
MMDs10.6-7mfumi
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化Miyoshi Yuya
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介Taku Yoshioka
 
動的計画法入門(An introduction to Dynamic Programming)
動的計画法入門(An introduction to Dynamic Programming)動的計画法入門(An introduction to Dynamic Programming)
動的計画法入門(An introduction to Dynamic Programming)kakira9618
 
Implicit Explicit Scala
Implicit Explicit ScalaImplicit Explicit Scala
Implicit Explicit ScalaKota Mizushima
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能Hiroshi Nakagawa
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)Akihiro Nitta
 
すごいHaskell 第7章 型や型クラスを自分で作ろう(前編)
すごいHaskell 第7章 型や型クラスを自分で作ろう(前編)すごいHaskell 第7章 型や型クラスを自分で作ろう(前編)
すごいHaskell 第7章 型や型クラスを自分で作ろう(前編)Nozomu Kaneko
 
diffの真髄
diffの真髄diffの真髄
diffの真髄fuku68
 
DS Exercise Course 4
DS Exercise Course 4DS Exercise Course 4
DS Exercise Course 4大貴 末廣
 
K060 中心極限定理clt
K060 中心極限定理cltK060 中心極限定理clt
K060 中心極限定理cltt2tarumi
 
Deep Learning を実装する
Deep Learning を実装するDeep Learning を実装する
Deep Learning を実装するShuhei Iitsuka
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知Chika Inoshita
 
Rによるlm関数を使わない回帰と梃子比・cookの距離
Rによるlm関数を使わない回帰と梃子比・cookの距離 Rによるlm関数を使わない回帰と梃子比・cookの距離
Rによるlm関数を使わない回帰と梃子比・cookの距離 wada, kazumi
 

Similar a 距離まとめられませんでした (20)

2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
R intro
R introR intro
R intro
 
MMDs10.6-7
MMDs10.6-7MMDs10.6-7
MMDs10.6-7
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
 
R seminar on igraph
R seminar on igraphR seminar on igraph
R seminar on igraph
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
 
動的計画法入門(An introduction to Dynamic Programming)
動的計画法入門(An introduction to Dynamic Programming)動的計画法入門(An introduction to Dynamic Programming)
動的計画法入門(An introduction to Dynamic Programming)
 
C07
C07C07
C07
 
Implicit Explicit Scala
Implicit Explicit ScalaImplicit Explicit Scala
Implicit Explicit Scala
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
 
すごいHaskell 第7章 型や型クラスを自分で作ろう(前編)
すごいHaskell 第7章 型や型クラスを自分で作ろう(前編)すごいHaskell 第7章 型や型クラスを自分で作ろう(前編)
すごいHaskell 第7章 型や型クラスを自分で作ろう(前編)
 
機械学習
機械学習機械学習
機械学習
 
diffの真髄
diffの真髄diffの真髄
diffの真髄
 
主成分分析
主成分分析主成分分析
主成分分析
 
DS Exercise Course 4
DS Exercise Course 4DS Exercise Course 4
DS Exercise Course 4
 
K060 中心極限定理clt
K060 中心極限定理cltK060 中心極限定理clt
K060 中心極限定理clt
 
Deep Learning を実装する
Deep Learning を実装するDeep Learning を実装する
Deep Learning を実装する
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 
Rによるlm関数を使わない回帰と梃子比・cookの距離
Rによるlm関数を使わない回帰と梃子比・cookの距離 Rによるlm関数を使わない回帰と梃子比・cookの距離
Rによるlm関数を使わない回帰と梃子比・cookの距離
 

Más de Haruka Ozaki

160817 ISMB2016読み会
160817 ISMB2016読み会160817 ISMB2016読み会
160817 ISMB2016読み会Haruka Ozaki
 
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)Haruka Ozaki
 
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet Allocationトピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet AllocationHaruka Ozaki
 
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomesISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomesHaruka Ozaki
 
巨大な表を高速に扱うData.table について
巨大な表を高速に扱うData.table について巨大な表を高速に扱うData.table について
巨大な表を高速に扱うData.table についてHaruka Ozaki
 
Excelによる遺伝子名の誤変換 -傾向と対策-
Excelによる遺伝子名の誤変換 -傾向と対策-Excelによる遺伝子名の誤変換 -傾向と対策-
Excelによる遺伝子名の誤変換 -傾向と対策-Haruka Ozaki
 
Kashiwa.R#9 Rでゲノム解析
Kashiwa.R#9 Rでゲノム解析Kashiwa.R#9 Rでゲノム解析
Kashiwa.R#9 Rでゲノム解析Haruka Ozaki
 
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと 12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと Haruka Ozaki
 
Rで塩基配列を扱う方法
Rで塩基配列を扱う方法Rで塩基配列を扱う方法
Rで塩基配列を扱う方法Haruka Ozaki
 
FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)Haruka Ozaki
 

Más de Haruka Ozaki (10)

160817 ISMB2016読み会
160817 ISMB2016読み会160817 ISMB2016読み会
160817 ISMB2016読み会
 
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
 
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet Allocationトピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
 
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomesISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
 
巨大な表を高速に扱うData.table について
巨大な表を高速に扱うData.table について巨大な表を高速に扱うData.table について
巨大な表を高速に扱うData.table について
 
Excelによる遺伝子名の誤変換 -傾向と対策-
Excelによる遺伝子名の誤変換 -傾向と対策-Excelによる遺伝子名の誤変換 -傾向と対策-
Excelによる遺伝子名の誤変換 -傾向と対策-
 
Kashiwa.R#9 Rでゲノム解析
Kashiwa.R#9 Rでゲノム解析Kashiwa.R#9 Rでゲノム解析
Kashiwa.R#9 Rでゲノム解析
 
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと 12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
 
Rで塩基配列を扱う方法
Rで塩基配列を扱う方法Rで塩基配列を扱う方法
Rで塩基配列を扱う方法
 
FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)
 

距離まとめられませんでした