SlideShare a Scribd company logo
1 of 31
Download to read offline
画像認識で物を見分ける
Pythonで動かして学ぶ機械学習入門 第二回
谷田和章
自己紹介
● 谷田和章 (たにだかずあき)
○ GitHub: slaypni
● ソフトウェアエンジニア (フリーランス&白ヤギコーポレーション )
○ 機械学習, 自然言語処理
○ Web, iOS, Android
● カメリオの機械学習アルゴリズムの開発
今日やること (その1)
手書き数字識別OCRを作る
分類器
推定: 0
推定: 2
推定: 7
推定: 5
これ
今日やること (その2)
写真中の建物を分類する
分類器
notredame
louvre
eiffel
機械学習を適用する流れ
● やりたいこと: (未知)データのラベルを推定
● 事前に必要なもの: データと正解ラベル
実験の手順 (概要)
1. データを特徴ベクトルに変換
2. データを学習用とテスト用に分ける
3. 分類器を学習させる
4. テストデータのラベルを推定
5. 推定値と正解から結果を評価
OCRを作りながら各手順を見ていきます
事前に必要なもの: データと正解ラベル
● sklearn.datasetsパッケージ
機械学習を試すのに使えるトイデータ
● labels変数
正解数字の配列
● images変数
数字画像の配列
digits = datasets.load_digits()
labels = digits['target']
images = digits['images']
images.shape
(1797, 8, 8)
1797個の8x8ピクセルのモノクロ画像
1. データを特徴ベクトルに変換
● X変数
特徴ベクトルの配列
(各行が特徴ベクトルの行列 )
n_samples = len(images)
X = images.reshape((n_samples, -1))
・・・
・・・
・・・
・・・
・・・
・・・
・・・ ・・・1797
64
特徴ベクトルの各次元は
元画像の各ピクセルに対応
2. データを学習用とテスト用に分ける
● train_indices変数
学習用データの添字の配列
● test_indices変数
テスト用データの添字の配列
train_indices = np.arange(n_samples)[:n_samples//2]
test_indices = np.arange(n_samples)[n_samples//2:]
全データ
(1797)
学習用
テスト用
3. 分類器を学習させる
● sklearn.svm.SVCクラス
SVM(サポートベクトルマシン )分類器
● clf変数
SVM分類器のインスタンス
● clf.fit()
学習データと正解ラベルで学習する
clf = svm.SVC()
clf.fit(X[train_indices], labels[train_indices])
・・・coef_[9]
分類器
clf
64
・・・coef_[1]
・・・coef_[0]
・・・ clf.fit()で値をセット
4. テストデータのラベルを推定
● clf.predict()
データのラベルを推定する
● y_pred変数
推定ラベルの配列
y_pred = clf.predict(X[test_indices])
coef_[9]
分類器 clf
64
coef_[1]
coef_[0]
x
64
9: 0.76
1: 0.03
0: 0.08
確率
・・・ ・・・
特徴ベクトル
9
推定
k(x, clf.coef_) argmax(proba)
5. 推定値と正解から結果を評価 (1/2)
● sklearn.metrics.confusion_matrix()
混同行列をテキストで返す
● 混同行列
行: 正解ラベル
列: 推定ラベル
それぞれ分類された数
print(
metrics.confusion_matrix(
labels[test_indices], y_pred
)
)
[[38 0 0 0 0 50 0 0 0 0]
[ 0 50 0 0 0 41 0 0 0 0]
[ 0 0 29 0 0 57 0 0 0 0]
[ 0 0 0 54 0 37 0 0 0 0]
[ 0 0 0 0 27 65 0 0 0 0]
[ 0 0 0 0 0 91 0 0 0 0]
[ 0 0 0 0 0 58 33 0 0 0]
[ 0 0 0 0 0 64 0 25 0 0]
[ 0 0 0 0 0 87 0 0 1 0]
[ 0 0 0 0 0 84 0 0 0 8]]
正解ラベル = “2”
推定ラベル:
“2”: 29個
“5”: 57個
5. 推定値と正解から結果を評価 (2/2)
● sklearn.metrics.classification_report()
分類性能の主要な指標をテキストで返す
● support
正解ラベル数
● f1-score
recallとprecisionの調和平均。
0から1の値をとる。
とりあえず、これが1に近いほど良い。
● recall
実際に正であるデータのうち
正と推定されたものの割合。
● precision
正と推定したデータのうち
実際に正であるものの割合。
print(
metrics.classification_report(
labels[test_indices], y_pred
)
)
precision recall f1-score support
0 1.00 0.43 0.60 88
1 1.00 0.55 0.71 91
2 1.00 0.34 0.50 86
3 1.00 0.59 0.74 91
4 1.00 0.29 0.45 92
5 0.14 1.00 0.25 91
6 1.00 0.36 0.53 91
7 1.00 0.28 0.44 89
8 1.00 0.01 0.02 88
9 1.00 0.09 0.16 92
avg / total 0.91 0.40 0.44 899
分類性能を改善
実験の手順 (再掲)
1. データを特徴ベクトルに変換
2. データを学習用とテスト用に分ける
3. 分類器を学習させる
4. テストデータのラベルを推定
5. 推定値と正解から結果を評価
変更を考える点
● 特徴ベクトル (1)
● 使用する分類器 (3)
● 分類器のハイパーパラメータ (3) 今回はこれを変えてみる
グリッドサーチでハイパーパラメータを調整
● ハイパーパラメータ
分類器の挙動に影響する値。
分類器のコンストラクタに引数として
渡すか、set_params()関数で設定可能。
● グリッドサーチ
候補値のなかから最適なハイパーパラメータを探索する手法。
● sklearn.grid_search.GridSearchCV()
fit()で学習する前にグリッドサーチを行う分類器を返す。
引数には、ラップする分類器と候補ハイパーパラメータをとる。
params = {
'gamma': [10 ** i for i in range(-3, 4)]
}
clf = grid_search.GridSearchCV(svm.SVC(), params)
clf.fit(X[train_indices], labels[train_indices])
“gamma”の最適値は大抵1e-3から1e3のあいだ
結果を評価 (1/2)
● 対角成分の値が大きくなっている
→ 正しく分類できている
print(
metrics.confusion_matrix(
labels[test_indices], y_pred
)
)
[[87 0 0 0 1 0 0 0 0 0]
[ 0 88 1 0 0 0 0 0 1 1]
[ 0 0 85 1 0 0 0 0 0 0]
[ 0 0 0 79 0 3 0 4 5 0]
[ 0 0 0 0 88 0 0 0 0 4]
[ 0 0 0 0 0 88 1 0 0 2]
[ 0 1 0 0 0 0 90 0 0 0]
[ 0 0 0 0 0 1 0 88 0 0]
[ 0 0 0 0 0 0 0 0 88 0]
[ 0 0 0 1 0 1 0 0 0 90]]
結果を評価 (2/2)
● f1-scoreが大きくなっている
● precisionとrecallも共に向上
print(
metrics.classification_report(
labels[test_indices], y_pred
)
)
precision recall f1-score support
0 1.00 0.99 0.99 88
1 0.99 0.97 0.98 91
2 0.99 0.99 0.99 86
3 0.98 0.87 0.92 91
4 0.99 0.96 0.97 92
5 0.95 0.97 0.96 91
6 0.99 0.99 0.99 91
7 0.96 0.99 0.97 89
8 0.94 1.00 0.97 88
9 0.93 0.98 0.95 92
avg / total 0.97 0.97 0.97 899
より難しい問題に分類器を適用
写真中の建物を分類
● 手書き数字に比べて写真の分類は難しい
○ 構図や日当たりなど同じ対象物でも絵が大きく異なる
● 先ほどの方法をそのまま使っても分類性能が良くない
○ 特徴ベクトルを変えてみる
特徴ベクトルの作りかたを見ていきます
変更を考える点 (再掲)
● 特徴ベクトル
● 使用する分類器
● 分類器のハイパーパラメータ
使用するデータ
● The Paris Dataset
○ パリの観光名所の写真、約 6400枚
○ ラベルは全11種類
● iter_data()
ラベルと画像を返すイテレータ
(内容は.ipynbファイルを参照)
for (label, data) in islice(iter_data(), 4):
plt.imshow(data)
plt.title('{} {}'.format(label, data.shape))
plt.axis('off')
684x1024ピクセルのフルカラー画像
特徴ベクトルの種類
● 各ピクセル値そのまま
○ 先ほどの手書き数字分類で使った方法
○ 良い点: シンプル
○ 悪い点: 風景写真などでは精度が低い
● Bag of Visual Words (BoVW)
○ 今回の写真分類で使う方法
○ 良い点: 風景写真などでも特徴が表現できる
○ 良い点: 特徴ベクトルの次元数が小さくできる
○ 悪い点: 作るのに時間がかかる
変換
画像
特徴ベクトル
代表選択
(コードブック作成)
BoVWの概要 <準備>
1. たくさんの画像を入力
2. キーポイントを選択
3. 各点で局所特徴量を計算 (局所特徴量: 画像の部分的な特徴を表すベクトル )
4. 代表とする局所特徴量を選択 (数は事前に決めておく )
キーポイント選択 局所特徴量抽出画像
BoVWの概要 <特徴抽出>
1. 画像を入力
2. キーポイントを選択
3. 各点で局所特徴量を計算
4. <準備>で選んだ代表特徴量のヒストグラム作成 (最も似てる局所特徴量をカウント )
5. 特徴ベクトルを出力 (各次元が代表特徴量の頻度 )
キーポイント選択 局所特徴量抽出 ヒストグラム
(特徴ベクトル)
画像
HOGによる局所特徴量抽出
HOG (Histograms of Oriented Gradients)
● 局所特徴量抽出の手法
● 事前のキーポイント選択は不要 (アルゴリズム内に含まれる)
セル毎の勾配を計算画像 局所特徴量(の集合)
・・・
画像から局所特徴量を抽出
● get_descriptors()
画像を引数に受けとり、
HOG局所特徴量(ベクトル)
の配列を返す。
● skimage.feature.hog()
HOG局所特徴量を連結した
一次元の配列を返す。
● skimageパッケージ
scikit-learnで画像処理を
行うときに便利な機能を提供
def get_descriptors(data):
orientations = 9
pixels_per_cell = (8, 8)
cells_per_block = (3, 3)
feature_vector = hog(rgb2gray(data), orientations,
pixels_per_cell, cells_per_block)
n_dim = np.multiply(*cells_per_block) * orientations
return feature_vector.reshape(-1, n_dim)
コードブックを作成
● data_descriptors変数
HOG局所特徴量(の配列)の配列。
先ほどのget_descriptors()で作成。
● sklearn.cluster.MiniBatchKMeansクラス
K-means (ミニバッチ高速版)
● kmeans変数
コードブック
codebook_size = 1000
descriptors = np.vstack(
data_descriptors[train_indices]
)
indices = np.random.choice(
np.arange(len(descriptors)),
size=500000,
replace=False
)
kmeans = MiniBatchKMeans(
n_clusters=codebook_size,
batch_size=1000,
n_init=10,
random_state=0
)
kmeans.fit(
descriptors[indices].astype(float)
)
代表ベクトルの数
学習に使う局所特徴量の数
K-meansでコードブックを作成
K-means
クラスタリング手法のひとつ
● 学習
たくさんのベクトルから
K個の代表点を抽出
● 分類
与えられたベクトルを K個のなかの
ひとつのクラスタに分類する
今回はコードブックとして利用
特徴ベクトルを作る
● get_features()
HOG局所特徴量(の配列)を引数に受けとり、
画像の特徴ベクトルを返す
def get_feature(descriptors):
feature = np.zeros(codebook_size)
indices = kmeans.predict(
descriptors.astype(float)
)
for index in indices:
feature[index] += 1
return feature / np.sum(feature)
局所特徴量に最も似た代表ベクトルの添字を取得
代表ベクトルのヒストグラムを計算
各次元の合計値が1になるように正規化
分類性能を評価 (1/2)
X = np.array([get_feature(descriptors)
for descriptors
in data_descriptors])
clf = SVC()
clf.fit(
X[train_indices],
labels[train_indices]
)
y_pred = clf.predict(X[test_indices])
print(metrics.classification_report(
labels[test_indices], y_pred
))
print(metrics.confusion_matrix(
labels[test_indices], y_pred
))
[[ 0 59 0 0 0 0 0 0 0 0 0]
[ 0 145 0 0 0 0 0 0 0 0 0]
[ 0 99 0 0 0 0 0 0 0 0 0]
[ 0 76 0 0 0 0 0 0 0 0 0]
[ 0 119 0 0 0 0 0 0 0 0 0]
[ 0 36 0 0 0 0 0 0 0 0 0]
[ 0 60 0 0 0 0 0 0 0 0 0]
[ 0 63 0 0 0 0 0 0 0 0 0]
[ 0 26 0 0 0 0 0 0 0 0 0]
[ 0 75 0 0 0 0 0 0 0 0 0]
[ 0 141 0 0 0 0 0 0 0 0 0]]
precision recall f1-score support
defense 0.00 0.00 0.00 59
eiffel 0.16 1.00 0.28 145
invalides 0.00 0.00 0.00 99
louvre 0.00 0.00 0.00 76
moulinrouge 0.00 0.00 0.00 119
museedorsay 0.00 0.00 0.00 36
notredame 0.00 0.00 0.00 60
pantheon 0.00 0.00 0.00 63
pompidou 0.00 0.00 0.00 26
sacrecoeur 0.00 0.00 0.00 75
triomphe 0.00 0.00 0.00 141
avg / total 0.03 0.16 0.04 899
分類性能を評価 (2/2)
params = {
'gamma': [10 ** i
for i in range(-3, 4)]
}
clf = grid_search.GridSearchCV(
SVC(),
params
)
clf.fit(
X[train_indices],
labels[train_indices]
)
y_pred = clf.predict(X[test_indices])
[[ 35 7 0 3 1 0 0 1 0 0 12]
[ 1 117 1 1 2 0 0 3 0 3 17]
[ 1 38 38 2 1 0 0 1 0 10 8]
[ 1 15 3 48 1 0 1 0 0 2 5]
[ 0 10 3 0 101 0 1 0 0 3 1]
[ 0 2 0 0 1 29 0 1 0 2 1]
[ 0 5 3 3 0 0 34 1 0 11 3]
[ 1 7 3 0 1 0 0 44 0 2 5]
[ 0 4 2 0 0 0 0 0 17 0 3]
[ 0 14 9 1 2 0 0 2 0 44 3]
[ 0 14 3 1 0 0 1 1 0 2 119]]
precision recall f1-score support
defense 0.90 0.59 0.71 59
eiffel 0.50 0.81 0.62 145
invalides 0.58 0.38 0.46 99
louvre 0.81 0.63 0.71 76
moulinrouge 0.92 0.85 0.88 119
museedorsay 1.00 0.81 0.89 36
notredame 0.92 0.57 0.70 60
pantheon 0.81 0.70 0.75 63
pompidou 1.00 0.65 0.79 26
sacrecoeur 0.56 0.59 0.57 75
triomphe 0.67 0.84 0.75 141
avg / total 0.73 0.70 0.70 899
分類結果
(再掲) BoVWの概要
1. 画像を入力
2. キーポイントを選択
3. 各点で局所特徴量を計算
4. <準備>で選んだ代表特徴量のヒストグラム作成 (最も似てる局所特徴量をカウント )
5. 特徴ベクトルを出力 (各次元が代表特徴量の頻度 )
キーポイント選択 局所特徴量抽出 ヒストグラム
(特徴ベクトル)
画像
(再掲) 機械学習を適用する流れ
● やりたいこと: (未知)データのラベルを推定
● 事前に必要なもの: データと正解ラベル
実験の手順 (概要)
1. データを特徴ベクトルに変換
2. データを学習用とテスト用に分ける
3. 分類器を学習させる
4. テストデータのラベルを推定
5. 推定値と正解から結果を評価

More Related Content

What's hot

パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
Momoko Hayamizu
 
ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33
horihorio
 
心理学のためのPsychパッケージ
心理学のためのPsychパッケージ心理学のためのPsychパッケージ
心理学のためのPsychパッケージ
考司 小杉
 

What's hot (20)

最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
[第2版]Python機械学習プログラミング 第11章
[第2版]Python機械学習プログラミング 第11章[第2版]Python機械学習プログラミング 第11章
[第2版]Python機械学習プログラミング 第11章
 
最高の統計ソフトウェアはどれか? "What’s the Best Statistical Software? A Comparison of R, Py...
最高の統計ソフトウェアはどれか? "What’s the Best Statistical Software? A Comparison of R, Py...最高の統計ソフトウェアはどれか? "What’s the Best Statistical Software? A Comparison of R, Py...
最高の統計ソフトウェアはどれか? "What’s the Best Statistical Software? A Comparison of R, Py...
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
 
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定2 4.devianceと尤度比検定
2 4.devianceと尤度比検定
 
有名論文から学ぶディープラーニング 2016.03.25
有名論文から学ぶディープラーニング 2016.03.25有名論文から学ぶディープラーニング 2016.03.25
有名論文から学ぶディープラーニング 2016.03.25
 
ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33
 
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
 
SSII2020TS: Event-Based Camera の基礎と ニューラルネットワークによる信号処理 〜 生き物のように「変化」を捉えるビジョンセ...
SSII2020TS: Event-Based Camera の基礎と ニューラルネットワークによる信号処理 〜 生き物のように「変化」を捉えるビジョンセ...SSII2020TS: Event-Based Camera の基礎と ニューラルネットワークによる信号処理 〜 生き物のように「変化」を捉えるビジョンセ...
SSII2020TS: Event-Based Camera の基礎と ニューラルネットワークによる信号処理 〜 生き物のように「変化」を捉えるビジョンセ...
 
べき乗則・パレート分布・ジップの法則
べき乗則・パレート分布・ジップの法則べき乗則・パレート分布・ジップの法則
べき乗則・パレート分布・ジップの法則
 
機械学習研究の現状とこれから
機械学習研究の現状とこれから機械学習研究の現状とこれから
機械学習研究の現状とこれから
 
Stan勉強会資料(前編)
Stan勉強会資料(前編) Stan勉強会資料(前編)
Stan勉強会資料(前編)
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
 
Arithmer AIチャットボット
Arithmer AIチャットボットArithmer AIチャットボット
Arithmer AIチャットボット
 
論文の図表レイアウト例
論文の図表レイアウト例論文の図表レイアウト例
論文の図表レイアウト例
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 
心理学のためのPsychパッケージ
心理学のためのPsychパッケージ心理学のためのPsychパッケージ
心理学のためのPsychパッケージ
 
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
 

Similar to 画像認識で物を見分ける

Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tatsuya Tojima
 
機械学習を用いた予測モデル構築・評価
機械学習を用いた予測モデル構築・評価機械学習を用いた予測モデル構築・評価
機械学習を用いた予測モデル構築・評価
Shintaro Fukushima
 
データマイニング勉強会3
データマイニング勉強会3データマイニング勉強会3
データマイニング勉強会3
Yohei Sato
 
テスト分析入門 -「ゆもつよメソッド」を例に- #wacate
テスト分析入門 -「ゆもつよメソッド」を例に- #wacateテスト分析入門 -「ゆもつよメソッド」を例に- #wacate
テスト分析入門 -「ゆもつよメソッド」を例に- #wacate
Kinji Akemine
 

Similar to 画像認識で物を見分ける (20)

Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
 
Opencv object detection_takmin
Opencv object detection_takminOpencv object detection_takmin
Opencv object detection_takmin
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
 
10分で分かるr言語入門ver2.9 14 0920
10分で分かるr言語入門ver2.9 14 0920 10分で分かるr言語入門ver2.9 14 0920
10分で分かるr言語入門ver2.9 14 0920
 
機械学習を用いた予測モデル構築・評価
機械学習を用いた予測モデル構築・評価機械学習を用いた予測モデル構築・評価
機械学習を用いた予測モデル構築・評価
 
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~
 
10分で分かるr言語入門ver2.10 14 1101
10分で分かるr言語入門ver2.10 14 110110分で分かるr言語入門ver2.10 14 1101
10分で分かるr言語入門ver2.10 14 1101
 
Kashiwa.R#1 画像解析とパターン認識における R の利用
Kashiwa.R#1 画像解析とパターン認識における R の利用Kashiwa.R#1 画像解析とパターン認識における R の利用
Kashiwa.R#1 画像解析とパターン認識における R の利用
 
Gurobi python
Gurobi pythonGurobi python
Gurobi python
 
基礎から見直す ASP.NET MVC の単体テスト自動化方法 ~ Windows Azure 関連もあるかも~
基礎から見直す ASP.NET MVC の単体テスト自動化方法 ~ Windows Azure 関連もあるかも~基礎から見直す ASP.NET MVC の単体テスト自動化方法 ~ Windows Azure 関連もあるかも~
基礎から見直す ASP.NET MVC の単体テスト自動化方法 ~ Windows Azure 関連もあるかも~
 
OpenCVの拡張ユーティリティ関数群
OpenCVの拡張ユーティリティ関数群OpenCVの拡張ユーティリティ関数群
OpenCVの拡張ユーティリティ関数群
 
データマイニング勉強会3
データマイニング勉強会3データマイニング勉強会3
データマイニング勉強会3
 
PostgreSQLクエリ実行の基礎知識 ~Explainを読み解こう~
PostgreSQLクエリ実行の基礎知識 ~Explainを読み解こう~PostgreSQLクエリ実行の基礎知識 ~Explainを読み解こう~
PostgreSQLクエリ実行の基礎知識 ~Explainを読み解こう~
 
第四回 JavaScriptから始めるプログラミング2016
第四回 JavaScriptから始めるプログラミング2016第四回 JavaScriptから始めるプログラミング2016
第四回 JavaScriptから始めるプログラミング2016
 
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
 
テスト 【クラウドアプリケーションのためのオブジェクト指向分析設計講座 第33回】
テスト 【クラウドアプリケーションのためのオブジェクト指向分析設計講座 第33回】テスト 【クラウドアプリケーションのためのオブジェクト指向分析設計講座 第33回】
テスト 【クラウドアプリケーションのためのオブジェクト指向分析設計講座 第33回】
 
テスト分析入門 -「ゆもつよメソッド」を例に- #wacate
テスト分析入門 -「ゆもつよメソッド」を例に- #wacateテスト分析入門 -「ゆもつよメソッド」を例に- #wacate
テスト分析入門 -「ゆもつよメソッド」を例に- #wacate
 
NINと画像分類 for 人工知能LT祭
NINと画像分類 for 人工知能LT祭NINと画像分類 for 人工知能LT祭
NINと画像分類 for 人工知能LT祭
 
機械学習向けCGデータの量産手法の検討
機械学習向けCGデータの量産手法の検討機械学習向けCGデータの量産手法の検討
機械学習向けCGデータの量産手法の検討
 
ソフトウェア自動チューニング研究紹介
ソフトウェア自動チューニング研究紹介ソフトウェア自動チューニング研究紹介
ソフトウェア自動チューニング研究紹介
 

画像認識で物を見分ける