Enviar búsqueda
Cargar
ラベル付けのいろは
•
Descargar como PPTX, PDF
•
7 recomendaciones
•
18,773 vistas
Kensuke Mitsuzawa
Seguir
ラベル付けの方法を解説する資料です。
Leer menos
Leer más
Datos y análisis
Denunciar
Compartir
Denunciar
Compartir
1 de 17
Descargar ahora
Recomendados
Triplet Loss 徹底解説
Triplet Loss 徹底解説
tancoro
時系列分析による異常検知入門
時系列分析による異常検知入門
Yohei Sato
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
深層学習の非常に簡単な説明
深層学習の非常に簡単な説明
Seiichi Uchida
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
Yusuke Fujimoto
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
【DL輪読会】GPT-4Technical Report
【DL輪読会】GPT-4Technical Report
Deep Learning JP
先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15
Yoichi Ochiai
Recomendados
Triplet Loss 徹底解説
Triplet Loss 徹底解説
tancoro
時系列分析による異常検知入門
時系列分析による異常検知入門
Yohei Sato
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
深層学習の非常に簡単な説明
深層学習の非常に簡単な説明
Seiichi Uchida
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
Yusuke Fujimoto
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
【DL輪読会】GPT-4Technical Report
【DL輪読会】GPT-4Technical Report
Deep Learning JP
先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15
Yoichi Ochiai
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
Hirokatsu Kataoka
AutoEncoderで特徴抽出
AutoEncoderで特徴抽出
Kai Sasaki
テーブル・テキスト・画像の反実仮想説明
テーブル・テキスト・画像の反実仮想説明
tmtm otm
GAN(と強化学習との関係)
GAN(と強化学習との関係)
Masahiro Suzuki
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告
GentaYoshimura
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
[DL輪読会]Diffusion-based Voice Conversion with Fast Maximum Likelihood Samplin...
[DL輪読会]Diffusion-based Voice Conversion with Fast Maximum Likelihood Samplin...
Deep Learning JP
ブレインパッドにおける機械学習プロジェクトの進め方
ブレインパッドにおける機械学習プロジェクトの進め方
BrainPad Inc.
モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019
Yusuke Uchida
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
Yahoo!デベロッパーネットワーク
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
Deep Learning JP
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
backbone としての timm 入門
backbone としての timm 入門
Takuji Tahara
最適化超入門
最適化超入門
Takami Sato
パターン認識と機械学習入門
パターン認識と機械学習入門
Momoko Hayamizu
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
Deep Learning JP
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
Deep Learning JP
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
ニューラルネットワーク入門
ニューラルネットワーク入門
naoto moriyama
Pythonで機械学習入門以前
Pythonで機械学習入門以前
Kimikazu Kato
Más contenido relacionado
La actualidad más candente
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
Hirokatsu Kataoka
AutoEncoderで特徴抽出
AutoEncoderで特徴抽出
Kai Sasaki
テーブル・テキスト・画像の反実仮想説明
テーブル・テキスト・画像の反実仮想説明
tmtm otm
GAN(と強化学習との関係)
GAN(と強化学習との関係)
Masahiro Suzuki
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告
GentaYoshimura
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
[DL輪読会]Diffusion-based Voice Conversion with Fast Maximum Likelihood Samplin...
[DL輪読会]Diffusion-based Voice Conversion with Fast Maximum Likelihood Samplin...
Deep Learning JP
ブレインパッドにおける機械学習プロジェクトの進め方
ブレインパッドにおける機械学習プロジェクトの進め方
BrainPad Inc.
モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019
Yusuke Uchida
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
Yahoo!デベロッパーネットワーク
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
Deep Learning JP
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
backbone としての timm 入門
backbone としての timm 入門
Takuji Tahara
最適化超入門
最適化超入門
Takami Sato
パターン認識と機械学習入門
パターン認識と機械学習入門
Momoko Hayamizu
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
Deep Learning JP
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
Deep Learning JP
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
La actualidad más candente
(20)
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
AutoEncoderで特徴抽出
AutoEncoderで特徴抽出
テーブル・テキスト・画像の反実仮想説明
テーブル・テキスト・画像の反実仮想説明
GAN(と強化学習との関係)
GAN(と強化学習との関係)
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告
Optimizer入門&最新動向
Optimizer入門&最新動向
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]Diffusion-based Voice Conversion with Fast Maximum Likelihood Samplin...
[DL輪読会]Diffusion-based Voice Conversion with Fast Maximum Likelihood Samplin...
ブレインパッドにおける機械学習プロジェクトの進め方
ブレインパッドにおける機械学習プロジェクトの進め方
モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
backbone としての timm 入門
backbone としての timm 入門
最適化超入門
最適化超入門
パターン認識と機械学習入門
パターン認識と機械学習入門
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Destacado
ニューラルネットワーク入門
ニューラルネットワーク入門
naoto moriyama
Pythonで機械学習入門以前
Pythonで機械学習入門以前
Kimikazu Kato
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015
Ryosuke Okuta
機械学習概論 講義テキスト
機械学習概論 講義テキスト
Etsuji Nakai
Pythonを使った機械学習の学習
Pythonを使った機械学習の学習
Kimikazu Kato
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
Ken Morishita
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
徹 上野山
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tatsuya Tojima
Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~
nlab_utokyo
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル
敦志 金谷
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
Yuya Unno
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
Ryota Kamoshida
Destacado
(12)
ニューラルネットワーク入門
ニューラルネットワーク入門
Pythonで機械学習入門以前
Pythonで機械学習入門以前
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015
機械学習概論 講義テキスト
機械学習概論 講義テキスト
Pythonを使った機械学習の学習
Pythonを使った機械学習の学習
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
Similar a ラベル付けのいろは
普段の仕事に活かせるキャッチコピー力養成実習
普段の仕事に活かせるキャッチコピー力養成実習
schoowebcampus
アプリ開発を効率化する 方法あれこれ
アプリ開発を効率化する 方法あれこれ
Atsushi Mizoue
書く技術・話す技術 勉強会サポートプログラム
書く技術・話す技術 勉強会サポートプログラム
Mizuhiro Kaimai
スモールリーダーシップ読書会ワークショップ
スモールリーダーシップ読書会ワークショップ
Yukei Wachi
バスケ複業エンジニアのたのしみ
バスケ複業エンジニアのたのしみ
Taku Watanabe
ソースコードを読んでみよう
ソースコードを読んでみよう
Shun Tsunoda
20210509研修・セミナーに繋がる 「ゲームの進め方」の話
20210509研修・セミナーに繋がる 「ゲームの進め方」の話
Yasuhide Ishigami
スクラムのフレームワークでKAIZENを体験しよう comeback japan 2017
スクラムのフレームワークでKAIZENを体験しよう comeback japan 2017
HIDEKAZU MATSUURA
20220921_今日からRPA推進者!(教育編)_提出用.pdf
20220921_今日からRPA推進者!(教育編)_提出用.pdf
KYOSOPRAS
推し技術書「ユースケース駆動開発実践ガイド」
推し技術書「ユースケース駆動開発実践ガイド」
keitasudo1
アジャイル開発へのイテレーション・ゼロ
アジャイル開発へのイテレーション・ゼロ
Taisuke Shiratori
教えてみてわかった、新しいことを覚えるしくみ
教えてみてわかった、新しいことを覚えるしくみ
Mori Kazue
○○について考える
○○について考える
きなこ 桜庭
アジャイル開発を始めてみませんか?(思い出編)
アジャイル開発を始めてみませんか?(思い出編)
Miho Nagase
「コーダーとしての価値を高めるウェブ解析活用術」CSS Nite 20191019
「コーダーとしての価値を高めるウェブ解析活用術」CSS Nite 20191019
大輔 井水
make the Japanese NPO sales tool better
make the Japanese NPO sales tool better
Ryo Ishihara
就職活動ぴゅ~ひゃらり~
就職活動ぴゅ~ひゃらり~
YanoLabLT
今日からはじめる「じぶんブランディング」
今日からはじめる「じぶんブランディング」
Sunami Hokuto
5分でわかる 怖くない機械学習
5分でわかる 怖くない機械学習
__john_smith__
Dev lobe20090325v1.0
Dev lobe20090325v1.0
walnut210
Similar a ラベル付けのいろは
(20)
普段の仕事に活かせるキャッチコピー力養成実習
普段の仕事に活かせるキャッチコピー力養成実習
アプリ開発を効率化する 方法あれこれ
アプリ開発を効率化する 方法あれこれ
書く技術・話す技術 勉強会サポートプログラム
書く技術・話す技術 勉強会サポートプログラム
スモールリーダーシップ読書会ワークショップ
スモールリーダーシップ読書会ワークショップ
バスケ複業エンジニアのたのしみ
バスケ複業エンジニアのたのしみ
ソースコードを読んでみよう
ソースコードを読んでみよう
20210509研修・セミナーに繋がる 「ゲームの進め方」の話
20210509研修・セミナーに繋がる 「ゲームの進め方」の話
スクラムのフレームワークでKAIZENを体験しよう comeback japan 2017
スクラムのフレームワークでKAIZENを体験しよう comeback japan 2017
20220921_今日からRPA推進者!(教育編)_提出用.pdf
20220921_今日からRPA推進者!(教育編)_提出用.pdf
推し技術書「ユースケース駆動開発実践ガイド」
推し技術書「ユースケース駆動開発実践ガイド」
アジャイル開発へのイテレーション・ゼロ
アジャイル開発へのイテレーション・ゼロ
教えてみてわかった、新しいことを覚えるしくみ
教えてみてわかった、新しいことを覚えるしくみ
○○について考える
○○について考える
アジャイル開発を始めてみませんか?(思い出編)
アジャイル開発を始めてみませんか?(思い出編)
「コーダーとしての価値を高めるウェブ解析活用術」CSS Nite 20191019
「コーダーとしての価値を高めるウェブ解析活用術」CSS Nite 20191019
make the Japanese NPO sales tool better
make the Japanese NPO sales tool better
就職活動ぴゅ~ひゃらり~
就職活動ぴゅ~ひゃらり~
今日からはじめる「じぶんブランディング」
今日からはじめる「じぶんブランディング」
5分でわかる 怖くない機械学習
5分でわかる 怖くない機械学習
Dev lobe20090325v1.0
Dev lobe20090325v1.0
Más de Kensuke Mitsuzawa
サポーターズ勉強会スライド 2018/2/27
サポーターズ勉強会スライド 2018/2/27
Kensuke Mitsuzawa
サポーターズ勉強会スライド
サポーターズ勉強会スライド
Kensuke Mitsuzawa
形態素解析器の比較できるPythonパッケージつくった話
形態素解析器の比較できるPythonパッケージつくった話
Kensuke Mitsuzawa
アダルトデータマイニングの勧め
アダルトデータマイニングの勧め
Kensuke Mitsuzawa
slides for "Supervised Model Learning with Feature Grouping based on a Discre...
slides for "Supervised Model Learning with Feature Grouping based on a Discre...
Kensuke Mitsuzawa
Learning to rankの評価手法
Learning to rankの評価手法
Kensuke Mitsuzawa
Brml 3.3 d-separation
Brml 3.3 d-separation
Kensuke Mitsuzawa
Más de Kensuke Mitsuzawa
(7)
サポーターズ勉強会スライド 2018/2/27
サポーターズ勉強会スライド 2018/2/27
サポーターズ勉強会スライド
サポーターズ勉強会スライド
形態素解析器の比較できるPythonパッケージつくった話
形態素解析器の比較できるPythonパッケージつくった話
アダルトデータマイニングの勧め
アダルトデータマイニングの勧め
slides for "Supervised Model Learning with Feature Grouping based on a Discre...
slides for "Supervised Model Learning with Feature Grouping based on a Discre...
Learning to rankの評価手法
Learning to rankの評価手法
Brml 3.3 d-separation
Brml 3.3 d-separation
ラベル付けのいろは
1.
ラベル付けのいろは 2015/12/7 Kensuke Mitsuzawa
2.
この資料を読むとわかること そもそもラベル付けはなんのためにするの? どんなラベルを用意したらいいの? どれくらいのラベル数なら妥当なの? ラベル付けは何人でやったらいいの? ラベル付け作業をどうやって評価するの?
3.
ラベル付けは何のためにするの? 「教師あり学習」の機械学習を実行するための必要不可欠なデータです 学習 フェーズ ラベル付きデータ 女性 バイク クラス分類モデル 「学習」※ ※日本語では「学習」または「訓練」と言います。「知能学習」とかわけのわからない言葉を使っていた会社を見たことありますが、そういうのは好きじゃないです。 英語では”training”と言うのが一般的です
4.
ラベル付けは何のためにするの? 「教師あり学習」の機械学習を実行するための必要不可欠なデータです 学習 フェーズ ラベル付きデータ 女性 バイク クラス分類モデル 予測 フェーズ 学習済み クラス分類モデル ラベルなしデータ 「女性」 「学習」※ 「予測」 ※日本語では「学習」または「訓練」と言います。「知能学習」とかわけのわからない言葉を使っていた会社を見たことありますが、そういうのは好きじゃないです。 英語では”training”と言うのが一般的です
5.
どんなラベルを用意したらいいの? 「誰が見ても同じ基準で分類できる」ラベル体系にするのが理想です 人間が見て曖昧なラベルは、機械でも解けません 悪いラベル例 ラベルのタイプ 『「風景」、「人」』の2ラベルの場合 風景 人
人?風景?
6.
どんなラベルを用意したらいいの? 「誰が見ても同じ基準で分類できる」ラベル体系にするのが理想です 人間が見て曖昧なラベルは、機械でも解けません 悪いラベル例 ラベルのタイプ 『「風景」、「人」』 風景 人
人?風景? バッド・パターン パターン1「風景」「人」のラベル体系が不適切 パターン2「風景と人が混同しやすい」データは排除されるべき
7.
「その他」ラベルが存在している場合の対処法 悪い分類器の組み方 人 風景 データ その他 データ 関係あるデータ 関係ないデータ 人
風景 「その他」ラベルが存在する場合、問題を分割する方が良いです 「その他」or Notを判断するためのクラス分類器を用意しましょう 良い分類器の組み方 「その他」を判断する 分類器を作ります
8.
どれくらいのラベル数を用意したらいいの? 「できる限り少なくする」が理想です ベストは2ラベルにすることです なぜ2ラベルにしないといけないのか? ラベルが3以上になると、機械学習モデルの難易度が高くなります つまり、思うように精度が出ません。ラベル数が多くなればなるほど、問題は難しくなります 2ラベルだけの分類 3ラベル以上の分類 赤線は「分離する線が引かれるところ」の可能性 3ラベル以上だと線の可能性が多くなる =解くべき問題が難しくなる
9.
実務では2ラベルでは役にたたない。どうすれば? できる限り階層化して、1つの分類器が分類する数を減らします データ ラベル1 ラベル2 ラベル3
ラベル4 ラベル5 ラベル6 ラベル7 例えば、7クラス分類をやりたい場合
10.
実務では2ラベルでは役にたたない。どうすれば? できる限り階層化して、1つの分類器が分類する数を減らします ラベル ラベル ラベル ラベル4
ラベル5 ラベル データ ラベル1 ラベル2 ラベル3 ラベル6 ラベル7
11.
実務では2ラベルでは役にたたない。どうすれば? できる限り階層化して、1つの分類器が分類する数を減らします ただの2分類になるので、 問題が簡単に ラベル ラベル ラベル ラベル4
ラベル5 ラベル データ ラベル1 ラベル2 ラベル3 ラベル6 ラベル7
12.
ラベル付けは何人でやったらいいの? 最低でも、2人で同じタグ付けをするようにします (「2人で手分けしてする」という意味ではありません。「2人ですべてのデータにタグ付けする」という意味です)
13.
ラベル付けは何人でやったらいいの? 最低でも、2人で同じタグ付けをするようにします (「2人で手分けしてする」という意味ではありません。「2人ですべてのデータにタグ付けする」という意味です) なぜ2人で冗長な作業をしなければいけないのか? 「学習のためのラベルは属人的なんでしょ?人によって違うかもしれないじゃん。信用できんよ」 を避けるためです。(こういうことを言う人は必ずいます。ビジネスであっても、研究であっても変わりはありません) 2人以上でラベルづけをすると 「できる限り普遍的なラベルである」と言えます 研究上でも認められている手法です
14.
どのように2人で作業をするの? 「タグ付け→認識確認」を最低でも1回は行います サンプリング1 100データくらいをサンプリングします トライアルタグ付け2 サンプリングしたデータにタグ付けをします 認識確認3 タグ付けデータを確認します。タグが不一致の場合は 「タグ付けのルール再確認」or
「ルールの追加」をします 不一致タグが多すぎる場合は、「タグ体系」の設計を見直してください 本タグ付け作業4 タグ付け作業を本格的に開始します (タグ付け済みのデータもスキップせずに最初からやり直します)
15.
本作業の進め方 本作業の前に「タグが不一致だった場合の対処法」を決定します パターン1 タグが不一致だったら、データは捨てる パターン2 タグが不一致だったら、すべて協議する パターン1の場合
パターン2の場合 メリット 機械学習がするべき問題が簡単になります (人間の直感に合わないデータを捨てるため) デメリット 学習用のデータが少なくなります メリット 学習用のデータが確保できます デメリット 機械学習がする問題が難しくなります 協議するために余計な時間がかかります
16.
本作業の進め方 本作業の前に「タグが不一致だった場合の対処法」を決定します パターン1 タグが不一致だったら、データは捨てる パターン2 タグが不一致だったら、すべて協議する パターン1の場合
パターン2の場合 メリット 機械学習がするべき問題が簡単になります (人間の直感に合わないデータを捨てるため) デメリット 学習用のデータが少なくなります メリット 学習用のデータが確保できます デメリット 機械学習がする問題が難しくなります 協議するために余計な時間がかかります パターン2の場合 「わからない」タグを導入し ておくとよいです
17.
ラベル付け作業はどうやって評価するの? (参考までに)研究上では、「論文でタグ付け一致度」の報告が義務です ※ 報告がない論文は怖い人にクソミソにけなされます。もしくは受理されません 心配な場合は、「カッパ係数」を計算しておきます。 タイミングは「データを捨てる」or「協議してタグを一致させる」前です カッパ係数とは? 「2つ以上のデータの一致度」を調べる数値です。カッパ係数>= 0.81で「とても良い」と言えます (参考)カッパ係数とは? Excelでも計算できますが、めんどうくさいので、相談してください。
Descargar ahora