SlideShare una empresa de Scribd logo
1 de 52
Descargar para leer sin conexión
Introduction to Datamining using WEKA 
Anto Satriyo Nugroho 
Center for Information & Communication Technology 
Agency for the Assessment & Application of Technology, Indonesia 
Email: asnugroho@ieee.org
2 
Practicing WEKA 
• What is WEKA ? 
• Formatting the data into ARFF 
• Klasifikasi 
– Tahapan membangun classifier 
– Contoh kasus : Klasifikasi bunga iris 
– Tahapan membangun classifier 
– Merangkum hasil eksperimen k-Nearest Neighbor Classifier 
– Eksperimen memakai classifier yang lain (JST, SVM) 
– Classification of cancers based on gene expression 
– Parkinson Disease Detection 
• K-Means Clustering
3 
What is WEKA ? 
• Machine learning/data mining software written in Java (distributed under 
the GNU Public License) 
• Used for research, education, and applications 
• Complements “Data Mining” by Witten & Frank 
• Main features: 
– Comprehensive set of data pre-processing tools, learning algorithms 
and evaluation methods 
– Graphical user interfaces (incl. data visualization) 
– Environment for comparing learning algorithms 
• Weka versions 
– WEKA 3.4: “book version” compatible with description in data mining 
book 
– WEKA 3.5: “developer version” with lots of improvements
Formatting Data into ARFF (Attribute Relation File Format) 
4 
@relation iris 
@attribute sepallength real 
@attribute sepalwidth real 
@attribute petallength real 
@attribute petalwidth real 
@attribute class {Iris-setosa, Iris-versicolor, Iris-virginica} 
@data 
5.1,3.5,1.4,0.2,Iris-setosa 
4.9,3.0,1.4,0.2,Iris-setosa 
… 
7.0,3.2,4.7,1.4,Iris-versicolor 
6.4,3.2,4.5,1.5,Iris-versicolor 
… 
6.3,3.3,6.0,2.5,Iris-virginica 
5.8,2.7,5.1,1.9,Iris-virginica 
…
5 
Practicing WEKA 
• What is WEKA ? 
• Formatting the data into ARFF 
• Klasifikasi 
– Tahapan membangun classifier 
– Contoh kasus : Klasifikasi bunga iris 
– Tahapan membangun classifier 
– Merangkum hasil eksperimen k-Nearest Neighbor Classifier 
– Eksperimen memakai classifier yang lain (JST, SVM) 
– Classification of cancers based on gene expression 
– Parkinson Disease Detection 
• K-Means Clustering
6 
Tahapan membangun Classifier 
1. Tentukan manakah informasi yang merupakan 
(a) attribute/feature 
(b) class 
(c) training & testing set 
(d) skenario pengukuran akurasi 
2. Tentukan kombinasi parameter model, dan lakukan proses 
pelatihan memakai training set 
3. Ukurlah akurasi yang dicapai dengan testing set 
4. Ubahlah parameter model, dan ulang kembali mulai dari 
step 2, sampai dicapai akurasi yang diinginkan
7 
Contoh Kasus : Klasifikasi bunga iris 
• Data set yang paling terkenal 
• Author: R.A. Fisher 
• Terdiri dari 3 kelas, masing-masing 
memiliki 50 samples (instances) 
• Attribute information: 
– Sepal (kelopak) length in cm 
– sepal width in cm 
– Petal (mahkota) length in cm 
– petal width in cm 
– class: (1) Iris Setosa (2) Iris 
Versicolour (3)Iris Virginica 
• URL: http://archive.ics.uci.edu/ml/ 
datasets/Iris
8 
Flower’s parts
9 
Tahapan membangun Classifier 
1. Tentukan manakah informasi yang merupakan 
(a) attribute/feature : sepal length (panjang kelopak) 
sepal width (lebar kelopak) 
petal length (panjang mahkota) 
petal width (lebar mahkota) 
(b) class: iris setosa 
iris versicolor 
iris virginica 
(c) training & testing set 
training set : 25 instances/class 
testing set: 25 instances/class 
(d) skenario pengukuran akurasi
Step by Step klasifikasi 
10
11 
Open 
file 
“iris-­‐training.arff”
Klik 
pada 
Classify 
untuk 
memilih 
Classifier 
algorithm 
12 
sta3s3cal 
informa3on 
of 
“sepallength”
Klik 
pada 
“Choose” 
untuk 
memilih 
Classifier 
algorithm 
13
14 
Naïve 
Bayes 
SMO 
( 
implementasi 
SVM)
15 
IB1 
: 
1-­‐Nearest 
Neighbor 
Classifier) 
IBk 
: 
k-­‐Nearest 
Neighbor 
Classifier
Mul3layer 
Perceptron 
(Jaringan 
Syaraf 
Tiruan) 
16
SMO 
singkatan 
dari 
Sequen3al 
Minimal 
Op3miza3on. 
SMO 
adalah 
implementasi 
SVM 
Mengacu 
pada 
paper 
John 
PlaQ 
17
18 
Decision 
Tree 
J48 
(C4.5)
19 
Misalnya 
kita 
pilih 
IBk 
: 
k-­‐Nearest 
Neighbor 
Classifier
Selanjutnya 
pilihlah 
skenario 
Pengukuran 
akurasi. 
Dari 
4 
Op3ons 
yang 
diberikan, 
pilihlah 
“Supplied 
test 
set” 
dan 
klik 
BuQon 
“Set” 
untuk 
memiilih 
Tes3ng 
set 
file 
“iris-­‐tes3ng.arff” 
20
21 
Tahapan membangun Classifier 
Iris-­‐training.arff 
Iris-­‐tes3ng.arff 
25 
25 
25 
25 
25 
Classifiers 
: 
25 
1. 
Naïve 
Bayes 
2. 
K-­‐Nearest 
Neighbor 
Classifier 
(lazy 
àiBk) 
3. 
Ar3ficial 
Neural 
Network 
(func3on 
àmul3layer 
perceptron) 
4. 
Support 
Vector 
Machine 
(func3on 
à 
SMO) 
Akurasi 
terhadap 
tes3ng 
set 
? 
iris 
setosa 
iris 
versicolor 
iris 
virginica
22 
Apakah yang dimaksud “mengukur akurasi” 
• Tes3ng 
set 
“iris-­‐tes3ng.arff” 
dilengkapi 
dengan 
informasi 
actual 
class-­‐nya. 
Misalnya 
instance 
no.1 
adalah 
suatu 
bunga 
yang 
memiliki 
sepal 
length 
5.0 
cm, 
sepal 
width 
3.0cm, 
petal 
length 
1.6 
cm, 
petal 
width 
0.2 
cm, 
dan 
jenis 
bunganya 
(class) 
“Iris 
setosa” 
• Model 
classifica3on 
yang 
dibangun 
harus 
mampu 
menebak 
dengan 
benar 
class 
tersebut.
23 
Berbagai cara pengukuran akurasi 
• “Using 
training 
set” 
: 
memakai 
seluruh 
data 
sebagai 
training 
set, 
sekaligus 
tes3ng 
set. 
Akurasi 
akan 
sangat 
3nggi, 
tetapi 
3dak 
memberikan 
es3masi 
akurasi 
yang 
sebenarnya 
terhadap 
data 
yang 
lain 
(yang 
3dak 
dipakai 
untuk 
training) 
• Hold 
Out 
Method 
: 
Memakai 
sebagian 
data 
sebagai 
training 
set, 
dan 
sisanya 
sebagai 
tes3ng 
set. 
Metode 
yang 
lazim 
dipakai, 
asal 
jumlah 
sampel 
cukup 
banyak. 
Ada 
2 
: 
supplied 
test 
set 
dan 
percentage 
split. 
Pilihlah 
“Supplied 
test 
set” 
: 
jika 
file 
training 
dan 
tes3ng 
tersedia 
secara 
terpisah. 
Pilihlah 
“Percentage 
split” 
jika 
hanya 
ada 
1 
file 
yang 
ingin 
dipisahkan 
ke 
training 
& 
tes3ng. 
Persentase 
di 
kolom 
adalah 
porsi 
yang 
dipakai 
sbg 
training 
set
24 
Berbagai cara pengukuran akurasi 
• Cross 
Valida3on 
Method 
( 
fold 
= 
5 
atau 
10 
) 
: 
teknik 
es3masi 
akurasi 
yang 
dipakai, 
jika 
jumlah 
sampel 
terbatas. 
Salah 
satu 
bentuk 
khusus 
CV 
adalah 
Leave-­‐one-­‐out 
Cross 
Valida3on 
(LOOCV) 
: 
dipakai 
jka 
jumlah 
sampel 
sangat 
terbatas
25 
Ilustrasi Cross Validation (k=5) 
1. Data 
terdiri 
dari 
100 
instances 
(samples), 
dibagi 
ke 
dalam 
5 
blok 
dengan 
jumlah 
sampel 
yang 
sama. 
Nama 
blok 
: 
A, 
B, 
C, 
D 
dan 
E, 
masing-­‐masing 
terdiri 
dari 
20 
instances 
2. Kualitas 
kombinasi 
parameter 
tertentu 
diuji 
dengan 
cara 
sbb. 
step 
1: 
training 
memakai 
A,B,C,D 
tes3ng 
memakai 
E 
akurasi 
a 
step 
2: 
training 
memakai 
A,B,C,E 
tes3ng 
memakai 
D 
akurasi 
b 
step 
3: 
training 
memakai 
A,B, 
D,E 
tes3ng 
memakai 
C 
akurasi 
c 
step 
4: 
training 
memakai 
A, 
C,D,E 
tes3ng 
memakai 
B 
akurasi 
d 
step 
5: 
training 
memakai 
B,C,D,E 
tes3ng 
memakai 
A 
akurasi 
e 
3. Rata-­‐rata 
akurasi 
: 
(a+b+c+d+e)/5 
mencerminkan 
kualitas 
parameter 
yang 
dipilih 
4. Ubahlah 
parameter 
model, 
dan 
ulangi 
dari 
no.2 
sampai 
dicapai 
akurasi 
yang 
diinginkan
Kali 
ini 
memakai 
“Supplied 
test 
set”. 
Selanjutnya 
klik 
pada 
bagian 
yang 
Di 
dalam 
kotak 
untuk 
men-­‐set 
nilai 
Parameter. 
Dalam 
hal 
ini, 
adalah 
Nilai 
“k” 
pada 
k-­‐Nearest 
Neighbour 
Classifier 
(Nick 
name 
: 
IBK) 
26
27 
Set-­‐lah 
nilai 
“k”misalnya 
3 
dan 
klik 
OK. 
Untuk 
memahami 
parameter 
yang 
lain, 
kliklah 
buQon 
“More” 
& 
“Capabili3es”
Klik 
buQon 
“Start” 
Hasil 
eksperimen 
: 
Correct 
classifica3on 
rate 
: 
96% 
(benar 
72 
dari 
total 
75 
data 
pada 
tes3ng 
set) 
28 
Bagaimana 
cara 
membaca 
Confusion 
matrix 
?
• Baris pertama “25 0 0” menunjukkan bahwa ada (25+0+0) 
instances class Iris-setosa di dalam file iris-testing.arff dan 
semua benar diklasifikasikan sebagai Iris setosa 
• Baris kedua “0 24 1” menunjukkan bahwa ada (0+24+1) 
instances class Iris-versicolor di dalam file iris-testing.arff 
dan 1 salah diklasifikasikan sebagai Iris-virginica 
• Baris ketiga “0 2 24” menunjukkan bahwa ada (0+2+23) 
instances class Iris-virginica di dalam file iris-testing.arff dan 
2 di antaranya salah diklasifikasikan sebagai Iris-versicolor
Untuk 
mengetahui 
instance 
mana 
yang 
3dak 
berhasil 
Diklasifikasikan 
klik 
“More 
Op3ons” 
dan 
check 
lah 
“Output 
predic3ons”. 
Klik 
“Start” 
untuk 
mengulangi 
eksperimen 
yang 
sama
Inst# 
: 
nomer 
urut 
data 
pada 
file 
“iris-­‐tes3ng.arff” 
actual 
: 
class 
yang 
sebenarnya 
predicted: 
class 
yang 
diprediksi 
Error: 
jika 
ada 
misclassifica3on, 
akan 
diberikan 
tanda 
“+” 
dalam 
contoh 
ini, 
pada 
instance 
no.34, 
59 
& 
60
Merangkum hasil eksperimen 
No. K Correct Classification Rate 
Iris setosa Iris versicolor Iris virginica Total 
1 1 ? ? ? ? 
2 3 100% 96% 92% 96% 
3 5 
5 
7 
9 
• Tugas 
: 
lanjutkan 
eksperimen 
di 
atas 
untuk 
nilai 
k 
= 
1, 
3, 
5, 
7 
dan 
9 
• Buatlah 
grafik 
yang 
menunjukkan 
akurasi 
yang 
dicapai 
untuk 
masing-­‐masing 
class 
pada 
berbagai 
nilai 
k. 
Sumbu 
horisontal 
: 
nilai 
k 
dan 
sumbu 
ver3kal 
: 
akurasi 
• Kapankah 
(pada 
nilai 
k 
berapa 
?) 
akurasi 
ter3nggi 
dicapai 
? 
Bagaimanakah 
trend 
akurasi 
masing-­‐masing 
class 
?
33 
Eksperimen memakai Neural Network 
• Untuk 
eksperimen 
memakai 
neural 
network, 
caranya 
sama 
dengan 
k-­‐Nearest 
Neighbor 
Classifier. 
• Parameter 
yang 
dituning 
melipu3 
antara 
lain: 
– 
hiddenLayers: 
banyaknya 
neuron 
pada 
hidden 
layer. 
Default 
“a” 
: 
rata-­‐ 
rata 
jumlah 
neuron 
pada 
input 
& 
output 
layer 
– LearningRate 
: 
biasanya 
nilai 
kecil 
(0.1, 
0.01, 
0.2, 
0.3 
dsb) 
– Momentum: 
biasanya 
nilai 
besar 
(0.6, 
0.9 
dsb) 
– trainingTime: 
maksimum 
iterasi 
backpropaga3on 
(500, 
1000, 
5000, 
10000 
dsb.)
34 
Eksperimen memakai SVM
35 
Eksperimen memakai SVM 
C: 
complexity 
parameter 
(biasanya 
mengambil 
nilai 
besar. 
100, 
1000 
dst) 
Untuk 
memilih 
kernel
Eksperimen memakai SVM
37 
Classification of cancers based on gene expression 
• Biological reference: 
Classification and diagnostic prediction of cancers using gene 
expression profiling and artificial neural networks, 
J. Khan, et al., Nature Medicine 7, pp.673-679, 2001 (http:// 
www.thep.lu.se/~carsten/pubs/lu_tp_01_06.pdf ) 
• Data is available from http://research.nhgri.nih.gov/microarray/ 
Supplement/ 
• Small Round Blue Cell Tumors (SRBCT) has two class: 
– Ewing Family of Tumors (EWS) 
– NB: Neuroblastoma 
– BL: Burkitt lymphomas 
– RMS: Rhabdomyosarcoma : RMS 
• Characteristic of the data 
– Training samples : 63 (EWS:23 BL:8 NB:12 RMS:20) 
– Testing samples: 20 (EWS:6 BL:3 NB:6 RMS:5) 
– Number of features (attributes): 2308
Classification of cancers based on gene expression 
Experiment using k-Nearest Neighbor Classifier 
• Training and testing set are given as separated arff file 
• Use training set to build a classifier: k-Nearest Neighbor (k=1) 
• Evaluate its performance on the testing set. 
• Change the value of k into 3,5,7 and 9 and repeat step 1 to 3 for each 
38 
value. 
Experiment using Artificial Neural Network 
• Do the same experiment using Multilayer Perceptron Artificial Neural 
Network for various parameter setting (hidden neurons, learning rate, 
momentum, maximum iteration). Make at least five parameter settings.
39 
Parkinson Disease Detection 
Max Little (Oxford University) recorded speech signals and measured the 
biomedical voice from 31 people, 23 with Parkinson Disease (PD). In the 
dataset which will be distributed during final examination, each column in the 
table is a particular voice measure, and each row corresponds one of 195 voice 
recording from these individuals ("name" column). The main aim of the data is 
to discriminate healthy people from those with PD, according to "status" column 
which is set to 0 for healthy and 1 for PD. There are around six recordings per 
patient, making a total of 195 instances. (Ref. 'Exploiting Nonlinear Recurrence 
and Fractal Scaling Properties for Voice Disorder Detection', Little MA, 
McSharry PE, Roberts SJ, Costello DAE, Moroz IM. BioMedical Engineering 
OnLine 2007, 6:23, 26 June 2007). 
Experiment using k-Nearest Neighbor Classifier 
Conduct classification experiments using k-Nearest Neighbor Classifier and 
Support Vector Machines, by using 50% of the data as training set and the rest 
as testing set. Try at least 5 different values of k for k-Nearest neighbor, and 
draw a graph show the relationship between k and classification rate. In case 
of Support Vector Machine experiments, try several parameter combinations by 
modifying the type of Kernel and its parameters (at least 5 experiments). 
Compare and discuss the results obtained by both classifiers. Which of them 
achieved higher accuracy ?
40 
Parkinson Disease Detection 
Max Little (Oxford University) recorded speech signals and measured the 
biomedical voice from 31 people, 23 with Parkinson Disease (PD). In the 
dataset which will be distributed during final examination, each column in the 
table is a particular voice measure, and each row corresponds one of 195 voice 
recording from these individuals ("name" column). The main aim of the data is 
to discriminate healthy people from those with PD, according to "status" column 
which is set to 0 for healthy and 1 for PD. There are around six recordings per 
patient, making a total of 195 instances. (Ref. 'Exploiting Nonlinear Recurrence 
and Fractal Scaling Properties for Voice Disorder Detection', Little MA, 
McSharry PE, Roberts SJ, Costello DAE, Moroz IM. BioMedical Engineering 
OnLine 2007, 6:23, 26 June 2007). 
Experiment using k-Nearest Neighbor Classifier 
Conduct classification experiments using k-Nearest Neighbor Classifier and 
Support Vector Machines, by using 50% of the data as training set and the rest 
as testing set. Try at least 5 different values of k for k-Nearest neighbor, and 
draw a graph show the relationship between k and classification rate. In case 
of Support Vector Machine experiments, try several parameter combinations by 
modifying the type of Kernel and its parameters (at least 5 experiments). 
Compare and discuss the results obtained by both classifiers. Which of them 
achieved higher accuracy ?
41 
Practicing WEKA 
• What is WEKA ? 
• Formatting the data into ARFF 
• Klasifikasi 
– Tahapan membangun classifier 
– Contoh kasus : Klasifikasi bunga iris 
– Tahapan membangun classifier 
– Merangkum hasil eksperimen k-Nearest Neighbor Classifier 
– Eksperimen memakai classifier yang lain (JST, SVM) 
– Classification of cancers based on gene expression 
– Parkinson Disease Detection 
• K-Means Clustering
42 
K-Means Clustering : Step by Step 
• Pilihlah 
k 
buah 
data 
sebagai 
ini3al 
centroid 
• Ulangi 
– Bentuklah 
K 
buah 
cluster 
dengan 
meng-­‐assign 
3ap 
data 
ke 
centroid 
terdekat 
– Update-­‐lah 
centroid 
3ap 
cluster 
• Sampai 
centroid 
3dak 
berubah
43 
K-Means Clustering : Step by Step
Filename 
: 
kmeans_clustering.arff
45 
1 
2
46 
Klik 
untuk 
memilih 
algoritma 
clustering 
Pilih 
“Use 
training 
set”
47
48 
Klik 
untuk 
memilih 
nilai 
k
maxItera3ons: 
untuk 
menghen3kan 
proses 
clustering 
jika 
iterasi 
melebih 
nilai 
tertentu 
numClusters: 
nilai 
k 
(banyaknya 
cluster) 
49
50 
Hasil 
clustering: 
terbentuk 
3 
cluster 
dan 
masing-­‐masing 
beranggotakan 
50 
instances
51 
Klik 
dengan 
buQon 
kanan 
mouse 
untuk 
menampilkan 
visualisasi 
cluster
52 
Nilai 
aQribute 
x 
ditampilkan 
pada 
sumbu 
x, 
dan 
nilai 
aQribute 
y 
ditampilkan 
pada 
sumbu 
y 
Tiap 
cluster 
diberikan 
warna 
yang 
berbeda 
(merah, 
biru, 
hijau)

Más contenido relacionado

La actualidad más candente

Algoritma Apriori
Algoritma AprioriAlgoritma Apriori
Algoritma Aprioridedidarwis
 
Contoh soal dan penyelesaian metode biseksi
Contoh soal dan penyelesaian metode biseksiContoh soal dan penyelesaian metode biseksi
Contoh soal dan penyelesaian metode biseksimuhamadaulia3
 
Konsep Data Mining
Konsep Data MiningKonsep Data Mining
Konsep Data Miningdedidarwis
 
Ppt analisa data
Ppt analisa dataPpt analisa data
Ppt analisa datasyaiful17
 
Materi Data Mining - C4.5
Materi Data Mining - C4.5Materi Data Mining - C4.5
Materi Data Mining - C4.5dedidarwis
 
Analisis Algoritma - Langkah Desain Algoritma
Analisis Algoritma - Langkah Desain AlgoritmaAnalisis Algoritma - Langkah Desain Algoritma
Analisis Algoritma - Langkah Desain AlgoritmaAdam Mukharil Bachtiar
 
7 Metode Pencarian Data Array
7 Metode Pencarian Data Array7 Metode Pencarian Data Array
7 Metode Pencarian Data ArraySimon Patabang
 
Bab 4 operasi-operasi dasar pengolahan citra dijital
Bab 4 operasi-operasi dasar pengolahan citra dijitalBab 4 operasi-operasi dasar pengolahan citra dijital
Bab 4 operasi-operasi dasar pengolahan citra dijitalSyafrizal
 
Pengantar Pemrograman Berorientasi Objek
Pengantar Pemrograman Berorientasi ObjekPengantar Pemrograman Berorientasi Objek
Pengantar Pemrograman Berorientasi Objekwawanext01
 
Data Mining - Naive Bayes
Data Mining - Naive BayesData Mining - Naive Bayes
Data Mining - Naive Bayesdedidarwis
 
Analisis Algoritma - Strategi Algoritma Dynamic Programming
Analisis Algoritma - Strategi Algoritma Dynamic ProgrammingAnalisis Algoritma - Strategi Algoritma Dynamic Programming
Analisis Algoritma - Strategi Algoritma Dynamic ProgrammingAdam Mukharil Bachtiar
 
Pert 04 clustering data mining
Pert 04 clustering   data miningPert 04 clustering   data mining
Pert 04 clustering data miningaiiniR
 
01_PENGANTAR DATA DATA SCIENCE.pptx
01_PENGANTAR DATA DATA SCIENCE.pptx01_PENGANTAR DATA DATA SCIENCE.pptx
01_PENGANTAR DATA DATA SCIENCE.pptxmelrideswina
 
Pertemuan 02 teori dasar himpunan
Pertemuan 02   teori dasar himpunanPertemuan 02   teori dasar himpunan
Pertemuan 02 teori dasar himpunanFajar Istiqomah
 

La actualidad más candente (20)

Data mining 1 pengantar
Data mining 1   pengantarData mining 1   pengantar
Data mining 1 pengantar
 
Algoritma Apriori
Algoritma AprioriAlgoritma Apriori
Algoritma Apriori
 
Contoh soal dan penyelesaian metode biseksi
Contoh soal dan penyelesaian metode biseksiContoh soal dan penyelesaian metode biseksi
Contoh soal dan penyelesaian metode biseksi
 
Konsep Data Mining
Konsep Data MiningKonsep Data Mining
Konsep Data Mining
 
Ppt analisa data
Ppt analisa dataPpt analisa data
Ppt analisa data
 
Tabel f-0-01
Tabel f-0-01Tabel f-0-01
Tabel f-0-01
 
Materi Data Mining - C4.5
Materi Data Mining - C4.5Materi Data Mining - C4.5
Materi Data Mining - C4.5
 
Kecerdasan bisnis
Kecerdasan bisnisKecerdasan bisnis
Kecerdasan bisnis
 
Analisis Algoritma - Langkah Desain Algoritma
Analisis Algoritma - Langkah Desain AlgoritmaAnalisis Algoritma - Langkah Desain Algoritma
Analisis Algoritma - Langkah Desain Algoritma
 
7 Metode Pencarian Data Array
7 Metode Pencarian Data Array7 Metode Pencarian Data Array
7 Metode Pencarian Data Array
 
Bab 4 operasi-operasi dasar pengolahan citra dijital
Bab 4 operasi-operasi dasar pengolahan citra dijitalBab 4 operasi-operasi dasar pengolahan citra dijital
Bab 4 operasi-operasi dasar pengolahan citra dijital
 
Pengantar Pemrograman Berorientasi Objek
Pengantar Pemrograman Berorientasi ObjekPengantar Pemrograman Berorientasi Objek
Pengantar Pemrograman Berorientasi Objek
 
Data Mining - Naive Bayes
Data Mining - Naive BayesData Mining - Naive Bayes
Data Mining - Naive Bayes
 
Analisis Algoritma - Strategi Algoritma Dynamic Programming
Analisis Algoritma - Strategi Algoritma Dynamic ProgrammingAnalisis Algoritma - Strategi Algoritma Dynamic Programming
Analisis Algoritma - Strategi Algoritma Dynamic Programming
 
Pert 04 clustering data mining
Pert 04 clustering   data miningPert 04 clustering   data mining
Pert 04 clustering data mining
 
Himpunan matematika diskrit
Himpunan matematika diskritHimpunan matematika diskrit
Himpunan matematika diskrit
 
Algoritma penjadwalan proses
Algoritma penjadwalan prosesAlgoritma penjadwalan proses
Algoritma penjadwalan proses
 
01_PENGANTAR DATA DATA SCIENCE.pptx
01_PENGANTAR DATA DATA SCIENCE.pptx01_PENGANTAR DATA DATA SCIENCE.pptx
01_PENGANTAR DATA DATA SCIENCE.pptx
 
20731 21 visualisasi data
20731 21 visualisasi data20731 21 visualisasi data
20731 21 visualisasi data
 
Pertemuan 02 teori dasar himpunan
Pertemuan 02   teori dasar himpunanPertemuan 02   teori dasar himpunan
Pertemuan 02 teori dasar himpunan
 

Destacado

Bab 1 pendahuluan weka
Bab 1 pendahuluan wekaBab 1 pendahuluan weka
Bab 1 pendahuluan wekaMedika Risna
 
Klasterisasi Menggunakan k-Means
Klasterisasi Menggunakan k-MeansKlasterisasi Menggunakan k-Means
Klasterisasi Menggunakan k-MeansPutu Sundika
 
Modelling Decision Tree with Rapidminer Weka and Orange
Modelling Decision Tree with Rapidminer Weka and OrangeModelling Decision Tree with Rapidminer Weka and Orange
Modelling Decision Tree with Rapidminer Weka and Orangeyapannizam
 
A simple introduction to weka
A simple introduction to wekaA simple introduction to weka
A simple introduction to wekaPamoda Vajiramali
 
Tugas 5 Data Mining
Tugas 5 Data Mining Tugas 5 Data Mining
Tugas 5 Data Mining Ivul Varel Fu
 
Data Mining with WEKA WEKA
Data Mining with WEKA WEKAData Mining with WEKA WEKA
Data Mining with WEKA WEKAbutest
 
Rudi hartanto tutorial 01 rapid miner 5.3 decision tree
Rudi hartanto   tutorial 01 rapid miner 5.3 decision treeRudi hartanto   tutorial 01 rapid miner 5.3 decision tree
Rudi hartanto tutorial 01 rapid miner 5.3 decision treeilmuBiner
 
Teori keputusan decision tree ketidakpastian_gtr2013
Teori keputusan decision tree ketidakpastian_gtr2013Teori keputusan decision tree ketidakpastian_gtr2013
Teori keputusan decision tree ketidakpastian_gtr2013Gusti Rusmayadi
 
Data mining tools (R , WEKA, RAPID MINER, ORANGE)
Data mining tools (R , WEKA, RAPID MINER, ORANGE)Data mining tools (R , WEKA, RAPID MINER, ORANGE)
Data mining tools (R , WEKA, RAPID MINER, ORANGE)Krishna Petrochemicals
 
Using openCV 3.2.0 with CodeBlocks
Using openCV 3.2.0 with CodeBlocksUsing openCV 3.2.0 with CodeBlocks
Using openCV 3.2.0 with CodeBlocksWei-Wen Hsu
 

Destacado (16)

Bab 1 pendahuluan weka
Bab 1 pendahuluan wekaBab 1 pendahuluan weka
Bab 1 pendahuluan weka
 
C45 sample case
C45 sample caseC45 sample case
C45 sample case
 
Klasterisasi Menggunakan k-Means
Klasterisasi Menggunakan k-MeansKlasterisasi Menggunakan k-Means
Klasterisasi Menggunakan k-Means
 
Modelling Decision Tree with Rapidminer Weka and Orange
Modelling Decision Tree with Rapidminer Weka and OrangeModelling Decision Tree with Rapidminer Weka and Orange
Modelling Decision Tree with Rapidminer Weka and Orange
 
Wekatutorial
WekatutorialWekatutorial
Wekatutorial
 
Skripsi
SkripsiSkripsi
Skripsi
 
A simple introduction to weka
A simple introduction to wekaA simple introduction to weka
A simple introduction to weka
 
Makalah orange hrm
Makalah orange hrm Makalah orange hrm
Makalah orange hrm
 
Tugas 5 Data Mining
Tugas 5 Data Mining Tugas 5 Data Mining
Tugas 5 Data Mining
 
Data Mining with WEKA WEKA
Data Mining with WEKA WEKAData Mining with WEKA WEKA
Data Mining with WEKA WEKA
 
Machine learning dan data mining
Machine learning dan data miningMachine learning dan data mining
Machine learning dan data mining
 
Rudi hartanto tutorial 01 rapid miner 5.3 decision tree
Rudi hartanto   tutorial 01 rapid miner 5.3 decision treeRudi hartanto   tutorial 01 rapid miner 5.3 decision tree
Rudi hartanto tutorial 01 rapid miner 5.3 decision tree
 
Teori keputusan decision tree ketidakpastian_gtr2013
Teori keputusan decision tree ketidakpastian_gtr2013Teori keputusan decision tree ketidakpastian_gtr2013
Teori keputusan decision tree ketidakpastian_gtr2013
 
Data mining
Data miningData mining
Data mining
 
Data mining tools (R , WEKA, RAPID MINER, ORANGE)
Data mining tools (R , WEKA, RAPID MINER, ORANGE)Data mining tools (R , WEKA, RAPID MINER, ORANGE)
Data mining tools (R , WEKA, RAPID MINER, ORANGE)
 
Using openCV 3.2.0 with CodeBlocks
Using openCV 3.2.0 with CodeBlocksUsing openCV 3.2.0 with CodeBlocks
Using openCV 3.2.0 with CodeBlocks
 

Similar a WEKA Introduction

04-cara-pemakaian-weka.ppt
04-cara-pemakaian-weka.ppt04-cara-pemakaian-weka.ppt
04-cara-pemakaian-weka.pptPutrifitriasari1
 
Tutorial WEKA.ppt
Tutorial WEKA.pptTutorial WEKA.ppt
Tutorial WEKA.pptJurnalJTIM
 
Pengolahan Citra Digital - Bab15 - Pengenalan Pola
Pengolahan Citra Digital - Bab15 - Pengenalan PolaPengolahan Citra Digital - Bab15 - Pengenalan Pola
Pengolahan Citra Digital - Bab15 - Pengenalan PolaLaksmana Hendra
 
clustering
clusteringclustering
clusteringdewi2093
 
scikit-learn cheat sheet untuk data science
scikit-learn cheat sheet untuk data sciencescikit-learn cheat sheet untuk data science
scikit-learn cheat sheet untuk data sciencesoftscients
 
Data Mining Klasifikasi (Updated 30 Desember 2020)
Data Mining Klasifikasi (Updated 30 Desember 2020)Data Mining Klasifikasi (Updated 30 Desember 2020)
Data Mining Klasifikasi (Updated 30 Desember 2020)Adam Mukharil Bachtiar
 
cara menggunakan materi black box keseharian
cara menggunakan materi black box kesehariancara menggunakan materi black box keseharian
cara menggunakan materi black box kesehariantutorial3112
 
Data mining algoritma covering dan penerapannya
Data mining algoritma covering dan penerapannyaData mining algoritma covering dan penerapannya
Data mining algoritma covering dan penerapannyaUniversitas Gadjah Mada
 
Bab 5 pengujian_perangkat_lunak
Bab 5 pengujian_perangkat_lunakBab 5 pengujian_perangkat_lunak
Bab 5 pengujian_perangkat_lunakAdie Suryadi
 
Testing&implementasi 4
Testing&implementasi 4Testing&implementasi 4
Testing&implementasi 4aiiniR
 
Klasifikasi Data Mining.pptx
Klasifikasi Data Mining.pptxKlasifikasi Data Mining.pptx
Klasifikasi Data Mining.pptxAdam Superman
 
Klasterisasi - Algoritma K-Means Clustering.pdf
Klasterisasi - Algoritma K-Means Clustering.pdfKlasterisasi - Algoritma K-Means Clustering.pdf
Klasterisasi - Algoritma K-Means Clustering.pdfElvi Rahmi
 
Mi1274 alpro lanjut 3 - percabangan if - praktikan
Mi1274 alpro lanjut   3 - percabangan if - praktikanMi1274 alpro lanjut   3 - percabangan if - praktikan
Mi1274 alpro lanjut 3 - percabangan if - praktikanDefina Iskandar
 
Machine Learning Diskusi 9.pdf
Machine Learning Diskusi 9.pdfMachine Learning Diskusi 9.pdf
Machine Learning Diskusi 9.pdfHendroGunawan8
 
IFK 438_Pertemuan ke 15_Accuracy Assesment.pdf
IFK 438_Pertemuan ke 15_Accuracy Assesment.pdfIFK 438_Pertemuan ke 15_Accuracy Assesment.pdf
IFK 438_Pertemuan ke 15_Accuracy Assesment.pdfUIKA, PT MURA TEKNIK
 

Similar a WEKA Introduction (20)

04-cara-pemakaian-weka.ppt
04-cara-pemakaian-weka.ppt04-cara-pemakaian-weka.ppt
04-cara-pemakaian-weka.ppt
 
Tutorial WEKA.ppt
Tutorial WEKA.pptTutorial WEKA.ppt
Tutorial WEKA.ppt
 
LN s10-machine vision-s2
LN s10-machine vision-s2LN s10-machine vision-s2
LN s10-machine vision-s2
 
Pengolahan Citra Digital - Bab15 - Pengenalan Pola
Pengolahan Citra Digital - Bab15 - Pengenalan PolaPengolahan Citra Digital - Bab15 - Pengenalan Pola
Pengolahan Citra Digital - Bab15 - Pengenalan Pola
 
Testing black box
Testing black boxTesting black box
Testing black box
 
clustering
clusteringclustering
clustering
 
scikit-learn cheat sheet untuk data science
scikit-learn cheat sheet untuk data sciencescikit-learn cheat sheet untuk data science
scikit-learn cheat sheet untuk data science
 
Modul klasifikasi decission tree modul klasifikasi
Modul klasifikasi decission tree modul klasifikasiModul klasifikasi decission tree modul klasifikasi
Modul klasifikasi decission tree modul klasifikasi
 
Data Mining Klasifikasi (Updated 30 Desember 2020)
Data Mining Klasifikasi (Updated 30 Desember 2020)Data Mining Klasifikasi (Updated 30 Desember 2020)
Data Mining Klasifikasi (Updated 30 Desember 2020)
 
PPT KEL 3 DAI - 007.pptx
PPT KEL 3 DAI - 007.pptxPPT KEL 3 DAI - 007.pptx
PPT KEL 3 DAI - 007.pptx
 
cara menggunakan materi black box keseharian
cara menggunakan materi black box kesehariancara menggunakan materi black box keseharian
cara menggunakan materi black box keseharian
 
Data mining algoritma covering dan penerapannya
Data mining algoritma covering dan penerapannyaData mining algoritma covering dan penerapannya
Data mining algoritma covering dan penerapannya
 
Bab 5 pengujian_perangkat_lunak
Bab 5 pengujian_perangkat_lunakBab 5 pengujian_perangkat_lunak
Bab 5 pengujian_perangkat_lunak
 
Testing&implementasi 4
Testing&implementasi 4Testing&implementasi 4
Testing&implementasi 4
 
Klasifikasi Data Mining.pptx
Klasifikasi Data Mining.pptxKlasifikasi Data Mining.pptx
Klasifikasi Data Mining.pptx
 
Klasterisasi - Algoritma K-Means Clustering.pdf
Klasterisasi - Algoritma K-Means Clustering.pdfKlasterisasi - Algoritma K-Means Clustering.pdf
Klasterisasi - Algoritma K-Means Clustering.pdf
 
testing_black_box.ppt
testing_black_box.ppttesting_black_box.ppt
testing_black_box.ppt
 
Mi1274 alpro lanjut 3 - percabangan if - praktikan
Mi1274 alpro lanjut   3 - percabangan if - praktikanMi1274 alpro lanjut   3 - percabangan if - praktikan
Mi1274 alpro lanjut 3 - percabangan if - praktikan
 
Machine Learning Diskusi 9.pdf
Machine Learning Diskusi 9.pdfMachine Learning Diskusi 9.pdf
Machine Learning Diskusi 9.pdf
 
IFK 438_Pertemuan ke 15_Accuracy Assesment.pdf
IFK 438_Pertemuan ke 15_Accuracy Assesment.pdfIFK 438_Pertemuan ke 15_Accuracy Assesment.pdf
IFK 438_Pertemuan ke 15_Accuracy Assesment.pdf
 

WEKA Introduction

  • 1. Introduction to Datamining using WEKA Anto Satriyo Nugroho Center for Information & Communication Technology Agency for the Assessment & Application of Technology, Indonesia Email: asnugroho@ieee.org
  • 2. 2 Practicing WEKA • What is WEKA ? • Formatting the data into ARFF • Klasifikasi – Tahapan membangun classifier – Contoh kasus : Klasifikasi bunga iris – Tahapan membangun classifier – Merangkum hasil eksperimen k-Nearest Neighbor Classifier – Eksperimen memakai classifier yang lain (JST, SVM) – Classification of cancers based on gene expression – Parkinson Disease Detection • K-Means Clustering
  • 3. 3 What is WEKA ? • Machine learning/data mining software written in Java (distributed under the GNU Public License) • Used for research, education, and applications • Complements “Data Mining” by Witten & Frank • Main features: – Comprehensive set of data pre-processing tools, learning algorithms and evaluation methods – Graphical user interfaces (incl. data visualization) – Environment for comparing learning algorithms • Weka versions – WEKA 3.4: “book version” compatible with description in data mining book – WEKA 3.5: “developer version” with lots of improvements
  • 4. Formatting Data into ARFF (Attribute Relation File Format) 4 @relation iris @attribute sepallength real @attribute sepalwidth real @attribute petallength real @attribute petalwidth real @attribute class {Iris-setosa, Iris-versicolor, Iris-virginica} @data 5.1,3.5,1.4,0.2,Iris-setosa 4.9,3.0,1.4,0.2,Iris-setosa … 7.0,3.2,4.7,1.4,Iris-versicolor 6.4,3.2,4.5,1.5,Iris-versicolor … 6.3,3.3,6.0,2.5,Iris-virginica 5.8,2.7,5.1,1.9,Iris-virginica …
  • 5. 5 Practicing WEKA • What is WEKA ? • Formatting the data into ARFF • Klasifikasi – Tahapan membangun classifier – Contoh kasus : Klasifikasi bunga iris – Tahapan membangun classifier – Merangkum hasil eksperimen k-Nearest Neighbor Classifier – Eksperimen memakai classifier yang lain (JST, SVM) – Classification of cancers based on gene expression – Parkinson Disease Detection • K-Means Clustering
  • 6. 6 Tahapan membangun Classifier 1. Tentukan manakah informasi yang merupakan (a) attribute/feature (b) class (c) training & testing set (d) skenario pengukuran akurasi 2. Tentukan kombinasi parameter model, dan lakukan proses pelatihan memakai training set 3. Ukurlah akurasi yang dicapai dengan testing set 4. Ubahlah parameter model, dan ulang kembali mulai dari step 2, sampai dicapai akurasi yang diinginkan
  • 7. 7 Contoh Kasus : Klasifikasi bunga iris • Data set yang paling terkenal • Author: R.A. Fisher • Terdiri dari 3 kelas, masing-masing memiliki 50 samples (instances) • Attribute information: – Sepal (kelopak) length in cm – sepal width in cm – Petal (mahkota) length in cm – petal width in cm – class: (1) Iris Setosa (2) Iris Versicolour (3)Iris Virginica • URL: http://archive.ics.uci.edu/ml/ datasets/Iris
  • 9. 9 Tahapan membangun Classifier 1. Tentukan manakah informasi yang merupakan (a) attribute/feature : sepal length (panjang kelopak) sepal width (lebar kelopak) petal length (panjang mahkota) petal width (lebar mahkota) (b) class: iris setosa iris versicolor iris virginica (c) training & testing set training set : 25 instances/class testing set: 25 instances/class (d) skenario pengukuran akurasi
  • 10. Step by Step klasifikasi 10
  • 11. 11 Open file “iris-­‐training.arff”
  • 12. Klik pada Classify untuk memilih Classifier algorithm 12 sta3s3cal informa3on of “sepallength”
  • 13. Klik pada “Choose” untuk memilih Classifier algorithm 13
  • 14. 14 Naïve Bayes SMO ( implementasi SVM)
  • 15. 15 IB1 : 1-­‐Nearest Neighbor Classifier) IBk : k-­‐Nearest Neighbor Classifier
  • 16. Mul3layer Perceptron (Jaringan Syaraf Tiruan) 16
  • 17. SMO singkatan dari Sequen3al Minimal Op3miza3on. SMO adalah implementasi SVM Mengacu pada paper John PlaQ 17
  • 18. 18 Decision Tree J48 (C4.5)
  • 19. 19 Misalnya kita pilih IBk : k-­‐Nearest Neighbor Classifier
  • 20. Selanjutnya pilihlah skenario Pengukuran akurasi. Dari 4 Op3ons yang diberikan, pilihlah “Supplied test set” dan klik BuQon “Set” untuk memiilih Tes3ng set file “iris-­‐tes3ng.arff” 20
  • 21. 21 Tahapan membangun Classifier Iris-­‐training.arff Iris-­‐tes3ng.arff 25 25 25 25 25 Classifiers : 25 1. Naïve Bayes 2. K-­‐Nearest Neighbor Classifier (lazy àiBk) 3. Ar3ficial Neural Network (func3on àmul3layer perceptron) 4. Support Vector Machine (func3on à SMO) Akurasi terhadap tes3ng set ? iris setosa iris versicolor iris virginica
  • 22. 22 Apakah yang dimaksud “mengukur akurasi” • Tes3ng set “iris-­‐tes3ng.arff” dilengkapi dengan informasi actual class-­‐nya. Misalnya instance no.1 adalah suatu bunga yang memiliki sepal length 5.0 cm, sepal width 3.0cm, petal length 1.6 cm, petal width 0.2 cm, dan jenis bunganya (class) “Iris setosa” • Model classifica3on yang dibangun harus mampu menebak dengan benar class tersebut.
  • 23. 23 Berbagai cara pengukuran akurasi • “Using training set” : memakai seluruh data sebagai training set, sekaligus tes3ng set. Akurasi akan sangat 3nggi, tetapi 3dak memberikan es3masi akurasi yang sebenarnya terhadap data yang lain (yang 3dak dipakai untuk training) • Hold Out Method : Memakai sebagian data sebagai training set, dan sisanya sebagai tes3ng set. Metode yang lazim dipakai, asal jumlah sampel cukup banyak. Ada 2 : supplied test set dan percentage split. Pilihlah “Supplied test set” : jika file training dan tes3ng tersedia secara terpisah. Pilihlah “Percentage split” jika hanya ada 1 file yang ingin dipisahkan ke training & tes3ng. Persentase di kolom adalah porsi yang dipakai sbg training set
  • 24. 24 Berbagai cara pengukuran akurasi • Cross Valida3on Method ( fold = 5 atau 10 ) : teknik es3masi akurasi yang dipakai, jika jumlah sampel terbatas. Salah satu bentuk khusus CV adalah Leave-­‐one-­‐out Cross Valida3on (LOOCV) : dipakai jka jumlah sampel sangat terbatas
  • 25. 25 Ilustrasi Cross Validation (k=5) 1. Data terdiri dari 100 instances (samples), dibagi ke dalam 5 blok dengan jumlah sampel yang sama. Nama blok : A, B, C, D dan E, masing-­‐masing terdiri dari 20 instances 2. Kualitas kombinasi parameter tertentu diuji dengan cara sbb. step 1: training memakai A,B,C,D tes3ng memakai E akurasi a step 2: training memakai A,B,C,E tes3ng memakai D akurasi b step 3: training memakai A,B, D,E tes3ng memakai C akurasi c step 4: training memakai A, C,D,E tes3ng memakai B akurasi d step 5: training memakai B,C,D,E tes3ng memakai A akurasi e 3. Rata-­‐rata akurasi : (a+b+c+d+e)/5 mencerminkan kualitas parameter yang dipilih 4. Ubahlah parameter model, dan ulangi dari no.2 sampai dicapai akurasi yang diinginkan
  • 26. Kali ini memakai “Supplied test set”. Selanjutnya klik pada bagian yang Di dalam kotak untuk men-­‐set nilai Parameter. Dalam hal ini, adalah Nilai “k” pada k-­‐Nearest Neighbour Classifier (Nick name : IBK) 26
  • 27. 27 Set-­‐lah nilai “k”misalnya 3 dan klik OK. Untuk memahami parameter yang lain, kliklah buQon “More” & “Capabili3es”
  • 28. Klik buQon “Start” Hasil eksperimen : Correct classifica3on rate : 96% (benar 72 dari total 75 data pada tes3ng set) 28 Bagaimana cara membaca Confusion matrix ?
  • 29. • Baris pertama “25 0 0” menunjukkan bahwa ada (25+0+0) instances class Iris-setosa di dalam file iris-testing.arff dan semua benar diklasifikasikan sebagai Iris setosa • Baris kedua “0 24 1” menunjukkan bahwa ada (0+24+1) instances class Iris-versicolor di dalam file iris-testing.arff dan 1 salah diklasifikasikan sebagai Iris-virginica • Baris ketiga “0 2 24” menunjukkan bahwa ada (0+2+23) instances class Iris-virginica di dalam file iris-testing.arff dan 2 di antaranya salah diklasifikasikan sebagai Iris-versicolor
  • 30. Untuk mengetahui instance mana yang 3dak berhasil Diklasifikasikan klik “More Op3ons” dan check lah “Output predic3ons”. Klik “Start” untuk mengulangi eksperimen yang sama
  • 31. Inst# : nomer urut data pada file “iris-­‐tes3ng.arff” actual : class yang sebenarnya predicted: class yang diprediksi Error: jika ada misclassifica3on, akan diberikan tanda “+” dalam contoh ini, pada instance no.34, 59 & 60
  • 32. Merangkum hasil eksperimen No. K Correct Classification Rate Iris setosa Iris versicolor Iris virginica Total 1 1 ? ? ? ? 2 3 100% 96% 92% 96% 3 5 5 7 9 • Tugas : lanjutkan eksperimen di atas untuk nilai k = 1, 3, 5, 7 dan 9 • Buatlah grafik yang menunjukkan akurasi yang dicapai untuk masing-­‐masing class pada berbagai nilai k. Sumbu horisontal : nilai k dan sumbu ver3kal : akurasi • Kapankah (pada nilai k berapa ?) akurasi ter3nggi dicapai ? Bagaimanakah trend akurasi masing-­‐masing class ?
  • 33. 33 Eksperimen memakai Neural Network • Untuk eksperimen memakai neural network, caranya sama dengan k-­‐Nearest Neighbor Classifier. • Parameter yang dituning melipu3 antara lain: – hiddenLayers: banyaknya neuron pada hidden layer. Default “a” : rata-­‐ rata jumlah neuron pada input & output layer – LearningRate : biasanya nilai kecil (0.1, 0.01, 0.2, 0.3 dsb) – Momentum: biasanya nilai besar (0.6, 0.9 dsb) – trainingTime: maksimum iterasi backpropaga3on (500, 1000, 5000, 10000 dsb.)
  • 35. 35 Eksperimen memakai SVM C: complexity parameter (biasanya mengambil nilai besar. 100, 1000 dst) Untuk memilih kernel
  • 37. 37 Classification of cancers based on gene expression • Biological reference: Classification and diagnostic prediction of cancers using gene expression profiling and artificial neural networks, J. Khan, et al., Nature Medicine 7, pp.673-679, 2001 (http:// www.thep.lu.se/~carsten/pubs/lu_tp_01_06.pdf ) • Data is available from http://research.nhgri.nih.gov/microarray/ Supplement/ • Small Round Blue Cell Tumors (SRBCT) has two class: – Ewing Family of Tumors (EWS) – NB: Neuroblastoma – BL: Burkitt lymphomas – RMS: Rhabdomyosarcoma : RMS • Characteristic of the data – Training samples : 63 (EWS:23 BL:8 NB:12 RMS:20) – Testing samples: 20 (EWS:6 BL:3 NB:6 RMS:5) – Number of features (attributes): 2308
  • 38. Classification of cancers based on gene expression Experiment using k-Nearest Neighbor Classifier • Training and testing set are given as separated arff file • Use training set to build a classifier: k-Nearest Neighbor (k=1) • Evaluate its performance on the testing set. • Change the value of k into 3,5,7 and 9 and repeat step 1 to 3 for each 38 value. Experiment using Artificial Neural Network • Do the same experiment using Multilayer Perceptron Artificial Neural Network for various parameter setting (hidden neurons, learning rate, momentum, maximum iteration). Make at least five parameter settings.
  • 39. 39 Parkinson Disease Detection Max Little (Oxford University) recorded speech signals and measured the biomedical voice from 31 people, 23 with Parkinson Disease (PD). In the dataset which will be distributed during final examination, each column in the table is a particular voice measure, and each row corresponds one of 195 voice recording from these individuals ("name" column). The main aim of the data is to discriminate healthy people from those with PD, according to "status" column which is set to 0 for healthy and 1 for PD. There are around six recordings per patient, making a total of 195 instances. (Ref. 'Exploiting Nonlinear Recurrence and Fractal Scaling Properties for Voice Disorder Detection', Little MA, McSharry PE, Roberts SJ, Costello DAE, Moroz IM. BioMedical Engineering OnLine 2007, 6:23, 26 June 2007). Experiment using k-Nearest Neighbor Classifier Conduct classification experiments using k-Nearest Neighbor Classifier and Support Vector Machines, by using 50% of the data as training set and the rest as testing set. Try at least 5 different values of k for k-Nearest neighbor, and draw a graph show the relationship between k and classification rate. In case of Support Vector Machine experiments, try several parameter combinations by modifying the type of Kernel and its parameters (at least 5 experiments). Compare and discuss the results obtained by both classifiers. Which of them achieved higher accuracy ?
  • 40. 40 Parkinson Disease Detection Max Little (Oxford University) recorded speech signals and measured the biomedical voice from 31 people, 23 with Parkinson Disease (PD). In the dataset which will be distributed during final examination, each column in the table is a particular voice measure, and each row corresponds one of 195 voice recording from these individuals ("name" column). The main aim of the data is to discriminate healthy people from those with PD, according to "status" column which is set to 0 for healthy and 1 for PD. There are around six recordings per patient, making a total of 195 instances. (Ref. 'Exploiting Nonlinear Recurrence and Fractal Scaling Properties for Voice Disorder Detection', Little MA, McSharry PE, Roberts SJ, Costello DAE, Moroz IM. BioMedical Engineering OnLine 2007, 6:23, 26 June 2007). Experiment using k-Nearest Neighbor Classifier Conduct classification experiments using k-Nearest Neighbor Classifier and Support Vector Machines, by using 50% of the data as training set and the rest as testing set. Try at least 5 different values of k for k-Nearest neighbor, and draw a graph show the relationship between k and classification rate. In case of Support Vector Machine experiments, try several parameter combinations by modifying the type of Kernel and its parameters (at least 5 experiments). Compare and discuss the results obtained by both classifiers. Which of them achieved higher accuracy ?
  • 41. 41 Practicing WEKA • What is WEKA ? • Formatting the data into ARFF • Klasifikasi – Tahapan membangun classifier – Contoh kasus : Klasifikasi bunga iris – Tahapan membangun classifier – Merangkum hasil eksperimen k-Nearest Neighbor Classifier – Eksperimen memakai classifier yang lain (JST, SVM) – Classification of cancers based on gene expression – Parkinson Disease Detection • K-Means Clustering
  • 42. 42 K-Means Clustering : Step by Step • Pilihlah k buah data sebagai ini3al centroid • Ulangi – Bentuklah K buah cluster dengan meng-­‐assign 3ap data ke centroid terdekat – Update-­‐lah centroid 3ap cluster • Sampai centroid 3dak berubah
  • 43. 43 K-Means Clustering : Step by Step
  • 46. 46 Klik untuk memilih algoritma clustering Pilih “Use training set”
  • 47. 47
  • 48. 48 Klik untuk memilih nilai k
  • 49. maxItera3ons: untuk menghen3kan proses clustering jika iterasi melebih nilai tertentu numClusters: nilai k (banyaknya cluster) 49
  • 50. 50 Hasil clustering: terbentuk 3 cluster dan masing-­‐masing beranggotakan 50 instances
  • 51. 51 Klik dengan buQon kanan mouse untuk menampilkan visualisasi cluster
  • 52. 52 Nilai aQribute x ditampilkan pada sumbu x, dan nilai aQribute y ditampilkan pada sumbu y Tiap cluster diberikan warna yang berbeda (merah, biru, hijau)