SlideShare una empresa de Scribd logo
 Model jaringan Perceptron pertama kali
dikemukakan oleh Rosenblatt (1962) dan Minsky -
Papert (1969).
 Metode pelatihan Perceptron lebih kuat dari
metode Hebb terutama dalam iterasi yang dapat
membuat output dari bobot menjadi konvergen.
 Arsitektur jaringan menggunakan single layer.
 Metode perceptron merupakan pelatihan
supervisi.
 Algoritma pelatihan perceptron digunakan untuk
biner dan bipolar.
 Satu siklus pelatihan yang melibatkan seluruh
data input disebut satu epoch.
 Neuron bias terjadi pada simpul yang BUKAN
INPUT dengan θ=0 atau tidak ada θ.
 Neuron bias adalah simpul yang mengeluarkan
nilai 1.
 Lambang neuron bias  b atau w0.
X1
Xi
Xn
y
1
W1
Wi
Wn
W0
.
.
.
.
.
.
 Arsitektur Perceptron sederhana adalah terdiri dari beberapa input dan
sebuah output.
 Perceptron biasanya digunakan untuk mengklasifikasikan suatu tipe pola
tertentu yang sering dikenal dengan pemisahan secara linear.
X1
Xi
Xn
y
1
W1
Wi
Wn
W0
.
.
.
.
.
.





−<−
≤≤−
>
=
θ
θθ
θ
inyif
inyif
inyif
outyf
_1
_0
_1
)_(
 Langkah 1 :
Inisialisasi bobot dan bias (untuk sederhananya, set bobos dan bias
dengan angka 0).
Set learning rate α (0 < α ≤ 1) (untuk sederhananya, set α dengan angka 1)
 Langkah 2:
Selama ada elemen vektor masukan yang respon unit keluarannya tidak
sama dengan target, lakukan :
a : set aktivasi dari unit input : xi = si
b : hitung respon untuk unit output :
∑=
+=
n
i
ii wxbiny
1
_





−<−
≤≤−
>
=
θ
θθ
θ
inyif
inyif
inyif
inyf
_1
_0
_1
)_(
c. perbaiki bobot dan bias, jika terjadi kesalahan pada
pola ini :
jika y ≠ t, maka
 ∆w = α*t*xi
 wi (baru) = wi (lama) + ∆w dengan ∆w = α * xi * t
 b(baru) =b(lama) + ∆ b dengan ∆b = α * t
jika tidak, maka
c. wi (baru) = wi (lama)
d. b(baru) = b(lama)
 Jika masih ada bobot yang berubah maka kondisi
dilanjutkan atau target sama dengan keluaran, jika
tidak maka proses berhenti.
Contoh Soal 2.1
Buat jaringan Perceptron untuk menyatakan fungsi logika AND dengan
menggunakan masukan biner dan keluaran biner. Pilih α = 1 dan θ = 0,2
Jawab :
x1 x2 t
0 0 -1
0 1 -1
1 0 -1
1 1 1
∑ f
w1
w2
x1
x2
n a
1
b
Pola hubungan masukan-target :
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 1 0 0 0
0 0 1 -1
0 1 1 -1
1 0 1 -1
1 1 1 1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 2
0 0 1 -1
0 1 1 -1
1 0 1 -1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 3
0 0 1 -1
0 1 1 -1
1 0 1 -1
1 1 1 1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 4
0 0 1 -1
0 1 1 -1
1 0 1 -1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 5
0 0 1 -1
0 1 1 -1
1 0 1 -1
1 1 1 1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 6
0 0 1 -1
0 1 1 -1
1 0 1 -1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 7
0 0 1 -1
0 1 1 -1
1 0 1 -1
1 1 1 1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 8
0 0 1 -1
0 1 1 -1
1 0 1 -1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 9
0 0 1 -1
0 1 1 -1
1 0 1 -1
1 1 1 1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 10
0 0 1 -1
0 1 1 -1
1 0 1 -1
Iterasi akan di hentikan pada epoch ke 10 karena fnet sudah sama
dengan target nya
Latihan Soal 2.2
Buat jaringan Perceptron untuk mengenali pola pada tabel di bawah ini. Gunaka α = 1 dan θ =
0,1.
Jawab :
x1 x2 x3 t
0 1 1 -1
1 0 1 -1
1 1 0 -1
1 1 1 1
Masukan Target Output Perubahan bobot
∆w = αxi t ∆b =
αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 x3 1 t a ∆w1 ∆w2 ∆w3 ∆b w1 w2 w3 b
Inisialisasi 0 0 0 0
0 1 1 1 -1
1 0 1 1 -1
1 1 0 1 -1
1 1 1 1 1
Ada beberapa hal yang perlu diperhatikan dalam algoritma
tersebut :
Iterasi dilakukan terus hingga semua pola memiliki
keluaran jaringan yang sama dengan targetnya (jaringan
sudah memahami pola).
Perubahan bobot hanya dilakukan pada pola yang
mengandung kesalahan (keluaran target ≠ target).
Kecepatan iterasi ditentukan oleh laju pemahaman
(∝sama dengan 0≤∝≤1) yang dipakai. Semakin besar
harga ∝, semakin sedikit iterasi yang diperlukan. Akan
tetapi jika ∝ terlalu besar, maka akan merusak pola yang
sudah benar sehingga pemahaman menjadi lambat.
Algoritma pelatihan perceptron lebih baik dibandingkan model Hebb
karena :
Setiap kali pola dimasukkan, hasil keluaran jaringan dibandingkan
dengan target yang sesungguhnya. Jika terdapat perbedaan, maka
bobot akan dimodifikasi. Jadi tidak semua bobot akan dimodifikasi dalam
setiap iterasinya.
Modifikasi bobot tidak hanya ditentukan oleh perkalian antara target
dengan masukan, tapi juga melibatkan suatu laju pemahaman (learning
rate) yang besarnya bisa diatur.
Pelatihan dilakukan berulang-ulang untuk semua kemungkinan pola
yang ada hingga jaringan dapat mengerti polanya (ditandai dengan
samanya semua keluaran jaringan dengan target keluaran yang
diinginkan). Satu siklus pelatihan yang melibatkan semua pola disebut
epoch. Dalam jaringan Hebb, pelatihan hanya dilakukan dalam satu
epoch saja. Teorema konvergensi perceptron menyatakan bahwa
apabila ada bobot yang tepat, maka proses pelatihan akan konvergen ke
bobot yang tepat tersebut.

Más contenido relacionado

La actualidad más candente

05c neural network-mlp
05c neural network-mlp05c neural network-mlp
05c neural network-mlp
rrahmad_14
 
Jaringan Syaraf Tiruan
Jaringan Syaraf TiruanJaringan Syaraf Tiruan
Jaringan Syaraf Tiruan
Mayasari Dewi
 
Kohonen SOM dan Learning Vector Quantization (LVQ)
Kohonen SOM dan Learning Vector Quantization (LVQ)Kohonen SOM dan Learning Vector Quantization (LVQ)
Kohonen SOM dan Learning Vector Quantization (LVQ)
petrus fendiyanto
 
Hebb, perceptro dan adaline
Hebb, perceptro dan adalineHebb, perceptro dan adaline
Hebb, perceptro dan adaline
petrus fendiyanto
 
Metode belajar hebbian supervised
Metode belajar hebbian supervisedMetode belajar hebbian supervised
Metode belajar hebbian supervised
Roy Nuary Singarimbun
 
Model Jaringan Hopfield
Model Jaringan HopfieldModel Jaringan Hopfield
Model Jaringan Hopfield
Sherly Uda
 
Pertemuan 14 Jaringan Syaraf (Neural Network)
Pertemuan 14 Jaringan Syaraf (Neural Network)Pertemuan 14 Jaringan Syaraf (Neural Network)
Pertemuan 14 Jaringan Syaraf (Neural Network)
Endang Retnoningsih
 
Iterasi gauss seidel
Iterasi gauss seidelIterasi gauss seidel
Iterasi gauss seidelNur Fadzri
 
7. Queue (Struktur Data)
7. Queue (Struktur Data)7. Queue (Struktur Data)
7. Queue (Struktur Data)
Kelinci Coklat
 
Makalah Jaringan Syaraf Tiruan
Makalah Jaringan Syaraf TiruanMakalah Jaringan Syaraf Tiruan
Makalah Jaringan Syaraf Tiruan
Yono Pambungsu
 
Pengenalan pola sederhana dg perceptron
Pengenalan pola sederhana dg perceptronPengenalan pola sederhana dg perceptron
Pengenalan pola sederhana dg perceptron
Arief Fatchul Huda
 
6. Stack (Struktur Data)
6. Stack (Struktur Data)6. Stack (Struktur Data)
6. Stack (Struktur Data)
Kelinci Coklat
 
Statistika non-parametrik dengan metode Uji Tanda
Statistika non-parametrik dengan metode Uji Tanda Statistika non-parametrik dengan metode Uji Tanda
Statistika non-parametrik dengan metode Uji Tanda RindyArini
 
Distribusi eksponensial
Distribusi eksponensialDistribusi eksponensial
Distribusi eksponensial
Phe Phe
 
Menyederhanakan fungsi boolean dengan menggunakan metode quin1
Menyederhanakan fungsi boolean dengan menggunakan metode quin1Menyederhanakan fungsi boolean dengan menggunakan metode quin1
Menyederhanakan fungsi boolean dengan menggunakan metode quin1BAIDILAH Baidilah
 
Aljabar boolean
Aljabar booleanAljabar boolean
Aljabar boolean
farhan2000
 

La actualidad más candente (20)

05c neural network-mlp
05c neural network-mlp05c neural network-mlp
05c neural network-mlp
 
Jaringan Syaraf Tiruan
Jaringan Syaraf TiruanJaringan Syaraf Tiruan
Jaringan Syaraf Tiruan
 
Kohonen SOM dan Learning Vector Quantization (LVQ)
Kohonen SOM dan Learning Vector Quantization (LVQ)Kohonen SOM dan Learning Vector Quantization (LVQ)
Kohonen SOM dan Learning Vector Quantization (LVQ)
 
Hebb, perceptro dan adaline
Hebb, perceptro dan adalineHebb, perceptro dan adaline
Hebb, perceptro dan adaline
 
Metode belajar hebbian supervised
Metode belajar hebbian supervisedMetode belajar hebbian supervised
Metode belajar hebbian supervised
 
Model Jaringan Hopfield
Model Jaringan HopfieldModel Jaringan Hopfield
Model Jaringan Hopfield
 
Jaringan perceptron & matlab
Jaringan perceptron & matlabJaringan perceptron & matlab
Jaringan perceptron & matlab
 
Pertemuan 14 Jaringan Syaraf (Neural Network)
Pertemuan 14 Jaringan Syaraf (Neural Network)Pertemuan 14 Jaringan Syaraf (Neural Network)
Pertemuan 14 Jaringan Syaraf (Neural Network)
 
Iterasi gauss seidel
Iterasi gauss seidelIterasi gauss seidel
Iterasi gauss seidel
 
Bab 4 aljabar boolean
Bab 4 aljabar booleanBab 4 aljabar boolean
Bab 4 aljabar boolean
 
7. Queue (Struktur Data)
7. Queue (Struktur Data)7. Queue (Struktur Data)
7. Queue (Struktur Data)
 
Makalah Jaringan Syaraf Tiruan
Makalah Jaringan Syaraf TiruanMakalah Jaringan Syaraf Tiruan
Makalah Jaringan Syaraf Tiruan
 
Turunan numerik
Turunan numerikTurunan numerik
Turunan numerik
 
Pengenalan pola sederhana dg perceptron
Pengenalan pola sederhana dg perceptronPengenalan pola sederhana dg perceptron
Pengenalan pola sederhana dg perceptron
 
circular linked list
circular linked listcircular linked list
circular linked list
 
6. Stack (Struktur Data)
6. Stack (Struktur Data)6. Stack (Struktur Data)
6. Stack (Struktur Data)
 
Statistika non-parametrik dengan metode Uji Tanda
Statistika non-parametrik dengan metode Uji Tanda Statistika non-parametrik dengan metode Uji Tanda
Statistika non-parametrik dengan metode Uji Tanda
 
Distribusi eksponensial
Distribusi eksponensialDistribusi eksponensial
Distribusi eksponensial
 
Menyederhanakan fungsi boolean dengan menggunakan metode quin1
Menyederhanakan fungsi boolean dengan menggunakan metode quin1Menyederhanakan fungsi boolean dengan menggunakan metode quin1
Menyederhanakan fungsi boolean dengan menggunakan metode quin1
 
Aljabar boolean
Aljabar booleanAljabar boolean
Aljabar boolean
 

Similar a Jar perceptron

Jaringanhebb
JaringanhebbJaringanhebb
JaringanhebbSan Toso
 
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptxJARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
UmiMahdiyah2
 
7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx
SeminusPahabol
 
Pertemuan 3. Arsitektur jaringan Hebb.pptx
Pertemuan 3. Arsitektur jaringan Hebb.pptxPertemuan 3. Arsitektur jaringan Hebb.pptx
Pertemuan 3. Arsitektur jaringan Hebb.pptx
smk methodist-8
 
Dkc 2 kelompok 2
Dkc 2 kelompok 2Dkc 2 kelompok 2
Dkc 2 kelompok 2
Putu Suardika
 
penjelasan Algoritma neural network Feed Forward
penjelasan Algoritma neural network Feed Forwardpenjelasan Algoritma neural network Feed Forward
penjelasan Algoritma neural network Feed Forward
natasyajess61
 
Back propagation
Back propagationBack propagation
Back propagation
Pendekar Sunnah
 
Supervised Learning
Supervised LearningSupervised Learning
Supervised Learning
Sherly Uda
 
Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)
DindaAyuYunitasari
 
(Jst)hebb dan delta rule
(Jst)hebb dan delta rule(Jst)hebb dan delta rule
(Jst)hebb dan delta rule
Junior Iqfar
 
pertemuan-11-jst.ppt
pertemuan-11-jst.pptpertemuan-11-jst.ppt
pertemuan-11-jst.ppt
ardian206415
 

Similar a Jar perceptron (14)

Jaringanhebb
JaringanhebbJaringanhebb
Jaringanhebb
 
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptxJARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
 
19511 19 & 20 jst
19511 19 & 20 jst19511 19 & 20 jst
19511 19 & 20 jst
 
14237 19 & 20 jst
14237 19 & 20 jst14237 19 & 20 jst
14237 19 & 20 jst
 
7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx
 
Pertemuan 3. Arsitektur jaringan Hebb.pptx
Pertemuan 3. Arsitektur jaringan Hebb.pptxPertemuan 3. Arsitektur jaringan Hebb.pptx
Pertemuan 3. Arsitektur jaringan Hebb.pptx
 
Dkc 2 kelompok 2
Dkc 2 kelompok 2Dkc 2 kelompok 2
Dkc 2 kelompok 2
 
penjelasan Algoritma neural network Feed Forward
penjelasan Algoritma neural network Feed Forwardpenjelasan Algoritma neural network Feed Forward
penjelasan Algoritma neural network Feed Forward
 
Back propagation
Back propagationBack propagation
Back propagation
 
Supervised Learning
Supervised LearningSupervised Learning
Supervised Learning
 
Jstchapt2
Jstchapt2Jstchapt2
Jstchapt2
 
Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)
 
(Jst)hebb dan delta rule
(Jst)hebb dan delta rule(Jst)hebb dan delta rule
(Jst)hebb dan delta rule
 
pertemuan-11-jst.ppt
pertemuan-11-jst.pptpertemuan-11-jst.ppt
pertemuan-11-jst.ppt
 

Jar perceptron

  • 1.
  • 2.  Model jaringan Perceptron pertama kali dikemukakan oleh Rosenblatt (1962) dan Minsky - Papert (1969).  Metode pelatihan Perceptron lebih kuat dari metode Hebb terutama dalam iterasi yang dapat membuat output dari bobot menjadi konvergen.  Arsitektur jaringan menggunakan single layer.  Metode perceptron merupakan pelatihan supervisi.  Algoritma pelatihan perceptron digunakan untuk biner dan bipolar.  Satu siklus pelatihan yang melibatkan seluruh data input disebut satu epoch.
  • 3.  Neuron bias terjadi pada simpul yang BUKAN INPUT dengan θ=0 atau tidak ada θ.  Neuron bias adalah simpul yang mengeluarkan nilai 1.  Lambang neuron bias  b atau w0. X1 Xi Xn y 1 W1 Wi Wn W0 . . . . . .
  • 4.  Arsitektur Perceptron sederhana adalah terdiri dari beberapa input dan sebuah output.  Perceptron biasanya digunakan untuk mengklasifikasikan suatu tipe pola tertentu yang sering dikenal dengan pemisahan secara linear. X1 Xi Xn y 1 W1 Wi Wn W0 . . . . . .      −<− ≤≤− > = θ θθ θ inyif inyif inyif outyf _1 _0 _1 )_(
  • 5.  Langkah 1 : Inisialisasi bobot dan bias (untuk sederhananya, set bobos dan bias dengan angka 0). Set learning rate α (0 < α ≤ 1) (untuk sederhananya, set α dengan angka 1)  Langkah 2: Selama ada elemen vektor masukan yang respon unit keluarannya tidak sama dengan target, lakukan : a : set aktivasi dari unit input : xi = si b : hitung respon untuk unit output : ∑= += n i ii wxbiny 1 _      −<− ≤≤− > = θ θθ θ inyif inyif inyif inyf _1 _0 _1 )_(
  • 6. c. perbaiki bobot dan bias, jika terjadi kesalahan pada pola ini : jika y ≠ t, maka  ∆w = α*t*xi  wi (baru) = wi (lama) + ∆w dengan ∆w = α * xi * t  b(baru) =b(lama) + ∆ b dengan ∆b = α * t jika tidak, maka c. wi (baru) = wi (lama) d. b(baru) = b(lama)  Jika masih ada bobot yang berubah maka kondisi dilanjutkan atau target sama dengan keluaran, jika tidak maka proses berhenti.
  • 7. Contoh Soal 2.1 Buat jaringan Perceptron untuk menyatakan fungsi logika AND dengan menggunakan masukan biner dan keluaran biner. Pilih α = 1 dan θ = 0,2 Jawab : x1 x2 t 0 0 -1 0 1 -1 1 0 -1 1 1 1 ∑ f w1 w2 x1 x2 n a 1 b Pola hubungan masukan-target :
  • 8. Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 1 0 0 0 0 0 1 -1 0 1 1 -1 1 0 1 -1 1 1 1 1 Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 2 0 0 1 -1 0 1 1 -1 1 0 1 -1
  • 9. Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 3 0 0 1 -1 0 1 1 -1 1 0 1 -1 1 1 1 1 Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 4 0 0 1 -1 0 1 1 -1 1 0 1 -1
  • 10. Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 5 0 0 1 -1 0 1 1 -1 1 0 1 -1 1 1 1 1 Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 6 0 0 1 -1 0 1 1 -1 1 0 1 -1
  • 11. Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 7 0 0 1 -1 0 1 1 -1 1 0 1 -1 1 1 1 1 Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 8 0 0 1 -1 0 1 1 -1 1 0 1 -1
  • 12. Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 9 0 0 1 -1 0 1 1 -1 1 0 1 -1 1 1 1 1 Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 10 0 0 1 -1 0 1 1 -1 1 0 1 -1
  • 13.
  • 14. Iterasi akan di hentikan pada epoch ke 10 karena fnet sudah sama dengan target nya
  • 15. Latihan Soal 2.2 Buat jaringan Perceptron untuk mengenali pola pada tabel di bawah ini. Gunaka α = 1 dan θ = 0,1. Jawab : x1 x2 x3 t 0 1 1 -1 1 0 1 -1 1 1 0 -1 1 1 1 1 Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 x3 1 t a ∆w1 ∆w2 ∆w3 ∆b w1 w2 w3 b Inisialisasi 0 0 0 0 0 1 1 1 -1 1 0 1 1 -1 1 1 0 1 -1 1 1 1 1 1
  • 16. Ada beberapa hal yang perlu diperhatikan dalam algoritma tersebut : Iterasi dilakukan terus hingga semua pola memiliki keluaran jaringan yang sama dengan targetnya (jaringan sudah memahami pola). Perubahan bobot hanya dilakukan pada pola yang mengandung kesalahan (keluaran target ≠ target). Kecepatan iterasi ditentukan oleh laju pemahaman (∝sama dengan 0≤∝≤1) yang dipakai. Semakin besar harga ∝, semakin sedikit iterasi yang diperlukan. Akan tetapi jika ∝ terlalu besar, maka akan merusak pola yang sudah benar sehingga pemahaman menjadi lambat.
  • 17. Algoritma pelatihan perceptron lebih baik dibandingkan model Hebb karena : Setiap kali pola dimasukkan, hasil keluaran jaringan dibandingkan dengan target yang sesungguhnya. Jika terdapat perbedaan, maka bobot akan dimodifikasi. Jadi tidak semua bobot akan dimodifikasi dalam setiap iterasinya. Modifikasi bobot tidak hanya ditentukan oleh perkalian antara target dengan masukan, tapi juga melibatkan suatu laju pemahaman (learning rate) yang besarnya bisa diatur. Pelatihan dilakukan berulang-ulang untuk semua kemungkinan pola yang ada hingga jaringan dapat mengerti polanya (ditandai dengan samanya semua keluaran jaringan dengan target keluaran yang diinginkan). Satu siklus pelatihan yang melibatkan semua pola disebut epoch. Dalam jaringan Hebb, pelatihan hanya dilakukan dalam satu epoch saja. Teorema konvergensi perceptron menyatakan bahwa apabila ada bobot yang tepat, maka proses pelatihan akan konvergen ke bobot yang tepat tersebut.