SlideShare una empresa de Scribd logo
1 de 31
Descargar para leer sin conexión
JARINGAN SYARAF TIRUAN
ARTIFICIAL NEURAL NETWORK
Jaringan Syaraf Tiruan
 Jaringan syaraf tiruan (JST) atau Artificial Neural Network
(ANN) adalah suatu model matematik atau komputasi untuk
mensimulasikan struktur dan fungsi dari jaringan syaraf dalam
otak.
 Terdiri dari:
 Node atau unit pemroses (penjumlah dan fungsi aktivasi)
 weight/ bobot yang dapat diatur
 Masukan dan Keluaran
 Sifat : Adatif
 Mampu belajar
 Nonlinear
Biological Neural Network
Jaringan Syaraf Tiruan (JST)
 Menirukan model otak manusia
Otak Manusia JST
Soma Node
Dendrites Input/Masukan
Axon Output/Keluaran
Synapsis Weight/ Bobot
Milyaran Neuron Ratusan Neuron
Model Neuron Tanpa bias
Σ
p1
p2
Masukan /Inputs
pi
.
.
.
Penjumlahanw1
w2
wi
Bobot/Weight = bisa diatur
F(y)
n=Σpi.wi
a=f(n)
Fungsi Aktifasi
Model Neuron dengan bias
Σ
p1
p2
Masukan /Inputs
pi
.
.
.
Penjumlahanw1
w2
wi
Bobot/Weight = bisa diatur
F(y)
n=Σpi.wi
a=f(n)
Fungsi Aktivasi
b (Bias)=Fix
Neuron Sederhana
Model Matematis
X=input/masukan i= banyaknya input
W=bobot/weight
Keluaran Penjumlah -> n = Σpi.wi
(Jumlah semua Input(pi) dikali bobot (wi)
Output/Keluaran Neuron=
 a = f(n) f=fungsi aktivasi
Fungsi Aktivasi
Beberapa fungsi aktivasi a=f(n)
Hardlimit function a =
 Linear Function  a = n
 Sigmoid Function  a = 1 /( 1+ e-n )
1 Jika n ≥ 0
0 Jika n < 0
Grafik Fungsi Aktivasi
Hardlimiter Purelinear
Sigmoid
a=f(n)
Kegunaan Aktivasi
 Untuk pengambilan keputusan biasanya
digunakan Hardlimit
 Untuk pengenalan pola/jaringan back
propagation biasanya digunakan sigmoid
 Untuk prediksi/aproksimasi linear
biasanya digunakan linear
Model McCulloch and Pitts
 Neuron menghitung jumlah bobot dari setiap sinyal input
dan membandingkan hasilnya dengan nilai
bias/threshold, b. Jika input bersih kurang dari threshold,
output neuron adalah -1. Tetapi, jika input bersih lebih
besar dari atau sama dengan threshold, neuron
diaktifkan dan outputnya ditetapkan +1 (McCulloch and
Pitts, 1943).






 
bnjika
bnjika
a
wpn
i
i
ii
1
1
1
Fungsi aktivasi ini disebut Fungsi
Tanda (Sign Function). Sehingga
output aktual dari neuron dapat
ditunjukkan dengan:






 
i
i
ii bwpsigna
1
Perceptron
 Perceptron (Rosenblatt, 1958): JST training
yang sederhana dipakaikan prosedur algoritma
training yang pertama kali. Terdiri dari neuron
tunggal dengan bobot synaptic yang diatur dan
hard limiter.
 Operasinya didasarkan pada model neuron
McCulloch dan Pitts.
 Jumlah input yang telah diboboti dipakaikan
kepada hard limiter: menghasilkan output +1
jika input positif dan -1 jika negatif 
mengklasifikasikan output ke dalam dua area
A1 dan A2.


i
i
ii bwp
1
0
Proses Belajar
Target = Nilai yang diinginkan, Output = Nilai yang keluar dari neuron
Proses Compare (membandingkan) antara output dengan target,
Jika terjadi perbedaan maka weight/bobot di adjust/atur sampai nilai ouput=
(mendekati) nilai target
Target
Σ
p1
p2
Masukan
pi
.
.
.
w1
w2
wi
F(y)
n=Σpi.wi a=f(n)
b
+
-
Error=target-a
Keluaran
Error digunakan untuk pembelajaran /mengatur bobot
Proses Belajar
Analog
 Target  apa yang anda inginkan
 Input/masukan  Kekurangan dan
kelebihan/potensi anda
 Bobot  seberapa besar usaha anda
 Output  hasil dari potensi and kelemahan
dikalikan dengan usaha terhadap potensi or
kelemahan
 Error  Kesalahan/Introspeksi diri  perkuat
potensi or/and lemahkan kekurangan
Proses Belajar
Σp1
Masukan
w1 F(y)
n=p1.w1
a=f(n)
Bobot
Proses Belajar jika masukan positif
Σp1
Masukan
w1 F(y)
n=p1.w1 a=f(n)
+
-
Error=target-a
Keluaran
Target
F=linear
(10)
(2)
(3)
(6)
e=10-6=4 (+)
Karena e ≥ 0 maka keluaran
a hrs dinaikan untuk
menaikan a maka naikan nilai
w1 karena masukan positif
w1 next= w1 old + delta w1
Untuk masukan positif penambahan bobot menyebabkan peningkatan keluaran
Proses Belajar jika masukan negatif
Σp1
Masukan
w1 F(y)
n=p1.w1 a=f(n)
+
-
Error=target-a
Keluaran
Target
F=linear
(10)
(-2)
(3)
(-6)
e=10-(-6)=16 (+)Karena e ≥ 0 maka keluaran
a hrs dinaikan untuk
menaikan a maka turunkan
nilai w1 karena masukan
negatif
w1 next= w1 old + (- delta w1)
Untuk masukan negatif penambahan bobot menyebabkan penurunan keluaran
Proses Perceptron Belajar
 Pada awalnya bobot dibuat kecil untuk menjaga
jangan sampai terjadi perbedaan yang sangat besar
dengan target.
 Bobot awal adalah dibuat random, umumnya dalam
interval [-0.5 – 0.5]
 Keluaran adalah proses jumlah perkalian antara
masukan dengan bobot.
 Jika terjadi perbedaan antara keluaran dengan
target, e(k) = a(k) – t(k), k = iterasi ke- 1, 2, 3, maka:
 Bobot diupdate/diatur sedikit demi sedikit untuk
mendapatkan keluaran yang sesuai dengan target
 w(k+1) = w(k) + Δw(k)
Perceptron Learning Rule
(Rosenblatt, 1960)
 e(k) = a(k) – t(k) , k = iterasi ke- 1, 2, 3, …..
a(k) = keluaran neuron
t(k) = target yang diinginkan
e(k) = error/kesalahan
 w(k+1) = w(k) + Δw(k)
 Δw(k) = kec belajar x masukan x error
 = ŋ x p(k) x e(k)
 Ŋ = learning rate -> kecepatan belajar (0< ŋ ≤1)
 Ŋ besar belajar cepat  tidak stabil
 Ŋ kecil belajar lambat stabil
Langkah Pembelajaran
1. Langkah pertama : Inisialisasi Awal
• Mengatur bobot w1, w2, ..., wn interval [-0.5 – 0.5],
mengatur bias/threshold b, mengatur kec
pembelajaran ŋ, fungsi aktivasi
2. Langkah kedua : Menghitung keluaran
• Mengaktifkan perceptron dengan memakai masukan
p1(k), p2(k), ..., pi(k) dan target yang dikehendaki t(k).
Hitunglah output aktual pada iterasi ke-k = 1
• i adalah jumlah input perceptron dan step adalah
fungsi aktivasi






 
i
i
ii bpwppstepka
1
)()()(
Langkah ke tiga : Menghitung error
e(k) = t(k) – a(k) t(k) = target,a(t)=keluaran perceptron
Langkah ke empat : Mengatur Bobot
• Mengupdate bobot perceptron
• wi(k+1) = wi(k) + Δwi(k)
• w(k+1) bobot baru w(k) bobot yg lalu
• Δwi(p) adalah pengkoreksian bobot pada iterasi k,
yang dihitung dengan:
• Δwi(p) = ŋ x pi(k) x e(k)
Langkah ke lima : pengulangan
• Naikkan iterasi k dengan 1 (k=k+1), kembalilah ke
langkah ke dua dan ulangi proses sampai
keluaran=target or mendekati target.
Melatih Perceptron: Operasi OR
Variabel Input OR
x1 x2 Fd
0 0 0
0 1 1
1 0 1
1 1 1
Fungsi OR
Σ
p1
p2
w1
w2
F(y)
n=Σpi.wi
a=f(n)
b
x1
x2
+
-
Fd=target
Perceptron
error
Contoh Pembelajaran
1. Langkah pertama : Inisialisasi Awal
• Mengatur bobot w1, w2 interval [-0.5 – 0.5], w1(1)=0.3 w2(1)=0.1,
mengatur bias/threshold b=0.2, mengatur kec pembelajaran ŋ
=0.2, fungsi aktivasi-> step
2. Langkah kedua : Menghitung keluaran
• Mengaktifkan perceptron dengan memakai masukan p1(k), p2(k)
dan target yang dikehendaki t(k). Hitunglah output aktual pada
iterasi ke-k = 1
bwpwpn  )1().1()1().1()1( 2211






 
2
1
)1()1()1(
i
ii bwpstepa






0)1(0
0)1(1
)1(
njika
njika
a
bwpwpn  )1().1()1().1()1( 2211
2.01.003.00)1(  XXn
0)1(
)(2.0)1(


a
maka
negatifn
1. Langkah ke tiga : Menghitung error
e(k) = t(k) – a(k)
e(1) = 0 – 0 = 0
1. Langkah ke empat : Mengatur Bobot
• Mengupdate bobot perceptron
• wi(k+1) = wi(k) + Δwi(k)
• w1(2) = 0.3(1) + Δw1(1)
• Δw1(1) = ŋ x pi(1) x e(1)
• = 0.2 x 0 x 0 = 0
• maka w1(2) = 0.3(1) + 0 = 0.3 (tidak berubah)
• wi(k+1) = wi(k) + Δwi(k)
• w2(2) = 0.3(1) + Δw2(1)
• Δw2(1) = ŋ x pi(1) x e(1)
• = 0.2 x 0 x 0 = 0
• maka w2(2) = 0.1(1) + 0 = 0.1 (tidak berubah)
2. Langkah ke lima : pengulangan
• Naikkan iterasi k dengan 1 (k=k+1), kembalilah ke langkah ke dua dan ulangi proses sampai
keluaran=target or mendekati target.
 K=2
w1(2)= 0.3 w2(2)=0.1, p1(2)=0, p2(2)=1
target(2)=Fd(2)=1
 Hitung keluaran:
0)2(
0)2(
1.0)2(
2.01.013.0.0)2(
)2().2()2().2()2( 2211





a
n
n
XXn
bwpwpn
• Hitung error
e(2)= target(2) – a(2)
= 1 – 0 =1 (ada error)
• Mengatur Bobot
Mengupdate bobot perceptron
wi(k+1) = wi(k) + Δwi(k)
w1(3) = 0.3(2) + Δw1(2)
Δw1(2) = ŋ x p1(1) x e(1)
= 0.2 x 0 x 1 = 0
maka w1(3) = 0.3(1) + 0 = 0.3 (tidak berubah)
wi(k+1) = wi(k) + Δwi(k)
w2(3) = 0.3(2) + Δw2(2)
Δw2(1) = ŋ x p2(1) x e(1)
= 0.2 x 1 x 1 = 0.2
maka w2(3) = 0.1(1) + 0.2 = 0.3 (berubah sebelumnya w2(2)=0.1)
Tugas
 Perorangan  hitung secara manual melatih
perseptron untuk fungsi AND, XOR, XNOR
 Kelompok  buat program perceptron

Más contenido relacionado

Similar a 19511 19 & 20 jst

Jaringanhebb
JaringanhebbJaringanhebb
JaringanhebbSan Toso
 
7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptxSeminusPahabol
 
03. JARINGAN SYARAF HEBB (1).pptx
03. JARINGAN SYARAF HEBB (1).pptx03. JARINGAN SYARAF HEBB (1).pptx
03. JARINGAN SYARAF HEBB (1).pptxssuserb33952
 
05c neural network-mlp
05c neural network-mlp05c neural network-mlp
05c neural network-mlprrahmad_14
 
Supervised Learning
Supervised LearningSupervised Learning
Supervised LearningSherly Uda
 
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptxJARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptxUmiMahdiyah2
 
(Jst)hebb dan delta rule
(Jst)hebb dan delta rule(Jst)hebb dan delta rule
(Jst)hebb dan delta ruleJunior Iqfar
 
Algoritma Brute Force 12345678901112.ppt
Algoritma Brute Force 12345678901112.pptAlgoritma Brute Force 12345678901112.ppt
Algoritma Brute Force 12345678901112.pptELDONIMOSUL1
 
Referensi Materi Algoritma Brute Force Bagian 1
Referensi Materi Algoritma Brute Force Bagian 1Referensi Materi Algoritma Brute Force Bagian 1
Referensi Materi Algoritma Brute Force Bagian 1DEDEALAMSYAHSPd
 
Pertemuan 3. Arsitektur jaringan Hebb.pptx
Pertemuan 3. Arsitektur jaringan Hebb.pptxPertemuan 3. Arsitektur jaringan Hebb.pptx
Pertemuan 3. Arsitektur jaringan Hebb.pptxsmk methodist-8
 
Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)ahmad haidaroh
 
pertemuan-11-jst.ppt
pertemuan-11-jst.pptpertemuan-11-jst.ppt
pertemuan-11-jst.pptardian206415
 
Dw 9-intelijensi buatan
Dw 9-intelijensi buatanDw 9-intelijensi buatan
Dw 9-intelijensi buatanDian Sari
 

Similar a 19511 19 & 20 jst (20)

Jaringanhebb
JaringanhebbJaringanhebb
Jaringanhebb
 
7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx
 
03. JARINGAN SYARAF HEBB (1).pptx
03. JARINGAN SYARAF HEBB (1).pptx03. JARINGAN SYARAF HEBB (1).pptx
03. JARINGAN SYARAF HEBB (1).pptx
 
05c neural network-mlp
05c neural network-mlp05c neural network-mlp
05c neural network-mlp
 
Supervised Learning
Supervised LearningSupervised Learning
Supervised Learning
 
Dkc 2 kelompok 2
Dkc 2 kelompok 2Dkc 2 kelompok 2
Dkc 2 kelompok 2
 
Back propagation
Back propagationBack propagation
Back propagation
 
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptxJARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
 
Metode belajar hebbian supervised
Metode belajar hebbian supervisedMetode belajar hebbian supervised
Metode belajar hebbian supervised
 
(Jst)hebb dan delta rule
(Jst)hebb dan delta rule(Jst)hebb dan delta rule
(Jst)hebb dan delta rule
 
Algoritma Brute Force 12345678901112.ppt
Algoritma Brute Force 12345678901112.pptAlgoritma Brute Force 12345678901112.ppt
Algoritma Brute Force 12345678901112.ppt
 
Back propagation
Back propagationBack propagation
Back propagation
 
Referensi Materi Algoritma Brute Force Bagian 1
Referensi Materi Algoritma Brute Force Bagian 1Referensi Materi Algoritma Brute Force Bagian 1
Referensi Materi Algoritma Brute Force Bagian 1
 
Pertemuan 3. Arsitektur jaringan Hebb.pptx
Pertemuan 3. Arsitektur jaringan Hebb.pptxPertemuan 3. Arsitektur jaringan Hebb.pptx
Pertemuan 3. Arsitektur jaringan Hebb.pptx
 
Algoritma brute force
Algoritma brute forceAlgoritma brute force
Algoritma brute force
 
Jstchapt2
Jstchapt2Jstchapt2
Jstchapt2
 
Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)
 
pertemuan-11-jst.ppt
pertemuan-11-jst.pptpertemuan-11-jst.ppt
pertemuan-11-jst.ppt
 
backpropagation
backpropagationbackpropagation
backpropagation
 
Dw 9-intelijensi buatan
Dw 9-intelijensi buatanDw 9-intelijensi buatan
Dw 9-intelijensi buatan
 

Más de Universitas Bina Darma Palembang

Más de Universitas Bina Darma Palembang (20)

30448 pertemuan1
30448 pertemuan130448 pertemuan1
30448 pertemuan1
 
29510 pertemuan18(form method-get-post-dan-session(1))
29510 pertemuan18(form method-get-post-dan-session(1))29510 pertemuan18(form method-get-post-dan-session(1))
29510 pertemuan18(form method-get-post-dan-session(1))
 
28501 pertemuan14(php)
28501 pertemuan14(php)28501 pertemuan14(php)
28501 pertemuan14(php)
 
28500 pertemuan22(header dokumen html dgn tag title)
28500 pertemuan22(header dokumen html dgn tag title)28500 pertemuan22(header dokumen html dgn tag title)
28500 pertemuan22(header dokumen html dgn tag title)
 
25437 pertemuan25(hitcounter)
25437 pertemuan25(hitcounter)25437 pertemuan25(hitcounter)
25437 pertemuan25(hitcounter)
 
23921 pertemuan 3
23921 pertemuan 323921 pertemuan 3
23921 pertemuan 3
 
19313 pertemuan6
19313 pertemuan619313 pertemuan6
19313 pertemuan6
 
18759 pertemuan20(web html editor)
18759 pertemuan20(web html editor)18759 pertemuan20(web html editor)
18759 pertemuan20(web html editor)
 
18040 pertemuan13(css)
18040 pertemuan13(css)18040 pertemuan13(css)
18040 pertemuan13(css)
 
17945 pertemuan5
17945 pertemuan517945 pertemuan5
17945 pertemuan5
 
16406 pertemuan17(konsep basis-data-di-web)
16406 pertemuan17(konsep basis-data-di-web)16406 pertemuan17(konsep basis-data-di-web)
16406 pertemuan17(konsep basis-data-di-web)
 
15294 pertemuan9(eksplorasi &defenisi masalah0
15294 pertemuan9(eksplorasi &defenisi masalah015294 pertemuan9(eksplorasi &defenisi masalah0
15294 pertemuan9(eksplorasi &defenisi masalah0
 
13926 pertemuan4
13926 pertemuan413926 pertemuan4
13926 pertemuan4
 
12738 pertemuan 15(php lanjutan)
12738 pertemuan 15(php lanjutan)12738 pertemuan 15(php lanjutan)
12738 pertemuan 15(php lanjutan)
 
6346 pertemuan21(web statis dengan struktur html)
6346 pertemuan21(web statis dengan struktur html)6346 pertemuan21(web statis dengan struktur html)
6346 pertemuan21(web statis dengan struktur html)
 
5623 pertemuan11(html1)
5623 pertemuan11(html1)5623 pertemuan11(html1)
5623 pertemuan11(html1)
 
4740 pertemuan8(komponen dalam web)
4740 pertemuan8(komponen dalam web)4740 pertemuan8(komponen dalam web)
4740 pertemuan8(komponen dalam web)
 
4075 pertemuan10 (analisa kebutuhan)
4075 pertemuan10 (analisa kebutuhan)4075 pertemuan10 (analisa kebutuhan)
4075 pertemuan10 (analisa kebutuhan)
 
2670 pertemuan12(html lanjut)
2670 pertemuan12(html lanjut)2670 pertemuan12(html lanjut)
2670 pertemuan12(html lanjut)
 
2190 pertemuan24(polling)
2190 pertemuan24(polling)2190 pertemuan24(polling)
2190 pertemuan24(polling)
 

Último

DATA MINING : ESTIMASI, PREDIKSI, KLASIFIKASI, KLASTERING, DAN ASOSIASI.ppt
DATA MINING : ESTIMASI, PREDIKSI, KLASIFIKASI, KLASTERING, DAN ASOSIASI.pptDATA MINING : ESTIMASI, PREDIKSI, KLASIFIKASI, KLASTERING, DAN ASOSIASI.ppt
DATA MINING : ESTIMASI, PREDIKSI, KLASIFIKASI, KLASTERING, DAN ASOSIASI.pptmuhammadarsyad77
 
undang undang penataan ruang daerah kabupaten bogor
undang undang penataan ruang daerah kabupaten bogorundang undang penataan ruang daerah kabupaten bogor
undang undang penataan ruang daerah kabupaten bogorritch4
 
Keracunan bahan kimia,ektasi,opiat,makanan.ppt
Keracunan bahan kimia,ektasi,opiat,makanan.pptKeracunan bahan kimia,ektasi,opiat,makanan.ppt
Keracunan bahan kimia,ektasi,opiat,makanan.pptDIGGIVIO2
 
Contoh laporan K3 perusahaan pada tahun 2023 dgn analisis beban kerja
Contoh laporan K3 perusahaan pada tahun 2023 dgn analisis beban kerjaContoh laporan K3 perusahaan pada tahun 2023 dgn analisis beban kerja
Contoh laporan K3 perusahaan pada tahun 2023 dgn analisis beban kerjaIniiiHeru
 
Alur Pengajuan Surat Keterangan Pindah (Individu) lewat IKD.pdf
Alur Pengajuan Surat Keterangan Pindah (Individu) lewat IKD.pdfAlur Pengajuan Surat Keterangan Pindah (Individu) lewat IKD.pdf
Alur Pengajuan Surat Keterangan Pindah (Individu) lewat IKD.pdfPemdes Wonoyoso
 
contoh judul tesis untuk mahasiswa pascasarjana
contoh judul tesis untuk mahasiswa pascasarjanacontoh judul tesis untuk mahasiswa pascasarjana
contoh judul tesis untuk mahasiswa pascasarjanaNhasrul
 
Diac & Triac untuk memenuhi tugas komponen
Diac & Triac untuk memenuhi tugas komponenDiac & Triac untuk memenuhi tugas komponen
Diac & Triac untuk memenuhi tugas komponenBangMahar
 
KISI-KISI USEK PJOK TA 2023-2024 anans ajaja jaja hdsh
KISI-KISI USEK PJOK TA 2023-2024 anans ajaja jaja hdshKISI-KISI USEK PJOK TA 2023-2024 anans ajaja jaja hdsh
KISI-KISI USEK PJOK TA 2023-2024 anans ajaja jaja hdshDosenBernard
 
4. PENGELOLAAN ALAT MEDIS BEKAS PAKAIhbnbbv PPI DASAR (1).pdf
4. PENGELOLAAN ALAT MEDIS BEKAS PAKAIhbnbbv PPI DASAR (1).pdf4. PENGELOLAAN ALAT MEDIS BEKAS PAKAIhbnbbv PPI DASAR (1).pdf
4. PENGELOLAAN ALAT MEDIS BEKAS PAKAIhbnbbv PPI DASAR (1).pdfsonyaawitan
 
Hasil wawancara usaha lumpia basah tugas PKWU
Hasil wawancara usaha lumpia basah tugas PKWUHasil wawancara usaha lumpia basah tugas PKWU
Hasil wawancara usaha lumpia basah tugas PKWUDina396887
 
RESUME KEWARGANEGARAAN_7 DAN 9._tugas ke 2pptx
RESUME KEWARGANEGARAAN_7 DAN 9._tugas ke 2pptxRESUME KEWARGANEGARAAN_7 DAN 9._tugas ke 2pptx
RESUME KEWARGANEGARAAN_7 DAN 9._tugas ke 2pptxmirzagozali2
 
514034136-Tugas-Modul-4-5-Komputer-Dan-Media-Pembelajaran.pptx
514034136-Tugas-Modul-4-5-Komputer-Dan-Media-Pembelajaran.pptx514034136-Tugas-Modul-4-5-Komputer-Dan-Media-Pembelajaran.pptx
514034136-Tugas-Modul-4-5-Komputer-Dan-Media-Pembelajaran.pptxAbidinMaulana
 
15_Contoh_Surat_Lamaran_Kerja_Lengkap_de.pdf
15_Contoh_Surat_Lamaran_Kerja_Lengkap_de.pdf15_Contoh_Surat_Lamaran_Kerja_Lengkap_de.pdf
15_Contoh_Surat_Lamaran_Kerja_Lengkap_de.pdfTaufikTito
 
Salinan PPT TATA BAHASA Bahasa Indonesia
Salinan PPT TATA BAHASA Bahasa IndonesiaSalinan PPT TATA BAHASA Bahasa Indonesia
Salinan PPT TATA BAHASA Bahasa Indonesiasdn4mangkujayan
 
Materi Pajak Untuk BOS tahun 2024 untuk madrasah MI,MTS, dan MA
Materi Pajak Untuk BOS tahun 2024 untuk madrasah MI,MTS, dan MAMateri Pajak Untuk BOS tahun 2024 untuk madrasah MI,MTS, dan MA
Materi Pajak Untuk BOS tahun 2024 untuk madrasah MI,MTS, dan MAmasqiqu340
 
Bimbingan Teknis Penyusunan Soal Pilihan Berganda 2024.pptx
Bimbingan Teknis Penyusunan Soal Pilihan Berganda  2024.pptxBimbingan Teknis Penyusunan Soal Pilihan Berganda  2024.pptx
Bimbingan Teknis Penyusunan Soal Pilihan Berganda 2024.pptxjannenapitupulu18
 
PERTEMUAN 4 himpunan dan fungsi logika fuzzy.ppT
PERTEMUAN 4 himpunan dan fungsi logika fuzzy.ppTPERTEMUAN 4 himpunan dan fungsi logika fuzzy.ppT
PERTEMUAN 4 himpunan dan fungsi logika fuzzy.ppTYudaPerwira5
 
SIMPUS SIMPUS SIMPUS & E- PUSKESMAS (3).ppt
SIMPUS SIMPUS SIMPUS & E- PUSKESMAS (3).pptSIMPUS SIMPUS SIMPUS & E- PUSKESMAS (3).ppt
SIMPUS SIMPUS SIMPUS & E- PUSKESMAS (3).pptEndangNingsih7
 
materi konsep dan Model TRIASE Bencana.pptx
materi konsep dan Model TRIASE Bencana.pptxmateri konsep dan Model TRIASE Bencana.pptx
materi konsep dan Model TRIASE Bencana.pptxZullaiqahNurhali2
 

Último (20)

DATA MINING : ESTIMASI, PREDIKSI, KLASIFIKASI, KLASTERING, DAN ASOSIASI.ppt
DATA MINING : ESTIMASI, PREDIKSI, KLASIFIKASI, KLASTERING, DAN ASOSIASI.pptDATA MINING : ESTIMASI, PREDIKSI, KLASIFIKASI, KLASTERING, DAN ASOSIASI.ppt
DATA MINING : ESTIMASI, PREDIKSI, KLASIFIKASI, KLASTERING, DAN ASOSIASI.ppt
 
undang undang penataan ruang daerah kabupaten bogor
undang undang penataan ruang daerah kabupaten bogorundang undang penataan ruang daerah kabupaten bogor
undang undang penataan ruang daerah kabupaten bogor
 
Keracunan bahan kimia,ektasi,opiat,makanan.ppt
Keracunan bahan kimia,ektasi,opiat,makanan.pptKeracunan bahan kimia,ektasi,opiat,makanan.ppt
Keracunan bahan kimia,ektasi,opiat,makanan.ppt
 
Contoh laporan K3 perusahaan pada tahun 2023 dgn analisis beban kerja
Contoh laporan K3 perusahaan pada tahun 2023 dgn analisis beban kerjaContoh laporan K3 perusahaan pada tahun 2023 dgn analisis beban kerja
Contoh laporan K3 perusahaan pada tahun 2023 dgn analisis beban kerja
 
Alur Pengajuan Surat Keterangan Pindah (Individu) lewat IKD.pdf
Alur Pengajuan Surat Keterangan Pindah (Individu) lewat IKD.pdfAlur Pengajuan Surat Keterangan Pindah (Individu) lewat IKD.pdf
Alur Pengajuan Surat Keterangan Pindah (Individu) lewat IKD.pdf
 
contoh judul tesis untuk mahasiswa pascasarjana
contoh judul tesis untuk mahasiswa pascasarjanacontoh judul tesis untuk mahasiswa pascasarjana
contoh judul tesis untuk mahasiswa pascasarjana
 
Diac & Triac untuk memenuhi tugas komponen
Diac & Triac untuk memenuhi tugas komponenDiac & Triac untuk memenuhi tugas komponen
Diac & Triac untuk memenuhi tugas komponen
 
Abortion pills in Jeddah+966543202731/ buy cytotec
Abortion pills in Jeddah+966543202731/ buy cytotecAbortion pills in Jeddah+966543202731/ buy cytotec
Abortion pills in Jeddah+966543202731/ buy cytotec
 
KISI-KISI USEK PJOK TA 2023-2024 anans ajaja jaja hdsh
KISI-KISI USEK PJOK TA 2023-2024 anans ajaja jaja hdshKISI-KISI USEK PJOK TA 2023-2024 anans ajaja jaja hdsh
KISI-KISI USEK PJOK TA 2023-2024 anans ajaja jaja hdsh
 
4. PENGELOLAAN ALAT MEDIS BEKAS PAKAIhbnbbv PPI DASAR (1).pdf
4. PENGELOLAAN ALAT MEDIS BEKAS PAKAIhbnbbv PPI DASAR (1).pdf4. PENGELOLAAN ALAT MEDIS BEKAS PAKAIhbnbbv PPI DASAR (1).pdf
4. PENGELOLAAN ALAT MEDIS BEKAS PAKAIhbnbbv PPI DASAR (1).pdf
 
Hasil wawancara usaha lumpia basah tugas PKWU
Hasil wawancara usaha lumpia basah tugas PKWUHasil wawancara usaha lumpia basah tugas PKWU
Hasil wawancara usaha lumpia basah tugas PKWU
 
RESUME KEWARGANEGARAAN_7 DAN 9._tugas ke 2pptx
RESUME KEWARGANEGARAAN_7 DAN 9._tugas ke 2pptxRESUME KEWARGANEGARAAN_7 DAN 9._tugas ke 2pptx
RESUME KEWARGANEGARAAN_7 DAN 9._tugas ke 2pptx
 
514034136-Tugas-Modul-4-5-Komputer-Dan-Media-Pembelajaran.pptx
514034136-Tugas-Modul-4-5-Komputer-Dan-Media-Pembelajaran.pptx514034136-Tugas-Modul-4-5-Komputer-Dan-Media-Pembelajaran.pptx
514034136-Tugas-Modul-4-5-Komputer-Dan-Media-Pembelajaran.pptx
 
15_Contoh_Surat_Lamaran_Kerja_Lengkap_de.pdf
15_Contoh_Surat_Lamaran_Kerja_Lengkap_de.pdf15_Contoh_Surat_Lamaran_Kerja_Lengkap_de.pdf
15_Contoh_Surat_Lamaran_Kerja_Lengkap_de.pdf
 
Salinan PPT TATA BAHASA Bahasa Indonesia
Salinan PPT TATA BAHASA Bahasa IndonesiaSalinan PPT TATA BAHASA Bahasa Indonesia
Salinan PPT TATA BAHASA Bahasa Indonesia
 
Materi Pajak Untuk BOS tahun 2024 untuk madrasah MI,MTS, dan MA
Materi Pajak Untuk BOS tahun 2024 untuk madrasah MI,MTS, dan MAMateri Pajak Untuk BOS tahun 2024 untuk madrasah MI,MTS, dan MA
Materi Pajak Untuk BOS tahun 2024 untuk madrasah MI,MTS, dan MA
 
Bimbingan Teknis Penyusunan Soal Pilihan Berganda 2024.pptx
Bimbingan Teknis Penyusunan Soal Pilihan Berganda  2024.pptxBimbingan Teknis Penyusunan Soal Pilihan Berganda  2024.pptx
Bimbingan Teknis Penyusunan Soal Pilihan Berganda 2024.pptx
 
PERTEMUAN 4 himpunan dan fungsi logika fuzzy.ppT
PERTEMUAN 4 himpunan dan fungsi logika fuzzy.ppTPERTEMUAN 4 himpunan dan fungsi logika fuzzy.ppT
PERTEMUAN 4 himpunan dan fungsi logika fuzzy.ppT
 
SIMPUS SIMPUS SIMPUS & E- PUSKESMAS (3).ppt
SIMPUS SIMPUS SIMPUS & E- PUSKESMAS (3).pptSIMPUS SIMPUS SIMPUS & E- PUSKESMAS (3).ppt
SIMPUS SIMPUS SIMPUS & E- PUSKESMAS (3).ppt
 
materi konsep dan Model TRIASE Bencana.pptx
materi konsep dan Model TRIASE Bencana.pptxmateri konsep dan Model TRIASE Bencana.pptx
materi konsep dan Model TRIASE Bencana.pptx
 

19511 19 & 20 jst

  • 2. Jaringan Syaraf Tiruan  Jaringan syaraf tiruan (JST) atau Artificial Neural Network (ANN) adalah suatu model matematik atau komputasi untuk mensimulasikan struktur dan fungsi dari jaringan syaraf dalam otak.  Terdiri dari:  Node atau unit pemroses (penjumlah dan fungsi aktivasi)  weight/ bobot yang dapat diatur  Masukan dan Keluaran  Sifat : Adatif  Mampu belajar  Nonlinear
  • 4. Jaringan Syaraf Tiruan (JST)  Menirukan model otak manusia Otak Manusia JST Soma Node Dendrites Input/Masukan Axon Output/Keluaran Synapsis Weight/ Bobot Milyaran Neuron Ratusan Neuron
  • 5. Model Neuron Tanpa bias Σ p1 p2 Masukan /Inputs pi . . . Penjumlahanw1 w2 wi Bobot/Weight = bisa diatur F(y) n=Σpi.wi a=f(n) Fungsi Aktifasi
  • 6. Model Neuron dengan bias Σ p1 p2 Masukan /Inputs pi . . . Penjumlahanw1 w2 wi Bobot/Weight = bisa diatur F(y) n=Σpi.wi a=f(n) Fungsi Aktivasi b (Bias)=Fix
  • 8. Model Matematis X=input/masukan i= banyaknya input W=bobot/weight Keluaran Penjumlah -> n = Σpi.wi (Jumlah semua Input(pi) dikali bobot (wi) Output/Keluaran Neuron=  a = f(n) f=fungsi aktivasi
  • 9. Fungsi Aktivasi Beberapa fungsi aktivasi a=f(n) Hardlimit function a =  Linear Function  a = n  Sigmoid Function  a = 1 /( 1+ e-n ) 1 Jika n ≥ 0 0 Jika n < 0
  • 10. Grafik Fungsi Aktivasi Hardlimiter Purelinear Sigmoid a=f(n)
  • 11. Kegunaan Aktivasi  Untuk pengambilan keputusan biasanya digunakan Hardlimit  Untuk pengenalan pola/jaringan back propagation biasanya digunakan sigmoid  Untuk prediksi/aproksimasi linear biasanya digunakan linear
  • 12. Model McCulloch and Pitts  Neuron menghitung jumlah bobot dari setiap sinyal input dan membandingkan hasilnya dengan nilai bias/threshold, b. Jika input bersih kurang dari threshold, output neuron adalah -1. Tetapi, jika input bersih lebih besar dari atau sama dengan threshold, neuron diaktifkan dan outputnya ditetapkan +1 (McCulloch and Pitts, 1943).         bnjika bnjika a wpn i i ii 1 1 1 Fungsi aktivasi ini disebut Fungsi Tanda (Sign Function). Sehingga output aktual dari neuron dapat ditunjukkan dengan:         i i ii bwpsigna 1
  • 13. Perceptron  Perceptron (Rosenblatt, 1958): JST training yang sederhana dipakaikan prosedur algoritma training yang pertama kali. Terdiri dari neuron tunggal dengan bobot synaptic yang diatur dan hard limiter.  Operasinya didasarkan pada model neuron McCulloch dan Pitts.  Jumlah input yang telah diboboti dipakaikan kepada hard limiter: menghasilkan output +1 jika input positif dan -1 jika negatif  mengklasifikasikan output ke dalam dua area A1 dan A2.   i i ii bwp 1 0
  • 14. Proses Belajar Target = Nilai yang diinginkan, Output = Nilai yang keluar dari neuron Proses Compare (membandingkan) antara output dengan target, Jika terjadi perbedaan maka weight/bobot di adjust/atur sampai nilai ouput= (mendekati) nilai target
  • 16. Analog  Target  apa yang anda inginkan  Input/masukan  Kekurangan dan kelebihan/potensi anda  Bobot  seberapa besar usaha anda  Output  hasil dari potensi and kelemahan dikalikan dengan usaha terhadap potensi or kelemahan  Error  Kesalahan/Introspeksi diri  perkuat potensi or/and lemahkan kekurangan
  • 18. Proses Belajar jika masukan positif Σp1 Masukan w1 F(y) n=p1.w1 a=f(n) + - Error=target-a Keluaran Target F=linear (10) (2) (3) (6) e=10-6=4 (+) Karena e ≥ 0 maka keluaran a hrs dinaikan untuk menaikan a maka naikan nilai w1 karena masukan positif w1 next= w1 old + delta w1 Untuk masukan positif penambahan bobot menyebabkan peningkatan keluaran
  • 19. Proses Belajar jika masukan negatif Σp1 Masukan w1 F(y) n=p1.w1 a=f(n) + - Error=target-a Keluaran Target F=linear (10) (-2) (3) (-6) e=10-(-6)=16 (+)Karena e ≥ 0 maka keluaran a hrs dinaikan untuk menaikan a maka turunkan nilai w1 karena masukan negatif w1 next= w1 old + (- delta w1) Untuk masukan negatif penambahan bobot menyebabkan penurunan keluaran
  • 20. Proses Perceptron Belajar  Pada awalnya bobot dibuat kecil untuk menjaga jangan sampai terjadi perbedaan yang sangat besar dengan target.  Bobot awal adalah dibuat random, umumnya dalam interval [-0.5 – 0.5]  Keluaran adalah proses jumlah perkalian antara masukan dengan bobot.  Jika terjadi perbedaan antara keluaran dengan target, e(k) = a(k) – t(k), k = iterasi ke- 1, 2, 3, maka:  Bobot diupdate/diatur sedikit demi sedikit untuk mendapatkan keluaran yang sesuai dengan target  w(k+1) = w(k) + Δw(k)
  • 21. Perceptron Learning Rule (Rosenblatt, 1960)  e(k) = a(k) – t(k) , k = iterasi ke- 1, 2, 3, ….. a(k) = keluaran neuron t(k) = target yang diinginkan e(k) = error/kesalahan  w(k+1) = w(k) + Δw(k)  Δw(k) = kec belajar x masukan x error  = ŋ x p(k) x e(k)  Ŋ = learning rate -> kecepatan belajar (0< ŋ ≤1)  Ŋ besar belajar cepat  tidak stabil  Ŋ kecil belajar lambat stabil
  • 22. Langkah Pembelajaran 1. Langkah pertama : Inisialisasi Awal • Mengatur bobot w1, w2, ..., wn interval [-0.5 – 0.5], mengatur bias/threshold b, mengatur kec pembelajaran ŋ, fungsi aktivasi 2. Langkah kedua : Menghitung keluaran • Mengaktifkan perceptron dengan memakai masukan p1(k), p2(k), ..., pi(k) dan target yang dikehendaki t(k). Hitunglah output aktual pada iterasi ke-k = 1 • i adalah jumlah input perceptron dan step adalah fungsi aktivasi         i i ii bpwppstepka 1 )()()(
  • 23. Langkah ke tiga : Menghitung error e(k) = t(k) – a(k) t(k) = target,a(t)=keluaran perceptron Langkah ke empat : Mengatur Bobot • Mengupdate bobot perceptron • wi(k+1) = wi(k) + Δwi(k) • w(k+1) bobot baru w(k) bobot yg lalu • Δwi(p) adalah pengkoreksian bobot pada iterasi k, yang dihitung dengan: • Δwi(p) = ŋ x pi(k) x e(k) Langkah ke lima : pengulangan • Naikkan iterasi k dengan 1 (k=k+1), kembalilah ke langkah ke dua dan ulangi proses sampai keluaran=target or mendekati target.
  • 24. Melatih Perceptron: Operasi OR Variabel Input OR x1 x2 Fd 0 0 0 0 1 1 1 0 1 1 1 1
  • 26. Contoh Pembelajaran 1. Langkah pertama : Inisialisasi Awal • Mengatur bobot w1, w2 interval [-0.5 – 0.5], w1(1)=0.3 w2(1)=0.1, mengatur bias/threshold b=0.2, mengatur kec pembelajaran ŋ =0.2, fungsi aktivasi-> step 2. Langkah kedua : Menghitung keluaran • Mengaktifkan perceptron dengan memakai masukan p1(k), p2(k) dan target yang dikehendaki t(k). Hitunglah output aktual pada iterasi ke-k = 1 bwpwpn  )1().1()1().1()1( 2211         2 1 )1()1()1( i ii bwpstepa       0)1(0 0)1(1 )1( njika njika a
  • 27. bwpwpn  )1().1()1().1()1( 2211 2.01.003.00)1(  XXn 0)1( )(2.0)1(   a maka negatifn
  • 28. 1. Langkah ke tiga : Menghitung error e(k) = t(k) – a(k) e(1) = 0 – 0 = 0 1. Langkah ke empat : Mengatur Bobot • Mengupdate bobot perceptron • wi(k+1) = wi(k) + Δwi(k) • w1(2) = 0.3(1) + Δw1(1) • Δw1(1) = ŋ x pi(1) x e(1) • = 0.2 x 0 x 0 = 0 • maka w1(2) = 0.3(1) + 0 = 0.3 (tidak berubah) • wi(k+1) = wi(k) + Δwi(k) • w2(2) = 0.3(1) + Δw2(1) • Δw2(1) = ŋ x pi(1) x e(1) • = 0.2 x 0 x 0 = 0 • maka w2(2) = 0.1(1) + 0 = 0.1 (tidak berubah) 2. Langkah ke lima : pengulangan • Naikkan iterasi k dengan 1 (k=k+1), kembalilah ke langkah ke dua dan ulangi proses sampai keluaran=target or mendekati target.
  • 29.  K=2 w1(2)= 0.3 w2(2)=0.1, p1(2)=0, p2(2)=1 target(2)=Fd(2)=1  Hitung keluaran: 0)2( 0)2( 1.0)2( 2.01.013.0.0)2( )2().2()2().2()2( 2211      a n n XXn bwpwpn
  • 30. • Hitung error e(2)= target(2) – a(2) = 1 – 0 =1 (ada error) • Mengatur Bobot Mengupdate bobot perceptron wi(k+1) = wi(k) + Δwi(k) w1(3) = 0.3(2) + Δw1(2) Δw1(2) = ŋ x p1(1) x e(1) = 0.2 x 0 x 1 = 0 maka w1(3) = 0.3(1) + 0 = 0.3 (tidak berubah) wi(k+1) = wi(k) + Δwi(k) w2(3) = 0.3(2) + Δw2(2) Δw2(1) = ŋ x p2(1) x e(1) = 0.2 x 1 x 1 = 0.2 maka w2(3) = 0.1(1) + 0.2 = 0.3 (berubah sebelumnya w2(2)=0.1)
  • 31. Tugas  Perorangan  hitung secara manual melatih perseptron untuk fungsi AND, XOR, XNOR  Kelompok  buat program perceptron