Download
pertemuan 13 n.
Skip this Video
Loading SlideShow in 5 Seconds..
Pertemuan 13 PowerPoint Presentation
Download Presentation
Pertemuan 13

Pertemuan 13

197 Vues Download Presentation
Télécharger la présentation

Pertemuan 13

- - - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - - -
Presentation Transcript

  1. Pertemuan 13 Jaringan Syaraf Tiruan

  2. SUB TOPIK BAHASAN • Pengertian JST • Komponen JST • Arsitektur JST • Fungsi Aktivasi

  3. Pengertian JST • Jaringan syaraf merupakan salah satu representasi buatan dari otak manusia yang selalu mencoba untuk mensimulasikan proses pembelajaran pada otak manusia tersebut • Buatan karena di implementasikan dengan program komputer

  4. KOmponen Jaringan Syaraf • Jaringan syaraf terdiri atas beberapa neuron • Ada hubungan antar neuron • Neuron mentransformasikan informasi yg diterima melalui sambungan keluarnya menuju neuron-neuron yg lain • Pada jaringan syaraf hubungan ini dikenal dengan bobot

  5. Arsitektur Jaringan • Neuron-neuron dikelompokkan dalam lapisan-lapisan • Neuron yang terletak pada lapisan yang sama akan memiliki keadaan yang sama • Kelakuan neuron ditentukan oleh fungsi aktivasi dan pola bobotnya

  6. a. Single Layer net

  7. b. Multiple Layer Net

  8. Fungsi aktivasi • Masukan pada jaringan akan diproses oleh suatu fungsi yang akan menjumlahkan nilai-nilai semua bobot dan bias. • Hasil dari penjumlahan akan dibandingkan dengan suatu nilai ambang (threshold) melalui fungsi aktivasi setiap neuron.

  9. Hard Limit (undak Biner)

  10. SymetricHard Limit (Bipolar)

  11. Fungsi Linier (Identitas) y = x

  12. Symetric Saturating Linear

  13. Sigmoid Biner

  14. Sigmoid Bipolar

  15. Proses Pembelajaran • Supervised learning • UnSupervised learning

  16. a. Supervised learning • Pembelajaran terawasi jika output yang diharapkan telah diketahui sebelumnya • Contoh : Pengenalan pola , misal pada operasi AND • Input Output 0 0 0 0 1 0 1 0 0 1 1 1

  17. a. Supervised learning • Jika terjadi perbedaan antara pola output hasil pembelajaran dengan pola target maka akan muncul error • Jika nilai error masih besar, maka perlu banyak dilakukan pembelajaran lagi

  18. B Unsupervised learning • Tidakmemerlukan target output • Tidakdapatditentukanhasil yang sepertiapakah yang diharapkanselamaprosespembelajaran • Selamaprosespembelajaran,nilaibobotdisusundalamsuatu range tertentutergantungnilai input yang diberikan • Tujuanadalahuntukmengelompokkanunit-unit yang hampirsamadalamsatuan area tertentu • Cocokuntukpengelompokanpola

  19. Penerapan Jaringan Syaraf Tiruan

  20. Model Hebb • Diusulkan oleh Donald Olding Hebb pada th 1949 • Metode pengembangan dari metode McCulloch-Pitts • Menentukan bobot dan bias secara analitik (manual) • Pembelajaran dilakukan dengan memperbaiki nilai bobot secara continue

  21. Model Hebb Perbaikan bobot diperoleh dengan cara wi(baru) = wi(lama) + xi*yb(baru) = b(lama) + y dengan: wi = bobot data input ke-i xi = input data ke-i y = output data b = nilai bias

  22. algoritma • Inisialisasi semua bobot : wij =0; dengan i=1,2,...,n; j=1,2,...,m • Untuk setiap pasangan input-output (s-t), lakukan langkah sbb: • set input dengan nilai sama dengan vektor input: xi = si ; (i =1,2,..,n) • Set output dengan nilai sama dengan vektor output: yj = tj ; (j =1,2,..,m) • Perbaiki bobot: wij = wij + xiyi ; (i =1,2,..,n); dan (j =1,2,..,m)

  23. Kasus OR • {-1,-1,-1} w1 = 0 + (-1)(-1) = 1 w2 = 0 + (-1)(-1) = 1 b = 0 + (-1) = -1 • {-1,1,1} w1 = 1 + (-1)(1) = 0 w2 = 1 + (1)(1) = 2 b = -1 + (1) = 0 • {1,-1,1} w1 = 0 + (1)(1) = 1 w2 = 2 + (-1)(1) = 1 b = 0 + (1) = 1 • {1,1,1} w1 = 1 + (1)(1) = 2 w2 = 1 + (1)(1) = 2 b = 1 + (1) = 2

  24. Akhir pembelajaran, diperoleh bobot akhir w1 = 2, w2=2, b=2 Pengujian : x1 = -1 dan x2 = 1 , maka : y = (2)(-1) + ( 2) (1) + 2 = 2 Dengan fungsi bipolar , maka diperoleh output y =F(2) =1  karena 2 > 1 Sehingga y = t

  25. Model Perceptron • Digunakan untuk mengklasifikasikan suatu tipe pola tertentu • Mengatur parameter2 melalui proses pembelajaran. • Pembelajaran utk mendapatkan bobot akhir dilakukan secara berulang sampai sdh tdk ada error (output = target) • Namun jika msh ada error maka proses dihentikan  maksimum epoh. • Epoh ; proses pengulangan utk melatih semua pasangan data.

  26. Arsitekturperceptron

  27. Algoritma Pelatihan • Inisialisasi laju pembelajaran (α), nilai ambang (𝛉), bobot, bias • Menghitung • Menghitung • Jika y ≠ target, lakukan update bobot dan bias Wi baru = Wlama + α.t.Xi b baru = b lama + α.t • Ulang dari langkah 2 sampai tidak ada update bobot lagi

  28. Kasus OR • {0,0,0} y = 0 + (0.0 + 0.0) = 0 • {0,1,1} y = 0 + (0.0 + 0.1) = 0 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.1.0 = 0 W2baru = 0 + 1.1.1 = 1 bias baru = 0 + 1.1 = 1 {0,1,1} y = 1 + (0.0 + 1.1) = 2, output = 1 • {1,0,1} y = 1 + (0.1 + 1.0) = 1, output = 1 • {1,1,1} y = 1 + (0.1 + 1.1) = 2, output = 1 Inisialisasi: α = 1, 𝛉 = 0,1 w = 0, b = 1 Input dan target berbentuk biner

  29. {0,0,0} y = 1 + (0.0 + 1.0) = 1 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.1.0 = 0 W2baru = 1 + 1.1.0 = 1 bias baru = 1 + 1.1 = 2 {0,0,0} y = 2 + (0.0 + 1.0) = 2, output=1 y ≠ t, maka update bobot dan bias terjadi stagnasi walaupun bobot dan bias diupdate terus. maka input dan target biner tdk cocok utk kasus OR.

  30. Kasus OR • {-1,-1,-1} y = 0 + (0.-1 + 0.-1) = 0 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.-1.-1 = 1 W2baru = 0 + 1.-1.-1 = 1 bias baru = 0 + 1.-1 = -1 {-1,-1,-1} y = -1 + (1.-1 + 1.-1) = -3, output = -1 • {-1,1,1} y = -1 + (1.-1 + 1.1) = -1 y ≠ t, maka update bobot dan bias W1baru = 1 + 1.1.-1 = 0 W2baru = 1 + 1.1.1 = 2 bias baru = -1+ 1.1 = 0

  31. y = 0 + (0.-1 + 2.1) = 2, ouput = 1 • {1,-1,1} y = 0 + (0.1 + 2.-1) = -2 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.1.1 = 1 W2baru = 2 + 1.1.-1 = 1 bias baru = 0+ 1.1 = 1 y = 1 + (1.1 + 1.-1) = 1 • {1,1,1} y = 1 + (1.1 + 1.1) = 3, output=1

  32. Pada akhir pembelajaran diperoleh w1=1, w2 = 1, dan b=1. Pengujian data : Input : x1 = -1, dan x2 = 1 maka; y = 1 + (-1.1 + 1.1) = 1  y = t