1 / 32

Pertemuan 13

Pertemuan 13. Jaringan Syaraf Tiruan. SUB TOPIK BAHASAN. Pengertian JST Komponen JST Arsitektur JST Fungsi Aktivasi. Pengertian JST.

earl
Télécharger la présentation

Pertemuan 13

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Pertemuan 13 Jaringan Syaraf Tiruan

  2. SUB TOPIK BAHASAN • Pengertian JST • Komponen JST • Arsitektur JST • Fungsi Aktivasi

  3. Pengertian JST • Jaringan syaraf merupakan salah satu representasi buatan dari otak manusia yang selalu mencoba untuk mensimulasikan proses pembelajaran pada otak manusia tersebut • Buatan karena di implementasikan dengan program komputer

  4. KOmponen Jaringan Syaraf • Jaringan syaraf terdiri atas beberapa neuron • Ada hubungan antar neuron • Neuron mentransformasikan informasi yg diterima melalui sambungan keluarnya menuju neuron-neuron yg lain • Pada jaringan syaraf hubungan ini dikenal dengan bobot

  5. Arsitektur Jaringan • Neuron-neuron dikelompokkan dalam lapisan-lapisan • Neuron yang terletak pada lapisan yang sama akan memiliki keadaan yang sama • Kelakuan neuron ditentukan oleh fungsi aktivasi dan pola bobotnya

  6. a. Single Layer net

  7. b. Multiple Layer Net

  8. Fungsi aktivasi • Masukan pada jaringan akan diproses oleh suatu fungsi yang akan menjumlahkan nilai-nilai semua bobot dan bias. • Hasil dari penjumlahan akan dibandingkan dengan suatu nilai ambang (threshold) melalui fungsi aktivasi setiap neuron.

  9. Hard Limit (undak Biner)

  10. SymetricHard Limit (Bipolar)

  11. Fungsi Linier (Identitas) y = x

  12. Symetric Saturating Linear

  13. Sigmoid Biner

  14. Sigmoid Bipolar

  15. Proses Pembelajaran • Supervised learning • UnSupervised learning

  16. a. Supervised learning • Pembelajaran terawasi jika output yang diharapkan telah diketahui sebelumnya • Contoh : Pengenalan pola , misal pada operasi AND • Input Output 0 0 0 0 1 0 1 0 0 1 1 1

  17. a. Supervised learning • Jika terjadi perbedaan antara pola output hasil pembelajaran dengan pola target maka akan muncul error • Jika nilai error masih besar, maka perlu banyak dilakukan pembelajaran lagi

  18. B Unsupervised learning • Tidakmemerlukan target output • Tidakdapatditentukanhasil yang sepertiapakah yang diharapkanselamaprosespembelajaran • Selamaprosespembelajaran,nilaibobotdisusundalamsuatu range tertentutergantungnilai input yang diberikan • Tujuanadalahuntukmengelompokkanunit-unit yang hampirsamadalamsatuan area tertentu • Cocokuntukpengelompokanpola

  19. Penerapan Jaringan Syaraf Tiruan

  20. Model Hebb • Diusulkan oleh Donald Olding Hebb pada th 1949 • Metode pengembangan dari metode McCulloch-Pitts • Menentukan bobot dan bias secara analitik (manual) • Pembelajaran dilakukan dengan memperbaiki nilai bobot secara continue

  21. Model Hebb Perbaikan bobot diperoleh dengan cara wi(baru) = wi(lama) + xi*yb(baru) = b(lama) + y dengan: wi = bobot data input ke-i xi = input data ke-i y = output data b = nilai bias

  22. algoritma • Inisialisasi semua bobot : wij =0; dengan i=1,2,...,n; j=1,2,...,m • Untuk setiap pasangan input-output (s-t), lakukan langkah sbb: • set input dengan nilai sama dengan vektor input: xi = si ; (i =1,2,..,n) • Set output dengan nilai sama dengan vektor output: yj = tj ; (j =1,2,..,m) • Perbaiki bobot: wij = wij + xiyi ; (i =1,2,..,n); dan (j =1,2,..,m)

  23. Kasus OR • {-1,-1,-1} w1 = 0 + (-1)(-1) = 1 w2 = 0 + (-1)(-1) = 1 b = 0 + (-1) = -1 • {-1,1,1} w1 = 1 + (-1)(1) = 0 w2 = 1 + (1)(1) = 2 b = -1 + (1) = 0 • {1,-1,1} w1 = 0 + (1)(1) = 1 w2 = 2 + (-1)(1) = 1 b = 0 + (1) = 1 • {1,1,1} w1 = 1 + (1)(1) = 2 w2 = 1 + (1)(1) = 2 b = 1 + (1) = 2

  24. Akhir pembelajaran, diperoleh bobot akhir w1 = 2, w2=2, b=2 Pengujian : x1 = -1 dan x2 = 1 , maka : y = (2)(-1) + ( 2) (1) + 2 = 2 Dengan fungsi bipolar , maka diperoleh output y =F(2) =1  karena 2 > 1 Sehingga y = t

  25. Model Perceptron • Digunakan untuk mengklasifikasikan suatu tipe pola tertentu • Mengatur parameter2 melalui proses pembelajaran. • Pembelajaran utk mendapatkan bobot akhir dilakukan secara berulang sampai sdh tdk ada error (output = target) • Namun jika msh ada error maka proses dihentikan  maksimum epoh. • Epoh ; proses pengulangan utk melatih semua pasangan data.

  26. Arsitekturperceptron

  27. Algoritma Pelatihan • Inisialisasi laju pembelajaran (α), nilai ambang (𝛉), bobot, bias • Menghitung • Menghitung • Jika y ≠ target, lakukan update bobot dan bias Wi baru = Wlama + α.t.Xi b baru = b lama + α.t • Ulang dari langkah 2 sampai tidak ada update bobot lagi

  28. Kasus OR • {0,0,0} y = 0 + (0.0 + 0.0) = 0 • {0,1,1} y = 0 + (0.0 + 0.1) = 0 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.1.0 = 0 W2baru = 0 + 1.1.1 = 1 bias baru = 0 + 1.1 = 1 {0,1,1} y = 1 + (0.0 + 1.1) = 2, output = 1 • {1,0,1} y = 1 + (0.1 + 1.0) = 1, output = 1 • {1,1,1} y = 1 + (0.1 + 1.1) = 2, output = 1 Inisialisasi: α = 1, 𝛉 = 0,1 w = 0, b = 1 Input dan target berbentuk biner

  29. {0,0,0} y = 1 + (0.0 + 1.0) = 1 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.1.0 = 0 W2baru = 1 + 1.1.0 = 1 bias baru = 1 + 1.1 = 2 {0,0,0} y = 2 + (0.0 + 1.0) = 2, output=1 y ≠ t, maka update bobot dan bias terjadi stagnasi walaupun bobot dan bias diupdate terus. maka input dan target biner tdk cocok utk kasus OR.

  30. Kasus OR • {-1,-1,-1} y = 0 + (0.-1 + 0.-1) = 0 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.-1.-1 = 1 W2baru = 0 + 1.-1.-1 = 1 bias baru = 0 + 1.-1 = -1 {-1,-1,-1} y = -1 + (1.-1 + 1.-1) = -3, output = -1 • {-1,1,1} y = -1 + (1.-1 + 1.1) = -1 y ≠ t, maka update bobot dan bias W1baru = 1 + 1.1.-1 = 0 W2baru = 1 + 1.1.1 = 2 bias baru = -1+ 1.1 = 0

  31. y = 0 + (0.-1 + 2.1) = 2, ouput = 1 • {1,-1,1} y = 0 + (0.1 + 2.-1) = -2 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.1.1 = 1 W2baru = 2 + 1.1.-1 = 1 bias baru = 0+ 1.1 = 1 y = 1 + (1.1 + 1.-1) = 1 • {1,1,1} y = 1 + (1.1 + 1.1) = 3, output=1

  32. Pada akhir pembelajaran diperoleh w1=1, w2 = 1, dan b=1. Pengujian data : Input : x1 = -1, dan x2 = 1 maka; y = 1 + (-1.1 + 1.1) = 1  y = t

More Related