1 / 89

Pengantar Support Vector Machine

Revised : 8 August 2008. Pengantar Support Vector Machine. Anto Satriyo Nugroho, Dr.Eng. Pusat Teknologi Informasi & Komunikasi BPP Teknologi Email: asnugroho@gmail.com URL: http://asnugroho.wordpress.com. Anto Satriyo Nugroho, 1970. Nagoya Inst.of Technology, Japan

luz
Télécharger la présentation

Pengantar Support Vector Machine

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Revised : 8 August 2008 Pengantar Support Vector Machine Anto Satriyo Nugroho, Dr.Eng Pusat Teknologi Informasi & Komunikasi BPP Teknologi Email: asnugroho@gmail.com URL: http://asnugroho.wordpress.com

  2. Anto Satriyo Nugroho, 1970 Nagoya Inst.of Technology, Japan Electrical & Computer Engineering • Name & Birthday • Education 1995 B.Eng 2000 M.Eng 2003 Dr.Eng • Research Interests • Pattern Recognition, Datamining • Bioinformatics • Biomedical Engineering • Grants & Awards 1999 First Prize Award in Meteorological Prediction Competition, Neuro-Computing Technical Group, IEICE, Japan 2001 Research grant from the Hori Information Science Promotion Foundation (bioinformatics research)‏ 2004-2007 Hitech Research (HRC) from Ministry of Education, Culture, Sports, Science and Technology

  3. Agenda • Apakah SVM itu ? • Bagaimana hyperplane optimal diperoleh ? • Hard margin vs Soft margin • Non linear SVM • Training & Testing • Fase training pada SVM • Memakai SVM untuk klasifikasi • Bagaimana mencari solusi fase training pada SVM ? • Eksperimen perbandingan SVM dan Multilayer perceptron pada spiral data • Parameter tuning SVM memakai DOE (Design of Experiment) • Bagaimana memakai SVM pada multiclass problem • Software-software SVM • Studi kasus: prediksi efektifitas terapi interferon pada penderita penyakit Hepatitis C kronis • Beberapa catatan

  4. Support Vector Machine • Diperkenalkan oleh Vapnik (1992) • Support Vector Machine memenuhi 3 syarat utama sebuah metode PR • Robustness • Theoretically Analysis • Feasibility • Pada prinsipnya bekerja sebagai binary classifier. Saat ini tengah dikembangkan untuk multiclass problem • Structural-Risk Minimization

  5. Binary Classification Discrimination boundaries Class -1Class +1

  6. Optimal Hyperplane by SVM Margin d Class -1Class +1

  7. Optimal Hyperplane by SVM • Margin (d) = minimum distance antara hyperplane and training samples • Hyperplane yang paling baik diperoleh dengan memaksimalkan nilai margin • Hyperplane yang paling baik itu akan melewati pertengahan antara kedua class • Sample yang paling dekat lokasinya terhadap hyperplane disebut support vector • Proses learning dalam SVM : mencari support vector untuk memperoleh hyperplane yang terbaik

  8. Optimal Hyperplane by SVM d1

  9. Optimal Hyperplane by SVM d2 d2 > d1

  10. Optimal Hyperplane by SVM bukan d3 d3 d3>d2 > d1

  11. Optimal Hyperplane by SVM d4 d4 d4>d3>d2 > d1

  12. Separating Hyperplane for 2D margin d bias (1)

  13. Optimal Hyperplane by SVM • Margin (d) = minimum distance antara hyperplane and training samples. Hyperplane terbaik diperoleh dengan memaksimalkan d. • Bagaimana memaksimalkan d ? Training set: pattern class-label (+1 atau -1) distance antara hyperplane dengan pattern x pada training set (2) Minimum distance antara hyperplane dengan training set (3)

  14. Optimal Hyperplane by SVM Constraint : (4) Substitusi (4) ke (3) diperoleh, maka minimum distance antara hyperplane dengan training set menjadi (5) harus dimaksimalkan PRIMAL FORM (6) Minimize Subject to (7) (7) : data diasumsikan 100% dapat terklasifikasikan dg benar

  15. Optimal Hyperplane by SVM Lagrange Multiplier dipakai untuk menyederhanakan (6) dan (7) menjadi (8) dimana (9) Solusi dapat diperoleh dengan meminimalkan L terhadap (primal variables) dan memaksimalkan L terhadap (dual variables) Pada saat solusi itu diperoleh (titik optimal), gradient L = 0 Dengan demikian (10) (11) Sehingga diperoleh (12)

  16. Optimal Hyperplane by SVM (11) dan (12) disubstitusikan ke (8), sehingga diperoleh (13),(14) (11) (12) (8) Fungsi yg diperoleh hanya memaksimalkan satu variable saja Maximize a (13) Subject to (14)

  17. A B A

  18. ½ A – (A-B) = B- ½ A A B A

  19. Optimal Hyperplane by SVM Fungsi yg diperoleh hanya memaksimalkan satu variable saja DUAL FORM Maximize a (13) Subject to (14) Formula di atas merupakan masalah Quadratic Programming, yang solusinya kebanyakan bernilai 0. Data dari training set yang tidak bernilai 0 itulah yang disebut Support Vector (bagian training set yang paling informatif) Proses training dalam SVM ditujukan untuk mencari nilai

  20. Optimal Hyperplane by SVM Apabila telah diperoleh, maka dan dapat diperoleh sbb. (12) (15) Klasifikasi pattern dihitung sbb. (16)

  21. Catatan Ada dua hal penting yg perlu diingat: 1. Persamaan (13) hanya memiliki sebuah single global maximum yang dapat dihitung secara efisien 2. Data tidak ditampilkan secara individual, melainkan dalam bentuk dot product dari dua buah data

  22. Hard vs Soft Margin (6) Minimize Subject to (7) Pada perhitungan sebelumnya, sesuai dengan pers. (7), data diasumsikan 100% dapat terklasifikasikan dg benar (Hard Margin). Padahal kenyataannya tidak demikian. Umumnya data tidak dapat terklasifikasikan 100% benar, sehingga asumsi di atas tidak berlaku dan solusi tidak dapat ditemukan. Soft Margin: Melunakkan constraint dengan memberikan toleransi data tidak terklasifikasi secara sempurna.

  23. Separating Hyperplane for 2D

  24. Hard vs Soft Margin (6) Minimize Subject to (7) Pada perhitungan sebelumnya, sesuai dengan pers. (7), data diasumsikan 100% dapat terklasifikasikan dg benar (Hard Margin). Padahal kenyataannya tidak demikian. Umumnya data tidak dapat terklasifikasikan 100% benar, sehingga asumsi di atas tidak berlaku dan solusi tidak dapat ditemukan. Soft Margin: Melunakkan constraint dengan memberikan toleransi data tidak terklasifikasi secara sempurna.

  25. mengindikasikan bahwa training example terletak di sisi yang salah dari hyperplane

  26. Soft Margin Soft margin diwujudkan dengan memasukkan slack variable xi (xi> 0) ke persamaan (7), sehingga diperoleh Sedangkan objective function (6) yang dioptimisasikan menjadi C merupakan parameter yang mengkontrol tradeoff antara margin dan error klasifikasi x. Semakin besar nilai C, berarti penalty terhadap kesalahan menjadi semakin besar, sehingga proses training menjadi lebih ketat. (17) minimize (13) Maximize a Subject to (18)

  27. Soft Margin Berdasarkan Karush-Kuhn-Tucker complementary condition, solusi (13) memenuhi hal-hal sbb. (19) (unbounded SVs) (bounded SVs) Cristianini-Taylor: Support Vector Machines and other kernel-based learning methods, Cambridge Univ.Press (2000) p.107 Vapnik, V. (1998): Statistical Learning Theory, Wiley, New York

  28. Penentuan parameter C • Parameter C ditentukan dengan mencoba beberapa nilai dan dievaluasi efeknya terhadap akurasi yang dicapai oleh SVM (misalnya dengan cara Cross-validation) • Penentuan parameter C bersama-sama parameter SVM yang lain dapat dilakukan misalnya memakai DOE (Design of Experiments) yang dijelaskan di slide selanjutnya

  29. Kernel & Non-Linear SVM • Latar belakang • Kelemahan Linear Learning-Machines • Representasi data & Kernel • Non linear SVM

  30. Latar belakang • Machine Learning • Supervised learning: berikan satu set input-output data, dan buatlah satu model yang mampu memprediksi dengan benar output terhadap data baru. Contoh : pattern classification, regression • Unsupervised learning: berikan satu set data (tanpa output yang bersesuaian), dan ekstraklah suatu informasi bermanfaat. Contoh : clustering, Principal Component Analysis • Apabila banyaknya data yang diberikan “cukup banyak”, metode apapun yang dipakai akan menghasilkan model yang bagus • Tetapi jika data yang diberikan sangat terbatas, untuk mendapatkan performa yang baik, mutlak perlu memakai informasi spesifik masalah yang dipecahkan (prior knowledge of the problem domain). Contoh : masalah yg dipecahkan apakah berupa character recognition, analisa sekuens DNA, voice dsb. Prior knowledge seperti “masalah yg dianalisa adalah DNA” ini tidak dapat dinyatakan dengan angka.

  31. Latar belakang • Pemanfaatan prior knowledge : • Fungsi Kernel (kemiripan sepasang data) • Probabilistic model of data distribution (Gaussian, Markov model, HMM, dsb) • Pemakaian Kernel : user memanfaatkan pengetahuannya mengenai domain masalah yang dipecahkan dengan mendefinisikan fungsi kernel untuk mengukur kemiripan sepasang data

  32. Linear Learning Machines • Kelebihan : • Algoritma pembelajarannya simple dan mudah dianalisa secara matematis • Kelemahan • Perceptron (salah satu contoh linear learning machine) hanya mampu memecahkan problem klasifikasi linear (Minsky & Papert) • Umumnya masalah dari real-world domain bersifat non-linear dan kompleks, sehingga linear learning machines tidak mampu dipakai memecahkan masalah riil.

  33. Representasi Data & Kernel • Representasi data seringkali mampu menyederhanakan satu masalah • Formula sebagaimana pada persamaan (20) tidak dapat dipecahkan dengan linear machines • Representasi dengan menghasilkan (21) yang berupa persamaan linear, sehingga bisa dipecahkan dengan linear machines Newton’s law gravitation (20) (21)

  34. Representasi Data & Kernel Stuart Russel, Peter Norwig, Artificial Intelligence A Modern Approach 2nd Ed, Prentice Hall, 2003

  35. Representasi Data & Kernel Stuart Russel, Peter Norwig, Artificial Intelligence A Modern Approach 2nd Ed, Prentice Hall, 2003

  36. Representasi Data & Kernel • Representasi data seringkali mampu menyederhanakan satu masalah • Data yang dipetakan ke ruang vektor berdimensi lebih tinggi, memiliki potensi lebih besar untuk dapat dipisahkan secara linear (Cover theorem) • Masalah : semakin tinggi dimensi suatu data, akan mengakibatkan tertimpa kutukan dimensi tinggi Curse of dimensionality. • turunnya generalisasi model • meningkatnya komputasi yang diperlukan • Pemakaian konsep Kernel akan mengatasi masalah di atas

  37. Perceptron vs SVM • Single layer networks (perceptron) memiliki algoritma learning yang simpel dan efisien, tetapi kemampuannya terbatas. Hanya mampu menyelesaikan linear problem • Multilayer networks (MLP) mampu mewujudkan non-linear functions, tetapi memiliki kelemahan pada sisi local minima & tingginya dimensi weight-space • SVM: dapat dilatih secara efficient, dan mampu merepresentasikan non-linear functions

  38. Non Linear Classification dalam SVM Hyperplane Input Space High-dimensional Feature Space

  39. Pemetaan implisit ke Feature Space • Linear learning machines dapat ditulis dalam dua bentuk: primal form & dual form • Hypotheses function dapat direpresentasikan sebagai kombinasi linear training points. Sehingga decision rule dapat dievaluasi berdasarkan inner product (dot product) antara test point & training points • Keuntungan dual form : dimensi feature space tidak mempengaruhi perhitungan. Informasi yang dipakai hanya Gram matrix primal (22) dual (23) (12)

  40. Gram Matrix (24)

  41. Fungsi Kernel Representasi dual form Bisa dihitung secara IMPLISIT. Yaitu tidak perlu mengetahui wujud fungsi pemetaan melainkan langsung menghitungnya lewat fungsi KERNEL (25)

  42. Contoh-contoh Fungsi Kernel Polynomial (26) (27) Gaussian where Sigmoid (28) where and

  43. Representasi Data & Kernel Stuart Russel, Peter Norwig, Artificial Intelligence A Modern Approach 2nd Ed, Prentice Hall, 2003

  44. Representasi Data & Kernel

  45. Representasi Data & Kernel • Umumnya data direpresentasikan secara individual. Misalnya, untuk membedakan atlit Sumo dan atlit sepakbola, bisa dengan mengukur berat badan dan tinggi mereka 67 kg 167 cm A1

  46. Representasi Data & Kernel • Metode Kernel : data tidak direpresentasikan secara individual, melainkan lewat perbandingan antara sepasang data

  47. Representasi Data • Representasi berupa square matrix tidak tergantung dimensi data, dan selalu berukuran nxn (n:banyaknya data). Hal ini menguntungkan jika dipakai untuk merepresentasikan data yang berdimensi sangat tinggi. Misalnya 10 tissue yg masing-masing dikarakterisasikan oleh 10,000 gen. Matriks yang diperoleh cukup 10x10 saja • Adakalanya komparasi dua buah object lebih mudah daripada merepresentasikan masing-masing objek secara eksplisit (Contoh : pairwise sequence comparison mudah dilakukan, tetapi representasi sekuens protein ke dalam bentuk vektor tidaklah mudah. Padahal neural network memerlukan representasi data secara eksplisit)

  48. Non Linear Classification dalam SVM • Struktur SVM berupa unit linear • Klasifikasi non-linear dilakukan dengan 2 tahap • Data dipetakan dari original feature space ke ruang baru yang berdimensi tinggi memakai suatu fungsi non-linear , sehingga data terdistribusikan menjadi linearly separable • Klasifikasi dilakukan pada ruang baru tersebut secara linear • Pemakaian Kernel Trick memungkinkan kita untuk tidak perlu menghitung fungsi pemetaan secara eksplisit (19) (20)

  49. Non Linear Classification dalam SVM Decision function pada non linear classification: yang dapat ditulis sebagaimana pers. (12) (21) (22) (23) • Karakteristik fungsi pemetaan sulit untuk dianalisa • Kernel Trick memakai sebagai ganti kalkulasi

More Related