1 / 62

Bevezetés

Bevezetés. Gépi tanulási módszerek febr. 13. Gépi tanulás. Hogyan építhető olyan számítógépes rendszer, amelynek a teljesítménye automatikusan javul tapasztalatok gyűjtésével?. Teljesítés. szóbeli vizsga

Télécharger la présentation

Bevezetés

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Bevezetés Gépi tanulási módszerek febr. 13.

  2. Gépi tanulás Hogyan építhető olyan számítógépes rendszer, amelynek a teljesítménye automatikusan javul tapasztalatok gyűjtésével?

  3. Teljesítés • szóbeli vizsga • elégséges: a húzott tételhez kapcsolódó alapfogalmakat, magát a problémát érti, a megoldás alapjaival tisztában van • közepes: a húzott tételt mélységében (fontosabb képletek is) érti • jó: az egész anyagot átlátja, a tételen kívüli kérdésekre (összefüggések) is tud válaszolni • jeles: matematikai mélységeket is ismeri (minden képlet, levezetések stb.) • 10 darab minikérdés az előadáson (5 jó = +1 jegy)

  4. Spam szűrés

  5. arc/személy felismerés demo

  6. Ajánló rendszerek

  7. Robotika

  8. Természetesnyelv-feldolgozás

  9. Big Data

  10. még alkalmazási területek Ujjlenyomatok azonosítása Kézírásos szövegek felismerése Objektumok felismerése képeken Beszédfelismerés DNSszekvenciák azonosítása Gyógyszerkutatás Banki adatok, tőzsde elemzése Folyamatoptimalizálás Pattern Classification, Chapter 1

  11. 11 Gépi tanulás jelen és jövő • egyre több alkalmazásban van jelen • „úszunk az adatban, miközben szomjazunk az információra” • technológiai fejlettség és elterjedtség • igény az egyre nagyobb fokú automatizálásra és perszonalizációra • Vannak megoldott problémák, de számos nyitott kutatási kérdés is!

  12. http://www.ml-class.org/course

  13. 13 Gépi tanulás definíciója Tanulás (Mitchell): „a computer program said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E.”

  14. AlakfelismerésMost of the materials in these slides were taken fromPattern Classification (2nd ed)by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 2000with the permission of the authors and the publisher

  15. Példa Osztályozzunk halakat egy szállítószalagon, optikai érzékelőt használva! tengeri sügér (see bass) Fajok lazac (salmon) Modell (fogalmak és rendszerek szerkezeti leírása): itt a vizsgált objektumok leírása (pl. lazac – rövidebb) 16 Pattern Classification, Chapter 1

  16. Felügyelt (induktív) tanulás (supervised learning): tanító halmaz (training examples, E) alapján olyan modell tanulása ami korábban nem látott példákon is helyesen működik. Osztályozás: előre definiált kategóriákba besorolás. 17 Osztályozás (T) Pattern Classification, Chapter 1

  17. 18 Pattern Classification, Chapter 1

  18. Használjunk valamilyen szegmentálót a halak egymástól és a háttértől való elválasztására Az egy halról meglevő információt egy információkinyerőnek küldjük, hogy bizonyos tulajdonságok kinyerésével (feature extraction) csökkentsük az adatok mennyiségét A tulajdonságokat egy osztályozónak adjuk tovább 19 Példa - előfeldolgozás Pattern Classification, Chapter 1

  19. tulajdonság=jellemző (feature) néhány lehetséges tulajdonság: Hossz Világosság Szélesség Az uszonyok száma és alakja A száj elhelyezkedése, stb 20 Példa - tulajdonságok Pattern Classification, Chapter 1

  20. 21 Pattern Classification, Chapter 1

  21. A hossz gyenge megkülönböztetési erővel rendelkezik. Válasszuk a fényességet egy második próbálkozáshoz tulajdonságként. 22 Példa - tulajdonságok Pattern Classification, Chapter 1

  22. 23 Pattern Classification, Chapter 1

  23. fals pozitív/fals negatív hiba A kétfajta hiba azonos költségű? Például ha csökkentjük a döntési küszöbértéket csökken azon tengeri sügérek száma, amelyeket tévesen lazacnak osztályoztunk Döntéselméleti feladat! 24 Hibafüggvény (P) Pattern Classification, Chapter 1

  24. A fényességet mellé vegyük a szélességét is HalxT = [x1, x2] 25 Tulajdonságvektor Fényesség Szélesség Pattern Classification, Chapter 1

  25. 26 Pattern Classification, Chapter 1

  26. További tulajdonságokat is vehetünk még hozzá. Óvatosnak kell lenni, hogy túl „zajos” (pl. mérési hiba) felesleges (pl. erősen korrelál másik tulajdonsággal) tulajdonságokkal ne rontsuk a rendszer hatékonyságát! Jól diszkrimináló tulajdonságokat keressünk! Erősen problémafüggőek lehetnek a tulajdonságok! 27 Tulajdonságvektor Pattern Classification, Chapter 1

  27. 28 Pattern Classification, Chapter 1

  28. Ez sajnos nem valószínű, hogy ideális lesz, hiszen eddig még nem látott inputokra kell jó osztályozást adnunk!Általánosítás vs. túltanulás/túlillesztés (overfitting) 29 Általánosítás Pattern Classification, Chapter 1

  29. 30 Pattern Classification, Chapter 1

  30. Tulajdonságok száma? Egyszerű felület? Gyors döntés? A problémáról való ismeret beépítése csökkenti a komplexitást! 31 Reprezentáció Pattern Classification, Chapter 1

  31. Példa - Gépi tanulás definíciója Task (feladat): osztályozzunk kértdimenziós valós vektorokat két osztályba (lazac, tengeri sügér) Experience (tapasztalat): egy tanító halmaz, amelyikben ismert osztályba tartozó halaknál mért számpárok adottak Performance (hatékonyság): eddig nem látott halakhoz tartozó számpárok alapján helyes osztályozás aránya 32

  32. 33 Szabály-alapú rendszerek vs. gépi tanulás • szakértőre szükség van • szabályírás vagy • tanítópéldák, tulajdonságok • Melyik a költségesebb? • szakértő tud szabályrendszert írni? • tanító adatbázis költsége? • mennyire specifikus a probléma?

  33. A tervezési ciklus Adatgyűjtés Tulajdonság(ok) kiválasztása Modell választása Tanítás Kiértékelés Számítási bonyolultság 34 Pattern Classification, Chapter 1

  34. 35 Pattern Classification, Chapter 1

  35. Honnan tudjuk, hogy elegendően nagy és reprezentatív mintát (példát, samples) gyűjtöttünk a rendszer tanításához és teszteléséhez? 36 Adatgyűjtés Pattern Classification, Chapter 1

  36. Erősen függ a megoldandó problémától. Könnyen kinyerhető, Transzformációkkal szemben invariáns Zajjal szemben nem érzékeny. A priori tudás beépítése 37 Tulajdonság(ok) választása Pattern Classification, Chapter 1

  37. A halak osztályozására eddig használt módszerrel elégedetlenek vagyunk, új módszer Az adatokat használjuk az osztályozó meghatározásához. Nagyon sok módszer az osztályozók tanítására és a modell választására… No free lunch! 38 Modell kiválasztása és tanítás Pattern Classification, Chapter 1

  38. Kiértékelési metrika (pl. hibaarány kiszámítása) Túltanulás elkerülésére elkülönítünk egy teszt adathalmazt szimuláljuk a „nem ismert” példákat fejlesztői (developement) adatbázis 39 Kiértékelés Pattern Classification, Chapter 1

  39. 40 Tematika • Osztályozás • Regresszió • Klaszterezés • Ajánló rendszerek • Rangsorolás • Struktúra előrejelzés • Visszacsatolásos tanulás

  40. Aktívan kutatott területek Komplex kimenetek (csoportok hierarchiái, sorozatok, gráfok) Tanulás kevesebb tanuló adatból félig felügyelt tanulás, egyosztályos tanulók… (inter)aktív tanulás Domain adaptáció Gépi tanulási rendszerek „big data” data privacy 41

  41. Valószínűségszámításfelelevenítő

  42. Valószínűségszámítás alapjai Eseménytér (), (elemi) események Axiómák: - 0 ≤ P(A) ≤ 1 - P()=1 - Ha A1, A2, … egymást páronként kizáró események (Ai ∩Aj = , ha i  j), akkor P(k Ak) =  k P(Ak) 43

  43. Tételek - P(Ø) = 0 - P(¬A)=1-P(A) - P(A  B)=P(A)+P(B) – P(A∩B) - P(A) = P(A ∩ B)+P(A ∩¬B) Ha A  B, akkor P(A) ≤ P(B) és P(B-A) = P(B) – P(A) 44

  44. Feltételes valószínűség Amennyiben B igaz, mekkora részben lesz A is igaz. P(A|B) = P(A∩B)/P(B) Következmény (lánc-szabály/szorzási szabály): P(A∩B) = P(A|B)·P(B) Egyszerű példa: A: fejfájás, B: influenza P(A) = 1/10, P(B) = 1/40, P(A|B)=? 45

  45. Feltételes valószínűség

  46. Események függetlensége Az A esemény független a B eseménytől, ha P(A|B) = P(A) Ez ekvivalens P(AB) = P(A)P(B) illetve P(B|A) = P(B) 47

  47. Általános szorzási szabály A1, A2, …, An tetszőleges események, P(A1A2…An) = P(An|A1…An-1) P(An-1|A1…An-2)…P(A2| A1)P(A1) Teljes valószínűség tétele: ha A1, A2, …, An események teljes eseményrendszert alkotnak, továbbá P(Ai) > 0 minden i-re, akkor P(B) = ∑j=1nP(B |Ai)P(Ai) 48

  48. Bayes szabály P(A|B) = P(A∩B)/P(B) = P(B|A)P(A)/P(B) 49

  49. Valószínűségi változó ξ:  → R Valószínűségi vektorváltozók… Sztochasztikus folyamat: t 50

More Related