1 / 32

Neurale Netwerken

Neurale Netwerken. Kunstmatige Intelligentie Rijksuniversiteit Groningen. April 2005 . hc 2. TLUs, lineaire scheidbaarheid en vectoren TLUs trainen; de perceptron regel boek: H3 en H4. overzicht. voorbeeld TLU: logical AND operator 3.1

yitro
Télécharger la présentation

Neurale Netwerken

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. NeuraleNetwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen April 2005

  2. hc 2 • TLUs, lineaire scheidbaarheid en vectoren • TLUs trainen; de perceptron regel • boek: H3 en H4

  3. overzicht • voorbeeld TLU: logical AND operator 3.1 • vectoren en lineaire scheidbaarheid 3.2, 3.3 • TLU’s trainen 4.1, 4.2, 4.3 • uitbreiding 4.4, 4.5, 4.6

  4. x1 w1 y w2 x2 y = 1 if a >= Θ y = 0 if a < Θ een TLU met 2 inputs, 1 output

  5. x1 1 y 1 x2 y = 1 if a >= Θ y = 0 if a < Θ whereΘ = 1,5 logical AND operator

  6. 0 1 0 1 0 y = 1 if a >= Θ y = 0 if a < Θ whereΘ = 1,5 input pattern 1

  7. 0 1 0 1 1 y = 1 if a >= Θ y = 0 if a < Θ whereΘ = 1,5 input pattern 2

  8. 1 1 0 1 0 y = 1 if a >= Θ y = 0 if a < Θ whereΘ = 1,5 input pattern 3

  9. 1 1 1 1 1 y = 1 if a >= Θ y = 0 if a < Θ whereΘ = 1,5 input pattern 4

  10. van klasse grensnaar decision hyperplane In het voorbeeld van de logical AND operator wordt dat x2 = -1 * x1 + 1,5 de klasses moeten te scheiden zijn door een rechte lijn (hyperplane), anders kan een TLU het niet oplossen.

  11. overzicht • voorbeeld TLU: logical AND operator3.1 • vectoren en lineaire scheidbaarheid3.2, 3.3 • TLU’s trainen 4.1, 4.2, 4.3 • uitbreiding 4.4, 4.5, 4.6

  12. vectoren 2D input space (bv. AND): x = (x1, x2) nD input space: (bv. 6 * 8 pixels): x = (x1, x2, ..., xn) w = (w1, w2, ..., wn)

  13. w u -v u u v u v w w kv = (kv1, kv2, ..., kvn) w = u + v w = (u1 + v1, u2 + v2, ..., un + vn) w = u - v w = (u1 - v1, u2 - v2, ..., un - vn)

  14. inproduct v w

  15. lineaire scheidbaarheid

  16. overzicht • voorbeeld TLU: logical AND operator3.1 • vectoren en lineaire scheidbaarheid 3.2, 3.3 • TLU’s trainen4.1, 4.2, 4.3 • uitbreiding 4.4, 4.5, 4.6

  17. x1 w1 w2 x2 y y = 1 if a >= Θ y = 0 if a < Θ 1 TLU trainen (2 inputs, 1 output) • “ordening” patterns en opsplitsen in trainingset {p1, ..., pn} en testset {pn + 1, ..., pm} • training set van patterns {p1, ..., pn}, pi = (xi1, xi2, ti) • voor elk pattern pi gewichten aanpassen dmv. error estimate (ti – yi) yi is de output die de TLU geeft ti is wat de output zou moeten zijn • test set van patterns {pn + 1, ..., pm} error op de test set is de prestatie maat testen gebeurt na elk epoch

  18. x1 x1 w1 w1 w2 w2 x2 x2 y y θ y = 1 if a >= Θ y = 0 if a < Θ y = 1 if a >= 0 y = 0 if a < 0 -1 the augmented weight vector y = 1 if w∙ x >= Θ y = 0 if w ∙ x < Θw ∙ x = Θ decision hyperplane Θ kun je zien als extra gewicht met vaste input -1 y = 1 if w ∙ x >= 0 y = 0 if w ∙ x < 0 w ∙ x = 0 decision hyperplane

  19. de gewichtsvector aanpassen • misclassificatie: • t = 1, y = 0 miss • inputvector v = (v1, v2, ..., vn) en gewichtsvector w = (w1, w2, ..., wn) • wijzen verschillende kanten op terwijl dat niet de bedoeling is • inproduct is negatief • pas de gewichtsvector aan, zodat het inproduct positief wordt • t = 0, y = 1 false alarm • inputvector en gewichtsvector wijzen dezelfde kant op terwijl dat niet de bedoeling is • het inproduct is positief • pas de gewichtsvector aan, zodat het inproduct negatief wordt • learning rate α ongeveer 0,2

  20. Perceptron Training Rule w’ = w + αv w’ = w – αv t y w’ = w + α(t – y)v1 1 1 0 0 1 0 0 Δw = α(t – y)v vector components i = 1 t/m (n + 1): Δwi = α(t – y)vi w = (w1, w2, ..., wn, θ) v = (v1, v2, ..., vn, -1)

  21. the perceptron training algorithm boek p. 34 repeat for each training vector pair (v, t) update weight vector w end for loop until y = t for all input vectors .

  22. the perceptron training algorithm boek p. 34 repeat for each training vector pair (v, t) evaluate the output y when v is input to the TLU if y ≠ t then form new weight vector w’ according to (4.4) else do nothing end if end for loop until y = t for all input vectors (4.4) w’ = w + α(t – y)v Perceptron Convergence Theorem: Als twee klasses lineair scheidbaar zijn zal het toepassen van bovenstaand algoritme leiden tot een decision hyperplane dat de twee klasses van elkaar scheidt. bewezen doorRosenblatt (1962)

  23. tabel 4.1 in het boek, logical AND operator x1 w1 x2 y w2 -1 θ y = 1 if a >= 0 y = 0 if a < 0 δwi = α(t – y)vi whereα = 0.25

  24. overzicht • voorbeeld TLU: logical AND operator3.1 • vectoren en lineaire scheidbaarheid 3.2, 3.3 • TLU’s trainen 4.1, 4.2, 4.3 • uitbreiding4.4, 4.5, 4.6

  25. het perceptron

  26. niet-lineair scheidbare klasses neuron 1 zegt AB, neuron 2 zegt AD: tabel 4.2 kan alleen als de input van klasse A is dit gaat ook op voor klasse B, C en D decoderen: tabel 4.3

  27. neurale netwerken: modellen op een gewone von Neumann computer... black box:

  28. overzicht • voorbeeld TLU: logical AND operator3.1 • vectoren en lineaire scheidbaarheid 3.2, 3.3 • TLU’s trainen 4.1, 4.2, 4.3 • uitbreiding 4.4, 4.5, 4.6

  29. volgende college • Herhaling van vandaag • TLUs, lineaire scheidbaarheid en vectoren • TLUs trainen; de perceptron regel • De delta regel • boek: H3, H4 enH5

More Related