1 / 74

formalnie: Zastosowanie sieci neuronowych do wspomagania decyzji biznesowych

formalnie: Zastosowanie sieci neuronowych do wspomagania decyzji biznesowych. Dorota Cendrowska. nieformalnie: Wspomaganie decyzji nie zwalnia od decyzji. dc@pjwstk.edu.pl. Plan wykładu. Zastosowania sieci neuronowych: klasyfikacja aproksymacja prognozowanie filtrowanie asocjacje

lucian
Télécharger la présentation

formalnie: Zastosowanie sieci neuronowych do wspomagania decyzji biznesowych

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. formalnie: Zastosowanie sieci neuronowychdo wspomagania decyzji biznesowych Dorota Cendrowska nieformalnie: Wspomaganie decyzji nie zwalnia od decyzji... dc@pjwstk.edu.pl

  2. Plan wykładu • Zastosowania sieci neuronowych: • klasyfikacja • aproksymacja • prognozowanie • filtrowanie • asocjacje • grupowanie

  3. zagadnienie klasyfikacji • wymagania: • znane kategorie • zbiór uczący (reprezentatywny) • decyzja do podjęcia: • kodowanie wyjścia • stosowane sieci: • jednokierunkowe sieci neuronowe • przykład: • klasyfikacja formacji giełdowych

  4. kodowanie wyjścia ?

  5. kodowanie wyjścia

  6. kodowanie wyjścia • kodowanie „jeden na jeden”

  7. kodowanie wyjścia • kodowanie „binarne”

  8. zagadnienie klasyfikacji (przykład) • wspomaganie decyzji biznesowych z wykorzystaniem sieci neuronowych wymaga m.in.: • decyzji dotyczącej wyboruelementów analizy technicznej • określenie okna czasowego • stworzenie odpowiedniego zbioru uczącego źródło rysunków: http://www.newtrader.pl/kliny,953,techniczna.html http://bossa.pl/index.jsp?layout=2&page=0&news_cat_id=204

  9. zagadnienie aproksymacji • klasyczna aproksymacja metodami numerycznymi napotyka na trudności, gdy: • próbujemy przybliżyć funkcję znaną tylko dla ograniczonej liczby ustalonych punktów(zbyt mała liczba punktów próbkowania) • gwałtowne zwroty wartości funkcji między tymi punktami. • stosowane sieci: • jednokierunkowe sieci neuronowe

  10. zagadnienie prognozowania • prognozowanie jako szczególny rodzaj aproksymacji • stosowane sieci: • jednokierunkowe sieci neuronowe • przykład: • prognozowanie notowań giełdowych

  11. zagadnienie prognozowania (przykład) • wspomaganie decyzji biznesowych z wykorzystaniem sieci neuronowych wymaga m.in.: • decyzji dotyczącej wyboru szeregu czasowego • liczby punktów z przeszłości (opóźnień) • liczby punktów z przyszłości (np. prognozowanie na podstawie danych miesięcznych tego, co będzie się działo za rok) • w przypadku notowań giełdowych: • określenie okna czasowego • eliminacja trendu

  12. zagadnienie filtrowania danych Sieć Hopfielda sieć jednowarstwowa ze sprzężeniem zwrotnym sygnał wejściowy dyskretny: -1, 1 funkcja aktywacji: uczenie jednoetapowe uruchamianie asynchroniczne

  13. uczenie jednoetapowe: Sieć Hopfielda — uczenie

  14. Sieć Hopfielda — uczenie uczenie jednoetapowe: lub (zapis macierzowy):

  15. Sieć Hopfielda — uczenie (przykład) obrazy do zapamiętania w sieci:

  16. Sieć Hopfielda — uczenie (przykład) obrazy do zapamiętania w sieci:

  17. Sieć Hopfielda — uczenie (przykład) obrazy do zapamiętania w sieci:

  18. Sieć Hopfielda — uczenie (przykład) obrazy do zapamiętania w sieci:

  19. Sieć Hopfielda — uczenie (przykład) macierz wag: symetryczna zera na przekątnej wagi neuronu (wiersz/kolumna) (przykład) wagi drugiego neuronu:

  20. Sieć Hopfielda — uczenie (przykład) macierz wag: symetryczna zera na przekątnej wagi neuronu (wiersz/kolumna) (przykład) wagi drugiego neuronu:

  21. Sieć Hopfielda — uruchamianie uruchamianie wieloetapowe: synchroniczne (?) asynchroniczne (?) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia

  22. Uruchamianie synchroniczne (?) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów„kojarzy się” ?

  23. Uruchamianie synchroniczne (?) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów„kojarzy się” ?

  24. Uruchamianie synchroniczne (?) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów„kojarzy się” ?

  25. Uruchamianie synchroniczne (?) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów„kojarzy się” ?

  26. Uruchamianie synchroniczne (?) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów„kojarzy się” ?

  27. Uruchamianie synchroniczne (?) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów„kojarzy się” ?

  28. Uruchamianie synchroniczne (NIE!) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów„kojarzy się” ? never ending story :(

  29. Uruchamianie asynchroniczne (TAK!) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuronuaktualnia wartość wyjścia

  30. Uruchamianie asynchroniczne (TAK!) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuronuaktualnia wartość wyjścia

  31. Uruchamianie asynchroniczne (TAK!) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuronuaktualnia wartość wyjścia

  32. Uruchamianie asynchroniczne (TAK!) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuronuaktualnia wartość wyjścia

  33. Uruchamianie asynchroniczne (TAK!) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuronuaktualnia wartość wyjścia

  34. Uruchamianie asynchroniczne (TAK!) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuronuaktualnia wartość wyjścia

  35. Uruchamianie asynchroniczne (TAK!) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuronuaktualnia wartość wyjścia

  36. Uruchamianie asynchroniczne (TAK!) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuronuaktualnia wartość wyjścia

  37. Uruchamianie asynchroniczne (TAK!) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuronuaktualnia wartość wyjścia

  38. Uruchamianie asynchroniczne (TAK!) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuronuaktualnia wartość wyjścia ?

  39. Co „pamięta” sieć Hopfielda? przynajmniej część obrazówintencjonalnie „zapamiętanych” + negatywy tych obrazów „skojarzenie”: wzorzec najbliższy wg miary Hamminga !

  40. Co i ile „pamięta” sieć Hopfielda? przynajmniej część obrazówintencjonalnie „zapamiętanych” + negatywy tych obrazów „skojarzenie”: wzorzec najbliższy wg miary Hamminga pojemność pamięci autoasocjacyjnej:P— liczba zapamiętanych obrazów z prawdopodobieństwem bliskim jedności

  41. Hopfield — po co pamiętać? zastosowanie pamięci autoasocjacyjnych: filtrowanie (odszumianie) uzupełnianie

  42. sieć BAM (Kosko): asocjacje architektura: dwuwarstwowa uczenie jednoetapowe uruchamianie synchroniczne dwa tryby: wejście: a, wyjście: b wejście: b, wyjście: a pojemność pamięci:

  43. sieć BAM (Kosko): asocjacje uczenie jednoetapowe:

  44. sieć BAM (Kosko): asocjacje uczenie jednoetapowe:

  45. BAM: uczenie (przykład) uczenie jednoetapowe:

  46. BAM: uczenie (przykład) uczenie jednoetapowe:

  47. BAM: uruchamianie (przykład) uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

  48. BAM: uruchamianie (przykład) uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

  49. BAM: uruchamianie (przykład) uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

  50. BAM: uruchamianie (przykład) uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

More Related