1 / 151

Redes Neurais Artificiais

Redes Neurais Artificiais. Redes Neurais Artificiais. Christiano Lima Santos. Classificação de Padrões. Classificação de Padrões. Aula 2. Sumário. Arquitetura Separabilidade Linear O que são Redes Hebb? Características Algoritmo Função AND Função NOT Função OR Um caso específico

mina
Télécharger la présentation

Redes Neurais Artificiais

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Redes Neurais Artificiais Redes Neurais Artificiais Christiano Lima Santos

  2. Classificação de Padrões Classificação de Padrões Aula 2

  3. Sumário • Arquitetura • Separabilidade Linear • O que são Redes Hebb? • Características • Algoritmo • Função AND • Função NOT • Função OR • Um caso específico • Vantagens e desvantagens das redes Hebb

  4. Arquitetura • Single-layer; • Uso de bias para ajustar, mantendo o threshold fixo; • Problemas separáveis linearmente;

  5. Separabilidade Linear • Capacidade de uma rede separar dois padrões a partir de pesos e bias bem ajustados para tal;

  6. Separabilidade Linear

  7. O que são Redes Hebb? • Redes neurais single-layer; • Utilizam-se das regras de aprendizado Hebb; • Ajuste de todos os pesos a cada vetor de entrada • Independente do mesmo contribuir ou não para o resultado;

  8. Características • Vetores de entrada na forma bipolar ou binária; • Resultado na forma bipolar; • Treinamento supervisionado;

  9. Inicializa os pesos Para cada vetor de entrada, incremente cada wi com ∆wi = xi*t para i = 0 até n wi = 0; para cada vetor de entrada para i = 0 até n wi += xi*t; Algoritmo

  10. O treinamento foi efetuado com sucesso; Resultados alcançados em uma única época; Função AND

  11. O treinamento foi efetuado com sucesso; Resultados alcançados em uma única época; Função NOT

  12. O treinamento foi efetuado com sucesso; Resultados alcançados em uma única época; Função OR

  13. Um Caso Específico... • Treinamento fracassou; • Uma possível combinação de pesos seria: 1, 1, 1, -2

  14. Vantagens e Desvantagens das Redes Hebb • Vantagem: • Fácil aprendizado e implementação; • Desvantagem: • Nem todos os problemas linearmente separáveis podem ser resolvidos por aprendizado Hebb;

  15. Perceptron Perceptron Aula 3

  16. Sumário • Arquitetura • Características • Representação Gráfica • Função de Ativação • Algoritmo • Função AND • Reconhecimento de Caracteres

  17. Arquitetura • Single-layer; • Threshold X bias; • Problemas linearmente separáveis;

  18. Características • Duas retas dividem o plano cartesiano; • Taxa de aprendizado α; • Treinamento em épocas;

  19. Representação gráfica

  20. Função de Ativação

  21. Algoritmo • Inicializa os pesos • Para cada vetor de entrada, compute y_in e y, se diferente de t, incremente cada wi com ∆wi = α *t*xi • Caso varie algum wi, retorne para o passo anterior (Código-fonte de aplicação em breve, no site)

  22. Função AND (Em breve, disponível em artigo no site)

  23. Reconhecimento de Caracteres (Em breve, disponível em artigo no site)

  24. Adaline Adaline Aula 4

  25. Sumário • Arquitetura • Características • Representação Gráfica • Função de Ativação • Algoritmo • Reconhecimento de Caracteres

  26. Arquitetura • Uma única camada; • Dispensa especificação de Threshold; • Problemas linearmente separáveis;

  27. Características • Taxa de aprendizado α; • Treinamento em épocas; • Utiliza-se da regra de aprendizado delta;

  28. Representação gráfica

  29. Função de Ativação

  30. Algoritmo (Em breve, disponível no site)

  31. Reconhecimento de Caracteres (Em breve, disponível no site)

  32. Madaline Madaline Aula 5

  33. Sumário • Arquitetura • Características • Representação Gráfica • Algoritmo • Função XOR

  34. Arquitetura • Várias Adalines organizadas em múltiplas camadas; • Não somente problemas linearmente separáveis;

  35. Características • Treinamento um pouco mais complexo; • Não envolve somente uma camada com neurônios! • Algoritmos MRI (algoritmo original) e MRII; • Agora, o espaço é dividido por duas retas; • Muito cuidado com uso de pesos inicializados com zero!

  36. Representação gráfica

  37. Algoritmo (Explicação e aplicação em breve, no site)

  38. Função XOR (Aplicação em breve, no site)

  39. JavaNNS JavaNNS Aula 6

  40. Sumário • O Que é? • Instalação • Tela do JavaNNS • Menus • Algumas Janelas • Rede AND

  41. O Que é? • Universidade de Tübingen • Departamento de Ciência da Computação • Simulador para redes neurais; • JavaNNS = SNNS in Java + GUI; • Livre distribuição com algumas restrições; http://www-ra.informatik.uni-tuebingen.de/software/JavaNNS/welcome_e.html

  42. Instalação • JRE instalado; • Descompactação; • Execução por meio da JVM • java –jar javanns.jar • Diretórios: • Examples; • Manuals;

  43. Tela do JavaNNS

  44. File New Open Close Save / Save As / Save Data Print Exit Edit Undo / Redo Names / Output values Unit properties Delete Units Links Menus

  45. View Network Display Settings Error graph Weights Projection Kohonen Log Status Panel Properties Tools Control Panel Cascade & TACOMA Analyser Create Layers Connections Menus

  46. Pattern Add Modify Copy New Set Window Cascade Close all Help Contents About Menus

  47. Algumas Janelas Error Graph View Network

  48. Algumas Janelas Control Panel Log Window

  49. Rede AND [ Execute o JavaNNS com os parâmetros para a rede AND ]

  50. Associação de Padrões Associação de Padrões Aulas 7 e 8

More Related