1 / 17

Redes Neurais

Redes Neurais. Uso de Redes Neurais MLP para resolver problemas de reconhecimento de padrões. Alexandre de Oliveira Stauffer. Modelo Geral. X 1. W 1. X 2. W 2. Função de Ativação. Função de Propagação. Y. W N. X N. X 1. 1. W 1. 2. W 2. Y. Z=X 1 W 1 +X 2 W 2. -3. X 2. 0.

lindley
Télécharger la présentation

Redes Neurais

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Redes Neurais Uso de Redes Neurais MLP para resolver problemas de reconhecimento de padrões Alexandre de Oliveira Stauffer

  2. Modelo Geral X1 W1 X2 W2 Função de Ativação Função de Propagação Y WN ... XN

  3. X1 1 W1 2 W2 Y Z=X1W1+X2W2 -3 X2 0 Modelo bidimensional 1, se Z>=1 0, cc Z=2 1

  4. Modelo bidimensional X2 1 2X1-3X2-1=0 X1 1

  5. Treinamento • Reconhecer função lógica OR; • Pesos Iniciais: [1, 1] • Bias Inicial: 3 • Regra Delta: ΔWi=-λεX • Y=1, se X1+X2-3>=0 • Y=0, cc

  6. X1+X2-3=0 X1+2X2-2=0 2X1+2X2-1=0 Dinâmica de Treinamento X2 1 X1 1

  7. X Y Redes MLP – Backpropagation

  8. MLP: Treinamento • Conjuntos: treinamento, testes e validação; • devem possuir amostras de todas as classes; • devem possuir amostras bem distribuídas de todas as classes;

  9. T MLP: Treinamento Erro Treinamento

  10. MLP: Normalização • Ordenadas da entrada com magnitudes diferentes: • Pressão Sangüínea; • Idade; • Taxa de colesterol no sangue; • Xi=(Xi-μ)/σ • μ – estimador da média; • σ - estimador do desvio padrão;

  11. 1 0 MLP: Iniciar Pesos • Devem ser próximos de zero; • Devem ser inicializados de forma randômica (uniformemente distribuídos);

  12. Erro W MLP: Tx. Aprendizagem • Solução: Taxa de aprendizagem adaptativa, que diminua com o tempo de aprendizagem;

  13. Erro W MLP: Termo Momentum • Diminui instabilidade da rede; • Regra Delta: ΔWi+1=-λεX+α ΔWi

  14. MLP: Matriz de Confusão

  15. MLP: Estimadores • Estimador da média: centro de cada classe; • Estimador de desvio padrão: grau de dispersão da classe em torno de sua média;

  16. MLP: PCA • Redução na dimensão do vetor de entradas; • Perda de informação; • Diminuição na complexidade da RNA; • Eliminação de Ruídos; • Calculado a partir da matriz de covariância;

  17. Referências • C. M. Bishop, Neural Network for Pattern Recognition, Oxford University, 1995. • A. P. Braga, A. P. L. F. Carvalho, T. B. Ludemir, Fundamentos de Redes Neurais Artificiais, XI Escola de Computação, 1998. • http://ltc.nutes.ufrj.br/stauffer/rna • stauffer@centroin.com.br

More Related