1 / 30

Redes ART

Redes ART. Redes ART (Adaptative Resonance Theory). Diseñadas por Carpenter y Grossberg (1986). Es una teoría no un algoritmo. Existen diferentes implementaciones. Modeliza: La abstracción El aprendizaje sin olvido de lo aprendido anteriormente

ila-reed
Télécharger la présentation

Redes ART

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Redes ART

  2. Redes ART (Adaptative Resonance Theory) • Diseñadas por Carpenter y Grossberg (1986). • Es una teoría no un algoritmo. • Existen diferentes implementaciones. • Modeliza: • La abstracción • El aprendizaje sin olvido de lo aprendido anteriormente • El aprendizaje continuo, no separa aprendizaje de producción

  3. Redes ART (Adaptative Resonance Theory) Es un clasificador de vectores tan eficaz como Kohonen. Existen diferentes paradigmas: - ART1. Binaria. - ART2. Continua. - ART3. Jerárquica. Es competitiva (por inhibición lateral). Es recursiva. Utiliza aprendizaje no supervisado.

  4. Gail Carpenter y Stephen Grossberg

  5. Arquitectura vectorial escalar G2 RECOGNITION LAYER GAIN 2 RESET G1 COMPARISON LAYER GAIN 1

  6. Arquitectura GAIN1, GAIN2 y RESET son bloques de control. Sus salidas son escalares. RECOGNITION LAYER y COMPARISON LAYER son bloques de neuronas. Sus salidas son vectores.  es el patrón de vigilancia, determina cuando dos vectores son suficientemente similares para que pertenezcan al mismo cluster.

  7. Funcionamiento Básico Para cada vector de entrada se dispara una única neurona del nivel de reconocimiento, la neurona correspondiente al patrón almacenado que más se parezca a la entrada  “la ganadora se lo lleva todo” Si se dispara más de una neurona, se escoge la primera. Las salidas de la capa de reconocimiento serán todas 0 excepto la de la neurona ganadora  sólo llega SU vector de pesos a la capa de comparación.

  8. Funcionamiento Básico La capa de comparación mira si el vector de la entrada y el que llega de la capa de reconocimiento son suficientemente similares (de acuerdo con el coeficiente de vigilancia establecido). Si es así, el vector se clasifica en ese cluster y se adaptan los pesos En caso contrario se inhibe la neurona y se busca una nueva candidata. Se repite el proceso hasta que se encuentre una clase que permita clasificar el vector de acuerdo con la precisión deseada. Si la clasificación no es posible en ninguna de las neuronas ya existentes , se crea un nuevo cluster.

  9. Capa de reconocimiento . . . 1 2 n

  10. Capa de comparación j Neurona que se dispara de la capa de reconocimiento . . . 1 2 m

  11. Algoritmo Paso 0: Inicialización. m = componentes del vector de entrada (pesos del nivel de reconocimiento) (pesos del nivel de comparación) • Paso 2: Para cada : • Paso 3: • Paso 4: Calcular: (en binario es el número de 1’s) Paso 1: Mientras parada = FALSO hacer:

  12. Algoritmo • Paso 7: Encontrar J tal que • Paso 8: Calcular la nueva • Paso 9: Calcular Paso 5: Para cada nodo j del nivel de reconocimiento, tal que (no esté inhibido) Paso 6: Mientras RESET = CIERTO:

  13. Algoritmo Paso 10: - Si y volver al paso 6 (Se inhibe la neurona J y se prueba con otra) - Si ir al paso 11 Paso 11: Actualizamos los pesos de J. Paso 12: Test de condición de parada

  14. Ejemplo: Clasificación de letras (1) (2) (3) (4) (5)

  15. Ejemplo: Paso 0: Inicialización

  16. Ejemplo: • Paso 3: • Paso 4: Calcular: Paso 5: Para cada nodo j del nivel de reconocimiento, tal que (no esté inhibido) Como es la primera cogemos una neurona nueva • Paso 2: Para cada : Paso 1: Mientras parada = FALSO hacer:

  17. Ejemplo: • Paso 7: Encontrar J tal que J = 1 • Paso 8: Calcular la nueva • Paso 9: Calcular • Paso 10:  RESET es falso, ir al paso 11 Paso 6: Mientras RESET = CIERTO:

  18. Ejemplo: • Paso 11: Actualizamos los pesos de J (columna de W 2 y fila de W 1).

  19. Ejemplo: • Paso 3: • Paso 4: Calcular: • Paso 5: Para cada nodo j del nivel de reconocimiento, tal que (no este inhibido) • Probamos primero con la única neurona no nueva - Segundo vector de entrenamiento.

  20. Ejemplo: • Paso 6: Mientras RESET = CIERTO: • Paso 7: Encontrar J tal que J = 1 Que es la neurona NO NUEVA • Paso 8: Calcular la nueva yi • Paso 9: Calcular • Paso 10:  RESET es cierto, inhibir

  21. Ejemplo: • Paso 6: Mientras RESET = CIERTO: • Paso 7: Encontrar J tal que Creamos una neurona nueva J = 2 Paso 8: Calcular la nueva yi • Paso 9: Calcular • Paso 10:  RESET es falso, ir al paso 11.

  22. Ejemplo: • Paso 11: Actualizamos los pesos de J (segunda columna de W 2 y segunda fila de W 1).

  23. Ejemplo: • Paso 3: • Paso 4: Calcular: • Paso 5: Para cada nodo j del nivel de reconocimiento, tal que (no este inhibido) - Tercer vector de entrenamiento.

  24. Ejemplo: • Paso 6: Mientras RESET = CIERTO: • Paso 7: Encontrar J tal que J = 1 (es la que da la salida mayor) • Paso 8: Calcular la nueva yi • Paso 9: Calcular • Paso 10:  RESET es falso,ir al paso 11.

  25. Ejemplo: • Paso 11: Actualizamos los pesos de J (primera columna de W 2 y primera fila de W 1).

  26. Ejemplo: • Paso 3: • Paso 4: Calcular: • Paso 5: Para cada nodo j del nivel de reconocimiento, tal que (no este inhibido) - Cuarto vector de entrenamiento.

  27. Ejemplo: • Paso 6: Mientras RESET = CIERTO: • Paso 7: Encontrar J tal que J = 2 (es la que da la salida mayor) • Paso 8: Calcular la nueva yi • Paso 9: Calcular • Paso 10:  RESET es cierto, inhibir j = 2

  28. Ejemplo: • Paso 6: Mientras RESET = CIERTO: • Paso 7: Encontrar J tal que J = 1 (es la que queda) • Paso 8: Calcular la nueva yi • Paso 9: Calcular • Paso 10:  RESET es cierto, inhibir j = 2

  29. Ejemplo: • Paso 6: Mientras RESET = CIERTO: • Paso 7: Encontrar J tal que La nueva J es una neurona nueva • Paso 8: Calcular la nueva yi • Paso 9: Calcular • Paso 10:  RESET es falso ir a 11

  30. Ejemplo: • Paso 11: Actualizamos los pesos

More Related