1 / 65

APRENDIZAJE

APRENDIZAJE. Carolina Guillén Romero Enriqueta Sánchez Blázquez Mª Ángeles Serna Moreno. APRENDIZAJE. APRENDIZAJE ANIMAL Componentes: Habituación. Aprendizaje asociativo. Impronta. Imitación. APRENDIZAJE. APRENDIZAJE AUTOMÁTICO Tipos: Deductivo Componentes: Resolución de problemas.

minor
Télécharger la présentation

APRENDIZAJE

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. APRENDIZAJE Carolina Guillén Romero Enriqueta Sánchez Blázquez Mª Ángeles Serna Moreno

  2. APRENDIZAJE • APRENDIZAJE ANIMAL • Componentes: • Habituación. • Aprendizaje asociativo. • Impronta. • Imitación.

  3. APRENDIZAJE • APRENDIZAJE AUTOMÁTICO • Tipos: • Deductivo • Componentes: • Resolución de problemas. • Análisis de la traza. • Filtrado. • Generalización. • Construir nueva información. • Incorporar.

  4. APRENDIZAJE • APRENDIZAJE AUTOMÁTICO • Tipos: • Inductivo • Adquisición de componentes (supervisado). • Por observación (no supervisado).

  5. APRENDIZAJE • APRENDIZAJE AUTOMÁTICO • Tipos: • Por analogía • Modelo unificado de analogía. • Analogía transformacional. • Algoritmo genético • Conexionista • Multiestrategia

  6. APRENDIZAJE • APOYOS AL APRENDIZAJE • Aprendizaje supervisado • Aprendizaje no supervisado • Aprendizaje con refuerzo de tablas • Inmediato. • Retardado.

  7. 1 Introducción • Hay una corriente que dice que sin aprendizaje no hay inteligencia, entonces los S.E. no son inteligentes. • Wiener:“Un sistema organizado que aprende es aquel que recibe una señal de entrada y la transforma en una de salida de acuerdo con algún principio de organización”. • “Si tal principio esta sujeto a un criterio de validez de funcionamiento (decir si funciona bien o mal), hay un objetivo de funcionamiento que permite ver la evolución del sistema. Si el método de transformación se ajusta a fin de que tienda a mejorar el funcionamiento del sistema de acuerdo con ese criterio. Se dice que el sistema aprende”.

  8. 2 Aprendizaje animal (I) • Se entiende como un proceso adaptativo que cumple las funciones de wiener, aprendemos para ajustarnos al medio. • Para que se produzca aprendizaje animal se entiende que debe de perdurar en la memoria un cierto tiempo

  9. 2 Aprendizaje animal (II) • Es también difícil enunciar una definición, así que se definen una serie de características: • Habituación • Aprendizaje asociativo • Impronta • Imitación

  10. Habituación: • El sistema aprende a no prestar atención de ciertos inputs y nos habituamos a ello y no lo consideramos importante. Es muy complicado en sistemas artificiales decidir cuales aspectos son importantes y hemos de prestarles, atención.

  11. Aprendizaje asociativo Aprenden asociando elementos que llegan a estar asociados (paulov: perro, comida y campanilla). Hay un aprendizaje de este modo que se llama latente: el aprender habilita mayor capacidad de aprender.

  12. Impronta Durante un periodo de, tiempo de su vida todo lo que el ser ve lo sigue como a una madre. No existe dentro de la inteligencia artificial. En las primeras fases de la vida la impronta es más fuerte que en la fases posteriores.

  13. Imitación: • Importante en sistemas biológicos. Consiste en imitar el comportamiento de otro ser. No existe dentro de sistemas artificiales.

  14. 2 Aprendizaje automático (artificial)(I) • Tipos de aprendizaje automático: • Deductivo:mediante procesos de inferencia deductiva aplicando a hechos reglas conocidas. Necesita conocimientos previos. Ejemplo: hay colillas -> han fumado.

  15. 2 Aprendizaje automático (artificial)(II) • Tipos de aprendizaje automático: • Inductivo: consiste en inducir información de una concepto a partir de un conjunto de cosas en concreto. No requiere información previa del dominio. Ejemplo: ese gato tiene 4 patas -> todos los gatos tienen 4 patas. Si veo un caso supongo que todos los casos son iguales hasta que encuentre una contradicción que me obligue a remodelar las informaciones. Se realiza una estructura del dominio a base de inducciones.

  16. 2 Aprendizaje automático (artificial)(III) • Tipos de aprendizaje automático: • Analogía:aplicar un marco conocido a un problema nuevo para resolver lo  aprendizaje basado en casos. • Algoritmos genéticos:se basa en la teoría de Darwin, mediante mutaciones se mejora el problema.

  17. 2 Aprendizaje automático (artificial)(IV) • Tipos de aprendizaje automático: • Conexionista: es el que se usa en redes neuronales. Algunos están implícitos en la red y otros son externos. • Multiestrategia: usa distintos tipos de aprendizaje.

  18. 3 Apoyos al aprendizaje: • Aprendizaje supervisado:durante el proceso de aprendizaje existe un profesor o tutor que mostrando ejemplos y resultado al sistema. En la clasificación de elementos el profesor le enseña un elemento y el sistema le dice a que clase pertenece. Por ejemplo backpropagation. • No supervisado:no hay un profesor que guié el aprendizaje sino que se le muestra el dominio completo y se le deja al sistema que decida como realizar esta clasificación, solo hay ejemplos. Por ejemplo contrapropagación. • Con refuerzo: hay un supervisor que informa si los resultados son correctos o no. No dice que clases hay.

  19. APRENDIZAJE INDUCTIVOAPRENDIZAJE AUTOMÁTICO

  20. 1 Definición (I) Consiste en la adquisición de un nuevo conocimiento por la inferencia inductiva sobre los datos por el entorno o el adiestrador. Se suele caracterizar como una búsqueda heurística en la que tenemos los siguientes elementos: 1. Estado inicial: datos de entrada y las descripciones simbólicas asociadas. La descripción simbólica son descripciones de los elementos del dominio. 2. Estado de sucesoresson descripciones simbólicas con mayor o menos número de generalidad. 3. Operadores: serán diversas reglas de inducción de dos tipos: a. Generalización: de descriptores concretos a descriptores mas generales. b. Especialización: de una descripción mas general a una mas concreta. 4. Estado final: va a ser una descripción simbólica con las siguientes características: a. Implica los datos de entrada. b. Satisface los requerimientos de1 dominio. c. Es suficientemente satisfactoria. Inducir es suponer que lo que vemos es siempre así: si vemos que un gato tiene 4 patas, todos los gatos tienen 4 patas.

  21. 1 Definición (II) Las reglas de generalización pueden ser: Reglas de selección: va a modificar el conocimiento obtenido. Tenemos los siguientes. • Supresión de conjugados eliminando un elemento de la conjunción para, obtener un descriptor mas general. Por ejemplo: los latinos son simpáticos y bajitos -> los latinos son bajitos. • Adicción de disyuntados: incluimos un descriptor más como una disyunción y obtenemos una expresión mas general. Ejemplo: hay un fantasma bajo la cama -> hay un fantasma bajo la cama o en el armario. • Cambio de constantes por variables. Por ejemplo: la hormiga atómica lleva casco -> la hormiga X lleva casco. Reglas constructivas: va a añadir nuevo conocimiento (nuevos descriptores). • Adiciones cuantitativas; por ejemplo: cosa lisa y negra -> cosa lisa, negra y con tres picos • Detección de dependencias. Por ejemplo la serie: (3,6),(4,8),(5,10) seria dos números entre paréntesis separados por una coma donde uno es la mitad del otro. • Lo que hacemos es buscar un descriptor que mejor identifique a cada clase para hacer una clasificación eficiente. Para obtener buenos descriptores usamos los operadores.

  22. 2 Tipos de aprendizaje inductivo (I) Hay fundamentalmente dos tipos: • Adquisición de conceptos(aprendizaje inductivo supervisado). Contamos con una serie de elementos ya clasificados y sabemos a que clase pertenece cada elemento. Nuestro objetivo es obtener un descriptor apropiado de cada clase. • Por observación (no supervisado).Tenemos todo el dominio y hemos de clasificar los elementos de nuestro sistema.

  23. 2 Tipos de aprendizaje inductivo (II) Método de Hayes-Roth (supervisado) Intenta las generalizaciones conjuntivas más específicas a partir de un conjunto de afirmaciones positivas, a ese conjunto se le llama "maximal abstraction" o "inferencial matches". • Ejemplo: - Case Frame (elementos): El, E2 Y E3. - Case labell (propiedades): sombreado, liso, grande, pequeño.... - Parameters (partes): El esta formado por a, b y c.

  24. 2 Tipos de aprendizaje inductivo (III) Método de Hayes-Roth. Ejemplo Buscamos un descriptor para los tres casos: • Paso 1: el primer elemento de entrada configura el primer conjunto de generalizaciones conjuntivas de la clase que llamaremos G1. En el ejemplo Gl=E1. • Paso 2: Para un nuevo elemento de entrada se consigue un nuevo conjunto de generalizaciones M que se obtiene de un cotejamiento parcial entre el nuevo elemento y la descripción de la clase. • Paso 3: Cuando se han cotejado todos los elementos del conjunto de entrada el conjunto de generalizaciones obtenido es la descripción de la clase. Solo podemos asegurar la falsedad no la veracidad.

  25. 2 Tipos de aprendizaje inductivo (IV) Método de Hayes-Roth. Ejemplo Cotejamiento parcial: • A. Se cotejan todas las generalizaciones conjuntivas de todas las formas posibles hasta obtener un conjunto M formado por todas las afirmaciones procedentes de la correspondencia entre parámetros que coincidan en ambos casos. Si tenemos 'b' en El que es sombreado y redondo lo podemos asociar a 'e' y 'f' de E2. • B. Seleccionamos un subconjunto de las correspondencias entre los parámetros que se puedan vincular consistentemente. Una vinculación es consistente cuando no vincula a un parámetro de una instancia con varios parámetros de otra instancia. Si a/bentonces no puedo coger a/c porque entonces no seria consistente.

  26. 2 Tipos de aprendizaje inductivo (V) Método de Hayes-Roth. Ejemplo Cotejamiento parcial:

  27. 2 Tipos de aprendizaje inductivo (VI) Por observación (no supervisado): Es más ambicioso y tiene dos puntos de vista: uno psicológico y otro computacional. • Componente psicológica: A. Enfoque clásico: se basa en que todas las instancias de una categoría comparten un conjunto de características comunes. Desventajas si intentamos abordar esto computacionalmente no siempre es posible encontrar una característica común que caracteriza la clase. La imposibilidad de definir grados de pertenencia a un conjunto. Existen asignaciones ambiguas. B. Enfoque probabilístico se asocia un grado de pertenencia a cada clase. Para ello se define un prototipo de la clase y luego mediríamos la distancia de nuestro elemento a la clase. Desventajas: - Habla independientemente del contexto. - Es difícil cuantificar la distancia al prototipo, es complicado establecer la métrica. C. Categorización basado en teorías hay información difícil de inyectar en l a clase y hemos de encajar la en el dominio.

  28. 2 Tipos de aprendizaje inductivo (VII) Por observación (no supervisado): • Componente computacional:el objetivo es conseguir agrupar los elementos en clases, y conseguir las características que definen cada clase. A. Taxonomía numérica: son los primeros intentos de aprendizaje automático no supervisado mediante inducción y casi todos están basados en algún tipo de métrica. Distancia de Minkowski: d(i,k)=(Σnj=i (|xij –xkj)|п )½, donde si п es 1 se trata de la distancia euclídea y si vale 2 es la distancia hamming. Cada caso es un vector de reales de n números (más bien un punto). Es esquema de representación es un vector de n coordenadas. Para clasificar las clases los vectores hay dos tipos de algoritmos: 1. Algoritmos aglomerativos en principio suponen que cada elemento es una clase y luego se van uniendo hasta conseguir el número deseado. 2. Algoritmos divisores consideran que todos los vectores pertenecen a la misma clase y luego los van dividiendo en subclases. Objetivos: - La similitud entre elementos de la misma clase debe ser próxima. - La diferencia entre elementos de clases distintas debe ser máxima. El problema es cuando parar (de juntar o dividir).

  29. A B 2 Tipos de aprendizaje inductivo (VIII) Por observación (no supervisado): • Componente computacional: B. Aprendizaje automático: es una mejora de la taxonomía automática, donde se intenta: - Resolver el problema de cuando parar. - Los parámetros numéricos pueden no expresar bien el dominio. Intenta encontrar otras alternativas. 1. Agrupación conceptual: A y B van a ser casi siempre en la misma clase, sin embargo hay un concepto más allá de la distancia, unos puntos forman un circulo y otros un triángulo. Habría que introducir los conceptos círculo y triángulo. 2. Cluster: a partir de una serie de semillas van creciendo (en forma de estrella) 3. Teoría de Witt: Se basa en teorías de la información. 4. Autoclass: Teorías de Bayes. 5. Formación de conceptos: tiene mecanismos que permiten realizar el aprendizaje de forma incremental.

  30. APRENDIZAJE DEDUCTIVO(APRENDIZAJE BASADO EN EXPLICACIONES)APRENDIZAJE AUTOMÁTICO

  31. 1 Deductivo: EBL (explanation based learning).(I) • El aprendizaje inductivo era el más utilizado, pero tiene un problema: el aprendizaje inductivo no preserva la veracidad pero preserva la falsedad.- No preserva la veracidad: por inducción no se puede afirmar algo que hemos observado.- Preserva la falsedad: podemos saber que algo es falso.

  32. 1 Deductivo: EBL (explanation based learning).(II) • La deducción permite preservar la veracidad ya que hay conocimiento del dominio que respalda las afirmaciones. Sobre el conocimiento obtenido inductivamente podemos deducir.La segunda diferencia es que el aprendizaje inductivo necesita muchos ejemplos para obtener información del dominio. En el deductivo nos vale con un ejemplo pero necesitamos más conocimiento del dominio.

  33. 1 Deductivo: EBL (explanation based learning).(III) • La tercera diferencia es que el método deductivo no incorpora nuevo conocimiento, tan solo consigue explicar mejor (concretar) el conocimiento existente.

  34. Definiciones: · Teoría del dominio (o conocimiento de respaldo) es la información específica del dominio que vamos a suponer completa y consistente (en SBR es la base de afirmaciones). · Concepto objetivo: es el concepto del que el método EBL debe determinar una definición efectiva y operacional. Se dice que es efectiva porque lleva a la solución rápidamente y es operacional porque se puede hacer en la máquina. · Ejemplo es una instancia concreta de un objetivo · Nueva teoría del dominio es una teoría del dominio modificada.

  35. Componentes

  36. Componentes: (I) • 1. Resolución del problema:utilizar el dominio y el ejemplo para 1Iegar al objetivo. • 2. Análisis de la traza:analizamos la solución para conseguir obtener una explicación. Usamos criterios: • A. Criterio de relevancia. va a ser realmente aquello que sea importante para abordar problemas futuros, en una traza va a ser realmente aquella información que forme parte en el camino de llegar a la solución. • B. Criterio de operatividad: son aquellas reglas que se activan directamente.

  37. Componentes: (II) • 3.Filtrado:filtra la información de la traza para llegar a la explicación. Coge lo que es relevante y operativo. Se obtiene una explicación. • 4.Generalización:consiste en sustituir las constantes por variables de forma que la expresión siga siendo válida. El método más usado es el algoritmo de regresión deobjetivos. Regresionar una fórmula f a través de una regla r consiste en determinar las condiciones necesarias y suficientes bajo las cuales puede usarse la regla r para obtener f.

  38. Componentes: (III) • 5. Construir nueva información:La información que construimos puede ser: • Reglas de dominioque expresaran nuevas definiciones de conceptos en las que la parte izquierda de la regla serán las combinaciones necesarias y suficientes del árbol de explicación generalizado mientras que la raíz del mismo será la parte derecha de la regla. • Reglas de controlquese construyen de forma similar. • 6. Incorporar:esas nuevas reglas hay que incorporarlas a la base de conocimiento, pero a veces se obtienen demasiadas reglas para introducir en nuestro sistema. Hay que llegar a una solución de compromiso (velocidad de inferencia o base de afirmaciones mayor).

  39. Problemas del EBL.(I) • Hemos supuesto que la base de conocimiento es completa y es consistente pero a veces la base que tenemos no es así. Por ello se producen dos problemas: · 1 Reformulación de la teoría:es provocado por el aumento de volumen de la información o bien por el aumento de la complejidad (reglas más complejas en la base de conocimiento .Y hay que determinar que dejamos y que eliminamos. Así que tenemos dos soluciones: o almacenar siempre o bien no almacenar nunca.

  40. Problemas del EBL.(II) • 2 Revisión de la teoría:la información obtenida no es adecuada porque: • La teoría es incompleta. • La teoría es incorrecta. • La teoría es inconsistente: se puede llegar a contradicciones. • La Teoría es intratable: por su volumen son difíciles de abordar.

  41. APRENDIZAJE POR ANALOGÍAAPRENDIZAJE AUTOMÁTICO

  42. Introducción • Si dos situaciones son iguales en algunos de sus aspectos, lo normal es que puedan serlo en otras. • Ejemplo: • Un circuito y un sistema con una fórmula que define su comportamiento similar. Analogía entre las dos situaciones. Se usa cuando se conoce el comportamiento de un sistema, para conocer como se comporta un sistema análogo.

  43. Definiciones. • Problema base: situación conocida de ante mano. • Dominio base: lo que se conoce de él. • Problema objetivo: aplicamos lo conocido a la nueva situación. • Dominio objetivo: conocimiento obtenido de aplicar el problema objetivo junto con la situación conocida.

  44. Modelo unificado de analogía (I).KEDAR-COBELL (1988) • Fases: • 1. Recuperación: Partiendo del problema objetivo (dominio objetivo) buscamos un problema base en el dominio base que tenga similitudes significativas. • 2. Elaboración: Define conocimiento del problema base para poder aplicarlo en el problema objetivo.

  45. Modelo unificado de analogía (II).KEDAR-COBELL (1988) • Fases: • 3. Mapeo: Trasladamos el conocimiento desde el problema base hasta el objetivo. • 4. Justificación: Comprobamos si lo que sabemos es aplicable y funciona en la función objetivo. • 5. Aprendizaje: Consiste en almacenar el conocimiento obtenido aprendido, en el conocimiento objetivo

  46. Analogía transformacional.CARBONELL (1983) Plantea un espacio llamado ‘Tespacio’ y decide que hay varios problemas que pueden manejarse con el Tespacio, de manera que, se puede asignar a distintos problemas usando Toperadores.

  47. APRENDIZAJE POR REFUERZO DE TABLASAPOYOS AL APRENDIZAJE

  48. Introducción (I). • Aprendizaje por refuerzo de tablas consiste en tener una serie de parámetros y según los resultados de la funcionalidad del sistema ir modificando los parámetros.

  49. Introducción (II). • TIPOS DE APRENDIZAJE POR REFUERZO: • Inmediato: lleva una señal de refuerzo tras cada actuación del sistema y a cado paso tendrá una señal de refuerzo que indicará si va bien o mal. • Retardado: se pondera exclusivamente la acción del sistema. • Es más fácil manejar el retardado que el inmediato.

  50. Introducción (III). ·CLASIFICACIÓN: • Refuerzo en tablas. • Redes neuronales. • Aprendizaje estímulo-acción

More Related