1 / 24

Agentes e Sistemas Especialistas

Agentes e Sistemas Especialistas. Similaridades entre agentes e SE´s Sistemas Especialistas Não interagem diretamente com o ambiente Não agem neste ambiente: sugestões ao usuário Não possuem comportamento reativo e pro-ativo Não possuem habilidade social Agentes: evolução dos SE´s.

hide
Télécharger la présentation

Agentes e Sistemas Especialistas

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Agentes e Sistemas Especialistas • Similaridades entre agentes e SE´s • Sistemas Especialistas • Não interagem diretamente com o ambiente • Não agem neste ambiente: sugestões ao usuário • Não possuem comportamento reativo e pro-ativo • Não possuem habilidade social • Agentes: evolução dos SE´s

  2. Sistemas Multi-agentes Agentes Intelientes Professores: Anne Magály P Canuto

  3. Agente Representação interna Foco Atuação Ambiente Desktop Móvel Isolada Cognitivo Reativo Estrutural Comporta- mental Social Introdução • Características Fundamentais: reatividade, adaptabilidade, mobilidade e comunicabilidade

  4. Dado: S = {s1,s2, ...}: Estados de um ambiente A = {a1,a2, ...}: Ações do agente Agente: função S*  A Fator importante: História (sequencia de estados encontrados até então) Agente: decide que ação executar baseado na sua história Agentes equivalentes: histórias iguais Agentes Reativos: Psicologia Comportamental Com ou sem referência de sua história Baseada no presente Respondem diretamente a seu ambiente (S* A) Hipótese de Simon: “A complexidade do comportamento de um agente pode ser o reflexo do seu ambiente em vez do seu complexo projeto interno” Visão Abstrata de um Agente

  5. Agente com percepção Que tal dividirmos a função de decisão em dois subsistemas? Visão: Observar seu ambiente (câmera de vídeo, sensor,etc.) Ação: tomada de decisão Saída do módulo Visão = Percepção Visão: S  P Ação: P*  A Agentes com estado: Esquema mais natural Visão: S  P Próximo: I x P  I Ação: I  A Funcionamento Começa num estdo inicial i0 Observa o estado de seu ambiente: gera uma percepção O estado interno do agente é alterado Uma ação é selecionada A ação é executada Visão Abstrata de um Agente

  6. Agentes Deliberativos • Agentes Cognitivos: • Hipótese: Sistemas de símbolos físicos “Agentes mantém uma representação interna do seu mundo e que existe um estado mental explicítio que pode ser modificado por alguma forma de raciocínio simbólico” • Onde é colocada essa representação: • Estado • Formas de representação: Várias (BDI) • Tipos: • Agentes de raciocínio dedutivo • Agentes de raciocínio prático

  7. Decisão: como atuar Objetivos Perfil de atuação Ambiente Modelo de decisão: Teoria da racionalidade Limitada do agente Agente sabe: Identificar as alternativas, avalia-las, ordena-las, escolher a melhor Planejador de ações: Mundo: em termos de estados (iniciais e finais) eum conjunto de operações que podem provocar mudanças de estado Controlador: Cognitivos Ordem de ativação de seus processos internos Configurador: Objetivos: reconfiguráveis (outros agentes ou ele mesmo) Con Tro La dor Configurador In Ter Fa ce Decisão Arquitetura geral de um agente

  8. Agentes de Raciocínio Dedutivo • Abordagem tradicional (IA Simbólica) • Comportamento inteligente: representação simbólica de seu ambiente + seu comportamento desejado • Sistematicamente manipular essa representação • Formalismo de representação: lógica • Manipulação: dedução lógica ou prova de teorema • Exemplo: Ralph • Robô que navega num ambiente coletando o lixo • Lógica de primeira ordem

  9. Agentes de Raciocínio Dedutivo • Para a construção de Ralph, é necessário resolver: • Problema de tradução: traduzir o mundo real numa descrição simbólica que seja proveitosa • Trabalhos nas áreas de: visão, PLN, aprendizagem, etc.. • Problema de representação/manipulação: formas de representação e manipulação  resultado seja proveitoso • Representação do conhecimento, raciocínio automático, planejamento • Agentes: provadores de teoremas • Dado uma teoria de agentes (explica como um agente deveria se comportar para otimizar algumas medidas) • Provador: essa teoria é vista como uma especificação executável • Diretamente executada para produzir o comportamento do agente

  10. Estados internos: database de fórmulas lógicas Informações do ambiente Similar as crenças dos humanos L: o conjunto de sentenças D = (L) o conjunto de L databases Estado interno do agente: elemento de D () Processo de tomada de decisão: regras de dedução ()   : Fómula provada usando o database e as regras A ação de um agente: Regras de dedução D  A Prova de teorema: melhor ação para executar Caso nenhuma ação seja prova-da: acha-se uma consistente Cuja negação não possa ser derivada Comportamento do agente: Regras de dedução e database Agentes de Raciocínio Dedutivo

  11. Versão similar do Ralph, só que caseiro: Aspirador de pó Orientações: N, S L, O Movimentos: um passo a frente ou rotacionar 90o Percepções: sujeira ou limpo Ação: Pra frente, limpe ou vire Objetivo: Mover-se pelo ambiente buscando e removendo sujeira Predicados: Em(x,y) Sujeira(x,y) Direcionando(d) Função próximo: Analisa percepção Gera uma nova D, incluindo percepção Remoção de informações velhas Descobrir a nova posição e orientação do agente Exemplo de um agente de Raciocínio Dedutivo

  12. Regras de dedução: predicados(variáveis)  ações(..) Primeira regra: prioridade Em(x,y) Sujeira(x,y)  Faça(limpe) Outras regras: mover no ambiente Exemplo: Em(0,0)  Direção(N)  Faça(frente) Em(0,1)  Direção(N)  Faça(frente) Em(0,2)  Direção(N)  Faça(vire) Em(0,2)  Direção(L)  Faça(frente) Vantagens da abordagem Semantica clara e elegante Desvantagens: Função Visão: representação do ambiente em fórmulas lógicas Ex: imagens e info temporal Complexidade da prova Situações com restrição temporal Tomada de decisão: racionalidade calculativa O mundo não mudará muito do início ao fim do processo de tomada de decisão Exemplo de um agente de Raciocínio Dedutivo

  13. Agentes de Raciocínio Prático • Lógica: tem seu papel • Maioria das vezes: impraticável • Modelo: inspiração dos processos necessários quando nós decidimos o que fazer • Raciocínio prático: • Direcionado a ações (descobrir o que fazer) • Raciocínio prático X Raciocínio teórico • Sócrates mortal (baseado em crenças) • Pegar um onibus ou trem (baseado em ações)

  14. Agentes de Raciocínio Prático • Raciocínio prático humano, dois passos: • O que deseja-se alcançar • Deliberação • Como devemos alcançar • Raciocínio meio-fins (means-ends) • Exemplo: um aluno recém-formado • Deliberação: que carreira seguir • Plano ou receita de como realizar: raciocínio • Existem limitações de tempo, com as implicações: • Uso eficiente dos recursos computacionais • Não é possível deliberar para sempre • Objetivos escolhidos e comprometidos: intenções

  15. Agentes de raciocínio prático • Intenções: alguns papéis no raciocínio prático • Direcionam o raciocínio meio-fim (importante na produção de ações) • Ex: Se tenho o objetivo de me tornar acadêmico, tenho de planejar ações para realizar e tentar realizar • Aplicar para programas de mestrado • Persistem • Não desistirei sem uma boa razão • As razões para se ter as intenções desaparecerem (Vida fácil: acadêmico) • Obrigam deliberações futuras (restrigem o meu poder de escolha) • Se quero ser um acadêmico, escolher intenções consistentes • Influeciam nas crenças futuras • Se tenho a intenção de ser um acadêmico, Devo acreditar que tenho chances me tornarei um acadêmico • Conseguir um bom balanceamento entre os tópicos

  16. Agentes de raciocínio prático • BDI: Beliefs, desires and intentions • Estado interno dos agentes: estados mentais (BDI) • Crenças: o que se sabe sobre o estado do ambiente e dos agentes • Intenções: estados do mundo que o agente quer atingir (contraditórios) • Desejos: seqüência de ações para alcançar objetivo • Base: tradição filosófica do entendimento do raciocínio prático • processo de decidir, momento a momento, que ação executar para alcançar seus objetivos

  17. Representação: crenças, desejos e intenções Deliberação: Função geradora de opções Função de filtragem Geração de opções: Novas alternativas de coisas a serem feitas (Bel) x (Int)  (Des) Deliberação: escolher a melhor opção: o desejo do agente Selecionar uma opção: filtragem Escolhe a melhor opção para o agente se comprometer (Bel) x (Des) x (Int)  (Int) Ele pode: Desistir do objetivo Persistir no objetivo Processo de alteração de crenças: Brf (belief revision function) Recebe a entrada e as crenças do agente: novo conjunto de crenças (Bel) x P  (Bel) Agentes de raciocínio prático

  18. Como realizar um fim (intenção) usando os meios disponíveis Planejamento Recebe: O objetivo a ser realizado Estado atual do ambiente Ações disponíveis para o agente Produz: Um plano de ações Primeiro planejador real: STRIPS Dois componentes básicos Modelo do mundo: Lógica Esquema de ações: pre-condições e efeito de todas as ações disponíveis Planejamento: Achar diferença entre o estado atual e objetivo Reduzir aplicando uma ação Exemplo: mundo dos blocos Tres blocos de mesmo tamanho Braço: mover um bloco por vez Mesa: blocos na mesa ou em cima do outro Raciocínio Meio-fins

  19. Formalismo do STRIPS: lógica On(x,y); OnTable(x); Clear(x); Holding(x), ArmEmpty Descrição de um estado atual {Clear(A), On(A,B), OnTable(B), OnTable(C), Clear(C)} Descrição de um objetivo: {OnTable(A), OnTable(B), OnTable(C) } Ações: pré-condições, deleção, adição Stack(x,y) Pre {Clear(y), Holding(x)} Del {Clear(y), Holding(x)} Add {ArmEmpty, On(x,y)} Descritor de uma ação:  = <P ,D ,A > Planejamento: <, , > Plano: sequencia de ações Sequencia de n+1 modelos do ambiente Raciocínio Meio-fins (Mundo dos blocos)

  20. Plano (linear) aceitável: pre-condições de todas as ações são satisfeitas no modelo anterior Plano correto: Aceitável Objetivo alcançado no final Sistema de planejamento: Dado um problema de planejamento, ache um plano correto ou avise que não existe Definições: Plan: conjunto de todos os planos : planos Pre(), body(), empty(), execute(..), head(), tail(), sound(,I,B) Plan: (Bel) x (Int) x (Ac)  Plan Pode-se: Começar do nada Usar uma biblioteca de planos Raciocínio Meio-fins(Planejamento)

  21. Estrutura básica do processo de tomada de decisão, loop: Observa o mundo, atualiza suas crenças Decide que intenções realizar Acha um plano para realizar Executa o plano Primeiro problema: Compromisso aos fins e meios Compromisso  persistência temporal  Quão compromissado um agente deve ser? Estratégias de compromisso: Cega: manter até a realização Single-minded: manter até a realização ou impossibilidade de realização Open-minded: manter en-quanto acredita-se ser possível Compromisso aos meios Succeeded(I,B) e Impossible(I,B) Compromisso aos fins: intenções Possibilidade: reconsiderar sempre que realizar uma ação Pode-se tornar muito caro Implementando un Agente de Raciocínio Prático

  22. Dilema: Nunca considerar: intenções ultrapassadas Considerar constantemente: nunca realizar as intenções Balanceamento: Meta-nível: Reconsider(I,B) Situação ótima: Base: deliberação e plano perfeitos Custo associado ao Reconsider Mudar as intenções todas as vezes que deliberar Situações: Não deliberou, não modificou as intenções e o mundo não mudou: perfeito Não deliberou, não modificou as intenções e o mundo mudou: imperfeito Deliberou, não modificou as intenções (o mundo não mudou): imperfeito Deliberou, modificou as intenções (o mundo mudou): perfeito Suposição: custo de Reconsider é menor que deliberar Implementando un Agente de Raciocínio Prático

  23. Implementando un Agente de Raciocínio Prático • Quando modificar as intenções durante a execução de um plano? • Extremos: apenas quando o plano for executado ou após a execução de cada ação • Ambientes estáticos: • Agentes fortemente compromissados com suas intenções produzem melhores resultados • Ambientes dinâmicos: • Agentes que reconsideram suas intenções podem detectar melhor quando as intenções estão ultrapassadas • Diferentes tipos de ambientes: diferentes estratégias de reconsideração e de compromisso • Exemplo: HOMER robô submarino que planeja suas ações

  24. Sistema de Raciocínio Procedural (PRS) • Primeira arquitetura que absorve as idéias de BDIs • Controle de tráfego aéreo, simulação, gerenciamento de processos • Arquitetura: Utiliza uma biblioteca de planos • Diferença: o corpo do plano pode ter ações e objetivos, ter disjunção de de objetivos ou ter loops, entre outros • Início: Objetivo de alto-nível • Pilha de objetivos • Busca por um plano • Caso tenha mais de um, escolha um (plano de alto-nível, utilidade) • Execute plano: Caso tenha objetivos, coloque na pilha • Caso um plano falhe, escolha outro • Exemplo a ser estudado: mundo dos blocos (Pág.84-85)

More Related