1 / 35

Redes Bayesianas

Redes Bayesianas. Disciplina: Sistemas Inteligentes. Tópicos. Introdução Noções de Probabilidade Redes Bayesianas Aplicações Conclusões Bibliografia. Conhecimento com Incerteza. Exemplo: sistema de diagnóstico odontológico Regra de diagnóstico

neo
Télécharger la présentation

Redes Bayesianas

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Redes Bayesianas Disciplina: Sistemas Inteligentes

  2. Tópicos • Introdução • Noções de Probabilidade • Redes Bayesianas • Aplicações • Conclusões • Bibliografia

  3. Conhecimento com Incerteza • Exemplo: sistema de diagnóstico odontológico • Regra de diagnóstico • " p sintoma (p,dor de dente) Þ doença (p,cárie) • A doença (causa do sintoma) pode ser outra. • Regra causal • " p doença (p,cárie) Þ sintoma (p,dor de dente) • Há circunstâncias em que a doença não provoca o sintoma. • A conexão entre antecedente e conseqüente não é uma implicação lógica em nenhuma direção

  4. Conhecimento com Incerteza • Agentes em Lógica de Primeira Ordem enfrentam dificuldades em situações onde: • o agente não tem acesso a todo o ambiente • o agente tem uma compreensão incompleta ou incorreta do ambiente

  5. Conhecimento com Incerteza • A lógica de primeira ordem falha no domínio de diagnóstico médico devido a: • “preguiça”: • existem causas ou conseqüências demais a considerar • ignorância teórica e prática: • não existe uma teoria completa para o domínio, nem podemos fazer todos os testes necessários para o diagnóstico perfeito. • Nestes casos, o conhecimento do agente pode apenas prover um grau de crença nas sentenças relevantes. • P(Cárie/Dor de Dente) = 0.6

  6. Teoria da Probabilidade • Associa às sentenças um grau de crença numérico entre 0 e 1 • Contudo, cada sentença ou é verdadeira ou é falsa • Grau de crença(probabilidade): • a priori(incondicional): calculado antes do agente receber percepções • Ex. P(cárie= true) = P(cárie) = 0.5 • condicional: calculado de acordo com as evidências disponíveis • evidências: percepções que o agente recebeu até agora • Ex: P(cárie|dor de dente)= 0.8 P(cárie|~dor de dente)= 0.3

  7. Probabilidade condicional • Probabilidade condicional (a posteriori) de A dado que B ocorreu é definida por: • P(A|B) = P(AÙB) , quando P(B) > 0. P(B) • Probabilidade condicional: • possibilita inferência sobre uma proposição desconhecida A dada a evidência B

  8. P(A/B) = P(B/A)P(A) P(B) P(A/B,E) = P(B/A,E)P(A/E) P(B/E) Regra de Bayes Equação para o Teorema de Bayes : Pode-se estender esta expressão para o caso em que a dependência condicional está associada a mais de uma evidência previa:

  9. Aplicação da Regra de Bayes: Diagnóstico Médico • Seja • M=doença meningite • S= rigidez no pescoço • Um Doutor sabe: • P(S/M)=0.5 • P(M)=1/50000 • P(S)=1/20 • P(M/S)=P(S/M)P(M) • P(S) • =0,5*(1/50000)=0,002 • 1/20 • A probabilidade de uma pessoa ter meningite dado que ela está com rigidez no pescoço é 0,02% ou ainda 1 em 5000.

  10. Probabilidade Condicional e Independência • Independência: • P(A|B) = P(A) • Exemplo: A = dor de dente e B=úlcera • Úlcera não causa dor de dente • Eventos mutuamente excludentes • P(A Ù B) = 0 • Experimento: Lançamento de um dado • A = a face do dado é ímpar e B = a face do dado é par • Independência condicional • Seja X e Y independentes dado Z => P(X|Y,Z) = P(X|Z) • Independência condicional é crucial para o funcionamento eficaz de sistemas probabilísticos.

  11. Independência Condicional • P(X|Y,Z) = P(X|Z) • Isso quer dizer que se o objetivo é saber a probabilidade de X então tanto faz o valor de Y se você já sabe o valor de Z • Exemplo: Trovão é condicionalmente independente de Chuva, dado Relâmpago • P(Trovão/ Chuva, Relâmpago) = P(Trovão/ Relâmpago)

  12. Distribuição de Probabilidade Conjunta • Sejam Y1, Y2,...Yn um conjunto de variáveis. • Evento atômico: uma especificação completa dos estados • do domínio • Y1= y1,Y2 = y2,....,Yn= yn • A distribuição de probabilidade conjunta, P(Y1,Y2,...,Yn), • atribui probabilidades a todos os possíveis eventos • atômicos

  13. dor de dente dor de dente cárie 0.04 0.06 cárie 0.01 0.89 Exemplo: Probabilidade Conjunta P(cárie ^ dor de dente)=? P(cárie)=? P(dor de dente)=? P(cárie/dor de dente)=?

  14. Teorema da Multiplicação de Probabilidades P(y1^...yn) = P(yn / y1^...yn-1) ... P(y1^...yn-1) P(y1^...yn) = P(yn / y1^...yn-1) ... P(y2 / y1) P(y1) • Esse resultado permite calcular a probabilidade de ocorrência • simultânea de vários eventos a partir das probabilidades • condicionais.

  15. Redes Bayesianas: Representação do Conhecimento com Incerteza • Representa 3 tipos de conhecimento do domínio: • Relações de independência entre variáveis aleatórias • Probabilidades a priori de algumas variáveis • Probabilidades condicionais entre variáveis dependentes • Permite calcular eficientemente: • Probabilidades a posteriori de qualquer variável aleatória (inferência) • Conhecimento representado: • Pode ser aprendido a partir de exemplos • Reutilizando parte dos mecanismos de raciocínio

  16. Semântica da Rede Bayesiana • Representação da distribuição de Probabilidade • Conjunta das variáveis de interesse: P(y1^...yn) • Redes Bayesianas levam em consideração a • independência condicional entre subconjuntos • de variáveis

  17. Estrutura das Redes Bayesianas • Uma Rede Bayesiana é um grafo acíclico e dirigido onde: • Cada nó da rede representa uma variável aleatória • Um conjunto de ligações ou arcos dirigidos conectam pares de nós • cada nó recebe arcos dos nós que tem influência direta sobre ele (nós pais). • Cada nó possui uma tabela de probabilidade condicional associada que quantifica os efeitos que os pais têm sobre ele

  18. Tempestade Ônibus de Turismo Fogo no Acampamento Raio T,O T,O T, O T, O FA 0.4 0.1 0.8 0.2 FA 0.6 0.9 0.2 0.8 Distribuição de Probabilidade: P(FA/T,O) Fogo na floresta Trovão Fogo no Acampamento Redes Bayesianas

  19. Redes Bayesianas • Representa a distribuição de probabilidade conjunta entre todas as variáveis: P(y1^...^yn) • Exemplo: P(Tempestade, , Fogo na Floresta)? • Exemplo: P(Classe=C1 ^ Atrib1=10 ^ Atrib2=Yes)? • Cálculo da probabilidade conjunta: Onde Predecessores(Yi) significa predecessores imediatos de Yi no grafo

  20. Redes Bayesianas: Cálculo da Probabilidade Conjunta • Lembrem-se do teorema da multiplicação de • probabilidades P(y1^...yn) = P(yn / y1^...yn-1) ... P(y2 / y1) P(y1) P(yn / Predecessores(Yn)) P(y2 / Predecessores(Y2)

  21. Roubo Terremoto Alarme JohnCalls MaryCalls Exemplo Alarme (AIMA)

  22. Exemplo Alarme (AIMA) Calcular a probabilidade do evento que o alarme toca mas não houve assalto nem terremoto e que João e Maria telefonaram. P(J M A ~R ~T) = P(J|A) P(M|A) P(A|~R ~T )P(~R)P(~T) = 0.9 x 0.7 x 0.001 x 0.999 x 0.998 = 0.00062 ou 0.062 %

  23. Engenharia do conhecimentopara Redes Bayesianas 1. Escolher um conjunto de variáveis relevantes que descrevam o domínio 2. Ordem de inclusão dos nós na rede (a). causas como “raízes” da rede (b). variáveis que elas influenciam (c). folhas, que não influenciam diretamente nenhuma outra variável. 3. Enquanto houver variáveis a representar: (a). escolher uma variável Xi e adicionar um nó para ela na rede (b). estabelecer Pais(Xi) dentre os nós que já estão na rede, satisfazendo a propriedade de dependência condicional (c). definir a tabela de probabilidade condicional para Xi

  24. Roubo Terremoto Alarme JohnCalls MaryCalls Exemplo Alarme (AIMA) Ordem: R T A J M

  25. MaryCalls JohnCalls Alarme Roubo Terremoto Exemplo de Rede Bayesiana Não Puramente Causal • Vamos usar o exemplo do alarme com a seguinte ordem de inserção dos nós: • MaryCalls, JohnCalls, Alarme, Roubo e Terremoto.

  26. Exemplo de Rede Bayesiana Não Puramente Causal • Problemas: • A figura possui duas conexões a mais • julgamento não natural e difícil das probabilidades • Tendo uma rede puramente causal, teríamos um número menor de conexões

  27. Exercício • Construa uma rede para o problema abaixo. • Eu quero prever se minha esposa está em casa antes de eu abrir a porta. Eu sei que minha esposa liga a luz quando chega em casa, mas as vezes ela também liga ao sair se ela for retornar com alguma visita. Quando não tem ninguém em casa, ela solta o cachorro no quintal, mas às vezes ela solta o cachorro quando ele está molhado. Quando o cachorro está solto, consigo ouvir o seu latido da rua mas as vezes o confundo com o cachorro da vizinha.

  28. Roubo Alarme JohnCalls Evidência Query Alarme JohnCalls Roubo Evidência Query Tipos de Inferência em Redes Bayesianas • Causal (da causa para o efeito) • P(JohnCalls/Roubo) = 0,86 • Diagnóstico (do efeito para a causa) • P(Roubo/JohnCalls) = 0,016

  29. Alarme Roubo Terremoto Query Evidência Evidência JohnCalls Alarme Terremoto Query Evidência Evidência Tipos de Inferência em Redes Bayesianas • Intercausal (entre causas com um efeito comum) • P(Roubo/Alarme) = 0,376 • P(Roubo/Alarme Terremoto) = 0,373 • Mista (combinando duas ou mais das de cima) • P(Alarme/JohnCalls Terremoto) = 0,03 • Este é um uso simultâneo de inferência causal e diagnóstico.

  30. Aplicações de Redes Bayesianas • PATHFINDER: diagnóstico de doenças que atacam os nodos linfáticos. (Russel&Norvig 1995) • PAINULIM: diagnóstico de doenças neuro-musculares: http://snowhite.cis.uoguelph.ca/faculty_info/yxiang/research.html • Tutores inteligentes: www.pitt.edu/~vanlehn/andes.html

  31. Aplicações de Redes Bayesianas • Mais aplicações:http://excalibur.brc.uconn.edu/~baynet/researchApps.htm • Análise de proteínas • Modelagem de Agentes Inteligentes • Detecção de fraudes na indústria • Robótica

  32. Conclusões • Possibilidade de trabalhar com domínios onde não há informação suficiente • Raciocínio probabilístico trata o grau de incerteza associado à maioria dos domínios. • Combina conhecimento a priori com dados observados • O impacto do conhecimento a priori (quando correto) é a redução da amostra de dados necessários

  33. Conclusões • Redes Bayesianas são usadas em muitas aplicações do mundo real. • Área de pesquisa ativa • Engenharia de conhecimento • Complexidade dos algoritmos para inferência • Aprendizado

  34. Bibliografia • Russel, S, & Norvig, P. (1995). Artificial Intelligence: a Modern Approach (AIMA) Prentice-Hall. Pages 436-458, 588-593 • Mitchell, T. & (1997): Machine Learning, McGraw-Hill. Cap.6 • Fayyad et al. (1996): Advances in knowledge discovery and data mining, AAAI Press/MIT Press. Cap.11 • Pearl, J. (1988) Probabilistic Reasoning in Inteligent Systems

  35. Software • http://www.ai.mit.edu/~murphyk/Bayes/bnsoft.html

More Related