1 / 82

人工智能 Artificial Intelligence

人工智能 Artificial Intelligence. 不确定性推理 Uncertainty Reasoning. 本章主要内容. 基本概念 主观 Bayes 方法 确定性方法 证据理论 模糊推理. 基本概念(1/3). 什么是不确定性推理? 不确定性推理是建立在非经典逻辑上的一种推理,是对不确定性知识的运用与处理 是从不确定性的初始证据出发,通过运用不确定性的知识,最终推出具有一定程度的不确定性但却合理或者近乎合理的结论的思维过程 为什么要研究不确定性推理? 日常生活中含有大量的不确定的信息

Télécharger la présentation

人工智能 Artificial Intelligence

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 人工智能Artificial Intelligence

  2. 不确定性推理 Uncertainty Reasoning

  3. 本章主要内容 • 基本概念 • 主观Bayes方法 • 确定性方法 • 证据理论 • 模糊推理

  4. 基本概念(1/3) • 什么是不确定性推理? • 不确定性推理是建立在非经典逻辑上的一种推理,是对不确定性知识的运用与处理 • 是从不确定性的初始证据出发,通过运用不确定性的知识,最终推出具有一定程度的不确定性但却合理或者近乎合理的结论的思维过程 • 为什么要研究不确定性推理? • 日常生活中含有大量的不确定的信息 • ES系统中大量的领域知识和专家经验,不可避免的包含各种不确定性。

  5. 基本概念(2/3) • 不确定性推理的基本问题: • 表示问题:即采用什么方法描述不确定性.一般有数值表示和非数值的语义表示方法. • 计算问题:主要指不确定性的传播和更新,也即获得新信息的过程.主要包括: • 已知C(A), AB f(B,A),如何计算C(B) • 已知C1(A),又得到C2(A),如何确定C(A) • 如何由C(A1),C(A2)计算C(A1A2), C(A1A2) • 语义问题: 指的是上述表示和计算的含义是什么,如何进行解释.

  6. 基本概念(3/3) 不确定推理方法的分类 • 形式化方法:在推理一级扩展确定性方法. • 逻辑方法:是非数值方法,采用多值逻辑、非单调逻辑来处理不确定性 • 新计算方法:认为概率方法不足以描述不确定性,出现了确定性理论,确定性因子,模糊逻辑方法等 • 新概率方法:在传统的概率框架内,采用新的计算工具以确定不确定性描述 • 非形式化方法:在控制一级上处理不确定性 • 如制导回溯、启发式搜索等等

  7. 本章主要内容 • 基本概念 • 主观Bayes方法 • 可信度方法 • 证据理论 • 模糊推理

  8. 主观Bayes方法 • 1976年提出的,应用于地矿勘探专家系统Prospector中 • 不确定推理系统包括: • 不确定性的表示: • 规则/知识 • 事实/证据 • 不确定性的计算 • 组合证据的不确定算法 • 不确定性的传递算法 • 结论的不确定算法

  9. 规则不确定的表示(1/2) if E then (LS, LN) H (P(H)) (1)E是规则的前提条件,H是结论,P(H)是H的先验概率,是指在没有任何证据的情况下结论H为真的概率。 (2)LS是充分性度量:表示E对H的支持程度,取值范围[0,+),其定义为: P(E/H) LS=------------------ P(E/~H)

  10. 规则不确定的表示(2/2) (3)LN是必要性度量:表示~E对H的支持程度,取值范围[0,+),其定义为: P(~E/H) 1-P(E/H) LN=----------------=------------------- P(~E/~H) 1-P(E/~H)

  11. 证据不确定的表示 对于初始证据E,由用户根据观察S给出P(E/S). 引入可信度函数C(E/S): (1)C(E/S)=-5, 表示在S下,E肯定不存在P(E/S)=0 (2)C(E/S)=0, 表示在S与E无关, P(E/S)=P(E) (3)C(E/S)=5, 表示在S下,E肯定存在,P(E/S)=1 (4)C(E/S)为其他值的时候, P(E/S)可以通过线性插值得到。

  12. 组合证据不确定的表示 (1)E=E1 E2 …  En 如果已知P(E1/S),…, P(En/S), 则: P(En/S)=min{P(E1/S),…, P(En/S)} (2)E=E1 E2  … En 如果已知P(E1/S),…, P(En/S), 则: P(En/S)=max{P(E1/S),…, P(En/S)} (3)对于“非”: P(~E/S)=1 - P(E/S)

  13. 不确定性的传递算法 主观Bayes方法推理的任务就是根据证据E的概率P(E)和LS,LN的值,把H的先验概率P(H)更新为P(H/E)或P(H/~E)。 分下面三种情况讨论: • 证据肯定存在 • 证据肯定不存在 • 证据不确定

  14. 证据肯定存在(1/2) • 证据肯定存在时:P(E)=P(E/S)=1 • P(H/E)=P(H)  P(E/H)/P(E) P(~H/E)=P(~H)  P(E/~H)/P(E) P(H/E) P(H) P(E/H) ------------ = ----------  ----------- P(~H/E) P(~H) P(E/~H) • 引入几率函数O(x)定义为: O(x)=P(x)/(1-P(x)), P(x)=O(x)/(1+O(x))

  15. 证据肯定存在(2/2) • O(H/E)=LS  O(H) P(H/E)=LS  P(H)/((LS-1)  P(H) +1) • LS的意义: (1)LS>1时, O(H/E) > O(H), P(H/E)>P(H),说明E的存在将增强H为真的概率。E的存在对H为真是充分的,所以称LS为充分性度量 (2) LS=1时, O(H/E)=O(H) (3) LS<1时, O(H/E) < O(H),E导致H为真的可能性下降 (4) LS=0时, O(H/E)=0,E的存在将使H为假

  16. 证据肯定不存在(1/2) • 证据肯定不存在时:P(E)=P(E/S)=0,P(~E)=1 • P(H/~E)=P(H)  P(~E/H)/P(~E) P(~H/~E)=P(~H)  P(~E/~H)/P(~E) P(H/~E) P(H) P(~E/H) ------------ = ----------  ---------------- P(~H/~E) P(~H) P(~E/~H) • O(H/~E)=LN  O(H) P(H/~E)=LN  P(H)/((LN-1)  P(H) +1)

  17. 证据肯定不存在(2/2) • LN的意义: (1)LN>1时, O(H/~E) > O(H), P(H/~E)>P(H),说明E的不存在将增强H为真的概率。 (2) LN=1时, O(H/~E)=O(H) (3) LN<1时, O(H/~E) < O(H),E的不存在导致H为真的可能性下降,即E的不存在将反对H为真,说明E对H为真的必要性 (4) LN=0时, O(H/~E)=0,E的不存在将使H为假。这里也可以看出E对H为真的必要性,所以也称LN为必要性度量

  18. 不确定性的传递算法 • 从上面讨论知: (1)若E越是支持H为真时,则应使LS越大 (2)若E对H越是必要时,则应使LN越小 • LS、LN的取值情况:LS 0, LN 0 只能出现: 但不能出现: LS<1 ,LN>1 LS>1, LN>1 LS>1, LN<1 LS<1, LN<1 LS=LN=1

  19. 例一 • 设有如下知识: r1: if E1 then (10,1) H1 (0.03) r2: if E2 then (20,1) H2 (0.05) r3: if E3 then (1,0.002) H3 (0.3) 求:当证据存在及不存在时,P(Hi/Ei)及 P(Hi/~Ei) 的值各是多少

  20. 证据不确定(1/2) • 证据不定时:0<P(E/S)<1,后验概率为: P(H/S)=P(H/E) P(E/S)+P(H/~E) P(~E/S) • 分四种情况讨论如下: (1)P(E/S)=1 则有P(~E/S)=0,证据肯定存在 (2)P(E/S)=0 则有P(~E/S)=1,证据肯定不存在 (3)P(E/S)=P(E),说明E和S无关 P(H/S)=P(H)

  21. 证据不确定(2/2) (4)当P(E/S)为其他值的时候,通过分段插值计算P(H/S)的值。 P(H/S) P(H/E) P(H) P(H/~E) 0 P(E) 1 P(E/S)

  22. 例二 • 当证据 E必然发生,H1的先验概率0.03, H2的先验概率0.01, 且有规则: r1: if E then (20,1) H1 r2: if H1 then (300, 0.0001) H2 求:P(H2|E)

  23. 结论不确定性的合成 若有n条知识都支持相同的结论,而且每条知识的前提所对应的证据Ei(i=1,…,n)都有相应的观察Si与之对应,此时只要先对每条知识分别求出O(H/ Si)然后就可用下式求出结论不确定性的合成: O(H/ S1, …,Sn)= O(H/ S1) O(H/Sn) -----------  …  ---------------O(H) O(H) O(H)

  24. 例三 当证据E1、E2、E3、E4必然发生后, H 的先验概率为0.03,且有规则则: r1: if E1 then (20,1) H r2: if E2 then (300,1) H 求:结论H的概率变化化.

  25. 本章主要内容 • 基本概念 • 主观Bayes方法 • 可信度方法 • 证据理论 • 模糊推理

  26. 可信度方法模型 • 主要包括: • 知识的不确定性表示 • 证据的不确定性表示 • 组合证据的不确定性表示 • 不确定性的传递算法 • 结论不确定性的合成算法

  27. 知识的不确定性表示 • 产生式规则: If E Then H (CF(H, E)) • CF(H,E)是该条知识的可信度,称为可信度因子或规则强度,表示当前提条件E所对应的证据为真时,它对结论H为真的支持程度。 • CF是根据经验对一个事物或现象为真的可信程度的度量 • CF(H,E)取值为:[-1,1],

  28. 知识的不确定性表示(续) • CF定义: CF(H,E)=MB(H,E)-MD(H,E) • MB:信任增长度,它表示因与前提条件E匹配的证据的出现,使结论H为真的信任增长度 • MD:不信任增长度,它表示因与前提条件E匹配的证据的出现,对结论H的不信任增长度

  29. 知识的不确定性表示(续) • MB的定义:由条件概率和先验概率定义 1 若P(H)=1 MB(H,E)= max{P(H|E), P(H)} – P(H) ----------------------------------- 否则 1-P(H) • MD的定义: 1 若P(H)=0 MD(H,E)= min {P(H|E), P(H)} – P(H) ----------------------------------- 否则 -P(H)

  30. 知识的不确定性表示(续) • MB(H,E)和MD(H,E)是互斥的:即一个证据不能既增加对H的信任度,又不能同时增加对H的不信任度 当MB(H,E) > 0 , MD(H,E)=0 当MD(H,E) > 0, MB(H,E)=0

  31. 知识的不确定性表示(续) • CF(H,E)的直观意义: (1)CF(H,E)>0,则P(H|E)>P(H):E的出现增加了H为真的概率,增加了H为真的可信度 (2)CF(H,E)<0,则P(H|E)<P(H):E的出现减少了H为真的概率,增加了H为假的可信度 (3)CF(H,E)=0,则P(H|E)=P(H):表示H与E独立,即E的出现对H没有影响 • CF(H,E)几个特殊的值: (1)前提真,则结论必真,即P(H|E)=1,有CF(H,E)=1 (2)前提真,而结论必假,即P(H|E)=0,有CF(H,E)=-1 (3)前提与结论无关,即P(H|E)=P(H), 有CF(H,B)=0

  32. 证据的不确定性表示 • 证据的不确定性也用CF来表示 • CF值的来源分两种情况: • 初始证据:由提供证据的用户给出 • 以前的结论作为新证据:由传递算法推出 • 证据的CF取值范围:[-1,1] • E肯定为真时:CF(E)=1 • E肯定为假时:CF(E)= - 1 • 对E一无所知时:CF(E)=0 • CF(E)>0表示E以CF(E)为真 • CF(E)<0表示E以CF(E)为假

  33. 组合证据不确定性算法 (1)E=E1 E2 …  En 如果已知CF(E1),…, CF(En), 则: CF(E)=min{CF(E1),…, CF(En)} (2)E=E1 E2  … En 如果已知CF(E1),…, CF(En), 则: CF(E)=max{CF(E1),…, CF(En)}

  34. 不确定性的传递算法 • 已知:CF(E) E  H CF(H,E) 则规定:CF(H)=CF(H,E)  max{0, CF(E)} • 规定:CF(~E)= -CF(E) • 当证据为假时:CF(H)=0,即该模型没有考虑证据为假时对H所产生的影响 • 当证据为真时,CF(H,E)实际上就是结论H的可信度CF(H)

  35. 结论不确定性合成算法 • r1: if E1 then H (CF(H,E1)) r2: if E2 then H (CF(H,E2)) 求合成的CF(H) (1)首先对每条知识求出CF(H),即: CF1(H)=CF(H,E1)  max{0, CF(E1)} CF2(H)=CF(H,E2)  max{0, CF(E2)} (2)规定: CF1(H)+CF2(H)-CF1(H) CF2(H) CF1(H)>=0, CF2(H)>=0 CF(H)= CF1(H)+CF2(H)+CF1(H) CF2(H) CF1(H)<0, CF2(H)<0 CF1(H) +CF2(H) 其他

  36. 可信度模型---- 例一 r1: A1 B1 CF(B1, A1)=0.8 r2: A2 B1 CF(B1, A2)=0.5 r3: B1 A3 B2 CF(B2, B1 A3)=0.8 初始证据 A1 ,A2 ,A3 的CF值均设为1,而初始未知证据 B1 ,B2 的CF值为0,即对 B1 ,B2 是一无所知的。 求:CF(B1 ) ,CF(B2)的更新值

  37. 可信度模型---- 例二 r1: A1 B1 CF(B1, A1)=0.8 r2: A2 B1 CF(B1, A2)=0.6 初始证据 A1 ,A2 的CF值均设为0.5,而初始未知证据 B1 的CF值为0.1。 求:CF(B1 ) 的更新值

  38. 本章主要内容 • 基本概念 • 主观Bayes方法 • 确定性方法 • 证据理论 • 模糊推理

  39. 证据理论 • 主要内容: • 概率分配函数 • 信任函数 • 似然函数 • 证据的不确定性度量 • 规则的不确定性度量 • 推理计算

  40. 概率分配函数 • 定义:U为样本空间,设函数M:2U[0, 1],且满足: M() =0 AUM(A)=1 则称M为2U上的概率分配函数,M(A)称为A的基本概率数 (1)M(A)的作用是把U的任意一个子集A都映射为[0,1]上的一个数M(A)。它表示证据对U的子集A成立的一种信任度量,是对U的子集的信任分配。 (2)概率分配函数不是概率。

  41. 证据理论 • 例: U={红,黄,蓝} 假设: M({红})=0.3, M({黄})=0, M({蓝})=0.1, M({红,黄})=0.2, M({红,蓝})=0.2, M({黄,蓝})=0.1, M({红,黄,蓝})=0.1, M({})=0

  42. 信任函数 定义:命题的信任函数Bel: 2U[0, 1],且 Bel(A) = BAM(B) 对所有的AU (1)命题A的信任函数的值,是A的所有子集的基本概率分配函数值的和,用来表示对A的总的信任 (2)Bel函数又称为下限函数 (3) Bel() = M() =0 Bel(U) = BUM(B) = 1

  43. 似然函数 定义:似然函数Pl: 2U[0, 1],且 Pl(A) =1- Bel(~A) 对所有的AU (1) Bel(A)表示对A为真的信任度,则 Bel(~A)表示对~A为真,即A为假的信任度,所以 Pl(A)表示A非假的信任度,它又称为上限函数。 (2)Pl(A) =1- Bel(~A) = ABM(B) (3) 0  Bel(A) Pl(A)  1 (4) Pl(A) - Bel(A):表示既不信任A,也不信任~A的一种度量,可表示对不知道的度量

  44. 证据的不确定性度量 (1)以区间(Bel(A), Pl(A))作为证据A的不确定性度量:表示了对A信任程度的上限和下限。 • A(0,0): 表示A为假 • A(0,1): 表示对A一无所知 • A(1,1): 表示A为真 (2)以函数: f1(A)=Bel(A)+(|A|  |U|) (Pl(A)-Bel(A)) 表示证据A的不确定性度量。 f1()=0, f1(U)=1 0  f1(A)  1 AU

  45. 规则的不确定性度量 设U={u1,…, un},A和B为U的子集,如: A={a1,…, am}, B={b1,…, bk} 规则表示如下: A  B={b1,…, bk} {c1,…, ck} (1)B是结论,用样本空间的子集表示,b1,…, bk是该子集中的元素 (2) c1,…, ck表示规则的不确定性度量 ,ci表示bi的可信度 (3) ci0, ni=1ci1

  46. 推理计算 • f1(A1A2) = min{f1(A1), f1(A2)} f1(A1A2) = max{f1(A1), f1(A2)} • 已知f1(A) A  B ={b1,…, bk} {c1,…, ck}, 求 f1(B) (1)求出B的概率分配函数 M(B)=M({b1},…, {bk})={f1(A)c1,…, f1(A) ck} M(U)=1 - ki=1 f1(A)ci

  47. 推理计算(续) 如果有两条知识支持同一条结论: A1  B ={b1,…, bk} {c1,…, ck}, A2  B ={b1,…, bk} {c1,…, ck}, 则首先分别对每一条知识求出概率分配函数: M1({b1},…, {bk}) M2({b1},…, {bk}) 然后由:M=M1M2 求出结论B的概率分配函数M

  48. 推理计算(续) 概率分配函数的合成定义: 设M1和M2是两个概率分配函数,则合成M=M1M2定义为: M() =0 M(A) =K  XY=AM1(X) M2(Y) 其中x,y是U的子集,并且: K-1=1-  XY=M1(X) M2(Y) =  XYM1(X) M2(Y)

  49. 推理计算(续) 概率分配函数的合成示例: 例一:设U={黑,白},且 M1({黑},{白},{黑,白},)=(0.3, 0.5, 0.2, 0) M2({黑},{白},{黑,白},)=(0.6, 0.3, 0.1, 0) 例二:设U={a,b,c,d} M1({b,c,d},U)=(0.7, 0.3) M2({a,b},U)=(0.6, 0.4)

  50. 推理计算(续) (2)求出Bel(B) ,Pl(B),f1(B) Bel(B) = ABM(A) Pl(B) =1- Bel(~B) f1(B)=Bel(B)+(|B|  |U|) (Pl(B)-Bel(B))

More Related