You are on page 1of 70

第 4 章 非经典推理

软件工程系
田钊

人工智能及其应用
学习目标

 熟悉经典推理和非经典推理的区别

 掌握不确定推理的基本概念

 掌握概率推理方法

 掌握主观贝叶斯推理方法

 掌握可信度推理方法

 了解证据理论的基本知识
目录

4.1 经典推理和非经典推理
4.2 不确定性推理
4.3 概率推理
4.4 主观贝叶斯方法
4.5 可信度方法
4.6 证据理论
目录

4.1 经典推理和非经典推理
4.2 不确定性推理
4.3 概率推理
4.4 主观贝叶斯方法
4.5 可信度方法
4.6 证据理论
4.1 经典推理和非经典推理

规约推理、消解演绎推理和规则演绎推理等都是确
定性推理。它们建立在经典逻辑基础上,运用确定性知
识进行精确推理。
  现实世界客观存在许多不确定性,需要在不完全和
                                                                                                                                                                                                                                                                                                                       

不确定的情况下运用不确定的知识进行推理,即进行不
确定性推理。
求解过程中得到的有关问题的结论也常并非随知识
的增加而单调地增加。因此还须要进行非单调推理的研
究。 5
4.1 经典推理和非经典推理

非经典逻辑与经典逻辑的区别表现:
推理方法。经典采用演绎逻辑推理,非经典采用归纳逻辑
推理。

  辖域取值。经典逻辑都是二值逻辑,非经典是多值逻辑。
运算法则。经典逻辑中的许多法则在非经典逻辑中不成立。
                                                                                                                                                                                                                                                                                                                       

逻辑算符。非经典逻辑具有更多的逻辑算符。
是否单调。经典逻辑单调,而非经典逻辑是非单调逻辑。

6
目录

4.1 经典推理和非经典推理
4.2 不确定性推理
4.3 概率推理
4.4 主观贝叶斯方法
4.5 可信度方法
4.6 证据理论
4.2 不确定性推理

不确定性推理是一种建立在非经典逻辑基础上的基于不确
定性知识的推理,从不确定性的初始证据出发,通过运用不确
定性知识,推出具有一定程度的不确定性的和合理的或近乎合
理的结论。
  它是研究复杂系统不完全性和不确定性的有力工具。
                                                                                                                                                                                                                                                                                                                       

不确定性推理中必须解决推理方向、推理方法、控制策略
等基本问题,同时还需要解决不确定性的表示与度量、不确定
性匹配、不确定性的传递算法以及不确定性的合成等问题。

8
4.2.1 不确定性的表示和度量

通过几个例子认识不确定性:
今天有可能下雨
如果乌云密布并且电闪雷鸣,则很可能要下暴雨。

  小王是高个子
                                                                                                                                                                                                                                                                                                                       

“ 秃子悖论”

9
4.2.1 不确定性的表示和度量

一般的(确定性)推理过程:
运用已有的知识由已知事实推出结论 .
如已知 :
事实 A , B

  可以推出结论 C 。
知识 ABC
                                                                                                                                                                                                                                                                                                                       

此时,只要求事实与知识的前件进行匹配。

问题:如果 A 可能为真, B 比较真,知识 ABC 只在一定程度上为真,结论如


何?

10
4.2.1 不确定性的表示和度量

知识和信息中含有的不肯
不确定性及其类型
定、不可靠、不准确、不
精确、不严格、不严密、
不完全甚至不一致的成分。 1. 随机不确定性
随机不确定性是基于概率的一种衡量,
 
按性质分类: 即已知一个事件发生有多个可能的结果。虽
                                                                                                                                                                                                                                                                                                                       

1. 随机不确定性 然在该事件发生之前,无法确定哪个结果会
出现,但是,可以预先知道每个结果发生的
2. 模糊不确定性 可能性。
3. 不完全性 例如:
“ 这场球赛甲队可能取胜”
4. 不一致性 “ 如果头疼发烧,则大概是患了感
冒。”
11
4.2.1 不确定性的表示和度量

不确定性及其类型
2. 模糊不确定性 3. 不完全性
模糊不确定性就是一个命题 对某事物了解得不完全或认识不够完整。
中所出现的某些言词其涵义不够 如:刑侦过程的某些阶段往往要针对不

 
确切,从概念角度讲,就是其代 完全的证据进行推理。
表的概念的内涵没有硬性的标准
                                                                                                                                                                                                                                                                                                                       

或条件,其外延没有硬性的边界。
例如: 4. 不一致性
“ 小王是高个子。” 随着时间或空间的推移,得到了前后不
“ 张三和李四是好朋友。” 相容或不一致的结论。
把涵义不确切的言词所代表的 如:人们对太空的认识等。
概念称为软概念。

12
4.2.1 不确定性的表示和度量

不确定性推理中存在三种不确定性:
关于知识的不确定性
关于证据的不确定性
关于结论的不确定性

  知识的表示与推理密切相关,不同的推理方法要求有相应的知识表
示模式与之对应。
                                                                                                                                                                                                                                                                                                                       

表示不确定性知识应考虑:
要能根据领域问题特征把不确定性比较准确的描述以满足问题求解的需要;
要便于推理过程中推算不确定性。

13
4.2.1 不确定性的表示和度量

专家系统中通常用一个数值表示相应知识的不确定性程度,称为知识
的静态强度。
证据的不确定性也通常用一个数值代表相应证据的不确定性程度,称
为动态强度。

 考虑不确定性的度量方法与度量范围时必须注意 :
量度应能充分表达相应知识和证据不确定性的程度;
                                                                                                                                                                                                                                                                                                                       

量度范围的指定应便于领域专家和用户对不确定性的估计;
量度应便于对不确定性的传递进行计算;
量度的确定应是直观的,并有相应的理论依据。

14
4.2.1 不确定性的表示和度量

知识的不确定表示
知识:
考虑因素:问题描述能力、推理中不确定性计算
表示:概率、可信度
证据:

  证据来源:初始证据,中间结论
表示:概率、可信度
                                                                                                                                                                                                                                                                                                                       

不确定性的匹配
含义:不确定的前提条件和不确定的事实匹配
问题:前提是不确定的,事实也是不确定的
方法:设计一个计算相似度的算法,给出相似度的限度
标志:相似度落在规定限度内为匹配,否则为不匹配

15
4.2.1 不确定性的表示和度量
组合证据不确定性的计算
含义:知识的前提条件是多个证据的组合。
方法:最大最小方法(合取取最小,析取取最大),概率方法
不确定性的传递
主要问题

 
1 )如何用证据的不确定性去更新结论的不确定性
2 )如何在推理中把证据的不确定性传递给最终结论
                                                                                                                                                                                                                                                                                                                       
解决方法:
对 1 ),不同推理方法解决方法不同
对 2 ),方法相同,把当前结论及其不确定性作为新的结论放入综合数据库,直到得出最终解。
非精确性结论的合成
含义:多个不同知识推出同一结论,且不确定性程度不同
方法:视不同推理方法而定

16
4.2.2 不确定性的算法
不确定性的更新算法
已知规则前提即证据 E 的不确定性 C(E) 和规则的强度 f(H,E), 其中 H 表示假设,
求 H 的不确定性 C(H) 。
并行规则算法
证据合取的不确定性算法

  证据析取的不确定性算法。
                                                                                                                                                                                                                                                                                                                       

不确定性的计算与传播
组合证据的不确定性计算 ( 最大最小方法、概率方法、有界方法 )
证据和知识的不确定性的传递
不同证据支持同一结论时其不确定性的合成

不确定性推理的一般模式也可以简单地表示为:
不确定性推理 = 符号推演 + 不确定性计
17

4.2.2 不确定性的算法
不确定性推理方法的分类

通过识别领域内引 控制方法
起不确定性的某些

 
特征及相应的控制 非数值方法
策略来限制或减少
                                                                                                                                                                                                                                                                                                                       

模型方法 模糊推理
不确定性对系统产 纯概率
生的影响。 数值方法 可信度方法
基于概率 证据理论
主观 Bayes
贝叶斯网络

18
目录

4.1 经典推理和非经典推理
4.2 不确定性推理
4.3 概率推理
4.4 主观贝叶斯方法
4.5 可信度方法
4.6 证据理论
4.3.1 概率的基本性质和计算公式

                                                                                                                                                                                                                                                                                                                         

20
4.3.1 概率的基本性质和计算公式

概率的部分计算公式
条件概率与乘法公式
P(A|B)=P(A∩B)/P(B)
独立性公式
P(A|B)=P(A)

  全概率公式
P(A∩B)= P(A)P(B)
                                                                                                                                                                                                                                                                                                                       

内容:如果事件 B1 、 B2 、 B3…Bn 构成一个完备事件组,即它们两两互不相容,其和为全


集;并且 P(Bi) 大于 0 ,则对任一事件 A 有 P(A)=P(A|B1)P(B1) + P(A|B2)P(B2) + ... + P(A|
Bn)P(Bn) 。
贝叶斯公式

21
4.3.2 概率推理方法

目前用得较多的不精确推理模型有:概率推理、贝叶斯推理、可信度
方法、证据理论以及模糊推理等。
假设有产生式规则: if E then H ,证据 ( 或前提条件 ) E 不确定性的
概率为 P(E) ,概率方法不精确推理的目的就是求出在证据 E 下结论 H
发生的概率 P(H|E) 。
 假设已知 H 的先验概率 P(H) 及条件概率 P(E|H), 则根据贝叶斯公式
                                                                                                                                                                                                                                                                                                                       

有:
P(H)P(E|H)
P(H|E)=
P(E)

22
4.3.2 概率推理方法
例:设 H1 , H2 , H3 是三个结论, E 是支持这些结论的证据,且已知:
P(H1)=0.3 , P(H2)=0.4 , P(H3)=0.5 , P(E|H1)=0.5 , P(E|H2)=0.3 , P(E|
H3)=0.4 。求: P(H1|E) , P(H2|E) , P(H3|E) 的值 。

 
解:根据贝叶斯公式有
                                                                                                                                                                                                                                                                                                                       

P(H1)*P(E|H1)
P(H1|E)=
P(H1)*P(E|H1)+P(H2)*P(E|H2) )+P(H3)*P(E|H3)
= 0.15 = 0.32
0.15+0.12+0.2
同理可求得 P(H2|E)= 0.26 P(H2|E)=
0.43 23
目录

4.1 经典推理和非经典推理
4.2 不确定性推理
4.3 概率推理
4.4 主观贝叶斯方法
4.5 可信度方法
4.6 证据理论
4.4 主观贝叶斯方法

                                                                                                                                                                                                                                                                                                                         

25
4.4 主观贝叶斯方法

简介
主观贝叶斯方法是 R.O.Duda 等人 1976 年提出的一种不确定性推理模
型,并成功地应用于地质勘探专家系统 PROSPECTOR 。
其核心思想是:

  根据:Ⅰ . 证据的不确定性(概率) P(E);


                                                                                                                                                                                                                                                                                                                       

Ⅱ. 规则的不确定性( LS , LN );
LS : E 的出现对 H 的支持程度,
LN : E 的出现对 H 的不支持程度。
把结论 H 的先验概率更新为后验概率 P(H|E)

26
4.4.1 知识不确定性的表示
实际上,先验概率 P(Hi) 及证据 E 的条件概率 P(E|Hi) 是很难给出
的。
( LS , LN )
主观贝叶斯方法采用产生式规则表示知识。E    H ( P( H ))
if E then (LS , LN) H
 
其中 (LS,LN) 表示该知识的静态强度,称 LS 为上式成立的充分性因子, LN 为上式
成立的必要性因子,分别衡量证据 E 对结论 H 的支持程度和 ~E 对 H 的支持程
                                                                                                                                                                                                                                                                                                                       

度。 LS 和 LN 的取值范围是 [0,+) 。
E 是该条知识的前提条件,它既可以是一个简单条件, 也可以是用 and 、 or 把
多个条件连接起来的复合条件。
H 是结论, P(H) 是 H 的先验概率,它指出在没有任何专门证据的情况下,结
论为真的概率,其值由领域专家根据以往的实践及经验给出。

27
4.4.1 知识不确定性的表示

• LS 称为充分性量度,用于指出 E 对 H 的支持程度,取值范
围为 [ 0 , ∞ ),其定义为:
P(E/H)
LS = P(E/H)
LS 的值由领域专家给出,具体情况在下面论述。
  • LN 称为必要性量度,用于指出  E 对 H 的支持程度,取值
                                                                                                                                                                                                                                                                                                                       

范围为 [ 0 , ∞ ),其定义为:
P( E/H) 1  P(E/H)
LN = P( = 1  P(E/H)
E/H)
LN 的值也由领域专家给出,具体情况在下面论述。
• LS, LN 相当于知识的静态强度。

28
4.4.1 知识不确定性的表示

推理过程即为根据前提 E 的概率 P(E) ,利用规则的 LS 和 LN ,


把结论 H 的先验概率 P(H) 更新为后验概率 P(H|E) 的过程。
在贝叶斯方法中,引入几率函数 o(x) ,它与概率的关系为 :
P(x)
  O(x) = 1 - P(x)
                                                                                                                                                                                                                                                                                                                       

事件 X 发生的几率等于 X 的概率与 ~X 的概率之比。


几率函数与概率函数有相同的单调性,但取值为 [0 , ]

下面讨论 LS 、 LN 定义的由来

29
4.4.1 知识不确定性的表示

1) 对于 LS:
由 Bayes 公式得:
P(H/E) = [P(E/H)  P(H)] / P(E) ①

 
同理有:
P(H/E) =[ P(E/ H)  P(H)] / P(E)
                                                                                                                                                                                                                                                                                                                        ②
① 除以②,得:
O(H/E) LS O(H)
P(H/E) = P(E/H) P(H)

P(H/E) P(E/ H) P(H) ③

30
4.4.1 知识不确定性的表示

使用几率函数,③ 式可以表示为 :
O(H/E)=LS×O(H)
可以看出, LS 越大, O(H/E) 越大, 则 P(H/E) 越大,表
明 E 对 H 为真的支持越强。当 LS  ∞ , P(H/E)  1 , E 的存在对

 
H 为真是充分的,故称 LS 为充分性量度。
                                                                                                                                                                                                                                                                                                                       

由③ 式 及 “非”运算 : P( H/E) = 1 – P(H/E) 、 P( H) = 1 – P(H),


得: LS  P(H)
P(H/E) =
(LS – 1)  P(H) + 1

LS 将 H 的先验概率更新为后验概率

31
4.4.1 知识不确定性的表示

2) 对于 LN:

由 Bayes 公式得:
P(H/ E) = P(E/ H)  P(H) / P(E) ①

  同理有:
                                                                                                                                                                                                                                                                                                                       

P(H/ E) = P(E/ H)  P(H) / P(E) ②


① 除以②,得:

P(H/ E) = P(E/H)  P(H)


P(H/ E) P(E/ H) P(H) ③
O(H/  E) LN O(H)
32
4.4.1 知识不确定性的表示

使用几率函数,③ 式可以表示为 :
O(H/  E)=LN×O(H)
则 LN 越大,表明 E 对 H 为真的支持越强。当 LN = 0 , P(H/
 E) = 0 , E 的不存在导致 H 为假,说明 E 对 H 是必要的,故称 LN 为必
要性量度。
                                                                                                                                                                                                                                                                                                                         

由③ 式 及 “非”运算 P( H/  E) = 1 – P(H/  E) 、 P( H) = 1 – P(H),


得: P(H/ E) =
LN  P(H)
(LN – 1)  P(H) + 1

LN 将 H 的先验概率更新为后验概率
33
4.4.1 知识不确定性的表示

当 E 为真时,可利用 LS 将 H 的先验几率 O(H) 更新为其后


验几率 O(H|E)
当 E 为假时,可利用 LN 将 H 的先验几率 O(H) 更新为其
后验几率 O(H|~E) 。

  可以证明: LS 、 LN>0 ,它们是不独立的,且有如下约束关系:


                                                                                                                                                                                                                                                                                                                       

当 LS>1 时, LN<1 ;
当 LS<1 时, LN>1 ;
当 LS=1 时, LN=1 ;
实际系统中, LS 、 LN 值是有专家给出的。

34
4.4.2 证据不确定性的表示

证据的不确定性也是用概率表示的。
对于初始证据 E ,由用户根据观察 S 给出 P(E/S) ,它相当于动态
强度。
具体应用中采用变通的方法,在 PROSPECTOR 中引进了可信度的概

  念,用 C(E/S) 刻画证据的不确定性。 让用户在 – 5 至 5 之间的


11 个整数中选一个数作为初始证据的可信度 C(E/S) 。
                                                                                                                                                                                                                                                                                                                       

初始可信度 C(E/S) 与 概率 P(E/S) 的对应关系如下:

 C(E/S)= -5 ,表示在观察 S 下证据 E 肯定不存在,即 P(E/S)=0 ;


 C(E/S)= 0 , 表示 S 与 E 无关,即 P(E/S) =P(E) ;
 C(E/S)= +5 ,表示在观察 S 下证据 E 肯定存在,即 P(E/S)=1 ;
35
4.4.2 证据不确定性的表示

 C(E/S) = 其它数值时,与 P(E/S) 的对应关系可通过对上述三点进行分段


线性插值得到,如下图。
P(E/S) 根据观察 S 给出可信
1 度 C(E|S) 来估计初始

  P(E)
证据 E 的条件概率
P(E|S) 。
                                                                                                                                                                                                                                                                                                                       

-5 -4 -3 -2 -1 0 1 2 3 4 5 C(E/S)

由上图可得到 C(E/S) 与 P(E/S) 的关系式,即由 C(E/S) 计算


P(E/S) : C(E/S) + P(E)  ( 5  C(E/S))
5 若 0  C(E/S) 
P(E/S) = 5
P(E)  ( C(E/S) + 5 )
5 若  5  C(E/S) < 0
36
4.4.2 证据不确定性的表示

在主观 Bayes 方法的知识表示中, P(H) 是专家对结论 H 给出的


先验概率,它是在没有考虑任何证据的情况下根据经验给出的。
随着新证据的获得,对 H 的信任程度应该有所改变。主观 Bayes 方

  法推理的任务就是根据证据 E 的概率 P(E) 及 LS , LN 的值,把 H 的先验概率


                                                                                                                                                                                                                                                                                                                       

P(H) 更新为后验概率 P(H/E) 或 P(H/ E) 。

即:
P(E)
P(H) LS, LN P(H/E) 或 P(H/ E)

37
4.4.2 证据不确定性的表示

在现实中,证据肯定存在或肯定不存在的极端情况是不多的,更多的是
介于两者之间的不确定情况。
现在要在 0 < P(E/S) < 1 的情况下确定 H 的后验概
率 P(H/S) 。
  在证据不确定的情况下,不能再用上面利用 LS 和 LN 的公式计算后验概
                                                                                                                                                                                                                                                                                                                       

率,而需使用 R.O.Doda 等人 1976 年证明的如下公式:


P(H/S) = P(H/E)  P(E/S) + P(H/E)  P(E/S)

38
4.4.2 证据不确定性的表示
下面分四种情况讨论:
1) P(E/S) = 1
当 P(E/S) = 1 时, P(E/S) = 0 ,此时公式 ① 变为:

LS  P(H)
P(H/S) = P(H/E) =
(LS – 1)  P(H) +1

  这是证据肯定存在的情况。
                                                                                                                                                                                                                                                                                                                       

2) P(E/S) = 0
当 P(E/S) = 0 时, P(E/S) = 1 ,此时公式 ① 变为:

P(H/S) = P(H/E) = LN  P(H)


(LN – 1)  P(H) +1
这是证据肯定不存在的情况。
39
4.4.2 证据不确定性的表示

3) P(E/S) = P(E)
当 P(E/S) = P(E) 时,此时公式 ① 变为:

P(H/S) = P(H/E)  P(E) + P(H/E)  P(E) = P(H)

  全概率公式
                                                                                                                                                                                                                                                                                                                       
表示 H 与 S 无关。

4) 当 P(E/S) = 其它值时,通过分段线性插值可得到计算 P(H/S) 的公式。

40
4.4.2 证据不确定性的表示

P(H/S)
P(H/E)
P(H)

P(H/E)

  0 P(E) 1 P(E/S)
                                                                                                                                                                                                                                                                                                                       

P(H/E) +
P(H) – P(H/E)  P(E/S) 若 0  P(E/S) <
P(E) P(E)
P(H/S) =
P(H/E) – P(H)
P(H) + 1 – P(E)  [ P(E/S) – P(E)] 若 P(E)  P(E/S) 
1
该公式称为 EH 公式
41
4.4.2 证据不确定性的表示

由前面可知 P(E/S) 、 P(H/S) 的计算公式分别为:


C(E/S) + P(E)  ( 5  C(E/S))
5 若 0  C(E/S)  5
P(E/S) =
P(E)  ( C(E/S) + 5 )
若  5  C(E/S) <0

 
5

                                                                                                                                                                                                                                                                                                                       

P(H/E) +
P(H) – P(H/E)  P(E/S) 若 0  P(E/S) <
P(E) P(E)
P(H/S) =
P(H/E) – P(H)
P(H) + 1 – P(E)  [ P(E/S) – P(E)] 若 P(E)  P(E/S) 
1

42
4.4.2 证据不确定性的表示

对初始证据,用可信度 C(E/S) 计算 P(H/S)


对于初始证据,由于其不确定性是用可信度 C(E/S) 给出的,此时只要把
C(E/S) 与 P(E/S) 的对应关系带入上式,便可得到下述公式:

  P(H/S) =
P(H/E) + [ P(H) – P(H/E) ]  [

1
1 C(E/S) + 1] ,
5
若 C(E/S) 0
                                                                                                                                                                                                                                                                                                                       

P(H) + [ P(H/E) – P(H) ]  C(E/S) , 若 C(E/S) >0


5

该公式称为 CP 公式

43
4.4.3 主观贝叶斯方法的推理过程

若采用初始证据进行推理,则通过用户得到 C(E|S) ,从而根据 CP 公式可求得 P(H|


S) 。
若采用推理过程中得到的中间结论作为证据进行推理,则通过 EH 公式可求得 P(H|
S) 。

  相同结论的后验概率合成:
                                                                                                                                                                                                                                                                                                                       

若有 n 条知识都支持相同的结论 H ,而且每条知识的前提条件所对应的证据
Ei ( i =1,2,…,n )都有相应的观察 Si 1与之对应
O(H/S ) O(H/S2), O(H/Sn)
O(H/S1,S2,…,Sn) =  …   O(H)
O(H) O(H) O(H)
此时只要先求出每条知识的 O(H/Si) ,然后运用下述公式求出 O(H/S1,S2,…,Sn) 。
最后,再利用 P(H/S1,S2,…,Sn) 与 O(H/S1,S2,…,Sn) 的关系计算 P(H/S1,S2,…,Sn)
P(H/S1,S2,…,Sn)=O(H/S1,S2,…,Sn)/(1+ O(H/S1,S2,…,Sn))

44
4.4.3 主观贝叶斯方法的推理过程
例 设有如下规则:
r1: IF E1 THEN (65, 0.01) H1
r2: IF E2 THEN (300, 0.001) H1
r3: IF H1 THEN (200, 0.002) H2
已知: P(E1)=0.1 , P(E2)=0.03 , P(H1)=0. 1

  , P(H2)=0.05 ,用户提供证据: C(E1/S1)=2 , C(E2/S2)=1 ,计算 P(H2/S1 , S2) 。


H2 0.05
                                                                                                                                                                                                                                                                                                                       

(200,0.002)
H1 0.1

(65,0.01) (300,0.001)
0.1 E1 E2 0.03

C(E1/S1)=2 C(E2/S2)=1

S1 S2

45
4.4.3 主观贝叶斯方法的推理过程

分析:自下而上计算:
 根据 LS 值,将 H 的先验概率转换为后验概率,计算 P(H1/E1) 、 P(H1/E2)
 使用 CP 公式计算 P(H1/S1) 、 P(H1/S2) ,
 计算 O(H1/S1) 、 O(H1/S2)
 对 H1 合成。计算 O(H1/S1,S2) 、 P(H1/S1,S2) 。
   根据 LS 值,将 H 的先验概率转换为后验概率,计算 P(H2/H1)
                                                                                                                                                                                                                                                                                                                       

 使用 EH 公式计算 P(H2/S1,S2)
(1) 计算 P(H1/E1) 、 P(H1/S1) 和 O(H1/S1)

LS 1  P ( H 1)
P( H 1 / E 1) 
( LS 1  1)  P ( H 1)  1
65  0.1
  0.8784
(65  1)  0.1  1
46
4.4.3 主观贝叶斯方法的推理过程
对于初始证据,使用 CP 公式:
P(H/E) + [ P(H) – P(H/E) ]  [ 1 C(E/S) + 1] , 若 C(E/S) 0
5
P(H/S) =
P(H) + [ P(H/E) – P(H) ]  1 ,
C(E/S) 若 C(E/S) >0
5

∵ C(E1/S1)=2 >0 ∴ 使用 CP 公式的后半部。

  P ( H 1 / S 1)  P ( H 1)  [ P ( H 1 / E 1)  P( H 1)]  C ( E 1 / S 1)
1
5
                                                                                                                                                                                                                                                                                                                       

1
 0.1  [0.8784  0.1]   2
5
 0.4114
P ( H 1 / S 1) 0.4114
O( H 1 / S 1)    0.6989
1  P( H 1 / S 1) 1  0.4114

47
4.4.3 主观贝叶斯方法的推理过程

(2) 计算 P(H1/E2) 、 P(H1/S2) 和 O(H1/S2)


LS2P(H1) 3000.1
P(H1/E2)= = = 0.9709
(LS2-1)P(H1)+1 (300-1)0.01+1

对于初始证据,使用 CP 公式,

  ∵ C(E2/S2)=1 >0 ∴ 使用 CP 公式的后半部。

P(H1/S2)= P(H1)+[P(H1/E2)–P(H1)] 1 C(E2/S2)


                                                                                                                                                                                                                                                                                                                       

5
= 0.1+[0.9709-0.09]11/5
= 0.2742

P(H1/S2) 0.2742
O(H1/S2)= = = 0.3778
1-P(H1/S2) 1-0.2742

48
4.4.3 主观贝叶斯方法的推理过程

(3) 计算 O(H1/S1,S2) 和 P(H1/S1,S2)

P( H 1) 0.1
O ( H 1)    0.1111
1  P( H 1) 1  0.1
O( H 1 / S 1) O( H 1 / S 2)
  O( H 1 / S 1, S 2) 
O( H 1)

O( H 1)
 O( H 1)
                                                                                                                                                                                                                                                                                                                       

0.6989 0.3778
   0.1111  2.3764
0.1111 0.1111

O( H 1 / S 1, S 2) 2.3764
P ( H 1 / S 1, S 2)    0.7038
1  O( H 1 / S 1, S 2) 1  2.3764

49
4.4.3 主观贝叶斯方法的推理过程
(4) 计算 P(H2/H1) 和 P(H2/S1,S2)
使用 EH 公式
∵ P(H1/S1,S2)> P(H1) ∴ 使用 EH 公式的后半部。

P(H/E) +
P(H) – P(H/E)  P(E/S) 若 0  P(E/S) < P(E)
P(E)

 
P(H/S) =
P(H/E) – P(H)
P(H) +  [ P(E/S) – P(E)] 若 P(E)  P(E/S)  1
1 – P(E)
                                                                                                                                                                                                                                                                                                                       

LS3P(H2) 2000.05
P(H2/H1)= = = 0.9132
(LS3–1)P(H2)+1 (200-1)0.05+1

P(H2/H1)– P(H2)
P(H2/S1,S2)= P(H2)+ [P(H1/S1,S2)– P(H1)]
1– P(H1)
= 0.05+[(0.9132-0.05)/(1-0.1)](0.7038-0.1)
= 0.6291
H2 的先验概率为 0.05 ,而最后算出的后验概率为 0.6291 50
4.4.3 主观贝叶斯方法的推理过程

主观贝叶斯方法的特点
主要优点:
• 其计算公式大多是在概率论的基础上推导出来的,具有较坚实理论基础;
• 知识的静态强度 LS 、 LN 由领域专家根据实际经验得到,避免了大量的数据统计
 工作;
                                                                                                                                                                                                                                                                                                                       

• 给出了在证据不确定情况下更新先验概率为后验概率的方法,且从推理过程中看,
确实是实现了不确定性的传递 .

主要缺点:
• 它要求领域专家在给出知识时,同时给出 H 的先验概率,这是比较困难的。
• Bayes 定理中要求事件间相互独立,限制了该方法的应用。
51
目录

4.1 经典推理和非经典推理
4.2 不确定性推理
4.3 概率推理
4.4 主观贝叶斯方法
4.5 可信度方法
4.6 证据理论
4.5.1 基于可信度的不确定性表示
肖特里菲 (Shortliffe) 等在确定性理论基础上结合概率论等理论提出的一
种不精确推理模型。
根据经验对一个事物或现象为真 ( 相信 ) 的程度称为可信度。每条规则
和每个证据都具有一个可信度。
不确定性度量
  知识的不确定性表示:
                                                                                                                                                                                                                                                                                                                       

if E then H (CF(H, E))


CF(H,E) :是该条知识的可信度,称为可信度因子或规则强度,它指出当前提条件
E 所对应的证据为真时,它对结论为真的支持程度。
如: “如果头疼且流鼻涕,则患了感冒; (0.7) 。”
“ 如果乌云密布并且电闪雷鸣,则很可能要下暴雨。 (0.9)”
53
4.5.1 基于可信度的不确定性表示
推理规则的一般形式:

If E then H (CF(H , E))

其中 CF(H , E) 是该规则的可信度,称为可信度因子或规则强度。
  CF(H , E) >0 表示该证据增加了结论为真的程度,且 CF(H , E) 的值越大
                                                                                                                                                                                                                                                                                                                       

则结论 H 越真;若 CF(H , E) =1 ,则表示该证据使结论为真。


CF(H , E) <0 表示该证据增加了结论为假的程度,且 CF(H , E) 的值越小
则结论 H 越假;若 CF(H , E) =-1 则表示该证据使结论为假。
CF(H , E) =0 表示证据 E 和结论 H 没有关系。

54
4.5.1 基于可信度的不确定性表示

在 CF 模型中, CF 的定义为
CF(H,E)=MB(H,E) - MD(H,E) 条结论 H 的条件概
率。
MB ( Measure Belief ) :
  MB ( H , E )   max{P ( H | E ), P( H )}  P ( H )


1 当P ( H )=1
                                                                                                                                                                                                                                                                                                                       

否则
 1  P( H )

MD ( Measure Disbelief ):
信任增长度,它表示因与前提条件 
E 1匹配的证据的出现,使结论 当P ( H )=0
H 为真的信任
增长度。 
MD ( H , E )   min{ P( H | E ), P ( H )}  P ( H )
否则
MB 定义为: 
  P( H )
55
4.5.1 基于可信度的不确定性表示

由 MB 、 MD 得到 CF(H,E) 的计算公式:

 1 当P( H )=1  1 当P( H )=0


 
MB ( H , E )   max{P( H | E ), P( H )}  P( H ) MD ( H , E )   min{ P( H | E ), P( H )}  P( H )
 否则  否则
1  P( H )  P( H )
 
 
                                                                                                                                                                                                                                                                                                                       

 P( H | E )  P( H )
 当P ( H | E )  P ( H )
1  P( H )


CF ( H , E )   0 当P ( H | E )=P ( H )
 P( H )  P( H | E )
 当P ( H | E )  P ( H )

  P( H )

56
4.5.1 基于可信度的不确定性表示

CF 公式的意义
当 MB ( H , E ) >0 时, MD ( H , E )= 0 , CF ( H , E ) >0, 表示
由于证据 E 的出现增加了对 H 的信任程度。
当 MD ( H , E ) >0 时, MB ( H , E )= 0 , CF ( H , E ) <0, 表示
由于证据 E 的出现增加了对 H 的不信任程度。

  注意:对于同一个 E ,不可能既增加对 H 的信任程度又增加对 H 的不信任程度。


当已知 P(H) , P(H/E) ,运用上述公式可以求 CF(H/E) 。但是,在实际应用中,
                                                                                                                                                                                                                                                                                                                       

P(H) 和 P(H/E) 的值是难以获得的。


因此, CF(H,E) 的值要求领域专家直接给出。其原则是:
若由于相应证据的出现增加结论 H 为真的可信度,则使 CF(H,E)>0 ,证据
的出现越是支持 H 为真,就使 CF(H,E) 的值越大;
反之,使 CF(H,E)<0 ,证据的出现越是支持 H 为假,就使 CF(H,E) 的值越
小;
若证据的出现与否与 H 无关,则使 CF(H,E)=0 。
57
4.5.1 基于可信度的不确定性表示


如果
感染体是血液,且
细菌的染色体是革兰氏阴性,且

 
细菌的外形是杆状,且
病人有严重发烧,
                                                                                                                                                                                                                                                                                                                       

则 该细菌的类别是假单细胞菌属( 0.4 ) 。

这就是专家系统 MYCIN 中的一条规则。这里的 0.4 就是规则结论的 CF 值。

58
4.5.1 基于可信度的不确定性表示

证据的不确定性表示
初始证据 CF(E) 由用户给出
证据 E 肯定为真, CF(E)=1
证据 E 肯定为假, CF(E)=-1

  对证据一无所知, CF(E)=0
证据 E 以某种程度为真, 0<CF(E)<1
                                                                                                                                                                                                                                                                                                                       

证据 E 以某种程度为假, -1<CF(E)<0
先前推出的结论作为推理的证据,其可信度由推出该结论时通过不
确定性传递算法而来。

59
4.5.2 可信度方法的推理算法
组合证据:前提证据事实总 CF 值计算(最大最小法)
E=E1 E2 …  En
CF(E)=min{CF(E1) ,CF(E2) , … CF(En)} (1) 合取证据
E=E1  E2  …  En 当组合证据为多个单一证据的合取
时,对于多个证据合取的可信度,
 
CF(E)=max{CF(E1) ,CF(E2) , … CF(En)}
取其可信度最小的那个证据的 值
E=E1 作为组合证据的可信度。
                                                                                                                                                                                                                                                                                                                       

CF(E)= - CF(E1) (2) 析取证据


当组合证据是多个单一证据的析取
时,对于多个证据的析取的可信度,
取其可信度最大的那个证据的 值
作为组合证据的可信度。

60
4.5.2 可信度方法的推理算法
推理结论的 CF 值计算

C-F 模型中的不确定性推理是从不确定的初始证据出发,通过运用相关的不确定
性知识,最终推出结论并求出结论的可信度值。
当 CF(E)<0 时, CF(H)=0 ,
结论 H 的可信度由下式计算:
 
说明该模型中没有考虑证据
CF(H) = CF(H,E)  max { 0, CF(E) } 为假时对结论 H 所产生的影响。
                                                                                                                                                                                                                                                                                                                       

当 CF(E)>0 ,即证据以某种程度为真,则 CF(H)=CF(H,E)CF(E)


若 CF(E)=1 ,即证据为真,则 CF(H)=CF(H,E)
当 CF(E)<0 ,即证据以某种程度为假,规则不能使用,则 CF(H)= 0 。

不确定性的传递算法就是根据证据和规则的可信度求其结论的可信度。
61
4.5.2 可信度方法的推理算法

重复结论 CF 值计算  多个独立证据推出同一假设的合成算法


if E1 then H (CF(H, E1)) 如果两条不同规则推出同一结论,但可
信度各不相同,那么可用合成算法计算综合可信
if E2 then H (CF(H, E2)) 度。即当组合两个以上的独立证据时,可首先组
合其中的两个,再将其组合结果与第三个证据进
( 1 )计算 CF1(H) CF2(H) ;
  ( 2 )计算 CF (H) :
行组合,如此继续进行组合,直至组合完成为止。
                                                                                                                                                                                                                                                                                                                       

CF1(H) + CF2(H) – CF1(H)  CF2(H) 若 CF1(H)  0, CF2(H)  0

CF1(H) + CF2(H) + CF1(H)  CF2(H) 若 CF1(H)  0 , CF2(H)  0


CF1 , 2(H) =
CF1(H) + CF2(H)
1 – min { | CF1(H) | , | CF2(H) | } 若 CF1(H) 与 CF2(H) 异号

62
4.5.2 可信度方法的推理算法

例 设有如下规则:
r1: IF E1 THEN H ( 0.8)
r2: IF E2 THEN H (0.9)
r3: IF E3 AND E4 THEN E1 (0.7)
r4: IF E5 OR E6 THEN E1 ( - 0.3)

  并已知初始证据的可信度为: CF ( E2 ) =0.8 , CF ( E3 ) =0.9 , CF ( E4 ) =0.7 , CF


( E5 ) =0.1 , CF ( E6 ) =0.5 ,用不确定性理论计算 CF ( H )。
                                                                                                                                                                                                                                                                                                                       

E1 E2

AND OR

E3 E4 E5 E6
63
4.5.2 可信度方法的推理算法
由 r3 可得:
CF1 ( E1 ) =0.7×min{0.9,0.7}=0.49
由 r4 可得:
CF2 ( E1 ) = - 0.3×max{0.1,0.5}= - 0.15
从而

  CF1,2 ( E1 ) = ( 0.49 - 0.15 ) /(1 - min(|0.49|,| - 0.15|))=0.34/0.85=0.4


由 r1 可得:
                                                                                                                                                                                                                                                                                                                       

CF1 ( H ) =0.4×0.8=0.32
由 r2 可得:
CF2 ( H ) =0.8×0.9=0.72
从而
CF1,2 ( H ) =0.32+0.72-0.32×0.72=0.8096
这就是最终求得的 H 的可信度。
64
目录

4.1 经典推理和非经典推理
4.2 不确定性推理
4.3 概率推理
4.4 主观贝叶斯方法
4.5 可信度方法
4.6 证据理论
4.6 证据理论(选学)

20 世纪 60 年代 Dempster 把证据的信任函数与概率的上下值相联系,
从而提供了一个构造不确定性推理模型的一般框架。
20 世纪 70 年代中期, Shafer 对 Dempster 的理论进行了扩充,在此
基础上形成了处理不确定信息的证据理论,出版了《证据的数学理
  论》。
证据理论又称 Dempster-Shafer 理论( D-S 理论)或信任函数理论。
                                                                                                                                                                                                                                                                                                                       

是经典概率论的一种扩充形式。
证据理论能充分区分“不确定”和“不知道”的差异,并能处理由
“不知道”引起的“不确定”性,具有较大的灵活性。

66
4.6 证据理论(选学)

用集合表示命题,集合中各元素互斥。
分别采用概率分配函数、信任函数和似然函数等来描述和处理知识的
不确定性。
信任函数 Bel(A) 和似然函数 Pl(A) 分别表示命题 A 信任度的上
  限和下限,也可用来表示知识强度的上限和下限。
                                                                                                                                                                                                                                                                                                                       

信任函数和似然函数都是建立在概率分配函数的基础上。当概率分配
函数的定义不同时,将会得到不同的推理模型。
证据理论主要优点:只需满足比概率论更弱的公理系统,且能处理由
“不知道”所引起的不确定性。

67
4.6 证据理论(选学)

证据理论的不确定性推理模型

概率分配函数与类概率函数
知识不确定性的表示

  证据不确定性的表示
组合证据的不确定性表示
                                                                                                                                                                                                                                                                                                                       

不确定性的传递算法

68
本章小结

 不确定性推理

 概率推理

 主观贝叶斯推理

 可信度方法的推理
Thank You

感谢您的聆听 ~

You might also like