背景
一般的(確定性)推理過程:
運用已有的知識由已知事實推出結論.
此時,只要求事實與知識的前件進行匹配。
不精確思維並非專家的習慣或愛好所至,而是客觀現實的要求。
很多原因導致同一結果
推理所需的信息不完備
背景知識不足
信息描述模糊
信息中含有噪聲
規划是模糊的
推理能力不足
解題方案不唯一
在人類的知識和思維行為中,精確性只是相對的,不精確性才是絕對的。知識工程需要各種適應不同類的不精確性特點的不精確性知識描述方法和推理方法。
一、不確定性處理概述
1、不確定性及其類型
a. (狹義)不確定性
不確定性(uncertainty)就是一個命題(亦即所表示的事件)的真實性不能完全肯定, 而只能對其為真的可能性給出某種估計。 例如:
如果烏雲密布並且電閃雷鳴, 則很可能要下暴雨。
如果頭痛發燒, 則大概是患了感冒。
就是兩個含有不確定性的命題。 當然, 它們描述的是人們的經驗性知識。
b. 不確切性(模糊性)
不確切性(imprecision)就是一個命題中所出現的某些言詞其涵義不夠確切, 從概念角度講, 也就是其代表的概念的內涵沒有硬性的標准或條件, 其外延沒有硬性的邊界, 即邊界是軟的或者說是不明確的。 例如,
小王是個高個子。
張三和李四是好朋友。
如果向左轉, 則身體就向左稍傾。
這幾個命題中就含有不確切性, 因為其中的言詞“高”、 “好朋友”、“稍傾”等的涵義都是不確切的。我們無妨稱這種涵義不確切的言詞所代表的概念為軟概念(soft concept)。
(注: 在模糊集合(fuzzy set)的概念出現以后, 有些文獻中(包括本書的第一、 二版)將這里的不確切性稱為模糊性(fuzziness), 將含義不確切的言詞所代表的概念稱為模糊概念, 但筆者認為將這種概念稱為軟概念似乎更為合理和貼切。 )
c. 不完全性
不完全性就是對某事物來說, 關於它的信息或知識還不全面、不完整、不充分。例如,在破案的過程中, 警方所掌握的關於罪犯的有關信息, 往往就是不完全的。但就是在這種情況下, 辦案人員仍能通過分析、 推理等手段而最終破案。
d. 不一致性
不一致性就是在推理過程中發生了前后不相容的結論; 或者隨着時間的推移或者范圍的擴大, 原來一些成立的命題變得不成立、 不適合了。例如, 牛頓定律對於宏觀世界是正確的, 但對於微觀世界和宇觀世界卻是不適合的。
2、不確定性知識的表示及推理
對於不確定性知識, 其表示的關鍵是如何描述不確定性。 一般的做法是把不確定性用量化的方法加以描述, 而其余部分的表示模式與前面介紹的(確定性)知識基本相同。對於不同的不確定性, 人們提出了不同的描述方法和推理方法。下面我們主要介紹(狹義)不確定性和不確切性知識的表示與推理方法,對於不完全性和不一致性知識的表示, 簡介幾種非標准邏輯。
我們只討論不確定性產生式規則的表示。對於這種不確定性, 一般采用概率或信度來刻划。一個命題的信度是指該命題為真的可信程度, 例如,
(這場球賽甲隊取勝, 0.9)
這里的0.9就是命題“這場球賽甲隊取勝”的信度。它表示“這場球賽甲隊取勝”這個命題為真(即該命題所描述的事件發生)的可能性程度是0.9。
一般地, 我們將不確定性產生式規則表示為 
其中C(B|A)表示規則的結論B在前提A為真的情況下為真的信度。 例如, 對上節中給出的兩個不確定性命題, 若采用(8-1)式, 則可表示為
如果烏雲密布並且電閃雷鳴, 則天要下暴雨(0.95)。 如果頭痛發燒, 則患了感冒(0.8)。
這里的0.95和0.8就是對應規則結論的信度。它們代替了原命題中的“很可能”和“大概”, 可視為規則前提與結論之間的一種關系強度。
信度一般是基於概率的一種度量,或者就直接以概率作為信度。例如, 在著名的專家系統MYCIN中的信度就是基於概率而定義的, 而在貝葉斯網絡中就是直接以概率作為信度的。對於上面的(8-1)式, 要直接以概率作為信度則只需取C(B|A)=P(B|A)(P(B|A)為A真時B真的條件概率)即可。
基於不確定性知識的推理一般稱為不確定性推理。 由於不確定性推理是基於不確定性知識的推理, 因此其結果仍然是不確定性的。 但對於不確定性知識, 我們是用信度即量化不確定性的方法表示的(實際是把它變成確定性的了), 所以, 不確定性推理的結果仍然應含有信度。 這就是說, 在進行不確定性推理時, 除了要進行符號推演操作外, 還要進行信度計算, 因此不確定性推理的一般模式可簡單地表示為
不確定性推理=符號推演+信度計算
可以看出,不確定性推理與通常的確定性推理相比, 區別在於多了個信度計算過程。然而, 正是因為含有信度及其計算, 所以不確定性推理與通常的確定性推理就存在顯著差別。
(1) 不確定性推理中規則的前件要與證據事實匹配成功, 不但要求兩者的符號模式能夠匹配(合一), 而且要求證據事實所含的信度必須達“標”, 即必須達到一定的限度。這個限度一般稱為“閾值”。
(2) 不確定性推理中一個規則的觸發,不僅要求其前提能匹配成功,而且前提條件的總信度還必須至少達到閾值。
(3) 不確定性推理中所推得的結論是否有效, 也取決於其信度是否達到閾值。
(4) 不確定性推理還要求有一套關於信度的計算方法, 包括“與”關系的信度計算、“或”關系的信度計算、“非”關系的信度計算和推理結果信度的計算等等。 這些計算也就是在推理過程中要反復進行的計算。
總之, 不確定性推理要涉及信度、閾值以及信度的各種計算和傳播方法的定義和選取。 所有這些就構成了所謂的不確定性推理模型。
處理不確定性問題的主要數學工具:
概率論
模糊數學
概率論與模糊數學所研究和處理的是兩種不同的不確定性。
概率論研究和處理隨機現象,事件本身有明確的含義,只是由於條件不充分,使得在條件和事件之間不能出現決定性的因果關系(隨機性)。
模糊數學研究和處理模糊現象,概念本身就沒有明確的外延,一個對象是否符合這個概念是難以確定的 (屬於模糊的)。
無論采用什么數學工具和模型,都需要對規則和證據的不確定性給出度量。
3、不確切性知識的表示及推理
關於不確切性知識, 現在一般用模糊集合與模糊邏輯的理論和方法來處理。這種方法一般是用模糊集合給相關的概念或者說語言值(主要是軟概念或者軟語言值)建模。然而, 我們發現, 對於有些問題也可用程度化的方法來處理。本節就先簡單介紹這種程度化方法。
所謂程度就是一個命題中所描述事物的特征(包括屬性、 狀態或關系等)的強度。程度化方法就是給相關語言特征值(簡稱語言值)附一個稱為程度的參數, 以確切刻畫對象的特征。例如, 我們用
(胖, 0.9)
刻畫一個人“胖”的程度。
我們把這種附有程度的語言值稱為程度語言值。 其一般形式為
(LV, d)
其中, LV為語言值, d為程度, 即
(<語言值>, <程度>)
可以看出, 程度語言值實際是通常語言值的細化, 其中的<程度>一項是對對象所具有的屬性值的精確刻畫。 至於程度如何取值, 可因具體屬性和屬性值而定。例如可先確定一個標准對象, 規定其具有相關屬性值的程度為1, 然后再以此標准來確定其他對象所具有該屬性值的程度。這樣, 一般來說, 程度的取值范圍就是實數區間[α,β](α≤0,β≥1)。
1. 程度元組
一般形式如下:
(<對象>, <屬性>, (<語言屬性值>, <程度>))
例8.1 我們用程度元組將命題“這個蘋果比較甜”表示為
(這個蘋果, 味道, (甜, 0.95))
其中的0.95就代替“比較”而刻畫了蘋果“甜”的程度。
2. 程度謂詞
謂詞也就是語言值。按照前面程度語言值的做法, 我們給謂詞也附以程度, 即細化為程度謂詞, 以精確刻畫相應個體對象的特征。 根據謂詞的形式特點, 我們將程度謂詞書寫為
Pd 或 dP
其中, P表示謂詞, d表示程度; Pd為下標表示法, dP為乘法表示法。
例8.2 采用程度謂詞, 則
(1) 命題“雪是白的”可表示為
white1.0(雪) 或 1.0white(雪)
(2) 命題“張三和李四是好朋友”可表示為
friends1.15(張三, 李四) 或 1.15 friends(張三, 李四)
3. 程度框架
含有程度語言值的框架稱為程度框架。
例8.3 下面是一個描述大棗的程度框架。
框架名: <大棗> 類屬: (<干果>, 0.8) 形狀: (圓, 0.7) 顏色: (紅, 1.0) 味道: (甘, 1.1) 用途: 范圍: (食用, 葯用) 缺省: 食用
4. 程度語義網
含有程度語言值的語義網稱為程度語義網。
例8.4 圖8-1所示是一個描述狗的程度語義網。 
5. 程度規則
含有程度語言值的規則稱為程度規則。 其一般形式為 
其中,Oi, O表示對象,Fi, F表示特征,LVi, LV表示語言特征值,x, D(x1, x2,…, xn )表示程度,D(x1, x2,…, xn )為x1, x2,…, xn 的函數。我們稱其為規則的程度函數。
例8.5 設有規則: 如果某人鼻塞、 頭疼並且發高燒,則該人患了重感冒。 我們用程度規則描述如下:
(某人, 症狀, (鼻塞,x))∧(某人,症狀,(頭疼, y))∧(患者, 症狀, (發燒,z))→(該人, 患病, (感冒, 1.2(0.3x+0.2y+0.5z)))
程度規則的關鍵是程度函數。 一個基本的方法就是采用機器學習(如神經網絡學習)。 這需要事先給出一些含有具體程度值的實例規則, 學習作為樣本。
由上述程度化知識表示方法可以看出, 基於這種知識表示的推理, 同一般的確切推理相比,多了一個程度計算的手續。 就是說, 推理時, 除了要進行符號推演操作外, 還要進行程度計算。 我們稱這種附有程度計算的推理為程度推理。程度推理的一般模式為
程度推理=符號推演+程度計算
這一模式類似於前面的信度推理模式。所以,程度推理也應該有程度閾值,從而在推理過程中, 規則的前件要與證據事實匹配成功, 不但要求兩者的符號模式能夠匹配(合一), 而且要求證據事實所含的程度必須達到閾值; 所推得的結論是否有效, 也取決於其程度是否達到閾值。
需要指出的是, 程度語言值中的程度也可以轉化為命題的真度。 例如, 我們可以把命題“小明個子比較高”用程度元組表示為
(小明, 身高, (高, 0.9))
這里的0.9是小明高的程度。 但也可以表示為
((小明, 身高, 高), 真實性, (真, 0.9))
這里的0.9是命題“小明個子高”的真實程度, 即真度。這樣, 我們就把小明的個子高的程度, 轉化為命題“小明個子高”的真度, 而且二者在數值上是相等的。
4、多值邏輯
我們知道,人們通常所使用的邏輯是二值邏輯。即對一個命題來說, 它必須是非真即假,反之亦然。但現實中一句話的真假卻並非一定如此, 而可能是半真半假, 或不真不假,或者真假一時還不能確定等等。這樣, 僅靠二值邏輯有些事情就無法處理,有些推理就無法進行。於是, 人們就提出了三值邏輯、 四值邏輯、多值邏輯乃至無窮值邏輯。例如, 模糊邏輯就是一種無窮值邏輯。下面我們介紹一種三值邏輯, 稱為Kleene三值邏輯。
在這種三值邏輯中, 命題的真值, 除了“真”、 “假”外, 還可以是“不能判定”。 其邏輯運算定義如下: 
其中的第三個真值U的語義為“不可判定”,即不知道。顯然, 遵循這種邏輯,就可在證據不完全不充分的情況下進行推理。
5、非單調邏輯
所謂“單調”,是指一個邏輯系統中的定理隨着推理的進行而總是遞增的。那么,非單調就是邏輯系統中的定理隨着推理的進行而並非總是遞增的, 就是說也可能有時要減少。傳統的邏輯系統都是單調邏輯。但事實上,現實世界卻是非單調的。例如,人們在對某事物的信息和知識不足的情況下,往往是先按假設或默認的情況進行處理, 但后來發現得到了錯誤的或者矛盾的結果, 則就又要撤消原來的假設以及由此得到的一切結論。這種例子不論在日常生活中還是在科學研究中都是屢見不鮮的。這就說明,人工智能系統中就必須引入非單調邏輯。
在非單調邏輯中, 若由某假設出發進行的推理中一旦出現不一致, 即出現與假設矛盾的命題, 那么允許撤消原來的假設及由它推出的全部結論。基於非單調邏輯的推理稱為非單調邏輯推理, 或非單調推理。
非單調推理至少在以下場合適用:
(1) 在問題求解之前, 因信息缺乏先作一些臨時假設, 而在問題求解過程中根據實際情況再對假設進行修正。
(2) 非完全知識庫。隨着知識的不斷獲取, 知識數目漸增,則可能出現非單調現象。例如, 設初始知識庫有規則:
∀x(bird(x)→fly(x))
即“所有的鳥都能飛”。 后來得到了事實:
bird(ostrich)
即“駝鳥是一種鳥”。如果再將這條知識加入知識庫則就出現了矛盾, 因為駝鳥不會飛。這就需要對原來的知識進行修改。
(3) 動態變化的知識庫。常見的非單調推理有缺省推理(reasoning by default )和界限推理。由於篇幅所限, 這兩種推理不再詳細介紹, 有興趣的讀者可參閱有關專著。
6、時序邏輯
對於時變性, 人們提出了時序邏輯。時序邏輯也稱時態邏輯, 它將時間詞(稱為時態算子, 如“過去”, “將來”, “有時”, “一直”等)或時間參數引入邏輯表達式, 使其在不同的時間有不同的真值。從而可描述和解決時變性問題。 時序邏輯在程序規范(specifications)、程序驗證以及程序語義形式化方面有重要應用, 因而它現已成為計算機和人工智能科學理論的一個重要研究課題。
二、幾種經典的不確定性推理模型
1、確定性理論
確定性理論是肖特里菲(E.H.Shortliffe)等於1975年提出的一種不精確推理模型,它在專家系統MYCIN中得到了應用。
a. 不確定性度量
CF(Certainty Factor), 稱為確定性因子, (一般亦稱可信度), 其定義為 
其中, E表示規則的前提, H表示規則的結論, P(H)是H的先驗概率, P(H|E)是E為真時H為真的條件概率。
這個可信度的表達式是什么意思呢?原來, CF是由稱為信任增長度MB和不信任增長度MD相減而來的。 即

而

下面是MYCIN中的一條規則:
如果 細菌的染色斑呈革蘭氏陽性, 且 形狀為球狀,且 生長結構為鏈形, 則 該細菌是鏈球菌(0.7)。
這里的0.7就是規則結論的CF值。
最后需說明的是, 一個命題的信度可由有關統計規律、 概率計算或由專家憑經驗主觀給出。
當已知P(H), P(H/E),運用上述公式可以求CF(H/E)。但是,在實際應用中, P(H)和P(H/E) 的值是難以獲得的。
因此,CF(H,E) 的值要求領域專家直接給出。其原則是:
若由於相應證據的出現增加結論 H 為真的可信度,則使CF(H,E)>0,證據的出現越是支持 H 為真,就使CF(H,E)的值越大;
反之,使CF(H,E)<0,證據的出現越是支持 H 為假,就使CF(H,E)的值越小;
若證據的出現與否與 H 無關,則使 CF(H,E)=0。
2. 前提證據事實總CF值計算

其中E1,E2,…,En是與規則前提各條件匹配的事實。
3.推理結論CF值計算

其中E是與規則前提對應的各事實,CF(H,E)是規則中結論的可信度,即規則強度。
當CF(E)<0時,CF(H)=0,說明該模型中沒有考慮證據為假時對結論H所產生的影響。
4. 重復結論的CF值計算
若同一結論H分別被不同的兩條規則推出, 而得到兩個可信度CF(H)1和CF(H)2, 則最終的CF(H)為 
例8.6 設有如下一組產生式規則和證據事實,試用確定性理論求出由每一個規則推出的結論及其可信度。
規則:
①if A then B(0.9)
②if B and C then D(0.8)
③if A and C then D(0.7)
④if B or D then E(0.6)
事實:
A,CF(A)=0.8; C,CF(C)=0.9
解
規則①得:CF(B)=0.9×0.8=0.72 由規則②得:CF(D)1=0.8×min{0.72,0.9)=0.8×0.72=0.576 由規則③得:CF(D)2=0.7×min{0.8,0.9)=0.7×0.8=0.56 從而 CF(D)=CF(D)1+CF(D)2-CF(D)1×CF(D)2=0.576+0.56-0.576×0.56=0.32256 由規則④得: CF(E)=0.6×max{0.72,0.32256}=0.6×0.72=0.432
2、主觀貝葉斯方法
主觀貝葉斯方法是R.O.Duda等人於1976年提出的一種不確定性推理模型, 並成功地應用於地質勘探專家系統PROSPECTOR。主觀貝葉斯方法是以概率統計理論為基礎, 將貝葉斯(Bayesian)公式與專家及用戶的主觀經驗相結合而建立的一種不確定性推理模型。
a. 不確定性度量
主觀貝葉斯方法的不確定性度量為概率P(x),另外還有三個輔助度量: LS,LN和O(x),分別稱充分似然性因子、必要似然性因子和幾率函數。
在PROSPECTOR中, 規則一般表示為

或者圖示為

其中, E為前提(稱為證據); H為結論(稱為假設); P(H)為H為真的先驗概率;LS, LN分別為充分似然性因子和必要似然性因子, 其定義為 

前者刻畫E為真時對H的影響程度,后者刻畫E為假時對H的影響程度。 另外, 幾率函數O(x)的定義為
它反映了一個命題為真的概率(或假設的似然性(likelihood))與其否定命題為真的概率之比, 其取值范圍為[0, +∞]。
下面我們介紹LS, LN的來歷並討論其取值范圍和意義。由概率論中的貝葉斯公式 
有
兩式相除得

即 
亦即

從而

由此式不難看出:
LS>1 當且僅當O(H|E)>O(H), 說明E以某種程度支持H;
LS<1 當且僅當O(H|E)<O(H), 說明E以某種程度不支持H;
LS=1 當且僅當O(H|E)=O(H), 說明E對H無影響。
將上面貝葉斯公式中E的換為

用類似的過程即可得到 
進而有

由此式不難看出: 

需說明的是,在概率論中, 一個事件的概率是在統計數據的基礎上計算出來的, 這通常需要大量的統計工作。為了避免大量的統計工作, 在主觀貝葉斯方法中,一個命題的概率可由領域專家根據經驗直接給出, 這種概率稱為主觀概率。 推理網絡中每個陳述H的先驗概率P(H)都是由專家直接給出的主觀概率。同時, 推理網絡中每條規則的LS、LN也需由專家指定。這就是說, 雖然前面已有LS、LN的計算公式, 但實際上領域專家並不一定真按公式計算規則的LS、LN, 而往往是憑經驗給出。所以, 領域專家根據經驗所提供的LS、LN通常不滿足這一理論上的限制, 它們常常在承認E支持H(即LS>1)的同時卻否認E反對H(即LN<1)。例如PROSPECTOR中有規則 
說明專家認為:當CVR為真時,它支持FLE為真;但當CVR為假時, FLE的成立與否與CVR無關。 而按理論限制應有LS=800>1時, LN<1。這種主觀概率與理論值不一致的情況稱為主觀概率不一致。 當出現這種情況時,並不是要求專家修改他提供的LS、 LN使之與理論模型一致(這樣做通常比較困難), 而是使似然推理模型符合專家的意願。
b. 推理中后驗概率的計算
推理中后驗概率的計算有以下幾個公式: 
這是當證據E肯定存在即為真時,求假設H的后驗概率的計算公式。其中的LS和P(H)由專家主觀給出。 
這是當證據E肯定不存在即為假時,求假設H的后驗概率的計算公式。其中的LN和P(H)由專家主觀給出。
由上面介紹的LS, LN的來歷, 有 
由此式即可推得公式(8-11)。 類似地也可得到公式(8-12)。 
這是當證據E自身也不確定時, 求假設H的后驗概率的計算公式。其中的S為與E有關的觀察,即能夠影響E的事件。公式(8-13)是一個線性插值函數, 其中P(H|[E),P(H|E), P(E), P(H)為公式中的已知值(前兩個由公式(8-11)、(8-12)計算而得, 后兩個由專家直接給出); P(E|S)為公式中的變量(其值由用戶給出或由前一個規則S→E求得)。這個插值函數的幾何解釋如圖8-2所示。 
由公式(8-13)和圖8-2可以看出, 當證據E自身也不確定時, 假設H的后驗概率是通過已知的,P(H|[E), P(E),P(H)和用戶給出的概率P(E|S)或前一個規則S→E的中間結果而計算的。這也就是把原來的后驗概率P(H|E)用后驗概率P(H|S)來代替了。 這相當於把S對E的影響沿規則的弧傳給了H。
公式(8-13)是這樣得來的: 起初, Duda等人證明了在某種合理的假定下, P(H|S)是P(E|S)的線性函數, 並且滿足: 
但由於P(E), P(H)都是專家給出的主觀概率, 它們常常是不一致的, 因此當P(E|S)=P(E)時, 按線性函數計算出的理論值P(H|S)=Pc(H)通常並不是專家給出的先驗概率P(H)。當P(E)<P(E|S)<Pc(E)時, 按專家的意圖應有P(H|S)>P(H), 但按線性函數計算卻是P(H|S)<P(H), 這與專家本意相矛盾。為了解決這一問題, 就采用了上述分段線性插值函數計算P(H|S)。
c. 多證據的總概率合成
對於多條件前提的規則,應用公式(8-11)、(8-12)、(8-13)求結論的后驗概率時,先要計算與其前提中對應證據事實的總概率。假設已知P(E1|S),P(E2|S), …,P(En|S), 並且諸Ei是相互獨立的, 則由概率的加法公式和乘法公式應有: 
但一條規則的前提中各條件Ei之間通常不滿足獨立要求,因此用這兩個公式計算出的后驗概率往往偏高或偏低。所以,主觀貝葉斯方法中采用了如下公式: 
另外, 根據全概率公式有 

d. 相同結論的后驗概率合成
設推理網絡中有多條以H為結論的規則: 
如果有證據E1,E2,…,En相互獨立,它們的觀察依次為S1,S2,…, Sn, 則這種情況下H的后驗概率可視為在E1, E2, …, En的綜合作用下的后驗概率。
其求法是先用式(8-11)、(8-12)、(8-13)式分別求出在單個證據Ei的作用下H的后驗概率P(H|Si)(1≤i≤n), 再利用公式(8-10)把概率P(H)和P(H|Si)轉換為幾率O(H)和O(H|Si), 或者直接運用公式 
得到幾率O(H|Si); 然后用下面的公式 
來計算H的綜合后驗幾率O(H|S1∧S2∧…∧Sn);最后再用公式。 
將O(H|S1∧S2∧…∧Sn)轉換為后驗概率P(H|S1∧S2∧…∧Sn)。
e. 推理舉例
例8.7 設有規則if E1 then (100, 0.01) H1 (P(H1)=0.6),並已知證據E1肯定存在,求H1的后驗概率P(H1| E1)。
解 由於證據E1肯定存在,因此可用公式(8-11)計算P(H1| E1)。於是有 
例8.8 設有規則if E1 then (100, 0.01) H1 (P(H1)=0.6),並已知證據E1肯定不存在,求H1的后驗概率P(H1|﹃E1)。
解 由於證據E1肯定不存在,因此可用公式(8-12)計算P(H1|E1)。於是有 
例8.9 設有規則if E1 then (100, 0.01) H1 (P(H1)=0.6),並已知證據E1不確定,但P(E1| S1)=0.7,S1為影響E1的觀察或條件,而E1的先驗概率P(E1)=0.5,求H1的后驗概率P(H1| E1)。
解 由於證據E1不確定,因此要用插值公式(8-13)計算P(H1|E1)。
又由於 
所以應采用公式

即

其中P(H1 )、P(E1)已知,還需要計算E1肯定存在的情況下的P(H1| E1),我們直接采用前面例1的結果,於是有 
例8.10 設有規則

已知證據E1和E2必然發生,並且P(H)=0.04,求H的后驗概率P(H| E1 E2)。
解 由P(H)=0.04,有 
由R1有
由R2有

於是

從而

主觀貝葉斯方法的特點
主要優點:
• 其計算公式大多是在概率論的基礎上推導出來的,具有較堅實理論基礎;
• 知識的靜態強度LS、LN 由領域專家根據實際經驗得到,避免了大量的數據統計工作;
• 給出了在證據不確定情況下更新先驗概率為后驗概率的方法,且從推理過程中看,確實是實現了不確定性的傳遞.
主要缺點:
• 它要求領域專家在給出知識時,同時給出 H 的先驗概率,這是比較困難的。
• Bayes定理中要求事件間相互獨立,限制了該方法的應用。
3、證據理論
20世紀60年代Dempster把證據的信任函數與概率的上下值相聯系,從而提供了一個構造不確定性推理模型的一般框架。
20世紀70年代中期,Shafer對Dempster的理論進行了擴充,在此基礎上形成了處理不確定信息的證據理論,出版了《證據的數學理論》。
證據理論又稱Dempster-Shafer理論(D-S理論)或信任函數理論。是經典概率論的一種擴充形式。
證據理論能充分區分“不確定”和“不知道”的差異,並能處理由“不知道”引起的“不確定”性,具有較大的靈活性。
a. 基本概念
1) 識別框架
識別框架就是所考察判斷的事物或對象的集合,記為Ω。 例如下面的集合都是識別框架:
Ω1={晴天,多雲,刮風,下雨} Ω2={感冒,支氣管炎,鼻炎} Ω3={紅,黃,藍} Ω4={80,90,100}
識別框架的子集就構成求解問題的各種解答。 這些子集也都可以表示為命題。證據理論就是通過定義在這些子集上的幾種信度函數, 來計算識別框架中諸子集為真的可信度。 例如, 在醫療診斷中, 病人的所有可能的疾病集合構成識別框架, 證據理論就從該病人的種種症狀出發, 計算病人患某類疾病(含多種病症並發)的可信程度。
2) 基本概率分配函數
定義4給定識別框架Ω,A∈2Ω,稱m(A):2Ω→[0,1]是2Ω上的一個基本概率分配函數(Function of Basic Probability Assignment),若它滿足

例8.11 設Ω={a,b,c},其基本概率分配函數為
m({a})=0.4
m({a,b})=0
m({a,c})=0.4
m({a,b,c})=0.2
m({b})=0
m({b,c})=0
m({c})=0
可以看出,基本概率分配函數之值並非概率。如
m({a})+m({b})+m({c})=0.4≠1
3.信任函數

稱為2Ω上的信任函數(Function of Belief)。
信任函數表示對A為真的信任程度。所以,它就是證據理論的信度函數。信任函數也稱為下限函數。
可以證明,信任函數有如下性質:
(1)Bel(Φ)=0,Bel(Ω)=1,且對於2Ω中的任意元素A,有0≤Bel(A)≤1。
(2)信任函數為遞增函數。即若 A1⊆A2⊆Ω,則Bel(A1)≤Bel(A2)。
(3)Bel(A)+Bel(A′)≤1 (A′為A的補集)
例8.12 由例8.11可知
Bel({a,b})=m({a})+m({b})+m({a,b})=0.4+0+0=0.4
4)似真函數
定義3 Pl(A)=1-Bel(A′)(A∈2Ω,A′為A的補集)稱為A的似真函數(Plausible function),函數值稱為似真度。
似真函數又稱為上限函數,它表示對A非假的信任程度。
例8.13 由例8.11、例8.12可知
Pl({a,b})=1-Bel({a,b}′)=1-({c})=1-0=1
5) 信任區間
定義4 設Bel(A)和Pl(A)分別表示A的信任度和似真度, 稱二元組
[Bel(A), Pl(A)]
為A的一個信任區間。
信任區間刻划了對A所持信任程度的上下限。 如:
(1)[1, 1]表示A為真(Bel(A)=Pl(A)=1)。
(2)[0, 0]表示A為假(Bel(A)=Pl(A)=0)。
(3)[0, 1]表示對A完全無知。因為Bel(A)=0, 說明對A不信任; 而Bel(A′) =1-Pl(A)=0, 說明對A′也不信任。
(4)[1/2, 1/2]表示A是否為真是完全不確定的。
(5)[0.25, 0.85]表示對A為真信任的程度為0.25;由 Bel(A)=1-0.85=0.15表示對A′也有一定程度的信任。
由上面的討論, Pl(A)-Bel(A)表示對A不知道的程度, 即既非對A 信任又非不信任的那部分。
似真函數Pl具有下述性質:

這里, 性質(1)指出似真函數也可以由基本概率分配函數構造, 性質(2)指出A 的似真度與A′的似真度之和不小於1, 性質(3)指出A的似真度一定不小於A的信任度。
6)Dempster 組合規則
1) 基本的組合規則。設m1(A)和m2(A)(A∈2Ω)是識別框架Ω基於不同證據的兩個基本概率分配函數,則將二者可按下面的 Dempster組合規則合並:
該表達式一般稱為m1與m2的正交和,並記為m=m1 ⊕ m2。不難證明,組合后的m(A)滿足
例8.14 設識別框架Ω={a,b,c},若基於兩組不同證據而導出的基本概率分配函數分別為:
m1({a})=0.4
m1({a,c})=0.4
m1({a,b,c})=0.2
m2({a})=0.6
m2({a,b,c})=0.4
將m1和m2合並
=m1({a})m2({a})+m1({a})m2({a,b,c})+m1({a,c})m2({a}) +m1({a,b,c})m2({a})=0.76
m({a,c})=m1({a,c})m2({a,b,c})=0.16
m({a,b,c})=m1({a,b,c})m2({a,b,c})=0.08
2) 含沖突修正的組合規則
上述組合規則在某些情況下會有問題。考察兩個不同的基本概率分配函數m1和m2,若存在集合B、C,B∩C=Φ,且m1(A)>0,m2(B)>0,這時使用 Dempster組合規則將導出
這與概率分配函數的定義沖突。這時,需將Dempster 組合規則進行如下修正:
其中K為規范數,且
規范數K的引入,實際上是把空集所丟棄的正交和按比例地補到非空集上,使m(A)仍然滿足
如果所有交集均為空集,則出現K=∞,顯然,Dempster組合規則在這種情況下將失去意義。
b. 基於證據理論的不確定性推理
基於證據理論的不確定性推理,大體可分為以下步驟:
(1)建立問題的識別框架Ω;
(2)給冪集2Ω定義基本概率分配函數;
(3)計算所關心的子集A∈2Ω(即Ω的子集)的信任函數值Bel(A)、似真函數值Pl(A);
(4)由Bel(A)、Pl(A)得出結論。
例8.15
設有規則:
(1)如果 流鼻涕 則 感冒但非過敏性鼻炎(0.9)或過敏性鼻炎但非感冒(0.1) (2)如果 眼發炎 則 感冒但非過敏性鼻炎(0.8)或過敏性鼻炎但非感冒(0.05)括號中的數字表示規則前提對結論的支持程度。
又有事實:
小王流鼻涕(0.9) 小王眼發炎(0.4)
括號中的數字表示事實的可信程度。
問:小明患了什么病?
我們用證據理論求解這一醫療診斷問題。
首先, 取識別框架
Ω={h1,h2,h3}
其中,h1表示“感冒但非過敏性鼻炎”,h2表示“過敏性鼻炎但非感冒”,h3表示“同時得了兩種病”。
再取下面的基本概率分配函數:
m1({h1})=規則前提事實可信度×規則結論可信度 =0.9×0.9=0.81
m1({h2})=0.9×0.1=0.09
m1({h1,h2,h3})=1- m1({h1})- m1({h2})=1-0.81-0.09=0.1 m1(A)=0 (A為Ω的其他子集)
m2({h1})=0.4×0.8=0.32
m2({h2})=0.4×0.05=0.02
m2({h1,h2,h3})=1-m2({h1})-m2({h2})=1-0.32-0.02=0.66
m2(A)=0 (A為Ω的其他子集)
將兩個概率分配函數合並
K=1/{1-[m1({h1})m2({h2})+m1({h2})m2({h1})]}
=1/{1-[0.81×0.02+0.09×0.32]} =1/{1-0.045}
=1/0.955
=1.05
m({h1})=K·[m1({h1})m2({h1})+m1({h1})m2({h1,h2,h3} +m1({h1,h2,h3})m2({h1})]
=1.05×0.8258=0.87
m({h2})=K·[m1({h2})m2({h2})+m1({h2})m2({h1,h2,h3} +m1({h1,h2,h3})m2({h2})]
=1.05×0.0632=0.066
m({h1,h2,h3})=1-m({h1})-m({h2})
=1-0.87-0.066=0.064
由信任函數求信任度
Bel({h1})=m({h1})=0.87
Bel({h2})=m({h2})=0.066
由似真函數求似真度
Pl({h1})=1-Bel({h1}′)=1-Bel({h2,h3})
=1-[m({h2}+m({h3})
=1-[0.066+0]=0.934
Pl({h2})=1-Bel({h2}′)=1-Bel({h1,h3})
=1-[m({h1})+m({h3})]
=1-[0.87+0]=0.13
於是,最后得到:
“感冒但非過敏性鼻炎”為真的信任度為0.87,非假的信任度為0.934;
“過敏性鼻炎但非感冒”為真的信任度為0.066,非假的信任度為0.13。
所以,看來該患者是感冒了。
證據理論是被推崇的處理隨機性不確定性的好方法,受到人工智能特別是專家系統領域的廣泛重視,並且已為許多專家系統所采用。
三、基於貝葉斯網絡的概率推理
1、什么是貝葉斯網絡
貝葉斯網絡是一種以隨機變量為節點, 以條件概率為節點間關系強度的有向無環圖(Directed Acyclic Graph, DAG)。 具體來講就是, 貝葉斯網絡的拓撲結構為一個不含回路的有向圖, 圖中的節點表示隨機變量, 有向邊描述了相關節點或變量之間的某種依賴關系, 而且每個節點附一個條件概率表(Condition Probability Table, CPT), 以刻畫相關節點對該節點的影響, 條件概率可視為節點之間的關系強度。 有向邊的發出端節點稱為因節點(或父節點), 指向端節點稱為果節點(或子節點)。
例如, 圖8-3就是一個貝葉斯網絡。其中A, B, C, D, E, F為隨機變量; 5條有向邊描述了相關節點或變量之間的關系; 每個節點的條件概率表如表1~表6所示。 

貝葉斯網絡中的節點一般可代表事件、對象、屬性或狀態; 有向邊一般表示節點間的因果關系。 貝葉斯網絡也稱因果網絡(causal network)、 信念網絡(belief network)、概率網絡(probability network)、 知識圖(knowledge map)等。 它是描述事物之間因果關系或依賴關系的一種直觀圖形。所以, 貝葉斯網絡可作為一種不確定性知識的表示形式和方法。
2、用貝葉斯網絡表示不確定性知識
下面我們舉例說明如何用貝葉斯網絡表示不確定性知識。
醫學告訴我們: 吸煙可能會患氣管炎; 感冒也會引起氣管發炎, 並還有發燒、頭痛等症狀; 氣管炎又會有咳嗽或氣喘等症狀。我們把這些知識表示為一個貝葉斯網絡(如圖8 -4所示)。 
為了便於敘述, 我們將吸煙、感冒、氣管炎、咳嗽、氣喘分別記為: S, C, T, O, A。並將這幾個變量的條件概率表用下面的概率表達式表示:
P(S)=0.4,P(¬S)=0.6; P(C)=0.8,P(¬C)=0.2; P(T | S, C)=0.35,P(T | ¬S, C)=0.25,P(T | S, ¬C)=0.011,P(T | ¬S, ¬C)=0.002; P(O | T)=0.85,P(O | ¬T)=0.15; P(A | T)=0.50,P(A | ¬T)=0.10。
3、基於貝葉斯網絡的概率推理
根據貝葉斯網絡的結構特征和語義特征, 對於網絡中的一些已知節點(稱為證據變量), 利用這種概率網絡就可以推算出網絡中另外一些節點(稱為查詢變量)的概率, 即實現概率推理。 具體來講, 基於貝葉斯網絡可以進行因果推理、 診斷推理、 辯解和混合推理。
這幾種概率推理過程將涉及到聯合概率(即乘法公式)和條件獨立關系等概念。
聯合概率:設一個貝葉斯網絡中全體變量的集合為X={x1, x2, …, xn}, 則這些變量的聯合概率為 
條件獨立: 貝葉斯網絡中任一節點與它的非祖先節點和非后代節點都是條件獨立的。
下面我們就以圖8-4所示的貝葉斯網絡為例, 介紹因果推理和診斷推理的一般方法。
a. 因果推理
因果推理就是由原因到結果的推理, 即已知網絡中的祖先節點而計算后代節點的條件概率。這種推理是一種自上而下的推理。
以圖8-4所示的貝葉斯網絡為例, 假設已知某人吸煙(S), 計算他患氣管炎(T)的概率P(T|S)。首先, 由於T還有另一個因節點──感冒(C), 因此我們可以對概率P(T|S)進行擴展, 得 
這是兩個聯合概率的和。意思是因吸煙而得氣管炎的概率P(T|S)等於因吸煙而得氣管炎且患感冒的概率P(T, C|S)與因吸煙而得氣管炎且未患感冒的概率P(T, ¬ C|S)之和。
接着,對(8-22)式中的第一項P(T, C | S)作如下變形:
P(T, C | S)= P(T, C, S)/ P(S) (對P(T, C | S)逆向使用概率的乘法公式)
= P(T | C, S)P(C, S)/ P(S) (對P(T, C, S)使用乘法公式)
= P(T | C, S)P(C | S) (對P(C, S)/ P(S)使用乘法公式)
= P(T | C, S)P(C) (因為C與S條件獨立)
同理可得(8-22)式中的第二項
P(T, ¬C | S)= P(T | ¬C, S)P(¬C)
於是
可以看出, 這個等式右端的概率值在圖8-4中的CPT中已給出, 即都為已知。 現在, 將這些概率值代入(8-23)式右端便得
P(T | S) =0.350.8+0.0110.2=0.2822
由這個例子我們給出因果推理的一個種思路和方法:
(1) 首先, 對於所求的詢問節點的條件概率,用所給證據節點和詢問節點的所有因節點的聯合概率進行重新表達。
(2) 然后, 對所得表達式進行適當變形, 直到其中的所有概率值都可以從問題貝葉斯網絡的CPT中得到。
(3) 最后, 將相關概率值代入概率表達式進行計算即得所求詢問節點的條件概率。
b. 診斷推理
診斷推理就是由結果到原因的推理, 即已知網絡中的后代節點而計算祖先節點的條件概率。這種推理是一種自下而上的推理。
診斷推理的一般思路和方法是,先利用貝葉斯公式將診斷推理問題轉化為因果推理問題; 再用因果推理的結果, 導出診斷推理的結果。
我們仍以圖8-4所示的貝葉斯網絡為例, 介紹診斷推理。 假設已知某人患了氣管炎(T), 計算他吸煙(S)的后驗概率P(S|T)。
由貝葉斯公式, 有 
由上面的因果推理知,
P(T | S) = P(T, C | S) + P(T, ¬C | S)
=P(T | C, S)P(C)+ P(T | ¬C, S)P(¬C)
=0.350.8+0.0110.2 (諸概率由圖8-4的條件概率表得)
=0.2822
又
P(S)=0.6 (由圖8-4的條件概率表)
從而
同理, 由因果推理方法有
P(T | ¬S) = P(T, C | ¬S) + P(T, ¬C | ¬S)
= P(T | C, ¬S)P(C)+ P(T | ¬C, ¬S)P(¬C)
=0.250.8+0.0020.2 (諸概率由圖8-4的條件概率表得)
=0.2004
P(T | ¬S) = P(T, C | ¬S) + P(T, ¬C | ¬S)
= P(T | C, ¬S)P(C)+ P(T | ¬C, ¬S)P(¬C)
=0.250.8+0.0020.2 (諸概率由圖8-4的條件概率表得)
=0.2004
從而
因為
P(S|T)+P(﹁S|T)=1
所以

解之得
P(T) =0.970 82
於是
即該人的氣管炎是由吸煙導致的概率為0.174 409 2。
由上所述可以看出, 基於貝葉斯網絡結構和條件概率, 我們不僅可以由祖先節點推算出后代節點的后驗概率, 更重要的是利用貝葉斯公式還可以通過后代節點的概率反向推算出祖先節點的后驗概率。 這正是稱這種因果網絡為貝葉斯網絡的原因, 這也是貝葉斯網絡的優越之處。 因為通過后代節點的概率反向推算出祖先節點的后驗概率要用貝葉斯公式, 所以這種概率推理就稱為基於貝葉斯網絡的不確定性推理。
貝葉斯網絡的建造涉及其拓撲結構和條件概率, 因此是一個比較復雜和困難的問題。一般需要知識工程師和領域專家的共同參與, 在實際中可能是反復交叉進行而不斷完善的。 現在, 人們也采用機器學習的方法來解決貝葉斯網絡的建造問題, 稱為貝葉斯網絡學習。
四、基於模糊集合與模糊邏輯的模糊推理
1、模糊集合
a. 模糊集合
定義1 設U是一個論域,U到區間[0, 1]的一個映射 
就確定了U的一個模糊子集A。映射μ稱為A的隸屬函數, 記為μA(u)。對於任意的u∈U, μA(u)∈[0, 1]稱為u屬於模糊子集A的程度, 簡稱隸屬度。
由定義, 模糊集合完全由其隸屬函數確定, 即一個模糊集合與其隸屬函數是等價的。
可以看出, 對於模糊集A,當U中的元素u的隸屬度全為0時, 則A就是個空集;反之,當全為1時,A就是全集U;當僅取0和1時, A就是普通子集。 這就是說,模糊子集實際是普通子集的推廣, 而普通子集就是模糊子集的特例。
論域U上的模糊集合A, 一般可記為
或

或

或

對於有限論域U, 甚至也可表示成

例8.16 設U={0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10}, 則
S1=0/0+0/1+0/2+0.1/3+0.2/4+0.3/5+0.5/6+0.7/7+0.9/8+1/9+1/10
S2=1/0+1/1+1/2+0.8/3+0.7/4+0.5/5+0.4/6+0.2/7+0/8+0/9+0/10
就是論域U的兩個模糊子集, 它們可分別表示U中“大數的集合”和“小數的集合”。
可以看出, 上面“大數的集合”和“小數的集合”實際上是用外延法描述了“大”和“小”兩個軟概念。這就是說, 模糊集可作為軟概念的數學模型。
例8.17 通常所說的“高個”、“矮個”、“中等個”就是三個關於身高的語言值。我們用模糊集合為它們建模。
取人類的身高范圍[1.0, 3.0]為論域U, 在U上定義隸屬函數μ矮(x)、μ中等(x)、μ高(x)如下(函數圖像如圖8-5所示)。 這三個隸屬函數就確定了U上的三個模糊集合,它們也就是相應三個語言值的數學模型。 



值得一提的是,模糊集合的隸屬函數定義至今沒有一個統一的方法和一般的形式,基本上是由人們主觀給出的。
b. 模糊關系
除了有些性質概念是模糊概念外,還存在不少模糊的關系概念。如“遠大於”、“基本相同”、“好朋友”等就是一些模糊關系。模糊關系也可以用模糊集合表示。下面我們就用模糊子集定義模糊關系。
定義2 集合U1,U2,…,Un的笛卡爾積集U1×U2×…×Un的一個模糊子集 ,稱為U1,U2,…,Un間的一個n元模糊關系。特別地,Un的一個模糊子集稱為U上的一個n元模糊關系。
例8.18 設U={1,2,3,4,5},U上的“遠大於”這個模糊關系可用模糊子集表示如下:
R遠大於=0.1/(1,2)+0.4/(1,3)+0.7/(1,4)+1/(1,5)+0.2/(2,3)+0.4/(2,4)+0.7/(2,5)+0.1/(3,4)+0.4/(3,5)+0.1/(4,5)
就像通常的關系可用矩陣表示一樣,模糊關系也可以用矩陣來表示。例如上面的“遠大於”用矩陣可表示如下:
表示模糊關系的矩陣一般稱為模糊矩陣
c. 模糊集合的運算
與普通集合一樣, 也可定義模糊集合的交、並、補運算。
定義3 設A、B是X的模糊子集, A、B的交集A∩B、並集A∪B和補集A′, 分別由下面的隸屬函數確定: 
2、模糊邏輯
模糊邏輯是研究模糊命題的邏輯。 設n元謂詞 
表示一個模糊命題。定義這個模糊命題的真值為其中對象x1, x2, …, xn對模糊集合P的隸屬度, 即 
此式把模糊命題的真值定義為一個區間[0, 1]中的一個實數。 那么,當一個命題的真值為0時, 它就是假命題;為1時,它就是真命題;為0和1之間的某個值時, 它就是有某種程度的真(又有某種程度的假)的模糊命題。
在上述真值定義的基礎上, 我們再定義三種邏輯運算: 
其中P和Q都是模糊命題。 這三種邏輯運算稱為模糊邏輯運算。由這三種模糊邏輯運算所建立的邏輯系統就是所謂的模糊邏輯。 可以看出, 模糊邏輯是傳統二值邏輯的一種推廣。
3、模糊推理
模糊推理是基於不確切性知識(模糊規則)的一種推理。 例如 
就是模糊推理所要解決的問題。
模糊推理是一種近似推理, 一般采用Zadeh提出的語言變量、語言值、模糊集和模糊關系合成的方法進行推理。
a. 語言變量, 語言值
簡單來講, 語言變量就是我們通常所說的屬性名, 如“年紀”就是一個語言變量。語言值是指語言變量所取的值,如“老”、“中”、“青”就是語言變量年紀的三個語言值。
b. 用模糊(關系)集合表示模糊規則
可以看出, 模糊命題中描述事物屬性、狀態和關系的語詞, 就是這里的語言值。這些語言值許多都可用模糊集合表示。我們知道,一條規則實際是表達了前提中的語言值與結論中的語言值之間的對應關系(如上例中的規則就表示了語言值“小”與“大”的對應關系)。現在語言值又可用集合表示, 所以, 一條模糊規則實際就刻划了其前提中的模糊集與結論中的模糊集之間的一種對應關系。Zadeh認為, 這種對應關系是兩個集合間的一種模糊關系, 因而它也可以表示為模糊集合。於是, 一條模糊規則就轉換成了一個模糊集合。特別地, 對於有限集, 則就是一個模糊矩陣。
例如, 設有規則
如果x is A 那么 y is B
其中A、B是兩個語言值。那么,按Zadeh的觀點, A、B可表示為兩個模糊集(我們仍以A、B標記);這個規則表示了A、B之間的一種模糊關系R,R也可以表示為一個模糊集。於是, 有 
其中U、V分別為模糊集合A、B所屬的論域,μR(ui,vj) (i, j=1, 2, …)是元素(ui, vj) 對於R的隸屬度。
現在的問題是,怎樣求得隸屬度μR(ui,vj) (i, j=1,2, …)呢? 對此,Zadeh給出了好多種方法, 其中具代表性的一種方法為 
其中∧、 ∨分別代表取最小值和取最大值, 即min、max。
例如, 對於規則
如果 x小 那么 y大
令A、B分別表示“小”和“大”, 將它們表示成論域U、V上的模糊集, 設論域
U=V={1, 2, 3, 4, 5}
定義
A=1/1+0.8/2+0.5/3+0/4+0/5
B=0/1+0/2+0.5/3+0.8/4+1/5
則
從而

如果只取隸屬度, 且寫成矩陣形式, 則 
於是, 原自然語言規則就變成了一個數值集合(矩陣), 即 
c. 模糊關系合成
什么是模糊關系合成呢? 模糊關系合成也就是兩個模糊關系復合為一個模糊關系。用集合的話來講, 就是兩個集合合成為一個集合。 如果是兩個有限模糊集, 則其合成可以用矩陣運算來表示。下面就以有限模糊集為例,給出Zadeh的模糊關系合成法則。
設 

則

即,對R1第i行和R2第j列對應元素取最小,再對k個結果取最大, 所得結果就是R中第i行第j列處的元素。
例如:設 
則

用隸屬函數來表示, Zadeh的模糊關系合成法則就是下面的公式: 
d. 基於關系合成的模糊推理
同規則一樣, 證據事實也可表示成模糊矩陣(實際是向量)。 如, 把“比較小”表示為
A′=1/1+1/2+0.5/3+0.2/4+0/5
=(1, 1, 0.5, 0.2, 0)
現在, 就可通過模糊關系的合成運算進行模糊推理了。其模式是 
其中,B′就是所推的結論。當然, 它仍是一個模糊集合。 如果需要,可再將它翻譯為自然語言形式。
用隸屬函數表示, (8-25)式就是, 對於 ∀y∈V 
例8.19 現在我們就來解決本節開始提出的問題。即已知
(1) 如果x小,那么y大。
(2) x比較小。
問:y怎么樣?
解
如前所述, 由(1)得 
由(2)得
A′=(1, 1, 0.5, 0.2, 0)
從而
B′=A′·R=(0.5, 0.5, 0.5, 0.8, 1)
(R1第i行和R2第j列對應元素取最小,再對k個結果取最大, 所得結果就是R中第i行第j列處的元素。)
即
B′=0.5/1+0.5/2+0.5/3+0.8/4+1/5
可以解釋為: y比較大。
推理模式(8-25)是肯定前件的模糊推理。 同理, 可得否定后件的模糊推理: 
可以看出, 這一模式可解決下面的問題:
設已知
(1) 如果x小, 那么 y大。
(2) y比較大。
問: x怎么樣?
需說明的是,上面我們是把一條模糊規則表示為一個模糊關系(矩陣), 但實際問題中往往並非僅有一條規則,而是多條規則, 那該怎么辦呢?所幸的是對於多條規則用模糊關系的合成法則仍然可化為一個模糊關系(矩陣)。
e. 模糊推理的應用與發展
由上所述我們看到, 這種模糊推理實際是把推理變成了計算, 從而為不確定性推理開辟了一條新途徑。特別是這種模糊推理很適合於控制。 用模糊推理原理構造的控制器稱為模糊控制器。模糊控制器結構簡單,可用硬件芯片實現,造價低、 體積小,現已廣泛應用於控制領域。
事實上,自Zadeh1965年提出模糊集合的概念,特別是1974 年他又將模糊集引入推理領域開創了模糊推理技術以來, 模糊推理就成為一種重要的近似推理方法。特別是 20 世紀 90 年代初, 日本率先將模糊控制用於家用電器並取得成功, 引起了全世界的巨大反響和關注。之后, 歐美各國都競相在這一領域展開角逐。時至今日,模糊技術已向自動化、計算機、 人工智能等領域全面推進。 模糊推理機、模糊控制器、模糊芯片、模糊計算機……應有盡有, 模糊邏輯、模糊語言、模糊數據庫、模糊知識庫、模糊專家系統、模糊神經網絡……層出不窮。可以說, 模糊技術現在已成為與面向對象、神經網絡等並駕齊驅的高新技術之一。
如上所述的Zadeh給出的模糊推理方法, 一般稱為模糊推理的CRI (Compositional Rule of Inference)法。 可以看出, CRI 法的關鍵有兩步:一步是由模糊規則導出模糊關系矩陣R, 一步是模糊關系的合成運算。在第一步中, Zadeh給出的求R的公式,其依據是把模糊規則A→B作為明晰規則A→B的推廣,並且利用邏輯等價式
A→B=﹁A∨B=(﹁A∨B)∧(﹁A∨A) =A∧B∨﹁A
再運用他給出的模糊集合的交、並、補運算而得出來的。但仔細分析,不難看出, 這樣做是存在問題的。因為,規則前提模糊集與結論模糊集元素之間的關系應該是函數關系,而不是邏輯關系, 但這里是用邏輯關系來處理函數關系的。
正由於CRI方法缺乏堅實的理論依據, 所以常導致推理的失效。 為此, 包括Zadeh本人在內的許多學者, 都致力於模糊推理的理論和方法研究, 並提出了許許多多(不下數十種)的新方法。例如, Mandani推理法、TVR法、直接法、強度轉移法、模糊計算邏輯推理法等等, 其中也有我國學者的重要貢獻。但總的說來, 這些方法幾乎還都是在邏輯框架下提出的一些隸屬度變換或計算模型, 因而總存在這樣或那樣的問題或缺陷。因此, 模糊推理理論與技術仍然是人工智能中的重要課題。
我們認為,一個語言值規則A→B概括了論域U中一個子域上的局部函數關系y=fAB(x), 表示了二維空間U×V中塊點曲線Y=F(X)上的一個點(XA,YB),所以, 模糊推理實質是論域U上(模糊)大粒度函數的近似求值或空間U×V中(模糊)塊點曲線的點坐標近似計算。
