




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
2022/12/91第五章
不確定推理人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第1頁!2022/12/92前言【傳統邏輯的系統】“硬”計算要求使用確定的和精確的數據及知識;【解決實際問題】人的認識常常是不確定的或不精確的;模糊性;近似性;不能以簡單的真假邏輯加以表示;人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第2頁!2022/12/93前言不確定推理模仿人作近似而非嚴格推理的“軟”計算技術;不確定推理在確定性推理方法的基礎上發展起來使用不確定的和不精確的數據及知識;把指示確定性程度的數據附加到數據及知識;3種不確定推理方法(不同的確定性程度定義):5.3主觀Bayes方法5.4可信度方法5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第3頁!2022/12/94
5.1概述
知識的不確定性
智能主要反映在求解不確定性問題的能力上。推理是人類的思維過程,它是從已知事實出發,通過運用相關的知識逐步推出某個結論的過程。其中已知事實和知識是構成推理的兩個基本要素。已知事實(證據),用以指出推理的出發點及推理時應使用的知識;知識是推理得以向前推進,并逐步達到最終目標的依據。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第4頁!2022/12/95確定性推理是建立在經典邏輯基礎上的經典邏輯的基礎之一就是集合論這在很多實際情況中是很難做到的,如高、矮、胖、瘦就很難精確地分開。經典邏輯不適合用來處理不確定性。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第5頁!2022/12/965.1.2不確定推理要解決的基本問題由于證據和規則的不確定性,導致了所產生的結論的不確定性。不確定性推理反映了知識不確定性的動態積累和傳播過程,推理的每一步都需要綜合證據和規則的不確定因素,通過某種不確定性測度,尋找盡可能符合客觀實際的計算模式,通過不確定測度的傳遞計算,最終得到結果的不確定測度。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第6頁!2022/12/971.表示問題
表示問題指的是采用什么方法描述不確定性。通常有數值表示和非數值的語義表示方法。數值表示便于計算、比較;非數值表示,是一種定性的描述。在專家系統中的“不確定性”分為:規則的不確定性事實的不確定性人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第7頁!2022/12/982.計算問題計算問題主要指不確定性的傳播與更新,即獲得新信息的過程。它是在領域專家給出的規則強度和用戶給出的原始證據的不確定性的基礎上,定義一組函數,求出結論的不確定性度量。它主要包括如下三個方面:人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第8頁!2022/12/99(2)結論不確定性合成即已知由兩個獨立的證據E1和E2,求得的假設H的不確定性度量C1(H)和C2(H),求證據E1和E2的組合導致的假設H的不確定性C(H),即定義函數f2,使得:
C(H)=f2(C1(H),C2(H))人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第9頁!2022/12/910常用組合證據的不確定性的計算方法有3種。(a)最大最小法
C(E1∧E2)=min(C(E1),C(E2))C(E1∨E2)=max(C(E1),C(E2))(b)概率方法
C(E1∧E2)=C(E1)×C(E2)C(E1∨E2)=C(E1)+C(E2)-C(E1)×C(E2)(c)有界方法
C(E1∧E2)=max{0,C(E1)+C(E2)-1}C(E1∨E2)=min{1,C(E1)+C(E2)}人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第10頁!2022/12/911概率論研究和處理隨機現象,事件本身有明確的含義,只是由于條件不充分,使得在條件和事件之間不能出現決定性的因果關系(隨機性)。模糊數學研究和處理模糊現象,概念本身就沒有明確的外延,一個對象是否符合這個概念是難以確定的(屬于模糊的)。無論采用什么數學工具和模型,都需要對規則和證據的不確定性給出度量。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第11頁!2022/12/912對于一個專家系統,一旦給定了上述不確定性的表示、計算及其相關的解釋,就可以從最初的觀察證據出發,得出相應結論的不確定性程度。專家系統的不確定性推理模型指的就是證據和規則的不確定性的測度方法以及不確定性的組合計算模式。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第12頁!2022/12/913模型方法分為:數值方法
非數值方法數值方法,對不確定性的一種定量表示和處理方法。如概率方法(本章內容)如古典邏輯方法和非單調推理方法等人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第13頁!2022/12/914(1)主觀Bayes方法
(2)可信度方法
(3)證據理論PROSPECTOR專家系統中使用的不確定推理模型,是對Bayes公式修正后形成的一種不確定推理方法,為概率論在不確定推理中的應用提供了一條途徑。它是MYCIN專家系統中使用的不確定推理模型,它以確定性理論為基礎,方法簡單、易用。它通過定義信任函數、似然函數,把知道和不知道區別開來。這些函數滿足比概率函數的公理要弱的公理,因此,概率函數是信任函數的一個子集。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第14頁!2022/12/9155.3主觀Bayes方法處理不確定性的主要理論基礎:傳統概率論中的Bayes理論;人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第15頁!2022/12/9165.3主觀Bayes方法1、應用Bayes理論于不確定推理⑴后驗概率Bayes理論有以下條件概率公式★:其中:p(P)——前提P的先驗概率;p(Q)——結論Q的先驗概率;p(P/Q)——后驗概率結論Q成立時前提P成立的概率;后驗概率p(P/Q)比后驗概率p(Q/P)更容易獲取由等式①獲得后驗概率p(Q/P)
;1PQ人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第16頁!2022/12/9175.3主觀Bayes方法1、應用Bayes理論于不確定推理⑴后驗概率P——征兆(病癥),汽車輪子發出刺耳的噪聲;Q——原因(疾病),汽車剎車失調;后驗概率p(Q/P);征兆P原因Q先驗概率p(P)先驗概率p(Q)征兆原因p(P)=0.04p(Q)=0.05p(P/Q)=0.7=0.88人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第17頁!2022/12/9185.3主觀Bayes方法1、應用Bayes理論于不確定推理⑵主觀Bayes方法先驗概率p(P)比先驗概率p(Q)更難獲得;對Bayes理論進行改進,消去先驗概率p(P);人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第18頁!2022/12/9195.3主觀Bayes方法1、應用Bayes理論于不確定推理⑵主觀Bayes方法對Bayes理論進行改進,消去先驗概率p(P);21人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第19頁!2022/12/9205.3主觀Bayes方法1、應用Bayes理論于不確定推理⑵主觀Bayes方法對Bayes理論進行改進,消去先驗概率p(P);命題Q的后驗幾率O(Q/P)前提P成立情況下,Q成立的后驗概率p(Q/P)和Q不成立的后驗概率p(﹁Q/P)之比人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第20頁!2022/12/9215.3主觀Bayes方法1、應用Bayes理論于不確定推理⑵主觀Bayes方法對Bayes理論進行改進,消去先驗概率p(P);命題Q的先驗幾率O(Q);命題Q的后驗幾率O(Q/P);LS——推理規則PQ成立的充分性因子;表示P成立對Q成立的影響力;公式③稱為Bayes公式的幾率似然形式3人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第21頁!2022/12/9225.3主觀Bayes方法1、應用Bayes理論于不確定推理⑵主觀Bayes方法對Bayes理論進行改進,消去先驗概率p(P);LS——推理規則PQ成立的充分性因子;★LN——推理規則PQ成立的必要性因子;★34人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第22頁!2022/12/9235.3主觀Bayes方法1、應用Bayes理論于不確定推理⑵主觀Bayes方法對Bayes理論進行改進,消去先驗概率p(P);LS——推理規則PQ成立的充分性因子;表示P成立對Q成立的影響力;LN——推理規則PQ成立的必要性因子;表示P不成立對Q成立的影響力;34人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第23頁!2022/12/9245.3主觀Bayes方法1、應用Bayes理論于不確定推理⑵主觀Bayes方法基于專家主觀估計的LS(和LN)而演算出來的后驗概率p(Q/P)稱為主觀概率;上述推算主觀概率的方法稱為主觀Bayes方法;34人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第24頁!2022/12/9255.3主觀Bayes方法1、應用Bayes理論于不確定推理⑵主觀Bayes方法P——征兆,汽車輪子發出刺耳的噪聲;Q——原因,汽車剎車失調;征兆P原因QO(Q/P)=6.4O(Q/﹁P)=0.016p(Q/P)=0.87p(Q/﹁P)=0.016人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第25頁!2022/12/9265.3主觀Bayes方法例對于規則PQ,已知p(Q)=0.04,LS=100,LN=0.4,請應用主觀Bayes方法求出p(Q/P)和p(Q/P)人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第26頁!2022/12/9275.3主觀Bayes方法1、應用Bayes理論于不確定推理概率公式:加法原理:事件A和事件B不相容AB人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第27頁!2022/12/9285.3主觀Bayes方法1、應用Bayes理論于不確定推理⑶不確定性的推理(P’PQ)
前提(即導致結論的證據)的不確定性可以設想為與另一事件P'有關:給出后驗概率p(P/P‘);推算出證據P‘相對于結論Q的后驗概率p(Q/P‘);加法定理(事件不相容)乘法定理的擴展人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第28頁!2022/12/9295.3主觀Bayes方法1、應用Bayes理論于不確定推理⑶不確定性的推理(P’PQ)前提(即導致結論的證據)的不確定性可以設想為與另一事件P'有關:給出后驗概率p(P/P‘);推算出相對于結論Q的后驗概率p(Q/P‘);634人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第29頁!2022/12/9305.3主觀Bayes方法1、應用Bayes理論于不確定推理⑶不確定性的推理(P’PQ)例2、汽車剎車失調問題P——征兆,汽車輪子發出刺耳的噪聲;Q——原因,汽車剎車失調;征兆P原因Qp(Q/P)=0.87p(Q/﹁P)=0.016p(P/P’)=0.86p(﹁P/P’)=0.2人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第30頁!2022/12/9315.3主觀Bayes方法1、應用Bayes理論于不確定推理⑶不確定性的推理(P’PQ)前提(即導致結論的證據)的不確定性可以設想為與另一事件P'有關:給出后驗概率p(P/P‘);推算出相對于結論Q的后驗概率p(Q/P‘);6人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第31頁!2022/12/9325.3主觀Bayes方法1、應用Bayes理論于不確定推理⑶不確定性的推理(P’PQ)前提(即導致結論的證據)的不確定性可以設想為與另一事件P'有關:給出后驗概率p(P/P‘);推算出相對于結論Q的后驗概率p(Q/P‘);6p(Q/P)p(Q)LS主觀Bayes方法LNp(Q/﹁P)人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第32頁!2022/12/9335.3主觀Bayes方法1、應用Bayes理論于不確定推理⑶不確定性的推理為了避免這種不一致性,主觀Bayes方法采用分段線性插值的手段:人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第33頁!2022/12/9345.3主觀Bayes方法1、應用Bayes理論于不確定推理⑶不確定性的推理為了避免這種不一致性,主觀Bayes方法采用分段線性插值的手段:★人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第34頁!2022/12/9355.3主觀Bayes方法已知:R1:IFE1THEN(65,0.01)H其中,P(E1|S1)=0.5,P(H)=0.01,P(E1)=0.1求:P(H|S1)人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第35頁!2022/12/9365.3主觀Bayes方法1、應用Bayes理論于不確定推理⑷不確定性的組合常常會出現多個相互獨立的前提Pi支持同一結論Q的情況,表示為:人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第36頁!2022/12/9375.3主觀Bayes方法1、應用Bayes理論于不確定推理⑶不確定性的推理例已知:R1:IFE1THEN(65,0.01)HR2:IFE2THEN(300,0.0001)H其中,P(H)=0.01P(E1|S1)=0.5,P(E2|S2)=0.02,P(E1)=0.1,P(E2)=0.03求:P(H|S1S2)人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第37頁!2022/12/9385.3主觀Bayes方法已知:R1:IFE1THEN(65,0.01)HR2:IFE2THEN(300,0.0001)H其中,P(H)=0.01P(E1|S1)=0.5,P(E2|S2)=0.02,P(E1)=0.1,P(E2)=0.03求:P(H|S1S2)因為,P(E1|S1)=0.5>P(E1)=0.1則人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第38頁!2022/12/9395.3主觀Bayes方法已知:R1:IFE1THEN(65,0.01)HR2:IFE2THEN(300,0.0001)H其中,P(H)=0.01P(E1|S1)=0.5,P(E2|S2)=0.02,P(E1)=0.1,P(E2)=0.03求:P(H|S1S2)因為,P(E1|S1)=0.5>P(E1)=0.1則人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第39頁!2022/12/9405.3主觀Bayes方法已知:R1:IFE1THEN(65,0.01)HR2:IFE2THEN(300,0.0001)H其中,P(H)=0.01P(E1|S1)=0.5,P(E2|S2)=0.02,P(E1)=0.1,P(E2)=0.03求:P(H|S1S2)人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第40頁!2022/12/9415.3主觀Bayes方法已知:R1:IFE1THEN(65,0.01)HR2:IFE2THEN(300,0.0001)H其中,P(H)=0.01P(E1|S1)=0.5,P(E2|S2)=0.02,P(E1)=0.1,P(E2)=0.03求:P(H|S1S2)人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第41頁!2022/12/9425.3主觀Bayes方法已知:R1:IFE1THEN(65,0.01)HR2:IFE2THEN(300,0.0001)H其中,P(H)=0.01P(E1|S1)=0.5,P(E2|S2)=0.02,P(E1)=0.1,P(E2)=0.03求:P(H|S1S2)人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第42頁!2022/12/9435.3主觀Bayes方法2、在推理網絡中傳遞不確定性許多實際問題中規則都具有不確定性;不確定推理在基于規則的專家系統中具有重要地位規則構成一個推理網絡中間結果:規則的結論;其他規則的前提;給出相應于各規則的LSi和LNip(A),p(B)和p(Qf)Qf為真的后驗概率P(Qf|P1P2P3P4)人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第43頁!2022/12/944那么
=0.6185×9.2781/0.030927=185.55所以H的后驗概率為P(H|E1E2)=185.55/(1+185.55)=0.99464人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第44頁!2022/12/9455.4可信度方法可信度方法是由美國斯坦福大學肖特利夫(E.H.Shortliffe)等人在考察了非概率的和非形式化的推理過程后于己于1975年提出的一種不確定性推理模型,并于1976年首次在血液病診斷專家系統MYCIN中得到了成功應用。它是不確定性推理中非常簡單且又十分有效的一種推理方法。目前,有許多成功的專家系統都是基于這一方法建立起來的。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第45頁!2022/12/946如給定一些癥狀,使用Bayes定理來確定某種疾病的概率:其中Di是第i種疾病;E是證據;P(Di)是在已知任何證據之前病人得這種病的先驗概率;P(E|Di)是在已知患有Di疾病的情況下,病人出現癥狀E的條件概率;j是對所有疾病求和。
Bayes方法的問題5.4可信度方法人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第46頁!2022/12/947信任與不信任問題是設計醫學診斷專家系統時所面臨的又一個問題。可信度是對信任的一種度量,是指人們根據以往經驗對某個事物或現象為真的程度的一個判斷,或者說是人們對某個事物或現象為真的相信程度。根據概率論,我們知道:P(H)+P(┐H)=1于是有P(H)=l-P(┐H)
對于基于證據E的后驗假設有
P(H|E)=l-P(┐H|E)把上式用于醫學專家系統中,如:對于MYCIN中的規則:2.可信與不信任問題5.4可信度方法人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第47頁!2022/12/948盡管P(H|E)表明E和H存在一種因果關系,但┐H和E之間可能沒有因果關系。但是P(H|E)=1-P(┐H|E)卻暗示如果E和H之間有因果關系,則E和┐H之間也有因果關系。正是由于概率論上的這些問題使得MYCIN專家系統的開發者需要建立新的模型來處理不確定性問題。這種模型和基于重復事件出現頻率有關的普通概率不同,它基于利用某些證據去證實假設的方法,稱為基于認知概率或確認度的確定性理論。原因分析:5.4可信度方法人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第48頁!2022/12/9495.4可信度方法1、方法的定義⑴規則的不確定性MYCIN提出的可信度方法中,推理規則表示為:IFE
THEN
H,CF(H,E),其中:證據E——命題的合取∧和析取∨組合;結論H——單一命題;CF(H,E)——確定性因子,簡稱為可信度,證據E為真的情況下,結論F為真的可能程度;CF(H,E)=MB(H,E)-MD(H,E)⑴MB(H,E)=a——信任度量證據E成立使結論H的可信度增加了數量a;⑵MD(H,E)=b——不信任度量證據E成立使結論H的不可信度增加了數量b;MB(H,E)和MD(H,E)不能同時大于0同一證據E,不能既增加結論H的可信度,又增加結論H的不可信度。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第49頁!2022/12/9505.4可信度方法⑴p(H/E)>p(H):證據E支持結論H,MB>0,MD=0;⑵p(H/E)<p(H):證據E不支持結論H,MB=0,MD>0;⑶p(H/E)=p(H):證據E對結論H無影響,MB=MD=0;人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第50頁!2022/12/951若CF(H,E)>0,P(H|E)>P(H)。說明由于前提條件E所對應證據的出現增加了H為真的概率,即增加了H的可信度,CF(H,E)的值越大,增加H為真的可信度就越大。5.4可信度方法若CF(H,E)<0,則P(H|E)<P(H)。這說明由于前提條件E所對應證據的出現減少了H為真的概率,即增加了H為假的可信度,CF(H,E)的值越小,增加H為假的可信度就越大。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第51頁!2022/12/952①當CF(H,E)=1時,有P(H|E)=1,它說明由于E所對應證據的出現使H為真。此時MB(H,E)=l,MD(H,E)=0②當CF(H,E)=-1時,有P(H|E)=0,說明由于E所對應證據的出現使H為假。此時MB(H,E)=O,MD(H,E)=1③當CF(H,E)=0時,則P(H|E)=P(H),表示H與E獨立即E所對應的證據的出現對H沒有影響。(3)典型值根據CF、MB、MD的定義,可得性質:5.4可信度方法人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第52頁!2022/12/953再根據CF的定義及MB、MD的互斥性有
CF(H,E)+CF(┐H,E)=(MB(H,E)-MD(H,E))+(MB(┐H,E)-MD(┐H,E))=(MB(H,E)-0)+(O-MD(┐H,E))=MB(H,E)-MD(┐H,E)=0(4)對H的信任增長度等于對非H的信任增長度根據CF、MB、MD的定義,可得性質:5.4可信度方法人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第53頁!2022/12/954(5)對同一前提E,若支持若干個不同的結論Hi(i=1,2,…,n),則因此,如果發現專家給出的知識有如下情況:CF(H1,E)=0.7,CF(H2,E)=0.4則因0.7+0.4=1.1>1為非法,應進行調整或規范化。根據CF、MB、MD的定義,可得性質:5.4可信度方法人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第54頁!2022/12/9552.可信度的計算(1)規則不確定性的表示
在C-F模型中,規則用產生式規則表示:IfEThenH(CF(H,E))E是規則的前提條件;H是規則的結論;注意:CF(H,E)是規則的可信度,也稱為規則強度或知識強度,它描述的是知識的靜態強度。這里前提和結論都可以是由復合命題組成。5.4可信度方法人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第55頁!2022/12/956(2)CF(E)所描述的是證據的動態強度。盡管它和知識的靜態強度在表示方法上類似,但二者的含義卻完全不同。知識的靜態強度CF(H,E)表示的是規則的強度,即當E所對應的證據為真時對H的影響程度,而動態強度CF(E)表示的是證據E當前的不確定性程度。(1)證據可信度的來源有以下兩種情況:如果是初始證據,其可信度是由提供證據的用戶給出的;如果是先前推出的中間結論又作為當前推理的證據,則其可信度是原來在推出該結論時由不確定性的更新算法計算得到的。注意事項:2.可信度的計算5.4可信度方法人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第56頁!2022/12/957若兩個證據的合取支持結論H:E1∧E2
HCF(H)=CF(H,E1∧E2)×max{0,CF(E1∧E2)}CF(E1∧E2)=min{CF(E1),CF(E2)}人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第57頁!2022/12/9585.4可信度方法CF(H)=CF(H,E1∧(
E2∨
E3))×max{0,CF(E1∧(
E2∨
E3))}CF(E1∧(
E2∨
E3))E1∧(E2∨E3)
H=min{CF(E1),CF(E2∨
E3)}=min{CF(E1),max{CF(E2),CF(E3)}}E1E2E3H人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第58頁!2022/12/959②證據不是肯定存在(CF(E)≠1)時其計算公式如下:
CF(H)=CF(H,E)×max{0,CF(E)}由上式可以看出,若CF(E)<0,即相應證據以某種程度為假,則CF(H)=0這說明在該模型中沒有考慮證據為假時對結論H所產生的影響。5.4可信度方法CF(E)<0CF(H)=0不考慮證據E為假時對結論H產生的影響人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第59頁!2022/12/960步:分別對每條規則求出其CF(H)。即
CF1(H)=CF(H,E1)×max(0,CF(E1))CF2(H)=CF(H,E2)×max(0,CF(E2))設有如下規則:
IfE1ThenH(CF(H,E1))IfE2ThenH(CF(H,E2))則結論H的綜合可信度可分以下兩步計算:★2.可信度的計算5.4可信度方法人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第60頁!2022/12/961其他情況不變。如果可由多條知識推出同一個結論,并且這些規則的前提相互獨立,結論的可信度又不相同,則可以將上述合成過程推廣應用到多條規則支持同一條結論,且規則前提可以包含多個證據的情況。這時合成過程是先把條與第二條合成,然后再用該合成后的結論與第三條合成,依次進行下去,直到全部合成完為止。2.可信度的計算5.4可信度方法人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第61頁!2022/12/962例
設有如下一組規則:R1:IFE1THNNH(0.9)R2:IFE2
THENH(0.6)R3:IFE3
THENH(-0.5)R4:IFE4AND(E5ORE6)THENE1(0.8)已知:CF(E2)=0.8,CF(E3)=0.6,CF(E4)=0.5,
CF(E5)=0.6,CF(E6)=0.8求H的綜合可信度CF(H)。例子分析:★5.4可信度方法人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第62頁!2022/12/963由R2得到:CF2(H)=CF(H,E2)×max{0,CF(E2)}
=0.6×max{0,0.8}=0.48由R3得到:CF3(H)=CF(H,E3)×max{0,CF(E3)}=-0.5×max{0,0.6}=-0.3根據結論不確定性的合成算法得到:CF1,2(H)=CF1(H)+CF2(H)-CF1(H)×CF2(H)=0.36+0.48-0.36×0.48=0.84-0.17=0.675.4可信度方法人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第63頁!2022/12/9643確定性方法的說明1.可信度的計算問題:
在前面我們已經說明CF的原始定義為:CF=MB-MD該定義有一個困難之處。因為一個反面的證據的影響可以抑制很多正面證據的影響,反之亦然。例如,如果MB=0.999,MD=0.799,則有CF=0.200后來,MYCIN中CF的定義修改為這樣可以削弱一個反面證據對多個正面證據的影響.例如對上面的MB,MD值,有5.4可信度方法人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第64頁!2022/12/9652.可信度方法的特點:優點:(1)可信度方法具有簡潔、直觀的優點。通過簡單的計算,不確定性就可以在系統中傳播,并且計算具有線性的復雜度,推理的近似效果也比較理想。(2)可信度方法也很容易理解,并且將不信任和信任清楚地區分開來。但也有其不足之處:(1)CF值可能與條件概率得出的值相反。例如:
P(H1)=0.8,P(H2)=0.2,P(H1|E)=0.9,P(H2|E)=0.8則CF(H1,E)=0.5,CF(H2,E)=0.75.3確定性方法的說明5.4可信度方法人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第65頁!2022/12/95.4可信度方法課堂練習在MYCIN中計算CF(H)R1:C11∧C12∧C13H,CF=0.7;R2:E2H,CF=-0.1;R3:E3H,CF=0.2;R4:C41∧C42H,CF=0.3;CF(C11)=1 CF(C12)=0.6 CF(C13)=0.6;CF(E2)=1;CF(E3)=1;CF(C41)=0.1 CF(C42)=0.5;提示:注意門檻值人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第66頁!2022/12/967CF(C11)=1 CF(C12)=0.6 CF(C13)=0.6;CF(E2)=1;CF(E3)=1;CF(C41)=0.1 CF(C42)=0.5;C11C12C13H0.7E2-0.1E30.2C41C420.310.60.6110.10.5證據的不確定性人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第67頁!2022/12/9685.4可信度方法根據R2⑵E2H規則的可信度:CF=-0.1證據的可信度:CF(E2)=1CF2(H)=CF(H,E2)×max{0,CF(E2)}=-0.1×1=-0.1人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第68頁!2022/12/9695.4可信度方法根據R4
⑷C41∧C42H規則的可信度:CF=0.3證據的可信度:CF(C41)=0.1 CF(C42)=0.5CF4(H)=CF(H,C41∧C42)×max{0,CF(C41∧C42)}CF(C41∧C42)=min{CF(C41),CF(C42)}=0.1=0.3×0.1=0.03C41C420.10.5人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第69頁!2022/12/9705.4可信度方法2、方法的應用例3、不確定推理——計算CF(H)⑴C11∧C12∧C13H,CF=0.7CF1(H)=0.42;⑵E2H,CF=-0.1CF2(H)=-0.1;⑶E3H,CF=-0.1CF3(H)=0.2;C11C12C1310.60.611CF1(H)、CF2(H)異號CF12(H)、CF3(H)同號,都>0CF(H)=0.484人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第70頁!2022/12/971R1:(C11∧C12)∨C13H0.7;R2:C21∨C22H-0.3;R3:C31∧C32H0.6;R4:E4H0.4;C11C12C13H0.710.60.8C21C22-0.3C310.10.5C320.6E40.40.50.71min{C31,C32}=0.1<0.2(忽略)人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第71頁!2022/12/972
盡管可信度方法使MYCIN和其它一些專家系統能簡單有效地實現不確定性推理,但仍存在不少問題。現歸納如下:
(1)如何將人表示可信度的術語轉變為數字化的CFs。例如,人的經驗規則常涉及"很可能"、"不大可能"等術語,應對應到多大的CF值。
(2)如何規范化人們對可信度的估計,不同人所作的估計往往相差較大。
(3)為防止積累誤差,需指定門檻值,但多大合適呢?太小固然不行,但太大也不好,因為可信度的傳遞需要累計較小的變化。
(4)為改進可信度的精確性,需提供從系統的實際執行反饋的信息,并基于反饋信息調整可信度。這實際上是一種機器學習問題,尚未較好地加以解決。
正因為這些問題的存在,限制了MYCIN提出的確定性方法只能用于對不確定推理的精度要求不高的場合。
人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第72頁!2022/12/973莎弗(G.Shafer)進一步拓展了Dempster的工作,這一拓展稱為證據推理(EvidentialReasoning),用于處理不確定性、不精確以及間或不準確的信息。由于證據理論將概率論中的單點賦值擴展為集合賦值,弱化了相應的公理系統,滿足了比概率更弱的要求,因此可看作一種廣義概率論。5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第73頁!2022/12/9745.5.1證據的不確定性在D-S理論中,可以分別用信任函數、似然函數及類概率函數來描述知識的精確信任度、不可駁斥信任度及估計信任度,即可以從各個不同角度刻畫命題的不確定性。
D-S理論采用集合來表示命題,先建立命題與集合之間的一一對應關系,把命題的不確定性問題轉化為集合的不確定性問題。5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第74頁!2022/12/975l.概率分配函數定義
設函數m:2Ω→[0,1],且滿足
則稱m是2Ω上的概率分配函數,m(A)稱為A的基本概率數。m(A)表示依據當前的環境對假設集A的信任程度。5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第75頁!2022/12/976
(1)概率分配函數的作用是把Ω的任意一個子集都映射為[0,1]上的一個數m(A)。
當A包含于Ω且A由單個元素組成時,m(A)表示對A的精確信任度;當A包含于Ω、A≠Ω,且A由多個元素組成時,m(A)也表示對A的精確信任度,但卻不知道這部分信任度該分給A中哪些元素;當A=Ω時,則m(A)是對Ω的各個子集進行信任分配后剩下的部分,它表示不知道該如何對它進行分配。對概率分配函數的幾點說明5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第76頁!2022/12/977
(2)m是2Ω上而非Ω上的概率分布,所以基本概率分配函數不是概率,它們不必相等,而且m(A)≠l-m(┐A)。事實上m({紅})+m({黃})+m({藍})=0.3+0+0.1=0.4≠1。概率分配函數的幾點說明5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第77頁!2022/12/978以Ω={紅,黃,藍}為例說明。
Bel({紅,黃})=m({紅})+m({黃})+m({紅,黃})=0.3+0+0.2=0.5。當A為單一元素組成的集合時,Bel(A)=m(A)。如果命題“x在B中”成立,必帶有命題“x在A中”成立。Bel(A)函數又稱為下限函數。例---Bel(A)5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第78頁!2022/12/979
以Ω={紅,黃,藍}為例說明。Pl({紅})=1-Bel(┐{紅})=1-Bel({黃,藍})=1-(m({黃})+m({藍})+m({黃,藍}))=1-(0+0.1+0.1)=0.8這里0.8是“紅”為非假的信任度。由于“紅”為真的精確信任度為0.3,而剩下的0.8-0.3=0.5,則是知道非假,但卻不能肯定為真的那部分。例---Pl(A)5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第79頁!2022/12/980推論該式可推廣為可見,5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第80頁!2022/12/981假設集A子集B1子集B2假設集B當前證據,A非假的信任程度當前證據,A為真的信任程度人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第81頁!2022/12/982由于Bel(A)和Pl(A)分別表示A為真的信任度和A為非假的信任度,因此,可分別稱Bel(A)和Pl(A)為對A信任程度的下限和上限,記為A(Bel(A),Pl(A))Pl(A)-Bel(A)表示既不信任A,也不信任┐A的程度,即對于A是真是假不知道的程度。下限上限信任區間5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第82頁!2022/12/983[Bel(A),Pl(A)]來綜合描述A的不確定性;3個特殊區間:[1,1]:信任A為真;[0,0]:信任A為假;[0,1]:對A是真是假一無所知;[1,0]錯誤人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第83頁!2022/12/9844.假設集A的類概率函數f(A)★
其中|A|、|Ω|分別表示A和Ω中包含元素的個數。類概率函數f(A)也可以用來度量證據A的不確定性。
5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第84頁!2022/12/985證據E的不確定性
證據E的不確定性可以用類概率函數f(E)表示原始證據的f(E)應由用戶給出,作為中間結果的證據可以由下面的不確定性傳遞算法確定。
5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第85頁!2022/12/986定義設m1和m2是兩個不同的概率分配函數,則其正交和m=m1⊕m2滿足其中:正交和概念5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第86頁!2022/12/987設Ω={a,b},且從不同知識源得到的概率分配函數分別為
m1(φ,{a},{b},{a,b})=(0,0.3,0.5,0.2)m2(φ,{a},{b},{a,b})=(0,0.6,0.3,0.1)求正交和m=m1⊕m2。
例---正交和5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第87頁!2022/12/988再求m(φ,{a},{b},{a,b}),由于人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第88頁!2022/12/9895.5.3規則的不確定性具有不確定性的推理規則可表示為:
IfEThenH,CF其中,H為假設,E為支持H成立的假設集,它們是命題的邏輯組合。CF為可信度因子。H可表示為:H={a1,a2,…,am},ai∈Ω(i=1,2,…,m),H為假設集合Ω的子集。5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第89頁!2022/12/990定義對于不確定性規則:IfEThenH,CF定義:m({ai})=f(E)·ci(i=1,2,…,m)或表示為m({a1},{a2},…,{am})=(f(E)·c1,f(E)·c2,…,f(E)·cm)5.5證據理論5.5.3規則的不確定性人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第90頁!2022/12/991當規則的前提(證據)E是多個命題的合取或析取時,定義:5.5證據理論5.5.3規則的不確定性人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第91頁!2022/12/992如果這些規則相互獨立地支持結論H的成立,可以先計算mi({a1},{a2},…,{an})=(f(Ei)·ci1,f(Ei)·ci2,…,f(Ei)·cim)(i=1,2,…,m)
然后根據前面介紹的求正交和的方法,對這些mi求正交和,以組合所有規則對結論H的支持。一旦累加的正交和m(H)計算出來,就可以計算Bel(H)、Pl(H)、f(H)。5.5證據理論5.5.4不確定性的組合人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第92頁!2022/12/993這些規則形成如圖5-7所示的推理網絡。原始數據的概率在系統中己經給出:
f(E1)=0.5,f(E2)=0.7,f(E3)=0.9,f(E4)=0.9,f(E5)=0.8,f(E6)=0.7.假設|Ω|=10,現在需要求出A的確定性f(A)。
5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第93頁!2022/12/994第二步,求A2的確定性。5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第94頁!2022/12/995由正交和公式得到:5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第95頁!2022/12/996證據理論的優點在于能夠滿足比概率論更弱的公理系統,可以區分不知道和不確定的情況,可以依賴證據的積累,不斷縮小假設的集合。證據理論的優點:5.5證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第96頁!975.6小結人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第97頁!2022/12/998不確定性推理中的基本問題1.表示問題(1)知識不確定性的表示(2)證據的不確定性表示2.計算問題(1)不確定性的傳遞算法(2)結論不確定性的合成(3)組合證據的不確定性算法3.語義問題(1)知識的不確定性度量,需要定義在三個典型情況下的取值。(2)對于證據的不確定性度量,需要定義在三個典型情況下的取值。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第98頁!2022/12/999概率方法是一個以概率論中有關理論為基礎建立的純概率方法,由于在使用過程中需要事先確定給出先驗概率和條件概率,并且計算量較大,因此應用受到了限制。、概率方法人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第99頁!2022/12/9100可信度方法比較簡單、直觀,易于掌握和使用,并且已成功地應用于如MYCIN這樣的推理鏈較短、概率計算精度要求不高的專家系統中。但是當推理長度較長時,由可信度的不精確估計而產生的積累誤差會很大,所以它不適合長推理鏈的情況。可信度方法人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第100頁!2022/12/9101證據理論基礎嚴密,專門針對專家系統,是一種很有吸引力的不確定性推理模型。但如何把它普遍應用于專家系統,目前還沒有一個統一的意見。證據理論人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第101頁!2022/12/9102常識(monsense)具有不確定性。一個常識可能有眾多的例外,一個常識可能是一種尚無理論依據或者缺乏充分驗證的經驗。常識往往對環境有極強的依存性。“鳥是會飛的”,“常在河邊走,哪能不濕鞋”。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第102頁!2022/12/9103在客觀世界中,由于事物發展的隨機性和復雜性,人類認識的不完全、不可靠、不精確和不一致性,自然語言中存在的模糊性和歧義性,使得現實世界中的事物以及事物之間的關系極其復雜,帶來了大量的不確定性。大多數要求智能行為的任務都具有某種程度的不確定。不確定性可以理解為在缺少足夠信息的情況下做出判斷。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第103頁!2022/12/9104不確定推理是建立在非經典邏輯基礎上的一種推理,它是對不確定性知識的運用與處理。不確定性推理就是從不確定性初始證據出發,通過運用不確定性的知識,最終推出具有一定程度的不確定性但卻是合理或者近乎合理的結論的思維過程。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第104頁!2022/12/9105在專家系統中,不確定性表現在證據、規則和推理三個方面,需要對專家系統中的事實與規則給出不確定性描述,并在此基礎上建立不確定性的傳遞計算方法。要實現對不確定性知識的處理,要解決不確定知識的表示問題不確定信息的計算問題不確定性表示計算的語義解釋問題人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第105頁!2022/12/9106(1)規則不確定性
(E→H,f(H,E)),(2)證據不確定性
(E,C(E)),證據不確定性的表示方法應與知識不確定性的表示方法保持一致,證據的不確定性通常也是一個數值表示,它代表相應證據的不確定性程度,稱之為動態強度。它表示相應知識的不確定性程度,稱為知識或規則強度。它表示證據E為真的程度。它有兩種來源:初始證據(由用戶給出);前面推出的結論作為當前證據(通過計算得到)。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第106頁!2022/12/9107(1)不確定性的傳遞算法已知規則的前提E的不確定性C(E)和規則強度f(H,E),求假設H的不確定性C(H),即定義函數f1,使得:
C(H)=f1(C(E),f(H,E))人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第107頁!2022/12/9108(3)組合證據的不確定性算法已知證據E1和E2的不確定性度量C(E1)和C(E2),求證據E1和E2的析取和合取的不確定性,即定義函數f3和f4使得:
C(E1∧E2)=f3(C(E1),C(E2))C(E1∨E2)=f4(C(E1),C(E2))人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第108頁!2022/12/91093.語義問題語義問題指上述表示和計算的含義是什么。如C(H,E)可理解為當前提E為真時,對結論H為真的一種影響程度,C(E)可理解為E為真的程度。處理不確定性問題的主要數學工具:概率論模糊數學概率論與模糊數學所研究和處理的是兩種不同的不確定性。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第109頁!2022/12/9110規則的不確定性度量f(H,E),需要定義在下述3個典型情況下的取值:若E為真,則H為真,這時f(H,E)=?
若E為真,則H為假,這時f(H,E)=?E對H沒有影響,這時f(H,E)=?對于證據的不確定性度量C(E),需要定義在下述3個典型情況下的取值:
E為真,C(E)=?E為假,C(E)=?
對E一無所知,C(E)=?
人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第110頁!2022/12/91115.1.3不確定性推理方法分類兩種不確定性推理:在推理一級上擴展不確定性推理的方法(模型方法)在控制策略級處理不確定性的方法(
控制方法)把不確定證據和不確定的知識分別與某種量度標準對應起來,并且給出更新結論不確定性算法,從而建立不確定性推理模式。通過識別領域中引起不確定性的某些特征及相應的控制策略來限制或減少不確定性對系統產生的影響,這類方法沒有處理不確定性的統一模型,其效果極大地依賴于控制策略。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第111頁!2022/12/9112純概率方法雖然有嚴格的理論依據,但通常要求給出事件的先驗概率和條件概率,而這些數據又不易獲得,因此使其應用受到限制。為了解決這個問題,人們在概率論的基礎上發展起來了一些新的方法和理論,主要有可信度方法、證據理論、主觀概率論(又稱主觀Bayes方法)等。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第112頁!2022/12/9113
基于概率的方法沒有把事物自身所具有的模糊性反映出來。Zadeh提出模糊集理論。概率論處理的是由隨機性引起的不確定性,可能性理論處理的是由模糊性引起的不確定性。人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第113頁!2022/12/91145.3主觀Bayes方法1、應用Bayes理論于不確定推理先驗概率表示為p(事件);在沒有知識支持它的出現或不出現的情況下賦給這個事件的概率;即,先于證據的概率;后驗概率表示為p(事件/證據)
;給定一些證據的條件下這個事件發生的概率;推理規則PQ的不確定性表示為后驗概率p(Q/P)人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第114頁!2022/12/91155.3主觀Bayes方法1、應用Bayes理論于不確定推理⑴后驗概率P——癥狀,如,患有頭疼的人;Q——疾病,如,腦膜炎病人;p(Q/P)——帶有癥狀P的人患疾病Q的后驗概率;p(P/Q)——患疾病Q的人帶有癥狀P的后驗概率;癥狀P疾病Q先驗概率p(P)先驗概率p(Q)病狀疾病p(P)=0.001p(Q)=0.0001p(P/Q)=0.9=0.09人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第115頁!2022/12/91165.3主觀Bayes方法處理不確定性的主要理論基礎:傳統概率論中的Bayes理論;應用Bayes理論獲得確定性程度p(Q|P)
:收集大量的樣品事件來統計p(P)p(Q)p(P|Q)
;【問題——同類事件出現的頻率不高】:無法作客觀概率統計,獲取其客觀概率;如,“某地發生地震”的概率;人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第116頁!2022/12/91175.3主觀Bayes方法1、應用Bayes理論于不確定推理⑵主觀Bayes方法對Bayes理論進行改進,消去先驗概率p(P);21人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第117頁!2022/12/91185.3主觀Bayes方法1、應用Bayes理論于不確定推理⑵主觀Bayes方法對Bayes理論進行改進,消去先驗概率p(P);命題Q的先驗幾率O(Q)Q成立的先驗概率p(Q)和Q不成立的先驗概率p(﹁Q)之比O(Q)隨p(Q)增大而增大①p(Q)=0,O(Q)=0;②p(Q)=1,O(Q)=∞;人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第118頁!2022/12/91195.3主觀Bayes方法1、應用Bayes理論于不確定推理⑵主觀Bayes方法對Bayes理論進行改進,消去先驗概率p(P);命題Q的后驗幾率O(Q/P)前提P成立情況下,Q成立的后驗概率p(Q/P)和Q不成立的后驗概率p(﹁Q/P)之比3人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第119頁!2022/12/91205.3主觀Bayes方法1、應用Bayes理論于不確定推理⑵主觀Bayes方法命題Q的后驗幾率O(Q/﹁P)前提P不成立情況下,Q成立的后驗概率p(Q/﹁P)和Q不成立的后驗概率p(﹁Q/﹁P)之比4人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第120頁!2022/12/91215.3主觀Bayes方法LS——充分性因子=1:O(Q/P)=O(Q),P對Q無影響;>1:O(Q/P)>O(Q),P支持Q;<1:O(Q/P)<O(Q),P不支持Q;LN——必要性因子=1:O(Q/﹁P)=O(Q),﹁P對Q無影響;>1:O(Q/﹁P)>O(Q),﹁P支持Q;<1:O(Q/﹁P)<O(Q),﹁P不支持Q;34人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第121頁!2022/12/91225.3主觀Bayes方法1、應用Bayes理論于不確定推理⑵主觀Bayes方法LS和LN促進了Bayes理論不確定推理中的應用;LS(和LN)表示了前提P對結論Q的影響程度:專家可以在缺乏大量統計數據的情況下,做出近似的估計;在不需要精確計算的應用中,近似估計十分有用;34人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第122頁!2022/12/91235.3主觀Bayes方法1、應用Bayes理論于不確定推理⑵主觀Bayes方法P——征兆,汽車輪子發出刺耳的噪聲;Q——原因,汽車剎車失調;征兆P原因Q先驗概率p(Q)p(Q)=0.05先驗幾率O(Q)=P(Q)/P(﹁Q)=0.053LS=120LN=0.3O(Q/P)=6.4O(Q/﹁P)=0.016人工智能課件cumt第五章不確定推理共200頁,您現在瀏覽的是第123頁!2022/12/91245.3主觀Bayes方法1、應用Bayes理論于不確定推理⑵主觀Bayes方法P——征兆,汽車輪子發出刺耳的噪聲;Q——原因,汽車剎車失調;征兆P原因Qp(Q/P)=0.87p(Q)=0.05LS=120
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 太陽能真空管鍍膜機項目可行性研究報告
- 體育加盟合同協議書范本
- 2025年地產項目夏季水上樂園嘉年華(酷爽盛夏主題)活動策劃方案46
- 奢侈品店銷售工作計劃書
- 雙方合作開店合同協議書
- 網站盈利合同協議書范本
- 中國5-硝體項目商業計劃書
- 裝修結束合同協議書模板
- 音樂策劃書范文4
- 2025年中國畜糞項目創業計劃書
- 2025年聚酰亞胺模塑粉項目市場調查研究報告
- 采購油卡協議書
- 小學生班會民法課件
- 2025-2030年輪椅行業市場深度調研及發展趨勢與投資戰略研究報告
- 2025年中國諧波測量儀器市場調查研究報告
- 2025年許昌市九年級中招語文二模考試卷附答案解析
- 無人機操作考試及其理論試題和答案
- 駐村第一書記工作總結模版
- 2025物理大一輪復習講義復習講義答案精析
- 2025年高考政治搶押秘籍(江蘇專用)時政熱點04哪吒2(學生版+解析)
- 第23課《“蛟龍”探海》課件統編版語文七年級下冊
評論
0/150
提交評論