人工智能知到章節答案智慧樹2023年復旦大學_第1頁
人工智能知到章節答案智慧樹2023年復旦大學_第2頁
人工智能知到章節答案智慧樹2023年復旦大學_第3頁
人工智能知到章節答案智慧樹2023年復旦大學_第4頁
人工智能知到章節答案智慧樹2023年復旦大學_第5頁
已閱讀5頁,還剩14頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

人工智能知到章節測試答案智慧樹2023年最新復旦大學緒論單元測試

針對智能體的思考是否合理,所引入的指標叫做()

參考答案:

理性

第一章測試

在下圖八數碼問題中,需要通過移動將雜亂的8個方塊按照右側的順序進行排列,那么該問題的狀態空間的大小是()?

參考答案:

9!

以下無信息搜索算法中,同時具有完備性和最優性的有()。

參考答案:

一致代價搜索;廣度優先搜索;迭代加深搜索

對于有限狀態圖上的搜索問題,以下說法正確的有()。

參考答案:

深度優先圖搜索(BFS)可以保證找到解(如果存在至少一解);一致代價搜索(UCS)不一定總能找到最優解;存在廣度優先樹搜索有解而深度優先樹搜索無解的案例

對于一個邊損耗非負的有限圖,采用廣度優先樹搜索可以得到最優解,并且對每條邊加上一個相同的非負損耗c>0之后,最優路徑保持不變。()

參考答案:

在下圖搜索問題中,S為起始節點,G1、G2、G3均為目標節點,則采用一致代價找到的解是()

參考答案:

G2

第二章測試

假如一個搜索問題(有限狀態)至少有一個解,則當A*圖搜索算法配備任意可采納的啟發式函數時,一定能保證找到一解。()

參考答案:

當路徑損耗非負時,一致代價搜索是A*算法的一種特例,其啟發式函數既是可采納的,又是一致的。()

參考答案:

在下圖所示的圖搜索問題中,哪些節點的啟發式函數值是不可采納的___

參考答案:

null

在如圖所示的八數碼問題中,

如果A格與B格相鄰且B為空,則A可以移動至B。以下可以作為八數碼問題的一致啟發式函數的有()。

參考答案:

不在目標位置的數碼總數;各數碼到目標位置的曼哈頓距離總和;數碼1、2、3、4移動到正確位置的步數

在上述八數碼問題中,有兩種啟發式函數,其中h1(n)為不在目標位置的數碼總數,h2(n)為各數碼到目標位置的曼哈頓距離總和,則h3(n)=max(h1(n),h2(n)),具有以下什么性質()。

參考答案:

其余兩項都滿足

第三章測試

對抗博弈是一種零和游戲。()

參考答案:

極大極小值搜索算法相比于深度優先,更接近廣度優先搜索算法。()

參考答案:

alpha-beta剪枝中,兒子節點的擴展順序遵循效用值遞減對MIN節點的值計算更高效。()

參考答案:

在期望最大搜索中,可能涉及什么類型的節點?()。

參考答案:

兩種都有。

alpha-beta剪枝中,哪些說法是正確的()。

參考答案:

對于MAX節點來說,當前效用值大于beta時可以進行剪枝。;中間節點的極大極小值在執行完剪枝算法后可能是錯誤的。;alpha在MAX節點上更新。

第四章測試

約束滿足問題關注動作路徑。()

參考答案:

約束滿足問題的解是滿足所有約束的一組變量賦值。()

參考答案:

任何N元約束滿足問題都可以轉化為二元約束滿足問題。()

參考答案:

關于約束滿足問題,說法錯誤的是()。

參考答案:

對于任何類型的變量都可以通過枚舉的方式展現所有變量賦值情況。

關于約束滿足問題的回溯搜索算法,以下說法正確的是()。

參考答案:

應選擇剩余賦值選擇最少的變量進行賦值。;賦值時,應選擇最少限制的取值。

第五章測試

假設馬爾可夫決策問題(MDP)的狀態是有限的,則對于,如果我們只改變獎勵函數R,最優策略會保持不變。()

參考答案:

假設馬爾可夫決策問題(MDP)的狀態是有限的,若衰減因子滿足,則值迭代一定會收斂。()

參考答案:

假設馬爾可夫決策問題(MDP)的狀態是有限的,通過值迭代找到的策略優于通過策略迭代找到的策略。()

參考答案:

如果兩個MDP之間的唯一差異是衰減因子的值,那么它們一定擁有相同的最優策略。()

參考答案:

當在一個MDP中只執行有限數量的步驟時,最優策略是平穩的。平穩的策略是指在給定狀態下采取相同操作的策略,與智能體處于該狀態的時間無關。()

參考答案:

寫出貝爾曼方程的數學表達式。

參考答案:

null

處于獎勵水平的吃豆人游戲。

吃豆人正處在一個5*1的格子世界中,如下圖所示:

這些單元格從左到右分別編號為1,2,3,4,5。在格子1-4中,吃豆人可以采取的動作是向右移動(R)或飛出(F)獎勵水平。其中,執行動作R會確定性地移動到右邊的格子中并吃掉其中的豆子,而執行動作F會確定性地移動到終止狀態并結束游戲。在格子5中,吃豆人只能執行動作F。吃豆人吃一個豆子獎勵為10,飛出獎勵水平的獎勵為20。吃豆人的初始狀態為最左邊的格子1。

我們把它看成一個MDP,其中的狀態是吃豆人所在的格子。衰減因子為。

考慮以下三種策略:

(1)假設衰減因子,計算:

(2)現考慮可取任意值。

a)是否存在一個使得嚴格優于和?若存在,計算的值;若不存在則寫None。

b)是否存在一個使得嚴格優于和?若存在,計算的值;若不存在則寫None。

c)是否存在一個使得嚴格優于和?若存在,計算的值;若不存在則寫None。

參考答案:

null

第六章測試

時序差分算法是一種在線學習的方法。()

參考答案:

F-learning可以看作Q-learning的一種健忘選擇,,也即Q-learning中的學習率。則F-learning在以下那種情況下收斂于固定的值:()

參考答案:

具有確定性的狀態轉移時

F-learning可以看作Q-learning的一種健忘選擇,,也即Q-learning中的學習率。則F-learning在以下那種情況下收斂于最優q值:()

參考答案:

具有確定性的狀態轉移時

F-learning可以看作Q-learning的一種健忘選擇,,也即Q-learning中的學習率。則F-learning在以下那種情況下收斂于隨機策略的q值:()

參考答案:

從不

寫出Q-learning中Q(s,a)的更新公式。

參考答案:

null

智能體根據五元組更新值或Q函數。智能體每次有0.5的概率按照策略(不必要是最優策略)的動作執行,0.5的概率隨機選擇一個動作。假設在這兩種情況下,更新都被無限頻繁地應用,狀態-動作對都被無限頻繁地訪問,衰減因子,學習率均以適當速率下降。

(1)Q-learning執行以下更新:

這個過程會收斂到最優的q值函數嗎?如果是,請寫“是”。如果沒有則給出一個解釋(根據價值的種類、最優性等),如它將收斂到什么地方,或說明它不會收斂。

(2)SARSA執行以下更新:

這個過程會收斂到最優的q值函數嗎?如果是,請寫“是”。如果沒有則給出一個解釋(根據價值的種類、最優性等),如它將收斂到什么地方,或說明它不會收斂。

參考答案:

null

第七章測試

使用強化學習狀態的泛化表示的好處有()。

參考答案:

可以減少采樣;減少內存的消耗

在強化學習值函數近似中,蒙特卡洛方法對梯度計算是()。

參考答案:

在強化學習值函數近似中,時間差分方法對梯度計算是()。

參考答案:

在強化學習值函數近似中,蒙特卡洛方法中可以使用SARSA和Q-learning進行真值的學習()

參考答案:

強化學習中有有模型的方法和無模型的方法()

參考答案:

第八章測試

隨機變量X的概率分布如下圖,則x等于()。

參考答案:

0.5

已知隨機變量T和W的聯合概率分布表,則P(T=hot)=___,P(W=sun)=___。

參考答案:

null

已知男女比例可以看成各占一半,男子中由5%患色盲癥,女子中0.25%患色盲癥,隨機抽取一患有色盲癥的人,其是男子的概率是=___。

參考答案:

null

如果x,y在z的條件下相互獨立,則P(x,y|z)=P(x|z)*___。

參考答案:

null

貝葉斯網絡中,節點的含義是什么()。

參考答案:

隨機變量

在下面的貝葉斯網絡中,正確的選項有()。

參考答案:

P(cavity,-catch,-toothache)=P(cavity)P(-catch|(cavity)P(-toothache)|cavity);P(-cavity,catch,-toothache)=P(-cavity)P(catch|(-cavity)P(-toothache)|-cavity)

在下面的貝葉斯網絡中,不給定Cavity和給定Cavity的情況下,Toothache和Catch的獨立性分別是()。

參考答案:

不獨立,獨立

某衣帽廠有甲、乙、丙三個工作間生產同一種衣服,已知各個工作間的產量分別占全廠產量的25%、35%、40%,甲、乙、丙工作間的次品率為5%、4%、2%,現在從衣帽廠中檢查出一個次品,是由甲工作間生產的概率是多少。

參考答案:

null

Pacman的操作數據集中,分為訓練數據集、驗證數據集和測試數據集。下面是數據集的訓練集:

請回答下面的問題:

(1)使用標準樸素貝葉斯算法,計算下面三個概率的結果:

P(sp=C|a=left)

P(sp=A|a=right)

P(a=left)

(2)使用標準樸素貝葉斯算法,在接下來的場景中應該選擇left還是right?

sp=A,sg=C

sp=C,sg=B

參考答案:

null

第九章測試

下面屬于精確推理的方法是():

參考答案:

變量消元法;枚舉推理法

特征因子包括哪幾種():

參考答案:

單條件分布;聯合分布;多條件分布;選定聯合分布

似然加權法是重要性采樣的特殊情況,可能會生成不符合證據變量的樣本()。

參考答案:

貝葉斯網絡中精確推理的復雜度依賴于網絡結構和網絡規模()。

參考答案:

如下所示貝葉斯網絡。N表示某個區域內的恒星數目。M1,M2分別表示兩個望遠鏡的觀測結果。假設觀測結果有e的概率多數1顆恒星,也有w的概率少數1顆恒星。且每臺望眼鏡可能有f的概率出現對焦問題(f<e),分別記為F1,F2。對焦問題會導致觀測結果至少減少三顆恒星(如果N<=3,則一顆恒星都觀測不到)。

(1)N∈{1,2,3},M1∈{0,1,2,3,4}。請畫出P(M1|N)的條件概率表

(2)假設兩個望遠鏡完全相同,N∈{1,2,3},M1,M2∈{0,1,2,3,4}。設pi=P(N=i)。計算概率分布P(N|M1=2,M2=2)。

參考答案:

null

A,B,C,D是四個隨機變量,A的值域是___,B的值域是___,C的值域是___,D的值域是___

(1)給定因子P(A|C)和P(B!A,C),在逐點相乘后,產生因子的維度是___,元素個數為___。

(2)給定因子P(A|B),P(B!C),和P(C),對C變量消元,產生新的因子維度是___,元素個數為___。

(3)給定因子P(A|C)和P(B!A,C),對A進行變量消元,產生新的因子維度是___,元素個數為___。

(4)給定因子P(C|A),P(D!A,B,C)和P(B|A,C),對C進行變量消元,產生新的因子維度是___,元素個數為___。

參考答案:

null

第十章測試

對于隱馬爾可夫模型(HMM),設其觀察值空間為O={o1,o2,…,oN},狀態空間為:S={s1,s2,…,sK},觀測值序列為Y={y1,y2,…,yT}。如果用維特比算法(Viterbialgorithm)進行解碼,時間復雜為()。

參考答案:

O(TK2)

維特比算法的空間復雜度是O(T

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論