人工智能知到智慧樹章節(jié)測試課后答案2024年秋復旦大學_第1頁
人工智能知到智慧樹章節(jié)測試課后答案2024年秋復旦大學_第2頁
人工智能知到智慧樹章節(jié)測試課后答案2024年秋復旦大學_第3頁
人工智能知到智慧樹章節(jié)測試課后答案2024年秋復旦大學_第4頁
人工智能知到智慧樹章節(jié)測試課后答案2024年秋復旦大學_第5頁
已閱讀5頁,還剩11頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

人工智能知到智慧樹章節(jié)測試課后答案2024年秋復旦大學緒論單元測試

針對智能體的思考是否合理,所引入的指標叫做()

A:嚴謹B:嚴密C:智慧D:理性

答案:理性

第一章單元測試

在下圖八數(shù)碼問題中,需要通過移動將雜亂的8個方塊按照右側的順序進行排列,那么該問題的狀態(tài)空間的大小是()?

A:8B:9*9C:9!D:9

答案:9!以下無信息搜索算法中,同時具有完備性和最優(yōu)性的有()。

A:廣度優(yōu)先搜索B:一致代價搜索C:深度優(yōu)先搜索D:迭代加深搜索

答案:廣度優(yōu)先搜索;一致代價搜索;迭代加深搜索對于有限狀態(tài)圖上的搜索問題,以下說法正確的有()。

A:存在深度優(yōu)先樹搜索有解而廣度優(yōu)先樹搜索無解的案例B:存在廣度優(yōu)先樹搜索有解而深度優(yōu)先樹搜索無解的案例C:深度優(yōu)先圖搜索(BFS)可以保證找到解(如果存在至少一解)D:一致代價搜索(UCS)不一定總能找到最優(yōu)解

答案:存在廣度優(yōu)先樹搜索有解而深度優(yōu)先樹搜索無解的案例;深度優(yōu)先圖搜索(BFS)可以保證找到解(如果存在至少一解);一致代價搜索(UCS)不一定總能找到最優(yōu)解對于一個邊損耗非負的有限圖,采用廣度優(yōu)先樹搜索可以得到最優(yōu)解,并且對每條邊加上一個相同的非負損耗c>0之后,最優(yōu)路徑保持不變。()

A:對B:錯

答案:對在下圖搜索問題中,S為起始節(jié)點,G1、G2、G3均為目標節(jié)點,則采用一致代價找到的解是()

A:G2B:G3C:均不可能D:G1

答案:G2

第二章單元測試

假如一個搜索問題(有限狀態(tài))至少有一個解,則當A*圖搜索算法配備任意可采納的啟發(fā)式函數(shù)時,一定能保證找到一解。()

A:對B:錯

答案:對當路徑損耗非負時,一致代價搜索是A*算法的一種特例,其啟發(fā)式函數(shù)既是可采納的,又是一致的。()

A:錯B:對

答案:對在下圖所示的圖搜索問題中,哪些節(jié)點的啟發(fā)式函數(shù)值是不可采納的___

答案:無在如圖所示的八數(shù)碼問題中,

如果A格與B格相鄰且B為空,則A可以移動至B。以下可以作為八數(shù)碼問題的一致啟發(fā)式函數(shù)的有()。

A:都不正確B:各數(shù)碼到目標位置的曼哈頓距離總和C:數(shù)碼1、2、3、4移動到正確位置的步數(shù)D:不在目標位置的數(shù)碼總數(shù)

答案:各數(shù)碼到目標位置的曼哈頓距離總和;數(shù)碼1、2、3、4移動到正確位置的步數(shù);不在目標位置的數(shù)碼總數(shù)在上述八數(shù)碼問題中,有兩種啟發(fā)式函數(shù),其中h1(n)為不在目標位置的數(shù)碼總數(shù),h2(n)為各數(shù)碼到目標位置的曼哈頓距離總和,則h3(n)=max(h1(n),h2(n)),具有以下什么性質()。

A:可采納的B:其余兩項都不滿足C:其余兩項都滿足D:一致的

答案:其余兩項都滿足

第三章單元測試

對抗博弈是一種零和游戲。()

A:對B:錯

答案:對極大極小值搜索算法相比于深度優(yōu)先,更接近廣度優(yōu)先搜索算法。()

A:錯B:對

答案:錯alpha-beta剪枝中,兒子節(jié)點的擴展順序遵循效用值遞減對MIN節(jié)點的值計算更高效。()

A:錯B:對

答案:錯在期望最大搜索中,可能涉及什么類型的節(jié)點?()。

A:兩種都無。B:兩種都有。C:隨機節(jié)點。D:MAX節(jié)點。

答案:兩種都有。alpha-beta剪枝中,哪些說法是正確的()。

A:alpha在MAX節(jié)點上更新。B:alpha在MIN節(jié)點上更新。C:對于MAX節(jié)點來說,當前效用值大于beta時可以進行剪枝。D:中間節(jié)點的極大極小值在執(zhí)行完剪枝算法后可能是錯誤的。

答案:alpha在MAX節(jié)點上更新。;對于MAX節(jié)點來說,當前效用值大于beta時可以進行剪枝。;中間節(jié)點的極大極小值在執(zhí)行完剪枝算法后可能是錯誤的。

第四章單元測試

約束滿足問題關注動作路徑。()

A:錯B:對

答案:錯約束滿足問題的解是滿足所有約束的一組變量賦值。()

A:錯B:對

答案:對任何N元約束滿足問題都可以轉化為二元約束滿足問題。()

A:對B:錯

答案:對關于約束滿足問題,說法錯誤的是()。

A:交通排班可以構建成一個約束滿足問題。B:一元約束僅涉及一個變量。C:對于任何類型的變量都可以通過枚舉的方式展現(xiàn)所有變量賦值情況。D:變量賦值往往伴隨與傾向性相關的評價。

答案:對于任何類型的變量都可以通過枚舉的方式展現(xiàn)所有變量賦值情況。關于約束滿足問題的回溯搜索算法,以下說法正確的是()。

A:應選擇剩余賦值選擇最少的變量進行賦值。B:應選擇剩余賦值選擇最多的變量進行賦值。C:賦值時,應選擇最多限制的取值。D:賦值時,應選擇最少限制的取值。

答案:應選擇剩余賦值選擇最少的變量進行賦值。;賦值時,應選擇最少限制的取值。

第五章單元測試

假設馬爾可夫決策問題(MDP)的狀態(tài)是有限的,則對于,如果我們只改變獎勵函數(shù)R,最優(yōu)策略會保持不變。()

A:對B:錯

答案:錯假設馬爾可夫決策問題(MDP)的狀態(tài)是有限的,若衰減因子滿足,則值迭代一定會收斂。()

A:錯B:對

答案:對假設馬爾可夫決策問題(MDP)的狀態(tài)是有限的,通過值迭代找到的策略優(yōu)于通過策略迭代找到的策略。()

A:對B:錯

答案:錯如果兩個MDP之間的唯一差異是衰減因子的值,那么它們一定擁有相同的最優(yōu)策略。()

A:對B:錯

答案:錯當在一個MDP中只執(zhí)行有限數(shù)量的步驟時,最優(yōu)策略是平穩(wěn)的。平穩(wěn)的策略是指在給定狀態(tài)下采取相同操作的策略,與智能體處于該狀態(tài)的時間無關。()

A:錯B:對

答案:錯寫出貝爾曼方程的數(shù)學表達式。

答案:\[V^{\pi}(s)=R(s,\pi(s))+\gamma\sum_{s'}P(s'|s,\pi(s))V^{\pi}(s')\]處于獎勵水平的吃豆人游戲。

吃豆人正處在一個5*1的格子世界中,如下圖所示:

這些單元格從左到右分別編號為1,2,3,4,5。在格子1-4中,吃豆人可以采取的動作是向右移動(R)或飛出(F)獎勵水平。其中,執(zhí)行動作R會確定性地移動到右邊的格子中并吃掉其中的豆子,而執(zhí)行動作F會確定性地移動到終止狀態(tài)并結束游戲。在格子5中,吃豆人只能執(zhí)行動作F。吃豆人吃一個豆子獎勵為10,飛出獎勵水平的獎勵為20。吃豆人的初始狀態(tài)為最左邊的格子1。

我們把它看成一個MDP,其中的狀態(tài)是吃豆人所在的格子。衰減因子為。

考慮以下三種策略:

(1)假設衰減因子,計算:

(2)現(xiàn)考慮可取任意值。

a)是否存在一個使得嚴格優(yōu)于和?若存在,計算的值;若不存在則寫None。

b)是否存在一個使得嚴格優(yōu)于和?若存在,計算的值;若不存在則寫None。

c)是否存在一個使得嚴格優(yōu)于和?若存在,計算的值;若不存在則寫None。

答案:無

第六章單元測試

時序差分算法是一種在線學習的方法。()

A:錯B:對

答案:對F-learning可以看作Q-learning的一種健忘選擇,,也即Q-learning中的學習率。則F-learning在以下那種情況下收斂于固定的值:()

A:具有確定性的狀態(tài)轉移時B:相應的Q-learning收斂時F-learning也會收斂C:具有隨機性的狀態(tài)轉移時D:從不

答案:具有確定性的狀態(tài)轉移時F-learning可以看作Q-learning的一種健忘選擇,,也即Q-learning中的學習率。則F-learning在以下那種情況下收斂于最優(yōu)q值:()

A:具有確定性的狀態(tài)轉移時B:從不C:相應的Q-learning收斂時F-learning也會收斂D:具有隨機性的狀態(tài)轉移時

答案:具有確定性的狀態(tài)轉移時F-learning可以看作Q-learning的一種健忘選擇,,也即Q-learning中的學習率。則F-learning在以下那種情況下收斂于隨機策略的q值:()

A:具有確定性的狀態(tài)轉移時B:相應的Q-learning收斂時F-learning也會收斂C:從不D:具有隨機性的狀態(tài)轉移時

答案:從不寫出Q-learning中Q(s,a)的更新公式。

答案:Q(s,a)=Q(s,a)+α*(r+γ*max(Q(s',a'))-Q(s,a))智能體根據(jù)五元組更新值或Q函數(shù)。智能體每次有0.5的概率按照策略(不必要是最優(yōu)策略)的動作執(zhí)行,0.5的概率隨機選擇一個動作。假設在這兩種情況下,更新都被無限頻繁地應用,狀態(tài)-動作對都被無限頻繁地訪問,衰減因子,學習率均以適當速率下降。

(1)Q-learning執(zhí)行以下更新:

這個過程會收斂到最優(yōu)的q值函數(shù)嗎?如果是,請寫“是”。如果沒有則給出一個解釋(根據(jù)價值的種類、最優(yōu)性等),如它將收斂到什么地方,或說明它不會收斂。

(2)SARSA執(zhí)行以下更新:

這個過程會收斂到最優(yōu)的q值函數(shù)嗎?如果是,請寫“是”。如果沒有則給出一個解釋(根據(jù)價值的種類、最優(yōu)性等),如它將收斂到什么地方,或說明它不會收斂。

答案:無

第七章單元測試

使用強化學習狀態(tài)的泛化表示的好處有()。

A:可以采樣更多的樣本B:復雜的計算獲得更精確的表示C:減少內存的消耗D:可以減少采樣

答案:減少內存的消耗;可以減少采樣在強化學習值函數(shù)近似中,蒙特卡洛方法對梯度計算是()。

A:B:C:D:

答案:在強化學習值函數(shù)近似中,時間差分方法對梯度計算是()。

A:B:C:D:

答案:在強化學習值函數(shù)近似中,蒙特卡洛方法中可以使用SARSA和Q-learning進行真值的學習()

A:錯B:對

答案:錯強化學習中有有模型的方法和無模型的方法()

A:錯B:對

答案:對

第八章單元測試

隨機變量X的概率分布如下圖,則x等于()。

A:0.4B:0.1C:0.2D:0.5

答案:0.5

已知隨機變量T和W的聯(lián)合概率分布表,則P(T=hot)=___,P(W=sun)=___。

答案:無已知男女比例可以看成各占一半,男子中由5%患色盲癥,女子中0.25%患色盲癥,隨機抽取一患有色盲癥的人,其是男子的概率是=___。

答案:0.9615如果x,y在z的條件下相互獨立,則P(x,y|z)=P(x|z)*___。

答案:P(y|z)貝葉斯網(wǎng)絡中,節(jié)點的含義是什么()。

A:概率值B:變量關系C:隨機變量D:獨立性

答案:隨機變量在下面的貝葉斯網(wǎng)絡中,正確的選項有()。

A:P(-cavity,catch,-toothache)=P(-cavity)P(catch)P(-toothache)B:P(-cavity,catch,-toothache)=P(-cavity)P(catch|(-cavity)P(-toothache)|-cavity)C:P(cavity,catch,-toothache)=P(cavity)P(catch|-cavity)P(toothache)|cavity)D:P(cavity,-catch,-toothache)=P(cavity)P(-catch|(cavity)P(-toothache)|cavity)

答案:P(-cavity,catch,-toothache)=P(-cavity)P(catch|(-cavity)P(-toothache)|-cavity);P(cavity,-catch,-toothache)=P(cavity)P(-catch|(cavity)P(-toothache)|cavity)在下面的貝葉斯網(wǎng)絡中,不給定Cavity和給定Cavity的情況下,Toothache和Catch的獨立性分別是()。

A:獨立,獨立B:不獨立,不獨立C:獨立,不獨立D:不獨立,獨立

答案:不獨立,獨立某衣帽廠有甲、乙、丙三個工作間生產(chǎn)同一種衣服,已知各個工作間的產(chǎn)量分別占全廠產(chǎn)量的25%、35%、40%,甲、乙、丙工作間的次品率為5%、4%、2%,現(xiàn)在從衣帽廠中檢查出一個次品,是由甲工作間生產(chǎn)的概率是多少。

答案:0.4Pacman的操作數(shù)據(jù)集中,分為訓練數(shù)據(jù)集、驗證數(shù)據(jù)集和測試數(shù)據(jù)集。下面是數(shù)據(jù)集的訓練集:

請回答下面的問題:

(1)使用標準樸素貝葉斯算法,計算下面三個概率的結果:

P(sp=C|a=left)

P(sp=A|a=right)

P(a=left)

(2)使用標準樸素貝葉斯算法,在接下來的場景中應該選擇left還是right?

sp=A,sg=C

sp=C,sg=B

答案:無

第九章單元測試

下面屬于精確推理的方法是():

A:枚舉推理法B:拒絕采樣法C:變量消元法D:似然加權法

答案:枚舉推理法;變量消元法特征因子包括哪幾種():

A:選定聯(lián)合分布B:聯(lián)合分布C:單條件分布D:多條件分布

答案:選定聯(lián)合分布;聯(lián)合分布;單條件分布;多條件分布似然加權法是重要性采樣的特殊情況,可能會生成不符合證據(jù)變量的樣本()。

A:錯B:對

答案:錯貝葉斯網(wǎng)絡中精確推理的復雜度依賴于網(wǎng)絡結構和網(wǎng)絡規(guī)模()。

A:對B:錯

答案:對如下所示貝葉斯網(wǎng)絡。N表示某個區(qū)域內的恒星數(shù)目。M1,M2分別表示兩個望遠鏡的觀測結果。假設觀測結果有e的概率多數(shù)1顆恒星,也有w的概率少數(shù)1顆恒星。且每臺望眼鏡可能有f的概率出現(xiàn)對焦問題(f<e),分別記為F1,F2。對焦問題會導致觀測結果至少減少三顆恒星(如果N<=3,則一顆恒星都觀測不到)。

(1)N∈{1,2,3},M1∈{0,1,2,3,4}。請畫出P(M1|N)的條件概率表

(2)假設兩個望遠鏡完全相同,N∈{1,2,3},M1,M2∈{0,1,2,3,4}。設pi=P(N=i)。計算概率分布P(N|M1=2,M2=2)。

答案:無A,B,C,D是四個隨機變量,A的值域是___,B的值域是___,C的值域是___,D的值域是___

(1)給定因子P(A|C)和P(B!A,C),在逐點相乘后,產(chǎn)生因子的維度是___,元素個數(shù)為___。

(2)給定因子P(A|B),P(B!C),和P(C),對C變量消元,產(chǎn)生新的因子維度是___,元素個數(shù)為___。

(3)給定因子P(A|C)和P(B

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論