機(jī)器學(xué)習(xí):模型與算法智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)_第1頁
機(jī)器學(xué)習(xí):模型與算法智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)_第2頁
機(jī)器學(xué)習(xí):模型與算法智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)_第3頁
機(jī)器學(xué)習(xí):模型與算法智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)_第4頁
機(jī)器學(xué)習(xí):模型與算法智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)_第5頁
已閱讀5頁,還剩7頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

機(jī)器學(xué)習(xí):模型與算法智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)浙江大學(xué)

第一章測試

sigmoid函數(shù)的值域為?(

)。

A:(0,1]B:[0,1]C:(0,1)D:[0,1)

答案:(0,1)

哪些屬于監(jiān)督學(xué)習(xí)重要元素?(

)。

A:數(shù)據(jù)映射B:標(biāo)注數(shù)據(jù)C:學(xué)習(xí)模型D:損失函數(shù)

答案:標(biāo)注數(shù)據(jù);學(xué)習(xí)模型;損失函數(shù)

分析不同變量之間存在關(guān)系的研究叫回歸分析。(

A:錯B:對

答案:對

強(qiáng)可學(xué)習(xí)和弱可學(xué)習(xí)是等價的。(

A:對B:錯

答案:對

下面的說法正確的是()。

A:邏輯回歸只能處理二分類問題B:Sigmoid的函數(shù)是單調(diào)遞減的C:邏輯回歸屬于線性回歸D:

答案:邏輯回歸只能處理二分類問題

第二章測試

下面的說法正確的是(

)。

A:X和Y彼此獨(dú)立,|cor(X,Y)|可能不等于零。B:在K均值聚類算法中初始化聚類中心對聚類結(jié)果影響不大。C:協(xié)方差不能反應(yīng)兩個變量之間的相關(guān)度。D:K均值聚類算法實質(zhì)上是最小化每個類簇的方差。

答案:K均值聚類算法實質(zhì)上是最小化每個類簇的方差。

哪一項是皮爾遜相關(guān)系數(shù)的性質(zhì)?(

)。

A:X與Y協(xié)方差的絕對值小于1B:X與Y協(xié)方差的絕對值大于1C:X與Y協(xié)方差的絕對值大于等于1D:X與Y協(xié)方差的絕對值小于等于1

答案:X與Y協(xié)方差的絕對值小于等于1

下面的說法正確的有(

)。

A:EM算法分為求取期望和期望最大化兩個步驟。B:在K均值聚類算法中,我們不必事先就確定聚類數(shù)目。C:在K均值聚類算法中,歐式距離與方差量綱相同。D:在K均值聚類算法中,未達(dá)到迭代次數(shù)上限,迭代不會停止。

答案:EM算法分為求取期望和期望最大化兩個步驟。;在K均值聚類算法中,歐式距離與方差量綱相同。

K均值聚類屬于監(jiān)督學(xué)習(xí)。(

A:對B:錯

答案:錯

特征人臉方法的本質(zhì)是用稱為“特征人臉”的特征向量按照線性組合形式表達(dá)每一張原始人臉圖像。(

A:錯B:對

答案:對

第三章測試

下列哪一項不是運(yùn)用半監(jiān)督學(xué)習(xí)的原因(

)。

A:有標(biāo)注的數(shù)據(jù)很稀少B:數(shù)據(jù)標(biāo)注非常昂貴C:為獲得更高的機(jī)器學(xué)習(xí)性能D:存在大量為標(biāo)記數(shù)據(jù)

答案:為獲得更高的機(jī)器學(xué)習(xí)性能

在半監(jiān)督學(xué)習(xí)中下列哪種說法是錯誤的(

)。

A:“假設(shè)數(shù)據(jù)存在簇結(jié)構(gòu),同一個簇多的樣本屬于同一類別?!睂儆诰垲惣僭O(shè)B:“假設(shè)數(shù)據(jù)分布在一個流形架構(gòu)上,鄰近的樣本擁有相似的輸出值?!睂儆诹餍渭僭O(shè)C:“聚類假設(shè)的推廣,對輸出值沒有限制”屬于流形假設(shè)的范疇。D:“聚類假設(shè)的推廣,對輸出值沒有限制”屬于聚類假設(shè)的范疇。

答案:“聚類假設(shè)的推廣,對輸出值沒有限制”屬于聚類假設(shè)的范疇。

半監(jiān)督學(xué)習(xí)方法有:(

)。

A:K均值聚類B:基于圖表的半監(jiān)督學(xué)習(xí)C:半監(jiān)督SVMD:生成方法

答案:基于圖表的半監(jiān)督學(xué)習(xí);半監(jiān)督SVM;生成方法

在有標(biāo)記數(shù)據(jù)極少的情形下往往比其他方法性能更好是半監(jiān)督學(xué)習(xí)生成式方法流程的優(yōu)點(diǎn)。(

A:錯B:對

答案:對

基于圖表的半監(jiān)督學(xué)習(xí)不用占有太大內(nèi)存。(

A:對B:錯

答案:錯

第四章測試

下列說法正確的是(

)。

A:感知機(jī)網(wǎng)絡(luò)只有輸入層/輸出層,無隱藏層。B:BP算法是一種將隱藏層誤差反向傳播給輸出層進(jìn)行參數(shù)更新的方法。C:Hot-hot向量可以用盡可能少的維數(shù)對數(shù)據(jù)進(jìn)行描述。D:感知機(jī)網(wǎng)絡(luò)可以擬合復(fù)雜的數(shù)據(jù)。

答案:感知機(jī)網(wǎng)絡(luò)只有輸入層/輸出層,無隱藏層。

一元變量所構(gòu)成函數(shù)f在x處的梯度為()

A:B:C:D:

答案:

常用的池化操作有::(

)。

A:最小池化B:最大池化C:差值池化D:平均池化

答案:最大池化;平均池化

One-hot向量可以刻畫詞與詞之間的相似性(

A:對B:錯

答案:錯

前饋神經(jīng)網(wǎng)絡(luò)中存在反饋。(

A:對B:錯

答案:錯

第五章測試

下列說法錯誤的是(

)。

A:循環(huán)神經(jīng)網(wǎng)絡(luò)的神經(jīng)元存在自反饋。B:循環(huán)神經(jīng)網(wǎng)絡(luò)已經(jīng)被廣泛應(yīng)用在語音識別、語言模型以及自然語言生成等任務(wù)上。C:循環(huán)神經(jīng)網(wǎng)絡(luò)比前饋神經(jīng)網(wǎng)絡(luò)更加符合生物神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。D:循環(huán)神經(jīng)網(wǎng)絡(luò)不能處理任意長度的序列

答案:循環(huán)神經(jīng)網(wǎng)絡(luò)不能處理任意長度的序列

下列說法正確的是(

)。

A:雙向RNN很好地解決了梯度消失的問題B:如果一個完全連接的RNN有足夠數(shù)量的sigmoid型隱藏神經(jīng)元,它可以以任意的準(zhǔn)確率去近似任何一個非線性動力系統(tǒng)個。C:長期短期記憶網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò)。D:典型的前饋神經(jīng)網(wǎng)絡(luò)存在梯度爆炸的問題

答案:如果一個完全連接的RNN有足夠數(shù)量的sigmoid型隱藏神經(jīng)元,它可以以任意的準(zhǔn)確率去近似任何一個非線性動力系統(tǒng)個。

雙向RNN反向傳播過程也是雙向的。(

A:對B:錯

答案:對

信息抽取是指從結(jié)構(gòu)化文本中抽取信息。(

A:錯B:對

答案:錯

下列哪些屬于組合式attention結(jié)構(gòu):(

)。

A:Multi-Step

AttentionB:Self-AttentionC:Attention

over

AttentionD:Memory-based

Attention

答案:Multi-Step

Attention;Attention

over

Attention;Memory-based

Attention

第六章測試

與傳統(tǒng)結(jié)構(gòu)化數(shù)據(jù)庫相比,下列哪一項不是知識圖譜的優(yōu)勢?(

)。

A:更有效表達(dá)數(shù)據(jù)的關(guān)聯(lián)類型。B:形成更靈活的異構(gòu)數(shù)據(jù)關(guān)聯(lián)C:支持更高效的基于路徑的檢索與分析D:更容易實現(xiàn)。

答案:更容易實現(xiàn)。

下列哪一項不是知識圖譜的特點(diǎn)(

)。

A:提供啟發(fā)式結(jié)構(gòu)B:是支持知識驅(qū)動型任務(wù)的有例工具C:填補(bǔ)數(shù)據(jù)與語義之間的鴻溝D:無法對抗信息過載

答案:無法對抗信息過載

下列哪些屬于知識圖譜的應(yīng)用::(

)。

A:輔助大數(shù)據(jù)分析B:物體識別C:搜索與問答D:推薦系統(tǒng)

答案:輔助大數(shù)據(jù)分析;搜索與問答;推薦系統(tǒng)

基于深度學(xué)習(xí)的命名實體識別是目前研究與應(yīng)用的主流方法。(

A:對B:錯

答案:對

訓(xùn)練樣本噪聲小是遠(yuǎn)程監(jiān)督的優(yōu)點(diǎn)。(

A:錯B:對

答案:錯

第七章測試

下列不屬于強(qiáng)化學(xué)習(xí)的特點(diǎn)的是(

)。

A:序列決策過程B:基于評估C:實時反饋D:交互性

答案:實時反饋

下列關(guān)于環(huán)境的描述錯誤的是(

)。

A:按照一定的規(guī)律發(fā)生變化。B:環(huán)境的變化受到智能主體的影響。C:向智能主體反饋狀態(tài)和獎勵。D:系統(tǒng)中智能主體以外的部分。

答案:環(huán)境的變化受到智能主體的影響。

關(guān)于智能主體下列描述正確的有:(

)。

A:動作是智能主體對環(huán)境的被動反應(yīng)。B:智能主體可能知道也可能不知道環(huán)境的變化規(guī)律C:狀態(tài)指的是智能主體對環(huán)境的一種解釋。D:按照某種策略,根據(jù)當(dāng)前的狀態(tài)選擇合適的動作。

答案:智能主體可能知道也可能不知道環(huán)境的變化規(guī)律;狀態(tài)指的是智能主體對環(huán)境的一種解釋。;按照某種策略,根據(jù)當(dāng)前的狀態(tài)選擇合適的動作。

一個好的策略是在當(dāng)前狀態(tài)下采取一個行動后,該行動能夠在未來收到最大化反饋。(

A:對B:錯

答案:對

Deep

Q-learning能夠用有限的參數(shù)刻畫無限的狀態(tài)。(

A:對B:錯

答案:對

第八章測試

下列不屬于AutoML方法的是(

)。

A:超參數(shù)優(yōu)化B:遷移學(xué)習(xí)C:神經(jīng)架構(gòu)搜索D:元學(xué)習(xí)

答案:遷移學(xué)習(xí)

下列說法錯誤的是(

)。

A:進(jìn)化算法具有自組織、自適應(yīng)、自學(xué)習(xí)等特點(diǎn)。B:進(jìn)化算法是一種無梯度優(yōu)化算法。C:進(jìn)化算法效率很高。D:進(jìn)化算法可能會得到全局最優(yōu)解。

答案:進(jìn)化算法效率很高。

下列哪些屬于AutoML系統(tǒng):(

)。

A:自動網(wǎng)絡(luò)B:Auto-WEKAC:Hyperopt-SklearnD:TPOT

答案:自動網(wǎng)絡(luò);Auto-WEKA;Hyperopt-Sklearn;TPOT

動態(tài)規(guī)劃是從前驅(qū)狀態(tài)推斷后繼狀態(tài)來計算賦值函數(shù)。(

A:錯B:對

答案:對

目前以深度學(xué)習(xí)為代表的人工智能計算需求,主要采用GPU、FPGA等已有的適合并行計算的通用芯片來實現(xiàn)加速。(

A:對B:錯

答案:對

第九章測試

下列關(guān)于Tensorflow說法錯誤的是(

)。

A:由Facebook進(jìn)行開發(fā)。B:可以把編輯好的文件轉(zhuǎn)換成更高效的C++,并在后端運(yùn)行。C:是一款神經(jīng)網(wǎng)絡(luò)的Python外部結(jié)構(gòu)包。D:可以繪制計算結(jié)構(gòu)圖

。

答案:由Facebook進(jìn)行開發(fā)。

函數(shù)tf.reduce_mean(v)的作用是(

)。

A:求數(shù)組v各項與平均數(shù)的差值B:求v數(shù)組的平均數(shù)C:求數(shù)組v的標(biāo)準(zhǔn)差D:求數(shù)組v的方差

答案:求數(shù)組v的標(biāo)準(zhǔn)差

下列屬于Tensorflow的有點(diǎn)的是:(

)。

A:開源性。B:是當(dāng)今最好用的神經(jīng)網(wǎng)絡(luò)庫之一。C:降低了深度學(xué)習(xí)的開發(fā)成本和開發(fā)難度。D:它擅長與訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)

答案:開源性。;是當(dāng)今最好用的神經(jīng)網(wǎng)絡(luò)庫之一。;降低了深度學(xué)習(xí)的開發(fā)成本和開發(fā)難度。;它擅長與訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)

PyTorch的API是圍繞命令行式的編程(

A:對B:錯

答案:對

TensorFlow在2.0.0版本后將取代計算題稱為默認(rèn)設(shè)置。(

A:對B:錯

答案:對

第十章測試

下列說法錯誤的是(

)。

A:因果的關(guān)鍵因素是平衡混淆變量X的分布。B:因果推理的關(guān)鍵因素是保證其它變量不變,改變果變量Y。C:因果效應(yīng)是指因變量T改變一個單位時,果變量Y的變化程度。D:因果的定義是變量T是變量Y的原因,當(dāng)且僅當(dāng)保持其它所有變量不變的情況下,改變T的值能導(dǎo)致Y的值發(fā)生變化。

答案:因果推理的關(guān)鍵因素是保證其它變量不變,改變果變量Y。

下列不屬于因果推

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論