機(jī)器學(xué)習(xí):模型與算法(浙江大學(xué))知到智慧樹章節(jié)答案_第1頁(yè)
機(jī)器學(xué)習(xí):模型與算法(浙江大學(xué))知到智慧樹章節(jié)答案_第2頁(yè)
機(jī)器學(xué)習(xí):模型與算法(浙江大學(xué))知到智慧樹章節(jié)答案_第3頁(yè)
機(jī)器學(xué)習(xí):模型與算法(浙江大學(xué))知到智慧樹章節(jié)答案_第4頁(yè)
機(jī)器學(xué)習(xí):模型與算法(浙江大學(xué))知到智慧樹章節(jié)答案_第5頁(yè)
已閱讀5頁(yè),還剩3頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第一章單元測(cè)試第二章單元測(cè)試第三章單元測(cè)試第四章單元測(cè)試第五章單元測(cè)試第六章單元測(cè)試第七章單元測(cè)試第八章單元測(cè)試第九章單元測(cè)試第十章單元測(cè)試1【單選題】(2分)sigmoid函數(shù)的值域?yàn)椋浚?/p>

)。正確答案:AA.(0,1)B.(0,1]C.[0,1)D.[0,1]2【多選題】(3分)哪些屬于監(jiān)督學(xué)習(xí)重要元素?(

)。正確答案:BCDA.數(shù)據(jù)映射B.標(biāo)注數(shù)據(jù)C.損失函數(shù)D.學(xué)習(xí)模型3【判斷題】(1分)分析不同變量之間存在關(guān)系的研究叫回歸分析。(

)正確答案:BA.錯(cuò)B.對(duì)4【判斷題】(1分)強(qiáng)可學(xué)習(xí)和弱可學(xué)習(xí)是等價(jià)的。(

)正確答案:AA.對(duì)B.錯(cuò)5【單選題】(2分)下面的說法正確的是()。正確答案:AA.邏輯回歸只能處理二分類問題B.C.Sigmoid的函數(shù)是單調(diào)遞減的D.邏輯回歸屬于線性回歸1【單選題】(2分)下面的說法正確的是(

)。正確答案:BA.在K均值聚類算法中初始化聚類中心對(duì)聚類結(jié)果影響不大。B.K均值聚類算法實(shí)質(zhì)上是最小化每個(gè)類簇的方差。C.X和Y彼此獨(dú)立,|cor(X,Y)|可能不等于零。D.協(xié)方差不能反應(yīng)兩個(gè)變量之間的相關(guān)度。2【單選題】(2分)哪一項(xiàng)是皮爾遜相關(guān)系數(shù)的性質(zhì)?(

)。正確答案:CA.X與Y協(xié)方差的絕對(duì)值小于1B.X與Y協(xié)方差的絕對(duì)值大于1C.X與Y協(xié)方差的絕對(duì)值小于等于1D.X與Y協(xié)方差的絕對(duì)值大于等于13【多選題】(3分)下面的說法正確的有(

)。正確答案:ADA.EM算法分為求取期望和期望最大化兩個(gè)步驟。B.在K均值聚類算法中,未達(dá)到迭代次數(shù)上限,迭代不會(huì)停止。C.在K均值聚類算法中,我們不必事先就確定聚類數(shù)目。D.在K均值聚類算法中,歐式距離與方差量綱相同。4【判斷題】(1分)K均值聚類屬于監(jiān)督學(xué)習(xí)。(

)正確答案:AA.錯(cuò)B.對(duì)5【判斷題】(1分)特征人臉方法的本質(zhì)是用稱為“特征人臉”的特征向量按照線性組合形式表達(dá)每一張?jiān)既四槇D像。(

)正確答案:AA.對(duì)B.錯(cuò)1【單選題】(2分)下列哪一項(xiàng)不是運(yùn)用半監(jiān)督學(xué)習(xí)的原因(

)。正確答案:DA.數(shù)據(jù)標(biāo)注非常昂貴B.存在大量為標(biāo)記數(shù)據(jù)C.有標(biāo)注的數(shù)據(jù)很稀少D.為獲得更高的機(jī)器學(xué)習(xí)性能2【單選題】(2分)在半監(jiān)督學(xué)習(xí)中下列哪種說法是錯(cuò)誤的(

)。正確答案:CA.“聚類假設(shè)的推廣,對(duì)輸出值沒有限制”屬于流形假設(shè)的范疇。B.“假設(shè)數(shù)據(jù)存在簇結(jié)構(gòu),同一個(gè)簇多的樣本屬于同一類別?!睂儆诰垲惣僭O(shè)C.“聚類假設(shè)的推廣,對(duì)輸出值沒有限制”屬于聚類假設(shè)的范疇。D.“假設(shè)數(shù)據(jù)分布在一個(gè)流形架構(gòu)上,鄰近的樣本擁有相似的輸出值?!睂儆诹餍渭僭O(shè)3【多選題】(3分)半監(jiān)督學(xué)習(xí)方法有:(

)。正確答案:ABDA.半監(jiān)督SVMB.基于圖表的半監(jiān)督學(xué)習(xí)C.K均值聚類D.生成方法4【判斷題】(1分)在有標(biāo)記數(shù)據(jù)極少的情形下往往比其他方法性能更好是半監(jiān)督學(xué)習(xí)生成式方法流程的優(yōu)點(diǎn)。(

)正確答案:BA.錯(cuò)B.對(duì)5【判斷題】(1分)基于圖表的半監(jiān)督學(xué)習(xí)不用占有太大內(nèi)存。(

)正確答案:AA.錯(cuò)B.對(duì)1【單選題】(2分)下列說法正確的是(

)。正確答案:AA.感知機(jī)網(wǎng)絡(luò)只有輸入層/輸出層,無隱藏層。B.BP算法是一種將隱藏層誤差反向傳播給輸出層進(jìn)行參數(shù)更新的方法。C.感知機(jī)網(wǎng)絡(luò)可以擬合復(fù)雜的數(shù)據(jù)。D.Hot-hot向量可以用盡可能少的維數(shù)對(duì)數(shù)據(jù)進(jìn)行描述。2【單選題】(2分)一元變量所構(gòu)成函數(shù)f在x處的梯度為()正確答案:AA.B.C.D.3【多選題】(3分)常用的池化操作有::(

)。正確答案:CDA.差值池化B.最小池化C.最大池化D.平均池化4【判斷題】(1分)One-hot向量可以刻畫詞與詞之間的相似性(

)正確答案:AA.錯(cuò)B.對(duì)5【判斷題】(1分)前饋神經(jīng)網(wǎng)絡(luò)中存在反饋。(

)正確答案:AA.錯(cuò)B.對(duì)1【單選題】(2分)下列說法錯(cuò)誤的是(

)。正確答案:CA.循環(huán)神經(jīng)網(wǎng)絡(luò)已經(jīng)被廣泛應(yīng)用在語(yǔ)音識(shí)別、語(yǔ)言模型以及自然語(yǔ)言生成等任務(wù)上。B.循環(huán)神經(jīng)網(wǎng)絡(luò)的神經(jīng)元存在自反饋。C.循環(huán)神經(jīng)網(wǎng)絡(luò)不能處理任意長(zhǎng)度的序列D.循環(huán)神經(jīng)網(wǎng)絡(luò)比前饋神經(jīng)網(wǎng)絡(luò)更加符合生物神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。2【單選題】(2分)下列說法正確的是(

)。正確答案:AA.如果一個(gè)完全連接的RNN有足夠數(shù)量的sigmoid型隱藏神經(jīng)元,它可以以任意的準(zhǔn)確率去近似任何一個(gè)非線性動(dòng)力系統(tǒng)個(gè)。B.典型的前饋神經(jīng)網(wǎng)絡(luò)存在梯度爆炸的問題C.雙向RNN很好地解決了梯度消失的問題D.長(zhǎng)期短期記憶網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò)。3【判斷題】(1分)雙向RNN反向傳播過程也是雙向的。(

)正確答案:AA.對(duì)B.錯(cuò)4【判斷題】(1分)信息抽取是指從結(jié)構(gòu)化文本中抽取信息。(

)正確答案:AA.錯(cuò)B.對(duì)5【多選題】(3分)下列哪些屬于組合式attention結(jié)構(gòu):(

)。正確答案:ACDA.Multi-Step

AttentionB.Self-AttentionC.Memory-based

AttentionD.Attention

over

Attention1【單選題】(2分)與傳統(tǒng)結(jié)構(gòu)化數(shù)據(jù)庫(kù)相比,下列哪一項(xiàng)不是知識(shí)圖譜的優(yōu)勢(shì)?(

)。正確答案:BA.形成更靈活的異構(gòu)數(shù)據(jù)關(guān)聯(lián)B.更容易實(shí)現(xiàn)。C.更有效表達(dá)數(shù)據(jù)的關(guān)聯(lián)類型。D.支持更高效的基于路徑的檢索與分析2【單選題】(2分)下列哪一項(xiàng)不是知識(shí)圖譜的特點(diǎn)(

)。正確答案:AA.無法對(duì)抗信息過載B.提供啟發(fā)式結(jié)構(gòu)C.填補(bǔ)數(shù)據(jù)與語(yǔ)義之間的鴻溝D.是支持知識(shí)驅(qū)動(dòng)型任務(wù)的有例工具3【多選題】(3分)下列哪些屬于知識(shí)圖譜的應(yīng)用::(

)。正確答案:ACDA.輔助大數(shù)據(jù)分析B.物體識(shí)別C.搜索與問答D.推薦系統(tǒng)4【判斷題】(1分)基于深度學(xué)習(xí)的命名實(shí)體識(shí)別是目前研究與應(yīng)用的主流方法。(

)正確答案:AA.對(duì)B.錯(cuò)5【判斷題】(1分)訓(xùn)練樣本噪聲小是遠(yuǎn)程監(jiān)督的優(yōu)點(diǎn)。(

)正確答案:BA.對(duì)B.錯(cuò)1【單選題】(2分)下列不屬于強(qiáng)化學(xué)習(xí)的特點(diǎn)的是(

)。正確答案:AA.實(shí)時(shí)反饋B.序列決策過程C.交互性D.基于評(píng)估2【單選題】(2分)下列關(guān)于環(huán)境的描述錯(cuò)誤的是(

)。正確答案:BA.向智能主體反饋狀態(tài)和獎(jiǎng)勵(lì)。B.環(huán)境的變化受到智能主體的影響。C.按照一定的規(guī)律發(fā)生變化。D.系統(tǒng)中智能主體以外的部分。3【多選題】(3分)關(guān)于智能主體下列描述正確的有:(

)。正確答案:ACDA.按照某種策略,根據(jù)當(dāng)前的狀態(tài)選擇合適的動(dòng)作。B.動(dòng)作是智能主體對(duì)環(huán)境的被動(dòng)反應(yīng)。C.狀態(tài)指的是智能主體對(duì)環(huán)境的一種解釋。D.智能主體可能知道也可能不知道環(huán)境的變化規(guī)律4【判斷題】(1分)一個(gè)好的策略是在當(dāng)前狀態(tài)下采取一個(gè)行動(dòng)后,該行動(dòng)能夠在未來收到最大化反饋。(

)正確答案:BA.錯(cuò)B.對(duì)5【判斷題】(1分)Deep

Q-learning能夠用有限的參數(shù)刻畫無限的狀態(tài)。(

)正確答案:AA.對(duì)B.錯(cuò)1【單選題】(2分)下列不屬于AutoML方法的是(

)。正確答案:CA.神經(jīng)架構(gòu)搜索B.超參數(shù)優(yōu)化C.遷移學(xué)習(xí)D.元學(xué)習(xí)2【單選題】(2分)下列說法錯(cuò)誤的是(

)。正確答案:CA.進(jìn)化算法是一種無梯度優(yōu)化算法。B.進(jìn)化算法可能會(huì)得到全局最優(yōu)解。C.進(jìn)化算法效率很高。D.進(jìn)化算法具有自組織、自適應(yīng)、自學(xué)習(xí)等特點(diǎn)。3【多選題】(3分)下列哪些屬于AutoML系統(tǒng):(

)。正確答案:ABCDA.自動(dòng)網(wǎng)絡(luò)B.TPOTC.Hyperopt-SklearnD.Auto-WEKA4【判斷題】(1分)動(dòng)態(tài)規(guī)劃是從前驅(qū)狀態(tài)推斷后繼狀態(tài)來計(jì)算賦值函數(shù)。(

)正確答案:AA.對(duì)B.錯(cuò)5【判斷題】(1分)目前以深度學(xué)習(xí)為代表的人工智能計(jì)算需求,主要采用GPU、FPGA等已有的適合并行計(jì)算的通用芯片來實(shí)現(xiàn)加速。(

)正確答案:BA.錯(cuò)B.對(duì)1【單選題】(2分)下列關(guān)于Tensorflow說法錯(cuò)誤的是(

)。正確答案:BA.可以繪制計(jì)算結(jié)構(gòu)圖

。B.由Facebook進(jìn)行開發(fā)。C.可以把編輯好的文件轉(zhuǎn)換成更高效的C++,并在后端運(yùn)行。D.是一款神經(jīng)網(wǎng)絡(luò)的Python外部結(jié)構(gòu)包。2【單選題】(2分)函數(shù)tf.reduce_mean(v)的作用是(

)。正確答案:BA.求v數(shù)組的平均數(shù)B.求數(shù)組v的標(biāo)準(zhǔn)差C.求數(shù)組v的方差D.求數(shù)組v各項(xiàng)與平均數(shù)的差值3【多選題】(3分)下列屬于Tensorflow的有點(diǎn)的是:(

)。正確答案:ABCDA.它擅長(zhǎng)與訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)B.是當(dāng)今最好用的神經(jīng)網(wǎng)絡(luò)庫(kù)之一。C.降低了深度學(xué)習(xí)的開發(fā)成本和開發(fā)難度。D.開源性。4【判斷題】(1分)PyTorch的API是圍繞命令行式的編程(

)正確答案:BA.錯(cuò)B.對(duì)5【判斷題】(1分)TensorFlow在2.0.0版本后將取代計(jì)算題稱為默認(rèn)設(shè)置。(

)正確答案:AA.對(duì)B.錯(cuò)1【單選題】(2分)下列說法錯(cuò)誤的是(

)。正確答案:CA.因果效應(yīng)是指因變量T改變一個(gè)單位時(shí),果變量Y的變化程度。B.因果的關(guān)鍵因素是平衡混淆變量X的分布。C.因果推理的關(guān)鍵因素是保證其它變量不變,改變果變量Y。D.因果的定義是變量T是變量Y的原因,當(dāng)且僅當(dāng)保持其它所有變量不變的情況下,改變T的值能導(dǎo)致Y的值發(fā)生變化。2【單選題】(2分)下列不屬于因果推理方法的是(

)。正確

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論