機(jī)器學(xué)習(xí)實(shí)戰(zhàn)-基于Scikit-Learn智慧樹(shù)知到課后章節(jié)答案2023年下蘭州石化職業(yè)技術(shù)大學(xué)_第1頁(yè)
機(jī)器學(xué)習(xí)實(shí)戰(zhàn)-基于Scikit-Learn智慧樹(shù)知到課后章節(jié)答案2023年下蘭州石化職業(yè)技術(shù)大學(xué)_第2頁(yè)
機(jī)器學(xué)習(xí)實(shí)戰(zhàn)-基于Scikit-Learn智慧樹(shù)知到課后章節(jié)答案2023年下蘭州石化職業(yè)技術(shù)大學(xué)_第3頁(yè)
機(jī)器學(xué)習(xí)實(shí)戰(zhàn)-基于Scikit-Learn智慧樹(shù)知到課后章節(jié)答案2023年下蘭州石化職業(yè)技術(shù)大學(xué)_第4頁(yè)
機(jī)器學(xué)習(xí)實(shí)戰(zhàn)-基于Scikit-Learn智慧樹(shù)知到課后章節(jié)答案2023年下蘭州石化職業(yè)技術(shù)大學(xué)_第5頁(yè)
已閱讀5頁(yè),還剩6頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

機(jī)器學(xué)習(xí)實(shí)戰(zhàn)——基于Scikit-Learn智慧樹(shù)知到課后章節(jié)答案2023年下蘭州石化職業(yè)技術(shù)大學(xué)蘭州石化職業(yè)技術(shù)大學(xué)

第一章測(cè)試

以下屬于監(jiān)督學(xué)習(xí)算法的有()

A:K近鄰算法B:支持向量機(jī)(SVM)C:神經(jīng)網(wǎng)絡(luò)D:決策樹(shù)和隨機(jī)森林E:邏輯回歸F:線性回歸

答案:K近鄰算法;支持向量機(jī)(SVM);神經(jīng)網(wǎng)絡(luò);決策樹(shù)和隨機(jī)森林;邏輯回歸;線性回歸

以下屬于監(jiān)督學(xué)習(xí)算法的有()

A:可視化和降維B:關(guān)聯(lián)性規(guī)則學(xué)習(xí)C:聚類(lèi)

答案:可視化和降維;關(guān)聯(lián)性規(guī)則學(xué)習(xí);聚類(lèi)

下載維基百科的副本,電腦得到了更多的數(shù)據(jù),因此維基百科的副本是一個(gè)機(jī)器學(xué)習(xí)應(yīng)用。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)

使用機(jī)器學(xué)習(xí)方法挖掘大量數(shù)據(jù),可以發(fā)現(xiàn)并不顯著的規(guī)律。這稱(chēng)作數(shù)據(jù)挖掘。()

A:錯(cuò)B:對(duì)

答案:對(duì)

根據(jù)是否可以動(dòng)態(tài)漸進(jìn)學(xué)習(xí),將機(jī)器學(xué)習(xí)分為在線學(xué)習(xí)和批量學(xué)習(xí)。()

A:錯(cuò)B:對(duì)

答案:對(duì)

通過(guò)簡(jiǎn)單地比較新的數(shù)據(jù)點(diǎn)和已知的數(shù)據(jù)點(diǎn),這樣的機(jī)器學(xué)習(xí)應(yīng)用是基于實(shí)例的學(xué)習(xí)。()

A:錯(cuò)B:對(duì)

答案:對(duì)

在訓(xùn)練數(shù)據(jù)中進(jìn)行模式識(shí)別,以建立一個(gè)預(yù)測(cè)模型,這種機(jī)器學(xué)習(xí)應(yīng)用是基于模型的學(xué)習(xí)。()

A:對(duì)B:錯(cuò)

答案:對(duì)

垃圾郵件過(guò)濾器就是一個(gè)典型的回歸任務(wù)。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)

在線學(xué)習(xí)系統(tǒng)的一個(gè)重要參數(shù)是學(xué)習(xí)速率,它決定了系統(tǒng)可以多快的適應(yīng)數(shù)據(jù)的改變。()

A:對(duì)B:錯(cuò)

答案:對(duì)

在線學(xué)習(xí)的挑戰(zhàn)之一是,如果壞數(shù)據(jù)被用來(lái)進(jìn)行訓(xùn)練,系統(tǒng)的性能就會(huì)逐漸下滑。()

A:對(duì)B:錯(cuò)

答案:對(duì)

第二章測(cè)試

房?jī)r(jià)預(yù)測(cè)模型是典型的()

A:回歸任務(wù)B:批量學(xué)習(xí)任務(wù)C:監(jiān)督式學(xué)習(xí)任務(wù)D:強(qiáng)化學(xué)習(xí)任務(wù)

答案:回歸任務(wù);批量學(xué)習(xí)任務(wù);監(jiān)督式學(xué)習(xí)任務(wù)

機(jī)器學(xué)習(xí)系統(tǒng)啟動(dòng)后,需要()

A:評(píng)估系統(tǒng)輸入數(shù)據(jù)的質(zhì)量。B:評(píng)估系統(tǒng)性能,需要對(duì)預(yù)測(cè)值采樣并進(jìn)行評(píng)估。C:定期使用新數(shù)據(jù)訓(xùn)練模型。D:編寫(xiě)監(jiān)控代碼,以定期檢查系統(tǒng)的實(shí)時(shí)性能,在性能發(fā)生下降時(shí)觸發(fā)報(bào)警。

答案:評(píng)估系統(tǒng)輸入數(shù)據(jù)的質(zhì)量。;評(píng)估系統(tǒng)性能,需要對(duì)預(yù)測(cè)值采樣并進(jìn)行評(píng)估。;定期使用新數(shù)據(jù)訓(xùn)練模型。;編寫(xiě)監(jiān)控代碼,以定期檢查系統(tǒng)的實(shí)時(shí)性能,在性能發(fā)生下降時(shí)觸發(fā)報(bào)警。

回歸問(wèn)題的典型性能衡量指標(biāo)是均方根誤差()

A:錯(cuò)B:對(duì)

答案:對(duì)

一個(gè)序列的數(shù)據(jù)處理組件稱(chēng)為一個(gè)數(shù)據(jù)流水線。()

A:錯(cuò)B:對(duì)

答案:對(duì)

數(shù)據(jù)可視化是數(shù)據(jù)探索的方法之一。()

A:錯(cuò)B:對(duì)

答案:對(duì)

流水線的組件通常是同步運(yùn)行。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)

第三章測(cè)試

使用二元分類(lèi)器將數(shù)字圖片分為10類(lèi)(從0到9),意味著要訓(xùn)練()個(gè)二元分類(lèi)器

A:10B:45C:90D:100

答案:45

多輸出分類(lèi)是多標(biāo)簽分類(lèi)的泛化()

A:對(duì)B:錯(cuò)

答案:對(duì)

多標(biāo)簽分類(lèi)和多類(lèi)別分類(lèi)器本質(zhì)上是相同的。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)

分析混淆矩陣可以幫助我們深入了解如何改進(jìn)分類(lèi)器。()

A:對(duì)B:錯(cuò)

答案:對(duì)

可以使用混淆矩陣進(jìn)行誤差分析。()

A:錯(cuò)B:對(duì)

答案:對(duì)

第四章測(cè)試

當(dāng)特征的個(gè)數(shù)較大的時(shí)候(例如:特征數(shù)量為100000),標(biāo)準(zhǔn)方程求解將會(huì)非常慢()

A:錯(cuò)B:對(duì)

答案:對(duì)

梯度下降是一種非常通用的優(yōu)化算法,它能夠很好地解決一系列問(wèn)題。梯度下降的整體思路是通過(guò)的迭代來(lái)逐漸調(diào)整參數(shù)使得損失函數(shù)達(dá)到最大值。()

A:對(duì)B:錯(cuò)

答案:對(duì)

可以使用線性模型來(lái)擬合非線性數(shù)據(jù)。()

A:錯(cuò)B:對(duì)

答案:對(duì)

一些回歸算法也可以用于分類(lèi)。()

A:錯(cuò)B:對(duì)

答案:對(duì)

一些分類(lèi)算法也可以用于回歸。()

A:對(duì)B:錯(cuò)

答案:對(duì)

第五章測(cè)試

以下關(guān)于支持向量機(jī)的說(shuō)法正確的是()。

A:SVM方法簡(jiǎn)單,魯棒性較差B:SVM適用于大規(guī)模數(shù)據(jù)集C:SVM分類(lèi)思想就是將分類(lèi)面之間的間隔最小化D:SVM分類(lèi)面取決于支持向量

答案:SVM分類(lèi)面取決于支持向量

以下關(guān)于訓(xùn)練集、驗(yàn)證集和測(cè)試集說(shuō)法不正確的是()。

A:訓(xùn)練集是用來(lái)訓(xùn)練以及評(píng)估模型性能B:測(cè)試集是純粹是用于測(cè)試模型泛化能力C:驗(yàn)證集用于調(diào)整模型參數(shù)D:其余

答案:訓(xùn)練集是用來(lái)訓(xùn)練以及評(píng)估模型性能

下列哪種方法可以用來(lái)緩解過(guò)擬合的產(chǎn)生:()。

A:增加更多的特征B:A,B,CC:正則化D:增加模型的復(fù)雜度

答案:正則化

SVM的原理的簡(jiǎn)單描述,可概括為:最大間隔分類(lèi)。()

A:對(duì)B:錯(cuò)

答案:對(duì)

假定你使用階數(shù)為2的線性核SVM,將模型應(yīng)用到實(shí)際數(shù)據(jù)集上后,其訓(xùn)練準(zhǔn)確率和測(cè)試準(zhǔn)確率均為100%?,F(xiàn)在增加模型復(fù)雜度(增加核函數(shù)的階),會(huì)發(fā)生以下哪種情況:過(guò)擬合。()

A:對(duì)B:錯(cuò)

答案:對(duì)

第六章測(cè)試

當(dāng)數(shù)據(jù)分布不平衡時(shí),我們可采取的措施不包括()。

A:對(duì)數(shù)據(jù)分布較少的類(lèi)別過(guò)采樣B:對(duì)數(shù)據(jù)分布較多的類(lèi)別賦予更大的權(quán)重C:對(duì)數(shù)據(jù)分布較少的類(lèi)別賦予更大的權(quán)重D:對(duì)數(shù)據(jù)分布較多的類(lèi)別欠采樣

答案:對(duì)數(shù)據(jù)分布較多的類(lèi)別賦予更大的權(quán)重

?哪些機(jī)器學(xué)習(xí)模型經(jīng)過(guò)訓(xùn)練,能夠根據(jù)其行為獲得的獎(jiǎng)勵(lì)和反饋?zhàn)龀鲆幌盗袥Q策?()

A:強(qiáng)化學(xué)習(xí)B:監(jiān)督學(xué)習(xí)C:以下全部D:無(wú)監(jiān)督學(xué)習(xí)

答案:監(jiān)督學(xué)習(xí)

我們想要在大數(shù)據(jù)集上訓(xùn)練決策樹(shù)模型,為了使用較少的時(shí)間,可以:()。

A:減少樹(shù)的深度B:增加樹(shù)的深度C:增大學(xué)習(xí)率D:減少樹(shù)的數(shù)量

答案:減少樹(shù)的深度

決策樹(shù)算法中特征空間越大,過(guò)擬合的可能性越大。()

A:錯(cuò)B:對(duì)

答案:對(duì)

大部分的機(jī)器學(xué)習(xí)工程中,數(shù)據(jù)搜集、數(shù)據(jù)清洗、特征工程這三個(gè)步驟絕大部分時(shí)間,而數(shù)據(jù)建模,占總時(shí)間比較少。()

A:錯(cuò)B:對(duì)

答案:對(duì)

第七章測(cè)試

使用Scikit-Learn使,將應(yīng)投票更改為軟投票,則()。

A:默認(rèn)情況下,SVC類(lèi)可以B:用voting=”soft”代替voting=”hard”C:確保所有分類(lèi)器都可以估算出概率D:超參數(shù)probability設(shè)置為T(mén)ure

答案:用voting=”soft”代替voting=”hard”;確保所有分類(lèi)器都可以估算出概率;超參數(shù)probability設(shè)置為T(mén)ure

關(guān)于bagging與pasting兩種方法錯(cuò)誤的是()。

A:采樣時(shí)pasting要將樣本放回B:bagging和pasting不允許訓(xùn)練實(shí)例在多個(gè)預(yù)測(cè)器中被多次采樣C:采樣時(shí)bagging要將樣本放回D:pasting允許訓(xùn)練實(shí)例被同一個(gè)預(yù)測(cè)器多次采樣

答案:采樣時(shí)bagging要將樣本放回

特征的重要性表現(xiàn)為()。

A:重要的特征更可能出現(xiàn)在靠近葉節(jié)點(diǎn)的位置B:無(wú)法估算出一個(gè)特征的重要程度C:重要的特征更可能出現(xiàn)在靠近根節(jié)點(diǎn)的位置D:不重要的特征根本不會(huì)出現(xiàn)

答案:重要的特征更可能出現(xiàn)在靠近根節(jié)點(diǎn)的位置

使用梯度提升方法找到書(shū)的最佳數(shù)量,可以使用()。

A:持續(xù)訓(xùn)練法B:晚期停止法C:包外評(píng)估D:早期停止法

答案:晚期停止法

堆疊法又稱(chēng)層疊泛化法,它訓(xùn)練一個(gè)模型來(lái)執(zhí)行聚合任務(wù)。()

A:錯(cuò)B:對(duì)

答案:對(duì)

第八章測(cè)試

關(guān)于數(shù)據(jù)降維,以下說(shuō)法正確的是()。

A:能夠加速訓(xùn)練B:會(huì)輕微降低系統(tǒng)性能C:會(huì)丟失一些信息D:維護(hù)難度上升

答案:能夠加速訓(xùn)練;會(huì)輕微降低系統(tǒng)性能;會(huì)丟失一些信息;維護(hù)難度上升

關(guān)于主成分分析,以下說(shuō)法正確的是()。

A:要將數(shù)據(jù)投影在超平面上B:可以隨意選擇正確的數(shù)量維度C:主成分的方向穩(wěn)定D:要先識(shí)別出最接近數(shù)據(jù)的超平面

答案:要將數(shù)據(jù)投影在超平面上;要先識(shí)別出最接近數(shù)據(jù)的超平面

在PCA投影上運(yùn)行投影的逆轉(zhuǎn)換,得到的數(shù)據(jù)與原始數(shù)據(jù)一摸一樣。

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論