機(jī)器學(xué)習(xí)基礎(chǔ)知到章節(jié)答案智慧樹2023年太原理工大學(xué)_第1頁
機(jī)器學(xué)習(xí)基礎(chǔ)知到章節(jié)答案智慧樹2023年太原理工大學(xué)_第2頁
機(jī)器學(xué)習(xí)基礎(chǔ)知到章節(jié)答案智慧樹2023年太原理工大學(xué)_第3頁
機(jī)器學(xué)習(xí)基礎(chǔ)知到章節(jié)答案智慧樹2023年太原理工大學(xué)_第4頁
機(jī)器學(xué)習(xí)基礎(chǔ)知到章節(jié)答案智慧樹2023年太原理工大學(xué)_第5頁
已閱讀5頁,還剩17頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

機(jī)器學(xué)習(xí)基礎(chǔ)知到章節(jié)測試答案智慧樹2023年最新太原理工大學(xué)第一章測試

樣本是連續(xù)型數(shù)據(jù)且有標(biāo)簽,我們采用()進(jìn)行機(jī)器學(xué)習(xí)。

參考答案:

回歸算法

在機(jī)器學(xué)習(xí)中,樣本常被分成()。

參考答案:

其它選項(xiàng)都有

機(jī)器學(xué)習(xí)算法需要顯示編程,具備歸納、總結(jié)等自學(xué)習(xí)能力。()

參考答案:

機(jī)器學(xué)習(xí)和人工智能、深度學(xué)習(xí)是一個概念,都是指機(jī)器模仿人類推理、學(xué)習(xí)能力。()

參考答案:

特征工程非常重要,在采用機(jī)器學(xué)習(xí)算法前,首先需要利用特征工程確定樣本屬性。()

參考答案:

第二章測試

K近鄰算法認(rèn)為距離越近的相似度越高。()

參考答案:

K近鄰算法中數(shù)據(jù)可以不做歸一化,因?yàn)槭欠駳w一化對結(jié)果影響不大。()

參考答案:

K近鄰算法中采用不同的距離公式對于結(jié)果沒有影響。()

參考答案:

在上面圖中,K=5,綠色樣本的類別是()。

參考答案:

藍(lán)色正方形

在K近鄰算法中,K的選擇是()?

參考答案:

與樣本有關(guān)

第三章測試

下列()中兩個變量之間的關(guān)系是線性的。

參考答案:

重力和質(zhì)量

下列說法不正確的是()。

參考答案:

回歸就是數(shù)據(jù)擬合

從某大學(xué)隨機(jī)選擇8名女大學(xué)生,其身高x(cm)和體重y(kg)的回歸方程是y=0.849x-85.712,則身高172cm的女大學(xué)生,預(yù)測體重為()。

參考答案:

60.316kg

lasso中采用的是L2正則化。()

參考答案:

線性回歸中加入正則化可以降低過擬合。()

參考答案:

第四章測試

以下說法正確的是()。

參考答案:

logistic回歸的樣本屬性是連續(xù)型數(shù)據(jù)

logistic回歸只能用于二分類問題。()

參考答案:

logistic回歸中也可以用正則化方法來防止過擬合。()

參考答案:

考慮一個有兩個屬性的logistic回歸問題。假設(shè),則分類決策平面是()。

參考答案:

假設(shè)訓(xùn)練了一個logistic回歸分類器,對于一個樣本我們有,則該式說明()。

參考答案:

;

第五章測試

以下關(guān)于梯度下降算法說法正確的是()。

參考答案:

學(xué)習(xí)率的選取會影響梯度下降算法的求解速度

隨機(jī)梯度下降導(dǎo)致方向變化過大,不能很快收斂到最優(yōu)解。()

參考答案:

小批量梯度下降是結(jié)合了批量梯度下降和隨機(jī)梯度下降,性能比批量梯度下降和隨機(jī)梯度下降都好。()

參考答案:

批量梯度下降是最原始的形式,它是指在每一次迭代時(shí)使用一部分樣本的梯度來更新參數(shù)。()

參考答案:

隨機(jī)梯度下降中每次迭代使用一個樣本的梯度。()

參考答案:

第六章測試

決策樹模型中建樹的基本原則是()。

參考答案:

信息增益大的屬性應(yīng)放在上層

哪些情況下必須停止樹的增長()

參考答案:

當(dāng)前數(shù)據(jù)子集為空;當(dāng)前數(shù)據(jù)子集的標(biāo)簽一致;沒有更多可用屬性;當(dāng)前訓(xùn)練誤差已經(jīng)較低

關(guān)于決策樹剪枝操作正確的描述是()。

參考答案:

可以防止過擬合

決策樹模型中如何處理連續(xù)型屬性()。

參考答案:

根據(jù)信息增益選擇閾值進(jìn)行離散化

下面哪個可能是決策樹的決策邊界()。

參考答案:

第七章測試

下面對集成學(xué)習(xí)模型中的弱學(xué)習(xí)器描述錯誤的是?()

參考答案:

弱學(xué)習(xí)器通常會過擬合

給定數(shù)據(jù)集及弱分類器如上圖,回答問題:初始樣本的權(quán)重為()。

參考答案:

0.1

給定數(shù)據(jù)集及弱分類器如上圖,回答問題:第一次迭代選擇的分類器是(

)。

參考答案:

;

給定數(shù)據(jù)集及弱分類器如上圖,回答問題:

經(jīng)過一次迭代,第一個弱學(xué)習(xí)器的權(quán)重為()。

參考答案:

0.4236

給定數(shù)據(jù)集及弱分類器如上圖,回答問題:經(jīng)過一次迭代,錯誤分類的樣本權(quán)重更新為()。

參考答案:

第八章測試

下列選項(xiàng)中,對于硬間隔支持向量機(jī),超平面應(yīng)該是()。

參考答案:

下列選項(xiàng)中,對于軟間隔支持向量機(jī),超平面應(yīng)該是()。

參考答案:

現(xiàn)有一個能被正確分類且遠(yuǎn)離超平面的樣本,如果將其刪除,不會影響超平面的選擇。()

參考答案:

上圖中,長方形框中的樣本松弛變量的值為()。

參考答案:

大于1

上圖中哪個超平面泛化能力更強(qiáng)()。

參考答案:

A

第九章測試

訓(xùn)練樣本如下,其中和

是特征,取值的集合為A1={1,2,3}和

A2={S,M,L},C是類標(biāo)記,取值為{-1,1},回答如下問題:采用樸素貝葉斯算法,樣本屬于

1的概率為:()

參考答案:

1.48%

訓(xùn)練樣本如上,其中和是特征,取值的集合為A1={1,2,3}和

A2={S,M,L},C是類標(biāo)記,取值為{-1,1},回答如下問題:采用樸素貝葉斯算法,確定的分類為:()

參考答案:

-1

訓(xùn)練樣本如上,其中和是特征,取值的集合為A1={1,2,3}和

A2={S,M,L},C是類標(biāo)記,取值為{-1,1},回答如下問題:采用樸素貝葉斯算法,樣本屬于

-1的概率為:()

參考答案:

10%

樸素貝葉斯的基本假設(shè)是屬性之間是相互獨(dú)立的。()

參考答案:

樸素貝葉斯是概率模型。()

參考答案:

第十章測試

以下對經(jīng)典K-means聚類算法解釋正確的是()

參考答案:

不能自動識別類的個數(shù),隨機(jī)挑選初始點(diǎn)為中心點(diǎn)計(jì)算

以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對用戶進(jìn)行聚類。并隨機(jī)選擇16和22作為兩個類別的初始質(zhì)心,回答以下問題:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代中,樣本“15”到質(zhì)心16的距離是()

參考答案:

1

以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對用戶進(jìn)行聚類。并隨機(jī)選擇16和22作為兩個類別的初始質(zhì)心,回答以下問題:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代結(jié)束后,樣本20的分類為()

參考答案:

原質(zhì)心22的類

以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對用戶進(jìn)行聚類。并隨機(jī)選擇16和22作為兩個類別的初始質(zhì)心,回答以下問題:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代結(jié)束后,原質(zhì)心16的類包含()個樣本。

參考答案:

3

以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對用戶進(jìn)行聚類。并隨機(jī)選擇16和22作為兩個類別的初始質(zhì)心,回答以下問題:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代結(jié)束后,原質(zhì)心16更新后的質(zhì)心是()。

參考答案:

15.33

第十一章測試

如果某個項(xiàng)集是頻繁的,那么它的所有子集也是頻繁的。()

參考答案:

如果某個項(xiàng)集是頻繁的,那么它的所有超集也是頻繁的。()

參考答案:

根據(jù)上面交易記錄,回答問題:2級頻繁項(xiàng)集有()。

參考答案:

尿布,豆奶

根據(jù)上面交易記錄,回答問題:規(guī)則“豆奶->萵苣”的可信度是()。

參考答案:

3/4

根據(jù)上面交易記錄,回答問題:“豆奶”的支持度是()。

參考答案:

4/5

第十二章測試

下列關(guān)于主成分分析法(PCA)說法錯誤的是?()

參考答案:

要選出方差最小的作為主成分

主成分分析是一個線性變化,就是把數(shù)據(jù)變換到一個新的坐標(biāo)系統(tǒng)中。()

參考答案:

假設(shè)將原矩陣降維到一維,采用的特征向量為,則映射后的結(jié)果為()。

參考答案:

假設(shè)有五條樣本,屬性是二維,樣本數(shù)據(jù)為:請回答以下問題:協(xié)方差矩陣為()。

參考答案:

假設(shè)有五條樣本,屬性是二維,樣本數(shù)據(jù)為:請回答以下問題:進(jìn)行中心化后的結(jié)果為()。

參考答案:

第十三章測試

以下說法中錯誤的

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論