機(jī)器學(xué)習(xí)基礎(chǔ)知到章節(jié)答案智慧樹2023年太原理工大學(xué)_第1頁
機(jī)器學(xué)習(xí)基礎(chǔ)知到章節(jié)答案智慧樹2023年太原理工大學(xué)_第2頁
機(jī)器學(xué)習(xí)基礎(chǔ)知到章節(jié)答案智慧樹2023年太原理工大學(xué)_第3頁
機(jī)器學(xué)習(xí)基礎(chǔ)知到章節(jié)答案智慧樹2023年太原理工大學(xué)_第4頁
免費(fèi)預(yù)覽已結(jié)束,剩余4頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

機(jī)器學(xué)習(xí)基礎(chǔ)知到章節(jié)測(cè)試答案智慧樹2023年最新太原理工大學(xué)第一章測(cè)試樣本是連續(xù)型數(shù)據(jù)且有標(biāo)簽,我們采用()進(jìn)行機(jī)器學(xué)習(xí)。

參考答案:

回歸算法在機(jī)器學(xué)習(xí)中,樣本常被分成()。

參考答案:

其它選項(xiàng)都有機(jī)器學(xué)習(xí)算法需要顯示編程,具備歸納、總結(jié)等自學(xué)習(xí)能力。()

參考答案:

錯(cuò)機(jī)器學(xué)習(xí)和人工智能、深度學(xué)習(xí)是一個(gè)概念,都是指機(jī)器模仿人類推理、學(xué)習(xí)能力。()

參考答案:

錯(cuò)特征工程非常重要,在采用機(jī)器學(xué)習(xí)算法前,首先需要利用特征工程確定樣本屬性。()

參考答案:

對(duì)第二章測(cè)試K近鄰算法認(rèn)為距離越近的相似度越高。()

參考答案:

對(duì)K近鄰算法中數(shù)據(jù)可以不做歸一化,因?yàn)槭欠駳w一化對(duì)結(jié)果影響不大。()

參考答案:

錯(cuò)K近鄰算法中采用不同的距離公式對(duì)于結(jié)果沒有影響。()

參考答案:

錯(cuò)在上面圖中,K=5,綠色樣本的類別是()。

參考答案:

藍(lán)色正方形在K近鄰算法中,K的選擇是()?

參考答案:

與樣本有關(guān)第三章測(cè)試下列()中兩個(gè)變量之間的關(guān)系是線性的。

參考答案:

重力和質(zhì)量下列說法不正確的是()。

參考答案:

回歸就是數(shù)據(jù)擬合從某大學(xué)隨機(jī)選擇8名女大學(xué)生,其身高x(cm)和體重y(kg)的回歸方程是y=0.849x-85.712,則身高172cm的女大學(xué)生,預(yù)測(cè)體重為()。

參考答案:

60.316kglasso中采用的是L2正則化。()

參考答案:

錯(cuò)線性回歸中加入正則化可以降低過擬合。()

參考答案:

對(duì)第四章測(cè)試以下說法正確的是()。

參考答案:

logistic回歸的樣本屬性是連續(xù)型數(shù)據(jù)logistic回歸只能用于二分類問題。()

參考答案:

錯(cuò)logistic回歸中也可以用正則化方法來防止過擬合。()

參考答案:

對(duì)考慮一個(gè)有兩個(gè)屬性的logistic回歸問題。假設(shè),則分類決策平面是()。

參考答案:

****假設(shè)訓(xùn)練了一個(gè)logistic回歸分類器,對(duì)于一個(gè)樣本我們有,則該式說明()。

參考答案:

;第五章測(cè)試以下關(guān)于梯度下降算法說法正確的是()。

參考答案:

學(xué)習(xí)率的選取會(huì)影響梯度下降算法的求解速度隨機(jī)梯度下降導(dǎo)致方向變化過大,不能很快收斂到最優(yōu)解。()

參考答案:

對(duì)小批量梯度下降是結(jié)合了批量梯度下降和隨機(jī)梯度下降,性能比批量梯度下降和隨機(jī)梯度下降都好。()

參考答案:

對(duì)批量梯度下降是最原始的形式,它是指在每一次迭代時(shí)使用一部分樣本的梯度來更新參數(shù)。()

參考答案:

錯(cuò)隨機(jī)梯度下降中每次迭代使用一個(gè)樣本的梯度。()

參考答案:

對(duì)第六章測(cè)試決策樹模型中建樹的基本原則是()。

參考答案:

信息增益大的屬性應(yīng)放在上層哪些情況下必須停止樹的增長(zhǎng)()

參考答案:

當(dāng)前數(shù)據(jù)子集為空;當(dāng)前數(shù)據(jù)子集的標(biāo)簽一致;沒有更多可用屬性;當(dāng)前訓(xùn)練誤差已經(jīng)較低關(guān)于決策樹剪枝操作正確的描述是()。

參考答案:

可以防止過擬合決策樹模型中如何處理連續(xù)型屬性()。

參考答案:

根據(jù)信息增益選擇閾值進(jìn)行離散化下面哪個(gè)可能是決策樹的決策邊界()。

參考答案:

****第七章測(cè)試下面對(duì)集成學(xué)習(xí)模型中的弱學(xué)習(xí)器描述錯(cuò)誤的是?()

參考答案:

弱學(xué)習(xí)器通常會(huì)過擬合給定數(shù)據(jù)集及弱分類器如上圖,回答問題:初始樣本的權(quán)重為()。

參考答案:

0.1給定數(shù)據(jù)集及弱分類器如上圖,回答問題:第一次迭代選擇的分類器是(

)。

參考答案:

;給定數(shù)據(jù)集及弱分類器如上圖,回答問題:經(jīng)過一次迭代,第一個(gè)弱學(xué)習(xí)器的權(quán)重為()。

參考答案:

0.4236給定數(shù)據(jù)集及弱分類器如上圖,回答問題:經(jīng)過一次迭代,錯(cuò)誤分類的樣本權(quán)重更新為()。

參考答案:

****第八章測(cè)試下列選項(xiàng)中,對(duì)于硬間隔支持向量機(jī),超平面應(yīng)該是()。

參考答案:

****下列選項(xiàng)中,對(duì)于軟間隔支持向量機(jī),超平面應(yīng)該是()。

參考答案:

****現(xiàn)有一個(gè)能被正確分類且遠(yuǎn)離超平面的樣本,如果將其刪除,不會(huì)影響超平面的選擇。()

參考答案:

對(duì)上圖中,長(zhǎng)方形框中的樣本松弛變量的值為()。

參考答案:

大于1上圖中哪個(gè)超平面泛化能力更強(qiáng)()。

參考答案:

A第九章測(cè)試訓(xùn)練樣本如下,其中和

是特征,取值的集合為A1={1,2,3}和

A2={S,M,L},C是類標(biāo)記,取值為{-1,1},回答如下問題:采用樸素貝葉斯算法,樣本屬于

1的概率為:()

參考答案:

1.48%訓(xùn)練樣本如上,其中和是特征,取值的集合為A1={1,2,3}和

A2={S,M,L},C是類標(biāo)記,取值為{-1,1},回答如下問題:采用樸素貝葉斯算法,確定的分類為:()

參考答案:

-1訓(xùn)練樣本如上,其中和是特征,取值的集合為A1={1,2,3}和

A2={S,M,L},C是類標(biāo)記,取值為{-1,1},回答如下問題:采用樸素貝葉斯算法,樣本屬于

-1的概率為:()

參考答案:

10%樸素貝葉斯的基本假設(shè)是屬性之間是相互獨(dú)立的。()

參考答案:

對(duì)樸素貝葉斯是概率模型。()

參考答案:

對(duì)第十章測(cè)試以下對(duì)經(jīng)典K-means聚類算法解釋正確的是()

參考答案:

不能自動(dòng)識(shí)別類的個(gè)數(shù),隨機(jī)挑選初始點(diǎn)為中心點(diǎn)計(jì)算以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對(duì)用戶進(jìn)行聚類。并隨機(jī)選擇16和22作為兩個(gè)類別的初始質(zhì)心,回答以下問題:[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]第一次迭代中,樣本“15”到質(zhì)心16的距離是()

參考答案:

1以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對(duì)用戶進(jìn)行聚類。并隨機(jī)選擇16和22作為兩個(gè)類別的初始質(zhì)心,回答以下問題:[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]第一次迭代結(jié)束后,樣本20的分類為()

參考答案:

原質(zhì)心22的類以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對(duì)用戶進(jìn)行聚類。并隨機(jī)選擇16和22作為兩個(gè)類別的初始質(zhì)心,回答以下問題:[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]第一次迭代結(jié)束后,原質(zhì)心16的類包含()個(gè)樣本。

參考答案:

3以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對(duì)用戶進(jìn)行聚類。并隨機(jī)選擇16和22作為兩個(gè)類別的初始質(zhì)心,回答以下問題:[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]第一次迭代結(jié)束后,原質(zhì)心16更新后的質(zhì)心是()。

參考答案:

15.33第十一章測(cè)試如果某個(gè)項(xiàng)集是頻繁的,那么它的所有子集也是頻繁的。()

參考答案:

對(duì)如果某個(gè)項(xiàng)集是頻繁的,那么它的所有超集也是頻繁的。()

參考答案:

錯(cuò)根據(jù)上面交易記錄,回答問題:2級(jí)頻繁項(xiàng)集有()。

參考答案:

尿布,豆奶根據(jù)上面交易記錄,回答問題:規(guī)則“豆奶->萵苣”的可信度是()。

參考答案:

3/4根據(jù)上面交易記錄,回答問題:“豆奶”的支持度是()。

參考答案:

4/5第十二章測(cè)試下列關(guān)于主成分分析法(PCA)說法錯(cuò)誤的是?()

參考答案:

要選出方差最小的作為主成分主成分分析是一個(gè)線性變化,就是把數(shù)據(jù)變換到一個(gè)新的坐標(biāo)系統(tǒng)中。()

參考答案:

對(duì)假設(shè)將原矩陣降維到一維,采用的特征向量為,則映射后的結(jié)果為()。

參考答案:

****假設(shè)有五條樣本,屬性是二維,樣本數(shù)據(jù)為:請(qǐng)回答以下問題:協(xié)方差矩陣為()。

參考答案:

****假設(shè)有五條樣本,屬性是二維,樣本數(shù)據(jù)為:請(qǐng)回答以下問題:進(jìn)行中心化后的結(jié)果為()。

參考答案:

****第十三章測(cè)試以下說法中

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論