機器學習基礎智慧樹知到答案2024年太原理工大學_第1頁
機器學習基礎智慧樹知到答案2024年太原理工大學_第2頁
機器學習基礎智慧樹知到答案2024年太原理工大學_第3頁
機器學習基礎智慧樹知到答案2024年太原理工大學_第4頁
機器學習基礎智慧樹知到答案2024年太原理工大學_第5頁
已閱讀5頁,還剩20頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

機器學習基礎太原理工大學智慧樹知到答案2024年第一章測試

樣本是連續(xù)型數(shù)據(jù)且有標簽,我們采用()進行機器學習。

A:分類算法B:嵌入算法C:回歸算法D:聚類算法

答案:C在機器學習中,樣本常被分成()。

A:評估集B:訓練集C:測試集D:其它選項都有

答案:D機器學習算法需要顯示編程,具備歸納、總結等自學習能力。()

A:對B:錯

答案:B機器學習和人工智能、深度學習是一個概念,都是指機器模仿人類推理、學習能力。()

A:錯B:對

答案:A特征工程非常重要,在采用機器學習算法前,首先需要利用特征工程確定樣本屬性。()

A:錯B:對

答案:B

第二章測試

K近鄰算法認為距離越近的相似度越高。()

A:對B:錯

答案:AK近鄰算法中數(shù)據(jù)可以不做歸一化,因為是否歸一化對結果影響不大。()

A:對B:錯

答案:BK近鄰算法中采用不同的距離公式對于結果沒有影響。()

A:錯B:對

答案:A在上面圖中,K=5,綠色樣本的類別是()。

A:藍色正方形B:紅色三角形C:綠色圓形D:不能確定

答案:A在K近鄰算法中,K的選擇是()?

A:與樣本有關B:越小越好C:越大越好D:其它都不正確

答案:A

第三章測試

下列()中兩個變量之間的關系是線性的。

A:貓的皮毛顏色和體重B:女兒的身高和父親的體重C:人的工作環(huán)境和健康狀況D:重力和質量

答案:D下列說法不正確的是()。

A:回歸用于預測輸入變量和輸出變量之間的關系B:線性回歸模型也可以解決線性不可分的情況C:回歸就是數(shù)據(jù)擬合D:回歸分析就是研究兩個事物的相關性

答案:C從某大學隨機選擇8名女大學生,其身高x(cm)和體重y(kg)的回歸方程是y=0.849x-85.712,則身高172cm的女大學生,預測體重為()。

A:其它都不正確B:小于60.316kgC:60.316kgD:大于60.316kg

答案:Classo中采用的是L2正則化。()

A:對B:錯

答案:B線性回歸中加入正則化可以降低過擬合。()

A:對B:錯

答案:A

第四章測試

以下說法正確的是()。

A:logistic回歸的樣本屬性是連續(xù)型數(shù)據(jù)B:logistic回歸是回歸模型C:logistic回歸只能處理線性可分問題D:logistic回歸和線性回歸是相同的

答案:Alogistic回歸只能用于二分類問題。()

A:錯B:對

答案:Alogistic回歸中也可以用正則化方法來防止過擬合。()

A:對B:錯

答案:A考慮一個有兩個屬性的logistic回歸問題。假設,則分類決策平面是()。

A:B:C:D:

答案:A假設訓練了一個logistic回歸分類器,對于一個樣本我們有,則該式說明()。

A:B:C:D:

答案:AD

第五章測試

以下關于梯度下降算法說法正確的是()。

A:計算預測值和真實值之間的誤差B:梯度下降算法是計算目標函數(shù)的最大值C:如果目標函數(shù)梯度不存在就無法用梯度下降算法D:學習率的選取會影響梯度下降算法的求解速度

答案:D隨機梯度下降導致方向變化過大,不能很快收斂到最優(yōu)解。()

A:錯B:對

答案:B小批量梯度下降是結合了批量梯度下降和隨機梯度下降,性能比批量梯度下降和隨機梯度下降都好。()

A:對B:錯

答案:A批量梯度下降是最原始的形式,它是指在每一次迭代時使用一部分樣本的梯度來更新參數(shù)。()

A:對B:錯

答案:B隨機梯度下降中每次迭代使用一個樣本的梯度。()

A:對B:錯

答案:A

第六章測試

決策樹模型中建樹的基本原則是()。

A:應利用盡可能多的屬性B:信息增益大的屬性應放在上層C:取值多的屬性應放在上層D:取值少的屬性應放在上層

答案:B哪些情況下必須停止樹的增長()

A:當前數(shù)據(jù)子集的標簽一致B:當前訓練誤差已經(jīng)較低C:沒有更多可用屬性D:當前數(shù)據(jù)子集為空

答案:ABCD關于決策樹剪枝操作正確的描述是()。

A:可以防止過擬合B:用測試集來進行剪枝C:后剪枝優(yōu)于預剪枝D:可以有效降低訓練誤差

答案:A決策樹模型中如何處理連續(xù)型屬性()。

A:根據(jù)信息增益選擇閾值進行離散化B:隨機選擇數(shù)據(jù)標簽發(fā)生變化的位置進行離散化C:直接忽略D:利用固定閾值進行離散化

答案:A下面哪個可能是決策樹的決策邊界()。

A:B:C:D:

答案:C

第七章測試

下面對集成學習模型中的弱學習器描述錯誤的是?()

A:弱學習器經(jīng)常不會過擬合B:弱學習器通常會過擬合C:弱學習器通常帶有高偏差,所以其并不能解決復雜學習問題D:弱學習器可以通過集成變成強學習器

答案:B給定數(shù)據(jù)集及弱分類器如上圖,回答問題:初始樣本的權重為()。

A:其它都不對B:0.1C:1D:0.5

答案:B給定數(shù)據(jù)集及弱分類器如上圖,回答問題:第一次迭代選擇的分類器是(

)。

A:B:任何一個都可以C:D:

答案:CD給定數(shù)據(jù)集及弱分類器如上圖,回答問題:

經(jīng)過一次迭代,第一個弱學習器的權重為()。

A:0.4236B:0.6496C:其它都不對D:0.3

答案:A給定數(shù)據(jù)集及弱分類器如上圖,回答問題:經(jīng)過一次迭代,錯誤分類的樣本權重更新為()。

A:B:C:其它都不對D:

答案:D

第八章測試

下列選項中,對于硬間隔支持向量機,超平面應該是()。

A:B:C:D:

答案:B下列選項中,對于軟間隔支持向量機,超平面應該是()。

A:B:C:D:

答案:D現(xiàn)有一個能被正確分類且遠離超平面的樣本,如果將其刪除,不會影響超平面的選擇。()

A:錯B:對

答案:B上圖中,長方形框中的樣本松弛變量的值為()。

A:大于1B:等于1C:大于0,小于1D:等于0

答案:A上圖中哪個超平面泛化能力更強()。

A:BB:AC:A、B一樣D:其它都不對

答案:B

第九章測試

訓練樣本如下,其中和

是特征,取值的集合為A1={1,2,3}和

A2={S,M,L},C是類標記,取值為{-1,1},回答如下問題:采用樸素貝葉斯算法,樣本屬于

1的概率為:()

A:10%B:1.48%C:無法確定D:6.67%

答案:B訓練樣本如上,其中和是特征,取值的集合為A1={1,2,3}和

A2={S,M,L},C是類標記,取值為{-1,1},回答如下問題:采用樸素貝葉斯算法,確定的分類為:()

A:-1B:1C:1或者-1都可以D:無法確定

答案:A訓練樣本如上,其中和是特征,取值的集合為A1={1,2,3}和

A2={S,M,L},C是類標記,取值為{-1,1},回答如下問題:采用樸素貝葉斯算法,樣本屬于

-1的概率為:()

A:無法確定B:1.48%C:6.67%D:10%

答案:D樸素貝葉斯的基本假設是屬性之間是相互獨立的。()

A:對B:錯

答案:A樸素貝葉斯是概率模型。()

A:對B:錯

答案:A

第十章測試

以下對經(jīng)典K-means聚類算法解釋正確的是()

A:不能自動識別類的個數(shù),隨機挑選初始點為中心點計算B:能自動識別類的個數(shù),隨機挑選初始點為中心點計算C:能自動識別類的個數(shù),不能隨機挑選初始點為中心點計算D:不能自動識別類的個數(shù),不能隨機挑選初始點為中心點計算

答案:A以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對用戶進行聚類。并隨機選擇16和22作為兩個類別的初始質心,回答以下問題:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代中,樣本“15”到質心16的距離是()

A:1B:3C:6D:0

答案:A以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對用戶進行聚類。并隨機選擇16和22作為兩個類別的初始質心,回答以下問題:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代結束后,樣本20的分類為()

A:都不屬于B:原質心16的類C:原質心22的類D:不能計算

答案:C以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對用戶進行聚類。并隨機選擇16和22作為兩個類別的初始質心,回答以下問題:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代結束后,原質心16的類包含()個樣本。

A:3B:5C:2D:1

答案:A以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對用戶進行聚類。并隨機選擇16和22作為兩個類別的初始質心,回答以下問題:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代結束后,原質心16更新后的質心是()。

A:36.25B:15.33C:15D:17.2

答案:B

第十一章測試

如果某個項集是頻繁的,那么它的所有子集也是頻繁的。()

A:錯B:對

答案:B如果某個項集是頻繁的,那么它的所有超集也是頻繁的。()

A:錯B:對

答案:A根據(jù)上面交易記錄,回答問題:2級頻繁項集有()。

A:尿布,橙汁B:豆奶,葡萄酒C:橙汁,豆奶D:尿布,豆奶

答案:D根據(jù)上面交易記錄,回答問題:規(guī)則“豆奶->萵苣”的可信度是()。

A:4/4B:1C:3/5D:3/4

答案:D根據(jù)上面交易記錄,回答問題:“豆奶”的支持度是()。

A:3/5B:2/5C:1D:4/5

答案:D

第十二章測試

下列關于主成分分析法(PCA)說法錯誤的是?()

A:要選出方差最小的作為主成分B:主成分分析法可用于低維數(shù)據(jù)的可視化處理C:進行主成分分析之前要對數(shù)據(jù)進行中心化D:要選出方差最大的作為主成分

答案:A主成分分析是一個線性變化,就是把數(shù)據(jù)變換到一個新的坐標系統(tǒng)中。()

A:對B:錯

答案:A假設將原矩陣降維到一維,采用的特征向量為,則映射后的結果為()。

A:B:C:D:其它結果都不對

答案:B假設有五條樣本,屬性是二維,樣本數(shù)據(jù)為:請回答以下問題:協(xié)方差矩陣為()。

A:其它結果都不對

B:C:D:

答案:C假設有五條樣本,屬性是二維,樣本數(shù)據(jù)為:請回答以下問題:進行中心化后的結果為()。

A:B:其它結果都不對C:D:

答案:C

第十三章測試

以下說法中錯誤的是()。

A:正定矩陣的特征值即為奇異值B:ATA的特征值的平方根即為A的奇異值C:負定矩陣的

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論