機(jī)器學(xué)習(xí)學(xué)習(xí)通超星期末考試答案章節(jié)答案2024年_第1頁
機(jī)器學(xué)習(xí)學(xué)習(xí)通超星期末考試答案章節(jié)答案2024年_第2頁
機(jī)器學(xué)習(xí)學(xué)習(xí)通超星期末考試答案章節(jié)答案2024年_第3頁
免費(fèi)預(yù)覽已結(jié)束,剩余3頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

機(jī)器學(xué)習(xí)學(xué)習(xí)通超星期末考試章節(jié)答案2024年假定A的取值范圍是-1075~923。使用十進(jìn)制縮放規(guī)范化方法轉(zhuǎn)換-1075結(jié)果為:

,923轉(zhuǎn)換結(jié)果為:

答案:-0.1075;0.0923假定屬性平均家庭總收入的均值和標(biāo)準(zhǔn)差分別為9000元和2400元,值12600元使用z-score規(guī)范化轉(zhuǎn)換結(jié)果為:

答案:1.5使用min-max方法規(guī)范化數(shù)據(jù)組:200,300,400,600,1000的結(jié)果分別是

,

,

答案:0;0.125;0.25;0.5;1/star3/origin/4bf8e7c2bac9c9f3c681e68be69b7b02.png

答案:0.033使用KNN算法對兩個未知類型的樣本進(jìn)行分類(冰川水或者湖泊水),樣本數(shù)據(jù)如下表所示,其中K=3,即選擇最近的3個鄰居,試問表中樣本G的類型是

,H的類型是

。樣本Ca+濃度Mg+濃度Na+濃度Cl-濃度類型A0.1冰川水B0.3湖泊水C0.3冰川水D0.1冰川水E0湖泊水F0.4湖泊水G0.2?H0.2?

答案:湖泊水;冰川水/star3/origin/eebcf2c2a8197dec7c2429b53ae7bbb4.png

答案:0.926/star3/origin/09d56ee143f35ebc99fa20733fda5b6b.png

答案:0.966;0.875;0.918機(jī)器學(xué)習(xí)映射規(guī)則的構(gòu)造,有哪三個要素1._____2.______3._______

答案:模型結(jié)構(gòu);

模型;目標(biāo)函數(shù);

策略;優(yōu)化算法;

算法機(jī)器學(xué)習(xí)有哪3個基本流程(基本問題)1._____2._____3.______

答案:特征提取;規(guī)則構(gòu)造;模型評估生成多項(xiàng)式特征的作用有哪些:

答案:增加特征的維度;在模型中加入非線性映射關(guān)系;可以在模型中加入特征間的交互關(guān)系;將多項(xiàng)式特征輸入線性回歸模型就是多項(xiàng)式回歸模型關(guān)于離散型特征的表述哪些是正確的

答案:離散型特征是指特征不是連續(xù)數(shù)值型的而是分類型的;對于某些模型離散型特征需要編碼為數(shù)字才能使用;離散型特征的常用編碼方式有One-Hot編碼;某些情況下離散型特征更適合用整數(shù)編碼連續(xù)型特征的標(biāo)準(zhǔn)化(歸一化)縮放有哪些作用

答案:將有量綱的數(shù)據(jù)轉(zhuǎn)化為無量綱數(shù)據(jù);將不同維度的特征值縮放到相同的范圍,避免數(shù)量級大的特征被模型誤認(rèn)為占主導(dǎo)地位;提升模型優(yōu)化的收斂速度關(guān)于樣本劃分下列說法錯誤的是?

答案:相比于自助法,在初始數(shù)據(jù)量較小時交叉驗(yàn)證更常用關(guān)于訓(xùn)練集和測試集的劃分,下面比較好的做法是:

答案:將所有數(shù)據(jù)先隨機(jī)打亂順序,平均分成5份,輪流拿出其中1份作為測試集,其余的4份做為訓(xùn)練集,各次測試集預(yù)測的正確率求均值,正確率均值最高的模型就是我們所要選的模型關(guān)于面向回歸任務(wù)模型的評價指標(biāo),下面錯誤的說法是

答案:R2(R-Squared)指標(biāo)值越小精確度越高關(guān)于面向分類任務(wù)模型的評價指標(biāo),下面說法正確的是:

答案:F1,AUC兩個指標(biāo)都可以用來評價模型的綜合性能關(guān)于面向分類任務(wù)模型的評價指標(biāo),下面說法錯誤的是:

答案:正確率高的模型一定是好的模型提高模型容量(模型復(fù)雜度)一定會導(dǎo)致如下效果,但不包括

答案:降低泛化誤差/star3/origin/9794ae34610d49b6e0c3f427a73a8781.png

答案:欠擬合,過擬合關(guān)于訓(xùn)練誤差和泛化誤差正確的說法是

答案:測試誤差是模型在測試樣本集上的整體誤差,通常用測試誤差近似替代泛化誤差通過歷史數(shù)據(jù)預(yù)測股票價格是哪一種機(jī)器學(xué)習(xí)任務(wù)類型

答案:監(jiān)督學(xué)習(xí);回歸/star3/origin/4a5b04842a84802de05a8c73178d0015.png

答案:特征值下列有關(guān)機(jī)器學(xué)習(xí)的說法,錯誤的是?

答案:機(jī)器學(xué)習(xí)和人工智能是同一個概念,其研究對象就是人工智能的算法/ananas/latex/p/4783034

答案:0.983;0.9833;0.945降低模型容量(復(fù)雜度)的方法除了范數(shù)懲罰,還有決策樹模型的__________,__________和神經(jīng)網(wǎng)絡(luò)模型的__________。

答案:預(yù)剪枝;后剪枝;隨機(jī)失活使用L1范數(shù)作為懲罰函數(shù)的線性回歸又稱為_______,使用L2范數(shù)作為懲罰函數(shù)的線性回歸又稱為_______。

答案:Lasso回歸;嶺回歸通過樣本改善模型的手段有哪些:

答案:增加樣本采樣;樣本增強(qiáng);過采樣;欠采樣關(guān)于范數(shù)懲罰下面說法正確的是:

答案:范數(shù)懲罰可以降低模型容量(復(fù)雜度);L1范數(shù)懲罰的有特征選擇的作用;線性回歸模型采用L2范數(shù)懲罰還可以避免線性方程組因奇異而無法求解的問題如果一個模型在訓(xùn)練集上正確率為99%,測試集上正確率為60%。我們應(yīng)該怎么做改進(jìn)?

答案:加入正則化項(xiàng);增加樣本數(shù)量;減少模型復(fù)雜度關(guān)于隨機(jī)梯度法下面說法錯誤的是:

答案:隨機(jī)梯度法每次更新參數(shù)的方向都是目標(biāo)函數(shù)減小的方向關(guān)于模型的迭代優(yōu)化算法下面說法錯誤的是:

答案:梯度下降法搜索的是目標(biāo)函數(shù)極小值點(diǎn),因此求目標(biāo)函數(shù)的極大值點(diǎn)不能使用梯度下降法對于極大似然估計(jì)和極大后驗(yàn)估計(jì)下面說法錯誤的是:

答案:極大后驗(yàn)估計(jì)比極大似然估計(jì)更容易過擬合關(guān)于最小二乘估計(jì)下面說法錯誤的是:

答案:因?yàn)檎`差最小,最小二乘估計(jì)求解的模型參數(shù)就是最好的模型參數(shù)/star3/origin/73d8d9548f7b4b613e3ba5b655169bf9.png

答案:顏色為什么當(dāng)兩個模型的訓(xùn)練誤差相同或接近的時候,通常會選擇比較簡單的一個()

答案:在相同的經(jīng)驗(yàn)風(fēng)險下,復(fù)雜度小的模型的結(jié)構(gòu)風(fēng)險更小下面關(guān)于SVM算法運(yùn)用核函數(shù)作用,錯誤的是()

答案:生成數(shù)量較少的支持向量SVM分類器模型中軟間隔(softmargin)的主要用途是()

答案:允許少量錯分類樣本,解決不完全線性可分問題在SVM模型優(yōu)化求解當(dāng)中,主要的運(yùn)算形式是()

答案:向量內(nèi)積在SVM模型的求解過程中,支持向量與拉格朗日因子α的關(guān)系是()

答案:α>0的數(shù)據(jù)點(diǎn)是支持向量在SVM(支持向量機(jī))分類模型中支持向量是指()

答案:到最優(yōu)分類超平面距離最近的訓(xùn)練樣本點(diǎn)對應(yīng)的特征向量線性SVM(支持向量機(jī))分類模型和一般線性分類器的區(qū)別主要是()

答案:是否確保間隔最大化下面那個公式表明,事件A和B條件獨(dú)立()

答案:P(AB)=P(A)P(B)樸素貝葉斯分類器的樸素之處在于()

答案:特征之間的條件獨(dú)立性假設(shè)下面有關(guān)貝葉斯分類算法的認(rèn)識錯誤的是()

答案:貝葉斯分類算法要求樣本的特征必須是離散特征現(xiàn)在有一個表格,表格中統(tǒng)計(jì)了甲乙兩個廠生產(chǎn)的產(chǎn)品中合格品數(shù)量、次品數(shù)量,數(shù)據(jù)如下:

甲廠

乙廠

合計(jì)合格品

475

645

1120次品

25

55

80合計(jì)

500

700

1200假設(shè)事件A為產(chǎn)品是甲廠生產(chǎn)的,事件B為產(chǎn)品是次品,根據(jù)表中數(shù)據(jù)分別計(jì)算概率P(AB),P(A|B),P(B|A)

答案:25/1200;25/80;25/500對CART決策樹下面說法錯誤的是()

答案:CART回歸決策樹也是用基尼指數(shù)作為分支特征選擇的標(biāo)準(zhǔn)下面有關(guān)決策樹剪枝的說法錯誤的是()

答案:決策樹后剪枝的依據(jù)是看某層某個非葉子節(jié)點(diǎn)轉(zhuǎn)換成葉子節(jié)點(diǎn)后,模型在訓(xùn)練樣本集上的準(zhǔn)確度是否提升下面哪種決策樹模型可以完成回歸任務(wù)()

答案:CART決策樹關(guān)于決策樹模型下列說法錯誤的是()

答案:決策樹只能是一棵二叉樹以下哪個算法是基于規(guī)則的分類器()

答案:決策樹關(guān)于線性分類模型下面說法錯誤的是()

答案:線性分類器的模型結(jié)構(gòu)與線性回歸器的模型結(jié)構(gòu)是一樣的關(guān)于線性回歸模型的范數(shù)懲罰下面說法錯誤的是()

答案:懲罰系數(shù)λ越小對線性模型的參數(shù)取值范圍壓縮得越厲害關(guān)于線性模型下面說法錯誤的是()

答案:線性模型的參數(shù)除了權(quán)重參數(shù)必須有偏置項(xiàng)PCA分析中可以通過那個指標(biāo)來幫助確定需要保留的前k個分量()

答案:累計(jì)方差貢獻(xiàn)率下面關(guān)于降維算法說法錯誤的是()。

答案:降維能改善欠擬合問題與K-Means相比,基于密度的DBSCAN的優(yōu)點(diǎn)不包括()

答案:較低的計(jì)算復(fù)雜度在DBSCAN中,對噪聲點(diǎn)處理正確的是()

答案:噪點(diǎn)不屬于任何簇直接無視在DBSCAN算法中,對數(shù)據(jù)點(diǎn)類型的劃分中不包括()

答案:中心點(diǎn)關(guān)于k均值聚類算法下列說法錯誤的是()

答案:初始假設(shè)聚類中心點(diǎn)必須設(shè)置在真實(shí)中心點(diǎn)附近聚類中的簇與分類中的類的關(guān)系是()。

答案:不是一碼事,但實(shí)際應(yīng)用中有一定聯(lián)系有關(guān)聚類算法錯誤的說法是()

答案:對聚類問題可以任選一種聚類算法移動運(yùn)營商根據(jù)用戶消費(fèi)的數(shù)據(jù),將用戶劃分為不同的群體,使用哪種機(jī)器學(xué)習(xí)方法比較合適()

答案:聚類分析為了提高集成學(xué)習(xí)的泛化性能,集成學(xué)習(xí)的弱學(xué)習(xí)器的多樣性可以通過哪兩個手段提高_(dá)___,____。

答案:改變訓(xùn)練樣本;改變模型訓(xùn)練參數(shù)集成學(xué)習(xí)的泛化性能可以通過哪兩個手段提高_(dá)___,____。

答案:降低個體學(xué)習(xí)器的泛化誤差;提高個體學(xué)習(xí)器的多樣性集成學(xué)習(xí)的弱分類器的組合策略有哪些____,____,____。

答案:相對多數(shù)投票法;絕對多數(shù)投票法;加權(quán)投票法集成學(xué)習(xí)的弱回歸器的組合策略有哪些____,____。

答案:簡單平均法;加權(quán)平均法集成學(xué)習(xí)的弱學(xué)習(xí)器的構(gòu)造方式分為哪兩種____,____。

答案:并行構(gòu)造方式;串行構(gòu)造方式集成學(xué)習(xí)中由同類型的個體學(xué)習(xí)器組成的集成模型稱為____,并稱這些同類型的個體學(xué)習(xí)器為____。由不同類型的個體學(xué)習(xí)器組成的集成模型稱為____。

答案:同質(zhì)集成模型;基學(xué)習(xí)器;異質(zhì)集成模型集成學(xué)習(xí)中組成集成模型的性能一般的個體學(xué)習(xí)器又稱為____,組合成的高精度的集成模型又稱為____。

答案:弱學(xué)習(xí)器;強(qiáng)學(xué)習(xí)器隨機(jī)森林模型的2個隨機(jī)指的是()

答案:隨機(jī)選取樣本;隨機(jī)選取屬性下面哪些是串行構(gòu)造的集成學(xué)習(xí)算法()

答案:AdaBoost集成學(xué)習(xí);梯度提升決策樹下面哪些是并行構(gòu)造的集成學(xué)習(xí)算法()

答案:Bagging集成學(xué)習(xí);隨機(jī)森林下面對GBDT(梯度提升決策樹)集成學(xué)習(xí)算法描述錯誤的是()

答案:是AdaBoost算法的一種下列對AdaBoost集成學(xué)習(xí)算法的描述錯誤的是()

答案:增加分類正確樣本的權(quán)重,降低分類錯誤樣本的權(quán)重來提高分類器的準(zhǔn)確率下列關(guān)于隨機(jī)森林模型的描述錯誤的是()

答案:只能構(gòu)建分類模型關(guān)于Bagging集成學(xué)習(xí)算法,下面說法錯誤的是()

答案:自助采樣法是指按一定的比例從n個樣本的數(shù)據(jù)集中隨機(jī)抽m個樣本通過將多個性能一般的模型組合來得到性能優(yōu)良的模型的技術(shù)稱為()

答案:集成學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型的正則化手段有哪些1.____2.____

答案:目標(biāo)函數(shù)中添加正則化項(xiàng);隨機(jī)失活(Dropout多層感知機(jī)神經(jīng)元的Sigmoid激活函數(shù)的作用有哪些1.____2.____

答案:可將原始數(shù)據(jù)非線性映射在另一個空間;;將輸出限制在(0,1關(guān)于反向傳播算法下面說法錯誤的是()

答案:反向傳播算法是指反饋神經(jīng)網(wǎng)絡(luò)的優(yōu)化算法多層感知機(jī)更新網(wǎng)絡(luò)權(quán)重參數(shù)的正確順序是什么()1.按照負(fù)梯度方向迭代更新權(quán)重,直至達(dá)到終止條件。2.把訓(xùn)練樣本輸入網(wǎng)絡(luò)進(jìn)行前向計(jì)算,得到每層神經(jīng)元輸出值和網(wǎng)絡(luò)最終的輸出值。3.隨機(jī)初始化權(quán)重。4.基于反向傳播算法,逐層求解各層權(quán)重相對于目標(biāo)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論