機(jī)器學(xué)習(xí)與模式識(shí)別期末復(fù)習(xí)題及答案_第1頁(yè)
機(jī)器學(xué)習(xí)與模式識(shí)別期末復(fù)習(xí)題及答案_第2頁(yè)
機(jī)器學(xué)習(xí)與模式識(shí)別期末復(fù)習(xí)題及答案_第3頁(yè)
機(jī)器學(xué)習(xí)與模式識(shí)別期末復(fù)習(xí)題及答案_第4頁(yè)
機(jī)器學(xué)習(xí)與模式識(shí)別期末復(fù)習(xí)題及答案_第5頁(yè)
已閱讀5頁(yè),還剩3頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

一、單選題1、處理二維數(shù)據(jù)的單個(gè)神經(jīng)元模型的參數(shù)個(gè)數(shù)是:()。A.1個(gè)B.3個(gè)C.2個(gè)D.不確定正確答案:B2、從當(dāng)前考場(chǎng)的所有考生中,找出作弊的學(xué)生,該任務(wù)屬于:()。A.分類B.聚類C.異常檢測(cè)D.以上均是正確答案:C3、以下方法中不屬于主流機(jī)器學(xué)習(xí)方法的是:()。A.隨機(jī)學(xué)習(xí)B.強(qiáng)化學(xué)習(xí)C.有監(jiān)督學(xué)習(xí)D.無(wú)監(jiān)督學(xué)習(xí)正確答案:A4、假設(shè)樣本x∈R3,服從多元正態(tài)分布N(μ,∑)A.6個(gè)B.9個(gè)C.12個(gè)D.不確定正確答案:B5、對(duì)于一維樣本二分類問(wèn)題,ω1,ω2兩類均服從正態(tài)分布,假設(shè)按照最小平均錯(cuò)誤概率準(zhǔn)則設(shè)計(jì)的分類器為C1,分類閾值為T1,按照最小平均風(fēng)險(xiǎn)準(zhǔn)則設(shè)計(jì)的分類器為C2,T2,如果風(fēng)險(xiǎn)系數(shù)λ12A.T2比T1更靠近類的均值B.T1與T2相同C.無(wú)法判斷D.T1比T2更靠近類的均值正確答案:D6、假設(shè)線性回歸問(wèn)題的訓(xùn)練集為:xi∈R3A.101個(gè)B.3個(gè)C.4個(gè)D.100個(gè)7、上題中如果使用線性回歸的最小二乘解的封閉解形式,則自相關(guān)矩陣Rx的大小為:A.3×3B.4×4C.101×101D.100×1008、邏輯回歸模型中的邏輯回歸函數(shù)可以看作是對(duì)以下哪種概率的描述:()。A.p(B.C.D.9、對(duì)于包含100個(gè)樣本的訓(xùn)練集,線性SVM原始問(wèn)題的待優(yōu)化變量數(shù)量為()。A.2個(gè)B.101個(gè)C.3個(gè)D.無(wú)法確定正確答案:D10、原始線性SVM問(wèn)題經(jīng)過(guò)拉格朗日對(duì)偶處理后轉(zhuǎn)化為一個(gè):()。A.無(wú)約束最大化問(wèn)題B.有約束最小化問(wèn)題C.有約束最大化問(wèn)題D.無(wú)約束最小化問(wèn)題正確答案:A11、利用SMO算法求解SVM問(wèn)題時(shí),每輪迭代選?。ǎ﹤€(gè)系數(shù)變量進(jìn)行更新。A.2個(gè)B.無(wú)法確定C.1個(gè)D.樣本數(shù)量正確答案:A12、點(diǎn)樣本集為,且有AxiA.無(wú)法分裂B.無(wú)法確定C.2個(gè)D.3個(gè)正確答案:D13、當(dāng)前節(jié)點(diǎn)內(nèi)樣本集包含5個(gè)樣本,特征數(shù)量為3,其中兩個(gè)離散特征,1個(gè)連續(xù)特征,采用多叉樹方案,則當(dāng)前節(jié)點(diǎn)共有多少種可選的分裂方案。()A.無(wú)法確定B.3種C.2種D.1種正確答案:B14、設(shè)樣本集為X=1,3,5,7,Y={+1,-1,-1,+1},權(quán)重為Dt=A.0B.2C.6D.4正確答案:C15、當(dāng)樣本數(shù)趨近于無(wú)窮大時(shí),Bootstrap采樣時(shí)樣本被抽中的概率約為:()。A.0.612B.1C.0.5D.0.368正確答案:A16、當(dāng)樣本數(shù)為N,精度為∈,置信度為δ時(shí),下述那種學(xué)習(xí)時(shí)間T對(duì)應(yīng)的學(xué)習(xí)算法是PAC學(xué)習(xí)算法:()。A.T=B.C.D.正確答案:B二、判斷題1、?一個(gè)數(shù)據(jù)集的特征維度總是小于該數(shù)據(jù)集的樣本數(shù)量。正確答案:×2、?模型容量大小與訓(xùn)練集樣本數(shù)量無(wú)關(guān)。正確答案:√3、明日降水概率預(yù)測(cè)屬于回歸問(wèn)題。正確答案:√4、?班級(jí)內(nèi)自由分組討論不屬于分類問(wèn)題。正確答案:×5、?馴獸師用鞭打和喂食的方式教導(dǎo)老虎跳火圈屬于有監(jiān)督學(xué)習(xí)。正確答案:×6、?在分類問(wèn)題中,類條件概率是概率質(zhì)量,后驗(yàn)概率是概率密度。正確答案:×7、?有些問(wèn)題中,無(wú)需了解先驗(yàn)概率也可以直接估計(jì)后驗(yàn)概率。正確答案:√8、?最大后驗(yàn)概率分類準(zhǔn)則和最小錯(cuò)誤概率分類準(zhǔn)則在任何情況下給出的分類結(jié)果都是一樣的。正確答案:√9、?最小錯(cuò)誤概率分類準(zhǔn)則給出的分類結(jié)果總是正確的。?正確答案:×10、?對(duì)于一組線性可分的訓(xùn)練集,所有能夠?qū)⑺鼈冋_分類的線性分類器都具有相同的分類性能。正確答案:×11、?所有支撐向量均在間隔區(qū)域的邊界上。正確答案:×12、?間隔區(qū)域越寬意味著模型的經(jīng)驗(yàn)風(fēng)險(xiǎn)越小。正確答案:×13、?線性SVM求解必須依靠拉格朗日對(duì)偶技巧。正確答案:×14、?基于基尼指數(shù)的分裂結(jié)果與基于信息增益比的分裂結(jié)果總是相同的。正確答案:×15、?信息增益越大的特征信息增益比也越大。正確答案:×16、?信息增益比越大的特征不純度越小。正確答案:×17、?使用相對(duì)多數(shù)投票時(shí),若沒(méi)有任何一類得票數(shù)高于50%,則拒絕分類。正確答案:×18、?采用前向分步優(yōu)化策略得到的最優(yōu)解就是集成學(xué)習(xí)問(wèn)題的全局最優(yōu)解。正確答案:×19、?Adaboost算法中,被個(gè)體學(xué)習(xí)器ht錯(cuò)誤分類的樣本的權(quán)重在h正確答案:×20、?模型在獨(dú)立同分布采樣獲得的訓(xùn)練集上的經(jīng)驗(yàn)誤差總是小于該模型在該分布上的泛化誤差。正確答案:×21、?若存在假設(shè)h?H在數(shù)據(jù)集D上的經(jīng)驗(yàn)誤差為零,則有真實(shí)映射f?H正確答案:×22、?線性分類器hx=w1正確答案:√23、?表情特征可以用于身份識(shí)別。正確答案:×24、?稀疏編碼方法中的編碼數(shù)值是通過(guò)將原始數(shù)據(jù)向字典上投影得到的。正確答案:×25、?IsoMap流形學(xué)習(xí)算法無(wú)法直接實(shí)現(xiàn)訓(xùn)練集以外的新樣本的特征提

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論