機器學習與模式識別期末復(fù)習題及答案_第1頁
機器學習與模式識別期末復(fù)習題及答案_第2頁
機器學習與模式識別期末復(fù)習題及答案_第3頁
機器學習與模式識別期末復(fù)習題及答案_第4頁
機器學習與模式識別期末復(fù)習題及答案_第5頁
已閱讀5頁,還剩3頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

一、單選題1、處理二維數(shù)據(jù)的單個神經(jīng)元模型的參數(shù)個數(shù)是:()。A.1個B.3個C.2個D.不確定正確答案:B2、從當前考場的所有考生中,找出作弊的學生,該任務(wù)屬于:()。A.分類B.聚類C.異常檢測D.以上均是正確答案:C3、以下方法中不屬于主流機器學習方法的是:()。A.隨機學習B.強化學習C.有監(jiān)督學習D.無監(jiān)督學習正確答案:A4、假設(shè)樣本x∈R3,服從多元正態(tài)分布N(μ,∑)A.6個B.9個C.12個D.不確定正確答案:B5、對于一維樣本二分類問題,ω1,ω2兩類均服從正態(tài)分布,假設(shè)按照最小平均錯誤概率準則設(shè)計的分類器為C1,分類閾值為T1,按照最小平均風險準則設(shè)計的分類器為C2,T2,如果風險系數(shù)λ12A.T2比T1更靠近類的均值B.T1與T2相同C.無法判斷D.T1比T2更靠近類的均值正確答案:D6、假設(shè)線性回歸問題的訓練集為:xi∈R3A.101個B.3個C.4個D.100個7、上題中如果使用線性回歸的最小二乘解的封閉解形式,則自相關(guān)矩陣Rx的大小為:A.3×3B.4×4C.101×101D.100×1008、邏輯回歸模型中的邏輯回歸函數(shù)可以看作是對以下哪種概率的描述:()。A.p(B.C.D.9、對于包含100個樣本的訓練集,線性SVM原始問題的待優(yōu)化變量數(shù)量為()。A.2個B.101個C.3個D.無法確定正確答案:D10、原始線性SVM問題經(jīng)過拉格朗日對偶處理后轉(zhuǎn)化為一個:()。A.無約束最大化問題B.有約束最小化問題C.有約束最大化問題D.無約束最小化問題正確答案:A11、利用SMO算法求解SVM問題時,每輪迭代選?。ǎ﹤€系數(shù)變量進行更新。A.2個B.無法確定C.1個D.樣本數(shù)量正確答案:A12、點樣本集為,且有AxiA.無法分裂B.無法確定C.2個D.3個正確答案:D13、當前節(jié)點內(nèi)樣本集包含5個樣本,特征數(shù)量為3,其中兩個離散特征,1個連續(xù)特征,采用多叉樹方案,則當前節(jié)點共有多少種可選的分裂方案。()A.無法確定B.3種C.2種D.1種正確答案:B14、設(shè)樣本集為X=1,3,5,7,Y={+1,-1,-1,+1},權(quán)重為Dt=A.0B.2C.6D.4正確答案:C15、當樣本數(shù)趨近于無窮大時,Bootstrap采樣時樣本被抽中的概率約為:()。A.0.612B.1C.0.5D.0.368正確答案:A16、當樣本數(shù)為N,精度為∈,置信度為δ時,下述那種學習時間T對應(yīng)的學習算法是PAC學習算法:()。A.T=B.C.D.正確答案:B二、判斷題1、?一個數(shù)據(jù)集的特征維度總是小于該數(shù)據(jù)集的樣本數(shù)量。正確答案:×2、?模型容量大小與訓練集樣本數(shù)量無關(guān)。正確答案:√3、明日降水概率預(yù)測屬于回歸問題。正確答案:√4、?班級內(nèi)自由分組討論不屬于分類問題。正確答案:×5、?馴獸師用鞭打和喂食的方式教導老虎跳火圈屬于有監(jiān)督學習。正確答案:×6、?在分類問題中,類條件概率是概率質(zhì)量,后驗概率是概率密度。正確答案:×7、?有些問題中,無需了解先驗概率也可以直接估計后驗概率。正確答案:√8、?最大后驗概率分類準則和最小錯誤概率分類準則在任何情況下給出的分類結(jié)果都是一樣的。正確答案:√9、?最小錯誤概率分類準則給出的分類結(jié)果總是正確的。?正確答案:×10、?對于一組線性可分的訓練集,所有能夠?qū)⑺鼈冋_分類的線性分類器都具有相同的分類性能。正確答案:×11、?所有支撐向量均在間隔區(qū)域的邊界上。正確答案:×12、?間隔區(qū)域越寬意味著模型的經(jīng)驗風險越小。正確答案:×13、?線性SVM求解必須依靠拉格朗日對偶技巧。正確答案:×14、?基于基尼指數(shù)的分裂結(jié)果與基于信息增益比的分裂結(jié)果總是相同的。正確答案:×15、?信息增益越大的特征信息增益比也越大。正確答案:×16、?信息增益比越大的特征不純度越小。正確答案:×17、?使用相對多數(shù)投票時,若沒有任何一類得票數(shù)高于50%,則拒絕分類。正確答案:×18、?采用前向分步優(yōu)化策略得到的最優(yōu)解就是集成學習問題的全局最優(yōu)解。正確答案:×19、?Adaboost算法中,被個體學習器ht錯誤分類的樣本的權(quán)重在h正確答案:×20、?模型在獨立同分布采樣獲得的訓練集上的經(jīng)驗誤差總是小于該模型在該分布上的泛化誤差。正確答案:×21、?若存在假設(shè)h?H在數(shù)據(jù)集D上的經(jīng)驗誤差為零,則有真實映射f?H正確答案:×22、?線性分類器hx=w1正確答案:√23、?表情特征可以用于身份識別。正確答案:×24、?稀疏編碼方法中的編碼數(shù)值是通過將原始數(shù)據(jù)向字典上投影得到的。正確答案:×25、?IsoMap流形學習算法無法直接實現(xiàn)訓練集以外的新樣本的特征提

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論