《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷1_第1頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷1_第2頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷1_第3頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷1_第4頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷1_第5頁
已閱讀5頁,還剩4頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

第1頁,共1頁一、單項(xiàng)選擇題(本大題共10小題,每題3分,共30分)試卷(試卷(學(xué)年第1學(xué)期)考試科目機(jī)器學(xué)習(xí)-Python實(shí)踐(A卷)適用專業(yè)班級(年級)得分命題人:審閱人:班級學(xué)號姓名考試科目裝訂線1、關(guān)于支持向量機(jī)SVM,下列說法錯(cuò)誤的是()A.L2正則項(xiàng),作用是最大化分類間隔,使得分類器擁有更強(qiáng)的泛化能力B.Hinge損失函數(shù),作用是最小化經(jīng)驗(yàn)分類錯(cuò)誤C.分類間隔為1||w||1||w||,||w||代表向量的模D.當(dāng)參數(shù)C越小時(shí),分類間隔越大,分類錯(cuò)誤越多,趨于欠學(xué)習(xí)2、假定某同學(xué)使用NaiveBayesian(NB)分類模型時(shí),不小心將訓(xùn)練數(shù)據(jù)的兩個(gè)維度搞重復(fù)了,那么關(guān)于NB的說法中正確的是:()A.這個(gè)被重復(fù)的特征在模型中的決定作用會被加強(qiáng)B.模型效果相比無重復(fù)特征的情況下精確度會降低C.如果所有特征都被重復(fù)一遍,得到的模型預(yù)測結(jié)果相對于不重復(fù)的情況下的模型預(yù)測結(jié)果一樣。D.當(dāng)兩列特征高度相關(guān)時(shí),無法用兩列特征相同時(shí)所得到的結(jié)論來分析問題3、關(guān)于Logit回歸和SVM不正確的是()A.Logit回歸本質(zhì)上是一種根據(jù)樣本對權(quán)值進(jìn)行極大似然估計(jì)的方法,而后驗(yàn)概率正比于先驗(yàn)概率和似然函數(shù)的乘積。logit僅僅是最大化似然函數(shù),并沒有最大化后驗(yàn)概率,更談不上最小化后驗(yàn)概率。A錯(cuò)誤B.Logit回歸的輸出就是樣本屬于正類別的幾率,可以計(jì)算出概率,正確C.SVM的目標(biāo)是找到使得訓(xùn)練數(shù)據(jù)盡可能分開且分類間隔最大的超平面,應(yīng)該屬于結(jié)構(gòu)風(fēng)險(xiǎn)最小化。D.SVM可以通過正則化系數(shù)控制模型的復(fù)雜度,避免過擬合。4、以下哪些方法不可以直接來對文本分類?()A、KmeansB、決策樹C、支持向量機(jī)D、KNN正確答案:A分類不同于聚類。5、關(guān)于Logit回歸和SVM不正確的是()A.Logit回歸本質(zhì)上是一種根據(jù)樣本對權(quán)值進(jìn)行極大似然估計(jì)的方法,而后驗(yàn)概率正比于先驗(yàn)概率和似然函數(shù)的乘積。logit僅僅是最大化似然函數(shù),并沒有最大化后驗(yàn)概率,更談不上最小化后驗(yàn)概率。A錯(cuò)誤B.Logit回歸的輸出就是樣本屬于正類別的幾率,可以計(jì)算出概率,正確C.SVM的目標(biāo)是找到使得訓(xùn)練數(shù)據(jù)盡可能分開且分類間隔最大的超平面,應(yīng)該屬于結(jié)構(gòu)風(fēng)險(xiǎn)最小化。D.SVM可以通過正則化系數(shù)控制模型的復(fù)雜度,避免過擬合。6、下列不是SVM核函數(shù)的是()A.多項(xiàng)式核函數(shù)B.logistic核函數(shù)C.徑向基核函數(shù)D.Sigmoid核函數(shù)7、模型的高bias是什么意思,我們?nèi)绾谓档退繖C(jī)器學(xué)習(xí)ML基礎(chǔ)易()A.在特征空間中減少特征B.在特征空間中增加特征C.增加數(shù)據(jù)點(diǎn)D.B和C8、當(dāng)你使用Boosting提升算法時(shí),你會考慮弱學(xué)習(xí)器,以下哪項(xiàng)是使用弱學(xué)習(xí)器的主要原因?()A.防止過擬合B.防止欠擬合C.防止過擬合和防止欠擬合D.都不對9、梯度提升中,利用學(xué)習(xí)率來獲得最優(yōu)輸出是非常重要的,在選擇學(xué)習(xí)速率時(shí), 下列描述正確的是:()A.學(xué)習(xí)率越大越好B.學(xué)習(xí)率越小越好C.學(xué)習(xí)率應(yīng)該小一點(diǎn)但是不能太小D.學(xué)習(xí)率不能太大也不能太小,根據(jù)情況而定10、下列哪個(gè)算法不是集成學(xué)習(xí)算法的例子:()A.RandomForestB.AdaBoostC.GBDTD.XgboostE.DecisionTree二、判斷題(本大題共10小題,每題1分,共10分)1、錯(cuò)誤率(ErrorRate)是分類錯(cuò)誤的樣本數(shù)占樣本總數(shù)的比例。()2、決策樹算法可以用于小數(shù)據(jù)集。()3、支持向量是SVM的訓(xùn)練結(jié)果,在SVM分類決策中起決定作用的是支持向量。()4、SVM在小樣本訓(xùn)練集上能夠得到比其它算法好很多的結(jié)果。()5、最大似然估計(jì)的目的就是:利用已知的樣本結(jié)果,反推最有可能(最大概率)導(dǎo)致這樣結(jié)果的參數(shù)值。()6、決策樹只能處理數(shù)據(jù)型屬性。()7、邏輯回歸計(jì)算速度快。()8、集成學(xué)習(xí)(ensemblelearning)通過構(gòu)建并結(jié)合多個(gè)學(xué)習(xí)器(learner)來完成學(xué)習(xí)任務(wù)()9、集成學(xué)習(xí)可獲得比單一學(xué)習(xí)器更良好的泛化性能(特別是在集成弱學(xué)習(xí)器(weaklearner)時(shí))。()10、集成學(xué)習(xí)以bagging、RandomForest等算法為代表的,各個(gè)學(xué)習(xí)器之間相互獨(dú)立、可同時(shí)生成的并行化方法。()三、填空(本大題共10小題,每題3分,共30分)1、熵指的是體系的的程度。2、算法利用信息增益進(jìn)行特征的選擇,信息增益反映的是給定條件后不確定性減少的程度。3、算法在決策樹生成的過程中,用信息增益比來選擇特征。4、p(x|θ)是給定參數(shù)θ的概率分布:。5、線性回歸如果是泊松分布,那就是。6、回歸常用評估方法:,,。7、基尼指數(shù)(基尼不純度)=*。8、聚類(Clustering)是指把相似的數(shù)據(jù)劃分到一起,具體劃分的時(shí)候并不關(guān)心這一類的標(biāo)簽,目標(biāo)就是把相似的數(shù)據(jù)聚合到一起,聚類是一種。9、分類(Classification):是把不同的數(shù)據(jù)劃分開,其過程是通過訓(xùn)練數(shù)據(jù)集獲得一個(gè)分類器,再通過分類器去預(yù)測未知數(shù)據(jù),分類是一種。10、聚類的一般過程數(shù)據(jù)準(zhǔn)備:和。四、簡答題(本大題共3小題,共30分)1、L1和L2正則先驗(yàn)分別服從什么分布?什么是最小二乘法?常用的降維技術(shù)有哪些?一、選擇題1.C 2.BD 3.A 4.A 5.A 6.B 7.B 8.B 9.D 10.E二、判斷題1.對 2.對 3.對 4.對 5.對 6.錯(cuò) 7.對 8.對 9.對 10.對 三、填空題1.混亂 2.ID3 3.C4.5 4.似然函數(shù) 5.泊松回歸 6.平均誤差絕對值誤差R2 7.樣本被選中的概率樣本被分錯(cuò)的概率 8.無監(jiān)督學(xué)習(xí)(UnsupervisedLearning)方法 9.監(jiān)督學(xué)習(xí)(SupervisedLearning)方法 10.特征標(biāo)準(zhǔn)化降維四、簡答題1、答:L1和L2正則先驗(yàn)分別服從什么分布,L1是拉普拉斯分布,L2是高斯分布。2、答:最小二乘法(又稱最小平方法)是一種數(shù)學(xué)優(yōu)化技術(shù)。它通過最小化誤差的平方和尋找數(shù)據(jù)的最佳函數(shù)匹配。利用最小二乘法可以簡便地求得未知的數(shù)據(jù),并使得這些求得的數(shù)據(jù)與實(shí)際數(shù)據(jù)之間誤差的平方和為最小。3、答:(1)主成分分析(PCA)在PCA中,數(shù)據(jù)從原來的坐標(biāo)系轉(zhuǎn)換到新的坐標(biāo)系,由數(shù)據(jù)本身決定。轉(zhuǎn)換坐標(biāo)系時(shí),以方差最大的方向作為坐標(biāo)軸方向,因?yàn)閿?shù)據(jù)的最大方差給出了數(shù)據(jù)的最重要的信息。第一個(gè)新坐標(biāo)軸選擇的是原始數(shù)據(jù)中方差最大的方法,第二個(gè)新坐標(biāo)軸選擇的是與第一個(gè)新坐標(biāo)軸正交且方差次大的方向。重復(fù)該過程,重復(fù)次數(shù)為原始數(shù)據(jù)的特征維數(shù)。大部分方差都包含在最前面的幾個(gè)新坐標(biāo)軸中,因此,可以忽略余下的坐標(biāo)軸,即對數(shù)據(jù)進(jìn)行了降維處理。(2)因子分析(FA)在因子分析中,假設(shè)在觀察數(shù)據(jù)的生成中有一些觀察不到的隱變量;假設(shè)觀察數(shù)據(jù)是這些隱變量和某些噪聲的線性組合;那么隱變量的數(shù)據(jù)可能比觀察數(shù)據(jù)的數(shù)目少,也就是說通過找到隱變量就可以實(shí)現(xiàn)數(shù)據(jù)的降維。(3)獨(dú)立成分分析(ICA)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論