版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
MOOC模式識別-青島大學(xué)中國大學(xué)慕課答案第一章緒論部分的單元測試1、問題:下列關(guān)于模式識別的說法中,錯誤的是()選項(xiàng):A、人類的日常活動中包含很多模式識別的活動.B、模式可以看作對象的組成成分或影響因素間存在的規(guī)律性關(guān)系C、模式識別研究的問題就是如何通過機(jī)器實(shí)現(xiàn)樣本的特征提取D、對外界事物完成分類的過程也就完成了識別的過程正確答案:【模式識別研究的問題就是如何通過機(jī)器實(shí)現(xiàn)樣本的特征提取】2、問題:下列屬于非監(jiān)督識別的是選項(xiàng):A、車牌識別B、漢字識別C、人臉識別D、CT圖像的分割正確答案:【CT圖像的分割】3、問題:關(guān)于監(jiān)督模式識別與非監(jiān)督模式識別的描述錯誤的是選項(xiàng):A、監(jiān)督模式識別需要訓(xùn)練樣本B、非監(jiān)督模式識別對樣本的分類結(jié)果是唯一的C、監(jiān)督模式識別需要設(shè)計分類器D、非監(jiān)督模式識別是根據(jù)樣本之間的相似性進(jìn)行分類的正確答案:【非監(jiān)督模式識別對樣本的分類結(jié)果是唯一的】4、問題:若已知特征的情況下,一定可以通過模式識別方法得到特征和類別之間的對應(yīng)關(guān)系.選項(xiàng):A、正確B、錯誤正確答案:【錯誤】5、問題:在模式識別中,樣本的特征構(gòu)成特征空間,特征數(shù)量越多越有利于分類。選項(xiàng):A、正確B、錯誤正確答案:【錯誤】6、問題:一個典型的模式識別系統(tǒng)由原始數(shù)據(jù)獲取與預(yù)處理、特征提取與選擇、分類器設(shè)計或聚類、后處理四部分組成。選項(xiàng):A、正確B、錯誤正確答案:【正確】7、問題:已知一定數(shù)量的數(shù)據(jù),就可以通過監(jiān)督模式識別來實(shí)現(xiàn)類別的劃分選項(xiàng):A、正確B、錯誤正確答案:【錯誤】貝葉斯決策理論測試(一)1、問題:貝葉斯決策是通過計算樣本后驗(yàn)概率的大小來進(jìn)行決策的,下面表達(dá)式中wi代表類別,x代表樣本,能夠表示后驗(yàn)概率的是()選項(xiàng):A、P(wi)B、P(x)C、P(x|wi)D、P(wi|x)正確答案:【P(wi|x)】2、問題:下面關(guān)于基于最小風(fēng)險的貝葉斯決策的描述中,錯誤的是()選項(xiàng):A、最小風(fēng)險的貝葉斯決策考慮到了不同的錯誤率所造成的不同損失。B、最小錯誤率的貝葉斯決策是最小風(fēng)險的貝葉斯決策的特例。C、最小風(fēng)險的貝葉斯決策當(dāng)中,決策的數(shù)量和樣本類別的數(shù)量一定是相等的。D、條件風(fēng)險反映了對于一個樣本x采用某種決策時所帶來的損失。正確答案:【最小風(fēng)險的貝葉斯決策當(dāng)中,決策的數(shù)量和樣本類別的數(shù)量一定是相等的?!?、問題:基于最小錯誤率的貝葉斯決策規(guī)則可以采用不同的形式,下列不能表達(dá)其決策規(guī)則的是()選項(xiàng):A、后驗(yàn)概率B、似然比C、類條件概率D、先驗(yàn)概率正確答案:【先驗(yàn)概率】4、問題:基于最小錯誤率的貝葉斯決策的核心思想是將樣本判別為后驗(yàn)概率最大的類別。選項(xiàng):A、正確B、錯誤正確答案:【正確】5、問題:如果在采取每一個決策或行動時,都使條件風(fēng)險最小,則對所有的x做出決策時,其期望風(fēng)險也必然最小。選項(xiàng):A、正確B、錯誤正確答案:【正確】6、問題:最小風(fēng)險的貝葉斯決策的判別規(guī)則是將樣本x判別為條件風(fēng)險最小的那個類別。選項(xiàng):A、正確B、錯誤正確答案:【正確】7、問題:錯誤率是所有服從同樣分布的獨(dú)立樣本上錯誤概率的平均值。選項(xiàng):A、正確B、錯誤正確答案:【正確】概率密度函數(shù)的估計的單元測試1、問題:下面關(guān)于最大似然估計的說法中錯誤的是()選項(xiàng):A、在最大似然估計中要求各個樣本必須是獨(dú)立抽取的。B、最大似然估計是在已知概率密度函數(shù)的形式,但是參數(shù)未知的情況下,利用訓(xùn)練樣本來估計未知參數(shù)。C、在最大似然函數(shù)估計中,要估計的參數(shù)是一個不確定的量。D、在最大似然估計中,可以使用對數(shù)形式的似然函數(shù)來進(jìn)行估計。正確答案:【在最大似然函數(shù)估計中,要估計的參數(shù)是一個不確定的量?!?、問題:下列表達(dá)中不能影響貝葉斯估計結(jié)果的是()選項(xiàng):A、損失函數(shù)的形式B、樣本的數(shù)量C、待估計參數(shù)的后驗(yàn)概率D、數(shù)據(jù)的線性變換正確答案:【數(shù)據(jù)的線性變換】3、問題:最大似然函數(shù)估計認(rèn)為最有可能出現(xiàn)的樣本就是似然函數(shù)最大的樣本。選項(xiàng):A、正確B、錯誤正確答案:【正確】4、問題:貝葉斯估計中是將未知的參數(shù)本身也看作一個隨機(jī)變量,要做的是根據(jù)觀測數(shù)據(jù)對參數(shù)的分布進(jìn)行估計。選項(xiàng):A、正確B、錯誤正確答案:【正確】5、問題:在貝葉斯學(xué)習(xí)的過程中,訓(xùn)練樣本數(shù)量越多,估計值越接近與真實(shí)值。選項(xiàng):A、正確B、錯誤正確答案:【正確】6、問題:隨著訓(xùn)練樣本數(shù)的增多,待估計參數(shù)的函數(shù)會趨近于δ函數(shù)。選項(xiàng):A、正確B、錯誤正確答案:【正確】7、問題:貝葉斯估計的方法類似于貝葉斯決策,也需要定義損失函數(shù)。選項(xiàng):A、正確B、錯誤正確答案:【正確】超平面的一些問題:1、問題:超平面的法線方向與判別函數(shù)的權(quán)向量的方向是垂直的選項(xiàng):A、正確B、錯誤正確答案:【錯誤】2、問題:分類面的位置是由判別函數(shù)的閾值決定的選項(xiàng):A、正確B、錯誤正確答案:【正確】關(guān)于Fisher線性判別1、問題:好的投影方向應(yīng)該使不同類別的樣本均值之差盡量大,類內(nèi)的樣本盡量聚集。選項(xiàng):A、正確B、錯誤正確答案:【正確】2、問題:經(jīng)過fisher準(zhǔn)則投影后得到的最佳投影方向是投影后兩類樣本分類面的法線方向。選項(xiàng):A、正確B、錯誤正確答案:【正確】關(guān)于感知器算法和最小平方誤差判別的測驗(yàn)1、問題:下面關(guān)于感知器算法的說法正確的是()選項(xiàng):A、樣本經(jīng)過增廣化處理后樣本和權(quán)向量的維數(shù)都會增加一維。B、在解空間中滿足aTyi0的條件的解向量是唯一的。C、感知器算法的思想是選擇一個合適的權(quán)向量a,使得aT與錯分樣本的乘積大于零。D、在感知器算法中的學(xué)習(xí)率是不可改變的。正確答案:【樣本經(jīng)過增廣化處理后樣本和權(quán)向量的維數(shù)都會增加一維?!?、問題:下面關(guān)于最小平方誤差判別的說法中錯誤的是()選項(xiàng):A、最小平方誤差判別方法既適用于線性可分的情況,也適用于線性不可分的情況。B、最小平方誤差判別方法中的準(zhǔn)則函數(shù)是誤差長度的平方和。C、梯度下降法求解使誤差長度的平方和最小的權(quán)值時不需要賦初值。D、梯度下降法和偽逆法都可以求解使誤差長度的平方和最小的權(quán)值。正確答案:【梯度下降法求解使誤差長度的平方和最小的權(quán)值時不需要賦初值?!?、問題:在感知器算法中可以通過梯度下降法找到合適的權(quán)向量a。選項(xiàng):A、正確B、錯誤正確答案:【正確】4、問題:在求解權(quán)向量a的過程中,需要定義一個準(zhǔn)則函數(shù),準(zhǔn)則函數(shù)的形式是唯一的,并且一定是權(quán)向量a的函數(shù)。選項(xiàng):A、正確B、錯誤正確答案:【錯誤】5、問題:最小平方誤差判別方法中的準(zhǔn)則函數(shù)是誤差長度的平方和。選項(xiàng):A、正確B、錯誤正確答案:【正確】6、問題:在LMS算法中求解出的權(quán)向量與常數(shù)b無關(guān)。選項(xiàng):A、正確B、錯誤正確答案:【錯誤】7、問題:感知器準(zhǔn)則函數(shù)是用權(quán)向量a與所有的錯分樣本的乘積來表示對錯分樣本的懲罰。選項(xiàng):A、正確B、錯誤正確答案:【錯誤】8、問題:在感知器算法中感知器準(zhǔn)則函數(shù)取得最大值時所對應(yīng)的權(quán)向量a就是所要尋找的合適的權(quán)向量。選項(xiàng):A、正確B、錯誤正確答案:【錯誤】關(guān)于fisher線性判別準(zhǔn)則的測驗(yàn)1、問題:下面關(guān)于fisher線性判別準(zhǔn)則的說法中錯誤的是選項(xiàng):A、fisher線性判別方法可以將樣本從多維空間投影到一維空間B、將樣本從多維空間向一維空間投影的方向是不唯一的。C、經(jīng)過fisher準(zhǔn)則投影后得到的最佳投影方向就是投影后兩類樣本的分類面D、好的投影方向應(yīng)該使不同類別的樣本均值之差盡量大,類內(nèi)的樣本盡量聚集。正確答案:【經(jīng)過fisher準(zhǔn)則投影后得到的最佳投影方向就是投影后兩類樣本的分類面】2、問題:在基于樣本直接設(shè)計分類器時,不屬于分類器設(shè)計三要素的是選項(xiàng):A、判別函數(shù)的類型B、準(zhǔn)則函數(shù)的形式C、尋優(yōu)算法D、參數(shù)的類型正確答案:【參數(shù)的類型】3、問題:在線性判別函數(shù)的表達(dá)式中,一般情況下,權(quán)向量w的維數(shù)和樣本的維數(shù)是一致的。選項(xiàng):A、正確B、錯誤正確答案:【正確】4、問題:分類面的位置是由判別函數(shù)的閾值決定的。選項(xiàng):A、正確B、錯誤正確答案:【正確】5、問題:經(jīng)過fisher準(zhǔn)則投影后得到的最佳投影方向是投影后兩類樣本分類面的法線方向。選項(xiàng):A、正確B、錯誤正確答案:【正確】單元測試(一)1、問題:下面關(guān)于分段線性判別函數(shù)的說法中錯誤的是選項(xiàng):A、分段線性判別函數(shù)能夠逼近任意的超曲面,具有很強(qiáng)的適應(yīng)性。B、分段線性距離分類器在類別的各個維度不對稱的情況下,分類結(jié)果是不準(zhǔn)確的。C、在類別的各個維度不對稱的情況下,可以考慮使用分段線性距離分類器。D、在分段線性判別函數(shù)的設(shè)計當(dāng)中很重要的一個問題是子類的劃分問題。正確答案:【在類別的各個維度不對稱的情況下,可以考慮使用分段線性距離分類器。】2、問題:下面關(guān)于二次判別函數(shù)的說法中,錯誤的是選項(xiàng):A、每一類樣本都滿足高斯分布,可以定義每一類的判別函數(shù)為樣本到各類均值的馬氏距離的平方與給定閾值之間的比較。B、當(dāng)每一類均符合高斯分布時,可以通過調(diào)整二次判別函數(shù)中的閾值來減少錯誤率。C、如果其中一類分布比較接近高斯分布,即分布為團(tuán)狀,而另外一類則較均勻的分布在第一類附近,只求出一類的判別函數(shù)就可以進(jìn)行類別的劃分。D、如果一類分布比較接近高斯分布,即分布為團(tuán)狀,而另外一類則較均勻的分布在第一類附近,需要分別求出每一類的判別函數(shù)來進(jìn)行類別的劃分。正確答案:【如果一類分布比較接近高斯分布,即分布為團(tuán)狀,而另外一類則較均勻的分布在第一類附近,需要分別求出每一類的判別函數(shù)來進(jìn)行類別的劃分?!?、問題:在類別數(shù)量未知的情況下,可以采用二分樹的方式進(jìn)行分類器設(shè)計。選項(xiàng):A、正確B、錯誤正確答案:【正確】4、問題:基于距離的分段線性分類器將每一類分成若干子類,也就是各類別里每一個峰代表一個子類,在每個峰里選一個代表點(diǎn),可以用每個峰的中心來作為代表點(diǎn)。選項(xiàng):A、正確B、錯誤正確答案:【正確】5、問題:在使用二分樹進(jìn)行分類器設(shè)計的時候,初始權(quán)值對分類結(jié)果沒有影響。選項(xiàng):A、正確B、錯誤正確答案:【錯誤】單元測試(二)1、問題:下面關(guān)于多層神經(jīng)網(wǎng)絡(luò)的說法中,錯誤的是選項(xiàng):A、多層神經(jīng)網(wǎng)絡(luò)由輸入層、隱藏層和輸出層組成。B、多層神經(jīng)網(wǎng)絡(luò)的各層神經(jīng)元之間通過可修正的權(quán)值互聯(lián)。C、多層神經(jīng)網(wǎng)絡(luò)的同一層的神經(jīng)元之間通過可修正的權(quán)值互聯(lián)。D、多層神經(jīng)網(wǎng)絡(luò)可以實(shí)現(xiàn)非線性判別。正確答案:【多層神經(jīng)網(wǎng)絡(luò)的同一層的神經(jīng)元之間通過可修正的權(quán)值互聯(lián)?!?、問題:下面關(guān)于激活函數(shù)的說法中錯誤的是選項(xiàng):A、隱含層或輸出層具有激活函數(shù)。B、輸入層沒有激活函數(shù)。C、同一神經(jīng)網(wǎng)絡(luò)的激活函數(shù)必須是相同的。D、同一神經(jīng)網(wǎng)絡(luò)的隱含層和輸出層的激活函數(shù)可以不同。正確答案:【同一神經(jīng)網(wǎng)絡(luò)的激活函數(shù)必須是相同的?!?、問題:下面關(guān)于BP神經(jīng)網(wǎng)絡(luò)的說法中錯誤的是選項(xiàng):A、BP網(wǎng)絡(luò)是是一種按誤差反向傳播算法訓(xùn)練的多層前饋網(wǎng)絡(luò)。B、BP算法由數(shù)據(jù)流的前向計算(正向傳播)和誤差信號的反向傳播兩個過程構(gòu)成。C、在BP算法中數(shù)據(jù)流的正向傳播時,數(shù)據(jù)的傳播方向是輸入層→隱層→輸出層。D、在BP算法中數(shù)據(jù)的正向傳播和誤差的反向傳播是同時進(jìn)行的。正確答案:【在BP算法中數(shù)據(jù)的正向傳播和誤差的反向傳播是同時進(jìn)行的。】4、問題:在誤差的反向傳播過程中,是通過調(diào)整權(quán)值使得全局誤差最小。選項(xiàng):A、正確B、錯誤正確答案:【正確】5、問題:在BP算法中,學(xué)習(xí)率選的越大,收斂速度越快。選項(xiàng):A、正確B、錯誤正確答案:【錯誤】6、問題:單個感知器可以實(shí)現(xiàn)線性分類。選項(xiàng):A、正確B、錯誤正確答案:【正確】7、問題:神經(jīng)元是神經(jīng)網(wǎng)絡(luò)的基本組成單元。選項(xiàng):A、正確B、錯誤正確答案:【正確】8、問題:BP算法由誤差的正向傳播和數(shù)據(jù)的反向傳播兩個過程構(gòu)成。選項(xiàng):A、正確B、錯誤正確答案:【錯誤】單元測試(三)1、問題:下面關(guān)于神經(jīng)網(wǎng)絡(luò)參數(shù)的說法錯誤的是選項(xiàng):A、在選擇神經(jīng)網(wǎng)絡(luò)的層數(shù)時,隱藏層的層數(shù)應(yīng)該是越少越好。B、神經(jīng)網(wǎng)絡(luò)的模型受到神經(jīng)元的傳遞函數(shù)、網(wǎng)絡(luò)結(jié)構(gòu)和連接權(quán)值的學(xué)習(xí)這三個因素的影響。C、在多層前饋網(wǎng)絡(luò)中,若隱層節(jié)點(diǎn)數(shù)量太少,會出現(xiàn)欠學(xué)習(xí)的問題。D、在多層前饋網(wǎng)絡(luò)中,若隱層節(jié)點(diǎn)數(shù)量太少,會出現(xiàn)過學(xué)習(xí)的問題。正確答案:【在多層前饋網(wǎng)絡(luò)中,若隱層節(jié)點(diǎn)數(shù)量太少,會出現(xiàn)過學(xué)習(xí)的問題?!?、問題:下面關(guān)于利用神經(jīng)網(wǎng)絡(luò)進(jìn)行分類的說法中錯誤的是選項(xiàng):A、利用神經(jīng)網(wǎng)絡(luò)對兩類問題進(jìn)行分類時,可以用一個輸出節(jié)點(diǎn)來實(shí)現(xiàn)。B、神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)多類問題的分類時可以用多個神經(jīng)網(wǎng)絡(luò)組合來實(shí)現(xiàn)。C、利用神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)多類問題的分類時,可以采用一個具有的多個輸出節(jié)點(diǎn)的神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)。D、在利用神經(jīng)網(wǎng)絡(luò)進(jìn)行分類時,神經(jīng)網(wǎng)絡(luò)的輸入節(jié)點(diǎn)的個數(shù)多于輸入的特征數(shù)量。正確答案:【在利用神經(jīng)網(wǎng)絡(luò)進(jìn)行分類時,神經(jīng)網(wǎng)絡(luò)的輸入節(jié)點(diǎn)的個數(shù)多于輸入的特征數(shù)量。】3、問題:在利用神經(jīng)網(wǎng)絡(luò)進(jìn)行分類時,神經(jīng)網(wǎng)絡(luò)的輸入節(jié)點(diǎn)的個數(shù)等于輸入的特征數(shù)量。選項(xiàng):A、正確B、錯誤正確答案:【正確】4、問題:在神經(jīng)網(wǎng)絡(luò)對多類問題分類時,可以用少數(shù)的輸出節(jié)點(diǎn)實(shí)現(xiàn)多數(shù)的類別劃分。選項(xiàng):A、正確B、錯誤正確答案:【正確】5、問題:過學(xué)習(xí)問題是指神經(jīng)網(wǎng)絡(luò)在訓(xùn)練樣本集上的誤差很小,但是在獨(dú)立的測試樣本集上誤差很大。選項(xiàng):A、正確B、錯誤正確答案:【正確】近鄰法的測試1、問題:近鄰法是一種有監(jiān)督學(xué)習(xí)選項(xiàng):A、正確B、錯誤正確答案:【正確】2、問題:近鄰法對模板數(shù)量沒有要求,模板數(shù)量對分類性能影響不大選項(xiàng):A、正確B、錯誤正確答案:【錯誤】3、問題:近鄰法需要較大計算量和存儲量選項(xiàng):A、正確B、錯誤正確答案:【正確】4、問題:剪輯近鄰法可以同時減少數(shù)據(jù)存儲量和計算量選項(xiàng):A、正確B、錯誤正確答案:【正確】決策樹的測試1、問題:決策樹學(xué)習(xí)是無監(jiān)督學(xué)習(xí)選項(xiàng):A、正確B、錯誤正確答案:【錯誤】2、問題:一個數(shù)據(jù)集只能生成一種決策樹選項(xiàng):A、正確B、錯誤正確答案:【錯誤】3、問題:ID3方法的目的是降低系統(tǒng)信息熵選項(xiàng):A、正確B、錯誤正確答案:【正確】4、問題:隨機(jī)森林算法是基于自舉思想的一種決策樹改進(jìn)算法選項(xiàng):A、正確B、錯誤正確答案:【正確】非監(jiān)督模式識別測試題1、問題:聚類分析算法屬于有監(jiān)督學(xué)習(xí)選項(xiàng):A、正確B、錯誤正確答案:【錯誤】2、問題:無監(jiān)督學(xué)習(xí)不需要訓(xùn)練集就可以進(jìn)行選項(xiàng):A、正確B、錯誤正確答案:【正確】3、問題:分級聚類方法需要進(jìn)行迭代運(yùn)算選項(xiàng):A、正確B、錯誤正確答案:【錯誤】4、問題:C均值算法是基于相似性度量的選項(xiàng):A、正確B、錯誤正確答案:【正確】特征選擇的測試題目1、問題:下面關(guān)于特征選擇的說法中,錯誤的是:選項(xiàng):A、特征選擇不僅可以降低特征空間的維度,還可以消除特征之間的相關(guān)性B、基于類內(nèi)類間距離的可分性判據(jù)是通過計算各類特征向量之間的平均距離來作為評價準(zhǔn)則。C、基于類內(nèi)類間距離的可分性判據(jù)的值越大,說明可分離性越好。D、當(dāng)各類的協(xié)方差矩陣相差不大時,采用基于類內(nèi)類間距離的可分性判據(jù)的效果會好一些。正確答案:【特征選擇不僅可以降低特征空間的維度,還可以消除特征之間的相關(guān)性】2、問題:下面關(guān)于分支定界法的說法中,錯誤的是:選項(xiàng):A、分枝定界法也是一種特征選擇的最優(yōu)算法。B、分枝定界法是一種自頂向下的方法,具有回溯的過程。C、分枝定界法是一種自頂向下的方法,沒有回溯的過程。D、分枝定界法的計算量與具體問題和數(shù)據(jù)有關(guān)正確答案:【分枝定界法是一種自頂向下的方法,沒有回溯的過程?!?、問題:在特征選擇中,有兩個很重要的方面,一個是特征的評價準(zhǔn)則,另外一個是特征的尋優(yōu)算法。選項(xiàng):A、正確B、錯誤正確答案:【正確】4、問題:可以利用分類器錯誤率的大小作為設(shè)定特征評價準(zhǔn)則的依據(jù)。選項(xiàng):A、正確B、錯誤正確答案:【正確】5、問題:窮舉法是一種基本的特征選擇最優(yōu)算法。選項(xiàng):A、正確B、錯誤正確答案:【正確】特征提取的單元測試1、問題:下面關(guān)于特征提取的說法中錯誤的是:選項(xiàng):A、特征提取不僅可以降低特征空間的維度,還可以消除特征之間的相關(guān)性。B、特征提取是通過特征變換將原來的高維特征轉(zhuǎn)換為低維特征。C、PCA算法是通過變換矩陣得到原有特征的線性組合,新特征之間是線性相關(guān)的。D、特征提取的過程是通過訓(xùn)練樣本求取特征變換矩陣的過程。正確答案:【PCA算法是通過變換矩陣得到原有特征的線性組合,新特征之間是線性相關(guān)的。】2、問題:下面關(guān)于PCA的說法中,錯誤的是:選項(xiàng):A、PCA算法是從一組特征中計算出一組按重要性從大到小排列的新特征,它們是原有特征的線性組合,并且相互之間是不相關(guān)的。B、主成分分析的目的是將多個原始特征壓縮為互不相關(guān)的少數(shù)綜合特征的過程。C、通過PCA方法得到的新特征能夠完全表達(dá)原始特征的信息。D、主成分分析方法需要計算原始特征的協(xié)方差矩陣或自相關(guān)矩陣。正確答案:【通過PCA方法得到的新特征能夠完全表達(dá)原始特征的信息。】3、問題:在K-L變換中不同的正交向量系會對應(yīng)不同的均方誤差,在選擇時應(yīng)該選擇使均方誤差最小的正交向量系。選項(xiàng):A、正確B、錯誤正確答案:【正確】4、問題:可以通過計算K-L變換的產(chǎn)生矩陣的本征值來得到相應(yīng)的正交變換系。選項(xiàng):A、正確B、錯誤正確答案:【正確】5、問題:當(dāng)原始特征的均值不為0時,主成分分析方法和K-L變換方法是等價的。選項(xiàng):A、正確B、錯誤正確答案:【錯誤】系統(tǒng)評價的測試1、問題:下面關(guān)于交叉驗(yàn)證的說法,錯誤的是:選項(xiàng):A、在總的樣本集不是很大的情況下,可以采用交叉驗(yàn)證法來較好的估計分類器性能。B、在進(jìn)行交叉驗(yàn)證時,,一般讓臨時訓(xùn)練集較小,臨時測試集較大,這樣得到的錯誤率估計就更接近用全部樣本作為訓(xùn)練樣本時的錯誤率。C、交叉驗(yàn)證法中的測試集過小會帶來錯誤率估計方差大的問題,這個問題可以通過多輪實(shí)驗(yàn)的平均得到一定的緩解。D、n倍交叉驗(yàn)證法和留一法都是交叉驗(yàn)證法的具體形式。正確答案:【在進(jìn)行交叉驗(yàn)證時,,一般讓臨時訓(xùn)練集較小,臨時測試集較大,這樣得到的錯誤率估計就更接近用全部樣本作為訓(xùn)練樣本時的錯誤率?!?、問題:下面關(guān)于模式識別系統(tǒng)的評價的說法中,錯誤的是:選項(xiàng):A、模式識別系統(tǒng)的某些優(yōu)質(zhì)算法的性能在任何情況下都會優(yōu)于其他的算法。B、在模式識別系統(tǒng)中,只有確定了問題的具體類型、先驗(yàn)分布情況、以及其他一些信息,才能確定哪種形式的分類器將提供最好的性能。C、在模式識別系統(tǒng)中,不存在與問題領(lǐng)域無關(guān)的最優(yōu)的學(xué)習(xí)算法或模式識別系統(tǒng)。D、在監(jiān)督模式識別系統(tǒng)中,可以用錯誤率來反映模式識別系統(tǒng)的性能。正確答案:【模式識別系統(tǒng)的某些優(yōu)質(zhì)算法的性能在任何情況下都會優(yōu)于其他的算法?!?、問題:訓(xùn)練錯誤率并不能準(zhǔn)確反映分類器性能的好壞。選項(xiàng):A、正確B、錯誤正確答案:【正確】4、問題:征的提取和選擇對分類器的性能也有很大的影響。選項(xiàng):A、正確B、錯誤正確答案:【正確】5、問題:在非監(jiān)督學(xué)習(xí)中,可以采用數(shù)學(xué)上評價聚類性能的指標(biāo)來幫助人們客觀地理解和解釋所得的聚類結(jié)果。選項(xiàng):A、正確B、錯誤正確答案:【正確】模式識別期末考試試卷1、問題:下列關(guān)于模式識別的說法中,錯誤的是選項(xiàng):A、人類的日?;顒又邪芏嗄J阶R別的活動B、模式可以看作對象的組成成分或影響因素間存在的規(guī)律性關(guān)系C、模式識別研究的問題就是如何通過機(jī)器實(shí)現(xiàn)樣本的特征提取D、對外界事物完成分類的過程也就完成了識別的過程正確答案:【模式識別研究的問題就是如何通過機(jī)器實(shí)現(xiàn)樣本的特征提取】2、問題:貝葉斯決策是通過計算樣本后驗(yàn)概率的大小來進(jìn)行決策的,下面表達(dá)式中wi代表類別,x代表樣本,能夠表示后驗(yàn)概率的是選項(xiàng):A、P(x)B、P(wi|x)C、P(wi)D、P(x|wi)正確答案:【P(wi|x)】3、問題:下列表達(dá)中不能影響貝葉斯估計結(jié)果的是選項(xiàng):A、損失函數(shù)的形式B、樣本的數(shù)量C、待估計參數(shù)的后驗(yàn)概率D、數(shù)據(jù)的線性變換正確答案:【數(shù)據(jù)的線性變換】4、問題:下列關(guān)于感知器算法的說法中錯誤的是選項(xiàng):A、在感知器算法中的學(xué)習(xí)率是可以改變的B、在感知器算法中可以通過調(diào)整學(xué)習(xí)率p來減少迭代次數(shù)。C、在感知器算法中,如果樣本不是線性可分的,則算法最后不會收斂。D、感知器算法也適用于線性不可分的樣本正確答案:【感知器算法也適用于線性不可分的樣本】5、問題:下面關(guān)于BP神經(jīng)網(wǎng)絡(luò)的說法錯誤的是選項(xiàng):A、BP網(wǎng)絡(luò)是是一種按誤差反向傳播算法訓(xùn)練的多層前饋網(wǎng)絡(luò)。B、BP算法由數(shù)據(jù)流的前向計算(正向傳播)和誤差信號的反向傳播兩個過程構(gòu)成。C、BP算法由誤差的正向傳播和數(shù)據(jù)的反向傳播兩個過程構(gòu)成。D、在BP算法中數(shù)據(jù)的正向傳播和誤差的反向傳播是交替進(jìn)行的。正確答案:【BP算法由誤差的正向傳播和數(shù)據(jù)的反向傳播兩個過程構(gòu)成。】6、問題:在利用神經(jīng)網(wǎng)絡(luò)進(jìn)行分類時,神經(jīng)網(wǎng)絡(luò)的輸入節(jié)點(diǎn)的個數(shù)______輸入的特征數(shù)量。選項(xiàng):A、少于B、等于C、多于D、不確定正確答案:【等于】7、問題:下面不能用來度量概率距離的參數(shù)是選項(xiàng):A、散度B、Chernoff界限C、Bhattacharyya距離D、歐式距離正確答案:【歐式距離】8、問題:下面關(guān)于錯誤率的說法中錯誤的是選項(xiàng):A、在監(jiān)督模式識別系統(tǒng)中,可以用錯誤率來反映模式識別系統(tǒng)的性能。B、在實(shí)際當(dāng)中,人們主要采用實(shí)驗(yàn)方法來估計監(jiān)督模式識別系統(tǒng)中分類器的錯誤率。C、在實(shí)際當(dāng)中,人們主要采用理論分析的方法來評價監(jiān)督模式識別系統(tǒng)中分類器的錯誤率。D、訓(xùn)練錯誤率并不能準(zhǔn)確反映分類器性能的好壞。正確答案:【在實(shí)際當(dāng)中,人們主要采用理論分析的方法來評價監(jiān)督模式識別系統(tǒng)中分類器的錯誤率。】9、問題:下面關(guān)于BP神經(jīng)網(wǎng)絡(luò)的說法錯誤的是選項(xiàng):A、BP網(wǎng)絡(luò)是是一種按誤差反向傳播算法訓(xùn)練的多層前饋網(wǎng)絡(luò)。B、BP算法由數(shù)據(jù)流的前向計算(正向傳播)和誤差信號的反向傳播兩個過程構(gòu)成。C、BP算法由誤差的正向傳播和數(shù)據(jù)的反向傳播兩個過程構(gòu)成。D、在BP算法中數(shù)據(jù)的正向傳播和誤差的反向傳播是交替進(jìn)行的。正確答案:【BP算法由誤差的正向傳播和數(shù)據(jù)的反向傳播兩個過程構(gòu)成?!?0、問題:下面關(guān)于熵的說法中,錯誤的是選項(xiàng):A、在基于熵的可分性判據(jù)中利用熵的大小來作為類別可分性的判據(jù)。B、熵表示不確定性,熵越小不確定性越大。C、熵表示不確定性,熵越大不確定性越大。D、基于熵的可分性判據(jù)中,判據(jù)的值越大,說明類別可分性越差。正確答案:【熵表示不確定性,熵越小不確定性越大?!?1、問題:下面關(guān)于PCA算法的說法中錯誤的是選項(xiàng):A、PCA算法是通過變換矩陣得到原有特征的線性組合,新特征之間是線性相關(guān)的。B、第一主成分是原始特征的所有線性組合里是方差最大的。C、第一主成分和第二主成分是互不相關(guān)的。D、通過PCA方法得到的特征變換矩陣是由協(xié)方差矩陣所對應(yīng)的最大的幾個特征值所得到的特征向量構(gòu)成的。正確答案:【PCA算法是通過變換矩陣得到原有特征的線性組合,新特征之間是線性相關(guān)的?!?2、問題:下列屬于監(jiān)督模式識別的是選項(xiàng):A、字符識別B、人臉識別C、車牌識別D、圖像分割正確答案:【字符識別#人臉識別#車牌識別】13、問題:基于最小錯誤率的貝葉斯決策規(guī)則可以采用不同的形式,下列能表達(dá)其決策規(guī)則的是選項(xiàng):A、后驗(yàn)概率B、似然比C、類條件概率D、先驗(yàn)概率正確答案:【后驗(yàn)概率#似然比#類條件概率】14、問題:下列關(guān)于最小風(fēng)險的貝葉斯決策的說法中正確的有選項(xiàng):A、最小風(fēng)險的貝葉斯決策考慮到了不同的錯誤率所造成的不同損失B、最小錯誤率的貝葉斯決策是最小風(fēng)險的貝葉斯決策的特例C、最小風(fēng)險的貝葉斯決策當(dāng)中,決策的數(shù)量和樣本類別的數(shù)量一定是相等的D、條件風(fēng)險反映了對于一個樣本x采用某種決策時所帶來的損失正確答案:【最小風(fēng)險的貝葉斯決策考慮到了不同的錯誤率所造成的不同損失#最小錯誤率的貝葉斯決策是最小風(fēng)險的貝葉斯決策的特例#條件風(fēng)險反映了對于一個樣本x采用某種決策時所帶來的損失】15、問題:下面關(guān)于最大似然估計的說法中正確的是選項(xiàng):A、在最大似然估計中要求各個樣本必須是獨(dú)立抽取的。B、最大似然估計是在已知概率密度函數(shù)的形式,但是參數(shù)未知的情況下,利用訓(xùn)練樣本來估計未知參數(shù)。C、在最大似然函數(shù)估計中,要估計的參數(shù)是一個確定的量。D、在最大似然函數(shù)估計中,要估計的參數(shù)是一個隨機(jī)量。正確答案:【在最大似然估計中要求各個樣本必須是獨(dú)立抽取的。#最大似然估計是在已知概率密度函數(shù)的形式,但是參數(shù)未知的情況下,利用訓(xùn)練樣本來估計未知參數(shù)。#在最大似然函數(shù)估計中,要估計的參數(shù)是一個確定的量。】16、問題:在基于樣本直接設(shè)計分類器時,屬于分類器設(shè)計三要素的是選項(xiàng):A、判別函數(shù)的類型B、準(zhǔn)則函數(shù)的形式C、尋優(yōu)算法D、參數(shù)的類型正確答案:【判別函數(shù)的類型#準(zhǔn)則函數(shù)的形式#尋優(yōu)算法】17、問題:下面關(guān)于最小平方誤差判別的說法中正確的是選項(xiàng):A、最小平方誤差判別方法適用于線性可分與線性不可分的情況B、最小平方誤差判別方法中的準(zhǔn)則函數(shù)是誤差長度的平方和。C、最小平方誤差判別方法就是尋找使誤差長度的平方和最大的權(quán)值。D、在最小平方誤差判別中可以使用梯度下降法來求解正確答案:【最小平方誤差判別方法適用于線性可分與線性不可分的情況#最小平方誤差判別方法中的準(zhǔn)則函數(shù)是誤差長度的平方和。#在最小平方誤差判別中可以使用梯度下降法來求解】18、問題:神經(jīng)網(wǎng)絡(luò)的模型受到哪些因素的影響選項(xiàng):A、傳遞函數(shù)B、網(wǎng)絡(luò)結(jié)構(gòu)C、連接權(quán)值的學(xué)習(xí)D、樣本的數(shù)量正確答案:【傳遞函數(shù)#網(wǎng)絡(luò)結(jié)構(gòu)#連接權(quán)值的學(xué)習(xí)】19、問題:下面關(guān)于特征選擇與提取的說法中正確的是選項(xiàng):A、在分類時,特征越多越有利于分類。B、在不影響分類效果的前提下,特征越少越有利于分類。C、在特征選擇中,有兩個很重要的方面,一個是特征的評價準(zhǔn)則,另外一個是特征的尋優(yōu)算法。D、特征選擇不僅可以降低特征空間的維度,還可以消除特征之間的相關(guān)性。正確答案:【在不影響分類效果的前提下,特征越少越有利于分類。#在特征選擇中,有兩個很重要的方面,一個是特征的評價準(zhǔn)則,另外一個是特征的尋優(yōu)算法。】20、問題:下面關(guān)于基于類內(nèi)類間距離的可分性判據(jù)的說法中正確的是選項(xiàng):A、基于類內(nèi)類間距離的可分性判據(jù)的值越大,說明可分離性越好。B、基于類內(nèi)類間距離的可分性判據(jù)的值越小,說明可分離性越好。C、當(dāng)各類的協(xié)方差矩陣相差很大時,采用基于類內(nèi)類間距離的可分性判據(jù)的效果會好一些。D、當(dāng)各類的協(xié)方差矩陣相差很小時,采用基于類內(nèi)類間距離的可分性判據(jù)的效果會好一些。正確答案:【基于類內(nèi)類間距離的可分性判據(jù)的值越大,說明可分離性越好。#當(dāng)各類的協(xié)方差矩陣相差很小時,采用基于類內(nèi)類間距離的可分性判據(jù)的效果會好一些?!?1、問題:下面關(guān)于分支定界法的說法中正確的是選項(xiàng):A、分枝定界法是一種自頂向下的方法,具有回溯的過程。B、分枝定界法的計算量與具體問題和數(shù)據(jù)有關(guān)。C、分枝定界法是一種自頂向下的方法,沒有回溯的過程。D、分枝定界法也是一種特征選擇的最優(yōu)算法。正確答案:【分枝定界法是一種自頂向下的方法,具有回溯的過程。#分枝定界法的計算量與具體問題和數(shù)據(jù)有關(guān)。#分枝定界法也是一種特征選擇的最優(yōu)算法?!?2、問題:下面關(guān)于分段線性判別函數(shù)的說法中正確的是選項(xiàng):A、在類別的各個維度不對稱的情況下,可以考慮使用分段線性距離分類器。B、具有推廣性的分段線性分類器是對各個子類分別定義一個線性判別函數(shù),判別時將樣本劃分到判別函數(shù)最大的子類所屬的類別。C、分段線性判別函數(shù)能夠逼近任意的超曲面,具有很強(qiáng)的適應(yīng)性。D、分段線性判別函數(shù)能夠只能逼近平面或超平面。正確答案:【具有推廣性的分段線性分類器是對各個子類分別定義一個線性判別函數(shù),判別時將樣本劃分到判別函數(shù)最大的子類所屬的類別。#分段線性判別函數(shù)能夠逼近任意的超曲面,具有很強(qiáng)的適應(yīng)性。】23、問題:下面關(guān)于神經(jīng)網(wǎng)絡(luò)的說法中正確的是選項(xiàng):A、單個感知器可以實(shí)現(xiàn)線性分類。B、神經(jīng)元是神經(jīng)網(wǎng)絡(luò)的基本組成單元。C、多層神經(jīng)網(wǎng)絡(luò)由輸入層、隱藏層和輸出層組成。D、多個感知器可以解決非線性問題的分類。正確答案:【單個感知器可以實(shí)現(xiàn)線性分類。#神經(jīng)元是神經(jīng)網(wǎng)絡(luò)的基本組成單元。#多層神經(jīng)網(wǎng)絡(luò)由輸入層、隱藏層和輸出層組成。#多個感知器可以解決非線性問題的分類?!?4、問題:下面算法中不屬于特征選擇的次優(yōu)算法的是選項(xiàng):A、順序前進(jìn)法B、順序后退法C、窮舉法D、分支定界法正確答案:【窮舉法#分支定界法】25、問題:感知器算法適用于線性可分的情況。選項(xiàng):A、正確B、錯誤正確答案:【正確】26、問題:感知器準(zhǔn)則函數(shù)是用權(quán)向量a與所有的錯分樣本的乘積來表示對錯分樣本的懲罰。選項(xiàng):A、正確B、錯誤正確答案:【錯誤】27、問題:符合正態(tài)分布的兩類樣本的分類面的位置與先驗(yàn)概率無關(guān)。選項(xiàng):A、正確B、錯誤正確答案:【錯誤】28、問題:在最小風(fēng)險的貝葉斯決策當(dāng)中不需要計算樣本的后驗(yàn)概率。選項(xiàng)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 七年級上冊《金色花》課件
- 兩條直線的位置關(guān)系對稱問題課件
- 《服飾知識常識》課件
- 單位管理制度集合大全人員管理十篇
- 單位管理制度集粹選集人事管理十篇
- 《石膏的護(hù)理》課件
- 單位管理制度分享大合集員工管理篇
- 單位管理制度范文大合集職工管理篇十篇
- 單位管理制度范例匯編人員管理篇十篇
- 單位管理制度呈現(xiàn)匯編職員管理篇十篇
- 石化企業(yè)恐怖襲擊事件應(yīng)急預(yù)案
- 高校PPT課件:證券投資學(xué)(第五版)
- m7130平面磨床電氣控制畢業(yè)設(shè)計
- 會計基礎(chǔ)一點(diǎn)通-張志鳳
- 牙科診所復(fù)診患者就診流程圖
- 人教版初中語文名著導(dǎo)讀復(fù)習(xí)資料
- 湘藝版 四年級上冊音樂教案- 第五課 踩雨
- 魔方社團(tuán)活動記錄-副本
- 第一節(jié)植物細(xì)胞的結(jié)構(gòu)和功能 (3)
- D502-15D502等電位聯(lián)結(jié)安裝圖集
- 設(shè)計風(fēng)速、覆冰的基準(zhǔn)和應(yīng)用
評論
0/150
提交評論