模式識別(山東聯(lián)盟)知到章節(jié)答案智慧樹2023年青島大學(xué)_第1頁
模式識別(山東聯(lián)盟)知到章節(jié)答案智慧樹2023年青島大學(xué)_第2頁
模式識別(山東聯(lián)盟)知到章節(jié)答案智慧樹2023年青島大學(xué)_第3頁
模式識別(山東聯(lián)盟)知到章節(jié)答案智慧樹2023年青島大學(xué)_第4頁
模式識別(山東聯(lián)盟)知到章節(jié)答案智慧樹2023年青島大學(xué)_第5頁
免費預(yù)覽已結(jié)束,剩余7頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

模式識別(山東聯(lián)盟)知到章節(jié)測試答案智慧樹2023年最新青島大學(xué)第一章測試

關(guān)于監(jiān)督模式識別與非監(jiān)督模式識別的描述正確的是

參考答案:

非監(jiān)督模式識別對樣本的分類結(jié)果是唯一的

基于數(shù)據(jù)的方法適用于特征和類別關(guān)系不明確的情況

參考答案:

下列關(guān)于模式識別的說法中,正確的是

參考答案:

模式可以看作對象的組成成分或影響因素間存在的規(guī)律性關(guān)系

在模式識別中,樣本的特征構(gòu)成特征空間,特征數(shù)量越多越有利于分類

參考答案:

在監(jiān)督模式識別中,分類器的形式越復(fù)雜,對未知樣本的分類精度就越高

參考答案:

第二章測試

下列關(guān)于最小風(fēng)險的貝葉斯決策的說法中正確的有

參考答案:

最小風(fēng)險的貝葉斯決策考慮到了不同的錯誤率所造成的不同損失;最小錯誤率的貝葉斯決策是最小風(fēng)險的貝葉斯決策的特例;條件風(fēng)險反映了對于一個樣本x采用某種決策時所帶來的損失

我們在對某一模式x進行分類判別決策時,只需要算出它屬于各類的條件風(fēng)險就可以進行決策了。

參考答案:

下面關(guān)于貝葉斯分類器的說法中錯誤的是

參考答案:

貝葉斯分類器中的判別函數(shù)的形式是唯一的

當(dāng)各類的協(xié)方差矩陣相等時,分類面為超平面,并且與兩類的中心連線垂直。

參考答案:

當(dāng)各類的協(xié)方差矩陣不等時,決策面是超二次曲面。

參考答案:

第三章測試

概率密度函數(shù)的估計的本質(zhì)是根據(jù)訓(xùn)練數(shù)據(jù)來估計概率密度函數(shù)的形式和參數(shù)。

參考答案:

參數(shù)估計是已知概率密度的形式,而參數(shù)未知。

參考答案:

概率密度函數(shù)的參數(shù)估計需要一定數(shù)量的訓(xùn)練樣本,樣本越多,參數(shù)估計的結(jié)果越準(zhǔn)確。

參考答案:

下面關(guān)于最大似然估計的說法中正確的是

參考答案:

最大似然估計是在已知概率密度函數(shù)的形式,但是參數(shù)未知的情況下,利用訓(xùn)練樣本來估計未知參數(shù)。;在最大似然估計中要求各個樣本必須是獨立抽取的。;在最大似然函數(shù)估計中,要估計的參數(shù)是一個確定的量。

貝葉斯估計中是將未知的參數(shù)本身也看作一個隨機變量,要做的是根據(jù)觀測數(shù)據(jù)對參數(shù)的分布進行估計。

參考答案:

第四章測試

多類問題的貝葉斯分類器中判別函數(shù)的數(shù)量與類別數(shù)量是有直接關(guān)系的。

參考答案:

在線性判別函數(shù)的表達式中,一般情況下,權(quán)向量w的維數(shù)和樣本的維數(shù)是一致的。

參考答案:

下面關(guān)于超平面的說法中正確的是

參考答案:

超平面的法線方向與判別函數(shù)的權(quán)向量的方向是一致的。;判別函數(shù)可以度量樣本x到超平面的距離。;權(quán)向量與超平面垂直。;分類面的位置是由判別函數(shù)的閾值決定的。

fisher線性判別方法可以將樣本從多維空間投影到一維空間。

參考答案:

在感知器算法中訓(xùn)練樣本需要經(jīng)過增廣化處理和規(guī)范化處理。

參考答案:

在解空間中的解向量應(yīng)該對所有的樣本都滿足aTyi>0的條件。

參考答案:

第五章測試

單個感知器可以解決非線性問題的分類。

參考答案:

下面關(guān)于神經(jīng)網(wǎng)絡(luò)的說法中正確的是

參考答案:

單個感知器可以實現(xiàn)線性分類。;神經(jīng)元是神經(jīng)網(wǎng)絡(luò)的基本組成單元。;多層神經(jīng)網(wǎng)絡(luò)由輸入層、隱藏層和輸出層組成。;多個感知器可以解決非線性問題的分類。

在模式識別中,神經(jīng)網(wǎng)絡(luò)的輸入層的神經(jīng)元的個數(shù)與樣本的特征數(shù)量相關(guān)。

參考答案:

隱含層或輸出層具有激活函數(shù)。

參考答案:

下面關(guān)于BP神經(jīng)網(wǎng)絡(luò)的說法錯誤的是

參考答案:

BP算法由誤差的正向傳播和數(shù)據(jù)的反向傳播兩個過程構(gòu)成。

神經(jīng)網(wǎng)絡(luò)的模型受到哪些因素的影響。

參考答案:

網(wǎng)絡(luò)結(jié)構(gòu);連接權(quán)值的學(xué)習(xí);傳遞函數(shù)

利用神經(jīng)網(wǎng)絡(luò)對兩類問題進行分類時,可以用一個輸出節(jié)點來實現(xiàn)。

參考答案:

第六章測試

k-近鄰法中k的選取一般為偶數(shù)。

參考答案:

剪輯近鄰法去除的是遠離分類邊界,對于最后的決策沒有貢獻的樣本。

參考答案:

壓縮近鄰法去除的是遠離分類邊界,對于最后的決策沒有貢獻的樣本。

參考答案:

剪輯近鄰法剪除的是靠近分類面邊緣的樣本。

參考答案:

近鄰法是一種有監(jiān)督學(xué)習(xí)

參考答案:

第七章測試

一個數(shù)據(jù)集能生成多種決策樹

參考答案:

ID3方法的目的是降低系統(tǒng)信息熵

參考答案:

過擬合不會影響分類模型的泛化能力

參考答案:

先剪枝可以有效解決過擬合問題,但是后剪枝不能

參考答案:

隨機森林算法是基于自舉思想的一種決策樹改進算法

參考答案:

第八章測試

C均值算法是基于相似性度量的

參考答案:

C均值算法需要進行迭代計算

參考答案:

分級聚類可以使用多種不同的類間相似性度量

參考答案:

C均值聚類算法對噪聲和孤立點不敏感

參考答案:

分級聚類又叫層次聚類,需要構(gòu)建聚類樹

參考答案:

第九章測試

特征提取不僅可以降低特征空間的維度,還可以消除特征之間的相關(guān)性。

參考答案:

理想的判據(jù)應(yīng)該對特征具有單調(diào)性,加入新的特征不會使判據(jù)減小。

參考答案:

基于類內(nèi)類間距離的可分性判據(jù)和概率密度函數(shù)的可分性判據(jù)都可以有不同的表達形式。

參考答案:

熵表示不確定性,熵越小不確定性越大。

參考答案:

窮舉法是一種基本的特征選擇最優(yōu)算法。

參考答案:

下面關(guān)于分支定界法的說法中正確的是

參考答案:

分枝定界法也是一種特征選擇的最優(yōu)算法。;分枝定界法的計算量與具體問題和數(shù)據(jù)有關(guān)。;分枝定界法是一種自頂向下的方法,具有回溯的過程。

第十章測試

選擇性抽樣是根據(jù)樣本的先驗概率來確定檢驗集數(shù)量的抽樣方法。

參考答案:

測試集的樣本數(shù)量越多,對分類器錯誤率的估計就越準(zhǔn)確。

參考答案:

在總的樣本集不是很大的情況下,可以采用交叉驗證法來較好的估計分類器性能。

參考答案:

在進行交叉驗證時,,一般讓臨時訓(xùn)練集較大,臨時測試集較小,這樣得到的錯誤率估計就更接近用全部樣本作為訓(xùn)練樣本時的錯誤率。

參考答案:

下面關(guān)于交叉

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論