大數(shù)據(jù)挖掘與機器學習知到智慧樹章節(jié)測試課后答案2024年秋濟南大學_第1頁
大數(shù)據(jù)挖掘與機器學習知到智慧樹章節(jié)測試課后答案2024年秋濟南大學_第2頁
大數(shù)據(jù)挖掘與機器學習知到智慧樹章節(jié)測試課后答案2024年秋濟南大學_第3頁
大數(shù)據(jù)挖掘與機器學習知到智慧樹章節(jié)測試課后答案2024年秋濟南大學_第4頁
免費預(yù)覽已結(jié)束,剩余6頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

大數(shù)據(jù)挖掘與機器學習知到智慧樹章節(jié)測試課后答案2024年秋濟南大學緒論單元測試

數(shù)據(jù)挖掘的目標不在于數(shù)據(jù)采集策略,而在于對于已經(jīng)存在的數(shù)據(jù)進行模式的發(fā)掘。()

A:對B:錯

答案:對

第一章單元測試

圖挖掘技術(shù)在社會網(wǎng)絡(luò)分析中扮演了重要的角色。()

A:對B:錯

答案:對數(shù)據(jù)挖掘的主要任務(wù)是從數(shù)據(jù)中發(fā)現(xiàn)潛在的規(guī)則,從而能更好的完成描述數(shù)據(jù)、預(yù)測數(shù)據(jù)等任務(wù)。()

A:對B:錯

答案:對DSS主要是基于數(shù)據(jù)倉庫.聯(lián)機數(shù)據(jù)分析和數(shù)據(jù)挖掘技術(shù)的應(yīng)用。()

A:錯B:對

答案:對建立一個模型,通過這個模型根據(jù)已知的變量值來預(yù)測其他某個變量值屬于數(shù)據(jù)挖掘的哪一類任務(wù)?()

A:尋找模式和規(guī)則

B:建模描述

C:根據(jù)內(nèi)容檢索

D:預(yù)測建模

答案:預(yù)測建模

以下哪些學科和數(shù)據(jù)挖掘有密切聯(lián)系?()

A:計算機組成原理

B:礦產(chǎn)挖掘

C:統(tǒng)計

D:人工智能

答案:統(tǒng)計

;人工智能

第二章單元測試

下面哪個不屬于數(shù)據(jù)的屬性類型:()

A:序數(shù)

B:區(qū)間

C:標稱

D:相異

答案:相異

在上題中,屬于定量的屬性類型是:()

A:序數(shù)

B:標稱

C:區(qū)間

D:相異

答案:區(qū)間

只有非零值才重要的二元屬性被稱作:()

A:離散屬性

B:對稱屬性

C:非對稱的二元屬性

D:計數(shù)屬性

答案:非對稱的二元屬性

以下哪種方法不屬于特征選擇的標準方法:()

A:包裝

B:過濾

C:嵌入

D:抽樣

答案:抽樣

離群點可以是合法的數(shù)據(jù)對象或者值。()

A:對B:錯

答案:對

第三章單元測試

下面哪些屬于可視化高維數(shù)據(jù)技術(shù)()

A:散布圖

B:星形坐標

C:矩陣

D:平行坐標系

E:Chernoff臉

答案:星形坐標

;矩陣

;平行坐標系

;Chernoff臉

下面哪種不屬于數(shù)據(jù)預(yù)處理的方法?()

A:聚集

B:離散化

C:估計遺漏值

D:變量代換

答案:估計遺漏值

聯(lián)機分析處理包括以下哪些基本分析功能?()

A:切塊

B:轉(zhuǎn)軸

C:分類

D:切片

E:聚類

答案:切塊

;轉(zhuǎn)軸

;切片

檢測一元正態(tài)分布中的離群點,屬于異常檢測中的基于()的離群點檢測。

A:鄰近度

B:統(tǒng)計方法

C:聚類技術(shù)

D:密度

答案:統(tǒng)計方法

離散屬性總是具有有限個值。()

A:錯B:對

答案:錯

第四章單元測試

數(shù)據(jù)倉庫系統(tǒng)的組成部分包括數(shù)據(jù)倉庫,倉庫管理,數(shù)據(jù)抽取,分析工具等四個部分.()

A:對B:錯

答案:錯數(shù)據(jù)倉庫中間層OLAP服務(wù)器只能采用關(guān)系型OLAP()

A:錯B:對

答案:錯下面列出的條目中,哪些是數(shù)據(jù)倉庫的基本特征:()

A:數(shù)據(jù)倉庫是面向事務(wù)的

B:數(shù)據(jù)倉庫的數(shù)據(jù)是反映歷史變化的

C:數(shù)據(jù)倉庫是面向主題的

D:數(shù)據(jù)倉庫的數(shù)據(jù)是集成的

E:數(shù)據(jù)倉庫的數(shù)據(jù)是相對穩(wěn)定的

答案:數(shù)據(jù)倉庫的數(shù)據(jù)是反映歷史變化的

;數(shù)據(jù)倉庫是面向主題的

;數(shù)據(jù)倉庫的數(shù)據(jù)是相對穩(wěn)定的

以下各項均是針對數(shù)據(jù)倉庫的不同說法,你認為正確的有()。

A:數(shù)據(jù)倉庫是一切商業(yè)智能系統(tǒng)的基礎(chǔ)

B:數(shù)據(jù)倉庫支持決策而非事務(wù)處理

C:數(shù)據(jù)倉庫的主要目標就是幫助分析,做長期性的戰(zhàn)略制定

D:數(shù)據(jù)倉庫就是數(shù)據(jù)庫

E:數(shù)據(jù)倉庫是面向業(yè)務(wù)的,支持聯(lián)機事務(wù)處理(OLTP)

答案:數(shù)據(jù)倉庫是一切商業(yè)智能系統(tǒng)的基礎(chǔ)

;數(shù)據(jù)倉庫支持決策而非事務(wù)處理

;數(shù)據(jù)倉庫的主要目標就是幫助分析,做長期性的戰(zhàn)略制定

;數(shù)據(jù)倉庫是面向業(yè)務(wù)的,支持聯(lián)機事務(wù)處理(OLTP)

數(shù)據(jù)倉庫是隨著時間變化的,下面的描述不正確的是()

A:數(shù)據(jù)倉庫中包含大量的綜合數(shù)據(jù),這些綜合數(shù)據(jù)會隨著時間的變化不斷地進行重新綜合.

B:數(shù)據(jù)倉庫隨事件變化不斷刪去舊的數(shù)據(jù)內(nèi)容;

C:捕捉到的新數(shù)據(jù)會覆蓋原來的快照;

D:數(shù)據(jù)倉庫隨時間的變化不斷增加新的數(shù)據(jù)內(nèi)容;

答案:數(shù)據(jù)倉庫隨事件變化不斷刪去舊的數(shù)據(jù)內(nèi)容;

第五章單元測試

關(guān)聯(lián)規(guī)則挖掘過程是發(fā)現(xiàn)滿足最小支持度的所有項集代表的規(guī)則。()

A:對B:錯

答案:錯概念分層圖是()圖。

A:無向無環(huán)

B:無向有環(huán)

C:有向有環(huán)

D:有向無環(huán)

答案:有向無環(huán)

下面選項中t不是s的子序列的是()

A:s=<{2,4},{3,5,6},{8}>t=<{2},{8}>

B:s=<{2,4},{2,4}>t=<{2},{4}>

C:s=<{1,2},{3,4}>t=<{1},{2}>

D:s=<{2,4},{3,5,6},{8}>t=<{2},{3,6},{8}>

答案:s=<{1,2},{3,4}>t=<{1},{2}>

在進行關(guān)聯(lián)規(guī)則分析時,得到的強鏈接如圖:那么數(shù)據(jù)集上分析得出的頻繁2項集和頻繁3項集各有多少個?

()

A:5個2項集,1個3項集

B:2個2項集,1個3項集

C:5個2項集,5個3項集

D:5個2項集,2個3項集

答案:5個2項集,1個3項集

在進行關(guān)聯(lián)規(guī)則分析時,得到的強鏈接如下圖所示:則數(shù)據(jù)集上分析得出的頻繁2項集和頻繁3項集各有多少個?()

A:5個2項集,1個3項集

B:5個2項集,5個3項集

C:5個2項集,2個3項集

D:2個2項集,1個3項集

答案:5個2項集,1個3項集

第六章單元測試

聚類(clustering)是這樣的過程:它找出描述并區(qū)分數(shù)據(jù)類或概念的模型(或函數(shù)),以便能夠使用模型預(yù)測類標記未知的對象類。()

A:對B:錯

答案:錯在聚類分析當中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差。()

A:對B:錯

答案:錯以下屬于聚類算法的是()

A:Jarvis-Patrick(JP)

B:DBSCAN

C:K均值

D:Apriori

答案:Jarvis-Patrick(JP)

;DBSCAN

;K均值

在聚類分析當中,()等技術(shù)可以處理任意形狀的簇。

A:組平均

B:MIN(單鏈)

C:MAX(全鏈)

D:Chameleon

答案:MIN(單鏈)

;Chameleon

簡單地將數(shù)據(jù)對象集劃分成不重疊的子集,使得每個數(shù)據(jù)對象恰在一個子集中,這種聚類類型稱作()

A:層次聚類

B:劃分聚類

C:非互斥聚類

D:模糊聚類

答案:劃分聚類

第七章單元測試

以下屬于分類器評價或比較尺度的有:()

A:模型描述的簡潔度

B:預(yù)測準確度

C:計算復(fù)雜度

D:召回率

答案:模型描述的簡潔度

;預(yù)測準確度

;計算復(fù)雜度

分類和回歸都可用于預(yù)測,分類的輸出是離散的類別值,而回歸的輸出是連續(xù)數(shù)值。()

A:對B:錯

答案:對對于SVM分類算法,待分樣本集中的大部分樣本不是支持向量,移去或者減少這些樣本對分類結(jié)果沒有影響。()

A:錯B:對

答案:對Bayes法是一種在已

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論