數(shù)據(jù)挖掘習題題_第1頁
數(shù)據(jù)挖掘習題題_第2頁
數(shù)據(jù)挖掘習題題_第3頁
數(shù)據(jù)挖掘習題題_第4頁
數(shù)據(jù)挖掘習題題_第5頁
免費預覽已結束,剩余8頁可下載查看

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、數(shù)據(jù)挖掘復習題單選題1. 某超市研究銷售紀錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會購買尿布,這種屬于數(shù)據(jù)挖掘的哪類問題? (A)A. 關聯(lián)規(guī)則發(fā)現(xiàn)B. 聚類C. 分類D. 自然語言處理2. 以下兩種描述分別對應哪兩種對分類算法的評價標準? (A)(a) 警察抓小偷,描述警察抓的人中有多少個是小偷的標準。(b) 描述有多少比例的小偷給警察抓了的標準。A. Precision, Recall B. Recall, PrecisionA. Precision, ROC D. Recall, ROC3. 將原始數(shù)據(jù)進行集成、變換、維度規(guī)約、數(shù)值規(guī)約是在以下哪個步驟的任務? (C)A. 頻繁模式挖掘 B.

2、分類和預測 C. 數(shù)據(jù)預處理D. 數(shù)據(jù)流挖掘4. 當不知道數(shù)據(jù)所帶標簽時,可以使用哪種技術促使帶同類標簽的數(shù)據(jù)與帶其他標簽的數(shù)據(jù)相分離? (B)A. 分類 B. 聚類 C. 關聯(lián)分析D. 隱馬爾可夫鏈5. 什么是 KDD? (A)A. 數(shù)據(jù)挖掘與知識發(fā)現(xiàn)B. 領域知識發(fā)現(xiàn)C. 文檔知識發(fā)現(xiàn)D. 動態(tài)知識發(fā)現(xiàn)6. 使用交互式的和可視化的技術,對數(shù)據(jù)進行探索屬于數(shù)據(jù)挖掘的哪一類任務?(A)A. 探索性數(shù)據(jù)分析B. 建模描述C. 預測建模 D. 尋找模式和規(guī)則7. 為數(shù)據(jù)的總體分布建模;把多維空間劃分成組等問題屬于數(shù)據(jù)挖掘的哪一類任務? (B)A. 探索性數(shù)據(jù)分析B. 建模描述C. 預測建模 D.

3、尋找模式和規(guī)則8. 建立一個模型,通過這個模型根據(jù)已知的變量值來預測其他某個變量值屬于數(shù)據(jù)挖掘的哪一類任務? (C)A. 根據(jù)內(nèi)容檢索B. 建模描述C. 預測建模 D. 尋找模式和規(guī)則9. 用戶有一種感興趣的模式并且希望在數(shù)據(jù)集中找到相似的模式,屬于數(shù)據(jù)挖掘哪一類任務? (A)A. 根據(jù)內(nèi)容檢索B. 建模描述C. 預測建模 D. 尋找模式和規(guī)則11. 下面哪種不屬于數(shù)據(jù)預處理的方法? (D)A 變量代換B 離散化 C 聚集 D 估計遺漏值12. 假設 12 個銷售價格記錄組已經(jīng)排序如下: 5, 10, 11, 13, 15, 35, 50, 55, 72, 92, 204,215 使用如下每種

4、方法將它們劃分成四個箱。 等頻 (等深) 劃分時, 15 在第幾個箱子內(nèi)? (B)A 第一個B第二個C第三個D第四個13. 上題中,等寬劃分時(寬度為 50) , 15 又在哪個箱子里? (A)A 第一個B第二個C第三個D第四個14. 下面哪個不屬于數(shù)據(jù)的屬性類型: (D)A 標稱 B 序數(shù) C 區(qū)間 D 相異15. 在上題中,屬于定量的屬性類型是:(C)A 標稱 B 序數(shù) C 區(qū)間 D 相異16. 只有非零值才重要的二元屬性被稱作: ( C )A 計數(shù)屬性 B 離散屬性 C 非對稱的二元屬性D 對稱屬性17. 以下哪種方法不屬于特征選擇的標準方法: (D)A 嵌入B 過濾 C 包裝 D 抽樣

5、18. 下面不屬于創(chuàng)建新屬性的相關方法的是: (B)A 特征提取B 特征修改C 映射數(shù)據(jù)到新的空間 D 特征構造19. 考慮值集1、2、3、4、5、90,其截斷均值(p=20%是(C)A 2 B 3 C 3.5 D 520. 下面哪個屬于映射數(shù)據(jù)到新的空間的方法? (A)A 傅立葉變換 B 特征加權 C 漸進抽樣 D 維歸約21. 熵是為消除不確定性所需要獲得的信息量,投擲均勻正六面體骰子的熵是: (B)A 1 比特 B 2.6 比特 C 3.2 比特 D 3.8 比特22. 假設屬性 income 的最大最小值分別是12000 元和 98000 元。利用最大最小規(guī)范化的方法將屬性的值映射到

6、0 至 1 的范圍內(nèi)。對屬性income 的 73600 元將被轉(zhuǎn)化為: (D)A 0.821 B 1.224 C 1.458 D 0.71623. 假定用于分析的數(shù)據(jù)包含屬性age。 數(shù)據(jù)元組中 age 的值如下 (按遞增序) : 13, 15, 16,16, 19, 20, 20, 21, 22, 22, 25 , 25, 25, 30, 33, 33, 35, 35, 36, 40, 45, 46, 52,70, 問題: 使用按箱平均值平滑方法對上述數(shù)據(jù)進行平滑, 箱的深度為3。 第二個箱子值為:(A)A 18.3 B 22.6 C 26.8 D 27.924. 考慮值集 12 24 3

7、3 2 4 55 68 26 ,其四分位數(shù)極差是: (A)A 31 B 24 C 55 D 325. 一所大學內(nèi)的各年紀人數(shù)分別為:一年級 200 人,二年級 160 人, 三年級 130 人, 四年級 110 人。則年級屬性的眾數(shù)是: (A)A 一年級 B 二年級 C 三年級 D 四年級26. 下列哪個不是專門用于可視化時間空間數(shù)據(jù)的技術: (B)A 等高線圖 B 餅圖 C 曲面圖 D 矢量場圖27. 在抽樣方法中,當合適的樣本容量很難確定時,可以使用的抽樣方法是: (D)A 有放回的簡單隨機抽樣B 無放回的簡單隨機抽樣C 分層抽樣 D 漸進抽樣28. 數(shù)據(jù)倉庫是隨著時間變化的 , 下面的描

8、述不正確的是(C)A. 數(shù)據(jù)倉庫隨時間的變化不斷增加新的數(shù)據(jù)內(nèi)容B. 捕捉到的新數(shù)據(jù)會覆蓋原來的快照 ;C. 數(shù)據(jù)倉庫隨事件變化不斷刪去舊的數(shù)據(jù)內(nèi)容;D. 數(shù)據(jù)倉庫中包含大量的綜合數(shù)據(jù), 這些綜合數(shù)據(jù)會隨著時間的變化不斷地進行重新綜合29. 關于基本數(shù)據(jù)的元數(shù)據(jù)是指: (D)A. 基本元數(shù)據(jù)與數(shù)據(jù)源, 數(shù)據(jù)倉庫 , 數(shù)據(jù)集市和應用程序等結構相關的信息;B. 基本元數(shù)據(jù)包括與企業(yè)相關的管理方面的數(shù)據(jù)和信息;C. 基本元數(shù)據(jù)包括日志文件和簡歷執(zhí)行處理的時序調(diào)度信息;D. 基本元數(shù)據(jù)包括關于裝載和更新處理, 分析處理以及管理方面的信息 .30. 下面關于數(shù)據(jù)粒度的描述不正確的是: (C)A. 粒度是

9、指數(shù)據(jù)倉庫小數(shù)據(jù)單元的詳細程度和級別 ;B. 數(shù)據(jù)越詳細 , 粒度就越小, 級別也就越高;C. 數(shù)據(jù)綜合度越高, 粒度也就越大, 級別也就越高;D. 粒度的具體劃分將直接影響數(shù)據(jù)倉庫中的數(shù)據(jù)量以及查詢質(zhì)量.31. 有關數(shù)據(jù)倉庫的開發(fā)特點 , 不正確的描述是: (A)A. 數(shù)據(jù)倉庫開發(fā)要從數(shù)據(jù)出發(fā);B. 數(shù)據(jù)倉庫使用的需求在開發(fā)出去就要明確 ;C. 數(shù)據(jù)倉庫的開發(fā)是一個不斷循環(huán)的過程, 是啟發(fā)式的開發(fā);D. 在數(shù)據(jù)倉庫環(huán)境中 , 并不存在操作型環(huán)境中所固定的和較確切的處理流, 數(shù)據(jù)倉庫中數(shù)據(jù)分析和處理更靈活, 且沒有固定的模式32. 在有關數(shù)據(jù)倉庫測試 , 下列說法不正確的是: (D)A. 在完

10、成數(shù)據(jù)倉庫的實施過程中 , 需要對數(shù)據(jù)倉庫進行各種測試. 測試工作中要包括單元測試和系統(tǒng)測試.B. 當數(shù)據(jù)倉庫的每個單獨組件完成后, 就需要對他們進行單元測試 .C. 系統(tǒng)的集成測試需要對數(shù)據(jù)倉庫的所有組件進行大量的功能測試和回歸測試.D. 在測試之前沒必要制定詳細的測試計劃 .33. OLAP 技術的核心是: (D)A. 在線性 ;B. 對用戶的快速響應;C. 互操作性.D. 多維分析;34. 關于OLAP的特性,下面正確的是:(D)(1) 快速性(2)可分析性 (3) 多維性 (4) 信息性 (5) 共享性A. (1) (2) (3)B. (2) (3) (4)C. (1) (2) (3)

11、 (4)D. (1) (2) (3) (4) (5)35. 關于OLA可口 OLTP的區(qū)別描述,不正確的是:(C)A. OLAP主要是關于如何理解聚集的大量不同的數(shù)據(jù).它與OTAPS用程序不同.B.與OLAP應用程序不同,OLTP應用程序包含大量相對簡單的事務.C. OLAP 的特點在于事務量大, 但事務內(nèi)容比較簡單且重復率高.D. OLAP是以數(shù)據(jù)倉庫為基礎的,但其最終數(shù)據(jù)來源與OLTP一樣均來自底層的數(shù)據(jù)庫系統(tǒng),兩者面對的用戶是相同的 .36. OLAM 技術一般簡稱為”數(shù)據(jù)聯(lián)機分析挖掘” , 下面說法正確的是: (D)A. OLAP和OLAMTB基于客戶機/服務器模式,只有后者有與用戶的

12、交互性;B.由于OLAM勺立方體和用于 OLAP勺立方體有本質(zhì)的區(qū)別.C.基于 WEB勺OLAM WE眼術與 OLA雌術的結合.D. OLAM艮務器通過用戶圖形借口接收用戶的分析指令,在元數(shù)據(jù)白知道下,對超級立方體作一定的操作.37 .關于OLA可口 OLTP的說法,下列不正確的是:(A)A. OLAP 事務量大 , 但事務內(nèi)容比較簡單且重復率高.B. OLAP的最終數(shù)據(jù)來源與OLTP不一樣.C. OLTP 面對的是決策人員和高層管理人員 .D. OLTP 以應用為核心, 是應用驅(qū)動的 .38 .設*=1, 2, 3是頻繁項集,則可由 X產(chǎn)生_(C)_個關聯(lián)規(guī)則。A、 4 B 、 5 C、 6

13、 D、 740. 概念分層圖是_(B)_ 圖。A 無向無環(huán) B、有向無環(huán) C、有向有環(huán) D、無向有環(huán)41. 頻繁項集、頻繁閉項集、最大頻繁項集之間的關系是: (C)A、頻繁項集頻繁閉項集=最大頻繁項集日頻繁項集=頻繁閉項集最大頻繁項集C頻繁項集頻繁閉項集最大頻繁項集D頻繁項集=頻繁閉項集=最大頻繁項集42. 考慮下面的頻繁3- 項集的集合: 1 , 2, 3 , 1 , 2, 4 , 1 , 2, 5 , 1 , 3, 4 , 1 ,3, 5 , 2 , 3, 4 , 2 , 3, 5 , 3 , 4, 5假定數(shù)據(jù)集中只有5 個項,采用 合并策略,由候選產(chǎn)生過程得到 4-項集不包含(C)A、

14、1 , 2, 3, 4 B 、 1, 2, 3, 5 C、 1 , 2, 4, 5 D、 1 , 3, 4, 543. 下面選項中 t 不是 s 的子序列的是( C )A、 s=<2,4,3,5,6,8> t=<2,3,6,8>B、 s=<2,4,3,5,6,8> t=<2,8>C、 s=<1,2,3,4> t=<1,2>D、 s=<2,4,2,4> t=<2,4>44. 在圖集合中發(fā)現(xiàn)一組公共子結構,這樣的任務稱為 ( B )A頻繁子集挖掘 B、頻繁子圖挖掘 C、頻繁數(shù)據(jù)項挖掘 D、頻繁模式挖掘4

15、5. 下列度量不具有反演性的是(D)A 系數(shù)B、幾率C、Cohen度量D、興趣因子46. 下列 _(A)_ 不是將主觀信息加入到模式發(fā)現(xiàn)任務中的方法。A、與同一時期其他數(shù)據(jù)對比日可視化C基于模板的方法D主觀興趣度量47. 下面購物籃能夠提取的 3-項集的最大數(shù)量是多少(C)ID 購買項1 牛奶,啤酒,尿布2 面包,黃油,牛奶3 牛奶,尿布,餅干4 面包,黃油,餅干5 啤酒,餅干,尿布6 牛奶,尿布,面包,黃油7 面包,黃油,尿布8 啤酒,尿布9 牛奶,尿布,面包,黃油10 啤酒,餅干A、 1 B 、 2 C 、 3 D 、 448. 以下哪些算法是分類算法,A, DBSCAN B, C4.5

16、C,K-Mean D,EM ( B)49. 以下哪些分類方法可以較好地避免樣本的不平衡問題, A , KNN B, SVM C, Bayes D ,神經(jīng)網(wǎng)絡( A)50. 決策樹中不包含一下哪種結點, A, 根結點( root node) B, 內(nèi)部結點( internal node )C,外部結點(external node ) D,葉結點(leaf node ) (C)51. 不純性度量中 Gini 計算公式為(其中 c 是類的個數(shù)) (A)A, B, C, D,(A)53. 以下哪項關于決策樹的說法是錯誤的 (C)A. 冗余屬性不會對決策樹的準確率造成不利的影響B(tài). 子樹可能在決策樹中重

17、復多次C. 決策樹算法對于噪聲的干擾非常敏感D.尋找最佳決策樹是 NP完全問題54. 在基于規(guī)則分類器的中, 依據(jù)規(guī)則質(zhì)量的某種度量對規(guī)則排序, 保證每一個測試記錄都是由覆蓋它的“最好的”規(guī)格來分類,這種方案稱為 (B)A. 基于類的排序方案B. 基于規(guī)則的排序方案C. 基于度量的排序方案D. 基于規(guī)格的排序方案。55. 以下哪些算法是基于規(guī)則的分類器 (A)A. C4.5 B. KNN C. Na?ve Bayes D. ANN56. 如果規(guī)則集 R 中不存在兩條規(guī)則被同一條記錄觸發(fā),則稱規(guī)則集 R 中的規(guī)則為(C) ;A, 無序規(guī)則 B ,窮舉規(guī)則 C , 互斥規(guī)則 D ,有序規(guī)則57.

18、如果對屬性值的任一組合,R 中都存在一條規(guī)則加以覆蓋,則稱規(guī)則集R 中的規(guī)則為 (B)A,無序規(guī)則B ,窮舉規(guī)則C ,互斥規(guī)則D ,有序規(guī)則58. 如果規(guī)則集中的規(guī)則按照優(yōu)先級降序排列,則稱規(guī)則集是(D)A,無序規(guī)則B ,窮舉規(guī)則C ,互斥規(guī)則D ,有序規(guī)則59. 如果允許一條記錄觸發(fā)多條分類規(guī)則, 把每條被觸發(fā)規(guī)則的后件看作是對相應類的一次投票,然后計票確定測試記錄的類標號,稱為(A)A, 無序規(guī)則 B ,窮舉規(guī)則 C , 互斥規(guī)則 D ,有序規(guī)則60. 考慮兩隊之間的足球比賽:隊0 和隊 1。假設65%的比賽隊0 勝出,剩余的比賽隊1 獲勝。隊 0 獲勝的比賽中只有30%是在隊1 的主場,

19、而隊1 取勝的比賽中75%是主場獲勝。如果下一場比賽在隊1 的主場進行隊1 獲勝的概率為 (C)A, 0.75 B,0.35 C,0.4678 D, 0.573861. 以下關于人工神經(jīng)網(wǎng)絡(ANN的描述錯誤的有(A)A,神經(jīng)網(wǎng)絡對訓練數(shù)據(jù)中的噪聲非常魯棒B,可以處理冗余特征C ,訓練ANN一個很耗時的過程 D ,至少含有一個隱藏層的多層神經(jīng)網(wǎng)絡62. 通過聚集多個分類器的預測來提高分類準確率的技術稱為 (A)A, 組合 (ensemble) B, 聚集 (aggregate) C ,合并 (combination) D ,投票 (voting)63. 簡單地將數(shù)據(jù)對象集劃分成不重疊的子集,

20、使得每個數(shù)據(jù)對象恰在一個子集中, 這種聚類類型稱作( B )A 、層次聚類 B 、劃分聚類 C 、非互斥聚類 D 、模糊聚類64. 在基本 K 均值算法里,當鄰近度函數(shù)采用( A )的時候,合適的質(zhì)心是簇中各點的中位數(shù)。A 、曼哈頓距離B 、平方歐幾里德距離C 、余弦距離D 、 Bregman 散度65. ( C ) 是一個觀測值, 它與其他觀測值的差別如此之大,以至于懷疑它是由不同的機制 產(chǎn)生的。A 、邊界點 B 、質(zhì)心 C 、離群點 D 、核心點 66. BIRCH 是一種( B )。A 、分類器 B 、聚類算法C 、關聯(lián)分析算法D 、特征選擇算法67. 檢測一元正態(tài)分布中的離群點,屬于異

21、常檢測中的基于( A )的離群點檢測。A 、統(tǒng)計方法B 、鄰近度 C 、密度 D 、聚類技術68. ( C ) 將兩個簇的鄰近度定義為不同簇的所有點對的平均逐對鄰近度, 它是一種凝聚層 次聚類技術。A、MIN (單鏈)B 、MAX(全鏈)C 、組平均 D 、Ward方法69. ( D ) 將兩個簇的鄰近度定義為兩個簇合并時導致的平方誤差的增量, 它是一種凝聚層 次聚類技術。A、MIN (單鏈)B 、MAX(全鏈)C 、組平均 D 、Ward方法70. DBSCAN 在最壞情況下的時間復雜度是( B ) 。A 、 O(m) B 、 O(m2) C 、 O(log m) D 、 O(m*log m

22、)71. 在基于圖的簇評估度量表里面,如果簇度量為 proximity(Ci , C) ,簇權值為 mi ,那 么它的類型是( C ) 。A 、基于圖的凝聚度 B 、基于原型的凝聚度C 、基于原型的分離度D 、基于圖的凝聚度和分離度72. 關于K均值和DBSCAN勺比較,以下說法不正確的是( A )。A、K均值丟棄被它識別為噪聲的對象,而DBSCANP般聚類所有對象。B、K均值使用簇的基于原型的概念,而DBSCAN1用基于密度的概念。C、K均值很難處理非球形的簇和不同大小的簇,DBSCANT以處理不同大小和不同形狀的簇。D、K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCA

23、NT合并有重疊的簇。73. 以下是哪一個聚類算法的算法流程: 構造k 最近鄰圖。 使用多層圖劃分算法劃分圖。 repeat :合并關于相對互連性和相對接近性而言,最好地保持簇的自相似性的簇。 until :不再有可以合并的簇。 ( C ) 。A 、 MST B 、 OPOSSUM C 、 Chameleon D 、 Jarvis Patrick ( JP)74. 考慮這么一種情況: 一個對象碰巧與另一個對象相對接近, 但屬于不同的類, 因為這兩個對象一般不會共享許多近鄰,所以應該選擇( D )的相似度計算方法。A 、平方歐幾里德距離B 、余弦距離C 、直接相似度D 、共享最近鄰75. 以下屬于

24、可伸縮聚類算法的是( A ) 。A、 CURE B 、 DENCLUE C 、 CLIQUE D 、 OPOSSUM76. 以下哪個聚類算法不是屬于基于原型的聚類( D ) 。A、模糊 c 均值 B 、EMB法C 、SOM D、CLIQUE77. 關于混合模型聚類算法的優(yōu)缺點,下面說法正確的是( B ) 。A 、當簇只包含少量數(shù)據(jù)點,或者數(shù)據(jù)點近似協(xié)線性時,混合模型也能很好地處理。B 、混合模型比K 均均或模糊c 均均更一般,因為它可以使用各種類型的分布。C 、混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇。D 、混合模型在有噪聲和離群點時不會存在問題。78. 以下哪個聚類算法不屬于基于網(wǎng)格的聚類算法

25、( D ) 。A 、 STING B 、 WaveCluster C 、 MAFIA D 、 BIRCH79. 一個對象的離群點得分是該對象周圍密度的逆。這是基于( C )的離群點定義。A 概率 B 、鄰近度C 、密度 D 、聚類80. 下面關于Jarvis - Patrick(JP)聚類算法的說法不正確的是( D )。A 、 JP 聚類擅長處理噪聲和離群點,并且能夠處理不同大小、形狀和密度的簇。B 、 JP 算法對高維數(shù)據(jù)效果良好,尤其擅長發(fā)現(xiàn)強相關對象的緊致簇。C、JP聚類是基于SNN相似度的概念。D 、 JP 聚類的基本時間復雜度為O(m)。第一章1、數(shù)據(jù)倉庫就是一個面向主題的、集成的、

26、相對穩(wěn)定的、反映歷史變化的數(shù)據(jù)集合。2、元數(shù)據(jù)是描述數(shù)據(jù)倉庫內(nèi)數(shù)據(jù)的結構和建立方法的數(shù)據(jù),它為訪問數(shù)據(jù)倉庫提供了一個 信息目錄,根據(jù)數(shù)據(jù)用途的不同可將數(shù)據(jù)倉庫的元數(shù)據(jù)分為技術元數(shù)據(jù)和業(yè)務元數(shù)據(jù)兩類。3、數(shù)據(jù)處理通常分成兩大類:聯(lián)機事務處理和聯(lián)機分析處理。4、多維分析是指以“維”形式組織起來的數(shù)據(jù)(多維數(shù)據(jù)集)采取切片、切塊、鉆取和旋 轉(zhuǎn)等各種分析動作,以求剖析數(shù)據(jù),使擁護能從不同角度、不同側(cè)面觀察數(shù)據(jù)倉庫中的數(shù)據(jù), 從而深入理解多維數(shù)據(jù)集中的信息。5、ROLA因基于關系數(shù)據(jù)庫的 OLA改現(xiàn),而MOLA謔基于多維數(shù)據(jù)結構組織的 OLAP實現(xiàn)。6、數(shù)據(jù)倉庫按照其開發(fā)過程,其關鍵環(huán)節(jié)包括數(shù)據(jù)抽取、數(shù)

27、據(jù)存儲于管理和數(shù)據(jù)表現(xiàn)等。7、數(shù)據(jù)倉庫系統(tǒng)的體系結構根據(jù)應用需求的不同,可以分為以下4種類型:兩層架構、獨立型數(shù)據(jù)集合、以來型數(shù)據(jù)結合和操作型數(shù)據(jù)存儲和邏輯型數(shù)據(jù)集中和實時數(shù)據(jù)倉庫。8、操作型數(shù)據(jù)存儲實際上是一個集成的、面向主題的、可更新的、當前值的(但是可“揮 發(fā)”的)、企業(yè)級的、詳細的數(shù)據(jù)庫,也叫運營數(shù)據(jù)存儲。9、“實時數(shù)據(jù)倉庫”以為著源數(shù)據(jù)系統(tǒng)、 決策支持服務和倉庫倉庫之間以一個接近實時的速 度交換數(shù)據(jù)和業(yè)務規(guī)則。10、從應用的角度看,數(shù)據(jù)倉庫的發(fā)展演變可以歸納為5個階段:以報表為主、以分析為主、以預測模型為主、以運營導向為主和以實時數(shù)據(jù)倉庫和自動決策為主。第二章1、調(diào)和數(shù)據(jù)是存儲在企業(yè)

28、級數(shù)據(jù)倉庫和操作型數(shù)據(jù)存儲中的數(shù)據(jù)。2、抽取、轉(zhuǎn)換、加載過程的目的是為決策支持應用提供一個單一的、權威數(shù)據(jù)源。因此,我們要求ETL過程產(chǎn)生的數(shù)據(jù)(即調(diào)和數(shù)據(jù)層)是詳細的、歷史的、規(guī)范的、可理解的、即時的和質(zhì)量可控制的。3、數(shù)據(jù)抽取的兩個常見類型是靜態(tài)抽取和增量抽取。靜態(tài)抽取用于最初填充數(shù)據(jù)倉庫,增 量抽取用于進行數(shù)據(jù)倉庫的維護。4、粒度是對數(shù)據(jù)倉庫中數(shù)據(jù)的綜合程度高低的一個衡量。粒度越小,細節(jié)程度越高,綜合 程度越低,回答查詢的種類越多。5、使用星型模式可以從一定程度上提高查詢效率。因為星型模式中數(shù)據(jù)的組織已經(jīng)經(jīng)過預 處理,主要數(shù)據(jù)都在龐大的事實表中。6、維度表一般又主鍵、分類層次和描述屬性組

29、成。對于主鍵可以選擇兩種方式:一種是采 用自然鍵,另一種是采用代理鍵。7、雪花型模式是對星型模式維表的進一步層次化和規(guī)范化來消除冗余的數(shù)據(jù)。8、數(shù)據(jù)倉庫中存在不同綜合級別的數(shù)據(jù)。一般把數(shù)據(jù)分成4個級別:早期細節(jié)級、當前細節(jié)級、輕度綜合級和高度綜合級。第三章1、SQL Server SSAS提供了所有業(yè)務數(shù)據(jù)的同意整合試圖,可以作為傳統(tǒng)報表、在線分析 處理、關鍵性能指示器記分卡和數(shù)據(jù)挖掘的基礎。2、數(shù)據(jù)倉庫的概念模型通常采用信息包圖法來進行設計,要求將其 5個組成部分(包括名稱、維度、類別、層次和度量)全面地描述出來。3、數(shù)據(jù)倉庫的邏輯模型通常采用星型圖法來進行設計,要求將星型的各類邏輯實體完整

30、地 描述出來。4、按照事實表中度量的可加性情況,可以把事實表對應的事實分為4種類型:事務事實、快照事實、線性項目事實和事件事實。5、確定了數(shù)據(jù)倉庫的粒度模型以后,為提高數(shù)據(jù)倉庫的使用性能,還需要根據(jù)擁護需求設 計聚合模型。6、在項目實施時,根據(jù)事實表的特點和擁護的查詢需求,可以選用時間、業(yè)務類型、區(qū)域 和下屬組織等多種數(shù)據(jù)分割類型。7、當維表中的主鍵在事實表中沒有與外鍵關聯(lián)時,這樣的維稱為退化維。它于事實表并無關系,但有時在查詢限制條件(如訂單號碼、出貨單編號等)中需要用到。8、維度可以根據(jù)其變化快慢分為元變化維度、緩慢變化維度和劇烈變化維度三類。9、數(shù)據(jù)倉庫的數(shù)據(jù)量通常較大,且數(shù)據(jù)一般很少更

31、新,可以通過設計和優(yōu)化索引結構來提高數(shù)據(jù)存取性能。10、數(shù)據(jù)倉庫數(shù)據(jù)庫常見的存儲優(yōu)化方法包括表的歸并與簇文件、反向規(guī)范化引入冗余、表的物理分割(分區(qū))。第四章1、關聯(lián)規(guī)則的經(jīng)典算法包括Apriori算法和FP-growth算法,其中FP-grownth算法的效率更高。2、如果 L2=a,b,a,c,a,d,b,c,b,d,則連接產(chǎn)生的 C3=a,b,c,a,b,d,a,c,d,b,c,d再經(jīng)過修剪,C3=a,b,c,a,b,d3、設定supmin=50%,交易集如則 L1=A , B , C L2=A,CT1A B CT2A CT3A DT4B E F第五章1、分類的過程包括獲取數(shù)據(jù)、預處理、

32、分類器設計和分類決策。2、分類器設計階段包含三個過程:劃分數(shù)據(jù)集、分類器構造和分類器測試。3、分類問題中常用的評價準則有精確度、查全率和查準率和集合均值。4、支持向量機中常用的核函數(shù)有多項式核函數(shù)、徑向基核函數(shù)和S型核函數(shù)。第八早1、聚類分析包括連續(xù)型、二值離散型、多值離散型和混合類型4種類型描述屬性的相似度計算方法。2、連續(xù)型屬性的數(shù)據(jù)樣本之間的距離有歐氏距離、曼哈頓距離和明考斯基距離。3、劃分聚類方法對數(shù)據(jù)集進行聚類時包含三個要點:選種某種距離作為數(shù)據(jù)樣本減的相似性度量、選擇評價聚類性能的準則函數(shù)和選擇某個初始分類,之后用迭代的方法得到聚類結果,使得評價聚類的準則函數(shù)取得最優(yōu)值。4、層次聚

33、類方法包括凝聚型和分解型兩中層次聚類方法。填空題20分,簡答題25分,計算題2個(25分),綜合題30分1、數(shù)據(jù)倉庫的組成? P2數(shù)據(jù)倉庫數(shù)據(jù)庫,數(shù)據(jù)抽取工具,元數(shù)據(jù),訪問工具,數(shù)據(jù)集市,數(shù)據(jù)倉庫管理,信息發(fā)布系統(tǒng)2、數(shù)據(jù)挖掘技術對聚類分析的要求有哪幾個方面?P131可伸縮性;處理不同類型屬性的能力;發(fā)現(xiàn)任意形狀聚類的能力;減小對先驗知識和用戶自定義參數(shù)的依賴性;處理噪聲數(shù)據(jù)的能力;可解釋性和實用性3、數(shù)據(jù)倉庫在存儲和管理方面的特點與關鍵技術?P7數(shù)據(jù)倉庫面對的是大量數(shù)據(jù)的存儲與管理并行處理針對決策支持查詢的優(yōu)化支持多維分析的查詢模式4、常見的聚類算法可以分為幾類?P132基于劃分的聚類算法,

34、基于層次的聚類算法, 基于密度的聚類算法, 基于網(wǎng)格的聚類算法,基于模型的聚類算法等。5、一個典型的數(shù)據(jù)倉庫系統(tǒng)的組成?P12數(shù)據(jù)源、數(shù)據(jù)存儲與管理、OLAP服務器、前端工具與應用6、數(shù)據(jù)倉庫常見的存儲優(yōu)化方法?P71表的歸并與簇文件;反向規(guī)范化,引入冗余;表的物理分割。7、數(shù)據(jù)倉庫發(fā)展演變的 5個階段? P20以報_表為主以分析為主以預測模型為主以運行向?qū)橹饕詫崟r數(shù)據(jù)倉庫、自動決策應用為主8、ID3算法主要存在的缺點? P116(1) ID3算法在選擇根結點和各內(nèi)部結點中的分枝屬性時,使用信息增益作為評價標準。信息增益的缺點是傾向于選擇取值較多的屬性,在有些情況下這類屬性可能不會提供太多有

35、價值的信息。(2) ID3算法只能對描述屬性為離散型屬性的數(shù)據(jù)集構造決策樹。9、簡述數(shù)據(jù)倉庫ETL軟件的主要功能和對產(chǎn)生數(shù)據(jù)的目標要求。P30ETL軟件的主要功能:數(shù)據(jù)的抽取,數(shù)據(jù)的轉(zhuǎn)換,數(shù)據(jù)的加載 對產(chǎn)生數(shù)據(jù)的目標要求: 詳細的、歷史的、規(guī)范化的、可理解的、即時的、質(zhì)量可控制的10、簡述分類器設計階段包含的 3個過程。劃分數(shù)據(jù)集,分類器構造,分類器測試11、料,人么用碗!掘卻P339類標號用敖據(jù)樣本4(5戈W博是乖野矍雕凝灣雌惟逑摘類標號在將原始數(shù)據(jù)轉(zhuǎn)換和移到數(shù)據(jù)倉庫之前來升 級原始數(shù)據(jù)質(zhì)量而技術亡,12、支持度書信流力算公五及數(shù)據(jù)計本P9二;二二-1事務中X和Y同時找出所靠椒婀的啾氐5Y高;使支持度和置信度分別大于門限支持度:發(fā)生的比例,P(X ? Y)置信度:Example:平I集 X發(fā)生時,Y同時發(fā)生的條件概率 P(Y|X)14、K-帝烽年巧歌藝!。P128,%,即 xt cflD +1依XW 科):酒峻二Y口而Ik斑iaperjBeer(O.4,0.67正1L.Support(X)個距落從而找出工在X抑k楨猛假設'分睚1個五13、利用信息包圖設計數(shù)據(jù)倉庫概念模

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論