數(shù)據(jù)倉(cāng)庫(kù)與數(shù)據(jù)挖掘考試習(xí)題匯總 3_第1頁(yè)
數(shù)據(jù)倉(cāng)庫(kù)與數(shù)據(jù)挖掘考試習(xí)題匯總 3_第2頁(yè)
數(shù)據(jù)倉(cāng)庫(kù)與數(shù)據(jù)挖掘考試習(xí)題匯總 3_第3頁(yè)
數(shù)據(jù)倉(cāng)庫(kù)與數(shù)據(jù)挖掘考試習(xí)題匯總 3_第4頁(yè)
數(shù)據(jù)倉(cāng)庫(kù)與數(shù)據(jù)挖掘考試習(xí)題匯總 3_第5頁(yè)
已閱讀5頁(yè),還剩67頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

數(shù)據(jù)倉(cāng)庫(kù)與數(shù)據(jù)挖掘考試習(xí)題匯總3數(shù)據(jù)倉(cāng)庫(kù)與數(shù)據(jù)挖掘考試習(xí)題匯總3數(shù)據(jù)倉(cāng)庫(kù)與數(shù)據(jù)挖掘考試習(xí)題匯總3數(shù)據(jù)倉(cāng)庫(kù)與數(shù)據(jù)挖掘考試習(xí)題匯總3編制僅供參考審核批準(zhǔn)生效日期地址:電話:傳真:郵編:1、數(shù)據(jù)倉(cāng)庫(kù)就是一個(gè)面向主題的、集成的、相對(duì)穩(wěn)定的、反映歷史變化的數(shù)據(jù)集合。2、元數(shù)據(jù)是描述數(shù)據(jù)倉(cāng)庫(kù)內(nèi)數(shù)據(jù)的結(jié)構(gòu)和建立方法的數(shù)據(jù),它為訪問(wèn)數(shù)據(jù)倉(cāng)庫(kù)提供了一個(gè)信息目錄,根據(jù)數(shù)據(jù)用途的不同可將數(shù)據(jù)倉(cāng)庫(kù)的元數(shù)據(jù)分為技術(shù)元數(shù)據(jù)和業(yè)務(wù)元數(shù)據(jù)兩類。3、數(shù)據(jù)處理通常分成兩大類:聯(lián)機(jī)事務(wù)處理和聯(lián)機(jī)分析處理。4、多維分析是指以“維”形式組織起來(lái)的數(shù)據(jù)(多維數(shù)據(jù)集)采取切片、切塊、鉆取和旋轉(zhuǎn)等各種分析動(dòng)作,以求剖析數(shù)據(jù),使擁護(hù)能從不同角度、不同側(cè)面觀察數(shù)據(jù)倉(cāng)庫(kù)中的數(shù)據(jù),從而深入理解多維數(shù)據(jù)集中的信息。5、ROLAP是基于關(guān)系數(shù)據(jù)庫(kù)的OLAP實(shí)現(xiàn),而MOLAP是基于多維數(shù)據(jù)結(jié)構(gòu)組織的OLAP實(shí)現(xiàn)。6、數(shù)據(jù)倉(cāng)庫(kù)按照其開(kāi)發(fā)過(guò)程,其關(guān)鍵環(huán)節(jié)包括數(shù)據(jù)抽取、數(shù)據(jù)存儲(chǔ)于管理和數(shù)據(jù)表現(xiàn)等。7、數(shù)據(jù)倉(cāng)庫(kù)系統(tǒng)的體系結(jié)構(gòu)根據(jù)應(yīng)用需求的不同,可以分為以下4種類型:兩層架構(gòu)、獨(dú)立型數(shù)據(jù)集合、以來(lái)型數(shù)據(jù)結(jié)合和操作型數(shù)據(jù)存儲(chǔ)和邏輯型數(shù)據(jù)集中和實(shí)時(shí)數(shù)據(jù)倉(cāng)庫(kù)。8、操作型數(shù)據(jù)存儲(chǔ)實(shí)際上是一個(gè)集成的、面向主題的、可更新的、當(dāng)前值的(但是可“揮發(fā)”的)、企業(yè)級(jí)的、詳細(xì)的數(shù)據(jù)庫(kù),也叫運(yùn)營(yíng)數(shù)據(jù)存儲(chǔ)。9、“實(shí)時(shí)數(shù)據(jù)倉(cāng)庫(kù)”以為著源數(shù)據(jù)系統(tǒng)、決策支持服務(wù)和倉(cāng)庫(kù)倉(cāng)庫(kù)之間以一個(gè)接近實(shí)時(shí)的速度交換數(shù)據(jù)和業(yè)務(wù)規(guī)則。10、從應(yīng)用的角度看,數(shù)據(jù)倉(cāng)庫(kù)的發(fā)展演變可以歸納為5個(gè)階段:以報(bào)表為主、以分析為主、以預(yù)測(cè)模型為主、以運(yùn)營(yíng)導(dǎo)向?yàn)橹骱鸵詫?shí)時(shí)數(shù)據(jù)倉(cāng)庫(kù)和自動(dòng)決策為主。1、調(diào)和數(shù)據(jù)是存儲(chǔ)在企業(yè)級(jí)數(shù)據(jù)倉(cāng)庫(kù)和操作型數(shù)據(jù)存儲(chǔ)中的數(shù)據(jù)。2、抽取、轉(zhuǎn)換、加載過(guò)程的目的是為決策支持應(yīng)用提供一個(gè)單一的、權(quán)威數(shù)據(jù)源。因此,我們要求ETL過(guò)程產(chǎn)生的數(shù)據(jù)(即調(diào)和數(shù)據(jù)層)是詳細(xì)的、歷史的、規(guī)范的、可理解的、即時(shí)的和質(zhì)量可控制的。3、數(shù)據(jù)抽取的兩個(gè)常見(jiàn)類型是靜態(tài)抽取和增量抽取。靜態(tài)抽取用于最初填充數(shù)據(jù)倉(cāng)庫(kù),增量抽取用于進(jìn)行數(shù)據(jù)倉(cāng)庫(kù)的維護(hù)。4、粒度是對(duì)數(shù)據(jù)倉(cāng)庫(kù)中數(shù)據(jù)的綜合程度高低的一個(gè)衡量。粒度越小,細(xì)節(jié)程度越高,綜合程度越低,回答查詢的種類越多。5、使用星型模式可以從一定程度上提高查詢效率。因?yàn)樾切湍J街袛?shù)據(jù)的組織已經(jīng)經(jīng)過(guò)預(yù)處理,主要數(shù)據(jù)都在龐大的事實(shí)表中。6、維度表一般又主鍵、分類層次和描述屬性組成。對(duì)于主鍵可以選擇兩種方式:一種是采用自然鍵,另一種是采用代理鍵。7、雪花型模式是對(duì)星型模式維表的進(jìn)一步層次化和規(guī)范化來(lái)消除冗余的數(shù)據(jù)。8、數(shù)據(jù)倉(cāng)庫(kù)中存在不同綜合級(jí)別的數(shù)據(jù)。一般把數(shù)據(jù)分成4個(gè)級(jí)別:早期細(xì)節(jié)級(jí)、當(dāng)前細(xì)節(jié)級(jí)、輕度綜合級(jí)和高度綜合級(jí)。1、SQLServerSSAS提供了所有業(yè)務(wù)數(shù)據(jù)的同意整合試圖,可以作為傳統(tǒng)報(bào)表、在線分析處理、關(guān)鍵性能指示器記分卡和數(shù)據(jù)挖掘的基礎(chǔ)。2、數(shù)據(jù)倉(cāng)庫(kù)的概念模型通常采用信息包圖法來(lái)進(jìn)行設(shè)計(jì),要求將其5個(gè)組成部分(包括名稱、維度、類別、層次和度量)全面地描述出來(lái)。3、數(shù)據(jù)倉(cāng)庫(kù)的邏輯模型通常采用星型圖法來(lái)進(jìn)行設(shè)計(jì),要求將星型的各類邏輯實(shí)體完整地描述出來(lái)。4、按照事實(shí)表中度量的可加性情況,可以把事實(shí)表對(duì)應(yīng)的事實(shí)分為4種類型:事務(wù)事實(shí)、快照事實(shí)、線性項(xiàng)目事實(shí)和事件事實(shí)。5、確定了數(shù)據(jù)倉(cāng)庫(kù)的粒度模型以后,為提高數(shù)據(jù)倉(cāng)庫(kù)的使用性能,還需要根據(jù)擁護(hù)需求設(shè)計(jì)聚合模型。6、在項(xiàng)目實(shí)施時(shí),根據(jù)事實(shí)表的特點(diǎn)和擁護(hù)的查詢需求,可以選用時(shí)間、業(yè)務(wù)類型、區(qū)域和下屬組織等多種數(shù)據(jù)分割類型。7、當(dāng)維表中的主鍵在事實(shí)表中沒(méi)有與外鍵關(guān)聯(lián)時(shí),這樣的維稱為退化維。它于事實(shí)表并無(wú)關(guān)系,但有時(shí)在查詢限制條件(如訂單號(hào)碼、出貨單編號(hào)等)中需要用到。8、維度可以根據(jù)其變化快慢分為元變化維度、緩慢變化維度和劇烈變化維度三類。9、數(shù)據(jù)倉(cāng)庫(kù)的數(shù)據(jù)量通常較大,且數(shù)據(jù)一般很少更新,可以通過(guò)設(shè)計(jì)和優(yōu)化索引結(jié)構(gòu)來(lái)提高數(shù)據(jù)存取性能。10、數(shù)據(jù)倉(cāng)庫(kù)數(shù)據(jù)庫(kù)常見(jiàn)的存儲(chǔ)優(yōu)化方法包括表的歸并與簇文件、反向規(guī)范化引入冗余、表的物理分割(分區(qū))。第四章1、關(guān)聯(lián)規(guī)則的經(jīng)典算法包括Apriori算法和FP-growth算法,其中FP-grownth算法的效率更高。2、如果L2={{a,b},{a,c},{a,d},{b,c},{b,d}},則連接產(chǎn)生的C3={{a,b,c},{a,b,d},{a,c,d},{b,c,d}}再經(jīng)過(guò)修剪,C3={{a,b,c},{a,b,d}}3、設(shè)定supmin=50%,交易集如則L1={A},{B},{C}L2={A,C}T1ABCT2ACT3ADT4BEF1、分類的過(guò)程包括獲取數(shù)據(jù)、預(yù)處理、分類器設(shè)計(jì)和分類決策。2、分類器設(shè)計(jì)階段包含三個(gè)過(guò)程:劃分?jǐn)?shù)據(jù)集、分類器構(gòu)造和分類器測(cè)試。3、分類問(wèn)題中常用的評(píng)價(jià)準(zhǔn)則有精確度、查全率和查準(zhǔn)率和集合均值。4、支持向量機(jī)中常用的核函數(shù)有多項(xiàng)式核函數(shù)、徑向基核函數(shù)和S型核函數(shù)。1、聚類分析包括連續(xù)型、二值離散型、多值離散型和混合類型4種類型描述屬性的相似度計(jì)算方法。2、連續(xù)型屬性的數(shù)據(jù)樣本之間的距離有歐氏距離、曼哈頓距離和明考斯基距離。3、劃分聚類方法對(duì)數(shù)據(jù)集進(jìn)行聚類時(shí)包含三個(gè)要點(diǎn):選種某種距離作為數(shù)據(jù)樣本減的相似性度量、選擇評(píng)價(jià)聚類性能的準(zhǔn)則函數(shù)和選擇某個(gè)初始分類,之后用迭代的方法得到聚類結(jié)果,使得評(píng)價(jià)聚類的準(zhǔn)則函數(shù)取得最優(yōu)值。4、層次聚類方法包括凝聚型和分解型兩中層次聚類方法。1、數(shù)據(jù)倉(cāng)庫(kù)的組成?P2 數(shù)據(jù)倉(cāng)庫(kù)數(shù)據(jù)庫(kù),數(shù)據(jù)抽取工具,元數(shù)據(jù),訪問(wèn)工具,數(shù)據(jù)集市,數(shù)據(jù)倉(cāng)庫(kù)管理,信息發(fā)布系統(tǒng)2、數(shù)據(jù)挖掘技術(shù)對(duì)聚類分析的要求有哪幾個(gè)方面?P131 可伸縮性;處理不同類型屬性的能力;發(fā)現(xiàn)任意形狀聚類的能力;減小對(duì)先驗(yàn)知識(shí)和用戶自定義參數(shù)的依賴性;處理噪聲數(shù)據(jù)的能力;可解釋性和實(shí)用性3、數(shù)據(jù)倉(cāng)庫(kù)在存儲(chǔ)和管理方面的特點(diǎn)與關(guān)鍵技術(shù)?P7

數(shù)據(jù)倉(cāng)庫(kù)面對(duì)的是大量數(shù)據(jù)的存儲(chǔ)與管理 并行處理 針對(duì)決策支持查詢的優(yōu)化 支持多維分析的查詢模式4、常見(jiàn)的聚類算法可以分為幾類?P132

基于劃分的聚類算法,基于層次的聚類算法,基于密度的聚類算法,基于網(wǎng)格的聚類算法,基于模型的聚類算法等。5、一個(gè)典型的數(shù)據(jù)倉(cāng)庫(kù)系統(tǒng)的組成?P12 數(shù)據(jù)源、數(shù)據(jù)存儲(chǔ)與管理、OLAP服務(wù)器、前端工具與應(yīng)用數(shù)據(jù)倉(cāng)庫(kù)常見(jiàn)的存儲(chǔ)優(yōu)化方法?P71

表的歸并與簇文件;反向規(guī)范化,引入冗余;表的物理分割。數(shù)據(jù)倉(cāng)庫(kù)發(fā)展演變的5個(gè)階段?P20

以報(bào)表為主

以分析為主

以預(yù)測(cè)模型為主

以運(yùn)行向?qū)橹饕詫?shí)時(shí)數(shù)據(jù)倉(cāng)庫(kù)、自動(dòng)決策應(yīng)用為主ID3算法主要存在的缺點(diǎn)?P116

(1)ID3算法在選擇根結(jié)點(diǎn)和各內(nèi)部結(jié)點(diǎn)中的分枝屬性時(shí),使用信息增益作為評(píng)價(jià)標(biāo)準(zhǔn)。信息增益的缺點(diǎn)是傾向于選擇取值較多的屬性,在有些情況下這類屬性可能不會(huì)提供太多有價(jià)值的信息。

(2)ID3算法只能對(duì)描述屬性為離散型屬性的數(shù)據(jù)集構(gòu)造決策樹(shù)。簡(jiǎn)述數(shù)據(jù)倉(cāng)庫(kù)ETL軟件的主要功能和對(duì)產(chǎn)生數(shù)據(jù)的目標(biāo)要求。P30

ETL軟件的主要功能:

數(shù)據(jù)的抽取,數(shù)據(jù)的轉(zhuǎn)換,數(shù)據(jù)的加載

對(duì)產(chǎn)生數(shù)據(jù)的目標(biāo)要求:

詳細(xì)的、歷史的、規(guī)范化的、可理解的、即時(shí)的、質(zhì)量可控制的簡(jiǎn)述分類器設(shè)計(jì)階段包含的3個(gè)過(guò)程?!?/p>

劃分?jǐn)?shù)據(jù)集,分類器構(gòu)造,分類器測(cè)試什么是數(shù)據(jù)清洗?P33★

數(shù)據(jù)清洗是一種使用模式識(shí)別和其他技術(shù),在將原始數(shù)據(jù)轉(zhuǎn)換和移到數(shù)據(jù)倉(cāng)庫(kù)之前來(lái)升級(jí)原始數(shù)據(jù)質(zhì)量的技術(shù)。支持度和置信度的計(jì)算公式及數(shù)據(jù)計(jì)算(P90)

找出所有的規(guī)則XY,使支持度和置信度分別大于門限支持度:事務(wù)中X和Y同時(shí)發(fā)生的比例,P(X?Y)置信度:項(xiàng)集X發(fā)生時(shí),Y同時(shí)發(fā)生的條件概率P(Y|X)

Example:

13、利用信息包圖設(shè)計(jì)數(shù)據(jù)倉(cāng)庫(kù)概念模型需要確定的三方面內(nèi)容。P57 確定指標(biāo),確定維度,確定類別14、K-近鄰分類方法的操作步驟(包括算法的輸入和輸出)。P128

15、什么是技術(shù)元數(shù)據(jù),主要包含的內(nèi)容?P29

技術(shù)元數(shù)據(jù)是描述關(guān)于數(shù)據(jù)倉(cāng)庫(kù)技術(shù)細(xì)節(jié)的數(shù)據(jù),應(yīng)用于開(kāi)發(fā)、管理和維護(hù)DW,包含:DW結(jié)構(gòu)的描述,如DW的模式、視圖、維、層次結(jié)構(gòu)和導(dǎo)出數(shù)據(jù)的定義,數(shù)據(jù)集市的位置和內(nèi)容等業(yè)務(wù)系統(tǒng)、DW和數(shù)據(jù)集市的體系結(jié)構(gòu)和模式匯總算法。包括度量和維定義算法,數(shù)據(jù)粒度、主題領(lǐng)域、聚合、匯總和預(yù)定義的查詢和報(bào)告。由操作型業(yè)務(wù)環(huán)境到數(shù)據(jù)倉(cāng)庫(kù)業(yè)務(wù)環(huán)境的映射。包括源數(shù)據(jù)和他們的內(nèi)容、數(shù)據(jù)分割、數(shù)據(jù)提取、清洗、轉(zhuǎn)換規(guī)則和數(shù)據(jù)刷新規(guī)則及安全(用戶授權(quán)和存取控制)16、業(yè)務(wù)元數(shù)據(jù)主要包含的內(nèi)容?P29 業(yè)務(wù)元數(shù)據(jù):從業(yè)務(wù)角度描述了DW中的數(shù)據(jù),提供了介于使用者和實(shí)際系統(tǒng)之間的語(yǔ)義層,主要包括:使用者的業(yè)務(wù)屬于所表達(dá)的數(shù)據(jù)模型、對(duì)象名和屬性名訪問(wèn)數(shù)據(jù)的原則和數(shù)據(jù)的來(lái)源系統(tǒng)提供的分析方法及公式和報(bào)表的信息。17、K-means算法的基本操作步驟(包括算法的輸入和輸出)。P138★18、數(shù)據(jù)從集結(jié)區(qū)加載到數(shù)據(jù)倉(cāng)庫(kù)中的主要方法?P36SQL命令(如Insert或Update)由DW供應(yīng)商或第三方提供專門的加載工具由DW管理員編寫自定義程序19、多維數(shù)據(jù)模型中的基本概念:維,維類別,維屬性,粒度P37 維:人們觀察數(shù)據(jù)的特定角度,是考慮問(wèn)題的一類屬性,如時(shí)間維或產(chǎn)品維維類別:也稱維分層。即同一維度還可以存在細(xì)節(jié)程度不同的各個(gè)類別屬性(如時(shí)間維包括年、季度、月等)維屬性:是維的一個(gè)取值,是數(shù)據(jù)線在某維中位置的描述。粒度:DW中數(shù)據(jù)綜合程度高低的一個(gè)衡量。粒度低,細(xì)節(jié)程度高,回答查詢的種類多單選題

1.某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會(huì)購(gòu)買尿布,這種屬于數(shù)據(jù)挖掘的哪類問(wèn)題(

A)

A.關(guān)聯(lián)規(guī)則發(fā)現(xiàn)B.聚類

C.分類D.自然語(yǔ)言處理

2.以下兩種描述分別對(duì)應(yīng)哪兩種對(duì)分類算法的評(píng)價(jià)標(biāo)準(zhǔn)

(A)

(a)警察抓小偷,描述警察抓的人中有多少個(gè)是小偷的標(biāo)準(zhǔn)。

(b)描述有多少比例的小偷給警察抓了的標(biāo)準(zhǔn)。

A.Precision,RecallB.Recall,Precision

A.Precision,ROCD.Recall,ROC

3.將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約、數(shù)值規(guī)約是在以下哪個(gè)步驟的任務(wù)(

C)

A.頻繁模式挖掘B.分類和預(yù)測(cè)C.數(shù)據(jù)預(yù)處理D.數(shù)據(jù)流挖掘

4.當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),可以使用哪種技術(shù)促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離(

B)

A.分類B.聚類C.關(guān)聯(lián)分析D.隱馬爾可夫鏈

5.什么是KDD

(A)

A.數(shù)據(jù)挖掘與知識(shí)發(fā)現(xiàn)B.領(lǐng)域知識(shí)發(fā)現(xiàn)

C.文檔知識(shí)發(fā)現(xiàn)D.動(dòng)態(tài)知識(shí)發(fā)現(xiàn)

6.使用交互式的和可視化的技術(shù),對(duì)數(shù)據(jù)進(jìn)行探索屬于數(shù)據(jù)挖掘的哪一類任務(wù)(

A)

A.探索性數(shù)據(jù)分析B.建模描述

C.預(yù)測(cè)建模D.尋找模式和規(guī)則

7.為數(shù)據(jù)的總體分布建模;把多維空間劃分成組等問(wèn)題屬于數(shù)據(jù)挖掘的哪一類任務(wù)(

B)

A.探索性數(shù)據(jù)分析B.建模描述

C.預(yù)測(cè)建模D.尋找模式和規(guī)則

8.建立一個(gè)模型,通過(guò)這個(gè)模型根據(jù)已知的變量值來(lái)預(yù)測(cè)其他某個(gè)變量值屬于數(shù)據(jù)挖掘的哪一類任務(wù)(

C)

A.根據(jù)內(nèi)容檢索B.建模描述

C.預(yù)測(cè)建模D.尋找模式和規(guī)則

9.用戶有一種感興趣的模式并且希望在數(shù)據(jù)集中找到相似的模式,屬于數(shù)據(jù)挖掘哪一類任務(wù)(

A)

A.根據(jù)內(nèi)容檢索B.建模描述

C.預(yù)測(cè)建模D.尋找模式和規(guī)則

11.下面哪種不屬于數(shù)據(jù)預(yù)處理的方法

(D)

A變量代換B離散化C聚集D估計(jì)遺漏值

12.假設(shè)12個(gè)銷售價(jià)格記錄組已經(jīng)排序如下:5,10,11,13,15,35,50,55,72,92,204,215使用如下每種方法將它們劃分成四個(gè)箱。等頻(等深)劃分時(shí),15在第幾個(gè)箱子內(nèi)

(B)

A第一個(gè)B第二個(gè)C第三個(gè)D第四個(gè)

13.上題中,等寬劃分時(shí)(寬度為50),15又在哪個(gè)箱子里

(A)

A第一個(gè)B第二個(gè)C第三個(gè)D第四個(gè)

14.下面哪個(gè)不屬于數(shù)據(jù)的屬性類型:(D)

A標(biāo)稱B序數(shù)C區(qū)間D相異

15.在上題中,屬于定量的屬性類型是:(C)

A標(biāo)稱B序數(shù)C區(qū)間D相異

16.只有非零值才重要的二元屬性被稱作:(C)

A計(jì)數(shù)屬性B離散屬性C非對(duì)稱的二元屬性D對(duì)稱屬性

17.以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法:(D)

A嵌入B過(guò)濾C包裝D抽樣

18.下面不屬于創(chuàng)建新屬性的相關(guān)方法的是:(B)

A特征提取B特征修改C映射數(shù)據(jù)到新的空間D特征構(gòu)造

19.考慮值集{1、2、3、4、5、90},其截?cái)嗑担╬=20%)是(C)

A2B3C3.5D5

20.下面哪個(gè)屬于映射數(shù)據(jù)到新的空間的方法

(A)

A傅立葉變換B特征加權(quán)C漸進(jìn)抽樣D維歸約

21.熵是為消除不確定性所需要獲得的信息量,投擲均勻正六面體骰子的熵是:(B)

A1比特B2.6比特C3.2比特D3.8比特

22.假設(shè)屬性income的最大最小值分別是12000元和98000元。利用最大最小規(guī)范化的方法將屬性的值映射到0至1的范圍內(nèi)。對(duì)屬性income的73600元將被轉(zhuǎn)化為:(D)

A0.821B1.224C1.458D0.716

23.假定用于分析的數(shù)據(jù)包含屬性age。數(shù)據(jù)元組中age的值如下(按遞增序):13,15,16,16,19,20,20,21,22,22,25,25,25,30,33,33,35,35,36,40,45,46,52,70,問(wèn)題:使用按箱平均值平滑方法對(duì)上述數(shù)據(jù)進(jìn)行平滑,箱的深度為3。第二個(gè)箱子值為:(A)

A18.3B22.6C26.8D27.9

24.考慮值集{12243324556826},其四分位數(shù)極差是:(A)

A31B24C55D3

25.一所大學(xué)內(nèi)的各年紀(jì)人數(shù)分別為:一年級(jí)200人,二年級(jí)160人,三年級(jí)130人,四年級(jí)110人。則年級(jí)屬性的眾數(shù)是:(A)

A一年級(jí)B二年級(jí)C三年級(jí)D四年級(jí)

26.下列哪個(gè)不是專門用于可視化時(shí)間空間數(shù)據(jù)的技術(shù):(B)

A等高線圖B餅圖C曲面圖D矢量場(chǎng)圖

27.在抽樣方法中,當(dāng)合適的樣本容量很難確定時(shí),可以使用的抽樣方法是:(D)

A有放回的簡(jiǎn)單隨機(jī)抽樣B無(wú)放回的簡(jiǎn)單隨機(jī)抽樣C分層抽樣D漸進(jìn)抽樣

28.數(shù)據(jù)倉(cāng)庫(kù)是隨著時(shí)間變化的,下面的描述不正確的是(C)

A.數(shù)據(jù)倉(cāng)庫(kù)隨時(shí)間的變化不斷增加新的數(shù)據(jù)內(nèi)容;

B.捕捉到的新數(shù)據(jù)會(huì)覆蓋原來(lái)的快照;

C.數(shù)據(jù)倉(cāng)庫(kù)隨事件變化不斷刪去舊的數(shù)據(jù)內(nèi)容;

D.數(shù)據(jù)倉(cāng)庫(kù)中包含大量的綜合數(shù)據(jù),這些綜合數(shù)據(jù)會(huì)隨著時(shí)間的變化不斷地進(jìn)行重新綜合.

29.關(guān)于基本數(shù)據(jù)的元數(shù)據(jù)是指:(D)

A.基本元數(shù)據(jù)與數(shù)據(jù)源,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)集市和應(yīng)用程序等結(jié)構(gòu)相關(guān)的信息;

B.基本元數(shù)據(jù)包括與企業(yè)相關(guān)的管理方面的數(shù)據(jù)和信息;

C.基本元數(shù)據(jù)包括日志文件和簡(jiǎn)歷執(zhí)行處理的時(shí)序調(diào)度信息;

D.基本元數(shù)據(jù)包括關(guān)于裝載和更新處理,分析處理以及管理方面的信息.

30.下面關(guān)于數(shù)據(jù)粒度的描述不正確的是:(C)

A.粒度是指數(shù)據(jù)倉(cāng)庫(kù)小數(shù)據(jù)單元的詳細(xì)程度和級(jí)別;

B.數(shù)據(jù)越詳細(xì),粒度就越小,級(jí)別也就越高;

C.數(shù)據(jù)綜合度越高,粒度也就越大,級(jí)別也就越高;

D.粒度的具體劃分將直接影響數(shù)據(jù)倉(cāng)庫(kù)中的數(shù)據(jù)量以及查詢質(zhì)量.

31.有關(guān)數(shù)據(jù)倉(cāng)庫(kù)的開(kāi)發(fā)特點(diǎn),不正確的描述是:(A)

A.數(shù)據(jù)倉(cāng)庫(kù)開(kāi)發(fā)要從數(shù)據(jù)出發(fā);

B.數(shù)據(jù)倉(cāng)庫(kù)使用的需求在開(kāi)發(fā)出去就要明確;

C.數(shù)據(jù)倉(cāng)庫(kù)的開(kāi)發(fā)是一個(gè)不斷循環(huán)的過(guò)程,是啟發(fā)式的開(kāi)發(fā);

D.在數(shù)據(jù)倉(cāng)庫(kù)環(huán)境中,并不存在操作型環(huán)境中所固定的和較確切的處理流,數(shù)據(jù)倉(cāng)庫(kù)中數(shù)據(jù)分析和處理更靈活,且沒(méi)有固定的模式

32.在有關(guān)數(shù)據(jù)倉(cāng)庫(kù)測(cè)試,下列說(shuō)法不正確的是:(D)

A.在完成數(shù)據(jù)倉(cāng)庫(kù)的實(shí)施過(guò)程中,需要對(duì)數(shù)據(jù)倉(cāng)庫(kù)進(jìn)行各種測(cè)試.測(cè)試工作中要包括單元測(cè)試和系統(tǒng)測(cè)試.

B.當(dāng)數(shù)據(jù)倉(cāng)庫(kù)的每個(gè)單獨(dú)組件完成后,就需要對(duì)他們進(jìn)行單元測(cè)試.

C.系統(tǒng)的集成測(cè)試需要對(duì)數(shù)據(jù)倉(cāng)庫(kù)的所有組件進(jìn)行大量的功能測(cè)試和回歸測(cè)試.

D.在測(cè)試之前沒(méi)必要制定詳細(xì)的測(cè)試計(jì)劃.

33.OLAP技術(shù)的核心是:(D)

A.在線性;

B.對(duì)用戶的快速響應(yīng);

C.互操作性.

D.多維分析;

34.關(guān)于OLAP的特性,下面正確的是:(D)

(1)快速性(2)可分析性(3)多維性(4)信息性(5)共享性

A.(1)(2)(3)

B.(2)(3)(4)

C.(1)(2)(3)(4)

D.(1)(2)(3)(4)(5)

35.關(guān)于OLAP和OLTP的區(qū)別描述,不正確的是:(C)

A.OLAP主要是關(guān)于如何理解聚集的大量不同的數(shù)據(jù).它與OTAP應(yīng)用程序不同.

B.與OLAP應(yīng)用程序不同,OLTP應(yīng)用程序包含大量相對(duì)簡(jiǎn)單的事務(wù).

C.OLAP的特點(diǎn)在于事務(wù)量大,但事務(wù)內(nèi)容比較簡(jiǎn)單且重復(fù)率高.

D.OLAP是以數(shù)據(jù)倉(cāng)庫(kù)為基礎(chǔ)的,但其最終數(shù)據(jù)來(lái)源與OLTP一樣均來(lái)自底層的數(shù)據(jù)庫(kù)系統(tǒng),兩者面對(duì)的用戶是相同的.

36.OLAM技術(shù)一般簡(jiǎn)稱為”數(shù)據(jù)聯(lián)機(jī)分析挖掘”,下面說(shuō)法正確的是:(D)

A.OLAP和OLAM都基于客戶機(jī)/服務(wù)器模式,只有后者有與用戶的交互性;

B.由于OLAM的立方體和用于OLAP的立方體有本質(zhì)的區(qū)別.

C.基于WEB的OLAM是WEB技術(shù)與OLAM技術(shù)的結(jié)合.

D.OLAM服務(wù)器通過(guò)用戶圖形借口接收用戶的分析指令,在元數(shù)據(jù)的知道下,對(duì)超級(jí)立方體作一定的操作.

37.關(guān)于OLAP和OLTP的說(shuō)法,下列不正確的是:(A)

A.OLAP事務(wù)量大,但事務(wù)內(nèi)容比較簡(jiǎn)單且重復(fù)率高.

B.OLAP的最終數(shù)據(jù)來(lái)源與OLTP不一樣.

C.OLTP面對(duì)的是決策人員和高層管理人員.

D.OLTP以應(yīng)用為核心,是應(yīng)用驅(qū)動(dòng)的.

38.設(shè)X={1,2,3}是頻繁項(xiàng)集,則可由X產(chǎn)生__(C)__個(gè)關(guān)聯(lián)規(guī)則。

A、4B、5C、6D、7

40.概念分層圖是__(B)__圖。

A、無(wú)向無(wú)環(huán)B、有向無(wú)環(huán)C、有向有環(huán)D、無(wú)向有環(huán)

41.頻繁項(xiàng)集、頻繁閉項(xiàng)集、最大頻繁項(xiàng)集之間的關(guān)系是:(C)

A、頻繁項(xiàng)集頻繁閉項(xiàng)集=最大頻繁項(xiàng)集

B、頻繁項(xiàng)集=頻繁閉項(xiàng)集最大頻繁項(xiàng)集

C、頻繁項(xiàng)集頻繁閉項(xiàng)集最大頻繁項(xiàng)集

D、頻繁項(xiàng)集=頻繁閉項(xiàng)集=最大頻繁項(xiàng)集

42.考慮下面的頻繁3-項(xiàng)集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個(gè)項(xiàng),采用合并策略,由候選產(chǎn)生過(guò)程得到4-項(xiàng)集不包含(C)

A、1,2,3,4B、1,2,3,5C、1,2,4,5D、1,3,4,5

43.下面選項(xiàng)中t不是s的子序列的是(C)

A、s=<{2,4},{3,5,6},{8}>t=<{2},{3,6},{8}>

B、s=<{2,4},{3,5,6},{8}>t=<{2},{8}>

C、s=<{1,2},{3,4}>t=<{1},{2}>

D、s=<{2,4},{2,4}>t=<{2},{4}>

44.在圖集合中發(fā)現(xiàn)一組公共子結(jié)構(gòu),這樣的任務(wù)稱為(B)

A、頻繁子集挖掘B、頻繁子圖挖掘C、頻繁數(shù)據(jù)項(xiàng)挖掘D、頻繁模式挖掘

45.下列度量不具有反演性的是(D)

A、系數(shù)B、幾率C、Cohen度量D、興趣因子

46.下列__(A)__不是將主觀信息加入到模式發(fā)現(xiàn)任務(wù)中的方法。

A、與同一時(shí)期其他數(shù)據(jù)對(duì)比

B、可視化

C、基于模板的方法

D、主觀興趣度量

47.下面購(gòu)物籃能夠提取的3-項(xiàng)集的最大數(shù)量是多少(C)

ID購(gòu)買項(xiàng)

1牛奶,啤酒,尿布

2面包,黃油,牛奶

3牛奶,尿布,餅干

4面包,黃油,餅干

5啤酒,餅干,尿布

6牛奶,尿布,面包,黃油

7面包,黃油,尿布

8啤酒,尿布

9牛奶,尿布,面包,黃油

10啤酒,餅干

A、1B、2C、3D、4

48.以下哪些算法是分類算法,A,DBSCANB,C4.5C,K-MeanD,EM(B)

49.以下哪些分類方法可以較好地避免樣本的不平衡問(wèn)題,A,KNNB,SVMC,BayesD,神經(jīng)網(wǎng)絡(luò)(A)

50.決策樹(shù)中不包含一下哪種結(jié)點(diǎn),A,根結(jié)點(diǎn)(rootnode)B,內(nèi)部結(jié)點(diǎn)(internalnode)C,外部結(jié)點(diǎn)(externalnode)D,葉結(jié)點(diǎn)(leafnode)(C)

51.不純性度量中Gini計(jì)算公式為(其中c是類的個(gè)數(shù))(A)

A,B,C,D,(A)

53.以下哪項(xiàng)關(guān)于決策樹(shù)的說(shuō)法是錯(cuò)誤的(C)

A.冗余屬性不會(huì)對(duì)決策樹(shù)的準(zhǔn)確率造成不利的影響

B.子樹(shù)可能在決策樹(shù)中重復(fù)多次

C.決策樹(shù)算法對(duì)于噪聲的干擾非常敏感

D.尋找最佳決策樹(shù)是NP完全問(wèn)題

54.在基于規(guī)則分類器的中,依據(jù)規(guī)則質(zhì)量的某種度量對(duì)規(guī)則排序,保證每一個(gè)測(cè)試記錄都是由覆蓋它的“最好的”規(guī)格來(lái)分類,這種方案稱為(B)

A.基于類的排序方案

B.基于規(guī)則的排序方案

C.基于度量的排序方案

D.基于規(guī)格的排序方案。

55.以下哪些算法是基于規(guī)則的分類器(A)

A.C4.5B.KNNC.Na?veBayesD.ANN

56.如果規(guī)則集R中不存在兩條規(guī)則被同一條記錄觸發(fā),則稱規(guī)則集R中的規(guī)則為(C);

A,無(wú)序規(guī)則B,窮舉規(guī)則C,互斥規(guī)則D,有序規(guī)則

57.如果對(duì)屬性值的任一組合,R中都存在一條規(guī)則加以覆蓋,則稱規(guī)則集R中的規(guī)則為(B)A,無(wú)序規(guī)則B,窮舉規(guī)則C,互斥規(guī)則D,有序規(guī)則

58.如果規(guī)則集中的規(guī)則按照優(yōu)先級(jí)降序排列,則稱規(guī)則集是(D)

A,無(wú)序規(guī)則B,窮舉規(guī)則C,互斥規(guī)則D,有序規(guī)則

59.如果允許一條記錄觸發(fā)多條分類規(guī)則,把每條被觸發(fā)規(guī)則的后件看作是對(duì)相應(yīng)類的一次投票,然后計(jì)票確定測(cè)試記錄的類標(biāo)號(hào),稱為(A)

A,無(wú)序規(guī)則B,窮舉規(guī)則C,互斥規(guī)則D,有序規(guī)則

60.考慮兩隊(duì)之間的足球比賽:隊(duì)0和隊(duì)1。假設(shè)65%的比賽隊(duì)0勝出,剩余的比賽隊(duì)1獲勝。隊(duì)0獲勝的比賽中只有30%是在隊(duì)1的主場(chǎng),而隊(duì)1取勝的比賽中75%是主場(chǎng)獲勝。如果下一場(chǎng)比賽在隊(duì)1的主場(chǎng)進(jìn)行隊(duì)1獲勝的概率為(C)

A,0.75B,0.35C,0.4678D,0.5738

61.以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)(ANN)的描述錯(cuò)誤的有(A)

A,神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練數(shù)據(jù)中的噪聲非常魯棒B,可以處理冗余特征C,訓(xùn)練ANN是一個(gè)很耗時(shí)的過(guò)程D,至少含有一個(gè)隱藏層的多層神經(jīng)網(wǎng)絡(luò)

62.通過(guò)聚集多個(gè)分類器的預(yù)測(cè)來(lái)提高分類準(zhǔn)確率的技術(shù)稱為(A)

A,組合(ensemble)B,聚集(aggregate)C,合并(combination)D,投票(voting)

63.簡(jiǎn)單地將數(shù)據(jù)對(duì)象集劃分成不重疊的子集,使得每個(gè)數(shù)據(jù)對(duì)象恰在一個(gè)子集中,這種聚類類型稱作(B)A、層次聚類B、劃分聚類C、非互斥聚類D、模糊聚類

64.在基本K均值算法里,當(dāng)鄰近度函數(shù)采用(A)的時(shí)候,合適的質(zhì)心是簇中各點(diǎn)的中位數(shù)。

A、曼哈頓距離B、平方歐幾里德距離C、余弦距離D、Bregman散度

65.(C)是一個(gè)觀測(cè)值,它與其他觀測(cè)值的差別如此之大,以至于懷疑它是由不同的機(jī)制產(chǎn)生的。

A、邊界點(diǎn)B、質(zhì)心C、離群點(diǎn)D、核心點(diǎn)

66.BIRCH是一種(B)。

A、分類器B、聚類算法C、關(guān)聯(lián)分析算法D、特征選擇算法

67.檢測(cè)一元正態(tài)分布中的離群點(diǎn),屬于異常檢測(cè)中的基于(A)的離群點(diǎn)檢測(cè)。A、統(tǒng)計(jì)方法B、鄰近度C、密度D、聚類技術(shù)

68.(C)將兩個(gè)簇的鄰近度定義為不同簇的所有點(diǎn)對(duì)的平均逐對(duì)鄰近度,它是一種凝聚層次聚類技術(shù)。

A、MIN(單鏈)B、MAX(全鏈)C、組平均D、Ward方法

69.(D)將兩個(gè)簇的鄰近度定義為兩個(gè)簇合并時(shí)導(dǎo)致的平方誤差的增量,它是一種凝聚層次聚類技術(shù)。

A、MIN(單鏈)B、MAX(全鏈)C、組平均D、Ward方法

70.DBSCAN在最壞情況下的時(shí)間復(fù)雜度是(B)。

A、O(m)B、O(m2)C、O(logm)D、O(m*logm)

71.在基于圖的簇評(píng)估度量表里面,如果簇度量為proximity(Ci,C),簇權(quán)值為mi,那么它的類型是(C)。

A、基于圖的凝聚度B、基于原型的凝聚度C、基于原型的分離度D、基于圖的凝聚度和分離度

72.關(guān)于K均值和DBSCAN的比較,以下說(shuō)法不正確的是(A)。

A、K均值丟棄被它識(shí)別為噪聲的對(duì)象,而DBSCAN一般聚類所有對(duì)象。

B、K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念。

C、K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇。

D、K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會(huì)合并有重疊的簇。

73.以下是哪一個(gè)聚類算法的算法流程:①構(gòu)造k-最近鄰圖。②使用多層圖劃分算法劃分圖。③repeat:合并關(guān)于相對(duì)互連性和相對(duì)接近性而言,最好地保持簇的自相似性的簇。④until:不再有可以合并的簇。(C)。

A、MSTB、OPOSSUMC、ChameleonD、Jarvis-Patrick(JP)

74.考慮這么一種情況:一個(gè)對(duì)象碰巧與另一個(gè)對(duì)象相對(duì)接近,但屬于不同的類,因?yàn)檫@兩個(gè)對(duì)象一般不會(huì)共享許多近鄰,所以應(yīng)該選擇(D)的相似度計(jì)算方法。

A、平方歐幾里德距離B、余弦距離C、直接相似度D、共享最近鄰

75.以下屬于可伸縮聚類算法的是(A)。

A、CUREB、DENCLUEC、CLIQUED、OPOSSUM

76.以下哪個(gè)聚類算法不是屬于基于原型的聚類(D)。

A、模糊c均值B、EM算法C、SOMD、CLIQUE

77.關(guān)于混合模型聚類算法的優(yōu)缺點(diǎn),下面說(shuō)法正確的是(B)。

A、當(dāng)簇只包含少量數(shù)據(jù)點(diǎn),或者數(shù)據(jù)點(diǎn)近似協(xié)線性時(shí),混合模型也能很好地處理。

B、混合模型比K均值或模糊c均值更一般,因?yàn)樗梢允褂酶鞣N類型的分布。

C、混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇。

D、混合模型在有噪聲和離群點(diǎn)時(shí)不會(huì)存在問(wèn)題。

78.以下哪個(gè)聚類算法不屬于基于網(wǎng)格的聚類算法(D)。

A、STINGB、WaveClusterC、MAFIAD、BIRCH

79.一個(gè)對(duì)象的離群點(diǎn)得分是該對(duì)象周圍密度的逆。這是基于(C)的離群點(diǎn)定義。

A.概率B、鄰近度C、密度D、聚類

80.下面關(guān)于Jarvis-Patrick(JP)聚類算法的說(shuō)法不正確的是(D)。

A、JP聚類擅長(zhǎng)處理噪聲和離群點(diǎn),并且能夠處理不同大小、形狀和密度的簇。

B、JP算法對(duì)高維數(shù)據(jù)效果良好,尤其擅長(zhǎng)發(fā)現(xiàn)強(qiáng)相關(guān)對(duì)象的緊致簇。

C、JP聚類是基于SNN相似度的概念。

D、JP聚類的基本時(shí)間復(fù)雜度為O(m)。

三、判斷題

1.數(shù)據(jù)挖掘的主要任務(wù)是從數(shù)據(jù)中發(fā)現(xiàn)潛在的規(guī)則,從而能更好的完成描述數(shù)據(jù)、預(yù)測(cè)數(shù)據(jù)等任務(wù)。(對(duì))

2.數(shù)據(jù)挖掘的目標(biāo)不在于數(shù)據(jù)采集策略,而在于對(duì)于已經(jīng)存在的數(shù)據(jù)進(jìn)行模式的發(fā)掘。(對(duì))3.圖挖掘技術(shù)在社會(huì)網(wǎng)絡(luò)分析中扮演了重要的角色。(對(duì))

4.模式為對(duì)數(shù)據(jù)集的全局性總結(jié),它對(duì)整個(gè)測(cè)量空間的每一點(diǎn)做出描述;模型則對(duì)變量變化空間的一個(gè)有限區(qū)域做出描述。(錯(cuò))

5.尋找模式和規(guī)則主要是對(duì)數(shù)據(jù)進(jìn)行干擾,使其符合某種規(guī)則以及模式。(錯(cuò))

6.離群點(diǎn)可以是合法的數(shù)據(jù)對(duì)象或者值。(對(duì))

7.離散屬性總是具有有限個(gè)值。(錯(cuò))

8.噪聲和偽像是數(shù)據(jù)錯(cuò)誤這一相同表述的兩種叫法。(錯(cuò))

9.用于分類的離散化方法之間的根本區(qū)別在于是否使用類信息。(對(duì))

10.特征提取技術(shù)并不依賴于特定的領(lǐng)域。(錯(cuò))

11.序列數(shù)據(jù)沒(méi)有時(shí)間戳。(對(duì))

12.定量屬性可以是整數(shù)值或者是連續(xù)值。(對(duì))

13.可視化技術(shù)對(duì)于分析的數(shù)據(jù)類型通常不是專用性的。(錯(cuò))

14.DSS主要是基于數(shù)據(jù)倉(cāng)庫(kù).聯(lián)機(jī)數(shù)據(jù)分析和數(shù)據(jù)挖掘技術(shù)的應(yīng)用。(對(duì))

15.OLAP技術(shù)側(cè)重于把數(shù)據(jù)庫(kù)中的數(shù)據(jù)進(jìn)行分析、轉(zhuǎn)換成輔助決策信息,是繼數(shù)據(jù)庫(kù)技術(shù)發(fā)展之后迅猛發(fā)展起來(lái)的一種新技術(shù)。(對(duì))

16.商業(yè)智能系統(tǒng)與一般交易系統(tǒng)之間在系統(tǒng)設(shè)計(jì)上的主要區(qū)別在于:后者把結(jié)構(gòu)強(qiáng)加于商務(wù)之上,一旦系統(tǒng)設(shè)計(jì)完畢,其程序和規(guī)則不會(huì)輕易改變;而前者則是一個(gè)學(xué)習(xí)型系統(tǒng),能自動(dòng)適應(yīng)商務(wù)不斷變化的要求。(對(duì))

17.數(shù)據(jù)倉(cāng)庫(kù)中間層OLAP服務(wù)器只能采用關(guān)系型OLAP(錯(cuò))

18.?dāng)?shù)據(jù)倉(cāng)庫(kù)系統(tǒng)的組成部分包括數(shù)據(jù)倉(cāng)庫(kù),倉(cāng)庫(kù)管理,數(shù)據(jù)抽取,分析工具等四個(gè)部分.(錯(cuò))Web數(shù)據(jù)挖掘是通過(guò)數(shù)據(jù)庫(kù)仲的一些屬性來(lái)預(yù)測(cè)另一個(gè)屬性,它在驗(yàn)證用戶提出的假設(shè)過(guò)程中提取信息.(錯(cuò))

21.關(guān)聯(lián)規(guī)則挖掘過(guò)程是發(fā)現(xiàn)滿足最小支持度的所有項(xiàng)集代表的規(guī)則。(錯(cuò))

22.利用先驗(yàn)原理可以幫助減少頻繁項(xiàng)集產(chǎn)生時(shí)需要探查的候選項(xiàng)個(gè)數(shù)(對(duì))。

23.先驗(yàn)原理可以表述為:如果一個(gè)項(xiàng)集是頻繁的,那包含它的所有項(xiàng)集也是頻繁的。(錯(cuò)

24.如果規(guī)則不滿足置信度閾值,則形如的規(guī)則一定也不滿足置信度閾值,其中是X的子集。(對(duì))

25.具有較高的支持度的項(xiàng)集具有較高的置信度。(錯(cuò))

26.聚類(clustering)是這樣的過(guò)程:它找出描述并區(qū)分?jǐn)?shù)據(jù)類或概念的模型(或函數(shù)),以便能夠使用模型預(yù)測(cè)類標(biāo)記未知的對(duì)象類。(錯(cuò))

27.分類和回歸都可用于預(yù)測(cè),分類的輸出是離散的類別值,而回歸的輸出是連續(xù)數(shù)值。(對(duì))對(duì)于SVM分類算法,待分樣本集中的大部分樣本不是支持向量,移去或者減少這些樣本對(duì)分類結(jié)果沒(méi)有影響。(對(duì))

29.Bayes法是一種在已知后驗(yàn)概率與類條件概率的情況下的模式分類方法,待分樣本的分類結(jié)果取決于各類域中樣本的全體。(錯(cuò))

30.分類模型的誤差大致分為兩種:訓(xùn)練誤差(trainingerror)和泛化誤差(generalizationerror).(對(duì))

31.在決策樹(shù)中,隨著樹(shù)中結(jié)點(diǎn)數(shù)變得太大,即使模型的訓(xùn)練誤差還在繼續(xù)減低,但是檢驗(yàn)誤差開(kāi)始增大,這是出現(xiàn)了模型擬合不足的問(wèn)題。(錯(cuò))

32.SVM是這樣一個(gè)分類器,他尋找具有最小邊緣的超平面,因此它也經(jīng)常被稱為最小邊緣分類器(minimalmarginclassifier)(錯(cuò))

33.在聚類分析當(dāng)中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差。(錯(cuò))

34.聚類分析可以看作是一種非監(jiān)督的分類。(對(duì))

35.K均值是一種產(chǎn)生劃分聚類的基于密度的聚類算法,簇的個(gè)數(shù)由算法自動(dòng)地確定。(錯(cuò)

36.給定由兩次運(yùn)行K均值產(chǎn)生的兩個(gè)不同的簇集,誤差的平方和最大的那個(gè)應(yīng)該被視為較優(yōu)。(錯(cuò))

37.基于鄰近度的離群點(diǎn)檢測(cè)方法不能處理具有不同密度區(qū)域的數(shù)據(jù)集。(對(duì))

38.如果一個(gè)對(duì)象不強(qiáng)屬于任何簇,那么該對(duì)象是基于聚類的離群點(diǎn)。(對(duì))

39.從點(diǎn)作為個(gè)體簇開(kāi)始,每一步合并兩個(gè)最接近的簇,這是一種分裂的層次聚類方法。(錯(cuò))40.DBSCAN是相對(duì)抗噪聲的,并且能夠處理任意形狀和大小的簇。(對(duì))二.簡(jiǎn)答題1.預(yù)測(cè)與分類的區(qū)別是什么?分類是預(yù)測(cè)數(shù)據(jù)對(duì)象的離散類別,預(yù)測(cè)是用于數(shù)據(jù)對(duì)象的連續(xù)取值2.數(shù)據(jù)分類由哪幾步過(guò)程組成?第一步,建立一個(gè)模型,描述指定的數(shù)據(jù)類集或概念集;第二步,使用模型進(jìn)行分類。3.ID3算法的核心是什么?在決策樹(shù)各級(jí)節(jié)點(diǎn)上選擇屬性時(shí),用信息增益作為屬性的選擇標(biāo)準(zhǔn),以使得在每一個(gè)葉節(jié)點(diǎn)進(jìn)行測(cè)試時(shí)能獲得關(guān)于被測(cè)試記錄最大的類別信息。為什么樸素貝葉斯分類稱為“樸素”的?簡(jiǎn)述樸素貝葉斯分類的主要思想。

①樸素貝葉斯分類假定一個(gè)屬性值對(duì)給定類的影響?yīng)毩⒂谄渌鼘傩缘闹怠T摷俣ǚQ作類條件獨(dú)立。做此假定是為了簡(jiǎn)化所需計(jì)算,并在此意義下稱為“樸素的”。②設(shè)為一個(gè)類別未知的數(shù)據(jù)樣本,H為某個(gè)假設(shè),若數(shù)據(jù)樣本X屬于一個(gè)特定的類別C,分類問(wèn)題就是決定P(H|X),即在獲得數(shù)據(jù)樣本X時(shí)假設(shè)成立的概率。神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)和缺點(diǎn)分別是什么?優(yōu)點(diǎn):其對(duì)噪音數(shù)據(jù)的高承受能力,以及它對(duì)未經(jīng)過(guò)訓(xùn)練的數(shù)據(jù)的分類能力。缺點(diǎn):需要很長(zhǎng)的訓(xùn)練時(shí)間,因而對(duì)于有足夠長(zhǎng)訓(xùn)練時(shí)間的應(yīng)用更合適。典型的數(shù)據(jù)挖掘系統(tǒng)主要由哪幾部分組成?數(shù)據(jù)庫(kù),數(shù)據(jù)倉(cāng)庫(kù)或其他信息庫(kù);數(shù)據(jù)庫(kù)或數(shù)據(jù)倉(cāng)庫(kù)服務(wù)器;知識(shí)庫(kù);數(shù)據(jù)挖掘引擎;圖形用戶界面7.OLAP與OLTP的全稱分別是什么它們兩者之間的區(qū)別是什么

聯(lián)機(jī)事務(wù)處理OLTP(on-linetransactionprocessing);聯(lián)機(jī)分析處理OLAP(on-lineanalyticalprocessing);OLTP和OLAP的區(qū)別:用戶和系統(tǒng)的面向性:OLTP面向顧客,而OLAP面向市場(chǎng);數(shù)據(jù)內(nèi)容:OLTP系統(tǒng)管理當(dāng)前數(shù)據(jù),而OLAP管理歷史的數(shù)據(jù);數(shù)據(jù)庫(kù)設(shè)計(jì):OLTP系統(tǒng)采用實(shí)體-聯(lián)系(ER)模型和面向應(yīng)用的數(shù)據(jù)庫(kù)設(shè)計(jì),而OLAP系統(tǒng)通常采用星形和雪花模型;視圖:OLTP系統(tǒng)主要關(guān)注一個(gè)企業(yè)或部門內(nèi)部的當(dāng)前數(shù)據(jù),而OLAP系統(tǒng)主要關(guān)注匯總的統(tǒng)一的數(shù)據(jù);訪問(wèn)模式:OLTP訪問(wèn)主要有短的原子事務(wù)組成,而OLAP系統(tǒng)的訪問(wèn)大部分是只讀操作,盡管許多可能是復(fù)雜的查詢。8.數(shù)據(jù)倉(cāng)庫(kù)與數(shù)據(jù)集市的區(qū)別是什么?數(shù)據(jù)倉(cāng)庫(kù)收集了關(guān)于整個(gè)組織的主題信息,因此是企業(yè)范圍的。對(duì)于數(shù)據(jù)倉(cāng)庫(kù),通常使用星座模式,因?yàn)樗軐?duì)多個(gè)相關(guān)的主題建模;數(shù)據(jù)集市是數(shù)據(jù)倉(cāng)庫(kù)的一個(gè)部門子集,它針對(duì)選定的主題,因此是部門范圍的。對(duì)于數(shù)據(jù)集市,流行星型或雪花模式,因?yàn)樗鼈兌歼m合對(duì)單個(gè)主題建模。不完整數(shù)據(jù)的產(chǎn)生原因有哪些?有些屬性的內(nèi)容有時(shí)沒(méi)有(2)有些數(shù)據(jù)當(dāng)時(shí)被認(rèn)為是不必要的(3)由于誤解或檢測(cè)設(shè)備失靈導(dǎo)致相關(guān)數(shù)據(jù)沒(méi)有記錄下來(lái)(4)與其他記錄內(nèi)容不一致而被刪除(5)歷史記錄或?qū)?shù)據(jù)的修改被忽略了。10.噪聲數(shù)據(jù)的產(chǎn)生原因有哪些?(1)數(shù)據(jù)采集設(shè)備有問(wèn)題(2)在數(shù)據(jù)錄入過(guò)程中發(fā)生了人為或計(jì)算機(jī)錯(cuò)誤(3)數(shù)據(jù)傳輸過(guò)程中發(fā)生錯(cuò)誤(4)由于命名規(guī)則或數(shù)據(jù)代碼不同而引起的不一致。11.對(duì)遺漏數(shù)據(jù)有哪些處理方法?忽略該條記錄;手工填補(bǔ)遺漏值;利用默認(rèn)值填補(bǔ)遺漏值;利用均值填補(bǔ)遺漏值;利用同類別均值填補(bǔ)遺漏值;利用最可能的值填充遺漏值。12.數(shù)據(jù)消減的主要策略有哪些?數(shù)據(jù)立方合計(jì);維數(shù)消減;數(shù)據(jù)壓縮;數(shù)據(jù)塊消減;離散化與概念層次生成。數(shù)據(jù)源對(duì)象可以創(chuàng)建幾種不同的安全認(rèn)證選項(xiàng)?4種:使用特定用戶名和密碼;使用服務(wù)賬戶;使用當(dāng)前用戶的憑據(jù);默認(rèn)值。數(shù)據(jù)挖掘?qū)垲惖牡湫鸵笥心男靠缮炜s性;處理不同類型屬性的能力;發(fā)現(xiàn)任意形狀的聚類;用于決定輸入?yún)?shù)的領(lǐng)域知識(shí)最小化;處理“噪聲”數(shù)據(jù)的能力;對(duì)于輸入記錄的順序不敏感;高維度;基于約束的聚類。簡(jiǎn)述下列聚類算法劃分方法:給定一個(gè)n個(gè)對(duì)象或元組的數(shù)據(jù)庫(kù),一個(gè)劃分方法構(gòu)造數(shù)據(jù)的k個(gè)劃分,每個(gè)劃分表示一個(gè)聚類,并且k<n。層次方法:對(duì)給定數(shù)據(jù)對(duì)象集合進(jìn)行層次的分解?;诿芏鹊姆椒ǎ褐灰桥R近區(qū)域的密度超過(guò)某個(gè)閥值,就繼續(xù)聚類?;诰W(wǎng)格的方法:把對(duì)象空間量化為有限數(shù)目的單元?;谀P偷姆椒ǎ涸噲D優(yōu)化給定的數(shù)據(jù)和某些數(shù)學(xué)模型之間的適應(yīng)性。三.計(jì)算題1.假定用于分析的數(shù)據(jù)包含屬性age。數(shù)據(jù)元組中age的值如下(按遞增序):13,15,16,16,19,20,20,21,22,22,25,25,25,25,30,33,33,33,35,35,35,35,36,40,45,46,52,70(a)使用按箱平均值平滑對(duì)以上數(shù)據(jù)進(jìn)行平滑,箱的深度為3。(b)使用按箱邊界值平滑對(duì)以上數(shù)據(jù)進(jìn)行平滑,箱的深度為3。例題如下操作:*price的排序后數(shù)據(jù)(美元):4,8,9,15,21,21,24,25,26,28, 29,34*劃分為(等深的)箱: -箱1:4,8,9,15 -箱2:21,21,24,25 -箱3:26,28,29,34*用箱平均值平滑:-箱1:9,9,9,9 -箱2:23,23,23,23 -箱3:29,29,29,29*用箱邊界值平滑: -Bin1:4,4,4,15 -Bin2:21,21,25,25 -Bin3:26,26,26,342.使用以下age數(shù)據(jù):13,15,16,16,19,20,20,21,22,22,25,25,25,25,30,33,33,33,35,35,35,35,36,40,45,46,52,70,回答以下問(wèn)題:(a)使用min-max規(guī)范化,將age值35轉(zhuǎn)換到[0.0,1.0]區(qū)間。(b)使用z-score規(guī)范化轉(zhuǎn)換age值35,其中,age的標(biāo)準(zhǔn)偏差為12.94年。(c)使用小數(shù)定標(biāo)規(guī)范化轉(zhuǎn)換age值35。(d)畫一個(gè)寬度為10的等寬的直方圖。例題如下操作:1.大最小規(guī)格化:規(guī)格化對(duì)原始數(shù)據(jù)進(jìn)行線性變換。假定minA和maxA分別為屬性A的最小和最大值,最大最小規(guī)格化方法通過(guò)計(jì)算將A的值v映射到區(qū)間[new_minA,new_maxA]中的v’。例3.1假定屬性income的最小與最大值分別為$12,000和$98,000。我們想映射income(income值為$73,600)到區(qū)間[0,1]。2.零均值規(guī)格化:屬性A的值基于A的平均值和標(biāo)準(zhǔn)差規(guī)范化。A的值v被規(guī)范化為v’,由下式計(jì)算:其中,A和σA分別為屬性A的平均值和標(biāo)準(zhǔn)差。當(dāng)屬性A的最大和最小值未知,或局外者左右了最小最大規(guī)格化時(shí),該方法是有用的。例3.2假定屬性income的平均值和標(biāo)準(zhǔn)差分別為$54,000和$16,000。使用零均值規(guī)格化方法,值$73,600被轉(zhuǎn)換為什么?3.數(shù)點(diǎn)規(guī)格化:屬性A的小數(shù)點(diǎn)位置進(jìn)行規(guī)范化。小數(shù)點(diǎn)的移動(dòng)位數(shù)依賴于A的最大絕對(duì)值。A的值v被規(guī)范化為v’,由下式計(jì)算:其中,j是使得Max(|v’|)<1的最小整數(shù)。例3.3假定A的值由-986到917。A的最大絕對(duì)值為986。為使用十基數(shù)變換規(guī)格化方法,-986被規(guī)范化為多少?用1,000(即,j=3)除每個(gè)值。這樣,-986被規(guī)范化為-0.986。填空:數(shù)據(jù)倉(cāng)庫(kù)的四個(gè)基本特征是指數(shù)據(jù)倉(cāng)庫(kù)中的數(shù)據(jù)是面向主題的、集成的、不可更新的和隨時(shí)間不斷變化的。OLAP的實(shí)現(xiàn)方式有以下兩種:基于關(guān)系數(shù)據(jù)庫(kù)系統(tǒng)的實(shí)現(xiàn)和基于基于多維數(shù)據(jù)庫(kù)系統(tǒng)的實(shí)現(xiàn)。數(shù)據(jù)從操作型環(huán)境到數(shù)據(jù)倉(cāng)庫(kù)過(guò)程中,通常需要進(jìn)行的處理操作有抽取、轉(zhuǎn)化、分析和模式化處理。數(shù)據(jù)倉(cāng)庫(kù)中數(shù)據(jù)的分割是指把數(shù)據(jù)分散到各自的物理單元中,他們能獨(dú)立的處理。。數(shù)據(jù)分割后的數(shù)據(jù)單元稱為分片,數(shù)據(jù)分片的類型有水平分片、垂直分片、混合分片和導(dǎo)出分片等。數(shù)據(jù)倉(cāng)庫(kù)系統(tǒng)是多種技術(shù)的綜合體,它是由數(shù)據(jù)倉(cāng)庫(kù),管理部分和分析工具三部分組成。聚集函數(shù)分為三種類型,分別是分布的、代數(shù)的、和整體的。粒度是數(shù)據(jù)倉(cāng)庫(kù)的重要概念,粒度越小,數(shù)據(jù)的細(xì)節(jié)程度越高,可以回答查詢的種類就越少,但是查詢效率將會(huì)很低;提高粒度將會(huì)提高查詢效率,在數(shù)據(jù)倉(cāng)庫(kù)中通常采用多重粒度。問(wèn)答題:操作型數(shù)據(jù)和分析型數(shù)據(jù)的主要區(qū)別是什么?面向分析,分析驅(qū)動(dòng)面向分析,分析驅(qū)動(dòng)面向應(yīng)用,事務(wù)驅(qū)動(dòng)面向決策人員,支持管理需要面向操作人員,支持日常操作用戶數(shù)量相對(duì)較少用戶數(shù)量大響應(yīng)時(shí)間合理對(duì)響應(yīng)時(shí)間要求高一次處理的數(shù)據(jù)量大一次處理的數(shù)據(jù)量小周期性更新經(jīng)常更新歷史數(shù)據(jù)當(dāng)前數(shù)據(jù)綜合性數(shù)據(jù)細(xì)節(jié)性數(shù)據(jù)數(shù)據(jù)庫(kù)/數(shù)據(jù)倉(cāng)庫(kù)數(shù)據(jù)(分析型)數(shù)據(jù)庫(kù)數(shù)據(jù)(操作型)OLAPOLTP你是如何理解數(shù)據(jù)倉(cāng)庫(kù)的數(shù)據(jù)是不可更新的,數(shù)據(jù)倉(cāng)庫(kù)的數(shù)據(jù)又是隨時(shí)間不斷變化的。從數(shù)據(jù)的使用方式上來(lái)看,數(shù)據(jù)倉(cāng)庫(kù)的數(shù)據(jù)是不可更新的,這是指當(dāng)數(shù)據(jù)被存放到數(shù)據(jù)倉(cāng)庫(kù)中之后,最終用戶只能通過(guò)分析工具進(jìn)行查詢、分析,而不能修改其中存儲(chǔ)的數(shù)據(jù)。數(shù)據(jù)倉(cāng)庫(kù)的數(shù)據(jù)不可更新并不是說(shuō)數(shù)據(jù)從進(jìn)入數(shù)據(jù)倉(cāng)庫(kù)之后就永遠(yuǎn)不變,是隨時(shí)間變化而定期地被更新,從而保證前端分析結(jié)論的時(shí)間有效性。舉例說(shuō)明數(shù)據(jù)倉(cāng)庫(kù)有哪三類聚集函數(shù)。聚集函數(shù)分成三類:分布的:一個(gè)聚集函數(shù)是分布的,如果它能以如下分布方式進(jìn)行計(jì)算:設(shè)數(shù)據(jù)被劃分為n個(gè)集合,函數(shù)在每一部分上的計(jì)算得到一個(gè)聚集值。如果將函數(shù)用于n個(gè)聚集值得到的結(jié)果,與將函數(shù)用于所有數(shù)據(jù)得到的結(jié)果一樣,則該函數(shù)可以用分布方式計(jì)算。例如,count()代數(shù)的:一個(gè)聚集函數(shù)是代數(shù)的,如果它能夠由一個(gè)具有M(其中,M是一個(gè)整數(shù)界)個(gè)參數(shù)的代數(shù)函數(shù)計(jì)算,而每個(gè)參數(shù)都可以用一個(gè)分布聚集函數(shù)求得。例如,avg()整體的:一個(gè)聚集函數(shù)是整體的,如果描述它的子聚集所需的存儲(chǔ)沒(méi)有一個(gè)常數(shù)界。即,不存在一個(gè)具有M個(gè)(其中,M是常數(shù))參數(shù)的代數(shù)函數(shù)進(jìn)行這一計(jì)算。整體函數(shù)的常見(jiàn)例子包括median(),mode()(即,最常出現(xiàn)的項(xiàng)),和rank()。為什么說(shuō)naiveBayesian分類法是na?ve的?

樸素貝葉斯分類器是一種應(yīng)用基于獨(dú)立假設(shè)的貝葉斯定理的簡(jiǎn)單概率分類器.更精確的描述這種潛在的概率模型為獨(dú)立特征模型。這種方法采用忽略了因數(shù)之間的關(guān)系,簡(jiǎn)化處理,把各屬性彼此獨(dú)立請(qǐng)簡(jiǎn)述數(shù)據(jù)倉(cāng)庫(kù)的體系結(jié)構(gòu)。數(shù)據(jù)倉(cāng)庫(kù)系統(tǒng)的體系結(jié)構(gòu)的分類(1)兩層架構(gòu)(GenericTwo-LevelArchitecture)。(2)獨(dú)立型數(shù)據(jù)集市(IndependentDataMart)。(3)依賴型數(shù)據(jù)集市和操作型數(shù)據(jù)存儲(chǔ)(DependentDataMartandOperationalDataStore)。(4)邏輯型數(shù)據(jù)集市和實(shí)時(shí)數(shù)據(jù)倉(cāng)庫(kù)(LogicalDataMartandReal-TimeDataWarehouse)舉例說(shuō)明多維分析操作(drill-down,roll-up)的含義是什么?鉆取(drill)各粒度級(jí)別(維的層次)之間的訪問(wèn)。上卷(drillup)是指沿某一個(gè)維的概念分層向上歸約。下鉆(drilldown)是上卷的逆向操作,它是沿某一個(gè)維的概念分層向下或者引入新的維來(lái)實(shí)現(xiàn)。鉆過(guò)(drill_across)是指對(duì)多個(gè)事實(shí)表進(jìn)行查詢。鉆透(drillthrough)是指對(duì)立方體操作時(shí),;利用數(shù)據(jù)庫(kù)關(guān)系,鉆透立方體的底層,進(jìn)入后端的關(guān)系表。旋轉(zhuǎn)(pivoting)平面數(shù)據(jù)的坐標(biāo)軸轉(zhuǎn)換即對(duì)多維數(shù)據(jù)集改變其顯示的維方向。試述常用的數(shù)值屬性離散化方法離散化方法的研究,已經(jīng)提出了等頻劃分、等寬劃分和適應(yīng)離散法等。1、等寬劃分:在最小值和最大值之間平均劃分成N個(gè)區(qū)間(N用戶給定),假定A和B分別是最大值和最小值,則每個(gè)區(qū)間的寬度為W=(B-A)/N,區(qū)間的邊界線分別為A,A+W,A+2W,......,A+(N-1)W,A+NW=B2、等頻劃分:把整個(gè)區(qū)域分為N個(gè)區(qū)間,每個(gè)區(qū)間有大約相同數(shù)目的例子如:N=10,則每個(gè)區(qū)間中有大約10%的例子這兩種離散化方法都與分類信息無(wú)關(guān)當(dāng)屬性值分布不均勻時(shí),不能很好表示數(shù)據(jù)分布向數(shù)據(jù)倉(cāng)庫(kù)追加數(shù)據(jù)時(shí),捕捉數(shù)據(jù)變化常用的途徑有哪些?數(shù)據(jù)倉(cāng)庫(kù)的數(shù)據(jù)初裝完成以后,再向數(shù)據(jù)倉(cāng)庫(kù)輸入數(shù)據(jù)的過(guò)程稱為數(shù)據(jù)追加變化數(shù)據(jù)的捕獲時(shí)標(biāo)法:加標(biāo)識(shí)DELTA法:對(duì)更新作記錄前后映象法:兩次快照的對(duì)比日志法:利用DBMS的日志,需改進(jìn)簡(jiǎn)要說(shuō)明事務(wù)處理環(huán)境不適宜DSS應(yīng)用的原因?(1)事務(wù)處理和分析處理的性能特性不同。(2)數(shù)據(jù)集成問(wèn)題。(3)數(shù)據(jù)動(dòng)態(tài)集成問(wèn)題。(4)歷史數(shù)據(jù)問(wèn)題。(5)數(shù)據(jù)的綜合問(wèn)題。舉例說(shuō)明多維分析操作(切片、切塊、旋轉(zhuǎn))的含義是什么?切片和切塊(sliceanddice)在多維數(shù)組的某一維選定一個(gè)維成員的動(dòng)作稱為切片。在多維數(shù)組的某一維上選定某一區(qū)間的維成員的動(dòng)作稱為切塊旋轉(zhuǎn)是改變一個(gè)報(bào)告或頁(yè)面顯示的維方向,以用戶容易理解的角度來(lái)觀察數(shù)據(jù)數(shù)據(jù)挖掘的步驟是什么?確定挖掘?qū)ο螅瑴?zhǔn)備數(shù)據(jù),建立模型,數(shù)據(jù)挖掘,結(jié)果分析,知識(shí)應(yīng)用階段簡(jiǎn)要說(shuō)明數(shù)據(jù)倉(cāng)庫(kù)環(huán)境中元數(shù)據(jù)的內(nèi)容。元數(shù)據(jù)(MetaData)——“關(guān)于數(shù)據(jù)的數(shù)據(jù)”,是指在數(shù)據(jù)倉(cāng)庫(kù)建設(shè)過(guò)程中產(chǎn)生的有關(guān)數(shù)據(jù)源定義、目標(biāo)定義、轉(zhuǎn)換規(guī)則等關(guān)鍵數(shù)據(jù),是定義數(shù)據(jù)倉(cāng)庫(kù)對(duì)象的數(shù)據(jù)。如傳統(tǒng)數(shù)據(jù)庫(kù)中的數(shù)據(jù)字典就是一種元數(shù)據(jù)。企業(yè)的數(shù)據(jù)庫(kù)體系化環(huán)境的四個(gè)層次是什么它們之間的關(guān)系是什么

數(shù)據(jù)庫(kù)的體系化環(huán)境,是在一個(gè)企業(yè)或組織內(nèi)部,由各面向應(yīng)用的OLTP數(shù)據(jù)庫(kù)及各級(jí)面向主題的數(shù)據(jù)倉(cāng)庫(kù)所組成的完整的數(shù)據(jù)環(huán)境四層體系化環(huán)境:操作型環(huán)境——OLTP,全局級(jí)——數(shù)據(jù)倉(cāng)庫(kù),部門級(jí)——局部倉(cāng)庫(kù),個(gè)人級(jí)——個(gè)人倉(cāng)庫(kù),用于啟發(fā)式的分析簡(jiǎn)要說(shuō)明數(shù)據(jù)倉(cāng)庫(kù)設(shè)計(jì)的步驟。數(shù)據(jù)倉(cāng)庫(kù)的設(shè)計(jì)可以分為以下幾個(gè)步驟:◆明確主題◆概念模型設(shè)計(jì)所要完成的工作:界定系統(tǒng)邊界,確定主要的主題域及其內(nèi)容◆技術(shù)準(zhǔn)備工作這一階段的工作包括:技術(shù)評(píng)估,技術(shù)環(huán)境準(zhǔn)備。形成技術(shù)評(píng)估報(bào)告、軟硬件配置方案、系統(tǒng)(軟、硬件)總體設(shè)計(jì)方案?!暨壿嬆P驮O(shè)計(jì)進(jìn)行的工作主要:分析主題域,確定當(dāng)前要裝載的主題確定粒度層次劃分確定數(shù)據(jù)分割策略關(guān)系模式定義◆物理模型設(shè)計(jì)這一步所做的工作:確定數(shù)據(jù)的存儲(chǔ)結(jié)構(gòu)---RAID技術(shù)確定索引策略——B樹(shù)索引位圖索引等確定數(shù)據(jù)存放位置——磁帶磁盤等確定存儲(chǔ)分配優(yōu)化◆數(shù)據(jù)倉(cāng)庫(kù)生成通過(guò)專用的數(shù)據(jù)抽取工具或者通過(guò)自行編程實(shí)現(xiàn)數(shù)據(jù)抽取、轉(zhuǎn)換和裝載?!魯?shù)據(jù)倉(cāng)庫(kù)運(yùn)行與維護(hù)建立DSS應(yīng)用,使用數(shù)據(jù)倉(cāng)庫(kù)理解需求,調(diào)整和完善系統(tǒng),維護(hù)數(shù)據(jù)倉(cāng)庫(kù)。簡(jiǎn)要說(shuō)明異常點(diǎn)挖掘有哪些方法?簡(jiǎn)述采用決策樹(shù)方法進(jìn)行分類的過(guò)程。決策樹(shù)是以實(shí)例為基礎(chǔ)的歸納學(xué)習(xí)算法。它從一組無(wú)次序、無(wú)規(guī)則的元組中推理出決策樹(shù)表示形式的分類規(guī)則。它采用自頂向下的遞歸方式,在決策樹(shù)的內(nèi)部結(jié)點(diǎn)進(jìn)行屬性值的比較,并根據(jù)不同的屬性值從該結(jié)點(diǎn)向下分支,葉結(jié)點(diǎn)是要學(xué)習(xí)劃分的類。從根到葉結(jié)點(diǎn)的一條路徑就對(duì)應(yīng)著一條合取規(guī)則,整個(gè)決

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論