大數(shù)據(jù)時代下的數(shù)據(jù)挖掘試題及答案_第1頁
大數(shù)據(jù)時代下的數(shù)據(jù)挖掘試題及答案_第2頁
大數(shù)據(jù)時代下的數(shù)據(jù)挖掘試題及答案_第3頁
大數(shù)據(jù)時代下的數(shù)據(jù)挖掘試題及答案_第4頁
大數(shù)據(jù)時代下的數(shù)據(jù)挖掘試題及答案_第5頁
已閱讀5頁,還剩29頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

《海量數(shù)據(jù)挖掘技術及工程實踐》題目一、單選題(共80題)(D)的目的縮小數(shù)據(jù)的取值圍,使其更適合于數(shù)據(jù)挖掘算法的需要,并且能夠得到和原始數(shù)據(jù)相同的分析結果。從數(shù)據(jù)清洗8.數(shù)據(jù)集成^數(shù)據(jù)變換口.數(shù)據(jù)歸約某超市研究銷售紀錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會購買尿布,這種屬于數(shù)據(jù)挖掘的哪類問題?(A)A.關聯(lián)規(guī)則發(fā)現(xiàn) B.聚類C.分類 D.自然語言處理以下兩種描述分別對應哪兩種對分類算法的評價標準?(A)⑶警察抓小偷,描述警察抓的人中有多少個是小偷的標準。(匕)描述有多少比例的小偷給警察抓了的標準。A.Precision,RecallB.Recall,PrecisionA.Precision,ROCD.Recall,ROC4)將原始數(shù)據(jù)進行集成、變換、維度規(guī)約、數(shù)值規(guī)約是在以下哪個步驟的任務?(C)A.頻繁模式挖掘B.分類和預測C.數(shù)據(jù)預處理D.數(shù)據(jù)流挖掘當不知道數(shù)據(jù)所帶標簽時,可以使用哪種技術促使帶同類標簽的數(shù)據(jù)與帶其他標簽的數(shù)據(jù)相分離?(B)A.分類B.聚類C.關聯(lián)分析C.關聯(lián)分析D.隱馬爾可夫鏈建立一個模型,通過這個模型根據(jù)已知的變量值來預測其他某個變量值屬于數(shù)據(jù)挖掘的哪一類任務?(C)A.根據(jù)容檢索B.建模描述C.預測建模D.尋找模式和規(guī)則下面哪種不屬于數(shù)據(jù)預處理的方法?(D)A.變量代換8.離散化^聚集D*計遺漏值假設12個銷售價格記錄組已經排序如下:5,10,11,13,15,35,50,55,72,92,204,215使用如下每種方法將它們劃分成四個箱。等頻(等深)劃分時,15在第幾個箱子?(B)A.第一個8.第二個^第三個口.第四個9)下面哪個不屬于數(shù)據(jù)的屬性類型:①)儲標稱 8.序數(shù)^區(qū)間口.相異只有非零值才重要的二元屬性被稱作:(C)A.計數(shù)屬性B.離散屬性C.非對稱的二元屬性D.對稱屬性以下哪種方法不屬于特征選擇的標準方法:(D)從嵌入B.過濾^包裝口.抽樣下面不屬于創(chuàng)建新屬性的相關方法的是:(B)從特征提取8.特征修改^映射數(shù)據(jù)到新的空間口.特征構造13)下面哪個屬于映射數(shù)據(jù)到新的空間的方法?(A)A.傅立葉變換8.特征加權C.漸進抽樣D.維歸約14)假設屬性^6的最大最小值分別是12000元和98000元。利用最大最小規(guī)化的方法將屬性的值映射到0至1的圍。對屬性^6的73600元將被轉化為:(口)A.0.821 B.1.224C.1.458D.0.716一所大學的各年紀人數(shù)分別為:一年級200人,二年級160人,三年級130人,四年級110人。則年級屬性的眾數(shù)是:(A)A.一年級B二年級c.m年級 口.四年級下列哪個不是專門用于可視化時間空間數(shù)據(jù)的技術:(B)A.等高線圖 B.餅圖^曲面圖口.矢量場圖在抽樣方法中,當合適的樣本容量很難確定時,可以使用的抽樣方法是:(D)從有放回的簡單隨機抽樣8.無放回的簡單隨機抽樣^分層抽樣D漸進抽樣數(shù)據(jù)倉庫是隨著時間變化的,下面的描述不正確的是(C)從數(shù)據(jù)倉庫隨時間的變化不斷增加新的數(shù)據(jù)容8.捕捉到的新數(shù)據(jù)會覆蓋原來的快照^數(shù)據(jù)倉庫隨事件變化不斷刪去舊的數(shù)據(jù)容口.數(shù)據(jù)倉庫中包含大量的綜合數(shù)據(jù),這些綜合數(shù)據(jù)會隨著時間的變化不斷地進行重新綜合下面關于數(shù)據(jù)粒度的描述不正確的是:(C)慶粒度是指數(shù)據(jù)倉庫小數(shù)據(jù)單元的詳細程度和級別8.數(shù)據(jù)越詳細,粒度就越小,級別也就越高^數(shù)據(jù)綜合度越高,粒度也就越大,級別也就越高口.粒度的具體劃分將直接影響數(shù)據(jù)倉庫中的數(shù)據(jù)量以及查詢質量有關數(shù)據(jù)倉庫的開發(fā)特點,不正確的描述是:(A)從數(shù)據(jù)倉庫開發(fā)要從數(shù)據(jù)出發(fā).數(shù)據(jù)倉庫使用的需求在開發(fā)出去就要明確^數(shù)據(jù)倉庫的開發(fā)是一個不斷循環(huán)的過程受啟發(fā)式的開發(fā)口.在數(shù)據(jù)倉庫環(huán)境中,并不存在操作型環(huán)境中所固定的和較確切的處理流,數(shù)據(jù)倉庫中數(shù)據(jù)分析和處理更靈活,且沒有固定的模式21)關于OLAP的特性邛面正確的是:(D)(1)快速性(2)可分析性(3)多維性(4)信息性(5)共享性A.(1)(2)(3).(2)(3)(4)C.(1)(2)(3)(4)D.(1)(2)(3)(4)(5)22)關于OLAP和OLTP的區(qū)別描述,不正確的是:(C)A.OLAP主要是關于如何理解聚集的大量不同的數(shù)據(jù).它與OTAP應用程序不同B,與OLAP應用程序不同,OLTP應用程序包含大量相對簡單的事務C.OLAP的特點在于事務量大,但事務容比較簡單且重復率高D.OLAP是以數(shù)據(jù)倉庫為基礎的,但其最終數(shù)據(jù)來源與OLTP—樣均來自底層的數(shù)據(jù)庫系統(tǒng),兩者面對的用戶是相同的23)關于OLAP和OLTP的說法,下列不正確的是:(A)A.OLAP事務量大,但事務容比較簡單且重復率高B.OLAP的最終數(shù)據(jù)來源與OLTP不一樣C.OLTP面對的是決策人員和高層管理人員D.OLTP以應用為核心,是應用驅動的24)設X={1,2,3}是頻繁項集,則可由X產生(C)個關聯(lián)規(guī)則。A.4B.5C.6D.725)考慮下面的頻繁3-項集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個項,采用合并策略,由候選產生過程得到4-項集不包含(C)A.1,2,3,4B.1,2,3,5C.1,2,4,5D.1,3,4,526)下面選項中1不是5的子序列的是(C)A.s=<{2,4},{3,5,6},{8}>t=<{2},{3,6},{8}>B.s=<{2,4},{3,5,6},{8}>t=<{2},{8}>C.s=<{1,2},{3,4}>t=<{1},{2}>D.s=<{2,4},{2,4}>t=<{2},{4}>在圖集合中發(fā)現(xiàn)一組公共子結構,這樣的任務稱為(B)凡頻繁子集挖掘8.頻繁子圖挖掘C.頻繁數(shù)據(jù)項挖掘口.頻繁模式挖掘下列度量不具有反演性的是(D)一系數(shù)8.幾率—卜61度量口.興趣因子29)下列(川不是將主觀信息加入到模式發(fā)現(xiàn)任務中的方法。一與同一時期其他數(shù)據(jù)對比8.可視化一基于模板的方法D.主觀興趣度量30)下面購物藍能夠提取的3-項集的最大數(shù)量是多少(0TID項集1牛奶,啤酒,尿布2面包,黃油,牛奶3牛奶掰布,餅干4面包,黃油,餅干5啤酒,餅干,尿布6牛奶掰布,面包,黃油7面包,黃油掰布8啤酒,尿布9牛奶掰布,面包,黃油10啤酒,餅干A.1B.2C.3D.431)以下哪些算法是分類算法(B)A.DBSCANB.C4.5C.K-MeanD.EM32)以下哪些分類方法可以較好地避免樣本的不平衡問題(A)A.KNNB.SVMC.BayesD.神經網(wǎng)絡決策樹中不包含一下哪種結點(C)A.根結點(rootnode)B.部結點(internalnode)C.外部結點(externalnode)D.葉結點(leafnode)以下哪項關于決策樹的說法是錯誤的(C)冗余屬性不會對決策樹的準確率造成不利的影響子樹可能在決策樹中重復多次決策樹算法對于噪聲的干擾非常敏感D.尋找最佳決策樹是NP完全問題在基于規(guī)則分類器的中,依據(jù)規(guī)則質量的某種度量對規(guī)則排序,保證每一個測試記錄都是由覆蓋它的“最好的”規(guī)格來分類,這種方案稱為(B)基于類的排序方案基于規(guī)則的排序方案基于度量的排序方案基于規(guī)格的排序方案。以下哪些算法是基于規(guī)則的分類器(A)A.C4.5B.KNNC.NaiveBayesD.ANN37)可用作數(shù)據(jù)挖掘分析中的關聯(lián)規(guī)則算法有(0。A.決策樹、對數(shù)回歸、關聯(lián)模式8小均值法、SOM神經網(wǎng)絡Apriori算法、FP-Tree算法RBF神經網(wǎng)絡、K均值法、決策樹38)如果對屬性值的任一組合刊中都存在一條規(guī)則加以覆蓋,則稱規(guī)則集口中的規(guī)則為(B)從無序規(guī)則B.窮舉規(guī)則^互斥規(guī)則口.有序規(guī)則39)用于分類與回歸應用的主要算法有:(D)A.Apriori算法、HotSpot算法B.RBF神經網(wǎng)絡、K均值法、決策樹C.K均值法、SOM神經網(wǎng)絡口.決策樹、BP神經網(wǎng)絡、貝葉斯40)如果允許一條記錄觸發(fā)多條分類規(guī)則,把每條被觸發(fā)規(guī)則的后件看作是對相應類的一次投票,然后計票確定測試記錄的類標號,稱為(人)從無序規(guī)則B.窮舉規(guī)則^互斥規(guī)則口.有序規(guī)則41)考慮兩隊之間的足球比賽:隊0和隊1。假設65%的比賽隊0勝出,剩余的比賽隊1獲勝。隊0獲勝的比賽中只有30%是在隊1的主場,而隊1取勝的比賽中75%是主場獲勝。如果下一場比賽在隊1的主場進行隊1獲勝的概率為(C)A.0.75B.0.35C.0.4678D.0.573842)以下關于人工神經網(wǎng)絡(ANN)的描述錯誤的有(A)A.神經網(wǎng)絡對訓練數(shù)據(jù)中的噪聲非常魯棒8.可以處理冗余特征C.訓練ANN是一個很耗時的過程D.至少含有一個隱藏層的多層神經網(wǎng)絡43)通過聚集多個分類器的預測來提高分類準確率的技術稱為(A)人.組合伯門56m1匕心) 8.聚集囿0匐@1?)^合并(bination)D.投票“0m0)44)簡單地將數(shù)據(jù)對象集劃分成不重疊的子集,使得每個數(shù)據(jù)對象恰在一個子集中,這種聚類類型稱作(B)A.層次聚類B.劃分聚類C.非互斥聚類口.模糊聚類45)在基本K均值算法里,當鄰近度函數(shù)采用(A)的時候,合適的質心是簇中各點的中位數(shù)。A.曼哈頓距離 8.平方歐幾里德距離^余弦距離 D.Bregman散度46)(C)是一個觀測值,它與其他觀測值的差別如此之大,以至于懷疑它是由不同的機制產生的。A.邊界點8.質心^離群點口.核心點47)BIRCH是一種(B)。從分類器 8.聚類算法C.關聯(lián)分析算法口.特征選擇算法48)檢測一元正態(tài)分布中的離群點,屬于異常檢測中的基于(A)的離群點檢測。

A.統(tǒng)計方法A.統(tǒng)計方法8.鄰近度^密度口.聚類技術49)(C)將兩個簇的鄰近度定義為不同簇的所有點對的平均逐對鄰近度,它是一種凝聚層次聚類技術。A.MIN(單鏈)B.MAX(全鏈)^組平均 口.W@辦方法50)(D)將兩個簇的鄰近度定義為兩個簇合并時導致的平方誤差的增量,它是一種凝聚層次聚類技術。A.MIN(單鏈)B.MAX(全鏈)^組平均 口.W@辦方法下列算法中,不屬于外推法的是(B)。人.移動平均法8.回歸分析法^指數(shù)平滑法口.季節(jié)指數(shù)法52)關聯(lián)規(guī)則的評價指標是:(C)。均方誤差、均方根誤差Kappa統(tǒng)計、顯著性檢驗支持度、置信度D.平均絕對誤差、相對誤差53)關于K均值和DBSCAN的比較,以下說法不正確的是(A)。人^均值丟棄被它識別為噪聲的對象,而DBSCAN一般聚類所有對象。8^均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念。C.K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇。

口^均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會合并有重疊的簇。54)從研究現(xiàn)狀上看,下面不屬于云計算特點的是(C)從超大規(guī)模 B.虛擬化^私有化 D.高可靠性55)考慮這么一種情況:一個對象碰巧與另一個對象相對接近,但屬于不同的類,因為這兩個對象一般不會共享許多近鄰,所以應該選擇(D)的相似度計算方法。從平方歐幾里德距離8.余弦距離^直接相似度 口.共享最近鄰56)分析顧客消費行業(yè),以便有針對性的向其推薦感興趣的服務,屬于(A)問題。A.關聯(lián)規(guī)則挖掘8.分類與回歸^聚類分析口.時序預測57)以下哪個聚類算法不是屬于基于原型的聚類(D)。從模糊C均值B.EM算法C.SOMD.CLIQUE58)關于混合模型聚類算法的優(yōu)缺點,下面說確的是(B)。從當簇只包含少量數(shù)據(jù)點,或者數(shù)據(jù)點近似協(xié)線性時,混合模型也能很好地處理。8.混合模型比K均值或模糊c均值更一般,因為它可以使用各種類型的分布。^混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇???混合模型在有噪聲和離群點時不會存在問題。59)以下哪個聚類算法不屬于基于網(wǎng)格的聚類算法(D)。A.STINGB.WaveClusterC.MAFIAD.BIRCHC.MAFIAD.BIRCH60)一個對象的離群點得分是該對象周圍密度的逆。這是基于(C)的離群點定義。從概率 8.鄰近度C.密度 口.聚類輿情研判,信息科學側重(C),社會和管理科學側重突發(fā)群體事件管理中的群體心理行為及輿論控制研究,新聞傳播學側重對輿論的本體進行規(guī)律性的探索和研究。A.輿論的本體進行規(guī)律性的探索和研究B.輿論控制研究^互聯(lián)網(wǎng)文本挖掘和分析技術口.用戶行為分析MapReduce的Map函數(shù)產生很多的(C)A.key B.valueC.<key,value> D.Hash63)Mapreduc適用于(D)A」任意應用程序B.任意可在windowsservet2008上運行的程序^可以串行處理的應用程序可以并行處理的應用程序PageRank是一個函數(shù)龍對Web中的每個網(wǎng)頁賦予一個實數(shù)值。它的意圖在于網(wǎng)頁的PageRank越高,那么它就(D)。從相關性越高 8.越不重要^相關性越低 口.越重要B.一對多XA.一對一B.一對多C.多對多C.多對多D.多對一協(xié)同過濾分析用戶興趣,在用戶群中找到指定用戶的相似(興趣)用戶,綜合這些用戶對某一信息的評價,形成系統(tǒng)對該指定用戶對此信息的喜好程度(D),并將這些用戶喜歡的項推薦給有相似興趣的用戶。A.相似 8.相同^推薦 D.預測大數(shù)據(jù)指的是所涉及的資料量規(guī)模巨大到無法透過目前主流軟件工具,在合理時間達到擷取、管理、處理、并(B )成為幫助企業(yè)經營決策更積極目的的信息。從收集 8.整理C.規(guī)劃 口.聚集大數(shù)據(jù)科學關注大數(shù)據(jù)網(wǎng)絡發(fā)展和運營過程中(D)大數(shù)據(jù)的規(guī)律及其與自然和社會活動之間的關系。從大數(shù)據(jù)網(wǎng)絡發(fā)展和運營過程B.規(guī)劃建設運營管理C.規(guī)律和驗證 D.發(fā)現(xiàn)和驗證大數(shù)據(jù)的價值是通過數(shù)據(jù)共享、(D)后獲取最大的數(shù)據(jù)價值A.算法共享 8.共享應用C.數(shù)據(jù)交換 D.交叉復用社交網(wǎng)絡產生了海量用戶以及實時和完整的數(shù)據(jù),同時社交網(wǎng)絡也記錄了用戶群體的(C),通過深入挖掘這些數(shù)據(jù)來了解用戶,然后將這些分析后的數(shù)據(jù)信息推給需要的品牌商家或是微博營銷公司。從地址 8.行為^情緒 口.來源70)通過數(shù)據(jù)收集和展示數(shù)據(jù)背后的(70)通過數(shù)據(jù)收集和展示數(shù)據(jù)背后的(),運用豐富的、具有互動性的可視化手段,數(shù)據(jù)新聞學成為新聞學作為一門新的分支進入主流媒體,即用數(shù)據(jù)報道新聞。從數(shù)據(jù)收集 8.數(shù)據(jù)挖掘^真相 D.關聯(lián)與模式CRISP-DM模型中Evaluation表示對建立的模型進行評估,重點具體考慮得出的結果是否符合(C)的商業(yè)目的。從第二步 8.第三步C.第一步 口.最后一步發(fā)現(xiàn)關聯(lián)規(guī)則的算法通常要經過以下三個步驟:連接數(shù)據(jù),作數(shù)據(jù)準備;給定最小支持度和(D),利用數(shù)據(jù)挖掘工具提供的算法發(fā)現(xiàn)關聯(lián)規(guī)則;可視化顯示、理解、評估關聯(lián)規(guī)則A.最小興趣度B.最小置信度C.最大支持度D.最小可信度73)規(guī)則I-力“有可能”,等于所有包含1的購物籃中同時包含」的購物籃的比例,為(B)。A.置信度 8.可信度C.興趣度 D.支持度如果一個匹配中,任何一個節(jié)點都不同時是兩條或多條邊的端點,也稱作(C)A.極大匹配 B二分匹配C完美匹配 D.極小匹配只要具有適當?shù)恼咄苿?大數(shù)據(jù)的使用將成為未來提高競爭力、生產力、創(chuàng)新能力以及(D)的關鍵要素。

氏提高消費8.提高GDP^提高生活水平氏提高消費8.提高GDP76)個性化推薦系統(tǒng)是建立在海量數(shù)據(jù)挖掘基礎上的一種高級商務智能平臺,以幫助(D)為其顧客購物提供完全個性化的決策支持和信息服務。76)慶公司^跨國企業(yè)D.電子商務77)云計算是對()技術的發(fā)展與運用慶并行計算8.網(wǎng)格計算^分布式計算口.三個選項都是慶公司^跨國企業(yè)D.電子商務77)云計算是對()技術的發(fā)展與運用慶并行計算8.網(wǎng)格計算^分布式計算口.三個選項都是78)(B)是60觀心提出的用于處理海量數(shù)據(jù)的并行編程模式和大規(guī)模數(shù)據(jù)集的并行運算的軟件架構。78)A.GFSB.MapReduceA.GFSC.ChubbyD.BitTableC.ChubbyD.BitTable79)在Bigtable79)在Bigtable中)主要用來存儲子表數(shù)據(jù)以及一些日志文件A.GFSA.GFSB.ChubbyC.SSTableD.MapReduce二、判斷題(共40題)分類是預測數(shù)據(jù)對象的離散類別,預測是用于數(shù)據(jù)對象的連續(xù)取值。(對)時序預測回歸預測一樣,也是用已知的數(shù)據(jù)預測未來的值,但這些數(shù)據(jù)的區(qū)別是變量所處時間的不同。(錯)數(shù)據(jù)挖掘的主要任務是從數(shù)據(jù)中發(fā)現(xiàn)潛在的規(guī)則,從而能更好的完成描述數(shù)據(jù)、預測數(shù)據(jù)等任務。(對)對遺漏數(shù)據(jù)的處理方法主要有:忽略該條記錄;手工填補遺漏值;利用默認值填補遺漏值;利用均值填補遺漏值;利用同類別均值填補遺漏值;利用最可能的值填充遺漏值。(對)神經網(wǎng)絡對噪音數(shù)據(jù)具有高承受能力,并能對未經過訓練的數(shù)據(jù)具有分類能力,但其需要很長的訓練時間,因而對于有足夠長訓練時間的應用更合適。(對)數(shù)據(jù)分類由兩步過程組成:第一步,建立一個聚類模型,描述指定的數(shù)據(jù)類集或概念集;第二步,使用模型進行分類。(錯)聚類是指將物理或抽象對象的集合分組成為由類似的對象組成的多個類的過程。(對)決策樹方法通常用于關聯(lián)規(guī)則挖掘。(錯)數(shù)據(jù)規(guī)化指將數(shù)據(jù)按比例縮放(如更換大單位),使之落入一個特定的區(qū)域(如0-1)以提高數(shù)據(jù)挖掘效率的方法。規(guī)化的常用方法有:最大-最小規(guī)化、零-均值規(guī)化、小數(shù)定標規(guī)化。(對)原始業(yè)務數(shù)據(jù)來自多個數(shù)據(jù)庫或數(shù)據(jù)倉庫,它們的結構和規(guī)則可能是不同的,這將導致原始數(shù)據(jù)非常的雜亂、不可用,即使在同一個數(shù)據(jù)庫中,也可能存在重復的和不完整的數(shù)據(jù)信息,為了使這些數(shù)據(jù)能夠符合數(shù)據(jù)挖掘的要求,提高效率和得到清晰的結果,必須進行數(shù)據(jù)的預處理。(對)數(shù)據(jù)取樣時,除了要求抽樣時嚴把質量關外,還要求抽樣數(shù)據(jù)必須在足夠圍有代表性。(對)分類規(guī)則的挖掘方法通常有:決策樹法、貝葉斯法、人工神經網(wǎng)絡法、粗糙集法和遺傳算法。(對)可信度是對關聯(lián)規(guī)則的準確度的衡量。 (錯)孤立點在數(shù)據(jù)挖掘時總是被視為異常、無用數(shù)據(jù)而丟棄。(錯)Apriori算法是一種典型的關聯(lián)規(guī)則挖掘算法。(對)用于分類的離散化方法之間的根本區(qū)別在于是否使用類信息。(對)特征提取技術并不依賴于特定的領域。(錯)模型的具體化就是預測公式,公式可以產生與觀察值有相似結構的輸出,這就是預測值。(對)文本挖掘又稱信息檢索,是從大量文本數(shù)據(jù)中提取以前未知的、有用的、可理解的、可操作的知識的過程。(錯)定量屬性可以是整數(shù)值或者是連續(xù)值。(對)可視化技術對于分析的數(shù)據(jù)類型通常不是專用性的。(錯)OLAP技術側重于把數(shù)據(jù)庫中的數(shù)據(jù)進行分析、轉換成輔助決策信息,是繼數(shù)據(jù)庫技術發(fā)展之后迅猛發(fā)展起來的一種新技術。(對)23)W?匕數(shù)據(jù)挖掘是通過數(shù)據(jù)庫仲的一些屬性來預測另一個屬性,它在驗證用戶提出的假設過程中提取信息。(錯)關聯(lián)規(guī)則挖掘過程是發(fā)現(xiàn)滿足最小支持度的所有項集代表的規(guī)則。(錯)利用先驗原理可以幫助減少頻繁項集產生時需要探查的候選項個數(shù)。(對)先驗原理可以表述為:如果一個項集是頻繁的,那包含它的所有項集也是頻繁的。(錯)回歸分析通常用于挖掘關聯(lián)規(guī)則。(錯)具有較高的支持度的項集具有較高的置信度。(錯)維歸約可以去掉不重要的屬性,減少數(shù)據(jù)立方體的維數(shù),從而減少數(shù)據(jù)挖掘處理的數(shù)據(jù)量,提高挖掘效率。(對)30)聚類(clustering)是這樣的過程:它找出描述并區(qū)分數(shù)據(jù)類或概念的模型(或函數(shù)),以便能夠使用模型預測類標記未知的對象類。(錯)31)對于SVM分類算法,待分樣本集中的大部分樣本不是支持向量,移去或者減少這些樣本對分類結果沒有影響。(對)8@丫65法是一種在已知后驗概率與類條件概率的情況下的模式分類方法,待分樣本的分類結果取決于各類域中樣本的全體。(錯)在決策樹中,隨著樹中結點數(shù)變得太大,即使模型的訓練誤差還在繼續(xù)減低,但是檢驗誤差開始增大,這是出現(xiàn)了模型擬合不足的問題。(錯)在聚類分析當中,簇的相似性越大,簇間的差別越大,聚類的效果就越差。(錯)聚類分析可以看作是一種非監(jiān)督的分類。(對)K均值是一種產生劃分聚類的基于密度的聚類算法,簇的個數(shù)由算法自動地確定。(錯基于鄰近度的離群點檢測方法不能處理具有不同密度區(qū)域的數(shù)據(jù)集。(對)如果一個對象不強屬于任何簇,那么該對象是基于聚類的離群點。(對)39)大數(shù)據(jù)的4V特點是Volume、Velocity、Variety、Veracity。(對)40)聚類分析的相異度矩陣是用于存儲所有對象兩兩之間相異度的矩陣,為一個nn維的單模矩陣。(對)三、多選題(共30題)1)噪聲數(shù)據(jù)的產生原因主要有:(ABCD)數(shù)據(jù)采集設備有問題在數(shù)據(jù)錄入過程中發(fā)生了人為或計算機錯誤數(shù)據(jù)傳輸過程中發(fā)生錯誤由于命名規(guī)則或數(shù)據(jù)代碼不同而引起的不一致尋找數(shù)據(jù)集中的關系是為了尋找精確、方便并且有價值地總結出數(shù)據(jù)的某一特征的表示,這個過程包括了以下哪些步驟?(ABCD)A.選擇一個算法過程使評分函數(shù)最優(yōu)8.決定如何量化和比較不同表示擬合數(shù)據(jù)的好壞^決定要使用的表示的特征和結構口.決定用什么樣的數(shù)據(jù)管理原則以高效地實現(xiàn)算法數(shù)據(jù)挖掘的預測建模任務主要包括哪幾大類問題?(AB)分類回歸聚類關聯(lián)規(guī)則挖掘4)下列屬于不同的有序數(shù)據(jù)的有:伊BCD)A.時序數(shù)據(jù)8.序列數(shù)據(jù)C.時間序列數(shù)據(jù)口.事務數(shù)據(jù)£.空間數(shù)據(jù)5)下面屬于數(shù)據(jù)集的一般特性的有:(BCD)A.連續(xù)性8.維度^稀疏性口.分辨率£.相異性6)下面屬于維歸約常用的處理技術的有:(AC)從主成分分析8.特征提取^奇異值分解口.特征加權£.離散化噪聲數(shù)據(jù)處理的方法主要有:(ABD)從分箱 8.聚類C.關聯(lián)分析 D.00數(shù)據(jù)挖掘的主要功能包括概念描述、趨勢分析、孤立點分析及(ABCD)等方面。從挖掘頻繁模式 8.分類和預測^聚類分析 口.偏差分析9)以下各項均是針對數(shù)據(jù)倉庫的不同說法,你認為正確的有(BCD)。從數(shù)據(jù)倉庫就是數(shù)據(jù)庫8.數(shù)據(jù)倉庫是一切商業(yè)智能系統(tǒng)的基礎^數(shù)據(jù)倉庫是面向業(yè)務的,支持聯(lián)機事務處理(OLTP)口.數(shù)據(jù)倉庫支持決策而非事務處理10)聯(lián)機分析處理包括(BCD)基本分析功能。從聚類8.切片C.轉軸口.切塊11)利用Apriori算法計算頻繁項集可以有效降低計算頻繁集的時間復雜度。在以下的購物籃中產生支持度不小于3的候選3-項集,在候選2-項集中需要剪枝的是(BD)

TID項集1面包、牛奶2面包、尿布、啤酒、雞蛋3牛奶、尿布、啤酒、可樂4面包、牛奶、尿布、啤酒5面包、牛奶、尿布、可樂A.啤酒、尿布8.啤酒、面包口面包、尿布口.啤酒、牛奶12)下表是一個購物籃,假定支持度閾值為40%,其中(AD)是頻繁閉項集。ID項集1面包、牛奶、尿布2面包、牛奶、尿布、啤酒3牛奶、尿布、雞蛋4面包、尿布、啤酒、雞蛋5啤酒、雞蛋一面包、牛奶、尿布8.面包、啤酒口尿布、啤酒口.啤酒、雞蛋13)Apriori算法的計算復雜度受(ABCD)影響。大支持度閥值8.項數(shù)(維度)^事務數(shù)口.事務平均寬度14)以下關于非頻繁模式說法,正確的是(AD)從其支持度小于閾值8.都是不讓人感興趣的C6含負模式和負相關模式D.對異常數(shù)據(jù)項敏感15)以下屬于分類器評價或比較尺度的有:(ACD)A.預測準確度8.召回率^模型描述的簡潔度D.計算復雜度16)貝葉斯信念網(wǎng)絡082有如下哪些特點。(AB)儲構造網(wǎng)絡費時費力8.對模型的過分問題非常魯棒C.貝葉斯網(wǎng)絡不適合處理不完整的數(shù)據(jù)口.網(wǎng)絡結構確定后,添加變量相當麻煩17)如下哪些不是最近鄰分類器的特點。(C)從它使用具體的訓練實例進行預測,不必維護源自數(shù)據(jù)的模型8.分類一個測試樣例開銷很

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論