數(shù)據(jù)挖掘 知到智慧樹(shù)網(wǎng)課答案_第1頁(yè)
數(shù)據(jù)挖掘 知到智慧樹(shù)網(wǎng)課答案_第2頁(yè)
數(shù)據(jù)挖掘 知到智慧樹(shù)網(wǎng)課答案_第3頁(yè)
免費(fèi)預(yù)覽已結(jié)束,剩余3頁(yè)可下載查看

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

數(shù)據(jù)挖掘-知到答案、智慧樹(shù)答案第一章單元測(cè)試1、問(wèn)題:什么是KDD?選項(xiàng):A:B.領(lǐng)域知識(shí)發(fā)現(xiàn)B:D.動(dòng)態(tài)知識(shí)發(fā)現(xiàn)C:C.文檔知識(shí)發(fā)現(xiàn)D:A.數(shù)據(jù)挖掘與知識(shí)發(fā)現(xiàn)答案:【A.數(shù)據(jù)挖掘與知識(shí)發(fā)現(xiàn)】2、問(wèn)題:數(shù)據(jù)挖掘的主要任務(wù)是從數(shù)據(jù)中發(fā)現(xiàn)潛在的規(guī)則,從而能更好的完成描述數(shù)據(jù)、預(yù)測(cè)數(shù)據(jù)等任務(wù)。選項(xiàng):A:對(duì)B:錯(cuò)答案:【對(duì)】3、問(wèn)題:數(shù)據(jù)挖掘的預(yù)測(cè)建模任務(wù)主要包括哪幾大類問(wèn)題?選項(xiàng):A:模式發(fā)現(xiàn)B:回歸C:分類D:模式匹配答案:【回歸;分類】4、問(wèn)題:以下哪些學(xué)科和數(shù)據(jù)挖掘有密切聯(lián)系?選項(xiàng):A:計(jì)算機(jī)組成原理B:礦產(chǎn)挖掘C:人工智能D:統(tǒng)計(jì)答案:【人工智能;統(tǒng)計(jì)】5、問(wèn)題:離群點(diǎn)可以是合法的數(shù)據(jù)對(duì)象或者值。選項(xiàng):A:對(duì)B:錯(cuò)答案:【對(duì)】第二章單元測(cè)試1、問(wèn)題:下面哪個(gè)屬于定量的屬性類型:選項(xiàng):A:相異B:區(qū)間C:序數(shù)D:標(biāo)稱答案:【區(qū)間】2、問(wèn)題:只有非零值才重要的二元屬性被稱作:選項(xiàng):A:對(duì)稱屬性B:離散屬性C:非對(duì)稱的二元屬性D:計(jì)數(shù)屬性答案:【非對(duì)稱的二元屬性】3、問(wèn)題:定量屬性可以是整數(shù)值或者是連續(xù)值。選項(xiàng):A:錯(cuò)B:對(duì)答案:【對(duì)】4、問(wèn)題:中心趨勢(shì)度量模(mode)是指選項(xiàng):A:算術(shù)平均值B:最小值C:最大值D:數(shù)據(jù)集中出現(xiàn)頻率最高的值答案:【數(shù)據(jù)集中出現(xiàn)頻率最高的值】5、問(wèn)題:以下哪些是屬于中心趨勢(shì)的度量選項(xiàng):A:中位數(shù)B:五數(shù)概括C:標(biāo)準(zhǔn)差D:平均值答案:【中位數(shù);平均值】第三章單元測(cè)試1、問(wèn)題:數(shù)據(jù)清洗的方法不包括選項(xiàng):A:重復(fù)數(shù)據(jù)記錄處理B:缺失值處理C:噪聲數(shù)據(jù)清除D:一致性檢查答案:【重復(fù)數(shù)據(jù)記錄處理】2、問(wèn)題:對(duì)數(shù)據(jù)進(jìn)行數(shù)據(jù)清理、集成、變換、規(guī)約是數(shù)據(jù)挖掘哪個(gè)步驟的任務(wù)?選項(xiàng):A:數(shù)據(jù)預(yù)處理B:噪聲檢測(cè)C:頻繁模式挖掘D:分類和預(yù)測(cè)答案:【數(shù)據(jù)預(yù)處理】3、問(wèn)題:以下哪項(xiàng)不屬于數(shù)據(jù)規(guī)約的方法?選項(xiàng):A:數(shù)據(jù)壓縮B:維規(guī)約C:數(shù)值規(guī)約D:數(shù)據(jù)遷移答案:【數(shù)據(jù)遷移】4、問(wèn)題:大數(shù)據(jù)預(yù)處理的方法不包含以下哪個(gè)選項(xiàng)?選項(xiàng):A:數(shù)據(jù)規(guī)約B:數(shù)據(jù)清洗C:數(shù)據(jù)采集D:數(shù)據(jù)變換答案:【數(shù)據(jù)采集】5、問(wèn)題:在噪聲數(shù)據(jù)中,波動(dòng)數(shù)據(jù)比離群點(diǎn)數(shù)據(jù)偏離整體水平更大。選項(xiàng):A:對(duì)B:錯(cuò)答案:【錯(cuò)】第四章單元測(cè)試1、問(wèn)題:某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買(mǎi)啤酒的人很大概率也會(huì)購(gòu)買(mǎi)尿布,這種屬于數(shù)據(jù)挖掘的哪類問(wèn)題?選項(xiàng):A:自然語(yǔ)言處理B:分類C:聚類D:關(guān)聯(lián)規(guī)則發(fā)現(xiàn)答案:【關(guān)聯(lián)規(guī)則發(fā)現(xiàn)】2、問(wèn)題:關(guān)聯(lián)規(guī)則挖掘過(guò)程是發(fā)現(xiàn)滿足最小支持度的所有項(xiàng)集代表的規(guī)則。選項(xiàng):A:對(duì)B:錯(cuò)答案:【錯(cuò)】3、問(wèn)題:具有較高的支持度的項(xiàng)集具有較高的置信度。選項(xiàng):A:對(duì)B:錯(cuò)答案:【錯(cuò)】4、問(wèn)題:給定關(guān)聯(lián)規(guī)則A→B,意味著:若A發(fā)生,B也會(huì)發(fā)生。選項(xiàng):A:對(duì)B:錯(cuò)答案:【錯(cuò)】5、問(wèn)題:啤酒與尿布的故事是聚類分析的典型實(shí)例。選項(xiàng):A:對(duì)B:錯(cuò)答案:【錯(cuò)】第五章單元測(cè)試1、問(wèn)題:分類和回歸都可用于預(yù)測(cè),分類的輸出是離散的類別值,而回歸的輸出是連續(xù)數(shù)值。選項(xiàng):A:對(duì)B:錯(cuò)答案:【對(duì)】2、問(wèn)題:決策樹(shù)方法通常用于關(guān)聯(lián)規(guī)則挖掘。選項(xiàng):A:錯(cuò)B:對(duì)答案:【錯(cuò)】3、問(wèn)題:在決策樹(shù)中,隨著樹(shù)中結(jié)點(diǎn)數(shù)變得太大,即使模型的訓(xùn)練誤差還在繼續(xù)減低,但是檢驗(yàn)誤差開(kāi)始增大,這是出現(xiàn)了模型擬合不足的問(wèn)題。選項(xiàng):A:錯(cuò)B:對(duì)答案:【錯(cuò)】4、問(wèn)題:對(duì)于SVM分類算法,待分樣本集中的大部分樣本不是支持向量,移去或者減少這些樣本對(duì)分類結(jié)果沒(méi)有影響。選項(xiàng):A:對(duì)B:錯(cuò)答案:【對(duì)】5、問(wèn)題:下面哪種分類方法是屬于統(tǒng)計(jì)學(xué)的分類方法?選項(xiàng):A:判定樹(shù)歸納B:基于案例的推理C:后向傳播分類D:貝葉斯分類答案:【貝葉斯分類】第六章單元測(cè)試1、問(wèn)題:基于劃分方法的聚類都是基于距離來(lái)判斷數(shù)據(jù)對(duì)象相似度的選項(xiàng):A:錯(cuò)B:對(duì)答案:【對(duì)】2、問(wèn)題:K-Means聚類過(guò)程中計(jì)算出的“質(zhì)心”點(diǎn)是虛擬的。選項(xiàng):A:對(duì)B:錯(cuò)答案:【對(duì)】3、問(wèn)題:DBSCAN聚類和K-Medians聚類都需要預(yù)先指定聚類的簇的數(shù)目選項(xiàng):A:錯(cuò)B:對(duì)答案:【錯(cuò)】4、問(wèn)題:下列屬于層次聚類方法的是選項(xiàng):A:K-MeansB:DBSCANC:DIANAD:AGNES答案:【DIANA;AGNES】5、問(wèn)題:衡量離群點(diǎn)的離群因子,計(jì)算的是選項(xiàng):A:簇間距離B:簇間距離的加權(quán)平均值C:平均絕對(duì)偏差D:輪廓系數(shù)答案:【簇間距離的加權(quán)平均值】第七章單元測(cè)試1、問(wèn)題:神經(jīng)元節(jié)點(diǎn)計(jì)算什么()選項(xiàng):A:神經(jīng)元節(jié)點(diǎn)先計(jì)算線性函數(shù)(z=Wx+b),再計(jì)算激活B:神經(jīng)元節(jié)點(diǎn)先計(jì)算激活函數(shù),再計(jì)算線性函數(shù)(z=Wx+b)C:神經(jīng)元節(jié)點(diǎn)計(jì)算函數(shù)g,函數(shù)g計(jì)算(Wx+b)D:在將輸出應(yīng)用于激活函數(shù)之前,神經(jīng)元節(jié)點(diǎn)計(jì)算所有特征的平均值答案:【神經(jīng)元節(jié)點(diǎn)先計(jì)算線性函數(shù)(z=Wx+b),再計(jì)算激活】2、問(wèn)題:在一個(gè)神經(jīng)網(wǎng)絡(luò)里,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果以某種方法知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,你就可以近似任何函數(shù)。實(shí)現(xiàn)這個(gè)最佳的辦法是什么?選項(xiàng):A:隨機(jī)賦值,祈禱它們是正確的B:賦予一個(gè)初始值,通過(guò)檢查跟最佳值的差值,然后迭代更新權(quán)重C:搜索所有權(quán)重和偏差的組合,直到得到最佳值D:都不正確答案:【賦予一個(gè)初始值,通過(guò)檢查跟最佳值的差值,然后迭代更新權(quán)重】33、問(wèn)題:梯度下降算法的正確步驟是什么?1.計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差2.迭代跟新,直到找到最佳權(quán)重.把輸入傳入網(wǎng)絡(luò),得到輸出值4.初始化隨機(jī)權(quán)重和偏差5.對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,改變相應(yīng)的(權(quán)重)值以減小誤差選項(xiàng):A:1,2,3,4,5B:5,4,3,2,1C:4,3,1,5,2D:3,2,1,5,4答案:【4,3,1,5,2】4、問(wèn)題:以下什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?選項(xiàng):A:當(dāng)這是

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論