數(shù)據(jù)工程智慧樹知到課后章節(jié)答案2023年下同濟(jì)大學(xué)_第1頁
數(shù)據(jù)工程智慧樹知到課后章節(jié)答案2023年下同濟(jì)大學(xué)_第2頁
數(shù)據(jù)工程智慧樹知到課后章節(jié)答案2023年下同濟(jì)大學(xué)_第3頁
數(shù)據(jù)工程智慧樹知到課后章節(jié)答案2023年下同濟(jì)大學(xué)_第4頁
數(shù)據(jù)工程智慧樹知到課后章節(jié)答案2023年下同濟(jì)大學(xué)_第5頁
已閱讀5頁,還剩13頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

數(shù)據(jù)工程智慧樹知到課后章節(jié)答案2023年下同濟(jì)大學(xué)同濟(jì)大學(xué)

第一章測試

下列哪個數(shù)據(jù)庫不屬于NoSQL數(shù)據(jù)庫?

A:RedisB:Bigtable

C:OracleD:Neo4J

答案:Oracle

MongoDB屬于哪類NoSQL數(shù)據(jù)庫?

A:列數(shù)據(jù)庫B:圖數(shù)據(jù)庫C:文檔數(shù)據(jù)庫D:鍵值數(shù)據(jù)庫

答案:文檔數(shù)據(jù)庫

關(guān)系數(shù)據(jù)庫中的參照完整性主要通過()實(shí)現(xiàn)。

A:審計(jì)B:外鍵C:關(guān)鍵字D:主鍵

答案:外鍵;主鍵

在關(guān)系數(shù)據(jù)庫中,為了保證數(shù)據(jù)的一致性,事務(wù)處理必須保證具有哪些特性?()

A:一致性B:持久性C:隔離性D:原子性

答案:一致性;持久性;隔離性;原子性

下面哪些是NoSQL數(shù)據(jù)庫的特點(diǎn)?

A:可用性強(qiáng)B:模式靈活C:高可擴(kuò)展D:嚴(yán)格的模式定義

答案:可用性強(qiáng);模式靈活;高可擴(kuò)展

大數(shù)據(jù)價(jià)值挖掘是一個從數(shù)據(jù)到信息,再由信息到知識的凝練過程。

A:對B:錯

答案:對

NoSQL數(shù)據(jù)庫是對SQL數(shù)據(jù)庫的否定,可以完全代替SQL數(shù)據(jù)庫。

A:對B:錯

答案:錯

在并行和分布式數(shù)據(jù)庫中,共享內(nèi)存架構(gòu)的每個處理器都有自己的磁盤,所有處理器共享一個內(nèi)存空間。

A:錯B:對

答案:對

關(guān)系數(shù)據(jù)庫采取了強(qiáng)一致性約束,符合CAP理論中的C和P。

A:錯B:對

答案:錯

關(guān)系數(shù)據(jù)庫的實(shí)體完整性主要通過()實(shí)現(xiàn)。

A:訪問控制B:審計(jì)C:主鍵D:關(guān)系表

答案:主鍵

第二章測試

OLAP一般運(yùn)行于業(yè)務(wù)數(shù)據(jù)庫上,OLTP則一般運(yùn)行于數(shù)據(jù)倉庫上。

A:錯B:對

答案:錯

數(shù)據(jù)清洗是剔除數(shù)據(jù)里的異常,使數(shù)據(jù)集成為現(xiàn)實(shí)世界的準(zhǔn)確、沒有重復(fù)表示的過程。

A:對B:錯

答案:對

聯(lián)邦數(shù)據(jù)庫模式不適宜進(jìn)行需要在很多的數(shù)據(jù)源之間進(jìn)行通訊和數(shù)據(jù)交換的數(shù)據(jù)集成。

A:對B:錯

答案:對

列存儲數(shù)據(jù)對排序操作和數(shù)據(jù)壓縮有較好的支持。

A:對B:錯

答案:對

在數(shù)據(jù)倉庫中,ETL操作包括()。

A:加載B:抽取C:轉(zhuǎn)換D:傳輸

答案:加載;抽取;轉(zhuǎn)換

數(shù)據(jù)源之間的異構(gòu)性主要包括()。

A:數(shù)據(jù)模式的異構(gòu)性B:數(shù)據(jù)類型的異構(gòu)性C:通訊協(xié)議異構(gòu)性D:數(shù)據(jù)管理系統(tǒng)的異構(gòu)性

答案:數(shù)據(jù)模式的異構(gòu)性;數(shù)據(jù)類型的異構(gòu)性;通訊協(xié)議異構(gòu)性;數(shù)據(jù)管理系統(tǒng)的異構(gòu)性

下列哪些技術(shù)可以用于在大數(shù)據(jù)使用過程中保護(hù)用戶隱私?

A:同態(tài)加密B:聯(lián)邦數(shù)據(jù)庫C:內(nèi)存數(shù)據(jù)庫D:差分隱私

答案:同態(tài)加密;聯(lián)邦數(shù)據(jù)庫;差分隱私

下列那一項(xiàng)不屬于數(shù)據(jù)清理中的數(shù)據(jù)異常?

A:覆蓋類異常B:語義類異常C:語法類異常D:插入類異常

答案:插入類異常

在數(shù)據(jù)庫中,規(guī)定了員工表的工資字段必須大于0。如果某個員工的工資<0,則屬于()。

A:語義類異常B:詞法錯誤C:不規(guī)則取值D:語法類異常

答案:語義類異常

下列哪一項(xiàng)不是大數(shù)據(jù)管理的新挑戰(zhàn)()。

A:高性能數(shù)據(jù)服務(wù)要求B:數(shù)據(jù)規(guī)模大C:私保護(hù)D:多源、異構(gòu)、跨領(lǐng)域

答案:數(shù)據(jù)規(guī)模大

第三章測試

下列關(guān)于不同的簇類型的說法中,不正確的是()。

A:在明顯分離的簇中,同簇中的對象之間的距離要大于異簇的對象B:在基于鄰近度的簇中,度量方式通常是最近鄰或連通度C:在基于密度的簇中,簇通常是高密度的區(qū)域D:在基于中心的簇中,簇的中心通常叫質(zhì)心,即簇中所有點(diǎn)的平均值

答案:在明顯分離的簇中,同簇中的對象之間的距離要大于異簇的對象

以下哪些選項(xiàng)是K-均值聚類面臨的問題?

A:貪心算法存在的問題B:K的選擇具有挑戰(zhàn)性C:難以處理噪聲、異常值D:關(guān)于數(shù)據(jù)的球形假設(shè)(到聚類中心的距離)

答案:貪心算法存在的問題;K的選擇具有挑戰(zhàn)性;難以處理噪聲、異常值;關(guān)于數(shù)據(jù)的球形假設(shè)(到聚類中心的距離)

凝聚層次聚類中,定義簇間的相似度的方法有()。

A:MIN(單鏈)B:Ward方法C:MAX(全鏈)D:組平均

答案:MIN(單鏈);Ward方法;MAX(全鏈);組平均

DBSCAN算法的缺點(diǎn)包括?

A:對輸入?yún)?shù)敏感B:對于高維問題,密度定義是個比較麻煩的問題C:易受到噪聲和異常值的影響D:當(dāng)簇的密度變化太大時,不能很好的處理

答案:對輸入?yún)?shù)敏感;對于高維問題,密度定義是個比較麻煩的問題;當(dāng)簇的密度變化太大時,不能很好的處理

CHAMELEON算法的優(yōu)點(diǎn)包括:()。

A:復(fù)雜度低,適合在大規(guī)模數(shù)據(jù)集應(yīng)用B:能夠有效地聚類空間數(shù)據(jù)C:對噪聲和異常數(shù)據(jù)不敏感

D:能識別具有不同形狀、大小和密度的簇

答案:能夠有效地聚類空間數(shù)據(jù);對噪聲和異常數(shù)據(jù)不敏感

;能識別具有不同形狀、大小和密度的簇

同一組數(shù)據(jù)通過不同聚類算法得到的簇的個數(shù)是相同的。

A:錯B:對

答案:錯

相似度的度量方式隨著數(shù)據(jù)對象的屬性類型改變而改變。

A:錯B:對

答案:對

全鏈在處理大小不同的簇時,可能使大的簇破裂。

A:錯B:對

答案:對

DBSCAN聚類結(jié)果受參數(shù)影響較小。

A:錯B:對

答案:錯

使用KMEANS、DBSCAN等多種聚類算法對同一數(shù)據(jù)集進(jìn)行聚類時,可能會得到不同的分組數(shù)(類數(shù)),分組數(shù)較多的聚類算法一般是比較好的。

A:對B:錯

答案:錯

第四章測試

在貝葉斯定理的公式當(dāng)中,哪一個是先驗(yàn)概率?

A:P(B|A)B:P(B)C:P(A)D:P(A|B)

答案:P(A)

在電視游戲節(jié)目中,參賽者選擇三個門之一;一扇門的后面有獎,而另兩扇的后面沒有獎。參賽者選擇一扇門后,游戲節(jié)目主持人將打開其余的一扇門,并顯示門后沒有任何獎金。然后,主持人詢問參賽者是將自己的選擇切換到另一扇未打開的門,還是將STICK切換到其原始選擇。這對參賽者來說切換們是有利的。

A:錯B:對

答案:對

貝葉斯決策是由先驗(yàn)概率和類條件概率,推導(dǎo)后驗(yàn)概率,然后利用這個概率進(jìn)行決策。

A:對B:錯

答案:對

關(guān)于決策樹算法的描述正確的是()。

A:決策樹剪枝的目的是為了降低決策樹算法的過擬合B:決策樹可以看成一個If-then規(guī)則的集合。C:在決策樹算法中,每個內(nèi)部結(jié)點(diǎn)表示在一個特征或?qū)傩裕幻總€分支代表這個特征或?qū)傩栽谀硞€值域上的輸出;每個葉結(jié)點(diǎn)代表一種類別。D:在決策樹的各個結(jié)點(diǎn)上以信息增益為準(zhǔn)則,選擇劃分后信息增益最大的屬性作為劃分屬性,遞歸地構(gòu)建決策樹。

答案:決策樹可以看成一個If-then規(guī)則的集合。

決策樹中屬性選擇的方法有()。

A:信息值B:信息增益C:GINI系數(shù)D:信息增益率

答案:信息增益;GINI系數(shù);信息增益率

對于信息增益,決策樹分裂節(jié)點(diǎn),下面說法正確的是()1.純度高的節(jié)點(diǎn)需要更多的信息去區(qū)分2.信息增益可以用”1比特-熵”獲得3.如果選擇一個屬性具有許多歸類值,那么這個信息增益是有偏差的

A:1B:3

C:2D:2和3

答案:2和3

SVM中的泛化誤差代表什么?

A:分類超平面與支持向量的距離B:SVM中的誤差閾值C:SVM對新數(shù)據(jù)的預(yù)測準(zhǔn)確度

答案:SVM對新數(shù)據(jù)的預(yù)測準(zhǔn)確度

若參數(shù)C(costparameter)被設(shè)為無窮,下面哪種說法是正確的?

A:軟間隔SVM分類器將正確分類數(shù)據(jù)B:在如此高的誤分類懲罰下,存在軟間隔分類超平面C:只要最佳分類超平面存在,它就能將所有數(shù)據(jù)全部正確分類

答案:只要最佳分類超平面存在,它就能將所有數(shù)據(jù)全部正確分類

怎樣理解“硬間隔”?

A:SVM只允許極小誤差B:SVM不允許有誤差

C:SVM允許分類時出現(xiàn)一定范圍的誤差

答案:SVM只允許極小誤差

VM算法的最小時間復(fù)雜度是O(n2),基于此,以下哪種規(guī)格的數(shù)據(jù)集并不適該算法?

A:不受數(shù)據(jù)集大小影響B(tài):大數(shù)據(jù)集C:小數(shù)據(jù)集D:中等數(shù)據(jù)集

答案:大數(shù)據(jù)集

第五章測試

梯度下降算法的正確步驟是什么?a.計(jì)算預(yù)測值和真實(shí)值之間的誤差b.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值c.把輸入傳入網(wǎng)絡(luò),得到輸出值d.用隨機(jī)值初始化權(quán)重和偏差e.對每一個產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差

A:cbaed

B:abcde

C:edcba

D:dcaeb

答案:dcaeb

已知:大腦是有很多個叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對大腦的簡單的數(shù)學(xué)表達(dá)。-每一個神經(jīng)元都有輸入、處理函數(shù)和輸出。-神經(jīng)元組合起來形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。-為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?

A:有維度更高的數(shù)據(jù)B:當(dāng)這是一個圖形識別的問題時C:加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加

答案:加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加

訓(xùn)練CNN時,可以對輸入進(jìn)行旋轉(zhuǎn)、平移、縮放等預(yù)處理提高模型泛化能力。

A:對B:錯

答案:對

下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?

A:Boosting

B:MappingC:Bagging

D:Stacking

答案:Bagging

下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?

A:卷積函數(shù)B:隨機(jī)梯度下降C:修正線性單元(ReLU)

答案:修正線性單元(ReLU)

多對一RNN架構(gòu)可以應(yīng)用于以下哪些任務(wù)?

A:語音中的性別識別(輸入音頻剪輯并輸出表明說話者性別的標(biāo)簽)B:情感分類(輸入一段文字并輸出0/1表示正面或負(fù)面情緒)C:語音識別(輸入一個音頻輸出一段字幕)D:圖像分類(輸入圖像輸出標(biāo)簽)

答案:語音中的性別識別(輸入音頻剪輯并輸出表明說話者性別的標(biāo)簽);情感分類(輸入一段文字并輸出0/1表示正面或負(fù)面情緒)

您正在訓(xùn)練RNN,發(fā)現(xiàn)您的權(quán)重和激活都具有NaN的值(“非數(shù)字”)。以下哪項(xiàng)最可能是此問題的原因?

A:在sigmoid激活函數(shù)當(dāng)中z太大B:梯度爆炸問題C:在ReLU激活函數(shù)當(dāng)中z太大D:梯度消失問題

答案:梯度爆炸問題

為了使RNN更容易訓(xùn)練,需要選取更好的激活函數(shù),如Relu激活函數(shù)。ReLU函數(shù)的左側(cè)導(dǎo)數(shù)為0,右側(cè)導(dǎo)數(shù)恒為1,這就避免了梯度爆炸問題的發(fā)生。

A:對B:錯

答案:錯

RNN會發(fā)生梯度消失的問題,產(chǎn)生這樣的問題的原因是RNN在算是會有激活函數(shù)導(dǎo)數(shù)的累乘,如果取tanh或sigmoid函數(shù)作為激活函數(shù)的話,那么必然是一堆小數(shù)在做乘法,結(jié)果就是越乘越小。隨著時間序列的不斷深入,小數(shù)的累乘就會導(dǎo)致梯度越來越小直到接近于0,這就是“梯度消失“現(xiàn)象。

A:錯B:對

答案:對

假設(shè)你正在訓(xùn)練LSTM。你有10000個單詞的詞匯,并且正在使用具有100維激活的LSTM。每步當(dāng)中的維數(shù)是多少?

A:100B:300C:1000D:1

答案:100

第六章測試

數(shù)據(jù)可視化有哪些主要分支方向?

A:信息可視化B:科學(xué)可視化

C:可視分析D:統(tǒng)計(jì)數(shù)據(jù)可視化

答案:信息可視化;科學(xué)可視化

;可視分析

信息可視化主要是針對什么類型數(shù)據(jù)的?

A:科學(xué)數(shù)據(jù)B:圖形數(shù)據(jù)C:統(tǒng)計(jì)數(shù)據(jù)D:抽象數(shù)據(jù)

答案:抽象數(shù)據(jù)

下列選項(xiàng)中哪一項(xiàng)不屬于可視化的基本設(shè)計(jì)準(zhǔn)則。()

A:設(shè)計(jì)能夠高效傳達(dá)信息的可視化

B:設(shè)計(jì)能夠直觀傳遞信息的可視化C:設(shè)計(jì)能夠讓人賞心悅目的可視化D:設(shè)計(jì)能夠正確表達(dá)信息的可視化

答案:設(shè)計(jì)能夠直觀傳遞信息的可視化

謊言因子是設(shè)計(jì)用來度量可視化中什么設(shè)計(jì)指標(biāo)的方法?

A:可視化美觀程度的度量方法B:可視化呈現(xiàn)數(shù)據(jù)時夸張程度的度量方法

C:可視化表達(dá)信息效率的度量方法

答案:可視化呈現(xiàn)數(shù)據(jù)時夸張程度的度量方法

以下哪一種交互不屬于常見的可視化交互類型。

A:過濾B:編碼C:定向D:選擇

答案:定向

“數(shù)據(jù)瀏覽”交互主要是為了完成什么任務(wù):()。

A:展現(xiàn)數(shù)據(jù)中的不同子集

B:展現(xiàn)不同的數(shù)據(jù)粒度

C:展現(xiàn)不同的數(shù)據(jù)映射方式D:瀏覽并篩選數(shù)據(jù)

答案:展現(xiàn)數(shù)據(jù)中的不同子集

以下哪一項(xiàng)不屬于數(shù)據(jù)的維度的類型()。

A:分類屬性B:有序?qū)傩訡:時間屬性D:數(shù)據(jù)屬性

答案:時間屬性

PCA

的設(shè)計(jì)原理是:()。

A:最小化數(shù)據(jù)點(diǎn)與數(shù)據(jù)點(diǎn)之間的距離在高、低維空間中的差異B:最大化數(shù)據(jù)點(diǎn)在低維空間中點(diǎn)的差異

C:最大化數(shù)據(jù)點(diǎn)在高維空

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論