數(shù)據(jù)工程智慧樹(shù)知到期末考試答案2024年_第1頁(yè)
數(shù)據(jù)工程智慧樹(shù)知到期末考試答案2024年_第2頁(yè)
數(shù)據(jù)工程智慧樹(shù)知到期末考試答案2024年_第3頁(yè)
免費(fèi)預(yù)覽已結(jié)束,剩余4頁(yè)可下載查看

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

數(shù)據(jù)工程智慧樹(shù)知到期末考試答案2024年數(shù)據(jù)工程以下哪個(gè)選項(xiàng)不屬于可視化交互范式所涉及的范疇:

A:選擇+過(guò)濾B:平移+縮放C:概覽+細(xì)節(jié)D:焦點(diǎn)+上下文答案:選擇+過(guò)濾做組內(nèi)研究時(shí),使用不同工具完成相同任務(wù)時(shí)往往需要使用不同的數(shù)據(jù),這樣做的目的是:

A:避免用戶記住答案,影響實(shí)驗(yàn)結(jié)果B:避免重復(fù)操作,從而防止用戶乏味,影響實(shí)驗(yàn)結(jié)果C:避免因?yàn)閿?shù)據(jù)相同而帶來(lái)的選擇性歧視答案:避免用戶記住答案,影響實(shí)驗(yàn)結(jié)果“編碼”交互主要是為了完成什么任務(wù):

A:為數(shù)據(jù)提供提供不同的可視化視角B:呈現(xiàn)不同的數(shù)據(jù)子集C:篩選并過(guò)濾數(shù)據(jù)D:改變視覺(jué)外觀以呈現(xiàn)不同的可視化表達(dá)形式答案:改變視覺(jué)外觀以呈現(xiàn)不同的可視化表達(dá)形式在MySQL中,創(chuàng)建名為“education”的數(shù)據(jù)庫(kù)的正確語(yǔ)句是()?

A:BUILDDATABASEeducationB:CREATEDATABASEeducationC:CREATEeducationD:BUILDeducation答案:CREATEDATABASEeducation數(shù)據(jù)標(biāo)準(zhǔn)化(Standardization)和規(guī)范化(Normalization)處理屬于數(shù)據(jù)清理中的()。

A:數(shù)據(jù)轉(zhuǎn)換B:數(shù)據(jù)解析C:數(shù)據(jù)審計(jì)D:數(shù)據(jù)填充答案:數(shù)據(jù)轉(zhuǎn)換一種病毒感染了1.8%的人口。當(dāng)這種病毒確實(shí)存在時(shí),測(cè)試可以在95%的情況下檢測(cè)到它,但當(dāng)病毒不存在時(shí),它會(huì)在3%的情況下返回假陽(yáng)性。如果從這個(gè)人群中隨機(jī)挑選的一個(gè)人被檢測(cè)出病毒陽(yáng)性,那么這個(gè)人被感染的概率是多少?

A:66%B:37%C:63%D:34%答案:37%假設(shè)你的輸入是300x300色(RGB)圖像,并且使用了一個(gè)卷積層,其中包含100個(gè)filter,每個(gè)filter為5x5。該隱藏層有多少個(gè)參數(shù)(包括偏置參數(shù))?

A:7600B:2501C:7500D:2600答案:7600一名目擊者聲稱,一輛黑色轎車(chē)卷入了一起夜間事故。警方知道,在夜間,目擊者識(shí)別黑色汽車(chē)的正確率為90%,但有30%的時(shí)間將其他顏色的汽車(chē)錯(cuò)認(rèn)為黑色。如果城市中有8%的汽車(chē)是黑色的,那么一輛黑色的汽車(chē)真的發(fā)生事故的概率是多少?

A:0.7931B:0.6200C:0.0845D:0.2069答案:0.2069當(dāng)?shù)竭_(dá)ConvNet的更深層時(shí),通常會(huì)看到以下哪項(xiàng)?

A:nH和nW減小,而nC增加B:nH和nW減小,而nC也減小C:nH和nW增大,而nC減小D:nH和nW增加,而nC也增加答案:nH和nW減小,而nC增加假設(shè)某個(gè)行業(yè)中有5%的公司歧視愛(ài)荷華州。如果一家公司歧視,它將永遠(yuǎn)不會(huì)從愛(ài)荷華州雇用人。假設(shè)有20名同等資格的申請(qǐng)人在該行業(yè)的公司中求職,其中6名來(lái)自愛(ài)荷華州。如果該公司從這組申請(qǐng)人中雇用了四人,但沒(méi)有人來(lái)自愛(ài)荷華州,那么該公司歧視的可能性是多少?

A:0.2030B:0.7970C:0.4905D:0.5095答案:0.2030MDS投影技術(shù)的設(shè)計(jì)原理是:

A:最大化高維空間中數(shù)據(jù)點(diǎn)的差異B:最小化高維空間中數(shù)據(jù)點(diǎn)的差異C:最大化數(shù)據(jù)點(diǎn)與數(shù)據(jù)點(diǎn)之間的距離在高、低維空間中的差異D:最小化數(shù)據(jù)點(diǎn)與數(shù)據(jù)點(diǎn)之間的距離在高、低維空間中的差異答案:最小化數(shù)據(jù)點(diǎn)與數(shù)據(jù)點(diǎn)之間的距離在高、低維空間中的差異在卷積神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)的引入是為了()

A:加入非線性因素等,將某些特征過(guò)濾映射出來(lái)B:加速訓(xùn)練C:防止過(guò)擬合D:梯度下降答案:加入非線性因素等,將某些特征過(guò)濾映射出來(lái)當(dāng)謊言因子>1時(shí),說(shuō)經(jīng)可視化設(shè)計(jì):

A:夸大了數(shù)據(jù)事實(shí)B:低估了數(shù)據(jù)事實(shí)C:正確表達(dá)了數(shù)據(jù)事實(shí)答案:夸大了數(shù)據(jù)事實(shí)以下等式是ResNet塊中的計(jì)算。上面的兩個(gè)空白是什么?a[l+2]=g(W[l+2]g(W[l+1]a[l]+b[l+1])+bl+2+_______)+_______

A:分別是0和a[l]B:分別是0和z[l+1],C:分別是z[l]和a[l]D:分別是a[l]和0答案:分別是a[l]和0數(shù)據(jù)墨水是指:

A:用于繪制數(shù)據(jù)可視化所消耗的筆墨總量B:用于呈現(xiàn)圖表中與數(shù)據(jù)相關(guān)部分的內(nèi)容所消耗的筆墨總量C:用于展現(xiàn)數(shù)據(jù)可視化圖表中有用信息所消耗的筆墨總量答案:用于呈現(xiàn)圖表中與數(shù)據(jù)相關(guān)部分的內(nèi)容所消耗的筆墨總量數(shù)據(jù)庫(kù)中的完整性約束不包括()。

A:日期完整性B:實(shí)體完整性C:自定義完整性D:參照完整性答案:日期完整性當(dāng)需要從中挑選一個(gè)特征來(lái)構(gòu)建決策樹(shù)模型時(shí),以下哪種準(zhǔn)則的最大化最合適()

A:P(Y|Xj)B:H(Y|Xj)C:H(Y)-P(Y)D:P(Y)-P(Y|Xj)E:H(Y)-H(Y|Xj)答案:H(Y)-H(Y;Xj)假設(shè)你選取了高Gamma值的徑向基核(RBF),這表示:

A:模型不會(huì)被數(shù)據(jù)點(diǎn)與超平面的距離影響B(tài):建模時(shí),模型只考慮離超平面近的點(diǎn)C:建模時(shí),模型會(huì)考慮到離超平面更遠(yuǎn)的點(diǎn)答案:模型不會(huì)被數(shù)據(jù)點(diǎn)與超平面的距離影響“具象與抽象”交互主要是為了完成什么任務(wù):

A:從不同的粒度呈現(xiàn)數(shù)據(jù)B:重新排序或重組視圖C:改變視覺(jué)外觀以呈現(xiàn)不同的可視化表達(dá)形式D:為數(shù)據(jù)提供提供不同的可視化視角答案:從不同的粒度呈現(xiàn)數(shù)據(jù)下面哪一項(xiàng)用決策樹(shù)法訓(xùn)練大量數(shù)據(jù)集最節(jié)約時(shí)間()

A:減少樹(shù)的深度B:增加樹(shù)的深度;增加學(xué)習(xí)率C:減少樹(shù)的深度;減少樹(shù)的個(gè)數(shù)D:增加學(xué)習(xí)率答案:減少樹(shù)的深度你有一個(gè)63x63x16的輸入大小,并將其與32個(gè)分別為7x7,stride為1的filter進(jìn)行卷積。您想使用“相同”的卷積。那么padding是?

A:2B:3C:7D:1答案:3假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會(huì)得到輸出「-0.0001」。X可能是以下哪一個(gè)激活函數(shù)?

A:tanhB:ReLUC:SIGMOID答案:tanh神經(jīng)網(wǎng)絡(luò)模型是受人腦的結(jié)構(gòu)啟發(fā)發(fā)明的。神經(jīng)網(wǎng)絡(luò)模型由很多的神經(jīng)元組成,每個(gè)神經(jīng)元都接受輸入,進(jìn)行計(jì)算并輸出結(jié)果,那么以下選項(xiàng)描述正確的是()。

A:每個(gè)神經(jīng)元只有一個(gè)單一的輸入和單一的輸出B:每個(gè)神經(jīng)元有多個(gè)輸入而只有一個(gè)單一的輸出C:每個(gè)神經(jīng)元有多個(gè)輸入和多個(gè)輸出D:每個(gè)神經(jīng)元只有一個(gè)單一的輸入而有多個(gè)輸出答案:每個(gè)神經(jīng)元有多個(gè)輸入和多個(gè)輸出以下哪個(gè)不屬于可視化創(chuàng)建的關(guān)鍵步驟?

A:可視化設(shè)計(jì)B:可視化渲染C:數(shù)據(jù)轉(zhuǎn)換D:可視化開(kāi)發(fā)答案:可視化開(kāi)發(fā)在格式塔法則中,哪一種法則下所展現(xiàn)的群組關(guān)系最為強(qiáng)烈:

A:近鄰原則B:相似原則C:連續(xù)性原則D:連通性準(zhǔn)則答案:連通性準(zhǔn)則MongoDB創(chuàng)建新數(shù)據(jù)庫(kù)“education”的正確語(yǔ)句是()。

A:usedatabaseeducationB:useeducationC:createdatabaseeducationD:createeducation答案:useeducation以下哪一項(xiàng)不屬于數(shù)值型可視化通道:

A:位置B:大小C:色溫D:色相答案:色相以下哪一項(xiàng)不可以用來(lái)做任務(wù)的衡量指標(biāo):

A:正確率B:用戶在完成任務(wù)時(shí)系統(tǒng)的延遲等待時(shí)間C:完成任務(wù)的時(shí)間D:用戶對(duì)任務(wù)結(jié)果的滿意度答案:用戶在完成任務(wù)時(shí)系統(tǒng)的延遲等待時(shí)間在word2vec算法中,你估計(jì)P(t|c),其中t是目標(biāo)單詞,c是上下文(context)單詞。t和c該如何從訓(xùn)練集當(dāng)中選擇?

A:c選擇直接在t前面的幾個(gè)單詞B:c選擇直接在t前面的一個(gè)單詞C:c應(yīng)該選擇在t之前的句子當(dāng)中的所有單詞D:c和t應(yīng)該相鄰答案:c和t應(yīng)該相鄰可以用來(lái)做可視化渲染的技術(shù)包括:

A:CVGB:HTML5CanvasC:WebGLD:SVG答案:SVG;HTML5Canvas;WebGL并行與分布式數(shù)據(jù)庫(kù)主要有哪幾種信息共享架構(gòu)?

A:無(wú)共享架構(gòu)B:共享磁盤(pán)架構(gòu)C:共享內(nèi)存架構(gòu)D:共享網(wǎng)絡(luò)架構(gòu)答案:共享內(nèi)存架構(gòu);共享磁盤(pán)架構(gòu);無(wú)共享架構(gòu)通常在ConvNet中看到以下哪些內(nèi)容?

A:多個(gè)POOL層,然后接CONV層B:多個(gè)CONV層,然后接POOL層C:最后幾層是FC層D:前幾層是FC層答案:多個(gè)CONV層,然后接POOL層;最后幾層是FC層為什么要對(duì)數(shù)據(jù)進(jìn)行可視化?

A:促進(jìn)數(shù)據(jù)的交流與溝通B:直觀展現(xiàn)信息C:幫助數(shù)據(jù)分析與推理答案:促進(jìn)數(shù)據(jù)的交流與溝通###幫助數(shù)據(jù)分析與推理###直觀展現(xiàn)信息下列操作哪些屬于關(guān)系數(shù)據(jù)庫(kù)的基本操作?

A:Insert操作B:Join操作C:Group操作D:Select操作答案:Select操作;Join操作;Group操作;Insert操作以下哪些是使用ConvNets的開(kāi)源實(shí)現(xiàn)的常見(jiàn)原因(無(wú)論是模型還是權(quán)重)?

A:在一個(gè)計(jì)算機(jī)視覺(jué)任務(wù)訓(xùn)練的模型通常可以用于執(zhí)行數(shù)據(jù)增強(qiáng),即使對(duì)于其他計(jì)算機(jī)視覺(jué)任務(wù)也是如此。B:一些在計(jì)算機(jī)視覺(jué)當(dāng)中贏得比賽所使用的技術(shù)(比如multiplecropattesttime)被廣泛應(yīng)用于convnet實(shí)際生產(chǎn)部署當(dāng)中。C:為一項(xiàng)計(jì)算機(jī)視覺(jué)任務(wù)訓(xùn)練的參數(shù)通常可用作對(duì)其他計(jì)算機(jī)視覺(jué)任務(wù)的預(yù)訓(xùn)練。D:這是實(shí)現(xiàn)復(fù)雜的ConvNet架構(gòu)的便捷方法。答案:這是實(shí)現(xiàn)復(fù)雜的ConvNet架構(gòu)的便捷方法。;為一項(xiàng)計(jì)算機(jī)視覺(jué)任務(wù)訓(xùn)練的參數(shù)通常可用作對(duì)其他計(jì)算機(jī)視覺(jué)任務(wù)的預(yù)訓(xùn)練??梢暬瘓D形符號(hào)包括哪些形式?

A:空間B:面C:線D:點(diǎn)答案:點(diǎn);線;面下列哪些屬于大數(shù)據(jù)的特征?

A:數(shù)據(jù)價(jià)值密度低B:數(shù)據(jù)量大C:數(shù)據(jù)生成速度快D:數(shù)據(jù)種類(lèi)多答案:數(shù)據(jù)價(jià)值密度低;數(shù)據(jù)量大;數(shù)據(jù)種類(lèi)多;數(shù)據(jù)生成速度快NoSQL數(shù)據(jù)庫(kù)主要可以分為哪幾類(lèi)?

A:圖數(shù)據(jù)庫(kù)B:鍵值數(shù)據(jù)庫(kù)C:文檔數(shù)據(jù)庫(kù)D:列數(shù)據(jù)庫(kù)答案:文檔數(shù)據(jù)庫(kù);圖數(shù)據(jù)庫(kù);列數(shù)據(jù)庫(kù);鍵值數(shù)據(jù)庫(kù)文檔數(shù)據(jù)庫(kù)的主要優(yōu)點(diǎn)包括()。

A:結(jié)構(gòu)靈活B:查詢性能高C:不需要預(yù)先定義表結(jié)構(gòu)D:具有統(tǒng)一的查詢語(yǔ)法答案:結(jié)構(gòu)靈活;不需要預(yù)先定義表結(jié)構(gòu)信息可視化中,動(dòng)畫(huà)設(shè)計(jì)需要遵守哪些準(zhǔn)則:

A:動(dòng)畫(huà)必須與其載體,即所對(duì)應(yīng)的可視化形式保持兼容B:動(dòng)畫(huà)的每個(gè)步驟必須有具體的含義,動(dòng)畫(huà)的產(chǎn)生必須有明確的原因C:一次只展示一個(gè)動(dòng)畫(huà);如果需要同時(shí)展示多個(gè)動(dòng)畫(huà),需要分階段展示答案:動(dòng)畫(huà)的每個(gè)步驟必須有具體的含義,動(dòng)畫(huà)的產(chǎn)生必須有明確的原因;一次只展示一個(gè)動(dòng)畫(huà);如果需要同時(shí)展示多個(gè)動(dòng)畫(huà),需要分階段展示;動(dòng)畫(huà)必須與其載體,即所對(duì)應(yīng)的可視化形式保持兼容分布式數(shù)據(jù)庫(kù)的主要特點(diǎn)有()。

A:數(shù)據(jù)集中性B:站點(diǎn)自治性C:物理分布性D:邏輯完整性答案:物理分布性;邏輯完整性;站點(diǎn)自治性構(gòu)造好的決策樹(shù)的關(guān)鍵在于如何選擇好的邏輯判斷或?qū)傩浴?/p>

A:錯(cuò)B:對(duì)答案:錯(cuò)決策樹(shù)的生成算法有ID3、CART和C4.5,其中C4.5是以信息增益作為特征劃分的標(biāo)準(zhǔn)的。

A:正確B:錯(cuò)誤答案:錯(cuò)誤劃分聚類(lèi)算法不具備全局目標(biāo)。

A:正確B:錯(cuò)誤答案:錯(cuò)誤可以將熵作為判斷聚類(lèi)有效性的內(nèi)部測(cè)度。

A:正確B:錯(cuò)誤答案:錯(cuò)誤在中介者數(shù)據(jù)集成模式中,中介者需要保存各個(gè)數(shù)據(jù)源的數(shù)據(jù)。

A:錯(cuò)誤B:正確答案:錯(cuò)誤基尼指數(shù)反映了從樣本集D中隨機(jī)抽取兩個(gè)樣本,其類(lèi)別標(biāo)記不一致的概率,因此越小越好。

A:對(duì)B:錯(cuò)答案:錯(cuò)CHAMELEON算法中既包含對(duì)圖的劃分也包含對(duì)子圖的合并。

A:錯(cuò)誤B:正確答案:正確聚類(lèi)是這樣的過(guò)程,它找出描述并區(qū)分?jǐn)?shù)據(jù)類(lèi)或概念的模型(或函數(shù)),以便能夠使用模型預(yù)測(cè)類(lèi)標(biāo)記未知的對(duì)象類(lèi)。

A:錯(cuò)B:對(duì)答案:錯(cuò)在KMEANS的訓(xùn)練過(guò)程中,可以選擇不同的K值,比較使絕對(duì)誤差標(biāo)準(zhǔn)較小的K值,結(jié)合聚類(lèi)業(yè)務(wù)的可解釋性,從而選擇合適的K值。

A:錯(cuò)B:對(duì)答案:對(duì)NewSQL數(shù)據(jù)庫(kù)保持了NoSQL數(shù)據(jù)庫(kù)的高可擴(kuò)展和高性能,同時(shí)保持了關(guān)系模型。

A:正確B:錯(cuò)誤答案:正確從點(diǎn)作為個(gè)體簇開(kāi)始,每一步合并兩個(gè)最接近的簇,這是一種分裂的層次聚類(lèi)方法。

A:對(duì)B:錯(cuò)答案:錯(cuò)技術(shù)進(jìn)步和應(yīng)用創(chuàng)新推動(dòng)了大數(shù)據(jù)的不斷發(fā)展。

A:正確B:錯(cuò)誤答案:正確MySQL是一個(gè)開(kāi)源數(shù)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論