![大數(shù)據(jù)理論考試(習(xí)題卷3)_第1頁(yè)](http://file4.renrendoc.com/view/a6a8dcb563de2d0214639ce053781ee3/a6a8dcb563de2d0214639ce053781ee31.gif)
![大數(shù)據(jù)理論考試(習(xí)題卷3)_第2頁(yè)](http://file4.renrendoc.com/view/a6a8dcb563de2d0214639ce053781ee3/a6a8dcb563de2d0214639ce053781ee32.gif)
![大數(shù)據(jù)理論考試(習(xí)題卷3)_第3頁(yè)](http://file4.renrendoc.com/view/a6a8dcb563de2d0214639ce053781ee3/a6a8dcb563de2d0214639ce053781ee33.gif)
![大數(shù)據(jù)理論考試(習(xí)題卷3)_第4頁(yè)](http://file4.renrendoc.com/view/a6a8dcb563de2d0214639ce053781ee3/a6a8dcb563de2d0214639ce053781ee34.gif)
![大數(shù)據(jù)理論考試(習(xí)題卷3)_第5頁(yè)](http://file4.renrendoc.com/view/a6a8dcb563de2d0214639ce053781ee3/a6a8dcb563de2d0214639ce053781ee35.gif)
版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
試卷科目:大數(shù)據(jù)理論考試大數(shù)據(jù)理論考試(習(xí)題卷3)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages大數(shù)據(jù)理論考試第1部分:?jiǎn)雾?xiàng)選擇題,共195題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.在回歸模型中,下列哪一項(xiàng)在權(quán)衡欠擬合(under-fitting)和過(guò)擬合(over-fitting)中影響最大()A)多項(xiàng)式階數(shù)B)更新權(quán)重w時(shí),使用的是矩陣求逆C)使用常數(shù)項(xiàng)D.使用梯度下降[單選題]2.()算法假設(shè)聚類(lèi)結(jié)構(gòu)能通過(guò)樣本分布的緊密程度確定A)原型聚類(lèi)B)密度聚類(lèi)C)層次聚[單選題]3.數(shù)據(jù)整合和分組的說(shuō)法,不正確的是()。A)數(shù)據(jù)連接可以用concat或merge函數(shù)B)axis=1表示軸向連接C)數(shù)據(jù)分組可以使用mean函數(shù)D)使用agg可以自定義多個(gè)聚合函數(shù)[單選題]4.一幅灰度級(jí)均勻分布的圖象,其灰度范圍在[0,255],則該圖象的信息量為:()A)0B)255C)6D)8[單選題]5.機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的關(guān)系是(__)。A)深度學(xué)習(xí)包含機(jī)器學(xué)習(xí)B)機(jī)器學(xué)習(xí)包含深度學(xué)習(xí)C)二者是獨(dú)立的D)二者相互促[單選題]6.關(guān)于Spark的說(shuō)法中,()是錯(cuò)誤的。A)采用內(nèi)存計(jì)算模式B)可利用多種語(yǔ)言編程C)主要用于批處理D)可進(jìn)行map()操作[單選題]7.pyplot.pie()所畫(huà)的圖像是()。A)箱線(xiàn)圖B)折線(xiàn)圖C)直方圖D)餅圖[單選題]8.下列關(guān)于文本分類(lèi)的說(shuō)法不正確的是()。A)文本分類(lèi)是指按照預(yù)先定義的主題類(lèi)別,由計(jì)算機(jī)自動(dòng)地為文檔集合中的每個(gè)文檔確定一個(gè)類(lèi)別B)文本分類(lèi)大致可分為基于知識(shí)工程的分類(lèi)系統(tǒng)和基于機(jī)器學(xué)習(xí)的分類(lèi)系統(tǒng)C)文本的向量形式一般基于詞袋模型構(gòu)建,該模型考慮了文本詞語(yǔ)的行文順序D)構(gòu)建文本的向量形式可以歸結(jié)為文本的特征選擇與特征權(quán)重計(jì)算兩個(gè)步驟[單選題]9.Python中定義私有屬性的方法是()。A)使用private關(guān)鍵字B)使用public關(guān)鍵字C)使用__XX__定義屬性名D)使用__XX定義屬性名[單選題]10.中心極限定理是噪聲抑制的中的統(tǒng)計(jì)原理,其內(nèi)容是:均值分布總會(huì)收斂于一個(gè)()。A)正態(tài)分布B)泊松分布C)多項(xiàng)式分布D)均值分[單選題]11.下面關(guān)于Hive的SequenceFile格式描述正確的是()A)SequenceFile是二進(jìn)制文件格式,以list的形式序列化到文件中B)SequenceFile存儲(chǔ)方式:列存儲(chǔ)C)SequenceFile不可分割、壓縮D)SequenceFile優(yōu)勢(shì)是文件和Hadoopapi中的MapFile是相互兼容[單選題]12.matplotlib中的step函數(shù)繪制的是什么圖()。A)階梯圖B)直方圖C)間斷條形圖D)堆積折線(xiàn)圖[單選題]13.以下屬于圖像處理的常用方法有()。A)圖像變換B)圖像編碼壓縮C)圖像增強(qiáng)和復(fù)原D)以上答案都正[單選題]14.MaxcomputeSQL提供了CASE…WHEN…,可以進(jìn)行條件判斷。表tbl中包含了字段(iD、bigint,agebigint),目前有三條紀(jì)錄,分別為(1,20),(2,30),(3,60),執(zhí)行以下SQL:selectid,casewhenage>60then?A?whenage>40then?B?whenage>20then?C?else?D?enD、fromtblwhereid=3;()是正確的執(zhí)行結(jié)果。A)AB)BC)CD)D[單選題]15.Spark支持的分布式部署方式中哪個(gè)是錯(cuò)誤的A)standaloneB)sparkonmesosC)sparkonYARND)Sparkonloca[單選題]16.選擇哪一個(gè)解作為輸出,將由學(xué)習(xí)算法的歸納偏好決定,常見(jiàn)的做法是引入()。A)線(xiàn)性回歸B)線(xiàn)性判別分析C)正則化項(xiàng)D)偏置項(xiàng)[單選題]17.從可視化視角看,可以將數(shù)據(jù)分為4種類(lèi)型,其中不包括()A)定類(lèi)數(shù)據(jù)B)定序數(shù)據(jù)C)定距數(shù)據(jù)D)定量數(shù)據(jù)[單選題]18.線(xiàn)性回歸的基本假設(shè)不包括哪個(gè)()。A)隨機(jī)誤差項(xiàng)是一個(gè)期望值為0的隨機(jī)變量B)對(duì)于解釋變量的所有觀測(cè)值,隨機(jī)誤差項(xiàng)有相同的方差C)隨機(jī)誤差項(xiàng)彼此相關(guān)D)解釋變量是確定性變量不是隨機(jī)變量,與隨機(jī)誤差項(xiàng)之間相互獨(dú)立[單選題]19.下列關(guān)于ResourceManager描述錯(cuò)誤的是()A)ResourceManager也叫JobTrackerB)ResourceManager負(fù)責(zé)調(diào)度DataNode上的工作C)ResourceManager只負(fù)責(zé)調(diào)度DataNode,具體的工作由ResourceManager上的TaskTracker執(zhí)行實(shí)際工作D)ResourceManager不只負(fù)責(zé)調(diào)度DataNode,還執(zhí)行實(shí)際的讀寫(xiě)任[單選題]20.plt.scatter()函數(shù)中的參數(shù)c表示的含義是()。A)x軸上的數(shù)值B)y軸上的數(shù)值C)散點(diǎn)圖中的標(biāo)記顏色D)標(biāo)記圖形內(nèi)容的標(biāo)簽文件[單選題]21.()是指幾組不同的數(shù)據(jù)中均存在一種趨勢(shì),但當(dāng)這些數(shù)據(jù)組組合在一起后,這種趨勢(shì)消失或反轉(zhuǎn)。A)辛普森悖論B)大數(shù)據(jù)悖論C)大數(shù)據(jù)偏見(jiàn)D)幸存者偏[單選題]22.TF-IDF中的TF是指()。A)某個(gè)詞在文檔中出現(xiàn)的次數(shù)B)文章的總次數(shù)C)某個(gè)詞在文檔中出現(xiàn)的次數(shù)/文章的總次數(shù)D)以上答案都不正[單選題]23.有關(guān)MapReduce的輸入輸出,說(shuō)法錯(cuò)誤的是()A)鏈接多個(gè)MapReduce作業(yè)時(shí),序列文件是首選格式B)FileInputFormat中實(shí)現(xiàn)的getSplits()可以把輸入數(shù)據(jù)劃分為分片,分片數(shù)目和大小任意定義C)想完全禁止輸出,可以使用NullOutputFormatD)每個(gè)reduce需將它的輸出寫(xiě)入自己的文件中,輸出無(wú)需分片[單選題]24.在情感分析任務(wù)中,其目的是將無(wú)結(jié)構(gòu)化的情感文本轉(zhuǎn)化成計(jì)算機(jī)容易識(shí)別和處理的結(jié)構(gòu)化文本,進(jìn)而供情感分析上層的研究和應(yīng)用服務(wù)的是()。A)情感信息檢索B)情感信息抽取C)情感信息分類(lèi)D)情感信息歸[單選題]25.關(guān)于bagging下列說(shuō)法錯(cuò)誤的是:()。A)各基分類(lèi)器之間有較強(qiáng)依賴(lài),不可以進(jìn)行并行訓(xùn)練B)最著名的算法之一是基于決策樹(shù)基分類(lèi)器的隨機(jī)森林C)當(dāng)訓(xùn)練樣本數(shù)量較少時(shí),子集之間可能有重疊D)為了讓基分類(lèi)器之間互相獨(dú)立,需要將訓(xùn)練集分為若干子集[單選題]26.下列哪項(xiàng)通常是集群的最主要瓶頸()。A)CPUB)網(wǎng)絡(luò)C)磁盤(pán)IOD)內(nèi)存[單選題]27.長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)通過(guò)什么來(lái)緩解梯度消失問(wèn)題()A)增加網(wǎng)絡(luò)深度B)減少網(wǎng)絡(luò)神經(jīng)元C)使用雙向的網(wǎng)絡(luò)結(jié)構(gòu)D)增加一個(gè)用來(lái)保存長(zhǎng)期狀態(tài)的單[單選題]28.下列模型與文本分類(lèi)相關(guān)的模型是()。A)決策樹(shù)B)神經(jīng)網(wǎng)絡(luò)C)KNN算法D)以上答案都正確[單選題]29.關(guān)于長(zhǎng)短時(shí)神經(jīng)網(wǎng)絡(luò)的敘述中錯(cuò)誤的是()。A)引用自循環(huán)思想B)產(chǎn)生梯度長(zhǎng)時(shí)間持續(xù)流動(dòng)的路徑C)積累的時(shí)間尺度不可以因輸入序列而改變D)可應(yīng)用于語(yǔ)音識(shí)別和機(jī)器翻[單選題]30.大數(shù)據(jù)服務(wù)(MaxCompute,原ODPS)中客戶(hù)表customer是一張非分區(qū)表,現(xiàn)在想要清空表的內(nèi)容然后重新上傳數(shù)據(jù),可以通過(guò):()。A)insertB)deleteC)truncateD)drop[單選題]31.有關(guān)數(shù)據(jù)倉(cāng)庫(kù)的開(kāi)發(fā)特點(diǎn),不正確的描述是()。A)數(shù)據(jù)倉(cāng)庫(kù)開(kāi)發(fā)要從數(shù)據(jù)出發(fā);B)數(shù)據(jù)倉(cāng)庫(kù)使用的需求在開(kāi)發(fā)出去就要明確;C)數(shù)據(jù)倉(cāng)庫(kù)的開(kāi)發(fā)是一個(gè)不斷循環(huán)的過(guò)程,是啟發(fā)式的開(kāi)發(fā);D)在數(shù)據(jù)倉(cāng)庫(kù)環(huán)境中,并不存在操作型環(huán)境中所固定的和較確切的處理流,數(shù)據(jù)倉(cāng)庫(kù)中數(shù)據(jù)分析和處理更靈活,且沒(méi)有固定的模式[單選題]32.數(shù)據(jù)科學(xué)處于哪三大領(lǐng)域的重疊之處()。A)數(shù)學(xué)與統(tǒng)計(jì)知識(shí)、黑客精神與技能、領(lǐng)域?qū)崉?wù)知識(shí)B)數(shù)據(jù)挖掘、黑客精神與技能、領(lǐng)域?qū)崉?wù)知識(shí)C)數(shù)學(xué)與統(tǒng)計(jì)知識(shí)、數(shù)據(jù)挖掘、領(lǐng)域?qū)崉?wù)知識(shí)D)數(shù)學(xué)與統(tǒng)計(jì)知識(shí)、黑客精神與技能、數(shù)據(jù)挖掘[單選題]33.以下不是開(kāi)源工具特點(diǎn)的是()。A)免費(fèi)B)可以直接獲取源代碼C)用戶(hù)可以修改源代碼并不加說(shuō)明用于自己的軟件中D)開(kāi)源工具一樣具有版權(quán)[單選題]34.()在劃分屬性時(shí)是在當(dāng)前結(jié)點(diǎn)的屬性集合中選擇一個(gè)最優(yōu)屬性。A)AdaBoostB)RFC)BaggingD)傳統(tǒng)決策樹(shù)[單選題]35.Spark比mapreduce快的原因不包括()A)park基于內(nèi)存迭代,而MapReduce基于磁盤(pán)迭代B)AG計(jì)算模型相比MapReduce更有效率C)park是粗粒度的資源調(diào)度,而MR是細(xì)粒度的資源調(diào)度。D)park支持交互式處理,MapReduce善于處理流計(jì)算。[單選題]36.決策樹(shù)中,同一路徑上的所有屬性之間是()關(guān)系。A)因果B)相關(guān)C)邏輯或D)邏輯[單選題]37.SDK是消費(fèi)者在調(diào)用API時(shí),需要在請(qǐng)求Header頭中添加身份認(rèn)證信息,而這個(gè)操作比較繁瑣,故我們?yōu)槭褂谜咛峁┝薙DK,簡(jiǎn)化用戶(hù)操作。目前華為SDK支持:()種語(yǔ)言的支持。A)7B)8C)9D)1[單選題]38.對(duì)于PCA說(shuō)法正確的是:()。1.我們須在使用PCA前標(biāo)準(zhǔn)化化數(shù)據(jù)2.我們應(yīng)該選擇使得模型有最大variance的主成分3.我們應(yīng)該選擇使得模型有最小variance的主成分4.我們可以使用PCA在低維度上做數(shù)據(jù)可視化A)1,2and4B)2and4C)3and4D)1and[單選題]39.可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有()。A)機(jī)器學(xué)習(xí)、對(duì)數(shù)回歸、關(guān)聯(lián)模式B)K均值法、SOM機(jī)器學(xué)習(xí)C)Apriori算法、FP-Tree算法D)RBF機(jī)器學(xué)習(xí)、K均值法、機(jī)器學(xué)[單選題]40.三維以上數(shù)組是以()的形式輸出的。A)按行輸出B)按矩陣輸出C)按矩陣列表輸出D)按字符串輸出[單選題]41.聚類(lèi)算法己經(jīng)默認(rèn)所有的記錄都是()的實(shí)體。A)相關(guān)聯(lián)B)有備份C)不獨(dú)立D)獨(dú)立[單選題]42.Numpy中確定隨機(jī)數(shù)生成種子使用以下哪個(gè)函數(shù)()。A)np.random()B)np.random.seed()C)np.uniform()D)np.eig()[單選題]43.在支持向量機(jī)中,核函數(shù)的主要作用是()。A)將低維空間中線(xiàn)性不可分的數(shù)據(jù)映射到高維空間,使其線(xiàn)性可分B)將高維空間中線(xiàn)性不可分的數(shù)據(jù)映射到低維空間,使其線(xiàn)性可分C)將高維空間中線(xiàn)性可分的數(shù)據(jù)映射到低維空間,使其線(xiàn)性不可分D)將低維空間中線(xiàn)性可分的數(shù)據(jù)映射到高維空間,使其線(xiàn)性不可[單選題]44.銳化(高通)濾波器的作用()。A)能消減或削弱傅立葉空間的低頻分量,但不影響高頻分量B)能消減或削弱傅立葉空間的高頻分量,但不影響低頻分量C)對(duì)傅立葉空間的低、高頻分量均有削弱或削除作用D)對(duì)傅立葉空間的低、高頻分量均有增強(qiáng)作[單選題]45.對(duì)于一個(gè)分類(lèi)任務(wù),如果開(kāi)始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)成0,下面哪個(gè)敘述是正確的()A)其他選項(xiàng)都不對(duì)B)沒(méi)啥問(wèn)題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開(kāi)始訓(xùn)練C)神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西D)神經(jīng)網(wǎng)絡(luò)不會(huì)開(kāi)始訓(xùn)練,因?yàn)闆](méi)有梯度改[單選題]46.已知數(shù)組trans_cnt[1,2,3,4],trans_cnt[2]獲取的結(jié)果為()A)1B)2C)3D)4[單選題]47.對(duì)于數(shù)據(jù)3,3,2,3,6,3,10,3,6,3,2.①這組數(shù)據(jù)的眾數(shù)是3;②這組數(shù)據(jù)的眾數(shù)與中位數(shù)的數(shù)值不相等;③這組數(shù)據(jù)的中位數(shù)與平均數(shù)的數(shù)值不相等;④這組數(shù)據(jù)的平均數(shù)與眾數(shù)的數(shù)值相等.其中正確結(jié)論的個(gè)數(shù)為()。A)1B)2C)3D)4[單選題]48.如下哪些不是最近鄰分類(lèi)器的特點(diǎn)()。A)它使用具體的訓(xùn)練實(shí)例進(jìn)行預(yù)測(cè),不必維護(hù)源自數(shù)據(jù)的模型B)分類(lèi)一個(gè)測(cè)試樣例開(kāi)銷(xiāo)很大C)最近鄰分類(lèi)器基于全局信息進(jìn)行預(yù)測(cè)D)可以生產(chǎn)任意形狀的決策邊[單選題]49.關(guān)于Sqoop的說(shuō)法,不正確的是()A)主要設(shè)計(jì)目的是在Hadoop與傳統(tǒng)數(shù)據(jù)庫(kù)之間進(jìn)行數(shù)據(jù)的ETL操作B)數(shù)據(jù)導(dǎo)入導(dǎo)出通過(guò)MapReduce完成C)Sqoop具備MapReduce的并行化和容錯(cuò)性D)Sqoop的Reduce操作速度更[單選題]50.一幅灰度均勻分布的圖像,其灰度范圍在[0,255],則該圖像的信息量為()。A)0B)6C)8D)25[單選題]51.如果你的數(shù)據(jù)有許多異常值,那么使用數(shù)據(jù)的均值與方差去做標(biāo)準(zhǔn)化就不行了,在preprocessing模塊中定義了哪個(gè)方法可以解決這個(gè)問(wèn)題()。A)normalizer()B)robust_scale()C)maxabs_scale()D)scale()[單選題]52.數(shù)據(jù)資產(chǎn)應(yīng)用以安全可控為前提,按照()的原則,落實(shí)安全與保密責(zé)任。A)誰(shuí)經(jīng)手,誰(shuí)使用,誰(shuí)負(fù)責(zé)B)誰(shuí)主管,誰(shuí)負(fù)責(zé)C)誰(shuí)使用,誰(shuí)主管,誰(shuí)負(fù)責(zé)D)誰(shuí)錄入,誰(shuí)使用,誰(shuí)負(fù)責(zé)[單選題]53.下面哪個(gè)不屬于數(shù)據(jù)的屬性類(lèi)型:()A)標(biāo)稱(chēng)B)序數(shù)C)區(qū)間D)相異[單選題]54.修改操作的語(yǔ)句updatestudentsets_name=?王軍?;該代碼執(zhí)行后的結(jié)果是A)只把姓名叫王軍的記錄進(jìn)行更新B)只把字段名s_name改成?王軍?C)表中的所有人姓名都更新為王軍D)更新語(yǔ)句不完整,不能執(zhí)[單選題]55.下列有關(guān)HDFS的容錯(cuò)機(jī)制描述錯(cuò)誤的是()。A)HDFS可以使用機(jī)架位感知的方法實(shí)現(xiàn)容錯(cuò)機(jī)制;B)HDFS可以使用基于erasurecode的方法實(shí)現(xiàn)容錯(cuò)機(jī)制;C)HDFS使用機(jī)架位感知的方法先把一份拷貝放入同機(jī)架上的機(jī)器,然后再拷貝一份到其他服務(wù)器;D)HS使用機(jī)架位感知的方法先把一份拷貝放入同機(jī)架上的機(jī)器,然后再拷貝一份到同機(jī)架機(jī)器的不同位置上[單選題]56.在一些算法中,為了進(jìn)行屬性之間的比較或運(yùn)算,需要把不同屬性的不同變量取值范圍變換成同一范圍,以免使得結(jié)果發(fā)生扭曲,偏向取值范圍大的變量。這一過(guò)程稱(chēng)為()。A)合并B)數(shù)據(jù)聚合C)歸一化D)數(shù)據(jù)處理[單選題]57.對(duì)數(shù)值型輸出,最常見(jiàn)的結(jié)合策略是()。A)投票法B)平均法C)學(xué)習(xí)法D)排序法[單選題]58.()是數(shù)據(jù)庫(kù)管理系統(tǒng)運(yùn)行的基本工作單位。A)事務(wù)B)數(shù)據(jù)倉(cāng)庫(kù)C)數(shù)據(jù)單元D)數(shù)據(jù)分析[單選題]59.如果使用線(xiàn)性回歸模型,下列說(shuō)法正確的是()A)檢查異常值是很重要的,因?yàn)榫€(xiàn)性回歸對(duì)離群效應(yīng)很敏感B)線(xiàn)性回歸分析要求所有變量特征都必須具有正態(tài)分布C)線(xiàn)性回歸假設(shè)數(shù)據(jù)中基本沒(méi)有多重共線(xiàn)性D)以上說(shuō)法都不對(duì)[單選題]60.pyplot.plot()函數(shù)輸入?yún)?shù)'b'修改的是圖形的()。A)位置B)大小C)形狀D)顏色[單選題]61.IDLE環(huán)境的退出命令是()。A)exit()B)回車(chē)鍵C)close()D)esc()[單選題]62.關(guān)于L1、L2正則化下列說(shuō)法正確的是()A)L2正則化能防止過(guò)擬合,提升模型的泛化能力,但L1做不到這點(diǎn)B)L2正則化技術(shù)又稱(chēng)為L(zhǎng)assoRegularizationC)L1正則化得到的解更加稀疏D)L2正則化得到的解更加稀疏[單選題]63.關(guān)于MaxcomputeSQL,說(shuō)法不正確的是:()。A)在很多方面并不具備數(shù)據(jù)庫(kù)的特征B)適用于海量數(shù)據(jù),實(shí)時(shí)性要求不高的場(chǎng)合C)每個(gè)作業(yè)的準(zhǔn)備,提交等階段要花費(fèi)較長(zhǎng)時(shí)間D)大部分標(biāo)準(zhǔn)SQL的功能都支持,但是不支持窗口函數(shù)、rownum等[單選題]64.關(guān)于Hive中窗口函數(shù)下列描述正確的是()A)LAG用于統(tǒng)計(jì)窗口內(nèi)往上第n行值,空不計(jì)入窗口中B)LEAD用于統(tǒng)計(jì)窗口內(nèi)往下第n行值,空不計(jì)入窗口中C)FIRST_VALUE取分組排序后,截止到當(dāng)前行的第一個(gè)值D)LAST_VALUE取分組不需要指定ORDERBY后,截止到當(dāng)前行的最后一個(gè)[單選題]65.Relief是為()問(wèn)題設(shè)計(jì)的。A)二分類(lèi)B)多分類(lèi)C)回歸D)降[單選題]66.下面()負(fù)責(zé)MapReduce任務(wù)調(diào)度。A)NameNodeB)JobtrackerC)TaskTrackerD)secondaryNameNode[單選題]67.以下關(guān)于HBase的表述中錯(cuò)誤的是()。A)HBase是一個(gè)構(gòu)建在HDFS上的分布式列存儲(chǔ)系統(tǒng)B)HBase面向列(族)的存儲(chǔ)和權(quán)限控制,列(族)獨(dú)立檢索C)Hbase中提供了字符串、整型、浮點(diǎn)型等多種數(shù)據(jù)類(lèi)型D)Hbase的每個(gè)表可由多個(gè)列族--ColumnFamily組成[單選題]68.GatedRecurrentunits的出現(xiàn)可以幫助防止在RNN中的梯度消失問(wèn)題。(__)A)可以這么理解B)不可以這么理解C)不適用于RNN模型D)以上答案都不正[單選題]69.以下選項(xiàng)中,不屬于函數(shù)的作用的是()。A)提高代碼執(zhí)行速度B)降低編程復(fù)雜度C)增強(qiáng)代碼可讀性D)復(fù)用代碼[單選題]70.以下算法中不屬于基于深度學(xué)習(xí)的圖像分割算法是()。A)FCNB)deeplabC)Mask-RND)kN[單選題]71.以下說(shuō)法不正確的是()。A)卷積神經(jīng)網(wǎng)絡(luò)主要用于目標(biāo)識(shí)別、圖像分割等方面B)循環(huán)神經(jīng)網(wǎng)絡(luò)主要用于處理序列數(shù)據(jù)C)長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)主要用于處理序列數(shù)據(jù)D)長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)是和循環(huán)神經(jīng)網(wǎng)絡(luò)完全不同的一種新型神經(jīng)網(wǎng)[單選題]72.參數(shù)估計(jì)又可分為()和區(qū)間估計(jì)。A)線(xiàn)型估計(jì)B)點(diǎn)估計(jì)C)回歸估計(jì)D)二維分[單選題]73.假設(shè)我們擁有一個(gè)已完成訓(xùn)練的、用來(lái)解決車(chē)輛檢測(cè)問(wèn)題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車(chē)和卡車(chē)的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測(cè)出每種車(chē)輛的名稱(chēng)(車(chē)輛共有10種類(lèi)型)?,F(xiàn)在想要使用這個(gè)模型來(lái)解決另外一個(gè)問(wèn)題,問(wèn)題數(shù)據(jù)集中僅包含一種車(chē)(福特野馬)而目標(biāo)變?yōu)槎ㄎ卉?chē)輛在照片中的位置()。A)除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B)對(duì)神經(jīng)網(wǎng)絡(luò)中的最后幾層進(jìn)行微調(diào),同時(shí)將最后一層(分類(lèi)層)更改為回歸層C)使用新的數(shù)據(jù)集重新訓(xùn)練模型D)所有答案均不[單選題]74.假如使用邏輯回歸對(duì)樣本進(jìn)行分類(lèi),得到訓(xùn)練樣本的準(zhǔn)確率和測(cè)試樣本的準(zhǔn)確率。現(xiàn)在,在數(shù)據(jù)中增加一個(gè)新的特征,其它特征保持不變。然后重新訓(xùn)練測(cè)試。則下列說(shuō)法正確的是()。A)訓(xùn)練樣本準(zhǔn)確率一定會(huì)降低B)訓(xùn)練樣本準(zhǔn)確率一定增加或保持不變C)測(cè)試樣本準(zhǔn)確率一定會(huì)降低D)測(cè)試樣本準(zhǔn)確率一定增加或保持不[單選題]75.下列關(guān)于大數(shù)據(jù)的分析理念的說(shuō)法中,錯(cuò)誤的是()。A)在數(shù)據(jù)基礎(chǔ)上傾向于全體數(shù)據(jù)而不是抽樣數(shù)據(jù)B)在分析方法上更注重相關(guān)分析而不是因果分析C)在分析效果上更追求效率而不是絕對(duì)精確D)在數(shù)據(jù)規(guī)模上強(qiáng)調(diào)相對(duì)數(shù)據(jù)而不是絕對(duì)數(shù)據(jù)[單選題]76.a=np.arange(1,13,1).reshape(3,4),np.mean(a,axis=0)的輸出結(jié)果是()。A)[[1,2,3,4],[5,6,7,8],[9,10,11,12]]B)6.5C)[5,6,7,8]D)[2.5,6.5,10.5][單選題]77.下列選項(xiàng)中,正確定義了一個(gè)字典的是()A)a=[?a?,1,?b?,2,?c?,3]B)b=(?a?,1,?b?,2,?c?,3)C)c={?a?,1,?b?,2,?c?,3}D)d={?a?:1,?b?:2,?c?:3}[單選題]78.Python中用于生成隨機(jī)數(shù)的模塊是random,以下描述錯(cuò)誤的是()。A)random.random():生成一個(gè)0-1之間的隨機(jī)浮點(diǎn)數(shù)B)random.uniform(a,b):生成[a,b]之間的浮點(diǎn)數(shù)C)random.randint(a,b):生成[a,b]之間的整數(shù)D)random.choice(sequence):隨機(jī)生成任意一個(gè)整數(shù)[單選題]79.Apriori算法的核心思想是()。A)通過(guò)頻繁項(xiàng)集生成和情節(jié)的向下封閉檢測(cè)兩個(gè)階段來(lái)挖掘候選集B)通過(guò)候選集生成和情節(jié)的向下封閉檢測(cè)兩個(gè)階段來(lái)挖掘頻繁項(xiàng)集C)數(shù)據(jù)集中包含該項(xiàng)集的數(shù)據(jù)所占數(shù)據(jù)集的比例,度量一個(gè)集合在原始數(shù)據(jù)中出現(xiàn)的頻率D)若某條規(guī)則不滿(mǎn)足最小置信度要求,則該規(guī)則的所有子集也不滿(mǎn)足最小置信度要求[單選題]80.例如Hive建表語(yǔ)句中storedas的作用是指定表的格式,下列不屬于Hive表的常見(jiàn)格式的是()createtableifnotexiststextfile_table(ueseridSTRING,movieidSTRING,ratingSTRING,tsSTRING)rowformateddelimatedfieldsterminatedby'\t'storedastextfile;A)PigTableB)ORCC)PARQUETD)TEXTFIL[單選題]81.關(guān)于Apriori算法的原理中敘述錯(cuò)誤的是()。A)riori算法通常使用先驗(yàn)知識(shí)或者假設(shè)B)如果某個(gè)項(xiàng)集是頻繁的,那么它的所有子集也是頻繁的C)如果一個(gè)項(xiàng)集是非頻繁集,那么它的所有超集也是非頻繁的Apriori算法不可以用來(lái)發(fā)現(xiàn)頻繁D)Apriori算法不可以用來(lái)發(fā)現(xiàn)頻繁集[單選題]82.執(zhí)行以下代碼段Motorcycles=['honda','yamaha','suzuki']Motorcycles.append('ducati')Motorcycles.pop(1)Print(motorcycles)時(shí),輸出為()。A)['honda','yamaha','suzuki']B)['yamaha','suzuki','ducati']C)['honda','yamaha','suzuki','ducati']D)['honda','suzuki','ducati'][單選題]83.下面關(guān)于詞袋模型說(shuō)法錯(cuò)誤的是()。A)詞袋模型使用一個(gè)多重集對(duì)文本中出現(xiàn)的單詞進(jìn)行編碼B)詞袋模型不考慮詞語(yǔ)原本在句子中的順序C)詞袋模型可以應(yīng)用于文檔分類(lèi)和檢索,同時(shí)受到編碼信息的限制D)詞袋模型產(chǎn)生的靈感來(lái)源于包含類(lèi)似單詞的文檔經(jīng)常有相似的含[單選題]84.Matplotlib的主要功能是()。A)科學(xué)計(jì)算B)繪圖庫(kù)C)爬取網(wǎng)站數(shù)據(jù)、提取結(jié)構(gòu)性數(shù)據(jù)D)機(jī)器學(xué)習(xí)庫(kù)[單選題]85.下列說(shuō)法錯(cuò)誤的是()A)當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),梯度下降算法的解一般就是全局最優(yōu)解B)進(jìn)行PCA降維時(shí),需要計(jì)算協(xié)方差矩C)沿負(fù)梯度的方向一定是最優(yōu)的方向D)利用拉格朗日函數(shù)能解帶約束的優(yōu)化問(wèn)題[單選題]86.圖像分割方法主要可以分為哪幾類(lèi)()。A)基于閾值的分割方法;B)基于區(qū)域的分割方法;C)基于邊緣的分割方法;D)以上答案都正[單選題]87.DWS支持實(shí)例故障發(fā)生時(shí),業(yè)務(wù)不中斷。因此()。A)不用擔(dān)心實(shí)例故障帶來(lái)的影響,無(wú)需處理故障問(wèn)題。B)在實(shí)例恢復(fù)或主備切換成功之后,能夠繼續(xù)提供服務(wù)。C)不用擔(dān)心CN故障導(dǎo)致SQL執(zhí)行失敗,保證SQL100%執(zhí)行成功。D)實(shí)例故障之后GaussDB200會(huì)自動(dòng)重啟,無(wú)需人為關(guān)注[單選題]88.關(guān)于數(shù)據(jù)產(chǎn)品,以下說(shuō)法錯(cuò)誤的是()。A)數(shù)據(jù)產(chǎn)品的存在形式是數(shù)據(jù)集B)與傳統(tǒng)物質(zhì)產(chǎn)品不同的是,數(shù)據(jù)產(chǎn)品的消費(fèi)者不僅限于人類(lèi)用戶(hù).還可以是計(jì)算機(jī)以及其他軟硬件系統(tǒng)C)數(shù)據(jù)產(chǎn)品不僅包括數(shù)據(jù)科學(xué)項(xiàng)目的最終產(chǎn)品,也包括其中間產(chǎn)品以及副產(chǎn)品D)數(shù)據(jù)產(chǎn)品開(kāi)發(fā)涉及數(shù)據(jù)科學(xué)項(xiàng)目流程的全部活動(dòng)[單選題]89.Hadoop中,()執(zhí)行文件系統(tǒng)命名空間操作。A)DatanodeB)NamenodeC)JobTrackerD)TaskTracker[單選題]90.下列哪一種架構(gòu)有反饋連接(__)。A)循環(huán)神經(jīng)網(wǎng)絡(luò)B)卷積神經(jīng)網(wǎng)絡(luò)C)受限玻爾茲曼機(jī)D)都不[單選題]91.卷積神經(jīng)網(wǎng)絡(luò)(convolutionalneuralnetwork,CNN),是一種專(zhuān)門(mén)用來(lái)處理具有類(lèi)似(__)的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。A)網(wǎng)格結(jié)構(gòu)B)數(shù)組結(jié)構(gòu)C)序列結(jié)構(gòu)D)表格結(jié)[單選題]92.Spark中引入RDD概念的目的是()。A)數(shù)據(jù)存儲(chǔ)B)數(shù)據(jù)查重C)提升容錯(cuò)能力D)增強(qiáng)數(shù)據(jù)一致[單選題]93.特征工程的目的是()。A)找到最合適的算法B)得到最好的輸入數(shù)據(jù)C)減低模型復(fù)雜度D)加快計(jì)算速度[單選題]94.在GraphBase上,創(chuàng)建一個(gè)新的圖,必須使用的參數(shù)是?A)edgeB)graphNameC)labelD)verte[單選題]95.()算法要求基學(xué)習(xí)器能對(duì)特定的數(shù)據(jù)分布進(jìn)行學(xué)習(xí),在訓(xùn)練過(guò)程的每一輪中,根據(jù)樣本分布為每個(gè)訓(xùn)練樣本重新賦予一個(gè)權(quán)重。A)BoostingB)支持向量機(jī)C)貝葉斯分類(lèi)器D)神經(jīng)網(wǎng)[單選題]96.情感信息歸納常見(jiàn)的存在形式是()。A)語(yǔ)料庫(kù)B)情感文摘C)情感評(píng)論D)情感傾[單選題]97.使用似然函數(shù)的目的是()。A)求解目標(biāo)函數(shù)B)得到最優(yōu)數(shù)據(jù)樣本C)找到最適合數(shù)據(jù)的參數(shù)D)改變目標(biāo)函數(shù)分[單選題]98.字符串的strip方法的作用是()A)刪除字符串頭尾指定的字符B)刪除字符串末尾的指定字符C)刪除字符串頭部的指定字符D)通過(guò)指定分隔符對(duì)字符串切片[單選題]99.在MapReduce中,為了發(fā)現(xiàn)Worker故障,Master周期性進(jìn)行(__)操作。A)JoinB)PingC)CheckD)Connect[單選題]100.假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型,可能遇到一個(gè)問(wèn)題,Logistic回歸需要很長(zhǎng)時(shí)間才能訓(xùn)練,如果對(duì)相同的數(shù)據(jù)進(jìn)行邏輯回歸,如何花費(fèi)更少的時(shí)間,并給出比較相似的精度()。A)降低學(xué)習(xí)率,減少迭代次數(shù)B)降低學(xué)習(xí)率,增加迭代次數(shù)C)提高學(xué)習(xí)率,增加迭代次數(shù)D)增加學(xué)習(xí)率,減少迭代次[單選題]101.下面代碼運(yùn)行后,a、b、c、d四個(gè)變量的值,描述錯(cuò)誤的是()。ImportcopyA=[1,2,3,4,['a','b']]B=aC=copy.copy(a)D=copy.deepcopy(a)A\append(5)A[4]\append('c')A)a==[1,2,3,4,['a','b','c'],5]B)b==[1,2,3,4,['a','b','c'],5]C)c==[1,2,3,4,['a','b','c']]D)d==[1,2,3,4,['a','b',?c?]][單選題]102.數(shù)據(jù)產(chǎn)品的定義是()。A)數(shù)據(jù)產(chǎn)品是指能夠供給市場(chǎng),被人們使用和消費(fèi),并能滿(mǎn)足人們某種需求的任何東西B)數(shù)據(jù)產(chǎn)品是可以發(fā)揮數(shù)據(jù)價(jià)值去輔助用戶(hù)更優(yōu)的做決策(甚至行動(dòng))的一種產(chǎn)品形式C)數(shù)據(jù)產(chǎn)品是指為了滿(mǎn)足自身的需要,通過(guò)科技發(fā)明或經(jīng)驗(yàn)總結(jié)而形成的技術(shù)D)數(shù)據(jù)產(chǎn)品是是數(shù)據(jù)科學(xué)的結(jié)果,創(chuàng)造了新的實(shí)物形態(tài)和使用價(jià)值的產(chǎn)品。[單選題]103.Spark的劣勢(shì)()A)運(yùn)算速度快B)業(yè)務(wù)實(shí)現(xiàn)需要較少代碼C)提供很多現(xiàn)成函數(shù)D)需要更多機(jī)器內(nèi)[單選題]104.關(guān)于列表的說(shuō)法,描述有錯(cuò)誤的是()。A)list是一個(gè)有序集合,沒(méi)有固定大小B)list可以存放任意類(lèi)型的元素C)使用list時(shí),其下標(biāo)可以是負(fù)數(shù)D)list是不可變的數(shù)據(jù)類(lèi)型[單選題]105.()屬于Spark框架中的可擴(kuò)展機(jī)器學(xué)習(xí)庫(kù)。A)MLibB)GraphXC)StreamingD)SparkSQL[單選題]106.下列關(guān)于GaussDB200的數(shù)據(jù)類(lèi)型轉(zhuǎn)換說(shuō)法正確的是()?A)如果需要保留空字符串時(shí),需要新建兼容性為Postgres的數(shù)據(jù)庫(kù)。B)不同數(shù)據(jù)類(lèi)型比較或轉(zhuǎn)換時(shí),使用強(qiáng)制類(lèi)型轉(zhuǎn)換,以防隱式類(lèi)型轉(zhuǎn)換結(jié)果與預(yù)期不符。C)在ORACLE兼容模式下,在導(dǎo)入數(shù)據(jù)時(shí),空字符串會(huì)自動(dòng)過(guò)濾。D)在查詢(xún)中,對(duì)常量不需要顯式指定數(shù)據(jù)類(lèi)型[單選題]107.pyplot.title()的作用是()。A)繪制垂直線(xiàn)B)為圖設(shè)置標(biāo)題C)為圖添加文本D)繪制互相關(guān)[單選題]108.關(guān)于數(shù)據(jù)清洗,不正確的說(shuō)法是()。A)單數(shù)據(jù)源,主鍵取值不能重復(fù)B)多數(shù)據(jù)源會(huì)存在數(shù)據(jù)重復(fù),單位不一致的問(wèn)題C)連續(xù)型數(shù)據(jù)不存在冗余問(wèn)題D)缺失值可以采用刪除和填補(bǔ)等方法處理[單選題]109.下列關(guān)于TF-IDF說(shuō)法正確的是()A)該值與特征項(xiàng)在文檔中出現(xiàn)的頻率成反比B)該值與特征項(xiàng)在文檔中出現(xiàn)的頻率成正比C)該值與在整個(gè)語(yǔ)料庫(kù)中出現(xiàn)該特征項(xiàng)的文檔庫(kù)成正比D)該值與特征項(xiàng)在文檔中出現(xiàn)的頻率無(wú)[單選題]110.哪種聚類(lèi)方法采用概率模型來(lái)表達(dá)聚類(lèi)()。A)K-meansB)LVQC)DBSCAND)高斯混合聚類(lèi)[單選題]111.Hadoop中combiner()函數(shù)的功能是()。A)數(shù)據(jù)排序B)數(shù)據(jù)標(biāo)記C)數(shù)據(jù)分析D)數(shù)據(jù)合并[單選題]112.Numpy.array數(shù)組的簡(jiǎn)稱(chēng)是()。A)arrayB)nparrayC)NdarrayD)pyarray[單選題]113.一幅數(shù)字圖像是()。A)一個(gè)觀測(cè)系統(tǒng)B)一個(gè)由許多像素排列而成的實(shí)體C)一個(gè)2-D數(shù)組中的元素D)一個(gè)3-間中的場(chǎng)[單選題]114.對(duì)于線(xiàn)性回歸模型,包括附加變量在內(nèi),以下的可能正確的是()。1)R-Squared和AdjustedR-squared都是遞增的2)R-Squared是常量的,AdjustedR-squared是遞增的3)R-Squared是遞減的,AdjustedR-squared也是遞減的4)R-Squared是遞減的,AdjustedR-squared是遞增的A)1和2B)1和3C)2和4D)以上都不是[單選題]115.()表達(dá)了在當(dāng)前任務(wù)上任何學(xué)習(xí)算法所能達(dá)到的期望泛化誤差的下界,即刻畫(huà)了學(xué)習(xí)問(wèn)題本身的難度。A)偏差B)方差C)噪聲D)泛化誤差[單選題]116.給定一個(gè)長(zhǎng)度為n的不完整單詞序列,我們希望預(yù)測(cè)下一個(gè)字母是什么。比如輸入是predictio(9個(gè)字母組成),希望預(yù)測(cè)第十個(gè)字母是什么。下面哪種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)適用于解決這個(gè)工作()A)循環(huán)神經(jīng)網(wǎng)絡(luò)B)全連接神經(jīng)網(wǎng)絡(luò)C)受限波爾茲曼機(jī)D)卷積神經(jīng)網(wǎng)[單選題]117.大數(shù)據(jù)計(jì)算服務(wù)(MaxCompute,原ODPS)中的用戶(hù)表dim_user是一張非分區(qū)表,另外有一部分新增用戶(hù)的數(shù)據(jù)存在user_delta表中,兩張表的結(jié)構(gòu)相同,為了在dim_user表中得到全量的用戶(hù)數(shù)據(jù),可以采用()方式A)select*fromuser_delta、intodim_userB)insertintodim_userselect*fromuser_deltaunionallselect*fromdim_userC)insertoverwritetabledim_userselect*fromuser_deltaD)insertintotabledim_userselect*fromuser_delta[單選題]118.數(shù)據(jù)庫(kù)服務(wù)器、數(shù)據(jù)庫(kù)和表的關(guān)系,正確的說(shuō)法是A)一個(gè)數(shù)據(jù)庫(kù)服務(wù)器只能管理一個(gè)數(shù)據(jù)庫(kù),一個(gè)數(shù)據(jù)庫(kù)只能包含一個(gè)表B)一個(gè)數(shù)據(jù)庫(kù)服務(wù)器可以管理多個(gè)數(shù)據(jù)庫(kù),一個(gè)數(shù)據(jù)庫(kù)可以包含多個(gè)表C)一個(gè)數(shù)據(jù)庫(kù)服務(wù)器只能管理一個(gè)數(shù)據(jù)庫(kù),一個(gè)數(shù)據(jù)庫(kù)可以包含多個(gè)表D)一個(gè)數(shù)據(jù)庫(kù)服務(wù)器可以管理多個(gè)數(shù)據(jù)庫(kù),一個(gè)數(shù)據(jù)庫(kù)只能包含一個(gè)[單選題]119.正則化是將樣本在向量空間模型上的一個(gè)轉(zhuǎn)換,經(jīng)常被使用在分類(lèi)與聚類(lèi)中,正則化在preprocessing模塊中如何實(shí)現(xiàn)()。A)preprocessing.maxabs_scale()方法B)preprocessing.RobustScaler()方法C)preprocessing.normalize()方法D)preprocessing.Binarizer()方法[單選題]120.Flink的Checkpoint機(jī)制繪制的流應(yīng)用快照不能被保存在以下哪個(gè)位置?A)LocalB)HDFSC)TaskManager的內(nèi)存D)Jobmanager的內(nèi)[單選題]121.數(shù)據(jù)可視化的本質(zhì)是()。A)將數(shù)據(jù)轉(zhuǎn)換為知識(shí)B)將知識(shí)轉(zhuǎn)換為數(shù)據(jù)C)將數(shù)據(jù)轉(zhuǎn)換為信息D)將信息轉(zhuǎn)換為智慧[單選題]122.()是一種著名的密度聚類(lèi)算法,它基于一組鄰域參數(shù)來(lái)刻畫(huà)樣本的緊密程度。A)DBSCANB)原型聚類(lèi)C)密度聚類(lèi)D)層次聚類(lèi)[單選題]123.在IBMPASS中,聚類(lèi)算法分為分層聚類(lèi)、Kohonennetwork、K平均值聚類(lèi)和()四種。A)系統(tǒng)聚類(lèi)B)兩步聚類(lèi)C)模型聚類(lèi)D)其它聚類(lèi)[單選題]124.有三個(gè)表,它們的記錄行數(shù)分別是10行、2行和6行,三個(gè)表進(jìn)行交叉連接后,結(jié)果集中共有多少行數(shù)據(jù)A)18B)26C)不確定D)12[單選題]125.查找條件為:姓名為NULL的記錄A)WHERENAMENULLB)WHERENAMEISNULLC)WHERENAME=NULLD)WHERENAME==NUL[單選題]126.下列核函數(shù)特性描述錯(cuò)誤的是()。A)只要一個(gè)對(duì)稱(chēng)函數(shù)所對(duì)應(yīng)的核矩陣半正定,就能稱(chēng)為核函數(shù);B)核函數(shù)選擇作為支持向量機(jī)的最大變數(shù);C)核函數(shù)將影響支持向量機(jī)的性能;D)核函數(shù)是一種降維模型[單選題]127.已知一個(gè)數(shù)據(jù)集,n為特征數(shù),m為訓(xùn)練樣本數(shù),如果n較小,而且m大小中等(例如n在1-1000之間,而m在10-10000之間),則一般選擇什么核函數(shù)的支持向量機(jī)()。A)邏輯回歸模型B)不帶核的支持向量機(jī)C)高斯核的支持向量機(jī)D)多項(xiàng)式核的支持向量機(jī)[單選題]128.以下選項(xiàng)不屬于Flume的特點(diǎn)的是?A)支持定制各類(lèi)方數(shù)據(jù)發(fā)送B)支持結(jié)構(gòu)化、非結(jié)構(gòu)化數(shù)據(jù)源C)支持多級(jí)聯(lián)操作D)支持?jǐn)?shù)據(jù)實(shí)時(shí)檢索[單選題]129.Python使用()符號(hào)標(biāo)示注釋。A)&B)*C)#D)//[單選題]130.向量空間模型的缺陷不包括()。A)維度災(zāi)難B)模型稀疏性C)語(yǔ)義信息缺失D)無(wú)法計(jì)算文本相似度[單選題]131.圖像降噪一般可分為以下哪幾類(lèi)()。A)加性噪聲B)乘性噪聲C)量化噪聲D)以上答案都正[單選題]132.深度學(xué)習(xí)是當(dāng)前很熱門(mén)的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量的矩陣相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別為m?n,n?p,p?q,且mA)()CB)AC(C)A(BD)所有效率都相[單選題]133.當(dāng)訓(xùn)練樣本近似線(xiàn)性可分時(shí),通過(guò)(),學(xué)習(xí)一個(gè)()。A)硬間隔最大化線(xiàn)性可分支持向量機(jī)B)軟間隔最大化線(xiàn)性支持向量機(jī)C)硬間隔最大化線(xiàn)性支持向量機(jī)D)軟間隔最大化非線(xiàn)性支持向量機(jī)[單選題]134.()是M-P神經(jīng)元,也稱(chēng)為閾值邏輯單元。A)輸入層B)輸出層C)第一層D)第二[單選題]135.Kafka通過(guò)()避免任務(wù)重復(fù)執(zhí)行。A)實(shí)現(xiàn)記錄唯一鍵約束B(niǎo))對(duì)每個(gè)Producer分配唯一IDC)通過(guò)事務(wù)檢查是否重復(fù)執(zhí)行D)利用Redis的原子性去實(shí)[單選題]136.()是實(shí)現(xiàn)數(shù)據(jù)戰(zhàn)略的重要保障。A)數(shù)據(jù)管理B)數(shù)據(jù)分析C)數(shù)據(jù)治理D)數(shù)據(jù)規(guī)劃[單選題]137.大數(shù)據(jù)平臺(tái)構(gòu)建分布式文件系統(tǒng)、分布式數(shù)據(jù)倉(cāng)庫(kù)、非關(guān)系型數(shù)據(jù)庫(kù)、關(guān)系型數(shù)據(jù)庫(kù),實(shí)現(xiàn)各類(lèi)數(shù)據(jù)的集中存儲(chǔ)與統(tǒng)一管理,滿(mǎn)足()存儲(chǔ)需求。A)歷史數(shù)據(jù)B)離線(xiàn)數(shù)據(jù)C)實(shí)時(shí)數(shù)據(jù)D)多樣化數(shù)據(jù)[單選題]138.以下哪項(xiàng)方法不屬于漢語(yǔ)分詞方法()。A)雙向掃描法B)正向最大匹配法C)逐詞遍歷法D)詞向量匹配[單選題]139.下列不屬于MaxCompute項(xiàng)目空間的對(duì)象類(lèi)型為:()。A)表B)Jar包C)實(shí)例D)資源[單選題]140.通過(guò)HDFS的Shell命令來(lái)操作HDFS,表示刪除文件的命令是A)hdfsdfs-catB)hdtsdrs-rmC)hdfsdfs-mkdirD)hdfsdfs-put[單選題]141.()認(rèn)為,大數(shù)據(jù)時(shí)代的數(shù)據(jù)管理目標(biāo)不一定為理想和完美,一致性、可用性和分區(qū)容錯(cuò)性中的任何兩個(gè)特征的保證(爭(zhēng)取)可能導(dǎo)致另一個(gè)特征的損失(放棄)。A)CAP理論B)Base原則C)數(shù)據(jù)一致性理論D)大數(shù)據(jù)法則[單選題]142.標(biāo)準(zhǔn)BP算法的目標(biāo)是使訓(xùn)練集上的()為最小。A)累積方差B)累積誤差C)累積協(xié)方差D)累積偏[單選題]143.通常,()主要指的是關(guān)系數(shù)據(jù)庫(kù)中存儲(chǔ)、計(jì)算和管理的數(shù)據(jù)。A)結(jié)構(gòu)化數(shù)據(jù)B)海量數(shù)據(jù)C)半結(jié)構(gòu)化數(shù)據(jù)D)非結(jié)構(gòu)化數(shù)據(jù)[單選題]144.關(guān)于欠擬合(under-fitting),()是正確的。A)訓(xùn)練誤差較大,測(cè)試誤差較小B)訓(xùn)練誤差較小,測(cè)試誤差較大C)訓(xùn)練誤差較大,測(cè)試誤差較大D)訓(xùn)練誤差較小,測(cè)試誤差較[單選題]145.循環(huán)神經(jīng)網(wǎng)絡(luò)適合處理什么數(shù)據(jù)()A)節(jié)點(diǎn)數(shù)據(jù)B)序列數(shù)據(jù)C)結(jié)構(gòu)化數(shù)據(jù)D)圖像數(shù)[單選題]146.下列關(guān)于數(shù)據(jù)重組的說(shuō)法中,錯(cuò)誤的是()。A)數(shù)據(jù)重組是數(shù)據(jù)的重新生產(chǎn)和重新采集B)數(shù)據(jù)重組能夠使數(shù)據(jù)煥發(fā)新的光芒C)數(shù)據(jù)重組實(shí)現(xiàn)的關(guān)鍵在于多源數(shù)據(jù)融合和數(shù)據(jù)集成D)數(shù)據(jù)重組有利于實(shí)現(xiàn)新穎的數(shù)據(jù)模式創(chuàng)新[單選題]147.下列哪項(xiàng)選擇是直接把最終將要使用的學(xué)習(xí)器的性能作為特征子集的評(píng)價(jià)準(zhǔn)則()。A)嵌入式B)過(guò)濾式C)包裹式D)一體式[單選題]148.AUC是衡量()模型優(yōu)劣的一種評(píng)價(jià)指標(biāo)。A)回歸B)分類(lèi)C)二分類(lèi)D)聚類(lèi)[單選題]149.SparkJob默認(rèn)的調(diào)度模式是()。A)FIFOB)FAIRC)無(wú)D)運(yùn)行時(shí)指定[單選題]150.中文同義詞替換時(shí),常用到Word2Vec,以下說(shuō)法錯(cuò)誤的是()。A)Word2Vec基于概率統(tǒng)計(jì)B)Word2Vec結(jié)果符合當(dāng)前預(yù)料環(huán)境C)Word2Vec得到的都是語(yǔ)義上的同義詞D)Word2Vec受限于訓(xùn)練語(yǔ)料的數(shù)量和質(zhì)[單選題]151.結(jié)構(gòu)化數(shù)組不能使用以下哪種數(shù)據(jù)類(lèi)型創(chuàng)建()。A)元組列表B)字符串C)字典D)整數(shù)[單選題]152.Spark核心層主要關(guān)注()問(wèn)題。A)存儲(chǔ)B)計(jì)算C)傳輸D)連接[單選題]153.數(shù)據(jù)安全技術(shù)保護(hù)與信息系統(tǒng)?三同步?原則不包括以下哪項(xiàng)()。A)同步規(guī)劃B)同步建設(shè)C)同步使用D)同步運(yùn)維[單選題]154.關(guān)于K均值和DBSCAN的比較,以下說(shuō)法不正確的是()。A)K均值丟棄被它識(shí)別為噪聲的對(duì)象,而DBSC一般聚類(lèi)所有對(duì)象B)K均值使用簇的基于原型的概念,而DCAN使用基于密度的概念C)K均值很難處理非球形的簇和不同大小的簇,DBSN可以處理不同大小和不同形狀的簇D)K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是SCAN會(huì)合并有重疊的[單選題]155.文檔是待處理的數(shù)據(jù)對(duì)象,它由一組詞組成,這些詞在文檔中不計(jì)順序的額,例如一篇論文、一個(gè)網(wǎng)頁(yè)都可以看做一個(gè)文檔;這樣的表示方式稱(chēng)為()。A)語(yǔ)句B)詞袋C)詞海D)詞[單選題]156.關(guān)于Datanode的描述錯(cuò)誤的是()。A)Datanode負(fù)責(zé)處理文件系統(tǒng)客戶(hù)端的文件讀寫(xiě)請(qǐng)求B)Datanode進(jìn)行數(shù)據(jù)塊的創(chuàng)建、刪除和復(fù)制工作C)集群中的Datanode一般是一個(gè)節(jié)點(diǎn)一個(gè)D)文件的副本系數(shù)由tanode儲(chǔ)存[單選題]157.scipy.stats模塊中累積分布的反函數(shù)是()。A)pdfB)ppfC)rvsD)sf[單選題]158.如果x=5.5,則表達(dá)式x>0andx==int(x)的運(yùn)算結(jié)果為;表達(dá)式x>0orx==int(x)的運(yùn)算結(jié)果為()。A)TrueFalseB)FalseTrueC)TrueTrueD)FalseFalse[單選題]159.當(dāng)訓(xùn)練集特征非常多,而實(shí)例非常少的時(shí)候,可以采用()。A)sigmoid核的支持向量機(jī)B)不帶核的支持向量機(jī)C)高斯核的支持向量機(jī)D)多項(xiàng)式核的支持向量機(jī)[單選題]160.自然語(yǔ)言理解是人工智能的重要應(yīng)用領(lǐng)域,下面列舉中的()不是它要實(shí)現(xiàn)的目標(biāo)。A)理解別人講的話(huà)B)對(duì)自然語(yǔ)言表示的信息進(jìn)行分析概括或編輯C)欣賞音樂(lè)D)機(jī)器翻[單選題]161.例如數(shù)據(jù)庫(kù)中有A表,包括學(xué)生,學(xué)科,成績(jī)?nèi)齻€(gè)字段,如何查詢(xún)最高分>80的學(xué)科?A)SELECTMAX(成績(jī))FROMAGROUPBY學(xué)科HAVINGMAX(成績(jī))>80;B)SELECT學(xué)科FROMAGROUPBY學(xué)科HAVING成績(jī)>80;C)SELECT學(xué)科FROMAGROUPBY學(xué)科HAVINGMAX(成績(jī))>80;D)SELECT學(xué)科FROMAGROUPBY學(xué)科WHEREMAX(成績(jī))>80[單選題]162.下列關(guān)于MapReduce說(shuō)法不正確的是()。A)MapReduce是一種計(jì)算框架B)MapReduce來(lái)源于google的學(xué)術(shù)論文C)MapReduce程序只能用java語(yǔ)言編寫(xiě)D)MapReduce隱藏了并行計(jì)算的細(xì)節(jié),方便使用[單選題]163.MaxCompute中負(fù)責(zé)對(duì)等待提交的task進(jìn)行排序的模塊是:()。A)WorkerB)ExecutorC)SchedulerD)controller[單選題]164.數(shù)據(jù)故事話(huà)的?情景?不包括()。A)還原情景B)統(tǒng)計(jì)情景C)移植情景D)虛構(gòu)情[單選題]165.以下關(guān)于Hive內(nèi)置函數(shù)描述正確的是A)to.date(),獲取當(dāng)前日期B)descfunctionsupper:查看系統(tǒng)自帶的函數(shù)C)substr(),求字符串長(zhǎng)度D)trim():去除空字符串[單選題]166.以下不屬于大數(shù)據(jù)重要意義的是()。A)大數(shù)據(jù)成為推動(dòng)經(jīng)濟(jì)轉(zhuǎn)型發(fā)展的新動(dòng)力B)大數(shù)據(jù)成為重塑?chē)?guó)家競(jìng)爭(zhēng)優(yōu)勢(shì)的新機(jī)遇C)大數(shù)據(jù)成為提升政府治理能力的新途徑D)大數(shù)據(jù)會(huì)增加經(jīng)濟(jì)發(fā)展的成本[單選題]167.Python代碼中mpl.rcParams['font.sans-serif']=['SimHei']的作用是()。A)設(shè)置圖表中文顯示的字體B)設(shè)置圖表圖例的位置C)設(shè)置圖表標(biāo)題的顏色D)設(shè)置圖表標(biāo)題的位置[單選題]168.下列哪個(gè)不是RDD的緩存方法()A)persist()B)略C)che()Memory()D)以上答案都正[單選題]169.下面()屬于SVM應(yīng)用。A)文本和超文本分類(lèi)B)圖像分類(lèi)C)新文章聚類(lèi)D)以上均是[單選題]170.Flink的哪種機(jī)制可以保證task運(yùn)行失敗時(shí),其狀態(tài)能夠恢復(fù)?A)窗口B)有狀態(tài)處理C)事件時(shí)間D)檢查[單選題]171.在支持向量機(jī)中,()允許支持向量機(jī)在一些樣本上出錯(cuò)。A)硬間隔B)軟間隔C)核函數(shù)D)拉格朗日乘子[單選題]172.()是指?jìng)€(gè)體對(duì)視覺(jué)感知信息的進(jìn)一步加工處理過(guò)程,包括視覺(jué)信息的抽取、轉(zhuǎn)換、存儲(chǔ)、簡(jiǎn)化、合并、理解和決策加工活動(dòng)。A)視覺(jué)感知B)視覺(jué)認(rèn)知C)視覺(jué)編碼D)視覺(jué)轉(zhuǎn)換[單選題]173.平滑圖像()處理可以采用RGB彩色模型。A)直方圖均衡化B)直方圖均衡化C)加權(quán)均值濾波D)中值濾波[單選題]174.以下關(guān)于繪圖標(biāo)準(zhǔn)流程說(shuō)法錯(cuò)誤的是()。A)繪制最簡(jiǎn)單的圖形可以不用創(chuàng)建畫(huà)布B)添加圖例可以在繪制圖形之前C)添加x軸、y軸的標(biāo)簽可以在繪制圖形之前D)修改x軸標(biāo)簽、y軸標(biāo)簽和繪制圖形沒(méi)有先后[單選題]175.下列關(guān)于可視化方法體系說(shuō)法不正確的是()。A)通常采用視覺(jué)圖形元素和視覺(jué)通道兩個(gè)維度進(jìn)行視覺(jué)編碼B)常用的共性方法有統(tǒng)計(jì)圖表、圖論方法、視覺(jué)隱喻和圖形符號(hào)學(xué)等C)領(lǐng)域方法在所屬領(lǐng)域內(nèi)其可視化的信度和效果往往低于基礎(chǔ)方法的直接應(yīng)用D)視覺(jué)編碼為其他數(shù)據(jù)可視化方法提供了方法學(xué)基礎(chǔ)[單選題]176.ZooKeeper的特點(diǎn)描述錯(cuò)誤的是()。A)復(fù)雜性B)自我復(fù)制C)順序訪問(wèn)D)高速讀取[單選題]177.MaxCompute中,A和B都是bigint類(lèi)型,進(jìn)行A/B運(yùn)算,返回結(jié)果為:()。A)doubleB)intC)bigintD)float[單選題]178.以下不屬于數(shù)據(jù)科學(xué)與統(tǒng)計(jì)學(xué)區(qū)別的是()。A)數(shù)據(jù)科學(xué)中的數(shù)據(jù)不僅僅是數(shù)值B)數(shù)據(jù)科學(xué)關(guān)注的不僅僅是?單一學(xué)科?問(wèn)題,超出了數(shù)學(xué)、統(tǒng)計(jì)學(xué)、計(jì)算機(jī)科學(xué)等單一學(xué)科的范疇C)數(shù)據(jù)科學(xué)不僅僅是理論研究,也不是純領(lǐng)域?qū)崉?wù)知識(shí),它關(guān)注和強(qiáng)調(diào)的是二者的結(jié)合D)數(shù)據(jù)科學(xué)和統(tǒng)計(jì)學(xué)中的計(jì)算一樣,僅僅是加減乘除[單選題]179.在圖集合中發(fā)現(xiàn)一組公共子結(jié)構(gòu),這樣的任務(wù)稱(chēng)為()。A)頻繁子集挖掘B)頻繁子圖挖掘C)頻繁數(shù)據(jù)項(xiàng)挖掘D)頻繁模式挖[單選題]180.下面回歸模型中的哪個(gè)步驟/假設(shè)最能影響過(guò)擬合和欠擬合之間的平衡因素()。A)多項(xiàng)式的階數(shù)B)是否通過(guò)矩陣求逆或梯度下降學(xué)習(xí)權(quán)重C)使用常數(shù)項(xiàng)D)使用正則化[單選題]181.關(guān)于降維算法中的主成分分析,()是錯(cuò)誤的。A)有監(jiān)督算法B)可以指定降維的維度C)基于方差來(lái)計(jì)算D)根據(jù)特征值大小來(lái)篩選特[單選題]182.關(guān)于Maxcompute中的運(yùn)算符的說(shuō)法,正確的是:()。A)String類(lèi)型可以和其他任意類(lèi)型進(jìn)行隱式轉(zhuǎn)換:Boolean不行B)除boolean外,其他類(lèi)型不允許參與邏輯運(yùn)算,也不允許其他類(lèi)型的隱式類(lèi)型轉(zhuǎn)換C)只有bigint、double才能參與算數(shù)運(yùn)算:只有string、bigint、double和Decimal才能參與算術(shù)運(yùn)算D)特殊的關(guān)系運(yùn)算符rlike表示右側(cè)開(kāi)始匹配[單選題]183.下列關(guān)于數(shù)據(jù)交易市場(chǎng)的說(shuō)法中,錯(cuò)誤的是()。A)數(shù)據(jù)交易市場(chǎng)是大數(shù)據(jù)產(chǎn)業(yè)發(fā)展到一定程度的產(chǎn)物B)商業(yè)化的數(shù)據(jù)交易活動(dòng)催生了多方參與的第三方數(shù)據(jù)交易市場(chǎng)C)數(shù)據(jù)交易市場(chǎng)通過(guò)生產(chǎn)數(shù)據(jù)、研發(fā)和分析數(shù)據(jù),為數(shù)據(jù)交易提供幫助D)數(shù)據(jù)交易市場(chǎng)是大數(shù)據(jù)資源化的必然產(chǎn)物[單選題]184.下列關(guān)于L1正則化與L2正則化描述錯(cuò)誤的是()。A)L1范數(shù)正則化有助于降低過(guò)擬合風(fēng)險(xiǎn)B)L2范數(shù)正則化有助于降低過(guò)擬合風(fēng)險(xiǎn)C)L1范數(shù)正則化比L2范數(shù)正則化更有易于獲得稀疏解D)L2范數(shù)正則化比L1范數(shù)正則化更有易于獲得稀疏[單選題]185.圖靈獎(jiǎng)獲得者JimGray提出的?科學(xué)研究第四范式?的全稱(chēng)為()。A)數(shù)據(jù)密集型科學(xué)發(fā)現(xiàn)B)以數(shù)據(jù)為中心的科學(xué)發(fā)現(xiàn)C)數(shù)據(jù)驅(qū)動(dòng)型的科學(xué)發(fā)現(xiàn)D)大數(shù)據(jù)科學(xué)研究[單選題]186.下列哪種機(jī)器學(xué)習(xí)算法不需要?dú)w一化處理()A)DecisionTreeB.SVMC.KmeansD.LogisticRegressioB)C)KmeansD)LogisticRegressio[單選題]187.使用pip工具查看當(dāng)前已安裝的Python擴(kuò)展庫(kù)的完整命令是()。A)pipupdateB)piplistC)pipinstallD)pipshowall[單選題]188.MapReduce的Shuffle過(guò)程中哪個(gè)操作是最后做的()A)溢寫(xiě)B(tài))分區(qū)C)排序D)合并[單選題]189.CNN神經(jīng)網(wǎng)絡(luò)對(duì)圖像特征提取帶來(lái)了變革性的變化,使之前的人工特征提取升級(jí)到數(shù)據(jù)驅(qū)動(dòng)的自動(dòng)特征提取,在CNN中,起到特征提取作用的網(wǎng)絡(luò)層是:(__)。A)convolution層B)fullconnect層C)maxpooling層D)norm[單選題]190.卷積神經(jīng)網(wǎng)絡(luò)可以對(duì)一個(gè)輸入進(jìn)行多種變換(旋轉(zhuǎn)、平移、縮放),這個(gè)表述正確嗎()A)對(duì)的B)不知道C)看情況D)不[單選題]191.以下()屬于NoSQL數(shù)據(jù)庫(kù)中Key-Value的缺點(diǎn)。A)數(shù)據(jù)無(wú)結(jié)構(gòu)B)查詢(xún)性能不高,缺乏統(tǒng)一查詢(xún)語(yǔ)法C)功能相對(duì)有限D(zhuǎn))功能相對(duì)有限,不易于做分布式集群[單選題]192.在pandas中,描述統(tǒng)計(jì)信息的是哪個(gè)函數(shù)()。A)describe()B)desc()C)information()D)info()[單選題]193.如果我們現(xiàn)有一個(gè)安裝2.6.5版本的hadoop集群,在不修改默認(rèn)配置的情況下存儲(chǔ)200個(gè)每個(gè)200M的文本文件,請(qǐng)問(wèn)最終會(huì)在集群中產(chǎn)生多少個(gè)數(shù)據(jù)塊(包括副本)()A)200B)40000C)400D)1200[單選題]194.關(guān)于隊(duì)列的描述中,以下描述正確的是()。A)在隊(duì)列中只能刪除數(shù)據(jù)B)隊(duì)列是先進(jìn)后出的線(xiàn)性表C)在隊(duì)列中只能插入數(shù)據(jù)D)隊(duì)列是先進(jìn)先出的線(xiàn)性表[單選題]195.在DAYU數(shù)據(jù)集成中,新建?表/文件遷移作業(yè)?作業(yè)第一步不需要填寫(xiě)的信息是A)字段名稱(chēng)B)目的連接名稱(chēng)C)原鏈接名稱(chēng)D)作業(yè)名第2部分:多項(xiàng)選擇題,共65題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]196.鑒別了多元共線(xiàn)特征。那么下一步可能的操作是什么()A)移除兩個(gè)共線(xiàn)變量B)不移除兩個(gè)變量,而是移除一個(gè)C)移除相關(guān)變量可能會(huì)導(dǎo)致信息損失,可以使用帶罰項(xiàng)的回歸模型(如ridge或lassoregression[多選題]197.Spark2.0提供的應(yīng)用庫(kù)包括()。A)SparkSQLB)SparkStreamingC)MLibD)GraphX[多選題]198.RNN在NLP領(lǐng)域的應(yīng)用包括(__)。A)語(yǔ)言模型與文本生成B)機(jī)器翻譯C)語(yǔ)音識(shí)別D)圖像描述生[多選題]199.下面關(guān)于單樣本t檢驗(yàn)的說(shuō)法,錯(cuò)誤的是()。A)當(dāng)單樣本t檢驗(yàn)的自由度越來(lái)越大時(shí),正態(tài)分布越來(lái)越趨向于t分布B)單樣本t檢驗(yàn)適用于樣本量比較多(n>30)的情況C)t分布的不確定性比正態(tài)分布小,其原因是樣本數(shù)量比較小D)單樣本t檢驗(yàn)通常也被叫做學(xué)生t檢驗(yàn)[多選題]200.大數(shù)據(jù)的參考架構(gòu)分為哪三個(gè)層次()A)角色B)活動(dòng)C)邏輯構(gòu)件D)功能組件[多選題]201.以下函數(shù)中()屬于二元通用函數(shù)(Binaryuniversalfunctions)。A)addB)substractC)multiplyD)power[多選題]202.下列模型屬于機(jī)器學(xué)習(xí)生成式模型的是()。A)樸素貝葉斯B)隱馬爾科夫模型C)線(xiàn)性回歸模型D)深度信念網(wǎng)絡(luò)[多選題]203.MapReduce中運(yùn)行程序副本程序的機(jī)器為()。A)Map服務(wù)器B)Master服務(wù)器C)Worker服務(wù)器D)Reduce服務(wù)器[多選題]204.許多功能更為強(qiáng)大的非線(xiàn)性模型可在線(xiàn)性模型基礎(chǔ)上通過(guò)引入()和()而得。A)層級(jí)結(jié)構(gòu)B)高維映射C)降維D)分[多選題]205.下列既可以用于分類(lèi),又可以用于回歸的機(jī)器學(xué)習(xí)算法有:A)k近鄰B)邏輯回歸C)決策樹(shù)D)線(xiàn)性回歸[多選題]206.以下屬于規(guī)則的分詞方法的是()。A)正向最大匹配法B)逆向最大匹配法C)雙向最大匹配法D)條件隨機(jī)[多選題]207.噪聲數(shù)據(jù)的產(chǎn)生原因主要有()。A)數(shù)據(jù)采集設(shè)備有問(wèn)題B)在數(shù)據(jù)錄入過(guò)程中發(fā)生了人為或計(jì)算機(jī)錯(cuò)誤C)數(shù)據(jù)傳輸過(guò)程中發(fā)生錯(cuò)誤D)由于命名規(guī)則或數(shù)據(jù)代碼不同而引起的不一致[多選題]208.EDA(探索性數(shù)據(jù)分析)方法與傳統(tǒng)統(tǒng)計(jì)學(xué)的驗(yàn)證性分析方法的區(qū)別有()。A)EDA需要事先提出假設(shè),而驗(yàn)證性分析不需要B)EDA中采用的方法往往比驗(yàn)證性分析簡(jiǎn)單C)在一般數(shù)據(jù)科學(xué)項(xiàng)目中,探索性分析在先,驗(yàn)證性分析在后D)EDA更為簡(jiǎn)單、易學(xué)和易用[多選題]209.在支持向量機(jī)中,參數(shù)的選取會(huì)影響擬合的結(jié)果,如果出現(xiàn)過(guò)擬合的現(xiàn)象,則導(dǎo)致該結(jié)果的原因有可能是(__)。A)其他參數(shù)保持不變,C值過(guò)大B)其他參數(shù)保持不變,λ值較少C)其他參數(shù)保持不變,σ較大D)其他參數(shù)保持不變,σ較小[多選題]210.LSTM應(yīng)用場(chǎng)景應(yīng)用場(chǎng)景有哪些()A)翻譯語(yǔ)言B)語(yǔ)音識(shí)別C)圖像識(shí)別D)股票預(yù)[多選題]211.深度學(xué)習(xí)方法不適用于以下哪些場(chǎng)景()。A)數(shù)據(jù)樣本充足B)數(shù)據(jù)樣本不足C)數(shù)據(jù)集具有局部相關(guān)特性D)數(shù)據(jù)集沒(méi)有局部相關(guān)特[多選題]212.隨機(jī)森林在做數(shù)據(jù)處理方面有什么優(yōu)勢(shì)()。A)不需要做缺失值處理B)不需要處理噪音C)不需要做特征選擇D)不需要平衡數(shù)據(jù)集[多選題]213.DRS在線(xiàn)遷移支持?jǐn)?shù)據(jù)庫(kù)中,包含:()。A)Mysql數(shù)據(jù)庫(kù)B)Postgres數(shù)據(jù)庫(kù)C)MongoDB數(shù)據(jù)庫(kù)D)Oracle數(shù)據(jù)[多選題]214.訓(xùn)練CNN時(shí),GPU顯存溢出,此時(shí)可以采取什么辦法()A)減少mini_batch大小B)移除一些卷積層C)減少圖片輸入大小D)增加激活函[多選題]215.屬于特征選擇的優(yōu)點(diǎn)有()。A)解決模型自身的缺陷B)減少過(guò)擬合C)提升模型的性能D)增強(qiáng)模型的泛化能力[多選題]216.關(guān)于分析學(xué)習(xí)和歸納學(xué)習(xí)的比較,說(shuō)法正確的是()。A)歸納學(xué)習(xí)擬合數(shù)據(jù)假設(shè),分析學(xué)習(xí)擬合領(lǐng)域理論的假設(shè)B)歸納學(xué)習(xí)論證方式為統(tǒng)計(jì)推理,分析學(xué)習(xí)為演繹推理C)歸納學(xué)習(xí)不需要隱式的先驗(yàn)知識(shí)D)訓(xùn)練數(shù)據(jù)不足時(shí)歸納學(xué)習(xí)可能會(huì)失敗[多選題]217.下列說(shuō)法中正確的是()。A)云計(jì)算的主要特點(diǎn)是非常昂貴。B)大數(shù)據(jù)是多源、異構(gòu)、動(dòng)態(tài)的復(fù)雜數(shù)據(jù),即具有4V特征的數(shù)據(jù)C)大數(shù)據(jù)是數(shù)據(jù)科學(xué)的研究對(duì)象之一D)MapReduce是采用云計(jì)算這種新的計(jì)算模式研發(fā)出的具體工具軟件(或算法)[多選題]218.下列哪些是特征選擇方法()。A)C赤池信息準(zhǔn)則B)LARS嵌入式特征選擇方法C)LVW包裹式特征選擇方法D)Relief過(guò)濾式特征選擇方[多選題]219.在假設(shè)檢驗(yàn)中,當(dāng)原假設(shè)為?偽?,但數(shù)據(jù)分析人員沒(méi)有拒絕它時(shí)犯的錯(cuò)誤叫()。A)α錯(cuò)誤B)β錯(cuò)誤C)取偽錯(cuò)誤D)棄真錯(cuò)誤[多選題]220.數(shù)據(jù)挖掘的預(yù)測(cè)建模任務(wù)主要包括哪幾大類(lèi)問(wèn)題?()A)分類(lèi)B)回歸C)模式發(fā)現(xiàn)D)模式匹配[多選題]221.以下描述中屬于Analytics2.0的主要特點(diǎn)的是()。A)側(cè)重嵌入式分析B)重視非結(jié)構(gòu)化數(shù)據(jù)的分析C)以決策支持為主要目的D)注重解釋性分析和預(yù)測(cè)性分析[多選題]222.Hadoop的優(yōu)點(diǎn)包括()。A)可靠的B)高效的C)可伸縮的D)低成本[多選題]223.大數(shù)據(jù)計(jì)算服務(wù)(MaxCompute,原ODPS)中,使用CREATETABLELIKE語(yǔ)句創(chuàng)建新表時(shí),原表的()屬性會(huì)被復(fù)制到新表上。A)列注釋B)分區(qū)C)表的生命周期屬性D)表注釋[多選題]224.大數(shù)據(jù)計(jì)算服務(wù)(MaxCompute,原ODPS)中的MapReduce是一種編程模型,用于大規(guī)模數(shù)據(jù)集的并行運(yùn)算,它極大地方便了編程人員在不會(huì)分布式并行編程的情況下,將自己的程序運(yùn)行在分布式系統(tǒng)上。其中,兩個(gè)主要階段Map和Reduce相互配合,可以完成對(duì)海量數(shù)據(jù)的處理。關(guān)于這兩個(gè)階段的關(guān)系,說(shuō)法正確的有:()。A)一個(gè)reduce的輸入數(shù)據(jù)可能來(lái)自于多個(gè)map的輸出B)一個(gè)MR處理可以不包括任何mapC)一個(gè)MR處理可以不包括任何reduceD)一個(gè)map的輸出結(jié)果可能會(huì)被分配到多個(gè)reduce上去[多選題]225.大數(shù)據(jù)的資產(chǎn)屬性體現(xiàn)在()。A)具有勞動(dòng)增值B)涉及法律權(quán)屬C)具有財(cái)務(wù)價(jià)值D)涉及道德與倫理[多選題]226.Spark提交工作的方式()。A)lientB)lusterC)tandaloneD)arn[多選題]227.分布式列式存儲(chǔ)的功能有()。A)支持在線(xiàn)快速讀寫(xiě)B(tài))支持線(xiàn)性擴(kuò)展C)具備節(jié)點(diǎn)監(jiān)控管理D)數(shù)據(jù)同源不壓縮[多選題]228.ETL包含下列哪些過(guò)程()A)數(shù)據(jù)抽取B)數(shù)據(jù)轉(zhuǎn)換C)數(shù)據(jù)加載D)數(shù)據(jù)展現(xiàn)[多選題]229.對(duì)于不同場(chǎng)景內(nèi)容,一般數(shù)字圖像可以分為()。A)二值圖像B)灰度圖像C)彩色圖像D)深度圖[多選題]230.以下哪些方法是tf-idf的變種()。A)TFCB)EWCC)ITCD)I[多選題]231.下列屬于CNN關(guān)鍵層的是(__)。A)輸入層B)卷積層C)激活層D)池化[多選題]232.Spark的關(guān)鍵技術(shù)包括以下哪幾個(gè)()。A)RDD;B)Scheduler;C)Storage;D)Shuffle;[多選題]233.數(shù)據(jù)科學(xué)項(xiàng)目主要涉及的活動(dòng)包括()。A)模式/模型的應(yīng)用及維護(hù)B)模式/模型的洞見(jiàn)C)結(jié)果的可視化與文檔化D)模式/模型的驗(yàn)證和優(yōu)化[多選題]234.下面哪些屬于可視化高維數(shù)據(jù)技術(shù)()。A)矩陣B)平行坐標(biāo)系C)星形坐標(biāo)D)散布[多選題]235.與自然語(yǔ)言處理相關(guān)的工具包Jieba,Gensim,NLTK,Scikit-Learn的區(qū)別是()。A)Jieba專(zhuān)注于中文分詞操作B)NLTK主要用于一般自然語(yǔ)言處理任務(wù)(標(biāo)記化,POS標(biāo)記,解析等)C)Gensim主要用于題和向量空間建模、文檔集合相似性等D)Scikit-learn為機(jī)器學(xué)習(xí)提供了一個(gè)大型庫(kù),其中包含了用于文本預(yù)處理的工具,例如詞頻-逆文檔頻率特征提取(TfidfVectorizer)等。[多選題]236.哪些是離線(xiàn)批處理的特點(diǎn)?A)處理數(shù)據(jù)量巨大,PB級(jí)B)處理時(shí)間要求高C)容易產(chǎn)生資源搶占D)多個(gè)作業(yè)調(diào)度復(fù)[多選題]237.空間域?yàn)V波是直接以圖像中的像素操作為基礎(chǔ)的濾波,空間濾波器有時(shí)也可稱(chēng)為()。A)空間掩模B)核C)模板D)窗[多選題]238.以下關(guān)于降維方法,敘述正確的是()。A)主成分分析是一種常用的非線(xiàn)性降維方法B)核化線(xiàn)性降維是一種常用的線(xiàn)性降維方法C)流形學(xué)習(xí)是一種借鑒拓?fù)淞餍胃拍畹慕稻S方法D)度量學(xué)習(xí)繞過(guò)降維的過(guò)程,將學(xué)習(xí)目標(biāo)轉(zhuǎn)化為對(duì)距離度量計(jì)算的權(quán)重矩陣的學(xué)習(xí)[多選題]239.無(wú)master架構(gòu)的MPP數(shù)據(jù)庫(kù)的優(yōu)勢(shì)在于哪些方面:A)所有服務(wù)節(jié)點(diǎn)對(duì)等B)可以通過(guò)任意服務(wù)節(jié)點(diǎn)查詢(xún)和加載數(shù)據(jù)C)無(wú)單點(diǎn)風(fēng)險(xiǎn)D)無(wú)性能瓶[多選題]240.下面關(guān)于reduce函數(shù)功能描述正確的是()。A)合并value值,形成較小集合B)采用迭代器將中間值提供給reduce函數(shù)C)map()函數(shù)處理后結(jié)果才會(huì)傳輸給reduce()D)內(nèi)存中不會(huì)存儲(chǔ)大量的value值[多選題]241.使用極大似然估計(jì)的前提條件有()。A)數(shù)據(jù)服從某種已知的特定數(shù)據(jù)分布型B)已經(jīng)得到了一部分?jǐn)?shù)據(jù)集C)提前已知某先驗(yàn)概率D)數(shù)據(jù)集各個(gè)屬性相對(duì)獨(dú)立[多選題]242.預(yù)剪枝使得決策樹(shù)的很多分子都沒(méi)有展開(kāi),會(huì)導(dǎo)致()。A)顯著減少訓(xùn)練時(shí)間開(kāi)銷(xiāo)B)顯著減少測(cè)試時(shí)間開(kāi)銷(xiāo)C)降低過(guò)擬合風(fēng)險(xiǎn)D)提高欠擬合風(fēng)[多選題]243.Numpy中計(jì)算數(shù)組的標(biāo)準(zhǔn)差和方差的函數(shù)是()。A)std()B)diff()C)exp()D)var()[多選題]244.下列關(guān)于Ridge回歸,說(shuō)法正確的是()A)若λ=0,則等價(jià)于一般的線(xiàn)性回歸B)若λ=0,則不等價(jià)于一般的線(xiàn)性回歸C)若λ=+∞,則得到的權(quán)重系數(shù)很小,接近于零D)若λ=+∞,則得到的權(quán)重系數(shù)很大,接近與無(wú)窮大[多選題]245.在Spark中,彈性分布式數(shù)據(jù)集的特點(diǎn)包括()。A)可分區(qū)B)可序列化C)可直接修改D)可持久化[多選題]246.()是通過(guò)對(duì)無(wú)標(biāo)記訓(xùn)練樣本的學(xué)習(xí)來(lái)進(jìn)行分類(lèi)的。A)密度估計(jì)B)異常檢測(cè)C)線(xiàn)性回歸D)聚類(lèi)分析[多選題]247.任何函數(shù)都可以修改,所以盡量少用全局變量,主要原因包括()。A)不夠安全B)一直占用內(nèi)存C)容易失效D)一直占用字符[多選題]248.卷積神經(jīng)網(wǎng)絡(luò)中常用的池化函數(shù)包括()。A)最大池化函數(shù)B)L2范數(shù)C)相鄰矩形區(qū)域內(nèi)的平均值D)基于據(jù)中心像素距離的加權(quán)平均函[多選題]249.以下關(guān)于MapReduce1.0版本說(shuō)法正確的是()。A)擴(kuò)展性差B)可靠性差C)資源利用率低D)無(wú)法支持多種計(jì)算框架[多選題]250.CNN相比于全連接的DNN有哪些優(yōu)勢(shì)()A)參數(shù)更少B)泛化更好C)訓(xùn)練更快D)更容易搭建[多選題]251.創(chuàng)建API時(shí),需要填寫(xiě)()信息。A)API名稱(chēng)B)API目錄C)請(qǐng)求PathD)請(qǐng)求方[多選題]252.利用Apriori算法計(jì)算頻繁項(xiàng)集可以有效降低計(jì)算頻繁集的時(shí)間復(fù)雜度。在以下的購(gòu)物籃中產(chǎn)生支持度不小于3的候選3-項(xiàng)集,在候選2-項(xiàng)集中需要剪枝的是()ID、項(xiàng)集1面包、牛奶2面包、尿布、啤酒、雞蛋3牛奶、尿布、啤酒、可樂(lè)4面包、牛奶、尿布、啤酒5面包、牛奶、尿布、可樂(lè)A)啤酒、尿布B)啤酒、面包C)面包、尿布D)啤酒、牛奶[多選題]253.以下哪層是卷積神經(jīng)網(wǎng)絡(luò)的組成部分。A)卷積層B)中間層C)池化層D)全連接層[多選題]254.相對(duì)于HadoopMapReduce,Spark有什么好處()。A)通用性;B)易用性;C)速度快;D)容錯(cuò)性;[多選題]255.Python中,復(fù)合賦值運(yùn)算符包括()。A)簡(jiǎn)單的賦值運(yùn)算符B)乘法賦值運(yùn)算符C)取模賦值運(yùn)算符D)取整除賦值運(yùn)算符[多選題]256.DWS支持的事務(wù)隔離級(jí)別有:A)READUNCOMMITTED(讀未提交)B)READCOMMITTED(讀提交)C)REPEATABLEREAD(可重復(fù)讀)D)SERIALIZABLE(序列化[多選題]257.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的敘述中正確的是()。A)可用于處理時(shí)間序列數(shù)據(jù)B)可用于處理圖像數(shù)據(jù)C)卷積網(wǎng)絡(luò)中使用的卷積運(yùn)算就是數(shù)學(xué)中的卷積計(jì)算D)至少在網(wǎng)絡(luò)的一層中使用卷[多選題]258.大數(shù)據(jù)處理流程可以概括為以下哪幾步()。A)數(shù)據(jù)分析與挖掘B)數(shù)據(jù)采集C)數(shù)據(jù)儲(chǔ)存D)結(jié)果展示[多選題]259.在開(kāi)發(fā)大數(shù)據(jù)計(jì)算服務(wù)的MapReduce時(shí),可以使用JobClient類(lèi)中的接口提交MapReduce作業(yè)。目前提交方式支持()。A)遠(yuǎn)程提交B)本地提交C)阻塞方式D)非阻塞方式[多選題]260.下列關(guān)于RNN、LSTM、GRU說(shuō)法正確的是(__)。A)RNN引入了循環(huán)的概念B)LSTM可以防止梯度消失或者爆炸C)GRU是LSTM的變體D)RNN、LSTM、GRU是同一神經(jīng)網(wǎng)絡(luò)的不同說(shuō)法,沒(méi)有區(qū)1.答案:A解析:選擇合適的多項(xiàng)式階數(shù)非常重要。如果階數(shù)過(guò)大,模型就會(huì)更加復(fù)雜,容易發(fā)生過(guò)擬合;如果階數(shù)較小,模型就會(huì)過(guò)于簡(jiǎn)單,容易發(fā)生欠擬合。2.答案:B解析:密度聚類(lèi)算法假設(shè)聚類(lèi)結(jié)構(gòu)能通過(guò)樣本分布的緊密程度確定。3.答案:C解析:數(shù)據(jù)分組不可以使用mean函數(shù),mean函數(shù)為求平均數(shù)函數(shù)。4.答案:D解析:5.答案:B解析:機(jī)器學(xué)習(xí)包含深度學(xué)習(xí)。6.答案:C解析:HadoopMapReduce主要用于批處理,與Hadoop不同的是,Spark更為通用一些,可以很好地支持流計(jì)算、交互式處理、圖計(jì)算等多種計(jì)算模式。7.答案:D解析:pyplot.pie()的作用是繪制餅圖。8.答案:C解析:詞袋模型沒(méi)有考慮文本詞語(yǔ)的原本行文順序。9.答案:D解析:使用__XX定義屬性名定義私有屬性的方法。10.答案:A解析:中心極限定理是噪聲抑制的中的統(tǒng)計(jì)原理,其內(nèi)容是:均值分布總會(huì)收斂于一個(gè)正態(tài)分布。11.答案:D解析:12.答案:A解析:step用于繪制階梯圖。13.答案:D解析:圖像處理的常用方法包括圖像變換,圖像解碼和壓縮和圖像增強(qiáng)和復(fù)原。14.答案:B解析:15.答案:D解析:16.答案:C解析:選擇哪一個(gè)解作為輸出,將由學(xué)習(xí)算法的歸納偏好決定,常見(jiàn)的做法是引入正則化(regularization)項(xiàng)。17.答案:D解析:一般可以將數(shù)據(jù)類(lèi)型的度量分為四種:定類(lèi),定序,定距,和定比,這四種類(lèi)型是從低到高的遞進(jìn)關(guān)系,高級(jí)的類(lèi)型可以用低級(jí)類(lèi)型的分析方法來(lái)分析,而反過(guò)來(lái)卻不行。18.答案:C解析:線(xiàn)性回歸的基本假設(shè):(1)線(xiàn)性關(guān)系假設(shè)(2)正態(tài)性假設(shè),指回歸分析中的Y服從正態(tài)分布。(3)獨(dú)立性假設(shè),包含兩個(gè)意思:①與某一個(gè)X值對(duì)應(yīng)的一組Y值和與另一個(gè)X值對(duì)應(yīng)的一組Y值之間沒(méi)有關(guān)系,彼此獨(dú)立。②誤差項(xiàng)獨(dú)立,不同的X所產(chǎn)生的誤差之間應(yīng)相互獨(dú)立,無(wú)自相關(guān)。(4)誤差等分散性假設(shè):特定X水平的誤差,除了應(yīng)呈隨機(jī)化的常態(tài)分配,其變異量也應(yīng)相等,稱(chēng)為誤差等分散性。19.答案:D解析:20.答案:C解析:c是color關(guān)鍵字,指顏色。21.答案:A解析:辛普森悖論是概率和統(tǒng)計(jì)學(xué)中的一種現(xiàn)象,即幾組不同的數(shù)據(jù)中均存在一種趨勢(shì),但當(dāng)這些數(shù)據(jù)組組合在一起后,這種趨勢(shì)消失或反轉(zhuǎn)。例如,在腎結(jié)石治療數(shù)據(jù)分析中,比較了兩種腎結(jié)石治療的成功率。22.答案:C解析:TF意思是詞頻(TermFrequency),表示某個(gè)詞出現(xiàn)頻率,也就是某個(gè)詞在文檔中出現(xiàn)的次數(shù)/文章的總次數(shù)23.答案:B解析:FileInputFormat的分片大小是可以任意設(shè)置,可以調(diào)整的,輸入分片數(shù)目不可以隨意設(shè)置,是根據(jù)分片大小和文件計(jì)算出來(lái)的。24.答案:B解析:情感分析上層的研究和應(yīng)用主要是為情感信息抽取。25.答案:A解析:Bagging方法在訓(xùn)練過(guò)程中,各基分類(lèi)器之間無(wú)強(qiáng)依賴(lài),可以進(jìn)行并行訓(xùn)練,隨機(jī)森林就是一種典型的例子。26.答案:C解析:磁盤(pán)I/O是不可擴(kuò)充的,其他的可以擴(kuò)充。27.答案:D解析:長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)增加一個(gè)用來(lái)保存長(zhǎng)期狀態(tài)的單元來(lái)解決梯度消失問(wèn)題。28.答案:D解析:決策樹(shù)、神經(jīng)網(wǎng)絡(luò)、CKNN算法都屬于統(tǒng)計(jì)學(xué)習(xí)方法,是文本分類(lèi)領(lǐng)域的主流。29.答案:C解析:LSTM累積的時(shí)間尺度也可以因輸入序列而改變,因?yàn)闀r(shí)間常數(shù)是模型本身的輸出。30.答案:A解析:31.答案:A解析:數(shù)據(jù)倉(cāng)庫(kù)開(kāi)發(fā)要從需求出發(fā)。32.答案:A解析:根據(jù)DrewConway的數(shù)據(jù)科學(xué)韋恩圖(DataScienceVennDiagram),數(shù)據(jù)科學(xué)處于數(shù)學(xué)與統(tǒng)計(jì)知識(shí)、黑客精神與技能和領(lǐng)域?qū)崉?wù)知識(shí)等三大領(lǐng)域的交叉之處。33.答案:C解析:在延伸的代碼中(修改和有源代碼衍生的代碼中)需要帶有原來(lái)代碼中的協(xié)議,商標(biāo),專(zhuān)利聲明和其他原來(lái)作者規(guī)定需要包含的說(shuō)明。如果再發(fā)布的產(chǎn)品中包含一個(gè)Notice文件,則在Notice文件中需要帶有開(kāi)源工具的Licence。你可以在Notice中增加自己的許可,但不可以表現(xiàn)為對(duì)開(kāi)源工具Licence構(gòu)成更改。34.答案:D解析:傳統(tǒng)決策樹(shù)在選擇劃分屬性時(shí),是在當(dāng)前節(jié)點(diǎn)的屬性集合中選擇一個(gè)最優(yōu)屬性進(jìn)行劃分。35.答案:D解析:A、B、C是Spark比mapreduce快的原因。MapReduce不善于處理除批處理計(jì)算模式之外的其他計(jì)算模式,如流計(jì)算、交互式計(jì)算和圖計(jì)算等。36.答案:D解析:決策樹(shù)中,同一路徑上的所有屬性之間是邏輯與的關(guān)系37.答案:C解析:38.答案:A解析:須在使用PCA前標(biāo)準(zhǔn)化化數(shù)據(jù),應(yīng)選擇使得模型有最大variance的主成分,PCA在低維度上做數(shù)據(jù)可視化。39.答案:C解析:關(guān)聯(lián)規(guī)則包括Apriori、FP-Tree等算法。40.答案:C解析:一維數(shù)組輸出為行,二維數(shù)組輸出為矩陣,三維數(shù)組輸出位矩陣列表。41.答案:D解析:聚類(lèi)算
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025委托招標(biāo)代理合同
- 2025【合同范本】建筑工程施工合同示本
- 2025二手空調(diào)購(gòu)銷(xiāo)合同范本
- 促銷(xiāo)活動(dòng)合同范例
- 2024年六年級(jí)品社下冊(cè)《去中學(xué)看看》說(shuō)課稿2 蘇教版
- 配件報(bào)價(jià)實(shí)施方案
- 2024年五年級(jí)英語(yǔ)下冊(cè) Unit 4 Did You Have a Nice Trip Lesson 19 Li Ming Goes Home說(shuō)課稿 冀教版(三起)
- 貴州籠式球場(chǎng)護(hù)欄施工方案
- 砂石加工賬目處理方案
- 城市道路智慧路燈項(xiàng)目 投標(biāo)方案(技術(shù)標(biāo))
- 水泥采購(gòu)?fù)稑?biāo)方案(技術(shù)標(biāo))
- 醫(yī)院招標(biāo)采購(gòu)管理辦法及實(shí)施細(xì)則(試行)
- 初中英語(yǔ)-Unit2 My dream job(writing)教學(xué)設(shè)計(jì)學(xué)情分析教材分析課后反思
- 廣州市勞動(dòng)仲裁申請(qǐng)書(shū)
- 江西省上饒市高三一模理綜化學(xué)試題附參考答案
- 23-張方紅-IVF的治療流程及護(hù)理
- 頂部板式吊耳計(jì)算HGT-20574-2018
- 因數(shù)和倍數(shù)復(fù)習(xí)思維導(dǎo)圖
- LY/T 2986-2018流動(dòng)沙地沙障設(shè)置技術(shù)規(guī)程
- 三級(jí)教育考試卷(電工)答案
評(píng)論
0/150
提交評(píng)論