大數(shù)據(jù)競(jìng)賽理論題每日一測(cè)-10月24日附有答案_第1頁(yè)
大數(shù)據(jù)競(jìng)賽理論題每日一測(cè)-10月24日附有答案_第2頁(yè)
大數(shù)據(jù)競(jìng)賽理論題每日一測(cè)-10月24日附有答案_第3頁(yè)
大數(shù)據(jù)競(jìng)賽理論題每日一測(cè)-10月24日附有答案_第4頁(yè)
大數(shù)據(jù)競(jìng)賽理論題每日一測(cè)-10月24日附有答案_第5頁(yè)
已閱讀5頁(yè),還剩45頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

大數(shù)據(jù)競(jìng)賽理論題每日一測(cè)-10月24日[復(fù)制]您的姓名:[填空題]*_________________________________1.下列說(shuō)法正確的是()[單選題]*A.在使用KNN算法時(shí).B.KNN是有監(jiān)督學(xué)習(xí)算法(正確答案)C.在使用KNN算法時(shí).上取值越大.模型越容易過(guò)擬合D.KNN和K-means都是無(wú)監(jiān)督學(xué)習(xí)算法2.下列關(guān)于決策樹(shù)的說(shuō)法錯(cuò)誤的是()。[單選題]*A.冗余屬性不會(huì)對(duì)決策樹(shù)的準(zhǔn)確率造成不利的影響B(tài).子樹(shù)可能在決策樹(shù)中重復(fù)多次C.決策樹(shù)算法對(duì)于噪聲的干擾非常敏感(正確答案)D.尋找最佳決策樹(shù)是NP完全問(wèn)題3.相關(guān)關(guān)系是一種與函數(shù)關(guān)系區(qū)別的非確定性關(guān)系,而相關(guān)分析就是研究事物或現(xiàn)象之間是否存在這種非確定性關(guān)系的統(tǒng)計(jì)方法,下列不屬于相關(guān)性分析方法的是()。[單選題]*A.Pearson相關(guān)系數(shù)B.Spearman秩相關(guān)系數(shù)C.Kendall相關(guān)系數(shù)D.傅里葉系數(shù)(正確答案)4.信息增益、增益率分別對(duì)可取值數(shù)目()的屬性有所偏好。[單選題]*A.較高.較高B.較高.較低(正確答案)C.較低.較高D.較低.較低5.LSTM中,()的作用是確定哪些新的信息留在細(xì)胞狀態(tài)中,并更新細(xì)胞狀態(tài)。[單選題]*A.輸入門(mén)(正確答案)B.遺忘門(mén)C.輸出門(mén)D.更新門(mén)6.傅里葉變換得到的頻譜中,低頻系數(shù)對(duì)應(yīng)于()o[單選題]*A.物體邊緣B.噪聲C.變化平緩部分(正確答案)D.變化劇烈部分7.數(shù)據(jù)科學(xué)基本原則中,基于數(shù)據(jù)的智能的主要特點(diǎn)是()。[單選題]*A.數(shù)據(jù)簡(jiǎn)單,但算法簡(jiǎn)單B.數(shù)據(jù)復(fù)雜,但算法簡(jiǎn)單(正確答案)C.數(shù)據(jù)簡(jiǎn)單,但算法復(fù)雜D.數(shù)據(jù)復(fù)雜,但算法復(fù)雜8.Sigmoid函數(shù)作為神經(jīng)元激活函數(shù)的特點(diǎn)是()。[單選題]*A.連續(xù)但不光滑B.不連續(xù)但光滑C.連續(xù)且光滑(正確答案)D.不連續(xù)且不光滑9.離散程度的測(cè)度值愈大,則()。[單選題]*A.反映變量值愈分散.算術(shù)平均數(shù)代表性愈差(正確答案)B.反映變量值愈集中.算術(shù)平均數(shù)代表性愈差C.反映變量值愈分散.算術(shù)平均數(shù)代表性愈好D.反映變量值愈集中.算術(shù)平均數(shù)代表性愈好10.當(dāng)構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò)進(jìn)行圖片的語(yǔ)義分割時(shí),通常采用的順序是()o[單選題]*A.

先用卷積神經(jīng)網(wǎng)絡(luò)處理輸入,再用反卷積神經(jīng)網(wǎng)絡(luò)得到輸出(正確答案)A.

先用反卷積神經(jīng)網(wǎng)絡(luò)處理輸入,再用卷積神經(jīng)網(wǎng)絡(luò)得到輸出A.

不能確定11.給定詞匯表如下:(Bob,ok,likes,football,car}o則下面句子Boblikesfootball的詞袋模型表示為()o[單選題]*A.[11100]B.[10110](正確答案)C.[10010]D.[01101]12.BASE原則的含義不包括()。[單選題]*A.基本可用B.柔性狀態(tài)C.最終一致D.基礎(chǔ)條件(正確答案)13.標(biāo)準(zhǔn)BP算法的目標(biāo)是使訓(xùn)練集上的()最小。[單選題]*A.累積方差B.累積誤差(正確答案)C.累積協(xié)方差D.累積偏差14.DNN常用的激活函數(shù)有()o[單選題]*A.sigmoidB.tanhC.ReLUD.以上答案都正確(正確答案)15.Spark比MapReduce快的原因不包括([單選題]*A.Spark基于內(nèi)存迭代,而MapReduce基于磁盤(pán)迭代B.DAG計(jì)算模型比MapReduce更有效率C.Spark是粗粒度的資源調(diào)度,而MapReduce是細(xì)粒度的資源調(diào)度D.Spark支持交互式處理,MapReduce善于處理流計(jì)算(正確答案)16.在訓(xùn)練的每一輪都要檢查當(dāng)前生成的基學(xué)習(xí)器是否滿(mǎn)足基本條件的算法是()。[單選題]*A.支持向量機(jī)B.Boosting算法(正確答案)C.貝葉斯分類(lèi)器D.Bagging算法17.()肯定是寬依賴(lài)操作。[單選題]*A.mapB.flatMapC.reduceByKey(正確答案)D.sample18.當(dāng)合適的樣本容量很難確定時(shí),可以使用的抽樣方法是()。[單選題]*A.有放回的簡(jiǎn)單隨機(jī)抽樣B.無(wú)放回的簡(jiǎn)單隨機(jī)抽樣C.分層抽樣D.漸進(jìn)抽樣(正確答案)19.可用信息增益來(lái)進(jìn)行決策樹(shù)的()。[單選題]*A.樹(shù)高B.葉子結(jié)點(diǎn)數(shù)C.總結(jié)點(diǎn)數(shù)D.劃分屬性選擇(正確答案)20.在Hadoop中,()執(zhí)行文件系統(tǒng)命名空間操作。[單選題]*A.DataNodeB.NameNode(正確答案)C.JobTrackerD.TaskTracker21.基于N-最短路徑分詞算法,其最后的粗分結(jié)果集合大?。ǎ㎞。[單選題]*A.大于B.不小于(正確答案)C.小于D.不大于22.info='abc'info[2]=d的輸出結(jié)果是()。[單選題]*A.

TypeError:'str'objectdoesnotsupportitemassignment(正確答案)B.bC.cD.d23.bootstrap是指()。[單選題]*A.

有放回地從總共M個(gè)特征中抽樣m個(gè)特征B.

無(wú)放回地從總共M個(gè)特征中抽樣m個(gè)特征C.

有放回地從總共N個(gè)樣本中抽樣n個(gè)樣本(正確答案)D.

無(wú)放回地從總共N個(gè)樣本中抽樣〃個(gè)樣本24.BP神經(jīng)網(wǎng)絡(luò)經(jīng)常遭遇(),其訓(xùn)練誤差持續(xù)降低,但測(cè)試誤差卻可能上升。[單選題]*A.欠擬合B.誤差過(guò)大C.誤差過(guò)小D.過(guò)擬合(正確答案)25.在大型數(shù)據(jù)集上訓(xùn)練決策樹(shù)時(shí),為了花費(fèi)更少的時(shí)間來(lái)訓(xùn)練這個(gè)模型,下列做法正確的是()。[單選題]*A.增加樹(shù)的深度B.增加學(xué)習(xí)率C.減小樹(shù)的深度(正確答案)D.減少樹(shù)的數(shù)量26.python字符串切片時(shí),S[0,10]下標(biāo)的取值范圍為()[單選題]*A.[0,10]B.(0,10)C.[0,10)(正確答案)D.(0,10]27.評(píng)估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)采取的解決方法是()。[單選題]*A.

減少模型的特征數(shù)量B.增加模型的特征數(shù)量(正確答案)C.增加樣本數(shù)量D.以上答案都正確28.大數(shù)據(jù)平臺(tái)技術(shù)架構(gòu)不包含()o[單選題]*A.數(shù)據(jù)整合B.數(shù)據(jù)存儲(chǔ)C.數(shù)據(jù)計(jì)算D,數(shù)據(jù)溯源(正確答案)29.()的基本想法是適當(dāng)考慮一部分屬性間的相互依賴(lài)信息,從而既不需要進(jìn)行完全聯(lián)合概率計(jì)算,又不至于徹底忽略了比較強(qiáng)的屬性依賴(lài)關(guān)系。[單選題]*A.

貝葉斯判定準(zhǔn)則B.貝葉斯決策論C.樸素貝葉斯分類(lèi)器D.半樸素貝葉斯分類(lèi)器(正確答案)30.DAGScheduler的作用是([單選題]*A.負(fù)責(zé)分配任務(wù)B.負(fù)責(zé)調(diào)度Worker的運(yùn)行C.負(fù)責(zé)創(chuàng)建執(zhí)行計(jì)劃(正確答案)D.負(fù)責(zé)清理執(zhí)行完畢的任務(wù)31.采用幕次變換進(jìn)行灰度變換時(shí),當(dāng)幕次大于1時(shí),該變換是針對(duì)()的圖像進(jìn)行增強(qiáng)。[單選題]*A.圖像整體偏暗B.圖像整體偏亮(正確答案)C.圖像細(xì)節(jié)淹沒(méi)在暗背景中D.圖像同時(shí)存在過(guò)亮和過(guò)暗背景32.()主要提供內(nèi)存計(jì)算框架。[單選題]*A.Spark核心層(正確答案)B.資源管理層C.服務(wù)層D.Spark層33.下列關(guān)于數(shù)據(jù)倉(cāng)庫(kù)最終目的的描述正確的是()。[單選題]*A.收集業(yè)務(wù)需求B.建立數(shù)據(jù)倉(cāng)庫(kù)邏輯模型C.開(kāi)發(fā)數(shù)據(jù)倉(cāng)庫(kù)的應(yīng)用分析D.為用戶(hù)和業(yè)務(wù)部門(mén)提供決策支持(正確答案)34.下列不適合使用機(jī)器學(xué)習(xí)方法解決的是()。[單選題]*A.判斷電子郵件是否是垃圾郵件B.判斷給定的圖中是否有環(huán)(正確答案)C.判斷是否給指定用戶(hù)辦理信用卡D.對(duì)滴滴拼車(chē)乘客分簇35.在Hadoop生態(tài)系統(tǒng)中,()主要解決的是日志類(lèi)數(shù)據(jù)的收集和處理問(wèn)題。[單選題]*A.MahoutB.Flume(正確答案)C.SqoopD.HBase36.HDFS是基于流數(shù)據(jù)模式訪(fǎng)問(wèn)和處理超大文件的需求而開(kāi)發(fā)的,具有高容錯(cuò)、高可靠性、高可擴(kuò)展性、高吞吐率等特征,適合的讀寫(xiě)任務(wù)是()o[單選題]*A.—次寫(xiě)入、少次讀取B.多次寫(xiě)入、少次讀取C.多次寫(xiě)入、多次讀取D.—次寫(xiě)入、多次讀取(正確答案)37.下列不屬于深度學(xué)習(xí)內(nèi)容的是()o[單選題]*A.深度置信網(wǎng)絡(luò)B.受限玻爾茲曼機(jī)C.卷積神經(jīng)網(wǎng)絡(luò)D.貝葉斯學(xué)習(xí)(正確答案)38.通過(guò)聚集多個(gè)分類(lèi)器的預(yù)測(cè)來(lái)提高分類(lèi)準(zhǔn)確率的技術(shù)稱(chēng)為()。[單選題]*A.組合(正確答案)B.聚集C.合并D.投票39.RDD的特點(diǎn)不包括()o[單選題]*A.RDD之間有依賴(lài)關(guān)系,可溯源B.RDD由很多partition構(gòu)成C.對(duì)RDD的每個(gè)split或partition做計(jì)算D.RDD可以增量更新(正確答案)40.把圖像分割問(wèn)題與圖的最小割(mincut)問(wèn)題相關(guān)聯(lián)的方法是()。[單選題]*A.基于圖論的分割方法(正確答案)B.分水嶺算法C.SLIC算法D.基于閾值的方法41.美國(guó)海軍軍官莫里通過(guò)對(duì)前人航海日志的分析,繪制了新的航海路線(xiàn)圖,標(biāo)明了大風(fēng)與洋流可能發(fā)生的地點(diǎn)。這體現(xiàn)了大數(shù)據(jù)分析理念中的()。[單選題]*A.在數(shù)據(jù)基礎(chǔ)上傾向于全體數(shù)據(jù)而不是抽樣數(shù)據(jù)B.在分析方法上更注重相關(guān)分析而不是因果分析(正確答案)C.在分析效果上更追究效率而不是絕對(duì)精確D.在數(shù)據(jù)規(guī)模上強(qiáng)調(diào)相對(duì)數(shù)據(jù)而不是絕對(duì)數(shù)據(jù)42.RNN不同于其他神經(jīng)網(wǎng)絡(luò)的地方在于()。[單選題]*A,實(shí)現(xiàn)了記憶功能(正確答案)B,速度快C.精度高D.易于搭建43.Python運(yùn)算符中用來(lái)計(jì)算集合并集的是()[單選題]*A.|(正確答案)B.&C.||D.+44.學(xué)習(xí)率對(duì)機(jī)器學(xué)習(xí)模型結(jié)果會(huì)產(chǎn)生影響,通常希望學(xué)習(xí)率()[單選題]*A.越小越好B.越大越好C.較小而迭代次數(shù)較多(正確答案)D.較大而迭代次數(shù)較小45.Python語(yǔ)句print(OxA+OxB)的輸出結(jié)果是()[單選題]*A.OxA+OxBB.A+BC.OxAOxBD.21(正確答案)46.2003年,Tableau在斯坦福大學(xué)誕生,它起源于一種改變數(shù)據(jù)使用方式的新技術(shù),即()。[單選題]*A.VizQL語(yǔ)言(正確答案)B.SQL語(yǔ)言C.XSQL語(yǔ)言D.NewSQL語(yǔ)言47.釆用模板[-11]主要檢測(cè)()方向的邊緣。[單選題]*A.水平B.45°C.垂直(正確答案)D.135°48.在Hadoop生態(tài)系統(tǒng)中,()的主要設(shè)計(jì)目的是在Hadoop與傳統(tǒng)數(shù)據(jù)庫(kù)之間進(jìn)行數(shù)據(jù)的ETL操作。[單選題]*A.HDFSB.FlumeC.HiveD.Sqoop(正確答案)49.利用到每個(gè)聚類(lèi)中心和的遠(yuǎn)近判斷離群值的方法,可以基于的算法為()。[單選題]*A.K-means(正確答案)B.KNNC.SVMD.LinearRegression50.a=l,b=2,c=3,則下列表達(dá)式結(jié)果為T(mén)rue的是()[單選題]*A.a>=bor(c+5)%3==1B.not(a==landb!=c)C.notaandb==cD.aanda+b>=c(正確答案)51.分布式應(yīng)用程序可以基于分布式應(yīng)用程序協(xié)調(diào)服務(wù)實(shí)現(xiàn)同步服務(wù),配置維護(hù)和命名服務(wù)等的工具是([單選題]*A.FlumeB.Zookeeper(正確答案)C.StormD.SparkStreaming52.所有預(yù)測(cè)模型在廣義上都可稱(chēng)為一個(gè)或一組()。[單選題]*A.公式B.邏輯C.命題D.規(guī)則(正確答案)53.下列關(guān)于選擇L。gistic回歸中的。ne-Vs-All方法的描述正確的是()。[單選題]*A.我們需要在n類(lèi)分類(lèi)問(wèn)題中適合n個(gè)模型(正確答案)B.我們需要適合〃-1個(gè)模型來(lái)分類(lèi)為n個(gè)類(lèi)C.我們需要只適合1個(gè)模型來(lái)分類(lèi)為n個(gè)類(lèi)D.以上答案都不正確54.Apriori算法的核心思想是()。[單選題]*A.通過(guò)頻繁項(xiàng)集生成和情節(jié)的向下封閉檢測(cè)兩個(gè)階段來(lái)挖掘候選集B.通過(guò)候選集生成和情節(jié)的向下封閉檢測(cè)兩個(gè)階段來(lái)挖掘頻繁項(xiàng)集(正確答案)C.數(shù)據(jù)集中包含該項(xiàng)集的數(shù)據(jù)所占數(shù)據(jù)集的比例.度量一個(gè)集合在原始數(shù)據(jù)中出現(xiàn)的頻率D.若某條規(guī)則不滿(mǎn)足最小置信度要求.則該規(guī)則的所有子集也不滿(mǎn)足最小置信度要求55.常用的灰度內(nèi)插值法不包括()o[單選題]*A.最近鄰內(nèi)插法B.三次內(nèi)插法C.雙線(xiàn)性?xún)?nèi)插值法D,三次樣條插值法(正確答案)56.與生成方法、半監(jiān)督SVM、圖半監(jiān)督學(xué)習(xí)等基于單學(xué)習(xí)機(jī)器利用未標(biāo)記數(shù)據(jù)不同,基于分歧的方法(disagreement?basedmeth。ds)使用多學(xué)習(xí)器,而學(xué)習(xí)器之間的分歧(disagreement)對(duì)未標(biāo)記數(shù)據(jù)的利用至關(guān)重要。()是此類(lèi)方法的重要代表。[單選題]*A.協(xié)同訓(xùn)練(正確答案)B.組合訓(xùn)練C.配合訓(xùn)練D.陪同訓(xùn)練57.依托(),結(jié)合應(yīng)用推進(jìn)數(shù)據(jù)歸集,形成統(tǒng)一的數(shù)據(jù)資源中心。[單選題]*A.全業(yè)務(wù)數(shù)據(jù)中心和數(shù)據(jù)平臺(tái)(正確答案)B.營(yíng)銷(xiāo)基礎(chǔ)數(shù)據(jù)平臺(tái)和大數(shù)據(jù)平臺(tái)C.全業(yè)務(wù)中心和營(yíng)銷(xiāo)基礎(chǔ)數(shù)據(jù)平臺(tái)D.全業(yè)務(wù)數(shù)據(jù)中心和大數(shù)據(jù)平臺(tái)58.多分類(lèi)學(xué)習(xí)中,最經(jīng)典的三種拆分策略不包括()。[單選題]*A.一對(duì)一(正確答案)B.一對(duì)其余C.一對(duì)多D.多對(duì)多59.決策樹(shù)中的葉結(jié)點(diǎn)對(duì)應(yīng)于()。[單選題]*A.屬性B.樣本C.決策結(jié)果(正確答案)D.標(biāo)簽值60.Spark中Job的劃分依據(jù)是([單選題]*A.依賴(lài)B.Action算子(正確答案)C.Transfbrmation算子61.a=[l,2,3.4,5],切片時(shí)如果要取[2,3.4],則下列結(jié)果正確的是()[單選題]*A.a[l:4]B.a[-2:]C.a[l:-1](正確答案)D.a[::2]62.如果我們現(xiàn)有一個(gè)安裝2.6.5版本的Hadoop集群,在不修改默認(rèn)配置的情況下存儲(chǔ)200個(gè)200M的文本文件,那么最終會(huì)在集群中產(chǎn)生()個(gè)數(shù)據(jù)塊(包括副本)o[單選題]*A.200B.40000C.400D.1200(正確答案)63.()是指對(duì)于數(shù)據(jù)局部不良行為的非敏感性,是探索性分析追求的主要目標(biāo)之一。[單選題]*A.魯棒性B.穩(wěn)定性C.可靠性D.耐抗性(正確答案)64.下列關(guān)于情感分析的描述正確的是()o[單選題]*A.情感分析的難點(diǎn)是語(yǔ)句太長(zhǎng)導(dǎo)致精度降低(正確答案)B.為了降低復(fù)雜度,循環(huán)神經(jīng)網(wǎng)絡(luò)無(wú)須添加LSTM結(jié)構(gòu)C.對(duì)文本進(jìn)行停用詞處理不可以提高情感分析的計(jì)算精度D.對(duì)文本進(jìn)行無(wú)關(guān)詞處理不可以提高情感分析的計(jì)算精度65.SLIC算法的主要目的是()。[單選題]*A.目標(biāo)識(shí)別B..前景和背景分C.超像素提取(正確答案)66.感知機(jī)中,()是\1"神經(jīng)元,也稱(chēng)為閾值邏輯單元。[單選題]*A.輸入層B.輸出層(正確答案)C.第一層D.第二層67.從連續(xù)圖像到數(shù)字圖像需要采取的措施是()o[單選題]*A.圖像灰度級(jí)設(shè)定B.圖像分辨率設(shè)定C.確定圖像的存儲(chǔ)空間D.采樣和量化(正確答案)68.()算法是一種最有影響的挖掘關(guān)聯(lián)規(guī)則頻繁項(xiàng)目集的算法。[單選題]*A.FP-growthB.EClatC.聚類(lèi)D.Apdori(正確答案)69.()算法要求基學(xué)習(xí)器能對(duì)特定的數(shù)據(jù)分布進(jìn)行學(xué)習(xí),在訓(xùn)練過(guò)程的每一輪中,根據(jù)樣本分布為每個(gè)訓(xùn)練樣本重新賦予一個(gè)權(quán)重。[單選題]*A.

Boosting(正確答案)B.支持向量機(jī)C.貝葉斯分類(lèi)器D.神經(jīng)網(wǎng)絡(luò)70.對(duì)連續(xù)圖像的離散化釆樣決定了圖像的()o[單選題]*A.空間分辨率(正確答案)B.時(shí)間分辨率C.地面分辨率D.灰度值71.二值圖像中的分支點(diǎn)的連接數(shù)為()o[單選題]*A.0B.1C.2D.3(正確答案)72.下列關(guān)于深度神經(jīng)網(wǎng)絡(luò)的說(shuō)法正確的是()o[單選題]*A.

增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類(lèi)錯(cuò)誤率(正確答案)B.

減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類(lèi)錯(cuò)誤率C.

增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類(lèi)錯(cuò)誤率D.A、B都對(duì)73.下列關(guān)于ZooKeeper特點(diǎn)的描述錯(cuò)誤的是([單選題]*A,復(fù)雜性(正確答案)B.自我復(fù)制C.順序訪(fǎng)問(wèn)D.高速讀取74.HBase使用一個(gè)()節(jié)點(diǎn)協(xié)調(diào)管理一個(gè)或多個(gè)RegionServer從屬機(jī)。[單選題]*A.NameNodeB.DataNodeC.JobTrackerD.Master(正確答案)75.RDD中的數(shù)據(jù)被()在集群中,使得任務(wù)可以并行執(zhí)行。[單選題]*A.順序存儲(chǔ)B.連續(xù)存儲(chǔ)C.分塊存儲(chǔ)D.分區(qū)存儲(chǔ)(正確答案)76.當(dāng)圖像通過(guò)信道傳輸時(shí),噪聲一般與()無(wú)關(guān)。[單選題]*A.

信道傳輸?shù)馁|(zhì)量A.

出現(xiàn)的圖像信號(hào)(正確答案)A.

是否有中轉(zhuǎn)信道的過(guò)程A.

圖像在信道前后的處理77.關(guān)聯(lián)規(guī)則的評(píng)價(jià)指標(biāo)是([單選題]*A.均方誤差、均方根誤差B.Kappa統(tǒng)計(jì)、顯著性檢驗(yàn)C.支持度、置信度(正確答案)D.平均絕對(duì)誤差、相對(duì)誤差78.機(jī)器學(xué)習(xí)訓(xùn)練時(shí),Mini-Batch的大小優(yōu)選為2的幕,如256或512。它背后的原因是()。[單選題]*A.

Mini-Batch為偶數(shù)的時(shí)候.梯度下降算法訓(xùn)練的更快B.

Mini-Batch設(shè)為2的暴.是為了符合CPU、GPU的內(nèi)存要求.利于并行化處理(正確答案)C.

不使用偶數(shù)時(shí).損失函數(shù)是不穩(wěn)定的D.

以上答案都不正確79.詞袋模型中的文本向量每個(gè)元素表示該詞的()o[單選題]*A.頻率(正確答案)B.順序C.含義D.語(yǔ)義關(guān)系80.深度學(xué)習(xí)是當(dāng)前很熱門(mén)的機(jī)器學(xué)習(xí)算法,深度學(xué)習(xí)涉及大量的矩陣相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A、B、C的乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別為mxn,nxp,pxq,且m<n<p<q9則下列計(jì)算順序效率最高的是()。[單選題]*A.

(AB)C(正確答案)B.AC(B)C.A(BC)D.所有效率都相同81.常見(jiàn)的圖像預(yù)處理方法不包括()o[單選題]*A.圖像降噪B.圖像増強(qiáng)C.圖像尺寸歸一化D.圖像標(biāo)注(正確答案)82.DIKW金字塔模型中,頂層與底層的名稱(chēng)分別為()。[單選題]*A.智慧與數(shù)據(jù)(正確答案)B.知識(shí)與數(shù)據(jù)C.智慧與數(shù)值D.知識(shí)與數(shù)值83.輸入圖像已被轉(zhuǎn)換為大小為28x28的矩陣和大小為7x7的步幅為1的核心/濾波器,則卷積矩陣的大小是()o[單選題]*A.

22x22(正確答案)B.21x21C.28x28D.7x784.下列關(guān)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法:①增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類(lèi)錯(cuò)誤率;②減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類(lèi)錯(cuò)誤率;③增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類(lèi)錯(cuò)誤率。正確的是()o[單選題]*A.①(正確答案)B.dXS)C.0X2)D.②85.HBase的一個(gè)典型應(yīng)用是Webtable,它是一個(gè)以網(wǎng)頁(yè)()為主鍵的表。[單選題]*A.標(biāo)題B.URL(正確答案)C.內(nèi)容D.類(lèi)別86.主成分分析的優(yōu)化目標(biāo)是一個(gè)()[單選題]*A.

不含約束條件的二次規(guī)劃問(wèn)題B.

含有約束條件的二次規(guī)劃問(wèn)題(正確答案)C.不含約束條件的線(xiàn)性規(guī)劃問(wèn)D.

含有約束條件的線(xiàn)性規(guī)劃問(wèn)題87.常用的圖像去噪方法包括()。[單選題]*A.高斯濾波B.中值濾波C.P-M方程去噪D,以上答案都正確(正確答案)88.平滑圖像處理可以釆用RGB彩色()。[單選題]*A.直方圖均衡化模型B.直方圖均衡化模型C.加權(quán)均值濾波模型(正確答案)D.中值濾波模型89.在集成學(xué)習(xí)中,對(duì)于數(shù)據(jù)型輸出,最常見(jiàn)的結(jié)合策略是()。[單選題]*A.平均法(正確答案)B.投票法C.學(xué)習(xí)法D.以上答案都正確90.傳統(tǒng)目標(biāo)檢測(cè)流程包括()。[單選題]*A,區(qū)域選擇B.特征提取C.分類(lèi)器分類(lèi)D,以上都對(duì)(正確答案)91.彩色圖像增強(qiáng)時(shí),()處理可以采用RGBO[單選題]*A.直方圖均衡化B.同態(tài)濾波C.均值濾波(正確答案)D.中值濾波92.()在劃分屬性時(shí)是在當(dāng)前結(jié)點(diǎn)的屬性集合中選擇一個(gè)最優(yōu)屬性。[單選題]*A.AdaBoostB.RFC.BaggingD.傳統(tǒng)決策樹(shù)(正確答案)93.屬于卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用方向的是()o[單選題]*A.

圖像分類(lèi)B.目標(biāo)檢測(cè)C.圖像語(yǔ)義分割D.以上答案都正確(正確答案)94.在Hadoop生態(tài)系統(tǒng)中,()建立在MapReduce之上,主要用來(lái)彌補(bǔ)MapReduce編程的復(fù)雜性。[單選題]*A.HbaseB.FlumeC.Pig(正確答案)D..Sqoop95.為提高計(jì)算性能,Spark中Transformation操作采用的計(jì)算模式是([單選題]*A.活性計(jì)算模式B.惰性計(jì)算模式(正確答案)C.實(shí)時(shí)計(jì)算模式D.非實(shí)時(shí)計(jì)算模式96.下列方法中:①增加更多的數(shù)據(jù);②使用數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentati。n);③使用歸納性更好的架構(gòu);④正規(guī)化數(shù)據(jù);⑤降低架構(gòu)的復(fù)雜度可以用來(lái)降低深度學(xué)習(xí)模型的過(guò)擬合問(wèn)題的方法有([單選題]*A.

①④⑤B.①②③C.①③④⑤D.所有項(xiàng)目都有用(正確答案)97.下列不屬于A(yíng)ction操作的是([單選題]*A.collectB.filter(正確答案)C.reduceD.count98.用決策樹(shù)法訓(xùn)練大量數(shù)據(jù)集時(shí),()最節(jié)約時(shí)間。[單選題]*A.增加樹(shù)的深度B.增加學(xué)習(xí)率C.減少數(shù)的深度(正確答案)D.減少樹(shù)的個(gè)數(shù)99.()算法是決策樹(shù)學(xué)習(xí)的基本算法,其他多數(shù)決策樹(shù)學(xué)習(xí)方法都是它的變體。[單選題]*A.Find-SB.KNNC.概念D.ID3(正確答案)100.下列關(guān)于集成學(xué)習(xí)模型中弱學(xué)習(xí)者的描述錯(cuò)誤的是()。[單選題]*A.

經(jīng)常不會(huì)過(guò)擬合B.

通常帶有高偏差.所以其并不能解決復(fù)雜學(xué)習(xí)問(wèn)題C.

通常會(huì)過(guò)擬合(正確答案)D.

通常擁有低方差101.大數(shù)據(jù)中的小數(shù)據(jù)可能缺失、冗余、存在垃圾數(shù)據(jù),但不影響大數(shù)據(jù)的可信數(shù)據(jù),是大數(shù)據(jù)的()的表現(xiàn)形式。[單選題]*A.價(jià)值涌現(xiàn)B.隱私涌現(xiàn)C.質(zhì)量涌現(xiàn)(正確答案)D.安全涌現(xiàn)102.()是實(shí)現(xiàn)數(shù)據(jù)戰(zhàn)略的重要保障。[單選題]*A.數(shù)據(jù)管理B.數(shù)據(jù)分析C.數(shù)據(jù)治理(正確答案)D.數(shù)據(jù)規(guī)劃103.基于統(tǒng)計(jì)的分詞方法為()o[單選題]*A,正向最大匹配法B.逆向最大匹配法C.最少切分法D.條件隨機(jī)場(chǎng)(正確答案)104.下列關(guān)于Python程序格式框架的描述錯(cuò)誤的是()。[單選題]*A.Python語(yǔ)言不采用嚴(yán)格的縮進(jìn)來(lái)表明程序的格式框架(正確答案)B.Python單層縮進(jìn)代碼屬于之前最鄰近的一行非縮進(jìn)代碼,多層縮進(jìn)代碼根據(jù)縮進(jìn)關(guān)系決定所屬范圍C.Python語(yǔ)言的縮進(jìn)可以采用Tab鍵實(shí)現(xiàn)D.判斷、循環(huán)、函數(shù)等語(yǔ)法形式能夠通過(guò)縮進(jìn)包含一批Python代碼,進(jìn)而表達(dá)對(duì)應(yīng)的語(yǔ)義105.下列關(guān)于Sigmoid函數(shù)的說(shuō)法錯(cuò)誤的是([單選題]*A.

存在梯度爆炸的問(wèn)題(正確答案)B.

不是關(guān)于原點(diǎn)對(duì)稱(chēng)C.

計(jì)算exp比較耗時(shí)D.

存在梯度消失的問(wèn)題106.()網(wǎng)絡(luò)是一種競(jìng)爭(zhēng)學(xué)習(xí)型的無(wú)監(jiān)督神經(jīng)網(wǎng)絡(luò),它能將高維輸入數(shù)據(jù)映射到低維空間,同時(shí)保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu),即將高維空間中相似的樣本點(diǎn)映射到網(wǎng)絡(luò)輸出層中的鄰近神經(jīng)元。[單選題]*A.SOM(正確答案)B.RBFC.ARTD.ELman107.下列Python賦值語(yǔ)句中不合法的是()[單選題]*A.x=l;y=lB.x=y=lC.x=(y=l)(正確答案)D.x,y=y,x108.()不僅可用于多層前饋神經(jīng)網(wǎng)絡(luò),還可用于其他類(lèi)型的神經(jīng)網(wǎng)絡(luò)。[單選題]*A.感知機(jī)B.神經(jīng)元C.神經(jīng)系統(tǒng)D.誤差逆?zhèn)鞑?正確答案)109.下列進(jìn)程中不是HDFS的守護(hù)進(jìn)程的是()。[單選題]*A.SecondaryNameNodeB.DataNodeC.MRAppMasterATamChild(正確答案)D.NameNode110.()是數(shù)據(jù)庫(kù)管理系統(tǒng)運(yùn)行的基本工作單位。[單選題]*A.事務(wù)(正確答案)B.數(shù)據(jù)倉(cāng)庫(kù)C.數(shù)據(jù)單元D.數(shù)據(jù)分析111.Spark可以處理的數(shù)據(jù)任務(wù)包括([單選題]*A.數(shù)據(jù)流處理B.交互式處理C.圖數(shù)據(jù)處理D以上都是(正確答案)112.從網(wǎng)絡(luò)的原理上來(lái)看,結(jié)構(gòu)最復(fù)雜的神經(jīng)網(wǎng)絡(luò)是()o[單選題]*A.卷積神經(jīng)網(wǎng)絡(luò)B.長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)(正確答案)C.GRUD.BP神經(jīng)網(wǎng)絡(luò)113.下列不屬于Transformation操作的是()o[單選題]*A.mapB.filterC.sampleD.count(正確答案)114.CNN神經(jīng)網(wǎng)絡(luò)對(duì)圖像特征提取帶來(lái)了變革性的變化,使之前的人工特征提取升級(jí)到數(shù)據(jù)驅(qū)動(dòng)的自動(dòng)特征提取,在CNN中,起到特征提取作用的網(wǎng)絡(luò)層是()o[單選題]*A,卷積層(正確答案)B.全連接層C.池化層D,采樣層115.對(duì)于一個(gè)分類(lèi)任務(wù),如果開(kāi)始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)成0,則下列敘述正確的是()o[單選題]*A.

沒(méi)有問(wèn)題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開(kāi)始訓(xùn)練B.

神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西(正確答案)C.

神經(jīng)網(wǎng)絡(luò)不會(huì)開(kāi)始訓(xùn)練,因?yàn)闆](méi)有梯度改變D.

以上選項(xiàng)都不對(duì)116.決策樹(shù)的父節(jié)點(diǎn)和子節(jié)點(diǎn)的嫡的大小關(guān)系是()。[單選題]*A.父節(jié)點(diǎn)的炳更小B.子節(jié)點(diǎn)的矯更小(正確答案)C.兩者相等D.根據(jù)具體情況而定117.

二維圖像可用二維函數(shù)表示,則下列說(shuō)法正確的是()o[單選題]*A.二維函數(shù)值表示點(diǎn)的灰度值(正確答案)B.對(duì)于模擬圖像來(lái)講,二維函數(shù)是離散函數(shù)C.(x,y)不是平面的二維坐標(biāo)D.以上都不對(duì)118.輸入圖像為32x32,經(jīng)過(guò)步長(zhǎng)為1、不進(jìn)行padding.卷積核為5x5的卷積層后,得到的特征圖尺寸是()o[單選題]*A.

28x28(正確答案)B.27x27C.29x29D.32x32119.()的主要目標(biāo)是提供可擴(kuò)展的機(jī)器學(xué)習(xí)算法及其實(shí)現(xiàn),旨在幫助開(kāi)發(fā)人員更加方便快捷地創(chuàng)建智能應(yīng)用程序。[單選題]*A.Mahout(正確答案)B.FlumeC.SqoopD.HBase120.下列關(guān)于數(shù)據(jù)的描述錯(cuò)誤的是()。[單選題]*A.數(shù)據(jù)化與數(shù)字化是兩個(gè)不同概念B.數(shù)據(jù)與數(shù)值是一個(gè)概念(正確答案)C.大數(shù)據(jù)與海量數(shù)據(jù)是兩個(gè)不同的概念D.數(shù)據(jù)和信息是兩個(gè)不同的概念121.下列關(guān)于HDFS特征的說(shuō)法錯(cuò)誤的是()o[單選題]*A,支持超大文件B.基于商用硬件C.流式數(shù)據(jù)訪(fǎng)問(wèn)D.低吞吐量(正確答案)122.Spark中引入RDD概念的目的是()o[單選題]*A.數(shù)據(jù)存儲(chǔ)B.數(shù)據(jù)查重C.提升容錯(cuò)能力(正確答案)D.增強(qiáng)數(shù)據(jù)一致性123.隨機(jī)森林與Bagging中基學(xué)習(xí)器多樣性的區(qū)別是([單選題]*A.

都來(lái)自樣本擾動(dòng)B.都來(lái)自屬性擾動(dòng)C.

來(lái)自樣本擾動(dòng)和屬性擾動(dòng)(正確答案)D.多樣本集結(jié)合124.對(duì)于一個(gè)圖像識(shí)別問(wèn)題(在一張照片里找出一只貓),()可以更好地解決這個(gè)問(wèn)題[單選題]*A.循環(huán)神經(jīng)網(wǎng)絡(luò)B.感知機(jī)C.多層感知機(jī)D.

卷積神經(jīng)網(wǎng)絡(luò)(正確答案)125.隨機(jī)森林是())上的一個(gè)擴(kuò)展變體[單選題]*A.

BoostingB.

AdasBoostC.RFD.Bagging(正確答案)126.TF-IDF中的TF是指()。[單選題]*A.某個(gè)詞在文檔中出現(xiàn)的次數(shù)B.文章的總次數(shù)C.某個(gè)詞在文檔中出現(xiàn)的次數(shù)/文章的總次數(shù)(正確答案)D.以上都不對(duì)127.()不是神經(jīng)網(wǎng)絡(luò)的代表。[單選題]*A,卷積神經(jīng)網(wǎng)絡(luò)B.遞歸神經(jīng)網(wǎng)絡(luò)C.殘差網(wǎng)絡(luò)D.xgboost算法(正確答案)128.下列關(guān)于描述性分析與探索性分析的描述正確的是()。[單選題]*A.描述性分析是相對(duì)于驗(yàn)證性分析的一種提法B.探索性分析是驗(yàn)證性分析的基礎(chǔ)C.探索性分析是相對(duì)于驗(yàn)證性分析的一種提法(正確答案)D.探索性分析是數(shù)據(jù)分析的第一步129.多分類(lèi)圖像識(shí)別任務(wù)常采用()作為輸出的編碼方式。[單選題]*A.二進(jìn)制編碼B.one-hot編碼(正確答案)C.霍夫曼編碼D.曼徹斯特編碼130.()算法可以較好地避免樣本的不平衡問(wèn)題。[單選題]*A.KNN(正確答案)B.SVMC.BayesD.神經(jīng)網(wǎng)絡(luò)131.下列關(guān)于SOM神經(jīng)網(wǎng)絡(luò)的描述錯(cuò)誤的是()0[單選題]*A.

一種競(jìng)爭(zhēng)學(xué)習(xí)型的無(wú)監(jiān)督神經(jīng)網(wǎng)絡(luò)B.

將高維輸入數(shù)據(jù)映射到低維空間,保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu)C.

SOM尋優(yōu)目標(biāo)為每個(gè)輸出神經(jīng)元找到合適的權(quán)重(正確答案)D.

輸出層神經(jīng)元以矩陣方式排列在二維空間132.type(1e6)的結(jié)果為()[單選題]*A.<class'int'>B.<class'float'>(正確答案)C.<class'complex'>D.<class'bool'>133.a=[[l.,2.,1.],[1.,2.,1.]],a+3的值為()[單選題]*A.[[l,2,1],[4,5,4]]B.[[4,5,4],[4,5,4]]C.[[4,5,4],[l,2,1]]D.以上都不對(duì)(正確答案)134.絕對(duì)多數(shù)投票法的基本思想是()。[單選題]*A.

對(duì)于若干和弱學(xué)習(xí)器的輸出進(jìn)行平均得到最終的預(yù)測(cè)輸出B.

少數(shù)服從多數(shù).數(shù)量最多的類(lèi)別為最終的分類(lèi)類(lèi)別C.

不光要求獲得最高票.還要求票過(guò)半數(shù)(正確答案)D.

將訓(xùn)練集弱學(xué)習(xí)器的學(xué)習(xí)結(jié)果作為輸入.將訓(xùn)練集的輸出作為輸出.重新訓(xùn)練一個(gè)學(xué)習(xí)器來(lái)得到最終結(jié)果135.()認(rèn)為,大數(shù)據(jù)時(shí)代的數(shù)據(jù)管理目標(biāo)不一定理想和完美,一致性、可用性和分區(qū)容錯(cuò)性中的任何兩個(gè)特征的保證(爭(zhēng)?。┛赡軐?dǎo)致另一個(gè)特征的損失(放棄)。[單選題]*A.CAP理論(正確答案)B.BASE原則C.數(shù)據(jù)一致性理論D.大數(shù)據(jù)法則136.假設(shè)擁有一個(gè)已完成訓(xùn)練的、用來(lái)解決車(chē)輛檢測(cè)問(wèn)題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車(chē)和卡車(chē)的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測(cè)出每種車(chē)輛的名稱(chēng)(車(chē)輛共有10種類(lèi)型)?,F(xiàn)在想要使用這個(gè)模型來(lái)解決另外一個(gè)問(wèn)題,問(wèn)題數(shù)據(jù)集中僅包含一種車(chē)(福特野馬)而目標(biāo)變?yōu)槎ㄎ卉?chē)輛在照片中的位置,則應(yīng)采取的方法是()o[單選題]*A.除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B.對(duì)神經(jīng)網(wǎng)絡(luò)中的最后幾層進(jìn)行微調(diào),同時(shí)將最后一層(分類(lèi)層)更改為回歸層(正確答案)C.使用新的數(shù)據(jù)集重新訓(xùn)練模型D.所有答案均不對(duì)137.Spark中Stage下Task的數(shù)量由()決定。[單選題]*A.Partition(正確答案)B.JobC.StageD.TaskScheduler138.下列算法中不屬于外推法的是()。[單選題]*A.移動(dòng)平均法B.回歸分析法(正確答案)C.指數(shù)平滑法D.季節(jié)指數(shù)法139.詞袋模型、TF-IDF.Word2vec等模型都有的作用是()。[單選題]*A.文本情感分析B.文本特征向量化(正確答案)C.文本特征離散化D.文本特征分布式140.決策樹(shù)中的葉節(jié)點(diǎn)對(duì)應(yīng)于決策樹(shù)結(jié)果,其他節(jié)點(diǎn)對(duì)應(yīng)于()。[單選題]*A.屬性測(cè)試(正確答案)B.學(xué)習(xí)測(cè)試C.學(xué)習(xí)測(cè)試D.分類(lèi)測(cè)試141.構(gòu)造了一個(gè)詞表:{1.小明2.喜歡3.踢4.看5.足球6.籃球7.電影},利用上述詞表的索引號(hào),文檔{小明喜歡踢足球}可以用一個(gè)7維向量表示為()o[單選題]*A.[1101001]B.[1111111]C.[1111100]D.[1110100](正確答案)142.對(duì)一幅100x100像素的圖像,若像元用8bit表示灰度值,霍夫曼編碼壓縮后的圖像數(shù)據(jù)量為40000bit,則圖像壓縮比例為()o[單選題]*A.2:1(正確答案)B.3:1C.4:1D.1:2143.()是從(多條)信息中發(fā)現(xiàn)的共性規(guī)律、模式、模型、理論、方法。[單選題]*A.信息B.數(shù)據(jù)C.知識(shí)(正確答案)D.智慧144.高通濾波后的圖像通常較暗,為改善這種情況,將高通濾波器的轉(zhuǎn)移函數(shù)加上一常數(shù)量以便引入一些低頻分量。這樣濾波器叫()o[單選題]*A.巴特沃斯高通濾波器B.高頻提升濾波器(正確答案)C.高頻加強(qiáng)濾波器D.理想高通濾波器145.數(shù)據(jù)變換的策略包括()。[單選題]*A.平滑處理、特征構(gòu)造、聚集、標(biāo)準(zhǔn)化、離散化(正確答案)B.平滑處理、特征構(gòu)造、聚集、審計(jì)、離散化C.平滑處理、聚集、標(biāo)準(zhǔn)化、審計(jì)、離散化D.特征構(gòu)造、聚集、標(biāo)準(zhǔn)化、審計(jì)、離散化146.隨機(jī)森林中的隨機(jī)是指()。[單選題]*A.隨便構(gòu)建樹(shù)模B.隨機(jī)選擇一個(gè)樹(shù)模型C.隨機(jī)選擇多個(gè)樹(shù)模型D.在構(gòu)建每個(gè)樹(shù)模型時(shí)隨機(jī)選擇樣本和特征(正確答案)147.()用于對(duì)RDD中的數(shù)據(jù)進(jìn)行計(jì)算。[單選題]*A.分區(qū)B.算子(正確答案)C.日志D.數(shù)據(jù)塊148.下列關(guān)于圖像分割的說(shuō)法正確的是()o[單選題]*A.圖像分割是對(duì)圖像中的每個(gè)像素加標(biāo)簽的一個(gè)過(guò)程B.對(duì)像素加標(biāo)簽會(huì)使具有相同標(biāo)簽的像素具有某種共同視覺(jué)特性C.在電網(wǎng)的應(yīng)用中,我們主要用來(lái)進(jìn)行細(xì)粒度分析D.以上都對(duì)(正確答案)149.()用于將非線(xiàn)性引入神經(jīng)網(wǎng)絡(luò),它會(huì)將值縮小到較小的范圍內(nèi)。[單選題]*A.損失函數(shù)B.優(yōu)化函數(shù)C.激活函數(shù)(正確答案)D.目標(biāo)函數(shù)150.輸入圖像為37x37,經(jīng)過(guò)第一層卷積(thenumberoffiltersF=25,kemelsize=5x5,paddingsvalid,stride=l)與池化層maxpooling(kernelsize=3x3,padding=valid),輸出特征圖大小為()o[單選題]*A,

10x10B.11x11(正確答案)C.12x12D.13x13151.下列選項(xiàng)是數(shù)值數(shù)據(jù)類(lèi)型(即可用于算術(shù)表達(dá)式)的有(*A.Oxff(正確答案)B.99(正確答案)C.122(正確答案)D.”1002”152.下列關(guān)于字典的遍歷的描述正確的有()*A.forin變量i,字典:使用i遍歷所有的鍵,有鍵就可以通過(guò)變量訪(fǎng)問(wèn)其值B.for變量iin字典:使用i遍歷所有的鍵,有鍵就可以通過(guò)變量訪(fǎng)問(wèn)其值(正確答案)C.for變量i,變量jin字典items):使用變量i遍歷所有鍵,通過(guò)變量j遍歷所有值(正確答案)D.forin變量i,變量j字典items):使用變量i遍歷所有鍵,通過(guò)變量j遍歷所有值153.預(yù)剪枝使得決策樹(shù)的很多分子都沒(méi)有展開(kāi),則會(huì)導(dǎo)致的結(jié)果有()o*A.顯著減少訓(xùn)練時(shí)間開(kāi)銷(xiāo)(正確答案)B.顯著減少測(cè)試時(shí)間開(kāi)銷(xiāo)(正確答案)C.降低過(guò)擬合風(fēng)險(xiǎn)(正確答案)D.提高欠擬合風(fēng)險(xiǎn)(正確答案)154.數(shù)據(jù)增值存在的過(guò)程有()。*A.數(shù)據(jù)對(duì)象的封裝(正確答案)B.數(shù)據(jù)系統(tǒng)的研發(fā)(正確答案)C.數(shù)據(jù)的集成應(yīng)用(正確答案)D.基于數(shù)據(jù)的創(chuàng)新(正確答案)155.字符串的格式化可以使用()*A.%(正確答案)B.format(正確答案)C.inputD.+156.可視分析學(xué)是一門(mén)以可視交互為基礎(chǔ),綜合運(yùn)用()等技術(shù)等多個(gè)學(xué)科領(lǐng)域的知識(shí),以實(shí)現(xiàn)人機(jī)協(xié)同完成可視化任務(wù)為主要目的的分析推理學(xué)科。*A.物理學(xué)B.圖形學(xué)(正確答案)C.數(shù)據(jù)挖掘(正確答案)D.人機(jī)交互(正確答案)157.常見(jiàn)的原型聚類(lèi)算法包括()*A.K均值算法(正確答案)B.學(xué)習(xí)向量量化(正確答案)C.高斯混合聚類(lèi)(正確答案)D.密度聚類(lèi)158.下列關(guān)于RNN、LSTM、GRU的說(shuō)法正確的有()。*A.

RNN引入了循環(huán)的概念(正確答案)B.

LSTM可以防止梯度消失或者爆炸(正確答案)C.

GRU是LSTM的變體(正確答案)D.

RNN、LSTM、GRU是同一神經(jīng)網(wǎng)絡(luò)的不同說(shuō)法,沒(méi)有區(qū)別159.下列屬于字符串匹配的分詞方法的有()o*A.

正向最大匹配法(由左到右的方向)(正確答案)B.

逆向最大匹配法(由右到左的方向)(正確答案)C.

最少切分法(使每一句中切出的詞數(shù)最小)(正確答案)D.

雙向最大匹配法(進(jìn)行由左到右、由右到左兩次掃描)(正確答案)160.決策樹(shù)的劃分選擇有()*A.增益系數(shù)B.信息增益(正確答案)C.增益率(正確答案)D.基尼系數(shù)(正確答案)E.信息增益量161.下列關(guān)于Python組合數(shù)據(jù)類(lèi)型的描述正確的有()*A.Python的str、tuple和list類(lèi)型都屬于序列類(lèi)型(正確答案)B.Python組合數(shù)據(jù)類(lèi)型能夠?qū)⒍鄠€(gè)同類(lèi)型或不同類(lèi)型的數(shù)據(jù)組織起來(lái),通過(guò)單一的表示使數(shù)據(jù)操作更有序更容易(正確答案)C.組合數(shù)據(jù)類(lèi)型可以分為序列類(lèi)型、集合類(lèi)型和映射類(lèi)型3類(lèi)(正確答案)D.序列類(lèi)型是二維元素向量,元素之間存在先后關(guān)系,通過(guò)序號(hào)訪(fǎng)問(wèn)162.可視分析學(xué)的特點(diǎn)包含()。*A.強(qiáng)調(diào)數(shù)據(jù)到知識(shí)的轉(zhuǎn)換過(guò)程(正確答案)B.強(qiáng)調(diào)可視化分析與自動(dòng)化建模之間的相互作用(正確答案)C.強(qiáng)調(diào)數(shù)據(jù)映射和數(shù)據(jù)挖掘的重要性(正確答案)D.強(qiáng)調(diào)數(shù)據(jù)加工(DataWrangling或DataMunging)工作的必要性(正確答案)E.強(qiáng)調(diào)人機(jī)交互的重要性(正確答案)163.下列關(guān)于函數(shù)的遞歸調(diào)用的描述正確的有()o*A.必須有一個(gè)明確的結(jié)束條件(正確答案)B.每次進(jìn)入更深一層遞歸時(shí),問(wèn)題規(guī)模相比上次遞歸都應(yīng)有所減少(正確答案)C.遞歸調(diào)用效率不高,遞歸層次過(guò)多會(huì)導(dǎo)致棧溢出。在計(jì)算機(jī)中,函數(shù)調(diào)用是通過(guò)棧(stack)這種數(shù)據(jù)結(jié)構(gòu)實(shí)現(xiàn)的,每當(dāng)進(jìn)入一個(gè)函數(shù)調(diào)用,棧就會(huì)加一層棧幀,每當(dāng)函數(shù)返回,棧就會(huì)減一層棧幀(正確答案)D.由于棧的大小不是無(wú)限的,所以,遞歸調(diào)用的次數(shù)過(guò)多,會(huì)導(dǎo)致棧溢出(正確答案)164.大數(shù)據(jù)處理流程可以概括為()。*A.數(shù)據(jù)分析與挖掘(正確答案)B.數(shù)據(jù)采集(正確答案)C.數(shù)據(jù)儲(chǔ)存(正確答案)D.結(jié)果展示(正確答案)165.決策樹(shù)在()情況下會(huì)導(dǎo)致遞歸返回。*A.

當(dāng)前節(jié)點(diǎn)包含的樣本全屬于同一類(lèi)(正確答案)B.

當(dāng)前屬性集為空(正確答案)C.

當(dāng)前節(jié)點(diǎn)包含的樣本集合為空(正確答案)D.

所有樣本在所有屬性上取值相同(正確答案)166.下列關(guān)于極大似然估計(jì)的說(shuō)法正確的有()o*A.

MLE可能并不存在(正確答案)B.

MLE總是存在C.

如果MLE存在,那么它的解可能不是唯一的(正確答案)D.

如果MLE存在,那么它的解一定是唯一的167.Spark組件包含()兩個(gè)算子。*A.MapB.Action(正確答案)C.Transformation(正確答案)D.Reduce168.下列關(guān)于現(xiàn)階段大數(shù)據(jù)技術(shù)體系的說(shuō)法正確的有()。*A.基礎(chǔ)設(shè)施提供數(shù)據(jù)計(jì)算、數(shù)據(jù)存儲(chǔ)、數(shù)據(jù)加工(DataWrangling或DataMunging)等服務(wù)(正確答案)B.數(shù)據(jù)流處理、統(tǒng)計(jì)工具、日志分析都屬于常用的開(kāi)源工具(正確答案)C.數(shù)據(jù)資源代表的是生成數(shù)據(jù)的機(jī)構(gòu)(正確答案)D.數(shù)據(jù)源與App為數(shù)據(jù)科學(xué)和大數(shù)據(jù)產(chǎn)業(yè)生態(tài)系統(tǒng)提供數(shù)據(jù)內(nèi)容(正確答案)169.SparkRDD的依賴(lài)機(jī)制包括()。*A.寬依賴(lài)(正確答案)B.深度依賴(lài)C.廣度依賴(lài))oD.窄依賴(lài)(正確答案)170.Spark的基本流程主要涉及()。*A.DriverProgram(正確答案)B.ClusterManager(正確答案)C.WorkerNode)等角色。(正確答案)D.Executor(正確答案)171.常用分詞方法包含()*A.基于Binarytree的分詞方法B.基于HMM的分詞方法B.基于HMM的分詞方法(正確答案)C.基于CRF的分詞方法(正確答案)D.基于K-means的分詞方法172.Spark比MapReduce計(jì)算快的原因有()。*A.基于內(nèi)存的計(jì)算(正確答案)B.基于DAG的調(diào)度框架(正確答案)C.基于Lineage的容錯(cuò)機(jī)制D.基于分布式計(jì)算的框架(正確答案)D.基于分布式計(jì)算的框架173.可作為決策樹(shù)選擇劃分屬性的參數(shù)有()*A.

信息增益(正確答案)B.信息增益率(正確答案)C.基尼指數(shù)(正確答案)D.密度函數(shù)174.區(qū)塊鏈?zhǔn)牵ǎ┑扔?jì)算機(jī)技術(shù)的新型應(yīng)用模式。*A.分布式數(shù)據(jù)存儲(chǔ)(正確答案)B.點(diǎn)對(duì)點(diǎn)傳輸(正確答案)C.共識(shí)機(jī)制(正確答案)D.加密算法(正確答案)175.Spark的技術(shù)架構(gòu)可以分為()。*A.資源管理層(正確答案)B.Spark核心層(正確答案)C.應(yīng)用層D.服務(wù)層(正確答案)176.基于核的機(jī)器學(xué)習(xí)算法有(*A.最大期望算法B.徑向基核函數(shù)(正確答案)C.線(xiàn)性判別分析法(正確答案)D.支持向量機(jī)(正確答案)177.下列屬于CNN關(guān)鍵層的有()o*A.輸入層(正確答案)B.卷積層(正確答案)C.激活層(正確答案)D.池化層(正確答案)178.情感分析的途徑有()*A.關(guān)鍵詞識(shí)別(正確答案)B.詞匯關(guān)聯(lián)(正確答案)C.統(tǒng)計(jì)方法(正確答案)D

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論