(更新版)大數(shù)據(jù)應(yīng)用技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷550題)_第1頁(yè)
(更新版)大數(shù)據(jù)應(yīng)用技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷550題)_第2頁(yè)
(更新版)大數(shù)據(jù)應(yīng)用技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷550題)_第3頁(yè)
(更新版)大數(shù)據(jù)應(yīng)用技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷550題)_第4頁(yè)
(更新版)大數(shù)據(jù)應(yīng)用技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷550題)_第5頁(yè)
已閱讀5頁(yè),還剩139頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

PAGEPAGE144(更新版)大數(shù)據(jù)應(yīng)用技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷550題)多選題1.Web內(nèi)容挖掘?qū)崿F(xiàn)技術(shù)()。A、文本總結(jié)B、文本分類C、文本機(jī)器學(xué)習(xí)D、關(guān)聯(lián)規(guī)則答案:ABCD2.下列哪些指標(biāo)可以用來(lái)評(píng)估線性回歸模型(多選)()A、R-SquaredB、AdjustedR-SquaredC、FStatisticsD、RMSE/MSE/MAE答案:ABCD3.下面屬于范數(shù)規(guī)則化的作用的是()和()。A、保證模型盡可能的簡(jiǎn)單,避免過(guò)擬合B、約束模型特征C、最小化問(wèn)題D、最大化問(wèn)題答案:AB4.Python的優(yōu)點(diǎn)有()。A、變量不用預(yù)定義類型B、數(shù)據(jù)結(jié)構(gòu)功能強(qiáng)大C、語(yǔ)言可解釋性強(qiáng)D、變量類型固定答案:ABC5.下列哪些是傳統(tǒng)RDBMS的缺點(diǎn)()A、表結(jié)構(gòu)schema擴(kuò)展不方便B、全文搜索功能較弱C、大數(shù)據(jù)場(chǎng)景下I/O較高D、存儲(chǔ)和處理復(fù)雜關(guān)系型數(shù)據(jù)功能較弱答案:ABCD6.下列屬于CNN關(guān)鍵層的是(__)。A、輸入層B、卷積層C、激活層D、池化層答案:ABCD7.常見(jiàn)的核函數(shù)主要包括()。A、多項(xiàng)式核B、高斯核C、線性核D、拉普拉斯核E、Sigmoid核答案:ABCDE8.關(guān)于現(xiàn)階段大數(shù)據(jù)技術(shù)體系,說(shuō)法正確的是()。A、基礎(chǔ)設(shè)施提供數(shù)據(jù)計(jì)算、數(shù)據(jù)存儲(chǔ)、數(shù)據(jù)加工(DataWrangling或DataMunging)等服務(wù)B、流處理、統(tǒng)計(jì)工具、日志分析都屬于常用的開(kāi)源工具C、數(shù)據(jù)資源代表的是生成數(shù)據(jù)的機(jī)構(gòu)D、數(shù)據(jù)源與APP為數(shù)據(jù)科學(xué)和大數(shù)據(jù)產(chǎn)業(yè)生態(tài)系統(tǒng)提供數(shù)據(jù)內(nèi)容答案:ABCD9.Analytics1.0的主要特點(diǎn)有()。A、分析活動(dòng)滯后于數(shù)據(jù)的生成B、重視結(jié)構(gòu)化數(shù)據(jù)的分析C、以對(duì)歷史數(shù)據(jù)的理解為主要目的D、注重描述性分析答案:ABCD10.字符串的格式化可以使用()。A、%B、formatC、inputD、+答案:AB11.下列對(duì)字符串函數(shù)或方法說(shuō)法正確的有()。A、istitle()如果字符串是標(biāo)題化的(見(jiàn)title())則返回True,否則返回FalseB、max(str)返回字符串str中最大的字母。C、replace(old,new,max)把將字符串中的str1替換成str2,如果max指定,則替換不超過(guò)max次D、upper()轉(zhuǎn)換字符串中所有大寫字符為小寫答案:ABC12.Python中jieba庫(kù)的基本實(shí)現(xiàn)原理是什么()。A、利用中文詞庫(kù),分析漢字與漢字之間的關(guān)聯(lián)幾率B、還有分析漢字詞組的關(guān)聯(lián)幾率C、還可以根據(jù)用戶自定義的詞組進(jìn)行分析D、還可以分析漢字與英文之間關(guān)聯(lián)幾率答案:ABC13.以下關(guān)于Pig說(shuō)法正確的是()。A、彌補(bǔ)MapReduce編程復(fù)雜性B、封裝MapReduce處理過(guò)程C、PigLatin是一種數(shù)據(jù)分析語(yǔ)言D、適用于并行處理答案:ABCD14.對(duì)于決策樹(shù)的優(yōu)點(diǎn)描述正確的是()。A、可讀性強(qiáng)B、分類速度快C、只用于回歸問(wèn)題D、是無(wú)監(jiān)督學(xué)習(xí)答案:AB15.可作為決策樹(shù)選擇劃分屬性的參數(shù)是()。A、信息增益B、增益率C、基尼指數(shù)D、密度函數(shù)答案:ABC16.下列哪些是面向?qū)ο蠹夹g(shù)的特征()。A、封裝B、繼承C、多態(tài)D、分布性答案:ABC17.Spark中的Scheduler模塊可以分為以下哪幾個(gè)部分()。A、DAGScheduler;B、ResourceScheduler;C、TaskScheduler;D、JobScheduler;答案:AC18.卷積神經(jīng)網(wǎng)絡(luò)中常用的池化函數(shù)包括()。A、最大池化函數(shù)B、L2范數(shù)C、相鄰矩形區(qū)域內(nèi)的平均值D、基于據(jù)中心像素距離的加權(quán)平均函數(shù)答案:ABCD19.可視化高維展示技術(shù)在展示數(shù)據(jù)之間的關(guān)系以及數(shù)據(jù)分析結(jié)果方面作()。A、能夠直觀反映成對(duì)數(shù)據(jù)之間的空間關(guān)系B、能夠直觀反映多維數(shù)據(jù)之間的空間關(guān)系C、能夠靜態(tài)演化事物的變化及變化的規(guī)律D、能夠動(dòng)態(tài)演化事物的變化及變化的規(guī)律E、提供高性能并行計(jì)算技術(shù)的強(qiáng)力支撐答案:BD20.預(yù)剪枝使得決策樹(shù)的很多分子都沒(méi)有展開(kāi),會(huì)導(dǎo)致()。A、顯著減少訓(xùn)練時(shí)間開(kāi)銷B、顯著減少測(cè)試時(shí)間開(kāi)銷C、降低過(guò)擬合風(fēng)險(xiǎn)D、提高欠擬合風(fēng)險(xiǎn)答案:ABCD21.可視分析學(xué)是一門以可視交互為基礎(chǔ),綜合運(yùn)用()等技術(shù)等多個(gè)學(xué)科領(lǐng)域的知識(shí),以實(shí)現(xiàn)人機(jī)協(xié)同完成可視化任務(wù)為主要目的分析推理學(xué)科。A、物理學(xué)B、圖形學(xué)C、數(shù)據(jù)挖掘D、人機(jī)交互答案:BCD22.Numpy中計(jì)算數(shù)組的標(biāo)準(zhǔn)差和方差的函數(shù)是()。A、std()B、diff()C、exp()D、var()答案:AD23.常見(jiàn)的原型聚類算法包括()。A、k均值算法B、學(xué)習(xí)向量量化C、高斯混合聚類D、密度聚類答案:ABC24.語(yǔ)音識(shí)別的方法包括()。A、聲道模型方法B、模板匹配的方法C、利用仍神經(jīng)網(wǎng)絡(luò)的方法D、語(yǔ)音知識(shí)方法答案:ABCD25.關(guān)于Dropout說(shuō)法正確的是:(__)。A、Dropout背后的思想其實(shí)就是把DNN當(dāng)做一個(gè)集成模型來(lái)訓(xùn)練,之后取所有值的平均值,而不只是訓(xùn)練單個(gè)DNNB、DNN網(wǎng)絡(luò)將Dropout率設(shè)置為p,也就是說(shuō),一個(gè)神經(jīng)元被保留的概率是1-p。當(dāng)一個(gè)神經(jīng)元被丟棄時(shí),無(wú)論輸入或者相關(guān)的參數(shù)是什么,它的輸出值就會(huì)被設(shè)置為0C、丟棄的神經(jīng)元在訓(xùn)練階段,對(duì)BP算法的前向和后向階段都沒(méi)有貢獻(xiàn)。因?yàn)檫@個(gè)原因,所以每一次訓(xùn)練,它都像是在訓(xùn)練一個(gè)新的網(wǎng)絡(luò)D、Dropout方法通常和L2正則化或者其他參數(shù)約束技術(shù)(比如MaxNorm)一起使用,來(lái)防止神經(jīng)網(wǎng)絡(luò)的過(guò)擬合答案:ABCD26.我們想要減少數(shù)據(jù)集中的特征數(shù),即降維.選擇以下適合的方案:()。A、使用前向特征選擇方法B、使用后向特征排除方法C、我們先把所有特征都使用,去訓(xùn)練一個(gè)模型,得到測(cè)試集上的表現(xiàn).然后我們?nèi)サ粢粋€(gè)特征,再去訓(xùn)練,用交叉驗(yàn)證看看測(cè)試集上的表現(xiàn).如果表現(xiàn)比原來(lái)還要好,我們可以去除這個(gè)特征D、查看相關(guān)性表,去除相關(guān)性最高的一些特征答案:ABCD27.下面哪些是基于核的機(jī)器學(xué)習(xí)算法(__)。A、最大期望算法B、徑向基核函數(shù)C、線性判別分析法D、支持向量機(jī)答案:BCD28.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的敘述中正確的是()。A、可用于處理時(shí)間序列數(shù)據(jù)B、可用于處理圖像數(shù)據(jù)C、卷積網(wǎng)絡(luò)中使用的卷積運(yùn)算就是數(shù)學(xué)中的卷積計(jì)算D、至少在網(wǎng)絡(luò)的一層中使用卷積答案:ABD29.我們想要訓(xùn)練一個(gè)ML模型,樣本數(shù)量有100萬(wàn)個(gè),特征維度是5000,面對(duì)如此大數(shù)據(jù),如何有效地訓(xùn)練模型()A、對(duì)訓(xùn)練集隨機(jī)采樣,在隨機(jī)采樣的數(shù)據(jù)上建立模型B、嘗試使用在線機(jī)器學(xué)習(xí)算法C、使用PCA算法減少特征維度答案:ABC30.下面哪些是Spark的組件()。A、SparkStreamingB、MLibC、GraphXD、SparkR答案:ABC31.下面是Numpy支持的統(tǒng)計(jì)函數(shù)有()。A、minB、maxC、medianD、mean答案:ABCD32.以下屬于自然語(yǔ)言處理范疇的是()。A、情感傾向分析B、評(píng)論觀點(diǎn)抽取C、文章分類D、新聞?wù)槿〈鸢福篈BCD33.常見(jiàn)的圖像降噪方式包括()。A、中值濾波B、均值濾波C、平均濾波D、加權(quán)平均濾波答案:ABCD34.SparkRDD的依賴機(jī)制包括()。A、寬依賴B、深度依賴C、廣度依賴D、窄依賴答案:AD35.Spark支持的計(jì)算模型有()。A、批處理;B、實(shí)時(shí)計(jì)算;C、機(jī)器學(xué)習(xí)模型;D、交互式查詢;答案:ABCD36.如將A、B、C三個(gè)分類器的PR曲線畫(huà)在一個(gè)圖中,其中A、B的PR曲線可以完全包含住C的PR曲線,A與B的PR曲線有交點(diǎn),A、B、C的平衡點(diǎn)分別為0.79、0.66、0.58,以下說(shuō)法中正確的是()。A、學(xué)習(xí)器A的性能優(yōu)于學(xué)習(xí)器CB、學(xué)習(xí)器A的性能優(yōu)于學(xué)習(xí)器BC、學(xué)習(xí)器B的性能優(yōu)于學(xué)習(xí)器CD、學(xué)習(xí)器C的性能優(yōu)于學(xué)習(xí)器B答案:ABC37.下列哪些是情感分析的應(yīng)用場(chǎng)景()。A、數(shù)據(jù)挖掘B、信息檢索C、文本分詞D、市場(chǎng)營(yíng)銷答案:ABD38.以下四個(gè)選項(xiàng)中,()是Python關(guān)鍵字。A、asB、globalC、intD、not答案:ABD39.下面不是Python關(guān)鍵字的是()。A、noB、NoneC、noneD、null答案:ACD40.HadoopMapReduce是MapReduce的具體實(shí)現(xiàn)之一。HadoopMapReduce數(shù)據(jù)處理過(guò)程涉及四個(gè)獨(dú)立的實(shí)體,包括()。A、ClientB、JobTrackerC、TaskTrackerD、HDFS答案:ABCD41.Hadoop組件Zookeeper的設(shè)計(jì)目標(biāo)和主要特點(diǎn)包括()。A、簡(jiǎn)單性B、自我復(fù)制C、順序訪問(wèn)D、高速讀取答案:ABCD42.以下可用于處理由于光照不均帶來(lái)的影響的圖像處理方法有()。A、同態(tài)濾波B、頂帽變換C、基于移動(dòng)平均的局部閾值處理D、拉普拉斯算子答案:ABC43.ETL包含下列哪些過(guò)程()A、數(shù)據(jù)抽取B、數(shù)據(jù)轉(zhuǎn)換C、數(shù)據(jù)加載D、數(shù)據(jù)展現(xiàn)答案:ABC44.HighBias(高偏差)解決方案:()。A、BoostingB、復(fù)雜模型(非線性模型、增加神經(jīng)網(wǎng)絡(luò)中的層)C、更多特征答案:ABC45.大數(shù)據(jù)平臺(tái)的計(jì)算組件主要有哪幾個(gè)()。A、StormB、SparkC、MapreduceD、Sqoop答案:ABC46.下面對(duì)LDA判別分析的思想描述正確的是()。A、同類樣例的投影點(diǎn)盡可能近B、異類樣例的投影點(diǎn)盡可能遠(yuǎn)C、同類樣例的投影點(diǎn)盡可能遠(yuǎn)D、異類樣例的投影點(diǎn)盡可能近答案:AB47.Spark2.0提供的應(yīng)用庫(kù)包括()。A、SparkSQLB、SparkStreamingC、MLibD、GraphX答案:ABCD48.下列關(guān)于極大似然估計(jì)(MaximumLikelihoodEstimate,MLE),說(shuō)法正確的是(__)。A、MLE可能并不存在B、MLE總是存在C、如果MLE存在,那么它的解可能不是唯一的D、如果MLE存在,那么它的解一定是唯一的答案:AC49.下列屬于數(shù)值優(yōu)化算法的是()。A、梯度下降法B、牛頓法C、極大似然法D、邏輯回歸答案:AB50.下列關(guān)于探索型數(shù)據(jù)分析常用圖表的說(shuō)法,正確的有:A、絕大部分情況下使用餅圖代替條形圖能更加直觀地展示數(shù)據(jù)之間的特征和對(duì)比B、探索型數(shù)據(jù)分析常用的圖表包括條形圖、直方圖、餅圖、折線圖、散點(diǎn)圖、箱型圖等C、在探索型數(shù)據(jù)分析時(shí)應(yīng)該盡量避免使用餅圖,然而在數(shù)據(jù)報(bào)告中可以使用餅圖達(dá)到更加美觀的效果D、直方圖和箱型圖都可以用來(lái)展示數(shù)據(jù)的分布情況答案:BCD51.name=np.array(['Liu','Wang','Zhu','Wang','Zhu','Wang','Zhu']),則下列可以的到['Liu','Wang','Zhu']的代碼是()。A、np.unique(name)B、sorted(set(name))C、np.sort(name)D、name答案:AB52.下面哪些是spark比Mapreduce計(jì)算快的原因()。A、基于內(nèi)存的計(jì)算;B、基于DAG的調(diào)度框架;C、基于Lineage的容錯(cuò)機(jī)制;D、基于分布式計(jì)算的框架;答案:ABC53.下面哪些是有效的類構(gòu)造函數(shù)()。A、def_Init_(self):B、def_init_(self,var=0):C、def_init_():D、def_init_(self,a,b,c):答案:ABD54.常用的數(shù)據(jù)審計(jì)方法可以分為()。A、預(yù)定義審計(jì)B、自定義審計(jì)C、可視化審計(jì)D、結(jié)構(gòu)化審計(jì)答案:ABC55.MapReduce中運(yùn)行程序副本程序的機(jī)器為()。A、Map服務(wù)器B、Master服務(wù)器C、Worker服務(wù)器D、Reduce服務(wù)器答案:BC56.下列關(guān)于PCA說(shuō)法正確的是()。A、在使用PCA之前,我們必須標(biāo)準(zhǔn)化數(shù)據(jù)B、應(yīng)該選擇具有最大方差的主成分C、應(yīng)該選擇具有最小方差的主成分D、可以使用PCA在低維空間中可視化數(shù)據(jù)答案:ABD57.以下哪幾項(xiàng)屬于漢語(yǔ)未登錄詞的類型()。A、存在于詞典但出現(xiàn)頻率較少的詞B、新出現(xiàn)的普通詞匯C、專有名詞D、專業(yè)名詞和研究領(lǐng)域名稱答案:BCD58.以下方法中可用于圖像分割的有()。A、霍夫曼編碼B、分水嶺算法C、K-meansD、區(qū)域增長(zhǎng)法答案:BCD59.若b=np.array([True,False,False]),以下能輸出[FalseTrueTrue]的是()。A、print(b-1)B、print(~b)C、print(np.logical_not(b))D、print(>>b)答案:BC60.數(shù)據(jù)科學(xué)以數(shù)據(jù)尤其是大數(shù)據(jù)為研究對(duì)象,主要研究?jī)?nèi)容包括()。A、數(shù)據(jù)加工(DataWrangling或DataMunging)B、數(shù)據(jù)管理C、數(shù)據(jù)計(jì)算D、數(shù)據(jù)產(chǎn)品研發(fā)答案:ABCD61.關(guān)于Python分隔代碼塊描述錯(cuò)誤的是()。A、內(nèi)嵌代碼的每一行,都比外面的if語(yǔ)句的縮進(jìn)更多B、代碼以“begin”開(kāi)頭,“end”結(jié)尾C、每行代碼的縮進(jìn)都一致D、代碼塊被封裝在花括號(hào)中答案:BCD62.實(shí)時(shí)計(jì)算類應(yīng)用主要通過(guò)()來(lái)實(shí)現(xiàn)。A、流計(jì)算組件B、內(nèi)存計(jì)算組件C、MPP數(shù)據(jù)庫(kù)D、Hadoop的后臺(tái)定時(shí)分析計(jì)算任務(wù)答案:AB63.Python中,字典的內(nèi)置方法包括()。A、radiansdictkeys()B、radiansdictsetdefault(key,default=None)C、radiansdictupdate(dict2)D、radiansdictvalues()答案:ABCD64.在數(shù)據(jù)缺失嚴(yán)重時(shí),會(huì)對(duì)分析結(jié)果造成較大的影響,因此剔除的異常值和缺失值,要采用合理的方法進(jìn)行填補(bǔ),常用的方法有()。A、平均值填充B、K最近鄰距離法C、回歸法D、極大似然估計(jì)E、多重插補(bǔ)法答案:ABCDE65.以下屬于圖像分割的算法的是:()。A、閾值分割方法(thresholdsegmentationmethod)B、區(qū)域增長(zhǎng)細(xì)分(regionalgrowthsegmentation)C、邊緣檢測(cè)分割方法(edgedetectionsegmentationmethod)D、基于聚類的分割(segmentationbasedonclustering)E、基于CNN中弱監(jiān)督學(xué)習(xí)的分割答案:ABCDE66.字典的遍歷正確的有()。A、forin變量i,字典:使用i遍歷所有的鍵,有鍵就可以通過(guò)變量訪問(wèn)其值B、for變量iin字典:使用i遍歷所有的鍵,有鍵就可以通過(guò)變量訪問(wèn)其值C、for變量i,變量jin字典items():使用變量i遍歷所有鍵,通過(guò)變量j遍歷所有值D、forin變量i,變量j字典items():使用變量i遍歷所有鍵,通過(guò)變量j遍歷所有值答案:BC67.特征向量的缺失值處理:缺失值較多,直接將該特征舍棄掉,否則可能反倒會(huì)帶入較大的noise,對(duì)結(jié)果造成不良影響;缺失值較少,其余的特征缺失值都在10%以內(nèi),我們可以采取很多的方式來(lái)處理:()。A、把NaN直接作為一個(gè)特征,假設(shè)用0表示B、用均值填充C、用隨機(jī)森林等算法預(yù)測(cè)填充D、以上答案都不正確答案:ABC68.在假設(shè)檢驗(yàn)中,當(dāng)原假設(shè)為“偽”,但數(shù)據(jù)分析人員沒(méi)有拒絕它時(shí)犯的錯(cuò)誤叫()。A、α錯(cuò)誤B、β錯(cuò)誤C、取偽錯(cuò)誤D、棄真錯(cuò)誤答案:BC69.直方圖修正法包括()。A、直方圖統(tǒng)計(jì)B、直方圖均衡C、直方圖過(guò)濾D、直方圖規(guī)定化;答案:BD70.統(tǒng)計(jì)模式分類問(wèn)題中,當(dāng)先驗(yàn)概率未知時(shí),可以使用()。A、最小最大損失準(zhǔn)則B、最小誤判概率準(zhǔn)則C、最小損失準(zhǔn)則D、N-P判決答案:AD71.使用Python操作目錄以下哪些符合()。A、mkdir:用于以數(shù)字權(quán)限模式創(chuàng)建目錄B、getcwd:用于返回當(dāng)前工作目錄C、chdir:用于改變當(dāng)前工作目錄到指定的路徑D、rmdir:用于刪除指定路徑的目錄。僅當(dāng)這文件夾是空的才可以,否則,拋出OSError。答案:ABCD72.空間域?yàn)V波是直接以圖像中的像素操作為基礎(chǔ)的濾波,空間濾波器有時(shí)也可稱為()。A、空間掩模B、核C、模板D、窗口答案:ABCD73.以下算法中可以應(yīng)用于圖像分割的是()。A、邊緣檢測(cè)技術(shù)B、閾值分割技術(shù)C、基于區(qū)域的分割技術(shù)D、區(qū)域生長(zhǎng)方法答案:ABCD74.下面關(guān)于連續(xù)型隨機(jī)變量以及連續(xù)型概率密度函數(shù)的說(shuō)法,正確的是。A、“一個(gè)客服一天可能接聽(tīng)到多少個(gè)電話”是一個(gè)連續(xù)型隨機(jī)變量B、正態(tài)分布是一種連續(xù)型隨機(jī)變量的概率分布C、可以使用概率密度函數(shù)來(lái)描述連續(xù)型隨機(jī)變量的概率分布D、連續(xù)型概率密度函數(shù)曲線下方的面積之和為1答案:BCD75.類的特點(diǎn)有()。A、封裝B、繼承C、多態(tài)D、重復(fù)答案:ABC76.數(shù)據(jù)可視化中,從數(shù)據(jù)到知識(shí)的轉(zhuǎn)換途徑()。A、可視化分析B、自動(dòng)化建模C、用戶交互D、參數(shù)優(yōu)化答案:AB77."噪聲"是指測(cè)量變量中的隨機(jī)錯(cuò)誤或偏差,噪聲數(shù)據(jù)的主要表現(xiàn)有那幾種形式()A、錯(cuò)誤數(shù)據(jù)B、假數(shù)據(jù)C、異常數(shù)據(jù)D、僵尸數(shù)據(jù)答案:ABC78.下列哪些是詞語(yǔ)情感分析的方法()。A、基于網(wǎng)絡(luò)的分析方法B、基于word-embedding的分析方法C、基于詞典的分析方法D、基于詞頻的分析方法答案:AC79.pandas中主要的數(shù)據(jù)結(jié)構(gòu)是()。A、DataB、DataFrameC、FrameD、Series答案:BD80.在Windows系統(tǒng)中通過(guò)Geany編寫Python程序,運(yùn)行Python程序的常用步驟是()。A、菜單Build>ExecuteB、菜單Execute>BuildC、按F5D、按F10答案:AC81.下列哪些是RDBMS中事務(wù)遵循的原則()A、原子性(Atomicity)B、一致性(Connsistency)C、隔離性(Isolation)D、持久性(Durability)答案:ABCD82.算法“歧視”現(xiàn)象可能出現(xiàn)在()。A、算法設(shè)計(jì)B、算法實(shí)現(xiàn)C、算法投入使用D、算法驗(yàn)證答案:ABC83.下面關(guān)于Python中的列表和字典說(shuō)法正確的是()。A、字典和列表都可以通過(guò)“[]”操作符訪問(wèn)元素的值B、列表的索引必須是整型數(shù)或者切片C、字典不過(guò)是列表的另一個(gè)名字。二者沒(méi)有區(qū)別D、字典的長(zhǎng)度是動(dòng)態(tài)的,而列表的長(zhǎng)度是固定的答案:AB84.下面關(guān)于JSON數(shù)據(jù)格式,哪些說(shuō)法是正確的()。A、jsonloads載入json格式數(shù)據(jù)后會(huì)用類似數(shù)組的方式把數(shù)據(jù)轉(zhuǎn)換成數(shù)據(jù)表B、具有數(shù)據(jù)結(jié)構(gòu)緊湊可讀性強(qiáng)的優(yōu)點(diǎn)C、Python中可以使用JSON模塊把Json格式字符串解碼轉(zhuǎn)換成Python對(duì)象D、網(wǎng)絡(luò)中交換數(shù)據(jù)最常見(jiàn)的格式之一答案:BCD85.Hadoop中map輸出結(jié)果說(shuō)法正確的是()。A、<key,value>鍵值對(duì)B、輸出中間臨時(shí)結(jié)果C、輸出最終計(jì)算結(jié)果D、輸出結(jié)果永久保留答案:AB86.聚類性能度量外部指標(biāo)包括()。A、Jaccard系數(shù)B、FM指數(shù)C、Dunn指數(shù)D、Rand指數(shù)答案:ABD87.以下關(guān)于MapReduce1.0版本說(shuō)法正確的是()。A、擴(kuò)展性差B、可靠性差C、資源利用率低D、無(wú)法支持多種計(jì)算框架答案:ABCD88.Hadoop組件Flume三層架構(gòu)包括()。A、AgentB、GossipC、CollectorD、Storage答案:ACD89.做一個(gè)二分類預(yù)測(cè)問(wèn)題,先設(shè)定閾值為0.5,概率大于等于0.5的樣本歸入正例類(即1),小于0.5的樣本歸入反例類(即0)。然后,用閾值n(n>0.5)重新劃分樣本到正例類和反例類,下面哪一種說(shuō)法正確()。A、增加閾值不會(huì)提高召回率B、增加閾值會(huì)提高召回率C、增加閾值不會(huì)降低查準(zhǔn)率D、增加閾值會(huì)降低查準(zhǔn)率答案:AC90.神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)可以分為()和隨機(jī)型網(wǎng)絡(luò)等。A、前向型B、后向型C、反饋型D、自組織競(jìng)爭(zhēng)型答案:ACD91.下列在Python中描述正確的是()。A、pass語(yǔ)句不會(huì)執(zhí)行任何操作,一般作為占位符或者創(chuàng)建占位程序B、sorted可以對(duì)列表進(jìn)行排序,如:i=[5,1,2,3,4]i=sorted(i)C、內(nèi)建的數(shù)據(jù)類型豐富,除了字典和列表外,還有集合(set)元組(tuple)等類型D、分號(hào)在Python中是無(wú)用途答案:ABC92.下面有關(guān)HTML敘述正確的是()。A、一個(gè)HTML文件可以用記事本來(lái)編輯B、HTML的意思是超文本標(biāo)記語(yǔ)言C、一個(gè)HTML文件必須是一個(gè)以htm或html為擴(kuò)展名的文件D、HTML區(qū)分大小寫,如<b>寫成<B>是錯(cuò)誤的答案:ABC93.可視分析學(xué)的幾個(gè)特點(diǎn)包含()A、強(qiáng)調(diào)數(shù)據(jù)到知識(shí)的轉(zhuǎn)換過(guò)程B、強(qiáng)調(diào)可視化分析與自動(dòng)化建模之間的相互作用C、強(qiáng)調(diào)數(shù)據(jù)映射和數(shù)據(jù)挖掘的重要性D、強(qiáng)調(diào)數(shù)據(jù)加工工作的必要性E、強(qiáng)調(diào)人機(jī)交互的重要性答案:ABCDE94.長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)三個(gè)門是哪些()A、進(jìn)化門B、輸出門C、輸入門D、遺忘門答案:BCD95.處理圖像平滑處理的濾波有()。A、盒式濾波B、均值濾波C、高斯濾波D、中值濾波答案:ABCD96.噪聲數(shù)據(jù)的產(chǎn)生原因主要有()。A、數(shù)據(jù)采集設(shè)備有問(wèn)題B、在數(shù)據(jù)錄入過(guò)程中發(fā)生了人為或計(jì)算機(jī)錯(cuò)誤C、數(shù)據(jù)傳輸過(guò)程中發(fā)生錯(cuò)誤D、由于命名規(guī)則或數(shù)據(jù)代碼不同而引起的不一致答案:ABCD97.RNN在NLP領(lǐng)域的應(yīng)用包括(__)。A、語(yǔ)言模型與文本生成B、機(jī)器翻譯C、語(yǔ)音識(shí)別D、圖像描述生成答案:ABCD98.一個(gè)監(jiān)督觀測(cè)值集合會(huì)被劃分為()。A、訓(xùn)練集B、驗(yàn)證集C、測(cè)試集D、預(yù)處理集答案:ABC99.常見(jiàn)的圖像分割算法有()。A、基于區(qū)域的分割方法B、基于人工勾畫(huà)的分割方法C、基于邊緣的分割方法D、基于閾值的分割方法答案:ACD100.下面屬于詞袋模型的缺點(diǎn)的是()。A、詞匯表的詞匯需要經(jīng)過(guò)精心設(shè)計(jì)B、表示具有稀疏性C、丟失詞序忽略了上下文D、模型復(fù)雜,不利于實(shí)施;答案:ABC101.圖像處理中的去噪算法有()。A、中值濾波B、均值濾波C、峰值濾波D、高值濾波答案:AB102.下列哪個(gè)是Hadoop運(yùn)行的模式()。A、單機(jī)版B、偽分布式C、分布式D、全分布式答案:ABC103.Apriori算法的計(jì)算復(fù)雜度受()影響。A、支持度閥值B、項(xiàng)數(shù)(維度)C、事務(wù)數(shù)D、事務(wù)平均寬度答案:ABCD104.Spark容錯(cuò)性的方式有哪些()。A、數(shù)據(jù)檢查點(diǎn);B、存儲(chǔ)原始數(shù)據(jù);C、記錄數(shù)據(jù)的更新;D、自建數(shù)據(jù)版本;答案:AC105.Spark提交工作的方式()。A、lientB、lusterC、tandaloneD、arn答案:AB106.以下()函數(shù)是累積函數(shù)。A、cumsumB、argminC、cumprodD、argmax答案:AC107.以下跟圖像處理相關(guān)的是()。A、圖像識(shí)別B、人臉識(shí)別C、視頻分析D、nlp答案:ABCD108.以下網(wǎng)絡(luò)結(jié)構(gòu)中可以應(yīng)用于圖像識(shí)別任務(wù)的是()。A、LeNet-5B、AlexNetC、CNND、VGG-net答案:ABCD109.影響聚類算法效果的主要原因有:()A、特征選取B、模式相似性測(cè)度C、分類準(zhǔn)則D、已知類別的樣本質(zhì)量答案:ABC110.數(shù)據(jù)科學(xué)基本原則中,三世界原則指的是()A、我們的世界B、數(shù)據(jù)世界C、物理世界D、數(shù)字世界答案:ABC111.以下選項(xiàng)中,屬于MapReduce特征的有()。A、以主從結(jié)構(gòu)的形式運(yùn)行B、容錯(cuò)機(jī)制的復(fù)雜性C、任務(wù)備份機(jī)制的必要性D、數(shù)據(jù)存儲(chǔ)位置固定答案:ABC112.Spark的技術(shù)架構(gòu)可以分為哪幾層()。A、資源管理層;B、Spark核心層;C、應(yīng)用層;D、服務(wù)層;答案:ABD113.以下對(duì)模型性能提高有幫助的是()。A、數(shù)據(jù)預(yù)處理B、特征工程C、機(jī)器學(xué)習(xí)算法D、模型集成答案:ABCD114.Hadoop的HDFS是一種分布式文件系統(tǒng),適合以下哪種場(chǎng)景的數(shù)據(jù)存儲(chǔ)和管理()。A、大量小文件存儲(chǔ)B、高容錯(cuò)、高吞吐量C、低延遲讀取D、流式數(shù)據(jù)訪問(wèn)答案:BD115.Hadoop的優(yōu)點(diǎn)包括()。A、可靠的B、高效的C、可伸縮的D、低成本答案:ABCD116.在詞袋模型中使用單個(gè)的單詞來(lái)構(gòu)建詞向量這樣的序列被稱為()。A、1元組(1-gram))B、單元組(unigram)模型C、列表D、字典答案:AB117.下列關(guān)于集合操作結(jié)果正確的有()。A、name={‘d’,‘s’}nameadd(‘sd’)name值為:{‘sd’,‘d’,‘s’}B、name={‘sd’,d’,‘s’}nameremove(‘s’)name值為:{‘sd’,‘d’}C、name={‘sd’,d’,‘s’}nameclear()name值為:{}D、name={‘sd’,d’,‘s’}nameupdate(‘df’)name值為:{‘sd’,’d’,‘f’,’s’,’j’}答案:ABC118.按照涉及自變量的多少,可以將回歸分析分為()。A、線性回歸分析B、非線性回歸分析C、一元回歸分析D、多元回歸分析E、綜合回歸分析答案:CD119.關(guān)于數(shù)據(jù)組織的維度,以下選項(xiàng)中描述正確的是()。A、數(shù)據(jù)組織存在維度,字典類型用于表示一維和二維數(shù)據(jù)B、高維數(shù)據(jù)有鍵值對(duì)類型的數(shù)據(jù)構(gòu)成,采用對(duì)象方式組織C、二維數(shù)據(jù)采用表格方式組織,對(duì)應(yīng)于數(shù)學(xué)中的矩陣D、一維數(shù)據(jù)采用線性方式組織,對(duì)應(yīng)于數(shù)學(xué)中的數(shù)組和集合等概念答案:BCD120.CNN相比于全連接的DNN有哪些優(yōu)勢(shì)()A、參數(shù)更少B、泛化更好C、訓(xùn)練更快D、更容易搭建;答案:ABC121.以下哪種說(shuō)法是正確的()。A、網(wǎng)站服務(wù)器可以識(shí)別你使用的訪問(wèn)軟件,因?yàn)樵诎l(fā)送訪問(wèn)請(qǐng)求中有特定位置的字符串和軟件類型相關(guān)B、低級(jí)別的代理服務(wù)器十分容易被識(shí)別C、可以通過(guò)修改opener的proxy來(lái)模擬瀏覽器訪問(wèn)D、爬取圖片的流程被中斷時(shí),之前所有爬取的信息都將被自動(dòng)刪除答案:AB122.以下有關(guān)特征數(shù)據(jù)歸一化的說(shuō)法正確的是()。A、特征數(shù)據(jù)歸一化加速梯度下降優(yōu)化的速度B、特征數(shù)據(jù)歸一化有可能提高模型的精度C、線性歸一化適用于特征數(shù)值分化比較大的情況D、概率模型不需要做歸一化處理答案:ABD123.下面關(guān)于機(jī)器學(xué)習(xí)的理解正確的是()。A、非監(jiān)督學(xué)習(xí)的樣本數(shù)據(jù)是要求帶標(biāo)簽的B、監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)的區(qū)別在于是否要求樣本數(shù)據(jù)帶標(biāo)簽C、強(qiáng)化學(xué)習(xí)以輸入數(shù)據(jù)作為對(duì)模型的反饋D、卷積神經(jīng)網(wǎng)絡(luò)一般用于圖像處理等局部特征相關(guān)的數(shù)據(jù)答案:BCD124.下面關(guān)于單樣本Z檢驗(yàn)的說(shuō)法,正確的是()。A、在Python中,單樣本Z檢驗(yàn)可以使用scipy.stats.ttest_1samp()實(shí)現(xiàn)B、單樣本Z檢驗(yàn)適用于樣本量較大的情況C、單樣本Z檢驗(yàn)假設(shè)要檢驗(yàn)的統(tǒng)計(jì)量(近似)滿足正態(tài)分布D、單樣本Z檢驗(yàn)常用于檢驗(yàn)總體平均值是否等于某個(gè)常量答案:BCD125.下列哪種服務(wù)可以用于存儲(chǔ)數(shù)據(jù)()。A、MapReduceB、YARNC、HBaseD、HDFS答案:CD126.使用極大似然估計(jì)的前提條件有()。A、數(shù)據(jù)服從某種已知的特定數(shù)據(jù)分布型B、已經(jīng)得到了一部分?jǐn)?shù)據(jù)集C、提前已知某先驗(yàn)概率D、數(shù)據(jù)集各個(gè)屬性相對(duì)獨(dú)立答案:AB127.以下選項(xiàng)中,不是Python語(yǔ)言保留字的是()。A、doB、passC、exceptD、until答案:AD128.下列哪些屬于TF-IDF的應(yīng)用()。A、搜索引擎B、關(guān)鍵詞提取C、文本相似性D、數(shù)據(jù)降維答案:ABC129.數(shù)據(jù)增值存在于哪些過(guò)程中()。A、數(shù)據(jù)對(duì)象的封裝B、數(shù)據(jù)系統(tǒng)的研發(fā)C、數(shù)據(jù)的集成應(yīng)用D、基于數(shù)據(jù)的創(chuàng)新答案:ABCD130.對(duì)于不同場(chǎng)景內(nèi)容,一般數(shù)字圖像可以分為()。A、二值圖像B、灰度圖像C、彩色圖像D、深度圖像答案:ABC131.K均值聚類和層次聚類在一些方面有重大差異。以下哪些說(shuō)法是正確的()A、在K均值聚類中,必須在運(yùn)行算法前選定想要的簇的個(gè)數(shù)B、在k均值聚類中,可以在運(yùn)行算法后選定想要的簇的個(gè)數(shù)C、在層次聚類中,可以在運(yùn)行算法后選定想要的簇的個(gè)數(shù)D、k均值聚類算法所需的計(jì)算量比層次聚類算法小得多答案:ACD132.在Spark中,彈性分布式數(shù)據(jù)集的特點(diǎn)包括()。A、可分區(qū)B、可序列化C、可直接修改D、可持久化答案:ABD133.Python邏輯表達(dá)式()會(huì)導(dǎo)致邏輯短路,即不會(huì)繼續(xù)向下推算而直接返回結(jié)果。A、False開(kāi)頭的and語(yǔ)句B、False開(kāi)頭的or語(yǔ)句C、True開(kāi)頭的and語(yǔ)句D、True開(kāi)頭的or語(yǔ)句答案:AD134.ApacheFlume主要解決的是日志數(shù)據(jù)的收集和處理問(wèn)題。Flume的主要設(shè)計(jì)目的和特征是()。A、高可靠性B、可拓展C、管理復(fù)雜D、不支持用戶自定義答案:AB135.屬于特征選擇的優(yōu)點(diǎn)有()。A、解決模型自身的缺陷B、減少過(guò)擬合C、提升模型的性能D、增強(qiáng)模型的泛化能力答案:BCD136.數(shù)據(jù)來(lái)源和目標(biāo)用戶已定的情況下,不同視覺(jué)通道的表現(xiàn)力不同。視覺(jué)通道的表現(xiàn)力的評(píng)價(jià)指標(biāo)包括()。A、精確性B、可辨認(rèn)性C、可分離性D、視覺(jué)突出性答案:ABCD137.已定義級(jí)(DefinedLevel)的主要特點(diǎn)包括()。A、組織機(jī)構(gòu)已明確給出了關(guān)鍵過(guò)程的“標(biāo)準(zhǔn)定義”,并定期對(duì)其進(jìn)行改進(jìn)。B、已提供了關(guān)鍵過(guò)程的測(cè)量與預(yù)測(cè)方法。C、關(guān)鍵過(guò)程的執(zhí)行過(guò)程并不是簡(jiǎn)單或死板地執(zhí)行組織機(jī)構(gòu)給出的“標(biāo)準(zhǔn)定義”,而是根據(jù)具體業(yè)務(wù)進(jìn)行了一定的“裁剪”工作。D、數(shù)據(jù)的重要性已成為組織機(jī)構(gòu)層次的共識(shí),將數(shù)據(jù)當(dāng)作成功實(shí)現(xiàn)組織機(jī)構(gòu)使命的關(guān)鍵因素之一答案:ABCD138.Client端上傳文件的時(shí)候下列哪項(xiàng)正確()。A、數(shù)據(jù)經(jīng)過(guò)NameNode傳遞給DataNodeB、Client端將文件切分為Block,依次上傳C、Client只上傳數(shù)據(jù)到一臺(tái)DataNode,然后由NameNode負(fù)責(zé)Block復(fù)制D、Client如果上傳的時(shí)候沒(méi)有上傳成功指定的副本數(shù),則整次上傳不成功答案:BD139.()是通過(guò)對(duì)無(wú)標(biāo)記訓(xùn)練樣本的學(xué)習(xí)來(lái)進(jìn)行分類的。A、密度估計(jì)B、異常檢測(cè)C、線性回歸D、聚類分析答案:ABD140.Python中jieba庫(kù)支持哪幾種模式()。A、精準(zhǔn)模式B、匹配模式C、全模式D、搜索引擎模式答案:ACD141.關(guān)于降維說(shuō)法正確的是()。A、PA是根據(jù)方差這一屬性降維的B、降維可以防止模型過(guò)擬合C、降維降低了數(shù)據(jù)集特征的維度D、降維方法有PLA等答案:ACD142.下列哪些是TF-IDF的缺點(diǎn)()。A、字詞的重要性隨它在文件中出現(xiàn)的次數(shù)成正比B、將一些生僻字誤當(dāng)作文檔關(guān)鍵詞C、只考慮特征詞和文本之間的關(guān)系,忽略了一個(gè)特征項(xiàng)在不同類別間的分布情況D、沒(méi)有考慮特征詞的位置因素對(duì)文本的區(qū)分度答案:BCD143.以下關(guān)于API爬蟲(chóng)哪些說(shuō)法是錯(cuò)誤的()。A、基于API返回的結(jié)果通常會(huì)比較干凈B、基于API的爬蟲(chóng)任務(wù)中,速度一般較慢C、基于API的爬蟲(chóng)爬取的好處是沒(méi)有次數(shù)的限制D、基于API的爬取能夠覆蓋網(wǎng)站所有信息答案:BCD144.以下關(guān)于降維方法,敘述正確的是()。A、主成分分析是一種常用的非線性降維方法B、核化線性降維是一種常用的線性降維方法C、流形學(xué)習(xí)是一種借鑒拓?fù)淞餍胃拍畹慕稻S方法D、度量學(xué)習(xí)繞過(guò)降維的過(guò)程,將學(xué)習(xí)目標(biāo)轉(zhuǎn)化為對(duì)距離度量計(jì)算的權(quán)重矩陣的學(xué)習(xí)答案:CD145.下面哪些是循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出模式(__)。A、多輸出B、單輸出C、同步多輸出D、異步多輸出答案:ABD146.下列方法中,可以用于特征降維的方法包括()。A、主成分分析PCAB、線性判別分析LDAC、深度學(xué)習(xí)SparseAutoEncoderD、矩陣奇異值分解SVD答案:ABD147.Spark的部署模式包括()。A、本地模式B、standalone模式C、SparkonyarnD、mesos模式答案:ABCD148.Scikit-Learn中可以實(shí)現(xiàn)()算法。A、分類B、聚類C、回歸D、降維答案:ABCD149.關(guān)于學(xué)習(xí)器結(jié)合的描述正確的選項(xiàng)是()。A、避免單學(xué)習(xí)器可能因誤選而導(dǎo)致泛化性能不佳B、降低陷入局部極小點(diǎn)的風(fēng)險(xiǎn)C、假設(shè)空間擴(kuò)大,有可能學(xué)得更好的近似D、多學(xué)習(xí)器結(jié)合有可能沖突答案:ABC150.在網(wǎng)絡(luò)爬蟲(chóng)的爬行策略中,應(yīng)用最為常見(jiàn)的是()。A、深度優(yōu)先遍歷策略B、廣度優(yōu)先遍歷策略C、高度優(yōu)先遍歷策略D、反向鏈接策略E、大站優(yōu)先策略答案:AB151.關(guān)于分析學(xué)習(xí)和歸納學(xué)習(xí)的比較,說(shuō)法正確的是()。A、歸納學(xué)習(xí)擬合數(shù)據(jù)假設(shè),分析學(xué)習(xí)擬合領(lǐng)域理論的假設(shè)B、歸納學(xué)習(xí)論證方式為統(tǒng)計(jì)推理,分析學(xué)習(xí)為演繹推理C、歸納學(xué)習(xí)不需要隱式的先驗(yàn)知識(shí)D、訓(xùn)練數(shù)據(jù)不足時(shí)歸納學(xué)習(xí)可能會(huì)失敗答案:ABCD152.下列關(guān)于EM算法描述正確的是(__)。A、EM算法是常用的估計(jì)參數(shù)隱變量的利器B、EM算法即是期望最大化算法C、EM算法常被用來(lái)學(xué)習(xí)高斯混合模型的參數(shù)D、EM算法是一種迭代式的方法答案:ABCD153.假設(shè)檢驗(yàn)中,首先需要提出零假設(shè)和備擇假設(shè),零假設(shè)是(),備擇假設(shè)是()。A、只有出現(xiàn)的概率大于閾值才會(huì)被拒絕的,只有零假設(shè)出現(xiàn)的概率大于閾值才會(huì)被承認(rèn)的B、希望推翻的結(jié)論,希望證明的結(jié)論C、只有出現(xiàn)的概率小于閾值才會(huì)被拒絕的,只有零假設(shè)出現(xiàn)的概率小于閾值才會(huì)被承認(rèn)的D、希望證明的結(jié)論,希望推翻的結(jié)論答案:BC154.HIS表色系的三屬性包含:()。A、色調(diào)B、色飽和度C、亮度D、色度答案:ABC155.列式數(shù)據(jù)庫(kù)(如BigTable和HBase)以表的形式存儲(chǔ)數(shù)據(jù),表結(jié)構(gòu)包括()等元素A、行鍵B、時(shí)間戳C、列簇D、數(shù)據(jù)類型答案:ABC156.下列關(guān)于Ridge回歸,說(shuō)法正確的是()A、若λ=0,則等價(jià)于一般的線性回歸B、若λ=0,則不等價(jià)于一般的線性回歸C、若λ=+∞,則得到的權(quán)重系數(shù)很小,接近于零D、若λ=+∞,則得到的權(quán)重系數(shù)很大,接近與無(wú)窮大答案:AC157.大數(shù)據(jù)偏見(jiàn)包括()A、數(shù)據(jù)源的選擇偏見(jiàn)B、算法與模型偏見(jiàn)C、結(jié)果解讀方法的偏見(jiàn)D、數(shù)據(jù)呈現(xiàn)方式的偏見(jiàn)答案:ABCD158.以下哪些選項(xiàng)可以用于實(shí)現(xiàn)爬蟲(chóng)功能()。A、BeautifulSoup庫(kù)B、re模塊C、Scrapy框架D、urllibrequest庫(kù)答案:ACD159.以下屬于關(guān)鍵詞提取算法的有()。A、TF-IDF算法B、TextRank算法C、LSA(潛在語(yǔ)義分析)D、LDA答案:ABCD160.可視分析學(xué)的幾個(gè)特點(diǎn)包含()A、強(qiáng)調(diào)數(shù)據(jù)到知識(shí)的轉(zhuǎn)換過(guò)程B、強(qiáng)調(diào)可視化分析與自動(dòng)化建模之間的相互作用C、強(qiáng)調(diào)數(shù)據(jù)映射和數(shù)據(jù)挖掘的重要性D、強(qiáng)調(diào)數(shù)據(jù)加工(DataWrangling或DataMunging)工作的必要性E、強(qiáng)調(diào)人機(jī)交互的重要性答案:ABCDE161.已測(cè)量級(jí)(MeasuredLevel)的主要特點(diǎn)包括()。A、已構(gòu)建了關(guān)鍵過(guò)程矩陣。B、已定義了變革管理的正式流程。C、已實(shí)現(xiàn)用定量化方式計(jì)算關(guān)鍵過(guò)程的質(zhì)量和效率。D、關(guān)鍵過(guò)程的質(zhì)量和效率的管理涉及整個(gè)生命周期答案:ABCD162.關(guān)于神經(jīng)網(wǎng)絡(luò),下列說(shuō)法正確的是()A、增加網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試集分類錯(cuò)誤率B、增加網(wǎng)絡(luò)層數(shù),一定會(huì)增加訓(xùn)練集分類錯(cuò)誤率C、減少網(wǎng)絡(luò)層數(shù),可能會(huì)減少測(cè)試集分類錯(cuò)誤率D、減少網(wǎng)絡(luò)層數(shù),一定會(huì)減少訓(xùn)練集分類錯(cuò)誤率答案:AC163.下列屬于字符串匹配的分詞方法的是()。A、正向最大匹配法(由左到右的方向)B、逆向最大匹配法(由右到左的方向)C、最少切分(使每一句中切出的詞數(shù)最小)D、雙向最大匹配法(進(jìn)行由左到右、由右到左兩次掃描)答案:ABCD164.以下關(guān)于數(shù)據(jù)維度的描述,正確的是()。A、采用列表表示一維數(shù)據(jù),不同數(shù)據(jù)類型的元素是可以的B、JSON格式可以表示比二維數(shù)據(jù)還復(fù)雜的高維數(shù)據(jù)C、二維數(shù)據(jù)可以看成是一維數(shù)據(jù)的組合形式D、字典不可以表示二維以上的高維數(shù)據(jù)答案:ABC165.下面關(guān)于reduce函數(shù)功能描述正確的是()。A、合并value值,形成較小集合B、采用迭代器將中間值提供給reduce函數(shù)C、map()函數(shù)處理后結(jié)果才會(huì)傳輸給reduce()D、內(nèi)存中不會(huì)存儲(chǔ)大量的value值答案:ABCD166.下列說(shuō)法正確的是()。A、cookielib庫(kù)提供可存儲(chǔ)cookie的對(duì)象,以便于與urllirequest庫(kù)配合使用來(lái)進(jìn)行訪問(wèn)B、過(guò)于頻繁的爬蟲(chóng)不會(huì)帶給網(wǎng)站額外的壓力C、使用split()可以進(jìn)行字符串的拆分D、正則表達(dá)式可以實(shí)現(xiàn)對(duì)爬取信息的快速過(guò)濾答案:ACD167.Python邏輯表達(dá)式()的結(jié)果是False。A、not(TrueorFalse)B、not(FalseandFalse)C、1!=0D、1==0答案:AD168.一個(gè)回歸模型存在多重共線問(wèn)題。在不損失過(guò)多信息的情況下,可如何處理()A、剔除所有的共線性變量B、剔除共線性變量中的一個(gè)C、通過(guò)計(jì)算方差膨脹因子(VarianceInflationFactor,VIF)來(lái)檢查共線性程度,并采取相應(yīng)措施D、刪除相關(guān)變量可能會(huì)有信息損失,我們可以不刪除相關(guān)變量,而使用一些正則化方法來(lái)解決多重共線性問(wèn)題,例如Ridge或Lasso回歸答案:BCD169.假設(shè)目標(biāo)遍歷的類別非常不平衡,即主要類別占據(jù)了訓(xùn)練數(shù)據(jù)的99%,現(xiàn)在你的模型在訓(xùn)練集上表現(xiàn)為99%的準(zhǔn)確度,那么下面說(shuō)法正確的是:()。A、準(zhǔn)確度并不適合衡量不平衡類別問(wèn)題B、準(zhǔn)確度適合衡量不平衡類別問(wèn)題C、精確度和召回率適合于衡量不平衡類別問(wèn)題D、精確度和召回率不適合衡量不平衡類別問(wèn)題答案:AC170.以下函數(shù)中()屬于二元通用函數(shù)(Binaryuniversalfunctions)。A、addB、substractC、multiplyD、power答案:ABCD171.在Spark的基本流程中,主要涉及()。A、DriverProgramB、usterManagerC、WorkerNodeD、Executor答案:ABCD172.關(guān)于HadoopMapReduce,以下描述中正確的是()。A、reduce()函數(shù)的輸入是value集B、reduce()函數(shù)將最終結(jié)果寫到HDFS系統(tǒng)中C、用戶可以自己定義reduce()函數(shù)D、reduce()函數(shù)的輸入數(shù)據(jù)是經(jīng)過(guò)map()函數(shù)處理之后的數(shù)據(jù)答案:BCD173.以下關(guān)于集成學(xué)習(xí)的說(shuō)法正確的是:()。A、隨機(jī)森林是減少模型的方差,而GBDT是減少模型的偏差B、組成隨機(jī)森林的樹(shù)可以并行生成,而GBDT是串行生成C、隨機(jī)森林的結(jié)果是多數(shù)表決表決的,而GBDT則是多棵樹(shù)累加之和答案:ABC174.下列關(guān)于情感分析的說(shuō)法正確的是()。A、簡(jiǎn)單而言,是對(duì)帶有情感色彩的主觀性文本進(jìn)行分析、處理、歸納和推理的過(guò)程B、情感分析的發(fā)展得益于社交媒體的興起C、按照處理文本的粒度不同,情感分析大致可分為詞語(yǔ)級(jí),句子級(jí)、篇章級(jí)三個(gè)D、情感分析可以應(yīng)用于文本挖掘答案:ABCD175.python中,字符串格式化的方式()。A、%B、formatC、inD、input答案:AB176.ETL技術(shù)主要涉及()操作。A、抽取B、轉(zhuǎn)換C、加載D、分析答案:ABC177.NoSQL數(shù)據(jù)庫(kù)常用的數(shù)據(jù)模型包括()。A、Key-ValueB、Key-DocumentC、Key-ColumnD、圖存儲(chǔ)答案:ABCD178.決策樹(shù)()情況下會(huì)導(dǎo)致遞歸返回。A、當(dāng)前節(jié)點(diǎn)包含的樣本全屬于同一類B、當(dāng)前屬性集為空C、當(dāng)前節(jié)點(diǎn)包含的樣本集合為空D、所有樣本在所有屬性上取值相同答案:ABCD179.數(shù)據(jù)科學(xué)項(xiàng)目主要涉及的活動(dòng)包括()。A、模式/模型的應(yīng)用及維護(hù)B、模式/模型的洞見(jiàn)C、結(jié)果的可視化與文檔化D、模式/模型的驗(yàn)證和優(yōu)化答案:ABCD180.以下屬于頻率域圖像濾波的方法有()。A、中值濾波B、均值濾波C、布特沃斯濾波D、高斯濾波答案:CD181.下面是文件基本操作的函數(shù)()。A、closeB、readC、renameD、remove答案:ABCD182.以下關(guān)于神經(jīng)網(wǎng)絡(luò)模型描述正確的是(__)。A、神經(jīng)網(wǎng)絡(luò)模型是許多邏輯單元按照不同層級(jí)組織起來(lái)的網(wǎng)絡(luò),每一層的輸出變量都是下一層的輸入變量B、神經(jīng)網(wǎng)絡(luò)模型建立在多神經(jīng)元之上C、神經(jīng)網(wǎng)絡(luò)模型中,無(wú)中間層的神經(jīng)元模型的計(jì)算可用來(lái)表示邏輯運(yùn)算D、神經(jīng)網(wǎng)絡(luò)模型一定可以解決所有分類問(wèn)題答案:ABC183.從可視化處理視角看,可以將數(shù)據(jù)分為四個(gè)類型()并采用不同的視覺(jué)映射方法。A、定類數(shù)據(jù)B、定序數(shù)據(jù)C、定距離數(shù)據(jù)D、定比暑假答案:ABCD184.關(guān)于Hive的說(shuō)法正確的是()。A、Hive是基于Hadoop的數(shù)據(jù)倉(cāng)庫(kù)工具B、Hive可以將結(jié)構(gòu)化的數(shù)據(jù)文件映射為一張數(shù)據(jù)庫(kù)表C、最初,Hive由Google開(kāi)源,用于解決海量結(jié)構(gòu)化日志數(shù)據(jù)統(tǒng)計(jì)問(wèn)題D、Hive的主要應(yīng)用場(chǎng)景是離線分析答案:ABD185.Hadoop框架的缺陷有()。A、MR編程框架的限制;B、過(guò)多的磁盤操作,缺乏對(duì)分布式內(nèi)存的支持;C、無(wú)法高效支持迭代式計(jì)算;D、不支持多用戶寫入并任意修改文件;答案:ABCD186.任何函數(shù)都可以修改,所以盡量少用全局變量,主要原因包括()。A、不夠安全B、一直占用內(nèi)存C、容易失效D、一直占用字符答案:AB187.以下屬于規(guī)則的分詞方法的是()。A、正向最大匹配法B、逆向最大匹配法C、雙向最大匹配法D、條件隨機(jī)場(chǎng)答案:ABC188.下列屬于描述gensim庫(kù)的特性的是()。A、訓(xùn)練語(yǔ)料的預(yù)處理B、主題向量的變換C、文檔相似度的計(jì)算D、文章切分詞語(yǔ)統(tǒng)計(jì)計(jì)算答案:ABC189.關(guān)于HDFS集群中的DataNode的描述不正確的是()。A、DataNode之間都是獨(dú)立的,相互之間不會(huì)有通信B、存儲(chǔ)客戶端上傳的數(shù)據(jù)的數(shù)據(jù)塊C、一個(gè)DataNode上存儲(chǔ)的所有數(shù)據(jù)塊可以有相同的D、響應(yīng)客戶端的所有讀寫數(shù)據(jù)請(qǐng)求,為客戶端的存儲(chǔ)和讀取數(shù)據(jù)提供支撐答案:AC190.以下關(guān)于CSV文件的描述,正確的選項(xiàng)是()。A、CSV文件可用于不同工具間進(jìn)行數(shù)據(jù)交換B、CSV文件格式是一種通用的,相對(duì)簡(jiǎn)單的文件格式,應(yīng)用于程序之間轉(zhuǎn)移表格數(shù)據(jù)。CC、SV文件通過(guò)多種編碼表示字符D、CSV文件的每一行是一維數(shù)據(jù),可以使用Python中的列表類型表示答案:ABD191.下列模型屬于機(jī)器學(xué)習(xí)生成式模型的是()。A、樸素貝葉斯B、隱馬爾科夫模型C、線性回歸模型D、深度信念網(wǎng)絡(luò)答案:ABD192.特征選擇的目的:()。A、減少特征數(shù)量、降維B、使模型泛化能力更強(qiáng)C、增強(qiáng)模型擬合能力D、減少過(guò)擬合。答案:ABD193.a=np.array([1,2,3,4,5,6,7,8])以下()命令可以使輸出結(jié)果為([5,6,7])。A、a[4:7]B、a[5:8]C、a[4:-1]D、a[5:]答案:AC194.相關(guān)與線性關(guān)系,下列說(shuō)法正確的是()A、相關(guān)不一定是線性關(guān)系,可能是非線性關(guān)系B、相關(guān)一定是線性關(guān)系,不可能是非線性關(guān)系C、相關(guān)時(shí)若有相關(guān)系數(shù)r為0,說(shuō)明兩個(gè)變量之間不存在線性關(guān)系,仍可能存在非線性關(guān)系D、相關(guān)系數(shù)為0是兩個(gè)變量獨(dú)立的必要不充分條件答案:ACD195.關(guān)于Python語(yǔ)言的特點(diǎn),以下選項(xiàng)描述不正確的是()。A、Python語(yǔ)言不支持面向?qū)ο驜、Python語(yǔ)言是解釋型語(yǔ)言C、Python語(yǔ)言是編譯型語(yǔ)言D、Python語(yǔ)言是非跨平臺(tái)語(yǔ)言答案:ACD196.以下描述中正確的是()。A、統(tǒng)計(jì)學(xué)是數(shù)據(jù)科學(xué)的理論基礎(chǔ)之一B、Python語(yǔ)言是統(tǒng)計(jì)學(xué)家發(fā)明的語(yǔ)言C、機(jī)器學(xué)習(xí)是數(shù)據(jù)科學(xué)的理論基礎(chǔ)之一D、數(shù)據(jù)科學(xué)是統(tǒng)計(jì)學(xué)的一個(gè)分支領(lǐng)域(子學(xué)科)答案:AC197.哪些項(xiàng)不屬于使用池化層相比于相同步長(zhǎng)的卷積層的優(yōu)勢(shì)()A、參數(shù)更少B、可以獲得更大下采樣C、速度更快D、有助于提升精度答案:BCD198.以下()是scipy中的模塊。A、clusterB、constantsC、integrateD、io答案:ABCD199.Python支持運(yùn)行的平臺(tái)有()。A、WindowsB、MacOSC、CentOSD、Ubuntu答案:ABCD200.特征選擇在子集生成與搜索方面引入了()人工智能搜索和評(píng)價(jià)方法。A、分支界限法B、浮動(dòng)搜索法C、信息熵D、AIC答案:ABCD201.以下哪層是卷積神經(jīng)網(wǎng)絡(luò)的組成部分。A、卷積層B、中間層C、池化層D、全連接層答案:ACD202.數(shù)據(jù)可視化涉及到()等多個(gè)領(lǐng)域,成為研究數(shù)據(jù)表示、數(shù)據(jù)處理、決策分析等一系列問(wèn)題的綜合技術(shù)。A、計(jì)算機(jī)圖形學(xué)B、圖像處理C、計(jì)算機(jī)視覺(jué)D、計(jì)算機(jī)輔助設(shè)計(jì)答案:ABCD203.相對(duì)于HadoopMapReduce,Spark有什么好處()。A、通用性;B、易用性;C、速度快;D、容錯(cuò)性;答案:ABC204.plt.axhline(y=0.0,c="r",ls="--",lw=2),對(duì)這句代碼說(shuō)法正確的是()。A、在0.0處添加豎直參考線B、添加水平參考線C、參考線是虛線形式D、網(wǎng)格線是紅色的答案:BC205.循環(huán)神經(jīng)網(wǎng)絡(luò)主要被應(yīng)用于哪些場(chǎng)景(__)。A、語(yǔ)音識(shí)別B、語(yǔ)音建模C、機(jī)器翻譯D、圖像識(shí)別答案:ABC206.傳統(tǒng)關(guān)系數(shù)據(jù)庫(kù)的優(yōu)點(diǎn)包括()。A、數(shù)據(jù)一致性高B、數(shù)據(jù)冗余度低C、簡(jiǎn)單處理的效率高D、產(chǎn)品成熟度高答案:ABD207.常用的爬蟲(chóng)技巧有以下哪些()。A、更改header,偽裝成瀏覽器進(jìn)行爬取B、設(shè)置爬取的時(shí)間間隔C、應(yīng)用神經(jīng)網(wǎng)絡(luò)算法識(shí)別網(wǎng)站驗(yàn)證碼D、通過(guò)代理服務(wù)器進(jìn)行爬取答案:ABCD208.下面定義函數(shù)正確的是()。A、defcalc(*numbers):sum=0forninnumbers:sum=sum+n*nreturnsumB、defcalc(**numbers):sum=0forninnumbers:sum=sum+n*nreturnsumC、defcalc(**numbers,n):sum=0forninnumbers:sum=sum+n*nreturnsumD、defcalc(**numbers,n=0):sum=0forninnumbers:sum=sum+n*nreturnsum答案:AB209.下面哪些屬于可視化高維數(shù)據(jù)技術(shù)()。A、矩陣B、平行坐標(biāo)系C、星形坐標(biāo)D、Chernoff臉答案:ABCD210.下列關(guān)于AUC面積描述正確的是()。A、AUC被定義為ROC曲線下與坐標(biāo)軸圍成的面積B、AUC面積的值大于1C、AUC等于0.5時(shí),則真實(shí)性最低,無(wú)應(yīng)用價(jià)值D、AUC越接近1.0,檢測(cè)方法真實(shí)性越高答案:ACD211.下列哪些是特征選擇方法()。A、AIC赤池信息準(zhǔn)則B、LARS嵌入式特征選擇方法C、LVW包裹式特征選擇方法D、Relief過(guò)濾式特征選擇方法答案:BCD212.決策樹(shù)的劃分選擇有()。A、增益系數(shù)B、信息增益C、增益率D、基尼系數(shù)E、信息增益量答案:BCD213.在python中查看關(guān)鍵字,需要在Python解釋器中執(zhí)行()和()。這兩條命令。A、listkeywordB、importkeywordC、keywordD、import.kwlist答案:BC214.在數(shù)據(jù)安全領(lǐng)域常用的P2DR模型中,P、D和R代表的是()。A、策略B、防護(hù)C、檢測(cè)D、響應(yīng)答案:ABCD215.以下說(shuō)法正確的是()。A、負(fù)梯度方向是使函數(shù)值下降最快的方向B、當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),梯度下降法的解是全局最優(yōu)解C、梯度下降法比牛頓法收斂速度快D、擬牛頓法不需要計(jì)算Hesse矩陣答案:ABD216.下列關(guān)于特征的稀疏性說(shuō)法正確的是()。A、稀疏性指的是矩陣中有許多列與當(dāng)前學(xué)習(xí)任務(wù)無(wú)關(guān)B、稀疏樣本可減少學(xué)習(xí)任務(wù)的計(jì)算開(kāi)銷C、學(xué)習(xí)任務(wù)難度可能有所降低D、稀疏矩陣沒(méi)有高效的存儲(chǔ)方法答案:ABC217.MapReduce與HBase的關(guān)系,哪些描述是正確的()。A、兩者不可或缺,MapReduce是HBse可以正常運(yùn)行的保證B、兩者不是強(qiáng)關(guān)聯(lián)關(guān)系,沒(méi)有MapReduce,HBase可以正常運(yùn)行C、MapReduce可以直接訪問(wèn)HbaseD、它們之間沒(méi)有任何關(guān)系答案:BC218.()等都是Scikit-Learn中包含的算法。A、SVMB、隨機(jī)森林C、Lasso回歸D、密度聚類答案:ABCD219.下面關(guān)于隨機(jī)變量及其概率分布的說(shuō)法,正確的是()。A、隨機(jī)變量可以分為離散型隨機(jī)變量和連續(xù)型隨機(jī)變量B、隨機(jī)變量的概率分布指的是一個(gè)隨機(jī)變量所有取值的可能性C、扔5次硬幣,正面朝上次數(shù)的可能取值是0,1,2,3,4,5,其中正面朝上次數(shù)為0與正面朝上次數(shù)為5的概率是一樣的D、扔5次硬幣,正面朝上次數(shù)的可能取值是0,1,2,3,4,5,其中正面朝上次數(shù)為5的概率是最大的答案:ABC220.異常值的檢測(cè)方法有()A、直接通過(guò)數(shù)據(jù)可視化進(jìn)行觀察B、通過(guò)統(tǒng)計(jì)分布進(jìn)行判斷C、通過(guò)相對(duì)距離進(jìn)行度量D、通過(guò)相對(duì)密度進(jìn)行度量答案:ABCD221.關(guān)于TF-IDF模型描述正確的有()。A、TF意思是詞頻B、IDF是逆文本頻率C、該模型基于統(tǒng)計(jì)方法D、在信息檢索中應(yīng)用較少答案:ABC222.關(guān)于CAP理論說(shuō)法正確的是()。A、一個(gè)分布式系統(tǒng)不能同時(shí)滿足一致性、可用性和分區(qū)容錯(cuò)性等需求B、一致性主要指強(qiáng)一致性C、一致性、可用性和分區(qū)容錯(cuò)性中的任何兩個(gè)特征的保證(爭(zhēng)取)可能導(dǎo)致另一個(gè)特征的損失(放棄)D、可用性指每個(gè)操作總是在“給定時(shí)間”之內(nèi)得到返回“所需要的結(jié)果”。答案:ABCD223.以下()是一元通用函數(shù)。A、np.add()B、np.maximum()C、np.exp()D、np.sqrt()答案:CD224.下面是Python注釋語(yǔ)句的是()。A、hello'B、'''hello'''C、helloD、#答案:BD225.當(dāng)我們構(gòu)造線性模型時(shí),我們注意變量間的相關(guān)性。在相關(guān)矩陣中搜索相關(guān)系數(shù)時(shí),如果我們發(fā)現(xiàn)3對(duì)變量的相關(guān)系數(shù)是(Var1和Var2,Var2和Var3,Var3和Var1)是-0.98,0.45,1.23.我們可以得出什么結(jié)論:()。A、Var1和Var2是非常相關(guān)的B、因?yàn)閂a1r和Var2是非常相關(guān)的,我們可以去除其中一個(gè)C、Var3和Var1的1.23相關(guān)系數(shù)是不可能的答案:ABC226.集成學(xué)習(xí)中多樣性的增強(qiáng)有哪些()A、數(shù)據(jù)樣本擾動(dòng)B、輸入屬性擾動(dòng)C、輸出表示擾動(dòng)D、算法參數(shù)擾動(dòng)答案:ABCD227.完整性約束通常包括()A、實(shí)體完整性B、域完整性C、參照完整性D、用戶定義完整性答案:ABCD228.圖像數(shù)字化應(yīng)該包括哪些過(guò)程()。A、采樣B、模糊C、量化D、統(tǒng)計(jì)答案:AC229.區(qū)塊鏈?zhǔn)?)等計(jì)算機(jī)技術(shù)的新型應(yīng)用模式。A、分布式數(shù)據(jù)存儲(chǔ)B、點(diǎn)對(duì)點(diǎn)傳輸C、共識(shí)機(jī)制D、加密算法答案:ABCD230.回歸分析有很多種類,常見(jiàn)的有()。A、線性回歸B、系數(shù)回歸C、邏輯回歸D、曲線回歸答案:ACD231.下面對(duì)于超鏈接的說(shuō)法,正確的是()。A、語(yǔ)句<ahref=”formhtml”>FillOurForm</a>指向的是同一服務(wù)器同一目錄下的formhtmlB、語(yǔ)句<ahref=”stuff/cathtml”>Catalog</a>指向的是同一服務(wù)器子目錄stuff下的cathtmlC、語(yǔ)句<ahref=”/parenthtml”>Parent</a>指向的是同一服務(wù)器父目錄下的parenthtmlD、語(yǔ)句<ahref=”devbgorg”target=”_blank”>BASD</a>指向的是內(nèi)部的網(wǎng)站答案:ABC232.Spark的關(guān)鍵技術(shù)包括以下哪幾個(gè)()。A、RDD;B、Scheduler;C、Storage;D、Shuffle;答案:ABCD233.(__)可以幫助解決訓(xùn)練集在特征空間中線性不可分的問(wèn)題。A、硬間隔B、軟間隔C、核函數(shù)D、拉格朗日乘子法答案:BC234.下面哪些屬于可視化高維數(shù)據(jù)技術(shù)()。A、矩陣B、.平行坐標(biāo)系C、星形坐標(biāo)D、散布圖答案:ABC235.下面關(guān)于函數(shù)的遞歸調(diào)用描述正確的是()。A、必須有一個(gè)明確的結(jié)束條件B、每次進(jìn)入更深一層遞歸時(shí),問(wèn)題規(guī)模相比上次遞歸都應(yīng)有所減少C、遞歸調(diào)用效率不高,遞歸層次過(guò)多會(huì)導(dǎo)致棧溢出(在計(jì)算機(jī)中,函數(shù)調(diào)用是通過(guò)棧(stack)這種數(shù)據(jù)結(jié)構(gòu)實(shí)現(xiàn)的,每當(dāng)進(jìn)入一個(gè)函數(shù)調(diào)用,棧就會(huì)加一層棧幀,每當(dāng)函數(shù)返回,棧就會(huì)減一層棧幀D、由于棧的大小不是無(wú)限的,所以,遞歸調(diào)用的次數(shù)過(guò)多,會(huì)導(dǎo)致棧溢出)答案:ABCD236.請(qǐng)選擇所有匹配項(xiàng):下面哪些literal擁有數(shù)值數(shù)據(jù)類型(即哪些可用于算術(shù)表達(dá)式)()。A、0xffB、99C、122D、1002答案:ABC237.以下哪些方法是tf-idf的變種()。A、TFCB、EWCC、ITCD、IG答案:AC238.機(jī)器學(xué)習(xí)的三個(gè)關(guān)鍵組成要素是()。A、任務(wù)TB、性能指標(biāo)PC、目標(biāo)函數(shù)VD、經(jīng)驗(yàn)來(lái)源E答案:ABD239.關(guān)于總體和樣本的說(shuō)法,正確的是:A、總體也就是研究對(duì)象的全體B、如果總體是某一條生產(chǎn)線上生產(chǎn)的全部產(chǎn)品,那么樣本可以是每間隔10秒抽取的產(chǎn)品C、樣本是從總體的隨機(jī)抽樣D、如果總體是某一小學(xué)的1000名學(xué)生,那么樣本可以是一年級(jí)的100名學(xué)生答案:ABC240.數(shù)據(jù)從產(chǎn)生到終結(jié)共有()環(huán)節(jié)。A、數(shù)據(jù)產(chǎn)生環(huán)節(jié)B、數(shù)據(jù)傳輸環(huán)節(jié)C、數(shù)據(jù)使用環(huán)節(jié)D、數(shù)據(jù)共享環(huán)節(jié)E、數(shù)據(jù)銷毀環(huán)節(jié)答案:ABCDE241.在Hive架構(gòu)中支持對(duì)數(shù)據(jù)的操作有()。A、插入B、查詢C、刪除D、分析;答案:BD242.特征向量的歸一化方法有哪些()A、線性函數(shù)轉(zhuǎn)換B、對(duì)數(shù)函數(shù)轉(zhuǎn)換C、反余切函數(shù)轉(zhuǎn)換D、減去均值,除以方差答案:ABCD243.下列關(guān)于自然語(yǔ)言處理中的關(guān)鍵詞提取的說(shuō)法正確的是()。A、關(guān)鍵詞提取是指用人工方法提取文章關(guān)鍵詞的方法B、TF-IDF模型是關(guān)鍵詞提取的經(jīng)典方法C、文本中出現(xiàn)次數(shù)最多的詞最能代表文本的主題D、這個(gè)問(wèn)題設(shè)計(jì)數(shù)據(jù)挖掘,文本處理,信息檢索等領(lǐng)域答案:BD244.大數(shù)據(jù)的參考架構(gòu)分為哪三個(gè)層次()A、角色B、活動(dòng)C、邏輯構(gòu)件D、功能組件答案:ABD245.以下哪些濾波器能在卷積窗口的邊界上使卷積掩膜中心像素和它的4-鄰接點(diǎn)的系數(shù)降至0附近()。A、同態(tài)濾波B、高斯濾波C、巴特沃斯濾波D、中值濾波答案:BC246.交叉檢驗(yàn)?zāi)P驮u(píng)估較差可能是由于()原因?qū)е碌摹、模型過(guò)擬合B、模型欠擬合C、模型過(guò)度復(fù)雜D、模型過(guò)度簡(jiǎn)單答案:ABCD247.建立線性模型時(shí),我們看變量之間的相關(guān)性。在尋找相關(guān)矩陣中的相關(guān)系數(shù)時(shí),如果發(fā)現(xiàn)3對(duì)變量(Var1和Var2、Var2和Var3、Var3和Var1)之間的相關(guān)性分別為-0.98、0.45和1.23。我們能從中推斷出什么呢()A、Var1和Var2具有很高的相關(guān)性B、Var1和Var2存在多重共線性,模型可以去掉其中一個(gè)特征C、Var3和Var1相關(guān)系數(shù)為1.23是不可能的D、以上答案都不正確答案:ABC248.下列不屬于聚類性能度量?jī)?nèi)部指標(biāo)的是()。A、DB指數(shù)B、Dunn指數(shù)C、Jaccard系數(shù)D、FM系數(shù)答案:CD249.深度學(xué)習(xí)的實(shí)質(zhì)及其與淺層學(xué)習(xí)的說(shuō)法正確的是(__)。A、DL強(qiáng)調(diào)模型深度B、DL突出特征學(xué)習(xí)的重要性.特征變換+非人工C、沒(méi)有區(qū)別D、以上答案都不正確答案:AB250.數(shù)據(jù)挖掘的挖掘方法包括()。A、聚類分析B、回歸分析C、神經(jīng)網(wǎng)絡(luò)D、決策樹(shù)算法答案:ABCD251.參數(shù)估計(jì)可以分為()。A、點(diǎn)估計(jì)B、一致估計(jì)C、區(qū)間估計(jì)D、無(wú)偏估計(jì)答案:AC252.數(shù)據(jù)安全不僅包括數(shù)據(jù)保密性,還包括()。A、完整性B、可用性C、不可否認(rèn)性D、可審計(jì)性答案:ABCD253.下列哪些是常用分詞方法()。A、基于Binarytree的分詞方法B、基于HMM的分詞方法C、基于CRF的分詞方法D、基于Kmeans的分詞方法答案:BC254.下列說(shuō)法中,對(duì)Python中的for語(yǔ)句描述正確的是()。A、Python中for語(yǔ)句只有一種寫法:“forin”B、for語(yǔ)句可以用break終止當(dāng)前循環(huán),重新進(jìn)入循環(huán)&C、continue語(yǔ)句可以跳過(guò)循環(huán)的當(dāng)前一步D、for語(yǔ)句可以有else部分答案:ACD255.Yarn的調(diào)度機(jī)制有哪幾種是__。A、FIFOB、CapacityC、FairD、Line答案:ABC256.下列既可以用于分類,又可以用于回歸的機(jī)器學(xué)習(xí)算法有:A、k近鄰B、邏輯回歸C、決策樹(shù)D、線性回歸答案:AC257.與自然語(yǔ)言處理相關(guān)的工具包Jieba,Gensim,NLTK,Scikit-Learn的區(qū)別是()。A、Jieba專注于中文分詞操作B、NLTK主要用于一般自然語(yǔ)言處理任務(wù)(標(biāo)記化,POS標(biāo)記,解析等)C、Gensim主要用于題和向量空間建模、文檔集合相似性等D、Scikit-learn為機(jī)器學(xué)習(xí)提供了一個(gè)大型庫(kù),其中包含了用于文本預(yù)處理的工具,例如詞頻-逆文檔頻率特征提取(TfidfVectorizer)等。答案:ABCD258.圖像壓縮是建立在圖像存在()幾種冗余之上。A、編程冗余B、像素間冗余C、心理視覺(jué)冗余D、計(jì)算資源冗余答案:ABC259.關(guān)于神經(jīng)元的敘述,哪些是正確的()A、每個(gè)神經(jīng)元可以有一個(gè)輸入和一個(gè)輸出B、每個(gè)神經(jīng)元可以有多個(gè)輸入和一個(gè)輸出C、每個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出D、每個(gè)神經(jīng)元可以有多個(gè)輸出和一個(gè)輸入答案:ABCD260.某單位運(yùn)用隨機(jī)森林算法思想建立搶修熱點(diǎn)模型。該模型主要預(yù)測(cè)下期臺(tái)區(qū)工單數(shù)量,構(gòu)建搶修熱點(diǎn)。以下模型算法構(gòu)建步驟中合理的順序是:()。A、將歷史數(shù)據(jù)進(jìn)行隨機(jī)自助法重抽樣,生成N個(gè)訓(xùn)練樣本集B、將N個(gè)訓(xùn)練樣本集分別做決策樹(shù),生成N棵決策樹(shù)C、將N棵決策樹(shù)隨機(jī)構(gòu)成隨機(jī)森林D、未來(lái)根據(jù)預(yù)測(cè)樣本氣候環(huán)境、設(shè)備屬性、設(shè)備工況進(jìn)行隨機(jī)森林決策投票,得出針對(duì)該預(yù)測(cè)樣本最優(yōu)的決策樹(shù)進(jìn)行運(yùn)算,并計(jì)算出最終結(jié)果。答案:ABCD261.針對(duì)維數(shù)災(zāi)難,我們主要采用的降維方法有哪些()。A、多維縮放B、主成分分析C、核化線性降維D、流形學(xué)習(xí)E、度量學(xué)習(xí)答案:ABCDE262.下面關(guān)于中心極限定理的說(shuō)法,正確的是:A、中心極限定理說(shuō)明,對(duì)于大量相互獨(dú)立的隨機(jī)變量,其均值的分布以正態(tài)分布為極限B、中心極限定理說(shuō)明,對(duì)于大量相互獨(dú)立的隨機(jī)變量,其均值的分布以t分布為極限C、中心極限定理為Z檢驗(yàn)提供了理論支持D、中心極限定理是數(shù)理統(tǒng)計(jì)學(xué)和誤差分析的基礎(chǔ)答案:ACD263.Flume特點(diǎn)包括()。A、分布式B、高可靠C、高容錯(cuò)D、易于定制和擴(kuò)展答案:ABCD264.下列關(guān)于密度聚類說(shuō)法錯(cuò)誤的是(__)。A、DBSCAN是一種著名的密度聚類算法B、密度聚類從樣本數(shù)量的角度來(lái)考察樣本之間的可連接性C、密度聚類基于不可連接樣本不斷擴(kuò)展聚類簇易獲得最終的聚類結(jié)果D、密度直達(dá)關(guān)系通常滿足對(duì)稱性答案:BCD265.MapReduce對(duì)map()函數(shù)的返回值處理后才傳給reduce()函數(shù),其中涉及哪些操作()。A、合并B、排序C、分區(qū)D、抽樣答案:ABC266.對(duì)以下代碼說(shuō)法正確的是()。X=np.linspace(0.05,10,1000)【換行】Y=np.sin(x)【換行】Plt.plot(x,y,ls="-.",l=2,c="c",label="plotfigure")【換行】Plt.legend()【換行】Plt.grid(linestyle=":",color="r")【換行】Plt.show()A、該圖表是一個(gè)藍(lán)綠色的散點(diǎn)圖B、圖表中有紅色實(shí)線的網(wǎng)格線C、圖表中有圖例D、該圖畫(huà)的是sin曲線;答案:CD267.以下說(shuō)法正確的是()。A、條件獨(dú)立性假設(shè)不成立時(shí),樸素貝葉斯分類器仍有可能產(chǎn)生最優(yōu)貝葉斯分類器B、在估計(jì)概率值時(shí)使用的拉普拉斯修正避免了因訓(xùn)練集樣本不充分而導(dǎo)致概率估值為零的問(wèn)題C、由于馬爾可夫鏈通常很快就能趨于平穩(wěn)分布,因此吉布斯采樣算法的收斂速度很快D、二分類任務(wù)中兩類數(shù)據(jù)滿足高斯分布且方差相同時(shí),線性判別分析產(chǎn)生貝葉斯最優(yōu)分類器答案:ABD268.以下()屬于數(shù)據(jù)統(tǒng)計(jì)分析工具。A、WekaB、SASC、SPSSD、Matlab答案:ABCD269.神經(jīng)網(wǎng)絡(luò)模型(NeuralNetwork)因受人類大腦的啟發(fā)而得名。神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個(gè)神經(jīng)元接受一個(gè)輸入,對(duì)輸入進(jìn)行處理后給出一個(gè)輸出。請(qǐng)問(wèn)下列關(guān)于神經(jīng)元的描述中,哪一項(xiàng)是正確的(__)。A、每個(gè)神經(jīng)元有一個(gè)輸入和一個(gè)輸出B、每個(gè)神經(jīng)元有多個(gè)輸入和一個(gè)輸出C、每個(gè)神經(jīng)元有一個(gè)輸入和多個(gè)輸出D、每個(gè)神經(jīng)元有多個(gè)輸入和多個(gè)輸出答案:ABCD270.以下圖像技術(shù)中屬于圖像處理技術(shù)的是()。A、圖像編碼B、圖像合成C、圖像增強(qiáng)D、圖像分類答案:AC271.線性模型的基本形式有()。A、線性回歸B、對(duì)數(shù)幾率回歸(二分類問(wèn)題)C、線性判別分析(Fisher判別分析)D、多分類學(xué)習(xí)答案:ABCD272.Spark有哪些缺陷()。A、于內(nèi)存的計(jì)算B、持Schema信息C、支持增量迭代計(jì)算D、支持細(xì)粒度更新操作答案:CD273.分布式列式存儲(chǔ)的功能有()。A、支持在線快速讀寫B(tài)、支持線性擴(kuò)展C、具備節(jié)點(diǎn)監(jiān)控管理D、數(shù)據(jù)同源不壓縮答案:ABC274.LSTM應(yīng)用場(chǎng)景應(yīng)用場(chǎng)景有哪些()A、翻譯語(yǔ)言B、語(yǔ)音識(shí)別C、圖像識(shí)別D、股票預(yù)測(cè)答案:ABD275.請(qǐng)問(wèn)下面哪些是離散型變量()。A、示波器B、心電圖及腦動(dòng)電圖掃描器對(duì)腦電波的測(cè)量C、過(guò)去數(shù)月的總銷售額D、公司每年的紅利答案:CD276.在Python中,以下導(dǎo)入模塊方式正確的是()。A、import模塊名B、import模塊名as模塊的別名C、from模塊名import函數(shù)名D、from模塊名import函數(shù)名A,函數(shù)名B答案:ABCD277.決策樹(shù)遞歸停止的條件為()。A、訓(xùn)練數(shù)據(jù)集使用完B、所有的類標(biāo)簽完全相同C、特征用完D、遇到丟失值答案:BC278.在建立模型時(shí),需要用到()。A、訓(xùn)練數(shù)據(jù)B、測(cè)試數(shù)據(jù)C、原始數(shù)據(jù)D、驗(yàn)證數(shù)據(jù)答案:ABD279.Numpy數(shù)組中將一個(gè)數(shù)組分割成多個(gè)小數(shù)組數(shù)組分割函數(shù)包括()。A、hsplitB、vsplitC、splitD、dsplit答案:ABCD280.關(guān)于Pig的說(shuō)法正確的是()。A、Pig的主要目的是彌補(bǔ)MapReduce編程的復(fù)雜性B、Pig的核心是一種數(shù)據(jù)分析語(yǔ)言C、Pig程序的結(jié)構(gòu)適合于串行處理D、Pig主要包含PigLatin和Pig執(zhí)行環(huán)境兩部分答案:ABD281.下面是python標(biāo)準(zhǔn)庫(kù)的是()。A、osB、sysC、numpyD、re答案:ABD282.許多功能更為強(qiáng)大的非線性模型可在線性模型基礎(chǔ)上通過(guò)引入()和()而得。A、層級(jí)結(jié)構(gòu)B、高維映射C、降維D、分類答案:AB283.在支持向量機(jī)中,參數(shù)的選取會(huì)影響擬合的結(jié)果,如果出現(xiàn)過(guò)擬合的現(xiàn)象,則導(dǎo)致該結(jié)果的原因有可能是(__)。A、其他參數(shù)保持不變,C值過(guò)大B、其他參數(shù)保持不變,λ值較少C、其他參數(shù)保持不變,σ較大D、其他參數(shù)保持不變,σ較小答案:ABD284.卷積神經(jīng)網(wǎng)絡(luò)通過(guò)哪些措施來(lái)保證圖像對(duì)位移、縮放、扭曲的魯棒性(__)。A、局部感受野B、共享權(quán)值C、池采樣D、正則化答案:ABC285.Python函數(shù)包括下述哪些內(nèi)容()。A、函數(shù)名稱B、參數(shù)C、執(zhí)行語(yǔ)句D、返回值答案:ABCD286.數(shù)據(jù)挖掘算法的組件包括()。A、模型或模型結(jié)構(gòu)B、評(píng)分函數(shù)C、優(yōu)化和搜索方法D、數(shù)據(jù)管理策略答案:ABCD287.最常見(jiàn)的分詞算法可以分為哪三大類()。A、基于字符串匹配的分詞方法B、基于理解的分詞方法C、基于統(tǒng)計(jì)的分詞方法D、基于閱讀的分詞方法答案:ABC288.下面導(dǎo)入模塊正確的是()。A、importnumpyB、importnumpyasnpC、frommatplotlibimportpyplotD、frommatplotlibimportpyplotasplt答案:ABCD289.以下關(guān)于HTML標(biāo)簽嵌套規(guī)則的說(shuō)法,正確的是()。A、塊元素可以包含內(nèi)聯(lián)元素或某些塊元素,但內(nèi)聯(lián)元素也可以包含塊元素B、HTML標(biāo)簽包括塊級(jí)元素和內(nèi)嵌元素C、內(nèi)嵌元素一般用在網(wǎng)站內(nèi)容之中的某些細(xì)節(jié)或部位,用以“強(qiáng)調(diào)區(qū)分樣式上標(biāo)下標(biāo)錨點(diǎn)”等,通常包括:aabbrbbrfontiimginputkbdlabelqsselectsmallspansubttuvar等D、其中塊級(jí)元素一般用來(lái)搭建網(wǎng)絡(luò)架構(gòu)布局承載內(nèi)容,通常包括的標(biāo)簽有:addressdirdivdldtddformh1~h6hrisindexmenunoframesnoscriptolppretableul等答案:BCD290.特征工程一般需要做哪些工作()。A、正則化B、標(biāo)準(zhǔn)化C、特征處理D、特征選擇答案:CD291.下列有關(guān)MapReduce計(jì)算框架的描述正確的是()。A、MapReduce可以計(jì)算任務(wù)的劃分和調(diào)度;B、MapReduce可完成數(shù)據(jù)的分布存儲(chǔ)和劃分;C、MapReduce可以實(shí)現(xiàn)處理系統(tǒng)節(jié)點(diǎn)出錯(cuò)檢測(cè)和失效恢復(fù);D、MapReduce可實(shí)現(xiàn)處理數(shù)據(jù)與計(jì)算任務(wù)的同步;答案:ABCD292.DGI定義的數(shù)據(jù)治理任務(wù)包括()。A、數(shù)據(jù)質(zhì)量的評(píng)估B、主動(dòng)定義或序化規(guī)則C、為數(shù)據(jù)利益相關(guān)者提供持續(xù)跨職能的保護(hù)與服務(wù)D、應(yīng)對(duì)并解決因不遵守規(guī)則而產(chǎn)生的問(wèn)題答案:BCD293.變量名可以包含()。A、字母B、數(shù)字C、下劃線D、空格答案:ABC294.下列屬于文本處理流程的是()。A、NormalizationB、TokenizationStopwordsC、Part-of-speechTaggingD、NamedEntityRecognition答案:ABCD295.關(guān)于數(shù)據(jù)流轉(zhuǎn)和應(yīng)用,以下說(shuō)法正確的是()。A、數(shù)據(jù)流轉(zhuǎn)和應(yīng)用過(guò)程中應(yīng)確保可追溯、可復(fù)查B、前序環(huán)節(jié)應(yīng)保證數(shù)據(jù)的真實(shí)、完整C、前序環(huán)節(jié)應(yīng)及時(shí)傳遞到后序環(huán)節(jié)D、前后環(huán)節(jié)數(shù)據(jù)應(yīng)保持銜接一致答案:ABCD296.下面對(duì)范數(shù)規(guī)則化描述正確的是()。A、L0是指向量中0的元素的個(gè)數(shù)B、L1范數(shù)是指向量中各個(gè)元素絕對(duì)值之和C、L2范數(shù)向量元素絕對(duì)值的平方和再開(kāi)平方D、L0是指向量中非0的元素的個(gè)數(shù)答案:BCD297.下列關(guān)于詞袋模型說(shuō)法正確的是()。A、詞袋模型可以忽略每

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論