2024年數(shù)據(jù)價(jià)值挖掘技能競(jìng)賽決賽試題庫500題(供參考)_第1頁
2024年數(shù)據(jù)價(jià)值挖掘技能競(jìng)賽決賽試題庫500題(供參考)_第2頁
2024年數(shù)據(jù)價(jià)值挖掘技能競(jìng)賽決賽試題庫500題(供參考)_第3頁
2024年數(shù)據(jù)價(jià)值挖掘技能競(jìng)賽決賽試題庫500題(供參考)_第4頁
2024年數(shù)據(jù)價(jià)值挖掘技能競(jìng)賽決賽試題庫500題(供參考)_第5頁
已閱讀5頁,還剩141頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

PAGEPAGE12024年數(shù)據(jù)價(jià)值挖掘技能競(jìng)賽決賽試題庫500題(供參考)一、單選題1.中文同義詞替換時(shí),常用到Word2Vec,以下說法錯(cuò)誤的是()。A、Word2Vec基于概率統(tǒng)計(jì)B、Word2Vec結(jié)果符合當(dāng)前預(yù)料環(huán)境C、Word2Vec得到的都是語義上的同義詞D、Word2Vec受限于訓(xùn)練語料的數(shù)量和質(zhì)量答案:C2.()是以樣本統(tǒng)計(jì)量作為未知總體參數(shù)的估計(jì)量,并通過對(duì)樣本單位的實(shí)際觀察取得樣本數(shù)據(jù),計(jì)算樣本統(tǒng)計(jì)量的取值作為被估計(jì)參數(shù)的估計(jì)值。A、參數(shù)估計(jì)B、邏輯分析C、方差分析D、回歸分析答案:A3.圖像平滑會(huì)造成()。A、圖像邊緣模糊化B、圖像邊緣清晰化C、無影響D、以上答案都不正確答案:A4.以下代碼的輸出結(jié)果為()。A、[[1,2],[3,4],[1,2],[3,4]]B、[[1,2,3,4],[1,2,3,4]]C、[[1,2],[3,4]]D、[1,2,3,4,1,2,3,4]答案:A5.scipy.stats.moment函數(shù)的作用是()。A、隨機(jī)變量的概率密度函數(shù)B、隨機(jī)變量的累積分布函數(shù)C、隨機(jī)變量的生存函數(shù)D、計(jì)算分布的非中心矩答案:D6.已知一個(gè)數(shù)據(jù)集,n為特征數(shù),m為訓(xùn)練樣本數(shù),如果n較小,而且m大小中等(例如n為1~1000,而m為10~10000),則一般選擇()。A、邏輯回歸模型B、不帶核的支持向量機(jī)C、高斯核的支持向量機(jī)D、多項(xiàng)式核的支持向量機(jī)答案:C7.以下代碼的輸出結(jié)果為()。A、[[01][23][45]]B、[0.6252.6254.625]C、(array([0.625,2.625,4.625]),array([8.,8.,8.])D、以上答案都不正確答案:B8.Python語句print(0xA+0xB)的輸出結(jié)果是()。A、0xA+0xBB、A+BC、0xA0xBD、21答案:D9.K折交叉驗(yàn)證器是以下哪個(gè)()方法()。A、model_selection.GroupKFold)B、model_selection.GroupShuffleSplit)C、model_selection.KFold)D、model_selection.RepeatedKFold)答案:C10.隨機(jī)森林與Bagging中基學(xué)習(xí)器多樣性的區(qū)別是()。A、都來自樣本擾動(dòng)B、都來自屬性擾動(dòng)C、來自樣本擾動(dòng)和自屬性擾動(dòng)D、多樣本集結(jié)合答案:C11.常見的圖像預(yù)處理方法不包括()。A、圖像降噪B、圖像增強(qiáng)C、圖像尺寸歸一化D、圖像標(biāo)注答案:D12.邏輯回歸將輸出概率范圍限定為[0,1]。()函數(shù)能起到這樣的作用。A、Sigmoid函數(shù)B、tanh函數(shù)C、ReLU函數(shù)D、LeakyReLU函數(shù)答案:A13.在多元線性回歸模型中,若某個(gè)解釋變量對(duì)其余解釋變量的判定系數(shù)接近于1,則表明模型中存在()。A、異方差B、序列相關(guān)C、多重共線性D、高擬合優(yōu)度答案:C14.一幅灰度均勻分布的圖像,其灰度范圍為[0,255],則該圖像的信息量為()。A、0B、6C、8D、255答案:C15.在抽樣估計(jì)中,隨著樣本容量的增大,樣本統(tǒng)計(jì)量接近總體參數(shù)的概率就越大,這一性質(zhì)稱為()。A、無偏性B、有效性C、及時(shí)性D、一致性答案:D16.在數(shù)據(jù)科學(xué)中,通??梢圆捎茫ǎ┯行П苊鈹?shù)據(jù)加工和數(shù)據(jù)備份的偏見。A、/B測(cè)試B、訓(xùn)練集和測(cè)試集的劃分C、測(cè)試集和驗(yàn)證集的劃分D.圖靈測(cè)試D、-答案:A17.使用pip工具查看當(dāng)前已安裝的Python擴(kuò)展庫的完整命令是()。A、pipupdateB、piplistC、pipinstallD、pipshowall答案:B18.將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約、數(shù)值規(guī)約是以下哪個(gè)步驟的任務(wù)()。A、頻繁模式挖掘B、分類和預(yù)測(cè)C、數(shù)據(jù)預(yù)處理D、數(shù)據(jù)流挖掘答案:C19.如果在大型數(shù)據(jù)集上訓(xùn)練決策樹。為了花費(fèi)更少的時(shí)間來訓(xùn)練這個(gè)模型,下列哪種做法是正確的()A、增加樹的深度B、增加學(xué)習(xí)率C、減小樹的深度D、減少樹的數(shù)量答案:C20.下列方法中,不可以使用類名訪問的是()。A、實(shí)例方法B、類方法C、靜態(tài)方法D、以上答案都不正確答案:A21.下列關(guān)于IPython的說法,錯(cuò)誤的是()。A、IPython集成了交互式Python的很多優(yōu)點(diǎn);B、IPython的性能遠(yuǎn)遠(yuǎn)優(yōu)于標(biāo)準(zhǔn)的Python的shell;C、IPython支持變量自動(dòng)補(bǔ)全,自動(dòng)收縮;D、與標(biāo)準(zhǔn)的Python相比,IPython缺少內(nèi)置的功能和函數(shù);答案:D22.下列關(guān)于數(shù)據(jù)轉(zhuǎn)換,正確的是()。A、Json內(nèi)的取值只能有統(tǒng)一格式B、PDF文件在不同平臺(tái)上打開顯示不同C、可以通過Python將CSV文件轉(zhuǎn)換成Excel格式D、Excel存儲(chǔ)數(shù)據(jù)的量無限制答案:C23.下面哪行代碼中最適合接受系統(tǒng)輸入的一個(gè)整數(shù)是()。A、num=input)B、num=input(“6”)C、num=int(input)D、num=float(input)答案:C24.機(jī)器學(xué)習(xí)中,基于樣本分布的距離是()。A、馬氏距離B、歐式距離C、曼哈頓距離D、閔可夫斯基距離答案:A25.對(duì)于線性回歸模型,包括附加變量在內(nèi),以下可能正確的是()。A、1和2B、1和3C、2和4D、以上都不是答案:D26.下列方法中,不屬于情感分析的評(píng)測(cè)的方法是()。A、COAE評(píng)測(cè)B、cifar10數(shù)據(jù)集評(píng)測(cè)C、CFTCCI評(píng)測(cè)D、TAC評(píng)測(cè)答案:B27.以下關(guān)于pandas數(shù)據(jù)讀寫說法錯(cuò)誤的是()。A、read_csv能夠讀取數(shù)據(jù)庫的數(shù)據(jù)B、read_sql能夠讀取數(shù)據(jù)庫的數(shù)據(jù)C、to_csv函數(shù)能夠?qū)⒔Y(jié)構(gòu)化數(shù)據(jù)寫入csv文件D、to_excel函數(shù)能夠?qū)⒔Y(jié)構(gòu)化數(shù)據(jù)寫入Excel文件答案:A28.k近鄰算法在()的情況下效果較好。A、樣本較多但典型性不好B、樣本較少但典型性好C、樣本呈團(tuán)狀分布D、樣本呈鏈狀分布答案:B29.txt=open(filename)返回的是()。A、變量B、常數(shù)C、文件內(nèi)容D、文件對(duì)象答案:D30.下列說法錯(cuò)誤的是()。A、當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),梯度下降算法的解一般就是全局最優(yōu)解B、進(jìn)行PCA降維時(shí),需要計(jì)算協(xié)方差矩C、沿負(fù)梯度的方向一定是最優(yōu)的方向D、利用拉格朗日函數(shù)能解帶約束的優(yōu)化問題答案:C31.在回歸模型中,()在權(quán)衡欠擬合(under-fitting)和過擬合(over-fitting)中影響最大。A、多項(xiàng)式階數(shù)B、更新權(quán)重w時(shí),使用的是矩陣求逆C、使用常數(shù)項(xiàng)D、使用梯度下降法答案:A32.在plt中通常的lw參數(shù)代表的作用是()。A、線條的風(fēng)格B、文字的顏色C、線條的寬度D、線條的透明度答案:C33.評(píng)估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)采取的解決方法是()。A、減少模型的特征數(shù)量B、增加模型的特征數(shù)量C、增加樣本數(shù)量D、以上答案都正確答案:B34.HadoopMapReduce2.0中,()負(fù)責(zé)資源的管理和調(diào)度。A、JobTrackerB、YARNC、TaskTrackerD、ApplicationMaster答案:B35.Python安裝擴(kuò)展庫常用的是()工具。A、pyinstallB、pipC、popD、post答案:B36.關(guān)于Python程序中與“縮進(jìn)”有關(guān)的說法中,以下選項(xiàng)中正確的是()。A、縮進(jìn)統(tǒng)一為4個(gè)空格B、縮進(jìn)是非強(qiáng)制性的,僅為了提高代碼可讀性C、縮進(jìn)在程序中長(zhǎng)度統(tǒng)一且強(qiáng)制使用D、縮進(jìn)可以用在任何語句之后,表示語句間的包含關(guān)系答案:C37.以下代碼的輸出結(jié)果為()。A、[[0,2,3],[4,6,7],[8,10,11],[12,14,15]]B、[[0,1,2,3],[8,9,10,11],[12,13,14,15]]C、[[0,1,2,3],[4,5,6,7],[8,9,10,11],[12,13,14,15]]D、[[1,2,3],[5,6,7],[9,10,11],[13,14,15]]答案:C38.數(shù)據(jù)的原始內(nèi)容及其備份數(shù)據(jù),是數(shù)據(jù)產(chǎn)品的研發(fā)的哪個(gè)階段()。A、零次數(shù)據(jù)B、一次數(shù)據(jù)C、二次數(shù)據(jù)D、采集數(shù)據(jù)答案:A39.以下描述中不屬于“規(guī)整數(shù)據(jù)(TidyData)”三個(gè)基本原則的是()。A、每一類觀察單元構(gòu)成一個(gè)關(guān)系(表)B、每個(gè)觀察占且僅占一行C、每個(gè)變量占且僅占一列D、每個(gè)觀察占且僅占一個(gè)關(guān)系(表)答案:D40.Windows系統(tǒng)下安裝Matplotlib的命令是()。A、pythonpipinstallmatplotlibB、python-mpipinstallmatplotlibC、sudoapt-getinstallpython-matplotlibD、sudopython-mpipinstallmatplotlib答案:B41.LSTM中,()的作用是確定哪些新的信息留在細(xì)胞狀態(tài)中,并更新細(xì)胞狀態(tài)。A、輸入門B、遺忘門C、輸出門D、更新門答案:A42.以下關(guān)于pandas中g(shù)roupby方法說法正確的是()。A、groupby能夠?qū)崿F(xiàn)分組聚合B、groupby方法的結(jié)果能夠直接查看C、groupby是pandas提供的一個(gè)用來分組的方法D、groupby方法是pandas提供的一個(gè)用來聚合的方法答案:C43.()是指為最小化總體風(fēng)險(xiǎn),只需在每個(gè)樣本上選擇能使特定條件風(fēng)險(xiǎn)最小的類別標(biāo)記。A、支持向量機(jī)B、間隔最大化C、線性分類器D、貝葉斯判定準(zhǔn)則答案:D44.圖像噪聲一般可分為以下哪幾類()。A、加性噪聲B、乘性噪聲C、量化噪聲D、以上答案都正確答案:D45.下面哪個(gè)是針對(duì)下列程序,滿足期望輸出的代碼是()。A、rr%2==1B、arr[arr%2==1]C、arr[arr/2==1]D、arr[arr//2==1]答案:B46.使用Numpy讀取csv文件應(yīng)使用以下哪個(gè)的函數(shù)是()。A、save)B、read_csv)C、loadtxt)D、open)答案:C47.()是Spark的核心數(shù)據(jù)結(jié)構(gòu)。A、彈性分布式數(shù)據(jù)集B、列表C、元組D、字典答案:A48.大數(shù)據(jù)應(yīng)用需依托的新技術(shù)有()。A、大規(guī)模并行處理B、數(shù)據(jù)分析處理C、智能化D、三個(gè)選項(xiàng)都是答案:D49.關(guān)于模塊下列說法不正確的是()。A、Python模塊(Module),是一個(gè)Python文件,以.py結(jié)尾,包含了Python對(duì)象定義和Python語句。B、模塊讓你能夠有邏輯地組織你的Python代碼段。C、把相關(guān)的代碼分配到一個(gè)模塊里能讓你的代碼更好用,更易懂。D、模塊不能定義類答案:D50.以下選項(xiàng)中,輸出結(jié)果是False的是()。A、>>>5isnot4B、>>>5!=4C、>>>False!=0D、>>>5is5答案:C51.留出法直接將數(shù)據(jù)集劃分為()個(gè)互斥的集合。A、一B、二C、三D、四答案:B52.關(guān)于數(shù)據(jù)清洗,不正確的說法是()。A、對(duì)單數(shù)據(jù)源,主鍵取值不能重復(fù)B、多數(shù)據(jù)源會(huì)存在數(shù)據(jù)重復(fù)、單位不一致的問題C、連續(xù)型數(shù)據(jù)不存在冗余問題D、缺失值可以采用刪除和填補(bǔ)等方法處理答案:C53.有數(shù)組arr=Numpy.array([1,,2,,3,,4]),執(zhí)行arr.dtype后輸出結(jié)果為()。A、int32B、int64C、float32D、float64答案:A54.對(duì)Numpy的數(shù)組Ndarray對(duì)象屬性的描述,錯(cuò)誤的是()。A、Ndarray.dtypeNdarray對(duì)象中每個(gè)元素的大小,以字節(jié)為單位B、Ndarray.flagsNdarray對(duì)象的內(nèi)存信息C、Ndarray.realNdarray元素的實(shí)部D、Ndarray.imagNdarray元素的虛部答案:A55.執(zhí)行一個(gè)job,如果這個(gè)job的輸出路徑已經(jīng)存在,那么程序會(huì)()。A、覆蓋這個(gè)輸出路徑B、拋出警告,但是能夠繼續(xù)執(zhí)行C、拋出一個(gè)異常,然后退出D、創(chuàng)建一個(gè)新的輸出路徑答案:C56.關(guān)于python的類,說法錯(cuò)誤的是()。A、類的實(shí)例方法必須創(chuàng)建對(duì)象后才可以調(diào)用B、類的實(shí)例方法必須創(chuàng)建對(duì)象前才可以調(diào)用C、類的類方法可以用對(duì)象和類名來調(diào)用D、類的靜態(tài)屬性可以用類名和對(duì)象來調(diào)用答案:B57.bootstrap是指()。A、有放回地從總共M個(gè)特征中抽樣m個(gè)特征B、無放回地從總共M個(gè)特征中抽樣m個(gè)特征C、有放回地從總共N個(gè)樣本中抽樣n個(gè)樣本D、無放回地從總共N個(gè)樣本中抽樣n個(gè)樣本答案:C58.HadoopMapReduce2.0中,()負(fù)責(zé)資源的管理和調(diào)度。A、JobTrackerB、YARNC、TaskTrackerD、ApplicationMaster答案:B59.要彌補(bǔ)缺失值,可以使用均值,、中位數(shù),、眾數(shù)等等,preprocessing模塊中那個(gè)方法()可以實(shí)現(xiàn)()。A、preprocessing.Imputer)B、preprocessing.PolynomialFeatures)C、preprocessing.FunctionTransformer)D、preprocessing.Binarizer)答案:A60.下列關(guān)于核函數(shù)特性的描述,錯(cuò)誤的是()。A、只要一個(gè)對(duì)稱函數(shù)所對(duì)應(yīng)的核矩陣半正定,就能稱為核函數(shù)B、核函數(shù)選擇作為支持向量機(jī)的最大變數(shù)C、核函數(shù)將影響支持向量機(jī)的性能D、核函數(shù)是一種降維模型答案:D61.輸入圖片大小為37×37,經(jīng)過第一層卷積(thenumberoffilters=25,kernelsize=5×5,padding=valid,stride=1)與池化層maxpooling(kernelsize=3×3,padding=valid),輸出特征圖大小為()。A、10×10B、11×11C、12×12D、13×13答案:B62.大數(shù)據(jù)涌現(xiàn)現(xiàn)象的形式有多種,不屬于大數(shù)據(jù)涌現(xiàn)形式的是()。A、價(jià)值涌現(xiàn)B、隱私涌現(xiàn)C、物質(zhì)涌現(xiàn)D、質(zhì)量涌現(xiàn)答案:C63.當(dāng)訓(xùn)練集特征非常多,而實(shí)例非常少的時(shí)候,可以采用()。A、sigmoid核的支持向量機(jī)B、不帶核的支持向量機(jī)C、高斯核的支持向量機(jī)D、多項(xiàng)式核的支持向量機(jī)答案:B64.概率模型的訓(xùn)練過程就是()過程。A、分類B、聚類C、參數(shù)估計(jì)D、參數(shù)選擇答案:C65.假如使用邏輯回歸對(duì)樣本進(jìn)行分類,得到訓(xùn)練樣本的準(zhǔn)確率和測(cè)試樣本的準(zhǔn)確率?,F(xiàn)在,在數(shù)據(jù)中增加一個(gè)新的特征,其他特征保持不變。然后重新訓(xùn)練測(cè)試。則下列說法正確的是()。A、訓(xùn)練樣本準(zhǔn)確率一定會(huì)降低B、訓(xùn)練樣本準(zhǔn)確率一定增加或保持不變C、測(cè)試樣本準(zhǔn)確率一定會(huì)降低D、測(cè)試樣本準(zhǔn)確率一定增加或保持不變答案:B66.基于詞的N元文法模型,其最后的粗分結(jié)果集合大?。ǎ㎞。A、大于B、大于等于C、小于D、小于等于答案:B67.下列關(guān)于LSTM的說法,錯(cuò)誤的是()。A、LSTM中存在sigmoid函數(shù)B、LSTM中存在tanh函數(shù)C、LSTM又稱長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)D、RNN是LSTM的變種答案:D68.在python中可以通過調(diào)用random庫來產(chǎn)生隨機(jī)數(shù)。a=random.randint(1,99),并賦值給變量a。以下描述正確的是()。A、隨機(jī)產(chǎn)生一個(gè)1~~99的小數(shù);B、隨機(jī)產(chǎn)生一個(gè)1~~99的整數(shù);C、產(chǎn)生一個(gè)值為99的整數(shù);D、隨機(jī)產(chǎn)生一個(gè)1~~99的無理數(shù);答案:B69.MapReduce計(jì)算框架的輸入是()數(shù)據(jù)結(jié)構(gòu)。A、key-valueB、input-outputC、map-reduceD、key-column答案:A70.下列關(guān)于RBM的說法,錯(cuò)誤的是()。A、學(xué)習(xí)過程很快B、RBM訓(xùn)練可以看作對(duì)一個(gè)深層BP網(wǎng)絡(luò)的網(wǎng)絡(luò)權(quán)值參數(shù)的初始化C、RBM不用人工選擇特征D、RBM有標(biāo)簽樣本集答案:A71.matplotlib中的legend函數(shù)作用是什么()。A、設(shè)置標(biāo)簽文本B、繪制網(wǎng)格線C、標(biāo)示不同圖形的文本標(biāo)簽圖例D、設(shè)置x軸的數(shù)值顯示范圍答案:C72.以下不屬于基于圖像灰度分布的閾值分割方法的是()。A、類間最大距離法B、最大類間方差法C、Otsu方法D、區(qū)域生長(zhǎng)法答案:D73.針對(duì)以下數(shù)組,如何從一個(gè)數(shù)組中移除那些存在于另一個(gè)數(shù)組中的項(xiàng)時(shí)可進(jìn)行的操作是()。A、np.setdiff1d(a,b)B、setdiff1d(a)C、setdiff1d(b)D、以上答案都不正確答案:A74.數(shù)據(jù)可視化的基本類型是()。A、科學(xué)可視化、信息可視化、可視分析學(xué)B、物理可視化、數(shù)字可視化、化學(xué)可視化C、科學(xué)可視化、數(shù)字可視化、可視分析學(xué)D、科學(xué)可視化、信息可視化、文本可視化答案:A75.()不屬于聚類性能度量外部指標(biāo)。A、Jaccard系數(shù)B、FM系數(shù)C、Rand指數(shù)D、B指數(shù)答案:D76.在MapReduce中,哪個(gè)組件是用戶不指定也不會(huì)有默認(rèn)的()。A、CombinerB、OutputFormatC、PartitionerD、InputFormat答案:A77.下列方法中,不屬于圖像分割方法的是()。A、邊緣檢測(cè)法B、閾值分割法C、區(qū)域分割法D、特征提取法答案:D78.在linux下預(yù)裝了Python2,、Python3且默認(rèn)Python版本為Python3,下列描述可以正確啟動(dòng)Python有的是()。A、在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入whichPythonB、在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入Python2或Python3C、在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入whichPython3D、在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入輸入whichPython2答案:B79.事務(wù)對(duì)數(shù)據(jù)對(duì)象加鎖后擁有何種控制權(quán)是由封鎖的()決定的。A、狀態(tài)B、類型C、數(shù)量D、屬性答案:B80.關(guān)于層次聚類算法:①不斷重復(fù)直到達(dá)到預(yù)設(shè)的聚類簇?cái)?shù);②不斷合并距離最近的聚類簇;③對(duì)初始聚類簇和相應(yīng)的距離矩陣初始化;④對(duì)合并得到的聚類簇進(jìn)行更新。正確的執(zhí)行順序?yàn)椋ǎ?。A、①②③④B、①③②④C、③②④①D、③④①②答案:C81.()是指理解挖掘項(xiàng)目的目標(biāo)業(yè)務(wù)需求。A、業(yè)務(wù)理解B、數(shù)據(jù)理解C、數(shù)據(jù)準(zhǔn)備D、數(shù)據(jù)建模答案:A82.你正在訓(xùn)練一個(gè)RNN網(wǎng)絡(luò),你發(fā)現(xiàn)你的權(quán)重與激活值都是NaN,下列選項(xiàng)中導(dǎo)致這個(gè)問題的最有可能的原因是()。A、梯度消失B、梯度爆炸C、ReLU函數(shù)作為激活函數(shù)g(.),在計(jì)算g(z)時(shí),z的數(shù)值過大了D、Sigmoid函數(shù)作為激活函數(shù)g(.),在計(jì)算g(z)時(shí),z的數(shù)值過大了答案:B83.下面對(duì)集成學(xué)習(xí)模型中的弱學(xué)習(xí)者描述錯(cuò)誤的是()。A、他們經(jīng)常不會(huì)過擬合B、他們通常帶有高偏差,所以其并不能解決復(fù)雜學(xué)習(xí)問題C、他們通常會(huì)過擬合D、-答案:C84.以下()不屬于廣義上的數(shù)據(jù)可視化技術(shù)。A、類別可視化B、科學(xué)可視化C、信息可視化D、可視分析學(xué)答案:A85.假設(shè)我們已經(jīng)在ImageNet數(shù)據(jù)集(物體識(shí)別)上訓(xùn)練好了一個(gè)卷積神經(jīng)網(wǎng)絡(luò)。然后給這張卷積神經(jīng)網(wǎng)絡(luò)輸入一張全白的圖片。對(duì)于這個(gè)輸入的輸出結(jié)果為任何種類的物體的可能性都是一樣的,對(duì)嗎()。A、對(duì)的B、不知道C、看情況D、不對(duì)答案:D86.常用的圖像去噪方法有()。A、高斯濾波B、中值濾波C、P-M方程去噪D、以上答案都正確答案:D87.scipy.stats.describe)函數(shù)的作用是()。A、計(jì)算變異系數(shù)B、計(jì)算數(shù)據(jù)集的樣本偏度C、計(jì)算所傳遞數(shù)組的幾個(gè)描述性統(tǒng)計(jì)信息D、計(jì)算關(guān)于樣本平均值的第n個(gè)矩答案:C88.以下屬于圖像處理的常用方法有()。A、圖像變換B、圖像編碼壓縮C、圖像增強(qiáng)和復(fù)原D、以上答案都正確答案:D89.random庫中用于生成隨機(jī)小數(shù)的函數(shù)是()。A、random)B、randint)C、getrandbits)D、randrange)答案:A90.在留出法、交叉驗(yàn)證法和自助法三種評(píng)估方法中,()更適用于數(shù)據(jù)集較小、難以劃分訓(xùn)練集和測(cè)試集的情況。A、留出法B、交叉驗(yàn)證法C、自助法D、留一法答案:C91.egrate模塊的主要作用是()。A、里面有各種特殊的數(shù)學(xué)函數(shù),可以直接調(diào)用,如貝塞爾函數(shù)B、可以求多重積分,高斯積分,解常微分方程C、包括樣條插值,卷積,差分等濾波函數(shù)D、提供各種線性代數(shù)中的常規(guī)操作答案:B92.下列表達(dá)式中[print(x,y,100-x-y)forxinrange(21)foryinrange(34)if(100-x-y)%3==0and5*x+3*y+(100-x-y)//3==100],第三次輸出的結(jié)果是()。A、41878B、42175C、81478D、81181答案:D93.geoplot是()庫和()庫的擴(kuò)展。A、cartopy和seabornB、seaborn和matplotlibC、artopy和matplotlibD、matplotlib和ggplot2答案:C94.()不屬于CRF模型對(duì)于HMM和MEMM模型的優(yōu)勢(shì)。A、特征靈活B、速度快C、可容納較多上下文信息D、全局最優(yōu)答案:B95.以下描述中錯(cuò)誤的是()。A、數(shù)據(jù)化與數(shù)字化是兩個(gè)不同概念B、數(shù)據(jù)與數(shù)值是一個(gè)概念C、大數(shù)據(jù)與海量數(shù)據(jù)是兩個(gè)不同的概念D、數(shù)據(jù)和信息是兩個(gè)不同的概念答案:B96.下列關(guān)于支持向量回歸說法,錯(cuò)誤的是()。A、支持向量回歸是將支持向量的方法應(yīng)用到回歸問題中B、支持向量回歸同樣可以應(yīng)用核函數(shù)求解線性不可分的問題C、同分類算法不同的是,支持向量回歸要最小化一個(gè)凹函數(shù)D、支持向量回歸的解是稀疏的答案:C97.Spark的劣勢(shì)是()。A、運(yùn)算速度快B、業(yè)務(wù)實(shí)現(xiàn)需要較少代碼C、提供很多現(xiàn)成函數(shù)D、需要更多機(jī)器內(nèi)存答案:D98.下列關(guān)于大數(shù)據(jù)的分析理念的說法中,錯(cuò)誤的是()。A、在數(shù)據(jù)基礎(chǔ)上傾向于全體數(shù)據(jù)而不是抽樣數(shù)據(jù)B、在分析方法上更注重相關(guān)分析而不是因果分析C、在分析效果上更追求效率而不是絕對(duì)精確D、在數(shù)據(jù)規(guī)模上強(qiáng)調(diào)相對(duì)數(shù)據(jù)而不是絕對(duì)數(shù)據(jù)答案:D99.讀代碼,請(qǐng)寫出程序正確的答案()。A、結(jié)果:1到100之和為:5000B、結(jié)果:1到100之和為:0C、結(jié)果:1到100之和為:2050D、結(jié)果:1到100之和為:5020答案:B100.數(shù)據(jù)清洗的方法不包括()。A、缺失值處理B、噪聲數(shù)據(jù)清除C、一致性檢查D、重復(fù)數(shù)據(jù)記錄處理答案:D101.當(dāng)()時(shí),可以不考慮RDD序列化處理。A、完成成本比較高的操作后B、執(zhí)行容易失敗的操作之前C、RDD被重復(fù)使用D、實(shí)時(shí)性要求高答案:D102.在matplotlib中,如何創(chuàng)建一個(gè)新圖可以用函數(shù)()。A、figimage)B、figure)C、figtext)D、figlegend)答案:B103.下面代碼print(0.1+0.2==0.3)的輸出結(jié)果是()。A、TRUEB、FALSEC、TRUED、FALSE答案:B104.以下選項(xiàng)中,不是Python對(duì)文件的打開模式的是()。A、'w'B、'+'C、'c'D、'r'答案:C105.當(dāng)學(xué)習(xí)器將訓(xùn)練樣本自身的特點(diǎn)作為所有潛在樣本都具有的一般性質(zhì),這樣會(huì)導(dǎo)致泛化性能下降,這種現(xiàn)象稱為()。A、欠擬合B、過擬合C、擬合D、以上答案都不正確答案:B106.Numpy數(shù)組輸出的原則是()。A、從左到右,從下到上B、從左到右,從上到下C、從右到左,從下到上D、從右到左,從上到下答案:B107.()與HDFS類似。A、NTFSB、FAT32C、GFSD、EXT3答案:C108.()是指具有體量大、來源多樣、生成極快和多變等特征并且難以用傳統(tǒng)數(shù)據(jù)體系機(jī)構(gòu)有效處理的包含大量數(shù)據(jù)集的數(shù)據(jù)。A、海量數(shù)據(jù)B、大數(shù)據(jù)C、厚數(shù)據(jù)D、異構(gòu)數(shù)據(jù)答案:B109.數(shù)據(jù)預(yù)處理方法不包括()。A、數(shù)據(jù)清洗:去噪聲和無關(guān)數(shù)據(jù)B、數(shù)據(jù)集成:將多個(gè)數(shù)據(jù)源中的數(shù)據(jù)結(jié)合起來存在一個(gè)一致的數(shù)據(jù)存儲(chǔ)中C、數(shù)據(jù)變換:把原始數(shù)據(jù)轉(zhuǎn)換成為適合數(shù)據(jù)挖掘的形式D、數(shù)據(jù)轉(zhuǎn)化:把連續(xù)數(shù)據(jù)轉(zhuǎn)換為離散數(shù)據(jù)答案:D110.以下字符串表示plot線條顏色、點(diǎn)的形狀和類型為紅色五角星點(diǎn)短虛線的是()。A、'bs-'B、'go-.'C、'r+-.'D、'r*-.'答案:D111.視覺編碼的前提是分析并了解目標(biāo)用戶的(),盡量降低目標(biāo)用戶的()。A、視覺感知特征;感知障礙B、視覺感知特征;感知時(shí)間C、視覺感知習(xí)慣;感知障礙D、視覺感知習(xí)慣;感知時(shí)間答案:A112.下列關(guān)于線性模型的描述錯(cuò)誤的是()。A、支持向量機(jī)的判別函數(shù)一定屬于線性函數(shù)B、在樣本為某些分布情況時(shí),線性判別函數(shù)可以成為最小錯(cuò)誤率或最小風(fēng)險(xiǎn)意義下的最優(yōu)分類器C、在一般情況下,線性分類器只能是次優(yōu)分類器D、線性分類器簡(jiǎn)單而且在很多期情況下效果接近最優(yōu),所以應(yīng)用比較廣泛答案:A113.對(duì)于隨機(jī)森林和GBDT,下面說法正確的是()。A、在隨機(jī)森林的單個(gè)樹中,樹和樹之間是有依賴的,而GBDT中的單個(gè)樹之間是沒有依賴的B、這兩個(gè)模型都使用隨機(jī)特征子集,來生成許多單個(gè)的樹C、我們可以并行地生成GBDT單個(gè)樹,因?yàn)樗鼈冎g是沒有依賴的D、GBDT訓(xùn)練模型的表現(xiàn)總是比隨機(jī)森林好答案:B114.下面算法屬于局部處理的是()。A、灰度線性變換B、二值化C、傅里葉變換D、中值濾波答案:D115.正則化是將樣本在向量空間模型上的一個(gè)轉(zhuǎn)換,經(jīng)常被使用在分類與聚類中,正則化在preprocessing模塊中如何的實(shí)現(xiàn)方法是()。A、preprocessing.maxabs_scale)方法B、preprocessing.RobustScaler)方法C、preprocessing.normalize)方法D、preprocessing.Binarizer)方法答案:C116.Adaboost的核心思想是()。A、給定一個(gè)弱學(xué)習(xí)算法和一個(gè)訓(xùn)練集,將該學(xué)習(xí)算法使用多次,得出預(yù)測(cè)函數(shù)序列,進(jìn)行投票B、針對(duì)同一個(gè)訓(xùn)練集訓(xùn)練不同的弱分類器集合起來,構(gòu)成一個(gè)強(qiáng)分類器C、利用多棵樹對(duì)樣本進(jìn)行訓(xùn)練并預(yù)測(cè)的一種分類器D、基于前向策略的加法模型,每階段使用一個(gè)基模型去擬合上一階段基模型的殘差答案:B117.()試圖學(xué)得一個(gè)屬性的線性組合來進(jìn)行預(yù)測(cè)的函數(shù)。A、決策樹B、貝葉斯分類器C、神經(jīng)網(wǎng)絡(luò)D、線性模型答案:D118.如果兩個(gè)變量相關(guān),它們()線性關(guān)系。A、一定是B、不一定是C、-D、-答案:B119.在MapReduce中,以下描述錯(cuò)誤的有()。A、Worker故障和Master故障的處理方法不相同B、Map和Reduce的處理結(jié)果都存儲(chǔ)在本地文件系統(tǒng)C、一個(gè)Worker發(fā)生故障時(shí),該節(jié)點(diǎn)上執(zhí)行完的Map任務(wù)需要再次執(zhí)行D、MapReduce具有很強(qiáng)的容錯(cuò)機(jī)制答案:B120.隨機(jī)森林等樹狀算法通過哪個(gè)()模塊進(jìn)行調(diào)用()。A、dummyB、ensembleC、treeD、experimental答案:B121.關(guān)于拋出異常的說法中,描述錯(cuò)誤的是()。A、當(dāng)raise指定異常的類名時(shí),會(huì)隱式地創(chuàng)建異常類的實(shí)例B、顯式地創(chuàng)建異常類實(shí)例,可以使用raise直接引發(fā)C、不帶參數(shù)的raise語句,只能引發(fā)剛剛發(fā)生過的異常D、使用raise拋出異常時(shí),無法指定描述信息答案:D122.以下()是對(duì)DMM(數(shù)據(jù)管理成熟度模型)中“已管理級(jí)”基本特點(diǎn)的正確表述。A、組織機(jī)構(gòu)的數(shù)據(jù)管理關(guān)鍵活動(dòng)能夠根據(jù)結(jié)構(gòu)自身的反饋以及外部環(huán)境的變革進(jìn)行不斷優(yōu)化B、組織機(jī)構(gòu)已用定量化的方式管理其關(guān)鍵過程的執(zhí)行過程C、組織機(jī)構(gòu)只有在項(xiàng)目管理過程中執(zhí)行了D.M給出的關(guān)鍵過程,而缺乏機(jī)構(gòu)層次的統(tǒng)籌與管理D、組織機(jī)構(gòu)的數(shù)據(jù)管理工作超出了項(xiàng)目管理的范疇,由組織機(jī)構(gòu)統(tǒng)一管理其數(shù)據(jù)管理關(guān)鍵過程答案:D123.假設(shè)你需要調(diào)整參數(shù)來最小化代價(jià)函數(shù)(costfunction),會(huì)使用()技術(shù)。A、窮舉搜索B、隨機(jī)搜索C、Bayesian優(yōu)化D、以上全是答案:D124.采用模板[-11]主要檢測(cè)()方向的邊緣。A、水平B、45°C、垂直D、135°答案:C125.DAGScheduler的作用是()。A、負(fù)責(zé)分配任務(wù)B、負(fù)責(zé)調(diào)度Worker的運(yùn)行C、負(fù)責(zé)創(chuàng)建執(zhí)行計(jì)劃D、負(fù)責(zé)清理執(zhí)行完畢的任務(wù)答案:C126.scipy庫中用于物理和數(shù)學(xué)常量計(jì)算的模塊是()。A、scipy.clusterB、scipy.ioC、scipy.constantsD、scipy.linalg答案:C127.屬于深度學(xué)習(xí)框架的是()。A、TensorflowB、CaffeC、PyTorchD、以上答案都正確答案:D128.在頁面中看不見的表單元素是那種()。A、<inputtype="password"></input>B、<inputtype="radio"></input>C、<inputtype="hidden"></input>D、<inputtype="reset"></input>答案:C129.matplotlib中的調(diào)用堆積折線圖的函數(shù)是什么()。A、step)B、stackplot)C、plusplot)D、hist)答案:B130.下列選項(xiàng)中,不屬于python特點(diǎn)的是()。A、面向?qū)ο?;B、運(yùn)行效率高;C、可移植性;D、免費(fèi)和開源;答案:B131.針對(duì)以下數(shù)組,如何從一個(gè)數(shù)組中移除那些存在于另一個(gè)數(shù)組中的項(xiàng)時(shí)可進(jìn)行的操作是()。A、np.setdiff1d(a,b)B、setdiff1d(a)C、setdiff1d(b)D、以上答案都不正確答案:A132.scipy.io模塊不可以讀取以下哪種文件()。A、matlab文件B、IDL文件C、wav文件D、csv文件答案:D133.若X的值為1~~11(包含1、11),要用scipy輸出標(biāo)準(zhǔn)正態(tài)分布的概率密度函數(shù)在X=5處的值,下面哪個(gè)是正確的是()。A、scipy.stats.norm(loc=0,scale=1).pmf(5)B、scipy.stats.binorm(loc=0,scale=1).pdf(5)C、scipy.stats.binorm(loc=0,scale=1).pmf(5)D、scipy.stats.norm(loc=0,scale=1).pdf(5)答案:D134.對(duì)于一個(gè)圖像識(shí)別問題(在一張照片里找出一只貓),()可以更好地解決這個(gè)問題。A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、感知機(jī)C、多層感知機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)答案:D135.可用信息增益來進(jìn)行決策樹的()。A、樹高B、葉子結(jié)點(diǎn)數(shù)C、總結(jié)點(diǎn)數(shù)D、劃分屬性選擇答案:D136.對(duì)Python的sys模塊常用方法的描述,錯(cuò)誤的是()。A、sys.argv命令行參數(shù)List,第一個(gè)元素是程序本身路徑B、sys.modules.keys)返回所有字典中的keysC、sys.exc_info)獲取當(dāng)前正在處理的異常類D、sys.exit(n)退出程序答案:B137.下列屬于小波去噪步驟的是()。A、對(duì)圖像信號(hào)進(jìn)行小波分解B、對(duì)經(jīng)過層次分解后的高頻系數(shù)進(jìn)行閾值量化C、利用二維小波重構(gòu)圖像信號(hào)D、以上答案都正確答案:D138.在HDFS中()是文件系統(tǒng)的工作節(jié)點(diǎn)。A、DataNodeB、ClientC、NameNodeD、Flume答案:A139.下列關(guān)于TF-IDF說法正確的是()。A、該值與特征項(xiàng)在文檔中出現(xiàn)的頻率成反比B、該值與特征項(xiàng)在文檔中出現(xiàn)的頻率成正比C、該值與在整個(gè)語料庫中出現(xiàn)該特征項(xiàng)的文檔庫成正比D、該值與特征項(xiàng)在文檔中出現(xiàn)的頻率無關(guān)答案:B140.HDFS是基于流數(shù)據(jù)模式訪問和處理超大文件的需求而開發(fā)的,具有高容錯(cuò)、高可靠性、高可擴(kuò)展性、高吞吐率等特征,適合的讀寫任務(wù)是()。A、一次寫入,少次讀取B、多次寫入,少次讀取C、多次寫入,多次讀取D、一次寫入,多次讀取答案:D141.關(guān)于Ndarray.itemsize的描述,錯(cuò)誤的是()。A、以字節(jié)的形式返回?cái)?shù)組中每一個(gè)元素的大小B、一個(gè)元素類型為float64的數(shù)組itemsize屬性值為8C、一個(gè)元素類型為complex32的數(shù)組itemsize屬性為4D、一個(gè)元素類型為complex64的數(shù)組itemsize屬性為4答案:D142.MapReduce里面的query、sort和limit等都是針對(duì)()的操作。A、map()之前B、reduce()之前C、reduce()之后D、finalize()之后答案:A143.以下關(guān)于代碼規(guī)范描述,哪些是錯(cuò)誤的是()。A、類總是使用駝峰格式命名,即所有單詞首字母大寫其余字母小寫。B、除特殊模塊__init__之外,模塊名稱都使用不帶下劃線的小寫字母。C、不要濫用*args和**kwargsD、建議把所有方法都放在一個(gè)類中答案:D144.Python中用()快捷鍵表示運(yùn)行當(dāng)前程序。A、Ctrl+F10B、Ctrl+Alt+F10C、Shift+F10D、Ctrl+Shift+F10答案:D145.以下代碼的輸出結(jié)果為()。A、[012345678]B、[array([0,1,2]),array([3,4,5]),array([6,7,8])]C、[array([0,1,2,3]),array([4,5,6]),array([7,8])]D、沒有正確答案答案:B146.()不是HDFS的守護(hù)進(jìn)程。A、SecondaryNameNodeB、DataNodeC、MRAppMaster/YarnChildD、NameNode答案:C147.下列關(guān)于Python全局變量和局部變量的描述,不正確的是()。A、local關(guān)鍵字用于定義局部變量,global關(guān)鍵字用于定義全局變量B、關(guān)鍵字local定義的變量?jī)H在該函數(shù)內(nèi)可見C、關(guān)鍵字global定義全局變量時(shí)必須自成一行D、nonlocal變量不可以在內(nèi)嵌函數(shù)中使用答案:D148.當(dāng)特征值大致相等時(shí)。會(huì)發(fā)生的情況是()。A、PCA將表現(xiàn)出色B、PCA將表現(xiàn)不佳C、不知道D、以上都沒有答案:B149.以下說法正確的是()。A、一個(gè)機(jī)器學(xué)習(xí)模型如果有較高準(zhǔn)確率,總是說明這個(gè)分類器是好的B、如果增加模型復(fù)雜度,那么模型的測(cè)試錯(cuò)誤率不一定會(huì)降低C、如果增加模型復(fù)雜度,那么模型的訓(xùn)練錯(cuò)誤率總是會(huì)降低D、-答案:C150.下列關(guān)于HDFS的描述正確的是()。A、如果NameNode宕機(jī),SecondaryNameNode會(huì)接替它使集群繼續(xù)工作B、HDFS集群支持?jǐn)?shù)據(jù)的隨機(jī)讀寫C、NameNode磁盤元數(shù)據(jù)不保存Block的位置信息D、ataNode通過長(zhǎng)連接與NameNode保持通信答案:C151.以下關(guān)于異常處理的描述,正確的是()。A、try語句中有except子句就不能有finally子句B、Python中,可以用異常處理捕獲程序中的所有錯(cuò)誤C、引發(fā)一個(gè)不存在索引的列表元素會(huì)引發(fā)NameError錯(cuò)誤D、Python中允許利用raise語句由程序主動(dòng)引發(fā)異常答案:D152.()不是Spark服務(wù)層的功能。A、SQL查詢B、實(shí)時(shí)處理C、機(jī)器學(xué)習(xí)D、內(nèi)存計(jì)算答案:D153.標(biāo)準(zhǔn)正態(tài)分布的均數(shù)與標(biāo)準(zhǔn)差是()。A、0,1B、1,0C、0,0D、1,1答案:A154.Numpy中確定隨機(jī)數(shù)生成種子使用以下哪個(gè)的函數(shù)是()。A、np.random)B、np.random.seed)C、np.uniform)D、np.eig)答案:B155.以下跟RNN相關(guān)的是()。A、梯度消失B、時(shí)間步C、梯度爆炸D、以上答案都正確答案:D156.圖像中虛假輪廓的出現(xiàn)就其本質(zhì)而言是()。A、圖像的灰度級(jí)數(shù)不夠多而造成的B、圖像的空間分辨率不夠高而造成的C、圖像的灰度級(jí)數(shù)過多而造成的D、圖像的空間分辨率過高而造成的答案:A157.下列去噪方法中,能較好地保持圖像邊緣的去噪方法是()。A、中值濾波B、雙邊濾波C、均值濾波D、高斯濾波答案:A158.以下關(guān)于break,continue的說法,正確的是()。A、continue語句被用來告訴Python跳過當(dāng)前循環(huán)塊中的剩余語句,然后繼續(xù)進(jìn)行下一輪循環(huán);在循環(huán)中break的作用是終止當(dāng)前循環(huán)結(jié)構(gòu)的后續(xù)操作,一旦程序運(yùn)行了break,循環(huán)也就終止了B、reak語句被用來告訴Python跳過當(dāng)前循環(huán)塊中的剩余語句,然后繼續(xù)進(jìn)行下一輪循環(huán),;在循環(huán)中continue的作用是終止當(dāng)前循環(huán)結(jié)構(gòu)的后續(xù)操作,一旦程序運(yùn)行了continue,循環(huán)也就終止了C、break,continue語句被用來告訴Python跳過當(dāng)前循環(huán)塊中的剩余語句,然后繼續(xù)進(jìn)行下一輪循環(huán)D、在循環(huán)中break,continue的作用是終止當(dāng)前循環(huán)結(jié)構(gòu)的后續(xù)操作,一旦程序運(yùn)行了break循環(huán)也就終止了答案:A159.ZooKeeper的特點(diǎn)描述錯(cuò)誤的是()。A、復(fù)雜性B、自我復(fù)制C、順序訪問D、高速讀取答案:A160.scipy中,線性模塊是以下哪個(gè)()模塊()。A、fftpackB、signalC、linalgD、ndimage答案:C161.一組數(shù)據(jù)的最大值與最小值之差叫作做()。A、標(biāo)準(zhǔn)差B、極差C、方差D、極小值答案:B162.下列數(shù)據(jù)類型中,Numpy不支持以下哪種數(shù)據(jù)類型的是()。A、float32B、uint64C、boolD、byte答案:D163.對(duì)模型進(jìn)行超參數(shù)優(yōu)化,詳盡搜索指定參數(shù)的估計(jì)值使用以下哪種()方法()。A、ParameterGrid)B、ParameterSler)C、GridSearchCV)D、RandomizedSearchCV)答案:C164.常用的數(shù)據(jù)歸約方法可以分為()。A、維歸約、數(shù)據(jù)壓縮B、維歸約、參數(shù)歸約C、維歸約、值歸約D、數(shù)據(jù)壓縮、值歸約答案:C165.()的基本想法是適當(dāng)考慮一部分屬性間的相互依賴信息,從而既不需要進(jìn)行完全聯(lián)合概率計(jì)算,又不至于徹底忽略了比較強(qiáng)的屬性依賴關(guān)系。A、貝葉斯判定準(zhǔn)則B、貝葉斯決策論C、樸素貝葉斯分類器D、半樸素貝葉斯分類器答案:D166.Relief是為()問題設(shè)計(jì)的。A、二分類B、多分類C、回歸D、降維答案:A167.現(xiàn)階段的大數(shù)據(jù)技術(shù)體系主要類型不包括()。A、數(shù)據(jù)源與AppB、基礎(chǔ)設(shè)施C、HadoopD、數(shù)據(jù)資源答案:C168.scipy中模塊io的作用是()。A、差值計(jì)算B、程序輸入輸出C、稀疏矩陣D、優(yōu)化答案:B169.關(guān)于Python賦值語句,以下選項(xiàng)中不合法的是()。A、x=1;y=1B、x=y=1C、x=(y=1)D、x,y=y,x答案:C170.選擇哪一個(gè)解作為輸出,將由學(xué)習(xí)算法的歸納偏好決定,常見的做法是引入()。A、線性回歸B、線性判別分析C、正則化項(xiàng)D、偏置項(xiàng)答案:C171.請(qǐng)以下代碼的輸出結(jié)果為()。A、[312]B、[120]C、[123]D、123答案:B172.Numpy默認(rèn)產(chǎn)生的數(shù)據(jù)類型是()。A、int16B、float32C、harD、float64答案:D173.客戶端從HDFS上讀取數(shù)據(jù)時(shí)會(huì)()。A、從NameNode上獲取數(shù)據(jù)B、從DataNode上獲取Block位置C、從NameNode上獲取Block位置D、從NameNode上獲取數(shù)據(jù)和Block位置答案:C174.jieba分詞包含的分詞模式有()。A、精確模式B、全模式C、搜索引擎模式D、以上答案都正確答案:D175.如果字符串中有*需要匹配,需要輸入的正則表達(dá)式為()。A、\*B、\\*C、*D、(*)答案:A176.np.where([[True,False],[True,True]],[[1,2],[3,4]],[[9,8],[7,6]]),最終的輸出結(jié)果是()。A、[[1,4],[9,7]]B、[[1,3],[9,7]]C、[[1,8],[3,4]]D、[[2,9],[3,6]]答案:C177.數(shù)據(jù)科學(xué)中,人們開始注意到傳統(tǒng)數(shù)據(jù)處理方式中普遍存在的“信息丟失”現(xiàn)象,進(jìn)而數(shù)據(jù)處理范式從()轉(zhuǎn)向()。A、產(chǎn)品在先,數(shù)據(jù)在后范式;數(shù)據(jù)在先,產(chǎn)品在后范式或無模式B、模式在先,產(chǎn)品在后范式;產(chǎn)品在先,模式在后范式或無模式C、數(shù)據(jù)在先,模式在后范式或無模式;模式在先,數(shù)據(jù)在后范式D、模式在先,數(shù)據(jù)在后范式;數(shù)據(jù)在先,模式在后范式或無模式答案:D178.數(shù)據(jù)安全技術(shù)保護(hù)與信息系統(tǒng)“三同步”原則不包括以下哪項(xiàng)()。A、同步規(guī)劃B、同步建設(shè)C、同步使用D、同步運(yùn)維答案:D179.下列關(guān)于Numpy的簡(jiǎn)單介紹,不正確的是()。A、Numpy(NumericalPython)是Python語言的一個(gè)擴(kuò)展程序庫B、支持大量的維度數(shù)組與矩陣運(yùn)算C、針對(duì)數(shù)組運(yùn)算提供大量的數(shù)學(xué)函數(shù)庫D、Numpy不開放源代碼答案:D180.討論變量之間的關(guān)系,主要有三個(gè)方法:()、方差分析和回歸分析三個(gè)方法。A、參數(shù)分析B、邏輯分析C、假設(shè)分析D、相關(guān)分析答案:D181.Hadoop中,()執(zhí)行文件系統(tǒng)命名空間操作。A、DataNodeB、NameNodeC、JobTrackerD、TaskTracker答案:B182.數(shù)據(jù)科學(xué)基本原則中,“基于數(shù)據(jù)的智能”的主要特點(diǎn)是()。A、數(shù)據(jù)簡(jiǎn)單、但算法簡(jiǎn)單B、數(shù)據(jù)復(fù)雜、但算法簡(jiǎn)單C、數(shù)據(jù)簡(jiǎn)單、但算法復(fù)雜D、數(shù)據(jù)復(fù)雜、但算法復(fù)雜答案:B183.[i**iforiinrange(3)]的運(yùn)行結(jié)果是()。A、[1,1,4]B、[0,1,4]C、[1,2,3]D、(0,1,4)答案:A184.考察一個(gè)由三個(gè)卷積層組成的CNN:kernel=3×3,stride=2,padding=SAME。最低層輸出100個(gè)特征映射(featuremap),中間層200個(gè)特征映射,最高層400個(gè)特征映射。輸入是200×300的RGB圖片,則總參數(shù)的數(shù)量是()。A、903400B、2800C、180200D、720400答案:A185.在MapReduce中,以下描述錯(cuò)誤的有()。A、Worker故障和Master故障的處理方法不相同B、Map和Reduce的處理結(jié)果都存儲(chǔ)在本地文件系統(tǒng)C、一個(gè)Worker發(fā)生故障時(shí),該節(jié)點(diǎn)上執(zhí)行完的Map任務(wù)需要再次執(zhí)行D、MapReduce具有很強(qiáng)的容錯(cuò)機(jī)制答案:B186.sklearn中對(duì)模型進(jìn)行選擇主要是依靠()模塊。A、decompositionB、model_selectionC、linear_modelD、mixture答案:B187.下列不屬于數(shù)據(jù)科學(xué)跨平臺(tái)基礎(chǔ)設(shè)施和分析工具的是()。A、微軟AzureB、Google云平臺(tái)C、阿里云D、Adobephotoshop答案:D188.數(shù)據(jù)產(chǎn)品開發(fā)工作之中需要特別注意的基本活動(dòng)不包括()。A、創(chuàng)造性設(shè)計(jì)B、數(shù)據(jù)洞見C、虛擬化D、個(gè)性化描述答案:D189.假設(shè)有n組數(shù)據(jù)集,每組數(shù)據(jù)集中,x的平均值都是9,x的方差都是11,y的平均值都是7.50,x與y的相關(guān)系數(shù)都是0.816,擬合的線性回歸方程都是y=3.00+0.500x。那么這n組數(shù)據(jù)集()。A、一樣B、不一樣C、無法確定是否一樣D、-答案:C190.一組數(shù)據(jù)相加后除以數(shù)據(jù)個(gè)數(shù)得到的值叫作做()。A、最大值B、平均值C、中位數(shù)D、眾數(shù)答案:B191.下面關(guān)于詞袋模型的說法,錯(cuò)誤的是()。A、詞袋模型使用一個(gè)多重集對(duì)文本中出現(xiàn)的單詞進(jìn)行編碼B、詞袋模型不考慮詞語原本在句子中的順序C、詞袋模型可以應(yīng)用于文檔分類和檢索,同時(shí)受到編碼信息的限制D、詞袋模型產(chǎn)生的靈感來源于包含類似單詞的文檔經(jīng)常有相似的含義答案:C192.任一隨機(jī)事件出現(xiàn)的概率為()。A、在–1與1之間B、小于0C、不小于1D、在0與1之間答案:D193.()模塊是python標(biāo)準(zhǔn)庫中最常用的模塊之一。通過它可以獲取命令行參數(shù),從而實(shí)現(xiàn)從程序外部向程序內(nèi)部傳遞參數(shù)的功能,也可以獲取程序路徑和當(dāng)前系統(tǒng)平臺(tái)等信息。A、sysB、platformC、mathD、time答案:A194.假設(shè)你正在訓(xùn)練一個(gè)LSTM網(wǎng)絡(luò),你有一個(gè)10000詞的詞匯表,并且使用一個(gè)激活值維度為100的LSTM塊,在每一個(gè)時(shí)間步中,Γu的維度是()。A、1B、100C、300D、10000答案:B195.使用pyplot.plot畫圖時(shí),x,、y的參數(shù)的值的數(shù)據(jù)類型是()。A、charB、floatC、arrayD、ataFrame答案:C196.隨機(jī)森林是在()上的一個(gè)擴(kuò)展變體。A、BoostingB、AdaBoostC、RFD、Bagging答案:D197.機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的關(guān)系是()。A、深度學(xué)習(xí)包含機(jī)器學(xué)習(xí)B、機(jī)器學(xué)習(xí)包含深度學(xué)習(xí)C、二者是獨(dú)立的D、二者相互促進(jìn)答案:B198.以下程序的輸出的結(jié)果正確的是()。A、[[16171819][24252627][28293031][4567]]B、[[16171819][891011][4567][28293031]C、[[891011][4567]]D、error答案:A199.對(duì)于PCA(主成分分析)轉(zhuǎn)化過的特征,樸素貝葉斯的不依賴假設(shè)總是成立,因?yàn)樗兄饕煞质钦坏?這個(gè)說法是()。A、正確的B、錯(cuò)誤的C、-D、-答案:B200.()負(fù)責(zé)HDFS數(shù)據(jù)存儲(chǔ)。A、NameNodeB、JobtrackerC、DataNodeD、SecondaryNameNode答案:C201.plt.show)函數(shù)的作用是()。A、展示圖像B、畫直方圖C、保存圖像D、畫散點(diǎn)圖答案:A202.以下關(guān)于DNN說法不正確的是()。A、層數(shù)多B、抽象能力強(qiáng)C、模擬更復(fù)雜模型D、廣義上包含CNN、DBN、SVM等答案:D203.DNN常用的激活函數(shù)有()。A、sigmoidB、tanhC、ReLUD、以上答案都正確答案:D204.下列關(guān)于支持向量機(jī)優(yōu)化性問題的形式,說法正確的是()。A、它是一個(gè)凸二次規(guī)劃問題B、它是一個(gè)凸一次規(guī)劃問題C、它是一個(gè)凹二次規(guī)劃問題D、它是一個(gè)凹一次規(guī)劃問題答案:A205.基本元數(shù)據(jù)是指()。A、基本元數(shù)據(jù)是與數(shù)據(jù)源、數(shù)據(jù)倉庫、數(shù)據(jù)集市和應(yīng)用程序等結(jié)構(gòu)相關(guān)的信息B、基本元數(shù)據(jù)包括與企業(yè)相關(guān)的管理方面的數(shù)據(jù)和信息C、基本元數(shù)據(jù)包括日志文件和簡(jiǎn)歷執(zhí)行處理的時(shí)序調(diào)度信息D、基本元數(shù)據(jù)包括關(guān)于裝載和更新處理、分析處理以及管理方面的信息答案:D206.在一些算法中,為了進(jìn)行屬性之間的比較或運(yùn)算,需要把不同屬性的不同變量取值范圍變換成同一范圍,以免使得結(jié)果發(fā)生扭曲,偏向取值范圍大的變量。這一過程稱為()。A、合并B、數(shù)據(jù)聚合C、歸一化D、數(shù)據(jù)處理答案:C207.列表中可以放多少()個(gè)字符串()。A、1B、255C、無限個(gè)D、由用戶自己定義答案:C208.對(duì)于兩次調(diào)用文件的write方法,以下選項(xiàng)中描述正確的是()。A、連續(xù)寫入的數(shù)據(jù)之間無分隔符B、連續(xù)寫入的數(shù)據(jù)之間默認(rèn)采用換行分隔C、連續(xù)寫入的數(shù)據(jù)之間默認(rèn)采用空格分隔D、連續(xù)寫入的數(shù)據(jù)之間默認(rèn)采用逗號(hào)分隔答案:A209.scipyScipy中的圖像處理模塊是哪個(gè)()。A、imageB、ndimageC、photoD、optimize答案:B210.數(shù)據(jù)產(chǎn)品開發(fā)的關(guān)鍵環(huán)節(jié)是()A、數(shù)據(jù)收集B、數(shù)據(jù)預(yù)處理C、數(shù)據(jù)學(xué)習(xí)D、數(shù)據(jù)加工答案:D211.下列語句在Python中是不合法的有()。A、i="A"+2B、i=True+2C、x,y=y,xD、x=y=z=1答案:A212.關(guān)于Python的全局變量和局部變量,以下選項(xiàng)中描述錯(cuò)誤的是()。A、局部變量指在函數(shù)內(nèi)部使用的變量,當(dāng)函數(shù)退出時(shí),變量依然存在,下次函數(shù)調(diào)用可以繼續(xù)使用B、使用global保留字聲明簡(jiǎn)單數(shù)據(jù)類型變量后,該變量作為全局變量使用C、簡(jiǎn)單數(shù)據(jù)類型變量無論是否與全局變量重名,僅在函數(shù)內(nèi)部創(chuàng)建和使用,函數(shù)退出后變量被釋放D、全局變量指在函數(shù)之外定義的變量,一般沒有縮進(jìn),在程序執(zhí)行全過程有效答案:A213.在matplotlib中,調(diào)用直方圖的函數(shù)是()。A、plot)B、scatter)C、bar)D、hist)答案:D214.卷積的過程是讓過濾器在圖像上進(jìn)行()。A、縮放B、剪切C、窗口滑動(dòng)D、鏡像對(duì)稱答案:C215.關(guān)于Python內(nèi)存管理,下列說法錯(cuò)誤的是哪項(xiàng)()。A、變量不必事先聲明B、變量無須先創(chuàng)建和賦值而直接使用C、變量無須指定類型D、可以使用del釋放資源答案:B216.()選擇是直接把最終將要使用的學(xué)習(xí)器的性能作為特征子集的評(píng)價(jià)準(zhǔn)則。A、嵌入式B、過濾式C、包裹式D、一體式答案:C217.matplotlib中的調(diào)用堆積折線圖的函數(shù)是什么()。A、step)B、stackplot)C、plusplot)D、hist)答案:B218.下列關(guān)于HDFS的描述正確的是()。A、如果NameNode宕機(jī),SecondaryNameNode會(huì)接替它使集群繼續(xù)工作B、HDFS集群支持?jǐn)?shù)據(jù)的隨機(jī)讀寫C、NameNode磁盤元數(shù)據(jù)不保存Block的位置信息D、ataNode通過長(zhǎng)連接與NameNode保持通信答案:C219.以下分割方法中不屬于區(qū)域算法的是()。A、分裂合并B、閾值分割C、區(qū)域生長(zhǎng)D、邊緣檢測(cè)答案:D220.在pandas中,使用pivot_table函數(shù)制作透視表用以下那個(gè)參數(shù)()設(shè)置行分組鍵()。A、indexB、rawC、valuesD、ata答案:A221.平滑圖像處理可以采用RGB彩色()模型。A、直方圖均衡化B、直方圖均衡化C、加權(quán)均值濾波D、中值濾波答案:C222.()不是長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)三個(gè)門中的一個(gè)門。A、輸入門B、輸出門C、遺忘門D、進(jìn)化門答案:D223.以下有關(guān)計(jì)算機(jī)編程語言說法錯(cuò)誤的是()。A、編程語言是用于書寫計(jì)算機(jī)程序的語言;B、計(jì)算機(jī)語言可分為機(jī)器語言、匯編語言、高級(jí)語言;C、計(jì)算機(jī)能識(shí)別和執(zhí)行所有編程語言寫的程序;D、C/C++、pascal、java、pythonPython都屬于高級(jí)編程語言;答案:C224.卷積神經(jīng)網(wǎng)絡(luò)中每層卷積層(Convolutionallayer)由若干卷積單元組成,每個(gè)卷積單元的參數(shù)都是通過反向傳播算法最佳化得到,其作用是()。A、增強(qiáng)圖像B、簡(jiǎn)化圖像C、特征提取D、圖像處理答案:C225.當(dāng)訓(xùn)練樣本近似線性可分時(shí),通過(),學(xué)習(xí)一個(gè)()。A、硬間隔,最大化非線性支持向量機(jī)B、軟間隔,最大化線性支持向量機(jī)C、硬間隔,最大化線性支持向量機(jī)D、軟間隔,最大化非線性支持向量機(jī)答案:B226.數(shù)據(jù)集成的基本類型是()。A、內(nèi)容集成、結(jié)構(gòu)集成B、內(nèi)容集成、規(guī)約集成C、規(guī)約集成、結(jié)構(gòu)集成D、模式集成、結(jié)構(gòu)集成答案:A227.下列不屬于Action操作的是()。A、collectB、filterC、reduceD、count答案:B228.圖像中虛假輪廓的出現(xiàn)就其本質(zhì)而言是()。A、圖像的灰度級(jí)數(shù)不夠多而造成的B、圖像的空間分辨率不夠高而造成的C、圖像的灰度級(jí)數(shù)過多而造成的D、圖像的空間分辨率過高而造成的答案:A229.MapReduce對(duì)map()函數(shù)的返回值進(jìn)行處理后再返回給reduce()函數(shù)的目的是()。A、減少map()函數(shù)和reduce()函數(shù)之間的數(shù)據(jù)傳輸B、優(yōu)化map()函數(shù)C、優(yōu)化reduce()函數(shù)D、這一步驟并無必要答案:A230.scipyScipy中計(jì)算偏度的函數(shù)是哪個(gè)()。A、scipy.stats.skewtest)B、scipy.stats.norm.rvs)C、scipy.stats.kurtosis)D、scipy.stats.poisson.rvs)答案:A231.假設(shè)你在卷積神經(jīng)網(wǎng)絡(luò)的第一層中有5個(gè)卷積核,每個(gè)卷積核尺寸為7×7,具有零填充且步幅為1。該層的輸入圖片的維度是224×224×3。那么該層輸出的維度是()。A、217x217x3B、217x217x8C、218x218x5D、220x220x7答案:C232.線性模型中的權(quán)重w值可以看做各個(gè)屬性x的()。A、正則化系數(shù)B、對(duì)最終決策結(jié)果的貢獻(xiàn)度C、高維映射D、取值答案:B233.假設(shè)precision=TP/(TP+FP),recall=TP/(TP+FN),則在二分類問題中,當(dāng)測(cè)試集的正例和負(fù)例數(shù)量不均衡時(shí),以下評(píng)價(jià)方案中()是相對(duì)不合理的。A、ccuracy:(TP+TN)/allB、F-value:2recallprecision/(recall+precision)C、G-mean:sqrt(precision*recall)D、AUC:曲線下面積答案:A234.通過聚集多個(gè)分類器的預(yù)測(cè)來提高分類準(zhǔn)確率的技術(shù)稱為()。A、組合(ensemble)B、聚集(aggregate)C、合并(combination)D、投票(voting)答案:A235.下面的語句哪個(gè)中會(huì)無限循環(huán)下去的是()。A、forainrange(10):timesleep(10)B、while1<10:timesleep(10)C、whileTrue:breakD、a=[3,-1,',']foriina[:]:ifnota:break答案:B236.“for”是一種常用的循環(huán)語句。下列語句運(yùn)行后,變量sum的值為()。A、55B、10C、11D、45答案:D237.在k近鄰學(xué)習(xí)算法中,隨著k的增加,上界將逐漸降低,當(dāng)k區(qū)域無窮大時(shí),上界和下界碰到一起,k近鄰法就達(dá)到了()。A、貝葉斯錯(cuò)誤率B、漸進(jìn)錯(cuò)誤率C、最優(yōu)值D、上界答案:A238.從數(shù)據(jù)到智慧的轉(zhuǎn)換依次遞進(jìn)過程是()。A、數(shù)據(jù)、知識(shí)、信息、理解、智慧B、數(shù)據(jù)、信息、理解、知識(shí)、智慧C、數(shù)據(jù)、信息、知識(shí)、理解、智慧D、數(shù)據(jù)、理解、信息、知識(shí)、智慧答案:C239.下列說法正確的是()。A、函數(shù)的名稱可以隨意命名B、帶有默認(rèn)值的參數(shù)一定位于參數(shù)列表的末尾C、局部變量的作用域是整個(gè)程序D、函數(shù)定義后,系統(tǒng)會(huì)自動(dòng)執(zhí)行其內(nèi)部的功能答案:B240.()對(duì)應(yīng)于決策樹結(jié)果,其他節(jié)點(diǎn)對(duì)應(yīng)于()。A、葉節(jié)點(diǎn),屬性測(cè)試B、根結(jié)點(diǎn),學(xué)習(xí)測(cè)試C、內(nèi)部節(jié)點(diǎn),學(xué)習(xí)測(cè)試D、葉節(jié)點(diǎn),分類測(cè)試答案:A241.運(yùn)行下面的代碼,輸出結(jié)果是()。A、[0,10,2,30,4]B、[10,2,30,4]C、[0,10,2,30,4,50]D、[0,1,20,3,40]答案:A242.Spark核心層主要關(guān)注()問題。A、存儲(chǔ)B、計(jì)算C、傳輸D、連接答案:B243.以下不能創(chuàng)建一個(gè)字典的語句是()。A、dict1={}B、dict2={3:5}C、dict3={[1,2,3]:“uestc”}D、ict4={(1,2,3):“uestc”}答案:C244.給定訓(xùn)練樣例集,設(shè)法將樣例投影到一條直線上,使得同類樣例的投影點(diǎn)盡可能接近、異類樣例的投影點(diǎn)盡可能遠(yuǎn)離,這說的是()算法。A、PCAB、SVMC、K-meansD、LDA答案:D245.scipy包中()是數(shù)值積分例程和微分方程求解。A、integrateB、linglgC、sparseD、special答案:A246.數(shù)據(jù)分析的第一步是()。A、探索性分析B、描述性分析C、診斷性分析D、規(guī)范性分析答案:B247.()是一種著名的密度聚類算法,它基于一組鄰域參數(shù)來刻畫樣本的緊密程度。A、DBSCANB、原型聚類C、密度聚類D、層次聚類答案:A248.matplotlib中的step函數(shù)繪制的是什么圖()。A、階梯圖B、直方圖C、間斷條形圖D、堆積折線圖答案:A249.以P(w)表示詞條w的概率,假設(shè)已知P(南京)=0.8,P(市長(zhǎng))=0.6,P(江大橋)=0.4;P(南京市)=0.3,P(長(zhǎng)江大橋)=0.5。如果假設(shè)前后兩個(gè)詞的出現(xiàn)是獨(dú)立的,那么分詞結(jié)果就是()。A、南京市×長(zhǎng)江×大橋B、南京*市長(zhǎng)*江大橋C、南京市長(zhǎng)*江大橋D、南京市*長(zhǎng)江大橋答案:B250.增加卷積核的大小對(duì)于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的效果是必要的嗎()A、是的,增加卷積核尺寸一定能提高性能B、不是,增加核函數(shù)的大小不一定會(huì)提高性能C、-D、-答案:B251.依托(),結(jié)合應(yīng)用推進(jìn)數(shù)據(jù)歸集,形成統(tǒng)一的數(shù)據(jù)資源中心。A、全業(yè)務(wù)數(shù)據(jù)中心和數(shù)據(jù)平臺(tái)B、營(yíng)銷基礎(chǔ)數(shù)據(jù)平臺(tái)和大數(shù)據(jù)平臺(tái)C、全業(yè)務(wù)中心和營(yíng)銷基礎(chǔ)數(shù)據(jù)平臺(tái)D、全業(yè)務(wù)數(shù)據(jù)中心和大數(shù)據(jù)平臺(tái)答案:A252.下列哪個(gè)()不是scipy.stats模塊中的功能()。A、連續(xù)性分布B、線性方程求解C、離散型分布D、核密度估計(jì)答案:B253.下列不屬于數(shù)據(jù)科學(xué)開源工具的是()。A、MapReduceB、ERPC、HadoopD、Spark答案:B254.對(duì)Python中的os模塊常見方法的描述,錯(cuò)誤的是()。A、os.remove)刪除文件B、os.rename)重命名文件C、os.walk)讀取所有的目錄名D、os.chdir)改變目錄答案:C255.關(guān)于Hive說法正確的是()。A、一種數(shù)據(jù)倉庫B、一種數(shù)據(jù)處理工具C、一種可視化工具D、一種分析算法答案:A256.scipyScipy通常與下列哪個(gè)庫()同時(shí)使用()。A、pandasB、scikit-learnC、NumpyD、jieba答案:C257.“數(shù)據(jù)的故事化描述”是指為了提升數(shù)據(jù)的(),將數(shù)據(jù)還原成關(guān)聯(lián)至特定的情景的過程。A、可理解性、可記憶性、可體驗(yàn)性B、可接受性、可記憶性、可體驗(yàn)性C、可接受性、可記憶性、可呈現(xiàn)性D、可理解性、可記憶性、可呈線性答案:A258.Python中jieba庫是一個(gè)()庫。A、第三方中文分詞詞庫B、機(jī)器學(xué)習(xí)庫C、圖像處理庫D、自動(dòng)提取語義主題答案:A259.以下選項(xiàng)中哪個(gè)不屬于數(shù)據(jù)預(yù)處理的方法()。A、數(shù)據(jù)清洗B、數(shù)據(jù)集成C、數(shù)據(jù)變換D、數(shù)據(jù)統(tǒng)計(jì)答案:D260.以下關(guān)于深度學(xué)習(xí)框架的描述,正確的是()。A、Tensorflow是一款使用C++語言開發(fā)的開源數(shù)學(xué)計(jì)算軟件B、Caffe對(duì)于卷積網(wǎng)絡(luò)的支持特別好,同時(shí)提供的C++接口,也提供了matlab接口和python接口C、PyTorch的前身便是Torch,其底層和Torch框架一樣,但是使用Python重新寫了很多內(nèi)容D、以上答案都正確答案:D261.關(guān)于OLAP的特性,下面正確的是:①快速性;②可分析性;③多維性;④信息性;⑤共享性()A、①②③B、②③④C、①②③④D、①②③④⑤答案:D262.向量空間模型的缺陷不包括()。A、維度災(zāi)難B、模型稀疏性C、語義信息缺失D、無法計(jì)算文本相似度答案:D263.以下關(guān)于圖像中的噪聲的特性說法錯(cuò)誤的是()。A、具有隨機(jī)性B、具有規(guī)律性C、具有疊加性D、-答案:B264.在Apriori算法中,候選項(xiàng)集劃分為不同的桶,存放在()中。A、字典B、集合C、Hash樹D、列表答案:C265.在大規(guī)模的語料中,挖掘詞的相關(guān)性是一個(gè)重要的問題。以下不能用于確定兩個(gè)詞的相關(guān)性的是()。A、互信息B、最大熵C、卡方檢驗(yàn)D、最大似然比答案:B266.機(jī)器學(xué)習(xí)中發(fā)生過擬合的主要原因不包括()。A、使用過于復(fù)雜的模型B、數(shù)據(jù)噪聲較大C、訓(xùn)練數(shù)據(jù)少D、訓(xùn)練數(shù)據(jù)充足答案:D267.假如我們使用Lasso回歸來擬合數(shù)據(jù)集,該數(shù)據(jù)集輸入特征有100個(gè)(X1,X2,...,X100)?,F(xiàn)在,我們把其中一個(gè)特征值擴(kuò)大10倍(如特征X1),然后用相同的正則化參數(shù)對(duì)Lasso回歸進(jìn)行修正。那么,下列說法正確的是()。A、特征X1很可能被排除在模型之外B、特征X1很可能還包含在模型之中C、無法確定特征X1是否被舍D、以上答案都不正確答案:B268.CART決策樹通常采用()剪枝方法。A、REP(錯(cuò)誤率降低)B、CCP(代價(jià)復(fù)雜度)C、PEP(悲觀剪枝)D、預(yù)剪枝答案:B269.一監(jiān)獄人臉識(shí)別準(zhǔn)入系統(tǒng)用來識(shí)別待進(jìn)入人員的身份,此系統(tǒng)識(shí)別獄警、小偷、送餐員、其他人員4種不同人員。下列學(xué)習(xí)方法最適合此種應(yīng)用需求的是()。A、二分類問題B、層次聚類問題C、多分類問題D、回歸問題答案:C270.以下哪個(gè)不屬于數(shù)據(jù)治理內(nèi)容的是()。A、理解自己的數(shù)據(jù)B、行為規(guī)范的制定C、崗位職責(zé)的定義D、獲得更多的數(shù)據(jù)答案:D271.已知數(shù)組a=np.array([[0,0,0],[10,10,10],[20,20,20],[30,30,30]])A、[[1,2,3],[10,10,10],[20,20,20],[30,30,30]]B、[[1,2,3],[0,0,0],[10,10,10],[20,20,20],[30,30,30]]C、[[1,2,3],[11,12,13],[21,22,23],[31,32,33]]D、無法計(jì)算答案:C272.決策樹的父節(jié)點(diǎn)和子節(jié)點(diǎn)的熵的大小關(guān)系是()。A、父節(jié)點(diǎn)的熵更小B、子節(jié)點(diǎn)的熵更小C、兩者相等D、根據(jù)具體情況而定答案:B273.圖像與灰度直方圖的對(duì)應(yīng)關(guān)系為()。A、一一對(duì)應(yīng)B、一對(duì)多C、多對(duì)一D、以上答案都正確答案:C274.下列關(guān)于數(shù)據(jù)交易市場(chǎng)的說法中,錯(cuò)誤的是()。A、數(shù)據(jù)交易市場(chǎng)是大數(shù)據(jù)產(chǎn)業(yè)發(fā)展到一定程度的產(chǎn)物B、商業(yè)化的數(shù)據(jù)交易活動(dòng)催生了多方參與的第三方數(shù)據(jù)交易市場(chǎng)C、數(shù)據(jù)交易市場(chǎng)通過生產(chǎn)、研發(fā)和分析數(shù)據(jù),為數(shù)據(jù)交易提供幫助D、數(shù)據(jù)交易市場(chǎng)是大數(shù)據(jù)資源化的必然產(chǎn)物答案:C275.關(guān)于Logistic回歸和SVM的描述,不正確的是()。A、Logistic回歸本質(zhì)上是一種根據(jù)樣本對(duì)權(quán)值進(jìn)行極大似然估計(jì)的方法,用先驗(yàn)概率的乘積代替后驗(yàn)概率B、Logistic回歸的輸出就是樣本屬于正類別的概率C、SVM的目標(biāo)是找到使得訓(xùn)練數(shù)據(jù)盡可能分開且分類間隔最大的超平面,屬于結(jié)構(gòu)風(fēng)險(xiǎn)最小化D、SVM可以通過正則化系數(shù)控制模型的復(fù)雜度,避免過擬合答案:A276.數(shù)據(jù)資產(chǎn)維護(hù)是指為保證數(shù)據(jù)質(zhì)量,對(duì)數(shù)據(jù)進(jìn)行()等處理的過程。A、更正B、刪除C、補(bǔ)充錄入D、以上答案都正確答案:D277.如果使用線性回歸模型,下列說法正確的是()。A、檢查異常值是很重要的,因?yàn)榫€性回歸對(duì)離群效應(yīng)很敏感B、線性回歸分析要求所有變量特征都必須具有正態(tài)分布C、線性回歸假設(shè)數(shù)據(jù)中基本沒有多重共線性D、以上說法都不對(duì)答案:A278.在神經(jīng)網(wǎng)絡(luò)中引入了非線性的是()。A、隨機(jī)梯度下降B、修正線性單元(ReLU)C、卷積函數(shù)D、以上答案都不正確答案:B279.在Python中,下列不是int整型數(shù)據(jù)的是()。A、160B、10C、-78D、0x234答案:B280.下列模型中與文本分類相關(guān)的模型是()。A、決策樹B、神經(jīng)網(wǎng)絡(luò)C、KNN算法D、以上答案都正確答案:D281.下列語句中,在python3中合法的語句為()。A、printHello,World!B、print'Hello,World!'C、print('Hello,World!')D、print"Hello,World!"答案:C282.當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),可以使用()促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離。A、分類B、聚類C、關(guān)聯(lián)分析D、隱馬爾可夫鏈答案:B283.檢測(cè)一元正態(tài)分布中的離群點(diǎn),屬于異常檢測(cè)中的基于()的離群點(diǎn)檢測(cè)。A、統(tǒng)計(jì)方法B、鄰近度C、密度D、聚類技術(shù)答案:A284.下列屬于無監(jiān)督學(xué)習(xí)的是()。A、K-meansB、SVMC、最大熵D、CRF答案:A285.參數(shù)估計(jì)又可分為()和區(qū)間估計(jì)。A、線型估計(jì)B、點(diǎn)估計(jì)C、回歸估計(jì)D、二維分析答案:B286.MapReduce編程模型中以下組件哪個(gè)是最后執(zhí)行的()。A、MapperB、PartitionerC、ReducerD、RecordReader答案:C287.以下代碼哪個(gè)中能夠打印出138-9922-0202這個(gè)電話號(hào)碼(注意格式需要完全一致)的是,注意格式需要完全一致()。A、print(“138”)print(“9922”)print(“0202”)B、print(“138”,end=“”)print(“9922”,end=“”)print(“0202”,end=“”)C、print(“138”,sep=“-”)print(“9922”,sep=“-”)print(“0202”,sep=“-”)D、print(“138”,end=“-”)print(“9922”,end=“-”)print(“0202”)答案:D288.下列關(guān)于數(shù)據(jù)交易市場(chǎng)的說法中,錯(cuò)誤的是()。A、數(shù)據(jù)交易市場(chǎng)是大數(shù)據(jù)產(chǎn)業(yè)發(fā)展到一定程度的產(chǎn)物B、商業(yè)化的數(shù)據(jù)交易活動(dòng)催生了多方參與的第三方數(shù)據(jù)交易市場(chǎng)C、數(shù)據(jù)交易市場(chǎng)通過生產(chǎn)、研發(fā)和分析數(shù)據(jù),為數(shù)據(jù)交易提供幫助D、數(shù)據(jù)交易市場(chǎng)是大數(shù)據(jù)資源化的必然產(chǎn)物答案:C289.RDD默認(rèn)的存儲(chǔ)級(jí)別是()。A、MEMORY_ONLYB、MEMORY_ONLY_SERC、MEMORY_AND、ISKD.MEMORY_AND_DISK_SER答案:A290.假設(shè)已從標(biāo)準(zhǔn)庫functools導(dǎo)入reduce)函數(shù),那么表達(dá)式reduce(lambdax,y:x+y,[1,2,3])的值為()。A、NoneB、6C、3D、9答案:B291.以下代碼的輸出結(jié)果為()。A、[[0,2,3],[4,6,7],[8,10,11],[12,14,15]]B、[[0,1,2,3],[8,9,10,11],[12,13,14,15]]C、[[0,1,2,3],[4,5,6,7],[8,9,10,11],[12,13,14,15]]D、[[1,2,3],[5,6,7],[9,10,11],[13,14,15]]答案:C292.聚類是一種典型的無監(jiān)督學(xué)習(xí)任務(wù),然而在現(xiàn)實(shí)聚類任務(wù)中我們往往能獲得一些額外的監(jiān)督信息,于是可通過()來利用監(jiān)督信息以獲得更好的聚類效果。A、監(jiān)督聚類B、半監(jiān)督聚類C、聚類D、直推聚類答案:B293.構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入。()有反饋連接。A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、限制玻爾茲曼機(jī)D、都不是答案:A294.Python解釋器環(huán)境中,用于表示上一次運(yùn)算結(jié)果的特殊變量為()。A、:B、_C、>D、#答案:B295.所有預(yù)測(cè)模型在廣義上都可稱為一個(gè)或一組()。A、公式B、邏輯C、命題D、規(guī)則答案:D296.關(guān)于Python程序格式框架的描述,以下選項(xiàng)中錯(cuò)誤的是()。A、Python語言不采用嚴(yán)格的“縮進(jìn)”來表明程序的格式框架B、Python單層縮進(jìn)代碼屬于之前最鄰近

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論