人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷7)_第1頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷7)_第2頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷7)_第3頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷7)_第4頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷7)_第5頁
已閱讀5頁,還剩63頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

試卷科目:人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷7)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)第1部分:單項選擇題,共155題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.聚類算法屬于()的一種A)無監(jiān)督學(xué)習(xí)B)強(qiáng)化學(xué)習(xí)C)監(jiān)督學(xué)習(xí)[單選題]2.KNN算法應(yīng)用于回歸時,計算的是()A)從屬類別的均值B)從屬類別的最大值C)從屬類別的最小值[單選題]3.線性回歸和邏輯回歸中,關(guān)于損失函數(shù)對權(quán)重系數(shù)的偏導(dǎo)數(shù),下列說法正確的是?A)兩者不一樣B)兩者一樣C)無法確定[單選題]4.假設(shè)有n組數(shù)據(jù)集,每組數(shù)據(jù)集中,x的平均值都是9,x的方差都是11,y的平均值都是7.50,x與y的相關(guān)系數(shù)都是0.816,擬合的線性回歸方程都是y=3.00+0.500x。那么這n組數(shù)據(jù)集()。A)一樣B)不一樣C)無法確定是否一樣[單選題]5.一個SVM存在欠擬合問題,下面怎么做能提高模型的性能:A)增大懲罰參數(shù)CB)減小懲罰參數(shù)CC)減小核函數(shù)系數(shù)(gamma值)[單選題]6.關(guān)于BP算法特點(diǎn)描述錯誤的是()A)輸入信號順著輸入層、隱層、輸出層依次傳播B)計算之前不需要對訓(xùn)練數(shù)據(jù)進(jìn)行歸一化C)預(yù)測誤差需逆向傳播,順序是輸出層、隱層、輸入層D)各個神經(jīng)元根據(jù)預(yù)測誤差對權(quán)值進(jìn)行調(diào)整[單選題]7.以下有關(guān)特征數(shù)據(jù)歸一化的說法錯誤的是:A)特征數(shù)據(jù)歸一化加速梯度下降優(yōu)化的速度B)特征數(shù)據(jù)歸一化有可能提高模型的精度C)線性歸一化適用于特征數(shù)值分化比較大的情況D)概率模型不需要做歸一化處理[單選題]8.一所大學(xué)內(nèi)的各年紀(jì)人數(shù)分別為:一年級200人,二年級160人,三年級130人,四年級110人。則年級屬性的眾數(shù)是:A)一年級B)二年級C)三年級D)四年級[單選題]9.假設(shè)您已在數(shù)據(jù)集上擬合了一個復(fù)雜的回歸模型?,F(xiàn)在,您正在使用Ridge回歸,并調(diào)整參數(shù)λ以減少其復(fù)雜性。下面的描述哪個表達(dá)了偏差和方差與λ的關(guān)系()。A)在λ非常小的情況下,偏差低,方差低B)在λ非常小的情況下,偏差低,方差高C)在λ非常小的情況下,偏差高,方差低D)在λ非常小的情況下,偏差低,方差低[單選題]10.假設(shè)file是文本文件對象,下列選項中,哪個用于讀取一行內(nèi)容()。A)file.read()B)file.read(200)C)file.readline()D)file.readlines()[單選題]11.使用小括號定義的數(shù)據(jù)類型是(A)列表B)集合C)字典D)元組[單選題]12.在數(shù)據(jù)科學(xué)中,有時需要通過樣本對總體進(jìn)行(__)。A)描述統(tǒng)計B)洞見統(tǒng)計C)推斷統(tǒng)計D)歸納統(tǒng)計[單選題]13.梯度下降算法的正確步驟是什么?A計算預(yù)測值和真實(shí)值之間的誤差B重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值C把輸入傳入網(wǎng)絡(luò),得到輸出值D用隨機(jī)值初始化權(quán)重和偏差E對每一個產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差A(yù))abcdeB)edcbaC)cbaedD)dcaeb[單選題]14.下列代碼片段>>>fromsklearn.model_selectionimporttrain_test_split>>>X_train,X_test,y_train,y_test=train_test_split(iris.data,iris.target,test_size=0.4,random_state=0)實(shí)現(xiàn)的功能是:A)加載數(shù)據(jù)B)分割數(shù)據(jù)C)分組數(shù)據(jù)D)刪除部分?jǐn)?shù)據(jù)[單選題]15.關(guān)于CNN,以下結(jié)論正確的是()A)在同樣層數(shù)、每層神經(jīng)元數(shù)量一樣的情況下,CNN比全連接網(wǎng)絡(luò)擁有更多的參數(shù)B)CNN可以用于非監(jiān)督學(xué)習(xí),但是普通神經(jīng)網(wǎng)絡(luò)不行C)Pooling層用于減少圖片的空間分辨率D)接近輸出層的filter主要用于提取圖像的邊緣信息[單選題]16.以下關(guān)于數(shù)據(jù)科學(xué)描述錯誤的是A)數(shù)據(jù)科學(xué)研究數(shù)據(jù)的共性B)降低計算量不是數(shù)據(jù)科學(xué)關(guān)心的問題C)數(shù)據(jù)科學(xué)可以研究非結(jié)構(gòu)化數(shù)據(jù)D)數(shù)據(jù)科學(xué)需要與其他學(xué)科結(jié)合在一起[單選題]17.下列關(guān)于ZooKeeper集群原理的介紹,不正確的是()。A)由多個ZooKeeperSEVER組成的集群環(huán)境B)包含一個Leader和多個FollowerC)每個sever保存一個數(shù)據(jù)副本、全局?jǐn)?shù)據(jù)一致D)不采用分布式讀寫機(jī)制[單選題]18.以下不屬于線性分類器最佳準(zhǔn)則的是()A)感知準(zhǔn)則函數(shù)B)支持向量機(jī)C)貝葉斯分類D)Fisher準(zhǔn)則[單選題]19.關(guān)于ZooKeeper臨時節(jié)點(diǎn)的說法正確的是()A)創(chuàng)建臨時節(jié)點(diǎn)的命令為:create-s/tmpmyvalueB)一旦會話結(jié)束,臨時節(jié)點(diǎn)將被自動刪除C)臨時節(jié)點(diǎn)不能手動刪除D)臨時節(jié)點(diǎn)允許有子節(jié)點(diǎn)[單選題]20.過濾式特征選擇與學(xué)習(xí)器(),包裹式特征選擇與學(xué)習(xí)器()。A)相關(guān),相關(guān)B)相關(guān),不相關(guān)C)不相關(guān),相關(guān)D)不相關(guān),不相關(guān)[單選題]21.如果問題存在最優(yōu)解,則下面幾種搜索算法中,()必然可以得到該最優(yōu)解A)廣度優(yōu)先搜索B)深度優(yōu)先搜索C)有界深度優(yōu)先搜索D)啟發(fā)式搜索[單選題]22.下列不屬于無監(jiān)督學(xué)習(xí)方法的是()A)K-meansB)線性降維C)DBSCAND)支持向量機(jī)[單選題]23.下列哪個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生權(quán)重共享?A)卷積神經(jīng)網(wǎng)絡(luò)B)循環(huán)神經(jīng)網(wǎng)絡(luò)C)全連接神經(jīng)網(wǎng)絡(luò)D)選項A和B[單選題]24.下面關(guān)于Z-Buffer算法的論斷哪一條不正確?()A)深度緩存算法并不需要開辟一個與圖像大小相等的深度緩存數(shù)組B)深度緩存算法不能用于處理對透明物體的消隱C)深度緩存算法能并行實(shí)現(xiàn)D)深度緩存算法中沒有對多邊形進(jìn)行排序[單選題]25.以下有關(guān)隨機(jī)森林算法的說法錯誤的是:A)隨機(jī)森林算法的分類精度不會隨著決策樹數(shù)量的增加而提高B)隨機(jī)森林算法對異常值和缺失值不敏感C)隨機(jī)森林算法不需要考慮過擬合問題D)決策樹之間相關(guān)系數(shù)越低、每棵決策樹分類精度越高的隨機(jī)森林模型分類效果越好[單選題]26.下面不屬于維歸約方法的是(__)。A)PCAB)SVDC)DWTD)KNN[單選題]27.當(dāng)特征值大致相等時。會發(fā)生的情況是()。A)PCA將表現(xiàn)出色B)PCA將表現(xiàn)不佳C)不知道D)以上都沒有[單選題]28.以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法:A)嵌入B)過濾C)包裝D)抽樣[單選題]29.根據(jù)數(shù)據(jù)管理計劃,設(shè)計或選擇具體方法實(shí)行計劃中的工作內(nèi)容,屬于數(shù)據(jù)治理的哪一步()A)計劃B)執(zhí)行C)檢查D)改進(jìn)[單選題]30.支持向量回歸與傳統(tǒng)回歸模型的差別是()。A)模型輸出與真實(shí)值相同B)模型輸出與真實(shí)值存在ε偏差C)模型輸出大于真實(shí)值D)模型輸出小于真實(shí)值[單選題]31.對于非概率模型而言,可按照判別函數(shù)線性與否分成線性模型與非線性模型。下面哪個模型不屬于線性模型?A)感知機(jī)B)AdaBoostC)K-meansD)k近鄰[單選題]32.在DIKW金字塔中屬于未來的是()。A)信息B)數(shù)據(jù)C)知識D)智慧[單選題]33.下面關(guān)于SVM算法敘述不正確的是()A)SVM在解決小樣本、非線性及高維模式識別問題中具有優(yōu)勢B)SVM是一種基于經(jīng)驗(yàn)風(fēng)險最小化準(zhǔn)則的算法C)SVM求得的解為全局唯一最優(yōu)解D)SVM最終分類結(jié)果只與少數(shù)支持向量有關(guān)[單選題]34.當(dāng)(__)過高,會出現(xiàn)欠擬合現(xiàn)象A)偏差B)方差C)噪聲D)泛化誤差[單選題]35.以下哪項不屬于圖像分割的目的。()A)把不同類標(biāo)分開。B)提取不同區(qū)域的特征。C)識別圖像內(nèi)容,或?qū)D像進(jìn)行分類。D)對未處理噪聲的圖像進(jìn)行平滑。[單選題]36.當(dāng)(__)過高,會出現(xiàn)過擬合現(xiàn)象A)偏差B)方差C)噪聲D)泛化誤差[單選題]37.將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約、數(shù)值規(guī)約是在以下哪個步驟的任務(wù)?A)頻繁模式挖掘B)分類和預(yù)測C)數(shù)據(jù)預(yù)處理D)數(shù)據(jù)流挖掘[單選題]38.最小二乘回歸方法的等效回歸方法()A)Logistic回歸B)多項式回歸C)非線性基函數(shù)回歸D)線性均值和正態(tài)誤差的最大似然回歸[單選題]39.下面對線性模型中偏置值b的說法正確的是(__)。A)無任何意義B)決定超平面的位置C)決定的超平面的方向D)是樣本點(diǎn)到超平面上的映射[單選題]40.梯度爆炸問題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時候,梯度變得過大而損失函數(shù)變?yōu)闊o窮。在RNN中,下面哪種方法可以較好地處理梯度爆炸問題()A)梯度裁剪B)所有方法都不行C)DropoutD)加入正則項[單選題]41.專家系統(tǒng)中知識庫的知識可以獲取的來源是()A)領(lǐng)域?qū)<褺)專家系統(tǒng)的用戶C)計算機(jī)系統(tǒng)管理員D)專家系統(tǒng)程序的開發(fā)者[單選題]42.數(shù)據(jù)科學(xué)是一門以?數(shù)據(jù)?,尤其是?大數(shù)據(jù)?為研究對象,并以數(shù)據(jù)統(tǒng)計、機(jī)器學(xué)習(xí)、數(shù)據(jù)可視化等為理論基礎(chǔ),主要研究數(shù)據(jù)加工、數(shù)據(jù)管理、數(shù)據(jù)計算等活動的()。A)新興科學(xué)B)交叉性學(xué)科C)獨(dú)立學(xué)科D)一整套知識體系[單選題]43.以下關(guān)于字典中的鍵值的說法,正確的是A)鍵值不可修改B)鍵值不能重復(fù)C)鍵值必須是字符串D)以上都不對[單選題]44.下列哪一項屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?A)K近鄰算法B)隨機(jī)森林C)神經(jīng)網(wǎng)絡(luò)D)都不屬于[單選題]45.假設(shè)precision=TP/(TP+FP),recall=TP/(TP+FN),則在二分類問題中,當(dāng)測試集的正例和負(fù)例數(shù)量不均衡時,以下評價方案中()是相對不合理的。A)Accuracy:(TP+TN)/allB)F-value:2recallprecision/(recall+precision)C)G-mean:sqrt(precision*recall)D)AUC:曲線下面積[單選題]46.自然語言處理是用()技術(shù)的一種應(yīng)用A)語音識別B)虛擬現(xiàn)實(shí)C)人工智能D)自然語言[單選題]47.?一個包含n類的多分類問題,若采用一對剩余的方法,需要拆分成多少次?A)nB)1C)n-1D)n+1[單選題]48.機(jī)器學(xué)習(xí)研究如何通過計算的手段,利用經(jīng)驗(yàn)來改善系統(tǒng)自身的性能,請問機(jī)器學(xué)習(xí)利用數(shù)據(jù)訓(xùn)練出什么()A)模型B)表結(jié)構(gòu)C)結(jié)果D)報表[單選題]49.下列關(guān)于過擬合的說法錯誤的是A)過擬合是指模型在訓(xùn)練集上表現(xiàn)很好,但是在交叉驗(yàn)證集和測試集上表現(xiàn)一般B)解決過擬合可以采用Dropout方法C)解決過擬合可以采用參數(shù)正則化方法D)數(shù)據(jù)集擴(kuò)增不能用來解決過擬合問題[單選題]50.請閱讀下面的程序:FrompandasimportSeriesImportpandasaspdFromnumpyimportNaNSeries_obj=Series([2,1,NaN])Print(pd.isnull(series_obj))執(zhí)行上述程序后,最終輸出的結(jié)果為()。A)0False1False2TrueB)0True1True2FalseC)0False1False2FalseD)0True1True2True[單選題]51.PCA在做降維處理時,優(yōu)先選取哪些特征()A)中心化樣本的協(xié)方差矩陣的最大特征值對應(yīng)特征向量B)最大間隔投影方向C)最小類內(nèi)聚類D)最速梯度方向[單選題]52.(__)的學(xué)習(xí)目的是生成一顆泛化能力強(qiáng),即處理未見示例能力強(qiáng)的決策樹。A)線性回歸B)貝葉斯分類器C)神經(jīng)網(wǎng)絡(luò)D)決策樹[單選題]53.關(guān)于logistic回歸和SVM不正確的是()A)Logistic回歸目標(biāo)函數(shù)是最小化后驗(yàn)概率B)Logistic回歸可以用于預(yù)測事件發(fā)生概率的大小C)SVM目標(biāo)是結(jié)構(gòu)風(fēng)險最小化D)SVM可以有效避免模型過擬合[單選題]54.關(guān)于Pandas中數(shù)據(jù)排序,下列說法正確的是()。A)即可以按照行索引排序,也可以按照列索引排序B)sort_index()方法表示按照值進(jìn)行排序C)sort_values()方法表示按照索引進(jìn)行排序D)默認(rèn)情況下,sort_index()方法按照降序排列[單選題]55.從1,2,...,15中小明和小紅兩人各任取一個數(shù)字,現(xiàn)已知小明取到的數(shù)字是5的倍數(shù),請問小明取到的數(shù)大于小紅取到的數(shù)的概率是多少A)7/14B)8/14C)9/14D)10/14[單選題]56.什么是KDD?A)數(shù)據(jù)挖掘與知識發(fā)現(xiàn)B)領(lǐng)域知識發(fā)現(xiàn)C)文檔知識發(fā)現(xiàn)D)動態(tài)知識發(fā)現(xiàn)[單選題]57.對于投影數(shù)據(jù)為((√2),(0),(√2))?,F(xiàn)在如果在二維空間中重建,并將它們視為原始數(shù)據(jù)點(diǎn)的重建,那么重建誤差是多少?A)0%B)10%C)30%D)40%[單選題]58.spark的四大組件下面哪個不是()。A)SparkStreamingB)MlibC)GraphxD)SparkR[單選題]59.機(jī)器學(xué)習(xí)中,基于樣本分布的距離是()。A)馬氏距離B)歐式距離C)曼哈頓距離D)閔可夫斯基距離[單選題]60.任何一個核函數(shù)都隱式地定義了一個()空間。A)希爾伯特空間B)再生希爾伯特空間C)再生核希爾伯特空間D)歐式空間[單選題]61.下列關(guān)于聚類分析的度量標(biāo)準(zhǔn)輪廓系數(shù)的描述不準(zhǔn)確的是()A)輪廓系數(shù)的最大值是1B)一個簇整體的輪廓系數(shù)越大,說明聚類的效果越好C)輪廓系數(shù)不可能出現(xiàn)負(fù)數(shù)D)聚類緊密的簇比聚類稀疏的簇的整體輪廓系數(shù)要大[單選題]62.在下面給出的三個殘差圖中,下面哪一個代表了與其他模型相比更差的模型?注意:1/所有的殘差都已經(jīng)標(biāo)準(zhǔn)化2/圖中橫坐標(biāo)是預(yù)測值,縱坐標(biāo)是殘差A(yù))1B)2C)3D)無法比較[單選題]63.圖像平滑從信號處理的角度看就是去除其中的(__)。A)高頻信息B)低頻信息C)噪聲D)亮度信息[單選題]64.從給定的句子、段落中識別人名、組織名的過程稱為?A)詞干提取(Stemming)B)詞形還原(Lemmatization)C)停用詞消除(StopWordRemoval)D)命名實(shí)體識別(NamedEntityRecognition)[單選題]65.貝葉斯模型平均基于后驗(yàn)概率來為不同的模型賦予權(quán)重,可視為(__)的一種特殊實(shí)現(xiàn)。A)加權(quán)平均法B)投票法C)排序法D)學(xué)習(xí)法[單選題]66.假設(shè)你在卷積神經(jīng)網(wǎng)絡(luò)的第一層中有5個卷積核,每個卷積核尺寸為7×7,具有零填充且步幅為1。該層的輸入圖片的維度是224×224×3。那么該層輸出的維度是多少?A)217x217x3B)217x217x8C)218x218x5D)220x220x7[單選題]67.下列核函數(shù)特性描述錯誤的是A)只要一個對稱函數(shù)所對應(yīng)的核矩陣半正定,就能稱為核函數(shù);B)核函數(shù)選擇作為支持向量機(jī)的最大變數(shù);C)核函數(shù)將影響支持向量機(jī)的性能;D)核函數(shù)是一種降維模型;[單選題]68.有三個關(guān)系R、S和T如下:由關(guān)系R和S通過運(yùn)算得到關(guān)系T,則所使用的運(yùn)算為()。class="fr-ficfr-dibcursor-hover"A)笛卡爾積B)交C)并D)自然連接[單選題]69.考慮下面的頻繁3-項集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個項,采用合并策略,由候選產(chǎn)生過程得到4-項集不包含A)1,2,3,4B)1,2,3,5C)1,2,4,5D)1,3,4,5[單選題]70.計算一個任意三角形的面積,S=√(p(p-a)(p-b)(p-c)),p=(a+b+c)/2,以下等價類測試用例中,不屬于無效等價類的是A)a=5,b=3,c=6;B)a=2,b=3,c=5;C)a=7,b=3,c=3;D)a=2,b=6,c=3;[單選題]71.假設(shè)我們有一個使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎()A)可以B)不能C)不好說D)不一定[單選題]72.假如使用一個較復(fù)雜的回歸模型來擬合樣本數(shù)據(jù),使用Ridge回歸,調(diào)試正則化參數(shù)λ,來降低模型復(fù)雜度。若λ較大時,關(guān)于偏差(bias)和方差(variance),下列說法正確的是?A)若λ較大時,偏差減小,方差減小B)若λ較大時,偏差減小,方差增大C)若λ較大時,偏差增大,方差減小D)若λ較大時,偏差增大,方差增大[單選題]73.學(xué)習(xí)方式劃分,機(jī)器學(xué)習(xí)通常分為()三類、A)監(jiān)督學(xué)習(xí)、非監(jiān)督學(xué)習(xí)、聚類B)監(jiān)督學(xué)習(xí)、非監(jiān)督學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)C)監(jiān)督學(xué)與、非監(jiān)督學(xué)與、強(qiáng)化學(xué)習(xí)D)監(jiān)督學(xué)習(xí)、非監(jiān)督學(xué)習(xí)、有教師學(xué)習(xí)[單選題]74.某籃運(yùn)動員在三分線投球的命中率是2(1),他投球10次,恰好投進(jìn)3個球的概率為()。A)128(15)B)16(3)C)8(5)D)16(7)[單選題]75.核主成分分析是一種(__)方法。A)非線性降維B)線性降維C)分類D)回歸[單選題]76.數(shù)據(jù)產(chǎn)品開發(fā)的關(guān)鍵環(huán)節(jié)是(__)。A)數(shù)據(jù)加工B)數(shù)據(jù)柔術(shù)C)數(shù)據(jù)歸約D)數(shù)據(jù)清洗[單選題]77.所謂不確定性推理就是從()的初始證據(jù)出發(fā),通過運(yùn)用()的知識,最終推出具有一定程度的不確定性但卻是合理或者近乎合理的結(jié)論的思維過程A)不確定性,不確定性B)確定性,確定性C)確定性,不確定性D)不確定性確定性[單選題]78.以下哪個圖像顯示y=1的代價函數(shù)?以下是兩類分類問題的邏輯回歸(Y軸損失函數(shù)和x軸對數(shù)概率)的損失函數(shù)。注:Y是目標(biāo)類A)AB)BC)兩者D)這些都沒有[單選題]79.以下哪項不屬于知識發(fā)現(xiàn)的過程?()A)數(shù)據(jù)清理B)數(shù)據(jù)挖掘C)知識可視化表達(dá)D)數(shù)據(jù)測試[單選題]80.一般,K-NN最近鄰方法在什么情況下效果好()A)樣本較多但典型性不好B)樣本較少但典型性較好C)樣本呈團(tuán)狀分布D)樣本呈鏈狀分布注:最近鄰屬于分類算法,樣本多而且典型性不好容易造成分類錯誤(尤其是在分類邊界上的樣本點(diǎn))。樣本分布對聚類算法的影響較大。[單選題]81.(__)的基本思想是學(xué)習(xí)過程由信號的正向傳播與誤差反向傳播兩個過程組成。A)感知機(jī)B)神經(jīng)元C)神經(jīng)系統(tǒng)D)誤差逆?zhèn)鞑單選題]82.關(guān)于Elman網(wǎng)絡(luò)描述錯誤的是A)作為遞歸神經(jīng)網(wǎng)絡(luò),允許出現(xiàn)環(huán)形結(jié)構(gòu);B)一些神經(jīng)元的輸出反饋回來會作為輸入信號;C)用于處理靜態(tài)模型,即無法處理與時間有關(guān)的動態(tài)變化;D)可利用BP算法來進(jìn)行參數(shù)優(yōu)化;[單選題]83.下面回歸模型中的哪個步驟/假設(shè)最能影響過擬合和欠擬合之間的平衡因素()。A)多項式的階數(shù)B)是否通過矩陣求逆或梯度下降學(xué)習(xí)權(quán)重C)使用常數(shù)項D)使用正則化[單選題]84.以下哪些選項為真?A)線性回歸誤差值必須正態(tài)分布,但是在Logistic回歸的情況下,情況并非如此B)邏輯回歸誤差值必須正態(tài)分布,但是在線性回歸的情況下,情況并非如此C)線性回歸和邏輯回歸誤差值都必須正態(tài)分布D)線性回歸和邏輯回歸誤差值都不能正態(tài)分布[單選題]85.下列對LVW算法的說法錯誤的是A)算法中特征子集搜索采用了隨機(jī)策略B)每次特征子集評價都需要訓(xùn)練學(xué)習(xí)器,開銷很大C)算法設(shè)置了停止條件控制參數(shù)D)算法可能求不出解[單選題]86.下列不屬于數(shù)據(jù)預(yù)處理的操作是(__)。A)抽樣B)特征子集選擇C)特征變換D)訓(xùn)練[單選題]87.在圖集合中發(fā)現(xiàn)一組公共子結(jié)構(gòu),這樣的任務(wù)稱為A)頻繁子集挖掘B)頻繁子圖挖掘C)頻繁數(shù)據(jù)項挖掘D)頻繁模式挖掘[單選題]88.評估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)該如何解決?A)減少模型的特征數(shù)量B)增加模型的特征數(shù)量C)增加樣本數(shù)量D)以上說法都正確[單選題]89.sc.parallelize([(1,2),(1,3),(2,3),(2,4),(3,1)].reduceByKey(lambdax,y:x+y).count().collect?操作中會產(chǎn)生()個stageA)1B)2C)3D)4[單選題]90.下面選項中不是雙目攝像頭的內(nèi)參的是()。A)焦距(Focallength)B)基礎(chǔ)矩陣(Fundamentalmatrix)C)扭曲值(Distortion)D)光點(diǎn)中心(Opticalcenter)[單選題]91.以下對知識描述不正確的是()。A)知識分為顯性知識和隱性知識B)知識是人們從數(shù)據(jù)和信息中發(fā)現(xiàn)的C)知識是數(shù)據(jù)/信息中存在的共性規(guī)律、認(rèn)知、經(jīng)驗(yàn)與常識D)隱性知識能夠清晰的表述和有效的轉(zhuǎn)移[單選題]92.訓(xùn)練集、驗(yàn)證集和測試集在使用過程中的順序是A)測試集、訓(xùn)練集、驗(yàn)證集B)訓(xùn)練集、測試集、驗(yàn)證集C)驗(yàn)證集、訓(xùn)練集、測試集D)訓(xùn)練集、驗(yàn)證集、測試集[單選題]93.有關(guān)深度學(xué)習(xí)加速芯片,以下的說法中不正確的是:()A)GPU既可以做游戲圖形加速,也可以做深度學(xué)習(xí)加速B)用于玩游戲的高配置顯卡,也可以用于深度學(xué)習(xí)計算。C)GoogleTPU已經(jīng)發(fā)展了三代,它們只能用于推斷(Inference)計算,不能用于訓(xùn)練(Training)計算D)FPGA最早是作為CPLD的競爭技術(shù)而出現(xiàn)的[單選題]94.以下哪個步驟將原始數(shù)據(jù)進(jìn)行變換、變量相關(guān)性、標(biāo)準(zhǔn)化等任務(wù)()。A)部署B(yǎng))業(yè)務(wù)需求分析C)數(shù)據(jù)預(yù)處理D)結(jié)果評估[單選題]95.在標(biāo)準(zhǔn)化公式中,使用ε的目的是(D)A)為了加速收斂B)如果μ過小C)使結(jié)果更準(zhǔn)確D)防止分母為零[單選題]96.下列的哪種方法可以用來降低深度學(xué)習(xí)模型的過擬合問題?1增加更多的數(shù)據(jù);2使用數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentation);3使用歸納性更好的架構(gòu);4正規(guī)化數(shù)據(jù);5降低架構(gòu)的復(fù)雜度.A)145B)123C)1345D)所有項目都有用[單選題]97.代碼print((1,2,?1?,?2?)[0]>1)執(zhí)行結(jié)果是()。A)TrueB)FalseC)報錯D)無結(jié)果[單選題]98.下列關(guān)于數(shù)據(jù)預(yù)處理的說法中,描述不正確的是()。A)數(shù)據(jù)清洗的目的是為了提高數(shù)據(jù)質(zhì)量B)異常值不一定要刪除C)通過drop_duplicates()方法可以刪除重復(fù)數(shù)據(jù)D)concat()函數(shù)可以根據(jù)一個或多個鍵將不同的DataFrame進(jìn)行合并[單選題]99.以下說法正確的是()A)在使用KNN算法時,k通常取奇數(shù)B)KNN是有監(jiān)督學(xué)習(xí)算法C)在使用KNN算法時,k取值越大,模型越容易過擬合D)KNN和K-means都是無監(jiān)督學(xué)習(xí)算法[單選題]100.(__)是一門以可視化交互為基礎(chǔ),綜合運(yùn)用圖形學(xué)、數(shù)據(jù)挖掘和人機(jī)交互等多個領(lǐng)域的知識,以實(shí)現(xiàn)人機(jī)協(xié)同完成可視化任務(wù)為主要目的的分析推理性學(xué)科。A)信息可視化B)科學(xué)可視化C)可視分析學(xué)D)數(shù)據(jù)可視化[單選題]101.考慮某個具體問題時,你可能只有少量數(shù)據(jù)來解決這個問題。不過幸運(yùn)的是你有一個類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)。可以用下面哪種方法來利用這個預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?(C)A)把除了最后一層外所有的層都凍住,重新訓(xùn)練最后一層B)對新數(shù)據(jù)重新訓(xùn)練整個模型C)只對最后幾層進(jìn)行調(diào)參(finetune)D)對每一層模型進(jìn)行評估,選擇其中的少數(shù)來用[單選題]102.下面關(guān)于貝葉斯學(xué)習(xí)相關(guān)描述正確的有(__)。A)貝葉斯學(xué)習(xí)等價于頻數(shù)概率B)頻數(shù)概率引入先驗(yàn)知識和邏輯推理來處理不確定問題C)貝葉斯學(xué)習(xí)只從數(shù)據(jù)本身獲得結(jié)論D)貝葉斯學(xué)習(xí)是一種以貝葉斯法則為基礎(chǔ)的,并通過概率手段進(jìn)行學(xué)習(xí)的方法[單選題]103.信息增益即數(shù)據(jù)集的熵與在某特征條件下的條件熵之差。關(guān)于信息增益,正確的說法是:(2.0分)2.0分A)信息增益越大,說明此特征分類能力越弱B)信息增益越小,說明此特征克服的不確定性越大,具有更強(qiáng)的分類能力C)信息增益越大,說明此特征克服的不確定性越大,具有更強(qiáng)的分類能力D)信息增益越小,說明此特征分類能力越強(qiáng)[單選題]104.當(dāng)往往一本書中其實(shí)通常使用到的詞匯表是非常小的,這就會導(dǎo)致一本書的表示向量中存在大量的0.這樣的向量稱為()。A)零向量B)滿秩向量C)稀疏向量D)普通向量[單選題]105.下面不屬于NewSQL的有(__)。A)memsqlB)trafodionC)mariaDBD)objectivity[單選題]106.若A與B是任意的兩個事件,且P(AB)=P(A)·P(B),則可稱事件A與B()。A)等價B)互不相容C)相互獨(dú)立D)相互對立[單選題]107.(__)不是遺傳算法基本算子。A)選擇B)感染C)突變D)交叉[單選題]108.一般來說,下列哪種方法常用來預(yù)測連續(xù)獨(dú)立變量?A)線性回歸B)邏輯回顧C(jī))線性回歸和邏輯回歸都行D)以上說法都不對[單選題]109.關(guān)于EDA與統(tǒng)計學(xué)中驗(yàn)證性分析的相關(guān)描述不正確的有(__)。A)EDA無需事先假設(shè),驗(yàn)證性分析需要事先假設(shè)B)探索分析在后,驗(yàn)證性分析在前C)EDA中采取的方法往往比驗(yàn)證分析簡單D)基于EDA是數(shù)據(jù)計算工作可以分為2個部分:探索性分析和驗(yàn)證性分析[單選題]110.如果我們現(xiàn)有一個安裝2.6.5版本的hadoop集群,在不修改默認(rèn)配置的情況下存儲200個每個200M的文本文件,請問最終會在集群中產(chǎn)生多少個數(shù)據(jù)塊(包括副本)?A)200B)40000C)400D)1200[單選題]111.假正率是指(__)。A)正樣本預(yù)測結(jié)果數(shù)/正樣本實(shí)際數(shù)B)被預(yù)測為負(fù)的正樣本結(jié)果數(shù)/正樣本實(shí)際數(shù)C)被預(yù)測為正的負(fù)樣本結(jié)果數(shù)/負(fù)樣本實(shí)際數(shù)D)負(fù)樣本預(yù)測結(jié)果數(shù)/負(fù)樣本實(shí)際數(shù)[單選題]112.下列數(shù)組索引、像素行列、像素坐標(biāo)的關(guān)系正確的是()。A)數(shù)組行索引=像素所在行數(shù)-1=像素縱坐標(biāo)B)數(shù)組列索引=像素所在行數(shù)-1=像素橫坐標(biāo)C)數(shù)組列索引=像素所在列數(shù)-1=像素縱坐標(biāo)D)數(shù)組行索引=像素所在行數(shù)-1=像素橫坐標(biāo)[單選題]113.有四個整數(shù)a、b、c、d,且c>D,則?a>b?是?a-c>b-d?的:()A)必要不充分條件B)充分不必要條件C)充要條件D)既不充分也不必要條件[單選題]114.核矩陣是(__)的。A)沒有規(guī)律B)半正定C)正定D)樣本矩陣[單選題]115.(__)為數(shù)據(jù)科學(xué)和大數(shù)據(jù)產(chǎn)業(yè)生態(tài)系統(tǒng)提供數(shù)據(jù)內(nèi)容的捕獲和獲取服務(wù)。A)數(shù)據(jù)源和APPsB)數(shù)據(jù)資源C)數(shù)據(jù)端D)基礎(chǔ)設(shè)施[單選題]116.圖像降噪的作用(__)。A)改變圖像大小B)將圖像分成多個小單位C)去除干擾信號D)使圖像變得更加豐富[單選題]117.在其他條件不變的前提下,以下哪種做法容易引起機(jī)器學(xué)習(xí)中的過擬合問題A)增加訓(xùn)練集量B)減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)C)刪除稀疏的特征SD)SVM算法中使用高斯核/RBF核代替線性核[單選題]118.下列選項中,關(guān)于dropna()方法描述正確的是()。A)dropna()方法只會刪除值為NaN的數(shù)據(jù)B)dropna()方法不會刪除值為None的數(shù)據(jù)C)dropna()方法會刪除值為None和NaN的數(shù)據(jù)D)dropna()方法只會檢測缺失數(shù)據(jù)和空值[單選題]119.深度學(xué)習(xí)的實(shí)質(zhì)是()A)推理機(jī)制B)映射機(jī)制C)識別機(jī)制D)模擬機(jī)制[單選題]120.優(yōu)化問題Max4x1+2x2+4x3+2x4+x5+x6S.t.4x1+4x2+6x3+2x4+3x5+2x6<=11X1,x2,x3,x4,x5,x6∈{0,1}的最優(yōu)目標(biāo)函數(shù)值為()A)9B)8C)7D)6[單選題]121.我們建立一個5000個特征,100萬數(shù)據(jù)的機(jī)器學(xué)習(xí)模型。我們怎么有效地應(yīng)對這樣的大數(shù)據(jù)訓(xùn)練()。A)我們隨機(jī)抽取一些樣本,在這些少量樣本之上訓(xùn)練B)我們可以試用在線機(jī)器學(xué)習(xí)算法C)我們應(yīng)用PCA算法降維,減少特征數(shù)D)以上答案都正確[單選題]122.(__)表達(dá)了在當(dāng)前任務(wù)上任何學(xué)習(xí)算法所能達(dá)到的期望泛化誤差的下界,即刻畫了學(xué)習(xí)問題本身的難度。A)偏差B)方差C)噪聲D)泛化誤差[單選題]123.p尾法確定圖像分割的閾值,適用于(__)的情況。A)已知閾值范圍B)已知圖像灰度范圍C)已知目標(biāo)所占全圖象百分比D)圖像類間方差最大化[單選題]124.支持向量機(jī)優(yōu)化問題的形式是(__)。A)一個不含約束的二次規(guī)劃問題B)一個含有等式約束的二次規(guī)劃問題C)一個含有不等式約束的二次規(guī)劃問題D)一個含有不等式約束的線性規(guī)劃問題[單選題]125.下面哪個是NLP用例?A)從圖像中檢測物體B)面部識別C)語音生物識別D)文本摘要[單選題]126.關(guān)于K-Means,描述正確的是()。A)能找到任意形狀的聚類B)初始值不同,最終結(jié)果可能不同C)每次迭代的時間復(fù)雜度是O(n^2),其中n是樣本數(shù)量D)不能使用核函數(shù)[單選題]127.極大似然估計是()A)與總體分布無關(guān)的統(tǒng)計量B)通過總體分布才能求出來的統(tǒng)計量C)似然方程的解D)對數(shù)似然方程的解[單選題]128.個體學(xué)習(xí)器準(zhǔn)確性越高、多樣性越大,則集成越好A)準(zhǔn)確性越低、多樣性越大B)準(zhǔn)確性越高、多樣性越大C)準(zhǔn)確性越高、多樣性越小D)準(zhǔn)確性越低、多樣性越小[單選題]129.關(guān)于競爭型學(xué)習(xí)算法描述錯誤的是A)是一種監(jiān)督學(xué)習(xí)策略;B)每個時刻只有一個競爭獲勝的神經(jīng)元被激活;C)其他神經(jīng)元的狀態(tài)被抑制;D)ART網(wǎng)絡(luò)通過競爭型學(xué)習(xí)算法尋優(yōu);[單選題]130.交叉驗(yàn)證的目的是(__)。A)提高分類準(zhǔn)確率B)得到更穩(wěn)定的模型C)驗(yàn)證結(jié)果的準(zhǔn)確性D)增大分類的誤差[單選題]131.已知class="fr-ficfr-dibcursor-hover"A)-2,2B)3,-3C)-3,3D)2,-2[單選題]132.使用似然函數(shù)的目的是()。A)求解目標(biāo)函數(shù)B)得到最優(yōu)數(shù)據(jù)樣本C)找到最適合數(shù)據(jù)的參數(shù)D)改變目標(biāo)函數(shù)分布[單選題]133.對于一個二分類問題,假如現(xiàn)在訓(xùn)練了500個子模型,每個模型權(quán)重大小一樣。若每個子模型正確率為51%,則整體正確率為多少?若把每個子模型正確率提升到60%,則整體正確率為多少A)51%,60%B)60%,90%C)65.7%,99.99%D)65.7%,90%[單選題]134.符號集a、b、c、d,它們相互獨(dú)立,相應(yīng)概率為1/2、1/4、1/8、1/16,其中包含信息量最小的符號是()A)aB)bC)cD)d[單選題]135.()在劃分屬性時是在當(dāng)前結(jié)點(diǎn)的屬性集合中選擇一個最優(yōu)屬性。A)AdaBoostB)RFC)BaggingD)傳統(tǒng)決策樹[單選題]136.()對應(yīng)于決策樹結(jié)果,其他節(jié)點(diǎn)對應(yīng)于()。A)葉節(jié)點(diǎn),屬性測試B)根結(jié)點(diǎn),學(xué)習(xí)測試C)內(nèi)部節(jié)點(diǎn),學(xué)習(xí)測試D)葉節(jié)點(diǎn),分類測試[單選題]137.不屬于KNN算法要素的是:A)k值的選擇B)距離度量C)分類決策的規(guī)則D)訓(xùn)練樣本的個數(shù)[單選題]138.隱馬爾可夫模型是一種著名的(__)模型。A)無向圖B)有向圖C)樹形圖D)環(huán)形圖[單選題]139.?啤酒-紙尿布?問題講述的是,超市購物中,通過分析購物單發(fā)現(xiàn),買了紙尿布的男士,往往又買了啤酒。這是一個什么問題()A)關(guān)聯(lián)分析B)回歸C)聚類D)分類[單選題]140.CNN常見的Loss函數(shù)不包括以下哪個()A)softmax_lossB)sigmoid_lossC)Contrastive_LossD)siamese_loss[單選題]141.根據(jù)某個詞所連接所有詞匯的權(quán)重,重新計算該詞匯的權(quán)重,然后把重新計算的權(quán)重傳遞下去。直到這種變化達(dá)到均衡態(tài),權(quán)重數(shù)值不再發(fā)生改變。這種關(guān)鍵詞提取算法叫做()。A)TF-IDFB)TextRankC)LDAD)PCA[單選題]142.支持向量機(jī)的對偶問題是()A)線性優(yōu)化問題B)二次優(yōu)化C)凸二次優(yōu)化D)有約束的線性優(yōu)化[單選題]143.以下是兩種不同的對數(shù)模型,分別為β0和β1。alt="">對于兩種對數(shù)模型(綠色,黑色)的β0和β1值,下列哪一項是正確的?注:Y=β0+β1*X。其中β0是截距,β1是系數(shù)。A)綠色的β1大于黑色B)綠色的β1小于黑色C)兩種顏色的β1相同D)不能說[單選題]144.數(shù)據(jù)科學(xué)家經(jīng)常使用多個算法進(jìn)行預(yù)測,并將多個機(jī)器學(xué)習(xí)算法的輸出(稱為?集成學(xué)習(xí)?)結(jié)合起來,以獲得比所有個體模型都更好的更健壯的輸出。則下列說法正確的是?A)基本模型之間相關(guān)性高B)基本模型之間相關(guān)性低C)集成方法中,使用加權(quán)平均代替投票方法D)基本模型都來自于同一算法[單選題]145.在OpenCV中加載特征數(shù)據(jù)集的函數(shù)是()。A)read_csv()B)input()C)CascadeClassifier()D)imshow()[單選題]146.樸素貝葉斯的訓(xùn)練過程就是基于訓(xùn)練集D來估計類的()P(c),并為每個屬性估計條件概率A)后驗(yàn)概率B)先驗(yàn)概率C)條件概率D)聯(lián)合概率[單選題]147.假定你使用了一個很大γ值的RBF核,這意味著:A)模型將考慮使用遠(yuǎn)離超平面的點(diǎn)建模B)模型僅使用接近超平面的點(diǎn)來建模C)模型不會被點(diǎn)到超平面的距離所影響D)以上都不正確[單選題]148.對于任意值?x?,考慮到Logistic(x):是任意值?x?的邏輯(Logistic)函數(shù)Logit(x):是任意值?x?的logit函數(shù)Logit_inv(x):是任意值?x?的逆邏輯函數(shù)以下哪一項是正確的?A)Logistic(x)=Logit(x)B)Logistic(x)=Logit_inv(x)C)Logit_inv(x)=Logit(x)D)都不是[單選題]149.在一個神經(jīng)網(wǎng)絡(luò)中,知道每一個神經(jīng)元的權(quán)重和偏差是最重要的一步。如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個神經(jīng)的權(quán)重和偏移呢?A)搜索每個可能的權(quán)重和偏差組合,直到得到最佳值B)賦予一個初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重C)隨機(jī)賦值,聽天由命D)以上都不正確的[單選題]150.數(shù)據(jù)管理成熟度模型將機(jī)構(gòu)數(shù)據(jù)管理能力定義為(__)個不同成熟度等級,并給出了(__)類關(guān)鍵過程域,共(__)個關(guān)鍵活動。A)3,7,21B)4,6,24C)5,6,25D)6,7,28[單選題]151.與k均值算法類似,(__)也是試圖找到一組原型向量來刻畫聚類結(jié)構(gòu),但與一般聚類方法不同的是,該算法假設(shè)數(shù)據(jù)樣本帶有類別標(biāo)記,學(xué)習(xí)過程利用樣本的這些監(jiān)督信息來輔助聚類。A)高斯混合聚類密度聚類B)學(xué)習(xí)向量量化C)k均值算法D)密度聚類[單選題]152.要想讓機(jī)器具有智能,必須讓機(jī)器具有知識。因此,在人工智能中有一個研究領(lǐng)域,主要研究計算機(jī)如何自動獲取知識和技能,實(shí)現(xiàn)自我完善,這門研究分支學(xué)科叫()A)專家系統(tǒng)B)機(jī)器學(xué)習(xí)C)神經(jīng)網(wǎng)絡(luò)D)模式識別[單選題]153.泛化誤差可分解為偏差、方差與噪聲之和,當(dāng)學(xué)習(xí)器擬合程度不夠強(qiáng)時,是()主導(dǎo)了泛化錯誤率。A)偏差B)方差C)噪聲D)差與方差共同[單選題]154.關(guān)于Hadoop技術(shù)描述錯誤的是?()A)HDFS是一個分布式文件系統(tǒng)B)聯(lián)盟鏈C)HDFS適合存儲大量的小文件D)HDFS存儲空間由數(shù)據(jù)節(jié)點(diǎn)數(shù)決定[單選題]155.下列哪一項不是預(yù)處理技術(shù)?A)詞干提取和詞形還原(StemmingandLemmatization)B)轉(zhuǎn)換成小寫(ConvertingtoLowercase)C)刪除標(biāo)點(diǎn)符號(RemovePunctuation)D)刪除停用詞(RemovalofStopWords)E)情緒分析(SentimentAnalysis)第2部分:多項選擇題,共49題,每題至少兩個正確答案,多選或少選均不得分。[多選題]156.數(shù)據(jù)戰(zhàn)略的基本問題有(__)。A)數(shù)據(jù)戰(zhàn)略的定位B)數(shù)據(jù)戰(zhàn)略的目標(biāo)C)數(shù)據(jù)戰(zhàn)略的側(cè)重點(diǎn)D)數(shù)據(jù)戰(zhàn)略的范疇[多選題]157.貝葉斯網(wǎng)的推斷描述正確的為A)馬爾科夫鏈需很短的時間就能趨于平衡;B)馬爾科夫鏈需很長的時間才能趨于平衡;C)吉布斯采樣收斂速度慢;D)吉布斯采樣收斂速度快;[多選題]158.可以用f(x,y)來表示()A)一幅2-D數(shù)字圖像B)一個在3-D空間中的客觀景物的投影C)2-D空間XY中的一個坐標(biāo)的點(diǎn)的位置D)在坐標(biāo)點(diǎn)(X,Y)的某種性質(zhì)F的數(shù)值[多選題]159.下列關(guān)于AUC面積描述正確的是(__)。A)AUC被定義為ROC曲線下與坐標(biāo)軸圍成的面積B)AUC面積的值大于1C)AUC等于0.5時,則真實(shí)性最低,無應(yīng)用價值D)AUC越接近1.0,檢測方法真實(shí)性越高[多選題]160.KNN的主要缺點(diǎn)是()A)計算量大,尤其是特征數(shù)非常多的時候B)樣本不平衡的時候,對稀有類別的預(yù)測準(zhǔn)確率低C)預(yù)測時速度比起邏輯回歸之類的算法慢D)相比決策樹模型,KNN模型可解釋性不強(qiáng)[多選題]161.關(guān)于相關(guān)與線性關(guān)系,下列說法正確的是()A)相關(guān)不一定是線性關(guān)系,可能是非線性關(guān)系B)相關(guān)一定是線性關(guān)系,不可能是非線性關(guān)系C)相關(guān)時若有相關(guān)系數(shù)r為0,說明兩個變量之間不存在線性關(guān)系,仍可能存在非線性關(guān)系D)相關(guān)系數(shù)為0是兩個變量獨(dú)立的必要不充分條件[多選題]162.集成集成學(xué)習(xí)學(xué)習(xí)中投票法分為:____。A)絕對多數(shù)投票法B)相對多數(shù)投票法C)加權(quán)投票法D)快速投票法[多選題]163.有兩種策略常用來緩解BP網(wǎng)絡(luò)的過擬合,分別是(__)和(__)。A)晚停B)早停C)正則化D)加入損失函數(shù)[多選題]164.基因遺傳算法的兩個常用的結(jié)束條件為()**A)達(dá)到一定的迭代次數(shù)B)適應(yīng)度函數(shù)達(dá)到一定的要求C)達(dá)到一定的變異次數(shù)D)達(dá)到一定的交叉次數(shù)[多選題]165.機(jī)器學(xué)習(xí)的核心要素包括()A)數(shù)據(jù)B)操作人員C)算法D)算力[多選題]166.下列不屬于聚類性能度量內(nèi)部指標(biāo)的是(A)DB指數(shù)B)Dunn指數(shù)C)Jaccard系數(shù)D)FM系數(shù)[多選題]167.以下關(guān)于降維方法的敘述,正確的是()。A)主成分分析是一種常用的非線性降維方法B)核化線性降維是一種常用的線性降維方法C)流形學(xué)習(xí)是一種借鑒拓?fù)淞餍胃拍畹慕稻S方法D)度量學(xué)習(xí)繞過降維的過程,將學(xué)習(xí)目標(biāo)轉(zhuǎn)化為對距離度量計算的權(quán)重矩陣的學(xué)習(xí)[多選題]168.壓縮感知分為哪些階段A)壓縮探測B)感知測量C)重構(gòu)恢復(fù)D)信息解析[多選題]169.下列哪項是關(guān)鍵詞歸一化技術(shù)?A)詞干提取(Stemming)B)詞性標(biāo)注(PartofSpeech)C)命名實(shí)體識別(NamedEntityRecognition)D)詞形還原(Lemmatization)[多選題]170.以下哪些算法,可以用神經(jīng)網(wǎng)絡(luò)去構(gòu)造()A)KNNB)Logistic回歸C)決策樹D)最小二乘估計[多選題]171.解決欠擬合的方法有__。A)決策樹擴(kuò)展分支B)增加訓(xùn)練輪數(shù)C)正則化D)剪枝[多選題]172.RNN的主要應(yīng)用領(lǐng)域有()。A)自然語言處理B)機(jī)器翻譯C)音樂推薦D)洗衣服[多選題]173.在監(jiān)督式學(xué)習(xí)中使用聚類算法的方法有()。A)首先,可以創(chuàng)建聚類,然后分別在不同的集群上應(yīng)用監(jiān)督式學(xué)習(xí)算法B)在應(yīng)用監(jiān)督式學(xué)習(xí)算法之前,可以將其類別ID作為特征空間中的一個額外的特征C)在應(yīng)用監(jiān)督式學(xué)習(xí)之前,不能創(chuàng)建聚類D)在應(yīng)用監(jiān)督式學(xué)習(xí)算法之前,不能將其類別ID作為特征空間中的一個額外的特征[多選題]174.常見的原型聚類算法包括()。A)K均值算法B)學(xué)習(xí)向量量化C)高斯混合聚類D)密度聚類[多選題]175.以下模型中屬于貝葉斯網(wǎng)絡(luò)的有()A)馬爾可夫隨機(jī)場B)隱馬爾可夫模型C)條件隨機(jī)場D)樸素貝葉斯分類器[多選題]176.下面屬于詞袋模型的缺點(diǎn)的是?()A)詞匯表的詞匯需要經(jīng)過精心設(shè)計B)表示具有稀疏性C)丟失詞序忽略了上下文D)模型復(fù)雜,不利于實(shí)施[多選題]177.關(guān)于ART神經(jīng)網(wǎng)絡(luò)描述的是:-P109A)由比較層、識別層、識別閾值和重置模塊構(gòu)成;B)比較層接收輸入樣本并傳輸至識別層,識別層每個神經(jīng)元對應(yīng)一個模式類,可在訓(xùn)練過程中動態(tài)增長神經(jīng)元數(shù)目以增加新的模式類;C)識別閾值對于ART神經(jīng)網(wǎng)絡(luò)性能有重要影響;D)可進(jìn)行增量學(xué)習(xí)或在線學(xué)習(xí);[多選題]178.半監(jiān)督學(xué)習(xí)四大范型有A)基于分歧的方法B)半監(jiān)督SVMC)半監(jiān)督聚類D)圖半監(jiān)督學(xué)習(xí)[多選題]179.隱馬爾科夫模型和馬爾科夫隨機(jī)場都是(__)模型,而(__)是判別式模型。A)生成式模型B)隨機(jī)模型C)條件隨機(jī)場D)感知機(jī)模型[多選題]180.特征清洗一般包含()A)樣本忽略B)缺失值和異常值處理C)處理D)聚類[多選題]181.產(chǎn)生式系統(tǒng)的推理包括()。**A)正向推理B)直接推理C)驗(yàn)證推理D)反向主義[多選題]182.以下有關(guān)特征數(shù)據(jù)歸一化的說法,正確的是()。A)特征數(shù)據(jù)歸一化加速梯度下降優(yōu)化的速度B)特征數(shù)據(jù)歸一化有可能提高模型的精度C)線性歸一化適用于特征數(shù)值分化比較大的情況D)概率模型不需要做歸一化處理[多選題]183.CNN相比于全連接的DNN有哪些優(yōu)勢?()A)參數(shù)更少B)泛化更好C)訓(xùn)練更快D)更容易搭建[多選題]184.K-means等聚類算法可用于以下哪些實(shí)際場景A)市場細(xì)分B)社交圈分析C)集群計算D)天體數(shù)據(jù)分析[多選題]185.關(guān)于k-means聚類,說法正確的是()A)可以在簇完全不發(fā)生任何更新時停止B)可以設(shè)定簇的最大更新次數(shù)C)k值設(shè)定一般來源于經(jīng)驗(yàn)值和場景設(shè)定D)最佳k值設(shè)定需要多次重復(fù)試驗(yàn)進(jìn)行優(yōu)化。[多選題]186.對于決策樹的優(yōu)點(diǎn)描述,正確的是()。A)可讀性強(qiáng)B)分類速度快C)只用于回歸問題D)是無監(jiān)督學(xué)習(xí)[多選題]187.以下可以有效解決過擬合的方法是:()A)增加樣本數(shù)量B)通過特征選擇減少特征數(shù)量C)訓(xùn)練更多的迭代次數(shù)D)采用正則化方法[多選題]188.對于正交屬性空間中的樣本點(diǎn),若存在一個超平面對所有樣本進(jìn)行恰當(dāng)?shù)谋磉_(dá),則這樣的超平面應(yīng)具有(__)和(__)的性質(zhì)。A)最近重構(gòu)性B)最大可分性C)最遠(yuǎn)重構(gòu)性D)最小可分性[多選題]189.多分類學(xué)習(xí)最經(jīng)典的拆分策略有__。A)一對一B)一對其余C)多對多D)多對一[多選題]190.數(shù)據(jù)集成可以分為(__)。A)內(nèi)容集成B)結(jié)構(gòu)集成C)模式集成D)概念集成[多選題]191.半監(jiān)督學(xué)習(xí)可進(jìn)一步劃分為(__)和(__)。A)純半監(jiān)督學(xué)習(xí)B)無監(jiān)督學(xué)習(xí)C)直推學(xué)習(xí)D)主動學(xué)習(xí)[多選題]192.下面屬于大數(shù)據(jù)4V特性有()。A)VolumeB)VarietyC)ValueD)Velocity[多選題]193.統(tǒng)計模式分類問題中,當(dāng)先驗(yàn)概率未知時,可以使用()。A)最小最大損失準(zhǔn)則B)最小誤判概率準(zhǔn)則C)最小損失準(zhǔn)則D)N-P判決[多選題]194.下面哪些是基于核的機(jī)器學(xué)習(xí)算法?()A)ExpectationMaximizationB)RadialBasisFunctionC)LinearDiscrimimateAnalysisD)SupportVectorMachine[多選題]195.下列哪些技術(shù)能被用于計算兩個詞向量之間的距離?A)詞形還原(Lemmatization)B)歐氏距離(EuclideanDistance)C)余弦相似度(CosineSimilarity)D)N-grams[多選題]196.數(shù)據(jù)科學(xué)的基本流程包含(__)。A)數(shù)據(jù)產(chǎn)品的提供B)數(shù)據(jù)應(yīng)用C)結(jié)果展示D)數(shù)據(jù)可視化[多選題]197.下列哪些是zookeeper的選舉算法?()A)basicpaxosB)fastpaxosC)FastLeaderElectionD)AuthLeaderElection[多選題]198.機(jī)器學(xué)習(xí)的研究和成果可應(yīng)用于許多領(lǐng)域,大部分的應(yīng)用研究問題可以歸為()這兩個范疇A)數(shù)學(xué)定理證明B)物理現(xiàn)象發(fā)現(xiàn)C)分類問題D)問題求解[多選題]199.SVM處理線性不可分?jǐn)?shù)據(jù)時()A)數(shù)據(jù)變換到高維空間B)在原始空間求解MMHC)在高維空間求解MMHD)使用核函數(shù)代替點(diǎn)積運(yùn)算[多選題]200.管理非結(jié)構(gòu)化數(shù)據(jù)常采用()。A)NoSQLB)NewSQLC)關(guān)系云技術(shù)D)關(guān)系數(shù)據(jù)庫技術(shù)[多選題]201.命名實(shí)體識別是指出文本中的人名、地名等專有名詞和時間等,其中有有監(jiān)督的命名實(shí)體識別和無監(jiān)督的命名實(shí)體識別,下列選項哪些是屬于有監(jiān)督的學(xué)習(xí)方法()A)字典法B)決策樹C)隱馬爾可夫模型D)支持向量機(jī)[多選題]202.以下關(guān)于Zookeeper的Leader選舉說法正確的是?()A)當(dāng)實(shí)例n為奇數(shù)時,假定n=2x+1,則成為leader節(jié)點(diǎn)需要x+1票B)Zookeeper選舉leader時,需要半數(shù)以上的票數(shù)C)當(dāng)實(shí)例數(shù)為8時,則成為leader節(jié)點(diǎn)需要5票,容災(zāi)能力為4D)當(dāng)實(shí)例數(shù)n為奇數(shù)時,假定n=2x+1,則成為leader節(jié)點(diǎn)需要x票[多選題]203.下列指標(biāo)中,有哪些指標(biāo)可用于模型評估()A)準(zhǔn)確率(Accuracy)B)精確率(Precision)C)召回率(Recall)D)均方根誤差(RMSE)[多選題]204.以下說法正確的是()A)無監(jiān)督學(xué)習(xí)不需要進(jìn)行數(shù)據(jù)的人為標(biāo)注B)強(qiáng)化學(xué)習(xí)只需要環(huán)境的反饋獎懲即可進(jìn)行學(xué)習(xí)C)分類問題中l(wèi)abel是連續(xù)的D)回歸問題的評價指標(biāo)中有召回率E)k-means是一種無監(jiān)督學(xué)習(xí)的算法F)AlphaGo只采用了無監(jiān)督學(xué)習(xí)的算法第3部分:判斷題,共33題,請判斷題目是否正確。[判斷題]205.分類是預(yù)測數(shù)據(jù)對象的離散類別,預(yù)測是用于數(shù)據(jù)對象的連續(xù)取值A(chǔ))正確B)錯誤[判斷題]206.極大似然法估計參數(shù)的核心思想是:選擇參數(shù),使得當(dāng)前已經(jīng)觀測到的數(shù)據(jù)(訓(xùn)練集中的m個樣本)最有可能出現(xiàn)(概率最大)。A)正確B)錯誤[判斷題]207.同一個列表中的元素的數(shù)據(jù)類型可以各不相同。A)正確B)錯誤[判斷題]208.回歸中利用最小二乘法主要通過最小化誤差的平方來尋找一個數(shù)據(jù)匹配的最佳函數(shù)。A)正確B)錯誤[判斷題]209.啟發(fā)式算法與AlphaBeta剪枝類似,是從葉節(jié)點(diǎn)自底向上計算估值A(chǔ))正確B)錯誤[判斷題]210.查全率越高,意味著模型漏掉的樣本越少,當(dāng)假陰性的成本很高時,查全率指標(biāo)有助于衡量模型的好壞。A)正確B)錯誤[判斷題]211.Numpy是Python開源的數(shù)值計算擴(kuò)展工具。A)正確B)錯誤[判斷題]212.k近鄰學(xué)習(xí)是一種常用的監(jiān)督學(xué)習(xí)方法,其工作機(jī)制為:給定測試樣本,基于某種距離度量找出訓(xùn)練集中與其最靠近的k個訓(xùn)練樣本,然后基于這k個鄰居信息進(jìn)行預(yù)測。因此k近鄰算法的核心是k值和距離度量的選取。A)正確B)錯誤[判斷題]213.估計類條件概率的一種常用策略是先假定其具有某種確定的概率分布形式,再基于訓(xùn)練樣本對概率分布的參數(shù)進(jìn)行估計A)正確B)錯誤[判斷題]214.k均值算法,是一種原型聚類算法。A)正確B)錯誤[判斷題]215.PCA是有監(jiān)督學(xué)習(xí),是有參數(shù)限制的A)正確B)錯誤[判斷題]216.缺失數(shù)據(jù)是人為有意造成的。A)正確B)錯誤[判斷題]217.PCA是一種有效的降維去噪方法A)正確B)錯誤[判斷題]218.流形學(xué)習(xí)是一種非線性的維數(shù)約簡方法A)正確B)錯誤[判斷題]219.預(yù)測房價需要考慮的因素有很多,包括歷史價格走勢、供求影響、交通情況、是否學(xué)區(qū)房、政策影響等,可以通過多元線性回歸模型,作房價預(yù)測A)正確B)錯誤[判斷題]220.編碼矩陣的三元碼將每個類別分別制定為正類、反類、停用類。__A)正確B)錯誤[判斷題]221.超參數(shù)選擇不當(dāng),會對模型有較大的負(fù)面影響,所以在參數(shù)調(diào)整策略方面,所有超參數(shù)都同等重要。A)正確B)錯誤[判斷題]222.直觀上看,我們希望?物以類聚?,即聚類的結(jié)果?簇內(nèi)相似度?高,且?簇間?相似度低。A)正確B)錯誤[判斷題]223.深度學(xué)習(xí)在人工智能領(lǐng)域表現(xiàn)并不突出A)正確B)錯誤[判斷題]224.簇內(nèi)相似度高且簇間相似度低的聚類結(jié)果比較好A)正確B)錯誤[判斷題]225.Boosting的訓(xùn)練過程是有序的。A)正確B)錯誤[判斷題]226.fillna()方法處理缺失數(shù)據(jù)時可以使用Series對象填充,但不可以使用DataFrame對象填充。A)正確B)錯誤[判斷題]227."監(jiān)督式學(xué)習(xí)中存在過擬合,而對于非監(jiān)督式學(xué)習(xí)來說,沒有過擬合",這句話是否正確?A)正確B)錯誤[判斷題]228.學(xué)習(xí)率越大,訓(xùn)練速度越快,最優(yōu)解越精確。A)正確B)錯誤[判斷題]229.把訓(xùn)練樣本自身的一些特點(diǎn)當(dāng)作了所有潛在樣本都會具有的一般性質(zhì),會導(dǎo)致泛化性能下降。__A)正確B)錯誤[判斷題]230.精確率越高,意味著誤報率越低,因此,當(dāng)誤報的成本較高時,精確率指標(biāo)有助于判斷模型的好壞。A)正確B)錯誤[判斷題]231.循環(huán)神經(jīng)網(wǎng)絡(luò)可以捕捉序列化數(shù)據(jù)中的動態(tài)信息A)正確B)錯誤[判斷題]232.逆歸結(jié)的一大特點(diǎn)是能自動發(fā)明新謂詞,這些謂詞可能對應(yīng)于樣例屬性和背景知識中不存在的新知識A)正確B)錯誤[判斷題]233.rename()方法可以重命名索引名。A)正確B)錯誤[判斷題]234.BP算法?喜新厭舊?,在學(xué)習(xí)新樣本后,會把舊樣本逐漸遺忘。A)正確B)錯誤[判斷題]235.聚類生成的組成為簇,簇內(nèi)任意對象之間具有較高的相似度、而簇間任意對象之間具有較高的相異度。A)正確B)錯誤[判斷題]236.梯度下降的中心思想就是迭代地調(diào)整參數(shù)從而使損失函數(shù)最小化A)正確B)錯誤[判斷題]237.由于貝努力貝葉斯比適合于貝努力(二項分布)分布,因此,貝努力貝葉斯只能用于二分類任務(wù)A)正確B)錯誤第4部分:問答題,共23題,請在空白處填寫正確答案。[問答題]238.緩解維數(shù)災(zāi)難的一個重要途徑是(),即通過某種數(shù)學(xué)變換,將原始高維屬性空間轉(zhuǎn)變?yōu)橐粋€低維?子空間?,在這個子空間中樣本密度大幅度提高,距離計算也變得更為容易[問答題]239.K近鄰算法跟所有機(jī)器學(xué)習(xí)算法一樣,在高維情形下出現(xiàn)數(shù)據(jù)樣本系數(shù)、距離計算困難等問題,這些障礙被稱為()[問答題]240.在?單位階躍函數(shù)?(unit-stepfunction)的作用下,若輸入實(shí)值z<0,則應(yīng)將其判定為______(正/反)例。[問答題]241.Numpy中的ndarray的size屬性返回的是()。[問答題]242.一個DataFrame對象的屬性values和ndim分別指數(shù)據(jù)元素和()。[問答題]243.是說,若有多個假設(shè)與觀察一致,則選擇最簡單的那個[問答題]244.邏輯回歸是一種()算法,不是回歸算法,因?yàn)樗没貧w類似的思想解決了分類問題[問答題]245.異常值是指什么?請至少列舉一種識別連續(xù)型變量異常值的方法。[問答題]246.kmeans聚類算法的實(shí)現(xiàn)流程?[問答題]247.線性回歸問題常用的衡量指標(biāo)有均方誤差、()和平均絕對值誤差[問答題]248.信息增益以為基礎(chǔ)。[問答題]249.假定你用一個線性SVM分類器求解二類分類問題,如下圖所示,這些用紅色圓圈起來的點(diǎn)表示支持向量alt="">如果移除這些圈起來的數(shù)據(jù),決策邊界(即分離超平面)是否會發(fā)生改變?A)YesB)No[問答題]250.SVM和全部數(shù)據(jù)有關(guān)還是和局部數(shù)據(jù)有關(guān)?[問答題]251.在最小化錯誤率方面()的性能是最優(yōu)的[問答題]252.kmeans中的距離是怎么定義的,kmeans計算距離的權(quán)重怎么分配,如果是歐氏距離,那么性別(0(表未知)、1和2)和年齡(20、30和40)的這種怎么處理[問答題]253.隨機(jī)森林通過()提高性能[問答題]254.試分析SVM對噪聲敏感的原因。[問答題]255.數(shù)據(jù)可視化的主要作用包括(),()與()三個方面,這也是可視化技術(shù)支持計算機(jī)輔助數(shù)據(jù)認(rèn)知的三個基本階段。[問答題]256.連續(xù)屬性在定義域上有()可能的取值,離散屬性在定義域上有()取值。[問答題]257.對函數(shù)dist(.,.)若它是一個距離度量則需要滿足的基本特性中以下哪個不是[問答題]258.簡述sigmoid激活函數(shù)的優(yōu)缺點(diǎn)[問答題]259.談一談多項式回歸中的過擬合現(xiàn)象。[問答題]260.LineaRegression類中的調(diào)用方法為fit(x,y,sample_weight=None),傳入的參數(shù)x、y和sample_weight分別是(),()和()類型。1.答案:A解析:2.答案:A解析:3.答案:B解析:4.答案:C解析:只比較平均值、方差、相關(guān)系數(shù)和回歸方程,無法確定數(shù)據(jù)集是否相同,還需比較Anscombe'squartet。5.答案:A解析:C>0稱為懲罰參數(shù),是調(diào)和二者的系數(shù),C值大時對誤差分類的懲罰增大,C值小時對誤差分類的懲罰減小。當(dāng)C越大,趨近無窮的時候,表示不允許分類誤差的存在,margin越小,容易過擬合;當(dāng)C趨于0時,表示我們不再關(guān)注分類是否正確,只要求margin越大,容易欠擬合。6.答案:B解析:7.答案:C解析:線性歸一化這種歸一化方法比較適用在數(shù)值比較集中的情況。這種方法有個缺陷,如果max和min不穩(wěn)定,很容易使得歸一化結(jié)果不穩(wěn)定,使得后續(xù)使用效果也不穩(wěn)定。實(shí)際使用中可以用經(jīng)驗(yàn)常量值來替代max和min。非線性歸一化經(jīng)常用在數(shù)據(jù)分化比較大的場景,有些數(shù)值很大,有些很小。通過一些數(shù)學(xué)函數(shù),將原始值進(jìn)行映射。該方法包括log、指數(shù),正切等。需要根據(jù)數(shù)據(jù)分布的情況,決定非線性函數(shù)的曲線,比如log(V,2)還是log(V,10)等。概率模型(決策樹)不需要?dú)w一化,因?yàn)樗麄儾魂P(guān)心變量的值,而是關(guān)心變量的分布和變量之間的條件概率。像SVM、線性回歸之類的最優(yōu)化問題需要?dú)w一化。歸一化之后加快了梯度下降求最優(yōu)解的速度,并有可能提高精度。8.答案:A解析:9.答案:B解析:λ很小,則意味著模型比較復(fù)雜,在這種情況下,會產(chǎn)生偏差低且方差高的結(jié)果,模型會對數(shù)據(jù)過擬合。10.答案:C解析:11.答案:D解析:12.答案:C解析:13.答案:D解析:14.答案:B解析:15.答案:C解析:16.答案:B解析:17.答案:D解析:18.答案:C解析:19.答案:B解析:20.答案:C解析:過濾式特征選擇先對數(shù)據(jù)集進(jìn)行特征選擇,然后再訓(xùn)練學(xué)習(xí)器,特征選擇過程與后續(xù)學(xué)習(xí)器無關(guān)。包裹式特征選擇把最終將要使用的學(xué)習(xí)器的性能作為特征子集的評價準(zhǔn)則。21.答案:A解析:22.答案:D解析:23.答案:D解析:24.答案:B解析:25.答案:C解析:26.答案:D解析:27.答案:B解析:當(dāng)所有特征向量相同時將無法選擇主成分,因?yàn)樵谶@種情況下所有主成分相等。28.答案:D解析:29.答案:B解析:30.答案:B解析:以線性回歸為例,通過模型輸出的f(x)與真實(shí)輸出的y之間的差別來計算損失。而SVR假設(shè)模型輸出f(x)與真實(shí)的y之間可以容忍有eps大小的偏差,也就意味只要樣本的預(yù)測值落在f(x)兩側(cè)在y軸方向上絕對值之差小于eps的間隔帶就是預(yù)測正確的。31.答案:B解析:32.答案:D解析:33.答案:B解析:34.答案:A解析:35.答案:D解析:36.答案:B解析:37.答案:C解析:38.答案:D解析:39.答案:B解析:40.答案:A解析:41.答案:A解析:42.答案:B解析:43.答案:D解析:44.答案:C解析:45.答案:A解析:測試集正例和負(fù)例數(shù)量不均衡,那么假設(shè)正例數(shù)量很少占10%,負(fù)例數(shù)量占大部分90%。而且算法能正確識別所有負(fù)例,但正例只有一半能正確判別。那么TP=0.05×all,TN=0.9×all,Accuracy=95%。雖然Accuracy很高,precision是100%,但正例recall只有50%。46.答案:C解析:47.答案:C解析:48.答案:A解析:49.答案:D解析:50.答案:A解析:51.答案:A解析:52.答案:D解析:53.答案:A解析:54.答案:A解析:55.答案:C解析:56.答案:A解析:57.答案:A解析:重建誤差為0,因?yàn)樗腥齻€點(diǎn)完全位于第一個主要分量的方向上或者計算重建;58.答案:D解析:59.答案:A解析:馬氏距離是基于樣本分布的一種距離。60.答案:C解析:61.答案:C解析:62.答案:C解析:63.答案:A解析:64.答案:D解析:65.答案:A解析:66.答案:C解析:一般地,如果原始圖片尺寸為nxn,filter尺寸為fxf,則卷積后的圖片尺寸為(n-f+1)x(n-f+1),注意f一般為奇數(shù)。67.答案:D解析:68.答案:D解析:69.答案:C解析:70.答案:A解析:71.答案:B解析:72.答案:C解析:若λ較大時,意味著模型復(fù)雜度較低,這時候容易發(fā)生欠擬合,對應(yīng)偏差增大,方差減小。做個簡單總結(jié):Λ較?。浩顪p小,方差增大,容易發(fā)生過擬合Λ較大:偏差增大,方差減小,容易發(fā)生欠擬合73.答案:C解析:74.答案:A解析:投籃只有兩種結(jié)果;進(jìn)或者不進(jìn),符合二項分布,二項分布概率的概率可以用公式P(X=k)=pk(1-p)n-k求得,其中n=10代表試驗(yàn)次數(shù),k=3代表事件連續(xù)發(fā)生的次數(shù),p=1/2代表事件發(fā)生的概率。75.答案:A解析:76.答案:A解析:77.答案:A解析:78.答案:A解析:A正確,因?yàn)閾p失函數(shù)隨著對數(shù)概率的增加而減小79.答案:D解析:80.答案:B解析:81.答案:D解析:82.答案:C解析:83.答案:A解析:選取合適的多項式階數(shù)對于回歸的擬合程度會產(chǎn)生重要的影響。多項式階數(shù)越高,越容易產(chǎn)生過擬合現(xiàn)象。84.答案:A解析:85.答案:D解析:86.答案:D解析:87.答案:B解析:88.答案:B解析:如果模型存在高偏差(highbias),意味著模型過于簡單。為了使模型更加健壯,我們可以在特征空間中添加更多的特征。而添加樣本數(shù)量將減少方差。89.答案:B解析:90.答案:B解析:91.答案:D解析:92.答案:B解析:93.答案:C解析:94.答案:C解析:95.答案:D解析:96.答案:D解析:97.答案:B解析:98.答案:D解析:concat()函數(shù)可以沿著一條軸將多個對象進(jìn)行堆疊。99.答案:B解析:在使用KNN算法時,k取值越大,模型越容易欠擬合,KNIN是有監(jiān)督的機(jī)器學(xué)習(xí)算法。100.答案:C解析:101.答案:C解析:如果有個預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò),就相當(dāng)于網(wǎng)絡(luò)各參數(shù)有個很靠譜的先驗(yàn)代替隨機(jī)初始化.若新的少量數(shù)據(jù)來自于先前訓(xùn)練數(shù)據(jù)(或者先前訓(xùn)練數(shù)據(jù)量很好地描述了數(shù)據(jù)分布,而新數(shù)據(jù)采樣自完全相同的分布),則凍結(jié)前面所有層而重新訓(xùn)練最后一層即可;但一般情況下,新數(shù)據(jù)分布跟先前訓(xùn)練集分布有所偏差,所以先驗(yàn)網(wǎng)絡(luò)不足以完全擬合新數(shù)據(jù)時,可以凍結(jié)大部分前層網(wǎng)絡(luò),只對最后幾層進(jìn)行訓(xùn)練調(diào)參(這也稱之為finetune)。102.答案:D解析:103.答案:C解析:104.答案:C解析:105.答案:D解析:106.答案:C解析:若A與B為互斥事件,則有概率加法公式P(A+B)=P(A)+P(B);若A與B不為互斥事件,則有公式P(A+B)=P(A)+P(B)-P(AB);若A與B為相互獨(dú)立事件,則有概率乘法公式P(AB)=P(A)P(B)107.答案:B解析:108.答案:A解析:線性回歸一般用于實(shí)數(shù)預(yù)測,邏輯回歸一般用于分類問題。109.答案:B解析:110.答案:D解析:111.答案:C解析:112.答案:A解析:113.答案:A解析:114.答案:B解析:115.答案:A解析:116.答案:C解析:117.答案:D解析:118.答案:C解析:dropna()默認(rèn)刪除None或NaN,但是可以指定參數(shù),對軸進(jìn)行刪除。119.答案:B解析:120.答案:B解析:121.答案:D解析:樣本數(shù)過多或者特征數(shù)過多,而不能單機(jī)完成訓(xùn)練,可以用小批量樣本訓(xùn)練,或者在線累計式訓(xùn)練,或者主成分PCA降維方式減少特征數(shù)量再進(jìn)行訓(xùn)練。122.答案:C解析:123.答案:C解析:124.答案:C解析:125.答案:D解析:126.答案:B解析:127.答案:B解析:128.答案:B解析:129.答案:A解析:130.答案:B解析:131.答案:D解析:132.答案:C解析:似然估計是一種確定模型參數(shù)值的方法。確定參數(shù)值的過程,是找到能最大化模型產(chǎn)生真實(shí)觀察數(shù)據(jù)可能性的那一組參數(shù)。133.答案:C解析:134.答案:A解析:135.答案:D解析:136.答案:A解析:決簧樹包含一個根節(jié)點(diǎn)、若子內(nèi)部節(jié)點(diǎn)和若干葉節(jié)點(diǎn)。葉節(jié)點(diǎn)對應(yīng)于決策結(jié)果,其他每個節(jié)點(diǎn)則對應(yīng)于一個屬性測試。137.答案:D解析:138.答案:B解析:139.答案:A解析:140.答案:D解析:141.答案:B解析:142.答案:C解析:143.答案:B解析:β0和β1:β0=0,β1=1為X1顏色(黑色),β0=0,β1=-1為X4顏色(綠色)144.答案:B解析:本題考查的是集成學(xué)習(xí)的基本原理。集成學(xué)習(xí),顧名思義,通過將多個單個學(xué)習(xí)器集成/組合在一起,使它們共同完成學(xué)習(xí)任務(wù)。舉個例子來說明,假如你有T個朋友,每個朋友向你預(yù)測推薦明天某支股票會漲還是會跌,那么你該選擇哪個朋友的建議呢?第一種方法是從T個朋友中選擇一個最受信任,對股票預(yù)測能力最強(qiáng)的人,直接聽從他的建議就好。這是一種普遍的做法,對應(yīng)的就是validation的思想,即選擇犯錯誤最小的模型。第二種方法,如果每個朋友在股票預(yù)測方面都是比較厲害的,都有各自的專長,那么就同時考慮T個朋友的建議,將所有結(jié)果做個投票,一人一票,最終決定出對該支股票的預(yù)測。這種方法對應(yīng)的是uniformly思想。第三種方法,如果每個朋友水平不一,有的比較厲害,投票比重應(yīng)該更大一些,有的比較差,投票比重應(yīng)該更小一些。那么,仍然對T個朋友進(jìn)行投票,只是每個人的投票權(quán)重不同。這種方法對應(yīng)的是non-uniformly的思

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論