人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷9)_第1頁(yè)
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷9)_第2頁(yè)
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷9)_第3頁(yè)
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷9)_第4頁(yè)
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷9)_第5頁(yè)
已閱讀5頁(yè),還剩59頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷9)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共155題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.下面哪個(gè)/些超參數(shù)的增加可能會(huì)造成隨機(jī)森林?jǐn)?shù)據(jù)過(guò)擬合?A)樹(shù)的數(shù)量B)樹(shù)的深度C)學(xué)習(xí)速率答案:B解析:通常情況下,我們?cè)黾訕?shù)的深度有可能會(huì)造成模型過(guò)擬合。學(xué)習(xí)速率并不是隨機(jī)森林的超參數(shù)。增加樹(shù)的數(shù)量可能會(huì)造成欠擬合。[單選題]2.如果一個(gè)SVM模型出現(xiàn)欠擬合,那么()能解決這一問(wèn)題。A)增大懲罰參數(shù)CB)減小懲罰參數(shù)CC)減小核系數(shù)(gamma參數(shù))答案:A解析:SVM模型出現(xiàn)欠擬合,表明模型過(guò)于簡(jiǎn)單,需要提高模型復(fù)雜度。C越大,相應(yīng)的模型越復(fù)雜。[單選題]3.考慮下表中二元分類(lèi)問(wèn)題的訓(xùn)練樣本,根據(jù)信息增益,哪個(gè)是最佳劃分(在a1,a2,a3中):class="fr-ficfr-dibcursor-hover"A)a1B)a2C)a3答案:A解析:[單選題]4.強(qiáng)化學(xué)習(xí)屬于()的一種A)無(wú)監(jiān)督學(xué)習(xí)B)機(jī)器學(xué)習(xí)C)監(jiān)督學(xué)習(xí)答案:B解析:[單選題]5.SVM中要尋找和計(jì)算的MMH是指()A)最大邊緣超平面B)超平面C)最小邊緣超平面答案:A解析:[單選題]6.下面關(guān)于深度學(xué)習(xí)相關(guān)描述不正確的有(__)。A)深度學(xué)習(xí)是一種特征學(xué)習(xí)方法B)深度學(xué)習(xí)通過(guò)足夠多的簡(jiǎn)單轉(zhuǎn)換函數(shù)及其組合方式來(lái)學(xué)習(xí)一個(gè)復(fù)雜的目標(biāo)函數(shù)C)深度學(xué)習(xí)的關(guān)鍵在于計(jì)算觀測(cè)書(shū)記的分層特征及其表示D)ANN不是深度學(xué)習(xí)答案:D解析:[單選題]7.以下關(guān)于數(shù)據(jù)科學(xué)相關(guān)描述不正確的是()。A)數(shù)據(jù)科學(xué)是數(shù)據(jù),尤其是大數(shù)據(jù)背后的科學(xué)B)?數(shù)據(jù)?是一門(mén)科學(xué),答案就在?大數(shù)據(jù)?手中C)在數(shù)據(jù)科學(xué)出現(xiàn)之前,我們關(guān)注的是數(shù)據(jù)主動(dòng)的一面,而在數(shù)據(jù)科學(xué)中我們更加重視的是被動(dòng)作用。D)數(shù)據(jù)科學(xué)的最終研究目標(biāo)是實(shí)現(xiàn)數(shù)據(jù)、物質(zhì)和能量之間的轉(zhuǎn)換。答案:C解析:[單選題]8.當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時(shí),變換的不變性會(huì)被保留,是嗎?A)不知道B)看情況C)是D)否答案:C解析:[單選題]9.()是利用不同模型的相加,構(gòu)成一個(gè)更好的模型,求取模型一般都采用序列化方法,后面的模型依據(jù)前面的模型A)baggingB)boostingC)弱學(xué)習(xí)算法D)以上都不對(duì)答案:B解析:[單選題]10.在K-搖臂賭博機(jī)中,若嘗試次數(shù)非常大,在一段時(shí)間后,搖臂的獎(jiǎng)賞能很好的近似出來(lái),不再需要探索,則可讓?duì)烹S著嘗試次數(shù)增加而A)增大B)置為無(wú)窮C)置為0D)減少答案:D解析:[單選題]11.下列哪項(xiàng)方法不屬于圖像分割方法()。A)邊緣檢測(cè)法B)閾值分割法C)區(qū)域分割法D)特征提取法答案:D解析:[單選題]12.()算法的訓(xùn)練數(shù)據(jù)集只有特征,沒(méi)有標(biāo)簽A)有監(jiān)督學(xué)習(xí)B)半監(jiān)督學(xué)習(xí)C)無(wú)監(jiān)督學(xué)習(xí)D)強(qiáng)化學(xué)習(xí)答案:C解析:[單選題]13.支持向量機(jī)的優(yōu)化問(wèn)題是最小化的平方,這實(shí)現(xiàn)了(__)。A)幾何間隔為1/的最大間隔超平面B)幾何間隔為的最大間隔超平面C)幾何間隔為1/的最小間隔超平面D)幾何間隔為的最小間隔超平面答案:A解析:[單選題]14.關(guān)于預(yù)處理的說(shuō)法中,下列選項(xiàng)中描述不正確是()。A)concat()函數(shù)可以沿著一條軸將多個(gè)對(duì)象進(jìn)行堆疊B)merge()函數(shù)可以根據(jù)一個(gè)或多個(gè)鍵將不同的DataFrame進(jìn)行合并C)可以使用rename()方法對(duì)索引進(jìn)行重命名操作D)unstack()方法可以將列索引旋轉(zhuǎn)為行索引答案:D解析:unstack()方法可以將行索引旋轉(zhuǎn)為列索引。[單選題]15.執(zhí)行以下代碼#defineSUM(x,y)x+yInta=3;Intb=2;A+=a*SUM(a,b)*b;A的值為A)16B)30C)33D)39答案:A解析:[單選題]16.在Pandas中以下哪個(gè)函數(shù)可以讀取csv文件?()。A)read_excel()B)read_csv()C)read_sql_query()D)read_text()答案:B解析:[單選題]17.下面關(guān)于使用hive的描述中不正確的是?A)hive中的join查詢(xún)只支持等值鏈接,不支持非等值連接B)hive的表一共有兩種類(lèi)型,內(nèi)部表和外部表C)hive默認(rèn)倉(cāng)庫(kù)路徑為/user/hive/warehouse/D)hive支持?jǐn)?shù)據(jù)刪除和修改答案:B解析:[單選題]18.用決策樹(shù)法訓(xùn)練大量數(shù)據(jù)集時(shí),()最節(jié)約時(shí)間。A)增加樹(shù)的深度B)增加學(xué)習(xí)率C)減少數(shù)的深度D)減少樹(shù)的個(gè)數(shù)答案:C解析:減少樹(shù)的深度,相當(dāng)于加入了一個(gè)正則化項(xiàng),可以降低模型復(fù)雜度。[單選題]19.以下哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線(xiàn)性()A)DropoutB)ReLUC)卷積函數(shù)D)隨機(jī)梯度下降答案:B解析:[單選題]20.人工神經(jīng)網(wǎng)絡(luò)的特點(diǎn)和優(yōu)越性不包括______。A)自學(xué)習(xí)功能B)自動(dòng)識(shí)別功能C)高速尋找優(yōu)化解的能力D)聯(lián)想存儲(chǔ)功能答案:B解析:[單選題]21.使用已訓(xùn)練好的模型對(duì)測(cè)試集中的實(shí)例進(jìn)行分類(lèi)預(yù)測(cè)。如果要調(diào)用sklearn中的某個(gè)函數(shù)來(lái)評(píng)價(jià)預(yù)測(cè)的準(zhǔn)確率,應(yīng)該選擇:A)LabelEcoderB)StanderScalerC)fit_transformD)accuracy_score答案:D解析:[單選題]22.把詞典中的詞按照由長(zhǎng)到短遞減的順序逐字搜索整個(gè)待處理的材料,一直到把全部的詞切分出來(lái)為止。不論分詞詞典多大,被處理的材料多么小,都得把這個(gè)分詞詞典匹配一遍。這種方法叫(__)。A)正向最大匹配法B)逆向最大匹配法C)逐詞遍歷法D)隱馬爾科夫模型答案:C解析:[單選題]23.關(guān)于欠擬合(under-fitting),下面哪個(gè)說(shuō)法是正確的?()A)訓(xùn)練誤差較大,測(cè)試誤差較小B)訓(xùn)練誤差較小,測(cè)試誤差較大C)訓(xùn)練誤差較大,測(cè)試誤差較大D)訓(xùn)練誤差不變,測(cè)試誤差較大答案:C解析:[單選題]24.如右圖所示有向圖,節(jié)點(diǎn)G的馬爾可夫毯為()A){D,E}B){I,J}C){D,E,I,J}D){D,E,F,H,I,J}答案:D解析:[單選題]25.下列有關(guān)支持向量機(jī)說(shuō)法不正確的是:A)得到的是局部最優(yōu)解B)具有很好的推廣能力C)采用結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理D)是凸二次優(yōu)化問(wèn)題答案:A解析:[單選題]26.按照求解方法進(jìn)行分類(lèi)算法的劃分,下列中為生成模型的是()A)決策樹(shù)B)K近鄰C)貝葉斯分類(lèi)器D)支持向量機(jī)SVM答案:C解析:[單選題]27.10.基于層次的聚類(lèi)算法包括()。A)合并的層次聚類(lèi)B)基于密度的聚類(lèi)算法C)基于劃分的算法D)基于網(wǎng)絡(luò)的聚類(lèi)算法答案:A解析:[單選題]28.(__)是指對(duì)已有數(shù)據(jù)在盡量少的先驗(yàn)假設(shè)條件下進(jìn)行探索,并通過(guò)作圖,制表等手段探索數(shù)據(jù)結(jié)構(gòu)和規(guī)律的一種方法。A)統(tǒng)計(jì)分析B)驗(yàn)證性分析C)數(shù)據(jù)洞見(jiàn)D)探索性數(shù)據(jù)分析答案:D解析:[單選題]29.有關(guān)深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練(Training)和推斷(Inference),以下說(shuō)法中不正確的是:()A)將數(shù)據(jù)分組部署在不同GPU上進(jìn)行訓(xùn)練能提高深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度。B)TensorFlow使用GPU訓(xùn)練好的模型,在執(zhí)行推斷任務(wù)時(shí),也必須在GPU上運(yùn)行。C)將模型中的浮點(diǎn)數(shù)精度降低,例如使用float16代替float32,可以壓縮訓(xùn)練好的模型的大小。D)GPU所配置的顯存的大小,對(duì)于在該GPU上訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)的復(fù)雜度、訓(xùn)練數(shù)據(jù)的批次規(guī)模等,都是一個(gè)無(wú)法忽視的影響因素。答案:B解析:[單選題]30.所有預(yù)測(cè)模型在廣義上都可稱(chēng)為一個(gè)或一組(__)。A)公式B)邏輯C)命題D)規(guī)則答案:D解析:[單選題]31.8.K均值算法的K指的是什么?A)K是均值的數(shù)值B)K是均值的最大限值C)K是分類(lèi)的數(shù)量D)K是分類(lèi)的迭代次數(shù)答案:B解析:[單選題]32.若用φ(n)表示歐拉函數(shù),請(qǐng)問(wèn):φ(56)的歐拉函數(shù)之積為?A)24B)10C)15D)11答案:A解析:[單選題]33.TF-IDF與該詞在整個(gè)語(yǔ)言中的出現(xiàn)次數(shù)成(__)。A)正比B)反比C)無(wú)關(guān)D)冪次答案:B解析:[單選題]34.以下哪個(gè)模型是生成式模型:A)貝葉斯模型B)邏輯回歸C)SVMD)條件隨機(jī)場(chǎng)答案:A解析:[單選題]35.構(gòu)建一個(gè)最簡(jiǎn)單的線(xiàn)性回歸模型需要幾個(gè)系數(shù)(只有一個(gè)特征)?A)1個(gè)B)2個(gè)C)3個(gè)D)4個(gè)答案:B解析:最簡(jiǎn)單的線(xiàn)性回歸模型,只有一個(gè)特征,即Y=aX+B,包含a和b兩個(gè)系數(shù)。[單選題]36.以下關(guān)于大數(shù)據(jù)描述不正確的是()。A)大數(shù)據(jù)成為推動(dòng)經(jīng)濟(jì)轉(zhuǎn)型發(fā)展的新動(dòng)力B)大數(shù)據(jù)成為重塑?chē)?guó)家競(jìng)爭(zhēng)優(yōu)勢(shì)的新機(jī)遇C)大數(shù)據(jù)是小數(shù)據(jù)的集合D)大數(shù)據(jù)成為提升政府治理能力的新途徑答案:C解析:[單選題]37.處理文本數(shù)據(jù),循環(huán)神經(jīng)網(wǎng)絡(luò)與前饋神經(jīng)網(wǎng)絡(luò)相比有()的優(yōu)點(diǎn)。A)不會(huì)梯度消失B)訓(xùn)練結(jié)果不會(huì)發(fā)散C)不需要激活函數(shù)D)可以接受有序的輸入序列答案:D解析:[單選題]38.(__)是指能夠通過(guò)數(shù)據(jù)來(lái)幫助用戶(hù)實(shí)現(xiàn)其某一個(gè)目標(biāo)的產(chǎn)品。A)數(shù)據(jù)產(chǎn)品B)電子產(chǎn)品C)數(shù)據(jù)系統(tǒng)D)電子系統(tǒng)答案:A解析:[單選題]39.下面不屬于大數(shù)據(jù)4V特性有()。A)容量大B)類(lèi)型多C)速度快D)應(yīng)用價(jià)值高答案:D解析:[單選題]40.()是指數(shù)據(jù)減去一個(gè)總括統(tǒng)計(jì)量或模型擬合值時(shí)的殘余部分A)極值B)標(biāo)準(zhǔn)值C)平均值D)殘值答案:D解析:殘值在數(shù)理統(tǒng)計(jì)中是指實(shí)際觀察值與估計(jì)值(擬合值)之間的差。[單選題]41.當(dāng)分析顧客消費(fèi)行業(yè),以便有針對(duì)性的向其推薦感興趣的服務(wù),屬于什么問(wèn)題?()A)分類(lèi)B)聚類(lèi)C)關(guān)聯(lián)規(guī)則D)主成分分析答案:C解析:[單選題]42.隱馬爾可夫模型(HMM),設(shè)其觀察值空間為狀態(tài)空間為alt="">如果用維特比算法(Viterbialgorithm)進(jìn)行解碼,時(shí)間復(fù)雜度為()A)O(NK)B)O(NK^2)C)O(N^2K)D)以上都不是答案:D解析:alt=""class="fr-ficfr-dii">[單選題]43.以下描述正確的是()。A)非結(jié)構(gòu)化數(shù)據(jù)是先有結(jié)構(gòu),后有數(shù)據(jù)B)XML是非結(jié)構(gòu)化數(shù)據(jù)C)結(jié)構(gòu)化數(shù)據(jù)是先有數(shù)據(jù),后有結(jié)構(gòu)D)非結(jié)構(gòu)化數(shù)據(jù)是數(shù)據(jù)科學(xué)與傳統(tǒng)數(shù)據(jù)管理的主要區(qū)別答案:D解析:[單選題]44.學(xué)習(xí)器的實(shí)際預(yù)測(cè)輸出與樣本的真實(shí)輸出之間的差異稱(chēng)為_(kāi)_。A)錯(cuò)誤率B)精度C)誤差D)查準(zhǔn)率答案:C解析:[單選題]45.(__)是在不影響數(shù)據(jù)分析結(jié)果準(zhǔn)確性的前提下,對(duì)原始數(shù)據(jù)進(jìn)行一定的變換操作,對(duì)其中的個(gè)人(組織)敏感數(shù)據(jù)進(jìn)行替換或刪除操作。A)數(shù)據(jù)加工B)數(shù)據(jù)保護(hù)C)數(shù)據(jù)脫敏D)數(shù)據(jù)清洗答案:C解析:[單選題]46.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線(xiàn)性?A)隨機(jī)梯度下降B)修正線(xiàn)性單元(ReLU)C)卷積函數(shù)D)以上都不正確答案:B解析:[單選題]47.對(duì)于SVM分類(lèi)算法,待分樣本集中的大部分樣本不是支持向量,下列說(shuō)法正確的是()。A)需要將這些樣本全部強(qiáng)制轉(zhuǎn)換為支持向量B)需要將這些樣本中可以轉(zhuǎn)化的樣本轉(zhuǎn)換為支持向量.不能轉(zhuǎn)換的直接刪除C)移去或者減少這些樣本對(duì)分類(lèi)結(jié)果沒(méi)有影響D)以上都不對(duì)答案:C解析:支持向量機(jī)的一個(gè)重要性質(zhì):訓(xùn)練完成后,大部分的訓(xùn)練樣本都不需保留,最終模型僅與支持向量有關(guān)。[單選題]48.下列關(guān)于線(xiàn)性回歸說(shuō)法錯(cuò)誤的是()A)在現(xiàn)有模型上,加入新的變量,所得到的R^2的值總會(huì)增加B)線(xiàn)性回歸的前提假設(shè)之一是殘差必須服從獨(dú)立正態(tài)分布C)殘差的方差無(wú)偏估計(jì)是SSE/(n-p)D)自變量和殘差不一定保持相互獨(dú)立答案:D解析:R^2越大,擬合效果越好,因此A對(duì)。R^2=1-RSS/TSSRSS數(shù)殘差平方和TSS是總的平方和[單選題]49.(__)是分類(lèi)正確的樣本數(shù)占樣本總數(shù)的比例。A)精度B)錯(cuò)誤率C)偏差D)誤差答案:A解析:[單選題]50.使用high(infinite)regularisation時(shí)偏差會(huì)如何變化?alt="">有散點(diǎn)圖?a?和?b?兩類(lèi)(藍(lán)色為正,紅色為負(fù))。在散點(diǎn)圖?a?中,使用了邏輯回歸(黑線(xiàn)是決策邊界)對(duì)所有數(shù)據(jù)點(diǎn)進(jìn)行了正確分類(lèi)。A)偏差很大B)偏差很小C)不確定D)都不是答案:A解析:模型變得過(guò)于簡(jiǎn)單,所以偏差會(huì)很大。Bias:誤差,對(duì)象是單個(gè)模型,期望輸出與真實(shí)標(biāo)記的差別(可以解釋為描述了模型對(duì)本訓(xùn)練集的擬合程度)Variance:方差,對(duì)象是多個(gè)模型(這里更好的解釋是換同樣規(guī)模的訓(xùn)練集,模型的擬合程度怎么樣;也可以說(shuō)方差是刻畫(huà)數(shù)據(jù)擾動(dòng)對(duì)模型的影響,描述的是訓(xùn)練結(jié)果的分散程度)從同一個(gè)數(shù)據(jù)集中,用科學(xué)的采樣方法得到幾個(gè)不同的子訓(xùn)練集,用這些訓(xùn)練集訓(xùn)練得到的模型往往并不相同。alt=""class="fr-ficfr-dii">以上圖為例:[單選題]51.在深度學(xué)習(xí)中,涉及到大量矩陣相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別為m*n,n*p,p*q,且m<n<p<q,以下計(jì)算順序效率最高的是:()A)A(BC)B)(AB)CC)(AC)BD)所有效率都相同答案:B解析:[單選題]52.機(jī)器學(xué)習(xí)的流程包括:分析案例、數(shù)據(jù)獲取、________和模型驗(yàn)證這四個(gè)過(guò)程。A)數(shù)據(jù)清洗B)數(shù)據(jù)分析C)模型訓(xùn)練D)模型搭建答案:C解析:[單選題]53.下列函數(shù)中,用于計(jì)算整數(shù)的絕對(duì)值的是()。A)square()B)sqrt()C)abs()D)floor()答案:C解析:[單選題]54.K-Means算法無(wú)法聚以下哪種形狀的樣本?A)圓形分布B)螺旋分布C)帶狀分布D)凸多邊形分布答案:B解析:K-Means算法是基于距離測(cè)量的,無(wú)法聚非凸形狀的樣本。[單選題]55.在SVM中,margin的含義是()A)差額B)損失誤差C)幅度D)間隔答案:D解析:[單選題]56.一批產(chǎn)品共8件,其中正品6件,次品2件。現(xiàn)不放回地從中取產(chǎn)品兩次,每次一件,求第二次取得正品的概率A)1/4B)1/2C)3/4D)1答案:C解析:[單選題]57.以下集合是凸集的是A){(x,y)|y=x+1}B){(x,y)|x的平方+y的平方=1}C){(x,y)|x的平方+y的平方>1}D){(x,y)|x=1|y=1}答案:A解析:凸集,實(shí)數(shù)R上(或復(fù)數(shù)C上)的向量空間中,如果集合S中任兩點(diǎn)的連線(xiàn)上的點(diǎn)都在S內(nèi),則稱(chēng)集合S為凸集。所以直線(xiàn)是凸集,A正確。{(x,y)|x^2+y^2<=1}是凸集。C選項(xiàng)恰好是圓形外面的區(qū)域,而任意兩點(diǎn)連線(xiàn)上的點(diǎn)在圓形。D選項(xiàng)是兩條直線(xiàn)。[單選題]58.()操作屬于預(yù)剪枝。A)信息增益B)計(jì)算最好的特征切分點(diǎn)C)限制樹(shù)模型的深度D)可視化樹(shù)模型答案:C解析:預(yù)剪枝是指在決策樹(shù)生成過(guò)程中,對(duì)每個(gè)結(jié)點(diǎn)在劃分前先進(jìn)行估計(jì),若當(dāng)前結(jié)點(diǎn)的劃分不能帶來(lái)決策樹(shù)泛化性能提升,則停止劃分并將當(dāng)前結(jié)點(diǎn)標(biāo)記為葉結(jié)點(diǎn)。限制樹(shù)模型的深度屬于預(yù)剪枝。[單選題]59.關(guān)于KNN最近鄰分類(lèi)算法的過(guò)程:①計(jì)算訓(xùn)練樣本和測(cè)試樣本中每個(gè)樣本點(diǎn)的距離(常見(jiàn)的距離度量有歐式距離、馬氏距離等);②對(duì)上面所有的距離值進(jìn)行排序;③選前k個(gè)最小距離的樣本;④根據(jù)這k個(gè)樣本的標(biāo)簽進(jìn)行投票,得到最后的分類(lèi)類(lèi)別。正確的排序?yàn)锳)①③②④B)②④③①C)①②③④D)①②④③答案:C解析:[單選題]60.以下幾種模型方法屬于判別式模型的有1)混合高斯模型2)條件隨機(jī)場(chǎng)模型3)區(qū)分度訓(xùn)練4)隱馬爾科夫模型A)1,4B)3,4C)2,3D)1,2答案:C解析:[單選題]61.下列哪項(xiàng)關(guān)于模型能力(modelcapacity)的描述是正確的?(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)A)隱藏層層數(shù)增加,模型能力一定增加B)Dropout的比例增加,模型能力增加C)學(xué)習(xí)率增加,模型能力增加D)都不正確答案:D解析:[單選題]62.在方差分析中,()反映的是樣本數(shù)據(jù)與其組平均值的差異。A)總離差B)組間誤差C)抽樣誤差D)組內(nèi)誤差答案:D解析:組內(nèi)誤差是來(lái)自樣本內(nèi)部數(shù)據(jù)之間的隨機(jī)誤差,它反映了樣本數(shù)據(jù)自身的差異程度;組間誤差由因子的不同處理造成的處理誤差和抽樣的隨機(jī)誤差組成,反映了不同樣本之間數(shù)據(jù)的差異程度。[單選題]63.卷積的過(guò)程是讓過(guò)濾器在圖像上()。A)縮放B)剪切C)鏡像對(duì)稱(chēng)D)窗口滑動(dòng)答案:D解析:[單選題]64.下面哪句話(huà)是正確的?A)機(jī)器學(xué)習(xí)模型的精準(zhǔn)度越高,則模型的性能越好B)增加模型的復(fù)雜度,總能減小測(cè)試樣本誤差C)增加模型的復(fù)雜度,總能減小訓(xùn)練樣本誤差D)以上說(shuō)法都不對(duì)答案:C解析:本題考查的是機(jī)器學(xué)習(xí)模型的評(píng)判指標(biāo)。機(jī)器學(xué)習(xí)模型的精準(zhǔn)度(Precision)越高,模型性能不一定越好,還要看模型的召回率(Recall),特別是在正負(fù)樣本分布不均的情況下。一般使用F1score評(píng)判標(biāo)準(zhǔn)。增加模型復(fù)雜度,通??赡茉斐蛇^(guò)擬合。過(guò)擬合的表現(xiàn)是訓(xùn)練樣本誤差減小,而測(cè)試樣本誤差增大。[單選題]65.相同的詞可以通過(guò)()來(lái)實(shí)現(xiàn)多個(gè)詞嵌入?A)GloVeB)Word2VecC)ELMoD)Nltk答案:C解析:[單選題]66.下列算法中,不屬于外推法的是()。A)移動(dòng)平均法B)回歸分析法C)指數(shù)平滑法D)季節(jié)指數(shù)法答案:B解析:外推法(Extrapolation)是根據(jù)過(guò)去和現(xiàn)在的發(fā)展趨勢(shì)推斷未來(lái)的一類(lèi)方法的總稱(chēng),回歸分析法不屬于外推法。[單選題]67.以下關(guān)于歸納偏好描述錯(cuò)誤的是(___)。A)不是每一個(gè)有效的機(jī)器學(xué)習(xí)算法必有其歸納偏好B)歸納偏好可看做學(xué)習(xí)算法自身在一個(gè)可能很龐大的假設(shè)空間中對(duì)假設(shè)進(jìn)行選擇的啟發(fā)式或?價(jià)值觀?C)歸納偏好對(duì)應(yīng)了學(xué)習(xí)算法本身所做出的的關(guān)于?什么樣的模型更好?的假設(shè)D)如果沒(méi)有歸納偏好,學(xué)習(xí)算法在每次進(jìn)行預(yù)測(cè)時(shí)將隨機(jī)抽選訓(xùn)練集上的等效假設(shè)答案:A解析:[單選題]68.BatchNorm層對(duì)于inputbatch會(huì)統(tǒng)計(jì)出mean和variance用于計(jì)算EMA。如果inputbatch的shape為(B,C,H,W),統(tǒng)計(jì)出的mean和variance的shape為:()A)B*1*1*1B)1*C*1*1C)B*C*1*1D)1*1*1*1答案:B解析:[單選題]69.決策樹(shù)的父節(jié)點(diǎn)和子節(jié)點(diǎn)的熵的大小關(guān)系是()。A)父節(jié)點(diǎn)的熵更小B)子節(jié)點(diǎn)的熵更小C)兩者相等D)根據(jù)具體情況而定答案:B解析:決策樹(shù)分解策略是保證子結(jié)點(diǎn)的熵小于父結(jié)點(diǎn)的熵。但子結(jié)點(diǎn)的熵是該父結(jié)點(diǎn)所有孩子結(jié)點(diǎn)的熵的總和,因此,并保證任意一個(gè)子節(jié)點(diǎn)的熵都小于父結(jié)點(diǎn)病。[單選題]70.人工神經(jīng)網(wǎng)絡(luò)是20世紀(jì)80年代以來(lái)人工智能領(lǐng)域興起的研究熱點(diǎn)。它從信息處理角度對(duì)人腦神經(jīng)元網(wǎng)絡(luò)進(jìn)行抽象,建立某種簡(jiǎn)單的模型,按()連接方式組成()網(wǎng)絡(luò)。在工程與學(xué)術(shù)界簡(jiǎn)稱(chēng)為神經(jīng)網(wǎng)絡(luò)或類(lèi)神經(jīng)網(wǎng)絡(luò)。A)不同的不同的B)不同的相同的C)相同的不同的D)相同的相同的答案:A解析:[單選題]71.在線(xiàn)性回歸中使用正則項(xiàng),你發(fā)現(xiàn)解的不少coefficient都是0,則這個(gè)正則項(xiàng)可能是(1).L0-norm;(2).L1-norm;(3).L2-norm。A)(1)(2)B)(2)(3)C)(2)D)(3)答案:A解析:[單選題]72.圖像識(shí)別常用softmax函數(shù)接在模型的輸出上,其作用為:()。A)增加不同類(lèi)別之間的區(qū)分度B)突出輸出向量中類(lèi)標(biāo)的對(duì)應(yīng)的維度C)對(duì)輸出歸一化,同時(shí)以概率的更好解釋輸出向量D)過(guò)濾無(wú)用的環(huán)境信息答案:C解析:[單選題]73.以下哪種方法屬于判別式模型(discriminativemodel)()A)隱馬模型(HMM)B)樸素貝葉斯C)LDAD)支持向量機(jī)答案:D解析:已知輸入變量x,判別模型(discriminativemodel)通過(guò)求解條件概率分布P(y|x)或者直接計(jì)算y的值來(lái)預(yù)測(cè)y。生成模型(generativemodel)通過(guò)對(duì)觀測(cè)值和標(biāo)注數(shù)據(jù)計(jì)算聯(lián)合概率分布P(x,y)來(lái)達(dá)到判定估算y的目的。常見(jiàn)的判別模型有線(xiàn)性回歸(LinearRegression),邏輯回歸(LogisticRegression),支持向量機(jī)(SVM),傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(TraditionalNeuralNetworks),線(xiàn)性判別分析(LinearDiscriminativeAnalysis),條件隨機(jī)場(chǎng)(ConditionalRandomField);常見(jiàn)的生成模型有樸素貝葉斯(NaiveBayes),隱馬爾科夫模型(HMM),貝葉斯網(wǎng)絡(luò)(BayesianNetworks)和隱含狄利克雷分布(LatentDirichletAllocation)。A選項(xiàng)的隱馬爾科夫模型和B選項(xiàng)的樸素貝葉斯屬于生成模型。C選項(xiàng)的LDA,如果是指LinearDiscriminativeAnalysis,那么屬于判別模型,如果是指LatentDirichletAllocation,那么屬于生成模型。D選項(xiàng)的支持向量機(jī)屬于判別模型。[單選題]74.在支持向量機(jī)中,核函數(shù)的主要作用是(__)。A)將低維空間中線(xiàn)性不可分的數(shù)據(jù)映射到高維空間,使其線(xiàn)性可分B)將高維空間中線(xiàn)性不可分的數(shù)據(jù)映射到低維空間,使其線(xiàn)性可分C)將高維空間中線(xiàn)性可分的數(shù)據(jù)映射到低維空間,使其線(xiàn)性不可分D)將低維空間中線(xiàn)性可分的數(shù)據(jù)映射到高維空間,使其線(xiàn)性不可分答案:A解析:[單選題]75.谷歌新聞每天收集非常多的新聞,并運(yùn)用()方法再將這些新聞分組,組成若干類(lèi)有關(guān)聯(lián)的新聞。于是,搜索時(shí)同一組新聞事件往往隸屬同一主題的,所以顯示到一起。A)關(guān)聯(lián)規(guī)則B)聚類(lèi)C)回歸D)分類(lèi)答案:B解析:[單選題]76.假如我們使用Lasso回歸來(lái)擬合數(shù)據(jù)集,該數(shù)據(jù)集輸入特征有100個(gè)(X1,X2,…,X100)。現(xiàn)在,我們把其中一個(gè)特征值擴(kuò)大10倍(如特征X1),然后用相同的正則化參數(shù)對(duì)Lasso回歸進(jìn)行修正。那么,下列說(shuō)法正確的是()。A)特征X1很可能被排除在模型之外B)特征X1很可能還包含在模型之中C)無(wú)法確定特征X1是否被舍D)以上答案都不正確答案:B解析:將特征X1數(shù)值擴(kuò)大10倍,它對(duì)應(yīng)的回歸系數(shù)將相應(yīng)會(huì)減小,但不為0,仍然滿(mǎn)足β的正則化約束,因此可能還包含在模型之中。[單選題]77.下列度量不具有反演性的是A)系數(shù)B)幾率C)Cohen度量D)興趣因子答案:D解析:[單選題]78.對(duì)Boosting模型的描述錯(cuò)誤的是A)采用串行訓(xùn)練模式B)增加被錯(cuò)誤分類(lèi)樣本的權(quán)值C)通過(guò)改變訓(xùn)練集進(jìn)行有針對(duì)性的學(xué)習(xí)D)基礎(chǔ)分類(lèi)器采用少數(shù)服從多數(shù)原則進(jìn)行集成答案:D解析:[單選題]79.(__)在以決策樹(shù)為基學(xué)習(xí)器構(gòu)建Bagging集成的基礎(chǔ)上,進(jìn)一步在決策樹(shù)的訓(xùn)練過(guò)程中引入了隨機(jī)屬性選擇。A)BoostingB)AdaBoostC)RFD)Bagging答案:C解析:[單選題]80.若對(duì)于數(shù)據(jù)分布D和概率密度函數(shù)p(?),錯(cuò)誤率與精度可分別描述為(__)。A)若測(cè)試數(shù)據(jù)集的精度高或錯(cuò)誤率小,則模型的泛化能力強(qiáng);反之,則泛化能力弱。B)若測(cè)試數(shù)據(jù)集的精度低或錯(cuò)誤率小,則模型的泛化能力強(qiáng);反之,則泛化能力弱。C)若測(cè)試數(shù)據(jù)集的精度高或錯(cuò)誤率高,則模型的泛化能力強(qiáng);反之,則泛化能力弱。D)若測(cè)試數(shù)據(jù)集的精度小或錯(cuò)誤率高,則模型的泛化能力強(qiáng);反之,則泛化能力弱。答案:A解析:[單選題]81.以下描述不正確的是(__)。A)互動(dòng)資源結(jié)算屬于項(xiàng)目時(shí)間管理B)合同管理屬于項(xiàng)目采購(gòu)管理C)效績(jī)報(bào)告屬于項(xiàng)目溝通管理D)項(xiàng)目團(tuán)隊(duì)建設(shè)屬于項(xiàng)目整體管理答案:D解析:[單選題]82.在概率圖模型中,(__)模型是一種判別式無(wú)向圖模型。A)馬爾可夫隨機(jī)場(chǎng)B)隱馬爾可夫模型C)條件隨機(jī)場(chǎng)D)逆誤差傳播答案:C解析:[單選題]83.下列關(guān)于軟支持向量機(jī)的說(shuō)法正確的是(__)。A)軟間隔支持向量機(jī)不可應(yīng)用拉格朗日乘子法求解B)軟間隔支持向量機(jī)和硬間隔支持向量機(jī)完全相同C)軟間隔支持向量機(jī)只能使用Hinge損失函數(shù)D)軟間隔支持向量機(jī)的目標(biāo)函數(shù)仍是一個(gè)二次規(guī)劃問(wèn)題答案:D解析:[單選題]84.Adaboost是屬于機(jī)器學(xué)習(xí)里面的(),是一個(gè)二分類(lèi)模型A)監(jiān)督學(xué)習(xí)B)半監(jiān)督學(xué)習(xí)C)無(wú)監(jiān)督學(xué)習(xí)D)強(qiáng)化學(xué)習(xí)答案:A解析:[單選題]85.在這種架構(gòu)中,對(duì)句子中所有詞之間的關(guān)系進(jìn)行建模,而與它們的位置無(wú)關(guān)。這是哪種架構(gòu)?A)OpenAIGPTB)ELMoC)BERTD)ULMFit答案:C解析:[單選題]86.()算法是分類(lèi)算法。A)DBSCANB)C4.5C)K-MeanD)EM答案:B解析:C4.5是分類(lèi)算法;DBSCAN、K-Mean、EM是聚類(lèi)算法。[單選題]87.隨機(jī)森林方法屬于()A)梯度下降優(yōu)化B)Bagging方法C)Boosting方法D)線(xiàn)性分類(lèi)答案:B解析:[單選題]88.下面哪個(gè)屬于映射數(shù)據(jù)到新的空間的方法?A)傅立葉變換B)特征加權(quán)C)漸進(jìn)抽樣D)維歸約答案:A解析:[單選題]89.在機(jī)器學(xué)習(xí)中,不屬于常用的沖突消解策略是()。A)投票法B)排序法C)元規(guī)則法D)加權(quán)法答案:D解析:常用的沖突消解策略有投票法、排序法、元規(guī)則法等。[單選題]90.下列機(jī)器學(xué)習(xí)算法中,不需要?dú)w一化處理的是()。A)DecisionTreeB)SVMC)K-meansD)LogisticRegression答案:A解析:DecisionTree屬于概率模型,不需要?dú)w一化處理;SVM、K-means和LogisticRegression之類(lèi)的最優(yōu)化問(wèn)題需要?dú)w一化處理。[單選題]91.有關(guān)k-means下列說(shuō)法正確的是()A)可以確定樣本屬性的重要性B)可以處理規(guī)則分布數(shù)據(jù)的聚類(lèi)C)適合任意數(shù)據(jù)集的分組D)聚類(lèi)的結(jié)果與初始選擇的假設(shè)聚類(lèi)中心無(wú)關(guān)答案:B解析:有很大的關(guān)系,聚類(lèi)中心影響聚類(lèi)結(jié)果[單選題]92.當(dāng)訓(xùn)練數(shù)據(jù)很多時(shí),一種更為強(qiáng)大的結(jié)合策略是使用(__),通過(guò)另一個(gè)學(xué)習(xí)器來(lái)進(jìn)行結(jié)合。A)投票法B)平均法C)學(xué)習(xí)法D)排序法答案:C解析:[單選題]93.假設(shè),下圖是邏輯回歸的代價(jià)函數(shù)alt="">現(xiàn)在,圖中有多少個(gè)局部最小值?A)1B)2C)3、D)4答案:D解析:圖中總共有四個(gè)凹的地方,故有四個(gè)局部最小值。[單選題]94.LSTM調(diào)整參數(shù)時(shí)信息的傳播方向是()。A)后向傳播B)前向傳播C)雙向傳播D)跳躍傳播答案:A解析:[單選題]95.(__)是M-P神經(jīng)元,也稱(chēng)為?閾值邏輯單元?。A)輸入層B)輸出層C)第一層D)第二層答案:B解析:[單選題]96.拆分和合并圖像通道的方法為()。A)Split()和merge()B)split()和merge()C)split()和Merge()D)Split()和merge()答案:B解析:[單選題]97.以下對(duì)大數(shù)據(jù)4V特性描述不正確的是()。A)在大數(shù)據(jù)中,價(jià)值與數(shù)據(jù)總量的大小不存在線(xiàn)性關(guān)系B)數(shù)據(jù)量大是相對(duì)計(jì)算與存儲(chǔ)能力而定的C)Volume是指數(shù)據(jù)大D)大數(shù)據(jù)中所說(shuō)的?速度?包括兩種:增長(zhǎng)速度和處理速度答案:C解析:[單選題]98.下面哪個(gè)操作肯定是寬依賴(lài)()A)mapB)flatMapC)reduceByKeyD)sample答案:C解析:[單選題]99.感知器(Perceptron)執(zhí)行任務(wù)的順序是1初始化隨機(jī)權(quán)重2得到合理權(quán)重值3如果預(yù)測(cè)值和輸出不一致,改變權(quán)重4對(duì)一個(gè)輸入樣本,計(jì)算輸出值A(chǔ))43②①B)①②34C)134②D)14③②答案:D解析:[單選題]100.一般來(lái)說(shuō),NumPy,Matplotlib,Pandas是數(shù)據(jù)分析和展示的3個(gè)常用包,下列選項(xiàng)中說(shuō)法不正確的是()A)Pandas包。僅支持一維和二維數(shù)據(jù)分析,當(dāng)進(jìn)行多維數(shù)據(jù)分析時(shí)要使用NumPy包B)Matplotlib包支持多種數(shù)據(jù)展示,使用pyplot子庫(kù)即可C)NumPy包底層采用C語(yǔ)言實(shí)現(xiàn),因此運(yùn)行速度很快D)Pandas包也包含一些數(shù)據(jù)展示函數(shù),可以不使用Matplotlib包進(jìn)行數(shù)據(jù)展示答案:A解析:[單選題]101.密度聚類(lèi)方法充分考慮了樣本間的什么關(guān)系()A)范數(shù)距離B)集合運(yùn)算C)密度可達(dá)D)樣本與集合運(yùn)算答案:C解析:[單選題]102.一般,K-NN最近鄰方法在什么情況下效果好()A)樣本較多但典型性不好B)樣本較少但典型性較好C)樣本呈團(tuán)狀分布D)樣本呈鏈狀分布注:最近鄰屬于分類(lèi)算法,樣本多而且典型性不好容易造成分類(lèi)錯(cuò)誤(尤其是在分類(lèi)邊界上的樣本點(diǎn))。樣本分布對(duì)聚類(lèi)算法的影響較大。答案:B解析:[單選題]103.調(diào)用sklearn中的train_test_split函數(shù)將數(shù)據(jù)集切分為訓(xùn)練集和測(cè)試集。訓(xùn)練集與測(cè)試集比例為6:4。最合適的代碼為:A)X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.6)B)X_train,y_train,X_test,y_test=train_test_split(X,y,test_size=0.6)C)X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.4)D)y_train,y_test,X_train,X_test=train_test_split(X,y,test_size=0.4)答案:C解析:[單選題]104.下面不屬于探索性統(tǒng)計(jì)中常用集中趨勢(shì)統(tǒng)計(jì)量的是(__)。A)和B)方差C)平均數(shù)D)四分位數(shù)答案:B解析:[單選題]105.下列哪種算法可以用神經(jīng)網(wǎng)絡(luò)構(gòu)建?1K-NN最近鄰算法;2線(xiàn)性回歸;3邏輯回歸。A)1and2B)2and3C)1,2and3D)Noneoftheabove答案:B解析:1.KNN是關(guān)于距離的學(xué)習(xí)算法,沒(méi)有任何參數(shù),所以無(wú)法用神經(jīng)網(wǎng)絡(luò)構(gòu)建。2.神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)最小二乘法。3.邏輯回歸相當(dāng)于一層的神經(jīng)網(wǎng)絡(luò)。[單選題]106.給定訓(xùn)練樣例集,設(shè)法將樣例投影到一條直線(xiàn)上,使得同類(lèi)樣例的投影點(diǎn)盡可能接近、異類(lèi)樣例的投影點(diǎn)盡可能遠(yuǎn)離,這說(shuō)的是()算法。A)PCAB)SVMC)K-meansD)LDA答案:D解析:[單選題]107.在線(xiàn)性回歸中,(__)試圖找到一條直線(xiàn),使所有樣本到直線(xiàn)上的歐氏距離之和最小。A)最小二乘法B)拉格朗日乘子法C)歐氏距離D)均方誤差答案:A解析:[單選題]108.不屬于判別式模型的是()。A)決策樹(shù)B)BP神經(jīng)網(wǎng)絡(luò)C)支持向量機(jī)D)貝葉斯答案:D解析:[單選題]109.下列極大似然估計(jì)描述錯(cuò)誤的是A)極大似然估計(jì)先假定其具有某種確定的概率分布形式;B)極大似然估計(jì)沒(méi)有確定的概率分布形式;C)概率模型的訓(xùn)練過(guò)程就是參數(shù)估計(jì);D)貝葉斯學(xué)派認(rèn)為參數(shù)本身也有分布,是未觀察的隨機(jī)變量;答案:B解析:[單選題]110.2.JC系數(shù)的度量公式()A)a/b+cB)a/a+bC)b/b+cD)a/a+b+c答案:D解析:[單選題]111.k-NN最近鄰方法在什么情況下效果較好?A)樣本較多但典型性不好B)樣本較少但典型性好C)樣本呈團(tuán)狀分布D)樣本呈鏈狀分布答案:B解析:K近鄰算法主要依靠的是周?chē)狞c(diǎn),因此如果樣本過(guò)多,則難以區(qū)分,典型性好的容易區(qū)分。樣本呈團(tuán)狀或鏈狀都具有迷惑性,這樣kNN就發(fā)揮不出其求近鄰的優(yōu)勢(shì)了,整體樣本應(yīng)該具有典型性好,樣本較少,比較適宜。[單選題]112.半監(jiān)督學(xué)習(xí)四大范型不含有?A)基于分歧方法B)半監(jiān)督SVMC)生成式方法D)半監(jiān)督聚類(lèi)答案:D解析:[單選題]113.關(guān)于貝葉斯網(wǎng)的學(xué)習(xí)描述錯(cuò)誤的為A)貝葉斯的學(xué)習(xí)過(guò)程為對(duì)訓(xùn)練樣本計(jì)數(shù);B)估計(jì)出每個(gè)結(jié)點(diǎn)的條件概率;C)網(wǎng)絡(luò)結(jié)構(gòu)為已知;D)評(píng)分搜索為求解的常用辦法;答案:C解析:[單選題]114.6.AGNES是一種()聚合策略的層次聚類(lèi)算法A)A自頂向下B)自底向上C)由最近樣本決定D)D最遠(yuǎn)樣本決定答案:B解析:[單選題]115.以下對(duì)于t-SNE和PCA的陳述中哪個(gè)是正確的?A)t-SNE是線(xiàn)性的,而PCA是非線(xiàn)性的B)t-SNE和PCA都是線(xiàn)性的C)t-SNE和PCA都是非線(xiàn)性的D)t-SNE是非線(xiàn)性的,而PCA是線(xiàn)性的答案:D解析:[單選題]116.以下哪一種方法最適合在n(n>1)維空間中做異常點(diǎn)檢測(cè)。A)正態(tài)分布圖B)盒圖C)馬氏距離D)散點(diǎn)圖答案:C解析:馬氏距離是是一種有效的計(jì)算兩個(gè)未知樣本集的相似度的多元計(jì)量方法,以卡方分布為基礎(chǔ),表示數(shù)據(jù)的協(xié)方差距離。與歐氏距離不同的是它考慮到各種特性之間的聯(lián)系(例如:一條關(guān)于身高的信息會(huì)帶來(lái)一條關(guān)于體重的信息,因?yàn)閮烧呤顷P(guān)聯(lián)的)。因此馬氏距離常用于多元異常值檢測(cè)。[單選題]117.進(jìn)行機(jī)器學(xué)習(xí)訓(xùn)練過(guò)程使用的接口API是:A)fit()B)predict()C)learn()D)train()答案:A解析:[單選題]118.以下()包提供了靈活高效的groupby功能,它使操作者能以一種自然的方式對(duì)數(shù)據(jù)進(jìn)行切片,切塊,摘要等操作。A)PandasB)MatplotlibC)NumPyD)sklearn答案:A解析:[單選題]119.下列關(guān)于分類(lèi)器的說(shuō)法中不正確的是()A)SVM的目標(biāo)是找到使得訓(xùn)練數(shù)據(jù)盡可能分開(kāi)且分類(lèi)間隔最大的超平面,屬于結(jié)構(gòu)風(fēng)險(xiǎn)最小化B)NaiveBayes是一種特殊的Bayes分類(lèi)器,其一個(gè)假定是每個(gè)變量相互條件獨(dú)立。C)Xgboost是一種優(yōu)秀的集成算法,其優(yōu)點(diǎn)包括速度快、對(duì)異常值不敏感、支持自定義損失函數(shù)等等D)隨機(jī)森林中列采樣的過(guò)程保證了隨機(jī)性,所以就算不剪枝,也不容易出現(xiàn)過(guò)擬合。答案:C解析:[單選題]120.要想創(chuàng)建一個(gè)3*4的數(shù)組,下列選項(xiàng)正確的是()。A)np.arange(12).reshape(4,3)B)np.arange(12).reshape(3,4)C)np.arange(7).reshape(4,3)D)np.arange(7).reshape(3,4)答案:B解析:[單選題]121.從學(xué)科定位來(lái)看,數(shù)據(jù)科學(xué)處于(__)三大領(lǐng)域的重疊之處。A)統(tǒng)計(jì)學(xué)B)黑客精神與技能C)數(shù)學(xué)與統(tǒng)計(jì)知識(shí)D)領(lǐng)域務(wù)實(shí)知識(shí)答案:A解析:[單選題]122.參數(shù)估計(jì)又可分為()和區(qū)間估計(jì)。A)線(xiàn)型估計(jì)B)點(diǎn)估計(jì)C)回歸估計(jì)D)二維分析答案:B解析:參數(shù)估計(jì)是根據(jù)從總體中抽取的隨機(jī)樣本來(lái)估計(jì)總體分布中未知參數(shù)的過(guò)程。從估計(jì)形式看,區(qū)分為點(diǎn)估計(jì)與區(qū)間估計(jì)。[單選題]123.話(huà)題模型中的幾個(gè)概念不含有?A)詞B)句C)文檔D)話(huà)題答案:B解析:[單選題]124.在創(chuàng)建ndarray對(duì)象時(shí),可以使用()參數(shù)來(lái)指定元素類(lèi)型。A)dtypeB)dtypesC)typeD)types答案:A解析:[單選題]125.下列數(shù)據(jù)集適用于隱馬爾可夫模型的是?A)基因數(shù)據(jù)B)影評(píng)數(shù)據(jù)C)股票市場(chǎng)價(jià)格D)以上所有答案:D解析:本題考查的是隱馬爾可夫模型適用于解決哪類(lèi)問(wèn)題。隱馬爾可夫模型(HiddenMarkovModel,HMM)是關(guān)于時(shí)序的概率模型,描述一個(gè)隱藏的馬爾可夫鏈隨機(jī)生成不可觀測(cè)的狀態(tài)隨機(jī)序列,再由各個(gè)狀態(tài)生成一個(gè)觀察而產(chǎn)生觀測(cè)隨機(jī)序列的過(guò)程。因此,隱馬爾可夫模型適用于解決時(shí)間序列問(wèn)題。[單選題]126.在多元線(xiàn)性回歸模型中,若某個(gè)解釋變量對(duì)其余解釋變量的判定系數(shù)接近于1,則表明模型中存在()。A)異方差B)序列相關(guān)C)多重共線(xiàn)性D)高擬合優(yōu)度答案:C解析:[單選題]127.現(xiàn)有4個(gè)同時(shí)到達(dá)的作業(yè)J1,J2,J3和J4,它們的執(zhí)行時(shí)間分別是1小時(shí),3小時(shí),5小時(shí),7小時(shí),系統(tǒng)按單道方式運(yùn)行且采用短作業(yè)優(yōu)先算法,則平均周轉(zhuǎn)時(shí)間是()小時(shí)A)4B)5C)6D)7.5答案:D解析:[單選題]128.多元線(xiàn)性回歸的訓(xùn)練樣本由(__)個(gè)屬性描述。A)一B)二C)三D)多答案:D解析:[單選題]129.下列表述中,在k-fold交叉驗(yàn)證中關(guān)于選擇K說(shuō)法正確的是A)較大的K并不總是好的,選擇較大的K可能需要較長(zhǎng)的時(shí)間來(lái)評(píng)估你的結(jié)果B)相對(duì)于期望誤差來(lái)說(shuō),選擇較大的K會(huì)導(dǎo)致低偏差(因?yàn)橛?xùn)練folds會(huì)變得與整個(gè)數(shù)據(jù)集相似)C)在交叉驗(yàn)證中通過(guò)最小化方差法來(lái)選擇K值D)以上都正確答案:D解析:[單選題]130.(__)是指抽取情感文本中有價(jià)值的情感信息,其要判斷一個(gè)單詞或詞組在情感表達(dá)中扮演的角色,包括情感表達(dá)者識(shí)別,評(píng)價(jià)對(duì)象識(shí)別,情感觀點(diǎn)詞識(shí)別等任務(wù)。A)情感分類(lèi)B)情感檢索C)情感抽取D)情感分析答案:C解析:[單選題]131.概念分層圖是()圖A)無(wú)向無(wú)環(huán)B)有向無(wú)環(huán)C)有向有環(huán)D)無(wú)向有環(huán)答案:B解析:[單選題]132.(__)算法要求基學(xué)習(xí)器能對(duì)特定的數(shù)據(jù)分布進(jìn)行學(xué)習(xí),在訓(xùn)練過(guò)程的每一輪中,根據(jù)樣本分布為每個(gè)訓(xùn)練樣本重新賦予一個(gè)權(quán)重。A)BoostingB)支持向量機(jī)C)貝葉斯分類(lèi)器D)神經(jīng)網(wǎng)絡(luò)答案:A解析:[單選題]133.在統(tǒng)計(jì)語(yǔ)言模型中,通常以概率的形式描述任意語(yǔ)句的可能性,利用最大相似度估計(jì)進(jìn)行度量,對(duì)于一些低頻詞,無(wú)論如何擴(kuò)大訓(xùn)練數(shù)據(jù),出現(xiàn)的頻度仍然很低,下列哪種方法可以解決這一問(wèn)題()A)一元切分B)一元文法C)數(shù)據(jù)平滑D)N元文法答案:C解析:[單選題]134.被廣泛認(rèn)為AI誕生的標(biāo)志的是(A)計(jì)算機(jī)的產(chǎn)生B)圖靈機(jī)的出現(xiàn)C)達(dá)特茅斯會(huì)議D)神經(jīng)網(wǎng)絡(luò)的提出答案:C解析:[單選題]135.()屬于無(wú)監(jiān)督學(xué)習(xí)A)分類(lèi)B)回歸C)聚類(lèi)D)決策樹(shù)模型答案:C解析:[單選題]136.(__)是決策樹(shù)學(xué)習(xí)算法對(duì)付過(guò)擬合的主要手段。A)剪枝B)連續(xù)值處理C)信息增益D)數(shù)據(jù)預(yù)處理答案:A解析:[單選題]137.AUC是衡量()模型優(yōu)劣的一種評(píng)價(jià)指標(biāo)。A)回歸B)分類(lèi)C)二分類(lèi)D)聚類(lèi)答案:C解析:[單選題]138.以下關(guān)于學(xué)習(xí)率說(shuō)法錯(cuò)誤的是()。A)學(xué)習(xí)率太大會(huì)導(dǎo)致無(wú)法收斂B)學(xué)習(xí)率必須是固定不變的C)學(xué)習(xí)率的選擇不能太大也不能太小D)學(xué)習(xí)率太小會(huì)使得算法陷入局部極小點(diǎn)答案:B解析:[單選題]139.集成學(xué)習(xí)中,每個(gè)基分類(lèi)器的正確率的最低要求()A)50%以上B)60%以上C)70%以上D)80%以上答案:A解析:[單選題]140.假設(shè)你需要調(diào)整超參數(shù)來(lái)最小化代價(jià)函數(shù)(costfunction),會(huì)使用下列哪項(xiàng)技術(shù)?A)窮舉搜索B)隨機(jī)搜索C)Bayesian優(yōu)化D)都可以答案:D解析:[單選題]141.(__)由兩層神經(jīng)元組成。A)神經(jīng)系統(tǒng)B)神經(jīng)網(wǎng)絡(luò)C)神經(jīng)元D)感知機(jī)答案:D解析:[單選題]142.()的主要目的是提升數(shù)據(jù)質(zhì)量,將數(shù)據(jù)形態(tài)更加符合某一算法需求,進(jìn)而提升數(shù)據(jù)計(jì)算的效果和降低其復(fù)雜度。A)數(shù)據(jù)加工B)數(shù)據(jù)分析C)數(shù)據(jù)挖掘D)數(shù)據(jù)處理答案:A解析:[單選題]143.下圖表示了哪種機(jī)器學(xué)習(xí)的算法思想A)K近鄰算法B)分類(lèi)C)回歸D)聚類(lèi)答案:D解析:[單選題]144.多分類(lèi)學(xué)習(xí)中,最經(jīng)典的三種拆分策略不包括()。A)一對(duì)一B)一對(duì)其余C)一對(duì)多D)多對(duì)多答案:A解析:多分類(lèi)學(xué)習(xí)中,最經(jīng)典的三種拆分策略包括一對(duì)多、多對(duì)多、一對(duì)其余。[單選題]145.?當(dāng)數(shù)據(jù)分布不平衡時(shí),我們可采取的措施不包括()。A)對(duì)數(shù)據(jù)分布較多的類(lèi)別賦予更大的權(quán)重B)對(duì)數(shù)據(jù)分布較多的類(lèi)別欠采樣C)對(duì)數(shù)據(jù)分布較少的類(lèi)別過(guò)采樣D)對(duì)數(shù)據(jù)分布較少的類(lèi)別賦予更大的權(quán)重答案:A解析:[單選題]146.構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入。下列哪一種架構(gòu)有反饋連接?class="fr-ficfr-dibcursor-hover"A)循環(huán)神經(jīng)網(wǎng)絡(luò)B)卷積神經(jīng)網(wǎng)絡(luò)C)限制玻爾茲曼機(jī)D)都不是答案:A解析:[單選題]147.考察一個(gè)由三個(gè)卷積層組成的CNN:kernel=3×3,stride=2,padding=SAME。最低層輸出100個(gè)特征映射(featuremap),中間層200個(gè)特征映射,最高層400個(gè)特征映射。輸入是200×300的RGB圖片,總參數(shù)的數(shù)量是多少?()A)903400B)2800C)180200D)720400答案:A解析:[單選題]148.以下哪個(gè)不是常見(jiàn)的決策樹(shù)算法A)ID3B)C4.5C)CARTD)DBSCAN答案:D解析:[單選題]149.(__)是從海量文本中查詢(xún)到觀點(diǎn)信息,根據(jù)主題相關(guān)度和觀點(diǎn)傾向性對(duì)結(jié)果排序。A)情感分類(lèi)B)情感檢索C)情感抽取D)情感分析答案:B解析:[單選題]150.下列哪個(gè)方法不屬于情感分析的評(píng)測(cè)?A)COAE評(píng)測(cè)B)cifar10數(shù)據(jù)集評(píng)測(cè)C)CCFTCCI評(píng)測(cè)D)TAC評(píng)測(cè)答案:B解析:[單選題]151.Matplotlib主要是用哪種語(yǔ)言編寫(xiě)的?()正確回答A)PythonB)javaC)C++D)C答案:A解析:[單選題]152.不是專(zhuān)家系統(tǒng)組成部分的是______A)用戶(hù)B)綜合數(shù)據(jù)庫(kù)C)推理機(jī)D)知識(shí)庫(kù)答案:A解析:[單選題]153.IDF采用了IWF的幾次平方?()A)一次B)二次C)三次D)四次答案:A解析:[單選題]154.下面的代碼中,不是用來(lái)用來(lái)評(píng)價(jià)所訓(xùn)練模型的預(yù)測(cè)準(zhǔn)確性的是:A)fromsklearn.metricsimportmean_absolute_errorB)fromsklearn.metricsimportmean_squared_errorC)fromsklearn.model_selectionimporttrain_test_splitD)fromsklearn.metricsimportaccuracy_score答案:C解析:[單選題]155.下面那個(gè)決策邊界是神經(jīng)網(wǎng)絡(luò)生成的?A)AB)DC)CD)BE)以上都有答案:E解析:神經(jīng)網(wǎng)絡(luò)可以逼近方式擬合任意函數(shù),所以以上圖都可能由神經(jīng)網(wǎng)絡(luò)通過(guò)監(jiān)督學(xué)習(xí)訓(xùn)練得到?jīng)Q策邊界。第2部分:多項(xiàng)選擇題,共49題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]156.以下各項(xiàng)均是針對(duì)數(shù)據(jù)倉(cāng)庫(kù)的不同說(shuō)法,你認(rèn)為正確的有()A)數(shù)據(jù)倉(cāng)庫(kù)就是數(shù)據(jù)庫(kù)B)數(shù)據(jù)倉(cāng)庫(kù)是一切商業(yè)智能系統(tǒng)的基礎(chǔ)C)數(shù)據(jù)倉(cāng)庫(kù)是面向業(yè)務(wù)的,支持聯(lián)機(jī)事務(wù)處理(OLTP)D)數(shù)據(jù)倉(cāng)庫(kù)支持決策而非事務(wù)處理答案:BD解析:[多選題]157.根據(jù)訓(xùn)練數(shù)據(jù)是否擁有標(biāo)記信息,學(xué)習(xí)任務(wù)可大致分為(___)和(___)。A)監(jiān)督學(xué)習(xí)B)訓(xùn)練集C)無(wú)監(jiān)督學(xué)習(xí)D)測(cè)試集答案:AC解析:[多選題]158.以下對(duì)層次聚類(lèi)描述正確的()A)監(jiān)督學(xué)習(xí)B)自頂向下尋找最優(yōu)劃分C)集成學(xué)習(xí)D)自底向上尋找最優(yōu)合并答案:BD解析:[多選題]159.決策樹(shù)在()情況下會(huì)導(dǎo)致遞歸返回。A)當(dāng)前節(jié)點(diǎn)包含的樣本全屬于同一類(lèi)B)當(dāng)前屬性集為空C)當(dāng)前節(jié)點(diǎn)包含的樣本集合為空D)所有樣本在所有屬性上取值相同答案:ABCD解析:決策樹(shù)的生成是一個(gè)遞歸過(guò)程。在決策樹(shù)基本算法中,有三種情形會(huì)導(dǎo)致遞歸返回:①當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類(lèi)別,無(wú)須劃分;②當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同,無(wú)法劃分;③當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,不能劃分。[多選題]160.基于統(tǒng)計(jì)的分詞方法的優(yōu)點(diǎn)有(__)。A)分速度快B)效率高C)結(jié)合上下文識(shí)別生詞D)消除歧義答案:ABCD解析:[多選題]161.__是對(duì)關(guān)于單個(gè)學(xué)習(xí)器泛化性能的假設(shè)進(jìn)行檢驗(yàn)。A)二項(xiàng)檢驗(yàn)B)t檢驗(yàn)C)交叉驗(yàn)證t檢驗(yàn)D)McNemar檢驗(yàn)答案:AB解析:[多選題]162.為大數(shù)據(jù)提供基礎(chǔ)設(shè)施服務(wù),有(__)和數(shù)據(jù)計(jì)算、數(shù)據(jù)管理與監(jiān)控、集群服務(wù)、眾包等。A)數(shù)據(jù)存儲(chǔ)B)數(shù)據(jù)加工C)數(shù)據(jù)治理D)app開(kāi)發(fā)答案:ABCD解析:[多選題]163.下列屬于Apriori算法特定的是(__)。A)使用先驗(yàn)性質(zhì),大大提高了頻繁項(xiàng)集逐層產(chǎn)生的效率B)簡(jiǎn)單易理解C)數(shù)據(jù)集要求高D)擴(kuò)展性較好,可以并行計(jì)算答案:ABD解析:[多選題]164.ID3算法從功能上看有哪兩點(diǎn)明顯不足?A)實(shí)例各特征的取值必須是連續(xù)實(shí)數(shù)值,而不能是離散值B)實(shí)例各特征的取值必須是離散值,而不能是連續(xù)實(shí)數(shù)值C)預(yù)測(cè)目標(biāo)值只能為連續(xù)實(shí)數(shù)值,不能是離散值,因此只能處理回歸問(wèn)題,不能處理分類(lèi)問(wèn)題D)預(yù)測(cè)目標(biāo)值只能為離散值,不能是連續(xù)實(shí)數(shù)值,因此只能處理分類(lèi)問(wèn)題,不能處理回歸問(wèn)題答案:BD解析:[多選題]165.自助法在__時(shí)很有用。A)數(shù)據(jù)集較小B)數(shù)據(jù)集較大C)難以劃分有效訓(xùn)練集D)難以劃分有效測(cè)試集答案:ACD解析:[多選題]166.許多功能更為強(qiáng)大的非線(xiàn)性模型可在線(xiàn)性模型基礎(chǔ)上通過(guò)引入()而得。A)層級(jí)結(jié)構(gòu)B)高維映射C)降維D)分類(lèi)答案:AB解析:[多選題]167.下列哪些是面向?qū)ο蠹夹g(shù)的特征()A)封裝B)繼承C)多態(tài)D)分布性答案:ABC解析:[多選題]168.聚類(lèi)性能度量外部指標(biāo)包括()。A)Jaccard系數(shù)B)FM指數(shù)C)Dunn指數(shù)D)Rand指數(shù)答案:ABD解析:常用的聚類(lèi)性能度量外部指標(biāo)包括Jaccard系數(shù)、FM指數(shù)、Rand指數(shù)。[多選題]169.精確推斷方法通常需要很大的計(jì)算開(kāi)銷(xiāo),因此在現(xiàn)實(shí)應(yīng)用中近似推斷方法更為常用。近似推斷方法兩類(lèi)的典型代表有?A)MCMC采樣B)變分推斷C)UUC采樣D)拆解推測(cè)答案:AB解析:[多選題]170.Adaboost方法中,需要迭代調(diào)整的兩個(gè)重要參數(shù)是()A)樣本權(quán)重B)分類(lèi)器權(quán)重C)梯度變化率D)梯度答案:AB解析:[多選題]171.數(shù)據(jù)脫敏必須滿(mǎn)足以下要求(__)。A)單向性B)無(wú)殘留C)易于實(shí)現(xiàn)D)雙向性答案:ABC解析:[多選題]172.處理高維數(shù)據(jù)的兩大主流技術(shù)有哪些A)降維B)歸一化C)特征抽取D)特征選擇答案:AD解析:[多選題]173.下列關(guān)于L1正則化與L2正則化描述正確的是(__)。A)L1范數(shù)正則化有助于降低過(guò)擬合風(fēng)險(xiǎn)B)L2范數(shù)正則化有助于降低過(guò)擬合風(fēng)險(xiǎn)C)L1范數(shù)正則化比L2范數(shù)正則化更有易于獲得稀疏解D)L2范數(shù)正則化比L1范數(shù)正則化更有易于獲得稀疏解答案:ABC解析:[多選題]174.梯度提升的步驟是()A)首先用簡(jiǎn)單的模型對(duì)數(shù)據(jù)進(jìn)行建模并分析數(shù)據(jù)中的錯(cuò)誤。B)這些錯(cuò)誤表示難以用簡(jiǎn)單模型擬合的數(shù)據(jù)點(diǎn)。C)然后對(duì)于以后的模型,我們特別關(guān)注那些難以擬合的數(shù)據(jù)點(diǎn),以使他們正確D)我們通過(guò)隨機(jī)挑選部分樣本再次進(jìn)行樹(shù)的構(gòu)建答案:ABC解析:[多選題]175.以下那些方法不常用于灰度內(nèi)插值。()A)最近鄰內(nèi)插法B)三次內(nèi)插法C)雙線(xiàn)性?xún)?nèi)插值法D)三次樣條插值法答案:ABD解析:[多選題]176.ZooKeeper節(jié)點(diǎn)類(lèi)型是()A)持久節(jié)點(diǎn)(PERSISTENT)B)持久順序節(jié)點(diǎn)(PERSISTENT_SEQUENTIAL)C)臨時(shí)節(jié)點(diǎn)(EPHEMERAL)D)臨時(shí)順序節(jié)點(diǎn)(EPHEMERAL_SEQUENTIAL)答案:ABCD解析:[多選題]177.數(shù)據(jù)科學(xué)是()。A)新興科學(xué)B)交叉性學(xué)科C)獨(dú)立學(xué)科D)一整套知識(shí)體系答案:ABCD解析:[多選題]178.下列關(guān)于隨機(jī)森林說(shuō)法正確的是(__)。A)隨機(jī)森林是Bagging的一個(gè)擴(kuò)展變體B)隨機(jī)森林在決策樹(shù)的訓(xùn)練過(guò)程中引入了隨機(jī)屬性選擇C)隨機(jī)森林簡(jiǎn)單且容易實(shí)現(xiàn)D)隨機(jī)森林計(jì)算開(kāi)銷(xiāo)大答案:ABC解析:[多選題]179.我們想要減少數(shù)據(jù)集中的特征數(shù)即降維,以下方案合適的是()。A)使用前向特征選擇方法B)使用后向特征排除方法C)我們先,把所有特征都使用,去訓(xùn)練一個(gè)模型,得到測(cè)試集上的表現(xiàn)。然后我們?nèi)サ粢粋€(gè)特征,再去訓(xùn)練,用交叉驗(yàn)證看看測(cè)試集上的表現(xiàn)。如果表現(xiàn)比原來(lái)還要好,我們可以去除這個(gè)特征D)查看相關(guān)性表,去除相關(guān)性最高的一些特征答案:ABCD解析:前向特征選擇方法和后向特征排除方法是特征選擇的常用方法。如果前向特征選擇方法和后向特征排除方法在大數(shù)據(jù)上不活用,可以用這里C中方法。用相關(guān)性的度量去刪除多余特征也是一個(gè)可行的方法。[多選題]180.指出下面正確的說(shuō)法?A)基于像素的圖像增強(qiáng)方法是一種線(xiàn)性灰度變換;B)基于像素的圖像增強(qiáng)方法是基于像素領(lǐng)域的圖像增強(qiáng)方法的一種;C)基于頻域的圖像增強(qiáng)方法由于常用到傅里葉變換和傅里葉反變換,所以總比基于圖像域的方法計(jì)算復(fù)雜較高;D)基于頻域的圖像增強(qiáng)方法可以獲得和基于空域的圖像增強(qiáng)方法同樣的圖像增強(qiáng)效果;答案:BD解析:[多選題]181.圖像識(shí)別的精度會(huì)受到以下那些因素的影響。A)數(shù)據(jù)類(lèi)別數(shù)量不平衡B)輸入圖像尺寸不同C)圖像中存在類(lèi)標(biāo)之外的環(huán)境干擾D)圖像中存在隨機(jī)噪聲答案:ACD解析:[多選題]182.要對(duì)受孤立噪聲點(diǎn)影響的圖像進(jìn)行平滑濾波。不能達(dá)到效果的濾波器是?A)中值濾波器:B)領(lǐng)域平均濾波器;C)高頻增強(qiáng)濾波器;D)線(xiàn)性銳化濾波器;答案:CD解析:[多選題]183.對(duì)于變換矩陣的平移矩陣,以下說(shuō)法正確的是()?A)平移矩陣屬于仿射變換B)平移矩陣可逆C)平移矩陣是正交矩陣D)平移矩陣屬于線(xiàn)性變換答案:AB解析:[多選題]184.數(shù)據(jù)產(chǎn)品的主要特征有(__)。A)數(shù)據(jù)為中心B)多樣性C)層次性D)增值性答案:ABCD解析:[多選題]185.下列是caffe支持的loss優(yōu)化的方法的是()A)AdamB)SGDC)AdaDeltaD)Nesterov答案:ABCD解析:[多選題]186.數(shù)據(jù)產(chǎn)品的存在和表現(xiàn)形式有(__)和數(shù)據(jù)類(lèi)產(chǎn)品。A)情感類(lèi)產(chǎn)品B)信息類(lèi)產(chǎn)品C)知識(shí)類(lèi)產(chǎn)品D)智慧類(lèi)產(chǎn)品答案:BCD解析:[多選題]187.同題15所示無(wú)向圖,它的極大團(tuán)包括()A){B,C,D}B){A,B}C){A,B,C}D){A,B,C,D}答案:AC解析:[多選題]188.現(xiàn)在假設(shè)負(fù)樣本量:正樣本量=20:1,下列哪些方法可以處理這種不平衡的情況?()A)直接訓(xùn)練模型,預(yù)測(cè)的時(shí)候調(diào)節(jié)閾值B)下采樣對(duì)少樣本進(jìn)行擴(kuò)充,以增加正樣本數(shù)量C)隨機(jī)降采樣負(fù)樣本D)訓(xùn)練過(guò)程中,增加負(fù)樣本的權(quán)重答案:ABC解析:[多選題]189.下列可以用來(lái)評(píng)估線(xiàn)性回歸模型的指標(biāo)有()。A)R-SquaredB)AdjustedR-SquaredC)FStatisticsD)RMSE/MSE/MAE答案:ABCD解析:R-Squared、AdjustedR-Squared、FStatistics和RMSE/MSE/MAE指標(biāo)均可以評(píng)估線(xiàn)性回歸模型。[多選題]190.關(guān)于累計(jì)BP算法和標(biāo)準(zhǔn)BP算法描述正確的是:-P105A)標(biāo)準(zhǔn)BP算法每次更新只針對(duì)單個(gè)樣例;B)標(biāo)準(zhǔn)BP算法對(duì)不同樣例進(jìn)行更新的效果可能出現(xiàn)?抵消?現(xiàn)象;C)累計(jì)BP算法針對(duì)累計(jì)誤差最小化,遍歷整個(gè)訓(xùn)練集才進(jìn)行參數(shù)更新;D)累計(jì)BP算法中累計(jì)誤差會(huì)持續(xù)下降很快;答案:ABC解析:[多選題]191.基于機(jī)器學(xué)習(xí)的情感分類(lèi)方法有(__)。A)貝葉斯分類(lèi)器B)支持向量機(jī)C)條件隨機(jī)場(chǎng)D)最大熵分類(lèi)器答案:ABCD解析:[多選題]192.機(jī)器學(xué)習(xí)算法按學(xué)習(xí)任務(wù)分類(lèi)可分為A)分類(lèi)B)回歸C)聚類(lèi)D)強(qiáng)化學(xué)習(xí)答案:ABC解析:[多選題]193.下列哪些是應(yīng)用于子集生成與搜索方面的技術(shù)A)分支限界法B)浮動(dòng)搜索法C)深度優(yōu)先搜索法D)正則化答案:AB解析:[多選題]194.從方法論角度,基于統(tǒng)計(jì)的數(shù)據(jù)分析方法可以分為(__)。A)基本分析方法B)自適應(yīng)分析方法C)元分析方法D)判別模型分析方法答案:AC解析:[多選題]195.知識(shí)圖譜構(gòu)建過(guò)程中涉及下列哪些內(nèi)容?()**A)知識(shí)獲取B)知識(shí)融合C)知識(shí)驗(yàn)證D)知識(shí)分析答案:ABC解析:[多選題]196.以下哪幾項(xiàng)屬于漢語(yǔ)未登錄詞的類(lèi)型?()A)存在于詞典但出現(xiàn)頻率較少的詞B)新出現(xiàn)的普通詞匯C)專(zhuān)有名詞D)專(zhuān)業(yè)名詞和研究領(lǐng)域名稱(chēng)答案:BCD解析:[多選題]197.TextRank首先會(huì)提取詞匯,形成();然后依據(jù)詞匯的關(guān)聯(lián),建立()。A)節(jié)點(diǎn)B)詞表C)鏈接D)句子答案:AC解析:[多選題]198.下面不屬于探索性統(tǒng)計(jì)中常用數(shù)據(jù)分布統(tǒng)計(jì)量的是(__)。A)殘差B)偏態(tài)C)峰態(tài)D)眾數(shù)答案:AD解析:[多選題]199.人工智能的研究包括()A)機(jī)器人B)語(yǔ)言識(shí)別C)圖像識(shí)別D)自然語(yǔ)言處理答案:ABCD解析:[多選題]200.信息熵(InformationEntropy)來(lái)度量隨機(jī)變量的不確定性。在使用一個(gè)特征切分?jǐn)?shù)據(jù)集后,可用來(lái)量化分類(lèi)不確定性降低的程度的具體指標(biāo)有?A)信息增益B)信息增益比C)信息熵匯總值D)信息熵累計(jì)值答案:AB解析:[多選題]201.下面屬于多元線(xiàn)性回歸的是?A)求得正方形面積與對(duì)角線(xiàn)之間的關(guān)系B)建立股票價(jià)格與成交量、換手率等因素之間的線(xiàn)性關(guān)系C)建立西瓜價(jià)格與西瓜大小、西瓜產(chǎn)地、甜度等因素之間的線(xiàn)性關(guān)系D)建立西瓜書(shū)銷(xiāo)量與時(shí)間之間的線(xiàn)性關(guān)系答案:BC解析:[多選題]202.用區(qū)域聚合法分割圖像,要求(__)。A)各個(gè)點(diǎn)在平面上相鄰接B)各個(gè)點(diǎn)是在平面上分散C)鄰接點(diǎn)的特征相似D)點(diǎn)與點(diǎn)之間無(wú)關(guān)答案:AC解析:[多選題]203.?垃圾郵件?數(shù)據(jù)集訓(xùn)練模型來(lái)識(shí)別垃圾郵件。用訓(xùn)練好的模型對(duì)測(cè)試集進(jìn)行預(yù)測(cè)。調(diào)用sklearn中的accuracy_score函數(shù)計(jì)算預(yù)測(cè)的準(zhǔn)確率:?jiǎn)未螠y(cè)試的準(zhǔn)確率為88.27%。A)樸素貝葉斯分類(lèi)器使用大量的訓(xùn)練數(shù)據(jù)可以顯著提高預(yù)測(cè)準(zhǔn)確率B)對(duì)于該分類(lèi)問(wèn)題,樸素貝葉斯分類(lèi)器預(yù)測(cè)準(zhǔn)確率不是很高C)樸素貝葉斯分類(lèi)器只需要使用很少的訓(xùn)練數(shù)據(jù)D)對(duì)于該分類(lèi)問(wèn)題,樸素貝葉斯分類(lèi)器預(yù)測(cè)準(zhǔn)確率很高E)依次使用了訓(xùn)練集比例70%,60%,…,10%來(lái)訓(xùn)練模型并測(cè)試模型性能。發(fā)現(xiàn)隨著訓(xùn)練集的減小和測(cè)試集增大,模型性能僅有極微小的改變。這說(shuō)明?答案:AD解析:[多選題]204.現(xiàn)在有M個(gè)桶,每桶都有N個(gè)乒乓球,乒乓球的顏色有K種,并且假設(shè)第i個(gè)桶第j種顏色的球個(gè)數(shù)為Cij,比例為Rij=Cij/N,現(xiàn)在要評(píng)估哪個(gè)桶的乒乓球顏色純度最高,下列哪種算法和描述是合理的?A)∑(N/K-Cij)(N/K-Cij)越小越純B)-∑Cij*LOG(Rij)越小越純C)∑(1-Rij*Rij)越小越純D)∑(1-Rij)*(1-Rij)越小越純E)∑(1-Rij)^2越小越純F)-∑Rij*LOG(Rij)越小越純答案:BCF解析:第3部分:判斷題,共33題,請(qǐng)判斷題目是否正確。[判斷題]205.對(duì)于大數(shù)據(jù)數(shù)據(jù)集而言,數(shù)據(jù)增強(qiáng)是一種有效提升數(shù)據(jù)質(zhì)量的手段。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]206.機(jī)器學(xué)習(xí)可以被設(shè)計(jì)用程序和算法自動(dòng)學(xué)習(xí)并進(jìn)行自我優(yōu)化,同時(shí),需要一定數(shù)量的訓(xùn)練數(shù)據(jù)集來(lái)構(gòu)建過(guò)往經(jīng)驗(yàn)?知識(shí)?A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]207.一般的,一棵決策樹(shù)包含一個(gè)根節(jié)點(diǎn)、若干個(gè)內(nèi)部結(jié)點(diǎn)和若干個(gè)葉結(jié)點(diǎn);葉結(jié)點(diǎn)對(duì)應(yīng)于決策結(jié)果,其他每個(gè)結(jié)點(diǎn)則對(duì)應(yīng)于一個(gè)屬性測(cè)試;根節(jié)點(diǎn)包含樣本全集。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]208.邏輯回歸是通過(guò)回歸的思想來(lái)解決分類(lèi)問(wèn)題的算法A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]209.一個(gè)事件的概率(odds)指該事件發(fā)生的概率與該事件不發(fā)生的概率的比值。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]210.邏輯回歸算法又叫做對(duì)數(shù)幾率回歸,作為一種分類(lèi)算法,在統(tǒng)計(jì)學(xué)中屬于廣義的線(xiàn)性模型A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]211.?獨(dú)依賴(lài)估計(jì)?是半樸素貝葉斯分類(lèi)器最常用的一種策略A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]212.在使用軟間隔支持向量機(jī)(SVM)時(shí),懲罰系數(shù)C為非負(fù)數(shù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]213.深度學(xué)習(xí)是基于RNN循環(huán)神經(jīng)網(wǎng)絡(luò)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]214.剪枝是決策樹(shù)學(xué)習(xí)算法對(duì)付?過(guò)擬合?的主要手段,決策樹(shù)剪枝的基本策略有?預(yù)剪枝?和?后剪枝?。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]215.Pandas中的索引對(duì)象是可以修改的。A)正確B)錯(cuò)誤答案:錯(cuò)解析:pandas中的索引對(duì)象是不可以修改的[判斷題]216.聚類(lèi)和分類(lèi)的區(qū)別在于用于聚類(lèi)的訓(xùn)練樣本的類(lèi)標(biāo)記是未知的。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]217.使用concat()函數(shù)合并數(shù)據(jù)時(shí),可以通過(guò)左連接和右連接這兩種方式連接。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]218.自助法每次隨機(jī)從數(shù)據(jù)集中挑選一個(gè)樣本并放回初始數(shù)據(jù)集中。__A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]219.一個(gè)貝葉斯網(wǎng)由結(jié)構(gòu)和參數(shù)兩個(gè)部分構(gòu)成A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]220.如果自變量X和因變量Y之間存在高度的非線(xiàn)性和復(fù)雜關(guān)系,那么樹(shù)模型很可能優(yōu)于經(jīng)典回歸方法。這個(gè)說(shuō)法正確嗎?A)正確B)錯(cuò)誤答案:對(duì)解析:本題考查的是回歸模型的選擇。當(dāng)數(shù)據(jù)是非線(xiàn)性的時(shí),經(jīng)典回歸模型泛化能力不強(qiáng),而基于樹(shù)的模型通常表現(xiàn)更好。[判斷題]221.預(yù)剪枝決策樹(shù)通常比后剪枝決策樹(shù)保留了更多的分支。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]222.read_html()函數(shù)可以讀取網(wǎng)頁(yè)中所有的數(shù)據(jù)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:read_html()方法只能讀取網(wǎng)頁(yè)中table標(biāo)簽中的數(shù)據(jù)[判斷題]223.dropna()方法可以刪除數(shù)據(jù)中所有的缺失值。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]224.用隨機(jī)梯度算法訓(xùn)練回歸模型前,把各特征縮放到相同尺寸的常用方法有歸一化、正則化、標(biāo)準(zhǔn)化A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]225.預(yù)剪枝決策樹(shù)其訓(xùn)練時(shí)間開(kāi)銷(xiāo)比后剪枝決策樹(shù)要大得多。__A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]226.支持向量機(jī)是一類(lèi)模型的統(tǒng)稱(chēng),通常包括線(xiàn)性可分支持向量機(jī)、線(xiàn)性支持向量機(jī)和非線(xiàn)性支持向量機(jī)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]227.梯度下降法中梯度方向是函數(shù)值下降最快方向。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]228.從計(jì)算角度上,

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論