人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷10)_第1頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷10)_第2頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷10)_第3頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷10)_第4頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷10)_第5頁
已閱讀5頁,還剩21頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

試卷科目:人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷10)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)第1部分:單項(xiàng)選擇題,共62題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.構(gòu)建回歸樹的時(shí)間復(fù)雜度最重要的因素是()A)特征中類別的個數(shù)B)label列值域C)樣本總量答案:A解析:[單選題]2.如果一個SVM模型出現(xiàn)欠擬合,那么()能解決這一問題。A)增大懲罰參數(shù)CB)減小懲罰參數(shù)CC)減小核系數(shù)(gamma參數(shù))答案:A解析:SVM模型出現(xiàn)欠擬合,表明模型過于簡單,需要提高模型復(fù)雜度。C越大,相應(yīng)的模型越復(fù)雜。[單選題]3.下面關(guān)于數(shù)據(jù)科學(xué)與統(tǒng)計(jì)學(xué)的關(guān)系描述不正確的有(__)。A)數(shù)據(jù)科學(xué)是統(tǒng)計(jì)學(xué)的主要基礎(chǔ)理論之一B)數(shù)據(jù)科學(xué)的工具往往來自于統(tǒng)計(jì)學(xué)C)統(tǒng)計(jì)學(xué)家在數(shù)據(jù)科學(xué)的發(fā)展中做出過突出貢獻(xiàn)D)第一篇以?數(shù)據(jù)科學(xué)?為標(biāo)題的論文是由統(tǒng)計(jì)學(xué)家完成的答案:A解析:[單選題]4.當(dāng)數(shù)據(jù)過大以至于無法在RAM中同時(shí)處理時(shí),哪種梯度下降方法更加有效?A)隨機(jī)梯度下降法(StochasticGradientDescent)B)不知道C)整批梯度下降法(FullBatchGradientDescent)D)都不是答案:A解析:[單選題]5.情感分析技術(shù)可以應(yīng)用于()A)股票市場分析B)互聯(lián)網(wǎng)輿情分析與監(jiān)控C)商品服務(wù)質(zhì)量評估D)以上都是答案:D解析:[單選題]6.決策論中,將?期望損失?稱為(__)。A)均值B)方差C)風(fēng)險(xiǎn)D)概率答案:C解析:[單選題]7.LVW屬于哪種特征選擇方法A)包裹式B)啟發(fā)式C)嵌入式D)過濾式答案:A解析:[單選題]8.根據(jù)操作的反饋總結(jié)更好的策略,這個過程抽象出來,就是A)強(qiáng)化訓(xùn)練B)加強(qiáng)訓(xùn)練C)強(qiáng)化學(xué)習(xí)D)加強(qiáng)學(xué)習(xí)答案:C解析:[單選題]9.下面關(guān)于數(shù)據(jù)科學(xué)中機(jī)器學(xué)習(xí)思路相關(guān)描述不正確的有(__)。A)測試集為輸入B)機(jī)器學(xué)習(xí)算法來學(xué)習(xí)C)用函數(shù)比較算法估計(jì)目標(biāo)函數(shù)D)現(xiàn)有或部分?jǐn)?shù)據(jù)為訓(xùn)練集答案:A解析:[單選題]10.線性模型試圖學(xué)得一個屬性的(__)來進(jìn)行預(yù)測的函數(shù)。A)線性組合B)非線性組合C)取值D)維度答案:A解析:[單選題]11.中值濾波對(__)的表現(xiàn)較差。A)泊松噪聲B)高斯噪聲C)乘性噪聲D)椒鹽噪聲答案:B解析:[單選題]12.以下關(guān)于機(jī)器學(xué)習(xí)的發(fā)展歷程描述錯誤的是(___)。A)要使機(jī)器具有智能,就必須設(shè)法使機(jī)器擁有知識B)從二十世紀(jì)七十年代中期開始,人工智能研究進(jìn)入了?知識期?C)二十世紀(jì)五十年代中后期,基于神經(jīng)網(wǎng)絡(luò)的?符號主義?學(xué)習(xí)開始出現(xiàn)D)二十世紀(jì)八十年代是機(jī)器學(xué)習(xí)稱為一個獨(dú)立的學(xué)科領(lǐng)域、各種機(jī)器學(xué)習(xí)技術(shù)百花初綻的時(shí)期答案:C解析:[單選題]13.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?A)K近鄰算法B)隨機(jī)森林C)神經(jīng)網(wǎng)絡(luò)D)都不屬于答案:C解析:[單選題]14.正則化的回歸分析,可以避免()A)線性化B)過擬合C)欠擬合D)連續(xù)值逼近答案:B解析:[單選題]15.位勢函數(shù)法的積勢函數(shù)K(x)的作用相當(dāng)于Bayes判決中的()A)后驗(yàn)概率B)先驗(yàn)概率C)類概率密度D)類概率密度與先驗(yàn)概率的和答案:A解析:勢函數(shù):主要用于確定分類平面,其思想源于物理D:積累勢函數(shù)K(x)的作用相當(dāng)于Bayes判決中的:后驗(yàn)概率、類概率密度與先驗(yàn)概率的乘積[單選題]16.關(guān)于ZooKeeper順序節(jié)點(diǎn)的說法正確的是()A)創(chuàng)建順序節(jié)點(diǎn)的命令為:create/testvalue1B)創(chuàng)建順序節(jié)點(diǎn)時(shí)不能連續(xù)執(zhí)行創(chuàng)建命令,否者報(bào)錯節(jié)點(diǎn)已存在C)通過順序節(jié)點(diǎn),可以創(chuàng)建分布式系統(tǒng)唯一IDD)順序節(jié)點(diǎn)的序號能無限增加答案:C解析:[單選題]17.控制論學(xué)派屬于()。[]*A)符號主義B)認(rèn)知主義C)聯(lián)結(jié)主義D)行為主義答案:D解析:[單選題]18.(__)是從海量文本中查詢到觀點(diǎn)信息,根據(jù)主題相關(guān)度和觀點(diǎn)傾向性對結(jié)果排序。A)情感分類B)情感檢索C)情感抽取D)情感分析答案:B解析:[單選題]19.卷積的過程是讓過濾器在圖像上()。A)縮放B)剪切C)鏡像對稱D)窗口滑動答案:D解析:[單選題]20.如果使用線性回歸模型,下列說法正確的是?A)檢查異常值是很重要的,因?yàn)榫€性回歸對離群效應(yīng)很敏感B)線性回歸分析要求所有變量特征都必須具有正態(tài)分布C)線性回歸假設(shè)數(shù)據(jù)中基本沒有多重共線性D)以上說法都不對答案:A解析:本題考查的是線性回歸的一些基本原理。異常值是數(shù)據(jù)中的一個非常有影響的點(diǎn),它可以改變最終回歸線的斜率。因此,去除或處理異常值在回歸分析中一直是很重要的。了解變量特征的分布是有用的。類似于正態(tài)分布的變量特征對提升模型性能很有幫助。例如,數(shù)據(jù)預(yù)處理的時(shí)候經(jīng)常做的一件事就是將數(shù)據(jù)特征歸一化到(0,1)分布。但這也不是必須的。當(dāng)模型包含相互關(guān)聯(lián)的多個特征時(shí),會發(fā)生多重共線性。因此,線性回歸中變量特征應(yīng)該盡量減少冗余性。C選擇絕對化了。[單選題]21.設(shè)有一幅二值圖像,其中黑色的背景上有一條寬為5個像素的白線,如要通過空域?yàn)V波消除這條白線,需要用?A)3*3的算術(shù)均值濾波器B)7*7的算術(shù)均值濾波器C)3*3的諧波均值濾波器D)7*7的諧波均值濾波器答案:D解析:[單選題]22.現(xiàn)在在hadoop集群當(dāng)中的配置文件中有這么兩個配置,請問假如集群當(dāng)中有一個節(jié)點(diǎn)宕機(jī),主節(jié)點(diǎn)namenode需要多長時(shí)間才能感知到?<name>erval</name><value>3</value></property><name>erval</name><value>2000</value></property>A)26秒B)34秒C)30秒D)20秒答案:B解析:[單選題]23.若用φ(n)表示歐拉函數(shù),請問:φ(56)的歐拉函數(shù)之積為?A)24B)10C)15D)11答案:A解析:[單選題]24.假定你使用SVM學(xué)習(xí)數(shù)據(jù)X,數(shù)據(jù)X里面有些點(diǎn)存在錯誤?,F(xiàn)在如果你使用一個二次核函數(shù),多項(xiàng)式階數(shù)為2,使用松弛變量C作為超參之一。當(dāng)你使用較大的C(C趨于無窮),則()。A)仍然能正確分類數(shù)據(jù)B)不能正確分類C)不確定D)以上均不正確答案:A解析:采用更大的C,誤分類點(diǎn)的懲罰就更大,因此決策邊界將盡可能完美地分類數(shù)據(jù)。[單選題]25.下列關(guān)于特征選擇的說法錯誤的是A)可以提高特征關(guān)聯(lián)性B)可以減輕維數(shù)災(zāi)難問題C)可以降低學(xué)習(xí)任務(wù)的難度D)特征選擇和降維具有相似的動機(jī)答案:A解析:[單選題]26.卷積神經(jīng)網(wǎng)絡(luò)中池化層的作用是()。A)尋找圖像中的細(xì)節(jié)特征B)輸入圖片C)減少下一層的計(jì)算,防止過擬合D)輸出圖片答案:C解析:[單選題]27.若有統(tǒng)計(jì)表:包含該詞的文檔數(shù)(億)IDFTF-IDF中國62.30.6030.0121蜜蜂0.4842.7130.0543養(yǎng)殖0.9732.4100.0482那么這篇文章的關(guān)鍵詞是(__)。A)中國B)蜜蜂C)養(yǎng)殖D)不知道答案:B解析:[單選題]28.PCA在做降維處理時(shí),優(yōu)先選取哪些特征()A)中心化樣本的協(xié)方差矩陣的最大特征值對應(yīng)特征向量B)最大間隔投影方向C)最小類內(nèi)聚類D)最速梯度方向答案:A解析:[單選題]29.一個文本郵件可以被歸為【垃圾郵件】和【非垃圾郵件】兩類,因此判斷文本郵件是否為垃圾郵件,屬于()問題A)分類B)回歸C)聚類D)以上都不是答案:A解析:[單選題]30.()先對數(shù)據(jù)集進(jìn)行特征選擇,然后再訓(xùn)練學(xué)習(xí)器。A)過濾式選擇B)包裹式選擇C)稀疏表示D)嵌入式選擇答案:A解析:[單選題]31.隱馬爾可夫模型(HiddenMarkovModel,簡稱HMM)主要用于()數(shù)據(jù)建模A)時(shí)長B)時(shí)間C)時(shí)態(tài)D)時(shí)序答案:D解析:[單選題]32.將輸出標(biāo)記的對數(shù)作為線性模型逼近的目標(biāo)是__。A)對數(shù)幾率回歸B)對數(shù)線性回歸C)極大似然法D)正則化答案:B解析:[單選題]33.(__)是指同樣的一句話,可能有兩種或者更多的切分方法。A)生詞B)歧義C)斷句D)分詞答案:B解析:[單選題]34.2.JC系數(shù)的度量公式()A)a/b+cB)a/a+bC)b/b+cD)a/a+b+c答案:D解析:[單選題]35.下列不屬于大數(shù)據(jù)4V特性的是().A)大量B)多樣C)高速D)快捷答案:D解析:[單選題]36.在訓(xùn)練集上每學(xué)到一條規(guī)則,就將該規(guī)則覆蓋的訓(xùn)練樣例去除,然后以剩下的訓(xùn)練樣例組成訓(xùn)練集重復(fù)上述步驟。這個過程稱為(__)。A)規(guī)則學(xué)習(xí)B)直推學(xué)習(xí)C)強(qiáng)化學(xué)習(xí)D)序貫覆蓋答案:D解析:[單選題]37.N-gram是一種簡單有效的統(tǒng)計(jì)語言模型,通常n采用1-3之間的值,它們分別稱為unigram、bigram和trigram。現(xiàn)有給定訓(xùn)練語料合計(jì)三個文檔如下:D1:JohnreadMobyDickD2:Maryreadadifferentbook,D3:ShereadabookbyCher利用bigram求出句子?Johnreadabook?的概率大約是()A)1B)0.06C)0.09D)0.0008答案:B解析:[單選題]38.數(shù)字圖像木刻畫效果的出現(xiàn)是由于下列原因所產(chǎn)生的()A)圖像的幅度分辨率過小B)圖像的幅度分辨率過大C)圖像的空間分辨率過小D)圖像的空間分辨率過大答案:A解析:[單選題]39.關(guān)于決策樹,以下哪種說法是正確的A)可讀性強(qiáng)B)只用于分類問題C)只用于回歸問題D)是無監(jiān)督學(xué)習(xí)答案:A解析:[單選題]40.下面哪個不屬于數(shù)據(jù)的屬性類型?A)標(biāo)稱B)序數(shù)C)區(qū)間D)相異答案:D解析:[單選題]41.回歸分析的任務(wù),就是根據(jù)()和因變量的觀察值,估計(jì)這個函數(shù),并討論與之有關(guān)的種種統(tǒng)計(jì)推斷的問題。A)相關(guān)變量B)樣本C)已知數(shù)據(jù)D)自變量答案:D解析:回歸分析指的是確定兩種或兩種以上變量間相互依賴的定量關(guān)系的一種統(tǒng)計(jì)分析方法?;貧w分析按照涉及的變量的多少,分為一元回歸和多元回歸分析;按照因變量的多少,可分為簡單回歸分析和多重間歸分析:按照自變量和因變量之間的關(guān)系類型,可分為線性回歸分析和非線性回歸分析。[單選題]42.(__)為數(shù)據(jù)科學(xué)和大數(shù)據(jù)產(chǎn)業(yè)生態(tài)系統(tǒng)提供數(shù)據(jù)內(nèi)容的捕獲和獲取服務(wù)。A)數(shù)據(jù)源和APPsB)數(shù)據(jù)資源C)數(shù)據(jù)端D)基礎(chǔ)設(shè)施答案:A解析:[單選題]43.進(jìn)行機(jī)器學(xué)習(xí)訓(xùn)練過程使用的接口API是:A)fit()B)predict()C)learn()D)train()答案:A解析:[單選題]44.若學(xué)習(xí)算法不依賴于環(huán)境建模,則稱為(__)A)免模型學(xué)習(xí)B)機(jī)器學(xué)習(xí)C)深度學(xué)習(xí)D)蒙特卡羅強(qiáng)化學(xué)習(xí)答案:A解析:[單選題]45.下面是交叉驗(yàn)證的幾種方法:1/Bootstrap2/留一法交叉驗(yàn)證3/5折交叉驗(yàn)證4/重復(fù)使用兩次5折交叉驗(yàn)證請對上面四種方法的執(zhí)行時(shí)間進(jìn)行排序,樣本數(shù)量為1000。A)1>2>3>4B)2>4>3>1C)4>1>2>3D)2>4>3>1答案:D解析:本題考查的是k折交叉驗(yàn)證和Bootstrap的基本概念。Bootstrap是統(tǒng)計(jì)學(xué)的一個工具,思想就是從已有數(shù)據(jù)集D中模擬出其他類似的樣本Dt。Bootstrap的做法是,假設(shè)有N筆資料,先從中選出一個樣本,再放回去,再選擇一個樣本,再放回去,共重復(fù)N次。這樣我們就得到了一個新的N筆資料,這個新的Dt中可能包含原D里的重復(fù)樣本點(diǎn),也可能沒有原D里的某些樣本,Dt與D類似但又不完全相同。值得一提的是,抽取-放回的操作不一定非要是N,次數(shù)可以任意設(shè)定。例如原始樣本有10000個,我們可以抽取-放回3000次,得到包含3000個樣本的Dt也是完全可以的。因此,使用bootstrap只相當(dāng)于有1個模型需要訓(xùn)練,所需時(shí)間最少。留一法(Leave-One-Out)交叉驗(yàn)證每次選取N-1個樣本作為訓(xùn)練集,另外一個樣本作為驗(yàn)證集,重復(fù)N次。因此,留一法相當(dāng)于有N個模型需要訓(xùn)練,所需的時(shí)間最長。5折交叉驗(yàn)證把N個樣本分成5份,其中4份作為訓(xùn)練集,另外1份作為驗(yàn)證集,重復(fù)5次。因此,5折交叉驗(yàn)證相當(dāng)于有5個模型需要訓(xùn)練。2次重復(fù)的5折交叉驗(yàn)證相當(dāng)于有10個模型需要訓(xùn)練。[單選題]46.感知機(jī)只有(__)神經(jīng)元進(jìn)行激活函數(shù)處理,即只擁有一層功能神經(jīng)元。A)輸入層B)輸出層C)第一層D)第二層答案:B解析:[單選題]47.當(dāng)往往一本書中其實(shí)通常使用到的詞匯表是非常小的,這就會導(dǎo)致一本書的表示向量中存在大量的0.這樣的向量稱為()。A)零向量B)滿秩向量C)稀疏向量D)普通向量答案:C解析:[單選題]48.下面哪種不屬于池化操作()。A)連接池化B)一般池化C)重疊池化D)金字塔池化答案:A解析:[單選題]49.基于統(tǒng)計(jì)的分詞方法為()A)正向量最大匹配法B)逆向量最大匹配法C)最少切分D)條件隨機(jī)場答案:D解析:中文分詞的基本方法可以分為基于語法規(guī)則的方法、基于詞典的方法和基于統(tǒng)計(jì)的方法?;谡Z法規(guī)則的分詞法基本思想是在分詞的同時(shí)進(jìn)行句法、語義分析,利用句法信息和語義信息來進(jìn)行詞性標(biāo)注,以解決分詞歧義現(xiàn)象。因?yàn)楝F(xiàn)有的語法知識、句法規(guī)則十分籠統(tǒng)、復(fù)雜,基于語法和規(guī)則的分詞法所能達(dá)到的精確度遠(yuǎn)遠(yuǎn)還不能令人滿意,目前這種分詞系統(tǒng)應(yīng)用較少。在基于詞典的方法中,可以進(jìn)一步分為最大匹配法,最大概率法,最短路徑法等。最大匹配法指的是按照一定順序選取字符串中的若干個字當(dāng)做一個詞,去詞典中查找。根據(jù)掃描方式可細(xì)分為:正向最大匹配,反向最大匹配,雙向最大匹配,最小切分。最大概率法指的是一個待切分的漢字串可能包含多種分詞結(jié)果,將其中概率最大的那個作為該字串的分詞結(jié)果。最短路徑法指的是在詞圖上選擇一條詞數(shù)最少的路徑?;诮y(tǒng)計(jì)的分詞法的基本原理是根據(jù)字符串在語料庫中出現(xiàn)的統(tǒng)計(jì)頻率來決定其是否構(gòu)成詞。詞是字的組合,相鄰的字同時(shí)出現(xiàn)的次數(shù)越多,就越有可能構(gòu)成一個詞。因此字與字相鄰共現(xiàn)的頻率或概率能夠較好的反映它們成為詞的可信度。常用的方法有HMM(隱馬爾科夫模型),MAXENT(最大熵模型),MEMM(最大熵隱馬爾科夫模型),CRF(條件隨機(jī)場)。本題中,基于統(tǒng)計(jì)的方法為條件隨機(jī)場。ABC三個選項(xiàng)為基于詞典的方法。[單選題]50.使用high(infinite)regularisation時(shí)偏差會如何變化?alt="">有散點(diǎn)圖?a?和?b?兩類(藍(lán)色為正,紅色為負(fù))。在散點(diǎn)圖?a?中,使用了邏輯回歸(黑線是決策邊界)對所有數(shù)據(jù)點(diǎn)進(jìn)行了正確分類。A)偏差很大B)偏差很小C)不確定D)都不是答案:A解析:模型變得過于簡單,所以偏差會很大。Bias:誤差,對象是單個模型,期望輸出與真實(shí)標(biāo)記的差別(可以解釋為描述了模型對本訓(xùn)練集的擬合程度)Variance:方差,對象是多個模型(這里更好的解釋是換同樣規(guī)模的訓(xùn)練集,模型的擬合程度怎么樣;也可以說方差是刻畫數(shù)據(jù)擾動對模型的影響,描述的是訓(xùn)練結(jié)果的分散程度)從同一個數(shù)據(jù)集中,用科學(xué)的采樣方法得到幾個不同的子訓(xùn)練集,用這些訓(xùn)練集訓(xùn)練得到的模型往往并不相同。alt=""class="fr-ficfr-dii">以上圖為例:[單選題]51.話題模型的典型代表是。A)貝葉斯模型B)拉普拉模型C)隱狄利克雷模型D)馬爾可夫模型答案:C解析:[單選題]52.機(jī)器學(xué)習(xí)是研究如何使用計(jì)算機(jī)()的一門學(xué)科。A)模擬生物行為B)模擬人類解決問題C)模擬人類學(xué)習(xí)活動D)模擬人類生產(chǎn)活動答案:C解析:[單選題]53.(__)不是遺傳算法基本算子。A)選擇B)感染C)突變D)交叉答案:B解析:[單選題]54.下面哪種學(xué)習(xí)方式引入了額外的專家知識,通過與外界的交互來將部分未標(biāo)記樣本轉(zhuǎn)變?yōu)橛袠?biāo)記樣本(__)。A)純半監(jiān)督學(xué)習(xí)B)半監(jiān)督學(xué)習(xí)C)直推學(xué)習(xí)D)主動學(xué)習(xí)答案:D解析:[單選題]55.()不是最近鄰分類器的特點(diǎn)。A)它使用具體的訓(xùn)練實(shí)例進(jìn)行預(yù)測,不必維護(hù)源自數(shù)據(jù)的模型B)分類一個測試樣例開銷很大C)最近鄰分類器基于全局信息進(jìn)行預(yù)測D)可以生產(chǎn)任意形狀的決策邊界答案:C解析:k近鄰中的近鄰指的是距離待預(yù)測數(shù)據(jù)的數(shù)據(jù)點(diǎn),而k近鄰指的是取距k近的前幾個數(shù)據(jù)點(diǎn),并非基于全局信息進(jìn)行預(yù)測。[單選題]56.下列算法中,不屬于外推法的是()。A)移動平均法B)回歸分析法C)指數(shù)平滑法D)季節(jié)指數(shù)法答案:B解析:外推法(Extrapolation)是根據(jù)過去和現(xiàn)在的發(fā)展趨勢推斷未來的一類方法的總稱,回歸分析法不屬于外推法。[單選題]57.向量空間模型的缺陷不包括()A)維度災(zāi)難B)模型稀疏性C)語義信息缺失D)無法計(jì)算文本相似度答案:D解析:[單選題]58.()可以用衡量真來實(shí)值與預(yù)測值之間的差異A)權(quán)重值B)損失函數(shù)C)特征值D)輸出值答案:B解析:第2部分:多項(xiàng)選擇題,共17題,每題至少兩個正確答案,多選或少選均不得分。[多選題]59.下列關(guān)于神經(jīng)網(wǎng)絡(luò)描述正確的是(__)。A)我們在機(jī)器學(xué)習(xí)中談?wù)撋窠?jīng)網(wǎng)絡(luò)是指的是生物學(xué)意義上的神經(jīng)網(wǎng)絡(luò)B)神經(jīng)網(wǎng)絡(luò)中最基本的成分是神經(jīng)元模型C)在MP神經(jīng)元模型中,神經(jīng)元接受來自n個其他神經(jīng)元傳遞過來的信號D)神經(jīng)元接收到的總輸入值將與神經(jīng)元的閾值進(jìn)行比較,然后通過激活函數(shù)處理以產(chǎn)生神經(jīng)元的輸出。答案:BCD解析:[多選題]60.RNN的主要應(yīng)用領(lǐng)域有()。A)自然語言處理B)機(jī)器翻譯C)音樂推薦D)洗衣服答案:ABC解析:[多選題]61.管理非結(jié)構(gòu)化數(shù)據(jù)常采用()。A)NoSQLB)NewSQLC)關(guān)系云技術(shù)D)關(guān)系數(shù)據(jù)庫技術(shù)答案:ABC解析:[多選題]62.(__)屬于圖像平滑的濾波。A)盒式濾波B)雙邊濾波C)導(dǎo)向?yàn)V波D)貝葉斯變換答案:ABC解析:[多選題]63.CNN相比于全連接的DNN有哪些優(yōu)勢?()A)參數(shù)更少B)泛化更好C)訓(xùn)練更快D)更容易搭建答案:ABC解析:[多選題]64.確定圖像分割的閾值的方法有(__)。A)可變閾值法B)判別分析法C)中值濾波D)p尾法答案:ABD解析:[多選題]65.下面算法中不屬于圖像銳化處理的是()。A)低通濾波B)加權(quán)平均法C)高通濾波D)中值濾波答案:ABD解析:[多選題]66.決策樹常用的特征分裂方法()A)信息增益B)基尼指數(shù)C)距離計(jì)算D)頻率計(jì)算答案:AB解析:[多選題]67.按用途分類,專家系統(tǒng)可分為()**A)診斷型B)預(yù)測型C)設(shè)計(jì)型D)控制型答案:ABCD解析:[多選題]68.下列關(guān)于Ridge回歸的說法,正確的是()。A)若λ=0,則等價(jià)于一般的線性回歸B)若λ=0,則不等價(jià)于一般的線性回歸C)若λ=+∞,則得到的權(quán)重系數(shù)很小,接近于零D)若λ=+∞,則得到的權(quán)重系數(shù)很大,接近與無窮大答案:AC解析:Ridge回歸中,若λ=0,則等價(jià)于一般的線性回歸;若λ=+∞,則得到的權(quán)重系數(shù)很小,接近于零。[多選題]69.當(dāng)閔可夫斯基距離公式中的系數(shù)p值為1時(shí),可得到(__)的公式。A)歐氏距離B)曼哈頓距離C)街區(qū)距離D)切比雪夫距離答案:BC解析:[多選題]70.SparkRI的依賴機(jī)制包括()A)寬依賴B)深度依賴C)廣度依賴D)窄依賴答案:AD解析:[多選題]71.一個完整的人工神經(jīng)網(wǎng)絡(luò)包括()A)一層輸入層B)多層分析層C)多層隱藏層D)兩層輸出層答案:AC解析:[多選題]72.半監(jiān)督學(xué)習(xí)可進(jìn)一步劃分為(__)和(__)。A)純半監(jiān)督學(xué)習(xí)B)無監(jiān)督學(xué)習(xí)C)直推學(xué)習(xí)D)主動學(xué)習(xí)答案:AC解析:[多選題]73.產(chǎn)生式系統(tǒng)的推理包括()。**A)正向推理B)直接推理C)驗(yàn)證推理D)反向主義答案:AD解析:[多選題]74.下列說法正確的是A)kNN算法的預(yù)測效率與訓(xùn)練集的數(shù)量有關(guān)B)kNN算法只能用于二分類C)kNN算法只能用于回歸D)kNN算法屬于監(jiān)督學(xué)習(xí)答案:AD解析:[多選題]75.下面屬于多元線性回歸的是?A)求得正方形面積與對角線之間的關(guān)系B)建立股票價(jià)格與成交量、換手率等因素之間的線性關(guān)系C)建立西瓜價(jià)格與西瓜大小、西瓜產(chǎn)地、甜度等因素之間的線性關(guān)系D)建立西瓜書銷量與時(shí)間之間的線性關(guān)系答案:BC解析:第3部分:判斷題,共12題,請判斷題目是否正確。[判斷題]76.學(xué)習(xí)率越大,訓(xùn)練速度越快,最優(yōu)解越精確。A)正確B)錯誤答案:錯解析:[判斷題]77.機(jī)器學(xué)習(xí)方法涉及對生物的學(xué)習(xí)機(jī)理的模仿,在簡化的基礎(chǔ)上用計(jì)算的方法進(jìn)行再現(xiàn)A)正確B)錯誤答案:錯解析:[判斷題]78.超父為假設(shè)所以屬性都依賴于同一個屬性A)正確;B)錯誤;答案:對解析:[判斷題]79.K近鄰分類雖簡單,但它的泛化錯誤率不超過貝葉斯最優(yōu)分類器錯誤率的兩倍A)正確B)錯誤答案:對解析:[判斷題]80.k近鄰學(xué)習(xí)是一種常用的監(jiān)督學(xué)習(xí)方法,其工作機(jī)制為:給定測試樣本,基于某種距離度量找出訓(xùn)練集中與其最靠近的k個訓(xùn)練樣本,然后基于這k個鄰居信息進(jìn)行預(yù)測。因此k近鄰算法的核心是k值和距離度量的選取。A)正確B)錯誤答案:對解析:[判斷題]81.人工神經(jīng)網(wǎng)絡(luò)訓(xùn)練的目的就是使得損失函數(shù)最小化A)正確B)錯誤答案:對解析:[判斷題]82.K近鄰算法既可用于分類,也可用于回歸,但更常見的是解決分類問題A)正確B)錯誤答案:對解析:[判斷題]83.聚類效果就是使得類內(nèi)的點(diǎn)都足夠近,類間的點(diǎn)都足夠遠(yuǎn)A)正確B)錯誤答案:對解析:[判斷題]84.logistic函數(shù)是一種線性函數(shù)A)正確B)錯誤答案:錯解析:[判斷題]85.用隨機(jī)梯度算法訓(xùn)練回歸模型前,把各特征縮放到相同尺寸的常用方法有歸一化、正則化、標(biāo)準(zhǔn)化A)正確B)錯誤答案:錯解析:[判斷題]86.read_html()函數(shù)可以讀取網(wǎng)頁中所有的數(shù)據(jù)。A)正確B)錯誤答案:錯解析:read_html()方法只能讀取網(wǎng)頁中table標(biāo)簽中的數(shù)據(jù)[判斷題]87.自然界中生物變異的概率是不確定的,但是基因遺傳算法的變異概率可以人為調(diào)節(jié)A)正確B)錯誤答案:對解析:第4部分:問答題,共9題,請?jiān)诳瞻滋幪顚懻_答案。[問答題]88.3.決策樹預(yù)剪枝與后剪枝的區(qū)別和優(yōu)缺點(diǎn)答案:預(yù)剪枝:降低了過擬合的風(fēng)險(xiǎn),還顯著減少了決策樹的訓(xùn)練時(shí)間開銷和測試時(shí)間開銷。缺點(diǎn):給決策樹帶來了欠擬合的風(fēng)險(xiǎn)。后剪枝:后剪枝決策樹的欠擬合風(fēng)險(xiǎn)很小缺點(diǎn):訓(xùn)練時(shí)間的開銷比為剪枝和預(yù)剪枝決策樹都要大得多。解析:[問答題]89.Series是一種一維數(shù)組對象,包含一個值序列。Series中的數(shù)據(jù)通過()訪問。答案:索引解析:[問答題]90.已知字典dic={'w':97,'a':19},則dic.get('w',None)的值是()。答案:97解析:get()方法語法:dict.get(key,default=None)參數(shù):key--字典中要查找的鍵。Default--如果指定鍵的值不存在時(shí),返回該默認(rèn)值。[問答題]91.邏輯回歸問題的衡量指標(biāo)有準(zhǔn)確率、精確率和()答案:召回率解析:[問答

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論