版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
第頁(yè)人工智能復(fù)習(xí)練習(xí)測(cè)試題附答案1.哪項(xiàng)技術(shù)在BERT中沒(méi)有使用()A、自注意力B、NormalizationC、全連接D、卷積【正確答案】:D解析:
卷積在BERT中沒(méi)有使用2.關(guān)于K均值和DBSCAN的比較,以下說(shuō)法不正確的是()。A、K均值丟棄被它識(shí)別為噪聲的對(duì)象,而DBSCAN一般聚類所有對(duì)象。B、K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念。C、K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇。D、K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會(huì)合并有重疊的簇?!菊_答案】:A解析:
03.OCR是指對(duì)文本書(shū)面資料(印刷字體、手寫字體)的圖像文件進(jìn)行分析識(shí)別處理,獲取文字及版面信息的過(guò)程,其中文全程是()。A、光學(xué)字符識(shí)別B、文字識(shí)別C、字符識(shí)別D、書(shū)面識(shí)別【正確答案】:A解析:
OCR是指對(duì)文本書(shū)面資料(印刷字體、手寫字體)的圖像文件進(jìn)行分析識(shí)別處理,獲取文字及版面信息的過(guò)程,其中文全程是光學(xué)字符識(shí)別。4.下列的哪種方法可以用來(lái)降低深度學(xué)習(xí)模型的過(guò)擬合問(wèn)題?1增加更多的數(shù)據(jù)2使用數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentation)3使用歸納性更好的架構(gòu)4正規(guī)化數(shù)據(jù)5降低架構(gòu)的復(fù)雜度A、145B、123C、1345D、所有項(xiàng)目都有用【正確答案】:D解析:
05.人工智能生態(tài)圈分三層結(jié)構(gòu):()、技術(shù)平臺(tái)、落地場(chǎng)景。A、基礎(chǔ)設(shè)施B、基礎(chǔ)設(shè)備C、基礎(chǔ)措施D、基礎(chǔ)技術(shù)【正確答案】:A解析:
人工智能生態(tài)圈分三層結(jié)構(gòu):基礎(chǔ)設(shè)施、技術(shù)平臺(tái)、落地場(chǎng)景。6.VGG從角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)?A、增加網(wǎng)絡(luò)寬度B、輕量化網(wǎng)絡(luò)模型C、改善網(wǎng)絡(luò)退化現(xiàn)象D、增加網(wǎng)絡(luò)深度【正確答案】:D解析:
VGG從角度增加網(wǎng)絡(luò)深度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)7.從給定的特征集合中選擇出相關(guān)特征子集的過(guò)程,稱為()A、特征抽取B、特征選擇C、特征降維D、特征簡(jiǎn)化【正確答案】:B解析:
見(jiàn)算法解析8.ID3算法選擇劃分屬性的準(zhǔn)則是A、信息增益B、增益率C、基尼系數(shù)D、信息熵【正確答案】:A解析:
ID3算法使用信息增益為準(zhǔn)則來(lái)選擇劃分屬性9.在強(qiáng)化學(xué)習(xí)過(guò)程中,()表示隨機(jī)地采取某個(gè)動(dòng)作,以便于嘗試各種結(jié)果;()表示采取當(dāng)前認(rèn)為最優(yōu)的動(dòng)作,以便于進(jìn)一步優(yōu)化評(píng)估當(dāng)前認(rèn)為最優(yōu)的動(dòng)作的值。A、探索;開(kāi)發(fā)B、開(kāi)發(fā);探索C、探索;輸出D、開(kāi)發(fā);輸出【正確答案】:A解析:
010.卷積神經(jīng)網(wǎng)絡(luò)的英文縮寫是:A、DNNB、CNNC、RNND、Tanh【正確答案】:B解析:
卷積神經(jīng)網(wǎng)絡(luò)的英文縮寫是CNN11.以下哪些算法是分類算法A、DBSCANB、C4.5C、K-MeanD、EM【正確答案】:B解析:
012.在RNN中,目前使用最廣泛的模型便是()模型,該模型能夠更好地建模長(zhǎng)序列。A、SLTMB、SLMTC、LSMTD、LSTM【正確答案】:D解析:
在RNN中,目前使用最廣泛的模型便是LSTM模型,該模型能夠更好地建模長(zhǎng)序列。13.cikit-learn用于模型預(yù)測(cè)的函數(shù)接口為()A、Fit()B、fit()C、predict()D、Predict()【正確答案】:C解析:
cikit-learn用于模型預(yù)測(cè)的函數(shù)接口為predict()14.混淆矩陣中TP=16,FP=12,FN=8,TN=4,召回率是()。A、1/4B、1/2C、4/7D、2/3【正確答案】:D解析:
根據(jù)召回率計(jì)算公式可得。15.對(duì)于有噪聲、線性可分的數(shù)據(jù),支持向量機(jī)的解決方式是()A、軟間隔B、硬間隔C、核函數(shù)D、以上選項(xiàng)均不正確【正確答案】:A解析:
對(duì)于有噪聲、線性可分的數(shù)據(jù),支持向量機(jī)的解決方式是軟間隔16.下面對(duì)前饋神經(jīng)網(wǎng)絡(luò)這種深度學(xué)習(xí)方法描述不正確的是A、是一種端到端學(xué)習(xí)的方法B、是一種監(jiān)督學(xué)習(xí)的方法C、實(shí)現(xiàn)了非線性映射D、隱藏層數(shù)目大小對(duì)學(xué)習(xí)性能影響不大【正確答案】:D解析:
017.在ε-greedy策略當(dāng)中,ε的值越大,表示采用隨機(jī)的一個(gè)動(dòng)作的概率越(),采用當(dāng)前Q函數(shù)值最大的動(dòng)作的概率越()。A、大;小B、大;大C、小;小D、小;大【正確答案】:A解析:
018.下列哪一項(xiàng)不是常見(jiàn)的機(jī)器學(xué)習(xí)模型正則化方法。A、數(shù)據(jù)優(yōu)化B、數(shù)據(jù)增強(qiáng)C、模型集成D、引入?yún)?shù)范數(shù)懲罰項(xiàng)【正確答案】:A解析:
常見(jiàn)的機(jī)器學(xué)習(xí)模型正則化方法包含數(shù)據(jù)增強(qiáng)、模型集成、引入?yún)?shù)范數(shù)懲罰項(xiàng)19.當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時(shí),變換的不變性會(huì)被保留,是嗎?A、不知道B、看情況C、是D、否【正確答案】:C解析:
池化算法比如取最大值/取平均值等,都是輸入數(shù)據(jù)旋轉(zhuǎn)后結(jié)果不變,所以多層疊加后也有這種不變性。20.一個(gè)特征的權(quán)重越高,說(shuō)明該特征比其他特征()。A、更重要B、不重要C、有影響D、無(wú)法判斷【正確答案】:A解析:
一個(gè)特征的權(quán)重越高,說(shuō)明該特征比其他特征更重要。21.GoogLeNet從角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)?A、增加網(wǎng)絡(luò)寬度B、輕量化網(wǎng)絡(luò)模型C、改善網(wǎng)絡(luò)退化現(xiàn)象D、增加網(wǎng)絡(luò)深度【正確答案】:A解析:
GoogLeNet從增加網(wǎng)絡(luò)寬度角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)22.剪枝分為前剪枝和后剪枝,前剪枝本質(zhì)就是早停止,后剪枝通常是通過(guò)衡量剪枝后()變化來(lái)決定是否剪枝。A、信息增益B、損失函數(shù)C、準(zhǔn)確率D、召回率【正確答案】:B解析:
剪枝分為前剪枝和后剪枝,前剪枝本質(zhì)就是早停止,后剪枝通常是通過(guò)衡量剪枝后損失函數(shù)變化來(lái)決定是否剪枝。23.以下程序的輸出是()?array=np.array([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array.shape)A、(4,3)B、(3,4)C、3D、4【正確答案】:A解析:
見(jiàn)算法解析24.關(guān)于MNIST,下列說(shuō)法錯(cuò)誤的是()。A、是著名的手寫體數(shù)字識(shí)別數(shù)據(jù)集B、有訓(xùn)練集和測(cè)試集兩部分C、訓(xùn)練集類似人學(xué)習(xí)中使用的各種考試試卷D、測(cè)試集大約包含10000個(gè)樣本和標(biāo)簽【正確答案】:C解析:
025.以下關(guān)于樸素貝葉斯說(shuō)法不正確的是A、樸素貝葉斯是基于貝葉斯公式/理論建立的一種用于簡(jiǎn)單分類的算法,B、其前置模型是特征值條件獨(dú)立C、基本思想是對(duì)于給定的待分類項(xiàng),求解在此項(xiàng)出現(xiàn)的條件下,統(tǒng)計(jì)計(jì)算各個(gè)類別出現(xiàn)的概率,取出現(xiàn)最大概率的作為此待分類項(xiàng)類別。D、對(duì)缺失數(shù)據(jù)比較敏感,算法比較簡(jiǎn)單,常用于文本分類,欺詐檢測(cè)【正確答案】:D解析:
026.構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入。
下列哪一種架構(gòu)有反饋連接?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、限制玻爾茲曼機(jī)D、都不是【正確答案】:A解析:
027.殘疾結(jié)構(gòu)是ResNet能夠極大的緩解梯度消失的法寶,那么殘差結(jié)構(gòu)的作用是:A、取消了反向傳播,所以就能解決梯度消失問(wèn)題B、將信息不經(jīng)過(guò)卷積操作直接和卷積的結(jié)果融合C、阻斷正向傳播的過(guò)程D、減少了參數(shù)的數(shù)量【正確答案】:B解析:
殘疾結(jié)構(gòu)是ResNet能夠極大的緩解梯度消失的法寶,那么殘差結(jié)構(gòu)的作用是將信息不經(jīng)過(guò)卷積操作直接和卷積的結(jié)果融合28.圖計(jì)算的局部性差,使得計(jì)算在等待()花費(fèi)了巨大的開(kāi)銷。A、I/OB、數(shù)據(jù)準(zhǔn)備C、數(shù)據(jù)讀取D、數(shù)據(jù)存儲(chǔ)【正確答案】:A解析:
圖計(jì)算的局部性差,使得計(jì)算在等待I/O花費(fèi)了巨大的開(kāi)銷。29.()是專門研究計(jì)算機(jī)怎樣模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為,以獲取新的知識(shí)或技能,重新組織已有的知識(shí)結(jié)構(gòu),使之不斷改善自身的性能。A、機(jī)器學(xué)習(xí)B、深度學(xué)習(xí)C、有監(jiān)督學(xué)習(xí)D、無(wú)監(jiān)督學(xué)習(xí)【正確答案】:A解析:
機(jī)器學(xué)習(xí)是專門研究計(jì)算機(jī)怎樣模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為,以獲取新的知識(shí)或技能,重新組織已有的知識(shí)結(jié)構(gòu),使之不斷改善自身的性能。30.假設(shè)你需要調(diào)整超參數(shù)來(lái)最小化代價(jià)函數(shù)(costfunction),會(huì)使用下列哪項(xiàng)技術(shù)?A、窮舉搜索B、隨機(jī)搜索C、Bayesian優(yōu)化D、都可以【正確答案】:D解析:
031.使用批量歸一化可以解決以下哪種神經(jīng)網(wǎng)絡(luò)的訓(xùn)練A、過(guò)擬合OverfittingB、RestrictactivationstobecometoohighorlowC、訓(xùn)練過(guò)慢D、B和C都有【正確答案】:D解析:
032.下列選項(xiàng)中,是合頁(yè)損失函數(shù)的是()。A、exp(yf(x))B、[1-yf(x)]_+C、log[1+exp(-yf(x))D、exp(-yf(x))【正確答案】:B解析:
A不是損失函數(shù),Csiro邏輯斯蒂損失函數(shù),D是指數(shù)損失函數(shù)。33.對(duì)于非連續(xù)目標(biāo)在深度神經(jīng)網(wǎng)絡(luò)的優(yōu)化過(guò)程中,下面哪種梯度下降方法是最好的?A、SGDB、AdaGradC、l-BFGSD、拉格朗日松弛Subgradientmethod【正確答案】:D解析:
034.C4.5在分類過(guò)程中使用的()A、條件熵B、信息增益率C、交叉熵D、聯(lián)合熵【正確答案】:B解析:
C4.5在分類過(guò)程中使用的信息增益率35.對(duì)比學(xué)習(xí)的核心訓(xùn)練信號(hào)是圖片的“()”。A、可預(yù)見(jiàn)性B、可移植性C、可區(qū)分性D、可推理性【正確答案】:C解析:
對(duì)比學(xué)習(xí)的核心訓(xùn)練信號(hào)是圖片的“可區(qū)分性”。36.已知:-大腦是有很多個(gè)叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對(duì)大腦的簡(jiǎn)單的數(shù)學(xué)表達(dá)。-每一個(gè)神經(jīng)元都有輸入、處理函數(shù)和輸出。-神經(jīng)元組合起來(lái)形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。-為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型。給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?A、加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B、有維度更高的數(shù)據(jù)C、當(dāng)這是一個(gè)圖形識(shí)別的問(wèn)題時(shí)D、以上都不正確【正確答案】:A解析:
037.獨(dú)熱編碼的英文是:A、onehotB、twohotC、onecoldD、twocold【正確答案】:A解析:
獨(dú)熱編碼的英文是onehot38.為了對(duì)某圖像中的目標(biāo)進(jìn)行分析和識(shí)別,一般需要對(duì)圖像進(jìn)行()處理。A、圖像加噪B、圖像采集C、圖像壓縮D、圖像分割【正確答案】:D解析:
為了對(duì)某圖像中的目標(biāo)進(jìn)行分析和識(shí)別,一般需要對(duì)圖像進(jìn)行圖像分割處理。39.進(jìn)入21世紀(jì)以來(lái),隨著數(shù)據(jù)的爆發(fā)式增長(zhǎng),計(jì)算能力的大幅度提升和深度學(xué)習(xí)的發(fā)展和成熟,人工智能迎來(lái)了()發(fā)展浪潮A、第一次B、第二次C、第三次D、第四次【正確答案】:C解析:
進(jìn)入21世紀(jì)以來(lái),隨著數(shù)據(jù)的爆發(fā)式增長(zhǎng),計(jì)算能力的大幅度提升和深度學(xué)習(xí)的發(fā)展和成熟,人工智能迎來(lái)了第三次發(fā)展浪潮40.其他條件相同,置信水平越低,則置信區(qū)間上下限差值越()A、越大B、越小C、為0D、不確定【正確答案】:A解析:
041.從一個(gè)初始策略出發(fā),不斷迭代進(jìn)行策略評(píng)估和改進(jìn),直到策略收斂、不再改變?yōu)橹梗@樣的作法稱為()A、策略迭代B、值迭代C、策略改進(jìn)D、最優(yōu)值函數(shù)【正確答案】:A解析:
見(jiàn)算法解析42.下列哪個(gè)不是人工智能的研究領(lǐng)域A、機(jī)器證明B、模式識(shí)別C、人工生命D、編譯原理【正確答案】:D解析:
編譯原理不是人工智能的研究領(lǐng)域43.如果我們用了一個(gè)過(guò)大的學(xué)習(xí)速率會(huì)發(fā)生什么?A、神經(jīng)網(wǎng)絡(luò)會(huì)收斂B、不好說(shuō)C、都不對(duì)D、神經(jīng)網(wǎng)絡(luò)不會(huì)收斂【正確答案】:D解析:
044.梯度下降算法的正確步驟是什么?1計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差2重復(fù)迭代,直?得到?絡(luò)權(quán)重的最佳值3把輸?傳??絡(luò),得到輸出值4隨機(jī)值初始化權(quán)重和偏差5對(duì)每個(gè)產(chǎn)?誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減?誤差A(yù)、1,2,3,4,5B、5,4,3,2,1C、3,2,1,5,4D、4,3,1,5,2【正確答案】:D解析:
045.深度神經(jīng)網(wǎng)絡(luò)的運(yùn)行過(guò)程是由三個(gè)算法依次運(yùn)行組成,下面不屬于這三個(gè)算法中的是A、歸一化B、正向傳播C、反向傳播D、梯度下降【正確答案】:A解析:
深度神經(jīng)網(wǎng)絡(luò)的運(yùn)行過(guò)程是由三個(gè)算法依次運(yùn)行組成,下面不屬于這三個(gè)算法中的是歸一化46.搜索可以分為盲從搜索與A、啟發(fā)式搜索B、模糊搜索C、精確搜索D、關(guān)鍵詞搜索【正確答案】:A解析:
搜索分為盲從搜索與啟發(fā)式搜索47.下列算法,哪項(xiàng)能處理非線性問(wèn)題A、標(biāo)準(zhǔn)SVMB、多項(xiàng)式回歸C、線性回歸D、神經(jīng)元模型【正確答案】:B解析:
多項(xiàng)式回歸可處理非線性問(wèn)題48.關(guān)于梯度下降算法描述正確的是:A、梯度下降算法就是不斷的更新w和b的值B、梯度下降算法就是不斷的更新w和b的導(dǎo)數(shù)值C、梯度下降算法就是不斷尋找損失函數(shù)的最大值D、梯度下降算法就是不斷更新學(xué)習(xí)率【正確答案】:A解析:
梯度下降算法就是不斷的更新w和b的值49.某單位開(kāi)展?jié)撛谧兏秒娍蛻纛A(yù)測(cè)分析,以歷史上已完成過(guò)戶辦理的用戶作為模型的目標(biāo)樣本,預(yù)測(cè)用戶是否過(guò)戶,該類預(yù)測(cè)分析屬于()預(yù)測(cè)A、分類B、數(shù)值C、聚類D、關(guān)聯(lián)【正確答案】:A解析:
050.以下兩種描述分別對(duì)應(yīng)哪兩種對(duì)分類算法的評(píng)分標(biāo)準(zhǔn)?(a)排查竊電情況,描述排查中有多少是真實(shí)竊電行為的標(biāo)準(zhǔn)(b)描述有多少比例的竊電情況被發(fā)現(xiàn)的標(biāo)準(zhǔn)A、Precision,RecallB、Recall,PrecisionC、Precision,ROCD、Recall,ROC【正確答案】:A解析:
051.關(guān)于CBOW與Skip-Gram算法,以下說(shuō)法不正確的是()A、CBOW是根據(jù)某個(gè)詞前面的n個(gè)詞或者前后n個(gè)連續(xù)的詞,來(lái)計(jì)算某個(gè)詞出現(xiàn)的概率B、Skip-Gram是根據(jù)某個(gè)詞然后分別計(jì)算它前后幾個(gè)詞的各個(gè)概率CBOW和Skip-Gram都是可以訓(xùn)練詞向量的方法,但是Skip-Gram要比CBOW更快一些D、無(wú)論是CBOW模型還是skip-gram模型,都是以Huffman樹(shù)作為基礎(chǔ)的【正確答案】:C解析:
Skip-Gram要比CBOW慢,因?yàn)閟kip-gram的預(yù)測(cè)次數(shù)多于CBOW52.機(jī)器執(zhí)行學(xué)習(xí)的框架體現(xiàn)了其學(xué)習(xí)的本質(zhì)是()A、參數(shù)預(yù)估B、機(jī)器翻譯C、圖像識(shí)別D、參數(shù)估計(jì)【正確答案】:D解析:
機(jī)器執(zhí)行學(xué)習(xí)的框架體現(xiàn)了其學(xué)習(xí)的本質(zhì)是參數(shù)估計(jì)53.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)描述不正確的是:A、卷積神經(jīng)網(wǎng)絡(luò)有效的實(shí)現(xiàn)了權(quán)值共享B、卷積神經(jīng)網(wǎng)絡(luò)有效的實(shí)現(xiàn)了全連接C、卷積神經(jīng)網(wǎng)絡(luò)有效的實(shí)現(xiàn)了特征提取D、卷積神經(jīng)網(wǎng)絡(luò)有效的實(shí)現(xiàn)了快速運(yùn)算、降低了參數(shù)數(shù)量【正確答案】:B解析:
全連接網(wǎng)絡(luò)網(wǎng)絡(luò)有效的實(shí)現(xiàn)了全連接54.(
)是人工智能地核心,是使計(jì)算機(jī)具有智能地主要方法,其應(yīng)用遍及人工智能地各個(gè)領(lǐng)域。A、深度學(xué)習(xí)B、機(jī)器學(xué)習(xí)C、人機(jī)交互D、智能芯片【正確答案】:A解析:
深度學(xué)習(xí)是學(xué)習(xí)樣本數(shù)據(jù)的內(nèi)在規(guī)律和表示層次,這些學(xué)習(xí)過(guò)程中獲得的信息對(duì)諸如文字,圖像和聲音等數(shù)據(jù)的解釋有很大的幫助。它的最終目標(biāo)是讓機(jī)器能夠像人一樣具有分析學(xué)習(xí)能力,能夠識(shí)別文字、圖像和聲音等數(shù)據(jù)。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域中一個(gè)重要的研究方向,它被引入機(jī)器學(xué)習(xí)使其更接近于最初的目標(biāo)——人工智能。答案選A55.語(yǔ)音是一種典型的()數(shù)據(jù)。A、無(wú)結(jié)構(gòu)無(wú)序列B、有結(jié)構(gòu)序列C、無(wú)結(jié)構(gòu)序列D、有結(jié)構(gòu)無(wú)序列【正確答案】:C解析:
語(yǔ)音是一種典型的無(wú)結(jié)構(gòu)序列數(shù)據(jù)。56.卷積的擴(kuò)展方式是加():一個(gè)卷積核可以提取圖像的一種特征,多個(gè)卷積核提取多種特征。A、濾波器B、卷積層C、卷積核D、通道【正確答案】:C解析:
見(jiàn)算法解析57.下列選項(xiàng)中,無(wú)監(jiān)督學(xué)習(xí)模型是A、DecisionB、K_meansC、SVMD、LogisticRegression【正確答案】:B解析:
K_means是無(wú)監(jiān)督學(xué)習(xí)模型,其它選項(xiàng)是有監(jiān)督學(xué)習(xí)模型58.常用到的的社交分析算法就是()A、社群發(fā)現(xiàn)B、社交發(fā)現(xiàn)C、社區(qū)發(fā)現(xiàn)D、群體發(fā)現(xiàn)【正確答案】:A解析:
常用到的的社交分析算法就是社群發(fā)現(xiàn)59.線性降維方法假設(shè)從高維空間到低維空間的函數(shù)映射是()。A、一元B、線性C、多元D、非線性【正確答案】:B解析:
基于線性變換來(lái)進(jìn)行降維的方法稱為線性降維法。非線性降維是基于核技巧對(duì)線性降維方法進(jìn)行“核化”60.循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrentneuralnetwork,RNN),是一種用于處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。A、網(wǎng)格結(jié)構(gòu)B、數(shù)組結(jié)構(gòu)C、序列結(jié)構(gòu)D、表格結(jié)構(gòu)【正確答案】:C解析:
循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrentneuralnetwork,RNN),是一種用于處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。61.假設(shè)我們使用原始的非線性可分版本的Soft-SVM優(yōu)化目標(biāo)函數(shù)。我們需要做什么來(lái)保證得到的模型是線性可分離的?A、C=0B、C=1C正無(wú)窮大D、C負(fù)無(wú)窮大【正確答案】:C解析:
062.fasterRCNN用于生成候選框proposal的模塊名稱()A、RPNB、CNNC、ResNetD、RoIpooling【正確答案】:A解析:
fasterRCNN用于生成候選框proposal的模塊是RPN63.盡管人工智能學(xué)術(shù)界出現(xiàn)“百家爭(zhēng)鳴”的局面,但是,當(dāng)前國(guó)際人工智能的主流派仍屬于:A、連接主義B、符號(hào)主義C、行為主義D、經(jīng)驗(yàn)主義【正確答案】:B解析:
盡管人工智能學(xué)術(shù)界出現(xiàn)“百家爭(zhēng)鳴”的局面,但是,當(dāng)前國(guó)際人工智能的主流派仍屬于:符號(hào)主義64.批規(guī)范化(BatchNormalization)的好處都有啥?A、讓每一層的輸入的范圍都大致固定B、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差C、它是一種非常有效的反向傳播(BP)方法D、這些均不是【正確答案】:A解析:
065.在卷積神經(jīng)網(wǎng)絡(luò)中,要求輸入尺寸必須固定的層是?A、卷積層B、全連接層C、池化層D、以上都不是【正確答案】:B解析:
在卷積神經(jīng)網(wǎng)絡(luò)中,全連接層要求輸入尺寸必須固定66.ResNet從角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)?A、增加網(wǎng)絡(luò)寬度B、輕量化網(wǎng)絡(luò)模型C、改善網(wǎng)絡(luò)退化現(xiàn)象D、增加網(wǎng)絡(luò)深度【正確答案】:C解析:
ResNet從改善網(wǎng)絡(luò)退化現(xiàn)象角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)67.()規(guī)模呈指數(shù)級(jí)增長(zhǎng),可能達(dá)到數(shù)十億的頂點(diǎn)和數(shù)萬(wàn)億的邊,且還在不斷增長(zhǎng)A、結(jié)構(gòu)化數(shù)據(jù)B、圖數(shù)據(jù)C、大數(shù)據(jù)D、云端數(shù)據(jù)【正確答案】:B解析:
圖數(shù)據(jù)規(guī)模呈指數(shù)級(jí)增長(zhǎng),可能達(dá)到數(shù)十億的頂點(diǎn)和數(shù)萬(wàn)億的邊,且還在不斷增長(zhǎng)68.當(dāng)需要在字符串中使用特殊字符時(shí),python使用()作為轉(zhuǎn)義字符。A、\B、/C、#D、%【正確答案】:A解析:
當(dāng)需要在字符串中使用特殊字符時(shí),python使用\作為轉(zhuǎn)義字符。69.在處理序列數(shù)據(jù)時(shí),較容易出現(xiàn)梯度消失現(xiàn)象的深度學(xué)習(xí)模型是A、CNNB、LSTMC、GRUD、RNN【正確答案】:D解析:
RNN(RecurrentNeuralNetwork)是一類用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。RNN存在一些問(wèn)題梯度較容易出現(xiàn)衰減或爆炸(BPTT)-梯度爆炸70.隨著句子的長(zhǎng)度越來(lái)越多,神經(jīng)翻譯機(jī)器將句意表征為固定維度向量的過(guò)程將愈加困難,為了解決這類問(wèn)題,下面哪項(xiàng)是我們可以采用的A、使用注意力機(jī)制(attentionmechanism)B、使用遞歸單元代替循環(huán)單元C、使用字符級(jí)別翻譯(characterleveltranslation)D、所有選項(xiàng)均不對(duì)【正確答案】:A解析:
071.下面哪句話正確描述了馬爾科夫鏈中定義的馬爾可夫性A、t+1時(shí)刻狀態(tài)取決于t時(shí)刻狀態(tài)B、t-1時(shí)刻狀態(tài)取決于t+1時(shí)刻狀態(tài)C、t+2時(shí)刻狀態(tài)取決于t時(shí)刻狀態(tài)D、t+1時(shí)刻狀態(tài)和t時(shí)刻狀態(tài)相互獨(dú)立【正確答案】:A解析:
072.語(yǔ)句np.sum(arr3,axis=1)的作用是()?注:(已導(dǎo)入numpy庫(kù))importnumpyasnpA、對(duì)整個(gè)數(shù)組求和B、對(duì)每一行求和C、對(duì)第1列求和D、對(duì)每一列求和【正確答案】:B解析:
見(jiàn)算法解析73.下面的問(wèn)題,屬于分類問(wèn)題的是;A、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工在接下來(lái)一段時(shí)間內(nèi)的工資漲幅B、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工下一季度的績(jī)效考核分?jǐn)?shù)C、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工是否可能會(huì)在接下來(lái)的一段時(shí)間內(nèi)離職D、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工下一季度的銷售額【正確答案】:C解析:
074.下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果A、BoostingBaggingC、StackingD、Mapping【正確答案】:B解析:
075.可以對(duì)Pytorch框架進(jìn)行網(wǎng)絡(luò)結(jié)構(gòu)等數(shù)據(jù)可視化的工具是A、VisdomB、FlaskC、VueD、以上選項(xiàng)均不正確【正確答案】:A解析:
Visdom是一個(gè)專門用于
PyTorch
的交互式可視化工具,可以對(duì)實(shí)時(shí)數(shù)據(jù)進(jìn)行豐富的可視化,幫助我們實(shí)時(shí)監(jiān)控在遠(yuǎn)程服務(wù)器上進(jìn)行的科學(xué)實(shí)驗(yàn)76.Iou表示的是()A、兩個(gè)框之間的重疊程度B、兩個(gè)框的總面積C、兩個(gè)框的相對(duì)大小D、一個(gè)框面積與周長(zhǎng)比值【正確答案】:A解析:
見(jiàn)算法解析77.在CNN中,梯度下降法的作用是()。A、線性變換B、非線性變換C、求函數(shù)最小值D、加速訓(xùn)練【正確答案】:C解析:
在CNN中,梯度下降法的作用是求函數(shù)最小值。78.圖像處理中無(wú)損壓縮的目的是()A、濾除圖像中的不相干信號(hào)B、濾除圖像中的高頻信號(hào)C、濾除圖形中的低頻信號(hào)D、濾除圖像中的冗余信號(hào)【正確答案】:D解析:
圖像處理中無(wú)損壓縮的目的是濾除圖像中的冗余信號(hào)79.深度學(xué)習(xí)是當(dāng)前很熱門的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量的矩陣相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別為m?n,n?p,p?q,且mA、(AB)CB、AC(B)C、A(BC)D、所有效率都相同【正確答案】:A解析:
080.卷積運(yùn)算過(guò)程正確的順序是:①.對(duì)應(yīng)位置求乘積②所有位置求和③輸出一個(gè)位置的結(jié)果④移動(dòng)卷積核A、①②③④B、①④②③C、②③①④D、④③①②【正確答案】:A解析:
卷積運(yùn)算過(guò)程正確的順序是:①.對(duì)應(yīng)位置求乘積②所有位置求和③輸出一個(gè)位置的結(jié)果④移動(dòng)卷積核81.企業(yè)要建立預(yù)測(cè)模型,需要準(zhǔn)備建模數(shù)據(jù)集,以下四條描述建模數(shù)據(jù)集正確的是()。A、數(shù)據(jù)越多越好B、盡可能多的合適的數(shù)據(jù)C、訓(xùn)練集數(shù)據(jù)是建模集數(shù)據(jù)的一部分D、以上三條都正確【正確答案】:D解析:
082.以下哪種情況說(shuō)明模型出現(xiàn)了過(guò)擬合()A、模型對(duì)訓(xùn)練集擬合程度高,對(duì)測(cè)試集擬合程度高B、模型對(duì)訓(xùn)練集擬合程度高,對(duì)測(cè)試集擬合程度低C、模型對(duì)訓(xùn)練集擬合程度低,對(duì)測(cè)試集擬合程度高D、模型對(duì)訓(xùn)練集擬合程度低,對(duì)測(cè)試集擬合程度低【正確答案】:B解析:
083.在多通道卷積過(guò)程中,要生成n個(gè)featuremaps,需要()個(gè)卷積核立方體。A、n-2B、n^2C、[n/2]注[x]表示對(duì)x取整D、n【正確答案】:D解析:
見(jiàn)算法解析84.下列哪項(xiàng)關(guān)于模型能力(modelcapacity)的描述是正確的?(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)A、隱藏層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學(xué)習(xí)率增加,模型能力增加D、都不正確【正確答案】:A解析:
隱藏層加深,模型的擬合能力提升,但是模型參數(shù)會(huì)增多,帶來(lái)計(jì)算壓力;引入dropout就是為了免模型過(guò)擬合,學(xué)習(xí)率是超參數(shù),并不會(huì)影響模型的擬合度85.以下關(guān)于Bagging(裝袋法)的說(shuō)法不正確的是A、能提升機(jī)器學(xué)習(xí)算法的穩(wěn)定性和準(zhǔn)確性,但難以避免overfittingBagging(裝袋法)是一個(gè)統(tǒng)計(jì)重采樣的技術(shù),它的基礎(chǔ)是BootstrapC、主要通過(guò)有放回抽樣)來(lái)生成多個(gè)版本的預(yù)測(cè)分類器,然后把這些分類器進(jìn)行組合D、進(jìn)行重復(fù)的隨機(jī)采樣所獲得的樣本可以得到?jīng)]有或者含有較少的噪聲數(shù)據(jù)【正確答案】:A解析:
086.下列哪項(xiàng)不屬于聚類算法()A、K-meansBIRCHC、SVMDBSCAN【正確答案】:C解析:
SVM屬于分類算法87.xgboost在代價(jià)函數(shù)里加入了(),用于控制模型的復(fù)雜度A、正則項(xiàng)B、非線性C、激活函數(shù)D、特征變換【正確答案】:A解析:
xgboost在代價(jià)函數(shù)里加入了正則項(xiàng),用于控制模型的復(fù)雜度88.屬于定量的屬性類型是:A、標(biāo)稱B、序數(shù)C、區(qū)間D、相異【正確答案】:C解析:
089.()的核心訓(xùn)練信號(hào)是圖片的“可區(qū)分性”。模型需要區(qū)分兩個(gè)輸入是來(lái)自于同一圖片的不同視角,還是來(lái)自完全不同的兩張圖片。A、對(duì)比學(xué)習(xí)B、強(qiáng)化學(xué)習(xí)C、遷移學(xué)習(xí)D、深度學(xué)習(xí)【正確答案】:A解析:
對(duì)比學(xué)習(xí)的核心訓(xùn)練信號(hào)是圖片的“可區(qū)分性”。模型需要區(qū)分兩個(gè)輸入是來(lái)自于同一圖片的不同視角,還是來(lái)自完全不同的兩張圖片。90.啟發(fā)式搜索是尋求問(wèn)題()解的一種方法A、最優(yōu)B、一般C、滿意D、最壞【正確答案】:C解析:
091.CNN不具有以下那個(gè)特性。A、局部連接B、權(quán)值共享C、空間或時(shí)間上的下采樣D、不定長(zhǎng)輸入【正確答案】:D解析:
不定長(zhǎng)輸入數(shù)據(jù)特征為RNN循環(huán)神經(jīng)網(wǎng)絡(luò)特征92.線性回歸在3維以上的維度中擬合面是?A、曲面B、平面C、超平面D、超曲面【正確答案】:C解析:
093.當(dāng)在內(nèi)存網(wǎng)絡(luò)中獲得某個(gè)內(nèi)存空間時(shí),通常選擇讀取矢量形式數(shù)據(jù)而不是標(biāo)量,這里需要的哪種類型的尋址來(lái)完成?A、基于內(nèi)容的尋址B、基于位置的尋址C、都不行D、都可以【正確答案】:A解析:
094.下列不屬于樹(shù)模型的是A、GBDT梯度提升樹(shù)B、XGBoostC、RF隨機(jī)森林D、LR線性回歸【正確答案】:D解析:
095.線性回歸分析僅適用于決策屬性(目標(biāo))是()的情況A、序數(shù)變量B、類別變量C、名稱變量D、連續(xù)變量【正確答案】:D解析:
096.ROIAlign在哪個(gè)模型被采用()A、fastRCNNB、fasterRCNNC、maskRCNND、YOLOv3【正確答案】:C解析:
ROIAlign在maskRCNN被采用97.設(shè)X={1,2,3}是頻繁項(xiàng)集,則可由X產(chǎn)生()個(gè)關(guān)聯(lián)規(guī)則?A、4B、5C、6D、7【正確答案】:C解析:
098.()有跟環(huán)境進(jìn)行交互,從反饋當(dāng)中進(jìn)行不斷的學(xué)習(xí)的過(guò)程。A、監(jiān)督學(xué)習(xí)B、非監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、線性回歸【正確答案】:C解析:
099.決策樹(shù)模型剛建立時(shí),有很多分支都是根據(jù)訓(xùn)練樣本集合中的異常數(shù)據(jù)(由于噪聲等原因)構(gòu)造出來(lái)的。樹(shù)枝修剪正是針對(duì)這類數(shù)據(jù)()問(wèn)題而提出來(lái)的。A、近似B、相同C、不同D、差距【正確答案】:A解析:
0100.在圖搜索中,選擇最有希望的節(jié)點(diǎn)作為下一個(gè)要擴(kuò)展的節(jié)點(diǎn),這種搜索方法叫做()A、寬度搜索B、深度搜索C、有序搜索D、廣義搜索【正確答案】:C解析:
01.影響k-means算法效果的主要因素包括以下哪一項(xiàng)?()A、初始點(diǎn)的選取B、聚類的準(zhǔn)則C、k值的選取D、距離的度量方式【正確答案】:ACD解析:
02.下面關(guān)于隨機(jī)森林和集成學(xué)習(xí)的說(shuō)法,正確的是:A、隨機(jī)森林只能用于解決分類問(wèn)題B、隨機(jī)森林由隨機(jī)數(shù)量的決策樹(shù)組成C、集成學(xué)習(xí)通過(guò)構(gòu)建多個(gè)模型,并將各個(gè)模型的結(jié)果使用求平均數(shù)的方法集成起來(lái),作為最終的預(yù)測(cè)結(jié)果,提高分類問(wèn)題的準(zhǔn)確率D、隨機(jī)森林的弱分類器(基分類器)的特征選擇是隨機(jī)的【正確答案】:CD解析:
03.以下關(guān)于機(jī)器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?A、傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來(lái)B、傳統(tǒng)基于規(guī)則的方法使用顯性編程來(lái)解決問(wèn)題C、機(jī)器學(xué)習(xí)中模型的映射關(guān)系是自動(dòng)學(xué)習(xí)的D、機(jī)器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的【正確答案】:ABC解析:
04.人工神經(jīng)元網(wǎng)絡(luò)包括()A、輸入層B、中間隱藏層C、映射層D、輸出層【正確答案】:ABD解析:
見(jiàn)算法解析5.不使用全連接處理序列問(wèn)題的原因是()A、時(shí)間步不能確定B、模型太簡(jiǎn)單C、只能處理分類D、算法精度不足【正確答案】:ABD解析:
06.可以用隨機(jī)梯度下降法求解參數(shù)的模型分別有A、線性回歸B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、LSTM【正確答案】:ABCD解析:
見(jiàn)算法解析7.根據(jù)本課程,比較美國(guó)和德國(guó)在智能制造戰(zhàn)略上的部署,以下表述正確的有()A、美國(guó)在TT技術(shù)創(chuàng)新與產(chǎn)業(yè)化方面具有領(lǐng)先優(yōu)勢(shì)B、美國(guó)是利用「T優(yōu)勢(shì)向下整合制造業(yè)C、德國(guó)在制造能力方面占優(yōu)勢(shì)D、德國(guó)側(cè)重在制造業(yè)中嵌入T創(chuàng)新應(yīng)用【正確答案】:ABCD解析:
見(jiàn)算法解析8.自適應(yīng)神經(jīng)-模糊推理系統(tǒng)(ANFIS)可以表達(dá)成包括6個(gè)層的神經(jīng)網(wǎng)絡(luò),包括以下。A、歸一化層B、去模糊化層C、總結(jié)層D、輸出層【正確答案】:ABC解析:
該自適應(yīng)網(wǎng)絡(luò)是一個(gè)多層前饋網(wǎng)絡(luò),其中的方形節(jié)點(diǎn)需要進(jìn)行參數(shù)學(xué)習(xí)。第一層為輸入變量的隸屬函數(shù)層,負(fù)責(zé)輸入信號(hào)的模糊化;第二層負(fù)責(zé)將輸入信號(hào)相乘,為規(guī)則強(qiáng)度釋放層;第三層所有規(guī)則強(qiáng)度的歸一化;第四層計(jì)算模糊規(guī)則的輸出,第五層計(jì)算總結(jié)所有輸入信號(hào)的總輸出。答案ABC9.在卷積神經(jīng)網(wǎng)絡(luò)中,一個(gè)10*10的像素在使用5*5的卷積核進(jìn)行池化,在不補(bǔ)零的情況下能得到以下哪些大小的featuremapA、2*2B、4*4C、6*6D、8*8【正確答案】:ABC解析:
H(output)=(H(input)?F)/S+1;W(output)=(Winput?F)/S+110.Svm適用于以下哪種數(shù)據(jù)集()A、線性可分的數(shù)據(jù)集B、含有很多噪聲和重疊的數(shù)據(jù)C、經(jīng)過(guò)清洗較為干凈的數(shù)據(jù)D、以上數(shù)據(jù)都適用【正確答案】:AB解析:
011.下列哪些網(wǎng)用到了殘差連接A、FastTextBERTC、GoogLeNetD、ResNet【正確答案】:BD解析:
見(jiàn)算法解析12.vgg19中的19代表了網(wǎng)絡(luò)中哪些層的數(shù)目總和()A、全連接層B、輸入層C、池化層D、卷積層【正確答案】:ACD解析:
vgg19是常用的卷積神經(jīng)網(wǎng)絡(luò)之一,包括16層卷積層和3層全連接層,中間用到池化層13.屬于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的有()。A、VGGNetB、ResNetC、AlexNetD、GoogleNet【正確答案】:ABCD解析:
014.Python中的可變數(shù)據(jù)類型有A、字符串B、數(shù)字C、列表D、字典【正確答案】:CD解析:
015.需要循環(huán)迭代的算法有A、k-meansB、線性回歸C、svmD、邏輯回歸【正確答案】:ABD解析:
支持向量機(jī)(SVM)從數(shù)據(jù)中找出一個(gè)數(shù)據(jù)的分割超平面。將兩個(gè)類別的數(shù)據(jù)完全分割開(kāi),并且在模型構(gòu)建的過(guò)程中,保證分割區(qū)間最大化,無(wú)迭代循環(huán)16.生成對(duì)抗網(wǎng)絡(luò)GAN的基本結(jié)構(gòu)主要包括以下哪些A、觸發(fā)器B、生成器C、判別器D、聚合器【正確答案】:BC解析:
GAN網(wǎng)絡(luò)結(jié)構(gòu)是由生成器和判別器組成,訓(xùn)練過(guò)程中,生成器G不斷的生成贗品,判別器D這識(shí)別生成器G生成的結(jié)果是真品還是贗品,兩個(gè)網(wǎng)絡(luò)相互對(duì)抗,生成器G努力生成出欺騙過(guò)判別器D的贗品,而判別器D努力識(shí)別出生成器G生成的贗品,往復(fù)循環(huán),從而訓(xùn)練彼此17.人工神經(jīng)元網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系是()A、人工神經(jīng)元網(wǎng)絡(luò)是深度學(xué)習(xí)的前身B、深度學(xué)習(xí)是人工神經(jīng)元網(wǎng)絡(luò)的一個(gè)分支C、深度學(xué)習(xí)是人工神經(jīng)元網(wǎng)絡(luò)的一個(gè)發(fā)展D、深度學(xué)習(xí)與人工神經(jīng)元網(wǎng)絡(luò)無(wú)關(guān)【正確答案】:AC解析:
深度學(xué)習(xí)是實(shí)現(xiàn)機(jī)器學(xué)習(xí)的一種技術(shù),現(xiàn)在所說(shuō)的深度學(xué)習(xí)大部分都是指神經(jīng)網(wǎng)絡(luò)18.防止過(guò)擬合的方法有A、增加訓(xùn)練數(shù)據(jù)B、減少特征值C、正則化D、追求損失函數(shù)的最小【正確答案】:ABC解析:
019.遺傳算法評(píng)價(jià)的常用方法有()A、當(dāng)前最好法B、在線比較法C、離線比較法D、都不是【正確答案】:ABC解析:
020.下列哪些包不是圖像處理時(shí)常用的()A、timeB、sklearnC、osD、opencv【正確答案】:ABC解析:
見(jiàn)算法解析21.認(rèn)知語(yǔ)言學(xué)更多地是考慮()A、句法B、音韻C、語(yǔ)義D、語(yǔ)用【正確答案】:CD解析:
見(jiàn)算法解析22.下面關(guān)于邏輯回歸的說(shuō)法,正確的是:A、邏輯回歸主要應(yīng)用于二分類問(wèn)題B、邏輯回歸使用LogisticFunction后得到的數(shù)值在-1到1之間C、把邏輯回歸應(yīng)用于多分類問(wèn)題時(shí),需要使用Onevs.Rest方法D、邏輯回歸得到的數(shù)值可以看作屬于類別1的概率【正確答案】:ACD解析:
023.智能控制的開(kāi)發(fā),目前認(rèn)為有以下途徑()A、基于數(shù)據(jù)挖掘的專家智能控制B、基于遺傳算法的軟計(jì)算控制C、基于人工神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)控制D、以上說(shuō)法都不對(duì)【正確答案】:AC解析:
024.如果深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度消失或梯度爆炸問(wèn)題我們常用的解決方法為A、梯度剪切B、隨機(jī)欠采樣C、使用Relu激活函數(shù)D、正則化【正確答案】:ACD解析:
025.下列關(guān)于Ridge回歸,說(shuō)法正確的是(多選)?A、若λ=0,則等價(jià)于一般的線性回歸B、若λ=0,則不等價(jià)于一般的線性回歸C、若λ=+∞,則得到的權(quán)重系數(shù)很小,接近于零D、若λ=+∞,則得到的權(quán)重系數(shù)很大,接近與無(wú)窮大【正確答案】:AC解析:
026.下列關(guān)于Ridge回歸的說(shuō)法,正確的是()。A、若λ=0,則等價(jià)于一般的線性回歸B、若λ=0,則不等價(jià)于一般的線性回歸C、若λ=+∞,則得到的權(quán)重系數(shù)很小,接近于零D、若λ=+∞,則得到的權(quán)重系數(shù)很大,接近與無(wú)窮大【正確答案】:AC解析:
嶺回歸是一種專用于共線性數(shù)據(jù)分析的有偏估計(jì)回歸方法,實(shí)質(zhì)上是一種改良的最小二乘估計(jì)法,通過(guò)放棄最小二乘法的無(wú)偏性,以損失部分信息、降低精度為代價(jià)獲得回歸系數(shù)更為符合實(shí)際、更可靠的回歸方法,對(duì)病態(tài)數(shù)據(jù)的擬合要強(qiáng)于最小二乘法。27.在邏輯回歸輸出與目標(biāo)對(duì)比的情況下,以下評(píng)估指標(biāo)中哪些適用?AUC-ROCB、準(zhǔn)確度C、LoglossD、均方誤差【正確答案】:ABC解析:
028.那種機(jī)器學(xué)習(xí)算法不需要對(duì)數(shù)據(jù)進(jìn)行標(biāo)注A、有監(jiān)督學(xué)習(xí)B、無(wú)監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、深度學(xué)習(xí)【正確答案】:BC解析:
無(wú)監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)不需要標(biāo)注29.下列哪些組件是Resnet通常不包括的()A、殘差連接B、卷積單元C、循環(huán)連接D、Attention模塊【正確答案】:CD解析:
見(jiàn)算法解析30.常用的盲目搜索方法是什么A、隨機(jī)碰撞式搜索B、精確碰撞式搜索C、不完全式搜索D、完全式搜索【正確答案】:AD解析:
盲目搜索方法又叫非啟發(fā)式搜索,是一種無(wú)信息搜索,一般只適用于求解比較簡(jiǎn)單的問(wèn)題,盲目搜索通常是按預(yù)定的搜索策略進(jìn)行搜索,而不會(huì)考慮到問(wèn)題本身的特性。常用的盲目搜索有寬度優(yōu)先搜索和深度優(yōu)先搜索兩種31.日語(yǔ)是()的混合體A、平假名B、漢字C、片假名D、假名【正確答案】:BC解析:
見(jiàn)算法解析32.下列無(wú)監(jiān)督學(xué)習(xí)算法中可解決降維問(wèn)題的算法有A、PCAB、LSAC、LDAD、k-means【正確答案】:ABC解析:
k-means只能解決聚類問(wèn)題33.在數(shù)據(jù)清理中,下面哪個(gè)屬于處理缺失值的方法?A、估算B、整例刪除C、變量刪除D、成對(duì)刪除【正確答案】:ABC解析:
034.人工智能算法中,決策樹(shù)分類算法包括A、C4.5B、ID3C、SGDD、CART【正確答案】:ABD解析:
常見(jiàn)決策樹(shù)分類算法包括C4.5,ID3,CART。SGD隨機(jī)梯度下降算法屬于降維算法。35.RNN循環(huán)神經(jīng)網(wǎng)絡(luò)可以對(duì)一下那些場(chǎng)景進(jìn)行處理()。A、自然語(yǔ)言處理B、圖像處理C、手寫體識(shí)別D、語(yǔ)音識(shí)別【正確答案】:ACD解析:
圖像處理場(chǎng)景主要應(yīng)用于CNN36.回歸問(wèn)題的評(píng)估方法包括A、F值B、AUCC、決定系數(shù)D、均方誤差【正確答案】:CD解析:
037.經(jīng)典邏輯推理有哪些?A、自然演繹推理B、歸結(jié)演繹推理C、不確定與非單調(diào)推理D、與、或形演繹推理【正確答案】:ABD解析:
038.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見(jiàn)的池化有哪些?A、最小池化層B、乘積池化層C、最大池化層D、平均池化層【正確答案】:CD解析:
卷積神經(jīng)網(wǎng)絡(luò)的池化層常用的兩種是最大池化層和平均池化層。39.SVM中常用的核函數(shù)包括哪些?A、高斯核函數(shù)B、多項(xiàng)式核函數(shù)C、Sigmiod核函數(shù)D、線性核函數(shù)【正確答案】:ABCD解析:
SVM常用的核函數(shù)包括:線性核函數(shù)、多項(xiàng)式核函數(shù)、高斯核函數(shù)、Sigmiod核函數(shù)40.大數(shù)據(jù)智能是新一代人工智能五個(gè)技術(shù)發(fā)展方向之一,其研究面向CPH(賽博、物理人類)三元空間的知識(shí)表達(dá)新體系,鏈接()A、實(shí)體B、技術(shù)C、行為D、關(guān)系【正確答案】:ACD解析:
見(jiàn)算法解析41.貝葉斯網(wǎng)絡(luò)由兩部分組成,分別是A、網(wǎng)絡(luò)結(jié)構(gòu)B、先驗(yàn)概率C、后驗(yàn)概率D、條件概率表【正確答案】:AD解析:
042.預(yù)剪枝使得決策樹(shù)的很多分子都沒(méi)有展開(kāi),會(huì)導(dǎo)致()。A、顯著減少訓(xùn)練時(shí)間開(kāi)銷B、顯著減少測(cè)試時(shí)間開(kāi)銷C、降低過(guò)擬合風(fēng)險(xiǎn)D、提高欠擬合風(fēng)險(xiǎn)【正確答案】:ABCD解析:
預(yù)剪枝就是在構(gòu)造決策樹(shù)的過(guò)程中,先對(duì)每個(gè)結(jié)點(diǎn)在劃分前進(jìn)行估計(jì),若果當(dāng)前結(jié)點(diǎn)的劃分不能帶來(lái)決策樹(shù)模型泛華性能的提升,則不對(duì)當(dāng)前結(jié)點(diǎn)進(jìn)行劃分并且將當(dāng)前結(jié)點(diǎn)標(biāo)記為葉結(jié)點(diǎn)43.以下哪些是專家系統(tǒng)結(jié)構(gòu)的一部分?A、知識(shí)庫(kù)B、推理機(jī)C、動(dòng)態(tài)數(shù)據(jù)庫(kù)D、解釋模塊【正確答案】:ABCD解析:
專家系統(tǒng)的結(jié)構(gòu)包含人機(jī)界面、知識(shí)庫(kù)、推理機(jī)、動(dòng)態(tài)數(shù)據(jù)庫(kù)、知識(shí)庫(kù)答理系統(tǒng)和解釋模塊。44.哪些項(xiàng)屬于集成學(xué)習(xí)A、KnnB、AdaboostC、隨機(jī)森林D、XGBoost【正確答案】:BCD解析:
集成學(xué)習(xí)方法大致可分為兩大類:即個(gè)體學(xué)習(xí)器間存在強(qiáng)依賴關(guān)系,必須串行生成的序列化方法以及個(gè)體學(xué)習(xí)器間不存在強(qiáng)依賴關(guān)系、可同時(shí)生成的并行化方法;前者代表是Boosting,后者代表是Bagging和“隨機(jī)森林”45.機(jī)器翻譯的局限性在于()A、訓(xùn)練樣本單一B、只能處理簡(jiǎn)單句C、基于已有的既成案例D、錯(cuò)誤較多【正確答案】:BC解析:
見(jiàn)算法解析46.長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)中具有三個(gè)重要開(kāi)關(guān),我們稱為A、記憶門B、輸入門C、輸出門D、遺忘門【正確答案】:BCD解析:
047.關(guān)于線性回歸說(shuō)法正確的是()A、日常生活中,收入預(yù)測(cè)可以作為線性回歸問(wèn)題來(lái)解決B、商品庫(kù)存預(yù)測(cè),是一種典型的有監(jiān)督學(xué)習(xí)方法C、常用的回歸模型有線性回實(shí)用歸和非線性回歸D、線性回歸是簡(jiǎn)單的方法"【正確答案】:ABCD解析:
048.根據(jù)本課程,3D打印技術(shù)有什么優(yōu)勢(shì)?()A、變革產(chǎn)品設(shè)計(jì)理念B、降低大批量生產(chǎn)的成本C、降低小批量生產(chǎn)的成本D、是很多傳統(tǒng)方法無(wú)法比擬的新的制造手段【正確答案】:ACD解析:
見(jiàn)算法解析49.下列哪些是卷積操作的優(yōu)點(diǎn)?()A、具有局部感受野B、對(duì)事物不同部分的觀察之間能實(shí)現(xiàn)參數(shù)共享C、可有效捕捉序列化數(shù)據(jù)的特征D、操作復(fù)雜度與輸入尺寸無(wú)關(guān)【正確答案】:AB解析:
見(jiàn)算法解析50.我國(guó)建設(shè)安全便捷的智能社會(huì)的重要途徑包括()A、發(fā)展便捷高效的智能服務(wù)B、推進(jìn)社會(huì)治理智能化C、提升公共安全保障能力D、促進(jìn)社會(huì)交往共享互信【正確答案】:ABCD解析:
見(jiàn)算法解析51.計(jì)算智能的主要內(nèi)容包括()A、神經(jīng)計(jì)算B、進(jìn)化計(jì)算C、免疫計(jì)算D、蟻群算法【正確答案】:AB解析:
見(jiàn)算法解析52.以下哪些網(wǎng)絡(luò)結(jié)構(gòu)具有反饋連接功能,即將前一層的輸出和當(dāng)前層自身作為輸入()A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、LSTM網(wǎng)絡(luò)D、多層感知機(jī)【正確答案】:AC解析:
LSTM是循環(huán)神經(jīng)網(wǎng)絡(luò)的一種,循環(huán)神經(jīng)網(wǎng)絡(luò)的輸入是前一層的輸出和當(dāng)前層自身53.為增加模型的泛化能力,可以使用下列哪些方法A、L1正則化B、L2正則化C、DropoutD、增加訓(xùn)練集樣本數(shù)量【正確答案】:ABCD解析:
4種方法均可54.k-means算法的典型計(jì)算步驟包括A、從數(shù)據(jù)點(diǎn)中隨機(jī)選擇數(shù)量與簇的數(shù)量相同的數(shù)據(jù)點(diǎn),作為這些簇的重心B、計(jì)算數(shù)據(jù)點(diǎn)與各重心之間的距離,并將最近的重心所在的簇作為該數(shù)據(jù)點(diǎn)所屬的簇C、計(jì)算每個(gè)簇的數(shù)據(jù)點(diǎn)到重心距離的平均值,并將其作為新的重心D、重復(fù)步驟2與步驟3,繼續(xù)計(jì)算,直到所有數(shù)據(jù)點(diǎn)不改變所屬的簇,或達(dá)到計(jì)算最大次數(shù)【正確答案】:ABCD解析:
055.數(shù)據(jù)挖掘算法的組件包括()A、模型或模型結(jié)構(gòu)B、評(píng)分函數(shù)C、優(yōu)化和搜索方法D、數(shù)據(jù)管理策略【正確答案】:ABCD解析:
056.狀態(tài)估計(jì)的幾種常用算法()。A、高斯法B、最小二乘法C、快速分解法D、正交變換法【正確答案】:BCD解析:
057.大規(guī)模關(guān)系分析場(chǎng)景下,以下哪個(gè)選項(xiàng)屬于海量關(guān)系處理的三高需求()A、對(duì)海量數(shù)據(jù)的高效關(guān)系發(fā)現(xiàn)需求B、對(duì)海量數(shù)據(jù)的高效共享需求C、對(duì)海量數(shù)據(jù)的高效存儲(chǔ)和訪問(wèn)需求D、對(duì)關(guān)系分析平臺(tái)的高可擴(kuò)展性和高可用性【正確答案】:ACD解析:
058.深度學(xué)習(xí)中以下哪些步驟是由模型自動(dòng)完成的?A、模型訓(xùn)練B、特征選擇C、分析定位任務(wù)D、特征提取【正確答案】:BD解析:
059.下列哪些項(xiàng)屬于聚類算法?A、K-meansBIRCHC、SVMDBSCAN【正確答案】:ABD解析:
060.關(guān)于K均值和DBSCAN的比較,以下說(shuō)法正確的是()。A、K均值丟棄被它識(shí)別為噪聲的對(duì)象,而DBSCAN一般聚類所有對(duì)象。B、K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念。C、K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇。D、K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會(huì)合并有重疊的簇?!菊_答案】:BCD解析:
061.下列有監(jiān)督學(xué)習(xí)算法中可解決分類問(wèn)題的算法有A、線性回歸B、邏輯回歸C、支持向量機(jī)D、隨機(jī)森林【正確答案】:BCD解析:
線性回歸無(wú)法解決分類問(wèn)題62.神經(jīng)網(wǎng)絡(luò)可以按()分類A、學(xué)習(xí)方式B、網(wǎng)絡(luò)結(jié)構(gòu)C、網(wǎng)絡(luò)的協(xié)議類型D、網(wǎng)絡(luò)的活動(dòng)方式【正確答案】:ABD解析:
063.EM算法每次迭代包括哪些步驟?A、求期望B、求極大值C、求標(biāo)準(zhǔn)差D、求方差【正確答案】:AB解析:
EM算法每次迭代包括求期望、求極大值64.支持向量機(jī)的求解通常是借助于凸優(yōu)化技術(shù),針對(duì)線性核SVM來(lái)說(shuō),主要的求解提升效率方法為(____)。A、割平面法B、隨機(jī)梯度下降C、坐標(biāo)下降法D、快速采樣法【正確答案】:ABC解析:
見(jiàn)算法解析65.下列哪些包是圖像處理時(shí)常用的?A、numpyB、opencvC、gensimD、matplotlib【正確答案】:ABD解析:
見(jiàn)算法解析66.下列是svm核函數(shù)的是()A、多項(xiàng)式核函數(shù)B、logistic核函數(shù)C、徑向基核函數(shù)D、sigmoid核函數(shù)【正確答案】:ACD解析:
067.Transformer由且僅由()和()組成。只要計(jì)算資源夠,可以通過(guò)堆疊多層Transformer來(lái)搭建復(fù)雜網(wǎng)絡(luò)。A、Self-AttenionB、FeedForwardNeuralNetworkC、FeedBackwardNeuralNetworkD、Self-Action【正確答案】:AB解析:
見(jiàn)算法解析68.若使用深度學(xué)習(xí)處理語(yǔ)義分類任務(wù),在處理變長(zhǎng)數(shù)據(jù)時(shí),我們通常采取()。A、截?cái)噙^(guò)長(zhǎng)語(yǔ)句B、填充隨機(jī)數(shù)C、填充特殊詞語(yǔ)D、不處理【正確答案】:AC解析:
深度學(xué)習(xí)處理長(zhǎng)語(yǔ)句的常用手段69.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見(jiàn)的池化有A、最小地化層B、乘積池化層C、最大池化層D、平均池化層【正確答案】:CD解析:
070.如何判斷一段文本的情感方向?關(guān)于遞歸神經(jīng)網(wǎng)絡(luò)RNN(Socheretal.,2011)的下列描述錯(cuò)誤的是A、遞歸神經(jīng)網(wǎng)絡(luò)RNN中的每個(gè)詞表示為一個(gè)高維稀疏向量B、遞歸神經(jīng)網(wǎng)絡(luò)RNN中基于詞袋模型表示詞向量C、遞歸神經(jīng)網(wǎng)絡(luò)RNN利用了語(yǔ)法分析樹(shù)的結(jié)果D、遞歸神經(jīng)網(wǎng)絡(luò)RNN中父節(jié)點(diǎn)的詞向量通過(guò)利用組合函數(shù)g由其孩子節(jié)點(diǎn)的向量得到【正確答案】:AB解析:
071.下列哪些方法的輸出結(jié)果,通常包含boundingbox?()A、MTCNNB、FasterRCNNC、MaskRCNND、AlexNet【正確答案】:ABC解析:
見(jiàn)算法解析72.數(shù)據(jù)挖掘的挖掘方法包括:()A、聚類分析B、回歸分析C、線性分析D、神經(jīng)網(wǎng)絡(luò)【正確答案】:ABD解析:
073.長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)在哪些領(lǐng)域有成功應(yīng)用A、語(yǔ)音識(shí)別B、圖片描述C、自然語(yǔ)言處理D、以上都不正確【正確答案】:ABC解析:
074.強(qiáng)化學(xué)習(xí)中的兩種免模型學(xué)習(xí)是()、()。A、逆強(qiáng)化學(xué)習(xí)B、時(shí)序差分學(xué)習(xí)C、蒙特卡羅強(qiáng)化學(xué)習(xí)D、模仿學(xué)習(xí)【正確答案】:BC解析:
在現(xiàn)實(shí)的強(qiáng)化學(xué)習(xí)任務(wù)中,環(huán)境的轉(zhuǎn)移概率、獎(jiǎng)賞函數(shù)往往很難得知,甚至很難知道環(huán)境中一共有多少狀態(tài),若學(xué)習(xí)算法不依賴于環(huán)境建模,則稱為“免模型學(xué)習(xí)”,包括蒙特卡羅強(qiáng)化學(xué)習(xí)和時(shí)序差分學(xué)習(xí)75.根據(jù)本課程,智能制造系統(tǒng)由哪些方面構(gòu)成()A、智能創(chuàng)新B、智能產(chǎn)品C、智能生產(chǎn)D、智能服務(wù)【正確答案】:ABCD解析:
見(jiàn)算法解析76.對(duì)于lstm=paddle.nn.LSTM(input_size=3,hidden_size=5,num_layers=2),輸入數(shù)據(jù)的形狀可以是:A、[10,5,3]B、[5,10,3]C、[3,5,10]D、[3,10,5]【正確答案】:AB解析:
lstm輸入形狀為[batch_size,time_steps,input_size],即[..,..,3]77.關(guān)于混合模型聚類算法的優(yōu)缺點(diǎn),下面說(shuō)法錯(cuò)誤的是()。A、當(dāng)簇只包含少量數(shù)據(jù)點(diǎn),或者數(shù)據(jù)點(diǎn)近似協(xié)線性時(shí),混合模型也能很好地處理。B、混合模型比K均值或模糊均值更一般,因?yàn)樗梢允褂酶鞣N類型的分布。C、混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇。D、混合模型在有噪聲和離群點(diǎn)時(shí)不會(huì)存在問(wèn)題?!菊_答案】:ACD解析:
078.機(jī)器學(xué)習(xí)中的random_state參數(shù),有關(guān)說(shuō)法正確的是()。A、恒值時(shí)可以固定每次的劃分結(jié)果B、不可修改C、含義為隨機(jī)數(shù)種子D、僅在劃分?jǐn)?shù)據(jù)集時(shí)用到【正確答案】:AC解析:
079.一個(gè)含有2個(gè)隱層的BP神經(jīng)網(wǎng)絡(luò),神經(jīng)元個(gè)數(shù)都為20,輸入和輸出節(jié)點(diǎn)分別有8和5個(gè)節(jié)點(diǎn),這個(gè)網(wǎng)絡(luò)的權(quán)重和偏置數(shù)分別是A、3000B、660C、45D、48【正確答案】:BC解析:
權(quán)重?cái)?shù)為20*20+20*8+20*5=660,偏置數(shù)為20+20+5=4580.下列敘述中不正確的是A、算法復(fù)雜度是指算法控制結(jié)構(gòu)的復(fù)雜程度B、法設(shè)計(jì)只需考慮結(jié)果的可靠性C、數(shù)據(jù)的存儲(chǔ)結(jié)構(gòu)會(huì)影響算法的效率D、算法復(fù)雜度是用算法中指令的條數(shù)來(lái)度量的【正確答案】:ABD解析:
算法的設(shè)計(jì)要求包括效率與低存儲(chǔ)量,即要考慮算法的時(shí)間復(fù)雜度與空間復(fù)雜度。因此選項(xiàng)B錯(cuò)誤;算法的復(fù)雜度主要包括時(shí)間復(fù)雜度和空間復(fù)雜度。所謂算法的時(shí)間復(fù)雜度,是指執(zhí)行算法所需要的計(jì)算工作量;一個(gè)算法的空間復(fù)雜度,一般是指執(zhí)行這個(gè)算法所需要的內(nèi)存空間,因此選項(xiàng)A、D錯(cuò)誤。81.卷積神經(jīng)網(wǎng)絡(luò)中典型的模式是?A、卷積層后為池化層,然后還是卷積層-池化層。B、多個(gè)連續(xù)的池化層,然后跟著一個(gè)卷積層C、網(wǎng)絡(luò)中最后的幾個(gè)層是全連接層D、網(wǎng)絡(luò)中最開(kāi)始的幾個(gè)層是全連接層【正確答案】:AC解析:
一般卷積層后為池化層,網(wǎng)絡(luò)最后為幾個(gè)全連接層。82.下列哪些項(xiàng)是構(gòu)建知識(shí)圖譜用到的主要技術(shù)?A、詞性標(biāo)注B、實(shí)體鏈接C、關(guān)系抽取D、命名實(shí)體識(shí)別【正確答案】:BCD解析:
083.選擇如下哪些搜索方法屬于無(wú)信息搜索A、貪婪搜索B、A*搜索C、雙向搜索D、寬度優(yōu)先搜索【正確答案】:CD解析:
084.工業(yè)界人工智能成功的三大法寶是哪些A、深度學(xué)習(xí)B、大數(shù)據(jù)C、云計(jì)算D、漣漪效應(yīng)【正確答案】:ABC解析:
085.下列哪些屬于頻繁模式挖掘算法()A、FP-growthB、DBSCANC、AprioriD、GDBT【正確答案】:AC解析:
見(jiàn)算法解析86.可作為決策樹(shù)選擇劃分屬性的參數(shù)是()A、信息增益B、增益率C、基尼指數(shù)D、密度函數(shù)【正確答案】:ABC解析:
087.以下屬于梯度下降的是A、BGDB、SGDC、Mini-BatchD、dropout【正確答案】:ABC解析:
梯度下降法作為機(jī)器學(xué)習(xí)中較常使用的優(yōu)化算法,其有著三種不同的形式:批量梯度下降(BatchGradientDescent)、隨機(jī)梯度下降(StochasticGradientDescent)以及小批量梯度下降(Mini-BatchGradientDescent)88.以下哪些激活函數(shù)容易產(chǎn)生梯度消失問(wèn)題?A、ReLUB、SoftplusC、TanhD、Sigmoid【正確答案】:CD解析:
089.關(guān)于反向傳播算法,它的主要不足在于A、訓(xùn)練時(shí)間較長(zhǎng)B、完全不能訓(xùn)練,訓(xùn)練時(shí)由于權(quán)值調(diào)整過(guò)大使得激活函數(shù)達(dá)到飽和C、易陷入局部極小值D、訓(xùn)練過(guò)程中,學(xué)習(xí)新樣本時(shí)有一網(wǎng)舊樣本的趨勢(shì)【正確答案】:ABCD解析:
學(xué)習(xí)速度慢,失敗的可能性較大是主要不足之處90.seq2seq主要由()和()組成,A、EncoderB、transformerC、DecoderD、dropper【正確答案】:AC解析:
見(jiàn)算法解析91.列哪些屬于循環(huán)神經(jīng)網(wǎng)絡(luò)()A、CNNB、LSTMC、BERTD、RNN【正確答案】:BD解析:
見(jiàn)算法解析92.使用KNN(K-NearestNeighbor)算法解決分類問(wèn)題的步驟包括A、對(duì)未知數(shù)據(jù)進(jìn)行正則化B、計(jì)算未知數(shù)據(jù)與已知標(biāo)簽數(shù)據(jù)之間的距離C、得到距離未知數(shù)據(jù)最近的k個(gè)已知標(biāo)簽數(shù)據(jù)D、通過(guò)已知標(biāo)簽數(shù)據(jù)的數(shù)量進(jìn)行多數(shù)表決,作為未知數(shù)據(jù)的分類結(jié)果【正確答案】:BCD解析:
093.貝葉斯信念網(wǎng)絡(luò)(BBN)有如下哪些特點(diǎn)()A、構(gòu)建網(wǎng)絡(luò)費(fèi)時(shí)費(fèi)力B、對(duì)模型的過(guò)分問(wèn)題非常魯棒C、貝葉斯網(wǎng)絡(luò)不適合處理不完整的數(shù)據(jù)D、網(wǎng)絡(luò)結(jié)構(gòu)確定后,添加變量相當(dāng)麻煩【正確答案】:AB解析:
094.下列算法哪些屬于K-means的變種?A、kNNB、MeanshiftC、k-means++D、以上都不是【正確答案】:BC解析:
見(jiàn)算法解析95.AlexNet與LeNet的區(qū)別是A、模型構(gòu)造不同B、激活函數(shù)不同C、AlexNet使用dropout來(lái)控制全連接層的模型復(fù)雜程度D、AlexNet中引入了圖像增廣【正確答案】:ABCD解析:
AlexNet與LeNet的區(qū)別是模型構(gòu)造不同,激活函數(shù)不同,AlexNet使用dropout來(lái)控制全連接層的模型復(fù)雜程度,AlexNet中引入了圖像增廣96.下列哪些技術(shù)已被用于文本分類()A、文本卷積B、注意力機(jī)制C、GRUD、BiLSTM【正確答案】:ABCD解析:
見(jiàn)算法解析97.在paddle環(huán)境下,多分類問(wèn)題的損失函數(shù)可用A、paddle.nn.functional.mse_lossB、paddle.nn.functional.softmax_with_cross_entropyC、paddle.nn.CrossEntropyLossD、paddle.nn.functional.cross_entropy【正確答案】:BCD解析:
paddle.nn.functional.softmax_with_cross_entropy,paddle.nn.CrossEntropyLoss,paddle.nn.functional.cross_entropy均可用于多分類問(wèn)題98.最常用的降維算法是PCA,以下哪項(xiàng)是關(guān)于PCA是正確的A、PCA是一種無(wú)監(jiān)督的方法B、.它搜索數(shù)據(jù)具有最大差異的方向C、主成分的最大數(shù)量D、.所有主成分彼此正交【正確答案】:ABCD解析:
PCA的原理是線性映射,簡(jiǎn)單的說(shuō)就是將高維空間數(shù)據(jù)投影到低維空間上,然后將數(shù)據(jù)包含信息量大的主成分保留下來(lái),忽略掉對(duì)數(shù)據(jù)描述不重要的次要信息。而對(duì)于正交屬性空間中的樣本,如何用一個(gè)超平面對(duì)所有樣本進(jìn)行恰當(dāng)合適的表達(dá)呢?若存在這樣的超平面,應(yīng)該具有兩種性質(zhì):所有樣本點(diǎn)到超平面的距離最近,樣本點(diǎn)在這個(gè)超平面的投影盡可能分開(kāi)99.以下模型中,會(huì)用到隨機(jī)梯度下降法的分別是A、CNNB、RNNC、KNND、C4.5【正確答案】:AB解析:
見(jiàn)算法解析100.以下屬于優(yōu)化器的是AdamB、SGDC、MomentumD、lr【正確答案】:ABC解析:
lr為learningrate縮寫,不屬于優(yōu)化器1.標(biāo)準(zhǔn)庫(kù)os的rename()方法可以實(shí)現(xiàn)文件移動(dòng)操作。A、正確B、錯(cuò)誤【正確答案】:A解析:
正確2.LeCun提出的卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork),大幅度地提高了手寫字符的識(shí)別能力,也因此成為了深度學(xué)習(xí)領(lǐng)域的奠基人之一A、正確B、錯(cuò)誤【正確答案】:A解析:
正確3.在神經(jīng)網(wǎng)絡(luò)中,每個(gè)參數(shù)可以有不同的學(xué)習(xí)率A、正確B、錯(cuò)誤【正確答案】:A解析:
04.人工校驗(yàn)是指打印數(shù)據(jù)輸出結(jié)果,觀察是否是預(yù)期的格式。實(shí)現(xiàn)數(shù)據(jù)處理和加載函數(shù)后,我們可以調(diào)用它讀取一次數(shù)據(jù),觀察數(shù)據(jù)的shape和類型是否與函數(shù)中設(shè)置的一致A、正確B、錯(cuò)誤【正確答案】:A解析:
正確5.LR的損失函數(shù)為hingeloss(或者說(shuō)是邏輯損失都可以)、而SVM的損失函數(shù)為L(zhǎng)og損失。A、正確B、錯(cuò)誤【正確答案】:B解析:
錯(cuò)誤6.人工智能發(fā)展進(jìn)入新階段。經(jīng)過(guò)60多年的演進(jìn),特別是在移動(dòng)互聯(lián)網(wǎng)、大數(shù)據(jù)、超級(jí)計(jì)算、傳感網(wǎng)、腦科學(xué)等新理論新技術(shù)以及經(jīng)濟(jì)社會(huì)發(fā)展強(qiáng)烈需求的共同驅(qū)動(dòng)下,人工智能加速發(fā)展,呈現(xiàn)出深度學(xué)習(xí)、跨界融合、人機(jī)協(xié)同、群智開(kāi)放、自主操控等新特征A、正確B、錯(cuò)誤【正確答案】:A解析:
正確7.傳統(tǒng)程序無(wú)學(xué)習(xí)能力,通過(guò)規(guī)則+數(shù)據(jù)=答案,正確率沒(méi)有變化()A、正確B、錯(cuò)誤【正確答案】:A解析:
正確8.有許多種梯度下降算法,其中兩種最出名的方法是l-BFGS和SGD。l-BFGS根據(jù)二階梯度下降而SGD是根據(jù)一階梯度下降的。只有在數(shù)據(jù)很稀疏的場(chǎng)景中,會(huì)更加偏向于使用l-BFGS而不是SGDA、正確B、錯(cuò)誤【正確答案】:B解析:
或者神經(jīng)網(wǎng)絡(luò)參數(shù)量很少的情況下9.Python不允許使用關(guān)鍵字作為變量名,允許使用內(nèi)置函數(shù)名作為變量名,但這會(huì)改變函數(shù)名的含義。A、正確B、錯(cuò)誤【正確答案】:A解析:
正確10.使用內(nèi)置函數(shù)open()且以”w”模式打開(kāi)的文件,文件指針默認(rèn)指向文件尾。A、正確B、錯(cuò)誤【正確答案】:B解析:
以只寫模式打開(kāi)。若文件存在,則會(huì)自動(dòng)清空文件,然后重新創(chuàng)建11.Python2.x和Python3.x中input()函數(shù)的返回值都是字符串。A、正確B、錯(cuò)誤【正確答案】:B解析:
見(jiàn)函數(shù)庫(kù)12.表達(dá)式list('[1,2,3]')的值是[1,2,3]。A、正確B、錯(cuò)誤【正確答案】:B解析:
見(jiàn)函數(shù)庫(kù)13.根據(jù)展現(xiàn)及操作方式的不同,虛擬現(xiàn)實(shí)技術(shù)可以分為以下四類:桌面式虛擬現(xiàn)實(shí)、沉浸式虛擬現(xiàn)實(shí)、增強(qiáng)式虛擬現(xiàn)實(shí)、分布式虛擬現(xiàn)實(shí)A、正確B、錯(cuò)誤【正確答案】:A解析:
正確14.定義類時(shí)所有實(shí)例方法的第一個(gè)參數(shù)用來(lái)表示對(duì)象本身,在類的外部通過(guò)對(duì)象名來(lái)調(diào)用實(shí)例方法時(shí)不需要為該參數(shù)傳值。A、正確B、錯(cuò)誤【正確答案】:A解析:
正確15.人工智能與數(shù)據(jù)相輔相成、互促發(fā)展。一方面,海量?jī)?yōu)質(zhì)數(shù)據(jù)助力人工智能發(fā)展。另一方面,人工智能顯著提升數(shù)據(jù)收集管理能力和數(shù)據(jù)挖掘利用水平。A、正確B、錯(cuò)誤【正確答案】:A解析:
正確16.BoW模型忽略詞的順序,這意味著包含相同單詞的兩個(gè)文檔的表征是完全相同的。A、正確B、錯(cuò)誤【正確答案】:A解析:
正確17.人工智能應(yīng)用可導(dǎo)致個(gè)人數(shù)據(jù)過(guò)度采集,加劇隱私泄露風(fēng)險(xiǎn)。A、正確B、錯(cuò)誤【正確答案】:A解析:
正確18.感受野的定義是:卷積神經(jīng)網(wǎng)絡(luò)每一層輸出的特征圖上的像素點(diǎn)在原始圖像上映射的區(qū)域大小。A、正確B、錯(cuò)誤【正確答案】:A解析:
正確19.經(jīng)典的全連接神經(jīng)網(wǎng)絡(luò)中,隱含層的節(jié)點(diǎn)數(shù)是可以調(diào)整的,節(jié)點(diǎn)數(shù)越多,神經(jīng)網(wǎng)絡(luò)表示能力越強(qiáng),參數(shù)量也會(huì)減少A、正確B、錯(cuò)誤【正確答案】:B解析:
錯(cuò)誤20.人工智能因其技術(shù)的局限性和應(yīng)用的廣泛性,給網(wǎng)絡(luò)安全、數(shù)據(jù)安全、算法安全和信息安全帶來(lái)風(fēng)險(xiǎn)A、正確B、錯(cuò)誤【正確答案】:A解析:
正確21.mini-batch太小會(huì)導(dǎo)致收斂變慢A、正確B、錯(cuò)誤【正確答案】:A解析:
正確22.計(jì)算機(jī)視覺(jué)具有速度快、精度高、成本高等優(yōu)點(diǎn)A、正確B、錯(cuò)誤【正確答案】:B解析:
錯(cuò)誤23.由于池化之后特征圖會(huì)變小,如果后面連接的是全連接層,能有效的減小神經(jīng)元的個(gè)數(shù),節(jié)省存儲(chǔ)空間并提高計(jì)算效率A、正確B、錯(cuò)誤【正確答案】:A解析:
正確24.池化層減小圖像尺寸即數(shù)據(jù)降維,緩解過(guò)擬合,保持一定程度的旋轉(zhuǎn)和平移不變性。A、正確B、錯(cuò)誤【正確答案】:A解析:
正確25.當(dāng)作為條件表達(dá)式時(shí),空值、空字符串、空列表、空元組、空字典、空集合、空迭代對(duì)象以及任意形式的數(shù)字0都等價(jià)于False。A、正確B、錯(cuò)誤【正確答案】:A解析:
正確26.生成器推導(dǎo)式比列表推導(dǎo)式具有更高的效率,推薦使用。A、正確B、錯(cuò)誤【正確答案】:A解析:
正確27.近年來(lái),全球人工智能人才需求呈現(xiàn)持續(xù)增長(zhǎng)的趨勢(shì)A、正確B、錯(cuò)誤【正確答案】:A解析:
正確28.VGG從增加網(wǎng)絡(luò)寬度角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)A、正確B、錯(cuò)誤【正確答案】:B解析:
錯(cuò)誤29.人工智能是機(jī)器,特別是計(jì)算機(jī)系統(tǒng)對(duì)人類智能過(guò)程的模擬。過(guò)程包括學(xué)習(xí)(獲取信息和使用信息的規(guī)則),推理(使用規(guī)則達(dá)到近似或明確的結(jié)論)和自我糾正。人工智能的特定應(yīng)用包括專家系統(tǒng),語(yǔ)音識(shí)別和計(jì)算機(jī)視覺(jué)等A、正確B、錯(cuò)誤【正確答案】:A解析:
正確30.數(shù)據(jù)集太小,數(shù)據(jù)樣本不足時(shí),深度學(xué)習(xí)相對(duì)其它機(jī)器學(xué)習(xí)算法,有明顯優(yōu)勢(shì)。A、正確B、錯(cuò)誤【正確答案】:B解析:
錯(cuò)誤31.Python集合中的元素不允許重復(fù)。A、正確B、錯(cuò)誤【正確答案】:A解析:
正確32.卷積神經(jīng)網(wǎng)絡(luò)是更善于處理圖像的網(wǎng)絡(luò)A、正確B、錯(cuò)誤【正確答案】:A解析:
正確33.自然語(yǔ)言處理主要分為兩個(gè)流程:自然語(yǔ)言理解和自然語(yǔ)言生成A、正確B、錯(cuò)誤【正確答案】:A解析:
正確34.dropout方法在預(yù)測(cè)過(guò)程中keep_prob=1A、正確B、錯(cuò)誤【正確答案】:A解析:
正確35.在知識(shí)的規(guī)則表示法中,產(chǎn)生式的基本形式是PQ()A、正確B、錯(cuò)誤【正確答案】:B解析:
產(chǎn)生式的基本形式是P->Q36.在問(wèn)題歸約圖中,終葉節(jié)點(diǎn)是可解節(jié)點(diǎn)。A、正確B、錯(cuò)誤【正確答案】:B解析:
在問(wèn)題歸約圖中,終葉節(jié)點(diǎn)是不可解節(jié)點(diǎn)。37.AlexNet與LeNet相比,具有更深的網(wǎng)絡(luò)結(jié)構(gòu),包含5層卷積和3層全連接A、正確B、錯(cuò)誤【正確答案】:A解析:
正確38.建立倫理道德多層次判斷結(jié)構(gòu)及人機(jī)協(xié)作的倫理框架,制定人工智能產(chǎn)品研發(fā)設(shè)計(jì)人員的道德規(guī)范和行為守則A、正確B、錯(cuò)誤【正確答案】:A解析:
正確39.自然語(yǔ)言處理基礎(chǔ)技術(shù)包括分詞、詞性標(biāo)注、詞法分析、語(yǔ)法分析、語(yǔ)義分析、篇章分析等A、正確B、錯(cuò)誤【正確答案】:A解析:
正確40.Python字典中的“鍵”不允許重復(fù)。A、正確B、錯(cuò)誤【正確答案】:A解析:
正確41.ResNet從改善網(wǎng)絡(luò)退化現(xiàn)象角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)A、正確B、錯(cuò)誤【正確答案】:A解析:
正確42.人工智能技術(shù)已經(jīng)由原本的單一化輸出向全套解決方案轉(zhuǎn)變,其滲透性也不斷減弱A、正確B、錯(cuò)誤【正確答案】:B解析:
人工智能技術(shù)已經(jīng)由原本的單一化輸出向全套解決方案轉(zhuǎn)變,其滲透性也不斷增強(qiáng)43.機(jī)器學(xué)習(xí),有學(xué)習(xí)能力,通過(guò)規(guī)則+數(shù)據(jù)=答案,正確率不斷提升()A、正確B、錯(cuò)誤【正確答案】:B解析:
錯(cuò)誤44.KNN不需要進(jìn)行訓(xùn)練A、正確B、錯(cuò)誤【正確答案】:A解析:
正確45.神經(jīng)網(wǎng)絡(luò)中,前向計(jì)算是指從輸入計(jì)算輸出的過(guò)程,順序從網(wǎng)絡(luò)后至前A、正確B、錯(cuò)誤【正確答案】:B解析:
錯(cuò)誤46.對(duì)于多分類問(wèn)題神經(jīng)網(wǎng)絡(luò)一般使用歐氏距離損失而不用交叉熵A、正確B、錯(cuò)誤【正確答案】:B解析:
分類問(wèn)題常用的損失函數(shù)為交叉熵47.數(shù)據(jù)預(yù)處理方法主要有數(shù)據(jù)清洗、數(shù)據(jù)集成、數(shù)據(jù)變換、數(shù)據(jù)歸約A、正確B、錯(cuò)誤【正確答案】:A解析:
048.GRU含有一個(gè)cell單元,用于存儲(chǔ)中間狀態(tài)A、正確B、錯(cuò)誤【正確答案】:B解析:
錯(cuò)誤49.知識(shí)圖譜的構(gòu)建方式有自上而下和自下而上兩種A、正確B、錯(cuò)誤【正確答案】:A解析:
正確50.集合可以作為字典的值。A、正確B、錯(cuò)誤【正確答案】:A解析:
正確51.降維是通過(guò)獲得一組基本上是重要特征的主變量來(lái)減少所考慮的特征變量的過(guò)程。A、正確B、錯(cuò)誤【正確答案】:A解析:
正確52.數(shù)據(jù)安全是人工智能安全的關(guān)鍵。A、正確B、錯(cuò)誤【正確答案】:A解析:
正確53.云計(jì)算是對(duì)并行計(jì)算、網(wǎng)格計(jì)算、分布式計(jì)算技術(shù)的發(fā)展與運(yùn)用A、正確B、錯(cuò)誤【正確答案】:A解析:
054.Python標(biāo)準(zhǔn)庫(kù)os中的方法listdir()返回包含指定路徑中所有文件和文件夾A、正確B、錯(cuò)誤【正確答案】:A解析:
正確55.LSTM是一個(gè)非常經(jīng)典的面向序列的模型,可以對(duì)自然語(yǔ)言句子或是其他時(shí)序信號(hào)進(jìn)行建模,是一種循環(huán)神經(jīng)網(wǎng)絡(luò)。A、正確B、錯(cuò)誤【正確答案】:A解析:
正確56.字符串屬于Python有序序列,和列表、元組一樣都支持雙向索引。A、正確B、錯(cuò)誤【正確答案】:A解析:
正確57.對(duì)于神經(jīng)網(wǎng)絡(luò),減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率A、正確B、錯(cuò)誤【正確答案】:B解析:
058.卷積神經(jīng)網(wǎng)絡(luò)的常用模塊包括:卷積、池化、激活函數(shù)、批歸一化、丟棄法A、正確B、錯(cuò)誤【正確答案】:A解析:
正確59.Python集合可以包含相同的元素。A、正確B、錯(cuò)誤【正確答案】:B解析:
不包含相同的60.啟發(fā)式算法與AlphaBeta剪枝類似,是從葉節(jié)點(diǎn)自底向上計(jì)算估值。()A、正確
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年度玻璃深加工技術(shù)研發(fā)與轉(zhuǎn)化合同3篇
- 2024西安商務(wù)活動(dòng)車輛租賃協(xié)議版B版
- 2024期房房屋買賣合同樣書(shū)
- 二零二四年前期物業(yè)服務(wù)委托合同范本:含社區(qū)環(huán)境美化條款3篇
- 2024景區(qū)廣告位租賃合同
- 2025年度旅游目的地VI視覺(jué)導(dǎo)視系統(tǒng)設(shè)計(jì)合同3篇
- 二零二四墓地用地使用權(quán)轉(zhuǎn)讓與陵園墓地運(yùn)營(yíng)管理合同范本3篇
- 2024版教育實(shí)習(xí)全面規(guī)定協(xié)議范本
- 2024款新能源汽車租賃市場(chǎng)推廣合同
- 2024版學(xué)校食堂廚師聘用合同:廚師工作內(nèi)容與要求
- 《采礦工程英語(yǔ)》課件
- NB-T31045-2013風(fēng)電場(chǎng)運(yùn)行指標(biāo)與評(píng)價(jià)導(dǎo)則
- NB-T+10488-2021水電工程砂石加工系統(tǒng)設(shè)計(jì)規(guī)范
- 天津市和平區(qū)2023-2024學(xué)年七年級(jí)下學(xué)期6月期末歷史試題
- 《中電聯(lián)團(tuán)體標(biāo)準(zhǔn)-220kV變電站并聯(lián)直流電源系統(tǒng)技術(shù)規(guī)范》
- 微型消防站消防員培訓(xùn)內(nèi)容
- (完整版)鋼筋加工棚驗(yàn)算
- 焊接工藝的過(guò)程監(jiān)測(cè)與質(zhì)量分析
- 年夜飯營(yíng)養(yǎng)分析報(bào)告
- 華電行測(cè)題庫(kù)及答案2024
- 江西省萍鄉(xiāng)市2023-2024學(xué)年九年級(jí)上學(xué)期期末數(shù)學(xué)試題(含答案)
評(píng)論
0/150
提交評(píng)論