人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷17)_第1頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷17)_第2頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷17)_第3頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷17)_第4頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷17)_第5頁
已閱讀5頁,還剩17頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

試卷科目:人工智能深度學(xué)習(xí)技術(shù)練習(xí)人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷17)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學(xué)習(xí)技術(shù)練習(xí)第1部分:單項選擇題,共47題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.(euclideanmetric歐幾里得度量)是一個通常采用的距離定義,在二維和三維空間中的歐氏距離就是兩點之間的實際()。A)誤差B)線段C)距離D)坐標(biāo)答案:C解析:[單選題]2.在keras的自帶模型中,MobileNet模型的默認輸入尺寸是()A)224x224B)244x244C)299x299D)229x229答案:A解析:[單選題]3.年Rumelhart等人發(fā)展了()理論A)BP算法B)求偏導(dǎo)C)激活函數(shù)D)前向算法答案:A解析:[單選題]4.為什么將數(shù)據(jù)分為訓(xùn)練集和測試集?A)使訓(xùn)練更快B)用以前看不見的數(shù)據(jù)訓(xùn)練網(wǎng)絡(luò)C)用以前看不見的數(shù)據(jù)測試網(wǎng)絡(luò)D)加快測試速度答案:C解析:[單選題]5.在TF框架中,激活函數(shù)tf.nn.relu的作用是?A)用于卷積后數(shù)據(jù)B)用于卷積核C)用于步長D)不能用到全連接層答案:A解析:[單選題]6.在TensorFlow中使用tf.log函數(shù)可以計算元素的自然對數(shù),自然對數(shù)以常數(shù)()為底數(shù)的對數(shù),A)eB)10C)2D)10^^答案:A解析:[單選題]7.有多個卷積核的原因是:A)同時提取多個圖像的特征B)提取某些圖像多個特征C)圖像有多個通道D)與多特征無關(guān)答案:B解析:[單選題]8.importtensorflowastfS=tf.constant([1,2,3,4,6,1,2,3],dtype=tf.float32,name=?s?)S1=tf.reshape(s,(2,4))Withtf.Session()assess:Sess.run(tf.global_variables_initializer())Print(sess.run(s1))該程序輸出結(jié)果為A)[3,6]B)[[1,2,3,4],[6,1,2,3]]C)[3]D)[6]答案:B解析:[單選題]9.梯度下降法的關(guān)鍵是()。A)找到損失函數(shù)最小值B)找到損失函數(shù)平均值C)找到損失函數(shù)中間值D)找到損失函數(shù)均方誤差值答案:A解析:難易程度:易題型:[單選題]10.RMSprop算法的特點是A)指數(shù)加權(quán)平均數(shù)求和B)指數(shù)加權(quán)平均數(shù)先平方再開方C)指數(shù)加權(quán)平均數(shù)求微分D)指數(shù)加權(quán)平均數(shù)求均方誤差答案:B解析:[單選題]11.你用手機拍攝的垃圾圖片是A)灰度圖B)紅色圖C)綠色圖D)彩色圖答案:D解析:[單選題]12.上圖中激活函數(shù)屬于哪一個?A)SigmoidB)LeakyReLUC)tanhD)Relu答案:C解析:tanh[單選題]13.將26x26的圖像做2x2的最大池化,輸出將是多少?A)26x26B)13x13C)56x56D)28x28答案:B解析:[單選題]14.在keras.layers.Conv2D(filters,kernel_size,strides=(1,1),padding='valid',data_format=None,dilation_rate=(1,1),activation=None,use_bias=True,kernel_initializer='glorot_uniform',bias_initializer='zeros',kernel_regularizer=None,bias_regularizer=None,activity_regularizer=None,kernel_constraint=None,bias_constraint=None)方法中,指明卷積沿寬度和高度方向的步長是哪個參數(shù)?A)filtersB)stridesC)use_biasD)kernel_size答案:B解析:[單選題]15.關(guān)于mini-batch說法錯誤的是A)指的是批量梯度下降B)適用于樣本量小的數(shù)據(jù)集C)每一次只運算部分?jǐn)?shù)據(jù),最后將全部數(shù)據(jù)進行運算D)適用于樣本量大的數(shù)據(jù)答案:B解析:[單選題]16.連接主義的主要原理為神經(jīng)網(wǎng)絡(luò)及神經(jīng)網(wǎng)絡(luò)間的連接機制與學(xué)習(xí)算法。其英文縮寫為()A)symbolicismB)actionismC)connectionismD)AI答案:C解析:[單選題]17.在課堂中使用預(yù)測器對那個單位進行互相轉(zhuǎn)換()A)英里和海里B)英里和千米C)海里和千米D)公里和千米答案:B解析:難易程度:易題型:[單選題]18.在卷積神經(jīng)網(wǎng)絡(luò)中,卷積層與全連接層的先后順序通常為?A)先卷積、池化后全連接B)先全連接、卷積后池化C)先池化、全連接再卷積D)先卷積、全連接、池化后答案:A解析:[單選題]19.下面哪一項不能解決模型過擬合的問題?()A)調(diào)小模型復(fù)雜度,使其適合自己訓(xùn)練集的數(shù)量級(縮小寬度和減小深度)B)dataaugmentationC)regularizationD)添加多項式項答案:D解析:[單選題]20.編碼器-解碼器模式屬于以下哪種模式?A)一對一B)一對多C)多對一D)多對多答案:D解析:[單選題]21.如果我們用了一個過大的學(xué)習(xí)速率會發(fā)生什么?()A)神經(jīng)網(wǎng)絡(luò)會收斂B)不好說C)都不對D)神經(jīng)網(wǎng)絡(luò)不會收斂答案:D解析:[單選題]22.什么是卷積?A)縮小圖像的技術(shù)B)放大圖像的技術(shù)C)隔離圖像特征的技術(shù)D)過濾掉不需要的圖像的技術(shù)答案:C解析:[單選題]23.merge函數(shù)用于主鍵合并,下列說法錯誤的是()。A)on參數(shù)用于指定主鍵B)sort參數(shù)為True時將對合并的數(shù)據(jù)進行排序C)suffixes參數(shù)用于對重疊列加尾綴D)join參數(shù)表示表連接的方式答案:D解析:難易程度:中題型:[單選題]24.深度學(xué)習(xí)典型應(yīng)用:自然語言處理主要指應(yīng)用了()神經(jīng)網(wǎng)絡(luò)A)ANNB)CNNC)RNND)XNN答案:C解析:[單選題]25.水平翻轉(zhuǎn)的函數(shù)是A)RandomHorizontalFlip()B)RandomVerticalFlip()C)RandomRotationD)RandomCrop答案:A解析:[單選題]26.下面哪個命令是Linux下?刪除非空目錄?命令?A)chmodu+xB)rm-frdirC)passwdD)cp-Rdir答案:B解析:rm-frdir:刪除非空目錄[單選題]27.如果我將dropout參數(shù)設(shè)置為0.2,我將丟失多少個節(jié)點?A)其中20%B)其中2%C)未經(jīng)訓(xùn)練的20%D)未經(jīng)訓(xùn)練的2%答案:A解析:[單選題]28.自頂向下設(shè)計主要由下列哪個語法元素實現(xiàn)?()。A)面向?qū)ο驜)函數(shù)C)循環(huán)結(jié)構(gòu)D)過程答案:B解析:難易程度:易題型:[單選題]29.對于以下線性運算的結(jié)果向量,如果要映射成概率結(jié)果,需要函數(shù):A)tf.nn.softmaxB)tf.nn.dropoutC)tf.nn.maxpoolD)tf.nn.cov2d答案:A解析:[單選題]30.廢紙屬于什么類別的垃圾A)有害垃圾B)易腐垃圾C)可回收物D)不清楚答案:C解析:[單選題]31.Sigmoid函數(shù)會把輸入的數(shù)值映射到()區(qū)間內(nèi)。A)[-1,0]B)[-1,1]C)[0,1]D)以上都不對答案:C解析:[單選題]32.pytorch導(dǎo)入numpy數(shù)據(jù)的方式A)from_numpyB)into_numpyC)numpyD)data.numpy答案:A解析:[單選題]33.關(guān)于聚類,下列說法錯誤的是()。A)聚類屬于無監(jiān)督算法B)聚類可用于數(shù)據(jù)預(yù)處理中的數(shù)據(jù)離散化C)聚類的劃分原則是樣本距離最小化D)聚類是根據(jù)數(shù)據(jù)相似度進行樣本分組的方法答案:C解析:難易程度:中題型:[單選題]34.在Keras中有兩類主要的模型:Sequential順序模型和使用函數(shù)式API的Model類模型。這些模型有許多共同的方法和屬性,其中?以JSON字符串的形式返回模型的表示?的方法是:A)model.to_json()B)model.to_yaml()C)model.get_weights()D)model.get_config()答案:A解析:[單選題]35.在BP算法的過程中,error項逐漸變小,使得越靠前的網(wǎng)絡(luò)層的學(xué)習(xí)速率越來越低,這種現(xiàn)象被稱為vanishinggradientproblem即A)梯度上升問題B)梯度優(yōu)化C)梯度消失問題D)梯度下降法答案:C解析:[單選題]36.Matplotlib畫圖導(dǎo)入庫正確的命令是()。A)ImportB)ImportC)ImportD)Import答案:A解析:難易程度:易題型:[單選題]37.深度學(xué)習(xí)屬于人工智能三大主義(symbolicism、connectionism、actionism)中的()主義A)連接主義B)符號主義C)行為主義D)CAD答案:A解析:[單選題]38.手寫數(shù)字的神經(jīng)網(wǎng)絡(luò)訓(xùn)練時,沒有訓(xùn)練下列哪個參數(shù)()。A)學(xué)習(xí)速率B)循環(huán)次數(shù)C)隱藏節(jié)點D)隱藏節(jié)點與學(xué)習(xí)速率答案:D解析:難易程度:易題型:[單選題]39.輸入圖像有2個,經(jīng)過10個卷積核卷積后,輸出圖像有()個A)2B)5C)10D)不確定答案:C解析:[單選題]40.通過試驗超參數(shù)的不同取值不可以A)選擇對訓(xùn)練集目標(biāo)而言的最優(yōu)解B)對于開發(fā)集而言的最優(yōu)解C)超參搜索過程中最想優(yōu)化的東西D)簡化參數(shù)調(diào)試答案:D解析:[單選題]41.早期的機器學(xué)習(xí)算法中,如果有兩個超參數(shù),通常通過什么方式來選擇參數(shù)A)網(wǎng)格中取樣點,然后系統(tǒng)的研究這些數(shù)值B)比較參數(shù)的大小C)對參數(shù)進行迭代選擇D)對參數(shù)進行平均答案:A解析:[單選題]42.在h_fc1=tf.nn.relu(tf.matmul(h_flat,W_fc1)+b_fc1)操作,b_fc1是A)對圖像池化B)偏置項C)激活函數(shù)D)平均答案:B解析:[單選題]43.面部識別軟件可歸入名為生物識別的一大類技術(shù)。生物識別技術(shù)使用()來驗證身份A)生物信息B)特征點C)算法D)標(biāo)識答案:A解析:[單選題]44.用e表示詞向量,根據(jù)詞嵌入的特性,e(男人)-e(女人)約等于e(國王)-e(?)A)男人B)女人C)國王D)王后答案:D解析:[單選題]45.下面不屬于Python特性的是()。A)解釋型B)靜態(tài)C)動態(tài)D)面向?qū)ο蟠鸢?B解析:難易程度:中題型:[單選題]46.MNIST訓(xùn)練集的第一個數(shù)據(jù)是()。A)4B)2C)0D)5答案:D解析:難易程度:易題型:[單選題]47.Mini-batch下降的效果是:A)損失函數(shù)值一直下降B)損失函數(shù)值總體趨勢下降C)比梯度下降速度快D)梯度下降不明顯答案:B解析:第2部分:多項選擇題,共15題,每題至少兩個正確答案,多選或少選均不得分。[多選題]48.在程序中y_predict和y_actual的意義A)y_predict來自神經(jīng)網(wǎng)絡(luò)輸出B)y_predict必從softmax函數(shù)出來。C)y_actual從標(biāo)簽集合來的。D)兩者的維度屬性一致。答案:ABCD解析:[多選題]49.長短期記憶中的門有A)遺忘門B)輸入門C)輸出門D)更新門答案:ABC解析:[多選題]50.下列屬于dropout特性的有:A)具有正則化功能B)具有激活函數(shù)功能C)常用于圖像處理D)機器學(xué)習(xí)算法答案:AC解析:[多選題]51.Dataset創(chuàng)建數(shù)據(jù)集常用的方法有:A)torch.utils.data.TensorDatasetB)torchvision.datasets.ImageFolderC)繼承torch.utils.data.DatasetD)dataloder答案:ABC解析:[多選題]52.TensorFlow框架可用于多個領(lǐng)域,例如:A)語音識別B)NLPC)計算機視覺D)自動駕駛答案:ABCD解析:[多選題]53.TensorFlow程序的核心是:A)變量B)常量C)張量數(shù)據(jù)結(jié)構(gòu)D)計算圖算法語言答案:CD解析:[多選題]54.在語句tf.truncated_normal(U,stddev=0.1)和tf.constant(V)中,正確說法是:A)U是shape向量B)V是數(shù)值或列表C)U和V意義相同D)U和V意義不相同答案:ABD解析:[多選題]55.請選出常用的三種梯度下降的方法()A)批量梯度下降B)大批量梯度下降C)隨機梯度下降D)小批量梯度下降答案:ACD解析:[多選題]56.搜索參數(shù)的兩種重要方式是A)沒有足夠計算資源,通過每天觀察,不斷調(diào)整參數(shù)B)同時試驗多種模型,獲得學(xué)習(xí)曲線C)沒有足夠計算資源,通過試驗多種模型,獲得學(xué)習(xí)曲線D)擁有足夠資源時,通過每天觀察一個參數(shù),來進行調(diào)整答案:AB解析:[多選題]57.在深度神經(jīng)網(wǎng)絡(luò)中,如果是填充后求卷積,圖像尺寸保持不變,以下哪些參數(shù)是正確的A)以0填充一圈B)以1填充一圈C)步長為1D)圖像尺寸變小答案:AC解析:[多選題]58.騰訊云是騰訊公司旗下的產(chǎn)品,為開發(fā)者及企業(yè)提供云服務(wù)、云數(shù)據(jù)、云運營等整體一站式服務(wù)方案。具體包括()A)基礎(chǔ)云服務(wù)B)整體大數(shù)據(jù)能力C)體育建設(shè)D)云端鏈接社交體系答案:ABD解析:騰訊云是騰訊公司旗下的產(chǎn)品,為開發(fā)者及企業(yè)提供云服務(wù)、云數(shù)據(jù)、云運營等整體一站式服務(wù)方案。具體包括云服務(wù)器、云存儲、云數(shù)據(jù)庫和彈性web引擎等基礎(chǔ)云服務(wù);騰訊云分析(MTA)、騰訊云推送(信鴿)等騰訊整體大數(shù)據(jù)能力;以及QQ互聯(lián)、QQ空間、微云、微社區(qū)等云端鏈接社交體系。[多選題]59.能進行正則化功能的處理有A)dropoutB)l1C)l2D)數(shù)據(jù)增強答案:ABCD解析:[多選題]60.訓(xùn)練模型的三種方式:A)內(nèi)置fitB)內(nèi)置train_on_batchC)自定義訓(xùn)練循環(huán)D)內(nèi)置compile答案:ABC解析:[多選題]61.不涉及隱藏層時,分類算法中,會用到激活函數(shù)有A)reluB)tanhC)softmaxD)sigmoid答案:CD解析:[多選題]62.請選擇有關(guān)Tensorflow基本概念正確的描述()A)使用圖(graphs)來表示計算任務(wù),用于搭建神經(jīng)網(wǎng)絡(luò)的計算過程B)在被稱之為會話(Session)的上下文(context)中執(zhí)行圖C)使用張量(tensor)表示數(shù)據(jù),用?階?表示張量的維度,通過變量(Variable)維護狀態(tài)D)使用feed和fetch可以為任意的操作賦值或者從其中獲取數(shù)據(jù)答案:ABCD解析:第3部分:判斷題,共22題,請判斷題目是否正確。[判斷題]63.框架TensorFlow?最初是由GoogleBrain團隊(隸屬于Google的AI部門)中的研究人員和工程師聯(lián)合開發(fā)的A)正確B)錯誤答案:對解析:[判斷題]64.深度網(wǎng)絡(luò)不能使用zeros創(chuàng)建權(quán)重A)正確B)錯誤答案:對解析:[判斷題]65.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò),GRU中有兩個門A)正確B)錯誤答案:對解析:[判斷題]66.通常將TripletLoss翻譯為三元組損失,其中的三元也就是Anchor、Negative負樣例、Positive正樣例A)正確B)錯誤答案:對解析:[判斷題]67.全連接層無法實現(xiàn)卷積運算,他們互有分工。A)正確B)錯誤答案:對解析:[判斷題]68.LSTM可以解決梯度消失問題A)正確B)錯誤答案:對解析:[判斷題]69.卷積神經(jīng)網(wǎng)絡(luò)中,其中,卷積層是分類的,全連接層是特征提取的。A)正確B)錯誤答案:錯解析:[判斷題]70.全連接層用來處理多分類結(jié)果A)正確B)錯誤答案:對解析:[判斷題]71.Sess=tf.Session()Writer=tf.summary.FileWriter(TB_SUMMARY_DIR)Writer.add_graph(sess.graph)以上語句為實現(xiàn)可視化界面展示tensorboard移植語句A)正確B)錯誤答案:對解析:[判斷題]72.BP算法是由學(xué)習(xí)過程由信號的正向傳播與誤差的反向傳播兩個過程組成。由于多層前饋網(wǎng)絡(luò)的訓(xùn)練經(jīng)常采用誤差反向傳播算法,人們也常把將多層前饋網(wǎng)絡(luò)直接稱為BP網(wǎng)絡(luò)A)正確B)錯誤答案:對解析:[判斷題]73.批量梯度下降算法是每次考慮整個訓(xùn)練集進行權(quán)重更新。A)正確B)錯誤答案:對解析:[判斷題]74.神經(jīng)網(wǎng)絡(luò)中超參數(shù)的調(diào)試中最重要的參數(shù)是選擇層數(shù)A)正確B)錯誤答案:錯解析:[判斷題]75.深度學(xué)習(xí)在人工智能領(lǐng)域的表現(xiàn)并不突出。()A)正確B)錯誤答案:錯解析:[判斷題]76.如果增加神經(jīng)網(wǎng)絡(luò)的寬度,精確度會增加到一個閾值,然后開始降低。造成這一現(xiàn)象的原因可能是當(dāng)核數(shù)量增加,其相關(guān)性增加,導(dǎo)致過擬合。A)正確B)錯誤答案:對解析:[判斷題]77.神經(jīng)網(wǎng)絡(luò)都要經(jīng)過線性處理A)正確B)錯誤答案:對解析:[判斷題]78.nn.CrossEntropyLoss中y_pred未經(jīng)過nn.Softmax激活。A)正確B)錯誤答案:對解析:[判斷題]79.人臉識別數(shù)據(jù)集通常是2分類圖片A)正確B)錯誤答案:對解析:[判斷題]80.句子向量表示有監(jiān)督和無監(jiān)督學(xué)習(xí)都可以獲得。A)正確B)錯誤答案:對解析:[判斷題]81.執(zhí)行完語句tf.assign(start,new_value)后可以將變量start的值傳遞給新的變量new_valueA)正確B)錯誤答案:錯解析:第4部分:問答題,共16題,請在空白處填寫正確答案。[問答題]82.下面的紅色曲線表示關(guān)于深度學(xué)習(xí)算法中每個時期的訓(xùn)練精度。綠色和藍色曲線都表示驗證的準(zhǔn)確性。哪條曲線表示過擬合overfitting?BA)綠色線B)色曲線答案:B解析:[問答題]83.np.array中查看類型的屬性為_______答案:dtype解析:[問答題]84.有模型構(gòu)建如下所示:model=Sequential([Dense(units=100,input_dim=784,bias_initializer='zeros',activation='tanh'),#雙曲正切激活函數(shù)Dropout(0.4),#百分之40的神經(jīng)元不工作Dense(units=200,bias_initializer='zeros',activation='tanh'),#雙曲正切激活函數(shù)Dropout(0.4),#百分之40的神經(jīng)元不工作Dense(units=10,bias_initializer='zeros',activation='softmax')])該模型需要計算的參數(shù)數(shù)量是多少?答案:100710解析:[問答題]85.權(quán)值的初始值應(yīng)設(shè)定為較_______值答案:小解析:[問答題]86.不能使用_______數(shù)據(jù)評估超參數(shù)的性能答案:測試解析:[問答題]87.簡述正則化的物理意義。答案:正則化在神經(jīng)網(wǎng)絡(luò)計算損失值的過程中,在損失項后面加一項。這項損失表示網(wǎng)絡(luò)的輸出與標(biāo)準(zhǔn)結(jié)果受到干擾,導(dǎo)致學(xué)習(xí)參數(shù)無法按照目標(biāo)方向來調(diào)整,從而達到防止過擬合的效果。解析:[問答題]88.繪制折線圖的方法_______答案:plot()解析:[問答題]89.如果W的形狀是

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論