人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷15)_第1頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷15)_第2頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷15)_第3頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷15)_第4頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷15)_第5頁
已閱讀5頁,還剩17頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

試卷科目:人工智能深度學(xué)習(xí)技術(shù)練習(xí)人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷15)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學(xué)習(xí)技術(shù)練習(xí)第1部分:單項(xiàng)選擇題,共47題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.對ImageDataGenerator類錯誤的描述是()A)在某一批次訓(xùn)練時,對旋轉(zhuǎn)平移等各種參數(shù),會分別對一張原圖增強(qiáng),得到多個增強(qiáng)后的樣本。B)若設(shè)置samplewisecenter=True,則對所有的樣本都減去樣本均值。C)若設(shè)置rescale=1.0/255.0.則對所有的樣本都除于255。D)ImageDataGenerator類的flowfromdirectory函數(shù)中,可以設(shè)置targetsize統(tǒng)一使得所有的終片resize為指定大小。答案:A解析:[單選題]2.Tf.slice函數(shù)作用是:從tf的一個張量中,A)取出部分張量數(shù)據(jù)B)取出矩陣C)取出數(shù)D)取出向量答案:A解析:[單選題]3.Inception是一個()層的深度網(wǎng)絡(luò),它的質(zhì)量是在分類和檢測領(lǐng)域進(jìn)行了評估A)5B)8C)22D)152答案:C解析:[單選題]4.在進(jìn)入科學(xué)研究之前,第一步要對事物A)實(shí)驗(yàn)準(zhǔn)備B)下定義C)思想準(zhǔn)備D)預(yù)測答案:B解析:[單選題]5.請判斷?在建立Session前,TensorFlow并未執(zhí)行任何計算?這句話是否正確。A)錯誤B)正確C)我不知道D)可能正確答案:A解析:[單選題]6.Tf讀文件語句:key,value=reader.read(tf.train.string_input_producer(['cat.jpg']))語句中,key是A)key是關(guān)鍵詞,value是Key的值B)key是文件打開符,value是整個文件數(shù)據(jù)讀入。C)key是文件內(nèi)部索引,value是key索引對應(yīng)數(shù)據(jù);D)key是文件打開符,value是Key的值答案:B解析:[單選題]7.多分類處理流程中,不屬于softmax特點(diǎn)的是A)輸出結(jié)果的數(shù)量和類別數(shù)相同B)輸出結(jié)果對應(yīng)了別概率C)輸出求和為1D)概率值大于0.5的是最終的預(yù)測結(jié)果答案:D解析:[單選題]8.數(shù)據(jù)增強(qiáng)的作用是A)增加圖片量B)將圖片修改生成新圖片C)將灰度值增加D)增加通道答案:B解析:[單選題]9.下面哪一項(xiàng)不是21世紀(jì)三大尖端技術(shù)?A)太空探險B)基因工程C)人工智能D)納米科學(xué)答案:A解析:21世紀(jì)三大尖端技術(shù)(基因工程、納米科學(xué)、人工智能)之一[單選題]10.在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中,監(jiān)督學(xué)習(xí)算法有A)聚類B)降維C)回歸算法D)PCA答案:C解析:[單選題]11.對于?性格溫和?這種定性數(shù)據(jù)進(jìn)行數(shù)量比較,必須:A)首先定量化B)首先建立距離空間C)首先定性化D)直接運(yùn)算答案:A解析:[單選題]12.全連接神經(jīng)網(wǎng)絡(luò),如果輸入層為32X4矩陣,那么與它相連的第一級參數(shù)矩陣最有可能為哪一種?否則無法矩陣運(yùn)算。A)4X5矩陣B)32X4矩陣C)32X32矩陣D)任意尺寸矩陣答案:A解析:[單選題]13.一個800*600分辨率的單通道灰度數(shù)字圖像,每個像素用8bit來保存,請問需要多大的計算機(jī)空間才能保存一段1分鐘幀率為30的的原始的灰度數(shù)字視頻?()A)823.97KbB)6.437MbC)823.97MBD)643.79Kb答案:C解析:[單選題]14.那個命令等價于等價于在命令行中執(zhí)行tensorboard--logdir./data/tensorboardA)notebook.start("--logdir./data/tensorboard")B)notebook.list()C)load_exttensorboardD)都不是答案:A解析:[單選題]15.學(xué)習(xí)速率的設(shè)置()。A)越大越好B)越小越好C)隨機(jī)設(shè)置D)看情況調(diào)整答案:D解析:難易程度:易題型:[單選題]16.實(shí)驗(yàn)表明,訓(xùn)練期間使用不同的學(xué)習(xí)率總體上是有益的,因此建議在一個取值范圍內(nèi)周期性地改變學(xué)習(xí)率,而不是將其設(shè)定為固定值。這種方法我們稱為()A)非周期性學(xué)習(xí)率B)固定學(xué)習(xí)率C)線性學(xué)習(xí)率D)周期性學(xué)習(xí)率答案:D解析:[單選題]17.張量A的shape為[4,1,3],執(zhí)行squeeze(A.以后,A)[4,3,1]B)[2,1,3]C)[4,3]D)[4,0,3]答案:C解析:[單選題]18.構(gòu)建Dropout(0.4),表示?A)40%的神經(jīng)元不工作B)60%的神經(jīng)元不工作C)100%的神經(jīng)元不工作D)所有神經(jīng)元都工作答案:A解析:[單選題]19.下面哪種方法沒辦法直接應(yīng)用于自然語言處理的任務(wù)?A)去語法模型B)循環(huán)神經(jīng)網(wǎng)絡(luò)C)卷積神經(jīng)網(wǎng)絡(luò)D)成分分析(PCA)答案:D解析:[單選題]20.Adam算法的核心是A)強(qiáng)化了RMSprop算法B)強(qiáng)化了動量梯度算法C)同時使用Momentum和RMSprop算法D)沒有核心答案:C解析:[單選題]21.超參數(shù)范圍中,隨機(jī)取值指的是A)隨機(jī)選擇標(biāo)尺取值B)隨機(jī)取值就是有效范圍內(nèi)隨機(jī)均勻取值C)選擇合適的標(biāo)尺進(jìn)行取值D)隨機(jī)的進(jìn)行均勻的取值答案:C解析:[單選題]22.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?CA)K近鄰算法B)隨機(jī)森林C)神經(jīng)網(wǎng)絡(luò)D)都不屬于答案:C解析:[單選題]23.騰訊云CVM通過使用()允許受信任的地址訪問實(shí)例來控制訪問。A)用戶池B)策略控制C)賬戶管理D)安全組答案:D解析:通過使用安全組允許受信任的地址訪問實(shí)例來控制訪問[單選題]24.()是序列模型處理的基礎(chǔ)單元A)時間步B)樣本C)一句話D)一個數(shù)據(jù)集答案:A解析:[單選題]25.tensorboard啟動命令是A)tensorflowopenboardB)opentensorboard路徑C)os.open路徑D)tensorboard--logdir路徑答案:D解析:[單選題]26.假設(shè)你需要調(diào)整超參數(shù)來最小化代價函數(shù)(costfunction),會使用下列哪項(xiàng)技術(shù)?A)舉搜索B)隨機(jī)搜索C)Bayesian優(yōu)化D)都可以答案:D解析:[單選題]27.一個矩陣A的范數(shù)定義為:矩陣A內(nèi)各項(xiàng)元素的絕對值平方的()A)總和B)差C)內(nèi)積D)點(diǎn)積答案:A解析:[單選題]28.關(guān)于歸一化確定,下列說法正確的是:A)通過中值和均值進(jìn)行確定B)通過平均值和最小值確定C)通過方差和均值確定D)通過標(biāo)準(zhǔn)差和均值確定答案:C解析:[單選題]29.神經(jīng)網(wǎng)絡(luò)中常用的()Sigmoid函數(shù),會把量映射到0,1之間A)非激活B)RELUC)極值D)閾值答案:D解析:[單選題]30.Tf在圖像處理的4維度張量,按照次序,它的意義是:A)batch、height、weight、channelB)height、weight、channel,batchC)batch、height、width、channelD)channel、height、weight、batch答案:C解析:[單選題]31.c=tf.constant([3,2.0,5],[1,6,0],[9,0,0]]),print(c.get_shape),該程序輸出結(jié)果為A)(1,9)B)(2,3)C)(0)D)(3,3)答案:D解析:[單選題]32.深度學(xué)習(xí)中,以下哪些方法不可以降低模型過擬合?A)增加更多的樣本B)DropoutC)增大模型復(fù)雜度,提高在訓(xùn)練集上的效果D)增加參數(shù)懲罰答案:C解析:[單選題]33.距離空間有多種多樣,他們的目的是A)度量后比較B)求相關(guān)性C)求信息熵D)構(gòu)成線性空間答案:A解析:[單選題]34.連續(xù)特征數(shù)據(jù)離散化的處理方法不包括()。A)等寬法B)等頻法C)使用聚類算法D)使用Apriori算法答案:D解析:難易程度:中題型:[單選題]35.以下的序列數(shù)據(jù)中,屬于一對多(一個輸入,多個輸出)的關(guān)系是哪個?A)音樂生成B)情感分類C)機(jī)器翻譯D)DNA序列分析答案:A解析:[單選題]36.pytorch交換維度的函數(shù)是:A)reshapeB)squeezeC)unsqueezeD)transpose答案:D解析:[單選題]37.以下tf函數(shù)中,不能實(shí)現(xiàn)卷積運(yùn)算的是A)tf.nn.conv2dB)tf.nn.depthwise_conv2dC)tf.nn.convolutionD)tf.random_normal答案:D解析:[單選題]38.騰訊云提供三種類型的云服務(wù)器購買方式,分別適用于不同場景下的用戶需求,下列哪一項(xiàng)不是騰訊云服務(wù)器購買方式:()A)包年包月B)按量計費(fèi)C)部分免費(fèi)D)競價實(shí)例答案:C解析:[單選題]39.在AlexNet等典型的卷積神經(jīng)網(wǎng)絡(luò)中,隨著網(wǎng)絡(luò)的深度增加,通常有()A)每層的通道的高度和寬度減少,通道數(shù)增加B)每層的通道的高度和寬度增加,通道數(shù)增加C)每層的通道的高度和寬度減少,通道數(shù)減少。D)每層的通道的高度和寬度增加,通道數(shù)減少。答案:A解析:[單選題]40.在繪圖時使用哪個庫解決中文顯示的問題()。A)SimHe字體B)SmHei字體C)SimHei字體D)SimHi字體答案:C解析:難易程度:易題型:[單選題]41.下列關(guān)于循環(huán)控制語句的說法正確的是()。A)break語句的作用是終止整個程序B)continue語句的作用是終止整層循壞C)pass語句的作用是終止一層循環(huán)中的某一次循環(huán)D)break和continue語句采用不同方式終止循環(huán),pass語句僅僅是一個占位符答案:D解析:難易程度:中題型:[單選題]42.可以根據(jù)前后語義進(jìn)行處理計算的網(wǎng)絡(luò)模型時A)CNNB)BRNNC)RNND)LSTM答案:B解析:[單選題]43.神經(jīng)網(wǎng)絡(luò)中使用的激活函數(shù)()。A)Sigmoid函數(shù)B)階梯函數(shù)C)余弦函數(shù)D)正弦函數(shù)答案:A解析:難易程度:易題型:[單選題]44.KNN算法是基于A)線性空間B)距離空間C)概率空間D)顏色空間答案:B解析:[單選題]45.pytorch中數(shù)值一般是()類型A)intB)floatC)boolD)time答案:B解析:[單選題]46.哪些序列數(shù)據(jù)屬于多對一(多個輸入,一個輸出)的關(guān)系A(chǔ))語音識別B)情感分類C)機(jī)器翻譯D)DNA序列分析答案:B解析:[單選題]47.關(guān)于算法的空間復(fù)雜度,以下選項(xiàng)中描述正確的是()。A)算法程序所占的存儲空間B)算法程序所占的存儲空間C)算法程序所占的存儲空間D)算法程序所占的存儲空間答案:D解析:難易程度:易題型:第2部分:多項(xiàng)選擇題,共15題,每題至少兩個正確答案,多選或少選均不得分。[多選題]48.Tf.nn.conv2d(x,W,name1=[1,1,1,1],name2='SAME')其中name1和name2對應(yīng)單詞是:A)name1是strideB)name2是paddingC)name1是paddingD)name2是stride答案:AB解析:[多選題]49.哪些是tensorflow的算術(shù)運(yùn)算函數(shù)?A)add()B)subtract()C)multiply()D)div()答案:ABCD解析:[多選題]50.按照學(xué)習(xí)形式分類,機(jī)器學(xué)習(xí)可以分為()A)監(jiān)督學(xué)習(xí)B)弱監(jiān)督學(xué)習(xí)C)非監(jiān)督學(xué)習(xí)D)強(qiáng)監(jiān)督學(xué)習(xí)答案:AC解析:[多選題]51.Tf.nn.dropout()是tensorflow里面為了防止或減輕過擬合而使用的函數(shù),它一般用在全連接層,具體的作用是有那些?A)停止某些節(jié)點(diǎn)更新B)保留百分率為keep_prob的節(jié)點(diǎn)更新C)在全鏈接層有效D)可以停止任意層節(jié)點(diǎn)更新答案:ABCD解析:[多選題]52.需要循環(huán)迭代的算法有A)k-meansB)線性回歸C)svmD)邏輯回歸答案:ABD解析:[多選題]53.tensorflow2.0常用的三種計算圖是A)靜態(tài)計算圖B)動態(tài)計算圖C)AutographD)4維動態(tài)圖答案:ABC解析:[多選題]54.圖像歸一化的好處包括()A)減小幾何變換的影響B(tài))轉(zhuǎn)換成標(biāo)準(zhǔn)模式,防止仿射變換的影響C)減小噪聲影響D)加快梯度下降求最優(yōu)解的速度答案:ABD解析:一、圖像歸一化的好處:1、轉(zhuǎn)換成標(biāo)準(zhǔn)模式,防止仿射變換的影響。2、減小幾何變換的影響。3、加快梯度下降求最優(yōu)解的速度。[多選題]55.Batch歸一化會起作用的原因包括A)通過歸一化所有的輸入特征值,以獲得類似范圍的值,加速學(xué)習(xí)B)將參數(shù)歸一化可以減緩學(xué)習(xí)速率C)可以使權(quán)重比你的網(wǎng)絡(luò)更滯后或更深D)可以使權(quán)重比你的網(wǎng)絡(luò)更超前或更深答案:AC解析:[多選題]56.離散有限個事件的信息熵是()A)有限的B)無限的C)可能為負(fù)D)可能大于1答案:AD解析:[多選題]57.在W.assign_add(10)的正確斷言:A)W必須提前初始化B)W對應(yīng)值增加10C)執(zhí)行后,W值為10D)通過sess.run()實(shí)現(xiàn)答案:ABD解析:[多選題]58.池化層是夾在連續(xù)的()之間的層次,其主要的工作是用來對數(shù)據(jù)進(jìn)行下采樣,從而壓縮數(shù)據(jù)和參數(shù)的量,減少()A)卷積層B)過擬合C)池化D)正則化答案:AB解析:[多選題]59.以下哪些tensorflow的函數(shù)可以對張量進(jìn)行邏輯運(yùn)算A)equal()B)not_equal()C)less()D)greater()答案:ABCD解析:[多選題]60.下面哪些語句哪些函數(shù)是優(yōu)化器?A)tf.train.GradientDescentOptimizer()B)tf.train.AdamOptimizer()C)tf.train.Optimizer()基本的優(yōu)化類D)tf.train.AdadeltaOptimizer()答案:ABCD解析:[多選題]61.在keras的fit函數(shù)中,必須要輸入的兩個參數(shù)是()A)標(biāo)簽B)輸出數(shù)據(jù)C)輸入數(shù)據(jù)D)epochs答案:AC解析:在keras的fit函數(shù)中,必須要輸入的兩個參數(shù)是輸入數(shù)據(jù)和標(biāo)簽[多選題]62.Adam算法結(jié)合了()算法于一身A)RMSprop算法B)均方誤差C)Momentum算法D)交叉熵答案:AC解析:第3部分:判斷題,共22題,請判斷題目是否正確。[判斷題]63.Relu是一個激活函數(shù)A)正確B)錯誤答案:對解析:[判斷題]64.分批歸一化處理過擬合的原理,是因?yàn)橥粋€數(shù)據(jù)在不同批中被歸一化后的值會有差別,相當(dāng)于做了dataaugmentatio。A)正確B)錯誤答案:對解析:[判斷題]65.梯度和損失函數(shù)不一樣,是個向量A)正確B)錯誤答案:對解析:[判斷題]66.歐氏距離是一種很好的相似性度量標(biāo)準(zhǔn)A)正確B)錯誤答案:對解析:[判斷題]67.Dropout說的簡單一點(diǎn)就是:我們在前向傳播的時候,讓某個神經(jīng)元的激活值以一定的概率p停止工作,這樣可以使模型泛化性更強(qiáng),因?yàn)樗粫蕾嚹承┚植康奶卣鰽)正確B)錯誤答案:對解析:Dropout說的簡單一點(diǎn)就是:我們在前向傳播的時候,讓某個神經(jīng)元的激活值以一定的概率p停止工作,這樣可以使模型泛化性更強(qiáng),因?yàn)樗粫蕾嚹承┚植康奶卣鱗判斷題]68.hinge是回歸的損失函數(shù)A)正確B)錯誤答案:錯解析:[判斷題]69.Non-MaximumSuppression,簡稱NMS,理解為抑制不是極大值的元素,可以理解為局部最大搜索A)正確B)錯誤答案:對解析:[判斷題]70.GRU單元有記憶細(xì)胞CellA)正確B)錯誤答案:對解析:[判斷題]71.過擬合是指由于訓(xùn)練樣本不足,導(dǎo)致測試結(jié)果不堪用A)正確B)錯誤答案:錯解析:[判斷題]72.Tf語句X.Initializer的意義是對X常量初始化。A)正確B)錯誤答案:錯解析:[判斷題]73.用sigmoid函數(shù)不能將運(yùn)算映射到概率空間。A)正確B)錯誤答案:錯解析:[判斷題]74.平均池化取得是池化核的平均值A(chǔ))正確B)錯誤答案:對解析:[判斷題]75.如果我們將matplotlib繪圖的結(jié)果再tensorboard中展示,可以使用add_figure.A)正確B)錯誤答案:對解析:[判斷題]76.啟動tensorboard的指令是:tensorboard--logdirA)正確B)錯誤答案:對解析:[判斷題]77.出租車幾何或曼哈頓距離(ManhattanDistance)是由十九世紀(jì)的赫爾曼·閔可夫斯基所創(chuàng)詞匯A)正確B)錯誤答案:對解析:[判斷題]78.機(jī)器學(xué)習(xí)是?深度學(xué)習(xí)?的重要組成部分。()A)正確B)錯誤答案:錯解析:[判斷題]79.當(dāng)圖像分類的準(zhǔn)確率不高時,可以考慮以數(shù)據(jù)增強(qiáng)提高準(zhǔn)確率。A)正確B)錯誤答案:對解析:[判斷題]80.下面那個決策邊界是神經(jīng)網(wǎng)絡(luò)生成的?A)正確B)錯誤答案:對解析:[判斷題]81.dataloder不能控制批處理量大小A)正確B)錯誤答案:錯解析:第4部分:問答題,共16題,請在空白處填寫正確答案。[問答題]82.卷積運(yùn)算是_______運(yùn)算答案:乘積累加解析:[問答題]83.間距運(yùn)算中,增大填充后,輸出大小會_______答案:變大解析:[問答題]84.CNN中padding的作用是什么?答案:卷積核在按照步長移動時候,可能會不夠,因此需要填充解析:[問答題]85.編程:定義getMatrix函數(shù),需要根據(jù)不同的n值生成不同的全0或全1張量,當(dāng)n為偶數(shù),需要返回形狀為[n+1,n-1]的全0矩陣,當(dāng)n為奇數(shù),需要返回形狀為[n-1,n+1]的全1矩陣。答案:ImporttensorflowastfDefgetMatrix(n):ifn%2==0:returntf.zeros([n+1,n-1])else:returntf.ones([n-1,n+1])解析:[問答題]86.在tensorflow中,使用______函數(shù)來判斷兩個值是否相等。答案:Tf.equal();解析:[問答題]87.名詞解釋:二值映射答案:將感興趣范圍內(nèi)的所有灰度值顯示為一個值(如白),其他值顯示為其他值(如黑)-即二值映射解析:[問答題]88.importtensorflowastfX=tf.Variable([1,2])A=tf.constant([3,3])Sub=tf.subtract(x,a)Add=tf.add(x,a)Init=tf.global_variables_initializer()Withtf.Session()assess:sess.run(init)print(sess.run(add))該程序輸出結(jié)果為______。答案:[4,5];解析:[問答題]89.在卷積神經(jīng)網(wǎng)絡(luò)中,通過卷積核在圖像滑動所生成的圖像稱為______。答案:特征圖;解析:[問答題]90.使用池化的目的是降低圖片的_______。答案:分辨率;解析:[問答題]91.深度學(xué)習(xí)的應(yīng)用領(lǐng)域包括_____、語音識別、自然語言處理和智能醫(yī)療等。答案:圖像識別;解析:[問答題]92.簡述構(gòu)建二維線性模型的流程。答案:準(zhǔn)備數(shù)據(jù);搭建模型;反向傳播;迭代訓(xùn)練;模型預(yù)測解析:[問答題]93.全連接

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論