人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷3)_第1頁(yè)
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷3)_第2頁(yè)
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷3)_第3頁(yè)
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷3)_第4頁(yè)
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷3)_第5頁(yè)
已閱讀5頁(yè),還剩52頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能深度學(xué)習(xí)技術(shù)練習(xí)人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷3)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學(xué)習(xí)技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共132題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.樣本點(diǎn)數(shù)量相同的概率空間,可以等價(jià)互換。A)是B)不能C)部分能D)部分不能答案:A解析:[單選題]2.多層前饋網(wǎng)絡(luò)也稱為()A)BP網(wǎng)絡(luò)B)隱藏層網(wǎng)絡(luò)C)輸入層網(wǎng)絡(luò)D)輸出層網(wǎng)絡(luò)答案:A解析:[單選題]3.pytorch中批量歸一化使用的是A)nn.LinearB)nn.FlattenC)nn.DropoutD)nn.BatchNorm2d答案:D解析:[單選題]4.resnet中,放棄使用池化降采樣,使用()方式進(jìn)行降采樣處理A)調(diào)整步長(zhǎng)B)調(diào)整卷積尺寸C)均值濾波D)高斯濾波答案:A解析:[單選題]5.Session是Tensorflow為了控制,和輸出文件的執(zhí)行的語(yǔ)句.運(yùn)行session.run()可以獲得你要得知的運(yùn)算結(jié)果,或者是你所要運(yùn)算的部分通常要?jiǎng)?chuàng)建Session對(duì)象,對(duì)應(yīng)的編程語(yǔ)句為:A)sess=tf.Session()B)sess.close()C)tf.add()D)tf.equal()答案:A解析:[單選題]6.步長(zhǎng)張量strides=[1,2,2,1]能橫向縱向移動(dòng)A)1像素B)2像素C)3像素D)4像素答案:B解析:[單選題]7.代碼啟動(dòng)tensorboard的代碼是A)loss.backwardB)writer.add_graphC)notebook.startD)notebook.list答案:C解析:[單選題]8.c=tf.constant([3,2.0,5],[1,6,0],[9,0,0]]),print(c.dtype),該程序輸出結(jié)果為A)<dtype:?int32?>B)<dtype:?float32?>C)<dtype:?string?>D)<dtype:?int64?>答案:B解析:[單選題]9.Inception中,不管并聯(lián)卷積池化如何改變,合并后特征圖的()必須相同A)通道B)尺寸C)維度D)色差答案:B解析:[單選題]10.從20世紀(jì)()人工智能開(kāi)始出現(xiàn)了A)50年代B)60年代C)70年代D)80年代答案:A解析:[單選題]11.從官網(wǎng)中下載的手寫數(shù)字?jǐn)?shù)據(jù)集是什么類型文件()。A)二進(jìn)制B)八進(jìn)制C)十進(jìn)制D)圖片文件答案:A解析:難易程度:易題型:[單選題]12.實(shí)現(xiàn)矩陣與標(biāo)量乘法的命令是()。A)np.doc()B)np.matmul()C)np.dot()D)以上都不是答案:D解析:難易程度:易題型:[單選題]13.長(zhǎng)短期記憶網(wǎng)絡(luò)是RNN的一種變體,RNN由于梯度消失的原因只能有()記憶A)長(zhǎng)期B)短期C)中期D)后期答案:B解析:[單選題]14.卷積定理指出,函數(shù)卷積的傅里葉變換是函數(shù)傅里葉變換的()。即,一個(gè)域中的卷積相當(dāng)于另一個(gè)域中的(),例如時(shí)域中的卷積就對(duì)應(yīng)于頻域中的乘積。A)乘積,乘積B)乘積,范數(shù)C)范數(shù),乘積D)范數(shù),距離答案:A解析:[單選題]15.在有監(jiān)督學(xué)習(xí)中,標(biāo)簽起的一個(gè)作用是A)監(jiān)督B)度量C)觀察D)學(xué)習(xí)答案:A解析:[單選題]16.()是序列模型處理的基礎(chǔ)單元A)時(shí)間步B)樣本C)一句話D)一個(gè)數(shù)據(jù)集答案:A解析:[單選題]17.深度學(xué)習(xí)是當(dāng)前很熱門的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量的矩陣相乘,現(xiàn)在需要計(jì)算個(gè)稠密矩陣A,B.C的乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別為mn,np,pq,且m<n<p<q,以下計(jì)算順序效率最高的是(()A)(AB)CB)AC(B)C)A(BC)D)所有效率都相同答案:A解析:[單選題]18.假設(shè)一個(gè)具有3個(gè)神經(jīng)元和輸入為[1,2,3]的簡(jiǎn)單MLP模型。輸入神經(jīng)元的權(quán)重分別為4,5和6。假設(shè)激活函數(shù)是一個(gè)線性常數(shù)值3(激活函數(shù)為:y=3x)。輸出是什么?()A)32B)643C)96D)48答案:C解析:[單選題]19.定義一個(gè)卷積核filter,它的張量定義為filter=tf.Variable(tf.random_normal([20,10,3,16]))則卷積核的高度是:A)10B)20C)16D)3答案:B解析:[單選題]20.Keras中進(jìn)行獨(dú)熱處理的代碼是A)to_categorical()B)OneHotEncoder()C)eye()D)diag()答案:A解析:[單選題]21.Tf.nn.conv2d是TensorFlow里面實(shí)現(xiàn)卷積的函數(shù),使用這樣函數(shù)的網(wǎng)絡(luò)層的作用是()A)增強(qiáng)圖像B)簡(jiǎn)化圖像C)特征提取D)圖像處理答案:C解析:[單選題]22.()只是單CPU模擬雙CPU來(lái)平衡程序運(yùn)行性能,這兩個(gè)模擬出來(lái)的CPU是不能分離的,只能協(xié)同工作。A)多任務(wù)B)超線程技術(shù)C)虛擬化D)多線程答案:B解析:超線程技術(shù)只是單CPU模擬雙CPU來(lái)平衡程序運(yùn)行性能,這兩個(gè)模擬出來(lái)的CPU是不能分離的,只能協(xié)同工作。[單選題]23.以下哪個(gè)關(guān)于梯度消失的描述是正確的?A)通過(guò)優(yōu)化算法,處理梯度,可以更快做梯度下降,獲取最優(yōu)解B)由于數(shù)據(jù)處理或者激活函數(shù)選擇不合理等原因,無(wú)法獲取梯度,從而不能獲得最優(yōu)解C)由于隱藏層數(shù)量過(guò)少,無(wú)法獲取梯度,從而不能獲得最優(yōu)解D)通過(guò)更多隱藏層,減少梯度迭代,從而更快的進(jìn)行計(jì)算,獲取最優(yōu)解答案:B解析:[單選題]24.當(dāng)數(shù)據(jù)過(guò)大以至于無(wú)法在RAM中同時(shí)處理時(shí),哪種梯度下降方法更加有效?A)隨機(jī)梯度下降法(StochasticGradientDescent)B)不知道C)整批梯度下降法(FullBatchGradientDescent)D)都不是答案:A解析:[單選題]25.通常歐幾里得距離,也叫A)非負(fù)距離B)平面距離C)絕對(duì)值距離D)平方范數(shù)距離答案:D解析:[單選題]26.關(guān)于Series索引方式錯(cuò)誤的是()。A)s[0:2]B)s[2]C)s[s>2]D)s[s=2]答案:D解析:難易程度:中題型:[單選題]27.在keras中,函數(shù)按batch獲得輸入數(shù)據(jù)對(duì)應(yīng)的輸出。A)predict()B)predict_classes()C)predict_proba()D)train_on_batch()答案:A解析:在keras中,predict()函數(shù)按batch獲得輸入數(shù)據(jù)對(duì)應(yīng)的輸出。[單選題]28.符號(hào)主義屬于現(xiàn)代人工智能范疇,基于邏輯推理的智能模擬方法()A)模擬人的智能行為B)計(jì)算機(jī)視覺(jué)C)卷積神經(jīng)網(wǎng)絡(luò)D)openCV答案:A解析:[單選題]29.本學(xué)期的大作業(yè),手寫數(shù)字識(shí)別性能的最低要求是多少()。A)90%B)95%C)97%D)99%答案:B解析:難易程度:易題型:[單選題]30.下面能夠?qū)崿F(xiàn)激活函數(shù)操作的語(yǔ)句是:A)h_conv1=tf.nn.relu(conv_ret1)B)h_conv1=tf.nn.dropout(conv_ret1)C)h_conv1=tf.nn.lrn(conv_ret1)D)h_conv1=tf.nn.l2_loss(conv_ret1)答案:A解析:[單選題]31.在keras中,也可以調(diào)用框架提供的模型,請(qǐng)問(wèn)這些模型包含在下面哪個(gè)庫(kù)中?A)keras.applicationsB)keras.layersC)keras.preprocessingD)keras.models答案:A解析:[單選題]32.pytorch向下取整的函數(shù)是A)roundB)floorC)ceilD)trunc答案:B解析:floor意思為地板,是向下取整[單選題]33.依據(jù)函數(shù)的曲線分布而命名的()激活函數(shù)中,就是指Sigmoid函數(shù)A)U型B)M型C)X型D)S型答案:D解析:[單選題]34.在繪圖時(shí)?-?表示那種風(fēng)格字符()。A)虛線B)實(shí)線C)點(diǎn)劃線D)點(diǎn)虛線答案:B解析:難易程度:易題型:[單選題]35.動(dòng)態(tài)圖處理中,無(wú)序開(kāi)啟A)求導(dǎo)B)會(huì)話C)自動(dòng)微分D)反向傳播答案:B解析:[單選題]36.三元運(yùn)算符是以下哪個(gè)命令()。A)np.all()B)np.any()C)np.where()D)np.std答案:C解析:難易程度:易題型:[單選題]37.假設(shè)一個(gè)具有3個(gè)神經(jīng)元和輸入為「1.2.3]的簡(jiǎn)單MLP模型。輸入神經(jīng)元的權(quán)重分別為4,5和6。假設(shè)激活函數(shù)是一個(gè)線性常數(shù)值3(激活函數(shù)為:y=3x)。輸出是什么?CA)32B)643C)96D)48答案:C解析:[單選題]38.Tf.reshape(tensor,shape,name=None)函數(shù)的作用是將tensor變換為參數(shù)shape形式,其中的shape為一個(gè)()形式。-1所代表的含義是我們不用親自去指定這一維的大小,函數(shù)會(huì)自動(dòng)進(jìn)行計(jì)算A)矢量B)向量C)列表D)凸集答案:C解析:[單選題]39.Tf的文件讀入前,需要定義reader=tf.WholeFileReader(),該語(yǔ)句是A)讀入文件B)定義文件操作對(duì)象C)定義讀入模式D)定義數(shù)據(jù)對(duì)象答案:B解析:[單選題]40.從()到AlexNet。進(jìn)化之路一:網(wǎng)絡(luò)結(jié)構(gòu)加深;進(jìn)化之路二:加強(qiáng)卷積功能;進(jìn)化之路三:從分類到檢測(cè);進(jìn)化之路四:新增功能模塊。A)LeNetB)AlexNetC)VGGD)ResNet答案:A解析:[單選題]41.神經(jīng)網(wǎng)絡(luò)中神經(jīng)元的說(shuō)法正確的是()A)一個(gè)神經(jīng)元有多個(gè)輸入輸出B)一個(gè)神經(jīng)元有多個(gè)輸入和一個(gè)輸出C)一個(gè)神經(jīng)元有一個(gè)輸入和多個(gè)輸出D)以上都正確答案:D解析:難易程度:易題型:[單選題]42.定義張量類型為32位浮點(diǎn)數(shù),下列代碼正確的是A)Tf.constant([1],32)B)Tf.constant([1],32.0)C)Tf.constant([1],type=tf.float32)D)Tf.constant([1],dtype=tf.float32)答案:D解析:[單選題]43.Mini-batch的原理是A)選取數(shù)據(jù)中部分?jǐn)?shù)據(jù)進(jìn)行梯度下降B)和批量梯度下降相同,只是將算法進(jìn)行優(yōu)化C)將數(shù)據(jù)每次進(jìn)行一小批次處理,通過(guò)迭代將數(shù)據(jù)全部處理D)隨機(jī)選取一些數(shù)據(jù),計(jì)算梯度進(jìn)行下降,每次將學(xué)習(xí)率降低一點(diǎn)答案:C解析:[單選題]44.梯度下降算法的正確步驟是什么?1計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差2重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值3把輸入傳入網(wǎng)絡(luò),得到輸出值4用隨機(jī)值初始化權(quán)重和偏差5對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差A(yù))3,2,1,5,4B)5,4,3,2,1C)4,3,1,5,2D)1,2,3,4,5答案:C解析:[單選題]45.下列不屬于Lasso對(duì)象屬性的是()。A)coef_B)sparse_coef_C)intercept_D)n_features_答案:D解析:難易程度:中題型:[單選題]46.pytorch執(zhí)行參數(shù)更新的函數(shù)是A)optimizer.zero_grad()B)zero.autoC)cost.backward()D)optimizer.step()答案:D解析:[單選題]47.在監(jiān)督學(xué)習(xí)中,標(biāo)簽起監(jiān)督作用,監(jiān)督的目的是指導(dǎo)A)修正權(quán)重參數(shù)B)求出信息熵C)特征提取D)預(yù)處理數(shù)據(jù)答案:A解析:[單選題]48.初始化時(shí)通常使用()隨機(jī)數(shù)給各權(quán)值和閾值賦初值。A)偏導(dǎo)數(shù)B)大的C)小的D)均方根答案:C解析:[單選題]49.(e^x)*x^2的導(dǎo)數(shù)是A)(e^x)(x^2+2x)B)(e^x)C)(e^x)*cos(x)D)cosx答案:A解析:[單選題]50.在Keras中,fit函數(shù)的參數(shù):validation_split:0~1之間的浮點(diǎn)數(shù),用來(lái)指定訓(xùn)練集的一定比例數(shù)據(jù)作為驗(yàn)證集。驗(yàn)證集將不參與訓(xùn)練,并在每個(gè)epoch結(jié)束后測(cè)試的模型的指標(biāo),如損失函數(shù)、精確度等。其不指定時(shí)默認(rèn)值是()A)1B)0.5C)0.2D)0答案:D解析:在Keras中,fit函數(shù)的參數(shù):validation_split:0~1之間的浮點(diǎn)數(shù),用來(lái)指定訓(xùn)練集的一定比例數(shù)據(jù)作為驗(yàn)證集。驗(yàn)證集將不參與訓(xùn)練,并在每個(gè)epoch結(jié)束后測(cè)試的模型的指標(biāo),如損失函數(shù)、精確度等。其不指定時(shí)默認(rèn)值是0[單選題]51.tf.transpose常用的情景為A)獨(dú)熱編碼B)數(shù)據(jù)勤奮C)邏輯回歸D)圖片處理答案:D解析:[單選題]52.循環(huán)神經(jīng)網(wǎng)絡(luò)比較擅長(zhǎng)()A)列相關(guān)問(wèn)題。B)圖像分類。C)圖像檢索。D)圖像去燥。答案:A解析:[單選題]53.飛槳框架的經(jīng)典應(yīng)用案例有()。A)國(guó)網(wǎng)山東B)商湯圖像C)平安醫(yī)療D)中科院遙感所答案:A解析:難易程度:易題型:[單選題]54.神經(jīng)網(wǎng)絡(luò)的向前傳輸過(guò)程需要3部分信息,分別是神經(jīng)網(wǎng)絡(luò)輸入、神經(jīng)網(wǎng)絡(luò)的連接以及()。A)神經(jīng)網(wǎng)絡(luò)參數(shù)B)神經(jīng)網(wǎng)絡(luò)權(quán)重C)神經(jīng)網(wǎng)絡(luò)閾值D)以上都不對(duì)答案:A解析:[單選題]55.T=tf.Variable([1,2,3]),tf.multiply(t,2)的結(jié)果是A)[1,2,3]B)[2,3,4]C)[2,4,6]D)[2,4,3]答案:C解析:[單選題]56.可以使用后面的時(shí)間步預(yù)測(cè)前面時(shí)間步含義的單元是A)RNNB)LSTMC)GRUD)BRNN答案:D解析:[單選題]57.人工智能三大主義之符號(hào)主義的?符號(hào)?是指A)字符串B)符號(hào)邏輯C)字符串的推廣D)字節(jié)答案:B解析:[單選題]58.Maxpooling是CNN當(dāng)中的最大值池化操作,其實(shí)用法和卷積很類似,()仍然是[batch,height,width,channels]這種形式A)valueB)shapeC)stridesD)padding答案:B解析:[單選題]59.循環(huán)神經(jīng)網(wǎng)絡(luò)的英文全稱是?A)RecurrentNeuralNetworkB)RepeatNeuralNetworkC)RoundNeuralNetworkD)RecurseNeuralNetwork答案:A解析:[單選題]60.假設(shè)我們擁有一個(gè)已完成訓(xùn)練的、用來(lái)解決車輛檢測(cè)問(wèn)題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測(cè)出每種車輛的名稱(車輛共有10種類型)?,F(xiàn)在想要使用這個(gè)模型來(lái)解決另外-個(gè)問(wèn)題,問(wèn)題數(shù)據(jù)集中僅包含一種車(福特野馬)而目標(biāo)變?yōu)槎ㄎ卉囕v在照片中的位置。我們應(yīng)該如何操作?()A)除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B)對(duì)神經(jīng)網(wǎng)絡(luò)中的最后幾層進(jìn)行微調(diào),同時(shí)將最后一層(分類層)更改為回歸層C)使用新的數(shù)據(jù)集重新訓(xùn)練模型D)所有答案均不對(duì)答案:B解析:[單選題]61.卷積函數(shù)中,參數(shù)strides的作用是()A)設(shè)置卷積核B)設(shè)置卷積步長(zhǎng)C)設(shè)置卷積層數(shù)D)以上都不對(duì)答案:B解析:[單選題]62.對(duì)于擬合的問(wèn)題,下列說(shuō)法正確的是:A)過(guò)擬合的現(xiàn)象是訓(xùn)練集準(zhǔn)確率低,而測(cè)試集準(zhǔn)確率高B)欠擬合的現(xiàn)象是訓(xùn)練集和測(cè)試集準(zhǔn)確率相近C)盡量不要出現(xiàn)適度擬合,會(huì)造成新數(shù)據(jù)準(zhǔn)確率低D)欠擬合是指驗(yàn)證集和測(cè)試集的準(zhǔn)確率都無(wú)法保證正常業(yè)務(wù)使用答案:D解析:[單選題]63.在tf中,構(gòu)建交叉熵?fù)p失函數(shù)的語(yǔ)句是:A)cross_entropy=-tf.reduce_sum(y_actual*tf.log(y_predict))B)cross_entropy=-tf.reduce_all(y_actual*tf.log(y_predict))C)cross_entropy=-tf.reduce_max(y_actual*tf.log(y_predict))D)cross_entropy=-tf.reduce_s(y_actual*tf.log(y_predict))答案:A解析:[單選題]64.以下選項(xiàng)中,不屬于軟件調(diào)試技術(shù)的是()。A)強(qiáng)行排錯(cuò)法B)集成測(cè)試法C)回溯法D)原因排除法答案:B解析:難易程度:易題型:[單選題]65.對(duì)數(shù)坐標(biāo)下,在[a,b]區(qū)間隨機(jī)隨機(jī)均勻地給r取值的說(shuō)法錯(cuò)誤的是A)取最小值的對(duì)數(shù)得到a的值B)取最小值的對(duì)數(shù)得到b的值C)取最大值的對(duì)數(shù)得到b的值D)取任意值r,則超參數(shù)設(shè)置為10的r次方答案:B解析:[單選題]66.Alex在2012年提出的()網(wǎng)絡(luò)結(jié)構(gòu)模型引爆了神經(jīng)網(wǎng)絡(luò)的應(yīng)用熱潮,并贏得了2012屆圖像識(shí)別大賽的冠軍,使得CNN成為在圖像分類上的核心算法模型。AlexNet該模型一共分為八層,5個(gè)卷積層,,以及3個(gè)全連接層A)LeNetB)AlexNetC)VGGD)ResNet答案:B解析:[單選題]67.神經(jīng)網(wǎng)絡(luò)中的損失函數(shù)是使用那兩個(gè)值衡量()。A)計(jì)算值與目標(biāo)值B)期望值與目標(biāo)值C)預(yù)測(cè)值與目標(biāo)值D)計(jì)算值與實(shí)際值答案:A解析:難易程度:易題型:[單選題]68.以下四個(gè)mini-batch選取樣本數(shù)量,哪一個(gè)效果最好A)58B)60C)62D)64答案:D解析:[單選題]69.簡(jiǎn)單來(lái)說(shuō),Siamesenetwork就是?連體的神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的?連體?是通過(guò)()來(lái)實(shí)現(xiàn)的A)獨(dú)有權(quán)值B)最大權(quán)值C)共享權(quán)值D)最小權(quán)值答案:C解析:[單選題]70.深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)屬于機(jī)器學(xué)習(xí)中的那哪種模型A)深度監(jiān)督學(xué)習(xí)B)深度無(wú)監(jiān)督學(xué)習(xí)C)深度半監(jiān)督學(xué)習(xí)D)深度強(qiáng)化學(xué)習(xí)答案:A解析:[單選題]71.Dataset數(shù)據(jù)結(jié)構(gòu)中,映射元素的函數(shù)是A)mapB)zipC)shuffleD)reduce答案:A解析:[單選題]72.()年,幾個(gè)計(jì)算機(jī)科學(xué)家相聚在達(dá)特茅斯會(huì)議,提出了?人工智能?的概念。A)1955B)1957C)1956D)1954答案:C解析:1956年,幾個(gè)計(jì)算機(jī)科學(xué)家相聚在達(dá)特茅斯會(huì)議,提出了?人工智能?的概念[單選題]73.pytorch中,LSTM輸入尺寸參數(shù)為A)input_sizeB)batch_firstC)biasD)hidden_size答案:A解析:[單選題]74.下列使用歸一化操作的激活函數(shù)有:A)reluB)softmaxC)tanhD)leakrelu答案:B解析:[單選題]75.關(guān)于正則化,說(shuō)法錯(cuò)誤的是:A)過(guò)擬合可以通過(guò)正則化方式消除B)常用的正則化方式由L1,L2,以及dropoutC)欠擬合可以通過(guò)正則化方式消除D)正則化是損失函數(shù)的一個(gè)補(bǔ)償項(xiàng)答案:C解析:[單選題]76.創(chuàng)建一個(gè)3x3的ndarray,下列代碼錯(cuò)誤的是()。A)np.arange(0,9).reshape(3,3)B)np.eye(3)C)np.random.random([3,3,3])D)np.mat(?1答案:C解析:難易程度:中題型:[單選題]77.Word2vec主要包含兩個(gè)模型Skip-gram和()?A)GRUB)CCOWC)CBOWD)CBOM答案:C解析:[單選題]78.矩陣100010001又稱為什么矩陣()。A)1階矩陣B)對(duì)角矩陣C)三角矩陣D)3維矩陣答案:B解析:難易程度:易題型:[單選題]79.對(duì)于概率空間,集合的劃分,與下列最有關(guān)系的是A)距離空間B)概率空間C)向量空間D)排序答案:B解析:[單選題]80.對(duì)于tf函數(shù)tf.all_variables()。A)能夠打印所有變量B)能夠打印部分變量C)能定義所有變量D)能夠定義任意變量答案:A解析:[單選題]81.Mini-batch下降的效果是:A)損失函數(shù)值一直下降B)損失函數(shù)值總體趨勢(shì)下降C)比梯度下降速度快D)梯度下降不明顯答案:B解析:[單選題]82.A是3階方陣,且A=-2,則2A=()。A)4B)-4C)16D)-16答案:D解析:難易程度:難題型:[單選題]83.Linux繼承了()以網(wǎng)絡(luò)為核心的設(shè)計(jì)思想,是一個(gè)性能穩(wěn)定的多用戶網(wǎng)絡(luò)操作系統(tǒng)。A)windowsB)ubuntuC)UnixD)redhat答案:C解析:Linux繼承了Unix以網(wǎng)絡(luò)為核心的設(shè)計(jì)思想,是一個(gè)性能穩(wěn)定的多用戶網(wǎng)絡(luò)操作系統(tǒng)。[單選題]84.不屬于卷積內(nèi)部性質(zhì)的有A)步長(zhǎng)B)卷積核C)0填充D)池化核答案:D解析:[單選題]85.F=tf.Variable([[2.,5.,4.],[1.,3.,6.]]),tf.reduce_sum(f,axis=1)的值是A)[10.,11.]B)[10.,10.]C)[11.,11.]D)[11.,10.]答案:D解析:[單選題]86.將numpy轉(zhuǎn)成tensor的方式是:A)cloneB)tensorC)from_numpyD)view答案:C解析:[單選題]87.keras中只保留模型的權(quán)重可以通過(guò)()方法實(shí)現(xiàn)A)model.save_weight()B)model.save_weights()C)model.save()D)model.json()答案:B解析:[單選題]88.在卷積神經(jīng)網(wǎng)絡(luò)中,函數(shù)tf.argmax()可以返回vector中的最大值的索引號(hào)或者是最大值的()A)上標(biāo)B)下標(biāo)C)坐標(biāo)D)內(nèi)積答案:B解析:[單選題]89.輸入圖像有2個(gè),經(jīng)過(guò)10個(gè)卷積核卷積后,輸出圖像有()個(gè)A)2B)5C)10D)不確定答案:C解析:[單選題]90.對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是:1.增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率2.減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率3.增經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率A)1B)1和3C)1和2D)2答案:A解析:[單選題]91.在一個(gè)簡(jiǎn)單的MLP模型中,輸入層有8個(gè)神經(jīng)元,隱藏層有5個(gè)神經(jīng)元,輸出層有1個(gè)神經(jīng)元。隱藏輸出層和輸入隱藏層之間的權(quán)重矩陣的大小是多少?()A)[1X5],[5X8]B)[8×5],[1×5]C)[5×8],[5×1]D)[5×1],[8×5]答案:D解析:[單選題]92.使用1*1卷積思想的網(wǎng)絡(luò)模型是A)lenetB)alexnetC)resnetD)inception答案:D解析:[單選題]93.Dropout運(yùn)行原理:A)隨機(jī)取消一些節(jié)點(diǎn),只是用部分節(jié)點(diǎn)進(jìn)行擬合運(yùn)算,防止過(guò)擬合B)dropout能增加新樣本防止過(guò)擬合C)dropout進(jìn)行歸一化操作,防止過(guò)擬合D)dropout通過(guò)給損失函數(shù)增加懲罰項(xiàng),防止過(guò)擬合答案:A解析:[單選題]94.面向?qū)ο缶幊填愂褂媚膫€(gè)保留字定義()。A)classB)defC)DogD)cat答案:A解析:難易程度:易題型:[單選題]95.設(shè)計(jì)為8層的卷積神經(jīng)網(wǎng)絡(luò)AlexNet網(wǎng)絡(luò)成功使用()函數(shù),其效果遠(yuǎn)遠(yuǎn)地超過(guò)了Sigmoid函數(shù)A)RelU函數(shù)B)sigmoid函數(shù)C)tanh函數(shù)D)sin函數(shù)答案:A解析:[單選題]96.在卷積神經(jīng)網(wǎng)絡(luò)中,卷積層與全連接層的先后順序通常為?A)先卷積、池化后全連接B)先全連接、卷積后池化C)先池化、全連接再卷積D)先卷積、全連接、池化后答案:A解析:[單選題]97.與傳統(tǒng)機(jī)器學(xué)習(xí)方法相比,深度學(xué)習(xí)的優(yōu)勢(shì)在于A)深度學(xué)習(xí)可以自動(dòng)學(xué)習(xí)特征B)深度學(xué)習(xí)完全不需要做數(shù)據(jù)預(yù)處理C)深度學(xué)習(xí)完全不提取底層特征,如圖像邊緣、紋理等D)深度學(xué)習(xí)不需要調(diào)參答案:A解析:[單選題]98.根據(jù)垃圾分類條例,以下屬于可回收垃圾的是()。A)舊電腦、舊電視、舊冰箱B)油漆桶C)廢蓄電池D)廢X光片答案:A解析:[單選題]99.如果一個(gè)神經(jīng)網(wǎng)絡(luò)用于預(yù)測(cè)一種事物的分類,例如分為A,B,C,D四類,那么下列哪一個(gè)激活函數(shù)適用于該神經(jīng)網(wǎng)絡(luò)的輸出層?A)SigmoidB)TanHC)SoftmaxD)Relu答案:C解析:[單選題]100.optimizer.zero_grad()的作用是A)梯度初始化B)重新計(jì)算迭代次數(shù)C)重新計(jì)算代價(jià)D)優(yōu)化器優(yōu)化結(jié)果到0答案:A解析:[單選題]101.垂直翻轉(zhuǎn)的函數(shù)是A)RandomHorizontalFlip()B)RandomVerticalFlip()C)RandomRotationD)RandomCrop答案:B解析:[單選題]102.均方誤差損失函數(shù)用來(lái)處理()問(wèn)題A)分類B)預(yù)測(cè)C)過(guò)擬合D)以上都不對(duì)答案:B解析:[單選題]103.Keras的缺點(diǎn)是A)需要啟動(dòng)會(huì)話B)入門簡(jiǎn)單C)必須配合其他框架使用D)過(guò)度封裝導(dǎo)致喪失靈活性答案:D解析:[單選題]104.卷積是圖像處理的一種常用的()方法。A)非線性濾波B)線性濾波C)均值濾波D)非均值濾波答案:B解析:[單選題]105.圖片修復(fù)是需要人類專家來(lái)進(jìn)行修復(fù)的,這對(duì)于修復(fù)受損照片和視頻非常有幫助。下圖是一個(gè)終像修復(fù)的例子。現(xiàn)在人們?cè)谘芯咳绾斡蒙疃葘W(xué)習(xí)來(lái)解決圖片修復(fù)的問(wèn)題。對(duì)于這個(gè)問(wèn)題,哪種損失函數(shù)適用于計(jì)算像素區(qū)域的修復(fù)?CA)負(fù)對(duì)數(shù)似然度損失函數(shù)(Negative-logLikelihoodloss)B)歐式距離損失函數(shù)(Euclideanloss)C)兩種方法皆可D)兩種法不可答案:C解析:[單選題]106.關(guān)于面向?qū)ο蟮睦^承,以下選項(xiàng)中描述正確的是()A)繼承是指一組對(duì)象所具有的相似性質(zhì)B)繼承是指類之間共享屬性和操作的機(jī)制C)繼承是指各對(duì)象之間的共同性質(zhì)D)繼承是指一個(gè)對(duì)象具有另一個(gè)對(duì)象的性質(zhì)答案:B解析:難易程度:易題型:[單選題]107.權(quán)重學(xué)習(xí)理論是在那個(gè)年代提出()。A)1940年代B)50-60年代C)70年代D)1986年答案:B解析:難易程度:易題型:[單選題]108.Adam算法的tensorflow代碼是:A)tf.example.AdamOptimizerB)tf.train.AdamOptimizerC)tf.nn.AdamOptimizerD)tf.AdamOptimizer答案:B解析:[單選題]109.在AI領(lǐng)域,被譽(yù)為三駕馬車的代表人物提出了()框架。A)機(jī)器學(xué)習(xí)B)深度學(xué)習(xí)C)開(kāi)源D)tensorflow答案:B解析:[單選題]110.在M-P神經(jīng)元模型中,每個(gè)神經(jīng)元的值為()A)所有輸入值的加權(quán)和B)所有輸入值的和C)所有輸入值的乘積D)所有輸入值的加權(quán)乘積答案:A解析:[單選題]111.計(jì)算機(jī)視覺(jué),主要研究方法是A)機(jī)器學(xué)習(xí)B)數(shù)據(jù)挖掘C)卷積神經(jīng)網(wǎng)絡(luò)D)openCV答案:C解析:[單選題]112.pandas的常用類不包括()。A)SeriesB)DataFrameC)PanelD)Index答案:C解析:難易程度:中題型:[單選題]113.當(dāng)神經(jīng)網(wǎng)絡(luò)的調(diào)參效果不好時(shí),需要從哪些角度考慮?1是否找到合適的損失函數(shù)2是否過(guò)擬合3是否選擇了和是的激活函數(shù)4是否選擇合適的學(xué)習(xí)率A)12B)234C)34D)1234答案:D解析:[單選題]114.連續(xù)特征數(shù)據(jù)離散化的處理方法不包括()。A)等寬法B)等頻法C)使用聚類算法D)使用Apriori算法答案:D解析:難易程度:中題型:[單選題]115.混沌度(Perplexitv)是一種常見(jiàn)的應(yīng)用在使用深度學(xué)習(xí)處理NLP問(wèn)題過(guò)程中的評(píng)估技術(shù),關(guān)于混沌度,哪種說(shuō)法是正確的?BA)度沒(méi)什么影響B(tài))混沌度越低越好C)混度越高越好D)于果的影響不一定答案:B解析:[單選題]116.在tf中My_var_times_two=my_var.assign(2*my_var)A)讓my_var對(duì)應(yīng)變量翻倍賦值給My_var_times_twoB)沒(méi)有賦值C)賦值不翻倍D)my_var對(duì)應(yīng)變量翻倍答案:D解析:[單選題]117.下面代碼的輸出結(jié)果是()d={"大海":"藍(lán)色","天空":"灰色","大地":"黑色"}print(d["大地"],d.get("大海"))A)大地B)大地C)黑的D)黑色答案:D解析:難易程度:易題型:[單選題]118.多分類處理流程中,不屬于softmax特點(diǎn)的是A)輸出結(jié)果的數(shù)量和類別數(shù)相同B)輸出結(jié)果對(duì)應(yīng)了別概率C)輸出求和為1D)概率值大于0.5的是最終的預(yù)測(cè)結(jié)果答案:D解析:[單選題]119.相對(duì)復(fù)雜的模型,建議使用()方式創(chuàng)建A)SequentialB)函數(shù)式API創(chuàng)建任意結(jié)構(gòu)模型C)Model子類化創(chuàng)建自定義模型D)自定義函數(shù)答案:C解析:[單選題]120.以下不是LSTM中包含的門A)遺忘門B)輸入門C)輸出門D)更新門答案:D解析:[單選題]121.tensorboard一般用于對(duì)loss和metric的變化進(jìn)行可視化分析的函數(shù)是A)writer.add_graphB)writer.add_scalarC)writer.add_histogramD)writer.add_figure答案:B解析:[單選題]122.卷積過(guò)程中,輸入圖像為RGB彩色圖像,采用5x5的卷積核,此時(shí)卷積核有()個(gè)通道。A)3B)5C)7D)1答案:A解析:[單選題]123.騰訊云提供三種類型的云服務(wù)器購(gòu)買方式,分別適用于不同場(chǎng)景下的用戶需求,下列哪一項(xiàng)不是騰訊云服務(wù)器購(gòu)買方式:()A)包年包月B)按量計(jì)費(fèi)C)部分免費(fèi)D)競(jìng)價(jià)實(shí)例答案:C解析:[單選題]124.ImporttensorflowastfInput=tf.variable(tf.random_normal([1,3,3,1]))Filter=tf.variable(tf.random_normal([3,3,1,1]))Result=tf.nn.conv2d(input,filter,strides=[1,1,1,1]),padding='VALID')該程序中,填充方式為()A)使用0填充B)不使用0填充C)無(wú)論怎樣都不填充D)使用1填充答案:B解析:[單選題]125.以下不是激活函數(shù)的是:A)reluB)sigmoidC)tanhD)dropout答案:D解析:[單選題]126.優(yōu)化算法計(jì)算用到了:A)標(biāo)準(zhǔn)差加權(quán)平均B)方差加權(quán)平均C)對(duì)數(shù)加權(quán)平均D)指數(shù)加權(quán)平均答案:D解析:[單選題]127.自定義循環(huán)訓(xùn)練模型模式,無(wú)需()過(guò)程A)編譯B)求導(dǎo)C)計(jì)算梯度D)計(jì)算得分答案:A解析:[單選題]128.(e^x)*sin(x)的導(dǎo)數(shù)是A)(e^x)((sin(x)+cos(x))B)(e^x)C)(e^x)*cos(x)D)cosx答案:A解析:[單選題]129.在會(huì)話中運(yùn)行計(jì)算圖使用的函數(shù)是A)Session()B)Sess()C)Constant()D)Tf.constant()答案:A解析:[單選題]130.激活函數(shù)X。在給定輸入后,其輸出為-0.01。則X可能是以下哪一個(gè)激活函數(shù)?()A)ReLUB)tanhC)SigmoidD)其他選項(xiàng)都有可能答案:B解析:[單選題]131.編程中,通常要進(jìn)行全局變量初始化操作,可以使用下列那一個(gè)語(yǔ)句()A)init_op=tf.global_variables_initializer()B)init_op=tf.variables_initializer()C)init_op=tf.initializer()D)init_op=np.global_variables_initializer()答案:A解析:[單選題]132.我們可以采取哪些措施來(lái)防止神經(jīng)網(wǎng)絡(luò)中的過(guò)擬合?A)數(shù)據(jù)增強(qiáng)B)權(quán)重共享C)提前停止D)DropoutE)以上全部F)全部答案:E解析:第2部分:多項(xiàng)選擇題,共41題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]133.分別加載模型結(jié)構(gòu)和權(quán)重,就是分別加載模型結(jié)構(gòu)文件和模型權(quán)重文件,下面哪些方法能實(shí)現(xiàn)上述功能?A)model_from_json()B)model.from_weights()C)model_from_yaml()D)load_weights()答案:ACD解析:[多選題]134.在tensorflow平臺(tái)中,可以實(shí)現(xiàn)兩個(gè)向量?jī)?nèi)積運(yùn)算的語(yǔ)句包括:A)tf.reduce_sumB)tf.multiplyC)tf.reduce_meanD)tf.norm答案:AB解析:[多選題]135.由深度神經(jīng)網(wǎng)絡(luò)構(gòu)成的網(wǎng)絡(luò)結(jié)構(gòu)中,其構(gòu)成通常會(huì)包括那些層?A)輸入層B)卷積層(激活函數(shù))C)池化層D)全連接層答案:ABCD解析:[多選題]136.以下哪些屬于獨(dú)熱編碼?A)[0,1,0,0]B)[0,1,1,0]C)[1,0,0,0]D)[0,0,0,1]答案:ACD解析:[多選題]137.語(yǔ)句tf.transpose(x).eval()的意義是:A)對(duì)x進(jìn)行轉(zhuǎn)置B)從tf環(huán)境中獲取x的數(shù)據(jù)交給python環(huán)境C)不對(duì)x轉(zhuǎn)置D)不能獲知x的內(nèi)容答案:AB解析:[多選題]138.需要循環(huán)迭代的算法有A)k-meansB)線性回歸C)svmD)邏輯回歸答案:ABD解析:[多選題]139.深度學(xué)習(xí)是一類模式分析方法的統(tǒng)稱,就具體研究?jī)?nèi)容而言,主要涉及三類方法:A)基于卷積運(yùn)算的神經(jīng)網(wǎng)絡(luò)系統(tǒng),即卷積神經(jīng)網(wǎng)絡(luò)(CNN)。B)以多層自編碼神經(jīng)網(wǎng)絡(luò)的方式進(jìn)行預(yù)訓(xùn)練,進(jìn)而結(jié)合鑒別信息進(jìn)一步優(yōu)化神經(jīng)網(wǎng)絡(luò)權(quán)值的深度置信網(wǎng)絡(luò)(DBN)C)基于多層神經(jīng)元的自編碼神經(jīng)網(wǎng)絡(luò),包括自編碼(Autoencoder)以及近年來(lái)受到廣泛關(guān)注的稀疏編碼兩類(SparseCoding)D)以機(jī)器學(xué)習(xí)為主的多種神經(jīng)網(wǎng)絡(luò)算法答案:ABC解析:深度學(xué)習(xí)是一類模式分析方法的統(tǒng)稱,就具體研究?jī)?nèi)容而言,主要涉及三類方法:[2](1)基于卷積運(yùn)算的神經(jīng)網(wǎng)絡(luò)系統(tǒng),即卷積神經(jīng)網(wǎng)絡(luò)(CNN)。[2](2)基于多層神經(jīng)元的自編碼神經(jīng)網(wǎng)絡(luò),包括自編碼(Autoencoder)以及近年來(lái)受到廣泛關(guān)注的稀疏編碼兩類(SparseCoding)。[2](3)以多層自編碼神經(jīng)網(wǎng)絡(luò)的方式進(jìn)行預(yù)訓(xùn)練,進(jìn)而結(jié)合鑒別信息進(jìn)一步優(yōu)化神經(jīng)網(wǎng)絡(luò)權(quán)值的深度置信網(wǎng)絡(luò)(DBN)。[多選題]140.圖像歸一化的好處包括()A)減小幾何變換的影響B(tài))轉(zhuǎn)換成標(biāo)準(zhǔn)模式,防止仿射變換的影響C)減小噪聲影響D)加快梯度下降求最優(yōu)解的速度答案:ABD解析:一、圖像歸一化的好處:1、轉(zhuǎn)換成標(biāo)準(zhǔn)模式,防止仿射變換的影響。2、減小幾何變換的影響。3、加快梯度下降求最優(yōu)解的速度。[多選題]141.TensorFlow程序的核心是:A)變量B)常量C)張量數(shù)據(jù)結(jié)構(gòu)D)計(jì)算圖算法語(yǔ)言答案:CD解析:[多選題]142.下面哪些語(yǔ)句哪些函數(shù)是優(yōu)化器?A)tf.train.GradientDescentOptimizer()B)tf.train.AdamOptimizer()C)tf.train.Optimizer()基本的優(yōu)化類D)tf.train.AdadeltaOptimizer()答案:ABCD解析:[多選題]143.語(yǔ)句a=tf.Variable([1,2,3])和b=tf.Variable(a)這條語(yǔ)句:A)合法B)非法C)合法但a需要提前初始化D)合法但不夠安全答案:ACD解析:[多選題]144.張量結(jié)構(gòu)操作A)張量創(chuàng)建B)索引切片C)維度變換D)合并分割答案:ABCD解析:[多選題]145.假定一個(gè)全連接網(wǎng)絡(luò)有三個(gè)權(quán)重矩陣維度為W1[a,b],W2[c,d],W3[e,f],該網(wǎng)絡(luò)A)輸入維度為[M,a]B)輸出維度[M,f]C)輸入數(shù)據(jù)維度為[a,b]D)輸出數(shù)據(jù)維度為[e,f]答案:AB解析:[多選題]146.keras中包含的庫(kù)有A)activationB)layersC)lossesD)metrics答案:ABCD解析:[多選題]147.交叉熵為-1/m∑[y(i)log(hθ(x(i)))+(1?y(i))log(1?hθ(x(i)))]A)m是訓(xùn)練輸入元素個(gè)數(shù)B)∑的加和長(zhǎng)度是輸入個(gè)數(shù)C)y(i)來(lái)自標(biāo)簽的onehot表D)hθ(x(i))和標(biāo)簽one-hot表維度一致答案:ABCD解析:[多選題]148.隨著深度學(xué)習(xí)的興起,越來(lái)越多的人從事算法工程師這一崗位。有時(shí)候他們自嘲自己為?天橋調(diào)參師?。但是,算法工程師的工作內(nèi)容并沒(méi)有那么簡(jiǎn)單,因?yàn)樵O(shè)置超參數(shù)的過(guò)程需要專業(yè)知識(shí)和廣泛的試驗(yàn)和試錯(cuò)過(guò)程。尤其是針對(duì)()這些超參數(shù)而言,沒(méi)有簡(jiǎn)單易行的方法來(lái)設(shè)置。A)學(xué)習(xí)率(learningrate)B)批量大小(batchsize)C)動(dòng)量(momentum)D)權(quán)重衰減(weightdecay)答案:ABCD解析:[多選題]149.關(guān)于訓(xùn)練,驗(yàn)證集劃分,下列正確的是:A)不一定需要驗(yàn)證集B)數(shù)據(jù)集數(shù)量較少時(shí),訓(xùn)練集和測(cè)試集比例可以是7:3C)任何數(shù)量的數(shù)據(jù)集,都應(yīng)遵守訓(xùn)練集和測(cè)試集比例7:3的鐵則D)大數(shù)據(jù)量的驗(yàn)證集,可以不遵循訓(xùn)練集和測(cè)試集比例7:3的原則答案:ABD解析:[多選題]150.語(yǔ)句My_var_times_two=my_var.assign(2*my_var)A)讓my_var對(duì)應(yīng)變量翻倍B)有賦值C)My_var_times_two是一個(gè)節(jié)點(diǎn)D)需要先對(duì)my_var初始化答案:ABCD解析:[多選題]151.關(guān)于梯度的問(wèn)題,以下說(shuō)法錯(cuò)誤的是:A)梯度下降會(huì)增加學(xué)習(xí)次數(shù)B)多使用梯度爆炸,增加計(jì)算效率提升模型準(zhǔn)確率C)梯度下降可以減少計(jì)算量,建議使用D)梯度爆炸會(huì)增大計(jì)算量,編寫代碼時(shí)避免梯度爆炸答案:BC解析:[多選題]152.計(jì)算圖由()和()組成A)節(jié)點(diǎn)B)線C)張量D)變量答案:AB解析:[多選題]153.做作為分類損失函數(shù)的有A)binary_crossentropyB)categorical_crossentropyC)sparse_categorical_crossentropyD)hinge答案:ABC解析:D為SVM中的合頁(yè)損失[多選題]154.在深度學(xué)習(xí)中,模型出現(xiàn)過(guò)擬合的現(xiàn)象可能是()A)訓(xùn)練集的數(shù)量級(jí)和模型的復(fù)雜度不匹配。訓(xùn)練集的數(shù)量級(jí)要小于模型的復(fù)雜度;B)訓(xùn)練集和測(cè)試集特征分布不一致;C)樣本里的噪音數(shù)據(jù)干擾過(guò)大,大到模型過(guò)分記住了噪音特征,反而忽略了真實(shí)的輸入輸出間的關(guān)系D)權(quán)值學(xué)習(xí)迭代次數(shù)足夠多(Overtraining),擬合了訓(xùn)練數(shù)據(jù)中的噪聲和訓(xùn)練樣例中沒(méi)有代表性的特征答案:ABCD解析:[多選題]155.人工智能被分為三大學(xué)派或者三大主義,請(qǐng)從以下選項(xiàng)中選擇出()?A)symbolicismB)connectionismC)actionismD)機(jī)器學(xué)習(xí)答案:ABC解析:[多選題]156.Dataset創(chuàng)建數(shù)據(jù)集常用的方法有:A)torch.utils.data.TensorDatasetB)torchvision.datasets.ImageFolderC)繼承torch.utils.data.DatasetD)dataloder答案:ABC解析:[多選題]157.Tf.slice(image,input,size)從,image取出局部A)image是輸入張量B)input是定位點(diǎn)C)size是取出數(shù)據(jù)描述D)image只能有四維張量答案:ABC解析:[多選題]158.屬于卷積網(wǎng)絡(luò)相關(guān)的函數(shù)是:A)nn.Conv1dB)nn.MaxPool2dC)nn.AvgPool2dD)nn.Embedding答案:ABC解析:[多選題]159.cnn網(wǎng)絡(luò)常用的步驟有A)卷積B)池化C)激活D)全連接答案:ABCD解析:[多選題]160.淺層神經(jīng)網(wǎng)絡(luò)與深度神經(jīng)網(wǎng)絡(luò)比較,其區(qū)別之處是?A)淺層結(jié)構(gòu)算法:其局限性在于有限樣本和計(jì)算單元情況下對(duì)復(fù)雜函數(shù)的表示能力有限,針對(duì)復(fù)雜分類問(wèn)題其泛化能力受到一定制約B)深度學(xué)習(xí)可通過(guò)學(xué)習(xí)一種深層非線性網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)復(fù)雜函數(shù)逼近,表征輸入數(shù)據(jù)分布式表示,并展現(xiàn)了強(qiáng)大的從少數(shù)樣本集中學(xué)習(xí)數(shù)據(jù)集本質(zhì)特征的能力。C)深度學(xué)習(xí)多層的好處是可以用較少的參數(shù)表示復(fù)雜的函數(shù)D)深度學(xué)習(xí)的實(shí)質(zhì),是通過(guò)構(gòu)建具有很多隱層的機(jī)器學(xué)習(xí)模型和海量的訓(xùn)練數(shù)據(jù),來(lái)學(xué)習(xí)更有用的特征,從而最終提升分類或預(yù)測(cè)的準(zhǔn)確性。答案:ABCD解析:[多選題]161.數(shù)學(xué)建模過(guò)程中,引入距離空間,可以:A)度量任意兩個(gè)點(diǎn)的接近程度B)可以實(shí)現(xiàn)線性運(yùn)算C)可以度量點(diǎn)到集合距離D)度量凸集合到凸集合的距離答案:ACD解析:[多選題]162.()模型是2014年ILSVRC競(jìng)賽的第二名,第一名是()。但是VGG模型在多個(gè)遷移學(xué)習(xí)任務(wù)中的表現(xiàn)要優(yōu)于googLeNetA)VGGB)GoogLeNetC)ResNetD)AlexNet答案:AB解析:[多選題]163.池化的方式有:A)平均池化B)最大池化C)中值池化D)最小池化答案:AB解析:[多選題]164.tensorflow2.0常用的三種計(jì)算圖是A)靜態(tài)計(jì)算圖B)動(dòng)態(tài)計(jì)算圖C)AutographD)4維動(dòng)態(tài)圖答案:ABC解析:[多選題]165.在循環(huán)神經(jīng)網(wǎng)絡(luò)中,GRU中有幾個(gè)門?A)輸入門B)遺忘門C)重置門D)更新門答案:CD解析:[多選題]166.反向算法BP網(wǎng)絡(luò)學(xué)習(xí)包括以下()個(gè)過(guò)程A)組成輸入模式由輸入層經(jīng)過(guò)隱含層向輸出層的?模式順傳播?過(guò)程B)網(wǎng)絡(luò)的期望輸出與實(shí)際輸出之差的誤差信號(hào)由輸出層經(jīng)過(guò)隱含層逐層修正連接權(quán)的?誤差逆?zhèn)鞑?過(guò)程C)由?模式順傳播?與?誤差逆?zhèn)鞑?的反復(fù)進(jìn)行的網(wǎng)絡(luò)?記憶訓(xùn)練?過(guò)程D)網(wǎng)絡(luò)趨向收斂即網(wǎng)絡(luò)的總體誤差趨向極小值的?學(xué)習(xí)收斂?過(guò)程答案:ABCD解析:[多選題]167.下面哪些序列數(shù)據(jù)屬于多對(duì)多(多個(gè)輸入,多個(gè)輸出)的關(guān)系A(chǔ))音樂(lè)生成B)情感分類C)編碼器-解碼器D)機(jī)器翻譯答案:CD解析:[多選題]168.歸一化的特點(diǎn):A)更容易收斂得到最優(yōu)解B)權(quán)重值較小C)權(quán)重值大D)無(wú)特點(diǎn)答案:AB解析:[多選題]169.對(duì)于距離空間,以下說(shuō)法正確的是:A)求兩個(gè)量的差別B)距離表示有多樣C)距離必須大于等于0D)數(shù)軸是距離空間答案:ABCD解析:[多選題]170.TensorFlow框架可用于多個(gè)領(lǐng)域,例如:A)語(yǔ)音識(shí)別B)NLPC)計(jì)算機(jī)視覺(jué)D)自動(dòng)駕駛答案:ABCD解析:[多選題]171.對(duì)數(shù)坐標(biāo)下,在[a,b]區(qū)間隨機(jī)隨機(jī)均勻地給r取值的說(shuō)法正確的是A)取最小值的對(duì)數(shù)得到a的值B)取最小值的對(duì)數(shù)得到b的值C)取最大值的對(duì)數(shù)得到a的值D)取最大值的對(duì)數(shù)得到b的值答案:AD解析:[多選題]172.圖像歸一化就是通過(guò)一系列變換(即利用圖像的不變矩尋找一組參數(shù)使其能夠消除其他變換函數(shù)對(duì)圖像變換的影響),將待處理的原始圖像轉(zhuǎn)換成相應(yīng)的唯一標(biāo)準(zhǔn)形式(該標(biāo)準(zhǔn)形式圖像對(duì)()等仿射變換具有不變特性。A)平移B)噪聲C)旋轉(zhuǎn)D)縮放答案:ACD解析:圖像歸一化就是通過(guò)一系列變換(即利用圖像的不變矩尋找一組參數(shù)使其能夠消除其他變換函數(shù)對(duì)圖像變換的影響),將待處理的原始圖像轉(zhuǎn)換成相應(yīng)的唯一標(biāo)準(zhǔn)形式(該標(biāo)準(zhǔn)形式圖像對(duì)平移、旋轉(zhuǎn)、縮放等仿射變換具有不變特性。[多選題]173.Momentum和RMSprop算法的特點(diǎn)是:A)RMSprop可以取更大學(xué)習(xí)率B)RMSprop是將指數(shù)平均值平方再開(kāi)發(fā)C)RMSprop下降更好消除擺動(dòng)D)RMSprop和Momentum都可以優(yōu)化算法答案:ABCD解析:第3部分:判斷題,共54題,請(qǐng)判斷題目是否正確。[判斷題]174.平均池化取得是池化核的平均值A(chǔ))正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]175.在步長(zhǎng)迭代運(yùn)算中,連續(xù)函數(shù)與間斷函數(shù)比較,好處在于,能夠不間斷運(yùn)算。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]176.nn.CrossEntropyLoss中y_pred未經(jīng)過(guò)nn.Softmax激活。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]177.對(duì)交叉熵的損失函數(shù)求偏導(dǎo)數(shù)的結(jié)果,得到一個(gè)梯度向量。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]178.神經(jīng)網(wǎng)絡(luò)中,隱藏層如果具有足夠數(shù)量的單位,理論上它就可以近似任何連續(xù)函數(shù)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]179.圖像卷積就是卷積核在圖像上按行滑動(dòng)遍歷像素時(shí)不斷的相乘求和的過(guò)程。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]180.激活函數(shù)的作用是實(shí)現(xiàn)模型的非線性化。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]181.無(wú)監(jiān)督學(xué)習(xí)是指利用一組已知類別的樣本調(diào)整分類器的參數(shù),使其達(dá)到所要求性能的過(guò)程,也稱為監(jiān)督訓(xùn)練或有教師學(xué)習(xí)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:監(jiān)督學(xué)習(xí)(SupervisedLearning)是指利用一組已知類別的樣本調(diào)整分類器的參數(shù),使其達(dá)到所要求性能的過(guò)程,也稱為監(jiān)督訓(xùn)練或有教師學(xué)習(xí)。[判斷題]182.深度學(xué)習(xí)在人工智能領(lǐng)域的表現(xiàn)并不突出。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]183.行為主義是研究低等生命,如昆蟲智慧的甲肢。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]184.提升卷積核(convolutionalkernel)的大小會(huì)顯著提升卷積神經(jīng)網(wǎng)絡(luò)的性能。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]185.循環(huán)神經(jīng)網(wǎng)絡(luò)只能進(jìn)行分類處理A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]186.雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(bidirectionalrecurrentneuralnetwork,Bi-RNN)由兩層循環(huán)神經(jīng)網(wǎng)絡(luò)組成,它們的輸入相同,只是信息傳遞的方向不同。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]187.如果模型的訓(xùn)練效果不好,可先考察是否選擇合適的損失函數(shù)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]188.卷積可以縮小圖像尺寸A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]189.距離的大小程度,是一個(gè)標(biāo)量。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]190.在尋優(yōu)的迭代過(guò)程中,損失函數(shù)的運(yùn)算結(jié)果,從趨勢(shì)上是逐步降低的。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]191.pytorch不支持廣播A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]192.人工智能(ArtificialIntelligence,縮寫為AI)亦稱機(jī)器智能,指由人制造出來(lái)的機(jī)器所表現(xiàn)出來(lái)的智能。A)正確B)錯(cuò)誤答案:對(duì)解析:人工智能(ArtificialIntelligence,縮寫為AI)亦稱機(jī)器智能,指由人制造出來(lái)的機(jī)器所表現(xiàn)出來(lái)的智能。[判斷題]193.卷積神經(jīng)網(wǎng)絡(luò)的前幾層檢查提取例如邊緣這樣的簡(jiǎn)單特征A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]194.所謂導(dǎo)數(shù)是個(gè)方向,所謂梯度也是個(gè)方向。維度不同而已。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]195.人類對(duì)智能機(jī)械的研究從1千年前就開(kāi)始了。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]196.T_scope()的含義是在另外一個(gè)命名空間來(lái)定義變量A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]197.在tensorflow中,真實(shí)值和計(jì)算值之間的交叉熵越大越好。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]198.Linux不僅系統(tǒng)性能穩(wěn)定,而且是非開(kāi)源軟件。其核心防火墻組件性能高效、配置簡(jiǎn)單,保證了系統(tǒng)的安全。A)正確B)錯(cuò)誤答案:錯(cuò)解析:Linux不僅系統(tǒng)性能穩(wěn)定,而且是開(kāi)源軟件。其核心防火墻組件性能高效、配置簡(jiǎn)單,保證了系統(tǒng)的安全。[判斷題]199.如果多分類的y_pred經(jīng)過(guò)了nn.LogSoftmax激活,可以使用nn.NLLLoss損失函數(shù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]200.zero_grad用于更新梯度A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]201.在程序中如果涉及區(qū)間條件判斷,一定在全部條件進(jìn)行驗(yàn)證。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]202.訓(xùn)練集準(zhǔn)確率高,測(cè)試集準(zhǔn)確率低是欠擬合A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]203.有些領(lǐng)域,采用傳統(tǒng)的簡(jiǎn)單的機(jī)器學(xué)習(xí)方法,可以很好地解決了,沒(méi)必要非得用復(fù)雜的深度學(xué)習(xí)方法。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]204.風(fēng)格遷移的內(nèi)容可以被卷積神經(jīng)網(wǎng)絡(luò)更靠頂部的層激活所捕捉到。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]205.如果增加神經(jīng)網(wǎng)絡(luò)的寬度,精確度會(huì)增加到一個(gè)閾值,然后開(kāi)始降低。造成這一現(xiàn)象的原因可能是只有一部分核被用于預(yù)測(cè)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]206.局部連接使網(wǎng)絡(luò)可以提取數(shù)據(jù)的局部特征。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]207.keras模型必須通過(guò)Sequential進(jìn)行創(chuàng)建A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]208.學(xué)習(xí)率(Learningrate)作為監(jiān)督學(xué)習(xí)以及深度學(xué)習(xí)中重要的超參,其決定著目標(biāo)函數(shù)能否收斂到局部最小值以及何時(shí)收斂到最小值。合適的學(xué)習(xí)率能夠使目標(biāo)函數(shù)在合適的時(shí)間內(nèi)收斂到局部最小值。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]209.Frobenius范數(shù)不是一種矩陣范數(shù)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]210.在神經(jīng)網(wǎng)絡(luò)框架中,常使用如下函數(shù)tf.truncated_normal(shape,mean,stddev)這個(gè)函數(shù)產(chǎn)生正態(tài)分布,均值和標(biāo)準(zhǔn)差自己設(shè)定A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]211.小的卷積核可以計(jì)算計(jì)算量A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]212.pytroch中,需要手動(dòng)調(diào)用繼承模型類的forward方法A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]213.全局最優(yōu)解的函數(shù)損失值最小A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]214.鏡像是一種云服務(wù)器軟件配置(操作系統(tǒng)、預(yù)安裝程序等)的模板。A)正確B)錯(cuò)誤答案:對(duì)解析:鏡像是一種云服務(wù)器軟件配置(操作系統(tǒng)、預(yù)安裝程序等)的模板。[判斷題]215.彩色圖像是由多幅單色圖像組合而成的,例如,在RGB彩色系統(tǒng)中,一幅彩色圖像由紅(R),綠(G),藍(lán)(B)分量圖像組成A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]216.使用keras可以實(shí)現(xiàn)神經(jīng)風(fēng)格遷移A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]217.隨機(jī)梯度下降在神經(jīng)網(wǎng)絡(luò)中引入了非線性。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]218.通常將TripletLoss翻譯為三元組損失,其中的三元也就是Anchor、Negative負(fù)樣例、Positive正樣例A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]219.對(duì)于概率空間一個(gè)任意劃分,其結(jié)果依然是概率空間。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]220.激活函數(shù)也就是大于某個(gè)值輸出1(被激活了),小于等于則輸出0(沒(méi)有激活)。這個(gè)函數(shù)是非線性函數(shù)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]221.全局變量初始化語(yǔ)句后,變量和常量都被初始化。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]222.風(fēng)格遷移是指創(chuàng)建一張新圖像,保留目標(biāo)圖像的內(nèi)容的同是還抓住了參考圖像的風(fēng)格A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]223.激活函數(shù)給神經(jīng)元引入了非線性因素,使得神經(jīng)網(wǎng)絡(luò)可以任意逼近任何非線性函數(shù),這樣神經(jīng)網(wǎng)絡(luò)就可以應(yīng)用到眾多的非線性模型中A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]224.在卷積神經(jīng)網(wǎng)絡(luò)中實(shí)施填充是一件十分重要的事情,如果沒(méi)有填充,邊緣區(qū)域的像素值基本不會(huì)受到卷積層的影響A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]225.激活函數(shù)可以使神經(jīng)網(wǎng)絡(luò)具有非線性變換的能力。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]226.Tf.cast()函數(shù)的作用是執(zhí)行tensorflow中張量數(shù)據(jù)類型轉(zhuǎn)換,比如讀入的圖片如果是int8類型的,一般在要在訓(xùn)練前把圖像的數(shù)據(jù)格式轉(zhuǎn)換為float32A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]227.如果增加多層感知機(jī)(MultilayerPerceptron)的隱藏層層數(shù),分類誤差便會(huì)減小。A)正確B)錯(cuò)誤答案:錯(cuò)解析:第4部分:?jiǎn)柎痤},共33題,請(qǐng)?jiān)诳瞻滋幪顚懻_答案。[問(wèn)答題]228.有模型構(gòu)建如下所示:model=Sequential([Dense(units=100,input_dim=784,bias_initializer='zeros',activation='tanh'),#雙曲正切激活函數(shù)Dropout(0.4),#百分之40的神經(jīng)元不工作Dense(units=200,bias_initializer='zeros',activation='tanh'),#雙曲正切激活函數(shù)Dropout(0.4),#百分之40的神經(jīng)元不工作Dense(units=10,bias_initializer='zeros',activation='softmax')])該模型需要計(jì)算的參數(shù)數(shù)量是多少?答案:100710解析:[問(wèn)答題]229.np.array中查看類型的屬性為_(kāi)______答案:dtype解析:[問(wèn)答題]230.批量梯度下降法首先遍歷______數(shù)集,然后計(jì)算損失函數(shù)。答案:全部;解析:[問(wèn)答題]231.計(jì)算圖的數(shù)據(jù)結(jié)構(gòu)是有_______和_______表示答案:節(jié)點(diǎn)|邊解析:[問(wèn)答題]232.處理多分類問(wèn)題,常使用_______激活函數(shù)答案:softmax解析:[問(wèn)答題]233.importtensorflowastfC=tf.constant([[1.0,2.0,3.0],[4.0,5.0,6.0]])Print(c.get_shape())該程序輸出結(jié)果為_(kāi)_____。答案:(2,3);解析:[問(wèn)答題]234.簡(jiǎn)述小批量梯度下降法的操作方法與優(yōu)缺點(diǎn)。答案:數(shù)據(jù)分為若干個(gè)批,按批來(lái)更新參數(shù),這樣一批中的一組數(shù)據(jù)共同決定了本次梯度的方向,下降起來(lái)就不容易跑偏,減少了隨機(jī)性。解析:[問(wèn)答題]235.定義一個(gè)初始值為[1,2,3]的整型變量的代碼為_(kāi)______。答案:Tf.Variable([1,2,3],dtype=32);解析:[問(wèn)答題]236.分析為什么加深層可以使學(xué)習(xí)更加高效?答案:①減少網(wǎng)絡(luò)參數(shù)的數(shù)量

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論