




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
試卷科目:人工智能深度學(xué)習(xí)技術(shù)練習(xí)人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷7)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學(xué)習(xí)技術(shù)練習(xí)第1部分:單項(xiàng)選擇題,共132題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.Anacoda的中文翻譯是()。A)蟒蛇B)爬蟲C)算法D)矩陣答案:A解析:難易程度:易題型:[單選題]2.relu()的結(jié)果是多少A)0B)0.5563543C)10D)1答案:C解析:[單選題]3.關(guān)于TensorFlow的描述,以下選項(xiàng)中錯誤的是()。A)TensorFlow是Python語育的一套優(yōu)秀的CU圖形庫B)TensorFlow是谷歌公司基于DistBelief進(jìn)行研發(fā)的第二代人工智能學(xué)習(xí)系統(tǒng)C)Tensor(張遜)指N維數(shù)組,Flow(流)指燕于數(shù)據(jù)流圖的計(jì)算D)TensorFlow描述張量從流圖的一端流動到另三端的計(jì)算過程答案:A解析:難易程度:易題型:[單選題]4.連續(xù)詞袋模型的英文縮寫是A)CBOWB)CBOMC)CCOWD)BBOW答案:A解析:[單選題]5.獨(dú)熱編碼描述錯誤的是A)可以對特征使用B)可以對標(biāo)簽使用C)二分類必須做獨(dú)熱D)獨(dú)熱長度和類別數(shù)量一致答案:C解析:[單選題]6.如果我們使用了一個過大的學(xué)習(xí)速率會發(fā)生什么()。A)神經(jīng)網(wǎng)絡(luò)快速收斂B)不好說C)都不對D)神經(jīng)網(wǎng)絡(luò)不會收斂答案:B解析:難易程度:易題型:[單選題]7.在面向?qū)ο蠓椒ㄖ?一個對象請求另一對象為其服務(wù)的方式是通過哪個選項(xiàng)發(fā)送()。A)調(diào)用語句B)命令C)口令D)消息答案:D解析:難易程度:易題型:[單選題]8.損失函數(shù)使用哪個值衡量()。A)最大值B)平均值C)中間值D)均方誤差答案:D解析:難易程度:易題型:[單選題]9.()是定義在單個樣本上的,是指一個樣本的誤差A(yù))損失函數(shù)(LossFunction)B)代價函數(shù)(CostFunction)C)目標(biāo)函數(shù)(ObjectFunction)D)范數(shù)答案:A解析:[單選題]10.RNN中使用的激活函數(shù)是A)reluB)sigmoidC)tanhD)softmax答案:C解析:[單選題]11.二分類sigmoid函數(shù)描述錯誤的是A)輸出的是正類別結(jié)果B)可以做多分類C)可以做激活函數(shù)D)數(shù)值范圍+1到-1答案:D解析:[單選題]12.Tf.nn.conv2d(),其中遇到的圖像張量,格式是A)[batch,in_height,in_width,in_channels]B)[Size,in_height,in_width,in_channels]C)[batch,in_width,in_height,in_channels]D)[batch,in_channels,in_height,in_width]答案:A解析:[單選題]13.關(guān)于mini-batch說法錯誤的是A)指的是批量梯度下降B)適用于樣本量小的數(shù)據(jù)集C)每一次只運(yùn)算部分?jǐn)?shù)據(jù),最后將全部數(shù)據(jù)進(jìn)行運(yùn)算D)適用于樣本量大的數(shù)據(jù)答案:B解析:[單選題]14.使用函數(shù)tf.nn.conv2d()主要的目的是()A)增強(qiáng)圖像B)簡化圖像C)特征提取D)圖像處理答案:C解析:[單選題]15.批規(guī)范化(BatchNormalization)的好處都有啥?AA)讓每一層的輸入的范圍都大致固定B)它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差C)它是一種非常有效的反向傳播(BP)方法D)均不是答案:A解析:[單選題]16.已知-大腦是有很多個叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對大腦的簡單的數(shù)學(xué)表達(dá)。-每一個神經(jīng)元都有輸入、處理函數(shù)和輸出。-神經(jīng)元組合起來形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。-為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?A)加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B)有維度更高的數(shù)據(jù)C)當(dāng)這是一個圖形識別的問題時D)以上都不正確答案:A解析:難易程度:易題型:[單選題]17.對于神經(jīng)網(wǎng)絡(luò)中超參數(shù)調(diào)試方法正確的是A)隨機(jī)選擇點(diǎn)來試驗(yàn)超參數(shù)效果B)當(dāng)你給超參數(shù)取值時,另一個慣例是采用由精細(xì)到粗糙的策略。C)只調(diào)試容易的D)給定默認(rèn)值即可答案:A解析:[單選題]18.百度飛槳中訓(xùn)練過程流程的內(nèi)層循環(huán)順序是()。A)數(shù)據(jù)準(zhǔn)備》前向計(jì)算》計(jì)算損失函數(shù)》執(zhí)行梯度反向傳播B)前向計(jì)算》數(shù)據(jù)準(zhǔn)備》計(jì)算損失函數(shù)》執(zhí)行梯度反向傳播C)數(shù)據(jù)準(zhǔn)備》前向計(jì)算》執(zhí)行梯度反向傳播》計(jì)算損失函數(shù)D)前向計(jì)算》計(jì)算損失函數(shù)》數(shù)據(jù)準(zhǔn)備》執(zhí)行梯度反向傳播答案:A解析:難易程度:易題型:[單選題]19.以下最能體現(xiàn)ufunc特點(diǎn)的是()。A)其又稱通用函數(shù)(UniversalB)對ndarray中的每一個元素進(jìn)行逐一操作C)對整個ndarray進(jìn)行操作D)ndarray中的元素是相同類型的答案:C解析:難易程度:中題型:[單選題]20.損失函數(shù)的作用是()A)判斷預(yù)測值的真實(shí)性B)計(jì)算預(yù)測值與真實(shí)值的差距C)優(yōu)化預(yù)測值D)以上都不對答案:B解析:[單選題]21.在深度學(xué)習(xí)網(wǎng)絡(luò)中,以下哪種技術(shù)不是主要用來做網(wǎng)絡(luò)正則化的?A)dropoutB)參數(shù)共享C)EarlystoppingD)Pooling答案:B解析:[單選題]22.輸入大小為64X64的黑白圖像,卷積核5X5,步長為1,填充方式為?VALID?,卷積后圖像尺寸為A)59B)60C)58D)61答案:B解析:[單選題]23.下圖中的數(shù)據(jù)是線性可分的么?A)是B)否C)圖片有誤D)可能可以答案:A解析:[單選題]24.下列不屬于MLPClassifier對象方法的是()。A)predictB)scoreC)fitD)predict_proba答案:D解析:難易程度:中題型:[單選題]25.距離空間有多種多樣,他們的目的是A)度量后比較B)求相關(guān)性C)求信息熵D)構(gòu)成線性空間答案:A解析:[單選題]26.對于圖像識別問題(比如識別照片中的貓),神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)更適合解決哪類問題?A)多層感知器B)卷積神經(jīng)網(wǎng)絡(luò)C)循環(huán)神經(jīng)網(wǎng)絡(luò)D)感知器答案:B解析:[單選題]27.所有rnn中的門使用()激活函數(shù)處理A)RELUB)sigmoidC)softmaxD)tanh答案:B解析:[單選題]28.如果輸入一張3通道的圖像,下面表述方式正確的是:A)model.add(Dense(40,input_dim=[1,3,20,20]))B)model.add(Dense(40,input_dim=[1,20,20,3]))C)model.add(Dense(40,input_dim=[3,1,20,20]))D)model.add(Dense(40,input_dim=[3,1,20,20]))答案:B解析:[單選題]29.以下文件操作方法中,不能從train.csv格式文件中讀取數(shù)據(jù)的是()。A)readlineB)readlinesC)readD)seek答案:D解析:難易程度:易題型:[單選題]30.Conv2d(x_image,W_conv1)+b_conv)中b_conv1是A)對圖像池化B)偏置項(xiàng)C)激活函數(shù)D)平均答案:B解析:[單選題]31.()是一種深度學(xué)習(xí)中減少泛化誤差的正則化方法,主要是通過緩解梯度下降加速網(wǎng)絡(luò)的訓(xùn)練,防止過擬合,降低了參數(shù)初始化的要求。A)L1正則化B)BatchNormalizationC)L2正則化D)DROPOUT答案:B解析:BatchNormalization是一種深度學(xué)習(xí)中減少泛化誤差的正則化方法,主要是通過緩解梯度下降加速網(wǎng)絡(luò)的訓(xùn)練,防止過擬合,降低了參數(shù)初始化的要求[單選題]32.下列函數(shù)能實(shí)現(xiàn)對比兩個矩陣是否相等,或者向量是否相等的元素的函數(shù)是哪一個?A)c=tf.greater(a,b)B)a=tf.subtract(a,b)C)b=tf.equal(a,b)D)d=tf.matmul(a,b)答案:C解析:[單選題]33.以下關(guān)于深度神經(jīng)網(wǎng)絡(luò)的說法中錯誤的是A)使用梯度裁剪(gradientclipping)有助于減緩梯度爆炸問題B)若batchsize過小,batchnormalization的效果會出現(xiàn)退化C)在使用SGD訓(xùn)練時,若訓(xùn)練loss的變化逐漸平緩不再明顯下降時,通??梢酝ㄟ^減小learningrate的方式使其再進(jìn)一步下降D)增大L2正則項(xiàng)的系數(shù)有助于減緩梯度消失問題答案:D解析:[單選題]34.當(dāng)我們將input_shape指定為(300,300,3)時,這意味著什么?A)將有300匹馬和300名人類,分3批B)將有300張圖片,每個尺寸300,分3批C)每個圖像將為300x300像素,有3個通道D)每個圖像將為300x300像素,并且應(yīng)該有3個卷積層答案:C解析:[單選題]35.pytorch中可視化參數(shù)分布:A)writer.add_graphB)writer.add_scalarC)writer.add_histogramD)writer.add_figure答案:C解析:[單選題]36.merge函數(shù)用于主鍵合并,下列說法錯誤的是()。A)on參數(shù)用于指定主鍵B)sort參數(shù)為True時將對合并的數(shù)據(jù)進(jìn)行排序C)suffixes參數(shù)用于對重疊列加尾綴D)join參數(shù)表示表連接的方式答案:D解析:難易程度:中題型:[單選題]37.()翻譯為?VanishingGradientProblem?,這種問題通常是基于梯度的方法訓(xùn)練神經(jīng)網(wǎng)絡(luò)的過程中才會出現(xiàn)的。A)梯度消失問題B)卷積C)池化D)全連接答案:A解析:[單選題]38.以下選項(xiàng)中那個是TensorFlow的計(jì)算模型A)計(jì)算圖B)張量C)會話D)變量答案:A解析:[單選題]39.哪個網(wǎng)絡(luò)模型首次使用relu激活函數(shù)A)LeNetB)AlexNetC)ResNetD)Inception答案:B解析:alexnet首次使用relu函數(shù)[單選題]40.Tf.convert_to_tensor用于將不同()變成張量:比如可以讓數(shù)組變成張量、也可以讓列表變成張量。A)數(shù)據(jù)B)變量C)高度D)范數(shù)答案:A解析:[單選題]41.可以幫助將數(shù)據(jù)大小縮小的方式是A)卷積層B)池化層C)全連接層D)激活層答案:B解析:[單選題]42.最大池化max_pool有幾個參數(shù),如value,ksize參數(shù),strides參數(shù),padding參數(shù),name=None參數(shù),用于池化窗口的參量是那一個?A)valueB)ksizeC)stridesD)padding答案:B解析:[單選題]43.Tf.nn.dropout是TensorFlow里面為了防止或減輕過擬合而使用的函數(shù),它一般用在()A)卷積層B)全連接層C)池化層D)激活函數(shù)層答案:B解析:[單選題]44.神經(jīng)網(wǎng)絡(luò)中參數(shù)的調(diào)試不包括A)學(xué)習(xí)率αB)動量梯度下降的參數(shù)βC)mini-Batch的大小D)輸入圖片大小答案:D解析:[單選題]45.在數(shù)學(xué)模型開發(fā)過程中,經(jīng)常會使用例如數(shù)學(xué)符號、數(shù)學(xué)式子以及()來抽象和描述該模型A)范數(shù)B)程序或圖形C)卷積D)池化答案:B解析:[單選題]46.resnet和Inception使用()代替全連接處理A)平均池化B)最大池化C)1*1卷積D)3*3卷積答案:A解析:[單選題]47.深度學(xué)習(xí)典型應(yīng)用:自然語言處理主要指應(yīng)用了()神經(jīng)網(wǎng)絡(luò)A)ANNB)CNNC)RNND)XNN答案:C解析:[單選題]48.考慮某個具體問題時,你可能只有少量數(shù)據(jù)來解決這個問題。不過幸運(yùn)的是你有一個類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)。可以用下面哪種方法來利用這個預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?A)把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層B)對新數(shù)據(jù)重新訓(xùn)練整個模型C)對每-層模型進(jìn)行評估,選擇其中的少數(shù)來用D)只對最后幾層進(jìn)行調(diào)參(finetune)答案:D解析:[單選題]49.我們會發(fā)現(xiàn)累乘會導(dǎo)致激活函數(shù)導(dǎo)數(shù)的累乘,進(jìn)而會導(dǎo)致?()?和?梯度爆炸?現(xiàn)象的發(fā)生A)梯度消失B)梯度上升C)梯度下降D)梯度反向答案:A解析:[單選題]50.Tensorflow.global_variables_initializer()的作用是什么?A)始化列表中的變量B)局部變量初始化C)初始化所有的變量(GraphKeys.VARIABLES)D)不清楚答案:C解析:[單選題]51.縮小圖像尺寸后,訓(xùn)練結(jié)果有所不同。為什么?A)圖片的信息變少了B)我們刪除了一些卷積以處理較小的圖像C)圖像中壓縮了更多信息D)訓(xùn)練更快答案:A解析:[單選題]52.同一組云資源需要被多個不同賬戶控制時,用戶可以使用()管理對云資源的訪問權(quán)限。A)策略控制B)安全組C)安全管理D)賬戶管理答案:A解析:同一組云資源需要被多個不同賬戶控制時,用戶可以使用策略控制管理對云資源的訪問權(quán)限。[單選題]53.執(zhí)行后查看Python版本的是()。A)importB)importC)importD)import答案:D解析:print(sys.version)print(system.version)print(sys.Version)print(sys.version)難易程度:易題型:[單選題]54.你認(rèn)為下面那個命令是驗(yàn)證paddle安裝成功的()。A)pythonB)importC)pythonD)python答案:B解析:難易程度:易題型:[單選題]55.compile函數(shù)中沒有以下哪一個參數(shù)A)迭代次數(shù)B)優(yōu)化算法C)評估指標(biāo)D)損失值答案:A解析:[單選題]56.通常說的范數(shù)它是具有()的概念的函數(shù)A)長度B)刻度C)距離D)范數(shù)答案:A解析:[單選題]57.關(guān)于Python語言和人工智能,以下哪個說法不正確?()。A)人工智能算法在計(jì)算機(jī)底層的并行和加速都采用Python語言實(shí)現(xiàn)B)人工智能(機(jī)器學(xué)習(xí)和深度學(xué)習(xí))框架基本都采用Python語言開發(fā)C)掌握"人工智能應(yīng)用"能力,必須學(xué)習(xí)并掌握Python語言D)Python是支撐"人工智能應(yīng)用"的主流語言答案:A解析:難易程度:易題型:[單選題]58.當(dāng)練一個神經(jīng)網(wǎng)絡(luò)來作圖像識別任務(wù)時,通常會繪制一張訓(xùn)練集誤差和交叉訓(xùn)練集誤差圖來進(jìn)行調(diào)試。在上圖中,最好在哪個時間停止訓(xùn)練?CA)DB)AC)CD)B答案:C解析:[單選題]59.RNN的關(guān)鍵點(diǎn)之一就是他們可以用來連接()的信息到當(dāng)前的任務(wù)上A)先前B)之后C)丟失D)LSTM答案:A解析:[單選題]60.人工智能是()的一個分支,它企圖了解智能的實(shí)質(zhì),并生產(chǎn)出一種新的能以人類智能相似的方式做出反應(yīng)的智能機(jī)器A)生物醫(yī)學(xué)B)計(jì)算機(jī)科學(xué)C)數(shù)學(xué)D)文學(xué)答案:B解析:人工智能是計(jì)算機(jī)科學(xué)的一個分支,它企圖了解智能的實(shí)質(zhì),并生產(chǎn)出一種新的能以人類智能相似的方式做出反應(yīng)的智能機(jī)器[單選題]61.神經(jīng)網(wǎng)絡(luò)LenNet-5共有7層(不包括輸入層),主要有2個()、2個下抽樣層(池化層)、3個全連接層3種連接方式A)輸入層B)卷積層C)池化層D)FC層答案:B解析:[單選題]62.那個命令等價于等價于在命令行中執(zhí)行tensorboard--logdir./data/tensorboardA)notebook.start("--logdir./data/tensorboard")B)notebook.list()C)load_exttensorboardD)都不是答案:A解析:[單選題]63.卷積中控制步長的參數(shù)是A)strideB)kerner_sizeC)in_channelsD)out_channels答案:A解析:[單選題]64.在輸出層不能使用以下哪種激活函數(shù)來分類圖像?CA)sigmoidB)TanhC)ReLUD)If(x>5,1,0)答案:C解析:[單選題]65.學(xué)習(xí)速率的設(shè)置()。A)越大越好B)越小越好C)隨機(jī)設(shè)置D)看情況調(diào)整答案:D解析:難易程度:易題型:[單選題]66.閱讀以下文字:假設(shè)我們擁有一個已完成訓(xùn)練的、用來解決車輛檢測問題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測出每種車輛的名稱(車輛共有10種類型)。現(xiàn)在想要使用這個模型來解決另外一個問題,問題數(shù)據(jù)集中僅包含一種車(福特野馬)而且標(biāo)變?yōu)槎ㄎ卉囕v在照片中的位置。BA)絡(luò)一,結(jié)所有然后重新訓(xùn)練B)網(wǎng)絡(luò)中最層進(jìn)行調(diào),同時將最后一層(分類層)更改為回歸層C)使用新的數(shù)據(jù)集重新訓(xùn)練模型D)所有答案均不對答案:B解析:[單選題]67.pytorch導(dǎo)入numpy數(shù)據(jù)的方式A)from_numpyB)into_numpyC)numpyD)data.numpy答案:A解析:[單選題]68.想象一下,你有一個28x28的圖片,并使用輸入深度為3和輸出深度為8在上面運(yùn)行一個3x3的卷積神經(jīng)網(wǎng)絡(luò)。注意,步幅padding是1,你正在使用相同的填充(padding)。當(dāng)使用給定的參數(shù)時,輸出特征圖的尺寸是多少?A)28寬、28高、8深B)13寬、13高、8深C)28寬、13高、8深D)13寬、28高、8深答案:A解析:[單選題]69.sparse_categorical_crossentropy屬性的使用場景是:A)回歸類型問題B)邏輯回歸處理C)多分類,標(biāo)簽沒有經(jīng)過獨(dú)熱處理D)多分類,標(biāo)簽經(jīng)過獨(dú)熱處理答案:C解析:[單選題]70.關(guān)于通道理解錯誤的是A)單通道為灰度圖B)卷積后的通道越多,效果越好C)彩色圖進(jìn)行卷積處理只能是三通道D)彩色圖是三通道答案:C解析:[單選題]71.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會得到輸出「-0.0001」。X可能是以下哪一個激活函數(shù)?A)ReLUB)tanhC)SIGMOIDD)以上都不是答案:D解析:[單選題]72.pytorch四舍五入的函數(shù)是A)roundB)floorC)ceilD)trunc答案:A解析:[單選題]73.數(shù)據(jù)管道從文件夾獲取數(shù)據(jù)的方式是:A)from_tensor_slicesB)flow_from_directoryC)make_csv_datasetD)list_files答案:D解析:[單選題]74.Tf在圖像處理的4維度張量,按照次序,它的意義是:A)batch、height、weight、channelB)height、weight、channel,batchC)batch、height、width、channelD)channel、height、weight、batch答案:C解析:[單選題]75.下列有關(guān)循環(huán)神經(jīng)網(wǎng)絡(luò)中的Embedding層的描述,錯誤的是()A)Fmbedding層通常用在神經(jīng)網(wǎng)絡(luò)的第一層。B)Embedding層將正整數(shù)(索引)轉(zhuǎn)換為固定大小的向量。C)mbedding層后得到的密集向量的每個元素只能是0或!。D)若Embedding層的輸入的大小為(batchsizeinputlength),則輸出的大小為(batchsize,inputlength,outputdim),outputdim是密集向量的維數(shù)。答案:C解析:[單選題]76.假設(shè)在訓(xùn)練中我們突然遇到了一個問題,在幾次循環(huán)之后,誤差瞬間降低你認(rèn)為數(shù)據(jù)有問題,于是你畫出了數(shù)據(jù)并且發(fā)現(xiàn)也許是數(shù)據(jù)的偏度過大造成了這個問題。你打算怎么做來處理這個問題?A)對數(shù)據(jù)做歸一化B)對數(shù)據(jù)取對數(shù)變化C)都不對D)對數(shù)據(jù)做主成分分析(PCA)和歸一化答案:D解析:[單選題]77.對一個概率空間,進(jìn)行多種劃分,其信息熵是A)一定相等B)一定不等C)不確定無關(guān)聯(lián)D)互有關(guān)聯(lián)答案:C解析:[單選題]78.語句euclideanmetric的意思是?A)歐幾里得B)歐幾里得度量C)歐幾里得范數(shù)D)歐幾里得空間答案:B解析:[單選題]79.梯度消失的現(xiàn)象是A)導(dǎo)數(shù)為0B)參數(shù)不再更新C)達(dá)到最優(yōu)梯度D)到達(dá)最優(yōu)解答案:B解析:[單選題]80.Dropout包括在訓(xùn)練中每次更新時,將輸入單元的按比率隨機(jī)設(shè)置為0,這有助于防止()。A)噪聲B)欠擬合C)過擬合D)漂移答案:C解析:Dropout包括在訓(xùn)練中每次更新時,將輸入單元的按比率隨機(jī)設(shè)置為0,這有助于防止過擬合。[單選題]81.什么是卷積?A)縮小圖像的技術(shù)B)放大圖像的技術(shù)C)提取圖像特征的技術(shù)D)過濾掉不需要的圖像的技術(shù)答案:C解析:[單選題]82.Tf.slice函數(shù)作用是:從tf的一個張量中,A)取出部分張量數(shù)據(jù)B)取出矩陣C)取出數(shù)D)取出向量答案:A解析:[單選題]83.占位符實(shí)質(zhì)上也是一種A)常量B)變量C)函數(shù)D)模型答案:B解析:[單選題]84.pytorch代碼中:model=nn.Linear(1,1,bias=True),第一個參數(shù)代表的是A)神經(jīng)元數(shù)量B)輸入的特征數(shù)量C)層數(shù)D)以上都不對答案:B解析:[單選題]85.交叉熵作為()可以衡量p與q的相似性。A)損失函數(shù)B)激活函數(shù)C)sigmoid函數(shù)D)RELU函數(shù)答案:A解析:[單選題]86.下列關(guān)于Tensorflow說法錯誤的是A)是一款神經(jīng)網(wǎng)絡(luò)的Python外部結(jié)構(gòu)包B)可以繪制計(jì)算結(jié)構(gòu)圖C)由Facebook進(jìn)行開發(fā)D)可以把編輯好的文件轉(zhuǎn)換成更高效的C++,并在后端運(yùn)行答案:B解析:[單選題]87.在Keras中有兩類主要的模型:Sequential順序模型和使用函數(shù)式API的Model類模型。這些模型有許多共同的方法和屬性,其中?以JSON字符串的形式返回模型的表示?的方法是:A)model.to_json()B)model.to_yaml()C)model.get_weights()D)model.get_config()答案:A解析:[單選題]88.使用CNN處理數(shù)據(jù)時,數(shù)據(jù)以()維的方式存在A)1B)2C)3D)4答案:D解析:卷積中數(shù)據(jù)維度為[樣本個數(shù),高度,寬度,通道數(shù)][單選題]89.模型順序簡單,最使用使用()方式創(chuàng)建模型A)SequentialB)函數(shù)式API創(chuàng)建任意結(jié)構(gòu)模型C)Model子類化創(chuàng)建自定義模型D)自定義函數(shù)答案:A解析:[單選題]90.屬于百度飛槳的開發(fā)套件()。A)PaddleClasB)PaddleC)PaddleSlimD)Paddle.js答案:A解析:難易程度:易題型:[單選題]91.()方法是2D卷積層(例如對圖像的空間卷積)。A)con2DB)image2DC)filter2DD)conv2D答案:D解析:[單選題]92.如果我將dropout參數(shù)設(shè)置為0.2,我將丟失多少個節(jié)點(diǎn)?A)其中20%B)其中2%C)未經(jīng)訓(xùn)練的20%D)未經(jīng)訓(xùn)練的2%答案:A解析:[單選題]93.能消除過擬合的方法是A)線性化B)非線性化C)歸一化D)正則化答案:D解析:[單選題]94.Tf.cast(x,tf.float32)將x類型轉(zhuǎn)化成A)返回整數(shù)值B)返回布爾值C)返回浮點(diǎn)值D)返回字符答案:C解析:[單選題]95.于Python的全局變量和局部變量,以下選項(xiàng)中描述錯誤的是()。A)局部變量指在函數(shù)內(nèi)部使用的變量,當(dāng)函數(shù)退出時,變量依然存在,下次函數(shù)調(diào)用可以繼續(xù)使用B)全局變量指在函數(shù)之外定義的變量,-般沒有縮進(jìn),在程序執(zhí)行全過程有效C)使用global保留字聲明簡單數(shù)據(jù)類型變量后,該變量作為全局變量使用D)簡單數(shù)據(jù)類型變量無論是否與全局變量重名,僅在函數(shù)內(nèi)部創(chuàng)建和使用,函數(shù)退出后變量被釋放答案:A解析:難易程度:易題型:[單選題]96.科學(xué)計(jì)算包PyTorch是由()公司主持開發(fā)的。A)百度B)FacebookC)AmazonD)Google答案:B解析:[單選題]97.數(shù)據(jù)處理的最小單位是()。A)數(shù)據(jù)B)數(shù)據(jù)結(jié)構(gòu)C)數(shù)據(jù)元素D)數(shù)據(jù)項(xiàng)答案:D解析:難易程度:易題型:[單選題]98.Tensorflow.nn.conv2d(batch,in_height,in_width,in_channels),其中參數(shù)in_channels表示的是A)卷積核B)圖像數(shù)C)步長D)通道數(shù)答案:D解析:[單選題]99.非常經(jīng)典的LeNet-5神經(jīng)網(wǎng)絡(luò)其FC層處理完成以后,輸出的結(jié)果會再經(jīng)過那一個激活函數(shù)輸出()?A)RelUB)sigmoidC)tanhD)sin答案:B解析:[單選題]100.彩色圖片的通道數(shù)為()A)1B)2C)3D)4答案:C解析:[單選題]101.數(shù)學(xué)建模工作,首先要對目標(biāo)事物進(jìn)行(),然后再進(jìn)行下一步工作。A)度量化B)抽象化C)具體化D)理想化答案:A解析:[單選題]102.GRU獨(dú)有的是A)遺忘門B)輸入門C)輸出門D)更新門答案:D解析:[單選題]103.深度神經(jīng)網(wǎng)絡(luò)的縮寫是?A)CNNB)RNNC)SNND)DNN答案:D解析:[單選題]104.關(guān)于擬合說法正確的是A)過擬合只發(fā)生在理論階段,實(shí)際不會發(fā)生這種情況B)欠擬合是數(shù)據(jù)量過多,造成無法全部計(jì)算的現(xiàn)象C)訓(xùn)練準(zhǔn)確率高,測試準(zhǔn)確率低的情況,數(shù)據(jù)過擬合D)過擬合是指數(shù)據(jù)量大,計(jì)算復(fù)雜的情況答案:C解析:[單選題]105.下圖顯示了訓(xùn)練過的3層卷積神經(jīng)網(wǎng)絡(luò)準(zhǔn)確度,與參數(shù)數(shù)量(特征核的數(shù)量)的關(guān)系。從圖中趨勢可見,如果增加神經(jīng)網(wǎng)絡(luò)的寬度,精確度會增加到一個特定閾值后,便開始降低。造成這一現(xiàn)象的可能原因是什么?CA)即使增加卷積核的數(shù)量,只有少部分的核會被用作預(yù)測B)增時,神經(jīng)網(wǎng)絡(luò)預(yù)測能力(Power)會降低C)當(dāng)卷積核數(shù)量增加時,導(dǎo)致過擬合D)以上都不正確答案:C解析:[單選題]106.將E-R圖轉(zhuǎn)換為關(guān)系模式時,可以表示實(shí)體與聯(lián)系的是()。A)屬性B)域C)關(guān)系D)鍵答案:C解析:難易程度:易題型:[單選題]107.四維張量一般用來表示A)灰度圖B)彩色圖C)視頻D)時間答案:C解析:批量圖片,視頻都可以是四維的[單選題]108.現(xiàn)實(shí)世界中,信息傳播的速度,是以()數(shù)量級進(jìn)行A)線性B)冪函數(shù)C)指數(shù)D)常數(shù)答案:C解析:[單選題]109.在不使用輔助庫的情況下,Matplotlib不能繪制的圖形是()。A)箱線圖B)折線圖C)3D圖D)條形圖答案:C解析:難易程度:中題型:[單選題]110.早期的機(jī)器學(xué)習(xí)算法中,如果有兩個超參數(shù),通常通過什么方式來選擇參數(shù)A)網(wǎng)格中取樣點(diǎn),然后系統(tǒng)的研究這些數(shù)值B)比較參數(shù)的大小C)對參數(shù)進(jìn)行迭代選擇D)對參數(shù)進(jìn)行平均答案:A解析:[單選題]111.損失函數(shù)求導(dǎo)的方法是()。A)微分B)積分C)差分D)微積分答案:A解析:難易程度:易題型:[單選題]112.為了屏蔽一些不必要的警告和錯誤,常使用編程語句例如os.environ['TF_CPP_MIN_LOG_LEVEL']='2'主要作用是屏蔽什么?A)警告B)錯誤C)警告和錯誤D)反匯編過程答案:C解析:[單選題]113.隨機(jī)旋轉(zhuǎn)的函數(shù)是A)RandomHorizontalFlip()B)RandomVerticalFlip()C)RandomRotationD)RandomCrop答案:C解析:[單選題]114.被稱為LSTM低配的神經(jīng)單元是A)rnnB)cnnC)gruD)SimpleRNN答案:C解析:[單選題]115.LSTM中,哪個門的作用是?確定輸出,把前面的信息保存到隱層中去??A)輸入門B)遺忘門C)輸出門D)更新門答案:C解析:[單選題]116.tensorboard的默認(rèn)端口號是A)8000B)8080C)6006D)6000答案:C解析:[單選題]117.在貝努力實(shí)驗(yàn)是()的理論基礎(chǔ)A)交叉熵?fù)p失函數(shù)B)最小二乘損失函數(shù)C)與二項(xiàng)式分布有關(guān)D)與信息量有關(guān)答案:A解析:[單選題]118.面部識別軟件還有其他幾個用途:()、取款身份驗(yàn)證、計(jì)算機(jī)安全等A)消除投票欺詐B)身份證認(rèn)證C)互聯(lián)網(wǎng)D)銀行答案:A解析:[單選題]119.在jupyternotebook中使用()以交互模式打開獨(dú)立的GUI窗口,對同一個figure的繪制都自動刷新到對應(yīng)的GUI窗口A)%matplotlibinlineB)matplotlibinlineC)%mptinlineD)%inline答案:A解析:[單選題]120.如果從python一側(cè),想得到tf的節(jié)點(diǎn)S對應(yīng)的值,需要下列:A)A=tf.run(S)B)A=S.valueC)A=S.eval()D)tf.assign(A,S)答案:A解析:[單選題]121.在深度神經(jīng)網(wǎng)絡(luò)中,全連接層的作用是A)濾波B)One-hot處理C)用于特征提取D)用于分類答案:D解析:[單選題]122.Python機(jī)器學(xué)習(xí)方向的第三方庫是()。A)requesisB)TensorFlowC)scipyD)pandas答案:B解析:難易程度:易題型:[單選題]123.經(jīng)典的網(wǎng)絡(luò)LeNet-5第七層是全連接層Output.這個層共有10個節(jié)點(diǎn)分別代表輸出數(shù)字范圍是()A)0和9B)0*9C)0到9D)0到10答案:C解析:[單選題]124.神經(jīng)網(wǎng)絡(luò)模型(NeuralNetwork)因受人類大腦的啟發(fā)而得名,神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個神經(jīng)元接受一個輸入,對輸入進(jìn)行處理后給出一個輸出。請問下列關(guān)于神經(jīng)元的描述中,哪一項(xiàng)是正確的?A)每個神經(jīng)元可以有多個輸入和一個輸出B)每個神經(jīng)元可以有一個輸入和多個輸出C)每個神經(jīng)元可以有多個輸入和多個輸出D)以上都是答案:D解析:[單選題]125.pytorch中構(gòu)建模型最常見的方式為:A)繼承nn.Module基類構(gòu)建自定義模型B)使用nn.Sequential按層順序構(gòu)建模型C)繼承nn.Module基類構(gòu)建模型并輔助應(yīng)用模型容器進(jìn)行封裝(nn.Sequential,nn.ModuleList,nn.ModuleDict)D)使用model直接處理答案:A解析:[單選題]126.動量優(yōu)化算法的特點(diǎn)是A)如果梯度同方向速度會越來越快B)梯度可以最快速度迭代到最優(yōu)解C)學(xué)習(xí)率不斷衰減D)沒有方法可以越過鞍點(diǎn)答案:A解析:[單選題]127.對于正則化函數(shù)dropout描述正確的是A)直接刪除神經(jīng)元B)讓神經(jīng)元隨機(jī)失活C)dropout過擬合效果有限D(zhuǎn))只能使用在CNN網(wǎng)絡(luò)中答案:B解析:[單選題]128.判斷當(dāng)前時間步信息是否存儲入狀態(tài)的門是:A)遺忘門B)輸入門C)輸出門D)更新門答案:B解析:[單選題]129.Adagrad優(yōu)化器缺點(diǎn)是:A)學(xué)習(xí)率自動更新,隨著更新次數(shù)增加,學(xué)習(xí)率隨之變慢。B)需要維護(hù)兩個超參數(shù)C)分母會不斷累積,這樣學(xué)習(xí)率就會后所并最終變得非常小,算法會失去效用。D)迭代次數(shù)越多,學(xué)習(xí)率越大答案:C解析:[單選題]130.Tf語句y=tf.multiply(a,B,的意思是A)構(gòu)造一個變量B)構(gòu)造一個op(操作)C)構(gòu)造一個任務(wù)D)構(gòu)造一個函數(shù)答案:B解析:[單選題]131.用距離空間實(shí)現(xiàn)的分類問題,一般:A)需要權(quán)重訓(xùn)練B)不需要權(quán)值訓(xùn)練C)不能分類D)需要選定特殊距離空間答案:B解析:[單選題]132.關(guān)于import引用,以下選項(xiàng)中描述錯誤的是()A)使用B)可以使用C)使用D)importE)<classF)<classG)<classH)<class答案:B解析:難易程度:易題型:下面代碼的輸出結(jié)果是x=12.34print(type(x))()難易程度:易題型:第2部分:多項(xiàng)選擇題,共41題,每題至少兩個正確答案,多選或少選均不得分。[多選題]133.使用relu激活函數(shù)的網(wǎng)絡(luò)結(jié)構(gòu)有A)LeNetB)AlexNetC)ResNetD)Inception答案:BCD解析:[多選題]134.深度學(xué)習(xí)訓(xùn)練中,包含以下步驟;A)準(zhǔn)備樣本集合B)前向傳遞,求出lossC)求出反向的梯度dYD)按照梯度dY,確定的更新參數(shù),更新X,繼續(xù)循環(huán)答案:ABCD解析:[多選題]135.能實(shí)現(xiàn)總體加和或平均的函數(shù)分別是:A)tf.reduce_sumB)tf.multiplyC)tf.reduce_meanD)tf.norm答案:AC解析:[多選題]136.Batch歸一化步驟A)求每個訓(xùn)練批次數(shù)據(jù)的均值B)求每個訓(xùn)練批次數(shù)據(jù)的方差C)使用求得的均值和方差對該批次的訓(xùn)練數(shù)據(jù)做歸一化,獲得0-1分布D)尺度變換和偏移答案:ABCD解析:[多選題]137.遷移學(xué)習(xí)是一種機(jī)器學(xué)習(xí)的方法,包含以下兩種開發(fā)方法?A)開發(fā)模型的方法B)預(yù)訓(xùn)練模型的方法C)數(shù)據(jù)清洗D)似然變換答案:AB解析:[多選題]138.()可以使用writer.add_histogramA)損失B)評估指標(biāo)C)權(quán)重D)截距答案:CD解析:[多選題]139.在一個概率空間,經(jīng)過不同劃分后,A)信息熵不同B)構(gòu)成新概率空間C)信息熵不變D)不可能有多種劃分答案:AB解析:[多選題]140.Mini-batch比較好的取值有A)16B)32C)64D)128答案:ABCD解析:[多選題]141.如果?connectionism?是AI三大主義之一,則對connectionism描述正確的有()A)基礎(chǔ)理論是神經(jīng)網(wǎng)絡(luò)B)深度學(xué)習(xí)屬于連接主義C)又稱仿生學(xué)派D)產(chǎn)生在20世紀(jì)50年代產(chǎn)生答案:ABCD解析:[多選題]142.以下哪些框架可以用于深度學(xué)習(xí)領(lǐng)域A)caffeB)torchC)tensorflowD)mxnet答案:ABCD解析:[多選題]143.如果是填充后求卷積,圖像尺寸不變化A)以0填充B)填充厚度為卷積核厚度減1的一半C)步長為1D)圖像尺寸變小答案:ABC解析:[多選題]144.通常所用的函數(shù),可以描述為?A)一個集合B)一個映射C)一個概率空間D)一個線性空間答案:AB解析:[多選題]145.目前,深度學(xué)習(xí)主要包括()?A)前饋神經(jīng)網(wǎng)絡(luò)B)卷積神經(jīng)網(wǎng)絡(luò)C)循環(huán)神經(jīng)網(wǎng)絡(luò)D)對抗神經(jīng)網(wǎng)絡(luò)答案:ABCD解析:[多選題]146.在深度學(xué)習(xí)中,從結(jié)構(gòu)上說,卷積神經(jīng)網(wǎng)絡(luò)由()和()層構(gòu)成A)卷積層B)全連接層C)圖像濾波層D)邊緣提取層答案:AB解析:[多選題]147.計(jì)算圖創(chuàng)建中包含的流程有A)創(chuàng)建日志B)開啟autograph跟蹤C(jī))執(zhí)行autographD)將計(jì)算圖信息寫入日志答案:ABCD解析:[多選題]148.程序語句tf.nn.dropout(x,keep_prob,noise_shape=None,seed=None,name=None)正確的描述為?A)第一個參數(shù)x:指輸入。train的時候才是dropout起作用的時候B)第二個參數(shù)keep_prob:設(shè)置神經(jīng)元被選中的概率,在初始化時keep_prob是一個占位符C)noise_shape:干擾形狀。此字段默認(rèn)是None,表示第一個元素的操作都是獨(dú)立D)第五個參數(shù)name:指定該操作的名字答案:ABCD解析:[多選題]149.比alexnet網(wǎng)絡(luò)性能好的網(wǎng)絡(luò)有A)lenetB)alexnetC)resnetD)inception答案:CD解析:[多選題]150.對于矩陣A可以求逆,那么A必須A)是方陣B)行列式不為零C)任意矩陣D)行列式為1答案:AB解析:[多選題]151.隨機(jī)梯度下降的特點(diǎn)是:A)mini-batch大小為1B)每次迭代有可能原理最優(yōu)解C)永遠(yuǎn)不會收斂D)不能使用向量化加速答案:ABCD解析:[多選題]152.語句tf.nn.dropout(h_fc1,keep_prob)的意義是A)停止某些節(jié)點(diǎn)更新B)保留百分率為keep_prob的節(jié)點(diǎn)更新C)在全鏈接層有效D)可以停止任意層節(jié)點(diǎn)更新答案:ABCD解析:[多選題]153.被譽(yù)為近代人工智能領(lǐng)域的三駕馬車的人物是:A)楊立坤YanLeCuB)辛頓C)BenGioD)比爾·蓋茨答案:ABC解析:[多選題]154.反向傳播算法BP主要由兩個環(huán)節(jié)()()反復(fù)循環(huán)迭代,直到網(wǎng)絡(luò)的對輸入的響應(yīng)達(dá)到預(yù)定的目標(biāo)范圍為止。A)激勵傳播B)權(quán)重更新C)消息傳播D)激活函數(shù)答案:AB解析:[多選題]155.神經(jīng)風(fēng)格遷移過程包括?A)創(chuàng)建網(wǎng)絡(luò)B)損失函數(shù)最小化C)梯度下降過程LOSS最小化D)數(shù)據(jù)清洗答案:ABC解析:[多選題]156.人工智能目前也分為:()A)強(qiáng)人工智能B)微型人工智能C)弱人工智能D)大型人工智能答案:AC解析:人工智能目前也分為:強(qiáng)人工智能(BOTTOM-UPAI)和弱人工智能(TOP-DOWNAI)[多選題]157.dropout描述正確的是A)將部分?jǐn)?shù)據(jù)永久失活B)訓(xùn)練時數(shù)據(jù)失活,測試時數(shù)據(jù)激活C)每次運(yùn)算失活的神經(jīng)元不同D)屬于正則化處理方式答案:BCD解析:[多選題]158.屬于卷積的參數(shù)有A)strideB)kerner_sizeC)in_channelsD)out_channels答案:ABCD解析:[多選題]159.神經(jīng)網(wǎng)絡(luò)中超參數(shù)調(diào)試方法A)隨機(jī)選擇點(diǎn)來試驗(yàn)超參數(shù)效果B)當(dāng)你給超參數(shù)取值時,另一個慣例是采用由粗糙到精細(xì)的策略。C)只調(diào)試容易的D)給定默認(rèn)值即可答案:AB解析:[多選題]160.Logistic回歸又稱logistic(),是一種廣義的(),常用于()等領(lǐng)域A)回歸分析B)線性回歸分析模型C)數(shù)據(jù)挖掘,經(jīng)濟(jì)預(yù)測D)疾病自動診斷答案:ABCD解析:[多選題]161.卷積操作的主要目的就是對圖像進(jìn)行()A)增強(qiáng)B)降維C)理解D)特征提取答案:BD解析:[多選題]162.定義卷積核W_conv1=weight_variable([5,5,5,10])后A)尺寸5X5B)輸入通道5C)輸出通道5D)有10個卷積核答案:ABD解析:[多選題]163.Sigmoid激活函數(shù)的用途是:A)解決非線性分類B)數(shù)據(jù)壓縮至(0,1)C)是核函數(shù)D)解決線性分類問題答案:AB解析:[多選題]164.哪些是tensorflow的算術(shù)運(yùn)算函數(shù)?A)add()B)subtract()C)multiply()D)div()答案:ABCD解析:[多選題]165.pytorch中l(wèi)stm的輸出值有A)每個時間步的預(yù)測B)最后的狀態(tài)值C)最后的預(yù)測值D)每個時間步的狀態(tài)值答案:ABC解析:[多選題]166.對于w_data=np.mat([[1.0,3.0]]).T生成的張量維度是A)維度是(2,1)的張量B)是向量,值為[1,3]C)是矩陣[[1],[3]]D)是向量[[1,3]]的轉(zhuǎn)置答案:ACD解析:[多選題]167.Adagrad優(yōu)化器需要執(zhí)行的步驟是A)計(jì)算梯度B)累計(jì)平方梯度C)計(jì)算更新D)應(yīng)用更新答案:ABCD解析:[多選題]168.關(guān)于sigmoid函數(shù),它的性質(zhì)有什么?A)概率平均B)能解決非線性分類問題C)將負(fù)的權(quán)值映射到正值D)將正權(quán)值映射到負(fù)數(shù)答案:BC解析:[多選題]169.在循環(huán)神經(jīng)網(wǎng)絡(luò)中,LSTM有哪幾個門?A)輸入門B)遺忘門C)輸出門D)更新門答案:ABC解析:[多選題]170.CNN的網(wǎng)絡(luò)訓(xùn)練后,形成模塊model,其中數(shù)據(jù)包括A)所有卷積核B)所有的poolingC)連接層權(quán)重D)relu答案:ABCD解析:[多選題]171.邏輯回歸S型曲線描述正確的是:A)輸出結(jié)果是-1~+1B)0.5是分類的閾值C)輸出的結(jié)果為正類別概率D)導(dǎo)數(shù)范圍為0~0.25答案:BCD解析:[多選題]172.對于tf.nn.SoftMax函數(shù),它可以:A)用于多類別分類B)映射到概率空間C)壓縮數(shù)據(jù)D)用于卷積層答案:ABC解析:[多選題]173.(Non-maximumsuppression,NMS)的本質(zhì)是?A)搜索局部極大值B)抑制非極大值元素C)尋找出最小值D)尋找出閾值答案:AB解析:第3部分:判斷題,共54題,請判斷題目是否正確。[判斷題]174.在tf語句中X.Value是將x中的內(nèi)容取出。A)正確B)錯誤答案:錯解析:[判斷題]175.梯度和損失函數(shù)一樣,也是數(shù)量函數(shù)A)正確B)錯誤答案:錯解析:[判斷題]176.RNN的結(jié)構(gòu)與全連接網(wǎng)絡(luò)基本不一致A)正確B)錯誤答案:錯解析:[判斷題]177.隱藏層層數(shù)增加,模型能力增加。A)正確B)錯誤答案:錯解析:[判斷題]178.使用池化的目的是降低圖片的分辨率,減少參數(shù)學(xué)習(xí)的數(shù)量。A)正確B)錯誤答案:對解析:[判斷題]179.卷積神經(jīng)網(wǎng)絡(luò)的tensorflow框架中,tf.nn.avg_pool()可實(shí)現(xiàn)平均池化操作。A)正確B)錯誤答案:對解析:[判斷題]180.Mini-Batch梯度下降算法是批量梯度下降和隨機(jī)梯度下降的折中。A)正確B)錯誤答案:對解析:[判斷題]181.出租車幾何或曼哈頓距離(ManhattanDistance)是由十九世紀(jì)的赫爾曼·閔可夫斯基所創(chuàng)詞匯A)正確B)錯誤答案:對解析:[判斷題]182.用sigmoid函數(shù)不能將運(yùn)算映射到概率空間。A)正確B)錯誤答案:錯解析:[判斷題]183.使用torchvision.datasets.ImageFolder根據(jù)圖片目錄創(chuàng)建圖片數(shù)據(jù)集A)正確B)錯誤答案:對解析:[判斷題]184.每個神經(jīng)元可以有多個輸入和一個輸出。A)正確B)錯誤答案:對解析:[判斷題]185.計(jì)算圖只有在會話提供的環(huán)境中才能運(yùn)行,分配計(jì)算資源。A)正確B)錯誤答案:對解析:[判斷題]186.循環(huán)神經(jīng)網(wǎng)絡(luò)的權(quán)重系數(shù)是共享的,即在一次迭代中,循環(huán)節(jié)點(diǎn)使用相同的權(quán)重系數(shù)處理所有的時間步。A)正確B)錯誤答案:對解析:[判斷題]187.人臉識別數(shù)據(jù)集通常是2分類圖片A)正確B)錯誤答案:對解析:[判斷題]188.損失函數(shù)(lossfunction)是用來估量模型的預(yù)測值f(x)與真實(shí)值Y的不一致程度,它是一個非負(fù)實(shí)值函數(shù),通常使用L(Y,f(x))來表示,損失函數(shù)越大,模型的魯棒性就越好。A)正確B)錯誤答案:錯解析:[判斷題]189.前向傳播算法的作用是計(jì)算輸入層結(jié)點(diǎn)對隱藏層結(jié)點(diǎn)的影響A)正確B)錯誤答案:對解析:[判斷題]190.LSTM(Longshort-termmemory),主要由四個Component組成:InputGate,OutputGate,MemoryCell以及ForgetGateA)正確B)錯誤答案:對解析:[判斷題]191.Sigmoid激活函數(shù)在神經(jīng)網(wǎng)絡(luò)中引入了非線性。A)正確B)錯誤答案:對解析:[判斷題]192.內(nèi)置fit方法該方法功能非常強(qiáng)大可以通過設(shè)置回調(diào)函數(shù)實(shí)現(xiàn)對訓(xùn)練過程的復(fù)雜控制邏輯A)正確B)錯誤答案:對解析:[判斷題]193.在被卷積的2D圖像上進(jìn)行滑動,并在每個位置上與該像素點(diǎn)及其相領(lǐng)的像素點(diǎn)進(jìn)行內(nèi)積,這就是二維卷積的功能A)正確B)錯誤答案:對解析:[判斷題]194.對于一個固定劃分,信息熵是針對全體概率事件的。A)正確B)錯誤答案:對解析:[判斷題]195.卷積函數(shù)在神經(jīng)網(wǎng)絡(luò)中引入了非線性。A)正確B)錯誤答案:錯解析:[判斷題]196.在一個神經(jīng)網(wǎng)絡(luò)里,知道每一個神經(jīng)元的權(quán)值和偏差值是最重要的一步。如果以某種方法知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,就可以近似任何函數(shù)。實(shí)現(xiàn)這個最佳的辦法是賦予一個初始值,通過檢查跟最佳值的差值,然后迭代更新權(quán)重。A)正確B)錯誤答案:對解析:[判斷題]197.多分類是做人類驗(yàn)證的首選方式A)正確B)錯誤答案:錯解析:[判斷題]198.|A|一定大于AA)正確B)錯誤答案:錯解析:[判斷題]199.計(jì)算圖也叫數(shù)據(jù)流圖,可以把計(jì)算圖看做是一種有向圖,Tensorflow中的每一個節(jié)點(diǎn)都是計(jì)算圖上的一個Tensor,也就是張量,而節(jié)點(diǎn)之間的邊描述了計(jì)算之間的依賴關(guān)系(定義時)和數(shù)學(xué)操作(運(yùn)算時)。A)正確B)錯誤答案:對解析:[判斷題]200.用卷積實(shí)現(xiàn)圖像特征提取,就是借用共振原理。A)正確B)錯誤答案:錯解析:[判斷題]201.Batch歸一化增加了隱藏值分布變化的數(shù)量A)正確B)錯誤答案:錯解析:[判斷題]202.獨(dú)熱編碼沒有什么作用A)正確B)錯誤答案:錯解析:[判斷題]203.在卷積神經(jīng)網(wǎng)絡(luò)中,通過卷積核在圖像滑動所生成的圖像稱為特征圖。A)正確B)錯誤答案:對解析:[判斷題]204.BP傳播算法,主要由兩個環(huán)節(jié)即(激勵傳播、權(quán)重更新)反復(fù)循環(huán)迭代,直到網(wǎng)絡(luò)對輸入的響應(yīng)達(dá)到預(yù)定的目標(biāo)/期望范圍為止A)正確B)錯誤答案:對解析:[判斷題]205.歐幾里得距離,和曼哈頓距離的定義,互有矛盾。A)正確B)錯誤答案:錯解析:[判斷題]206.如果增加神經(jīng)網(wǎng)絡(luò)的寬度,精確度會增加到一個閾值,然后開始降低。造成這一現(xiàn)象的原因可能是當(dāng)核數(shù)量增加,其相關(guān)性增加,導(dǎo)致過擬合。A)正確B)錯誤答案:對解析:[判斷題]207.hinge是回歸的損失函數(shù)A)正確B)錯誤答案:錯解析:[判斷題]208.歸一化是指將數(shù)據(jù)集數(shù)據(jù)縮放到0~1A)正確B)錯誤答案:對解析:[判斷題]209.信息熵是針對有限個概率事件的。A)正確B)錯誤答案:對解析:[判斷題]210.常用用的池化方式為mean-pooling,max-poolingA)正確B)錯誤答案:對解析:[判斷題]211.如果需要自己定義回調(diào)函數(shù)類的話,應(yīng)該繼承keras.callbacks.Callback類A)正確B)錯誤答案:對解析:[判斷題]212.激活函數(shù)會將數(shù)據(jù)變?yōu)榉蔷€性模式A)正確B)錯誤答案:對解析:[判斷題]213.在一個神經(jīng)網(wǎng)絡(luò)里,知道每一個神經(jīng)元的權(quán)值和偏差值是最重要的一步。如果以某種方法知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,就可以近似任何函數(shù)。實(shí)現(xiàn)這個最佳的辦法是隨機(jī)賦值。A)正確B)錯誤答案:錯解析:[判斷題]214.一個循環(huán)神經(jīng)網(wǎng)絡(luò)可以被展開成為一個完全連接的,具有無限長度的普通神經(jīng)網(wǎng)絡(luò),這種說法是AA)正確B)錯誤答案:對解析:[判斷題]215.損失函數(shù)是經(jīng)驗(yàn)風(fēng)險(xiǎn)函數(shù)的核心部分,也是結(jié)構(gòu)風(fēng)險(xiǎn)函數(shù)重要組成部分A)正確B)錯誤答案:對解析:[判斷題]216.GRU單元有記憶細(xì)胞CellA)正確B)錯誤答案:對解析:[判斷題]217.所謂損失函數(shù),只有在訓(xùn)練的時候才參與運(yùn)算,在訓(xùn)練以后,測試或應(yīng)用中無需損失函數(shù)。A)正確B)錯誤答案:對解析:[判斷題]218.動態(tài)計(jì)算圖無序開啟sessionA)正確B)錯誤答案:對解析:[判斷題]219.兩個信號序列形狀相似,其相關(guān)系數(shù)也大。A)正確B)錯誤答案:對解析:[判斷題]220.在使用DropOut機(jī)制的模型中,預(yù)測時所有節(jié)點(diǎn)都會被打開。A)正確B)錯誤答案:對解析:[判斷題]221.若batchsize過小,batchnormalization的效果會出現(xiàn)退化。A)正確B)錯誤答案:對解析:[判斷題]222.概率空間的樣本點(diǎn),其對應(yīng)概率必須相等。A)正確B)錯誤答案:對解析:[判斷題]223.Alexnet網(wǎng)絡(luò)最早使用一塊GPU完成運(yùn)算A)正確B)錯誤答案:錯解析:[判斷題]224.MNIST驗(yàn)證集數(shù)據(jù)樣本的形狀為(10000,784)。A)正確B)錯誤答案:錯解析:[判斷題]225.BP神經(jīng)網(wǎng)絡(luò)也被稱為全連接神經(jīng)網(wǎng)絡(luò)。A)正確B)錯誤答案:對解析:[判斷題]226.深度學(xué)習(xí)是隱藏層更多的人工神經(jīng)網(wǎng)絡(luò)模型A)正確B)錯誤答案:對解析:[判斷題]227.張量維度或形狀,是用一個向量描述。A)正確B)錯誤答案:對解析:第4部分:問答題,共33題,請?jiān)诳瞻滋幪顚懻_答案。[問答題]228.importtensorflowastfX=tf.Variable([1,2])A=tf.constant([3,3])Sub=tf.subtract(x,a)Add=tf.add(x,a)Init=tf.global_variables_initializer()Withtf.Session()assess:sess.run(init)print(sess.run(add))該程序輸出結(jié)果為______。答案:[4,5];解析:[問答題]229.簡述tensorflow深度學(xué)習(xí)框架的特點(diǎn)答案:運(yùn)算性能強(qiáng)、支持生產(chǎn)環(huán)境部署、語言接口豐富。解析:[問答題]230.什么是過擬合?什么是欠擬合?答案:①對某個數(shù)據(jù)集過度擬合的狀態(tài)稱為過擬合②模型在訓(xùn)練數(shù)據(jù)上沒有獲得充分小的誤差解析:[問答題]231.聲明一個常量c,初值為4,代碼為_____。答案:C=tf.constant(4);解析:[問答題]232.占位符和變量的區(qū)別是什么?答案:變量是包含一個值的操作。執(zhí)行一個變量,它會返回對應(yīng)的值。在執(zhí)行之前,需要初始化變量。占位符則只有其所代表的張量的類型和形狀的信息,但沒有值。解析:[問答題]233.什么是dropout操作?答案:在神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程中,對于神經(jīng)單元按一定的概率將其隨機(jī)從網(wǎng)絡(luò)中丟棄,從而達(dá)到對于每輪都是在訓(xùn)練不同網(wǎng)絡(luò)的效果,防止過擬合。解析:[問答題]234.請你說說深度學(xué)習(xí)你都知道哪些框架?答案:Tensorflow;caffe;pytorch;MXNet。解析:[問答題]235.簡述卷積的物理意義。答案:卷積原本是一種積分變換的數(shù)學(xué)方法,是通過兩個函數(shù)f和g生成第三個函數(shù)的算子。在圖像處理領(lǐng)域,卷積是圖像處理的一種常用線性濾波方法,使用卷積可以達(dá)到圖像降噪、銳化等濾波效果。解析:[問答題]236.一個設(shè)計(jì)良好的CNN架構(gòu)會突出那些重要的信息,而將()忽略。答案:噪聲解析:[問答題]237.深度學(xué)習(xí)的應(yīng)用領(lǐng)域包括_____、語音識別、自然語言處理和智能醫(yī)療等。答案:圖像識別;解析:[問答題]238.簡述神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的步驟答案:>解析:[問答題]239.使用深度學(xué)習(xí)的情感分析是多對一的預(yù)測任務(wù)AA)對B)錯答案:A解析:[問答題]240.CNN中padding的作用是什么?答案:卷積核在按照步長移動時候,可能會不夠,因此需要填充解析:[問答題]241.尋找最優(yōu)參數(shù)問題的結(jié)果過程稱為_______答案:最優(yōu)化解析:[問答題]242.神經(jīng)網(wǎng)絡(luò)的激活函數(shù)必須使用_______答案:非線性函數(shù)解析:[問答題]243.在MNIST數(shù)據(jù)集中,標(biāo)簽數(shù)據(jù)為_______表示。答案:獨(dú)熱;解析:[問答題]244.編程:分別在兩個不同的命令空間中定義兩個變量,并在會話中輸出變量名稱。答案:ImporttensorflowastfWith_scope('foo'):a=tf.Variable([1.0,2.0],name='weights')With_scope
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 三年級數(shù)學(xué)下冊教案-5.3 長方形的面積(2)-北師大版
- 五年級下冊數(shù)學(xué)教案-2.1 分?jǐn)?shù)的意義 ︳西師大版
- 2025年合同占股模板
- 一年級下數(shù)學(xué)教案-綜合練習(xí)-北師大版
- 2025年河北省石家莊市單招職業(yè)傾向性測試題庫附答案
- 2024年浸酸劑項(xiàng)目資金籌措計(jì)劃書代可行性研究報(bào)告
- 2025年湖南省郴州市單招職業(yè)適應(yīng)性測試題庫審定版
- 2025年度心理咨詢師培訓(xùn)朋輩督導(dǎo)小組保密合作協(xié)議
- 2025年度家禽養(yǎng)殖與食品安全監(jiān)管合作協(xié)議
- 2025年度導(dǎo)演與票務(wù)銷售公司聘用合同
- 工業(yè)自動化控制系統(tǒng)升級與維護(hù)服務(wù)合同
- 定崗定編定員實(shí)施方案(5篇)
- 藥品經(jīng)營質(zhì)量管理規(guī)范
- 爆破工程師培訓(xùn)
- 2024年云南省公務(wù)員考試《行測》真題及答案解析
- 教科版初中物理八年級下冊知識梳理
- 《飛科電器公司盈利能力存在的問題及完善對策(7800字論文)》
- 零星維修工程項(xiàng)目施工方案1
- 楚辭離騷的原文全文完整注音版、拼音版標(biāo)準(zhǔn)翻譯譯文及注釋
- 湖北省荊州市2024年七年級上學(xué)期期中數(shù)學(xué)試題【附答案】
- 刑事訴訟法課件
評論
0/150
提交評論