《人工智能深度學(xué)習(xí)技術(shù)》考試復(fù)習(xí)題庫(濃縮300題)_第1頁
《人工智能深度學(xué)習(xí)技術(shù)》考試復(fù)習(xí)題庫(濃縮300題)_第2頁
《人工智能深度學(xué)習(xí)技術(shù)》考試復(fù)習(xí)題庫(濃縮300題)_第3頁
《人工智能深度學(xué)習(xí)技術(shù)》考試復(fù)習(xí)題庫(濃縮300題)_第4頁
《人工智能深度學(xué)習(xí)技術(shù)》考試復(fù)習(xí)題庫(濃縮300題)_第5頁
已閱讀5頁,還剩74頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

PAGEPAGE1《人工智能深度學(xué)習(xí)技術(shù)》考試復(fù)習(xí)題庫(濃縮300題)一、單選題1.在tf函數(shù)中,通常需將一個變量的值賦給另一個變量,可以使用編程語句是()A、tf.assign()B、tf.sub()C、tf.add()D、tf.eqeal()答案:A2.在前向傳播反向傳播過程中,例如求導(dǎo)結(jié)果為f(z)'=f(z)(1?f(z))那么這個激活函數(shù)最有可能會是下面選項中的那一個?()A、RelU函數(shù)B、tanhC、coshD、sigmoid答案:D3.Tf中placeholder是一個A、常量B、變量C、占位符D、函數(shù)答案:C4.編程中,通常要進行全局變量初始化操作,可以使用下列那一個語句()A、init_op=tf.global_variables_initializer()B、init_op=tf.variables_initializer()C、init_op=tf.initializer()D、init_op=np.global_variables_initializer()答案:A5.早期的機器學(xué)習(xí)算法中,如果有兩個超參數(shù),通常通過什么方式來選擇參數(shù)A、網(wǎng)格中取樣點,然后系統(tǒng)的研究這些數(shù)值B、比較參數(shù)的大小C、對參數(shù)進行迭代選擇D、對參數(shù)進行平均答案:A6.對于概率空間,集合的劃分,與下列最有關(guān)系的是A、距離空間B、概率空間C、向量空間D、排序答案:B7.執(zhí)行語句print(tf.__path__)后,結(jié)果是['C:\\ProgramFiles\\Anaconda3\\lib\\site-packages\\tensorflow'],則該語句實現(xiàn)的功能是?A、查詢tensorflow位置B、查看tensorflow安裝路徑C、查詢tensorflow版本D、測試tf模塊安裝是否正常答案:B8.樣本點數(shù)量相同的概率空間,可以等價互換。A、是B、不能C、部分能D、部分不能答案:A9.將多個LSTM組合成層,網(wǎng)絡(luò)中有多層,復(fù)雜的結(jié)構(gòu)能夠處理更大范圍的()A、動態(tài)性B、靜態(tài)性C、不穩(wěn)定性D、魯棒性答案:A10.池化核ksize=[1,2,2,1]將圖像A、縮小到1/2B、縮小到1/4C、擴大兩倍D、擴大四倍答案:B11.卷積定理指出,函數(shù)卷積的傅里葉變換是函數(shù)傅里葉變換的()。即,一個域中的卷積相當于另一個域中的(),例如時域中的卷積就對應(yīng)于頻域中的乘積。A、乘積,乘積B、乘積,范數(shù)C、范數(shù),乘積D、范數(shù),距離答案:A12.()就是在不同的訓(xùn)練過程中隨機扔掉一部分神經(jīng)元。也就是讓某個神經(jīng)元的激活值以一定的概率p,讓其停止工作,這次訓(xùn)練過程中不更新權(quán)值,也不參加神經(jīng)網(wǎng)絡(luò)的計算。但是它的權(quán)重得保留下來(只是暫時不更新而已)A、conv2dB、max_poolC、DropoutD、FC答案:C13.Batch歸一化即是A、批量歸一化B、僅對輸入數(shù)據(jù)進行歸一化C、僅對隱藏層進行歸一化D、提升了參數(shù)搜索難度答案:A14.有多個卷積核的原因是:A、同時提取多個圖像的特征B、提取某些圖像多個特征C、圖像有多個通道D、與多特征無關(guān)答案:B15.貝努力實驗的基礎(chǔ)概率空間是:A、均勻分布B、高斯分布C、0-1分布D、指數(shù)分布答案:C16.卡耐基梅隆大學(xué)的DeanPomerleau在上世紀80年代末基于()制造了一輛自動駕駛汽車A、BP算法B、神經(jīng)網(wǎng)絡(luò)C、前向算法D、NFC答案:B17.局部平均值又被稱為A、常規(guī)平均值B、柵格平均值C、移動平均值D、唯一平均值答案:C18.在數(shù)學(xué)模型開發(fā)過程中,經(jīng)常會使用例如數(shù)學(xué)符號、數(shù)學(xué)式子以及()來抽象和描述該模型A、范數(shù)B、程序或圖形C、卷積D、池化答案:B19.語句tf.nn.conv2d(),其中遇到的圖像張量,格式是A、[batch,in_height,in_width,in_channels]B、[Size,in_height,in_width,in_channels]C、[batch,in_width,in_height,in_channels]D、[batch,in_channels,in_height,in_width]答案:A20.Tanh函數(shù)的導(dǎo)數(shù)范圍是()A、(0,1]B、(0,0.1]C、(0,-1]D、(0,10]答案:A21.多層前饋網(wǎng)絡(luò)也稱為()A、BP網(wǎng)絡(luò)B、隱藏層網(wǎng)絡(luò)C、輸入層網(wǎng)絡(luò)D、輸出層網(wǎng)絡(luò)答案:A22.Tf.add(a,b)函數(shù)的作用是?A、除法B、加法操作C、減法操作D、乘法操作答案:B23.卷積神經(jīng)網(wǎng)絡(luò)中每層卷積層(Convolutionallayer)由若干卷積單元組成,每個卷積單元的參數(shù)都是通過反向傳播算法最佳化得到,其作用是()A、增強圖像B、簡化圖像C、特征提取D、圖像處理答案:C24.以下哪個是門控循環(huán)單元A、LSTMB、GRUC、CNND、RNN答案:B25.在tensorflow下創(chuàng)建的會話tf.Session(),當上下文管理器退出時會話tf.Session()在關(guān)閉的同時且會()釋放相關(guān)資源A、自動B、無法C、不清楚D、不能答案:A26.不能解決梯度消失的是:A、調(diào)整激活函數(shù)類型B、使用batchnormC、增大隱藏層數(shù)量D、訓(xùn)練值預(yù)處理答案:C27.卷積層的作用是A、增強圖像B、簡化圖像C、特征提取D、圖像處理答案:C28.TensorFlow、Keras框架為機器學(xué)習(xí)ML和()提供了靈活的數(shù)值計算核心A、MLB、算法重構(gòu)C、NPLD、深度學(xué)習(xí)答案:D29.Batch歸一化的特點不包括A、使參數(shù)搜索問題變得容易B、使神經(jīng)網(wǎng)絡(luò)對超參數(shù)的選擇更加穩(wěn)定C、超參數(shù)的范圍更加龐大D、僅作用于輸入層答案:D30.在tf中,構(gòu)建交叉熵損失函數(shù)的語句是:A、cross_entropy=-tf.reduce_sum(y_actual*tf.log(y_predict))B、cross_entropy=-tf.reduce_all(y_actual*tf.log(y_predict))C、cross_entropy=-tf.reduce_max(y_actual*tf.log(y_predict))D、cross_entropy=-tf.reduce_s(y_actual*tf.log(y_predict))答案:A31.ActivationfunctionRectifiedLinearUnit即激活函數(shù)ReLU,它的作用是()A、引用了無效的單元格地址B、過濾無效神經(jīng)元C、不是激發(fā)函數(shù)D、將正數(shù)保留,將負數(shù)置0答案:D32.對于擬合的問題,下列說法正確的是:A、過擬合的現(xiàn)象是訓(xùn)練集準確率低,而測試集準確率高B、欠擬合的現(xiàn)象是訓(xùn)練集和測試集準確率相近C、盡量不要出現(xiàn)適度擬合,會造成新數(shù)據(jù)準確率低D、欠擬合是指驗證集和測試集的準確率都無法保證正常業(yè)務(wù)使用答案:D33.Tf.matmul(a,B,transpose_a=False,transpose_b=False,adjoint_a=False,adjoint_b=False,a_is_sparse=False,b_is_sparse=False,name=None)函數(shù)返回值是一個跟張量a和張量b類型一樣的張量且最內(nèi)部矩陣是a和b中的相應(yīng)矩陣的()A、相與B、乘積C、相除D、相加答案:B34.下列函數(shù)能實現(xiàn)對比兩個矩陣是否相等,或者向量是否相等的元素的函數(shù)是哪一個?A、c=tf.greater(a,b)B、a=tf.subtract(a,b)C、b=tf.equal(a,b)D、d=tf.matmul(a,b)答案:C35.通常,一個實數(shù)或復(fù)數(shù)向量空間加上長度和角度的概念,稱為()A、內(nèi)積空間B、賦范空間C、矢量空間D、希爾伯特空間答案:A36.Tf.nn.conv2d(),其中遇到的圖像張量,格式是A、[batch,in_height,in_width,in_channels]B、[Size,in_height,in_width,in_channels]C、[batch,in_width,in_height,in_channels]D、[batch,in_channels,in_height,in_width]答案:A37.一個32X32大小的圖像,通過步長為2,尺寸為2X2的池化運算后,尺寸變?yōu)锳、14X14B、2X2C、28X28D、16X16答案:D38.對一個概率空間,進行多種劃分,其信息熵是A、一定相等B、一定不等C、不確定無關(guān)聯(lián)D、互有關(guān)聯(lián)答案:C39.Tf.multiply(x,y,name=None),其中類型跟張量x相同的張量是A、yB、tfC、nameD、None答案:A40.深度學(xué)習(xí)典型應(yīng)用:人臉識別,指什么網(wǎng)絡(luò)架構(gòu)?A、LeNET5B、(CNN:AlexNet)C、VGGD、ResNet答案:B41.在機器學(xué)習(xí)和深度學(xué)習(xí)中,監(jiān)督學(xué)習(xí)算法有A、聚類B、降維C、回歸算法D、PCA答案:C42.連接主義的主要原理為神經(jīng)網(wǎng)絡(luò)及神經(jīng)網(wǎng)絡(luò)間的連接機制與學(xué)習(xí)算法。其英文縮寫為()A、symbolicismB、actionismC、connectionismD、AI答案:C43.Multiply這個函數(shù)實現(xiàn)的是元素級別的相乘,也就是兩個相乘的數(shù)元素各自()A、相與B、相乘C、相除D、相加答案:B44.(e^x)*x^2的導(dǎo)數(shù)是A、(e^x)(x^2+2x)B、(e^x)C、(e^x)*cos(x)D、cosx答案:A45.動量梯度算法,是通過學(xué)習(xí)率和()控制梯度下降的A、指數(shù)加權(quán)平均數(shù)B、局部平均值C、全局平局值D、方差答案:A46.Siamese網(wǎng)絡(luò)試用與做驗證任務(wù),最常見的是針對()元組和三元組的二分支、三分支網(wǎng)絡(luò)A、一B、二C、三D、四答案:B47.Alf屬于[0,1],A,B是平面上點,alf*A+(1-alf)*B的意義是A、過AB兩點直線B、A和B構(gòu)成的線段C、A和B的向量和D、A和B構(gòu)成的集合答案:B48.Tf.equal(0,False)的結(jié)果是A、1B、0C、TrueD、False答案:C49.函數(shù)tf.constant()不正確的用法是那一個選項?A、tensor=tf.constant(1)B、tensor=tf.constant([1,2])C、tensor=tf.constant(-1,shape=[2,3])D、a=tf.constant([1.0,2.0],name="a)答案:D50.在深度學(xué)習(xí)中的目標檢測中會檢測出多個目標框,后期需要通過非極大值抑制去除得分低并且iou()閾值的目標框A、小于B、大于C、等于D、大于或小于答案:B51.語句W_conv1=weight_variable([5,5,8,32])b_conv1=bias_variable([X])兩句代碼實現(xiàn)卷積核,其中對應(yīng)偏置的數(shù)字X應(yīng)該是:A、32B、8C、5D、1答案:A52.Tensorflow中,哪個是與詞向量有關(guān)的函數(shù)?A、tf.nn.softmax_cross_entropy_with_logitsB、tf.nn.sigmoid_cross_entropy_with_logitsC、tf.nn.embedding_lookupD、tf.nn.dropout答案:C53.LSTM網(wǎng)絡(luò)通過精妙的()將短期記憶與長期記憶結(jié)合起來,并且一定程度上解決了梯度消失的問題A、RNN控制B、前饋控制C、BP控制D、門控制答案:D54.在典型的Batch歸一化運用中需要用什么來估算A、一個指數(shù)加權(quán)平均B、平均值C、方差D、最大值答案:A55.Tf.ones_like(tensor)該操作返回一個具有和給定tensor相同形狀(shape)和相同數(shù)據(jù)類型(dtype)A、dtypeB、tensorC、shapeD、int答案:B56.歐幾里得空間標準內(nèi)積的另外一種表述是()?A、平方差B、和差化積C、內(nèi)積D、點積答案:D57.程序語句print(tf.__version__),有什么作用?A、顯示安裝的tensorflow的版本號B、保存安裝的tensorflow的版本號C、下載安裝的tensorflowD、下載上一個版本的tensorflow答案:A58.以下數(shù)據(jù)集分配方式錯誤的是:A、2億條數(shù)據(jù),測試集數(shù)量可以少于4千萬條B、數(shù)據(jù)量較少時,訓(xùn)練集和測試集可以按照7:3分配C、在一些情況下,可以將全部數(shù)據(jù)作為訓(xùn)練集D、小數(shù)據(jù)量時,訓(xùn)練,驗證,測試集比例可以按照6:2:2進行分配答案:C59.神經(jīng)網(wǎng)絡(luò)LenNet-5共有7層(不包括輸入層),主要有2個()、2個下抽樣層(池化層)、3個全連接層3種連接方式A、輸入層B、卷積層C、池化層D、FC層答案:B60.Sigmoid函數(shù)的缺點:導(dǎo)數(shù)值范圍為(0,0.25],反向傳播時會導(dǎo)致“梯度消失”。而()函數(shù)導(dǎo)數(shù)值范圍更大,相對好一點。A、coshB、sinC、tanhD、sigmoid答案:C61.通常歐幾里得距離,也叫A、非負距離B、平面距離C、絕對值距離D、平方范數(shù)距離答案:D62.加權(quán)平均值是通過()得到的A、局部平均值B、局部方差C、全局平均值D、全局方差答案:A63.Tf的全局變量初始化語句是A、tf.global_variables_initializer()B、tf.variables_initializerC、sess.run(w.initializer)D、tf.initializer()答案:A64.在TF框架中,激活函數(shù)tf.nn.relu的作用是?A、用于卷積后數(shù)據(jù)B、用于卷積核C、用于步長D、不能用到全連接層答案:A65.神經(jīng)風格遷移是指將()圖像的風格應(yīng)用于目標圖像,同時保留目標圖像的內(nèi)容。A、參考B、卷積C、池化D、腐蝕答案:A66.面部識別軟件可歸入名為生物識別的一大類技術(shù)。生物識別技術(shù)使用()來驗證身份A、生物信息B、特征點C、算法D、標識答案:A67.交叉熵使用了()梯度下降法A、sigmoid函數(shù)B、RELU函數(shù)C、tanh函數(shù)D、cosh函數(shù)答案:A68.LeNet-5網(wǎng)絡(luò)是針對灰度圖進行訓(xùn)練的,輸入圖像大小為32*32*1,不包含輸入層的情況下共有()層,即2層卷積,2層池化,3層全連接,每一層都包含可訓(xùn)練參數(shù)(連接權(quán)重)A、5B、7C、8D、16答案:B69.在TensorFlow中使用tf.log函數(shù)可以計算元素的自然對數(shù),自然對數(shù)以常數(shù)()為底數(shù)的對數(shù),A、eB、10C、2D、10^^答案:A70.在tf.nn.conv2d(a,B,C,d),其中填充操作是A、aB、bC、cD、d答案:D71.對于神經(jīng)網(wǎng)絡(luò),AW=Y,其中A是訓(xùn)練集合,Y是標簽集合,總體損失函數(shù)E一般表示為是:A、0.5乘(Y-AX)的范數(shù)平方B、(Y-AX)C、Y對X的偏導(dǎo)數(shù)D、(AX-Y)答案:A72.程序語句cost=tf.reduce_mean(tf.square(hypothesis-Y))通常是什么算法使用?A、線性回歸B、邏輯回歸C、SVMD、CNN答案:A73.Adam算法的tensorflow代碼是:A、tf.example.AdamOptimizerB、tf.train.AdamOptimizerC、tf.nn.AdamOptimizerD、tf.AdamOptimizer答案:B74.想要處理梯度消失,相對最好的激活函數(shù)是:A、sigmoidB、ReluC、tanhD、LeakyRelu答案:D75.Adam算法的核心是A、強化了RMSprop算法B、強化了動量梯度算法C、同時使用Momentum和RMSprop算法D、沒有核心答案:C76.年Rumelhart等人發(fā)展了()理論A、BP算法B、求偏導(dǎo)C、激活函數(shù)D、前向算法答案:A77.比()好用的激活函數(shù)是tanh函數(shù)(雙曲正切函數(shù))A、cosh函數(shù)B、Sigmoid函數(shù)C、RELU函數(shù)D、cosx函數(shù)答案:B78.圖像處理時,給定輸入圖像,在輸出圖像中每一個像素是輸入圖像中一個小區(qū)域中像素的加權(quán)平均,其中權(quán)值由一個函數(shù)定義,這個函數(shù)稱為()A、被卷積數(shù)據(jù)B、卷積核C、步長D、填充答案:B79.面部識別軟件還有其他幾個用途:()、取款身份驗證、計算機安全等A、消除投票欺詐B、身份證認證C、互聯(lián)網(wǎng)D、銀行答案:A80.以下哪個是長短期記憶網(wǎng)絡(luò)的縮寫A、LSTMB、GRUC、CNND、RNN答案:A81.對y=sigmoid(x)函數(shù)對x的導(dǎo)數(shù)可以寫成A、y(1+y)B、exp(-x)C、1-exp(-x)D、y(1-y)答案:D82.關(guān)于正則化,說法錯誤的是:A、過擬合可以通過正則化方式消除B、常用的正則化方式由L1,L2,以及dropoutC、欠擬合可以通過正則化方式消除D、正則化是損失函數(shù)的一個補償項答案:C83.如果數(shù)據(jù)集大小為m,mini-batch的大小為A、1B、mC、大于mD、大于2,小于m答案:D84.()是深度學(xué)習(xí)訓(xùn)練時的一種提高準確度的技術(shù)方法。英文全稱為“l(fā)ocalresponsenormalization”A、本區(qū)域B、局部響應(yīng)歸一化/標準化C、BP算法D、池化答案:B85.與Inception同年提出的優(yōu)秀網(wǎng)絡(luò)還有(),它相比于AlexNet有更小的卷積核和更深的層級A、VGG-NetB、InceptionC、ResNetD、LeNet-5答案:A86.帶泄露的ReLU函數(shù)是指?A、Sigmoid函數(shù)B、tanh函數(shù)C、ReLUD、leakyReLU答案:D87.在Mnist庫的四個文件意義是:A、圖像集、訓(xùn)練標簽集、測試集、測試標簽集B、原始集、訓(xùn)練集、標簽集、測試集C、訓(xùn)練集、訓(xùn)練標簽集、測試集、測試標簽集D、圖像集、附加圖像集、測試圖像集、測試附加集答案:C88.非常經(jīng)典的LeNet-5神經(jīng)網(wǎng)絡(luò)其FC層處理完成以后,輸出的結(jié)果會再經(jīng)過那一個激活函數(shù)輸出()?A、RelUB、sigmoidC、tanhD、sin答案:B89.Tf中,第一層卷積核W_conv1=variable([5,5,1,32]),第二層卷積核是:A、variable([5,5,1,32])B、variable([3,3,1,32])C、variable([5,5,4,8])D、variable([5,5,32,6])答案:D90.Inception是一個()層的深度網(wǎng)絡(luò),它的質(zhì)量是在分類和檢測領(lǐng)域進行了評估A、5B、8C、22D、152答案:C91.從sigmoid函數(shù)的圖像中可以看到,如果x稍微大點的話,其值接近為1,則在進行反向傳播算法的過程中對其求導(dǎo)的導(dǎo)數(shù)非常的接近0,因此會導(dǎo)致梯度為0的()的現(xiàn)象A、梯度消失B、梯度上升C、梯度下降D、梯度發(fā)散答案:A92.從上升速度來看所有的函數(shù)的,上升最慢的是A、線性函數(shù)B、指數(shù)函數(shù)C、冪函數(shù)D、對數(shù)函數(shù)答案:D93.Inception網(wǎng)絡(luò)中,一個5×5的卷積在計算成本上是一個3×3卷積的()倍。所以疊加兩個3×3卷積實際上在性能上會有所提升A、2.78B、2.87C、7.28D、8.72答案:A94.Tf.nn.dropout是TensorFlow里面為了防止或減輕過擬合而使用的函數(shù),它一般用在()A、卷積層B、全連接層C、池化層D、激活函數(shù)層答案:B95.激活函數(shù)Sigmoid的值域范圍是在()之間A、0~1B、0~2C、-1~0D、-1~1答案:A96.Tensorflow中,tf.equal(tf.argmax(y_conv,axis=1),tf.argmax(y_,1))A、返回整數(shù)值B、返回布爾值C、返回浮點值D、返回字符答案:B97.一個數(shù)據(jù)集中有3萬條數(shù)據(jù),關(guān)于數(shù)據(jù)集分配哪一項說法正確:A、訓(xùn)練集數(shù)據(jù)可以分配1萬條B、測試集數(shù)據(jù)可以分配1000條C、可以不設(shè)置訓(xùn)練集D、可以不設(shè)置驗證集答案:D98.RMSprop算法的特點是A、指數(shù)加權(quán)平均數(shù)求和B、指數(shù)加權(quán)平均數(shù)先平方再開方C、指數(shù)加權(quán)平均數(shù)求微分D、指數(shù)加權(quán)平均數(shù)求均方誤差答案:B99.Alex在2012年提出的()網(wǎng)絡(luò)結(jié)構(gòu)模型引爆了神經(jīng)網(wǎng)絡(luò)的應(yīng)用熱潮,并贏得了2012屆圖像識別大賽的冠軍,使得CNN成為在圖像分類上的核心算法模型。AlexNet該模型一共分為八層,5個卷積層,,以及3個全連接層A、LeNetB、AlexNetC、VGGD、ResNet答案:B100.范數(shù)簡稱F-范數(shù),是一種矩陣范數(shù),記為()A、||*||FB、||·||FC、||-||FD、F||·||答案:B101.Batch歸一化步驟不包括A、求每個訓(xùn)練批次數(shù)據(jù)的均值B、求每個訓(xùn)練批次數(shù)據(jù)的方差C、使用求得的均值和方差對該批次的訓(xùn)練數(shù)據(jù)做歸一化,獲得0-1分布D、求每個訓(xùn)練批次的和答案:D102.研究發(fā)現(xiàn)Inception-ResNet模型可以在更少的epoch內(nèi)達到更()的準確率A、低B、高C、先高后低D、不確定答案:B103.步長張量strides=[1,2,2,1]能橫向縱向移動A、1像素B、2像素C、3像素D、4像素答案:B104.局部響應(yīng)歸一化即(),LRN一般是在激活、池化后進行的一中處理方法A、本區(qū)域B、localresponsenormalizationC、BP算法D、池化答案:B105.如果拋一個硬幣,拋一次算一個事件結(jié)果;拋兩次算一個事件結(jié)果;他們是A、一個概率空間B、兩個概率空間C、一個樣本空間D、一個概率空間,兩個事件答案:B106.語句euclideanmetric的意思是?A、歐幾里得B、歐幾里得度量C、歐幾里得范數(shù)D、歐幾里得空間答案:B107.縮寫ArtificialIntelligence是指A、AOB、AIC、ALD、AN答案:B108.卷積神經(jīng)網(wǎng)絡(luò)中,全連接層中,需要修改權(quán)重,修改的依據(jù)是:A、梯度反向傳播B、梯度正向傳播C、與梯度無關(guān)D、與損失函數(shù)無關(guān)答案:A109.特征臉方法利用()進行降維和提取特征A、次分量分析B、主分量分析C、主次分量分析D、矢量分析答案:B110.F=tf.Variable([[2.,5.,4.],[1.,3.,6.]]),tf.reduce_sum(f,axis=1)的值是A、[10.,11.]B、[10.,10.]C、[11.,11.]D、[11.,10.]答案:D111.下面能夠?qū)崿F(xiàn)激活函數(shù)操作的語句是:A、h_conv1=tf.nn.relu(conv_ret1)B、h_conv1=tf.nn.dropout(conv_ret1)C、h_conv1=tf.nn.lrn(conv_ret1)D、h_conv1=tf.nn.l2_loss(conv_ret1)答案:A112.RMSprop相比Momentum,可以選擇更大的()A、損失函數(shù)B、學(xué)習(xí)率C、激活函數(shù)D、樣本集答案:B113.Tf在圖像處理的4維度張量,按照次序,它的意義是:A、batch、height、weight、channelB、height、weight、channel,batchC、batch、height、width、channelD、channel、height、weight、batch答案:C114.A=tf.Variable(8.1)Sess.run(tf.assign_add(a,1))A的值是:A、8.1B、8.2C、9.1D、7.1答案:C115.在jupyternotebook中使用()以交互模式打開獨立的GUI窗口,對同一個figure的繪制都自動刷新到對應(yīng)的GUI窗口A、%matplotlibinlineB、matplotlibinlineC、%mptinlineD、%inline答案:A116.編碼器-解碼器模式屬于以下哪種模式?A、一對一B、一對多C、多對一D、多對多答案:D117.Sigmoid激活函數(shù)的導(dǎo)數(shù)范圍是()A、(0,0.1]B、(0,0.2]C、(0,0.25]D、(0,0.5]答案:C118.“熊貓方式”和魚子醬方式的選擇主要是通過什么決定的A、計算機資源的充足與否B、測試集數(shù)量C、訓(xùn)練集數(shù)量D、隱藏層數(shù)量答案:A119.深度卷積神經(jīng)網(wǎng)絡(luò)中,()提取的特征往往是比較簡單的(如檢測點、線、亮度)?A、深層B、淺層C、最后幾層D、所有層答案:B120.激活函數(shù)tf.nn.relu能A、用于卷積后數(shù)據(jù)B、用于卷積核C、用于步長D、不能用到全連接層答案:A121.張量Tensor通常是操作()維數(shù)組進行傳送,形象地描述為從流圖的一端流動到另一端,即TensorFlow的組成A、NB、1C、0D、3答案:A122.(euclideanmetric歐幾里得度量)是一個通常采用的距離定義,在二維和三維空間中的歐氏距離就是兩點之間的實際()。A、誤差B、線段C、距離D、坐標答案:C123.經(jīng)典的網(wǎng)絡(luò)LeNet-5第七層是全連接層Output.這個層共有10個節(jié)點分別代表輸出數(shù)字范圍是()A、0和9B、0*9C、0到9D、0到10答案:C124.Batch歸一化在神經(jīng)網(wǎng)絡(luò)中的作用不包括A、減少了隱藏值分布變化的數(shù)量B、減少了輸入值改變的問題C、有輕微的正則化效果D、增加了輸入值改變的問題答案:D125.面部識別系統(tǒng)對面孔進行測量,并生成一個面紋,即面部的唯一數(shù)字代碼。每個面紋都存儲為一個()字節(jié)的文件。系統(tǒng)可以用每分鐘幾千萬張面孔的速度對內(nèi)存中的面紋數(shù)據(jù)進行匹配A、48B、84C、148D、841答案:B126.函數(shù)tf.log(),該函數(shù)返回的是一個()A、向量B、張量C、矢量D、范數(shù)答案:B127.在人臉檢測系統(tǒng)中,如函數(shù)caffe.set_mode_gpu()的含意是設(shè)置為什么模式?A、CPU模式B、GPU模式C、CPU+GPU模式D、TPU模式答案:B128.雙向循環(huán)神經(jīng)網(wǎng)絡(luò)的英文縮寫是?A、RNNB、SRNNC、TRNND、Bi-RNN答案:D129.關(guān)于空間,向量空間也稱為(),它是線性代數(shù)的中心內(nèi)容和基本概念之一A、線性空間B、內(nèi)積空間C、賦范空間D、希爾伯特空間答案:A130.以下哪個余弦相似度值接近1?A、法國和意大利B、球和鱷魚C、體育和動物D、法國和足球答案:A131.函數(shù)tf.nn.relu的作用是?A、被卷積數(shù)據(jù)B、卷積核C、步長D、激活答案:D132.對于神經(jīng)網(wǎng)絡(luò)中超參數(shù)調(diào)試方法正確的是A、隨機選擇點來試驗超參數(shù)效果B、當你給超參數(shù)取值時,另一個慣例是采用由精細到粗糙的策略。C、只調(diào)試容易的D、給定默認值即可答案:A133.在深度學(xué)習(xí)中,前向算法就是有了聯(lián)結(jié)權(quán)重w和()H(x)之后,就可以由前往后面層計算A、激活函數(shù)B、正弦函數(shù)C、余弦函數(shù)D、Sigmoid函數(shù)答案:A134.Batch歸一化和神經(jīng)網(wǎng)絡(luò)中的什么功能類似A、reluB、dropoutC、sigmoidD、tanh答案:B135.Mini-batch指的是A、小批量梯度下降B、隨機梯度下降C、批量梯度下降D、小批量損失計算答案:A136.Relu()激活函數(shù)的作用是將大于0的數(shù)保持不變,小于()的數(shù)輸出為0A、-1B、0C、1D、x答案:B137.Session是Tensorflow為了控制,和輸出文件的執(zhí)行的語句.運行session.run()可以獲得你要得知的運算結(jié)果,或者是你所要運算的部分通常要創(chuàng)建Session對象,對應(yīng)的編程語句為:A、sess=tf.Session()B、sess.close()C、tf.add()D、tf.equal()答案:A138.在進入科學(xué)研究之前,第一步要對事物A、實驗準備B、下定義C、思想準備D、預(yù)測答案:B139.Tensorflow中,tensor=tf.constant([1,2,3,4,5,6,7,8]),sess.run(tf.reshape(tensor,[2,-1]))運行后,tensor的內(nèi)容變成?A、[[1,2,3,4],[5,6,7,8]]B、[[1,2,3],[4,5,6,7,8]]C、[[1,2,3],[4,5,6],[7,8]]D、[[1,2],[3,4],[5,6],[7,8]]答案:A140.根據(jù)實際問題來建立(),然后對它來進行求解A、架構(gòu)B、數(shù)學(xué)模型C、流程圖D、數(shù)據(jù)集答案:B141.雙曲正切函數(shù)指的是那一個函數(shù)?A、Sigmoid函數(shù)B、tanh函數(shù)C、ReLUD、leakyReLU答案:B142.輸入圖像有2個,經(jīng)過10個卷積核卷積后,輸出圖像有()個A、2B、5C、10D、不確定答案:C143.關(guān)于歸一化確定,下列說法正確的是:A、通過中值和均值進行確定B、通過平均值和最小值確定C、通過方差和均值確定D、通過標準差和均值確定答案:C144.局部響應(yīng)標準化,此該環(huán)節(jié)主要用于防止過擬合,簡稱是什么?A、本區(qū)域B、LRNC、BP算法D、池化答案:B145.從()、比較比對、逐漸逼近的循環(huán)過程就是建立數(shù)學(xué)模型A、測量B、校準C、回歸D、監(jiān)督答案:A146.為了屏蔽一些不必要的警告和錯誤,常使用編程語句例如os.environ['TF_CPP_MIN_LOG_LEVEL']='2'主要作用是屏蔽什么?A、警告B、錯誤C、警告和錯誤D、反匯編過程答案:C147.神經(jīng)網(wǎng)絡(luò)中超參數(shù)的調(diào)試中最重要的參數(shù)是A、mini-Batch的大小B、動量梯度下降的參數(shù)βC、學(xué)習(xí)率αD、隱藏層數(shù)目答案:C148.Tf.reshape(tensor,shape,name=None)函數(shù)的作用是將tensor變換為參數(shù)shape形式,其中的shape為一個()形式。-1所代表的含義是我們不用親自去指定這一維的大小,函數(shù)會自動進行計算A、矢量B、向量C、列表D、凸集答案:C149.數(shù)量積(dotproduct;scalarproduct,也稱為()是接受在實數(shù)R上的兩個向量并返回一個實數(shù)值標量的二元運算,它是歐幾里得空間的標準內(nèi)積。A、平方差B、和差化積C、內(nèi)積D、點積答案:D150.一個向量空間加上拓撲學(xué)符合運算的(加法及標量乘法是連續(xù)映射)稱為()A、拓撲向量空間B、內(nèi)積空間C、矢量空間D、希爾伯特空間答案:A多選題1.深度學(xué)習(xí)的興起主要得益于三個方面的原因A、新方法的出現(xiàn),為神經(jīng)網(wǎng)絡(luò)深度的拓展解決了梯度彌散的問題;B、大量已標注數(shù)據(jù)的出現(xiàn),為神經(jīng)網(wǎng)絡(luò)的訓(xùn)練做好了數(shù)據(jù)準備;C、GPU(圖形處理器)的使用,為卷積計算提供了高速解決方案D、深度學(xué)習(xí)等于人工智能答案:ABC2.關(guān)于正則化的正確說法有:A、要求在損失函數(shù)加正則化項B、是強制將w更新進行截止C、會減少過擬合D、會增加過擬合答案:ABC3.關(guān)于反向傳播算法,它也存在不足,其主要有:A、訓(xùn)練時間較長B、完全不能訓(xùn)練,訓(xùn)練時由于權(quán)值調(diào)整過大使激活函數(shù)達到飽和C、易陷入局部極小值D、“喜新厭舊”。訓(xùn)練過程中,學(xué)習(xí)新樣本時有遺忘舊樣本的趨勢答案:ABCD4.語句a=tf.Variable([1,2,3])和b=tf.Variable(a)這條語句:A、合法B、非法C、合法但a需要提前初始化D、合法但不夠安全答案:ACD5.Tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)意義:A、定義學(xué)習(xí)步長B、優(yōu)化器C、交叉熵損失函數(shù)D、開始訓(xùn)練答案:ABC6.如果是填充后求卷積,圖像尺寸不變化A、以0填充B、填充厚度為卷積核厚度減1的一半C、步長為1D、圖像尺寸變小答案:ABC7.Tensorflow中,哪些運算結(jié)果為TrueA、tf.equal(1.0,1)B、tf.equal(1.0,1.0)C、tf.equal(0,False)D、tf.equal(1,False)答案:ABC8.屬于卷積核K的參數(shù)是A、步長B、填充C、輸入通道D、輸出通道答案:CD9.下列屬于dropout特性的有:A、具有正則化功能B、具有激活函數(shù)功能C、常用于圖像處理D、機器學(xué)習(xí)算法答案:AC10.關(guān)于梯度消失,說法正確的是:A、可以通過激活函數(shù)防止梯度消失B、梯度消失對神經(jīng)網(wǎng)絡(luò)無影響C、盡量避免梯度消失D、梯度消失反向傳播時,由于梯度值過小或消失的現(xiàn)象答案:ACD11.程序語句例如conv2d(input_d,filter_d,strides=[1,3,3,1],padding='SAME'),這條語句的含意理解為()?A、步長在高度方向和寬度方向均為3B、填充圖像邊緣,使圖像尺寸不變C、input_d是待卷積的數(shù)據(jù)D、進行卷積操作答案:ABCD12.哪些屬于序列數(shù)據(jù)A、語音識別B、情感分類C、機器翻譯D、DNA序列分析答案:ABCD13.Adam算法結(jié)合了()算法于一身A、RMSprop算法B、均方誤差C、Momentum算法D、交叉熵答案:AC14.對于矩陣A可以求逆,那么A必須A、是方陣B、行列式不為零C、任意矩陣D、行列式為1答案:AB15.語句tf.variables_initializer語句可以A、初始化一個變量B、初始化多個變量C、初始化全部變量D、初始化常量答案:ABC16.哪些是tensorflow的算術(shù)運算函數(shù)?A、add()B、subtract()C、multiply()D、div()答案:ABCD17.范數(shù),在()、()及相關(guān)的數(shù)學(xué)領(lǐng)域,范數(shù)是一個函數(shù),是矢量空間內(nèi)的所有矢量賦予非零的正長度或大小。A、線性代數(shù)B、泛函分析C、腐蝕D、膨脹答案:AB18.語句t=tf.ones_like(a)的幾個意義是A、將t節(jié)點內(nèi)容用a替換B、t節(jié)點對應(yīng)張量維度和A相同C、t對應(yīng)張量值為1D、a需要預(yù)先初始化答案:BCD19.Tf.nn.conv2d(x,W,name1=[1,1,1,1],name2='SAME')其中name1和name2對應(yīng)單詞是:A、name1是strideB、name2是paddingC、name1是paddingD、name2是stride答案:AB20.人工智能是解決機器()的學(xué)科A、感知B、理解C、決策D、證明答案:ABC21.Momentum和RMSprop算法的特點是:A、RMSprop可以取更大學(xué)習(xí)率B、RMSprop是將指數(shù)平均值平方再開發(fā)C、RMSprop下降更好消除擺動D、RMSprop和Momentum都可以優(yōu)化算法答案:ABCD22.Sigmoid函數(shù)的性質(zhì)有哪些?A、將輸出數(shù)據(jù)壓縮到[0,1]集合范圍B、能解決非線性分類問題C、將負的權(quán)值映射到正值D、將正權(quán)值映射到負數(shù)答案:ABC23.(Non-maximumsuppression,NMS)的本質(zhì)是?A、搜索局部極大值B、抑制非極大值元素C、尋找出最小值D、尋找出閾值答案:AB24.對數(shù)坐標下,在[a,b]區(qū)間隨機隨機均勻地給r取值的說法正確的是A、取最小值的對數(shù)得到a的值B、取最小值的對數(shù)得到b的值C、取最大值的對數(shù)得到a的值D、取最大值的對數(shù)得到b的值答案:AD25.在h_pool2_flat=tf.reshape(h_pool2,[-1,7*7*64])這條語句的意義有:A、卷積層的終極輸出是64幅圖B、卷積層輸出圖片size是7X7C、將64幅7X7張量改寫成一個向量D、h_pool2_flat是全鏈接層的輸入數(shù)據(jù)答案:ABCD26.在循環(huán)神經(jīng)網(wǎng)絡(luò)中,LSTM有哪幾個門?A、輸入門B、遺忘門C、輸出門D、更新門答案:ABC27.語句tf.nn.dropout(h_fc1,keep_prob)的意義是A、停止某些節(jié)點更新B、保留百分率為keep_prob的節(jié)點更新C、在全鏈接層有效D、可以停止任意層節(jié)點更新答案:ABCD28.Inception網(wǎng)絡(luò)都是頂尖的網(wǎng)絡(luò)代表,Inception細分種類有那幾種?()A、Inceptionv1B、Inceptionv2C、Inceptionv3,Inceptionv4D、Inception-ResNet答案:ABCD29.以下可以處理Mnist數(shù)據(jù)集的分類算法有A、KNNB、邏輯回歸C、卷積神經(jīng)網(wǎng)絡(luò)D、k-mean答案:ABC30.Tf中能實現(xiàn)兩個向量代數(shù)運算的語句是A、c=tf.greater(A,b)B、a=tf.subtract(A,b)C、b=tf.Equal(A,b)D、d=tf.matmul(A,b)答案:BD31.張量語句tf.concat()是:A、合并張量B、與張量維度有關(guān)C、實現(xiàn)代數(shù)運算D、輸入數(shù)據(jù)是一個張量答案:AB32.在tensorflow中,tf.reshape函數(shù)的參數(shù)是(tensor,shape,name=None),以下哪些描述是正確的?A、函數(shù)的作用是將tensor變換為參數(shù)shape形式B、其中的shape為一個列表形式C、name可省略D、-1所代表的含義是我們不用親自去指定這一維的大小,函數(shù)會自動進行計算答案:ABCD33.語句train_acc=accuracy.eval(feed_dict={x:batch[0],y_actual:batch[1],keep_prob:1.0})A、是訓(xùn)練過程B、是測試過程C、輸入訓(xùn)練集合D、輸入dropout比例答案:ACD34.通常所用的函數(shù),可以描述為?A、一個集合B、一個映射C、一個概率空間D、一個線性空間答案:AB35.哪些是Tensorflow的RNN中關(guān)于cell的類A、BasicRNNCellB、BasicLSTMCellC、GRUCellD、MultiRNNCell答案:ABCD36.關(guān)于正則化,描述正確的是:A、正則化可以防止欠擬合B、正則化可以防止過擬合C、dropout具有正則化效果D、relu函數(shù)具有正則化效果答案:BC37.()變換在數(shù)字圖像處理中通常是對于圖像的()提取A、BGRB、歐氏距離C、骨架D、RGB答案:BC38.以下哪些tensorflow的函數(shù)可以對張量進行邏輯運算A、equal()B、not_equal()C、less()D、greater()答案:ABCD39.人工智能的的三個主要流派是指A、符號主義B、連接主義C、行為主義D、機器學(xué)習(xí)答案:ABC40.以下哪條tf語句能夠描述損失函數(shù)A、loss=tf.reduce_mean(tf.square(y-y_datA.)B、loss=tf.reduce_sum(tf.square(y-y_datA.)C、loss=tf.reduce_mean(tf.add(y,y_datA.)D、loss=tf.reduce_mean(tf.subtract(y,y_datA.)答案:AB41.通過試驗超參數(shù)的不同取值可以A、選擇對訓(xùn)練集目標而言的最優(yōu)解B、對于開發(fā)集而言的最優(yōu)解C、超參搜索過程中最想優(yōu)化的東西D、簡化參數(shù)調(diào)試答案:ABC42.在tensorflow平臺中,可以實現(xiàn)兩個向量內(nèi)積運算的語句包括:A、tf.reduce_sumB、tf.multiplyC、tf.reduce_meanD、tf.norm答案:AB43.關(guān)于sigmoid函數(shù),它的性質(zhì)有什么?A、概率平均B、能解決非線性分類問題C、將負的權(quán)值映射到正值D、將正權(quán)值映射到負數(shù)答案:BC44.對于tf.nn.SoftMax函數(shù),它可以:A、用于多類別分類B、映射到概率空間C、壓縮數(shù)據(jù)D、用于卷積層答案:ABC45.語句tf.transpose(x).eval()的意義是:A、對x進行轉(zhuǎn)置B、從tf環(huán)境中獲取x的數(shù)據(jù)交給python環(huán)境C、不對x轉(zhuǎn)置D、不能獲知x的內(nèi)容答案:AB46.動量梯度下降算法是通過()和()控制梯度下降的A、平均值B、指數(shù)加權(quán)平均值C、學(xué)習(xí)率D、方差答案:BC47.語句a=np.array([1,2,3,45,22,100])S=tf.convert_to_tensor(A,name="sss")的正確斷言是:A、a是np指定的張量B、可以實現(xiàn)對tf張量的任意填充C、convert_to_tensor將a轉(zhuǎn)換成tf張量D、S是指向tf張量的結(jié)點答案:ABCD48.深度學(xué)習(xí)網(wǎng)絡(luò)的卷積部分的組成有A、卷積層B、RELUC、POOLING層D、pedding答案:ABC49.人臉檢測系統(tǒng)中,檢測出人臉后,可對人臉進行分析,獲得()等72個關(guān)鍵點A、眼B、口C、鼻D、輪廓答案:ABCD50.反向傳播算法的過程如下:A、初始化聯(lián)結(jié)權(quán)重Wij,對于輸入的訓(xùn)練樣本,求取每個節(jié)點輸出和最終輸出層的輸出值B、對輸出層求取偏導(dǎo)數(shù)C、對于隱藏層求取偏導(dǎo)數(shù)D、求取輸出誤差對于每個權(quán)重的梯度,更新權(quán)重答案:ABCD51.信息熵是對概率空間的整個系統(tǒng)描述,這里的概率空間描述正確的是:A、包含全部樣本點B、可能有多種劃分C、是核函數(shù)D、解決線性分類問題答案:AB52.人臉檢測項目中,使用的圖片格式通常有那幾種?A、PNGB、JPGC、JPEGD、BMP答案:ABCD53.被譽為近代人工智能領(lǐng)域的三駕馬車的人物是:A、楊立坤YanLeCuB、辛頓C、BenGioD、比爾·蓋茨答案:ABC54.對于w_data=np.mat([[1.0,3.0]]).T生成的張量維度是A、維度是(2,1)的張量B、是向量,值為[1,3]C、是矩陣[[1],[3]]D、是向量[[1,3]]的轉(zhuǎn)置答案:ACD55.Sigmoid激活函數(shù)的用途是:A、解決非線性分類B、數(shù)據(jù)壓縮至(0,1)C、是核函數(shù)D、解決線性分類問題答案:AB56.語句中:tensorflow.truncated_normal(shape,mean,stddev)以下說法正確的是A、shape是張量形狀B、正態(tài)隨機數(shù)填充C、隨機數(shù)需截斷D、方差是stddev答案:ABC57.人臉檢測的圖片通常有那幾種類型?A、LIVE表示生活照;B、IDCARD表示身份證芯片照;C、WATERMARK表示帶水印證件照;D、CERT表示證件照片;答案:ABCD58.要抽象和展示MathematicalModel通常會使用()等方式A、數(shù)學(xué)符號B、數(shù)學(xué)式子C、程序D、圖形答案:ABCD59.以下哪些框架可以用于深度學(xué)習(xí)領(lǐng)域A、caffeB、torchC、tensorflowD、mxnet答案:ABCD60.在圖像處理中,在顏色RGB建立三維向量的距離空間,能A、實現(xiàn)顏色分類B、計算兩種顏色的差別C、計算兩個圖像差別D、與圖像內(nèi)容有關(guān)答案:ABC判斷題1.損失函數(shù),是個數(shù)量函數(shù),張量維度為0A、正確B、錯誤答案:A2.對于概率空間一個任意劃分,其結(jié)果依然是概率空間。A、正確B、錯誤答案:A3.判斷:除了沖激函數(shù),高斯函數(shù)的衰減速度最快。A、正確B、錯誤答案:A4.信息熵是針對有限個概率事件的。A、正確B、錯誤答案:A5.若沒有在超參數(shù)中作出正確的標尺決定,可以通過在均勻標出上選取多個數(shù)據(jù)進行彌補A、正確B、錯誤答案:A6.如果對多元數(shù)量函數(shù)求梯度,結(jié)果是個向量。A、正確B、錯誤答案:A7.Non-MaximumSuppression,簡稱NMS,理解為抑制不是極大值的元素,可以理解為局部最大搜索A、正確B、錯誤答案:A8.處理分類問題一般用神經(jīng)網(wǎng)絡(luò),處理預(yù)測問題用線性回歸。A、正確B、錯誤答案:A9.不論多大的數(shù)據(jù)集,測試集數(shù)量必須保持在30%A、正確B、錯誤答案:B10.BP算法是由學(xué)習(xí)過程由信號的正向傳播與誤差的反向傳播兩個過程組成。由于多層前饋網(wǎng)絡(luò)的訓(xùn)練經(jīng)常采用誤差反向傳播算法,人們也常把將多層前饋網(wǎng)絡(luò)直接稱為BP網(wǎng)絡(luò)A、正確B、錯誤答案:A11.框架TensorFlow靈活的數(shù)值計算用于許多科學(xué)領(lǐng)域A、正確B、錯誤答案:A12.用sigmoid函數(shù)不能將運算映射到概率空間。A、正確B、錯誤答案:B13.風格遷移可以被卷積神經(jīng)網(wǎng)絡(luò)不同激活的內(nèi)部相互關(guān)系所捕捉到。A、正確B、錯誤答案:A14.在古典概率空間,其樣本點對應(yīng)概率必須相等。A、正確B、錯誤答案:A15.張量維度或形狀,是用一個向量描述。A、正確B、錯誤答案:A16.RNN中,LSTM比GRU更加靈活。A、正確B、錯誤答案:A17.歐氏距離是一種很好的相似性度量標準A、正確B、錯誤答案:A18.實踐中,Batch歸一化通常和訓(xùn)練集的mini-batch一起使用A、正確B、錯誤答案:A19.Batch歸一化簡化參數(shù)搜索問題A、正確B、錯誤答案:A20.在使用SOFTMAX函數(shù)時,是將運算結(jié)果從向量空間轉(zhuǎn)化到概率空間。A、正確B、錯誤答案:A21.Tf.summary.histogram()函數(shù)功能是輸出一個直方圖的SummaryprotocolbufferA、正確B、錯誤答案:A22.過擬合是指由于訓(xùn)練樣本不足,導(dǎo)致測試結(jié)果不堪用A、正確B、錯誤答案:B23.RecurrentNeuralNetwork。神經(jīng)網(wǎng)絡(luò)是一種節(jié)點定向連接成環(huán)的人工神經(jīng)網(wǎng)絡(luò)A、正確B、錯誤答案:A24.BP網(wǎng)絡(luò)的輸入輸出關(guān)系實質(zhì)上是一種映射關(guān)系:一個n輸入m輸出的BP神經(jīng)網(wǎng)絡(luò)所完成的功能是從n維歐氏空間向m維歐氏空間中一有限域的連續(xù)映射,這一映射具有高度非線性。A、正確B、錯誤答案:A25.對于形如[[[],[]]]的張量,它的維度向量是[1,2,0]。A、正確B、錯誤答案:A26.深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示A、正確B、錯誤答案:A27.Sigmoid函數(shù)是一個良好的閾值函數(shù),連續(xù),光滑,嚴格單調(diào)A、正確B、錯誤答案:A28.均方損失函數(shù),是個數(shù)量函數(shù),張量維度為1A、正確B、錯誤答案:B29.全連接層無法實現(xiàn)卷積運算,他們互有分工。A、正確B、錯誤答案:A30.Dropout具有歸一化功能A、正確B、錯誤答案:B31.Tf.argmax(vector,1):返回的是vector中的最大值的索引號,如果vector是一個向量,那就返回一個值,如果是一個矩陣,那就返回一個向量,這個向量的每一個維度都是相對應(yīng)矩陣行的最大值元素的索引號A、正確B、錯誤答案:A32.損失函數(shù)中,基于信息熵的損失函數(shù),與平方范數(shù)損失函數(shù)互有矛盾。A、正確B、錯誤答案:B33.用卷積實現(xiàn)圖像特征提取,就是借用共振原理。A、正確B、錯誤答案:B34.在一次學(xué)習(xí)問題中,只能通過一個樣本進行學(xué)習(xí),以能夠認出同一個人。A、正確B、錯誤答案:A35.Padding(填充)屬性定義元素邊框與元素內(nèi)容之間的空間A、正確B、錯誤答案:A36.Yolo采用一個CNN網(wǎng)絡(luò)來實現(xiàn)檢測,是單管道策略,其訓(xùn)練與預(yù)測都是end-to-end,所以Yolo算法比較簡潔且速度快A、正確B、錯誤答案:A37.動量梯度下降法運行速度幾乎總是快于標準的梯度下降算法A、正確B、錯誤答案:A38.CBOW(連續(xù)詞袋)模型的特點是輸入已知上下文,輸出對當前單詞的預(yù)測A、正確B、錯誤答案:A39.在步長迭代運算中,連續(xù)函數(shù)與間斷函數(shù)比較,好處在于,能夠不間斷運算。A、正確B、錯誤答案:A40.T_scope()的含義是在另外一個命名空間來定義變量A、正確B、錯誤答案:A41.常見編碼中,ASC和Unicode的bit位相同。A、正確B、錯誤答案:B42.Print(sess.run(tf.sigmoid(a)))是邏輯回歸A、正確B、錯誤答案:B43.對于損失函數(shù),有多種函數(shù)形式可以表達。A、正確B、錯誤答案:A44

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論