版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
一、選擇題1、AI的英文縮寫是(B)A.Automatic?Intelligence?B.Artifical?IntelligenceC.Automatice?InformationD.Artifical?Information2、1.C)。明斯基?圖靈?麥卡錫馮.諾依曼3、最早的聊天機器人之一、最早通過圖靈測試的程序(C)A.DendralB.ELIZAC.XconD.Deepblue4、哪些學(xué)科是人工智能的基礎(chǔ)(B、D)A.地理學(xué)B.數(shù)學(xué)C.經(jīng)濟學(xué)D.計算機科學(xué)5、第一例專家系統(tǒng)是在(A)領(lǐng)域發(fā)揮作用的A.化學(xué)B.生物C.數(shù)學(xué)D.物理循環(huán)神經(jīng)網(wǎng)絡(luò)的應(yīng)用非常廣泛,以下哪一項不用循環(huán)神經(jīng)網(wǎng)絡(luò)的應(yīng)用(D)語音識別看圖說話視頻預(yù)測D.垃圾分類7、下面不屬于人工智能研究基本內(nèi)容的是(C?)A.?機器感知???B.?機器學(xué)習(xí)????C.?自動化???D.?機器思維8、下列哪個不是人工智能的研究領(lǐng)域(D)A.機器證明B.模式識別C.人工生命D.編譯原理9、1997年5月,著名的“人機大戰(zhàn)”,最終計算機以3.5比2.5的總比分將世界國際象棋棋王卡斯帕羅夫擊敗,這臺計算機被稱為(A)深藍B.IBM?C.深思D.藍天人工智能的含義最早由一位科學(xué)家于1950年提出,并且同時提出一個機器智能的測試模型,請問這個科學(xué)家是CA、明斯基???B、扎德?C、圖靈??D、馮.諾依曼列哪個不是人工智能的研究領(lǐng)域(D)?????A.?機器證明??????B.?模式識別??????C.?人工生命D.?編譯原理12、人工智能是一門(D)A.數(shù)學(xué)和生理學(xué)B.心理學(xué)和生理學(xué) C.語言學(xué)D.綜合性的交叉學(xué)科和邊緣學(xué)科二、填空題反向傳播(Backpropagation)算法有效解決了非線性分類和學(xué)習(xí)的問題。GeoffreyHinton發(fā)明的算法引起了神經(jīng)網(wǎng)絡(luò)的第二次浪潮。3、梯度消失問題直接阻礙了人工智能的進一步發(fā)展,也導(dǎo)致人工智能進入第二次低谷期。4、羅森布拉特第一次將MCP模型用于機器學(xué)習(xí)分類,感知器算法被證明能夠收斂,理論與實踐效果引起第一次神經(jīng)網(wǎng)絡(luò)的浪潮。5、AlexNet模型是一種深度學(xué)習(xí)模型6、Facebook基于深度學(xué)習(xí)技術(shù)的DeepFace項目,在人臉識別方面的準(zhǔn)確率已經(jīng)能達到97%以上7、卷積神經(jīng)網(wǎng)絡(luò)是近年來廣泛應(yīng)用于模式識別、圖像處理等領(lǐng)域的一種高效識別算法。8、在傳統(tǒng)目標(biāo)檢測算法框架中,一般分為三個階段:候選區(qū)域生成、特征提取、分類器分類。9、計算機視覺是賦予機器的感知能力。10、自然語言處理技術(shù)則是賦予機器認知的能力。11、自然語言技術(shù)主要包括了語義理解技術(shù)和語言生成技術(shù)。12、使用自然語言處理技術(shù)去解決某一問題的基本過程包括獲取語料、語料預(yù)處理、特征工程、任務(wù)建模過程。13、語料是語料庫的基本單元。14、自然語言處理技術(shù)中處理的數(shù)據(jù)不再是圖像而是一句話,即序列數(shù)據(jù)。15、循環(huán)神經(jīng)網(wǎng)絡(luò)解決自然語言處理中存在的問題。第二章Tensorflow基本概念、用法、搭建線性回歸模型一、填空題1、Tensorflow使用__圖__來表示計算任務(wù)。2、在TensorFlow2.0中,開發(fā)者可以通過tf.constant方法來創(chuàng)建不同數(shù)據(jù)類型的張量3、維度是用來描述一個張量非常重要的屬性,用于描述張量維數(shù)的數(shù)量,也稱為階。4、一個向量稱為一階張量,一個矩陣或者一個二維數(shù)組稱為二階張量。5、Tensorflow使用___、___可以為任意的操作賦值或者從其中獲取數(shù)據(jù)6、TensorFlow
的主要數(shù)據(jù)類型有____、____、____、____。7、TensorFlow1.x版本中采用的是靜態(tài)圖機制,TensorFlow2.0則采用了動態(tài)圖機制8、使用TensorFlow之前,要先導(dǎo)入TensorFlow框架。導(dǎo)入代碼:import
tensorflow
as
tf9、形狀是用于描述張量內(nèi)部的組織關(guān)系,張量的形狀決定了每個軸上有多少索引可以使用。10、類型轉(zhuǎn)換函數(shù),其函數(shù)原型是:tf.cast(x,
dtype,
name=None)11、計算機視覺方面,經(jīng)常需要將一個張量從一個形狀轉(zhuǎn)換為另外一個形狀,以滿足某種計算需求。TensorFlow2.0提供形狀轉(zhuǎn)換函數(shù)reshape。12、在TensorFlow2.0中通過tf.Variable()方法創(chuàng)建一個變量。13、模型訓(xùn)練前,模型的參數(shù)一般都是通過隨機初始化給定,TensorFlow2.0提供了隨機初始化組件tf.random。14、TensorFlow2.0提供的tf.math組件包含了深度學(xué)習(xí)常用到的數(shù)學(xué)運算方法。15、實際開發(fā)過程中,當(dāng)完成數(shù)據(jù)收集后都需要對原始數(shù)據(jù)進行數(shù)據(jù)預(yù)處理的操作。16、采用機器學(xué)習(xí)或者深度學(xué)習(xí)技術(shù)進行模型訓(xùn)練,一個關(guān)鍵的技術(shù)就是損失函數(shù)的定義,其往往決定最后模型的效果。17、訓(xùn)練一個機器學(xué)習(xí)或者深度學(xué)習(xí)模型的本質(zhì),其實就是求解一個函數(shù)的系數(shù)。工智能領(lǐng)域把求解方法稱為優(yōu)化器。18、模型訓(xùn)練本質(zhì)就是一個不斷迭代的過程,可以為為如下幾個常見步驟:計算預(yù)測值、計算損失值、計算損失函數(shù)中的梯度、更新梯度的值、打印每一輪的損失值。19、在開發(fā)的過程中,一旦完成了模型訓(xùn)練,就需要對模型的效果進行驗證。選擇題1.TensorFlow中的基本數(shù)據(jù)類型不包含(D)A.數(shù)值型B.字符串型C.布爾型D.字符型2.對于以下兩個張量,如何實現(xiàn)這兩個張量的合并而不產(chǎn)生新的維度(A)import
tensorflow
as
tfa
=
tf.random.normal([4,
35,
8])b
=
tf.random.normal([6,
35,
8])#
合并張量#TodoA.tf.concat([a,
b],
axis=0)B.tf.stack([a,
b],
axis=0)3.以下對張量進行等長切割的操作正確的是(A)import
tensorflow
as
tfx
=
tf.random.normal([10,35,8])result
=
tf.split(x,axis=0,num_or_size_splits=10)result
=
tf.split(x,axis=0,num_or_size_splits=[4,2,2,2])4.如何計算∞
?范數(shù)(D)import
numpy
as
npimport
tensorflow
as
tfx
=
tf.ones([2,2])tf.norm(x,ord=0)tf.norm(x,ord=1)
tf.norm(x,ord=2)
tf.norm(x,ord=np.inf)5.如何求解張量在某個維度上的均值(C)import
tensorflow
as
tfx
=
tf.random.normal([4,10])A.tf.reduce_max(x,axis=1)B.tf.reduce_min(x,axis=1)C.tf.reduce_mean(x,axis=1)D.tf.reduce_sum(x,axis=1)6.如何比較兩個張量是否相等(B)A.tf.math.not_equal(a,
b)B.tf.equal(a,
b)C.tf.math.greater(a,
b)D.tf.math.less(a,
b)7.以下張量b填充后等到的數(shù)組形狀為(A)a
=
tf.constant([1,2,3,4,5,6])b
=
tf.constant([7,8,1,6])b
=
tf.pad(b,
[[0,2]])A.[7,8,1,6,0,0]B.[7,8,1,6,1,1]C.[7,8,1,6,2,2]D.[0,0,7,8,1,6]8.對于下列張量復(fù)制后得到的張量shape值為(B)x
=
tf.random.normal([4,32,32,3])tf.tile(x,[2,3,3,1])A.(6,35,35,4)B.(8,96,96,3)C.(8,96,96,4)D.(8,96,96,1)9、張量arr1=[[1,4,5],[5,1,4]],arr2=array[[1,3,5],[3,5,2]]tf.mod(arr1,arr2)的結(jié)果是:(C)A.array([[2,7,10],[8,6,6]])B.array([[1,1,1],[1,0,2]])C.array([[[0,1,2],[0,0,2]],[[0,1,2],[0,0,2]]])D.array([[1.,1.33333333,1.],[1.66666667,0.2,2.]])10、兩個矩陣,a=[[0,1,2],[3,4,5]],b=[[0,1],[2,3],[4,5]],tf.matmul(a,b)的結(jié)果是(A)A.[[10,13],[28,40]]B.[[28,40],[10,13]]C.[[15,18],[23,37]]D.[[10,13],[25,43]]選擇題1.最早的神經(jīng)元數(shù)學(xué)模型是(D)A.BP模型B.感知器模型C.CNN模型D.M-P模型解釋:最早的形式化神經(jīng)元數(shù)學(xué)模型是M-P模型,由美國心理學(xué)家McCulloch和數(shù)理邏輯學(xué)家Pitts合作于1943年提出2.生物神經(jīng)元包括樹突和軸突,其中樹突相當(dāng)于(),軸突相當(dāng)于(A)A.輸入端處理端B.輸出端處理端C.輸入端輸出端D.輸出端輸入端3.下列哪個函數(shù)不可以做激活函數(shù)?CA.y=tanh(x)B.y=sin(x)C.y=2xD.y=sigmiod(x)4.tanh激活函數(shù)通常比隱藏層單元的sigmoid激活函數(shù)效果更好,因為其輸出的平均值更接近于零,因此它將數(shù)據(jù)集中在下一層是更好的選擇,請問正確嗎?AA.TrueB.False5.下面哪個選項不是神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中過擬合的防止方法?BA.提前終止B.增加學(xué)習(xí)率C.L2正則化D.dropou6.卷積神經(jīng)網(wǎng)絡(luò)的正向傳播過程是指從輸入層到輸出層的信息傳播過程,該過程包括的操作有(D)A.卷積操作B.池化操作C.Relu操作D.全連接分類7.以下哪些結(jié)構(gòu)屬于BP神經(jīng)網(wǎng)絡(luò)DA.輸入層B.隱含層C.輸出層D.卷積層8.前饋神經(jīng)網(wǎng)絡(luò)通過誤差后向傳播(BP算法)進行參數(shù)學(xué)習(xí),這是一種(A)機器學(xué)習(xí)手段A.監(jiān)督學(xué)習(xí)B.半監(jiān)督學(xué)習(xí)C.無監(jiān)督學(xué)習(xí)D.無監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的結(jié)合9.下面對前饋神經(jīng)網(wǎng)絡(luò)描述不正確的是(C)A.層與層之間通過“全連接”進行連接,即兩個相鄰層之間神經(jīng)元完全成對連接B.各個神經(jīng)元接受前一級神經(jīng)元的輸入,并輸出到下一級C.同一層內(nèi)神經(jīng)元之間存在全連接D.同一層內(nèi)的神經(jīng)元相互不連接10.下面對前饋神經(jīng)網(wǎng)絡(luò)這種深度學(xué)習(xí)方法描述不正確的是(C)A.實現(xiàn)了非線性映射B.是一種端到端學(xué)習(xí)的方法C.隱藏層數(shù)目大小對學(xué)習(xí)性能影響不大D.是一種監(jiān)督學(xué)習(xí)的方法填空題進行深度學(xué)習(xí)應(yīng)用開發(fā)的第一步也是至關(guān)重要的一步就是數(shù)據(jù)處理。TensorFlow2提供了函數(shù)tf.keras.utils.get_file用于下載數(shù)據(jù)集。在實際開發(fā)過程中,開發(fā)人員都需要對數(shù)據(jù)進行分析。通過分析,選取合適的數(shù)據(jù)以及相對應(yīng)的數(shù)據(jù)預(yù)處理方法是項目開發(fā)成功的關(guān)鍵。借助seaborn工具(安裝命令:pipinstallseaborn)可以對數(shù)據(jù)進行數(shù)據(jù)可視化。散點矩陣圖可以用于粗略揭示數(shù)據(jù)中,不同列之間的相關(guān)性。數(shù)據(jù)送入模型進行訓(xùn)練之前,一步很重要的步驟就是清洗無效數(shù)據(jù)。開發(fā)者想獲取指定某連續(xù)幾行的數(shù)據(jù),如第30行到49行,可以通過切片的方式獲取。pandas提供無效數(shù)據(jù)統(tǒng)計函數(shù)isnan。處理無效數(shù)據(jù)的方法有很多種,比如填充Nan數(shù)據(jù)、直接刪除對應(yīng)的數(shù)據(jù)。在機器學(xué)習(xí)領(lǐng)域,某種值的遞增本身就有特殊的意義,建議采用序號唯一編碼技術(shù)。把每一項數(shù)據(jù)視為一個長度為N的數(shù)組,數(shù)據(jù)類型有多少種,數(shù)組長度就為多少。數(shù)組中每一個元素取值只有0、1兩種形式,并且每一個數(shù)組中只有一項是1。這種編碼技術(shù)是獨熱(ont-hot)編碼。自然語言處理中的向量化先確定一個N項的數(shù)組,每個數(shù)組元素值通常都是用浮點數(shù)據(jù),能代表更多的分類。數(shù)據(jù)處理的最后一步就是數(shù)據(jù)集拆分,部分數(shù)據(jù)集用于評估模型性能。通常在機器學(xué)習(xí)中將數(shù)據(jù)拆分為三份:訓(xùn)練集(TrainingDataset)、驗證集(ValidationDataset)、測試集(TestDataset)。數(shù)據(jù)集拆分有二種常見的方法:留出法和K-折交叉驗證法人工神經(jīng)元(ArtificialNeuron),是構(gòu)成神經(jīng)網(wǎng)絡(luò)的基本單元,其主要是模擬生物神經(jīng)元的結(jié)構(gòu)和特性,接收一組輸入信號并產(chǎn)生。現(xiàn)代人工神經(jīng)元模型由連接、求和節(jié)點和激活函數(shù)組成。激活函數(shù)對人工神經(jīng)網(wǎng)絡(luò)有非常重要的意義,能夠提升網(wǎng)絡(luò)的非線性能力、環(huán)節(jié)模型訓(xùn)練期間梯度消失的問題、加速網(wǎng)絡(luò)收斂等。Sigmoid函數(shù)可以使輸出平滑而連續(xù)地限制在0-1,在0的附近表現(xiàn)為近視線性函數(shù),而遠離0的區(qū)域表現(xiàn)出非線性,輸入越小,越接近于0;輸入越大,越接近于1。Tanh函數(shù)繼承自sigmoid函數(shù),改進了sigmoid變化過于平緩的問題,它將輸入平滑地限制在~1-1的范圍內(nèi)?,F(xiàn)代深度學(xué)習(xí)技術(shù),模型訓(xùn)練一般采用梯度下降法來更新參數(shù)。損失函數(shù)用于描述網(wǎng)絡(luò)模型的預(yù)測值和真實值之間的差距大小,是衡量神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)質(zhì)量的關(guān)鍵。模型評估是深度學(xué)習(xí)應(yīng)用開發(fā)非常重要的一個環(huán)節(jié),直接影響該模型是否可以用于實際生產(chǎn)環(huán)境。為了更好的刻畫訓(xùn)練過程,可以通過可視化訓(xùn)練過程來幫助開發(fā)者更好的掌握模型訓(xùn)練的過程。為了解決過擬合現(xiàn)象,一般采用正則化技術(shù)。一選擇題1、關(guān)于MNIST,下列說法錯誤的是(C)。A.是著名的手寫體數(shù)字識別數(shù)據(jù)集B.有訓(xùn)練集和測試集兩部分C.訓(xùn)練集類似人學(xué)習(xí)中使用的各種考試試卷?D.測試集大約包含10000個樣本和標(biāo)簽2、以下選項中,機器學(xué)習(xí)算法真正用來“學(xué)習(xí)”的數(shù)據(jù)是(B)A.驗證集B.訓(xùn)練集C.測試集D.超參數(shù)集3、對于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是:()
A增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會增加測試數(shù)據(jù)集的分類錯誤率
B減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯誤率
C增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯誤率4預(yù)測分析中將原始數(shù)據(jù)分為訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集等,其中訓(xùn)練數(shù)據(jù)集的作用在于(C)。A、用于對模型的效果進行無偏的評估B、用于比較不同模型的預(yù)測準(zhǔn)確度C、用于構(gòu)造預(yù)測模型D、用于選擇模型5、什么樣的數(shù)據(jù)不適合用深度學(xué)習(xí)()A、數(shù)據(jù)集太小B、數(shù)據(jù)集太大C、數(shù)據(jù)集沒有局部相關(guān)性D、數(shù)據(jù)集局部相關(guān)性極強6、學(xué)習(xí)沒有標(biāo)簽的數(shù)據(jù)集的機器學(xué)習(xí)方法是?()
A、監(jiān)督學(xué)習(xí)
B、無監(jiān)督學(xué)習(xí)
C、半監(jiān)督學(xué)習(xí)
D、強化學(xué)習(xí)7、可以通過(C)數(shù)據(jù)處理手段實現(xiàn)去除圖像冗余部分。A.圖像歸一化B.均值C.白化D.圖像灰度化8、圖像歸一化的主要作用是(A)。A.將圖像按照一定的標(biāo)準(zhǔn)形式進行標(biāo)準(zhǔn)化處理,使圖像能具有抵抗幾何變換的能力B.去除圖像噪聲部分C.改正圖像采集系統(tǒng)的系統(tǒng)誤差和儀器位置的隨機誤差D.矩陣維數(shù)下降,運算速度大幅度提高,并且梯度信息仍然保留9、在tensorflow開發(fā)環(huán)境下,可以使用(A)方法來完成圖像灰度化的操作。A.tensorflow.image.rgb_to_grayscale()B.tf.image.rgb_to_hsv()C.tf.image.rgb_to_yiq()D.tf.image.rgb_to_yuv()10、One-Hot編碼,又稱為一位有效編碼,主要是采用N位狀態(tài)寄存器來對N個狀態(tài)進行編碼,每個狀態(tài)都由他獨立的寄存器位,并且在任意時候只有一位有效。它主要是用來解決類別型數(shù)據(jù)的離散值問題的。假定對籃球,足球,乒乓球,羽毛球進行獨熱編碼,其中籃球的編碼結(jié)果為(A)。A.[1000]B.[0100]C.[0010]D.[0001]11、LabelEncoder編碼對不連續(xù)的數(shù)字或者文本進行編號,將其轉(zhuǎn)換成連續(xù)的數(shù)值型變量。假定對["paris","paris","tokyo","amsterdam"]進行l(wèi)abelencoder編碼,那么得到的結(jié)果應(yīng)該是(A)。A.[1120]B.[0012]C.[1120]D.[2201]12、全連接神經(jīng)網(wǎng)絡(luò)簡稱是(C)。A.CNNB.RNNC.DNND.RCNN13、全連接神經(jīng)網(wǎng)絡(luò)一般由(B)幾部分組成。A.輸入層,池化層,輸出層B.輸入層,隱藏層,輸出層C.輸入層,輸出層D.輸入層,卷積層,輸出層二填空題MNIST是一個非常著名的手寫數(shù)字數(shù)據(jù)集,由紐約大學(xué)教授YannLeCun負責(zé)構(gòu)建。TensorFlow2也提供了自動下載MNIST數(shù)據(jù)集函數(shù)keras.datasets.mnist.load_data。數(shù)字圖像本質(zhì)就是一個二維數(shù)組。TensorFlow2中的MNIST數(shù)據(jù)存儲是以npz格式存儲,因此是無法再電腦用圖片編輯器軟件打開的。在MNIST數(shù)據(jù)集中返回訓(xùn)練集的形狀為(60000,28,28)的三維數(shù)組。全連接神經(jīng)網(wǎng)絡(luò)對單個數(shù)據(jù)要求輸入數(shù)據(jù)為向量,而不是二維數(shù)組。因此,需要將的二維數(shù)組轉(zhuǎn)換為一維數(shù)組。TensorFlow2中保存的MNIST原始數(shù)據(jù)的數(shù)據(jù)類型是uint8,但是在后續(xù)的處理中肯定是會涉及到浮點數(shù)操作,因此需要將這些數(shù)據(jù)轉(zhuǎn)換為浮點數(shù)。MNIST的標(biāo)簽編碼方式是序列化唯一。MNIST數(shù)據(jù)集中圖片的像素值是0-255范圍內(nèi)的,但是不同的圖片的像素分布差別很大。小像素值很容易在忽略的過程中被忽略掉,這對模型最終的性能影響是非常大的。為了解決此類問題,可以通過對像素值的縮放來緩解。常見的一種方法就是圖像歸一化,即將所有像素的值縮放到0-1范圍內(nèi)。手寫數(shù)字識別是一個3層的全連接神經(jīng)網(wǎng)絡(luò)模型。分類任務(wù)的評估標(biāo)準(zhǔn)一般采用準(zhǔn)確率來進行評估。啟動訓(xùn)練,程序會自動在腳本所在的目錄下創(chuàng)建一個checkpoint文件夾,所有的權(quán)重模型都保存在該文件夾下。通過加載指定權(quán)重實現(xiàn)在模型訓(xùn)練程序完全停止后進行模型測試,或者在測試中間保存的某一個模型的性能。選擇題1、卷積神經(jīng)網(wǎng)絡(luò)的簡稱(C)。A.KNNB.DNNC.CNND.FNN2、卷積層的主要作用是(A)。A.提取輸入的不同特征B.實現(xiàn)線性到非線性的轉(zhuǎn)換C.提取輸入的主要特征D.降低網(wǎng)絡(luò)開銷,減少參數(shù)量3、在典型的卷積神經(jīng)網(wǎng)絡(luò)中,(C)層是明顯起到減少網(wǎng)絡(luò)開銷,減少參數(shù)量。A.卷積層B.全連接層C.池化層D.展開層4、典型的卷積神經(jīng)網(wǎng)絡(luò)主要由(A)幾層組成。A.卷積層,池化層,全連接層B.卷積層,全連接層,輸出層?C.卷積層,池化層,輸出層?D.卷積層,全連接層5、卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN,有時也寫作ConvNet)是一種具有局部連接、權(quán)重共享等特性的前饋神經(jīng)網(wǎng)絡(luò)。而對于卷積層神經(jīng)網(wǎng)絡(luò)而言最獨特的卷積層是其非同凡響的精髓所在,而卷積層的核心在于卷積核,下列關(guān)于卷積核描述錯誤的是(D)。A.可以看作對某個局部的加權(quán)求和B.對應(yīng)局部感知,它的原理是在觀察某個物體時我們既不能觀察每個像素也不能一次觀察整體,而是先從局部開始認識C.卷積是圖像處理常用的方法,給定輸入圖像,在輸出圖像中每一個像素是輸入圖像中一個小區(qū)域中像素的加權(quán)平均,其中權(quán)值由一個函數(shù)定義,這個函數(shù)稱為卷積核D.將圖像像素進行堆疊獲取特征6、下列關(guān)于池化層的相關(guān)作用的描述錯誤的是(A)。A.擴展圖像,增強特征明顯性B.保留主要的特征同時減少參數(shù)和計算量C.防止過擬合,提高模型泛化能力D.特征不變性,主要特征不會受到影響7、池化層一般而言使用的最多的是最大池化層和平均池化層,下列關(guān)于它們描述錯誤的是(A)。A.平均池化適用于前景亮度小于背景亮度時B.最大池化適用于前景亮度小于背景亮度時C最大池化可以提取特征紋理,平均池化可以保留背景信息D.平均池化使用于前景亮度大于背景亮度時8、在卷積層中,我們也需要為其選擇激活函數(shù),最常用的是(A)。A.reluB.softmaxC.sigmoidD.tanh9、在多分類神經(jīng)網(wǎng)絡(luò)構(gòu)建過程中,對于最終輸出dense層的激活函數(shù)選擇,我們一般可以選擇(B)。A.tanhB.softmaxC.reluD.sigmoid10、將多維轉(zhuǎn)換成一維,常用于卷積和全連接之間的是(D)。A.池化層B.DropoutC.ConvolutionD.Flatten填空題卷積神經(jīng)網(wǎng)絡(luò)是一種具有局部連接、權(quán)重共享等特性的前饋神經(jīng)網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)的人工神經(jīng)元隱含層內(nèi)的卷積核參數(shù)共享和層間連接的稀疏性使得卷積神經(jīng)網(wǎng)絡(luò)能夠以較小的計算量對格點化特征,在圖像處理與語音識別等方面有大量的應(yīng)用。LeNet-5的結(jié)構(gòu)成為現(xiàn)代卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ),這種卷積層、池化層堆疊的結(jié)構(gòu)可以保持輸入圖像的平移不變性,自動提取圖像特征。卷積神經(jīng)網(wǎng)絡(luò)主要由卷積層、池化層和全連接層三種網(wǎng)絡(luò)層構(gòu)成。卷積神經(jīng)網(wǎng)絡(luò)中,輸入/輸出數(shù)據(jù)稱之為特征圖。卷積層中參數(shù)的數(shù)量是所有卷積核中參數(shù)的總和,相較于全接連的方式,極大地減少了參數(shù)的數(shù)量。二維卷積是在兩個維度上以一定的間隔滑動一個二維的窗口,并在窗口內(nèi)進行乘加運算。為了保存圖像邊緣的信息,在進行卷積之前,需要向輸入數(shù)據(jù)的周圍補充一圈固定的常數(shù),在深度學(xué)習(xí)中該操作稱為填充。步長是指卷積核窗口滑動的位置間隔。填充和步長都會改變卷積輸出數(shù)據(jù)的大小現(xiàn)代深度學(xué)習(xí)的輸入數(shù)據(jù)通常都是三維的數(shù)據(jù),如一張圖片,不僅僅有寬和高兩個維度,還有通道維度上的數(shù)據(jù)。卷積核的通道數(shù)與輸入數(shù)據(jù)的通道數(shù)一致的,因此三維數(shù)據(jù)操作只需要在寬和高兩個方向進行滑窗操作。在處理圖像這樣的高維度輸入時,讓每個神經(jīng)元都與前一層中的所有神經(jīng)元進行全連接是不現(xiàn)實的。相反,讓每個神經(jīng)元只與輸入數(shù)據(jù)的一個局部區(qū)域連接。該連接的空間大小叫做神經(jīng)元的感受野。為了降低計算量通常同一通道的卷積核參數(shù)保持不變,稱為權(quán)重共享。在卷積層,一般采用多組卷積核提取不同特征。池化層,該層的作用是對網(wǎng)絡(luò)中的特征進行選擇,降低特征數(shù)量,從而減少參數(shù)數(shù)量和計算開銷。LeNet-5網(wǎng)絡(luò)從左到右分別是輸入層、卷積層C1、池化層S2、卷積層C3、池化層S4、卷積層C5、全連接層F6以及輸出層。選擇題1、卷積神經(jīng)網(wǎng)絡(luò)中通常包含卷積層和全連接層,它們的主要作用分別是(B)A.進行分類、提取特征B.提取特征、進行分類C.提取特征、提取特征2、關(guān)于神經(jīng)網(wǎng)絡(luò),下列說法正確的是?(C)A.增加網(wǎng)絡(luò)層數(shù),不會增加測試集分類錯誤率B.增加網(wǎng)絡(luò)層數(shù),一定會增加訓(xùn)練集分類錯誤率C.減少網(wǎng)絡(luò)層數(shù),可能會減少測試集分類錯誤率D.減少網(wǎng)絡(luò)層數(shù),一定會減少訓(xùn)練集分類錯誤率3、下列哪種算法可以用神經(jīng)網(wǎng)絡(luò)構(gòu)建?(B)1.K-NN最近鄰算法2.線性回歸3.邏輯回歸A.1and2B.2and3C.1,2and3D.Noneoftheabove4、下面哪句話是正確的?(C)A.機器學(xué)習(xí)模型的精準(zhǔn)度越高,則模型的性能越好B.增加模型的復(fù)雜度,總能減小測試樣本誤差C.增加模型的復(fù)雜度,總能減小訓(xùn)練樣本誤差D.以上說法都不對5、評估模型之后,得出模型存在偏差,下列哪種方法可能解決這一問題:A.減少模型中特征的數(shù)量B.向模型中增加更多的特征C.增加更多的數(shù)據(jù)D.B和CE.以上全是6、點擊率的預(yù)測是一個數(shù)據(jù)比例不平衡問題(比如訓(xùn)練集中樣本呈陰性的比例為99%,陽性的比例是1%),如果我們用這種數(shù)據(jù)建立模型并使得訓(xùn)練集的準(zhǔn)確率高達99%。我們可以得出結(jié)論是:A.模型的準(zhǔn)確率非常高,我們不需要進一步探索B.模型不好,我們應(yīng)建一個更好的模型C.無法評價模型D.以上都不正確7、監(jiān)獄人臉識別準(zhǔn)入系統(tǒng)用來識別待進入人員的身份,此系統(tǒng)---共包括識別4種不同的人員:獄警,小偷,送餐員,其他。下面哪種學(xué)習(xí)方法最適合此種應(yīng)用需求(B)A.二分類問題B.多分類問題C.層次聚類問題D.k-中心點聚類問題8、AlexNet的成功吸引了越來越多的學(xué)者研究卷積神經(jīng)網(wǎng)絡(luò)。關(guān)于AlexNet網(wǎng)絡(luò),下列哪一項不屬于它的重要貢獻點(C)。A.AlexNet使用ReLU作為網(wǎng)絡(luò)中的激活函數(shù),極大緩解了simgoid函數(shù)與tanh函數(shù)在輸入較大或較小時進入飽和區(qū)后梯度消失的問題B.AlexNet中使用的是重疊的最大池化,可以提升特征的豐富性,訓(xùn)練時對擬合也有所幫助。C.AlexNet將Dropout運用到最后的幾個全連接層中,可以有效減少模型參數(shù)量,減少開銷。D.AlexNet中局部響應(yīng)歸一化方法(LocalResponseNormalization,LRN),增強模型的泛化能力。9、下列關(guān)于數(shù)據(jù)增強的描述的錯誤的是(D)。A.一種通過讓有限的數(shù)據(jù)產(chǎn)生更多的等價數(shù)據(jù)來人工擴展訓(xùn)練數(shù)據(jù)集的技術(shù)B.克服訓(xùn)練數(shù)據(jù)不足的有效手段C.由于生成的數(shù)據(jù)與真實數(shù)據(jù)之間的差異,也不可避免地帶來了噪聲問題D.可以顯著提升圖像質(zhì)量10、下列不屬于數(shù)據(jù)增強的手段的是(C)。A.圖像翻轉(zhuǎn)B.圖像裁剪C.圖像灰度化D.圖像縮放填空題TensorFlow2提供了一個圖片數(shù)據(jù)生成器類ImageDataGenerator,用于快速實現(xiàn)讀取數(shù)據(jù)并實時數(shù)據(jù)增強的功能。數(shù)據(jù)增強是一種通過讓有限的數(shù)據(jù)產(chǎn)生更多的等價數(shù)據(jù)來人工擴展訓(xùn)練數(shù)據(jù)集的技術(shù)。TensorFlow2提供了image組件,包含用于圖像處理和解碼編碼操作的各種功能。數(shù)據(jù)增強的方法分為兩種方式,一種稱為線上增強,另外一種增強方式稱為離線增強。訓(xùn)練集與測試集合中可能存在潛在的位置偏差,使得模型在測試集中很難達到訓(xùn)練集中的效果,幾何變換可以有效地克服訓(xùn)練數(shù)據(jù)中存在的位置偏差,而且易于實現(xiàn)。使用TensorFlow2進行圖片讀取需要分兩步走,第一步使用read_file函數(shù)讀取文件,第二步使用解碼函數(shù)decode_jpeg進行圖片解碼。read_file讀取圖片的路徑必須是全英文的,否則會報錯。圖像縮放是基礎(chǔ)的圖像幾何變換,在計算機視覺任務(wù)中基礎(chǔ)被使用到。圖像翻轉(zhuǎn)有兩種,一種是水平翻轉(zhuǎn),另一種是垂直翻轉(zhuǎn)。圖像翻轉(zhuǎn)實際上是一種特殊的圖像旋轉(zhuǎn),旋轉(zhuǎn)也是一種常見并有效的數(shù)據(jù)增強手段。TensorFlow2中只是提供了一個逆時針旋轉(zhuǎn)90度的旋轉(zhuǎn)函數(shù),并不支持任意角度旋轉(zhuǎn)。卷積神經(jīng)網(wǎng)絡(luò)模型要識別出不同大小的同一目標(biāo)是困難的,除非數(shù)據(jù)集中有不同大小的目標(biāo)。圖像裁剪可以很好的模擬出遠處和近處的目標(biāo)。產(chǎn)品實際應(yīng)用的過程中會有夜晚的情況。為了提高模型的泛化能力,調(diào)整圖像亮度以此增加夜晚的樣本數(shù)是一種有效并常用的手段。AlexNet的輸入是ImageNet中歸一化后的RGB圖像樣本,每張圖像的尺寸被裁切到了224X224,AlexNet中包含5個卷積層和3個全連接層,輸出為1000類的Softmax層。AlexNet中局部響應(yīng)歸一化方法,通過LRN層對局部神經(jīng)元的活動創(chuàng)建競爭機制,使得其中響應(yīng)較大的神經(jīng)元值變得更大,反饋較小的神經(jīng)元得到抑制,這樣可增強模型的泛化能力。AlexNet對ImageNet訓(xùn)練集中的樣本做了幾種數(shù)據(jù)增加的組合,使得樣本數(shù)據(jù)有了極大的增長。池化可以理解為對同一特征圖中相鄰神經(jīng)元輸出的一種概括。CNN中普遍使用平均池化。而在AlexNet中則全部使用最大池化,避免平均池化的模糊化效果。選擇題1、下列關(guān)于tensorboard的描述錯誤的是(D)。A.Tensorboard是tensorflow內(nèi)置的一個可視化工具,它通過將tensorflow程序輸出的日志文件的信息可視化使得tensorflow程序的理解、調(diào)試和優(yōu)化更加簡單高效。B.Tensorboard的可視化依賴于tensorflow程序運行輸出的日志文件,因而tensorboard和tensorflow程序在不同的進程中運行。C.Tensorboard的可視化功能很豐富。SCALARS欄目展示各標(biāo)量在訓(xùn)練過程中的變化趨勢,如accuracy、crossentropy、learning_rate、網(wǎng)絡(luò)各層的bias和weights等標(biāo)量。D.tensorboard可以顯著的幫助模型加快訓(xùn)練2、tensorboard不支持什么數(shù)據(jù)類型(C)。A.標(biāo)量B.圖片C.視頻D.音頻3、下列關(guān)于tensorboard的描述錯誤的是(D)。A.TensorBoard的工作原理其實就是將訓(xùn)練過程中的數(shù)據(jù)存儲并寫入到硬盤中,數(shù)據(jù)存儲需要按照TensorFlow的標(biāo)準(zhǔn)進行存儲。B.tensorboard可以通過TensorFlow2提供的回調(diào)函數(shù)tf.keras.callbacks.TensorBoard實現(xiàn)可視化功能或者通過tf.summary組件記錄訓(xùn)練過程。C.在TensorBoard中顯示圖片,需要通過函數(shù)tf.summary.image實現(xiàn)D.tensorboard需要單獨安裝,安裝完tensorflow后另外安裝4、下列關(guān)于tensorboard使用的相關(guān)描述正確的是(D)。A.確保events文件生成。啟動訓(xùn)練程序,在訓(xùn)練的過程中TensorBoard會在logs文件下生成相關(guān)數(shù)據(jù)。B.啟動終端。讀者如果是windows系統(tǒng)啟動cmd命令行終端。如果是Linux系統(tǒng)啟動Terminal命令行終端,輸入tensorboard--logdir=文件所在的路徑C.最后瀏覽器輸入地址:http://localhost:6006/D.以上都是5、tensorflow提供了兩種訓(xùn)練方式,這兩種方式是(A),由于訓(xùn)練方式的不同使用tensorboard的方式也有所不同。A.tf.keras模塊的Model.fit()和tf.GradientTape()求解梯度B.tf.keras模塊的Model.fit()和tf.keras模塊的Model.fit_generator()6、下列關(guān)于tensorboard工作原理的描述正確的是(D)。A.將訓(xùn)練過程中的數(shù)據(jù)存儲并寫入到硬盤中,數(shù)據(jù)存儲需要按照TensorFlow的標(biāo)準(zhǔn)進行存儲B.有關(guān)于TensorBoard的文件都存儲在logs文件夾中,該文件夾由開發(fā)者指定C.logs文件夾下有train、validation文件夾,分別保存著訓(xùn)練和驗證的相關(guān)數(shù)據(jù),如果開發(fā)者設(shè)置驗證的代碼的話D.以上都是7、對于可視化卷積神經(jīng)網(wǎng)絡(luò),其中的可視化的方法一般是(A)幾種方法。A.非參數(shù)化方法和參數(shù)化方法B.非參數(shù)化方法C.參數(shù)化方法D.以上都不是填空題TensorBoard可視化可以很好解決訓(xùn)練期間的可視化問題,它可以實時跟蹤模型訓(xùn)練中所有的信息。TensorBoard支持如下幾種類型數(shù)據(jù):標(biāo)量、圖片、音頻、圖、數(shù)據(jù)分布、文本。TensorFlow2.0中訓(xùn)練模型一共有兩種方式:使用keras模塊的Model.fit()和使用tf.GradientTape()求解梯度TensorBoard的工作原理其實就是將訓(xùn)練過程中的數(shù)據(jù)存儲并寫入到硬盤中,數(shù)據(jù)存儲需要按照TensorFlow的標(biāo)準(zhǔn)進行存儲。有關(guān)于TensorBoard的文件都存儲在logs文件夾中,該文件夾由開發(fā)者指定。logs文件夾下有train、validation文件夾,分別保存著訓(xùn)練和驗證的相關(guān)數(shù)據(jù)。使用TensorBoard需要3步走:(1)確保events文件生成(2)啟動終端(3)瀏覽器中打開TensorBoard。TensorBoard的左側(cè)工具欄中的Smoothing表示在繪制數(shù)據(jù)時對圖像進行平滑處理。通過平滑處理可以更好的顯示參數(shù)的整體變化趨勢。在TensorBoard中顯示圖片,需要通過函數(shù)summary.image實現(xiàn)。tf.summary.image需要一個包含(batch_size,height,width,channels)的4維張量,而讀取的MNIST的圖像一個2維的張量。因此在可視化之前需要對圖像形狀進行重塑。TensorBoard會將圖像會縮放到默認大小,以方便查看。如果要查看未縮放的原始圖像,需要選中左上方的“Showactualimagesize”。為了同時可以記錄基本指標(biāo)數(shù)據(jù)和記錄圖像等其他數(shù)據(jù),TensorFlow2提供了一種可自定義的回調(diào)函數(shù)keras.callbacks.LambdaCallback。??梢暬椒ǚ譃閮纱箢悾活愂欠菂?shù)化方法,而另一類方法著重分析卷積核中的參數(shù),使用參數(shù)重構(gòu)出圖像。選擇題1、下列關(guān)于各個成熟網(wǎng)絡(luò)模型的描述正確的是(D)。A.VGGNet由牛津大學(xué)的視覺幾何組(VisualGeometryGroup)提出的卷積神經(jīng)網(wǎng)絡(luò)模型B.Inception系列網(wǎng)絡(luò)是谷歌公司提出的,其網(wǎng)絡(luò)的核心模塊稱為Inception,共有4個版本C.DenseNet模型提出了一種密集連接模塊(DenseBlock),密集連接模塊是殘差模塊的改進版D.以上均正確2、下列關(guān)于vggnet描述中,正確的是(D)。A.基于尺寸較小的卷積核,增加網(wǎng)絡(luò)深度有效提升了模型的效果B.結(jié)構(gòu)簡單,模型的泛化能力好C.使用ReLU作為激活函數(shù),在全連接層使用Dropout防止過擬合D.以上均正確3、下列關(guān)于inception網(wǎng)絡(luò)描述中,正確的是(D)。A.網(wǎng)絡(luò)的核心模塊稱為Inception,共有4個版本B.使用在3×3和5×5卷積層之前添加額外的1×1卷積層來控制輸入的通道數(shù),降低計算成本C.在最后一個Inceptionv1模塊處使用全局平均池化,減少了全接連層的參數(shù)D.以上均正確4、下列關(guān)于resnet網(wǎng)絡(luò)描述中,正確的是(D)。A.ResNet的研究人員提出了一種殘差模塊,這種殘差模塊有效的解決了網(wǎng)絡(luò)深度加深模型退化的問題B.殘差模塊使用了一種‘短路’的方式來解決深度網(wǎng)絡(luò)的退化問題C.殘差學(xué)習(xí)解決了深度網(wǎng)絡(luò)的退化問題,這稱得上是深度網(wǎng)絡(luò)的一個歷史大突破D.以上都是5、下列關(guān)于Densenet網(wǎng)絡(luò)描述中,正確的是(D)。A.DenseNet模型提出了一種密集連接模塊(DenseBlock)B.DenseNet網(wǎng)絡(luò)中密集連接模塊之間使用轉(zhuǎn)換層進行連接,轉(zhuǎn)換層使用批歸一化層、1×1卷積層以及2×2的平均池化層C.旁路加強了特征的重用,緩解了gradientvanishing和modeldegradation的問題D.以上均正確6、下列關(guān)于mobilenet網(wǎng)絡(luò)描述中,正確的是(D)。A.是一種高效并且參數(shù)量少的移動網(wǎng)絡(luò)模型B.將標(biāo)準(zhǔn)卷積改為深度可分離卷積,該卷積
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 文件和資料的控制措施
- 2019-2020學(xué)年高中數(shù)學(xué)第2章解析幾何初步2-1-5平面直角坐標(biāo)系中的距離公式課件北師大版必修2
- 二零二五年環(huán)保項目違約責(zé)任承擔(dān)合同規(guī)定3篇
- 高考專題復(fù)習(xí)探究走向全球化中的國際關(guān)系歷程課件教學(xué)講義
- 2024年浙江建設(shè)職業(yè)技術(shù)學(xué)院高職單招職業(yè)適應(yīng)性測試歷年參考題庫含答案解析
- 二零二五年機器人技術(shù)授權(quán)及合作開發(fā)合同3篇
- 2024年隴西縣中醫(yī)院高層次衛(wèi)技人才招聘筆試歷年參考題庫頻考點附帶答案
- 2024年阜陽市第三人民醫(yī)院高層次衛(wèi)技人才招聘筆試歷年參考題庫頻考點附帶答案
- 二零二五年度股份合作企業(yè)四股東合作協(xié)議3篇
- 2024年沈陽航空職業(yè)技術(shù)學(xué)院高職單招數(shù)學(xué)歷年參考題庫含答案解析
- 2025年度愛讀書學(xué)長主辦的讀書挑戰(zhàn)賽組織合同
- 2024年滄州經(jīng)濟開發(fā)區(qū)招聘社區(qū)工作者筆試真題
- 2025年安徽省銅陵市公安局交警支隊招聘交通輔警14人歷年高頻重點提升(共500題)附帶答案詳解
- 公共政策分析 課件 第8章政策評估;第9章政策監(jiān)控
- 人教版八年級上學(xué)期物理期末復(fù)習(xí)(壓軸60題40大考點)
- 企業(yè)環(huán)保知識培訓(xùn)課件
- 2024年度管理評審報告
- 暨南大學(xué)《微觀經(jīng)濟學(xué)》2023-2024學(xué)年第一學(xué)期期末試卷
- 醫(yī)藥銷售合規(guī)培訓(xùn)
- DB51-T 5038-2018 四川省地面工程施工工藝標(biāo)準(zhǔn)
- 三年級數(shù)學(xué)(上)計算題專項練習(xí)附答案
評論
0/150
提交評論