MOOC 紡織服裝專業(yè)人工智能技術(shù)導(dǎo)論-東華大學(xué) 中國大學(xué)慕課答案_第1頁
MOOC 紡織服裝專業(yè)人工智能技術(shù)導(dǎo)論-東華大學(xué) 中國大學(xué)慕課答案_第2頁
MOOC 紡織服裝專業(yè)人工智能技術(shù)導(dǎo)論-東華大學(xué) 中國大學(xué)慕課答案_第3頁
MOOC 紡織服裝專業(yè)人工智能技術(shù)導(dǎo)論-東華大學(xué) 中國大學(xué)慕課答案_第4頁
MOOC 紡織服裝專業(yè)人工智能技術(shù)導(dǎo)論-東華大學(xué) 中國大學(xué)慕課答案_第5頁
已閱讀5頁,還剩7頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

MOOC紡織服裝專業(yè)人工智能技術(shù)導(dǎo)論-東華大學(xué)中國大學(xué)慕課答案課后自測題1、問題:以絨山羊/非絨山羊的分類問題為例,根據(jù)本章所講授的內(nèi)容及符號表達方式,回答以下問題:(單選題)對于每一個樣本,其中,,樣本包含了個特征選項:A、B、C、D、正確答案:【】2、問題:選項:意味著該問題屬于分類問題A、二元分類問題B、多元分類問題C、三元分類問題D、以上都不對正確答案:【二元分類問題】3、問題:按照本課程約定的符號體系,若有個樣本構(gòu)成整個訓(xùn)練集,該集合可以表示為選項:A、B、C、D、正確答案:【】4、問題:若將訓(xùn)練集記為矩陣X,其中包含了m個樣本,每個樣本的特征數(shù)量為個,則X的維度為選項:A、B、C、D、正確答案:【】5、問題:若令選項:,且激活函數(shù)為Sigmoid,其正確計算方式為A、B、C、D、正確答案:【】6、問題:若令為真值y的預(yù)測值,下面關(guān)于交叉熵函數(shù)的正確計算方式為選項:A、B、C、D、正確答案:【】7、問題:下面關(guān)于學(xué)習(xí)率α說法正確的是選項:A、學(xué)習(xí)率α越大越好,這樣可以加快神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度B、學(xué)習(xí)率α越小越好,這樣可以保證訓(xùn)練的平穩(wěn)C、學(xué)習(xí)率α必須是不變量D、學(xué)習(xí)率α需要根據(jù)實際訓(xùn)練過程的表現(xiàn)予以調(diào)校正確答案:【學(xué)習(xí)率α需要根據(jù)實際訓(xùn)練過程的表現(xiàn)予以調(diào)?!?、問題:向后傳播的推導(dǎo)過程,主要是基于鏈式法則求偏導(dǎo),這個說法正確嗎?選項:A、正確B、錯誤正確答案:【正確】9、問題:“整個訓(xùn)練集的代價函數(shù)J(w,b),實際上是全部訓(xùn)練數(shù)據(jù)的損失函數(shù)值加和之后的平均值”,這個說法對嗎?選項:A、正確B、錯誤正確答案:【正確】10、問題:“在編寫代碼之前,首先需要確定需要求解的目標是什么。比如對于梯度下降算法而言,核心是求出dw和db,從而實現(xiàn)對w和b的更新”。這個說法正確嗎?選項:A、正確B、錯誤正確答案:【正確】課后自測題1、問題:1.在下圖所示的神經(jīng)網(wǎng)絡(luò)中,圓圈和箭頭的含義分別是______?選項:A、圓圈代表神經(jīng)元,箭頭代表權(quán)重B、圓圈代表輸入量,箭頭代表輸出方向C、圓圈僅僅代表激活值,箭頭代表權(quán)重D、圓圈和箭頭代表了向前傳播過程正確答案:【圓圈代表神經(jīng)元,箭頭代表權(quán)重】2、問題:根據(jù)本單元講授的符號表達方式,選項:的含義是____________A、第3個樣本的第2個特征在第1層神經(jīng)網(wǎng)絡(luò)中的權(quán)重值B、第3個樣本的第1個特征在第2層神經(jīng)網(wǎng)絡(luò)中的權(quán)重值C、第2個樣本的第3個特征在第1層神經(jīng)網(wǎng)絡(luò)中的權(quán)重值D、以上都不是正確答案:【第2個樣本的第3個特征在第1層神經(jīng)網(wǎng)絡(luò)中的權(quán)重值】3、問題:符號的含義是___________選項:A、第層第個神經(jīng)元的激活值aB、第層第個神經(jīng)元的激活值aC、第層第個神經(jīng)元的加權(quán)值aD、第層第個神經(jīng)元的加權(quán)值a正確答案:【第層第個神經(jīng)元的激活值a】4、問題:圖中所示的激活函數(shù)中,哪個是tanh?選項:A、左邊的是tanh,右邊的是sigmoidB、左邊是sigmoid,右邊是tanhC、左邊的是tanh,右邊的是它的特殊形式D、左邊是sigmoid,右邊是它的特殊形式正確答案:【左邊是sigmoid,右邊是tanh】5、問題:圖中所示的激活函數(shù),其名稱是什么?選項:A、SoftmaxB、ReLUC、LeakyReLUD、WeakyReLU正確答案:【ReLU】6、問題:根據(jù)本單元的表達方式,下圖的神經(jīng)網(wǎng)絡(luò)是___層神經(jīng)網(wǎng)絡(luò)?選項:A、3B、4C、5D、6正確答案:【4】7、問題:對于第層神經(jīng)網(wǎng)絡(luò)而言,下述說法正確的是________選項:A、B、與的維度可以不相等的維度可以不相等與C、D、的維度為的維度為正確答案:【的維度為】8、問題:當神經(jīng)網(wǎng)絡(luò)由若干層組成時,除了第一層的輸入是我們設(shè)置的原始特征之外,剩下的每一層的輸入,其實都是前一層所輸出的激活值。這個說法正確與否?選項:A、正確B、錯誤正確答案:【正確】9、問題:在神經(jīng)網(wǎng)絡(luò)向后傳播的計算過程中,“我們需要對??求導(dǎo),因為??也是特征,有必要對其進行優(yōu)化”,這個說法正確嗎?選項:A、正確B、錯誤正確答案:【錯誤】10、問題:“參數(shù)的維度并不隨著樣本數(shù)量的多少而改變,因為它們是神經(jīng)網(wǎng)絡(luò)架構(gòu)中用來調(diào)節(jié)每層神經(jīng)元對輸入特征影響的大小的?!边@個說法正確嗎?選項:A、正確B、錯誤正確答案:【正確】課后自測題1、問題:關(guān)于訓(xùn)練集、驗證集、測試集,下述說法正確的是:________選項:A、在數(shù)據(jù)量很小或者數(shù)據(jù)量很大的時候,都必須有20%的數(shù)據(jù)用于測試集B、在數(shù)據(jù)量很小或者數(shù)據(jù)量很大的時候,都必須有10%的數(shù)據(jù)用于測試集C、在數(shù)據(jù)量很小或者數(shù)據(jù)量很大的時候,都必須有5%的數(shù)據(jù)用于測試集D、以上都不對正確答案:【以上都不對】2、問題:若數(shù)據(jù)集如圖所示,由×和○代表兩類不同的數(shù)據(jù),下圖分別表示的是分類過程中的哪種情況?選項:A、左為高偏差,中為適當,右為高方差B、左為適當,中為高偏差,右為高方差C、左為高方差,中為適當,右為高偏差D、以上都不是正確答案:【左為高偏差,中為適當,右為高方差】3、問題:當網(wǎng)絡(luò)初步訓(xùn)練完成,但是預(yù)測誤差較大時,首先應(yīng)采取以下哪種措施?選項:A、增加數(shù)據(jù)量B、優(yōu)化數(shù)據(jù)分布C、選擇新的網(wǎng)絡(luò)架構(gòu)D、以上都是正確答案:【選擇新的網(wǎng)絡(luò)架構(gòu)】4、問題:當網(wǎng)絡(luò)初步訓(xùn)練完成,且在訓(xùn)練集上表現(xiàn)良好,但是在測試集上表現(xiàn)不佳,首先應(yīng)采取以下哪種措施?選項:A、這是高偏差或者欠擬合現(xiàn)象,首先應(yīng)該增加數(shù)據(jù)量或者進行數(shù)據(jù)增廣B、這是高方差或者過擬合現(xiàn)象,首先應(yīng)該增加數(shù)據(jù)量或者進行數(shù)據(jù)增廣C、這是高偏差或者欠擬合現(xiàn)象,首先應(yīng)該更換網(wǎng)絡(luò)架構(gòu)D、這是高方差或者過擬合現(xiàn)象,首先應(yīng)該更換網(wǎng)絡(luò)架構(gòu)正確答案:【這是高方差或者過擬合現(xiàn)象,首先應(yīng)該增加數(shù)據(jù)量或者進行數(shù)據(jù)增廣】5、問題:在正則化中,,即前增加了一個系數(shù)選項:。請問,這里超參數(shù)的取值范圍通常是:A、[0,1]B、[-1,0]C、[-1,1]D、以上都不是正確答案:【[0,1]】6、問題:關(guān)于神經(jīng)網(wǎng)絡(luò)的正則化方法,以下表述正確的是_____C_______。選項:A、只有L2正則化和隨機失活正則化屬于正則化方法,數(shù)據(jù)擴增并不屬于正則化方法B、只有L2正則化屬于正則化方法,隨機失活與數(shù)據(jù)擴增并不屬于正則化方法C、L2正則化、隨機失活正則化以及數(shù)據(jù)擴增均屬于正則化方法的一種D、以上都不是正確答案:【L2正則化、隨機失活正則化以及數(shù)據(jù)擴增均屬于正則化方法的一種】7、問題:“如果激活函數(shù)的輸入特征均經(jīng)過了零均值和標準方差化,方差是1,那么??也會調(diào)整到相似范圍,雖然沒有從根本上解決梯度消失和爆炸問題。但它確實降低了梯度消失和爆炸產(chǎn)生的可能性”。這個說法正確嗎?選項:A、正確B、錯誤正確答案:【正確】課后自測題1、問題:在將數(shù)據(jù)集分割為若干個小批量后,往往訓(xùn)練時的代價函數(shù)曲線從下圖中左側(cè)的單一批量訓(xùn)練形態(tài),改變?yōu)橛覀?cè)所示的小批量訓(xùn)練形態(tài)。此時,下述說法正確的是:選項:A、小批量之間彼此是相互獨立的,在第t-1個小批量上表現(xiàn)好的權(quán)重矩陣,未必在第t個小批量上也表現(xiàn)良好,反之亦然。兩個相鄰的小批量之間可能存在著起伏。B、有的小批量上的數(shù)據(jù)容易訓(xùn)練,而有的小批量上的數(shù)據(jù)不容易訓(xùn)練。C、由于訓(xùn)練數(shù)據(jù)都是人為標注的,有可能存在某些小批量中,標簽本身存在錯誤,導(dǎo)致前一個小批量中可行的權(quán)重,在這個小批量中就是不可行的了。D、單一批量是由小批量構(gòu)成的,因此左圖實際上是右圖的平均值曲線正確答案:【小批量之間彼此是相互獨立的,在第t-1個小批量上表現(xiàn)好的權(quán)重矩陣,未必在第t個小批量上也表現(xiàn)良好,反之亦然。兩個相鄰的小批量之間可能存在著起伏。#有的小批量上的數(shù)據(jù)容易訓(xùn)練,而有的小批量上的數(shù)據(jù)不容易訓(xùn)練。#由于訓(xùn)練數(shù)據(jù)都是人為標注的,有可能存在某些小批量中,標簽本身存在錯誤,導(dǎo)致前一個小批量中可行的權(quán)重,在這個小批量中就是不可行的了?!?、問題:為了提高神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)速度,以下說法正確的是選項:A、從隨機梯度下降改為動量梯度下降法,通常是一個不錯的嘗試B、從隨機梯度下降改為RMSprop梯度下降法,通常是一個不錯的嘗試C、從隨機梯度下降改為Adam梯度下降法,通常是一個不錯的嘗試D、采用學(xué)習(xí)率衰減的方式,通常是一個不錯的嘗試正確答案:【從隨機梯度下降改為動量梯度下降法,通常是一個不錯的嘗試#從隨機梯度下降改為RMSprop梯度下降法,通常是一個不錯的嘗試#從隨機梯度下降改為Adam梯度下降法,通常是一個不錯的嘗試#采用學(xué)習(xí)率衰減的方式,通常是一個不錯的嘗試】3、問題:“在進行數(shù)據(jù)準備時,通常通過隨機混洗(shuffle)和分區(qū)(partition)來達到較為合理的數(shù)據(jù)分布”,這個說法正確與否?選項:A、正確B、錯誤正確答案:【正確】4、問題:“指數(shù)加權(quán)平均的所實現(xiàn)的是遵循指數(shù)衰減的系數(shù)與當前值的按位相加之和”,這個說法正確與否?選項:A、正確B、錯誤正確答案:【錯誤】5、問題:“在使用指數(shù)加權(quán)平均時,必須對最初階段的偏差予以修正”,這個說法正確與否?選項:A、正確B、錯誤正確答案:【錯誤】6、問題:“在動量梯度下降法中,若參數(shù)β=0.9,則必須使用偏差修正技術(shù)”,這個說法正確與否?選項:A、正確B、錯誤正確答案:【錯誤】7、問題:“通俗地講,Adam優(yōu)化算法基本是動量梯度下降法和RMSprop相結(jié)合的產(chǎn)物”,這個說法正確與否?選項:A、正確B、錯誤正確答案:【正確】8、問題:“在大型神經(jīng)網(wǎng)絡(luò)中,由于參數(shù)眾多,此時的優(yōu)化函數(shù)往往存在于高維空間中,其優(yōu)化的難點其實是克服諸如平穩(wěn)段問題”,這個說法正確嗎?選項:A、正確B、錯誤正確答案:【正確】9、問題:“在許多神經(jīng)網(wǎng)絡(luò)的編程框架以及文獻報道中,會將梯度下降算法稱之為優(yōu)化器(optimizer)”,這個說法正確嗎?選項:A、正確B、錯誤正確答案:【正確】10、問題:“在克服平穩(wěn)段問題時,動量梯度下降法,RMSprop梯度下降法,以及Adam梯度下降法,往往比隨機梯度下降法更為有效”,這個說法正確嗎?選項:A、正確B、錯誤正確答案:【正確】課后自測題1、問題:在神經(jīng)網(wǎng)絡(luò)的超參數(shù)中,以下說法正確的是選項:A、神經(jīng)網(wǎng)絡(luò)的層數(shù)更為重要B、神經(jīng)網(wǎng)絡(luò)中隱含單元的個數(shù)更為重要C、學(xué)習(xí)率更為重要D、小批量(mini-batch)的大小更為重要正確答案:【學(xué)習(xí)率更為重要】2、問題:對于測試集上批量歸一化的計算方法,下述表述正確的是________:選項:A、按照與訓(xùn)練集同樣的計算方式B、不能采用批量歸一化C、通過指數(shù)加權(quán)平均的方式將計算出來,并應(yīng)用于D、以上都不是的計算中正確答案:【通過指數(shù)加權(quán)平均的方式將計算出來,并應(yīng)用于的計算中】3、問題:在多元分類任務(wù)中,往往采用獨熱(one-hot)編碼的方式,即對于一個有m個樣本的訓(xùn)練集而言,若其為c分類問題,則Y將會是一個______的矩陣,這個矩陣中的每一列代表一個樣本,且每一列中只有一個元素為1,其他均為0。選

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論