2023年《人工智能》現(xiàn)代科技知識考試題與答案_第1頁
2023年《人工智能》現(xiàn)代科技知識考試題與答案_第2頁
2023年《人工智能》現(xiàn)代科技知識考試題與答案_第3頁
2023年《人工智能》現(xiàn)代科技知識考試題與答案_第4頁
2023年《人工智能》現(xiàn)代科技知識考試題與答案_第5頁
已閱讀5頁,還剩27頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

2023年《人工智能》現(xiàn)代科技知識考

試題與答案

目錄簡介

一、單選題:共40題

二、多選題:共20題

三、判斷題:共26題

一、單選題

1、下列哪部分不是專家系統(tǒng)的組成部分?

A.用戶

B.綜合數(shù)據(jù)庫

C.推理機(jī)

D.知識庫

正確答案:A

2、下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享?

第1頁共32頁

A.卷積神經(jīng)網(wǎng)絡(luò)

B.循環(huán)神經(jīng)網(wǎng)絡(luò)

C.全連接神經(jīng)網(wǎng)絡(luò)

D.A和B

正確答案:D

3、下列哪個(gè)不屬于常用的文本分類的特征選擇算法?

A.卡方檢驗(yàn)值

B.互信息

C.信息增益

D.主成分分析

正確答案:D

4、下列哪個(gè)不是人工智能的技術(shù)應(yīng)用領(lǐng)域?

A.搜索技術(shù)

B.數(shù)據(jù)挖掘

C.智能控制

第2頁共32頁

D.編譯原理

正確答案:D

5、Q(s,a)是指在給定狀態(tài)S的情況下,采取行動(dòng)a之

后,后續(xù)的各個(gè)狀態(tài)所能得到的回報(bào)()。

A.總和

B.最大值

C.最小值

D.期望值

正確答案:D

6、數(shù)據(jù)科學(xué)家可能會(huì)同時(shí)使用多個(gè)算法(模型)進(jìn)行

預(yù)測,并且最后把這些算法的結(jié)果集成起來進(jìn)行最后的預(yù)測

(集成學(xué)習(xí)),以下對集成學(xué)習(xí)說法正確的是()。

A.單個(gè)模型之間有高相關(guān)性

B.單個(gè)模型之間有低相關(guān)性

C.在集成學(xué)習(xí)中使用“平均權(quán)重”而不是“投票”會(huì)比

第3頁共32頁

較好

D.單個(gè)模型都是用的一個(gè)算法

正確答案:B

7、以下哪種技術(shù)對于減少數(shù)據(jù)集的維度會(huì)更好?

A.刪除缺少值太多的列

B.刪除數(shù)據(jù)差異較大的列

C.刪除不同數(shù)據(jù)趨勢的列

D,都不是

正確答案:A

8、在強(qiáng)化學(xué)習(xí)過程中,學(xué)習(xí)率越大,表示采用新的嘗

試得到的結(jié)果比例越(),保持舊的結(jié)果的比例越()。

A.大,小

B.大,大

C.小,大

D.小,小

第4頁共32頁

正確答案:A

9、以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法?

A.嵌入

B.過濾

C.包裝

D.抽樣

正確答案:D

10、要想讓機(jī)器具有智能,必須讓機(jī)器具有知識。因此,

在人工智能中有一個(gè)研究領(lǐng)域,主要研究計(jì)算機(jī)如何自動(dòng)獲

取知識和技能,實(shí)現(xiàn)自我完善,這門研究分支學(xué)科叫()。

A.專家系統(tǒng)

B.機(jī)器學(xué)習(xí)

C.神經(jīng)網(wǎng)絡(luò)

D.模式識別

正確答案:B

第5頁共32頁

11、在一個(gè)神經(jīng)網(wǎng)絡(luò)中,下面()方法可以用來處理過

擬合。

A.Dropout

B.分批歸一化(BatchNormalization)

C.正則化(Regularization)

D.都可以

正確答案:D

12、以下幾種模型方法屬于判別式模型的有()。1)混

合高斯模型2)條件隨機(jī)場模型3)區(qū)分度訓(xùn)練4)隱馬爾科

夫模型

A.2,3

B.3,4

C.1,4

D.1,2

正確答案:A

13、神經(jīng)網(wǎng)絡(luò)模型因受人類大腦的啟發(fā)而得名。神經(jīng)網(wǎng)

絡(luò)由許多神經(jīng)元組成,每個(gè)神經(jīng)元接受一個(gè)輸入,對輸入進(jìn)

行處理后給出一個(gè)輸出。請問下列關(guān)于神經(jīng)元的描述中,哪

一項(xiàng)是正確的?

第6頁共32頁

A.每個(gè)神經(jīng)元只有一個(gè)輸入和一個(gè)輸出

B.每個(gè)神經(jīng)元有多個(gè)輸入和一個(gè)輸出

C.每個(gè)神經(jīng)元有一個(gè)輸入和多個(gè)輸出

D.每個(gè)神經(jīng)元有多個(gè)輸入和多個(gè)輸出

E、上述都正確

正確答案:E

14、生成對抗網(wǎng)絡(luò)像是一個(gè)博弈系統(tǒng),生成器生成偽造

的樣本,判別器判斷是真是假,我們理想的結(jié)果是()。

A.生成器產(chǎn)生的樣本大致相同

B.判別器高效的分辨生成器產(chǎn)生樣本的真假

C.判別器無法分辨生成器產(chǎn)生樣本的真假

D.生成器產(chǎn)生的樣本不盡相同

正確答案:C

15、已知:1)大腦是有很多個(gè)叫做神經(jīng)元的東西構(gòu)成,

神經(jīng)網(wǎng)絡(luò)是對大腦的簡單的數(shù)學(xué)表達(dá)。2)每一個(gè)神經(jīng)元都

有輸入、處理函數(shù)和輸出。3)神經(jīng)元組合起來形成了網(wǎng)絡(luò),

可以擬合任何函數(shù)。4)為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用

梯度下降方法不斷更新模型。給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描

述,()什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?

第7頁共32頁

A.加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加

B.有維度更高的數(shù)據(jù)

C.當(dāng)這是一個(gè)圖形識別的問題時(shí)

D.以上都不正確

正確答案:A

16、梯度下降算法的正確步驟是什么?1)計(jì)算預(yù)測值

和真實(shí)值之間的誤差2)重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最

佳值3)把輸入傳入網(wǎng)絡(luò),得到輸出值4)用隨機(jī)值初始化權(quán)

重和偏差5)對每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)

重)值以減小誤差

A.1,2,3,4,5

B.5,4,3,2,1

C.3,2,1,5,4

D.4,3,1,5,2

正確答案:D

17、如果一個(gè)模型在測試集上偏差很大,方差很小,則

說明該模型()。

A.過擬合

B.可能過擬合可能欠擬合

第8頁共32頁

C.剛好擬合

D.欠擬合

正確答案:B

18、假如我們使用非線性可分的SVM目標(biāo)函數(shù)作為最優(yōu)

化對象,我們怎么保證模型線性可分?

A.設(shè)C=I

B.設(shè)C=O

C.設(shè)C=無窮大

D.都不對

正確答案:C

19、下列哪項(xiàng)關(guān)于模型能力(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)

雜函數(shù)的能力)的描述是正確的?

A.隱藏層層數(shù)增加,模型能力可能增加

B.Dropout的比例增加,模型能力必然增加

C.學(xué)習(xí)率增加,模型能力必然增加

D.都不正確

正確答案:A

20、輸入32X32的圖像,用大小5X5的卷積核做步長

為1的卷積計(jì)算,輸出圖像的大小是()。

第9頁共32頁

A.28×23

B.28×28

C.29×29

D.23×23

正確答案:B

21、我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了使訓(xùn)練時(shí)間

更少,我們可以()。

A.增加樹的深度

B.增加學(xué)習(xí)率

C.減少樹的深度

D.減少樹的數(shù)量

正確答案:C

22、QTearning算法中,Q函數(shù)是()。

A.狀態(tài)-動(dòng)作值函數(shù)

B.狀態(tài)函數(shù)

C.估值函數(shù)

D.獎(jiǎng)勵(lì)函數(shù)

正確答案:A

23、語言模型的參數(shù)估計(jì)經(jīng)常使用最大似然估計(jì),面臨

第10頁共32頁

的一個(gè)問題是沒有出現(xiàn)的項(xiàng)概率為0,這樣會(huì)導(dǎo)致語言模型

的效果不好。為了解決這個(gè)問題,需要使用()。

A.平滑

B.去噪

C.隨機(jī)插值

D.增加白噪音

正確答案:A

24、關(guān)于LOgit回歸和SVM不正確的是()。

A.Logit回歸目標(biāo)函數(shù)是最小化后驗(yàn)概率

B.Logit回歸可以用于預(yù)測事件發(fā)生概率的大小

C.SVM目標(biāo)是結(jié)構(gòu)風(fēng)險(xiǎn)最小化

D.SVM可以有效避免模型過擬合

正確答案:A

25、機(jī)器翻譯屬于()領(lǐng)域的應(yīng)用。

A.自然語言處理

B.搜索技術(shù)

C.專家系統(tǒng)

D.數(shù)據(jù)挖掘

正確答案:A

第11頁共32頁

26、下列不是SVM核函數(shù)的是()。

A.多項(xiàng)式核函數(shù)

B.Logistic核函數(shù)

C.徑向基核函數(shù)

D.Sigmoid核函數(shù)

正確答案:B

27、下面哪個(gè)決策邊界是神經(jīng)網(wǎng)絡(luò)生成的?

A.A

B.B

C.C

D.D

E、以上都有

正確答案:E

28、假設(shè)在訓(xùn)練中我們突然遇到了一個(gè)問題:在幾次循

環(huán)之后,誤差瞬間降低。你認(rèn)為數(shù)據(jù)有問題,于是你畫出了

數(shù)據(jù)并且發(fā)現(xiàn)也許是數(shù)據(jù)的偏度過大造成了這個(gè)問題,你打

算怎么做來處理這個(gè)問題?

A.對數(shù)據(jù)作歸一化

B.對數(shù)據(jù)取對數(shù)變化

第12頁共32頁

C.對數(shù)據(jù)作主成分分析和歸一化

D.都不對

正確答案:C

29、對于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是()。1)增加

神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測試數(shù)據(jù)集的分類錯(cuò)誤率2)減

少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯(cuò)誤率3)

增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率

A.1

B.1和3

C.1和2

D.2

正確答案:A

30、如果你正在處理文本數(shù)據(jù),使用單詞嵌入(WOrd2vec)

表示使用的單詞。在單詞嵌入中,最終會(huì)有1000維。如果

想減小這個(gè)高維數(shù)據(jù)的維度,使得相似的詞在最鄰近的空間

中具有相似的含義。在這種情況下,你最有可能選擇以下哪

種算法?

A.t-SNE

B.PCA

C.LDA

第13頁共32頁

D.都不是

正確答案:A

31、當(dāng)考慮某個(gè)具體問題時(shí),你可能只有少量數(shù)據(jù)來解

決這個(gè)問題。不過幸運(yùn)的是你有一個(gè)針對類似問題已經(jīng)預(yù)先

訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)。你可以用下面哪種方法來利用這個(gè)預(yù)先

訓(xùn)練好的網(wǎng)絡(luò)?

A.保留最后一層,將其余層重新訓(xùn)練

B.對新數(shù)據(jù)重新訓(xùn)練整個(gè)模型

C.只對最后幾層進(jìn)行調(diào)參

D.對每一層模型進(jìn)行評估,選擇其中的少數(shù)來用

正確答案:C

32、在一個(gè)n維的空間中,最好的檢測離群點(diǎn)(OUtlier)

的方法是()。

A.作正態(tài)分布概率圖

B.作盒形圖

C.馬氏距離

D.作散點(diǎn)圖

正確答案:C

33、在大規(guī)模的語料中,挖掘詞的相關(guān)性是一個(gè)重要的

第14頁共32頁

問題。以下哪一個(gè)信息不能用于確定兩個(gè)詞的相關(guān)性?

A.互信息

B.最大熠

C.卡方檢驗(yàn)

D.最大似然比

正確答案:B

34、基于統(tǒng)計(jì)的分詞方法為()。

A.正向最大匹配法

B.逆向最大匹配法

C.最少切分

D.條件隨機(jī)場

正確答案:D

35、請選擇下面可以應(yīng)用隱馬爾科夫(HMM)模型的數(shù)

據(jù)集Oo

A.基因序列數(shù)據(jù)集

B.電影瀏覽數(shù)據(jù)集

C.股票市場數(shù)據(jù)集

D.所有以上

正確答案:D

第15頁共32頁

36、以P(W)表示詞條W的概率,假設(shè)已知P(南京)=0、

8,P(市長)=0、6,P(江大橋)=0、4,P(南京市)二0、

3,P(長江大橋)=0、5,在訓(xùn)練語料中未出現(xiàn)的詞條概率

為Oo假設(shè)前后兩個(gè)詞的出現(xiàn)是獨(dú)立的,那么分詞結(jié)果就是

Oo

A.南京市*長江*大橋

B.南京*市長*江大橋

C.南京市長*江大橋

D.南京市*長江大橋

正確答案:B

37、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),損失函數(shù)在最初的幾個(gè)epoch

時(shí)沒有下降,可能的原因是()。

A.學(xué)習(xí)率太低

B.正則參數(shù)太高

C.陷入局部最小值

D.以上都有可能

正確答案:A

38、以下屬于回歸算法的優(yōu)化指標(biāo)是()。

A.召回率

第16頁共32頁

B.混淆矩陣

C.均方誤差

D.準(zhǔn)確率

正確答案:C

39、假設(shè)你使用log-loss函數(shù)作為評估標(biāo)準(zhǔn)。下面這

些選項(xiàng),哪些是對作為評估標(biāo)準(zhǔn)的log-loss的正確解釋?

(難度:★★★★★)

A.如果分類器對不正確分類結(jié)果的置信度高,log-loss

會(huì)對分類器作出懲罰

B.對一個(gè)特別的觀察而言,分類器為正確的分類結(jié)果分

配非常小的概率,然后對log-loss的相應(yīng)分布會(huì)非常大

C.log-loss越低,模型越好

D.以上都是

正確答案:D

40、對于一個(gè)圖像識別問題(在一張照片里找出一只貓),

下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問題?

A.循環(huán)神經(jīng)網(wǎng)絡(luò)

B.感知機(jī)

C.多層感知機(jī)

第17頁共32頁

D.卷積神經(jīng)網(wǎng)絡(luò)

正確答案:D

二、多選題

1、假設(shè)我們要解決一個(gè)二類分類問題,我們已經(jīng)建立

好了模型,輸出是O或1,初始時(shí)設(shè)閾值為0、5,超過0、5

概率估計(jì),就判別為1,否則就判別為0;如果我們現(xiàn)在用

另一個(gè)大于0、5的閾值,那么現(xiàn)在關(guān)于模型說法,正確的

是()θ

A.模型分類的召回率會(huì)降低或不變

B.模型分類的召回率會(huì)升高

C.模型分類準(zhǔn)確率會(huì)升高或不變

D.模型分類準(zhǔn)確率會(huì)降低

正確答案:AC

2、假定目標(biāo)變量的類別非常不平衡,即主要類別占據(jù)

了訓(xùn)練數(shù)據(jù)的99%o現(xiàn)在你的模型在測試集上表現(xiàn)為99%的

準(zhǔn)確度。那么下面哪一項(xiàng)表述是正確的?

A.準(zhǔn)確度并不適合于衡量不平衡類別問題

B.準(zhǔn)確度適合于衡量不平衡類別問題

C.精確率和召回率適合于衡量不平衡類別問題

第18頁共32頁

D.精確率和召回率不適合于衡量不平衡類別問題

正確答案:AC

3、以下哪些激活函數(shù)容易產(chǎn)生梯度消失問題?

A.ReLU

B.Softplus

C.Tanh

D.Sigmoid

正確答案:CD

4、在粒子群算法中迭代過程的終止條件是什么?

A.算法不收斂

B.達(dá)到最大迭代次數(shù)

C.找到局部最優(yōu)解

D.全局最優(yōu)位置滿足最小界限

正確答案:BD

5、回歸模型中存在多重共線性,可以如何解決這個(gè)問

題?

A.去除這兩個(gè)共線性變量

B.我們可以先去除一個(gè)共線性變量

C.計(jì)算方差膨脹因子,采取相應(yīng)措施

第19頁共32頁

D.為了避免損失信息,我們可以使用一些正則化方法,

比如嶺回歸和Iasso回歸

正確答案:BC

6、AlPhaGo/Zero主要用了下列哪些方法:(方

A.強(qiáng)化學(xué)習(xí)

B.殘差卷積神經(jīng)網(wǎng)絡(luò)

C.蒙特卡洛樹搜索

D.循環(huán)神經(jīng)網(wǎng)絡(luò)

正確答案:ABC

7、機(jī)器學(xué)習(xí)中Ll正則化和L2正則化的區(qū)別是?

A.使用Ll可以得到稀疏的權(quán)值

B.使用Ll可以得到平滑的權(quán)值

C.使用L2可以得到稀疏的權(quán)值

D.使用L2可以得到平滑的權(quán)值

正確答案:AD

8、強(qiáng)化學(xué)習(xí)包含哪些元素()。

A.Reward

B.Agent

C.State

第20頁共32頁

D.Action

正確答案:ABCD

9、知識圖譜中的數(shù)據(jù)類型分哪幾類?

A.通用數(shù)據(jù)類型

B.半結(jié)構(gòu)化數(shù)據(jù)類型

C.結(jié)構(gòu)化數(shù)據(jù)類型

D.非結(jié)構(gòu)化數(shù)據(jù)類型

正確答案:BCD

10、在計(jì)算機(jī)視覺應(yīng)用中,常用的圖像特征有()。

A.空間關(guān)系特征

B.形狀特征

C.紋理特征

D.顏色特征

正確答案:ABCD

11、有關(guān)數(shù)據(jù)增強(qiáng)的說法正確是哪些?

A.數(shù)據(jù)增強(qiáng)會(huì)增加樣本的個(gè)數(shù),因此可能會(huì)減少過擬合

B.對于分類問題,數(shù)據(jù)增強(qiáng)是減少數(shù)據(jù)不平衡的一種方

法。

C.對于手寫體的識別,對樣本的反轉(zhuǎn)、旋轉(zhuǎn)、裁剪、變

第21頁共32頁

形和縮放等操作會(huì)提高神經(jīng)網(wǎng)絡(luò)的識別效果

D.數(shù)據(jù)增強(qiáng)帶來了噪聲,因此一般會(huì)降低神經(jīng)網(wǎng)絡(luò)模型

的效果

正確答案:ABC

12、下面哪些場景用循環(huán)神經(jīng)網(wǎng)絡(luò)處理效果比較好?

A.自然語言處理

B.語音識別

C.圖像識別

D.人臉識別

正確答案:AB

13、在分類問題中,我們經(jīng)常會(huì)遇到正負(fù)樣本數(shù)據(jù)量不

等的情況,比如正樣本為10萬條數(shù)據(jù),負(fù)樣本只有1萬條數(shù)

據(jù),以下最合適的處理方法是?

A.將負(fù)樣本重復(fù)10次,生成10萬樣本量,打亂順序參

與分類

B.直接進(jìn)行分類,可以最大限度利用數(shù)據(jù)

C.從10萬正樣本中隨機(jī)抽取1萬參與分類

D.將負(fù)樣本每個(gè)權(quán)重設(shè)置為10,正樣本權(quán)重為1,參與

訓(xùn)練過程

第22頁共32頁

正確答案:ACD

14、電影推薦系統(tǒng)是以下哪些的應(yīng)用實(shí)例?

A.分類

B.聚類

C.強(qiáng)化學(xué)習(xí)

D.回歸

正確答案:ABC

15、人工智能的主要應(yīng)用領(lǐng)域有()。

A.自然語言理解

B.數(shù)據(jù)庫的智能檢索

C.專家咨詢系統(tǒng)

D.感知問題

正確答案:ABCD

16、以下說法中正確的是()。

A.SVM對噪聲(如來自其他分布的噪聲樣本)魯棒

B.在AdaBoost算法中,所有被分錯(cuò)的樣本的權(quán)重更新

比例相同

C.BoOSting和Bagging都是組合多個(gè)分類器投票的方法,

二者都是根據(jù)單個(gè)分類器的正確率決定其權(quán)重

第23頁共32頁

D.給定n個(gè)數(shù)據(jù)點(diǎn),如果其中一半用于訓(xùn)練,一般用于

測試,則訓(xùn)練誤差和測試誤差之間的差別會(huì)隨著n的增加而

減少

正確答案:BD

17、變量選擇是用來選擇最好的判別器子集,如果要考

慮模型效率,我們應(yīng)該做哪些變量選擇的考慮?

A.多個(gè)變量其實(shí)有相同的用處

B.變量對于模型的解釋有多大作用

C.特征攜帶的信息

D.交叉驗(yàn)證

正確答案:ACD

18、如果以特征向量的相關(guān)系數(shù)作為模式相似性測度,

則影響聚類算法結(jié)果的主要因素有()。

A.已知類別樣本質(zhì)量

B.分類準(zhǔn)則

C.特征選取

D.量綱

正確答案:BC

19、下面屬于知識圖譜正確的三元組表示方式的是?

第24頁共32頁

A.實(shí)體一屬性一屬性值

B.實(shí)體1—實(shí)體2—實(shí)體3

C.實(shí)體一關(guān)系一屬性值

D.實(shí)體1—關(guān)系一實(shí)體2

正確答案:AD

20、下面哪些是基于核的機(jī)器學(xué)習(xí)算法?

A.最大期望算法

B.徑向基核函數(shù)

C.線性判別分析法

D.支持向量機(jī)

正確答案:BCD

三、判斷題

1、感知機(jī)的運(yùn)作原理是邏輯判斷流程。

A.正確

B.錯(cuò)誤

正確答案:B

2、邏輯回歸的損失函數(shù)是交叉端損失函數(shù)。

A.正確

第25頁共32頁

B.錯(cuò)誤

正確答案:A

3、如果增加多層感知機(jī)的隱藏層層數(shù),分類誤差便會(huì)

減小。

A.正確

B.錯(cuò)誤

正確答案:B

4、在圖像處理中,采樣越細(xì),像素越小,越能精確的

表現(xiàn)圖像。

A.正確

B.錯(cuò)誤

正確答案:A

5、樣本輸入順序、聚類準(zhǔn)則、初始類中心的選取都屬

于會(huì)影響基本K-均值算法的主要因素。

A.正確

B.錯(cuò)誤

正確答案:B

6、語音識別指的是將音頻數(shù)據(jù)識別為文本數(shù)據(jù)。

A.正確

第26頁共32頁

B.錯(cuò)誤

正確答案:A

7、邊緣檢測是將邊緣像素標(biāo)識出來的一種圖像分割技

術(shù)。

A.正確

B.錯(cuò)誤

正確答案:A

8、某個(gè)人、某個(gè)城市、某種植物在知識圖譜中都被稱

為實(shí)體。

A.正確

B.錯(cuò)誤

正確答案:A

9、網(wǎng)格搜索是一種參數(shù)調(diào)節(jié)方法。

A.正確

B.錯(cuò)誤

正確答案:A

10、生成對抗網(wǎng)絡(luò)可用于數(shù)據(jù)增強(qiáng)、語義分割、信息檢

索、圖像生成等多種場景。

A.正確

第27頁共32頁

B.錯(cuò)誤

正確答案:A

11、線性回歸的損失函數(shù)中加入Ll正則項(xiàng),此時(shí)該回

歸叫做LaSSO回歸。

A.正確

B.錯(cuò)誤

正確答案:A

12、在隨機(jī)森林中,最終的集

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論