




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
2023年《人工智能》現(xiàn)代科技知識考
試題與答案
目錄簡介
一、單選題:共40題
二、多選題:共20題
三、判斷題:共26題
一、單選題
1、下列哪部分不是專家系統(tǒng)的組成部分?
A.用戶
B.綜合數(shù)據(jù)庫
C.推理機(jī)
D.知識庫
正確答案:A
2、下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享?
第1頁共32頁
A.卷積神經(jīng)網(wǎng)絡(luò)
B.循環(huán)神經(jīng)網(wǎng)絡(luò)
C.全連接神經(jīng)網(wǎng)絡(luò)
D.A和B
正確答案:D
3、下列哪個(gè)不屬于常用的文本分類的特征選擇算法?
A.卡方檢驗(yàn)值
B.互信息
C.信息增益
D.主成分分析
正確答案:D
4、下列哪個(gè)不是人工智能的技術(shù)應(yīng)用領(lǐng)域?
A.搜索技術(shù)
B.數(shù)據(jù)挖掘
C.智能控制
第2頁共32頁
D.編譯原理
正確答案:D
5、Q(s,a)是指在給定狀態(tài)S的情況下,采取行動(dòng)a之
后,后續(xù)的各個(gè)狀態(tài)所能得到的回報(bào)()。
A.總和
B.最大值
C.最小值
D.期望值
正確答案:D
6、數(shù)據(jù)科學(xué)家可能會(huì)同時(shí)使用多個(gè)算法(模型)進(jìn)行
預(yù)測,并且最后把這些算法的結(jié)果集成起來進(jìn)行最后的預(yù)測
(集成學(xué)習(xí)),以下對集成學(xué)習(xí)說法正確的是()。
A.單個(gè)模型之間有高相關(guān)性
B.單個(gè)模型之間有低相關(guān)性
C.在集成學(xué)習(xí)中使用“平均權(quán)重”而不是“投票”會(huì)比
第3頁共32頁
較好
D.單個(gè)模型都是用的一個(gè)算法
正確答案:B
7、以下哪種技術(shù)對于減少數(shù)據(jù)集的維度會(huì)更好?
A.刪除缺少值太多的列
B.刪除數(shù)據(jù)差異較大的列
C.刪除不同數(shù)據(jù)趨勢的列
D,都不是
正確答案:A
8、在強(qiáng)化學(xué)習(xí)過程中,學(xué)習(xí)率越大,表示采用新的嘗
試得到的結(jié)果比例越(),保持舊的結(jié)果的比例越()。
A.大,小
B.大,大
C.小,大
D.小,小
第4頁共32頁
正確答案:A
9、以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法?
A.嵌入
B.過濾
C.包裝
D.抽樣
正確答案:D
10、要想讓機(jī)器具有智能,必須讓機(jī)器具有知識。因此,
在人工智能中有一個(gè)研究領(lǐng)域,主要研究計(jì)算機(jī)如何自動(dòng)獲
取知識和技能,實(shí)現(xiàn)自我完善,這門研究分支學(xué)科叫()。
A.專家系統(tǒng)
B.機(jī)器學(xué)習(xí)
C.神經(jīng)網(wǎng)絡(luò)
D.模式識別
正確答案:B
第5頁共32頁
11、在一個(gè)神經(jīng)網(wǎng)絡(luò)中,下面()方法可以用來處理過
擬合。
A.Dropout
B.分批歸一化(BatchNormalization)
C.正則化(Regularization)
D.都可以
正確答案:D
12、以下幾種模型方法屬于判別式模型的有()。1)混
合高斯模型2)條件隨機(jī)場模型3)區(qū)分度訓(xùn)練4)隱馬爾科
夫模型
A.2,3
B.3,4
C.1,4
D.1,2
正確答案:A
13、神經(jīng)網(wǎng)絡(luò)模型因受人類大腦的啟發(fā)而得名。神經(jīng)網(wǎng)
絡(luò)由許多神經(jīng)元組成,每個(gè)神經(jīng)元接受一個(gè)輸入,對輸入進(jìn)
行處理后給出一個(gè)輸出。請問下列關(guān)于神經(jīng)元的描述中,哪
一項(xiàng)是正確的?
第6頁共32頁
A.每個(gè)神經(jīng)元只有一個(gè)輸入和一個(gè)輸出
B.每個(gè)神經(jīng)元有多個(gè)輸入和一個(gè)輸出
C.每個(gè)神經(jīng)元有一個(gè)輸入和多個(gè)輸出
D.每個(gè)神經(jīng)元有多個(gè)輸入和多個(gè)輸出
E、上述都正確
正確答案:E
14、生成對抗網(wǎng)絡(luò)像是一個(gè)博弈系統(tǒng),生成器生成偽造
的樣本,判別器判斷是真是假,我們理想的結(jié)果是()。
A.生成器產(chǎn)生的樣本大致相同
B.判別器高效的分辨生成器產(chǎn)生樣本的真假
C.判別器無法分辨生成器產(chǎn)生樣本的真假
D.生成器產(chǎn)生的樣本不盡相同
正確答案:C
15、已知:1)大腦是有很多個(gè)叫做神經(jīng)元的東西構(gòu)成,
神經(jīng)網(wǎng)絡(luò)是對大腦的簡單的數(shù)學(xué)表達(dá)。2)每一個(gè)神經(jīng)元都
有輸入、處理函數(shù)和輸出。3)神經(jīng)元組合起來形成了網(wǎng)絡(luò),
可以擬合任何函數(shù)。4)為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用
梯度下降方法不斷更新模型。給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描
述,()什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?
第7頁共32頁
A.加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加
B.有維度更高的數(shù)據(jù)
C.當(dāng)這是一個(gè)圖形識別的問題時(shí)
D.以上都不正確
正確答案:A
16、梯度下降算法的正確步驟是什么?1)計(jì)算預(yù)測值
和真實(shí)值之間的誤差2)重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最
佳值3)把輸入傳入網(wǎng)絡(luò),得到輸出值4)用隨機(jī)值初始化權(quán)
重和偏差5)對每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)
重)值以減小誤差
A.1,2,3,4,5
B.5,4,3,2,1
C.3,2,1,5,4
D.4,3,1,5,2
正確答案:D
17、如果一個(gè)模型在測試集上偏差很大,方差很小,則
說明該模型()。
A.過擬合
B.可能過擬合可能欠擬合
第8頁共32頁
C.剛好擬合
D.欠擬合
正確答案:B
18、假如我們使用非線性可分的SVM目標(biāo)函數(shù)作為最優(yōu)
化對象,我們怎么保證模型線性可分?
A.設(shè)C=I
B.設(shè)C=O
C.設(shè)C=無窮大
D.都不對
正確答案:C
19、下列哪項(xiàng)關(guān)于模型能力(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)
雜函數(shù)的能力)的描述是正確的?
A.隱藏層層數(shù)增加,模型能力可能增加
B.Dropout的比例增加,模型能力必然增加
C.學(xué)習(xí)率增加,模型能力必然增加
D.都不正確
正確答案:A
20、輸入32X32的圖像,用大小5X5的卷積核做步長
為1的卷積計(jì)算,輸出圖像的大小是()。
第9頁共32頁
A.28×23
B.28×28
C.29×29
D.23×23
正確答案:B
21、我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了使訓(xùn)練時(shí)間
更少,我們可以()。
A.增加樹的深度
B.增加學(xué)習(xí)率
C.減少樹的深度
D.減少樹的數(shù)量
正確答案:C
22、QTearning算法中,Q函數(shù)是()。
A.狀態(tài)-動(dòng)作值函數(shù)
B.狀態(tài)函數(shù)
C.估值函數(shù)
D.獎(jiǎng)勵(lì)函數(shù)
正確答案:A
23、語言模型的參數(shù)估計(jì)經(jīng)常使用最大似然估計(jì),面臨
第10頁共32頁
的一個(gè)問題是沒有出現(xiàn)的項(xiàng)概率為0,這樣會(huì)導(dǎo)致語言模型
的效果不好。為了解決這個(gè)問題,需要使用()。
A.平滑
B.去噪
C.隨機(jī)插值
D.增加白噪音
正確答案:A
24、關(guān)于LOgit回歸和SVM不正確的是()。
A.Logit回歸目標(biāo)函數(shù)是最小化后驗(yàn)概率
B.Logit回歸可以用于預(yù)測事件發(fā)生概率的大小
C.SVM目標(biāo)是結(jié)構(gòu)風(fēng)險(xiǎn)最小化
D.SVM可以有效避免模型過擬合
正確答案:A
25、機(jī)器翻譯屬于()領(lǐng)域的應(yīng)用。
A.自然語言處理
B.搜索技術(shù)
C.專家系統(tǒng)
D.數(shù)據(jù)挖掘
正確答案:A
第11頁共32頁
26、下列不是SVM核函數(shù)的是()。
A.多項(xiàng)式核函數(shù)
B.Logistic核函數(shù)
C.徑向基核函數(shù)
D.Sigmoid核函數(shù)
正確答案:B
27、下面哪個(gè)決策邊界是神經(jīng)網(wǎng)絡(luò)生成的?
A.A
B.B
C.C
D.D
E、以上都有
正確答案:E
28、假設(shè)在訓(xùn)練中我們突然遇到了一個(gè)問題:在幾次循
環(huán)之后,誤差瞬間降低。你認(rèn)為數(shù)據(jù)有問題,于是你畫出了
數(shù)據(jù)并且發(fā)現(xiàn)也許是數(shù)據(jù)的偏度過大造成了這個(gè)問題,你打
算怎么做來處理這個(gè)問題?
A.對數(shù)據(jù)作歸一化
B.對數(shù)據(jù)取對數(shù)變化
第12頁共32頁
C.對數(shù)據(jù)作主成分分析和歸一化
D.都不對
正確答案:C
29、對于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是()。1)增加
神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測試數(shù)據(jù)集的分類錯(cuò)誤率2)減
少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯(cuò)誤率3)
增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率
A.1
B.1和3
C.1和2
D.2
正確答案:A
30、如果你正在處理文本數(shù)據(jù),使用單詞嵌入(WOrd2vec)
表示使用的單詞。在單詞嵌入中,最終會(huì)有1000維。如果
想減小這個(gè)高維數(shù)據(jù)的維度,使得相似的詞在最鄰近的空間
中具有相似的含義。在這種情況下,你最有可能選擇以下哪
種算法?
A.t-SNE
B.PCA
C.LDA
第13頁共32頁
D.都不是
正確答案:A
31、當(dāng)考慮某個(gè)具體問題時(shí),你可能只有少量數(shù)據(jù)來解
決這個(gè)問題。不過幸運(yùn)的是你有一個(gè)針對類似問題已經(jīng)預(yù)先
訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)。你可以用下面哪種方法來利用這個(gè)預(yù)先
訓(xùn)練好的網(wǎng)絡(luò)?
A.保留最后一層,將其余層重新訓(xùn)練
B.對新數(shù)據(jù)重新訓(xùn)練整個(gè)模型
C.只對最后幾層進(jìn)行調(diào)參
D.對每一層模型進(jìn)行評估,選擇其中的少數(shù)來用
正確答案:C
32、在一個(gè)n維的空間中,最好的檢測離群點(diǎn)(OUtlier)
的方法是()。
A.作正態(tài)分布概率圖
B.作盒形圖
C.馬氏距離
D.作散點(diǎn)圖
正確答案:C
33、在大規(guī)模的語料中,挖掘詞的相關(guān)性是一個(gè)重要的
第14頁共32頁
問題。以下哪一個(gè)信息不能用于確定兩個(gè)詞的相關(guān)性?
A.互信息
B.最大熠
C.卡方檢驗(yàn)
D.最大似然比
正確答案:B
34、基于統(tǒng)計(jì)的分詞方法為()。
A.正向最大匹配法
B.逆向最大匹配法
C.最少切分
D.條件隨機(jī)場
正確答案:D
35、請選擇下面可以應(yīng)用隱馬爾科夫(HMM)模型的數(shù)
據(jù)集Oo
A.基因序列數(shù)據(jù)集
B.電影瀏覽數(shù)據(jù)集
C.股票市場數(shù)據(jù)集
D.所有以上
正確答案:D
第15頁共32頁
36、以P(W)表示詞條W的概率,假設(shè)已知P(南京)=0、
8,P(市長)=0、6,P(江大橋)=0、4,P(南京市)二0、
3,P(長江大橋)=0、5,在訓(xùn)練語料中未出現(xiàn)的詞條概率
為Oo假設(shè)前后兩個(gè)詞的出現(xiàn)是獨(dú)立的,那么分詞結(jié)果就是
Oo
A.南京市*長江*大橋
B.南京*市長*江大橋
C.南京市長*江大橋
D.南京市*長江大橋
正確答案:B
37、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),損失函數(shù)在最初的幾個(gè)epoch
時(shí)沒有下降,可能的原因是()。
A.學(xué)習(xí)率太低
B.正則參數(shù)太高
C.陷入局部最小值
D.以上都有可能
正確答案:A
38、以下屬于回歸算法的優(yōu)化指標(biāo)是()。
A.召回率
第16頁共32頁
B.混淆矩陣
C.均方誤差
D.準(zhǔn)確率
正確答案:C
39、假設(shè)你使用log-loss函數(shù)作為評估標(biāo)準(zhǔn)。下面這
些選項(xiàng),哪些是對作為評估標(biāo)準(zhǔn)的log-loss的正確解釋?
(難度:★★★★★)
A.如果分類器對不正確分類結(jié)果的置信度高,log-loss
會(huì)對分類器作出懲罰
B.對一個(gè)特別的觀察而言,分類器為正確的分類結(jié)果分
配非常小的概率,然后對log-loss的相應(yīng)分布會(huì)非常大
C.log-loss越低,模型越好
D.以上都是
正確答案:D
40、對于一個(gè)圖像識別問題(在一張照片里找出一只貓),
下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問題?
A.循環(huán)神經(jīng)網(wǎng)絡(luò)
B.感知機(jī)
C.多層感知機(jī)
第17頁共32頁
D.卷積神經(jīng)網(wǎng)絡(luò)
正確答案:D
二、多選題
1、假設(shè)我們要解決一個(gè)二類分類問題,我們已經(jīng)建立
好了模型,輸出是O或1,初始時(shí)設(shè)閾值為0、5,超過0、5
概率估計(jì),就判別為1,否則就判別為0;如果我們現(xiàn)在用
另一個(gè)大于0、5的閾值,那么現(xiàn)在關(guān)于模型說法,正確的
是()θ
A.模型分類的召回率會(huì)降低或不變
B.模型分類的召回率會(huì)升高
C.模型分類準(zhǔn)確率會(huì)升高或不變
D.模型分類準(zhǔn)確率會(huì)降低
正確答案:AC
2、假定目標(biāo)變量的類別非常不平衡,即主要類別占據(jù)
了訓(xùn)練數(shù)據(jù)的99%o現(xiàn)在你的模型在測試集上表現(xiàn)為99%的
準(zhǔn)確度。那么下面哪一項(xiàng)表述是正確的?
A.準(zhǔn)確度并不適合于衡量不平衡類別問題
B.準(zhǔn)確度適合于衡量不平衡類別問題
C.精確率和召回率適合于衡量不平衡類別問題
第18頁共32頁
D.精確率和召回率不適合于衡量不平衡類別問題
正確答案:AC
3、以下哪些激活函數(shù)容易產(chǎn)生梯度消失問題?
A.ReLU
B.Softplus
C.Tanh
D.Sigmoid
正確答案:CD
4、在粒子群算法中迭代過程的終止條件是什么?
A.算法不收斂
B.達(dá)到最大迭代次數(shù)
C.找到局部最優(yōu)解
D.全局最優(yōu)位置滿足最小界限
正確答案:BD
5、回歸模型中存在多重共線性,可以如何解決這個(gè)問
題?
A.去除這兩個(gè)共線性變量
B.我們可以先去除一個(gè)共線性變量
C.計(jì)算方差膨脹因子,采取相應(yīng)措施
第19頁共32頁
D.為了避免損失信息,我們可以使用一些正則化方法,
比如嶺回歸和Iasso回歸
正確答案:BC
6、AlPhaGo/Zero主要用了下列哪些方法:(方
A.強(qiáng)化學(xué)習(xí)
B.殘差卷積神經(jīng)網(wǎng)絡(luò)
C.蒙特卡洛樹搜索
D.循環(huán)神經(jīng)網(wǎng)絡(luò)
正確答案:ABC
7、機(jī)器學(xué)習(xí)中Ll正則化和L2正則化的區(qū)別是?
A.使用Ll可以得到稀疏的權(quán)值
B.使用Ll可以得到平滑的權(quán)值
C.使用L2可以得到稀疏的權(quán)值
D.使用L2可以得到平滑的權(quán)值
正確答案:AD
8、強(qiáng)化學(xué)習(xí)包含哪些元素()。
A.Reward
B.Agent
C.State
第20頁共32頁
D.Action
正確答案:ABCD
9、知識圖譜中的數(shù)據(jù)類型分哪幾類?
A.通用數(shù)據(jù)類型
B.半結(jié)構(gòu)化數(shù)據(jù)類型
C.結(jié)構(gòu)化數(shù)據(jù)類型
D.非結(jié)構(gòu)化數(shù)據(jù)類型
正確答案:BCD
10、在計(jì)算機(jī)視覺應(yīng)用中,常用的圖像特征有()。
A.空間關(guān)系特征
B.形狀特征
C.紋理特征
D.顏色特征
正確答案:ABCD
11、有關(guān)數(shù)據(jù)增強(qiáng)的說法正確是哪些?
A.數(shù)據(jù)增強(qiáng)會(huì)增加樣本的個(gè)數(shù),因此可能會(huì)減少過擬合
B.對于分類問題,數(shù)據(jù)增強(qiáng)是減少數(shù)據(jù)不平衡的一種方
法。
C.對于手寫體的識別,對樣本的反轉(zhuǎn)、旋轉(zhuǎn)、裁剪、變
第21頁共32頁
形和縮放等操作會(huì)提高神經(jīng)網(wǎng)絡(luò)的識別效果
D.數(shù)據(jù)增強(qiáng)帶來了噪聲,因此一般會(huì)降低神經(jīng)網(wǎng)絡(luò)模型
的效果
正確答案:ABC
12、下面哪些場景用循環(huán)神經(jīng)網(wǎng)絡(luò)處理效果比較好?
A.自然語言處理
B.語音識別
C.圖像識別
D.人臉識別
正確答案:AB
13、在分類問題中,我們經(jīng)常會(huì)遇到正負(fù)樣本數(shù)據(jù)量不
等的情況,比如正樣本為10萬條數(shù)據(jù),負(fù)樣本只有1萬條數(shù)
據(jù),以下最合適的處理方法是?
A.將負(fù)樣本重復(fù)10次,生成10萬樣本量,打亂順序參
與分類
B.直接進(jìn)行分類,可以最大限度利用數(shù)據(jù)
C.從10萬正樣本中隨機(jī)抽取1萬參與分類
D.將負(fù)樣本每個(gè)權(quán)重設(shè)置為10,正樣本權(quán)重為1,參與
訓(xùn)練過程
第22頁共32頁
正確答案:ACD
14、電影推薦系統(tǒng)是以下哪些的應(yīng)用實(shí)例?
A.分類
B.聚類
C.強(qiáng)化學(xué)習(xí)
D.回歸
正確答案:ABC
15、人工智能的主要應(yīng)用領(lǐng)域有()。
A.自然語言理解
B.數(shù)據(jù)庫的智能檢索
C.專家咨詢系統(tǒng)
D.感知問題
正確答案:ABCD
16、以下說法中正確的是()。
A.SVM對噪聲(如來自其他分布的噪聲樣本)魯棒
B.在AdaBoost算法中,所有被分錯(cuò)的樣本的權(quán)重更新
比例相同
C.BoOSting和Bagging都是組合多個(gè)分類器投票的方法,
二者都是根據(jù)單個(gè)分類器的正確率決定其權(quán)重
第23頁共32頁
D.給定n個(gè)數(shù)據(jù)點(diǎn),如果其中一半用于訓(xùn)練,一般用于
測試,則訓(xùn)練誤差和測試誤差之間的差別會(huì)隨著n的增加而
減少
正確答案:BD
17、變量選擇是用來選擇最好的判別器子集,如果要考
慮模型效率,我們應(yīng)該做哪些變量選擇的考慮?
A.多個(gè)變量其實(shí)有相同的用處
B.變量對于模型的解釋有多大作用
C.特征攜帶的信息
D.交叉驗(yàn)證
正確答案:ACD
18、如果以特征向量的相關(guān)系數(shù)作為模式相似性測度,
則影響聚類算法結(jié)果的主要因素有()。
A.已知類別樣本質(zhì)量
B.分類準(zhǔn)則
C.特征選取
D.量綱
正確答案:BC
19、下面屬于知識圖譜正確的三元組表示方式的是?
第24頁共32頁
A.實(shí)體一屬性一屬性值
B.實(shí)體1—實(shí)體2—實(shí)體3
C.實(shí)體一關(guān)系一屬性值
D.實(shí)體1—關(guān)系一實(shí)體2
正確答案:AD
20、下面哪些是基于核的機(jī)器學(xué)習(xí)算法?
A.最大期望算法
B.徑向基核函數(shù)
C.線性判別分析法
D.支持向量機(jī)
正確答案:BCD
三、判斷題
1、感知機(jī)的運(yùn)作原理是邏輯判斷流程。
A.正確
B.錯(cuò)誤
正確答案:B
2、邏輯回歸的損失函數(shù)是交叉端損失函數(shù)。
A.正確
第25頁共32頁
B.錯(cuò)誤
正確答案:A
3、如果增加多層感知機(jī)的隱藏層層數(shù),分類誤差便會(huì)
減小。
A.正確
B.錯(cuò)誤
正確答案:B
4、在圖像處理中,采樣越細(xì),像素越小,越能精確的
表現(xiàn)圖像。
A.正確
B.錯(cuò)誤
正確答案:A
5、樣本輸入順序、聚類準(zhǔn)則、初始類中心的選取都屬
于會(huì)影響基本K-均值算法的主要因素。
A.正確
B.錯(cuò)誤
正確答案:B
6、語音識別指的是將音頻數(shù)據(jù)識別為文本數(shù)據(jù)。
A.正確
第26頁共32頁
B.錯(cuò)誤
正確答案:A
7、邊緣檢測是將邊緣像素標(biāo)識出來的一種圖像分割技
術(shù)。
A.正確
B.錯(cuò)誤
正確答案:A
8、某個(gè)人、某個(gè)城市、某種植物在知識圖譜中都被稱
為實(shí)體。
A.正確
B.錯(cuò)誤
正確答案:A
9、網(wǎng)格搜索是一種參數(shù)調(diào)節(jié)方法。
A.正確
B.錯(cuò)誤
正確答案:A
10、生成對抗網(wǎng)絡(luò)可用于數(shù)據(jù)增強(qiáng)、語義分割、信息檢
索、圖像生成等多種場景。
A.正確
第27頁共32頁
B.錯(cuò)誤
正確答案:A
11、線性回歸的損失函數(shù)中加入Ll正則項(xiàng),此時(shí)該回
歸叫做LaSSO回歸。
A.正確
B.錯(cuò)誤
正確答案:A
12、在隨機(jī)森林中,最終的集
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 材料抵債協(xié)議書
- 運(yùn)輸供應(yīng)商合同協(xié)議
- 運(yùn)輸拖掛車隊(duì)合同協(xié)議
- 鄰里房屋協(xié)議書范本
- 水下砌墻協(xié)議書
- 化妝品代理銷售合同
- 通訊工程設(shè)計(jì)合同協(xié)議
- 活動(dòng)委托協(xié)議書
- 課程顧問招聘合同協(xié)議
- 返傭協(xié)議書范本模板
- 浙江省腫瘤醫(yī)院醫(yī)療廢物暫存間環(huán)保設(shè)施提升改造項(xiàng)目報(bào)告表
- 《加拉帕戈斯群島》課件
- 2024人教版新教材初中物理八年級下冊內(nèi)容解讀課件(深度)
- 工程經(jīng)濟(jì)學(xué)(青島理工大學(xué))知到智慧樹章節(jié)測試課后答案2024年秋青島理工大學(xué)
- (高清版)DB2201∕T 43-2023 肉犢牛飼養(yǎng)技術(shù)規(guī)范
- 2025年醫(yī)院消化內(nèi)科年度工作計(jì)劃
- 水資源應(yīng)急調(diào)度模型-洞察分析
- DB51-T 3000-2023 退役軍人服務(wù)站建設(shè)與運(yùn)行管理規(guī)范
- 神經(jīng)指南:中國成人失眠診斷與治療指南(2017版)
- 代理商合作條件說明
- GB/T 15843.2-2024網(wǎng)絡(luò)安全技術(shù)實(shí)體鑒別第2部分:采用鑒別式加密的機(jī)制
評論
0/150
提交評論