2023年《人工智能》現(xiàn)代科技知識(shí)考試題與答案_第1頁(yè)
2023年《人工智能》現(xiàn)代科技知識(shí)考試題與答案_第2頁(yè)
2023年《人工智能》現(xiàn)代科技知識(shí)考試題與答案_第3頁(yè)
2023年《人工智能》現(xiàn)代科技知識(shí)考試題與答案_第4頁(yè)
2023年《人工智能》現(xiàn)代科技知識(shí)考試題與答案_第5頁(yè)
已閱讀5頁(yè),還剩27頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2023年《人工智能》現(xiàn)代科技知識(shí)考

試題與答案目錄簡(jiǎn)介一、 單選題:共40題二、 多選題:共20題三、 判斷題:共26題一、單選題1、 下列哪部分不是專(zhuān)家系統(tǒng)的組成部分?用戶(hù)綜合數(shù)據(jù)庫(kù)推理機(jī)知識(shí)庫(kù)正確答案:A解析:《人工智能導(dǎo)論》(第4版)作者:王萬(wàn)良出版社:高等教育出版社2、 下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享?卷積神經(jīng)網(wǎng)絡(luò)循環(huán)神經(jīng)網(wǎng)絡(luò)全連接神經(jīng)網(wǎng)絡(luò)A和B正確答案:D解析:《深度學(xué)習(xí)、優(yōu)化與識(shí)別》作者:焦李成出版社:清華大學(xué)出版社3、 下列哪個(gè)不屬于常用的文本分類(lèi)的特征選擇算法?卡方檢驗(yàn)值互信息信息增益主成分分析正確答案:D解析:《自然語(yǔ)言處理》作者:劉挺出版社:高等教育出版社4、 下列哪個(gè)不是人工智能的技術(shù)應(yīng)用領(lǐng)域?搜索技術(shù)數(shù)據(jù)挖掘智能控制編譯原理正確答案:D解析:《走進(jìn)人工智能》作者:周旺出版社:高等教育出版社5、 Q(s,a)是指在給定狀態(tài)s的情況下,釆取行動(dòng)a之后,后續(xù)的各個(gè)狀態(tài)所能得到的回報(bào)()??偤妥畲笾底钚≈灯谕嫡_答案:D解析:《深度學(xué)習(xí)、優(yōu)化與識(shí)別》作者:焦李成出版社:清華大學(xué)出版社6、 數(shù)據(jù)科學(xué)家可能會(huì)同時(shí)使用多個(gè)算法(模型)進(jìn)行預(yù)測(cè),并且最后把這些算法的結(jié)果集成起來(lái)進(jìn)行最后的預(yù)測(cè)(集成學(xué)習(xí)),以下對(duì)集成學(xué)習(xí)說(shuō)法正確的是()。單個(gè)模型之間有高相關(guān)性單個(gè)模型之間有低相關(guān)性在集成學(xué)習(xí)中使用“平均權(quán)重"而不是“投票"會(huì)比較好單個(gè)模型都是用的一個(gè)算法正確答案:B解析:《機(jī)器學(xué)習(xí)方法》作者:李航出版社:清華大學(xué)出版社7、 以下哪種技術(shù)對(duì)于減少數(shù)據(jù)集的維度會(huì)更好?刪除缺少值太多的列刪除數(shù)據(jù)差異較大的列刪除不同數(shù)據(jù)趨勢(shì)的列都不是正確答案:A解析:《機(jī)器學(xué)習(xí)》作者:周志華出版社:清華大學(xué)出版社8、 在強(qiáng)化學(xué)習(xí)過(guò)程中,學(xué)習(xí)率越大,表示釆用新的嘗試得到的結(jié)果比例越(),保持舊的結(jié)果的比例越()。大,小大,大小,大小,小正確答案:A解析:《深度學(xué)習(xí)、優(yōu)化與識(shí)別》作者:焦李成出版社:清華大學(xué)出版社9、 以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法?嵌入過(guò)濾包裝抽樣正確答案:D解析:《深度學(xué)習(xí)、優(yōu)化與識(shí)別》作者:焦李成出版社:清華大學(xué)出版社10、 要想讓機(jī)器具有智能,必須讓機(jī)器具有知識(shí)。因此,在人工智能中有一個(gè)研究領(lǐng)域,主要研究計(jì)算機(jī)如何自動(dòng)獲取知識(shí)和技能,實(shí)現(xiàn)自我完善,這門(mén)研究分支學(xué)科叫()。專(zhuān)家系統(tǒng)機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模式識(shí)別正確答案:B11、 在一個(gè)神經(jīng)網(wǎng)絡(luò)中,下面()方法可以用來(lái)處理過(guò)擬合。Dropout分批歸一化(BatchNormalization)正則化(Regularization)都可以正確答案:D12、 以下幾種模型方法屬于判別式模型的有()。1)混合高斯模型2)條件隨機(jī)場(chǎng)模型3)區(qū)分度訓(xùn)練4)隱馬爾科夫模型TOC\o"1-5"\h\z2,33,41,41,2正確答案:A13、 神經(jīng)網(wǎng)絡(luò)模型因受人類(lèi)大腦的啟發(fā)而得名。神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元組成,每個(gè)神經(jīng)元接受一個(gè)輸入,對(duì)輸入進(jìn)行處理后給出一個(gè)輸出。請(qǐng)問(wèn)下列關(guān)于神經(jīng)元的描述中,哪一項(xiàng)是正確的?每個(gè)神經(jīng)元只有一個(gè)輸入和一個(gè)輸出每個(gè)神經(jīng)元有多個(gè)輸入和一個(gè)輸出每個(gè)神經(jīng)元有一個(gè)輸入和多個(gè)輸出每個(gè)神經(jīng)元有多個(gè)輸入和多個(gè)輸出上述都正確正確答案:E14、 生成對(duì)抗網(wǎng)絡(luò)像是一個(gè)博弈系統(tǒng),生成器生成偽造的樣本,判別器判斷是真是假,我們理想的結(jié)果是()。生成器產(chǎn)生的樣本大致相同判別器高效的分辨生成器產(chǎn)生樣本的真假判別器無(wú)法分辨生成器產(chǎn)生樣本的真假生成器產(chǎn)生的樣本不盡相同正確答案:C15、 己知:1)大腦是有很多個(gè)叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對(duì)大腦的簡(jiǎn)單的數(shù)學(xué)表達(dá)。2)每一個(gè)神經(jīng)元都有輸入、處理函數(shù)和輸出。3)神經(jīng)元組合起來(lái)形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。4)為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型。給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,()什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱(chēng)為深度學(xué)習(xí)模型?加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加有維度更高的數(shù)據(jù)當(dāng)這是一個(gè)圖形識(shí)別的問(wèn)題時(shí)以上都不正確正確答案:A16、 梯度下降算法的正確步驟是什么?1)計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差2)重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值3)把輸入傳入網(wǎng)絡(luò),得到輸出值4)用隨機(jī)值初始化權(quán)重和偏差5)對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差1,2,3,4,55,4,3,2,13,2,1,5,44,3,1,5,2正確答案:D17、 如果一個(gè)模型在測(cè)試集上偏差很大,方差很小,則說(shuō)明該模型()。過(guò)擬合可能過(guò)擬合可能欠擬合剛好擬合欠擬合正確答案:B18、 假如我們使用非線性可分的SVM目標(biāo)函數(shù)作為最優(yōu)化對(duì)象,我們?cè)趺幢WC模型線性可分?設(shè)C=1設(shè)00設(shè)C二無(wú)窮大都不對(duì)正確答案:C19、 下列哪項(xiàng)關(guān)于模型能力(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)的描述是正確的?隱藏層層數(shù)增加,模型能力可能增加Dropout的比例增加,模型能力必然增加學(xué)習(xí)率增加,模型能力必然增加都不正確正確答案:A20、 輸入32X32的圖像,用大小5X5的卷積核做步長(zhǎng)為1的卷積計(jì)算,輸出圖像的大小是()。TOC\o"1-5"\h\z28X2328X2829X2923X23正確答案:B21、 我們想在大數(shù)據(jù)集上訓(xùn)練決策樹(shù),為了使訓(xùn)練時(shí)間更少,我們可以()。增加樹(shù)的深度增加學(xué)習(xí)率減少樹(shù)的深度減少樹(shù)的數(shù)量正確答案:C22、 Q-learning算法中,Q函數(shù)是()。狀態(tài)-動(dòng)作值函數(shù)狀態(tài)函數(shù)估值函數(shù)獎(jiǎng)勵(lì)函數(shù)正確答案:A23、 語(yǔ)言模型的參數(shù)估計(jì)經(jīng)常使用最大似然估計(jì),面臨的一個(gè)問(wèn)題是沒(méi)有出現(xiàn)的項(xiàng)概率為0,這樣會(huì)導(dǎo)致語(yǔ)言模型的效果不好。為了解決這個(gè)問(wèn)題,需要使用()。平滑去噪隨機(jī)插值增加白噪音正確答案:A24>關(guān)于Logit回歸和SVM不正確的是()。Logit回歸目標(biāo)函數(shù)是最小化后驗(yàn)概率Logit回歸可以用于預(yù)測(cè)事件發(fā)生概率的大小SVM目標(biāo)是結(jié)構(gòu)風(fēng)險(xiǎn)最小化SVM可以有效避免模型過(guò)擬合正確答案:A25>機(jī)器翻譯屬于()領(lǐng)域的應(yīng)用。自然語(yǔ)言處理搜索技術(shù)專(zhuān)家系統(tǒng)數(shù)據(jù)挖掘正確答案:A26、 下列不是SVM核函數(shù)的是()。多項(xiàng)式核函數(shù)Logistic核函數(shù)徑向基核函數(shù)Sigmoid核函數(shù)正確答案:B27、 下面哪個(gè)決策邊界是神經(jīng)網(wǎng)絡(luò)生成的?TOC\o"1-5"\h\zABCD以上都有正確答案:E28、 假設(shè)在訓(xùn)練中我們突然遇到了一個(gè)問(wèn)題:在幾次循環(huán)之后,誤差瞬間降低。你認(rèn)為數(shù)據(jù)有問(wèn)題,于是你畫(huà)出了數(shù)據(jù)并且發(fā)現(xiàn)也許是數(shù)據(jù)的偏度過(guò)大造成了這個(gè)問(wèn)題,你打算怎么做來(lái)處理這個(gè)問(wèn)題?對(duì)數(shù)據(jù)作歸一化對(duì)數(shù)據(jù)取對(duì)數(shù)變化對(duì)數(shù)據(jù)作主成分分析和歸一化都不對(duì)正確答案:C29、 對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是()。1)增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類(lèi)錯(cuò)誤率2)減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類(lèi)錯(cuò)誤率3)增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類(lèi)錯(cuò)誤率TOC\o"1-5"\h\z11和31和22正確答案:A30、 如果你正在處理文本數(shù)據(jù),使用單詞嵌入(Word2vec)表示使用的單詞。在單詞嵌入中,最終會(huì)有1000維。如果想減小這個(gè)高維數(shù)據(jù)的維度,使得相似的詞在最鄰近的空間中具有相似的含義。在這種情況下,你最有可能選擇以下哪種算法?t-SNEPCALDA都不是正確答案:A31、 當(dāng)考慮某個(gè)具體問(wèn)題時(shí),你可能只有少量數(shù)據(jù)來(lái)解決這個(gè)問(wèn)題。不過(guò)幸運(yùn)的是你有一個(gè)針對(duì)類(lèi)似問(wèn)題己經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)。你可以用下面哪種方法來(lái)利用這個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?保留最后一層,將其余層重新訓(xùn)練對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型只對(duì)最后幾層進(jìn)行調(diào)參對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來(lái)用正確答案:C32、 在一個(gè)n維的空間中,最好的檢測(cè)離群點(diǎn)(outlier)的方法是()。作正態(tài)分布概率圖作盒形圖馬氏距離作散點(diǎn)圖正確答案:C33、 在大規(guī)模的語(yǔ)料中,挖掘詞的相關(guān)性是一個(gè)重要的問(wèn)題。以下哪一個(gè)信息不能用于確定兩個(gè)詞的相關(guān)性?互信息最大嫡卡方檢驗(yàn)最大似然比正確答案:B34、 基于統(tǒng)計(jì)的分詞方法為()。正向最大匹配法逆向最大匹配法最少切分條件隨機(jī)場(chǎng)正確答案:D35、 請(qǐng)選擇下面可以應(yīng)用隱馬爾科夫(HMM)模型的數(shù)據(jù)集Oo基因序列數(shù)據(jù)集電影瀏覽數(shù)據(jù)集股票市場(chǎng)數(shù)據(jù)集所有以上正確答案:D36、 以P(w)表示詞條w的概率,假設(shè)已知P(南京)二0、8,P(市長(zhǎng))=0、6,P(江大橋)=0、4,P(南京市)二0、3,P(長(zhǎng)江大橋)二0、5,在訓(xùn)練語(yǔ)料中未出現(xiàn)的詞條概率為0。假設(shè)前后兩個(gè)詞的出現(xiàn)是獨(dú)立的,那么分詞結(jié)果就是()o南京市*長(zhǎng)江*大橋南京*市長(zhǎng)*江大橋南京市長(zhǎng)*江大橋南京市*長(zhǎng)江大橋正確答案:B37、 在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),損失函數(shù)在最初的幾個(gè)epoch時(shí)沒(méi)有下降,可能的原因是()。學(xué)習(xí)率太低正則參數(shù)太高陷入局部最小值以上都有可能正確答案:A38、 以下屬于回歸算法的優(yōu)化指標(biāo)是()。A.召回率混淆矩陣均方誤差準(zhǔn)確率正確答案:C39、 假設(shè)你使用log-loss函數(shù)作為評(píng)估標(biāo)準(zhǔn)。下面這些選項(xiàng),哪些是對(duì)作為評(píng)估標(biāo)準(zhǔn)的log-loss的正確解釋?zhuān)浚y度:★★★★★)如果分類(lèi)器對(duì)不正確分類(lèi)結(jié)果的置信度高,log-loss會(huì)對(duì)分類(lèi)器作出懲罰對(duì)一個(gè)特別的觀察而言,分類(lèi)器為正確的分類(lèi)結(jié)果分配非常小的概率,然后對(duì)log-loss的相應(yīng)分布會(huì)非常大log-loss越低,模型越好以上都是正確答案:D40、 對(duì)于一個(gè)圖像識(shí)別問(wèn)題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問(wèn)題?循環(huán)神經(jīng)網(wǎng)絡(luò)感知機(jī)多層感知機(jī)卷積神經(jīng)網(wǎng)絡(luò)正確答案:D二、多選題1、 假設(shè)我們要解決一個(gè)二類(lèi)分類(lèi)問(wèn)題,我們己經(jīng)建立好了模型,輸出是0或1,初始時(shí)設(shè)閾值為0、5,超過(guò)0、5概率估計(jì),就判別為1,否則就判別為0;如果我們現(xiàn)在用另一個(gè)大于0、5的閾值,那么現(xiàn)在關(guān)于模型說(shuō)法,正確的是()。模型分類(lèi)的召回率會(huì)降低或不變B?模型分類(lèi)的召回率會(huì)升高模型分類(lèi)準(zhǔn)確率會(huì)升高或不變模型分類(lèi)準(zhǔn)確率會(huì)降低正確答案:AC2、 假定目標(biāo)變量的類(lèi)別非常不平衡,即主要類(lèi)別占據(jù)了訓(xùn)練數(shù)據(jù)的99%o現(xiàn)在你的模型在測(cè)試集上表現(xiàn)為99%的準(zhǔn)確度。那么下面哪一項(xiàng)表述是正確的?準(zhǔn)確度并不適合于衡量不平衡類(lèi)別問(wèn)題準(zhǔn)確度適合于衡量不平衡類(lèi)別問(wèn)題精確率和召回率適合于衡量不平衡類(lèi)別問(wèn)題精確率和召回率不適合于衡量不平衡類(lèi)別問(wèn)題正確答案:AC3、 以下哪些激活函數(shù)容易產(chǎn)生梯度消失問(wèn)題?ReLUSoftplusTanhSigmoid正確答案:CD4、 在粒子群算法中迭代過(guò)程的終止條件是什么?算法不收斂達(dá)到最大迭代次數(shù)找到局部最優(yōu)解全局最優(yōu)位置滿(mǎn)足最小界限正確答案:BD5、 回歸模型中存在多重共線性,可以如何解決這個(gè)問(wèn)題?去除這兩個(gè)共線性變量我們可以先去除一個(gè)共線性變量計(jì)算方差膨脹因子,采取相應(yīng)措施為了避免損失信息,我們可以使用一些正則化方法,比如嶺回歸和lasso回歸正確答案:BC6、 AlphaGo/Zero主要用了下列哪些方法:()。強(qiáng)化學(xué)習(xí)殘差卷積神經(jīng)網(wǎng)絡(luò)蒙特卡洛樹(shù)搜索循環(huán)神經(jīng)網(wǎng)絡(luò)正確答案:ABC7、 機(jī)器學(xué)習(xí)中L1正則化和L2正則化的區(qū)別是?使用L1可以得到稀疏的權(quán)值使用L1可以得到平滑的權(quán)值使用L2可以得到稀疏的權(quán)值使用L2可以得到平滑的權(quán)值正確答案:AD8、 強(qiáng)化學(xué)習(xí)包含哪些元素()。RewardAgentStateD.Action正確答案:ABCD9、 知識(shí)圖譜中的數(shù)據(jù)類(lèi)型分哪幾類(lèi)?通用數(shù)據(jù)類(lèi)型半結(jié)構(gòu)化數(shù)據(jù)類(lèi)型結(jié)構(gòu)化數(shù)據(jù)類(lèi)型非結(jié)構(gòu)化數(shù)據(jù)類(lèi)型正確答案:BCD10、 在計(jì)算機(jī)視覺(jué)應(yīng)用中,常用的圖像特征有()。空間關(guān)系特征形狀特征紋理特征顏色特征正確答案:ABCD11、 有關(guān)數(shù)據(jù)增強(qiáng)的說(shuō)法正確是哪些?數(shù)據(jù)增強(qiáng)會(huì)增加樣本的個(gè)數(shù),因此可能會(huì)減少過(guò)擬合對(duì)于分類(lèi)問(wèn)題,數(shù)據(jù)增強(qiáng)是減少數(shù)據(jù)不平衡的一種方法。對(duì)于手寫(xiě)體的識(shí)別,對(duì)樣本的反轉(zhuǎn)、旋轉(zhuǎn)、裁剪、變形和縮放等操作會(huì)提高神經(jīng)網(wǎng)絡(luò)的識(shí)別效果數(shù)據(jù)增強(qiáng)帶來(lái)了噪聲,因此一般會(huì)降低神經(jīng)網(wǎng)絡(luò)模型的效果正確答案:ABC12、 下面哪些場(chǎng)景用循環(huán)神經(jīng)網(wǎng)絡(luò)處理效果比較好?自然語(yǔ)言處理語(yǔ)音識(shí)別圖像識(shí)別人臉識(shí)別正確答案:AB13、 在分類(lèi)問(wèn)題中,我們經(jīng)常會(huì)遇到正負(fù)樣本數(shù)據(jù)量不等的情況,比如正樣本為10萬(wàn)條數(shù)據(jù),負(fù)樣本只有1萬(wàn)條數(shù)據(jù),以下最合適的處理方法是?將負(fù)樣本重復(fù)10次,生成10萬(wàn)樣本量,打亂順序參與分類(lèi)B?直接進(jìn)行分類(lèi),可以最大限度利用數(shù)據(jù)從10萬(wàn)正樣本中隨機(jī)抽取1萬(wàn)參與分類(lèi)將負(fù)樣本每個(gè)權(quán)重設(shè)置為10,正樣本權(quán)重為1,參與訓(xùn)練過(guò)程正確答案:ACD14、 電影推薦系統(tǒng)是以下哪些的應(yīng)用實(shí)例?分類(lèi)聚類(lèi)強(qiáng)化學(xué)習(xí)回歸正確答案:ABC15、 人工智能的主要應(yīng)用領(lǐng)域有()。自然語(yǔ)言理解數(shù)據(jù)庫(kù)的智能檢索專(zhuān)家咨詢(xún)系統(tǒng)感知問(wèn)題正確答案:ABCD16、 以下說(shuō)法中正確的是()。SVM對(duì)噪聲(如來(lái)自其他分布的噪聲樣本)魯棒在AdaBoost算法中,所有被分錯(cuò)的樣本的權(quán)重更新比例相同Boosting和Bagging都是組合多個(gè)分類(lèi)器投票的方法,二者都是根據(jù)單個(gè)分類(lèi)器的正確率決定其權(quán)重給定n個(gè)數(shù)據(jù)點(diǎn),如果其中一半用于訓(xùn)練,一般用于測(cè)試,則訓(xùn)練誤差和測(cè)試誤差之間的差別會(huì)隨著n的增加而減少正確答案:BD17、 變量選擇是用來(lái)選擇最好的判別器子集,如果要考慮模型效率,我們應(yīng)該做哪些變量選擇的考慮?多個(gè)變量其實(shí)有相同的用處變量對(duì)于模型的解釋有多大作用特征攜帶的信息交叉驗(yàn)證正確答案:ACD18、 如果以特征向量的相關(guān)系數(shù)作為模式相似性測(cè)度,則影響聚類(lèi)算法結(jié)果的主要因素有()。已知類(lèi)別樣本質(zhì)量分類(lèi)準(zhǔn)則特征選取量綱正確答案:BC19、 下面屬于知識(shí)圖譜正確的三元組表示方式的是?A.A.正確實(shí)體一屬性一屬性值實(shí)體1—實(shí)體2—實(shí)體3實(shí)體一關(guān)系一屬性值實(shí)體1—關(guān)系一實(shí)體2正確答案:AD20、下面哪些是基于核的機(jī)器學(xué)習(xí)算法?最大期望算法徑向基核函數(shù)線性判別分析法D?支持向量機(jī)正確答案:BCD三、判斷題1、 感知機(jī)的運(yùn)作原理是邏輯判斷流程。正確錯(cuò)誤正確答案:B2、 邏輯回歸的損失函數(shù)是交叉炳損失函數(shù)。B.B.錯(cuò)誤A.A.正確正確答案:A3、 如果增加多層感知機(jī)的隱藏層層數(shù),分類(lèi)誤差便會(huì)減小。正確錯(cuò)誤正確答案:B4、 在圖像處理中,釆樣越細(xì),像素越小,越能精確的表現(xiàn)圖像。正確錯(cuò)誤正確答案:A5、 樣本輸入順序、聚類(lèi)準(zhǔn)則、初始類(lèi)中心的選取都屬于會(huì)影響基本K-均值算法的主要因素。正確錯(cuò)誤正確答案:B6、 語(yǔ)音識(shí)別指的是將音頻數(shù)據(jù)識(shí)別為文本數(shù)據(jù)。正確答案:A7、 邊緣檢測(cè)是將邊緣像素標(biāo)識(shí)出來(lái)的一種圖像分割技術(shù)。正確錯(cuò)誤正確答案:A8、 某個(gè)人、某個(gè)城市、某種植物在知識(shí)圖譜中都被稱(chēng)為實(shí)體。正確錯(cuò)誤正確答案:A9、 網(wǎng)格搜索是一種參數(shù)調(diào)節(jié)方法。正確錯(cuò)誤正確答案:A10、 生成對(duì)抗網(wǎng)絡(luò)可用于數(shù)據(jù)增強(qiáng)、語(yǔ)義分割、信息檢索、圖像生成等多種場(chǎng)景。正確答案:A11、 線性回歸

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論