




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、人工智能題庫(kù)(二)一、單選如果分別向參加測(cè)試的人和計(jì)算機(jī)提出一些書(shū)面問(wèn)題,人類無(wú)法區(qū)分問(wèn)題答案來(lái)自人還是計(jì)算機(jī)那么可以說(shuō)這臺(tái)計(jì)算機(jī)通過(guò)了測(cè)試。黑盒B丘奇C圖靈D智商2.1955年,麥卡錫、明斯基、香農(nóng)和諾切斯特四位學(xué)者首次提出“ArtificialIntelligence”這個(gè)概念時(shí),希望人工智能研究的主題是。避免計(jì)算機(jī)控制人類B.人工智能倫理C.全力研究人類大腦D.用計(jì)算機(jī)來(lái)模擬人類智能3有人說(shuō)“人類智能是智能回路的總開(kāi)關(guān)”,即人類智能決定著任何智能的高度、廣度和深度,下面描述和這個(gè)觀點(diǎn)不一致。人類智能是機(jī)器智能的設(shè)計(jì)者機(jī)器智能目前已經(jīng)超越了人類智能機(jī)器智能目前無(wú)法完全模擬人類所有智能機(jī)器智
2、能和人類智能相互協(xié)同所產(chǎn)生的智能能力可超越人類智能或機(jī)器智能下面關(guān)于人工智能及深度學(xué)習(xí)的關(guān)系描述中,是正確的。機(jī)器學(xué)習(xí)是深度學(xué)習(xí)的一種方法人工智能是機(jī)器學(xué)習(xí)的分支人工智能就是深度學(xué)習(xí)深度學(xué)習(xí)是一種機(jī)器學(xué)習(xí)的方法下面描述了現(xiàn)有深度學(xué)習(xí)這一種人工智能方法的特點(diǎn)大數(shù)據(jù),大任務(wù)大數(shù)據(jù),小任務(wù)小數(shù)據(jù),小任務(wù)小數(shù)據(jù),大任務(wù)TOC o 1-5 h z6被譽(yù)為“機(jī)器學(xué)習(xí)之父“的是。A.塞繆爾B.費(fèi)根鮑姆C.西蒙D.圖靈7.第一個(gè)成功研制的專家系統(tǒng)是。A.計(jì)算機(jī)配置專家系統(tǒng)XconB.血液病診斷專家系統(tǒng)MYCINC.化合物結(jié)構(gòu)識(shí)別專家系統(tǒng)DendralD.探礦專家系統(tǒng)Prospector8強(qiáng)化學(xué)習(xí)技術(shù)屬于學(xué)派。
3、行為主義B.符號(hào)主義C.連接主義D.邏輯主義9.計(jì)算機(jī)領(lǐng)域的最高獎(jiǎng)項(xiàng)是。菲爾茲獎(jiǎng)B.馮諾伊曼獎(jiǎng)C.圖靈獎(jiǎng)D.香農(nóng)獎(jiǎng)10機(jī)器智能目前還無(wú)法達(dá)到人類智能,主要原因是機(jī)器智能占有的數(shù)據(jù)量還不夠大機(jī)器智能的支持設(shè)備的計(jì)算能力不足機(jī)器智能的推理規(guī)則不全面機(jī)器智能缺乏直覺(jué)和頓悟能力11我國(guó)新一代人工智能發(fā)展規(guī)劃中規(guī)劃,到年成為世界主要人工智能創(chuàng)新中心。A.2020B.2025C.2030D.203512.A*算法是一種有信息搜索算法,在最短路徑搜索中引入的輔助信息是路途中天氣和交通狀況等信息旅行者興趣偏好信息任意一個(gè)城市到起始城市之間直線距離任意一個(gè)城市到目標(biāo)城市之間直線距離13除了問(wèn)題本身的定義之外,使
4、用問(wèn)題特定知識(shí)的搜索策略被認(rèn)為是啟發(fā)式算法minimax算法深度優(yōu)先搜索蒙特卡洛樹(shù)搜索在啟發(fā)式搜索(有信息搜索)中,啟發(fā)函數(shù)的作用是從當(dāng)前節(jié)點(diǎn)出發(fā)來(lái)選擇后續(xù)節(jié)點(diǎn)計(jì)算從當(dāng)前節(jié)點(diǎn)到目標(biāo)節(jié)點(diǎn)之間的最小代價(jià)值判斷搜索算法的空間復(fù)雜度判斷搜索算法的時(shí)間復(fù)雜度在貪婪最佳優(yōu)先搜索中,評(píng)價(jià)函數(shù)取值和啟發(fā)函數(shù)取值之間的關(guān)系是A.相等B.不相等C大于D小于下面哪一種有序組合是蒙特卡洛樹(shù)搜索中一次正確的迭代步驟A擴(kuò)展、模擬、采樣、反向傳播擴(kuò)展、選擇、模擬、反向傳播模擬、選擇、擴(kuò)展、反向傳播D選擇、擴(kuò)展、模擬、反向傳播17根據(jù)圖中所示的minimax算法決策樹(shù),根結(jié)點(diǎn)的估值是16B.9C.20D.12在啟發(fā)式搜索中,
5、評(píng)價(jià)函數(shù)的作用是。判斷搜索算法的時(shí)間復(fù)雜度判斷搜索算法的空間復(fù)雜度從當(dāng)前節(jié)點(diǎn)出發(fā)來(lái)選擇后續(xù)節(jié)點(diǎn)計(jì)算從當(dāng)前節(jié)點(diǎn)到目標(biāo)節(jié)點(diǎn)之間的最小代價(jià)值色彩的RGB三原色模型是三種原色。紅、綠、藍(lán)紅、黃、藍(lán)黃、綠、藍(lán)D.紅、綠、黃20.考慮到對(duì)稱性,井字棋最終局面有種不相同的可能。A.19683B.91C.44D.13821蒙特卡洛搜索樹(shù)中,在階段要兼顧探索和利用。選擇B擴(kuò)展C模擬D反向傳播22下面對(duì)minimax搜索算法描述中,哪句描述是不正確的。MIN節(jié)點(diǎn)希望對(duì)方收益最小化minimax值計(jì)算從根節(jié)點(diǎn)自頂向下進(jìn)行根據(jù)minimax值確定行棋決策M(jìn)AX節(jié)點(diǎn)希望自己收益最大化將兩個(gè)圖片每個(gè)像素RGB三個(gè)分量的差
6、值的平方和作為適應(yīng)度函數(shù)的計(jì)算方法。前后兩次計(jì)算得出來(lái)的值分別為1512869728和1495705312,那么說(shuō)明適應(yīng)度函數(shù)彳_,適應(yīng)度變低了;變低了B.變高了;變低了C.變低了;變高了D.變高了;變高了圖中所展示的拼圖問(wèn)題基因遺傳算法過(guò)程是過(guò)程。A.選擇B.初始化C.變異D.淘汰25在A*搜索算法中,評(píng)價(jià)函數(shù)可以如下定義。評(píng)價(jià)函數(shù)之值二(從起始節(jié)點(diǎn)出發(fā)到當(dāng)前節(jié)點(diǎn)最小開(kāi)銷代價(jià))*(從當(dāng)前節(jié)點(diǎn)出發(fā)到目標(biāo)結(jié)點(diǎn)最小開(kāi)銷代價(jià))評(píng)價(jià)函數(shù)之值二(從起始節(jié)點(diǎn)出發(fā)到當(dāng)前節(jié)點(diǎn)最小開(kāi)銷代價(jià))-(從當(dāng)前節(jié)點(diǎn)出發(fā)到目標(biāo)結(jié)點(diǎn)最小開(kāi)銷代價(jià))評(píng)價(jià)函數(shù)之值二(從起始節(jié)點(diǎn)出發(fā)到當(dāng)前節(jié)點(diǎn)最小開(kāi)銷代價(jià))+(從當(dāng)前節(jié)點(diǎn)出發(fā)到目標(biāo)結(jié)
7、點(diǎn)最小開(kāi)銷代價(jià))評(píng)價(jià)函數(shù)之值二(從起始節(jié)點(diǎn)出發(fā)到當(dāng)前節(jié)點(diǎn)最小開(kāi)銷代價(jià))/(從當(dāng)前節(jié)點(diǎn)出發(fā)到目標(biāo)結(jié)點(diǎn)最小開(kāi)銷代價(jià))26對(duì)線性回歸模型進(jìn)行性能評(píng)估時(shí),以下說(shuō)法正確均方根誤差接近1最好均方根誤差越大越好決定系數(shù)越接近1越好決定系數(shù)越接近0越好某線性回歸模型在訓(xùn)練集和測(cè)試集上的性能都較差,這說(shuō)明出現(xiàn)了問(wèn)題。A.過(guò)擬合B.欠擬合C.數(shù)據(jù)泄露D.泛化能力強(qiáng)有關(guān)線性回歸模型的參數(shù),以下說(shuō)法錯(cuò)誤。參數(shù)的數(shù)量跟特征數(shù)量無(wú)關(guān)參數(shù)可以使用梯度下降法求得元線性回歸模型的參數(shù)大小和正負(fù)說(shuō)明自變量對(duì)因變量的相對(duì)影響大小添加正則化可以使參數(shù)變小線性回歸模型的訓(xùn)練目標(biāo)是找到一組參數(shù),使最小。A樣本損失值B樣本特征值C決定系數(shù)
8、D損失函數(shù)值回歸分析通過(guò)對(duì)樣本數(shù)據(jù)的學(xué)習(xí),可以得到一個(gè)來(lái)表示目標(biāo)變量和自變量之間的因果關(guān)系A(chǔ)數(shù)學(xué)模型B.邏輯推理規(guī)則C.關(guān)系表D決策搜索樹(shù)31有關(guān)機(jī)器學(xué)習(xí)的數(shù)據(jù)集,以下說(shuō)法有誤。無(wú)監(jiān)督學(xué)習(xí)需要數(shù)據(jù)集訓(xùn)練集和測(cè)試集的數(shù)據(jù)結(jié)構(gòu)相同一般訓(xùn)練集中的樣本數(shù)大于測(cè)試集中的樣本數(shù)訓(xùn)練集用來(lái)評(píng)價(jià)模型性能32.下面機(jī)器學(xué)習(xí)方法不需要對(duì)數(shù)據(jù)進(jìn)行標(biāo)注。有監(jiān)督學(xué)習(xí)無(wú)監(jiān)督學(xué)習(xí)半監(jiān)督學(xué)習(xí)深度學(xué)習(xí)33進(jìn)行多項(xiàng)式回歸時(shí),以下說(shuō)法錯(cuò)誤。特征構(gòu)建會(huì)生成更多得用于建模的特征值越是高次多項(xiàng)式,生成的衍生特征越多元多項(xiàng)式回歸一般會(huì)得到曲線模型如果一元線性回歸出現(xiàn)過(guò)擬合,可采用多項(xiàng)式回歸避免過(guò)擬合如果一個(gè)模型一,我們稱它過(guò)擬合。在訓(xùn)練集
9、上表現(xiàn)好,在測(cè)試集上表現(xiàn)也好在訓(xùn)練集上表現(xiàn)不好,在測(cè)試集上表現(xiàn)也不好在訓(xùn)練集上表現(xiàn)好,在測(cè)試集上表現(xiàn)不好在訓(xùn)練集上表現(xiàn)不好,在測(cè)試集上表現(xiàn)好回歸分析的目的是對(duì)歷史數(shù)據(jù)進(jìn)行統(tǒng)計(jì)對(duì)歷史數(shù)據(jù)進(jìn)行歸類對(duì)當(dāng)前數(shù)據(jù)進(jìn)行歸類對(duì)未知數(shù)據(jù)做出預(yù)測(cè)TOC o 1-5 h z已知各次在電視、微信兩個(gè)渠道投放廣告獲得的收益,利用線性回歸方法為投資和收益關(guān)系建模,可得到的目標(biāo)函數(shù)模型為。、y=WjXi+w2x2+bB丫=+bC丫_i+ei+w22+dye叫心*ABCD37有關(guān)機(jī)器學(xué)習(xí),說(shuō)法錯(cuò)誤的是。A、可以利用數(shù)據(jù)來(lái)獲取新知識(shí)B、使用樣本數(shù)據(jù)來(lái)建立模型,處理同源數(shù)據(jù)的能力得以提升C、從某類數(shù)據(jù)中學(xué)習(xí)規(guī)律,解決所有數(shù)據(jù)的
10、預(yù)測(cè)問(wèn)題D、模仿人的學(xué)習(xí)行為來(lái)解決問(wèn)題數(shù)據(jù)標(biāo)準(zhǔn)化的目的是。A、去除重復(fù)的數(shù)據(jù)行B、將數(shù)據(jù)縮放到一個(gè)小的特定區(qū)間C、剔除缺失數(shù)據(jù)D、將數(shù)據(jù)轉(zhuǎn)換為實(shí)數(shù)評(píng)價(jià)個(gè)分類模型的性能,召回率計(jì)算公式為。A、將正類預(yù)測(cè)為正類的樣本數(shù)/所有真正的正類的樣本數(shù)B、將正類預(yù)測(cè)為正類的樣本數(shù)/所有預(yù)測(cè)為正類的樣本數(shù)C、所有預(yù)測(cè)正確的樣本數(shù)/總的樣本數(shù)D、所有真正的正類樣本數(shù)/總的樣本數(shù)在用于分類算法建模的數(shù)據(jù)集合中,。A、不需要分類標(biāo)簽列B、是否需要分類標(biāo)簽,根據(jù)集合特點(diǎn)確定C、一定有多列是分類標(biāo)簽D、至少有一列是分類標(biāo)簽邏輯回歸模型能解決。A、回歸問(wèn)題B、推理問(wèn)題C、分類問(wèn)題D、聚類問(wèn)題下面對(duì)回歸和分類的描述不正確的
11、是。A、兩者均是學(xué)習(xí)輸入變量和輸出變量之間潛在關(guān)系模型B、在回歸分析時(shí),學(xué)習(xí)得到一個(gè)函數(shù)將輸入變量映射到連續(xù)輸出空間C、回歸是一種無(wú)監(jiān)督學(xué)習(xí),分類學(xué)習(xí)是有監(jiān)督學(xué)習(xí)D、在分類時(shí),學(xué)習(xí)得到一個(gè)模型將輸入變量映射到離散輸出空間TOC o 1-5 h z邏輯回歸模型中的激活函數(shù)Sigmoid函數(shù)值范圍是。A、0,1B、-1,1C、(88)D、(0,1)某分類模型在訓(xùn)練集上較好,在測(cè)試集上性能較差,這說(shuō)明出現(xiàn)了問(wèn)題A、過(guò)擬合B、欠擬合C、性能不穩(wěn)定D、泛化能力強(qiáng)邏輯回歸模型中的損失函數(shù)一般采用。A、對(duì)數(shù)似然損失函數(shù)B、均方損失函數(shù)C、絕對(duì)值損失函數(shù)D、Logistic函數(shù)信息增益的計(jì)算方法是。A、信息熵
12、(當(dāng)前集劃分前)-信息熵(當(dāng)前集劃分后)B、信息熵(當(dāng)前集劃分后)-信息熵(當(dāng)前集劃分前)C、信息熵(訓(xùn)練集初始熵)-信息熵(葉節(jié)點(diǎn)樣本集信息熵)D、信息熵(葉節(jié)點(diǎn)樣本集信息熵)-信息熵(訓(xùn)練集初始熵)下面有關(guān)決策樹(shù)剪枝的說(shuō)法錯(cuò)誤的是。A、決策樹(shù)剪枝的目的是為了減少訓(xùn)練過(guò)程的過(guò)擬合,從而提升決策樹(shù)模型的準(zhǔn)確性。B、決策樹(shù)剪枝可以放在決策樹(shù)的構(gòu)造過(guò)程(預(yù)剪枝),也可以等決策樹(shù)模型全部建立后再做(后剪枝)。C、剪枝后中間節(jié)點(diǎn)個(gè)數(shù)減少,葉子節(jié)點(diǎn)個(gè)數(shù)增多。D、決策樹(shù)剪枝符合Occam剃刀原理(即機(jī)器學(xué)習(xí)模型越簡(jiǎn)單越好)。在決策樹(shù)算法中,如果一個(gè)特征對(duì)于所有樣本都沒(méi)有區(qū)分能力,那么它對(duì)決策。A、無(wú)用途,
13、可以不考慮B、仍必須保留在決策樹(shù)中C、最好放在距離根節(jié)點(diǎn)近的位置D、最好放在距離葉節(jié)點(diǎn)近的位置有關(guān)決策樹(shù)與特征工程的關(guān)系,以下說(shuō)法錯(cuò)誤的是。A、決策樹(shù)可以得到對(duì)分類重要的屬性,因此可以作為分類特征獲取的一種方法。B、如果要了解影響簽署合同快慢的主要因素,可以使用決策樹(shù)算法。C、決策樹(shù)獲得的特征可以作為其他算法(例如回歸算法的自變量)輸入的依據(jù)。D、決策樹(shù)可以增強(qiáng)數(shù)據(jù)集獲得更多的特征。決策樹(shù)中存放分類結(jié)果的是。A、根節(jié)點(diǎn)B、中間節(jié)點(diǎn)C、葉節(jié)點(diǎn)D、主節(jié)點(diǎn)下面有關(guān)過(guò)擬合的認(rèn)識(shí)錯(cuò)誤的是。A、過(guò)擬合是因?yàn)橛?xùn)練樣本太多了,把訓(xùn)練樣本的規(guī)律都擬合進(jìn)去了。B、降低決策樹(shù)的復(fù)雜度可以減少過(guò)擬合,例如減少?zèng)Q策樹(shù)的
14、深度。C、判斷模型是否過(guò)擬合可以看隨著訓(xùn)練的增加,訓(xùn)練集的分類精度提高,但測(cè)試集的精度卻下降了。D、分類算法都可能會(huì)遇到過(guò)擬合現(xiàn)象決策樹(shù)算法。A、擬合出一個(gè)含有參數(shù)的函數(shù)B、構(gòu)造出一個(gè)含有參數(shù)的網(wǎng)絡(luò)C、生成一個(gè)有分枝的決策樹(shù)D、生成一個(gè)有向圖ID3用信息增益來(lái)進(jìn)行特征選擇,信息增益。A、越小越好B、越大越好C、為0最好D、為1最好集成學(xué)習(xí)的主要思想是。A、將多個(gè)數(shù)據(jù)集合集成在一起進(jìn)行訓(xùn)練B、將多源數(shù)據(jù)(如文本、圖像、聲音等)進(jìn)行融合學(xué)習(xí)C、通過(guò)聚類算法使數(shù)據(jù)集分為多個(gè)簇D、將多個(gè)機(jī)器學(xué)習(xí)模型組合起來(lái)解決問(wèn)題有關(guān)決策樹(shù)的分類說(shuō)明正確的是。A、決策樹(shù)的深度越大越好B、決策樹(shù)構(gòu)建時(shí)一般隨機(jī)進(jìn)行特征選
15、擇C、決策樹(shù)結(jié)構(gòu)越復(fù)雜越有效D、可以轉(zhuǎn)化出決策規(guī)則ID3算法使用作為啟發(fā)式信息來(lái)及進(jìn)行特征選擇A、信息熵B、信息增益C、信息增益比D、Gini指數(shù)通過(guò)聚集多個(gè)決策樹(shù)模型來(lái)提高分類準(zhǔn)確率的技術(shù)稱為A、合并學(xué)習(xí)B、聚集學(xué)習(xí)C、集成學(xué)習(xí)D、聯(lián)合學(xué)習(xí)聚類算法屬于A、分類問(wèn)題B、回歸分析C、有監(jiān)督學(xué)習(xí)D、無(wú)監(jiān)督學(xué)習(xí)聚類的目標(biāo)是。A、已知數(shù)據(jù)類別和特點(diǎn),將其他數(shù)據(jù)分類到和它相似度高的類別中B、已知數(shù)據(jù)類別和特點(diǎn),將類別進(jìn)一步細(xì)分C、未知數(shù)據(jù)類別和特點(diǎn),把相似度高和相似度低的樣本分別聚集在一起D、未知數(shù)據(jù)類別和特點(diǎn),根據(jù)數(shù)據(jù)內(nèi)在性質(zhì)及規(guī)律將其劃分為若干個(gè)子集6O.K-means聚類的結(jié)果中。A、類別的個(gè)數(shù)不
16、確定B、最終的類別之間不能有樣本的交叉C、最終的類別之間允許有少量樣本的交叉D、不同類別的元素之間相似度大K-means算法的結(jié)束條件是A、K的值達(dá)到最大B、每個(gè)簇包含相同個(gè)數(shù)的樣本C、每個(gè)簇的中心點(diǎn)不再變化D、某個(gè)簇的樣本相似度最大K-means算法中如果使用余弦相似度計(jì)算數(shù)據(jù)樣本的相似性,那么計(jì)算結(jié)果。A、越接近0相似度越高B、越接近1,相似度越高C、越接近-1,相似度越高D、無(wú)法僅根據(jù)值判斷相似度以下對(duì)K-means聚類結(jié)果的解釋,描述錯(cuò)誤的是。A、最終聚類結(jié)果中,簇內(nèi)凝聚度高,簇間分離度高B、換不同的K值聚類結(jié)果應(yīng)該一樣C、每個(gè)樣本數(shù)據(jù)歸屬于與其距離最近的聚類質(zhì)心所在的簇D、最終聚類結(jié)
17、果中每個(gè)簇中所包含的數(shù)據(jù)差異性最小根據(jù)用戶使用移動(dòng)運(yùn)營(yíng)商的數(shù)據(jù),可以為他們?cè)O(shè)計(jì)合適的套餐,使用方法比較合適A、聚類B、回歸C、匯總D、分類有關(guān)k-means下列說(shuō)法正確的是。A、可以確定樣本屬性的重要性B、可以處理凸型分布數(shù)據(jù)的聚類C、適合任意數(shù)據(jù)集的分組D、聚類的結(jié)果與初始選擇的假設(shè)聚類中心有關(guān)分析營(yíng)銷投入與銷售收入的關(guān)系可以使用數(shù)據(jù)建模方法。A、匯總B、聚類C、回歸D、分類在使用Kmeans算法進(jìn)行聚類時(shí),可以利用肘部原理觀察折線圖來(lái)選擇k值。A、迭代次數(shù)B、蘭德指數(shù)C、輪廓系數(shù)D、歐式距離在聚類時(shí),根據(jù)衡量樣本是否可以聚為同類。A、樣本損失B、樣本數(shù)量C、樣本維度D、樣本相似度以下關(guān)于人
18、工神經(jīng)網(wǎng)絡(luò)的描述正確的是。A、神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練數(shù)據(jù)中的噪聲不敏感,因此不用考慮數(shù)據(jù)質(zhì)量B、神經(jīng)網(wǎng)絡(luò)訓(xùn)練后很容易得到分類的規(guī)則C、訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)是一個(gè)很耗時(shí)的過(guò)程D、只能用于分類任務(wù)有關(guān)前饋神經(jīng)網(wǎng)絡(luò)的認(rèn)識(shí)正確的是A、神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程是擬合訓(xùn)練數(shù)據(jù)模式的過(guò)程B、神經(jīng)網(wǎng)絡(luò)訓(xùn)練后很容易得到分類的規(guī)則C、一個(gè)結(jié)構(gòu)明確的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果是唯一的D、神經(jīng)網(wǎng)絡(luò)模型的分類能力一定比決策樹(shù)好梯度下降算法的正確計(jì)算步驟是。計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差迭代更新,直到找到最佳權(quán)重把輸入傳入網(wǎng)絡(luò),得到輸出值初始化隨機(jī)權(quán)重和偏差對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,改變其權(quán)重值以減小誤差A(yù)、1)2)3)4)5)B、5)4)3)2)1
19、)C、3)2)1)5)4)D、4)3)1)5)2)以下問(wèn)題不適合應(yīng)用神經(jīng)網(wǎng)絡(luò)。A、預(yù)測(cè)電信客戶流失的可能性B、輔助確定是否給銀行的客戶貸款C、對(duì)基金公司的客戶進(jìn)行分組,了解每組客戶的特點(diǎn)D、股票走勢(shì)的預(yù)測(cè)用來(lái)評(píng)估神經(jīng)網(wǎng)絡(luò)的計(jì)算模型對(duì)樣本的預(yù)測(cè)值和真實(shí)值之間的誤差大小A、優(yōu)化函數(shù)B、梯度下降C、反向傳播D、損失函數(shù)74.下面對(duì)感知機(jī)網(wǎng)絡(luò)(PerceptronNetworks)描述不正確的是A、感知機(jī)網(wǎng)絡(luò)沒(méi)有隱藏層B、感知機(jī)網(wǎng)絡(luò)具有一層隱藏層C、感知機(jī)網(wǎng)絡(luò)不能擬合復(fù)雜數(shù)據(jù)D、感知機(jī)網(wǎng)絡(luò)是一種特殊的前饋神經(jīng)網(wǎng)絡(luò)在前饋神經(jīng)網(wǎng)絡(luò)中,誤差反向傳播(BP算法)將誤差從輸出端向輸入端進(jìn)行傳輸?shù)倪^(guò)程中,算法會(huì)調(diào)
20、整神經(jīng)網(wǎng)絡(luò)的。A、神經(jīng)元和神經(jīng)元之間連接的有無(wú)B、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重C、同一層神經(jīng)元之間的連接權(quán)重D、輸入數(shù)據(jù)大小在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,每個(gè)神經(jīng)元會(huì)完成若干功能,下面不是神經(jīng)元所能夠完成的功能。A、將加權(quán)累加信息向后續(xù)相鄰神經(jīng)元傳遞B、通過(guò)激活函數(shù)對(duì)加權(quán)累加信息進(jìn)行非線性變換C、向前序相鄰神經(jīng)元反饋加權(quán)累加信息D、對(duì)前序相鄰神經(jīng)元所傳遞信息進(jìn)行加權(quán)累加77.對(duì)前饋神經(jīng)網(wǎng)絡(luò)的描述是不正確的A、層與層之間通過(guò)“全連接”進(jìn)行連接,即兩個(gè)相鄰層之間神經(jīng)元完全成對(duì)連接B、各個(gè)神經(jīng)元接受前一級(jí)神經(jīng)元的輸入,并輸出到下一級(jí)C、同一層內(nèi)神經(jīng)元之間存在全連接D、同一層內(nèi)的神經(jīng)元相互不連接78.多個(gè)神
21、經(jīng)元堆疊在一起構(gòu)成了神經(jīng)網(wǎng)絡(luò),用神經(jīng)網(wǎng)絡(luò)模擬同或門(mén)(XNOR)。所有神經(jīng)元的激活函數(shù)for疋v0for疋二0假設(shè)XI是0,X2是1則神經(jīng)網(wǎng)絡(luò)的輸出A、-1B、0C、1D、279.下面圖像是sigmoid激活函數(shù)。C、圖3D、圖4神經(jīng)網(wǎng)絡(luò)的一次誤差反向傳播算法可以A、修改一層神經(jīng)元的參數(shù)B、修改相鄰2層的神經(jīng)元的參數(shù)C、修改網(wǎng)絡(luò)中所有神經(jīng)元的參數(shù)D、修改網(wǎng)絡(luò)中所有神經(jīng)元的激活函數(shù)神經(jīng)網(wǎng)絡(luò)建模步驟一般是模型評(píng)估網(wǎng)絡(luò)配置模型訓(xùn)練數(shù)據(jù)準(zhǔn)備模型預(yù)測(cè)A、1)2)3)4)5)B、3)2)1)5)4)C、5)4)3)2)1)D、4)2)3)1)5)實(shí)現(xiàn)二分類任務(wù)的神經(jīng)網(wǎng)絡(luò)中,輸出層激活函數(shù)一般選擇。A、sof
22、tmaxB、reluC、tanhD、sigmoid實(shí)現(xiàn)多分類任務(wù)的神經(jīng)網(wǎng)絡(luò),損失函數(shù)一般選擇。A、sigmoidB、mseC、binary_crossentropyD、categorical_crossentropy實(shí)現(xiàn)多分類任務(wù)的神經(jīng)網(wǎng)絡(luò),隱藏層的神經(jīng)元個(gè)數(shù)一般應(yīng)該分類數(shù)。A、等于B、小于C、大于D、不用考慮分類數(shù)TOC o 1-5 h z實(shí)現(xiàn)標(biāo)量回歸預(yù)測(cè)任務(wù)的神經(jīng)網(wǎng)絡(luò),損失函數(shù)一般選擇。A、reluB、mseC、binary_crossentropyD、sigmoid實(shí)現(xiàn)標(biāo)量回歸預(yù)測(cè)任務(wù)的神經(jīng)網(wǎng)絡(luò),評(píng)價(jià)指標(biāo)一般選擇。A、精確率B、平均絕對(duì)誤差C、召回率D、交叉熵以下情況下,神經(jīng)網(wǎng)絡(luò)模型被稱
23、為深度學(xué)習(xí)模型。A、加入更多層,使神經(jīng)網(wǎng)絡(luò)深度加深B、輸入層可以接收維度更高的數(shù)據(jù)C、當(dāng)問(wèn)題是圖形識(shí)別或分類問(wèn)題時(shí)D、激活函數(shù)更復(fù)雜卷積神經(jīng)網(wǎng)絡(luò)輸入的彩色圖像數(shù)據(jù)的張量格式為。A、(樣本數(shù),高度,寬度,通道數(shù))B、(樣本數(shù),高度,寬度)C、(高度,寬度)D、(高度*寬度)深度學(xué)習(xí)算法對(duì)于圖像進(jìn)行特征提取采用的方法是。A、人為設(shè)計(jì)好特征,由網(wǎng)絡(luò)實(shí)現(xiàn)提取B、網(wǎng)絡(luò)自動(dòng)提取C、不需要提取特征D、根據(jù)特征集合提取假設(shè)我們需要訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò),來(lái)完成500種圖像分類,類別采用獨(dú)熱編碼。該卷積神經(jīng)網(wǎng)絡(luò)最后一層是分類層,則最后一層輸出向量的維數(shù)大小可能是。A、1B、100TOC o 1-5 h zC、25
24、0D、500CNN網(wǎng)絡(luò)中池化層的作用有。A、實(shí)現(xiàn)局部特征提取B、減少過(guò)擬合C、減少隱層節(jié)點(diǎn)數(shù)D、獲得分類結(jié)果下列在神經(jīng)網(wǎng)絡(luò)中引入了非線性。A、隨機(jī)梯度下降B、Relu函數(shù)C、卷積計(jì)算D、損失函數(shù)CNN中,是局部連接,所以提取的是局部信息。A、卷積層B、池化層C、全連接層D、Dropout層數(shù)據(jù)增強(qiáng)可以有效提升模型質(zhì)量,最好在進(jìn)行數(shù)據(jù)增強(qiáng)A、整個(gè)數(shù)據(jù)集B、訓(xùn)練集C、驗(yàn)證集D、測(cè)試集預(yù)訓(xùn)練模型是指。A、先訓(xùn)練一個(gè)模型作為基準(zhǔn)B、在正式訓(xùn)練之前,做一次試驗(yàn)訓(xùn)練C、已經(jīng)在大數(shù)據(jù)集上訓(xùn)練好的一個(gè)模型D、預(yù)先根據(jù)任務(wù)特點(diǎn),對(duì)模型結(jié)構(gòu)進(jìn)行調(diào)整使用預(yù)訓(xùn)練模型進(jìn)行特征提取,要訓(xùn)練的部分是。A、全連接分類器B、咼
25、層卷積層C、底層卷積層D、整個(gè)網(wǎng)絡(luò)預(yù)訓(xùn)練模型的卷積基一般。A、只包含卷積層B、包含卷積層、池化層和全連接層C、包含卷積層和池化層D、包含凍結(jié)的卷積層微調(diào)預(yù)訓(xùn)練模型,一般是指調(diào)整。A、全連接層B、咼層卷積層C、底層卷積層D、任意一個(gè)或幾個(gè)卷積層要解決的問(wèn)題只有少量的數(shù)據(jù),但幸運(yùn)的是有一個(gè)之前訓(xùn)練過(guò)的針對(duì)類似問(wèn)題的神經(jīng)網(wǎng)絡(luò)模型。最佳方案是。A、對(duì)于新的數(shù)據(jù)集重新訓(xùn)練模型B、凍結(jié)除第一層之外的所有層,微調(diào)第一層C、評(píng)估模型每一層的功能,然后選擇其中的某些層D、凍結(jié)除最后一層之外的所有層,重新訓(xùn)練最后一層如果要采用神經(jīng)網(wǎng)絡(luò)來(lái)對(duì)文本進(jìn)行建模,必須先將文本向量化,這一過(guò)程是指。A、將文本分詞B、獲得文本類
26、別標(biāo)簽C、將文本壓縮D、將文本轉(zhuǎn)換為數(shù)值張量自動(dòng)語(yǔ)音識(shí)別(AutomaticSpeechRecognition,ASR)的目標(biāo)是從語(yǔ)音信號(hào)識(shí)別出。A、說(shuō)話者的身份B、話語(yǔ)中的含義C、話語(yǔ)對(duì)應(yīng)的文本D、話語(yǔ)的情感極性要了解消費(fèi)者對(duì)某個(gè)產(chǎn)品的總體觀點(diǎn),可以采用對(duì)用戶評(píng)論進(jìn)行分析得到。A、情感分析B、文本對(duì)話C、內(nèi)容標(biāo)簽D、自動(dòng)摘要聲音是一種時(shí)序數(shù)據(jù),是對(duì)連續(xù)聲音信號(hào)的進(jìn)行采樣獲得。A、頻率B、振幅C、周期D、長(zhǎng)度在使用深度學(xué)習(xí)進(jìn)行文本處理時(shí),一個(gè)文本句子要被理解,首先需要做的是。A、分詞B、詞性標(biāo)注C、命名實(shí)體識(shí)別D、生成詞嵌入在學(xué)習(xí)詞嵌入時(shí),嵌入維度一般。A、大于數(shù)據(jù)集總單詞個(gè)數(shù)B、小于輸入序列
27、的長(zhǎng)度C、小于數(shù)據(jù)集總單詞個(gè)數(shù)D、大于輸入序列的長(zhǎng)度語(yǔ)音識(shí)別中把做為基本單元,它也是構(gòu)成單詞的基本單位。A、狀態(tài)TOC o 1-5 h zB、幀C、字D、音素語(yǔ)音識(shí)別中使用的語(yǔ)言模型一般是。A、人工建立的B、與應(yīng)用領(lǐng)域無(wú)關(guān)C、基于文本數(shù)據(jù)訓(xùn)練得到D、與語(yǔ)種無(wú)關(guān)語(yǔ)音識(shí)別中對(duì)數(shù)據(jù)預(yù)處理時(shí)分幀。A、將語(yǔ)音切割為無(wú)交疊的等長(zhǎng)幀B、將語(yǔ)音切割為有交疊的等長(zhǎng)幀C、將語(yǔ)音切割為無(wú)交疊的不等長(zhǎng)幀D、將語(yǔ)音切割為有交疊的不等長(zhǎng)幀在經(jīng)過(guò)學(xué)習(xí)獲得的詞嵌入空間中,語(yǔ)法和語(yǔ)義上相近的詞匯。A、距離更遠(yuǎn)B、距離更近C、距離為0D、距離相等用深度神經(jīng)網(wǎng)絡(luò)進(jìn)行文本生成的最后一層任務(wù)是。A、字符或單詞的回歸預(yù)測(cè)B、字符或單詞的
28、分類C、字符聚類為單詞D、單詞語(yǔ)義的分析二、多選系統(tǒng)屬于人工智能應(yīng)用的實(shí)例。A、計(jì)步器B、機(jī)械式密碼鎖C、聊天機(jī)器人D、電商網(wǎng)站的商品推薦下面關(guān)于人工智能概念的表述,合理。A、根據(jù)對(duì)環(huán)境的感知做出合理的行動(dòng),并獲得最大收益的計(jì)算機(jī)程序B、任何計(jì)算機(jī)程序都具有人工智能C、針對(duì)特定的任務(wù),人工智能程序一般具有自主學(xué)習(xí)的能力D、人工智能程序要和人類具有相同的思考方式下面學(xué)科是人工智能的基礎(chǔ)。A、經(jīng)濟(jì)學(xué)B、計(jì)算機(jī)科學(xué)C、地理學(xué)D、數(shù)學(xué)符合強(qiáng)人工智能的描述有。A、僅在某個(gè)特定的領(lǐng)域超越人類的水平B、是通用的人工智能C、可以勝任人類的所有工作D、在科學(xué)創(chuàng)造力、智慧等方面都遠(yuǎn)勝于人類發(fā)展出圖像識(shí)別成功率超越
29、人類的人工智能的主要因素有。A、人類專家規(guī)則的完善B、計(jì)算力的提升C、社會(huì)關(guān)注度提升D、大量數(shù)據(jù)驅(qū)動(dòng)ImageNet是一圖片集合,它是A、圖像算法性能檢驗(yàn)的“標(biāo)準(zhǔn)”數(shù)據(jù)集B、繪制圖像的參考標(biāo)準(zhǔn)C、任何圖形進(jìn)行分類的依據(jù)D、每個(gè)圖片都有類別標(biāo)簽數(shù)據(jù)驅(qū)動(dòng)的人工智能方法的弱點(diǎn)是A、解釋性差B、需要大量數(shù)據(jù)集合C、需要建立知識(shí)庫(kù)D、直接從數(shù)據(jù)中學(xué)習(xí)對(duì)人工智能的發(fā)展趨勢(shì)劃分,一般可分為A、強(qiáng)人工智能B、泛人工智能C、弱人工智能D、超人工智能技術(shù)AlphaGo成為第一個(gè)戰(zhàn)勝圍棋世界冠軍的人工智能機(jī)器人,它用到A、專家系統(tǒng)B、深度學(xué)習(xí)C、知識(shí)圖譜D、強(qiáng)化學(xué)習(xí)10.搜索下面的知識(shí)圖譜中,可以得到結(jié)論A、風(fēng)云兒
30、是東京的美食品牌B、風(fēng)云兒是最著名的拉面品牌C、在一蘭吃壽司人均消費(fèi)低于100元D、壽司和拉面是本州島的美食采用深度學(xué)習(xí)根據(jù)圖像訓(xùn)練一個(gè)植物分類模型前,一般需要A、搜集大量植物圖像樣本B、搜集少量典型植物圖像樣本C、對(duì)植物樣本進(jìn)行標(biāo)注D、每類植物搜集一張圖像當(dāng)前推動(dòng)人工智能發(fā)展的主要支持技術(shù)包括。A、云計(jì)算技術(shù)B、大數(shù)據(jù)技術(shù)C、深度學(xué)習(xí)算法D、圖靈測(cè)試技術(shù)下列部分屬于基因遺傳算法的有。A、選擇B、交叉和變異C、初始化編碼D、反向傳播基因遺傳算法的兩個(gè)常用的結(jié)束條件為。A、達(dá)到一定的迭代次數(shù)B、達(dá)到一定的交叉次數(shù)C、達(dá)到一定的變異次數(shù)D、適應(yīng)度函數(shù)結(jié)果達(dá)到一定的要求以下對(duì)基因遺傳算法描述正確的是
31、。A、基因遺傳算法反映了自然選擇的過(guò)程B、只能解決拼圖問(wèn)題C、基因遺傳算法一定能得到最優(yōu)解D、是一種啟發(fā)式的搜索算法下列關(guān)于搜索算法的描述,錯(cuò)誤的是。A、盲目搜索如DFS或BFS由于沒(méi)有知識(shí)支持,很可能在解空間中找不到最優(yōu)解B、A*算法如果啟發(fā)函數(shù)滿足可容性和單調(diào)性,一定能在解空間中找到最優(yōu)解C、蒙特卡洛算法有可能找到最優(yōu)解,但搜索效率比minimax搜索要高D、貪婪最佳優(yōu)先搜索一定能在解空間中找到最優(yōu)解廣義線性回歸要求以下有一個(gè)是一次的就可以。A、自變量B、目標(biāo)變量C、損失函數(shù)D、參數(shù)以下屬于機(jī)器學(xué)習(xí)的任務(wù)是。A、匯總B、回歸C、聚類D、排序在機(jī)器學(xué)習(xí)建模分析時(shí),通常將數(shù)據(jù)集劃分為。A、訓(xùn)練
32、集B、預(yù)測(cè)集C、測(cè)試集D、回歸集用線性回歸建模時(shí),以下是正確的操作。A、剔除異常值B、被預(yù)測(cè)值應(yīng)該在建模的自變量范圍內(nèi)C、可視化觀察目標(biāo)變量與自變量關(guān)系D、使用相關(guān)分析把相關(guān)變量合成為一個(gè)或只保留一個(gè)實(shí)現(xiàn)邏輯回歸模型建立后,對(duì)于一個(gè)新的未知數(shù)據(jù)進(jìn)行分類,可以通過(guò)A、計(jì)算模型輸出的概率值B、計(jì)算損失函數(shù)值C、決策邊界計(jì)算D、Sigmoid函數(shù)計(jì)算處理數(shù)據(jù)集中的缺失值一般采取以下方法。A、刪除相關(guān)記錄B、替換為Nan即可C、替換為0D、用估計(jì)的數(shù)據(jù)填充以下屬于機(jī)器學(xué)習(xí)的任務(wù)是。A、匯總B、回歸C、分類D、排序決策樹(shù)通過(guò)構(gòu)造一棵樹(shù)來(lái)實(shí)現(xiàn)分類任務(wù)。它是。A、一種有監(jiān)督學(xué)習(xí)方法B、一種無(wú)監(jiān)督學(xué)習(xí)方法C、
33、樹(shù)的葉子節(jié)點(diǎn)對(duì)應(yīng)分類結(jié)果D、樹(shù)的中間節(jié)點(diǎn)對(duì)應(yīng)數(shù)據(jù)特征以下屬于集成學(xué)習(xí)算法的有。A、BaggingB、AdaBoostingC、隨機(jī)森林D、xGboostTOC o 1-5 h z構(gòu)建樹(shù)結(jié)構(gòu)為多叉樹(shù)的決策樹(shù)算法有。A、ID3B、C4.5C、LogisticD、CART以下算法屬于決策樹(shù)算法。A、ID3B、C4.5C、LogisticD、CART下面描述屬于K-means聚類算法特點(diǎn)的有。A、算法迭代執(zhí)行B、需要初始化聚類質(zhì)心C、數(shù)據(jù)需要帶有分類標(biāo)簽D、需要事先確定聚類數(shù)目有關(guān)機(jī)器學(xué)習(xí)算法選擇的說(shuō)法不正確的有。A、每種算法都有其使用范圍,因此選擇算法需要考慮具體處理的問(wèn)題B、判斷機(jī)器學(xué)習(xí)算法好壞在
34、數(shù)據(jù)需求階段就可以確定C、在分類前可以先做聚類分析D、對(duì)聚類問(wèn)題可以任選一種聚類算法對(duì)移動(dòng)客戶進(jìn)行分組,以便根據(jù)各組的特點(diǎn),策劃不同的營(yíng)銷方案,需要客戶數(shù)據(jù)可能包括A、身咼B、收入C、年齡D、客戶長(zhǎng)途市話以及漫游等通話數(shù)據(jù)以下算法需要訓(xùn)練數(shù)據(jù)樣本必須有標(biāo)簽。A、決策樹(shù)B、邏輯回歸C、Kmeans聚類D、線性回歸對(duì)聚類結(jié)果進(jìn)行評(píng)估可以采用輪廓系數(shù),它綜合考慮了。A、簇內(nèi)凝聚度B、簇內(nèi)分離度C、簇間分離度D、簇間凝聚度神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元組成,下列關(guān)于神經(jīng)元的陳述中是正確的A、一個(gè)神經(jīng)元可以有多個(gè)輸入和一個(gè)輸出B、一個(gè)神經(jīng)元可以有一個(gè)輸入和多個(gè)輸出C、一個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出D、一個(gè)神經(jīng)
35、元只能有一個(gè)輸入和一個(gè)輸出用于監(jiān)督分類的算法有。A、線性回歸B、K-meansC、決策樹(shù)D、神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果模型文件,一般包括A、權(quán)重矩陣B、偏置參數(shù)C、超參數(shù)D、計(jì)算圖下列可以使神經(jīng)網(wǎng)絡(luò)模型擬合復(fù)雜函數(shù)的能力增加A、隱藏層層數(shù)增加B、Dropout的比例增加C、加大學(xué)習(xí)率D、增加神經(jīng)元的數(shù)量解決。將正負(fù)樣本數(shù)量的比例訓(xùn)練樣本中,正負(fù)樣本數(shù)量的比例較大,這稱為樣本類別不平衡問(wèn)題,可采A、過(guò)采樣,即增加正樣本數(shù)量,使正負(fù)樣本接近再學(xué)習(xí)B、欠采樣,即去除反例樣本數(shù)量,使正負(fù)樣本接近再學(xué)習(xí)C、設(shè)置閾值?;谠紨?shù)據(jù)集學(xué)習(xí),當(dāng)使用已訓(xùn)練好的分類器進(jìn)行測(cè)試時(shí),作為閾值嵌入到?jīng)Q策過(guò)程中D、改變?cè)u(píng)
36、價(jià)標(biāo)準(zhǔn),用AUC/ROC來(lái)進(jìn)行評(píng)價(jià)如果神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率太大,。A、網(wǎng)絡(luò)一定收斂B、網(wǎng)絡(luò)可能無(wú)法收斂C、網(wǎng)絡(luò)收斂速度慢D、網(wǎng)絡(luò)收斂速度快在進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練之前,一般需要把訓(xùn)練集再分割為。A、訓(xùn)練集B、測(cè)試集C、驗(yàn)證集D、備用集神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)預(yù)處理,一般包括步驟。A、將數(shù)據(jù)向量化B、將數(shù)據(jù)值標(biāo)準(zhǔn)化C、處理缺失值D、將數(shù)據(jù)值轉(zhuǎn)化為浮點(diǎn)數(shù)或整數(shù)深度全連接神經(jīng)網(wǎng)絡(luò)在圖像處理中有弱點(diǎn)。A、參數(shù)量太大B、無(wú)法利用相鄰像素關(guān)聯(lián)C、模型結(jié)構(gòu)單一D、過(guò)擬合嚴(yán)重通過(guò)數(shù)據(jù)增強(qiáng)可以減少過(guò)擬合的發(fā)生,常用的方法有以下。A、從數(shù)據(jù)源采集更多的數(shù)據(jù)B、復(fù)制原有數(shù)據(jù)并添加隨機(jī)噪聲C、復(fù)制多份一樣的數(shù)據(jù)放在一起D、根據(jù)現(xiàn)有樣本估
37、計(jì)樣本的分布,然后按照此分布再產(chǎn)生一些樣本CNN網(wǎng)絡(luò)中可能包含層。A、輸入層B、卷積層C、池化層D、全連接層CNN網(wǎng)絡(luò)中,卷積核大小一般常采用A、3*3B、5*5C、100*100D、1024*1024深度學(xué)習(xí)對(duì)的數(shù)據(jù)集沒(méi)有明顯優(yōu)勢(shì)。A、數(shù)據(jù)集小B、數(shù)據(jù)集大C、沒(méi)有局部相關(guān)性D、有局部相關(guān)性在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的過(guò)程中,如果泛化能力太差,則可以。A、調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)B、調(diào)整樣本C、調(diào)整學(xué)習(xí)率D、調(diào)整優(yōu)化器Keras的圖片生成器的主要作用是。A、隨機(jī)動(dòng)態(tài)生成圖像B、自動(dòng)批量加載磁盤(pán)圖像C、實(shí)現(xiàn)數(shù)據(jù)的轉(zhuǎn)換D、生成圖像并保存到磁盤(pán)對(duì)圖片數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng)可以采用方法。A、旋轉(zhuǎn)圖像B、隨機(jī)裁剪C、增加噪聲D、
38、數(shù)據(jù)集中兩個(gè)圖像疊加在微調(diào)預(yù)訓(xùn)練模型時(shí),情況下,凍結(jié)層數(shù)越少。A、數(shù)據(jù)集越大B、數(shù)據(jù)集越小C、數(shù)據(jù)集與原始數(shù)據(jù)集相似性越大D、數(shù)據(jù)集與原始數(shù)據(jù)集相似性越小以下神經(jīng)網(wǎng)絡(luò)適合處理序列數(shù)據(jù)。A、LSTMB、雙向LSTMC、一維CNND、二維CNN通過(guò)拍照翻譯可以將外文菜單、路牌等信息轉(zhuǎn)換為自己熟悉的語(yǔ)言文字,這主要通過(guò)技術(shù)實(shí)現(xiàn)。A、語(yǔ)音識(shí)別B、圖像識(shí)別C、機(jī)器翻譯D統(tǒng)計(jì)分析循環(huán)神經(jīng)網(wǎng)絡(luò)A、神經(jīng)元帶自反饋B、只能處理固定長(zhǎng)度的文本C、適合處理序列數(shù)據(jù)D、能處理任意長(zhǎng)度的文本語(yǔ)音識(shí)別需要兩個(gè)模型合起來(lái)完成對(duì)語(yǔ)音的識(shí)別A、聲學(xué)模型B、信號(hào)模型C、語(yǔ)言模型D、語(yǔ)義模型以下屬于文本處理任務(wù)。A、機(jī)器翻譯B、自動(dòng)摘要C、自動(dòng)繪畫(huà)D、自動(dòng)寫(xiě)詩(shī)文本向量化的兩種表示方法是。A、獨(dú)熱編碼B、Z-ScoreC、歸一化D、詞嵌入深度學(xué)習(xí)進(jìn)行文本生成時(shí),。A、生成結(jié)果和訓(xùn)練集風(fēng)格相似B、模型學(xué)習(xí)得到的具有統(tǒng)計(jì)結(jié)構(gòu)的潛在空間C、語(yǔ)句不能太長(zhǎng),太長(zhǎng)會(huì)離譜D、語(yǔ)言模型可能根據(jù)語(yǔ)法規(guī)則建立GAN是一種生成式對(duì)抗網(wǎng)絡(luò),它采用網(wǎng)絡(luò)能迫使生成圖像與真實(shí)圖像在統(tǒng)計(jì)上幾乎無(wú)法區(qū)分,從而生成相當(dāng)逼真的圖像。A、生成器B、優(yōu)化器C、判別器D、合成器訪問(wèn)百度開(kāi)放服務(wù),需要首先申請(qǐng)獲得應(yīng)用的相關(guān)憑證,包括。A、AppIDB、APIKeyC、SecretKeyD、UserName三、判斷題自然界中生物變異的概率是不確定的,但是基因遺傳
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 中學(xué)化學(xué)習(xí)題研究知到課后答案智慧樹(shù)章節(jié)測(cè)試答案2025年春牡丹江師范學(xué)院
- 三級(jí)人力資源管理師-企業(yè)人力資源管理師(三級(jí))《理論知識(shí)》考前沖刺卷5
- 普通高等學(xué)校高三招生全國(guó)統(tǒng)一考試仿真卷(六)理綜
- 射洪縣2018年高三歷史(3月)練題(二)及解析
- 2017-2018學(xué)年物理粵教版選修3-5講義專題2
- 市場(chǎng)經(jīng)濟(jì)背景下民商法信用體系完善的重要性研究
- 酒精性脂肪性肝病合并乙型肝炎病毒肝內(nèi)復(fù)制小鼠模型的建立及其對(duì)膽固醇代謝的影響研究
- 小學(xué)道德與法治實(shí)踐性作業(yè)優(yōu)化策略研究
- 英語(yǔ)游戲引入課堂教學(xué)的價(jià)值與應(yīng)用
- cro服務(wù)合同范例
- 2022(SOP)人民醫(yī)院倫理委員會(huì)標(biāo)準(zhǔn)操作規(guī)程
- lanxess朗盛制革化學(xué)品說(shuō)明書(shū)
- 寧氏譜系條目匯總表2016318支系名稱家譜世系字輩-簡(jiǎn)明
- GB/T 7129-2001橡膠或塑料軟管容積膨脹的測(cè)定
- 第五單元群文閱讀(共28張PPT) 部編版語(yǔ)文八年級(jí)下冊(cè)
- 電子技術(shù)基礎(chǔ)數(shù)字部分(第五版)(康華光)第一章課件
- DLT 1055-2021 火力發(fā)電廠汽輪機(jī)技術(shù)監(jiān)督導(dǎo)則
- 成品欄桿安裝施工方案
- JT∕T 1431.3-2022 公路機(jī)電設(shè)施用電設(shè)備能效等級(jí)及評(píng)定方法 第3部分:公路隧道照明系統(tǒng)
- 杭州房建工程監(jiān)理大綱范本
- 門(mén)診特定病種待遇認(rèn)定申請(qǐng)表
評(píng)論
0/150
提交評(píng)論