![人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷18)_第1頁(yè)](http://file4.renrendoc.com/view10/M03/19/28/wKhkGWW_Bf-AI2YSAAF5-N_JuJg393.jpg)
![人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷18)_第2頁(yè)](http://file4.renrendoc.com/view10/M03/19/28/wKhkGWW_Bf-AI2YSAAF5-N_JuJg3932.jpg)
![人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷18)_第3頁(yè)](http://file4.renrendoc.com/view10/M03/19/28/wKhkGWW_Bf-AI2YSAAF5-N_JuJg3933.jpg)
![人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷18)_第4頁(yè)](http://file4.renrendoc.com/view10/M03/19/28/wKhkGWW_Bf-AI2YSAAF5-N_JuJg3934.jpg)
![人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷18)_第5頁(yè)](http://file4.renrendoc.com/view10/M03/19/28/wKhkGWW_Bf-AI2YSAAF5-N_JuJg3935.jpg)
版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
試卷科目:人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷18)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共58題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.所謂幾率,是指發(fā)生概率和不發(fā)生概率的比值。所以,拋擲一枚正常硬幣,正面朝上的幾率(odds)為多少?A)0.5B)1C)都不是答案:B解析:幾率(odds)是事件發(fā)生不發(fā)生概率的比率,正面朝上概率為1/2和反面朝上的概率都為1/2,所以幾率為1。[單選題]2.主成分分析用于()A)特征降維B)特征膨脹C)特征子集計(jì)算答案:A解析:[單選題]3.OpenCV用于將圖像寫入文件的函數(shù)是()。A)imread()B)imshow()C)imwrite()D)VideoCapture()答案:C解析:[單選題]4.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無(wú)環(huán)圖表示變量間的依賴關(guān)系,稱為有向圖模型或貝葉斯網(wǎng)(Bayesiannetwork);第二類是使用無(wú)向圖表示變量間的相關(guān)關(guān)系,稱為()。A)赫布網(wǎng)B)拉普拉斯網(wǎng)C)馬爾科夫網(wǎng)D)塞繆爾網(wǎng)答案:C解析:[單選題]5.假設(shè)現(xiàn)在只有兩個(gè)類,這種情況下SVM需要訓(xùn)練幾次?A)1B)2C)3D)4答案:A解析:[單選題]6.RGB色彩空間轉(zhuǎn)到GRAY色彩空間的方法為()A)cv2.cvtColor()B)cv2.CvtColor()C)cv2.CVTColor()D)cv2.cvtcolor()答案:A解析:[單選題]7.以下內(nèi)容符合物體識(shí)別任務(wù)的是()。A)不能對(duì)圖像進(jìn)行壓縮或剪裁B)遵守誤差最小準(zhǔn)則和最佳近似準(zhǔn)則C)可以不指定分類的類別數(shù)量D)事先給定樣本的分布特征答案:B解析:[單選題]8.在有限支撐集上,下面分布的熵最大()A)幾何分布B)指數(shù)分布C)高斯分布D)均勻分布答案:D解析:[單選題]9.檢測(cè)一元正態(tài)分布中的離群點(diǎn),屬于異常檢測(cè)中的基于()的離群點(diǎn)檢測(cè)。A)統(tǒng)計(jì)方法B)鄰近度C)密度D)聚類技術(shù)答案:A解析:[單選題]10.當(dāng)原始數(shù)據(jù)的存在形式不符合目標(biāo)算法的要求時(shí),需要對(duì)原始數(shù)據(jù)進(jìn)行(__)。A)數(shù)據(jù)變換B)數(shù)據(jù)加工C)數(shù)據(jù)清洗D)數(shù)據(jù)集成答案:A解析:[單選題]11.4.?學(xué)習(xí)向量量化?與一般聚類算法不同的是()A)數(shù)據(jù)樣本帶有類別標(biāo)記B)結(jié)構(gòu)不同C)向量程度不同D)簇的種類不同答案:A解析:[單選題]12.隨機(jī)試驗(yàn)所有可能出現(xiàn)的結(jié)果稱為()。A)基本事件B)樣本C)全部事件D)樣本空間答案:D解析:隨機(jī)試驗(yàn)中的每一個(gè)可能出現(xiàn)的試驗(yàn)結(jié)果稱為這個(gè)試驗(yàn)的一個(gè)樣本點(diǎn)。全體樣本點(diǎn)組成的集合,即隨機(jī)試驗(yàn)的所有可能出現(xiàn)的結(jié)果稱為這個(gè)試驗(yàn)的樣本空間。[單選題]13.人工神經(jīng)網(wǎng)絡(luò)是20世紀(jì)80年代以來(lái)人工智能領(lǐng)域興起的研究熱點(diǎn)。它從信息處理角度對(duì)人腦神經(jīng)元網(wǎng)絡(luò)進(jìn)行抽象,建立某種簡(jiǎn)單的模型,按()連接方式組成()網(wǎng)絡(luò)。在工程與學(xué)術(shù)界簡(jiǎn)稱為神經(jīng)網(wǎng)絡(luò)或類神經(jīng)網(wǎng)絡(luò)。A)不同的不同的B)不同的相同的C)相同的不同的D)相同的相同的答案:A解析:[單選題]14.下列可以用隱馬爾可夫模型來(lái)分析的是?A)基因序列數(shù)據(jù)B)電影評(píng)論數(shù)據(jù)C)股價(jià)數(shù)據(jù)D)以上三種答案:D解析:三種都是時(shí)間序列數(shù)據(jù),可以應(yīng)用隱馬爾可夫模型。[單選題]15.專家系統(tǒng)的發(fā)展趨勢(shì)不包括()。A)知識(shí)庫(kù)變大B)推理引擎更加專用C)用戶接口更多樣D)用戶需求量減少答案:D解析:[單選題]16.二分類問(wèn)題使用__檢驗(yàn)。A)二項(xiàng)檢驗(yàn)B)t檢驗(yàn)C)交叉驗(yàn)證t檢驗(yàn)D)McNemar檢驗(yàn)答案:D解析:[單選題]17.下面哪個(gè)回歸分析的說(shuō)法是正確的()。A)回歸分析是分析一個(gè)變量與其他一個(gè)(或幾個(gè))變量之間的線性關(guān)系的統(tǒng)計(jì)方法B)回歸分析不需要樣本訓(xùn)練C)不可以預(yù)測(cè)非數(shù)據(jù)型屬性的類別D)非線性回歸方程一般要轉(zhuǎn)化為線性回歸方程才比較容易求解其中的參數(shù)答案:D解析:[單選題]18.對(duì)于下圖,最好的主成分選擇是多少?:這里寫圖片描述A)7B)30C)35D)Can?tSay答案:B解析:主成分選擇使variance越大越好,在這個(gè)前提下,主成分越少越好。[單選題]19.被廣泛認(rèn)為AI誕生的標(biāo)志的是(A)計(jì)算機(jī)的產(chǎn)生B)圖靈機(jī)的出現(xiàn)C)達(dá)特茅斯會(huì)議D)神經(jīng)網(wǎng)絡(luò)的提出答案:C解析:[單選題]20.機(jī)器學(xué)習(xí)研究如何通過(guò)計(jì)算的手段,利用經(jīng)驗(yàn)來(lái)改善系統(tǒng)自身的性能,請(qǐng)問(wèn)機(jī)器學(xué)習(xí)利用數(shù)據(jù)訓(xùn)練出什么()A)模型B)表結(jié)構(gòu)C)結(jié)果D)報(bào)表答案:A解析:[單選題]21.規(guī)則學(xué)習(xí)中ILP的全稱是A)歸納邏輯程序設(shè)計(jì)B)內(nèi)部邏輯程序設(shè)計(jì)C)信息泄露防護(hù)D)引入層次程序設(shè)計(jì)答案:A解析:[單選題]22.在其它條件不變的前提下,以下哪種做法容易引起機(jī)器學(xué)習(xí)中的過(guò)擬合問(wèn)題()A)增加訓(xùn)練集數(shù)量B)減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)C)刪除稀疏的特征D)SVM算法中使用高斯核/RBF核代替答案:D解析:機(jī)器學(xué)習(xí)中發(fā)生過(guò)擬合的主要原因有:1使用過(guò)于復(fù)雜的模型;2數(shù)據(jù)噪聲較大;3訓(xùn)練數(shù)據(jù)少。由此對(duì)應(yīng)的降低過(guò)擬合的方法有:1簡(jiǎn)化模型假設(shè),或者使用懲罰項(xiàng)限制模型復(fù)雜度;2進(jìn)行數(shù)據(jù)清洗,減少噪聲;3收集更多訓(xùn)練數(shù)據(jù)。本題中,A對(duì)應(yīng)于增加訓(xùn)練數(shù)據(jù),B為簡(jiǎn)化模型假設(shè),C為數(shù)據(jù)清洗。D選項(xiàng)中,高斯核的使用增加了模型復(fù)雜度,容易引起過(guò)擬合。選擇合適的核函數(shù)以及軟邊緣參數(shù)C就是訓(xùn)練SVM的重要因素。一般來(lái)講,核函數(shù)越復(fù)雜,模型越偏向于過(guò)擬合;C越大模型越偏向于過(guò)擬合,反之則擬合不足。[單選題]23.調(diào)用open函數(shù)可以打開指定文件,在open()函數(shù)中訪問(wèn)模式參數(shù)使用什么表示只讀()。A)?a?B)?w+?C)?r?D)?w?答案:C解析:[單選題]24.屬于監(jiān)督學(xué)習(xí)的機(jī)器學(xué)習(xí)算法是()A)貝葉斯分類器B)主成分分析C)K-MeansD)高斯混合聚類答案:A解析:[單選題]25.一幅灰度級(jí)均勻分布的圖象,其灰度范圍在[0,255],則該圖象的信息量為:()A)0B)255C)6D)8答案:D解析:[單選題]26.在基本K-Means中,當(dāng)計(jì)算鄰近度的函數(shù)采用()的時(shí)候,合適的質(zhì)心是簇中各點(diǎn)的中位數(shù)。A)曼哈頓距離B)平方歐幾里得距離C)余弦距離D)Bregman散度答案:A解析:[單選題]27.(假設(shè)precision=TP/(TP+FP),recall=TP/(TP+FN)。)在二分類問(wèn)題中,當(dāng)測(cè)試集的正例和負(fù)例數(shù)量不均衡時(shí),以下評(píng)價(jià)方案哪個(gè)是相對(duì)不合理的()A)Accuracy:(TP+TN)/allB)F-value:2recallprecision/(recall+precision)C)G-mean:sqrt(precision*recall)D)AUC:曲線下面積答案:A解析:題目提到測(cè)試集正例和負(fù)例數(shù)量不均衡,那么假設(shè)正例數(shù)量很少占10%,負(fù)例數(shù)量占大部分90%。而且算法能正確識(shí)別所有負(fù)例,但正例只有一半能正確判別。那么TP=0.05×all,TN=0.9×all,Accuracy=95%。雖然Accuracy很高,precision是100%,但正例recall只有50%[單選題]28.在IBM提出的企業(yè)管理范疇中,企業(yè)數(shù)據(jù)不包含(__)。A)元數(shù)據(jù)B)主數(shù)據(jù)C)關(guān)系數(shù)據(jù)D)業(yè)務(wù)數(shù)據(jù)答案:D解析:[單選題]29.觀察如下數(shù)據(jù)集:刪除A,b,c,d哪個(gè)點(diǎn)對(duì)擬合回歸線的影響最大?A)aB)bC)cD)d答案:D解析:線性回歸對(duì)數(shù)據(jù)中的離群點(diǎn)比較敏感。雖然c點(diǎn)也是離群點(diǎn),但它接近與回歸線,殘差較小。因此,d點(diǎn)對(duì)擬合回歸線的影響最大。[單選題]30.以查準(zhǔn)率為縱軸、查全率為橫軸作圖,就得到了查準(zhǔn)率-查全率曲線,簡(jiǎn)稱(__)。A)雙曲線B)P-R曲線C)科克曲線D)共軛曲線答案:B解析:[單選題]31.當(dāng)訓(xùn)練數(shù)據(jù)很多時(shí),一種更為強(qiáng)大的結(jié)合策略是使用(__),通過(guò)另一個(gè)學(xué)習(xí)器來(lái)進(jìn)行結(jié)合。A)投票法B)平均法C)學(xué)習(xí)法D)排序法答案:C解析:[單選題]32.解決隱馬模型中預(yù)測(cè)問(wèn)題的算法是?A)前向算法B)后向算法C)Baum-Welch算法D)維特比算法答案:D解析:[單選題]33.在機(jī)器學(xué)習(xí)中,不屬于常用的沖突消解策略是()。A)投票法B)排序法C)元規(guī)則法D)加權(quán)法答案:D解析:常用的沖突消解策略有投票法、排序法、元規(guī)則法等。[單選題]34.以下有關(guān)特征數(shù)據(jù)歸一化的說(shuō)法錯(cuò)誤的是:A)特征數(shù)據(jù)歸一化加速梯度下降優(yōu)化的速度B)特征數(shù)據(jù)歸一化有可能提高模型的精度C)線性歸一化適用于特征數(shù)值分化比較大的情況D)概率模型不需要做歸一化處理答案:C解析:線性歸一化這種歸一化方法比較適用在數(shù)值比較集中的情況。這種方法有個(gè)缺陷,如果max和min不穩(wěn)定,很容易使得歸一化結(jié)果不穩(wěn)定,使得后續(xù)使用效果也不穩(wěn)定。實(shí)際使用中可以用經(jīng)驗(yàn)常量值來(lái)替代max和min。非線性歸一化經(jīng)常用在數(shù)據(jù)分化比較大的場(chǎng)景,有些數(shù)值很大,有些很小。通過(guò)一些數(shù)學(xué)函數(shù),將原始值進(jìn)行映射。該方法包括log、指數(shù),正切等。需要根據(jù)數(shù)據(jù)分布的情況,決定非線性函數(shù)的曲線,比如log(V,2)還是log(V,10)等。概率模型(決策樹)不需要?dú)w一化,因?yàn)樗麄儾魂P(guān)心變量的值,而是關(guān)心變量的分布和變量之間的條件概率。像SVM、線性回歸之類的最優(yōu)化問(wèn)題需要?dú)w一化。歸一化之后加快了梯度下降求最優(yōu)解的速度,并有可能提高精度。[單選題]35.協(xié)同訓(xùn)練(co-training)是針對(duì)()數(shù)據(jù)設(shè)計(jì)?A)多角度B)多視圖C)多環(huán)境D)多版本答案:B解析:[單選題]36.機(jī)器學(xué)習(xí)的實(shí)質(zhì)在于()A)找B)想C)判斷D)理解答案:A解析:[單選題]37.Spark支持的分布式部署方式中哪個(gè)是錯(cuò)誤的()。A)standaloneB)sparkonmesosC)sparkonYARND)Sparkonlocal答案:D解析:[單選題]38.OLAM技術(shù)一般簡(jiǎn)稱為?數(shù)據(jù)聯(lián)機(jī)分析挖掘?,下面說(shuō)法正確的是:A)OLAP和OLAM都基于客戶機(jī)/服務(wù)器模式,只有后者有與用戶的交互性;B)由于OLAM的立方體和用于OLAP的立方體有本質(zhì)的區(qū)別.C)基于WEB的OLAM是WEB技術(shù)與OLAM技術(shù)的結(jié)合.D)OLAM服務(wù)器通過(guò)用戶圖形借口接收用戶的分析指令,在元數(shù)據(jù)的知道下,對(duì)超級(jí)立方體作一定的操作.答案:D解析:[單選題]39.在高斯混合分布中,其隱變量的含義是:A)表示高斯分布的方差B)表示高斯分布的均值C)表示數(shù)據(jù)分布的概率D)表示數(shù)據(jù)從某個(gè)高斯分布中產(chǎn)生答案:D解析:首選依賴GMM的某個(gè)高斯分量的系數(shù)概率(因?yàn)橄禂?shù)取值在0~1之間,因此可以看做是一個(gè)概率取值)選擇到這個(gè)高斯分量,然后根據(jù)這個(gè)被選擇的高斯分量生成觀測(cè)數(shù)據(jù)。然后隱變量就是某個(gè)高斯分量是否被選中:選中就為1,否則為0。[單選題]40.()能反映出X和Y之間的強(qiáng)相關(guān)性。A)相關(guān)系數(shù)為0.9B)對(duì)于無(wú)效假設(shè),β=0的p值為0.0001C)對(duì)于無(wú)效假設(shè),β=0的t值為30D)以上說(shuō)法都不對(duì)答案:A解析:相關(guān)系數(shù)反映了不同變量之間線性相關(guān)程度,取值范圍為[-1,1],值越大表示相關(guān)程度越高。因此,A選項(xiàng)中r=0.9,表示X和Y之間有較強(qiáng)的相關(guān)性。p和t的數(shù)值大小沒有統(tǒng)計(jì)意義,只是將其與某一個(gè)閾值進(jìn)行比對(duì),以得到二選一的結(jié)論。[單選題]41.以下()是Python中的二維圖形包。A)MatplotlibB)PandasC)NumPyD)BoKeh答案:A解析:[單選題]42.關(guān)于引入模塊的方式,錯(cuò)誤的是()。A)importmathB)fromfibimportFibonacciC)frommathimport*D)from*importfib答案:D解析:[單選題]43.多元線性回歸的訓(xùn)練樣本由(__)個(gè)屬性描述。A)一B)二C)三D)多答案:D解析:[單選題]44.以下關(guān)于數(shù)據(jù)科學(xué)相關(guān)描述不正確的是()。A)數(shù)據(jù)科學(xué)是數(shù)據(jù),尤其是大數(shù)據(jù)背后的科學(xué)B)?數(shù)據(jù)?是一門科學(xué),答案就在?大數(shù)據(jù)?手中C)在數(shù)據(jù)科學(xué)出現(xiàn)之前,我們關(guān)注的是數(shù)據(jù)主動(dòng)的一面,而在數(shù)據(jù)科學(xué)中我們更加重視的是被動(dòng)作用。D)數(shù)據(jù)科學(xué)的最終研究目標(biāo)是實(shí)現(xiàn)數(shù)據(jù)、物質(zhì)和能量之間的轉(zhuǎn)換。答案:C解析:[單選題]45.k近鄰算法在()的情況下效果較好。A)樣本較多但典型性不好B)樣本較少但典型性好C)樣本呈團(tuán)狀分布D)樣本呈鏈狀分布答案:B解析:k近鄰算法主要依靠的是周圍的點(diǎn),因此如果樣本過(guò)多,則難以區(qū)分,典型性好的容易區(qū)分。樣本都是呈團(tuán)狀分布,KNN就發(fā)揮不出其求近鄰的優(yōu)勢(shì)了,整體樣本應(yīng)該具有典型性好,樣本較少,比較適宜。[單選題]46.(__)不僅可用于多層前饋神經(jīng)網(wǎng)絡(luò),還可用于其他類型的神經(jīng)網(wǎng)絡(luò)。A)感知機(jī)B)神經(jīng)元C)神經(jīng)系統(tǒng)D)誤差逆?zhèn)鞑ゴ鸢?D解析:[單選題]47.(__)試圖學(xué)得一個(gè)屬性的線性組合來(lái)進(jìn)行預(yù)測(cè)的函數(shù)。A)決策樹B)貝葉斯分類器C)神經(jīng)網(wǎng)絡(luò)D)線性模型答案:D解析:[單選題]48.集成學(xué)習(xí)中,每個(gè)基分類器的正確率的最低要求()A)50%以上B)60%以上C)70%以上D)80%以上答案:A解析:[單選題]49.CNN常見的Loss函數(shù)不包括以下哪個(gè)()A)softmax_lossB)sigmoid_lossC)Contrastive_LossD)siamese_loss答案:D解析:[單選題]50.下列選項(xiàng)中,()不可以直接對(duì)文本進(jìn)行分類。A)K-MeansB)決策樹C)支持向量機(jī)D)K近鄰答案:A解析:[單選題]51.EM算法是()學(xué)習(xí)算法A)有監(jiān)督B)無(wú)監(jiān)督C)半監(jiān)督D)都不是答案:B解析:[單選題]52.OpenCV的描述正確的是()。A)只有-個(gè)模塊B)由多個(gè)模塊組成C)core中有OpenCVD)opencv主要由C++語(yǔ)言編寫答案:B解析:[單選題]53.在圖集合中發(fā)現(xiàn)一組公共子結(jié)構(gòu),這樣的任務(wù)稱為A)頻繁子集挖掘B)頻繁子圖挖掘C)頻繁數(shù)據(jù)項(xiàng)挖掘D)頻繁模式挖掘答案:B解析:[單選題]54.機(jī)器學(xué)習(xí)模型包括四個(gè)組成部分,不包含(A)模型結(jié)構(gòu)B)知識(shí)庫(kù)C)學(xué)習(xí)單元D)執(zhí)行單元答案:A解析:[單選題]55.圖像中的椒鹽噪聲可以用(__)去除。A)中值濾波B)均值濾波C)最大值濾波D)最小值濾波答案:A解析:[單選題]56.()是一門以可視交互為基礎(chǔ),綜合運(yùn)用圖形學(xué)、數(shù)據(jù)挖掘和人機(jī)交互等技術(shù)等多個(gè)學(xué)科領(lǐng)域的知識(shí),以實(shí)現(xiàn)人機(jī)協(xié)同完成可視化任務(wù)為主要目的分析推理性學(xué)科。A)科學(xué)可視化B)可視分析學(xué)C)數(shù)據(jù)可視化D)信息可視化答案:B解析:[單選題]57.假設(shè)12個(gè)銷售價(jià)格記錄組已經(jīng)排序如下:5,10,11,13,15,35,50,55,72,92,204,215使用如下每種方法將它們劃分成四個(gè)箱。等頻(等深)劃分時(shí),15在第幾個(gè)箱子內(nèi)?A)第一個(gè)B)第二個(gè)C)第三個(gè)D)第四個(gè)答案:B解析:[單選題]58.下面哪項(xiàng)不屬于循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出模式。()A)單輸出B)多輸出C)同步多輸出D)異步多輸出答案:C解析:第2部分:多項(xiàng)選擇題,共21題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]59.常見的原型聚類算法包括()。A)K均值算法B)學(xué)習(xí)向量量化C)高斯混合聚類D)密度聚類答案:ABC解析:[多選題]60.以下可能會(huì)導(dǎo)致過(guò)擬合的是(___)。A)訓(xùn)練集中含有噪聲樣本B)訓(xùn)練集中缺乏代表性樣本C)訓(xùn)練集的樣本數(shù)目過(guò)少D)訓(xùn)練集中樣本的維度過(guò)少答案:AB解析:[多選題]61.關(guān)于集成學(xué)習(xí)正確的是()A)Bagging降低偏差B)Bagging降低方差C)Boosting降低偏差D)Boosting降低方差答案:BC解析:[多選題]62.下面關(guān)于k近鄰的表述中,正確的是(__)。A)當(dāng)k取不同值時(shí),分類結(jié)果會(huì)有顯著不同B)若采用不同的距離計(jì)算方式,則找出的?近鄰?可能有顯著差別C)k近鄰可用來(lái)對(duì)數(shù)據(jù)進(jìn)行分類D)k近鄰可用來(lái)對(duì)數(shù)據(jù)進(jìn)行回歸答案:ABCD解析:[多選題]63.下列屬于有監(jiān)督算法的是()A)決策樹B)K-均值C)貝葉斯網(wǎng)路D)SVM答案:ACD解析:[多選題]64.下面屬于詞袋模型的缺點(diǎn)的是?()A)詞匯表的詞匯需要經(jīng)過(guò)精心設(shè)計(jì)B)表示具有稀疏性C)丟失詞序忽略了上下文D)模型復(fù)雜,不利于實(shí)施答案:ABC解析:[多選題]65.SVM處理線性不可分?jǐn)?shù)據(jù)時(shí)()A)數(shù)據(jù)變換到高維空間B)在原始空間求解MMHC)在高維空間求解MMHD)使用核函數(shù)代替點(diǎn)積運(yùn)算答案:ACD解析:[多選題]66.數(shù)據(jù)科學(xué)項(xiàng)目主要涉及的角色有(__)和項(xiàng)目發(fā)起人、客戶、項(xiàng)目經(jīng)理。A)數(shù)據(jù)科學(xué)家B)領(lǐng)域?qū)<褻)數(shù)據(jù)工程師D)操作人員答案:ACD解析:[多選題]67.下來(lái)哪些概念已被廣泛應(yīng)用于計(jì)算機(jī)視覺、自然語(yǔ)言處理、無(wú)人駕駛等領(lǐng)域?A)機(jī)器學(xué)習(xí)B)深度學(xué)習(xí)C)強(qiáng)化學(xué)習(xí)D)遷移學(xué)習(xí)答案:ABCD解析:[多選題]68.下列哪些項(xiàng)屬于傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)的性質(zhì)。()A)上一時(shí)刻的網(wǎng)絡(luò)狀態(tài)信息將會(huì)作用于下一時(shí)刻的網(wǎng)絡(luò)狀態(tài)B)并行處理序列中所有信息C)容易梯度爆炸/消失D)易于搭建答案:AC解析:[多選題]69.以下哪些產(chǎn)品屬于數(shù)據(jù)產(chǎn)品A)數(shù)據(jù)報(bào)表平臺(tái)B)DMPC)搜索與精準(zhǔn)化產(chǎn)品D)風(fēng)控產(chǎn)品答案:ABCD解析:[多選題]70.機(jī)器學(xué)習(xí)中做特征選擇時(shí),可能用到的方法有?A)卡方B)信息增益C)平均互信息D)期望交叉熵答案:ABCD解析:[多選題]71.根據(jù)邊的性質(zhì)的不同,概率圖模型可大致分為兩類:第一類是使用(__)表示變量間的依賴關(guān)系;第二類是使用(__)表示變量間的相關(guān)關(guān)系。A)有向無(wú)環(huán)圖B)無(wú)向圖C)環(huán)形圖D)樹形圖答案:AB解析:[多選題]72.神經(jīng)網(wǎng)絡(luò)可以按()A)學(xué)習(xí)方式分類B)網(wǎng)絡(luò)結(jié)構(gòu)分類C)網(wǎng)絡(luò)的協(xié)議類型分類D)網(wǎng)絡(luò)的活動(dòng)方式分類答案:ABD解析:[多選題]73.Zookeeper客戶端命令中,遞歸刪除節(jié)點(diǎn)可以使用()A)rmrB)deleteallC)deleteD)Mm答案:AB解析:[多選題]74.基因遺傳算法的兩個(gè)常用的結(jié)束條件為()**A)達(dá)到一定的迭代次數(shù)B)適應(yīng)度函數(shù)達(dá)到一定的要求C)達(dá)到一定的變異次數(shù)D)達(dá)到一定的交叉次數(shù)答案:AB解析:[多選題]75.圖像識(shí)別的精度會(huì)受到以下那些因素的影響。A)數(shù)據(jù)類別數(shù)量不平衡B)輸入圖像尺寸不同C)圖像中存在類標(biāo)之外的環(huán)境干擾D)圖像中存在隨機(jī)噪聲答案:ACD解析:第3部分:判斷題,共12題,請(qǐng)判斷題目是否正確。[判斷題]76.數(shù)據(jù)集一般劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集三部分,訓(xùn)練集用于建模,驗(yàn)證集用于模型驗(yàn)證與矯正,測(cè)試集用于模型的最終評(píng)估。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]77.使用梯度下降法訓(xùn)練回歸模型時(shí),會(huì)由于各特征尺寸相差較大而造成算法收斂較慢。應(yīng)該將特征尺寸進(jìn)行縮放至接近或相同尺寸??刹捎胹klearn中的類或函數(shù)LabelEcoderA)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]78.通過(guò)求解損失函數(shù)的最小值,可以實(shí)現(xiàn)求解模型參數(shù)、優(yōu)化模型參數(shù)和評(píng)價(jià)模型學(xué)習(xí)效果的目的。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]79.隨機(jī)森林的收斂性與Bagging相似,隨機(jī)森林的起始性能往往相對(duì)較好,隨著個(gè)體學(xué)習(xí)器數(shù)目的增加,隨機(jī)森林通常會(huì)收斂到更低的泛化誤差。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]80.聚類算法的任務(wù)是根據(jù)數(shù)據(jù)特征將數(shù)據(jù)集相似的數(shù)據(jù)劃分到同一簇A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]81.神經(jīng)網(wǎng)絡(luò)中最基本的成分是神經(jīng)元模型,即神經(jīng)網(wǎng)絡(luò)中簡(jiǎn)單單元A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]82.Matplotlib是一個(gè)用在Python中繪制數(shù)組的3D圖形庫(kù)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:Matplotlib是一個(gè)用在Python中繪制數(shù)組的2D圖形庫(kù)。多選[判斷題]83.CART算法既能用于分類問(wèn)題,又能用于回歸問(wèn)題A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]84.相對(duì)于人工神經(jīng)元網(wǎng)絡(luò)和深度學(xué)習(xí),類腦人工智能對(duì)人類大腦的神經(jīng)回路具用更深入的理解A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]85.如果希望創(chuàng)建一個(gè)數(shù)組,則只能用array()函數(shù)實(shí)現(xiàn)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]86.預(yù)測(cè)西瓜的甜度值,可以使用簡(jiǎn)單線性回歸模型進(jìn)行預(yù)測(cè)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]87.樸素貝葉斯做了一個(gè)很強(qiáng)的?特征條件獨(dú)立性假設(shè)?把問(wèn)題簡(jiǎn)化,即假設(shè)的各個(gè)特征之間相互獨(dú)立,一個(gè)特征出現(xiàn)的概率不受其他特征的影響。A)正確B)錯(cuò)誤答案:對(duì)解析:第4部分:?jiǎn)柎痤},共9題,請(qǐng)?jiān)诳瞻滋幪顚懻_答案。[問(wèn)答題]88.假設(shè)現(xiàn)在只有兩個(gè)類,這種情況下SVM需要訓(xùn)練幾次?答案:1解析:[問(wèn)答題]89.集成學(xué)習(xí)主要有哪幾種框架
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 《種粥的做法》課件
- 課生命最寶貴課件副本
- Module 4 Unit 2 What can you see (說(shuō)課稿) -2024-2025學(xué)年外研版(一起)英語(yǔ)三年級(jí)上冊(cè)
- Module 10 Unit 2 Go straight on. (說(shuō)課稿) -2024-2025學(xué)年外研版(一起)英語(yǔ)六年級(jí)上冊(cè)
- 2023三年級(jí)數(shù)學(xué)下冊(cè) 第四單元 毫米和千米4.1 認(rèn)識(shí)毫米說(shuō)課稿 冀教版
- 《商務(wù)談判的內(nèi)容》課件
- 《內(nèi)部評(píng)級(jí)法》課件
- DB37-T 4512-2022 電梯安全物聯(lián)網(wǎng)技術(shù)規(guī)范
- 《電信網(wǎng)技術(shù)》課件
- 二零二五年度燃?xì)馄髽I(yè)送氣員勞動(dòng)合同及安全生產(chǎn)責(zé)任書
- 前列腺癌診斷治療指南
- 中國(guó)銀行招聘筆試真題「英語(yǔ)」
- 江蘇省2023年對(duì)口單招英語(yǔ)試卷及答案
- GB/T 35506-2017三氟乙酸乙酯(ETFA)
- GB/T 25784-20102,4,6-三硝基苯酚(苦味酸)
- 特種設(shè)備安全監(jiān)察指令書填寫規(guī)范(特種設(shè)備安全法)參考范本
- 硬筆書法全冊(cè)教案共20課時(shí)
- 《長(zhǎng)方形的面積》-完整版課件
- 五年級(jí)上冊(cè)英語(yǔ)Module6Unit1Youcanplaybasketballwell外研社課件
- 工業(yè)企業(yè)現(xiàn)場(chǎng)監(jiān)測(cè)工況核查表
- 沉淀池及排水溝清理記錄表
評(píng)論
0/150
提交評(píng)論