人工智能機器學習技術練習(習題卷15)_第1頁
人工智能機器學習技術練習(習題卷15)_第2頁
人工智能機器學習技術練習(習題卷15)_第3頁
人工智能機器學習技術練習(習題卷15)_第4頁
人工智能機器學習技術練習(習題卷15)_第5頁
已閱讀5頁,還剩18頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

試卷科目:人工智能機器學習技術練習人工智能機器學習技術練習(習題卷15)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機器學習技術練習第1部分:單項選擇題,共58題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.基于二次準則函數的H-K算法較之于感知器算法的優(yōu)點是()?A)計算量小B)可以判別問題是否線性可分C)其解完全適用于非線性可分的情況答案:B解析:[單選題]2.關于梯度提升樹,說法正確的是()A)梯度提升樹中樣本的權重是不等的B)梯度提升樹只需構建一棵樹C)梯度提升樹回歸可以跨越訓練集中l(wèi)abel的值范圍答案:A解析:[單選題]3.關于BP算法反向傳播的說法正確的是()。A)BP算法反向傳播進行更新時一般用到微積分的鏈式傳播法則B)BP算法更新量與步長關系不大C)BP算法反向傳播的預測誤差值一般由真實標簽值和預測標簽值的差計算得來D)BP算法反向傳播的目的是只對權值進行更新答案:A解析:[單選題]4.卷積神經網絡中說的梯度下降,是指()的梯度。A)參數本身B)激活函數C)損失函數D)圖像大小答案:C解析:[單選題]5.下面選項中t不是s的子序列的是A)s=<{2,4},{3,5,6},{8}>t=<{2},{3,6},{8}>B)s=<{2,4},{3,5,6},{8}>t=<{2},{8}>C)s=<{1,2},{3,4}>t=<{1},{2}>D)s=<{2,4},{2,4}>t=<{2},{4}>答案:C解析:[單選題]6.假設我們使用kNN訓練模型,其中訓練數據具有較少的觀測數據(下圖是兩個屬性x、y和兩個標記為?+?和?o?的訓練數據)。現在令k=1,則圖中的Leave-One-Out交叉驗證錯誤率是多少?A)0%B)20%C)50%D)100%答案:D解析:本題考查的是kNN算法和Leave-One-Out交叉驗證。KNN算法是標記類算法,取當前實例最近鄰的k個樣本,k個樣本中所屬的最多類別即判定為該實例的類別。本題中k=1,則只需要看最近鄰的那一個樣本屬于?+?還是?o?即可。Leave-One-Out交叉驗證是一種用來訓練和測試分類器的方法,假定數據集有N個樣本,將這個樣本分為兩份,第一份N-1個樣本用來訓練分類器,另一份1個樣本用來測試,如此迭代N次,所有的樣本里所有對象都經歷了測試和訓練。分別對這10個點進行觀察可以發(fā)現,每個實例點最近鄰的都不是當前實例所屬的類別,因此每次驗證都是錯誤的。整體的錯誤率即為100%。[單選題]7.DataFrame1和RDDR最大的區(qū)別()A)科學統(tǒng)計支持B)多了多schemaC)存儲方式不一樣D)外部數據源支持答案:B解析:[單選題]8.考察一個由三個卷積層組成的CNN:kernel=3×3,stride=2,padding=SAME。最低層輸出100個特征映射(featuremap),中間層200個特征映射,最高層400個特征映射。輸入是200×300的RGB圖片,總參數的數量是多少?()A)903400B)2800C)180200D)720400答案:A解析:[單選題]9.以下對字典的說法錯誤的是()。A)字典可以為空B)字典的鍵不能相同C)字典的鍵不可變D)字典的鍵的值不可變答案:D解析:[單選題]10.()的基本想法是適當考慮一部分屬性間的相互依賴信息,從而既不需要進行完全聯合概率計算,又不至于徹底忽略了比較強的屬性依賴關系。A)貝葉斯判定準則B)貝葉斯決策論C)樸素貝葉斯分類器D)半樸素貝葉斯分類器答案:D解析:[單選題]11.()是預測一個數量(連續(xù)型),屬于監(jiān)督學習A)分類B)回歸C)聚類D)強化學習答案:B解析:[單選題]12.以下哪種方法不屬于特征選擇的標準方法:A)嵌入B)過濾C)包裝D)抽樣答案:D解析:[單選題]13.類域界面方程法中,不能求線性不可分情況下分類問題近似或精確解的方法是?A)偽逆法B)感知器算法C)基于二次準則的H-K算法D)勢函數法答案:B解析:[單選題]14.下列哪種算法可以用神經網絡構建?1K-NN最近鄰算法;2線性回歸;3邏輯回歸。A)1and2B)2and3C)1,2and3D)Noneoftheabove答案:B解析:1.KNN是關于距離的學習算法,沒有任何參數,所以無法用神經網絡構建。2.神經網絡實現最小二乘法。3.邏輯回歸相當于一層的神經網絡。[單選題]15.抖動技術可以?A)改善圖像的空間分辨率;B)改善圖像的幅度分辨率;C)利用半輸出技術實現;D)消除虛假輪廓現象;答案:D解析:[單選題]16.在下面給出的三個殘差圖中,下面哪一個代表了與其他模型相比更差的模型?注意:1/所有的殘差都已經標準化2/圖中橫坐標是預測值,縱坐標是殘差A)1B)2C)3D)無法比較答案:C解析:[單選題]17.以下哪項是非線性降維方法A)PCA(主成分分析)B)LDA(線性判別)C)ICA(獨立成分分析)D)KPCA(核化線性降維)答案:D解析:[單選題]18.()算法的訓練數據集既有特征,又有標簽A)有監(jiān)督學習B)半監(jiān)督學習C)無監(jiān)督學習D)強化學習答案:A解析:[單選題]19.zookeeper的作用不包括()。A)分布式配置同步B)加強集群穩(wěn)定性C)對Task執(zhí)行進行調度D)加強集群持續(xù)性答案:C解析:[單選題]20.數據科學是一門以實現?從數據到信息??從數據到知識??從數據到智慧?的轉化為主要研究目的,以?數據驅動??數據業(yè)務化??數據洞見??數據產品研發(fā)?為主要研究任務的()。A)新興科學B)交叉性學科C)獨立學科D)一整套知識體系答案:C解析:[單選題]21.卷積神經網絡中的dropout模塊的作用是()。A)防止結果發(fā)散B)防止梯度消失C)防止報錯D)防止過擬合答案:D解析:[單選題]22.Zookeeper-Stat結構體中numChildren是()A)znode數據變化號B)znode訪問控制列表的變化號C)znode子節(jié)點數量D)znode的數據長度答案:C解析:[單選題]23.()是指過濾器在圖像上滑動的距離。A)卷積核大小B)卷積步長C)過濾器大小D)圖像大小答案:B解析:[單選題]24.符號集a、b、c、d,它們相互獨立,相應概率為1/2、1/4、1/8、1/16,其中包含信息量最小的符號是()A)aB)bC)cD)d答案:A解析:[單選題]25.做卷積運算的缺點是,卷積圖像的大小會不斷縮小,另外圖像的左上角的元素只被一個輸出所使用,所以在圖像邊緣的像素在輸出中采用較少,也就意味著你丟掉了很多圖像邊緣的信息。為了解決這個問題,在卷積過程中引入了()。A)poolingB)paddingC)convolutionD)FC答案:B解析:[單選題]26.下面關于回歸過程的說法,錯誤的是A)收集數據:采用任意方法收集數據B)分析數據:繪出數據的可視化二維圖將有助于對數據做出理解和分析,在采用縮減法求得新回歸系數之后,可以將新擬合線繪在圖上作為對比C)訓練算法:找到回歸系數D)用算法:使用回歸,可以在給定輸入的時候預測出一個數值,這是對分類方法的提升,因為這樣只可以預測連續(xù)型數據答案:D解析:[單選題]27.半監(jiān)督學習不包括A)直推學習B)純半監(jiān)督學習C)主動學習D)圖半監(jiān)督學習答案:C解析:[單選題]28.在選擇神經網絡的深度時,下面哪些參數需要考慮?1神經網絡的類型(如MLP,CNN);2輸入數據;3計算能力(硬件和軟件能力決定);4學習速率;5映射的輸出函數.A)1,2,4,5B)2,3,4,5C)都需要考慮D)1,3,4,5答案:C解析:[單選題]29.知識圖譜是由()演化而來。[]*A)符號主義B)認知主義C)聯結主義D)行為主義答案:A解析:[單選題]30.機器學習從不同的角度,有不同的分類方式,以下哪項不屬于按系統(tǒng)學習能力分類的類別______。A)監(jiān)督學習B)無監(jiān)督學習C)弱監(jiān)督學習D)函數學習答案:D解析:[單選題]31.下面對線性模型中偏置值b的說法正確的是(__)。A)無任何意義B)決定超平面的位置C)決定的超平面的方向D)是樣本點到超平面上的映射答案:B解析:[單選題]32.以下幾種模型方法屬于判別式模型的有1)混合高斯模型2)條件隨機場模型3)區(qū)分度訓練4)隱馬爾科夫模型A)1,4B)3,4C)2,3D)1,2答案:C解析:[單選題]33.()試圖學得一個屬性的線性組合來進行預測的函數。A)決策樹B)貝葉斯分類器C)神經網絡D)線性模型答案:D解析:[單選題]34.進行主成分分析的前提條件是各變量間()。A)高度相關B)低度相關C)相互獨立D)完全相關答案:B解析:[單選題]35.下列關于數據標準化的說法中,不正確的是()A)Z-Score標準化適用于特征最大值和最小值未知,數據較分散的情況B)聚類算法要求數據集無量綱化C)Logistic標準化函數σ(x)滿足σ(0)=1D)Min-Max標準化易受離群值影響答案:C解析:[單選題]36.以下不屬于影響聚類算法結果的主要因素有()A)已知類別的樣本質量B)分類準則C)特征選取D)模式相似性測度答案:A解析:[單選題]37.F1參數的大小反映了模型的(__)。A)準確度B)誤差C)穩(wěn)定性D)偏差答案:C解析:[單選題]38.10.基于層次的聚類算法包括()。A)合并的層次聚類B)基于密度的聚類算法C)基于劃分的算法D)基于網絡的聚類算法答案:A解析:[單選題]39.當不知道數據所帶標簽時,可以使用()促使帶同類標簽的數據與帶其他標簽的數據相分離。A)分類B)聚類C)關聯分析D)隱馬爾可夫鏈答案:B解析:聚類是一種典型的無監(jiān)督學習任務,不要求樣本集數據帶標簽。[單選題]40.zookeeper節(jié)點的特性()A)可以存儲數據B)不可以存儲數據C)可以計算數據D)可以協(xié)調數據答案:A解析:[單選題]41.為了解決如何模擬人類的感性思維,例如視覺理解、直覺思維、悟性等,研究者找到一個重要的信息處理的機制是()A)專家系統(tǒng)B)人工神經網絡C)模式識別D)智能代理答案:B解析:[單選題]42.()的主要目的是提升數據質量,將數據形態(tài)更加符合某一算法需求,進而提升數據計算的效果和降低其復雜度。A)數據加工B)數據分析C)數據挖掘D)數據處理答案:A解析:[單選題]43.()選擇成為支持向量機的最大變數。A)核函數B)樣本空間C)模型D)算法答案:A解析:在不知道特征映射的形式時,我們并不知道什么樣的核函數是合適的,而核函數也僅是隱式地定義了這個特征空間。于是,核函數選擇成為支持向量機的最大變數。[單選題]44.做一個二分類預測問題,先設定閾值為0.5,概率大于等于0.5的樣本歸入正例類(即1),小于0.5的樣本歸入反例類(即0)。然后,用閾值n(n>0.5)重新劃分樣本到正例類和反例類,下面哪一種說法正確是()1.增加閾值不會提高召回率2..增加閾值會提高召回率3..增加閾值不會降低查準率4.增加閾值會降低查準率A)1B)2C)1、3D)2、4答案:C解析:[單選題]45.選擇哪一個解作為輸出,將由學習算法的歸納偏好決定,常見的做法是引人()。A)線性回歸B)線性判別分析C)正則化項D)偏置項答案:C解析:[單選題]46.一階規(guī)則的基本成分是A)原子命題B)謂詞C)量詞D)原子公式答案:D解析:[單選題]47.馬爾可夫隨機場是典型的馬爾可夫網,這是一種著名的(__)模型。A)無向圖B)有向圖C)樹形圖D)環(huán)形圖答案:A解析:[單選題]48.可用作數據挖掘分析中的關聯規(guī)則算法有()。A)機器學習、對數回歸、關聯模式B)K均值法、SOM機器學習C)Apriori算法、FP-Tree算法D)RBF機器學習、K均值法、機器學習答案:C解析:關聯規(guī)則包括Apriori、FP-Tree等算法。[單選題]49.一般來說,下列哪種方法常用來預測連續(xù)獨立變量?A)線性回歸B)邏輯回顧C)線性回歸和邏輯回歸都行D)以上說法都不對答案:A解析:線性回歸一般用于實數預測,邏輯回歸一般用于分類問題。[單選題]50.以下對大數據?涌現?描述不正確的是()。A)安全涌現是大數據涌現現象B)小數據可能沒價值,但是小數據組成的大數據卻很有價值,這叫做價值涌現C)小數據可能質量沒問題,但是大數據質量會出現問題這叫質量涌現D)小數據可能不涉及隱私,但是大數據可能嚴重威脅個人隱私,這叫隱私涌現答案:C解析:[單選題]51.讓學習器不依賴外界交互、自動地利用未標記樣本來提升學習性能,就是()?A)監(jiān)督學習B)倍監(jiān)督學習C)半監(jiān)督學習D)無監(jiān)督學習答案:C解析:[單選題]52.貝葉斯網借助(__)來刻畫屬性之間的依賴關系。A)有向圖B)無環(huán)圖C)有向無環(huán)圖D)歐拉圖答案:C解析:[單選題]53.()是一種處理時序數據的神經網絡,常用于語音識別,機器翻譯等領域。[]*A)前饋神經網絡B)卷積神經網絡C)循環(huán)神經網絡D)對抗神經網絡答案:C解析:[單選題]54.電影投資金額和電影收入之間的關系可以用一個一元線性回歸方程來表示,下列說法正確的是()。A)投資越多收入越少B)投資越少收入越多C)投資越多收入越多D)投資和收入的關系不確定答案:C解析:[單選題]55.Softmax算法中溫度趨近于0時Softmax將趨于A)僅探索B)僅利用C)全探索D)全利用答案:B解析:[單選題]56.數據治理任務通常有三個部分不包含(__)。A)主動定義或序化規(guī)則B)接觸數據的業(yè)務流程C)為數據利益相關者提供持續(xù)D)跨界的保護、服務和應對并解決因不遵守規(guī)則而產生的問題答案:B解析:[單選題]57.(__)不是常用的噪聲處理方法。A)聚類B)回歸C)分類D)分箱答案:C解析:[單選題]58.考慮如下數據集,其中CustomerID(顧客id),TransactionID(事務id),ItemsBought(購買項)。如果將每個事務id看成一個購物籃,計算項集{e},{b,d},{b,D,e}的支持度:A)s({e})=0.8s({b,d})=0.2s({b,D,e})=0.2B)s({e})=0.7s({b,d})=0.3s({b,D,e})=0.3C)s({e})=0.6s({b,d})=0.4s({b,D,e})=0.3D)s({e})=0.8s({b,d})=0.1s({b,D,e})=0.1答案:A解析:第2部分:多項選擇題,共21題,每題至少兩個正確答案,多選或少選均不得分。[多選題]59.支持向量機是一類模型的統(tǒng)稱,通常包括A)線性支持向量機B)線性非可分向量機C)線性可分支持向量機D)非線性支持向量機答案:ACD解析:[多選題]60.以下能力中,數據工程師需要具備的能力或素質是()。A)數據洞見B)數據的ETL操作C)數據的備份與恢復D)主數據管理及數據集成答案:BCD解析:[多選題]61.關于K均值和DBSCAN的比較,以下說法正確的是()A)K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念B)K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇。C)K均值可以發(fā)現不是明顯分離的簇,即便簇有重疊也可以發(fā)現,但是DBSCAN會合并有重疊的簇D)K均值丟棄被它識別為噪聲的對象,而DBSCAN一般聚類所有對象答案:ABC解析:[多選題]62.從復雜度和價值高低兩個維度,可以將數據分析分為(__)。A)描述性分析B)診斷性分析C)預測性分析D)規(guī)范性分析答案:ABCD解析:[多選題]63.常用于K近鄰算法中的距離度量方法有()A)歐式距離B)曼哈頓距離C)閔可夫斯基距離D)海明距離答案:ABC解析:[多選題]64.以下哪些濾波器能在卷積窗口的邊界上使卷積掩膜中心像素和它的4-鄰接點的系數降至0附近。A)同態(tài)濾波B)高斯濾波C)巴特沃斯濾波D)中值濾波答案:BC解析:[多選題]65.下列屬于無監(jiān)督學習的有()A)聚類B)分類C)回歸D)降維答案:AD解析:[多選題]66.關于貝葉斯網的結構描述正確的為A)有效表達了屬性件的條件獨立性;B)給定了父結點集;C)同父,順序和V型結構為主要涉及的技術;D)所有屬性之間相互獨立;答案:ABC解析:[多選題]67.下面屬于線性分類方法的是()A)Logistic回歸B)決策樹C)最近鄰D)Fisher鑒別答案:AD解析:[多選題]68.下列關于支持向量的說法錯誤的是(__)。A)支持向量回歸機的支持向量落在它規(guī)定的間隔帶之內B)支持向量回歸機的支持向量落在它規(guī)定的間隔帶之外C)支持向量回歸機的支持向量只占訓練集的一部分D)訓練集中的全部樣本都是支持向量答案:BD解析:[多選題]69.以下對數據描述正確的是()。A)數據是現實世界的記錄B)數據是人類社會賴以生存的和發(fā)展的三大資源之一C)數據分為顯性數據和隱性數據D)數據是對信息進行計量和記錄而產生的記錄答案:AD解析:[多選題]70.隨機森林相比決策樹的優(yōu)點有()A)對離群點更加魯棒B)準確率更高C)泛化誤差收斂D)大型數據集上更加有效答案:ABCD解析:[多選題]71.如將A、B、C三個分類器的PR曲線畫在一個圖中,其中A、B的PR曲線可以完全包含住C的PR曲線,A與B的PR曲線有交點,A、B、C的平衡點分別為0.79、0.66、0.58,以下說法中正確的是()。A)學習器A的性能優(yōu)于學習器CB)學習器A的性能優(yōu)于學習器BC)學習器B的性能優(yōu)于學習器CD)學習器C的性能優(yōu)于學習器B答案:ABC解析:若一個學習器的PR曲線被另一個學習器的曲線完全包住,則可斷言后者的性能優(yōu)于前者,如果兩個學習器的PR曲線發(fā)生了交叉,則可用平衡點度量。[多選題]72.下列方法中,解決欠擬合的方法有哪些()A)正則化方法B)集成學習方法C)添加新特征D)減少正則化系數答案:BCD解析:[多選題]73.數據科學的基本流程包含(__)。A)數據可視化B)數據加工C)數據化D)數據洞見答案:BCD解析:[多選題]74.關于回歸算法,下列說法正確的是()A)線性回歸可以讓預測值跨越訓練集中l(wèi)abel的范圍B)KNN回歸可以讓預測值跨越訓練集中l(wèi)abel的范圍C)KNN在預測異常樣本時是有效的。D)線性回歸使用梯度下降法來進行學習。答案:AD解析:[多選題]75.數據戰(zhàn)略等于(__)之?和?。A)數據管理目標B)行動方案C)目標管理D)動態(tài)機制答案:ABC解析:第3部分:判斷題,共12題,請判斷題目是否正確。[判斷題]76.在解決函數優(yōu)化問題時,基因遺傳算法的全局性不好,容易陷入局部最優(yōu)值A)正確B)錯誤答案:錯解析:[判斷題]77.?獨依賴估計?是半樸素貝葉斯分類器最常用的一種策略A)正確B)錯誤答案:對解析:[判斷題]78.貝葉斯分類器在推斷階段使用訓練數據學習后驗概率A)正確B)錯誤答案:對解析:[判斷題]79.基于VC維和Rademacher復雜度推導泛化誤差界,所得到的結果均與具體學習算法無關,對所有學習算法都適用A)正確B)錯誤答案:對解析:[判斷題]80.邏輯回歸是通過回歸的思想來解決分類問題的算法A)正確B)錯誤答案:對解析:[判斷題]81.基于Rademacher復雜度的泛化誤差界是是分布無關、數據獨立的A)正確B)錯誤答案:錯解析:[判斷題]82.Pandas中利用merge函數合并數據表時默認的是內連接方式。A)正確B)錯誤答案:對解析:[判斷題]83.誤差逆?zhèn)鞑ニ惴?BP)僅可用于多層前饋神經網絡的學習算法A)正確B)錯誤答案:錯解析:[判斷題]84.機器學習的目標是使計算機能模擬人的學習行為,自動地通過學習來獲取知識和技能,不斷改善性能,實現自我完善A)正確B)錯誤答案:錯解析:[判斷題]85.信息增益即數據集的熵與在特征條件下的條件熵之差。信息增益越大,說明條件克服的不確定性越大,具有更強的分類能力A)正確B)錯誤答案:對解析:[判斷題]86.同一個列表中的元素的數據類型可以各不相同。A)正確B)錯誤答案:對解析:[判斷題]87.FOIL不支持函數和邏輯表達式嵌套A)正確B)錯誤答案:對解析:第4部分:問答題,共9題,請在空白處填寫正確答案。[問答題]88.在現實生活中樸素貝葉斯分類器有多種使用方式,若任務數據更替頻繁,則可以采用()方式,先不進行任何訓練,待收到預測請求后再根據當前

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論