人工智能機器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案6-2023-練習(xí)版_第1頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案6-2023-練習(xí)版_第2頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案6-2023-練習(xí)版_第3頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案6-2023-練習(xí)版_第4頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案6-2023-練習(xí)版_第5頁
已閱讀5頁,還剩112頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

試題說明

本套試題共包括1套試卷

答案和解析在每套試卷后

人工智能機器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案6(500題)

人工智能機器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案6

1.[單選題]最佳分類是曲線下區(qū)域面積最大者,而黃線在曲線下面積最大.2、假設(shè)你在測試邏輯回歸

分類器,設(shè)函數(shù)H為

he(x)=g(9o+Oixi+02X2)

Where

仇=6,仇=0,仇-1

style="width:21Ipx;"class="fr-ficfr-filfr-dibcursor-hover">

下圖中的哪一個代表上述分類器給出的決策邊界?

A)

6

?y?(T

style="width:auto;"class="fr-ficfr-filfr-dib">

B)

style="width:auto;"class="fr-ficfr-filfr-dib">

0

style="width:auto;"class="fr-ficfr-filfr-dib">

2.[單選題]分類模型評估指標中的召回率如何計算()

A)(TP+TN)(P+N)

B)TP(TP+FN)

C)TP(TP+FP)

3.[單選題]分類的類別標簽列是()

A)類別數(shù)值

B)類別的不同

C)具有次序、大小的意義

4.[單選題]我們常用()版。

A)apache版

B)cdh版

C)Hortonworks版本

5.[單選題]如果一個SVM模型出現(xiàn)欠擬合,那么。能解決這一問題。

A)增大懲罰參數(shù)C

B)減小懲罰參數(shù)C

C)減小核系數(shù)(gamma參數(shù))

6.[單選題]聚類算法屬于()的一種

A)無監(jiān)督學(xué)習(xí)

B)強化學(xué)習(xí)

C)監(jiān)督學(xué)習(xí)

7.[單選題]以下說法正確的是()。

A)一個機器學(xué)習(xí)模型如果有較高準確率,總是說明這個分類器是好的

B)如果增加模型復(fù)雜度,那么模型的測試錯誤率不一定會降低

C)如果增加模型復(fù)雜度,那么模型的訓(xùn)練錯誤率總是會降低

8.[單選題]在回歸模型中,下列哪一項在權(quán)衡欠擬合(under-fitting)和過擬合(over-

fitting)中影響最大?

A)多項式階數(shù)

B)更新權(quán)重w時,使用的是矩陣求逆還是梯度下降

C)使用常數(shù)項

9.[單選題]分類模型在進行訓(xùn)練時需要()

A)訓(xùn)練集

B)訓(xùn)練集與測試集

C)訓(xùn)練集、驗證集、測試集

10.[單選題]KNN算法應(yīng)用于回歸時,計算的是()

A)從屬類別的均值

B)從屬類別的最大值

C)從屬類別的最小值

11.[單選題]以下哪項是解決NLP用例(如語義相似性、閱讀理解和常識推理)的更好選擇?

A)ELMo

B)OpenAVsGPT

OULMFit

12.[單選題]邏輯回歸擬合的函數(shù)是0

A)sigmoid

B)tanh

C)relu

13.[單選題]下面不屬于云計算技術(shù)的有(_)。

A)Hadoop

B)Spark

OYARN

D)集中式計算

14.[單選題]在標準化公式

中,使用£的目的是(D)

A)為了加速收斂

B)如果u過小

C)使結(jié)果更準確

D)防止分母為零

15.[單選題]根據(jù)TCP/IP協(xié)議棧的分層來看HTTP協(xié)議工作在哪一層

A)數(shù)據(jù)鏈路層

B)網(wǎng)絡(luò)層

C)傳輸層

D)應(yīng)用層

16.[單選題]下面哪些可能是一個文本語料庫的特征()

1一個文檔中的詞頻統(tǒng)計

2文檔中單詞的布爾特征

3詞向量

4詞性標記

5基本語法依賴

6整個文檔

A)123

6)1234

012345

D)123456

17.[單選題]線性回歸是一種。,它分為簡單線性回歸和多元線性回歸

A)無監(jiān)督學(xué)習(xí)算法

B)有監(jiān)督學(xué)習(xí)算法

C)強化學(xué)習(xí)

D)聚類算法

18.[單選題]以下不屬于人工智能在計算機視覺領(lǐng)域應(yīng)用的是

A)車站人臉識別進站

B)拍照識別植物

C)醫(yī)療影像診斷

D)實時字幕

19.[單選題]交叉驗證的目的是(_)。

A)提高分類準確率

B)得到更穩(wěn)定的模型

C)驗證結(jié)果的準確性

D)增大分類的誤差

20.[單選題]下列時間序列模型中,哪一個模型可以較好地擬合波動性的分析和預(yù)測

A)AR模型

B)MA模型

C)ARMA模型

D)GARCH模型

21.[單選題]0LAM技術(shù)一般簡稱為"數(shù)據(jù)聯(lián)機分析挖掘”,下面說法正確的是:

A)OLAP和0LAM都基于客戶機/服務(wù)器模式,只有后者有與用戶的交互性;

B)由于OLAM的立方體和用于OLAP的立方體有本質(zhì)的區(qū)別.

C)基于WEB的OLAM是WEB技術(shù)與OLAM技術(shù)的結(jié)合.

D)OLAM服務(wù)器通過用戶圖形借口接收用戶的分析指令,在元數(shù)據(jù)的知道下,對超級立方體作一定的操

作.

22.[單選題]以下對Value相關(guān)描述不正確的是(一)0

A)Value是指應(yīng)用價值高

B)Value是指我們淹沒在知識海洋,卻忍受著知識的饑渴

C)如何從海量數(shù)據(jù)中洞見出有價值的數(shù)據(jù)是數(shù)據(jù)科學(xué)的重要課題之一

D)大數(shù)據(jù)中,數(shù)據(jù)價值與數(shù)據(jù)量之間不一定存在線性關(guān)系

23.[單選題]下面關(guān)于Adaboost算法的描述中,錯誤的是()

QAdaBoost模型是弱分類器的線性組合

B)提升樹是以分類樹或者回歸樹為基本分類器的提升辦法,提升樹被認為是統(tǒng)計學(xué)習(xí)中最有效的辦法

之一

OAdaBoost算法的一個解釋是該算法實際上是前向分步算法的一個實現(xiàn),在這個方法里,模型是加法

模型,損失函數(shù)是指數(shù)損失,算法是前向分步算法。

D)AdaBoost同時獨立地學(xué)習(xí)多個弱分類器

24.[單選題]()是表現(xiàn)數(shù)據(jù)分布對稱性的指標。

A)斜率

B)偏斜度

C)偏度

D)偏離度

25.[單選題]關(guān)于數(shù)據(jù)及軟件架構(gòu)的CAP理論不包括下面哪些()

A)可用性

B)一致性

C)分區(qū)容忍性

D)分布性

26.[單選題]從一個初始策略出發(fā),不斷迭代進行策略評估和改進,直到策略收斂、不再改變?yōu)橹?/p>

,這樣的作法稱為

A)策略迭代

B)值迭代

C)策略改進

D)最優(yōu)值函數(shù)

27.[單選題]數(shù)據(jù)科學(xué)家經(jīng)常使用多個算法進行預(yù)測,并將多個機器學(xué)習(xí)算法的輸出(稱為“集成學(xué)

習(xí)”)結(jié)合起來,以獲得比所有個體模型都更好的更健壯的輸出。則下列說法正確的是?

A)基本模型之間相關(guān)性高

B)基本模型之間相關(guān)性低

C)集成方法中,使用加權(quán)平均代替投票方法

D)基本模型都來自于同一算法

28.[單選題]Zookeeper集群需要多少個節(jié)點()

A)1

B)2

C)2N

D)2N+1

29.[單選題](_)是從現(xiàn)實世界中采集信息,并對采集到的信息進行計量和記錄

A)本源數(shù)據(jù)

B)零次數(shù)據(jù)

C)真實數(shù)據(jù)

D)現(xiàn)實數(shù)據(jù)

30.[單選題]在留出法、交叉驗證法和自助法三種評估方法中,()更適用于數(shù)據(jù)集較小、難以劃分訓(xùn)

練集和測試集的情況。

A)留出法

B)交叉驗證法

0自助法

D)留一法

31.[單選題]如果LASSO模型中的懲罰項變大,下列說法正確的是()

A)部分回歸系數(shù)會變?yōu)?

B)部分回歸系數(shù)會趨近于0,但不會取值為0

C)A和B的表述都正確

D)以上說法都不正確

32.[單選題]機器學(xué)習(xí)算法在學(xué)習(xí)過程中對某種類型假設(shè)的偏好稱為()。

A)訓(xùn)練偏好

B)歸納偏好

C)分析偏好

D)假設(shè)偏好

33.[單選題]在方差分析中,()反映的是樣本數(shù)據(jù)與其組平均值的差異。

A)總離差

B)組間誤差

C)抽樣誤差

D)組內(nèi)誤差

34.[單選題]K-Means算法無法聚以下哪種形狀的樣本?

A)圓形分布

B)螺旋分布

C)帶狀分布

D)凸多邊形分布

35.[單選題]哪一個是機器學(xué)習(xí)的合理定義?

A)機器學(xué)習(xí)是計算機編程的科學(xué)

B)機器學(xué)習(xí)從標記的數(shù)據(jù)中學(xué)習(xí)

C)機器學(xué)習(xí)是允許機器人智能行動的領(lǐng)域

D)機器學(xué)習(xí)能使計算機能夠在沒有明確編程的情況下學(xué)習(xí)

36.[單選題]下列哪一項屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?

A)K近鄰算法

B)隨機森林

C)神經(jīng)網(wǎng)絡(luò)

D)都不屬于

37.[單選題]在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,損失函數(shù)(loss)在最初的幾個epochs時沒有下降,可能的原因是?

class="fr-ficfr-dibcursor-hover"

A)學(xué)習(xí)率(learningrate)太低

B)正則參數(shù)太高

C)陷入局部最小值

D)以上都有可能

38.[單選題]在k均值算法中,假定聚類簇數(shù)k=3,則在算法開始時隨機選?。╛)個樣本作為初始均

值向量

A)1

B)2

03

D)任意

39.[單選題]關(guān)于啞變量的說法中,下列選項描述錯誤的是()。

A)啞變量是人為虛設(shè)的變量

B)啞變量在轉(zhuǎn)換成指標矩陣后,其值通常為0或1

C)Pnadas中g(shù)etdummies()函數(shù)可以對類別進行啞變量處理

D)啞變量的使用沒有實際意義

40.[單選題]關(guān)于級聯(lián)相關(guān)網(wǎng)絡(luò)描述錯誤的是

A)屬于結(jié)構(gòu)自適應(yīng)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)也是其優(yōu)化目標;

B)主要成分為級聯(lián)、相關(guān)、歸約;

C)無需設(shè)置網(wǎng)絡(luò)層數(shù)、隱層神經(jīng)元數(shù)目;

D)訓(xùn)練速度快,但數(shù)據(jù)較小時容易陷入過擬合;

41.[單選題]假設(shè)12個銷售價格記錄組已經(jīng)排序如下:5,10,11,13,15,35,50,55,72,92,

204,215使用如下每種方法將它們劃分成四個箱。等頻(等深)劃分時,15在第幾個箱子內(nèi)?

A)第一個

B)第二個

C)第三個

D)第四個

42.[單選題]卷積神經(jīng)網(wǎng)絡(luò)中說的梯度下降,是指()的梯度。

A)參數(shù)本身

B)激活函數(shù)

C)損失函數(shù)

D)圖像大小

43.[單選題](_)是將特征選擇過程與學(xué)習(xí)器訓(xùn)練過程融為一體,兩者在同一個優(yōu)化過程中完成

,即在學(xué)習(xí)器訓(xùn)練過程中自動地進行了特征選擇。

A)過濾式選擇

B)包裹式選擇

C)嵌入式選擇

D)正則化

44.[單選題]某超市研究銷售紀錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會購買尿布,這種屬于數(shù)據(jù)挖掘

的哪類問題?

A)關(guān)聯(lián)規(guī)則發(fā)現(xiàn)

B)聚類

C)分類

D)自然語言處理

45.[單選題]k近鄰學(xué)習(xí)是一種(_)o

A)監(jiān)督學(xué)習(xí)方法

B)半監(jiān)督學(xué)習(xí)方法

C)無監(jiān)督學(xué)習(xí)方法

D)測試方法

46.[單選題]spark,deploy.recoveryMode不支持那種()。

A)ZooKeeper

B)FileSystem

ONONE

D)hadoop

47.[單選題]關(guān)于Elman網(wǎng)絡(luò)描述錯誤的是

A)作為遞歸神經(jīng)網(wǎng)絡(luò),允許出現(xiàn)環(huán)形結(jié)構(gòu);

B)一些神經(jīng)元的輸出反饋回來會作為輸入信號;

C)用于處理靜態(tài)模型,即無法處理與時間有關(guān)的動態(tài)變化;

D)可利用BP算法來進行參數(shù)優(yōu)化;

48.[單選題]在一個線性回歸問題中,我們使用R平方(R-Squared)來判斷擬合度。此時,如果增

加一個特征,模型不變,則下面說法正確的是?

A)如果R-Squared增加,則這個特征有意義

B)如果R-Squared減小,則這個特征沒有意義

C)僅看R-Squared單一變量,無法確定這個特征是否有意義。

D)以上說法都不對

49.[單選題](_)不屬于機器學(xué)習(xí)理論基礎(chǔ)。

A)數(shù)據(jù)科學(xué)

B)哲學(xué)

C)心理學(xué)

D)人工智能

50.[單選題]當數(shù)據(jù)過大以至于無法在RAM中同時處理時,哪種梯度下降方法更加有效?

A)隨機梯度下降法(StochasticGradientDescent)

B)不知道

C)整批梯度下降法(FullBatchGradientDescent)

D)都不是

51.[單選題]使用梯度下降法訓(xùn)練回歸模型時,會由于各特征尺寸相差較大而造成算法收斂較慢。應(yīng)

該將特征尺寸進行縮放至接近或相同尺寸??刹捎胹klearn中的類或函數(shù)是:

A)StanderScaler

B)fittransform

C)accuracy_score

D)LabelEcoder

52.[單選題]半調(diào)輸出技術(shù)可以?

A)改善圖像的空間分辨率;

B)改善圖像的幅度分辨率;

C)利用抖動技術(shù)實現(xiàn);

D)消除虛假輪廓現(xiàn)象;

53.[單選題]機器學(xué)習(xí)從不同的角度,有不同的分類方式,以下哪項不屬于按系統(tǒng)學(xué)習(xí)能力分類的類別

A)監(jiān)督學(xué)習(xí)

B)無監(jiān)督學(xué)習(xí)

C)弱監(jiān)督學(xué)習(xí)

D)函數(shù)學(xué)習(xí)

54.[單選題]2.JC系數(shù)的度量公式()

A)a/b+c

B)B.a/a+b

C)C.b/b+c

D)D.a/a+b+c

55.[單選題]bootstrap數(shù)據(jù)的含義是:

A)有放回的從整體M中抽樣m個特征

B)無放回的從整體M中抽樣m個特征

C)有放回的從整體N中抽樣n個樣本

D)無放回的從整體N中抽樣n個樣本

56.[單選題]以下有關(guān)可視化認識錯誤的是哪個()。

A)可視化是簡單地把原始的數(shù)據(jù)用圖的形式展示出來的方法

B)可視化可以作為數(shù)據(jù)預(yù)處理的一種方法,找出其中的噪聲

C)可視化本身是一種數(shù)據(jù)分析方法,使用圖表把數(shù)據(jù)中隱藏的規(guī)律展示出來

D)通過數(shù)據(jù)的可視化,可以促進數(shù)據(jù)分析人員對數(shù)據(jù)的認識和規(guī)律發(fā)現(xiàn)

57.[單選題]借助對數(shù)形式的變換曲線可以達到壓縮圖像灰度動態(tài)范圍的目的,這是因為?

A)變換前的灰度值范圍比變換后的灰度值范圍大;

B)變換后僅取了一部分灰度值的范圍;

C)變換前后灰度值的范圍不同;

D)對數(shù)形式的變換曲線是單增的曲線;

58.[單選題]1特征分析,2影響分析,3原因分析,4數(shù)據(jù)審計,5忽略,6刪除,7插值。以下順序符

合缺失數(shù)據(jù)處理過程的有(_)。

A)416

B)1236

0457

D)2357

59.[單選題]隱馬爾可夫模型(HiddenMarkovModel,簡稱HMM)主要用于()數(shù)據(jù)建模

A)時長

B)時間

C)時態(tài)

D)時序

60.[單選題]“啤酒-紙尿布”問題講述的是,超市購物中,通過分析購物單發(fā)現(xiàn),買了紙尿布的

男士,往往又買了啤酒。這是一個什么問題()

A)關(guān)聯(lián)分析

B)回歸

C)聚類

D)分類

61.[單選題]點擊率的預(yù)測是一個數(shù)據(jù)比例不平衡問題(比如訓(xùn)練集中樣本呈陰性的比例為99%,陽性

的比例是1%),如果我們用這種數(shù)據(jù)建立模型并使得訓(xùn)練集的準確率高達99虬我們可以得出結(jié)論是:

A)模型的準確率非常高,我們不需要進一步探索

B)模型不好,我們應(yīng)建一個更好的模型

C)無法評價模型

D)以上都不正確

62.[單選題]以下哪個不是常見的決策樹算法

A)ID3

B)C4.5

C)CART

D)DBSCAN

63.[單選題](_)主要為數(shù)據(jù)科學(xué)和大數(shù)據(jù)產(chǎn)業(yè)鏈提供大數(shù)據(jù)分析類的技術(shù)支持。

A)分析工具

B)基礎(chǔ)設(shè)施

C)數(shù)據(jù)科學(xué)平臺

D)機器學(xué)習(xí)

64.[單選題]當閔可夫斯基距離公式中的系數(shù)p值為2時,可得到(_)的公式。

A)歐氏距離

B)曼哈頓距離

C)街區(qū)距離

D)切比雪夫距離

65.[單選題]Pandas中轉(zhuǎn)為日期格式的方法是0。

A)datetime()

B)todatetime()

C)to_time()

D)date()

66.[單選題]以下方法不可以用于特征降維的有()

A)LinearDiscriminantAnalysis

B)PrincipalComponentAnalysis

C)SingularValueDecomposition

D)MonteCarlomethod

67.[單選題]OpenCV安裝需要在。中安裝。

A)網(wǎng)頁窗口

B)Python命令環(huán)境

C)命令提示符窗口

D)任意可執(zhí)行安裝包

68.[單選題]下面關(guān)于ID3算法中說法錯誤的是()

A)ID3算法要求特征必須離散化

B)信息增益可以用嫡,而不是GINI系數(shù)來計算

C)選取信息增益最大的特征,作為樹的根節(jié)點

D)ID3算法是一個二叉樹模型

69.[單選題](_)采用概率模型來表達聚類原型。

A)k均值算法

B)學(xué)習(xí)向量量化

C)高斯混合聚類密度聚類

D)密度聚類

70.[單選題]位勢函數(shù)法的積勢函數(shù)K(x)的作用相當于Bayes判決中的()

A)后驗概率

B)先驗概率

C)類概率密度

D)類概率密度與先驗概率的和

71.[單選題]維納濾波器的作用通常是()。

A)去噪

B)減小圖像動態(tài)范圍

C)復(fù)原圖像

D)圖像模糊

72.[單選題](_)代表的是生成數(shù)據(jù)的機構(gòu)。

A)數(shù)據(jù)資源

B)數(shù)據(jù)源

C)數(shù)據(jù)端

D)數(shù)據(jù)站

73.[單選題]機器學(xué)習(xí)模型包括四個組成部分,不包含(

A)模型結(jié)構(gòu)

B)知識庫

C)學(xué)習(xí)單元

D)執(zhí)行單元

74.[單選題]ZooKeeper的核心是()。

A)原子廣播

B)watches

OACL

D)Znode

75.[單選題]請閱讀下面一段程序:

Importpandasaspd

Serobj=pd.Series(range(1,6),index=[5,3,1,3,2])

Print(ser_obj)

執(zhí)行上述程序后,最終輸出的結(jié)果為()。

A)a3.Od2.0c1.0bNaN

B)a3.ObNaNc1.Od2.0

C)程序出現(xiàn)異常

D)cId2a3

76.[單選題]關(guān)于欠擬合(under-fitting),正確的是()。

A)訓(xùn)練誤差較大,測試誤差較小

B)訓(xùn)練誤差較小,測試誤差較大

0訓(xùn)練誤差較大,測試誤差較大

D)訓(xùn)練誤差較小,測試誤差較小

77.[單選題]在Matplotlib中設(shè)置x軸的標簽的函數(shù)是()o

A)xlabels

B)xticks

Oxlabel

D)Xtick

78.[單選題]()的主要目的是提升數(shù)據(jù)質(zhì)量,將數(shù)據(jù)形態(tài)更加符合某一算法需求,進而提升數(shù)據(jù)計算

的效果和降低其復(fù)雜度。

A)數(shù)據(jù)加工

B)數(shù)據(jù)分析

C)數(shù)據(jù)挖掘

D)數(shù)據(jù)處理

79.[單選題]Bootstrap數(shù)據(jù)是什么意思()

A)有放回地從總共M個特征中抽樣m個特征

B)無放回地從總共M個特征中抽樣m個特征

C)有放回地從總共N個樣本中抽樣n個樣本

D)無放回地從總共N個樣本中抽樣n個樣本

80.[單選題]以下對大數(shù)據(jù)4V特性描述不正確的是(—)。

A)在大數(shù)據(jù)中,價值與數(shù)據(jù)總量的大小不存在線性關(guān)系

B)數(shù)據(jù)量大是相對計算與存儲能力而定的

C)Volume是指數(shù)據(jù)大

D)大數(shù)據(jù)中所說的“速度”包括兩種:增長速度和處理速度

81.[單選題]決策樹中的分類結(jié)果是最末端的節(jié)點,這些節(jié)點稱為?()

A)根節(jié)點

B)父節(jié)點

C)子節(jié)點

D)葉節(jié)點

82.[單選題]在模型評估與度量的方法中,(_)以自助采樣法為基礎(chǔ)。

A)自助法

B)留出法

C)交叉驗證法

D)錯誤率分析

83.[單選題]下面有關(guān)分類算法的準確率,召回率,F1值的描述,錯誤的是?

A)準確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準率

B)召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫中所有的相關(guān)文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率

C)正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準率或查全率就越高

D)為了解決準確率和召回率沖突問題,引入了F1分數(shù)

84.[單選題]梯度爆炸問題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時候,梯度變得過大而損失函數(shù)

變?yōu)闊o窮。在RNN中,下面哪種方法可以較好地處理梯度爆炸問題()

A)梯度裁剪

B)所有方法都不行

C)Dropout

D)加入正則項

85.[單選題]下列說法錯誤的是?

A)當目標函數(shù)是凸函數(shù)時,梯度下降算法的解一般就是全局最優(yōu)解

B)進行PCA降維時,需要計算協(xié)方差矩陣

C)沿負梯度的方向一定是最優(yōu)的方向

D)利用拉格朗日函數(shù)能解帶約束的優(yōu)化問題

86.[單選題]以下說法正確的是0

A)增加模型復(fù)雜度,模型在測試集上的準確率就能更好

B)L2正則化的解通常是稀疏的,L1正則化可以使得參數(shù)趨向于更平滑

C)對于PCA,我們應(yīng)該選擇是的模型具有最小variance的主成分

D)每次使用K-means算法得到的聚類結(jié)果可能會不一樣

87.[單選題]在標準化公式z=中,使用e的目的是()

A)為了加速收斂

B)如果過小

C)使結(jié)果更準確

D)防止分母為零

88.[單選題]關(guān)于數(shù)據(jù)規(guī)范化,下列說法中錯誤的是()。

A)標準化實際上是將數(shù)據(jù)在樣本的標準差上做了等比例的縮放操作

B)歸一化利用了樣本中的最大值和最小值

C)包含標準化和歸一化

D)標準化在任何場景下受異常值的影響都很小

89.[單選題]已知表emp存在字段namel,以下語句能夠正常運行的是哪一個:

A)altertableemprenametoempl

B)altertableemprenameemptoempl

C)altertableempchangecolumnnameltoname2

D)altertableempchangenamename12

90.[單選題]下面不屬于數(shù)據(jù)加工的有(_)。

A)數(shù)據(jù)脫敏

B)數(shù)據(jù)脫質(zhì)

C)數(shù)據(jù)規(guī)約

D)數(shù)據(jù)標注

91.[單選題]決策樹所形成的分類邊界有一個明顯特點,它的分類邊界由若干個—分段組成。

A)與坐標軸平行

B)與坐標軸垂直

C)與坐標軸重合

D)過坐標原點

92.[單選題]循環(huán)神經(jīng)網(wǎng)絡(luò)適合處理什么數(shù)據(jù)。()

A)節(jié)點數(shù)據(jù)

B)序列數(shù)據(jù)

C)結(jié)構(gòu)化數(shù)據(jù)

D)圖像數(shù)據(jù)

93.[單選題]_是在一個數(shù)據(jù)集上對多個算法進行比較。

A)t檢驗

B)交叉驗證t檢驗

C)Friedman檢驗

D)McNemar檢驗

94.[單選題]用戶有一種感興趣的模式并且希望在數(shù)據(jù)集中找到相似的模式,屬于數(shù)據(jù)挖掘哪一類任

務(wù)?

A)根據(jù)內(nèi)容檢索

B)建模描述

C)預(yù)測建模

D)尋找模式和規(guī)則

95.[單選題]以下對支持向量機中的支撐向量描述正確的是()

A)最大特征向量

B)最優(yōu)投影向量

C)最大間隔支撐面上的向量

D)最速下降方向

96.[單選題]下面關(guān)于基礎(chǔ)理論相關(guān)描述正確的有(_)。

A)基礎(chǔ)理論等于理論基礎(chǔ)

B)基礎(chǔ)理論在數(shù)據(jù)科學(xué)研究邊界之外

C)理論基礎(chǔ)在數(shù)據(jù)科學(xué)研究邊界之內(nèi)

D)基礎(chǔ)理論包含理念、理論、方法、技術(shù)等

97.[單選題]以下描述不正確的是(_)。

A)描述性分析主要采用描述性統(tǒng)計分析方法

B)診斷性分析主要采用關(guān)聯(lián)分析

C)預(yù)測性分析主要采用因果分析

D)規(guī)范性分析主要采用運籌學(xué),模擬與仿真技術(shù)

98.[單選題]機器學(xué)習(xí)的實質(zhì)在于0

A)找

B)想

C)判斷

D)理解

99.[單選題]邊界跟蹤技術(shù)技術(shù)屬于哪一類分割方法。。

A)閾值分割法

B)邊緣分割法

C)區(qū)域分割法

D)特征分區(qū)法

100.[單選題]OpenCV的描述正確的是()。

A)只有一個模塊

B)由多個模塊組成

C)core中有OpenCV

D)opencv主要由C++語言編寫

101.[單選題]圖像數(shù)據(jù)分析的常用方法不包括()

A)圖像變換

B)圖像編碼和壓縮

C)圖像增強和復(fù)原

D)圖像數(shù)據(jù)采集

102.[單選題]從給定的句子、段落中識別人名、組織名的過程稱為?

A)詞干提?。⊿temming)

B)詞形還原(Lemmatization)

C)停用詞消除(StopWordRemoval)

D)命名實體識別(NamedEntityRecognition)

103.[單選題]關(guān)于維數(shù)災(zāi)難說法錯誤的是?

A)高維度數(shù)據(jù)可使得算法泛華能力變得越來越弱

B)降低高維度數(shù)據(jù)會對數(shù)據(jù)有所損傷

C)高維度數(shù)據(jù)增加了運算難度

D)高維度數(shù)據(jù)難以可視化

104.[單選題]S市A,B共有兩個區(qū),人口比例為3:5,據(jù)歷史統(tǒng)計A的犯罪率為0.01%,B區(qū)為0.015%,現(xiàn)有

一起新案件發(fā)生在S市,那么案件發(fā)生在A區(qū)的可能性有多大?()

A)37.5%

B)32.5%

028.6%

D)26.1%

105.[單選題]層次聚類試圖在不同層次上對數(shù)據(jù)集進行劃分,從而形成(_)形結(jié)構(gòu)。

A)圖

B)環(huán)

0網(wǎng)

D)樹

106.[單選題]以下關(guān)于機器學(xué)習(xí)描述錯誤的是(__)。

A)機器學(xué)習(xí)的目標是使學(xué)得的模型能很好地適用于“新樣本”

B)學(xué)得模型適用于新樣本的能力,稱為“泛化”能力

C)具有強泛化能力的模型不能很好地適用于整個樣本空間

D)一般認為,數(shù)據(jù)樣本越多,獲得的模型的泛化能力越強

107.[單選題]下列關(guān)于軟支持向量機的說法正確的是(_)。

A)軟間隔支持向量機不可應(yīng)用拉格朗日乘子法求解

B)軟間隔支持向量機和硬間隔支持向量機完全相同

C)軟間隔支持向量機只能使用Hinge損失函數(shù)

D)軟間隔支持向量機的目標函數(shù)仍是一個二次規(guī)劃問題

108.[單選題]假設(shè)file是文本文件對象,下列選項中,哪個用于讀取一行內(nèi)容()o

A)file,read()

B)file.read(200)

C)file.readline()

D)file.readlines()

109.[單選題]在線性回歸中使用正則項,你發(fā)現(xiàn)解的不少coefficient都是0,則這個正則項可能是

(1).L0-norm;(2).Ll-norm;(3).L2-norm。

A)(1)(2)

B)⑵⑶

0(2)

D)(3)

110.[單選題]下列關(guān)于線性回歸分析中的殘差(Residuals)說法正確的是?

A)殘差均值總是為零

B)殘差均值總是小于零

C)殘差均值總是大于零

D)以上說法都不對

111.[單選題](_)在訓(xùn)練的每一輪都要檢查當前生成的基學(xué)習(xí)器是否滿足基本條件。

A)支持向量機

B)Boosting算法

C)貝葉斯分類器

D)神經(jīng)網(wǎng)絡(luò)

112.[單選題]數(shù)據(jù)科學(xué)家可能會同時使用多個算法(模型)進行預(yù)測,并且最后把這些算法的結(jié)果

集成起來進行最后的預(yù)測(集成學(xué)習(xí)),以下對集成學(xué)習(xí)說法正確的是:

A)單個模型之間有高相關(guān)性

B)單個模型之間有低相關(guān)性

C)在集成學(xué)習(xí)中使用“平均權(quán)重”而不是“投票”會比較好

D)單個模型都是用的一個算法

113.[單選題]對于下圖,最好的主成分選擇是多少?

p

a0

uL

-Ooooooooooooooo

-e

xd

UJ3

。J。

U

O

OJ

od

dJ

>8

e〕

-

n0

E

n0

o

III

O

203040

PrincipalComponent

alt="">

A)7

B)30

035

D)Can,tSay

114.[單選題]下面關(guān)于數(shù)據(jù)粒度的描述不正確的是:

A)粒度是指數(shù)據(jù)倉庫小數(shù)據(jù)單元的詳細程度和級別;

B)數(shù)據(jù)越詳細,粒度就越小,級別也就越高;

C)數(shù)據(jù)綜合度越高,粒度也就越大,級別也就越高;

D)粒度的具體劃分將直接影響數(shù)據(jù)倉庫中的數(shù)據(jù)量以及查詢質(zhì)量.

115.[單選題]如右圖所示有向圖,節(jié)點G的馬爾可夫毯為()

A){D.E}

B){I.J}

C){D,E,I,J}

D){D,E,F,H,I,J}

116.[單選題]線性判別分析在二分類問題上也稱為()。

A)線性回歸

B)對數(shù)幾率回歸

C)Fisher判別分析

D)主成分分析

117.[單選題]兩位同事從上海出發(fā)前往深圳出差,他們在不同時間出發(fā),搭乘的交通工具也不同,能準

確描述兩者“上海到深圳”距離差別的是()

A)歐式距離

B)余弦距離

C)曼哈頓距離

D)切比雪夫距離

118.[單選題]交叉驗證如果設(shè)置K=5,會訓(xùn)練幾次?()

A)1

B)3

05

D)6

119.[單選題]異常檢測過程查找基于()組標準值偏差的異常個案。

A)單體

B)分類

C)聚類

D)回歸

120.[單選題]2.當訓(xùn)練集很多時,一種更為強大的結(jié)合策略是使用(),即通過另一個學(xué)習(xí)器來進

行結(jié)合。

A)學(xué)習(xí)法

B)平均法

C)投票法

D)加權(quán)投票法

121.[單選題]當訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)來作圖像識別任務(wù)時,通常會繪制一張訓(xùn)練集誤差和驗證集誤

差圖來進行調(diào)試。在下圖中,最好在哪個時間停止訓(xùn)練()

>

A)A

B)B

C)C

D)D

122.[單選題]有監(jiān)督的學(xué)習(xí)和無監(jiān)督的學(xué)習(xí)的根本區(qū)別在于()

Error

validation

train

Time

A)學(xué)習(xí)過程是否需要人工干預(yù)

B)學(xué)習(xí)樣本是否需要人工標記

C)學(xué)習(xí)結(jié)果是否需要人工解釋

D)學(xué)習(xí)參數(shù)是否需要人工設(shè)置

123.[單選題]哪個不是本地模式運行的個條件

A)spark.localExecution.enabled=true

B)顯式指定本地運行

C)finalStage無父Stage

D)partition默認值

124.[單選題]假如使用一個較復(fù)雜的回歸模型來擬合樣本數(shù)據(jù),使用Ridge回歸,調(diào)試正則化參數(shù)

入,來降低模型復(fù)雜度。若X較小時,關(guān)于偏差(bias)和方差(variance),下列說法正確的

是?

A)若人較小時,偏差減小,方差減小

B)若人較小時,偏差減小,方差增大

C)若人較小時,偏差增大,方差減小

D)若X較小時,偏差增大,方差增大

125.[單選題]傳統(tǒng)的機器學(xué)習(xí)方法包括監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí),其中監(jiān)督學(xué)習(xí)是學(xué)習(xí)給

定標簽的數(shù)據(jù)集。請問標簽為離散的類型,稱為分類,標簽為連續(xù)的類型,稱為什么()

A)給定標簽

B)離散

C)分類

D)回歸

126.[單選題](_)不屬于相關(guān)分析。

A)正相關(guān)

B)負相關(guān)

C)線性相關(guān)

D)誤差相關(guān)

127.[單選題]下面哪個不屬于數(shù)據(jù)的屬性類型?

A)標稱

B)序數(shù)

C)區(qū)間

D)相異

128.[單選題]下列表述中,在k-fold交叉驗證中關(guān)于選擇K說法正確的是

A)較大的K并不總是好的,選擇較大的K可能需要較長的時間來評估你的結(jié)果

B)相對于期望誤差來說,選擇較大的K會導(dǎo)致低偏差(因為訓(xùn)練folds會變得與整個數(shù)據(jù)集相似)

C)在交叉驗證中通過最小化方差法來選擇K值

D)以上都正確

129.[單選題]有關(guān)機器學(xué)習(xí)分類算法的Precision和Recall,以下定義中正確的是(假定tp=true

positive,tn=truenegative,fp=falsepositive,fn=falsenegative)

A)Precision=tp/(tp+fp),Recall=tp/(tp+fn)

B)Precision=tp/(tn+fp),Recall=tp/(tp+fn)

C)Precision=tp/(tn+fn),Recall=tp/(tp+fp)

D)Precision=tp/(tp+fp),Recall=tp/(tn+fn)

130.[單選題]以下關(guān)于大數(shù)據(jù)描述不正確的是(—)。

A)大數(shù)據(jù)成為推動經(jīng)濟轉(zhuǎn)型發(fā)展的新動力

B)大數(shù)據(jù)成為重塑國家競爭優(yōu)勢的新機遇

C)大數(shù)據(jù)是小數(shù)據(jù)的集合

D)大數(shù)據(jù)成為提升政府治理能力的新途徑

131.[單選題](_)不屬于基于實例學(xué)習(xí)方法。

A)KNN

B)局部加權(quán)回歸算法

C)基于案例的推理

D)決策樹算法

132.[單選題]在目標識別中,假定類型1為敵方目標,類型2為誘餌(假目標),已知先驗概率P(l)=0.2和

P(2)=0.8,類概率密度函數(shù)如下:則總錯誤概率為P(e)為

class="fr-ficfr-dibcursor-hover"

A)0.08

B)0.09

C)0.11

D)0.1

133.[單選題]假設(shè)有矩陣a,則查看該矩陣有幾個維度的是()。

A)a.ndim

x0Sx<1

p(x@l.閆2-X1<X<2

I0其它

x-114x<2

p(xis2)=<3-x24*42

I0其它

B)a.size

C)a.ndim()

D)a.size()

134.[單選題]半調(diào)輸出技術(shù)可以()

A)改善圖像的空間分辨率

B)改善圖像的幅度分辨率

C)利用抖動技術(shù)實現(xiàn)

D)消除虛假輪廓現(xiàn)象

135.[單選題]數(shù)據(jù)治理任務(wù)通常有三個部分不包含(_)。

A)主動定義或序化規(guī)則

B)接觸數(shù)據(jù)的業(yè)務(wù)流程

C)為數(shù)據(jù)利益相關(guān)者提供持續(xù)

D)跨界的保護、服務(wù)和應(yīng)對并解決因不遵守規(guī)則而產(chǎn)生的問題

136.[單選題]關(guān)于CNN,以下結(jié)論正確的是()

A)在同樣層數(shù)、每層神經(jīng)元數(shù)量一樣的情況下,CNN比全連接網(wǎng)絡(luò)擁有更多的參數(shù)

B)CNN可以用于非監(jiān)督學(xué)習(xí),但是普通神經(jīng)網(wǎng)絡(luò)不行

C)Pooling層用于減少圖片的空間分辨率

D)接近輸出層的filter主要用于提取圖像的邊緣信息

137.[單選題]下列關(guān)于特征編碼的敘述中,不正確的是()

A)特征編碼是將非數(shù)值型特征轉(zhuǎn)換成數(shù)值型特征的方法

B)數(shù)字編碼與特征的排序無關(guān)

C)One-Hot編碼中,原始特征有n種取值,轉(zhuǎn)換后就會產(chǎn)生n列新特征

D)啞變量編碼解決了One-Hot編碼中存在線性關(guān)系的問題

138.[單選題]以下哪一項在神經(jīng)網(wǎng)絡(luò)中引入了非線性()

A)Dropout

B)ReLU

C)卷積函數(shù)

D)隨機梯度下降

139.[單選題]對數(shù)幾率回歸(logisticsregression)和一般回歸分析有什么區(qū)別?:

A)對數(shù)幾率回歸是設(shè)計用來預(yù)測事件可能性的

B)對數(shù)幾率回歸可以用來度量模型擬合程度

C)對數(shù)幾率回歸可以用來估計回歸系數(shù)

D)以上所有

140.[單選題]ResNet-50有多少個卷積層?()

A)48

B)49

C)50

D)51

141.[單選題]()的基本想法是適當考慮一部分屬性間的相互依賴信息,從而既不需要進行完全聯(lián)合概

率計算,又不至于徹底忽略了比較強的屬性依賴關(guān)系。

A)貝葉斯判定準則

B)貝葉斯決策論

C)樸素貝葉斯分類器

D)半樸素貝葉斯分類器

142.[單選題]已知中國人的血型分布約為A型:30%,B型:20%,0型:40%,AB型00%,則任選一批中國人作

為用戶調(diào)研對象,希望他們中至少有一個是B型血的可能性不低于90玳那么最少需要選多少人?

A)7

B)9

Oil

D)13

143.[單選題]關(guān)于隨機森林,說法錯誤的是:

A)相對于Boosting系列的Adaboost和GBDT,RF實現(xiàn)比較簡單。

B)在訓(xùn)練后,可以給出各個特征對于輸出的重要性

0訓(xùn)練高度串行化

D)隨機采樣,訓(xùn)練出的模型的方差小,泛化能力強

144.[單選題]如果一個SVM模型出現(xiàn)欠擬合,那么下列哪種方法能解決這一問題?

A)增大懲罰參數(shù)C的值

B)減小懲罰參數(shù)C的值

C)減小核系數(shù)(gamma參數(shù))

D)都不正確

145.[單選題]二項式分布的共舸分布是()

A)正態(tài)分布

B)Dirichlet分布

C)Beta分布

D)指數(shù)分布

146.[單選題]當訓(xùn)練數(shù)據(jù)很多時,一種更為強大的結(jié)合策略是使用(_),通過另一個學(xué)習(xí)器來進

行結(jié)合。

A)投票法

B)平均法

C)學(xué)習(xí)法

D)排序法

147.[單選題]在一個神經(jīng)網(wǎng)絡(luò)中,確定每個神經(jīng)元的權(quán)重和偏差很重要。用()方法可以確定神經(jīng)元的

權(quán)重和偏差,從而對函數(shù)進行擬合。

A)隨機賦值,祈禱它們是正確的

B)搜索所有權(quán)重和偏差的組合,直到得到最佳值

C)賦予一個初始值,通過檢杳與真值的誤差,逐步迭代更新權(quán)重

D)以上都不正確

148.[單選題](_)可看做用坐標下降法來最大化對數(shù)似然下界的過程。

A)EM算法

B)貝葉斯決策

C)貝葉斯分類器

D)邊際似然

149.[單選題]默認的存儲級別()。

A)MEMORY_ONLY

B)MEMORY_ONLYSER

C)MEMORY_AND?DISK

D)MEMORY_AND__DISKSER

150.[單選題]下面對屬性進行離散化的方法為()

A)preprocessing,scale()

B)pd.qcut()

C)pd.shape

D)pgroupby()

151.[單選題]當訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)來作圖像識別任務(wù)時,通常會繪制一張訓(xùn)練集誤差和驗證集誤差

圖來進行調(diào)試。在下圖中,最好在哪個時間停止訓(xùn)練()

A)A

B)B

C)C

D)D

152.[單選題]預(yù)剪枝是指在決策樹生成過程中,對每個結(jié)點在劃分(―)進行估計。

A)前

B)中

C)后

D)不估計

153.[單選題]關(guān)于數(shù)據(jù)重塑的說法中,下列選項描述錯誤的是()。

A)數(shù)據(jù)重塑可以將DataFrame轉(zhuǎn)換為Series

B)stack。方法可以將列索引轉(zhuǎn)換為行索引

C)對一個DataFrame使用stack()方法后返回的一定是一個Series

D)unstack()方法可以將行索引轉(zhuǎn)換為列索引

154.[單選題]有關(guān)決策樹的分類方法正確的是()

A)決策樹不能確定對決策屬性起重要影響的變量

B)決策樹可以用于發(fā)現(xiàn)多種樣本的特征

C)決策樹可用于確定相似的樣本

D)決策樹結(jié)構(gòu)越復(fù)雜越有效

155.[單選題]假如使用一個較復(fù)雜的回歸模型來擬合樣本數(shù)據(jù),使用Ridge回歸,調(diào)試正則化參數(shù)

入,來降低模型復(fù)雜度。若X較大時,關(guān)于偏差(bias)和方差(variance),下列說法正確的

是?

A)若入較大時,偏差減小,方差減小

B)若X較大時,偏差減小,方差增大

C)若X較大時,偏差增大,方差減小

D)若X較大時,偏差增大,方差增大

156.[單選題]()是一門以可視交互為基礎(chǔ),綜合運用圖形學(xué)、數(shù)據(jù)挖掘和人機交互等技術(shù)等多個學(xué)

科領(lǐng)域的知識,以實現(xiàn)人機協(xié)同完成可視化任務(wù)為主要目的分析推理性學(xué)科。

A)科學(xué)可視化

B)可視分析學(xué)

C)數(shù)據(jù)可視化

D)信息可視化

157.[單選題]梯度下降算法的正確步驟是什么()

1)計算預(yù)測值和真實值之間的誤差

2)迭代跟新,直到找到最佳權(quán)重

3)把輸入傳入網(wǎng)絡(luò),得到輸出值

4)初始化隨機權(quán)重和偏差

5)對每一個產(chǎn)生誤差的神經(jīng)元,改變相應(yīng)的(權(quán)重)值以減小誤差

A)l,2,3,4,5

B)4,3,1,5,2

03,2,1,5,4

D)5,4,3,2,1

158.[單選題]在一個n維的空間中,最好的檢測outlier(離群點)的方法是:

A)作正態(tài)分布概率圖

B)作盒形圖

C)馬氏距離

D)作散點圖

159.[單選題]支持向量機的優(yōu)化問題是最小化的平方,這實現(xiàn)了(_)。

A)幾何間隔為"的最大間隔超平面

B)幾何間隔為的最大間隔超平面

C)幾何間隔為1/的最小間隔超平面

D)幾何間隔為的最小間隔超平面

160.[單選題](_)是一種著名的過濾式特征選擇方法。

A)k-means

B)k近鄰

C)支持向量機

D)Relief

161.[單選題]關(guān)于EDA與統(tǒng)計學(xué)中驗證性分析的相關(guān)描述不正確的有(_)。

A)EDA無需事先假設(shè),驗證性分析需要事先假設(shè)

B)探索分析在后,驗證性分析在前

C)EDA中采取的方法往往比驗證分析簡單

D)基于EDA是數(shù)據(jù)計算工作可以分為2個部分:探索性分析和驗證性分析

162.[單選題]采用主成分分析法映射到低維空間,將最小的d-d'個特征向量舍棄,產(chǎn)生的影響是(

)。

A)使樣本采樣密度增大

B)丟失最優(yōu)解

C)增大噪聲

D)使樣本采樣密度減小

163.[單選題]聚類算法屬于。

A)半監(jiān)督學(xué)習(xí)

B)有監(jiān)督學(xué)習(xí)

C)無監(jiān)督學(xué)習(xí)

D)一種分類方法

164.[單選題]關(guān)于k折交叉驗證,下列說法正確的是?

A)k值并不是越大越好,k值過大,會降低運算速度

B)選擇更大的k值,會讓偏差更小,因為k值越大,訓(xùn)練集越接近整個訓(xùn)練樣本

C)選擇合適的k值,能減小驗方差

D)以上說法都正確

165.[單選題]考慮值集{12243324556826},其四分位數(shù)極差是:

A)31

B)24

C)55

D)3

166.[單選題]PCA和LDA的以下比較哪些是正確的?

A)1和2

B)1和3

C)只有3

D)l、2和3

167.[單選題]下列函數(shù)中,用于沿著軸方向堆疊Pandas對象的是()0

A)concat()

B)join()

C)merge()

D)combine_first()

168.[單選題]目標變量在訓(xùn)練集上的7個實際值為[1,1,1,1,0,0,0],目標變量的炳近似值是

(log3/7=-0.847,log4/7=-0.560)()

A)0.683

B)-0.683

C)0.724

D)-0.243

169.[單選題]以下說法正確的是()

A)Boosting和Bagging都是組合多個分類器投票的方法,二者都是根據(jù)單個分類器的正確率決定其

權(quán)重

B)梯度下降有時會陷于局部極小值,但EM算法不會

C)除了EM算法,梯度下降也可求混合高斯模型的參數(shù)

D)基于最小二乘的線性回歸問題中,增加L2正則項,總能降低在測試集上的

MSE誤差

170.[單選題]馬爾可夫隨機場有一組(_),這是定義在變量子集上的非負實函數(shù),主要用于定義

概率分布函數(shù)。

A)損失函數(shù)

B)優(yōu)化函數(shù)

C)激活函數(shù)

D)勢函數(shù)

171.[單選題]二分類問題使用—檢驗。

A)二項檢驗

B)t檢驗

C)交叉驗證t檢驗

D)McNemar檢驗

172.[單選題]關(guān)于EM算法正確的是

A)EM算法包括兩步:E算法和M算法

B)EM算法一定能收斂到全局最大值點

C)英文全稱是Expectation-Minimization

D)以上都不正確

173.[單選題]請閱讀下面一段程序:

Arr2d=np.empty((4,4))

Foriinrange(4):

arr2d[i]=np.arange(i,i+4)

Arr2d[[0,4],[3,1]]

執(zhí)行上述程序,它最終輸出的結(jié)果為()。

A)array([3.,4.])

B)程序拋出IndexError異常

Oarray([3.,5.1)

D)array([4.,4.])

174.[單選題]下面的交叉驗證方法

I.有放回的Bootstrap方法

li.留一個測試樣本的交叉驗證

lii.5折交叉驗證

Iv,重復(fù)兩次的5折教程驗證

當樣本是1000時,下面執(zhí)行時間的順序,正確的是

A)i>ii>iii>iv

B)ii>iv>iii>i

C)iv>i>ii>iii

D)ii>iii>iv>i

175.[單選題]下面是三個散點圖(A,B,C,從左到右)和和手繪的邏輯回歸決策邊界。

能得出什么結(jié)論,1與第二和第三圖相比,第一幅圖中的訓(xùn)練誤差最大。

2該回歸問題的最佳模型是最后(第三個)圖,因為它具有最小的訓(xùn)練誤差(零)。

3第二個模型比第一個和第三個更強,它在不可見數(shù)據(jù)中表現(xiàn)最好。

4與第一種和第二種相比,第三種模型過度擬合了。

5所有的模型執(zhí)行起來都一樣,因為沒有看到測試數(shù)據(jù)。

ABC

alt="">根據(jù)可視化后的結(jié)果,

A)1和3

B)1和3

01,3和4

0)5

176.[單選題]下面關(guān)于Z-Buffer算法的論斷哪一條不正確?()

A)深度緩存算法并不需要開辟一個與圖像大小相等的深度緩存數(shù)組

B)深度緩存算法不能用于處理對透明物體的消隱

C)深度緩存算法能并行實現(xiàn)

D)深度緩存算法中沒有對多邊形進行排序

177.[單選題]建立一個模型,通過這個模型根據(jù)已知的變量值來預(yù)測其他某個變量值屬于數(shù)據(jù)挖掘的

哪一類任務(wù)?

A)根據(jù)內(nèi)容檢索

B)建模描述

C)預(yù)測建模

D)尋找模式和規(guī)則

178.[單選題]下圖中判斷未知綠圓的類別,體現(xiàn)了哪個機器學(xué)習(xí)算法的思想?()

A)決策樹

B)貝葉斯分類器

C)支持向量機

D)K近鄰算法

179.[單選題]下列選項中,關(guān)于Zookeeper可靠性含義說法正確的是?()

A)可靠性通過主備部署模式實現(xiàn)

B)可靠性是指更新更新只能成功或者失敗,沒有中間狀態(tài)

C)可靠性是指無論哪個server,對外展示的均是同一個視圖

D)可靠性是指一個消息被一個Server接收,它將被所有的Server接受

180.[單選題]屬于無監(jiān)督學(xué)習(xí)的機器學(xué)習(xí)算法是()

A)支持向量機

B)Logistic回歸

C)層次聚類

D)決策樹

181.[單選題]以下哪種方法能最佳地適應(yīng)邏輯回歸中的數(shù)據(jù)?

A)LeastSquareError

B)MaximumLikelihood

C)Jaccarddistance

D)BothAandB

182.[單選題]如果線性回歸模型中的隨機誤差存在異方差性,那么參數(shù)的OLS估計量是()

A)無偏的,有效的

B)無偏的,非有效的

C)有偏的,有效的

D)有偏的,非有效的

183.[單選題]如下邏輯回歸圖顯示了3種不同學(xué)習(xí)速率值的代價函數(shù)和迭代次數(shù)之間的關(guān)系(不同的

顏色在不同的學(xué)習(xí)速率下顯示不同的曲線)。

為了參考而保存圖表后,忘記其中不同學(xué)習(xí)速率的值?,F(xiàn)在需要曲線的傾斜率值之間的關(guān)系。

以下哪一個是正確的?

注:

1藍色的學(xué)習(xí)率是L1

2紅色的學(xué)習(xí)率是L2

3綠色學(xué)習(xí)率為1L3

alt="">

A)L1>L2>L3

B)L1=L2=L3

C)L1

D)都不是

184.[單選題]已知數(shù)組trans_cnt[l,2,3,4],以下哪一個表達式是求數(shù)組的元素數(shù)量:

A)type(trans_cnt)

B)length(trans_cnt)

C)coalesce(trans_cnt)

D)size(trans_cnt)

185.[單選題](_)也稱為“基于密度的聚類”

A)原型聚類

B)密度聚類

C)層次聚類

D)AGNES

186.[單選題]以下有關(guān)神經(jīng)網(wǎng)絡(luò)的說法錯誤的是()

A)MP模型在隱藏層和輸出層都對神經(jīng)元進行激活函數(shù)處理

B)使用多層功能神經(jīng)元可以解決非線性可分問題

C)神經(jīng)網(wǎng)絡(luò)“學(xué)”到的東西,蘊含在連接權(quán)值和閾值中

D)BP算法基于梯度下降策略

187.[單選題]移動端開發(fā)中常用的數(shù)據(jù)庫是

A)MySQL

B)Oracle

OSQLite

D)MongoDB

188.[單選題]若A與B是任意的兩個事件,且P(AB)=P(A)?P(B),則可稱事件A與B()。

A)等價

B)互不相容

C)相互獨立

D)相互對立

189.[單選題]無人超市采用了()等多種智能技術(shù),消費者在購物流程中將依次體驗自動身份識別、

自助導(dǎo)購服務(wù)、互動式營銷、商品位置偵測、線上購物車清單自動生成和移動支付???

A)計算機視覺、深度學(xué)習(xí)算法、傳感器定位、圖像分析

B)虛擬技術(shù),傳感器定位、圖像分析

C)聲紋識別技術(shù)、計算機視覺、深度學(xué)習(xí)算法、

D)圖像識別、人臉識別、物體檢測、圖像分析

190.[單選題]代碼selectbin(17)的結(jié)果是下面哪一個:

A)101

B)10001

0111

D)1001

191.[單選題]根據(jù)某個詞所連接所有詞匯的權(quán)重,重新計算該詞匯的權(quán)重,然后把重新計算的權(quán)重

傳遞下去。直到這種變化達到均衡態(tài),權(quán)重數(shù)值不再發(fā)生改變。這種關(guān)鍵詞提取算法叫做()。

A)TF-IDF

B)TextRank

OLDA

D)PCA

192.[單選題]關(guān)于BP算法優(yōu)缺點的說法錯誤的是()。

A)BP算法不能用于處理非線性分類問題

B)BP算法容易陷入局部最小值

C)BP算法訓(xùn)練時間較長

D)BP算法訓(xùn)練時候可能由于權(quán)值調(diào)整過大使得激活函數(shù)達到飽和

193.[單選題]貝葉斯模型平均基于后驗概率來為不同的模型賦予權(quán)重,可視為(_)的一種特殊實現(xiàn)

O

A)加權(quán)平均法

B)投票法

C)排序法

D)學(xué)習(xí)法

194.[單選題]()是指數(shù)據(jù)減去一個總括統(tǒng)計量或模型擬合值時的殘余部分

A)極值

B)標準值

C)平均值

D)殘值

195.[單選題]下列關(guān)于線性模型的描述錯誤的是()。

A)支持向量機的判別函數(shù)一定屬于線性函數(shù)

B)在樣本為某些分布情況時,線性判別函數(shù)可以成為最小錯誤率或最小風險意義

下的最優(yōu)分類器

C)在一般情況下,線性分類器只能是次優(yōu)分類器

D)線性分類器簡單而且在很多期情況下效果接近最優(yōu),所以應(yīng)用比較廣泛

196.[單選題]樸素貝葉斯的訓(xùn)練過程就是基于訓(xùn)練集D來估計類的。P(c),并為每個屬性估計條件

概率

A)后驗概率

B)先驗概率

C)條件概率

D)聯(lián)合概率

197.[單選題]使用。定義的數(shù)據(jù)類型是()。

A)字典

B)集合

0列表

D)字典或集合

198.[單選題]若有統(tǒng)計表:包含該詞的文檔數(shù)(億)IDFTFTDF中國62.30.6030.0121蜜蜂

0.4842.7130.0543養(yǎng)殖0.9732.410O0482那么這篇文章的關(guān)鍵詞是(_)。

A)中國

B)蜜蜂

C)養(yǎng)殖

D)不知道

199.[單選題]在BMP格式、GIF格式、TIFF格式和JPEG格式中,下面哪個選項正確?

A)表示同一副圖像,BMP格式使用的數(shù)據(jù)量最多;

B)GIF格式獨立于操作系統(tǒng);

C)每種格式都有文件頭,其中TIFF格式的最復(fù)雜;

D)一個JPEG格式的數(shù)據(jù)文件中可存放多幅圖像;

200.[單選題]下列關(guān)于支持向量的說法,正確的是()。

A)到分類超平面的距離最近的且滿足一定條件的幾個訓(xùn)練樣本點是支持向量

B)訓(xùn)練集中的所有樣本點都是支持向量

C)每一類樣本集中都分別只有一個支持向量

D)支持向量的個數(shù)越多越好

201.[單選題]線性判別分析設(shè)法將樣例投影到—直線上,使得同類樣例的投影點盡可能

A)一條;接近

B)兩條;接近

C)一條;遠離

D)兩條;原理

202.[單選題]在邏輯回歸輸出與目標對比的情況下,以下評估指標中哪一項不適用?

A)AUC-R0C

B)準確度

C)Logloss

D)均方誤差

203.[單選題]下面不屬于數(shù)據(jù)科學(xué)家應(yīng)具備的能力有(_)。

A)掌握機器學(xué)習(xí)

B)數(shù)量掌握數(shù)據(jù)科學(xué)中常用的技術(shù)與工具

C)有良好的身體素質(zhì)

D)有豐富的編程經(jīng)驗

204.[單選題]半監(jiān)督學(xué)習(xí)不包括

A)直推學(xué)習(xí)

B)純半監(jiān)督學(xué)習(xí)

C)主動學(xué)習(xí)

D)圖半監(jiān)督學(xué)習(xí)

205.[單選題]()不屬于特征選擇的標準方法。

A)散入

B)過濾

C)包裹

D)抽樣

206.[單選題]對于低通和高通巴特沃斯濾波器敘述不正確的是?

A)均有相同的截止頻率;

B)均能減弱振鈴效應(yīng);

C)處理后的圖像均比用理想低通和高通處理的要過渡光滑一些;

D)都可用于消除虛假輪廓;

207.[單選題]對于線性回歸模型,包括附加變量在內(nèi),以下的可能正確的是:

A)1和2

B)1和3

02和4

D)以上都不是

208.[單選題]下列關(guān)于HSV色彩空間中描述不正確的是()。

A)H表示的是色調(diào),指的是光的顏色

B)S表示的是飽和度,指的色彩的深淺

C)V表示的是亮度,指的是光的明暗

D)HSV色彩空間稱為五角錐體模型

209.[單選題]以下哪種激活函數(shù)可以導(dǎo)致梯度消失()

A)ReLU

B)Tanh

C)Leaky

D)其他都不是

210.[單選題]采樣分析的精確性隨著采樣隨機性的增加而(),但與樣本數(shù)量的增加關(guān)系

不大。

A)降低

B)不變

C)提高

D)無關(guān)

211.[單選題]假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型,可能遇到一個問題,Logistic回歸需

要很長時間才能訓(xùn)練,如果對相同的數(shù)據(jù)進行邏輯回歸,則花費更少的時間,并給出比較相似的精度的

方法是()。

A)降低學(xué)習(xí)率,減少選代次數(shù)

B)降低學(xué)習(xí)率,增加迭代次數(shù)

C)提高學(xué)習(xí)率,增加迭代次數(shù)

D)增加學(xué)習(xí)率,減少迭代次數(shù)

212.[單選題]()選擇成為支持向量機的最大變數(shù)。

A)核函數(shù)

B)樣本空間

C)模型

D)算法

213.[單選題]研究某超市銷售記錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會購買尿布,這種屬于數(shù)據(jù)

挖掘的那類問題()

A)關(guān)聯(lián)規(guī)則發(fā)現(xiàn)

B)聚類

C)分類

D)自然語言處理

214.[單選題]目前移動設(shè)備主流的屏幕幀率是每秒()幀

A)24

B)30

060

D)120

215.[單選題]要想讓機器具有智能,必須讓機器具有知識。因此,在人工智能中有一個研究領(lǐng)域

,主要研究計算機如何自動獲取知識和技能,實現(xiàn)自我完善,這門研究分支學(xué)科叫()。:]*

A)專家系統(tǒng)

B)機器學(xué)習(xí)

C)神經(jīng)網(wǎng)絡(luò)

D)模式識別

216.[單選題]信息熠是度量樣本集合—最常用的一種指標。

A)精確度

B)準確率

C)召回率

D)純度

217.[單選題]一個輸入為(32,32,3)的數(shù)據(jù)集,通過一個大小為2X2的不重疊最大池化層,輸出

()O

A)(28,28,8)

B)(16,16,8)

C)(28,28,3)

D)(16,16,3)

218.[單選題]在構(gòu)建一個基于決策樹模型時,使用信息增益informationgain作為決策樹節(jié)點屬性選

擇的標準,以下圖片中哪一個屬性具信息增益最大:

A)Outlook

B)Humidity

C)Windy

D)Temperature

219.[單選題]在線性回歸中使用正則項,你發(fā)現(xiàn)解的不少coefficient都是0,則這個正則項可能是(

)

1).L0-norm;(2).Ll-norm;(3).L2-normo

A)(1)(2)

B)(2)(3)

0(2)

D)(3)

220.[單選題]()算法的訓(xùn)練數(shù)據(jù)集部分有特征有標簽,部分有特征無標簽

A)有監(jiān)督學(xué)習(xí)

B)半監(jiān)督學(xué)習(xí)

C)無監(jiān)督學(xué)習(xí)

D)強化學(xué)習(xí)

221.[單選題]下列關(guān)于異方差(Heteroskedasticity)說法正確的是?

A)線性回歸具有不同的誤差項

B)線性回歸具有相同的誤差項

C)線性回歸誤差項為零

D)以上說法都不對

222.[單選題]以下說法正確的是()

A)Boosting和Bagging都是組合多個分類器投票的方法,二者都是根據(jù)單個分

B)梯度下降有時會陷于局部極小值,但EM算法不會

C)除了EM算法,梯度下降也可求混合高斯模型的參數(shù)

D)基于最小二乘的線性回歸問題中,

223.[單選題](_)是指為最小化總體風險,只需在每個樣本上選擇能使特定條件風險最小的類別標

記。

A)支持向量機

B)間隔最大化

C)線性分類器

D)貝葉斯判定準則

224.[單選題]決策樹中的分類結(jié)果是最末端的節(jié)點,這些節(jié)點稱為?()口*

A)根節(jié)點

B)父節(jié)點

C)子節(jié)點

D)葉節(jié)點

225.[單選題]讓學(xué)習(xí)器不依賴外界交互、自動地利用未標記樣本來提升學(xué)習(xí)性能,就是()?

A)監(jiān)督學(xué)習(xí)

B)倍監(jiān)督學(xué)習(xí)

C)半監(jiān)督學(xué)習(xí)

D)無監(jiān)督學(xué)習(xí)

226.[單選題]下列選項中屬于感知技術(shù)的是()

A)機器學(xué)習(xí)技術(shù)和計算實施技術(shù)

B)計算實施技術(shù)和語音識別技術(shù)

C)語音識別技術(shù)和機器視覺

D)機器視覺和機器學(xué)習(xí)技術(shù)

227.[單選題]隨著集成中個體分類器(相互獨立)數(shù)目T的增大,集成的錯誤率將呈—下降,最終

趨向于零

A)指數(shù)級

B)對數(shù)級

C)線性級

D)平方級

228.[單選題]第一個成功應(yīng)用的專家系統(tǒng)是()

A)ELIZA

B)Dendral

C)Xeon

D)Deppepblue

229.[單選題]現(xiàn)實中往往會遇到“不完整”的訓(xùn)練樣本,在這種存在屬性變量值未知的情形下,可

用(_)。

A)邊際似然

B)EM算法

C)貝葉斯決策

D)貝葉斯分類器

230.[單選題]以下哪條語句定義了一個Python字典()。

A){1,2,3)

B)[1,2,3]

0(1,2,3)

D){}

231.[單選題]增加以下哪些超參數(shù)可能導(dǎo)致隨機森林模型過擬合數(shù)據(jù)()(1).決策樹的數(shù)量;

(2).決策樹的深度;(3).學(xué)習(xí)率。

A)(l)

B)(2)

0(3)

D)(2)(3)

232.[單選題]假設(shè)我們對西瓜的色澤、根蒂和紋理等特征一無所知,按照常理來說,西瓜是好瓜的

概率是60九那么這個好瓜的概率P就被稱為()

A)先驗概率

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論