人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案6-2023-練習(xí)版_第1頁(yè)
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案6-2023-練習(xí)版_第2頁(yè)
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案6-2023-練習(xí)版_第3頁(yè)
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案6-2023-練習(xí)版_第4頁(yè)
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案6-2023-練習(xí)版_第5頁(yè)
已閱讀5頁(yè),還剩112頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試題說(shuō)明

本套試題共包括1套試卷

答案和解析在每套試卷后

人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案6(500題)

人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案6

1.[單選題]最佳分類(lèi)是曲線下區(qū)域面積最大者,而黃線在曲線下面積最大.2、假設(shè)你在測(cè)試邏輯回歸

分類(lèi)器,設(shè)函數(shù)H為

he(x)=g(9o+Oixi+02X2)

Where

仇=6,仇=0,仇-1

style="width:21Ipx;"class="fr-ficfr-filfr-dibcursor-hover">

下圖中的哪一個(gè)代表上述分類(lèi)器給出的決策邊界?

A)

6

?y?(T

style="width:auto;"class="fr-ficfr-filfr-dib">

B)

style="width:auto;"class="fr-ficfr-filfr-dib">

0

style="width:auto;"class="fr-ficfr-filfr-dib">

2.[單選題]分類(lèi)模型評(píng)估指標(biāo)中的召回率如何計(jì)算()

A)(TP+TN)(P+N)

B)TP(TP+FN)

C)TP(TP+FP)

3.[單選題]分類(lèi)的類(lèi)別標(biāo)簽列是()

A)類(lèi)別數(shù)值

B)類(lèi)別的不同

C)具有次序、大小的意義

4.[單選題]我們常用()版。

A)apache版

B)cdh版

C)Hortonworks版本

5.[單選題]如果一個(gè)SVM模型出現(xiàn)欠擬合,那么。能解決這一問(wèn)題。

A)增大懲罰參數(shù)C

B)減小懲罰參數(shù)C

C)減小核系數(shù)(gamma參數(shù))

6.[單選題]聚類(lèi)算法屬于()的一種

A)無(wú)監(jiān)督學(xué)習(xí)

B)強(qiáng)化學(xué)習(xí)

C)監(jiān)督學(xué)習(xí)

7.[單選題]以下說(shuō)法正確的是()。

A)一個(gè)機(jī)器學(xué)習(xí)模型如果有較高準(zhǔn)確率,總是說(shuō)明這個(gè)分類(lèi)器是好的

B)如果增加模型復(fù)雜度,那么模型的測(cè)試錯(cuò)誤率不一定會(huì)降低

C)如果增加模型復(fù)雜度,那么模型的訓(xùn)練錯(cuò)誤率總是會(huì)降低

8.[單選題]在回歸模型中,下列哪一項(xiàng)在權(quán)衡欠擬合(under-fitting)和過(guò)擬合(over-

fitting)中影響最大?

A)多項(xiàng)式階數(shù)

B)更新權(quán)重w時(shí),使用的是矩陣求逆還是梯度下降

C)使用常數(shù)項(xiàng)

9.[單選題]分類(lèi)模型在進(jìn)行訓(xùn)練時(shí)需要()

A)訓(xùn)練集

B)訓(xùn)練集與測(cè)試集

C)訓(xùn)練集、驗(yàn)證集、測(cè)試集

10.[單選題]KNN算法應(yīng)用于回歸時(shí),計(jì)算的是()

A)從屬類(lèi)別的均值

B)從屬類(lèi)別的最大值

C)從屬類(lèi)別的最小值

11.[單選題]以下哪項(xiàng)是解決NLP用例(如語(yǔ)義相似性、閱讀理解和常識(shí)推理)的更好選擇?

A)ELMo

B)OpenAVsGPT

OULMFit

12.[單選題]邏輯回歸擬合的函數(shù)是0

A)sigmoid

B)tanh

C)relu

13.[單選題]下面不屬于云計(jì)算技術(shù)的有(_)。

A)Hadoop

B)Spark

OYARN

D)集中式計(jì)算

14.[單選題]在標(biāo)準(zhǔn)化公式

中,使用£的目的是(D)

A)為了加速收斂

B)如果u過(guò)小

C)使結(jié)果更準(zhǔn)確

D)防止分母為零

15.[單選題]根據(jù)TCP/IP協(xié)議棧的分層來(lái)看HTTP協(xié)議工作在哪一層

A)數(shù)據(jù)鏈路層

B)網(wǎng)絡(luò)層

C)傳輸層

D)應(yīng)用層

16.[單選題]下面哪些可能是一個(gè)文本語(yǔ)料庫(kù)的特征()

1一個(gè)文檔中的詞頻統(tǒng)計(jì)

2文檔中單詞的布爾特征

3詞向量

4詞性標(biāo)記

5基本語(yǔ)法依賴(lài)

6整個(gè)文檔

A)123

6)1234

012345

D)123456

17.[單選題]線性回歸是一種。,它分為簡(jiǎn)單線性回歸和多元線性回歸

A)無(wú)監(jiān)督學(xué)習(xí)算法

B)有監(jiān)督學(xué)習(xí)算法

C)強(qiáng)化學(xué)習(xí)

D)聚類(lèi)算法

18.[單選題]以下不屬于人工智能在計(jì)算機(jī)視覺(jué)領(lǐng)域應(yīng)用的是

A)車(chē)站人臉識(shí)別進(jìn)站

B)拍照識(shí)別植物

C)醫(yī)療影像診斷

D)實(shí)時(shí)字幕

19.[單選題]交叉驗(yàn)證的目的是(_)。

A)提高分類(lèi)準(zhǔn)確率

B)得到更穩(wěn)定的模型

C)驗(yàn)證結(jié)果的準(zhǔn)確性

D)增大分類(lèi)的誤差

20.[單選題]下列時(shí)間序列模型中,哪一個(gè)模型可以較好地?cái)M合波動(dòng)性的分析和預(yù)測(cè)

A)AR模型

B)MA模型

C)ARMA模型

D)GARCH模型

21.[單選題]0LAM技術(shù)一般簡(jiǎn)稱(chēng)為"數(shù)據(jù)聯(lián)機(jī)分析挖掘”,下面說(shuō)法正確的是:

A)OLAP和0LAM都基于客戶(hù)機(jī)/服務(wù)器模式,只有后者有與用戶(hù)的交互性;

B)由于OLAM的立方體和用于OLAP的立方體有本質(zhì)的區(qū)別.

C)基于WEB的OLAM是WEB技術(shù)與OLAM技術(shù)的結(jié)合.

D)OLAM服務(wù)器通過(guò)用戶(hù)圖形借口接收用戶(hù)的分析指令,在元數(shù)據(jù)的知道下,對(duì)超級(jí)立方體作一定的操

作.

22.[單選題]以下對(duì)Value相關(guān)描述不正確的是(一)0

A)Value是指應(yīng)用價(jià)值高

B)Value是指我們淹沒(méi)在知識(shí)海洋,卻忍受著知識(shí)的饑渴

C)如何從海量數(shù)據(jù)中洞見(jiàn)出有價(jià)值的數(shù)據(jù)是數(shù)據(jù)科學(xué)的重要課題之一

D)大數(shù)據(jù)中,數(shù)據(jù)價(jià)值與數(shù)據(jù)量之間不一定存在線性關(guān)系

23.[單選題]下面關(guān)于Adaboost算法的描述中,錯(cuò)誤的是()

QAdaBoost模型是弱分類(lèi)器的線性組合

B)提升樹(shù)是以分類(lèi)樹(shù)或者回歸樹(shù)為基本分類(lèi)器的提升辦法,提升樹(shù)被認(rèn)為是統(tǒng)計(jì)學(xué)習(xí)中最有效的辦法

之一

OAdaBoost算法的一個(gè)解釋是該算法實(shí)際上是前向分步算法的一個(gè)實(shí)現(xiàn),在這個(gè)方法里,模型是加法

模型,損失函數(shù)是指數(shù)損失,算法是前向分步算法。

D)AdaBoost同時(shí)獨(dú)立地學(xué)習(xí)多個(gè)弱分類(lèi)器

24.[單選題]()是表現(xiàn)數(shù)據(jù)分布對(duì)稱(chēng)性的指標(biāo)。

A)斜率

B)偏斜度

C)偏度

D)偏離度

25.[單選題]關(guān)于數(shù)據(jù)及軟件架構(gòu)的CAP理論不包括下面哪些()

A)可用性

B)一致性

C)分區(qū)容忍性

D)分布性

26.[單選題]從一個(gè)初始策略出發(fā),不斷迭代進(jìn)行策略評(píng)估和改進(jìn),直到策略收斂、不再改變?yōu)橹?/p>

,這樣的作法稱(chēng)為

A)策略迭代

B)值迭代

C)策略改進(jìn)

D)最優(yōu)值函數(shù)

27.[單選題]數(shù)據(jù)科學(xué)家經(jīng)常使用多個(gè)算法進(jìn)行預(yù)測(cè),并將多個(gè)機(jī)器學(xué)習(xí)算法的輸出(稱(chēng)為“集成學(xué)

習(xí)”)結(jié)合起來(lái),以獲得比所有個(gè)體模型都更好的更健壯的輸出。則下列說(shuō)法正確的是?

A)基本模型之間相關(guān)性高

B)基本模型之間相關(guān)性低

C)集成方法中,使用加權(quán)平均代替投票方法

D)基本模型都來(lái)自于同一算法

28.[單選題]Zookeeper集群需要多少個(gè)節(jié)點(diǎn)()

A)1

B)2

C)2N

D)2N+1

29.[單選題](_)是從現(xiàn)實(shí)世界中采集信息,并對(duì)采集到的信息進(jìn)行計(jì)量和記錄

A)本源數(shù)據(jù)

B)零次數(shù)據(jù)

C)真實(shí)數(shù)據(jù)

D)現(xiàn)實(shí)數(shù)據(jù)

30.[單選題]在留出法、交叉驗(yàn)證法和自助法三種評(píng)估方法中,()更適用于數(shù)據(jù)集較小、難以劃分訓(xùn)

練集和測(cè)試集的情況。

A)留出法

B)交叉驗(yàn)證法

0自助法

D)留一法

31.[單選題]如果LASSO模型中的懲罰項(xiàng)變大,下列說(shuō)法正確的是()

A)部分回歸系數(shù)會(huì)變?yōu)?

B)部分回歸系數(shù)會(huì)趨近于0,但不會(huì)取值為0

C)A和B的表述都正確

D)以上說(shuō)法都不正確

32.[單選題]機(jī)器學(xué)習(xí)算法在學(xué)習(xí)過(guò)程中對(duì)某種類(lèi)型假設(shè)的偏好稱(chēng)為()。

A)訓(xùn)練偏好

B)歸納偏好

C)分析偏好

D)假設(shè)偏好

33.[單選題]在方差分析中,()反映的是樣本數(shù)據(jù)與其組平均值的差異。

A)總離差

B)組間誤差

C)抽樣誤差

D)組內(nèi)誤差

34.[單選題]K-Means算法無(wú)法聚以下哪種形狀的樣本?

A)圓形分布

B)螺旋分布

C)帶狀分布

D)凸多邊形分布

35.[單選題]哪一個(gè)是機(jī)器學(xué)習(xí)的合理定義?

A)機(jī)器學(xué)習(xí)是計(jì)算機(jī)編程的科學(xué)

B)機(jī)器學(xué)習(xí)從標(biāo)記的數(shù)據(jù)中學(xué)習(xí)

C)機(jī)器學(xué)習(xí)是允許機(jī)器人智能行動(dòng)的領(lǐng)域

D)機(jī)器學(xué)習(xí)能使計(jì)算機(jī)能夠在沒(méi)有明確編程的情況下學(xué)習(xí)

36.[單選題]下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?

A)K近鄰算法

B)隨機(jī)森林

C)神經(jīng)網(wǎng)絡(luò)

D)都不屬于

37.[單選題]在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),損失函數(shù)(loss)在最初的幾個(gè)epochs時(shí)沒(méi)有下降,可能的原因是?

class="fr-ficfr-dibcursor-hover"

A)學(xué)習(xí)率(learningrate)太低

B)正則參數(shù)太高

C)陷入局部最小值

D)以上都有可能

38.[單選題]在k均值算法中,假定聚類(lèi)簇?cái)?shù)k=3,則在算法開(kāi)始時(shí)隨機(jī)選?。╛)個(gè)樣本作為初始均

值向量

A)1

B)2

03

D)任意

39.[單選題]關(guān)于啞變量的說(shuō)法中,下列選項(xiàng)描述錯(cuò)誤的是()。

A)啞變量是人為虛設(shè)的變量

B)啞變量在轉(zhuǎn)換成指標(biāo)矩陣后,其值通常為0或1

C)Pnadas中g(shù)etdummies()函數(shù)可以對(duì)類(lèi)別進(jìn)行啞變量處理

D)啞變量的使用沒(méi)有實(shí)際意義

40.[單選題]關(guān)于級(jí)聯(lián)相關(guān)網(wǎng)絡(luò)描述錯(cuò)誤的是

A)屬于結(jié)構(gòu)自適應(yīng)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)也是其優(yōu)化目標(biāo);

B)主要成分為級(jí)聯(lián)、相關(guān)、歸約;

C)無(wú)需設(shè)置網(wǎng)絡(luò)層數(shù)、隱層神經(jīng)元數(shù)目;

D)訓(xùn)練速度快,但數(shù)據(jù)較小時(shí)容易陷入過(guò)擬合;

41.[單選題]假設(shè)12個(gè)銷(xiāo)售價(jià)格記錄組已經(jīng)排序如下:5,10,11,13,15,35,50,55,72,92,

204,215使用如下每種方法將它們劃分成四個(gè)箱。等頻(等深)劃分時(shí),15在第幾個(gè)箱子內(nèi)?

A)第一個(gè)

B)第二個(gè)

C)第三個(gè)

D)第四個(gè)

42.[單選題]卷積神經(jīng)網(wǎng)絡(luò)中說(shuō)的梯度下降,是指()的梯度。

A)參數(shù)本身

B)激活函數(shù)

C)損失函數(shù)

D)圖像大小

43.[單選題](_)是將特征選擇過(guò)程與學(xué)習(xí)器訓(xùn)練過(guò)程融為一體,兩者在同一個(gè)優(yōu)化過(guò)程中完成

,即在學(xué)習(xí)器訓(xùn)練過(guò)程中自動(dòng)地進(jìn)行了特征選擇。

A)過(guò)濾式選擇

B)包裹式選擇

C)嵌入式選擇

D)正則化

44.[單選題]某超市研究銷(xiāo)售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買(mǎi)啤酒的人很大概率也會(huì)購(gòu)買(mǎi)尿布,這種屬于數(shù)據(jù)挖掘

的哪類(lèi)問(wèn)題?

A)關(guān)聯(lián)規(guī)則發(fā)現(xiàn)

B)聚類(lèi)

C)分類(lèi)

D)自然語(yǔ)言處理

45.[單選題]k近鄰學(xué)習(xí)是一種(_)o

A)監(jiān)督學(xué)習(xí)方法

B)半監(jiān)督學(xué)習(xí)方法

C)無(wú)監(jiān)督學(xué)習(xí)方法

D)測(cè)試方法

46.[單選題]spark,deploy.recoveryMode不支持那種()。

A)ZooKeeper

B)FileSystem

ONONE

D)hadoop

47.[單選題]關(guān)于Elman網(wǎng)絡(luò)描述錯(cuò)誤的是

A)作為遞歸神經(jīng)網(wǎng)絡(luò),允許出現(xiàn)環(huán)形結(jié)構(gòu);

B)一些神經(jīng)元的輸出反饋回來(lái)會(huì)作為輸入信號(hào);

C)用于處理靜態(tài)模型,即無(wú)法處理與時(shí)間有關(guān)的動(dòng)態(tài)變化;

D)可利用BP算法來(lái)進(jìn)行參數(shù)優(yōu)化;

48.[單選題]在一個(gè)線性回歸問(wèn)題中,我們使用R平方(R-Squared)來(lái)判斷擬合度。此時(shí),如果增

加一個(gè)特征,模型不變,則下面說(shuō)法正確的是?

A)如果R-Squared增加,則這個(gè)特征有意義

B)如果R-Squared減小,則這個(gè)特征沒(méi)有意義

C)僅看R-Squared單一變量,無(wú)法確定這個(gè)特征是否有意義。

D)以上說(shuō)法都不對(duì)

49.[單選題](_)不屬于機(jī)器學(xué)習(xí)理論基礎(chǔ)。

A)數(shù)據(jù)科學(xué)

B)哲學(xué)

C)心理學(xué)

D)人工智能

50.[單選題]當(dāng)數(shù)據(jù)過(guò)大以至于無(wú)法在RAM中同時(shí)處理時(shí),哪種梯度下降方法更加有效?

A)隨機(jī)梯度下降法(StochasticGradientDescent)

B)不知道

C)整批梯度下降法(FullBatchGradientDescent)

D)都不是

51.[單選題]使用梯度下降法訓(xùn)練回歸模型時(shí),會(huì)由于各特征尺寸相差較大而造成算法收斂較慢。應(yīng)

該將特征尺寸進(jìn)行縮放至接近或相同尺寸。可采用sklearn中的類(lèi)或函數(shù)是:

A)StanderScaler

B)fittransform

C)accuracy_score

D)LabelEcoder

52.[單選題]半調(diào)輸出技術(shù)可以?

A)改善圖像的空間分辨率;

B)改善圖像的幅度分辨率;

C)利用抖動(dòng)技術(shù)實(shí)現(xiàn);

D)消除虛假輪廓現(xiàn)象;

53.[單選題]機(jī)器學(xué)習(xí)從不同的角度,有不同的分類(lèi)方式,以下哪項(xiàng)不屬于按系統(tǒng)學(xué)習(xí)能力分類(lèi)的類(lèi)別

A)監(jiān)督學(xué)習(xí)

B)無(wú)監(jiān)督學(xué)習(xí)

C)弱監(jiān)督學(xué)習(xí)

D)函數(shù)學(xué)習(xí)

54.[單選題]2.JC系數(shù)的度量公式()

A)a/b+c

B)B.a/a+b

C)C.b/b+c

D)D.a/a+b+c

55.[單選題]bootstrap數(shù)據(jù)的含義是:

A)有放回的從整體M中抽樣m個(gè)特征

B)無(wú)放回的從整體M中抽樣m個(gè)特征

C)有放回的從整體N中抽樣n個(gè)樣本

D)無(wú)放回的從整體N中抽樣n個(gè)樣本

56.[單選題]以下有關(guān)可視化認(rèn)識(shí)錯(cuò)誤的是哪個(gè)()。

A)可視化是簡(jiǎn)單地把原始的數(shù)據(jù)用圖的形式展示出來(lái)的方法

B)可視化可以作為數(shù)據(jù)預(yù)處理的一種方法,找出其中的噪聲

C)可視化本身是一種數(shù)據(jù)分析方法,使用圖表把數(shù)據(jù)中隱藏的規(guī)律展示出來(lái)

D)通過(guò)數(shù)據(jù)的可視化,可以促進(jìn)數(shù)據(jù)分析人員對(duì)數(shù)據(jù)的認(rèn)識(shí)和規(guī)律發(fā)現(xiàn)

57.[單選題]借助對(duì)數(shù)形式的變換曲線可以達(dá)到壓縮圖像灰度動(dòng)態(tài)范圍的目的,這是因?yàn)椋?/p>

A)變換前的灰度值范圍比變換后的灰度值范圍大;

B)變換后僅取了一部分灰度值的范圍;

C)變換前后灰度值的范圍不同;

D)對(duì)數(shù)形式的變換曲線是單增的曲線;

58.[單選題]1特征分析,2影響分析,3原因分析,4數(shù)據(jù)審計(jì),5忽略,6刪除,7插值。以下順序符

合缺失數(shù)據(jù)處理過(guò)程的有(_)。

A)416

B)1236

0457

D)2357

59.[單選題]隱馬爾可夫模型(HiddenMarkovModel,簡(jiǎn)稱(chēng)HMM)主要用于()數(shù)據(jù)建模

A)時(shí)長(zhǎng)

B)時(shí)間

C)時(shí)態(tài)

D)時(shí)序

60.[單選題]“啤酒-紙尿布”問(wèn)題講述的是,超市購(gòu)物中,通過(guò)分析購(gòu)物單發(fā)現(xiàn),買(mǎi)了紙尿布的

男士,往往又買(mǎi)了啤酒。這是一個(gè)什么問(wèn)題()

A)關(guān)聯(lián)分析

B)回歸

C)聚類(lèi)

D)分類(lèi)

61.[單選題]點(diǎn)擊率的預(yù)測(cè)是一個(gè)數(shù)據(jù)比例不平衡問(wèn)題(比如訓(xùn)練集中樣本呈陰性的比例為99%,陽(yáng)性

的比例是1%),如果我們用這種數(shù)據(jù)建立模型并使得訓(xùn)練集的準(zhǔn)確率高達(dá)99虬我們可以得出結(jié)論是:

A)模型的準(zhǔn)確率非常高,我們不需要進(jìn)一步探索

B)模型不好,我們應(yīng)建一個(gè)更好的模型

C)無(wú)法評(píng)價(jià)模型

D)以上都不正確

62.[單選題]以下哪個(gè)不是常見(jiàn)的決策樹(shù)算法

A)ID3

B)C4.5

C)CART

D)DBSCAN

63.[單選題](_)主要為數(shù)據(jù)科學(xué)和大數(shù)據(jù)產(chǎn)業(yè)鏈提供大數(shù)據(jù)分析類(lèi)的技術(shù)支持。

A)分析工具

B)基礎(chǔ)設(shè)施

C)數(shù)據(jù)科學(xué)平臺(tái)

D)機(jī)器學(xué)習(xí)

64.[單選題]當(dāng)閔可夫斯基距離公式中的系數(shù)p值為2時(shí),可得到(_)的公式。

A)歐氏距離

B)曼哈頓距離

C)街區(qū)距離

D)切比雪夫距離

65.[單選題]Pandas中轉(zhuǎn)為日期格式的方法是0。

A)datetime()

B)todatetime()

C)to_time()

D)date()

66.[單選題]以下方法不可以用于特征降維的有()

A)LinearDiscriminantAnalysis

B)PrincipalComponentAnalysis

C)SingularValueDecomposition

D)MonteCarlomethod

67.[單選題]OpenCV安裝需要在。中安裝。

A)網(wǎng)頁(yè)窗口

B)Python命令環(huán)境

C)命令提示符窗口

D)任意可執(zhí)行安裝包

68.[單選題]下面關(guān)于ID3算法中說(shuō)法錯(cuò)誤的是()

A)ID3算法要求特征必須離散化

B)信息增益可以用嫡,而不是GINI系數(shù)來(lái)計(jì)算

C)選取信息增益最大的特征,作為樹(shù)的根節(jié)點(diǎn)

D)ID3算法是一個(gè)二叉樹(shù)模型

69.[單選題](_)采用概率模型來(lái)表達(dá)聚類(lèi)原型。

A)k均值算法

B)學(xué)習(xí)向量量化

C)高斯混合聚類(lèi)密度聚類(lèi)

D)密度聚類(lèi)

70.[單選題]位勢(shì)函數(shù)法的積勢(shì)函數(shù)K(x)的作用相當(dāng)于Bayes判決中的()

A)后驗(yàn)概率

B)先驗(yàn)概率

C)類(lèi)概率密度

D)類(lèi)概率密度與先驗(yàn)概率的和

71.[單選題]維納濾波器的作用通常是()。

A)去噪

B)減小圖像動(dòng)態(tài)范圍

C)復(fù)原圖像

D)圖像模糊

72.[單選題](_)代表的是生成數(shù)據(jù)的機(jī)構(gòu)。

A)數(shù)據(jù)資源

B)數(shù)據(jù)源

C)數(shù)據(jù)端

D)數(shù)據(jù)站

73.[單選題]機(jī)器學(xué)習(xí)模型包括四個(gè)組成部分,不包含(

A)模型結(jié)構(gòu)

B)知識(shí)庫(kù)

C)學(xué)習(xí)單元

D)執(zhí)行單元

74.[單選題]ZooKeeper的核心是()。

A)原子廣播

B)watches

OACL

D)Znode

75.[單選題]請(qǐng)閱讀下面一段程序:

Importpandasaspd

Serobj=pd.Series(range(1,6),index=[5,3,1,3,2])

Print(ser_obj)

執(zhí)行上述程序后,最終輸出的結(jié)果為()。

A)a3.Od2.0c1.0bNaN

B)a3.ObNaNc1.Od2.0

C)程序出現(xiàn)異常

D)cId2a3

76.[單選題]關(guān)于欠擬合(under-fitting),正確的是()。

A)訓(xùn)練誤差較大,測(cè)試誤差較小

B)訓(xùn)練誤差較小,測(cè)試誤差較大

0訓(xùn)練誤差較大,測(cè)試誤差較大

D)訓(xùn)練誤差較小,測(cè)試誤差較小

77.[單選題]在Matplotlib中設(shè)置x軸的標(biāo)簽的函數(shù)是()o

A)xlabels

B)xticks

Oxlabel

D)Xtick

78.[單選題]()的主要目的是提升數(shù)據(jù)質(zhì)量,將數(shù)據(jù)形態(tài)更加符合某一算法需求,進(jìn)而提升數(shù)據(jù)計(jì)算

的效果和降低其復(fù)雜度。

A)數(shù)據(jù)加工

B)數(shù)據(jù)分析

C)數(shù)據(jù)挖掘

D)數(shù)據(jù)處理

79.[單選題]Bootstrap數(shù)據(jù)是什么意思()

A)有放回地從總共M個(gè)特征中抽樣m個(gè)特征

B)無(wú)放回地從總共M個(gè)特征中抽樣m個(gè)特征

C)有放回地從總共N個(gè)樣本中抽樣n個(gè)樣本

D)無(wú)放回地從總共N個(gè)樣本中抽樣n個(gè)樣本

80.[單選題]以下對(duì)大數(shù)據(jù)4V特性描述不正確的是(—)。

A)在大數(shù)據(jù)中,價(jià)值與數(shù)據(jù)總量的大小不存在線性關(guān)系

B)數(shù)據(jù)量大是相對(duì)計(jì)算與存儲(chǔ)能力而定的

C)Volume是指數(shù)據(jù)大

D)大數(shù)據(jù)中所說(shuō)的“速度”包括兩種:增長(zhǎng)速度和處理速度

81.[單選題]決策樹(shù)中的分類(lèi)結(jié)果是最末端的節(jié)點(diǎn),這些節(jié)點(diǎn)稱(chēng)為?()

A)根節(jié)點(diǎn)

B)父節(jié)點(diǎn)

C)子節(jié)點(diǎn)

D)葉節(jié)點(diǎn)

82.[單選題]在模型評(píng)估與度量的方法中,(_)以自助采樣法為基礎(chǔ)。

A)自助法

B)留出法

C)交叉驗(yàn)證法

D)錯(cuò)誤率分析

83.[單選題]下面有關(guān)分類(lèi)算法的準(zhǔn)確率,召回率,F1值的描述,錯(cuò)誤的是?

A)準(zhǔn)確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準(zhǔn)率

B)召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫(kù)中所有的相關(guān)文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率

C)正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準(zhǔn)率或查全率就越高

D)為了解決準(zhǔn)確率和召回率沖突問(wèn)題,引入了F1分?jǐn)?shù)

84.[單選題]梯度爆炸問(wèn)題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時(shí)候,梯度變得過(guò)大而損失函數(shù)

變?yōu)闊o(wú)窮。在RNN中,下面哪種方法可以較好地處理梯度爆炸問(wèn)題()

A)梯度裁剪

B)所有方法都不行

C)Dropout

D)加入正則項(xiàng)

85.[單選題]下列說(shuō)法錯(cuò)誤的是?

A)當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),梯度下降算法的解一般就是全局最優(yōu)解

B)進(jìn)行PCA降維時(shí),需要計(jì)算協(xié)方差矩陣

C)沿負(fù)梯度的方向一定是最優(yōu)的方向

D)利用拉格朗日函數(shù)能解帶約束的優(yōu)化問(wèn)題

86.[單選題]以下說(shuō)法正確的是0

A)增加模型復(fù)雜度,模型在測(cè)試集上的準(zhǔn)確率就能更好

B)L2正則化的解通常是稀疏的,L1正則化可以使得參數(shù)趨向于更平滑

C)對(duì)于PCA,我們應(yīng)該選擇是的模型具有最小variance的主成分

D)每次使用K-means算法得到的聚類(lèi)結(jié)果可能會(huì)不一樣

87.[單選題]在標(biāo)準(zhǔn)化公式z=中,使用e的目的是()

A)為了加速收斂

B)如果過(guò)小

C)使結(jié)果更準(zhǔn)確

D)防止分母為零

88.[單選題]關(guān)于數(shù)據(jù)規(guī)范化,下列說(shuō)法中錯(cuò)誤的是()。

A)標(biāo)準(zhǔn)化實(shí)際上是將數(shù)據(jù)在樣本的標(biāo)準(zhǔn)差上做了等比例的縮放操作

B)歸一化利用了樣本中的最大值和最小值

C)包含標(biāo)準(zhǔn)化和歸一化

D)標(biāo)準(zhǔn)化在任何場(chǎng)景下受異常值的影響都很小

89.[單選題]已知表emp存在字段namel,以下語(yǔ)句能夠正常運(yùn)行的是哪一個(gè):

A)altertableemprenametoempl

B)altertableemprenameemptoempl

C)altertableempchangecolumnnameltoname2

D)altertableempchangenamename12

90.[單選題]下面不屬于數(shù)據(jù)加工的有(_)。

A)數(shù)據(jù)脫敏

B)數(shù)據(jù)脫質(zhì)

C)數(shù)據(jù)規(guī)約

D)數(shù)據(jù)標(biāo)注

91.[單選題]決策樹(shù)所形成的分類(lèi)邊界有一個(gè)明顯特點(diǎn),它的分類(lèi)邊界由若干個(gè)—分段組成。

A)與坐標(biāo)軸平行

B)與坐標(biāo)軸垂直

C)與坐標(biāo)軸重合

D)過(guò)坐標(biāo)原點(diǎn)

92.[單選題]循環(huán)神經(jīng)網(wǎng)絡(luò)適合處理什么數(shù)據(jù)。()

A)節(jié)點(diǎn)數(shù)據(jù)

B)序列數(shù)據(jù)

C)結(jié)構(gòu)化數(shù)據(jù)

D)圖像數(shù)據(jù)

93.[單選題]_是在一個(gè)數(shù)據(jù)集上對(duì)多個(gè)算法進(jìn)行比較。

A)t檢驗(yàn)

B)交叉驗(yàn)證t檢驗(yàn)

C)Friedman檢驗(yàn)

D)McNemar檢驗(yàn)

94.[單選題]用戶(hù)有一種感興趣的模式并且希望在數(shù)據(jù)集中找到相似的模式,屬于數(shù)據(jù)挖掘哪一類(lèi)任

務(wù)?

A)根據(jù)內(nèi)容檢索

B)建模描述

C)預(yù)測(cè)建模

D)尋找模式和規(guī)則

95.[單選題]以下對(duì)支持向量機(jī)中的支撐向量描述正確的是()

A)最大特征向量

B)最優(yōu)投影向量

C)最大間隔支撐面上的向量

D)最速下降方向

96.[單選題]下面關(guān)于基礎(chǔ)理論相關(guān)描述正確的有(_)。

A)基礎(chǔ)理論等于理論基礎(chǔ)

B)基礎(chǔ)理論在數(shù)據(jù)科學(xué)研究邊界之外

C)理論基礎(chǔ)在數(shù)據(jù)科學(xué)研究邊界之內(nèi)

D)基礎(chǔ)理論包含理念、理論、方法、技術(shù)等

97.[單選題]以下描述不正確的是(_)。

A)描述性分析主要采用描述性統(tǒng)計(jì)分析方法

B)診斷性分析主要采用關(guān)聯(lián)分析

C)預(yù)測(cè)性分析主要采用因果分析

D)規(guī)范性分析主要采用運(yùn)籌學(xué),模擬與仿真技術(shù)

98.[單選題]機(jī)器學(xué)習(xí)的實(shí)質(zhì)在于0

A)找

B)想

C)判斷

D)理解

99.[單選題]邊界跟蹤技術(shù)技術(shù)屬于哪一類(lèi)分割方法。。

A)閾值分割法

B)邊緣分割法

C)區(qū)域分割法

D)特征分區(qū)法

100.[單選題]OpenCV的描述正確的是()。

A)只有一個(gè)模塊

B)由多個(gè)模塊組成

C)core中有OpenCV

D)opencv主要由C++語(yǔ)言編寫(xiě)

101.[單選題]圖像數(shù)據(jù)分析的常用方法不包括()

A)圖像變換

B)圖像編碼和壓縮

C)圖像增強(qiáng)和復(fù)原

D)圖像數(shù)據(jù)采集

102.[單選題]從給定的句子、段落中識(shí)別人名、組織名的過(guò)程稱(chēng)為?

A)詞干提?。⊿temming)

B)詞形還原(Lemmatization)

C)停用詞消除(StopWordRemoval)

D)命名實(shí)體識(shí)別(NamedEntityRecognition)

103.[單選題]關(guān)于維數(shù)災(zāi)難說(shuō)法錯(cuò)誤的是?

A)高維度數(shù)據(jù)可使得算法泛華能力變得越來(lái)越弱

B)降低高維度數(shù)據(jù)會(huì)對(duì)數(shù)據(jù)有所損傷

C)高維度數(shù)據(jù)增加了運(yùn)算難度

D)高維度數(shù)據(jù)難以可視化

104.[單選題]S市A,B共有兩個(gè)區(qū),人口比例為3:5,據(jù)歷史統(tǒng)計(jì)A的犯罪率為0.01%,B區(qū)為0.015%,現(xiàn)有

一起新案件發(fā)生在S市,那么案件發(fā)生在A區(qū)的可能性有多大?()

A)37.5%

B)32.5%

028.6%

D)26.1%

105.[單選題]層次聚類(lèi)試圖在不同層次上對(duì)數(shù)據(jù)集進(jìn)行劃分,從而形成(_)形結(jié)構(gòu)。

A)圖

B)環(huán)

0網(wǎng)

D)樹(shù)

106.[單選題]以下關(guān)于機(jī)器學(xué)習(xí)描述錯(cuò)誤的是(__)。

A)機(jī)器學(xué)習(xí)的目標(biāo)是使學(xué)得的模型能很好地適用于“新樣本”

B)學(xué)得模型適用于新樣本的能力,稱(chēng)為“泛化”能力

C)具有強(qiáng)泛化能力的模型不能很好地適用于整個(gè)樣本空間

D)一般認(rèn)為,數(shù)據(jù)樣本越多,獲得的模型的泛化能力越強(qiáng)

107.[單選題]下列關(guān)于軟支持向量機(jī)的說(shuō)法正確的是(_)。

A)軟間隔支持向量機(jī)不可應(yīng)用拉格朗日乘子法求解

B)軟間隔支持向量機(jī)和硬間隔支持向量機(jī)完全相同

C)軟間隔支持向量機(jī)只能使用Hinge損失函數(shù)

D)軟間隔支持向量機(jī)的目標(biāo)函數(shù)仍是一個(gè)二次規(guī)劃問(wèn)題

108.[單選題]假設(shè)file是文本文件對(duì)象,下列選項(xiàng)中,哪個(gè)用于讀取一行內(nèi)容()o

A)file,read()

B)file.read(200)

C)file.readline()

D)file.readlines()

109.[單選題]在線性回歸中使用正則項(xiàng),你發(fā)現(xiàn)解的不少coefficient都是0,則這個(gè)正則項(xiàng)可能是

(1).L0-norm;(2).Ll-norm;(3).L2-norm。

A)(1)(2)

B)⑵⑶

0(2)

D)(3)

110.[單選題]下列關(guān)于線性回歸分析中的殘差(Residuals)說(shuō)法正確的是?

A)殘差均值總是為零

B)殘差均值總是小于零

C)殘差均值總是大于零

D)以上說(shuō)法都不對(duì)

111.[單選題](_)在訓(xùn)練的每一輪都要檢查當(dāng)前生成的基學(xué)習(xí)器是否滿足基本條件。

A)支持向量機(jī)

B)Boosting算法

C)貝葉斯分類(lèi)器

D)神經(jīng)網(wǎng)絡(luò)

112.[單選題]數(shù)據(jù)科學(xué)家可能會(huì)同時(shí)使用多個(gè)算法(模型)進(jìn)行預(yù)測(cè),并且最后把這些算法的結(jié)果

集成起來(lái)進(jìn)行最后的預(yù)測(cè)(集成學(xué)習(xí)),以下對(duì)集成學(xué)習(xí)說(shuō)法正確的是:

A)單個(gè)模型之間有高相關(guān)性

B)單個(gè)模型之間有低相關(guān)性

C)在集成學(xué)習(xí)中使用“平均權(quán)重”而不是“投票”會(huì)比較好

D)單個(gè)模型都是用的一個(gè)算法

113.[單選題]對(duì)于下圖,最好的主成分選擇是多少?

p

a0

uL

-Ooooooooooooooo

-e

xd

UJ3

。J。

U

O

OJ

od

dJ

>8

e〕

-

n0

E

n0

o

III

O

203040

PrincipalComponent

alt="">

A)7

B)30

035

D)Can,tSay

114.[單選題]下面關(guān)于數(shù)據(jù)粒度的描述不正確的是:

A)粒度是指數(shù)據(jù)倉(cāng)庫(kù)小數(shù)據(jù)單元的詳細(xì)程度和級(jí)別;

B)數(shù)據(jù)越詳細(xì),粒度就越小,級(jí)別也就越高;

C)數(shù)據(jù)綜合度越高,粒度也就越大,級(jí)別也就越高;

D)粒度的具體劃分將直接影響數(shù)據(jù)倉(cāng)庫(kù)中的數(shù)據(jù)量以及查詢(xún)質(zhì)量.

115.[單選題]如右圖所示有向圖,節(jié)點(diǎn)G的馬爾可夫毯為()

A){D.E}

B){I.J}

C){D,E,I,J}

D){D,E,F,H,I,J}

116.[單選題]線性判別分析在二分類(lèi)問(wèn)題上也稱(chēng)為()。

A)線性回歸

B)對(duì)數(shù)幾率回歸

C)Fisher判別分析

D)主成分分析

117.[單選題]兩位同事從上海出發(fā)前往深圳出差,他們?cè)诓煌瑫r(shí)間出發(fā),搭乘的交通工具也不同,能準(zhǔn)

確描述兩者“上海到深圳”距離差別的是()

A)歐式距離

B)余弦距離

C)曼哈頓距離

D)切比雪夫距離

118.[單選題]交叉驗(yàn)證如果設(shè)置K=5,會(huì)訓(xùn)練幾次?()

A)1

B)3

05

D)6

119.[單選題]異常檢測(cè)過(guò)程查找基于()組標(biāo)準(zhǔn)值偏差的異常個(gè)案。

A)單體

B)分類(lèi)

C)聚類(lèi)

D)回歸

120.[單選題]2.當(dāng)訓(xùn)練集很多時(shí),一種更為強(qiáng)大的結(jié)合策略是使用(),即通過(guò)另一個(gè)學(xué)習(xí)器來(lái)進(jìn)

行結(jié)合。

A)學(xué)習(xí)法

B)平均法

C)投票法

D)加權(quán)投票法

121.[單選題]當(dāng)訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)作圖像識(shí)別任務(wù)時(shí),通常會(huì)繪制一張訓(xùn)練集誤差和驗(yàn)證集誤

差圖來(lái)進(jìn)行調(diào)試。在下圖中,最好在哪個(gè)時(shí)間停止訓(xùn)練()

>

A)A

B)B

C)C

D)D

122.[單選題]有監(jiān)督的學(xué)習(xí)和無(wú)監(jiān)督的學(xué)習(xí)的根本區(qū)別在于()

Error

validation

train

Time

A)學(xué)習(xí)過(guò)程是否需要人工干預(yù)

B)學(xué)習(xí)樣本是否需要人工標(biāo)記

C)學(xué)習(xí)結(jié)果是否需要人工解釋

D)學(xué)習(xí)參數(shù)是否需要人工設(shè)置

123.[單選題]哪個(gè)不是本地模式運(yùn)行的個(gè)條件

A)spark.localExecution.enabled=true

B)顯式指定本地運(yùn)行

C)finalStage無(wú)父Stage

D)partition默認(rèn)值

124.[單選題]假如使用一個(gè)較復(fù)雜的回歸模型來(lái)擬合樣本數(shù)據(jù),使用Ridge回歸,調(diào)試正則化參數(shù)

入,來(lái)降低模型復(fù)雜度。若X較小時(shí),關(guān)于偏差(bias)和方差(variance),下列說(shuō)法正確的

是?

A)若人較小時(shí),偏差減小,方差減小

B)若人較小時(shí),偏差減小,方差增大

C)若人較小時(shí),偏差增大,方差減小

D)若X較小時(shí),偏差增大,方差增大

125.[單選題]傳統(tǒng)的機(jī)器學(xué)習(xí)方法包括監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí),其中監(jiān)督學(xué)習(xí)是學(xué)習(xí)給

定標(biāo)簽的數(shù)據(jù)集。請(qǐng)問(wèn)標(biāo)簽為離散的類(lèi)型,稱(chēng)為分類(lèi),標(biāo)簽為連續(xù)的類(lèi)型,稱(chēng)為什么()

A)給定標(biāo)簽

B)離散

C)分類(lèi)

D)回歸

126.[單選題](_)不屬于相關(guān)分析。

A)正相關(guān)

B)負(fù)相關(guān)

C)線性相關(guān)

D)誤差相關(guān)

127.[單選題]下面哪個(gè)不屬于數(shù)據(jù)的屬性類(lèi)型?

A)標(biāo)稱(chēng)

B)序數(shù)

C)區(qū)間

D)相異

128.[單選題]下列表述中,在k-fold交叉驗(yàn)證中關(guān)于選擇K說(shuō)法正確的是

A)較大的K并不總是好的,選擇較大的K可能需要較長(zhǎng)的時(shí)間來(lái)評(píng)估你的結(jié)果

B)相對(duì)于期望誤差來(lái)說(shuō),選擇較大的K會(huì)導(dǎo)致低偏差(因?yàn)橛?xùn)練folds會(huì)變得與整個(gè)數(shù)據(jù)集相似)

C)在交叉驗(yàn)證中通過(guò)最小化方差法來(lái)選擇K值

D)以上都正確

129.[單選題]有關(guān)機(jī)器學(xué)習(xí)分類(lèi)算法的Precision和Recall,以下定義中正確的是(假定tp=true

positive,tn=truenegative,fp=falsepositive,fn=falsenegative)

A)Precision=tp/(tp+fp),Recall=tp/(tp+fn)

B)Precision=tp/(tn+fp),Recall=tp/(tp+fn)

C)Precision=tp/(tn+fn),Recall=tp/(tp+fp)

D)Precision=tp/(tp+fp),Recall=tp/(tn+fn)

130.[單選題]以下關(guān)于大數(shù)據(jù)描述不正確的是(—)。

A)大數(shù)據(jù)成為推動(dòng)經(jīng)濟(jì)轉(zhuǎn)型發(fā)展的新動(dòng)力

B)大數(shù)據(jù)成為重塑?chē)?guó)家競(jìng)爭(zhēng)優(yōu)勢(shì)的新機(jī)遇

C)大數(shù)據(jù)是小數(shù)據(jù)的集合

D)大數(shù)據(jù)成為提升政府治理能力的新途徑

131.[單選題](_)不屬于基于實(shí)例學(xué)習(xí)方法。

A)KNN

B)局部加權(quán)回歸算法

C)基于案例的推理

D)決策樹(shù)算法

132.[單選題]在目標(biāo)識(shí)別中,假定類(lèi)型1為敵方目標(biāo),類(lèi)型2為誘餌(假目標(biāo)),已知先驗(yàn)概率P(l)=0.2和

P(2)=0.8,類(lèi)概率密度函數(shù)如下:則總錯(cuò)誤概率為P(e)為

class="fr-ficfr-dibcursor-hover"

A)0.08

B)0.09

C)0.11

D)0.1

133.[單選題]假設(shè)有矩陣a,則查看該矩陣有幾個(gè)維度的是()。

A)a.ndim

x0Sx<1

p(x@l.閆2-X1<X<2

I0其它

x-114x<2

p(xis2)=<3-x24*42

I0其它

B)a.size

C)a.ndim()

D)a.size()

134.[單選題]半調(diào)輸出技術(shù)可以()

A)改善圖像的空間分辨率

B)改善圖像的幅度分辨率

C)利用抖動(dòng)技術(shù)實(shí)現(xiàn)

D)消除虛假輪廓現(xiàn)象

135.[單選題]數(shù)據(jù)治理任務(wù)通常有三個(gè)部分不包含(_)。

A)主動(dòng)定義或序化規(guī)則

B)接觸數(shù)據(jù)的業(yè)務(wù)流程

C)為數(shù)據(jù)利益相關(guān)者提供持續(xù)

D)跨界的保護(hù)、服務(wù)和應(yīng)對(duì)并解決因不遵守規(guī)則而產(chǎn)生的問(wèn)題

136.[單選題]關(guān)于CNN,以下結(jié)論正確的是()

A)在同樣層數(shù)、每層神經(jīng)元數(shù)量一樣的情況下,CNN比全連接網(wǎng)絡(luò)擁有更多的參數(shù)

B)CNN可以用于非監(jiān)督學(xué)習(xí),但是普通神經(jīng)網(wǎng)絡(luò)不行

C)Pooling層用于減少圖片的空間分辨率

D)接近輸出層的filter主要用于提取圖像的邊緣信息

137.[單選題]下列關(guān)于特征編碼的敘述中,不正確的是()

A)特征編碼是將非數(shù)值型特征轉(zhuǎn)換成數(shù)值型特征的方法

B)數(shù)字編碼與特征的排序無(wú)關(guān)

C)One-Hot編碼中,原始特征有n種取值,轉(zhuǎn)換后就會(huì)產(chǎn)生n列新特征

D)啞變量編碼解決了One-Hot編碼中存在線性關(guān)系的問(wèn)題

138.[單選題]以下哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性()

A)Dropout

B)ReLU

C)卷積函數(shù)

D)隨機(jī)梯度下降

139.[單選題]對(duì)數(shù)幾率回歸(logisticsregression)和一般回歸分析有什么區(qū)別?:

A)對(duì)數(shù)幾率回歸是設(shè)計(jì)用來(lái)預(yù)測(cè)事件可能性的

B)對(duì)數(shù)幾率回歸可以用來(lái)度量模型擬合程度

C)對(duì)數(shù)幾率回歸可以用來(lái)估計(jì)回歸系數(shù)

D)以上所有

140.[單選題]ResNet-50有多少個(gè)卷積層?()

A)48

B)49

C)50

D)51

141.[單選題]()的基本想法是適當(dāng)考慮一部分屬性間的相互依賴(lài)信息,從而既不需要進(jìn)行完全聯(lián)合概

率計(jì)算,又不至于徹底忽略了比較強(qiáng)的屬性依賴(lài)關(guān)系。

A)貝葉斯判定準(zhǔn)則

B)貝葉斯決策論

C)樸素貝葉斯分類(lèi)器

D)半樸素貝葉斯分類(lèi)器

142.[單選題]已知中國(guó)人的血型分布約為A型:30%,B型:20%,0型:40%,AB型00%,則任選一批中國(guó)人作

為用戶(hù)調(diào)研對(duì)象,希望他們中至少有一個(gè)是B型血的可能性不低于90玳那么最少需要選多少人?

A)7

B)9

Oil

D)13

143.[單選題]關(guān)于隨機(jī)森林,說(shuō)法錯(cuò)誤的是:

A)相對(duì)于Boosting系列的Adaboost和GBDT,RF實(shí)現(xiàn)比較簡(jiǎn)單。

B)在訓(xùn)練后,可以給出各個(gè)特征對(duì)于輸出的重要性

0訓(xùn)練高度串行化

D)隨機(jī)采樣,訓(xùn)練出的模型的方差小,泛化能力強(qiáng)

144.[單選題]如果一個(gè)SVM模型出現(xiàn)欠擬合,那么下列哪種方法能解決這一問(wèn)題?

A)增大懲罰參數(shù)C的值

B)減小懲罰參數(shù)C的值

C)減小核系數(shù)(gamma參數(shù))

D)都不正確

145.[單選題]二項(xiàng)式分布的共舸分布是()

A)正態(tài)分布

B)Dirichlet分布

C)Beta分布

D)指數(shù)分布

146.[單選題]當(dāng)訓(xùn)練數(shù)據(jù)很多時(shí),一種更為強(qiáng)大的結(jié)合策略是使用(_),通過(guò)另一個(gè)學(xué)習(xí)器來(lái)進(jìn)

行結(jié)合。

A)投票法

B)平均法

C)學(xué)習(xí)法

D)排序法

147.[單選題]在一個(gè)神經(jīng)網(wǎng)絡(luò)中,確定每個(gè)神經(jīng)元的權(quán)重和偏差很重要。用()方法可以確定神經(jīng)元的

權(quán)重和偏差,從而對(duì)函數(shù)進(jìn)行擬合。

A)隨機(jī)賦值,祈禱它們是正確的

B)搜索所有權(quán)重和偏差的組合,直到得到最佳值

C)賦予一個(gè)初始值,通過(guò)檢杳與真值的誤差,逐步迭代更新權(quán)重

D)以上都不正確

148.[單選題](_)可看做用坐標(biāo)下降法來(lái)最大化對(duì)數(shù)似然下界的過(guò)程。

A)EM算法

B)貝葉斯決策

C)貝葉斯分類(lèi)器

D)邊際似然

149.[單選題]默認(rèn)的存儲(chǔ)級(jí)別()。

A)MEMORY_ONLY

B)MEMORY_ONLYSER

C)MEMORY_AND?DISK

D)MEMORY_AND__DISKSER

150.[單選題]下面對(duì)屬性進(jìn)行離散化的方法為()

A)preprocessing,scale()

B)pd.qcut()

C)pd.shape

D)pgroupby()

151.[單選題]當(dāng)訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)作圖像識(shí)別任務(wù)時(shí),通常會(huì)繪制一張訓(xùn)練集誤差和驗(yàn)證集誤差

圖來(lái)進(jìn)行調(diào)試。在下圖中,最好在哪個(gè)時(shí)間停止訓(xùn)練()

A)A

B)B

C)C

D)D

152.[單選題]預(yù)剪枝是指在決策樹(shù)生成過(guò)程中,對(duì)每個(gè)結(jié)點(diǎn)在劃分(―)進(jìn)行估計(jì)。

A)前

B)中

C)后

D)不估計(jì)

153.[單選題]關(guān)于數(shù)據(jù)重塑的說(shuō)法中,下列選項(xiàng)描述錯(cuò)誤的是()。

A)數(shù)據(jù)重塑可以將DataFrame轉(zhuǎn)換為Series

B)stack。方法可以將列索引轉(zhuǎn)換為行索引

C)對(duì)一個(gè)DataFrame使用stack()方法后返回的一定是一個(gè)Series

D)unstack()方法可以將行索引轉(zhuǎn)換為列索引

154.[單選題]有關(guān)決策樹(shù)的分類(lèi)方法正確的是()

A)決策樹(shù)不能確定對(duì)決策屬性起重要影響的變量

B)決策樹(shù)可以用于發(fā)現(xiàn)多種樣本的特征

C)決策樹(shù)可用于確定相似的樣本

D)決策樹(shù)結(jié)構(gòu)越復(fù)雜越有效

155.[單選題]假如使用一個(gè)較復(fù)雜的回歸模型來(lái)擬合樣本數(shù)據(jù),使用Ridge回歸,調(diào)試正則化參數(shù)

入,來(lái)降低模型復(fù)雜度。若X較大時(shí),關(guān)于偏差(bias)和方差(variance),下列說(shuō)法正確的

是?

A)若入較大時(shí),偏差減小,方差減小

B)若X較大時(shí),偏差減小,方差增大

C)若X較大時(shí),偏差增大,方差減小

D)若X較大時(shí),偏差增大,方差增大

156.[單選題]()是一門(mén)以可視交互為基礎(chǔ),綜合運(yùn)用圖形學(xué)、數(shù)據(jù)挖掘和人機(jī)交互等技術(shù)等多個(gè)學(xué)

科領(lǐng)域的知識(shí),以實(shí)現(xiàn)人機(jī)協(xié)同完成可視化任務(wù)為主要目的分析推理性學(xué)科。

A)科學(xué)可視化

B)可視分析學(xué)

C)數(shù)據(jù)可視化

D)信息可視化

157.[單選題]梯度下降算法的正確步驟是什么()

1)計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差

2)迭代跟新,直到找到最佳權(quán)重

3)把輸入傳入網(wǎng)絡(luò),得到輸出值

4)初始化隨機(jī)權(quán)重和偏差

5)對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,改變相應(yīng)的(權(quán)重)值以減小誤差

A)l,2,3,4,5

B)4,3,1,5,2

03,2,1,5,4

D)5,4,3,2,1

158.[單選題]在一個(gè)n維的空間中,最好的檢測(cè)outlier(離群點(diǎn))的方法是:

A)作正態(tài)分布概率圖

B)作盒形圖

C)馬氏距離

D)作散點(diǎn)圖

159.[單選題]支持向量機(jī)的優(yōu)化問(wèn)題是最小化的平方,這實(shí)現(xiàn)了(_)。

A)幾何間隔為"的最大間隔超平面

B)幾何間隔為的最大間隔超平面

C)幾何間隔為1/的最小間隔超平面

D)幾何間隔為的最小間隔超平面

160.[單選題](_)是一種著名的過(guò)濾式特征選擇方法。

A)k-means

B)k近鄰

C)支持向量機(jī)

D)Relief

161.[單選題]關(guān)于EDA與統(tǒng)計(jì)學(xué)中驗(yàn)證性分析的相關(guān)描述不正確的有(_)。

A)EDA無(wú)需事先假設(shè),驗(yàn)證性分析需要事先假設(shè)

B)探索分析在后,驗(yàn)證性分析在前

C)EDA中采取的方法往往比驗(yàn)證分析簡(jiǎn)單

D)基于EDA是數(shù)據(jù)計(jì)算工作可以分為2個(gè)部分:探索性分析和驗(yàn)證性分析

162.[單選題]采用主成分分析法映射到低維空間,將最小的d-d'個(gè)特征向量舍棄,產(chǎn)生的影響是(

)。

A)使樣本采樣密度增大

B)丟失最優(yōu)解

C)增大噪聲

D)使樣本采樣密度減小

163.[單選題]聚類(lèi)算法屬于。

A)半監(jiān)督學(xué)習(xí)

B)有監(jiān)督學(xué)習(xí)

C)無(wú)監(jiān)督學(xué)習(xí)

D)一種分類(lèi)方法

164.[單選題]關(guān)于k折交叉驗(yàn)證,下列說(shuō)法正確的是?

A)k值并不是越大越好,k值過(guò)大,會(huì)降低運(yùn)算速度

B)選擇更大的k值,會(huì)讓偏差更小,因?yàn)閗值越大,訓(xùn)練集越接近整個(gè)訓(xùn)練樣本

C)選擇合適的k值,能減小驗(yàn)方差

D)以上說(shuō)法都正確

165.[單選題]考慮值集{12243324556826},其四分位數(shù)極差是:

A)31

B)24

C)55

D)3

166.[單選題]PCA和LDA的以下比較哪些是正確的?

A)1和2

B)1和3

C)只有3

D)l、2和3

167.[單選題]下列函數(shù)中,用于沿著軸方向堆疊Pandas對(duì)象的是()0

A)concat()

B)join()

C)merge()

D)combine_first()

168.[單選題]目標(biāo)變量在訓(xùn)練集上的7個(gè)實(shí)際值為[1,1,1,1,0,0,0],目標(biāo)變量的炳近似值是

(log3/7=-0.847,log4/7=-0.560)()

A)0.683

B)-0.683

C)0.724

D)-0.243

169.[單選題]以下說(shuō)法正確的是()

A)Boosting和Bagging都是組合多個(gè)分類(lèi)器投票的方法,二者都是根據(jù)單個(gè)分類(lèi)器的正確率決定其

權(quán)重

B)梯度下降有時(shí)會(huì)陷于局部極小值,但EM算法不會(huì)

C)除了EM算法,梯度下降也可求混合高斯模型的參數(shù)

D)基于最小二乘的線性回歸問(wèn)題中,增加L2正則項(xiàng),總能降低在測(cè)試集上的

MSE誤差

170.[單選題]馬爾可夫隨機(jī)場(chǎng)有一組(_),這是定義在變量子集上的非負(fù)實(shí)函數(shù),主要用于定義

概率分布函數(shù)。

A)損失函數(shù)

B)優(yōu)化函數(shù)

C)激活函數(shù)

D)勢(shì)函數(shù)

171.[單選題]二分類(lèi)問(wèn)題使用—檢驗(yàn)。

A)二項(xiàng)檢驗(yàn)

B)t檢驗(yàn)

C)交叉驗(yàn)證t檢驗(yàn)

D)McNemar檢驗(yàn)

172.[單選題]關(guān)于EM算法正確的是

A)EM算法包括兩步:E算法和M算法

B)EM算法一定能收斂到全局最大值點(diǎn)

C)英文全稱(chēng)是Expectation-Minimization

D)以上都不正確

173.[單選題]請(qǐng)閱讀下面一段程序:

Arr2d=np.empty((4,4))

Foriinrange(4):

arr2d[i]=np.arange(i,i+4)

Arr2d[[0,4],[3,1]]

執(zhí)行上述程序,它最終輸出的結(jié)果為()。

A)array([3.,4.])

B)程序拋出IndexError異常

Oarray([3.,5.1)

D)array([4.,4.])

174.[單選題]下面的交叉驗(yàn)證方法

I.有放回的Bootstrap方法

li.留一個(gè)測(cè)試樣本的交叉驗(yàn)證

lii.5折交叉驗(yàn)證

Iv,重復(fù)兩次的5折教程驗(yàn)證

當(dāng)樣本是1000時(shí),下面執(zhí)行時(shí)間的順序,正確的是

A)i>ii>iii>iv

B)ii>iv>iii>i

C)iv>i>ii>iii

D)ii>iii>iv>i

175.[單選題]下面是三個(gè)散點(diǎn)圖(A,B,C,從左到右)和和手繪的邏輯回歸決策邊界。

能得出什么結(jié)論,1與第二和第三圖相比,第一幅圖中的訓(xùn)練誤差最大。

2該回歸問(wèn)題的最佳模型是最后(第三個(gè))圖,因?yàn)樗哂凶钚〉挠?xùn)練誤差(零)。

3第二個(gè)模型比第一個(gè)和第三個(gè)更強(qiáng),它在不可見(jiàn)數(shù)據(jù)中表現(xiàn)最好。

4與第一種和第二種相比,第三種模型過(guò)度擬合了。

5所有的模型執(zhí)行起來(lái)都一樣,因?yàn)闆](méi)有看到測(cè)試數(shù)據(jù)。

ABC

alt="">根據(jù)可視化后的結(jié)果,

A)1和3

B)1和3

01,3和4

0)5

176.[單選題]下面關(guān)于Z-Buffer算法的論斷哪一條不正確?()

A)深度緩存算法并不需要開(kāi)辟一個(gè)與圖像大小相等的深度緩存數(shù)組

B)深度緩存算法不能用于處理對(duì)透明物體的消隱

C)深度緩存算法能并行實(shí)現(xiàn)

D)深度緩存算法中沒(méi)有對(duì)多邊形進(jìn)行排序

177.[單選題]建立一個(gè)模型,通過(guò)這個(gè)模型根據(jù)已知的變量值來(lái)預(yù)測(cè)其他某個(gè)變量值屬于數(shù)據(jù)挖掘的

哪一類(lèi)任務(wù)?

A)根據(jù)內(nèi)容檢索

B)建模描述

C)預(yù)測(cè)建模

D)尋找模式和規(guī)則

178.[單選題]下圖中判斷未知綠圓的類(lèi)別,體現(xiàn)了哪個(gè)機(jī)器學(xué)習(xí)算法的思想?()

A)決策樹(shù)

B)貝葉斯分類(lèi)器

C)支持向量機(jī)

D)K近鄰算法

179.[單選題]下列選項(xiàng)中,關(guān)于Zookeeper可靠性含義說(shuō)法正確的是?()

A)可靠性通過(guò)主備部署模式實(shí)現(xiàn)

B)可靠性是指更新更新只能成功或者失敗,沒(méi)有中間狀態(tài)

C)可靠性是指無(wú)論哪個(gè)server,對(duì)外展示的均是同一個(gè)視圖

D)可靠性是指一個(gè)消息被一個(gè)Server接收,它將被所有的Server接受

180.[單選題]屬于無(wú)監(jiān)督學(xué)習(xí)的機(jī)器學(xué)習(xí)算法是()

A)支持向量機(jī)

B)Logistic回歸

C)層次聚類(lèi)

D)決策樹(shù)

181.[單選題]以下哪種方法能最佳地適應(yīng)邏輯回歸中的數(shù)據(jù)?

A)LeastSquareError

B)MaximumLikelihood

C)Jaccarddistance

D)BothAandB

182.[單選題]如果線性回歸模型中的隨機(jī)誤差存在異方差性,那么參數(shù)的OLS估計(jì)量是()

A)無(wú)偏的,有效的

B)無(wú)偏的,非有效的

C)有偏的,有效的

D)有偏的,非有效的

183.[單選題]如下邏輯回歸圖顯示了3種不同學(xué)習(xí)速率值的代價(jià)函數(shù)和迭代次數(shù)之間的關(guān)系(不同的

顏色在不同的學(xué)習(xí)速率下顯示不同的曲線)。

為了參考而保存圖表后,忘記其中不同學(xué)習(xí)速率的值。現(xiàn)在需要曲線的傾斜率值之間的關(guān)系。

以下哪一個(gè)是正確的?

注:

1藍(lán)色的學(xué)習(xí)率是L1

2紅色的學(xué)習(xí)率是L2

3綠色學(xué)習(xí)率為1L3

alt="">

A)L1>L2>L3

B)L1=L2=L3

C)L1

D)都不是

184.[單選題]已知數(shù)組trans_cnt[l,2,3,4],以下哪一個(gè)表達(dá)式是求數(shù)組的元素?cái)?shù)量:

A)type(trans_cnt)

B)length(trans_cnt)

C)coalesce(trans_cnt)

D)size(trans_cnt)

185.[單選題](_)也稱(chēng)為“基于密度的聚類(lèi)”

A)原型聚類(lèi)

B)密度聚類(lèi)

C)層次聚類(lèi)

D)AGNES

186.[單選題]以下有關(guān)神經(jīng)網(wǎng)絡(luò)的說(shuō)法錯(cuò)誤的是()

A)MP模型在隱藏層和輸出層都對(duì)神經(jīng)元進(jìn)行激活函數(shù)處理

B)使用多層功能神經(jīng)元可以解決非線性可分問(wèn)題

C)神經(jīng)網(wǎng)絡(luò)“學(xué)”到的東西,蘊(yùn)含在連接權(quán)值和閾值中

D)BP算法基于梯度下降策略

187.[單選題]移動(dòng)端開(kāi)發(fā)中常用的數(shù)據(jù)庫(kù)是

A)MySQL

B)Oracle

OSQLite

D)MongoDB

188.[單選題]若A與B是任意的兩個(gè)事件,且P(AB)=P(A)?P(B),則可稱(chēng)事件A與B()。

A)等價(jià)

B)互不相容

C)相互獨(dú)立

D)相互對(duì)立

189.[單選題]無(wú)人超市采用了()等多種智能技術(shù),消費(fèi)者在購(gòu)物流程中將依次體驗(yàn)自動(dòng)身份識(shí)別、

自助導(dǎo)購(gòu)服務(wù)、互動(dòng)式營(yíng)銷(xiāo)、商品位置偵測(cè)、線上購(gòu)物車(chē)清單自動(dòng)生成和移動(dòng)支付???

A)計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí)算法、傳感器定位、圖像分析

B)虛擬技術(shù),傳感器定位、圖像分析

C)聲紋識(shí)別技術(shù)、計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí)算法、

D)圖像識(shí)別、人臉識(shí)別、物體檢測(cè)、圖像分析

190.[單選題]代碼selectbin(17)的結(jié)果是下面哪一個(gè):

A)101

B)10001

0111

D)1001

191.[單選題]根據(jù)某個(gè)詞所連接所有詞匯的權(quán)重,重新計(jì)算該詞匯的權(quán)重,然后把重新計(jì)算的權(quán)重

傳遞下去。直到這種變化達(dá)到均衡態(tài),權(quán)重?cái)?shù)值不再發(fā)生改變。這種關(guān)鍵詞提取算法叫做()。

A)TF-IDF

B)TextRank

OLDA

D)PCA

192.[單選題]關(guān)于BP算法優(yōu)缺點(diǎn)的說(shuō)法錯(cuò)誤的是()。

A)BP算法不能用于處理非線性分類(lèi)問(wèn)題

B)BP算法容易陷入局部最小值

C)BP算法訓(xùn)練時(shí)間較長(zhǎng)

D)BP算法訓(xùn)練時(shí)候可能由于權(quán)值調(diào)整過(guò)大使得激活函數(shù)達(dá)到飽和

193.[單選題]貝葉斯模型平均基于后驗(yàn)概率來(lái)為不同的模型賦予權(quán)重,可視為(_)的一種特殊實(shí)現(xiàn)

O

A)加權(quán)平均法

B)投票法

C)排序法

D)學(xué)習(xí)法

194.[單選題]()是指數(shù)據(jù)減去一個(gè)總括統(tǒng)計(jì)量或模型擬合值時(shí)的殘余部分

A)極值

B)標(biāo)準(zhǔn)值

C)平均值

D)殘值

195.[單選題]下列關(guān)于線性模型的描述錯(cuò)誤的是()。

A)支持向量機(jī)的判別函數(shù)一定屬于線性函數(shù)

B)在樣本為某些分布情況時(shí),線性判別函數(shù)可以成為最小錯(cuò)誤率或最小風(fēng)險(xiǎn)意義

下的最優(yōu)分類(lèi)器

C)在一般情況下,線性分類(lèi)器只能是次優(yōu)分類(lèi)器

D)線性分類(lèi)器簡(jiǎn)單而且在很多期情況下效果接近最優(yōu),所以應(yīng)用比較廣泛

196.[單選題]樸素貝葉斯的訓(xùn)練過(guò)程就是基于訓(xùn)練集D來(lái)估計(jì)類(lèi)的。P(c),并為每個(gè)屬性估計(jì)條件

概率

A)后驗(yàn)概率

B)先驗(yàn)概率

C)條件概率

D)聯(lián)合概率

197.[單選題]使用。定義的數(shù)據(jù)類(lèi)型是()。

A)字典

B)集合

0列表

D)字典或集合

198.[單選題]若有統(tǒng)計(jì)表:包含該詞的文檔數(shù)(億)IDFTFTDF中國(guó)62.30.6030.0121蜜蜂

0.4842.7130.0543養(yǎng)殖0.9732.410O0482那么這篇文章的關(guān)鍵詞是(_)。

A)中國(guó)

B)蜜蜂

C)養(yǎng)殖

D)不知道

199.[單選題]在BMP格式、GIF格式、TIFF格式和JPEG格式中,下面哪個(gè)選項(xiàng)正確?

A)表示同一副圖像,BMP格式使用的數(shù)據(jù)量最多;

B)GIF格式獨(dú)立于操作系統(tǒng);

C)每種格式都有文件頭,其中TIFF格式的最復(fù)雜;

D)一個(gè)JPEG格式的數(shù)據(jù)文件中可存放多幅圖像;

200.[單選題]下列關(guān)于支持向量的說(shuō)法,正確的是()。

A)到分類(lèi)超平面的距離最近的且滿足一定條件的幾個(gè)訓(xùn)練樣本點(diǎn)是支持向量

B)訓(xùn)練集中的所有樣本點(diǎn)都是支持向量

C)每一類(lèi)樣本集中都分別只有一個(gè)支持向量

D)支持向量的個(gè)數(shù)越多越好

201.[單選題]線性判別分析設(shè)法將樣例投影到—直線上,使得同類(lèi)樣例的投影點(diǎn)盡可能

A)一條;接近

B)兩條;接近

C)一條;遠(yuǎn)離

D)兩條;原理

202.[單選題]在邏輯回歸輸出與目標(biāo)對(duì)比的情況下,以下評(píng)估指標(biāo)中哪一項(xiàng)不適用?

A)AUC-R0C

B)準(zhǔn)確度

C)Logloss

D)均方誤差

203.[單選題]下面不屬于數(shù)據(jù)科學(xué)家應(yīng)具備的能力有(_)。

A)掌握機(jī)器學(xué)習(xí)

B)數(shù)量掌握數(shù)據(jù)科學(xué)中常用的技術(shù)與工具

C)有良好的身體素質(zhì)

D)有豐富的編程經(jīng)驗(yàn)

204.[單選題]半監(jiān)督學(xué)習(xí)不包括

A)直推學(xué)習(xí)

B)純半監(jiān)督學(xué)習(xí)

C)主動(dòng)學(xué)習(xí)

D)圖半監(jiān)督學(xué)習(xí)

205.[單選題]()不屬于特征選擇的標(biāo)準(zhǔn)方法。

A)散入

B)過(guò)濾

C)包裹

D)抽樣

206.[單選題]對(duì)于低通和高通巴特沃斯濾波器敘述不正確的是?

A)均有相同的截止頻率;

B)均能減弱振鈴效應(yīng);

C)處理后的圖像均比用理想低通和高通處理的要過(guò)渡光滑一些;

D)都可用于消除虛假輪廓;

207.[單選題]對(duì)于線性回歸模型,包括附加變量在內(nèi),以下的可能正確的是:

A)1和2

B)1和3

02和4

D)以上都不是

208.[單選題]下列關(guān)于HSV色彩空間中描述不正確的是()。

A)H表示的是色調(diào),指的是光的顏色

B)S表示的是飽和度,指的色彩的深淺

C)V表示的是亮度,指的是光的明暗

D)HSV色彩空間稱(chēng)為五角錐體模型

209.[單選題]以下哪種激活函數(shù)可以導(dǎo)致梯度消失()

A)ReLU

B)Tanh

C)Leaky

D)其他都不是

210.[單選題]采樣分析的精確性隨著采樣隨機(jī)性的增加而(),但與樣本數(shù)量的增加關(guān)系

不大。

A)降低

B)不變

C)提高

D)無(wú)關(guān)

211.[單選題]假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型,可能遇到一個(gè)問(wèn)題,Logistic回歸需

要很長(zhǎng)時(shí)間才能訓(xùn)練,如果對(duì)相同的數(shù)據(jù)進(jìn)行邏輯回歸,則花費(fèi)更少的時(shí)間,并給出比較相似的精度的

方法是()。

A)降低學(xué)習(xí)率,減少選代次數(shù)

B)降低學(xué)習(xí)率,增加迭代次數(shù)

C)提高學(xué)習(xí)率,增加迭代次數(shù)

D)增加學(xué)習(xí)率,減少迭代次數(shù)

212.[單選題]()選擇成為支持向量機(jī)的最大變數(shù)。

A)核函數(shù)

B)樣本空間

C)模型

D)算法

213.[單選題]研究某超市銷(xiāo)售記錄數(shù)據(jù)后發(fā)現(xiàn),買(mǎi)啤酒的人很大概率也會(huì)購(gòu)買(mǎi)尿布,這種屬于數(shù)據(jù)

挖掘的那類(lèi)問(wèn)題()

A)關(guān)聯(lián)規(guī)則發(fā)現(xiàn)

B)聚類(lèi)

C)分類(lèi)

D)自然語(yǔ)言處理

214.[單選題]目前移動(dòng)設(shè)備主流的屏幕幀率是每秒()幀

A)24

B)30

060

D)120

215.[單選題]要想讓機(jī)器具有智能,必須讓機(jī)器具有知識(shí)。因此,在人工智能中有一個(gè)研究領(lǐng)域

,主要研究計(jì)算機(jī)如何自動(dòng)獲取知識(shí)和技能,實(shí)現(xiàn)自我完善,這門(mén)研究分支學(xué)科叫()。:]*

A)專(zhuān)家系統(tǒng)

B)機(jī)器學(xué)習(xí)

C)神經(jīng)網(wǎng)絡(luò)

D)模式識(shí)別

216.[單選題]信息熠是度量樣本集合—最常用的一種指標(biāo)。

A)精確度

B)準(zhǔn)確率

C)召回率

D)純度

217.[單選題]一個(gè)輸入為(32,32,3)的數(shù)據(jù)集,通過(guò)一個(gè)大小為2X2的不重疊最大池化層,輸出

()O

A)(28,28,8)

B)(16,16,8)

C)(28,28,3)

D)(16,16,3)

218.[單選題]在構(gòu)建一個(gè)基于決策樹(shù)模型時(shí),使用信息增益informationgain作為決策樹(shù)節(jié)點(diǎn)屬性選

擇的標(biāo)準(zhǔn),以下圖片中哪一個(gè)屬性具信息增益最大:

A)Outlook

B)Humidity

C)Windy

D)Temperature

219.[單選題]在線性回歸中使用正則項(xiàng),你發(fā)現(xiàn)解的不少coefficient都是0,則這個(gè)正則項(xiàng)可能是(

)

1).L0-norm;(2).Ll-norm;(3).L2-normo

A)(1)(2)

B)(2)(3)

0(2)

D)(3)

220.[單選題]()算法的訓(xùn)練數(shù)據(jù)集部分有特征有標(biāo)簽,部分有特征無(wú)標(biāo)簽

A)有監(jiān)督學(xué)習(xí)

B)半監(jiān)督學(xué)習(xí)

C)無(wú)監(jiān)督學(xué)習(xí)

D)強(qiáng)化學(xué)習(xí)

221.[單選題]下列關(guān)于異方差(Heteroskedasticity)說(shuō)法正確的是?

A)線性回歸具有不同的誤差項(xiàng)

B)線性回歸具有相同的誤差項(xiàng)

C)線性回歸誤差項(xiàng)為零

D)以上說(shuō)法都不對(duì)

222.[單選題]以下說(shuō)法正確的是()

A)Boosting和Bagging都是組合多個(gè)分類(lèi)器投票的方法,二者都是根據(jù)單個(gè)分

B)梯度下降有時(shí)會(huì)陷于局部極小值,但EM算法不會(huì)

C)除了EM算法,梯度下降也可求混合高斯模型的參數(shù)

D)基于最小二乘的線性回歸問(wèn)題中,

223.[單選題](_)是指為最小化總體風(fēng)險(xiǎn),只需在每個(gè)樣本上選擇能使特定條件風(fēng)險(xiǎn)最小的類(lèi)別標(biāo)

記。

A)支持向量機(jī)

B)間隔最大化

C)線性分類(lèi)器

D)貝葉斯判定準(zhǔn)則

224.[單選題]決策樹(shù)中的分類(lèi)結(jié)果是最末端的節(jié)點(diǎn),這些節(jié)點(diǎn)稱(chēng)為?()口*

A)根節(jié)點(diǎn)

B)父節(jié)點(diǎn)

C)子節(jié)點(diǎn)

D)葉節(jié)點(diǎn)

225.[單選題]讓學(xué)習(xí)器不依賴(lài)外界交互、自動(dòng)地利用未標(biāo)記樣本來(lái)提升學(xué)習(xí)性能,就是()?

A)監(jiān)督學(xué)習(xí)

B)倍監(jiān)督學(xué)習(xí)

C)半監(jiān)督學(xué)習(xí)

D)無(wú)監(jiān)督學(xué)習(xí)

226.[單選題]下列選項(xiàng)中屬于感知技術(shù)的是()

A)機(jī)器學(xué)習(xí)技術(shù)和計(jì)算實(shí)施技術(shù)

B)計(jì)算實(shí)施技術(shù)和語(yǔ)音識(shí)別技術(shù)

C)語(yǔ)音識(shí)別技術(shù)和機(jī)器視覺(jué)

D)機(jī)器視覺(jué)和機(jī)器學(xué)習(xí)技術(shù)

227.[單選題]隨著集成中個(gè)體分類(lèi)器(相互獨(dú)立)數(shù)目T的增大,集成的錯(cuò)誤率將呈—下降,最終

趨向于零

A)指數(shù)級(jí)

B)對(duì)數(shù)級(jí)

C)線性級(jí)

D)平方級(jí)

228.[單選題]第一個(gè)成功應(yīng)用的專(zhuān)家系統(tǒng)是()

A)ELIZA

B)Dendral

C)Xeon

D)Deppepblue

229.[單選題]現(xiàn)實(shí)中往往會(huì)遇到“不完整”的訓(xùn)練樣本,在這種存在屬性變量值未知的情形下,可

用(_)。

A)邊際似然

B)EM算法

C)貝葉斯決策

D)貝葉斯分類(lèi)器

230.[單選題]以下哪條語(yǔ)句定義了一個(gè)Python字典()。

A){1,2,3)

B)[1,2,3]

0(1,2,3)

D){}

231.[單選題]增加以下哪些超參數(shù)可能導(dǎo)致隨機(jī)森林模型過(guò)擬合數(shù)據(jù)()(1).決策樹(shù)的數(shù)量;

(2).決策樹(shù)的深度;(3).學(xué)習(xí)率。

A)(l)

B)(2)

0(3)

D)(2)(3)

232.[單選題]假設(shè)我們對(duì)西瓜的色澤、根蒂和紋理等特征一無(wú)所知,按照常理來(lái)說(shuō),西瓜是好瓜的

概率是60九那么這個(gè)好瓜的概率P就被稱(chēng)為()

A)先驗(yàn)概率

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論