




版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
試題說(shuō)明
本套試題共包括1套試卷
答案和解析在每套試卷后
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案6(500題)
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案6
1.[單選題]最佳分類(lèi)是曲線下區(qū)域面積最大者,而黃線在曲線下面積最大.2、假設(shè)你在測(cè)試邏輯回歸
分類(lèi)器,設(shè)函數(shù)H為
he(x)=g(9o+Oixi+02X2)
Where
仇=6,仇=0,仇-1
style="width:21Ipx;"class="fr-ficfr-filfr-dibcursor-hover">
下圖中的哪一個(gè)代表上述分類(lèi)器給出的決策邊界?
A)
6
?y?(T
style="width:auto;"class="fr-ficfr-filfr-dib">
B)
比
style="width:auto;"class="fr-ficfr-filfr-dib">
0
style="width:auto;"class="fr-ficfr-filfr-dib">
2.[單選題]分類(lèi)模型評(píng)估指標(biāo)中的召回率如何計(jì)算()
A)(TP+TN)(P+N)
B)TP(TP+FN)
C)TP(TP+FP)
3.[單選題]分類(lèi)的類(lèi)別標(biāo)簽列是()
A)類(lèi)別數(shù)值
B)類(lèi)別的不同
C)具有次序、大小的意義
4.[單選題]我們常用()版。
A)apache版
B)cdh版
C)Hortonworks版本
5.[單選題]如果一個(gè)SVM模型出現(xiàn)欠擬合,那么。能解決這一問(wèn)題。
A)增大懲罰參數(shù)C
B)減小懲罰參數(shù)C
C)減小核系數(shù)(gamma參數(shù))
6.[單選題]聚類(lèi)算法屬于()的一種
A)無(wú)監(jiān)督學(xué)習(xí)
B)強(qiáng)化學(xué)習(xí)
C)監(jiān)督學(xué)習(xí)
7.[單選題]以下說(shuō)法正確的是()。
A)一個(gè)機(jī)器學(xué)習(xí)模型如果有較高準(zhǔn)確率,總是說(shuō)明這個(gè)分類(lèi)器是好的
B)如果增加模型復(fù)雜度,那么模型的測(cè)試錯(cuò)誤率不一定會(huì)降低
C)如果增加模型復(fù)雜度,那么模型的訓(xùn)練錯(cuò)誤率總是會(huì)降低
8.[單選題]在回歸模型中,下列哪一項(xiàng)在權(quán)衡欠擬合(under-fitting)和過(guò)擬合(over-
fitting)中影響最大?
A)多項(xiàng)式階數(shù)
B)更新權(quán)重w時(shí),使用的是矩陣求逆還是梯度下降
C)使用常數(shù)項(xiàng)
9.[單選題]分類(lèi)模型在進(jìn)行訓(xùn)練時(shí)需要()
A)訓(xùn)練集
B)訓(xùn)練集與測(cè)試集
C)訓(xùn)練集、驗(yàn)證集、測(cè)試集
10.[單選題]KNN算法應(yīng)用于回歸時(shí),計(jì)算的是()
A)從屬類(lèi)別的均值
B)從屬類(lèi)別的最大值
C)從屬類(lèi)別的最小值
11.[單選題]以下哪項(xiàng)是解決NLP用例(如語(yǔ)義相似性、閱讀理解和常識(shí)推理)的更好選擇?
A)ELMo
B)OpenAVsGPT
OULMFit
12.[單選題]邏輯回歸擬合的函數(shù)是0
A)sigmoid
B)tanh
C)relu
13.[單選題]下面不屬于云計(jì)算技術(shù)的有(_)。
A)Hadoop
B)Spark
OYARN
D)集中式計(jì)算
14.[單選題]在標(biāo)準(zhǔn)化公式
中,使用£的目的是(D)
A)為了加速收斂
B)如果u過(guò)小
C)使結(jié)果更準(zhǔn)確
D)防止分母為零
15.[單選題]根據(jù)TCP/IP協(xié)議棧的分層來(lái)看HTTP協(xié)議工作在哪一層
A)數(shù)據(jù)鏈路層
B)網(wǎng)絡(luò)層
C)傳輸層
D)應(yīng)用層
16.[單選題]下面哪些可能是一個(gè)文本語(yǔ)料庫(kù)的特征()
1一個(gè)文檔中的詞頻統(tǒng)計(jì)
2文檔中單詞的布爾特征
3詞向量
4詞性標(biāo)記
5基本語(yǔ)法依賴(lài)
6整個(gè)文檔
A)123
6)1234
012345
D)123456
17.[單選題]線性回歸是一種。,它分為簡(jiǎn)單線性回歸和多元線性回歸
A)無(wú)監(jiān)督學(xué)習(xí)算法
B)有監(jiān)督學(xué)習(xí)算法
C)強(qiáng)化學(xué)習(xí)
D)聚類(lèi)算法
18.[單選題]以下不屬于人工智能在計(jì)算機(jī)視覺(jué)領(lǐng)域應(yīng)用的是
A)車(chē)站人臉識(shí)別進(jìn)站
B)拍照識(shí)別植物
C)醫(yī)療影像診斷
D)實(shí)時(shí)字幕
19.[單選題]交叉驗(yàn)證的目的是(_)。
A)提高分類(lèi)準(zhǔn)確率
B)得到更穩(wěn)定的模型
C)驗(yàn)證結(jié)果的準(zhǔn)確性
D)增大分類(lèi)的誤差
20.[單選題]下列時(shí)間序列模型中,哪一個(gè)模型可以較好地?cái)M合波動(dòng)性的分析和預(yù)測(cè)
A)AR模型
B)MA模型
C)ARMA模型
D)GARCH模型
21.[單選題]0LAM技術(shù)一般簡(jiǎn)稱(chēng)為"數(shù)據(jù)聯(lián)機(jī)分析挖掘”,下面說(shuō)法正確的是:
A)OLAP和0LAM都基于客戶(hù)機(jī)/服務(wù)器模式,只有后者有與用戶(hù)的交互性;
B)由于OLAM的立方體和用于OLAP的立方體有本質(zhì)的區(qū)別.
C)基于WEB的OLAM是WEB技術(shù)與OLAM技術(shù)的結(jié)合.
D)OLAM服務(wù)器通過(guò)用戶(hù)圖形借口接收用戶(hù)的分析指令,在元數(shù)據(jù)的知道下,對(duì)超級(jí)立方體作一定的操
作.
22.[單選題]以下對(duì)Value相關(guān)描述不正確的是(一)0
A)Value是指應(yīng)用價(jià)值高
B)Value是指我們淹沒(méi)在知識(shí)海洋,卻忍受著知識(shí)的饑渴
C)如何從海量數(shù)據(jù)中洞見(jiàn)出有價(jià)值的數(shù)據(jù)是數(shù)據(jù)科學(xué)的重要課題之一
D)大數(shù)據(jù)中,數(shù)據(jù)價(jià)值與數(shù)據(jù)量之間不一定存在線性關(guān)系
23.[單選題]下面關(guān)于Adaboost算法的描述中,錯(cuò)誤的是()
QAdaBoost模型是弱分類(lèi)器的線性組合
B)提升樹(shù)是以分類(lèi)樹(shù)或者回歸樹(shù)為基本分類(lèi)器的提升辦法,提升樹(shù)被認(rèn)為是統(tǒng)計(jì)學(xué)習(xí)中最有效的辦法
之一
OAdaBoost算法的一個(gè)解釋是該算法實(shí)際上是前向分步算法的一個(gè)實(shí)現(xiàn),在這個(gè)方法里,模型是加法
模型,損失函數(shù)是指數(shù)損失,算法是前向分步算法。
D)AdaBoost同時(shí)獨(dú)立地學(xué)習(xí)多個(gè)弱分類(lèi)器
24.[單選題]()是表現(xiàn)數(shù)據(jù)分布對(duì)稱(chēng)性的指標(biāo)。
A)斜率
B)偏斜度
C)偏度
D)偏離度
25.[單選題]關(guān)于數(shù)據(jù)及軟件架構(gòu)的CAP理論不包括下面哪些()
A)可用性
B)一致性
C)分區(qū)容忍性
D)分布性
26.[單選題]從一個(gè)初始策略出發(fā),不斷迭代進(jìn)行策略評(píng)估和改進(jìn),直到策略收斂、不再改變?yōu)橹?/p>
,這樣的作法稱(chēng)為
A)策略迭代
B)值迭代
C)策略改進(jìn)
D)最優(yōu)值函數(shù)
27.[單選題]數(shù)據(jù)科學(xué)家經(jīng)常使用多個(gè)算法進(jìn)行預(yù)測(cè),并將多個(gè)機(jī)器學(xué)習(xí)算法的輸出(稱(chēng)為“集成學(xué)
習(xí)”)結(jié)合起來(lái),以獲得比所有個(gè)體模型都更好的更健壯的輸出。則下列說(shuō)法正確的是?
A)基本模型之間相關(guān)性高
B)基本模型之間相關(guān)性低
C)集成方法中,使用加權(quán)平均代替投票方法
D)基本模型都來(lái)自于同一算法
28.[單選題]Zookeeper集群需要多少個(gè)節(jié)點(diǎn)()
A)1
B)2
C)2N
D)2N+1
29.[單選題](_)是從現(xiàn)實(shí)世界中采集信息,并對(duì)采集到的信息進(jìn)行計(jì)量和記錄
A)本源數(shù)據(jù)
B)零次數(shù)據(jù)
C)真實(shí)數(shù)據(jù)
D)現(xiàn)實(shí)數(shù)據(jù)
30.[單選題]在留出法、交叉驗(yàn)證法和自助法三種評(píng)估方法中,()更適用于數(shù)據(jù)集較小、難以劃分訓(xùn)
練集和測(cè)試集的情況。
A)留出法
B)交叉驗(yàn)證法
0自助法
D)留一法
31.[單選題]如果LASSO模型中的懲罰項(xiàng)變大,下列說(shuō)法正確的是()
A)部分回歸系數(shù)會(huì)變?yōu)?
B)部分回歸系數(shù)會(huì)趨近于0,但不會(huì)取值為0
C)A和B的表述都正確
D)以上說(shuō)法都不正確
32.[單選題]機(jī)器學(xué)習(xí)算法在學(xué)習(xí)過(guò)程中對(duì)某種類(lèi)型假設(shè)的偏好稱(chēng)為()。
A)訓(xùn)練偏好
B)歸納偏好
C)分析偏好
D)假設(shè)偏好
33.[單選題]在方差分析中,()反映的是樣本數(shù)據(jù)與其組平均值的差異。
A)總離差
B)組間誤差
C)抽樣誤差
D)組內(nèi)誤差
34.[單選題]K-Means算法無(wú)法聚以下哪種形狀的樣本?
A)圓形分布
B)螺旋分布
C)帶狀分布
D)凸多邊形分布
35.[單選題]哪一個(gè)是機(jī)器學(xué)習(xí)的合理定義?
A)機(jī)器學(xué)習(xí)是計(jì)算機(jī)編程的科學(xué)
B)機(jī)器學(xué)習(xí)從標(biāo)記的數(shù)據(jù)中學(xué)習(xí)
C)機(jī)器學(xué)習(xí)是允許機(jī)器人智能行動(dòng)的領(lǐng)域
D)機(jī)器學(xué)習(xí)能使計(jì)算機(jī)能夠在沒(méi)有明確編程的情況下學(xué)習(xí)
36.[單選題]下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?
A)K近鄰算法
B)隨機(jī)森林
C)神經(jīng)網(wǎng)絡(luò)
D)都不屬于
37.[單選題]在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),損失函數(shù)(loss)在最初的幾個(gè)epochs時(shí)沒(méi)有下降,可能的原因是?
class="fr-ficfr-dibcursor-hover"
A)學(xué)習(xí)率(learningrate)太低
B)正則參數(shù)太高
C)陷入局部最小值
D)以上都有可能
38.[單選題]在k均值算法中,假定聚類(lèi)簇?cái)?shù)k=3,則在算法開(kāi)始時(shí)隨機(jī)選?。╛)個(gè)樣本作為初始均
值向量
A)1
B)2
03
D)任意
39.[單選題]關(guān)于啞變量的說(shuō)法中,下列選項(xiàng)描述錯(cuò)誤的是()。
A)啞變量是人為虛設(shè)的變量
B)啞變量在轉(zhuǎn)換成指標(biāo)矩陣后,其值通常為0或1
C)Pnadas中g(shù)etdummies()函數(shù)可以對(duì)類(lèi)別進(jìn)行啞變量處理
D)啞變量的使用沒(méi)有實(shí)際意義
40.[單選題]關(guān)于級(jí)聯(lián)相關(guān)網(wǎng)絡(luò)描述錯(cuò)誤的是
A)屬于結(jié)構(gòu)自適應(yīng)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)也是其優(yōu)化目標(biāo);
B)主要成分為級(jí)聯(lián)、相關(guān)、歸約;
C)無(wú)需設(shè)置網(wǎng)絡(luò)層數(shù)、隱層神經(jīng)元數(shù)目;
D)訓(xùn)練速度快,但數(shù)據(jù)較小時(shí)容易陷入過(guò)擬合;
41.[單選題]假設(shè)12個(gè)銷(xiāo)售價(jià)格記錄組已經(jīng)排序如下:5,10,11,13,15,35,50,55,72,92,
204,215使用如下每種方法將它們劃分成四個(gè)箱。等頻(等深)劃分時(shí),15在第幾個(gè)箱子內(nèi)?
A)第一個(gè)
B)第二個(gè)
C)第三個(gè)
D)第四個(gè)
42.[單選題]卷積神經(jīng)網(wǎng)絡(luò)中說(shuō)的梯度下降,是指()的梯度。
A)參數(shù)本身
B)激活函數(shù)
C)損失函數(shù)
D)圖像大小
43.[單選題](_)是將特征選擇過(guò)程與學(xué)習(xí)器訓(xùn)練過(guò)程融為一體,兩者在同一個(gè)優(yōu)化過(guò)程中完成
,即在學(xué)習(xí)器訓(xùn)練過(guò)程中自動(dòng)地進(jìn)行了特征選擇。
A)過(guò)濾式選擇
B)包裹式選擇
C)嵌入式選擇
D)正則化
44.[單選題]某超市研究銷(xiāo)售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買(mǎi)啤酒的人很大概率也會(huì)購(gòu)買(mǎi)尿布,這種屬于數(shù)據(jù)挖掘
的哪類(lèi)問(wèn)題?
A)關(guān)聯(lián)規(guī)則發(fā)現(xiàn)
B)聚類(lèi)
C)分類(lèi)
D)自然語(yǔ)言處理
45.[單選題]k近鄰學(xué)習(xí)是一種(_)o
A)監(jiān)督學(xué)習(xí)方法
B)半監(jiān)督學(xué)習(xí)方法
C)無(wú)監(jiān)督學(xué)習(xí)方法
D)測(cè)試方法
46.[單選題]spark,deploy.recoveryMode不支持那種()。
A)ZooKeeper
B)FileSystem
ONONE
D)hadoop
47.[單選題]關(guān)于Elman網(wǎng)絡(luò)描述錯(cuò)誤的是
A)作為遞歸神經(jīng)網(wǎng)絡(luò),允許出現(xiàn)環(huán)形結(jié)構(gòu);
B)一些神經(jīng)元的輸出反饋回來(lái)會(huì)作為輸入信號(hào);
C)用于處理靜態(tài)模型,即無(wú)法處理與時(shí)間有關(guān)的動(dòng)態(tài)變化;
D)可利用BP算法來(lái)進(jìn)行參數(shù)優(yōu)化;
48.[單選題]在一個(gè)線性回歸問(wèn)題中,我們使用R平方(R-Squared)來(lái)判斷擬合度。此時(shí),如果增
加一個(gè)特征,模型不變,則下面說(shuō)法正確的是?
A)如果R-Squared增加,則這個(gè)特征有意義
B)如果R-Squared減小,則這個(gè)特征沒(méi)有意義
C)僅看R-Squared單一變量,無(wú)法確定這個(gè)特征是否有意義。
D)以上說(shuō)法都不對(duì)
49.[單選題](_)不屬于機(jī)器學(xué)習(xí)理論基礎(chǔ)。
A)數(shù)據(jù)科學(xué)
B)哲學(xué)
C)心理學(xué)
D)人工智能
50.[單選題]當(dāng)數(shù)據(jù)過(guò)大以至于無(wú)法在RAM中同時(shí)處理時(shí),哪種梯度下降方法更加有效?
A)隨機(jī)梯度下降法(StochasticGradientDescent)
B)不知道
C)整批梯度下降法(FullBatchGradientDescent)
D)都不是
51.[單選題]使用梯度下降法訓(xùn)練回歸模型時(shí),會(huì)由于各特征尺寸相差較大而造成算法收斂較慢。應(yīng)
該將特征尺寸進(jìn)行縮放至接近或相同尺寸。可采用sklearn中的類(lèi)或函數(shù)是:
A)StanderScaler
B)fittransform
C)accuracy_score
D)LabelEcoder
52.[單選題]半調(diào)輸出技術(shù)可以?
A)改善圖像的空間分辨率;
B)改善圖像的幅度分辨率;
C)利用抖動(dòng)技術(shù)實(shí)現(xiàn);
D)消除虛假輪廓現(xiàn)象;
53.[單選題]機(jī)器學(xué)習(xí)從不同的角度,有不同的分類(lèi)方式,以下哪項(xiàng)不屬于按系統(tǒng)學(xué)習(xí)能力分類(lèi)的類(lèi)別
A)監(jiān)督學(xué)習(xí)
B)無(wú)監(jiān)督學(xué)習(xí)
C)弱監(jiān)督學(xué)習(xí)
D)函數(shù)學(xué)習(xí)
54.[單選題]2.JC系數(shù)的度量公式()
A)a/b+c
B)B.a/a+b
C)C.b/b+c
D)D.a/a+b+c
55.[單選題]bootstrap數(shù)據(jù)的含義是:
A)有放回的從整體M中抽樣m個(gè)特征
B)無(wú)放回的從整體M中抽樣m個(gè)特征
C)有放回的從整體N中抽樣n個(gè)樣本
D)無(wú)放回的從整體N中抽樣n個(gè)樣本
56.[單選題]以下有關(guān)可視化認(rèn)識(shí)錯(cuò)誤的是哪個(gè)()。
A)可視化是簡(jiǎn)單地把原始的數(shù)據(jù)用圖的形式展示出來(lái)的方法
B)可視化可以作為數(shù)據(jù)預(yù)處理的一種方法,找出其中的噪聲
C)可視化本身是一種數(shù)據(jù)分析方法,使用圖表把數(shù)據(jù)中隱藏的規(guī)律展示出來(lái)
D)通過(guò)數(shù)據(jù)的可視化,可以促進(jìn)數(shù)據(jù)分析人員對(duì)數(shù)據(jù)的認(rèn)識(shí)和規(guī)律發(fā)現(xiàn)
57.[單選題]借助對(duì)數(shù)形式的變換曲線可以達(dá)到壓縮圖像灰度動(dòng)態(tài)范圍的目的,這是因?yàn)椋?/p>
A)變換前的灰度值范圍比變換后的灰度值范圍大;
B)變換后僅取了一部分灰度值的范圍;
C)變換前后灰度值的范圍不同;
D)對(duì)數(shù)形式的變換曲線是單增的曲線;
58.[單選題]1特征分析,2影響分析,3原因分析,4數(shù)據(jù)審計(jì),5忽略,6刪除,7插值。以下順序符
合缺失數(shù)據(jù)處理過(guò)程的有(_)。
A)416
B)1236
0457
D)2357
59.[單選題]隱馬爾可夫模型(HiddenMarkovModel,簡(jiǎn)稱(chēng)HMM)主要用于()數(shù)據(jù)建模
A)時(shí)長(zhǎng)
B)時(shí)間
C)時(shí)態(tài)
D)時(shí)序
60.[單選題]“啤酒-紙尿布”問(wèn)題講述的是,超市購(gòu)物中,通過(guò)分析購(gòu)物單發(fā)現(xiàn),買(mǎi)了紙尿布的
男士,往往又買(mǎi)了啤酒。這是一個(gè)什么問(wèn)題()
A)關(guān)聯(lián)分析
B)回歸
C)聚類(lèi)
D)分類(lèi)
61.[單選題]點(diǎn)擊率的預(yù)測(cè)是一個(gè)數(shù)據(jù)比例不平衡問(wèn)題(比如訓(xùn)練集中樣本呈陰性的比例為99%,陽(yáng)性
的比例是1%),如果我們用這種數(shù)據(jù)建立模型并使得訓(xùn)練集的準(zhǔn)確率高達(dá)99虬我們可以得出結(jié)論是:
A)模型的準(zhǔn)確率非常高,我們不需要進(jìn)一步探索
B)模型不好,我們應(yīng)建一個(gè)更好的模型
C)無(wú)法評(píng)價(jià)模型
D)以上都不正確
62.[單選題]以下哪個(gè)不是常見(jiàn)的決策樹(shù)算法
A)ID3
B)C4.5
C)CART
D)DBSCAN
63.[單選題](_)主要為數(shù)據(jù)科學(xué)和大數(shù)據(jù)產(chǎn)業(yè)鏈提供大數(shù)據(jù)分析類(lèi)的技術(shù)支持。
A)分析工具
B)基礎(chǔ)設(shè)施
C)數(shù)據(jù)科學(xué)平臺(tái)
D)機(jī)器學(xué)習(xí)
64.[單選題]當(dāng)閔可夫斯基距離公式中的系數(shù)p值為2時(shí),可得到(_)的公式。
A)歐氏距離
B)曼哈頓距離
C)街區(qū)距離
D)切比雪夫距離
65.[單選題]Pandas中轉(zhuǎn)為日期格式的方法是0。
A)datetime()
B)todatetime()
C)to_time()
D)date()
66.[單選題]以下方法不可以用于特征降維的有()
A)LinearDiscriminantAnalysis
B)PrincipalComponentAnalysis
C)SingularValueDecomposition
D)MonteCarlomethod
67.[單選題]OpenCV安裝需要在。中安裝。
A)網(wǎng)頁(yè)窗口
B)Python命令環(huán)境
C)命令提示符窗口
D)任意可執(zhí)行安裝包
68.[單選題]下面關(guān)于ID3算法中說(shuō)法錯(cuò)誤的是()
A)ID3算法要求特征必須離散化
B)信息增益可以用嫡,而不是GINI系數(shù)來(lái)計(jì)算
C)選取信息增益最大的特征,作為樹(shù)的根節(jié)點(diǎn)
D)ID3算法是一個(gè)二叉樹(shù)模型
69.[單選題](_)采用概率模型來(lái)表達(dá)聚類(lèi)原型。
A)k均值算法
B)學(xué)習(xí)向量量化
C)高斯混合聚類(lèi)密度聚類(lèi)
D)密度聚類(lèi)
70.[單選題]位勢(shì)函數(shù)法的積勢(shì)函數(shù)K(x)的作用相當(dāng)于Bayes判決中的()
A)后驗(yàn)概率
B)先驗(yàn)概率
C)類(lèi)概率密度
D)類(lèi)概率密度與先驗(yàn)概率的和
71.[單選題]維納濾波器的作用通常是()。
A)去噪
B)減小圖像動(dòng)態(tài)范圍
C)復(fù)原圖像
D)圖像模糊
72.[單選題](_)代表的是生成數(shù)據(jù)的機(jī)構(gòu)。
A)數(shù)據(jù)資源
B)數(shù)據(jù)源
C)數(shù)據(jù)端
D)數(shù)據(jù)站
73.[單選題]機(jī)器學(xué)習(xí)模型包括四個(gè)組成部分,不包含(
A)模型結(jié)構(gòu)
B)知識(shí)庫(kù)
C)學(xué)習(xí)單元
D)執(zhí)行單元
74.[單選題]ZooKeeper的核心是()。
A)原子廣播
B)watches
OACL
D)Znode
75.[單選題]請(qǐng)閱讀下面一段程序:
Importpandasaspd
Serobj=pd.Series(range(1,6),index=[5,3,1,3,2])
Print(ser_obj)
執(zhí)行上述程序后,最終輸出的結(jié)果為()。
A)a3.Od2.0c1.0bNaN
B)a3.ObNaNc1.Od2.0
C)程序出現(xiàn)異常
D)cId2a3
76.[單選題]關(guān)于欠擬合(under-fitting),正確的是()。
A)訓(xùn)練誤差較大,測(cè)試誤差較小
B)訓(xùn)練誤差較小,測(cè)試誤差較大
0訓(xùn)練誤差較大,測(cè)試誤差較大
D)訓(xùn)練誤差較小,測(cè)試誤差較小
77.[單選題]在Matplotlib中設(shè)置x軸的標(biāo)簽的函數(shù)是()o
A)xlabels
B)xticks
Oxlabel
D)Xtick
78.[單選題]()的主要目的是提升數(shù)據(jù)質(zhì)量,將數(shù)據(jù)形態(tài)更加符合某一算法需求,進(jìn)而提升數(shù)據(jù)計(jì)算
的效果和降低其復(fù)雜度。
A)數(shù)據(jù)加工
B)數(shù)據(jù)分析
C)數(shù)據(jù)挖掘
D)數(shù)據(jù)處理
79.[單選題]Bootstrap數(shù)據(jù)是什么意思()
A)有放回地從總共M個(gè)特征中抽樣m個(gè)特征
B)無(wú)放回地從總共M個(gè)特征中抽樣m個(gè)特征
C)有放回地從總共N個(gè)樣本中抽樣n個(gè)樣本
D)無(wú)放回地從總共N個(gè)樣本中抽樣n個(gè)樣本
80.[單選題]以下對(duì)大數(shù)據(jù)4V特性描述不正確的是(—)。
A)在大數(shù)據(jù)中,價(jià)值與數(shù)據(jù)總量的大小不存在線性關(guān)系
B)數(shù)據(jù)量大是相對(duì)計(jì)算與存儲(chǔ)能力而定的
C)Volume是指數(shù)據(jù)大
D)大數(shù)據(jù)中所說(shuō)的“速度”包括兩種:增長(zhǎng)速度和處理速度
81.[單選題]決策樹(shù)中的分類(lèi)結(jié)果是最末端的節(jié)點(diǎn),這些節(jié)點(diǎn)稱(chēng)為?()
A)根節(jié)點(diǎn)
B)父節(jié)點(diǎn)
C)子節(jié)點(diǎn)
D)葉節(jié)點(diǎn)
82.[單選題]在模型評(píng)估與度量的方法中,(_)以自助采樣法為基礎(chǔ)。
A)自助法
B)留出法
C)交叉驗(yàn)證法
D)錯(cuò)誤率分析
83.[單選題]下面有關(guān)分類(lèi)算法的準(zhǔn)確率,召回率,F1值的描述,錯(cuò)誤的是?
A)準(zhǔn)確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準(zhǔn)率
B)召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫(kù)中所有的相關(guān)文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率
C)正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準(zhǔn)率或查全率就越高
D)為了解決準(zhǔn)確率和召回率沖突問(wèn)題,引入了F1分?jǐn)?shù)
84.[單選題]梯度爆炸問(wèn)題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時(shí)候,梯度變得過(guò)大而損失函數(shù)
變?yōu)闊o(wú)窮。在RNN中,下面哪種方法可以較好地處理梯度爆炸問(wèn)題()
A)梯度裁剪
B)所有方法都不行
C)Dropout
D)加入正則項(xiàng)
85.[單選題]下列說(shuō)法錯(cuò)誤的是?
A)當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),梯度下降算法的解一般就是全局最優(yōu)解
B)進(jìn)行PCA降維時(shí),需要計(jì)算協(xié)方差矩陣
C)沿負(fù)梯度的方向一定是最優(yōu)的方向
D)利用拉格朗日函數(shù)能解帶約束的優(yōu)化問(wèn)題
86.[單選題]以下說(shuō)法正確的是0
A)增加模型復(fù)雜度,模型在測(cè)試集上的準(zhǔn)確率就能更好
B)L2正則化的解通常是稀疏的,L1正則化可以使得參數(shù)趨向于更平滑
C)對(duì)于PCA,我們應(yīng)該選擇是的模型具有最小variance的主成分
D)每次使用K-means算法得到的聚類(lèi)結(jié)果可能會(huì)不一樣
87.[單選題]在標(biāo)準(zhǔn)化公式z=中,使用e的目的是()
A)為了加速收斂
B)如果過(guò)小
C)使結(jié)果更準(zhǔn)確
D)防止分母為零
88.[單選題]關(guān)于數(shù)據(jù)規(guī)范化,下列說(shuō)法中錯(cuò)誤的是()。
A)標(biāo)準(zhǔn)化實(shí)際上是將數(shù)據(jù)在樣本的標(biāo)準(zhǔn)差上做了等比例的縮放操作
B)歸一化利用了樣本中的最大值和最小值
C)包含標(biāo)準(zhǔn)化和歸一化
D)標(biāo)準(zhǔn)化在任何場(chǎng)景下受異常值的影響都很小
89.[單選題]已知表emp存在字段namel,以下語(yǔ)句能夠正常運(yùn)行的是哪一個(gè):
A)altertableemprenametoempl
B)altertableemprenameemptoempl
C)altertableempchangecolumnnameltoname2
D)altertableempchangenamename12
90.[單選題]下面不屬于數(shù)據(jù)加工的有(_)。
A)數(shù)據(jù)脫敏
B)數(shù)據(jù)脫質(zhì)
C)數(shù)據(jù)規(guī)約
D)數(shù)據(jù)標(biāo)注
91.[單選題]決策樹(shù)所形成的分類(lèi)邊界有一個(gè)明顯特點(diǎn),它的分類(lèi)邊界由若干個(gè)—分段組成。
A)與坐標(biāo)軸平行
B)與坐標(biāo)軸垂直
C)與坐標(biāo)軸重合
D)過(guò)坐標(biāo)原點(diǎn)
92.[單選題]循環(huán)神經(jīng)網(wǎng)絡(luò)適合處理什么數(shù)據(jù)。()
A)節(jié)點(diǎn)數(shù)據(jù)
B)序列數(shù)據(jù)
C)結(jié)構(gòu)化數(shù)據(jù)
D)圖像數(shù)據(jù)
93.[單選題]_是在一個(gè)數(shù)據(jù)集上對(duì)多個(gè)算法進(jìn)行比較。
A)t檢驗(yàn)
B)交叉驗(yàn)證t檢驗(yàn)
C)Friedman檢驗(yàn)
D)McNemar檢驗(yàn)
94.[單選題]用戶(hù)有一種感興趣的模式并且希望在數(shù)據(jù)集中找到相似的模式,屬于數(shù)據(jù)挖掘哪一類(lèi)任
務(wù)?
A)根據(jù)內(nèi)容檢索
B)建模描述
C)預(yù)測(cè)建模
D)尋找模式和規(guī)則
95.[單選題]以下對(duì)支持向量機(jī)中的支撐向量描述正確的是()
A)最大特征向量
B)最優(yōu)投影向量
C)最大間隔支撐面上的向量
D)最速下降方向
96.[單選題]下面關(guān)于基礎(chǔ)理論相關(guān)描述正確的有(_)。
A)基礎(chǔ)理論等于理論基礎(chǔ)
B)基礎(chǔ)理論在數(shù)據(jù)科學(xué)研究邊界之外
C)理論基礎(chǔ)在數(shù)據(jù)科學(xué)研究邊界之內(nèi)
D)基礎(chǔ)理論包含理念、理論、方法、技術(shù)等
97.[單選題]以下描述不正確的是(_)。
A)描述性分析主要采用描述性統(tǒng)計(jì)分析方法
B)診斷性分析主要采用關(guān)聯(lián)分析
C)預(yù)測(cè)性分析主要采用因果分析
D)規(guī)范性分析主要采用運(yùn)籌學(xué),模擬與仿真技術(shù)
98.[單選題]機(jī)器學(xué)習(xí)的實(shí)質(zhì)在于0
A)找
B)想
C)判斷
D)理解
99.[單選題]邊界跟蹤技術(shù)技術(shù)屬于哪一類(lèi)分割方法。。
A)閾值分割法
B)邊緣分割法
C)區(qū)域分割法
D)特征分區(qū)法
100.[單選題]OpenCV的描述正確的是()。
A)只有一個(gè)模塊
B)由多個(gè)模塊組成
C)core中有OpenCV
D)opencv主要由C++語(yǔ)言編寫(xiě)
101.[單選題]圖像數(shù)據(jù)分析的常用方法不包括()
A)圖像變換
B)圖像編碼和壓縮
C)圖像增強(qiáng)和復(fù)原
D)圖像數(shù)據(jù)采集
102.[單選題]從給定的句子、段落中識(shí)別人名、組織名的過(guò)程稱(chēng)為?
A)詞干提?。⊿temming)
B)詞形還原(Lemmatization)
C)停用詞消除(StopWordRemoval)
D)命名實(shí)體識(shí)別(NamedEntityRecognition)
103.[單選題]關(guān)于維數(shù)災(zāi)難說(shuō)法錯(cuò)誤的是?
A)高維度數(shù)據(jù)可使得算法泛華能力變得越來(lái)越弱
B)降低高維度數(shù)據(jù)會(huì)對(duì)數(shù)據(jù)有所損傷
C)高維度數(shù)據(jù)增加了運(yùn)算難度
D)高維度數(shù)據(jù)難以可視化
104.[單選題]S市A,B共有兩個(gè)區(qū),人口比例為3:5,據(jù)歷史統(tǒng)計(jì)A的犯罪率為0.01%,B區(qū)為0.015%,現(xiàn)有
一起新案件發(fā)生在S市,那么案件發(fā)生在A區(qū)的可能性有多大?()
A)37.5%
B)32.5%
028.6%
D)26.1%
105.[單選題]層次聚類(lèi)試圖在不同層次上對(duì)數(shù)據(jù)集進(jìn)行劃分,從而形成(_)形結(jié)構(gòu)。
A)圖
B)環(huán)
0網(wǎng)
D)樹(shù)
106.[單選題]以下關(guān)于機(jī)器學(xué)習(xí)描述錯(cuò)誤的是(__)。
A)機(jī)器學(xué)習(xí)的目標(biāo)是使學(xué)得的模型能很好地適用于“新樣本”
B)學(xué)得模型適用于新樣本的能力,稱(chēng)為“泛化”能力
C)具有強(qiáng)泛化能力的模型不能很好地適用于整個(gè)樣本空間
D)一般認(rèn)為,數(shù)據(jù)樣本越多,獲得的模型的泛化能力越強(qiáng)
107.[單選題]下列關(guān)于軟支持向量機(jī)的說(shuō)法正確的是(_)。
A)軟間隔支持向量機(jī)不可應(yīng)用拉格朗日乘子法求解
B)軟間隔支持向量機(jī)和硬間隔支持向量機(jī)完全相同
C)軟間隔支持向量機(jī)只能使用Hinge損失函數(shù)
D)軟間隔支持向量機(jī)的目標(biāo)函數(shù)仍是一個(gè)二次規(guī)劃問(wèn)題
108.[單選題]假設(shè)file是文本文件對(duì)象,下列選項(xiàng)中,哪個(gè)用于讀取一行內(nèi)容()o
A)file,read()
B)file.read(200)
C)file.readline()
D)file.readlines()
109.[單選題]在線性回歸中使用正則項(xiàng),你發(fā)現(xiàn)解的不少coefficient都是0,則這個(gè)正則項(xiàng)可能是
(1).L0-norm;(2).Ll-norm;(3).L2-norm。
A)(1)(2)
B)⑵⑶
0(2)
D)(3)
110.[單選題]下列關(guān)于線性回歸分析中的殘差(Residuals)說(shuō)法正確的是?
A)殘差均值總是為零
B)殘差均值總是小于零
C)殘差均值總是大于零
D)以上說(shuō)法都不對(duì)
111.[單選題](_)在訓(xùn)練的每一輪都要檢查當(dāng)前生成的基學(xué)習(xí)器是否滿足基本條件。
A)支持向量機(jī)
B)Boosting算法
C)貝葉斯分類(lèi)器
D)神經(jīng)網(wǎng)絡(luò)
112.[單選題]數(shù)據(jù)科學(xué)家可能會(huì)同時(shí)使用多個(gè)算法(模型)進(jìn)行預(yù)測(cè),并且最后把這些算法的結(jié)果
集成起來(lái)進(jìn)行最后的預(yù)測(cè)(集成學(xué)習(xí)),以下對(duì)集成學(xué)習(xí)說(shuō)法正確的是:
A)單個(gè)模型之間有高相關(guān)性
B)單個(gè)模型之間有低相關(guān)性
C)在集成學(xué)習(xí)中使用“平均權(quán)重”而不是“投票”會(huì)比較好
D)單個(gè)模型都是用的一個(gè)算法
113.[單選題]對(duì)于下圖,最好的主成分選擇是多少?
p
a0
uL
-Ooooooooooooooo
-e
xd
UJ3
。J。
U
O
OJ
od
dJ
>8
一
e〕
-
n0
E
n0
o
III
O
203040
PrincipalComponent
alt="">
A)7
B)30
035
D)Can,tSay
114.[單選題]下面關(guān)于數(shù)據(jù)粒度的描述不正確的是:
A)粒度是指數(shù)據(jù)倉(cāng)庫(kù)小數(shù)據(jù)單元的詳細(xì)程度和級(jí)別;
B)數(shù)據(jù)越詳細(xì),粒度就越小,級(jí)別也就越高;
C)數(shù)據(jù)綜合度越高,粒度也就越大,級(jí)別也就越高;
D)粒度的具體劃分將直接影響數(shù)據(jù)倉(cāng)庫(kù)中的數(shù)據(jù)量以及查詢(xún)質(zhì)量.
115.[單選題]如右圖所示有向圖,節(jié)點(diǎn)G的馬爾可夫毯為()
A){D.E}
B){I.J}
C){D,E,I,J}
D){D,E,F,H,I,J}
116.[單選題]線性判別分析在二分類(lèi)問(wèn)題上也稱(chēng)為()。
A)線性回歸
B)對(duì)數(shù)幾率回歸
C)Fisher判別分析
D)主成分分析
117.[單選題]兩位同事從上海出發(fā)前往深圳出差,他們?cè)诓煌瑫r(shí)間出發(fā),搭乘的交通工具也不同,能準(zhǔn)
確描述兩者“上海到深圳”距離差別的是()
A)歐式距離
B)余弦距離
C)曼哈頓距離
D)切比雪夫距離
118.[單選題]交叉驗(yàn)證如果設(shè)置K=5,會(huì)訓(xùn)練幾次?()
A)1
B)3
05
D)6
119.[單選題]異常檢測(cè)過(guò)程查找基于()組標(biāo)準(zhǔn)值偏差的異常個(gè)案。
A)單體
B)分類(lèi)
C)聚類(lèi)
D)回歸
120.[單選題]2.當(dāng)訓(xùn)練集很多時(shí),一種更為強(qiáng)大的結(jié)合策略是使用(),即通過(guò)另一個(gè)學(xué)習(xí)器來(lái)進(jìn)
行結(jié)合。
A)學(xué)習(xí)法
B)平均法
C)投票法
D)加權(quán)投票法
121.[單選題]當(dāng)訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)作圖像識(shí)別任務(wù)時(shí),通常會(huì)繪制一張訓(xùn)練集誤差和驗(yàn)證集誤
差圖來(lái)進(jìn)行調(diào)試。在下圖中,最好在哪個(gè)時(shí)間停止訓(xùn)練()
>
A)A
B)B
C)C
D)D
122.[單選題]有監(jiān)督的學(xué)習(xí)和無(wú)監(jiān)督的學(xué)習(xí)的根本區(qū)別在于()
Error
validation
train
Time
A)學(xué)習(xí)過(guò)程是否需要人工干預(yù)
B)學(xué)習(xí)樣本是否需要人工標(biāo)記
C)學(xué)習(xí)結(jié)果是否需要人工解釋
D)學(xué)習(xí)參數(shù)是否需要人工設(shè)置
123.[單選題]哪個(gè)不是本地模式運(yùn)行的個(gè)條件
A)spark.localExecution.enabled=true
B)顯式指定本地運(yùn)行
C)finalStage無(wú)父Stage
D)partition默認(rèn)值
124.[單選題]假如使用一個(gè)較復(fù)雜的回歸模型來(lái)擬合樣本數(shù)據(jù),使用Ridge回歸,調(diào)試正則化參數(shù)
入,來(lái)降低模型復(fù)雜度。若X較小時(shí),關(guān)于偏差(bias)和方差(variance),下列說(shuō)法正確的
是?
A)若人較小時(shí),偏差減小,方差減小
B)若人較小時(shí),偏差減小,方差增大
C)若人較小時(shí),偏差增大,方差減小
D)若X較小時(shí),偏差增大,方差增大
125.[單選題]傳統(tǒng)的機(jī)器學(xué)習(xí)方法包括監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí),其中監(jiān)督學(xué)習(xí)是學(xué)習(xí)給
定標(biāo)簽的數(shù)據(jù)集。請(qǐng)問(wèn)標(biāo)簽為離散的類(lèi)型,稱(chēng)為分類(lèi),標(biāo)簽為連續(xù)的類(lèi)型,稱(chēng)為什么()
A)給定標(biāo)簽
B)離散
C)分類(lèi)
D)回歸
126.[單選題](_)不屬于相關(guān)分析。
A)正相關(guān)
B)負(fù)相關(guān)
C)線性相關(guān)
D)誤差相關(guān)
127.[單選題]下面哪個(gè)不屬于數(shù)據(jù)的屬性類(lèi)型?
A)標(biāo)稱(chēng)
B)序數(shù)
C)區(qū)間
D)相異
128.[單選題]下列表述中,在k-fold交叉驗(yàn)證中關(guān)于選擇K說(shuō)法正確的是
A)較大的K并不總是好的,選擇較大的K可能需要較長(zhǎng)的時(shí)間來(lái)評(píng)估你的結(jié)果
B)相對(duì)于期望誤差來(lái)說(shuō),選擇較大的K會(huì)導(dǎo)致低偏差(因?yàn)橛?xùn)練folds會(huì)變得與整個(gè)數(shù)據(jù)集相似)
C)在交叉驗(yàn)證中通過(guò)最小化方差法來(lái)選擇K值
D)以上都正確
129.[單選題]有關(guān)機(jī)器學(xué)習(xí)分類(lèi)算法的Precision和Recall,以下定義中正確的是(假定tp=true
positive,tn=truenegative,fp=falsepositive,fn=falsenegative)
A)Precision=tp/(tp+fp),Recall=tp/(tp+fn)
B)Precision=tp/(tn+fp),Recall=tp/(tp+fn)
C)Precision=tp/(tn+fn),Recall=tp/(tp+fp)
D)Precision=tp/(tp+fp),Recall=tp/(tn+fn)
130.[單選題]以下關(guān)于大數(shù)據(jù)描述不正確的是(—)。
A)大數(shù)據(jù)成為推動(dòng)經(jīng)濟(jì)轉(zhuǎn)型發(fā)展的新動(dòng)力
B)大數(shù)據(jù)成為重塑?chē)?guó)家競(jìng)爭(zhēng)優(yōu)勢(shì)的新機(jī)遇
C)大數(shù)據(jù)是小數(shù)據(jù)的集合
D)大數(shù)據(jù)成為提升政府治理能力的新途徑
131.[單選題](_)不屬于基于實(shí)例學(xué)習(xí)方法。
A)KNN
B)局部加權(quán)回歸算法
C)基于案例的推理
D)決策樹(shù)算法
132.[單選題]在目標(biāo)識(shí)別中,假定類(lèi)型1為敵方目標(biāo),類(lèi)型2為誘餌(假目標(biāo)),已知先驗(yàn)概率P(l)=0.2和
P(2)=0.8,類(lèi)概率密度函數(shù)如下:則總錯(cuò)誤概率為P(e)為
class="fr-ficfr-dibcursor-hover"
A)0.08
B)0.09
C)0.11
D)0.1
133.[單選題]假設(shè)有矩陣a,則查看該矩陣有幾個(gè)維度的是()。
A)a.ndim
x0Sx<1
p(x@l.閆2-X1<X<2
I0其它
x-114x<2
p(xis2)=<3-x24*42
I0其它
B)a.size
C)a.ndim()
D)a.size()
134.[單選題]半調(diào)輸出技術(shù)可以()
A)改善圖像的空間分辨率
B)改善圖像的幅度分辨率
C)利用抖動(dòng)技術(shù)實(shí)現(xiàn)
D)消除虛假輪廓現(xiàn)象
135.[單選題]數(shù)據(jù)治理任務(wù)通常有三個(gè)部分不包含(_)。
A)主動(dòng)定義或序化規(guī)則
B)接觸數(shù)據(jù)的業(yè)務(wù)流程
C)為數(shù)據(jù)利益相關(guān)者提供持續(xù)
D)跨界的保護(hù)、服務(wù)和應(yīng)對(duì)并解決因不遵守規(guī)則而產(chǎn)生的問(wèn)題
136.[單選題]關(guān)于CNN,以下結(jié)論正確的是()
A)在同樣層數(shù)、每層神經(jīng)元數(shù)量一樣的情況下,CNN比全連接網(wǎng)絡(luò)擁有更多的參數(shù)
B)CNN可以用于非監(jiān)督學(xué)習(xí),但是普通神經(jīng)網(wǎng)絡(luò)不行
C)Pooling層用于減少圖片的空間分辨率
D)接近輸出層的filter主要用于提取圖像的邊緣信息
137.[單選題]下列關(guān)于特征編碼的敘述中,不正確的是()
A)特征編碼是將非數(shù)值型特征轉(zhuǎn)換成數(shù)值型特征的方法
B)數(shù)字編碼與特征的排序無(wú)關(guān)
C)One-Hot編碼中,原始特征有n種取值,轉(zhuǎn)換后就會(huì)產(chǎn)生n列新特征
D)啞變量編碼解決了One-Hot編碼中存在線性關(guān)系的問(wèn)題
138.[單選題]以下哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性()
A)Dropout
B)ReLU
C)卷積函數(shù)
D)隨機(jī)梯度下降
139.[單選題]對(duì)數(shù)幾率回歸(logisticsregression)和一般回歸分析有什么區(qū)別?:
A)對(duì)數(shù)幾率回歸是設(shè)計(jì)用來(lái)預(yù)測(cè)事件可能性的
B)對(duì)數(shù)幾率回歸可以用來(lái)度量模型擬合程度
C)對(duì)數(shù)幾率回歸可以用來(lái)估計(jì)回歸系數(shù)
D)以上所有
140.[單選題]ResNet-50有多少個(gè)卷積層?()
A)48
B)49
C)50
D)51
141.[單選題]()的基本想法是適當(dāng)考慮一部分屬性間的相互依賴(lài)信息,從而既不需要進(jìn)行完全聯(lián)合概
率計(jì)算,又不至于徹底忽略了比較強(qiáng)的屬性依賴(lài)關(guān)系。
A)貝葉斯判定準(zhǔn)則
B)貝葉斯決策論
C)樸素貝葉斯分類(lèi)器
D)半樸素貝葉斯分類(lèi)器
142.[單選題]已知中國(guó)人的血型分布約為A型:30%,B型:20%,0型:40%,AB型00%,則任選一批中國(guó)人作
為用戶(hù)調(diào)研對(duì)象,希望他們中至少有一個(gè)是B型血的可能性不低于90玳那么最少需要選多少人?
A)7
B)9
Oil
D)13
143.[單選題]關(guān)于隨機(jī)森林,說(shuō)法錯(cuò)誤的是:
A)相對(duì)于Boosting系列的Adaboost和GBDT,RF實(shí)現(xiàn)比較簡(jiǎn)單。
B)在訓(xùn)練后,可以給出各個(gè)特征對(duì)于輸出的重要性
0訓(xùn)練高度串行化
D)隨機(jī)采樣,訓(xùn)練出的模型的方差小,泛化能力強(qiáng)
144.[單選題]如果一個(gè)SVM模型出現(xiàn)欠擬合,那么下列哪種方法能解決這一問(wèn)題?
A)增大懲罰參數(shù)C的值
B)減小懲罰參數(shù)C的值
C)減小核系數(shù)(gamma參數(shù))
D)都不正確
145.[單選題]二項(xiàng)式分布的共舸分布是()
A)正態(tài)分布
B)Dirichlet分布
C)Beta分布
D)指數(shù)分布
146.[單選題]當(dāng)訓(xùn)練數(shù)據(jù)很多時(shí),一種更為強(qiáng)大的結(jié)合策略是使用(_),通過(guò)另一個(gè)學(xué)習(xí)器來(lái)進(jìn)
行結(jié)合。
A)投票法
B)平均法
C)學(xué)習(xí)法
D)排序法
147.[單選題]在一個(gè)神經(jīng)網(wǎng)絡(luò)中,確定每個(gè)神經(jīng)元的權(quán)重和偏差很重要。用()方法可以確定神經(jīng)元的
權(quán)重和偏差,從而對(duì)函數(shù)進(jìn)行擬合。
A)隨機(jī)賦值,祈禱它們是正確的
B)搜索所有權(quán)重和偏差的組合,直到得到最佳值
C)賦予一個(gè)初始值,通過(guò)檢杳與真值的誤差,逐步迭代更新權(quán)重
D)以上都不正確
148.[單選題](_)可看做用坐標(biāo)下降法來(lái)最大化對(duì)數(shù)似然下界的過(guò)程。
A)EM算法
B)貝葉斯決策
C)貝葉斯分類(lèi)器
D)邊際似然
149.[單選題]默認(rèn)的存儲(chǔ)級(jí)別()。
A)MEMORY_ONLY
B)MEMORY_ONLYSER
C)MEMORY_AND?DISK
D)MEMORY_AND__DISKSER
150.[單選題]下面對(duì)屬性進(jìn)行離散化的方法為()
A)preprocessing,scale()
B)pd.qcut()
C)pd.shape
D)pgroupby()
151.[單選題]當(dāng)訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)作圖像識(shí)別任務(wù)時(shí),通常會(huì)繪制一張訓(xùn)練集誤差和驗(yàn)證集誤差
圖來(lái)進(jìn)行調(diào)試。在下圖中,最好在哪個(gè)時(shí)間停止訓(xùn)練()
A)A
B)B
C)C
D)D
152.[單選題]預(yù)剪枝是指在決策樹(shù)生成過(guò)程中,對(duì)每個(gè)結(jié)點(diǎn)在劃分(―)進(jìn)行估計(jì)。
A)前
B)中
C)后
D)不估計(jì)
153.[單選題]關(guān)于數(shù)據(jù)重塑的說(shuō)法中,下列選項(xiàng)描述錯(cuò)誤的是()。
A)數(shù)據(jù)重塑可以將DataFrame轉(zhuǎn)換為Series
B)stack。方法可以將列索引轉(zhuǎn)換為行索引
C)對(duì)一個(gè)DataFrame使用stack()方法后返回的一定是一個(gè)Series
D)unstack()方法可以將行索引轉(zhuǎn)換為列索引
154.[單選題]有關(guān)決策樹(shù)的分類(lèi)方法正確的是()
A)決策樹(shù)不能確定對(duì)決策屬性起重要影響的變量
B)決策樹(shù)可以用于發(fā)現(xiàn)多種樣本的特征
C)決策樹(shù)可用于確定相似的樣本
D)決策樹(shù)結(jié)構(gòu)越復(fù)雜越有效
155.[單選題]假如使用一個(gè)較復(fù)雜的回歸模型來(lái)擬合樣本數(shù)據(jù),使用Ridge回歸,調(diào)試正則化參數(shù)
入,來(lái)降低模型復(fù)雜度。若X較大時(shí),關(guān)于偏差(bias)和方差(variance),下列說(shuō)法正確的
是?
A)若入較大時(shí),偏差減小,方差減小
B)若X較大時(shí),偏差減小,方差增大
C)若X較大時(shí),偏差增大,方差減小
D)若X較大時(shí),偏差增大,方差增大
156.[單選題]()是一門(mén)以可視交互為基礎(chǔ),綜合運(yùn)用圖形學(xué)、數(shù)據(jù)挖掘和人機(jī)交互等技術(shù)等多個(gè)學(xué)
科領(lǐng)域的知識(shí),以實(shí)現(xiàn)人機(jī)協(xié)同完成可視化任務(wù)為主要目的分析推理性學(xué)科。
A)科學(xué)可視化
B)可視分析學(xué)
C)數(shù)據(jù)可視化
D)信息可視化
157.[單選題]梯度下降算法的正確步驟是什么()
1)計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差
2)迭代跟新,直到找到最佳權(quán)重
3)把輸入傳入網(wǎng)絡(luò),得到輸出值
4)初始化隨機(jī)權(quán)重和偏差
5)對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,改變相應(yīng)的(權(quán)重)值以減小誤差
A)l,2,3,4,5
B)4,3,1,5,2
03,2,1,5,4
D)5,4,3,2,1
158.[單選題]在一個(gè)n維的空間中,最好的檢測(cè)outlier(離群點(diǎn))的方法是:
A)作正態(tài)分布概率圖
B)作盒形圖
C)馬氏距離
D)作散點(diǎn)圖
159.[單選題]支持向量機(jī)的優(yōu)化問(wèn)題是最小化的平方,這實(shí)現(xiàn)了(_)。
A)幾何間隔為"的最大間隔超平面
B)幾何間隔為的最大間隔超平面
C)幾何間隔為1/的最小間隔超平面
D)幾何間隔為的最小間隔超平面
160.[單選題](_)是一種著名的過(guò)濾式特征選擇方法。
A)k-means
B)k近鄰
C)支持向量機(jī)
D)Relief
161.[單選題]關(guān)于EDA與統(tǒng)計(jì)學(xué)中驗(yàn)證性分析的相關(guān)描述不正確的有(_)。
A)EDA無(wú)需事先假設(shè),驗(yàn)證性分析需要事先假設(shè)
B)探索分析在后,驗(yàn)證性分析在前
C)EDA中采取的方法往往比驗(yàn)證分析簡(jiǎn)單
D)基于EDA是數(shù)據(jù)計(jì)算工作可以分為2個(gè)部分:探索性分析和驗(yàn)證性分析
162.[單選題]采用主成分分析法映射到低維空間,將最小的d-d'個(gè)特征向量舍棄,產(chǎn)生的影響是(
)。
A)使樣本采樣密度增大
B)丟失最優(yōu)解
C)增大噪聲
D)使樣本采樣密度減小
163.[單選題]聚類(lèi)算法屬于。
A)半監(jiān)督學(xué)習(xí)
B)有監(jiān)督學(xué)習(xí)
C)無(wú)監(jiān)督學(xué)習(xí)
D)一種分類(lèi)方法
164.[單選題]關(guān)于k折交叉驗(yàn)證,下列說(shuō)法正確的是?
A)k值并不是越大越好,k值過(guò)大,會(huì)降低運(yùn)算速度
B)選擇更大的k值,會(huì)讓偏差更小,因?yàn)閗值越大,訓(xùn)練集越接近整個(gè)訓(xùn)練樣本
C)選擇合適的k值,能減小驗(yàn)方差
D)以上說(shuō)法都正確
165.[單選題]考慮值集{12243324556826},其四分位數(shù)極差是:
A)31
B)24
C)55
D)3
166.[單選題]PCA和LDA的以下比較哪些是正確的?
A)1和2
B)1和3
C)只有3
D)l、2和3
167.[單選題]下列函數(shù)中,用于沿著軸方向堆疊Pandas對(duì)象的是()0
A)concat()
B)join()
C)merge()
D)combine_first()
168.[單選題]目標(biāo)變量在訓(xùn)練集上的7個(gè)實(shí)際值為[1,1,1,1,0,0,0],目標(biāo)變量的炳近似值是
(log3/7=-0.847,log4/7=-0.560)()
A)0.683
B)-0.683
C)0.724
D)-0.243
169.[單選題]以下說(shuō)法正確的是()
A)Boosting和Bagging都是組合多個(gè)分類(lèi)器投票的方法,二者都是根據(jù)單個(gè)分類(lèi)器的正確率決定其
權(quán)重
B)梯度下降有時(shí)會(huì)陷于局部極小值,但EM算法不會(huì)
C)除了EM算法,梯度下降也可求混合高斯模型的參數(shù)
D)基于最小二乘的線性回歸問(wèn)題中,增加L2正則項(xiàng),總能降低在測(cè)試集上的
MSE誤差
170.[單選題]馬爾可夫隨機(jī)場(chǎng)有一組(_),這是定義在變量子集上的非負(fù)實(shí)函數(shù),主要用于定義
概率分布函數(shù)。
A)損失函數(shù)
B)優(yōu)化函數(shù)
C)激活函數(shù)
D)勢(shì)函數(shù)
171.[單選題]二分類(lèi)問(wèn)題使用—檢驗(yàn)。
A)二項(xiàng)檢驗(yàn)
B)t檢驗(yàn)
C)交叉驗(yàn)證t檢驗(yàn)
D)McNemar檢驗(yàn)
172.[單選題]關(guān)于EM算法正確的是
A)EM算法包括兩步:E算法和M算法
B)EM算法一定能收斂到全局最大值點(diǎn)
C)英文全稱(chēng)是Expectation-Minimization
D)以上都不正確
173.[單選題]請(qǐng)閱讀下面一段程序:
Arr2d=np.empty((4,4))
Foriinrange(4):
arr2d[i]=np.arange(i,i+4)
Arr2d[[0,4],[3,1]]
執(zhí)行上述程序,它最終輸出的結(jié)果為()。
A)array([3.,4.])
B)程序拋出IndexError異常
Oarray([3.,5.1)
D)array([4.,4.])
174.[單選題]下面的交叉驗(yàn)證方法
I.有放回的Bootstrap方法
li.留一個(gè)測(cè)試樣本的交叉驗(yàn)證
lii.5折交叉驗(yàn)證
Iv,重復(fù)兩次的5折教程驗(yàn)證
當(dāng)樣本是1000時(shí),下面執(zhí)行時(shí)間的順序,正確的是
A)i>ii>iii>iv
B)ii>iv>iii>i
C)iv>i>ii>iii
D)ii>iii>iv>i
175.[單選題]下面是三個(gè)散點(diǎn)圖(A,B,C,從左到右)和和手繪的邏輯回歸決策邊界。
能得出什么結(jié)論,1與第二和第三圖相比,第一幅圖中的訓(xùn)練誤差最大。
2該回歸問(wèn)題的最佳模型是最后(第三個(gè))圖,因?yàn)樗哂凶钚〉挠?xùn)練誤差(零)。
3第二個(gè)模型比第一個(gè)和第三個(gè)更強(qiáng),它在不可見(jiàn)數(shù)據(jù)中表現(xiàn)最好。
4與第一種和第二種相比,第三種模型過(guò)度擬合了。
5所有的模型執(zhí)行起來(lái)都一樣,因?yàn)闆](méi)有看到測(cè)試數(shù)據(jù)。
ABC
alt="">根據(jù)可視化后的結(jié)果,
A)1和3
B)1和3
01,3和4
0)5
176.[單選題]下面關(guān)于Z-Buffer算法的論斷哪一條不正確?()
A)深度緩存算法并不需要開(kāi)辟一個(gè)與圖像大小相等的深度緩存數(shù)組
B)深度緩存算法不能用于處理對(duì)透明物體的消隱
C)深度緩存算法能并行實(shí)現(xiàn)
D)深度緩存算法中沒(méi)有對(duì)多邊形進(jìn)行排序
177.[單選題]建立一個(gè)模型,通過(guò)這個(gè)模型根據(jù)已知的變量值來(lái)預(yù)測(cè)其他某個(gè)變量值屬于數(shù)據(jù)挖掘的
哪一類(lèi)任務(wù)?
A)根據(jù)內(nèi)容檢索
B)建模描述
C)預(yù)測(cè)建模
D)尋找模式和規(guī)則
178.[單選題]下圖中判斷未知綠圓的類(lèi)別,體現(xiàn)了哪個(gè)機(jī)器學(xué)習(xí)算法的思想?()
A)決策樹(shù)
B)貝葉斯分類(lèi)器
C)支持向量機(jī)
D)K近鄰算法
179.[單選題]下列選項(xiàng)中,關(guān)于Zookeeper可靠性含義說(shuō)法正確的是?()
A)可靠性通過(guò)主備部署模式實(shí)現(xiàn)
B)可靠性是指更新更新只能成功或者失敗,沒(méi)有中間狀態(tài)
C)可靠性是指無(wú)論哪個(gè)server,對(duì)外展示的均是同一個(gè)視圖
D)可靠性是指一個(gè)消息被一個(gè)Server接收,它將被所有的Server接受
180.[單選題]屬于無(wú)監(jiān)督學(xué)習(xí)的機(jī)器學(xué)習(xí)算法是()
A)支持向量機(jī)
B)Logistic回歸
C)層次聚類(lèi)
D)決策樹(shù)
181.[單選題]以下哪種方法能最佳地適應(yīng)邏輯回歸中的數(shù)據(jù)?
A)LeastSquareError
B)MaximumLikelihood
C)Jaccarddistance
D)BothAandB
182.[單選題]如果線性回歸模型中的隨機(jī)誤差存在異方差性,那么參數(shù)的OLS估計(jì)量是()
A)無(wú)偏的,有效的
B)無(wú)偏的,非有效的
C)有偏的,有效的
D)有偏的,非有效的
183.[單選題]如下邏輯回歸圖顯示了3種不同學(xué)習(xí)速率值的代價(jià)函數(shù)和迭代次數(shù)之間的關(guān)系(不同的
顏色在不同的學(xué)習(xí)速率下顯示不同的曲線)。
為了參考而保存圖表后,忘記其中不同學(xué)習(xí)速率的值。現(xiàn)在需要曲線的傾斜率值之間的關(guān)系。
以下哪一個(gè)是正確的?
注:
1藍(lán)色的學(xué)習(xí)率是L1
2紅色的學(xué)習(xí)率是L2
3綠色學(xué)習(xí)率為1L3
alt="">
A)L1>L2>L3
B)L1=L2=L3
C)L1
D)都不是
184.[單選題]已知數(shù)組trans_cnt[l,2,3,4],以下哪一個(gè)表達(dá)式是求數(shù)組的元素?cái)?shù)量:
A)type(trans_cnt)
B)length(trans_cnt)
C)coalesce(trans_cnt)
D)size(trans_cnt)
185.[單選題](_)也稱(chēng)為“基于密度的聚類(lèi)”
A)原型聚類(lèi)
B)密度聚類(lèi)
C)層次聚類(lèi)
D)AGNES
186.[單選題]以下有關(guān)神經(jīng)網(wǎng)絡(luò)的說(shuō)法錯(cuò)誤的是()
A)MP模型在隱藏層和輸出層都對(duì)神經(jīng)元進(jìn)行激活函數(shù)處理
B)使用多層功能神經(jīng)元可以解決非線性可分問(wèn)題
C)神經(jīng)網(wǎng)絡(luò)“學(xué)”到的東西,蘊(yùn)含在連接權(quán)值和閾值中
D)BP算法基于梯度下降策略
187.[單選題]移動(dòng)端開(kāi)發(fā)中常用的數(shù)據(jù)庫(kù)是
A)MySQL
B)Oracle
OSQLite
D)MongoDB
188.[單選題]若A與B是任意的兩個(gè)事件,且P(AB)=P(A)?P(B),則可稱(chēng)事件A與B()。
A)等價(jià)
B)互不相容
C)相互獨(dú)立
D)相互對(duì)立
189.[單選題]無(wú)人超市采用了()等多種智能技術(shù),消費(fèi)者在購(gòu)物流程中將依次體驗(yàn)自動(dòng)身份識(shí)別、
自助導(dǎo)購(gòu)服務(wù)、互動(dòng)式營(yíng)銷(xiāo)、商品位置偵測(cè)、線上購(gòu)物車(chē)清單自動(dòng)生成和移動(dòng)支付???
A)計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí)算法、傳感器定位、圖像分析
B)虛擬技術(shù),傳感器定位、圖像分析
C)聲紋識(shí)別技術(shù)、計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí)算法、
D)圖像識(shí)別、人臉識(shí)別、物體檢測(cè)、圖像分析
190.[單選題]代碼selectbin(17)的結(jié)果是下面哪一個(gè):
A)101
B)10001
0111
D)1001
191.[單選題]根據(jù)某個(gè)詞所連接所有詞匯的權(quán)重,重新計(jì)算該詞匯的權(quán)重,然后把重新計(jì)算的權(quán)重
傳遞下去。直到這種變化達(dá)到均衡態(tài),權(quán)重?cái)?shù)值不再發(fā)生改變。這種關(guān)鍵詞提取算法叫做()。
A)TF-IDF
B)TextRank
OLDA
D)PCA
192.[單選題]關(guān)于BP算法優(yōu)缺點(diǎn)的說(shuō)法錯(cuò)誤的是()。
A)BP算法不能用于處理非線性分類(lèi)問(wèn)題
B)BP算法容易陷入局部最小值
C)BP算法訓(xùn)練時(shí)間較長(zhǎng)
D)BP算法訓(xùn)練時(shí)候可能由于權(quán)值調(diào)整過(guò)大使得激活函數(shù)達(dá)到飽和
193.[單選題]貝葉斯模型平均基于后驗(yàn)概率來(lái)為不同的模型賦予權(quán)重,可視為(_)的一種特殊實(shí)現(xiàn)
O
A)加權(quán)平均法
B)投票法
C)排序法
D)學(xué)習(xí)法
194.[單選題]()是指數(shù)據(jù)減去一個(gè)總括統(tǒng)計(jì)量或模型擬合值時(shí)的殘余部分
A)極值
B)標(biāo)準(zhǔn)值
C)平均值
D)殘值
195.[單選題]下列關(guān)于線性模型的描述錯(cuò)誤的是()。
A)支持向量機(jī)的判別函數(shù)一定屬于線性函數(shù)
B)在樣本為某些分布情況時(shí),線性判別函數(shù)可以成為最小錯(cuò)誤率或最小風(fēng)險(xiǎn)意義
下的最優(yōu)分類(lèi)器
C)在一般情況下,線性分類(lèi)器只能是次優(yōu)分類(lèi)器
D)線性分類(lèi)器簡(jiǎn)單而且在很多期情況下效果接近最優(yōu),所以應(yīng)用比較廣泛
196.[單選題]樸素貝葉斯的訓(xùn)練過(guò)程就是基于訓(xùn)練集D來(lái)估計(jì)類(lèi)的。P(c),并為每個(gè)屬性估計(jì)條件
概率
A)后驗(yàn)概率
B)先驗(yàn)概率
C)條件概率
D)聯(lián)合概率
197.[單選題]使用。定義的數(shù)據(jù)類(lèi)型是()。
A)字典
B)集合
0列表
D)字典或集合
198.[單選題]若有統(tǒng)計(jì)表:包含該詞的文檔數(shù)(億)IDFTFTDF中國(guó)62.30.6030.0121蜜蜂
0.4842.7130.0543養(yǎng)殖0.9732.410O0482那么這篇文章的關(guān)鍵詞是(_)。
A)中國(guó)
B)蜜蜂
C)養(yǎng)殖
D)不知道
199.[單選題]在BMP格式、GIF格式、TIFF格式和JPEG格式中,下面哪個(gè)選項(xiàng)正確?
A)表示同一副圖像,BMP格式使用的數(shù)據(jù)量最多;
B)GIF格式獨(dú)立于操作系統(tǒng);
C)每種格式都有文件頭,其中TIFF格式的最復(fù)雜;
D)一個(gè)JPEG格式的數(shù)據(jù)文件中可存放多幅圖像;
200.[單選題]下列關(guān)于支持向量的說(shuō)法,正確的是()。
A)到分類(lèi)超平面的距離最近的且滿足一定條件的幾個(gè)訓(xùn)練樣本點(diǎn)是支持向量
B)訓(xùn)練集中的所有樣本點(diǎn)都是支持向量
C)每一類(lèi)樣本集中都分別只有一個(gè)支持向量
D)支持向量的個(gè)數(shù)越多越好
201.[單選題]線性判別分析設(shè)法將樣例投影到—直線上,使得同類(lèi)樣例的投影點(diǎn)盡可能
A)一條;接近
B)兩條;接近
C)一條;遠(yuǎn)離
D)兩條;原理
202.[單選題]在邏輯回歸輸出與目標(biāo)對(duì)比的情況下,以下評(píng)估指標(biāo)中哪一項(xiàng)不適用?
A)AUC-R0C
B)準(zhǔn)確度
C)Logloss
D)均方誤差
203.[單選題]下面不屬于數(shù)據(jù)科學(xué)家應(yīng)具備的能力有(_)。
A)掌握機(jī)器學(xué)習(xí)
B)數(shù)量掌握數(shù)據(jù)科學(xué)中常用的技術(shù)與工具
C)有良好的身體素質(zhì)
D)有豐富的編程經(jīng)驗(yàn)
204.[單選題]半監(jiān)督學(xué)習(xí)不包括
A)直推學(xué)習(xí)
B)純半監(jiān)督學(xué)習(xí)
C)主動(dòng)學(xué)習(xí)
D)圖半監(jiān)督學(xué)習(xí)
205.[單選題]()不屬于特征選擇的標(biāo)準(zhǔn)方法。
A)散入
B)過(guò)濾
C)包裹
D)抽樣
206.[單選題]對(duì)于低通和高通巴特沃斯濾波器敘述不正確的是?
A)均有相同的截止頻率;
B)均能減弱振鈴效應(yīng);
C)處理后的圖像均比用理想低通和高通處理的要過(guò)渡光滑一些;
D)都可用于消除虛假輪廓;
207.[單選題]對(duì)于線性回歸模型,包括附加變量在內(nèi),以下的可能正確的是:
A)1和2
B)1和3
02和4
D)以上都不是
208.[單選題]下列關(guān)于HSV色彩空間中描述不正確的是()。
A)H表示的是色調(diào),指的是光的顏色
B)S表示的是飽和度,指的色彩的深淺
C)V表示的是亮度,指的是光的明暗
D)HSV色彩空間稱(chēng)為五角錐體模型
209.[單選題]以下哪種激活函數(shù)可以導(dǎo)致梯度消失()
A)ReLU
B)Tanh
C)Leaky
D)其他都不是
210.[單選題]采樣分析的精確性隨著采樣隨機(jī)性的增加而(),但與樣本數(shù)量的增加關(guān)系
不大。
A)降低
B)不變
C)提高
D)無(wú)關(guān)
211.[單選題]假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型,可能遇到一個(gè)問(wèn)題,Logistic回歸需
要很長(zhǎng)時(shí)間才能訓(xùn)練,如果對(duì)相同的數(shù)據(jù)進(jìn)行邏輯回歸,則花費(fèi)更少的時(shí)間,并給出比較相似的精度的
方法是()。
A)降低學(xué)習(xí)率,減少選代次數(shù)
B)降低學(xué)習(xí)率,增加迭代次數(shù)
C)提高學(xué)習(xí)率,增加迭代次數(shù)
D)增加學(xué)習(xí)率,減少迭代次數(shù)
212.[單選題]()選擇成為支持向量機(jī)的最大變數(shù)。
A)核函數(shù)
B)樣本空間
C)模型
D)算法
213.[單選題]研究某超市銷(xiāo)售記錄數(shù)據(jù)后發(fā)現(xiàn),買(mǎi)啤酒的人很大概率也會(huì)購(gòu)買(mǎi)尿布,這種屬于數(shù)據(jù)
挖掘的那類(lèi)問(wèn)題()
A)關(guān)聯(lián)規(guī)則發(fā)現(xiàn)
B)聚類(lèi)
C)分類(lèi)
D)自然語(yǔ)言處理
214.[單選題]目前移動(dòng)設(shè)備主流的屏幕幀率是每秒()幀
A)24
B)30
060
D)120
215.[單選題]要想讓機(jī)器具有智能,必須讓機(jī)器具有知識(shí)。因此,在人工智能中有一個(gè)研究領(lǐng)域
,主要研究計(jì)算機(jī)如何自動(dòng)獲取知識(shí)和技能,實(shí)現(xiàn)自我完善,這門(mén)研究分支學(xué)科叫()。:]*
A)專(zhuān)家系統(tǒng)
B)機(jī)器學(xué)習(xí)
C)神經(jīng)網(wǎng)絡(luò)
D)模式識(shí)別
216.[單選題]信息熠是度量樣本集合—最常用的一種指標(biāo)。
A)精確度
B)準(zhǔn)確率
C)召回率
D)純度
217.[單選題]一個(gè)輸入為(32,32,3)的數(shù)據(jù)集,通過(guò)一個(gè)大小為2X2的不重疊最大池化層,輸出
()O
A)(28,28,8)
B)(16,16,8)
C)(28,28,3)
D)(16,16,3)
218.[單選題]在構(gòu)建一個(gè)基于決策樹(shù)模型時(shí),使用信息增益informationgain作為決策樹(shù)節(jié)點(diǎn)屬性選
擇的標(biāo)準(zhǔn),以下圖片中哪一個(gè)屬性具信息增益最大:
A)Outlook
B)Humidity
C)Windy
D)Temperature
219.[單選題]在線性回歸中使用正則項(xiàng),你發(fā)現(xiàn)解的不少coefficient都是0,則這個(gè)正則項(xiàng)可能是(
)
1).L0-norm;(2).Ll-norm;(3).L2-normo
A)(1)(2)
B)(2)(3)
0(2)
D)(3)
220.[單選題]()算法的訓(xùn)練數(shù)據(jù)集部分有特征有標(biāo)簽,部分有特征無(wú)標(biāo)簽
A)有監(jiān)督學(xué)習(xí)
B)半監(jiān)督學(xué)習(xí)
C)無(wú)監(jiān)督學(xué)習(xí)
D)強(qiáng)化學(xué)習(xí)
221.[單選題]下列關(guān)于異方差(Heteroskedasticity)說(shuō)法正確的是?
A)線性回歸具有不同的誤差項(xiàng)
B)線性回歸具有相同的誤差項(xiàng)
C)線性回歸誤差項(xiàng)為零
D)以上說(shuō)法都不對(duì)
222.[單選題]以下說(shuō)法正確的是()
A)Boosting和Bagging都是組合多個(gè)分類(lèi)器投票的方法,二者都是根據(jù)單個(gè)分
B)梯度下降有時(shí)會(huì)陷于局部極小值,但EM算法不會(huì)
C)除了EM算法,梯度下降也可求混合高斯模型的參數(shù)
D)基于最小二乘的線性回歸問(wèn)題中,
223.[單選題](_)是指為最小化總體風(fēng)險(xiǎn),只需在每個(gè)樣本上選擇能使特定條件風(fēng)險(xiǎn)最小的類(lèi)別標(biāo)
記。
A)支持向量機(jī)
B)間隔最大化
C)線性分類(lèi)器
D)貝葉斯判定準(zhǔn)則
224.[單選題]決策樹(shù)中的分類(lèi)結(jié)果是最末端的節(jié)點(diǎn),這些節(jié)點(diǎn)稱(chēng)為?()口*
A)根節(jié)點(diǎn)
B)父節(jié)點(diǎn)
C)子節(jié)點(diǎn)
D)葉節(jié)點(diǎn)
225.[單選題]讓學(xué)習(xí)器不依賴(lài)外界交互、自動(dòng)地利用未標(biāo)記樣本來(lái)提升學(xué)習(xí)性能,就是()?
A)監(jiān)督學(xué)習(xí)
B)倍監(jiān)督學(xué)習(xí)
C)半監(jiān)督學(xué)習(xí)
D)無(wú)監(jiān)督學(xué)習(xí)
226.[單選題]下列選項(xiàng)中屬于感知技術(shù)的是()
A)機(jī)器學(xué)習(xí)技術(shù)和計(jì)算實(shí)施技術(shù)
B)計(jì)算實(shí)施技術(shù)和語(yǔ)音識(shí)別技術(shù)
C)語(yǔ)音識(shí)別技術(shù)和機(jī)器視覺(jué)
D)機(jī)器視覺(jué)和機(jī)器學(xué)習(xí)技術(shù)
227.[單選題]隨著集成中個(gè)體分類(lèi)器(相互獨(dú)立)數(shù)目T的增大,集成的錯(cuò)誤率將呈—下降,最終
趨向于零
A)指數(shù)級(jí)
B)對(duì)數(shù)級(jí)
C)線性級(jí)
D)平方級(jí)
228.[單選題]第一個(gè)成功應(yīng)用的專(zhuān)家系統(tǒng)是()
A)ELIZA
B)Dendral
C)Xeon
D)Deppepblue
229.[單選題]現(xiàn)實(shí)中往往會(huì)遇到“不完整”的訓(xùn)練樣本,在這種存在屬性變量值未知的情形下,可
用(_)。
A)邊際似然
B)EM算法
C)貝葉斯決策
D)貝葉斯分類(lèi)器
230.[單選題]以下哪條語(yǔ)句定義了一個(gè)Python字典()。
A){1,2,3)
B)[1,2,3]
0(1,2,3)
D){}
231.[單選題]增加以下哪些超參數(shù)可能導(dǎo)致隨機(jī)森林模型過(guò)擬合數(shù)據(jù)()(1).決策樹(shù)的數(shù)量;
(2).決策樹(shù)的深度;(3).學(xué)習(xí)率。
A)(l)
B)(2)
0(3)
D)(2)(3)
232.[單選題]假設(shè)我們對(duì)西瓜的色澤、根蒂和紋理等特征一無(wú)所知,按照常理來(lái)說(shuō),西瓜是好瓜的
概率是60九那么這個(gè)好瓜的概率P就被稱(chēng)為()
A)先驗(yàn)概率
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年自然教學(xué)個(gè)人計(jì)劃
- 2025年度診所與醫(yī)護(hù)人員合作醫(yī)療責(zé)任合同
- 二零二五年度市政道路施工安全責(zé)任協(xié)議書(shū)
- 二零二五年度住宅小區(qū)物業(yè)管理委托合同(含公共區(qū)域租賃)
- 2025年度鋼結(jié)構(gòu)施工安全責(zé)任及應(yīng)急預(yù)案協(xié)議
- 二零二五年度銀行與融資擔(dān)保機(jī)構(gòu)跨境融資合作協(xié)議
- 二零二五年度建筑用復(fù)合材料采購(gòu)合同
- 酒店與客人簽訂的2025年度客房設(shè)施損壞賠償協(xié)議
- 2025年度能源企業(yè)新員工入職合同與可持續(xù)發(fā)展協(xié)議
- 二零二五年度起重機(jī)維修與品牌戰(zhàn)略實(shí)施合同
- 煤礦機(jī)電維護(hù)工職業(yè)技能理論考試題庫(kù)150題(含答案)
- 《走進(jìn)汽車(chē)》課件
- 中國(guó)充電樁行業(yè)運(yùn)營(yíng)趨勢(shì)及投資價(jià)值評(píng)估研究報(bào)告
- 2025年小紅書(shū)品牌博主合作合同
- 2025年華能銅川照金煤電有限公司招聘筆試參考題庫(kù)含答案解析
- 2025年危化企業(yè)安全教育培訓(xùn)計(jì)劃
- 《HR的成長(zhǎng)之路》課件
- 2025年山東浪潮集團(tuán)有限公司招聘筆試參考題庫(kù)含答案解析
- U8UAP開(kāi)發(fā)手冊(cè)資料
- GB 17681-2024危險(xiǎn)化學(xué)品重大危險(xiǎn)源安全監(jiān)控技術(shù)規(guī)范
- 2018NFPA10便攜式滅火器標(biāo)準(zhǔn)
評(píng)論
0/150
提交評(píng)論