2023年人工智能基礎(chǔ)知識考試題庫(共計500題)_第1頁
2023年人工智能基礎(chǔ)知識考試題庫(共計500題)_第2頁
2023年人工智能基礎(chǔ)知識考試題庫(共計500題)_第3頁
2023年人工智能基礎(chǔ)知識考試題庫(共計500題)_第4頁
2023年人工智能基礎(chǔ)知識考試題庫(共計500題)_第5頁
已閱讀5頁,還剩160頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

PAGEPAGE1652023年人工智能基礎(chǔ)知識考試題庫(共計500題)一、單選題1.設(shè)A是方陣,如有矩陣關(guān)系式AB=AC,則必有()A、A=0B、B!=C時A=0C、A!=0時B=CD、|A|!=0時B=C答案:D2.在安裝Linux操作系統(tǒng)時,必須創(chuàng)建的兩個分區(qū)?A、/和/bootB、/和/swapC、/home和/usrD、/var和/trap答案:B解析:解析:1,/,根分區(qū),一般所有文件都放在根目錄下。2,swap,虛擬內(nèi)存,交換分區(qū),一般大小為機器內(nèi)存的1-2倍。起碼有如上兩個分區(qū)才可以安裝linux系統(tǒng)3.E.A.Feigenbaum等人在著名的《人工智能手冊》(第三卷,把機器學習劃分為:機械學習、示教學習、類比學習和()A、符號主義學習B、監(jiān)督學習C、無監(jiān)督學習D、歸納學習答案:D解析:E.A.Feigenbaum等人在著名的《人工智能手冊》(第三卷,把機器學習劃分為:機械學習、示教學習、類比學習和歸納學習。4.在一個神經(jīng)網(wǎng)絡(luò)中,下面哪種方法可以用來處理過擬合?A、DropoutB、分批歸一化(BatchNormalization)C、正則化(regularization)D、都可以答案:D5.下列哪項不是知識圖譜構(gòu)建的主要技術(shù)()A、命名實體識別B、實體鏈接C、關(guān)系抽取D、詞性標注答案:D解析:知識圖譜構(gòu)建的不太利用詞性標注6.LVW屬于哪種特征選擇方法(___)A、包裹式B、啟發(fā)式C、嵌入式D、過濾式答案:A解析:見算法解析7.以下()屬于NoSQL數(shù)據(jù)庫中Key-Value的缺點。A、數(shù)據(jù)無結(jié)構(gòu)B、查詢性能不高,缺乏統(tǒng)一查詢語法C、功能相對有限D(zhuǎn)、功能相對有限,不易于做分布式集群答案:A8.下面是一段將圖像轉(zhuǎn)換為向量的函數(shù)img2vector。該函數(shù)創(chuàng)建1×1024的NumPy數(shù)組,然后打開給定的文件,循環(huán)讀出文件的前32行,并將每行的頭32個字符值存儲在NumPy數(shù)組中,最后返回數(shù)組。請問填充在空白處的代碼應(yīng)該是哪個。defimg2vector(filename):returnVect=zeros((1,1024))fr=open(filename)foriinrange(32):______________________________forjinrange(32):returnVect[0,32*i+j]=int(lineStr[j])returnreturnVectA、lineStr=fr.readlines()B、lineStr=fr.read_line()C、lineStr=readline()D、lineStr=fr.readline()答案:D解析:讀取一行的python方法是.readline()9.規(guī)則學習的目標是產(chǎn)生一個能覆蓋盡可能多的樣例的規(guī)則集,最直接的做法是()A、序貫覆蓋B、剪枝優(yōu)化C、假設(shè)驗證D、預(yù)測分布答案:A10.下面對強化學習、有監(jiān)督學習和無監(jiān)督學習描述正確的是A、都是人工智能的學習算法B、都是深度學習的學習算法C、都需要標注數(shù)據(jù)D、都不需要標注信息答案:A11.關(guān)于python類說法錯誤的是()。A、類的實例方法必須創(chuàng)建對象后才可以調(diào)用B、類的實例方法必須創(chuàng)建對象前才可以調(diào)用C、類的類方法可以用對象和類名來調(diào)用D、類的靜態(tài)屬性可以用類名和對象來調(diào)用答案:B12.如果將時間序列繪制成圖,時間序列通常會表現(xiàn)出以下特征中的一種多多種,()、離群值、季節(jié)性周期變化。A、聚合B、趨勢C、連續(xù)D、回歸答案:B13.哪個范數(shù)指向量中非零元素的個數(shù)?A、p范數(shù)B、0范數(shù)C、1范數(shù)D、2范數(shù)答案:B14.DNN不是適合處理圖像問題是因為“維數(shù)災(zāi)難”,那么“維數(shù)災(zāi)難”會帶來什么問題呢:A、網(wǎng)絡(luò)結(jié)構(gòu)過于復(fù)雜B、DNN根本不能處理圖像問題C、內(nèi)存、計算量巨大、訓練困難D、神經(jīng)元數(shù)量下降,所以精度下降答案:C解析:“維數(shù)災(zāi)難”會帶來內(nèi)存、計算量巨大、訓練困難等問題。15.擲2n+1次硬幣,正面向上次數(shù)多于反面向上次數(shù)的概率是()。A、0.5B、n/(2n+1)C、(n-1)/(2n+1)D、(n+1)/(2n+1)答案:A解析:正面多于反面的概率應(yīng)與反面多于正面的概率一樣,又因拋2n+1次硬幣,故正反面次數(shù)不可能一樣,故二者概率均為0.5(亦可根據(jù)伯努利分布求解)16.以下關(guān)于回歸算法描述中不正確的是A、最小二乘法可以求解線性回歸問題B、梯度下降法可以求解線性回歸問題C、利用最小二乘法求解線性回歸問題可能會出現(xiàn)局部最優(yōu)解D、學習率是梯度下降法的重要參數(shù)答案:C解析:線性最小二乘問題通過法方程解出來的一定是全局最優(yōu)解,事實上這是二次泛函的優(yōu)化問題(更一般一點,這是凸優(yōu)化),不會出現(xiàn)多個孤立的局部最優(yōu)解17.為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成()A、數(shù)字B、字符C、符號D、英文答案:A解析:為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成數(shù)字18.下列不屬于人工智能學派的是A、符號主義B、行為主義C、機會主義D、連接主義答案:C解析:人工智能學派為符號主義學派、連接主義學派、行為主義學派19.“相似度度量”,距離越大,相似度()A、無關(guān)B、越小C、越大D、相等答案:B20.關(guān)于語音識別服務(wù)中的一句話識別指的是,用于短語音的同步識別。一次性上傳整個音頻,響應(yīng)中即返回識別結(jié)果。A、TRUEB、FALSE答案:A21.()算法假設(shè)聚類結(jié)構(gòu)能通過樣本分布的緊密程度確定A、原型聚類B、密度聚類C、層次聚類答案:B22.下面對誤差反向傳播(errorbackpropagation,BP)描述不正確的是A、BP算法是一種將輸出層誤差反向傳播給隱藏層進行參數(shù)更新的方法B、BP算法將誤差從后向前傳遞,獲得各層單元所產(chǎn)生誤差,進而依據(jù)這個誤差來讓各層單元修正各單元參數(shù)C、對前饋神經(jīng)網(wǎng)絡(luò)而言,BP算法可調(diào)整相鄰層神經(jīng)元之間的連接權(quán)重大小D、在BP算法中,每個神經(jīng)元單元可包含不可偏導的映射函數(shù)答案:D23.假設(shè)一個具有3個神經(jīng)元和輸入為[1,2,3]的簡單MLP模型。輸入神經(jīng)元的權(quán)重分別為4,5和6。假設(shè)激活函數(shù)是一個線性常數(shù)值3(激活函數(shù)為:y=3x)。輸出是什么?A、32B、643C、96D、$48答案:C24.遺傳算法借鑒的生物進化的三個基本原則是A、兩性繁衍突變進化B、適者生存突變進化C、適者生存兩性繁衍進化D、適者生存兩性繁衍突變答案:D25.關(guān)于列表數(shù)據(jù)結(jié)構(gòu),下面描述正確的是A、可以不按順序查找元素B、必須按順序插入元素C、不支持in運算符D、所有元素類型必須相同答案:A解析:關(guān)于列表數(shù)據(jù)結(jié)構(gòu),26.為數(shù)據(jù)的總體分布建模;把多維空間劃分成組等問題屬于數(shù)據(jù)挖掘的哪一類任務(wù)?()A、探索性數(shù)據(jù)分析B、建模描述C、預(yù)測建模D、尋找模式和規(guī)則答案:B27.構(gòu)建一個神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入。下列哪一種架構(gòu)有反饋連接?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、限制玻爾茲曼機D、都不是答案:A28.()是人工智能地核心,是使計算機具有智能地主要方法,其應(yīng)用遍及人工智能地各個領(lǐng)域。A、深度學習B、機器學習C、人機交互D、智能芯片答案:B29.人工神經(jīng)網(wǎng)絡(luò)與生物神經(jīng)網(wǎng)絡(luò)的關(guān)系:A、完全拷貝B、一點點關(guān)系都沒有C、人工神經(jīng)網(wǎng)絡(luò)受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)D、同一事物的兩個名稱答案:C解析:人工神經(jīng)網(wǎng)絡(luò)受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)30.NaveBayes(樸素貝葉斯)是一種特殊的Bayes分類器,特征變量是X,類別標簽是C,它的一個假定是()A、各類別的先驗概率P(C)是相等的B、以0為均值,sqr(2)/2為標準差的正態(tài)分布C、特征變量X的各個維度是類別條件獨立隨機變量D、P(X|C)是高斯分布答案:C31.關(guān)于k折交叉驗證,下列說法正確的是?()A、k值并不是越大越好,k值過大,會降低運算速度B、選擇更大的k值,會讓偏差更小,因為k值越大,訓練集越接近整個訓練樣本C、選擇合適的k值,能減小驗方差D、以上說法都正確答案:D32.關(guān)于“與/或”圖表示法的敘述中,正確的是:。A、“與/或”圖就是用“AND”和“OR”連續(xù)各個部分的圖形,用來描述各部分的因果關(guān)系。B、“與/或”圖就是用“AND”和“OR”連續(xù)各個部分的圖形,用來描述各部分之間的不確定關(guān)系。C、“與/或”圖就是用“與”節(jié)點和“或”節(jié)點組合起來的樹形圖,用來描述某類問題的層次關(guān)系。D、“與/或”圖就是用“與”節(jié)點和“或”節(jié)點組合起來的樹形圖,用來描述某類問題的求解過程。答案:D33.以下選項中,不是Python語言保留字的是A、whileB、exceptC、doD、pass答案:C解析:do不屬于python保留字34.均方誤差有非常好的幾何意義,它對應(yīng)了常用的()A、歐氏距離B、曼哈頓距離C、切比雪夫距離D、馬氏距離答案:A解析:數(shù)學基礎(chǔ)35.()是利用計算機將一種自然語言(源語言)轉(zhuǎn)換為另一種自然語言(目標語言)的過程。A、文本識別B、文本分類C、機器翻譯D、問答系統(tǒng)答案:C36.HBase依賴()提供消息通信機制A、ZookeeperB、ChubbyC、RPCD、Socket答案:A37.二分搜索算法是利用()實現(xiàn)的算法。A、分治策略B、動態(tài)規(guī)劃法C、貪心法D、回溯法答案:A38.從已知事實出發(fā),通過規(guī)則庫求得結(jié)論的產(chǎn)生式系統(tǒng)的推理方式是A、正向推理B、反向推理C、雙向推理答案:A39.在人工神經(jīng)網(wǎng)絡(luò)算法中,不屬于實現(xiàn)“人工神經(jīng)元”的方法的有()。A、感知器B、線性單元C、Sigmoid單元D、Untied單元答案:D40.在語音識別中,按照從微觀到宏觀的順序排列正確的是()。A、幀-狀態(tài)-音素-單詞B、幀-音素-狀態(tài)-單詞C、音素-幀-狀態(tài)-單詞D、幀-音素-單詞-狀態(tài)答案:A41.()中往往存在缺失值、噪聲、錯誤或虛假數(shù)據(jù)等質(zhì)量問題。A、零次數(shù)據(jù)B、一次數(shù)據(jù)C、二次數(shù)據(jù)D、三次數(shù)據(jù)答案:A42.函數(shù)f(x)=x^3-3x^2-9x+k在區(qū)間[-4,4]上的最大值為10,則其最小值為()A、-10B、-71C、-15答案:B43.關(guān)于Boltzmann描述錯誤的是(___)A、基于能量的模型;B、優(yōu)化目標函數(shù)為最小化能力函數(shù);C、分為顯層和隱層;D、神經(jīng)元都是數(shù)值型;答案:D解析:見算法解析44.關(guān)于Boosting,Bagging和隨機森林,以下說法錯誤的是A、從偏差-方差分解的角度看,Boosting主要關(guān)注降低偏差B、從偏差-方差分解的角度看,Bagging主要關(guān)注降低方差C、隨機森林簡單、容易實現(xiàn)、計算開銷小D、Boosting不能基于泛化性能相當弱的學習器構(gòu)建出很強的集成答案:D解析:從偏差一方差分解的角度看,Boosting主要關(guān)住降低偏差,因此Boosting能基于泛化性能相當弱的學習器構(gòu)建出很強的集成45.()的人工神經(jīng)網(wǎng)絡(luò)適合學習、分類等應(yīng)用。A、反饋型B、隨機型網(wǎng)絡(luò)C、自組織競爭型D、前向型答案:D46.在方差分析中,()反映的是樣本數(shù)據(jù)與其組平均值的差異。A、總離差B、組間誤差C、抽樣誤差D、組內(nèi)誤差答案:D47.有關(guān)機器學習分類算法的Precision和Recall,以下定義中正確的是(假定tp=truepositive,tn=truenegative,fp=falsepositive,fn=falsenegative)()A、Precision=tp/(tp+fp),Recall=tp/(tp+fn)B、Precision=tp/(tn+fp),Recall=tp/(tp+fn)C、Precision=tp/(tn+fn),Recall=tp/(tp+fp)D、Precision=tp/(tp+fp),Recall=tp/(tn+fn)答案:A48.從裝有大小,材質(zhì)完全相同的3個紅球和3個黑球的不透明口袋中,隨機摸出兩個小球,則兩個小球同色的概率為A、1212122022年2月3日B、1212122022年1月2日C、1212122022年2月5日D、1212122022年1月3日答案:C解析:記3個紅球分別為a,b,c,3個黑球分別為x,y,z,則隨機取出兩個小球共有15中可能,其中兩個同色共有6種可能,則6/15=2/549.1956年之前,人工智能領(lǐng)域的三論不包括().A、控制論B、數(shù)據(jù)論C、信息論D、系統(tǒng)論答案:B50.關(guān)于支持向量機,哪項說法不正確()A、支持向量機可以用于處理二分類及多分類問題B、支持向量機只能用于線性可分的分類問題C、支持向量機可用于回歸問題D、核函數(shù)的選擇對支持向量機的性能影響較大答案:B解析:支持向量機可用用于線性可分的分類問題,也可于線性不可分的分類問題51.將一質(zhì)地均勻的正方體骰子擲一次,觀察向上一面的點數(shù),與點數(shù)2的差不大于1的概率是()A、1212122022年1月2日B、1212122022年1月3日C、1212122022年2月3日D、1212122022年5月6日答案:A解析:【分析】根據(jù)正方體骰子共有6個面,通過觀察向上一面的點數(shù),即可得到與點數(shù)2的差不大于1的概率.【詳解】∵正方體骰子共6個面,每個面上的點數(shù)分別為1、2、3、4、5、6,∴與點數(shù)2的差不大于1的有1、2、3.∴與點數(shù)2的差不大于1的概率是.故選:A52.回歸任務(wù)最常使用的性能度量是()A、精度B、ROCC、MSED、AUC答案:C53.()是離散型隨機變量的分布A、正態(tài)分布B、指數(shù)分布C、均勻分布D、二項分布答案:D解析:二項分布是一種具有廣泛用途的離散型隨機變量的概率分布,它是由貝努里始創(chuàng)的,所以又叫貝努里分布54.設(shè)f(x)為可導函數(shù),且f'(x)嚴格單調(diào)遞增,則F(x)=[f(x)-f(a)]/(x-a)在(a,b]內(nèi)()。A、無極大值B、有極小值C、單調(diào)減少D、單調(diào)遞增答案:D解析:對F(x)求導結(jié)合f''(x)>0易得55.()方法用于返回當前工作目錄。A、os.chdir()B、os.removedirs()C、os.getcwd()D、os.rename()答案:C解析:os.getcwd()方法用于返回當前工作目錄。56.迄今為止,最成功的神經(jīng)網(wǎng)絡(luò)學習算法是()A、感知機B、BB算法C、BP算法D、阿黛爾算法答案:C57.以下()不屬于廣義上的數(shù)據(jù)可視化技術(shù)。A、類別可視化B、科學可視化C、信息可視化D、可視分析學答案:A58.在自動駕駛中,AI需要不斷地通過路面信息來調(diào)整開車的決策,這種處理模式適合用()來訓練出合理的策略。A、監(jiān)督學習B、非監(jiān)督學習C、強化學習D、弱化學習答案:C59.2016年5月,在國家發(fā)改委發(fā)布的《“互聯(lián)網(wǎng)+"人工智能三年行動實施方案》中明確提出,到2018年國內(nèi)要形成()的人工智能市場應(yīng)用規(guī)模.A、千萬元級B、億元級C、百億元級D、千億元級答案:D60.關(guān)于混合模型聚類算法的優(yōu)缺點,下面說法正確的是()。A、當簇只包含少量數(shù)據(jù)點,或者數(shù)據(jù)點近似協(xié)線性時,混合模型也能很好地處理。B、混合模型比K均值或模糊均值更一般,因為它可以使用各種類型的分布。C、混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇。D、混合模型在有噪聲和離群點時不會存在問題。答案:B61.以下說法錯誤的一項是()A、負梯度方向是使函數(shù)值下降最快的方向B、當目標函數(shù)是凸函數(shù)時,梯度下降法的解是全局最優(yōu)解C、梯度下降法比牛頓法收斂速度快D、擬牛頓法不需要計算Hesse矩陣答案:C62.強化學習的目標是找到()的策略A、最小損失函數(shù)B、最大化收益C、局部最優(yōu)解D、全局最優(yōu)解答案:B解析:見算法解析63.在回歸模型中,下列哪一項在權(quán)衡欠擬合(under-fitting)和過擬合(over-fitting)中影響最大?A、多項式階數(shù)B、更新權(quán)重w時,使用的是矩陣求逆還是梯度下降C、使用常數(shù)項答案:A64.Numpy中采用下列哪種方法進行所有元素的累積計算?A、argminB、stdC、cumprodD、cumsum答案:C解析:Numpy中采用cumprod進行所有元素的累積計算65.圖像分類任務(wù)是一個計算量較大的任務(wù),下面描述正確的是:①.不要使用深度學習技術(shù)②.盡量使用GPU加速運算③.盡量使用前人探索的有成功經(jīng)驗的經(jīng)典的網(wǎng)絡(luò)結(jié)構(gòu)④.盡量自己重新設(shè)計編寫網(wǎng)絡(luò),不要照搬別人的網(wǎng)絡(luò)A、①③B、①②③C、②③D、①②答案:C解析:不應(yīng)不實用深度學習技術(shù)66.在一個神經(jīng)網(wǎng)絡(luò)中,知道每一個神經(jīng)元的權(quán)重和偏差是最重要的一步。如果知道了神經(jīng)元準確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個神經(jīng)的權(quán)重和偏移呢?A、搜索每個可能的權(quán)重和偏差組合,直到得到最佳值B、賦予一個初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重C、隨機賦值,聽天由命D、以上都不正確的答案:B67.關(guān)于列表的說法,描述錯誤的是()。A、list是不可變的數(shù)據(jù)類型B、list是一個有序序列,沒有固定大小C、list可以存放任意類型的元素D、使用list時,其下標可以是負數(shù)答案:A68.多層前饋神經(jīng)網(wǎng)絡(luò)描述錯誤的是A、輸出層與輸入層之間包含隱含層,且隱含層和輸出層都擁有激活函數(shù)的神經(jīng)元B、神經(jīng)元之間存在這同層連接以及跨層連接C、輸入層僅僅是接收輸入,不進行函數(shù)處理D、每層神經(jīng)元上一層與下一層全互連答案:B解析:神經(jīng)網(wǎng)絡(luò)每層神經(jīng)元與下層神經(jīng)完全互連,神經(jīng)元之間不存在同層連接,也不存在跨層連接,這樣的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)通常稱為“多層前饋神經(jīng)網(wǎng)絡(luò)”69.下列哪個函數(shù)不可以做非線性激活函數(shù)?()A、y=tanh(x)B、y=sin(x)C、y=max(x,0)D、y=2x答案:D70.scipy中()是空間數(shù)據(jù)結(jié)構(gòu)和算法模塊。A、clusterB、constantsC、integrateD、spatial答案:D71.在數(shù)據(jù)挖掘中,()可以從大量數(shù)據(jù)中挖掘出有價值的數(shù)據(jù)項之間的相關(guān)生關(guān)系。A、關(guān)聯(lián)規(guī)則B、相關(guān)分析C、線性分析D、分布規(guī)則答案:A72.Python運算符中用來計算集合并集的是_______。A、|B、&C、||D、+答案:A73.人工智能在圖像識別上已經(jīng)超越了人類,支持這些圖像識別技術(shù)的,通常是A、云計算B、因特網(wǎng)C、神經(jīng)計算D、深度神經(jīng)網(wǎng)絡(luò)答案:D74.圖像灰度的方差表示圖像的哪種屬性A、圖像整體亮度&B、&圖像飽和度&C、&圖像對比度&D、&圖像細節(jié)答案:C解析:基礎(chǔ)概念75.事務(wù)對數(shù)據(jù)對象加鎖后擁有何種控制權(quán)是由封鎖的()決定的。A、狀態(tài)B、類型C、種類D、屬性答案:B76.主觀Bayes推理中,因子LS、LN的如下取值那組不合理?()A、LS>1、LN<1B、LS<1、LN>1C、LS=1、LN=1D、LS>1、LN>1答案:D77.半監(jiān)督學習不包括A、直推學習B、純半監(jiān)督學習C、主動學習D、圖半監(jiān)督學習答案:C解析:見算法解析78.數(shù)據(jù)挖掘技術(shù)包括三個主要的部分()。A、數(shù)據(jù)、模型、技術(shù)B、算法、技術(shù)、領(lǐng)域知識C、數(shù)據(jù)、建模能力、算法與技術(shù)D、建模能力、算法與技術(shù)、領(lǐng)域知識答案:C79.C(B|A)表示于規(guī)則A->B中,證據(jù)A為真的作用下結(jié)論B為真的A、可信度B、信度C、信任增長度D、概率答案:B80.決策樹模型剛建立時,有很多分支都是根據(jù)訓練樣本集合中的異常數(shù)據(jù)(由于噪聲等原因)構(gòu)造出來的。樹枝修剪正是針對這類數(shù)據(jù)()問題而提出來的。A、近似B、相同C、不同D、差距答案:A81.()為我們進行學習器性能比較提供了重要依據(jù)A、二項檢驗B、t檢驗C、交叉驗證t檢驗D、統(tǒng)計假設(shè)檢驗答案:D解析:統(tǒng)計假設(shè)檢驗為我們進行學習器t性能比較提供了重要依據(jù),基于假設(shè)檢驗結(jié)果我們可推斷出,若在測試集上觀察到學習器A比B好,則A的泛化性能是否在統(tǒng)計意義上優(yōu)于B,以及這個結(jié)論的把握有多大82.如果問題存在最優(yōu)解,則下面幾種搜索算法中,()必然可以得到該最優(yōu)解。A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索答案:A83.pandas每個索引都有一些方法和屬性,下列()方法用來刪除傳入的值,并得到新的Index。A、diffB、deleteC、dropD、isin答案:C解析:pandas每個索引都有一些方法和屬性,下列drop方法用來刪除傳入的值,并得到新的Index。84.()作為第四次工業(yè)革命的核心,其前沿算法和基礎(chǔ)理論正在發(fā)生巨大變化。A、計算B、模型C、數(shù)據(jù)D、存儲答案:A解析:計算作為第四次工業(yè)革命的核心,其前沿算法和基礎(chǔ)理論正在發(fā)生巨大變化。85.當不知道數(shù)據(jù)所處類別時,可以使用哪種技術(shù)促使同類數(shù)據(jù)與其他類數(shù)據(jù)分離?()A、分類B、聚類C、關(guān)聯(lián)分析D、隱馬爾可夫鏈答案:B86.在RNN中,目前使用最廣泛的模型便是()模型,該模型能夠更好地建模長序列。A、SLTMB、SLMTC、LSMTD、LSTM答案:D解析:在RNN中,目前使用最廣泛的模型便是LSTM模型,該模型能夠更好地建模長序列。87.ILP系統(tǒng)通常采用(___)的規(guī)則生成策略A、自底而上B、自頂而下C、自大而小D、自小而大答案:A解析:見算法解析88.下列選項中,哪個不是關(guān)鍵詞提取常用的算法()A、TF-IDFB、TextRankC、SSAD、LDA答案:C解析:SSA(SalpSwarmAlgorithm)是一種元啟發(fā)式算法89.下面哪句話是正確的?A、機器學習模型的精準度越高,則模型的性能越好B、增加模型的復(fù)雜度,總能減小測試樣本誤差C、增加模型的復(fù)雜度,總能減小訓練樣本誤差D、以上說法都不對答案:C90.卷積神經(jīng)網(wǎng)絡(luò)(convolu-tionalneuralnetwork,CNN),是一種專門用來處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。A、網(wǎng)格結(jié)構(gòu)B、數(shù)組結(jié)構(gòu)C、序列結(jié)構(gòu)D、表格結(jié)構(gòu)答案:A解析:卷積神經(jīng)網(wǎng)絡(luò)(convolu-tionalneuralnetwork,CNN),是一種專門用來處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。91.深度學習神經(jīng)網(wǎng)絡(luò)訓練時需要大量的矩陣計算,一般我們需要配用硬件讓計算機具備并行計算的能力,以下硬件設(shè)備可提供并行計算能力的是:A、主板B、內(nèi)存條C、GPUD、CPU答案:C92.對比學習的核心訓練信號是圖片的“()”。A、可預(yù)見性B、可移植性C、可區(qū)分性D、可推理性答案:C解析:對比學習的核心訓練信號是圖片的“可區(qū)分性”。93.在強化學習的過程中,學習率α越大,表示采用新的嘗試得到的結(jié)果比例越(),保持舊的結(jié)果的比例越()。A、大B、小C、大D、大答案:A94.下列關(guān)于隨機變量的分布函數(shù),分布律,密度函數(shù)的理解描述不正確的是?A、離散型隨機變量沒有分布函數(shù)B、密度函數(shù)只能描述連續(xù)型隨機變量的取值規(guī)律。C、分布函數(shù)描述隨機變量的取值規(guī)律D、分布律只能描述離散型隨機變量的取值規(guī)律答案:A95.為什么不能用多層全連接網(wǎng)絡(luò)解決命名實體識別問題:A、序列數(shù)據(jù)的輸入和輸出通常是不固定的,有的序列長,有的序列短B、全連接網(wǎng)絡(luò)的根本不能處理任何序列數(shù)據(jù)C、全連接網(wǎng)絡(luò)的層次太深導致梯度消失,所以不能處理序列問題D、命名實體識別問題是一個無法解決的問題,全連接網(wǎng)絡(luò)也不能解決這個問題答案:A解析:序列數(shù)據(jù)的輸入和輸出通常是不固定的,有的序列長,有的序列短,因此不能用多層全連接網(wǎng)絡(luò)解決命名實體識別問題96.下列屬于無監(jiān)督學習的是:()A、k-meansB、SVMC、最大熵D、CRF答案:A97.以下()的說法是正確。A、術(shù)語NoSQL是“No!SQL”的縮寫B(tài)、術(shù)語NoSQL可以理解為“NotOnlySQL”的縮寫C、NoSQL數(shù)據(jù)庫始終遵循ACID原則D、NoSQL數(shù)據(jù)庫屬于關(guān)系數(shù)據(jù)庫技術(shù)答案:B98.Python內(nèi)置函數(shù)_____用來返回序列中的最大元素。A、maxin()B、max()C、min()D、least()答案:B99.下列選項中,不屬于深度學習模型的是?A、線性回歸B、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN答案:A解析:線性回歸是傳統(tǒng)統(tǒng)計學系呢絨100.Matplotlib是一個主要用于繪制()維圖形的Python庫,用途:繪圖、可視化。A、一B、二C、三D、四答案:B解析:見算法解析101.激活函數(shù)的目的是什么()A、加入額外的計算單元B、非線性變換C、加快計算速度D、方便反向傳播計算答案:B解析:激活函數(shù)的目的是非線性變換102.2010年谷歌推出以頂點為中心的圖處理系統(tǒng)(),其專為大規(guī)模圖數(shù)據(jù)處理而設(shè)計,將圖數(shù)據(jù)保存在主存儲器中并采用并行計算的BSP模型A、AregelB、PregelC、CregelD、Dregel答案:B解析:2010年谷歌推出以頂點為中心的圖處理系統(tǒng)Pregel,其專為大規(guī)模圖數(shù)據(jù)處理而設(shè)計,將圖數(shù)據(jù)保存在主存儲器中并采用并行計算的BSP模型103.關(guān)聯(lián)規(guī)則反映了事物之間的相互依賴性或關(guān)聯(lián)性。關(guān)聯(lián)規(guī)則主要可分為()類A、3B、4C、5D、$6答案:A104.以下哪個關(guān)鍵字是與try語句一起使用來處理異常的?A、catch&B、&exception&C、&catch(a)&D、&except答案:D解析:見函數(shù)庫105.新一代調(diào)度技術(shù)支持系統(tǒng)以運行控制平臺、()兩種平臺協(xié)同為支撐。A、云計算平臺(調(diào)控云)B、調(diào)度數(shù)據(jù)網(wǎng)平臺C、調(diào)度管理系統(tǒng)D、能量管理系統(tǒng)答案:A106.閔可夫斯基距離表示為曼哈頓距離時,p為()。A、1B、2C、3D、$4答案:A解析:閔可夫斯基距離定義為:該距離最常用的p是2和1,前者是歐幾里得距離),后者是曼哈頓距離。107.通常池化操作的效果是:A、使圖片變大B、使圖片變小C、使圖片變成三角形D、使圖片變成圓形答案:B解析:通常池化操作的效果是使圖片變小108.以才哪種組合在CNN不常見A、conv+reluB、conv+relu+poolC、conv+relu+pool+fcD、conv+k-means答案:D解析:conv+k-means組合在CNN不常見109.下列極大似然估計描述錯誤的是A、極大似然估計先假定其具有某種確定的概率分布形式B、極大似然估計沒有確定的概率分布形式C、概率模型的訓練過程就是參數(shù)估計D、貝葉斯學派認為參數(shù)本身也有分布,是未觀察的隨機變量答案:B解析:估計類條件概率的一種常用策略是先假定其具有某種確定的概率分布形式110.小王和老張交換名片后,小王打開手機中安裝的靈云智能輸入法app,拍照老張的名片,很快得到名片文字信息并保存,這其中最主要應(yīng)用的技術(shù)是()A、模式識別B、文字合成C、圖像搜索D、圖像還原答案:A111.以下哪類算法是分類算法()。A、K-MeanB、DBSCANC、EMD、C4.5答案:D112.數(shù)組與列表的區(qū)別在于()A、數(shù)組元素可變,列表元素不可變B、以上都不對C、列表元素類型必須一致,數(shù)組可以不一致D、數(shù)組元素類型必須一致,列表可以不一致答案:D113.關(guān)于“與/或”圖表示知識的敘述,錯誤的有。A、用“與/或”圖表示知識方便使用程序設(shè)計語言表達,也便于計算機存儲處理。B、“與/或”圖表示知識時一定同時有“與節(jié)點”和“或節(jié)點”。C、“與/或”圖能方便地表示陳述性知識和過程性知識。D、能用“與/或”圖表示的知識不適宜用其他方法表示。答案:D114.最初的決策樹算法是心理學家兼計算機科學家EBHunt1962年在研究人類的概念學習過程時提出的CLS,這個算法確立了決策樹()的學習策略A、分而治之B、合而治之C、自下而上D、自上而下答案:A115.在Python中,函數(shù)()。A、不可以嵌套定義B、不可以嵌套調(diào)用C、不可以遞歸調(diào)用D、以上都不對答案:D116.下面哪個技術(shù)跟中文分詞無關(guān)():A、詞語消歧B、詞性標注C、未登錄詞識別D、槽位填充答案:D117.Transformer架構(gòu)首先是由下列哪項引入的?A、GloVeB、BERTC、OpenAI'sGPTD、ULMFit答案:C118.以下哪類算法屬于關(guān)聯(lián)分析()。A、決策樹B、Apriori算法C、EMD、K-Mean答案:B119.下列選項中昇騰310和昇騰910屬性相同的是?A、最大功率B、架構(gòu)C、整數(shù)精度D、7nm制程答案:B120.表達式3|5的值為_____。A、3B、7C、5D、$1答案:B121.在python中,x=[11,8,7,2,3],x.insert(4,[4,5]),列表x的值為()。A、[11,8,7,2,[4,5],3]B、[11,8,7,2,4,5,3]C、[11,8,7,[4,5],2,3]D、[11,8,7,4,5,2,3]答案:A解析:在python中,x=[11,8,7,2,3],x.insert(4,[4,5]),列表x的值為[11,8,7,2,[4,5],3]。122.增強現(xiàn)實領(lǐng)域(AR)大量應(yīng)用了(),典型的就是微軟的HoLolens。A、虛擬現(xiàn)實技術(shù)B、圖像處理C、計算機視覺D、語音識別答案:C解析:增強現(xiàn)實領(lǐng)域(AR)大量應(yīng)用了計算機視覺,典型的就是微軟的HoLolens。123.AI的是哪兩個英文單詞的縮寫A、AutomaticIntelligenceB、ArtificialIntelligenceC、AutomaticInformationD、ArtificialInformation答案:B解析:AutomaticIntelligence為自動智能ArtificialIntelligence為人工智能AutomaticInformation為自動信息ArtificialInformation為人工信息124.()控制當前時刻的輸入信息需要向狀態(tài)向量中注入哪些信息。A、輸出門B、輸入門C、遺忘門D、以上都不對答案:B解析:輸入門控制當前時刻的輸入信息需要向狀態(tài)向量中注入哪些信息。125.假設(shè)我們有一個使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎A、可以B、不好說C、不一定D、不能答案:D解析:使用ReLU激活函數(shù)的神經(jīng)網(wǎng)絡(luò)是能夠模擬出同或函數(shù)的。但如果ReLU激活函數(shù)被線性函數(shù)所替代之后,神經(jīng)網(wǎng)絡(luò)將失去模擬非線性函數(shù)的能力126.人工智能發(fā)展歷程大致分為三個階段。符號主義(Symbolism)是在人工智能發(fā)展歷程的哪個階段發(fā)展起來的?A、20世紀50年代-80年代B、20世紀60年代-90年代C、20世紀70年代-90年代答案:A解析:符號主義(Symbolism)是在人工智能發(fā)展歷程的20世紀50年代-80年代發(fā)展起來的127.faster-rcnn回歸分支采用()lossA、L1B、L2C、SmoothL1D、nan答案:C解析:見算法解析128.a=np.arange(1,10),print(a[2:8:2][::-1])輸出結(jié)果是()A、[357]B、7C、[753]D、[43]答案:C解析:見函數(shù)庫129.關(guān)于常用評分函數(shù)描述錯誤的為(___)A、基于信息論準則;B、學習問題看做為數(shù)據(jù)壓縮任務(wù);C、學習目標為以最短編碼長度描述訓練數(shù)據(jù)模型;D、編碼位數(shù)僅為自身所需的編碼位數(shù);答案:D解析:見算法解析130.下列核函數(shù)特性描述錯誤的是(___)A、只要一個對稱函數(shù)所對應(yīng)的核矩陣半正定,就能稱為核函數(shù);B、核函數(shù)選擇作為支持向量機的最大變數(shù);C、核函數(shù)將影響支持向量機的性能;D、核函數(shù)是一種降維模型;答案:D解析:數(shù)學基礎(chǔ)131.Bagging是一個低效的集成學習算法A、正確B、錯誤C、nanD、nan答案:B解析:見算法解析132.每一棵決策樹擬合的是之前迭代得到的模型的()A、標準差B、均方差C、殘差D、方差答案:C解析:每一棵決策樹擬合的是之前迭代得到的模型的殘差133.強化學習的回報值一個重要特點是具有()。A、客觀性B、主體性C、超前性D、滯后性答案:D134.產(chǎn)生式系統(tǒng)的推理不包括A、正向推理B、逆向推理C、雙向推理D、簡單推理答案:D解析:產(chǎn)生式系統(tǒng)的推理包括正向、逆向、雙向推理135.在多通道卷積過程中,要生成n個featuremaps,需要()個卷積核立方體。A、n-2B、n^2C、[n/2]注[x]表示對x取整D、n答案:D解析:見算法解析136.以下對文件描述錯誤的是()。A、文件是一個存儲在輔助存儲器上的數(shù)據(jù)序列B、文本文件和二進制文件都是文件C、文件中可以包含任何數(shù)據(jù)內(nèi)容D、文本文件不能用二進制文件方式讀入答案:D137.如果我們用了一個過大的學習速率會發(fā)生什么?()A、神經(jīng)網(wǎng)絡(luò)會收斂B、不好說C、都不對D、神經(jīng)網(wǎng)絡(luò)不會收斂答案:D138.為了解決如何模擬人類的感性思維,例如視覺理解、直覺思維、悟性等,研究者找到一個重要的信息處理的機制是:。A、專家系統(tǒng)B、人工神經(jīng)網(wǎng)絡(luò)C、模式識別D、智能代理答案:B139.使用交叉驗證最簡單的方法是在估計器和數(shù)據(jù)集上調(diào)用什么輔助函數(shù)?A、cross_val_scoreB、cross_val%C、val_scoreD、cross_score答案:A140.在中期圖像識別技術(shù)(2003-2012)中,索引的經(jīng)典模型是()。A、口袋模型B、詞袋模型C、膠囊模型D、增量模型答案:B解析:在中期圖像識別技術(shù)(2003-2012)中,索引的經(jīng)典模型是詞袋模型。141.向量[0.1,0.1,0.2,0.3,0.6]的維數(shù)是()。A、10B、5C、3D、$1答案:B142.交叉驗證法將數(shù)據(jù)集劃分為k個大小相似的互斥子集,進行(___)次訓練和測試。A、k+1B、kC、k-1D、k-2答案:B解析:見算法解析143.下列哪種類型是Python的映射類型A、strB、listC、tupleD、dict答案:D144.關(guān)于bagging下列說法錯誤的是:()A、各基分類器之間有較強依賴,不可以進行并行訓練。B、最著名的算法之一是基于決策樹基分類器的隨機森林。C、當訓練樣本數(shù)量較少時,子集之間可能有重疊。D、為了讓基分類器之間互相獨立,需要將訓練集分為若干子集。答案:A145.NumPy的底層語言是使用()語言編寫。A、javaB、C語言C、匯編語言D、python答案:B解析:NumPy的底層語言是C語言146.剪枝方法和程度對決策樹泛化性能的影響相當顯著,有實驗研究表明,在數(shù)據(jù)帶有噪聲時通過剪枝甚至可將決策樹的泛化性能提高()。A、0.2B、0.25C、30%D、$0.35答案:B147.字典對象的_____方法返回字典的“值”列表。A、value()B、values()C、keys()D、list()答案:B148.Linux系統(tǒng)中,一般把命令ls定義為ls--color的別名,以便以不同顏色來標識不同類型的文件。但是,如何能夠使用原先的ls命令?A、\lsB、C、lsD、ls答案:A解析:解析:linux中‘\’進行轉(zhuǎn)義,使轉(zhuǎn)義字符仍為字符串149.如何查看一個RPM軟件的配置文件的存放位置?A、rpm-qcrpm1B、rpm-Vcrpm1C、rpm--configrpm1D、rpm-qa--configrpm1答案:A解析:解析:rpm命令是RPM軟件包的管理工具。rpm原本是RedHatLinux發(fā)行版專門用來管理Linux各項套件的程序,由于它遵循GPL規(guī)則且功能強大方便,因而廣受歡迎。逐漸受到其他發(fā)行版的采用。RPM套件管理方式的出現(xiàn),讓Linux易于安裝,升級,間接提升了Linux的適用度。150.在圖靈測試中,如果有超過()的測試者不能分清屏幕后的對話者是人還是機器,就可以說這臺計算機通過了測試并具備人工智能.A、30%B、40%C、50%D、60%答案:A151.xgboost在代價函數(shù)里加入了(),用于控制模型的復(fù)雜度A、正則項B、非線性C、激活函數(shù)D、特征變換答案:A解析:xgboost在代價函數(shù)里加入了正則項,用于控制模型的復(fù)雜度152.()問題更接近人類高級認知智能,有很多重要的開放問題。A、自然語言處理B、計算機視覺C、語音識別D、知識圖譜答案:A解析:自然語言處理問題更接近人類高級認知智能,有很多重要的開放問題。153.下面關(guān)于RandomForest和GradientBoostingTrees說法正確的是?()A、RndomForest的中間樹不是相互獨立的,而GrdientBoostingTrees的中間樹是相互獨立的B、兩者都使用隨機特征子集來創(chuàng)建中間樹C、在GradientBoostingTrees中可以生成并行樹,因為它們是相互獨立的D、無論任何數(shù)據(jù),GraientBoostingTrees總是優(yōu)于RanomFores答案:B154.下列說法中對專用人工智能理解正確的是()。A、在某一個特定領(lǐng)域應(yīng)用的人工智能。B、不是真正在這次人工智能浪潮中起到影響的主角。C、充分利用已掌握的技能來解決新問題、達到甚至超過人類智慧的人工智能。D、是眾多科幻作品中顛覆人類社會的人工智能形象。答案:A解析:下列說法中對專用人工智能理解正確的是在某一個特定領(lǐng)域應(yīng)用的人工智能。。155.混淆矩陣中TP=16,FP=12,FN=8,TN=4,準確率是()。A、1212122022年1月4日B、1212122022年1月2日C、1212122022年4月7日D、1212122022年2月3日答案:B解析:根據(jù)準確率計算公式可得。156.無監(jiān)督學習常常被用于(),用于在大量無標簽數(shù)據(jù)中發(fā)現(xiàn)些什么。A、數(shù)據(jù)挖掘B、數(shù)據(jù)分析C、數(shù)據(jù)讀取D、數(shù)據(jù)整理答案:A監(jiān)督學習常常被用于數(shù)據(jù)挖掘,用于在大量無標簽數(shù)據(jù)中發(fā)現(xiàn)些什么。157.隨機試驗所有可能出現(xiàn)的結(jié)果,稱為()A、基本事件B、樣本C、全部事件D、樣本空間答案:D158.下列度量不具有反演性的是()A、系數(shù)B、幾率C、Cohen度量D、興趣因子答案:D159.一對一分類器,k個類別需要多少個SVM?A、k(k-1)/2B、k(k-1)C、k(k-2)D、(k-1)(k-2)答案:A解析:其做法是在任意兩類樣本之間設(shè)計一個SVM,因此k個類別的樣本就需要設(shè)計k(k-1)/2個SVM160.為了解決如何模擬人類的感性思維,例如視覺理解、直覺思維、悟性等,研究者找到一個重要的信息處理的機制是()A、專家系統(tǒng)B、人工神經(jīng)網(wǎng)絡(luò)C、模式識別D、智能代理答案:B解析:為了解決如何模擬人類的感性思維,例如視覺理解、直覺思維、悟性等,研究者找到一個重要的信息處理的機制是人工神經(jīng)網(wǎng)絡(luò)161.感知機由()神經(jīng)元組成。A、兩層B、三層C、一層D、四層答案:A162.正態(tài)分布的兩個參數(shù)μ與σ,()對應(yīng)的正態(tài)曲線愈趨扁平。A、μ愈大B、μ愈小C、σ愈大D、σ愈小答案:C163.代碼arr5=np.arange(0,6).reshape([2,3]);print(arr5[1,:])的輸出結(jié)果是()?A、[01]B、[345]C、[23]D、[012]答案:B解析:見算法解析164.FOIL是(___)的學習算法A、命題規(guī)則B、剪枝優(yōu)化C、一階規(guī)則D、序貫覆蓋答案:C解析:見算法解析165.在Linux系統(tǒng)中,下列哪個命令可以用來查看kernel版本信息:()A、checkB、lskernelC、kernelD、uname答案:D166.下列哪個應(yīng)用領(lǐng)域不屬于人工智能應(yīng)用?()A、人工神經(jīng)網(wǎng)絡(luò)B、自動控制C、自然語言學習D、專家系統(tǒng)答案:B167.以下哪種卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計引入了殘差網(wǎng)絡(luò)結(jié)構(gòu)()A、LeNetB、AlexNetC、GoogLeNetD、ResNets答案:D解析:ResNets(ResidualNetworks)殘差網(wǎng)絡(luò);LeNet是最早的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),AlexNet首次在CNN中成功應(yīng)用了ReLU、Dropout和LRN等技術(shù),GoogLeNet加入Inception網(wǎng)絡(luò)結(jié)構(gòu)來搭建一個稀疏性、高計算性能的網(wǎng)絡(luò)結(jié)構(gòu),后三種網(wǎng)絡(luò)都沒有用到殘差網(wǎng)絡(luò)結(jié)構(gòu)168.python字體切片時(S[0,10])下標的取值范圍為()。A、[0,10]B、(0,10)C、[0,10)D、(0,10]答案:C169.強化學習在每個時刻環(huán)境和個體都會產(chǎn)生相應(yīng)的交互。個體可以采取一定的(),這樣的行動是施加在環(huán)境中的。A、actionB、rewardC、stateD、agent答案:A解析:見算法解析170.模型訓練的目的是確定預(yù)測變量與()之間的推理方式。A、目標值B、結(jié)果C、自變量D、因變量答案:A171.模型有效的基本條件是能夠()已知的樣本A、結(jié)合B、擬合C、聯(lián)合D、聚集答案:B解析:模型有效的基本條件是能夠擬合已知的樣本172.HBase依靠()存儲底層數(shù)據(jù)。A、HDFSB、HadoopC、MemoryD、MapReduce答案:A173.變量的不確定性越大,相對應(yīng)信息熵有什么變化()A、熵變小B、熵變大C、不變D、以上都不對答案:B174.下列關(guān)于特征選擇的說法錯誤的是(___)A、可以提高特征關(guān)聯(lián)性B、可以減輕維數(shù)災(zāi)難問題C、可以降低學習任務(wù)的難度D、特征選擇和降維具有相似的動機答案:A解析:見算法解析175.()的特點是使用先驗知識來分析或解釋每個訓練樣本,以推理出樣本哪些特征與目標函數(shù)相關(guān)或不相關(guān)。A、遺傳算法B、分析學習C、歸納學習D、貝葉斯學習答案:B176.下列核函數(shù)特性描述錯誤的是A、只要一個對稱函數(shù)所對應(yīng)的核矩陣半正定,就能稱為核函數(shù)B、核函數(shù)選擇作為支持向量機的最大變數(shù)C、核函數(shù)將影響支持向量機的性能D、核函數(shù)是一種降維模型答案:D解析:只要一個對稱函數(shù)所對應(yīng)的核矩陣半正定,它就能作為核函數(shù)使用.事實上,對于一個半正定核矩陣,總能找到一個與之對應(yīng)的映射,任何一個核函數(shù)都隱式地定義了一個稱為“再生核希爾伯特空間”的特征空間,我們希望樣本在特征空間內(nèi)線性可分,因此特征空間的好壞對支持向量機的性能至關(guān)重要,在不知道特征映射的形式時,我們并不知道什么樣的核函數(shù)是合適的,而核函數(shù)也僅是隱式地走義了這個特征空間,于是,“核函數(shù)選擇”成為支持向量機的最大變數(shù)177.考慮某個具體問題時,你可能只有少量數(shù)據(jù)來解決這個問題。不過幸運的是你有一個類似問題已經(jīng)預(yù)先訓練好的神經(jīng)網(wǎng)絡(luò)。可以用下面哪種方法來利用這個預(yù)先訓練好的網(wǎng)絡(luò)?A、把除了最后一層外所有的層都凍結(jié),重新訓練最后一層B、對新數(shù)據(jù)重新訓練整個模型C、只對最后幾層進行調(diào)參(finetune)D、對每一層模型進行評估,選擇其中的少數(shù)來用答案:C178.傳統(tǒng)的IT產(chǎn)品的開發(fā)遵循的原則是()。A、三分技術(shù)、七分管理、十二分數(shù)據(jù)B、三分數(shù)據(jù)、七分智慧、十二分體驗C、三分技術(shù)、五分管理、十一分數(shù)據(jù)D、三分數(shù)據(jù)、五分管理、十一分體驗答案:A179.類別不平衡指分類任務(wù)中不同類別的訓練樣例數(shù)目(___)的情況。A、沒有差別B、差別很大C、差別很小D、以上都不正確答案:B解析:見算法解析180.以下不是點估計中統(tǒng)計量標準的是()A、無偏性B、一致的C、有效的D、隨機性答案:D181.機器學習的算法中,以下哪個不是無監(jiān)督學習?A、GMMB、XgboostC、聚類D、關(guān)聯(lián)規(guī)則答案:B182.國際標準分類中,人工智能技術(shù)涉及到信息技術(shù)應(yīng)用、信息技術(shù)(IT)綜合、工業(yè)自動化系統(tǒng)、信息技術(shù)用語言、()、網(wǎng)絡(luò)A、語言B、詞匯C、邏輯D、語法答案:B解析:國際標準分類中,人工智能技術(shù)涉及到信息技術(shù)應(yīng)用、信息技術(shù)(IT)綜合、工業(yè)自動化系統(tǒng)、信息技術(shù)用語言、詞匯、網(wǎng)絡(luò)183.下面哪個/些超參數(shù)的增加可能會造成隨機森林數(shù)據(jù)過擬合()A、樹的數(shù)量B、樹的深度C、學習速率答案:B184.云計算提供的支撐技術(shù),有效解決虛擬化技術(shù)、()、海量存儲和海量管理等問題A、并行計算B、實際操作C、數(shù)據(jù)分析D、數(shù)據(jù)研發(fā)答案:A185.list類型的內(nèi)置方法pop()的作用是?A、置頂指定元素B、給元素排序C、刪除指定元素D、插入指定元素答案:C解析:list類型的內(nèi)置方法pop()刪除指定元素的作用是刪除指定元素186.以下不屬于人工智能軟件的是()。A、語音漢字輸入軟件B、百度翻譯C、在網(wǎng)上與網(wǎng)友下棋D、使用OCR漢字識別軟件答案:C解析:C選項是利用網(wǎng)絡(luò)進行的人人互動與人工智能無關(guān)。ABD是人工智能中的識別技術(shù)。187.設(shè)z=xyz+z^2+5,則u在點M(0,1,-1)處的梯度是()。A、(0,2,-2)B、(1,0,2)C、(-1,1,0)D、(-1,0,-2)答案:D188.下列不屬于數(shù)據(jù)預(yù)處理和特征工程的流程的是A、數(shù)據(jù)獲取B、數(shù)據(jù)清洗C、模型解釋D、數(shù)據(jù)標準化答案:C189.Google與Facebook分別提出SimCLR與MoCo兩個算法,實現(xiàn)在()上學習圖像數(shù)據(jù)表征。兩個算法背后的框架都是對比學習(contrastivelearning)A、標注數(shù)據(jù)B、無標注數(shù)據(jù)C、二維數(shù)據(jù)D、圖像數(shù)據(jù)答案:B解析:Google與Facebook分別提出SimCLR與MoCo兩個算法,實現(xiàn)在無標注數(shù)據(jù)上學習圖像數(shù)據(jù)表征。兩個算法背后的框架都是對比學習(contrastivelearning)190.()的思想是給定訓練樣例集將樣例投影到一條直線上,使得同樣例的投影點盡可能接近、異類樣例投影點盡可能遠離;在對新樣本進行分類時,將其投影到同樣的這條直線上,再根據(jù)投影點的位置來確定樣本的類別.A、多分類學習&B、&對數(shù)幾率回歸&C、&線性判別分析&D、&多分類學習答案:C解析:基礎(chǔ)概念191.某銀行的貸款系統(tǒng),操作員只需要輸入客戶資料,該系統(tǒng)就會提示操作員是否能夠提供貸款以及相應(yīng)的貸款額度,這主要應(yīng)用了人工智能中的()A、機器博弈B、專家系統(tǒng)C、模式識別D、機器翻譯答案:B解析:專家系統(tǒng)是一種模擬人類專家解決領(lǐng)域問題的計算機程序系統(tǒng)。主要應(yīng)用在工程、科學、醫(yī)藥、軍事、商業(yè)等方面。192.在linux操作系統(tǒng)中,改變文件所有者的命令為()。A、chmodB、touchC、chownD、cat答案:C193.()反映的是模型每一次輸出結(jié)果與模型輸出期望之間的誤差,即模型的穩(wěn)定性。反應(yīng)預(yù)測的波動情況。A、標準差B、方差C、偏差D、平方差答案:B解析:方差反映的是模型每一次輸出結(jié)果與模型輸出期望之間的誤差,即模型的穩(wěn)定性。反應(yīng)預(yù)測的波動情況。194.神經(jīng)網(wǎng)絡(luò)中最基本的成分是()模型。A、神經(jīng)元B、閾值C、興奮D、節(jié)點答案:A195.以下關(guān)于集成的描述,錯誤的是(___)。A、集成學習通過構(gòu)建并結(jié)合多個學習器來完成學習任務(wù),也稱為多分類器系統(tǒng)、基于委員會的學習等B、集成中只包含同種類型的個體學習器,如“決策樹集成”,“神經(jīng)網(wǎng)絡(luò)集成”等,這樣的集成是“同質(zhì)”的C、集成中同時包含多種類型的個體學習器,這樣的集成是“異質(zhì)”的,異質(zhì)集成的個體學習器一般稱為基學習器D、隨著集成中個體分類器(相互獨立)數(shù)目T的增大,集成的錯誤率將指數(shù)級下降,最終趨向于零答案:C解析:見算法解析196.語言模型的作用是:A、查看一句話成為一句“人話”的概率B、查看一句話是英語的概率C、查看一句話是漢語的概率D、查看一句話是否是完整的答案:A解析:語言模型的作用是查看一句話成為一句“人話”的概率197.將一顆質(zhì)地均勻的骰子(一種各個面分別標有1,2,3,4,5,6個點的正方體玩具)先后拋擲2次,則出現(xiàn)向上的點數(shù)之和為大于8的偶數(shù)的概率為A、1212122022年1月12日B、1212122022年1月9日C、1212122022年1月6日D、1212122022年1月4日答案:B解析:將先后兩次的點數(shù)記為有序?qū)崝?shù)對(x,y),則共有6*6=36個基本事件,其中點數(shù)之和為大于8的偶數(shù)有(4,6),(6,4),(5,5),(6,6)共4個,則滿足條件的概率為4/36=1/9198.NMS算法中文名為()A、非極大值抑制B、非極小值抑制C、極大值抑制D、極小值抑制答案:A解析:見算法解析199.代碼array=np.arange(10,31,5)中的5代表()?A、元素的個數(shù)B、步長C、第一個元素D、最后一個元素答案:B解析:見算法解析200.代碼arr1=np.array([[1,2,3],[4,5,6]]);arr2=2*np.ones([2,3],dtype=64);print((arr1*arr2)[1][2])的輸出結(jié)果是()?注:(已導入numpy庫)importnumpyasnpA、6B、8C、10D、$12答案:D解析:見算法解析201.()適合連續(xù)特征,它假設(shè)每個特征對于每個類都符合正態(tài)分布。A、GaussianNBB、BernoulliNBC、MultinomialNBD、BaseDiscreteNB答案:A解析:GaussianNB適合連續(xù)特征,它假設(shè)每個特征對于每個類都符合正態(tài)分布。202.電力專用縱向加密認證裝置是嵌入式設(shè)備,主要模塊包括非Intel指令CPU、千/百兆網(wǎng)絡(luò)接口、雙電源模塊、()等等A、GPS芯片B、GPRS芯片C、電力專用加密算法芯片D、天線答案:C解析:電力專用縱向加密認證裝置是嵌入式設(shè)備,主要模塊包括非Intel指令CPU、千/百兆網(wǎng)絡(luò)接口、雙電源模塊、電力專用加密算法芯片等等203.據(jù)WardMO(2010)的研究,超過()的人腦功能用于視覺信息的處理,視覺信息的處理是人腦的最主要功能之一A、0.45B、0.55C、0.5D、$0.75答案:C204.假設(shè)你需要調(diào)整超參數(shù)來最小化代價函數(shù)(costfunction),會使用下列哪項技術(shù)?A、窮舉搜索B、隨機搜索C、Bayesian優(yōu)化D、都可以答案:D205.中心極限定理告訴我們,當樣本量足夠大時,樣本均值的分布圍繞總體均值呈現(xiàn)()。A、泊松分布B、正態(tài)分布C、伯努利分布D、幾何分布答案:B解析:中心極限定理指出大量相互獨立的隨機變量的均值經(jīng)適當標準化后依分布收斂于正態(tài)分布,其中有3個要素:獨立、隨機、相加。206.下列極大似然估計描述錯誤的是(___)A、極大似然估計先假定其具有某種確定的概率分布形式;B、極大似然估計沒有確定的概率分布形式;C、概率模型的訓練過程就是參數(shù)估計;D、貝葉斯學派認為參數(shù)本身也有分布,是未觀察的隨機變量;答案:B解析:數(shù)學基礎(chǔ)207.多義現(xiàn)象可以被定義為在文本對象中一個單詞或短語的多種含義共存。下列哪一種方法可能是解決此問題的最好選擇?A、隨機森林分類器B、卷積神經(jīng)網(wǎng)絡(luò)C、梯度爆炸D、上述所有方法答案:B208.主成分分析法是通過變量變換的方法把相關(guān)的變量變?yōu)槿舾桑ǎ┑淖兞?。。A、相聯(lián)系B、相互矛盾C、不相關(guān)D、相等答案:C解析:主成分分析法是通過變量變換的方法把相關(guān)的變量變?yōu)槿舾刹幌嚓P(guān)的變量。。209.強化學習的基礎(chǔ)模型是()模型A、馬可夫決策B、貝葉斯C、HMMD、最大后驗概率答案:A解析:見算法解析210.計算智能和感知智能的關(guān)鍵技術(shù)已經(jīng)取得較大突破,弱人工智能應(yīng)用條件基本成熟。但()的算法尚未突破,前景仍不明朗。A、視頻智能B、語音智能C、觸覺智能D、認知智能答案:D211.下列哪個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生權(quán)重共享?()A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、選項A和B答案:D212.在20K文檔的輸入數(shù)據(jù)上為機器學習模型創(chuàng)建了文檔-詞矩陣(document-termmatrix)。以下哪項可用于減少數(shù)據(jù)維度?(1)關(guān)鍵詞歸一化(KeywordNormalization)(2)潛在語義索引(LatentSemanticIndexing)(3)隱狄利克雷分布(LatentDirichletAllocation)A、只有(1)B、(2)、(3)C、(1)、(3)D、(1)、(2)、(3)答案:D213.緩解過擬合的一個辦法是允許支持向量機在一些樣本上出錯,以下哪種形式適合這種方法。()A、硬間隔支持向量機B、軟間隔支持向量機C、線性核函數(shù)支持向量機D、多項式核函數(shù)支持向量機答案:B214.2*1的數(shù)組與1*3的數(shù)組相加結(jié)果為()。A、2*3的數(shù)組B、1*1的數(shù)組C、3*2的數(shù)組D、以上都不對答案:A215.下屬模型是一階段網(wǎng)絡(luò)的是()A、YOLOv2B、rcnnC、fast-rcnnD、faster-rcnn答案:A解析:見算法解析216.對零次數(shù)據(jù)進行初步加工,不包括()A、清洗B、變換C、集成D、脫敏答案:D217.機器執(zhí)行學習的框架體現(xiàn)了其學習的本質(zhì)是()A、參數(shù)預(yù)估B、機器翻譯C、圖像識別D、參數(shù)估計答案:D解析:機器執(zhí)行學習的框架體現(xiàn)了其學習的本質(zhì)是參數(shù)估計218.下列哪個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生權(quán)重共享A、卷積神經(jīng)網(wǎng)絡(luò)&B、&循環(huán)神經(jīng)網(wǎng)絡(luò)&C、&全連接神經(jīng)網(wǎng)絡(luò)&D、&卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)答案:D解析:見算法解析219.關(guān)于貝葉斯網(wǎng)描述錯誤的是(___)A、也稱為信念網(wǎng);B、借助有向無環(huán)圖刻畫屬性之間的關(guān)系;C、借助無向無環(huán)圖刻畫屬性之間的關(guān)系;D、用條件概率表來描述屬性的聯(lián)合概率分布;答案:C解析:見算法解析220.下列可以用于聚類問題的機器學習算法有()A、決策樹B、k-meansC、隨機森林D、邏輯回歸答案:B221.歸結(jié)原理的特點是(___)A、發(fā)明新的概念和關(guān)系B、發(fā)現(xiàn)更多的規(guī)則C、緩解過擬合的風險D、將復(fù)雜的邏輯規(guī)則與背景知識聯(lián)系起來化繁為簡答案:D解析:見算法解析222.如何選取合適的卷積核大???A、分布范圍廣>較小的卷積核,大的感受野B、分布范圍小>較小的卷積核,小的感受野C、分布范圍小>較大的卷積核,小的感受野D、分布范圍大>較小的卷積核,小的感受野答案:B解析:分布范圍小>較小的卷積核,小的感受野223.描述性分析主要關(guān)注的是()A、“過去”,回答“已發(fā)生什么”B、“過去”,回答“為什么發(fā)生”C、“模擬與優(yōu)化”的問題D、“未來”,回答“將要發(fā)生什么”答案:A224.pandas中下列哪個函數(shù)可以根據(jù)單個或多個鍵將不同DataFrame的行連接起來。A、pd.bineB、pd.concatC、pd.mergeD、pd.agg答案:C225.下列哪種不屬于進化計算()A、遺傳算法B、認知機C、進化編程D、進化策略答案:B226.人工智能的目的是讓機器能夠()A、具有智能B、和人一樣工作C、完全代替人的大腦D、模擬、延伸和擴展人的智能答案:D解析:人工智能ArtificialIntelligence,AI有時也稱作機器智能,是指由人工制造出來的系統(tǒng)所表現(xiàn)出來的智能,主要是為了模擬、延伸和擴展人的智能。227.在pytorch中,如果主機有1塊TitanX顯卡,以下哪個選項中的代碼都可以將變量名為var的tensor放在GPU上運行()A、var=var.to("cuda:0")、var=var.to("cuda:1")B、var=var.to("cuda:1")C、var=var.cuda()、var=var.to("cuda:0")D、var=var.cuda()、var=var.to("cuda:1")答案:C解析:在pytorch中,cuda()實現(xiàn)數(shù)據(jù)到GPU轉(zhuǎn)移。228.Python3中5/2的結(jié)果是?A、3B、2C、2.5D、$1答案:C229.數(shù)據(jù)產(chǎn)品“以數(shù)據(jù)為中心”的特征不僅體現(xiàn)在“以數(shù)據(jù)為核心生產(chǎn)要素”,而且還表現(xiàn)在以下三個方面A、數(shù)據(jù)驅(qū)動數(shù)據(jù)密集型數(shù)據(jù)范式B、數(shù)據(jù)加工數(shù)據(jù)密集型數(shù)據(jù)范式C、數(shù)據(jù)驅(qū)動數(shù)據(jù)審計數(shù)據(jù)分析D、數(shù)據(jù)加工數(shù)據(jù)審計數(shù)據(jù)分析答案:A230.下列哪個系統(tǒng)屬于新型專家系統(tǒng)?A、多媒體專家系統(tǒng)B、實時專家系統(tǒng)C、軍事專家系統(tǒng)D、分布式專家系統(tǒng)答案:D231.將輸出標記的對數(shù)作為線性模型逼近的目標是A、對數(shù)幾率回歸B、對數(shù)線性回歸C、極大似然法D、正則化答案:B解析:對數(shù)線性回歸在形式上仍是線性回歸,但實質(zhì)上已是在求取輸入空間到輸出空間的非線性函數(shù)映射232.一階規(guī)則的基本成分是(___)A、原子命題B、謂詞C、量詞D、原子公式答案:D解析:見算法解析233.設(shè)某工廠有甲、乙、丙三個車間生產(chǎn)同一種產(chǎn)品,一致各車間的產(chǎn)量分別占全廠產(chǎn)量的25%、35%、40%,而各車間的次品率依次為5%、4%、2%?,F(xiàn)從待出廠的產(chǎn)品中檢查出一個次品,它由甲車間生產(chǎn)的概率是A、25%B、45.50%C、1.25%D、36.20%答案:D解析:設(shè)A1,A2,A3分別表示產(chǎn)品有甲、乙、丙車間生產(chǎn),B表示產(chǎn)品為次品。P(A1)=0.25,P(A2)=0.35,P(A3)=0.4,P(B|A1)=0.05,P(B|A2)=0.04,P(B|A3)=0.02,P(A1|B)=P(A1)P(B|A1)/[P(A1)P(B|A1)+P(A2)P(B|A2)+P(A3)P(B|A3)]=0.25*0.05/(0.25*0.05+0.35*0.04+0.4*0.02)=0.362234.在華為云EI中,以下哪項可以將AI技術(shù)融入各行各業(yè)的應(yīng)用場景中,發(fā)揮AI技術(shù)的優(yōu)勢,從而提高效率,提升體驗。A、EI智能體B、OBS對象存儲服務(wù)C、云數(shù)據(jù)庫D、EI大數(shù)據(jù)服務(wù)答案:A235.MapReduce默認的分區(qū)函數(shù)是()。A、hashB、diskC、reduceD、map答案:A236.fromsklearnimportlinear_modelreg=linear_model.Lasso,其中Lasso是用來擬合什么樣的線性模型的?A、稀疏數(shù)據(jù)B、稀疏系數(shù)C、稀疏標簽答案:B237.關(guān)于梯度下降算法描述正確的是:A、梯度下降算法就是不斷的更新w和b的值B、梯度下降算法就是不斷的更新w和b的導數(shù)值C、梯度下降算法就是不斷尋找損失函數(shù)的最大值D、梯度下降算法就是不斷更新學習率答案:A解析:梯度下降算法就是不斷的更新w和b的值238.在以下不同的場景中,使用的分析方法不正確的有()。A、根據(jù)商家最近一年的經(jīng)營及服務(wù)數(shù)據(jù),用聚類算法判斷出天貓商家在各自主營類目下所屬的商家層級B、根據(jù)商家近幾年的成交數(shù)據(jù),用聚類算法擬合出用戶未來一個月可能的消費金額公式C、用關(guān)聯(lián)規(guī)則算法分析出購買了汽車坐墊的買家,是否適合推薦汽車腳墊D、根據(jù)用戶最近購買的商品信息,用決策樹算法識別出淘寶買家可能是男還是女答案:B239.火車票搶購軟件可以在購買火車票時自動識別并輸入圖片中的驗證碼,所采用的技術(shù)是()A、模式識別B、語音識別C、自動翻譯D、智能代理答案:A解析:應(yīng)用了模式識別中的圖像識別技術(shù)。240.關(guān)系云的一個重要功能是提供()。A、數(shù)據(jù)庫即服務(wù)B、虛擬服務(wù)C、彈性計算D、按需服務(wù)答案:A241.中心極限定理是指在給定條件下,大量互相獨立的隨機變量的值的()趨近于正態(tài)分布。A、標準差B、最大值C、平均值D、最小值答案:C242.關(guān)于GoogLeNet描述正確的有:A、GoogLeNet僅僅是在寬度上進行了探索,所以它是一個很淺的網(wǎng)絡(luò)B、GoogLeNet在寬度上進行了探索,為后人設(shè)計更加復(fù)雜的網(wǎng)絡(luò)打開了思路C、GoogLeNet使用了Inception結(jié)構(gòu),Inception結(jié)構(gòu)只有V1這一個版本D、GoogLeNet結(jié)合多種網(wǎng)絡(luò)設(shè)計結(jié)構(gòu)所以是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)構(gòu)答案:B解析:GoogLeNet在寬度上進行了探索,為后人設(shè)計更加復(fù)雜的網(wǎng)絡(luò)打開了思路243.RNN引入了循環(huán)的概念,但是在實際過程中卻出現(xiàn)了初始信息隨時間消失的題,即長期依賴(Long-TermDependencies)問題,所以引入()。A、CNNB、LSTMC、GRUD、BERT答案:B解析:RNN引入了循環(huán)的概念,但是在實際過程中卻出現(xiàn)了初始信息隨時間消失的題,即長期依賴(Long-TermDependencies)問題,所以引入LSTM。244.()是將人類語言經(jīng)過處理轉(zhuǎn)化為機器所能理解語言的一門技術(shù)。A、自然語言處理B、計算機視覺C、語音識別D、大數(shù)據(jù)答案:A解析:自然語言處理是將人類語言經(jīng)過處理轉(zhuǎn)化為機器所能理解語言的一門技術(shù)。245.()是時間序列分析中最靈活和準確的方法。A、指數(shù)平滑模型B、自回歸模型C、移動平均模型D、差分自回歸移動平均模型答案:A246.pythonmy.pyv1v2命令運行腳本,通過fromsysimportargv如何獲得v2的參數(shù)值?A、argv[0]&B、&argv[1]&C、&argv[2]&D、&argv[3]答案:C解析:見函數(shù)庫247.()用于購物籃分析、交叉銷售、商品目錄設(shè)計等商業(yè)決策領(lǐng)域。A、關(guān)聯(lián)分析B、分類分析C、聚類分析D、序列分析答案:A248.4目前,多數(shù)NoSQL數(shù)據(jù)庫是針對特定應(yīng)用場景研發(fā)出來的,其設(shè)計遵循()原則,更加強調(diào)讀寫效率、數(shù)據(jù)容量以及系統(tǒng)可擴展性。A、EASY原則B、READ原則C、BASE原則D、BASIC原則答案:C249.CNN卷積網(wǎng)絡(luò)中,filter尺寸的選擇多為()A、奇數(shù)B、偶數(shù)C、整數(shù)D、分數(shù)答案:A解析:CNN卷積網(wǎng)絡(luò)中,filter尺寸的選擇多為奇數(shù)250.以下關(guān)于機器學習描述正確的是?A、深度學習是機器學習的一個分支B、深度學習與機器學習是互相包含的關(guān)系C、深度學習與機器學習同屬于人工智能但相互之間沒有關(guān)系D、以上都不對答案:A251.二項分布的數(shù)學期望為()。A、n(1-n)pB、np(1-p)C、npD、n(1-p)答案:C252.神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個神經(jīng)元接受一個輸入,對輸入進行處理后給出一個輸出。請問下列關(guān)于神經(jīng)元的描述中,哪一項是正確的?A、每個神經(jīng)元可以有一個輸入和一個輸出B、每個神經(jīng)元可以有多個輸入和一個輸出C、每個神經(jīng)元可以有多個輸入和多個輸出D、上述都正確答案:D解析:每個神經(jīng)元可以有一個或多個輸入,和一個或多個輸出。如圖所示的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中,隱藏層的每一個神經(jīng)元都是多輸入多輸出。若將輸出層改為一個神經(jīng)元,則隱藏層每個神經(jīng)元都是一個輸出;若將輸入層改為一個神經(jīng)元,則隱藏層每個神經(jīng)元都是一個輸入。253.華為昇騰AI芯片是NPU(神經(jīng)網(wǎng)絡(luò)處理器)的典型代表之一。A、TRUEB、FALSE答案:A254.()決策樹選擇信息增益最大的屬性來劃分。A、CART決策樹B、C4.5算法C、多變量決策樹D、ID3算法答案:D255.如果你的umask設(shè)置為022,缺省的你創(chuàng)建的文件的權(quán)限為:A、w--w-B、-w--wC、r-xr-xD、rw-r--r--答案:D解析:解析:umask值有四位數(shù)字,第一位數(shù)字代表的是特殊權(quán)限忽略,后三位數(shù)字為我們看到的文件/目錄的默認權(quán)限。賬號能有的目錄最大權(quán)限為777,文件能有的最大權(quán)限為666,我們根據(jù)此權(quán)限對應(yīng)umask的值就能夠計算出該賬號的默認文件/目錄權(quán)限。256.()的數(shù)目通常也被稱作卷積核的個數(shù)A、通道B、輸入通道C、輸入維度D、輸出通道答案:D解析:輸出通道的數(shù)目通常也被稱作卷積核的個數(shù)257.人工神經(jīng)網(wǎng)絡(luò)在20世紀()年代興起,一直以來都是人工智能領(lǐng)域的研究熱點A、50B、60C、70D、$80答案:D258.CNN網(wǎng)絡(luò)設(shè)計中,學習率的設(shè)置往往對訓練收斂起到關(guān)鍵作用,關(guān)于學習率的說法,錯誤的是()A、學習率太小,更新速度慢B、學習率過大,可能跨過最優(yōu)解C、學習率也是有網(wǎng)絡(luò)學習而來D、學習率可在網(wǎng)絡(luò)訓練過程中更改答案:C解析:CNN網(wǎng)絡(luò)設(shè)計中,學習率的設(shè)置往往對訓練收斂起到關(guān)鍵作用,關(guān)于學習率的說法,錯誤的是學習率也是有網(wǎng)絡(luò)學習而來259.華為的芯片支持HUAWEIHiAI的哪一個模塊?A、HiAIEngineB、HiAIFoundationC、HiAIFrameworkD、HiAIService答案:B260.如果問題存在最優(yōu)解,則下面幾種搜索算法中,哪一個必然可以得到該最優(yōu)解A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索答案:A解析:廣度優(yōu)先搜索搜索的范圍最廣261.()是一種基于樹結(jié)構(gòu)進行決策的算法。A、軌跡跟蹤B、決策樹C、數(shù)據(jù)挖掘D、K近鄰算法答案:B解析:軌跡跟蹤又稱為前輪反饋控制法(Frontwheelfeedback),核心在于基于前輪中心的路徑跟蹤偏差量對方向盤轉(zhuǎn)向控制量進行計算。決策樹算法是一種逼近離散函數(shù)值的方法,它是一種典型的分類方法,首先對數(shù)據(jù)進行處理,利用歸納算法生成可讀的規(guī)則和決策樹,然后使用決策對新數(shù)據(jù)進行分析。數(shù)據(jù)挖掘是指從大量的數(shù)據(jù)中通過算法搜索隱藏于其中信息的過程。K近鄰算法,即是給定一個訓練數(shù)據(jù)集,對新的輸入實例,在訓練數(shù)據(jù)集中找到與該實例最鄰近的K個實例,這K個實例的多數(shù)屬于某個類,就把該輸入實例分類到這個類中。符合題意的為B項決策樹。答案選B262.對于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是:1.增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會增加測試數(shù)據(jù)集的分類錯誤率2.減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯誤率3.增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓練數(shù)據(jù)集的分類錯誤率A、1B、1和3C、1和2D、$2答案:A263.下面不是超參數(shù)的是:A、權(quán)重和偏置B、學習率C、mini-batch的大小D、網(wǎng)絡(luò)結(jié)構(gòu)答案:A解析:權(quán)重和偏置不是超參數(shù)264.函數(shù)f(x)=2x^2-1在區(qū)間(1,1+Δx)上的平均變化率Δy/Δx等于()A、4B、4+2ΔxC、4+2(Δx)2D、4x答案:B解析:解析:選B.因為Δy=[2(1+Δx)2-1]-(2×12-1)=4Δx+2(Δx)2,所以ΔyΔx=4+2Δx,故選B.265.PCA的步驟不包括()A、構(gòu)建協(xié)方差矩陣B、矩陣分解得到特征值和特征向量C、特征值排序D、特征值歸一化答案:D266.當在內(nèi)存網(wǎng)絡(luò)中獲得某個內(nèi)存空間時,通常選擇讀取矢量形式數(shù)據(jù)而不是標量,這里需要的哪種類型的尋址來完成A、基于內(nèi)容的尋址B、基于位置的尋址C、都不行D、都可以答案:A解析:當在內(nèi)存網(wǎng)絡(luò)中獲得某個內(nèi)存空間時,通常選擇讀取矢量形式數(shù)據(jù)而不是標量,這里需要基于內(nèi)容的尋址來完成267.()以當前的假設(shè)作為輸入,輸出一個新的問題供執(zhí)行系統(tǒng)去探索。A、執(zhí)行器B、評價器C、

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論