HCIA-AI H13-311 v3.5認(rèn)證考試題庫(含答案)_第1頁
HCIA-AI H13-311 v3.5認(rèn)證考試題庫(含答案)_第2頁
HCIA-AI H13-311 v3.5認(rèn)證考試題庫(含答案)_第3頁
HCIA-AI H13-311 v3.5認(rèn)證考試題庫(含答案)_第4頁
HCIA-AI H13-311 v3.5認(rèn)證考試題庫(含答案)_第5頁
已閱讀5頁,還剩117頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

PAGEPAGE1HCIA-AIH13-311v3.5認(rèn)證考試題庫(含答案)一、單選題1.以下關(guān)于剪枝的描述中,哪一項(xiàng)是錯(cuò)誤的?A、決策樹容易過擬合需要剪枝來縮小樹的結(jié)構(gòu)和規(guī)模。預(yù)剪枝中設(shè)置的層數(shù)是一個(gè)超參數(shù)。B、預(yù)剪枝中設(shè)置的層數(shù)是一個(gè)超參數(shù)。C、ID3算法中都會(huì)進(jìn)行剪枝。D、剪枝可以分為預(yù)剪枝和后剪枝答案:C2.Pytorch是常見的機(jī)器學(xué)習(xí)計(jì)算框架,基于Torch,用于自然語言處理等應(yīng)用程序,以下哪種語言是Torch采用的編程語言?A、PythonB、LuaC、JavaD、C語言答案:B3.深度學(xué)習(xí)中,不經(jīng)常使用的初始化參數(shù)W(權(quán)重矩陣)的方法是哪種?A、Xavier初始化B、Kaiming初始化C、全零初始化D、高斯分布初始化答案:C4.在華為云EI中,以下哪項(xiàng)可以將AI技術(shù)融入各行各業(yè)的應(yīng)用場景中,發(fā)揮AI技術(shù)的優(yōu)勢,從而提高效率,提升體驗(yàn)。A、EI智能體B、OBS對象存儲(chǔ)服務(wù)C、云數(shù)據(jù)庫D、EI大數(shù)據(jù)服務(wù)答案:A5.以下哪個(gè)不是ModelArts開發(fā)類型?A、標(biāo)準(zhǔn)模型開發(fā)B、快速建模C、零基礎(chǔ)建模D、敏捷開發(fā)答案:D6.以下哪一項(xiàng)是sigmoid函數(shù)導(dǎo)數(shù)的最大值A(chǔ)、0.5B、TrueC、0.25D、0答案:C7.以下選項(xiàng)中,哪一項(xiàng)不屬于模型訓(xùn)練的超參數(shù)?A、訓(xùn)練神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率B、—元線性回歸模型Y=wX+b中的權(quán)置系數(shù)(斜率)C、K最近鄰算法(KNN)中的KD、隨機(jī)森林當(dāng)中的樹的棵數(shù)答案:B8.在綜合實(shí)驗(yàn)的語音合成實(shí)驗(yàn)中如果想要設(shè)置音量,可以使用下面哪一個(gè)方法?A、Ttsc_request=ItsCustomRequest(textEttsC_request.setpitch(0)B、Ttsc_request=TtsCustomRequest(test):ttsc_request.set_speed(0)C、Ttsc_request=TtsCustomRequest(textY):ttsc_request.set_sle_rate('800D、Ttsc_request=TtsCustomRequest(text):ttsc_request.set_volume(50)答案:D9.在華為云ei中哪一項(xiàng)是面向開發(fā)者的一站式AI開發(fā)平臺(tái),為機(jī)器學(xué)習(xí)與深度學(xué)習(xí)海量數(shù)據(jù)預(yù)處理及半自動(dòng)化標(biāo)注、大規(guī)模分布式Training、自動(dòng)化模型生成,及端-邊-云模型按需部署能力,幫助用戶快速創(chuàng)建和部署模型,管理全周期AI工作流?A、MysqlB、MinsporeC、ModelArtsD、Ascend答案:C10.數(shù)據(jù)集擴(kuò)充也可以有效的避免過擬合問題的出現(xiàn),以下哪項(xiàng)關(guān)于數(shù)據(jù)集擴(kuò)充的說法是正確的?A、數(shù)據(jù)集越大過擬合概率越大B、數(shù)據(jù)集增大或減少過擬合概率均會(huì)越小C、數(shù)據(jù)集越小過擬合概率小D、數(shù)據(jù)集越大過擬合概率越小答案:D11.AI開發(fā)的基本流程包括以下步驟(1準(zhǔn)備數(shù)據(jù)(2)部署模型(3)評估模型(4)確定目的(5)訓(xùn)模型,以下個(gè)是確的?A、4->1->5->3->2B、4->5->1->3-2C、4->1->5->2->3D、4->5->1->2->3答案:A12.下列選項(xiàng)中不支持TensorFLow2.0進(jìn)行維度變換的屬性是A、squeezeB、reshapeC、gatherD、Transpose答案:C13.在調(diào)用華為云服務(wù)的環(huán)境準(zhǔn)備中,下列哪一個(gè)不需要確認(rèn)安裝?A、requestsB、setuptoolsC、websocket-clientD、Jieba答案:D14.“人工智能對于所有的數(shù)據(jù)都可以處理?!标P(guān)于上述描述,以下哪一個(gè)說法是正確的?A、該說法錯(cuò)誤,是深度學(xué)習(xí)能對所有的數(shù)據(jù)都可以處理B、該說法正確,AI可以處理任何數(shù)據(jù)C、該說法正確,AI對于數(shù)據(jù)有很的學(xué)習(xí)能力D、該說法措誤,需要對致?lián)M(jìn)行預(yù)處理等操作才可以輸入模型答案:D15.輸入32*32的圖像,用大小5*5的卷積核做步長為1的卷積計(jì)算,輸出圖像的大小是A、28*23B、28*28C、29*29D、23*23答案:B16.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的隱藏層數(shù)對網(wǎng)絡(luò)的性能有一定的影響,以下關(guān)于其影響說法正確的是:A、隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力不變B、隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)C、隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)D、隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越弱答案:B17.人下關(guān)于神經(jīng)網(wǎng)絡(luò)的說法錯(cuò)誤的是?A、隨著神經(jīng)網(wǎng)絡(luò)隱藏層數(shù)的增加,模型的分類能力逐步減弱B、單層感知器的局限在于不能解決異或問題C、前饋神經(jīng)網(wǎng)絡(luò)可用有向無環(huán)圖表示D、前饋神經(jīng)網(wǎng)絡(luò)同一層的神經(jīng)元之間不存在聯(lián)系答案:A18.以下關(guān)于L1與L2的描述中,錯(cuò)誤的是哪一項(xiàng)?A、L1正則不僅可以防止過擬合還可以進(jìn)行特征選擇、因此L2正則在實(shí)際分析中幾乎不使用。L1相對于L2能夠產(chǎn)生更加稀疏的模型B、L1正則化除了防止過擬合還可以起到特征選擇的作用。C、如果從概率角度進(jìn)行分析,很多范數(shù)約束相當(dāng)于對參數(shù)添加先驗(yàn)分布,L2范數(shù)相當(dāng)于參數(shù)服從高斯先驗(yàn)分布,L1范數(shù)相當(dāng)于參數(shù)服從拉普拉斯分布答案:C19.TensorFlow使用的數(shù)據(jù)類型是?A、ScalarB、VectorC、TensorD、Matrix答案:C20.在調(diào)用語音合成服務(wù)時(shí),需要提前設(shè)置一些參數(shù)值,下列哪個(gè)范圍的值可以作為音量值?A、[-1000,1000]B、[0,100]C、[0,1000]D、[-100,100]答案:B21.下面哪一項(xiàng)不是圖像搜索的應(yīng)用場景?A、服裝搜索,營銷推薦。B、設(shè)計(jì)搜索,同類比價(jià)。C、視頻濃縮,提取有效信息。D、零件搜索,提升效率。答案:C22.以下關(guān)于CPU低時(shí)延設(shè)計(jì)的描述,錯(cuò)誤的是哪一個(gè)選項(xiàng)?A、有很多ALU和很少cache,緩存合并方問DRAM,降低時(shí)延B、復(fù)雜邏控制單元,多分支程席可通過分支預(yù)測能力降低時(shí)延C、高時(shí)鐘頃率降低時(shí)延D、強(qiáng)大的ALU單元,可在很短時(shí)鐘周期完成計(jì)算答案:A23.Mindspore中,Tensor初始化時(shí),如果包含多種不同類型的數(shù)據(jù),則按照以下哪一項(xiàng)優(yōu)先級完成數(shù)據(jù)類型轉(zhuǎn)換?A、int<bool<floatB、int<float<boolC、bool<float<intD、bool<int<float答案:D24.如何獲取函數(shù)的幫助信息?A、dir()B、help()C、del()D、id()答案:B25.L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)常用來減少泛化誤差的方法,以下關(guān)于兩者的說法正確的是A、L1正則化可以做特征選擇B、L1和L2正則化均可做特征選擇C、L2正則化可以做特征選擇D、L1和L2正則化均不可做特征選擇答案:A26.以下哪一個(gè)選項(xiàng)不屬于智能駕駛的“三大子系統(tǒng)”?A、娛樂系統(tǒng)B、感知系統(tǒng)C、決策系統(tǒng)D、執(zhí)行系統(tǒng)答案:A27.以下哪一個(gè)不屬于人臉識(shí)別技術(shù)?A、人臉?biāo)阉鰾、人臉比對C、人臉檢測D、翻拍識(shí)別答案:D28.機(jī)器學(xué)習(xí)的算法中,以下哪個(gè)不是無監(jiān)督學(xué)習(xí)?A、聚類B、XgboostC、關(guān)聯(lián)規(guī)則D、GMM答案:B29.當(dāng)函數(shù)在變量空間的某一點(diǎn)處,沿著哪一個(gè)方向有最大的變化率?A、梯度B、最小方向?qū)?shù)C、方向?qū)?shù)D、導(dǎo)數(shù)答案:A30.機(jī)器學(xué)習(xí)中,從獲得數(shù)據(jù)到模型正式放入模型之前,以下哪個(gè)選項(xiàng)不是這個(gè)過程的一部分?A、數(shù)據(jù)清理B、數(shù)據(jù)準(zhǔn)化C、數(shù)據(jù)可視化D、數(shù)據(jù)降維答案:C31.下列選項(xiàng)中不是TensorFlow2.0支持的運(yùn)算符是A、powB、C、^D、//答案:C32.以下不屬于對抗生成網(wǎng)絡(luò)的應(yīng)用是?A、文字生成B、圖像生成C、圖像識(shí)別D、數(shù)據(jù)增強(qiáng)答案:C33.特征是描述樣本的特性的維度,關(guān)于其在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的可解釋性,以下說法正確的是:A、特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性強(qiáng),而在深度學(xué)習(xí)可解釋性弱B、特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性弱,而在深度學(xué)習(xí)可解釋性強(qiáng)C、特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均弱D、特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均強(qiáng)答案:A34.以下哪一項(xiàng)是ModelArts中訓(xùn)練平臺(tái)可以做的任務(wù)?A、模型部署B(yǎng)、模型管理C、模型訓(xùn)練D、致?lián)?biāo)注答案:C35.機(jī)器學(xué)習(xí)中,模型需要輸入什么來訓(xùn)練自身,預(yù)測未知?A、訓(xùn)練算法B、人工程序C、神經(jīng)網(wǎng)絡(luò)D、歷史數(shù)據(jù)答案:D36.以下哪個(gè)選項(xiàng)不屬于華為云ModelArts提供的功能或服務(wù)?A、模型診斷B、智能模型調(diào)優(yōu)C、智能數(shù)據(jù)標(biāo)注D、vscodeSDK答案:D37.以下選項(xiàng)中不屬于回歸算法的性能評估的是哪一項(xiàng)?A、MSE均方誤差B、Recall召回率C、R-Square可決系數(shù)D、MAE平均絕對誤差答案:B38.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)需要大量的矩陣計(jì)算,一般我們需要配用硬件讓計(jì)算機(jī)具備并行計(jì)算的能力,以下硬件設(shè)備提供并行計(jì)算能力的是:A、主板B、內(nèi)存條C、GPUD、CPU答案:C39.人工智能的三個(gè)階段包含了計(jì)算智能、()、認(rèn)知智能。A、弱人工智能B、感知智能C、行為智能D、強(qiáng)人工智能答案:B40.以下關(guān)于標(biāo)準(zhǔn)RNN模型,說法正確的是?A、不存在一對一的模型結(jié)構(gòu)B、反向傳播時(shí)不考慮時(shí)間方向C、不存在多對多的模型結(jié)構(gòu)D、會(huì)出現(xiàn)長時(shí)間傳輸己憶的信息衰減的問題答案:D41.主成對抗網(wǎng)絡(luò)(GAN)是一種深度學(xué)習(xí)模型,以下哪一個(gè)選項(xiàng)屬于它的基本結(jié)構(gòu)?A、判別器B、感知器C、驗(yàn)證器D、對抗器答案:A42.以下那一項(xiàng)技術(shù)可以提供本體設(shè)計(jì)、信息抽取、知識(shí)映射、多源融合以及增量更新等功能?A、分詞B、知識(shí)圖譜C、圖像搜索D、可視化答案:B43.感知器在空間中可以展現(xiàn)為?A、線B、平面C、超平面D、點(diǎn)答案:C44.Tensorflow是下面哪家公司開源的第二代用于數(shù)字計(jì)算的軟件庫?A、華為B、高通C、微軟D、谷歌答案:D45.以下關(guān)于機(jī)器學(xué)習(xí)整體流程正確的是A、數(shù)據(jù)收集->,數(shù)據(jù)清洗->特征提取與選擇->模型訓(xùn)練->模型部署與整合->模型評估測試B、數(shù)據(jù)收集->特征提取與選擇->數(shù)據(jù)清洗->模型訓(xùn)練->模型評估測試->模型部署與整合C、數(shù)據(jù)收集->數(shù)據(jù)清洗->特征提取與選擇->模型訓(xùn)練->模型評估測試->模型部署與整合D、數(shù)據(jù)收集->數(shù)據(jù)清洗->模型訓(xùn)練->特征提取與選擇->模型部署與整合->模型評估測試答案:C46.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)以下說法錯(cuò)誤的是A、卷積神經(jīng)網(wǎng)絡(luò)可以包含卷積層、池化層和全連接層B、在處理圖片時(shí),是以掃描窗口的方式對圖像做卷積C、卷積核不可以用來提取圖片全局特征D、常見的池化層有最大池化與平均池化答案:C47.TensorFlow20發(fā)布的時(shí)間,是在哪一年?A、2015B、2017C、2019D、2018答案:C48.以下輸出結(jié)果錯(cuò)誤的是?A、print(*map(lambdax:x*x,[1,2.3]))輸出結(jié)果:149B、print(*zip([1,2.3][“a”""],[“A”“B”“C”))輸出結(jié)果:(1,a’"A)(2,b’,B(3,CC、print(*filter(Jlambdax:x%2==1),[1,2,3]))輸出結(jié)果13D、sorted(("b’,2).("a,1)(c’,3)(d’4)],key=lambdax:x[1])輸出結(jié)果:[(a’,1),("’,2).(C.3),(d’4)]答案:B49.“對抗生成網(wǎng)絡(luò)(GAN)可以用來生成假圖片達(dá)到以假亂真的目的?!标P(guān)于上述描述,以下哪一個(gè)說法是正確的?A、該說法錯(cuò)誤,GAN網(wǎng)絡(luò)屬于聚類模型B、該說法錯(cuò)誤,GAN屬于回歸模型C、該說法正確,GAN網(wǎng)絡(luò)屬于分類模型D、該說法正確,GAN網(wǎng)絡(luò)性能很強(qiáng),屬于生成學(xué)習(xí)模型答案:D50.以下哪個(gè)不是圖像識(shí)別服務(wù)的應(yīng)用?A、目標(biāo)檢測B、智能相冊C、場景分析D、語音合成答案:D51.以下關(guān)于模型有效性的描述中,哪一項(xiàng)是錯(cuò)誤的A、誤差是指學(xué)習(xí)到的模型在樣本上的預(yù)測結(jié)構(gòu)與樣本的真實(shí)結(jié)果之間的差B、訓(xùn)煉誤差指的是在新樣本上的誤差C、機(jī)器學(xué)習(xí)的目標(biāo)是使學(xué)得的模型能夠很好的適用于新的樣本,而不是僅僅在訓(xùn)煉樣本上工作的很好D、從模型訓(xùn)練過程的角度,誤差可以被分為訓(xùn)練誤差以及泛化誤差答案:B52.在語音識(shí)別實(shí)驗(yàn)中如果想要設(shè)置輸出結(jié)果添加標(biāo)點(diǎn),需要使用以下哪一個(gè)選項(xiàng)?A、srrequest.setadd_punc('yes')B、asrrequest.setaddpunc('no’)C、onfig.setreadtimeout('yes')D、config.setreadtimeout('no’)答案:A53.以下不屬于TensorFlow2.0的特點(diǎn)是?A、多核CPU加速B、分布式C、多語言D、多平臺(tái)答案:A54.LSTM不包含以下哪個(gè)門?A、遺忘門B、輸出門C、刷新門D、輸入門答案:C55.以下關(guān)于昇騰AI軟件棧中任務(wù)調(diào)度器的描述,正確的是哪一個(gè)選項(xiàng)?A、負(fù)責(zé)完成神經(jīng)網(wǎng)絡(luò)在昇騰AI芯片上的落地與實(shí)現(xiàn),統(tǒng)籌了整個(gè)神經(jīng)網(wǎng)絡(luò)生效的過程,控制離線模型的加載和執(zhí)行過程.B、為神經(jīng)網(wǎng)絡(luò)的任務(wù)下發(fā)和分配提供了各種資源管理通道。C、可對輸入的數(shù)據(jù)進(jìn)行處理與修飾。D、為異騰AI芯片提供具體的目標(biāo)任務(wù)。答案:D56.GBDT算法相比于隨機(jī)森林算法,以下哪種表述是錯(cuò)誤的?A、GBDT算法比隨機(jī)森林容易欠擬合B、隨機(jī)森林是并行計(jì)算的,而GBDT不能C、GBDT算法比隨機(jī)森林容易過擬合D、GBDT與隨機(jī)森林都是建立在CART樹的基礎(chǔ)之上的答案:A57.以下關(guān)于softsign函數(shù)的描述中,錯(cuò)誤的是哪一項(xiàng)?A、Softsign函數(shù)相比tanh函數(shù)容易飽知B、選擇Softsig門函數(shù)的網(wǎng)絡(luò)容易出現(xiàn)樣度退化現(xiàn)象,導(dǎo)致模型難以訓(xùn)練C、Softsign函數(shù)很準(zhǔn)回避褲度消失的問題D、Softsign函數(shù)遠(yuǎn)離畫數(shù)中心點(diǎn)的位置,函數(shù)導(dǎo)數(shù)趨于0答案:A58.ModelArts中點(diǎn)擊(即可給已經(jīng)創(chuàng)建好的開發(fā)環(huán)境同步OBS中的代碼和數(shù)據(jù)集?A、無需操作B、DulicateOBSC、SyncOBSD、MoveOBS答案:C59.神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí),常會(huì)遇到很多問題,對于梯度消失問題,我們可以通過選擇使用以下哪種函數(shù)減輕該問題?A、Relu函數(shù)B、Sigmoid函數(shù)C、tanh函數(shù)D、Softsign函數(shù)答案:A60.MindsporeLite沒有使用以下哪項(xiàng)技術(shù)?A、大小核智能超頻B、聯(lián)邦學(xué)習(xí)C、內(nèi)存復(fù)用D、異構(gòu)調(diào)度答案:A61.創(chuàng)建網(wǎng)絡(luò)層時(shí),添加dropout層的主要目的是什么?A、提取圖像特征B、起到分類器的作用C、增加非線性D、防止過擬合答案:D62.哪條命令可以檢查Atlas300(3000)加速卡是否在位?A、Ispci|grep'npu'B、Ispci|grep'd100'C、Ispci|grep'atlas'D、atlasinfo答案:B63.關(guān)于機(jī)器學(xué)習(xí)的數(shù)據(jù)集,以下說法哪一項(xiàng)是正確的?A、數(shù)據(jù)集可分為訓(xùn)練集和測試集,其中測試集用于模型訓(xùn)練,即尋找特征與目標(biāo)之間的關(guān)系,B、數(shù)據(jù)集中的樣本指的是每條記錄的不同屬性,比如姓名,年齡,性別等信息C、數(shù)據(jù)集的特征指的是每條記錄的不同屬性、比如姓名,年齡,性別等信息D、有監(jiān)督學(xué)習(xí)任務(wù)中,數(shù)據(jù)集的目標(biāo)列一般不包含標(biāo)簽答案:C64.以下關(guān)于機(jī)器學(xué)習(xí)常見算法的描述中,哪一項(xiàng)說法是正確的?A、K-means算法不能夠保證收斂。B、現(xiàn)有一個(gè)點(diǎn)被正確分類目遠(yuǎn)端決策邊界。如果將該點(diǎn)加入到訓(xùn)練集則SVM的邊界會(huì)受其影響C、樸素貝葉斯是借助樹狀結(jié)構(gòu)來刻畫屬性間的依賴關(guān)系。D、聚類試圖將數(shù)據(jù)集中的樣本劃分為若干個(gè)子集每個(gè)子集稱為一個(gè)"簇”答案:D65.長短記憶網(wǎng)絡(luò)是基于循環(huán)神經(jīng)網(wǎng)絡(luò)發(fā)展而來的,長短袖經(jīng)網(wǎng)絡(luò)主要解決了循環(huán)神經(jīng)網(wǎng)絡(luò)的什么問題?A、過擬合問題B、梯度爆炸問題C、梯度消失問題D、欠擬合問題答案:C66.以下哪個(gè)不是MindSpore核心架構(gòu)的特點(diǎn)?A、自動(dòng)并行B、自動(dòng)調(diào)優(yōu)C、自動(dòng)編碼D、自動(dòng)微分答案:C67.“知識(shí)表示是對知識(shí)的描述,即用一組符號(hào)把知識(shí)編碼成計(jì)算機(jī)可以接受的某種結(jié)構(gòu)。其表示方法是唯一的?!标P(guān)于上述描述,以下哪一個(gè)說法是正確的?A、該說法正確,知識(shí)表示是專家系統(tǒng)的一種B、該說法錯(cuò)誤,知識(shí)表示方法不是唯一的。C、該說法正確,知識(shí)表示可用于專家規(guī)則,模糊推理D、該說法錯(cuò)誤,知識(shí)表示的編碼方式是唯一的。答案:D68.0n-Device執(zhí)行,即整圖卸載執(zhí)行,充分發(fā)揮昇騰芯片的算力,可以大大降低交0n-Device執(zhí)行,即整圖卸載執(zhí)行充分發(fā)揮昇騰芯片的算力,可以大大降低交互的開銷,從而提升加速器占用率,關(guān)于0-Device執(zhí)行以下描述錯(cuò)誤的是?A、MindSpore通過梯度數(shù)據(jù)驅(qū)動(dòng)的自適應(yīng)圖優(yōu)化,實(shí)現(xiàn)去中心化的自主A11Reduce,梯度聚合步調(diào)一致,計(jì)算與通信充分流水B、超強(qiáng)芯片算力下模型執(zhí)行的挑戰(zhàn):內(nèi)存墻問題、交互開銷大、數(shù)據(jù)供給難。部分在Host執(zhí)行,部分在Device執(zhí)行,交互開銷甚至遠(yuǎn)大于執(zhí)行開銷,導(dǎo)致加速器占用率低C、Mindspore通過面向芯片的深度圖優(yōu)化技術(shù),同步等待少,最大化“數(shù)據(jù)計(jì)算通信”的并行度,訓(xùn)練性能相比Host側(cè)圖調(diào)度方式持平D、超強(qiáng)芯片算力下分布式梯度聚合的挑戰(zhàn):ResINet50單選代20ms時(shí)間時(shí)會(huì)產(chǎn)生中心控制的同步開銷和頻同步的通信開銷。傳統(tǒng)方法需要3次同步完成A11Reduce,數(shù)據(jù)驅(qū)動(dòng)方法自主A11Reduce,無控制開銷答案:C69.交通智能體可以實(shí)現(xiàn)()小時(shí)全時(shí)段/全域交通感知?A、5x24B、7x24C、5x12D、7x12答案:B70.當(dāng)前語音處理研究在任何情況下都能達(dá)到90%以上的識(shí)別準(zhǔn)確度。關(guān)于以上觀點(diǎn),下列說法正確的是哪一項(xiàng)?A、錯(cuò)誤,識(shí)別準(zhǔn)確度很高但沒那么高。B、正確,語音處理可以達(dá)到很高的識(shí)別準(zhǔn)確度。C、錯(cuò)誤,很多情況下,例如噪聲、背聲等會(huì)極大的影響語音的識(shí)別準(zhǔn)確度,D、正確,語音處理研究的歷史很長,已經(jīng)很成熟。答案:C71.以下哪一項(xiàng)技術(shù)常用于圖像特征提取研究領(lǐng)域?A、Word2Vec技術(shù)B、樸素貝葉斯分類算法C、卷積神經(jīng)網(wǎng)絡(luò)D、長短周期記憶網(wǎng)絡(luò)答案:C72.以下哪一項(xiàng)是在標(biāo)準(zhǔn)RNN結(jié)構(gòu)中的隱藏層中使用的激活函數(shù)?A、RaLUB、tanhC、SoftmaxD、sigmoid答案:B73.如果想要對圖像翻拍情況進(jìn)行檢測,可以調(diào)用華為云圖像標(biāo)簽服務(wù)提供的功能,主要由以下哪個(gè)函數(shù)實(shí)現(xiàn)?A、imagetagging_aksk()B、initglobalenv()C、recapturedetectaksk()答案:A74.代碼model.fit(mnist.train.inmage,mnist.train.labels.epochs=5)中的epochs參數(shù)代表?A、全體訓(xùn)練集將被訓(xùn)練5次B、全體測試集將被測試5次C、全體訓(xùn)練集將被分為6份D、全體訓(xùn)練集將被分為5份答案:A75.圖像識(shí)別實(shí)驗(yàn)中,在4251個(gè)訓(xùn)練圖片中,有超過2000個(gè)類別只有一張圖片。還有一些類中有2-5個(gè)圖片。這一描述反映了以下哪一種數(shù)據(jù)問題?A、數(shù)據(jù)不平衡問題B、腚數(shù)據(jù)和數(shù)據(jù)異常值問題C、數(shù)據(jù)缺失問題D、數(shù)據(jù)過擬合問題答案:A76.以下關(guān)于回歸模型調(diào)試與應(yīng)用的描述中,錯(cuò)的是哪一項(xiàng)?A、當(dāng)訓(xùn)練完成之后,需要使用測試集進(jìn)行測試,確保模型的泛化能力。B、如果最后的模型效果不好,也需要注意使用數(shù)據(jù)清理與特征工程。C、如果出現(xiàn)過擬合,可以使用帶有正則項(xiàng)的LASSO回歸或者Ridge回歸,并調(diào)節(jié)超參數(shù)D、如果出現(xiàn)欠擬合,可以使用更加復(fù)雜的回歸模型,比如邏輯回歸。答案:D77.以下關(guān)于達(dá)芬奇架構(gòu)中的控制單元,錯(cuò)誤的是哪一個(gè)選項(xiàng)?。A、可以讀取標(biāo)量指令隊(duì)列中配置好的指令地址和參數(shù)解碼。B、可進(jìn)行中斷處理和狀態(tài)申報(bào)。如果執(zhí)行過程出錯(cuò),會(huì)把執(zhí)行的錯(cuò)誤狀態(tài)報(bào)告給任務(wù)調(diào)度器C、可存放神經(jīng)網(wǎng)絡(luò)中每層計(jì)算的中間結(jié)果。D、時(shí)刻控制每條指令流水線的執(zhí)行狀態(tài)。答案:C78.“批量推理是對批量數(shù)據(jù)進(jìn)行推理的批量作業(yè),使用批量推理之前,不需要對模型進(jìn)行訓(xùn)練。”關(guān)于上述描述,以下哪一個(gè)說法是正確的?A、該描述錯(cuò)誤批量推理不需要訓(xùn)練操作B、該描述錯(cuò)誤推理之前要對模型進(jìn)行訓(xùn)練才可以C、該貓述正確推理意味著訓(xùn)練結(jié)束D、該貓述正確批量推理就是不需要再訓(xùn)練了答案:B79.前饋神經(jīng)網(wǎng)絡(luò)是一種簡單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列,是目前應(yīng)用最廣泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡(luò)之一。以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)說法正確的是:A、具備計(jì)算能力的神經(jīng)元與上下兩層相連B、其輸入節(jié)點(diǎn)具備計(jì)算能力C、同一層神經(jīng)元相互連接D、層間信息只沿一個(gè)方向傳遞答案:D80.量子線路就是一些量子門序列作用于量子比特,使量子比特的量子態(tài)演化為新的量子態(tài)。以下哪一個(gè)選項(xiàng)不屬于量子線路A、初態(tài)制備B、繪制電子線路C、量子態(tài)演化D、量子測量答案:B81.昇騰AI處理器的邏輯架構(gòu)不包括以下哪個(gè)選項(xiàng)?A、DVPPB、GPUC、AI計(jì)算引擎D、芯片系統(tǒng)控制CPU答案:B82.在智慧醫(yī)療場景下,下列技術(shù)與應(yīng)用對應(yīng)錯(cuò)誤的是哪一項(xiàng)?A、疾病風(fēng)險(xiǎn)預(yù)測-數(shù)據(jù)挖掘B、醫(yī)學(xué)影像-計(jì)算機(jī)視覺C、虛擬助理-語音識(shí)別D、藥物挖掘-計(jì)算機(jī)視覺答案:D83.以下關(guān)于達(dá)芬奇架構(gòu)的描述錯(cuò)誤的是哪一選項(xiàng)?A、通過總線接口單元將數(shù)據(jù)搬到輸入緩中區(qū)B、控制單元負(fù)責(zé)整個(gè)AICore的運(yùn)行C、計(jì)算單元包含四種基礎(chǔ)計(jì)算資源D、AICore的片上存儲(chǔ)單元和相應(yīng)的數(shù)據(jù)通路構(gòu)成了存儲(chǔ)系統(tǒng)答案:C84.以下哪一項(xiàng)屬于零階張量?A、標(biāo)量B、向量C、矩陣D、R答案:A85.以下關(guān)于聯(lián)邦學(xué)習(xí)的描述,哪一個(gè)選項(xiàng)是錯(cuò)誤的?A、聯(lián)邦學(xué)習(xí)有助于實(shí)現(xiàn)更安全的數(shù)據(jù)共享。B、聯(lián)邦學(xué)習(xí)原本用于解決安卓手機(jī)終端用戶在本地更新模型的問題C、聯(lián)邦學(xué)習(xí)的目的在于保證數(shù)據(jù)隱私安全及合法合規(guī)的基礎(chǔ)上,實(shí)現(xiàn)共同建模,提升AI橫型的效果D、聯(lián)邦學(xué)習(xí)最早在2016年由百度公司提出。答案:D86.以下選項(xiàng)中不屬于超參數(shù)搜索方法的是哪一項(xiàng)?A、網(wǎng)格搜索B、聚類算法C、貝葉斯搜索D、隨機(jī)搜索答案:B87.白化是一種常見的數(shù)據(jù)預(yù)處理方式,下列對白化的描述哪一項(xiàng)是正確的?A、白化的效果不如零均值化.B、白化就是要把你需要處理的數(shù)據(jù)經(jīng)過處理后(通過某種算法)限制在你需要的一定范圍內(nèi)。C、白化是一種使用廣泛的數(shù)據(jù)部降維算法,是一種無監(jiān)督學(xué)習(xí)方法,主要是用來將特征的主要分成找出,并去掉基本無關(guān)的成分,從而達(dá)到降維的目的D、白化就是把各個(gè)特征軸上的數(shù)據(jù)除以對應(yīng)特征值,從而達(dá)到在每個(gè)特征軸上都刷歸一化幅度的結(jié)果。答案:C88.下列哪個(gè)不是tensorFlow中的元素?A、graphB、SessionC、tensorD、Point答案:D89.以下哪一項(xiàng)不屬于Mindspore全場景部署和協(xié)同的關(guān)鍵特性?A、統(tǒng)一模型R帶來一致性的部署體驗(yàn)B、端云協(xié)同F(xiàn)ederalMetaLearning打破端云界限,多設(shè)備協(xié)同模型。C、數(shù)據(jù)+計(jì)算整圖到Ascend芯片。D、軟硬協(xié)同的圖優(yōu)化技術(shù)屏蔽場景差異答案:C90.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說法錯(cuò)誤的是?A、循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時(shí)間軸展開B、LSTM無法解決梯度消失的問題C、LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)可以簡寫為RNN答案:B91.批量梯度下降,小批量梯度下降,隨機(jī)梯度下降最重要的區(qū)別在哪里?A、梯度大小B、梯度方向C、學(xué)習(xí)率D、使用樣本數(shù)答案:D92.Atlas800AI服務(wù)器有多個(gè)型號(hào),其中基于鯤鵬處理器平臺(tái)的是?A、tlas800型號(hào):9000B、Atlas800型號(hào):3000C、Atlas800型號(hào):3010答案:B93.x=Tensor(np.array(I[1,2],[3.4]]),32)在MindSpore中,運(yùn)行以上這段代碼有什么A、修改tensor的維度B、創(chuàng)建tensorC、刪除tensorD、創(chuàng)建ndarray答案:B94.以下不屬于衡量模型優(yōu)勢指標(biāo)的是哪一項(xiàng)?A、代碼復(fù)雜度B、可解釋性C、預(yù)測速率D、泛化能力答案:A95.某廠家想要生產(chǎn)一批虛擬助理以供醫(yī)院使用,而對于虛擬助理來說聲紋識(shí)別主要涉及到以下哪一項(xiàng)技術(shù)?A、語音識(shí)別和處理技術(shù)B、圖像識(shí)別與處理技術(shù)C、圖像生成與增強(qiáng)技術(shù)D、專家系統(tǒng)與知識(shí)圖譜技術(shù)答案:A96.以下哪項(xiàng)技術(shù)的研究與發(fā)展能夠提升模型訓(xùn)練的精度?A、自動(dòng)并行B、二階優(yōu)化C、數(shù)據(jù)加速D、內(nèi)存復(fù)用答案:B97.Softmax激活函數(shù)可以將一個(gè)K維的任意實(shí)數(shù)向量映射成另一個(gè)K維的實(shí)數(shù)向量,該函數(shù)經(jīng)常用在神經(jīng)網(wǎng)絡(luò)的哪一層?A、輸入層B、卷積層C、隱藏層D、輸出層答案:D98.以下列哪一項(xiàng)不屬于語音識(shí)別場景的應(yīng)用?A、會(huì)議記錄B、電話回訪C、口語測評D、人臉識(shí)別E、智能音箱答案:D99.深度學(xué)習(xí)中如果神經(jīng)網(wǎng)絡(luò)的層數(shù)較多比較容易出現(xiàn)梯度消失問題。嚴(yán)格意義上來講是在以下哪個(gè)環(huán)節(jié)出現(xiàn)梯度消失問題?A、反向傳播更新參數(shù)B、正向傳播更新參數(shù)C、反向傳播計(jì)算結(jié)果D、正向傳播計(jì)算結(jié)果答案:A100.使用MindSpore執(zhí)行圖片中的代碼時(shí),以下哪一項(xiàng)是這段代碼的正確輸出結(jié)果﹖圖片代碼:=tensor([4,o,5,o,o,o],的type.float64)Print(p)A、Tensor(shape=[3],dtype=Float64,value=[4,5,6])B、Array({4,0,5,06,0)C、Tensor(shape=[3],dtype=Float64,value=[4,00000000e+000,5,00000000e+000,6,00000000e+000])D、Array(shape=[3].dtype=Float64,value=[4,00000000e+000,5,00000000e+000,6,00000000e+000])答案:C101.K-means對于下列哪一種類型的數(shù)據(jù)集的聚類效果不好?A、凸多邊形分布數(shù)據(jù)集B、擺旋形分布數(shù)據(jù)集C、帶狀分布數(shù)據(jù)集D、園形分布數(shù)據(jù)集答案:B102.當(dāng)使用TensorFlow2.0的keras接口搭建神經(jīng)網(wǎng)絡(luò)時(shí),需要進(jìn)行網(wǎng)絡(luò)的編譯工作,需要用到以下哪種方法?A、compileB、writeC、joinD、fit答案:A103.在深度學(xué)習(xí)網(wǎng)絡(luò)中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使用的什么法則進(jìn)行逐層求導(dǎo)的?A、鏈?zhǔn)椒▌tB、累加法則C、對等法則D、歸一法則答案:A104.調(diào)用華為云通用表格識(shí)別API時(shí)能夠輸出表格子區(qū)域識(shí)別文字塊列表,以下哪一項(xiàng)是其輸出順序?A、公左到右,先上后下B、從左到右,先下后上C、從右到左先下后上D從右到左先上后下答案:A105.以下哪一項(xiàng)是靜態(tài)圖模式的劣勢?A、debugB、部署C、性能優(yōu)化D、分布式訓(xùn)練答案:A106.以下哪個(gè)表達(dá)式可以“我電話是110,有事請找我”中配出110?A、re.split("d+",str1)B、re.match("[O-9]+,str1)C、re.search("ld+",strl)D、re.match("d+”,str1)答案:C107.Bagging集成學(xué)習(xí)中,每個(gè)基學(xué)習(xí)器之間的關(guān)系是?A、相加關(guān)系B、相關(guān)關(guān)系C、后面的模型必須建立在前面的模型之上D、相互獨(dú)立答案:D108.以下關(guān)于基于規(guī)則的方法描述中,哪一項(xiàng)是錯(cuò)誤的?A、基于規(guī)則的方法中決策的規(guī)則復(fù)雜或者難以描述B、基于規(guī)則的方法一般不需要使用樣本訓(xùn)練C、基于規(guī)則的方法使用顯性編程來解決問題D、基于規(guī)則的方法中規(guī)則可以被人工明確答案:A109.“ModelArts僅僅支持華為自己的產(chǎn)品,例如昇騰310、昇騰910,使用的也都是華為自研的MindSpore。”關(guān)于上述描述,以下哪一個(gè)說法是正確的?A、該描述正確,可以支持其他的產(chǎn)品,但還沒用起來B、該描述正確,華為的產(chǎn)品就是應(yīng)該只支持華為自己的產(chǎn)品。C、該描述錯(cuò)誤,昇騰不是華為的產(chǎn)品。D、該描述錯(cuò)誤,ModelArts是一個(gè)開放包容的Al產(chǎn)品。答案:D110.關(guān)于深度學(xué)習(xí)的描述中,以下哪一項(xiàng)是錯(cuò)誤的?A、在大部分情況下,網(wǎng)絡(luò)在高維的權(quán)重參數(shù)海量的訓(xùn)練數(shù)據(jù)下可以獲得高性能B、利用算法自動(dòng)提取特征C、特征可解釋性強(qiáng)D、端到端”的學(xué)習(xí)答案:C111.在應(yīng)用開發(fā)時(shí),以下哪種操作不屬于網(wǎng)絡(luò)定義的步驟?A、指定輸入維度B、知識(shí)蒸館C、權(quán)值初始化D、指定網(wǎng)絡(luò)優(yōu)化器答案:B112.在前饋神經(jīng)網(wǎng)絡(luò)的前向傳播過程當(dāng)中,具體是以下哪一項(xiàng)被前向傳播?A、輸入的數(shù)據(jù)B、卷積C、輸出的數(shù)據(jù)D、誤差答案:A113.有監(jiān)督學(xué)習(xí)中,“近朱者赤近墨者黑”是用來形容下列哪個(gè)模型?單選題A、K-MeansB、SVMMC、KNND、神經(jīng)網(wǎng)絡(luò)答案:C114.通用文字識(shí)別服務(wù)調(diào)用成功時(shí),返回的文字識(shí)別結(jié)果保存在下列哪個(gè)字段中?A、textB、resultC、ontentD、words答案:B115.以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)的描述中,錯(cuò)誤的是哪一項(xiàng)?A、各層節(jié)點(diǎn)中具有計(jì)算功能的神經(jīng)元,稱為計(jì)算單元,每個(gè)神經(jīng)元只與前一層的神經(jīng)元相連。B、輸入節(jié)點(diǎn)具有計(jì)算功能,不只是為了表征輸入矢量各元素值C、前饋神經(jīng)網(wǎng)絡(luò)是一種最簡單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列。D、多層的感知器屬于前饋神經(jīng)網(wǎng)絡(luò)。答案:B116.mindspore.ops.GradOperation(getall=-false,getby_list=False,sens_param=False)。以下關(guān)于上述代碼的描述中,正確的是哪一項(xiàng)?A、get_all為False時(shí),會(huì)對所有揄入求導(dǎo)B、sens_param對網(wǎng)絡(luò)的輸出值做縮放以改變最終梯度C、getby_Iist為False時(shí)會(huì)對權(quán)重求導(dǎo)。D、GradOperation方法在梯度下降和反向傳播中沒有任何用處答案:D117.Mindspore提供了自動(dòng)對圖像進(jìn)行增強(qiáng)處理的機(jī)制,可以實(shí)現(xiàn)算子的自動(dòng)選擇和執(zhí)行,達(dá)到提升訓(xùn)練精度的目的,以下哪些機(jī)制是正確的?A、基于精度的自動(dòng)數(shù)據(jù)增強(qiáng)B、基于概率的自動(dòng)數(shù)據(jù)增強(qiáng)C、基于魯棒性的自動(dòng)數(shù)據(jù)增強(qiáng)D、基于反饋的自動(dòng)數(shù)據(jù)增強(qiáng)答案:B118.ModelArts服務(wù)與()服務(wù)相結(jié)合可以輕松將模型部署到“端”?A、OBSB、OCRC、ECSD、HiLens答案:D119.以下關(guān)于計(jì)算機(jī)視覺的說法,哪一個(gè)選項(xiàng)是正確的?A、計(jì)算機(jī)視覺需要用到圖像處理技術(shù)B、計(jì)算機(jī)視覺是利用計(jì)算機(jī)技術(shù)來理解并運(yùn)用自然語言的學(xué)科C、計(jì)算機(jī)視覺就是讓計(jì)算機(jī)去分析語言數(shù)據(jù)D、計(jì)算機(jī)視覺就是通過專家經(jīng)驗(yàn)提供排障指導(dǎo)的學(xué)科答案:A120.在達(dá)芬奇架構(gòu)中關(guān)于矩陣計(jì)算,以下哪個(gè)選項(xiàng)和矩陣計(jì)算單元主要完成矩陣相關(guān)運(yùn)算?A、寄存器B、累加器C、運(yùn)算器D、控制器答案:B121.考慮以下場景。使用機(jī)器學(xué)習(xí)算法進(jìn)行垃圾郵件的過濾。根據(jù)機(jī)器學(xué)習(xí)的簡單定義,以下哪選項(xiàng)屬于性能衡是標(biāo)準(zhǔn)?A、過去三年所有帶標(biāo)簽的垃圾郵件和正常郵件數(shù)據(jù)郵箱地址B、郵箱地址C、過濾垃圾郵件D、垃圾件過濾正確率答案:D122.在一個(gè)任務(wù)中,試圖讓學(xué)習(xí)器利用大量未標(biāo)記數(shù)據(jù)以及少量有標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練,這樣的算法屬于以下哪一類學(xué)習(xí)?A、半監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、監(jiān)督學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)答案:A123.圖引擎服務(wù)(GraphEngineService)是針對以下面哪一項(xiàng)為基礎(chǔ)的“圖”結(jié)構(gòu)數(shù)據(jù),A、模型B、數(shù)據(jù)C、算法D、關(guān)系答案:D124.MindSpore在提升計(jì)算性能方面做了很多優(yōu)化,下面哪項(xiàng)不屬于優(yōu)化的內(nèi)容?A、On-Device執(zhí)行B、Pipeline并行C、內(nèi)存專用D、深度圖優(yōu)化答案:C125.下列哪一項(xiàng)是張量[[0,1],[2,3]]的正確階數(shù)?A、3B、4C、2D、6答案:C126.知識(shí)圖譜構(gòu)建過程中需要進(jìn)行信息抽取,以下哪一項(xiàng)不屬于信息抽取的關(guān)鍵技術(shù)?A、屬性抽取B、參數(shù)抽取C、實(shí)體抽取D、關(guān)系抽取答案:B127.關(guān)于圖像內(nèi)容審核服務(wù)說法錯(cuò)誤的是?A、politics為涉政敏感人物檢測結(jié)果B、terrorism為涉政暴恐檢測結(jié)果C、onfidence代表置信度,范圍0-100D、label代表每個(gè)檢測結(jié)果的標(biāo)簽答案:C128.深度學(xué)習(xí)中,以下哪種方法不能解決過擬合的問題?A、參數(shù)正則化B、數(shù)據(jù)增強(qiáng)C、提前停止訓(xùn)練D、減小學(xué)習(xí)率答案:D129.以下哪個(gè)激活函數(shù)可以很好的解決梯度消失問題?A、TanhB、SoftsignC、ReluD、Sigmoid答案:C130.以下關(guān)于樸素貝葉斯的說法中,哪一項(xiàng)是錯(cuò)誤的?A、貝葉斯分類器應(yīng)用于大型數(shù)據(jù)庫具有較高的準(zhǔn)確性和快速的速度B、樸素貝葉斯的“樸素",指的是該方法需要假設(shè)各個(gè)特征之間是獨(dú)立的C、樸素貝葉斯是一種簡單的多分類算法D、樸素貝葉斯算法依賴于人工神經(jīng)網(wǎng)格,因此使用起來非常復(fù)雜答案:D131.關(guān)于華為全棧全場景AI解決方案,以下說法中哪一項(xiàng)是錯(cuò)誤的?A、tlas:基于Ascend系列AI處理器,通過豐富的產(chǎn)品形態(tài),打造面向“端、邊、云”的全場景AI基礎(chǔ)設(shè)施方案B、Ascend:基于統(tǒng)一、可擴(kuò)展架構(gòu)的系列化AI芯片。C、應(yīng)用使能:提供全流程服務(wù)(ModelArts),分層API和預(yù)集成方案D、MindSpore:芯片算子庫和高度自動(dòng)化算子開發(fā)工具。答案:D132.在達(dá)芬奇架構(gòu)中,向量計(jì)算單元不支持的計(jì)算類型是以下哪一個(gè)選項(xiàng)?A、Int16B、FP32C、FP16D、Int8答案:A133.PyTorch中的數(shù)據(jù)基本存儲(chǔ)單元是?A、DataframeB、MatrixC、NumpyD、Tensor答案:D134.HUAWEIHiAI平臺(tái)中的人臉檢測是屬于哪個(gè)模塊?A、HiAlEngineB、HiAlFrameworkC、HiAlFoundationD、HiAlService答案:A135.昇騰AI軟件棧中的哪個(gè)功能模塊為神經(jīng)網(wǎng)絡(luò)的任務(wù)下發(fā)和分配提供了各種資源管道通道?A、流程編排器B、任務(wù)調(diào)度器C、框架管理器D、運(yùn)行管理器答案:D136.如果有100個(gè)卷積核,每個(gè)卷積核的大小是10x10,在不考慮偏置的情況下,以下哪一項(xiàng)是正確的參數(shù)量A、100B、100KC、10KD、1K答案:C137.機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?A、BoostingB、StackingC、BaggingD、Marking答案:D138.以下關(guān)于Mindspore子系統(tǒng)的設(shè)計(jì)目標(biāo)的描述,錯(cuò)誤的是哪一項(xiàng)?A、向用戶提供統(tǒng)一的模型訓(xùn)練,推理和導(dǎo)出等接口,滿足端,邊,云等不同場景B、兩層用戶AP設(shè)計(jì),支撐用戶進(jìn)行網(wǎng)絡(luò)構(gòu)建,整圖執(zhí)行,子圖執(zhí)行以及單算子執(zhí)行C、單機(jī)和分布式訓(xùn)練統(tǒng)一的編碼方式D、動(dòng)態(tài)圖和靜態(tài)圖差異化編碼方式答案:D139.TensorFlow是下列哪個(gè)公司首先開發(fā)的?A、B甲骨文B、FacebookC、英偉達(dá)D、Google答案:D140.TensorFlow2.0中查看張量維度的方法是?A、dimensB、dtypeC、ndimD、evice答案:C141.在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型中,Softmax函數(shù)是跟在什么隱藏層后面的?A、卷積層B、池化層C、全連接層D、以上都可以答案:C142.下列選項(xiàng)中對泊松分布與二項(xiàng)分布的關(guān)系正確的是?A、泊松分布與二項(xiàng)分布沒有關(guān)系B、泊松分布可以替代二項(xiàng)分布C、泊松分布是二項(xiàng)分布當(dāng)n很大p很小時(shí)的近似計(jì)算D、泊松分布與二項(xiàng)分布的數(shù)學(xué)模型都是拉格朗日概型答案:C143.Python3中5/2的結(jié)果是?A、2B、1C、3D、2.5答案:D144.以下哪個(gè)不是Mindspore常用的Operation?A、signalB、mathC、arrayD、nn答案:A145.從技術(shù)架構(gòu)角度,關(guān)于AI芯片的描述,錯(cuò)誤的是哪一項(xiàng)?A、CPU的功能主要是解釋計(jì)算機(jī)指令以及處理計(jì)算機(jī)硬件中的數(shù)據(jù)B、FPGA實(shí)現(xiàn)了半定制芯片的功能C、ASIC屬于專用集成電路D、GPU是一種專門在個(gè)人電腦、工作站,游戲和一些移動(dòng)設(shè)備上進(jìn)行圖像運(yùn)算工作的微處理器答案:A146.激活函數(shù)對于神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)、理解非常復(fù)雜的問題有著重要的作用,以下關(guān)于激活函數(shù)說法正確的是?A、激活函數(shù)都是線性函數(shù)B、激活函數(shù)都是非線性函數(shù)C、激活函數(shù)部分是非線性函數(shù),部分是線性函數(shù)D、激活函數(shù)大多數(shù)是非線性函數(shù),少數(shù)是線性函數(shù)答案:B147.在以下哪一個(gè)年份,Rosenblat發(fā)明感知器(perceptron)算法?A、1969年B、1986年C、1950年D、1958年答案:D148.對于常用梯度下降算法的描述,以下選項(xiàng)中哪一項(xiàng)是錯(cuò)誤的?A、小批量梯度下降(MBGD),每次使用一定數(shù)量的的訓(xùn)練樣本進(jìn)行訓(xùn)練B、批量梯度下降(BGD)是收斂速度最快,消耗計(jì)算資源最少的一種方法。C、隨機(jī)梯度下降(SGD),每次使用一個(gè)訓(xùn)練樣本進(jìn)行訓(xùn)練。D、批量梯度下降(BGD),每次使用所有的訓(xùn)練樣本進(jìn)行訓(xùn)練。答案:B149.以下關(guān)于SVM算法說法錯(cuò)誤的是?A、SVM算法可以使用用多種核函數(shù)B、SVM可以被用于解決分類問題C、支持向量是距離超平面最近的向量點(diǎn)D、SVM算法不能用于處理非線性數(shù)據(jù)集答案:D150.以下關(guān)于特征選擇描述的選項(xiàng)中,哪一個(gè)選項(xiàng)是錯(cuò)誤的?A、使用特征選擇的原因是在采集到的數(shù)據(jù)集中,有一些特征可能是多余的或者與我們要預(yù)測的值無關(guān)的。B、特征選擇無法避免維度爆炸的問題C、特征選擇可以幫助我們簡化模型,使模型更容易被使用者所解釋。D、特征選擇技術(shù)可減少訓(xùn)練的時(shí)間,提升模型泛化性,避免過擬合答案:B151.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系D、以上都不對答案:A152.以下關(guān)于模型泛化能力的描述中,哪一項(xiàng)是正確的?A、泛化能力指每一條數(shù)據(jù)的預(yù)測需更多長時(shí)間。B、泛化能力指預(yù)測的結(jié)果是否容易被解釋。C、泛化能力指實(shí)際業(yè)務(wù)過程中數(shù)據(jù)量可能很大,隨著業(yè)務(wù)量增大,預(yù)測的速率是否仍然可以接受D、泛化能力指能否在實(shí)際的業(yè)務(wù)數(shù)據(jù)也能預(yù)測準(zhǔn)確。答案:D153.Atlas加速AI推理使用的是什么處理器?A、昇騰910處理器B、昇騰310處理器C、GPUD、FPGA答案:B154.在語音合成實(shí)驗(yàn)的輸出結(jié)果中,以下哪一個(gè)選項(xiàng)的描述是錯(cuò)誤的?A、即使調(diào)用失敗了輸出結(jié)果中也會(huì)有traceid字殷B、savedPath字段表元合成的語音文件的保存路徑C、result字段在調(diào)用成功時(shí)表示識(shí)別結(jié)果,調(diào)用失敗時(shí)無此字段D、issaved字段表示臺(tái)成的語音文件是否成功保存答案:D155.PyTorch不具備那種功能?A、內(nèi)嵌kkerasB、自動(dòng)求導(dǎo)C、GPU加速D、支持動(dòng)態(tài)圖答案:A156.對于圖像分類問題,以下哪個(gè)神經(jīng)網(wǎng)絡(luò)更適合解決這個(gè)問題?A、感知器B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、全連接神經(jīng)網(wǎng)絡(luò)答案:C多選題1.以下哪些項(xiàng)是單層感知機(jī)和邏輯回歸的主要區(qū)別?A、激活函數(shù)B、處理的任務(wù)C、損失函數(shù)D、優(yōu)化方法答案:AC2.AsCenD.芯片是華為設(shè)計(jì)的AI芯片,其特點(diǎn)是哪幾項(xiàng)?A、高功耗B、高算力C、低功耗D、低算力答案:BC3.下列哪幾項(xiàng)是圖引擎服務(wù)可以應(yīng)用的場景?A、風(fēng)控B、銷量預(yù)C、知識(shí)圖譜D、推薦答案:ABCD4.以下有關(guān)語音合成實(shí)驗(yàn)的說法中,正確的有哪些選項(xiàng)?A、語音合成技術(shù)的主要目的是幫助用戶將上傳的完整的錄音文件通過處理生成語音對應(yīng)的文字內(nèi)容B、用戶可根據(jù)API進(jìn)行音色選擇、自定義音量、語速,為企業(yè)和個(gè)人提供個(gè)性化的發(fā)音服務(wù)C、華為云提供開放API的方式,幫助用戶通過實(shí)時(shí)訪問和調(diào)用API獲取語音合成結(jié)果,將用戶輸入的文字合成為音頻。D、語音合成,又稱文語轉(zhuǎn)換,是一種將文本轉(zhuǎn)換成逼真語音的服務(wù)。答案:ABCD5.關(guān)于人臉?biāo)阉鞣?wù),下列哪些說法是正確的?A、沒有人臉集時(shí),需要先創(chuàng)建人臉集,再添加人臉數(shù)據(jù),然后才能進(jìn)行搜索B、一個(gè)人臉集的大小不能超過10000張圖片C、有專門的接口可以刪除指定人臉集D、有專門的接口可以刪除某個(gè)人臉集中的人臉數(shù)據(jù)答案:ACD6.以下關(guān)于模型中參數(shù)與超參數(shù)的描述中,哪些選項(xiàng)是正確的?A、模型超參數(shù)通常由實(shí)踐者直接指定B、模型超參數(shù)只能通過人工直接設(shè)定C、模型超參數(shù)通常根據(jù)給定的預(yù)測建模問題而調(diào)整D、模型超參數(shù)通??梢允褂脝l(fā)式方法來設(shè)置答案:ACD7.MoDelArts服務(wù)覆蓋的幾大應(yīng)用場景包括?A、工控B、圖像C、文本D、語音答案:ABCD8.華為云MoDelArts中有AIGAllery,可以提供以下哪些內(nèi)容?A、預(yù)置算法B、IDEC、NoteBookD、數(shù)據(jù)集答案:ACD9.以下哪些項(xiàng)屬于生成對抗網(wǎng)絡(luò)訓(xùn)練中的問題?A、不穩(wěn)定性B、模式崩塌C、過擬合D、欠擬合答案:ABC10.下列哪幾項(xiàng)是華為云圖引擎服務(wù)(GrAphEngineServiCe)的優(yōu)勢?A、豐富的圖分析算法庫B、高性能圖計(jì)算內(nèi)核C、分布式高性能圖存儲(chǔ)擎D、語音交互答案:ABCD11.在構(gòu)建好神經(jīng)網(wǎng)絡(luò)net后,使用MinDspore.moDel進(jìn)行訓(xùn)練,需要傳入net和以下哪些參數(shù)?A、損失函數(shù)B、評價(jià)指標(biāo)C、正則化方法D、優(yōu)化器E、梯度更新策略答案:ABD12.以下哪些選項(xiàng)是人工智能深度學(xué)習(xí)框架?A、MindSporeB、PytorchC、TheandD、TensorFlow答案:ABCD13.下面有關(guān)AI應(yīng)用領(lǐng)域的描述正確的有哪些選項(xiàng)?A、智醫(yī)療運(yùn)用了計(jì)算機(jī)視覺數(shù)據(jù)控掘等AI技術(shù)B、智慧城市,是一門綜合學(xué)科,幾乎涵蓋AI常用三大方向,語音、NLP和計(jì)算機(jī)視覺C、智慧教育,基本特征是開放、共享、交互、協(xié)作、泛在。以教育信息化促進(jìn)教育現(xiàn)代化用信息技術(shù)改變傳統(tǒng)模式D、智能家居,運(yùn)用了物聯(lián)網(wǎng)、語音識(shí)別等技術(shù)答案:ABCD14.A.企業(yè)在某個(gè)實(shí)例分割項(xiàng)目中(基于MinDspore實(shí)現(xiàn)),使用大量的圖片數(shù)據(jù)為了節(jié)省時(shí),AI工程師將數(shù)據(jù)轉(zhuǎn)換為MinDReCorD格式,以下關(guān)于此說法正確的選項(xiàng)有哪些?A、轉(zhuǎn)化為MinDReCorD后,可以提升模型的訓(xùn)練計(jì)算速度縮短開發(fā)周期,B、轉(zhuǎn)化為MinDReCorD后,可以有效壓縮數(shù)據(jù)的體積方便數(shù)據(jù)存儲(chǔ)。C、轉(zhuǎn)化為MinDReCorD后,減少磁盤IO、網(wǎng)絡(luò)io開銷,縮短開發(fā)周期。D、轉(zhuǎn)化為MinDReCorD后,實(shí)現(xiàn)數(shù)據(jù)統(tǒng)一存儲(chǔ)、訪問,方便數(shù)據(jù)管理。答案:ACD15.在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中我們經(jīng)常使用優(yōu)化器加快訓(xùn)練速度,以下屬于深度學(xué)習(xí)中常用的優(yōu)化器A、DAgrAD優(yōu)化器B、RMSprop優(yōu)化器C、ADAm優(yōu)化器D、動(dòng)量優(yōu)化器答案:ABCD16.在神經(jīng)網(wǎng)絡(luò)中常有權(quán)重共享現(xiàn)象,以下哪些神經(jīng)網(wǎng)絡(luò)會(huì)發(fā)生權(quán)重共享?A、感知器B、卷積神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)答案:BD17.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)比較容易出現(xiàn)過擬合問題,以下哪些選項(xiàng)可能導(dǎo)致過擬合問題?A、數(shù)據(jù)集樣本數(shù)目少B、使用正則項(xiàng)C、使用SigmoiD激活函數(shù)D、隱藏層數(shù)過多答案:AD18.華為云MoDelArts是面向AI開發(fā)的一戰(zhàn)式開發(fā)平臺(tái),以下哪些功能在MoDelArts上可以具備?A、數(shù)據(jù)治理B、AI市場C、可視化工作流D、自動(dòng)學(xué)習(xí)答案:ABCD19.HUAWEIHAI支持的機(jī)型有哪些?A、P30B、iPhone10C、Mate20D、榮耀V20答案:ACD20.以下關(guān)于傳統(tǒng)機(jī)器學(xué)習(xí)的描述,錯(cuò)誤的是哪些選項(xiàng)?A、適合小數(shù)據(jù)量訓(xùn)練B、需要用GPU做加速C、需要人工做特征選擇D、特征可解釋性差答案:BD21.決策樹的構(gòu)建過程一般包含以下哪些選項(xiàng)A、特征選擇B、聚類C、剪枝D、決策樹生成答案:ACD22.以下哪些是屬于深度學(xué)習(xí)算法的激活函數(shù)?A、SigmoidB、ReLUC、TanhD、Sin答案:ABC23.人工智能現(xiàn)在的技術(shù)應(yīng)用方向主要有?A、自然語言處理B、控制系統(tǒng)C、計(jì)算機(jī)視覺D、語音識(shí)別答案:ACD24.在隨機(jī)森林中,最終的集成模型是通過什么策略決定模型結(jié)果?A、累加制B、求平均數(shù)C、投票制D、累乘制答案:BC25.在深度學(xué)習(xí)模型訓(xùn)練的過程中,常見的優(yōu)化器有哪些?A、DAmB、ADAgrADC、SGDD、Momentum答案:ABCD26.以下關(guān)于標(biāo)準(zhǔn)RNN的描述正確的是哪幾項(xiàng)?A、標(biāo)準(zhǔn)的循環(huán)神經(jīng)網(wǎng)路存在褲度爆炸和棉度消失問題。B、標(biāo)準(zhǔn)RNN結(jié)構(gòu)解決了信息記憶的問題但是對長時(shí)間記憶的信息會(huì)衰減C、梯度消失梯度爆炸都與路徑長度太長有關(guān),前面的權(quán)重都基本固定不變,沒有訓(xùn)練效果D、標(biāo)準(zhǔn)RNN是一種死板的邏輯,越晚的輸入影響越大越早的輸入影響越小,且無法改變這個(gè)邏輯︰答案:ABCD27.MSR是一種簡潔高效靈活的基于圖的函數(shù)式IR,可以表示的函數(shù)式語義類型有?A、自由變量B、高階函數(shù)C、中斷D、遞歸答案:ABD28.在深度學(xué)習(xí)任務(wù)中,遇到數(shù)據(jù)不平衡問題時(shí),我們可以用以下哪些方法進(jìn)行解決?A、批量刪除B、隨機(jī)過采樣C、隨機(jī)欠采樣D、合成采樣答案:BCD29.MinDspore支持端-邊-云按需協(xié)作的關(guān)鍵技術(shù)包括?A、統(tǒng)一模型IRB、集中式架構(gòu)C、軟硬協(xié)同的圖優(yōu)化技術(shù)D、端云協(xié)同F(xiàn)eDerAlMetA.LeArning答案:ABCD30.TensorFlow2.0中可以用來查看是否是tensor的方法有?A、dtypeB、isinstanceC、is_tensorD、evice答案:BC31.以下關(guān)于深度學(xué)習(xí)的描述,正確的是那些選擇?A、利用算法自動(dòng)提取特征B、特征可解釋性強(qiáng)C、需要GPU做并行運(yùn)算D、需要將問題逐層分解答案:AC32.以下關(guān)于隨機(jī)梯度下降和小批量梯度下降的描述,正確的是哪些項(xiàng)?A、隨機(jī)樣度下降的不穩(wěn)定性可以幫助模型在收斂中跳過一些局部極值點(diǎn)B、小批量梯度下降相比于隨機(jī)梯度下降更容易受到噪聲數(shù)據(jù)的影響C、隨機(jī)梯度下降的一種實(shí)現(xiàn)是在線學(xué)習(xí)(OnlineLeArning),它根據(jù)每一個(gè)樣例來更新梯度D、小批量梯度下降的思想是每次使用一小批固定尺寸(BAtChSize)的樣例來更新權(quán)值答案:ACD33.以下哪些激活函數(shù)容易產(chǎn)生梯度消失問題?A、ReLUB、SoftplusC、TAnhD、SigmoiD答案:CD34.自動(dòng)駕駛場景下,涉及到的人工智能要素包含以下哪些選項(xiàng)?A、算力B、數(shù)據(jù)C、思考能力D、算法答案:ABCD35.下列哪些選項(xiàng)是<人工智能綜合實(shí)驗(yàn)>調(diào)用華為云服務(wù)中可能會(huì)用到的?A、kB、regionC、projeCt_iDD、sk答案:ABCD36.下面哪些屬于AI的應(yīng)用領(lǐng)域A、智慧醫(yī)療B、智慧教育C、智慧城市D、智慧家居答案:ABCD37.以下哪些模型可以用來做分類?A、邏輯回歸B、支持向量機(jī)C、線性回歸D、決策樹答案:ABD38.圖像標(biāo)簽服務(wù)調(diào)用成功時(shí)返回的type包含下列哪些類型?A、oBjeCt:實(shí)體標(biāo)簽B、ConCept:概念標(biāo)簽C、sport:運(yùn)動(dòng)標(biāo)簽D、sCene:場景標(biāo)簽答案:ABCD39.某企業(yè)在部署MinDsporepython開發(fā)環(huán)境時(shí),可以選擇以下哪些安裝方式?A、D.oCkerB、源碼安裝C、PIPD、ConDA答案:ACD40.以下哪幾項(xiàng)是華為云EI提供的入侵識(shí)別服務(wù)的特點(diǎn)?A、高人工成本B、高靈活性C、高易用性D、低誤振率答案:BCD41.John在使用MinDspore訓(xùn)練模型時(shí),想要將模型保存在本地文件中,以下選項(xiàng)中能實(shí)現(xiàn)他想法的選項(xiàng)有哪些?FromMinDspore.trAinCAllBACkimportCheCkPointConfigA、每隔30秒保存一個(gè)CheCkPoint文件,每隔3分鐘保留一個(gè)CheCkPoint文件:CheCkPointConfig(sAve_CheCkPoint_seC.onD.s=30,keepCheCkPointpernminutes=3)B、每隔30秒保存一個(gè)CheCkPoint文件且每隔32個(gè)step保存一個(gè)CheCkPoint文件:CheCkPointConfig(sAveCheCkPoint_steps=32sAve_CheCkPoint_seC.onD.s=30)C、每隔32個(gè)step保存一個(gè)CheCkPoint文件,且最多保存10個(gè)CheCkPoint文件:CheCkPointConfig(sAve_CheCkPoint_steps=32.keep_CheCkPointmA.x=10)D、開啟斷點(diǎn)續(xù)訓(xùn)功能:CheCkPointConfig(sAve_CheCkPoint_steps=32,keep_CheCkPoint_mA.x=10,exC.eption_sAve=True)答案:ACD42.華為云MoDelArts中推出了MoDelBox用于端邊云聯(lián)合開發(fā),以下哪些選項(xiàng)屬于其優(yōu)化策略?A、算子自動(dòng)切分B、硬件親和性C、模型克隆D、算子優(yōu)化答案:ABD43.用于訓(xùn)練的Atlas產(chǎn)品有A、tals300型號(hào)9000B、Atlas800型號(hào)9000C、Atals500D、Atals900答案:ABCD44.SVM中常用的核函數(shù)包括哪些?A、高斯核函數(shù)B、多項(xiàng)式核函數(shù)C、Sigmiod核函數(shù)D、線性核函數(shù)答案:ABCD45.以下關(guān)于反向傳播算法的描述,正確的是哪些項(xiàng)?A、反向傳播的本質(zhì)是鏈?zhǔn)角髮?dǎo)法則。B、反向傳播的目的是計(jì)算梯度,更新參數(shù)。C、誤差反向傳播之前需要先進(jìn)行信號(hào)正向傳播D、反向傳播過程中需要計(jì)算每個(gè)神經(jīng)元的誤差項(xiàng)。答案:ABCD46.TensorFlow成為深度學(xué)習(xí)主流框架的原因是?A、后端開發(fā)B、深度學(xué)習(xí)APIC、自動(dòng)求導(dǎo)D、GPU并行加速答案:BCD47.神經(jīng)網(wǎng)絡(luò)深度過深容易出現(xiàn)以下哪一種問題?A、梯度消失B、梯度爆炸C、訓(xùn)練數(shù)據(jù)丟失D、模型欠擬合答案:AB48.與A.SIC.芯片相比,以下哪些選項(xiàng)是FPGA芯片的特征?A、實(shí)現(xiàn)相同功能時(shí),需要的芯片規(guī)模更大。B、相同工藝條件下,功耗更小。C、研發(fā)風(fēng)險(xiǎn)較低。D、運(yùn)行時(shí)無需加載配置,可立即運(yùn)行。答案:ACD49.以下哪幾項(xiàng)是MindExpress子系統(tǒng)High-LevelPythonAPI提供的功能接口?A、CallbackB、LayersC、InitializerD、Model答案:AD50.當(dāng)編譯模型時(shí)用了以下代碼,pile(optimizer='Adam'loss='categorical.crossentropy;metrics=[tf.keras.metrics.accuracy]),在使用evaluate方法評估模型時(shí),會(huì)輸出以下哪些指標(biāo)?A、categorical_accuracyB、accuracyC、ategorical_lossD、loss答案:BD51.以下哪些選項(xiàng)可以創(chuàng)建全零常量Tensor?A、tf.zeros()B、tf.zeros_like0C、tf.zeros_array)D、tf.zeros_list()答案:AB52.最優(yōu)化問題根據(jù)約束條件可分為以下哪些類?A、不等式約束問題B、半約束問題C、無約束問題D、等式約束問題答案:AD53.HUA.WEIHiAI賦能A.PP哪些價(jià)值?A、安全B、穩(wěn)定C、實(shí)時(shí)D、隨時(shí)答案:ABCD54.以下哪些項(xiàng)是Softsign激活函數(shù)相比于Sigmoid函數(shù)的優(yōu)勢A、輸出關(guān)于0點(diǎn)對稱B、沒有梯度消失問題C、梯度飽和速度變緩D、導(dǎo)數(shù)最大值為1答案:BD55.下列關(guān)于通用表格識(shí)別服務(wù)的說法正確的是?A、rows代表文字塊占用的行信息,編號(hào)從0開始,列表形式B、colums代表文字塊占用的列信息,編號(hào)從0開始,列表形式C、傳入的圖像數(shù)據(jù)需要經(jīng)過base64編碼D、words代表文字塊識(shí)別結(jié)果答案:ABCD56.以下選項(xiàng)中,哪幾項(xiàng)是傳統(tǒng)機(jī)器學(xué)習(xí)的特征?A、適合小數(shù)據(jù)量訓(xùn)練,再增加數(shù)據(jù)量難以提升性能。B、對計(jì)算機(jī)硬件需求較個(gè)計(jì)算星級別有限,一般不需配用GPU顯卡故并行運(yùn)算C、人工進(jìn)行特征選擇D、特征可解釋性強(qiáng)答案:ABCD57.ModelArts中自動(dòng)學(xué)習(xí)功能不需要代碼編寫和模型開發(fā)經(jīng)驗(yàn)。下列哪些選項(xiàng)屬于ModelArts中自動(dòng)學(xué)習(xí)的功能?A、自動(dòng)設(shè)計(jì)模型B、自動(dòng)訓(xùn)練C、部署模型D、自動(dòng)調(diào)參E、自動(dòng)壓縮答案:ABCDE58.以下屬于數(shù)據(jù)預(yù)處理步的是哪些選項(xiàng)?A、數(shù)據(jù)匯總、訓(xùn)練模型B、訓(xùn)練模型C、合并多個(gè)數(shù)據(jù)源數(shù)據(jù)D、處理數(shù)據(jù)缺失E、數(shù)據(jù)過濾答案:ACDE59.以下關(guān)于臟數(shù)據(jù)的描述中,哪些選項(xiàng)是正確的?A、臟數(shù)據(jù)中存在矛盾的、有差異的記錄。B、臟數(shù)據(jù)中常缺少屬性或者包含一些缺失的值C、臟數(shù)據(jù)包含太多錯(cuò)誤信息,因此無法直接用于機(jī)器學(xué)習(xí)D、臟數(shù)據(jù)包含錯(cuò)誤的記錄或者異常點(diǎn)。答案:ABCD60.以下關(guān)于機(jī)器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?A、傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來B、傳統(tǒng)基于規(guī)則的方法使用顯性編程來解決問題C、機(jī)器學(xué)習(xí)中模型的映射關(guān)系是自動(dòng)學(xué)習(xí)的D、機(jī)器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的答案:ABC61.以下哪些是MinDspore的優(yōu)點(diǎn)?A、深度圖優(yōu)化B、端云協(xié)同C、On-DeviC.e執(zhí)行D、Pipeline并行答案:ABCD62.AI芯片從業(yè)務(wù)應(yīng)用上來分,可以分為?A、訓(xùn)練B、GPUC、模型構(gòu)建D、推理答案:AD63.以下哪些選項(xiàng)屬于CANN中昇騰計(jì)算基礎(chǔ)層提供的服務(wù)?A、主機(jī)-設(shè)備通信B、共享虛擬內(nèi)存C、高級內(nèi)存復(fù)用D、設(shè)備虛擬化答案:ABD64.AtlAs300AI加速卡適用于以下哪些場景?A、醫(yī)療影像分析B、視頻分析C、語音服務(wù)D、OCR答案:ABCD65.以下哪些屬于AI訓(xùn)練和推理框架?A、MindSporeB、MatlabC、PytorchD、TensorFlow答案:ACD66.在深度學(xué)習(xí)中,以下哪些是常用的正則項(xiàng)?A、L1B、TanhC、ReluD、12答案:AD67.下面哪幾項(xiàng)是屬于華為云通用APIS?A、ImAgeB、ImAgeSeArC.hC、nLPD、OCR答案:AD68.關(guān)于人工智能技術(shù)的爭議說法,以下哪些選項(xiàng)是正確的?A、I會(huì)取代那些重復(fù)性強(qiáng)、創(chuàng)造性低,弱社交的工作。B、隨著計(jì)算機(jī)視覺的發(fā)展,圖像及視頻的可信度也越來越低?,F(xiàn)在我們可以通過PS,GAN等技術(shù)制作假圖像,讓人難分真?zhèn)巍、未來人工智能將會(huì)替代所有的工作,包括具有強(qiáng)社交屬性的行業(yè)。D、反向傳播計(jì)算梯度人工智能是非常危險(xiǎn)的技術(shù),因此必須停止人工智能的研究。答案:AB69.調(diào)用華為云語音合成pythonAPI時(shí),需要初始化客戶端參數(shù),主要通過TtsCustomizAtionClient函數(shù)完成,以下初始化參數(shù)中,必須項(xiàng)有哪幾項(xiàng)?A、serviCe-enDpointB、regionC、skD、Ak答案:ABCD70.機(jī)器學(xué)習(xí)一般可分為以下哪些類型A、監(jiān)督學(xué)習(xí)B、半監(jiān)督學(xué)習(xí)C、無監(jiān)督學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)答案:ABCD71.常見的臟數(shù)據(jù)的類型有哪些?A、格式錯(cuò)誤的值B、重復(fù)值C、邏輯錯(cuò)誤的值D、缺失值答案:ABCD72.以下說法正確的是?A、若函數(shù)在某一點(diǎn)梯度存在,則其梯度唯一B、函數(shù)的駐點(diǎn)一定是極值點(diǎn)。C、函數(shù)的極值點(diǎn)一定是駐點(diǎn)D、若函數(shù)在某一點(diǎn)處方向?qū)?shù)存在,則其方向?qū)?shù)唯一。答案:AD73.關(guān)于反向傳播算法,下列哪些說法是正確的?A、反向傳播算法使得神經(jīng)網(wǎng)絡(luò)的效果有了更大的提升。B、如果網(wǎng)絡(luò)中存在數(shù)個(gè)隱藏層。也可以使用求導(dǎo)的鏈?zhǔn)椒▌t逐層求導(dǎo),選代求解最優(yōu)參數(shù)C、損失函數(shù)中產(chǎn)生的誤差,是通過輸入層到隱藏層到輸出層逐漸積累形成的。D、反向傳播又叫誤差反向傳播。答案:ABCD74.以下關(guān)于機(jī)器學(xué)習(xí)算法的描述中,哪些選項(xiàng)是正確的?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)特定分支,要想充分理解深度學(xué)習(xí),必須對機(jī)器學(xué)習(xí)的基本原理有深刻的理解。B、根據(jù)學(xué)習(xí)過程中的不同經(jīng)驗(yàn),機(jī)器學(xué)習(xí)算法可以分為無監(jiān)督算法和監(jiān)督算法。C、所謂“學(xué)習(xí)”是指,對于某類任務(wù)T和性能度量P,一個(gè)計(jì)算機(jī)程序在E上以P衡量的性能,隨著經(jīng)驗(yàn)E而自我完善,那么我們稱這個(gè)計(jì)算機(jī)程序在從經(jīng)驗(yàn)學(xué)習(xí)。D、人類通過經(jīng)驗(yàn)歸納規(guī)律,機(jī)器學(xué)習(xí)算法也可以從歷史數(shù)據(jù)當(dāng)中挖掘規(guī)則。答案:BCD75.以下關(guān)于MinDspore自述中,哪些選項(xiàng)是正確的?A、包MinDspore支持自動(dòng)整圖切分B、Minispore只能采用手動(dòng)模型并行,需要設(shè)計(jì)模型切分,感知集群拓?fù)?,開發(fā)難度高,難以保證高性能,難以調(diào)優(yōu)。C、MinDspore支持集群拓?fù)涓兄{(diào)度D、超大規(guī)模模型實(shí)現(xiàn)高效分布式訓(xùn)練的挑戰(zhàn)答案:ACD76.以下關(guān)于Relu激活函數(shù)缺點(diǎn)的描述,正確的是哪些項(xiàng)?A、有神經(jīng)元死亡的現(xiàn)像B、轉(zhuǎn)折點(diǎn)定義的曲面也是有“棱角”的,在某些回歸問題中,顯得不夠平滑C、在0處不可導(dǎo),強(qiáng)行定義了導(dǎo)數(shù)D、無上界,訓(xùn)煉相對發(fā)散答案:ABCD77.以下哪些選項(xiàng)屬于華為云MoDeArts提供的服務(wù)?A、自動(dòng)學(xué)習(xí)B、PyC.hArmSD.KC、數(shù)據(jù)集自動(dòng)標(biāo)注D、多人數(shù)據(jù)標(biāo)注答案:ABCD78.以下哪些項(xiàng)可以作為深度學(xué)習(xí)的優(yōu)化方法?A、梯度下降法B、最小二乘法C、牛頓法D、擬牛頓法答案:ACD79.關(guān)于模型容量的說法,以下哪些選項(xiàng)是正確的?A、容量和數(shù)據(jù)量以及參數(shù)數(shù)量沒有太大的關(guān)系B、容量不足的模型不能解決復(fù)雜任務(wù),可能出現(xiàn)欠擬合C、容量高的模型能夠解決復(fù)雜的任務(wù),但是其容量高于任務(wù)所需時(shí),有可能會(huì)過擬合D、容量與執(zhí)行任務(wù)的復(fù)雜度和所提供訓(xùn)練數(shù)據(jù)的數(shù)量匹配時(shí),算法效果通常最佳。答案:BCD80.強(qiáng)化學(xué)習(xí)可以應(yīng)用在以下哪些領(lǐng)域中?A、交通B、機(jī)器人控制C、游戲D、金融答案:ABCD81.下列屬于AI技術(shù)方向的是哪些選項(xiàng)?A、自然語言處理B、規(guī)劃決策C、語音識(shí)別D、計(jì)算機(jī)視覺答案:ABCD82.在卷積神經(jīng)網(wǎng)絡(luò)中,不同層具有不同的功能,可以起到降維作用的是以下哪一層?A、輸入層B、全連接層C、卷積層D、池化層答案:BCD83.以下哪些選項(xiàng)屬于HMSCore提供的AI能力A、HiAIFounDA.tionB、MinDsporeLiteC、HiAIengineD、MLKit答案:ACD84.深度學(xué)習(xí)在以下哪些領(lǐng)域當(dāng)中有廣泛的應(yīng)用?A、自然語言處理B、輔助決策C、圖像處理D、語音處理答案:ABCD85.下對于數(shù)據(jù)轉(zhuǎn)換的描述中,哪些選項(xiàng)是正確的?A、數(shù)值數(shù)據(jù)轉(zhuǎn)換為類別數(shù)據(jù)可以減少變量的值。B、在分類問題中,將類別數(shù)據(jù)編碼成為對應(yīng)的數(shù)值表示C、在文本中,通過詞嵌入將詞轉(zhuǎn)化為詞向量也是一種數(shù)據(jù)轉(zhuǎn)換對數(shù)據(jù)進(jìn)行初步的預(yù)處理后,D、需要將其轉(zhuǎn)換為一種適合機(jī)器學(xué)習(xí)模型的表示形式答案:ABC86.深度學(xué)習(xí)中以下哪些步驟是由模型自動(dòng)完成的?A、模型訓(xùn)練B、特征選擇C、分析定位任務(wù)D、特征提取答案:BD87.關(guān)于圖像內(nèi)容審核服務(wù)調(diào)用成功時(shí)返回的suggestion字段,說法正確的是?A、pAss代表不包含敏感信息,通過B、review代表需要人工復(fù)檢C、suggestion字段代表檢測是否通過D、BloCk代表包含敏感信息,不通過答案:ABCD88.以下哪些選項(xiàng)屬于機(jī)器學(xué)習(xí)中常見的集成學(xué)習(xí)算法?A、線性回歸B、GBDTC、隨機(jī)森林D、Xgboost答案:BCD89.Python的可用在以下哪些領(lǐng)?A、人工智能B、數(shù)據(jù)科學(xué)C、網(wǎng)站開發(fā)D、APP答案:ABCD90.以下選項(xiàng)中,哪幾項(xiàng)是深度學(xué)習(xí)的特征?A、利用算法自動(dòng)提取特征B、高維的權(quán)重參數(shù),海量的訓(xùn)練數(shù)據(jù)下可以獲得高性能。C、對計(jì)算機(jī)硬件需求較小。D、特征可解釋性強(qiáng)。答案:AB91.Python具備以下哪些特性?A、解釋性B、開源C、簡便D、面向?qū)ο蟠鸢福篈BCD92.以下哪些選項(xiàng)是CNN網(wǎng)絡(luò)結(jié)構(gòu)?A、InceptionB、ertC、AlexNetD、VGG答案:CD93.softmA.x函數(shù)在分類任務(wù)中經(jīng)常被使用,下列關(guān)于softmA.x函數(shù)的描述,哪些選項(xiàng)是正確的?A、是二分類函數(shù)sigmoiD的推廣B、softmAx函數(shù)又稱作歸一化指數(shù)函教C、SoftmAx回歸模型是解決二分類回歸問題的算法D、softmAx函數(shù)經(jīng)常與交叉嫡損失函數(shù)聯(lián)合使用答案:ABD94.以下哪些選項(xiàng)屬于華為自動(dòng)駕駛云服務(wù)?A、標(biāo)注平臺(tái)B、數(shù)據(jù)存儲(chǔ)C、算法管理D、路況數(shù)據(jù)采集答案:ABC95.下列哪些屬于華為云自然語言處理(NAturAlLAnguAgeProCessing)服務(wù)的關(guān)鍵技術(shù)?A、卷積B、分詞C、文本摘要D、池化答案:BC96.如果深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度消失或梯度爆炸問題我們常用的解決方法為A、梯度剪切B、隨機(jī)欠采樣C、使用Relu激活函數(shù)D、正則化答案:ACD97.生成對抗網(wǎng)絡(luò)目前應(yīng)用非常廣泛,以下場景中可以使用此網(wǎng)絡(luò)的是?A、數(shù)據(jù)增強(qiáng)B、語義分割C、信息檢索D、圖像生成答案:ABCD98.華為云EI智能體根據(jù)行業(yè)和應(yīng)用場景的不同也有很多種,目前可以實(shí)現(xiàn)的華為云引智能體有?A、工業(yè)智能體B、交通智能體C、園區(qū)智能體D、汽車智能體答案:ABCD99.關(guān)于深度學(xué)習(xí)中常用的激活函數(shù),以下哪些選項(xiàng)是正確的?A、sigmoiD,tAnh,Softsign函數(shù)在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的過程中,都無法回避梯度消失的問題B、sigmoiD函數(shù)容易導(dǎo)致梯度爆炸。C、sigmoiD函數(shù)單調(diào)連續(xù),求導(dǎo)容易,輸出有界,網(wǎng)絡(luò)比較容易收斂D、tAnh函數(shù)關(guān)于原點(diǎn)對稱,均值更接近于0。答案:ACD100.ModelArts中訓(xùn)練平臺(tái)可以支持的開發(fā)模式有哪幾種?A、云上開發(fā)(IDE+PyCharmToolKit)B、云上開發(fā)(Notebook+SDK)C、本地開發(fā)(IDE+PyCharmToolKit)D、本地開發(fā)(Notebook+SDK)答案:BCD101.以下屬于決策樹主要構(gòu)建步驟的是哪些選項(xiàng)?A、構(gòu)建子學(xué)習(xí)器B、特征選擇C、決策樹生成D、剪枝答案:BCD102.深度學(xué)習(xí)是目前比較火熱的人工智能技術(shù),但是在做深度學(xué)習(xí)任務(wù)時(shí)常常會(huì)遇到各種各樣的問題,以下會(huì)在深度學(xué)習(xí)任務(wù)中出現(xiàn)的問題有?A、梯度消失問題B、過擬合問題C、數(shù)據(jù)不平衡問題D、梯度爆炸問題答案:ABCD103.以下哪些選項(xiàng)屬于圖像識(shí)別技術(shù)應(yīng)用場景?A、智能音箱B、安防監(jiān)控C、無人駕駛D、智能機(jī)器人答案:BCD104.圖像翻拍檢測服務(wù)調(diào)用成功時(shí)標(biāo)簽sugestion有哪些情況?A、CertAintyB、FALSEC、unCertAintyD、TRUE答案:BCD105.下列哪些屬于AI的子領(lǐng)域?A、機(jī)器學(xué)習(xí)B、計(jì)算機(jī)視覺C、語音識(shí)別D、自然語言處理答案:ABCD106.以下關(guān)于超參數(shù)調(diào)節(jié)方法網(wǎng)格搜索的描述中,正確的是哪些選項(xiàng)?A、網(wǎng)格搜索是一種昂貴且耗時(shí)的方法。B、網(wǎng)格搜索方法非常適合神經(jīng)網(wǎng)絡(luò)使用C、網(wǎng)格搜索嘗試窮舉搜索所有可能的超參數(shù)組合形成超參數(shù)值網(wǎng)格。D、網(wǎng)格搜索在超參數(shù)數(shù)目相對較少的情況下工作良好。答案:ACD107.以下哪凡項(xiàng)是ModelArts中訓(xùn)練平臺(tái)的優(yōu)勢?A、多種開發(fā)模式滿足不同需求B、靈活、高效、性價(jià)比高C、預(yù)置訓(xùn)練模型,加速AI落地D、彈性訓(xùn)練提升訓(xùn)練效率答案:ABCD108.關(guān)于矩陣分解,以下正確的是?A、只有方陣才能進(jìn)行奇異分解B、一個(gè)矩陣乘以其特征向量后,向量只發(fā)生伸縮變換。C、對矩陣A進(jìn)行奇異值分解,其左奇異矩陣與右奇異矩陣都是正交矩陣D、奇異值越大,其所對應(yīng)的奇異向量上包含的信息量越大。答案:BCD109.以下哪些是語音處理研究的主題?A、語音處理B、聲紋識(shí)別C、語音識(shí)別D、語音喚醒答案:BCD110.企業(yè)智能EI可以應(yīng)用于下哪些場景?A、智慧城市B、智能制造C、智能金融D、智政政務(wù)答案:ABCD111.下列使用了達(dá)芬奇架構(gòu)的產(chǎn)品有哪些選項(xiàng)?A、scend.310B、Kunpeng920sC、Ascend910D、Kunpengs920答案:AC112.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?A、池化操作采用掃描窗口實(shí)現(xiàn)B、池化層可以起到降維的作用C、常用的池化方法有最大池化和平均池化D、經(jīng)過池化的特征圖像變小了答案:ABCD113.以下哪些選項(xiàng)屬于MinDsporeLite的特性?A、極致性能B、全場景支持C、高效部署D、分布式訓(xùn)練答案:ABC114.以下屬于MinDspore中提供CAllBACk的選項(xiàng)有哪些?A、LossMonitorB、TrAinStepC、MoDelCheCkPointD、SummAryColleCtor答案:ACD115.關(guān)于Python正確的是?A、用戶可以自定義異常B、異常不會(huì)終止程序的執(zhí)行C、使用try語句可以捕獲異常D、Python中的異常只能系統(tǒng)拋出答案:AC116.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸,常見的池化有:A、最小池化層B、最大池化層C、平均池化層D、乘積池化層答案:BC117.華為云文字識(shí)另別OCR技術(shù)的優(yōu)勢有哪幾項(xiàng)?A、識(shí)別精度高B、降低成本C、高適應(yīng)性D、快速高效答案:ABCD118.處理實(shí)際問題時(shí),以下什么情況下該使用機(jī)器學(xué)習(xí)?A、規(guī)則十分復(fù)雜或者無法描述,比如人臉識(shí)別和語音識(shí)別B、任務(wù)的規(guī)會(huì)隨時(shí)間改變,比如生產(chǎn)線上的瑕疵檢測,比如預(yù)測商品銷售的趨勢C、數(shù)據(jù)分布本身隨時(shí)間變化,需要程序不停的重新適應(yīng)D、規(guī)則復(fù)雜程度低且問題的規(guī)模較小的問題答案:ABC119.BPTT得步驟包括以下哪些信息?A、計(jì)算神經(jīng)元的層數(shù)B、前向計(jì)算每個(gè)神經(jīng)元的輸出值C、反向計(jì)算每個(gè)神經(jīng)元的誤差值D、計(jì)算每個(gè)權(quán)重的梯度答案:BCD120.華為云E1讓更多的企業(yè)邊界的使用AI和大數(shù)據(jù)服務(wù),加速業(yè)務(wù)發(fā)展,造福社會(huì)。華為云EI服務(wù)可以在以下哪些方面服務(wù)企業(yè)?A、行業(yè)數(shù)據(jù)B、行業(yè)智慧C、算法D、算力答案:ABCD121.常見的聚類算法有哪些?A、密度聚類B、層次聚類C、譜聚類D、K-meAns答案:ABCD122.以下關(guān)于MinDspore自動(dòng)并行關(guān)鍵技術(shù)的描述中,哪些選項(xiàng)是正確的?A、MinDspore只能采用手動(dòng)模型并行,需要設(shè)計(jì)模型切分,感知集群拓?fù)?,開發(fā)難度高,難以保證高性能,難以調(diào)優(yōu)。B、MinDspore支持自動(dòng)整圖切分C、MinDspore可以應(yīng)對超大規(guī)模模型實(shí)現(xiàn)高效分布式訓(xùn)練的挑戰(zhàn)D、MinDspore支持集群拓?fù)涓兄{(diào)度。答案:BCD123.以下關(guān)于梯度下降法的描述中,正確的有哪幾項(xiàng)?A、梯度下降法的思

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論