




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
2024-2025華為ICT大賽(實踐賽)-昇騰Al賽道理論考試3.圖像識別實驗中,在4251個訓(xùn)練圖片中,有超過2000個類別只有一張圖片。還有一些類中有2-5個圖片。這一描述反映了以下哪一種數(shù)據(jù)問題?D、數(shù)據(jù)過擬合問題4.以下關(guān)于機器學(xué)習(xí)中分類模型與回歸模型的說法,哪一項說法是A、對回歸問題和分類問題的評價,最常用的指標都是準確率和召回率B、輸出變量為有限個離散變量的預(yù)測問題是回歸問題,輸出變量為連續(xù)變量的C、回歸問題知分類問題都有可能發(fā)生過擬合解析:這道題考察的是對機器學(xué)習(xí)中分類模型與回歸模型的理解。A選項錯誤,因為準確率和召回率主要用于分類問題的評價,而不是回歸問題。B選項錯誤,項錯誤,邏輯回歸雖然名字中有“回歸”,但實際上是一種分類模型,用于處理二分類問題。因此,正確答案是C。5.以下對于深度學(xué)習(xí)與人工神經(jīng)網(wǎng)絡(luò)的關(guān)系的描述,正確的是哪一項?學(xué)習(xí)。人工神經(jīng)網(wǎng)絡(luò)(ANN)是深度學(xué)習(xí)B、layout優(yōu)化類標簽。-C項(動作識別):同樣可能是“多對一”或“多對多”,輸入視頻惠AI的技術(shù)創(chuàng)新。而新編程語言并非其主要創(chuàng)新點。為最佳閾值。()C、像素值累積差值D、類間方差D、k-折交叉驗證方法中的k不是超參數(shù)是由模型訓(xùn)練得來的其中k-折交叉驗證是常用的一種。在這個過程中,數(shù)據(jù)集被分成k份,每次用證集。選項A正確描述了k-折交叉驗證是常用的方法。選項B正確描述了交叉因為k-折交叉驗證中的k是人為設(shè)定的,不是由模型訓(xùn)練得來的,它是一個超解析:卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionaINeuraINetworks,CNN)的層數(shù)因網(wǎng)絡(luò)架構(gòu)幾層。而ResNet是一種特殊的CNN,其設(shè)計思想是通過引入殘差連接和塊(ResidualBlocks)來克服深度CNN中的梯度消失和退化問題,因此其層數(shù)較多,可過程的一部分?B、數(shù)據(jù)降維C、數(shù)據(jù)標準化據(jù)到模型部署之前,通常會經(jīng)歷一系列的數(shù)據(jù)預(yù)處理步驟。數(shù)據(jù)降維(B選項)是為了減少數(shù)據(jù)集的維度,提高計算效率;數(shù)據(jù)標準化(C選項)是為了將數(shù)據(jù)縮放到一個統(tǒng)一的范圍,便于模型處理;數(shù)據(jù)清理(D選項)是為了去除數(shù)據(jù)中的噪聲和異常值,提高數(shù)據(jù)質(zhì)量。而數(shù)據(jù)可視化(A選項)通常是在數(shù)據(jù)處理和16.John想要通過神經(jīng)網(wǎng)絡(luò),將一段視頻中的眾多17.0TSU算法遍歷可能的閾值,并且選取前景區(qū)域和背景區(qū)域()最大的分割閾A、異騰310處理器C、昇騰910處理器重要的特征的系數(shù)減小到0。C選項,多項式回歸,主要用于擬合非線性關(guān)系,22.在Mindspore數(shù)據(jù)處理過程中,需要對全數(shù)據(jù)集執(zhí)行歸一化、通道變換等操A、Batch23.以下關(guān)于決策樹的描述中,哪—項是C、GNI系數(shù)可以被看作是一種純度的量化指標D、ID3算法德用信息增益率進行屬性選擇3算法的一個基本特點,所以D選項描述正確。綜上所述,錯誤的選項是B。24.如果有100個卷積核,每個卷積核的大小是10x10,在不每個卷積核有100個參數(shù)。如果有100個這樣的卷積核,那么總參數(shù)量就是100個卷積核乘以每個卷積核的100個參數(shù),即10K。因此,選項C是正確的答案。t),經(jīng)過一個含4個卷積核的卷積層,其中卷積核大小均為5*5,步長為2,無解析:每個卷積核的大小為5×5×3(因為輸入圖像有3個通道),所以每個卷解析:這道題考察的是對TensorFlow框架基礎(chǔ)知A、EMA、召回率能的指標。選項C的“過濾垃圾郵件”是模型的功能描述,并非性能衡量標準。模型過濾垃圾郵件的準確性如何。因此,答案是D。32.如果想要對圖像翻拍情況進行檢測,可以調(diào)用華為并獲取相應(yīng)的AK/SK(訪問密鑰)和project_id。同時,用戶還需要將圖像內(nèi)容轉(zhuǎn)換為Base64編碼,并構(gòu)建API請求參數(shù),然后發(fā)送POST請求到華為云圖像識別服務(wù)的圖像搜索API端點,并解析API響應(yīng)。最終,用戶可以處理搜索結(jié)果,33.我們可以利用以下哪種方法實現(xiàn)反向傳播?()A、計算圖不適合直接用于圖像風(fēng)格轉(zhuǎn)換。因此,John應(yīng)選擇CartoonGAN來實現(xiàn)其功能。B、keras內(nèi)置優(yōu)化器C、keras模型部署工具D、Keras生成模型工具個知識點,我們可以確定答案是B,即keras數(shù)據(jù)處理工具。37.在Mindspore中,能夠提供訓(xùn)練過程可視化的是以下哪個子系統(tǒng)?為27個。A、數(shù)據(jù)收集->數(shù)據(jù)清洗->特征提取與選擇->模型訓(xùn)練->模型部署與整合->模型評估測試C、數(shù)據(jù)收集->數(shù)據(jù)清洗->特征提取與選擇->模型訓(xùn)練->模型評估測試->模型部D、數(shù)據(jù)收集->數(shù)據(jù)清洗->模型訓(xùn)練->特征提取與選擇->模型部署與整合->模型ticspeechrecognition,自動語音識別)型。由于Int16是一種整數(shù)類型,無法被向量計算單元42.以下哪個不是Mindspore常用的Operation?解析:MindSpore是一個面向全場景(手機、邊緣計算、云等)的AI計算框架,旨在提供易于使用、高性能和靈活的AI開發(fā)平臺。MindSpor根據(jù)提供的選項,"signal"不是MindSpore常用的Operation,內(nèi)核主要提供math庫、array庫和nn(神經(jīng)網(wǎng)絡(luò))庫來完成AI相關(guān)的計算和操作。因此,正確答案是A。果最好。()A、中值濾波C、均值濾波44.當使用TensorFlow2.0的keras接口搭建神經(jīng)網(wǎng)絡(luò)時,需要進行網(wǎng)絡(luò)的編譯50.下列哪一項是張量[[0,1],[2,3]]的正確階數(shù)?中索引的數(shù)量。在張量[0,1]:[2,3]中,有兩個索引范圍,即[0,1]和[2,3],因此它是一個二階張量。所以正確答案是C?;A(chǔ)上引入了非線性因素(sigmoid函數(shù)),用于解決二分類問題。邏輯回歸是一種分類模型,主要用于預(yù)測一個樣本屬于某個類別(通常是二分類)的概率。53.以下哪一項不是異騰AI芯片AICore中的基礎(chǔ)計算資源?ubeUnit)、向量計算單元(VectorUnit)、標量計算單元(ScalarUnit),不包含張A、ttsc_request—ItsCustomRequest(textETtsC_request.setpiB、ttsc_request=TtsC.ustomRequest(test)C、ttsc_requestTtsCustomRequest(textY:ttD、ttsc_request=TtsCustomRequest(text提供的選項,只有選項D中的`ttsc_request.set_volume`方法可以用于設(shè)置音量。選項A中的`ttsc_request.set_pitch答案是選項D。56.Mindspore深度學(xué)習(xí)框架專門用于圖像增強的是以下哪一個模塊?據(jù)增強的模塊。因此,當用戶問到“MindSpore深度學(xué)習(xí)框架專門用于圖像的是以下哪一個模塊”時,正確是D.minA、離散值和回歸模型D、連續(xù)數(shù)值和回歸模型因此,選項D是正確的。A、4,仿射B、4,透視C、3,透視D、3,仿射種常用的技術(shù),用于校正由于拍攝角度導(dǎo)致的圖像畸變。透視變換需要4個對應(yīng)選擇“4,透視”是正確的。解析:(224-7)/1+1=218,因為是5個卷積核,所以輸出通道肯定是5,選A。明,以便Host側(cè)和Device側(cè)能正確地傳遞和處理數(shù)據(jù)。這是AscendCL開發(fā)流64.用兩個3x3的卷積核對一副三通道的彩色圖像進卷積,得到的特征圖有幾個通道?()以最終得到的特征圖有2個通道。C、深度學(xué)習(xí)與機器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系D、以上都不對之間的關(guān)系,而選項B、C、D則沒有正確描述這種關(guān)系。項?A、sr_request.set_addpunc('y參數(shù)的方法。選項A中的asr_request.set_add_punc('yes')是一種常用的設(shè)置方式,表示輸出結(jié)果中將添加標點符號。因此,正確是A。s69.以下哪個不是文本向量化的常用方法?選項B“智能相冊”通常利用圖像識別技術(shù)來自動分類和整理照片;選項72.ModeIArts自動學(xué)習(xí)的使用流程是什么?部署上線,選項D正確。73.以下哪個選項不是在自然語言處理發(fā)展過程中的方法?B、基于規(guī)則的方法74.以下關(guān)于支持向量機的描述中,哪一項是錯誤的?解析:這道題考察的是對支持向量機(SVM)類模型,它的基本模型是定義在特征空間上的間實質(zhì)上的非線性分類器,因此B選項也是正確的。對于線性不可分的性分類問題”,這一說法是錯誤的,因為通過核技巧,支持向量機同樣可以解決有用的特征信息;最后進行圖像識別,根據(jù)提取的特80.以下選項中不屬于超參數(shù)搜索方法的是哪一項?C、貝葉斯搜索81.以下哪個激活函數(shù)可以很好的緩解梯度消失問題?解析:當一個模型的復(fù)雜度增加時,通常測試誤差會逐漸增大而不是減小,即測試誤差不會隨著模型復(fù)雜度的上升而持續(xù)減小。因為這種情況下,模型可能過度擬合訓(xùn)練數(shù)據(jù),導(dǎo)致泛化能力變?nèi)?,從而?dǎo)致在新數(shù)據(jù)上出現(xiàn)更大的誤差。所以,選項B是正確的答案。B、基于分布假說式?取值范圍是0-360;S表示顏色的飽和度(saturation),范圍從0到1,它表示A、dm_mean新模型,不涉及遷移學(xué)習(xí)的概念。C項“暫退法(Dropout)”和D項“標簽平滑”型微調(diào)(Fine-tuning)”是遷移學(xué)習(xí)中常用的技術(shù)手正確答案是B。92.以下關(guān)于樸素貝葉斯的說法中,哪一項是錯誤的?A、貝葉斯分類器應(yīng)用于大型數(shù)據(jù)庫具有較高B、樸素貝葉斯的“樸素”,指的是該方法需要假設(shè)各個特征之間是獨立的C、樸素貝葉斯是一種簡單的多分類算法D、樸素貝葉斯算法依賴于人工神經(jīng)網(wǎng)格,因此使用起來非常復(fù)雜效,在處理大型數(shù)據(jù)庫時通常表現(xiàn)出較高的準確性和速度。B項正確,“樸素”93.機器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?B、需要每次都通過總線接口到AICorC、可永久保留需要重復(fù)使用的數(shù)據(jù)102.下列選項中不支持TensorFLow2.0進行維度變換的屬性是。C、L2正則化可以做特征選擇解析:這道題考察的是對L1和L2正則化在機器學(xué)習(xí)中的作用的理解。L1正則化傾向于產(chǎn)生稀疏權(quán)重矩陣,即生成一個很多元素為0的權(quán)重矩陣,因此它可以用于特征選擇。而L2正則化則是傾向于分散權(quán)重向量,使其元素值較為平均,不具備特征選擇的能力。所以,選項A“L1正則化可以做特征選擇”是正確的。A、cv2.GaussianBlur(im,(5,5)C、計算機對問題的處理更加靈活D、汁算機的求解更加精準解析:在深度學(xué)習(xí)中,“深度”主要指的是神經(jīng)網(wǎng)絡(luò)模型中中間網(wǎng)絡(luò)層的數(shù)量眾多。通過增加網(wǎng)絡(luò)層的層數(shù),可以提取更復(fù)雜和抽象的特征,從而提高模型的學(xué)習(xí)能力和表現(xiàn)效果。A選項計算機理解的深度并非準確的定義;C選項計算機處理更加靈活并非“深度”的本質(zhì)含義;D選項計算機求解更加精準也不是“深度”所指的內(nèi)容。所以,正確答案是B選項。107.以下哪一選項不是序列標注方法?解析:傳統(tǒng)序列標注方法有HMM、MEMM、CRF;基于深度學(xué)習(xí)序列標注方法有RNN108.ModeIArts自動學(xué)習(xí)的使用流程是什么?A、數(shù)據(jù)標注->模型訓(xùn)練->部署上線B、部署上線->模型訓(xùn)練->數(shù)據(jù)標注C、數(shù)據(jù)標注->部署上線->模型訓(xùn)練D、模型訓(xùn)練->數(shù)據(jù)標注->部署上線解析:這道題考察的是對ModeIArts自動學(xué)習(xí)使用流程的理解。在機器學(xué)習(xí)項目中,通常的流程是先進行數(shù)據(jù)標注,以便為模型訓(xùn)練提供準確的輸入;接著進行模型訓(xùn)練,使用標注好的數(shù)據(jù)來訓(xùn)練模型;最后進行部署上線,將訓(xùn)練好的模型新的關(guān)鍵步驟。這一步驟發(fā)生在**反向傳播**階段,而不是正向計算、模型用A、只有反向傳播計算輸出結(jié)果C、只有反向傳播計算梯度D、先正向傳播計算出誤差,再反向傳播計算梯度是雙向傳播。卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種常用的神經(jīng)網(wǎng)絡(luò)類型,它主135.Mindspore.ops.Grad0peration(geta神經(jīng)網(wǎng)絡(luò)的工具。在Mindspore中,`Grad0peration`是一個非常重要的類,它t_a11`參數(shù)通常與計算雅可比矩陣相關(guān),其值為`False`時不一定會對所有輸入`Grad0peration`方法在梯度下降和反向傳播中起到核心作用,它用于定義如何A、語音合成和處理技術(shù)B、語音識別和處理技術(shù)B選項的“語音識別和處理技術(shù)”同樣處理的場景運用的技術(shù)是圖像識別和目標檢測技術(shù),所以答案是D。統(tǒng)的常規(guī)設(shè)計和運行要求,交通智能體需要實現(xiàn)7×24小時感知,即一周七天,每天24小時不間斷地感知交通狀況。因此,正確答案是A。138.在3*3的窗口內(nèi)計算像素的LBP特征,如果該像素的值比周圍都小的特征值為()么這8個比較的結(jié)果都是1(因為周圍像素都比中心像素大),將這8個1轉(zhuǎn)換疏的模型,即當L1正則在參數(shù)w比較小的情況下,能夠直接縮減至0,因此可C、數(shù)據(jù)降維處理是模型訓(xùn)練前的重要步驟,它包括數(shù)據(jù)清理(去除噪聲、異常值等)、數(shù)據(jù)標準化(使數(shù)據(jù)符合一定的分布或范圍)、數(shù)據(jù)降維(減少數(shù)據(jù)特征的數(shù)量以提高計算效率)等。而數(shù)據(jù)可視化通常是在數(shù)據(jù)預(yù)處理之后,用于幫助理解數(shù)據(jù)分A、標簽干滑B、提前停止答案是A(標簽干滑)。設(shè)置全局學(xué)習(xí)率,盡管它們也會根據(jù)迭代過程中的梯度信息來動態(tài)調(diào)整學(xué)習(xí)學(xué)習(xí)率,但并不是不需要設(shè)置。因此,選項B“RMSprop不需要設(shè)置全局學(xué)習(xí)率”是錯誤的描述,答案選B。A、K-means算法不能夠保證收斂。D、聚類試圖將數(shù)據(jù)集中的樣本劃分為若干個子集每個子集稱為一所以A選項錯誤。B選項,對于SVM(支持向量機),如果一個點已經(jīng)被正確分錯誤。C選項,樸素貝葉斯算法并不是借助樹狀結(jié)構(gòu)來刻畫屬性間的依賴關(guān)系,“簇”,使得簇內(nèi)的樣本相似度較高,而不同簇的樣本相似度較低,所以D選項正確。綜上所述,答案是D。一種路線圖?解析:BERT(BidirectionalEncoderRepre種基于Transformer架構(gòu)的預(yù)訓(xùn)練語言模型。在Transformer架構(gòu)中,存在Encoder(編碼器)和Decoder(解碼器)兩個主要部分。BERT只使用了Encoder線圖,即只包含編碼器部分的架構(gòu)。所以,正確答案是A。147.以下關(guān)于邏輯回歸的描述中,哪一項是基礎(chǔ)上引入了非線性因素(sigmoid函數(shù)),用于解決二分類問題。邏輯回歸是一種分類模型,主要用于預(yù)測一個樣本屬于某個類別(通常是二分類)的概率。B、邊緣計算C、芯片使能A、POST152.“從有標簽的歷史數(shù)據(jù)中來預(yù)測下季度的商鋪營收會在20-30萬還是30-40萬”,這是一個什么問題?C、分類問題D、聚類問題154.圖像分類作業(yè)如何標注?A、給圖片輸入類別標簽B、用橢圓框住目標C、用矩形框住目標D、用圓形框住目標155.當前語音處理研究在任何情況下都能達到90%以上的識別準確度。關(guān)于以上語音的識別準確度,使得識別率不一定能達到90%以上。因此,選項C正確指出157.一副8位RGB的彩色圖像中,(255,255,255)代表著什么著色A、多核CPU加速品占比*A廠的次品率+B廠的產(chǎn)品占比*B廠的次品率)=(0.4*0.01)/(0.4*0.碼并不是MindSpore的核心架構(gòu)特點。A、srcustomizationclienA、EM174.下列選項中昇騰310和昇騰910屬性相同的是?D、7nm制程A、CBOW和Skip-Gram都是可以訓(xùn)練詞向量的方法,但是Skip-Gram要比CBOwB、CBOW是根據(jù)某個詞前面的n個詞或者前后n個連續(xù)的詞,來計算某個詞出現(xiàn)C、無論是CBow模型還是Skip-gram模型,都是以Huffman樹作為基礎(chǔ)的預(yù)測中心詞,從而利用中心詞的預(yù)測結(jié)果情況,使用GradientDesent方法,不幾乎是相等的(每次預(yù)測行為才會進行一次backpropgation,而往往這也是最耗時的部分),復(fù)雜度大概是0(V)。而skip-gram是用中心詞來預(yù)測周圍的詞。在skip-gram中,會利用周圍的詞的預(yù)測結(jié)果情況,使用GradientDecent來不個詞在作為中心詞時,都要使用周圍詞進行預(yù)測一次。這樣相當于比cbow的方法多進行了K次(假設(shè)K為窗口大小),因此時間的復(fù)雜度為O(KV),訓(xùn)練時間圍詞)都會對學(xué)生(中心詞)進行“專業(yè)”的訓(xùn)練,這樣學(xué)生(中心詞)的“能Cbow是1個老師VSK個學(xué)生,K個學(xué)生(周圍詞)都會從老師(中心詞)那里學(xué) 音量值往往被設(shè)定在0到100之間,其中0表示靜音,100表示最大音量。因此,解析:樸素貝葉斯算法是一種基于貝葉斯定理和特征條時,特征之間不存在關(guān)系。因此,對于描述住房時使用的屬性(如住宅面積、戶型、裝修類型等),如果將它們作為樸素貝葉斯模型的特征來應(yīng)用,可以假設(shè)這B、累加法則A、4,仿射數(shù)的每一位都可以是0或1,因此4位二進制數(shù)可以組合成2^4=16種不同的亮提高識別準確率。而B選項不屬于這個步驟,因此是正確。194.華為云EI企業(yè)智能提供了多種方便高效的服務(wù),用戶使用服務(wù)的具體流程正確的是?解析:華為云EI企業(yè)智能提供了多種方便高效的服務(wù),用戶使用服務(wù)的具體流這個流程符合選項A的描述。195.通用文字識別服務(wù)調(diào)用成功時返回的結(jié)果中,words_block_count代表什么?A、識別文字數(shù)目B、識別文字塊數(shù)目C、識別文字塊列表D、以上都不是是`Ispci|grep'd100'`,即選項B。開發(fā)者使用,因此選項C不屬于HIAI模不是詞袋模型的缺陷?D、無法保留次序信息選項(因為該缺陷與詞袋模型有關(guān))。特征,因此**特征工程**這一步驟在深度學(xué)習(xí)中不是必需的。而模型評估、A、相加關(guān)系B、相互獨立D、相關(guān)關(guān)系取樣本(有放回)來訓(xùn)練的。這意味著每個基學(xué)習(xí)器的訓(xùn)練數(shù)據(jù)集是獨立的,但是C,即伽馬值為0.5。方面的考慮。因此,選項A是正確的答案。間內(nèi)使用比較廣泛,但是當網(wǎng)絡(luò)比較深時,容易導(dǎo)致什么問題?A、梯度減少問題D、過擬合問題解析:這道題考察的是對Sigmoid激活函數(shù)特性的網(wǎng)絡(luò)層數(shù)較多時,由于Sigmoid函數(shù)的導(dǎo)數(shù)在輸出接近0或1時接近于0,這會導(dǎo)致在反向傳播過程中梯度值迅速減小,進而引發(fā)**梯度消失問題**。因此,211.MindSpore的哪個模塊提供常用的神經(jīng)網(wǎng)絡(luò)的組件/算子?Mindspore.nn`模塊專門提供了構(gòu)建神經(jīng)網(wǎng)絡(luò)所需的組件和算子,這些組件和算子是實現(xiàn)深度學(xué)習(xí)模型的基礎(chǔ)。因此,正確答案是B。解析:這道題考察的是對MindSpore框架中Tensor切片操作的理解。在MindSpore中,Tensor對象支持NumPy風(fēng)格的切片操作。給定的Tensor是一個2x2的浮點數(shù)數(shù)組,執(zhí)行`tensor[:,0]`意味著選取所有行的第0列,因此結(jié)果應(yīng)該是第一列的元素,即`[0.,2.]`。由于選項是以字符串形式上的簡化或誤差,我們需要找到與之匹配的選項。選項B`["0.","2."]`與預(yù)解析:HIAIEngine-ASR前置靜音檢測的默認時間通常設(shè)置為2000ms,即大約2避免誤報和漏報。因此,選項C是正確的。下觀測值的概率分布。通過GMM,我們可以計算給定狀態(tài)下觀測到特定觀測值的像?來創(chuàng)建tensor(張量)。在TensorFlow2.0中,`zeros`用于創(chuàng)建全零的張量,`fill`用于創(chuàng)建具有指定形狀和量。而`create`不是TensorFlow2.0中用于創(chuàng)建張量的標準方法。因此,選項C224.以下哪一項是Sigmoid函數(shù)導(dǎo)數(shù)的最大值A(chǔ)、0.5取得最大值,因為此時(1-f(x))也等于0.5,所以f'(x)=0.5*0.5=0.25。因此,選項C是正確的答案。225.GRU特有的門結(jié)構(gòu)是?()A、輸入門B、輸出門D、更新門果?圖片代碼:P=tensor([4,0,5,0,0,0],的typA、Tensor(shape=[3],dtype=Float64,value=[4C、Tensor(shape=[3],dtype=FD、Array(shape=[3],dtype=Float64確。*B選項的格式是Array,而不是Tensor,與代碼中的Print(p)輸出格式不符,因此不正確。*C選項的形狀是[3],但考慮到tensor中的0可能被表示為科學(xué)計數(shù)法的0(例如00000000e+000),且dtype為Float64,這與代碼中的t因此,正確答案是D,這個選項沒有準確描述單層感知機的本質(zhì)。233.根據(jù)美國汽車工程師協(xié)會(SA.E)將自動駕駛按照車輛行駛對于系統(tǒng)依賴程Authorization(身份驗證信息)、Host(目標主機地址)。而Post不是公共請C、人臉識別得到參數(shù)值。因此,正確的步驟順序是2-3-1-4檢測中。題目中提到“取20度為一個區(qū)間統(tǒng)計”,意味著360度被分成了18個區(qū)間(360/20=18)。但題目又指出“對稱的角度歸為一類”,即對稱的區(qū)間合并,那么18個區(qū)間將合并成9個(因為對稱的區(qū)間會合并成一個)。所以,解析:GMM(高斯混合模型)在傳統(tǒng)語音識別任務(wù)中,主要用于對語音信號的特對模型進行訓(xùn)練?!标P(guān)于上述描述,以下哪操作之前都需要先對模型進行訓(xùn)練。因此,正確答案是B,即該描述錯誤,推理A、0BS249.以下哪一項不是人工智能深度學(xué)習(xí)框架?251.在“Deeplearningismyfavoritesubject”這句話中,如果窗口長度為3,分。在所給選項中,只有選項D中包含了完整的URL格式"https://",因此選項255.以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)說法正確的是?()B、人工神經(jīng)網(wǎng)絡(luò)是從微觀結(jié)構(gòu)和功能上對人腦的抽象、簡化,是模擬人類智能想、模式分類、記憶等是?Reduce,數(shù)據(jù)驅(qū)動方法自主AIIReduce,無控制開銷浮點模型,并使用部分訓(xùn)練數(shù)據(jù)來校準模型,這是采用了哪種壓縮方式?B、量化感知訓(xùn)練QAT訓(xùn)練數(shù)據(jù)來校準模型。這種技術(shù)屬于模型壓縮的一種,具體為訓(xùn)練后量化(Post-TrainingQuantization,簡稱PTQ)。PTQ是指在模型訓(xùn)練完成后,對模型進行量化以減少內(nèi)存占用和計算量,同時保持模型精度。因此,正確答案是D,即263.以下哪個選項是ATC工具模型轉(zhuǎn)換后的文件格式?()A、Pb文件格式通常為0m格式,所以這道題應(yīng)選D選項。B、Lnception結(jié)構(gòu)“Inception”結(jié)構(gòu)。這種結(jié)構(gòu)在GoogleNet中引入了多個小卷積核,從而增加了網(wǎng)絡(luò)中的神經(jīng)元數(shù)量,并提高了模型的表達能力下哪一圖片格式?()常見的圖片格式,如PNG(PortableNetworkGraphics)、JPEG(JointPhotographicExpertsGroup)、BMP(Bitmap)等。然而,對于WebP格式(一種谷歌開發(fā)的旨在加快網(wǎng)絡(luò)傳輸和節(jié)省帶寬的圖像壓縮格式),可能由于格式特性或兼容性原因在特定場景下不被支持。因此,選項C中的WebP格式不被ModeIArts自動266.以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)說法正確的是()D、以上答案都對A、兩個實驗所使用的API都是0CRA述,我們需要根據(jù)0CR(0pticalCharacterRecognition,光學(xué)字符識別)技術(shù)274.一副8位的RGB彩色圖像中,其中A、SSD采樣層(池化層)、3個全連接層3種連接方式。B、0到100C、1到100D、0到99通常為0到1。因此,為A。indSpore和TensorFlow等。因此,選項B正確。此外,模型轉(zhuǎn)換也可以直接使因此選項C錯誤。為C。288.關(guān)于華為全棧全場景AI解決方案,以下說法中哪一項是錯誤的?云”的全場景AI基礎(chǔ)設(shè)施方案B、Ascend:基于統(tǒng)一、可擴展架構(gòu)的系列化AI芯片。解析:華為全棧全場景AI解決方案中,“MindSpore芯片算子庫和高度自動化算子開發(fā)工具”是錯誤的。因為MindSpore是華為推出的AI框架,它實現(xiàn)了端像?()這對于生成離散的文本序列(如單詞)或選擇分類標簽特別有用。*Tanh和Sigmoid函數(shù)通常用于隱藏層,因為它們可以將輸入值壓縮到[-1,1]或[0,1]的范絡(luò)輸出層采用的激活函數(shù)是Softmax,所以正確答案是D。293.批量梯度下降,小批量梯度下降,隨機梯度下降最重要的區(qū)別在哪里?A、梯度大小B、梯度方向B、Tanh函數(shù)是關(guān)于0點對稱的t、FrameLayout和RelativeLayout都是AndroidUI設(shè)計中常見的布局方式,但它們在某些方面可能不如ConstraintLayout高效或適應(yīng)新的設(shè)計需求。答案:B解析:在機器學(xué)習(xí)和深度學(xué)習(xí)的模型訓(xùn)練過程中,遍歷整個訓(xùn)練數(shù)據(jù)集一次通常被稱為一個“Epoch”。每個Epoch中,模型會看到訓(xùn)練數(shù)據(jù)集中的每一個樣并根據(jù)這些樣本的預(yù)測結(jié)果進行參數(shù)更新。因此,正確答案是B,即一個Epoch表示一次數(shù)據(jù)集的完整遍歷。一套代碼可以在不同場景下運行,“表達/優(yōu)化/運行解耦”則是將模型的開發(fā)、因此選項B是正確答案。A、反向傳播會經(jīng)過激活函數(shù)B、反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C、反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運用D、反向傳播指的是誤差通過網(wǎng)絡(luò)反向傳播此,選項B的說法是錯誤的。305.如果一個模型在測試集上偏差很大,方A、過擬合C、剛好擬合D、欠擬合C、渠道分析析,但與用戶轉(zhuǎn)化瓶頸的分析關(guān)系不大。因此,是D,即路徑漏斗模型。307.某企業(yè)在使用MindSpore構(gòu)建AI應(yīng)用后,又想和合作伙伴共享數(shù)據(jù)進一步增加模型的準確度但是數(shù)據(jù)需要保密不能直接提供他們可解決這個問題?實現(xiàn)?314.從技術(shù)架構(gòu)角度,關(guān)于AI芯片的描述,錯誤的是哪一項?是AI芯片的主要組成部分,AI芯片更多關(guān)注于如GPU、FPGA、SIC等針對特定計算任務(wù)優(yōu)化的硬件。B選項描述FPGA(現(xiàn)場可編程門陣列)實現(xiàn)了半定制芯片C選項中的ASIC(專用集成電路)屬于專用集成電路,這也是正確的,ASIC是為了執(zhí)行特定任務(wù)而設(shè)計的集成電路。D選項描述GPU(圖形處理單元)是一種這是準確的,GPU在圖像處理和并行計算方面表現(xiàn)出色,也是AI計算中常用的硬件。綜上所述,A選項的描述與AI芯片的技術(shù)架構(gòu)不符,是錯誤的。域解析:這道題考察對人工智能應(yīng)用領(lǐng)域的了解。人工智能(AI)的應(yīng)用遠不止計二個參數(shù)指定目標圖像的尺寸(200,300)。因此,在給出的選項中,選項A`cv中索引的數(shù)量。在張量[0,1]:[2,3]中,有兩個索引范圍,即[0,1]和[2,3],因此它是一個二階張量。所以正確答案是C。值。選項A“插值”方法正是用于這一目的。因此,正確是A。A、修改tensor的維度B、創(chuàng)建tensorC、刪除tensorore中,`Tensor`是用于表示多維數(shù)組的對象,類似于NumPy的`ndarray`。代碼`x=Tensor(np.array([[1,2],[3,4ensor`對象,而不是修改其維度、創(chuàng)建`ndarray`或刪除`Tensor`。因此,正確答案是B,表示這段代碼的作用是創(chuàng)建一個`Tensor`對象。注意,原答案C提到325.語音識別的難度有?()A、個人特征因素B、場景因素C、地域因素D、以上都是329.在3?3的窗口內(nèi)計算像素的LBP解析:在3*3的窗口內(nèi)計算像素的LBP特征時,如果該像素的值比周圍都小,訓(xùn)練中,需要遍歷(1)進行訓(xùn)練,在訓(xùn)練過程中,可以邊訓(xùn)練,邊在(2)上進型,在(3)上評估效果。336.下列選項中昇騰310和昇騰910屬性相同的是?——D、7nm制程解析:這是一道關(guān)于昇騰310和昇騰910屬性對比的問題。首先,我們需要了解昇騰310和昇騰910是華為推出的兩款A(yù)I處理器,它們在設(shè)計上會有一定的相似性和差異性。1.分析選項A,最大功率:不同型號的處理器,由于設(shè)計、用途等差異,其最大功率很可能不同。因此,不能斷定昇騰310和昇騰910的最大功率相同。2.分析選項B,架構(gòu):昇騰系列處理器通?;谙嗤幕蛳嗨频募軜?gòu)設(shè)計,以確保兼容性和可擴展性。因此,昇騰310和昇騰910很可能采用相同的架構(gòu)。3.分析選項C,整數(shù)精度:處理器的整數(shù)精度可能因其設(shè)計、用途和性能要求而有所不同。因此,不能假設(shè)昇騰310和昇騰910的整數(shù)精度相同。4.分析選項D,7nm制程:制程技術(shù)是指制造處理器所使用的工藝技術(shù)。不同型號的處理定昇騰310和昇騰910都使用7nm制程。綜上所述,最有可能相同的屬性是架構(gòu),因為處理器系列通?;谙嗤募軜?gòu)設(shè)計。因此,答案是B。B、terrorism為涉政暴恐檢測結(jié)果C、onfidence代表置信度,范圍0-100D、labe1代表每個檢測結(jié)果的標簽務(wù)中,通常會有針對不同敏感內(nèi)容的檢測結(jié)果標識,如“politics”代表涉政敏時,其范圍通常是0到100的百分比,或者0到1的小數(shù),而不是“0100”這樣指定輸入維度(A選項),進行權(quán)值初始化(C選項),以及指定網(wǎng)絡(luò)優(yōu)化器(D商公司面臨的網(wǎng)絡(luò)問題,最適用的EI服務(wù)是“網(wǎng)絡(luò)智能體”,因此答案是C。圖像等。A選項的文字生成和B選項的圖像生成都是對抗生成網(wǎng)絡(luò)的應(yīng)用,因為GAN可以用于生成文本和圖像數(shù)據(jù)。D選項的數(shù)據(jù)增強也是GAN的一個應(yīng)用,因率C、訓(xùn)練算法學(xué)習(xí)和分析已有的數(shù)據(jù)(即歷史數(shù)據(jù))來訓(xùn)練自身,以便對未知數(shù)據(jù)進行預(yù)測。型訓(xùn)練的輸入。因此,正確答案是D,即歷史數(shù)據(jù)。351.以下哪一個模板可以實現(xiàn)圖像的銳比?()對比度,使其更加清晰和銳利。根據(jù)題干中給出的選項,只有D選項為0-10-16-10-10,該模板包含一系列連續(xù)的負數(shù)和正數(shù),可以使圖像的邊緣而實現(xiàn)了圖像的銳比。因此,為D。B、無論是CBOW模型還是Skip-gram模型。都是以Huffman樹作為基礎(chǔ)的。C、BOW和Skip-gram都是可以訓(xùn)練詞向量的方法。D、CBOW是根據(jù)某個詞前面的n個詞或者前后n個連續(xù)的詞,來計算某個詞出現(xiàn)353.MoXing的主要功能是什么?A、華為自研的深度學(xué)習(xí)工具庫B、華為自研的深度學(xué)習(xí)引擎C、TensorFlow等深度學(xué)習(xí)引擎的分布式訓(xùn)練加速框架、API接口的封D、TensorFlow等深度學(xué)習(xí)引擎API接口的簡單封裝提供了豐富的API和工具支持。其次,MoXing還專注于對TensorFlow等深度學(xué)具庫也是加速框架。簡單封裝API接口并不是MoXing的主要功能,所以這一點A、計算圖B、高階微分C、代價函數(shù)D、鏈式法則A、離散值和回歸模型D、連續(xù)數(shù)值和回歸模型B、人臉比對D、翻拍識別B、輸入門C、記憶門D、輸出門殊的RNN(循環(huán)神經(jīng)網(wǎng)絡(luò)),它通過引入三個“門”結(jié)構(gòu)來控制信息的流動,分對模型進行訓(xùn)練。”關(guān)于上述描述,以下哪操作之前都需要先對模型進行訓(xùn)練。因此,正確答案是B,即該描述錯誤,推理C、特征在傳統(tǒng)機器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均弱可以將Tesor轉(zhuǎn)換為NumPy的數(shù)據(jù)類型?函數(shù)是`asnumpy()`,它用于將Tensor對象轉(zhuǎn)換為NumPy數(shù)解析:在MindSpore中,根據(jù)指定的軸對輸入Tensor進行數(shù)據(jù)重排的函數(shù)是tr過程的一部分?B、數(shù)據(jù)準化C、數(shù)據(jù)可視化369.Atlas加速AI推理使用的是什么處理器?A、異騰310處理器C、異騰910處理器較遠的像素相關(guān)性較弱。選項B正確,它準確地描述了權(quán)值共享的的緊密性,但后半句關(guān)于距離較遠的像素相關(guān)性較強的描述是錯誤的。選項D練時間,提升模型的泛化能力,并有助于避免過擬合。因此,錯誤的選項是B。377.專家系統(tǒng)屬于以下哪個學(xué)派?()A、符號主義術(shù)?解析:當一幅圖像的亮部太亮,暗部太暗時,可以考慮使用伽馬矯正(gammaco果,使暗部更亮,亮部更暗,從而增強圖像的對比度和可視性。因此,選項B像?389.以下哪一項不屬于華為云EI自然語言處理服務(wù)提供的意圖理解API所支持的領(lǐng)域?B、鬧鐘類C、笑話類鬧鐘類和笑話類等。因此,不屬于該API支持的領(lǐng)域的選項是D,即娛樂類。391.五官特征檢測API對輸入圖像進行人到的結(jié)果更加接近梯度下降的效果。(比如上例中的30W,設(shè)置batch_size=100A、過擬合問題B、梯度爆炸問題C、梯度消失問題素點P和S,我們可以發(fā)現(xiàn)它們在x軸和y軸上的差值分別是2和1。根據(jù)棋盤能是以下哪一項?A、欠擬合B、過擬合D、機器性能問題解析:答案選B。過擬合是指模型在訓(xùn)練集上表現(xiàn)很好,但在新的測試集上表現(xiàn)集表現(xiàn)差異的情況。所以該題答案為B過擬合。404.ModeIArts自動學(xué)習(xí)的使用流程是什么?()網(wǎng)絡(luò)訓(xùn)練過程中,由于層數(shù)較多,反向傳播時梯度值趨近于0,導(dǎo)致參數(shù)更新非常緩慢或停止。這個問題出現(xiàn)在**反向傳播更新參數(shù)**的環(huán)節(jié),因為是在這解析:一副8位的圖像,表示每個采樣點有2^8=256級,從最56個級別。一副32級的灰度圖像,每個采樣點從最暗到最亮,可以分辨32個級滿足這一需求,所以答案選C。A、召回率B、混淆矩陣C、均方誤差D、準確率A、支持Tensorflow和PytorchD、內(nèi)置多個模型C、增加飽和度D、減少飽和度A、BERT解析:BERT(BidirectionalEncoderRepresentationsfromTransformers)在預(yù)訓(xùn)練過程中使用了掩碼語言模型(MaskedLanguageModel)。通過隨機遮蔽輸入掩碼語言模型,GPT則是基于生成式的語言模型。所以,A、結(jié)構(gòu)分析A、SGDSGD(隨機梯度下降)由于其每次更新只隨機選取一個樣本來計算梯度,導(dǎo)致梯與16x16矩陣乘(4096)通常關(guān)注模型的多個方面來評估其優(yōu)勢。其中,可解釋性(B)指的是模型結(jié)果是否易于理解;預(yù)測速率(C)關(guān)乎模型做出預(yù)測的速度;泛化能力(D)則是指模型對未見過的數(shù)據(jù)的預(yù)測能力。而代碼復(fù)雜度(A)更多關(guān)聯(lián)于編程實踐,并A、PP集成 C選項錯誤,數(shù)據(jù)在輸入模型前通常需要進行預(yù)處理,如清洗、歸一化等,B、單層感知器的局限在于不能解決異或問題D、前饋神經(jīng)網(wǎng)絡(luò)同一層的神經(jīng)元之間不存在聯(lián)系隱藏層數(shù)的增加模型的分類能力逐步減弱”,這與實際情況相反,一般來說,增優(yōu)先級是bool解析:對角鄰接,對角鄰接和4連接共同構(gòu)成8連接432.AI集群網(wǎng)絡(luò)的需求和挑戰(zhàn)不包括以下哪一項?B、零丟包D、高吞吐的輸入值,選項B正確。437.常用的梅爾倒譜系數(shù)(MeI-FrequencyCepstralCoefficients)一般是一個多變換得到的信號。而Mel頻率分析就是基
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 量子世界真實解讀試題及答案
- 2025年多功能長壽無滴棚膜項目發(fā)展計劃
- 2025采購管理軟件系統(tǒng)的購銷合同模板
- 《構(gòu)建卓越的供應(yīng)鏈管理》課件
- 2025年谷物細粉項目建議書
- 2025工程承包合同附加協(xié)議范本
- 銷售考試題目及答案
- 2025土地使用權(quán)買賣合同書范文
- 2025標準小戶型租賃合同模板版
- 音樂理論難題解析試題及答案
- GB/T 602-2002化學(xué)試劑雜質(zhì)測定用標準溶液的制備
- GB/T 18657.1-2002遠動設(shè)備及系統(tǒng)第5部分:傳輸規(guī)約第1篇:傳輸幀格式
- GB/T 15608-2006中國顏色體系
- GB/T 14315-2008電力電纜導(dǎo)體用壓接型銅、鋁接線端子和連接管
- 中考語文二輪專題復(fù)習(xí):散文和小說閱讀
- 《民法》全冊精講課件
- 【人衛(wèi)九版內(nèi)分泌科】第十一章-甲狀腺功能減退癥課件
- 護理人員業(yè)務(wù)技術(shù)檔案 模板
- 金融監(jiān)管學(xué)-金融監(jiān)管學(xué)課件
- 語文一年級上冊:拼音9《y-w》ppt教學(xué)課件
- 標準溶液配制與標定原始記錄(氫氧化鈉)
評論
0/150
提交評論