版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
2024-2025華為ICT大賽(實踐賽)-昇騰Al賽道理論考試3.與ASIC芯片相比,以下哪些選項是FPGA芯片的特征?D、loT行業(yè)終端正確)。至于C選項的高級內(nèi)存復(fù)用,雖然在技術(shù)白皮書中有所提及,但在實際的服務(wù)列表中并未明確提供。因此,答案是A數(shù)據(jù)的維度。以下哪些是圖像特征提取和降低D、模式識別8.以下哪些是圖像處理的形式?()A、模型訓(xùn)練平穩(wěn)性.2)短時分析技術(shù)貫穿于語音信號分析的是B、C、D選項。解析:HiAI是面向移動終端的AI能力開放平臺,它主要分為三個層次進行要開放能夠提供服務(wù)的AI能力,比如語音識別、圖像識別等,19.關(guān)于U-Net網(wǎng)絡(luò)相關(guān)的描述中,錯誤的有哪幾項?B、U-Net網(wǎng)絡(luò)用滑動窗口提供像素的周圍區(qū)域(patch)作為輸入來預(yù)測每個像D、U-Net網(wǎng)絡(luò)應(yīng)用于生物醫(yī)學(xué)圖像處理領(lǐng)域,目標輸出包括目標類別的位置,A選項描述的目標輸出方式錯誤;C選項提到的后接全將U-Net歸類于強化學(xué)習(xí),也是錯誤的。B選項描述正確。20.以下哪些項可以作為深度學(xué)習(xí)的優(yōu)化方法?21.語音合成方法有哪些?()A、共振峰合成器合成領(lǐng)域有著不同的應(yīng)用和特點。所以選項ABCD均正確。A、自動學(xué)習(xí)D、多人數(shù)據(jù)標注ycharmSDK、數(shù)據(jù)集自動標注、多人數(shù)據(jù)標注等選項。這些服務(wù)可以幫助用戶更A、loT行業(yè)終端B、邊緣計算設(shè)備B、高偏差+低方差,可能造成欠擬合A、添加L1或L2正則懲訓(xùn)項ropout方法,隨機丟棄一部分輸入,能增加模型泛化能力。擴充數(shù)據(jù)集,引入30.以下屬于決策樹主要構(gòu)建步驟的是哪些選項?A、I計算擎A、*算法B、API易用性封裝速A、CPU答案:ABC45.在深度學(xué)習(xí)中,以下哪些是常用的正則項?A、L1項(也稱為L1范數(shù))和L2正則項(也稱為L2范數(shù)或權(quán)重衰減)是兩種常用的數(shù)(如0或1),但這確實是一個數(shù)學(xué)上的不連續(xù)點。選項D指出ReLU無上界,布解析:見PPT435頁A、8連通解析:連通域分為4聯(lián)通、8聯(lián)通使用了TensorFlow的摸型,后來發(fā)現(xiàn)推理效果不好,然后使用MindSpore框架C、使用MindSpore訓(xùn)練的模型無需使用ATC(AscendTensorCompiler)工具進行無需使用ATC(AscendTensorCompiler)工具進行轉(zhuǎn)換。此外,對于AIPP的設(shè)67.當使用機器學(xué)習(xí)建立模型的過程中,以下哪些屬于必備的操作?A、數(shù)據(jù)降維C、模型訓(xùn)練D、數(shù)據(jù)標準化D、有專門的接口可以刪除某個人臉集中的人臉數(shù)據(jù)答案:ACDD、Sigmoid的輸出并是以0為中心的非以0為中心。 C、L2正則化比L1正則化產(chǎn)生更加稀疏C、小批量梯度下降(MBGD),結(jié)合BGD與SGD的特性,每次選擇數(shù)據(jù)集中N個D、批量梯度下降(BGD),使用所有數(shù)據(jù)集中的樣本(共M個樣本)在當前的梯更新權(quán)重參數(shù)。C選項描述的是小批量梯度下降(MBGD),它結(jié)描述的是批量梯度下降(BGD),它使用所有數(shù)據(jù)集中的樣本在當前的梯度之和A、圖像分類B、目標檢測D、目標跟蹤任務(wù)共同構(gòu)成了圖像識別的基礎(chǔ),涵蓋了從簡單分類A、請求URLA、32和10C、10和和33D、9和33元數(shù)量加上本層神經(jīng)元數(shù)量(如果考慮偏置項)”。A選項(32*10+10=330)計算不符合,B選項(10*33=330)符合,C選項(33*10=330)符合,D選項(9*33=297)不符合。因此,正確答案是B和C,它們滿足參數(shù)總量的條件。B、卷積運算的目的是提取輸入的不同特征,第一層卷積層可能只能提取一A、GETAPI中,請求方法用于指示對資源的操作類型。A.GET方法用于請求訪問已被UR定資源提交數(shù)據(jù),請求服務(wù)器進行處理(例如提交表單或者上傳文件)。數(shù)據(jù)被104.下面哪些技術(shù)屬于圖像分割的應(yīng)用?C、目標分割D、閾值分割105.以下哪些選項屬于正則化方法的有哪些選項?B、ReLU函數(shù)D、模式識別A、能力模型D、強化模型111.梯度下降法是一種常見的優(yōu)化算法,其特點包括以下哪幾項?A、多步迭代B、步長會影響收斂性C、更新方向梯度的反方向D、更新方向梯度的同方向答案:ACD答案:ABD解析:Adam優(yōu)化器結(jié)合了Momentum和RMSprop的優(yōu)點。Momentum可以加速梯度下降,避免陷入局部最優(yōu)解;RMSprop則可以自適應(yīng)地調(diào)整學(xué)習(xí)率。Momentum為Adam優(yōu)化器提供了利用之前梯度信息加速收斂的特性。RMSpr器提供了自適應(yīng)調(diào)整學(xué)習(xí)率的能力。綜上所述,Adam優(yōu)化器可以看做是Moment114.在利用MindStudio連接Device進行應(yīng)用開發(fā)時,Device的芯片層包含的解析:在MindStudio中,當連接到Device進行應(yīng)用開發(fā)時,Device的芯片層常用于定義和管理復(fù)雜的工作流程;B選項的“GE”(通用執(zhí)行環(huán)境)是運行應(yīng)用所必需的底層環(huán)境;C選項的“TBE”(TensorBoostEngine)是針對AI推理115.以下哪些是MindSpore的優(yōu)點()122.jieba.cut方法的3個參數(shù)分別是()124.卷積神經(jīng)網(wǎng)絡(luò)通常包含以下哪些層?()low)ResNet_v1_101(圖像分類)/TensorFlow/Ascend9nsorFlow)EfficientNetB0/B4/B7/B8(圖像分類/PyTorch)Res2Net_50(圖像分類答案:ABCD127.以下哪幾項屬于MindSpore里的激活函數(shù)算子?答案:ACD128.下面有關(guān)AI應(yīng)用領(lǐng)域的描述正確的有哪些選項?和有限性(D選項正確),并且是一種離散性的隨機過程(C選項錯誤)。B、直接從0BS讀取A、dam因此,所有列出的選項A到E都是ModeIArts所涵蓋144.思維鏈(CoT)提示通過引入中間推理步驟實現(xiàn)了復(fù)雜的推理能力,其中ZeB、無需人工設(shè)計示例C、更好的可擴展性D、通用性強B選項正確,Zero-shot-CoT不需要人工耗費精力去設(shè)計示例。C選項正確,其能在多種情況下適用,通用性更強。而A選項多數(shù)情況下效果優(yōu)于Few-shot-Co145.以下關(guān)于模型中參數(shù)與超參數(shù)的描述中,哪些選項是LETE等)、遵循HTTP協(xié)議的語義和規(guī)范、使用標準的URL來標識和定位資源以147.昇騰芯片AI核有哪幾種計算資源?()T、DELETE等)來操作資源。Kerberos是一種網(wǎng)絡(luò)認證協(xié)議,并非HTTP請求的ful規(guī)范的請求,它也不是一種請求方式;編碼(如JSON、XML)則是請求體或為它不是請求方式)、D(編碼,因為它不是請求方式),但B(Curl)和C(Rx可以應(yīng)用于自動著色”不屬于其可能出現(xiàn)的問題。綜上,答案是AC。B、高算力計算方面表現(xiàn)出更強的算力和更高的能效。它特點是具有較高的算力(B)和較A、傳感器的單元數(shù)B、灰度化D、傳感器的傳感性能A、返回值403說明沒有操作權(quán)限。B、返回值500說明請求失敗,在服務(wù)器上未找到請求所希望得到C、返回值400說明語義有誤,當前請求無法被服務(wù)器解析D、返回值401說明當前請求需要用戶驗證解析:201-創(chuàng)建類的請求完全成功204-請求成功400-非法請求。建議直接修改務(wù)端指出客戶端所提供的認證信息不正確或非法403-沒有權(quán)限404-資源不存在解析:一個卷積神經(jīng)網(wǎng)絡(luò)主要由以下5種結(jié)構(gòu)組成:1.輸入層。2.卷積層。3.155.以下哪些選項可以創(chuàng)建全零常量Tensor?156.以下哪些選項是基于昇騰310的設(shè)備?()端訓(xùn)練場景;以及Atlas500型號,面向云端推理場景。這些都是基于昇騰310A、CV計算機視覺A、certainty解析:這道題考察的是圖像翻拍檢測服務(wù)調(diào)用成功時標簽suggestion的具體情ainty”表示不確定性,“TRUE”表示確認是翻拍。注意“FAISE”值對選項的分析:A選項正確,因為雙峰法確實是將圖像分成前景和背景兩部分,答案:ABCDD、擴大模型規(guī)模答案:ABC解析:A選項模型剪枝通過去除模型中不重要的參數(shù)來減少內(nèi)存占用。B選項模型量化將模型的參數(shù)從高精度轉(zhuǎn)換為低精度表示,可降低內(nèi)存需求。C選項知識蒸餾可以將復(fù)雜模型的知識傳遞給較小的模型,從而實現(xiàn)壓縮和減少內(nèi)存占用。D選項MoE壓縮也是一種有效的模型壓縮技術(shù)。這些方式都可以在不同程度上幫助減少模型部署時的內(nèi)存占用,所以答案為ABCD。答案:ABCD168.MindSpore目前支持多種常用的數(shù)據(jù)增強算子,其中c_transforms模塊可以實現(xiàn)以下哪幾種功能?解析:這道題考察的是對MindSpore框架中c_transforms模塊功能的了解。在量子計算機上運行。常見的通用量子算法包括Shor算法、HHL算法和Grover算選項A≥0.4MPa,這是一個特定場景下的壓力控制要求,不屬于通用量子算法的A、當前時間解析:AK方式登錄是指使用訪問密鑰(AK/SK)進行登錄鑒權(quán),需要在登錄時填寫A171.如果深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度消失或梯度爆炸問題我們常用的解決方法為.答案:ACD解析:這道題考察的是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中梯度問題的解決方法。梯度消失或爆炸是訓(xùn)練深度網(wǎng)絡(luò)時的常見問題。為梯度剪切能有效控制梯度大小,防止爆炸;使用Relu激活函數(shù)能避免梯度消失;正則化雖主要用于防止過擬合,但也能間接影響梯度。隨機欠采樣主要用于處理數(shù)據(jù)不平衡問題,與梯度問題無直接關(guān)系。172.ModeIArts訓(xùn)練作業(yè)支持哪些算法引擎()A、TensorFlow答案:ACD解析:ModeIArts支持的算法引擎有TensorFlow、PyTorch、PySpark、XGBoost173.在構(gòu)建好神經(jīng)網(wǎng)絡(luò)net后,使用miB、升騰310C、升騰910type代表標簽的類別,一般包括場景(scene)、物體(object)、概念(concept)等不同類型的標簽。根據(jù)提供的選項,正確的是B和C選項。因此,本題答案選擇BC。182.使用裝有Atlas300加速卡的服務(wù)器編譯運行程序時需要檢查哪些條件A、完成Atals驅(qū)動安裝B、已安裝Cmake編譯工具C、已安裝CUDA軟件包解析:這道題考察的是使用裝有Atlas300加速卡的服務(wù)器編譯運行程序所需條些選項是正確的?A、softmax函數(shù)又稱作歸一化指數(shù)函數(shù)B、Softmax回歸模型是解決二分類回歸問題的算法C、是二分類函數(shù)sigmoid的推廣D、softmax函數(shù)經(jīng)常與交叉熵損失函數(shù)聯(lián)合使用且總和為1,因此也被稱作歸一化指數(shù)函數(shù)。在分類任務(wù)中,softmax函數(shù)經(jīng)常與交叉熵損失函數(shù)聯(lián)合使用,以提高模型的訓(xùn)練效率。而softmax回歸模型實際上是解決多分類問題的算法,不是二分類。A、P30答案:ACDD、像人一樣行動答案:ABCDD、GECore中的Session管理A、0ptimizersptimizers)和編譯(compile)。-優(yōu)化器(0ptimizers)是用于設(shè)置模型的優(yōu)A、Tensorflow計算非常簡單,只需對輸入進行非線性變換,輸出為輸入值(輸入>0)或0(輸入≤0),這解釋了B選項的正確性。其次,ReLU在正區(qū)間內(nèi)梯度恒為1,有效A、GPU解析:PyTorch提供的Tensor數(shù)據(jù)結(jié)構(gòu)可以在不同硬件上加速計算,其中的Tensor支持在GPU和CPU上進行計算。因此,正確答案是A.GPU和B.CPU。201.以下哪些選項是人工智能深度學(xué)習(xí)框架?ert:BERT(BidirectionalEncoderRepresentationsfromTransformers)由AlexKrizhevsky等人在2012年提出,并在當年的ImageNet圖像識別競賽中解析:達芬奇架構(gòu)是華為推出的一種面向AI計算場景的處理器架構(gòu),主要用于提升其AI產(chǎn)品的性能和能效。根據(jù)這個知識背景,我們可以分析每個選項:A.Ascend.310是華為的一款A(yù)I加速模塊,它使用了達芬奇架構(gòu),專為AI推理和架構(gòu),而不是達芬奇架構(gòu)。C.Ascend910是華為的另一款A(yù)I處理器,同樣采用了達芬奇架構(gòu),專注于提供高性能的AI計算。D.Kunpeng920也是華為的一款服構(gòu)的產(chǎn)品是Ascend.310和Ascend910,對應(yīng)選項A和C,所以答案是AC。209.ATC模型轉(zhuǎn)換中的參數(shù)一般包括以下哪些選項?A、輸入數(shù)據(jù)維度B、輸入數(shù)據(jù)的順序D、模型所屬的框架的順序?qū)τ谀承┠P?如時間序列模型)至關(guān)重要,因此也是轉(zhuǎn)換過程中需要考D、模型連接(ModeIConnection)LangChain框架中,鏈是多個組件的集合,這些組件共同執(zhí)行一系列任務(wù),形成一個完整的流程。B.模型輸入/輸出(Modell/0):這個組件負責(zé)將輸入數(shù)據(jù)格解析:VGG19包含了19個隱藏層(16個卷積層和3個全連接層)從而在測試集上表現(xiàn)不佳。因此,正確答案是ABC。213.2018年10月10日,華為發(fā)布了全棧全場景AI解決方案.華為全棧方案具體包括?解析:華為全棧全場景AI解決方案是指包含了華為自主研發(fā)的芯片、算法、框的安平使能、算法的昇騰系列AI芯片和MindSpore深度學(xué)習(xí)框架等四個部分。屬于ModeIArts中自動學(xué)習(xí)的功能?D、自動調(diào)參E自動壓縮D、自定義語音合成平臺解析:華為HAIService主要提供與AI服開信息,HAIService確實包括快服務(wù)智慧平臺(HAG)以及小藝對話開發(fā)平臺,能圖表識別平臺并不屬于華為HAIService提供的標準平臺范疇。因此,選項A和C是正確的,選項B和D則不正確。所以答案是AC。包括功能模塊,如FusionEngine(融合引擎)和CCE算子庫(計算庫),這些221.華為快應(yīng)用IDE的功能包括哪些?()A、開發(fā)頁面或卡片C、構(gòu)建和打包B、RMSprop優(yōu)化器C、Adam優(yōu)化器A、DSL其中,DSL(DomainSpecificLanguage,領(lǐng)域特定語言)允許用戶以更直觀、接ctionKit)是華為提出的張量指令集,旨在提升AI計算效率,也支持自定義算子的開發(fā)。而TVM(TensorVirtuaIMachine)雖然是一個強大的深度學(xué)習(xí)編譯器堆棧,但它并不直接針對TBE的自定義算子開發(fā)。Caffe則是一個較老的深度學(xué)習(xí)框架,與TBE的自定義算子開發(fā)不直接相關(guān)。因此,正確答案是A和B。224.以下哪些選項屬于HMSCore提供的AI能力項“OCR”指的是光學(xué)字符識別(0pticalCharacterRecognition)相關(guān)的API,小小C、生成器也屬于可迭代的數(shù)據(jù)集類型,其直接依賴Pythn的生成器類型generatr返回數(shù)據(jù),直至生成器拋出Stplteratin異常。eratorDataset`接口來加載不支持直接加載的數(shù)據(jù)集。B選項正確,可迭代的數(shù)答案:ABDA、梯度消失問題B、過擬合問題D、梯度爆炸問題244.以下哪些OpenCV函數(shù)可以用于處理坐標變換?A、cv2.erode(image,kern解析:在0penCV中,處理坐標變換主要涉及到圖像的幾何變換函數(shù)。選項A中的`cv2.warpAffine`函數(shù)是用于對圖像進行仿射變換的,它接受一個變換矩陣M`和一個輸出圖像的大小`(w,h)`,可以對圖像進行平移、旋轉(zhuǎn)、縮放等操作,因此A選項是正確的。選項B中的`cv2.erode`函數(shù)是用于圖像腐蝕的,它屬于形態(tài)學(xué)變換,而不是坐標變換,所以B選項是錯誤的。選項C中的`cv2.flippicture`并不是O0penCV中的標準函數(shù),可能是一個誤寫或虛構(gòu)的函數(shù),因此項是錯誤的。選項D中的`cv2.flip`函數(shù)可以用于翻轉(zhuǎn)正確答案是AD。A、RMSprop優(yōu)化器可以解決Adagrad優(yōu)化器過早結(jié)束的問題解析:RMSprop優(yōu)化器很好的解決了Adagrad優(yōu)化器過早結(jié)束的問題,很合適處246.語音信號的時域參數(shù)包括哪些()A、短時能量B、短時過零率247.John在使用MindSpore訓(xùn)練模型時,想要將模型保存在本地文件中,以下選項中能實現(xiàn)他想法的選項有哪些?FrommindspCheckpointConfig(save_checkpoint_seconds=30,keepchecB、每隔30秒保存一個CheckPoint文件且每隔32個step保存一個CheckPointC、每隔32個step保存一個CheckPoint文件,且最多保存10個CheckPointA、期望為0B、期望為1C、方差為0D、方差為1個重要概念,其方差固定為1,表示數(shù)據(jù)的離散程度;期望(均值)為0,代表259.以下關(guān)于數(shù)據(jù)預(yù)處理的描述中,哪些選項是正確的?A、數(shù)據(jù)清理包含填充缺失值,發(fā)現(xiàn)并消除噪聲數(shù)據(jù)及異常點。B、數(shù)據(jù)降維簡化數(shù)據(jù)屬性,避免維度爆炸。C、數(shù)據(jù)標準化通過標準化數(shù)據(jù)來減少噪聲,以及提高模型準確性。D、機器學(xué)習(xí)最后輸出的結(jié)果需要借助模型,因此訓(xùn)練模型比數(shù)據(jù)預(yù)處理更重要。解析:這道題考察的是對數(shù)據(jù)預(yù)處理的理解。數(shù)據(jù)預(yù)處理是機器學(xué)習(xí)項目中非常關(guān)鍵的一步。數(shù)據(jù)清理確實包含填充缺失值,發(fā)現(xiàn)并消除噪聲數(shù)據(jù)及異常點,這是保證數(shù)據(jù)質(zhì)量的重要步驟。數(shù)據(jù)降維可以簡化數(shù)據(jù)屬性,避免維度爆炸,提高計算效率。數(shù)據(jù)標準化通過調(diào)整數(shù)據(jù)范圍,可以減少噪聲,有助于提高模型準確性。雖然訓(xùn)練模型很重要,但數(shù)據(jù)預(yù)處理同樣關(guān)鍵,它直接影響到后續(xù)模型訓(xùn)練的效果和準確性,因此D選項表述有誤。260.下列哪些是關(guān)鍵詞提取的方法?()解析:TF-IDF,TextRank,主題模型算法(LSA、LSI、LDA),HMM隱馬爾可夫模型一般用于生成序列,例如語音識別、詞性標注、分詞261.圖像的目標檢測算法需要完成()?(多選)A、目標類別的判斷B、置信度的計算C、目標邊緣的計算D、目標位置的計算斷和置信度的計算。因此,是ABC。圖像的目標檢測算法主要是對輸入圖像進行262.以下哪些是隱藏單元?C、Logisticsigmoid與雙曲正解析:Https:///qq_36182852/article/details/106735696整流263.基于華為云0CR服務(wù),企業(yè)可以以實現(xiàn)以下哪些業(yè)務(wù)?A、合同錄入與審核D、貓狗圖片分類門診檢驗報告單掃描錄入等。OCR(0pticalCharacterRecognition)用0CR服務(wù),企業(yè)可以將紙質(zhì)文檔中的文字轉(zhuǎn)換為數(shù)字形式,從而實現(xiàn)自動化錄264.屬于jieba框架中的分詞方法的是?()解析:jieba是一個常用的中文分詞工具,在其框架中包類型的分詞結(jié)果,常用于處理單行文本。C.Icut_for內(nèi)容,通過圖像的內(nèi)容生成多個描述標簽,可應(yīng)用于哪A、模糊圖像的修復(fù)性TIK算子開發(fā)方式與AutoSchedule機制是兩個相對獨立的概念,因此TIK算子開發(fā)方式本身并不使用AutoSchedule機制來加速算子運行效率。讓開發(fā)者專注于AI應(yīng)用的創(chuàng)造隨機丟棄(或稱為“失活”)神經(jīng)網(wǎng)絡(luò)中的一部分神經(jīng)元(及其連接)來減少模14.記錄像素的原始值為s,變化后的像素點的值為d,灰度變化的映射函數(shù)為d會實現(xiàn)對圖像整體的灰度拉伸,包括暗部和亮部;而當016.Transformer結(jié)構(gòu)更適合用于處理計算機視覺的任務(wù),后18.統(tǒng)一身份認證(IdentityandAccessManagemnet,簡稱IAM),IAM為華為云解析:統(tǒng)一身份認證(IdentityandAccessManagement,簡稱IAM)是一種安全華為云EI企業(yè)智能服務(wù)器服務(wù)作為一個云服務(wù)產(chǎn)品,很可能采用了IAM來保證其服務(wù)的安全性和數(shù)據(jù)的保密性。通過IAM,華為云EI企業(yè)智能服務(wù)器服務(wù)可成較小的模型,同時保持相似的性能。在知識蒸餾過程中,教師網(wǎng)絡(luò)(大型、復(fù)雜的網(wǎng)絡(luò))的知識被提取并傳遞給學(xué)生網(wǎng)絡(luò)(較小的網(wǎng)絡(luò))。通過知識蒸餾,學(xué)理速度。解析:GRU(門控循環(huán)單元)確實在reset門為1且update門為0時會退化為一個標準的RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))。值化任務(wù)。()數(shù)據(jù),包含通道、高度和寬度),而非灰度圖像(即二維數(shù)據(jù))。所以,這里的與回歸樹)而不是ID3樹。ID3樹是另一種決策樹算法,它使用信息增益來構(gòu)建29.使用Mindspore.nn.Conv2d(1,3,5,hasbias=False,weightinit='normal')接口,可以創(chuàng)建輸入通道數(shù)為1、輸出的通道數(shù)為5、卷積核大小為3*3、解析:輸出通道數(shù)為3、卷積核大小為5*5、使用normal算子初始化參數(shù)的卷s800和300解析:昇騰AI處理器中包含AICPU,負責(zé)控制整個AICore的運算,并協(xié)同完成41.梯度下降算法是用于更新參數(shù),尋找損失函數(shù)的最小點。其收斂點解析:TensorFlow2.0完全支持tens解析:MindSpore在網(wǎng)絡(luò)訓(xùn)練過程中,batchsize過小時,**不一定**不能47.傳統(tǒng)圖形處理算法相比深度學(xué)習(xí)算法在效果上有巨大差距,現(xiàn)在工業(yè)界已經(jīng)sorFlow2.0帶來了許多更新和改進,包括對API的精簡和重構(gòu),以提高可用性49.在邊緣計算設(shè)備上部署AI應(yīng)用時,所使用的神經(jīng)網(wǎng)絡(luò)模型越小越好。解析:在Adagrad優(yōu)化器中,初始的累計平方梯度可以為0,這是因為對于每個參數(shù),累計平方梯度是逐漸累加的,初始化為0不會影響后續(xù)的計算。LU對輸出數(shù)據(jù)分布的影響,使得輸入和輸出的方差保持一致。57.Mindspore通過面向芯片的深度圖優(yōu)化技術(shù),同步等待少,最大化"數(shù)據(jù)-計算-通信”的并行度解析:MindSpore是一種面向AI應(yīng)用場景的開發(fā)框架,專注于提供高效、易用59.雙峰法能夠自動求取圖像的最佳分割闕值,適用于所有的灰度圖像二值化任過小時,**不一定**不能矩陣,每個狀態(tài)對應(yīng)的觀察矩陣(這里對應(yīng)的76.知識圖譜表示的是概念與實體之間的關(guān)系網(wǎng)絡(luò),解析:參照PPT78.AscendCL提供的算子能力開放,既可以用于自定義算子開發(fā),也可以對現(xiàn)有79.使用ModeIArts模型轉(zhuǎn)換功能可以將Tensorflow模型轉(zhuǎn)換量化成tensorRT93.自然語言處理必須進行詞性標注。()94.在全連接神經(jīng)網(wǎng)絡(luò)中,卷積層中每一個神經(jīng)元只與前一層中部分神97.當問題的解決方案很復(fù)雜,或者問題可能涉及到大量的數(shù)據(jù)解析:把語音(≤60秒)轉(zhuǎn)換成對應(yīng)的文字信息,適用于較短的語音交互場越多反向傳播的梯度會落入飽和區(qū),從而讓梯度的模越來越小,最終趨近于0,1正則項來懲罰模型的復(fù)雜度。權(quán)重衰減通常是指調(diào)整模型參數(shù)(如權(quán)重)以減110.一般來說,Sigmoid網(wǎng)絡(luò)在5層之內(nèi),就會產(chǎn)生梯度退化為0的現(xiàn)象,難以解析:HUAWEIHiAIEngine是華為提供的一個AI能力開放平臺,它允許開發(fā)者將換后,數(shù)據(jù)才能被計算機用于進一步的數(shù)字圖像處理,更廣泛的AI應(yīng)用場景,因此在某些細節(jié)和性能優(yōu)化上可能與NumPy的數(shù)據(jù)類型有所不同??梢哉f,它們的基本概念不完全相同,尤其是在面向AI計算優(yōu)化的用了圖像分割的技術(shù)。()險。在預(yù)測或評估階段,通常不使用dropout。121.昇騰AI應(yīng)用包含推理類應(yīng)用、框架類應(yīng)用(訓(xùn)練),其中推理類應(yīng)用支持對解析:隱馬爾科夫模型簡稱HMM,他的狀態(tài)不能直接觀察到,但能通過觀測132.假設(shè)我們有一個數(shù)據(jù)集,給出了來自某城市房屋銷售的21613套住房的居住B、錯誤134.Mindspore訓(xùn)練數(shù)據(jù)處理引擎核心是將訓(xùn)練樣本(數(shù)據(jù)集)高效,靈活的轉(zhuǎn)換至MindRecord,并提供給訓(xùn)練網(wǎng)絡(luò)用于訓(xùn)練。解析:將“MindSpore”修改為“MindSpore的”。解析:用于分詞的庫。四種常見的jieba分詞模式:精確地切開,適合文本分析;(不加參數(shù),默認是精確模式)全模式:把句子I=True)paddle模式:利用PaddlePaddle深度學(xué)習(xí)框架,訓(xùn)練序列標注(雙144.CANN中提供了DVPP和AIPP,前者使用昇騰AI處理器中的DVPP模塊對圖像騰處理器)、GPU(圖形處理單元)和CPU(中央處理器)。這意味著MindSpor還原一副灰度圖像的色彩。()數(shù)據(jù).換提取聲譜圖解析:見實驗手冊ModeIArts實驗簡介部分解析:針對Atlas200DK,其開發(fā)和運行環(huán)境可以在同一個設(shè)備上,形成合設(shè)場解析:這道題正確,卷積層是卷積神經(jīng)網(wǎng)絡(luò)(CNN)的核心組成部分,用于提取190.K-折交叉驗證最后可以使用k個模型最終的驗證集的分類準確率的平均數(shù)作為k-折交又驗證下分類器的性能指標。解析:這道題正確,因為在K-折交叉驗證中,確實會使用k個模型在驗證集上193.word2vce中計算相似度用的是
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年度智慧城市承建合同標的城市信息化建設(shè)4篇
- 2025年京都議定書碳排放權(quán)減排項目融資與ESG審計合同3篇
- 2025年度生態(tài)修復(fù)工程純勞務(wù)分包合同范本4篇
- 2024智能交通工具研發(fā)合同
- 2024藝團藝人團體管理簽約合同3篇
- 2025年度新能源打井工程合作框架協(xié)議3篇
- 如何編寫仿古磚項目可行性研究報告
- 2025年洗滌設(shè)備品牌授權(quán)與合作合同協(xié)議書范本3篇
- 2025年度環(huán)保工程設(shè)計個人勞務(wù)承包合同4篇
- 2025年新能源汽車租賃企業(yè)間聯(lián)營合同3篇
- 巖土工程勘察課件0巖土工程勘察
- 《腎上腺腫瘤》課件
- 2024-2030年中國典當行業(yè)發(fā)展前景預(yù)測及融資策略分析報告
- 《乘用車越野性能主觀評價方法》
- 幼師個人成長發(fā)展規(guī)劃
- 2024-2025學(xué)年北師大版高二上學(xué)期期末英語試題及解答參考
- 動物醫(yī)學(xué)類專業(yè)生涯發(fā)展展示
- 批發(fā)面包采購合同范本
- 乘風(fēng)化麟 蛇我其誰 2025XX集團年終總結(jié)暨頒獎盛典
- 2024年大數(shù)據(jù)分析公司與中國政府合作協(xié)議
- 一年級數(shù)學(xué)(上)計算題專項練習(xí)匯編
評論
0/150
提交評論