2024年人工智能技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷題)_第1頁(yè)
2024年人工智能技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷題)_第2頁(yè)
2024年人工智能技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷題)_第3頁(yè)
2024年人工智能技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷題)_第4頁(yè)
2024年人工智能技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷題)_第5頁(yè)
已閱讀5頁(yè),還剩139頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

PAGEPAGE12024年人工智能技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷題匯總)多選題1.知識(shí)圖譜可以應(yīng)用到以下哪些場(chǎng)景中?A、量子計(jì)算B、搜索引擎C、電影推薦D、智能問(wèn)答機(jī)器人答案:BCD2.關(guān)于《網(wǎng)絡(luò)安全法》,下列說(shuō)法錯(cuò)誤的是()A、國(guó)家實(shí)施網(wǎng)絡(luò)可信身份戰(zhàn)略,支持研究開(kāi)發(fā)安全、方便的電子身份認(rèn)證技術(shù),推動(dòng)不同電子身份認(rèn)證之間的互認(rèn)。B、網(wǎng)絡(luò)產(chǎn)品、服務(wù)的提供者可以設(shè)置惡意程序C、按照規(guī)定留存相關(guān)的網(wǎng)絡(luò)日志不少于一個(gè)月D、網(wǎng)絡(luò)運(yùn)營(yíng)者不得泄露、篡改、毀損其收集的個(gè)人信息答案:BC3.以下關(guān)于機(jī)器學(xué)習(xí)算法的描述中,哪些選項(xiàng)是正確的?A、所謂“學(xué)習(xí)”是指:對(duì)于某類(lèi)任務(wù)T和性能度量P,一個(gè)計(jì)算機(jī)程序在E上以P衡量的性能隨著經(jīng)驗(yàn)B、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)特定分支,要想充分理解深度學(xué)習(xí),必須對(duì)機(jī)器學(xué)習(xí)的基本原理有深刻的理解。C、根據(jù)學(xué)習(xí)過(guò)程中的不同經(jīng)驗(yàn),機(jī)器學(xué)習(xí)算法可以分為無(wú)監(jiān)督算法和監(jiān)督算法。D、人類(lèi)通過(guò)經(jīng)驗(yàn)歸納規(guī)律,機(jī)器學(xué)習(xí)算法也可以從歷史數(shù)據(jù)當(dāng)中挖掘規(guī)則。E、而自我完善,那么我們稱(chēng)這個(gè)計(jì)算機(jī)程序在從經(jīng)驗(yàn)E學(xué)習(xí)。答案:ABD4.CNN相比于全連接的DNN有哪些優(yōu)勢(shì)?()A、參數(shù)更少B、泛化更好C、訓(xùn)練更快D、更容易搭建答案:ABC5.人工智能項(xiàng)目開(kāi)發(fā)過(guò)程中,技術(shù)經(jīng)理的職責(zé)是()A、技術(shù)實(shí)施B、項(xiàng)目進(jìn)度督導(dǎo)C、技術(shù)選型D、技術(shù)保障答案:CD6.3D重建技術(shù)適用于哪些應(yīng)用場(chǎng)景。()A、城市建筑建模B、VR/ARC、自動(dòng)駕駛D、元宇宙內(nèi)容建模答案:ABD7.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?A、常用的池化方法有最大池化和平均池化B、經(jīng)過(guò)池化的特征圖像變小了C、池化層可以起到降維的作用D、池化操作采用掃描窗口實(shí)現(xiàn)答案:ABCD8.無(wú)人超市的場(chǎng)景下,使用到的AI技術(shù)有哪些選項(xiàng)?A、推薦算法B、數(shù)據(jù)挖掘C、計(jì)算機(jī)視覺(jué)D、生物合成答案:ABC9.人工智能產(chǎn)品采用B/S架構(gòu),B/S架構(gòu)優(yōu)點(diǎn)是()。A、只需要在服務(wù)端對(duì)模型進(jìn)行升級(jí)B、用戶(hù)不用為每個(gè)AI應(yīng)用單獨(dú)安裝客戶(hù)端軟件C、數(shù)據(jù)、計(jì)算都在云端,更安全D、模型計(jì)算在客戶(hù)端計(jì)算機(jī)上答案:ABC10.哪些項(xiàng)不屬于使用池化層相比于相同步長(zhǎng)的卷積層的優(yōu)勢(shì)?()A、參數(shù)更少B、可以獲得更大下采樣C、速度更快D、有助于提升精度答案:BCD11.以下哪些項(xiàng)是單層感知機(jī)和邏輯回歸的主要區(qū)別?A、激活函數(shù)B、優(yōu)化方法C、損失函數(shù)D、處理的任務(wù)答案:AC12.下列對(duì)早期的全連接方式不適用于圖像特征提取的說(shuō)法,哪些選項(xiàng)是正確的?A、容易過(guò)擬合B、參數(shù)數(shù)量太多C、計(jì)算速度快D、充分利用像素間的位置信息答案:ABC13.以下關(guān)于異騰AI軟件棧的通用引擎描述,錯(cuò)誤的是哪些選項(xiàng)?A、提供視頻或圖像處理的算法封裝B、為異騰AI提供計(jì)算資源C、提供通用的神經(jīng)網(wǎng)絡(luò)推理能力D、支持在線(xiàn)和離線(xiàn)模型的加速模型答案:ABCD14.(__)由兩個(gè)簇的最近樣本決定,(__)由兩個(gè)簇的最遠(yuǎn)樣本決定,(__)由兩個(gè)簇的所有樣本共同決定。A、樣本距離B、最小距離C、最大距離D、平均距離答案:BCD15.HMSCore支持以下哪些操作系統(tǒng)?A、ndroidB、HarmonyOSC、WindowsD、IOS答案:ABCD16.(),是模型測(cè)試評(píng)估方案里的內(nèi)容。A、測(cè)試方法的制定B、測(cè)試環(huán)境的搭建C、測(cè)試指標(biāo)的制定D、測(cè)試數(shù)據(jù)集的制作答案:ABD17.人臉?biāo)阉鞣?wù)調(diào)用成功時(shí)返回的結(jié)果中包含下列哪些項(xiàng)?A、搜索出的人臉相似度B、搜索出的人臉idC、搜索出的人臉位置D、搜索出的人臉序號(hào)答案:ABC18.常見(jiàn)的圖像樣本擴(kuò)增方式有()。A、形狀變換B、顏色變換C、加噪D、遮掩答案:ABCD19.以下哪些選項(xiàng)屬于HMSCore中提供的AI能力?A、MLKitB、HiAIEngineC、MindSporeLiteD、HiAIFoundation答案:BD20.下面哪些操作不能把字母上的空洞補(bǔ)上()。A、膨脹運(yùn)算B、腐蝕運(yùn)算C、開(kāi)運(yùn)算D、閉運(yùn)算答案:ABC21.常見(jiàn)的插補(bǔ)缺失值方法有()。A、均值插補(bǔ)B、同類(lèi)均值插補(bǔ)C、多重插補(bǔ)D、極大似然估計(jì)答案:ABCD22.下列選項(xiàng)中屬于keras下estimator封裝的方法有?A、評(píng)估B、訓(xùn)練C、預(yù)測(cè)D、輸出模型答案:ABCD23.對(duì)圖像生成模型描述正確的是()。A、圖像生成模型是通過(guò)特征轉(zhuǎn)換為圖像B、圖像生成模型是通過(guò)圖像轉(zhuǎn)化為特征C、圖像生成模型是無(wú)監(jiān)督學(xué)習(xí)D、GAN是生成模型答案:ACD24.OpenAI的DALLE模型用到了哪些人工智能技術(shù)。()A、圖像識(shí)別B、自然語(yǔ)義C、圖像生成D、語(yǔ)音識(shí)別答案:BC25.以下關(guān)于解決問(wèn)題方法的描述中,哪些選項(xiàng)是正確的?A、人工規(guī)則適用于解決問(wèn)題規(guī)模小,規(guī)則復(fù)雜度高的問(wèn)題B、機(jī)器學(xué)習(xí)算法適用于解決問(wèn)題規(guī)模大,規(guī)則復(fù)雜度高的問(wèn)題C、基于規(guī)則的算法適用于問(wèn)題規(guī)模大,規(guī)則復(fù)雜度低的問(wèn)題D、問(wèn)題規(guī)模大,規(guī)則復(fù)雜度低的問(wèn)題屬于簡(jiǎn)單問(wèn)題答案:ABC26.人工智能模型開(kāi)發(fā)過(guò)程中,數(shù)據(jù)方案包括()內(nèi)容A、數(shù)據(jù)采集B、數(shù)據(jù)清洗C、數(shù)據(jù)標(biāo)注D、數(shù)據(jù)增強(qiáng)答案:ABCD27.在一個(gè)完整的多人臉識(shí)別算法中,通常包括哪些必要的技術(shù)步驟()A、人臉關(guān)鍵點(diǎn)定位B、人臉檢測(cè)C、人臉特征提取D、人臉特征對(duì)比答案:BCD28.現(xiàn)代計(jì)算機(jī)的CPU是由()、()和()組成。A、運(yùn)算單元B、控制單元C、存儲(chǔ)單元D、輸入輸出單元答案:ABC29.層次聚類(lèi)試圖在不同層次對(duì)數(shù)據(jù)集進(jìn)行劃分。這里數(shù)據(jù)集的劃分可采用(__)或(__)策略。A、自頂向下B、自底向上C、自左至右D、自右至左答案:AB30.3D點(diǎn)云數(shù)據(jù)不包含()的信息。A、線(xiàn)B、點(diǎn)C、面D、體答案:ACD31.以下關(guān)于LSTM的描述,正確的是哪幾項(xiàng)?A、門(mén)可以選擇性地以讓信息通過(guò)它們由Sigmoid神經(jīng)網(wǎng)絡(luò)層和逐點(diǎn)乘法運(yùn)算組成B、LSTM可以通過(guò)“門(mén)”的精細(xì)結(jié)構(gòu)向細(xì)胞狀態(tài)添加或移除信息C、LSTM的關(guān)鍵健是細(xì)胞狀態(tài),細(xì)胞狀態(tài)貫穿整個(gè)鏈條,只有一些次要的線(xiàn)性交互作用,信息很容易以不變的方式流過(guò)D、LSTM有兩種門(mén)用來(lái)保持和控制細(xì)胞狀態(tài):遺忘門(mén)和輸入門(mén)答案:ABCD32.下列關(guān)于BP網(wǎng)絡(luò)說(shuō)法正確的是(__)。A、標(biāo)準(zhǔn)BP算法每次僅針對(duì)一個(gè)訓(xùn)練樣例更新連接權(quán)和閾值B、P神經(jīng)網(wǎng)絡(luò)經(jīng)常遭遇過(guò)擬合C、早停策略可用來(lái)緩解BP網(wǎng)絡(luò)的過(guò)擬合問(wèn)題D、晚停策略可用來(lái)緩解BP網(wǎng)絡(luò)的欠擬合問(wèn)題答案:ABC33.數(shù)據(jù)產(chǎn)品的存在和表現(xiàn)形式有(__)和數(shù)據(jù)類(lèi)產(chǎn)品。A、情感類(lèi)產(chǎn)品B、信息類(lèi)產(chǎn)品C、知識(shí)類(lèi)產(chǎn)品D、智慧類(lèi)產(chǎn)品答案:BCD34.以下哪些選項(xiàng)屬于HarmonyOS的關(guān)鍵能力?A、MLKitB、分布式能力C、HMSCoreD、萬(wàn)能卡片答案:ABCD35.TensorFlow中keras模塊的內(nèi)置優(yōu)化器有?A、daboostB、SGDC、AdadeltaD、Adam答案:BCD36.華為云可提供的AI服務(wù)有以下哪幾項(xiàng)?A、文本識(shí)別OCRB、語(yǔ)音交互C、圖引擎服務(wù)D、圖像搜索答案:ABCD37.評(píng)判分類(lèi)模型的F1值是以下哪些指標(biāo)的調(diào)和均值?A、精確度(precision)B、有效率(validity)C、準(zhǔn)確率(accuracy)D、召回率(recal1)答案:AD38.框A面積為30,框B面積為20,兩個(gè)框可能的IOU值有()A、1/3B、0C、1D、2/3答案:ABD39.下面屬于數(shù)據(jù)科學(xué)主要研究?jī)?nèi)容的有(__)。A、理論基礎(chǔ)B、數(shù)據(jù)加工C、數(shù)據(jù)計(jì)算D、數(shù)據(jù)產(chǎn)品開(kāi)發(fā)答案:BCD40.機(jī)器學(xué)習(xí)一般可分為以下哪些類(lèi)型A、監(jiān)督學(xué)習(xí)B、半監(jiān)督學(xué)習(xí)C、無(wú)監(jiān)督學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)答案:ABCD41.MindSpore提供了自動(dòng)對(duì)圖像進(jìn)行增強(qiáng)處理的機(jī)制,可以實(shí)現(xiàn)算子的自動(dòng)選擇和執(zhí)行,達(dá)到提升訓(xùn)練精度的目的,以下哪些機(jī)制是正確的?A、基于反饋的自動(dòng)數(shù)據(jù)增強(qiáng)B、基于精度的自動(dòng)數(shù)據(jù)增強(qiáng)C、基于概率的自動(dòng)數(shù)據(jù)增強(qiáng)D、基于魯棒性的自動(dòng)數(shù)據(jù)增強(qiáng)答案:AC42.以下關(guān)于異騰AI軟件棧的通用引擎描述,錯(cuò)誤的是哪些選項(xiàng)?A、提供通用的神經(jīng)網(wǎng)絡(luò)推理能力B、提供視頻或圖像處理的算法封裝.C、為異騰AI提供計(jì)算資源.D、支持在線(xiàn)和離線(xiàn)模型的加速計(jì)算答案:AD43.數(shù)據(jù)戰(zhàn)略的基本問(wèn)題有(__)。A、數(shù)據(jù)戰(zhàn)略的定位B、數(shù)據(jù)戰(zhàn)略的目標(biāo)C、數(shù)據(jù)戰(zhàn)略的側(cè)重點(diǎn)D、數(shù)據(jù)戰(zhàn)略的范疇答案:ABCD44.人工智能項(xiàng)目開(kāi)發(fā)流程包括()A、需求分析B、模型研發(fā)C、實(shí)施部署D、文檔交付答案:ABCD45.深度學(xué)習(xí)可進(jìn)一步分為(__)。A、無(wú)監(jiān)督和生成式學(xué)習(xí)深度網(wǎng)絡(luò)B、半監(jiān)督深度神經(jīng)網(wǎng)絡(luò)C、監(jiān)督學(xué)習(xí)深度網(wǎng)絡(luò)D、混合深度網(wǎng)絡(luò)答案:ACD46.數(shù)據(jù)科學(xué)的基本流程包含(__)。A、數(shù)據(jù)可視化B、數(shù)據(jù)加工C、數(shù)據(jù)化D、數(shù)據(jù)洞見(jiàn)答案:BCD47.下列屬于噪聲數(shù)據(jù)消除噪聲的常用方法的是()。A、分箱B、生成C、回歸D、孤立點(diǎn)分析答案:ACD48.以下那幾項(xiàng)是華為云EI提供的入侵識(shí)別服務(wù)的特點(diǎn)?A、高人工成本B、高靈活性C、高易用性D、低誤振率答案:BCD49.分類(lèi)模型的誤差包括(___)。A、訓(xùn)練誤差B、泛化誤差C、再代入誤差D、表現(xiàn)誤差答案:ABC50.管理非結(jié)構(gòu)化數(shù)據(jù)常采用(____)。A、NoSQLB、NewSQLC、關(guān)系云技術(shù)D、關(guān)系數(shù)據(jù)庫(kù)技術(shù)答案:ABC51.寫(xiě)字樓人臉閘機(jī)使用時(shí)的人臉識(shí)別效果不佳,可能的主要因素有()。A、光線(xiàn)角度問(wèn)題B、網(wǎng)絡(luò)問(wèn)題C、面部遮擋問(wèn)題D、人臉相似度過(guò)大答案:ABC52.大數(shù)據(jù)“涌現(xiàn)”現(xiàn)象有(____)。A、價(jià)值涌現(xiàn)B、質(zhì)量涌現(xiàn)C、隱私涌現(xiàn)D、數(shù)量涌現(xiàn)答案:ABC53.下面哪些是循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出模式(__)。A、多輸出B、單輸出C、同步多輸出D、異步多輸出答案:ABD解析:循環(huán)神經(jīng)網(wǎng)絡(luò)是遞歸的,不可能同步多輸出。54.一個(gè)交叉驗(yàn)證將數(shù)據(jù)集分成兩個(gè)互補(bǔ)的子集,分別是(__)和(__)。A、訓(xùn)練集B、測(cè)試集C、子集D、補(bǔ)集答案:AB55.下面對(duì)正確率計(jì)算正確的是()A、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本正確10個(gè),正確率為18/25B、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本錯(cuò)誤10個(gè),正確率為7/25C、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本正確8個(gè),預(yù)測(cè)負(fù)樣本正確10個(gè),正確率為18/25D、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本正確10個(gè),正確率為12/25答案:BCD56.圖像數(shù)據(jù)擴(kuò)增的目的是()。A、增加樣本數(shù)據(jù)量B、增加樣本多樣性C、加快模型收斂D、提高模型泛化指標(biāo)答案:ABD57.下面屬于范數(shù)規(guī)則化的作用的是(__)和(__)。A、保證模型盡可能的簡(jiǎn)單,避免過(guò)擬合B、約束模型特征C、最小化問(wèn)題D、最大化問(wèn)題答案:AB58.目前,機(jī)器學(xué)習(xí)領(lǐng)域所面臨的主要挑戰(zhàn)包括().A、過(guò)擬合B、維度災(zāi)難C、特征工程D、算法的可擴(kuò)展性答案:ABCD59.華為云ModelArts中有AIGallery,可以提供以下哪些內(nèi)容?A、NotebookB、預(yù)置算法C、IDED、數(shù)據(jù)集答案:BD60.關(guān)于神經(jīng)元的敘述,哪些是正確的()A、每個(gè)神經(jīng)元可以有一個(gè)輸入和一個(gè)輸出B、每個(gè)神經(jīng)元可以有多個(gè)輸入和一個(gè)輸出C、每個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出D、每個(gè)神經(jīng)元可以有多個(gè)輸出和一個(gè)輸入答案:ABCD解析:神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)。61.下面對(duì)錯(cuò)誤率計(jì)算正確的是()A、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本正確10個(gè),錯(cuò)誤率為8/25B、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本錯(cuò)誤10個(gè),錯(cuò)誤率為18/25C、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本正確8個(gè),預(yù)測(cè)負(fù)樣本正確10個(gè),錯(cuò)誤率為18/25D、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本正確10個(gè),錯(cuò)誤率為13/25答案:BD62.哪些目錄是ME模塊組件包含的?A、cmakeB、mode1C、trainD、mm答案:BC63.人工智能產(chǎn)品采用B/S架構(gòu),B和S分別代表()。A、客戶(hù)端B、網(wǎng)頁(yè)端C、服務(wù)端D、數(shù)據(jù)端答案:BC64.Transformer網(wǎng)絡(luò)結(jié)構(gòu)中,包含()子網(wǎng)絡(luò)結(jié)構(gòu)A、CNNB、RNNC、MLPD、ATTENTION答案:CD65.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的敘述中正確的是()。A、可用于處理時(shí)間序列數(shù)據(jù)B、可用于處理圖像數(shù)據(jù)C、卷積網(wǎng)絡(luò)中使用的卷積運(yùn)算就是數(shù)學(xué)中的卷積計(jì)算D、至少在網(wǎng)絡(luò)的一層中使用卷積答案:ABD解析:神經(jīng)網(wǎng)絡(luò)中的卷積:我們通常是指由多個(gè)并行卷積組成的運(yùn)算。(因?yàn)閱蝹€(gè)核只能特區(qū)一種類(lèi)型的特征,我們usually希望可以在多個(gè)位置提取多個(gè)特征)輸入也不僅僅是實(shí)值的網(wǎng)格,而是由一系列觀測(cè)數(shù)據(jù)的向量構(gòu)成的網(wǎng)格。我們有的時(shí)候會(huì)希望跳出核中的一些位置來(lái)降低計(jì)算的開(kāi)銷(xiāo)(相應(yīng)的代價(jià)是提取特征沒(méi)有先前那么好了)我們就把這個(gè)過(guò)程看作對(duì)全卷積函數(shù)輸出的下采樣(downsling).如果只是在輸出的每個(gè)方向上每間隔s個(gè)像素進(jìn)行采樣,那么可重新定義一個(gè)下采樣卷積函數(shù)。我們把s稱(chēng)為下采樣卷積的步幅(stride)。在任何卷積網(wǎng)絡(luò)的實(shí)現(xiàn)中都有一個(gè)重要性質(zhì):能夠隱含地對(duì)輸入V用零進(jìn)行填充(pad)使得它加寬。數(shù)學(xué)中的卷積:考慮到函數(shù)f和g應(yīng)該地位平等,或者說(shuō)變量x和y應(yīng)該地位平等,一種可取的辦法就是沿直線(xiàn)x+y=t卷起來(lái)。66.(__)不屬于推斷統(tǒng)計(jì)的方法。A、區(qū)間估計(jì)B、參數(shù)估計(jì)C、假設(shè)檢驗(yàn)D、相關(guān)分析答案:AD67.在隨機(jī)森林中,最終的集成模型是通過(guò)什么策略決定模型結(jié)果?A、累加制B、求平均數(shù)C、投票制D、累乘制答案:BC68.模型欠擬合的時(shí)候,則()A、擴(kuò)大網(wǎng)絡(luò)規(guī)模,防止欠擬合B、擴(kuò)大模型參數(shù),防止欠擬合C、縮小網(wǎng)絡(luò)規(guī)模,防止欠擬合D、縮小模型參數(shù),防止欠擬合答案:AB69.下列哪些數(shù)據(jù)通常被認(rèn)為是連續(xù)型數(shù)據(jù)?()A、身高B、性別C、體重D、腰圍答案:ACD70.埃隆馬斯克的SpaceX公司發(fā)明了火箭回收技術(shù),假設(shè)該技術(shù)是用強(qiáng)化學(xué)習(xí)來(lái)設(shè)計(jì)的,那么火箭回收的時(shí)候,環(huán)境指()A、火箭周?chē)娘L(fēng)向B、火箭的姿態(tài)C、火箭的位置信息D、火箭的控制系統(tǒng)答案:ABC71.以下()屬于常見(jiàn)語(yǔ)音數(shù)據(jù)異常。A、丟幀B、噴麥C、重音D、音調(diào)較高答案:ABC72.數(shù)據(jù)科學(xué)的基本流程包含(__)。A、數(shù)據(jù)化B、探索性分析C、數(shù)據(jù)分析D、數(shù)據(jù)存儲(chǔ)答案:ABC73.常見(jiàn)的臟數(shù)據(jù)的類(lèi)型有哪些?A、邏輯錯(cuò)誤的值B、重復(fù)值C、缺失值D、格式錯(cuò)誤的值答案:ABCD74.Feigenbaum等人在著名的《人工智能手冊(cè)》中將機(jī)器學(xué)習(xí)劃分為機(jī)械學(xué)習(xí)和(_)四種。A、深度學(xué)習(xí)B、示教學(xué)習(xí)C、類(lèi)比學(xué)習(xí)D、歸納學(xué)習(xí)答案:BCD75.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)比較容易出現(xiàn)過(guò)擬合問(wèn)題,以下哪些選項(xiàng)可能導(dǎo)致過(guò)擬合問(wèn)題?A、使用Sigmoid激活函數(shù)B、隱藏層數(shù)過(guò)多C、數(shù)據(jù)集樣本數(shù)目少D、使用正則項(xiàng)答案:AB76.以下關(guān)于線(xiàn)性回歸的描述中,哪些選項(xiàng)是錯(cuò)誤的?A、線(xiàn)性回歸中誤差受到眾多因素獨(dú)立影響,根據(jù)中心極限定律,誤差服從正態(tài)分布。B、多元線(xiàn)性回歸分析出來(lái)的一定是高維空間中的一條直線(xiàn)。C、由于算法復(fù)雜度,線(xiàn)性回歸無(wú)法使用梯度下降的方法求出當(dāng)損失函數(shù)達(dá)到最小的時(shí)候的權(quán)重參數(shù)。D、根據(jù)正態(tài)分布函數(shù)與最大似然估計(jì),可以求出線(xiàn)性回歸的損失函數(shù)。答案:BC77.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?A、池化操作采用掃描窗口實(shí)現(xiàn)B、池化層可以起到降維的作用C、常用的池化方法有最大池化和平均池化D、經(jīng)過(guò)池化的特征圖像變小了答案:ABCD78.以下哪些方法是tf-idf的變種?()A、TFCB、EWCC、ITCD、IG答案:AC79.華為云提供的自然語(yǔ)言處理(NaturalLanguageProcessing)服務(wù)可以應(yīng)用于以下哪些場(chǎng)景?A、機(jī)器翻譯B、智能問(wèn)答C、語(yǔ)義搜索D、輿情分析答案:ACD80.下列哪些變換屬于仿射變換。()A、平移B、旋轉(zhuǎn)C、錯(cuò)切D、縮放答案:ABCD81.使用人工智能技術(shù)監(jiān)控電梯間電動(dòng)車(chē)駛?cè)氲膬?yōu)勢(shì)有()A、發(fā)現(xiàn)電梯間駛?cè)腚妱?dòng)車(chē),及時(shí)告警并通知物業(yè)人員B、提高工作監(jiān)管效率C、后臺(tái)可隨時(shí)查看統(tǒng)計(jì)記錄,回看違規(guī)事件答案:ABC82.已知全連接神經(jīng)網(wǎng)絡(luò)的某一層的參數(shù)總量為330,則上一層和本層的神經(jīng)元數(shù)量可能為?A、32和10B、10和33C、33和10D、9和33答案:BC83.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),下列哪些說(shuō)法是正確的?A、在卷積神經(jīng)網(wǎng)絡(luò)格中,池化層只能選擇最大池化,而不韻選擇其他方法。B、卷積運(yùn)算的目的是提取輸入的不同特征,第一層卷積層可能只能提取一些低級(jí)的特征如邊緣、線(xiàn)條和角,更多層的網(wǎng)絡(luò)能從低級(jí)特征中迭代提取更復(fù)雜的特征。C、全連接層把所有局部特征結(jié)合變成全局特征用來(lái)計(jì)算最后每一類(lèi)的得分。D、卷積神經(jīng)網(wǎng)絡(luò)中每層卷積層由若干卷積單元組成,每個(gè)卷積單元的參數(shù)都是通過(guò)反向傳播算法優(yōu)化得到的。答案:BCD84.以下哪些方法可以減少過(guò)擬合的問(wèn)題?A、添加L1或L2正則懲訓(xùn)項(xiàng)B、提前停止訓(xùn)練C、使用Dropout方法隨機(jī)丟棄一部分輸入D、擴(kuò)充數(shù)據(jù)集,引入噪聲答案:ABCD85.下列哪些操作會(huì)使得圖像變模糊。()A、去掉低頻信號(hào),保留高頻信號(hào)B、去掉高頻信號(hào),保留低頻信號(hào)C、使用高斯核對(duì)圖像進(jìn)行卷積運(yùn)算D、使用拉普拉斯核對(duì)圖像進(jìn)行卷積運(yùn)算答案:BC86.下列哪些是主流的圖像語(yǔ)義分割模型。()A、DeepLabB、UNETC、MaskRCNND、FasterRCNN答案:ABC87.市面上哪些產(chǎn)品使用了語(yǔ)音識(shí)別技術(shù)。()A、小米的小愛(ài)機(jī)器人B、喜馬拉雅APP小說(shuō)智能閱讀C、微信的語(yǔ)音轉(zhuǎn)寫(xiě)D、抖音短視頻AI配音答案:AC88.適用于推薦系統(tǒng)的業(yè)務(wù)場(chǎng)景的有()。A、新聞分發(fā)B、電商首頁(yè)商品展示C、短視頻推送D、電商商品自動(dòng)評(píng)價(jià)答案:ABC89.以下哪些選項(xiàng)屬于Keras的設(shè)計(jì)原則?A、模塊性B、用戶(hù)友好C、與Python協(xié)作D、易擴(kuò)展性答案:ABCD90.數(shù)據(jù)采集的方法包括()A、互聯(lián)網(wǎng)數(shù)據(jù)采集B、眾包、行業(yè)合作C、各種傳感器數(shù)據(jù)D、商業(yè)設(shè)計(jì)答案:ABC91.深度學(xué)習(xí)中以下哪些步驟是由模型自動(dòng)完成的?A、模型訓(xùn)練B、特征選擇C、分析定位任務(wù)D、特征提取答案:AD92.以下哪些項(xiàng)是典型的序列數(shù)據(jù)?A、股票市場(chǎng)中的價(jià)格走勢(shì)B、語(yǔ)音里的音頻內(nèi)容C、文章里的文字內(nèi)容D、視頻中的圖像幀答案:ABCD93.在機(jī)器學(xué)習(xí)算法當(dāng)中,以下哪幾類(lèi)問(wèn)題是算法要去解決的主要問(wèn)題?A、分類(lèi)問(wèn)題B、聚類(lèi)問(wèn)題C、強(qiáng)化問(wèn)題D、回歸問(wèn)題答案:ABD94.馮·諾伊曼被人們稱(chēng)為“()”和“()”。A、博弈論之父B、計(jì)算機(jī)之父C、人工智能之父D、深度學(xué)習(xí)之父答案:AB95.采集數(shù)據(jù)的質(zhì)量主要考慮下列哪些方面?()A、數(shù)據(jù)量B、多樣性C、覆蓋面D、均衡性答案:ABCD96.Adam優(yōu)化器可以看做是以下哪幾項(xiàng)的結(jié)合?A、MomentumB、AdagradC、NesterovD、RMSprop答案:ABD97.循環(huán)神經(jīng)網(wǎng)絡(luò)主要被應(yīng)用于哪些場(chǎng)景。()A、語(yǔ)音識(shí)別B、語(yǔ)音建模C、機(jī)器翻譯D、圖像識(shí)別答案:ABC98.以下關(guān)于數(shù)據(jù)集的描述中,哪些選項(xiàng)是正確的?A、數(shù)據(jù)集一般由多個(gè)維度構(gòu)成,任一維度反映樣本在某方面的表現(xiàn)或性質(zhì)的事項(xiàng)或?qū)傩?,被稱(chēng)為特征。B、從機(jī)器學(xué)習(xí)流程角度看,驗(yàn)證集和測(cè)試集本質(zhì)上是一樣的。C、學(xué)得模型后,使用其進(jìn)行預(yù)測(cè)的過(guò)程稱(chēng)為測(cè)試,使用的數(shù)據(jù)集稱(chēng)為測(cè)試集,每個(gè)樣本稱(chēng)為測(cè)試樣本。D、一般會(huì)將數(shù)據(jù)集分為訓(xùn)練集、驗(yàn)證機(jī)和測(cè)試集。答案:ABCD99.MindSpore模型在訓(xùn)練完成后,可以部署在以下哪些選項(xiàng)?A、tlas800B、華為云ECSC、Atlas300TProD、HUAWEIMate50Pro答案:CD100.于機(jī)器學(xué)習(xí)模型性能評(píng)估的說(shuō)法,以下哪些選項(xiàng)是正確的?A、通過(guò)分類(lèi)模型的混淆矩陣,可以計(jì)算準(zhǔn)確率,錯(cuò)誤率,召回率,差準(zhǔn)率,F1值等各種信息B、回模型股可以使用MAE或MSE進(jìn)行評(píng)估C、分類(lèi)模型一般可以結(jié)合混淆矩陣進(jìn)行評(píng)估D、聚類(lèi)模型沒(méi)有性能評(píng)估方法答案:ABC101.有兩種策略常用來(lái)緩解BP網(wǎng)絡(luò)的過(guò)擬合,分別是()和()。A、晚停B、早停C、正則化D、加入損失函數(shù)答案:BC解析:通常有兩種策略來(lái)緩解BP網(wǎng)絡(luò)的過(guò)擬合。第一種策略是早停(earlystopping):將數(shù)據(jù)分成訓(xùn)練集合驗(yàn)證集,訓(xùn)練集用來(lái)計(jì)算梯度、更新連接權(quán)和閾值,驗(yàn)證集用來(lái)估計(jì)誤差,若訓(xùn)練集誤差降低但驗(yàn)證集誤差升高,則停止訓(xùn)練,同時(shí)返回具有最小驗(yàn)證集誤差的連接權(quán)和閾值。第二種策略是正則化(regularization),其基本思想是在誤差目標(biāo)函數(shù)中增加一個(gè)用于描述網(wǎng)絡(luò)復(fù)雜度的部分,例如連接權(quán)和閾值的平方和。102.正則化是傳統(tǒng)機(jī)器學(xué)習(xí)中重要且有效的減少泛化誤差的技術(shù),以下技術(shù)屬于正則化技術(shù)的是?A、動(dòng)量?jī)?yōu)化器B、L2正則化C、DropoutD、L1正則化答案:BCD103.常見(jiàn)的圖像顏色空間格式有()。A、RGBB、HSVC、grayD、YUV答案:ABCD104.下面屬于詞袋模型的缺點(diǎn)的是?()A、詞匯表的詞匯需要經(jīng)過(guò)精心設(shè)計(jì)B、表示具有稀疏性C、丟失詞序忽略了上下文D、模型復(fù)雜,不利于實(shí)施答案:ABC105.下列哪些屬于AI的子領(lǐng)域?A、機(jī)器學(xué)習(xí)B、計(jì)算機(jī)視覺(jué)C、語(yǔ)音識(shí)別D、自然語(yǔ)言處理答案:ABCD106.從方法論角度,基于統(tǒng)計(jì)的數(shù)據(jù)分析方法可以分為(__)。A、基本分析方法B、自適應(yīng)分析方法C、元分析方法D、判別模型分析方法答案:AC107.以下對(duì)數(shù)據(jù)描述正確的是(____)。A、數(shù)據(jù)只包含顯性數(shù)據(jù)和隱性數(shù)據(jù)B、數(shù)值是數(shù)據(jù)的一種形式C、數(shù)據(jù)到智慧是人們認(rèn)知提升的過(guò)程D、數(shù)據(jù)是現(xiàn)實(shí)世界的記錄答案:BCD108.根據(jù)學(xué)習(xí)形式,數(shù)據(jù)科學(xué)中機(jī)器學(xué)習(xí)可分為(__)。A、人工神經(jīng)網(wǎng)絡(luò)和增強(qiáng)學(xué)習(xí)B、基于實(shí)例學(xué)習(xí)C、遺傳算法D、貝葉斯學(xué)習(xí)答案:ABCD109.TensorFlow中keras模塊的內(nèi)置優(yōu)化器有?A、damB、SGDC、AdaboostD、Adadelta答案:ABD110.TextRank首先會(huì)提取詞匯,形成();然后依據(jù)詞匯的關(guān)聯(lián),建立()。A、節(jié)點(diǎn)B、詞表C、鏈接D、句子答案:AC111.以下哪些服務(wù)屬于華為EI服務(wù)家族A、EI大數(shù)據(jù)服務(wù)B、自然語(yǔ)言處理C、對(duì)話(huà)機(jī)器人D、EI基礎(chǔ)服務(wù)答案:ABCD112.華為云ModelArts是面向AI開(kāi)發(fā)的一戰(zhàn)式開(kāi)發(fā)平臺(tái),以下哪些功能在NodelArts上可以具備?A、數(shù)據(jù)治理B、AI市場(chǎng)C、自動(dòng)學(xué)習(xí)D、可視化工作流答案:ABCD113.NPU特點(diǎn)描述錯(cuò)誤的是()。A、擅長(zhǎng)神經(jīng)網(wǎng)絡(luò)模型推理B、擅長(zhǎng)神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練C、功耗高D、功耗低答案:BC114.在深度學(xué)習(xí)模型訓(xùn)練的過(guò)程中,常見(jiàn)的優(yōu)化器有哪些?A、damB、AdagradC、SGDD、Momentum答案:ABCD115.下面屬于數(shù)據(jù)科學(xué)家的主要職責(zé)有(__)。A、提出“好問(wèn)題”B、完成“數(shù)據(jù)加工”C、實(shí)現(xiàn)“數(shù)據(jù)洞見(jiàn)”D、數(shù)據(jù)“故事化”答案:ABCD116.選用邊緣計(jì)算設(shè)備的時(shí)候,應(yīng)該考慮哪些因素()A、成本B、算力C、功耗D、支持的模型答案:ABCD117.以下關(guān)于線(xiàn)性回歸的描述中,哪些選項(xiàng)是錯(cuò)誤的?A、多元線(xiàn)性回歸分析出來(lái)的一定是高維空間中的一條直線(xiàn)。B、由于算法復(fù)雜度,線(xiàn)性回歸無(wú)法使用梯度下降的方法求出當(dāng)損失函數(shù)達(dá)到最小的時(shí)候的權(quán)重參數(shù)C、根據(jù)正態(tài)分布函數(shù)與最大似然估計(jì),可以求出線(xiàn)性回歸的損失函數(shù)D、線(xiàn)性回歸中誤差受到眾多因素獨(dú)立影響,根據(jù)中心極限定律誤差服從正態(tài)分布答案:AB118.下面對(duì)深度神經(jīng)網(wǎng)絡(luò)規(guī)模描述正確的是()A、網(wǎng)絡(luò)規(guī)模越大,能力越強(qiáng)B、網(wǎng)絡(luò)規(guī)模越大,能力越弱C、網(wǎng)絡(luò)規(guī)模越大,推理速度越慢D、網(wǎng)絡(luò)規(guī)模越大,推理速度越快答案:AC119.下列關(guān)于支持向量回歸機(jī)說(shuō)法正確的是(__)。A、支持向量回歸機(jī)希望學(xué)得一個(gè)回歸模型,使得預(yù)測(cè)值f(x)與真實(shí)值x盡可能接近B、在傳統(tǒng)回歸模型中,當(dāng)且僅當(dāng)預(yù)測(cè)值f(x)與真實(shí)值x完全相同時(shí),損失才為0C、支持向量回歸假設(shè)我們能夠容忍預(yù)測(cè)值f(x)與真實(shí)值x之間最多有特定值的誤差D、支持向量回歸以決策函數(shù)為中心,構(gòu)建了一個(gè)特定寬度的間隔帶,若訓(xùn)練樣本落入此間隔帶,則認(rèn)為是被預(yù)測(cè)正確的答案:ABCD120.交叉驗(yàn)證可用于(__)、(__)和(__)。A、分類(lèi)B、參數(shù)選擇C、模型選擇D、特征選擇答案:BCD121.以下那些方法不常用于灰度內(nèi)插值。()A、最近鄰內(nèi)插法B、三次內(nèi)插法C、雙線(xiàn)性?xún)?nèi)插值法D、三次樣條插值法答案:ABD122.目前比較流行的深度學(xué)習(xí)框架包括()。A、PytorchB、TensorflowC、SciPyD、PaddlePaddle答案:ABD123.醫(yī)學(xué)數(shù)據(jù)脫敏后需要進(jìn)行數(shù)據(jù)預(yù)處理,屬于原始醫(yī)學(xué)數(shù)據(jù)特點(diǎn)的是()A、缺失率很高B、數(shù)據(jù)完整格式規(guī)范C、臟數(shù)據(jù)很多D、數(shù)據(jù)格式不規(guī)整答案:ACD124.華為HiAIService提供以下哪些平臺(tái)?A、小藝對(duì)話(huà)開(kāi)發(fā)平臺(tái)B、智能圖表識(shí)別平臺(tái)C、快服務(wù)智慧平臺(tái)HAGD、自定義語(yǔ)音合成平臺(tái)答案:AC125.F1參數(shù)由(__)和(__)綜合獲得A、查全率B、查準(zhǔn)率C、誤差D、精度答案:AB126.Ascend芯片是華為設(shè)計(jì)的AI芯片,其特點(diǎn)是哪幾項(xiàng)?A、高功耗B、高算力C、低功耗D、低算力答案:BC127.MSIR是一種簡(jiǎn)潔高效靈活的基于圖的函數(shù)式IR,可以表示的函數(shù)式語(yǔ)義類(lèi)型有?A、自由變量B、高階函數(shù)C、中斷D、遞歸答案:ABD128.人工智能數(shù)據(jù)采集方案中,哪些問(wèn)題應(yīng)該考慮?()A、數(shù)據(jù)來(lái)源B、數(shù)據(jù)質(zhì)量C、數(shù)據(jù)采集成本D、數(shù)據(jù)清洗答案:ABC129.數(shù)據(jù)治理包括哪些類(lèi)型A、應(yīng)對(duì)型治理B、主動(dòng)型治理C、被動(dòng)型治理D、安全型治理答案:AB130.數(shù)據(jù)科學(xué)項(xiàng)目的基本流程涉及發(fā)活動(dòng)包括(__)和數(shù)據(jù)的管理與獲取、結(jié)果的可視化與文檔化、模式/模型的驗(yàn)證和優(yōu)化。A、模式/模型的應(yīng)用和維護(hù)B、項(xiàng)目目標(biāo)定義C、項(xiàng)目成本控制D、模式/模型的洞見(jiàn)答案:ABD131.以下屬于數(shù)據(jù)科學(xué)的研究目的的是(____)。A、數(shù)據(jù)洞見(jiàn)B、數(shù)據(jù)生態(tài)系統(tǒng)建設(shè)C、數(shù)據(jù)業(yè)務(wù)化D、數(shù)據(jù)產(chǎn)品的研發(fā)答案:ABCD132.在深度學(xué)習(xí)中,以下哪些是常用的正則項(xiàng)?A、L1B、TanhC、ReluD、L2答案:AD133.常見(jiàn)的樣本數(shù)據(jù)劃分方式為()A、訓(xùn)練集,驗(yàn)證集B、驗(yàn)證集,測(cè)試集C、訓(xùn)練集,測(cè)試集D、訓(xùn)練集,驗(yàn)證集,測(cè)試集答案:CD134.以下關(guān)于決策樹(shù)的描述中,哪些選項(xiàng)是正確的?A、常見(jiàn)的決策樹(shù)算法有ID3,C4.5,CART等B、決策樹(shù)的構(gòu)造就是進(jìn)行屬性的選擇,確定各個(gè)特征屬性之間的樹(shù)結(jié)構(gòu)C、純度的量化指標(biāo)只能通過(guò)信息熵D、構(gòu)建決策樹(shù)的關(guān)鍵步驟就是按照所有的特征屬性進(jìn)行劃分操作,對(duì)所有的劃分操作的結(jié)果集的“純度進(jìn)行比較答案:ABD135.下列哪些情況不可能是學(xué)習(xí)率太大導(dǎo)致的()A、模型收斂的太慢B、模型無(wú)法收斂,并發(fā)散崩潰C、模型迅速收斂到損失函數(shù)最小值D、模型內(nèi)部參數(shù)大部分變?yōu)?答案:ACD136.下列使用了達(dá)芬奇架構(gòu)的產(chǎn)品有哪些選項(xiàng)?A、scend.310B、Kunpeng920sC、Ascend910D、Kunpeng920答案:AC137.下列關(guān)于偏差、方差、均方差、泛化誤差的作用表述正確的是(__)。A、偏差刻畫(huà)了模型本身的擬合能力B、方差刻畫(huà)了數(shù)據(jù)擾動(dòng)所造成的影響C、噪聲刻畫(huà)了學(xué)習(xí)問(wèn)題本身的難度D、泛化誤差可分解為方差與噪音之和。答案:ABC138.以下哪些項(xiàng)是常用的擴(kuò)充數(shù)據(jù)集的方法?A、對(duì)圖像進(jìn)行幾何變換B、在文本中進(jìn)行近義詞替換C、標(biāo)簽平滑D、對(duì)語(yǔ)音信號(hào)添加隨機(jī)噪聲答案:AD139.數(shù)據(jù)加工是一種數(shù)據(jù)轉(zhuǎn)換的過(guò)程,可分為(__)。A、單維度轉(zhuǎn)換B、高維度轉(zhuǎn)換C、低維度轉(zhuǎn)換D、多維度轉(zhuǎn)換答案:AD140.長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)三個(gè)門(mén)是哪些()A、進(jìn)化門(mén)B、輸出門(mén)C、輸入門(mén)D、遺忘門(mén)答案:BCD解析:LSTM擁有三個(gè)門(mén)(輸入門(mén),遺忘門(mén),輸出門(mén)),來(lái)保護(hù)和控制細(xì)胞狀態(tài)。判斷題(共4題)141.強(qiáng)化學(xué)習(xí)可以應(yīng)用在以下哪些領(lǐng)域中?A、機(jī)器人控制B、交通C、金融D、游戲答案:ABCD142.以下哪些選項(xiàng)是TensorFlow2.xEagerExecution的特點(diǎn)?A、直觀B、性能C、可部署性D、靈活答案:ABD143.(__)可以幫助解決訓(xùn)練集在特征空間中線(xiàn)性不可分的問(wèn)題。A、硬間隔B、軟間隔C、核函數(shù)D、拉格朗日乘子法答案:BC144.關(guān)于TPU,下列說(shuō)法正確的是()A、TPU是一款專(zhuān)用于機(jī)器學(xué)習(xí)的芯片B、TPU是一款專(zhuān)用于數(shù)據(jù)處理的芯片C、TPU能用于深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練D、TPU可以提供高吞吐量的低精度計(jì)算答案:ACD145.下面關(guān)于L1范式正則化描述正確的是(__)。A、L1范數(shù)正則化使得學(xué)習(xí)得到的結(jié)果滿(mǎn)足稀疏化,從而方便人們提取特征B、L1范數(shù)是指向量中各個(gè)元素絕對(duì)值之和C、L1范數(shù)正則化也有個(gè)美稱(chēng)叫“稀疏規(guī)則算子”D、壓縮感知問(wèn)題可以通過(guò)L1范數(shù)最小化問(wèn)題求解答案:ABCD146.以下屬于Tensorflow2.0的特性的是?A、支持更多平臺(tái)和更多語(yǔ)言B、引入Keras接口C、繼續(xù)兼容Tensorflow1,X的相關(guān)模塊D、支持靜態(tài)圖機(jī)制答案:ABCD147.以下哪些項(xiàng)是神經(jīng)網(wǎng)絡(luò)在感知機(jī)的基礎(chǔ)上做的改進(jìn)?A、加入隱藏層,隱藏層可以有多層,增強(qiáng)模型的表達(dá)能力。B、對(duì)激活函數(shù)做擴(kuò)展,包括Sigmoid函數(shù)、Softmax和ReLU等。C、輸出層的神經(jīng)元也可以不止一個(gè),可以有多個(gè)輸出。D、引入了損失函數(shù)。答案:ABCD148.下面哪些屬于AI的應(yīng)用領(lǐng)域?A、智慧家居B、智慧城市C、智慧醫(yī)療D、智慧教育答案:ABCD149.下列不包含聲紋識(shí)別應(yīng)用場(chǎng)景的是()。A、語(yǔ)音支付B、語(yǔ)音播放C、AI文章閱讀D、智能翻譯答案:BCD150.(__)屬于圖像平滑的濾波。A、盒式濾波B、雙邊濾波C、導(dǎo)向?yàn)V波D、貝葉斯變換答案:ABC151.以下哪些選項(xiàng)屬于華為自動(dòng)駕駛云服務(wù)?A、標(biāo)注平臺(tái)B、數(shù)據(jù)存儲(chǔ)C、算法管理D、路況數(shù)據(jù)采集答案:ABC152.(__)是基于字符串匹配的分詞方法。A、正向最大匹配法B、逆向最大匹配法C、最少切分D、隱馬爾科夫模型答案:ABC153.用于訓(xùn)練的Atlas產(chǎn)品有?A、tals300型號(hào)9000B、Atlas800型號(hào):9000C、Atals500D、Atals900答案:ABCD154.AI框架從單一的NN向通用張量可微計(jì)算演進(jìn)中,其中一個(gè)演進(jìn)方向是與科學(xué)計(jì)算的結(jié)合,主要表現(xiàn)為以下哪幾項(xiàng)?A、構(gòu)建基于AI的可計(jì)算模型B、借助新框架加速方程求解C、借助神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)新解法D、借助可微物理引擎實(shí)現(xiàn)可微編程答案:ABC155.模型訓(xùn)練完成后,在部署前,那種參數(shù)會(huì)縮小模型規(guī)模。()A、量化B、加先驗(yàn)C、蒸餾D、剪枝答案:CD156.神經(jīng)網(wǎng)絡(luò)模型(NeuralNetwork)因受人類(lèi)大腦的啟發(fā)而得名。神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個(gè)神經(jīng)元接受一個(gè)輸入,對(duì)輸入進(jìn)行處理后給出一個(gè)輸出。請(qǐng)問(wèn)下列關(guān)于神經(jīng)元的描述中,哪一項(xiàng)是正確的(__)。A、每個(gè)神經(jīng)元有一個(gè)輸入和一個(gè)輸出B、每個(gè)神經(jīng)元有多個(gè)輸入和一個(gè)輸出C、每個(gè)神經(jīng)元有一個(gè)輸入和多個(gè)輸出D、每個(gè)神經(jīng)元有多個(gè)輸入和多個(gè)輸出答案:ABCD解析:每個(gè)神經(jīng)元可以有一個(gè)或多個(gè)輸入,和一個(gè)或多個(gè)輸出。157.常用的Python科學(xué)計(jì)算庫(kù)有()。A、NumpyB、SciKit-learnC、PandasD、SciPy答案:ABCD158.昇騰AI處理器支持接入以下哪些種類(lèi)的內(nèi)存?A、SSDB、HBMC、SATAD、DR答案:CD159.以下網(wǎng)絡(luò)模型格式中,可以用于保存訓(xùn)練參數(shù)和網(wǎng)絡(luò)模型的有哪些選項(xiàng)?A、MindIRB、AIRC、heckpointD、ONNX答案:ACD160.SGD優(yōu)化器中用到了哪些技術(shù)()A、反向傳播算法B、小批量學(xué)習(xí)C、動(dòng)態(tài)學(xué)習(xí)率D、動(dòng)量學(xué)習(xí)答案:AB161.以下關(guān)于小批量梯度下降算法描述中,正確的是哪幾項(xiàng)?A、MBGD兼顧了對(duì)率和核度的穩(wěn)定性,容易沖過(guò)局部極小值,是實(shí)際工作中最常用的梯度下降算法B、MBGD每次使用一個(gè)批次的樣本進(jìn)行更新,因此速度也非常慢在實(shí)際場(chǎng)景中不被接受C、MBGD每次使用小批固定尺寸的樣例來(lái)更新權(quán)值D、MBGD中的BatchSize是一個(gè)超參數(shù),可由人為設(shè)定答案:ACD162.隱馬爾科夫模型和馬爾科夫隨機(jī)場(chǎng)都是(__)模型,而(__)是判別式模型。A、生成式模型B、隨機(jī)模型C、條件隨機(jī)場(chǎng)D、感知機(jī)模型答案:AC163.以下哪些選項(xiàng)屬于機(jī)器學(xué)習(xí)中常見(jiàn)的集成學(xué)習(xí)算法?A、線(xiàn)性回歸B、GBDTC、隨機(jī)森林D、Xgboost答案:BCD164.推薦系統(tǒng)的三個(gè)重要模塊是()。A、用戶(hù)模塊B、用戶(hù)對(duì)象關(guān)系模塊C、對(duì)象模塊D、推薦算法模塊答案:ACD165.下列哪些項(xiàng)屬于傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)的性質(zhì)()A、上一時(shí)刻的網(wǎng)絡(luò)狀態(tài)信息將會(huì)作用于下一時(shí)刻的網(wǎng)絡(luò)狀態(tài)B、并行處理序列中所有信息C、容易梯度爆炸/消失D、易于搭建答案:AC解析:循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurrentNeuralNetwork,RNN)是一類(lèi)以序列(sequence)數(shù)據(jù)為輸入,在序列的演進(jìn)方向進(jìn)行遞歸(recursion)且所有節(jié)點(diǎn)(循環(huán)單元)按鏈?zhǔn)竭B接的遞歸神經(jīng)網(wǎng)絡(luò)(recursiveneuralnetwork)。循環(huán)神經(jīng)網(wǎng)絡(luò)在誤差梯度在經(jīng)過(guò)多個(gè)時(shí)間步的反向傳播后容易導(dǎo)致極端的非線(xiàn)性行為,包括梯度消失(gradientvanishing)和梯度爆炸(gradientexplosion)。實(shí)踐中,梯度爆炸雖然對(duì)學(xué)習(xí)有明顯的影響,但較少出現(xiàn),使用梯度截?cái)嗫梢越鉀Q。梯度消失是更常見(jiàn)的問(wèn)題且不易察覺(jué),發(fā)生梯度消失時(shí),循環(huán)神經(jīng)網(wǎng)絡(luò)在多個(gè)時(shí)間步后的輸出幾乎不與序列的初始值有關(guān),因此無(wú)法模擬序列的長(zhǎng)距離依賴(lài)(long-termDependency)。在數(shù)值試驗(yàn)中,SRN對(duì)時(shí)間步跨度超過(guò)20的長(zhǎng)距離依賴(lài)進(jìn)行成功學(xué)習(xí)的概率接近于0。恰當(dāng)?shù)臋?quán)重初始化(weightinitialization),或使用非監(jiān)督學(xué)習(xí)策略例如神經(jīng)歷史壓縮器(NHC)可提升循環(huán)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)長(zhǎng)距離依賴(lài)的能力,但對(duì)更一般的情形,循環(huán)神經(jīng)網(wǎng)絡(luò)發(fā)展了一系列優(yōu)化策略,其中有很多涉及網(wǎng)絡(luò)結(jié)構(gòu)的改變和算法的改進(jìn)。166.下面對(duì)開(kāi)運(yùn)算描述正確的是()。A、開(kāi)運(yùn)算是先膨脹再腐蝕B、開(kāi)運(yùn)算是先腐蝕再膨脹C、開(kāi)運(yùn)算能填補(bǔ)二值圖像上白色小洞D、開(kāi)運(yùn)算能去掉二值圖像上白色小點(diǎn)答案:BD167.華為云ModelArts中推出了Mode1Box用于端邊云聯(lián)合開(kāi)發(fā),以下哪些選項(xiàng)屬于其優(yōu)化策略?A、算子自動(dòng)切分B、硬件親和性C、模型克隆D、算子優(yōu)化答案:ABCD168.以下關(guān)于線(xiàn)性回歸與防止過(guò)擬合的描述中,哪些選項(xiàng)是正確的?A、當(dāng)使用的正則項(xiàng)是L2-norm,使用這個(gè)損失函數(shù)的線(xiàn)性回歸也叫LASSO回歸。B、正則項(xiàng)有助于減少過(guò)擬合。C、線(xiàn)性回歸權(quán)重系數(shù)在樣本空間中不能過(guò)大/過(guò)小,可以在目標(biāo)函數(shù)之上增加一個(gè)平方和損失。D、追加了絕對(duì)值損失的線(xiàn)性回歸叫做Ridge回歸答案:BC169.車(chē)牌識(shí)別的用到了哪些人工智能圖像處理技術(shù)。()A、圖像關(guān)鍵點(diǎn)定位B、圖像生成C、圖像文本識(shí)別D、圖像語(yǔ)義分割答案:CD170.以下哪些選項(xiàng)屬于MindSporeLite的特性?A、極致性能B、全場(chǎng)景支持C、高效部署D、分布式訓(xùn)練答案:ABCD171.Apriori算法是一種最有影響的挖掘布爾關(guān)聯(lián)規(guī)則頻繁項(xiàng)集的算法。其核心是基于兩階段頻集思想的遞推算法。該關(guān)聯(lián)規(guī)則在分類(lèi)上屬于(__)、(__)、(__)規(guī)則。A、邏輯關(guān)聯(lián)B、布爾關(guān)聯(lián)C、單維D、單層答案:BCD172.活體檢測(cè)適用于下列哪些場(chǎng)景。()A、人臉支付B、身份認(rèn)證C、銀行攝像頭監(jiān)控D、人臉解鎖答案:ABD173.下列適用于圖像語(yǔ)義分割技術(shù)的應(yīng)用場(chǎng)景有()A、CT腫瘤體積計(jì)算B、眼球圖片血管提取C、視頻會(huì)議智能更換背景D、車(chē)流統(tǒng)計(jì)答案:ABC174.模型部署前,需要對(duì)模型進(jìn)行量化,下面常見(jiàn)的量化參數(shù)精度有()A、double64B、int8C、int4D、int2答案:BCD175.下列哪些任務(wù)屬于回歸任務(wù)()A、人臉識(shí)別B、人臉關(guān)鍵點(diǎn)定位C、人物位置跟蹤D、人物性別辨識(shí)答案:BC176.圖像翻拍檢測(cè)服務(wù)調(diào)用成功時(shí)標(biāo)簽sugestion有哪些情況?A、certaintyB、FALSEC、uncertaintyD、TRUE答案:BCD177.對(duì)于AI框架可編程性的挑戰(zhàn)主要體現(xiàn)在以下哪些方面?A、多芯片,單芯片跨代,跨型號(hào)兼容需求。B、稀疏加速,圖片預(yù)處理加速模塊及復(fù)雜SIMD加速指令。C、SOC級(jí)異構(gòu)編程。D、有效算力接近理論算力的定制化實(shí)現(xiàn),對(duì)編譯器要求高。答案:ABCD178.下列屬于圖像數(shù)據(jù)采集工具的是()A、照相機(jī)B、攝像機(jī)C、手機(jī)D、麥克風(fēng)答案:ABC179.下列關(guān)于偏差、方差、均方差、泛化誤差描述有誤的是(__)。A、方差度量了學(xué)習(xí)算法的期望預(yù)測(cè)與真實(shí)結(jié)果的偏離程度。B、偏差度量了同樣大小的訓(xùn)練集的變動(dòng)所導(dǎo)致的學(xué)習(xí)性能的變化。C、泛化誤差表達(dá)了在當(dāng)前任務(wù)上任何學(xué)習(xí)算法所能達(dá)到的期望泛化誤差的下界,即刻畫(huà)了學(xué)習(xí)問(wèn)題本身的難度。D、泛化誤差可分解為偏差、方差與噪音之和。答案:ABC180.下面關(guān)于L1范式正則化描述正確的是(__)。A、壓縮感知問(wèn)題可以通過(guò)L1范數(shù)最小化問(wèn)題求解B、L1范數(shù)正則化有助于降低過(guò)擬合風(fēng)險(xiǎn)C、采用L1范數(shù)時(shí)平方誤差項(xiàng)等值線(xiàn)與正則化項(xiàng)等值線(xiàn)的交點(diǎn)常出現(xiàn)在坐標(biāo)軸上D、L1范數(shù)正則化比L2范數(shù)正則化更有易于獲得稀疏解答案:ABCD181.數(shù)據(jù)標(biāo)準(zhǔn)化的目的為()。A、約束輸入數(shù)據(jù)的值范圍B、把輸入數(shù)據(jù)的分布變?yōu)闃?biāo)準(zhǔn)正太分布C、使得輸入數(shù)據(jù)的分布服從均值為0,方差為1D、對(duì)數(shù)據(jù)做歸一化操作答案:AC182.以下哪些選項(xiàng)屬于數(shù)據(jù)清理的過(guò)程?A、處理數(shù)據(jù)異常點(diǎn)B、簡(jiǎn)化數(shù)據(jù)屬性,避免維度爆炸C、發(fā)現(xiàn)數(shù)據(jù)異常點(diǎn)D、填充缺失值答案:ACD183.下面不屬于數(shù)據(jù)分析平臺(tái)的有(__)。A、uberB、datameerC、ArimoD、Farmers答案:AD184.感知機(jī)中,(__)接收外界輸入信號(hào)后傳遞給(__)。A、輸入層B、輸出層C、第一層D、第二層答案:AB185.數(shù)據(jù)清洗的目的是()A、檢查數(shù)據(jù)的一致性B、處理無(wú)效值C、處理重復(fù)數(shù)據(jù)D、處理缺失值答案:ABCD186.以下哪幾個(gè)方面屬于華為的全棧AI解訣方案?A、scendB、CANNC、ModelArtsD、MindSpore答案:ABCD187.下列哪些詞可以進(jìn)行命名實(shí)體。()A、日期B、數(shù)字C、地址D、動(dòng)作答案:ABC188.HUAWEIHiAI賦能APP哪些價(jià)值?A、安全B、穩(wěn)定C、實(shí)時(shí)D、隨時(shí)答案:ABCD189.訓(xùn)練深度神經(jīng)完了過(guò)的時(shí)候,下面那種現(xiàn)象可能是梯度彌散導(dǎo)致的()A、無(wú)論輸入什么數(shù)據(jù),模型輸出為始終NanB、無(wú)論輸入什么數(shù)據(jù),前向計(jì)算的結(jié)果都不再變化或變化特別小,且不為NanC、后向計(jì)算的時(shí)候,靠近輸出入的層的模型權(quán)重不再變化。D、損失函數(shù)的輸出結(jié)果越來(lái)越大答案:BC190.(__)不屬于集中趨勢(shì)分析。A、數(shù)值平均數(shù)B、位置平均數(shù)C、離散系數(shù)D、正相關(guān)答案:CD191.ModelArts中訓(xùn)練平臺(tái)可以支持的開(kāi)發(fā)模式有哪幾種?A、云上開(kāi)發(fā)IDE+PyCharmToolKit)B、云上開(kāi)發(fā)(Notebook+SDKC、本地開(kāi)發(fā)IDE+PyCharmToolKit)D、本地開(kāi)發(fā)(Notebook+SDK)答案:BCD192.生成式對(duì)抗神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)通常包括()。A、編碼網(wǎng)絡(luò)B、解碼網(wǎng)絡(luò)C、生成網(wǎng)絡(luò)D、判別網(wǎng)絡(luò)答案:CD193.學(xué)習(xí)率變大,可能會(huì)使模型訓(xùn)練的時(shí)候()A、模型發(fā)散B、模型收斂速度加快C、訓(xùn)練數(shù)據(jù)損失曲線(xiàn)變得不穩(wěn)定D、模型前向計(jì)算過(guò)程加快答案:ABC194.企業(yè)應(yīng)用包括(__)和人力資本、金融、生產(chǎn)能力、后臺(tái)自動(dòng)化等。A、銷(xiāo)售B、營(yíng)銷(xiāo)C、法律D、客戶(hù)服務(wù)答案:ABCD195.下面哪些常見(jiàn)的網(wǎng)絡(luò)模型的主要子網(wǎng)絡(luò)是CNN。()A、RESNETB、UNETC、YOLOD、GPT答案:ABC196.關(guān)于模型容量的說(shuō)法,以下哪些選項(xiàng)是正確的?A、容量和數(shù)據(jù)量以及參數(shù)數(shù)量沒(méi)有太大的關(guān)系。B、容量不足的模型不能解決復(fù)雜任務(wù),可能出現(xiàn)欠擬合。C、容量高的模型能夠解決復(fù)雜的任務(wù),但是其容量高于任務(wù)所需時(shí),有可能會(huì)過(guò)擬合。D、容量與執(zhí)行任務(wù)的復(fù)雜度和所提供訓(xùn)練數(shù)據(jù)的數(shù)量匹配時(shí),算法效果通常最佳。答案:ABC197.以下可能會(huì)導(dǎo)致過(guò)擬合的是(___)。A、訓(xùn)練集中含有噪聲樣本B、訓(xùn)練集中缺乏代表性樣本C、訓(xùn)練集的樣本數(shù)目過(guò)少D、訓(xùn)練集中樣本的維度過(guò)少答案:AB198.以下哪幾項(xiàng)屬于漢語(yǔ)未登錄詞的類(lèi)型?()A、存在于詞典但出現(xiàn)頻率較少的詞B、新出現(xiàn)的普通詞匯C、專(zhuān)有名詞D、專(zhuān)業(yè)名詞和研究領(lǐng)域名稱(chēng)答案:BCD199.許多功能更為強(qiáng)大的非線(xiàn)性模型可在線(xiàn)性模型基礎(chǔ)上通過(guò)引入(__)和(__)而得A、層級(jí)結(jié)構(gòu)B、高維映射C、降維D、分類(lèi)答案:AB200.以下關(guān)于臟數(shù)據(jù)的描述中,哪些選項(xiàng)是正確的?A、臟數(shù)據(jù)中存在矛盾的、有差異的記錄。B、臟數(shù)據(jù)包含錯(cuò)誤的記錄或者異常點(diǎn)。C、臟數(shù)據(jù)包含太多錯(cuò)誤信息,因此無(wú)法直接用于機(jī)器學(xué)習(xí)。D、數(shù)據(jù)中常缺少屬性或者包含一些缺失的值。答案:ABCD201.高斯白噪音產(chǎn)生的原因有()。A、圖像傳感器在拍攝時(shí)不夠明亮、亮度不夠均勻B、電路各元器件自身噪聲和相互影響C、圖像傳感器長(zhǎng)期工作,溫度過(guò)高D、相機(jī)分辨率太低答案:ABC202.以下關(guān)于ReLU激活函數(shù)優(yōu)點(diǎn)的描述,正確的是哪些項(xiàng)?A、有神經(jīng)元死亡的現(xiàn)象。B、計(jì)算簡(jiǎn)單C、輸出有界訓(xùn)練不易發(fā)散D、有效緩解了梯度消失的問(wèn)題答案:ABD203.以下關(guān)于Dropout的描述,正確的是哪些項(xiàng)?A、一般只在訓(xùn)練時(shí)使用。B、計(jì)算復(fù)雜度低,實(shí)現(xiàn)簡(jiǎn)單。C、當(dāng)訓(xùn)練數(shù)據(jù)較少時(shí),效果不好。D、在深度學(xué)習(xí)中,相比于參數(shù)懲罰,該策略更有效。答案:ABCD204.下列關(guān)于偏差表述正確的是(__)。A、偏差度量了學(xué)習(xí)算法的期望預(yù)測(cè)與真實(shí)結(jié)果的偏離程度。B、偏差刻畫(huà)了模型本身的擬合能力C、偏差刻畫(huà)了數(shù)據(jù)擾動(dòng)所造成的影響D、偏差刻畫(huà)了學(xué)習(xí)問(wèn)題本身的難度答案:AB205.數(shù)據(jù)治理的基本活動(dòng)主要包含(__)和改進(jìn)。A、計(jì)劃B、執(zhí)行C、記錄D、檢查答案:ABD206.從方法體系看,數(shù)據(jù)可視化方法可以分為三個(gè)不同的層次(__)。A、領(lǐng)域方法B、基礎(chǔ)方法C、方法論D、智能方法答案:ABC207.下列哪些任務(wù)屬于聚類(lèi)()A、物以類(lèi)聚,人以群分B、近朱者赤,近墨者黑C、同流合污,臭味相投D、龍生龍,鳳生風(fēng),老鼠兒子會(huì)打動(dòng)答案:AC208.人工智能項(xiàng)目開(kāi)發(fā)流程包括:需求分析,(),(),文檔交付。A、數(shù)據(jù)處理B、模型研發(fā)C、模型訓(xùn)練D、實(shí)施部署答案:BD209.下列表示同一種學(xué)習(xí)方法的是(__)。A、集成學(xué)習(xí)B、多分類(lèi)器系統(tǒng)C、基于委員會(huì)的學(xué)習(xí)D、平均策略答案:ABC210.算法是()與()的核心區(qū)別A、非人工智能程序B、人工智能程序C、強(qiáng)人工智能程序D、弱人工智能程序答案:AB211.下面對(duì)數(shù)據(jù)集劃分表達(dá)正確的是()A、測(cè)試集,訓(xùn)練集,驗(yàn)證集必須來(lái)源于同一個(gè)數(shù)據(jù)集B、測(cè)試集,訓(xùn)練集,驗(yàn)證集可以來(lái)源于不同數(shù)據(jù)集C、模型開(kāi)發(fā)過(guò)程中,可以沒(méi)有驗(yàn)證集,但測(cè)試集和訓(xùn)練集必須有D、模型開(kāi)發(fā)過(guò)程中,可以沒(méi)有測(cè)試集,但驗(yàn)證集和訓(xùn)練集必須有答案:AC212.下列關(guān)于嵌入式選擇描述正確的是(__)。A、嵌入式選擇是將特征選擇過(guò)程與學(xué)習(xí)器訓(xùn)練過(guò)程融為一體B、嵌入式選擇在學(xué)習(xí)器訓(xùn)練過(guò)程中自動(dòng)地進(jìn)行了特征選擇C、對(duì)于嵌入式選擇,特征選擇過(guò)程與學(xué)習(xí)器訓(xùn)練過(guò)程在同一個(gè)優(yōu)化過(guò)程中完成D、嵌入式特征選擇方法直接針對(duì)給定學(xué)習(xí)器進(jìn)行優(yōu)化答案:ABC213.華為云提供的內(nèi)容審核服務(wù)可通過(guò)管理控制臺(tái)進(jìn)行下列哪些操作?A、查看服務(wù)的調(diào)用失敗次數(shù)B、申請(qǐng)開(kāi)通內(nèi)容審核服務(wù)C、管理IAM了賬號(hào)信息D、查看服務(wù)的調(diào)用成功次數(shù)答案:ABD214.下列關(guān)于極大似然估計(jì)(MaximumLikelihoodEstimate,MLE),說(shuō)法正確的是(__)。A、MLE可能并不存在B、MLE總是存在C、如果MLE存在,那么它的解可能不是唯一的D、如果MLE存在,那么它的解一定是唯一的答案:AC解析:極大似然估計(jì)方法(MaximumLikelihoodEstimate,MLE)也稱(chēng)最大概似估計(jì)或最大似然估計(jì):利用已知的樣本結(jié)果,反推最有可能(最大概率)導(dǎo)致這樣的結(jié)果的參數(shù)值。極大似然估計(jì),只是一種概率論在統(tǒng)計(jì)學(xué)的應(yīng)用,它是參數(shù)估計(jì)的方法之一。說(shuō)的是已知某個(gè)隨機(jī)樣本滿(mǎn)足某種概率分布,但是其中具體的參數(shù)不清楚,參數(shù)估計(jì)就是通過(guò)若干次試驗(yàn),觀察其結(jié)果,利用結(jié)果推出參數(shù)的大概值。極大似然估計(jì)是建立在這樣的思想上:已知某個(gè)參數(shù)能使這個(gè)樣本出現(xiàn)的概率最大,我們當(dāng)然不會(huì)再去選擇其他小概率的樣本,所以干脆就把這個(gè)參數(shù)作為估計(jì)的真實(shí)值。當(dāng)然極大似然估計(jì)只是一種粗略的數(shù)學(xué)期望,要知道它的誤差大小還要做區(qū)間估計(jì)。215.從形式語(yǔ)言表達(dá)能力而言,規(guī)則可分為兩類(lèi):(__)和(__)。A、命題規(guī)則B、一階規(guī)則C、原子命題D、邏輯連接詞答案:AB216.人工智能可以分為:弱人工智能階段、()、()。A、強(qiáng)人工智能階段B、超人工智能階段C、快速人工智能階段D、虛擬人工智能階段答案:AB217.市面上哪些產(chǎn)品使用了語(yǔ)音合成技術(shù)。()A、小米的小愛(ài)機(jī)器人B、喜馬拉雅APP小說(shuō)智能閱讀C、微信的語(yǔ)音轉(zhuǎn)寫(xiě)D、抖音短視頻AI配音答案:ABD218.數(shù)據(jù)集成可以分為(__)。A、內(nèi)容集成B、結(jié)構(gòu)集成C、模式集成D、概念集成答案:AB219.以下關(guān)于張量的敘述,正確的是哪些項(xiàng)?A、一階張量可以理解成一個(gè)向量B、MindSpore中最基礎(chǔ)的數(shù)據(jù)結(jié)構(gòu)是張量C、張量就是數(shù)據(jù)矩陣D、張量是基于向量和矩陣的推廣答案:ABD220.以下方法中屬于特征選擇過(guò)濾法(Filter)的是哪些選項(xiàng)?A、方差法B、皮爾遜相關(guān)系數(shù)C、卡方系數(shù)法D、LASSO回歸答案:ABC221.以下對(duì)于數(shù)據(jù)轉(zhuǎn)換的描述中,哪些選項(xiàng)是正確的?A、處理圖像數(shù)據(jù),如顏色空間轉(zhuǎn)換、灰度化、幾何變化屬于數(shù)據(jù)轉(zhuǎn)換。B、在數(shù)據(jù)量較小時(shí),也會(huì)對(duì)現(xiàn)有變量進(jìn)行組合或轉(zhuǎn)換已生成新特征,比如平均數(shù)C、所有的數(shù)據(jù)都需要進(jìn)行數(shù)據(jù)轉(zhuǎn)換D、機(jī)器學(xué)習(xí)中常對(duì)特征進(jìn)行歸一化,標(biāo)準(zhǔn)化,以保證同一模型的不同輸入變量的值域相同答案:ACD222.下列屬于AI涉及的子領(lǐng)域的有哪些選項(xiàng)?A、數(shù)據(jù)挖掘B、知識(shí)工程C、人機(jī)交互D、機(jī)器學(xué)習(xí)答案:ABCD223.一個(gè)好的分類(lèi)模型必須具有(___)。A、低訓(xùn)練誤差B、低泛化誤差C、過(guò)擬合D、欠擬合答案:AB224.以下哪些庫(kù)是在裝有Atlas300(3000)加速卡的服務(wù)器中安裝DDK(DeviceDevelopmentKit)之前需要安裝的?A、decoratorB、setuptoolsC、numpyD、tensorflow答案:ABC225.模型部署前,需要對(duì)模型進(jìn)行剪枝,下面模型剪枝描述正確的是()A、模型剪枝目的是加快模型推理速度B、模型剪枝后通常預(yù)測(cè)精度有所降低C、模型剪枝后模型的參數(shù)量變少D、模型剪枝后,模型訓(xùn)練收斂速度提高答案:ABC226.下面對(duì)onnx格式描述錯(cuò)誤的是()。A、它用于定義模型優(yōu)化方法B、它用戶(hù)模型在不同框架下進(jìn)行交換C、它用于定義模型評(píng)估方式D、它用于模型標(biāo)準(zhǔn)結(jié)構(gòu)定義答案:ACD227.以下哪些項(xiàng)對(duì)于每一個(gè)參數(shù)都用自適應(yīng)的學(xué)習(xí)率?A、damB、RMSpropC、AdagradD、Momertum答案:ABC228.RNN的主要應(yīng)用領(lǐng)域有()。A、自然語(yǔ)言處理B、機(jī)器翻譯C、音樂(lè)推薦D、洗衣服答案:ABC229.下列哪些概念是屬于強(qiáng)化學(xué)習(xí)的。()A、動(dòng)作B、環(huán)境和觀察狀態(tài)C、智能體D、獎(jiǎng)勵(lì)答案:ABCD230.()、算法、()構(gòu)成人工智能3要素A、公式B、算力C、數(shù)據(jù)D、程序答案:BC231.下列哪些工作容易被人工智能所替代?A、快遞員B、人力資源經(jīng)理C、會(huì)計(jì)D、客服答案:ABCD232.端到端設(shè)計(jì)的優(yōu)勢(shì)是()A、模型結(jié)構(gòu)設(shè)計(jì)更靈活容易B、容易使用多模態(tài)輸入C、容易解釋模型工作過(guò)程D、不需要人工提取數(shù)據(jù)特征答案:ABD233.下面哪些指標(biāo)取值范圍是0到1,值越大,模型效果越好()A、MSEB、R2C、mAPD、余弦相似度答案:BC234.下面哪些計(jì)算卡使用的計(jì)算芯片是國(guó)產(chǎn)的()A、TeslaA100B、JetsonNanoC、RK3399PROD、HI3559A答案:CD235.下列哪些情況不能使用數(shù)據(jù)標(biāo)準(zhǔn)化操作。()A、數(shù)據(jù)中的0表示不存在B、數(shù)據(jù)中的0表示值大小為0C、數(shù)據(jù)加Log處理D、Onehot編碼答案:AD236.詞性標(biāo)注中包含的詞性有()A、動(dòng)詞B、商品名C、量詞D、數(shù)詞答案:ACD237.人工智能產(chǎn)品采用C/S架構(gòu),C和S分別是()。A、客戶(hù)端B、網(wǎng)頁(yè)端C、服務(wù)端D、數(shù)據(jù)端答案:AC238.下列屬于生成模型的場(chǎng)景有()A、戴口罩檢測(cè)B、低分辨率圖片變成高分辨率圖片C、通過(guò)輸入文本語(yǔ)義,輸出一幅符合文本語(yǔ)義的圖像D、人臉檢測(cè)答案:BC239.LSTM應(yīng)用場(chǎng)景應(yīng)用場(chǎng)景有哪些()A、翻譯語(yǔ)言B、語(yǔ)音識(shí)別C、圖像識(shí)別D、股票預(yù)測(cè)答案:ABD解析:C:CNN應(yīng)用于圖像識(shí)別。240.以下關(guān)于神經(jīng)網(wǎng)絡(luò)的描述中,正確的是哪幾項(xiàng)?A、人工神經(jīng)網(wǎng)絡(luò)完全基于數(shù)學(xué),與仿生學(xué)沒(méi)有關(guān)系。B、人工神經(jīng)網(wǎng)絡(luò)是一種旨在模仿人腦結(jié)構(gòu)及其功能的信息處理系統(tǒng)。C、人工神經(jīng)網(wǎng)絡(luò)反映了人腦功能的若干基本特征,如并行信息處理、學(xué)習(xí)、聯(lián)想、模式分類(lèi)、記憶等。D、人工神經(jīng)網(wǎng)絡(luò)是由人工神經(jīng)元互連組成的網(wǎng)絡(luò),它是從微觀結(jié)構(gòu)和功能上對(duì)人腦的抽象、簡(jiǎn)化,是模擬人類(lèi)智能的一條重要途徑。答案:BCD241.以下選項(xiàng)中哪些是常用的深度學(xué)習(xí)激活函數(shù)?A、tanh函數(shù)B、ReLU函數(shù)C、Softsign函數(shù)D、Sigmoid函數(shù)答案:ABCD242.以下屬于數(shù)據(jù)預(yù)處理的是哪些選項(xiàng)?A、數(shù)據(jù)降維B、數(shù)據(jù)標(biāo)準(zhǔn)化C、模型訓(xùn)練D、數(shù)據(jù)清理答案:BD243.下列關(guān)于神經(jīng)網(wǎng)絡(luò)描述正確的是(__)。A、我們?cè)跈C(jī)器學(xué)習(xí)中談?wù)撋窠?jīng)網(wǎng)絡(luò)是指的是生物學(xué)意義上的神經(jīng)網(wǎng)絡(luò)B、神經(jīng)網(wǎng)絡(luò)中最基本的成分是神經(jīng)元模型C、在MP神經(jīng)元模型中,神經(jīng)元接受來(lái)自n個(gè)其他神經(jīng)元傳遞過(guò)來(lái)的信號(hào)D、神經(jīng)元接收到的總輸入值將與神經(jīng)元的閾值進(jìn)行比較,然后通過(guò)激活函數(shù)處理以產(chǎn)生神經(jīng)元的輸出。答案:BCD244.在昇騰AI處理器中,AICore的存儲(chǔ)控制單元可以完成以下哪些操作?A、補(bǔ)零B、Img2Co1C、解壓縮D、轉(zhuǎn)置答案:AB245.以下關(guān)于標(biāo)準(zhǔn)RNN的描述,正確的是哪幾項(xiàng)?A、標(biāo)準(zhǔn)RNN是一種死板的邏輯,越晚的輸入影響越大,越早的輸入影響越小,且無(wú)法改變這個(gè)邏輯。B、標(biāo)準(zhǔn)的循環(huán)神經(jīng)網(wǎng)絡(luò)存在梯度爆炸和梯度消失問(wèn)題。C、梯度消失,梯度爆炸都與路徑長(zhǎng)度太長(zhǎng)有關(guān),前面的權(quán)重都基本固定不變,沒(méi)有訓(xùn)練效果。D、標(biāo)準(zhǔn)RNN結(jié)構(gòu)解決了信息記憶的問(wèn)題,但是對(duì)長(zhǎng)時(shí)間記憶的信息會(huì)衰減。答案:ABCD246.生成對(duì)抗網(wǎng)絡(luò)目前應(yīng)用非常廣泛,以下場(chǎng)景中可以使用此網(wǎng)絡(luò)的是?A、數(shù)據(jù)增強(qiáng)B、語(yǔ)義分割C、信息檢索D、圖像生成答案:ABCD247.下列關(guān)于密度聚類(lèi)說(shuō)法錯(cuò)誤的是(__)。A、DBSCAN是一種著名的密度聚類(lèi)算法B、密度聚類(lèi)從樣本數(shù)量的角度來(lái)考察樣本之間的可連接性C、密度聚類(lèi)基于不可連接樣本不斷擴(kuò)展聚類(lèi)簇易獲得最終的聚類(lèi)結(jié)果D、密度直達(dá)關(guān)系通常滿(mǎn)足對(duì)稱(chēng)性答案:BCD248.圖像處理中的開(kāi)運(yùn)算是先對(duì)圖像進(jìn)行()操作,再對(duì)圖像進(jìn)行()A、低通濾波B、腐蝕C、高通濾波D、膨脹答案:BD249.以下哪些項(xiàng)屬于循環(huán)神經(jīng)網(wǎng)絡(luò)中多對(duì)一的類(lèi)型?A、音樂(lè)生成B、動(dòng)作識(shí)別C、機(jī)器翻譯D、情感分析答案:BC250.Analytics1.0的主要特點(diǎn)有().A、分析活動(dòng)滯后于數(shù)據(jù)的生成。B、重視結(jié)構(gòu)化數(shù)據(jù)的分析。C、以對(duì)歷史數(shù)據(jù)的理解為主要目的。D、注重描述性分析。答案:ABCD251.下列關(guān)于智能機(jī)器類(lèi)別的觀點(diǎn)有哪些選項(xiàng)是正確的?A、理性的思考,屬于弱人工智能領(lǐng)域。B、像人一樣行動(dòng),屬于強(qiáng)人工智能。C、理性的行動(dòng),屬于強(qiáng)人工智能。D、像人一樣思考,屬于弱人工智能領(lǐng)域。答案:CD252.人工智能項(xiàng)目開(kāi)發(fā)過(guò)程中,資源成本包括()A、機(jī)會(huì)成本B、數(shù)據(jù)成本C、設(shè)備成本D、人力成本答案:BCD253.數(shù)據(jù)產(chǎn)品以數(shù)據(jù)為中心表現(xiàn)在(__)。A、數(shù)據(jù)驅(qū)動(dòng)B、數(shù)據(jù)載體C、數(shù)據(jù)密集型D、數(shù)據(jù)范式答案:ACD254.以下關(guān)于梯度下降法的描述,錯(cuò)誤的是哪些項(xiàng)?A、梯度下降法不一定能夠在凸優(yōu)化問(wèn)題中取得全局極值點(diǎn)。B、梯度下降法一定能夠在凸優(yōu)化問(wèn)題中取得全局極值點(diǎn)。C、負(fù)梯度方向是函數(shù)上升最快的方向。D、負(fù)梯度方向是函數(shù)下降最快的方向。答案:BC判斷題1.在定義函數(shù)時(shí),帶有默認(rèn)值的參數(shù)必須出現(xiàn)在參數(shù)列表的最右端,任何一個(gè)帶有默認(rèn)值的參數(shù)右邊不允許出現(xiàn)沒(méi)有默認(rèn)值的參數(shù)。A、正確B、錯(cuò)誤答案:A2.函數(shù)局變量會(huì)增加不同函數(shù)之間的隱式耦合度,從而降低代碼可讀性,因此應(yīng)盡量避免過(guò)多使用全局變量。A、正確B、錯(cuò)誤答案:A3.標(biāo)注項(xiàng)目質(zhì)量控制流程包括數(shù)據(jù)質(zhì)檢與驗(yàn)收、需求解讀與確認(rèn)、人員培訓(xùn)與任務(wù)試標(biāo)A、正確B、錯(cuò)誤答案:A4.互聯(lián)網(wǎng)書(shū)籍采集可以及時(shí)、推確、全面地采集國(guó)內(nèi)外媒體網(wǎng)站、新聞網(wǎng)站、行業(yè)網(wǎng)站、論壇社區(qū)和博客微博等互聯(lián)網(wǎng)媒體發(fā)布的文本、圖片、圖表、音頻、視頻等各種類(lèi)型的信息A、正確B、錯(cuò)誤答案:A5.遷移學(xué)習(xí)能加快模型推理速度。A、正確B、錯(cuò)誤答案:B6.數(shù)據(jù)的質(zhì)量和數(shù)量是對(duì)模型訓(xùn)練精度影響的關(guān)鍵點(diǎn)之一A、正確B、錯(cuò)誤答案:A7.Anaconda數(shù)據(jù)科學(xué)平臺(tái)可以安裝TensorFlow框架。A、正確B、錯(cuò)誤答案:A8.已知x為非空字符串,那么表達(dá)式','.join(x.split(','))==x的值一定為T(mén)rue。A、正確B、錯(cuò)誤答案:A9.命名實(shí)體識(shí)別是一項(xiàng)比較關(guān)鍵的NLP任務(wù),具有廣泛的應(yīng)用場(chǎng)景。A、正確B、錯(cuò)誤答案:A10.學(xué)習(xí)率越大,模型訓(xùn)練速度越快,并且訓(xùn)練過(guò)程越穩(wěn)定。A、正確B、錯(cuò)誤答案:B11.HarmonyOS只能通過(guò)集成的HMSCore對(duì)外提供AI能力。A、正確B、錯(cuò)誤答案:B12.Python擁有一個(gè)很棒的語(yǔ)言庫(kù)生態(tài)環(huán)境,歷史上也一直都是科學(xué)計(jì)算和數(shù)據(jù)分析的重要工具A、正確B、錯(cuò)誤答案:A13.循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出與歷史輸入無(wú)關(guān)。A、正確B、錯(cuò)誤答案:B14.因?yàn)槿B接層的存在,卷積神經(jīng)網(wǎng)絡(luò)輸入圖像的尺寸必須保持一致。A、正確B、錯(cuò)誤答案:A15.在自動(dòng)駕駛中,經(jīng)常使用3D點(diǎn)云技術(shù)對(duì)路況進(jìn)行態(tài)勢(shì)感知。A、正確B、錯(cuò)誤答案:A16.運(yùn)算符“-”可以用于集合的差集運(yùn)算。A、正確B、錯(cuò)誤答案:A17.CNN模仿的是人類(lèi)的視覺(jué)系統(tǒng)。A、正確B、錯(cuò)誤答案:A18.Iou指標(biāo)的計(jì)算公式為模型預(yù)測(cè)框與目標(biāo)框的并集除以交集。A、正確B、錯(cuò)誤答案:B19.視頻的清晰度分為高清和低清,問(wèn)題視頻類(lèi)型如卡頓、花屏、聲畫(huà)同步。A、正確B、錯(cuò)誤答案:B20.樣本數(shù)據(jù)中誤差值是可以消除的。A、正確B、錯(cuò)誤答案:B21.在超參數(shù)搜索空間較大的情況下,采用隨機(jī)搜索,會(huì)優(yōu)于網(wǎng)格搜索的效果。A、正確B、錯(cuò)誤答案:B22.編解碼網(wǎng)絡(luò)結(jié)構(gòu)中,解碼器的作用是將輸入轉(zhuǎn)特征。A、正確B、錯(cuò)誤答案:B23.set(x):可以用于生成集合,輸入的參數(shù)可以是任何組合數(shù)據(jù)類(lèi)型,返回結(jié)果是一個(gè)無(wú)重復(fù)且有序任意的集合A、正確B、錯(cuò)誤答案:B24.我們描述住房的時(shí)候,常用住宅面積,戶(hù)型,裝修類(lèi)型等屬性,如果使用樸素貝葉斯作為模型的話(huà),則我們假設(shè)屬性之間不存在關(guān)系。A、正確B、錯(cuò)誤答案:B25.tanh激活函數(shù)輸出關(guān)于0點(diǎn)對(duì)稱(chēng),相比于Sigmoid函數(shù)可以加快模型的收斂。A、正確B、錯(cuò)誤答案:A26.算力、算法、數(shù)據(jù)構(gòu)成人工智能3要素A、正確B、錯(cuò)誤答案:A27.壓力數(shù)據(jù)可以使用專(zhuān)用的壓力傳感器來(lái)測(cè)量。A、正確B、錯(cuò)誤答案:A28.通常,我們?cè)谂c訓(xùn)練模型上進(jìn)行模型訓(xùn)練,能提高模型的推理速度。A、正確B、錯(cuò)誤答案:B29.華為HiAI提供了三層能力開(kāi)放:HiAIFoundation、HiAIEngine、HiAICloud.A、正確B、錯(cuò)誤答案:B30.軟件著作權(quán)人可以向國(guó)務(wù)院著作權(quán)行政管理部門(mén)認(rèn)定的軟件登記機(jī)構(gòu)——中國(guó)版權(quán)保護(hù)中心辦理登記。A、正確B、錯(cuò)誤答案:A31.Python標(biāo)準(zhǔn)庫(kù)os中的方法exists()可以用來(lái)測(cè)試給定路徑的文件是否存在。A、正確B、錯(cuò)誤答案:A32.人臉識(shí)別模型開(kāi)發(fā)中,可以用黃種人來(lái)做訓(xùn)練集,黑種人來(lái)做測(cè)試集。A、正確B、錯(cuò)誤答案:B33.電瓶車(chē)進(jìn)入電梯間非常危險(xiǎn),現(xiàn)在可以通過(guò)人工智能技術(shù)實(shí)現(xiàn)電梯間的監(jiān)控可以識(shí)別電動(dòng)車(chē)并告警。A、正確B、錯(cuò)誤答案:A34.離群點(diǎn)分析是指通過(guò)聚類(lèi)來(lái)監(jiān)測(cè)離群點(diǎn)。A、正確B、錯(cuò)誤答案:A35.文本數(shù)據(jù)的質(zhì)量要求,包括光線(xiàn)的明暗程度、照片清晰度A、正確B、錯(cuò)誤答案:B36.連續(xù)數(shù)據(jù)輸入模型前,通常需要進(jìn)行標(biāo)準(zhǔn)化或歸一化操作。A、正確B、錯(cuò)誤答案:A37.目前AI的全場(chǎng)景領(lǐng)域,要求端-邊-云全面發(fā)展算力A、正確B、錯(cuò)誤答案:A38.前向計(jì)算過(guò)程是模型訓(xùn)練過(guò)程,模型參數(shù)會(huì)發(fā)生變化。A、正確B、錯(cuò)誤答案:B39.飛槳(PaddlePaddle)以百度多年的深度學(xué)習(xí)技術(shù)研究和業(yè)務(wù)應(yīng)用為基礎(chǔ),集深度學(xué)習(xí)核心訓(xùn)練和推理框架、基礎(chǔ)模型庫(kù)、端到端開(kāi)發(fā)套件、豐富的工具組件于一體,是中國(guó)首個(gè)自主研發(fā)、功能完備、開(kāi)源開(kāi)放的產(chǎn)業(yè)級(jí)深度學(xué)習(xí)平臺(tái)。A、正確B、錯(cuò)誤答案:A40.一個(gè)作用域內(nèi),局部變量會(huì)隱藏同名的全局變量。A、正確B、錯(cuò)誤答案:A41.GPU擅長(zhǎng)大規(guī)模并行運(yùn)算。A、正確B、錯(cuò)誤答案:A42.通常情況下,一個(gè)數(shù)據(jù)集當(dāng)中存在很多種不同的特征,其中一些可能是多余的或者與要預(yù)測(cè)的值無(wú)關(guān)的特征,因此要對(duì)特征進(jìn)行處理。A、正確B、錯(cuò)誤答案:A43.當(dāng)以指定“鍵”為下標(biāo)給字典對(duì)象賦值時(shí),若該“鍵”存在則表示修改該“鍵”對(duì)應(yīng)的“值”,若不存在則表示為字典對(duì)象添加一個(gè)新的“鍵-值對(duì)”A、正確B、錯(cuò)誤答案:A44.多隱層神經(jīng)網(wǎng)絡(luò)可以直接用經(jīng)典算法進(jìn)行訓(xùn)練。A、正確B、錯(cuò)誤答案:B45.表達(dá)式[]==None的值為T(mén)rue。A、正確B、錯(cuò)誤答案:B46.自監(jiān)督學(xué)習(xí)可以提高對(duì)數(shù)據(jù)信息的利用率。A、正確B、錯(cuò)誤答案:A47.人工智能項(xiàng)目開(kāi)發(fā)過(guò)程中,指標(biāo)制定由技術(shù)經(jīng)理牽頭制定。A、正確B、錯(cuò)誤答案:B48.為防止過(guò)擬合,在訓(xùn)練過(guò)程中,可以插入對(duì)驗(yàn)證集數(shù)據(jù)的測(cè)試。當(dāng)發(fā)現(xiàn)驗(yàn)證集數(shù)據(jù)的Loss上升時(shí),提前停止訓(xùn)練。A、正確B、錯(cuò)誤答案:A49.強(qiáng)化學(xué)習(xí)包括環(huán)境,觀察,智能體,動(dòng)作,獎(jiǎng)勵(lì)幾個(gè)關(guān)鍵要素A、正確B、錯(cuò)誤答案:A50.圖像偵測(cè)是在圖像中找出需要被檢測(cè)的物體的坐標(biāo)。A、正確B、錯(cuò)誤答案:A51.數(shù)據(jù)眾包采集是以數(shù)據(jù)支撐平臺(tái)為基礎(chǔ),集全社會(huì)的力量進(jìn)行采集,并對(duì)數(shù)據(jù)的噪音錯(cuò)誤、遺漏進(jìn)行發(fā)現(xiàn)和糾正。A、正確B、錯(cuò)誤答案:A52.集合可以作為列表的元素A、正確B、錯(cuò)誤答案:A53.通過(guò)3D點(diǎn)云語(yǔ)義分割技術(shù)將道路環(huán)境點(diǎn)云數(shù)據(jù)進(jìn)行分割,可以準(zhǔn)確識(shí)別出行人、汽車(chē)等物體,幫助車(chē)輛理解道路環(huán)境。A、正確B、錯(cuò)誤答案:A54.人臉比對(duì)服務(wù)調(diào)用時(shí)只傳入一張圖像也可以。A、正確B、錯(cuò)誤答案:B55.具有高級(jí)智能駕駛的汽車(chē),只需要搭載激光雷達(dá)即可完成所有感知任務(wù)。A、正確B、錯(cuò)誤答案:B56.Python集合中的元素不允許重復(fù)。A、正確B、錯(cuò)誤答案:A57.詞性標(biāo)注主要被應(yīng)用于文本挖掘和NLP領(lǐng)域A、正確B、錯(cuò)誤答案:A58.人工智能開(kāi)發(fā)框架Pytorch默認(rèn)圖像輸入格式為NCHW。A、正確B、錯(cuò)誤答案:A59.模型優(yōu)化的時(shí)候,把模型中不重要參數(shù)或?qū)尤サ?,該?yōu)化被稱(chēng)為模型量化。A、正確B、錯(cuò)誤答案:B60.函數(shù)內(nèi)部沒(méi)有辦法定義全局變量。A、正確B、錯(cuò)誤答案:B61.MindSporeLit對(duì)模型進(jìn)行量化時(shí)支持INA、正確B、錯(cuò)誤答案:B62.Julia編程語(yǔ)言從張量原生表達(dá)、IR開(kāi)放和高性能入手,結(jié)合科學(xué)計(jì)算/HPC領(lǐng)域的積累,進(jìn)入AI領(lǐng)域。A、正確B、錯(cuò)誤答案:A63.通過(guò)聲音區(qū)分不同的說(shuō)話(huà)人,該技術(shù)被稱(chēng)為聲紋識(shí)別A、正確B、錯(cuò)誤答案:A64.二維碼識(shí)別使用了OCR技術(shù)。A、正確B、錯(cuò)誤答案:B65.樣本數(shù)據(jù)集的劃分應(yīng)該在樣本數(shù)據(jù)增強(qiáng)后進(jìn)行。A、正確B、錯(cuò)誤答案:B66.人工智能項(xiàng)目開(kāi)發(fā)過(guò)程中,指標(biāo)可行性分析主要分析模型是否能達(dá)到所有指標(biāo)條件。A、正確B、錯(cuò)誤答案:A67.K折交叉驗(yàn)證是指將測(cè)試數(shù)據(jù)集劃分成K個(gè)子數(shù)據(jù)集A、正確B、錯(cuò)誤答案:B68.模型測(cè)試評(píng)估的結(jié)果可以指導(dǎo)模型優(yōu)化。A、正確B、錯(cuò)誤答案:A69.關(guān)于語(yǔ)音識(shí)別服務(wù)中的一句話(huà)識(shí)別指的是,用于短語(yǔ)音的同步識(shí)別。一次性上傳整個(gè)音頻,響應(yīng)中即返回識(shí)別結(jié)果。A、正確B、錯(cuò)誤答案:A70.在UTF-8編碼中一個(gè)漢字需要占用3個(gè)字節(jié)。A、正確B、錯(cuò)誤答案:A71.函數(shù)內(nèi)部,既可以使用global來(lái)聲明使用外部全局變量,也可以使用global直接定義全局變量。A、正確B、錯(cuò)誤答案:A72.常用的語(yǔ)音處理工具之一是ProtoolsA、正確B、錯(cuò)誤答案:A73.各種錄像攝影設(shè)備是通用的數(shù)據(jù)采集傳感器。A、正確B、錯(cuò)誤答案:A74.MindArmour針對(duì)可信AI的各個(gè)領(lǐng)域提供全面、有效、易用的評(píng)測(cè)工具和增強(qiáng)方法。A、正確B、錯(cuò)誤答案:B75.通過(guò)圖像超分辨率技術(shù),無(wú)需耗費(fèi)大量的資源即可完成多媒體內(nèi)容的高清重建工作。A、正確B、錯(cuò)誤答案:A76.文本實(shí)體標(biāo)注的質(zhì)檢包括實(shí)體質(zhì)檢和實(shí)體關(guān)系質(zhì)檢A、正確B、錯(cuò)誤答案:A77.提高圖片明暗成都,應(yīng)該在HSV顏色空間上修改V值。A、正確B、錯(cuò)誤答案:A78.人工智能產(chǎn)品采用C/S架構(gòu),升級(jí)的時(shí)候只需要升級(jí)服務(wù)端。A、正確B、錯(cuò)誤答案:B79.線(xiàn)性回歸的損失函數(shù)中加入L1正則化,此時(shí)該回歸叫做Lasso回歸A、正確B、錯(cuò)誤答案:A80.在定義函數(shù)時(shí),某個(gè)參數(shù)名字前面帶有一個(gè)*符號(hào)表示可變長(zhǎng)度參數(shù),可以接收任意多個(gè)普通實(shí)參并存放于一個(gè)元組之中。A、正確B、錯(cuò)誤答案:A81.圖像語(yǔ)義分割的本質(zhì)是對(duì)圖片中每個(gè)像素點(diǎn)歸類(lèi),所以它屬于生成模型。A、正確B、錯(cuò)誤答案:B82.二進(jìn)制文件也可以使用記事本程序打開(kāi),只是無(wú)法正確閱讀和理解其中的內(nèi)容。A、正確B、錯(cuò)誤答案:A83.學(xué)習(xí)率越大,模型收斂越快,但也可能導(dǎo)致模型發(fā)散。A、正確B、錯(cuò)誤答案:A84.正則表達(dá)式'^\d{18}|\d{15}$'只能檢查給定字符串是否為18位或15位數(shù)字字符,并不能保證一定是合法的身份證號(hào)。A、正確B、錯(cuò)誤答案:A85.均方誤差損失函數(shù)無(wú)法用在分類(lèi)問(wèn)題上。A、正確B、錯(cuò)誤答案:A86.在Python中,任意長(zhǎng)的字符串都遵守駐留機(jī)制。A、正確B、錯(cuò)誤答案:B87.線(xiàn)性回歸的損失函數(shù)中加入L1正則項(xiàng),此時(shí)該回歸叫做Lasso回歸。A、正確B、錯(cuò)誤答案:A88.通過(guò)insert方法可以在指定的索引位置插入元素A、正確B、錯(cuò)誤答案:B89.Python中字符串對(duì)象的encode()方法默認(rèn)使用utf8作為編碼方式。A、正確B、錯(cuò)誤答案:A90.Nesterov優(yōu)化器是動(dòng)量?jī)?yōu)化器的變種。A、正確B、錯(cuò)誤答案:A91.馮·諾伊曼被人們稱(chēng)為“計(jì)算機(jī)之父”。A、正確B、錯(cuò)誤答案:A92.無(wú)論使用單引號(hào)或者雙引號(hào)包含的字符串,全用print函數(shù)輸出的結(jié)果都一樣A、正確B、錯(cuò)誤答案:A93.沿負(fù)梯度下降的方向一定是最優(yōu)的方向。A、正確B、錯(cuò)誤答案:B94.TP表示預(yù)測(cè)為正樣本,實(shí)際為正樣本的數(shù)量。A、正確B、錯(cuò)誤答案:A95.ModelArts平臺(tái)支持自動(dòng)學(xué)習(xí)功能,意味著對(duì)任何復(fù)雜大型問(wèn)題且對(duì)AI完全不了解就可以上手操作并且訓(xùn)練出很好的模型。A、正確B、錯(cuò)誤答案:B96.放在一對(duì)三引號(hào)之間的任何內(nèi)容將被認(rèn)為是注釋。A、正確B、錯(cuò)誤答案:B97.信噪比指信號(hào)與噪聲之間的能量比,錄音時(shí)信噪比越高越好。A、正確B、錯(cuò)誤答案:A98.單層感知機(jī)和邏輯回歸都是線(xiàn)性分類(lèi)器,只能處理線(xiàn)性可分的數(shù)據(jù)。A、正確B、錯(cuò)誤答案:B99.3D重建技術(shù)是自動(dòng)駕駛的核心技術(shù)。A、正確B、錯(cuò)誤答案:B100.在調(diào)用函數(shù)時(shí),可以通過(guò)關(guān)鍵參數(shù)的形式進(jìn)行傳值,從而避免必須記住函數(shù)形參順序的麻煩。A、正確B、錯(cuò)誤答案:A101.數(shù)據(jù)脫敏具體指對(duì)某些敏感信息通過(guò)脫敏規(guī)則進(jìn)行數(shù)據(jù)的變形,實(shí)現(xiàn)敏感隱私數(shù)據(jù)的可靠保護(hù)。A、正確B、錯(cuò)誤答案:A102.在一句話(huà)識(shí)別場(chǎng)景中,要求語(yǔ)音數(shù)據(jù)使用Base216編碼。A、正確B、錯(cuò)誤答案:B103.CANN是華為面向深度神經(jīng)網(wǎng)絡(luò)和昇騰處理器打造的芯片使能層,主要提供芯片算子庫(kù)和高度自動(dòng)化算子開(kāi)發(fā)工具。A、正確B、錯(cuò)誤答案:A104.遷移學(xué)習(xí)的本質(zhì)是在具有知識(shí)先驗(yàn)的模型上繼續(xù)訓(xùn)練。A、正確B、錯(cuò)誤答案:A105.Python標(biāo)準(zhǔn)庫(kù)os中的方法isfile()可以用來(lái)測(cè)試給定的路徑是否為文件。A、正確B、錯(cuò)誤答案:A106.人工智能項(xiàng)目開(kāi)發(fā)過(guò)程中,使用開(kāi)源模型和開(kāi)源數(shù)據(jù),不會(huì)帶來(lái)任何成本。A、正確B、錯(cuò)誤答案:B107.實(shí)際項(xiàng)目中,在構(gòu)建模型之前,數(shù)據(jù)清理與特征工程是非常重要的A、正確B、錯(cuò)誤答案:A108.決定數(shù)據(jù)采集系統(tǒng)性能好壞的參數(shù)是高精度和高速度A、正確B、錯(cuò)誤答案:A109.數(shù)據(jù)服務(wù)團(tuán)隊(duì)承接數(shù)據(jù)采集項(xiàng)目時(shí),不能只看到表面,而是需要深度理解項(xiàng)目的含義,這樣才能高質(zhì)量地完成采集任務(wù)A、正確B、錯(cuò)誤答案:A110.模型優(yōu)化的時(shí)候,把模型中不重要參數(shù)或?qū)尤サ簦搩?yōu)化被稱(chēng)為模型剪枝。A、正確B、錯(cuò)誤答案:A111.當(dāng)用戶(hù)需要調(diào)用華為云圖像標(biāo)簽和翻拍識(shí)別這兩項(xiàng)服務(wù)時(shí),需在華為云上登錄圖像識(shí)別管理控制臺(tái),依次選擇左側(cè)的“圖像標(biāo)簽”、“翻拍識(shí)別”,分別在界面單擊“開(kāi)通服務(wù)”。服務(wù)開(kāi)通一次即可,后續(xù)使用時(shí)無(wú)需再開(kāi)通。A、正確B、錯(cuò)誤答案:A112.JSON文件是互聯(lián)網(wǎng)采集的數(shù)據(jù)類(lèi)型之一A、正確B、錯(cuò)誤答案:B113.乘坐高鐵進(jìn)站的閘機(jī)需要人和身份證做自動(dòng)比對(duì),應(yīng)用了人臉識(shí)別技術(shù)A、正確B、錯(cuò)誤答案:A114.語(yǔ)音識(shí)別指的是將音頻數(shù)據(jù)識(shí)別為文本數(shù)據(jù)。A、正確B、錯(cuò)誤答案:A115.寫(xiě)函數(shù)時(shí),一般建議先對(duì)參數(shù)進(jìn)行合法性檢查,然后再編寫(xiě)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論