三級(jí)人工智能訓(xùn)練師(高級(jí))職業(yè)技能等級(jí)認(rèn)定考試題庫(kù)-下(多選、判斷題部分)_第1頁
三級(jí)人工智能訓(xùn)練師(高級(jí))職業(yè)技能等級(jí)認(rèn)定考試題庫(kù)-下(多選、判斷題部分)_第2頁
三級(jí)人工智能訓(xùn)練師(高級(jí))職業(yè)技能等級(jí)認(rèn)定考試題庫(kù)-下(多選、判斷題部分)_第3頁
三級(jí)人工智能訓(xùn)練師(高級(jí))職業(yè)技能等級(jí)認(rèn)定考試題庫(kù)-下(多選、判斷題部分)_第4頁
三級(jí)人工智能訓(xùn)練師(高級(jí))職業(yè)技能等級(jí)認(rèn)定考試題庫(kù)-下(多選、判斷題部分)_第5頁
已閱讀5頁,還剩101頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

PAGEPAGE1三級(jí)人工智能訓(xùn)練師(高級(jí))職業(yè)技能等級(jí)認(rèn)定考試題庫(kù)-下(多選、判斷題部分)多選題1.以下關(guān)于小批量梯度下降算法描述中,正確的是哪幾項(xiàng)?A、MBGD兼顧了對(duì)率和核度的穩(wěn)定性,容易沖過局部極值,是實(shí)際工作中最常用的梯度下降算法B、MBGD每次使用一個(gè)批次的樣本進(jìn)行更新,因此速度也非常慢在實(shí)際場(chǎng)景中不被接受C、MBGD每次使用小批固定尺寸的樣例來更新權(quán)值D、MBGD中的BatchSize是一個(gè)超參數(shù),可由人為設(shè)定E、每次迭代所使用的訓(xùn)練樣本數(shù)不固定,與整個(gè)訓(xùn)練集的樣本數(shù)量有關(guān)答案:ACD2.以下有關(guān)語音合成實(shí)驗(yàn)的說法中。正確的有哪些選項(xiàng)?A、語音合成技術(shù)的主要目的是幫助用戶將上傳的完整錄音文件通過處理生成語音對(duì)應(yīng)的文字內(nèi)容B、用戶可根據(jù)API進(jìn)行音色選擇、自定義音量、語速、為企業(yè)和個(gè)人提供個(gè)性化的發(fā)音服務(wù)C、華為云提供開放API的方式,幫助用戶通過實(shí)時(shí)訪問和調(diào)用API獲取語音合成結(jié)果,將用戶輸入的文字合成為音頻D、語音合成,又稱文語轉(zhuǎn)換,是一種將文本準(zhǔn)換成逼真語音的服務(wù)E、語音合成技術(shù)無法處理多種語言的轉(zhuǎn)換答案:ABCD3.Adam優(yōu)化器可以看做是以下哪幾項(xiàng)的結(jié)合?A、MomentumB、AdagradC、NesterovD、RMSpropE、Besterov答案:ABD4.以下那些項(xiàng)屬于生成對(duì)抗訓(xùn)練中的問題?A、不穩(wěn)定性B、模式崩塌C、過擬合D、欠擬合E、數(shù)據(jù)增強(qiáng)效果顯著提升性能答案:ABC5.人工智能技術(shù)可以在()方面與元宇宙技術(shù)相結(jié)合。A、使用人工智能技術(shù)來模仿和取代人類行為。B、使用人工智能技術(shù)處理元宇宙產(chǎn)生的海量且復(fù)雜的數(shù)據(jù)。C、使用人工智能解決芯片的計(jì)算能力。D、使用人工智能技術(shù)在增強(qiáng)現(xiàn)實(shí)和虛擬現(xiàn)實(shí)中創(chuàng)造更智能、更身臨其境的世界。E、使用人工智能創(chuàng)造交互答案:ABCDE6.深度學(xué)習(xí)中常用的損失函數(shù)有?A、L1損失函數(shù)B、均方誤差損失函數(shù)C、交叉熵誤差損失函數(shù)D、自下降損失函數(shù)E、自上升損失函數(shù)答案:BC7.基因知識(shí)圖譜具備以下哪幾種能力?A、輔助病例診斷B、疾病預(yù)測(cè)及診斷C、基因檢測(cè)報(bào)告生成D、實(shí)體查詢E、基因編輯答案:ACD8.以下關(guān)于回歸分析的說法中,哪些選項(xiàng)是正確的?A、回歸分析是一種有監(jiān)督學(xué)習(xí)回歸分析是一種無監(jiān)督學(xué)習(xí)B、回歸分析是一種無監(jiān)督學(xué)習(xí)C、追加了絕對(duì)值損失(L1正則)的線性回歸叫做Lasso回歸D、回歸分析是用來確定兩種或兩種以上變量間相互依賴的定量關(guān)系的一種統(tǒng)計(jì)分析方法E、回歸分析可以證明因果性答案:ACD9.在深度學(xué)習(xí)中,遇到數(shù)據(jù)不平衡問題時(shí),我們可以用以下哪些方法進(jìn)行解決?A、批量刪除B、隨機(jī)過采樣C、合成采樣D、隨機(jī)欠采樣E、增加更多不平衡數(shù)據(jù)答案:BCD10.智能眼鏡可以看到對(duì)方說話內(nèi)容的字幕,這個(gè)需要用的什么技術(shù)A、TTSB、ASRC、機(jī)器翻譯D、語音數(shù)據(jù)采集與標(biāo)注E、TTRS答案:BCD11.考察聚類內(nèi)的特征指標(biāo)有()A、SSBB、聚類半徑C、SSED、標(biāo)準(zhǔn)差E、數(shù)據(jù)量大小答案:BCD12.數(shù)據(jù)采集注意事項(xiàng)包括A、深度理解B、根據(jù)個(gè)人認(rèn)知C、及時(shí)溝通D、注意采集質(zhì)量E、采集過程的合法性答案:ACDE13.圖像數(shù)字化需要經(jīng)過的步驟包括A、采樣B、裁剪C、量化D、旋轉(zhuǎn)E、手繪答案:AC14.下列哪些選項(xiàng)屬于tf.keras常用的關(guān)于網(wǎng)絡(luò)編譯的方法與接口?A、OptimizersB、evaluateC、ompileD、ModelE、Dropout層設(shè)計(jì)答案:AD15.在卷積神經(jīng)網(wǎng)絡(luò)中,不同層具有不同的共同,可以起到降維作用的是以下哪一層?A、輸入層B、全連接層C、卷積層D、池化層E、標(biāo)準(zhǔn)化層答案:BCD16.以下關(guān)于ReLU激活函數(shù)優(yōu)點(diǎn)的描述,正確的是哪些項(xiàng)?A、有神經(jīng)元死亡的現(xiàn)像B、計(jì)算簡(jiǎn)單C、輯出有界訓(xùn)練不易發(fā)散D、有效緩解了度消失的問題E、ReLU函數(shù)可以確保所有神經(jīng)元輸出始終為正值,有利于正向傳播答案:ABD17.數(shù)據(jù)清洗過程中,總歸可以歸為3個(gè)階段,分別是A、數(shù)據(jù)加工B、數(shù)據(jù)質(zhì)量檢查C、數(shù)據(jù)校對(duì)D、數(shù)據(jù)標(biāo)準(zhǔn)化E、數(shù)據(jù)采集答案:BCD18.按照智能應(yīng)用場(chǎng)景,語音數(shù)據(jù)標(biāo)注任務(wù)可劃分A、智能家居B、智能會(huì)議C、智能客服D、智能車載E、智能聊天答案:ABCDE19.以下關(guān)于線性回歸的描述中,哪些選項(xiàng)是錯(cuò)誤的?A、多元線性回歸分析出來的一定是高維空間中的一條直線。B、由于算法復(fù)雜度,線性回歸無法使用梯度下降的方法求出當(dāng)損失函數(shù)達(dá)到最小的時(shí)候的權(quán)重參數(shù)C、根據(jù)正態(tài)分布函數(shù)與最大似然估計(jì),可以求出線性回歸的損失函數(shù)D、線性回歸中誤差受到眾多因素獨(dú)立影響,根據(jù)中心極限定律誤差服從正態(tài)分布E、線性回歸假設(shè)誤差項(xiàng)應(yīng)滿足同方差性答案:ABC20.以下哪些激活函數(shù)容易產(chǎn)生梯度消失問題?A、ReLUB、SoftplusC、TanhD、SigmoidE、LeakyReLU答案:CD21.智慧教育的支撐技術(shù)包括A、物聯(lián)網(wǎng)B、大數(shù)據(jù)C、云計(jì)算D、泛在網(wǎng)絡(luò)E、心靈感應(yīng)答案:ABCD22.以下選項(xiàng)中,哪幾項(xiàng)是傳統(tǒng)機(jī)器學(xué)習(xí)的特征?A、適合小數(shù)據(jù)量訓(xùn)練。再增加數(shù)據(jù)量難以提升性能B、對(duì)計(jì)算機(jī)硬件需求較個(gè)計(jì)算星級(jí)別有限,一般不需要配用GPU顯卡故并運(yùn)算C、人工進(jìn)行特診選項(xiàng)D、特征可解釋性強(qiáng)E、必須使用強(qiáng)化學(xué)習(xí)進(jìn)行模型訓(xùn)練答案:BCD23.機(jī)器學(xué)習(xí)一般可以分為以下那些類型A、監(jiān)督學(xué)習(xí)B、半監(jiān)督學(xué)習(xí)C、無監(jiān)督學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)E、超監(jiān)督學(xué)習(xí)答案:ABCD24.顯示不完整的處理方法,下列說法正確的是A、不予處理B、不管清不清晰全部框選屬性+噪聲C、只顯示一點(diǎn)點(diǎn)看不到題號(hào)、作答區(qū)、插圖的,框選+噪聲D、可以看清題型的(題型屬性+噪聲),能看到的題號(hào)、作答區(qū),插圖都要框起來E、不做處理答案:CD25.XML格式的文件,中哪一個(gè)是真的A、屬性必須加引號(hào)B、不區(qū)分大小寫字母C、有根元素D、有關(guān)閉標(biāo)簽E、任何標(biāo)簽都可以交叉嵌套答案:ACD26.下列有關(guān)人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)三者關(guān)系的說法正確的是A、人工智能包含機(jī)器學(xué)習(xí),機(jī)器學(xué)習(xí)包含深度學(xué)習(xí)B、人工智能包含機(jī)器學(xué)習(xí),深度學(xué)習(xí)包含機(jī)器學(xué)習(xí)。C、深度學(xué)習(xí)的范圍在三者之間的范圍最大。D、機(jī)器學(xué)習(xí)包含深度學(xué)習(xí),深度學(xué)習(xí)包含人工智能。E、人工智能的范圍在三者之間的范圍最大。答案:AE27.無人超市采用了()等多種智能技術(shù),消費(fèi)者在購(gòu)物流程中將依次體驗(yàn)自動(dòng)身份識(shí)別、自助導(dǎo)購(gòu)服務(wù)、互動(dòng)式營(yíng)銷、商品位置偵測(cè)、線上購(gòu)物車清單自動(dòng)生成和移動(dòng)支付A、計(jì)算機(jī)視覺B、傳感器定位C、深度學(xué)習(xí)算法D、圖像分析E、智能語音答案:ABCDE28.人工智能的研究范疇廣泛且復(fù)雜,其發(fā)展需要與()和社會(huì)科學(xué)等學(xué)科深度融合A、計(jì)算機(jī)科學(xué)B、數(shù)學(xué)C、認(rèn)知科學(xué)D、神經(jīng)科學(xué)E、微電子科學(xué)答案:ABCDE29.計(jì)算機(jī)視覺的應(yīng)用領(lǐng)域包括A、醫(yī)學(xué)影像B、交通管理C、工業(yè)制造D、公安監(jiān)控E、車牌識(shí)別答案:ABCDE30.常見的數(shù)據(jù)預(yù)處理方法有A、數(shù)據(jù)挖掘B、數(shù)據(jù)標(biāo)注C、數(shù)據(jù)清洗D、信息脫敏E、數(shù)據(jù)集成答案:CDE31.在隨機(jī)森林中,最終的集成模型是通過過什么策略決定模型結(jié)果的?A、累加制B、求平均數(shù)C、投票制D、累乘制E、累除制答案:BC32.以下哪些是屬于深度學(xué)習(xí)算法的激活函數(shù)A、SigmoidB、ReLUC、TanhD、SinE、xp答案:ABC33.深度學(xué)習(xí)中以下那些步驟是由模型自動(dòng)完成的A、模型訓(xùn)練B、特征選擇C、分析定位任務(wù)D、特征提取E、數(shù)據(jù)清洗答案:AD34.下面哪些屬于AI的應(yīng)用領(lǐng)域?A、智慧教育B、智慧城市C、智慧家居D、智慧醫(yī)療E、智慧交通答案:ABCDE35.伴隨著人工智能技術(shù)的發(fā)展,出現(xiàn)了多種新的交互方式,如A、語音交互B、情感交互C、體感交互D、腦機(jī)交互E、直覺交互答案:ABCD36.一下關(guān)于GRU的描述,正確的是哪幾項(xiàng)?A、GRU是LSTM的一種變體B、GRU將遺忘門和輸入門合成了一個(gè)單一的更新門C、GRU會(huì)拼接上一時(shí)刻的輸出和當(dāng)前時(shí)核刻的輸入D、GRU混合了細(xì)胞狀態(tài)和隱藏狀態(tài)E、與LSTM相比,GRU參數(shù)更少,所以訓(xùn)練速度更快答案:ABCE37.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見的有:A、最小池化層B、乘積池化層C、最大池化層D、平均池化層E、除法池化層答案:CD38.以下哪些選項(xiàng)屬于機(jī)器學(xué)習(xí)中常見的集成學(xué)習(xí)算法?A、線性回歸B、CBDTC、隨機(jī)森林D、XgboostE、SingleModelTraining答案:BCD39.深度學(xué)習(xí)中以下哪此步驟是由模型自動(dòng)完成的?A、模型訓(xùn)練B、特征選擇C、分析定位任務(wù)D、特征提取E、損失函數(shù)設(shè)計(jì)答案:BD40.下列屬于深度神經(jīng)網(wǎng)絡(luò)模型的是A、DNN深層神經(jīng)網(wǎng)絡(luò)B、CNN卷積神經(jīng)網(wǎng)絡(luò)C、RNN循環(huán)神經(jīng)網(wǎng)絡(luò)D、GAN生成對(duì)抗網(wǎng)絡(luò)E、Transformer模型答案:ABCDE41.以下屬于Tensorflow2.0的特性的是?A、支持更多平臺(tái)和語言B、引入keras接口C、繼續(xù)兼容tensorflow1,X的相關(guān)模塊D、支持靜態(tài)圖機(jī)制E、完全不支持動(dòng)態(tài)圖計(jì)算答案:ABCD42.語法類異常包括A、不規(guī)則的取值B、值域格式錯(cuò)誤C、詞法錯(cuò)誤D、數(shù)據(jù)中存在重復(fù)值E、情緒錯(cuò)誤答案:ABC43.以下哪些選項(xiàng)是人工智能深度學(xué)習(xí)學(xué)習(xí)框架?A、MindSporeB、pythonC、TheandD、TensorFlowE、MATLAB答案:ABCD44.選擇下列哪些是人工智能的研究領(lǐng)域A、人臉識(shí)別B、專家系統(tǒng)C、圖像理解D、分布式計(jì)算E、語音識(shí)別答案:ABCE45.只有更完善的基礎(chǔ)數(shù)據(jù)服務(wù)產(chǎn)業(yè),才是AI技術(shù)能更好發(fā)展的基石。關(guān)于數(shù)據(jù),下列哪些選項(xiàng)是正確的?A、更安全的數(shù)據(jù)共享是AI技術(shù)更好的發(fā)展基石之一B、消除數(shù)據(jù)孤島現(xiàn)象是對(duì)AI技術(shù)拓展很重要C、數(shù)據(jù)質(zhì)量對(duì)AI的發(fā)展沒那么重要,保證數(shù)據(jù)量龐大就夠了D、數(shù)據(jù)消除壁壘對(duì)AI技術(shù)發(fā)展很重要E、數(shù)據(jù)不需要標(biāo)準(zhǔn)化處理也能直接用于所有AI模型答案:ABCD46.下列哪項(xiàng)屬于自然智能A、植物B、動(dòng)物C、細(xì)菌D、機(jī)器E、玩具答案:ABC47.人工智能發(fā)展的三階段是指哪三階段A、推理期B、思維期C、知識(shí)期D、機(jī)器學(xué)習(xí)期E、覺醒期答案:ACD48.機(jī)器智能的內(nèi)涵包括A、腦認(rèn)知基礎(chǔ)B、機(jī)器感知與模式識(shí)別C、自然語言處理和理解D、知識(shí)工程E、火星探索答案:ABCD49.以下哪些選項(xiàng)屬于循環(huán)神經(jīng)網(wǎng)絡(luò)中多對(duì)一的類型?A、音樂生成B、動(dòng)作識(shí)別C、機(jī)器翻譯D、情感分析E、視頻幀預(yù)測(cè)答案:BC50.為進(jìn)行分類模型的訓(xùn)練和性能評(píng)價(jià),需要將輸入的標(biāo)注數(shù)據(jù)劃分為A、數(shù)據(jù)的類標(biāo)B、測(cè)試集C、數(shù)據(jù)的特征D、訓(xùn)練集E、數(shù)據(jù)噪音答案:BD51.屬于閉區(qū)域標(biāo)注的有A、曲線標(biāo)注B、線標(biāo)注C、多邊形標(biāo)注D、點(diǎn)標(biāo)注E、框標(biāo)注答案:ACE52.認(rèn)知語言更多的考慮A、語法B、詞韻C、語義D、語用E、音量答案:CD53.有大量銷售數(shù)據(jù),但沒有標(biāo)簽的的情況下,企業(yè)想甄別出VIP客戶,以下模型中合適的有?A、邏輯回歸B、SVMC、K-MeansD、層次聚類E、決策樹答案:CD54.以下關(guān)于隨機(jī)梯度下降和小批量梯度下降的描述,正確的是哪些項(xiàng)?A、隨機(jī)樣度下降的不穩(wěn)定性可以幫助模型在收斂中跳過一些局部極值點(diǎn)B、小批量梯度下降相比于隨機(jī)梯度下降更容易受到噪聲數(shù)據(jù)的影響C、隨機(jī)梯度下降的一種實(shí)現(xiàn)是在線學(xué)習(xí)(OnlineLearning),它根據(jù)每一個(gè)樣例來更新梯度D、小批量梯度下降的思想是每次使用一小批固定尺寸(BatchSize)的樣例來更新權(quán)值E、隨機(jī)梯度下降每次迭代都會(huì)計(jì)算整個(gè)數(shù)據(jù)集的梯度答案:ACD55.下列陳述中哪些是描述強(qiáng)AI(通用AI)的正確答案?A、指的是一種機(jī)器,具有將智能應(yīng)用于任何問題的能力B、是經(jīng)過適當(dāng)編程的具有正確輸入和輸出的計(jì)算機(jī),因此有與人類同樣判斷力的頭腦C、指的是一種機(jī)器,僅針對(duì)一個(gè)具體問題D、其定義為無知覺的計(jì)算機(jī)智能,或?qū)W⒂谝粋€(gè)狹窄任務(wù)的AIE、強(qiáng)AI僅能進(jìn)行單一任務(wù)的優(yōu)化答案:AB56.設(shè)計(jì)一個(gè)自己的股票交易機(jī)器人需要做到A、提出假設(shè)B、建立模型C、回測(cè)驗(yàn)證D、執(zhí)行交易E、穿越時(shí)空答案:ABCD57.發(fā)展出圖像識(shí)別成功率超越人類的人工智能的主要因素有A、計(jì)算力的提升B、大量數(shù)據(jù)驅(qū)動(dòng)C、社會(huì)關(guān)注度提升D、人類專家規(guī)則的完善E、機(jī)器智能已超越人類答案:AB58.自然智能包括A、高級(jí)智能B、超級(jí)智能C、人類智能D、機(jī)器智能E、外星智能答案:CD59.softmax函數(shù)在分類任務(wù)中經(jīng)常被使用,下列關(guān)于softmax函數(shù)的描述,哪些選項(xiàng)是正確的A、是二分函數(shù)sigmoid的推廣B、somftmax函數(shù)又稱作歸一化指數(shù)函數(shù)C、softmax回歸模型是解決二分類回歸問題的算法D、softmax函數(shù)經(jīng)常與交叉嫡損失函數(shù)聯(lián)合使用E、softmax不能改善準(zhǔn)確性答案:ABD60.如果深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度消失或梯度爆炸問題我們常用的解決方法為:A、梯度剪切B、隨機(jī)欠采樣C、使用Relu激活函數(shù)D、正則化E、加深神經(jīng)網(wǎng)絡(luò)答案:ACD61.下列哪些是數(shù)據(jù)預(yù)處理的常用技術(shù)A、數(shù)字屬性的缺失值補(bǔ)0B、LabelEncoderC、one-hotencoderD、CountVectorizeE、均值補(bǔ)全答案:ABCDE62.以下關(guān)于決策樹的描述中,哪些選項(xiàng)是正確的?A、常見的決策樹z法有ID3,C4.5,CART等B、決策樹的構(gòu)造就是進(jìn)行屬性的擇,確定各個(gè)特征屬性之間的樹結(jié)構(gòu)C、純度的量化指標(biāo)只能通過信息熵D、構(gòu)建決策樹的關(guān)鍵步驟就是按照所有的特征屬性進(jìn)行劃分操作,對(duì)所有的劃分操作的結(jié)果集的“純度”進(jìn)行比較E、決策樹總是會(huì)過度擬合訓(xùn)練數(shù)據(jù)答案:ABD63.以下哪些屬于AI訓(xùn)練和推理框架?A、MindSporeB、MatlabC、PytorchD、TensorFlowE、JavaFX答案:ACD64.Tensorflow2.0中可以用來查看是否是tensor的方法有?A、dtypeB、isinstanceC、is_tensorD、eviceE、has_tensor答案:BC65.智能控制的開發(fā),目前認(rèn)為有以下途徑A、基于數(shù)據(jù)挖掘的專家智能控制B、基于遺傳算法的軟計(jì)算控制C、基于人工神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)控制D、以上說法都不對(duì)E、所有說法都對(duì)答案:AC66.人工智能現(xiàn)在的技術(shù)應(yīng)用方向主要有?A、自然語言處理B、控制系統(tǒng)C、計(jì)算機(jī)視覺D、語音識(shí)別E、燃燒系統(tǒng)答案:ACD67.從技術(shù)角度看,人工智能的挑戰(zhàn)包括A、能否保證人工智能的應(yīng)用開發(fā)被用于正確的目標(biāo)B、智能系統(tǒng)開發(fā)時(shí)存在嚴(yán)重的缺陷,會(huì)產(chǎn)生不可預(yù)測(cè)的后果C、人工智能的強(qiáng)大能力產(chǎn)生的負(fù)面效果可能是緩慢而大規(guī)模的D、人工智能設(shè)計(jì)者在制作機(jī)器人時(shí),會(huì)將自己的想法加入到機(jī)器人的思維系統(tǒng)中E、需求不足答案:ABD68.定義類如下:classhello():defshowInfo(self):print(self.x)下面描述正確的是A、該類不可以實(shí)例化B、該類可以實(shí)例化C、在pycharm工具中會(huì)出現(xiàn)語法錯(cuò)誤,說self沒有定義D、該類可以實(shí)例化,并且能正常通過對(duì)象調(diào)用showInfo()E、showInfo方法無需傳入self參數(shù)答案:AC69.圖像區(qū)域標(biāo)注現(xiàn)在可以使用的手段有A、手動(dòng)標(biāo)注B、全自動(dòng)化標(biāo)注C、半自動(dòng)化標(biāo)注D、人工智能標(biāo)注E、全自動(dòng)標(biāo)注答案:AC70.以下屬于TensorFlow2.0的特性的是?A、引入keras接口B、支持靜態(tài)圖機(jī)制C、支持更多平臺(tái)和更多語言D、繼續(xù)兼容Tensorflowl.x的相關(guān)模塊E、去除圖形界面支持答案:ACD71.深度學(xué)習(xí)模型訓(xùn)練的過程中,常見的優(yōu)化器有哪些?A、damB、AdagradC、SGDD、MomentumE、NaiveGradientDescent答案:ABCD72.機(jī)器學(xué)習(xí)的主要應(yīng)用領(lǐng)域包括?A、圖像識(shí)別B、認(rèn)知模擬C、規(guī)劃問題求解D、數(shù)據(jù)挖掘E、分類答案:ABCDE73.下列選項(xiàng)中,那兩項(xiàng)可用于數(shù)據(jù)采集技術(shù)A、FlumeB、HiveC、KafkaD、MahoutE、TV答案:AC74.機(jī)器智能研究如何提高機(jī)器應(yīng)用的智能水平。這里的“機(jī)器”主要是指A、計(jì)算機(jī)B、自動(dòng)化裝置C、通信設(shè)備D、無人車E、手動(dòng)工具答案:ACE75.神經(jīng)網(wǎng)絡(luò)深度過深容易出現(xiàn)以下哪一種問題?A、梯度消失B、梯度爆炸C、訓(xùn)練數(shù)據(jù)丟失D、模型欠擬合E、效果一定更好答案:ABD76.以下關(guān)于Relu激活函數(shù)缺點(diǎn)的描述,正確的是哪些項(xiàng)?A、有神經(jīng)元死亡的現(xiàn)像B、轉(zhuǎn)折點(diǎn)定義的曲面也是有“棱角”的,在某些回歸問題中,顯得不夠平滑C、在0處不可導(dǎo),強(qiáng)行定義了導(dǎo)數(shù)D、無上界,訓(xùn)煉相對(duì)發(fā)散E、ReLU激活函數(shù)無法改善梯度消失問題答案:ABCD77.下列選項(xiàng)中屬于感知技術(shù)的是A、機(jī)器學(xué)習(xí)技術(shù)B、計(jì)算實(shí)施技術(shù)C、語音識(shí)別技術(shù)D、機(jī)器視覺E、壓力感應(yīng)答案:CDE78.下列哪些屬于AI的子領(lǐng)域?A、機(jī)器學(xué)習(xí)B、計(jì)算機(jī)視覺C、語音識(shí)別D、自然語言處理E、深度學(xué)習(xí)答案:ABCDE79.下列對(duì)人工智能芯片的表述,正確的是()A、一種專門用于處理人工智能應(yīng)用中大量計(jì)算任務(wù)的芯片B、能夠更好地適應(yīng)人工智能中大量矩陣運(yùn)算C、相對(duì)于傳統(tǒng)的CPU處理器,智能芯片具有很好的并行計(jì)算性能D、目前處于成熟高速發(fā)展階段E、和以前的芯片沒有區(qū)別答案:ABC80.大數(shù)據(jù)的業(yè)務(wù)應(yīng)用處理需要經(jīng)過那些流程A、數(shù)據(jù)采集B、數(shù)據(jù)清洗C、數(shù)據(jù)建模D、數(shù)據(jù)加工E、數(shù)據(jù)美化答案:ABCD81.人工智能歷經(jīng)兩波浪潮,此次人工智能風(fēng)潮再度崛起是因?yàn)?)A、大量數(shù)據(jù)變得可得B、CPU計(jì)算能力的提升C、GPU計(jì)算能力的提升D、深度學(xué)習(xí)的發(fā)展E、人類決策能力的大幅提升答案:ACD82.按照語音信號(hào)處理研究方向,語音數(shù)據(jù)標(biāo)注任務(wù)可劃分為?A、語音識(shí)別B、語音合成C、情感識(shí)別D、語音分離E、說話人識(shí)別答案:ABCDE83.聯(lián)想存儲(chǔ)的特點(diǎn)是A、可以存儲(chǔ)許多相關(guān)(激勵(lì),響應(yīng))模式對(duì)B、以分布、穩(wěn)健的方式存儲(chǔ)信息C、即使輸入激勵(lì)模式完全失真時(shí),仍然可以產(chǎn)生正確的響應(yīng)模式D、可在原存儲(chǔ)中加入新的存儲(chǔ)模式E、存儲(chǔ)單一模式,無關(guān)聯(lián)性答案:ABCD84.常見的聚類算法有哪些?A、密度聚類B、層次聚類C、譜聚類D、KmeansE、主成分分析答案:ABCD85.下面哪些屬于AI的應(yīng)用領(lǐng)域?A、智慧教育B、智慧城市C、智慧家居D、智慧醫(yī)療E、智能制造答案:ABCDE86.人工智能包括哪些要素?A、算法B、場(chǎng)景C、算力D、數(shù)據(jù)E、人工答案:ABCD87.下面有關(guān)AI應(yīng)用領(lǐng)域的描述正確的有哪些選項(xiàng)?A、智慧醫(yī)療運(yùn)用了計(jì)算機(jī)視覺數(shù)據(jù)控掘等AI技術(shù)B、智慧城市,是一門綜合學(xué)科,幾乎涵蓋AI常用三大方向,語音、NLP和計(jì)算機(jī)視覺C、智慧教育,基本特征是開放、共享、交互、協(xié)作、泛在。以教育信息化促進(jìn)教育現(xiàn)代化用信息技術(shù)改變傳統(tǒng)模式D、智能家居,運(yùn)用了物聯(lián)網(wǎng)、語音識(shí)別等技術(shù)E、人臉識(shí)別運(yùn)用了自然語言處理技術(shù)答案:ABCD88.下列屬于機(jī)器學(xué)習(xí)類型的是A、有監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)E、超監(jiān)督學(xué)習(xí)答案:ABCD89.ASR在中文領(lǐng)域有很大的難度,主要原因是A、中文博大精深B、方言眾多C、目前ASR技術(shù)不成熟D、數(shù)據(jù)量不夠E、缺乏高質(zhì)量的麥克風(fēng)答案:AB90.下列屬于自然語言處理研究主題的是哪些選項(xiàng)?A、情感分析B、機(jī)器翻譯C、文本生成D、文本挖掘E、圖像識(shí)別答案:ABCD91.下列觀點(diǎn)中,屬于符號(hào)主義的有A、認(rèn)為人的認(rèn)知基元是符號(hào)B、認(rèn)為知識(shí)是信息的一種形式C、認(rèn)為人是一個(gè)物理符號(hào)系統(tǒng)D、認(rèn)為人工智能源于數(shù)理邏輯E、認(rèn)為智能源自生物進(jìn)化答案:ABCD92.語音標(biāo)注數(shù)據(jù)的典型應(yīng)用場(chǎng)景包括A、智能醫(yī)療B、智能駕駛C、智能家居D、智能教育E、智能輸入答案:ABCDE93.生物特征識(shí)別技術(shù)是一門跨學(xué)科的技術(shù),包括A、計(jì)算機(jī)與光學(xué)B、聲學(xué)C、生物傳感器D、生物統(tǒng)計(jì)學(xué)原理E、地理信息系統(tǒng)答案:ABCD94.人工智能發(fā)展的驅(qū)動(dòng)力包括A、大數(shù)據(jù)B、傳感器C、腦科學(xué)D、超級(jí)計(jì)算E、算法答案:ABCDE95.以下關(guān)于解決問題方法的描述中,哪些選項(xiàng)是正確的?A、人工規(guī)則適用于解決問題規(guī)模小,規(guī)則復(fù)雜度高的問題B、機(jī)器學(xué)習(xí)算法適用于解決問題規(guī)模大,規(guī)則復(fù)雜度高的問題C、基于規(guī)則的算法適用于問題規(guī)模大,規(guī)則復(fù)雜度低的問題D、問題規(guī)模大,規(guī)則復(fù)雜度低的問題屬于簡(jiǎn)單問題E、規(guī)則復(fù)雜度高低與問題規(guī)模無關(guān)答案:ABC96.不屬于常見問題解答模塊的主要技術(shù)的是A、問句相似度計(jì)算B、語料庫(kù)的構(gòu)建C、查詢擴(kuò)展D、模式匹配E、反問技術(shù)答案:BCDE97.下來哪些概念已被廣泛應(yīng)用于計(jì)算機(jī)視覺、自然語言處理、無人駕駛等領(lǐng)域?A、機(jī)器學(xué)習(xí)B、深度學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、遷移學(xué)習(xí)E、機(jī)器視覺答案:ABCDE98.目前外科手術(shù)領(lǐng)域的醫(yī)用機(jī)器人的優(yōu)點(diǎn)有A、定位誤差小B、手術(shù)創(chuàng)口小C、不需要人類醫(yī)生進(jìn)行操作D、能夠?qū)崟r(shí)監(jiān)控患者的情況E、可以獨(dú)立進(jìn)行復(fù)雜決策無需醫(yī)生答案:AB99.以下哪些項(xiàng)是Softsign激活函數(shù)相比于Sigmoid函數(shù)的優(yōu)勢(shì)?A、輸出關(guān)于0點(diǎn)對(duì)稱B、沒有梯度消失問題C、梯度包和速度變緩D、倒數(shù)最大值為1E、計(jì)算效率顯著低于Sigmoid答案:BD100.決策樹的構(gòu)建過程一般包含以下哪些選項(xiàng)?A、特征選擇B、聚類C、剪枝D、決策樹生成E、停止條件答案:ACDE101.機(jī)器翻譯的局限性在于A、訓(xùn)練樣本單一B、只能處理簡(jiǎn)單句C、基于已有的既成案例D、錯(cuò)誤較多E、無需電力支持答案:BC102.關(guān)于自然語言處理正確的是A、目前最先進(jìn)的自然語言處理技術(shù)是基于深度學(xué)習(xí)模型的B、自然語言處理技術(shù)達(dá)到人類智能的標(biāo)準(zhǔn)是通過圖靈測(cè)試C、文本標(biāo)注的對(duì)象是自然語言文本D、文本標(biāo)注主要是用于無監(jiān)督學(xué)習(xí)E、文本標(biāo)注可以全自動(dòng)完成答案:ABC103.當(dāng)編譯模型使用了以下代碼:pile(optimizer='Adam,loss='catgorical.crossentropy',metrics=[tf.keras.metrics.accuracy]),在使用evaluate方法評(píng)估模型時(shí),會(huì)輸出以下哪些指標(biāo)A、ccuracyB、categorical_lossC、lossD、categoricalaccuracyE、gain答案:AC104.生成對(duì)抗網(wǎng)絡(luò)目前應(yīng)用非常廣泛,以下場(chǎng)景可以使用此網(wǎng)絡(luò)的是A、數(shù)據(jù)增強(qiáng)B、語義分割C、信息檢索D、圖像生成E、游戲設(shè)計(jì)答案:ABCDE105.以下哪些是語音處理研究的主題?A、音頻事件檢測(cè)B、聲紋識(shí)別C、語音識(shí)別D、語言喚醒E、語音合成答案:ABCDE106.人工智能包括哪些要素?A、算法B、場(chǎng)景C、算力D、數(shù)據(jù)E、倫理答案:ABCDE107.在神經(jīng)網(wǎng)絡(luò)中常有權(quán)重共享現(xiàn)象,以下哪些神經(jīng)網(wǎng)絡(luò)會(huì)發(fā)生權(quán)重現(xiàn)象A、感知器B、卷積神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)E、徑向基神經(jīng)網(wǎng)絡(luò)答案:BD108.從機(jī)器學(xué)習(xí)預(yù)測(cè)目標(biāo)數(shù)據(jù)的離散程度,可以將機(jī)器學(xué)習(xí)分類哪兩類問題?A、回歸問題B、分類問題C、識(shí)別問題D、判定問題E、推理問題答案:AB109.python提供的tensor,可以極大的加速計(jì)算,其中他tensor支持以下哪些硬件A、GPUB、CPUC、Ascend310D、Ascend910E、Ascend1210答案:AB110.在進(jìn)行圖像任務(wù)處理過程中,往往會(huì)對(duì)圖片進(jìn)行歸一化操作,下面有關(guān)歸一化的描述,哪些選項(xiàng)是正確的?A、歸一化有可能提高精度B、數(shù)據(jù)歸一化的主要目的是為了把不同來源的數(shù)據(jù)統(tǒng)一到同一數(shù)量級(jí)C、標(biāo)準(zhǔn)差歸一化是一種常用的歸一化方法D、數(shù)據(jù)歸一化可以消除指標(biāo)之間的量綱影響E、歸一化總是會(huì)降低模型的泛化能力答案:BD111.關(guān)于圖像內(nèi)容審核服務(wù)調(diào)用成功時(shí)返回的suggestion字段,說法正確的是?A、pass代表不包含敏感信息,通過B、review代表需要人工復(fù)檢C、suggestion字段代表檢測(cè)是否通過D、block代表包含敢感信息,不通過E、ignore代表忽略答案:ABCD112.考察人工智能(AI)的一些應(yīng)用,去發(fā)現(xiàn)目前下列哪些任務(wù)可以通過AI來解決A、以競(jìng)技水平玩德州撲克游戲B、打一場(chǎng)像樣的乒乓球比賽C、在Web上購(gòu)買一周的食品雜貨D、在市場(chǎng)上購(gòu)買一周的食品雜貨E、送外賣答案:ABC113.語義標(biāo)注中的自定義標(biāo)簽包括A、意圖級(jí)別配置B、功能配置C、預(yù)識(shí)別配置D、情感配置E、顏色配置答案:ABC114.下列哪些屬于AI的子領(lǐng)域?A、機(jī)器學(xué)習(xí)B、計(jì)算機(jī)視覺C、語音識(shí)別D、自然語言處理E、深度學(xué)習(xí)答案:ABCDE115.數(shù)據(jù)預(yù)處理是一種數(shù)據(jù)挖掘技術(shù),包括A、數(shù)據(jù)清洗B、數(shù)據(jù)集成C、數(shù)據(jù)歸約D、數(shù)據(jù)標(biāo)注E、數(shù)據(jù)脫敏答案:ABCE116.常見的臟數(shù)據(jù)的類型有哪些?A、格式錯(cuò)誤的值B、重復(fù)值C、邏輯錯(cuò)誤的值D、缺失值E、平均值答案:ABCD117.以下哪些方法可以減少過擬合的問題?A、添加L1或L2正則懲訓(xùn)項(xiàng)B、提前停止訓(xùn)練C、使用Dropout方法隨機(jī)丟棄一部分輸入D、擴(kuò)充數(shù)據(jù)集,引入噪聲E、僅使用復(fù)雜度極高的模型答案:ABCD118.關(guān)于Python正確的是A、Python中的異常只是系統(tǒng)拋出B、使用try語句可以捕捉異常C、用戶可以自定義異常D、異常不會(huì)終止程序的執(zhí)行E、python沒有異常答案:BC119.序列標(biāo)注包括A、分詞B、詞性標(biāo)注C、語塊分析D、關(guān)系抽取E、實(shí)體識(shí)別答案:ABCDE120.在強(qiáng)化學(xué)習(xí)中,主體和環(huán)境之間交互的要素有A、狀態(tài)B、動(dòng)作C、回報(bào)D、強(qiáng)化E、情緒反饋答案:ABC121.以下關(guān)于LSTM的描述,正確的是哪幾項(xiàng)?A、門可以選擇性地以讓信息通過它們由Sigmoid神經(jīng)網(wǎng)絡(luò)層和逐點(diǎn)乘法運(yùn)算組成B、LSTM可以通過“門”的精細(xì)結(jié)構(gòu)向細(xì)胞狀態(tài)添加或移除信息C、LSTM的關(guān)鍵健是細(xì)胞狀態(tài),細(xì)胞狀態(tài)貫穿整個(gè)鏈條,只有一些次要的線性交互作用,信息很容易以不變的方式流過D、LSTM有兩種門用來保持和控制細(xì)胞狀態(tài):遺忘門和輸入門E、LSTM模型可以改善RNN的梯度消失問題答案:ABCDE122.選擇下列計(jì)算機(jī)系統(tǒng)中屬于人工智能的實(shí)例A、Web搜索引擎B、超市條形碼掃描器C、聲控電話菜單D、智能個(gè)人助理E、傳統(tǒng)計(jì)算器答案:ABCD123.機(jī)器智能種類包括A、機(jī)器動(dòng)作智能B、機(jī)器行為智能C、左右大腦加小腦功能D、機(jī)器語言智能E、心靈感應(yīng)答案:BC124.以下關(guān)于mindspore設(shè)計(jì)理念的描述中,正確的有哪幾項(xiàng)?A、表達(dá)/優(yōu)化/運(yùn)行解:實(shí)現(xiàn)多前端跨芯片,跨平臺(tái)B、全場(chǎng)統(tǒng)一架構(gòu),接口和R統(tǒng)一,AI應(yīng)用可平滑流動(dòng)C、Mindspore僅支持部臀在異騰芯片D、開放:開放通用圖編譯/運(yùn)行能力給三方框架E、MindSpore只支持特定類型的神經(jīng)網(wǎng)絡(luò)架構(gòu),限制了模型多樣性答案:ABCD125.如果把尋找最優(yōu)值的過程看作小球滾到山底的過程,以下關(guān)于動(dòng)量?jī)?yōu)化器的描述,正確的是哪些項(xiàng)?A、帶有慣性的小球更容易滾過一些狹窄的局部極值B、仍需要手動(dòng)設(shè)置學(xué)習(xí)率和動(dòng)量系數(shù)C、動(dòng)量梯度下降是小球在下降的過程中不斷積累速度,這有助于小球快速中過平坦區(qū)域,加快收斂D、動(dòng)量梯度下降可以解決振蕩導(dǎo)致學(xué)習(xí)速度降低的問題E、動(dòng)量?jī)?yōu)化器會(huì)導(dǎo)致模型訓(xùn)練過程中出現(xiàn)更多的局部最優(yōu)解。答案:ABCD126.使用有監(jiān)督學(xué)習(xí)的問題可以分為哪兩大類A、回歸問題B、抽樣問題C、聚類問題D、分類問題E、聯(lián)想問題答案:AD127.以下關(guān)于KNN算法當(dāng)中上值描述正確的是?A、K值越大,模型越容易過擬合B、K值越大,分類的分割面越平滑C、K值是超參數(shù)D、可以將K值設(shè)為0E、K值影響模型的線性度答案:BC128.語音編碼格式是指按一定格式壓縮采樣和量化后的數(shù)值,從而降低音頻的數(shù)據(jù)量,便于音頻數(shù)據(jù)的存儲(chǔ)和傳輸。常用的編碼格式有A、VIB、PCW(WAV)C、MP3D、JPGE、GIF答案:BC129.下列選項(xiàng)中屬于keras下estimator封裝的方法有A、評(píng)估B、訓(xùn)練C、預(yù)測(cè)D、輸出模型E、構(gòu)建數(shù)據(jù)集答案:ABC130.在深度學(xué)習(xí)中,以下哪些是常用的正則項(xiàng)?A、L1B、TanhC、ReluD、l2E、Sigmoid答案:AD131.人工智能催生新技術(shù)、新模式、新業(yè)態(tài)、新產(chǎn)業(yè)、新產(chǎn)品,改變?nèi)祟惖腁、生產(chǎn)方式B、生活方式C、行為模式D、思維模式E、娛樂方式答案:ABCDE132.以下是正確的Python字符串A、‘a(chǎn)bc”ab”B、‘a(chǎn)bc”ab’C、“abc”ab”D、“abc\”ab”E、‘a(chǎn)bc’ab”答案:BD133.無人超市的場(chǎng)景下,使用到的AI技術(shù)有哪些選項(xiàng)?A、推薦算法B、數(shù)據(jù)挖掘C、計(jì)算機(jī)視覺D、生物合成E、無法選擇答案:ABC134.正則化是傳統(tǒng)機(jī)器學(xué)習(xí)中重要且有效的減少泛化誤差的技術(shù),以下技術(shù)屬于正則化技術(shù)的是:A、L1正則化B、L2正則化C、DropoutD、動(dòng)量?jī)?yōu)化器E、tanh答案:ABC135.下列哪種方法可以用來減小過擬合?()A、更多的訓(xùn)練數(shù)據(jù)B、L1正則化C、L2正則化D、減小模型的復(fù)雜度E、Dropout答案:ABCDE136.以下屬于計(jì)算機(jī)視覺的是A、物體識(shí)別和檢測(cè)B、語音導(dǎo)航C、視覺問答D、機(jī)器翻譯E、情感分析答案:AC137.人工智能關(guān)鍵技術(shù)框架主要包括那兩層A、基礎(chǔ)設(shè)施B、算法C、技術(shù)D、人員E、網(wǎng)絡(luò)速度答案:BC138.參加達(dá)特茅斯會(huì)議的學(xué)者有哪些A、羅切斯特B、曼卡錫C、明斯基D、香農(nóng)E、圖靈答案:BCD139.已知全連接神經(jīng)網(wǎng)絡(luò)的某一層的參數(shù)總量為330,則上一層和本層的神經(jīng)元數(shù)量可能為?A、32和10B、10和33C、33和10D、9和33E、33和9答案:BC140.以下關(guān)于線性回歸與防止過擬合的描述中,哪些選項(xiàng)是正確的?A、線性回歸權(quán)重系數(shù)在樣本空間中不能過大/過小,可以在目標(biāo)函數(shù)之上增加一個(gè)平方和損失B、當(dāng)使用的正則項(xiàng)是12—norm,使用這個(gè)損失函數(shù)的現(xiàn)象回歸也叫LASSO回歸C、正則項(xiàng)有助于減少過擬合D、追加了絕對(duì)值損失的線性回歸叫做Ridge回歸E、使用非線性轉(zhuǎn)換可以完全避免過擬合現(xiàn)象答案:AC141.基因遺傳算法的兩個(gè)常用的結(jié)束條件為A、達(dá)到一定的迭代次數(shù)B、適應(yīng)度函數(shù)達(dá)到一定的要求C、達(dá)到一定的變異次數(shù)D、達(dá)到一定的交叉次數(shù)E、隨機(jī)停止答案:AB142.不屬于開區(qū)域標(biāo)注的是A、曲線標(biāo)注B、多邊形標(biāo)注C、框標(biāo)注D、線標(biāo)注E、點(diǎn)標(biāo)注答案:ABC143.以下選項(xiàng)中哪些是常用的深度學(xué)習(xí)激活函數(shù)?A、tanh函數(shù)B、ReLU函數(shù)C、Softsign函數(shù)D、Sigmoid函數(shù)E、Gaussian函數(shù)答案:ABCD144.以下哪些項(xiàng)可以應(yīng)用在需要處理序數(shù)據(jù)的場(chǎng)景中?A、CNNB、LSTMC、RNND、GRUE、SVM答案:BCD145.問診機(jī)器人可能涉及以下哪些技術(shù)A、語音識(shí)別B、圖像識(shí)別C、專家系統(tǒng)D、知識(shí)圖譜E、遙感衛(wèi)星圖像分析答案:ACD146.以下應(yīng)用場(chǎng)景中,()可以認(rèn)為是計(jì)算機(jī)視覺的任務(wù)A、圖像存儲(chǔ)B、圖像/視頻中文字的檢測(cè)和識(shí)別C、視頻中感興趣目標(biāo)的檢測(cè)、跟蹤和定位D、圖像中前景物體與背景的分割E、圖像分割答案:BCDE147.Python可以應(yīng)用以下那些領(lǐng)域A、網(wǎng)站開發(fā)B、人工智能C、APPD、數(shù)據(jù)科學(xué)E、軟件開發(fā)答案:ABCDE148.以下關(guān)于梯度下降法的描述,錯(cuò)誤的是哪些項(xiàng)?A、負(fù)梯度方向是函數(shù)下降最快的方向B、梯度下降法一定夠在凸優(yōu)化問題中取得全局極值點(diǎn)C、梯度下降法不一定能夠在凸優(yōu)化問題中取得全局極值點(diǎn)D、負(fù)梯度方向是函數(shù)上升最快的方向E、梯度下降法總是能找到全局最優(yōu)解,無論初始點(diǎn)在哪里答案:BDE149.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?A、池化操作采用掃描窗口實(shí)現(xiàn)B、池化層可以起到降維的作用C、常用的池化方法有最大池化和平均池化D、經(jīng)過池化的特征圖像變小了E、池化層會(huì)增加特征的數(shù)量答案:ABCD150.以下哪些選項(xiàng)是CNN網(wǎng)絡(luò)結(jié)構(gòu)?A、InceptionB、ertC、AlexNetD、VGGE、RNN答案:CD151.以下關(guān)于模型中參數(shù)與超參數(shù)的描述中,哪些選項(xiàng)是正確的?A、模型超參數(shù)通常由實(shí)踐者直接指定B、模型超參數(shù)只能通過人工直接設(shè)定C、模型超參數(shù)通常根據(jù)給定的預(yù)測(cè)建模問題而調(diào)整D、模型超參數(shù)通??梢允褂脝l(fā)式方法來設(shè)置E、超參數(shù)只能通過窮舉搜索找到最佳值答案:ACD152.框題的順序按照我們的閱讀順序來,下列框題的順序正確的是A、插圖和答題區(qū):先框插圖再框答題區(qū)B、插圖和答題區(qū):先框答題區(qū)再框插圖C、表格和答題區(qū):先框表格內(nèi)答題區(qū)再框表格D、表格和答題區(qū):先框表格再框表格內(nèi)答題區(qū)E、一起框答案:AD153.以下那些是人工智能的研究領(lǐng)域A、機(jī)器證明B、模式識(shí)別C、人工生命D、變異原理E、量子烹飪答案:ABC154.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是A、常用的池化方法有最大池化和平均池化B、經(jīng)過池化的特征圖像變小了C、池化層可以起到降維的作用D、池化操作采用掃描窗口實(shí)現(xiàn)E、池化層的目的是增加特征圖的分辨率,以便捕捉更多細(xì)節(jié)。答案:ABCD155.深度學(xué)習(xí)中,以下哪些方法可以降低模型過擬合?A、DropoutB、增加參數(shù)懲罰C、增加更多的樣本D、增加模型復(fù)雜度提高在訓(xùn)練集上的效果E、什么都不做答案:ABC156.下面哪些用卷積神經(jīng)網(wǎng)絡(luò)處理效果比較好A、人臉識(shí)別B、手寫數(shù)字識(shí)別C、自然語言處理D、機(jī)器翻譯E、圖像分類答案:ABE157.神經(jīng)網(wǎng)絡(luò)起源很早,但真正被大規(guī)模商用還是在本世紀(jì),你覺得阻礙神經(jīng)網(wǎng)絡(luò)在上世紀(jì)發(fā)展的主要原因是什么A、理論沒有發(fā)展起來B、科學(xué)界不重視C、計(jì)算能力跟不上D、標(biāo)注數(shù)據(jù)不足E、編程語言限制答案:CD158.常見的圖像數(shù)據(jù)標(biāo)注有哪幾種類型A、矩形框標(biāo)注B、關(guān)鍵點(diǎn)標(biāo)注C、區(qū)域標(biāo)注D、屬性標(biāo)注E、聲音標(biāo)簽答案:ABCD159.人工智能研究的領(lǐng)域包括以下哪些選項(xiàng)?A、計(jì)算智能B、符號(hào)智能C、機(jī)器感知D、機(jī)器學(xué)習(xí)E、模式識(shí)別答案:ABCDE160.以下關(guān)于標(biāo)準(zhǔn)RNN的描述正確的是哪幾項(xiàng)?A、標(biāo)準(zhǔn)的循環(huán)神經(jīng)網(wǎng)路存在褲度爆炸和棉度消失問題。B、標(biāo)準(zhǔn)RNN結(jié)構(gòu)解決了信息記憶的問題但是對(duì)長(zhǎng)時(shí)間記憶的信息會(huì)衰減C、度消失梯度爆炸都與路徑長(zhǎng)度太長(zhǎng)有關(guān),前面的權(quán)重都基本固定不變沒有訓(xùn)練效果D、標(biāo)準(zhǔn)RNN是一種死板的邏,越晚的輸入影響越大越早的輸入影響越小,且無法改變這個(gè)邏輯E、標(biāo)準(zhǔn)RNN不會(huì)遇到任何梯度問題答案:ABCD161.從技術(shù)架構(gòu)來看AI芯片的分類包括A、FPGAB、CPUC、GPUD、ASICE、GDP答案:ABCD162.AI芯片從業(yè)務(wù)應(yīng)用上來分,可以分為?A、訓(xùn)練B、GPUC、模型構(gòu)建D、推理E、CPU答案:AD163.關(guān)于機(jī)器學(xué)習(xí)模型性能評(píng)估的說法,以下哪些選項(xiàng)是正確的A、通過分類模型的混淆矩陣,可以計(jì)算準(zhǔn)確率,錯(cuò)誤率,差準(zhǔn)率,F(xiàn)1值等各種信息B、回模型股可以使用MAE或MSE進(jìn)行評(píng)估C、分類模型一般可以結(jié)合混淆矩陣進(jìn)行評(píng)估D、聚類模型沒有性能評(píng)估方法E、回歸模型的性能評(píng)估主要依賴于精確率和召回率答案:ABCD164.智能制造系統(tǒng)有那些方面構(gòu)成A、智能制造B、智能產(chǎn)品C、智能生產(chǎn)D、智能服務(wù)E、智能管理答案:ABCDE165.深度學(xué)習(xí)的主要過程包括()A、選擇適合問題的網(wǎng)絡(luò)結(jié)構(gòu)B、選擇適合網(wǎng)絡(luò)結(jié)構(gòu)的問題C、用大量數(shù)據(jù)訓(xùn)練網(wǎng)絡(luò)D、優(yōu)化網(wǎng)絡(luò)E、對(duì)權(quán)重初始化答案:ACDE166.以下關(guān)于GPU特征的描述,正確的是哪些選項(xiàng)?A、大量緩存降低時(shí)延基于大吞葉量設(shè)計(jì)痘長(zhǎng)邏輯控制B、基于大吞葉量設(shè)計(jì)C、擅長(zhǎng)邏輯控制D、擅長(zhǎng)計(jì)算密集和易于并行的程序E、GPU在執(zhí)行串行任務(wù)時(shí)效率高于CPU答案:ACD167.“噪聲”是指測(cè)量變量中的隨機(jī)錯(cuò)誤或偏差,噪聲數(shù)據(jù)的主要表現(xiàn)形式有哪些?A、錯(cuò)誤數(shù)據(jù)B、虛假數(shù)據(jù)C、異常數(shù)據(jù)D、缺失數(shù)據(jù)E、正確無誤的數(shù)據(jù)答案:ABC168.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),下列哪些說法是正確的A、在卷積神經(jīng)網(wǎng)絡(luò)格中,池化層只能選擇最大池化,而不慍選其他放大B、卷積運(yùn)算的目的是提取輸入的不同特征,第一層卷積層可能只能提取一些低級(jí)的特征如邊緣、線條和角,更多層的網(wǎng)絡(luò)能從低級(jí)特征中迭代提取更復(fù)雜的特征C、全連接層把所有局部特征結(jié)合變成全局特征用來計(jì)算最后每一類的得分D、卷積神經(jīng)網(wǎng)絡(luò)中每層卷積層由若干卷積單元組成,每個(gè)卷積單元的參數(shù)都是通過反向傳播算法優(yōu)化得到的E、卷積層的參數(shù)數(shù)量總是比全連接層多,導(dǎo)致計(jì)算成本更高。答案:BCD169.以下不屬于通用機(jī)器學(xué)習(xí)整體流程的是哪些選項(xiàng)?A、模型部署與整合B、模型評(píng)估測(cè)試C、模型報(bào)告撰寫D、業(yè)務(wù)目標(biāo)分析E、用電量分析答案:CD170.選擇以下關(guān)于人工智能概念的正確表述A、人工智能旨在創(chuàng)造智能機(jī)器該題無法得分B、人工智能是研究和構(gòu)建在給定環(huán)境下表現(xiàn)良好的智能體程序該題無法得分C、人工智能將其定義為人類智能體的研究該題無法得分D、人工智能是為了開發(fā)一類計(jì)算機(jī)使之能夠完成通常由人類所能做的事該題無法得分E、人工智能等同于自動(dòng)化操作答案:ABD171.以下關(guān)于模型偏差和方差之間的組合,說法正確的有哪幾項(xiàng)?A、一個(gè)好的模型,方差和偏差都要求比較低B、高偏差+低方差,可能造成欠擬合C、低偏差+高方差可能造成欠擬合D、高偏差+高方差模型可以視為不良模型E、高偏差+高方差通常表示模型非常優(yōu)秀答案:ABD172.自然語言處理的難點(diǎn)不包括以下那兩項(xiàng)A、語言獨(dú)立性B、語言歧義性C、多國(guó)語言D、語境E、聯(lián)系上下文答案:AC173.機(jī)器學(xué)習(xí)的核心要素包括A、數(shù)據(jù)B、操作人員C、算法D、算力E、用戶體驗(yàn)答案:ACD174.拉框標(biāo)注通常用于自動(dòng)駕駛應(yīng)用中的A、行人標(biāo)注B、交通燈識(shí)別C、車道線標(biāo)注D、汽車識(shí)別E、標(biāo)志牌識(shí)別答案:ABDE175.在深度學(xué)習(xí)任務(wù)中,遇到數(shù)據(jù)不平衡問題時(shí),我們可以用以下哪些方法解決?A、批量刪除B、隨機(jī)過采樣C、合成采樣D、隨機(jī)欠采樣E、將所有數(shù)據(jù)放大答案:BCD176.當(dāng)使用機(jī)器學(xué)習(xí)建立模型的過程中,以下哪些屬于必備的操作A、模型構(gòu)建B、數(shù)據(jù)獲取C、特征選擇D、超參數(shù)調(diào)節(jié)E、模型合并答案:ABCD177.關(guān)于信噪比正確的理解是A、信號(hào)與噪聲之間的時(shí)間比B、越高越好C、對(duì)語音識(shí)別性能影響不大D、一般真實(shí)的語音識(shí)別場(chǎng)景中,采樣的音頻信噪比都很高E、越低越好答案:ACDE178.以下哪些選項(xiàng)可以創(chuàng)建全零常量Tensor?A、tf.zeros()B、tf.zeros_like()C、tf.zeros_array()D、_list()E、tf.ones()答案:AB179.以下那些方面是機(jī)器人能夠做到的A、醫(yī)療B、圍棋C、寫詩D、災(zāi)害后救災(zāi)行為E、瞬間移動(dòng)答案:ABC180.生物特征識(shí)別技術(shù)包括A、虹膜識(shí)別技術(shù)B、指紋識(shí)別C、DNA識(shí)別技術(shù)D、聲紋識(shí)別E、血型識(shí)別答案:ABCD181.以下屬于數(shù)據(jù)預(yù)處理步的是哪些選項(xiàng)?A、數(shù)據(jù)匯總,訓(xùn)練模型B、合并多個(gè)數(shù)據(jù)源數(shù)據(jù)C、處理數(shù)據(jù)缺失D、數(shù)據(jù)過濾E、僅使用原始數(shù)據(jù)無需處理答案:ACDE182.以下框圖順序正確的是A、從左到右,從上到下B、從左到右,從下到上C、大題-大題題號(hào)-小題-小題題號(hào)-答題區(qū)D、大題-小題-大題題號(hào)-小題題號(hào)-答題區(qū)E、一起框答案:AC183.SVM中常用的核函數(shù)包括哪此A、高核函數(shù)B、多項(xiàng)式核函數(shù)C、Sigmiod核函數(shù)D、線性核函數(shù)E、原子核函數(shù)答案:ABCD184.否定語句搭配正確的是()。A、notinB、innotC、notbetweenandD、isnotnull答案:ACD185.DELETE(DEL)鍵的功能是()。A、刪除光標(biāo)前一個(gè)字符B、與CTRL和ALT合用,完成熱啟動(dòng)C、刪除光標(biāo)上的字符D、與Backspace(退格鍵)功能相同E、與Shift鍵配合,可以一次刪除一行答案:BC186.并發(fā)操作可能會(huì)帶來的數(shù)據(jù)不一致性有()。A、丟失修改B、不可重復(fù)讀C、讀臟數(shù)據(jù)D、死鎖答案:ABC187.在SQL中提供的時(shí)間型數(shù)據(jù)類型可以是()。A、CHARB、DATEC、TIMED、ATA答案:BC188.視圖的作用主要有()。A、簡(jiǎn)化用戶的操作B、使用戶以多種角度看待同一數(shù)據(jù)C、為重構(gòu)數(shù)據(jù)庫(kù)提供了一定程序的邏輯獨(dú)立性D、對(duì)機(jī)密數(shù)據(jù)提供安全保護(hù)答案:ABCD189.下列計(jì)算機(jī)應(yīng)用領(lǐng)域中,()屬于輔助工程。A、CADB、AIC、AMD、CAT答案:ACD190.微機(jī)采用總線結(jié)構(gòu),總線按照作用的不同可以分為()。A、系統(tǒng)總線B、地址總線C、控制總線D、數(shù)據(jù)總線答案:BCD191.下列語句錯(cuò)誤的是()。A、select?fromorderswhereordernameisnotnull;B、select?fromorderswhereordername<>null;C、select?fromorderswhereordernameisnull;D、select?fromorderswhereordernamenotisnull;答案:BD192.機(jī)器翻譯的局限性在于()。A、訓(xùn)練樣本單一B、只能處理簡(jiǎn)單句C、基于已有的既成案例D、錯(cuò)誤較多答案:BC193.關(guān)于人工智能的概念,下列表述正確的有()。A、根據(jù)對(duì)環(huán)境的感知做出合理的行動(dòng),并獲得最大收益的計(jì)算機(jī)程序B、任何計(jì)算機(jī)程序都具有人工智能C、針對(duì)特定的任務(wù),人工智能程序都具有自主學(xué)習(xí)的能力D、人工智能程序和人類具有相同的思考方式答案:AC194.合并分E-R圖時(shí),分E-R圖之間的沖突主要有()。A、屬性沖突B、命名沖突C、主題沖突D、結(jié)構(gòu)沖突答案:ABD195.數(shù)據(jù)管理包含的管理活動(dòng)有()。A、識(shí)別B、度量C、監(jiān)控D、預(yù)警答案:ABCD196.在自然語言處理任務(wù)中,()技術(shù)適用于提高文本生成任務(wù)的多樣性和創(chuàng)造性。A、使用預(yù)訓(xùn)練模型B、GANC、注意力機(jī)制D、數(shù)據(jù)增強(qiáng)答案:ABCD197.目前外科手術(shù)領(lǐng)域的醫(yī)用機(jī)器人的優(yōu)點(diǎn)有()。A、定位誤差小B、手術(shù)創(chuàng)口小C、不需要人類醫(yī)生進(jìn)行操作D、能夠?qū)崟r(shí)監(jiān)控患者的情況答案:AB198.對(duì)于以記錄為單位的日志文件,需要登記的內(nèi)容包括()。A、各個(gè)事務(wù)的讀操作B、各個(gè)事務(wù)的開始標(biāo)記C、各個(gè)事務(wù)的結(jié)束標(biāo)記D、各個(gè)事務(wù)的所有更新操作答案:BCD199.()用卷積神經(jīng)網(wǎng)絡(luò)處理效果比較好。A、人臉識(shí)別B、手寫數(shù)字識(shí)別C、自然語言處理D、機(jī)器翻譯答案:AB200.機(jī)器智能種類包括()。A、機(jī)器動(dòng)作智能B、機(jī)器行為智能C、左右大腦加小腦功能D、機(jī)器語言智能答案:BC201.圖像數(shù)字化需要經(jīng)過的步驟包括()。A、采樣B、裁剪C、量化D、旋轉(zhuǎn)答案:AC202.在深度學(xué)習(xí)模型設(shè)計(jì)中,()技術(shù)適用于提高模型訓(xùn)練效率和準(zhǔn)確率。A、使用卷積神經(jīng)網(wǎng)絡(luò)B、數(shù)據(jù)增強(qiáng)C、批量歸一化D、使用ReLU激活函數(shù)答案:ABCD203.在深度學(xué)習(xí)模型訓(xùn)練中,()技術(shù)可以用于提高模型訓(xùn)練的穩(wěn)定性。A、批量歸一化B、梯度裁剪C、使用ReLU激活函數(shù)D、數(shù)據(jù)增強(qiáng)答案:AB204.調(diào)制解調(diào)器的通信速率有()規(guī)格。A、78kb/sB、22.8kb/sC、33.6kb/sD、56kb/s答案:BCD判斷題1.x=np.array([0,1,2,3,4])y=x[::-1]要將x和y相乘,如果np是導(dǎo)入的numpy庫(kù),使用的語句是np.dot(x,y)A、正確B、錯(cuò)誤答案:A2.使用pip命令安裝庫(kù)的時(shí)候,為了提高效率,有時(shí)會(huì)使用國(guó)內(nèi)鏡像安裝庫(kù),命令格式是pipinstall+庫(kù)名+-m+鏡像地址A、正確B、錯(cuò)誤答案:B3.python中如果導(dǎo)入cv2,如下python代碼cap=cv2.VideoCapture(‘video.mp4’)ret,frame=cap.read()返回值ret是布爾型,正確讀取則返回True,讀取失敗或讀取視頻結(jié)尾則會(huì)返回False。frame為最后一幀的圖像A、正確B、錯(cuò)誤答案:B4.孤?點(diǎn)并不真實(shí)存在,是?們?意中弄出的偏差?較?的數(shù)據(jù)。A、正確B、錯(cuò)誤答案:B5.感知機(jī)的運(yùn)作原理是邏輯判斷流程。A、正確B、錯(cuò)誤答案:B6.在公安經(jīng)偵領(lǐng)域通過對(duì)?絡(luò)敏感信息監(jiān)控?對(duì)管理,幫助公安經(jīng)濟(jì)偵查?作的開展和提供數(shù)據(jù)層?的?持。A、正確B、錯(cuò)誤答案:A7.GAN的全稱是指卷積神經(jīng)網(wǎng)絡(luò),是否正確?()A、正確B、錯(cuò)誤答案:B8.深度學(xué)習(xí)在人工智能領(lǐng)域表現(xiàn)并不突出。A、正確B、錯(cuò)誤答案:B9.相對(duì)于人工神經(jīng)元網(wǎng)絡(luò)和深度學(xué)習(xí),類腦人工智能對(duì)人類大腦的神經(jīng)回路具用更深入的理解。A、正確B、錯(cuò)誤答案:A10.對(duì)抗神經(jīng)網(wǎng)絡(luò)可以通過兩個(gè)神經(jīng)網(wǎng)絡(luò)的博弈,達(dá)到更好的學(xué)習(xí)效果。A、正確B、錯(cuò)誤答案:A11.人工智能算法是嚴(yán)格按照規(guī)則進(jìn)行股市交易的。A、正確B、錯(cuò)誤答案:A12.一般來說,回歸不能用于分類問題,但是Logistic回歸可用于解決分類問題,是否正確?()A、正確B、錯(cuò)誤答案:A13.人工智能是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的論、方法及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。A、正確B、錯(cuò)誤答案:A14.訓(xùn)練誤差會(huì)隨著模型復(fù)雜度的上升不斷減小A、正確B、錯(cuò)誤答案:A15.在解決函數(shù)優(yōu)化問題時(shí),基因遺傳算法的全局性不好,容易陷入局部最優(yōu)值。A、正確B、錯(cuò)誤答案:B16.一個(gè)實(shí)體指向它的屬性值。不同屬性類型對(duì)應(yīng)于不同類型屬性的邊。()A、正確B、錯(cuò)誤答案:A17.聯(lián)邦學(xué)習(xí)在保證數(shù)據(jù)隱私安全的前提下,利用不同數(shù)據(jù)源合作訓(xùn)練模型,進(jìn)步突破數(shù)據(jù)的瓶頸。A、正確B、錯(cuò)誤答案:A18.語音識(shí)別中,最簡(jiǎn)單的是特定人、小詞匯量、孤立詞的語音識(shí)別。A、正確B、錯(cuò)誤答案:A19.語音識(shí)別技術(shù)中最復(fù)雜最難解決的是,特定人、大詞匯量、連續(xù)語音識(shí)別。A、正確B、錯(cuò)誤答案:B20.監(jiān)督學(xué)習(xí)需要有大量標(biāo)注好的數(shù)據(jù)集來對(duì)模型進(jìn)行訓(xùn)練。A、正確B、錯(cuò)誤答案:A21.循環(huán)網(wǎng)絡(luò)神經(jīng)具有記憶功能A、正確B、錯(cuò)誤答案:A22.數(shù)據(jù)質(zhì)量的數(shù)據(jù)?致性是指在數(shù)據(jù)庫(kù)中,不同表中存儲(chǔ)和使?的同?數(shù)據(jù)應(yīng)當(dāng)是等價(jià)的,表?數(shù)據(jù)有相等的值和相同的A、正確B、錯(cuò)誤答案:A23.根據(jù)類別未知(沒有被標(biāo)記)的訓(xùn)練樣本解決模式識(shí)別中的各種問題,稱之為無監(jiān)督學(xué)習(xí)。A、正確B、錯(cuò)誤答案:A24.TensorF1ow沒有自帶的可視化工具,一般用戶會(huì)使用python庫(kù)matplotlib進(jìn)行可視化操作A、正確B、錯(cuò)誤答案:A25.應(yīng)用案例開發(fā)的經(jīng)典應(yīng)用開發(fā)過程包含模型評(píng)價(jià)A、正確B、錯(cuò)誤答案:A26.尋找最優(yōu)超參數(shù)費(fèi)時(shí)費(fèi)?,應(yīng)該在模型訓(xùn)練之前就指定最優(yōu)參數(shù)。A、正確B、錯(cuò)誤答案:B27.機(jī)器學(xué)習(xí)(包括深度學(xué)習(xí)分支)是研究“學(xué)習(xí)算法”的一門學(xué)問。A、正確B、錯(cuò)誤答案:A28.聚類需要從沒有標(biāo)簽的一組輸入向量中尋找數(shù)據(jù)的模型和規(guī)律。A、正確B、錯(cuò)誤答案:A29.關(guān)于語音識(shí)別中的一句話識(shí)別指的是,用于短語音的同步識(shí)別。一次性上傳整個(gè)音頻,響應(yīng)中即返回識(shí)別結(jié)果。A、正確B、錯(cuò)誤答案:A30.區(qū)折交叉驗(yàn)證是指將測(cè)試數(shù)據(jù)集劃分成區(qū)個(gè)子數(shù)據(jù)集。A、正確B、錯(cuò)誤答案:B31.專家系統(tǒng)模擬人類專家的知識(shí)和經(jīng)驗(yàn)解決特定領(lǐng)域的問題,實(shí)現(xiàn)了人工智能從理論研究走向?qū)嶋H應(yīng)用。A、正確B、錯(cuò)誤答案:A32.訓(xùn)練CNN時(shí),可以對(duì)輸入進(jìn)行旋轉(zhuǎn)、平移、縮放等預(yù)處理提高模型泛化能力。這種說法是否正確?()A、正確B、錯(cuò)誤答案:A33.pytorch通常需要用戶編寫自定義訓(xùn)練循環(huán),訓(xùn)練循環(huán)的代碼風(fēng)格因人而異。有3類典型的訓(xùn)練循環(huán)代碼風(fēng)格:腳本形式訓(xùn)練循環(huán),函數(shù)形式訓(xùn)練循環(huán),類形式訓(xùn)練循環(huán)。A、正確B、錯(cuò)誤答案:A34.所有的機(jī)器學(xué)習(xí)分類算法都屬于有監(jiān)督方法。A、正確B、錯(cuò)誤答案:A35.GPU擅長(zhǎng)計(jì)算密集和易于并行的程序。A、正確B、錯(cuò)誤答案:A36.智能家居應(yīng)該自動(dòng)感知周圍的環(huán)境,可以不需要人的操控。A、正確B、錯(cuò)誤答案:A37.k均值算法,是?種原型聚類算法。A、正確B、錯(cuò)誤答案:A38.自然界中生物變異的概率是不確定的,但是基因遺傳算法的變異概率可以人為調(diào)節(jié)。A、正確B、錯(cuò)誤答案:A39.學(xué)習(xí)率越小,訓(xùn)練速度越慢,最優(yōu)解越精確。A、正確B、錯(cuò)誤答案:A40.仿生算法是一類模擬自然生物進(jìn)化或者群體社會(huì)行為的隨機(jī)搜索方法的統(tǒng)稱。A、正確B、錯(cuò)誤答案:A41.傳統(tǒng)的機(jī)器學(xué)習(xí)方法的表現(xiàn)主要算法,目前的機(jī)器學(xué)習(xí)主要是強(qiáng)化學(xué)習(xí),具有自學(xué)習(xí)能力。A、正確B、錯(cuò)誤答案:A42.噪聲數(shù)據(jù)也可以?于數(shù)據(jù)挖掘進(jìn)?分析。A、正確B、錯(cuò)誤答案:B43.線性回歸主要?于解決回歸問題,其因變量是連續(xù)的值。A、正確B、錯(cuò)誤答案:A44.實(shí)體識(shí)別,它所解決的問題是如何匹配多個(gè)信息源在現(xiàn)實(shí)世界中的實(shí)體事物A、正確B、錯(cuò)誤答案:A45.語音增強(qiáng)的主要任務(wù)就是消除環(huán)境噪聲對(duì)語音的影響。A、正確B、錯(cuò)誤答案:A46.自然語言是人類創(chuàng)造,是一種為某些特定目的而創(chuàng)造的語言。A、正確B、錯(cuò)誤答案:B47.機(jī)器學(xué)習(xí)是深度學(xué)習(xí)的一部分。人工智能也是深度學(xué)習(xí)的一部分。A、正確B、錯(cuò)誤答案:B48.在以連接主義為慕礎(chǔ)的神經(jīng)網(wǎng)絡(luò)中,每個(gè)節(jié)點(diǎn)都能表達(dá)特定的意義。A、正確B、錯(cuò)誤答案:B49.機(jī)器學(xué)習(xí)算法在圖像識(shí)別領(lǐng)域的性能表現(xiàn)可能會(huì)超過?類。A、正確B、錯(cuò)誤答案:A50.Tensorflow2.x框架中的EagerExecution模式是一種聲明式編程A、正確B、錯(cuò)誤答案:B51.節(jié)點(diǎn)關(guān)系是指節(jié)點(diǎn)與節(jié)點(diǎn)之間的關(guān)系,通過包含與被包含關(guān)系區(qū)分。A、正確B、錯(cuò)誤答案:A52.計(jì)算機(jī)視覺是研究如何讓計(jì)算機(jī)“看”的科學(xué)。A、正確B、錯(cuò)誤答案:A53.多項(xiàng)式回歸當(dāng)中,模型的公式中存在平方項(xiàng),因此其不是線性的A、正確B、錯(cuò)誤答案:B54.空值是指缺失或不知道具體的值,可能是?條記錄中的某個(gè)屬性缺失,也可能是整條記錄都丟失。A、正確B、錯(cuò)誤答案:A55.人臉檢測(cè)服務(wù)在測(cè)試圖像中沒有人臉時(shí)會(huì)報(bào)錯(cuò)。A、正確B、錯(cuò)誤答案:B56.機(jī)器學(xué)習(xí)的學(xué)習(xí)方式是通過獲得經(jīng)驗(yàn)或歷史數(shù)據(jù)不斷改進(jìn)提高做某項(xiàng)任務(wù)的表現(xiàn)。A、正確B、錯(cuò)誤答案:A57.人臉?biāo)阉鞣?wù)中,如果想刪除某個(gè)人臉集,我們可以使用這樣的代碼:firs_cliet.get_face_set_service().delete_fac其中“**”是填入實(shí)際的人臉集名稱A、正確B、錯(cuò)誤答案:B58.數(shù)據(jù)不一致問題是指數(shù)據(jù)集中存在矛盾,有差異的記錄A、正確B、錯(cuò)誤答案:A59.語音轉(zhuǎn)換可以理解為如下語音處理過程:先通過語音識(shí)別將輸入語音轉(zhuǎn)換為文字,對(duì)文字進(jìn)行轉(zhuǎn)換,再將轉(zhuǎn)換之后的文字通過語音合成技術(shù)輸出新的語音。A、正確B、錯(cuò)誤答案:B60.神經(jīng)元受到足夠強(qiáng)度的刺激,才會(huì)響應(yīng)釋放出刺激其他神經(jīng)元的遞質(zhì),刺激不足不會(huì)有輸出。A、正確B、錯(cuò)誤答案:A61.fromAimportB是從模塊庫(kù)B中導(dǎo)入A模塊A、正確B、錯(cuò)誤答案:B62.人工神經(jīng)網(wǎng)絡(luò)是一直旨在模仿人腦結(jié)構(gòu)及其功能的信息處理系統(tǒng)。A、正確B、錯(cuò)誤答案:A63.聚類和分類的區(qū)別在于?于聚類的訓(xùn)練樣本的類標(biāo)記是未知的。A、正確B、錯(cuò)誤答案:A64.?般的,?棵決策樹包含?個(gè)根結(jié)點(diǎn)、若?個(gè)內(nèi)部結(jié)點(diǎn)和若?個(gè)葉結(jié)點(diǎn);葉結(jié)點(diǎn)對(duì)應(yīng)于決策結(jié)果,其他每個(gè)結(jié)點(diǎn)則對(duì)應(yīng)于?個(gè)屬性測(cè)試;根結(jié)點(diǎn)包含樣本全集。A、正確B、錯(cuò)誤答案:A65.列表是不可變對(duì)象,?持在原處修改。A、正確B、錯(cuò)誤答案:B66.在TensorFlow2.0中tf.contrib方法可以繼續(xù)使用A、正確B、錯(cuò)誤答案:B67.不同于基于關(guān)鍵詞搜索的傳統(tǒng)搜索引擎,知識(shí)圖譜可用來更好地查詢復(fù)雜的關(guān)聯(lián)信息,從語義層面理解用戶意圖,改進(jìn)搜索質(zhì)量。()A、正確B、錯(cuò)誤答案:A68.尺寸界線用細(xì)實(shí)線繪制,并應(yīng)由圖形的輪廓線、軸線或?qū)ΨQ中心線處引出,不可直接以這些線作為尺寸界線。A、正確B、錯(cuò)誤答案:B69.CNN的全稱是卷積神經(jīng)網(wǎng)絡(luò),是否正確?()A、正確B、錯(cuò)誤答案:A70.RNN循環(huán)神經(jīng)網(wǎng)絡(luò)是用來處理文本、視頻、音頻等序列數(shù)據(jù)。A、正確B、錯(cuò)誤答案:A71.在超參數(shù)搜索空間較大的情況下,采用隨機(jī)搜索,會(huì)優(yōu)于網(wǎng)絡(luò)搜索的效果。A、正確B、錯(cuò)誤答案:A72.二分類過程中,我們可將任意類別設(shè)為正例。A、正確B、錯(cuò)誤答案:A73.語音識(shí)別指的是將音頻數(shù)據(jù)識(shí)別為文本數(shù)據(jù)A、正確B、錯(cuò)誤答案:A74.最??乘法是基于預(yù)測(cè)值和真實(shí)值的均?差最?化的?法來估計(jì)線性回歸學(xué)習(xí)器的參數(shù)w和b。A、正確B、錯(cuò)誤答案:A75.由機(jī)器學(xué)習(xí)算法構(gòu)成的模型,在理論層面上,它并不能表征真的數(shù)據(jù)分布函數(shù),只是逼近它而已。A、正確B、錯(cuò)誤答案:A76.AI芯片也被稱為AI加速器,是專門用于處理人工智能應(yīng)用中的大量計(jì)算任務(wù)的功能模塊。A、正確B、錯(cuò)誤答案:A77.cd到你的python解釋器下的scripts中,可以使用pipinstall+(庫(kù)的名稱)安裝庫(kù)A、正確B、錯(cuò)誤答案:A78.逆文檔頻率值越大,重要性越大。A、正確B、錯(cuò)誤答案:A79.循環(huán)神經(jīng)網(wǎng)絡(luò)屬于一種特殊的遞歸結(jié)構(gòu),這句話是否正確()A、正確B、錯(cuò)誤答案:A80.機(jī)器的優(yōu)勢(shì)在于善于處理復(fù)雜的確定問題。A、正確B、錯(cuò)誤答案:A81.樸素貝葉算法不需要樣本特征之間的獨(dú)立同分布。A、正確B、錯(cuò)誤答案:B82.Sigmoid函數(shù)能夠把輸?的連續(xù)實(shí)值變換為0和1之間的輸出。A、正確B、錯(cuò)誤答案:A83.在使用圖像標(biāo)簽服務(wù)是,可以調(diào)用接口image_tagging_aksk(ak,sk,encode_to_base64(imc_tag_,5,60),Image_tagging_aksk)這個(gè)函數(shù)的前2個(gè)參數(shù)分別是ak和sk。第3個(gè)參數(shù)是圖俛出據(jù)護(hù)粒A、正確B、錯(cuò)誤答案:B84.人工智能學(xué)科研究的是如何使機(jī)器(計(jì)算器)具有智能或者說利用計(jì)算器實(shí)現(xiàn)智能的理論,方法和技術(shù)A、正確B、錯(cuò)誤答案:B85.FPGA是圖形處理器,是一種由大量運(yùn)算單元組成的大規(guī)模并行計(jì)算架構(gòu),專為同時(shí)處理多種任務(wù)而設(shè)計(jì)A、正確B、錯(cuò)誤答案:A86.強(qiáng)人工智能觀點(diǎn)認(rèn)為可能創(chuàng)造出真正推理和解決問題的智能機(jī)器。A、正確B、錯(cuò)誤答案:A87.孤?點(diǎn)的是不符合數(shù)據(jù)模型的數(shù)據(jù)。A、正確B、錯(cuò)誤答案:A88.感知機(jī)的運(yùn)作原理是邏輯判斷流程。A、正確B、錯(cuò)誤答案:B89.計(jì)算機(jī)視覺利用二維投影圖像來重構(gòu)三維物體的可視部分。A、正確B、錯(cuò)誤答案:A90.主成分分析也稱主分量分析,旨在利?降維的思想,把多指標(biāo)轉(zhuǎn)化為少數(shù)?個(gè)綜合指標(biāo)A、正確B、錯(cuò)誤答案:A91.啟發(fā)式算法與AlphaBeta剪枝類似,是從葉節(jié)點(diǎn)自底向上計(jì)算估值。A、正確B、錯(cuò)誤答案:B92.Tensorflow是一個(gè)用于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的端到端開源平臺(tái)。A、正確B、錯(cuò)誤答案:A93.現(xiàn)階段的人工智能仍處于弱人工智能階段A、正確B、錯(cuò)誤答案:A94.K折交叉驗(yàn)證的K值不屬于超參數(shù)A、正確B、錯(cuò)誤答案:B95.機(jī)器學(xué)習(xí)的含義是指機(jī)器面對(duì)自行為的修正或性能的改善和機(jī)器對(duì)客觀規(guī)律和發(fā)展。A、正確B、錯(cuò)誤答案:A96.我們所描述住房的時(shí)候,常用住宅面積,戶型,裝修類型等屬性,如果使用樸素貝葉斯作為模型的話,則我們假設(shè)屬性之間不存在關(guān)系。A、正確B、錯(cuò)誤答案:B97.數(shù)據(jù)的缺失值是指現(xiàn)有數(shù)據(jù)集中某個(gè)或某些屬性的值時(shí)不完整的。A、正確B、錯(cuò)誤答案:A98.邏輯回歸當(dāng)中也可以加入正則項(xiàng)用于避免過擬合。A、正確B、錯(cuò)誤答案:A99.多元函數(shù)的梯度是由偏導(dǎo)數(shù)組成的向量。A、正確B、錯(cuò)誤答案:A100.線性尺寸的數(shù)字一般注寫在尺寸線的下方或中斷處。A、正確B、錯(cuò)誤答案:B101.MLP的全稱是指卷積神經(jīng)網(wǎng)絡(luò),是否正確?()A、正確B、錯(cuò)誤答案:B102.類腦人工智能是指模擬人類大腦的人工智能。A、正確B、錯(cuò)誤答案:B103.情感語音方面的研究理論與方法尚不成熟,而人類情感具有復(fù)雜性和個(gè)性化的特點(diǎn),給其研究帶來諸多困難。A、正確B、錯(cuò)誤答案:A104.學(xué)習(xí)率越大,訓(xùn)練速度越快,最優(yōu)解越精確。A、正確B、錯(cuò)誤答案:B105.類腦人工智能及人工神經(jīng)網(wǎng)絡(luò)只是智能的一種形式。A、正確B、錯(cuò)誤答案:A106.對(duì)于回歸問題和分類問題,最常用的指標(biāo)都是準(zhǔn)確率和召回率嗎?()A、正確B、錯(cuò)誤答案:B107.處理空缺值的基本?法有6種,包括忽略元組、??填寫空缺值、使?全局常量替換空缺值、使?屬性的中?度量填充空缺值、使?與給定元組屬同?類的所有樣本的平均值來填充空缺值、使?最可能的值填充空缺值。A、正確B、錯(cuò)誤答案:A108.Pandas中利?merge函數(shù)合并數(shù)據(jù)表時(shí)默認(rèn)的是內(nèi)連接?式。A、正確B、錯(cuò)誤答案:A109.算法做出的價(jià)格往往比人做出的市場(chǎng)價(jià)格要合理。A、正確B、錯(cuò)誤答案:B110.人工智能讀片的方法之一是利用目標(biāo)檢測(cè)。A、正確B、錯(cuò)誤答案:A111.卷積神經(jīng)網(wǎng)絡(luò)中同一卷積層的所有卷積核是權(quán)重共享的A、正確B、錯(cuò)誤答案:A112.循環(huán)神經(jīng)網(wǎng)絡(luò)可以捕捉序列化數(shù)據(jù)中的動(dòng)態(tài)信息A、正確B、錯(cuò)誤答案:A113.線性回歸是?種有監(jiān)督機(jī)器學(xué)習(xí)算法,它使?真實(shí)的標(biāo)簽進(jìn)?訓(xùn)練。A、正確B、錯(cuò)誤答案:A114.查全率越?,意味著模型漏掉的樣本越少,當(dāng)假陰性的成本很?時(shí),查全率指標(biāo)有助于衡量模型的好壞。A、正確B、錯(cuò)誤答案:A115.RNN的全稱是卷積神經(jīng)網(wǎng)絡(luò),是否正確?()A、正確B、錯(cuò)誤答案:B116.學(xué)習(xí)率越大,訓(xùn)練速度越快,最優(yōu)解越精確。A、正確B、錯(cuò)誤答案:B117.訓(xùn)練集與驗(yàn)證集的樣本是不同的。A、正確B、錯(cuò)誤答案:A118.噪聲數(shù)據(jù)是指?個(gè)測(cè)量變量中的隨機(jī)錯(cuò)誤或偏差A(yù)、正確B、錯(cuò)誤答案:A119.常見的非結(jié)構(gòu)化數(shù)據(jù)主要是文本類的文章,即自然語言數(shù)據(jù)。A、正確B、錯(cuò)誤答案:A120.Tensoflow是當(dāng)下最流行的深度學(xué)習(xí)框架之一A、正確B、錯(cuò)誤答案:A121.為提升效率,大多數(shù)AI框架的核心功能模塊都是C++實(shí)現(xiàn)的A、正確B、錯(cuò)誤答案:A122.人工智能的四要素是數(shù)據(jù),算法,算力,場(chǎng)景。要滿足這四要素,我們需要將AI與云計(jì)算,大數(shù)據(jù)和物聯(lián)網(wǎng)結(jié)合,使其更好地服務(wù)社會(huì)。A、正確B、錯(cuò)誤答案:A123.計(jì)算機(jī)具有從圖像中識(shí)別物體的能力,但是圖像噪音較大時(shí)識(shí)別率不高。A、正確B、錯(cuò)誤答案:A124.計(jì)算機(jī)視覺的任務(wù)還包括人眼不擅長(zhǎng)的工作,例如圖像中涉及場(chǎng)景、人物的三維重建。與很多學(xué)科都有密切關(guān)系,例如數(shù)字圖像處理、模式識(shí)別、機(jī)器學(xué)習(xí)、計(jì)算機(jī)圖形學(xué)等。A、正確B、錯(cuò)誤答案:A125.只有符合社會(huì)倫理規(guī)范和公共政策的解決方案,才能設(shè)計(jì)出可信賴的人工智能。A、正確B、錯(cuò)誤答案:A126.決策樹學(xué)習(xí)是?種逼近離散值?標(biāo)函數(shù)的?法,學(xué)習(xí)到的函數(shù)被表?為?棵決策樹。A、正確B、錯(cuò)誤答案:A127.淘寶中我們輸入關(guān)鍵詞查看商品時(shí),會(huì)自動(dòng)搜索出很多和所搜商品相關(guān)聯(lián)的信息,這就是利用知識(shí)圖譜的典型案例。A、正確B、錯(cuò)誤答案:A128.卷積神經(jīng)網(wǎng)絡(luò)中的卷積層通常用于提取局部特征。A、正確B、錯(cuò)誤答案:A129.強(qiáng)人工智能觀點(diǎn)認(rèn)為可能創(chuàng)造出真正推理和解決問題的智能機(jī)器。A、正確B、錯(cuò)誤答案:A130.在各類機(jī)器學(xué)習(xí)算法中,過擬合和?擬合都是可以徹底避免的。A、正確B、錯(cuò)誤答案:B131.TensorFlow2.0中的Keras接口的三個(gè)主要優(yōu)勢(shì)是方便用戶使用,木塊話和可組合,易于擴(kuò)展A、正確B、錯(cuò)誤答案:A132.相比于傳統(tǒng)基于規(guī)則的方法,機(jī)器學(xué)習(xí)算法所應(yīng)對(duì)的問題規(guī)模大,規(guī)則比較簡(jiǎn)單A、正確B、錯(cuò)誤答案:B133.集合中的元素沒有特定順序但可以重復(fù)。A、正確B、錯(cuò)誤答案:B134.importsysass是導(dǎo)入庫(kù)s,別名是sysA、正確B、錯(cuò)誤答案:B135.tf.keras.Datasets可以查看keras中的內(nèi)置的數(shù)據(jù)集A、正確B、錯(cuò)誤答案:A136.線性回歸的損失函數(shù)加入L1正則項(xiàng),此時(shí)該回歸叫做Lasso回歸A、正確B、錯(cuò)誤答案:A137.fromPILimportImageimg=Image.open(os.path.join('images','2007_000648'+'.jpg'))gray=img.convert('1')最后一句代碼是將圖片轉(zhuǎn)化為二值圖像A、正確B、錯(cuò)誤答案:A138.層次聚類法數(shù)據(jù)集的劃分可采用“自下向上的聚合策略,也可以采用“自頂向下的分拆策略A、正確B、錯(cuò)誤答案:A139.在梯度分別為正負(fù)的兩個(gè)點(diǎn)之間,一定存在一個(gè)梯度為0的點(diǎn)。A、正確B、錯(cuò)誤答案:A140.TensorFlow2.0不支持tensor在GPU和CPU之間相互轉(zhuǎn)移A、正確B、錯(cuò)誤答案:B141.醫(yī)療健康領(lǐng)域,人工智能在醫(yī)學(xué)影像方面的應(yīng)用被認(rèn)為最不可能率先實(shí)現(xiàn)商業(yè)化。A、正確B、錯(cuò)誤答案:B142.深度學(xué)習(xí)是基于RNN循環(huán)神經(jīng)網(wǎng)絡(luò)。A、正確B、錯(cuò)誤答案:B143.若?條記

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論