版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
2024年人工智能技能競(jìng)賽考試題庫大全-下(多選、判斷題
匯總)
多選題
1.知識(shí)圖譜可以應(yīng)用到以下哪些場(chǎng)景中?
A、量子計(jì)算
B、搜索引擎
C、電影推薦
D、智能問答機(jī)器人
答案:BCD
2.關(guān)于《網(wǎng)絡(luò)安全法》,下列說法錯(cuò)誤的是()
A、國家實(shí)施網(wǎng)絡(luò)可信身份戰(zhàn)略,支持研究開發(fā)安全、方便的電子身份認(rèn)證技術(shù),
推動(dòng)不同電子身份認(rèn)證之間的互認(rèn)。
B、網(wǎng)絡(luò)產(chǎn)品、服務(wù)的提供者可以設(shè)置惡意程序
C、按照規(guī)定留存相關(guān)的網(wǎng)絡(luò)日志不少于一個(gè)月
D、網(wǎng)絡(luò)運(yùn)營者不得泄露、篡改、毀損其收集的個(gè)人信息
答案:BC
3.以下關(guān)于機(jī)器學(xué)習(xí)算法的描述中,哪些選項(xiàng)是正確的?
A、所謂“學(xué)習(xí)”是指:對(duì)于某類任務(wù)T和性能度量P,一個(gè)計(jì)算機(jī)程序在E上
以P衡量的性能隨著經(jīng)驗(yàn)
B、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)特定分支,要想充分理解深度學(xué)習(xí),必須對(duì)機(jī)器
學(xué)習(xí)的基本原理有深刻的理解。
C、根據(jù)學(xué)習(xí)過程中的不同經(jīng)驗(yàn),機(jī)器學(xué)習(xí)算法可以分為無監(jiān)督算法和監(jiān)督算法。
D、人類通過經(jīng)驗(yàn)歸納規(guī)律,機(jī)器學(xué)習(xí)算法也可以從歷史數(shù)據(jù)當(dāng)中挖掘規(guī)則。
E、而自我完善,那么我們稱這個(gè)計(jì)算機(jī)程序在從經(jīng)驗(yàn)E學(xué)習(xí)。
答案:ABD
4.CNN相比于全連接的DNN有哪些優(yōu)勢(shì)?()
A、參數(shù)更少
B、泛化更好
C、訓(xùn)練更快
D、更容易搭建
答案:ABC
5.人工智能項(xiàng)目開發(fā)過程中,技術(shù)經(jīng)理的職責(zé)是()
A、技術(shù)實(shí)施
B、項(xiàng)目進(jìn)度督導(dǎo)
C、技術(shù)選型
D、技術(shù)保障
答案:CD
6.3D重建技術(shù)適用于哪些應(yīng)用場(chǎng)景。()
A、城市建筑建模
B、VR/AR
C、自動(dòng)駕駛
D、元宇宙內(nèi)容建模
答案:ABD
7.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?
A、常用的池化方法有最大池化和平均池化
B、經(jīng)過池化的特征圖像變小了
C、池化層可以起到降維的作用
D、池化操作采用掃描窗口實(shí)現(xiàn)
答案:ABCD
8.無人超市的場(chǎng)景下,使用到的AI技術(shù)有哪些選項(xiàng)?
A、推薦算法
B、數(shù)據(jù)挖掘
C、計(jì)算機(jī)視覺
D、生物合成
答案:ABC
9.人工智能產(chǎn)品采用B/S架構(gòu),B/S架構(gòu)優(yōu)點(diǎn)是()。
A、只需要在服務(wù)端對(duì)模型進(jìn)行升級(jí)
B、用戶不用為每個(gè)AI應(yīng)用單獨(dú)安裝客戶端軟件
C、數(shù)據(jù)、計(jì)算都在云端,更安全
D、模型計(jì)算在客戶端計(jì)算機(jī)上
答案:ABC
10.哪些項(xiàng)不屬于使用池化層相比于相同步長(zhǎng)的卷積層的優(yōu)勢(shì)?()
A、參數(shù)更少
B、可以獲得更大下采樣
C、速度更快
D、有助于提升精度
答案:BCD
11.以下哪些項(xiàng)是單層感知機(jī)和邏輯回歸的主要區(qū)別?
A、激活函數(shù)
B、優(yōu)化方法
C、損失函數(shù)
D、處理的任務(wù)
答案:AC
12.下列對(duì)早期的全連接方式不適用于圖像特征提取的說法,哪些選項(xiàng)是正確
的?
A、容易過擬合
B、參數(shù)數(shù)量太多
C、計(jì)算速度快
D、充分利用像素間的位置信息
答案:ABC
13.以下關(guān)于異騰Al軟件棧的通用引擎描述,錯(cuò)誤的是哪些選項(xiàng)?
A、提供視頻或圖像處理的算法封裝
B、為異騰Al提供計(jì)算資源
C、提供通用的神經(jīng)網(wǎng)絡(luò)推理能力
D、支持在線和離線模型的加速模型
答案:ABCD
14.(_)由兩個(gè)簇的最近樣本決定,(_)由兩個(gè)簇的最遠(yuǎn)樣本決定,(_)由兩
個(gè)簇的所有樣本共同決定。
A、樣本距離
B、最小距離
C、最大距離
D、平均距離
答案:BCD
15.HMSCore支持以下哪些操作系統(tǒng)?
A、ndroid
B、HarmonyOS
C、Windows
D、IOS
答案:ABCD
16.(),是模型測(cè)試評(píng)估方案里的內(nèi)容。
A、測(cè)試方法的制定
B、測(cè)試環(huán)境的搭建
C、測(cè)試指標(biāo)的制定
D、測(cè)試數(shù)據(jù)集的制作
答案:ABD
17.人臉?biāo)阉鞣?wù)調(diào)用成功時(shí)返回的結(jié)果中包含下列哪些項(xiàng)?
A、搜索出的人臉相似度
B、搜索出的人臉id
C、搜索出的人臉位置
D、搜索出的人臉序號(hào)
答案:ABC
18.常見的圖像樣本擴(kuò)增方式有()。
A、形狀變換
B、顏色變換
C、加噪
D、遮掩
答案:ABCD
19.以下哪些選項(xiàng)屬于HMSCore中提供的AI能力?
A、MLKit
B\HiAlEngine
C、MindSporeLite
D、HiAIFoundation
答案:BD
20.下面哪些操作不能把字母上的空洞補(bǔ)上()。
A、膨脹運(yùn)算
B、腐蝕運(yùn)算
C、開運(yùn)算
D、閉運(yùn)算
答案:ABC
21.常見的插補(bǔ)缺失值方法有()。
A、均值插補(bǔ)
B、同類均值插補(bǔ)
G多重插補(bǔ)
D、極大似然估計(jì)
答案:ABCD
22.下列選項(xiàng)中屬于keras下estimator封裝的方法有?
A、評(píng)估
B、訓(xùn)練
C、預(yù)測(cè)
D、輸出模型
答案:ABCD
23.對(duì)圖像生成模型描述正確的是()。
A、圖像生成模型是通過特征轉(zhuǎn)換為圖像
B、圖像生成模型是通過圖像轉(zhuǎn)化為特征
C、圖像生成模型是無監(jiān)督學(xué)習(xí)
DxGAN是生成模型
答案:ACD
24.OpenAI的DALLE模型用到了哪些人工智能技術(shù)。()
A、圖像識(shí)別
B、自然語義
C、圖像生成
D、語音識(shí)別
答案:BC
25.以下關(guān)于解決問題方法的描述中,哪些選項(xiàng)是正確的?
A、人工規(guī)則適用于解決問題規(guī)模小,規(guī)則復(fù)雜度高的問題
B、機(jī)器學(xué)習(xí)算法適用于解決問題規(guī)模大,規(guī)則復(fù)雜度高的問題
C、基于規(guī)則的算法適用于問題規(guī)模大,規(guī)則復(fù)雜度低的問題
D、問題規(guī)模大,規(guī)則復(fù)雜度低的問題屬于簡(jiǎn)單問題
答案:ABC
26.人工智能模型開發(fā)過程中,數(shù)據(jù)方案包括()內(nèi)容
A、數(shù)據(jù)采集
B、數(shù)據(jù)清洗
C、數(shù)據(jù)標(biāo)注
D、數(shù)據(jù)增強(qiáng)
答案:ABCD
27.在一個(gè)完整的多人臉識(shí)別算法中,通常包括哪些必要的技術(shù)步驟()
A、人臉關(guān)鍵點(diǎn)定位
B、人臉檢測(cè)
C、人臉特征提取
D、人臉特征對(duì)比
答案:BCD
28.現(xiàn)代計(jì)算機(jī)的CPU是由()、()和()組成。
A、超導(dǎo)單兀
B、控制單元
C\存儲(chǔ)單元
D、輸入輸出單元
答案:ABC
29.層次聚類試圖在不同層次對(duì)數(shù)據(jù)集進(jìn)行劃分。這里數(shù)據(jù)集的劃分可采用(_)
或(_)策略。
A、自頂向下
B、自底向上
C、自左至右
D、自右至左
答案:AB
30.3D點(diǎn)云數(shù)據(jù)不包含()的信息。
A、線
B、點(diǎn)
C、面
D、體
答案:ACD
31.以下關(guān)于LSTM的描述,正確的是哪幾項(xiàng)?
A、門可以選擇性地以讓信息通過它們由Sigm。id神經(jīng)網(wǎng)絡(luò)層和逐點(diǎn)乘法運(yùn)算組
成
B、LSTM可以通過“門”的精細(xì)結(jié)構(gòu)向細(xì)胞狀態(tài)添加或移除信息
C、LSTM的關(guān)鍵健是細(xì)胞狀態(tài),細(xì)胞狀態(tài)貫穿整個(gè)鏈條,只有一些次要的線性交
互作用,信息很容易以不變的方式流過
D、LSTM有兩種門用來保持和控制細(xì)胞狀態(tài):遺忘門和輸入門
答案:ABCD
32.下列關(guān)于BP網(wǎng)絡(luò)說法正確的是(_)。
A、標(biāo)準(zhǔn)BP算法每次僅針對(duì)一個(gè)訓(xùn)練樣例更新連接權(quán)和閾值
B、P神經(jīng)網(wǎng)絡(luò)經(jīng)常遭遇過擬合
C、早停策略可用來緩解BP網(wǎng)絡(luò)的過擬合問題
D、晚停策略可用來緩解BP網(wǎng)絡(luò)的欠擬合問題
答案:ABC
33.數(shù)據(jù)產(chǎn)品的存在和表現(xiàn)形式有(_)和數(shù)據(jù)類產(chǎn)品。
A、情感類產(chǎn)品
B、信息類產(chǎn)品
C、知識(shí)類產(chǎn)品
D、智慧類產(chǎn)品
答案:BCD
34.以下哪些選項(xiàng)屬于HarmonyOS的關(guān)鍵能力?
A、MLKit
B、分布式能力
C\HMSCore
D、萬能卡片
答案:ABCD
35.TensorFIow中keras模塊的內(nèi)置優(yōu)化器有?
A、daboost
B、SGD
GAdadeIta
D、Adam
答案:BCD
36.華為云可提供的Al服務(wù)有以下哪幾項(xiàng)?
A、文本識(shí)別OCR
B、語音交互
C、圖引擎服務(wù)
D、圖像搜索
答案:ABCD
37.評(píng)判分類模型的F1值是以下哪些指標(biāo)的調(diào)和均值?
A、精確度(precision)
B、有效率(validity)
G準(zhǔn)確率(accuracy)
D、召回率(reca11)
答案:AD
38.框A面積為30,框B面積為20,兩個(gè)框可能的I0U值有()
Ax1/3
B、0
C、1
D、2/3
答案:ABD
39.下面屬于數(shù)據(jù)科學(xué)主要研究?jī)?nèi)容的有(_)。
A、理論基礎(chǔ)
B、數(shù)據(jù)加工
C、數(shù)據(jù)計(jì)算
D、數(shù)據(jù)產(chǎn)品開發(fā)
答案:BCD
40.機(jī)器學(xué)習(xí)一般可分為以下哪些類型
A、監(jiān)督學(xué)習(xí)
B、半監(jiān)督學(xué)習(xí)
C、無監(jiān)督學(xué)習(xí)
D、強(qiáng)化學(xué)習(xí)
答案:ABCD
41.MindSpore提供了自動(dòng)對(duì)圖像進(jìn)行增強(qiáng)處理的機(jī)制,可以實(shí)現(xiàn)算子的自動(dòng)選
擇和執(zhí)行,達(dá)到提升訓(xùn)練精度的目的,以下哪些機(jī)制是正確的?
A、基于反饋的自動(dòng)數(shù)據(jù)增強(qiáng)
B、基于精度的自動(dòng)數(shù)據(jù)增強(qiáng)
C、基于概率的自動(dòng)數(shù)據(jù)增強(qiáng)
D、基于魯棒性的自動(dòng)數(shù)據(jù)增強(qiáng)
答案:AC
42.以下關(guān)于異騰Al軟件棧的通用引擎描述,錯(cuò)誤的是哪些選項(xiàng)?
A、提供通用的神經(jīng)網(wǎng)絡(luò)推理能力
B、提供視頻或圖像處理的算法封裝.
C、為異騰Al提供計(jì)算資源.
D、支持在線和離線模型的加速計(jì)算
答案:AD
43.數(shù)據(jù)戰(zhàn)略的基本問題有(_)。
A、數(shù)據(jù)戰(zhàn)略的定位
B、數(shù)據(jù)戰(zhàn)略的目標(biāo)
C、數(shù)據(jù)戰(zhàn)略的側(cè)重點(diǎn)
D、數(shù)據(jù)戰(zhàn)略的范疇
答案:ABCD
44.人工智能項(xiàng)目開發(fā)流程包括()
A、需求分析
B、模型研發(fā)
C、實(shí)施部署
D、文檔交付
答案:ABCD
45.深度學(xué)習(xí)可進(jìn)一步分為(_)o
A、無監(jiān)督和生成式學(xué)習(xí)深度網(wǎng)絡(luò)
B、半監(jiān)督深度神經(jīng)網(wǎng)絡(luò)
C、監(jiān)督學(xué)習(xí)深度網(wǎng)絡(luò)
D、混合深度網(wǎng)絡(luò)
答案:ACD
46.數(shù)據(jù)科學(xué)的基本流程包含(_)。
A、數(shù)據(jù)可視化
B、數(shù)據(jù)加工
C、數(shù)據(jù)化
D、數(shù)據(jù)洞見
答案:BCD
47.下列屬于噪聲數(shù)據(jù)消除噪聲的常用方法的是()o
A、分箱
B、生成
C、回歸
D、孤立點(diǎn)分析
答案:ACD
48.以下那幾項(xiàng)是華為云EI提供的入侵識(shí)別服務(wù)的特點(diǎn)?
A、高人工成本
B、圖靈活性
C、懸)易用性
D、低誤振率
答案:BCD
49.分類模型的誤差包括(_)。
A、訓(xùn)練誤差
B、泛化誤差
C、再代入誤差
D、表現(xiàn)誤差
答案:ABC
50.管理非結(jié)構(gòu)化數(shù)據(jù)常采用(一)。
A、NoSQL
B、NewSQL
C、關(guān)系云技術(shù)
D、關(guān)系數(shù)據(jù)庫技術(shù)
答案:ABC
51.寫字樓人臉閘機(jī)使用時(shí)的人臉識(shí)別效果不佳,可能的主要因素有()。
A、光線角度問題
B、網(wǎng)絡(luò)問題
C、面部遮擋問題
D、人臉相似度過大
答案:ABC
52.大數(shù)據(jù)“涌現(xiàn)”現(xiàn)象有(一)。
A、價(jià)值涌現(xiàn)
B、質(zhì)量涌現(xiàn)
C、隱私涌現(xiàn)
D、數(shù)量涌現(xiàn)
答案:ABC
53.下面哪些是循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出模式(_)。
A、多輸出
B、單輸出
C、同步多輸出
D\異步多輸出
答案:ABD
解析:循環(huán)神經(jīng)網(wǎng)絡(luò)是遞歸的,不可能同步多輸出。
54.一個(gè)交叉驗(yàn)證將數(shù)據(jù)集分成兩個(gè)互補(bǔ)的子集,分別是(_)和(_)。
A、訓(xùn)練集
B、測(cè)試集
C、子集
D、補(bǔ)集
答案:AB
55.下面對(duì)正確率計(jì)算正確的是()
A、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本正確10
個(gè),正確率為18/25
B、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本錯(cuò)誤10
個(gè),正確率為7/25
C、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本正確8個(gè),預(yù)測(cè)負(fù)樣本正確10
個(gè),正確率為18/25
D、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本正確10
個(gè),正確率為12/25
答案:BCD
56.圖像數(shù)據(jù)擴(kuò)增的目的是()。
A、增加樣本數(shù)據(jù)量
B、增加樣本多樣性
C、加快模型收斂
D、提高模型泛化指標(biāo)
答案:ABD
57.下面屬于范數(shù)規(guī)則化的作用的是(_)和(_)。
A、保證模型盡可能的簡(jiǎn)單,避免過擬合
B、約束模型特征
C、最小化問題
D、最大化問題
答案:AB
58.目前,機(jī)器學(xué)習(xí)領(lǐng)域所面臨的主要挑戰(zhàn)包括().
A、過擬合
B、維度災(zāi)難
C、特征工程
D、算法的可擴(kuò)展性
答案:ABCD
59.華為云ModelArts中有AIGallery,可以提供以下哪些內(nèi)容?
A、Notebook
B、預(yù)置算法
C、IDE
D、數(shù)據(jù)集
答案:BD
60.關(guān)于神經(jīng)元的敘述,哪些是正確的()
A、每個(gè)神經(jīng)元可以有一個(gè)輸入和一個(gè)輸出
B、每個(gè)神經(jīng)元可以有多個(gè)輸入和一個(gè)輸出
C、每個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出
D、每個(gè)神經(jīng)元可以有多個(gè)輸出和一個(gè)輸入
答案:ABCD
解析:神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)。
61.下面對(duì)錯(cuò)誤率計(jì)算正確的是()
A、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本正確10
個(gè),錯(cuò)誤率為8/25
B、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本錯(cuò)誤10
個(gè),錯(cuò)誤率為18/25
C、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本正確8個(gè),預(yù)測(cè)負(fù)樣本正確10
個(gè),錯(cuò)誤率為18/25
D、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本正確10
個(gè),錯(cuò)誤率為13/25
答案:BD
62.哪些目錄是ME模塊組件包含的?
A、cmake
B、model
C、train
D、mm
答案:BC
63.人工智能產(chǎn)品采用B/S架構(gòu),B和S分別代表()。
A、客戶端
B、網(wǎng)頁端
C、服務(wù)端
D、數(shù)據(jù)端
答案:BC
64.Transformer網(wǎng)絡(luò)結(jié)構(gòu)中,包含()子網(wǎng)絡(luò)結(jié)構(gòu)
A、CNN
B、RNN
C、MLP
D、ATTENTION
答案:CD
65.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的敘述中正確的是()。
A、可用于處理時(shí)間序列數(shù)據(jù)
B、可用于處理圖像數(shù)據(jù)
C、卷積網(wǎng)絡(luò)中使用的卷積運(yùn)算就是數(shù)學(xué)中的卷積計(jì)算
D、至少在網(wǎng)絡(luò)的一層中使用卷積
答案:ABD
解析:神經(jīng)網(wǎng)絡(luò)中的卷積:我們通常是指由多個(gè)并行卷積組成的運(yùn)算。(因?yàn)閱?/p>
個(gè)核只能特區(qū)一種類型的特征,我們usually希望可以在多個(gè)位置提取多個(gè)特征)
輸入也不僅僅是實(shí)值的網(wǎng)格,而是由一系列觀測(cè)數(shù)據(jù)的向量構(gòu)成的網(wǎng)格。我們有
的時(shí)候會(huì)希望跳出核中的一些位置來降低計(jì)算的開銷(相應(yīng)的代價(jià)是提取特征沒
有先前那么好了)我們就把這個(gè)過程看作對(duì)全卷積函數(shù)輸出的下采樣(downslin
g)■如果只是在輸出的每個(gè)方向上每間隔s個(gè)像素進(jìn)行采樣,那么可重新定義一
個(gè)下采樣卷積函數(shù)。我們把s稱為下采樣卷積的步幅(stride)。在任何卷積網(wǎng)
絡(luò)的實(shí)現(xiàn)中都有一個(gè)重要性質(zhì):能夠隱含地對(duì)輸入V用零進(jìn)行填充(pad)使得
它加寬。數(shù)學(xué)中的卷積:考慮到函數(shù)千和g應(yīng)該地位平等,或者說變量x和y
應(yīng)該地位平等,一種可取的辦法就是沿直線x+y=t卷起來。
66.(_)不屬于推斷統(tǒng)計(jì)的方法。
A、區(qū)間估計(jì)
B、參數(shù)估計(jì)
C、假設(shè)檢驗(yàn)
D、相關(guān)分析
答案:AD
67.在隨機(jī)森林中,最終的集成模型是通過什么策略決定模型結(jié)果?
A、累加制
B、求平均數(shù)
C、投票制
D、累乘制
答案:BC
68.模型欠擬合的時(shí)候,則()
A、擴(kuò)大網(wǎng)絡(luò)規(guī)模,防止欠擬合
B、擴(kuò)大模型參數(shù),防止欠擬合
C、縮小網(wǎng)絡(luò)規(guī)模,防止欠擬合
D、縮小模型參數(shù),防止欠擬合
答案:AB
69.下列哪些數(shù)據(jù)通常被認(rèn)為是連續(xù)型數(shù)據(jù)?()
A、身高
B、性別
C、體重
D、腰圍
答案:ACD
70.埃隆馬斯克的SpaceX公司發(fā)明了火箭回收技術(shù),假設(shè)該技術(shù)是用強(qiáng)化學(xué)習(xí)來
設(shè)計(jì)的,那么火箭回收的時(shí)候,環(huán)境指()
A、火箭周圍的風(fēng)向
B、火箭的姿態(tài)
C、火箭的位置信息
D、火箭的控制系統(tǒng)
答案:ABC
71.以下()屬于常見語音數(shù)據(jù)異常。
A、丟幀
B、噴麥
C、重音
D、音調(diào)較高
答案:ABC
72.數(shù)據(jù)科學(xué)的基本流程包含(_)。
A、數(shù)據(jù)化
B、探索性分析
C、數(shù)據(jù)分析
D、數(shù)據(jù)存儲(chǔ)
答案:ABC
73.常見的臟數(shù)據(jù)的類型有哪些?
A、邏輯錯(cuò)誤的值
B、重復(fù)值
C、缺失值
D、格式錯(cuò)誤的值
答案:ABCD
74.Feigenbaum等人在著名的《人工智能手冊(cè)》中將機(jī)器學(xué)習(xí)劃分為機(jī)械學(xué)習(xí)和
(_)四種。
A、深度學(xué)習(xí)
B、示教學(xué)習(xí)
C、類比學(xué)習(xí)
D、歸納學(xué)習(xí)
答案:BCD
75.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)比較容易出現(xiàn)過擬合問題,以下哪些選項(xiàng)可能導(dǎo)致過擬合
問題?
A、使用Sigmoid激活函數(shù)
B、隱藏層數(shù)過多
C、數(shù)據(jù)集樣本數(shù)目少
D、使用正則項(xiàng)
答案:AB
76.以下關(guān)于線性回歸的描述中,哪些選項(xiàng)是錯(cuò)誤的?
A、線性回歸中誤差受到眾多因素獨(dú)立影響,根據(jù)中心極限定律,誤差服從正態(tài)
分布。
B、多元線性回歸分析出來的一定是高維空間中的一條直線。
C、由于算法復(fù)雜度,線性回歸無法使用梯度下降的方法求出當(dāng)損失函數(shù)達(dá)到最
小的時(shí)候的權(quán)重參數(shù)。
D、根據(jù)正態(tài)分布函數(shù)與最大似然估計(jì),可以求出線性回歸的損失函數(shù)。
答案:BC
77.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?
A、池化操作采用掃描窗口實(shí)現(xiàn)
B、池化層可以起到降維的作用
C、常用的池化方法有最大池化和平均池化
D、經(jīng)過池化的特征圖像變小了
答案:ABCD
78.以下哪些方法是tf-idf的變種?()
A、TFC
B、EWC
C、ITC
D、IG
答案:AC
79.華為云提供的自然語言處理(NaturaILanguageProcessing)服務(wù)可以應(yīng)用于
以下哪些場(chǎng)景?
A、機(jī)器翻譯
B、智能問答
C、語義搜索
D、輿情分析
答案:ACD
80.下列哪些變換屬于仿射變換。()
A\平移
B、旋轉(zhuǎn)
C、錯(cuò)切
D、縮放
答案:ABCD
81.使用人工智能技術(shù)監(jiān)控電梯間電動(dòng)車駛?cè)氲膬?yōu)勢(shì)有()
A、發(fā)現(xiàn)電梯間駛?cè)腚妱?dòng)車,及時(shí)告警并通知物業(yè)人員
B、提高工作監(jiān)管效率
C、后臺(tái)可隨時(shí)查看統(tǒng)計(jì)記錄,回看違規(guī)事件
答案:ABC
82.已知全連接神經(jīng)網(wǎng)絡(luò)的某一層的參數(shù)總量為330,則上一層和本層的神經(jīng)元
數(shù)量可能為?
A、32和10
B、10和33
G33和10
D、9和33
答案:BC
83.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),下列哪些說法是正確的?
A、在卷積神經(jīng)網(wǎng)絡(luò)格中,池化層只能選擇最大池化,而不韻選擇其他方法。
B、卷積運(yùn)算的目的是提取輸入的不同特征,第一層卷積層可能只能提取一些低
級(jí)的特征如邊緣、線條和角,更多層的網(wǎng)絡(luò)能從低級(jí)特征中迭代提取更復(fù)雜的特
征。
C、全連接層把所有局部特征結(jié)合變成全局特征用來計(jì)算最后每一類的得分。
D、卷積神經(jīng)網(wǎng)絡(luò)中每層卷積層由若干卷積單元組成,每個(gè)卷積單元的參數(shù)都是
通過反向傳播算法優(yōu)化得到的。
答案:BCD
84.以下哪些方法可以減少過擬合的問題?
A、添加L1或L2正則懲訓(xùn)項(xiàng)
B、提前停止訓(xùn)練
C、使用Dropout方法隨機(jī)丟棄一部分輸入
D、擴(kuò)充數(shù)據(jù)集,引入噪聲
答案:ABCD
85.下列哪些操作會(huì)使得圖像變模糊。()
A、去掉低頻信號(hào),保留高頻信號(hào)
B、去掉高頻信號(hào),保留低頻信號(hào)
C、使用高斯核對(duì)圖像進(jìn)行卷積運(yùn)算
D、使用拉普拉斯核對(duì)圖像進(jìn)行卷積運(yùn)算
答案:BC
86.下列哪些是主流的圖像語義分割模型。()
A、DeepLab
B、UNET
GMaskRCNN
D、FasterRCNN
答案:ABC
87.市面上哪些產(chǎn)品使用了語音識(shí)別技術(shù)。()
A、小米的小愛機(jī)器人
B、喜馬拉雅APP小說智能閱讀
C、微信的語音轉(zhuǎn)寫
D、抖音短視頻AI配音
答案:AC
88.適用于推薦系統(tǒng)的業(yè)務(wù)場(chǎng)景的有()。
A、新聞分發(fā)
B、電商首頁商品展示
C、短視頻推送
D、電商商品自動(dòng)評(píng)價(jià)
答案:ABC
89.以下哪些選項(xiàng)屬于Keras的設(shè)計(jì)原則?
A、模塊性
B、用戶友好
G與Python協(xié)作
D、易擴(kuò)展性
答案:ABCD
90.數(shù)據(jù)采集的方法包括()
A、互聯(lián)網(wǎng)數(shù)據(jù)采集
B、眾包'行業(yè)合作
C、各種傳感器數(shù)據(jù)
D、商業(yè)設(shè)計(jì)
答案:ABC
91.深度學(xué)習(xí)中以下哪些步驟是由模型自動(dòng)完成的?
A、模型訓(xùn)練
B、特征選擇
C、分析定位任務(wù)
D、特征提取
答案:AD
92.以下哪些項(xiàng)是典型的序列數(shù)據(jù)?
A、股票市場(chǎng)中的價(jià)格走勢(shì)
B、語音里的音頻內(nèi)容
C、文章里的文字內(nèi)容
D、視頻中的圖像幀
答案:ABCD
93.在機(jī)器學(xué)習(xí)算法當(dāng)中,以下哪幾類問題是算法要去解決的主要問題?
A、分類問題
B、聚類問題
C、強(qiáng)化問題
D、回歸問題
答案:ABD
94.馮■諾伊曼被人們稱為“()”和“()”。
A、博弈論之父
B、計(jì)算機(jī)之父
C、人工智能之父
D、深度學(xué)習(xí)之父
答案:AB
95.采集數(shù)據(jù)的質(zhì)量主要考慮下列哪些方面?()
A、數(shù)據(jù)量
B、多樣性
C\覆蓋面
D、均衡性
答案:ABCD
96.Adam優(yōu)化器可以看做是以下哪幾項(xiàng)的結(jié)合?
A、Momentum
B、Adagrad
C、Nesterov
D、RMSprop
答案:ABD
97.循環(huán)神經(jīng)網(wǎng)絡(luò)主要被應(yīng)用于哪些場(chǎng)景。()
A、語音識(shí)別
B、語音建模
C、機(jī)器翻譯
D、圖像識(shí)別
答案:ABC
98.以下關(guān)于數(shù)據(jù)集的描述中,哪些選項(xiàng)是正確的?
A、數(shù)據(jù)集一般由多個(gè)維度構(gòu)成,任一維度反映樣本在某方面的表現(xiàn)或性質(zhì)的事
項(xiàng)或?qū)傩?,被稱為特征。
B、從機(jī)器學(xué)習(xí)流程角度看,驗(yàn)證集和測(cè)試集本質(zhì)上是一樣的。
C、學(xué)得模型后,使用其進(jìn)行預(yù)測(cè)的過程稱為測(cè)試,使用的數(shù)據(jù)集稱為測(cè)試集,
每個(gè)樣本稱為測(cè)試樣本。
D、一般會(huì)將數(shù)據(jù)集分為訓(xùn)練集、驗(yàn)證機(jī)和測(cè)試集。
答案:ABCD
99.MindSpore模型在訓(xùn)練完成后,可以部署在以下哪些選項(xiàng)?
A、tIas800
B、華為云ECS
C、AtIas300TPro
D、HUAWEIMate50Pro
答案:CD
100.于機(jī)器學(xué)習(xí)模型性能評(píng)估的說法,以下哪些選項(xiàng)是正確的?
A、通過分類模型的混淆矩陣,可以計(jì)算準(zhǔn)確率,錯(cuò)誤率,召回率,差準(zhǔn)率,F1值等
各種信息
B、回模型股可以使用MAE或MSE進(jìn)行評(píng)估
C、分類模型一般可以結(jié)合混淆矩陣進(jìn)行評(píng)估
D、聚類模型沒有性能評(píng)估方法
答案:ABC
101.有兩種策略常用來緩解BP網(wǎng)絡(luò)的過擬合,分別是()和()。
A、晚停
B、早停
G正則化
D、加入損失函數(shù)
答案:BC
解析:通常有兩種策略來緩解BP網(wǎng)絡(luò)的過擬合。第一種策略是早停(earlystop
ping):將數(shù)據(jù)分成訓(xùn)練集合驗(yàn)證集,訓(xùn)練集用來計(jì)算梯度、更新連接權(quán)和閾值,
驗(yàn)證集用來估計(jì)誤差,若訓(xùn)練集誤差降低但驗(yàn)證集誤差升高,則停止訓(xùn)練,同時(shí)
返回具有最小驗(yàn)證集誤差的連接權(quán)和閾值。第二種策略是正則化(regularizati
on),其基本思想是在誤差目標(biāo)函數(shù)中增加一個(gè)用于描述網(wǎng)絡(luò)復(fù)雜度的部分,例如
連接權(quán)和閾值的平方和。
102.正則化是傳統(tǒng)機(jī)器學(xué)習(xí)中重要且有效的減少泛化誤差的技術(shù),以下技術(shù)屬于
正則化技術(shù)的是?
A、動(dòng)量?jī)?yōu)化器
B、L2正則化
C、Dropout
D、L1正則化
答案:BCD
103.常見的圖像顏色空間格式有()。
A、RGB
B、HSV
C\gray
D、YUV
答案:ABCD
104.下面屬于詞袋模型的缺點(diǎn)的是?()
A、詞匯表的詞匯需要經(jīng)過精心設(shè)計(jì)
B、表示具有稀疏性
C、丟失詞序忽略了上下文
D、模型復(fù)雜,不利于實(shí)施
答案:ABC
105.下列哪些屬于AI的子領(lǐng)域?
A、機(jī)器學(xué)習(xí)
B、計(jì)算機(jī)視覺
C、語音識(shí)別
D、自然語言處理
答案:ABCD
106.從方法論角度,基于統(tǒng)計(jì)的數(shù)據(jù)分析方法可以分為(_)。
A、基本分析方法
B、自適應(yīng)分析方法
C、元分析方法
D、判別模型分析方法
答案:AC
107.以下對(duì)數(shù)據(jù)描述正確的是(—)。
A、數(shù)據(jù)只包含顯性數(shù)據(jù)和隱性數(shù)據(jù)
B、數(shù)值是數(shù)據(jù)的一種形式
C、數(shù)據(jù)到智慧是人們認(rèn)知提升的過程
D、數(shù)據(jù)是現(xiàn)實(shí)世界的記錄
答案:BCD
108.根據(jù)學(xué)習(xí)形式,數(shù)據(jù)科學(xué)中機(jī)器學(xué)習(xí)可分為(_)。
A、人工神經(jīng)網(wǎng)絡(luò)和增強(qiáng)學(xué)習(xí)
B、基于實(shí)例學(xué)習(xí)
C、遺傳算法
D、貝葉斯學(xué)習(xí)
答案:ABCD
109.TensorFIow中keras模塊的內(nèi)置優(yōu)化器有?
A、dam
B、SGD
GAdaboost
D\AdadeIta
答案:ABD
WO.TextRank首先會(huì)提取詞匯,形成();然后依據(jù)詞匯的關(guān)聯(lián),建立()。
A、節(jié)點(diǎn)
B、詞表
C、鏈接
D、句子
答案:AC
111.以下哪些服務(wù)屬于華為EI服務(wù)家族
AxEl大數(shù)據(jù)服務(wù)
B、自然語言處理
C、對(duì)話機(jī)器人
D、EI基礎(chǔ)服務(wù)
答案:ABCD
112.華為云ModelArts是面向AI開發(fā)的一戰(zhàn)式開發(fā)平臺(tái),以下哪些功能在Node
IArts上可以具備?
A、數(shù)據(jù)治理
B、AI市場(chǎng)
C、自動(dòng)學(xué)習(xí)
D、可視化工作流
答案:ABCD
113.NPU特點(diǎn)描述錯(cuò)誤的是()。
A、擅長(zhǎng)神經(jīng)網(wǎng)絡(luò)模型推理
B、擅長(zhǎng)神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練
C、功耗圖
D、功耗低
答案:BC
114.在深度學(xué)習(xí)模型訓(xùn)練的過程中,常見的優(yōu)化器有哪些?
A、dam
B\Adagrad
C、SGD
D\Momentum
答案:ABCD
115.下面屬于數(shù)據(jù)科學(xué)家的主要職責(zé)有(_)。
A、提出“好問題”
B、完成“數(shù)據(jù)加工”
C、實(shí)現(xiàn)“數(shù)據(jù)洞見”
D、數(shù)據(jù)“故事化”
答案:ABCD
116.選用邊緣計(jì)算設(shè)備的時(shí)候,應(yīng)該考慮哪些因素()
A、成本
B、算力
C、功耗
D、支持的模型
答案:ABCD
117.以下關(guān)于線性回歸的描述中,哪些選項(xiàng)是錯(cuò)誤的?
A、多元線性回歸分析出來的一定是高維空間中的一條直線。
B、由于算法復(fù)雜度,線性回歸無法使用梯度下降的方法求出當(dāng)損失函數(shù)達(dá)到最
小的時(shí)候的權(quán)重參數(shù)
C、根據(jù)正態(tài)分布函數(shù)與最大似然估計(jì),可以求出線性回歸的損失函數(shù)
D、線性回歸中誤差受到眾多因素獨(dú)立影響,根據(jù)中心極限定律誤差服從正態(tài)分
布
答案:AB
118.下面對(duì)深度神經(jīng)網(wǎng)絡(luò)規(guī)模描述正確的是()
A、網(wǎng)絡(luò)規(guī)模越大,能力越強(qiáng)
B、網(wǎng)絡(luò)規(guī)模越大,能力越弱
C、網(wǎng)絡(luò)規(guī)模越大,推理速度越慢
D、網(wǎng)絡(luò)規(guī)模越大,推理速度越快
答案:AC
119.下列關(guān)于支持向量回歸機(jī)說法正確的是(_)。
A、支持向量回歸機(jī)希望學(xué)得一個(gè)回歸模型,使得預(yù)測(cè)值千(x)與真實(shí)值x盡可能
接近
B、在傳統(tǒng)回歸模型中,當(dāng)且僅當(dāng)預(yù)測(cè)值千(x)與真實(shí)值x完全相同時(shí),損失才為
0
C、支持向量回歸假設(shè)我們能夠容忍預(yù)測(cè)值千(x)與真實(shí)值x之間最多有特定值的
誤差
D、支持向量回歸以決策函數(shù)為中心,構(gòu)建了一個(gè)特定寬度的間隔帶,若訓(xùn)練樣
本落入此間隔帶,則認(rèn)為是被預(yù)測(cè)正確的
答案:ABCD
120.交叉驗(yàn)證可用于(_)、(_)和(_)。
A、分類
B、參數(shù)選擇
C、模型選擇
D、特征選擇
答案:BCD
121.以下那些方法不常用于灰度內(nèi)插值。()
A、最近鄰內(nèi)插法
B、三次內(nèi)插法
C、雙線性內(nèi)插值法
D、三次樣條插值法
答案:ABD
122.目前比較流行的深度學(xué)習(xí)框架包括()。
A、Pytorch
B、TensorfIow
C、SciPy
D、PaddIePaddIe
答案:ABD
123.醫(yī)學(xué)數(shù)據(jù)脫敏后需要進(jìn)行數(shù)據(jù)預(yù)處理,屬于原始醫(yī)學(xué)數(shù)據(jù)特點(diǎn)的是()
A、缺失率很高
B、數(shù)據(jù)完整格式規(guī)范
C、臟數(shù)據(jù)很多
D、數(shù)據(jù)格式不規(guī)整
答案:ACD
124.華為HiAIService提供以下哪些平臺(tái)?
A、小藝對(duì)話開發(fā)平臺(tái)
B、智能圖表識(shí)別平臺(tái)
C、快服務(wù)智慧平臺(tái)HAG
D、自定義語音合成平臺(tái)
答案:AC
125.F1參數(shù)由(_)和(_)綜合獲得
A、查全率
B、查準(zhǔn)率
C、誤差
D、精度
答案:AB
126.Ascend芯片是華為設(shè)計(jì)的AI芯片,其特點(diǎn)是哪幾項(xiàng)?
A\圖功耗
B、高算力
C、低功耗
D、低算力
答案:BC
127.MSIR是一種簡(jiǎn)潔高效靈活的基于圖的函數(shù)式IR,可以表示的函數(shù)式語義類
型有?
A、自由變量
B、高階函數(shù)
C、中斷
D、遞歸
答案:ABD
128.人工智能數(shù)據(jù)采集方案中,哪些問題應(yīng)該考慮?()
A、數(shù)據(jù)來源
B、數(shù)據(jù)質(zhì)量
C、數(shù)據(jù)采集成本
D、數(shù)據(jù)清洗
答案:ABC
129.數(shù)據(jù)治理包括哪些類型
A、應(yīng)對(duì)型治理
B、主動(dòng)型治理
C、被動(dòng)型治理
D、安全型治理
答案:AB
130.數(shù)據(jù)科學(xué)項(xiàng)目的基本流程涉及發(fā)活動(dòng)包括(_)和數(shù)據(jù)的管理與獲取、結(jié)果的
可視化與文檔化、模式/模型的驗(yàn)證和優(yōu)化。
A、模式/模型的應(yīng)用和維護(hù)
B、項(xiàng)目目標(biāo)定義
C、項(xiàng)目成本控制
D、模式/模型的洞見
答案:ABD
131.以下屬于數(shù)據(jù)科學(xué)的研究目的的是(—)。
A、數(shù)據(jù)洞見
B、數(shù)據(jù)生態(tài)系統(tǒng)建設(shè)
C、數(shù)據(jù)業(yè)務(wù)化
D、數(shù)據(jù)產(chǎn)品的研發(fā)
答案:ABCD
132.在深度學(xué)習(xí)中,以下哪些是常用的正則項(xiàng)?
A、L1
B、Tanh
C\ReIu
D、L2
答案:AD
133.常見的樣本數(shù)據(jù)劃分方式為()
A、訓(xùn)練集,驗(yàn)證集
B、驗(yàn)證集,測(cè)試集
C、訓(xùn)練集,測(cè)試集
D、訓(xùn)練集,驗(yàn)證集,測(cè)試集
答案:CD
134.以下關(guān)于決策樹的描述中,哪些選項(xiàng)是正確的?
A、常見的決策樹算法有ID3,C4.5,CART等
B、決策樹的構(gòu)造就是進(jìn)行屬性的選擇,確定各個(gè)特征屬性之間的樹結(jié)構(gòu)
C、純度的量化指標(biāo)只能通過信息炳
D、構(gòu)建決策樹的關(guān)鍵步驟就是按照所有的特征屬性進(jìn)行劃分操作,對(duì)所有的劃分
操作的結(jié)果集的“純度進(jìn)行比較
答案:ABD
135.下列哪些情況不可能是學(xué)習(xí)率太大導(dǎo)致的()
A、模型收斂的太慢
B、模型無法收斂,并發(fā)散崩潰
C、模型迅速收斂到損失函數(shù)最小值
D、模型內(nèi)部參數(shù)大部分變?yōu)?
答案:ACD
136.下列使用了達(dá)芬奇架構(gòu)的產(chǎn)品有哪些選項(xiàng)?
A、scend.310
B\Kunpeng920s
C、Ascend910
D、Kunpeng920
答案:AC
137.下列關(guān)于偏差、方差、均方差、泛化誤差的作用表述正確的是(_)。
A、偏差刻畫了模型本身的擬合能力
B、方差刻畫了數(shù)據(jù)擾動(dòng)所造成的影響
C、噪聲刻畫了學(xué)習(xí)問題本身的難度
D、泛化誤差可分解為方差與噪音之和。
答案:ABC
138.以下哪些項(xiàng)是常用的擴(kuò)充數(shù)據(jù)集的方法?
A、對(duì)圖像進(jìn)行幾何變換
B、在文本中進(jìn)行近義詞替換
C、標(biāo)簽平滑
D、對(duì)語音信號(hào)添加隨機(jī)噪聲
答案:AD
139.數(shù)據(jù)加工是一種數(shù)據(jù)轉(zhuǎn)換的過程,可分為(_)。
A、單維度轉(zhuǎn)換
B、高維度轉(zhuǎn)換
C、低維度轉(zhuǎn)換
D、多維度轉(zhuǎn)換
答案:AD
140.長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)三個(gè)門是哪些()
A、進(jìn)化門
B、輸出門
C、輸入門
D\遺忘門
答案:BCD
解析:LSTM擁有三個(gè)門(輸入門,遺忘門,輸出門),來保護(hù)和控制細(xì)胞狀態(tài)。判斷
題(共4題)
141.強(qiáng)化學(xué)習(xí)可以應(yīng)用在以下哪些領(lǐng)域中?
A、機(jī)器人控制
B、交通
C、金融
D、游戲
答案:ABCD
142.以下哪些選項(xiàng)是TensorFIow2.xEagerExecution的特點(diǎn)?
A、直觀
B、性能
C、可部署性
D、靈活
答案:ABD
143.(_)可以幫助解決訓(xùn)練集在特征空間中線性不可分的問題。
A、硬間隔
B、軟間隔
C、核函數(shù)
D、拉格朗日乘子法
答案:BC
144.關(guān)于TPU,下列說法正確的是()
A、TPU是一款專用于機(jī)器學(xué)習(xí)的芯片
B、TPU是一款專用于數(shù)據(jù)處理的芯片
C、TPU能用于深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練
D、TPU可以提供高吞吐量的低精度計(jì)算
答案:ACD
145.下面關(guān)于L1范式正則化描述正確的是(_)。
A、L1范數(shù)正則化使得學(xué)習(xí)得到的結(jié)果滿足稀疏化,從而方便人們提取特征
B、L1范數(shù)是指向量中各個(gè)元素絕對(duì)值之和
C、L1范數(shù)正則化也有個(gè)美稱叫“稀疏規(guī)則算子”
D、壓縮感知問題可以通過L1范數(shù)最小化問題求解
答案:ABCD
146.以下屬于Tensorflow2.0的特性的是?
A、支持更多平臺(tái)和更多語言
B、引入Keras接口
G繼續(xù)兼容Tensorflow1,X的相關(guān)模塊
D、支持靜態(tài)圖機(jī)制
答案:ABCD
147.以下哪些項(xiàng)是神經(jīng)網(wǎng)絡(luò)在感知機(jī)的基礎(chǔ)上做的改進(jìn)?
A、加入隱藏層,隱藏層可以有多層,增強(qiáng)模型的表達(dá)能力。
B\對(duì)激活函數(shù)做擴(kuò)展,包括Sigmoid函數(shù)、Softmax和ReLU等。
C、輸出層的神經(jīng)元也可以不止一個(gè),可以有多個(gè)輸出。
D、引入了損失函數(shù)。
答案:ABCD
148.下面哪些屬于AI的應(yīng)用領(lǐng)域?
A、智慧家居
B、智慧城市
C、智慧醫(yī)療
D、智慧教育
答案:ABCD
149.下列不包含聲紋識(shí)別應(yīng)用場(chǎng)景的是()。
A、語音支付
B、語音播放
GAI文章閱讀
D、智能翻譯
答案:BCD
150.(_)屬于圖像平滑的濾波。
A、盒式濾波
B、雙邊濾波
C、導(dǎo)向?yàn)V波
D、貝葉斯變換
答案:ABC
151.以下哪些選項(xiàng)屬于華為自動(dòng)駕駛云服務(wù)?
A、標(biāo)注平臺(tái)
B、數(shù)據(jù)存儲(chǔ)
C、算法管理
D、路況數(shù)據(jù)采集
答案:ABC
152.(_)是基于字符串匹配的分詞方法。
A、正向最大匹配法
B、逆向最大匹配法
C、最少切分
D、隱馬爾科夫模型
答案:ABC
153.用于訓(xùn)練的Atlas產(chǎn)品有?
A、tals300型號(hào)9000
B、Atlas800型號(hào):9000
GAtaIs500
D、AtaIs900
答案:ABCD
154.Al框架從單一的NN向通用張量可微計(jì)算演進(jìn)中,其中一個(gè)演進(jìn)方向是與科
學(xué)計(jì)算的結(jié)合,主要表現(xiàn)為以下哪幾項(xiàng)?
A、構(gòu)建基于AI的可計(jì)算模型
B、借助新框架加速方程求解
C、借助神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)新解法
D、借助可微物理引擎實(shí)現(xiàn)可微編程
答案:ABC
155.模型訓(xùn)練完成后,在部署前,那種參數(shù)會(huì)縮小模型規(guī)模。()
A、量化
B、加先驗(yàn)
G蒸播
D、剪枝
答案:CD
156.神經(jīng)網(wǎng)絡(luò)模型(NeuralNetwork)因受人類大腦的啟發(fā)而得名。神經(jīng)網(wǎng)絡(luò)由
許多神經(jīng)元(Neuron)組成,每個(gè)神經(jīng)元接受一個(gè)輸入,對(duì)輸入進(jìn)行處理后給出
一個(gè)輸出。請(qǐng)問下列關(guān)于神經(jīng)元的描述中,哪一項(xiàng)是正確的(_)。
A、每個(gè)神經(jīng)元有一個(gè)輸入和一個(gè)輸出
B、每個(gè)神經(jīng)元有多個(gè)輸入和一個(gè)輸出
C、每個(gè)神經(jīng)元有一個(gè)輸入和多個(gè)輸出
D、每個(gè)神經(jīng)元有多個(gè)輸入和多個(gè)輸出
答案:ABCD
解析:每個(gè)神經(jīng)元可以有一個(gè)或多個(gè)輸入,和一個(gè)或多個(gè)輸出。
157.常用的Python科學(xué)計(jì)算庫有()。
A、Numpy
B、SciKit-learn
C、Pandas
D、SciPy
答案:ABCD
158.昇騰Al處理器支持接入以下哪些種類的內(nèi)存?
A、SSD
B、HBM
C、SATA
D、DR
答案:CD
159.以下網(wǎng)絡(luò)模型格式中,可以用于保存訓(xùn)練參數(shù)和網(wǎng)絡(luò)模型的有哪些選項(xiàng)?
A、MindlR
B、AIR
C、heckpoint
D、ONNX
答案:ACD
160.SGD優(yōu)化器中用到了哪些技術(shù)()
A、反向傳播算法
B、小批量學(xué)習(xí)
C、動(dòng)態(tài)學(xué)習(xí)率
D、動(dòng)量學(xué)習(xí)
答案:AB
161.以下關(guān)于小批量梯度下降算法描述中,正確的是哪幾項(xiàng)?
A、MBGD兼顧了對(duì)率和核度的穩(wěn)定性,容易沖過局部極小值,是實(shí)際工作中最常
用的梯度下降算法
B、MBGD每次使用一個(gè)批次的樣本進(jìn)行更新,因此速度也非常慢在實(shí)際場(chǎng)景中不
被接受
CxMBGD每次使用小批固定尺寸的樣例來更新權(quán)值
D、MBGD中的BatchSize是一個(gè)超參數(shù),可由人為設(shè)定
答案:ACD
162.隱馬爾科夫模型和馬爾科夫隨機(jī)場(chǎng)都是(_)模型,而(_)是判別式模型。
A、生成式模型
B、隨機(jī)模型
C、條件隨機(jī)場(chǎng)
D、感知機(jī)模型
答案:AC
163.以下哪些選項(xiàng)屬于機(jī)器學(xué)習(xí)中常見的集成學(xué)習(xí)算法?
A、線性回歸
B、GBDT
C、隨機(jī)森林
D\Xgboost
答案:BCD
164.推薦系統(tǒng)的三個(gè)重要模塊是()。
A、用戶模塊
B、用戶對(duì)象關(guān)系模塊
C、對(duì)象模塊
D、推薦算法模塊
答案:ACD
165.下列哪些項(xiàng)屬于傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)的性質(zhì)()
A、上一時(shí)刻的網(wǎng)絡(luò)狀態(tài)信息將會(huì)作用于下一時(shí)刻的網(wǎng)絡(luò)狀態(tài)
B、并行處理序列中所有信息
C、容易梯度爆炸/消失
D、易于搭建
答案:AC
解析:循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurrentNeuraINetwork,RNN)是一類以序列(sequenc
e)數(shù)據(jù)為輸入,在序列的演進(jìn)方向進(jìn)行遞歸(recursion)且所有節(jié)點(diǎn)(循環(huán)單
元)按鏈?zhǔn)竭B接的遞歸神經(jīng)網(wǎng)絡(luò)(recursiveneuraInetwork)。循環(huán)神經(jīng)網(wǎng)絡(luò)在
誤差梯度在經(jīng)過多個(gè)時(shí)間步的反向傳播后容易導(dǎo)致極端的非線性行為,包括梯度
消失(gradientvanishing)和梯度爆炸(gradientexplosion)。實(shí)踐中,梯度
爆炸雖然對(duì)學(xué)習(xí)有明顯的影響,但較少出現(xiàn),使用梯度截?cái)嗫梢越鉀Q。梯度消失
是更常見的問題且不易察覺,發(fā)生梯度消失時(shí),循環(huán)神經(jīng)網(wǎng)絡(luò)在多個(gè)時(shí)間步后的
輸出幾乎不與序列的初始值有關(guān),因此無法模擬序列的長(zhǎng)距離依賴(long-term
Dependency)o在數(shù)值試驗(yàn)中,SRN對(duì)時(shí)間步跨度超過20的長(zhǎng)距離依賴進(jìn)行成
功學(xué)習(xí)的概率接近于0。恰當(dāng)?shù)臋?quán)重初始化(weightinitialization),或使用
非監(jiān)督學(xué)習(xí)策略例如神經(jīng)歷史壓縮器(NHC)可提升循環(huán)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)長(zhǎng)距離依
賴的能力,但對(duì)更一般的情形,循環(huán)神經(jīng)網(wǎng)絡(luò)發(fā)展了一系列優(yōu)化策略,其中有很
多涉及網(wǎng)絡(luò)結(jié)構(gòu)的改變和算法的改進(jìn)。
166.下面對(duì)開運(yùn)算描述正確的是()。
A、開運(yùn)算是先膨脹再腐蝕
B、開運(yùn)算是先腐蝕再膨脹
C、開運(yùn)算能填補(bǔ)二值圖像上白色小洞
D、開運(yùn)算能去掉二值圖像上白色小點(diǎn)
答案:BD
167.華為云ModelArts中推出了ModelBox用于端邊云聯(lián)合開發(fā),以下哪些選項(xiàng)
屬于其優(yōu)化策略?
A、算子自動(dòng)切分
B、硬件親和性
C、模型克隆
D、算子優(yōu)化
答案:ABCD
168.以下關(guān)于線性回歸與防止過擬合的描述中,哪些選項(xiàng)是正確的?
A、當(dāng)使用的正則項(xiàng)是L2-norm,使用這個(gè)損失函數(shù)的線性回歸也叫LASSO回歸。
B、正則項(xiàng)有助于減少過擬合。
C、線性回歸權(quán)重系數(shù)在樣本空間中不能過大/過小,可以在目標(biāo)函數(shù)之上增加一
個(gè)平方和損失。
D、追加了絕對(duì)值損失的線性回歸叫做Ridge回歸
答案:BC
169.車牌識(shí)別的用到了哪些人工智能圖像處理技術(shù)。()
A、圖像關(guān)鍵點(diǎn)定位
B、圖像生成
C、圖像文本識(shí)別
D、圖像語義分割
答案:CD
170.以下哪些選項(xiàng)屬于MindSporeLite的特性?
A、極致性能
B、全場(chǎng)景支持
C、高效部署
D、分布式訓(xùn)練
答案:ABCD
171.Apriori算法是一種最有影響的挖掘布爾關(guān)聯(lián)規(guī)則頻繁項(xiàng)集的算法。其核心
是基于兩階段頻集思想的遞推算法。該關(guān)聯(lián)規(guī)則在分類上屬于(__)、(_)、
(_)規(guī)則。
A、邏輯關(guān)聯(lián)
B、布爾關(guān)聯(lián)
C、單維
D、單層
答案:BCD
172.活體檢測(cè)適用于下列哪些場(chǎng)景。()
A、人臉支付
B、身份認(rèn)證
C、銀行攝像頭監(jiān)控
D、人臉解鎖
答案:ABD
173.下列適用于圖像語義分割技術(shù)的應(yīng)用場(chǎng)景有()
A、CT腫瘤體積計(jì)算
B、眼球圖片血管提取
C、視頻會(huì)議智能更換背景
D、車流統(tǒng)計(jì)
答案:ABC
174.模型部署前,需要對(duì)模型進(jìn)行量化,下面常見的量化參數(shù)精度有()
A、doubIe64
B\int8
C、int4
D\int2
答案:BCD
175.下列哪些任務(wù)屬于回歸任務(wù)()
A、人臉識(shí)別
B、人臉關(guān)鍵點(diǎn)定位
C、人物位置跟蹤
D、人物性別辨識(shí)
答案:BC
176.圖像翻拍檢測(cè)服務(wù)調(diào)用成功時(shí)標(biāo)簽sugestion有哪些情況?
A、certainty
B、FALSE
C、uncertainty
D、TRUE
答案:BCD
177.對(duì)于Al框架可編程性的挑戰(zhàn)主要體現(xiàn)在以下哪些方面?
A、多芯片,單芯片跨代,跨型號(hào)兼容需求。
B、稀疏加速,圖片預(yù)處理加速模塊及復(fù)雜SIMD加速指令。
C、SOC級(jí)異構(gòu)編程。
D、有效算力接近理論算力的定制化實(shí)現(xiàn),對(duì)編譯器要求高。
答案:ABCD
178.下列屬于圖像數(shù)據(jù)采集工具的是()
A、照相機(jī)
B、攝像機(jī)
C\手機(jī)
D、麥克風(fēng)
答案:ABC
179.下列關(guān)于偏差、方差、均方差、泛化誤差描述有誤的是(_)。
A、方差度量了學(xué)習(xí)算法的期望預(yù)測(cè)與真實(shí)結(jié)果的偏離程度。
B、偏差度量了同樣大小的訓(xùn)練集的變動(dòng)所導(dǎo)致的學(xué)習(xí)性能的變化。
C、泛化誤差表達(dá)了在當(dāng)前任務(wù)上任何學(xué)習(xí)算法所能達(dá)到的期望泛化誤差的下界,
即刻畫了學(xué)習(xí)問題本身的難度。
D、泛化誤差可分解為偏差、方差與噪音之和。
答案:ABC
180.下面關(guān)于L1范式正則化描述正確的是(_)。
A、壓縮感知問題可以通過L1范數(shù)最小化問題求解
B、L1范數(shù)正則化有助于降低過擬合風(fēng)險(xiǎn)
C、采用L1范數(shù)時(shí)平方誤差項(xiàng)等值線與正則化項(xiàng)等值線的交點(diǎn)常出現(xiàn)在坐標(biāo)軸上
D、L1范數(shù)正則化比L2范數(shù)正則化更有易于獲得稀疏解
答案:ABCD
181.數(shù)據(jù)標(biāo)準(zhǔn)化的目的為()。
A、約束輸入數(shù)據(jù)的值范圍
B、把輸入數(shù)據(jù)的分布變?yōu)闃?biāo)準(zhǔn)正太分布
C、使得輸入數(shù)據(jù)的分布服從均值為0,方差為1
D、對(duì)數(shù)據(jù)做歸一化操作
答案:AC
182.以下哪些選項(xiàng)屬于數(shù)據(jù)清理的過程?
A、處理數(shù)據(jù)異常點(diǎn)
B、簡(jiǎn)化數(shù)據(jù)屬性,避免維度爆炸
C、發(fā)現(xiàn)數(shù)據(jù)異常點(diǎn)
D、填充缺失值
答案:ACD
183.下面不屬于數(shù)據(jù)分析平臺(tái)的有(_)。
A、uber
B、datameer
C、Arimo
D、Farmers
答案:AD
184.感知機(jī)中,(_)接收外界輸入信號(hào)后傳遞給(_)。
A、輸入層
B、輸出層
C、第一層
D、第二層
答案:AB
185.數(shù)據(jù)清洗的目的是()
A、檢查數(shù)據(jù)的一致性
B、處理無效值
C、處理重復(fù)數(shù)據(jù)
D、處理缺失值
答案:ABCD
186.以下哪幾個(gè)方面屬于華為的全棧AI解訣方案?
A、scend
B、CANN
GModeIArts
D\MindSpore
答案:ABCD
187.下列哪些詞可以進(jìn)行命名實(shí)體。()
A、日期
B、數(shù)字
C、地址
D、動(dòng)作
答案:ABC
188.HUAWEIHiAI賦能APP哪些價(jià)值?
A、安全
B、穩(wěn)定
C、實(shí)時(shí)
D、隨時(shí)
答案:ABCD
189.訓(xùn)練深度神經(jīng)完了過的時(shí)候,下面那種現(xiàn)象可能是梯度彌散導(dǎo)致的()
A、無論輸入什么數(shù)據(jù),模型輸出為始終Nan
B、無論輸入什么數(shù)據(jù),前向計(jì)算的結(jié)果都不再變化或變化特別小,且不為Nan
C、后向計(jì)算的時(shí)候,靠近輸出入的層的模型權(quán)重不再變化。
D、損失函數(shù)的輸出結(jié)果越來越大
答案:BC
190.(_)不屬于集中趨勢(shì)分析。
A、數(shù)值平均數(shù)
B、位置平均數(shù)
C、離散系數(shù)
D、正相關(guān)
答案:CD
191.ModeIArts中訓(xùn)練平臺(tái)可以支持的開發(fā)模式有哪幾種?
A、云上開發(fā)IDE+PyCharmTooIKit)
B、云上開發(fā)(Notebook+SDK
G本地開發(fā)IDE+PyCharmToolKit)
D、本地開發(fā)(Notebook+SDK)
答案:BCD
192.生成式對(duì)抗神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)通常包括()。
A、編碼網(wǎng)絡(luò)
B、解碼網(wǎng)絡(luò)
C、生成網(wǎng)絡(luò)
D、判別網(wǎng)絡(luò)
答案:CD
193.學(xué)習(xí)率變大,可能會(huì)使模型訓(xùn)練的時(shí)候()
A、模型發(fā)散
B、模型收斂速度加快
C、訓(xùn)練數(shù)據(jù)損失曲線變得不穩(wěn)定
D、模型前向計(jì)算過程加快
答案:ABC
194.企業(yè)應(yīng)用包括(_)和人力資本、金融、生產(chǎn)能力、后臺(tái)自動(dòng)化等。
A、銷售
B、營銷
C、法律
D、客戶服務(wù)
答案:ABCD
195.下面哪些常見的網(wǎng)絡(luò)模型的主要子網(wǎng)絡(luò)是CNNo()
A、RESNET
B、UNET
C、YOLO
D、GPT
答案:ABC
196.關(guān)于模型容量的說法,以下哪些選項(xiàng)是正確的?
A、容量和數(shù)據(jù)量以及參數(shù)數(shù)量沒有太大的關(guān)系。
B、容量不足的模型不能解決復(fù)雜任務(wù),可能出現(xiàn)欠擬合。
C、容量高的模型能夠解決復(fù)雜的任務(wù),但是其容量高于任務(wù)所需時(shí),有可能會(huì)
過擬合。
D、容量與執(zhí)行任務(wù)的復(fù)雜度和所提供訓(xùn)練數(shù)據(jù)的數(shù)量匹配時(shí),算法效果通常最
佳。
答案:ABC
197.以下可能會(huì)導(dǎo)致過擬合的是(—)。
A、訓(xùn)練集中含有噪聲樣本
B、訓(xùn)練集中缺乏代表性樣本
C、訓(xùn)練集的樣本數(shù)目過少
D、訓(xùn)練集中樣本的維度過少
答案:AB
198.以下哪幾項(xiàng)屬于漢語未登錄詞的類型?()
A、存在于詞典但出現(xiàn)頻率較少的詞
B、新出現(xiàn)的普通詞匯
C、專有名詞
D、專業(yè)名詞和研究領(lǐng)域名稱
答案:BCD
199.許多功能更為強(qiáng)大的非線性模型可在線性模型基礎(chǔ)上通過引入(_)和(_)
而得
A、層級(jí)結(jié)構(gòu)
B、高維映射
C、降維
D、分類
答案:AB
200.以下關(guān)于臟數(shù)據(jù)的描述中,哪些選項(xiàng)是正確的?
A、臟數(shù)據(jù)中存在矛盾的、有差異的記錄。
B、臟數(shù)據(jù)包含錯(cuò)誤的記錄或者異常點(diǎn)。
C、臟數(shù)據(jù)包含太多錯(cuò)誤信息,因此無法直接用于機(jī)器學(xué)習(xí)。
D、數(shù)據(jù)中常缺少屬性或者包含一些缺失的值。
答案:ABCD
201.高斯白噪音產(chǎn)生的原因有()。
A、圖像傳感器在拍攝時(shí)不夠明亮、亮度不夠均勻
B、電路各元器件自身噪聲和相互影響
C、圖像傳感器長(zhǎng)期工作,溫度過高
D、相機(jī)分辨率太低
答案:ABC
202.以下關(guān)于ReLU激活函數(shù)優(yōu)點(diǎn)的描述,正確的是哪些項(xiàng)?
A、有神經(jīng)元死亡的現(xiàn)象。
B、計(jì)算簡(jiǎn)單
C、輸出有界訓(xùn)練不易發(fā)散
D、有效緩解了梯度消失的問題
答案:ABD
203.以下關(guān)于Dropout的描述,正確的是哪些項(xiàng)?
A、一般只在訓(xùn)練時(shí)使用。
B、計(jì)算復(fù)雜度低,實(shí)現(xiàn)簡(jiǎn)單。
C、當(dāng)訓(xùn)練數(shù)據(jù)較少時(shí),效果不好。
D、在深度學(xué)習(xí)中,相比于參數(shù)懲罰,該策略更有效。
答案:ABCD
204.下列關(guān)于偏差表述正確的是(_)。
A、偏差度量了學(xué)習(xí)算法的期望預(yù)測(cè)與真實(shí)結(jié)果的偏離程度。
B、偏差刻畫了模型本身的擬合能力
C、偏差刻畫了數(shù)據(jù)擾動(dòng)所造成的影響
D、偏差刻畫了學(xué)習(xí)問題本身的難度
答案:AB
205.數(shù)據(jù)治理的基本活動(dòng)主要包含(_)和改進(jìn)。
A、計(jì)劃
B、執(zhí)行
C、記錄
D、檢查
答案:ABD
206.從方法體系看,數(shù)據(jù)可視化方法可以分為三個(gè)不同的層次(_)。
A、領(lǐng)域方法
B、基礎(chǔ)方法
C、方法論
D、智能方法
答案:ABC
207.下列哪些任務(wù)屬于聚類()
A、物以類聚,人以群分
B、近朱者赤,近墨者黑
C、同流合污,臭味相投
D、龍生龍,鳳生風(fēng),老鼠兒子會(huì)打動(dòng)
答案:AC
208.人工智能項(xiàng)目開發(fā)流程包括:需求分析,(),(),文檔交付。
A、數(shù)據(jù)處理
B、模型研發(fā)
C、模型訓(xùn)練
D、實(shí)施部署
答案:BD
209.下列表示同一種學(xué)習(xí)方法的是(_)。
A、集成學(xué)習(xí)
B、多分類器系統(tǒng)
C、基于委員會(huì)的學(xué)習(xí)
D、平均策略
答案:ABC
210.算法是()與()的核心區(qū)別
A、非人工智能程序
B、人工智能程序
C、強(qiáng)人工智能程序
D、弱人工智能程序
答案:AB
211.下面對(duì)數(shù)據(jù)集劃分表達(dá)正確的是()
A、測(cè)試集,訓(xùn)練集,驗(yàn)證集必須來源于同一個(gè)數(shù)據(jù)集
B、測(cè)試集,訓(xùn)練集,驗(yàn)證集可以來源于不同數(shù)據(jù)集
C、模型開發(fā)過程中,可以沒有驗(yàn)證集,但測(cè)試集和訓(xùn)練集必須有
D、模型開發(fā)過程中,可以沒有測(cè)試集,但驗(yàn)證集和訓(xùn)練集必須有
答案:AC
212.下列關(guān)于嵌入式選擇描述正確的是(_)。
A、嵌入式選擇是將特征選擇過程與學(xué)習(xí)器訓(xùn)練過程融為一體
B、嵌入式選擇在學(xué)習(xí)器訓(xùn)練過程中自動(dòng)地進(jìn)行了特征選擇
C、對(duì)于嵌入式選擇,特征選擇過程與學(xué)習(xí)器訓(xùn)練過程在同一個(gè)優(yōu)化過程中完成
D、嵌入式特征選擇方法直接針對(duì)給定學(xué)習(xí)器進(jìn)行優(yōu)化
答案:ABC
213.華為云提供的內(nèi)容審核服務(wù)可通過管理控制臺(tái)進(jìn)行下列哪些操作?
A、查看服務(wù)的調(diào)用失敗次數(shù)
B、申請(qǐng)開通內(nèi)容審核服務(wù)
C、管理IAM了賬號(hào)信息
D、查看服務(wù)的調(diào)用成功次數(shù)
答案:ABD
214.下列關(guān)于極大似然估計(jì)(MaximumLikelihoodEstimate,MLE),說法正確的
是(_)。
A、MLE可能并不存在
B、MLE總是存在
C、如果MLE存在,那么它的解可能不是唯一的
D、如果MLE存在,那么它的解一定是唯一的
答案:AC
解析:極大似然估計(jì)方法(MaximumLikelihoodEstimate,MLE)也稱最大概似估
計(jì)或最大似然估計(jì):利用已知的樣本結(jié)果,反推最有可能(最大概率)導(dǎo)致這樣
的結(jié)果的參數(shù)值。極大似然估計(jì),只是一種概率論在統(tǒng)計(jì)學(xué)的應(yīng)用,它是參數(shù)估
計(jì)的方法之一。說的是已知某個(gè)隨機(jī)樣本滿足某種概率分布,但是其中具體的參
數(shù)不清楚,參數(shù)估計(jì)就是通過若干次試驗(yàn),觀察其結(jié)果,利用結(jié)果推出參數(shù)的大
概值。極大似然估計(jì)是建立在這樣的思想上:已知某個(gè)參數(shù)能使這個(gè)樣本出現(xiàn)的
概率最大,我們當(dāng)然不會(huì)再去選擇其他小概率的樣本,所以干脆就把這個(gè)參數(shù)作
為估計(jì)的真實(shí)值。當(dāng)然極大似然估計(jì)只是一種粗略的數(shù)學(xué)期望,要知道它的誤差
大小還要做區(qū)間估計(jì)。
215.從形式語言表達(dá)能力而言,規(guī)則可分為兩類:(_)和(_)。
A、命題規(guī)則
B、一階規(guī)則
C、原子命題
D、邏輯連接詞
答案:AB
216.人工智能可以分為:弱人工智能階段、()、()。
A、強(qiáng)人工智能階段
B、超人工智能階段
C、快速人工智能階段
D、虛擬人工智能階段
答案:AB
217.市面上哪些產(chǎn)品使用了語音合成技術(shù)。()
A、小米的小愛機(jī)器人
B、喜馬拉雅APP小說智能閱讀
C、微信的語音轉(zhuǎn)寫
D、抖音短視頻AI配音
答案:ABD
218.數(shù)據(jù)集成可以分為(_)。
A、內(nèi)容集成
B、結(jié)構(gòu)集成
C、模式集成
D、概念集成
答案:AB
219.以下關(guān)于張量的敘述,正確的是哪些項(xiàng)?
A、一階張量可以理解成一個(gè)向量
B\MindSpore中最基礎(chǔ)的數(shù)據(jù)結(jié)構(gòu)是張量
C、張量就是數(shù)據(jù)矩陣
D、張量是基于向量和矩陣的推廣
答案:ABD
220.以下方法中屬于特征選擇過濾法(Filter)的是哪些選項(xiàng)?
A、方差法
B、皮爾遜相關(guān)系數(shù)
C、卡方系數(shù)法
D、LASSO回歸
答案:ABC
221.以下對(duì)于數(shù)據(jù)轉(zhuǎn)換的描述中,哪些選項(xiàng)是正確的?
A、處理圖像數(shù)據(jù),如顏色空間轉(zhuǎn)換、灰度化、幾何變化屬于數(shù)據(jù)轉(zhuǎn)換。
B、在數(shù)據(jù)量較小時(shí),也會(huì)對(duì)現(xiàn)有變量進(jìn)行組合或轉(zhuǎn)換已生成新特征,比如平均
數(shù)
C、所有的數(shù)據(jù)都需要進(jìn)行數(shù)據(jù)轉(zhuǎn)換
D、機(jī)器學(xué)習(xí)中常對(duì)特征進(jìn)行歸一化,標(biāo)準(zhǔn)化,以保證同一模型的不同輸入變量
的值域相同
答案:ACD
222.下列屬于AI涉及的子領(lǐng)域的有哪些選項(xiàng)?
A、數(shù)據(jù)挖掘
B、知識(shí)工程
C、人機(jī)交互
D、機(jī)器學(xué)習(xí)
答案:ABCD
223.一個(gè)好的分類模型必須具有(—)o
A、低訓(xùn)練誤差
B、低泛化誤差
C、過擬合
D、欠擬合
答案:AB
224.以下哪些庫是在裝有Atlas300(3000)加速卡的服務(wù)器中安裝DDK(DeviceDe
veIopmentKit)之前需要安裝的?
Avdecorator
B、setuptooIs
C、numpy
D、tensorfIow
答案:ABC
225.模型部署前,需要對(duì)模型進(jìn)行剪枝,下面模型剪枝描述正確的是()
A、模型剪枝目的是加快模型推理速度
B、模型剪枝后通常預(yù)測(cè)精度有所降低
C、模型剪枝后模型的參數(shù)量變少
D、模型剪枝后,模型訓(xùn)練收斂速度提高
答案:ABC
226.下面對(duì)onnx格式描述錯(cuò)誤的是()。
A、它用于定義模型優(yōu)化方法
B、它用戶模型在不同框架下進(jìn)行交換
C、它用于定義模型評(píng)估方式
D、它用于模型標(biāo)準(zhǔn)結(jié)構(gòu)定義
答案:ACD
227.以下哪些項(xiàng)對(duì)于每一個(gè)參數(shù)都用自適應(yīng)的學(xué)習(xí)率?
A、dam
B、RMSprop
C、Adagrad
D、Momertum
答案:ABC
228.RNN的主要應(yīng)用領(lǐng)域有()。
A、自然語言處理
B、機(jī)器翻譯
C、音樂推薦
D、洗衣服
答案:ABC
229.下列哪些概念是屬于強(qiáng)化學(xué)習(xí)的。()
A、動(dòng)作
B、環(huán)境和觀察狀態(tài)
C、智能體
D、獎(jiǎng)勵(lì)
答案:ABCD
230.0x算法、()構(gòu)成人工智能3要素
A、公式
B、算力
C、數(shù)據(jù)
D、程序
答案:BC
231.下列哪些工作容易被人工智能所替代?
A、快遞員
B、人力資源經(jīng)理
C會(huì)計(jì)
D、客服
答案:ABCD
232.端到端設(shè)計(jì)的優(yōu)勢(shì)是()
A、模型結(jié)構(gòu)設(shè)計(jì)更靈活容易
B、容易使用多模態(tài)輸入
C、容易解釋模型工作過程
D、不需要人工提取數(shù)據(jù)特征
答案:ABD
233.下面哪些指標(biāo)取值范圍是0到1,值越大,模型效果越好()
A、MSE
B、R2
C\mAP
D、余弦相似度
答案:BC
234.下面哪些計(jì)算卡使用的計(jì)算芯片是國產(chǎn)的()
A、TesIaA100
B、JetsonNano
GRK3399PR0
D、HI3559A
答案:CD
235.下列哪些情況不能使用數(shù)據(jù)標(biāo)準(zhǔn)化操作。()
A、數(shù)據(jù)中的0表示不存在
B、數(shù)據(jù)中的0表示值大小為0
C、數(shù)據(jù)加Log處理
D、Onehot編碼
答案:AD
236.詞性標(biāo)注中包含的詞性有()
A、動(dòng)詞
B、商品名
C、量詞
D、數(shù)詞
答案:ACD
237.人工智能產(chǎn)品采用C/S架構(gòu),C和S分別是()。
A、客戶端
B、網(wǎng)頁端
C、服務(wù)端
D、數(shù)據(jù)端
答案:AC
238.下列屬于生成模型的場(chǎng)景有()
A、戴口罩檢測(cè)
B、低分辨率圖片變成高分辨率圖片
C、通過輸入文本語義,輸出一幅符合文本語義的圖像
D、人臉檢)則
答案:BC
239.LSTM應(yīng)用場(chǎng)景應(yīng)用場(chǎng)景有哪些()
A、翻譯語言
B、語音識(shí)別
c、圖像識(shí)別
D、股票預(yù)測(cè)
答案:ABD
解析:C:CNN應(yīng)用于圖像識(shí)別。
240.以下關(guān)于神經(jīng)網(wǎng)絡(luò)的描述中,正確的是哪幾項(xiàng)?
A、人工神經(jīng)網(wǎng)絡(luò)完全基于數(shù)學(xué),與仿生學(xué)沒有關(guān)系。
B、人工神經(jīng)網(wǎng)絡(luò)是一種旨在模仿人腦結(jié)構(gòu)及其功能的信息處理系統(tǒng)。
C、人工神經(jīng)網(wǎng)絡(luò)反映了人腦功能的若干基本特征,如并行信息處理、學(xué)習(xí)、聯(lián)
想、模式分類、記憶等。
D、人工神經(jīng)網(wǎng)絡(luò)是由人工神經(jīng)元互連組成的網(wǎng)絡(luò),它是從微觀結(jié)構(gòu)和功能上對(duì)
人腦的抽象、簡(jiǎn)化,是模擬人類智能的一條重要途徑。
答案:BCD
241.以下選項(xiàng)中哪些是常用的深度學(xué)習(xí)激活函數(shù)?
A、tanh函數(shù)
B、ReLU函數(shù)
C、Softsign函數(shù)
D\Sigmoid函數(shù)
答案:ABCD
242.以下屬于數(shù)據(jù)預(yù)處理的是哪些選項(xiàng)?
A、數(shù)據(jù)降維
B、數(shù)據(jù)標(biāo)準(zhǔn)化
C、模型訓(xùn)練
D、數(shù)據(jù)清理
答案:BD
243.下列關(guān)于神經(jīng)網(wǎng)絡(luò)描述正確的是(_)。
A、我們?cè)跈C(jī)器學(xué)習(xí)中談?wù)撋窠?jīng)網(wǎng)絡(luò)是指的是生物學(xué)意義上的神經(jīng)網(wǎng)絡(luò)
B、神經(jīng)網(wǎng)絡(luò)中最基本的成分是神經(jīng)元模型
C、在MP神經(jīng)元模型中,神經(jīng)元接受來自n個(gè)其他神經(jīng)元傳遞過來的信號(hào)
D、神經(jīng)元接收到的總輸入值將與神經(jīng)元的閾值進(jìn)行比較,然后通過激活函數(shù)處
理以產(chǎn)生神經(jīng)元的輸出。
答案:BCD
244.在昇騰Al處理器中,AlCore的存儲(chǔ)控制單元可以完成以下哪些操作?
A、補(bǔ)零
B、lmg2Co1
C\解壓縮
D、轉(zhuǎn)置
答案:AB
245.以下關(guān)于標(biāo)準(zhǔn)RNN的描述,正確的是哪幾項(xiàng)?
A、標(biāo)準(zhǔn)RNN是一種死板的邏輯,越晚的輸入影響越大,越早的輸入影響越小,
且無法改變這個(gè)邏輯。
B、標(biāo)準(zhǔn)的循環(huán)神經(jīng)網(wǎng)絡(luò)存在梯度爆炸和梯度消失問題。
C、梯度消失,梯度爆炸都與路徑長(zhǎng)度太長(zhǎng)有關(guān),前面的權(quán)重都基本固定不變,
沒有訓(xùn)練效果。
D、標(biāo)準(zhǔn)RNN結(jié)構(gòu)解決了信息記憶的問題,但是對(duì)長(zhǎng)時(shí)間記憶的信息會(huì)衰減。
答案:ABCD
246.生成對(duì)抗網(wǎng)絡(luò)目前應(yīng)用非常廣泛,以下場(chǎng)景中可以使用此網(wǎng)絡(luò)的是?
A、數(shù)據(jù)增強(qiáng)
B、語義分割
C、信息檢索
D、圖像生成
答案:ABCD
247.下列關(guān)于密度聚類說法錯(cuò)誤的是(_)。
A、DBSCAN是一種著名的密度聚類算法
B、密度聚類從樣本數(shù)量的角度來考察樣本之間的可連接性
C、密度聚類基于不可連接樣本不斷擴(kuò)展聚類簇易獲得最終的聚類結(jié)果
D、密度直達(dá)關(guān)系通常滿足對(duì)稱性
答案:BCD
248.圖像處理中的開運(yùn)算是先對(duì)圖像進(jìn)行()操作,再對(duì)圖像進(jìn)行()
A、低通濾波
B、腐蝕
C、局通濾波
D、膨脹
答案:BD
249.以下哪些項(xiàng)屬于循環(huán)神經(jīng)網(wǎng)絡(luò)中多對(duì)一的類型?
A、音樂生成
B、動(dòng)作識(shí)別
C、機(jī)器翻譯
D、情感分析
答案:BC
250.Analyticsl.0的主要特點(diǎn)有().
A、分析活動(dòng)滯后于數(shù)據(jù)的生成。
B、重視結(jié)構(gòu)化數(shù)據(jù)的分析。
C、以對(duì)歷史數(shù)據(jù)的理解為主要目的。
D、注重描述性分析。
答案:ABCD
251.下列關(guān)于智能機(jī)器類別的觀點(diǎn)有哪些選項(xiàng)是正確的?
A、理性的思考,屬于弱人工智能領(lǐng)域。
B、像人一樣行動(dòng),屬于強(qiáng)人工智能。
C、理性的行動(dòng),屬于強(qiáng)人工智能。
D、像人一樣思考,屬于弱人工智能領(lǐng)域。
答案:CD
252.人工智能項(xiàng)目開發(fā)過程中,資源成本包括()
A、機(jī)會(huì)成本
B、數(shù)據(jù)成本
C、設(shè)備成本
D、人力成本
答案:BCD
253.數(shù)據(jù)產(chǎn)品以數(shù)據(jù)為中心表現(xiàn)在(_)。
A、數(shù)據(jù)驅(qū)動(dòng)
B、數(shù)據(jù)載體
C、數(shù)據(jù)密集型
D、數(shù)據(jù)范式
答案:ACD
254.以下關(guān)于梯度下降法的描述,錯(cuò)誤的是哪些項(xiàng)?
A、梯度下降法不一定能夠在凸優(yōu)化問題中取得全局極值點(diǎn)。
B、梯度下降法一定能夠在凸優(yōu)化問題中取得全局極值點(diǎn)。
C、負(fù)梯度方向是函數(shù)上升最快的方向。
D、負(fù)梯度方向是函數(shù)下降最快的方向。
答案:BC
判斷題
1.在定義函數(shù)時(shí),帶有默認(rèn)值的參數(shù)必須出現(xiàn)在參數(shù)列表的最右端,任何一個(gè)帶
有默認(rèn)值的參數(shù)右邊不允許出現(xiàn)沒有默認(rèn)值的參數(shù)。
A、正確
B、錯(cuò)誤
答案:A
2.函數(shù)局變量會(huì)增加不同函數(shù)之間的隱式耦合度,從而降低代碼可讀性,因此應(yīng)
盡量避免過多使用全局變量。
A、正確
B、錯(cuò)誤
答案:A
3.標(biāo)注項(xiàng)目質(zhì)量控制流程包括數(shù)據(jù)質(zhì)檢與驗(yàn)收、需求解讀與確認(rèn)、人員培訓(xùn)與任
務(wù)試標(biāo)
A、正確
B、錯(cuò)誤
答案:A
4.互聯(lián)網(wǎng)書籍采集可以及時(shí)、推確、全面地采集國內(nèi)外媒體網(wǎng)站、新聞網(wǎng)站、行
業(yè)網(wǎng)站、論壇社區(qū)和博客微博等互聯(lián)網(wǎng)媒體發(fā)布的文本、圖片、圖表、音頻、視
頻等各種類型的信息
A、正確
B、錯(cuò)誤
答案:A
5.遷移學(xué)習(xí)能加快模型推理速度。
A、正確
B、錯(cuò)誤
答案:B
6.數(shù)據(jù)的質(zhì)量和數(shù)量是對(duì)模型訓(xùn)練精度影響的關(guān)鍵點(diǎn)之一
A、正確
B、錯(cuò)誤
答案:A
7.Anaconda數(shù)據(jù)科學(xué)平臺(tái)可以安裝TensorFIow框架。
A、正確
B、錯(cuò)誤
答案:A
8.已知x為非空字符串,那么表達(dá)式‘,'.join(x.split,J)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 滬科版八年級(jí)物理全一冊(cè)《2.1聲音的產(chǎn)生與傳播》同步測(cè)試題含答案
- 高一化學(xué)第四單元非金屬及其化合物第四講氨硝酸硫酸練習(xí)題
- 2024屆河南省淇縣某中學(xué)高考模擬試卷(化學(xué)試題文)試卷含解析
- 2024高中地理第4章區(qū)域經(jīng)濟(jì)發(fā)展第2節(jié)第2課時(shí)問題和對(duì)策學(xué)案新人教版必修3
- 2024高中語文第四單元?jiǎng)?chuàng)造形象詩文有別賞析示例過小孤山大孤山學(xué)案新人教版選修中國古代詩歌散文欣賞
- DB37-T 5307-2024 住宅小區(qū)供水設(shè)施建設(shè)標(biāo)準(zhǔn)
- 肩周炎中醫(yī)診療指南
- 深圳城市的發(fā)展歷程
- 2025版:勞動(dòng)合同法企業(yè)合規(guī)培訓(xùn)及風(fēng)險(xiǎn)評(píng)估合同3篇
- 三講課件知識(shí)課件
- 四川省成都市2022-2023學(xué)年高二上學(xué)期期末調(diào)研考試數(shù)學(xué)(理科)試題(含答案詳解)
- 肉鴨營養(yǎng)需要量 編制說明
- 生產(chǎn)現(xiàn)場(chǎng)變化點(diǎn)管理
- 2023年機(jī)房搬遷(合同) 機(jī)房搬遷服務(wù)(合同)
- 中華全國律師協(xié)會(huì)律師辦理物業(yè)管理法律業(yè)務(wù)操作指引
- 配水管網(wǎng)工程主要項(xiàng)目施工方法及技術(shù)措施
- 地基驗(yàn)槽記錄
- 07FK02防空地下室通風(fēng)設(shè)備安裝圖集
- 軟件無線電原理與應(yīng)用第3版 課件 【ch01】概述
- 手術(shù)區(qū)皮膚消毒及鋪單法課件
- 聯(lián)營項(xiàng)目管理辦法(法務(wù)-合同-人力-策劃-資金-結(jié)算)
評(píng)論
0/150
提交評(píng)論