大數(shù)據(jù)和人工智能知識考試題庫600題(含答案)_第1頁
大數(shù)據(jù)和人工智能知識考試題庫600題(含答案)_第2頁
大數(shù)據(jù)和人工智能知識考試題庫600題(含答案)_第3頁
大數(shù)據(jù)和人工智能知識考試題庫600題(含答案)_第4頁
大數(shù)據(jù)和人工智能知識考試題庫600題(含答案)_第5頁
已閱讀5頁,還剩196頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

PAGEPAGE201大數(shù)據(jù)和人工智能知識考試題庫600題(含答案)一、單選題1.下面不屬于大數(shù)據(jù)4V特性有(____)。A、容量大B、類型多C、速度快D、應(yīng)用價值高答案:D解析:數(shù)據(jù)科學(xué)理論與實踐2.線性模型試圖學(xué)得一個屬性的(__)來進(jìn)行預(yù)測的函數(shù)。A、線性組合B、非線性組合C、取值D、維度答案:A解析:機(jī)器學(xué)習(xí)3.給定測試樣本,基于某種距離度量找出訓(xùn)練集中與其最靠近的k個訓(xùn)練樣本,然后基于這k個樣本的信息來進(jìn)行預(yù)測。這種學(xué)習(xí)算法稱為(__)。A、k-meansB、k近鄰學(xué)習(xí)C、隨機(jī)森林D、決策樹答案:B解析:機(jī)器學(xué)習(xí)4.馬爾可夫隨機(jī)場是典型的馬爾可夫網(wǎng),這是一種著名的(__)模型。A、無向圖B、有向圖C、樹形圖D、環(huán)形圖答案:A解析:機(jī)器學(xué)習(xí)5.(__)算法是一種挖掘關(guān)聯(lián)規(guī)則的頻繁項集算法,其核心思想是通過候選集生成和情節(jié)的向下封閉檢測兩個階段來挖掘頻繁項集。A、AprioriB、EMC、PCAD、PAC答案:A解析:https://baike.baidu./item/APRIORI/20007466.(__)是根據(jù)數(shù)據(jù)采樣來估計概率分布參數(shù)的經(jīng)典方法。A、貝葉斯判定準(zhǔn)則B、貝葉斯決策論C、貝葉斯分類器D、極大似然估計答案:D解析:機(jī)器學(xué)習(xí)P1497.讓學(xué)習(xí)器不依賴外界交互、自動地利用未標(biāo)記樣本來提升學(xué)習(xí)性能,就是(__)。A、有監(jiān)督學(xué)習(xí)B、全監(jiān)督學(xué)習(xí)C、無監(jiān)督學(xué)習(xí)D、半監(jiān)督學(xué)習(xí)答案:D解析:機(jī)器學(xué)習(xí)P2948.支持向量機(jī)優(yōu)化問題的形式是(__)。A、一個不含約束的二次規(guī)劃問題B、一個含有等式約束的二次規(guī)劃問題C、一個含有不等式約束的二次規(guī)劃問題D、一個含有不等式約束的線性規(guī)劃問題答案:C解析:機(jī)器學(xué)習(xí)P121-1229.貝葉斯網(wǎng)借助(__)來刻畫屬性之間的依賴關(guān)系。A、有向圖B、無環(huán)圖C、有向無環(huán)圖D、歐拉圖答案:C解析:機(jī)器學(xué)習(xí)P15610.下列哪項具體任務(wù)不屬于情感分析?()A、情感分類B、觀點(diǎn)抽取C、觀點(diǎn)問答D、段落匹配答案:D解析:統(tǒng)計自然語言處理文本分類與情感分類P66011.以下內(nèi)容符合物體識別任務(wù)的是()。A、不能對圖像進(jìn)行壓縮或剪裁B、遵守誤差最小準(zhǔn)則和最佳近似準(zhǔn)則C、可以不指定分類的類別數(shù)量D、事先給定樣本的分布特征答案:B解析:圖像處理、分析與機(jī)器視覺物體識別P27712.在支持向量機(jī)中,軟間隔支持向量機(jī)的目標(biāo)函數(shù)比硬間隔支持向量機(jī)多了一個(__)。A、偏置項bB、系數(shù)C、松弛變量D、兩種情況的目標(biāo)函數(shù)相同答案:C解析:機(jī)器學(xué)習(xí)P13113.LasVegasWrapper在拉斯維加斯方法框架下使用(__)策略來進(jìn)行子集搜索。A、貪心B、最優(yōu)化C、隨機(jī)D、順序答案:C解析:機(jī)器學(xué)習(xí)14.中值濾波對(__)的表現(xiàn)較差。A、泊松噪聲B、高斯噪聲C、乘性噪聲D、椒鹽噪聲答案:B解析:https://.cnblogs./vincentcheng/p/9261557.html15.下面對線性模型中偏置值b的說法正確的是(__)。A、無任何意義B、決定超平面的位置C、決定的超平面的方向D、是樣本點(diǎn)到超平面上的映射答案:B解析:模式識別16.(__)的基本想法是適當(dāng)考慮一部分屬性間的相互依賴信息,從而既不需要進(jìn)行完全聯(lián)合概率計算,又不至于徹底忽略了比較強(qiáng)的屬性依賴關(guān)系。A、貝葉斯判定準(zhǔn)則B、貝葉斯決策論C、樸素貝葉斯分類器D、半樸素貝葉斯分類器答案:D解析:機(jī)器學(xué)習(xí)P15417.下面不屬于數(shù)據(jù)科學(xué)家的主要職責(zé)有(__)。A、設(shè)計和評價數(shù)據(jù)工程師的工作B、定義和驗證“研究假設(shè)”C、進(jìn)行“探索型數(shù)據(jù)分析”D、實現(xiàn)“數(shù)據(jù)算法”答案:D解析:數(shù)據(jù)科學(xué)理論與實踐18.概率密度函數(shù)服從正態(tài)分布的噪聲,叫做(__)。A、泊松噪聲B、高斯噪聲C、乘性噪聲D、椒鹽噪聲答案:B解析:/lk3030/article/details/84175871#_519.下面關(guān)于數(shù)據(jù)加工相關(guān)描述不正確的有(__)。A、數(shù)據(jù)加工是數(shù)據(jù)科學(xué)中關(guān)注的新問題之一B、數(shù)據(jù)加工是為了提升數(shù)據(jù)質(zhì)量、降低數(shù)據(jù)計算復(fù)雜度C、數(shù)據(jù)科學(xué)中數(shù)據(jù)加工就是傳統(tǒng)數(shù)據(jù)處理D、數(shù)據(jù)脫敏屬于數(shù)據(jù)加工答案:C解析:數(shù)據(jù)科學(xué)理論與實踐20.以下可以用于處理決策樹歸納中的過擬合的方法(__)。A、先剪枝B、使用確認(rèn)集C、結(jié)合模型復(fù)雜度D、使用再代入估計答案:A解析:數(shù)據(jù)挖掘?qū)д揚(yáng)11321.LSTM中門的輸出是()之間的實數(shù)向量。A、0到1B、1到-1C、0到-1D、1到2答案:A解析:/m0epnwstyk4/article/details/7912480022.以下描述不正確的是(__)。A、平滑處理是為了去掉噪聲B、聚集是進(jìn)行粗粒度計算C、標(biāo)準(zhǔn)化是用區(qū)間或概念標(biāo)簽表示數(shù)據(jù)D、特征構(gòu)造是構(gòu)造出新的特征答案:C解析:數(shù)據(jù)科學(xué)理論與實踐23.下面對范數(shù)規(guī)則化描述錯誤的是(__)。A、L0是指向量中0的元素的個數(shù)B、L1范數(shù)是指向量中各個元素絕對值之和C、L2范數(shù)向量元素絕對值的平方和再開平方D、L0是指向量中非0的元素的個數(shù)答案:A解析:/oTengYue/article/details/8964417024.Dave于2012年發(fā)布(__)首次全面地刻畫了當(dāng)時快速發(fā)展的大數(shù)據(jù)技術(shù)體系。A、大數(shù)據(jù)產(chǎn)業(yè)網(wǎng)絡(luò)B、大數(shù)據(jù)產(chǎn)業(yè)全景圖C、大數(shù)據(jù)產(chǎn)業(yè)D、大數(shù)據(jù)網(wǎng)絡(luò)答案:B解析:數(shù)據(jù)科學(xué)理論與實踐25.當(dāng)往往一本書中其實通常使用到的詞匯表是非常小的,這就會導(dǎo)致一本書的表示向量中存在大量的0.這樣的向量稱為()。A、零向量B、滿秩向量C、稀疏向量D、普通向量答案:C解析:/u011630575/article/details/8289412026.Keras主要用于哪一方面A、神經(jīng)網(wǎng)絡(luò)B、非結(jié)構(gòu)化數(shù)據(jù)存儲C、數(shù)據(jù)可視化D、數(shù)據(jù)管理答案:A解析:數(shù)據(jù)科學(xué)理論與實踐P10627.以下哪個不屬于數(shù)據(jù)治理的內(nèi)容A、理解自己的數(shù)據(jù)B、行為規(guī)范的制定C、崗位職責(zé)的定義D、獲得更多的數(shù)據(jù)答案:D解析:數(shù)據(jù)科學(xué)理論與實踐P18328.下列對于查準(zhǔn)率的描述,解釋正確的是(__)。A、統(tǒng)計分類器預(yù)測出來的結(jié)果與真實結(jié)果不相同的個數(shù),然后除以總的樣例集D的個數(shù)。B、先統(tǒng)計分類正確的樣本數(shù),然后除以總的樣例集D的個數(shù)。C、預(yù)測為正的樣例中有多少是真正的正樣例D、樣本中的正例有多少被預(yù)測正確答案:C解析:/program_developer/article/details/7993729129.數(shù)據(jù)戰(zhàn)略的目標(biāo)是(__)。A、數(shù)據(jù)本身的管理B、培育數(shù)據(jù)驅(qū)動組織或文化C、增強(qiáng)組織機(jī)構(gòu)的敏捷性D、提高組織機(jī)構(gòu)的核心競爭力答案:B解析:數(shù)據(jù)科學(xué)理論與實踐30.(__)不是常用的噪聲處理方法。A、聚類B、回歸C、分類D、分箱答案:C解析:數(shù)據(jù)科學(xué)理論與實踐31.詞袋模型是在自然語言處理和信息檢索中的一種簡單假設(shè)。在這種模型中,文本(段落或者文檔)被看作是()的詞匯集合,忽略語法甚至是單詞的順序。A、無序B、有序C、無意義D、規(guī)范答案:A解析:/u011630575/article/details/8289412032.使用交互式的和可視化的技術(shù),對數(shù)據(jù)進(jìn)行探索屬于數(shù)據(jù)挖掘的哪一類任務(wù)?A、探索性數(shù)據(jù)分析B、建模描述C、預(yù)測建模D、尋找模式和規(guī)則答案:A解析:數(shù)據(jù)科學(xué)理論與實踐P8633.L表示模糊分類器的特征關(guān)鍵詞,由T推導(dǎo)出模糊集F,以下哪個算法可以計算不同F(xiàn)之間的關(guān)聯(lián)度?()A、SVMB、EWCC、SRD、EM答案:C解析:統(tǒng)計自然語言處理模糊分類器P67834.下列關(guān)于數(shù)據(jù)標(biāo)準(zhǔn)化的說法中,不正確的是()A、Z-Score標(biāo)準(zhǔn)化適用于特征最大值和最小值未知,數(shù)據(jù)較分散的情況B、聚類算法要求數(shù)據(jù)集無量綱化C、Logistic標(biāo)準(zhǔn)化函數(shù)σ(x)滿足σ(0)=1D、Min-Max標(biāo)準(zhǔn)化易受離群值影響答案:C解析:數(shù)據(jù)挖掘:概念與技術(shù)(第三版)P7435.雙邊濾波能夠較好的保留圖像的(__)。A、邊緣信息B、色彩信息C、亮度信息D、高頻信息答案:A解析:https://.cnblogs./vincentcheng/p/9261557.html36.考察一個由三個卷積層組成的CNN:kernel=3×3,stride=2,padding=SAME。最低層輸出100個特征映射(featuremap),中間層200個特征映射,最高層400個特征映射。輸入是200×300的RGB圖片,總參數(shù)的數(shù)量是多少?()A、903400B、2800C、180200D、720400答案:A解析:深度學(xué)習(xí)201卷積網(wǎng)絡(luò)37.1特征分析,2影響分析,3原因分析,4數(shù)據(jù)審計,5忽略,6刪除,7插值。以下順序符合缺失數(shù)據(jù)處理過程的有(__)。A、416B、1236C、457D、2357答案:A解析:數(shù)據(jù)科學(xué)理論與實踐38.以下對信息描述不正確的是(____)。A、信息與能源、材料屬于同一層次的概念B、信息是客觀的存在C、信息是人類社會賴以生存和發(fā)展的三大資源之一D、信息是對數(shù)據(jù)進(jìn)行計量形成的記錄答案:D解析:數(shù)據(jù)科學(xué)理論與實踐39.貝葉斯網(wǎng)結(jié)構(gòu)有效地表達(dá)了屬性的(__)。A、相互制約性B、條件獨(dú)立性C、取值D、含義答案:B解析:機(jī)器學(xué)習(xí)P15740.最早被提出的循環(huán)神經(jīng)網(wǎng)絡(luò)門控算法是什么。()A、長短期記憶網(wǎng)絡(luò)B、門控循環(huán)單元網(wǎng)絡(luò)C、堆疊循環(huán)神經(jīng)網(wǎng)絡(luò)D、雙向循環(huán)神經(jīng)網(wǎng)絡(luò)答案:A解析:深度學(xué)習(xí)LSTMP24841.Relief的時間開銷隨采樣次數(shù)以及原始特征數(shù)(__)。A、線性增長B、指數(shù)型增長C、快速增長D、負(fù)增長答案:A解析:機(jī)器學(xué)習(xí)42.(__)是一種著名的密度聚類算法,它基于一組“鄰域”參數(shù)來刻畫樣本的緊密程度。A、DBSCANB、原型聚類C、密度聚類D、層次聚類答案:A解析:機(jī)器學(xué)習(xí)43.(__)試圖學(xué)得一個線性模型以盡可能準(zhǔn)確地預(yù)測實值輸出標(biāo)記。A、決策樹B、線性回歸C、貝葉斯分類器D、神經(jīng)網(wǎng)絡(luò)答案:B解析:機(jī)器學(xué)習(xí)44.以下描述中不正確的是(___)。A、整個數(shù)據(jù)集可以稱作一個樣本B、樣本不可以是單個示例C、一個樣本可以稱為一個“特征向量”D、樣本中反映事件或?qū)ο笤谀撤矫娴谋憩F(xiàn)或性質(zhì)的事項,可以稱為“特征”答案:B解析:機(jī)器學(xué)習(xí)P245.以下描述不正確的是(____)。A、信息是客觀的存在B、數(shù)據(jù)等于數(shù)值C、顯性知識能夠清晰的表述和有效的轉(zhuǎn)移D、智慧是人類超出知識的那一部分能力答案:B解析:數(shù)據(jù)科學(xué)理論與實踐46.TF-IDF與該詞在整個語言中的出現(xiàn)次數(shù)成(__)。A、正比B、反比C、無關(guān)D、冪次答案:B解析:/zhaomengszu/article/details/8145290747.卷積神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)時信息的傳播方向是()。A、后向傳播B、前向傳播C、雙向傳播D、跳躍傳播答案:B解析:https://.cnblogs./neo-T/p/6445227.html48.下面不屬于探索性統(tǒng)計中常用集中趨勢統(tǒng)計量的是(__)。A、和B、方差C、平均數(shù)D、四分位數(shù)答案:B解析:數(shù)據(jù)科學(xué)理論與實踐49.當(dāng)閔可夫斯基距離公式中的系數(shù)p值為2時,可得到(__)的公式。A、歐氏距離B、曼哈頓距離C、街區(qū)距離D、切比雪夫距離答案:A解析:機(jī)器學(xué)習(xí)P20050.中心極限定理是噪聲抑制的中的統(tǒng)計原理,其內(nèi)容是:均值分布總會收斂于一個()。A、正態(tài)分布B、泊松分布C、多項式分布D、均值分布答案:A解析:圖像處理、分析與機(jī)器視覺噪聲抑制統(tǒng)計原理P9751.下列哪項方法不屬于圖像分割方法()。A、邊緣檢測法B、閾值分割法C、區(qū)域分割法D、特征提取法答案:D解析:圖像處理、分析與機(jī)器視覺分割基礎(chǔ)知識P12552.以查準(zhǔn)率為縱軸、查全率為橫軸作圖,就得到了查準(zhǔn)率-查全率曲線,簡稱(__)。A、雙曲線B、P-R曲線C、科克曲線D、共軛曲線答案:B解析:機(jī)器學(xué)習(xí)P3153.(__)是廣義線性模型在g(·)=ln(·)時的特例。A、線性模型B、線性回歸C、線性判別分析D、對數(shù)線性回歸答案:D解析:機(jī)器學(xué)習(xí)54.(__)表達(dá)了在當(dāng)前任務(wù)上任何學(xué)習(xí)算法所能達(dá)到的期望泛化誤差的下界,即刻畫了學(xué)習(xí)問題本身的難度。A、偏差B、方差C、噪聲D、泛化誤差答案:C解析:機(jī)器學(xué)習(xí)P4655.tensorflow中的tf.nn.conv2d()的函數(shù),其作用是()。A、圖像輸入B、進(jìn)行卷積C、進(jìn)行池化D、圖像輸出答案:B解析:/qq_35370018/article/details/7951979156.F1參數(shù)(__),說明模型越穩(wěn)定。A、越小B、越大C、越趨近于某一特定值D、F1參數(shù)和模型穩(wěn)定性沒有關(guān)系答案:B解析:https://zhidao.baidu./question/1500844852433214179.html57.以下關(guān)于數(shù)據(jù)科學(xué)相關(guān)描述不正確的是(____)。A、數(shù)據(jù)科學(xué)是數(shù)據(jù),尤其是大數(shù)據(jù)背后的科學(xué)B、“數(shù)據(jù)”是一門科學(xué),答案就在“大數(shù)據(jù)”手中C、在數(shù)據(jù)科學(xué)出現(xiàn)之前,我們關(guān)注的是數(shù)據(jù)主動的一面,而在數(shù)據(jù)科學(xué)中我們更加重視的是被動作用。D、數(shù)據(jù)科學(xué)的最終研究目標(biāo)是實現(xiàn)數(shù)據(jù)、物質(zhì)和能量之間的轉(zhuǎn)換。答案:C解析:數(shù)據(jù)科學(xué)理論與實踐58.下面不屬于維歸約方法的是(__)。A、PCAB、SVDC、DWTD、KNN答案:D解析:數(shù)據(jù)科學(xué)理論與實踐59.(__)不是遺傳算法基本算子。A、選擇B、感染C、突變D、交叉答案:B解析:數(shù)據(jù)科學(xué)理論與實踐60.(__)是指為最小化總體風(fēng)險,只需在每個樣本上選擇能使特定條件風(fēng)險最小的類別標(biāo)記。A、支持向量機(jī)B、間隔最大化C、線性分類器D、貝葉斯判定準(zhǔn)則答案:D解析:機(jī)器學(xué)習(xí)61.隱馬爾可夫模型是一種著名的(__)模型。A、無向圖B、有向圖C、樹形圖D、環(huán)形圖答案:B解析:機(jī)器學(xué)習(xí)P31962.K-搖臂賭博機(jī)屬于(__)算法。A、機(jī)器學(xué)習(xí)B、深度學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、有監(jiān)督學(xué)習(xí)答案:C解析:機(jī)器學(xué)習(xí)63.以下不屬于數(shù)據(jù)治理工作的主要內(nèi)容的有(__)。A、理解自己的數(shù)據(jù)B、數(shù)據(jù)部門的建立C、有效監(jiān)督與動態(tài)優(yōu)化D、崗位工資的定義答案:D解析:數(shù)據(jù)科學(xué)理論與實踐64.池化層的作用是()。A、標(biāo)準(zhǔn)化處理輸入特征B、對特征圖進(jìn)行特征選擇和信息過濾C、對提取的特征進(jìn)行非線性組合以得到輸出D、直接輸出每個像素的分類結(jié)果答案:B解析:深度學(xué)習(xí)卷積網(wǎng)絡(luò)P20265.(__)可以理解為對數(shù)據(jù)管理的管理。A、數(shù)據(jù)治理B、數(shù)據(jù)統(tǒng)治C、數(shù)據(jù)宰相D、數(shù)據(jù)戰(zhàn)略答案:A解析:數(shù)據(jù)科學(xué)理論與實踐66.關(guān)于EDA與統(tǒng)計學(xué)中驗證性分析的相關(guān)描述不正確的有(__)。A、EDA無需事先假設(shè),驗證性分析需要事先假設(shè)B、探索分析在后,驗證性分析在前C、EDA中采取的方法往往比驗證分析簡單D、基于EDA是數(shù)據(jù)計算工作可以分為2個部分:探索性分析和驗證性分析答案:B解析:數(shù)據(jù)科學(xué)理論與實踐67.IDF采用了IWF的幾次平方?()A、一次B、二次C、三次D、四次答案:A解析:統(tǒng)計自然語言處理語言模型自適應(yīng)方法P190,特征權(quán)重計算方法P67368.英文如何分詞?()A、利用空格對句子分詞B、利用逗號分詞C、根據(jù)英文短語分詞D、根據(jù)詞性分詞答案:A解析:統(tǒng)計自然語言處理自動分詞、命名實體識別與詞性標(biāo)注P23669.以下描述正確的是(____)。A、非結(jié)構(gòu)化數(shù)據(jù)是先有結(jié)構(gòu),后有數(shù)據(jù)B、XML是非結(jié)構(gòu)化數(shù)據(jù)C、結(jié)構(gòu)化數(shù)據(jù)是先有數(shù)據(jù),后有結(jié)構(gòu)D、非結(jié)構(gòu)化數(shù)據(jù)是數(shù)據(jù)科學(xué)與傳統(tǒng)數(shù)據(jù)管理的主要區(qū)別答案:D解析:數(shù)據(jù)科學(xué)理論與實踐70.若1.數(shù)據(jù)加工、2.數(shù)據(jù)化、3.數(shù)據(jù)整齊化、4.數(shù)據(jù)分析,則在數(shù)據(jù)科學(xué)的基本流程順序是(__)。A、1234B、2134C、2314D、3214答案:B解析:數(shù)據(jù)科學(xué)理論與實踐71.下列有關(guān)KNN算法的流程順序,描述正確的是()①確定K的大小,和距離的計算方法②根據(jù)K個樣本的所屬類別,投票決定測試樣本的類別歸屬③計算訓(xùn)練集樣本與測試樣本的距離,選出K個與測試樣本最相似的樣本A、①②③B、③②①C、①③②D、②①③答案:C解析:數(shù)據(jù)科學(xué)理論與實踐P4272.數(shù)據(jù)科學(xué)是一門以“數(shù)據(jù)”,尤其是“大數(shù)據(jù)”為研究對象,并以數(shù)據(jù)統(tǒng)計、機(jī)器學(xué)習(xí)、數(shù)據(jù)可視化等為理論基礎(chǔ),主要研究數(shù)據(jù)加工、數(shù)據(jù)管理、數(shù)據(jù)計算等活動的(____)。A、新興科學(xué)B、交叉性學(xué)科C、獨(dú)立學(xué)科D、一整套知識體系答案:B解析:數(shù)據(jù)科學(xué)理論與實踐73.核主成分分析是一種(__)方法。A、非線性降維B、線性降維C、分類D、回歸答案:A解析:機(jī)器學(xué)習(xí)P23274.數(shù)據(jù)科學(xué)是一門以實現(xiàn)“從數(shù)據(jù)到信息”“從數(shù)據(jù)到知識”“從數(shù)據(jù)到智慧”的轉(zhuǎn)化為主要研究目的,以“數(shù)據(jù)驅(qū)動”“數(shù)據(jù)業(yè)務(wù)化”“數(shù)據(jù)洞見”“數(shù)據(jù)產(chǎn)品研發(fā)”為主要研究任務(wù)的(____)。A、新興科學(xué)B、交叉性學(xué)科C、獨(dú)立學(xué)科D、一整套知識體系答案:C解析:數(shù)據(jù)科學(xué)理論與實踐75.LSTM與RNN相比可以解決()。A、梯度消失B、訓(xùn)練結(jié)果發(fā)散C、需要激活函數(shù)D、無法處理長距離的依賴的問題答案:D解析:/m0epnwstyk4/article/details/7912480076.(__)先將數(shù)據(jù)集中的每個樣本看做一個初始聚類簇,然后在算法運(yùn)行的每一步找到距離最近的兩個聚類簇進(jìn)行合并,該過程不端重復(fù),直至達(dá)到預(yù)設(shè)的聚類簇個數(shù)。A、原型聚類B、密度聚類C、層次聚類D、AGNES答案:D解析:機(jī)器學(xué)習(xí)77.卷積神經(jīng)網(wǎng)絡(luò)中池化層的作用是()。A、尋找圖像中的細(xì)節(jié)特征B、輸入圖片C、減少下一層的計算,防止過擬合D、輸出圖片答案:C解析:/xiaodong_11/article/details/8198570078.下列關(guān)于線性模型的描述錯誤的是(__)。A、支持向量機(jī)的判別函數(shù)一定屬于線性函數(shù)B、在樣本為某些分布情況時,線性判別函數(shù)可以成為最小錯誤率或最小風(fēng)險意義下的最優(yōu)分類器C、在一般情況下,線性分類器只能是次優(yōu)分類器D、線性分類器簡單而且在很多期情況下效果接近最優(yōu),所以應(yīng)用比較廣泛答案:A解析:模式識別79.下列圖像邊緣檢測算子中抗噪性能最好的是()。A、梯度算子B、Prewitt算子C、Roberts算子D、Laplacian算子答案:B解析:圖像處理、分析與機(jī)器視覺邊緣檢測算子P9580.下面關(guān)于數(shù)據(jù)產(chǎn)品開發(fā)相關(guān)描述正確的有(__)。A、數(shù)據(jù)科學(xué)家的主要職責(zé)是“數(shù)據(jù)的管理”B、數(shù)據(jù)科學(xué)家一定是科學(xué)家C、“數(shù)據(jù)碼農(nóng)”可以勝任數(shù)據(jù)科學(xué)家D、數(shù)據(jù)科學(xué)家是為解決現(xiàn)實世界中問題提供直接指導(dǎo)、依據(jù)或參考的高級專家答案:D解析:數(shù)據(jù)科學(xué)理論與實踐81.下面不屬于云計算技術(shù)的有(__)。A、HadoopB、SparkC、YARND、集中式計算答案:D解析:數(shù)據(jù)科學(xué)理論與實踐82.以下對Value相關(guān)描述不正確的是(____)。A、Value是指應(yīng)用價值高B、Value是指我們淹沒在知識海洋,卻忍受著知識的饑渴C、如何從海量數(shù)據(jù)中洞見出有價值的數(shù)據(jù)是數(shù)據(jù)科學(xué)的重要課題之一D、大數(shù)據(jù)中,數(shù)據(jù)價值與數(shù)據(jù)量之間不一定存在線性關(guān)系答案:A解析:數(shù)據(jù)科學(xué)理論與實踐83.當(dāng)原始數(shù)據(jù)的存在形式不符合目標(biāo)算法的要求時,需要對原始數(shù)據(jù)進(jìn)行(__)。A、數(shù)據(jù)變換B、數(shù)據(jù)加工C、數(shù)據(jù)清洗D、數(shù)據(jù)集成答案:A解析:數(shù)據(jù)科學(xué)理論與實踐84.長短時記憶神經(jīng)網(wǎng)絡(luò)通過什么來緩解梯度消失問題?()A、增加網(wǎng)絡(luò)深度B、減少網(wǎng)絡(luò)神經(jīng)元C、使用雙向的網(wǎng)絡(luò)結(jié)構(gòu)D、增加一個用來保存長期狀態(tài)的單元答案:D解析:深度學(xué)習(xí)LSTMP24885.以下對Variety相關(guān)描述不正確的是(____)。A、Variety是指類型多B、結(jié)構(gòu)化數(shù)據(jù)在各類數(shù)據(jù)中占比最多C、類型多是指大數(shù)據(jù)涉及多種數(shù)據(jù)D、大數(shù)據(jù)種類包括結(jié)構(gòu)化數(shù)據(jù)、非結(jié)構(gòu)化數(shù)據(jù)、半結(jié)構(gòu)化數(shù)據(jù)答案:B解析:數(shù)據(jù)科學(xué)理論與實踐86.以下關(guān)于機(jī)器學(xué)習(xí)的發(fā)展歷程描述錯誤的是(___)。A、要使機(jī)器具有智能,就必須設(shè)法使機(jī)器擁有知識B、從二十世紀(jì)七十年代中期開始,人工智能研究進(jìn)入了“知識期”C、二十世紀(jì)五十年代中后期,基于神經(jīng)網(wǎng)絡(luò)的“符號主義”學(xué)習(xí)開始出現(xiàn)D、二十世紀(jì)八十年代是機(jī)器學(xué)習(xí)稱為一個獨(dú)立的學(xué)科領(lǐng)域、各種機(jī)器學(xué)習(xí)技術(shù)百花初綻的時期答案:C解析:機(jī)器學(xué)習(xí)P10,1187.(__)中基學(xué)習(xí)器的多樣性不僅來自樣本擾動,還來自屬性擾動。A、AdaBoostB、RFC、BaggingD、傳統(tǒng)決策樹答案:B解析:機(jī)器學(xué)習(xí)P18088.處理文本數(shù)據(jù),循環(huán)神經(jīng)網(wǎng)絡(luò)與前饋神經(jīng)網(wǎng)絡(luò)相比有()的優(yōu)點(diǎn)。A、不會梯度消失B、訓(xùn)練結(jié)果不會發(fā)散C、不需要激活函數(shù)D、可以接受有序的輸入序列答案:D解析:https://.jianshu./p/554b420c9e6489.根據(jù)DIKW信息、數(shù)據(jù)、知識、智慧模型,以下說法錯誤的是A、數(shù)據(jù)是記錄下來可以被鑒別的符號,它是最原始的素材,未被加工解釋,沒有回答特定的問題,沒有任何意義B、信息是已經(jīng)被處理、具有邏輯關(guān)系的數(shù)據(jù),是對數(shù)據(jù)的解釋,這種信息對其接收者具有意義C、知識是從相關(guān)信息中過濾、提煉及加工而得到的有用資料,不能從知識中產(chǎn)生新的知識D、智慧是人類所表現(xiàn)出來的一種獨(dú)有的能力,主要表現(xiàn)為收集、加工、應(yīng)用、傳播知識的能力,以及對事物發(fā)展的前瞻性看法答案:C解析:數(shù)據(jù)科學(xué)理論與實踐P290.在支持向量機(jī)中,(__)允許支持向量機(jī)在一些樣本上出錯。A、硬間隔B、軟間隔C、核函數(shù)D、拉格朗日乘子法答案:B解析:機(jī)器學(xué)習(xí)P12991.主成分分析的優(yōu)化目標(biāo)是一個(__)。A、不含約束條件的二次規(guī)劃問題B、含有約束條件的二次規(guī)劃問題C、不含約束條件的線性規(guī)劃問題D、含有約束條件的線性規(guī)劃問題答案:B解析:機(jī)器學(xué)習(xí)P23092.下面不屬于數(shù)據(jù)科學(xué)平臺的有(__)。A、dataikuB、endorC、knimeD、alpine答案:B解析:數(shù)據(jù)科學(xué)理論與實踐93.以下哪項不屬于圖像分割的目的。()A、把不同類標(biāo)分開。B、提取不同區(qū)域的特征。C、識別圖像內(nèi)容,或?qū)D像進(jìn)行分類。D、對未處理噪聲的圖像進(jìn)行平滑。答案:D解析:圖像處理、分析與機(jī)器視覺分割P12594.以下對大數(shù)據(jù)“涌現(xiàn)”描述不正確的是(____)。A、安全涌現(xiàn)是大數(shù)據(jù)涌現(xiàn)現(xiàn)象B、小數(shù)據(jù)可能沒價值,但是小數(shù)據(jù)組成的大數(shù)據(jù)卻很有價值,這叫做價值涌現(xiàn)C、小數(shù)據(jù)可能質(zhì)量沒問題,但是大數(shù)據(jù)質(zhì)量會出現(xiàn)問題這叫質(zhì)量涌現(xiàn)D、小數(shù)據(jù)可能不涉及隱私,但是大數(shù)據(jù)可能嚴(yán)重威脅個人隱私,這叫隱私涌現(xiàn)答案:C解析:數(shù)據(jù)科學(xué)理論與實踐95.一個輸入為(32,32,3)的數(shù)據(jù)集,通過一個大小為2×2的不重疊最大池化層,輸出()。A、(28,28,8)B、(16,16,8)C、(28,28,3)D、(16,16,3)答案:D解析:/xiaodong_11/article/details/8198570096.可用信息增益來進(jìn)行決策樹的(__)。A、樹高B、葉子結(jié)點(diǎn)數(shù)C、總結(jié)點(diǎn)數(shù)D、劃分屬性選擇答案:D解析:機(jī)器學(xué)習(xí)P7597.(__)度量了學(xué)習(xí)算法的期望預(yù)測與真實結(jié)果的偏離程度。A、偏差B、方差C、均方差D、泛化誤差答案:A解析:機(jī)器學(xué)習(xí)P4598.TF-IDF與一個詞在文檔中的出現(xiàn)次數(shù)成(__)。A、正比B、反比C、無關(guān)D、冪次答案:A解析:/zhaomengszu/article/details/8145290799.下列關(guān)于支持向量回歸說法錯誤的是(__)。A、支持向量回歸是將支持向量的方法應(yīng)用到回歸問題中B、支持向量回歸同樣可以應(yīng)用核函數(shù)求解線性不可分的問題C、同分類算法不同的是,支持向量回歸要最小化一個凹函數(shù)D、支持向量回歸的解是稀疏的答案:C解析:支持向量機(jī)導(dǎo)論100.預(yù)剪枝是指在決策樹生成過程中,對每個結(jié)點(diǎn)在劃分(__)進(jìn)行估計。A、前B、中C、后D、不估計答案:A解析:機(jī)器學(xué)習(xí)P79101.(__)對基決策樹的每個結(jié)點(diǎn),先從該結(jié)點(diǎn)的屬性集合中隨機(jī)選擇一個包含k個屬性的子集,然后再從這個子集中選擇一個最優(yōu)屬性進(jìn)行劃分。A、AdaBoostB、RFC、BaggingD、傳統(tǒng)決策樹答案:B解析:機(jī)器學(xué)習(xí)102.下面關(guān)于參數(shù)估計相關(guān)描述不正確的有(__)。A、參數(shù)估計是根據(jù)樣本的統(tǒng)計量來估計總體的參數(shù)B、相關(guān)分析是參數(shù)估計C、點(diǎn)估計是參數(shù)估計D、利用樣本均值估計總體均值是參數(shù)估計答案:B解析:數(shù)據(jù)科學(xué)理論與實踐103.以下描述不正確的是(__)。A、描述性分析主要采用描述性統(tǒng)計分析方法B、診斷性分析主要采用關(guān)聯(lián)分析C、預(yù)測性分析主要采用因果分析D、規(guī)范性分析主要采用運(yùn)籌學(xué),模擬與仿真技術(shù)答案:C解析:數(shù)據(jù)科學(xué)理論與實踐104.圖像識別常用softmax函數(shù)接在模型的輸出上,其作用為:()。A、增加不同類別之間的區(qū)分度B、突出輸出向量中類標(biāo)的對應(yīng)的維度C、對輸出歸一化,同時以概率的更好解釋輸出向量D、過濾無用的環(huán)境信息答案:C解析:深度學(xué)習(xí)深度前饋網(wǎng)絡(luò)P105105.做卷積運(yùn)算的缺點(diǎn)是,卷積圖像的大小會不斷縮小,另外圖像的左上角的元素只被一個輸出所使用,所以在圖像邊緣的像素在輸出中采用較少,也就意味著你丟掉了很多圖像邊緣的信息。為了解決這個問題,在卷積過程中引入了()。A、poolingB、paddingC、convolutionD、FC答案:B解析:/ice_actor/article/details/78648780106.邊界跟蹤技術(shù)技術(shù)屬于哪一類分割方法。()A、閾值分割法B、邊緣分割法C、區(qū)域分割法D、特征分區(qū)法答案:B解析:圖像處理、分析與機(jī)器視覺分割P35107.支持向量機(jī)的優(yōu)化問題是最小化<w·w>的平方,這實現(xiàn)了(__)。A、幾何間隔為1/<w·w>的最大間隔超平面B、幾何間隔為<w·w>的最大間隔超平面C、幾何間隔為1/<w·w>的最小間隔超平面D、幾何間隔為<w·w>的最小間隔超平面答案:A解析:支持向量機(jī)導(dǎo)論108.一個輸入為(32,32,3)的數(shù)據(jù)集,通過一個卷積核個數(shù)為8,大小為5*5,步長為1的卷積層,輸出()。A、(28,28,8)B、(27,27,8)C、(28,28,3)D、(27,27,3)答案:A解析:/ice_actor/article/details/78648780109.與卷積神經(jīng)網(wǎng)絡(luò)相比,循環(huán)神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)()。A、細(xì)節(jié)信息B、文章長度C、單詞之間的長距離依賴關(guān)系D、歧義答案:C解析:https://.jianshu./p/554b420c9e64110.下面不屬于NoSQL的有(__)。A、ORACLEB、RedislabsC、couchbaseD、paradigm4答案:D解析:數(shù)據(jù)科學(xué)理論與實踐111.(__)是指對已有數(shù)據(jù)在盡量少的先驗假設(shè)條件下進(jìn)行探索,并通過作圖,制表等手段探索數(shù)據(jù)結(jié)構(gòu)和規(guī)律的一種方法。A、統(tǒng)計分析B、驗證性分析C、數(shù)據(jù)洞見D、探索性數(shù)據(jù)分析答案:D解析:數(shù)據(jù)科學(xué)理論與實踐112.LasVegasWrapper是一種典型的(__)算法。A、過濾式選擇B、嵌入式選擇C、包裹式選擇D、正則化答案:C解析:機(jī)器學(xué)習(xí)P251113.下面不屬于數(shù)據(jù)科學(xué)中常用的開源技術(shù)框架的有(__)。A、hadoopmapreduceB、mapillaryC、hiveD、scipy答案:B解析:數(shù)據(jù)科學(xué)理論與實踐114.(__)不屬于相關(guān)分析。A、正相關(guān)B、負(fù)相關(guān)C、線性相關(guān)D、誤差相關(guān)答案:D解析:數(shù)據(jù)科學(xué)理論與實踐115.剪枝是決策樹學(xué)習(xí)算法對付(__)的主要手段。A、欠擬合B、過擬合C、樣本數(shù)過多D、特征數(shù)過多答案:B解析:機(jī)器學(xué)習(xí)P79116.下面關(guān)于數(shù)據(jù)科學(xué)中機(jī)器學(xué)習(xí)思路相關(guān)描述不正確的有(__)。A、測試集為輸入B、機(jī)器學(xué)習(xí)算法來學(xué)習(xí)C、用函數(shù)比較算法估計目標(biāo)函數(shù)D、現(xiàn)有或部分?jǐn)?shù)據(jù)為訓(xùn)練集答案:A解析:數(shù)據(jù)科學(xué)理論與實踐117.以下名稱中不屬于“屬性張成的空間”的是(___)。A、屬性空間B、樣本空間C、輸入空間D、對偶空間答案:D解析:機(jī)器學(xué)習(xí)P2118.線性模型中的權(quán)重w值可以看做各個屬性x的(__)。A、正則化系數(shù)B、對最終決策結(jié)果的“貢獻(xiàn)度”C、高維映射D、取值答案:B解析:機(jī)器學(xué)習(xí)P53119.tf.nn.rnn_cell.BasicLSTMCell(n_hidden,forget_bias=1.0,state_is_tuple=True)函數(shù)中的參數(shù)forget_bias的含義是()。A、神經(jīng)元個數(shù)B、遺忘系數(shù)C、返回狀態(tài)D、神經(jīng)元類型答案:B解析:/kyang624823/article/details/79037495120.以下對智慧描述不正確的是(____)。A、智慧是人類超出知識的那一部分能力B、智慧是人類的創(chuàng)造性設(shè)計、批判性思考和好奇性提問的結(jié)果C、智慧是從信息中發(fā)現(xiàn)的共性規(guī)律、模型、模式、理論、方法等D、智慧運(yùn)用知識并結(jié)合經(jīng)驗創(chuàng)造性的預(yù)測、解釋和發(fā)現(xiàn)答案:C解析:數(shù)據(jù)科學(xué)理論與實踐121.后剪枝是先從訓(xùn)練集生成一顆完整的決策樹,然后(__)地對非葉結(jié)點(diǎn)進(jìn)行考察。A、自上至下B、自左至右C、自右至左D、自底向上答案:D解析:機(jī)器學(xué)習(xí)122.建立一個模型,通過這個模型根據(jù)已知的變量值來預(yù)測其他某個變量值屬于數(shù)據(jù)挖掘的哪一類任務(wù)?A、根據(jù)內(nèi)容檢索B、建模描述C、預(yù)測建模D、尋找模式和規(guī)則答案:C解析:數(shù)據(jù)挖掘:概念與技術(shù)(第三版)P69123.TF-IDF模型中IDF是指(__)。A、詞頻數(shù)B、逆文檔頻率C、詞頻率D、逆文檔頻數(shù)答案:B解析:/zhaomengszu/article/details/81452907124.tensorflow中的tf.nn.max_pool()函數(shù)中的padding參數(shù),作用是()。A、池化方法B、是否要在邊緣補(bǔ)零C、是否要排序D、該層的名稱答案:B解析:/qq_35370018/article/details/79519791125.在訓(xùn)練集上每學(xué)到一條規(guī)則,就將該規(guī)則覆蓋的訓(xùn)練樣例去除,然后以剩下的訓(xùn)練樣例組成訓(xùn)練集重復(fù)上述步驟。這個過程稱為(__)。A、規(guī)則學(xué)習(xí)B、直推學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、序貫覆蓋答案:D解析:機(jī)器學(xué)習(xí)P349126.下面不屬于數(shù)據(jù)科學(xué)家的主要職責(zé)有(__)。A、制定“數(shù)據(jù)戰(zhàn)略”B、研發(fā)“數(shù)據(jù)產(chǎn)品”C、模擬“數(shù)據(jù)學(xué)習(xí)”D、構(gòu)建“數(shù)據(jù)生態(tài)系統(tǒng)”答案:C解析:數(shù)據(jù)科學(xué)理論與實踐127.下列關(guān)于半監(jiān)督支持向量機(jī)說法錯誤的是(__)。A、半監(jiān)督支持向量機(jī)是針對二分類問題的學(xué)習(xí)算法B、半監(jiān)督支持向量機(jī)尋求一個在所有樣本上間隔最小化的劃分超平面C、半監(jiān)督支持向量機(jī)采用局部搜索來迭代地尋找其優(yōu)化問題的近似解D、半監(jiān)督支持向量機(jī)試圖考慮對未標(biāo)記樣本進(jìn)行各種可能的標(biāo)記指派答案:B解析:機(jī)器學(xué)習(xí)P298128.以下對非結(jié)構(gòu)化數(shù)據(jù)描述不正確的是(____)。A、不能用關(guān)系數(shù)據(jù)庫存儲和管理的數(shù)據(jù)B、沒有統(tǒng)一的結(jié)構(gòu)C、圖像是非結(jié)構(gòu)化數(shù)據(jù)D、HTML是非結(jié)構(gòu)化數(shù)據(jù)答案:D解析:數(shù)據(jù)科學(xué)理論與實踐129.現(xiàn)實中往往會遇到“不完整”的訓(xùn)練樣本,在這種存在屬性變量值未知的情形下,可用(__)。A、邊際似然B、EM算法C、貝葉斯決策D、貝葉斯分類器答案:B解析:機(jī)器學(xué)習(xí)130.下列不屬于聚類性能度量外部指標(biāo)的是(__)。A、Jaccard系數(shù)B、FM系數(shù)C、Rand指數(shù)D、DB指數(shù)答案:D解析:機(jī)器學(xué)習(xí)P198131.下面關(guān)于假設(shè)檢驗相關(guān)描述不正確的有(__)。A、先對總體均值進(jìn)行假設(shè),然后利用樣本來檢驗假設(shè)是否成立這屬于假設(shè)檢驗B、區(qū)間估計不是假設(shè)檢驗C、非參數(shù)假設(shè)檢驗是假設(shè)檢驗D、點(diǎn)估計是假設(shè)檢驗答案:D解析:數(shù)據(jù)科學(xué)理論與實踐132.(__)不僅可用于多層前饋神經(jīng)網(wǎng)絡(luò),還可用于其他類型的神經(jīng)網(wǎng)絡(luò)。A、感知機(jī)B、神經(jīng)元C、神經(jīng)系統(tǒng)D、誤差逆?zhèn)鞑ゴ鸢福篋解析:機(jī)器學(xué)習(xí)133.(__)是具有適應(yīng)性的簡單單元組成的廣泛并行互聯(lián)的網(wǎng)絡(luò)。A、神經(jīng)系統(tǒng)B、神經(jīng)網(wǎng)絡(luò)C、神經(jīng)元D、感知機(jī)答案:B解析:機(jī)器學(xué)習(xí)P97134.(__)是指樣本空間中具有代表性的點(diǎn)。A、樣本點(diǎn)B、原點(diǎn)C、原型D、實例答案:C解析:機(jī)器學(xué)習(xí)135.概率模型的訓(xùn)練過程就是(__)過程。A、分類B、聚類C、參數(shù)估計D、參數(shù)選擇答案:C解析:機(jī)器學(xué)習(xí)136.若對于數(shù)據(jù)分布D和概率密度函數(shù)p(?),錯誤率與精度可分別描述為(__)。A、若測試數(shù)據(jù)集的精度高或錯誤率小,則模型的泛化能力強(qiáng);反之,則泛化能力弱。B、若測試數(shù)據(jù)集的精度低或錯誤率小,則模型的泛化能力強(qiáng);反之,則泛化能力弱。C、若測試數(shù)據(jù)集的精度高或錯誤率高,則模型的泛化能力強(qiáng);反之,則泛化能力弱。D、若測試數(shù)據(jù)集的精度小或錯誤率高,則模型的泛化能力強(qiáng);反之,則泛化能力弱。答案:A解析:https://cloud.tencent./developer/news/319385137.(__)是事先將訓(xùn)練樣本存儲下來,然后每當(dāng)遇到一個新增樣本,學(xué)習(xí)系統(tǒng)分析此樣本與以前存儲樣本之間的關(guān)系,并據(jù)此把一個目標(biāo)函數(shù)值賦給新增樣本。A、基于實例學(xué)習(xí)B、遺傳算法C、人工神經(jīng)網(wǎng)絡(luò)D、歸納學(xué)習(xí)答案:A解析:數(shù)據(jù)科學(xué)理論與實踐138.下列關(guān)于特征編碼的敘述中,不正確的是()A、特征編碼是將非數(shù)值型特征轉(zhuǎn)換成數(shù)值型特征的方法B、數(shù)字編碼與特征的排序無關(guān)C、One-Hot編碼中,原始特征有n種取值,轉(zhuǎn)換后就會產(chǎn)生n列新特征D、啞變量編碼解決了One-Hot編碼中存在線性關(guān)系的問題答案:B解析:數(shù)據(jù)科學(xué)理論與實踐P70139.下面哪個不屬于卷積神經(jīng)網(wǎng)絡(luò)的一部分()。A、輸入層B、過濾層C、池化層D、全連接層答案:B解析:深度學(xué)習(xí)卷積網(wǎng)絡(luò)P201140.線性判別分析是一種經(jīng)典的(__)學(xué)習(xí)方法。A、線性B、非線性C、聚類D、降維答案:A解析:機(jī)器學(xué)習(xí)141.下列關(guān)于數(shù)據(jù)轉(zhuǎn)換,正確的是()A、json內(nèi)的取值只能有統(tǒng)一格式B、pdf文件在不同平臺上打開顯示不同C、可以通過python將csv文件轉(zhuǎn)換成Excel格式D、excel存儲數(shù)據(jù)的量無限制答案:C解析:數(shù)據(jù)科學(xué)理論與實踐P107142.嵌入式選擇是一種(__)算法。A、聚類B、特征選擇C、分類D、回歸答案:B解析:機(jī)器學(xué)習(xí)143.(__)主要包括數(shù)據(jù)科學(xué)中的新理念、理論、方法、技術(shù)和工具以及數(shù)據(jù)科學(xué)的研究目的、研究內(nèi)容、基本流程、主要原則等。A、理論基礎(chǔ)B、數(shù)據(jù)管理C、基礎(chǔ)理論D、數(shù)據(jù)產(chǎn)品答案:C解析:數(shù)據(jù)科學(xué)理論與實踐144.貝葉斯模型平均基于后驗概率來為不同的模型賦予權(quán)重,可視為(__)的一種特殊實現(xiàn)。A、加權(quán)平均法B、投票法C、排序法D、學(xué)習(xí)法答案:A解析:機(jī)器學(xué)習(xí)P185145.卷積神經(jīng)網(wǎng)絡(luò)中說的梯度下降,是指()的梯度。A、參數(shù)本身B、激活函數(shù)C、損失函數(shù)D、圖像大小答案:C解析:https://.cnblogs./neo-T/p/6445227.html146.(__)度量了同樣大小的訓(xùn)練集的變動所導(dǎo)致的學(xué)習(xí)性能的變化。A、偏差B、方差C、均方差D、泛化誤差答案:B解析:機(jī)器學(xué)習(xí)147.大數(shù)據(jù)產(chǎn)業(yè)全景圖中包含以下選項(__):1.基礎(chǔ)設(shè)施;2.企業(yè)應(yīng)用;3.分析工具;4.行業(yè)行為;5.開源工具;6.數(shù)據(jù)資源;7.跨平臺基礎(chǔ)設(shè)施和分析工具;8.數(shù)據(jù)源和APPs。A、1234B、12345678C、2345678D、5678答案:B解析:數(shù)據(jù)科學(xué)理論與實踐148.(__)是指捕獲人們的生活、業(yè)務(wù)或社會活動,并將其轉(zhuǎn)換為數(shù)據(jù)的過程。A、數(shù)據(jù)化B、數(shù)據(jù)可視化C、數(shù)據(jù)存儲D、數(shù)據(jù)加工答案:A解析:數(shù)據(jù)科學(xué)理論與實踐149.以下哪一個不是長短時記憶神經(jīng)網(wǎng)絡(luò)三個門中中的一個門?()A、輸入門B、輸出門C、遺忘門D、進(jìn)化門答案:D解析:深度學(xué)習(xí)LSTMP248150.下面不屬于對學(xué)習(xí)器的泛化誤差進(jìn)行評估的方法是(__)A、留出法B、交叉驗證法C、自助法D、網(wǎng)格搜索法答案:D解析:機(jī)器學(xué)習(xí)151.一般地,”人“與”馬“分別與”人馬“相似,但”人“與”馬“很不相似;要達(dá)到這個目的,可以令”人“”馬“與”人馬“之間的距離都比較小,但”人“與”馬“之間的距離很大,此時該距離不滿足(__)。A、非負(fù)性B、同一性C、對稱性D、直遞性答案:D解析:機(jī)器學(xué)習(xí)P199-201152.卷積神經(jīng)網(wǎng)絡(luò)中的dropout模塊的作用是()。A、防止結(jié)果發(fā)散B、防止梯度消失C、防止報錯D、防止過擬合答案:D解析:/qq_35370018/article/details/79519791153.主成分分析是一種常用的(__)方法。A、降維B、分類C、回歸D、聚類答案:A解析:機(jī)器學(xué)習(xí)154.分詞中的正向最大匹配算法是(__)掃描字符串。A、從左到右B、從右到左C、兩邊同時進(jìn)行D、從一個指定的字符發(fā)散答案:A解析:https://baike.baidu./item/%E4%B8%AD%E6%96%87%E5%88%86%E8%AF%8D/371496155.(__)是交叉驗證法的一種特例。A、自助法B、留一法C、交叉驗證法D、錯誤率分析答案:B解析:機(jī)器學(xué)習(xí)P26156.下面關(guān)于決策樹學(xué)習(xí)相關(guān)描述不正確的有(__)。A、決策樹學(xué)習(xí)的本質(zhì)是一種逼近離散值目標(biāo)函數(shù)的過程B、決策樹的根節(jié)點(diǎn)表示分類的開始C、中間節(jié)點(diǎn)表示某一個屬性的屬性值D、從根節(jié)點(diǎn)到葉節(jié)點(diǎn)的路徑表示一個具體的實例答案:C解析:數(shù)據(jù)科學(xué)理論與實踐157.(__)是指能夠通過數(shù)據(jù)來幫助用戶實現(xiàn)其某一個目標(biāo)的產(chǎn)品。A、數(shù)據(jù)產(chǎn)品B、電子產(chǎn)品C、數(shù)據(jù)系統(tǒng)D、電子系統(tǒng)答案:A解析:數(shù)據(jù)科學(xué)理論與實踐158.(__)不是描述統(tǒng)計的基本類型。A、集中趨勢分析B、無關(guān)分析C、相關(guān)分析D、離中趨勢分析答案:B解析:數(shù)據(jù)科學(xué)理論與實踐159.根據(jù)某個詞所連接所有詞匯的權(quán)重,重新計算該詞匯的權(quán)重,然后把重新計算的權(quán)重傳遞下去。直到這種變化達(dá)到均衡態(tài),權(quán)重數(shù)值不再發(fā)生改變。這種關(guān)鍵詞提取算法叫做()。A、TF-IDFB、TextRankC、LDAD、PCA答案:B解析:/qq_29573871/article/details/81390109160.以下不屬于數(shù)據(jù)科學(xué)的研究目的的是(____)。A、大數(shù)據(jù)及其運(yùn)動規(guī)律的揭示B、從數(shù)據(jù)到智慧的轉(zhuǎn)化C、數(shù)據(jù)解釋D、數(shù)據(jù)驅(qū)動型決策支持答案:C解析:數(shù)據(jù)科學(xué)理論與實踐161.tensorflow中的tf.nn.max_pool()的函數(shù),其作用是()。A、圖像輸入B、進(jìn)行卷積C、進(jìn)行池化D、圖像輸出答案:C解析:/qq_35370018/article/details/79519791162.下面不屬于NewSQL的有(__)。A、memsqlB、trafodionC、mariaDBD、objectivity答案:D解析:數(shù)據(jù)科學(xué)理論與實踐163.聚類算法的性能度量可稱為(__)。A、密度估計B、異常檢測C、有效性指標(biāo)D、分布結(jié)構(gòu)答案:C解析:機(jī)器學(xué)習(xí)164.多次“采樣”,然后求取平均累積獎賞來作為期望積累獎賞的近似,這稱為(__)。A、免模型學(xué)習(xí)B、機(jī)器學(xué)習(xí)C、深度學(xué)習(xí)D、蒙特卡羅強(qiáng)化學(xué)習(xí)答案:D解析:機(jī)器學(xué)習(xí)P383165.常用的圖像分割方法是把圖像(__)分成不同等級。A、顏色B、灰度C、大小D、亮度信息答案:B解析:數(shù)字圖像處理166.在同一個問題中,錯誤率和精度的關(guān)系是(__)。A、錯誤率等于精度值加1B、錯誤率加精度等于1C、精度減錯誤率等于1D、兩者之間沒有關(guān)系答案:B解析:機(jī)器學(xué)習(xí)P29167.(__)就是把已知物體的模板與圖像中所有未知物體進(jìn)行比較,如果某一未知物體與該模板匹配,則該物體被檢測出來,并被認(rèn)為是與模板相同的物體。A、統(tǒng)計法B、句法識別法C、神經(jīng)網(wǎng)絡(luò)法D、模板匹配法答案:D解析:/wcl0617/article/details/79034683168.從加工程度看,數(shù)據(jù)產(chǎn)品可以包含的選項有(__);1.內(nèi)容,2.情感,3.服務(wù),4.應(yīng)用,5.決策,6.智慧。A、1234B、1356C、1345D、3456答案:B解析:數(shù)據(jù)科學(xué)理論與實踐169.下列不屬于大數(shù)據(jù)4V特性的是().A、大量B、多樣C、高速D、快捷答案:D解析:數(shù)據(jù)科學(xué)理論與實踐P35170.維納濾波器的作用通常是()。A、去噪B、減小圖像動態(tài)范圍C、復(fù)原圖像D、圖像模糊答案:C解析:圖像處理、分析與機(jī)器視覺圖像復(fù)原技術(shù)P115171.(__)不屬于基本分析方法。A、回歸分析B、分類分析C、聚類分析D、元分析答案:D解析:數(shù)據(jù)科學(xué)理論與實踐172.當(dāng)訓(xùn)練數(shù)據(jù)很多時,一種更為強(qiáng)大的結(jié)合策略是使用(__),通過另一個學(xué)習(xí)器來進(jìn)行結(jié)合。A、投票法B、平均法C、學(xué)習(xí)法D、排序法答案:C解析:機(jī)器學(xué)習(xí)173.(__)是將低層次數(shù)據(jù)轉(zhuǎn)換為高層次數(shù)據(jù)的過程。A、數(shù)據(jù)化B、數(shù)據(jù)整理C、數(shù)據(jù)加工D、數(shù)據(jù)整齊化答案:C解析:數(shù)據(jù)科學(xué)理論與實踐174.(__)的學(xué)習(xí)目的是生成一顆泛化能力強(qiáng),即處理未見示例能力強(qiáng)的決策樹。A、線性回歸B、貝葉斯分類器C、神經(jīng)網(wǎng)絡(luò)D、決策樹答案:D解析:機(jī)器學(xué)習(xí)175.從學(xué)科定位來看,數(shù)據(jù)科學(xué)處于(__)三大領(lǐng)域的重疊之處。A、統(tǒng)計學(xué)B、黑客精神與技能C、數(shù)學(xué)與統(tǒng)計知識D、領(lǐng)域務(wù)實知識答案:A解析:數(shù)據(jù)科學(xué)理論與實踐176.文本向量的每個元素表示該詞的()。A、順序B、頻率C、含義D、語義關(guān)系答案:B解析:/u010213393/article/details/40987945177.計算機(jī)初始狀態(tài)能識別(__)上的基本信息。A、像素點(diǎn)B、每個物體C、背景D、前景答案:A解析:/andylanzhiyong/article/details/73555259178.下面不屬于位置智能的有(__)。A、foursquareB、placeIQC、MapillaryD、bloomberg答案:D解析:數(shù)據(jù)科學(xué)理論與實踐179.與科學(xué)可視化相比,(__)更關(guān)注抽象且應(yīng)用層次的可視化問題。A、信息可視化B、可視化理論C、可視分析學(xué)D、數(shù)據(jù)可視化答案:A解析:數(shù)據(jù)科學(xué)理論與實踐180.(__)是決策樹學(xué)習(xí)算法對付過擬合的主要手段。A、剪枝B、連續(xù)值處理C、信息增益D、數(shù)據(jù)預(yù)處理答案:A解析:機(jī)器學(xué)習(xí)P79181.(__)是將特征選擇過程與學(xué)習(xí)器訓(xùn)練過程融為一體,兩者在同一個優(yōu)化過程中完成,即在學(xué)習(xí)器訓(xùn)練過程中自動地進(jìn)行了特征選擇。A、過濾式選擇B、包裹式選擇C、嵌入式選擇D、正則化答案:C解析:機(jī)器學(xué)習(xí)P252182.線性模型有很好的(__)。A、可描述性B、分類結(jié)果C、可解釋性D、聚類結(jié)果答案:C解析:機(jī)器學(xué)習(xí)P53183.當(dāng)決策樹很小時,訓(xùn)練和檢驗誤差都很大,這種情況稱作(___)。A、模型擬合不足B、模型過擬合C、泛化能力好D、模型擬合適當(dāng)答案:A解析:數(shù)據(jù)挖掘?qū)д?84.(__)是M-P神經(jīng)元,也稱為“閾值邏輯單元”。A、輸入層B、輸出層C、第一層D、第二層答案:B解析:機(jī)器學(xué)習(xí)185.任何一個核函數(shù)都隱式地定義了一個(__)空間。A、希爾伯特空間B、再生希爾伯特空間C、再生核希爾伯特空間D、歐式空間答案:C解析:機(jī)器學(xué)習(xí)P128186.多元線性回歸的訓(xùn)練樣本由(__)個屬性描述。A、一B、二C、三D、多答案:D解析:機(jī)器學(xué)習(xí)187.在IBM提出的企業(yè)管理范疇中,企業(yè)數(shù)據(jù)不包含(__)。A、元數(shù)據(jù)B、主數(shù)據(jù)C、關(guān)系數(shù)據(jù)D、業(yè)務(wù)數(shù)據(jù)答案:D解析:數(shù)據(jù)科學(xué)理論與實踐188.長短時記憶神經(jīng)網(wǎng)絡(luò)被設(shè)計用來解決什么問題?()A、傳統(tǒng)RNN存在的梯度消失/爆炸問題B、傳統(tǒng)RNN計算量大的問題C、傳統(tǒng)RNN速度較慢的問題D、傳統(tǒng)RNN容易過過擬合的問題答案:A解析:深度學(xué)習(xí)LSTMP249189.以下關(guān)于機(jī)器學(xué)習(xí)描述錯誤的是(__)。A、機(jī)器學(xué)習(xí)的目標(biāo)是使學(xué)得的模型能很好地適用于“新樣本”B、學(xué)得模型適用于新樣本的能力,稱為“泛化”能力C、具有強(qiáng)泛化能力的模型不能很好地適用于整個樣本空間D、一般認(rèn)為,數(shù)據(jù)樣本越多,獲得的模型的泛化能力越強(qiáng)答案:C解析:機(jī)器學(xué)習(xí)P3190.(__)是指抽取情感文本中有價值的情感信息,其要判斷一個單詞或詞組在情感表達(dá)中扮演的角色,包括情感表達(dá)者識別,評價對象識別,情感觀點(diǎn)詞識別等任務(wù)。A、情感分類B、情感檢索C、情感抽取D、情感分析答案:C解析:/weixin_42398658/article/details/85222547191.下面哪種不屬于池化操作()。A、連接池化B、一般池化C、重疊池化D、金字塔池化答案:A解析:深度學(xué)習(xí)卷積網(wǎng)絡(luò)P203192.(__)由兩層神經(jīng)元組成。A、神經(jīng)系統(tǒng)B、神經(jīng)網(wǎng)絡(luò)C、神經(jīng)元D、感知機(jī)答案:D解析:機(jī)器學(xué)習(xí)193.從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)出一組能用于對未見示例進(jìn)行判別的規(guī)則,這個過程稱為(__)。A、機(jī)器學(xué)習(xí)B、規(guī)則學(xué)習(xí)C、直推學(xué)習(xí)D、主動學(xué)習(xí)答案:B解析:機(jī)器學(xué)習(xí)194.RNN不同于其它神經(jīng)網(wǎng)絡(luò)的地方在于()。A、實現(xiàn)了記憶功能B、速度快C、精度高D、易于搭建答案:A解析:深度學(xué)習(xí)序列建模P227195.(__)的目的是為給定學(xué)習(xí)器選擇最有利于其性能、“量身定做”的特征子集。A、過濾式選擇B、包裹式選擇C、嵌入式選擇D、正則化答案:B解析:機(jī)器學(xué)習(xí)196.下面不屬于商業(yè)的有(__)。A、howgoodB、stitchfixC、instacartD、cyence答案:D解析:數(shù)據(jù)科學(xué)理論與實踐197.將閔可夫斯基距離和(__)結(jié)合即可處理混合屬性。A、ValueDifferenceMectricB、k-meansC、k近鄰D、SVM答案:A解析:機(jī)器學(xué)習(xí)198.給定詞匯表如下:{"Bob","ok","like","football","car"}。則下面句子“Botlikesfootball"的詞袋模型表示為:A、[11100]B、[10110]C、[10010]D、[01101]答案:B解析:統(tǒng)計自然語言處理語言模型P162,命名實體翻譯P585199.數(shù)據(jù)科學(xué)是一門將“現(xiàn)實世界”映射到“數(shù)據(jù)世界”,在“數(shù)據(jù)層次”上研究“現(xiàn)實世界”的問題,并根據(jù)“數(shù)據(jù)世界”的分析結(jié)果,對“現(xiàn)實世界”進(jìn)行預(yù)測、解釋或決策的(____)。A、新興科學(xué)B、交叉性學(xué)科C、獨(dú)立學(xué)科D、一整套知識體系答案:A解析:數(shù)據(jù)科學(xué)理論與實踐200.下面關(guān)于貝葉斯學(xué)習(xí)相關(guān)描述正確的有(__)。A、貝葉斯學(xué)習(xí)等價于頻數(shù)概率B、頻數(shù)概率引入先驗知識和邏輯推理來處理不確定問題C、貝葉斯學(xué)習(xí)只從數(shù)據(jù)本身獲得結(jié)論D、貝葉斯學(xué)習(xí)是一種以貝葉斯法則為基礎(chǔ)的,并通過概率手段進(jìn)行學(xué)習(xí)的方法答案:D解析:數(shù)據(jù)科學(xué)理論與實踐201.k近鄰學(xué)習(xí)是一種(__)。A、監(jiān)督學(xué)習(xí)方法B、半監(jiān)督學(xué)習(xí)方法C、無監(jiān)督學(xué)習(xí)方法D、測試方法答案:A解析:機(jī)器學(xué)習(xí)P225202.下列關(guān)于TF-IDF說法正確的是?A、該值與特征項在文檔中出現(xiàn)的頻率成反比B、該值與特征項在文檔中出現(xiàn)的頻率成正比C、該值與在整個語料庫中出現(xiàn)該特征項的文檔庫成正比D、該值與特征項在文檔中出現(xiàn)的頻率無關(guān)答案:B解析:統(tǒng)計自然語言處理語言模型自適應(yīng)方法P190,特征權(quán)重計算方法P673203.下面關(guān)于“領(lǐng)域務(wù)實知識”相關(guān)描述不正確的有(__)。A、“領(lǐng)域務(wù)實知識”是對數(shù)據(jù)科學(xué)家的特殊要求B、領(lǐng)域務(wù)實知識具有顯著的面向領(lǐng)域性C、領(lǐng)域務(wù)實知識是數(shù)據(jù)科學(xué)的理論基礎(chǔ)D、在組建團(tuán)隊時,不需重視領(lǐng)域?qū)<业膮⑴c答案:D解析:數(shù)據(jù)科學(xué)理論與實踐204.下列對于精度的描述,解釋正確的是(__)。A、統(tǒng)計分類器預(yù)測出來的結(jié)果與真實結(jié)果不相同的個數(shù),然后除以總的樣例集D的個數(shù)。B、先統(tǒng)計分類正確的樣本數(shù),然后除以總的樣例集D的個數(shù)。C、預(yù)測為正的樣例中有多少是真正的正樣例D、樣本中的正例有多少被預(yù)測正確答案:B解析:/program_developer/article/details/79937291205.(__)不屬于基于實例學(xué)習(xí)方法。A、KNNB、局部加權(quán)回歸算法C、基于案例的推理D、決策樹算法答案:D解析:數(shù)據(jù)科學(xué)理論與實踐206.(__)用于將非線性引入神經(jīng)網(wǎng)絡(luò)。它會將值縮小到較小的范圍內(nèi)。A、損失函數(shù)B、優(yōu)化函數(shù)C、激活函數(shù)D、目標(biāo)函數(shù)答案:C解析:/jinyuan7708/article/details/82466653207.(__)直接把最終將要使用的學(xué)習(xí)器的性能作為特征子集的評價標(biāo)準(zhǔn)。A、過濾式選擇B、包裹式選擇C、嵌入式選擇D、正則化答案:B解析:機(jī)器學(xué)習(xí)208.決策樹中的葉結(jié)點(diǎn)對應(yīng)于(__)。A、屬性B、樣本C、決策結(jié)果D、標(biāo)簽值答案:C解析:機(jī)器學(xué)習(xí)P74209.若學(xué)習(xí)算法不依賴于環(huán)境建模,則稱為(__)A、免模型學(xué)習(xí)B、機(jī)器學(xué)習(xí)C、深度學(xué)習(xí)D、蒙特卡羅強(qiáng)化學(xué)習(xí)答案:A解析:機(jī)器學(xué)習(xí)210.下列哪個方法不屬于情感分析的評測?A、COAE評測B、cifar10數(shù)據(jù)集評測C、CCFTCCI評測D、TAC評測答案:B解析:統(tǒng)計自然語言處理情感分析技術(shù)評測P737211.一切以數(shù)據(jù)作為驅(qū)動或者核心的產(chǎn)品叫做()A、創(chuàng)新性產(chǎn)品B、數(shù)據(jù)產(chǎn)品C、風(fēng)控產(chǎn)品D、核心產(chǎn)品答案:B解析:數(shù)據(jù)科學(xué)理論與實踐P157212.核矩陣是(__)的。A、沒有規(guī)律B、半正定C、正定D、樣本矩陣答案:B解析:機(jī)器學(xué)習(xí)213.在馬爾科夫隨機(jī)場中,(__)個變量之間的聯(lián)合概率分布能基于團(tuán)分解為多個因子的乘積。A、2B、3C、4D、多答案:D解析:機(jī)器學(xué)習(xí)P322214.以下對結(jié)構(gòu)化數(shù)據(jù)描述不正確的是(____)。A、結(jié)構(gòu)化數(shù)據(jù)可以直接用傳統(tǒng)關(guān)系數(shù)據(jù)庫進(jìn)行存儲B、先有結(jié)構(gòu),后有數(shù)據(jù)C、語音數(shù)據(jù)是結(jié)構(gòu)化數(shù)據(jù)D、XML不是結(jié)構(gòu)化數(shù)據(jù)答案:C解析:數(shù)據(jù)科學(xué)理論與實踐215.事件A在另外一個事件B已經(jīng)發(fā)生條件下的發(fā)生概率,稱為(__)。A、先驗概率B、后驗概率C、條件概率D、統(tǒng)計概率答案:C解析:/qq_17073497/article/details/81076250216.以下選項不包含在DIKW金字塔中的是(____)。A、信息B、數(shù)值C、知識D、智慧答案:B解析:數(shù)據(jù)科學(xué)理論與實踐217.決策樹的生成是一個(__)過程。A、循環(huán)B、迭代C、遞歸D、排序答案:C解析:機(jī)器學(xué)習(xí)218.信息熵是度量(__)最常用的一種指標(biāo)。A、樣本的個數(shù)B、樣本的維度C、樣本的純度D、樣本的冗余度答案:C解析:機(jī)器學(xué)習(xí)P75219.輸入圖像為32x32,經(jīng)過步長為1,不進(jìn)行padding,卷積核為5x5的卷積層后,得到的特征圖尺寸是多少?()A、28x28B、27x27C、29x29D、32x32答案:A解析:深度學(xué)習(xí)201卷積網(wǎng)絡(luò)220.下面不屬于農(nóng)業(yè)的有(__)。A、farmersB、farmlogsC、prosperaD、uber答案:D解析:數(shù)據(jù)科學(xué)理論與實踐221.(__)主要面向自然科學(xué),尤其是地理、物理、化學(xué)、醫(yī)學(xué)等領(lǐng)域。A、信息可視化B、科學(xué)可視化C、可視分析學(xué)D、數(shù)據(jù)可視化答案:B解析:數(shù)據(jù)科學(xué)理論與實踐222.Relief的擴(kuò)展變體Relief-F能夠處理(__)問題。A、二分類B、多分類C、回歸D、降維答案:B解析:機(jī)器學(xué)習(xí)223.(__)是神經(jīng)網(wǎng)絡(luò)的基本單位。A、神經(jīng)系統(tǒng)B、神經(jīng)網(wǎng)絡(luò)C、神經(jīng)元D、感知機(jī)答案:C解析:機(jī)器學(xué)習(xí)P97224.“給定訓(xùn)練樣例集,設(shè)法將樣例投影到一條直線上,使得同類樣例的投影點(diǎn)盡可能接近、異類樣例的投影點(diǎn)盡可能遠(yuǎn)離”,這說的是(__)算法。A、PCAB、SVMC、K-meansD、LDA答案:D解析:機(jī)器學(xué)習(xí)P60225.所有預(yù)測模型在廣義上都可稱為一個或一組(__)。A、公式B、邏輯C、命題D、規(guī)則答案:D解析:機(jī)器學(xué)習(xí)P348226.(__)在劃分屬性時是在當(dāng)前結(jié)點(diǎn)的屬性集合中選擇一個最優(yōu)屬性。A、AdaBoostB、RFC、BaggingD、傳統(tǒng)決策樹答案:D解析:機(jī)器學(xué)習(xí)P179227.(__)不屬于離中趨勢分析。A、極差B、平均差C、誤差D、標(biāo)準(zhǔn)差答案:C解析:數(shù)據(jù)科學(xué)理論與實踐228.在模型評估與度量的方法中,(__)直接將數(shù)據(jù)集劃分為兩個互斥的集合,一個作為訓(xùn)練集,另一個作為測試集。A、自助法B、留出法C、交叉驗證法D、錯誤率分析答案:B解析:機(jī)器學(xué)習(xí)P25229.()是一門以可視交互為基礎(chǔ),綜合運(yùn)用圖形學(xué)、數(shù)據(jù)挖掘和人機(jī)交互等技術(shù)等多個學(xué)科領(lǐng)域的知識,以實現(xiàn)人機(jī)協(xié)同完成可視化任務(wù)為主要目的分析推理性學(xué)科。A、科學(xué)可視化B、可視分析學(xué)C、數(shù)據(jù)可視化D、信息可視化答案:B解析:數(shù)據(jù)挖掘:概念與技術(shù)(第三版)P37230.下面不屬于探索性統(tǒng)計中常用離散程度統(tǒng)計量的是(__)。A、平均數(shù)B、方差C、標(biāo)準(zhǔn)差D、極大值答案:A解析:數(shù)據(jù)科學(xué)理論與實踐231.遺忘門的作用是()。A、保留重要信息B、去除不重要信息C、信息增加D、輸出答案:B解析:/qq_32241189/article/details/80461635232.數(shù)據(jù)治理任務(wù)通常有三個部分不包含(__)。A、主動定義或序化規(guī)則B、接觸數(shù)據(jù)的業(yè)務(wù)流程C、為數(shù)據(jù)利益相關(guān)者提供持續(xù)D、跨界的保護(hù)、服務(wù)和應(yīng)對并解決因不遵守規(guī)則而產(chǎn)生的問題答案:B解析:數(shù)據(jù)科學(xué)理論與實踐233.圖像平滑從信號處理的角度看就是去除其中的(__)。A、高頻信息B、低頻信息C、噪聲D、亮度信息答案:A解析:https://.cnblogs./vincentcheng/p/9261557.html234.感知機(jī)只有(__)神經(jīng)元進(jìn)行激活函數(shù)處理,即只擁有一層功能神經(jīng)元。A、輸入層B、輸出層C、第一層D、第二層答案:B解析:機(jī)器學(xué)習(xí)P99235.決策論中,將“期望損失”稱為(__)。A、均值B、方差C、風(fēng)險D、概率答案:C解析:機(jī)器學(xué)習(xí)236.下列關(guān)于泛化誤差與偏差、方差和噪音之間的關(guān)系,表述正確的是(__)。A、泛化誤差=偏差+方差-噪音B、泛化誤差=偏差-方差+噪音C、泛化誤差=偏差-方差-噪音D、泛化誤差=偏差+方差+噪音答案:D解析:機(jī)器學(xué)習(xí)237.在k均值算法中,假定聚類簇數(shù)k=3,則在算法開始時隨機(jī)選?。╛_)個樣本作為初始均值向量A、1B、2C、3D、任意答案:C解析:機(jī)器學(xué)習(xí)P203238.(__)代表的是生成數(shù)據(jù)的機(jī)構(gòu)。A、數(shù)據(jù)資源B、數(shù)據(jù)源C、數(shù)據(jù)端D、數(shù)據(jù)站答案:A解析:數(shù)據(jù)科學(xué)理論與實踐239.(__)是從海量文本中查詢到觀點(diǎn)信息,根據(jù)主題相關(guān)度和觀點(diǎn)傾向性對結(jié)果排序。A、情感分類B、情感檢索C、情感抽取D、情感分析答案:B解析:/weixin_42398658/article/details/85222547240.(__)是一類用圖來表達(dá)變量相關(guān)關(guān)系的概率模型。A、神經(jīng)元模型B、感知機(jī)模型C、概率圖模型D、SVM答案:C解析:機(jī)器學(xué)習(xí)241.信息熵的值越小,則該樣本集合的純度(__)。A、越低B、越高C、沒有影響D、自由變化答案:B解析:機(jī)器學(xué)習(xí)242.下面對屬性進(jìn)行離散化的方法為()A、preprocessing.scale()B、pd.qcut()C、pd.shapeD、pgroupby()答案:B解析:數(shù)據(jù)科學(xué)理論與實踐P106243.下列對于查全率的描述,解釋正確的是(__)。A、統(tǒng)計分類器預(yù)測出來的結(jié)果與真實結(jié)果不相同的個數(shù),然后除以總的樣例集D的個數(shù)。B、先統(tǒng)計分類正確的樣本數(shù),然后除以總的樣例集D的個數(shù)。C、預(yù)測為正的樣例中有多少是真正的正樣例D、樣本中的正例有多少被預(yù)測正確答案:D解析:/program_developer/article/details/79937291244.(__)又稱情感傾向性分析,是指對給定的文本,識別其中主觀性文本的傾向是肯定還是否定的,或者說是正面還是負(fù)面的,是情感分析領(lǐng)域研究最多的A、情感分類B、情感檢索C、情感抽取D、情感分析答案:A解析:/weixin_42398658/article/details/85222547245.下面不屬于數(shù)據(jù)科學(xué)家應(yīng)具備的能力有(__)。A、掌握機(jī)器學(xué)習(xí)B、數(shù)量掌握數(shù)據(jù)科學(xué)中常用的技術(shù)與工具C、有良好的身體素質(zhì)D、有豐富的編程經(jīng)驗答案:C解析:數(shù)據(jù)科學(xué)理論與實踐246.以下對半結(jié)構(gòu)化數(shù)據(jù)描述不正確的是(____)。A、先有數(shù)據(jù),后有結(jié)構(gòu)B、先有結(jié)構(gòu),后有數(shù)據(jù)C、HTML是半結(jié)構(gòu)化數(shù)據(jù)D、經(jīng)過一定轉(zhuǎn)換后可以用傳統(tǒng)關(guān)系數(shù)據(jù)庫存儲答案:B解析:數(shù)據(jù)科學(xué)理論與實踐247.下列不屬于數(shù)據(jù)預(yù)處理的操作是(__)。A、抽樣B、特征子集選擇C、特征變換D、訓(xùn)練答案:D解析:數(shù)據(jù)挖掘?qū)д揚(yáng)27248.LSTM的全稱是()。A、卷積神經(jīng)網(wǎng)絡(luò)B、長短時記憶C、區(qū)域神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)答案:B解析:/qq_32241189/article/details/80461635249.(__)試圖學(xué)得一個屬性的線性組合來進(jìn)行預(yù)測的函數(shù)。A、決策樹B、貝葉斯分類器C、神經(jīng)網(wǎng)絡(luò)D、線性模型答案:D解析:機(jī)器學(xué)習(xí)P53250.下面不屬于數(shù)據(jù)科學(xué)中常用的開源技術(shù)統(tǒng)計工具的有(__)。A、scipyB、numpyC、scalalabD、sentry答案:D解析:數(shù)據(jù)科學(xué)理論與實踐251.(__)是將“現(xiàn)實生活中的問題”轉(zhuǎn)換為“數(shù)據(jù)世界中的問題”,然后采用數(shù)據(jù)科學(xué)的理念、原則、方法、技術(shù)、工具,通過將數(shù)據(jù)、尤其的大數(shù)據(jù),轉(zhuǎn)換為知識和智慧。A、數(shù)據(jù)工程師B、數(shù)據(jù)碼農(nóng)C、數(shù)據(jù)科學(xué)家D、科學(xué)家答案:C解析:數(shù)據(jù)科學(xué)理論與實踐252.(__)采用概率模型來表達(dá)聚類原型。A、k均值算法B、學(xué)習(xí)向量量化C、高斯混合聚類密度聚類D、密度聚類答案:C解析:機(jī)器學(xué)習(xí)P206253.()是基于TopicModel的關(guān)鍵詞抽取。A、TF-IDFB、TextRankC、LDAD、PCA答案:C解析:/albertyzy/article/details/80534246254.隨機(jī)森林是在(__)上的一個擴(kuò)展變體。A、BoostingB、AdaBoostC、RFD、Bagging答案:D解析:機(jī)器學(xué)習(xí)255.真負(fù)率是指(__)。A、正樣本預(yù)測結(jié)果數(shù)/正樣本實際數(shù)B、被預(yù)測為負(fù)的正樣本結(jié)果數(shù)/正樣本實際數(shù)C、被預(yù)測為正的負(fù)樣本結(jié)果數(shù)/負(fù)樣本實際數(shù)D、負(fù)樣本預(yù)測結(jié)果數(shù)/負(fù)樣本實際數(shù)答案:D解析:/s/blog_710435680100oca1.html256.TF-IDF模型中TF是指(__)。A、詞頻數(shù)B、逆文檔頻率C、詞頻率D、逆文檔頻數(shù)答案:C解析:/zhaomengszu/article/details/81452907257.馬爾可夫隨機(jī)場有一組(__),這是定義在變量子集上的非負(fù)實函數(shù),主要用于定義概率分布函數(shù)。A、損失函數(shù)B、優(yōu)化函數(shù)C、激活函數(shù)D、勢函數(shù)答案:D解析:機(jī)器學(xué)習(xí)258.把詞典中的詞按照由長到短遞減的順序逐字搜索整個待處理的材料,一直到把全部的詞切分出來為止。不論分詞詞典多大,被處理的材料多么小,都得把這個分詞詞典匹配一遍。這種方法叫(__)。A、正向最大匹配法B、逆向最大匹配法C、逐詞遍歷法D、隱馬爾科夫模型答案:C解析:/devcloud/article/details/94554190259.假設(shè)一共有10篇文檔,其中某個詞A在其中10篇文章中都出現(xiàn)過,另一個詞B只在其中3篇出現(xiàn)。根據(jù)逆文檔頻率,()比較關(guān)鍵。A、無B、AC、BD、A和B答案:C解析:http://.sohu./a/209627800_750788260.假正率是指(__)。A、正樣本預(yù)測結(jié)果數(shù)/正樣本實際數(shù)B、被預(yù)測為負(fù)的正樣本結(jié)果數(shù)/正樣本實際數(shù)C、被預(yù)測為正的負(fù)樣本結(jié)果數(shù)/負(fù)樣本實際數(shù)D、負(fù)樣本預(yù)測結(jié)果數(shù)/負(fù)樣本實際數(shù)答案:C解析:/s/blog_710435680100oca1.html261.下列哪個不是專門用于可視化時間空間數(shù)據(jù)的技術(shù):A、等高線圖B、餅圖C、曲面圖D、矢量場圖答案:B解析:數(shù)據(jù)科學(xué)理論與實踐P86262.循環(huán)神經(jīng)網(wǎng)絡(luò)適合處理什么數(shù)據(jù)。()A、節(jié)點(diǎn)數(shù)據(jù)B、序列數(shù)據(jù)C、結(jié)構(gòu)化數(shù)據(jù)D、圖像數(shù)據(jù)答案:B解析:深度學(xué)習(xí)序列建模P227263.下列關(guān)于軟支持向量機(jī)的說法正確的是(__)。A、軟間隔支持向量機(jī)不可應(yīng)用拉格朗日乘子法求解B、軟間隔支持向量機(jī)和硬間隔支持向量機(jī)完全相同C、軟間隔支持向量機(jī)只能使用Hinge損失函數(shù)D、軟間隔支持向量機(jī)的目標(biāo)函數(shù)仍是一個二次規(guī)劃問題答案:D解析:機(jī)器學(xué)習(xí)264.F1參數(shù)的大小反映了模型的(__)。A、準(zhǔn)確度B、誤差C、穩(wěn)定性D、偏差答案:C解析:https://zhidao.baidu./question/1500844852433214179.html265.下面不屬于數(shù)據(jù)加工的有(__)。A、數(shù)據(jù)脫敏B、數(shù)據(jù)脫質(zhì)C、數(shù)據(jù)規(guī)約D、數(shù)據(jù)標(biāo)注答案:B解析:數(shù)據(jù)科學(xué)理論與實踐266.如果LASSO模型中的懲罰項變大,下列說法正確的是()A、部分回歸系數(shù)會變?yōu)?B、部分回歸系數(shù)會趨近于0,但不會取值為0C、A和B的表述都正確D、以上說法都不正確答案:A解析:數(shù)據(jù)科學(xué)理論與實踐P42267.下面不屬于數(shù)據(jù)科學(xué)中特有的管理方法有(__)。A、關(guān)系數(shù)據(jù)庫B、NewSQLC、NoSQLD、關(guān)系云答案:A解析:數(shù)據(jù)科學(xué)理論與實踐268.(__)訓(xùn)練好之后可以通過一些屬性變量的觀測值來推測其他屬性變量的取值。A、貝葉斯決策B、貝葉斯分類器C、貝葉斯網(wǎng)D、結(jié)構(gòu)答案:C解析:機(jī)器學(xué)習(xí)269.由于不同類別的關(guān)鍵詞對排序的貢獻(xiàn)不同,檢索算法一般把查詢關(guān)鍵詞分為幾類,以下哪一類不屬于此關(guān)鍵詞類型的是()。A、引用詞B、普通關(guān)鍵詞C、高頻詞匯D、擴(kuò)展關(guān)鍵詞答案:C解析:統(tǒng)計自然語言處理問答系統(tǒng)P714270.以下對Velocity相關(guān)描述不正確的是(____)。A、Velocity是指速度快B、實時分析數(shù)據(jù)處理要求速度快C、大數(shù)據(jù)中所說的“速度”包括兩種:增長速度和處理速度D、通常而言,處理速度比增長速度快答案:D解析:數(shù)據(jù)科學(xué)理論與實踐271.下面算法屬于局部處理的是()。A、灰度線性變換B、二值化C、傅里葉變換D、中值濾波答案:D解析:圖像處理、分析與機(jī)器視覺圖像平滑P90272.若設(shè)1.啟動,2.診斷,3.建立,4.行動,5.學(xué)習(xí),則DMM模型中的順序為(__)。A、12345B、12354C、13254D、13245答案:A解析:數(shù)據(jù)科學(xué)理論與實踐273.(__)是一門以可視化交互為基礎(chǔ),綜合運(yùn)用圖形學(xué)、數(shù)據(jù)挖掘和人機(jī)交互等多個領(lǐng)域的知識,以實現(xiàn)人機(jī)協(xié)同完成可視化任務(wù)為主要目的的分析推理性學(xué)科。A、信息可視化B、科學(xué)可視化C、可視分析學(xué)D、數(shù)據(jù)可視化答案:C解析:數(shù)據(jù)科學(xué)理論與實踐274.CART決策樹使用“基尼指數(shù)”來選擇劃分屬性時,使劃分后基尼指數(shù)()的屬性為最優(yōu)劃分屬性。A、最大B、最小C、隨機(jī)選擇D、按序選擇答案:B解析:機(jī)器學(xué)習(xí)P75275.(__)主要為數(shù)據(jù)科學(xué)和大數(shù)據(jù)產(chǎn)業(yè)鏈提供大數(shù)據(jù)分析類的技術(shù)支持。A、分析工具B、基礎(chǔ)設(shè)施C、數(shù)據(jù)科學(xué)平臺D、機(jī)器學(xué)習(xí)答案:A解析:數(shù)據(jù)科學(xué)理論與實踐276.(__)通過構(gòu)建并結(jié)合多個學(xué)習(xí)器來完成學(xué)習(xí)任務(wù)。A、支持向量機(jī)B、貝葉斯分類器C、神經(jīng)網(wǎng)絡(luò)D、集成學(xué)習(xí)答案:D解析:機(jī)器學(xué)習(xí)P171277.圖像降噪的作用(__)。A、改變圖像大小B、將圖像分成多個小單位C、去除干擾信號D、使圖像變得更加豐富答案:C解析:https://wenku.baidu./view/cd5619586d85ec3a87c24028915f804d2b1687ec.html278.下面不屬于臟數(shù)據(jù)的是(__)。A、有缺失值B、冗余數(shù)據(jù)C、噪聲數(shù)據(jù)D、無序數(shù)據(jù)答案:D解析:數(shù)據(jù)科學(xué)理論與實踐279.以下描述中不正確的是(___)。A、若欲預(yù)測的是離散值,則此學(xué)習(xí)任務(wù)稱為分類B、若預(yù)測的是連續(xù)值,則此類學(xué)習(xí)任務(wù)稱為回歸C、學(xué)得的模型適用于新樣本的能力,稱訓(xùn)練能力D、從數(shù)據(jù)中學(xué)得模型的過程稱為學(xué)習(xí)答案:C解析:機(jī)器學(xué)習(xí)P2,3280.下列對于錯誤率的公式,解釋正確的是(__)。A、統(tǒng)計分類器預(yù)測出來的結(jié)果與真實結(jié)果不相同的個數(shù),然后除以總的樣例集D的個數(shù)。B、先統(tǒng)計分類正確的樣本數(shù),然后除以總的樣例集D的個數(shù)。C、預(yù)測為正的樣例中有多少是真正的正樣例D、樣本中的正例有多少被預(yù)測正確答案:A解析:/program_developer/article/details/79937291281.以下關(guān)于歸納偏好描述錯誤的是(___)。A、不是每一個有效的機(jī)器學(xué)習(xí)算法必有其歸納偏好B、歸納偏好可看做學(xué)習(xí)算法自身在一個可能很龐大的假設(shè)空間中對假設(shè)進(jìn)行選擇的啟發(fā)式或“價值觀”C、歸納偏好對應(yīng)了學(xué)習(xí)算法本身所做出的的關(guān)于“什么樣的模型更好”的假設(shè)D、如果沒有歸納偏好,學(xué)習(xí)算法在每次進(jìn)行預(yù)測時將隨機(jī)抽選訓(xùn)練集上的等效假設(shè)答案:A解析:機(jī)器學(xué)習(xí)P6,7282.(__)是在不影響數(shù)據(jù)分析結(jié)果準(zhǔn)確性的前提下,對原始數(shù)據(jù)進(jìn)行一定的變換操作,對其中的個人(組織)敏感數(shù)據(jù)進(jìn)行替換或刪除操作。A、數(shù)據(jù)加工B、數(shù)據(jù)保護(hù)C、數(shù)據(jù)脫敏D、數(shù)據(jù)清洗答案:C解析:數(shù)據(jù)科學(xué)理論與實踐283.下面不屬于數(shù)據(jù)歸約方法有(__)。A、維歸約B、度歸約C、值歸約D、數(shù)據(jù)壓縮答案:B解析:數(shù)據(jù)科學(xué)理論與實踐284.以下描述不正確的是(__)。A、耐抗性是指對于數(shù)據(jù)局部不良反應(yīng)的非敏感性B、殘差是指一個總括統(tǒng)計量或模型擬合值減去數(shù)據(jù)C、重新表達(dá)是指找到合適的尺度或數(shù)據(jù)表達(dá)方式進(jìn)行一定的轉(zhuǎn)換,使得有利于數(shù)據(jù)分析D、啟示是指通過探索性分析,發(fā)現(xiàn)新的瑰麗,問題和啟迪,進(jìn)而滿足數(shù)據(jù)加工和數(shù)據(jù)分析的需要答案:B解析:數(shù)據(jù)科學(xué)理論與實踐285.決策樹的基本流程遵循(__)的策略。A、貪心B、最優(yōu)化C、分而治之D、順序答案:C解析:機(jī)器學(xué)習(xí)P74286.Relief是為(__)問題設(shè)計的。A、二分類B、多分類C、回歸D、降維答案:A解析:機(jī)器學(xué)習(xí)287.(__)采用圖表或數(shù)學(xué)方法描述數(shù)據(jù)的統(tǒng)計特征。A、描述統(tǒng)計B、洞見統(tǒng)計C、推斷統(tǒng)計D、歸納統(tǒng)計答案:A解析:數(shù)據(jù)科學(xué)理論與實踐288.數(shù)據(jù)戰(zhàn)略的側(cè)重點(diǎn)是(__)。A、數(shù)據(jù)密集型問題B、計算密集型問題C、人才密集型問題D、模型密集型問題答案:A解析:數(shù)據(jù)科學(xué)理論與實踐289.規(guī)則生成本質(zhì)上是一個(

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論