能源大數(shù)據(jù)應(yīng)用開發(fā)技能競賽理論考試題庫-上(單選題)_第1頁
能源大數(shù)據(jù)應(yīng)用開發(fā)技能競賽理論考試題庫-上(單選題)_第2頁
能源大數(shù)據(jù)應(yīng)用開發(fā)技能競賽理論考試題庫-上(單選題)_第3頁
能源大數(shù)據(jù)應(yīng)用開發(fā)技能競賽理論考試題庫-上(單選題)_第4頁
能源大數(shù)據(jù)應(yīng)用開發(fā)技能競賽理論考試題庫-上(單選題)_第5頁
已閱讀5頁,還剩151頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

PAGEPAGE1能源大數(shù)據(jù)應(yīng)用開發(fā)技能競賽理論考試題庫-上(單選題匯總)一、單選題1.下列關(guān)于運算符優(yōu)先級的說法不正確的是()A、運算符按照優(yōu)先級順序表進行運算B、同一優(yōu)先級的運算符在表達式中都是按照從左到右的順序進行運算的C、同一優(yōu)先級的運算符在表達式中都是按照從右到左的順序進行運算的D、括號可以改變運算的優(yōu)先次序答案:C2.CNN神經(jīng)網(wǎng)絡(luò)對圖像特征提取帶來了變革性的變化,使之前的人工特征提取升級到數(shù)據(jù)驅(qū)動的自動特征提取,在CNN中,起到特征提取作用的網(wǎng)絡(luò)層是:(__)。A、convolution層B、fullC、maxD、norm層答案:A3.下列場景中最有可能應(yīng)用人工智能的是()。A、刷臉辦電B、輿情分析C、信通巡檢機器人D、以上答案都正確答案:D4.關(guān)于OLAP和OLTP的區(qū)別描述,不正確的是()。A、OLAP主要是關(guān)于如何理解聚集的大量不同的數(shù)據(jù).它與OTAP應(yīng)用程序不同。B、與OLAP應(yīng)用程序不同,OLTP應(yīng)用程序包含大量相對簡單的事務(wù)。C、OLAP的特點在于事務(wù)量大,但事務(wù)內(nèi)容比較簡單且重復(fù)率高。D、OLAP是以數(shù)據(jù)倉庫為基礎(chǔ)的,但其最終數(shù)據(jù)來源與OLTP一樣均來自底層的數(shù)據(jù)庫系統(tǒng),兩者面對的用戶是相同的答案:C5.標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對于網(wǎng)絡(luò)輸出的影響隨時間A、不斷遞歸而衰退B、不斷遞歸而增強C、先增強后減弱D、先減弱后增強答案:A6.下列哪一項在神經(jīng)網(wǎng)絡(luò)中引入了非線性()A、SGDB、激活函數(shù)C、卷積函數(shù)D、都不正確答案:B7.長短時記憶神經(jīng)網(wǎng)絡(luò)被設(shè)計用來解決什么問題()A、傳統(tǒng)RNN存在的梯度消失/爆炸問題B、傳統(tǒng)RNN計算量大的問題C、傳統(tǒng)RNN速度較慢的問題D、傳統(tǒng)RNN容易過過擬合的問題答案:A8.有關(guān)Hadoop的陳述哪個是錯誤的()。A、它運行在通用硬件上;B、它是Apache軟件基金會(ASC、下的項目;D、它是最好的實時流式數(shù)據(jù)處理框架;E、Hadoop對數(shù)據(jù)的處理是有延遲的;F、nan答案:C9.以下表名不符合數(shù)據(jù)中臺分析層命名規(guī)范的是()。A、dim_cst_cust_dfB、dim_cst_custC、dws_cst_cust_dfD、wd_cst_cust答案:D10.以電力數(shù)據(jù)()服務(wù)為核心動能,驅(qū)動新興業(yè)務(wù)拓展。A、挖掘B、應(yīng)用C、信用D、增值答案:C11.縣級以上地方人民政府有關(guān)部門的網(wǎng)絡(luò)安全保護和(),根據(jù)國家有關(guān)規(guī)定確定。A、調(diào)研指導(dǎo)職責(zé)B、監(jiān)督管理職責(zé)C、行政執(zhí)法職責(zé)D、制度規(guī)劃職責(zé)答案:B12.個人信息保護影響評估報告和處理情況記錄應(yīng)當(dāng)至少保存()年。A、一B、十C、五D、三答案:D13.公司企業(yè)中臺基于()構(gòu)建,是企業(yè)級能力共享平臺。A、華為云B、國網(wǎng)云C、阿里云D、百度云答案:B14.LSTM中,()的作用是確定哪些新的信息留在細(xì)胞狀態(tài)中,并更新細(xì)胞狀態(tài)。A、輸入門B、遺忘門C、輸出門D、更新門答案:A15.長短時記憶網(wǎng)絡(luò)屬于一種()。A、全連接神經(jīng)網(wǎng)絡(luò)B、門控RNNC、BP神經(jīng)網(wǎng)絡(luò)D、雙向RNN答案:B16.使用copy模塊深拷貝的方法為()。A、copy()B、deepcopy.copy()C、opy.deepcopy()D、eepcopy.deepcopy()答案:C17.以習(xí)近平新時代中國特色社會主義思想為指導(dǎo),全面貫徹習(xí)近平總書記關(guān)于網(wǎng)絡(luò)強國的重要思想和國家網(wǎng)絡(luò)空間安全戰(zhàn)略、回家大數(shù)據(jù)發(fā)展戰(zhàn)路,認(rèn)其落實回務(wù)院回資委加睡容規(guī)作理、建設(shè)法治央企工作部署,緊扣“穩(wěn)、進、()、開〞四字要求。A、平B、管C、育D、信答案:C18.下列關(guān)于數(shù)據(jù)分析的說法正確的是()A、描述性分析和預(yù)測性分析是診斷性分析的基礎(chǔ)B、診斷性分析是對規(guī)范性分析的進一步理解C、預(yù)測性分析是規(guī)范性分析的基礎(chǔ)D、規(guī)范性分析是數(shù)據(jù)分析的最高階段,可以直接產(chǎn)生產(chǎn)業(yè)價值答案:C19.SVM算法中,對于線性不可分的情況,通過使用非線性的映射函數(shù)可以將低維不可分的樣本轉(zhuǎn)化到高維空間使其線性可分,這樣的非線性映射函數(shù)稱為(?)A、激活函數(shù)B、核函數(shù)C、超函數(shù)D、轉(zhuǎn)換函數(shù)答案:B20.假定在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,得到輸出「-0.0001」。X可能是以下哪一個激活函數(shù)?A、ReLUB、tanhC、SIGMOIDD、以上都不是答案:B21.以下算法中不屬于基于深度學(xué)習(xí)的圖像分割算法是()。A、FCNB、deeplabC、Mask-RCNND、kNN答案:D22.在池化中,當(dāng)步長小于卷積核的大小時會稱為重疊池化。與非重疊池化相比,下面哪個不是重疊池化的優(yōu)點?()A、損失信息少B、獲得的圖像特征更豐富C、提高卷積神經(jīng)網(wǎng)絡(luò)的正確率D、減少計算量答案:D23.語音識別的應(yīng)用場景包括()A、語音轉(zhuǎn)文本B、語音合成C、人機交互D、以上都對答案:D24.下面不屬于池化操作()A、連接池化B、一般池化C、重疊池化D、金字塔池化答案:A25.從復(fù)雜度及價值高低兩個維度,可以將數(shù)據(jù)分析分為()。A、描述性分析、診斷性分析、預(yù)測性分析、探索性分析B、探索性分析、診斷性分析、預(yù)測性分析、規(guī)范性分析C、探索性分析、描述性分析、預(yù)測性分析、規(guī)范性分析D、描述性分析、診斷性分析、預(yù)測性分析、規(guī)范性分析答案:D26.國家提倡誠實守信,()的網(wǎng)絡(luò)行為,推動傳播社會注意核心價值觀,實行措施提高全社會的網(wǎng)絡(luò)安全意識和水平,形成全社會共同參加促進網(wǎng)絡(luò)安全的良好環(huán)境。A、自由公平B、健康文明C、團結(jié)互助D、和平友愛答案:B27.下列不屬于深度學(xué)習(xí)的是()。A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、強化學(xué)習(xí)D、自主學(xué)習(xí)答案:D28.卷積神經(jīng)網(wǎng)絡(luò)的第一層中有10個卷積核,每個卷積核尺寸為5*5,步長為1,不補零,該層的輸入圖片的維度是224x224x3,那么該層輸出的維度是()A、220x220x10B、220x220x5C、224x224x10D、224x224x5答案:A29.以下符合大數(shù)據(jù)問題處理范疇的是:A、1KB數(shù)據(jù),1小時內(nèi)提交結(jié)果B、1MB數(shù)據(jù),2小時內(nèi)提交結(jié)果C、1GB數(shù)據(jù),3小時內(nèi)提交結(jié)果D、1TB數(shù)據(jù),0.5小時內(nèi)提交結(jié)果答案:D30.銀行進行戶購買力分析,首先獲取戶歷史賬年,確定其中各項南品的計算權(quán)重,得出每位客戶的購買力評分并存儲記錄,最后將結(jié)果以圖表顯示。請問該過程對應(yīng)于以下哪個項目數(shù)據(jù)流程設(shè)計。A、數(shù)據(jù)源->數(shù)據(jù)處理->數(shù)據(jù)落地->數(shù)據(jù)可視化B、數(shù)據(jù)可視化->數(shù)據(jù)源->數(shù)據(jù)處理->數(shù)據(jù)落地C、數(shù)據(jù)可視化->數(shù)據(jù)源-)數(shù)據(jù)落地->數(shù)據(jù)處理D、數(shù)據(jù)源->數(shù)據(jù)落地->數(shù)據(jù)處理->數(shù)據(jù)可視化答案:A31.數(shù)據(jù)分析思維模式主要從()入手,最終改變()A、數(shù)據(jù);業(yè)務(wù)B、業(yè)務(wù);數(shù)據(jù)C、數(shù)據(jù);項目D、項目;數(shù)據(jù)答案:A32.開展數(shù)據(jù)產(chǎn)品研發(fā)、發(fā)布等活動時,應(yīng)確保遵從國家法律法規(guī)、數(shù)據(jù)主體授權(quán)范圍、公司相關(guān)規(guī)章制度等()保護要求。A、數(shù)據(jù)使用B、數(shù)據(jù)研發(fā)C、數(shù)據(jù)交換D、數(shù)據(jù)安全答案:D33.合作單位和供應(yīng)商的開發(fā)測試環(huán)境與公司()應(yīng)做好隔離。A、內(nèi)網(wǎng)環(huán)境B、測試環(huán)境C、生產(chǎn)環(huán)境D、業(yè)務(wù)環(huán)境答案:C34.循環(huán)神經(jīng)網(wǎng)絡(luò)適合處理什么數(shù)據(jù)()A、節(jié)點數(shù)據(jù)B、序列數(shù)據(jù)C、結(jié)構(gòu)化數(shù)據(jù)D、圖像數(shù)據(jù)答案:B35.以下掃描算子中用于對列存表進行掃描的算子是:()。A、SeqScanB、CstoreScanC、SubqueryScanD、ValuesScan答案:B36.數(shù)據(jù)中臺采用總部和()兩級部署模式構(gòu)建。A、省市公司B、市公司C、省公司D、市縣公司答案:A37.以下對Python程序設(shè)計風(fēng)格描述錯誤的選項是:A、Python中不允許把多條語句寫在同一行B、PythonC、Python語句中,增加縮進表示語句塊的開始,減少縮進表示語句塊的退出D、Python可以將一條長語句分成多行顯示,使用續(xù)航符“\”答案:A38.假設(shè)你正在訓(xùn)練一個LSTM網(wǎng)絡(luò),你有一個10,000詞的詞匯表,并且使用一個激活值維度為100的LSTM塊,在每一個時間步中,Γu的維度是多少。A、1B、100C、300D、10000答案:B39.以下統(tǒng)計學(xué)知識,數(shù)據(jù)科學(xué)中不常用的是()。A、歸納分析法B、描述統(tǒng)計C、推斷統(tǒng)計D、基本分析法答案:A40.假設(shè)你需要調(diào)整超參數(shù)來最小化代價函數(shù)(costfunction),會使用下列哪項技術(shù)A、窮舉搜索B、隨機搜索C、Bayesian優(yōu)化D、都可以答案:D41.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果模型不包括()。A、權(quán)重矩陣B、偏置參數(shù)C、超參數(shù)D、計算圖答案:C42.下列哪個不是專門用于可視化時間空間數(shù)據(jù)的技術(shù)(__)。A、等高線圖B、餅圖C、曲面圖D、矢量場圖答案:B43.關(guān)于Python的全局變量和局部變量,以下選項中描述錯誤的是()A、使用global保留字聲明簡單數(shù)據(jù)類型變量后,該變量作為全局變量使用B、局部變量指在函數(shù)內(nèi)部使用的變量,當(dāng)函數(shù)退出時,變量依然存在,下次函數(shù)調(diào)用可以繼續(xù)使用C、簡單數(shù)據(jù)類型變量無論是否與全局變量重名,僅在函數(shù)內(nèi)部創(chuàng)建和使用,函數(shù)退出后變量被釋放D、全局變量指在函數(shù)之外定義的變量,一般沒有縮進,在程序執(zhí)行全過程有效答案:B44.保護數(shù)據(jù)本身安全,即為保護商業(yè)秘密和業(yè)務(wù)正常運行而必須保障數(shù)據(jù)()、完整性、可用性A、及時性B、準(zhǔn)確性C、機密性D、一致性答案:C45.在MapReduce中,reduce()函數(shù)可以將()值相同的輸入進行合并處理。A、inputB、keyC、valueD、number答案:B46.使用pivot_table函數(shù)制作透視表時,要用下列()參數(shù)設(shè)置行分組鍵。A、datB、valuesC、olumnsD、Index答案:D47.下面關(guān)于展示數(shù)據(jù)管理說法不正確的是()A、大廳場景數(shù)據(jù)應(yīng)基于數(shù)據(jù)中臺統(tǒng)一獲取B、建立大廳數(shù)據(jù)質(zhì)量常態(tài)巡檢核查機制C、不得違規(guī)存儲、處理涉及敏感數(shù)據(jù)。D、歷史數(shù)據(jù)需要刪除答案:D48.常用深度學(xué)習(xí)平臺包括()。A、PYTORCB、C、SQLD、HADOOPE、MAPREDUCEF、nan答案:A49.()的主要目標(biāo)是提供可擴展的機器學(xué)習(xí)算法及其實現(xiàn),旨在幫助開發(fā)人員更加方便快捷地創(chuàng)建智能應(yīng)用程序。A、MahoutB、FlumeC、SqoopD、HBase答案:A50.重視能力建設(shè),加強大數(shù)據(jù)應(yīng)用關(guān)鍵技術(shù)研究、軟硬件環(huán)境建設(shè),推動技術(shù)、資源和管理的有機融合,建立常態(tài)化人才培養(yǎng)機制,持續(xù)提升公司大數(shù)據(jù)(),為公司數(shù)字化轉(zhuǎn)型注入強大動力。A、分析挖掘能力B、應(yīng)用開發(fā)能力C、特征處理能力D、安全管理能力答案:B51.Hive的計算引擎是()。A、SparkB、MapReduceC、HDFSD、HBase答案:B52.Project被設(shè)置了“保護模式”以后,以下()說法是正確。A、所有人都無法訪問該Project中的數(shù)據(jù)B、只有管理員可以訪問該Project中的數(shù)據(jù)C、用戶可以在本Project中訪問數(shù)據(jù),但是不能將數(shù)據(jù)導(dǎo)出到外部。D、以上全部答案:C53.由于不同類別的關(guān)鍵詞對排序的貢獻不同,檢索算法一般把查詢關(guān)鍵詞分為幾類,以下哪一類不屬于此關(guān)鍵詞類型的是()。A、引用詞B、普通關(guān)鍵詞C、高頻詞匯D、擴展關(guān)鍵詞答案:C54.下列說法錯誤的是()A、當(dāng)目標(biāo)函數(shù)是凸函數(shù)時,梯度下降算法的解一般就是全局最優(yōu)解B、進行C、AD、沿負(fù)梯度的方向一定是最優(yōu)的方向E、利用拉格朗日函數(shù)能解帶約束的優(yōu)化問題F、nan答案:C55.下列哪項關(guān)于模型能力(modelcapacity)的描述是正確的?(指模型能近似復(fù)雜函數(shù)的能力)A、隱層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學(xué)習(xí)率增加,模型能力增加D、都不正確答案:A56.假設(shè)已經(jīng)在ImageNet數(shù)據(jù)集(物體識別)上訓(xùn)練好了一個卷積神經(jīng)網(wǎng)絡(luò)。然后給這張卷積神經(jīng)網(wǎng)絡(luò)輸入一張全白的圖片。對于這個輸入的輸出結(jié)果為任何種類的物體的可能性都是一樣的,對嗎?A、對的B、不知道C、依情況而定D、不對答案:D57.業(yè)務(wù)中臺提供“()”創(chuàng)新能力和統(tǒng)一的企業(yè)級共享服務(wù),持續(xù)提升業(yè)務(wù)創(chuàng)新效率。A、敏捷、快速、低成本B、快速、便捷、低成本C、敏捷、高效、快速D、高效、便捷、可持續(xù)答案:A58.受到治安管理處罰的人員,()不得從事網(wǎng)絡(luò)安全管理和網(wǎng)絡(luò)運營關(guān)鍵崗位的工作;受到刑事處罰的人員,()不得從事網(wǎng)絡(luò)安全管理和運營關(guān)鍵崗位的工作。A、五年內(nèi),十年內(nèi)B、三年內(nèi),終身C、三年內(nèi),十年內(nèi)D、五年內(nèi),終身答案:D59.樸素貝葉斯分類器的樸素之處在于:A、只能處理低維屬性B、只能處理離散型屬性C、分類效果一般D、屬性之間的條件獨立性假設(shè)答案:D60.CNN的()不能夠減少網(wǎng)絡(luò)自由參數(shù)的個數(shù)。A、全連接層B、池化C、權(quán)值共享D、局部連接答案:A61.CNN神經(jīng)網(wǎng)絡(luò)對圖像特征提取帶來了變革性的變化,使之前的人工特征提取升級到數(shù)據(jù)驅(qū)動的自動特征提取,在CNN中,起到特征提取作用的網(wǎng)絡(luò)層是()。A、卷積層B、全連接層C、池化層D、采樣層答案:A62.下列關(guān)于Python第三方庫的安裝方法說法錯誤的是()。A、使用集成安裝工具B、使用pip命令C、訪問UCI網(wǎng)站下載安裝文件D、聯(lián)系第三方庫作者索要安裝文件答案:D63.在數(shù)據(jù)集中,記錄關(guān)于一個事件或?qū)ο蟮拿枋龇Q為____。A、子類B、元素C、屬性D、樣本答案:D64.下列哪個不是專門用于可視化時間空間數(shù)據(jù)的技術(shù):()。A、等高線圖B、餅圖C、曲面圖D、矢量場圖答案:B65.防止()發(fā)布或交互企業(yè)重要數(shù)據(jù)以及個人信息,擾亂互聯(lián)網(wǎng)秩序等違法違規(guī)活動。A、非法B、擅自C、負(fù)面信息D、非授權(quán)答案:D66.在回歸分析中,說法正確的是()。A、解釋變量和被解釋變量都是隨機變量B、解釋變量為非隨機變量,被解釋變量為隨機變量C、解釋變量和被解釋變量都為非隨機變量D、解釋變量為隨機變量,被解釋變量為非隨機變量答案:B67.有關(guān)深度學(xué)習(xí)加速芯片,以下的說法中不正確的是:A、GPU既可以做游戲圖形加速,也可以做深度學(xué)習(xí)加速B、用于玩游戲的高配置顯卡,也可以用于深度學(xué)習(xí)計算。C、GoogleD、FPGA最早是作為CPLD的競爭技術(shù)而出現(xiàn)的答案:C68.在Hadoop的分區(qū)階段,默認(rèn)的Partitioner是()。A、RangePartitionerB、PartitionerC、HashPartitionerD、用戶自定義的Partitioner答案:C69.數(shù)據(jù)資產(chǎn)質(zhì)量管理遵循“誰產(chǎn)生、誰負(fù)責(zé)”的原則,明確數(shù)據(jù)資產(chǎn)質(zhì)量的責(zé)任歸屬,同一責(zé)任人產(chǎn)生的同一數(shù)據(jù)項一年內(nèi)出現(xiàn)()以上質(zhì)量問題,對責(zé)任單位予以通報批評,同時按照公司員工獎懲規(guī)定第十二條追究相關(guān)人員責(zé)任,具體懲處按照公司員工違規(guī)違紀(jì)行為懲處細(xì)則第十三條執(zhí)行。A、一次B、兩次C、三次D、三次以上答案:B70.從網(wǎng)絡(luò)的原理上來看,結(jié)構(gòu)最復(fù)雜的神經(jīng)網(wǎng)絡(luò)是()。A、卷積神經(jīng)網(wǎng)絡(luò)B、長短時記憶神經(jīng)網(wǎng)絡(luò)C、GRUD、BP答案:B71.數(shù)據(jù)產(chǎn)品和服務(wù)提供方與使用方應(yīng)簽署相關(guān)使用協(xié)議,明確約束()等雙方權(quán)利義務(wù)。A、使用范圍B、安全規(guī)則C、使用規(guī)則D、保密規(guī)則答案:C72.線性判別分析(LDA)從貝葉斯決策理論闡釋,當(dāng)兩類數(shù)據(jù)同先驗且滿足()時,LDA達到最優(yōu)分類。A、滿足高斯分布B、協(xié)方差相等C、滿足高斯分布且協(xié)方差相等D、協(xié)方差不等答案:C73.依據(jù)《國家電網(wǎng)有限公司數(shù)據(jù)管理辦法》,建立基于()的公司對內(nèi)數(shù)據(jù)共享機制,堅持“以共享為原則、不共享為例外”,改變當(dāng)前“一事一議”、層層審批的數(shù)據(jù)應(yīng)用授權(quán)方式。A、負(fù)面清單B、管理職責(zé)C、運維單位D、文件規(guī)定答案:A74.()是指通過訓(xùn)練而得到一種識別規(guī)則,通過此識別規(guī)則可以得到一種特征分類,使圖像識別技術(shù)能夠得到高識別率。A、預(yù)處理B、特征抽取和選擇C、分類器設(shè)計D、分類決策答案:C75.以下不符合大數(shù)據(jù)問題處理范疇的是A、1TB數(shù)據(jù),秒級提交結(jié)果B、1TB數(shù)據(jù),分鐘級提交結(jié)果C、1TB數(shù)據(jù),半小時內(nèi)提交結(jié)果D、1TB數(shù)據(jù),一天內(nèi)提交結(jié)果答案:D76.以下關(guān)于函數(shù)的描述,錯誤的是A、使用函數(shù)的目的只是為了增加代碼復(fù)用B、函數(shù)是一種功能抽象C、使用函數(shù)后,代碼的維護難度降低了D、函數(shù)名可以是任何有效的Python標(biāo)識符答案:A77.已知池中有兩種魚,比例為7:3,若隨機撈上一條,按照70%和30%概率隨機猜測其種類,則整體誤差最接近于:A、20%B、30%C、40%D、50%答案:C78.有關(guān)深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練(Training)和推斷(Inference),以下說法中不正確的是:()。A、將數(shù)據(jù)分組部署在不同GPU上進行訓(xùn)練能提高深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度。B、TensorFlow使用GPU訓(xùn)練好的模型,在執(zhí)行推斷任務(wù)時,也必須在GPU上運行。C、將模型中的浮點數(shù)精度降低,例如使用float16代替float32,可以壓縮訓(xùn)練好的模型的大小。D、GPU所配置的顯存的大小,對于在該GPU上訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)的復(fù)雜度、訓(xùn)練數(shù)據(jù)的批次規(guī)模等,都是一個無法忽視的影響因素答案:B79.下列關(guān)于集成學(xué)習(xí)方法的說法錯誤的是()A、Boosting是一族可將弱學(xué)習(xí)器提升為強學(xué)習(xí)器的算法B、隨機森林是Bagging的一個擴展變體C、隨機森林簡單、容易實現(xiàn)、計算開銷小D、Boosting是個體學(xué)習(xí)器間不存在強依賴關(guān)系、可同時生成的并行化方法答案:D80.分析應(yīng)用計算后的分析主題數(shù)據(jù)存儲在:()。A、貼源層B、共享層C、分析層D、整合明細(xì)層答案:C81.某電商網(wǎng)站的訂單表ods_market_orders有如下字段:order_id'訂單ID',order_time'訂單時間'(unix時間戳),user_id'買家ID',goods_id'商品ID',user_ip'買家IP',ship_add'收貨地址',phone_no'手機號',click_source'點擊來源',click_cost'單點費用',pay_ct'訂單完成時間',pay_staus'訂單狀態(tài)'現(xiàn)統(tǒng)計在每個點擊來源中,購買數(shù)量最多的商品排名,以下哪個SQL語句是正確的?A、selectB、selectC、selectD、select答案:B解析:from(selectclick_source,goods_id,count(*)ascntfromods_market_ordersgroupbyclick_source)afrom(selectclick_source,goods_id,count(*)ascntfromods_market_ordersgroupbyclick_source,goods_id)afrom(selectclick_source,goods_id,count(*)ascntfromods_market_ordersgroupbyclick_source,goods_id)afrom(selectclick_source,goods_id,count(*)ascntfromods_market_ordersgroupbyclick_source,goods_id)a82.一個卷積層的卷積核大小為5×5,padding為2,stride為1,輸出通道為3,沒有偏置,對于3×10×10(C×H×W)的輸入,其計算量和參數(shù)量為()A、22500225B、7500,75C、2500,25D、27500275答案:A83.資產(chǎn)評估應(yīng)用實現(xiàn)全鏈路的數(shù)據(jù)資產(chǎn)監(jiān)管和價值追蹤,具體包括資產(chǎn)使用評估、()評估和敏感數(shù)據(jù)評估等功能。A、資產(chǎn)使用評估B、資產(chǎn)價值C、敏感數(shù)據(jù)評估D、數(shù)據(jù)質(zhì)量評估答案:B84.()算法是一種挖掘關(guān)聯(lián)規(guī)則的頻繁項集算法,其核心思想是通過候選集生成和情節(jié)的向下封閉檢測兩個階段來挖掘頻繁項集。A、prioriB、EMC、PCD、PAC答案:A85.數(shù)據(jù)資源主要是指能夠被企業(yè)及組織訪問和使用的所有數(shù)據(jù)信息的集合,通常表現(xiàn)為數(shù)據(jù)庫、文檔、圖片、()等形式。A、腳本B、視頻C、壓縮文件D、備份文件答案:B86.下列選項中,()不是經(jīng)典圖像分割方法A、基于內(nèi)容的分割方法B、基于閾值的分割方法C、基于邊緣的分割方法D、基于基因編碼的分割方法答案:A87.關(guān)于SOM神經(jīng)網(wǎng)絡(luò)描述錯誤的是:(__)。A、一種競爭學(xué)習(xí)型的無監(jiān)督神經(jīng)網(wǎng)絡(luò)B、將高維輸入數(shù)據(jù)映射到低維空間,保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu)C、SOM尋優(yōu)目標(biāo)為每個輸出神經(jīng)元找到合適的權(quán)重D、輸出層神經(jīng)元以矩陣方式排列在二維空間答案:C88.綜合類大數(shù)據(jù)應(yīng)用管理,主要包括(),由互聯(lián)網(wǎng)部統(tǒng)一組織開展。A、應(yīng)用需求B、分析應(yīng)用C、成果管理D、以上都是答案:D89.個人信息數(shù)據(jù)收集應(yīng)遵循不包括____的原則A、合法B、正當(dāng)C、必要D、可溯源答案:D90.數(shù)據(jù)傳輸環(huán)節(jié),在互聯(lián)網(wǎng)大區(qū)傳輸重要數(shù)據(jù)時應(yīng)()。A、加密保護B、明文傳輸C、明文接收D、任意操作答案:A91.Hadoop中combiner()函數(shù)的功能是()。A、數(shù)據(jù)排序B、數(shù)據(jù)標(biāo)記C、數(shù)據(jù)分析D、數(shù)據(jù)合并答案:D92.中臺的出發(fā)點和落腳點A、高效便捷可復(fù)用B、穩(wěn)定高效便捷C、敏捷高效可復(fù)用D、穩(wěn)定便捷可復(fù)用答案:C93.考慮以下兩個隨機數(shù)組a和b:a=np.random.randn(4,3)<a.shape=(4,3);b=np.random.randn(3,2)<b.shape=(3,2);c=a*b,c的維度是什么?A、c.shapeB、c.shapeC、shapeD、計算不成立因為這兩個矩陣維度不匹配答案:D94.組織各專業(yè)部門、各單位梳理公司數(shù)據(jù)合規(guī)風(fēng)險重點范圍,開展()風(fēng)險識別與評估工作。A、數(shù)據(jù)授權(quán)B、數(shù)據(jù)應(yīng)用C、數(shù)據(jù)合規(guī)D、數(shù)據(jù)共享答案:C95.參考公司()按域進行數(shù)據(jù)分類。A、維度模型B、公共數(shù)據(jù)模型(SG-CIM)C、通用數(shù)據(jù)模型D、業(yè)務(wù)分類答案:B96.依據(jù)《國家電網(wǎng)有限公司數(shù)據(jù)管理辦法》堅持__A、以共享為原則、不共享為例外B、一事一議C、層層審批的數(shù)據(jù)應(yīng)用授權(quán)方式D、以上都可以答案:A97.以下哪項不是公司各級大數(shù)據(jù)中心、信通公司的負(fù)責(zé)事項?A、負(fù)責(zé)組織開展大數(shù)據(jù)應(yīng)用平臺、服務(wù)目錄等基礎(chǔ)環(huán)境建設(shè),保障數(shù)據(jù)及運營安全,提供數(shù)據(jù)、算法和算力資源支持B、負(fù)責(zé)發(fā)布存儲的數(shù)據(jù)目錄和數(shù)據(jù)獲取渠道C、協(xié)同開展大數(shù)據(jù)應(yīng)用建設(shè),并參與需求評審、應(yīng)用推廣等工作D、負(fù)責(zé)大數(shù)據(jù)應(yīng)用技術(shù)前瞻性研究,負(fù)責(zé)大數(shù)據(jù)應(yīng)用技術(shù)架構(gòu)設(shè)計、技術(shù)選型驗證和信息安全技術(shù)保障答案:D98.考察一個由三個卷積層組成的CNN:kernel=3×3,stride=2,padding=SAME。最低層輸出100個特征映射(featuremap),中間層200個特征映射,最高層400個特征映射。輸入是200×300的RGB圖片,總參數(shù)的數(shù)量是多少?()A、903400B、2800C、180200D、720400答案:A99.為提高計算性能,Spark中Transformation操作采用的是()計算模式。A、活性B、惰性C、實時D、非實時答案:B100.已經(jīng)為所有隱藏的單位建立了一個使用tanh激活的網(wǎng)絡(luò)。使用np.random.randn(…,…)*1000將權(quán)重初始化為相對較大的值。會發(fā)生什么?A、沒關(guān)系。只要隨機初始化權(quán)重,梯度下降不受權(quán)重大小的影響。B、這將導(dǎo)致tanh的輸入也非常大,從而導(dǎo)致梯度也變大。因此,必須將設(shè)置得非常小,以防止發(fā)散;這將減慢學(xué)習(xí)速度。C、這將導(dǎo)致tanh的輸入也非常大,導(dǎo)致單元被“高度激活”。與權(quán)重從小值開始相比,加快了學(xué)習(xí)速度。D、這將導(dǎo)致tanh的輸入也非常大,從而導(dǎo)致梯度接近于零。因此,優(yōu)化算法將變得緩慢答案:D101.()牽頭,有關(guān)部門、機構(gòu)配合,加強數(shù)據(jù)合規(guī)管理制度建設(shè)。健全公司數(shù)據(jù)合規(guī)管理制度體系,組織完善涵蓋數(shù)據(jù)共享、對外開放等方面的數(shù)據(jù)合規(guī)管理制度。A、信通公司B、數(shù)字化部C、大數(shù)據(jù)中心D、發(fā)展部答案:B102.要級聯(lián)刪除用戶創(chuàng)建的表等數(shù)據(jù)庫對象,使用關(guān)鍵字()。A、STRICTB、CASCADEC、USAGD、E、FORCEF、nan答案:B103.下列哪種業(yè)務(wù)場景中,不能直接使用Reducer充當(dāng)Combiner使用()A、sum求和B、max求最大值C、ount求計數(shù)D、avg求平均答案:D104.DNN常用的激活函數(shù)有()。A、sigmoidB、tanhC、ReLUD、以上答案都正確答案:D105.以下關(guān)于Hadoop中MapReduce說法正確的是()。A、可以沒有reduce任務(wù)B、Reducer輸入為隨機輸入C、shuffle主要實現(xiàn)數(shù)據(jù)可視化功能D、一個reducer只能從一個map復(fù)制所需要的partition答案:A106.對分類任務(wù)來說,學(xué)習(xí)器從類別標(biāo)記集合中預(yù)測出一個標(biāo)記,最常見的結(jié)合策略是(__)。A、投票法B、平均法C、學(xué)習(xí)法D、排序法答案:A107.BP神經(jīng)網(wǎng)絡(luò)具有很的表示能力,它經(jīng)常遭遇(),其訓(xùn)練誤差持續(xù)降低,但測試誤差卻可能上升。A、欠擬合B、誤差過大C、誤差過小D、過擬合答案:D108.從安全屬性對各種網(wǎng)絡(luò)攻擊進行分類,截獲攻擊是針對()的攻擊。A、機密性B、可用性C、完整性D、真實性答案:A109.在下列哪些應(yīng)用中,可以使用深度學(xué)習(xí)來解決問題?A、蛋白質(zhì)結(jié)構(gòu)預(yù)測B、化學(xué)反應(yīng)的預(yù)測C、外來粒子的檢測D、nan答案:C110.以下內(nèi)容符合物體識別任務(wù)的是()。A、不能對圖像進行壓縮或剪裁B、遵守誤差最小準(zhǔn)則和最佳近似準(zhǔn)則C、可以不指定分類的類別數(shù)量D、事先給定樣本的分布特征答案:B111.大數(shù)據(jù)和算法關(guān)系以下描述正確的是:A、數(shù)據(jù)跟算法沒有關(guān)系B、算法比數(shù)據(jù)更重要C、數(shù)據(jù)比算法更重要D、沒有數(shù)據(jù)的算法沒有意義,失去了算法的數(shù)據(jù)無法應(yīng)用答案:D112.提升卷積核(convolutionalkernel)的大小會顯著提升卷積神經(jīng)網(wǎng)絡(luò)的性能,這種說法是A、正確的B、錯誤的C、nanD、nan答案:B113.發(fā)揮數(shù)據(jù)核心生產(chǎn)要素作用,實現(xiàn)產(chǎn)品、業(yè)務(wù)、生態(tài)()布局,支撐電力大數(shù)據(jù)服務(wù)經(jīng)濟發(fā)展、社會治理和民生改善體系建設(shè)。A、全鏈條B、全方面C、全站式D、全面答案:C114.下列屬于無監(jiān)督學(xué)習(xí)的是()。A、K-meansB、SVMC、最大熵D、CRF答案:A115.()的層結(jié)構(gòu)主要有:輸入層、卷積層、池化層(匯聚層、下采樣層)、輸出層等,其他的還可以有全連接層,歸一化層之類的層結(jié)構(gòu)。A、卷積神經(jīng)網(wǎng)絡(luò)B、網(wǎng)絡(luò)神經(jīng)C、識別神經(jīng)D、圖像神經(jīng)答案:A116.美國海軍軍官莫里通過對前人航海日志的分析,繪制了新的航海路線圖,標(biāo)明了大風(fēng)與洋流可能發(fā)生的地點。這體現(xiàn)了大數(shù)據(jù)分析理念中的()。A、在數(shù)據(jù)基礎(chǔ)上傾向于全體數(shù)據(jù)而不是抽樣數(shù)據(jù)B、在分析方法上更注重相關(guān)分析而不是因果分析C、在分析效果上更追究效率而不是絕對精確D、在數(shù)據(jù)規(guī)模上強調(diào)相對數(shù)據(jù)而不是絕對數(shù)據(jù)答案:B117.以下哪項是對早期停止(earlystop)的最佳描述?()。A、訓(xùn)練網(wǎng)絡(luò)直到達到誤差函數(shù)中的局部最小值B、在每次訓(xùn)練期后在測試數(shù)據(jù)集上模擬網(wǎng)絡(luò),當(dāng)泛化誤差開始增加時停止訓(xùn)練C、在中心化權(quán)重更新中添加一個梯度下降加速算子,以便訓(xùn)練更快地收斂D、更快的方法是反向傳播算法答案:B118.Spark可以處理的數(shù)據(jù)任務(wù)包括()A、數(shù)據(jù)批處理任務(wù);B、交互式處理任務(wù);C、圖數(shù)據(jù)處理任務(wù);D、A,B和C;答案:D119.下列關(guān)于數(shù)據(jù)轉(zhuǎn)換,正確的是()。A、json內(nèi)的取值只能有統(tǒng)一格式B、pdf文件在不同平臺上打開顯示不同C、可以通過python將csv文件轉(zhuǎn)換成Excel格式D、excel存儲數(shù)據(jù)的量無限制答案:C120.在InceptionNet中,使用()和單層的全連接層替換掉了VCG的三層全連接層。A、全局最大池化層B、全局最小池化層C、卷積層D、全局平均池化層答案:D121.需加強國家秘密、企業(yè)秘密、個人信息、()等重點領(lǐng)域的數(shù)據(jù)合規(guī)管理A、他人信息B、個人秘密C、知識產(chǎn)權(quán)D、公共信息答案:C122.神經(jīng)網(wǎng)絡(luò)建模步驟一般是()。1模型評估;2網(wǎng)絡(luò)配置;3模型訓(xùn)練;4數(shù)據(jù)準(zhǔn)備;5模型預(yù)測A、12345B、32154C、54321D、42315答案:D123.對于CRF和HMM的區(qū)別,描述錯誤的是:A、HMM是判別式模型,CRF是生成式模型B、HMM是概率有向圖,CRF是概率無向圖C、HMM求解過程可能是局部最優(yōu),CRF可以全局最優(yōu)D、CRF可以用前一時刻和當(dāng)前時刻的標(biāo)簽構(gòu)成的特征函數(shù),加上對應(yīng)的權(quán)重來表示HMM中的轉(zhuǎn)移概率答案:A124.a=[1,2,3.4,5],切片時如果需要取[2,3.4],則下列結(jié)果正確的是()A、[1:4]B、a[-2:]C、a[1:-1]D、a[::2]答案:C125.如果線性回歸模型中的隨機誤差存在異方差性,那么參數(shù)的OLS估計量是()。A、無偏的,有效的B、無偏的,非有效的C、有偏的,有效的D、有偏的,非有效的答案:B126.梯度下降法中,為什么梯度要加一個負(fù)號?A、梯度方向是上升最快方向,負(fù)號就是下降最快方向B、梯度方向是上升最快方向,負(fù)號就是上升最快方向C、梯度方向是下降最快方向,負(fù)號就是下降最快方向D、梯度方向是下降最快方向,負(fù)號就是下降最快方向答案:A127.至十四五末,公司全面建成企業(yè)中臺,企業(yè)中臺公共服務(wù)共享使用率達到()A、70%B、80%C、90%D、100%答案:D128.總部與各單位按兩級貫通模式部署,并支持()成果共享。A、一級B、兩級C、三級D、四級答案:B129.你正在訓(xùn)練一個RNN網(wǎng)絡(luò),你發(fā)現(xiàn)你的權(quán)重與激活值都是NaN,下列選項中,哪一個是導(dǎo)致這個問題的最有可能的原因()A、梯度消失B、梯度爆炸C、ReLU函數(shù)作為激活函數(shù)g(.),在計算g(z)時,z的數(shù)值過大了D、Sigmoid函數(shù)作為激活函數(shù)g(.),在計算g(z)時,z的數(shù)值過大了答案:B130.下面關(guān)于Hive四種排序方式的區(qū)別,描述正確的是()A、orderB、sortC、distributeD、cluster答案:B131.為了提高系統(tǒng)性能,Spark采取“惰性計算模式”,具體為()。A、執(zhí)行Transformation操作時不會提交,只有執(zhí)行Action操作時才會被提交到集群中開始被執(zhí)行B、執(zhí)行Action操作時不會提交,只有執(zhí)行Transformation操作時才會被提交到集群中開始被執(zhí)行C、只有執(zhí)行完Action操作和Transformation操作時,所有操作才會被提交到集群中開始被執(zhí)行D、執(zhí)行完Action操作或Transformation操作時都不會提交到集群答案:A132.對于依托公共服務(wù)能力平臺開發(fā)的大數(shù)據(jù)應(yīng)用,應(yīng)遵循平臺有關(guān)規(guī)范,重點開展數(shù)據(jù)溯源、數(shù)據(jù)建模以及數(shù)據(jù)展示等工作,安全防護、三方測試等相關(guān)要求統(tǒng)一納入()進行管理,可不再單獨開展。A、數(shù)據(jù)中臺B、大數(shù)據(jù)應(yīng)用建設(shè)平臺C、公共服務(wù)能力平臺D、人工智能平臺答案:C133.年度需求由()統(tǒng)籌組織開展儲備與立項工作。A、互聯(lián)網(wǎng)部B、信息化部C、數(shù)字化工作部D、科技信息部答案:C134.下列選項中,不符合《國家電網(wǎng)有限公司大數(shù)據(jù)應(yīng)用管理辦法》第二章職責(zé)分工第六條的是()。A、審議決策公司數(shù)據(jù)管理重大事項B、協(xié)調(diào)解決數(shù)據(jù)管理重要問題C、對公司數(shù)據(jù)管理工作進行監(jiān)督指導(dǎo)D、公司數(shù)據(jù)管理體系和規(guī)章制度建設(shè)答案:D135.(__)網(wǎng)絡(luò)是一種競爭學(xué)習(xí)型的無監(jiān)督神經(jīng)網(wǎng)絡(luò),它能將高維輸入數(shù)據(jù)映射到低維空間,同時保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu),即將高維空間中相似的樣本點映射到網(wǎng)絡(luò)輸出層中的臨近神經(jīng)元。A、SOM網(wǎng)絡(luò)B、RBF網(wǎng)絡(luò)C、ART網(wǎng)絡(luò)D、ELman網(wǎng)絡(luò)答案:A136.數(shù)據(jù)中臺提供統(tǒng)一的身份認(rèn)證和操作鑒權(quán)能力,確保在數(shù)據(jù)傳輸、存儲、訪問過程中的數(shù)據(jù)安全;提供數(shù)據(jù)訪問權(quán)限控制、保護業(yè)務(wù)核心數(shù)據(jù)、防止()能力。A、數(shù)據(jù)泄露B、數(shù)據(jù)錯亂C、數(shù)據(jù)分散D、數(shù)據(jù)無效答案:A137.卷積神經(jīng)網(wǎng)絡(luò)中卷積的主要作用是()A、進行特征選擇,降低特征數(shù)量,從而減少參數(shù)數(shù)量B、提取一個局部區(qū)域的特征C、用來輸出想要的結(jié)果D、讀入數(shù)據(jù)答案:B138.在選擇神經(jīng)網(wǎng)絡(luò)的深度時,下面哪些參數(shù)需要考慮?1神經(jīng)網(wǎng)絡(luò)的類型(如MLP,CNN);2輸入數(shù)據(jù);3計算能?(硬件和軟件能?決定);4學(xué)習(xí)速率;5映射的輸出函數(shù)。A、1,2,4,5B、2,3,4,5C、都需要考慮D、1,3,4,5答案:C139.Transformer架構(gòu)首先是由下列哪項引入的?A、GloVeB、ERTC、OpenD、ULMFit答案:C140.例句1:JanewantstogotoShenzhen.例句2:BobwantstogotoShanghai.構(gòu)建詞袋模型形成的是(),例句1,2對應(yīng)的向量為()。A、[Jane,B、[Jane,C、[Jane,D、[bob,答案:A141.假設(shè)數(shù)據(jù)集中有100條數(shù)據(jù),設(shè)置batch_size為4,那么跑完一輪模型會迭代多少次()。A、400B、100C、25D、4答案:C142.數(shù)據(jù)中臺由()、()、()、()、()五大板塊組成,采用總部和省市公司兩級部署模式構(gòu)建。A、貼源層、共享層、分析層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)B、貼源層、應(yīng)用層、分析層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)C、服務(wù)層、共享層、應(yīng)用層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)D、服務(wù)層、共享層、分析層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)答案:A143.關(guān)于Pandas層次化索引,下列說法錯誤的是A、層次化索引是指Pandas對象在一個軸方向上具有多層索引B、層次化索引至多只能有兩層索引C、可以使用swaplevel()方法對層次化索引的位置交換順序D、使用sort_index()可以對索引進行排序答案:B144.假設(shè)我們有一個使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎?A、能B、依情況而定C、不一定D、不能答案:D145.以下屬于Python腳本程序轉(zhuǎn)變?yōu)榭蓤?zhí)行程序的第三方庫的是:A、requestsB、pyinstallerC、numpyD、scrapy答案:B146.在做CNN時,輸入圖片大小為37×37,經(jīng)過第一層卷積層(有25個卷積核,每個卷積核的大小為5×5,不做填充,步長為1),與池化層(Maxpooling大小為3×3,不做填充,步長為1),輸出圖片再通過一次卷積層(有100個卷積核,每個卷積核的大小為4×4,不做填充,步長為1),與池化層maxpooling(Maxpooling大小為2×2,不做填充,步長為1),最終輸出特征圖大小為()。A、2×2B、3×3C、4×4D、5×5答案:C147.在線性回歸中,最小二乘法就是試圖找到一條直線,使所有樣本到直線上的____之和最小。A、歐式距離B、城市距離C、余弦距離D、馬氏距離答案:A148.如果自變量有連續(xù)型變量,則不適用的分類預(yù)測方法有(?)A、邏輯回歸B、神經(jīng)網(wǎng)絡(luò)C、SVM算法D、C4.5算法答案:D149.下面哪個程序負(fù)責(zé)HDFS數(shù)據(jù)存儲()A、NameNodeB、JobtrackerC、DatanodeD、secondaryNameNode答案:C150.AI芯片也被稱為AI加速器,是專門用于處理人工智能應(yīng)用中的大量計算任務(wù)的功能模塊。A、TRUEB、FALSEC、nanD、nan答案:A151.對于一個分類任務(wù),如果開始時神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機賦值的,而是都設(shè)成0,下面哪個敘述是正確的()A、其他選項都不對B、沒啥問題,神經(jīng)網(wǎng)絡(luò)會正常開始訓(xùn)練C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會變成識別同樣的東西D、神經(jīng)網(wǎng)絡(luò)不會開始訓(xùn)練,因為沒有梯度改變答案:C152.依托數(shù)據(jù)建模與仿真,實現(xiàn)經(jīng)營管理的流程可視、運營可控、()可溯,持續(xù)提升科學(xué)決策能力、業(yè)務(wù)運行效率和風(fēng)險管控水平。A、問題B、異常C、管理D、投訴答案:A153.業(yè)務(wù)中臺從管理上破除了系統(tǒng)建設(shè)的()壁壘,形成靈活、輕量、便捷的共享能力中心A、部門級B、管理級C、公司級D、企業(yè)級答案:A154.大數(shù)據(jù)應(yīng)用管理包括大數(shù)據(jù)應(yīng)用需求立項、開發(fā)實施、發(fā)布應(yīng)用以及成果評價等()管理及大數(shù)據(jù)應(yīng)用能力建設(shè)。A、全生產(chǎn)要素管理B、全生命周期管理C、全生產(chǎn)周期管理D、全數(shù)據(jù)鏈路管理答案:B155.反向傳播算法一開始計算什么內(nèi)容的梯度,之后將其反向傳播?A、預(yù)測結(jié)果與樣本標(biāo)簽之間的誤差B、各個輸入樣本的平方差之和C、各個網(wǎng)絡(luò)權(quán)重的平方差之和D、都不對答案:A156.以下程序的輸出結(jié)果是:deffunc(num):num*=2x=20func(x)print(x)A、出錯B、40C、20D、無輸出答案:C157.應(yīng)嚴(yán)格執(zhí)行“規(guī)劃指導(dǎo)計劃、計劃確定項目、項目安排資金”的要求,制定專項規(guī)劃,落實投資計劃,保障網(wǎng)絡(luò)安全費用不低于信息化投入的()A、12%B、10%C、8%D、6%答案:C158.下列不是NoSQL數(shù)據(jù)庫的是()A、MongoDB、igTableC、HBaseD、Access答案:D159.下列關(guān)于Sigmoid函數(shù)的說法錯誤的是()。A、存在梯度爆炸的問題B、不是關(guān)于原點對稱C、計算D、存在梯度消失的問題答案:A160.網(wǎng)絡(luò)運營者發(fā)布、共享、交易或向境外提供重要數(shù)據(jù)前,應(yīng)當(dāng)評估可能帶來的安全風(fēng)險,并報經(jīng)()部門同意A、安全監(jiān)察B、上級主管C、工業(yè)和信息化D、行業(yè)主管監(jiān)督答案:D161.下面算法中屬于圖像銳化處理的是()。A、低通濾波B、加權(quán)平均法C、高通濾波D、中值濾波答案:C162.給出如下代碼,可以輸出“python”的是()s='Pythonisbeautiful!'A、print(s[:–14]);B、print(s[0:6].lower());C、print(s[0:6]);D、print(s[–21:答案:B163.使用預(yù)訓(xùn)練模型進行特征提取,要訓(xùn)練的部分是()。A、全連接分類器B、高層卷積層C、底層卷積層D、整個網(wǎng)絡(luò)答案:A164.深度學(xué)習(xí)防止過擬合下列說法正確的是A、BN(批歸一化)B、增強數(shù)據(jù)集樣本數(shù)目、做一些數(shù)據(jù)增強的操作C、限制模型的學(xué)習(xí)能力D、以上都可以答案:D165.以下哪一個是ResNet-18的網(wǎng)絡(luò)結(jié)構(gòu)?()A、4個殘差塊各有4個卷積層(不包括恒等映射的1x1卷積層),B、3個殘差塊各有5個卷積層(不包括恒等映射的1x1卷積層),加上最后一個全連接層C、4個殘差塊各有3個卷積層(不包括恒等映射的1x1卷積層),D、5個殘差塊各有3個卷積層(不包括恒等映射的1x1卷積層),答案:A166.國網(wǎng)公司數(shù)據(jù)管理堅持()的原則。A、面向?qū)I(yè)B、面向基層C、面向應(yīng)用D、面向?qū)I(yè)、面向基層、面向應(yīng)用答案:D167.面向政府機構(gòu)或非營利性組織等,從服務(wù)中央決策部署落地實施、社會治理現(xiàn)代化等方面,提供的公益性數(shù)據(jù)服務(wù)為()。A、政府監(jiān)管類B、公益服務(wù)類C、商務(wù)增值類D、公共開放類答案:B168.以下哪一個不是LSTM三個門中的一個門()A、輸入門B、遺忘門C、輸出門D、迭代門答案:D169.智能電網(wǎng)綜合支撐技術(shù),在()的智能電網(wǎng)管理及運維關(guān)鍵技術(shù)中,應(yīng)用大數(shù)據(jù)和先進計算技術(shù),研究電網(wǎng)設(shè)備狀態(tài)信息集成與綜合分析技術(shù);A、分布節(jié)能B、高效節(jié)能C、集約高效D、分布高效答案:C170.常見的核函數(shù)主要包括____。A、多項式核B、高斯核C、線性核D、以上全部答案:D171.神經(jīng)網(wǎng)絡(luò)模型(NeuralNetwork)因受?類大腦的啟發(fā)而得名。神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個神經(jīng)元接受一個輸入,對輸入進行處理后給出一個輸出,請問下列關(guān)于神經(jīng)元的描述中,哪一項是正確的?A、每個神經(jīng)元可以有一個輸入和一個輸出B、每個神經(jīng)元可以有多個輸入和一個輸出C、每個神經(jīng)元可以有一個輸入和多個輸出D、上述都正確答案:D172.下列關(guān)于隨機森林和GBDT的書法正確的是()A、在隨機森林的單個樹中,樹和樹之間是有依賴的,而GBDT中的單個樹之間是沒有依賴的B、這兩個模型都使用隨機特征子集,來生成許多單個的樹C、我們可以并行地生成GBDT單個樹,因為它們之間是沒有依賴的D、GBDT訓(xùn)練模型的表現(xiàn)總是比隨機森林好答案:B173.一組數(shù)據(jù)有8個特征,計算出其8個特征值從大到小依次為3.755、2.197、1.215、0.402、0.213、0.138、0.065、0.015,若選擇累計百分比達到80%以上的特征值對應(yīng)的主成分,則至少應(yīng)選擇幾個主成分()。A、3B、4C、5D、2答案:A174.大數(shù)據(jù)應(yīng)用的業(yè)務(wù)規(guī)劃將聚焦核心領(lǐng)域,打造共5大重點業(yè)務(wù)、12個業(yè)務(wù)領(lǐng)域、()項業(yè)務(wù)方向。A、12B、32C、36D、34答案:D175.已知一組數(shù)據(jù)X1,X2,X3,X4,X5的平均數(shù)是2,方差是1/3,那么另一組數(shù)據(jù)3X1-2,3X2-2,3X3-2,3X4-2,3X5-2的平均數(shù)和方差是:()。A、2,1/3B、2,1C、4,2/3D、4,3答案:D176.現(xiàn)階段的大數(shù)據(jù)技術(shù)體系主要類型不包括()。A、數(shù)據(jù)源與APPB、基礎(chǔ)設(shè)施C、HadoopD、數(shù)據(jù)資源答案:C177.卷積神經(jīng)網(wǎng)絡(luò)中池化層的作用是()。A、降低卷積層對位置的敏感性,同時降低對空間降采樣表示的敏感性B、權(quán)值初始化C、對圖像實現(xiàn)邊緣檢測D、提取輸入的不同特征答案:A178.按照公司戰(zhàn)略實施要求,立足數(shù)據(jù)發(fā)展需要,以“可管、()、可信”為核心,建立健全數(shù)據(jù)合規(guī)管理體系,明確數(shù)據(jù)合規(guī)。A、可控B、可防C、可溯D、可查答案:A179.我們在使用pandas時需要怎樣導(dǎo)入A、ImportB、ImportC、ImportD、以上都不正確答案:A180.下列哪一項不是神經(jīng)網(wǎng)路常用的激活函數(shù)()A、Sigmoid函數(shù)B、sinC、signD、tanh答案:B181.下列關(guān)于tensorflow的描述中,不正確的是()。A、TensorFlow的計算圖中每個節(jié)點代表一個操作,如加法、減法等B、TensorFlow的張量是作為非子葉節(jié)點出現(xiàn)的(注:不能作為非子葉節(jié)點出現(xiàn))C、基于梯度的機器學(xué)習(xí)算法會受益于TensorFlow的自動求微分能力D、TensorFlow答案:B182.一年四個季度,第二到第四個季度對于上個季度的銷售額增長率分別為5%、10%、15%,請問第四個季度相對于第一季度的增長率約為()A、50%B、80%C、30%D、33%答案:D183.Dropout技術(shù)在下列哪種神經(jīng)層中將無法發(fā)揮顯著優(yōu)勢?A、仿射層B、卷積層C、RNN層D、均不對答案:C184.關(guān)于臟數(shù)據(jù)和亂數(shù)據(jù)的區(qū)分,以下哪種不屬于臟數(shù)據(jù)()。A、含有缺失數(shù)據(jù)B、冗余數(shù)據(jù)C、噪聲數(shù)據(jù)D、不規(guī)則形態(tài)數(shù)據(jù)答案:D185.[i**iforiinrange(3)]運行結(jié)果是()。A、[1,1,4]B、[0,1,4]C、[1,2,3]D、(0,1,4)答案:A186.()不屬于深度學(xué)習(xí)模型。A、InceptionV3B、VGG19C、ResNet50D、CIFAR-10答案:D187.以下關(guān)于Python程序的基本語法元素,錯誤的描述是:A、變量是由用戶定義的用來保存和表示數(shù)據(jù)的一種語法元素B、Python語言只能用4個空格的縮進來實現(xiàn)程序的強制可讀性C、變量的命名規(guī)則之一是名字的首位不能是數(shù)字D、變量標(biāo)識符是一個字符串,長度是沒有限制的答案:B188.關(guān)于機器學(xué)習(xí)模型訓(xùn)練步驟的說法,錯誤的是()。A、測試集能夠測試模型對于未知數(shù)據(jù)的擬合效果B、驗證集能夠用于防止模型過擬合C、劃分?jǐn)?shù)據(jù)集時需要注意數(shù)據(jù)是否為同分布D、模型訓(xùn)練需要準(zhǔn)備多個備選算法用于效果比較答案:B189.下列關(guān)于長短時神經(jīng)網(wǎng)絡(luò)的敘述錯誤的是()。A、引用自循環(huán)思想B、產(chǎn)生梯度長時間持續(xù)流動的路徑C、積累的時間尺度不可以因輸入序列而改變D、可應(yīng)用于語音識別和機器翻譯答案:C190.國網(wǎng)公司數(shù)據(jù)管理以數(shù)據(jù)資產(chǎn)()為目標(biāo)。A、易懂B、易取C、易用D、易懂、易取、易用答案:D191.()是一門以可視交互為基礎(chǔ),綜合運用圖形學(xué)、數(shù)據(jù)挖掘和人機交互等技術(shù)等多個學(xué)科領(lǐng)域的知識,以實現(xiàn)人機協(xié)同完成可視化任務(wù)為主要目的分析推理性學(xué)科。A、科學(xué)可視化B、可視分析學(xué)C、數(shù)據(jù)可視化D、信息可視化答案:B192.大數(shù)據(jù)計算服務(wù)(MaxCompute,原ODPS)tunnel命令?供了豐富的參數(shù),可以通過參數(shù)設(shè)置,對上傳或者下載操作進行控制,現(xiàn)在有一個大文件要上傳至odps某表中,想先檢查一下該文件內(nèi)容是否和表的定義匹配,并不實際上傳,以免文件中有錯誤記錄會導(dǎo)致上傳出錯。可以使用哪個參數(shù)實現(xiàn)這個功能?A、錯誤記錄丟棄:-dbrB、字段分隔符:-fC、掃瞄選項:-sD、空字符串顯示:-ni答案:C193.以下哪種不是常用的數(shù)據(jù)選擇方法()A、留一法B、留出法C、十則交叉驗證法D、互助法答案:D194.常用的圖像去噪方法有()。A、高斯濾波B、中值濾波C、P-M方程去噪D、以上答案都正確答案:D195.假設(shè)文件不存在,如果使用open方法打開文件會報錯,那么該文件的打開方式是下列哪種模式()。A、rB、wC、aD、b答案:A196.下列描述中不屬于數(shù)據(jù)治理內(nèi)容的是()A、理解自己的數(shù)據(jù)B、行為規(guī)范的制定C、崗位職責(zé)的定義D、獲得更多的數(shù)據(jù)答案:D197.一般情況下,整數(shù)用十進制表示,如果用其他進制表示一個數(shù),錯誤的描述選項是:A、0o1010表示一個八進制數(shù)B、1010b表示一個二進制數(shù)C、0b1010表示一個二進制數(shù)D、0x1010表示一個十六進制數(shù)答案:B198.各單位應(yīng)遵循()原則,優(yōu)化數(shù)據(jù)安全防護架構(gòu),推進數(shù)據(jù)保護技術(shù)研究與應(yīng)用,強化數(shù)據(jù)全生命周期的安全保護。A、“B、“不共享”C、“三同步”D、“兩同步”答案:C199.下列關(guān)于算法進化的描述錯誤的是()。A、算法1.0的典型算法是精度分析,是實驗分析技術(shù)的核心B、算法2.0的典型算法是線性回歸,是問卷領(lǐng)域數(shù)據(jù)分析的核心C、算法3.0的典型算法是數(shù)據(jù)挖掘類方法,是數(shù)據(jù)庫領(lǐng)域的核心D、算法4.0的典型算法是DM類算法,時超大數(shù)據(jù)分析的基礎(chǔ)答案:A200.各地區(qū)、各部門應(yīng)當(dāng)按照數(shù)據(jù)()保護制度,確定本地區(qū)、本部門以及相關(guān)行業(yè)、領(lǐng)域的重要數(shù)據(jù)具體目錄,對列入目錄的數(shù)據(jù)進行重點保護。A、分類分級B、分級分域C、分層分級D、分類分域答案:A201.機器學(xué)習(xí)中,下面哪些方法不可以避免分類中的過擬合問題??A、增加樣本數(shù)量B、增加模型復(fù)雜度??C、去除噪聲??D、正則化答案:B202.聚焦()經(jīng)濟發(fā)展新趨勢,堅持維護數(shù)據(jù)安全合規(guī)和促進數(shù)據(jù)開發(fā)利用并重,持續(xù)優(yōu)化數(shù)據(jù)合規(guī)管理機制與策略,支撐、賦能公司高質(zhì)量發(fā)展。A、新能源B、社會科技C、信息技術(shù)D、能源數(shù)字答案:D203.random庫中用于生成隨機小數(shù)的函數(shù)是()。A、random()B、randint()C、getrandbits()D、randrange()答案:A204.關(guān)于Attention-basedModel,下列說法正確的是()。A、相似度度量模型B、是一種新的深度學(xué)習(xí)網(wǎng)絡(luò)C、是一種輸入對輸出的比例模型D、都不對答案:A205.在手寫數(shù)字識別的例子中,輸入的圖片為長和寬都是28像素的圖片,輸出判斷數(shù)字0-9的概率。要構(gòu)建前饋型神經(jīng)網(wǎng)絡(luò)去解決這個問題,輸入層是()維的,輸出層是()維的A、28,10B、28,1C、784,10D、784,1答案:C206.對于一個分類任務(wù),如果開始時神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機賦值的,而是都設(shè)成0,則下列敘述正確的是()。A、沒有問題,神經(jīng)網(wǎng)絡(luò)會正常開始訓(xùn)練B、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會變成識別同樣的東西C、神經(jīng)網(wǎng)絡(luò)不會開始訓(xùn)練,因為沒有梯度改變D、以上選項都不對答案:B207.MaxCompute架構(gòu)由四層組成,每一層完成不同的工作?,F(xiàn)在執(zhí)行命令“selectcount(*)fromtable_a”,最終由()處理該命令并返回結(jié)果。A、計算層B、客戶端C、接入層D、邏輯層答案:A208.相關(guān)關(guān)系是一種與函數(shù)關(guān)系區(qū)別的非確定性關(guān)系,而相關(guān)分析就是研究事物或現(xiàn)象之間是否存在這種非確定性關(guān)系的統(tǒng)計方法,以下不屬于相關(guān)性分析方法的是()。A、Pearson相關(guān)系數(shù)B、Spearman秩相關(guān)系數(shù)C、Kendall相關(guān)系數(shù)D、傅里葉系數(shù)答案:D209.訓(xùn)練樣本集S含有天氣、氣溫、人體感受、風(fēng)力4個指標(biāo),已知天氣的熵為0.694,溫度的熵為0.859,人體感受的熵為0.952,風(fēng)力的熵為0.971,如使用ID3算法,選擇()為樹模型的分界點。A、天氣B、氣溫C、人體感受D、風(fēng)力答案:A210.以下程序的輸出結(jié)果是:x=['90','87','90']n=90print(x.count(n))A、NoneB、1C、2D、0答案:D211.對于一個圖像識別問題(在一張照片里找出一只貓),()可以更好地解決這個問題。A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、感知機C、多層感知機D、卷積神經(jīng)網(wǎng)絡(luò)答案:D212.優(yōu)化(),建立設(shè)備績效和供應(yīng)商業(yè)績之間的關(guān)聯(lián)關(guān)系,實現(xiàn)設(shè)備質(zhì)量評價管理閉環(huán),建立健全供應(yīng)商信用風(fēng)險評估體系,優(yōu)化采購模式與供應(yīng)商管理。A、設(shè)備質(zhì)量監(jiān)管B、設(shè)備物資供應(yīng)鏈C、設(shè)備供應(yīng)商管理D、設(shè)備質(zhì)量評價管理答案:B213.以下()是數(shù)據(jù)業(yè)務(wù)圖譜底座具備的功能。A、數(shù)據(jù)檢索B、圖譜展示C、動態(tài)數(shù)據(jù)集D、以上都是答案:D214.在實現(xiàn)前向傳播和反向傳播中使用的“cache”是什么A、它用于跟蹤我們正在搜索的超參數(shù),以加速計算B、用于在訓(xùn)練期間緩存代價函數(shù)的中間值C、我們使用它傳遞反向傳播中計算的變量到相應(yīng)的前向傳播步驟,它包含對于前向傳播計算導(dǎo)數(shù)有用的變量D、我們使用它傳遞前向傳播中計算的變量到相應(yīng)的反向傳播步驟,它包含對于反向傳播計算導(dǎo)數(shù)有用的變量答案:D215.輸入圖像已被轉(zhuǎn)換為大?為28×28的矩陣和大?為7×7的步幅為1的核?/濾波器。卷積矩陣的大?是多少?A、22B、21C、28D、7答案:A216.以下哪種參數(shù)是用*來接收,不是必傳的?A、位置參數(shù)B、默認(rèn)值參數(shù)C、可變參數(shù)D、關(guān)鍵字參數(shù)答案:C217.下列關(guān)于Pytorch的描述中,正確的是()。A、Pytorch可以視作加入了GPU支持的NumpyB、Pytorch采用靜態(tài)的、命令式的編程語言C、Pytorch的網(wǎng)絡(luò)都是有向無環(huán)圖的集合,可以直接定義D、Pytorch的底層代碼高度工業(yè)化,不容易看懂答案:A218.嚴(yán)格遵守囯家法律、法規(guī)和公司相關(guān)規(guī)定,在保護國家秘密和企業(yè)秘密,且不損害公司及客戶、供應(yīng)商等相關(guān)方權(quán)益的前提下,有序推動數(shù)據(jù)對外幵放,重點防范對外幵放過程中的()數(shù)據(jù)泄露。A、明細(xì)B、業(yè)務(wù)C、敏感D、隱私答案:C219.常用的數(shù)據(jù)歸約方法可以分為()。A、維歸約數(shù)據(jù)壓縮B、維歸約參數(shù)歸約C、維歸約值歸約D、數(shù)據(jù)壓縮值歸約答案:C220.Hadoop生態(tài)系統(tǒng)中,HBase是一種()。A、分布式文件系統(tǒng)B、數(shù)據(jù)倉庢C、實時分布式數(shù)據(jù)庫D、分布式計算系統(tǒng)答案:C221.《國家電網(wǎng)公司信息系統(tǒng)事故調(diào)查規(guī)程》規(guī)定:各區(qū)域電網(wǎng)公司、?。ㄗ灾螀^(qū)、直轄市)電力公司、國家電網(wǎng)公司直屬單位或其所屬任一地區(qū)供電公司本地網(wǎng)絡(luò)完全癱瘓,且影響時間超過()小時,將構(gòu)成二級信息系統(tǒng)事故。A、12B、24C、32D、40答案:B222.Sigmoid函數(shù)作為神經(jīng)元激活函數(shù)的特點是()。A、連續(xù)但不光滑B、不連續(xù)但光滑C、連續(xù)且光滑D、不連續(xù)且不光滑答案:C223.國家電網(wǎng)公司信息化工作堅持“統(tǒng)一領(lǐng)導(dǎo),統(tǒng)一規(guī)劃,(),統(tǒng)一組織實施”的“四統(tǒng)一”原則。A、統(tǒng)一運作B、統(tǒng)一管理C、統(tǒng)一設(shè)計D、統(tǒng)一標(biāo)準(zhǔn)答案:D224.假設(shè)你在卷積神經(jīng)網(wǎng)絡(luò)的第一層中有5個卷積核,每個卷積核尺寸為7B7,具有零填充且步幅為1。該層的輸入圖片的維度是224B224B3。那么該層輸出的維度是多少()A、217B、217C、218D、220答案:C225.《中華人民共和國網(wǎng)絡(luò)安全法》規(guī)定:國家采取措施,()來源于中華人民共和國境內(nèi)外的網(wǎng)絡(luò)安全風(fēng)險和威脅,保護關(guān)鍵信息基礎(chǔ)設(shè)施免受攻擊、侵入、干擾和破壞,依法懲治網(wǎng)絡(luò)違法犯罪活動,維護網(wǎng)絡(luò)空間安全和秩序。A、監(jiān)測、防御、反擊B、監(jiān)測、防御、處置C、檢測、防御、反擊D、檢測、防御、處置答案:B226.以下關(guān)于traintestsplit函數(shù)的說法正確的是()。A、train_test_splitB、train_test_split的輸入只能是一個數(shù)組C、train_test_split每次的劃分結(jié)果不同,無法解決D、train_test_split答案:D227.LSTM網(wǎng)絡(luò)引入門控機制來控制信息傳遞的路徑,其中輸入門的作用是()A、控制上一個時刻的內(nèi)部狀態(tài)需要遺忘多少信息B、控制上一個時刻的內(nèi)部狀態(tài)有多少信息需要保存C、控制當(dāng)前當(dāng)刻的候選狀態(tài)有多少信息需要保存D、控制當(dāng)前當(dāng)刻的內(nèi)部狀態(tài)有多少信息需要輸出給外部狀態(tài)答案:C228.混淆矩陣中的TP=16,F(xiàn)P=12,F(xiàn)N=8,TN=4,準(zhǔn)確率是()。A、1/4B、1/2C、4/7D、1212122022年4月6日答案:B229.下列關(guān)于對大數(shù)據(jù)特點的說法中,錯誤的是()。A、數(shù)據(jù)規(guī)模大B、數(shù)據(jù)類型多樣C、數(shù)據(jù)價值密度高D、數(shù)據(jù)處理速度快答案:C230.對文本數(shù)據(jù)處理通常采用()核函數(shù)A、多項式B、SigmoidC、線性D、拉普拉斯答案:C231.下列關(guān)于RBM說法錯誤的是(__)。A、學(xué)習(xí)過程很快B、RBM訓(xùn)練可以看作對一個深層BP網(wǎng)絡(luò)的網(wǎng)絡(luò)權(quán)值參數(shù)的初始化C、RBM不用人工選擇特征D、RBM有標(biāo)簽樣本集答案:A232.《國家電網(wǎng)公司信息網(wǎng)絡(luò)運行管理規(guī)程》對進出機房的人員進行詳細(xì)登記,有關(guān)的登記記錄應(yīng)保存的最短日期是()。A、1年B、2年C、3年D、半年答案:A233.下列關(guān)于凝聚層次聚類技術(shù)的描述中,合適的是()。A、抗噪聲和異常值B、MAX(全鏈)聚類中合并距離最遠(yuǎn)的兩個簇C、兩個簇合并后,只保留一個簇D、沒有可以直接最小化的目標(biāo)函數(shù)答案:D234.視覺通道表現(xiàn)力評價指標(biāo)不包括()A、精確性B、可辨認(rèn)性C、可分離性D、可轉(zhuǎn)換性答案:D235.當(dāng)閔可夫斯基距離公式中的系數(shù)p值為2時,可得到(__)的公式。A、歐氏距離B、曼哈頓距離C、街區(qū)距離D、切比雪夫距離答案:A236.下面哪種不屬于數(shù)據(jù)預(yù)處理的方法:()。A、變量代換B、離散化C、聚集D、估計遺漏值答案:D237.服務(wù)(),提供多模式電力交易大數(shù)據(jù)分析服務(wù),開展電力交易市場化配置和風(fēng)險預(yù)警數(shù)據(jù)應(yīng)用,提高交易輔助決策和資源優(yōu)化配置能力。A、電力供用電市場B、電力客戶C、電力市場用戶D、電力資源市場化配置答案:D238.以下哪種不是自適應(yīng)學(xué)習(xí)率方法()。A、Mini-batchB、AdagradC、RMSpropD、Adadelta答案:A239.以下哪種卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計引入了殘差網(wǎng)絡(luò)結(jié)構(gòu)()A、LeNetB、AlexNetC、GoogLeNetD、ResNets答案:D240.公司大數(shù)據(jù)應(yīng)用建設(shè)應(yīng)按照電網(wǎng)數(shù)字化建設(shè)要求,遵循公司大叔蘇劇應(yīng)用統(tǒng)一技術(shù)架構(gòu)與標(biāo)準(zhǔn),充分利用()等各類企業(yè)級大數(shù)據(jù)應(yīng)用公共服務(wù)能力平臺進行開發(fā)和實施。A、電網(wǎng)資源業(yè)務(wù)中臺B、全業(yè)務(wù)數(shù)據(jù)中心C、數(shù)據(jù)中臺D、數(shù)字化能力開放平臺答案:C241.pynlpir是一種常用的自然語言理解工具包,其中進行分詞處理的函數(shù)是()。A、open()B、segment()C、AddUserWord()D、generate()答案:B242.MapReduce計算框架的輸人數(shù)據(jù)結(jié)構(gòu)是()。A、key-valueB、input-outputC、map-reduceD、key-column答案:A243.考慮某個具體問題時,可能只有少量數(shù)據(jù)來解決這個問題。不過有一個類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)。可以用下面哪種方法來利用這個預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?A、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層B、對新數(shù)據(jù)重新訓(xùn)練整個模型C、只對最后?層進行調(diào)參(fineD、對每一層模型進行評估,選擇其中的少數(shù)來用答案:C244.基于詞的n元文法模型,其最后的粗分結(jié)果集合大?。ǎ㎞。A、大于B、大于等于C、小于D、小于等于答案:B245.LSTM中,(__)的作用是確定哪些新的信息留在細(xì)胞狀態(tài)中,并更新細(xì)胞狀態(tài)。A、輸入門B、遺忘門C、輸出門D、更新門答案:A246.在MapReduce中,哪個組件是用戶不指定也不會有默認(rèn)的()A、CombinerB、OutputFormatC、PartitionerD、InputFormat答案:A247.DataWorks中不同角色擁有不同的權(quán)限,可以通過角色授權(quán)來控制成員的操作權(quán)限。角色主要有組織管理員、項目管理員、開發(fā)員、防客等,其中開發(fā)角色不具備什么權(quán)限。A、添加項目成員B、新建任務(wù)C、新建函數(shù)D、上傳資源答案:A248.從合規(guī)性監(jiān)測和成效后評估向超前診斷、輔助決策轉(zhuǎn)變,融入到公司戰(zhàn)略、投資、管理等決策各環(huán)節(jié),提升()能力。A、業(yè)務(wù)B、經(jīng)營C、管理D、決策答案:D249.高斯核也稱為(__)。A、多項式核B、拉普拉斯核C、RBF核D、Sigmoid核答案:C250.卷積核大小是4*4,則其步長不能是()。A、0B、1C、2D、3答案:A251.倒傳遞神經(jīng)網(wǎng)絡(luò)(BP神經(jīng)網(wǎng)絡(luò))的訓(xùn)練順序為何?(A:調(diào)整權(quán)重;B:計算誤差值;C:利用隨機的權(quán)重產(chǎn)生輸出的結(jié)果)A、BCB、CAC、BAD、CB答案:D252.根據(jù)數(shù)據(jù)質(zhì)量核查和治理情況,互聯(lián)網(wǎng)部對數(shù)據(jù)質(zhì)量問題發(fā)生數(shù)、()、整改完成率等進行評估和通報,促進公司整體數(shù)據(jù)質(zhì)量水平提升。A、整改量B、整改及時率C、問題頻率D、問題整改情況答案:B253.建立與政府主管部門、行業(yè)協(xié)會、專家學(xué)者的有效溝通機制,組織各級單位積極參與《數(shù)據(jù)安全法》、《》等國家、地方和行業(yè)數(shù)據(jù)相關(guān)法律法規(guī)。A、《個人信息保護法》B、《網(wǎng)絡(luò)安全法》C、《保守國家秘密法》D、《網(wǎng)絡(luò)產(chǎn)品和服務(wù)安全審查辦法(試行)》答案:A254.國網(wǎng)公司堅持?jǐn)?shù)據(jù)“一處生成、多處使用”,明確權(quán)威數(shù)據(jù)源引用規(guī)范,開展權(quán)威數(shù)據(jù)源中臺標(biāo)注,推進權(quán)威數(shù)據(jù)源在中臺的落地應(yīng)用,常態(tài)推進()治理。A、數(shù)據(jù)源頭B、數(shù)據(jù)中臺C、業(yè)務(wù)中臺D、數(shù)據(jù)應(yīng)用答案:A255.np.dot([[1,2,3],[1,2,3],[1,2,3]],[[2,1,1],[2,1,1],[2,1,1]])的結(jié)果是()。A、[[12B、[[2C、[[1D、[[2答案:A256.下面關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)說法錯誤的是()A、循環(huán)神經(jīng)網(wǎng)絡(luò)用于靜態(tài)輸出B、循環(huán)神經(jīng)網(wǎng)絡(luò)通過使用帶自反饋的神經(jīng)元,能夠處理任意長度的時序數(shù)據(jù)C、循環(huán)神經(jīng)網(wǎng)絡(luò)具有短期記憶能力,相當(dāng)于存儲裝置,因此其計算能力十分強大D、循環(huán)神經(jīng)網(wǎng)絡(luò)時間擴展,神經(jīng)元與多個時間輸出計算答案:A257.公司大數(shù)據(jù)應(yīng)用需求與立項管理遵循()管理規(guī)范,嚴(yán)格落實項目制管理要求,主要包括需求征集、評審、儲備、立項和計劃編制與調(diào)整等工作。A、技術(shù)服務(wù)項目B、科技項目C、信息化項目D、數(shù)字化項目答案:D258.將兩篇文本通過詞袋模型變?yōu)橄蛄磕P?,通過計算向量的()來計算兩個文本間的相似度。A、正弦距離B、余弦距離C、長度D、方向答案:B259.當(dāng)前人工智能算力持續(xù)突破,面向訓(xùn)練用和推斷用的芯片仍在快速推進,基于___的訓(xùn)練芯片持續(xù)增多A、CPUB、GPUC、FPGAD、5G通訊答案:B260.假設(shè)我們使用原始的非線性可分版本的Soft-SVM優(yōu)化目標(biāo)函數(shù)。我們需要做什么來保證得到的模型是線性可分離的()A、C=0B、C=1C、正無窮大D、C負(fù)無窮大答案:C261.在OneData方法論中,OneService理論描述錯誤的是哪項()?A、數(shù)據(jù)標(biāo)準(zhǔn)化B、主題式數(shù)據(jù)服務(wù)C、統(tǒng)一但多樣化數(shù)據(jù)服務(wù)D、跨源數(shù)據(jù)服務(wù)答案:A262.引入激活函數(shù)的目的是()A、加入額外的計算單元B、加快計算速度C、增加神經(jīng)網(wǎng)絡(luò)模型的非線性D、方便反向傳播計算答案:C263.下列哪一種情況被稱為過學(xué)習(xí)現(xiàn)象:A、在訓(xùn)練集上A優(yōu)于B,在測試集上A也優(yōu)于BB、在訓(xùn)練集上A優(yōu)于B,在測試集上B優(yōu)于AC、相對于分類數(shù)據(jù)集,決策樹過于簡單D、在訓(xùn)練集上決策樹的誤差很小答案:B264.下列關(guān)于特征編碼的敘述中,不正確的是()。A、特征編碼是將非數(shù)值型特征轉(zhuǎn)換成數(shù)值型特征的方法;B、數(shù)字編碼與特征的排序無關(guān);C、One-Hot編碼中,原始特征有n種取值,轉(zhuǎn)換后就會產(chǎn)生n列新特征;D、啞變量編碼解決了One-Hot編碼中存在線性關(guān)系的問題;答案:B265.Apriori算法的計算復(fù)雜度受()影響。①支持度閥值②項數(shù)(維度)③事務(wù)數(shù)④事務(wù)平均寬度A、①②③④B、②③④C、①③④D、①②③答案:A266.將合規(guī)管理要求全面嵌入公司數(shù)據(jù)活動,在各領(lǐng)域、各環(huán)節(jié)確定合規(guī)管理重點,覆蓋(),促進公司數(shù)據(jù)活動全面合規(guī)。A、數(shù)據(jù)生產(chǎn)B、數(shù)據(jù)全生命周期C、數(shù)據(jù)存儲D、數(shù)據(jù)銷毀答案:B267.下面哪個激活函數(shù)可以實現(xiàn)max(0,x)的功能()。A、sigmoidB、reluC、softmaxD、tanh答案:B268.公司網(wǎng)絡(luò)安全和信息化領(lǐng)導(dǎo)小組是數(shù)據(jù)管理工作的領(lǐng)導(dǎo)決策機構(gòu),下列哪項不是其主要職責(zé)()A、評估公司數(shù)據(jù)管理工作制度B、審議決策公司數(shù)據(jù)管理重大事項C、協(xié)調(diào)解決數(shù)據(jù)管理重要問題D、對公司數(shù)據(jù)管理工作進行監(jiān)督指導(dǎo)答案:A269.下列關(guān)于hive說法正確的是()A、一種數(shù)據(jù)倉庫工具B、一種數(shù)據(jù)處理工具C、一種可視化工具D、一種分析算法答案:A270.下列關(guān)于支持向量的說法正確的是()A、到分類超平面的距離最近的且滿足一定條件的幾個訓(xùn)練樣本點是支持向量B、訓(xùn)練集中的所有樣本點都是支持向量C、每一類樣本集中都分別只有一個支持向量D、支持向量的個數(shù)越多越好答案:A271.依據(jù)《國家電網(wǎng)有限公司數(shù)據(jù)管理辦法》,建立基于()的公司對內(nèi)數(shù)據(jù)共享機制。A、負(fù)面清單B、層層審批C、一事一議D、數(shù)據(jù)應(yīng)用答案:A272.下列關(guān)于誤差的說法,正確的是()。A、訓(xùn)練樣本容量增加,泛化誤差也會增加B、過擬合指數(shù)據(jù)在訓(xùn)練集上的誤差過大C、過擬合可以通過減少模型參數(shù)數(shù)量解決D、交叉驗證不重復(fù)使用數(shù)據(jù)答案:C273.以下代碼的輸出結(jié)果為()。importnumpyasnpa=np.array([[10,7,4],[3,2,1]])print(np.percentile(a,50))A、[[10B、3.5C、[6.5D、[7.答案:B274.構(gòu)建客戶群體特征分析及細(xì)分模型,評估優(yōu)化潛力,為用戶智能推薦個性化服務(wù)方案,滿足()服務(wù)需求。A、精準(zhǔn)化B、個性化C、差異化D、特色化答案:C275.大數(shù)據(jù)的最顯著特征是()。A、數(shù)據(jù)規(guī)模大B、數(shù)據(jù)類型多樣C、數(shù)據(jù)處理速度快D、數(shù)據(jù)價值密度高答案:A276.階躍函數(shù)與sigmoid函數(shù)均為典型激活函數(shù)()。A、正確B、錯誤C、nanD、nan答案:A277.數(shù)據(jù)使用是指需要某一專業(yè)數(shù)據(jù)的部門或單位(以下簡稱“需求方”)向數(shù)據(jù)歸口管理部門或單位(以下簡稱“提供方”)申請使用數(shù)據(jù)的過程。需求方根據(jù)專業(yè)管理需要,填寫(),并提供相關(guān)需求文檔至提供方。A、《業(yè)務(wù)數(shù)據(jù)需求申請表》B、《數(shù)據(jù)使用需求清單》C、《全業(yè)務(wù)統(tǒng)一數(shù)據(jù)中心數(shù)據(jù)使用備案表》D、《業(yè)務(wù)數(shù)據(jù)使用申請表》答案:D278.以下程序的輸出結(jié)果是:ls=["浣熊","豪豬","艾草松雞","棉尾兔","叉角羚"]x="豪豬"print(ls.index(x,0))A、1B、0C、-4D、-3答案:A279.實現(xiàn)多分類任務(wù)的神經(jīng)網(wǎng)絡(luò),輸出層的神經(jīng)元個數(shù)一般選擇()。A、與類別數(shù)一致B、10以內(nèi)C、2個D、類別數(shù)的2倍答案:A280.若a=‘a(chǎn)bcd’,若想將a變?yōu)椤甧bcd’,則下列語句正確的是()A、[0]B、replace(‘a(chǎn)’,C、D、=‘e’+“bcd”答案:D解析:a[1]=‘e’281.假設(shè)擁有一個已完成訓(xùn)練的、用來解決車輛檢測問題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測出每種車輛的名稱(車輛共有10種類型)?,F(xiàn)在想要使用這個模型來解決另外一個問題,問題數(shù)據(jù)集中僅包含一種車(福特野馬)而目標(biāo)變?yōu)槎ㄎ卉囕v在照片中的位置。A、除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B、對神經(jīng)網(wǎng)絡(luò)中的最后幾層進行微調(diào),同時將最后一層(分類層)更改為回歸層C、使用新的數(shù)據(jù)集重新訓(xùn)練模型D、所有答案均不對答案:B282.“數(shù)字孿生(DigitalTwin)”這一概念被美國()教授提出。A、MichaelB、EdwardC、MichaelD、Arthur答案:C283.訓(xùn)練一個RNN網(wǎng)絡(luò),如果權(quán)重與激活值都是NaN,下列選項中,哪一個是導(dǎo)致這個問題的最有可能的原因()A、梯度消失B、梯度爆炸C、ReLU函數(shù)作為激活函數(shù)g(.),在計算g(z)時,z的數(shù)值過大了D、Sigmoid函數(shù)作為激活函數(shù)g(.),在計算g(z)時,z的數(shù)值過大了答案:B284.數(shù)據(jù)全生命周期安全防護,不包括()。A、數(shù)據(jù)采集環(huán)節(jié)B、數(shù)據(jù)傳輸環(huán)節(jié)C、數(shù)據(jù)存儲環(huán)節(jié)D、數(shù)據(jù)建模分析節(jié)答案:D285.下列縮進格式描述不正確的是()。A、縮進指在代碼行前面添加空格或Tab;B、在Python程序中,縮進不是任意的;C、縮進可以使程序更有層次感、更有結(jié)構(gòu)感,從而是程序更易讀。D、平級的語句行(代碼塊)的縮進可以不相同。答案:D286.深度學(xué)習(xí)方法不適用的數(shù)據(jù)集為以下哪種情況?A、樣本量充足B、樣本量多樣化C、數(shù)據(jù)集具有局部相關(guān)性D、特征之間不具有局部相關(guān)性答案:D287.大數(shù)據(jù)應(yīng)用的業(yè)務(wù)規(guī)劃將聚焦核心領(lǐng)域,打造共5大重點業(yè)務(wù)、()個業(yè)務(wù)領(lǐng)域、34項業(yè)務(wù)方向。A、12B、13C、14D、15答案:A288.()不僅可用于多層前饋神經(jīng)網(wǎng)絡(luò),還可用于其他類型的神經(jīng)網(wǎng)絡(luò)。A、感知機B、神經(jīng)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論