2023年大數(shù)據(jù)應用技能競賽全題庫-下(多選、判斷題匯總)_第1頁
2023年大數(shù)據(jù)應用技能競賽全題庫-下(多選、判斷題匯總)_第2頁
2023年大數(shù)據(jù)應用技能競賽全題庫-下(多選、判斷題匯總)_第3頁
2023年大數(shù)據(jù)應用技能競賽全題庫-下(多選、判斷題匯總)_第4頁
2023年大數(shù)據(jù)應用技能競賽全題庫-下(多選、判斷題匯總)_第5頁
已閱讀5頁,還剩147頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

PAGEPAGE1522023年大數(shù)據(jù)應用技能競賽全題庫-下(多選、判斷題匯總)多選題1.隨機森林的隨機性主要體現(xiàn)在()。A、決策樹選擇的隨機性B、數(shù)據(jù)集的隨機性C、待選特征的隨機性D、參數(shù)選擇的隨機性答案:BC2.有兩種策略常用來緩解BP網(wǎng)絡的過擬合,分別是()和()。A、晚停B、早停C、正則化D、加入損失函數(shù)答案:BC3.Python支持運行的平臺有()。A、WindowsB、MacOSC、CentOSD、Ubuntu答案:ABCD4.傳統(tǒng)關系數(shù)據(jù)庫的優(yōu)點包括()。A、數(shù)據(jù)一致性高B、數(shù)據(jù)冗余度低C、簡單處理的效率高D、產(chǎn)品成熟度高答案:ABD5.關于Hive的說法正確的是()。A、Hive是基于Hadoop的數(shù)據(jù)倉庫工具B、Hive可以將結構化的數(shù)據(jù)文件映射為一張數(shù)據(jù)庫表C、最初,Hive由Google開源,用于解決海量結構化日志數(shù)據(jù)統(tǒng)計問題D、Hive的主要應用場景是離線分析答案:ABD6.Python的模塊符合以下哪些說法()。A、模塊讓你能夠有邏輯地組織你的Python代碼段B、Python擁有豐富的模塊,不支持自定義模塊C、把相關的代碼分配到一個模塊里能讓你的代碼更好用,更易懂D、模塊能定義函數(shù),類和變量,模塊里也能包含可執(zhí)行的代碼。答案:ACD7.關于神經(jīng)網(wǎng)絡,下列說法正確的是()A、增加網(wǎng)絡層數(shù),可能會增加測試集分類錯誤率B、增加網(wǎng)絡層數(shù),一定會增加訓練集分類錯誤率C、減少網(wǎng)絡層數(shù),可能會減少測試集分類錯誤率D、減少網(wǎng)絡層數(shù),一定會減少訓練集分類錯誤率答案:AC8.Flume特點包括()。A、分布式B、高可靠C、高容錯D、易于定制和擴展答案:ABCD9.下面哪些是spark比Mapreduce計算快的原因()。A、基于內存的計算;B、基于DAG的調度框架;C、基于Lineage的容錯機制;D、基于分布式計算的框架;答案:ABC10.Spark容錯性的方式有哪些()。A、數(shù)據(jù)檢查點;B、存儲原始數(shù)據(jù);C、記錄數(shù)據(jù)的更新;D、自建數(shù)據(jù)版本;答案:AC11.關于Python組合數(shù)據(jù)類型,以下選項中描述正確的是()。A、Python的strtuple和list類型都屬于序列類型B、Python組合數(shù)據(jù)類型能夠將多個同類型或不同類型的數(shù)據(jù)組織起來,通過單一的表示使數(shù)據(jù)操作更有序更容易C、組合數(shù)據(jù)類型可以分為3類:序列類型集合類型和映射類型D、序列類型是二維元素向量,元素之間存在先后關系,通過序號訪問答案:ABC12.基于Hadoop開源大數(shù)據(jù)平臺主要提供了針對數(shù)據(jù)分布式計算和存儲能力,如下屬于分布式存儲組件的有()。A、MRB、SparkC、HDFSD、Hbase答案:CD13.關于Python分隔代碼塊描述錯誤的是()。A、內嵌代碼的每一行,都比外面的if語句的縮進更多B、代碼以“begin”開頭,“end”結尾C、每行代碼的縮進都一致D、代碼塊被封裝在花括號中答案:BCD14.深度學習的實質及其與淺層學習的說法正確的是(__)。A、DL強調模型深度B、DL突出特征學習的重要性.特征變換+非人工C、沒有區(qū)別D、以上答案都不正確答案:AB15.plt.axhline(y=0.0,c="r",ls="--",lw=2),對這句代碼說法正確的是()。A、在0.0處添加豎直參考線B、添加水平參考線C、參考線是虛線形式D、網(wǎng)格線是紅色的答案:BC16.字符串的格式化可以使用()。A、%B、formatC、inputD、+答案:AB17.以下()是scipy.stats可實現(xiàn)的連續(xù)隨機變量方法。A、rvsB、pdfC、ppfD、cdf答案:ABCD18.如何在監(jiān)督式學習中使用聚類算法()A、首先,可以創(chuàng)建聚類,然后分別在不同的集群上應用監(jiān)督式學習算法B、在應用監(jiān)督式學習算法之前,可以將其類別ID作為特征空間中的一個額外的特征C、在應用監(jiān)督式學習之前,不能創(chuàng)建聚類D、在應用監(jiān)督式學習算法之前,不能將其類別ID作為特征空間中的一個額外的特征答案:AB19.以下()屬于數(shù)據(jù)統(tǒng)計分析工具。A、WekaB、SASC、SPSSD、Matlab答案:ABCD20.關于TF-IDF模型描述正確的有()。A、TF意思是詞頻B、IDF是逆文本頻率C、該模型基于統(tǒng)計方法D、在信息檢索中應用較少答案:ABC21.a=np.array([1,2,3,4,5,6,7,8])以下()命令可以使輸出結果為([5,6,7])。A、a[4:7]B、a[5:8]C、a[4:-1]D、a[5:]答案:AC22.在Windows系統(tǒng)中通過Geany編寫Python程序,運行Python程序的常用步驟是()。A、菜單Build>ExecuteB、菜單Execute>BuildC、按F5D、按F10答案:AC23.Python中jieba庫的基本實現(xiàn)原理是什么()。A、利用中文詞庫,分析漢字與漢字之間的關聯(lián)幾率B、還有分析漢字詞組的關聯(lián)幾率C、還可以根據(jù)用戶自定義的詞組進行分析D、還可以分析漢字與英文之間關聯(lián)幾率答案:ABC24.聚類性能度量外部指標包括()。A、Jaccard系數(shù)B、FM指數(shù)C、Dunn指數(shù)D、Rand指數(shù)答案:ABD25.(__)可以幫助解決訓練集在特征空間中線性不可分的問題。A、硬間隔B、軟間隔C、核函數(shù)D、拉格朗日乘子法答案:BC26.在建立模型時,需要用到()。A、訓練數(shù)據(jù)B、測試數(shù)據(jù)C、原始數(shù)據(jù)D、驗證數(shù)據(jù)答案:ABD27.下面哪些是基于核的機器學習算法(__)。A、最大期望算法B、徑向基核函數(shù)C、線性判別分析法D、支持向量機答案:BCD28.以下關于CSV文件的描述,正確的選項是()。A、CSV文件可用于不同工具間進行數(shù)據(jù)交換B、CSV文件格式是一種通用的,相對簡單的文件格式,應用于程序之間轉移表格數(shù)據(jù)。CC、SV文件通過多種編碼表示字符D、CSV文件的每一行是一維數(shù)據(jù),可以使用Python中的列表類型表示答案:ABD29.Analytics1.0的主要特點有()。A、分析活動滯后于數(shù)據(jù)的生成B、重視結構化數(shù)據(jù)的分析C、以對歷史數(shù)據(jù)的理解為主要目的D、注重描述性分析答案:ABCD30.Spark的技術架構可以分為哪幾層()。A、資源管理層;B、Spark核心層;C、應用層;D、服務層;答案:ABD31.完整性約束通常包括()A、實體完整性B、域完整性C、參照完整性D、用戶定義完整性答案:ABCD32.EDA(探索性數(shù)據(jù)分析)方法與傳統(tǒng)統(tǒng)計學的驗證性分析方法的區(qū)別有()。A、EDA需要事先提出假設,而驗證性分析不需要B、EDA中采用的方法往往比驗證性分析簡單C、在一般數(shù)據(jù)科學項目中,探索性分析在先,驗證性分析在后D、EDA更為簡單、易學和易用答案:BCD33.以下關于HTML標簽嵌套規(guī)則的說法,正確的是()。A、塊元素可以包含內聯(lián)元素或某些塊元素,但內聯(lián)元素也可以包含塊元素B、HTML標簽包括塊級元素和內嵌元素C、內嵌元素一般用在網(wǎng)站內容之中的某些細節(jié)或部位,用以“強調區(qū)分樣式上標下標錨點”等,通常包括:aabbrbbrfontiimginputkbdlabelqsselectsmallspansubttuvar等D、其中塊級元素一般用來搭建網(wǎng)絡架構布局承載內容,通常包括的標簽有:addressdirdivdldtddformh1~h6hrisindexmenunoframesnoscriptolppretableul等答案:BCD34.下列哪些指標可以用來評估線性回歸模型(多選)()A、R-SquaredB、AdjustedR-SquaredC、FStatisticsD、RMSE/MSE/MAE答案:ABCD35.關于分析學習和歸納學習的比較,說法正確的是()。A、歸納學習擬合數(shù)據(jù)假設,分析學習擬合領域理論的假設B、歸納學習論證方式為統(tǒng)計推理,分析學習為演繹推理C、歸納學習不需要隱式的先驗知識D、訓練數(shù)據(jù)不足時歸納學習可能會失敗答案:ABCD36.常見的聚類性能度量外部指標有()。A、Jaccard系數(shù)B、DB指數(shù)C、FM指數(shù)D、以上答案都正確答案:AC37.數(shù)據(jù)增值存在于哪些過程中()。A、數(shù)據(jù)對象的封裝B、數(shù)據(jù)系統(tǒng)的研發(fā)C、數(shù)據(jù)的集成應用D、基于數(shù)據(jù)的創(chuàng)新答案:ABCD38.下面是文件基本操作的函數(shù)()。A、closeB、readC、renameD、remove答案:ABCD39.以下哪些方法是tf-idf的變種()。A、TFCB、EWCC、ITCD、IG答案:AC40.下列關于spark中的RDD描述正確的有()。A、RDD(ResilientDistributedDataset)叫做彈性分布式數(shù)據(jù)集,是spark中最基本的數(shù)據(jù)抽象;B、Resilient:表示彈性的;C、Destributed:分布式,可以并行在集群計算;D、Dataset:就是一個集合,用于存放數(shù)據(jù)的;答案:ABCD41.Python的優(yōu)點有()。A、變量不用預定義類型B、數(shù)據(jù)結構功能強大C、語言可解釋性強D、變量類型固定答案:ABC42.K均值聚類和層次聚類在一些方面有重大差異。以下哪些說法是正確的()A、在K均值聚類中,必須在運行算法前選定想要的簇的個數(shù)B、在k均值聚類中,可以在運行算法后選定想要的簇的個數(shù)C、在層次聚類中,可以在運行算法后選定想要的簇的個數(shù)D、k均值聚類算法所需的計算量比層次聚類算法小得多答案:ACD43.影響聚類算法效果的主要原因有:()A、特征選取B、模式相似性測度C、分類準則D、已知類別的樣本質量答案:ABC44.直方圖修正法包括()。A、直方圖統(tǒng)計B、直方圖均衡C、直方圖過濾D、直方圖規(guī)定化;答案:BD45.特征選擇的目的:()。A、減少特征數(shù)量、降維B、使模型泛化能力更強C、增強模型擬合能力D、減少過擬合。答案:ABD46.基于Boosting的集成學習代表算法有()。A、AdaboostB、GBDTC、XGBOOSTD、隨機森林答案:ABC47.LSTM應用場景應用場景有哪些()A、翻譯語言B、語音識別C、圖像識別D、股票預測答案:ABD48.數(shù)據(jù)科學項目主要涉及的活動包括()。A、模式/模型的應用及維護B、模式/模型的洞見C、結果的可視化與文檔化D、模式/模型的驗證和優(yōu)化答案:ABCD49.以下屬于規(guī)則的分詞方法的是()。A、正向最大匹配法B、逆向最大匹配法C、雙向最大匹配法D、條件隨機場答案:ABC50.Hadoop組件Flume三層架構包括()。A、AgentB、GossipC、CollectorD、Storage答案:ACD51.以下屬于關鍵詞提取算法的有()。A、TF-IDF算法B、TextRank算法C、LSA(潛在語義分析)D、LDA答案:ABCD52.集成學習中多樣性的增強有哪些()A、數(shù)據(jù)樣本擾動B、輸入屬性擾動C、輸出表示擾動D、算法參數(shù)擾動答案:ABCD53.下列哪些現(xiàn)象屬于乘性噪聲()。A、電視光柵的退化B、二值圖像上的胡椒鹽噪聲C、信道傳輸受擾D、膠片材料的退化答案:AD54.在支持向量機中,參數(shù)的選取會影響擬合的結果,如果出現(xiàn)過擬合的現(xiàn)象,則導致該結果的原因有可能是(__)。A、其他參數(shù)保持不變,C值過大B、其他參數(shù)保持不變,λ值較少C、其他參數(shù)保持不變,σ較大D、其他參數(shù)保持不變,σ較小答案:ABD55.下列關于極大似然估計(MaximumLikelihoodEstimate,MLE),說法正確的是(__)。A、MLE可能并不存在B、MLE總是存在C、如果MLE存在,那么它的解可能不是唯一的D、如果MLE存在,那么它的解一定是唯一的答案:AC56.常用的爬蟲技巧有以下哪些()。A、更改header,偽裝成瀏覽器進行爬取B、設置爬取的時間間隔C、應用神經(jīng)網(wǎng)絡算法識別網(wǎng)站驗證碼D、通過代理服務器進行爬取答案:ABCD57.下列哪些是詞語情感分析的方法()。A、基于網(wǎng)絡的分析方法B、基于word-embedding的分析方法C、基于詞典的分析方法D、基于詞頻的分析方法答案:AC58.大數(shù)據(jù)的參考架構分為哪三個層次()A、角色B、活動C、邏輯構件D、功能組件答案:ABD59.從Hadoop實現(xiàn)角度看,HadoopMapReduce1.0主要由()組成。A、編程模型B、數(shù)據(jù)處理引擎C、運行時環(huán)境D、算法庫答案:ABC60.Spark有哪些缺陷()。A、于內存的計算B、持Schema信息C、支持增量迭代計算D、支持細粒度更新操作答案:CD61.在BP網(wǎng)絡中,常用于緩解其過擬合的策略有()。A、早停策略B、正則化策略C、全局最小策略D、局部最小策略答案:AB62.數(shù)據(jù)可視化是利用計算機圖形學和圖像處理技術,將數(shù)據(jù)轉換成()或()在屏幕上顯示出來,并進行交互處理的理論、方法和技術。A、文字B、圖形C、圖像D、視頻答案:BC63.下列哪些是情感分析的應用場景()。A、數(shù)據(jù)挖掘B、信息檢索C、文本分詞D、市場營銷答案:ABD64.常用的沖突消解策略有包括()。A、投票法B、排序法C、元規(guī)則法D、調研法答案:ABC65.以下跟圖像處理相關的是()。A、圖像識別B、人臉識別C、視頻分析D、nlp答案:ABCD66.下列關于EM算法描述正確的是(__)。A、EM算法是常用的估計參數(shù)隱變量的利器B、EM算法即是期望最大化算法C、EM算法常被用來學習高斯混合模型的參數(shù)D、EM算法是一種迭代式的方法答案:ABCD67.在Python中,以下導入模塊方式正確的是()。A、import模塊名B、import模塊名as模塊的別名C、from模塊名import函數(shù)名D、from模塊名import函數(shù)名A,函數(shù)名B答案:ABCD68.下面是Numpy支持的統(tǒng)計函數(shù)有()。A、minB、maxC、medianD、mean答案:ABCD69.以下()函數(shù)是累積函數(shù)。A、cumsumB、argminC、cumprodD、argmax答案:AC70.若b=np.array([True,False,False]),以下能輸出[FalseTrueTrue]的是()。A、print(b-1)B、print(~b)C、print(np.logical_not(b))D、print(>>b)答案:BC71.下列哪些是常用分詞方法()。A、基于Binarytree的分詞方法B、基于HMM的分詞方法C、基于CRF的分詞方法D、基于Kmeans的分詞方法答案:BC72.線性模型的基本形式有()。A、線性回歸B、對數(shù)幾率回歸(二分類問題)C、線性判別分析(Fisher判別分析)D、多分類學習答案:ABCD73.在網(wǎng)絡爬蟲的爬行策略中,應用最為常見的是()。A、深度優(yōu)先遍歷策略B、廣度優(yōu)先遍歷策略C、高度優(yōu)先遍歷策略D、反向鏈接策略E、大站優(yōu)先策略答案:AB74.請問下面哪些是離散型變量()。A、示波器B、心電圖及腦動電圖掃描器對腦電波的測量C、過去數(shù)月的總銷售額D、公司每年的紅利答案:CD75.分布式列式存儲的功能有()。A、支持在線快速讀寫B(tài)、支持線性擴展C、具備節(jié)點監(jiān)控管理D、數(shù)據(jù)同源不壓縮答案:ABC76.數(shù)據(jù)從產(chǎn)生到終結共有()環(huán)節(jié)。A、數(shù)據(jù)產(chǎn)生環(huán)節(jié)B、數(shù)據(jù)傳輸環(huán)節(jié)C、數(shù)據(jù)使用環(huán)節(jié)D、數(shù)據(jù)共享環(huán)節(jié)E、數(shù)據(jù)銷毀環(huán)節(jié)答案:ABCDE77.關于HDFS的文件寫入,正確的是()。A、不支持多用戶對同一文件的寫操作;B、用戶不可以在文件任意位置進行修改;C、默認將文件復制成三份存放;D、復制的文件塊默認不存在同一機架上;答案:ABCD78.下列哪些算法可以用來構造神經(jīng)網(wǎng)絡()。A、kNNB、線性回歸C、邏輯回歸答案:BC79.HIS表色系的三屬性包含:()。A、色調B、色飽和度C、亮度D、色度答案:ABC80.下列不屬于聚類性能度量內部指標的是()。A、DB指數(shù)B、Dunn指數(shù)C、Jaccard系數(shù)D、FM系數(shù)答案:CD81.下面對LDA判別分析的思想描述正確的是()。A、同類樣例的投影點盡可能近B、異類樣例的投影點盡可能遠C、同類樣例的投影點盡可能遠D、異類樣例的投影點盡可能近答案:AB82.下列方法中,可以用于特征降維的方法包括()。A、主成分分析PCAB、線性判別分析LDAC、深度學習SparseAutoEncoderD、矩陣奇異值分解SVD答案:ABD83.關于Dropout說法正確的是:(__)。A、Dropout背后的思想其實就是把DNN當做一個集成模型來訓練,之后取所有值的平均值,而不只是訓練單個DNNB、DNN網(wǎng)絡將Dropout率設置為p,也就是說,一個神經(jīng)元被保留的概率是1-p。當一個神經(jīng)元被丟棄時,無論輸入或者相關的參數(shù)是什么,它的輸出值就會被設置為0C、丟棄的神經(jīng)元在訓練階段,對BP算法的前向和后向階段都沒有貢獻。因為這個原因,所以每一次訓練,它都像是在訓練一個新的網(wǎng)絡D、Dropout方法通常和L2正則化或者其他參數(shù)約束技術(比如MaxNorm)一起使用,來防止神經(jīng)網(wǎng)絡的過擬合答案:ABCD84.下面屬于范數(shù)規(guī)則化的作用的是()和()。A、保證模型盡可能的簡單,避免過擬合B、約束模型特征C、最小化問題D、最大化問題答案:AB85.關于現(xiàn)階段大數(shù)據(jù)技術體系,說法正確的是()。A、基礎設施提供數(shù)據(jù)計算、數(shù)據(jù)存儲、數(shù)據(jù)加工(DataWrangling或DataMunging)等服務B、流處理、統(tǒng)計工具、日志分析都屬于常用的開源工具C、數(shù)據(jù)資源代表的是生成數(shù)據(jù)的機構D、數(shù)據(jù)源與APP為數(shù)據(jù)科學和大數(shù)據(jù)產(chǎn)業(yè)生態(tài)系統(tǒng)提供數(shù)據(jù)內容答案:ABCD86.我們想要減少數(shù)據(jù)集中的特征數(shù),即降維.選擇以下適合的方案:()。A、使用前向特征選擇方法B、使用后向特征排除方法C、我們先把所有特征都使用,去訓練一個模型,得到測試集上的表現(xiàn).然后我們去掉一個特征,再去訓練,用交叉驗證看看測試集上的表現(xiàn).如果表現(xiàn)比原來還要好,我們可以去除這個特征D、查看相關性表,去除相關性最高的一些特征答案:ABCD87.以下說法正確的是()。A、負梯度方向是使函數(shù)值下降最快的方向B、當目標函數(shù)是凸函數(shù)時,梯度下降法的解是全局最優(yōu)解C、梯度下降法比牛頓法收斂速度快D、擬牛頓法不需要計算Hesse矩陣答案:ABD88.下列哪種服務可以用于存儲數(shù)據(jù)()。A、MapReduceB、YARNC、HBaseD、HDFS答案:CD89.為什么RNN網(wǎng)絡的激活函數(shù)要選用雙曲正切而不是sigmod呢()A、使用sigmod函數(shù)容易出現(xiàn)梯度消失B、sigmod的導數(shù)形式較為復雜C、雙曲正切更簡單D、sigmoid函數(shù)實現(xiàn)較為復雜答案:AB90.Spark2.0提供的應用庫包括()。A、SparkSQLB、SparkStreamingC、MLibD、GraphX答案:ABCD91.對于主成分分析方法,降維后低維空間的維數(shù)d可以通過()方法確定。A、由用戶事先指定B、通過在d值不同的低維空間中對開銷較小的學習器進行交叉驗證來選取C、可從重構的角度設置一個重構閾值,選取使得特定公式成立的最小值D、隨機設置答案:ABC92.下列哪個是Hadoop運行的模式()。A、單機版B、偽分布式C、分布式D、全分布式答案:ABC93.以下是正確的字符串()。A、‘a(chǎn)bc”ab”B、‘a(chǎn)bc”ab’C、“abc”ab”D、“abc\”ab”答案:BD94.實時計算類應用主要通過()來實現(xiàn)。A、流計算組件B、內存計算組件C、MPP數(shù)據(jù)庫D、Hadoop的后臺定時分析計算任務答案:AB95.Apriori算法的計算復雜度受()影響。A、支持度閥值B、項數(shù)(維度)C、事務數(shù)D、事務平均寬度答案:ABCD96.下列屬于CNN關鍵層的是(__)。A、輸入層B、卷積層C、激活層D、池化層答案:ABCD97.關于神經(jīng)元的敘述,哪些是正確的()A、每個神經(jīng)元可以有一個輸入和一個輸出B、每個神經(jīng)元可以有多個輸入和一個輸出C、每個神經(jīng)元可以有多個輸入和多個輸出D、每個神經(jīng)元可以有多個輸出和一個輸入答案:ABCD98.當我們構造線性模型時,我們注意變量間的相關性。在相關矩陣中搜索相關系數(shù)時,如果我們發(fā)現(xiàn)3對變量的相關系數(shù)是(Var1和Var2,Var2和Var3,Var3和Var1)是-0.98,0.45,1.23.我們可以得出什么結論:()。A、Var1和Var2是非常相關的B、因為Va1r和Var2是非常相關的,我們可以去除其中一個C、Var3和Var1的1.23相關系數(shù)是不可能的答案:ABC99.在Python中,執(zhí)行importdatetimeasdt語句后,如下時間或日期定義方式正確的是()。A、dt.datetime(2019,12,12,23,23,23)B、dt.datetime(2019,0,0,23,23,23)C、dt.datetime(2019,12,12,0)D、dt.time(23,23,23)答案:AC100.Python中標識符的命名規(guī)則正確的是()。A、只能以下劃線或者A-Z/a-z中的字母開頭B、關鍵字不能作為標識符C、Python標識符區(qū)分大小寫D、關鍵字不能作為標識符答案:ABCD101.以下四個選項中,()是Python關鍵字。A、asB、globalC、intD、not答案:ABD102.下面對于超鏈接的說法,正確的是()。A、語句<ahref=”formhtml”>FillOurForm</a>指向的是同一服務器同一目錄下的formhtmlB、語句<ahref=”stuff/cathtml”>Catalog</a>指向的是同一服務器子目錄stuff下的cathtmlC、語句<ahref=”/parenthtml”>Parent</a>指向的是同一服務器父目錄下的parenthtmlD、語句<ahref=”devbgorg”target=”_blank”>BASD</a>指向的是內部的網(wǎng)站答案:ABC103.下面導入模塊正確的是()。A、importnumpyB、importnumpyasnpC、frommatplotlibimportpyplotD、frommatplotlibimportpyplotasplt答案:ABCD104.哪些項不屬于使用池化層相比于相同步長的卷積層的優(yōu)勢()A、參數(shù)更少B、可以獲得更大下采樣C、速度更快D、有助于提升精度答案:BCD105.使用極大似然估計的前提條件有()。A、數(shù)據(jù)服從某種已知的特定數(shù)據(jù)分布型B、已經(jīng)得到了一部分數(shù)據(jù)集C、提前已知某先驗概率D、數(shù)據(jù)集各個屬性相對獨立答案:AB106.以下描述中正確的是()。A、統(tǒng)計學是數(shù)據(jù)科學的理論基礎之一B、Python語言是統(tǒng)計學家發(fā)明的語言C、機器學習是數(shù)據(jù)科學的理論基礎之一D、數(shù)據(jù)科學是統(tǒng)計學的一個分支領域(子學科)答案:AC107.關于數(shù)據(jù)產(chǎn)品研發(fā),下列說法錯誤的是()。A、從加工程度看,可以將數(shù)據(jù)分為一次數(shù)據(jù)、二次數(shù)據(jù)和三次數(shù)據(jù)B、一次數(shù)據(jù)中往往存在缺失值、噪聲、錯誤或虛假數(shù)據(jù)等質量問題C、二次數(shù)據(jù)是對一次數(shù)據(jù)進行深度處理或分析后得到的“增值數(shù)據(jù)”D、三次數(shù)據(jù)是對二次數(shù)據(jù)進行洞察與分析后得到的、可以直接用于決策支持的“洞見數(shù)據(jù)”答案:ABD108.以下哪層是卷積神經(jīng)網(wǎng)絡的組成部分。A、卷積層B、中間層C、池化層D、全連接層答案:ACD109.做一個二分類預測問題,先設定閾值為0.5,概率大于等于0.5的樣本歸入正例類(即1),小于0.5的樣本歸入反例類(即0)。然后,用閾值n(n>0.5)重新劃分樣本到正例類和反例類,下面哪一種說法正確()。A、增加閾值不會提高召回率B、增加閾值會提高召回率C、增加閾值不會降低查準率D、增加閾值會降低查準率答案:AC110.在正則化公式中,λ為正則化參數(shù),關于λ描述正確的是()。A、若正則化參數(shù)λ過大,可能會導致出現(xiàn)欠擬合現(xiàn)象B、若λ的值太大,則梯度下降可能不收斂C、取一個合理的λ值,可以更好的應用正則化D、如果令λ的值很大的話,為了使CostFunction盡可能的小,所有θ的值(不包括θ0)都會在一定程度上減小答案:ABCD111.下列說法中正確的是()。A、云計算的主要特點是非常昂貴。B、大數(shù)據(jù)是多源、異構、動態(tài)的復雜數(shù)據(jù),即具有4V特征的數(shù)據(jù)C、大數(shù)據(jù)是數(shù)據(jù)科學的研究對象之一D、MapReduce是采用云計算這種新的計算模式研發(fā)出的具體工具軟件(或算法)答案:BCD112.神經(jīng)網(wǎng)絡的拓撲結構可以分為()和隨機型網(wǎng)絡等。A、前向型B、后向型C、反饋型D、自組織競爭型答案:ACD113.空間域濾波是直接以圖像中的像素操作為基礎的濾波,空間濾波器有時也可稱為()。A、空間掩模B、核C、模板D、窗口答案:ABCD114.列式數(shù)據(jù)庫(如BigTable和HBase)以表的形式存儲數(shù)據(jù),表結構包括()等元素A、行鍵B、時間戳C、列簇D、數(shù)據(jù)類型答案:ABC115.下面關于單樣本t檢驗的說法,錯誤的是()。A、當單樣本t檢驗的自由度越來越大時,正態(tài)分布越來越趨向于t分布B、單樣本t檢驗適用于樣本量比較多(n>30)的情況C、t分布的不確定性比正態(tài)分布小,其原因是樣本數(shù)量比較小D、單樣本t檢驗通常也被叫做學生t檢驗答案:ABC116.以下選項中,屬于MapReduce特征的有()。A、以主從結構的形式運行B、容錯機制的復雜性C、任務備份機制的必要性D、數(shù)據(jù)存儲位置固定答案:ABC117.鑒別了多元共線特征。那么下一步可能的操作是什么()A、移除兩個共線變量B、不移除兩個變量,而是移除一個C、移除相關變量可能會導致信息損失,可以使用帶罰項的回歸模型(如ridge或lassoregression)答案:BC118.關于Python語言的特點,以下選項描述不正確的是()。A、Python語言不支持面向對象B、Python語言是解釋型語言C、Python語言是編譯型語言D、Python語言是非跨平臺語言答案:ACD119.Numpy數(shù)組中將一個數(shù)組分割成多個小數(shù)組數(shù)組分割函數(shù)包括()。A、hsplitB、vsplitC、splitD、dsplit答案:ABCD120.以下關于數(shù)據(jù)維度的描述,正確的是()。A、采用列表表示一維數(shù)據(jù),不同數(shù)據(jù)類型的元素是可以的B、JSON格式可以表示比二維數(shù)據(jù)還復雜的高維數(shù)據(jù)C、二維數(shù)據(jù)可以看成是一維數(shù)據(jù)的組合形式D、字典不可以表示二維以上的高維數(shù)據(jù)答案:ABC121.下列哪些項屬于傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡的性質()A、上一時刻的網(wǎng)絡狀態(tài)信息將會作用于下一時刻的網(wǎng)絡狀態(tài)B、并行處理序列中所有信息C、容易梯度爆炸/消失D、易于搭建答案:AC122.關于總體和樣本的說法,正確的是:A、總體也就是研究對象的全體B、如果總體是某一條生產(chǎn)線上生產(chǎn)的全部產(chǎn)品,那么樣本可以是每間隔10秒抽取的產(chǎn)品C、樣本是從總體的隨機抽樣D、如果總體是某一小學的1000名學生,那么樣本可以是一年級的100名學生答案:ABC123.下面是python標準庫的是()。A、osB、sysC、numpyD、re答案:ABD124.數(shù)據(jù)可視化涉及到()等多個領域,成為研究數(shù)據(jù)表示、數(shù)據(jù)處理、決策分析等一系列問題的綜合技術。A、計算機圖形學B、圖像處理C、計算機視覺D、計算機輔助設計答案:ABCD125.Client端上傳文件的時候下列哪項正確()。A、數(shù)據(jù)經(jīng)過NameNode傳遞給DataNodeB、Client端將文件切分為Block,依次上傳C、Client只上傳數(shù)據(jù)到一臺DataNode,然后由NameNode負責Block復制D、Client如果上傳的時候沒有上傳成功指定的副本數(shù),則整次上傳不成功答案:BD126.ApacheFlume主要解決的是日志數(shù)據(jù)的收集和處理問題。Flume的主要設計目的和特征是()。A、高可靠性B、可拓展C、管理復雜D、不支持用戶自定義答案:AB127.下列場景適合使用Python的是()。A、可作為腳本語言,快速編寫小型程序、腳本等B、可應用在數(shù)據(jù)科學、交互式計算及可視化領域C、可作為膠水語言,整合如C++等語言代碼D、Python適用于低延時、高利用率的應用場景答案:ABC128.下列關于PCA說法正確的是()。A、在使用PCA之前,我們必須標準化數(shù)據(jù)B、應該選擇具有最大方差的主成分C、應該選擇具有最小方差的主成分D、可以使用PCA在低維空間中可視化數(shù)據(jù)答案:ABD129.以下哪幾項屬于漢語未登錄詞的類型()。A、存在于詞典但出現(xiàn)頻率較少的詞B、新出現(xiàn)的普通詞匯C、專有名詞D、專業(yè)名詞和研究領域名稱答案:BCD130.以下網(wǎng)絡結構中可以應用于圖像識別任務的是()。A、LeNet-5B、AlexNetC、CNND、VGG-net答案:ABCD131.如將A、B、C三個分類器的PR曲線畫在一個圖中,其中A、B的PR曲線可以完全包含住C的PR曲線,A與B的PR曲線有交點,A、B、C的平衡點分別為0.79、0.66、0.58,以下說法中正確的是()。A、學習器A的性能優(yōu)于學習器CB、學習器A的性能優(yōu)于學習器BC、學習器B的性能優(yōu)于學習器CD、學習器C的性能優(yōu)于學習器B答案:ABC132.以下關于降維方法,敘述正確的是()。A、主成分分析是一種常用的非線性降維方法B、核化線性降維是一種常用的線性降維方法C、流形學習是一種借鑒拓撲流形概念的降維方法D、度量學習繞過降維的過程,將學習目標轉化為對距離度量計算的權重矩陣的學習答案:CD133.python中,字符串格式化的方式()。A、%B、formatC、inD、input答案:AB134.關于降維說法正確的是()。A、PA是根據(jù)方差這一屬性降維的B、降維可以防止模型過擬合C、降維降低了數(shù)據(jù)集特征的維度D、降維方法有PLA等答案:ACD135.請選擇所有匹配項:下面哪些literal擁有數(shù)值數(shù)據(jù)類型(即哪些可用于算術表達式)()。A、0xffB、99C、122D、1002答案:ABC136.大數(shù)據(jù)的資產(chǎn)屬性體現(xiàn)在()。A、具有勞動增值B、涉及法律權屬C、具有財務價值D、涉及道德與倫理答案:ABCD137.字典的遍歷正確的有()。A、forin變量i,字典:使用i遍歷所有的鍵,有鍵就可以通過變量訪問其值B、for變量iin字典:使用i遍歷所有的鍵,有鍵就可以通過變量訪問其值C、for變量i,變量jin字典items():使用變量i遍歷所有鍵,通過變量j遍歷所有值D、forin變量i,變量j字典items():使用變量i遍歷所有鍵,通過變量j遍歷所有值答案:BC138.以下算法中可以應用于圖像分割的是()。A、邊緣檢測技術B、閾值分割技術C、基于區(qū)域的分割技術D、區(qū)域生長方法答案:ABCD139.下列關于密度聚類說法錯誤的是(__)。A、DBSCAN是一種著名的密度聚類算法B、密度聚類從樣本數(shù)量的角度來考察樣本之間的可連接性C、密度聚類基于不可連接樣本不斷擴展聚類簇易獲得最終的聚類結果D、密度直達關系通常滿足對稱性答案:BCD140.Scikit-Learn中可以實現(xiàn)()算法。A、分類B、聚類C、回歸D、降維答案:ABCD141.以下屬于頻率域圖像濾波的方法有()。A、中值濾波B、均值濾波C、布特沃斯濾波D、高斯濾波答案:CD142.卷積神經(jīng)網(wǎng)絡中常用的池化函數(shù)包括()。A、最大池化函數(shù)B、L2范數(shù)C、相鄰矩形區(qū)域內的平均值D、基于據(jù)中心像素距離的加權平均函數(shù)答案:ABCD143.Numpy中計算數(shù)組的標準差和方差的函數(shù)是()。A、std()B、diff()C、exp()D、var()答案:AD144.ETL技術主要涉及()操作。A、抽取B、轉換C、加載D、分析答案:ABC145.以下可用于處理由于光照不均帶來的影響的圖像處理方法有()。A、同態(tài)濾波B、頂帽變換C、基于移動平均的局部閾值處理D、拉普拉斯算子答案:ABC146.Hadoop框架的缺陷有()。A、MR編程框架的限制;B、過多的磁盤操作,缺乏對分布式內存的支持;C、無法高效支持迭代式計算;D、不支持多用戶寫入并任意修改文件;答案:ABCD147.下面關于Python中的列表和字典說法正確的是()。A、字典和列表都可以通過“[]”操作符訪問元素的值B、列表的索引必須是整型數(shù)或者切片C、字典不過是列表的另一個名字。二者沒有區(qū)別D、字典的長度是動態(tài)的,而列表的長度是固定的答案:AB148.下面關于單樣本Z檢驗的說法,正確的是()。A、在Python中,單樣本Z檢驗可以使用scipy.stats.ttest_1samp()實現(xiàn)B、單樣本Z檢驗適用于樣本量較大的情況C、單樣本Z檢驗假設要檢驗的統(tǒng)計量(近似)滿足正態(tài)分布D、單樣本Z檢驗常用于檢驗總體平均值是否等于某個常量答案:BCD149.ETL包含下列哪些過程()A、數(shù)據(jù)抽取B、數(shù)據(jù)轉換C、數(shù)據(jù)加載D、數(shù)據(jù)展現(xiàn)答案:ABC150.處理圖像平滑處理的濾波有()。A、盒式濾波B、均值濾波C、高斯濾波D、中值濾波答案:ABCD151.神經(jīng)網(wǎng)絡模型(NeuralNetwork)因受人類大腦的啟發(fā)而得名。神經(jīng)網(wǎng)絡由許多神經(jīng)元(Neuron)組成,每個神經(jīng)元接受一個輸入,對輸入進行處理后給出一個輸出。請問下列關于神經(jīng)元的描述中,哪一項是正確的(__)。A、每個神經(jīng)元有一個輸入和一個輸出B、每個神經(jīng)元有多個輸入和一個輸出C、每個神經(jīng)元有一個輸入和多個輸出D、每個神經(jīng)元有多個輸入和多個輸出答案:ABCD152.參數(shù)估計可以分為()。A、點估計B、一致估計C、區(qū)間估計D、無偏估計答案:AC153.下列哪些是傳統(tǒng)RDBMS的缺點()A、表結構schema擴展不方便B、全文搜索功能較弱C、大數(shù)據(jù)場景下I/O較高D、存儲和處理復雜關系型數(shù)據(jù)功能較弱答案:ABCD154.以下哪些濾波器能在卷積窗口的邊界上使卷積掩膜中心像素和它的4-鄰接點的系數(shù)降至0附近()。A、同態(tài)濾波B、高斯濾波C、巴特沃斯濾波D、中值濾波答案:BC155.關于卷積神經(jīng)網(wǎng)絡的敘述中正確的是()。A、可用于處理時間序列數(shù)據(jù)B、可用于處理圖像數(shù)據(jù)C、卷積網(wǎng)絡中使用的卷積運算就是數(shù)學中的卷積計算D、至少在網(wǎng)絡的一層中使用卷積答案:ABD156.對于不同場景內容,一般數(shù)字圖像可以分為()。A、二值圖像B、灰度圖像C、彩色圖像D、深度圖像答案:ABC157.下面關于中心極限定理的說法,正確的是:A、中心極限定理說明,對于大量相互獨立的隨機變量,其均值的分布以正態(tài)分布為極限B、中心極限定理說明,對于大量相互獨立的隨機變量,其均值的分布以t分布為極限C、中心極限定理為Z檢驗提供了理論支持D、中心極限定理是數(shù)理統(tǒng)計學和誤差分析的基礎答案:ACD158.下列關于情感分析的說法正確的是()。A、簡單而言,是對帶有情感色彩的主觀性文本進行分析、處理、歸納和推理的過程B、情感分析的發(fā)展得益于社交媒體的興起C、按照處理文本的粒度不同,情感分析大致可分為詞語級,句子級、篇章級三個D、情感分析可以應用于文本挖掘答案:ABCD159.下列關于詞袋模型說法正確的是()。A、詞袋模型可以忽略每個詞出現(xiàn)的順序B、詞袋模型不可以忽略每個詞出現(xiàn)的順序C、TensorFlow支持詞袋模型D、詞袋模型可以表出單詞之間的前后關系答案:AC160.下列既可以用于分類,又可以用于回歸的機器學習算法有:A、k近鄰B、邏輯回歸C、決策樹D、線性回歸答案:AC161.數(shù)據(jù)安全不僅包括數(shù)據(jù)保密性,還包括()。A、完整性B、可用性C、不可否認性D、可審計性答案:ABCD162.異常值的檢測方法有()A、直接通過數(shù)據(jù)可視化進行觀察B、通過統(tǒng)計分布進行判斷C、通過相對距離進行度量D、通過相對密度進行度量答案:ABCD163.深度學習方法不適用于以下哪些場景()。A、數(shù)據(jù)樣本充足B、數(shù)據(jù)樣本不足C、數(shù)據(jù)集具有局部相關特性D、數(shù)據(jù)集沒有局部相關特性答案:BD164.Spark提交工作的方式()。A、lientB、lusterC、tandaloneD、arn答案:AB165.Spark的部署模式包括()。A、本地模式B、standalone模式C、SparkonyarnD、mesos模式答案:ABCD166.可視分析學的幾個特點包含()A、強調數(shù)據(jù)到知識的轉換過程B、強調可視化分析與自動化建模之間的相互作用C、強調數(shù)據(jù)映射和數(shù)據(jù)挖掘的重要性D、強調數(shù)據(jù)加工(DataWrangling或DataMunging)工作的必要性E、強調人機交互的重要性答案:ABCDE167.以下對模型性能提高有幫助的是()。A、數(shù)據(jù)預處理B、特征工程C、機器學習算法D、模型集成答案:ABCD168.在Hive架構中支持對數(shù)據(jù)的操作有()。A、插入B、查詢C、刪除D、分析;答案:BD169.以下圖像技術中屬于圖像處理技術的是()。A、圖像編碼B、圖像合成C、圖像增強D、圖像分類答案:AC170.回歸分析有很多種類,常見的有()。A、線性回歸B、系數(shù)回歸C、邏輯回歸D、曲線回歸答案:ACD171.算法“歧視”現(xiàn)象可能出現(xiàn)在()。A、算法設計B、算法實現(xiàn)C、算法投入使用D、算法驗證答案:ABC172.下面關于機器學習的理解正確的是()。A、非監(jiān)督學習的樣本數(shù)據(jù)是要求帶標簽的B、監(jiān)督學習和非監(jiān)督學習的區(qū)別在于是否要求樣本數(shù)據(jù)帶標簽C、強化學習以輸入數(shù)據(jù)作為對模型的反饋D、卷積神經(jīng)網(wǎng)絡一般用于圖像處理等局部特征相關的數(shù)據(jù)答案:BCD173.決策樹()情況下會導致遞歸返回。A、當前節(jié)點包含的樣本全屬于同一類B、當前屬性集為空C、當前節(jié)點包含的樣本集合為空D、所有樣本在所有屬性上取值相同答案:ABCD174.下列關于數(shù)據(jù)科學中常用的統(tǒng)計學知識說法錯誤的是()。A、從行為目的與思維方式看,數(shù)據(jù)統(tǒng)計方法可以分為基本分析方法和元分析方法B、從方法論角度看,基于統(tǒng)計的數(shù)據(jù)分析方法又可分為描述統(tǒng)計和推斷統(tǒng)計C、描述統(tǒng)計可分為集中趨勢分析、離中趨勢分析、參數(shù)估計和假設檢驗D、推斷統(tǒng)計包括采樣分布和相關分析答案:ABCD175.()是通過對無標記訓練樣本的學習來進行分類的。A、密度估計B、異常檢測C、線性回歸D、聚類分析答案:ABD176.數(shù)據(jù)再利用的意義在于()A、挖掘數(shù)據(jù)的潛在價值B、提高社會效益,優(yōu)化社會管理C、實現(xiàn)數(shù)據(jù)重組的創(chuàng)新價值D、優(yōu)化存儲設備,降低設備成本E、利用數(shù)據(jù)可拓展性拓寬業(yè)務領域答案:ACE177.非頻繁模式()。A、其支持度小于閾值B、都是不讓人感興趣的C、包含負模式和負相關模式D、對異常數(shù)據(jù)項敏感答案:AD178.下面不是Python關鍵字的是()。A、noB、NoneC、noneD、null答案:ACD179.數(shù)據(jù)挖掘的挖掘方法包括()。A、聚類分析B、回歸分析C、神經(jīng)網(wǎng)絡D、決策樹算法答案:ABCD180.機器學習的三個關鍵組成要素是()。A、任務TB、性能指標PC、目標函數(shù)VD、經(jīng)驗來源E答案:ABD181.圖像數(shù)字化應該包括哪些過程()。A、采樣B、模糊C、量化D、統(tǒng)計答案:AC182.統(tǒng)計模式分類問題中,當先驗概率未知時,可以使用()。A、最小最大損失準則B、最小誤判概率準則C、最小損失準則D、N-P判決答案:AD183.數(shù)據(jù)科學以數(shù)據(jù)尤其是大數(shù)據(jù)為研究對象,主要研究內容包括()。A、數(shù)據(jù)加工(DataWrangling或DataMunging)B、數(shù)據(jù)管理C、數(shù)據(jù)計算D、數(shù)據(jù)產(chǎn)品研發(fā)答案:ABCD184.以下有關特征數(shù)據(jù)歸一化的說法正確的是()。A、特征數(shù)據(jù)歸一化加速梯度下降優(yōu)化的速度B、特征數(shù)據(jù)歸一化有可能提高模型的精度C、線性歸一化適用于特征數(shù)值分化比較大的情況D、概率模型不需要做歸一化處理答案:ABD185.最常見的分詞算法可以分為哪三大類()。A、基于字符串匹配的分詞方法B、基于理解的分詞方法C、基于統(tǒng)計的分詞方法D、基于閱讀的分詞方法答案:ABC186.可視分析學是一門以可視交互為基礎,綜合運用()等技術等多個學科領域的知識,以實現(xiàn)人機協(xié)同完成可視化任務為主要目的分析推理學科。A、物理學B、圖形學C、數(shù)據(jù)挖掘D、人機交互答案:BCD187.關于Pig的說法正確的是()。A、Pig的主要目的是彌補MapReduce編程的復雜性B、Pig的核心是一種數(shù)據(jù)分析語言C、Pig程序的結構適合于串行處理D、Pig主要包含PigLatin和Pig執(zhí)行環(huán)境兩部分答案:ABD188.下列模型屬于機器學習生成式模型的是()。A、樸素貝葉斯B、隱馬爾科夫模型C、線性回歸模型D、深度信念網(wǎng)絡答案:ABD189.下列關于自然語言處理中的關鍵詞提取的說法正確的是()。A、關鍵詞提取是指用人工方法提取文章關鍵詞的方法B、TF-IDF模型是關鍵詞提取的經(jīng)典方法C、文本中出現(xiàn)次數(shù)最多的詞最能代表文本的主題D、這個問題設計數(shù)據(jù)挖掘,文本處理,信息檢索等領域答案:BD190.在假設檢驗中,當原假設為“偽”,但數(shù)據(jù)分析人員沒有拒絕它時犯的錯誤叫()。A、α錯誤B、β錯誤C、取偽錯誤D、棄真錯誤答案:BC191.可視化高維展示技術在展示數(shù)據(jù)之間的關系以及數(shù)據(jù)分析結果方面作()。A、能夠直觀反映成對數(shù)據(jù)之間的空間關系B、能夠直觀反映多維數(shù)據(jù)之間的空間關系C、能夠靜態(tài)演化事物的變化及變化的規(guī)律D、能夠動態(tài)演化事物的變化及變化的規(guī)律E、提供高性能并行計算技術的強力支撐答案:BD192.在Spark的基本流程中,主要涉及()。A、DriverProgramB、usterManagerC、WorkerNodeD、Executor答案:ABCD193.Spark支持的計算模型有()。A、批處理;B、實時計算;C、機器學習模型;D、交互式查詢;答案:ABCD194.下面關于reduce函數(shù)功能描述正確的是()。A、合并value值,形成較小集合B、采用迭代器將中間值提供給reduce函數(shù)C、map()函數(shù)處理后結果才會傳輸給reduce()D、內存中不會存儲大量的value值答案:ABCD195.特征向量的缺失值處理:缺失值較多,直接將該特征舍棄掉,否則可能反倒會帶入較大的noise,對結果造成不良影響;缺失值較少,其余的特征缺失值都在10%以內,我們可以采取很多的方式來處理:()。A、把NaN直接作為一個特征,假設用0表示B、用均值填充C、用隨機森林等算法預測填充D、以上答案都不正確答案:ABC196.下列哪些是情感分析的途徑()。A、關鍵詞識別B、數(shù)據(jù)增強C、統(tǒng)計方法D、概念級技術答案:ABCD197.下列哪些是面向對象技術的特征()。A、封裝B、繼承C、多態(tài)D、分布性答案:ABC198.按照涉及自變量的多少,可以將回歸分析分為()。A、線性回歸分析B、非線性回歸分析C、一元回歸分析D、多元回歸分析E、綜合回歸分析答案:CD199.下列在Python中描述正確的是()。A、pass語句不會執(zhí)行任何操作,一般作為占位符或者創(chuàng)建占位程序B、sorted可以對列表進行排序,如:i=[5,1,2,3,4]i=sorted(i)C、內建的數(shù)據(jù)類型豐富,除了字典和列表外,還有集合(set)元組(tuple)等類型D、分號在Python中是無用途答案:ABC200.在數(shù)據(jù)科學中,計算模式發(fā)生了根本性的變化——從集中式計算、分布式計算、網(wǎng)格計算等傳統(tǒng)計算過渡至云計算,有一定的代表性的是Google云計算三大技術,這三大技術包括()。A、HadoopYARN資源管理器B、GFS分布式存儲系統(tǒng)C、MapRedue分布式處理技術D、BigTable分布式數(shù)據(jù)庫答案:BCD201.訓練CNN時,GPU顯存溢出,此時可以采取什么辦法()A、減少mini_batch大小B、移除一些卷積層C、減少圖片輸入大小D、增加激活函數(shù)答案:ABC202.關于HDFS集群中的DataNode的描述不正確的是()。A、DataNode之間都是獨立的,相互之間不會有通信B、存儲客戶端上傳的數(shù)據(jù)的數(shù)據(jù)塊C、一個DataNode上存儲的所有數(shù)據(jù)塊可以有相同的D、響應客戶端的所有讀寫數(shù)據(jù)請求,為客戶端的存儲和讀取數(shù)據(jù)提供支撐答案:AC203.以下()是scipy中的模塊。A、clusterB、constantsC、integrateD、io答案:ABCD204.以下哪種說法是正確的()。A、網(wǎng)站服務器可以識別你使用的訪問軟件,因為在發(fā)送訪問請求中有特定位置的字符串和軟件類型相關B、低級別的代理服務器十分容易被識別C、可以通過修改opener的proxy來模擬瀏覽器訪問D、爬取圖片的流程被中斷時,之前所有爬取的信息都將被自動刪除答案:AB205.相對于HadoopMapReduce,Spark有什么好處()。A、通用性;B、易用性;C、速度快;D、容錯性;答案:ABC206.決策樹遞歸停止的條件為()。A、訓練數(shù)據(jù)集使用完B、所有的類標簽完全相同C、特征用完D、遇到丟失值答案:BC207.以下屬于圖像平滑算法的是()。A、中值濾波B、均值濾波C、鄰域平均法D、高斯濾波答案:ABCD208.與自然語言處理相關的工具包Jieba,Gensim,NLTK,Scikit-Learn的區(qū)別是()。A、Jieba專注于中文分詞操作B、NLTK主要用于一般自然語言處理任務(標記化,POS標記,解析等)C、Gensim主要用于題和向量空間建模、文檔集合相似性等D、Scikit-learn為機器學習提供了一個大型庫,其中包含了用于文本預處理的工具,例如詞頻-逆文檔頻率特征提取(TfidfVectorizer)等。答案:ABCD209.常見的核函數(shù)主要包括()。A、多項式核B、高斯核C、線性核D、拉普拉斯核E、Sigmoid核答案:ABCDE210.隨機森林在做數(shù)據(jù)處理方面有什么優(yōu)勢()。A、不需要做缺失值處理B、不需要處理噪音C、不需要做特征選擇D、不需要平衡數(shù)據(jù)集答案:ACD211.下面是Python的特點和優(yōu)點是()。A、解釋性B、動態(tài)特性C、面向對象D、語法簡潔答案:ABCD212.MapReduce對map()函數(shù)的返回值處理后才傳給reduce()函數(shù),其中涉及哪些操作()。A、合并B、排序C、分區(qū)D、抽樣答案:ABC213.特征向量的歸一化方法有哪些()A、線性函數(shù)轉換B、對數(shù)函數(shù)轉換C、反余切函數(shù)轉換D、減去均值,除以方差答案:ABCD214.下列對字符串函數(shù)或方法說法正確的有()。A、istitle()如果字符串是標題化的(見title())則返回True,否則返回FalseB、max(str)返回字符串str中最大的字母。C、replace(old,new,max)把將字符串中的str1替換成str2,如果max指定,則替換不超過max次D、upper()轉換字符串中所有大寫字符為小寫答案:ABC215.“以數(shù)據(jù)為中心”是數(shù)據(jù)產(chǎn)品區(qū)別于其他類型產(chǎn)品的本質特征,表現(xiàn)在()方面。A、數(shù)據(jù)驅動B、數(shù)據(jù)密集型C、數(shù)據(jù)范式D、數(shù)據(jù)可視化答案:ABC216.Spark組件包含哪兩個算子()。A、Map;B、Action;C、Transformation;D、Reduce;答案:BC217.以下關于集成學習的說法正確的是:()。A、隨機森林是減少模型的方差,而GBDT是減少模型的偏差B、組成隨機森林的樹可以并行生成,而GBDT是串行生成C、隨機森林的結果是多數(shù)表決表決的,而GBDT則是多棵樹累加之和答案:ABC218.常用的數(shù)據(jù)審計方法可以分為()。A、預定義審計B、自定義審計C、可視化審計D、結構化審計答案:ABC219."噪聲"是指測量變量中的隨機錯誤或偏差,噪聲數(shù)據(jù)的主要表現(xiàn)有那幾種形式()A、錯誤數(shù)據(jù)B、假數(shù)據(jù)C、異常數(shù)據(jù)D、僵尸數(shù)據(jù)答案:ABC220.下面關于連續(xù)型隨機變量以及連續(xù)型概率密度函數(shù)的說法,正確的是。A、“一個客服一天可能接聽到多少個電話”是一個連續(xù)型隨機變量B、正態(tài)分布是一種連續(xù)型隨機變量的概率分布C、可以使用概率密度函數(shù)來描述連續(xù)型隨機變量的概率分布D、連續(xù)型概率密度函數(shù)曲線下方的面積之和為1答案:BCD221.以下屬于自然語言處理范疇的是()。A、情感傾向分析B、評論觀點抽取C、文章分類D、新聞摘要抽取答案:ABCD222.下列有關MapReduce計算框架的描述正確的是()。A、MapReduce可以計算任務的劃分和調度;B、MapReduce可完成數(shù)據(jù)的分布存儲和劃分;C、MapReduce可以實現(xiàn)處理系統(tǒng)節(jié)點出錯檢測和失效恢復;D、MapReduce可實現(xiàn)處理數(shù)據(jù)與計算任務的同步;答案:ABCD223.Python函數(shù)包括下述哪些內容()。A、函數(shù)名稱B、參數(shù)C、執(zhí)行語句D、返回值答案:ABCD224.預剪枝使得決策樹的很多分子都沒有展開,會導致()。A、顯著減少訓練時間開銷B、顯著減少測試時間開銷C、降低過擬合風險D、提高欠擬合風險答案:ABCD225.一個監(jiān)督觀測值集合會被劃分為()。A、訓練集B、驗證集C、測試集D、預處理集答案:ABC226.下列屬于文本處理流程的是()。A、NormalizationB、TokenizationStopwordsC、Part-of-speechTaggingD、NamedEntityRecognition答案:ABCD227.下面哪些是Spark的組件()。A、SparkStreamingB、MLibC、GraphXD、SparkR答案:ABC228.以下選項中,不是Python語言保留字的是()。A、doB、passC、exceptD、until答案:AD229.關于梯度消失和梯度消失,以下說法正確的是:(__)。A、根據(jù)鏈式法則,如果每一層神經(jīng)元對上一層的輸出的偏導乘上權重結果都小于1的話,那么即使這個結果是0.99,在經(jīng)過足夠多層傳播之后,誤差對輸入層的偏導會趨于0B、可以采用ReLU激活函數(shù)有效的解決梯度消失的情況C、根據(jù)鏈式法則,如果每一層神經(jīng)元對上一層的輸出的偏導乘上權重結果都大于1的話,在經(jīng)過足夠多層傳播之后,誤差對輸入層的偏導會趨于無窮大D、可以通過減小初始權重矩陣的值來緩解梯度爆炸答案:ABCD230.以下函數(shù)中()屬于二元通用函數(shù)(Binaryuniversalfunctions)。A、addB、substractC、multiplyD、power答案:ABCD231.圖像分割中常使用的領域有()。A、0鄰域B、4鄰域C、8鄰域D、24鄰域答案:BC232.下列關于集合操作結果正確的有()。A、name={‘d’,‘s’}nameadd(‘sd’)name值為:{‘sd’,‘d’,‘s’}B、name={‘sd’,d’,‘s’}nameremove(‘s’)name值為:{‘sd’,‘d’}C、name={‘sd’,d’,‘s’}nameclear()name值為:{}D、name={‘sd’,d’,‘s’}nameupdate(‘df’)name值為:{‘sd’,’d’,‘f’,’s’,’j’}答案:ABC233.Python邏輯表達式()的結果是False。A、not(TrueorFalse)B、not(FalseandFalse)C、1!=0D、1==0答案:AD234.循環(huán)神經(jīng)網(wǎng)絡主要被應用于哪些場景(__)。A、語音識別B、語音建模C、機器翻譯D、圖像識別答案:ABC235.假設檢驗中,首先需要提出零假設和備擇假設,零假設是(),備擇假設是()。A、只有出現(xiàn)的概率大于閾值才會被拒絕的,只有零假設出現(xiàn)的概率大于閾值才會被承認的B、希望推翻的結論,希望證明的結論C、只有出現(xiàn)的概率小于閾值才會被拒絕的,只有零假設出現(xiàn)的概率小于閾值才會被承認的D、希望證明的結論,希望推翻的結論答案:BC236.Python變量命名規(guī)則()。A、變量名只能包含字母、數(shù)字和下劃線。變量名可以字母或下劃線開頭,但不能以數(shù)字開頭,例如,可將變量命名為message_1,但不能將其命名為1_message。B、變量名不能包含空格,但可使用下劃線來分隔其中的單詞。例如,變量名greeting_message可行,但變量名greetingmessage會引發(fā)錯誤。C、不要將Python關鍵字和函數(shù)名用作變量名,即不要使用Python保留用于特殊用途的單詞,如print。D、變量名應既簡短又具有描述性。例如,name比n好,student_name比s_n好,name_length比length_of_persons_name好。答案:ABCD237.()等都是Scikit-Learn中包含的算法。A、SVMB、隨機森林C、Lasso回歸D、密度聚類答案:ABCD238.數(shù)據(jù)科學基本原則中,三世界原則指的是()A、我們的世界B、數(shù)據(jù)世界C、物理世界D、數(shù)字世界答案:ABC239.某單位運用隨機森林算法思想建立搶修熱點模型。該模型主要預測下期臺區(qū)工單數(shù)量,構建搶修熱點。以下模型算法構建步驟中合理的順序是:()。A、將歷史數(shù)據(jù)進行隨機自助法重抽樣,生成N個訓練樣本集B、將N個訓練樣本集分別做決策樹,生成N棵決策樹C、將N棵決策樹隨機構成隨機森林D、未來根據(jù)預測樣本氣候環(huán)境、設備屬性、設備工況進行隨機森林決策投票,得出針對該預測樣本最優(yōu)的決策樹進行運算,并計算出最終結果。答案:ABCD240.針對維數(shù)災難,我們主要采用的降維方法有哪些()。A、多維縮放B、主成分分析C、核化線性降維D、流形學習E、度量學習答案:ABCDE241.特征工程一般需要做哪些工作()。A、正則化B、標準化C、特征處理D、特征選擇答案:CD242.下列哪些是RDBMS中事務遵循的原則()A、原子性(Atomicity)B、一致性(Connsistency)C、隔離性(Isolation)D、持久性(Durability)答案:ABCD243.以下屬于圖像分割的算法的是:()。A、閾值分割方法(thresholdsegmentationmethod)B、區(qū)域增長細分(regionalgrowthsegmentation)C、邊緣檢測分割方法(edgedetectionsegmentationmethod)D、基于聚類的分割(segmentationbasedonclustering)E、基于CNN中弱監(jiān)督學習的分割答案:ABCDE244.聚類性能度量的指標主要分為外部指標和內部指標,其中屬于內部指標的是()。A、Jaccard指數(shù)B、FM指數(shù)C、DB指數(shù)D、Dunn指數(shù)答案:CD245.圖像識別的精度會受到以下那些因素的影響()。A、數(shù)據(jù)類別數(shù)量不平衡B、輸入圖像尺寸不同C、圖像中存在類標之外的環(huán)境干擾D、圖像中存在隨機噪聲答案:ACD246.大數(shù)據(jù)偏見包括()A、數(shù)據(jù)源的選擇偏見B、算法與模型偏見C、結果解讀方法的偏見D、數(shù)據(jù)呈現(xiàn)方式的偏見答案:ABCD247.SparkRDD的依賴機制包括()。A、寬依賴B、深度依賴C、廣度依賴D、窄依賴答案:AD248.主要面向或關注“過去”的數(shù)據(jù)分析過程為:A、描述性分析B、診斷性分析C、預測性分析D、規(guī)范性分析答案:AB249.下列屬于描述gensim庫的特性的是()。A、訓練語料的預處理B、主題向量的變換C、文檔相似度的計算D、文章切分詞語統(tǒng)計計算答案:ABC250.DGI定義的數(shù)據(jù)治理任務包括()。A、數(shù)據(jù)質量的評估B、主動定義或序化規(guī)則C、為數(shù)據(jù)利益相關者提供持續(xù)跨職能的保護與服務D、應對并解決因不遵守規(guī)則而產(chǎn)生的問題答案:BCD251.下列屬于字符串匹配的分詞方法的是()。A、正向最大匹配法(由左到右的方向)B、逆向最大匹配法(由右到左的方向)C、最少切分(使每一句中切出的詞數(shù)最小)D、雙向最大匹配法(進行由左到右、由右到左兩次掃描)答案:ABCD252.在MapReduce1.0版本中,JobTracker功能是()。A、負責資源管理B、作業(yè)控制C、作業(yè)存儲D、作業(yè)審核答案:AB253.對以下代碼說法正確的是()。X=np.linspace(0.05,10,1000)【換行】Y=np.sin(x)【換行】Plt.plot(x,y,ls="-.",l=2,c="c",label="plotfigure")【換行】Plt.legend()【換行】Plt.grid(linestyle=":",color="r")【換行】Plt.show()A、該圖表是一個藍綠色的散點圖B、圖表中有紅色實線的網(wǎng)格線C、圖表中有圖例D、該圖畫的是sin曲線;答案:CD254.在詞袋模型中使用單個的單詞來構建詞向量這樣的序列被稱為()。A、1元組(1-gram))B、單元組(unigram)模型C、列表D、字典答案:AB255.下面哪些屬于可視化高維數(shù)據(jù)技術()。A、矩陣B、.平行坐標系C、星形坐標D、散布圖答案:ABC256.模塊可以分為以下通用類別()。A、使用python編寫的.py文件B、已被編譯為共享庫或DLL的C或C++擴展C、把一系列模塊組織到一起的文件夾D、使用C編寫并鏈接到python解釋器的內置模塊答案:ABCD257.HighBias(高偏差)解決方案:()。A、BoostingB、復雜模型(非線性模型、增加神經(jīng)網(wǎng)絡中的層)C、更多特征答案:ABC258.以下關于Hbase說法正確的是()。A、面向列的數(shù)據(jù)庫B、非結構化的數(shù)據(jù)庫C、支持大規(guī)模的隨機、實時讀寫D、采用松散數(shù)據(jù)模型答案:ABCD259.下列屬于數(shù)值優(yōu)化算法的是()。A、梯度下降法B、牛頓法C、極大似然法D、邏輯回歸答案:AB260.使用Python操作目錄以下哪些符合()。A、mkdir:用于以數(shù)字權限模式創(chuàng)建目錄B、getcwd:用于返回當前工作目錄C、chdir:用于改變當前工作目錄到指定的路徑D、rmdir:用于刪除指定路徑的目錄。僅當這文件夾是空的才可以,否則,拋出OSError。答案:ABCD261.對于決策樹的優(yōu)點描述正確的是()。A、可讀性強B、分類速度快C、只用于回歸問題D、是無監(jiān)督學習答案:AB262.大數(shù)據(jù)平臺的計算組件主要有哪幾個()。A、StormB、SparkC、MapreduceD、Sqoop答案:ABC263.任何函數(shù)都可以修改,所以盡量少用全局變量,主要原因包括()。A、不夠安全B、一直占用內存C、容易失效D、一直占用字符答案:AB264.變量名可以包含()。A、字母B、數(shù)字C、下劃線D、空格答案:ABC265.從可視化處理視角看,可以將數(shù)據(jù)分為四個類型()并采用不同的視覺映射方法。A、定類數(shù)據(jù)B、定序數(shù)據(jù)C、定距離數(shù)據(jù)D、定比暑假答案:ABCD266.建立線性模型時,我們看變量之間的相關性。在尋找相關矩陣中的相關系數(shù)時,如果發(fā)現(xiàn)3對變量(Var1和Var2、Var2和Var3、Var3和Var1)之間的相關性分別為-0.98、0.45和1.23。我們能從中推斷出什么呢()A、Var1和Var2具有很高的相關性B、Var1和Var2存在多重共線性,模型可以去掉其中一個特征C、Var3和Var1相關系數(shù)為1.23是不可能的D、以上答案都不正確答案:ABC267.下面有關HTML敘述正確的是()。A、一個HTML文件可以用記事本來編輯B、HTML的意思是超文本標記語言C、一個HTML文件必須是一個以htm或html為擴展名的文件D、HTML區(qū)分大小寫,如<b>寫成<B>是錯誤的答案:ABC268.Python邏輯表達式()會導致邏輯短路,即不會繼續(xù)向下推算而直接返回結果。A、False開頭的and語句B、False開頭的or語句C、True開頭的and語句D、True開頭的or語句答案:AD269.以下關于神經(jīng)網(wǎng)絡模型描述正確的是(__)。A、神經(jīng)網(wǎng)絡模型是許多邏輯單元按照不同層級組織起來的網(wǎng)絡,每一層的輸出變量都是下一層的輸入變量B、神經(jīng)網(wǎng)絡模型建立在多神經(jīng)元之上C、神經(jīng)網(wǎng)絡模型中,無中間層的神經(jīng)元模型的計算可用來表示邏輯運算D、神經(jīng)網(wǎng)絡模型一定可以解決所有分類問題答案:ABC270.常見的圖像降噪方式包括()。A、中值濾波B、均值濾波C、平均濾波D、加權平均濾波答案:ABCD271.在數(shù)據(jù)科學中,計算模式發(fā)生了根本性的變化——從集中式計算、分布式計算、網(wǎng)格計算等傳統(tǒng)計算過渡至云計算,有一定的代表性的是Google云計算三大技術,這三大技術包括()。A、HadoopYRN資源管理器B、GFS分布式存儲系統(tǒng)C、MaoRedue分布式處理技術D、BigTable分布式數(shù)據(jù)庫答案:BCD272.關于CAP理論說法正確的是()。A、一個分布式系統(tǒng)不能同時滿足一致性、可用性和分區(qū)容錯性等需求B、一致性主要指強一致性C、一致性、可用性和分區(qū)容錯性中的任何兩個特征的保證(爭取)可能導致另一個特征的損失(放棄)D、可用性指每個操作總是在“給定時間”之內得到返回“所需要的結果”。答案:ABCD273.以下()是一元通用函數(shù)。A、np.add()B、np.maximum()C、np.exp()D、np.sqrt()答案:CD274.HadoopMapReduce是MapReduce的具體實現(xiàn)之一。HadoopMapReduce數(shù)據(jù)處理過程涉及四個獨立的實體,包括()。A、ClientB、JobTrackerC、TaskTrackerD、HDFS答案:ABCD275.下列關于特征的稀疏性說法正確的是()。A、稀疏性指的是矩陣中有許多列與當前學習任務無關B、稀疏樣本可減少學習任務的計算開銷C、學習任務難度可能有所降低D、稀疏矩陣沒有高效的存儲方法答案:ABC276.數(shù)據(jù)可視化中,從數(shù)據(jù)到知識的轉換途徑()。A、可視化分析B、自動化建模C、用戶交互D、參數(shù)優(yōu)化答案:AB277.在數(shù)據(jù)缺失嚴重時,會對分析結果造成較大的影響,因此剔除的異常值和缺失值,要采用合理的方法進行填補,常用的方法有()。A、平均值填充B、K最近鄰距離法C、回歸法D、極大似然估計E、多重插補法答案:ABCDE278.假設目標遍歷的類別非常不平衡,即主要類別占據(jù)了訓練數(shù)據(jù)的99%,現(xiàn)在你的模型在訓練集上表現(xiàn)為99%的準確度,那么下面說法正確的是:()。A、準確度并不適合衡量不平衡類別問題B、準確度適合衡量不平衡類別問題C、精確度和召回率適合于衡量不平衡類別問題D、精確度和召回率不適合衡量不平衡類別問題答案:AC279.圖像壓縮是建立在圖像存在()幾種冗余之上。A、編程冗余B、像素間冗余C、心理視覺冗余D、計算資源冗余答案:ABC280.圖像識別的一般步驟包括()。A、預處理B、特征提取C、超像素生成D、識別分類答案:ABD281.以下關于L1和L2范數(shù)的描述,正確的是:()。A、L1范數(shù):為x向量各個元素絕對值之和。B、L2范數(shù):為x向量各個元素平方和的1/2次方,L2范數(shù)又稱Euclidean范數(shù)或Frobenius范數(shù)C、L1范數(shù)可以使權值稀疏,方便特征提取D、L2范數(shù)可以防止過擬合,提升模型的泛化能力。答案:ABCD282.RDD具有()和()特征。A、可容錯性;B、簡潔性;C、并行數(shù)據(jù)結構;D、結構化;答案:AC283.HBase性能優(yōu)化包含下面的哪些選項()。A、讀優(yōu)化B、寫優(yōu)化C、配置優(yōu)化D、JVM優(yōu)化答案:ABCD284.交叉檢驗模型評估較差可能是由于()原因導致的。A、模型過擬合B、模型欠擬合C、模型過度復雜D、模型過度簡單答案:ABCD285.文本分類過程包括()。A、選擇訓練文本B、選擇文本特征C、建立文本表示模型D、選擇分類方法答案:ABCD286.長短時記憶神經(jīng)網(wǎng)絡三個門是哪些()A、進化門B、輸出門C、輸入門D、遺忘門答案:BCD287.數(shù)據(jù)管理指對數(shù)據(jù)生命周期的每個階段里可能引發(fā)的各類數(shù)據(jù)質量問題,進行()等一系列管理活動,并通過改善和提高組織的管理水平是的數(shù)據(jù)質量獲得進一步提高。A、識別B、度量C、監(jiān)控D、預警答案:ABCD288.決策樹的劃分選擇有()。A、增益系數(shù)B、信息增益C、增益率D、基尼系數(shù)E、信息增益量答案:BCD289.關于數(shù)據(jù)流轉和應用,以下說法正確的是()。A、數(shù)據(jù)流轉和應用過程中應確??勺匪?、可復查B、前序環(huán)節(jié)應保證數(shù)據(jù)的真實、完整C、前序環(huán)節(jié)應及時傳遞到后序環(huán)節(jié)D、前后環(huán)節(jié)數(shù)據(jù)應保持銜接一致答案:ABCD290.已定義級(DefinedLevel)的主要特點包括()。A、組織機構已明確給出了關鍵過程的“標準定義”,并定期對其進行改進。B、已提供了關鍵過程的測量與預測方法。C、關鍵過程的執(zhí)行過程并不是簡單或死板地執(zhí)行組織機構給出的“標準定義”,而是根據(jù)具體業(yè)務進行了一定的“裁剪”工作。D、數(shù)據(jù)的重要性已成為組織機構層次的共識,將數(shù)據(jù)當作成功實現(xiàn)組織機構使命的關鍵因素之一答案:ABCD291.CNN相比于全連接的DNN有哪些優(yōu)勢()A、參數(shù)更少B、泛化更好C、訓練更快D、更容易搭建;答案:ABC292.語音識別的方法包括()。A、聲道模型方法B、模板匹配的方法C、利用仍神經(jīng)網(wǎng)絡的方法D、語音知識方法答案:ABCD293.Hadoop生態(tài)系統(tǒng)中,核心是()。A、FlumeB、MapReduceC、PigD、HDFS答案:BD294.以下描述中屬于Analytics2.0的主要特點的是()。A、側重嵌入式分析B、重視非結構化數(shù)據(jù)的分析C、以決策支持為主要目的D、注重解釋性分析和預測性分析答案:BCD295.Hadoop組件Zookeeper的設計目標和主要特點包括()。A、簡單性B、自我復制C、順序訪問D、高速讀取答案:ABCD296.下面對范數(shù)規(guī)則化描述正確的是()。A、L0是指向量中0的元素的個數(shù)B、L1范數(shù)是指向量中各個元素絕對值之和C、L2范數(shù)向量元素絕對值的平方和再開平方D、L0是指向量中非0的元

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論