版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
第頁大數(shù)據(jù)-單選練習(xí)試卷附答案1.請(qǐng)輸入以下代碼的輸出形式x=np.array([1,2,3])y=np.array([4,5,6])print(x**y)A、["579"]B、["-3-3-3"]C、["41018"]D、["132729"]【正確答案】:D2.以下程序輸出結(jié)果中,正確的是nums=[1,2,3,4]nums.append([5,6,7,8])print(len(nums))A、4B、5C、8D、以上都不對(duì)【正確答案】:B3.數(shù)據(jù)加工的本質(zhì)是()。A、將低層次數(shù)據(jù)轉(zhuǎn)換為高層次數(shù)據(jù)的過程B、將復(fù)雜數(shù)據(jù)轉(zhuǎn)換為簡(jiǎn)單數(shù)據(jù)的過程C、將臟數(shù)據(jù)處理為干凈數(shù)據(jù)的過程D、將亂數(shù)據(jù)處理為整齊數(shù)據(jù)的過程【正確答案】:A4.python文件的追加模式是A、+B、aC、tD、r【正確答案】:B5.下列哪個(gè)組件不能用SQL進(jìn)行訪問?()。A、HiveB、MySQLC、HBaseD、Phoenix【正確答案】:C6.以下代碼輸出的結(jié)果是x=(1,)print(type(x))A、<class'dict'>B、<class'set'>C、<class'tuple'>D、<class'int'>【正確答案】:C7.deff1(a,b):a=a+breturnA,10Print(f1(1,2))Print函數(shù)輸出的結(jié)果是()A、(3,10)B、(10,3)C、(10,10)D、(3,3)【正確答案】:A8.在shell腳本中如何移除array數(shù)組中索引為2的元素?A、delarray[2]B、unsetarray[2]C、removearray[2]D、rmarray[2]【正確答案】:B9.?以下關(guān)于訓(xùn)練集、驗(yàn)證集和測(cè)試集說法不正確的是A、驗(yàn)證集用于調(diào)整模型參數(shù)B、測(cè)試集是純粹是用于測(cè)試模型泛化能力C、訓(xùn)練集是用來訓(xùn)練以及評(píng)估模型性能D、以上說法都不對(duì)【正確答案】:C10.執(zhí)行以下代碼,當(dāng)用戶輸入:python,輸出結(jié)果為try:n=eval(input("請(qǐng)輸入一個(gè)整數(shù):"))print(n*3)except:print("輸入錯(cuò)誤,請(qǐng)重新輸入!")A、輸入錯(cuò)誤,請(qǐng)重新輸入!B、pythonpythonpythonC、沒有任何輸出D、python**3【正確答案】:A11.以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)的描述正確的是()A、神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練數(shù)據(jù)中的噪聲不敏感,因此不用考慮數(shù)據(jù)質(zhì)量B、神經(jīng)網(wǎng)絡(luò)訓(xùn)練后很容易得到分類的規(guī)則C、訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)是一個(gè)很耗時(shí)的過程D、只能用于分類任務(wù)【正確答案】:C12.以下不可以用來分類的模型是A、線性回歸模型B、神經(jīng)網(wǎng)絡(luò)模型C、邏輯回歸模型D、支持向量機(jī)【正確答案】:A13.數(shù)據(jù)湖探索(DataLakeInsight,簡(jiǎn)稱DLI)是支持以下()形式的大數(shù)據(jù)計(jì)算分析服務(wù)。A、流式處理B、批處理C、流批一體D、都不支持【正確答案】:C14.XGBoost它的本質(zhì)是什么算法A、隨機(jī)森林B、GBDTC、線性回歸D、邏輯回歸【正確答案】:B15.屬于監(jiān)督學(xué)習(xí)的機(jī)器學(xué)習(xí)算法是()A、貝葉斯分類器B、主成分分析C、K-MeansD、高斯混合聚類【正確答案】:A16.以下選項(xiàng)中不是Python對(duì)文件的打開模式的是A、rB、wC、aD、c【正確答案】:D17.以下語句不能創(chuàng)建一個(gè)字典的是()A、d={3:5}B、d={(1,2,3):'Python'}C、d={[1,2,3]:'Python'}D、d={}【正確答案】:C18.下列關(guān)于存儲(chǔ)過程的特點(diǎn)說法正確的是()A、用戶創(chuàng)建的存儲(chǔ)過程或自定義函數(shù)可以重復(fù)調(diào)用,因此數(shù)據(jù)傳輸量少。B、編寫的SOL存儲(chǔ)在數(shù)據(jù)庫中,因此執(zhí)行速度快。C、創(chuàng)建時(shí)編譯,執(zhí)行時(shí)調(diào)用,因此開發(fā)效率高。D、通過指定存儲(chǔ)過程的訪問權(quán)限,因此安全系數(shù)高?!菊_答案】:D19.在Spark中,調(diào)用RDD的()方法,可以將RDD轉(zhuǎn)換為DataFrame對(duì)象。A、show()B、map()C、toDF()D、printSchema()【正確答案】:C20.以下異常類型,哪一個(gè)是使用的序列對(duì)象的位置索引超出范圍時(shí)引發(fā)的異常?A、ImportErrorB、IndentationErrorC、IndexErrorD、TypeError【正確答案】:C21.在Numpy包中,計(jì)算中位數(shù)的函數(shù)為()A、numpy.var()B、numpy.mean()C、numpy.std()D、numpy.median()【正確答案】:D22.EM算法是A、有監(jiān)督B、無監(jiān)督C、半監(jiān)督D、都不是【正確答案】:B23.關(guān)于Python的lambda函數(shù),以下選項(xiàng)中描述錯(cuò)誤的是()A、lambda用于定義簡(jiǎn)單的、能夠在一行內(nèi)表示的函數(shù)B、f=lambdax,y:x+y執(zhí)行后,f的類型為數(shù)字類型C、可以使用lambda函數(shù)定義列表的排序原則D、lambda函數(shù)將函數(shù)名作為函數(shù)結(jié)果返回【正確答案】:B24.在數(shù)據(jù)預(yù)處理中,將多個(gè)數(shù)據(jù)源中的數(shù)據(jù)整合到一個(gè)一致的數(shù)據(jù)存儲(chǔ)(如數(shù)據(jù)倉庫)中,這一過程稱為A、數(shù)據(jù)提取B、數(shù)據(jù)集成C、數(shù)據(jù)清理D、數(shù)據(jù)加載【正確答案】:B25.考慮兩隊(duì)之間的足球比賽:隊(duì)0和隊(duì)1。假設(shè)65%的比賽隊(duì)0勝出,剩余的比賽隊(duì)1獲勝。隊(duì)0獲勝的比賽中只有30%是在隊(duì)1的主場(chǎng),而隊(duì)1取勝的比賽中75%是主場(chǎng)獲勝。如果下一場(chǎng)比賽在隊(duì)1的主場(chǎng)進(jìn)行隊(duì)1獲勝的概率為()A、0.75B、0.35C、0.4678D、0.5738【正確答案】:D26.下列Python3代碼運(yùn)行的結(jié)果為()a=1try:a+=1except:a+=1else:a+=1finally:a+=1print(a)A、2B、3C、4D、5【正確答案】:C27.屬于卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用方向的是()。A、圖像分類B、目標(biāo)檢測(cè)C、圖像語義分割D、以上答案都正確【正確答案】:D28.邏輯回歸適用于以下哪種問題A、回歸問題B、二分類問題C、聚類問題D、關(guān)聯(lián)規(guī)則【正確答案】:B29.函數(shù)中定義了2個(gè)參數(shù),并且兩個(gè)參數(shù)都指定了默認(rèn)值,調(diào)用函數(shù)時(shí)參數(shù)個(gè)數(shù)最少是()A、3B、1C、2D、0【正確答案】:D30.Pandas處理缺失值的函數(shù)有A、fillnaB、ilocC、fitD、Transform【正確答案】:A31.shell中,以下哪個(gè)命令能判斷變量var是否為空A、test[-f$var]B、test[-e$var]C、test[-a$var]D、test[-z$var]【正確答案】:D32.下列表達(dá)式的值為True的是()A、5+5j>2-3jB、{'name1','name2'}!={'name2','name1'}C、(3,(6,4))>(3,(4,6))D、'abc'<'ab0'【正確答案】:C33.在使用sklearn的時(shí)候,我們經(jīng)常使用train_test_split函數(shù)來切分?jǐn)?shù)據(jù)集為訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù),該函數(shù)位于哪個(gè)模塊A、clusterB、preprocessingC、linear_modelD、model_selection【正確答案】:D34.為提高計(jì)算性能,Spark中Transformation操作采用的是()計(jì)算模式A、活性B、惰性C、實(shí)時(shí)D、非實(shí)時(shí)【正確答案】:B35.下列關(guān)于線性回歸分析中的殘差(Residuals)說法正確的是?A、殘差均值總是為零B、殘差均值總是小于零C、殘差均值總是大于零D、以上說法都不對(duì)【正確答案】:A36.程序如下S=0Foriinrange(1,11):s=s+ii=i+1Print(s)以上程序去掉那一語句,將不影響程序的功能()A、i=i+1B、print(s)C、s=s+iD、foriinrange(1,11):【正確答案】:A37.關(guān)于隨機(jī)森林算法,下列說法不正確的是()A、每一棵決策樹之間是沒有關(guān)聯(lián)的B、后一棵樹更關(guān)注上一棵樹分錯(cuò)的樣本C、每一棵樹都不需要做剪枝D、每一棵樹都是一棵CART樹【正確答案】:B38.混淆矩陣中的TP=16,F(xiàn)P=12,F(xiàn)N=8,TN=4,查準(zhǔn)率是()A、44565B、44563C、44658D、44595【正確答案】:C39.關(guān)于定義函數(shù),說法正確是()A、函數(shù)中必須要寫return語句B、函數(shù)沒有return返回值為NoneC、函數(shù)要返回多少個(gè)值,就需要使用多少個(gè)return語句D、函數(shù)必需要return返回函數(shù)值【正確答案】:B40.Spark是用以下()編程語言實(shí)現(xiàn)的A、CB、C++C、JAVAD、Scala【正確答案】:D41.以下不是Python的注釋方式是()A、//注釋第一行B、'''Python文檔注釋'''C、#注釋第一行D、#注釋第二行【正確答案】:A42.將python中的.py文件轉(zhuǎn)換為.pyc文件的組件為()A、編輯器B、編譯器C、虛擬機(jī)D、解釋器【正確答案】:B43.以下描述中,屬于決策樹策略的是()A、最優(yōu)投影方向B、梯度下降方法C、最大特征值D、最大信息增益【正確答案】:D44.關(guān)于k折交叉驗(yàn)證,下列說法正確的是?A、k值并不是越大越好,k值過大,會(huì)降低運(yùn)算速度B、選擇更大的k值,會(huì)讓偏差更小,因?yàn)閗值越大,訓(xùn)練集越接近整個(gè)訓(xùn)練樣本C、選擇合適的k值,能減小驗(yàn)方差D、以上說法都正確【正確答案】:D45.foriin["one","two","three","four"]:print(i.upper(),end="")以上代碼運(yùn)行之后,結(jié)果為A、onetwothreefourB、twothreefouronetwothreefourC、twothreefourONETWOTHREEFOURD、twothreefourONETWOTHREEFOUR【正確答案】:C46.BP神經(jīng)網(wǎng)絡(luò)具有很的表示能力,它經(jīng)常遭遇(),其訓(xùn)練誤差持續(xù)降低,但測(cè)試誤差卻可能上升。A、欠擬合B、誤差過大C、誤差過小D、過擬合【正確答案】:D47.Spark集群的任務(wù)是由()進(jìn)行調(diào)度的。A、驅(qū)動(dòng)器B、執(zhí)行器C、集群管理器D、應(yīng)用管理器【正確答案】:A48.以下()問題不適合應(yīng)用神經(jīng)網(wǎng)絡(luò)。A、預(yù)測(cè)電信客戶流失的可能性B、輔助確定是否給銀行的客戶貸款C、對(duì)基金公司的客戶進(jìn)行分組,了解每組客戶的特點(diǎn)D、股票走勢(shì)的預(yù)測(cè)【正確答案】:C49.下面關(guān)于支持向量機(jī)(SVM)的描述錯(cuò)誤的是A、是一種監(jiān)督式學(xué)習(xí)的方法B、可用于多分類的問題C、是一種生成式模型D、支持非線性的核函數(shù)【正確答案】:C50.以下程序的輸出結(jié)果是______。X=3.1415926Print(round(x,2),round(x))A、6.283B、2,2C、3,3.14D、3.14,3【正確答案】:D51.Python程序采用Unicode編碼,英文字符和中文字符在Python中分別對(duì)應(yīng)字符長(zhǎng)度分A、2和2B、1和1C、2和1D、1和2【正確答案】:B52.關(guān)于特征選擇,下列對(duì)Ridge回歸和Lasso回歸說法正確的是A、Ridge回歸適用于特征選擇B、Lasso回歸適用于特征選擇C、兩個(gè)都適用于特征選擇D、以上說法都不對(duì)【正確答案】:B53.一般情況下,K-NN最近鄰方法在()的情況下效果較好A、樣本較多但典型性不好B、樣本較少但典型性好C、樣本呈團(tuán)狀分布D、樣本呈鏈狀分布【正確答案】:B54.用于分類與回歸應(yīng)用的主要算法有:()Apriori算法、HotSpot算法B、RBF神經(jīng)網(wǎng)絡(luò)、K均值法、決策樹C、K均值法、SOM神經(jīng)網(wǎng)絡(luò)D、決策樹、BP神經(jīng)網(wǎng)絡(luò)、貝葉斯【正確答案】:D55.下列不是遞歸程序特點(diǎn)的是()A、一定要有基例B、執(zhí)行效率高C、思路簡(jiǎn)單,代碼不一定容易理解D、書寫簡(jiǎn)單【正確答案】:B56.()屬于無監(jiān)督學(xué)習(xí)A、分類B、回歸C、聚類D、決策樹模型【正確答案】:C57.分類算法以()定理為基礎(chǔ),采用概率方法對(duì)數(shù)據(jù)進(jìn)行建模A、決策樹B、K-最鄰近C、SVMD、貝葉斯【正確答案】:D58.以下哪些方法不可以直接來對(duì)文本分類?A、K-MeansB、決策樹C、支持向量機(jī)D、kNN【正確答案】:A59.在HDFS中()是文件系統(tǒng)的工作節(jié)點(diǎn)。A、DataNodeB、ClientC、NameNodeD、Flume【正確答案】:A60.SQL語句中的條件用以下哪一項(xiàng)來表達(dá)()A、THENB、WHILEC、WHERED、IF【正確答案】:C61.Kafka集群在運(yùn)行期間,直接依賴于下列()組件。A、sparkB、zookeeperC、hdfsD、hbase【正確答案】:B62.啟動(dòng)HBase集群的命令是()。A、start-dfs.shB、zkServer.shstartC、start-hbase.shD、start-yarn.sh【正確答案】:C63.bootstrap數(shù)據(jù)是什么意思?A、有放回地從總共M個(gè)特征中抽樣m個(gè)特征B、無放回地從總共M個(gè)特征中抽樣m個(gè)特征C、有放回地從總共N個(gè)樣本中抽樣n個(gè)樣本D、無放回地從總共N個(gè)樣本中抽樣n個(gè)樣本【正確答案】:C64.下列哪一個(gè)神經(jīng)網(wǎng)絡(luò)模型更適合于自然語言處理()A、卷積神經(jīng)網(wǎng)絡(luò)CNNB、循環(huán)神經(jīng)網(wǎng)絡(luò)RNNC、BP神經(jīng)網(wǎng)絡(luò)模型D、Hopfield神經(jīng)網(wǎng)格模型【正確答案】:B65.下面()子句專用于GroupBy操作中的條件過濾功能。A、WHERE子句B、HAVING子句C、LIMIT子句D、ORDERBY子句【正確答案】:B66.x=[1,5,2,3,8]x.sort(reverse=True)print(x)執(zhí)行以上代碼,返回結(jié)果為A、[1,2,3,5,8]B、[8,5,3,2,1]C、[8,3,2,5,1]D、出現(xiàn)異?!菊_答案】:B67.假設(shè)12個(gè)銷售價(jià)格記錄組已經(jīng)排序如下:5,10,11,13,15,35,50,55,72,92,204,215使用如下每種方法將它們劃分成四個(gè)箱。等頻(等深)劃分時(shí),15在第幾個(gè)箱子內(nèi)?A、第一個(gè)B、第二個(gè)C、第三個(gè)D、第四個(gè)【正確答案】:B68.1.下列代碼中n輸出的值是m=lambdax,y,z:(x+y)**zn=m(1,2,3)A、9B、3C、36D、27【正確答案】:D69.以下描述正確的是:A、KNN算法中K值對(duì)分類效果影響較為顯著,一般K值較大時(shí),對(duì)噪聲比較敏感。B、樸素貝葉斯算法對(duì)缺失數(shù)據(jù)特別敏感,事先需要知道先驗(yàn)概率。C、SVM算法可以解決高維問題。提高泛化性能。D、集成學(xué)習(xí)算法存在過擬合、魯棒性不強(qiáng)等問題?!菊_答案】:C70.將兩個(gè)列表的內(nèi)容合并的方法是()A、newlist=listl+list2B、newlist=[listl,list2]C、newlist=listl.update(list2)D、listl.update(list2)【正確答案】:A71.下面哪個(gè)程序負(fù)責(zé)HDFS數(shù)據(jù)存儲(chǔ)?()A、NameNodeB、JobtrackerC、DatanodeD、secondaryNameNode【正確答案】:C72.KNN算法是基于()A、概率空間B、顏色空間C、距離空間D、線性空間【正確答案】:C73.Spark為處理結(jié)構(gòu)化數(shù)據(jù)而設(shè)計(jì)的模塊是()A、SparkSQLB、SparkStreamingC、MLibD、Graphx【正確答案】:A74.使用哪個(gè)關(guān)鍵字聲明匿名函數(shù)A、functionB、funcC、defD、lambda【正確答案】:D75.大數(shù)據(jù)最顯著的特征是:()。A、數(shù)據(jù)規(guī)模大B、數(shù)據(jù)類型多樣C、數(shù)據(jù)處理速度快D、數(shù)據(jù)價(jià)值密度高【正確答案】:A76.print(df.iloc[:,2])顯示A、前兩列B、后兩列C、第二列D、前兩行【正確答案】:A77.Lasso回歸與傳統(tǒng)的線性回歸方程區(qū)別是A、增加L1范數(shù)懲罰因子B、增加L2范數(shù)懲罰因子C、無區(qū)別D、Lasso回歸是線性方程在sigmoid函數(shù)上的嵌套【正確答案】:A78.Scala中,數(shù)組的遍歷方式不包含()。A、for循環(huán)遍歷B、while循環(huán)遍歷C、do...while循環(huán)遍歷D、do...for循環(huán)遍歷【正確答案】:D79.電影評(píng)分是以下哪些的應(yīng)用實(shí)例()A、分類B、聚類C、強(qiáng)化學(xué)習(xí)D、回歸【正確答案】:D80.print(df.iloc[[1,3]])顯示A、第1和第3行B、第1到第3行C、第1和第3列D、第1到第3列【正確答案】:A81.在抽樣方法中,當(dāng)合適的樣本容量很難確定時(shí),可以使用的抽樣方法是:()A、有放回的簡(jiǎn)單隨機(jī)抽樣B、無放回的簡(jiǎn)單隨機(jī)抽樣C、分層抽樣D、漸進(jìn)抽樣【正確答案】:D82.importpandasaspddata={'a':[2,1,5,6],'b':['kl','d',1,'kl'],'c':[6,5,1,6]}df=pd.DataFrame(data)d1=df.iloc[0:2,2]d2=df.loc[df['b']=='kl','c']print(d1)print(d2)輸出結(jié)果是A、0,61,5Name:c,dtype:int64B、0,63,6Name:c,dtype:int64C、1,52,1Name:c,dtype:int64D、1,53,6Name:c,dtype:int64【正確答案】:A83.交叉驗(yàn)證的目的是()A、提高分類準(zhǔn)確率B、得到更穩(wěn)定的模型C、驗(yàn)證結(jié)果的準(zhǔn)確性D、增大分類的誤差【正確答案】:B84.shell中,當(dāng)字符串用單引號(hào)''括起來時(shí),SHELL將()A、解釋引號(hào)內(nèi)的特殊字符B、執(zhí)行引號(hào)中的命令C、不解釋引號(hào)內(nèi)的特殊字符D、結(jié)束進(jìn)程【正確答案】:C85.以下代碼的輸出結(jié)果是______。Forsin"HelloWorld":ifs=="W":continuePrint(s,end="")A、HelloB、HelloWorldC、WorldD、Helloorld【正確答案】:D86.所有Hive處理的數(shù)據(jù)都存儲(chǔ)在()中。A、HBaseB、MapReduceC、HDFSD、Hadoop【正確答案】:C87.在shell腳本中,awk內(nèi)的代碼如果想要引入腳本里的變量應(yīng)該使用什么參數(shù)?A、-xB、-aC、-vD、-i【正確答案】:C88.使用sklearn庫進(jìn)行預(yù)測(cè)結(jié)果的交叉驗(yàn)證,需要導(dǎo)入一下哪個(gè)包()A、sklearn.linear_modelB、sklearn.model_selectionC、sklearn.naive_bayesD、sklearn.ensemble【正確答案】:B89.Linux系統(tǒng)中,哪個(gè)命令可以從文本文件的每一行中截取指定內(nèi)容的數(shù)據(jù)。A、cpB、ddC、fmtD、cut【正確答案】:D90.在select語句的where子句中使用正則表達(dá)式過濾數(shù)據(jù)的關(guān)鍵字是()A、likeB、againstC、matchD、regexp【正確答案】:D91.評(píng)估完模型后,我們發(fā)現(xiàn)模型中有很高的偏差。我們?cè)鯓觼頊p少這個(gè)偏差A(yù)、減少模型中特征的數(shù)量B、增加模型中特征的數(shù)量C、增加模型中的數(shù)據(jù)點(diǎn)D、以上所有【正確答案】:B92.對(duì)Boosting模型的描述錯(cuò)誤的是A、采用串行訓(xùn)練模式B、增加被錯(cuò)誤分類樣本的權(quán)值C、通過改變訓(xùn)練集進(jìn)行有針對(duì)性的學(xué)習(xí)D、基礎(chǔ)分類器采用少數(shù)服從多數(shù)原則進(jìn)行集成【正確答案】:D93.自然語言處理、語音識(shí)別、股票交易、氣象預(yù)測(cè)等應(yīng)用適合采用()處理。A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、多層神經(jīng)網(wǎng)絡(luò)D、單層神經(jīng)網(wǎng)絡(luò)【正確答案】:A94.以下不能創(chuàng)建一個(gè)字典的語句是A、dict1={}B、dict2={3:5}C、dict3={[1,2,3]:“uestc”}D、dict4={(1,2,3):“uestc”}【正確答案】:C95.函數(shù)dtypes的返回值為A、維度數(shù)B、索引C、元素D、類型【正確答案】:D96.在python中,以下不能作為變量名的是A、5yB、TeacherC、studentD、_abc【正確答案】:A97.Kafka集群中,Kafka服務(wù)端的角色是:()A、BrokerB、ConsumerC、ZookeeperD、Producer【正確答案】:A98.下列關(guān)于bootstrap說法正確的是?A、從總的M個(gè)特征中,有放回地抽取m個(gè)特征(m<M)B、從總的M個(gè)特征中,無放回地抽取m個(gè)特征(m<M)C、從總的N個(gè)樣本中,有放回地抽取n個(gè)樣本(n<N)D、從總的N個(gè)樣本中,無放回地抽取n個(gè)樣本(n<N)【正確答案】:C99.Spark的技術(shù)架構(gòu)可以分為三層,不包括()A、Spark核心層B、服務(wù)層C、平臺(tái)層D、資源管理層【正確答案】:C100.在其他條件不變的前提下,以下哪種做法容易引起機(jī)器學(xué)習(xí)中的過擬合問題A、增加訓(xùn)練集量B、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)C、刪除稀疏的特征D、SVM算法中使用高斯核/RBF核代替線性核【正確答案】:D101.根據(jù)是否需要標(biāo)注數(shù)據(jù),機(jī)器學(xué)習(xí)方法可以分為有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)。監(jiān)督學(xué)習(xí)中的訓(xùn)練集用于A、定量評(píng)價(jià)機(jī)器學(xué)習(xí)性能B、估算模型C、驗(yàn)證模型D、定性評(píng)價(jià)機(jī)器學(xué)習(xí)性能【正確答案】:B102.E-R圖是數(shù)據(jù)庫設(shè)計(jì)的工具之一,一般適用于建立數(shù)據(jù)庫的()A、概念模型B、結(jié)構(gòu)模型C、物理模型D、邏輯模型【正確答案】:A103.()屬于深度學(xué)習(xí)框架。A、TensorflowB、CaffeC、PyTorchD、以上答案都正確【正確答案】:D104.下面哪種不屬于數(shù)據(jù)預(yù)處理的方法?()A、變量代換B、離散化C、聚集D、估計(jì)遺漏值【正確答案】:D105.Numpy包中創(chuàng)建數(shù)組的函數(shù)為()A、arrayB、shapeC、reshapeD、ndim【正確答案】:A106.評(píng)估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)該如何解決?A、減少模型的特征數(shù)量B、增加模型的特征數(shù)量C、增加樣本數(shù)量D、以上說法都正確【正確答案】:B107.關(guān)于樸素貝葉斯分類算法,描述正確的是:A、它假設(shè)屬性之間相互獨(dú)立B、根據(jù)先驗(yàn)概率計(jì)算后驗(yàn)概率C、對(duì)于給定的待分類項(xiàng)X={a1,a2,…,an},求解在此項(xiàng)出現(xiàn)的條件下各個(gè)類別yi出現(xiàn)的概率,哪個(gè)P(yi|X)最大,就把此待分類項(xiàng)歸屬于哪個(gè)類別。D、有最小錯(cuò)誤率判斷規(guī)則和最小風(fēng)險(xiǎn)判斷規(guī)則【正確答案】:A108.在HMM中,如果已知觀察序列和產(chǎn)生觀察序列的狀態(tài)序列,那么可用以下哪種方法直接進(jìn)行參數(shù)估計(jì)A、EM算法B、維特比算法C、前向后向算法D、極大似然估計(jì)【正確答案】:D109.能夠提取出圖片邊緣特征的網(wǎng)絡(luò)是()。A、全連接層B、池化層C、卷積層D、隱藏層【正確答案】:C110.Linux系統(tǒng)中,哪一條命令可以用來裝載所有在/etc/fstab中定義的文件系統(tǒng)?A、amountB、mount–aC、fmountD、mount–f【正確答案】:B111.隨機(jī)森林方法屬于()A、梯度下降優(yōu)化Bagging方法C、Boosting方法D、線性分類【正確答案】:B112.變量sstr='天使的翅膀帶著我在塵世飛翔',執(zhí)行下列選項(xiàng),不能輸出'翅膀'的是A、print(sstr[3::2])B、print(sstr[3:-8])C、print(sstr[-10:-8])D、print(sstr[3:5])【正確答案】:A113.不屬于KNN算法要素的是:A、k值的選擇B、距離度量C、分類決策的規(guī)則D、訓(xùn)練樣本的個(gè)數(shù)【正確答案】:D114.Hadoop框架是用下面()語言寫的A、PytyonB、JavaC++D、Scala【正確答案】:B115.以查準(zhǔn)率為縱軸、查全率為橫軸作圖,就得到了查準(zhǔn)率-查全率曲線,簡(jiǎn)稱()A、雙曲線B、P-R曲線C、科克曲線D、共軛曲線【正確答案】:B116.在shell腳本中,標(biāo)準(zhǔn)錯(cuò)誤文件(stderr)的文件描述符為多少?A、0B、1C、2D、3【正確答案】:C117.在shell腳本中,顯示用戶的主目錄的命令是什么?A、echo$HOMEB、echo$USERDIRC、echo$ENVD、echo$ECHO【正確答案】:A118.x=2,y=3,執(zhí)行x,y=y,x之后,x和y的值分別是什么()A、3,3B、3,2C、2,2D、2,3【正確答案】:B119.下面哪些選項(xiàng)不正確描述了HBase的特性?()。A、事務(wù)性B、高性能C、面向列D、可伸縮【正確答案】:A120.Python代碼中mpl.rcParams['font.sans-serif']=['SimHei']的作用是(____)。A、設(shè)置圖表中文顯示的字體B、設(shè)置圖表圖例的位置C、設(shè)置圖表標(biāo)題的顏色D、設(shè)置圖表標(biāo)題的位置【正確答案】:A121.在MapReduce中,通常把Map拆分成了M個(gè)片段,把Reduce拆分成R個(gè)片段執(zhí)行。一般情況下,()由用戶指定。A、M值B、R值C、M值和R值D、以上都不正確【正確答案】:B122.與傳統(tǒng)關(guān)系數(shù)據(jù)庫不同的是,HBase是()的數(shù)據(jù)庫。A、結(jié)構(gòu)化的B、單一版本的C、面向列D、非開源的【正確答案】:C123.以下保留字不屬于分支結(jié)構(gòu)的是A、ifB、elifC、elseD、while【正確答案】:D124.數(shù)據(jù)應(yīng)用按照“誰經(jīng)手,誰使用,誰負(fù)責(zé)”的原則,規(guī)范使用過程,切實(shí)防范()風(fēng)險(xiǎn)A、數(shù)據(jù)錄入不及時(shí)B、業(yè)務(wù)數(shù)據(jù)失泄C、數(shù)據(jù)變更記錄缺失D、業(yè)務(wù)數(shù)據(jù)不一致【正確答案】:B125.關(guān)于L1、L2正則化下列說法正確的是?A、L2正則化能防止過擬合,提升模型的泛化能力,但L1做不到這點(diǎn)B、L2正則化技術(shù)又稱為L(zhǎng)assoRegularizationC、L1正則化得到的解更加稀疏D、L2正則化得到的解更加稀疏【正確答案】:C126.以下哪種算法對(duì)離群值最敏感?()A、K均值聚類算法B、K中位數(shù)聚類算法C、K模型聚類算法D、K中心點(diǎn)聚類算法【正確答案】:A127.以下哪項(xiàng)不屬于Python語言的特點(diǎn)()A、依賴平臺(tái)B、支持中文C、語法簡(jiǎn)潔D、類庫豐富【正確答案】:A128.當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),可以使用哪種技術(shù)促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離A、分類B、聚類C、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)D、主成分分析【正確答案】:B129.已知顧客的消費(fèi)記錄:I1:西紅柿、排骨、雞蛋I2:西紅柿、茄子I3:雞蛋、襪子I4:西紅柿、排骨、茄子西紅柿茄子的支持度是(),置信度是()A、0.50.67B、0.50.5C、0.670.5D、0.250.67【正確答案】:D130.有關(guān)樸素貝葉斯分類算法的敘述中正確的是()A、樸素貝葉斯分類算法是一種精確的分類算法B、采用樸素貝葉斯分類算法將一個(gè)樣本分到某個(gè)類別中,表示它100%屬于該類別C、樸素貝葉斯分類算法是一種基于概率的分類算法D、以上都不對(duì)【正確答案】:C131.假設(shè)有命令importnumpyasnpArray1=np.linspace(1,5,3,dtype=int)print(Array1)則,執(zhí)行結(jié)果是A、[135]B、[125]C、[1.3.5.]D、[1.2.5.]【正確答案】:A132.將年齡用區(qū)間標(biāo)簽(例如0~18、19~44、45-59、60~100)或概念標(biāo)簽(如兒童、青年、中年和老年表示),該描述中用到的數(shù)據(jù)變換的策略為()。A、標(biāo)準(zhǔn)化B、數(shù)值化C、連續(xù)化D、離散化【正確答案】:D133.以下關(guān)于神經(jīng)網(wǎng)絡(luò)的說法中,正確的是A、增加網(wǎng)絡(luò)層數(shù),一定能減小訓(xùn)練集錯(cuò)誤率B、減小網(wǎng)絡(luò)層數(shù),一定能減小測(cè)試集錯(cuò)誤率C、增加網(wǎng)絡(luò)層數(shù),可能增加測(cè)試集錯(cuò)誤率D、增加網(wǎng)絡(luò)層數(shù),一定增加測(cè)試集錯(cuò)誤率【正確答案】:C134.下面關(guān)于MapReduce模型中Map函數(shù)與Reduce函數(shù)的描述,正確的是()A、一個(gè)Map函數(shù)就是對(duì)一部分原始數(shù)據(jù)進(jìn)行指定的操作。B、一個(gè)Map操作就是對(duì)每個(gè)ReDuce所產(chǎn)生的一部分中間結(jié)果進(jìn)行合并操作。C、Map與Map之間不是相互獨(dú)立的。D、Reduce與Reduce之間不是相互獨(dú)立的。【正確答案】:A135.Python中關(guān)于全局變量和局部變量,以下選項(xiàng)中描述不正確的是A、全局變量是在整個(gè)py文件中聲明,全局范圍內(nèi)都可以訪問B、在函數(shù)內(nèi)部修改全局變量的值,要先用global聲明全局變量C、如果要修改全局變量,可在函數(shù)內(nèi)部用關(guān)鍵字global聲明D、全局變量不能和局部變量重名【正確答案】:D136.下面關(guān)于貝葉斯分類器描述錯(cuò)誤的是A、以貝葉斯定理為基礎(chǔ)B、是基于后驗(yàn)概率,推導(dǎo)出先驗(yàn)概率C、可以解決有監(jiān)督學(xué)習(xí)的問題D、可以用極大似然估計(jì)法解貝葉斯分類器【正確答案】:B137.以下關(guān)于Hive內(nèi)置函效描述正確的是?A、to_data():獲取當(dāng)前日期B、descfunctionsupper:查看系統(tǒng)自帶的函效C、substr():求字符串長(zhǎng)度D、trim():去除空字符【正確答案】:D138.通過查詢語句使用關(guān)鍵字()可以向Hive表中插入數(shù)據(jù)。A、LoadB、InsertC、ImportD、Location【正確答案】:B139.1.如下:str1="Runoobexamplewow!!!"str2="exam";Print(str1.find(str2,5))打印的結(jié)果是A、6B、7C、8D、-1【正確答案】:B140.Spark計(jì)算框架在分布式環(huán)境下對(duì)數(shù)據(jù)處理后的結(jié)果進(jìn)行隨機(jī)的、實(shí)時(shí)的存儲(chǔ)歸功于()。A、HiveB、OracleC、MongodbD、HBase【正確答案】:D141.HBase為什么適用于海量數(shù)據(jù)存儲(chǔ)?A、集群規(guī)模小B、支持列存表C、多列簇特性D、HDFS做底層存儲(chǔ)【正確答案】:D142.Hbase中數(shù)據(jù)存儲(chǔ)的文件格式是:()。A、HlogB、TextFileC、HfileD、SequenceFile【正確答案】:C143.Hadoop中,使用命令()可以啟動(dòng)分布式計(jì)算系統(tǒng)。A、start-hdfs.shB、start-mapreC、start-map.shD、start-fs.sh【正確答案】:B144.()是一類機(jī)器學(xué)習(xí)技術(shù),在學(xué)習(xí)模型時(shí),它使用標(biāo)記的和未標(biāo)記的實(shí)例。A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、主動(dòng)學(xué)習(xí)【正確答案】:C145.在Hadoop中,使用命令(____)可以格式化一個(gè)新的分布式文件系統(tǒng)。A、bin/hadoopnamenode-format;B、bin/start-dfs.sh;C、bin/start-mapre.sh;D、bin/hadoopjob-historyoutdir【正確答案】:A146.給出如下代碼,可以輸出"python"的是s="Pythonisbeautifull!"A、print(s[:-14])B、print(s[0:6].lower())C、print(s[0:6])D、print(s[-21:-14].lower())【正確答案】:B147.假如你在訓(xùn)練一個(gè)線性回歸模型,有下面兩句話:1、如果數(shù)據(jù)量較少,容易發(fā)生過擬合。2、如果假設(shè)空間較小,容易發(fā)生過擬合。關(guān)于這兩句話,下列說法正確的是?A、1和2都錯(cuò)誤B、1正確,2錯(cuò)誤C、1錯(cuò)誤,2正確D、1和2都正確【正確答案】:B148.Hadoop生態(tài)系統(tǒng)中,HBase是一種()。A、分布式文件系統(tǒng)B、數(shù)據(jù)倉庫C、實(shí)時(shí)分布式數(shù)據(jù)庫D、分布式計(jì)算系統(tǒng)【正確答案】:C149.現(xiàn)在有一億條數(shù)據(jù)要插入Hbase,使用下列哪種方式最好?A、shell端put命令B、put方法C、bulkload方法D、insert方法【正確答案】:C150.time庫的time.time()函數(shù)的作用是()A、返回系統(tǒng)當(dāng)前時(shí)間戳對(duì)應(yīng)的易讀字符串表示B、返回系統(tǒng)當(dāng)前時(shí)間戳對(duì)應(yīng)的struct_time對(duì)象C、返回系統(tǒng)當(dāng)前時(shí)間戳對(duì)應(yīng)的本地時(shí)間的struct_time對(duì)象,本地之間經(jīng)過時(shí)區(qū)轉(zhuǎn)換D、返回系統(tǒng)當(dāng)前的時(shí)間戳【正確答案】:D151.shell腳本中可使用____來對(duì)需要交互的程序進(jìn)行輸入:A、pexpectB、awkC、expectD、send【正確答案】:C152.deff1(a,b):A,b=1,2returnA,bA,b=10,20Print(a,b)Print(f1(a,b))Print(a,b)第二和第三個(gè)print函數(shù)分別輸出的結(jié)果是()A、(1,2)12B、(10,20)12C、(1,2)1020D、(10,20)1020【正確答案】:C153.在決策樹中,當(dāng)一個(gè)節(jié)點(diǎn)分叉的時(shí)候,以下關(guān)于“信息增益”正確的是1.不純的節(jié)點(diǎn)越少,越需要更多的信息來描述種群2.信息增益可以用熵作為“1-Entropy”來推導(dǎo)3.信息增益偏向于數(shù)值大的屬性A、1B、2C、2和3D、都正確【正確答案】:C154.LightGBM與XGBoost相比,主要的優(yōu)勢(shì)不包括()A、更快的訓(xùn)練速度B、更低的內(nèi)存消耗C、更好的準(zhǔn)確率D、采用二階泰勒展開加快收斂【正確答案】:D155.下列選項(xiàng)中,不屬于Spark的四大組件的是()。A、SparkStreamingB、MlibC、GraphxD、SparkR【正確答案】:D156.以下關(guān)于視圖的描述中,不正確的是()A、視圖是外模式B、使用視圖可以加快查詢語句的執(zhí)行速度C、視圖是虛表D、使用視圖可以加快查詢語句的編寫【正確答案】:B157.執(zhí)行下列代碼,運(yùn)行錯(cuò)誤的是deffunc(a,b=1,c=2):passA、func(1,2,3)B、func(1,c=7)C、func(1,,3)D、func(1)【正確答案】:C158.利用“l(fā)inear_model.LinearRegression()”訓(xùn)練模型時(shí)調(diào)用.fit()方法需要傳遞的第一個(gè)參數(shù)是()。A、樣本特征XB、樣本權(quán)重C、是否考慮計(jì)算截距D、樣本標(biāo)簽Y【正確答案】:A159.input()輸入的是數(shù)據(jù)類型是()A、整型B、復(fù)數(shù)型C、字符串型D、浮點(diǎn)型【正確答案】:C160.下面哪個(gè)命令可以查詢Hive中的表及表的基本信息?()A、ShowCreateTabletableNameB、ShowTablesC、ShowTableinfotableNameD、ShowtableName【正確答案】:B161.()是用來評(píng)估神經(jīng)網(wǎng)絡(luò)計(jì)算模型對(duì)樣本的預(yù)測(cè)值和真實(shí)值之間的誤差大小。A、優(yōu)化函數(shù)B、梯度下降C、反向傳播D、損失函數(shù)【正確答案】:D162.為數(shù)據(jù)表創(chuàng)建索引的目的是()A、提高查詢的檢索性能B、歸類C、創(chuàng)建唯一索引D、創(chuàng)建主鍵【正確答案】:A163.我們想在在一個(gè)百萬級(jí)的數(shù)據(jù)集上構(gòu)建機(jī)器學(xué)習(xí)模型,每條數(shù)據(jù)有5000個(gè)特征。可是訓(xùn)練這么大量的數(shù)據(jù)集會(huì)有很多困難,一下哪些步驟可以有效地訓(xùn)練模型A、我們可以從數(shù)據(jù)集中隨機(jī)選取一些樣本,在樣本上構(gòu)建模型B、我們可以嘗試聯(lián)機(jī)機(jī)器學(xué)習(xí)算法C、我們可以用主成分分析來減少特征D、以上所有【正確答案】:D164.下面正確的關(guān)閉文件的語句格式是()A、<變量名>.closeB、close(文件名)C、<變量名>.close()D、close(變量名)【正確答案】:C165.請(qǐng)選擇以下代碼的輸出形式x=np.array([1,2,3])y=np.array([4,5,6])print(x-y)A、["579"]B、["-3-3-3"]C、["132729"]D、["41018"]【正確答案】:B166.在shell腳本中,下面哪個(gè)命令可以定義腳本里的環(huán)境變量?A、exportfsB、aliasC、exportsD、export【正確答案】:D167.Scikit-Learn中,()可以實(shí)現(xiàn)整數(shù)分類值轉(zhuǎn)化為獨(dú)熱向量。A、OridinalEncoderB、OneHotEncoderC、LableEncoderD、AutoEncoder【正確答案】:B168.把本地文件放到集群里,可以使用下面哪個(gè)hadoopshell的命令?()A、hadoopfs-putB、hadoopfs–put/C、hadoopfs–push/D、hadoop-push/【正確答案】:B169.我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了使用較少時(shí)間,我們可以()A、減少樹的數(shù)量B、增加樹的深度C、減少樹的深度D、增加學(xué)習(xí)率【正確答案】:C170.當(dāng)我們使用大數(shù)據(jù)集進(jìn)行決策樹訓(xùn)練的時(shí)候,一下哪個(gè)選項(xiàng)可以用來減少訓(xùn)練時(shí)間1.增加樹的深度2.增加學(xué)習(xí)率3.減少樹的深度4.減少樹的數(shù)量A、2B、1and2C、3D、2,3和4【正確答案】:C171.關(guān)于MapReduce的存儲(chǔ),說法不正確的是()。A、輸入數(shù)據(jù)由GFS管理,一般存儲(chǔ)在集群機(jī)器的本地磁盤B、GFS把每個(gè)文件分解成多個(gè)分片,并將每一個(gè)分片保存在多臺(tái)機(jī)器C、MRv1采用基于槽位的資源分配模型,是一種粗粒度的資源劃分單位D、Hadoop將槽位Slot分為JobSlot和TaskSlot【正確答案】:D172.表達(dá)式[3foriinrange(3)]的值為A、3,3,3B、0,1,2C、[3,3,3]D、[0,1,2]【正確答案】:C173.以下哪項(xiàng)用來分組()A、ORDERBYB、ORDEREDBYC、GROUPBYD、GROUPEDBY【正確答案】:C174.列表變量lis共包含10個(gè)元素,lis索引的取值范圍是A、(0,10)B、(0,9)C、[0,10]D、[0,9]【正確答案】:D175.為了觀察測(cè)試Y與X之間的線性關(guān)系,X是連續(xù)變量,使用下列哪種圖形比較適合?A、散點(diǎn)圖B、柱形圖C、直方圖D、以上都不對(duì)【正確答案】:A176.一監(jiān)獄人臉識(shí)別準(zhǔn)入系統(tǒng)用來識(shí)別待進(jìn)入人員的身份,此系統(tǒng)一共包括識(shí)別4種不同的人員:獄警,小偷,送餐員,其他。下面哪種學(xué)習(xí)方法最適合此種應(yīng)用需求A、二分類問題B、多分類問題C、層次聚類問題D、回歸問題【正確答案】:B177.可以創(chuàng)建3*3單位矩陣的命令是:A=np.zeros(3)B、A=np.ones(3)C、A=np.eye(3)D、A=np.full(3,3)【正確答案】:C178.Python中關(guān)于函數(shù)的形參與實(shí)參,以下選項(xiàng)中描述不正確的是A、實(shí)參就是在
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024年股東股權(quán)轉(zhuǎn)讓合同書(含保密協(xié)議)
- 2024廣告創(chuàng)意設(shè)計(jì)及實(shí)施合同樣本版B版
- 2024年離異夫婦對(duì)大學(xué)生子女撫養(yǎng)安排
- 2024年股權(quán)贈(zèng)與協(xié)議模板3篇
- 2024年跨國貨物買賣履行合同
- 2025年度防雨棚施工安全監(jiān)督及驗(yàn)收合同2篇
- 物理專業(yè)英語詞匯-Q
- 三年級(jí)上冊(cè)信息技術(shù)教學(xué)計(jì)劃4篇
- 2025年度果樹租賃與果樹品種研發(fā)合作協(xié)議3篇
- 圖形的相似教學(xué)反思7篇
- 2025年1月山西、陜西、寧夏、青海普通高等學(xué)校招生考試適應(yīng)性測(cè)試(八省聯(lián)考)政治
- DB3707T 131-2024 城鎮(zhèn)居民供熱服務(wù)規(guī)范
- 《廣東省智慧高速公路建設(shè)指南(試行)》
- 護(hù)理年終個(gè)人工作總結(jié)
- 社區(qū)中心及衛(wèi)生院65歲及以上老年人健康體檢分析報(bào)告模板
- 年度分析報(bào)告格式范文
- 2024年度吉林省國家電網(wǎng)招聘之法學(xué)類典型題匯編及答案
- 山東省臨沂市2023-2024學(xué)年高一上學(xué)期1月期末考試 物理 含答案
- 2024年世界職業(yè)院校技能大賽中職組“嬰幼兒保育組”賽項(xiàng)考試題庫-下(多選、判斷題)
- 2023年福建公務(wù)員錄用考試《行測(cè)》真題卷及答案解析
- 中華人民共和國學(xué)前教育法
評(píng)論
0/150
提交評(píng)論