版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
人工智能單選模擬習(xí)題+答案一、單選題(共100題,每題1分,共100分)1、以下關(guān)于熵、信息增益、基尼指數(shù)的相關(guān)描述中錯(cuò)誤的是A、Gini指數(shù)越大,不純度越小,越容易區(qū)分,越不容易分錯(cuò)B、熵越大,不確定性越大,信息量也就越大C、熵權(quán)法是一種客觀賦權(quán)法,因?yàn)樗鼉H依賴于數(shù)據(jù)本身的離散性D、信息增益越大,表示某個(gè)條件熵對(duì)信息熵減少程序越大,也就是說(shuō),這個(gè)屬性對(duì)于信息的判斷起到的作用越大正確答案:A2、linux操作系統(tǒng)文件系統(tǒng)的文件都按其作用分門(mén)別類地放在相關(guān)的目錄中,對(duì)于外部設(shè)備文件,一般應(yīng)將其放在()目錄中。A、/etcB、/devC、/binD、/lib正確答案:B3、Python中用于表示邏輯與、邏輯或、邏輯非運(yùn)算的關(guān)鍵字分別是_________、___________、_________。A、(&、|、!)B、(&、and、!)C、(and、or、not)D、(&&、||、!)正確答案:C4、我們可以將深度學(xué)習(xí)看成一種端到端的學(xué)習(xí)方法,這里的端到端指的是A、中間端-中間端B、輸出端-中間端C、輸入端-輸出端D、輸入端-中間端正確答案:C5、生成式方法是直接基于(___)的方法?A、生成式場(chǎng)景B、生成式模型C、生成式學(xué)習(xí)D、生成式數(shù)據(jù)正確答案:B6、假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型??赡苡龅揭粋€(gè)問(wèn)題,logistics回歸需要很長(zhǎng)時(shí)間才能訓(xùn)練。如何提高訓(xùn)練速度?()A、降低學(xué)習(xí)率,增加迭代次數(shù)B、降低學(xué)習(xí)率,減少迭代次數(shù)C、增加學(xué)習(xí)率,減少迭代次數(shù)D、提高學(xué)習(xí)率,增加迭代次數(shù)正確答案:C7、下列關(guān)于python基本元素說(shuō)法錯(cuò)誤的是()A、float表示實(shí)數(shù),其字面量總是包括一個(gè)小數(shù)點(diǎn),屬于標(biāo)量對(duì)象B、若python對(duì)象屬于布爾類別(bool),那它也屬于非標(biāo)量對(duì)象C、python程序有時(shí)也稱腳本,是一系列定義和命令D、python解釋器有時(shí)也稱shell,用來(lái)求值定義并執(zhí)行命令正確答案:B8、對(duì)線性回歸模型進(jìn)行性能評(píng)估時(shí),以下說(shuō)法正確的是A、決定系數(shù)越接近1越好B、均方根誤差接近1最好C、決定系數(shù)越接近0越好D、均方根誤差越大越好正確答案:A9、在其他條件不變的前提下,以下做法容易引起機(jī)器學(xué)習(xí)中的“過(guò)擬合”問(wèn)題的是()。A、刪除稀疏的特征B、SVM算法中使用高斯核/RBF核代替線性核C、增加訓(xùn)練集量D、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)正確答案:B10、在進(jìn)行主成分分析時(shí),應(yīng)使第一主成分在總方差中所占的比重()。A、次大B、最大C、最小D、為各個(gè)主成分所占比重的加權(quán)平均值正確答案:B11、設(shè)某樹(shù)的度為3,且度為3的結(jié)點(diǎn)數(shù)為4,度為1的結(jié)點(diǎn)數(shù)為9,沒(méi)有度為2的結(jié)點(diǎn)。則該樹(shù)中總的結(jié)點(diǎn)數(shù)為A、13B、21C、22D、$20正確答案:C12、一對(duì)一分類器,k個(gè)類別需要多少個(gè)SVM?A、k(k-1)B、k(k-2)C、k(k-1)/2D、(k-1)(k-2)正確答案:C13、BineryCrossEntropy可作為()問(wèn)題的損失函數(shù)。A、目標(biāo)檢測(cè)B、二分類C、多分類D、回歸正確答案:B14、()是人工智能的核心,是使計(jì)算機(jī)具有智能的主要方法,其應(yīng)用遍及人工智能的各個(gè)領(lǐng)域。A、機(jī)器學(xué)習(xí)B、人機(jī)交互C、智能芯片D、深度學(xué)習(xí)正確答案:A15、關(guān)聯(lián)規(guī)則反映了事物之間的相互依賴性或關(guān)聯(lián)性。關(guān)聯(lián)規(guī)則主要可分為()類A、4B、5C、3D、$6正確答案:C16、模型出現(xiàn)過(guò)擬合,以下何種措施無(wú)法降低過(guò)擬合現(xiàn)象A、減少訓(xùn)練數(shù)據(jù)量B、降低模型復(fù)雜度C、添加正則化項(xiàng)D、使用Dropout正確答案:A17、使用一個(gè)滑動(dòng)窗口對(duì)語(yǔ)料()掃描,在每個(gè)窗口內(nèi),中心詞需要預(yù)測(cè)它的上下文,并形成訓(xùn)練數(shù)據(jù)A、從上到下B、從下到上C、從右到左D、從左到右正確答案:D18、下列不是知識(shí)表示法的是()A、狀態(tài)空間表示法B、“與/或”圖表示法C、產(chǎn)生式規(guī)則表示法D、計(jì)算機(jī)表示法正確答案:D19、下列哪個(gè)系統(tǒng)屬于新型專家系統(tǒng)?A、分布式專家系統(tǒng)B、軍事專家系統(tǒng)C、多媒體專家系統(tǒng)D、實(shí)時(shí)專家系統(tǒng)正確答案:A20、下列哪一個(gè)不是無(wú)約束算法。A、啟發(fā)式優(yōu)化方法B、梯度下降法C、擬牛頓法D、EM算法正確答案:D21、1976—1982年,人工智能的發(fā)展處于()。A、第一次繁榮期B、復(fù)蘇期C、第一次低谷期D、萌芽期正確答案:C22、C(B|A)表示在規(guī)則A->B中,證據(jù)A為真的作用下結(jié)論B為真的A、概率B、信度C、可信度D、信任增長(zhǎng)度正確答案:B23、scikit-learn用于訓(xùn)練模型的函數(shù)接口為()A、train()B、fit()C、Fit()D、Train()正確答案:B24、CascadeRCNN中使用了()個(gè)BBOXHead完成目標(biāo)檢測(cè)A、3B、2C、1D、$4正確答案:A25、下列貝葉斯描述錯(cuò)誤的是A、貝葉斯中期望損失定義為風(fēng)險(xiǎn)B、貝葉斯判定準(zhǔn)則為最大化總體風(fēng)險(xiǎn)C、貝葉斯基于概率和誤判損失來(lái)選擇最優(yōu)的類別標(biāo)記D、貝葉斯是概率框架下實(shí)施決策的基本方法正確答案:B26、池化操作的作用是:A、paddingB、下采樣C、上采樣D、增加特征圖通道數(shù)正確答案:B27、數(shù)據(jù)產(chǎn)品開(kāi)發(fā)中,需要綜合考慮三個(gè)不同的指標(biāo),下列哪項(xiàng)不是三項(xiàng)指標(biāo)之一A、查準(zhǔn)率B、響應(yīng)速度C、響應(yīng)時(shí)間D、查全率正確答案:D28、根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無(wú)環(huán)圖表示變量間的依賴關(guān)系,稱為有向圖模型或貝葉斯網(wǎng)(Bayesiannetwork);第二類是使用無(wú)向圖表示變量間的相關(guān)關(guān)系,稱為(___)。A、拉普拉斯網(wǎng)B、馬爾科夫網(wǎng)C、赫布網(wǎng)D、塞繆爾網(wǎng)正確答案:B29、深度學(xué)習(xí)系統(tǒng)訓(xùn)練過(guò)程通常需要輸入:A、特征值和標(biāo)簽B、特征值C、標(biāo)簽D、預(yù)測(cè)值正確答案:A30、CNN卷積網(wǎng)絡(luò)中,filter尺寸的選擇多為()A、奇數(shù)B、整數(shù)C、偶數(shù)D、分?jǐn)?shù)正確答案:A31、Python中,以下哪個(gè)函數(shù)是用于輸出內(nèi)容到終端的?A、printB、outputC、console.logD、echo正確答案:A32、交叉驗(yàn)證法將數(shù)據(jù)集劃分為k個(gè)大小相似的互斥子集,進(jìn)行()次訓(xùn)練和測(cè)試A、k-2B、kC、k-1D、k+1正確答案:B33、下列哪個(gè)不是激活函數(shù)()。A、sigmodB、tanhC、reluD、hidden正確答案:D34、下面不是超參數(shù)的是:A、權(quán)重和偏置B、學(xué)習(xí)率C、網(wǎng)絡(luò)結(jié)構(gòu)D、mini-batch的大小正確答案:A35、若某二叉樹(shù)中的所有結(jié)點(diǎn)值均大于其左子樹(shù)上的所有結(jié)點(diǎn)值,且小于右子樹(shù)上的所有結(jié)點(diǎn)值,則該二叉樹(shù)遍歷序列中有序的是A、前序序列B、以上說(shuō)法均不正確C、后序序列D、中序序列正確答案:D36、根據(jù)(),目前的集成學(xué)習(xí)方法大致可分為兩大類,即個(gè)體學(xué)習(xí)器間存在強(qiáng)依賴關(guān)系、必須串行生成的序列化方法,以及個(gè)體學(xué)習(xí)器間不存在強(qiáng)依賴關(guān)系、可同時(shí)生成的并行化方法。A、個(gè)體學(xué)習(xí)器的的強(qiáng)弱B、個(gè)體學(xué)習(xí)器的數(shù)量C、個(gè)體學(xué)習(xí)器的生成方式D、個(gè)體學(xué)習(xí)器的的類型正確答案:C37、以下關(guān)于人工智能系統(tǒng)架構(gòu)的表述,不正確的是A、數(shù)據(jù)處理一般都是在應(yīng)用層完成B、應(yīng)用層聚焦人工智能技術(shù)和各個(gè)領(lǐng)域的結(jié)合C、人工智能分為應(yīng)用層、技術(shù)層、基礎(chǔ)層D、基礎(chǔ)層提供計(jì)算能力和數(shù)據(jù)資源正確答案:A38、隨機(jī)試驗(yàn)所有可能出現(xiàn)的結(jié)果,稱為()A、基本事件B、樣本空間C、樣本D、全部事件正確答案:B39、人臉檢測(cè)服務(wù)在測(cè)試圖像中沒(méi)有人臉時(shí)會(huì)報(bào)錯(cuò)。A、TRUEB、FALSE正確答案:B40、用搜索法對(duì)問(wèn)題求解時(shí),一個(gè)問(wèn)題可以形式化地定義為四個(gè)組成部分,即:智能體的初始狀態(tài)、后繼函數(shù)、目標(biāo)測(cè)試和()A、算法B、功率C、完備性D、路徑代價(jià)正確答案:D41、在Python2.7中,下列哪種是Unicode編碼的書(shū)寫(xiě)方式?A、a=u’中文’B、a=b’中文’C、a=‘中文’D、a=r‘中文’正確答案:A42、當(dāng)數(shù)據(jù)太大而不能同時(shí)在RAM中處理時(shí),哪種梯度技術(shù)更有優(yōu)勢(shì)A、全批量梯度下降B、隨機(jī)梯度下降正確答案:B43、我們常說(shuō)“人類是智能回路的總開(kāi)關(guān)”,即人類智能決定著任何智能的高度、廣度和深度,下面哪一句話對(duì)這個(gè)觀點(diǎn)的描述不正確A、機(jī)器智能目前無(wú)法完全模擬人類所有智能B、機(jī)器智能和人類智能相互協(xié)同所產(chǎn)生的智能能力可超越人類智能或機(jī)器智能C、人類智能是機(jī)器智能的設(shè)計(jì)者D、機(jī)器智能目前已經(jīng)超越了人類智能正確答案:D44、Boosting算法要求基學(xué)習(xí)器能對(duì)待定的數(shù)據(jù)分布進(jìn)行學(xué)習(xí),這可通過(guò)()實(shí)施。A、重采樣法B、重賦權(quán)法C、重預(yù)測(cè)法D、重訓(xùn)練法正確答案:B45、池化層一般接在哪種網(wǎng)絡(luò)層之后A、全連接層B、卷積層C、輸出層D、輸入層正確答案:B46、長(zhǎng)短期記憶LSTM的核心貢獻(xiàn)是引入了()的巧妙構(gòu)思,該構(gòu)思中的權(quán)重視上下文而定,而不是固定的。A、自減少B、自遞歸C、自循環(huán)D、自增加正確答案:C47、歸結(jié)原理的特點(diǎn)是(___)A、將復(fù)雜的邏輯規(guī)則與背景知識(shí)聯(lián)系起來(lái)化繁為簡(jiǎn)B、發(fā)現(xiàn)更多的規(guī)則C、發(fā)明新的概念和關(guān)系D、緩解過(guò)擬合的風(fēng)險(xiǎn)正確答案:A48、哪個(gè)范數(shù)指向量中各個(gè)元素絕對(duì)值之和?A、2范數(shù)B、p范數(shù)C、0范數(shù)D、1范數(shù)正確答案:D49、以下說(shuō)法正確的是()A、神經(jīng)網(wǎng)絡(luò)可以用于多分類問(wèn)題B、分類任務(wù)的評(píng)價(jià)指標(biāo)精確率和準(zhǔn)確率是同一個(gè)概念C、決策樹(shù)只能用于二分類問(wèn)題D、監(jiān)督學(xué)習(xí)與無(wú)監(jiān)督學(xué)習(xí)的主要區(qū)別是,監(jiān)督學(xué)習(xí)的訓(xùn)練樣本無(wú)標(biāo)簽正確答案:A50、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過(guò)程中我們目的是讓損失函數(shù)不斷減小,我們常用以下哪種方法最小化損失函數(shù)A、梯度下降B、正則化C、DropoutD、交叉驗(yàn)證正確答案:A51、在高斯混合分布中,其隱變量的含義是:A、表示高斯分布的方差B、表示數(shù)據(jù)從某個(gè)高斯分布中產(chǎn)生C、表示數(shù)據(jù)分布的概率D、表示高斯分布的均值正確答案:B52、下列關(guān)于建模流程描述中,錯(cuò)誤的是A、應(yīng)該根據(jù)實(shí)際情況選擇合適的算法B、業(yè)務(wù)需求邊界的確認(rèn)十分關(guān)鍵C、模型效果不好需要從多個(gè)環(huán)節(jié)進(jìn)行綜合考察迭代D、特征工程階段結(jié)束后就不需要再進(jìn)行數(shù)據(jù)處理了正確答案:D53、設(shè)矩陣A經(jīng)過(guò)初等行變換變?yōu)锽,則有()。(下面的r(A)與r(B)分別表示矩陣的秩)。A、r(A)B、無(wú)法判定r(A)與r(B)之間的關(guān)系C、r(A)=r(B)D、r(A)>r(B)正確答案:C54、設(shè)A是n階方陣,則A能與n階對(duì)角陣相似的充要條件是()。A、A有n個(gè)互不相同的特征向量B、A有n個(gè)線性無(wú)關(guān)的特征向量C、A有n個(gè)互不相同的特征值D、A是對(duì)角陣正確答案:B55、使用()關(guān)鍵字來(lái)創(chuàng)建python自定義函數(shù)。A、functionB、defC、funcD、procedure正確答案:B56、在主觀Bayes方法中,證據(jù)E支持結(jié)論H時(shí),有()。A、LSB、LS=0C、LS=1D、LS>1正確答案:D57、列算法,哪項(xiàng)不屬于深度學(xué)習(xí)模型?()A、卷積神經(jīng)網(wǎng)絡(luò)CNNB、支持向量機(jī)SVMC、深度殘差網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN正確答案:B58、()是空語(yǔ)句,一般用做占位語(yǔ)句,不做任何事情。A、passB、printC、continueD、break正確答案:A59、向量的最大范數(shù)為()。A、向量中最大幅值元素的絕對(duì)值B、向量中的最小值C、向量中最小幅值元素的絕對(duì)值D、向量中的最大值正確答案:A60、()反映的是模型每一次輸出結(jié)果與模型輸出期望之間的誤差,即模型的穩(wěn)定性。反應(yīng)預(yù)測(cè)的波動(dòng)情況。A、平方差B、偏差C、方差D、標(biāo)準(zhǔn)差正確答案:C61、Linux中,提供TCP/IP包過(guò)濾功能的軟件叫什么?A、filterB、routeC、iptablesD、rarp正確答案:C62、決策樹(shù)學(xué)習(xí)的關(guān)鍵是如何從候選屬性集中選擇一個(gè)最有助于分類實(shí)例的屬性,而其選擇是以()為依據(jù)的A、聚類B、分類C、信息熵D、概率正確答案:C63、一組數(shù)據(jù)相加后除以數(shù)據(jù)個(gè)數(shù)得到的值叫做()。A、眾數(shù)B、最大值C、中位數(shù)D、平均值正確答案:D64、NMS算法中文名為()A、非極大值抑制B、極小值抑制C、極大值抑制D、非極小值抑制正確答案:A65、不屬于噪聲數(shù)據(jù)表現(xiàn)形式的是()A、異常數(shù)據(jù)B、重復(fù)數(shù)據(jù)C、錯(cuò)誤數(shù)據(jù)D、虛假數(shù)據(jù)正確答案:B66、以下哪種模型是自然語(yǔ)言處理后Bert時(shí)代的預(yù)訓(xùn)練模型()A、LSTMB、Word2VecC、RNND、XLNet正確答案:D67、關(guān)于“與/或”圖表示法的敘述中,正確的是:。A、“與/或”圖就是用“與”節(jié)點(diǎn)和“或”節(jié)點(diǎn)組合起來(lái)的樹(shù)形圖,用來(lái)描述某類問(wèn)題的層次關(guān)系。B、“與/或”圖就是用“AND”和“OR”連續(xù)各個(gè)部分的圖形,用來(lái)描述各部分之間的不確定關(guān)系。C、“與/或”圖就是用“AND”和“OR”連續(xù)各個(gè)部分的圖形,用來(lái)描述各部分的因果關(guān)系。D、“與/或”圖就是用“與”節(jié)點(diǎn)和“或”節(jié)點(diǎn)組合起來(lái)的樹(shù)形圖,用來(lái)描述某類問(wèn)題的求解過(guò)程。正確答案:D68、在用Tensorflow進(jìn)行圖像分類時(shí),若輸入數(shù)據(jù)的形狀為[32,224,224,3],下面說(shuō)法正確的是()A、每一張圖片都是二值圖片B、以上選項(xiàng)均不正確C、每一張圖片都是灰度圖片D、模型一次處理32張圖片(batchsize為32)正確答案:D69、frompandasimportDataFrame這個(gè)語(yǔ)句的含義是()A、從DataFrame類導(dǎo)入pandas類B、從DataFrame庫(kù)導(dǎo)入pandas類C、從pandas庫(kù)導(dǎo)入DataFrame庫(kù)D、從pandas庫(kù)導(dǎo)入DataFrame類正確答案:D70、如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,廣度優(yōu)先搜索必然可以得到該最優(yōu)解,()可以認(rèn)為是“智能程度相對(duì)比較高”的算法。A、有界深度優(yōu)先搜索B、深度優(yōu)先搜索C、啟發(fā)式搜索D、無(wú)界深度優(yōu)先搜索正確答案:C71、有兩個(gè)樣本點(diǎn),第一個(gè)點(diǎn)為正樣本,它的特征向量是(0,-1);第二個(gè)點(diǎn)為負(fù)樣本,它的特征向量是(2,3),從這兩個(gè)樣本點(diǎn)組成的訓(xùn)練集構(gòu)建一個(gè)線性SVM分類器的分類面方程是()。A、2x-y=0B、x+2y=3C、x+2y=5D、2x+y=4正確答案:B72、Numpy中創(chuàng)建全為0的矩陣使用A、emptyB、arangeC、onesD、zeros正確答案:D73、Python內(nèi)置函數(shù)_____________用來(lái)打開(kāi)或創(chuàng)建文件并返回文件對(duì)象。A、get()B、flush()C、open()D、close()正確答案:C74、人工智能處在感知智能階段的表現(xiàn)是什么?A、機(jī)器開(kāi)始像人類一樣能理解、思考與決策B、機(jī)器開(kāi)始像人類一樣會(huì)計(jì)算,傳遞信息C、機(jī)器開(kāi)始看懂和聽(tīng)懂,做出判斷,采取一些簡(jiǎn)單行動(dòng)正確答案:C75、標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對(duì)于網(wǎng)絡(luò)輸出的影響隨時(shí)間A、先減弱后增強(qiáng)B、不斷遞歸而衰退C、不斷遞歸而增強(qiáng)D、先增強(qiáng)后減弱正確答案:B76、算法模型應(yīng)支持以接口方式對(duì)外提供服務(wù),接口方式應(yīng)至少支持(_____)和SDK兩種接口方式中的一種。A、&服務(wù)總線&B、&datahubC、消息總線&D、&API&正確答案:D77、支持向量機(jī)(SVM)算法的性能取決于()A、以上都有B、軟間隔參數(shù)CC、核函數(shù)的選擇D、核函數(shù)的參數(shù)正確答案:A78、2010年谷歌推出以頂點(diǎn)為中心的圖處理系統(tǒng)(),其專為大規(guī)模圖數(shù)據(jù)處理而設(shè)計(jì),將圖數(shù)據(jù)保存在主存儲(chǔ)器中并采用并行計(jì)算的BSP模型A、CregelB、PregelC、AregelD、Dregel正確答案:B79、下面對(duì)人類智能和機(jī)器智能的描述哪一句是不正確的A、人類智能具有自適應(yīng)特點(diǎn),機(jī)器智能則大多是“依葫蘆畫(huà)瓢”B、人類智能能夠自我學(xué)習(xí),機(jī)器智能大多是依靠數(shù)據(jù)和規(guī)則驅(qū)動(dòng)C、人類智能和機(jī)器智能均具備常識(shí),因此能夠進(jìn)行常識(shí)性推理D、人類智能具備直覺(jué)和頓悟能力,機(jī)器智能很難具備這樣的能力正確答案:C80、OLAM技術(shù)一般簡(jiǎn)稱為”數(shù)據(jù)聯(lián)機(jī)分析挖掘”,下面說(shuō)法正確的是:()A、基于WEB的OLAM是WEB技術(shù)與OLAM技術(shù)的結(jié)合B、OLAM服務(wù)器通過(guò)用戶圖形借口接收用戶的分析指令,在元數(shù)據(jù)的知道下,對(duì)超級(jí)立方體作一定的操作C、OLAP和OLAM都基于客戶機(jī)/服務(wù)器模式,只有后者有與用戶的交互性D、由于OLAM的立方體和用于OLAP的立方體有本質(zhì)的區(qū)別正確答案:B81、下列不是人工智能研究領(lǐng)域的是()A、專家系統(tǒng)B、模式識(shí)別C、機(jī)器翻譯D、編譯原理正確答案:D82、反向傳播算法一開(kāi)始計(jì)算什么內(nèi)容的梯度,之后將其反向傳播?A、各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和B、都不對(duì)C、各個(gè)輸入樣本的平方差之和D、預(yù)測(cè)結(jié)果與樣本標(biāo)簽之間的誤差正確答案:D83、關(guān)于Python內(nèi)存管理,下列說(shuō)法錯(cuò)誤的是()。A、變量不必事先聲明B、變量無(wú)須先創(chuàng)建和賦值而直接使用C、可以使用del釋放資源D、變量無(wú)須指定類型正確答案:B84、在Python中,設(shè)a=2,b=3,表達(dá)式a=3值是()A、TrueB、1C、FALSED、0正確答案:A85、Python3中獲取用戶輸入并默認(rèn)以字符串存儲(chǔ)的函數(shù)是()A、inputB、printC、rawD、raw_input正確答案:A86、以下關(guān)于算法的說(shuō)法中,不正確的是A、機(jī)器學(xué)習(xí)算法分為有監(jiān)督、半監(jiān)督和無(wú)監(jiān)督三種B、決策樹(shù)算法屬于監(jiān)督學(xué)習(xí)類別C、卷積神經(jīng)網(wǎng)絡(luò)是重要的遷移學(xué)習(xí)算法D、K-Means是屬于無(wú)監(jiān)督學(xué)習(xí)算法正確答案:C87、交叉驗(yàn)證法將數(shù)據(jù)集劃分為k個(gè)大小相似的互斥子集,進(jìn)行(___)次訓(xùn)練和測(cè)試。A、k-2B、k+1C、k-1D、k正確答案:D88、卷積核與特征圖的通道數(shù)的關(guān)系是:A、二者沒(méi)有關(guān)系B、卷積核數(shù)量越多特征圖通道數(shù)越少C、卷積核數(shù)量越多特征圖通道數(shù)越多D、卷積核size越大特征圖通道數(shù)越多正確答案:C89、一個(gè)完整機(jī)器學(xué)習(xí)項(xiàng)目需要以下哪
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 暗物質(zhì)助力打造未來(lái)商業(yè)新模式
- 生態(tài)辦公空間設(shè)計(jì)-以室內(nèi)綠植為元素的辦公室改造實(shí)踐
- 2025年度臨建板房租賃與室內(nèi)裝飾一體化服務(wù)合同4篇
- 二零二五年度大數(shù)據(jù)分析與應(yīng)用服務(wù)合同集錦4篇
- 2025版新能源項(xiàng)目投資合作協(xié)議范本3篇
- 基于2025年度云計(jì)算平臺(tái)建設(shè)合同3篇
- 個(gè)人信用抵押借款合同(2024版)版B版
- 二零二五年度大學(xué)生國(guó)際交流資助借款合同4篇
- 二零二五年度公共交通設(shè)施承包商借款協(xié)議書(shū)4篇
- 二零二五版辦公室裝修與辦公家具定制采購(gòu)協(xié)議2篇
- 《酸堿罐區(qū)設(shè)計(jì)規(guī)范》編制說(shuō)明
- 橋梁監(jiān)測(cè)監(jiān)控實(shí)施方案
- 書(shū)籍小兵張嘎課件
- 藝術(shù)哲學(xué):美是如何誕生的學(xué)習(xí)通超星期末考試答案章節(jié)答案2024年
- 北京海淀區(qū)2025屆高三下第一次模擬語(yǔ)文試題含解析
- 量子醫(yī)學(xué)治療學(xué)行業(yè)投資機(jī)會(huì)分析與策略研究報(bào)告
- 多重耐藥菌病人的管理-(1)課件
- (高清版)TDT 1056-2019 縣級(jí)國(guó)土資源調(diào)查生產(chǎn)成本定額
- 環(huán)境監(jiān)測(cè)對(duì)環(huán)境保護(hù)的意義
- 2023年數(shù)學(xué)競(jìng)賽AMC8試卷(含答案)
- 2023年十天突破公務(wù)員面試
評(píng)論
0/150
提交評(píng)論