2024年《走進(jìn)人工智能》知識(shí)考試題及答案_第1頁(yè)
2024年《走進(jìn)人工智能》知識(shí)考試題及答案_第2頁(yè)
2024年《走進(jìn)人工智能》知識(shí)考試題及答案_第3頁(yè)
2024年《走進(jìn)人工智能》知識(shí)考試題及答案_第4頁(yè)
2024年《走進(jìn)人工智能》知識(shí)考試題及答案_第5頁(yè)
已閱讀5頁(yè),還剩20頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2024年《走進(jìn)人工智能》知識(shí)考試題及答案一、單選題1.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,下面()方法可以用來(lái)處理過擬合。A、DropoutB、分批歸一化(BatchNormalization)C、正則化(Regularization)D、都可以參考答案:D2.以下幾種模型方法屬于判別式模型的有()。1)混合高斯模型2)條件隨機(jī)場(chǎng)模型3)區(qū)分度訓(xùn)練4)隱馬爾科夫模型A、2,3B、3,4C、1,4D、1,2參考答案:A3.神經(jīng)網(wǎng)絡(luò)模型因受人類大腦的啟發(fā)而得名。神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元組成,每個(gè)神經(jīng)元接受一個(gè)輸入,對(duì)輸入進(jìn)行處理后給出一個(gè)輸出。請(qǐng)問下列關(guān)于神經(jīng)元的描述中,哪一項(xiàng)是正確的?A、每個(gè)神經(jīng)元只有一個(gè)輸入和一個(gè)輸出B、每個(gè)神經(jīng)元有多個(gè)輸入和一個(gè)輸出C、每個(gè)神經(jīng)元有一個(gè)輸入和多個(gè)輸出D、每個(gè)神經(jīng)元有多個(gè)輸入和多個(gè)輸出E、上述都正確參考答案:E4.生成對(duì)抗網(wǎng)絡(luò)像是一個(gè)博弈系統(tǒng),生成器生成偽造的樣本,判別器判斷是真是假,我們理想的結(jié)果是()。A、生成器產(chǎn)生的樣本大致相同B、判別器高效的分辨生成器產(chǎn)生樣本的真假C、判別器無(wú)法分辨生成器產(chǎn)生樣本的真假D、生成器產(chǎn)生的樣本不盡相同參考答案:C5.已知:1)大腦是有很多個(gè)叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對(duì)大腦的簡(jiǎn)單的數(shù)學(xué)表達(dá)。2)每一個(gè)神經(jīng)元都有輸入、處理函數(shù)和輸出。3)神經(jīng)元組合起來(lái)形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。4)為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型。給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,()什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?A、加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B、有維度更高的數(shù)據(jù)C、當(dāng)這是一個(gè)圖形識(shí)別的問題時(shí)D、以上都不正確參考答案:A6.梯度下降算法的正確步驟是什么?1)計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差2)重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值3)把輸入傳入網(wǎng)絡(luò),得到輸出值4)用隨機(jī)值初始化權(quán)重和偏差5)對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差A(yù)、1,2,3,4,5B、5,4,3,2,1C、3,2,1,5,4D、4,3,1,5,2參考答案:D7.如果一個(gè)模型在測(cè)試集上偏差很大,方差很小,則說(shuō)明該模型()。A、過擬合B、可能過擬合可能欠擬合C、剛好擬合D、欠擬合參考答案:B8.假如我們使用非線性可分的SVM目標(biāo)函數(shù)作為最優(yōu)化對(duì)象,我們?cè)趺幢WC模型線性可分?A、設(shè)C=1B、設(shè)C=0C、設(shè)C=無(wú)窮大D、都不對(duì)參考答案:C9.下列哪項(xiàng)關(guān)于模型能力(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)的描述是正確的?A、隱藏層層數(shù)增加,模型能力可能增加B、Dropout的比例增加,模型能力必然增加C、學(xué)習(xí)率增加,模型能力必然增加D、都不正確參考答案:A10.輸入32×32的圖像,用大小5×5的卷積核做步長(zhǎng)為1的卷積計(jì)算,輸出圖像的大小是()。A、28×23B、28×28C、29×29D、23×23參考答案:B11.我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了使訓(xùn)練時(shí)間更少,我們可以()。A、增加樹的深度B、增加學(xué)習(xí)率C、減少樹的深度D、減少樹的數(shù)量參考答案:C12.下列哪部分不是專家系統(tǒng)的組成部分?A、用戶B、綜合數(shù)據(jù)庫(kù)C、推理機(jī)D、知識(shí)庫(kù)參考答案:A13.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享?A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、A和B參考答案:D14.下列哪個(gè)不屬于常用的文本分類的特征選擇算法?A、卡方檢驗(yàn)值B、互信息C、信息增益D、主成分分析參考答案:D15.下列哪個(gè)不是人工智能的技術(shù)應(yīng)用領(lǐng)域?A、搜索技術(shù)B、數(shù)據(jù)挖掘C、智能控制D、編譯原理參考答案:D16.Q(s,a)是指在給定狀態(tài)s的情況下,采取行動(dòng)a之后,后續(xù)的各個(gè)狀態(tài)所能得到的回報(bào)()。A、總和B、最大值C、最小值D、期望值參考答案:D17.數(shù)據(jù)科學(xué)家可能會(huì)同時(shí)使用多個(gè)算法(模型)進(jìn)行預(yù)測(cè),并且最后把這些算法的結(jié)果集成起來(lái)進(jìn)行最后的預(yù)測(cè)(集成學(xué)習(xí)),以下對(duì)集成學(xué)習(xí)說(shuō)法正確的是()。A、單個(gè)模型之間有高相關(guān)性B、單個(gè)模型之間有低相關(guān)性C、在集成學(xué)習(xí)中使用“平均權(quán)重”而不是“投票”會(huì)比較好D、單個(gè)模型都是用的一個(gè)算法參考答案:B18.以下哪種技術(shù)對(duì)于減少數(shù)據(jù)集的維度會(huì)更好?A、刪除缺少值太多的列B、刪除數(shù)據(jù)差異較大的列C、刪除不同數(shù)據(jù)趨勢(shì)的列D、都不是參考答案:A19.在強(qiáng)化學(xué)習(xí)過程中,學(xué)習(xí)率越大,表示采用新的嘗試得到的結(jié)果比例越(),保持舊的結(jié)果的比例越()。A、大,小B、大,大C、小,大D、小,小參考答案:A20.以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法?A、嵌入B、過濾C、包裝D、抽樣參考答案:D21.要想讓機(jī)器具有智能,必須讓機(jī)器具有知識(shí)。因此,在人工智能中有一個(gè)研究領(lǐng)域,主要研究計(jì)算機(jī)如何自動(dòng)獲取知識(shí)和技能,實(shí)現(xiàn)自我完善,這門研究分支學(xué)科叫()。A、專家系統(tǒng)B、機(jī)器學(xué)習(xí)C、神經(jīng)網(wǎng)絡(luò)D、模式識(shí)別參考答案:B22.Q-learning算法中,Q函數(shù)是()。A、狀態(tài)-動(dòng)作值函數(shù)B、狀態(tài)函數(shù)C、估值函數(shù)D、獎(jiǎng)勵(lì)函數(shù)參考答案:A23.語(yǔ)言模型的參數(shù)估計(jì)經(jīng)常使用最大似然估計(jì),面臨的一個(gè)問題是沒有出現(xiàn)的項(xiàng)概率為0,這樣會(huì)導(dǎo)致語(yǔ)言模型的效果不好。為了解決這個(gè)問題,需要使用()。A、平滑B、去噪C、隨機(jī)插值D、增加白噪音參考答案:A24.關(guān)于Logit回歸和SVM不正確的是()。A、Logit回歸目標(biāo)函數(shù)是最小化后驗(yàn)概率B、Logit回歸可以用于預(yù)測(cè)事件發(fā)生概率的大小C、SVM目標(biāo)是結(jié)構(gòu)風(fēng)險(xiǎn)最小化D、SVM可以有效避免模型過擬合參考答案:A25.機(jī)器翻譯屬于()領(lǐng)域的應(yīng)用。A、自然語(yǔ)言處理B、搜索技術(shù)C、專家系統(tǒng)D、數(shù)據(jù)挖掘參考答案:A26.下列不是SVM核函數(shù)的是()。A、多項(xiàng)式核函數(shù)B、Logistic核函數(shù)C、徑向基核函數(shù)D、Sigmoid核函數(shù)參考答案:B27.下面哪個(gè)決策邊界是神經(jīng)網(wǎng)絡(luò)生成的?A、AB、BC、CD、DE、以上都有參考答案:E28.假設(shè)在訓(xùn)練中我們突然遇到了一個(gè)問題:在幾次循環(huán)之后,誤差瞬間降低。你認(rèn)為數(shù)據(jù)有問題,于是你畫出了數(shù)據(jù)并且發(fā)現(xiàn)也許是數(shù)據(jù)的偏度過大造成了這個(gè)問題,你打算怎么做來(lái)處理這個(gè)問題?A、對(duì)數(shù)據(jù)作歸一化B、對(duì)數(shù)據(jù)取對(duì)數(shù)變化C、對(duì)數(shù)據(jù)作主成分分析和歸一化D、都不對(duì)參考答案:C29.對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是()。1)增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率2)減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率3)增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率A、1B、1和3C、1和2D、2參考答案:A30.如果你正在處理文本數(shù)據(jù),使用單詞嵌入(Word2vec)表示使用的單詞。在單詞嵌入中,最終會(huì)有1000維。如果想減小這個(gè)高維數(shù)據(jù)的維度,使得相似的詞在最鄰近的空間中具有相似的含義。在這種情況下,你最有可能選擇以下哪種算法?A、t-SNEB、PCAC、LDAD、都不是參考答案:A解析:《自然語(yǔ)言處理》,作者:劉挺出版社:高等教育出版社31.當(dāng)考慮某個(gè)具體問題時(shí),你可能只有少量數(shù)據(jù)來(lái)解決這個(gè)問題。不過幸運(yùn)的是你有一個(gè)針對(duì)類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)。你可以用下面哪種方法來(lái)利用這個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?A、保留最后一層,將其余層重新訓(xùn)練B、對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型C、只對(duì)最后幾層進(jìn)行調(diào)參D、對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來(lái)用參考答案:C32.在一個(gè)n維的空間中,最好的檢測(cè)離群點(diǎn)(outlier)的方法是()。A、作正態(tài)分布概率圖B、作盒形圖C、馬氏距離D、作散點(diǎn)圖參考答案:C33.在大規(guī)模的語(yǔ)料中,挖掘詞的相關(guān)性是一個(gè)重要的問題。以下哪一個(gè)信息不能用于確定兩個(gè)詞的相關(guān)性?A、互信息B、最大熵C、卡方檢驗(yàn)D、最大似然比參考答案:B34.基于統(tǒng)計(jì)的分詞方法為()。A、正向最大匹配法B、逆向最大匹配法C、最少切分D、條件隨機(jī)場(chǎng)參考答案:D35.請(qǐng)選擇下面可以應(yīng)用隱馬爾科夫(HMM)模型的數(shù)據(jù)集()。A、基因序列數(shù)據(jù)集B、電影瀏覽數(shù)據(jù)集C、股票市場(chǎng)數(shù)據(jù)集D、所有以上參考答案:D36.以P(w)表示詞條w的概率,假設(shè)已知P(南京)=0.8,P(市長(zhǎng))=0.6,P(江大橋)=0.4,P(南京市)=0.3,P(長(zhǎng)江大橋)=0.5,在訓(xùn)練語(yǔ)料中未出現(xiàn)的詞條概率為0。假設(shè)前后兩個(gè)詞的出現(xiàn)是獨(dú)立的,那么分詞結(jié)果就是()。A、南京市*長(zhǎng)江*大橋B、南京*市長(zhǎng)*江大橋C、南京市長(zhǎng)*江大橋D、南京市*長(zhǎng)江大橋參考答案:B37.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),損失函數(shù)在最初的幾個(gè)epoch時(shí)沒有下降,可能的原因是()。A、學(xué)習(xí)率太低B、正則參數(shù)太高C、陷入局部最小值D、以上都有可能參考答案:A38.以下屬于回歸算法的優(yōu)化指標(biāo)是()。A、召回率B、混淆矩陣C、均方誤差D、準(zhǔn)確率參考答案:C39.假設(shè)你使用log-loss函數(shù)作為評(píng)估標(biāo)準(zhǔn)。下面這些選項(xiàng),哪些是對(duì)作為評(píng)估標(biāo)準(zhǔn)的log-loss的正確解釋?A、如果分類器對(duì)不正確分類結(jié)果的置信度高,log-loss會(huì)對(duì)分類器作出懲罰B、對(duì)一個(gè)特別的觀察而言,分類器為正確的分類結(jié)果分配非常小的概率,然后對(duì)log-loss的相應(yīng)分布會(huì)非常大C、log-loss越低,模型越好D、以上都是參考答案:D40.對(duì)于一個(gè)圖像識(shí)別問題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問題?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、感知機(jī)C、多層感知機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)參考答案:D二.多選題1.假設(shè)我們要解決一個(gè)二類分類問題,我們已經(jīng)建立好了模型,輸出是0或1,初始時(shí)設(shè)閾值為0.5,超過0.5概率估計(jì),就判別為1,否則就判別為0;如果我們現(xiàn)在用另一個(gè)大于0.5的閾值,那么現(xiàn)在關(guān)于模型說(shuō)法,正確的是()。A、模型分類的召回率會(huì)降低或不變B、模型分類的召回率會(huì)升高C、模型分類準(zhǔn)確率會(huì)升高或不變D、模型分類準(zhǔn)確率會(huì)降低參考答案:AC2.假定目標(biāo)變量的類別非常不平衡,即主要類別占據(jù)了訓(xùn)練數(shù)據(jù)的99%。現(xiàn)在你的模型在測(cè)試集上表現(xiàn)為99%的準(zhǔn)確度。那么下面哪一項(xiàng)表述是正確的?A、準(zhǔn)確度并不適合于衡量不平衡類別問題B、準(zhǔn)確度適合于衡量不平衡類別問題C、精確率和召回率適合于衡量不平衡類別問題D、精確率和召回率不適合于衡量不平衡類別問題參考答案:AC3.以下哪些激活函數(shù)容易產(chǎn)生梯度消失問題?A、ReLUB、SoftplusC、TanhD、Sigmoid參考答案:CD4.在粒子群算法中迭代過程的終止條件是什么?A、算法不收斂B、達(dá)到最大迭代次數(shù)C、找到局部最優(yōu)解D、全局最優(yōu)位置滿足最小界限參考答案:BD5.回歸模型中存在多重共線性,可以如何解決這個(gè)問題?A、去除這兩個(gè)共線性變量B、我們可以先去除一個(gè)共線性變量C、計(jì)算方差膨脹因子,采取相應(yīng)措施D、為了避免損失信息,我們可以使用一些正則化方法,比如嶺回歸和lasso回歸參考答案:BCD6.AlphaGo/Zero主要用了下列哪些方法:()。A、強(qiáng)化學(xué)習(xí)B、殘差卷積神經(jīng)網(wǎng)絡(luò)C、蒙特卡洛樹搜索D、循環(huán)神經(jīng)網(wǎng)絡(luò)參考答案:ABC7.機(jī)器學(xué)習(xí)中L1正則化和L2正則化的區(qū)別是?A、使用L1可以得到稀疏的權(quán)值B、使用L1可以得到平滑的權(quán)值C、使用L2可以得到稀疏的權(quán)值D、使用L2可以得到平滑的權(quán)值參考答案:AD8.強(qiáng)化學(xué)習(xí)包含哪些元素()。A、RewardB、AgentC、StateD、Action參考答案:ABCD9.知識(shí)圖譜中的數(shù)據(jù)類型分哪幾類?A、通用數(shù)據(jù)類型B、半結(jié)構(gòu)化數(shù)據(jù)類型C、結(jié)構(gòu)化數(shù)據(jù)類型D、非結(jié)構(gòu)化數(shù)據(jù)類型參考答案:BCD10.在計(jì)算機(jī)視覺應(yīng)用中,常用的圖像特征有()。A、空間關(guān)系特征B、形狀特征C、紋理特征D、顏色特征參考答案:ABCD11.有關(guān)數(shù)據(jù)增強(qiáng)的說(shuō)法正確是哪些?A、數(shù)據(jù)增強(qiáng)會(huì)增加樣本的個(gè)數(shù),因此可能會(huì)減少過擬合B、對(duì)于分類問題,數(shù)據(jù)增強(qiáng)是減少數(shù)據(jù)不平衡的一種方法。C、對(duì)于手寫體的識(shí)別,對(duì)樣本的反轉(zhuǎn)、旋轉(zhuǎn)、裁剪、變形和縮放等操作會(huì)提高神經(jīng)網(wǎng)絡(luò)的識(shí)別效果D、數(shù)據(jù)增強(qiáng)帶來(lái)了噪聲,因此一般會(huì)降低神經(jīng)網(wǎng)絡(luò)模型的效果參考答案:ABC12.下面哪些場(chǎng)景用循環(huán)神經(jīng)網(wǎng)絡(luò)處理效果比較好?A、自然語(yǔ)言處理B、語(yǔ)音識(shí)別C、圖像識(shí)別D、人臉識(shí)別參考答案:AB13.在分類問題中,我們經(jīng)常會(huì)遇到正負(fù)樣本數(shù)據(jù)量不等的情況,比如正樣本為10萬(wàn)條數(shù)據(jù),負(fù)樣本只有1萬(wàn)條數(shù)據(jù),以下最合適的處理方法是?A、將負(fù)樣本重復(fù)10次,生成10萬(wàn)樣本量,打亂順序參與分類B、直接進(jìn)行分類,可以最大限度利用數(shù)據(jù)C、從10萬(wàn)正樣本中隨機(jī)抽取1萬(wàn)參與分類D、將負(fù)樣本每個(gè)權(quán)重設(shè)置為10,正樣本權(quán)重為1,參與訓(xùn)練過程參考答案:ACD14.電影推薦系統(tǒng)是以下哪些的應(yīng)用實(shí)例?A、分類B、聚類C、強(qiáng)化學(xué)習(xí)D、回歸參考答案:ABC15.人工智能的主要應(yīng)用領(lǐng)域有()。A、自然語(yǔ)言理解B、數(shù)據(jù)庫(kù)的智能檢索C、專家咨詢系統(tǒng)D、感知問題參考答案:ABCD16.以下說(shuō)法中正確的是()。A、SVM對(duì)噪聲(如來(lái)自其他分布的噪聲樣本)魯棒B、在AdaBoost算法中,所有被分錯(cuò)的樣本的權(quán)重更新比例相同C、Boosting和Bagging都是組合多個(gè)分類器投票的方法,二者都是根據(jù)單個(gè)分類器的正確率決定其權(quán)重D、給定n個(gè)數(shù)據(jù)點(diǎn),如果其中一半用于訓(xùn)練,一般用于測(cè)試,則訓(xùn)練誤差和測(cè)試誤差之間的差別會(huì)隨著n的增加而減少參考答案:BD17.變量選擇是用來(lái)選擇最好的判別器子集,如果要考慮模型效率,我們應(yīng)該做哪些變量選擇的考慮?A、多個(gè)變量其實(shí)有相同的用處B、變量對(duì)于模型的解釋有多大作用C、特征攜帶的信息D、交叉驗(yàn)證參考答案:ACD18.如果以特征向量的相關(guān)系數(shù)作為模式相似性測(cè)度,則影響聚類算法結(jié)果的主要因素有()。A、已知類別樣本質(zhì)量B、分類準(zhǔn)則C、特征選取D、量綱參考答案:BC19.下面屬于知識(shí)圖譜正確的三元組表示方式的是?A、實(shí)體―屬性―屬性值B、實(shí)體1―實(shí)體2―實(shí)體3C、實(shí)體―關(guān)系―屬性值D、實(shí)體1―關(guān)系―實(shí)體2參考答案:AD20.下面哪些是基于核的機(jī)器學(xué)習(xí)算法?A、最大期望算法B、徑向基核函數(shù)C、線性判別分析法D、支持向量機(jī)參考答案:BCD三.判斷題1.感知機(jī)的運(yùn)作原理是邏輯判斷流程。A、正確B、錯(cuò)誤參考答案:B2.邏輯回歸的損失函數(shù)是交叉熵?fù)p失函數(shù)。A、正確B、錯(cuò)誤參考答案:A3.如果增加多層感知機(jī)的隱藏層層數(shù),分類誤差便會(huì)減小。A、正確B、錯(cuò)誤參考答案:B4.在圖像處理中,采樣越細(xì),像素越小,越能精確的表現(xiàn)圖像。A、正確B、錯(cuò)誤參考答案:A5.樣本輸入順序、聚類準(zhǔn)則、初始類中心的選取都屬于會(huì)影響基本K-均值算法的主要因素。A、正確B、錯(cuò)誤參考答案:B6.語(yǔ)音識(shí)別指的是將音頻數(shù)據(jù)識(shí)別為文本數(shù)據(jù)。A、正確B、錯(cuò)誤參考答案:A7.邊緣檢測(cè)是將邊緣像素標(biāo)識(shí)出來(lái)的一種圖像分割技術(shù)。A、正確B、錯(cuò)誤參考答案:A8.某個(gè)人、某個(gè)城市、某種植物在知識(shí)圖譜中都被稱為實(shí)體。A、正確B、錯(cuò)誤參考答案:A9.網(wǎng)格搜索是一種參數(shù)調(diào)節(jié)方法。A、正確B、錯(cuò)誤參考答案:A10.生成對(duì)抗網(wǎng)絡(luò)可用于數(shù)據(jù)增強(qiáng)、語(yǔ)義分割、信息檢索、圖像生成等多種場(chǎng)景。A、正確B、錯(cuò)誤參考答案:A11.線性回歸的損失函數(shù)中加入L1正則項(xiàng),此時(shí)該回歸叫做Lasso回歸。A、

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論