版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
MOOC機器學(xué)習(xí)-溫州大學(xué)中國大學(xué)慕課答案引言課后測試1、問題:哪一個是機器學(xué)習(xí)的合理定義?選項:A、機器學(xué)習(xí)從標記的數(shù)據(jù)中學(xué)習(xí)B、機器學(xué)習(xí)能使計算機能夠在沒有明確編程的情況下學(xué)習(xí)C、機器學(xué)習(xí)是計算機編程的科學(xué)D、機器學(xué)習(xí)是允許機器人智能行動的領(lǐng)域正確答案:【機器學(xué)習(xí)能使計算機能夠在沒有明確編程的情況下學(xué)習(xí)】2、問題:一個計算機程序從經(jīng)驗E中學(xué)習(xí)任務(wù)T,并用P來衡量表現(xiàn)。并且,T的表現(xiàn)P隨著經(jīng)驗E的增加而提高。假設(shè)我們給一個學(xué)習(xí)算法輸入了很多歷史天氣的數(shù)據(jù),讓它學(xué)會預(yù)測天氣。什么是P的合理選擇?選項:A、計算大量歷史氣象數(shù)據(jù)的過程B、正確預(yù)測未來日期天氣的概率C、天氣預(yù)報任務(wù)D、以上都不正確答案:【正確預(yù)測未來日期天氣的概率】3、問題:回歸問題和分類問題的區(qū)別是什么?選項:A、回歸問題有標簽,分類問題沒有B、回歸問題輸出值是離散的,分類問題輸出值是連續(xù)的C、回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的D、回歸問題與分類問題在輸入屬性值上要求不同正確答案:【回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的】4、問題:以下關(guān)于特征選擇的說法正確的是?選項:A、選擇的特征越多越好B、選擇的特征越少越好C、選擇的特征需盡可能反映不同事物之間的差異D、以上說法均不對正確答案:【選擇的特征需盡可能反映不同事物之間的差異】5、問題:一個包含n類的多分類問題,若采用一對剩余的方法,需要拆分成多少次?選項:A、1B、n-1C、nD、n+1正確答案:【n-1】6、問題:機器學(xué)習(xí)方法傳統(tǒng)上可以分為()類。選項:A、3B、4C、7D、2正確答案:【3】7、問題:哪些機器學(xué)習(xí)模型經(jīng)過訓(xùn)練,能夠根據(jù)其行為獲得的獎勵和反饋做出一系列決策?選項:A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、強化學(xué)習(xí)D、以上全部正確答案:【強化學(xué)習(xí)】8、問題:機器學(xué)習(xí)這個術(shù)語是由()定義的?選項:A、JamesGoslingB、ArthurSamuelC、GuidovanRossumD、以上都不是正確答案:【ArthurSamuel】9、問題:哪種開發(fā)語言最適合機器學(xué)習(xí)?()選項:A、CB、JavaC、PythonD、HTML正確答案:【Python】10、問題:()是機器學(xué)習(xí)的一部分,與神經(jīng)網(wǎng)絡(luò)一起工作。選項:A、人工智能B、深度學(xué)習(xí)C、A和BD、以上都不是正確答案:【深度學(xué)習(xí)】11、問題:()是可用于標記數(shù)據(jù)的機器學(xué)習(xí)算法。選項:A、回歸算法B、聚類算法C、關(guān)聯(lián)規(guī)則算法D、以上都不是正確答案:【回歸算法】12、問題:谷歌新聞每天收集非常多的新聞,并運用()方法再將這些新聞分組,組成若干類有關(guān)聯(lián)的新聞。于是,搜索時同一組新聞事件往往隸屬同一主題的,所以顯示到一起。選項:A、回歸B、分類C、聚類D、關(guān)聯(lián)規(guī)則正確答案:【聚類】13、問題:下列哪些學(xué)習(xí)問題不屬于監(jiān)督學(xué)習(xí)?()選項:A、聚類B、降維C、分類D、回歸正確答案:【聚類#降維】14、問題:下列哪些學(xué)習(xí)問題不屬于監(jiān)督學(xué)習(xí)?()選項:A、回歸B、分類C、聚類D、關(guān)聯(lián)規(guī)則正確答案:【聚類#關(guān)聯(lián)規(guī)則】15、問題:機器學(xué)習(xí)的方法由()等幾個要素構(gòu)成。選項:A、模型B、損失函數(shù)C、優(yōu)化算法D、模型評估指標正確答案:【模型#損失函數(shù)#優(yōu)化算法#模型評估指標】16、問題:對于非概率模型而言,可按照判別函數(shù)線性與否分成線性模型與非線性模型。下面哪些模型屬于線性模型?選項:A、K-meansB、k近鄰C、感知機D、AdaBoost正確答案:【K-means#k近鄰#感知機】17、問題:樸素貝葉斯屬于概率模型。選項:A、正確B、錯誤正確答案:【正確】18、問題:根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性,這是一個回歸問題。選項:A、正確B、錯誤正確答案:【錯誤】19、問題:大部分的機器學(xué)習(xí)工程中,數(shù)據(jù)搜集、數(shù)據(jù)清洗、特征工程這三個步驟絕大部分時間,而數(shù)據(jù)建模,占總時間比較少。選項:A、正確B、錯誤正確答案:【正確】20、問題:已知你朋友的信息,比如經(jīng)常發(fā)email的聯(lián)系人,或是你微博的好友、微信的朋友圈,我們可運用聚類方法自動地給朋友進行分組,做到讓每組里的人們彼此都熟識。選項:A、正確B、錯誤正確答案:【正確】回歸課后測試1、問題:以下哪組變量之間存在線性回歸關(guān)系?選項:A、學(xué)生的性別與他的成績B、兒子的身高與父親的身高C、正方形的邊長與面積D、正三角形的邊長與周長正確答案:【正三角形的邊長與周長】2、問題:回歸問題和分類問題的區(qū)別是?選項:A、回歸問題有標簽,分類問題沒有B、回歸問題輸出值是離散的,分類問題輸出值是連續(xù)的C、回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的D、回歸問題與分類問題在輸入屬性值上要求不同正確答案:【回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的】3、問題:以下說法錯誤的是?選項:A、殘差是預(yù)測值與真實值之間的差值B、損失函數(shù)越小,模型訓(xùn)練得一定越好C、正則項的目的是為了避免模型過擬合D、最小二乘法不需要選擇學(xué)習(xí)率正確答案:【損失函數(shù)越小,模型訓(xùn)練得一定越好】4、問題:哪些算法不需要數(shù)據(jù)歸一化?選項:A、kNNB、k-meansC、SVMD、決策樹正確答案:【決策樹】5、問題:以下哪些方法不能用于處理欠擬合?選項:A、增大正則化系數(shù)B、增加新的特征C、增加模型復(fù)雜度D、對特征進行變換,使用組合特征或高維特征正確答案:【增大正則化系數(shù)】6、問題:以下哪些方法不能用于處理過擬合?選項:A、對數(shù)據(jù)進行清洗B、增大訓(xùn)練數(shù)據(jù)的量C、利用正則化技術(shù)D、增加數(shù)據(jù)屬性的復(fù)雜度正確答案:【增加數(shù)據(jù)屬性的復(fù)雜度】7、問題:下列關(guān)于線性回歸分析中的殘差(Residuals)說法正確的是?選項:A、殘差均值總是為零B、殘差均值總是小于零C、殘差均值總是大于零D、以上說法都不對正確答案:【殘差均值總是為零】8、問題:為了觀察測試Y與X之間的線性關(guān)系,X是連續(xù)變量,使用下列哪種圖形比較適合?選項:A、散點圖B、柱形圖C、直方圖D、以上都不對正確答案:【散點圖】9、問題:假如你在訓(xùn)練一個線性回歸模型,則:1.如果數(shù)據(jù)量較少,容易發(fā)生過擬合。2.如果假設(shè)空間較小,容易發(fā)生過擬合。關(guān)于這兩句話,下列說法正確的是?選項:A、1和2都錯誤B、1正確,2錯誤C、1錯誤,2正確D、1和2都正確正確答案:【1正確,2錯誤】10、問題:關(guān)于特征選擇,下列對Ridge回歸和Lasso回歸說法正確的是?選項:A、Ridge回歸適用于特征選擇B、Lasso回歸適用于特征選擇C、兩個都適用于特征選擇D、以上說法都不對正確答案:【Lasso回歸適用于特征選擇】11、問題:構(gòu)建一個最簡單的線性回歸模型需要幾個系數(shù)(只有一個特征)?選項:A、1個B、2個C、3個D、4個正確答案:【2個】12、問題:向量x=[1,2,3,4,-9,0]的L1范數(shù)是多少?選項:A、1B、19C、6D、正確答案:【19】13、問題:以下哪些是使用數(shù)據(jù)規(guī)范化(特征縮放)的原因?選項:A、它通過降低梯度下降的每次迭代的計算成本來加速梯度下降B、它通過減少迭代次數(shù)來獲得一個好的解,從而加快了梯度下降的速度C、它不能防止梯度下降陷入局部最優(yōu)D、它防止矩陣不可逆(奇異/退化)正確答案:【它通過減少迭代次數(shù)來獲得一個好的解,從而加快了梯度下降的速度#它不能防止梯度下降陷入局部最優(yōu)】14、問題:線性回歸中,我們可以使用最小二乘法來求解系數(shù),下列關(guān)于最小二乘法說法正確的是?()選項:A、只適用于線性模型,不適合邏輯回歸模型等其他模型B、不需要選擇學(xué)習(xí)率C、當特征數(shù)量很多的時候,運算速度會很慢D、不需要迭代訓(xùn)練正確答案:【只適用于線性模型,不適合邏輯回歸模型等其他模型#不需要選擇學(xué)習(xí)率#當特征數(shù)量很多的時候,運算速度會很慢#不需要迭代訓(xùn)練】15、問題:欠擬合的處理主要有哪些方式:()選項:A、增加模型復(fù)雜度B、減小正則化系數(shù)C、增大正則化系數(shù)D、添加新特征正確答案:【增加模型復(fù)雜度#減小正則化系數(shù)#添加新特征】16、問題:假如使用一個較復(fù)雜的回歸模型來擬合樣本數(shù)據(jù),使用Ridge回歸,調(diào)試正則化參數(shù),來降低模型復(fù)雜度,若正則化系數(shù)較大時,關(guān)于偏差(bias)和方差(variance),下列說法正確的是?()選項:A、偏差減小B、偏差增大C、方差減小D、方差增大正確答案:【偏差增大#方差減小】17、問題:如果兩個變量相關(guān),那么它們一定是線性關(guān)系。選項:A、正確B、錯誤正確答案:【錯誤】18、問題:隨機梯度下降,每次迭代時候,使用一個樣本。選項:A、正確B、錯誤正確答案:【正確】19、問題:L2正則化往往用于防止過擬合,而L1正則化往往用于特征選擇。選項:A、正確B、錯誤正確答案:【正確】20、問題:過擬合的處理可以通過減小正則化系數(shù)。選項:A、正確B、錯誤正確答案:【錯誤】邏輯回歸課后測驗1、問題:一監(jiān)獄人臉識別準入系統(tǒng)用來識別待進入人員的身份,此系統(tǒng)一共包括識別4種不同的人員:獄警,小偷,送餐員,其他。下面哪種學(xué)習(xí)方法最適合此種應(yīng)用需求:選項:A、二分類問題B、多分類問題C、回歸問題D、聚類問題正確答案:【多分類問題】2、問題:以下關(guān)于分類問題的說法錯誤的是?選項:A、分類屬于監(jiān)督學(xué)習(xí)B、分類問題輸入屬性必須是離散的C、多分類問題可以被拆分為多個二分類問題D、回歸問題在一定條件下可被轉(zhuǎn)化為多分類問題正確答案:【分類問題輸入屬性必須是離散的】3、問題:以下關(guān)于邏輯回歸與線性回歸問題的描述錯誤的是()選項:A、邏輯回歸用于處理分類問題,線性回歸用于處理回歸問題B、線性回歸要求輸入輸出值呈線性關(guān)系,邏輯回歸不要求C、邏輯回歸一般要求變量服從正態(tài)分布,線性回歸一般不要求D、線性回歸計算方法一般是最小二乘法,邏輯回歸的參數(shù)計算方法是似然估計法。正確答案:【邏輯回歸一般要求變量服從正態(tài)分布,線性回歸一般不要求】4、問題:以下關(guān)于sigmoid函數(shù)的優(yōu)點說法錯誤的是?選項:A、函數(shù)處處連續(xù),便于求導(dǎo)B、可以用于處理二分類問題C、在深層次神經(jīng)網(wǎng)絡(luò)反饋傳輸中,不易出現(xiàn)梯度消失D、可以壓縮數(shù)據(jù)值到[0,1]之間,便于后續(xù)處理正確答案:【在深層次神經(jīng)網(wǎng)絡(luò)反饋傳輸中,不易出現(xiàn)梯度消失】5、問題:邏輯回歸的損失函數(shù)是哪個?選項:A、MSEB、交叉熵(Cross-Entropy)損失函數(shù)C、MAED、RMSE正確答案:【交叉熵(Cross-Entropy)損失函數(shù)】6、問題:下面哪一項不是Sigmoid的特點?選項:A、當σ(z)大于等于0.5時,預(yù)測y=1B、當σ(z)小于0.5時,預(yù)測y=0C、當σ(z)小于0.5時,預(yù)測y=-1D、σ(z)的范圍為(0,1)正確答案:【當σ(z)小于0.5時,預(yù)測y=-1】7、問題:下列哪一項不是邏輯回歸的優(yōu)點?選項:A、處理非線性數(shù)據(jù)較容易B、模型形式簡單C、資源占用少D、可解釋性好正確答案:【處理非線性數(shù)據(jù)較容易】8、問題:假設(shè)有三類數(shù)據(jù),用OVR方法需要分類幾次才能完成?選項:A、1B、2C、3D、4正確答案:【2】9、問題:以下哪些不是二分類問題?選項:A、根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性?B、或者根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來判斷信用卡是否會違約?C、身高1.85m,體重100kg的男人穿什么尺碼的T恤?D、根據(jù)一個人的身高和體重判斷他(她)的性別。正確答案:【身高1.85m,體重100kg的男人穿什么尺碼的T恤?】10、問題:邏輯回歸通常采用哪種正則化方式?選項:A、ElasticNetB、L1正則化C、L2正則化D、Dropout正則化正確答案:【L2正則化】11、問題:假設(shè)使用邏輯回歸進行多類別分類,使用OVR分類法。下列說法正確的是?選項:A、對于n類別,需要訓(xùn)練n個模型B、對于n類別,需要訓(xùn)練n-1個模型C、對于n類別,只需要訓(xùn)練1個模型D、以上說法都不對正確答案:【對于n類別,需要訓(xùn)練n個模型】12、問題:你正在訓(xùn)練一個分類邏輯回歸模型。以下哪項陳述是正確的?選出所有正確項選項:A、將正則化引入到模型中,總是能在訓(xùn)練集上獲得相同或更好的性能B、在模型中添加許多新特性有助于防止訓(xùn)練集過度擬合C、將正則化引入到模型中,對于訓(xùn)練集中沒有的樣本,總是可以獲得相同或更好的性能D、向模型中添加新特征總是會在訓(xùn)練集上獲得相同或更好的性能正確答案:【向模型中添加新特征總是會在訓(xùn)練集上獲得相同或更好的性能】13、問題:以下哪項陳述是正確的?選出所有正確項()選項:A、在構(gòu)建學(xué)習(xí)算法的第一個版本之前,花大量時間收集大量數(shù)據(jù)是一個好主意。B、邏輯回歸使用了Sigmoid激活函數(shù)C、使用一個非常大的訓(xùn)練集使得模型不太可能過擬合訓(xùn)練數(shù)據(jù)。D、如果您的模型擬合訓(xùn)練集,那么獲取更多數(shù)據(jù)可能會有幫助。正確答案:【邏輯回歸使用了Sigmoid激活函數(shù)#使用一個非常大的訓(xùn)練集使得模型不太可能過擬合訓(xùn)練數(shù)據(jù)。】14、問題:下面哪些是分類算法?選項:A、根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性?B、根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來判斷信用卡是否會違約?C、身高1.85m,體重100kg的男人穿什么尺碼的T恤?D、根據(jù)房屋大小、衛(wèi)生間數(shù)量等特征預(yù)估房價正確答案:【根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性?#根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來判斷信用卡是否會違約?#身高1.85m,體重100kg的男人穿什么尺碼的T恤?】15、問題:邏輯回歸的激活函數(shù)是Sigmoid。選項:A、正確B、錯誤正確答案:【正確】16、問題:邏輯回歸分類的精度不夠高,因此在業(yè)界很少用到這個算法選項:A、正確B、錯誤正確答案:【錯誤】17、問題:Sigmoid函數(shù)的范圍是(-1,1)選項:A、正確B、錯誤正確答案:【錯誤】18、問題:邏輯回歸的特征一定是離散的。選項:A、正確B、錯誤正確答案:【錯誤】19、問題:邏輯回歸算法資源占用小,尤其是內(nèi)存。選項:A、正確B、錯誤正確答案:【正確】20、問題:邏輯回歸的損失函數(shù)是交叉熵損失選項:A、正確B、錯誤正確答案:【正確】樸素貝葉斯課后測驗1、問題:假設(shè)會開車的本科生比例是15%,會開車的研究生比例是23%。若在某大學(xué)研究生占學(xué)生比例是20%,則會開車的學(xué)生是研究生的概率是多少?選項:A、80%B、16.6%C、23%D、27.7%正確答案:【27.7%】2、問題:下列關(guān)于樸素貝葉斯的特點說法錯誤的是()選項:A、樸素貝葉斯模型發(fā)源于古典數(shù)學(xué)理論,數(shù)學(xué)基礎(chǔ)堅實B、樸素貝葉斯模型無需假設(shè)特征條件獨立C、樸素貝葉斯處理過程簡單,分類速度快D、樸素貝葉斯對小規(guī)模數(shù)據(jù)表現(xiàn)較好正確答案:【樸素貝葉斯模型無需假設(shè)特征條件獨立】3、問題:以下算法不屬于生成模型()選項:A、樸素貝葉斯模型B、混合高斯模型C、隱馬爾科夫模型D、支持向量機正確答案:【支持向量機】4、問題:關(guān)于拉普拉斯平滑說法正確的是()選項:A、避免了出現(xiàn)概率為0的情況B、加上拉普拉斯平滑有助于提高學(xué)習(xí)性能C、會使得最終結(jié)果可能大于1D、以上說法都不對正確答案:【避免了出現(xiàn)概率為0的情況】5、問題:假設(shè)X和Y都服從正態(tài)分布,那么P(X5,Y0)就是一個(),表示X5,Y0兩個條件同時成立的概率,即兩個事件共同發(fā)生的概率。選項:A、先驗概率B、后驗概率C、聯(lián)合概率D、以上說法都不對正確答案:【聯(lián)合概率】6、問題:以下算法屬于判別模型的是()選項:A、樸素貝葉斯模型B、深度信念網(wǎng)絡(luò)C、隱馬爾科夫模型D、線性回歸正確答案:【線性回歸】7、問題:樸素貝葉斯的優(yōu)點不包括()選項:A、算法邏輯簡單,易于實現(xiàn)B、分類過程中時空開銷小C、對缺失數(shù)據(jù)不太敏感,算法也比較簡單,常用于文本分類D、樸素貝葉斯模型對輸入數(shù)據(jù)的表達形式很敏感正確答案:【樸素貝葉斯模型對輸入數(shù)據(jù)的表達形式很敏感】8、問題:市場上某商品來自兩個工廠,它們市場占有率分別為60%和40%,有兩人各自買一件,則買到的來自不同工廠之概率為()。選項:A、0.5B、0.24C、0.48D、0.3正確答案:【0.48】9、問題:以A表示事件甲種產(chǎn)品暢銷,乙種產(chǎn)品滯銷,則其對立事件A為()選項:A、甲種產(chǎn)品滯銷,乙種產(chǎn)品暢銷B、甲,乙兩種產(chǎn)品均暢銷C、甲種產(chǎn)品滯銷D、甲種產(chǎn)品滯銷或乙種產(chǎn)品暢銷正確答案:【甲種產(chǎn)品滯銷或乙種產(chǎn)品暢銷】10、問題:11.關(guān)于樸素貝葉斯,下列說法錯誤的是:()選項:A、它是一個分類算法B、樸素的意義在于它的一個天真的假設(shè):所有特征之間是相互獨立的C、它實際上是將多條件下的條件概率轉(zhuǎn)換成了單一條件下的條件概率,簡化了計算D、樸素貝葉斯不需要使用聯(lián)合概率正確答案:【樸素貝葉斯不需要使用聯(lián)合概率】11、問題:擲二枚骰子,事件A為出現(xiàn)的點數(shù)之和等于3的概率為()選項:A、1/11B、1/18C、1/6D、都不對正確答案:【1/18】12、問題:公司里有一個人穿了運動鞋,推測是男還是女?已知公司里男性30人,女性70人,男性穿運動鞋的有25人,穿拖鞋的有5人,女性穿運動鞋的有40人,穿高跟鞋的有30人。則以下哪項計算錯誤()?選項:A、p(男|運動鞋)=0.25B、p(女|運動鞋)=0.4C、p(運動鞋|男性)=25/30D、p(運動鞋|女性)=0.4正確答案:【p(運動鞋|女性)=0.4】13、問題:根據(jù)以往經(jīng)驗和分析得到的概率。在這里,我們用P(Y)來代表在沒有訓(xùn)練數(shù)據(jù)前假設(shè)Y擁有的初始概率,因此稱其為Y的后驗概率,它反映了我們所擁有的關(guān)于Y的背景知識。選項:A、正確B、錯誤正確答案:【錯誤】14、問題:樸素貝葉斯模型假設(shè)屬性之間相互獨立,這個假設(shè)在實際應(yīng)用中往往是不成立的,在屬性相關(guān)性較小時,樸素貝葉斯性能良好。而在屬性個數(shù)比較多或者屬性之間相關(guān)性較大時,分類效果不好。選項:A、正確B、錯誤正確答案:【正確】15、問題:樸素貝葉斯對缺失數(shù)據(jù)較敏感。選項:A、正確B、錯誤正確答案:【正確】16、問題:判別模型所學(xué)內(nèi)容是決策邊界。選項:A、正確B、錯誤正確答案:【正確】17、問題:邏輯回歸是生成模型,樸素貝葉斯是判別模型選項:A、正確B、錯誤正確答案:【錯誤】18、問題:邏輯回歸和樸素貝葉斯都有對屬性特征獨立的要求選項:A、正確B、錯誤正確答案:【錯誤】19、問題:樸素貝葉斯法的基本假設(shè)是條件獨立性。選項:A、正確B、錯誤正確答案:【正確】20、問題:樸素貝葉斯適用于小規(guī)模數(shù)據(jù)集,邏輯回歸適用于大規(guī)模數(shù)據(jù)集。選項:A、正確B、錯誤正確答案:【錯誤】機器學(xué)習(xí)實踐課后測驗1、問題:以下關(guān)于訓(xùn)練集、驗證集和測試集說法不正確的是()。選項:A、測試集是純粹是用于測試模型泛化能力B、訓(xùn)練集是用來訓(xùn)練以及評估模型性能C、驗證集用于調(diào)整模型參數(shù)D、以上說法都不對正確答案:【訓(xùn)練集是用來訓(xùn)練以及評估模型性能】2、問題:當數(shù)據(jù)分布不平衡時,我們可采取的措施不包括()。選項:A、對數(shù)據(jù)分布較少的類別過采樣B、對數(shù)據(jù)分布較多的類別欠采樣C、對數(shù)據(jù)分布較多的類別賦予更大的權(quán)重D、對數(shù)據(jù)分布較少的類別賦予更大的權(quán)重正確答案:【對數(shù)據(jù)分布較多的類別賦予更大的權(quán)重】3、問題:假設(shè)有100張照片,其中,貓的照片有60張,狗的照片是40張。識別結(jié)果:TP=40,F(xiàn)N=20,F(xiàn)P=10,TN=30,則可以得到:()。選項:A、Accuracy=0.8B、Precision=0.8C、Recall=0.8D、以上都不對正確答案:【Precision=0.8】4、問題:關(guān)于數(shù)據(jù)規(guī)范化,下列說法中錯誤的是()。選項:A、包含標準化和歸一化B、標準化在任何場景下受異常值的影響都很小C、歸一化利用了樣本中的最大值和最小值D、標準化實際上是將數(shù)據(jù)在樣本的標準差上做了等比例的縮放操作正確答案:【標準化在任何場景下受異常值的影響都很小】5、問題:下列哪種方法可以用來緩解過擬合的產(chǎn)生:()。選項:A、增加更多的特征B、正則化C、增加模型的復(fù)雜度D、以上都是正確答案:【正則化】6、問題:以下關(guān)于ROC和PR曲線說法不正確的是()。選項:A、ROC曲線兼顧正例與負例,PR曲線完全聚焦于正例B、如果想測試不同類別分布下分類器性能的影響,ROC曲線更為適合C、ROC曲線不會隨著類別分布的改變而改變D、類別不平衡問題中,ROC曲線比PR曲線估計效果要差正確答案:【類別不平衡問題中,ROC曲線比PR曲線估計效果要差】7、問題:以下關(guān)于偏差(Bias)和方差(Variance)說法正確的是()。選項:A、方差描述的是預(yù)測值與真實值之間的差別B、偏差描述的是預(yù)測值的變化范圍C、獲取更多的訓(xùn)練數(shù)據(jù)可解決高方差的問題D、獲取更多的特征能解決高方差的問題正確答案:【獲取更多的訓(xùn)練數(shù)據(jù)可解決高方差的問題】8、問題:關(guān)于L1正則化和L2正則化說法錯誤的是()。選項:A、L1正則化的功能是使權(quán)重稀疏B、L2正則化的功能是防止過擬合C、L1正則化比L2正則化使用更廣泛D、L1正則化無法有效減低數(shù)據(jù)存儲量正確答案:【L1正則化比L2正則化使用更廣泛】9、問題:隨著訓(xùn)練樣本的數(shù)量越來越大,則該數(shù)據(jù)訓(xùn)練的模型將具有:()。選項:A、低方差B、高方差C、相同方差D、無法判斷正確答案:【低方差】10、問題:隨著訓(xùn)練樣本的數(shù)量越來越大,則該數(shù)據(jù)訓(xùn)練的模型將具有:()。選項:A、低偏差B、高偏差C、相同偏差D、無法判斷正確答案:【相同偏差】11、問題:關(guān)于特征選擇,下列對Ridge回歸和Lasso回歸的說法正確的是:()。選項:A、Ridge回歸適用于特征選擇B、Lasso回歸適用于特征選擇C、兩個都適用于特征選擇D、以上說法都不對正確答案:【Lasso回歸適用于特征選擇】12、問題:一個正負樣本不平衡問題(正樣本99%,負樣本1%)。假如在這個非平衡的數(shù)據(jù)集上建立一個模型,得到訓(xùn)練樣本的正確率是99%,則下列說法正確的是?()選項:A、模型正確率很高,不需要優(yōu)化模型了B、模型正確率并不能反映模型的真實效果C、無法對模型做出好壞評價D、以上說法都不對正確答案:【模型正確率并不能反映模型的真實效果】13、問題:以下關(guān)于交叉驗證說法正確的是()。選項:A、交叉驗證可利用模型選擇避免過擬合的情況B、交叉驗證可對模型性能合理評估C、交叉驗證大大增加了計算量D、以上說法都不對正確答案:【交叉驗證可利用模型選擇避免過擬合的情況#交叉驗證可對模型性能合理評估#交叉驗證大大增加了計算量】14、問題:評價指標中,精確率(Precision)的計算需要哪些數(shù)值()。選項:A、TPB、TNC、FPD、FN正確答案:【TP#FP】15、問題:評價指標中,召回率(Recall)的計算需要哪些數(shù)值()。選項:A、TPB、TNC、FPD、FN正確答案:【TP#FN】16、問題:評估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)該如何解決?()選項:A、減少模型的特征數(shù)量B、增加模型的特征數(shù)量C、增加樣本數(shù)量D、嘗試減少正則化系數(shù)正確答案:【增加模型的特征數(shù)量#嘗試減少正則化系數(shù)】17、問題:特征空間越大,過擬合的可能性越大。選項:A、正確B、錯誤正確答案:【正確】18、問題:L2正則化得到的解更加稀疏。選項:A、正確B、錯誤正確答案:【錯誤】19、問題:SMOTE算法是用了上采樣的方法。選項:A、正確B、錯誤正確答案:【正確】20、問題:100萬條數(shù)據(jù)劃分訓(xùn)練集、驗證集、測試集,數(shù)據(jù)可以這樣劃分:98%,1%,1%。選項:A、正確B、錯誤正確答案:【正確】KNN算法課后測驗1、問題:下列哪個距離度量不在KNN算法中體現(xiàn):()。選項:A、切比雪夫距離B、歐氏距離C、余弦相似度D、曼哈頓距離正確答案:【余弦相似度】2、問題:下列選項中,關(guān)于KNN算法說法不正確是:()。選項:A、能找出與待預(yù)測樣本相近的K個樣本B、默認使用歐氏距離度量C、實現(xiàn)過程相對簡單,但是可解釋性不強D、效率很高正確答案:【效率很高】3、問題:以下距離度量方法中,在城市道路里,要從一個十字路口開車到另外一個十字路口的距離是:()。選項:A、夾角余弦B、切比雪夫距離C、曼哈頓距離D、歐氏距離正確答案:【曼哈頓距離】4、問題:以下關(guān)于KD樹的說法錯誤的是()。選項:A、KD樹是一種對k維空間的數(shù)據(jù)進行存儲以便于快速檢索的樹形數(shù)據(jù)結(jié)構(gòu)B、KD樹主要用于多維空間關(guān)鍵數(shù)據(jù)的檢索C、KD樹節(jié)點與k維中垂直與超平面的那一維有關(guān)D、所有x值小于指定值的節(jié)點會出現(xiàn)在右子樹正確答案:【所有x值小于指定值的節(jié)點會出現(xiàn)在右子樹】5、問題:利用KD樹進行搜索時,正確的方式是()。選項:A、查詢數(shù)據(jù)從子節(jié)點開始B、若數(shù)據(jù)小于對應(yīng)節(jié)點中k維度的值,則訪問左節(jié)點C、回溯過程是為了找距離較遠的點D、回溯的判斷過程是從上往下進行的正確答案:【若數(shù)據(jù)小于對應(yīng)節(jié)點中k維度的值,則訪問左節(jié)點】6、問題:以下哪項是KNN算法的缺點?()選項:A、低精度B、對異常值不敏感C、計算成本高D、需要的內(nèi)存非常少正確答案:【計算成本高】7、問題:關(guān)于余弦相似度,不正確的是()。選項:A、余弦相似度的范圍為[-1,1]B、余弦相似度的結(jié)果和向量的長度無關(guān)C、余弦相似度為-1時候,兩個向量完全不相關(guān)D、余弦相似度為1的時候,兩個向量完全相關(guān)正確答案:【余弦相似度為-1時候,兩個向量完全不相關(guān)】8、問題:KD樹(K-DimensionTree)的描述中,不正確的是()。選項:A、KD樹是二叉樹B、KD樹可以用更高的效率來對空間進行劃分C、KD樹的結(jié)構(gòu)非常適合尋找最近鄰居和碰撞檢測D、KD樹切分時,從方差小的維度開始切分正確答案:【KD樹切分時,從方差小的維度開始切分】9、問題:假設(shè)有6個二維數(shù)據(jù)點:D={(2,3),(5,7),(9,6),(4,5),(6,4),(7,2)},第一次切分時候,切分線為()。選項:A、x=5B、x=6C、y=5D、y=6正確答案:【x=6】10、問題:KNN算法在什么情況下效果較好?()選項:A、樣本較多但典型性不好B、樣本較少但典型性好C、樣本呈團狀分布D、樣本呈鏈狀分布正確答案:【樣本較少但典型性好】11、問題:關(guān)于KNN算法的描述,不正確的是()。選項:A、可以用于分類B、可以用于回歸C、距離度量的方式通常用曼哈頓距離D、K值的選擇一般選擇一個較小的值正確答案:【距離度量的方式通常用曼哈頓距離】12、問題:兩個向量的長度分別為1和2,兩者之間的夾角為60度,則以下選項錯誤的是()。選項:A、余弦相似度為0.5B、余弦相似度為正C、余弦相似度沒法計算,因為沒給出具體坐標值D、余弦相似度的值與向量的長度無關(guān),只和向量之間的夾角有關(guān)正確答案:【余弦相似度沒法計算,因為沒給出具體坐標值】13、問題:影響KNN算法效果的主要因素包括()。選項:A、K的值B、距離度量方式C、決策規(guī)則D、最鄰近數(shù)據(jù)的距離正確答案:【K的值#距離度量方式#決策規(guī)則】14、問題:以下關(guān)于KNN說法正確的是(多選)()。選項:A、計算復(fù)雜度低B、對數(shù)據(jù)沒有假設(shè)C、對異常值不敏感D、可解釋性好正確答案:【計算復(fù)雜度低#對數(shù)據(jù)沒有假設(shè)#對異常值不敏感】15、問題:閔可夫斯基距離中的p取1或2時的閔氏距離是最為常用的,以下哪項是正確的:()。選項:A、p取1時是曼哈頓距離B、p取2時是歐氏距離C、p取無窮時是切比雪夫距離D、閔可夫斯基空間不同于牛頓力學(xué)的平坦空間正確答案:【p取1時是曼哈頓距離#p取2時是歐氏距離#p取無窮時是切比雪夫距離#閔可夫斯基空間不同于牛頓力學(xué)的平坦空間】16、問題:KNN算法的缺點包括以下幾點?()選項:A、可解釋性差,無法給出決策樹那樣的規(guī)則B、對訓(xùn)練數(shù)據(jù)依賴度特別大,當樣本不平衡的時候,對少數(shù)類的預(yù)測準確率低C、對異常值敏感D、計算復(fù)雜性高;空間復(fù)雜性高,尤其是特征數(shù)非常多的時候正確答案:【可解釋性差,無法給出決策樹那樣的規(guī)則#對訓(xùn)練數(shù)據(jù)依賴度特別大,當樣本不平衡的時候,對少數(shù)類的預(yù)測準確率低#計算復(fù)雜性高;空間復(fù)雜性高,尤其是特征數(shù)非常多的時候】17、問題:兩個向量的余弦相似度越接近1,說明兩者越相似。選項:A、正確B、錯誤正確答案:【正確】18、問題:k近鄰法(k-NearestNeighbor,kNN)是一種比較成熟也是最簡單的機器學(xué)習(xí)算法,可以用于分類,但不能用于回歸方法。選項:A、正確B、錯誤正確答案:【錯誤】19、問題:KNN沒有顯示的訓(xùn)練過程,它在訓(xùn)練階段只是把數(shù)據(jù)保存下來,訓(xùn)練時間開銷為0,等收到測試樣本后進行處理。選項:A、正確B、錯誤正確答案:【正確】20、問題:KNN分類的時候,對新的樣本,根據(jù)其k個最近鄰的訓(xùn)練樣本的類別,通過多數(shù)表決等方式進行預(yù)測。選項:A、正確B、錯誤正確答案:【正確】決策樹課后測驗1、問題:以下關(guān)于決策樹特點分析的說法錯誤的有()。選項:A、推理過程容易理解,計算簡單B、算法考慮了數(shù)據(jù)屬性之間的相關(guān)性C、算法自動忽略了對模型沒有貢獻的屬性變量D、算法容易造成過擬合正確答案:【算法考慮了數(shù)據(jù)屬性之間的相關(guān)性】2、問題:以下關(guān)于決策樹原理介紹錯誤的有()。選項:A、決策樹算法屬于無監(jiān)督學(xué)習(xí)B、決策樹算法本質(zhì)上是貪心算法C、決策樹生成過程中需要用到分割法D、決策樹決策過程從根節(jié)點開始正確答案:【決策樹算法屬于無監(jiān)督學(xué)習(xí)】3、問題:我們想要在大數(shù)據(jù)集上訓(xùn)練決策樹模型,為了使用較少的時間,可以:()。選項:A、增加樹的深度B、增大學(xué)習(xí)率C、減少樹的深度D、減少樹的數(shù)量正確答案:【減少樹的深度】4、問題:以下關(guān)于決策樹算法說法錯誤的是()。選項:A、ID3算法選擇信息增益最大的特征作為當前決策節(jié)點B、C4.5算法選擇信息增益率來選擇屬性C、C4.5算法不能用于處理不完整數(shù)據(jù)D、CART算法選擇基尼系數(shù)來選擇屬性正確答案:【C4.5算法不能用于處理不完整數(shù)據(jù)】5、問題:以下關(guān)于剪枝操作說法正確的是()。選項:A、CART采用的是悲觀策略的預(yù)剪枝B、ID3沒有剪枝策略C、C4.5采用的是基于代價函數(shù)的后剪枝D、以上說法都不對正確答案:【ID3沒有剪枝策略】6、問題:C4.5選擇屬性用的是()。選項:A、信息增益B、信息增益率C、交叉熵D、信息熵正確答案:【信息增益率】7、問題:7.哪種決策樹沒有剪枝操作()。選項:A、C4.5B、CARTC、ID3D、以上都不對正確答案:【ID3】8、問題:以下那種說法是錯誤的()。選項:A、信息增益=信息熵-條件熵B、一個系統(tǒng)越是混亂,隨機變量的不確定性就越大,信息熵就越高C、一個系統(tǒng)越是有序,信息熵就越低D、中國足球隊戰(zhàn)勝巴西足球隊的信息熵要小于中國乒乓球隊戰(zhàn)勝巴西乒乓球隊的信息熵正確答案:【中國足球隊戰(zhàn)勝巴西足球隊的信息熵要小于中國乒乓球隊戰(zhàn)勝巴西乒乓球隊的信息熵】9、問題:ID3算法的缺點不包括()。選項:A、ID3沒有剪枝策略,容易過擬合B、信息增益準則對可取值數(shù)目較多的特征有所偏好,類似“編號”的特征其信息增益接近于1C、既能用于處理離散分布的特征,也能用于連續(xù)分布的特征處理D、沒有考慮缺失值正確答案:【既能用于處理離散分布的特征,也能用于連續(xù)分布的特征處理】10、問題:關(guān)于CART算法,錯誤的是()。選項:A、可以處理樣本不平衡問題B、CART分類樹采用基尼系數(shù)的大小來度量特征的各個劃分點C、CART算法既可以處理分類問題,也可以處理回歸問題D、CART算法采用信息增益率的大小來度量特征的各個劃分點正確答案:【CART算法采用信息增益率的大小來度量特征的各個劃分點】11、問題:關(guān)于C4.5算法,錯誤的是()。選項:A、C4.5算法采用基尼系數(shù)的大小來度量特征的各個劃分點B、C4.5算法可以處理非離散的數(shù)據(jù)C、C4.5算法引入悲觀剪枝策略進行后剪枝D、C4.5算法最大的特點是克服了ID3對特征數(shù)目的偏重這一缺點正確答案:【C4.5算法采用基尼系數(shù)的大小來度量特征的各個劃分點】12、問題:ID3選擇屬性用的是()。選項:A、信息增益B、信息增益率C、交叉熵D、信息熵正確答案:【信息增益】13、問題:決策樹有哪些代表算法()。選項:A、CNNB、C4.5C、CARTD、ID3正確答案:【C4.5#CART#ID3】14、問題:以下那種算法需要對數(shù)據(jù)進行歸一化或者標準化()。選項:A、邏輯回歸B、決策樹C、KNND、線性回歸正確答案:【邏輯回歸#KNN#線性回歸】15、問題:關(guān)于剪枝,以下算法正確的是:()。選項:A、決策樹剪枝的基本策略有預(yù)剪枝和后剪枝B、ID3算法沒有剪枝操作C、剪枝是防止過擬合的手段D、C4.5算法沒有剪枝操作正確答案:【決策樹剪枝的基本策略有預(yù)剪枝和后剪枝#ID3算法沒有剪枝操作#剪枝是防止過擬合的手段】16、問題:決策樹的說法正確的是()。選項:A、它易于理解、可解釋性強B、其可作為分類算法,也可用于回歸模型C、CART使用的是二叉樹D、不能處理連續(xù)型特征正確答案:【它易于理解、可解釋性強#其可作為分類算法,也可用于回歸模型#CART使用的是二叉樹】17、問題:ID3算法的核心思想就是以信息增益來度量特征選擇,選擇信息增益最大的特征進行分裂。選項:A、正確B、錯誤正確答案:【正確】18、問題:C4.5是通過代價復(fù)雜度剪枝。選項:A、正確B、錯誤正確答案:【錯誤】19、問題:ID3算法只能用于處理離散分布的特征。選項:A、正確B、錯誤正確答案:【正確】20、問題:ID3和C4.5和CART都只能用于分類問題,不能用于回歸問題。選項:A、正確B、錯誤正確答案:【錯誤】集成學(xué)習(xí)課后測驗1、問題:在隨機森林里,你生成了幾百顆樹(T1,T2…..Tn),然后對這些樹的結(jié)果進行綜合,下面關(guān)于隨機森林中每顆樹的說法正確的是?()選項:A、每棵樹是通過數(shù)據(jù)集的子集和特征的子集構(gòu)建的B、每棵樹是通過所有的特征構(gòu)建的C、每棵樹是通過所有的數(shù)據(jù)構(gòu)建的D、以上都不對正確答案:【每棵樹是通過數(shù)據(jù)集的子集和特征的子集構(gòu)建的】2、問題:以下關(guān)于集成學(xué)習(xí)特性說法錯誤的是()。選項:A、集成學(xué)習(xí)需要各個弱分類器之間具備一定的差異性B、弱分類器的錯誤率不能高于0.5C、集成多個線性分類器也無法解決非線性分類問題D、當訓(xùn)練數(shù)據(jù)集較大時,可分為多個子集,分別進行訓(xùn)練分類器再合成正確答案:【集成多個線性分類器也無法解決非線性分類問題】3、問題:以下關(guān)于隨機森林(RandomForest)說法正確的是()。選項:A、隨機森林由若干決策樹組成,決策樹之間存在關(guān)聯(lián)性B、隨機森林學(xué)習(xí)過程分為選擇樣本、選擇特征、構(gòu)建決策樹、投票四個部分C、隨機森林算法容易陷入過擬合D、隨機森林構(gòu)建決策樹時,是無放回的選取訓(xùn)練數(shù)據(jù)正確答案:【隨機森林學(xué)習(xí)過程分為選擇樣本、選擇特征、構(gòu)建決策樹、投票四個部分】4、問題:以下關(guān)于AdaBoost算法說法正確的是()。選項:A、AdaBoost使用的損失函數(shù)是指數(shù)函數(shù)B、在訓(xùn)練過程中,若某個樣本點已經(jīng)被準確分類,則在構(gòu)造下一個訓(xùn)練集時,該樣本的權(quán)重會下降C、在投票時,分類誤差小的弱分類器權(quán)重較小D、以上說法都不對正確答案:【AdaBoost使用的損失函數(shù)是指數(shù)函數(shù)】5、問題:以下關(guān)于GBDT算法說法錯誤的是()。選項:A、GBDT是由多棵回歸樹組成B、GBDT泛化能力較強C、GBDT使用的是放回采樣D、GBDT需要使用剪枝操作正確答案:【GBDT使用的是放回采樣】6、問題:XGBoost算法說法錯誤的是()選項:A、XGBoost算法的目標函數(shù)采用了二階泰勒展開B、XGBoost算法的速度要比GBDT快C、XGBoost算法要求對數(shù)據(jù)進行歸一化或者標準化D、XGBoost算法的效果通常優(yōu)于傳統(tǒng)的機器學(xué)習(xí)模型正確答案:【XGBoost算法要求對數(shù)據(jù)進行歸一化或者標準化】7、問題:關(guān)于Bagging方法,以下說法錯誤的是()選項:A、對各弱分類器的訓(xùn)練可以通過并行方式完成B、最終分類結(jié)果是由各弱分類器以一定的方式投票決定的C、由于各分類器是獨立的,弱分類器的訓(xùn)練數(shù)據(jù)也是相互獨立的D、對各弱分類器的訓(xùn)練可以通過串行方式進行正確答案:【對各弱分類器的訓(xùn)練可以通過串行方式進行】8、問題:Adboost的優(yōu)點不包括()選項:A、分類精度高B、對異常點敏感,異常點會獲得較高權(quán)重C、可以用各種回歸分類模型來構(gòu)建弱學(xué)習(xí)器,非常靈活D、不容易發(fā)生過擬合正確答案:【對異常點敏感,異常點會獲得較高權(quán)重】9、問題:LightGBM與XGBoost相比,主要的優(yōu)勢不包括()選項:A、更快的訓(xùn)練速度B、更低的內(nèi)存消耗C、更好的準確率D、采用二階泰勒展開加快收斂正確答案:【采用二階泰勒展開加快收斂】10、問題:隨機森林和GBDT的描述不正確的是()選項:A、兩者都是由多棵樹組成,最終的結(jié)果都是由多棵樹一起決定B、兩者都是使用了Boosting思想C、隨機森林最終是多棵樹進行多數(shù)表決(回歸問題是取平均),而GBDT是加權(quán)融合D、隨機森林每次迭代的樣本是從全部訓(xùn)練集中有放回抽樣形成的,而GBDT每次使用全部樣本正確答案:【兩者都是使用了Boosting思想】11、問題:以下那種算法不是集成學(xué)習(xí)算法()選項:A、隨機森林B、AdaBoostC、XGBoostD、決策樹正確答案:【決策樹】12、問題:GBDT算法的描述,不正確的是()選項:A、決策樹+Boosting=GBDTB、GBDT算法主要是用了Boosting方法C、GBDT與AdaBoost的對比,都是Boosting家族成員,使用弱分類器;都使用前向分步算法D、梯度提升算法通過迭代地選擇一個梯度方向上的基函數(shù)來逐漸逼近局部極小值正確答案:【梯度提升算法通過迭代地選擇一個梯度方向上的基函數(shù)來逐漸逼近局部極小值】13、問題:集成學(xué)習(xí)有以下哪幾種代表算法(多選)()。選項:A、隨機森林B、AdaBoostC、SVMD、K-means正確答案:【隨機森林#AdaBoost】14、問題:下面關(guān)于隨機森林和梯度提升集成方法的說法哪個是正確的?(多選)()選項:A、這兩種方法都可以用來做分類B、隨機森林用來做分類,梯度提升用來做回歸C、隨機森林用來做回歸,梯度提升用來做分類D、兩種方法都可以用來做回歸正確答案:【這兩種方法都可以用來做分類#兩種方法都可以用來做回歸】15、問題:LightGBM與XGBoost相比,主要有以下幾個改進:(多選)()選項:A、基于梯度的單邊采樣算法(Gradient-basedOne-SideSampling,GOSS)B、互斥特征捆綁算法(ExclusiveFeatureBundling,EFB)C、直方圖算法(Histogram)D、基于最大深度的Leaf-wise的垂直生長算法正確答案:【基于梯度的單邊采樣算法(Gradient-basedOne-SideSampling,GOSS)#互斥特征捆綁算法(ExclusiveFeatureBundling,EFB)#直方圖算法(Histogram)#基于最大深度的Leaf-wise的垂直生長算法】16、問題:GBDT由哪三個概念組成:()選項:A、RegressionDecisionTree(即DT)B、GradientBoosting(即GB)C、Shrinkage(縮減)D、Bootstrap(自助采樣法)正確答案:【RegressionDecisionTree(即DT)#GradientBoosting(即GB)#Shrinkage(縮減)】17、問題:XGBoost對損失函數(shù)做了二階泰勒展開,GBDT只用了一階導(dǎo)數(shù)信息,并且XGBoost還支持自定義損失函數(shù),只要損失函數(shù)一階、二階可導(dǎo)。()選項:A、正確B、錯誤正確答案:【正確】18、問題:集成學(xué)習(xí)的數(shù)據(jù)不需要歸一化或者標準化。選項:A、正確B、錯誤正確答案:【正確】19、問題:LightGBM在建樹過程中,采用基于最大深度的Leaf-wise的垂直生長算法。選項:A、正確B、錯誤正確答案:【正確】20、問題:隨機森林和GBDT都是使用了Bagging思想。選項:A、正確B、錯誤正確答案:【錯誤】人工神經(jīng)網(wǎng)絡(luò)課后測驗1、問題:以下關(guān)于感知器說法錯誤的是:()。選項:A、感知器是最簡單的前饋式人工神經(jīng)網(wǎng)絡(luò)B、感知器中的偏置只改變決策邊界的位置C、單層感知器可以用于處理非線性學(xué)習(xí)問題D、可為感知器的輸出值設(shè)置閾值使其用于處理分類問題正確答案:【單層感知器可以用于處理非線性學(xué)習(xí)問題】2、問題:關(guān)于BP算法特點描述錯誤的是()。選項:A、計算之前不需要對訓(xùn)練數(shù)據(jù)進行歸一化B、輸入信號順著輸入層、隱層、輸出層依次傳播C、預(yù)測誤差需逆向傳播,順序是輸出層、隱層、輸入層D、各個神經(jīng)元根據(jù)預(yù)測誤差對權(quán)值進行調(diào)整正確答案:【計算之前不需要對訓(xùn)練數(shù)據(jù)進行歸一化】3、問題:關(guān)于BP算法優(yōu)缺點的說法錯誤的是()。選項:A、BP算法不能用于處理非線性分類問題B、BP算法訓(xùn)練時間較長C、BP算法容易陷入局部最小值D、BP算法訓(xùn)練時候可能由于權(quán)值調(diào)整過大使得激活函數(shù)達到飽和正確答案:【BP算法不能用于處理非線性分類問題】4、問題:關(guān)于BP算法信號前向傳播的說法正確的是()。選項:A、A.BP算法信號傳播的順序是輸出層、隱層、輸入層。B、B.BP算法信號前向傳播的計算量跟輸入層神經(jīng)元數(shù)目無關(guān)C、C.BP算法在計算正向傳播輸出值時需要考慮激活函數(shù)D、D.BP算法只有在隱層才有激活函數(shù)正確答案:【C.BP算法在計算正向傳播輸出值時需要考慮激活函數(shù)】5、問題:以下關(guān)于Sigmoid的特點說法錯誤的是()。選項:A、Sigmoid函數(shù)計算量小B、可以將函數(shù)值的范圍壓縮到[0,1]C、函數(shù)處處連續(xù)D、趨向無窮的地方,函數(shù)變化很小,容易出現(xiàn)梯度消失的現(xiàn)象正確答案:【Sigmoid函數(shù)計算量小】6、問題:關(guān)于BP算法反向傳播的說法正確的是()。選項:A、BP算法反向傳播的預(yù)測誤差值一般由真實標簽值和預(yù)測標簽值的差計算得來B、BP算法反向傳播的目的是只對權(quán)值進行更新C、BP算法反向傳播進行更新時一般用到微積分的鏈式傳播法則D、BP算法更新量與步長關(guān)系不大正確答案:【BP算法反向傳播進行更新時一般用到微積分的鏈式傳播法則】7、問題:以下關(guān)于學(xué)習(xí)率說法錯誤的是()。選項:A、學(xué)習(xí)率的選擇不能太大也不能太小B、學(xué)習(xí)率太大會導(dǎo)致無法收斂C、學(xué)習(xí)率太小會使得算法陷入局部極小點D、學(xué)習(xí)率必須是固定不變的正確答案:【學(xué)習(xí)率必須是固定不變的】8、問題:BP算法總結(jié)錯誤的是()。選項:A、算法只要知道上一層神經(jīng)元的閾值梯度,就能計算當前層神經(jīng)元的閾值梯度和連接權(quán)值梯度B、當前層的連接權(quán)值梯度,取決于當前層神經(jīng)元閾值梯度和上一層神經(jīng)元輸出C、隱層的閾值梯度只跟本層的神經(jīng)元輸出值有關(guān)D、隱層閾值梯度取決于隱層神經(jīng)元輸出、輸出層閾值梯度和隱層與輸出層的連接權(quán)值正確答案:【隱層的閾值梯度只跟本層的神經(jīng)元輸出值有關(guān)】9、問題:為避免BP算法在迭代過程中出現(xiàn)局部極小值的問題,那么采取以下哪種方法可行()。選項:A、盡量減小迭代的學(xué)習(xí)率B、在每一輪迭代中都賦予一定的概率接受次優(yōu)解,但是概率隨迭代不斷降低C、令初始值為較大的值D、以上做法都不可行正確答案:【在每一輪迭代中都賦予一定的概率接受次優(yōu)解,但是概率隨迭代不斷降低】10、問題:Minsky在上世紀60年代末指出了神經(jīng)網(wǎng)絡(luò)算法的哪種缺點,使得神經(jīng)網(wǎng)絡(luò)算法陷入低潮()。選項:A、早期的神經(jīng)網(wǎng)絡(luò)算法需要訓(xùn)練的參數(shù)太多B、早期的神經(jīng)網(wǎng)絡(luò)算法無法收斂C、早期的神經(jīng)網(wǎng)絡(luò)算法無法處理非線性學(xué)習(xí)問題D、早期的神經(jīng)網(wǎng)絡(luò)的收斂速度太慢正確答案:【早期的神經(jīng)網(wǎng)絡(luò)算法無法處理非線性學(xué)習(xí)問題】11、問題:神經(jīng)網(wǎng)絡(luò)算法有時會出現(xiàn)過擬合的情況,那么采取以下哪些方法解決過擬合更為可行()。選項:A、為參數(shù)選取多組初始值,分別訓(xùn)練,再選取一組作為最優(yōu)值B、增大學(xué)習(xí)的步長C、減少訓(xùn)練數(shù)據(jù)集中數(shù)據(jù)的數(shù)量D、設(shè)置一個正則項減小模型的復(fù)雜度正確答案:【設(shè)置一個正則項減小模型的復(fù)雜度】12、問題:以下關(guān)于極限學(xué)習(xí)機(ELM)說法錯誤的是()。選項:A、ELM有多個隱藏層B、ELM學(xué)習(xí)速度非常快,因為需要更新的變量數(shù)目很少C、ELM隱藏層的權(quán)值是初始時隨機賦值的,在迭代中不對其進行更新D、ELM也分輸入層、隱藏層和輸出層三層正確答案:【ELM有多個隱藏層】13、問題:隱藏層中常用的激活函數(shù)有(多選)()。選項:A、SigmoidB、CosC、TanhD、ReLU正確答案:【Sigmoid#Tanh#ReLU】14、問題:一般的多層感知器包含幾種類型層次的神經(jīng)元()。選項:A、輸入層B、輸出層C、卷積層D、隱藏層正確答案:【輸入層#輸出層#隱藏層】15、問題:關(guān)于BP算法優(yōu)點說法正確的是()。選項:A、BP算法能夠自適應(yīng)學(xué)習(xí)B、BP算法有很強的非線性映射能力C、BP算法反向傳播采用鏈式法則,推導(dǎo)過程嚴謹D、BP算法泛化能力不強正確答案:【BP算法能夠自適應(yīng)學(xué)習(xí)#BP算法有很強的非線性映射能力#BP算法反向傳播采用鏈式法則,推導(dǎo)過程嚴謹】16、問題:關(guān)于BP算法缺點的說法正確的是()。選項:A、BP算法更新沒有明確的公式,需要不斷試湊,才能決定隱層節(jié)點數(shù)量B、BP算法涉及參數(shù)數(shù)量很多,因此更新速度慢C、BP算法迭代速度不快,即使提高學(xué)習(xí)率也無濟于事D、BP算法很容易陷入局部極小值問題正確答案:【BP算法更新沒有明確的公式,需要不斷試湊,才能決定隱層節(jié)點數(shù)量#BP算法涉及參數(shù)數(shù)量很多,因此更新速度慢#BP算法很容易陷入局部極小值問題】17、問題:BP算法“喜新厭舊”,在學(xué)習(xí)新樣本后,會把舊樣本逐漸遺忘。選項:A、正確B、錯誤正確答案:【正確】18、問題:BP算法的反向傳播是為了對權(quán)值進行調(diào)整。選項:A、正確B、錯誤正確答案:【正確】19、問題:BP算法的正向傳播是為獲取訓(xùn)練誤差。選項:A、正確B、錯誤正確答案:【正確】20、問題:BP算法陷入局部極小值的問題可通過更換激活函數(shù)解決。選項:A、正確B、錯誤正確答案:【錯誤】支持向量機課后測驗1、問題:對于在原空間中線性不可分問題,支持向量機()。選項:A、在原空間中尋找非線性函數(shù)的劃分數(shù)據(jù)B、無法處理C、在原空間中尋找線性函數(shù)劃分數(shù)據(jù)D、將數(shù)據(jù)映射到核空間中正確答案:【將數(shù)據(jù)映射到核空間中】2、問題:關(guān)于支持向量機中硬間隔和軟間隔的說法錯誤的是()。選項:A、軟間隔允許一定的樣本分類錯誤B、硬間隔要求所有數(shù)據(jù)分類完全準確,不允許出現(xiàn)錯誤C、軟間隔有利于獲取更大的分類間隔D、硬間隔有利于消除模型的過擬合正確答案:【硬間隔有利于消除模型的過擬合】3、問題:關(guān)于各類核函數(shù)的優(yōu)缺點說法錯誤的是:()。選項:A、線性核計算簡單,可解釋性強B、高斯核能夠應(yīng)對較為復(fù)雜的數(shù)據(jù)C、多項式核需要多次特征轉(zhuǎn)換D、高斯核計算簡單,不容易過擬合正確答案:【高斯核計算簡單,不容易過擬合】4、問題:如果一個樣本空間線性可分,那么,我們能找到()個平面來劃分樣本。選項:A、不確定B、1C、無數(shù)D、2正確答案:【無數(shù)】5、問題:SVM算法的最小時間復(fù)雜度是O(n^2)?;谶@一點,以下哪種規(guī)格的數(shù)據(jù)集并不適用于該算法?()選項:A、大數(shù)據(jù)集B、小數(shù)據(jù)集C、中數(shù)據(jù)集D、不受數(shù)據(jù)集大小的影響正確答案:【大數(shù)據(jù)集】6、問題:線性SVM和一般線性分類器的區(qū)別主要是:()。選項:A、是否進行了空間映射B、是否確保間隔最大化C、是否能處理線性不可分問題D、訓(xùn)練誤差通常較低正確答案:【是否確保間隔最大化】7、問題:在SVM中,margin的含義是()選項:A、差額B、損失誤差C、間隔D、幅度正確答案:【間隔】8、問題:SVM算法的性能取決于:()選項:A、核函數(shù)的選擇B、核函數(shù)的參數(shù)C、軟間隔參數(shù)CD、以上所有正確答案:【以上所有】9、問題:SVM中的代價參數(shù)C表示什么?選項:A、交叉驗證的次數(shù)B、用到的核函數(shù)C、在分類準確性和模型復(fù)雜度之間的權(quán)衡D、以上都不對正確答案:【在分類準確性和模型復(fù)雜度之間的權(quán)衡】10、問題:一個正例(2,3),一個負例(0,-1),下面哪個是SVM超平面?()選項:A、2x+y-4=0B、2y+x-5=0C、x+2y-3=0D、無法計算正確答案:【x+2y-3=0】11、問題:SVM原理描述不正確的是()。選項:A、當訓(xùn)練樣本線性可分時,通過硬間隔最大化,學(xué)習(xí)一個線性分類器,即線性可分支持向量機B、當訓(xùn)練數(shù)據(jù)近似線性可分時,引入松弛變量,通過軟間隔最大化,學(xué)習(xí)一個線性分類器,即線性支持向量機C、當訓(xùn)練數(shù)據(jù)線性不可分時,通過使用核技巧及軟間隔最大化,學(xué)習(xí)非線性支持向量機D、SVM的基本模型是在特征空間中尋找間隔最小化的分離超平面的線性分類器正確答案:【SVM的基本模型是在特征空間中尋找間隔最小化的分離超平面的線性分類器】12、問題:SVM普遍使用的準則描述不正確的是:()(n為特征數(shù),m為訓(xùn)練樣本數(shù)。)選項:A、如果相較于m而言,n要大許多,即訓(xùn)練集數(shù)據(jù)量不夠支持我們訓(xùn)練一個復(fù)雜的非線性模型,我們選用邏輯回歸模型或者不帶核函數(shù)的支持向量機。B、如果n較小,而且m大小中等,例如n在1-1000之間,而m在10-10000之間,使用高斯核函數(shù)的支持向量機。C、支持向量機理論上不能處理太多的特征。D、如果n較小,而m較大,例如n在1-1000之間,而m大于50000,則使用支持向量機會非常慢,解決方案是創(chuàng)造、增加更多的特征,然后使用邏輯回歸或不帶核函數(shù)的支持向量機。正確答案:【支持向量機理論上不能處理太多的特征?!?3、問題:以下關(guān)于支持向量機的說法正確的是()。選項:A、SVM適用于大規(guī)模數(shù)據(jù)集B、SVM分類思想就是將分類面之間的間隔最小化C、SVM方法簡單,魯棒性較好D、SVM分類面取決于支持向量正確答案:【SVM方法簡單,魯棒性較好#SVM分類面取決于支持向量】14、問題:支持向量機有哪些常用的核函數(shù)()。選項:A、高斯核B、拉普拉斯核C、線性核D、多項式核正確答案:【高斯核#線性核#多項式核】15、問題:下面關(guān)于支持向量機的描述正確的是()。選項:A、是一種監(jiān)督學(xué)習(xí)的方法B、可用于多分類的問題C、支持非線性的核函數(shù)D、是一種生成模型正確答案:【是一種監(jiān)督學(xué)習(xí)的方法#可用于多分類的問題#支持非線性的核函數(shù)】16、問題:關(guān)于SVM的描述正確的是:()選項:A、支持向量機模型定義在特征空間上的間隔最大的線性分類器B、支持向量機可以通過核技巧,這使之成為實質(zhì)上的非線性分類器C、支持向量機的學(xué)習(xí)策略就是間隔最大化D、支持向量機訓(xùn)練時候,數(shù)據(jù)不需要歸一化或者標準化正確答案:【支持向量機模型定義在特征空間上的間隔最大的線性分類器#支持向量機可以通過核技巧,這使之成為實質(zhì)上的非線性分類器#支持向量機的學(xué)習(xí)策略就是間隔最大化】17、問題:SVM是這樣一個分類器,他尋找具有最小邊緣的超平面,因此它也經(jīng)常被稱為最小間隔分類器(minimalmarginclassifier)。選項:A、正確B、錯誤正確答案:【錯誤】18、問題:SVM的數(shù)據(jù)需要歸一化或者標準化。選項:A、正確B、錯誤正確答案:【正確】19、問題:支持向量是最靠近決策表面的數(shù)據(jù)點。選項:A、正確B、錯誤正確答案:【正確】20、問題:SVM中核函數(shù)將高維空間中的數(shù)據(jù)映射到低維空間。選項:A、正確B、錯誤正確答案:【錯誤】聚類課后測驗1、問題:1聚類屬于哪種學(xué)習(xí)方式()。選項:A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、強化學(xué)習(xí)D、都不屬于正確答案:【無監(jiān)督學(xué)習(xí)】2、問題:下列關(guān)于Kmeans聚類算法的說法錯誤的是()。選項:A、對大數(shù)據(jù)集有較高的效率并且具有可伸縮性B、是一種無監(jiān)督學(xué)習(xí)方法C、K值無法自動獲取,初始聚類中心隨機選擇D、初始聚類中心的選擇對聚類結(jié)果影響不大正確答案:【初始聚類中心的選擇對聚類結(jié)果影響不大】3、問題:以下關(guān)于K-means算法錯誤的有()。選項:A、K-means算法需要指定簇的個數(shù)B、K-means算法本質(zhì)上是EM(期望最大化)方法C、K-means算法不會出現(xiàn)局部極小值的問題D、K-means在重新計算質(zhì)心,簇會發(fā)生變化正確答案:【K-means算法不會出現(xiàn)局部極小值的問題】4、問題:以下不屬于聚類算法的是()。選項:A、K-meansB、DBSCANC、AprioriD、AGENES正確答案:【Apriori】5、問題:簡單地將數(shù)據(jù)對象集劃分成不重疊的子集,使得每個數(shù)據(jù)對象恰在一個子集中,這種聚類類型稱作()。選項:A、層次聚類B、劃分聚類C、非互斥聚類D、密度聚類正確答案:【劃分聚類】6、問題:關(guān)于K均值和DBSCAN的比較,以下說法不正確的是()。選項:A、DBSCAN使用基于密度的概念B、K均值使用簇的基于層次的概念C、K均值很難處理非球形的簇和不同大小的簇D、DBSCAN可以處理不同大小和不同形狀的簇。正確答案:【K均值使用簇的基于層次的概念】7、問題:關(guān)于聚類的說法正確的有()選項:A、其目的是根據(jù)過去的觀測結(jié)果來預(yù)測新樣本的標簽為聚類B、聚類的算法訓(xùn)練樣本往往都不含有標簽C、聚類算法對于孤立的野值不敏感D、聚類算法的更新步驟可解釋性不強正確答案:【聚類的算法訓(xùn)練樣本往往都不含有標簽】8、問題:關(guān)于kmean算法的實現(xiàn)描述錯誤的是()選項:A、收斂速度慢B、原理簡單,實現(xiàn)容易C、可以輕松發(fā)現(xiàn)非凸形狀的簇D、需要事先確定k的值正確答案:【可以輕松發(fā)現(xiàn)非凸形狀的簇】9、問題:以下哪些不是聚類中用于衡量度量距離的指標()。選項:A、漢明距離B、馬氏距離C、曼哈頓距離D、歐式距離正確答案:【馬氏距離】10、問題:以下哪些可作為kmeans方法停止循環(huán)的指標()。選項:A、當各個類中心還在發(fā)生偏移的時候B、當所有的野值點均隸屬于一個簇的時候C、當循環(huán)數(shù)超過某一個閾值的時候D、當所有數(shù)據(jù)隸屬的簇不再發(fā)生變化的時候正確答案:【當所有數(shù)據(jù)隸屬的簇不再發(fā)生變化的時候】11、問題:關(guān)于密度聚類和層次聚類說法錯誤的是()。選項:A、密度聚類對噪聲數(shù)據(jù)非常敏感B、密度聚類假設(shè)類結(jié)構(gòu)能通過樣本分布的緊密程度確定C、層次聚類對給定的數(shù)據(jù)進行有層次的分解,直到滿足條件為止D、層次聚類有自底向上和自頂向下兩種策略正確答案:【密度聚類對噪聲數(shù)據(jù)非常敏感】12、問題:當簇內(nèi)樣本點數(shù)量大于某個閾值時,便將該簇進行拆分,這種聚類方式為()。選項:A、層次聚類B、劃分聚類C、非互斥聚類D、密度聚類正確答案:【密度聚類】13、問題:13聚類的代表算法有()。選項:A、PCAB、SVDC、DBSCAND、K-means正確答案:【DBSCAN#K-means】14、問題:下面哪些是聚類的評價指標()。選項:A、均一性B、完整性C、輪廓系數(shù)D、決定系數(shù)R正確答案:【均一性#完整性#輪廓系數(shù)】15、問題:關(guān)于層次聚類,正確的是()。選項:A、分裂聚類是從上而下進行聚類B、聚合聚類是從下而上進行聚類C、層次聚類又有聚合聚類(自下而上)、分裂聚類(自上而下)兩種方法D、因為每個樣本只屬于一個簇,所以層次聚類屬于硬聚類正確答案:【分裂聚類是從上而下進行聚類#聚合聚類是從下而上進行聚類#層次聚類又有聚合聚類(自下而上)、分裂聚類(自上而下)兩種方法#因為每個樣本只屬于一個簇,所以層次聚類屬于硬聚類】16、問題:關(guān)于DBSCAN算法,以下說法正確的是()。選項:A、DBSCAN算法是一種基于劃分的聚類算法B、DBSCAN算法將點分成核心點、邊界點和噪音點三類C、DBSCAN算法是一種基于密度的聚類算法D、DBSCAN算法需要在指定簇的個數(shù)正確答案:【DBSCAN算法將點分成核心點、邊界點和噪音點三類#DBSCAN算法是一種基于密度的聚類算法】17、問題:如果一個對象不強屬于任何簇,那么該對象是基于聚類的離群點。選項:A、正確B、錯誤正確答案:【正確】18、問題:K均值是一種產(chǎn)生劃分聚類的基于密度的聚類算法,簇的個數(shù)由算法自動地確定。選項:A、正確B、錯誤正確答案:【錯誤】19、問題:在聚類分析當中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差。選項:A、正確B、錯誤正確答案:【錯誤】20、問題:DBSCAN是相對抗噪聲的,并且能夠處理任意形狀和大小的簇。選項:A、正確B、錯誤正確答案:【正確】降維課后測驗1、問題:以下關(guān)于降維的說法不正確的是?選項:A、降維是將訓(xùn)練樣本從高維空間轉(zhuǎn)換到低維空間B、降維不會對數(shù)據(jù)產(chǎn)生損傷C、通過降維可以更有效地發(fā)掘有意義的數(shù)據(jù)結(jié)構(gòu)D、降維將有助于實現(xiàn)數(shù)據(jù)可視化正確答案:【降維不會對數(shù)據(jù)產(chǎn)生損傷】2、問題:降維屬于哪種類型的學(xué)習(xí)問題()。選項:A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、強化學(xué)習(xí)D、以上都不是正確答案:【無監(jiān)督學(xué)習(xí)】3、問題:以下關(guān)于SVD說法正確的有()。選項:A、SVD可將矩陣分解成三個矩陣的乘積,其中存在兩個對角陣B、SVD并不要求分解矩陣必須是方陣C、特征向量組成的矩陣并不要求必須是酉矩陣D、以上說法都不對正確答案:【SVD并不要求分解矩陣必須是方陣】4、問題:以下關(guān)于PCA說法正確的是()。選項:A、PCA是一種監(jiān)督學(xué)習(xí)算法B、PCA在轉(zhuǎn)換后的第一個新坐標軸選擇的是原始數(shù)據(jù)中方差最小的方向C、PCA轉(zhuǎn)換后選擇的第一個方向是最主要特征D、PCA不需要對數(shù)據(jù)進行歸一化處理正確答案:【PCA轉(zhuǎn)換后選擇的第一個方向是最主要特征】5、問題:以下哪些是PCA算法的主要應(yīng)用()。選項:A、聚類B、距離度量C、數(shù)據(jù)壓縮D、分類正確答案:【數(shù)據(jù)壓縮】6、問題:關(guān)于PCA特點說法錯誤的是()。選項:A、PCA算法完全沒有參數(shù)限制B、PCA算法很難去除噪聲C、PCA可以降低算法的計算開銷D、PCA算法需要對對象有一定的先驗知識正確答案:【PCA算法很難去除噪聲】7、問題:關(guān)于PCA和SVD比較錯誤的是()。選項:A、PCA和SVD都可以用于降低維度B、SVD可以用來計算偽逆C、PCA只能獲取單個方向的主成分D、PCA無需進行零均值化正確答案:【PCA無需進行零均值化】8、問題:關(guān)于維數(shù)災(zāi)難的說法錯誤的是()。選項:A、高維度數(shù)據(jù)增加了運算難度B、降低高維度數(shù)據(jù)維度會對數(shù)據(jù)有所損傷C、高維度數(shù)據(jù)可使得算法泛化能力變得越來越強D、高維度數(shù)據(jù)難以可視化正確答案:【高維度數(shù)據(jù)可使得算法泛化能力變得越來越強】9、問題:降維涉及的投影矩陣一般要求正交,正交矩陣用于投影的優(yōu)缺點說法正確的是()。選項:A、正交矩陣不便于進行降維和重構(gòu)計算B、正交矩陣投影變換之后的矩陣不同坐標之間是不相關(guān)的C、坐標之間去相關(guān)后必定有利于提高后續(xù)的學(xué)習(xí)性能D、以上說法都不對正確答案:【正交矩陣投影變換之后的矩陣不同坐標之間是不相關(guān)的】10、問題:哪些類型的數(shù)據(jù)適合做降維()。選項:A、原始維度不高的數(shù)據(jù)B、特征之間存在線性關(guān)系的數(shù)據(jù)C、維度很高且各個維度之間相關(guān)性比較弱的數(shù)據(jù)D、以上數(shù)據(jù)都不適合做降維正確答案:【特征之間存在線性關(guān)系的數(shù)據(jù)】11、問題:幾種常見的降維算法有共同特點有()。選項:A、均為無監(jiān)督學(xué)習(xí)算法B、均不要求數(shù)據(jù)符合高斯分布C、都利用了矩陣分解的思想D、都會導(dǎo)致數(shù)據(jù)過擬合正確答案:【都利用了矩陣分解的思想】12、問題:以下關(guān)于SVD的優(yōu)化過程說法錯誤的是()。選項:A、SVD分解的矩陣不要求是方陣B、SVD分解出三個矩陣的乘積的形式,其中一個是奇異值矩陣,另外兩個是奇異向量組成的矩陣C、奇異值跟特征值性質(zhì)完全不同D、前面幾個奇異值占了全部奇異值之和的絕大部分正確答案:【奇異值跟特征值性質(zhì)完全不同】13、問題:降維的優(yōu)點有哪些()。選項:A、減小訓(xùn)練時間B、方便實現(xiàn)數(shù)據(jù)可視化C、方便消除冗余特征D、可明顯提高學(xué)習(xí)性能正確答案:【減小訓(xùn)練時間#方便實現(xiàn)數(shù)據(jù)可視化#方便消除冗余特征】14、問題:下
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 張家口消防水泵合同范本
- 商業(yè)公寓合同范本
- 代牧合同范本
- 小學(xué)素質(zhì)教育課程實施方案
- 跨學(xué)科項目學(xué)情反饋方案
- 醫(yī)療事故報告與統(tǒng)計制度
- 生態(tài)園林建設(shè)施工組織方案
- 實驗室設(shè)備定期維護與自檢制度
- 環(huán)?;顒訌V告牌設(shè)計與制作方案
- 銀行崗位季度工作計劃
- 6_背景調(diào)查表
- 自然資源資產(chǎn)負債表編制制度(試行)
- (完整版)鋼結(jié)構(gòu)工程施工質(zhì)量驗收規(guī)范
- 微生物限度方法學(xué)驗證
- 一種半導(dǎo)體激光器多模光纖耦合技術(shù)
- LNG新能源動力船舶制造項目建議書寫作模板
- 基于機器視覺的工作分揀控制系統(tǒng)論文
- 廢氣管道方案
- PLC的基本指令
- 計算機畢業(yè)論文8000字范文
- 關(guān)于格賓石籠的設(shè)計計算的探討
評論
0/150
提交評論