版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
機(jī)器學(xué)習(xí)基礎(chǔ)智慧樹知到期末考試答案2024年機(jī)器學(xué)習(xí)基礎(chǔ)?訓(xùn)練完SVM模型后,不是支持向量的那些樣本我們可以丟掉,也可以繼續(xù)分類。()
A:對(duì)B:錯(cuò)答案:對(duì)PCA會(huì)選取信息量最少的方向進(jìn)行投影。()
A:正確B:錯(cuò)誤答案:錯(cuò)誤支持向量機(jī)是那些最接近決策平面的數(shù)據(jù)點(diǎn)。()
A:錯(cuò)B:對(duì)答案:對(duì)在各類機(jī)器學(xué)習(xí)算法中,過擬合和欠擬合都是可以徹底避免的。()
A:錯(cuò)誤B:正確答案:錯(cuò)誤線性回歸是一種有監(jiān)督機(jī)器學(xué)習(xí)算法,它使用真實(shí)的標(biāo)簽進(jìn)行訓(xùn)練。()
A:錯(cuò)誤B:正確答案:正確K近鄰是一種比較成熟也是比較簡(jiǎn)單的機(jī)器學(xué)習(xí)算法,主要用于分類問題。()
A:錯(cuò)誤B:正確答案:錯(cuò)誤決策樹學(xué)習(xí)是一種逼近離散值目標(biāo)函數(shù)的方法,學(xué)習(xí)到的函數(shù)被表示為一棵決策樹。()
A:錯(cuò)誤B:正確答案:正確K均值算法,是一種原型聚類算法。()
A:對(duì)B:錯(cuò)答案:對(duì)KNN分類的時(shí)候,對(duì)新的樣本,根據(jù)其k個(gè)最近鄰的訓(xùn)練樣本的類別,通過多數(shù)表決等方式進(jìn)行預(yù)測(cè)。()
A:錯(cuò)誤B:正確答案:正確一般的,一棵決策樹包含一個(gè)根結(jié)點(diǎn)、若干個(gè)內(nèi)部結(jié)點(diǎn)和若干個(gè)葉結(jié)點(diǎn);葉結(jié)點(diǎn)對(duì)應(yīng)于決策結(jié)果,其他每個(gè)結(jié)點(diǎn)則對(duì)應(yīng)于一個(gè)屬性測(cè)試;根結(jié)點(diǎn)包含樣本全集。()
A:錯(cuò)誤B:正確答案:正確K均值聚類時(shí),初始質(zhì)心不好會(huì)導(dǎo)致收斂速度差。()
A:錯(cuò)B:對(duì)答案:對(duì)根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性,這是一個(gè)回歸問題。()
A:正確B:錯(cuò)誤答案:錯(cuò)誤K-Means聚類分析使用目標(biāo)字段,預(yù)測(cè)某一結(jié)果。()
A:對(duì)B:錯(cuò)答案:錯(cuò)樸素貝葉斯模型假設(shè)屬性之間相互獨(dú)立,這個(gè)假設(shè)在實(shí)際應(yīng)用中往往是不成立的,在屬性相關(guān)性較小時(shí),樸素貝葉斯性能良好。而在屬性個(gè)數(shù)比較多或者屬性之間相關(guān)性較大時(shí),分類效果不好。()
A:錯(cuò)誤B:正確答案:正確K-Means的計(jì)算性能瓶頸發(fā)生在距離的計(jì)算上。()
A:對(duì)B:錯(cuò)答案:對(duì)支持向量機(jī)求解不可以采用梯度下降方法求解最優(yōu)值。()
A:錯(cuò)誤B:正確答案:錯(cuò)誤樸素貝葉斯法對(duì)缺失數(shù)據(jù)較敏感。()
A:正確B:錯(cuò)誤答案:正確邏輯回歸算法是一種廣義的線性回歸分析方法,它僅在線性回歸算法的基礎(chǔ)上,利用Sigmoid函數(shù)對(duì)事件發(fā)生的概率進(jìn)行預(yù)測(cè)。()。
A:錯(cuò)誤B:正確答案:正確梯度下降,就是沿著函數(shù)的梯度(導(dǎo)數(shù))方向更新自變量,使得函數(shù)的取值越來越小,直至達(dá)到全局最小或者局部最小。()
A:正確B:錯(cuò)誤答案:正確SVM中核函數(shù)將高維空間中的數(shù)據(jù)映射到低維空間。()
A:正確B:錯(cuò)誤答案:錯(cuò)誤以下屬于關(guān)聯(lián)規(guī)則分析的是()。
A:股票趨勢(shì)建模B:購(gòu)物籃分析C:自動(dòng)判斷鳶尾花類別D:CPU性能預(yù)測(cè)答案:購(gòu)物籃分析下面關(guān)于回歸分析的描述錯(cuò)誤的是()
A:回歸分析按照涉及的變量的多少,分為一元回歸和多元回歸分析B:按照因變量的多少,可分為線性回歸分析和非線性回歸分析C:是確定兩種或兩種以上變量間相互依賴的定量關(guān)系的一種統(tǒng)計(jì)分析方法D:在大數(shù)據(jù)分析中,回歸分析是一種預(yù)測(cè)性的建模技術(shù)答案:按照因變量的多少,可分為線性回歸分析和非線性回歸分析我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了使用較少時(shí)間,我們可以()。
A:增加樹的深度B:增加學(xué)習(xí)率C:減少樹的深度D:減少樹的數(shù)量答案:減少樹的深度下述哪一個(gè)是機(jī)器學(xué)習(xí)的合理定義。()
A:機(jī)器學(xué)習(xí)是允許機(jī)器人智能行動(dòng)的領(lǐng)域B:機(jī)器學(xué)習(xí)能使計(jì)算機(jī)能夠在沒有明確編程的情況下學(xué)習(xí)C:機(jī)器學(xué)習(xí)是計(jì)算機(jī)編程的科學(xué)D:機(jī)器學(xué)習(xí)從標(biāo)記的數(shù)據(jù)中學(xué)習(xí)答案:機(jī)器學(xué)習(xí)能使計(jì)算機(jī)能夠在沒有明確編程的情況下學(xué)習(xí)以下哪個(gè)距離度量不在KNN算法中體現(xiàn)()
A:切比雪夫距離B:余弦相似度C:曼哈頓距離D:歐氏距離答案:余弦相似度一個(gè)正例(2,3),一個(gè)負(fù)例(0,-1),下面哪個(gè)是SVM超平面()
A:2x+y-4=0B:無法計(jì)算C:2y+x-5=0D:x+2y-3=0答案:x+2y-3=0在logistic回歸中將輸出y視為樣本x屬于正例的概率。給定訓(xùn)練數(shù)據(jù)集,通常采用()來估計(jì)參數(shù)w和b,最大化樣本屬于其真實(shí)類標(biāo)記的概率的對(duì)數(shù),即最大化對(duì)數(shù)似然。
A:交叉驗(yàn)證法B:極大似然法C:最小二乘法D:留出法答案:極大似然法下列選項(xiàng)中,關(guān)于KNN算法說法不正確是()
A:算法相對(duì)簡(jiǎn)單,但是可解釋性不強(qiáng)B:默認(rèn)使用歐氏距離C:能找出與待預(yù)測(cè)樣本相近的K個(gè)樣本D:效率很高答案:效率很高線性回歸方程中,回歸系數(shù)b為負(fù)數(shù),表明自變量與因變量為()
A:顯著相關(guān)B:不相關(guān)C:負(fù)相關(guān)D:正相關(guān)答案:負(fù)相關(guān)KNN最近鄰方法在()情況下效果較好?
A:樣本較多但典型性不好B:樣本呈鏈狀分布C:樣本呈團(tuán)狀分布D:樣本較少但典型性好答案:樣本較少但典型性好一個(gè)計(jì)算機(jī)程序從經(jīng)驗(yàn)E中學(xué)習(xí)任務(wù)T,并用P來衡量表現(xiàn)。并且,T的表現(xiàn)P隨著經(jīng)驗(yàn)E的增加而提高。假設(shè)我們給一個(gè)學(xué)習(xí)算法輸入了很多歷史天氣的數(shù)據(jù),讓它學(xué)會(huì)預(yù)測(cè)天氣。P的合理選擇是()。
A:其它都不對(duì)B:計(jì)算大量歷史氣象數(shù)據(jù)的過程C:天氣預(yù)報(bào)任務(wù)D:正確預(yù)測(cè)未來日期天氣的概率答案:正確預(yù)測(cè)未來日期天氣的概率假設(shè)你訓(xùn)練SVM后,得到一個(gè)線性決策邊界,你認(rèn)為該模型欠擬合。在下次迭代訓(xùn)練模型時(shí),應(yīng)該考慮()
A:減少特征B:減少訓(xùn)練數(shù)據(jù)C:計(jì)算更多變量D:增加訓(xùn)練數(shù)據(jù)答案:計(jì)算更多變量以下關(guān)于邏輯回歸與線性回歸問題的描述錯(cuò)誤的是()。
A:邏輯回歸用于處理分類問題,線性回歸用于處理回歸問題B:線性回歸計(jì)算方法一般是最小二乘法,邏輯回歸的參數(shù)計(jì)算方法是似然估計(jì)法C:線性回歸要求輸入輸出值呈線性關(guān)系,邏輯回歸不要求D:邏輯回歸一般要求變量服從正態(tài)分布,線性回歸一般不要求答案:邏輯回歸一般要求變量服從正態(tài)分布,線性回歸一般不要求邏輯回歸模型可以解決線性不可分問題嗎?()。
A:不可以B:可以C:其它說法都不對(duì)D:視數(shù)據(jù)具體情況而定答案:不可以數(shù)據(jù)預(yù)處理對(duì)機(jī)器學(xué)習(xí)是很重要的,下面說法正確的是()。
A:數(shù)據(jù)預(yù)處理的效果直接決定了機(jī)器學(xué)習(xí)的結(jié)果質(zhì)量B:數(shù)據(jù)噪聲對(duì)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練沒什么影響C:對(duì)于有問題的數(shù)據(jù)都直接刪除即可D:預(yù)處理不需要花費(fèi)大量的時(shí)間答案:數(shù)據(jù)預(yù)處理的效果直接決定了機(jī)器學(xué)習(xí)的結(jié)果質(zhì)量關(guān)于樸素貝葉斯,下列說法錯(cuò)誤的是()
A:樸素的意義在于它的一個(gè)假設(shè):所有特征之間是相互獨(dú)立的B:它實(shí)際上是將多條件下的條件概率轉(zhuǎn)換成了單一條件下的條件概率,簡(jiǎn)化了計(jì)算C:樸素貝葉斯不需要使用聯(lián)合概率D:它是一個(gè)分類算法答案:樸素貝葉斯不需要使用聯(lián)合概率下列關(guān)于線性回歸分析中殘差說法正確的是()
A:殘差均值總是為零B:殘差均值總是大于零C:其它說法都不對(duì)D:殘差均值總是小于零答案:殘差均值總是大于零傳統(tǒng)機(jī)器學(xué)習(xí)的應(yīng)用領(lǐng)域有()。
A:銷售預(yù)測(cè)B:信用風(fēng)險(xiǎn)檢測(cè)C:商品推薦D:語音合成答案:信用風(fēng)險(xiǎn)檢測(cè)###銷售預(yù)測(cè)###商品推薦關(guān)于剪枝,以下算法正確的是()。
A:剪枝是防止過擬合的手段B:決策樹剪枝的基本策略有預(yù)剪枝和后剪枝C:ID3算法沒有剪枝操作D:C4.5算法沒有剪枝操作答案:ID3算法沒有剪枝操作###決策樹剪枝的基本策略有預(yù)剪枝和后剪枝###剪枝是防止過擬合的手段下面屬于降維常用的技術(shù)的有()
A:特征提取B:奇異值分解C:主成分分析D:離散化答案:主成分分析###奇異值分解以下關(guān)于PCA說法正確的是()
A:PCA各個(gè)主成分維度解釋性強(qiáng)B:PCA運(yùn)算結(jié)果受到屬性方差的影響C:PCA運(yùn)算時(shí)需要進(jìn)行特征值分解D:PCA各個(gè)主成分之間正交答案:PCA各個(gè)主成分之間正交###PCA運(yùn)算時(shí)需要進(jìn)行特征值分解###PCA運(yùn)算結(jié)果受到屬性方差的影響假設(shè)您正在使用隨機(jī)梯度下降訓(xùn)練邏輯回歸分類器。你發(fā)現(xiàn)在過去的500個(gè)例子中,成本(即,500個(gè)例子平均后)繪制為迭代次數(shù)的函數(shù),隨時(shí)間緩慢增加。以下哪項(xiàng)更改可能有幫助()。
A:從訓(xùn)練集中取更少的例子。B:試著在圖中用較少的例子(比如250個(gè)例子而不是500個(gè))來平均成本。C:這在隨機(jī)梯度下降的情況下是不可能的,因?yàn)樗WC收斂到最優(yōu)參數(shù)。D:嘗試將學(xué)習(xí)率減半(減少),看看這是否會(huì)導(dǎo)致成本持續(xù)下降;如果沒有,繼續(xù)減半直到成本會(huì)持續(xù)下降。答案:AI參考:選項(xiàng)D:“嘗試將學(xué)習(xí)率減半(減少),看看這是否會(huì)導(dǎo)致成本持續(xù)下降;如果沒有,繼續(xù)減半直到成本會(huì)持續(xù)下降?!盶n\n原因分析:在隨機(jī)梯度下降中,學(xué)習(xí)率是一個(gè)重要的超參數(shù),它決定了模型在每次更新參數(shù)時(shí)的步長(zhǎng)大小。當(dāng)學(xué)習(xí)率設(shè)置過高時(shí),模型的更新可能會(huì)過于激進(jìn),從而導(dǎo)致梯度下降不能穩(wěn)定地收斂到全局最優(yōu)解。題干中描述的情況可能就是由于學(xué)習(xí)率設(shè)置過高導(dǎo)致的。因此,通過降低學(xué)習(xí)率,可以減小模型的更新步長(zhǎng),從而有助于模型更穩(wěn)定地收斂到全局最優(yōu)解。如果降低學(xué)習(xí)率后成本持續(xù)下降,那么說明降低學(xué)習(xí)率是有效的;如果沒有效果,那么可以繼續(xù)降低學(xué)習(xí)率,直到成本能夠持續(xù)下降為止。\n\n其他選項(xiàng)的分析:\n\nA選項(xiàng):減少訓(xùn)練集中樣本的數(shù)量可能會(huì)影響模型的泛化能力,因?yàn)槟P涂赡軣o法學(xué)到足夠的樣本間的差異。\n\nB選項(xiàng):減少訓(xùn)練樣本的數(shù)量可能會(huì)影響模型的性能,因?yàn)槟P涂赡軣o法學(xué)到足夠的樣本間的差異。\n\nC選項(xiàng):雖然隨機(jī)梯度下降可以保證收斂到全局最優(yōu)解,但這并不意味著成本會(huì)隨時(shí)間緩慢增加。因此,該選項(xiàng)不能解決題干中的問題。\n\n因此,答案為D:嘗試將學(xué)習(xí)率減半(減少),看看這是否會(huì)導(dǎo)致成本持續(xù)下降;如果沒有,繼續(xù)減半直到成本會(huì)持續(xù)下降。'下列關(guān)于K-means聚類算法的說法錯(cuò)誤的是()。
A:對(duì)大數(shù)據(jù)集有較高的效率并且具有可伸縮性B:是一種無監(jiān)督學(xué)習(xí)方法C:初始聚類中心的選擇對(duì)聚類結(jié)果影響不大D:K值無法自動(dòng)獲取,初始聚類中心隨機(jī)選擇答案:AI參考:關(guān)于K-means聚類算法的說法錯(cuò)誤的是:初始聚類中心的選擇對(duì)聚類結(jié)果影響不大。\n\nK-means算法是一種迭代的、基于距離的聚類方法,其核心思想是:對(duì)于每一個(gè)聚類,選擇一個(gè)具有代表性的數(shù)據(jù)點(diǎn)作為聚類中心。初始聚類中心的選擇會(huì)影響到后續(xù)的聚類結(jié)果,但在某些情況下,初始聚類中心的選擇可能不會(huì)對(duì)最終的聚類結(jié)果產(chǎn)生太大的影響。\n\n其他選項(xiàng)中,A選項(xiàng)正確,K-means算法對(duì)大數(shù)據(jù)集有較高的效率并且具有可伸縮性;B選項(xiàng)正確,K-means算法是一種無監(jiān)督學(xué)習(xí)方法;D選項(xiàng)正確,K值無法自動(dòng)獲取,需要手動(dòng)設(shè)定。因此,本題的正確答案是C選項(xiàng)。'以下說法哪些是正確的?()
A:在使用KNN算法時(shí),k通常取偶數(shù)B:在使用KNN算法時(shí),k取值越大,模型越容易過擬合C:KNN和k-means都是無監(jiān)督學(xué)習(xí)算法D:KNN是有監(jiān)督學(xué)習(xí)算法答案:AI參考:在給出的四個(gè)選項(xiàng)中,正確說法為:\n\nD:KNN是有監(jiān)督學(xué)習(xí)算法。\n\n解釋如下:\n\nA選項(xiàng)錯(cuò)誤,因?yàn)樵贙近鄰算法中,k是一個(gè)參數(shù),通常取一個(gè)正整數(shù),不是一個(gè)偶數(shù)。\n\nB選項(xiàng)錯(cuò)誤,k值越大,表示在數(shù)據(jù)集中考慮更多的鄰居,可以減少誤分類的可能性,但并不是說模型容易過擬合。實(shí)際上,K近鄰算法對(duì)噪聲數(shù)據(jù)的魯棒性較好,但容易對(duì)過度復(fù)雜的數(shù)據(jù)產(chǎn)生過擬合。\n\nC選項(xiàng)錯(cuò)誤,K近鄰算法是一種有監(jiān)督學(xué)習(xí)算法,而k-means是一種無監(jiān)督學(xué)習(xí)算法。\n\nD選項(xiàng)正確,K近鄰算法是一種有監(jiān)督學(xué)習(xí)算法,用于分類和回歸分析。\n\n因此,正確答案是D:KNN是有監(jiān)督學(xué)習(xí)算法。'以下說法錯(cuò)誤的是()
A:線性回歸(LinearRegression)是利用數(shù)理統(tǒng)計(jì)中回歸分析,來確定兩種或兩種以上變量間相互依賴的定量關(guān)系的一種統(tǒng)計(jì)分析方法B:這種函數(shù)是一個(gè)或多個(gè)稱為回歸系數(shù)的模型參數(shù)的線性組合C:線性回歸利用稱為線性回歸方程的最小平方函數(shù)對(duì)一個(gè)或多個(gè)自變量和因變量之間關(guān)系進(jìn)行建模D:只有一個(gè)自變量的情況稱為多元回歸,大于一個(gè)自變量情況的叫做簡(jiǎn)單回歸答案:AI參考:答案是D:只有一個(gè)自變量的情況稱為多元回歸,大于一個(gè)自變量情況的叫做簡(jiǎn)單回歸。\n\n線性回歸分析只包含一個(gè)自變量和因變量的情況,也被稱為簡(jiǎn)單回歸。在有多個(gè)自變量和因變量的情況下,使用的是多元回歸分析。所以,D選項(xiàng)說法錯(cuò)誤。其他選項(xiàng)描述的是線性回歸分析的基本概念,都是正確的。'K-means是一種迭代算法,在其內(nèi)部循環(huán)中重復(fù)執(zhí)行以下兩個(gè)步驟是()。
A:簇中心分配步驟,其中每個(gè)簇質(zhì)心被分配(通過設(shè)置)到最近的訓(xùn)練示例B:移動(dòng)簇中心,將其設(shè)置為等于最近的訓(xùn)練示例C:移動(dòng)簇中心,更新簇中心。D:分配簇,計(jì)算距離。答案:"AI參考:正確選項(xiàng)是:C:移動(dòng)簇中心,更新簇中心。K-means是一種迭代算法,在其內(nèi)部循環(huán)中重復(fù)執(zhí)行以下兩個(gè)步驟:移動(dòng)簇中心和更新簇中心。在每個(gè)迭代中,算法會(huì)重新分配訓(xùn)練樣本到最近的簇,并更新每個(gè)簇的質(zhì)心位置,以便能夠更好地代表該簇的平均特征。因此,選項(xiàng)C是正確的描述。選項(xiàng)A和B是移動(dòng)簇中心的描述,但沒有提及如何更新簇中心;選項(xiàng)D則描述了分配簇和計(jì)算距離的過程,但與K-mea
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025版學(xué)校食堂肉類食材采購(gòu)及食品安全風(fēng)險(xiǎn)評(píng)估與培訓(xùn)服務(wù)合同3篇
- 二零二五年度高端定制家具采購(gòu)合同范本9篇
- 2025版小區(qū)停車場(chǎng)租賃合同附停車場(chǎng)升級(jí)改造及智慧化服務(wù)協(xié)議3篇
- 二零二五版鍋爐采購(gòu)、安裝及智能化節(jié)能系統(tǒng)合同3篇
- 2025年度美容行業(yè)美容院美容產(chǎn)品品牌推廣合同范本4篇
- 全新2025年度技術(shù)咨詢合同3篇
- 2025版團(tuán)購(gòu)業(yè)務(wù)金融風(fēng)險(xiǎn)管理合同3篇
- 公共基礎(chǔ)-2021年試驗(yàn)檢測(cè)師《公共基礎(chǔ)》真題
- 土壤生物技術(shù)改良策略考核試卷
- 居民健康自我管理培訓(xùn)考核試卷
- 2024版塑料購(gòu)銷合同范本買賣
- JJF 2184-2025電子計(jì)價(jià)秤型式評(píng)價(jià)大綱(試行)
- GB/T 44890-2024行政許可工作規(guī)范
- 2024年安徽省中考數(shù)學(xué)試卷含答案
- 2025屆山東省德州市物理高三第一學(xué)期期末調(diào)研模擬試題含解析
- 2024年滬教版一年級(jí)上學(xué)期語文期末復(fù)習(xí)習(xí)題
- 兩人退股協(xié)議書范文合伙人簽字
- 2024版【人教精通版】小學(xué)英語六年級(jí)下冊(cè)全冊(cè)教案
- 汽車噴漆勞務(wù)外包合同范本
- 2024年重慶南開(融僑)中學(xué)中考三模英語試題含答案
- 2023年最新的校長(zhǎng)給教師春節(jié)祝福語
評(píng)論
0/150
提交評(píng)論