![機器學習(山東聯(lián)盟)知到章節(jié)答案智慧樹2023年山東財經(jīng)大學_第1頁](http://file4.renrendoc.com/view/be25adccbbdd895891e21c024060390d/be25adccbbdd895891e21c024060390d1.gif)
![機器學習(山東聯(lián)盟)知到章節(jié)答案智慧樹2023年山東財經(jīng)大學_第2頁](http://file4.renrendoc.com/view/be25adccbbdd895891e21c024060390d/be25adccbbdd895891e21c024060390d2.gif)
![機器學習(山東聯(lián)盟)知到章節(jié)答案智慧樹2023年山東財經(jīng)大學_第3頁](http://file4.renrendoc.com/view/be25adccbbdd895891e21c024060390d/be25adccbbdd895891e21c024060390d3.gif)
![機器學習(山東聯(lián)盟)知到章節(jié)答案智慧樹2023年山東財經(jīng)大學_第4頁](http://file4.renrendoc.com/view/be25adccbbdd895891e21c024060390d/be25adccbbdd895891e21c024060390d4.gif)
![機器學習(山東聯(lián)盟)知到章節(jié)答案智慧樹2023年山東財經(jīng)大學_第5頁](http://file4.renrendoc.com/view/be25adccbbdd895891e21c024060390d/be25adccbbdd895891e21c024060390d5.gif)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領
文檔簡介
機器學習(山東聯(lián)盟)知到章節(jié)測試答案智慧樹2023年最新山東財經(jīng)大學第一章測試
對西瓜的成熟度進行預測得到結(jié)果為0.51,這屬于()學習任務。
參考答案:
回歸
在學習過程中,X表示數(shù)據(jù)集,Y是所有標記的集合,也稱為()。
參考答案:
輸出空間
機器學習算法在學習過程中可能獲得多個不同的模型,在解決“什么樣的模型更好”這一問題時遵循“若有多個假設與觀察一致,則選最簡單的那個”,即()原則。
參考答案:
奧卡姆剃刀
機器學習是整個人工智能的核心,機器學習算法的特征之一就是()。
參考答案:
模型
模型的泛化能力是指
參考答案:
適用于新樣本的能力
下列關于學習算法的說法正確的是
參考答案:
要談論算法的相對優(yōu)劣,必須要針對具體的學習問題;學習算法必須有某種偏好,才能產(chǎn)出它認為“正確”的模型;在某些問題上表現(xiàn)好的學習算法,在另一些問題上卻可能不盡人意
獲得假設(模型)空間時,從特殊到一般的過程屬于
參考答案:
泛化;歸納
機器學習可以應用在下列哪些領域()
參考答案:
商業(yè)營銷;自動駕駛汽車;搜索引擎;天氣預報
根據(jù)訓練數(shù)據(jù)是否擁有標記信息,學習任務可以分為()。
參考答案:
無監(jiān)督;監(jiān)督;半監(jiān)督
演繹是從一般到特殊的"特化"過程,即從基礎原理推演出具體狀況
參考答案:
對
分類預測的是離散值
參考答案:
對
分類和回歸是無監(jiān)督學習
參考答案:
錯
奧卡姆剃刀原則:即“若有多個假設與觀察一致,選最簡單的一個”。
參考答案:
對
實際應用中,“一個模型肯定比另一個模型具有更強的泛化能力”的這種情況是不存在的。
參考答案:
對
機器學習的目標就是獲得與訓練集一致的假設。
參考答案:
對
第二章測試
測試性能隨著測試集的變化而變化
參考答案:
對
以下關于回歸的說法中,不正確的是()。
參考答案:
回歸的目標屬性是離散的
下列關于查全率和查準率的說法哪種正確()。
參考答案:
查全率和查準率存在著互逆關系
關于性能比較和模型選擇,下列說法正確的是()。
參考答案:
測試性能隨著測試集的變化而變化
模型的評估方法不包括()。
參考答案:
計分法
模型評估方法中留出法的缺點是()。
參考答案:
只能得到一個評估值。
選擇模型的依據(jù)包括()。
參考答案:
泛化性能;時間開銷;可解釋性;存儲開銷
以下哪些方法可以用于單個學習器性能的比較()。
參考答案:
二項檢驗;t-檢驗
模型的泛化性能由()決定。
參考答案:
學習算法的能力;學習任務本身的難度;數(shù)據(jù)的充分性
解決過擬合的方案包括()。
參考答案:
選擇合適的迭代次數(shù)停止模型的學習;引入正則項
以下哪些是可能導致模型過擬合的原因()
參考答案:
訓練集和測試集特征分布不一致;學習迭代次數(shù)過多;訓練集數(shù)量級和模型復雜度不匹配,訓練集的數(shù)量級小于模型的復雜度
過擬合不可以徹底避免。
參考答案:
對
回歸任務最常用的性能度量是“查準率和查全率”
參考答案:
錯
訓練數(shù)據(jù)較少時更容易發(fā)生欠擬合
參考答案:
對
方差度量了學習算法期望預測與真實結(jié)果的偏離程度
參考答案:
錯
第三章測試
線性回歸目的是學得一個()以盡可能準確地預測實值輸出標記
參考答案:
線性模型
線性回歸模型中,聯(lián)系函數(shù)g(?)為對數(shù)幾率函數(shù)ln(y/(1-y))時,該線性模型成為()
參考答案:
對數(shù)幾率回歸
線性判別分析可通過該投影減小樣本點的維數(shù),且投影過程中使用了類別信息。因此,線性判別分析也常被視為一種經(jīng)典的()
參考答案:
監(jiān)督降維技術(shù)
解決類別不平衡的方法包括()
參考答案:
過采樣;閾值移動;欠采樣
在線性模型的基礎上,引入層級結(jié)構(gòu)或高維映射,構(gòu)成非線性模型。因此,非線性模型可以轉(zhuǎn)換為線性模型。
參考答案:
對
線性判別分析(LDA)設法將樣例投影到一條直線上,使得同類樣例的投影點盡可能接近
參考答案:
對
分類學習任務中,若不同類別的訓練樣本數(shù)目差別很大時,對學習過程沒有明顯影響
參考答案:
錯
線性模型學得的參數(shù)ω直觀地表達了各屬性在預測中的重要性,因此,該模型具有較好的可解釋性。
參考答案:
對
線性判別分析在對新樣例進行分類時,將其投影到曲線上,再根據(jù)投影點的位置來確定新樣本的類別。
參考答案:
錯
基于均方誤差最小化來進行模型求解的方法,稱為“最小二乘法”。
參考答案:
對
線性判別分析模型中,同類樣本的投影點盡可能近,即同類樣本的協(xié)方差盡可能小
參考答案:
對
在分類學習任務中,若正例遠少于反例時,可以通過增加一些正例解決類別不平衡問題。
參考答案:
對
線性回歸目的是學得多項式模型以盡可能準確地預測實值輸出標記。
參考答案:
錯
單一屬性的線性回歸目標函數(shù)為f(x)=ωx+b使得min(f(x)–y)2
參考答案:
對
常用的廣義線性回歸有單位躍階函數(shù)、對數(shù)線性回歸、對數(shù)幾率回歸
參考答案:
對
第四章測試
在屬性劃分中,信息增益越大,結(jié)點的純度()
參考答案:
提升越大
決策樹算法的泛化性能提升,則驗證集精度()
參考答案:
提高
多變量決策樹中的非葉子節(jié)點是對()屬性的線性組合進行測試。
參考答案:
若干個
決策樹的結(jié)點包含()
參考答案:
內(nèi)部結(jié)點;根結(jié)點;葉結(jié)點
決策樹學習算法中,預留一部分數(shù)據(jù)用作“驗證集”,進行性能評估,決定是否剪枝。
參考答案:
對
決策樹模型中,隨著劃分過程不斷進行,我們希望結(jié)點的“純度”越來越小。
參考答案:
錯
決策樹學習的目的是為了產(chǎn)生一棵泛化能力強,即處理未見示例能力強的決策樹
參考答案:
對
決策樹學習算法中,屬性a的信息增益越大,則使用該屬性進行劃分所獲得的“純度提升”越大。
參考答案:
對
決策樹學習算法中,隨著劃分過程不斷進行,我們希望決策樹的分支結(jié)點所包含的樣本盡可能屬于不同類別。
參考答案:
錯
基尼指數(shù),反映了從D中隨機抽取兩個樣本,其類別標記一致的概率
參考答案:
錯
預剪枝策略降低了過擬合風險。
參考答案:
對
基尼值可以度量樣本集合的純度。
參考答案:
對
現(xiàn)實學習任務中,常會遇到連續(xù)屬性,其可取值數(shù)目不再有限,可以使用離散化技術(shù)將連續(xù)屬性轉(zhuǎn)化為離散屬性
參考答案:
對
剪枝策略是對付“過擬合”的主要手段,即可通過主動去掉一些分支來降低過擬合的風險。
參考答案:
對
第五章測試
若兩類模式是線性可分的,即存在一個線性超平面能將它們分開,則感知機的學習過程一定會收斂。
參考答案:
對
多隱層感知機比單隱層感知機的表達能力強
參考答案:
錯
誤差逆?zhèn)鞑ニ惴ㄊ瞧褡畛晒Φ纳窠?jīng)網(wǎng)絡學習算法。
參考答案:
對
基于梯度的搜索是使用最廣泛的參數(shù)尋優(yōu)方法,若誤差函數(shù)在當前點的梯度為零,則已達到全局最小。
參考答案:
錯
多層感知機表示異或邏輯時最少需要()個隱含層(僅考慮二元輸入)
參考答案:
2
BP算法基于()策略對參數(shù)進行調(diào)整
參考答案:
梯度下降
BP神經(jīng)網(wǎng)絡由于其強大的表示能力,經(jīng)常遭遇()問題,即訓練誤差持續(xù)下降,但測試誤差卻可能上升。
參考答案:
過擬合
在現(xiàn)實任務中,人們常采用以下策略來試圖跳出局部極小,進而接近全局最小
參考答案:
隨機梯度下降;遺傳算法;模擬退火
神經(jīng)網(wǎng)絡中的激活函數(shù)可以采用線性函數(shù)
參考答案:
錯
只擁有一層功能神經(jīng)元(能進行激活函數(shù)處理)的感知機學習能力依然很強,能解決異或這樣的非線性可分問題。
參考答案:
錯
第六章測試
線性可分支持向量機是一種()模型
參考答案:
二分類
支持向量機的學習策略是()
參考答案:
間隔最大
支持向量機的求解通常采用()來求解
參考答案:
二次規(guī)劃算法
當訓練樣本線性不可分時可采用()來緩解和解決
參考答案:
軟間隔;核函數(shù)
為了更好地解決線性不可分問題,我們常常需要擴大可選函數(shù)的范圍。
參考答案:
對
支持向量機的經(jīng)驗風險描述了模型的某些性質(zhì)
參考答案:
錯
在空間上線性可分的兩類點,分別向SVM分類的超平面上做投影,這些點在超平面上的投影仍然是線性可分的
參考答案:
錯
引入軟間隔是為了允許支持向量機在一些樣本上出錯。
參考答案:
對
核函數(shù)的引入是將原始空間中不可分的訓練樣本映射到高維的特征空間后變得可分。
參考答案:
對
訓練樣本集越大,SVM的分類結(jié)果越好
參考答案:
錯
第七章測試
在樣本X上的條件風險是指將一個真實標記為Cj的樣本x分類為ci所產(chǎn)生的期望損失。
參考答案:
對
極大似然估計是試圖在θc所有可能的取值中,找到一個能使數(shù)據(jù)出現(xiàn)的“可能性”的最大的值。
參考答案:
對
拉普拉斯修正沒能避免因訓練集樣本不充分而導致概率估值為0的問題。
參考答案:
錯
貝葉斯網(wǎng)學習的首要任務就是通過對訓練樣本“計數(shù)”,估計出每個結(jié)點的條件概率表。
參考答案:
錯
通過已知變量觀測值來推測待推測查詢變量的過程稱為“推斷”
參考答案:
對
貝葉斯網(wǎng)的近似推斷常使用吉布斯采樣(Gibbssampling)來完成,吉布斯采樣可以看做,每一步僅依賴于前一步的狀態(tài),這是一個“馬爾可夫鏈”。
參考答案:
對
對分類任務來說,在所有相關概率都已知的理想情況下,()考慮如何基于這些概率和誤判損失來選擇最優(yōu)的類別標記。
參考答案:
貝葉斯決策論
樸素貝葉斯分類器假設所有屬性相互獨立,其訓練過程就成了基于訓練集D來估計類先驗概率P(c),并估計()。
參考答案:
每個屬性的條件概率P(xi|c)
為了適當考慮一部分屬性間的相互依賴信息,從而不需要進行完全聯(lián)合概率計算,又不至于徹底忽略了比較強的熟悉依賴關系,這種分類器是()。
參考答案:
半樸素貝葉斯分類器
一個貝葉斯網(wǎng)由結(jié)構(gòu)和參數(shù)兩部分組成,結(jié)構(gòu)是一個(),每個節(jié)點對應個屬性,若兩屬性有直接依賴關系,則它們由一條邊連接起來,參數(shù)定量描述這種依賴關系。
參考答案:
有向無環(huán)圖
第八章測試
Boosting,個體學習器存在強依賴關系,逐個生成基學習器,每次調(diào)整訓練數(shù)據(jù)的樣本分布
參考答案:
對
加權(quán)平均法的權(quán)重,一般是從訓練數(shù)據(jù)中學習而得,規(guī)模比較大的集成,要學習的權(quán)重比較多,較容易導致欠擬合。
參考答案:
錯
分歧代表了個體學習器在樣本x上的不一致性。
參考答案:
對
假設集成通過()結(jié)合T個分類器,若有超過半數(shù)的基分類器正確則分類就正確。
參考答案:
簡單投票法
Boosting算法關注降低偏差,可對泛化性能()的學習器,構(gòu)造出很()的集成。
參考答案:
相對弱,強
Bagging是并行式集成學習的最著名的代表,給定訓練數(shù)據(jù)集,采用()方法采樣數(shù)據(jù)。
參考答案:
自主采樣
若同時有多個標記獲最高票,則從中隨機選取一個,該結(jié)合策略是()。
參考答案:
相對多數(shù)投票法
對基決策樹的每個結(jié)點,首先,從該結(jié)點的屬性集合中,隨機選擇一個包含k個屬性的子集。然后,從這個子集中,選擇一個最優(yōu)屬性,用于劃分。該方法是()。
參考答案:
隨機森林
隨機改變一些訓練樣本的標記;將多分類任務,拆解為一系列二分類任務,來訓練基學習器,這屬于()。
參考答案:
輸出表示擾動
要獲得好的集成,個體學習器應滿足()。
參考答案:
學習器不能太差;學習器應該不同
第九章測試
無監(jiān)督學習是指訓練樣本的標記信息是(),目標是通過對()標記訓練樣本的學習來揭示數(shù)據(jù)內(nèi)在的性質(zhì)及規(guī)律,為進一步的數(shù)據(jù)分析提供基礎
參考答案:
未知,無
常用的聚類距離計算采用()。
參考答案:
閔可夫斯基
懶惰學習是指在訓練階段(),訓練時間開銷為零,待收到測試樣本后再進行處理。
參考答案:
對訓練樣本進行保存
聚類的基本目標是()
參考答案:
簇內(nèi)相似度高;簇間相似度低
聚類性能度量大致有兩類指標:外部指標和內(nèi)部指標。
參考答案:
對
常見的原型聚類方法:K均值聚類、學習向量量化和密度聚類。
參考答案:
錯
在訓練階段就對樣本進行學習處理的方法是急切學習。
參考答案:
對
層次聚類試圖在不同層次對數(shù)據(jù)及進行劃分,從而形成樹形的聚類結(jié)構(gòu)。
參考答案:
對
無監(jiān)督學習任務中研究最多、應用最廣的是“分類”。
參考答案:
錯
常用的聚類距離計算采用“余弦相似度距離”
參考答案:
錯
第十章測試
局部線性嵌入在降維時試圖保持鄰域內(nèi)樣本之間的線性關系。
參考答案:
相鄰樣本之間的線性關系
緩解維數(shù)災難的操作是()
參考答案:
降維
距離等度量映射是在降維時試圖保持()
參考答案:
相鄰樣本之間的距離
流形學習中的流形是指在
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 淺灘海域施工方案
- 辦公室裝修終止合同聲明
- 汽車制造液氮配送合同
- 親子游泳館裝修合同管理費
- 倉儲物流中心改造拆除協(xié)議
- 北城小學1年級數(shù)學試卷
- 銀行柜臺施工方案
- 安師大附中初三數(shù)學試卷
- 鋁掛片吊頂施工方案
- 司機不定時工作制合同范例
- 二零二五年知識產(chǎn)權(quán)共享及收益分成合作協(xié)議3篇
- 北師大版二年級數(shù)學上冊計算題專項復習大全272
- 南通市2025屆高三第一次調(diào)研測試(一模)生物試卷(含答案 )
- 2024年09月2024渤海銀行天津濱海新區(qū)分行校園招聘筆試歷年參考題庫附帶答案詳解
- 期末考試成績分析報告課件
- 兒童哮喘的防治與治療
- 人教版PEP版小學英語三年級下冊Unit 4 Healthy food Part A課件
- 學校安全教師培訓
- 2024年陜西省中考道德與法治真題(A卷)(原卷版)
- (2024)湖北省公務員考試《行測》真題及答案解析
- 金融警示教育案例
評論
0/150
提交評論