




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
MOOC機(jī)器學(xué)習(xí)-北京理工大學(xué)中國(guó)大學(xué)慕課答案緒論1、問題:下列哪位是人工智能之父?選項(xiàng):A、MarnivLeeMinskyB、HerbertA.SimonC、AllenNewellD、JohnCliffordShaw正確答案:【MarnivLeeMinsky】2、問題:根據(jù)王玨的理解,下列不屬于對(duì)問題空間W的統(tǒng)計(jì)描述是選項(xiàng):A、一致性假設(shè)B、劃分C、泛化能力D、學(xué)習(xí)能力正確答案:【學(xué)習(xí)能力】3、問題:下列描述無監(jiān)督學(xué)習(xí)錯(cuò)誤的是選項(xiàng):A、無標(biāo)簽B、核心是聚類C、不需要降維D、具有很好的解釋性正確答案:【不需要降維】4、問題:下列描述有監(jiān)督學(xué)習(xí)錯(cuò)誤的是選項(xiàng):A、有標(biāo)簽B、核心是分類C、所有數(shù)據(jù)都相互獨(dú)立分布D、分類原因不透明正確答案:【所有數(shù)據(jù)都相互獨(dú)立分布】5、問題:下列哪種歸納學(xué)習(xí)采用符號(hào)表示方式?選項(xiàng):A、經(jīng)驗(yàn)歸納學(xué)習(xí)B、遺傳算法C、聯(lián)接學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)正確答案:【經(jīng)驗(yàn)歸納學(xué)習(xí)】6、問題:混淆矩陣的假正是指選項(xiàng):A、模型預(yù)測(cè)為正的正樣本B、模型預(yù)測(cè)為正的負(fù)樣本C、模型預(yù)測(cè)為負(fù)的正樣本D、模型預(yù)測(cè)為負(fù)的負(fù)樣本正確答案:【模型預(yù)測(cè)為正的負(fù)樣本】7、問題:混淆矩陣的真負(fù)率公式是為選項(xiàng):A、TP/(TP+FN)B、FP/(FP+TN)C、FN/(TP+FN)D、TN/(TN+FP)正確答案:【TN/(TN+FP)】8、問題:混淆矩陣中的TP=16,F(xiàn)P=12,F(xiàn)N=8,TN=4,準(zhǔn)確率是選項(xiàng):A、1/4B、1/2C、4/7D、4/6正確答案:【1/2】9、問題:混淆矩陣中的TP=16,F(xiàn)P=12,F(xiàn)N=8,TN=4,精確率是選項(xiàng):A、1/4B、1/2C、4/7D、2/3正確答案:【4/7】期望最大化算法1、問題:關(guān)于EM算法的收斂性,EM算法理論上不能夠保證收斂。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】2、問題:關(guān)于EM算法的用途,EM算法只適用不完全數(shù)據(jù)的情形。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】3、問題:Jessen不等式等號(hào)成立的條件是:變量為常數(shù)選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】4、問題:Jessen不等式E(f(x))=f(E(x)),左邊部分大于等于右邊部分的條件是函數(shù)f是凸函數(shù),如果f是凹函數(shù),左邊部分應(yīng)該是小于等于右邊部分。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】5、問題:EM算法因?yàn)槭抢碚摽梢员WC收斂的,所以肯定能夠取得最優(yōu)解。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】6、問題:EM算法首先猜測(cè)每個(gè)數(shù)據(jù)來自哪個(gè)高斯分布,然后求取每個(gè)高斯的參數(shù),之后再去重新猜測(cè)每個(gè)數(shù)據(jù)來自哪個(gè)高斯分布,類推進(jìn)一步迭代,直到收斂,從而得到最后的參數(shù)估計(jì)值。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】7、問題:EM算法,具有通用的求解形式,因此對(duì)任何問題,其求解過程都是一樣,都能很容易求得結(jié)果。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】8、問題:EM算法通常不需要設(shè)置步長(zhǎng),而且收斂速度一般很快。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】主題建模1、問題:LDA模型在做參數(shù)估計(jì)時(shí),最常用的方法是選項(xiàng):A、Gibbs采樣方法B、變分推斷C、梯度下降D、Beamsearch正確答案:【Gibbs采樣方法#變分推斷】2、問題:吉布斯采樣是一種通用的采樣方法,對(duì)于任何概率分布都可以采樣出對(duì)應(yīng)的樣本。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】3、問題:LDA模型的核心假設(shè)是:假設(shè)每個(gè)文檔首先由主題分布表示,然后主題由詞概率分布表示,形成文檔-主題-詞的三級(jí)層次。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】4、問題:Gibbs采樣是一類通用的采樣方法,和M-H采樣方法沒有任何關(guān)系。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】5、問題:關(guān)于LDA模型中的K,K的指定,必須考慮數(shù)據(jù)集合的特點(diǎn),選擇一個(gè)較為優(yōu)化的數(shù)值。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】6、問題:LDA模型是一種生成式模型選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】7、問題:主題建模的關(guān)鍵是確定數(shù)據(jù)集合的主題個(gè)數(shù)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】8、問題:主題建模本質(zhì)上是:一種新的文檔表示方法,主要是通過主題的分布來表示一個(gè)文檔。一種數(shù)據(jù)壓縮方法,將文檔壓縮在更小的空間中。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】SVM作業(yè)支持向量機(jī)1、問題:SVM算法的性能取決于:選項(xiàng):A、核函數(shù)的選擇B、軟間隔參數(shù)C、核函數(shù)的參數(shù)D、以上所有正確答案:【以上所有】2、問題:SVM中的代價(jià)參數(shù)C表示什么?選項(xiàng):A、交叉驗(yàn)證的次數(shù)B、用到的核函數(shù)C、在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡D、以上都不對(duì)正確答案:【在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡】3、問題:一對(duì)一法分類器,k個(gè)類別需要多少個(gè)SVM:選項(xiàng):A、kB、k!C、k(k-1)/2D、k(k-1)正確答案:【k(k-1)/2】4、問題:SVM中的泛化誤差代表SVM對(duì)新數(shù)據(jù)的預(yù)測(cè)準(zhǔn)確度選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】5、問題:若參數(shù)C(costparameter)被設(shè)為無窮,只要最佳分類超平面存在,它就能將所有數(shù)據(jù)全部正確分類選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】6、問題:“硬間隔”是指SVM允許分類時(shí)出現(xiàn)一定范圍的誤差選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】7、問題:支持向量是最靠近決策表面的數(shù)據(jù)點(diǎn)選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】8、問題:數(shù)據(jù)有噪聲,有重復(fù)值,不會(huì)導(dǎo)致SVM算法性能下降選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】聚類分析1、問題:有關(guān)聚類分析說法錯(cuò)誤的是:選項(xiàng):A、無須有標(biāo)記的樣本B、可以用于提取一些基本特征C、可以解釋觀察數(shù)據(jù)的一些內(nèi)部結(jié)構(gòu)和規(guī)律D、聚類分析一個(gè)簇中的數(shù)據(jù)之間具有高差異性正確答案:【聚類分析一個(gè)簇中的數(shù)據(jù)之間具有高差異性】2、問題:兩個(gè)n維向量離(euclideandistance)為:選項(xiàng):和之間的歐式距A、B、C、D、正確答案:【】3、問題:閔可夫斯基距離表示為曼哈頓距離時(shí)p為:選項(xiàng):A、1B、2C、3D、4正確答案:【1】4、問題:下面是矩陣的特征值為:選項(xiàng):A、3B、2C、-1D、0正確答案:【3】5、問題:分裂層次聚類采用的策略是自底向上選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】6、問題:DBSCAN對(duì)參數(shù)不敏感選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】7、問題:EM聚類屬于軟分聚類方法選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】8、問題:k-means算法、EM算法是建立在凸球形的樣本空間上的聚類方法選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】概率無向圖模型1、問題:下圖中有多少個(gè)最大團(tuán)?選項(xiàng):A、0B、1C、2D、3正確答案:【2】2、問題:假設(shè)某事件發(fā)生的概率為p,則此事件發(fā)生的幾率為:選項(xiàng):A、pB、1-pC、p/(1-p)D、(1-p)/p正確答案:【p/(1-p)】3、問題:以下關(guān)于邏輯斯蒂回歸模型的描述正確的是選項(xiàng):A、針對(duì)分類的可能性進(jìn)行建模,不僅能預(yù)測(cè)出類別,還可以得到屬于該類別的概率。B、直接對(duì)分類的可能性進(jìn)行建模,無需事先假設(shè)數(shù)據(jù)分布,這樣就避免了假設(shè)分布不準(zhǔn)確所帶來的問題。C、模型本質(zhì)仍然是一個(gè)線性模型,實(shí)現(xiàn)相對(duì)簡(jiǎn)單。D、邏輯斯蒂回歸模型是線性回歸模型正確答案:【針對(duì)分類的可能性進(jìn)行建模,不僅能預(yù)測(cè)出類別,還可以得到屬于該類別的概率。#直接對(duì)分類的可能性進(jìn)行建模,無需事先假設(shè)數(shù)據(jù)分布,這樣就避免了假設(shè)分布不準(zhǔn)確所帶來的問題。#模型本質(zhì)仍然是一個(gè)線性模型,實(shí)現(xiàn)相對(duì)簡(jiǎn)單。#邏輯斯蒂回歸模型是線性回歸模型】4、問題:條件隨機(jī)場(chǎng)需要解決的關(guān)鍵問題有:選項(xiàng):A、特征函數(shù)的選擇B、參數(shù)估計(jì)C、約束條件D、模型推斷正確答案:【特征函數(shù)的選擇#參數(shù)估計(jì)#模型推斷】5、問題:邏輯斯蒂回歸模型是一種回歸算法。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】6、問題:熵最大時(shí),表示隨機(jī)變量最不確定,也就是隨機(jī)變量最隨機(jī),對(duì)其行為做準(zhǔn)確預(yù)測(cè)最困難。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】7、問題:從最大熵思想出發(fā)得出的最大熵模型,采用最大化求解就是在求P(y|x)的對(duì)數(shù)似然最大化。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】8、問題:GIS算法的收斂速度由計(jì)算更新值的步長(zhǎng)確定。C值越大,步長(zhǎng)越大,收斂速度就越快。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】概率有向圖模型1、問題:基于搜索評(píng)分的方法,關(guān)鍵點(diǎn)在于選項(xiàng):A、確定合適的搜索策略B、確定搜索優(yōu)先級(jí)C、確定評(píng)分函數(shù)D、確定選擇策略正確答案:【確定合適的搜索策略#確定評(píng)分函數(shù)】2、問題:基于約束的方法通過統(tǒng)計(jì)獨(dú)立性測(cè)試來學(xué)習(xí)結(jié)點(diǎn)間的選項(xiàng):A、獨(dú)立性B、依賴性C、完備性D、相關(guān)性正確答案:【獨(dú)立性#相關(guān)性】3、問題:在數(shù)據(jù)不完備時(shí),貝葉斯網(wǎng)絡(luò)的參數(shù)學(xué)習(xí)方法有:選項(xiàng):A、高斯逼近B、最大似然估計(jì)方法C、蒙特卡洛方法D、拉普拉斯近似正確答案:【高斯逼近#蒙特卡洛方法#拉普拉斯近似】4、問題:隱馬爾可夫模型的三個(gè)基本問題是:選項(xiàng):A、估值問題B、狀態(tài)更新C、尋找狀態(tài)序列D、學(xué)習(xí)模型參數(shù)正確答案:【估值問題#尋找狀態(tài)序列#學(xué)習(xí)模型參數(shù)】5、問題:下圖是全連接圖。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】6、問題:貝葉斯網(wǎng)絡(luò)具有的條件獨(dú)立性是結(jié)點(diǎn)與其后代結(jié)點(diǎn)條件獨(dú)立選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】7、問題:最大似然估計(jì)方法是實(shí)例數(shù)據(jù)不完備情況下的學(xué)習(xí)方法。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】8、問題:隱馬爾可夫模型是一種統(tǒng)計(jì)模型,經(jīng)常用來描述一個(gè)含有隱含未知參數(shù)的馬爾可夫過程。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】神經(jīng)網(wǎng)絡(luò)1、問題:下列哪項(xiàng)說法不正確選項(xiàng):A、人工智能是對(duì)人類智能的模擬B、人工神經(jīng)元是對(duì)生物神經(jīng)元的模擬C、生物神經(jīng)信號(hào)由樹突傳遞給軸突D、人工神經(jīng)元的激活函數(shù)可以有多種設(shè)計(jì)正確答案:【生物神經(jīng)信號(hào)由樹突傳遞給軸突】2、問題:通常有哪幾種訓(xùn)練神經(jīng)網(wǎng)絡(luò)的優(yōu)化方法?選項(xiàng):A、梯度下降法B、隨機(jī)梯度下降法C、小批量隨機(jī)梯度下降法D、集成法正確答案:【梯度下降法#隨機(jī)梯度下降法#小批量隨機(jī)梯度下降法】3、問題:為什么循環(huán)神經(jīng)網(wǎng)絡(luò)可以用來實(shí)現(xiàn)自動(dòng)問答,比如對(duì)一句自然語言問句給出自然語言回答?選項(xiàng):A、因?yàn)樽詣?dòng)問答可以看成是一種序列到序列的轉(zhuǎn)換B、因?yàn)檠h(huán)神經(jīng)網(wǎng)要比卷積神經(jīng)網(wǎng)更強(qiáng)大C、因?yàn)檠h(huán)神經(jīng)網(wǎng)絡(luò)能夠處理變長(zhǎng)輸入D、因?yàn)榫矸e神經(jīng)網(wǎng)絡(luò)不能處理字符輸入正確答案:【因?yàn)樽詣?dòng)問答可以看成是一種序列到序列的轉(zhuǎn)換#因?yàn)檠h(huán)神經(jīng)網(wǎng)絡(luò)能夠處理變長(zhǎng)輸入】4、問題:LSTM和GRU網(wǎng)絡(luò)因?yàn)橐肓碎T控單元,可以緩解梯度消失問題選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】5、問題:循環(huán)神經(jīng)網(wǎng)絡(luò)按時(shí)間展開后就可以通過反向傳播算法訓(xùn)練了選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】6、問題:卷積神經(jīng)網(wǎng)絡(luò)通常比全連接神經(jīng)網(wǎng)絡(luò)參數(shù)少,因此能力更差選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】7、問題:訓(xùn)練算法的目的就是要讓模型擬合訓(xùn)練數(shù)據(jù)選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】8、問題:反向傳播算法中需要先計(jì)算靠近輸入層參數(shù)的梯度,再計(jì)算靠近輸出層參數(shù)的梯度選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】強(qiáng)化學(xué)習(xí)1、問題:強(qiáng)化學(xué)習(xí)基本要素有哪些?選項(xiàng):A、狀態(tài)、動(dòng)作、獎(jiǎng)勵(lì)B、狀態(tài)、動(dòng)作、折扣因子C、動(dòng)作、折扣因子、獎(jiǎng)勵(lì)D、狀態(tài)、獎(jiǎng)勵(lì)、探索策略正確答案:【狀態(tài)、動(dòng)作、獎(jiǎng)勵(lì)】2、問題:Q-learning屬于哪種算法選項(xiàng):A、On-policy算法B、Off-policy算法C、Model-based算法D、Value-based算法正確答案:【Off-policy算法】3、問題:馬爾科夫決策過程由哪幾個(gè)元素來表示選項(xiàng):A、狀態(tài)、動(dòng)作、轉(zhuǎn)移概率、策略、折扣因子B、狀態(tài)、動(dòng)作、轉(zhuǎn)移概率、折扣因子、回報(bào)函數(shù)C、狀態(tài)、動(dòng)作、輸入、輸出、回報(bào)函數(shù)D、狀態(tài)、動(dòng)作、值、策略、回報(bào)函數(shù)正確答案:【狀態(tài)、動(dòng)作、轉(zhuǎn)移概率、折扣因子、回報(bào)函數(shù)】4、問題:狀態(tài)值函數(shù)的貝爾曼方程為選項(xiàng):A、B、C、D、正確答案:【】5、問題:以下哪種算法是TD-learning的方法選項(xiàng):A、B、C、D、正確答案:【】6、問題:以下關(guān)于蒙特卡洛方法描述正確的是選項(xiàng):A、蒙特卡洛方法計(jì)算值函數(shù)可以采用First-visit方法B、蒙特卡洛方法方差很大C、蒙特卡洛方法計(jì)算值函數(shù)可以采用Every-visit方法D、蒙特卡洛方法偏差很大正確答案:【蒙特卡洛方法計(jì)算值函數(shù)可以采用First-visit方法#蒙特卡洛方法方差很大#蒙特卡洛方法計(jì)算值函數(shù)可以采用Every-visit方法】7、問題:在Q-learning中,以下說法正確的是選項(xiàng):A、在狀態(tài)時(shí)計(jì)算的前Q值,對(duì)應(yīng)的動(dòng)作并沒有真正執(zhí)行,只是用來更新當(dāng),同時(shí)也執(zhí)行了動(dòng)作B、在狀態(tài)時(shí)計(jì)算的C、更新中,Q的真實(shí)值為D、更新中,Q的真實(shí)值為正確答案:【在狀態(tài)時(shí)計(jì)算的,對(duì)應(yīng)的動(dòng)作并沒有真正執(zhí)行,只是用來更新當(dāng)前Q值#更新中,Q的真實(shí)值為】8、問題:Sarsa與Q-learning的區(qū)別是?選項(xiàng):A、Sarsa是off-policy,而Q-learning是on-policyB、Sarsa是on-policy,而Q-learning是off-policyC、Q-learning在算法更新時(shí),對(duì)應(yīng)的下一個(gè)動(dòng)作并沒有執(zhí)行,而sarsa的下一個(gè)動(dòng)作在這次更新時(shí)已經(jīng)確定了D、Q-learning是一種保守的算法,sarsa是一種貪婪勇敢的算法正確答案:【Sarsa是on-policy,而Q-learning是off-policy#Q-learning在算法更新時(shí),對(duì)應(yīng)的下一個(gè)動(dòng)作并沒有執(zhí)行,而sarsa的下一個(gè)動(dòng)作在這次更新時(shí)已經(jīng)確定了】9、問題:Q-learning與Sarsa相同的地方是選項(xiàng):A、都使用了等策略進(jìn)行探索B、都用q-table存儲(chǔ)狀態(tài)動(dòng)作對(duì)C、更新公式相同D、兩者都可以找到最優(yōu)的策略正確答案:【都使用了等策略進(jìn)行探索#都用q-table存儲(chǔ)狀態(tài)動(dòng)作對(duì)】10、問題:關(guān)于經(jīng)驗(yàn)池(experiencereplay)敘述正確的是選項(xiàng):A、為了縮小樣本量,可以讓樣本輸入到神經(jīng)網(wǎng)絡(luò)中B、打破樣本之間的連續(xù)性C、每次更新時(shí)在經(jīng)驗(yàn)池中按順序采樣樣本D、每次更新時(shí)隨機(jī)采樣樣本正確答案:【打破樣本之間的連續(xù)性#每次更新時(shí)隨機(jī)采樣樣本】11、問題:關(guān)于DQN說法正確的是選項(xiàng):A、網(wǎng)絡(luò)最開始使用卷積神經(jīng)網(wǎng)絡(luò)或全連接網(wǎng)絡(luò),目的是為了提取圖像特征信息B、對(duì)于atari游戲中,一般將連續(xù)4幀圖像放在一起作為一個(gè)state送到神經(jīng)網(wǎng)絡(luò)中C、網(wǎng)絡(luò)的輸出是動(dòng)作D、網(wǎng)絡(luò)的輸出是Q值正確答案:【網(wǎng)絡(luò)最開始使用卷積神經(jīng)網(wǎng)絡(luò)或全連接網(wǎng)絡(luò),目的是為了提取圖像特征信息#對(duì)于atari游戲中,一般將連續(xù)4幀圖像放在一起作為一個(gè)state送到神經(jīng)網(wǎng)絡(luò)中#網(wǎng)絡(luò)的輸出是Q值】12、問題:關(guān)于DoubleDQN說法正確的是選項(xiàng):A、Q值的目標(biāo)值中的max操作會(huì)產(chǎn)生過估計(jì),從而影響找到最佳策略B、DoubleDQN可以減小偏差C、DoubleDQN的目標(biāo)函數(shù)與DQN的完全相同D、DoubleDQN引入了優(yōu)勢(shì)函數(shù)(advantagefunction)正確答案:【Q值的目標(biāo)值中的max操作會(huì)產(chǎn)生過估計(jì),從而影響找到最佳策略#DoubleDQN可以減小偏差】13、問題:以下哪種算法屬于策略梯度算法選項(xiàng):A、DuelingDQNB、TRPOC、REINFORCED、PPO正確答案:【TRPO#REINFORCE#PPO】14、問題:關(guān)于A3C算法說法正確的是選項(xiàng):A、使用了多個(gè)線程,每個(gè)線程對(duì)應(yīng)了不同的探索方式B、需要使用經(jīng)驗(yàn)池存儲(chǔ)樣本C、A3C是off-policy的算法D、A3C是on-policy的算法正確答案:【使用了多個(gè)線程,每個(gè)線程對(duì)應(yīng)了不同的探索方式#A3C是on-policy的算法】15、問題:以下屬于Actor-Critic算法的是選項(xiàng):A、DDPGB、DoubleDQNC、A3CD、NoisyDQN正確答案:【DDPG#A3C】16、問題:對(duì)于Actor-Critic算法,說法錯(cuò)誤的是選項(xiàng):A、Actor-Critic算法結(jié)合了policy-based和value-based的方法B、Critic網(wǎng)絡(luò)是用來輸出動(dòng)作的C、Actor網(wǎng)絡(luò)是用來輸出動(dòng)作的D、Actor網(wǎng)絡(luò)是用來評(píng)價(jià)Critic網(wǎng)絡(luò)所選動(dòng)作的好壞的正確答案:【Critic網(wǎng)絡(luò)是用來輸出動(dòng)作的#Actor網(wǎng)絡(luò)是用來評(píng)價(jià)Critic網(wǎng)絡(luò)所選動(dòng)作的好壞的】期末試題1、問題:混淆矩陣中的TP=16,F(xiàn)P=12,F(xiàn)N=8,TN=4,召回率是選項(xiàng):A、1/4B、1/2C、4/7D、2/3正確答案:【2/3】2、問題:混淆矩陣中的TP=16,F(xiàn)P=12,F(xiàn)N=8,TN=4,F(xiàn)1-score是選項(xiàng):A、4/13B、8/13C、4/7D、2/3正確答案:【8/13】3、問題:EM算法的核心思想是?選項(xiàng):A、通過不斷地求取目標(biāo)函數(shù)的下界的最優(yōu)值,從而實(shí)現(xiàn)最優(yōu)化的目標(biāo)。B、列出優(yōu)化目標(biāo)函數(shù),通過方法計(jì)算出最優(yōu)值。C、列出優(yōu)化目標(biāo)函數(shù),通過數(shù)值優(yōu)化方法計(jì)算出最優(yōu)值。D、列出優(yōu)化目標(biāo)函數(shù),通過坐標(biāo)下降的優(yōu)化方法計(jì)算出最優(yōu)值。正確答案:【通過不斷地求取目標(biāo)函數(shù)的下界的最優(yōu)值,從而實(shí)現(xiàn)最優(yōu)化的目標(biāo)。】4、問題:EM算法的E和M指什么?選項(xiàng):A、Expectation-MaximumB、Expect-MaximumC、Extra-MaximumD、Extra-Max正確答案:【Expectation-Maximum】5、問題:LDA模型的隱變量Z是選項(xiàng):A、每個(gè)詞對(duì)應(yīng)的主題B、每篇文檔對(duì)應(yīng)的主題C、每段話對(duì)應(yīng)的主題D、每個(gè)詞組對(duì)應(yīng)的主題正確答案:【每個(gè)詞對(duì)應(yīng)的主題】6、問題:LDA模型中的一個(gè)主題指:選項(xiàng):A、詞集合上的一個(gè)概率分布B、詞組集合上的一個(gè)概率分布C、整個(gè)文檔上的一個(gè)概率分布D、整個(gè)文檔集合上的一個(gè)概率分布正確答案:【詞集合上的一個(gè)概率分布】7、問題:下列有關(guān)支持向量機(jī)說法不正確的是:選項(xiàng):A、采用結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理B、具有很好的推廣能力C、是凸二次優(yōu)化問題D、得到的是局部最優(yōu)解正確答案:【得到的是局部最優(yōu)解】8、問題:下列有關(guān)核函數(shù)不正確的是:選項(xiàng):A、極大地提高了學(xué)習(xí)機(jī)器的非線性處理能力B、函數(shù)與非線性映射并不是一一對(duì)應(yīng)的關(guān)系C、滿足Mercer條件的函數(shù)不一定能作為支持向量機(jī)的核函數(shù)D、可以采用cross-va1idalion方法選擇最佳核函數(shù)正確答案:【滿足Mercer條件的函數(shù)不一定能作為支持向量機(jī)的核函數(shù)】9、問題:k中心點(diǎn)算法每次迭代的計(jì)算復(fù)雜度是多少?選項(xiàng):A、B、C、D、正確答案:【】10、問題:關(guān)于K-means說法不正確的是:選項(xiàng):A、算法可能終止于局部最優(yōu)解B、簇的數(shù)目k必須事先給定C、對(duì)噪聲和離群點(diǎn)數(shù)據(jù)敏感D、適合發(fā)現(xiàn)非凸形狀的簇正確答案:【適合發(fā)現(xiàn)非凸形狀的簇】11、問題:下圖中的聯(lián)合概率分布的吉布斯表示為:選項(xiàng):A、B、C、D、正確答案:【】12、問題:下圖中有多少個(gè)團(tuán)?選項(xiàng):A、4B、5C、6D、7正確答案:【7】13、問題:下圖中使用概率的乘積規(guī)則將聯(lián)合概率展開式為:選項(xiàng):A、B、C、D、正確答案
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025內(nèi)蒙古土地資源收儲(chǔ)投資(集團(tuán))有限公司常態(tài)化招聘50名急需緊缺專業(yè)人員(第十二批)筆試參考題庫附帶答案詳解
- 文化創(chuàng)意產(chǎn)品代理銷售合同(2篇)
- 2025項(xiàng)目部治理人員安全培訓(xùn)考試試題【達(dá)標(biāo)題】
- 2025廣告宣傳活動(dòng)合同模板
- 2025年監(jiān)理工程師考試《合同管理》核心考點(diǎn)剖析
- 2025智能安防系統(tǒng)建設(shè)項(xiàng)目合同
- 2025質(zhì)量管理體系認(rèn)證合同范本
- 2025飲品類采購合同范本
- 2025年羥丙纖維素合作協(xié)議書
- 2025標(biāo)準(zhǔn)土地租賃協(xié)議合同
- 2025年高考?xì)v史總復(fù)習(xí)高中歷史必修二八大專題知識(shí)復(fù)習(xí)提綱
- 2025事業(yè)單位考試題庫及答案200題
- 臨床執(zhí)業(yè)醫(yī)師考試健康教育技能試題及答案
- 機(jī)車車輛試題及答案
- 地理澳大利亞課件-2024-2025學(xué)年人教版(2024)初中地理七年級(jí)下冊(cè)
- 常用施工規(guī)定和技術(shù)要求1
- 旅游景區(qū)娛樂服務(wù)設(shè)計(jì)
- 亞馬遜店鋪轉(zhuǎn)讓合同標(biāo)準(zhǔn)文本
- T-CQAP 4002-2024 醫(yī)療安全(不良)事件根本原因分析法活動(dòng)指南
- 利用科學(xué)史進(jìn)行高中生物學(xué)主線式情境教學(xué)的實(shí)踐研究
- 2025年高考作文備考:十大熱點(diǎn)人物事跡+高分素材
評(píng)論
0/150
提交評(píng)論