




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
【MOOC】模式識別-青島大學(xué)中國大學(xué)慕課MOOC答案第一章緒論部分的單元測試1、【單選題】下列關(guān)于模式識別的說法中,錯誤的是()本題答案:【模式識別研究的問題就是如何通過機器實現(xiàn)樣本的特征提取】2、【單選題】下列屬于非監(jiān)督識別的是本題答案:【CT圖像的分割】3、【單選題】關(guān)于監(jiān)督模式識別與非監(jiān)督模式識別的描述錯誤的是本題答案:【非監(jiān)督模式識別對樣本的分類結(jié)果是唯一的】4、【判斷題】若已知特征的情況下,一定可以通過模式識別方法得到特征和類別之間的對應(yīng)關(guān)系.本題答案:【錯誤】5、【判斷題】在模式識別中,樣本的特征構(gòu)成特征空間,特征數(shù)量越多越有利于分類。本題答案:【錯誤】6、【判斷題】一個典型的模式識別系統(tǒng)由原始數(shù)據(jù)獲取與預(yù)處理、特征提取與選擇、分類器設(shè)計或聚類、后處理四部分組成。本題答案:【正確】7、【判斷題】已知一定數(shù)量的數(shù)據(jù),就可以通過監(jiān)督模式識別來實現(xiàn)類別的劃分本題答案:【錯誤】貝葉斯決策理論測試(一)1、【單選題】貝葉斯決策是通過計算樣本后驗概率的大小來進(jìn)行決策的,下面表達(dá)式中wi代表類別,x代表樣本,能夠表示后驗概率的是()本題答案:【P(wi|x)】2、【單選題】下面關(guān)于基于最小風(fēng)險的貝葉斯決策的描述中,錯誤的是()本題答案:【最小風(fēng)險的貝葉斯決策當(dāng)中,決策的數(shù)量和樣本類別的數(shù)量一定是相等的?!?、【單選題】基于最小錯誤率的貝葉斯決策規(guī)則可以采用不同的形式,下列不能表達(dá)其決策規(guī)則的是()本題答案:【先驗概率】4、【判斷題】基于最小錯誤率的貝葉斯決策的核心思想是將樣本判別為后驗概率最大的類別。本題答案:【正確】5、【判斷題】如果在采取每一個決策或行動時,都使條件風(fēng)險最小,則對所有的x做出決策時,其期望風(fēng)險也必然最小。本題答案:【正確】6、【判斷題】最小風(fēng)險的貝葉斯決策的判別規(guī)則是將樣本x判別為條件風(fēng)險最小的那個類別。本題答案:【正確】7、【判斷題】錯誤率是所有服從同樣分布的獨立樣本上錯誤概率的平均值。本題答案:【正確】概率密度函數(shù)的估計的單元測試1、【單選題】下面關(guān)于最大似然估計的說法中錯誤的是()本題答案:【在最大似然函數(shù)估計中,要估計的參數(shù)是一個不確定的量。】2、【單選題】下列表達(dá)中不能影響貝葉斯估計結(jié)果的是()本題答案:【數(shù)據(jù)的線性變換】3、【判斷題】最大似然函數(shù)估計認(rèn)為最有可能出現(xiàn)的樣本就是似然函數(shù)最大的樣本。本題答案:【正確】4、【判斷題】貝葉斯估計中是將未知的參數(shù)本身也看作一個隨機變量,要做的是根據(jù)觀測數(shù)據(jù)對參數(shù)的分布進(jìn)行估計。本題答案:【正確】5、【判斷題】在貝葉斯學(xué)習(xí)的過程中,訓(xùn)練樣本數(shù)量越多,估計值越接近與真實值。本題答案:【正確】6、【判斷題】隨著訓(xùn)練樣本數(shù)的增多,待估計參數(shù)的函數(shù)會趨近于δ函數(shù)。本題答案:【正確】7、【判斷題】貝葉斯估計的方法類似于貝葉斯決策,也需要定義損失函數(shù)。本題答案:【正確】超平面的一些問題:1、【判斷題】超平面的法線方向與判別函數(shù)的權(quán)向量的方向是垂直的本題答案:【錯誤】2、【判斷題】分類面的位置是由判別函數(shù)的閾值決定的本題答案:【正確】關(guān)于Fisher線性判別1、【判斷題】好的投影方向應(yīng)該使不同類別的樣本均值之差盡量大,類內(nèi)的樣本盡量聚集。本題答案:【正確】2、【判斷題】經(jīng)過fisher準(zhǔn)則投影后得到的最佳投影方向是投影后兩類樣本分類面的法線方向。本題答案:【正確】關(guān)于感知器算法和最小平方誤差判別的測驗1、【單選題】下面關(guān)于感知器算法的說法正確的是()本題答案:【樣本經(jīng)過增廣化處理后樣本和權(quán)向量的維數(shù)都會增加一維?!?、【單選題】下面關(guān)于最小平方誤差判別的說法中錯誤的是()本題答案:【梯度下降法求解使誤差長度的平方和最小的權(quán)值時不需要賦初值?!?、【判斷題】在感知器算法中可以通過梯度下降法找到合適的權(quán)向量a。本題答案:【正確】4、【判斷題】在求解權(quán)向量a的過程中,需要定義一個準(zhǔn)則函數(shù),準(zhǔn)則函數(shù)的形式是唯一的,并且一定是權(quán)向量a的函數(shù)。本題答案:【錯誤】5、【判斷題】最小平方誤差判別方法中的準(zhǔn)則函數(shù)是誤差長度的平方和。本題答案:【正確】6、【判斷題】在LMS算法中求解出的權(quán)向量與常數(shù)b無關(guān)。本題答案:【錯誤】7、【判斷題】感知器準(zhǔn)則函數(shù)是用權(quán)向量a與所有的錯分樣本的乘積來表示對錯分樣本的懲罰。本題答案:【錯誤】8、【判斷題】在感知器算法中感知器準(zhǔn)則函數(shù)取得最大值時所對應(yīng)的權(quán)向量a就是所要尋找的合適的權(quán)向量。本題答案:【錯誤】關(guān)于fisher線性判別準(zhǔn)則的測驗1、【單選題】下面關(guān)于fisher線性判別準(zhǔn)則的說法中錯誤的是本題答案:【經(jīng)過fisher準(zhǔn)則投影后得到的最佳投影方向就是投影后兩類樣本的分類面】2、【單選題】在基于樣本直接設(shè)計分類器時,不屬于分類器設(shè)計三要素的是本題答案:【參數(shù)的類型】3、【判斷題】在線性判別函數(shù)的表達(dá)式中,一般情況下,權(quán)向量w的維數(shù)和樣本的維數(shù)是一致的。本題答案:【正確】4、【判斷題】分類面的位置是由判別函數(shù)的閾值決定的。本題答案:【正確】5、【判斷題】經(jīng)過fisher準(zhǔn)則投影后得到的最佳投影方向是投影后兩類樣本分類面的法線方向。本題答案:【正確】單元測試(一)1、【單選題】下面關(guān)于分段線性判別函數(shù)的說法中錯誤的是本題答案:【在類別的各個維度不對稱的情況下,可以考慮使用分段線性距離分類器?!?、【單選題】下面關(guān)于二次判別函數(shù)的說法中,錯誤的是本題答案:【如果一類分布比較接近高斯分布,即分布為團(tuán)狀,而另外一類則較均勻的分布在第一類附近,需要分別求出每一類的判別函數(shù)來進(jìn)行類別的劃分。】3、【判斷題】在類別數(shù)量未知的情況下,可以采用二分樹的方式進(jìn)行分類器設(shè)計。本題答案:【正確】4、【判斷題】基于距離的分段線性分類器將每一類分成若干子類,也就是各類別里每一個峰代表一個子類,在每個峰里選一個代表點,可以用每個峰的中心來作為代表點。本題答案:【正確】5、【判斷題】在使用二分樹進(jìn)行分類器設(shè)計的時候,初始權(quán)值對分類結(jié)果沒有影響。本題答案:【錯誤】單元測試(二)1、【單選題】下面關(guān)于多層神經(jīng)網(wǎng)絡(luò)的說法中,錯誤的是本題答案:【多層神經(jīng)網(wǎng)絡(luò)的同一層的神經(jīng)元之間通過可修正的權(quán)值互聯(lián)。】2、【單選題】下面關(guān)于激活函數(shù)的說法中錯誤的是本題答案:【同一神經(jīng)網(wǎng)絡(luò)的激活函數(shù)必須是相同的?!?、【單選題】下面關(guān)于BP神經(jīng)網(wǎng)絡(luò)的說法中錯誤的是本題答案:【在BP算法中數(shù)據(jù)的正向傳播和誤差的反向傳播是同時進(jìn)行的?!?、【判斷題】在誤差的反向傳播過程中,是通過調(diào)整權(quán)值使得全局誤差最小。本題答案:【正確】5、【判斷題】在BP算法中,學(xué)習(xí)率選的越大,收斂速度越快。本題答案:【錯誤】6、【判斷題】單個感知器可以實現(xiàn)線性分類。本題答案:【正確】7、【判斷題】神經(jīng)元是神經(jīng)網(wǎng)絡(luò)的基本組成單元。本題答案:【正確】8、【判斷題】BP算法由誤差的正向傳播和數(shù)據(jù)的反向傳播兩個過程構(gòu)成。本題答案:【錯誤】單元測試(三)1、【單選題】下面關(guān)于神經(jīng)網(wǎng)絡(luò)參數(shù)的說法錯誤的是本題答案:【在多層前饋網(wǎng)絡(luò)中,若隱層節(jié)點數(shù)量太少,會出現(xiàn)過學(xué)習(xí)的問題。】2、【單選題】下面關(guān)于利用神經(jīng)網(wǎng)絡(luò)進(jìn)行分類的說法中錯誤的是本題答案:【在利用神經(jīng)網(wǎng)絡(luò)進(jìn)行分類時,神經(jīng)網(wǎng)絡(luò)的輸入節(jié)點的個數(shù)多于輸入的特征數(shù)量?!?、【判斷題】在利用神經(jīng)網(wǎng)絡(luò)進(jìn)行分類時,神經(jīng)網(wǎng)絡(luò)的輸入節(jié)點的個數(shù)等于輸入的特征數(shù)量。本題答案:【正確】4、【判斷題】在神經(jīng)網(wǎng)絡(luò)對多類問題分類時,可以用少數(shù)的輸出節(jié)點實現(xiàn)多數(shù)的類別劃分。本題答案:【正確】5、【判斷題】過學(xué)習(xí)問題是指神經(jīng)網(wǎng)絡(luò)在訓(xùn)練樣本集上的誤差很小,但是在獨立的測試樣本集上誤差很大。本題答案:【正確】近鄰法的測試1、【判斷題】近鄰法是一種有監(jiān)督學(xué)習(xí)本題答案:【正確】2、【判斷題】近鄰法對模板數(shù)量沒有要求,模板數(shù)量對分類性能影響不大本題答案:【錯誤】3、【判斷題】近鄰法需要較大計算量和存儲量本題答案:【正確】4、【判斷題】剪輯近鄰法可以同時減少數(shù)據(jù)存儲量和計算量本題答案:【正確】決策樹的測試1、【判斷題】決策樹學(xué)習(xí)是無監(jiān)督學(xué)習(xí)本題答案:【錯誤】2、【判斷題】一個數(shù)據(jù)集只能生成一種決策樹本題答案:【錯誤】3、【判斷題】ID3方法的目的是降低系統(tǒng)信息熵本題答案:【正確】4、【判斷題】隨機森林算法是基于自舉思想的一種決策樹改進(jìn)算法本題答案:【正確】非監(jiān)督模式識別測試題1、【判斷題】聚類分析算法屬于有監(jiān)督學(xué)習(xí)本題答案:【錯誤】2、【判斷題】無監(jiān)督學(xué)習(xí)不需要訓(xùn)練集就可以進(jìn)行本題答案:【正確】3、【判斷題】分級聚類方法需要進(jìn)行迭代運算本題答案:【錯誤】4、【判斷題】C均值算法是基于相似性度量的本題答案:【正確】特征選擇的測試題目1、【單選題】下面關(guān)于特征選擇的說法中,錯誤的是:本題答案:【特征選擇不僅可以降低特征空間的維度,還可以消除特征之間的相關(guān)性】2、【單選題】下面關(guān)于分支定界法的說法中,錯誤的是:本題答案:【分枝定界法是一種自頂向下的方法,沒有回溯的過程?!?、【判斷題】在特征選擇中,有兩個很重要的方面,一個是特征的評價準(zhǔn)則,另外一個是特征的尋優(yōu)算法。本題答案:【正確】4、【判斷題】可以利用分類器錯誤率的大小作為設(shè)定特征評價準(zhǔn)則的依據(jù)。本題答案:【正確】5、【判斷題】窮舉法是一種基本的特征選擇最優(yōu)算法。本題答案:【正確】特征提取的單元測試1、【單選題】下面關(guān)于特征提取的說法中錯誤的是:本題答案:【PCA算法是通過變換矩陣得到原有特征的線性組合,新特征之間是線性相關(guān)的?!?、【單選題】下面關(guān)于PCA的說法中,錯誤的是:本題答案:【通過PCA方法得到的新特征能夠完全表達(dá)原始特征的信息?!?、【判斷題】在K-L變換中不同的正交向量系會對應(yīng)不同的均方誤差,在選擇時應(yīng)該選擇使均方誤差最小的正交向量系。本題答案:【正確】4、【判斷題】可以通過計算K-L變換的產(chǎn)生矩陣的本征值來得到相應(yīng)的正交變換系。本題答案:【正確】5、【判斷題】當(dāng)原始特征的均值不為0時,主成分分析方法和K-L變換方法是等價的。本題答案:【錯誤】系統(tǒng)評價的測試1、【單選題】下面關(guān)于交叉驗證的說法,錯誤的是:本題答案:【在進(jìn)行交叉驗證時,,一般讓臨時訓(xùn)練集較小,臨時測試集較大,這樣得到的錯誤率估計就更接近用全部樣本作為訓(xùn)練樣本時的錯誤率?!?、【單選題】下面關(guān)于模式識別系統(tǒng)的評價的說法中,錯誤的是:本題答案:【模式識別系統(tǒng)的某些優(yōu)質(zhì)算法的性能在任何情況下都會優(yōu)于其他的算法?!?、【判斷題】訓(xùn)練錯誤率并不能準(zhǔn)確反映分類器性能的好壞。本題答案:【正確】4、【判斷題】征的提取和選擇對分類器的性能也有很大的影響。本題答案:【正確】5、【判斷題】在非監(jiān)督學(xué)習(xí)中,可以采用數(shù)學(xué)上評價聚類性能的指標(biāo)來幫助人們客觀地理解和解釋所得的聚類結(jié)果。本題答案:【正確】模式識別期末考試試卷1、【單選題】下列關(guān)于模式識別的說法中,錯誤的是本題答案:【模式識別研究的問題就是如何通過機器實現(xiàn)樣本的特征提取】2、【單選題】貝葉斯決策是通過計算樣本后驗概率的大小來進(jìn)行決策的,下面表達(dá)式中wi代表類別,x代表樣本,能夠表示后驗概率的是本題答案:【P(wi|x)】3、【單選題】下列表達(dá)中不能影響貝葉斯估計結(jié)果的是本題答案:【數(shù)據(jù)的線性變換】4、【單選題】下列關(guān)于感知器算法的說法中錯誤的是本題答案:【感知器算法也適用于線性不可分的樣本】5、【單選題】下面關(guān)于BP神經(jīng)網(wǎng)絡(luò)的說法錯誤的是本題答案:【BP算法由誤差的正向傳播和數(shù)據(jù)的反向傳播兩個過程構(gòu)成?!?、【單選題】在利用神經(jīng)網(wǎng)絡(luò)進(jìn)行分類時,神經(jīng)網(wǎng)絡(luò)的輸入節(jié)點的個數(shù)______輸入的特征數(shù)量。本題答案:【等于】7、【單選題】下面不能用來度量概率距離的參數(shù)是本題答案:【歐式距離】8、【單選題】下面關(guān)于錯誤率的說法中錯誤的是本題答案:【在實際當(dāng)中,人們主要采用理論分析的方法來評價監(jiān)督模式識別系統(tǒng)中分類器的錯誤率?!?、【單選題】下面關(guān)于BP神經(jīng)網(wǎng)絡(luò)的說法錯誤的是本題答案:【BP算法由誤差的正向傳播和數(shù)據(jù)的反向傳播兩個過程構(gòu)成?!?0、【單選題】下面關(guān)于熵的說法中,錯誤的是本題答案:【熵表示不確定性,熵越小不確定性越大?!?1、【單選題】下面關(guān)于PCA算法的說法中錯誤的是本題答案:【PCA算法是通過變換矩陣得到原有特征的線性組合,新特征之間是線性相關(guān)的。】12、【多選題】下列屬于監(jiān)督模式識別的是本題答案:【字符識別#人臉識別#車牌識別】13、【多選題】基于最小錯誤率的貝葉斯決策規(guī)則可以采用不同的形式,下列能表達(dá)其決策規(guī)則的是本題答案:【后驗概率#似然比#類條件概率】14、【多選題】下列關(guān)于最小風(fēng)險的貝葉斯決策的說法中正確的有本題答案:【最小風(fēng)險的貝葉斯決策考慮到了不同的錯誤率所造成的不同損失#最小錯誤率的貝葉斯決策是最小風(fēng)險的貝葉斯決策的特例#條件風(fēng)險反映了對于一個樣本x采用某種決策時所帶來的損失】15、【多選題】下面關(guān)于最大似然估計的說法中正確的是本題答案:【在最大似然估計中要求各個樣本必須是獨立抽取的。#最大似然估計是在已知概率密度函數(shù)的形式,但是參數(shù)未知的情況下,利用訓(xùn)練樣本來估計未知參數(shù)。#在最大似然函數(shù)估計中,要估計的參數(shù)是一個確定的量?!?6、【多選題】在基于樣本直接設(shè)計分類器時,屬于分類器設(shè)計三要素的是本題答案:【判別函數(shù)的類型#準(zhǔn)則函數(shù)的形式#尋優(yōu)算法】17、【多選題】下面關(guān)于最小平方誤差判別的說法中正確的是本題答案:【最小平方誤差判別方法適用于線性可分與線性不可分的情況#最小平方誤差判別方法中的準(zhǔn)則函數(shù)是誤差長度的平方和。#在最小平方誤差判別中可以使用梯度下降法來求解】18、【多選題】神經(jīng)網(wǎng)絡(luò)的模型受到哪些因素的影響本題答案:【傳遞函數(shù)#網(wǎng)絡(luò)結(jié)構(gòu)#連接權(quán)值的學(xué)習(xí)】19、【多選題】下面關(guān)于特征選擇與提取的說法中正確的是本題答案:【在不影響分類效果的前提下,特征越少越有利于分類。#在特征選擇中,有兩個很重要的方面,一個是特征的評價準(zhǔn)則,另外一個是特征的尋優(yōu)算法?!?0、【多選題】下面關(guān)于基于類內(nèi)類間距離的可分性判據(jù)的說法中正確的是本題答案:【基于類內(nèi)類間距離的可分性判據(jù)的值越大,說明可分離性越好。#當(dāng)各類的協(xié)方差矩陣相差很小時,采用基于類內(nèi)類間距離的可分性判據(jù)的效果會好一些?!?1、【多選題】下面關(guān)于分支定界法的說法中正確的是本題答案:【分枝定界法是一種自頂向下的方法,具有回溯的過程。#分枝定界法的計算量與具體問題和數(shù)據(jù)有關(guān)。#分枝定界法也是一種特征選擇的最優(yōu)算法?!?2、【多選題】下面關(guān)于分段線性判別函數(shù)的說法中正確的是本題答案:【具有推廣性的分段線性分類器是對各個子類分別定義一個線性判別函數(shù),判別時將樣本劃分到判別函數(shù)最大的子類所屬的類別。#分段線性判別函數(shù)能夠逼近任意的超曲面,具有很強的適應(yīng)性。】23、【多選題】下面關(guān)于神經(jīng)網(wǎng)絡(luò)的說法中正確的是本題答案:【單個感知器可以實現(xiàn)線性分類。#神經(jīng)元是神經(jīng)網(wǎng)絡(luò)的基本組成單元。#多層神經(jīng)網(wǎng)絡(luò)由輸入層、隱藏層和輸出層組成。#多個感知器可以解決非線性問題的分類?!?4、【多選題】下面算法中不屬于特征選擇的次優(yōu)算法的是本題答案:【窮舉法#分支定界法】25、【判斷題】感知器算法適用于線性可分的情況。本題答案:【正確】26、【判斷題】感知器準(zhǔn)則函數(shù)是用權(quán)向量a與所有的錯分樣本的乘積來表示對錯分樣本的懲罰。本題答案:【錯誤】27、【判斷題】符合正態(tài)分布的兩類樣本的分類面的位置與先驗概率無關(guān)。本題答案:【錯誤】28、【判斷題】在最小風(fēng)險的貝葉斯決策當(dāng)中不需要計算樣本的后驗概率。本題答案:【錯誤】29、【判斷題】如果在采取每一個決策或行動時,都使條件風(fēng)險最小,則對所有的x做出決策時,其期望風(fēng)險也必然最小。本題答案:【正確】30、【判斷題】在模式識別中,樣本的特征構(gòu)成特征空間,特征數(shù)量越多越有利于分類本題答案:【錯誤】31、【判斷題】fisher線性判別方法可以將樣本從多維空間投影到一維空間。本題答案:【正確】32、【判斷題】樣本經(jīng)過增廣化處理后樣本和權(quán)向量的維數(shù)都會增加一維。本題答案:【正確】33、【判斷題】最小平方誤差判別方法就是尋找使誤差長度的平方和最小的權(quán)值。本題答案:【正確】34、【判斷題】無監(jiān)督學(xué)習(xí)不需要訓(xùn)練集就可以進(jìn)行本題答案:【正確】35、【判斷題】ID3方法可以確保生成最優(yōu)的決策樹本題答案:【錯誤】36、【判斷題】近鄰法需要較大計算量和存儲量本題答案:【正確】
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 毛織造智能化發(fā)展考核試卷
- 潛水裝備海洋保護(hù)意識培訓(xùn)考核試卷
- 兒童乘騎玩耍童車產(chǎn)品的環(huán)境友好設(shè)計考核試卷
- 關(guān)于書采購合同標(biāo)準(zhǔn)文本
- 初創(chuàng)企業(yè)勞務(wù)合同標(biāo)準(zhǔn)文本
- 我國裝修工程設(shè)計合同
- 專業(yè)合同標(biāo)準(zhǔn)文本
- 共同制作招牌合同標(biāo)準(zhǔn)文本
- 公寓前臺轉(zhuǎn)租合同標(biāo)準(zhǔn)文本
- 專項委托代理標(biāo)準(zhǔn)合同標(biāo)準(zhǔn)文本
- 中國非遺文化儺戲文化
- 養(yǎng)老機構(gòu)護(hù)理服務(wù)及管理
- 2023年全國中學(xué)生生物學(xué)聯(lián)賽試題及詳細(xì)解析
- 危險化學(xué)品生產(chǎn)單位從業(yè)人員安全培訓(xùn)考核試卷
- 【MOOC】電子線路設(shè)計、測試與實驗(二)-華中科技大學(xué) 中國大學(xué)慕課MOOC答案
- 妊娠合并子宮頸癌診治中國專家共識(2024年版)解讀課 件
- 興業(yè)銀行個人助學(xué)貸款協(xié)議
- 醫(yī)院依法執(zhí)業(yè)培訓(xùn)課件
- 2024年煤礦安全管理人員(掘進(jìn)班組長)考試題庫(濃縮500題)
- 人教版小學(xué)數(shù)學(xué)四年級下冊第一單元測試卷附答案(共9套)
- 生物合成薄荷酮的新途徑
評論
0/150
提交評論