




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
深度學(xué)習(xí)與架構(gòu)開發(fā)試題及答案姓名:____________________
一、單項(xiàng)選擇題(每題1分,共20分)
1.深度學(xué)習(xí)中最常用的神經(jīng)網(wǎng)絡(luò)類型是?
A.感知機(jī)
B.決策樹
C.卷積神經(jīng)網(wǎng)絡(luò)
D.支持向量機(jī)
2.以下哪項(xiàng)不是深度學(xué)習(xí)中的超參數(shù)?
A.學(xué)習(xí)率
B.批處理大小
C.神經(jīng)元個(gè)數(shù)
D.激活函數(shù)
3.以下哪項(xiàng)是深度學(xué)習(xí)模型中的損失函數(shù)?
A.梯度下降
B.隨機(jī)梯度下降
C.交叉熵
D.預(yù)測值
4.在深度學(xué)習(xí)架構(gòu)開發(fā)中,以下哪項(xiàng)技術(shù)用于提升模型性能?
A.數(shù)據(jù)增強(qiáng)
B.特征選擇
C.特征提取
D.參數(shù)優(yōu)化
5.以下哪項(xiàng)不是深度學(xué)習(xí)模型訓(xùn)練過程中的常見問題?
A.過擬合
B.欠擬合
C.隨機(jī)噪聲
D.數(shù)據(jù)不平衡
6.在深度學(xué)習(xí)架構(gòu)開發(fā)中,以下哪項(xiàng)技術(shù)用于提高模型的泛化能力?
A.正則化
B.特征提取
C.數(shù)據(jù)增強(qiáng)
D.模型簡化
7.以下哪項(xiàng)不是深度學(xué)習(xí)模型中的優(yōu)化算法?
A.隨機(jī)梯度下降
B.梯度下降
C.Adam優(yōu)化器
D.歐幾里得距離
8.以下哪項(xiàng)是深度學(xué)習(xí)中的過擬合現(xiàn)象?
A.模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但在測試數(shù)據(jù)上表現(xiàn)較差
B.模型在測試數(shù)據(jù)上表現(xiàn)良好,但在訓(xùn)練數(shù)據(jù)上表現(xiàn)較差
C.模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)較差,但在測試數(shù)據(jù)上表現(xiàn)良好
D.模型在訓(xùn)練和測試數(shù)據(jù)上都表現(xiàn)良好
9.在深度學(xué)習(xí)架構(gòu)開發(fā)中,以下哪項(xiàng)技術(shù)用于降低模型復(fù)雜度?
A.數(shù)據(jù)增強(qiáng)
B.模型簡化
C.特征選擇
D.特征提取
10.以下哪項(xiàng)不是深度學(xué)習(xí)模型中的正則化技術(shù)?
A.L1正則化
B.L2正則化
C.Dropout
D.交叉熵
11.在深度學(xué)習(xí)架構(gòu)開發(fā)中,以下哪項(xiàng)技術(shù)用于提高模型計(jì)算效率?
A.并行計(jì)算
B.模型簡化
C.特征提取
D.數(shù)據(jù)增強(qiáng)
12.以下哪項(xiàng)是深度學(xué)習(xí)中的欠擬合現(xiàn)象?
A.模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但在測試數(shù)據(jù)上表現(xiàn)較差
B.模型在測試數(shù)據(jù)上表現(xiàn)良好,但在訓(xùn)練數(shù)據(jù)上表現(xiàn)較差
C.模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)較差,但在測試數(shù)據(jù)上表現(xiàn)良好
D.模型在訓(xùn)練和測試數(shù)據(jù)上都表現(xiàn)良好
13.在深度學(xué)習(xí)架構(gòu)開發(fā)中,以下哪項(xiàng)技術(shù)用于提高模型的魯棒性?
A.數(shù)據(jù)增強(qiáng)
B.特征選擇
C.模型簡化
D.交叉熵
14.以下哪項(xiàng)不是深度學(xué)習(xí)中的損失函數(shù)?
A.交叉熵
B.感知機(jī)損失
C.決策樹損失
D.稀疏損失
15.在深度學(xué)習(xí)架構(gòu)開發(fā)中,以下哪項(xiàng)技術(shù)用于提升模型性能?
A.數(shù)據(jù)增強(qiáng)
B.特征選擇
C.特征提取
D.參數(shù)優(yōu)化
16.以下哪項(xiàng)不是深度學(xué)習(xí)模型中的優(yōu)化算法?
A.隨機(jī)梯度下降
B.梯度下降
C.Adam優(yōu)化器
D.預(yù)測值
17.在深度學(xué)習(xí)架構(gòu)開發(fā)中,以下哪項(xiàng)技術(shù)用于提高模型的泛化能力?
A.正則化
B.特征提取
C.數(shù)據(jù)增強(qiáng)
D.模型簡化
18.以下哪項(xiàng)不是深度學(xué)習(xí)中的過擬合現(xiàn)象?
A.模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但在測試數(shù)據(jù)上表現(xiàn)較差
B.模型在測試數(shù)據(jù)上表現(xiàn)良好,但在訓(xùn)練數(shù)據(jù)上表現(xiàn)較差
C.模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)較差,但在測試數(shù)據(jù)上表現(xiàn)良好
D.模型在訓(xùn)練和測試數(shù)據(jù)上都表現(xiàn)良好
19.在深度學(xué)習(xí)架構(gòu)開發(fā)中,以下哪項(xiàng)技術(shù)用于降低模型復(fù)雜度?
A.數(shù)據(jù)增強(qiáng)
B.模型簡化
C.特征選擇
D.特征提取
20.以下哪項(xiàng)不是深度學(xué)習(xí)模型中的正則化技術(shù)?
A.L1正則化
B.L2正則化
C.Dropout
D.交叉熵
二、多項(xiàng)選擇題(每題3分,共15分)
1.以下哪些是深度學(xué)習(xí)架構(gòu)開發(fā)中的常見技術(shù)?
A.數(shù)據(jù)增強(qiáng)
B.特征選擇
C.模型簡化
D.交叉熵
2.以下哪些是深度學(xué)習(xí)中的損失函數(shù)?
A.交叉熵
B.感知機(jī)損失
C.決策樹損失
D.稀疏損失
3.以下哪些是深度學(xué)習(xí)中的優(yōu)化算法?
A.隨機(jī)梯度下降
B.梯度下降
C.Adam優(yōu)化器
D.預(yù)測值
4.以下哪些是深度學(xué)習(xí)中的正則化技術(shù)?
A.L1正則化
B.L2正則化
C.Dropout
D.交叉熵
5.以下哪些是深度學(xué)習(xí)中的過擬合現(xiàn)象?
A.模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但在測試數(shù)據(jù)上表現(xiàn)較差
B.模型在測試數(shù)據(jù)上表現(xiàn)良好,但在訓(xùn)練數(shù)據(jù)上表現(xiàn)較差
C.模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)較差,但在測試數(shù)據(jù)上表現(xiàn)良好
D.模型在訓(xùn)練和測試數(shù)據(jù)上都表現(xiàn)良好
三、判斷題(每題2分,共10分)
1.深度學(xué)習(xí)中的超參數(shù)可以通過經(jīng)驗(yàn)進(jìn)行選擇。()
2.數(shù)據(jù)增強(qiáng)可以提高深度學(xué)習(xí)模型的泛化能力。()
3.交叉熵?fù)p失函數(shù)適用于分類問題。()
4.Adam優(yōu)化器在訓(xùn)練過程中不需要手動(dòng)調(diào)整學(xué)習(xí)率。()
5.深度學(xué)習(xí)模型中的正則化技術(shù)可以提高模型的魯棒性。()
6.深度學(xué)習(xí)中的過擬合現(xiàn)象可以通過模型簡化來解決。()
7.數(shù)據(jù)增強(qiáng)可以增加模型在訓(xùn)練過程中的噪聲。()
8.深度學(xué)習(xí)中的欠擬合現(xiàn)象可以通過增加模型復(fù)雜度來解決。()
9.深度學(xué)習(xí)中的激活函數(shù)可以提高模型的計(jì)算效率。()
10.深度學(xué)習(xí)中的正則化技術(shù)可以降低模型的復(fù)雜度。()
四、簡答題(每題10分,共25分)
1.題目:簡述深度學(xué)習(xí)中正則化技術(shù)的作用和常見類型。
答案:正則化技術(shù)是深度學(xué)習(xí)中用于防止過擬合的重要手段。其作用是限制模型參數(shù)的規(guī)模,使得模型更加簡單,從而降低過擬合的風(fēng)險(xiǎn)。常見的正則化技術(shù)包括L1正則化和L2正則化,以及Dropout。L1正則化通過在損失函數(shù)中添加L1懲罰項(xiàng)來限制模型參數(shù)的絕對值,L2正則化通過添加L2懲罰項(xiàng)來限制模型參數(shù)的平方和。Dropout則是一種在訓(xùn)練過程中隨機(jī)丟棄一部分神經(jīng)元的方法,以此來強(qiáng)制模型學(xué)習(xí)更加魯棒的特征。
2.題目:解釋深度學(xué)習(xí)中批處理的概念及其對模型訓(xùn)練的影響。
答案:批處理是在深度學(xué)習(xí)模型訓(xùn)練中,將數(shù)據(jù)分成小批次進(jìn)行處理的技術(shù)。通過批處理,可以在每個(gè)小批次中計(jì)算損失函數(shù)和梯度,然后對整個(gè)批次進(jìn)行優(yōu)化。批處理的好處包括可以減少內(nèi)存消耗,提高計(jì)算效率,以及通過隨機(jī)化輸入數(shù)據(jù)來減少過擬合。批處理的大?。╞atchsize)對模型的訓(xùn)練過程有重要影響,較小的批處理大小可能導(dǎo)致模型訓(xùn)練不穩(wěn)定,而較大的批處理大小則可能使得模型更容易過擬合。
3.題目:描述深度學(xué)習(xí)模型中梯度下降算法的工作原理,并解釋為什么需要使用動(dòng)量。
答案:梯度下降算法是一種優(yōu)化算法,用于在深度學(xué)習(xí)模型中找到最小化損失函數(shù)的參數(shù)。其工作原理是計(jì)算損失函數(shù)對每個(gè)參數(shù)的梯度,然后沿著梯度方向更新參數(shù),以減少損失值。動(dòng)量是梯度下降算法中的一個(gè)技巧,用于加速收斂速度并防止在平坦區(qū)域陷入局部最小值。動(dòng)量通過累積先前梯度的信息,使得算法能夠在更新參數(shù)時(shí)保留先前梯度的方向,從而加速向最小值方向移動(dòng)。動(dòng)量有助于在優(yōu)化過程中避免頻繁的振蕩,提高訓(xùn)練效率。
五、論述題
題目:論述深度學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域的應(yīng)用及其面臨的挑戰(zhàn)。
答案:深度學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域取得了顯著的進(jìn)展,使得許多傳統(tǒng)方法難以實(shí)現(xiàn)的任務(wù)變得可行。以下是一些深度學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域的應(yīng)用及其面臨的挑戰(zhàn):
1.應(yīng)用:
a.圖像分類:深度學(xué)習(xí)模型,如卷積神經(jīng)網(wǎng)絡(luò)(CNN),能夠自動(dòng)從大量數(shù)據(jù)中學(xué)習(xí)特征,實(shí)現(xiàn)高精度的圖像分類。
b.目標(biāo)檢測:通過深度學(xué)習(xí),可以實(shí)現(xiàn)實(shí)時(shí)目標(biāo)檢測,如人臉識別、車輛檢測等,廣泛應(yīng)用于安全監(jiān)控和自動(dòng)駕駛領(lǐng)域。
c.圖像分割:深度學(xué)習(xí)模型可以實(shí)現(xiàn)對圖像的像素級分割,如醫(yī)學(xué)圖像分割、衛(wèi)星圖像分割等,有助于疾病診斷和環(huán)境監(jiān)測。
d.視頻處理:深度學(xué)習(xí)可以用于視頻動(dòng)作識別、視頻摘要和視頻理解等領(lǐng)域,提高視頻信息的利用效率。
2.挑戰(zhàn):
a.數(shù)據(jù)依賴性:深度學(xué)習(xí)模型的性能很大程度上依賴于大量的標(biāo)注數(shù)據(jù),數(shù)據(jù)收集和標(biāo)注成本高昂。
b.計(jì)算資源:深度學(xué)習(xí)模型通常需要大量的計(jì)算資源進(jìn)行訓(xùn)練和推理,對硬件設(shè)備的要求較高。
c.模型可解釋性:深度學(xué)習(xí)模型在處理復(fù)雜任務(wù)時(shí),往往難以解釋其決策過程,這限制了其在一些對決策過程要求較高的領(lǐng)域的應(yīng)用。
d.泛化能力:深度學(xué)習(xí)模型在訓(xùn)練過程中容易過擬合,降低其在未知數(shù)據(jù)上的泛化能力。
e.模型復(fù)雜度:隨著深度學(xué)習(xí)模型層數(shù)的增加,模型的復(fù)雜度和計(jì)算量也會相應(yīng)增加,導(dǎo)致模型難以優(yōu)化和部署。
針對上述挑戰(zhàn),研究人員正在探索以下解決方案:
a.數(shù)據(jù)增強(qiáng):通過數(shù)據(jù)變換、合成等方法,增加數(shù)據(jù)集的多樣性,提高模型的泛化能力。
b.模型壓縮:通過剪枝、量化等方法,降低模型復(fù)雜度,減少計(jì)算量和存儲空間。
c.可解釋性研究:通過可視化、解釋模型決策過程等方法,提高模型的可解釋性。
d.模型輕量化:通過設(shè)計(jì)輕量級網(wǎng)絡(luò)結(jié)構(gòu)和優(yōu)化算法,降低模型對計(jì)算資源的需求。
e.跨域?qū)W習(xí):利用跨領(lǐng)域數(shù)據(jù),提高模型在不同領(lǐng)域的泛化能力。
試卷答案如下:
一、單項(xiàng)選擇題(每題1分,共20分)
1.C
解析思路:感知機(jī)、決策樹和決策樹損失屬于傳統(tǒng)的機(jī)器學(xué)習(xí)算法,而卷積神經(jīng)網(wǎng)絡(luò)(CNN)是深度學(xué)習(xí)中常用的神經(jīng)網(wǎng)絡(luò)類型,特別適用于圖像處理任務(wù)。
2.D
解析思路:學(xué)習(xí)率、批處理大小和神經(jīng)元個(gè)數(shù)都是深度學(xué)習(xí)模型中的超參數(shù),而激活函數(shù)是神經(jīng)網(wǎng)絡(luò)中用于引入非線性變換的函數(shù),不屬于超參數(shù)。
3.C
解析思路:交叉熵是深度學(xué)習(xí)中最常用的損失函數(shù)之一,用于分類問題。感知機(jī)損失、決策樹損失和稀疏損失不是深度學(xué)習(xí)中的標(biāo)準(zhǔn)損失函數(shù)。
4.A
解析思路:數(shù)據(jù)增強(qiáng)是一種通過改變數(shù)據(jù)來提高模型泛化能力的技巧,而特征選擇、特征提取和參數(shù)優(yōu)化是數(shù)據(jù)預(yù)處理和模型調(diào)整的方法。
5.C
解析思路:過擬合是指模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但在測試數(shù)據(jù)上表現(xiàn)較差,而欠擬合是指模型在訓(xùn)練和測試數(shù)據(jù)上都表現(xiàn)較差。隨機(jī)噪聲不是深度學(xué)習(xí)模型訓(xùn)練過程中的常見問題。
6.A
解析思路:正則化技術(shù),如L1和L2正則化,通過限制模型參數(shù)的規(guī)模來防止過擬合,而特征選擇、特征提取和模型簡化是其他提高模型性能的方法。
7.D
解析思路:隨機(jī)梯度下降、梯度下降和Adam優(yōu)化器都是深度學(xué)習(xí)中的優(yōu)化算法,而歐幾里得距離是用于度量兩點(diǎn)之間距離的數(shù)學(xué)概念。
8.A
解析思路:過擬合現(xiàn)象是指模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但在測試數(shù)據(jù)上表現(xiàn)較差,這是深度學(xué)習(xí)模型訓(xùn)練過程中常見的問題。
9.B
解析思路:模型簡化是通過減少模型復(fù)雜度來降低過擬合風(fēng)險(xiǎn)的方法,而數(shù)據(jù)增強(qiáng)、特征選擇和特征提取是其他提高模型性能的技術(shù)。
10.C
解析思路:交叉熵是深度學(xué)習(xí)中的損失函數(shù),而L1正則化、L2正則化和Dropout是正則化技術(shù),用于防止過擬合。
11.A
解析思路:并行計(jì)算是一種提高模型計(jì)算效率的方法,而模型簡化、特征提取和數(shù)據(jù)增強(qiáng)是其他提高模型性能的技術(shù)。
12.B
解析思路:欠擬合現(xiàn)象是指模型在訓(xùn)練和測試數(shù)據(jù)上都表現(xiàn)較差,這是深度學(xué)習(xí)模型訓(xùn)練過程中常見的問題。
13.C
解析思路:模型簡化是通過減少模型復(fù)雜度來提高模型魯棒性的方法,而數(shù)據(jù)增強(qiáng)、特征選擇和交叉熵是其他提高模型性能的技術(shù)。
14.C
解析思路:交叉熵是深度學(xué)習(xí)中的損失函數(shù),而感知機(jī)損失、決策樹損失和稀疏損失不是深度學(xué)習(xí)中的標(biāo)準(zhǔn)損失函數(shù)。
15.D
解析思路:參數(shù)優(yōu)化是提升深度學(xué)習(xí)模型性能的方法之一,而數(shù)據(jù)增強(qiáng)、特征選擇和特征提取是其他提高模型性能的技術(shù)。
16.D
解析思路:預(yù)測值不是深度學(xué)習(xí)中的優(yōu)化算法,而隨機(jī)梯度下降、梯度下降和Adam優(yōu)化器是常用的優(yōu)化算法。
17.A
解析思路:正則化技術(shù),如L1和L2正則化,通過限制模型參數(shù)的規(guī)模來提高模型的泛化能力,而特征提取、數(shù)據(jù)增強(qiáng)和模型簡化是其他提高模型性能的方法。
18.D
解析思路:過擬合現(xiàn)象是指模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但在測試數(shù)據(jù)上表現(xiàn)較差,這是深度學(xué)習(xí)模型訓(xùn)練過程中常見的問題。
19.B
解析思路:模型簡化是通過減少模型復(fù)雜度來降低過擬合風(fēng)險(xiǎn)的方法,而數(shù)據(jù)增強(qiáng)、特征選擇和特征提取是其他提高模型性能的技術(shù)。
20.C
解析思路:交叉熵是深度學(xué)習(xí)中的損失函數(shù),而L1正則化、L2正則化和Dropout是正則化技術(shù),用于防止過擬合。
二、多項(xiàng)選擇題(每題3分,共15分)
1.ABCD
解析思路:數(shù)據(jù)增強(qiáng)、特征選擇、模型簡化和交叉熵都是深度學(xué)習(xí)架構(gòu)開發(fā)中的常見技術(shù),用于提高模型性能和泛化能力。
2.AC
解析思路:交叉熵和稀疏損失是深度學(xué)習(xí)中的損失函數(shù),而感知機(jī)損失和決策樹損失不是深度學(xué)習(xí)中的標(biāo)準(zhǔn)損失函數(shù)。
3.ABC
解析思路:隨機(jī)梯度下降、梯度下降和Adam優(yōu)化器是深度學(xué)習(xí)中的優(yōu)化算法,而預(yù)測值不是優(yōu)化算法。
4.ABC
解析思路:L1正則化、L2正則化和Dropout是深度學(xué)習(xí)中的正則化技術(shù),用于防止過擬合,而交叉熵是損失函數(shù)。
5.AD
解析思路:過擬合現(xiàn)象是指模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但在測試數(shù)據(jù)上表現(xiàn)較差,這是深度學(xué)習(xí)模型訓(xùn)練過程中常見的問題。欠擬合是指模型在訓(xùn)練和測試數(shù)據(jù)上都表現(xiàn)較差。
三、判斷題(每題2分,共10分)
1.×
解析思路:深度學(xué)習(xí)中的超參數(shù)需要根據(jù)具體問題進(jìn)行調(diào)整,不能僅僅通過經(jīng)驗(yàn)選擇。
2.√
解析思路:數(shù)據(jù)增強(qiáng)可以增加數(shù)據(jù)集的多樣性,提高模型的泛化能力。
3.√
解析思路:交叉熵?fù)p失函數(shù)適用于分類問題,能夠計(jì)算模型預(yù)測概率與真實(shí)標(biāo)簽之間的差異。
4.√
解析思路:Adam優(yōu)化器在訓(xùn)練過程中通過自適應(yīng)學(xué)習(xí)率調(diào)整,不需
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 石油開采業(yè)的資源儲量與利用現(xiàn)狀考核試卷
- 竹材在復(fù)合材料領(lǐng)域的應(yīng)用考核試卷
- 電子電路的智能城市基礎(chǔ)設(shè)施建設(shè)考核試卷
- 童車制造企業(yè)市場拓展與渠道建設(shè)考核試卷
- 電視機(jī)制造業(yè)的可持續(xù)發(fā)展目標(biāo)與實(shí)現(xiàn)路徑考核試卷
- 那一段什么的時(shí)光初三語文作文
- 理想初二語文作文
- 工藝美術(shù)創(chuàng)新與實(shí)踐考核試卷
- 移動(dòng)通信技術(shù)在智慧金融的應(yīng)用考核試卷
- 紙張與紙板生產(chǎn)中的質(zhì)量檢測與控制考核試卷
- 公共停車場建設(shè)項(xiàng)目可行性研究報(bào)告
- 急危重癥患者家屬護(hù)理課件
- 2024年中考數(shù)學(xué)幾何模型歸納(全國通用):18 全等與相似模型之十字模型(學(xué)生版)
- 海南師范大學(xué)《高等數(shù)學(xué)》2020-2021期末試卷B
- 溫度元件檢修規(guī)程
- 非暴力溝通(完整版)
- 全國小學(xué)數(shù)學(xué)優(yōu)質(zhì)課一等獎(jiǎng)《雞兔同籠》教學(xué)設(shè)計(jì)
- 點(diǎn)凸焊操作工藝規(guī)程
- mpa政治學(xué)全套課件
- 物理名師工作室三年規(guī)劃
- 跳頻通信系統(tǒng)課件
評論
0/150
提交評論