




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
第六章:經(jīng)典CNN模型介紹1.
AlexNet模型原理與實(shí)現(xiàn)2.VGG模型原理與實(shí)現(xiàn)3.InceptionV1模型原理與實(shí)現(xiàn)4.ResNet模型原理與實(shí)現(xiàn)5.批量歸一化(BN)原理與實(shí)現(xiàn)6.數(shù)據(jù)增強(qiáng)(DA)原理與實(shí)現(xiàn)7.遷移學(xué)習(xí)原理與實(shí)現(xiàn)學(xué)習(xí)目標(biāo)AlexNetAlexNet介紹:ImageNet競(jìng)賽冠軍獲得者Hinton和他的學(xué)生KrizhevskyAlex于2012年設(shè)計(jì)。ImageNet競(jìng)賽中第一個(gè)使用卷積神經(jīng)網(wǎng)絡(luò)的參賽者。AlexNet網(wǎng)絡(luò)結(jié)構(gòu):8層卷積層池化層卷積層池化層卷積層卷積層卷積層池化層輸出層:三個(gè)全連接層AlexNet網(wǎng)絡(luò)結(jié)構(gòu)AlexNet網(wǎng)絡(luò)結(jié)構(gòu)AlexNet創(chuàng)新點(diǎn):成功使用ReLU作為CNN的激活函數(shù);使用Dropout隨機(jī)忽略一部分神經(jīng)元,避免模型過(guò)擬合;在CNN中使用重疊的最大值池化(步長(zhǎng)小于卷積核);提出局部響應(yīng)歸一化層(LocalResponseNormalization,LRN),后逐漸被BN(BatchNormalization)代替;使用CUDA加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,利用了GPU強(qiáng)大的計(jì)算能力;采用了數(shù)據(jù)增強(qiáng)(DataAugmentation)技術(shù),達(dá)到增加樣本量的目的。AlexNet創(chuàng)新點(diǎn)局部響應(yīng)歸一化是對(duì)同層神經(jīng)元、鄰近特征映射進(jìn)行局部歸一化應(yīng)用在激活函數(shù)之后歸一化(Normalization)方法泛指把數(shù)據(jù)特征轉(zhuǎn)換為相同尺度的方法,比如把數(shù)據(jù)特征映射到[0,1]或[?1,1]區(qū)間內(nèi),或者映射為服從均值為0、方差為1的標(biāo)準(zhǔn)正態(tài)分布.案例:CIFAR10數(shù)據(jù)集介紹
Cifar10數(shù)據(jù)的獲取AlexNet用于Cifar10的Pytorch代碼VGGVGG(VisualGeometryGroup,DepartmentofEngineeringScience,UniversityofOxford)牛津大學(xué)計(jì)算機(jī)視覺(jué)組和DeepMind公司共同研發(fā)的一種深度卷積神經(jīng)網(wǎng)絡(luò)VGG網(wǎng)絡(luò)結(jié)構(gòu):6種從左到右深度越來(lái)越深加粗體表示新增的層所有網(wǎng)絡(luò)結(jié)構(gòu)都包含5組卷積操作,每組卷積包含一定數(shù)量的卷積層——可以看作一個(gè)五階段的卷積特征提取。獲得2014年ILSVRC分類項(xiàng)目第2名VGG網(wǎng)絡(luò)結(jié)構(gòu)輸入層:224×224×3的彩色圖像。第1組卷積層(2次卷積):Conv2D(3×3,64),Stride(1),same,ReLU,Output:224×224×64。第1個(gè)池化層:MaxPooling2D(2×2),Stride(2),Output:112×112×64。第2組卷積層(2次卷積):Conv2D(3×3,128),Stride(1),same,ReLU,Output:112×112×128。第2個(gè)池化層:MaxPooling2D(2×2),Stride(2),Output:。第3組卷積層(3次卷積):Conv2D(3×3,256),Stride(1),same,ReLU,Output:56×56×256。第3個(gè)池化層:MaxPooling2D(2×2),Stride(2),Output:。第4組卷積層(3次卷積):Conv2D(3×3,512),Stride(1),same,ReLU,Output:28×28×512。第4個(gè)池化層:MaxPooling2D(2×2),Stride(2),Output:。第5組卷積層(3次卷積):Conv2D(3×3,512),Stride(1),same,ReLU,Output:。第5個(gè)池化層:MaxPooling2D(),Stride(2),Output:。輸出層:Flatten,Dense(4096),Dense(4096),Dense(1000)。VGG網(wǎng)絡(luò)結(jié)構(gòu)VGG16網(wǎng)絡(luò)結(jié)構(gòu):5組卷積組和3個(gè)全連接層VGG網(wǎng)絡(luò)結(jié)構(gòu)VGG模型的Pytorch實(shí)現(xiàn)VGG模型的Pytorch實(shí)現(xiàn)BatchNormalization技巧批量歸一化(BatchNormalization,
BN)方法是一種有效的逐層歸一化方法,可以對(duì)神經(jīng)網(wǎng)絡(luò)中任意的中間層進(jìn)行歸一化操作(Ioffeetal.,2015).為了提高優(yōu)化效率,就要使得凈輸入??(??)的分布一致,比如都?xì)w一化到標(biāo)準(zhǔn)正態(tài)分布一般使用標(biāo)準(zhǔn)化將凈輸入??(??)的每一維都?xì)w一到標(biāo)準(zhǔn)正態(tài)分布??(??)的期望和方差通常用當(dāng)前小批量樣本集的均值和方差近似估計(jì)給定一個(gè)包含??個(gè)樣本的小批量樣本集合,第??層神經(jīng)元的凈輸入??(1,??)?,??(??,??)的均值和方差為BatchNormalization的核心思想對(duì)凈輸入??(??)的標(biāo)準(zhǔn)歸一化會(huì)使得其取值集中到0附近,如果使用Sigmoid型激活函數(shù)時(shí),這個(gè)取值區(qū)間剛好是接近線性變換的區(qū)間,減弱了神經(jīng)網(wǎng)絡(luò)的非線性性質(zhì).因此,為了使得歸一化不對(duì)網(wǎng)絡(luò)的表示能力造成負(fù)面影響,可以通過(guò)一個(gè)附加的縮放和平移變換改變?nèi)≈祬^(qū)間BatchNormalization的核心思想:BatchNormalization:AcceleratingDeepNetworkTrainingbyReducingInternalCovariateShiftBatchNormalization的核心思想
BatchNormalization的核心思想案例:貓狗數(shù)據(jù)集訓(xùn)練核心任務(wù):對(duì)貓和狗進(jìn)行分類其中訓(xùn)練集和驗(yàn)證集進(jìn)行了規(guī)范化的格式存儲(chǔ)樣本量:15000張訓(xùn)練,10000張驗(yàn)證,貓狗各50%讀入貓狗數(shù)據(jù)
帶有BN的寬模型這個(gè)模型中,卷積核的個(gè)數(shù)減少,但是模型的層數(shù)增加。每一層使用20個(gè)卷積核,進(jìn)行一個(gè)長(zhǎng)度為7的循環(huán),每一步要重復(fù)一個(gè)卷積和池化的基本操作,其中卷積層進(jìn)行規(guī)格大小為2×2的same卷積,池化層進(jìn)行規(guī)格大小為2×2的最大值池化。BN總結(jié):BatchNormalization在很多情況下確實(shí)是幫助巨大的,但并不是對(duì)所有情況都有幫助。在什么情況下BatchNormalization能夠讓結(jié)果變好,在什么情況下沒(méi)有幫助是不清楚的,是值得我們思考和研究的。帶有BN的深度模型DataAugmentation技巧DataAugmentation被翻譯成“數(shù)據(jù)增強(qiáng)”,或者“數(shù)據(jù)增廣”。它通過(guò)對(duì)數(shù)據(jù)施加各種變換來(lái)達(dá)到增加樣本量的目的。數(shù)據(jù)增強(qiáng)是深度學(xué)習(xí)中除了BatchNormalization外另一個(gè)非常常用的技巧。DataAugmentation技巧人和計(jì)算機(jī)處理圖像不同。原來(lái)的圖像被拉伸、變換或旋轉(zhuǎn),對(duì)計(jì)算機(jī)而言都是一個(gè)全新的矩陣。計(jì)算機(jī)對(duì)圖像數(shù)據(jù)用矩陣形式表達(dá)不充分。把一張圖像變成矩陣的過(guò)程中,是有信息損失的,而這些損失的信息很寶貴,有可能幫助我們把模型做得更好。DataAugmentation核心思想(1)RandomHorizontalFlip:允許水平方向的翻轉(zhuǎn)。(2)RandomCrop:隨機(jī)裁剪,參數(shù)size代表剪切后的圖片尺寸,參數(shù)padding代表裁剪前首先在圖片外補(bǔ)0。(3)RandomAffine:對(duì)坐標(biāo)進(jìn)行仿射變換,由五種基本變換構(gòu)成,分別為旋轉(zhuǎn)、平移、縮放、錯(cuò)切和翻轉(zhuǎn)。Degrees:最大旋轉(zhuǎn)角度;Translate:最大平移區(qū)間,如(a,b),a代表寬,b代表高;Scale:縮放比例區(qū)間,如(a,b),則圖片在a,b間縮放;Shear:最大錯(cuò)切角度,分為水平錯(cuò)切和垂直錯(cuò)切;若shear=a,則僅在x軸錯(cuò)切,若shear=(a,b),則a設(shè)置x軸角度,b設(shè)置y軸角度。Pytorch實(shí)現(xiàn)數(shù)據(jù)增強(qiáng)數(shù)據(jù)增強(qiáng)究竟增加了多少樣本?(1)每一條規(guī)則前都帶有Random,說(shuō)明這種變換是隨機(jī)的(2)同一張圖片,在第1個(gè)Epoch和第2個(gè)Epoch經(jīng)過(guò)數(shù)據(jù)變換后的輸出是有區(qū)別的第1個(gè)epoch第2個(gè)epochInceptionInception介紹:由Google團(tuán)隊(duì)提出,因此也被稱為GoogleNet;該模型一共有4個(gè)版本,從V1到V4;通過(guò)增加網(wǎng)絡(luò)的寬度(通道數(shù))來(lái)提升訓(xùn)練效果。InceptionV1網(wǎng)絡(luò)結(jié)構(gòu)InceptionV1模塊由多個(gè)Inception基礎(chǔ)模塊串聯(lián)而成。獲得了ILSVRC2014挑戰(zhàn)賽分類項(xiàng)目的冠軍InceptionV1基礎(chǔ)模塊Inception網(wǎng)絡(luò)結(jié)構(gòu)InceptionV1模塊創(chuàng)新點(diǎn):1.InceptionV1使用多個(gè)不同尺寸的卷積核(直觀理解:疊加不同尺寸的卷積核,可以從細(xì)節(jié)上提取更豐富的特征)。Inception網(wǎng)絡(luò)結(jié)構(gòu)
Inception網(wǎng)絡(luò)結(jié)構(gòu)舉例說(shuō)明:1*1的卷積核是如何起到減少參數(shù)的作用的?Inception網(wǎng)絡(luò)結(jié)構(gòu)InceptionV1完整的網(wǎng)絡(luò)結(jié)構(gòu)輸入層卷積層卷積層Inception3a層Inception3b層……Inception網(wǎng)絡(luò)結(jié)構(gòu)Pytorch構(gòu)建Inception基礎(chǔ)模塊Pytorch構(gòu)建Inception模型ResNet
ResNet網(wǎng)絡(luò)結(jié)構(gòu)殘差學(xué)習(xí)模塊的優(yōu)勢(shì):簡(jiǎn)化學(xué)習(xí)難度——傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)或者全連接網(wǎng)絡(luò),在信息傳遞時(shí),或多或少會(huì)存在信息丟失、損耗等問(wèn)題,同時(shí)還會(huì)導(dǎo)致梯度消失或梯度爆炸,使得很深的網(wǎng)絡(luò)無(wú)法訓(xùn)練。ResNet中常用的殘差學(xué)習(xí)模塊:常見(jiàn)的ResNet有50層、101層和152層。常見(jiàn)ResNet學(xué)習(xí)模塊ResNet網(wǎng)絡(luò)結(jié)構(gòu)34層ResNet網(wǎng)絡(luò)結(jié)構(gòu):conv1層conv2_x層conv3_x層conv4_x層conv5_x層全連接層ResNet網(wǎng)絡(luò)結(jié)構(gòu)FullyconnectedvsGlobalAveragePooling遷移學(xué)習(xí)深度學(xué)習(xí)的現(xiàn)實(shí)困難:經(jīng)典的網(wǎng)絡(luò)模型太多計(jì)算太昂貴,這里既包括硬件,也包括數(shù)據(jù)集深度學(xué)習(xí)的現(xiàn)實(shí)困難遷移學(xué)習(xí)(TransferLearning)是指將某個(gè)領(lǐng)域或任務(wù)上學(xué)習(xí)到
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 三年級(jí)數(shù)學(xué)計(jì)算題專項(xiàng)練習(xí)及答案集錦
- 二年級(jí)數(shù)學(xué)計(jì)算題專項(xiàng)練習(xí)集錦
- 第六單元 閱讀綜合實(shí)踐(教學(xué)設(shè)計(jì))七年級(jí)語(yǔ)文上冊(cè)同步高效課堂(統(tǒng)編版2024)
- 買新房認(rèn)購(gòu)合同范例
- 廠家合同范例范例
- 叉車買賣租賃合同范例
- 美術(shù)功能室管理工作總結(jié)美術(shù)功能室工作總結(jié)
- 醫(yī)院人事合同范例
- 合作簽名合同范本
- 試用期工作總結(jié)
- 【MOOC】中學(xué)教育見(jiàn)習(xí)與實(shí)習(xí)-河北師范大學(xué) 中國(guó)大學(xué)慕課MOOC答案
- 《社會(huì)應(yīng)急力量建設(shè)基礎(chǔ)規(guī)范 第3部分:山地搜救》知識(shí)培訓(xùn)
- 2025年河北省職業(yè)院校技能大賽(高職)嬰幼兒健康養(yǎng)育照護(hù)比賽參考試題庫(kù)含答
- 科研倫理與學(xué)術(shù)規(guī)范(研究生)期末試題
- 電影院管理與運(yùn)營(yíng)服務(wù)流程手冊(cè)
- 8.2 二氧化碳的性質(zhì)和用途 同步練習(xí)
- GB/T 44536-2024CVD陶瓷涂層熱膨脹系數(shù)和殘余應(yīng)力試驗(yàn)方法
- 現(xiàn)代家政導(dǎo)論-課件 6.1.1認(rèn)識(shí)道德與職業(yè)道德
- 北京市東城區(qū)2022-2023學(xué)年高三上學(xué)期期末考試地理試卷 含答案
- 深圳益電通變頻器說(shuō)明書(shū)TD90
- 人教版初中八年級(jí)物理上冊(cè)課件-第1章-機(jī)械運(yùn)動(dòng)
評(píng)論
0/150
提交評(píng)論