版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
卷積神經(jīng)網(wǎng)絡(luò)N與計(jì)算機(jī)視覺(一)導(dǎo)入計(jì)算機(jī)視覺是一門研究如何使計(jì)算機(jī)識(shí)別圖片地科學(xué),也是深度學(xué)地主要應(yīng)用領(lǐng)域之一。在眾多深度模型,卷積神經(jīng)網(wǎng)絡(luò)獨(dú)領(lǐng)風(fēng)騷,已經(jīng)稱為計(jì)算機(jī)視覺地主要研究工具之一。本章首先介紹卷積神經(jīng)網(wǎng)絡(luò)地基本知識(shí),而后給出一些常見地卷積神經(jīng)網(wǎng)絡(luò)模型。本章要點(diǎn)卷積神經(jīng)網(wǎng)絡(luò)地基本思想卷積操作池化層卷積神經(jīng)網(wǎng)絡(luò)VGG網(wǎng)絡(luò)InceptionRes用PyTorch行手寫數(shù)字識(shí)別卷積神經(jīng)網(wǎng)絡(luò)最初由YannLeCun等在一九八九年提出,是最初取得成功地深度神經(jīng)網(wǎng)絡(luò)之一。它地基本思想是:局部連接。參數(shù)享。卷積神經(jīng)網(wǎng)絡(luò)地基本思想局部連接傳統(tǒng)地BP神經(jīng)網(wǎng)絡(luò),例如多層感知器,前一層地某個(gè)節(jié)點(diǎn)與后一層地所有節(jié)點(diǎn)都有連接,后一層地某一個(gè)結(jié)點(diǎn)與前一層地所有結(jié)點(diǎn)也有連接,這種連接方式稱為全局連接。如果前一層有個(gè)結(jié)點(diǎn),后一層有個(gè)結(jié)點(diǎn),我們就會(huì)有個(gè)連接權(quán)值,每一輪后向傳播更新權(quán)值地時(shí)候都要對這些權(quán)值行重新計(jì)算,造成了地計(jì)算與內(nèi)存開銷。卷積神經(jīng)網(wǎng)絡(luò)地基本思想局部連接而局部連接地思想就是使得兩層之間只有相鄰地結(jié)點(diǎn)才行連接,即連接都是"局部"地。以圖像處理為例,直覺上,圖像地某一個(gè)局部地像素點(diǎn)組合在一起呈現(xiàn)出一些特征,而距離比較遠(yuǎn)地像素點(diǎn)組合起來則沒有什么實(shí)際意義,因此這種局部連接地方式可以在圖像處理地問題上有較好地表現(xiàn)。如果把連接限制在空間相鄰地個(gè)結(jié)點(diǎn),就把連接權(quán)值降低到了,計(jì)算與內(nèi)存開銷就降低到了卷積神經(jīng)網(wǎng)絡(luò)地基本思想局部連接在圖像處理,我們認(rèn)為圖像地特征具有局部,那么對于每一個(gè)局部使用不同地特征抽取方式是否合理呢?由于不同地圖像在結(jié)構(gòu)上相差甚遠(yuǎn),同一個(gè)局部位置地特征并不具有,對于某一個(gè)局部使用特定地連接權(quán)值不能讓我們得到更好地結(jié)果。因此我們考慮讓空間不同位置地結(jié)點(diǎn)連接權(quán)值行享:例如在圖七.二,屬于結(jié)點(diǎn)地連接權(quán)值可以被結(jié)點(diǎn)以地方式享。其它結(jié)點(diǎn)地權(quán)值享類似。這樣一來,兩層之間地連接權(quán)值就減少到個(gè);雖然在前向傳播與后向傳播地過程,計(jì)算開銷仍為,但內(nèi)存開銷被減少到常數(shù)級(jí)別。卷積神經(jīng)網(wǎng)絡(luò)地基本思想離散地卷積操作正是這樣一種操作,它滿足了以上局部連接,參數(shù)享地質(zhì)。代表卷積操作地結(jié)點(diǎn)層稱為卷積層。在泛函分析,卷積被定義為則一維離散地卷積操作可以被定義為現(xiàn)在,假設(shè)與分別代表一個(gè)從向量下標(biāo)到向量元素值地映射,令表示輸入向量,表示地向量稱為卷積核(Kernel),則卷積核施加于輸入向量上地操作類似于一個(gè)權(quán)值向量在輸入向量上移動(dòng),每移動(dòng)一步行一次加權(quán)求與操作;每一步移動(dòng)地距離被稱為步長(Stride)。例如,我們?nèi)≥斎胂蛄看笮?卷積核大小為,步長,則卷積操作過程如下圖所示.卷積操作卷積操作這樣就實(shí)現(xiàn)了從前一層地輸入向量提取特征到后一層地操作,這種操作具有局部連接(每個(gè)結(jié)點(diǎn)只與與其相鄰地個(gè)結(jié)點(diǎn)有連接)以及參數(shù)享(所用地卷積核為同一個(gè)向量)地特。類似地,我們可以拓展到二維,以及更高維度地卷積操作。卷積操作多個(gè)卷積核:利用一個(gè)卷積核行卷積抽取特征是不充分地,因此在實(shí)踐,通常使用多個(gè)卷積核來提升特征提取地效果,之后將所得不同卷積核卷積所得特征張量沿第一維拼接形成更高一個(gè)維度地特征張量。多通道卷積:在處理彩色圖像時(shí),輸入地圖像有RGB三個(gè)通道地?cái)?shù)值,這個(gè)時(shí)候使用不同地卷積核對每個(gè)通道行卷積,然后使用激活函數(shù)將相同位置地卷積特征合并為一個(gè)。邊界填充:在之前圖,卷積核地心并不是從邊界上開始掃描地。以一維卷積為例,大小為地卷積核在大小為地輸入向量上行操作后所得到地卷積特征向量大小會(huì)縮小為。當(dāng)卷積層數(shù)增加地時(shí)候,特征向量大小就會(huì)以地速度坍縮,這使得更深地神經(jīng)網(wǎng)絡(luò)變得不可能,因?yàn)樵诏B加到第個(gè)卷積層之后卷積特征將坍縮為標(biāo)量。卷積操作池化(Pooling)地目地是降低特征空間地維度,只抽取局部最顯著地特征,同時(shí)這些特征出現(xiàn)地具體位置也被忽略。這樣做是符合直覺地:以圖像處理為例,我們通常關(guān)注地是一個(gè)特征是否出現(xiàn),而不太關(guān)心它們出現(xiàn)在哪里;這被稱為圖像地靜態(tài)。通過池化降低空間維度地做法不但降低了計(jì)算開銷,還使得卷積神經(jīng)網(wǎng)絡(luò)對于噪聲具有魯棒。池化層常見地池化類型有最大池化,均池化等。最大池化是指在池化區(qū)域,取卷積特征值最大地作為所得池化特征值;均池化則是指在池化區(qū)域取所有卷積特征值地均作為池化特征值。如圖八.六所示,在二維地卷積操作之后得到一個(gè)地卷積特征矩陣,池化區(qū)域大小為,這樣得到地就是一個(gè)地池化特征矩陣。需要注意地是,與卷積核在重疊地區(qū)域行卷積操作不同,池化區(qū)域是互不重疊地。池化層一般來說,卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralwork,N)由一個(gè)卷積層,一個(gè)池化層,一個(gè)非線激活函數(shù)層組成。卷積神經(jīng)網(wǎng)絡(luò)在圖像分類表現(xiàn)良好地深度神經(jīng)網(wǎng)絡(luò)往往由許多"卷積層+池化層"地組合堆疊而成,通常多達(dá)數(shù)十乃至上百層。卷積神經(jīng)網(wǎng)絡(luò)VGG,Inception,Res等N網(wǎng)絡(luò)從大規(guī)模圖像數(shù)據(jù)集訓(xùn)練地用于圖像分類地網(wǎng)絡(luò),Image從二零一零年起每年都舉辦圖像分類地競賽,為了公起見,它為每位參賽者提供來自于一零零零個(gè)類別地一二零萬張圖像。在如此巨大地?cái)?shù)據(jù)集訓(xùn)練出地深度學(xué)模型特征具有非常良好地泛化能力,在遷移學(xué)后,可以被用于除圖像分類之外地其它任務(wù),比如目地檢測,圖像分割。PyTorch地torchvision.models為我們提供了大量地模型實(shí)現(xiàn),以及模型地預(yù)訓(xùn)練權(quán)重文件,其就包括本節(jié)介紹地VGG,Res,Inception。經(jīng)典網(wǎng)絡(luò)結(jié)構(gòu)VGG網(wǎng)絡(luò)VGG網(wǎng)絡(luò)地特點(diǎn)是用小卷積核代替先前網(wǎng)絡(luò)(如Alex)地大卷積核。比如,三個(gè)步長為一地地卷積核與一個(gè)大小地卷積核地感受野是一致地,二個(gè)步長為一地地卷積核與一個(gè)大小地卷積核地感受野是一致地。除此之外,VGG地全卷積核結(jié)構(gòu)降低了參數(shù)量,比如一個(gè)卷積核,其參數(shù)量為,而具有相同感受野地全卷積核地參數(shù)量為。VGG網(wǎng)絡(luò)與Alex地整體結(jié)構(gòu)一致,都是先用五層卷積層提取圖像特征,再用三層全連接層作為分類器。經(jīng)典網(wǎng)絡(luò)結(jié)構(gòu)VGG網(wǎng)絡(luò)結(jié)構(gòu)經(jīng)典網(wǎng)絡(luò)結(jié)構(gòu)InceptionInception(GoogLe)主要是由多個(gè)稱為Inception模塊實(shí)現(xiàn)地它是一個(gè)分支結(jié)構(gòu),一有四個(gè)分支,第一個(gè)分支是卷積核,第二個(gè)分支是先行卷積,然后再卷積,第三個(gè)分支同樣先卷積,然后再接一層卷積。第四個(gè)分支先是地最大池化層,然后再用卷積。最后,四個(gè)通道計(jì)算過地特征映射用沿通道維度拼接地方式組合到一起。經(jīng)典網(wǎng)絡(luò)結(jié)構(gòu)Inception網(wǎng)絡(luò)結(jié)構(gòu)經(jīng)典網(wǎng)絡(luò)結(jié)構(gòu)Inception圖地間層可以分為四列來看,其第一列地卷積核與間兩列地,卷積核主要用于提取特征。不同大小地卷積核拼接到一起,使得這一結(jié)構(gòu)具有多尺度地表達(dá)能力。右側(cè)三列地卷積核用于特征降維,可以減少計(jì)算量。第四列最大池化層地使用是因?yàn)閷?shí)驗(yàn)表明池化層往往有比較好地效果。最后,Inception網(wǎng)絡(luò)達(dá)到了二二層,為了讓如此深度如此大地網(wǎng)絡(luò)能夠穩(wěn)定地訓(xùn)練,Inception在網(wǎng)絡(luò)間添加了額外地兩個(gè)分類損失函數(shù),在訓(xùn)練這些損失函數(shù)相加為一個(gè)最終地?fù)p失,在驗(yàn)證過程這兩個(gè)額外地?fù)p失函數(shù)不再使用。經(jīng)典網(wǎng)絡(luò)結(jié)構(gòu)Res神經(jīng)網(wǎng)絡(luò)越深,對復(fù)雜特征地表示能力就越強(qiáng)。但是單純地提升網(wǎng)絡(luò)地深度會(huì)導(dǎo)致在反向傳播算法在傳遞梯度時(shí),發(fā)生梯度消失現(xiàn)象,導(dǎo)致網(wǎng)絡(luò)地訓(xùn)練無效。通過一些權(quán)重初始化方法與BatchNormalization可以解決這一問題,但是,即便使用了這些方法,網(wǎng)絡(luò)在達(dá)到一定深度之后,模型訓(xùn)練地準(zhǔn)確率不會(huì)再提升,甚至?xí)_始下降,這種現(xiàn)象稱為訓(xùn)練準(zhǔn)確率地退化(degradation)問題。退化問題表明,深層模型地訓(xùn)練是非常困難地。Res提出了殘差學(xué)地方法,用于解決深度學(xué)模型地退化問題。經(jīng)典網(wǎng)絡(luò)結(jié)構(gòu)Res地殘差學(xué)假設(shè)輸入數(shù)據(jù)是,常規(guī)地神經(jīng)網(wǎng)絡(luò)是通過幾個(gè)堆疊地層去學(xué)一個(gè)映射,而Res學(xué)地是映射與輸入地殘差,相應(yīng)地,原有地表示就變成。盡管兩種表示是等價(jià)地,而實(shí)驗(yàn)表明,殘差學(xué)更容易訓(xùn)練。Res是由幾個(gè)堆疊地殘差模塊表示地,可以將殘差結(jié)構(gòu)形式化為:其表示要學(xué)地殘差映射。經(jīng)典網(wǎng)絡(luò)結(jié)構(gòu)Res地殘差學(xué)殘差模塊地基本結(jié)構(gòu)如圖所示。在圖殘差映射一有兩層,可表示為,其表示ReLU激活函數(shù),在下圖地例子一有兩層,Res地實(shí)現(xiàn)大量采用了兩層或三層地殘差結(jié)構(gòu),而實(shí)際這個(gè)數(shù)量并沒有限制。經(jīng)典網(wǎng)絡(luò)結(jié)構(gòu)torch.utils.data.Datasets是PyTorch用來表示數(shù)據(jù)集地類,在本節(jié)我們使用torchvision.datasets.MNIST構(gòu)建手寫數(shù)字?jǐn)?shù)據(jù)集。用PyTorch行手寫數(shù)字識(shí)別下面代碼第五行實(shí)例化了Datasets對象。第七行,使用了len(mnist),這里調(diào)用了_len_方法,第八行使用了mnist[j],調(diào)用地是_getitem_,在我們自己建立數(shù)據(jù)集時(shí),需要繼承Dataset,并且覆寫_item_與_len_兩個(gè)方法。第九-一零行繪制了MNIST手寫數(shù)字?jǐn)?shù)據(jù)集。用PyTorch行手寫數(shù)字識(shí)別代碼段用PyTorch行手寫數(shù)字識(shí)別數(shù)據(jù)預(yù)處理是非常重要地步驟,PyTorch提供了torchvision.transforms用于處理數(shù)據(jù)及數(shù)據(jù)增強(qiáng)。在這里我們使用了torchvision.transforms.ToTensor,它將PILImage或者numpy.ndarray類型地?cái)?shù)據(jù)抓換為Tensor,并且它會(huì)將數(shù)據(jù)從映射到之間。orchvision.transforms.Normalize會(huì)將數(shù)據(jù)標(biāo)準(zhǔn)化,將訓(xùn)練數(shù)據(jù)標(biāo)準(zhǔn)化會(huì)加速模型在訓(xùn)練地收斂速率。在使用,可以利用torchvision.transforms.pose將多個(gè)transforms組合到一起,被包含地transforms會(huì)順序執(zhí)行。用PyTorch行手寫數(shù)字識(shí)別準(zhǔn)備好處理好數(shù)據(jù)地流程后,就可以讀取用于訓(xùn)練地?cái)?shù)據(jù)了,torch.utils.data.DataLoader提供了迭代數(shù)據(jù),隨機(jī)抽取數(shù)據(jù),批量化數(shù)據(jù),使用multiprocessing并行化讀取數(shù)據(jù)地功能。下面定義了函數(shù)imshow,第二行將數(shù)據(jù)從標(biāo)準(zhǔn)化地?cái)?shù)據(jù)恢復(fù)出來,第三行將Tensor類型轉(zhuǎn)換為ndarray,這樣才可以用matplotlib繪制出來,繪制地結(jié)果如圖所示,第四行將矩陣地維度從(C,W,H)轉(zhuǎn)換為(W,H,C)。用PyTorch行手寫數(shù)字識(shí)別代碼段用PyTorch行手寫數(shù)字識(shí)別在準(zhǔn)備好數(shù)據(jù)與模型后,我們就可以訓(xùn)練模型了。下面我們分別定義了數(shù)據(jù)處理與加載流程,模型,優(yōu)化器,損失函數(shù),以及用準(zhǔn)確率評(píng)估模型能力。模型訓(xùn)練迭代過程地?fù)p失圖像如圖所示。用PyTorch行手寫數(shù)字識(shí)別模型訓(xùn)練迭代過程地準(zhǔn)確率圖像如圖所示。用PyTorch行手寫數(shù)字識(shí)別小結(jié) 本章介紹了卷積神經(jīng)網(wǎng)絡(luò)與計(jì)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024版建筑砌體作業(yè)承包協(xié)議版B版
- 2024版花卉苗木購銷合同書范本
- 二零二四年度2024綿陽倉儲(chǔ)租賃合同模板3篇
- 二零二四寧波電影院裝修工程合同模板3篇
- 2024年銷售合同終止協(xié)議:終止條款匯編
- 安徽公司二零二五年度氨水集中采購與環(huán)保監(jiān)測合同
- 2025年度生態(tài)農(nóng)業(yè)園區(qū)物業(yè)管理與技術(shù)服務(wù)協(xié)議3篇
- 2025年私立醫(yī)院與藥企合作藥品供應(yīng)及倉儲(chǔ)服務(wù)合同3篇
- 2025年行政事業(yè)單位合同管理制度規(guī)范與合同履行監(jiān)督3篇
- 2024版公園宣傳欄租賃合同
- 建筑公司年度工作總結(jié)及計(jì)劃(6篇)
- 2023年昆明貴金屬研究所招聘筆試模擬試題及答案解析
- 硫酸裝置試生產(chǎn)方案
- 國家重點(diǎn)??婆R床護(hù)理專業(yè)評(píng)選標(biāo)準(zhǔn)
- DB11T 1944-2021 市政基礎(chǔ)設(shè)施工程暗挖施工安全技術(shù)規(guī)程
- 中國農(nóng)業(yè)核心期刊要目概覽
- 好聽簡單的鋼琴譜
- 技術(shù)咨詢合同書(浙江省科學(xué)技術(shù)廳監(jiān)制)
- 《中外資產(chǎn)評(píng)估準(zhǔn)則》課件第5章 美國評(píng)估準(zhǔn)則
- 《軸系結(jié)構(gòu)設(shè)計(jì)》ppt課件
- 應(yīng)用化學(xué)專業(yè)英語unit.ppt
評(píng)論
0/150
提交評(píng)論