卷積神經(jīng)網(wǎng)絡(luò)(CNN)的參數(shù)優(yōu)化方法_第1頁(yè)
卷積神經(jīng)網(wǎng)絡(luò)(CNN)的參數(shù)優(yōu)化方法_第2頁(yè)
卷積神經(jīng)網(wǎng)絡(luò)(CNN)的參數(shù)優(yōu)化方法_第3頁(yè)
卷積神經(jīng)網(wǎng)絡(luò)(CNN)的參數(shù)優(yōu)化方法_第4頁(yè)
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

卷積神經(jīng)網(wǎng)絡(luò)(CNN)的參數(shù)優(yōu)化方法著名:?本文是從MichaelNielsen的電子書NeuralNetworkandDeepLearning的深度學(xué)習(xí)那一章的卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)優(yōu)化方法的一些總結(jié)和摘錄,并不是我自己的結(jié)論和做實(shí)驗(yàn)所得到的結(jié)果。我想Michael的實(shí)驗(yàn)結(jié)果更有說(shuō)服力一些。本書在github上有中文翻譯的版本,前言最近卷積神經(jīng)網(wǎng)絡(luò)(CNN)很火熱,它在圖像分類領(lǐng)域的卓越表現(xiàn)引起了大家的廣泛關(guān)注。本文總結(jié)和摘錄了MichaelNielsen的那本NeuralNetworkandDeepLearning一書中關(guān)于深度學(xué)習(xí)一章中關(guān)于提高泛化能力的一些概述和實(shí)驗(yàn)結(jié)果。力爭(zhēng)用數(shù)據(jù)給大家一個(gè)關(guān)于正則化,增加卷積層/全連接數(shù),棄權(quán)技術(shù),拓展訓(xùn)練集等參數(shù)優(yōu)化方法的效果。本文并不會(huì)介紹正則化,棄權(quán)(Dropout),池化等方法的原理,只會(huì)介紹它們?cè)趯?shí)驗(yàn)中的應(yīng)用或者起到的效果,更多的關(guān)于這些方法的解釋請(qǐng)自行查詢。mnist數(shù)據(jù)集介紹本文的實(shí)驗(yàn)是基于mnist數(shù)據(jù)集合的,mnist是一個(gè)從0到9的手寫數(shù)字集合,共有60,000張訓(xùn)練圖片,10,000張測(cè)試圖片。每張圖片大小是28*28大小。我們的實(shí)驗(yàn)就是構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)高精度的分類圖片,也就是提高泛化能力。提高泛化能力的方法一般來(lái)說(shuō),提高泛化能力的方法主要有以下幾個(gè):正則化增加神經(jīng)網(wǎng)絡(luò)層數(shù)使用正確的代價(jià)函數(shù)使用好的權(quán)重初始化技術(shù)人為拓展訓(xùn)練集棄權(quán)技術(shù)下面我們通過(guò)實(shí)驗(yàn)結(jié)果給這些參數(shù)優(yōu)化理論一個(gè)直觀的結(jié)果1.普通的全連接神經(jīng)網(wǎng)絡(luò)的效果我們使用一個(gè)隱藏層,包含100個(gè)隱藏神經(jīng)元,輸入層是784,輸出層是one-hot編碼的形式,最后一層是Softmax層。訓(xùn)練過(guò)程采用對(duì)數(shù)似然代價(jià)函數(shù),60次迭代,學(xué)習(xí)速率η=0.1,隨機(jī)梯度下降的小批量數(shù)據(jù)大小為10,沒有正則化。在測(cè)試集上得到的結(jié)果是97.8%,代碼如下:

>>>importnetwork3

>>>fromnetwork3importNetwork

>>>fromnetwork3importConvPoolLayer,FullyConnectedLayer,SoftmaxLayer

>>>training_data,validation_data,test_data=network3.load_data_shared()

>>>mini_batch_size=10

>>>net=Network([

FullyConnectedLayer(n_in=784,n_out=100),

SoftmaxLayer(n_in=100,n_out=10)],mini_batch_size)

>>>net.SGD(training_data,60,mini_batch_size,0.1,

validation_data,test_data)2.使用卷積神經(jīng)網(wǎng)絡(luò)—僅一個(gè)卷積層輸入層是卷積層,5*5的局部感受野,也就是一個(gè)5*5的卷積核,一共20個(gè)特征映射。最大池化層選用2*2的大小。后面是100個(gè)隱藏神經(jīng)元的全連接層。結(jié)構(gòu)如圖所示在這個(gè)架構(gòu)中,我們把卷積層和chihua層看做是學(xué)習(xí)輸入訓(xùn)練圖像中的局部感受野,而后的全連接層則是一個(gè)更抽象層次的學(xué)習(xí),從整個(gè)圖像整合全局信息。也是60次迭代,批量數(shù)據(jù)大小是10,學(xué)習(xí)率是0.1.代碼如下,

>>>net=Network([

ConvPoolLayer(image_shape=(mini_batch_size,1,28,28),

filter_shape=(20,1,5,5),

poolsize=(2,2)),

FullyConnectedLayer(n_in=20*12*12,n_out=100),

SoftmaxLayer(n_in=100,n_out=10)],mini_batch_size)

>>>net.SGD(training_data,60,mini_batch_size,0.1,

validation_data,test_data)經(jīng)過(guò)三次運(yùn)行取平均后,準(zhǔn)確率是98.78%,這是相當(dāng)大的改善。錯(cuò)誤率降低了1/3,。卷積神經(jīng)網(wǎng)絡(luò)開始顯現(xiàn)威力。3.使用卷積神經(jīng)網(wǎng)絡(luò)—兩個(gè)卷積層我們接著插入第二個(gè)卷積-混合層,把它插入在之前的卷積-混合層和全連接層之間,同樣的5*5的局部感受野,2*2的池化層。

>>>net=Network([

ConvPoolLayer(image_shape=(mini_batch_size,1,28,28),

filter_shape=(20,1,5,5),

poolsize=(2,2)),

ConvPoolLayer(image_shape=(mini_batch_size,20,12,12),

filter_shape=(40,20,5,5),

poolsize=(2,2)),

FullyConnectedLayer(n_in=40*4*4,n_out=100),

SoftmaxLayer(n_in=100,n_out=10)],mini_batch_size)

>>>net.SGD(training_data,60,mini_batch_size,0.1,

validation_data,test_data)這一次,我們擁有了99.06%的準(zhǔn)確率。4.使用卷積神經(jīng)網(wǎng)絡(luò)—兩個(gè)卷積層+線性修正單元(ReLU)+正則化上面我們使用的Sigmod激活函數(shù),現(xiàn)在我們換成線性修正激活函數(shù)ReLU

f(z)=max(0,z),我們選擇60個(gè)迭代期,學(xué)習(xí)速率η=0.03,,使用L2正則化,正則化參數(shù)λ=0.1,代碼如下

>>>fromnetwork3importReLU

>>>net=Network([

ConvPoolLayer(image_shape=(mini_batch_size,1,28,28),

filter_shape=(20,1,5,5),

poolsize=(2,2),

activation_fn=ReLU),

ConvPoolLayer(image_shape=(mini_batch_size,20,12,12),

filter_shape=(40,20,5,5),

poolsize=(2,2),

activation_fn=ReLU),

FullyConnectedLayer(n_in=40*4*4,n_out=100,activation_fn=ReLU),

SoftmaxLayer(n_in=100,n_out=10)],mini_batch_size)

>>>net.SGD(training_data,60,mini_batch_size,0.03,

validation

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論