




下載本文檔
版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、機(jī)器學(xué)習(xí)課程項(xiàng)目報(bào)告高光譜圖像分類基于CNN和ELM學(xué)院信息工程學(xué)院專業(yè)電子與通信工程學(xué)號(hào)2111603035學(xué)生姓名曹發(fā)賢同組學(xué)生陳惠明、陳濤碩士導(dǎo)師楊志景2016年11月一、項(xiàng)目意義與價(jià)值高光譜遙感技術(shù)起源于20世紀(jì)80年代初,是在多光譜遙感技術(shù)基礎(chǔ)之上發(fā)展起來(lái)的1。高光譜遙感能夠通過(guò)成像光譜儀在可見(jiàn)光、近紅外、短波紅外、中紅外等電磁波譜范圍獲取近似連續(xù)的光譜曲線,將表征地物幾何位置關(guān)系的空間信息與表征地物屬性特征的光譜信息有機(jī)地融合在了一起,使得提取地物的細(xì)節(jié)信息成為可能。隨著新型成像光譜儀的光譜分辨率的提高,人們對(duì)相關(guān)地物的光譜屬性特征的了解也不斷深入,許多隱藏在狹窄光譜范圍內(nèi)的地物特
2、性逐漸被人們所發(fā)現(xiàn),這些藥素大大加速了遙感技術(shù)的發(fā)展,使高光譜遙感成為21世紀(jì)遙感技術(shù)領(lǐng)域重要的研究方向之一。在將高光譜數(shù)據(jù)應(yīng)用于各領(lǐng)域之前,必須進(jìn)行必要的數(shù)據(jù)處理。常用的數(shù)據(jù)處理技術(shù)方法包括:數(shù)據(jù)降維、目標(biāo)檢測(cè)、變化檢測(cè)等。其中,分類是遙感數(shù)據(jù)處理中比較重要的環(huán)節(jié),分類結(jié)果不但直接提取了影像數(shù)據(jù)有效信息,可以直接運(yùn)用于實(shí)際需求中,同時(shí)也是實(shí)現(xiàn)各種應(yīng)用的前提,為后續(xù)應(yīng)用提供有用的數(shù)據(jù)信息和技術(shù)支持,如為目標(biāo)檢測(cè)提供先驗(yàn)信息、為解混合提供端元信息等。相對(duì)于多光譜遙感而言,由于高光譜遙感的波譜覆蓋范圍較寬,因此我們可以根據(jù)需要選擇特定的波段來(lái)突顯地物特征,從而能夠精確地處理地物的光譜信2。目前,許
3、多國(guó)家開(kāi)展大量的科研項(xiàng)目對(duì)高光譜遙感進(jìn)行研究,研制出許多不同類型的成像光譜儀。高光譜遙感正逐步從地面遙感發(fā)展到航空遙感和航天遙感,并在地圖繪制、資源勘探、農(nóng)作物監(jiān)測(cè)、精細(xì)農(nóng)業(yè)、海洋環(huán)境監(jiān)測(cè)等領(lǐng)域發(fā)揮重要的作用。高光譜遙感技術(shù)雖然是遙感領(lǐng)域的新技術(shù),但是高光譜圖像的分類一直制約著高光譜遙感的應(yīng)用3,4,因此對(duì)其進(jìn)行研究顯得尤為重要。高光譜遙感圖像較高的光譜分辨率給傳統(tǒng)的圖像分類識(shí)別算法提出嚴(yán)峻的挑戰(zhàn)。波段維數(shù)的增加不僅加重了數(shù)據(jù)的存儲(chǔ)與傳輸?shù)呢?fù)擔(dān),同時(shí)也加劇了數(shù)據(jù)處理過(guò)程的復(fù)雜性,并且由于波段與波段間存在著大量的冗余信息,從而使得傳統(tǒng)圖像分類算法并不適用于高光譜遙感圖像的分類。傳統(tǒng)的分類方法往往
4、需要很多數(shù)目的已知類別的訓(xùn)練樣本,從而導(dǎo)致計(jì)算量大,時(shí)間復(fù)雜度高。另外,如果訓(xùn)練樣本的數(shù)目較少,采用傳統(tǒng)分類算法進(jìn)行分類時(shí)分類精度往往是很低的,【大I此提高分類精度并減少運(yùn)算量成為高光譜領(lǐng)域的熱點(diǎn)問(wèn)題。高光譜遙感圖像的波段數(shù)目多,并且波段與波段間存在著很大的相關(guān)性,因此在進(jìn)行遙感圖像的處理(例如分類)之前通常需要進(jìn)行降維預(yù)處理,這樣做不僅可以降低數(shù)據(jù)空間的維數(shù),減少冗余信息,而且還有利于人工圖像解譯和后續(xù)分類處理和地物識(shí)別,從而為解決高光譜遙感分類的難點(diǎn)提供了方便5。二、高光譜圖像分類的發(fā)展與現(xiàn)狀高光譜圖像分類作為高光譜圖像的基礎(chǔ)研究,一直是高光譜圖像重要的信息獲取手段,它的主要目標(biāo)是根據(jù)待測(cè)
5、地物的空間幾何信息與光譜信息將圖像中的每個(gè)像素劃分為不同的類別。高光譜圖像分類按照是否有已知類別的訓(xùn)練樣本的參與,高光譜圖像的分類方式分為監(jiān)督分類與非監(jiān)督分類6。在遙感圖像自動(dòng)分類中,傳統(tǒng)的基于數(shù)理統(tǒng)計(jì)的分類方法,主要包括最小距離分類、最大似然分類、波譜角分類、混合距離法分類等,主要依賴地物的光譜屬性,基于單個(gè)像元進(jìn)行分類。統(tǒng)計(jì)模式識(shí)別方法本身的不足:1、最大似然法計(jì)算強(qiáng)度大,且要求數(shù)據(jù)服從正態(tài)分布2、Kmeans聚類分類精度低,分類精度依賴于初始聚類中心3、最小距離法沒(méi)有考慮各類別的協(xié)方差矩陣,對(duì)訓(xùn)練樣本數(shù)目要求低近年來(lái)對(duì)于神經(jīng)網(wǎng)絡(luò)分類方法的研究相當(dāng)活躍。它區(qū)別于傳統(tǒng)的分類方法:在處理模式分
6、類問(wèn)題時(shí),并不基于某個(gè)假定的暇率分布,在無(wú)監(jiān)督分類中,從特征空間到模式空間的映射是通過(guò)網(wǎng)絡(luò)自組織完成的。在監(jiān)督分類中,網(wǎng)絡(luò)通過(guò)對(duì)訓(xùn)練樣本的學(xué)習(xí),獲得權(quán)值,形成分類器,且具備容錯(cuò)性。人工神經(jīng)網(wǎng)絡(luò)(ANN)分類方法一般可以獲得更高精度的分類結(jié)果,因此ANN方法在遙感分類中被廣泛應(yīng)用,特別是對(duì)于復(fù)雜類型的地物類型分類,ANN方法顯示了其優(yōu)越性。專家系統(tǒng)分類法也在遙感分類取得了一定的應(yīng)用。專家系統(tǒng)是模擬人類邏輯思維的智能系統(tǒng),將其應(yīng)用于遙感分類最大的優(yōu)點(diǎn)就是可以充分利用更多的輔助分類數(shù)據(jù)。不過(guò)由于專家系統(tǒng)知識(shí)庫(kù)難以建立,影響了它的進(jìn)一步發(fā)展。支持向量機(jī)(SVM)具有嚴(yán)格的理論基礎(chǔ),能較好地解決小樣本、
7、非線性、高維數(shù)等問(wèn)題,被成功地應(yīng)用到多光譜、高光譜遙感圖像分類領(lǐng)域。對(duì)于高光譜數(shù)據(jù)而言,由于波段多、數(shù)據(jù)量大、數(shù)據(jù)不確定性等,易受Hughes現(xiàn)象(即訓(xùn)練樣本固定時(shí),分類精度隨特征維數(shù)的增加而下降)影響。而樣本的獲取在高光譜分類中往往是一項(xiàng)比較困難的工作,特別是采用高維特征向量時(shí)要求每類的樣本數(shù)都要比特征維數(shù)高,因此在高維信息處理中的精度與效率和高光譜遙感信息精細(xì)光譜與大數(shù)據(jù)量之間仍然存在著極大的矛盾。三、卷積神經(jīng)網(wǎng)絡(luò)理論基礎(chǔ)卷積神經(jīng)網(wǎng)絡(luò)是人工神經(jīng)網(wǎng)絡(luò)的一種,它的權(quán)值共享網(wǎng)絡(luò)結(jié)構(gòu)使之更類似于生物神經(jīng)網(wǎng)絡(luò),降低了網(wǎng)絡(luò)模型的復(fù)雜度,減少的權(quán)值的數(shù)髭以節(jié)約訓(xùn)練和測(cè)試的計(jì)算時(shí)間。該優(yōu)點(diǎn)在網(wǎng)絡(luò)的輸入是多
8、維圖像時(shí)表現(xiàn)得更加明顯,使圖像可以直接作為網(wǎng)絡(luò)的輸入,避免了傳統(tǒng)識(shí)別算法中復(fù)雜的特征提取和數(shù)據(jù)重建過(guò)程。卷積神經(jīng)網(wǎng)絡(luò)是為識(shí)別二維數(shù)據(jù)而專門設(shè)計(jì)的一個(gè)多層感知機(jī),其網(wǎng)絡(luò)對(duì)平移、比例變化和傾斜等具有高度不變性7。在CNN中,圖像的一小部分(局部感受區(qū)域)作為層級(jí)結(jié)構(gòu)的最低層的輸入,信息再依次傳輸?shù)讲煌膶?,每層通過(guò)一個(gè)數(shù)字濾波器去獲得觀測(cè)數(shù)據(jù)的最顯著的特征。這個(gè)方法能夠獲取對(duì)平移、縮放和旋轉(zhuǎn)不變的觀測(cè)數(shù)據(jù)的顯著特征,因?yàn)閳D像的局部感受區(qū)域允許神經(jīng)元或者處理單元可以訪問(wèn)到最基礎(chǔ)的特征,例如定向邊緣或者角點(diǎn)。卷積神經(jīng)網(wǎng)絡(luò)是一個(gè)多層的神經(jīng)網(wǎng)絡(luò),每層由多個(gè)二維平面組成,每個(gè)平面乂由多個(gè)獨(dú)立的神經(jīng)元組成。圖
9、2為卷積神經(jīng)網(wǎng)絡(luò)的整體結(jié)構(gòu)圖。一般地,C層(卷積層)為特征提取層,每個(gè)神經(jīng)元的輸入與前一層的局部感受野相連,并提取該局部的特征,一旦該局部特征被提取后,它與其他特征間的位置關(guān)系也隨之確定下來(lái):S層(下采樣層)是特征映射層,網(wǎng)絡(luò)的每個(gè)計(jì)算層由多個(gè)特征映射組成,每個(gè)特征映射為一個(gè)平面,平面上所有神經(jīng)元的權(quán)值相等。特征映射結(jié)構(gòu)采用sigmoid函數(shù)等映射函數(shù)作為卷積網(wǎng)絡(luò)的激活函數(shù),使得特征映射具有位移不變性。此外,由于一個(gè)映射面上的神經(jīng)元共享權(quán)值,因而減少了網(wǎng)絡(luò)自由參數(shù)的個(gè)數(shù),降低了網(wǎng)絡(luò)參數(shù)選擇的復(fù)雜度。卷積神經(jīng)網(wǎng)絡(luò)中的每一個(gè)特征提取層(C-層)都緊跟著一個(gè)用來(lái)求局部平均與二次提取的計(jì)算層(S-層)
10、,這種特有的兩次特征提取結(jié)構(gòu)使網(wǎng)絡(luò)在識(shí)別時(shí)對(duì)輸入樣本有較高的畸變?nèi)萑棠芰?。卷積神經(jīng)網(wǎng)絡(luò)采用有監(jiān)督學(xué)習(xí)的方式進(jìn)行訓(xùn)練,即任何一個(gè)訓(xùn)練樣本的類別是己知的,訓(xùn)練樣本在空間中的分布不再是依據(jù)其自然分布傾向來(lái)劃分,而是根據(jù)同類樣本和不同類樣本中的空間關(guān)系進(jìn)行劃分,這需要不斷調(diào)整網(wǎng)絡(luò)模型的參數(shù)用以劃分樣本空間的分類邊界的位置,是一個(gè)耗時(shí)且復(fù)雜的學(xué)習(xí)訓(xùn)練過(guò)程8。神經(jīng)網(wǎng)絡(luò)在進(jìn)行訓(xùn)練時(shí),所有的網(wǎng)絡(luò)權(quán)值都用一些不同的小隨機(jī)數(shù)進(jìn)行初始化,這些小的隨機(jī)數(shù)能偶保證網(wǎng)絡(luò)不會(huì)因?yàn)闄?quán)值過(guò)大而進(jìn)入飽和狀態(tài),導(dǎo)致訓(xùn)練失敗。神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法包括4個(gè)主要部分:(1)樣本集中取出樣本(X,yp)并將其輸入網(wǎng)絡(luò),X代表圖像數(shù)組,yp代表
11、其類別:(2)計(jì)算此次輸入相應(yīng)的實(shí)際輸出Op,這是一個(gè)前向傳播的過(guò)程;(3)用一個(gè)指定的損失函數(shù)計(jì)算出實(shí)際輸出Op與理想輸出與的誤差;(4)按極小化誤差的方法反向傳播調(diào)整網(wǎng)絡(luò)權(quán)值。四、極限學(xué)習(xí)機(jī)極限學(xué)習(xí)機(jī)(extremelearningmachine)ELM是一種簡(jiǎn)單易用、有效的單隱層前饋神經(jīng)網(wǎng)絡(luò)SLFNs學(xué)習(xí)算法。2004年由南洋理工大學(xué)黃廣斌副教授提出。傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法(如BP算法)需要人為設(shè)置大量的網(wǎng)絡(luò)訓(xùn)練參數(shù),并且很容易產(chǎn)生局部最優(yōu)解。極限學(xué)習(xí)機(jī)只需要設(shè)置網(wǎng)絡(luò)的隱層節(jié)點(diǎn)個(gè)數(shù),在算法執(zhí)行過(guò)程中不需要調(diào)整網(wǎng)絡(luò)的輸入權(quán)值以及隱元的偏置.,并且產(chǎn)生唯一的最優(yōu)解,因此具有學(xué)習(xí)速度快且泛化性
12、能好的優(yōu)點(diǎn)。極限學(xué)習(xí)機(jī)的網(wǎng)絡(luò)訓(xùn)練模型采用前向單隱層結(jié)構(gòu)。設(shè)*M,n分別為網(wǎng)絡(luò)輸入層、隱含層和輸出層的節(jié)點(diǎn)數(shù),g(x)是隱層神經(jīng)元的激活函數(shù),I為閾值。設(shè)有N個(gè)不同樣本(%由),l<i<N,其中%=國(guó)/2,%j7Rm&=htxi'則極限學(xué)習(xí)機(jī)的網(wǎng)絡(luò)訓(xùn)練模型如圖1所示。工“工連*,工m圖1極限學(xué)習(xí)機(jī)的網(wǎng)絡(luò)訓(xùn)練模型極限學(xué)習(xí)機(jī)的網(wǎng)絡(luò)模型可用數(shù)學(xué)表達(dá)式表示如下:ZAs(4,+bj=Oj,j=1,2,.,Ni=l式中,Q=®,%,表示連接網(wǎng)絡(luò)輸入層節(jié)點(diǎn)與第i個(gè)隱層節(jié)點(diǎn)的輸入權(quán)值向量;以=442,.,以表示連接第i個(gè)隱層節(jié)點(diǎn)與網(wǎng)絡(luò)輸出層節(jié)點(diǎn)的輸出權(quán)值向量:0、=Mi,q
13、:i,.,o1n表示網(wǎng)絡(luò)輸出值。極限學(xué)習(xí)機(jī)的代價(jià)函數(shù)E可表示為E(SM=£k-tJj=】式中,s=(Q,b1,i=L2,.,M),包含了網(wǎng)絡(luò)輸入權(quán)值及隱層節(jié)點(diǎn)閾值。Huang等指出極限學(xué)習(xí)機(jī)的懸鏈目標(biāo)就是尋求最優(yōu)的S,夕使得網(wǎng)絡(luò)輸出值與對(duì)應(yīng)實(shí)際值誤差最小,即n】in(E(S,0)。min(E(S,0)可進(jìn)一步寫為min(E(S,/7)=哂但(如,%山,聞,均,網(wǎng))2-T|式中,H表示網(wǎng)絡(luò)關(guān)于樣本的隱層輸出矩陣,。表示輸出權(quán)值矩陣,T表示樣本集的目標(biāo)值矩陣,H,0,T分別定義如下:(可片+。)g(/小+3)-h(叫>»兒»%).»)二g(q0+d),
14、M極限學(xué)習(xí)機(jī)的網(wǎng)絡(luò)訓(xùn)練過(guò)程可歸結(jié)為一個(gè)非線性優(yōu)化問(wèn)題。當(dāng)網(wǎng)絡(luò)隱層節(jié)點(diǎn)的激活函數(shù)無(wú)限可微時(shí),網(wǎng)絡(luò)的輸入權(quán)值和隱層節(jié)點(diǎn)閾值可隨機(jī)賦值,此時(shí)矩陣H為一常數(shù)矩陣,極限學(xué)習(xí)機(jī)的學(xué)習(xí)過(guò)程可等價(jià)為求取線性系統(tǒng)H"=T最小范數(shù)的最小二乘解力,其計(jì)算式為=H4T式中H卡時(shí)矩陣H的MP廣義逆。五、具體實(shí)現(xiàn)及主要代碼1、訓(xùn)練的樣本及其樣本圖ROSEPavBUniversityNoNameTranTest6631inAnhalt5482Meadowsr540186493Gravelr392L2099|41Treesr52430645Metaisheetsr265L13456BaresoilL532L5029
15、7Biumen37513308BrrksL51436829ShadowsI231L947Total392142776ROSEPaviaCenterNo1NameTrailTest1Water824659712Trees82075983Meadow824130904Bricks80826855JSoilJ820JL65846A中halt8169284LBitumen80872878life1260428269Shadows4762863Total7456148152SalnasNoNameTranTest1BrocolLgi«en_weed_l30120092-JBrocoILfirc
16、en_weed_255937263JFalbw2961976r41Falbwjrough_pbwI20913945Falbw_smooth40226786Stubbh59439597Cefery53735798JGrapes_untrahedri69i112719JSoIvhyaid_devebp930620310Com_senscedjgreenjweedsr492327811Lettuceromahe_4wk160106812Lettuce_romahe_5wk289192713Lettuceromahe_6wk13791614Lettuce_romane_7wk161107015Vhya
17、rdjuntrahedrio9o726816Vnyard_verti?aItreIlis2711807Total811954129fileE&MewIrsenToolsDedacpWindewfileEdtFTod?C«tepVYirdoa附JdwkwC-DkX-3圖10京乖期西日400200»040)500600700fileEchViewIrser-ocfcDesktopV<indowHep3D口204060B01001201401601802002、原圖及進(jìn)行分類后的圖和各個(gè)高光譜數(shù)據(jù)集每一類的分類精度TheresultofPaviaUniversity
18、He試施hertToclsD則他如附fileEditViewInset*oosDeskx)pWWcmHelp品(dir、ZWiTT0IBIrainingTime=1.9344IramingAccuracy=0.9707品aKM娛小。目口lestinline=1.65361stm肚:curacy=0.9324crnhliOverallAccuncyis0.932392EeliAverageArcmarris0.S3S345creliCAAazjyracyis0.S9262ScmhliCAAoziyracyis0.942945criihliCAAcizjyracjris0.S6i697CLnhli
19、CAArayracjris0.980418cmhliCAAorjyracyis0.;8?361cnhliCAArayracyis0.92I52I)cmhliCAAorjyracyisQ:5;:35unhliCAArayracyis0.910918unklxCAAcizrrscyis0.5SI388antdilappais0.911218TheresultofPaviaCenterTestintTiae=5.5692IestingAccuracy=0.9892Iraininglime=3.3384IraimngAccuracy=0.9862crm+elaOverallAccuracyis0.98
20、922:cnn+elaAveraceAccuracyis0.976868con+elaCAAcuuyracyis0.999803cnn+el*CAAcuuyracyis0.958147cnn*el*CAAcuuyracyis0.970550cnn+elaCAAcuuyracyis0.978399crm+elaCAAcuuyracyis0.965067cnn+el>CAAcuuyracyis0.982483cnn+elBCAAcuuyracyis0.946068cnn+elaCAAcuuyracyis0.992341crarelMCAAcuuyracyis0.998952cnn*elaka
21、ppais0.984768TheresultofSalinasHeEditViewInsert*oobDesktopMdowHdp0210HeEatVew/雙oolsDesktooftrdcwHdpi五口204060BOin12014016018020020108)00IM1»M0M0IM200Testingliiie=5.5316lestingAccuracy0.9490cmelxOverallAccuracyisC.949029crxi4-el>AverageAccuracyis0.973815urnmCAAcuurracy0.999502CAAcuu7racy1£
22、;0.998121Cm,FelBCAAcuu/racyisO.0B89B8kainmelir.?=cnntelaCAAcuu/tacyis0.997131cm4-el>CAAcuurracyis0.995892crn4-cl>CAAcuurracy150.95211225.1282em+whCAAcuuzraoy0.996927crn-t-elMCAAcuuzracyis0.904001cnn-hl>CAAcuuracyis0.996292cnntel»CAAcuuyracyis0.966138IraimniAcniracy=cmelxCAAcuusrracy130
23、.993446cm4-clxCAAcuuzracyL£1.000000cmYi.CAAcuuzracyL£0.9934500.S681um+wlACAAcuuzracyL£0.973832cnn-bel>CAAcuu/tacyis0.823473cm+el-CAAcuuyracy150.981738cm4-cl>kappais0.9431993、主要代碼ThemaincodeofPaviaUniversityofMatlab%ConvolutionNeuralNetwork.AndExtremLearningMachine%Test1forPaviaU
24、niversity%STEP1:InitializecnnConfig=config();thetarmeta=cnnlnitParams(cnnConfig);n_class=cnnConfig.layermeta.numLayers.dimension;loadPaviaU;loadPaviaU_gt;images/labels,indexs,samimage=loadtrain(paviaUrpaviaU_gt);d=cnnConfig.layer1).dimension;images=reshape(images,d(1),d(2),d(3)z);%STEP2:Train(TheCnn
25、AndElm)options.epochs=1;options.minibatch=30;options.alpha=0.05;newtheta=minFuncSGD(x,y,z)cnnCost(x,y,z,cnnConfig,meta),theta,imagesrlabelsoptions);K=cnnExtract(newtheta,imagescnnConfigrmeta);TrainingTimetTrainingAccuracyrInputweightrBiasofEiddenNeurons,OutputWeight#NumberofOutputNeurons=elmtrain(K,
26、labelsT,1,900);%STEP3:TesttestImages/testLabels,testlndexs=loadtest(paviaUrpaviaU_gt);testlmages=reshape(test工mages,d(1),d(2),d,);rowfcol=size(paviaU_gt);testK=cnnExtract(newthetartestimages,cnnConfigrmeta);TestingTimerTestingAccuracy,testoutputlabelsactuaioutputs=elmpredict(testKftestLabelstestlnde
27、xs1,InputweightzBiasofHiddenNeuronsfOutputweight;NumberofOutputNeurons,now,col);predimagel=zeros(row,col);predimagel(testlndexs)=testoutputlabel;figureimagesc(predimagel);axisoff;OAZkappa,AA,CA=calcError(testLabels,predimagel(testlndexs),1:n_class);fprintf(1cnn+elmOverallAccuracyis%fnftOA);fprintf(f
28、cnn+elmAverageAccuracyis%fnf,AA);fprintf(fcnn+elmCAAcuuyracyis%fnf,CA);fprintf(1cnn+elmkappais%fnf9kappa);figure,imagesc(paviaU_gt);axisoff;ThemaincodeofPaviaCenterofMatlab%ConvolutionNeuralNetworkAndExtremLearningMachine%Test2forPaviacentercnnConfig=config3();theta,meta=cnnlnitParams(cnnConfig);n_c
29、lass=cnnConfig.layermeta.numLayers.dimension;loadPavia;loadPavia_gt;images/labelsindexs=loadtrain3(paviarpavia_gt);d=cnnConfig.layer1.dimension;images=reshape(images,d(1),d(2),d(3)z);%STEP2:Train(TheCnnAndElm)options.epochs=1;options.minibatch=25;options.alpha=0.05;newtheta=minFuncSGD(xry,z)cnnCost(
30、x,y,z,cnnConfigzmeta),theta,imagesrlabelsoptions);K=cnnExtract(newtheta,images/cnnConfigrmeta);TrainingTime,TrainingAccuracyrInputweightrEiasofHiddenNeurons,OutputWeightzNumberofOutputNeurons=elmtrain(K,labelsT,1,850);%STEP3:Testtest工mages,testLabels,testlndexs=ioadtest3(paviazpavia_gt);testimages=r
31、eshape(testimages,d(1)rd(2),d(3)9);row,col=size(pavia_gt);testK=cnnExtract(newthetartestimages,cnnConfig,meta);TestingTimerTestingAccuracy,testoutputlabel=elmpredict(testK,testLabels',1,InputweightrBiasofHiddenNeuronszOutputWeightrNumberofOutputNeuronsrrow,col);predimagel=zeros(row,coi);predimag
32、el(testlndexs)=testoutputlabel;figure/imagesc(predimagel);axisoffOAZkappa,AA,CA=calcError(testLabels,predimagel(testlndexs),1:n_class);fprintf(fcnn+elmOverallAccuracyis%fnffOA);fprintf(fcnn+elmAverageAccuracyis%fnf9AA);fprintf(1cnn+elmCAAcuuyracyis%fnf,CA);fprintf(1cnn+elmkappais%fnffkappa);figureim
33、agesc(pavia_gt);axisoffThemaincodeofSalinasofMatlab%ConvolutionNeuralNetworkAndExtremLearningMachine%Test1forSalinas%STEP1:InitializecnnConfig=config();theta,meta=cnnlnitParams(cnnConfig);n_class=cnnConfig.layermeta.numLayers.dimension;loadSalinas_corrected;loadSalinas_gt;images,labels,indexs,samima
34、ge=loadtrain(saiinas_corrected,sallnas_gt);d=cnnConfig.layer1.dimension;images=reshape(images,d(1),d(2),d(3),);%STEP2:Train(TheCnnAndElm)options.epochs=1;options.minibatch=30;options.alpha=0.05;newtheta=minFuncSGD(xfyfz)cnnCost(x,v,nConfig,meta),theta,imagesrlabels,options);K=cnnExtract(newtheta,ima
35、ges,cnnConfig,meta);TrainingTimerTrainingAccuracyrInputweightrBiasofHiddenNeurons,OutputWeightrNumberofOutputNeurons=eimtrain(K,labelsf,lr2300);%STEP3:Testtest工mages,testLabels,testlndexs=loadtest(salinasorrected/salinas_gt);testlmages=reshape(test工mages,d(1),d(2),d(3),);rowfcol=size(saiinas_gt);tes
36、tK=cnnExtract(newthetatestimages,cnnConfig,meta);TestingTimerTestingAccuracy,testoutputlabelsacrtualoutputs=eimpredict(testK,testLabels',testlndexsr1,Inputweight,BiasofHiddenNeutons,OutputweightrNumberofOutputNeuronS/now,col);predimagel=zeros(row,col);predimagel(testlndexs)=testoutputlabel;figure,imagesc(predimagel);axisoff;1:n_class);fprlntf('cnn+elmfprintf('cnn+elmfprintf('cnn+elmfprintf('cnn+elmOAZkappa,AA,CA=calcError(testLabels,predimagel(testlndexs),OverallAccuracyis%fnf,OA)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 評(píng)估公司動(dòng)態(tài)管理制度
- 診所接受屬地管理制度
- 診所診療科室管理制度
- 調(diào)度電話錄音管理制度
- 財(cái)務(wù)采購(gòu)生產(chǎn)管理制度
- 賬簿數(shù)據(jù)安全管理制度
- 貨物裝載清單管理制度
- 貨箱生產(chǎn)車間管理制度
- 甲方房子轉(zhuǎn)讓協(xié)議書范本
- 合作經(jīng)營(yíng)綿羊協(xié)議書范本
- 2018-2022北京高中合格考生物匯編:基因的表達(dá)
- 新生兒病區(qū)專科理論考試題庫(kù)
- 福建省南平市2023-2024學(xué)年八年級(jí)下學(xué)期期末考試數(shù)學(xué)試卷(含答案)
- 集控運(yùn)行崗面試題及答案
- 河道疏浚對(duì)漁業(yè)發(fā)展的影響與對(duì)策
- 健康評(píng)估咳嗽咳痰課件
- 2024年11月傳播學(xué)教程試題庫(kù)(附答案解析)
- 2025年中考數(shù)學(xué):初中八年級(jí)下冊(cè)第X單元:代數(shù)綜合測(cè)試試卷
- 白酒酒店合作合同協(xié)議書
- T/CIE 209-2024兒童實(shí)物編程教育評(píng)價(jià)指南
- 中國(guó)融通農(nóng)業(yè)發(fā)展有限集團(tuán)有限公司招聘筆試題庫(kù)2025
評(píng)論
0/150
提交評(píng)論