




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
本文格式為Word版,下載可任意編輯——bp神經(jīng)網(wǎng)絡(luò)進(jìn)行多項式函數(shù)的迫近吐血1
神經(jīng)網(wǎng)絡(luò)及應(yīng)用試驗(yàn)報告
院系:電氣工程學(xué)院
班級:adf3班
姓名:adsf
學(xué)號:20sdf
1
試驗(yàn)二、基于BP網(wǎng)絡(luò)的多層感知器
一:試驗(yàn)?zāi)康模?/p>
1.理解多層感知器的工作原理
2.通過調(diào)理算法參數(shù)了解參數(shù)的變化對于感知器訓(xùn)練的影響3.了解多層感知器局限性
二:試驗(yàn)原理:
BP的基本思想:信號的正向傳播誤差的反向傳播
–信號的正向傳播:輸入樣本從輸入層傳入,經(jīng)各隱層逐層處理后,傳向輸出層。–誤差的反向傳播:將輸入誤差以某種形式通過隱層向輸入層逐層反傳,并將誤差分?jǐn)偨o各層的所有單元,從而獲得各層單元的誤差信號來作為修正各單元權(quán)值的依據(jù)。
1.基本BP算法的多層感知器模型:
2
2.BP學(xué)習(xí)算法的推導(dǎo):
當(dāng)網(wǎng)絡(luò)輸出與期望輸出不等時,存在輸出誤差E
將上面的誤差定義式展開至隱層,有
進(jìn)一步展開至輸入層,有
調(diào)整權(quán)值的原則是使誤差不斷地減小,因此應(yīng)使權(quán)值的調(diào)整量與誤差的梯度下降成正比,即
η∈(0,1)表示比例系數(shù),在訓(xùn)練中反應(yīng)學(xué)習(xí)速率
BP算法屬于δ學(xué)習(xí)規(guī)則類,這類算法被稱為誤差的梯度下降(GradientDescent)算法。
三:試驗(yàn)內(nèi)容:
Hermit多項式如下式所示:f(x)=1.1(1-x+2x^2)exp(-x^2/2)
3
采用BP算法設(shè)計一個單輸入單輸出的多層感知器對該函數(shù)進(jìn)行迫近。訓(xùn)練樣本按以下方法產(chǎn)生:樣本數(shù)P=100,其中輸入樣本xi聽從區(qū)間[-4,4]內(nèi)的均勻分布,樣本輸出為F(xi)+ei,ei為添加的噪聲,聽從均值為0,標(biāo)準(zhǔn)差為0.1的正態(tài)分布。
隱層采用Sigmoid激活函數(shù)f(x)=1/(1+1/e^x),輸出層采用線性激活函數(shù)f(x)=x。
注意:輸出層采用的線性激活函數(shù),不是Sigmoid激活函數(shù),所以迭代公式需要根據(jù)前面的推導(dǎo)過程重新推導(dǎo)。
四:試驗(yàn)步驟:
1.用Matlab編程,實(shí)現(xiàn)解決該問題的單樣本訓(xùn)練BP網(wǎng)絡(luò),設(shè)置一個中止迭代的誤差Emin和最大迭代次數(shù)。在調(diào)試過程中,通過不斷調(diào)整隱層節(jié)點(diǎn)數(shù),學(xué)習(xí)率η,找到收斂速度快且誤差小的一組參數(shù)。產(chǎn)生均勻分布在區(qū)間[-4,4]的測試樣本,輸入建立的模型得到輸出,與Hermit多項式的期望輸出進(jìn)行比較計算總誤差(運(yùn)行5次,取平均值),并記錄下每次迭代終止時的迭代次數(shù)。(要求誤差計算使用RME,Emin設(shè)置為0.1)
2.實(shí)現(xiàn)解決該問題的批處理訓(xùn)練BP網(wǎng)絡(luò),調(diào)整參數(shù)如上。產(chǎn)生均勻分布在區(qū)間[-4,4]的測試樣本,輸入建立的模型得到輸出,與Hermit多項式的期望輸出進(jìn)行比較計算總誤差(運(yùn)行5次,取平均值),并記錄下每次迭代終止時的迭代次數(shù)。
3.對批處理訓(xùn)練BP算法增加動量項ΔW(t)=ηδX+αΔW(t-1),α∈(0,1),調(diào)整參數(shù)如上,記錄結(jié)果,并與沒有帶動量項的批處理訓(xùn)練BP算法的結(jié)果相比較。
4.對批處理BP算法改變參數(shù):學(xué)習(xí)率η、迭代次數(shù)、隱層節(jié)點(diǎn)數(shù),觀測算法的收斂發(fā)散,以及測試誤差的變化(對每個參數(shù)取幾個不同參數(shù),分別運(yùn)行5次,結(jié)果取平均值)。
五:試驗(yàn)程序:
4
(一):單樣本訓(xùn)練BP網(wǎng)絡(luò)
function[epoch,s,Wki,Wij,Wb,Ez]=dyb(lr,Emin,q)%初始化;
%lr學(xué)習(xí)效率;Emin為期望誤差最小值;q為隱含層節(jié)點(diǎn)數(shù);b=1;sum=0;Ez=[];
max_epoch=30000;%max_epoch訓(xùn)練的最大次數(shù);%提供訓(xùn)練集和目標(biāo)值;x=8.*rand(1,100)-4;
y=1.1.*(1-x+2.*x.^2).*exp(-x.^2/2)+0.1*rand(1,100);%初始化Wki,Wij;
Wij=rand(1,q);Wki=rand(1,q);Wb=rand(1,q);forepoch=1:max_epoch
E=0;m=1;oi=0;ok=0;%置隱含層和輸出層各神經(jīng)元輸出初值為零;form=1:100
%計算隱含層各神經(jīng)元輸出;NETi=x(m)*Wij+b*Wb;fort=1:q
oi(t)=1/(1+exp(-NETi(t)));end
%計算輸出層各神經(jīng)元輸出;NETk=Wki*oi';ok=NETk;%計算誤差;E=E+(y(m)-ok)^2;%調(diào)整輸出層加權(quán)系數(shù);deltak=y(m)-ok;Wki=Wki+lr*deltak*oi;%調(diào)整隱含層加權(quán)系數(shù);
deltai=oi.*(1-oi).*(deltak*Wki);
5
六:試驗(yàn)數(shù)據(jù)及處理:
最大迭代次數(shù):30000,中止迭代的誤差:0.1。(一):單樣本訓(xùn)練BP網(wǎng)絡(luò)
單樣本BP算法平均最小誤差及其迭代次數(shù):
學(xué)習(xí)率η隱節(jié)點(diǎn)數(shù)0.0010.0030.0050.010.050.10.2誤差0.100720.10490.10570.103070.103160.0990580.16124次數(shù)10303.44206.43763.61386.21272756.218085.6誤差0.100930.100770.105550.108570.104820.0944830.15395次數(shù)9099.444962588.41555174.8189.66184.4誤差0.100850.100570.113770.0992480.102230.102530.11457次數(shù)8986.82897.41685.4975.4194.8156.4146.8誤差0.11160.109770.104810.10730.112060.0920230.26888次數(shù)11382.63627.22198.4738264.412012076.6誤差0.112020.110330.101150.106310.111690.0969261.167810次數(shù)11819.43560.21885.6912204.2124.6657711
由以上試驗(yàn)數(shù)據(jù)可知:學(xué)習(xí)效率為0.1,隱節(jié)點(diǎn)數(shù)為10時收斂速度快且誤差比較小。曲線圖為:
訓(xùn)練樣本與測試樣本3測試樣本2.5訓(xùn)練樣本2y1.5putout10.50-0.5-4-3-2-101234inputxHermit多項式曲線與BP網(wǎng)絡(luò)輸出曲線3BP曲線2.5Hermit曲線21.510.50-0.5-4-3-2-101234
12
收斂曲線1.41.210.80.60.40.20230406080100120230160
(二):批處理訓(xùn)練BP網(wǎng)絡(luò)
批處理BP算法平均最小誤差及其迭代次數(shù):
學(xué)習(xí)率η隱節(jié)點(diǎn)數(shù)0.0010.0030.0050.010.050.10.2誤差0.108660.105820.121470.0987670.110720.103320.185994次數(shù)109424403.282971503.8514.26234.618043誤差0.106370.107770.107820.107380.094540.099330.114275次數(shù)113433948.82708.41279.6347.4127.26289.8誤差0.106130.107960.113130.106970.101290.0928190.101127次數(shù)110563321.21924.2925.2187.2127.215213
誤差0.114050.101040.106760.0992170.101330.110110.255228次數(shù)1161728292560.6927.8190.41626169.8誤差0.11450.111520.107210.115640.101690.109870.3476710次數(shù)103433885.82245877.2241.62026472.2由以上試驗(yàn)數(shù)據(jù)可知:學(xué)習(xí)效率為0.1,隱節(jié)點(diǎn)數(shù)為7時收斂速度快且誤差比較小。曲線圖為:
訓(xùn)練樣本與測試樣本3測試樣本訓(xùn)練樣本2.52outputy1.510.50-0.5-4-3-2-10input
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 組織領(lǐng)導(dǎo)力的多維度研究計劃
- 如何有效管理生活部的日常事務(wù)計劃
- 準(zhǔn)確預(yù)測倉庫需求的方法計劃
- 保安工作總結(jié)計劃金融行業(yè)保安工作的技術(shù)改進(jìn)
- 社區(qū)個人工作計劃改善社區(qū)停車設(shè)施
- 《貴州新恒基礦業(yè)有限公司興仁市太平洞金礦(新建)礦產(chǎn)資源綠色開發(fā)利用方案(三合一)》評審意見
- 《貴州畢節(jié)百礦大能煤業(yè)有限責(zé)任公司水城縣玉舍鄉(xiāng)中寨煤礦(變更)礦產(chǎn)資源綠色開發(fā)利用方案(三合一)》評審意見
- 腦梗死靜脈溶栓護(hù)理后護(hù)理
- 統(tǒng)編版小學(xué)語文二年級下冊第9課《楓樹上的喜鵲》精美課件
- 2025年長春貨運(yùn)員初級考試題庫
- 甘肅四年級信息技術(shù)下冊教學(xué)設(shè)計(簡版)(含核心素養(yǎng))
- 作文復(fù)習(xí):破繭成蝶逆天改命-《哪吒2》現(xiàn)象級成功的高考寫作啟示 課件
- 2025年湖南機(jī)電職業(yè)技術(shù)學(xué)院單招職業(yè)傾向性測試題庫1套
- 2025中建三局(中原)社會招聘高頻重點(diǎn)模擬試卷提升(共500題附帶答案詳解)
- 【生 物】光合作用課件-2024-2025學(xué)年人教版生物七年級下冊
- 人教版 七年級英語下冊 UNIT 2 單元綜合測試卷(2025年春)
- 2024年湖北省武漢市中考數(shù)學(xué)試題(解析版)
- 2024年“新能源汽車裝調(diào)工”技能及理論知識考試題與答案
- 【地理】非洲-位置與范圍 高原為主的地形課件-2024-2025學(xué)年湘教版(2024)七下
- 搶救車的管理
- GB/T 17350-2024專用汽車和專用掛車分類、名稱及型號編制方法
評論
0/150
提交評論