BP神經(jīng)網(wǎng)絡(luò)matlab實(shí)例(簡單而經(jīng)典)_第1頁
BP神經(jīng)網(wǎng)絡(luò)matlab實(shí)例(簡單而經(jīng)典)_第2頁
BP神經(jīng)網(wǎng)絡(luò)matlab實(shí)例(簡單而經(jīng)典)_第3頁
BP神經(jīng)網(wǎng)絡(luò)matlab實(shí)例(簡單而經(jīng)典)_第4頁
BP神經(jīng)網(wǎng)絡(luò)matlab實(shí)例(簡單而經(jīng)典)_第5頁
已閱讀5頁,還剩4頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

BP神經(jīng)網(wǎng)絡(luò)matlab實(shí)例(簡單而經(jīng)典)BP神經(jīng)網(wǎng)絡(luò)matlab實(shí)例(簡單而經(jīng)典)BP神經(jīng)網(wǎng)絡(luò)matlab實(shí)例(簡單而經(jīng)典)xxx公司BP神經(jīng)網(wǎng)絡(luò)matlab實(shí)例(簡單而經(jīng)典)文件編號:文件日期:修訂次數(shù):第1.0次更改批準(zhǔn)審核制定方案設(shè)計(jì),管理制度p=p1';t=t1';[pn,minp,maxp,tn,mint,maxt]=premnmx(p,t);%原始數(shù)據(jù)歸一化net=newff(minmax(pn),[5,1],{'tansig','purelin'},'traingdx');%設(shè)置網(wǎng)絡(luò),建立相應(yīng)的BP網(wǎng)絡(luò)%訓(xùn)練網(wǎng)絡(luò),pn,tn);%調(diào)用TRAINGDM算法訓(xùn)練BP網(wǎng)絡(luò)pnew=pnew1';pnewn=tramnmx(pnew,minp,maxp);anewn=sim(net,pnewn);%對BP網(wǎng)絡(luò)進(jìn)行仿真anew=postmnmx(anewn,mint,maxt);%還原數(shù)據(jù)y=anew';1、BP網(wǎng)絡(luò)構(gòu)建(1)生成BP網(wǎng)絡(luò):由維的輸入樣本最小最大值構(gòu)成的維矩陣。:各層的神經(jīng)元個數(shù)。:各層的神經(jīng)元傳遞函數(shù)。:訓(xùn)練用函數(shù)的名稱。(2)網(wǎng)絡(luò)訓(xùn)練(3)網(wǎng)絡(luò)仿真{'tansig','purelin'},'trainrp'BP網(wǎng)絡(luò)的訓(xùn)練函數(shù)訓(xùn)練方法訓(xùn)練函數(shù)梯度下降法traingd有動量的梯度下降法traingdm自適應(yīng)lr梯度下降法traingda自適應(yīng)lr動量梯度下降法traingdx彈性梯度下降法trainrpFletcher-Reeves共軛梯度法traincgfPloak-Ribiere共軛梯度法traincgpPowell-Beale共軛梯度法traincgb量化共軛梯度法trainscg擬牛頓算法trainbfg一步正割算法trainossLevenberg-MarquardttrainlmBP網(wǎng)絡(luò)訓(xùn)練參數(shù)訓(xùn)練參數(shù)參數(shù)介紹訓(xùn)練函數(shù)最大訓(xùn)練次數(shù)(缺省為10)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm訓(xùn)練要求精度(缺省為0)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm學(xué)習(xí)率(缺省為)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm最大失敗次數(shù)(缺省為5)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm最小梯度要求(缺省為1e-10)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm顯示訓(xùn)練迭代過程(NaN表示不顯示,缺省為25)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm最大訓(xùn)練時間(缺省為inf)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm動量因子(缺?。﹖raingdm、traingdx學(xué)習(xí)率lr增長比(缺省為)traingda、traingdx學(xué)習(xí)率lr下降比(缺省為)traingda、traingdx表現(xiàn)函數(shù)增加最大比(缺省為)traingda、traingdx權(quán)值變化增加量(缺省為)trainrp權(quán)值變化減小量(缺省為)trainrp初始權(quán)值變化(缺省為)trainrp權(quán)值變化最大值(缺省為)trainrp一維線性搜索方法(缺省為srchcha)traincgf、traincgp、traincgb、trainbfg、trainoss因?yàn)槎吻髮?dǎo)對權(quán)值調(diào)整的影響參數(shù)(缺省值)trainscg矩陣不確定性調(diào)節(jié)參數(shù)(缺省為)trainscg控制計(jì)算機(jī)內(nèi)存/速度的參量,內(nèi)存較大設(shè)為1,否則設(shè)為2(缺省為1)trainlm的初始值(缺省為)trainlm的減小率(缺省為)trainlm的增長率(缺省為10)trainlm的最大值(缺省為1e10)trainlm2、BP網(wǎng)絡(luò)舉例舉例1、%traingdclear;clc;P=[-1-1224;05057];T=[-1-111-1];%利用minmax函數(shù)求輸入樣本范圍net=newff(minmax(P),T,[5,1],{'tansig','purelin'},'trainrp');隱層權(quán)值{1}%隱層閾值{2,1}%輸出層權(quán)值{2}%輸出層閾值sim(net,P)舉例2、利用三層BP神經(jīng)網(wǎng)絡(luò)來完成非線性函數(shù)的逼近任務(wù),其中隱層神經(jīng)元個數(shù)為五個。樣本數(shù)據(jù):輸入X輸出D輸入X輸出D輸入X輸出D0解:看到期望輸出的范圍是,所以利用雙極性Sigmoid函數(shù)作為轉(zhuǎn)移函數(shù)。程序如下:clear;clc;X=-1::1;D=[......];figure;plot(X,D,'*');%繪制原始數(shù)據(jù)分布圖(附錄:1-1)net=newff([-11],[51],{'tansig','tansig'});=1000;%訓(xùn)練的最大次數(shù)=;%全局最小誤差net=train(net,X,D);O=sim(net,X);figure;plot(X,D,'*',X,O);%繪制訓(xùn)練后得到的結(jié)果和誤差曲線(附錄:1-2、1-3)V={1,1};%輸入層到中間層權(quán)值theta1={1};%中間層各神經(jīng)元閾值W={2,1};%中間層到輸出層權(quán)值theta2={2};%輸出層各神經(jīng)元閾值所得結(jié)果如下:輸入層到中間層的權(quán)值:中間層各神經(jīng)元的閾值:中間層到輸出層的權(quán)值:輸出層各神經(jīng)元的閾值:舉例3、利用三層BP神經(jīng)網(wǎng)絡(luò)來完成非線性函數(shù)的逼近任務(wù),其中隱層神經(jīng)元個數(shù)為五個。樣本數(shù)據(jù):輸入X輸出D輸入X輸出D輸入X輸出D00448211539322621043371解:看到期望輸出的范圍超出,所以輸出層神經(jīng)元利用線性函數(shù)作為轉(zhuǎn)移函數(shù)。程序如下:clear;clc;X=[012345678910];D=[01234321234];figure;plot(X,D,'*');%繪制原始數(shù)據(jù)分布圖net=newff([010],[51],{'tansig','purelin'})=100;'*',X,O);%繪制訓(xùn)練后得到的結(jié)果和誤差曲線(附錄:2-2、2-3)V={1,1}%輸入層到中間層權(quán)值theta1={1}%中間層各神經(jīng)元閾值W={2,1}%中間層到輸出層權(quán)值theta2={2}%輸出層各神經(jīng)元閾值所得結(jié)果如下:輸入層到中間層的權(quán)值:中間層各神經(jīng)元的閾值:中間層到輸出層的權(quán)值:輸出層各神經(jīng)元的閾值:問題:以下是上證指數(shù)2009年2月2日到3月27日的收盤價格,構(gòu)建一個三層BP神經(jīng)網(wǎng)絡(luò),利用該組信號的6個過去值預(yù)測信號的將來值。日期價格日期價格2009/02/022009/03/022009/02/032009/03/032009/02/042009/03/042009/02/052009/03/052009/02/062009/03/062009/02/092009/03/092009/02/102009/03/102009/02/112009/03/112009/02/122009/03/122009/02/132009/03/132009/02/162009/03/162009/02/172009/03/172009/02/182009/03/182009/02/192009/03/192009/02/202009/03/202009/02/232009/03/232009/02/242009/03/242009/02/252009/03/252009/02/262009/03/262009/02/272009/03/27load;[m,n]=size(data3_1);tsx=data3_1(1:m-1,1);tsx=tsx';ts=data3_1(2:m,1);ts=ts';[TSX,TSXps]=mapminmax(tsx,1,2);[TS,TSps]=mapminmax(ts,1,2);TSX=TSX';figure;plot(ts,'LineWidth',2);title('到杭旅游總?cè)藬?shù)','FontSize',12);xlabel('統(tǒng)計(jì)年份','FontSize',12);ylabel('歸一化后的總游客數(shù)/萬人','FontSize',12);gridon;%生成BP網(wǎng)絡(luò)、利用minmax函數(shù)求輸入樣本范圍net_1=newff(minmax(TS),[10,1],{'tansig','purelin'},'traincgf')%設(shè)置訓(xùn)練參數(shù)=50;%顯示訓(xùn)練迭代過程(NaN表示不顯示,缺

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論