版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
北京信息科技大學(xué)自編實(shí)驗(yàn)講義神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)指導(dǎo)書(shū)許曉飛陳雯柏編著自動(dòng)化學(xué)院智能科學(xué)與技術(shù)系2023年1月<<BP神經(jīng)網(wǎng)絡(luò)>>實(shí)驗(yàn)指導(dǎo)實(shí)驗(yàn)?zāi)康?(1)熟悉Matlab/Simulink的使用.(2)掌握BP神經(jīng)網(wǎng)絡(luò)的基本原理和基本的設(shè)計(jì)步驟.(3)了解BP神經(jīng)網(wǎng)絡(luò)在實(shí)際中的應(yīng)用.(4)針對(duì)簡(jiǎn)單的實(shí)際系統(tǒng),能夠建立BP神經(jīng)網(wǎng)絡(luò)控制模型.實(shí)驗(yàn)原理:1.前饋型人工神經(jīng)網(wǎng)絡(luò)前饋型人工神經(jīng)網(wǎng)絡(luò)是整個(gè)神經(jīng)網(wǎng)絡(luò)體系中最常見(jiàn)的一種,其結(jié)構(gòu)模型如圖2所示。網(wǎng)絡(luò)結(jié)構(gòu)包含輸入層、隱層(可能是多層)和輸出層,它的連接方式是同層之間不相連接,相鄰層之間單元為全連接型。這種網(wǎng)絡(luò)沒(méi)有反饋存在,實(shí)際運(yùn)行是單向的,學(xué)習(xí)方式是一種監(jiān)督式學(xué)習(xí)。前饋型神經(jīng)網(wǎng)絡(luò)具有很強(qiáng)的非線性映射能力,尋找其映射是靠學(xué)習(xí)實(shí)踐的,只要學(xué)習(xí)數(shù)據(jù)足夠完備,就能夠描述任意未知的復(fù)雜系統(tǒng)。因此前饋神經(jīng)網(wǎng)絡(luò)為非線性系統(tǒng)的建模和控制提供了有力的工具。圖1前饋型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)2.BP算法原理BP(BackPropagation)神經(jīng)網(wǎng)絡(luò)是一種利用誤差反向傳播訓(xùn)練算法的前饋型網(wǎng)絡(luò),BP學(xué)習(xí)算法實(shí)質(zhì)是求取網(wǎng)絡(luò)總誤差函數(shù)的最小值問(wèn)題[2]。這種算法采用非線性規(guī)劃中的最速下降方法,按誤差函數(shù)的負(fù)梯度方向修改權(quán)系數(shù),它是梯度下降法在多層前饋網(wǎng)絡(luò)中的應(yīng)用。具體學(xué)習(xí)算法包括兩大過(guò)程,其一是輸入信號(hào)的正向傳播過(guò)程,其二是輸出誤差信號(hào)的反向傳播過(guò)程。1.正向傳播輸入的樣本從輸入層經(jīng)過(guò)隱層單元一層一層進(jìn)行處理,通過(guò)所有的隱層之后,則傳向輸出層;在逐層處理的過(guò)程中,每一層神經(jīng)元的狀態(tài)只對(duì)下一層神經(jīng)元的狀態(tài)產(chǎn)生影響。在輸出層把現(xiàn)行輸出和期望輸出進(jìn)行比較,如果現(xiàn)行輸出不等于期望輸出,則進(jìn)入反向傳播過(guò)程。2.反向傳播反向傳播時(shí),把誤差信號(hào)按原來(lái)正向傳播的通路反向傳回,并對(duì)每個(gè)隱層的各個(gè)神經(jīng)元的權(quán)系數(shù)進(jìn)行修改,以望誤差信號(hào)趨向最小。網(wǎng)絡(luò)各層的權(quán)值改變量,則由傳播到該層的誤差大小來(lái)決定。3.BP算法的特點(diǎn)BP神經(jīng)網(wǎng)絡(luò)具有以下三方面的主要優(yōu)點(diǎn)[3]:第一,只要有足夠多的隱含層和隱層節(jié)點(diǎn),BP神經(jīng)網(wǎng)絡(luò)可逼近任意的非線性映射關(guān)系;第二,BP學(xué)習(xí)算法是一種全局逼近方法,因而它具有較好的泛化能力。第三,BP神經(jīng)網(wǎng)絡(luò)具有一定的容錯(cuò)能力。因?yàn)锽P神經(jīng)網(wǎng)絡(luò)輸入輸出間的關(guān)聯(lián)信息分布存儲(chǔ)于連接權(quán)中,由于連接權(quán)的個(gè)數(shù)總多,個(gè)別神經(jīng)元的損壞對(duì)輸入輸出關(guān)系只有較小影響。但在實(shí)際應(yīng)用中也存在一些問(wèn)題,如:收斂速度慢,極有可能陷入最優(yōu)陷阱(局部極值),而且典型的BP網(wǎng)絡(luò)是一個(gè)冗余結(jié)構(gòu),它的結(jié)構(gòu)及隱節(jié)點(diǎn)數(shù)的確定往往有人為的主觀性,而且一旦人工決定之后,不能在學(xué)習(xí)過(guò)程中自主變更。其結(jié)果是隱節(jié)點(diǎn)數(shù)少了,學(xué)習(xí)過(guò)程不收斂;隱節(jié)點(diǎn)數(shù)多了,則網(wǎng)絡(luò)的學(xué)習(xí)及推理的效率較差。實(shí)驗(yàn)步驟:(1)建立控制模型神經(jīng)網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)來(lái)源于MATLAB6.5自帶的一階T-S型模糊控制slcp.mdl。如圖2所示。圖2一級(jí)倒立擺的模糊控制仿真在上面的控制系統(tǒng)中提取擺角、角速度、位移、速度初始條件為分別為0.5rad,1rad/s,0和0,在此條件下響應(yīng)的輸入輸出對(duì),(2)提取訓(xùn)練數(shù)據(jù)如圖3所示,利用【SignalToWorkspace】模塊獲取一階T-S型模糊控制仿真過(guò)程的控制器輸入輸出數(shù)據(jù)對(duì),并保存到工作區(qū)中,可以直接用到神經(jīng)網(wǎng)絡(luò)的訓(xùn)練中。圖3數(shù)據(jù)提取(3)BP神經(jīng)網(wǎng)絡(luò)控制器的訓(xùn)練首先將提取出的訓(xùn)練數(shù)據(jù)變?yōu)闃?biāo)準(zhǔn)的訓(xùn)練數(shù)據(jù)形式,標(biāo)準(zhǔn)的訓(xùn)練數(shù)據(jù)分為輸入和目標(biāo)輸出兩部分。輸入部分是一個(gè)形式為輸入個(gè)數(shù)訓(xùn)練數(shù)據(jù)個(gè)數(shù)的矩陣,這里輸入個(gè)數(shù)為4。目標(biāo)輸出為一個(gè)輸出個(gè)數(shù)訓(xùn)練數(shù)據(jù)個(gè)數(shù)的矩陣,這里輸出個(gè)數(shù)為1。而經(jīng)signaltoworkspace模塊提取出的數(shù)據(jù)為一個(gè)訓(xùn)練數(shù)據(jù)個(gè)數(shù)輸入(或輸出)個(gè)數(shù)的矩陣,因此分別將p、t轉(zhuǎn)置后就得到標(biāo)準(zhǔn)訓(xùn)練數(shù)據(jù)p’,t’。接著選擇要訓(xùn)練的步數(shù),訓(xùn)練步數(shù)的選擇可由下面語(yǔ)句定義:net.trainParam.epochs=250這一語(yǔ)句定義了一個(gè)500步的訓(xùn)練步數(shù)。做完上面的工作后就可以對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練了,按照上一節(jié)中的選擇和定義初始化網(wǎng)絡(luò)后,在沒(méi)有輸入延遲和輸出延遲的條件下,并設(shè)訓(xùn)練后的網(wǎng)絡(luò)還為NET,便可用下面語(yǔ)句對(duì)網(wǎng)絡(luò)訓(xùn)練:[net,tr]=train(net,P,T,[],[])使用下面語(yǔ)句初始化BP神經(jīng)網(wǎng)絡(luò)控制器并進(jìn)行訓(xùn)練:P=p';T=t';net=newff([-0.350.35;-11;-33;-33],[121],{'tansig','purelin'},'trainlm','learngdm');net.trainParam.show=25;net.trainParam.epochs=250;[net,tr]=train(net,P,T,[],[]);系統(tǒng)提示如下:TRAINLM,Epoch0/250,MSE10.1011/0,Gradient2554.35/1e-010TRAINLM,Epoch50/250,MSE4.78751e-008/0,Gradient0.00983832/1e-010TRAINLM,Epoch75/250,MSE4.1262e-008/0,Gradient0.00475103/1e-010TRAINLM,Epoch100/250,MSE3.76953e-008/0,Gradient0.00278629/1e-010TRAINLM,Epoch125/250,MSE3.52023e-008/0,Gradient0.00194476/1e-010TRAINLM,Epoch150/250,MSE3.32444e-008/0,Gradient0.00150103/1e-010TRAINLM,Epoch175/250,MSE3.16423e-008/0,Gradient0.00121143/1e-010TRAINLM,Epoch200/250,MSE3.02987e-008/0,Gradient0.000996205/1e-010TRAINLM,Epoch225/250,MSE2.91493e-008/0,Gradient0.000826085/1e-010TRAINLM,Epoch250/250,MSE2.81489e-008/0,Gradient0.000687935/1e-010TRAINLM,Maximumepochreached,performancegoalwasnotmet.圖4訓(xùn)練誤差曲線可以看出,經(jīng)過(guò)250步訓(xùn)練控制器輸出與期望輸出間的誤差已經(jīng)很小了。提示:如訓(xùn)練程序有錯(cuò),請(qǐng)?jiān)趆elp文檔搜索BP神經(jīng)網(wǎng)絡(luò)函數(shù)newff,查看語(yǔ)法調(diào)用;P=p';T=t';net=newff([0.350.35;-11;-33;-33],[12,1],{'tansig''purelin'});net.trainparam.show=25;net.trainparam.epochs=300;[net,tr]=train(net,P,T);神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)用語(yǔ)句gensim(net,-1)可以在simulink里生成控制器并使用其進(jìn)行控制,其中-1的意思是系統(tǒng)是實(shí)時(shí)的,生成的神經(jīng)網(wǎng)絡(luò)控制器結(jié)構(gòu)如圖5所示。(a)神經(jīng)網(wǎng)絡(luò)控制器外部結(jié)構(gòu)(b)內(nèi)部結(jié)構(gòu)(c)隱層結(jié)構(gòu)(d)輸出層結(jié)構(gòu)圖5BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)(4)神經(jīng)網(wǎng)絡(luò)控制的實(shí)現(xiàn)使用訓(xùn)練后的BP神經(jīng)網(wǎng)絡(luò)控制器代替原模糊控制器控制器便可進(jìn)行仿真試驗(yàn)。控制結(jié)構(gòu)如圖6所示。圖6直線一級(jí)倒立擺神經(jīng)網(wǎng)絡(luò)控制仿真單擊模型窗口上的’run’,運(yùn)行以上的仿真實(shí)驗(yàn),可以看出訓(xùn)練后的BP神經(jīng)網(wǎng)絡(luò)能成功的實(shí)現(xiàn)倒立擺的控制.<<SOM神經(jīng)網(wǎng)絡(luò)>>實(shí)驗(yàn)指導(dǎo)實(shí)驗(yàn)?zāi)康?(1)熟悉Matlab/Simulink的使用.(2)掌握SOM神經(jīng)網(wǎng)絡(luò)的基本原理和基本的設(shè)計(jì)步驟.(3)熟悉SOM神經(jīng)網(wǎng)絡(luò)在實(shí)際中的應(yīng)用.實(shí)驗(yàn)原理:通過(guò)自動(dòng)尋找樣本中的內(nèi)在規(guī)律和本質(zhì)屬性,自組織、自適應(yīng)地改變網(wǎng)絡(luò)參數(shù)與結(jié)構(gòu)。自組織網(wǎng)絡(luò)的自組織功能是通過(guò)競(jìng)爭(zhēng)學(xué)習(xí)(competitivelearning)實(shí)現(xiàn)的。1981年芬蘭Helsink大學(xué)的T.Kohonen教授提出一種自組織特征映射網(wǎng),簡(jiǎn)稱SOM網(wǎng),又稱Kohonen網(wǎng)。Kohonen認(rèn)為:一個(gè)神經(jīng)網(wǎng)絡(luò)接受外界輸入模式時(shí),將會(huì)分為不同的對(duì)應(yīng)區(qū)域,各區(qū)域?qū)斎肽J骄哂胁煌捻憫?yīng)特征,而且這個(gè)過(guò)程是自動(dòng)完成的。自組織特征映射正是根據(jù)這一看法提出來(lái)的,其特點(diǎn)與人腦的自組織特性相類(lèi)似。SOM網(wǎng)共有兩層,輸入層模擬感知外界輸入信息的視網(wǎng)膜,輸出層模擬做出響應(yīng)的大腦皮層。Kohonen學(xué)習(xí)算法程序流程:示例:產(chǎn)生100個(gè)(0,0.5pi)之間的角度,用其sin和cos值作為輸入向量,利用輸出為二維平面陣的SOM網(wǎng)絡(luò)對(duì)其進(jìn)行聚類(lèi)。參考程序如下:angles=0:0.5*pi/99:0.5*pi;P=[sin(angles);cos(angles)];plot(P(1,:),P(2,:),'+r')net=newsom([01;01],[10]);net.trainParam.epochs=10;net=train(net,P);plotsom(net.iw{1,1},net.layers{1}.distances)p=[1;0];a=sim(net,p)實(shí)驗(yàn)內(nèi)容:人口分類(lèi)是人口統(tǒng)計(jì)中的一個(gè)重要指標(biāo),現(xiàn)有1999共10個(gè)地區(qū)的人口出生比例情況如下表所示,建立一個(gè)自組織神經(jīng)網(wǎng)絡(luò)對(duì)上述數(shù)據(jù)分類(lèi),給定某個(gè)地區(qū)的男、女出生比例分別為0.5,0.5,測(cè)試訓(xùn)練后的自組織神經(jīng)網(wǎng)絡(luò)的性能,判斷其屬于哪個(gè)類(lèi)別。出生男性百分比0.55120.51230.50870.50010.60120.5298 0.50000.4965 0.5103 0.5003出生女性百分比0.44880.4877 0.4913 0.49990.3988 0.4702 0.50000.5035 0.4897 0.4997實(shí)驗(yàn)步驟:(1)確定輸入模式;(2)確定網(wǎng)絡(luò)的結(jié)構(gòu),設(shè)計(jì)參數(shù);(3)編輯相應(yīng)的M文件實(shí)現(xiàn)SOM對(duì)數(shù)據(jù)進(jìn)行聚類(lèi),運(yùn)行M文件,在命令窗口察看結(jié)果。課下擴(kuò)展實(shí)驗(yàn):利用SOM網(wǎng)絡(luò)對(duì)動(dòng)物屬性特征映射1989年Kohonen給出一個(gè)SOM網(wǎng)的著名應(yīng)用實(shí)例,即把不同的動(dòng)物按其屬性特征映射到兩維輸出平面上,使屬性相似的動(dòng)物在SOM網(wǎng)輸出平面上的位置也相近。該例訓(xùn)練集種共有16種動(dòng)物,每種動(dòng)物用一個(gè)29維向量來(lái)表示,其中前16個(gè)分量構(gòu)成符號(hào)向量,對(duì)不同的動(dòng)物進(jìn)行“16取1”編碼;后13個(gè)分量構(gòu)成屬性向量,描述動(dòng)物的13種屬性,用1或0表示某動(dòng)物該屬性的有或無(wú)。表2中的各列給出16種動(dòng)物的屬性列向量。表2.16種動(dòng)物的屬性向量表2.16種動(dòng)物的屬性向量動(dòng)物屬性鴿子母雞鴨鵝貓頭鷹隼鷹狐貍狗狼貓虎獅馬斑馬牛小中大2只腿4只腿毛蹄鬃毛羽毛獵跑飛泳1001000010010100100001000010010000100011001000010011100100001101010010000110100101000011010010011000100001001100001000100110001100100011000100000101100011000010110001100001011110010000101111001000010111000000實(shí)驗(yàn)步驟準(zhǔn)備輸入模式;設(shè)計(jì)SOM網(wǎng)絡(luò):SOM網(wǎng)的輸出平面上有1010個(gè)神經(jīng)元SOM網(wǎng)絡(luò)的訓(xùn)練:用16個(gè)動(dòng)物模式輪番輸入進(jìn)行訓(xùn)練,考察輸出平面上所示情況。注意事項(xiàng)(1)輸入:P為29×16的矩陣,其中29維輸入向量,16為動(dòng)物的個(gè)數(shù)---歸一化(2)輸出:10×10(3)網(wǎng)絡(luò)的設(shè)計(jì):建立新的網(wǎng)絡(luò):net=newsom(AA,[1010],'gridtop');'hextop'網(wǎng)絡(luò)訓(xùn)練參數(shù)設(shè)定:net.trainParam.epochs=1000;網(wǎng)絡(luò)訓(xùn)練:net=train(net,P);(4)訓(xùn)練后的運(yùn)行:a=sim(net,P)由a的值可以得到SOM的哪個(gè)輸出節(jié)點(diǎn)對(duì)輸入有所響應(yīng),即歸為哪一類(lèi)畫(huà)出輸出示意圖。(提示輸出a來(lái)確定獲勝節(jié)點(diǎn)的坐標(biāo),從而進(jìn)行畫(huà)圖)<<DHNN神經(jīng)網(wǎng)絡(luò)>>實(shí)驗(yàn)指導(dǎo)實(shí)驗(yàn)?zāi)康?(1)熟悉Matlab/Simulink的使用.(2)掌握DHNN神經(jīng)網(wǎng)絡(luò)的基本原理和基本的設(shè)計(jì)步驟.(3)熟悉DHNN神經(jīng)網(wǎng)絡(luò)在實(shí)際中的應(yīng)用.實(shí)驗(yàn)原理:Hopfield網(wǎng)絡(luò)是神經(jīng)網(wǎng)絡(luò)發(fā)展歷史上的一個(gè)重要的里程碑。由美國(guó)加州理工學(xué)院物理學(xué)家J.J.Hopfield教授于1982年提出,是一種單層反饋神經(jīng)網(wǎng)絡(luò),結(jié)構(gòu)如下所示。DHNN網(wǎng)實(shí)質(zhì)上是一個(gè)離散的非線性動(dòng)力學(xué)系統(tǒng)。網(wǎng)絡(luò)從初態(tài)X(0)開(kāi)始,若能經(jīng)有限次遞歸后,其狀態(tài)不再發(fā)生變化,即X(t+1)=X(t),則稱該網(wǎng)絡(luò)是穩(wěn)定的。如果網(wǎng)絡(luò)是穩(wěn)定的,它可以從任一初態(tài)收斂到一個(gè)穩(wěn)態(tài).若把需記憶的樣本信息存儲(chǔ)于網(wǎng)絡(luò)不同的吸引子,當(dāng)輸入含有部分記憶信息的樣本時(shí),網(wǎng)絡(luò)的演變過(guò)程便是從部分信息尋找全部信息,即聯(lián)想回憶的過(guò)程。實(shí)驗(yàn)內(nèi)容:設(shè)印刷體數(shù)字由10*10點(diǎn)陣構(gòu)成,就是將數(shù)字分成很多小方塊,每個(gè)方塊就對(duì)應(yīng)數(shù)字的一部分,構(gòu)成數(shù)字本部分的方塊用1表示,空白處用-1表示。試設(shè)計(jì)一個(gè)Hopfield網(wǎng)絡(luò),能夠正確識(shí)別印刷體的數(shù)字0-9的識(shí)別,考察網(wǎng)絡(luò)對(duì)受污染的數(shù)字點(diǎn)陣的識(shí)別,證明網(wǎng)絡(luò)的有效性。實(shí)驗(yàn)步驟:(1)確定網(wǎng)絡(luò)的輸入向量與目標(biāo)向量;(2)確定網(wǎng)絡(luò)的結(jié)構(gòu),創(chuàng)建一個(gè)Hopfield神經(jīng)網(wǎng)絡(luò),設(shè)計(jì)參數(shù);(3)編輯相應(yīng)的M文件實(shí)現(xiàn)對(duì)給定受噪聲污染的數(shù)字點(diǎn)陣的恢復(fù),對(duì)DHNN網(wǎng)絡(luò)進(jìn)行仿真.要求考慮固定噪聲和隨機(jī)噪聲兩種情況。注:隨機(jī)噪聲的生成Noise_one=one;Noise_two=two;Fori=1:100a=rand;ifa<0.2Noise_one(i)=-one(i);Noise_two(i)=-two(i);EndEnd顯示圖的運(yùn)行結(jié)果放大圖像:imresize(one,20)顯示圖像:imshow(one)
RBF神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)?zāi)康?(1)熟悉Matlab/Simulink的使用.(2)掌握RBF神經(jīng)網(wǎng)絡(luò)的基本原理和基本的設(shè)計(jì)步驟.(3)熟悉RBF神經(jīng)網(wǎng)絡(luò)在實(shí)際中的應(yīng)用.實(shí)驗(yàn)原理:徑向基函數(shù)(RBF-RadialBasisFunction)神經(jīng)網(wǎng)絡(luò)是由J.Moody和C.Darken在80年代末提出的一種神經(jīng)網(wǎng)絡(luò),它是具有單隱層的三層前饋網(wǎng)絡(luò)。由于它模擬了人腦中局部調(diào)整、相互覆蓋接收域(或稱感受野-ReceptiveField)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),因此,RBF網(wǎng)絡(luò)是一種局部逼近網(wǎng)絡(luò),已證明它能任意精度逼近任意連續(xù)函數(shù)。1.RBF網(wǎng)絡(luò)特點(diǎn)(1)RBF網(wǎng)絡(luò)的作用函數(shù)為高斯函數(shù),是局部的,BP網(wǎng)絡(luò)的作用函數(shù)為S函數(shù),是全局的;(2)如何確定RBF網(wǎng)絡(luò)隱層節(jié)點(diǎn)的中心及基寬度參數(shù)是一個(gè)困難的問(wèn)題;(3)已證明RBF網(wǎng)絡(luò)具有唯一最佳逼近的特性,且無(wú)局部極小。2.RBF網(wǎng)絡(luò)結(jié)構(gòu)RBF網(wǎng)絡(luò)是一種三層前向網(wǎng)絡(luò)。RBF網(wǎng)絡(luò)結(jié)構(gòu)如圖2.1所示。由于輸入到輸出的映射是非線性的,而隱含層空間到輸出空間的映射是線性的,從而可以大大加快學(xué)習(xí)速度并避免局部極小問(wèn)題。圖2.1RBF網(wǎng)絡(luò)結(jié)構(gòu)3.RBF網(wǎng)絡(luò)的逼近采用RBF網(wǎng)絡(luò)逼近一對(duì)象的結(jié)構(gòu)如圖2.2所示。圖2.2RBF網(wǎng)絡(luò)逼近在RBF網(wǎng)絡(luò)結(jié)構(gòu)中,為網(wǎng)絡(luò)的輸入向量。設(shè)RBF網(wǎng)絡(luò)的徑向基向量,其中hj為高斯基函數(shù):網(wǎng)絡(luò)的第個(gè)結(jié)點(diǎn)的中心矢量為:其中,設(shè)網(wǎng)絡(luò)的基寬向量為:為節(jié)點(diǎn)的基寬度參數(shù),且為大于零的數(shù)。網(wǎng)絡(luò)的權(quán)向量為:時(shí)刻網(wǎng)絡(luò)的輸出為:(2.1)設(shè)理想輸出為,則性能指標(biāo)函數(shù)為:(2.2)根據(jù)梯度下降法,輸出權(quán)、節(jié)點(diǎn)中心及節(jié)點(diǎn)基寬參數(shù)的迭代算法如下:(2.3)(2.4)(2.5)(2.6)(2.7)其中,為學(xué)習(xí)速率,為動(dòng)量因子。4、RBF神經(jīng)網(wǎng)絡(luò)函數(shù)newrbe及其參數(shù)介紹應(yīng)用newrbe()函數(shù)可以快速設(shè)計(jì)一個(gè)徑向基函數(shù)網(wǎng)絡(luò),且使得設(shè)計(jì)誤差為0,調(diào)用方式如下:net=newrbe(P,T,SPREAD)其中,P為輸入向量,T為期望輸出向量(目標(biāo)值),SPREAD為徑向基層的散布常數(shù),缺省值為1。輸出為一個(gè)徑向基網(wǎng)絡(luò),其權(quán)值和閾值完全滿足輸入和期望值關(guān)系要求。由newrbe()函數(shù)構(gòu)建的徑向基函數(shù)網(wǎng)絡(luò),徑向基層(第一層)神經(jīng)元數(shù)目等于輸入向量的個(gè)數(shù)。徑向基層閾值的設(shè)定決定了每個(gè)徑向基神經(jīng)元對(duì)于輸入向量產(chǎn)生響應(yīng)的區(qū)域。因此,SPREAD應(yīng)當(dāng)足夠大,使得神經(jīng)元響應(yīng)區(qū)域覆蓋所有輸入?yún)^(qū)間。實(shí)驗(yàn)內(nèi)容:利用MATLAB6.5自帶的一階T-S型模糊控制slcp.mdl平臺(tái)(如圖1所示)設(shè)計(jì)RBF神經(jīng)網(wǎng)絡(luò)控制器,實(shí)現(xiàn)倒立擺的穩(wěn)定控制仿真研究。實(shí)驗(yàn)步驟:(1)建立控制模型圖1一級(jí)倒立擺的模糊控制仿真在上面的控制系統(tǒng)中提取擺角、角速度、位移、速度初始條件為分別為0.5rad,1rad/s,0和0,在此條件下響應(yīng)的輸入輸出對(duì)。(2)提取訓(xùn)練數(shù)據(jù)如圖2所示,利用【SignalToWorkspace】模塊獲取一階T-S型模糊控制仿真過(guò)程的控制器輸入輸出數(shù)據(jù)對(duì),并保存到工作區(qū)中,可以直接用到神經(jīng)網(wǎng)絡(luò)的訓(xùn)練中。圖2數(shù)據(jù)提取(3)RBF神經(jīng)網(wǎng)絡(luò)控制器的訓(xùn)練首先將提取出的訓(xùn)練數(shù)據(jù)變?yōu)闃?biāo)準(zhǔn)的訓(xùn)練數(shù)據(jù)形式,標(biāo)準(zhǔn)的訓(xùn)練數(shù)據(jù)分為輸入和目標(biāo)輸出兩部分。輸入部分是一個(gè)形式為輸入個(gè)數(shù)訓(xùn)練數(shù)據(jù)個(gè)數(shù)的矩陣,這里輸入個(gè)數(shù)為4。目標(biāo)輸出為一個(gè)輸出個(gè)數(shù)訓(xùn)練數(shù)據(jù)個(gè)數(shù)的矩陣,這里輸出個(gè)數(shù)為1。而經(jīng)signaltoworkspace模塊提取出的數(shù)據(jù)為一個(gè)訓(xùn)練數(shù)據(jù)個(gè)數(shù)輸入(或輸出)個(gè)數(shù)的矩陣,因此分別將u、v轉(zhuǎn)置后就得到標(biāo)準(zhǔn)訓(xùn)練數(shù)據(jù)。使用下面語(yǔ)句應(yīng)用newrbe()函數(shù)設(shè)計(jì)一個(gè)RBF神經(jīng)網(wǎng)絡(luò):input=u’;output=v’;net=newrbe(input,output,256)(4)誤差觀察對(duì)網(wǎng)絡(luò)進(jìn)行檢測(cè),對(duì)于輸入向量input應(yīng)用函數(shù)sim()進(jìn)行仿真,觀察RBF對(duì)樣本向量的逼近效果。y=sim(net,input)(5)觀察RBF網(wǎng)絡(luò)的內(nèi)部結(jié)構(gòu)調(diào)用函數(shù)gensim()生成上述網(wǎng)絡(luò)的Simulink模型。設(shè)定st=-1,生成一個(gè)連續(xù)采樣的網(wǎng)絡(luò)模塊。用下面語(yǔ)句可以在Simulink里生成控制器并使用其進(jìn)行控制:gensim(net,-1)其中-1的意思是系統(tǒng)是實(shí)時(shí)的。生成的RBF神經(jīng)網(wǎng)絡(luò)控制器如圖3.2所示(a)外部結(jié)構(gòu)(b)內(nèi)部結(jié)構(gòu)(c)隱層結(jié)構(gòu)(d)輸出層結(jié)構(gòu)圖3RBF神經(jīng)網(wǎng)絡(luò)控制器(6)利用RBF網(wǎng)絡(luò)實(shí)現(xiàn)倒立擺的穩(wěn)定控制使用這個(gè)RBF神經(jīng)網(wǎng)絡(luò)控制器代替原模糊控制器。運(yùn)行程序,比較結(jié)果。圖4RBF神經(jīng)網(wǎng)絡(luò)控制仿真圖實(shí)驗(yàn)思考:1.比較RBF與BP網(wǎng)絡(luò)2.為了更直觀的研究RBF網(wǎng)絡(luò)逼近的效果,下面選取一非線性函數(shù)作為逼近對(duì)象進(jìn)行仿真研究,逼近對(duì)象為:QUOTEQUOTE將上式編入程序,其中采樣時(shí)間取1ms。輸入信號(hào)為,網(wǎng)絡(luò)隱層神經(jīng)元個(gè)數(shù)取m=4,網(wǎng)絡(luò)結(jié)構(gòu)為2-4-1,網(wǎng)絡(luò)的初始值取隨機(jī)值,高斯函數(shù)的初始,。網(wǎng)絡(luò)的學(xué)習(xí)參數(shù)取。RBF網(wǎng)絡(luò)逼近程序:alfa=0.05;xite=0.5;x=[0,0]';b=1.5*ones(4,1);c=0.5*ones(2,4);w=rands(4,1);w_1=w;w_2=w_1;c_1=c;c_2=c_1;b_1=b;b_2=b_1;d_w=0*w;d_b=0*b;y_1=0;u_1=0;ts=0.001;fork=1:1:2000time(k)=k*ts;u(k)=0.50*sin(1*2*pi*k*ts);y(k)=(-0.3*y_1+u_1)/(5+y_1^2);x(1)=u(k);x(2)=y_1;forj=1:1:4h(j)=exp(-norm(x-c(:,j))^2/(2*b(j)*b(j)));endym(k)=w'*h';em(k)=y(k)-ym(k);forj=1:1:4d_w(j)=xite*em(k)*h(j);d_b(j)=xite*em(k)*w(j)*h(j)*(b(j)^-3)*norm(x-c(:,j))^2;fori=1:1:2d_c(i,j)=xite*em(k)*w(j)*h(j)*(x(i)-c(i,j))*(b(j)^-2);endendw=w_1+d_w+alfa*(w_1-w_2);b=b_1+d_b+alfa*(b_1-b_2);c=c_1+d_c+alfa*(c_1-c_2);%%%%%%%%%%%%%%%%%%%Jacobian%%%%%%%%%%%%%%%%%%%%yu=0;forj=1:1:4yu=yu+w(j)*h(j)*(c(1,j)-x(1))/b(j)^2;enddyu(k)=yu;u_1=u(k);y_1=y(k);w_2=w_1;w_1=w;c_2=c_1;c_1=c;b_2=b_1;b_1=b;end人工神經(jīng)網(wǎng)絡(luò)課程編碼:2030B010課程名稱(英文):ArtificialNeuralNetworks適用專業(yè):智能科學(xué)與技術(shù)課程性質(zhì):必修學(xué)時(shí):
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 文化創(chuàng)意技術(shù)合作合同匯編
- 工作室合伙合同書(shū)模板
- 設(shè)備租賃和購(gòu)買(mǎi)合同模板
- 2024年讓與擔(dān)保合同范本
- 商品住宅購(gòu)銷(xiāo)合同
- 個(gè)人債務(wù)轉(zhuǎn)讓協(xié)議書(shū)撰寫(xiě)指南
- 房產(chǎn)二次抵押借款合同
- 房地產(chǎn)中介服務(wù)協(xié)議書(shū)正規(guī)范本2024年
- 債權(quán)轉(zhuǎn)讓協(xié)議合同
- 新型能源供電協(xié)議書(shū)
- 嬰兒培養(yǎng)箱校準(zhǔn)規(guī)范
- 《補(bǔ)貼與反補(bǔ)貼措施協(xié)議》對(duì)出口信貸的法律規(guī)制研究2
- 鐵道運(yùn)輸實(shí)訓(xùn)總結(jié)報(bào)告
- 企業(yè)信息管理概述課件
- MOOC 光纖光學(xué)-華中科技大學(xué) 中國(guó)大學(xué)慕課答案
- 中國(guó)醫(yī)藥流通行業(yè)情況分析
- 兒童民航知識(shí)課件
- 對(duì)科學(xué)施肥方法的
- (修改后) 電子工程中級(jí)職稱考試題
- 家長(zhǎng)會(huì)示范課件引導(dǎo)孩子擁抱自信與勇氣
- 古建筑修復(fù)方案
評(píng)論
0/150
提交評(píng)論