神經(jīng)網(wǎng)絡(luò)實驗指導(dǎo)書2013版[1]19頁_第1頁
神經(jīng)網(wǎng)絡(luò)實驗指導(dǎo)書2013版[1]19頁_第2頁
神經(jīng)網(wǎng)絡(luò)實驗指導(dǎo)書2013版[1]19頁_第3頁
神經(jīng)網(wǎng)絡(luò)實驗指導(dǎo)書2013版[1]19頁_第4頁
神經(jīng)網(wǎng)絡(luò)實驗指導(dǎo)書2013版[1]19頁_第5頁
已閱讀5頁,還剩14頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、北京信息科技大學(xué)自編實驗講義神經(jīng)網(wǎng)絡(luò)實驗指導(dǎo)書許曉飛 陳雯柏編著自動化學(xué)院智能科學(xué)與技術(shù)系2013年1月實驗指導(dǎo)實驗?zāi)康?(1)熟悉Matlab/Simulink的使用. (2)掌握BP神經(jīng)網(wǎng)絡(luò)的基本原理和基本的設(shè)計步驟. (3)了解BP神經(jīng)網(wǎng)絡(luò)在實際中的應(yīng)用. (4)針對簡單的實際系統(tǒng), 能夠建立BP神經(jīng)網(wǎng)絡(luò)控制模型.實驗原理: 1.前饋型人工神經(jīng)網(wǎng)絡(luò)前饋型人工神經(jīng)網(wǎng)絡(luò)是整個神經(jīng)網(wǎng)絡(luò)體系中最常見的一種,其結(jié)構(gòu)模型如圖2所示。網(wǎng)絡(luò)結(jié)構(gòu)包含輸入層、隱層(可能是多層)和輸出層,它的連接方式是同層之間不相連接,相鄰層之間單元為全連接型。這種網(wǎng)絡(luò)沒有反饋存在,實際運行是單向的,學(xué)習(xí)方式是一種監(jiān)督式學(xué)習(xí)

2、。前饋型神經(jīng)網(wǎng)絡(luò)具有很強的非線性映射能力,尋找其映射是靠學(xué)習(xí)實踐的,只要學(xué)習(xí)數(shù)據(jù)足夠完備,就能夠描述任意未知的復(fù)雜系統(tǒng)。因此前饋神經(jīng)網(wǎng)絡(luò)為非線性系統(tǒng)的建模和控制提供了有力的工具。圖1 前饋型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)2.BP算法原理BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)是一種利用誤差反向傳播訓(xùn)練算法的前饋型網(wǎng)絡(luò),BP學(xué)習(xí)算法實質(zhì)是求取網(wǎng)絡(luò)總誤差函數(shù)的最小值問題2。這種算法采用非線性規(guī)劃中的最速下降方法,按誤差函數(shù)的負梯度方向修改權(quán)系數(shù),它是梯度下降法在多層前饋網(wǎng)絡(luò)中的應(yīng)用。具體學(xué)習(xí)算法包括兩大過程,其一是輸入信號的正向傳播過程,其二是輸出誤差信號的反向傳播過程。1.正向傳播輸入的樣本從輸入層經(jīng)過隱

3、層單元一層一層進行處理,通過所有的隱層之后,則傳向輸出層;在逐層處理的過程中,每一層神經(jīng)元的狀態(tài)只對下一層神經(jīng)元的狀態(tài)產(chǎn)生影響。在輸出層把現(xiàn)行輸出和期望輸出進行比較,如果現(xiàn)行輸出不等于期望輸出,則進入反向傳播過程。2.反向傳播反向傳播時,把誤差信號按原來正向傳播的通路反向傳回,并對每個隱層的各個神經(jīng)元的權(quán)系數(shù)進行修改,以望誤差信號趨向最小。網(wǎng)絡(luò)各層的權(quán)值改變量,則由傳播到該層的誤差大小來決定。3.BP算法的特點BP神經(jīng)網(wǎng)絡(luò)具有以下三方面的主要優(yōu)點3:第一,只要有足夠多的隱含層和隱層節(jié)點,BP神經(jīng)網(wǎng)絡(luò)可逼近任意的非線性映射關(guān)系;第二,BP學(xué)習(xí)算法是一種全局逼近方法,因而它具有較好的泛化能力。第三

4、,BP神經(jīng)網(wǎng)絡(luò)具有一定的容錯能力。因為BP神經(jīng)網(wǎng)絡(luò)輸入輸出間的關(guān)聯(lián)信息分布存儲于連接權(quán)中,由于連接權(quán)的個數(shù)總多,個別神經(jīng)元的損壞對輸入輸出關(guān)系只有較小影響。但在實際應(yīng)用中也存在一些問題,如:收斂速度慢,極有可能陷入最優(yōu)陷阱(局部極值),而且典型的BP網(wǎng)絡(luò)是一個冗余結(jié)構(gòu),它的結(jié)構(gòu)及隱節(jié)點數(shù)的確定往往有人為的主觀性,而且一旦人工決定之后,不能在學(xué)習(xí)過程中自主變更。其結(jié)果是隱節(jié)點數(shù)少了,學(xué)習(xí)過程不收斂;隱節(jié)點數(shù)多了,則網(wǎng)絡(luò)的學(xué)習(xí)及推理的效率較差。實驗步驟:(1)建立控制模型神經(jīng)網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)來源于MATLAB6.5自帶的一階T-S型模糊控制slcp.mdl。如圖2所示。圖2 一級倒立擺的模糊控制仿真在

5、上面的控制系統(tǒng)中提取擺角、角速度、位移、速度初始條件為分別為0. 5rad,1rad/s, 0和0,在此條件下響應(yīng)的輸入輸出對, (2) 提取訓(xùn)練數(shù)據(jù)如圖3所示,利用【Signal To Workspace】模塊獲取一階T-S型模糊控制仿真過程的控制器輸入輸出數(shù)據(jù)對,并保存到工作區(qū)中,可以直接用到神經(jīng)網(wǎng)絡(luò)的訓(xùn)練中。圖3 數(shù)據(jù)提取(3) BP神經(jīng)網(wǎng)絡(luò)控制器的訓(xùn)練首先將提取出的訓(xùn)練數(shù)據(jù)變?yōu)闃?biāo)準(zhǔn)的訓(xùn)練數(shù)據(jù)形式,標(biāo)準(zhǔn)的訓(xùn)練數(shù)據(jù)分為輸入和目標(biāo)輸出兩部分。輸入部分是一個形式為輸入個數(shù)訓(xùn)練數(shù)據(jù)個數(shù)的矩陣,這里輸入個數(shù)為4。目標(biāo)輸出為一個輸出個數(shù)訓(xùn)練數(shù)據(jù)個數(shù)的矩陣,這里輸出個數(shù)為1。而經(jīng)signal to w

6、orkspace模塊提取出的數(shù)據(jù)為一個訓(xùn)練數(shù)據(jù)個數(shù)輸入(或輸出)個數(shù)的矩陣,因此分別將p、t轉(zhuǎn)置后就得到標(biāo)準(zhǔn)訓(xùn)練數(shù)據(jù)p,t。接著選擇要訓(xùn)練的步數(shù),訓(xùn)練步數(shù)的選擇可由下面語句定義:net.trainParam.epochs=250這一語句定義了一個500步的訓(xùn)練步數(shù)。做完上面的工作后就可以對網(wǎng)絡(luò)進行訓(xùn)練了,按照上一節(jié)中的選擇和定義初始化網(wǎng)絡(luò)后,在沒有輸入延遲和輸出延遲的條件下,并設(shè)訓(xùn)練后的網(wǎng)絡(luò)還為NET,便可用下面語句對網(wǎng)絡(luò)訓(xùn)練:net,tr=train(net,P,T, , )使用下面語句初始化BP神經(jīng)網(wǎng)絡(luò)控制器并進行訓(xùn)練:P=p;T=t;net=newff(-0.35 0.35;-1 1;-

7、3 3;-3 3,12 1,tansig,purelin,trainlm,learngdm);net.trainParam.show=25;net.trainParam.epochs=250;net,tr=train(net,P,T, , );系統(tǒng)提示如下:TRAINLM, Epoch 0/250, MSE 10.1011/0, Gradient 2554.35/1e-010TRAINLM, Epoch 50/250, MSE 4.78751e-008/0, Gradient 0.00983832/1e-010TRAINLM, Epoch 75/250, MSE 4.1262e-008/0,

8、Gradient 0.00475103/1e-010TRAINLM, Epoch 100/250, MSE 3.76953e-008/0, Gradient 0.00278629/1e-010TRAINLM, Epoch 125/250, MSE 3.52016e-008/0, Gradient 0.00194476/1e-010TRAINLM, Epoch 150/250, MSE 3.32444e-008/0, Gradient 0.00150103/1e-010TRAINLM, Epoch 175/250, MSE 3.16423e-008/0, Gradient 0.00121143/

9、1e-010TRAINLM, Epoch 200/250, MSE 3.02987e-008/0, Gradient 0.000996205/1e-010TRAINLM, Epoch 225/250, MSE 2.91493e-008/0, Gradient 0.000826085/1e-010TRAINLM, Epoch 250/250, MSE 2.81489e-008/0, Gradient 0.000687935/1e-010TRAINLM, Maximum epoch reached, performance goal was not met.圖4 訓(xùn)練誤差曲線可以看出,經(jīng)過250步

10、訓(xùn)練控制器輸出與期望輸出間的誤差已經(jīng)很小了。提示:如訓(xùn)練程序有錯,請在help文檔搜索BP神經(jīng)網(wǎng)絡(luò)函數(shù)newff,查看語法調(diào)用;P=p;T=t;net=newff(0.35 0.35;-1 1;-3 3;-3 3,12,1,tansig purelin);net.trainparam.show=25;net.trainparam.epochs=300;net,tr=train(net,P,T);神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)用語句gensim(net,-1)可以在simulink里生成控制器并使用其進行控制,其中-1的意思是系統(tǒng)是實時的,生成的神經(jīng)網(wǎng)絡(luò)控制器結(jié)構(gòu)如圖5所示。(a) 神經(jīng)網(wǎng)絡(luò)控制器外部結(jié)構(gòu)(b)

11、 內(nèi)部結(jié)構(gòu)(c)隱層結(jié)構(gòu)(d)輸出層結(jié)構(gòu)圖5 BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)(4) 神經(jīng)網(wǎng)絡(luò)控制的實現(xiàn)使用訓(xùn)練后的BP神經(jīng)網(wǎng)絡(luò)控制器代替原模糊控制器控制器便可進行仿真試驗??刂平Y(jié)構(gòu)如圖6所示。圖6 直線一級倒立擺神經(jīng)網(wǎng)絡(luò)控制仿真單擊模型窗口上的run,運行以上的仿真實驗,可以看出訓(xùn)練后的BP神經(jīng)網(wǎng)絡(luò)能成功的實現(xiàn)倒立擺的控制.實驗指導(dǎo)實驗?zāi)康?(1)熟悉Matlab/Simulink的使用. (2)掌握SOM神經(jīng)網(wǎng)絡(luò)的基本原理和基本的設(shè)計步驟. (3) 熟悉SOM神經(jīng)網(wǎng)絡(luò)在實際中的應(yīng)用. 實驗原理:通過自動尋找樣本中的內(nèi)在規(guī)律和本質(zhì)屬性,自組織、自適應(yīng)地改變網(wǎng)絡(luò)參數(shù)與結(jié)構(gòu)。 自組織網(wǎng)絡(luò)的自組織功能是通過競爭學(xué)

12、習(xí)(competitive learning)實現(xiàn)的。1981年芬蘭Helsink大學(xué)的T.Kohonen教授提出一種自組織特征映射網(wǎng),簡稱SOM網(wǎng),又稱Kohonen網(wǎng)。Kohonen認為:一個神經(jīng)網(wǎng)絡(luò)接受外界輸入模式時,將會分為不同的對應(yīng)區(qū)域,各區(qū)域?qū)斎肽J骄哂胁煌捻憫?yīng)特征,而且這個過程是自動完成的。自組織特征映射正是根據(jù)這一看法提出來的,其特點與人腦的自組織特性相類似。SOM網(wǎng)共有兩層,輸入層模擬感知外界輸入信息的視網(wǎng)膜,輸出層模擬做出響應(yīng)的大腦皮層。 Kohonen學(xué)習(xí)算法程序流程:示例:產(chǎn)生100個(0,0.5pi)之間的角度,用其sin和cos值作為輸入向量,利用輸出為二維平面

13、陣的SOM網(wǎng)絡(luò)對其進行聚類。參考程序如下:angles = 0:0.5*pi/99:0.5*pi;P = sin(angles); cos(angles);plot(P(1,:),P(2,:),+r)net = newsom(0 1;0 1,10);net.trainParam.epochs = 10;net = train(net,P);plotsom(net.iw1,1,net.layers1.distances)p = 1;0;a = sim(net,p)實驗內(nèi)容:人口分類是人口統(tǒng)計中的一個重要指標(biāo),現(xiàn)有1999共10個地區(qū)的人口出生比例情況如下表所示,建立一個自組織神經(jīng)網(wǎng)絡(luò)對上述數(shù)據(jù)分

14、類,給定某個地區(qū)的男、女出生比例分別為0.5,0.5,測試訓(xùn)練后的自組織神經(jīng)網(wǎng)絡(luò)的性能,判斷其屬于哪個類別。出生男性百分比0.55120.51230.50870.50010.60120.52980.50000.49650.51030.5003出生女性百分比0.4488 0.48770.49130.49990.39880.47020.50000.50350.48970.4997實驗步驟:(1)確定輸入模式;(2)確定網(wǎng)絡(luò)的結(jié)構(gòu),設(shè)計參數(shù);(3)編輯相應(yīng)的M文件實現(xiàn)SOM對數(shù)據(jù)進行聚類,運行M文件,在命令窗口察看結(jié)果。課下擴展實驗:利用SOM網(wǎng)絡(luò)對動物屬性特征映射1989年Kohonen給出一個S

15、OM網(wǎng)的著名應(yīng)用實例,即把不同的動物按其屬性特征映射到兩維輸出平面上,使屬性相似的動物在SOM網(wǎng)輸出平面上的位置也相近。該例訓(xùn)練集種共有16種動物,每種動物用一個29維向量來表示,其中前16個分量構(gòu)成符號向量,對不同的動物進行“16取1”編碼;后13個分量構(gòu)成屬性向量,描述動物的13種屬性,用1或0表示某動物該屬性的有或無。表2中的各列給出16種動物的屬性列向量。表2. 16種動物的屬性向量 動物 屬性 鴿子母雞鴨鵝貓頭鷹隼鷹狐貍狗狼貓虎獅馬斑馬牛小中大2只腿4只腿毛蹄鬃毛羽毛獵跑飛泳1001000010010100100001000010010000100011001000010011100

16、100001101010010000110100101000011010010011000100001001100001000100110001100100011000100000101100011000010110001100001011110010000101111001000010111000000實驗步驟(1) 準(zhǔn)備輸入模式;(2) 設(shè)計SOM網(wǎng)絡(luò):SOM網(wǎng)的輸出平面上有1010個神經(jīng)元(3) SOM網(wǎng)絡(luò)的訓(xùn)練:用16個動物模式輪番輸入進行訓(xùn)練,考察輸出平面上所示情況。注意事項(1)輸入:P為2916的矩陣,其中29維輸入向量,16為動物的個數(shù)歸一化(2)輸出:1010(3)網(wǎng)絡(luò)的設(shè)計

17、:建立新的網(wǎng)絡(luò):net = newsom(AA,10 10,gridtop);hextop網(wǎng)絡(luò)訓(xùn)練參數(shù)設(shè)定:net.trainParam.epochs = 1000;網(wǎng)絡(luò)訓(xùn)練:net = train(net,P);(4)訓(xùn)練后的運行:a = sim(net,P)由a的值可以得到SOM的哪個輸出節(jié)點對輸入有所響應(yīng),即歸為哪一類(4) 畫出輸出示意圖。(提示輸出a來確定獲勝節(jié)點的坐標(biāo),從而進行畫圖)實驗指導(dǎo)實驗?zāi)康?(1)熟悉Matlab/Simulink的使用. (2)掌握DHNN神經(jīng)網(wǎng)絡(luò)的基本原理和基本的設(shè)計步驟. (3) 熟悉DHNN神經(jīng)網(wǎng)絡(luò)在實際中的應(yīng)用. 實驗原理:Hopfield網(wǎng)絡(luò)是

18、神經(jīng)網(wǎng)絡(luò)發(fā)展歷史上的一個重要的里程碑。由美國加州理工學(xué)院物理學(xué)家J.J.Hopfield教授于1982年提出,是一種單層反饋神經(jīng)網(wǎng)絡(luò),結(jié)構(gòu)如下所示。DHNN網(wǎng)實質(zhì)上是一個離散的非線性動力學(xué)系統(tǒng)。網(wǎng)絡(luò)從初態(tài)X(0)開始,若能經(jīng)有限次遞歸后,其狀態(tài)不再發(fā)生變化,即X(t+1)X(t),則稱該網(wǎng)絡(luò)是穩(wěn)定的。 如果網(wǎng)絡(luò)是穩(wěn)定的,它可以從任一初態(tài)收斂到一個穩(wěn)態(tài). 若把需記憶的樣本信息存儲于網(wǎng)絡(luò)不同的吸引子,當(dāng)輸入含有部分記憶信息的樣本時,網(wǎng)絡(luò)的演變過程便是從部分信息尋找全部信息,即聯(lián)想回憶的過程。 實驗內(nèi)容:設(shè)印刷體數(shù)字由10*10點陣構(gòu)成,就是將數(shù)字分成很多小方塊,每個方塊就對應(yīng)數(shù)字的一部分,構(gòu)成數(shù)字

19、本部分的方塊用1表示,空白處用-1表示。試設(shè)計一個Hopfield網(wǎng)絡(luò),能夠正確識別印刷體的數(shù)字0-9的識別,考察網(wǎng)絡(luò)對受污染的數(shù)字點陣的識別,證明網(wǎng)絡(luò)的有效性。 實驗步驟:(1)確定網(wǎng)絡(luò)的輸入向量與目標(biāo)向量;(2)確定網(wǎng)絡(luò)的結(jié)構(gòu),創(chuàng)建一個Hopfield神經(jīng)網(wǎng)絡(luò),設(shè)計參數(shù);(3)編輯相應(yīng)的M文件實現(xiàn)對給定受噪聲污染的數(shù)字點陣的恢復(fù),對DHNN網(wǎng)絡(luò)進行仿真.要求考慮固定噪聲和隨機噪聲兩種情況。注:隨機噪聲的生成Noise_one=one;Noise_two=two;For i=1:100 a =rand; if a 0.2 Noise_one(i)= -one(i); Noise_two(i)

20、= -two(i); EndEnd顯示圖的運行結(jié)果放大圖像:imresize(one,20)顯示圖像:imshow(one)RBF神經(jīng)網(wǎng)絡(luò)實驗?zāi)康?(1)熟悉Matlab/Simulink的使用. (2)掌握RBF神經(jīng)網(wǎng)絡(luò)的基本原理和基本的設(shè)計步驟. (3) 熟悉RBF神經(jīng)網(wǎng)絡(luò)在實際中的應(yīng)用. 實驗原理:徑向基函數(shù)(RBF-Radial Basis Function)神經(jīng)網(wǎng)絡(luò)是由J.Moody和C.Darken在80年代末提出的一種神經(jīng)網(wǎng)絡(luò),它是具有單隱層的三層前饋網(wǎng)絡(luò)。由于它模擬了人腦中局部調(diào)整、相互覆蓋接收域(或稱感受野-Receptive Field)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),因此,RBF網(wǎng)絡(luò)是一

21、種局部逼近網(wǎng)絡(luò),已證明它能任意精度逼近任意連續(xù)函數(shù)。1RBF網(wǎng)絡(luò)特點(1) RBF網(wǎng)絡(luò)的作用函數(shù)為高斯函數(shù),是局部的,BP網(wǎng)絡(luò)的作用函數(shù)為S函數(shù),是全局的;(2)如何確定RBF網(wǎng)絡(luò)隱層節(jié)點的中心及基寬度參數(shù)是一個困難的問題;(3)已證明RBF網(wǎng)絡(luò)具有唯一最佳逼近的特性,且無局部極小。2. RBF網(wǎng)絡(luò)結(jié)構(gòu)RBF網(wǎng)絡(luò)是一種三層前向網(wǎng)絡(luò)。RBF網(wǎng)絡(luò)結(jié)構(gòu)如圖2.1所示。由于輸入到輸出的映射是非線性的,而隱含層空間到輸出空間的映射是線性的,從而可以大大加快學(xué)習(xí)速度并避免局部極小問題。 圖2.1 RBF網(wǎng)絡(luò)結(jié)構(gòu)3. RBF網(wǎng)絡(luò)的逼近 采用RBF網(wǎng)絡(luò)逼近一對象的結(jié)構(gòu)如圖2.2所示。圖2.2 RBF網(wǎng)絡(luò)逼近在

22、RBF網(wǎng)絡(luò)結(jié)構(gòu)中,為網(wǎng)絡(luò)的輸入向量。設(shè)RBF網(wǎng)絡(luò)的徑向基向量,其中hj為高斯基函數(shù):網(wǎng)絡(luò)的第個結(jié)點的中心矢量為:其中, 設(shè)網(wǎng)絡(luò)的基寬向量為:為節(jié)點的基寬度參數(shù),且為大于零的數(shù)。網(wǎng)絡(luò)的權(quán)向量為:時刻網(wǎng)絡(luò)的輸出為: (2.1)設(shè)理想輸出為,則性能指標(biāo)函數(shù)為: (2.2)根據(jù)梯度下降法,輸出權(quán)、節(jié)點中心及節(jié)點基寬參數(shù)的迭代算法如下: (2.3) (2.4) (2.5) (2.6) (2.7)其中, 為學(xué)習(xí)速率,為動量因子。4、RBF神經(jīng)網(wǎng)絡(luò)函數(shù)newrbe及其參數(shù)介紹應(yīng)用newrbe()函數(shù)可以快速設(shè)計一個徑向基函數(shù)網(wǎng)絡(luò),且使得設(shè)計誤差為0,調(diào)用方式如下:net=newrbe(P,T,SPREAD)

23、其中,P為輸入向量,T為期望輸出向量(目標(biāo)值),SPREAD為徑向基層的散布常數(shù),缺省值為1。輸出為一個徑向基網(wǎng)絡(luò),其權(quán)值和閾值完全滿足輸入和期望值關(guān)系要求。由newrbe()函數(shù)構(gòu)建的徑向基函數(shù)網(wǎng)絡(luò),徑向基層(第一層)神經(jīng)元數(shù)目等于輸入向量的個數(shù)。徑向基層閾值的設(shè)定決定了每個徑向基神經(jīng)元對于輸入向量產(chǎn)生響應(yīng)的區(qū)域。因此,SPREAD應(yīng)當(dāng)足夠大,使得神經(jīng)元響應(yīng)區(qū)域覆蓋所有輸入?yún)^(qū)間。實驗內(nèi)容:利用MATLAB6.5自帶的一階T-S型模糊控制slcp.mdl平臺(如圖1所示)設(shè)計RBF神經(jīng)網(wǎng)絡(luò)控制器,實現(xiàn)倒立擺的穩(wěn)定控制仿真研究。實驗步驟: (1)建立控制模型圖1 一級倒立擺的模糊控制仿真在上面的

24、控制系統(tǒng)中提取擺角、角速度、位移、速度初始條件為分別為0. 5rad,1rad/s, 0和0,在此條件下響應(yīng)的輸入輸出對。 (2) 提取訓(xùn)練數(shù)據(jù)如圖2所示,利用【Signal To Workspace】模塊獲取一階T-S型模糊控制仿真過程的控制器輸入輸出數(shù)據(jù)對,并保存到工作區(qū)中,可以直接用到神經(jīng)網(wǎng)絡(luò)的訓(xùn)練中。圖2 數(shù)據(jù)提取(3) RBF神經(jīng)網(wǎng)絡(luò)控制器的訓(xùn)練首先將提取出的訓(xùn)練數(shù)據(jù)變?yōu)闃?biāo)準(zhǔn)的訓(xùn)練數(shù)據(jù)形式,標(biāo)準(zhǔn)的訓(xùn)練數(shù)據(jù)分為輸入和目標(biāo)輸出兩部分。輸入部分是一個形式為輸入個數(shù)訓(xùn)練數(shù)據(jù)個數(shù)的矩陣,這里輸入個數(shù)為4。目標(biāo)輸出為一個輸出個數(shù)訓(xùn)練數(shù)據(jù)個數(shù)的矩陣,這里輸出個數(shù)為1。而經(jīng)signal to wor

25、kspace模塊提取出的數(shù)據(jù)為一個訓(xùn)練數(shù)據(jù)個數(shù)輸入(或輸出)個數(shù)的矩陣,因此分別將u、v轉(zhuǎn)置后就得到標(biāo)準(zhǔn)訓(xùn)練數(shù)據(jù)。使用下面語句應(yīng)用newrbe()函數(shù)設(shè)計一個RBF神經(jīng)網(wǎng)絡(luò):input =u;output =v;net=newrbe(input,output,256)(4) 誤差觀察對網(wǎng)絡(luò)進行檢測,對于輸入向量input應(yīng)用函數(shù)sim()進行仿真,觀察RBF對樣本向量的逼近效果。y=sim(net,input)(5) 觀察RBF網(wǎng)絡(luò)的內(nèi)部結(jié)構(gòu)調(diào)用函數(shù)gensim()生成上述網(wǎng)絡(luò)的Simulink模型。設(shè)定st=-1,生成一個連續(xù)采樣的網(wǎng)絡(luò)模塊。用下面語句可以在Simulink里生成控制器并使用

26、其進行控制:gensim(net,-1)其中-1的意思是系統(tǒng)是實時的。生成的RBF神經(jīng)網(wǎng)絡(luò)控制器如圖3.2所示(a) 外部結(jié)構(gòu) (b) 內(nèi)部結(jié)構(gòu)(c) 隱層結(jié)構(gòu)(d) 輸出層結(jié)構(gòu)圖3 RBF神經(jīng)網(wǎng)絡(luò)控制器(6) 利用RBF網(wǎng)絡(luò)實現(xiàn)倒立擺的穩(wěn)定控制使用這個RBF神經(jīng)網(wǎng)絡(luò)控制器代替原模糊控制器。運行程序,比較結(jié)果。圖4 RBF神經(jīng)網(wǎng)絡(luò)控制仿真圖實驗思考:1.比較RBF與BP網(wǎng)絡(luò)2.為了更直觀的研究RBF網(wǎng)絡(luò)逼近的效果,下面選取一非線性函數(shù)作為逼近對象進行仿真研究,逼近對象為: 將上式編入程序,其中采樣時間取1ms。輸入信號為,網(wǎng)絡(luò)隱層神經(jīng)元個數(shù)取m=4,網(wǎng)絡(luò)結(jié)構(gòu)為2-4-1,網(wǎng)絡(luò)的初始值取隨機值,

27、高斯函數(shù)的初始,。網(wǎng)絡(luò)的學(xué)習(xí)參數(shù)取。RBF網(wǎng)絡(luò)逼近程序:alfa=0.05;xite=0.5; x=0,0;b=1.5*ones(4,1); c=0.5*ones(2,4); w=rands(4,1); w_1=w;w_2=w_1;c_1=c;c_2=c_1;b_1=b;b_2=b_1;d_w=0*w;d_b=0*b;y_1=0;u_1=0;ts=0.001;for k=1:1:2000time(k)=k*ts;u(k)=0.50*sin(1*2*pi*k*ts);y(k)=(-0.3*y_1+u_1)/(5+y_12);x(1)=u(k);x(2)=y_1;for j=1:1:4h(j)=e

28、xp(-norm(x-c(:,j)2/(2*b(j)*b(j);endym(k)=w*h;em(k)=y(k)-ym(k);for j=1:1:4 d_w(j)=xite*em(k)*h(j); d_b(j)=xite*em(k)*w(j)*h(j)*(b(j)-3)*norm(x-c(:,j)2; for i=1:1:2 d_c(i,j)=xite*em(k)*w(j)*h(j)*(x(i)-c(i,j)*(b(j)-2); endendw=w_1+ d_w+alfa*(w_1-w_2);b=b_1+d_b+alfa*(b_1-b_2);c=c_1+d_c+alfa*(c_1-c_2);%Jacobian%yu=0;for j=1:1:4yu=yu+w(j)*h(j)*(c(1,j)-x(1)/b(j)2; enddyu(k)=yu;u_1=u(k);y_1=y(k);w_2=w_1;w_1=w;c_2=c_1;c_1=c;b_2=b_1;b_1=b;end人工神經(jīng)網(wǎng)絡(luò)課程編碼:2030B010 課程名稱(英文):Artificial

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論