第三章:感知器_第1頁
第三章:感知器_第2頁
第三章:感知器_第3頁
第三章:感知器_第4頁
第三章:感知器_第5頁
已閱讀5頁,還剩58頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、 62334967 單個感知器模型與解決問題的能力單個感知器模型與解決問題的能力 單層感知器模型與解決問題的能力單層感知器模型與解決問題的能力 單層感知器的學習算法單層感知器的學習算法 單層感知器的局限性問題單層感知器的局限性問題 多層感知器的設(shè)計方法多層感知器的設(shè)計方法 有關(guān)的幾個問題的討論有關(guān)的幾個問題的討論 單層感知器的單層感知器的MATLAB設(shè)計與實現(xiàn)設(shè)計與實現(xiàn) 概述概述 由美國學者由美國學者Rosenblatt在在1957年首次提出年首次提出 學習算法是學習算法是Rosenblatt在在1958年提出的年提出的 包含一個突觸權(quán)值可調(diào)的神經(jīng)元包含一個突觸權(quán)值可調(diào)的神經(jīng)元 屬于前向神經(jīng)網(wǎng)

2、絡(luò)類型屬于前向神經(jīng)網(wǎng)絡(luò)類型 只能區(qū)分線性可分的模式只能區(qū)分線性可分的模式 IEEE設(shè)立以其名字命名的獎項設(shè)立以其名字命名的獎項 人的視覺人的視覺是重要的感覺器官,人通過視覺接受是重要的感覺器官,人通過視覺接受的信息占全部信息量的的信息占全部信息量的8085%。 感知器感知器是模擬人的視覺,接受環(huán)境信息,并由是模擬人的視覺,接受環(huán)境信息,并由神經(jīng)沖動進行信息傳遞的神經(jīng)網(wǎng)絡(luò)。神經(jīng)沖動進行信息傳遞的神經(jīng)網(wǎng)絡(luò)。 感知器分感知器分單層單層與與多層多層,是,是具有學習能力具有學習能力的神經(jīng)的神經(jīng)網(wǎng)絡(luò)。網(wǎng)絡(luò)。 感知器的結(jié)構(gòu)、表達能力、學習算法。感知器的結(jié)構(gòu)、表達能力、學習算法。 感知器的表達能力感知器的表達

3、能力 。3.1 3.1 單個感知器模型與解決問題的能力單個感知器模型與解決問題的能力是是具具有有單單層層處處理理單單元元的的神神經(jīng)經(jīng)網(wǎng)網(wǎng)絡(luò)絡(luò),非非線線性性作作用用函函數(shù)數(shù)f ( ) 是是對對稱稱型型階階躍躍函函數(shù)數(shù),見見圖圖。 感感知知器器輸輸出出: yfw ufw ujjjnjjjn()()10uj:感感知知器器的的第第 j 個個輸輸入入;w0 (閾閾值值);u01。與與 MP 模模型型不不同同之之處處:權(quán)權(quán)值值由由有有導導師師的的學學習習算算法法進進行行調(diào)調(diào)整整。 圖2-3-1 單層感知器 njuuu1 yx nw 1w )(xf )(xf 布爾函數(shù)的布爾函數(shù)的M-P神經(jīng)元表示神經(jīng)元表示:

4、 利用帶閾值的M-P人工神經(jīng)元可以很方便地實現(xiàn)布爾代數(shù)中的許多功能。在布爾代數(shù)中,and、or、Not、xoR關(guān)系如下表1所示:3.1 3.1 單個感知器模型與解決問題的能力單個感知器模型與解決問題的能力1x2xandor ) )xoR00001100101101100101111110002x1xNot(Not(3.1 3.1 單個感知器模型與解決問題的能力單個感知器模型與解決問題的能力1x0 , 1 2x0 , 1 Y且、,模型來建立,PM Y1x2x可以將圖用與、之間的關(guān)系: 上面幾個人工神經(jīng)元都滿足M-P模型。 3.1 3.1 單個感知器模型與解決問題的能力單個感知器模型與解決問題的能

5、力根據(jù)各個圖及M-P模型,我們有 )0 , 1 (),1 , 0(),0 , 0(),(0)1 , 1(),(1020021)2(2121212121xxxxxxxxxxfy(1)(2)1212121212110(1)0101(,)(1,1),(1,0),(0,1)0(,)(0,0)xxyf xxxxxxxx3.1 3.1 單個感知器模型與解決問題的能力單個感知器模型與解決問題的能力10010001)(xxxxxfy(3)顯然是符合邏輯運算要求。3.1 3.1 單個感知器模型與解決問題的能力單個感知器模型與解決問題的能力 權(quán)系數(shù)和閾值不是權(quán)系數(shù)和閾值不是0、1的的M-P模型模型 Rw,w1,

6、1 x1, 1 y若,則M-P模型比只允許取-1,1要靈活(或1,0),(或1,0),則對于這個M-P人工神經(jīng)元來說: 的多,但此時仍限制111110101)(niiiniiiiniixwxwwxfyRw,Zw,但與相比并無多大改進。3.1 3.1 單個感知器模型與解決問題的能力單個感知器模型與解決問題的能力例:例:試說明下列兩個M-P人工神經(jīng)元是等價的。 分析:對于(a) 06324106324106 . 02 . 03 . 04 . 0106 . 02 . 03 . 04 . 01)6 . 02 . 03 . 04 . 0(321321231231231xxxxxxxxxxxxxxxfy3

7、.1 3.1 單個感知器模型與解決問題的能力單個感知器模型與解決問題的能力對與(b)063241063241) 6234(321321231xxxxxxxxxfy3.1 3.1 單個感知器模型與解決問題的能力單個感知器模型與解決問題的能力此時感知器人工神經(jīng)元結(jié)構(gòu)及其數(shù)學描述如下: 0101)()(11iinjijijiizzxwfzfy 當當M-P人工神經(jīng)元的輸入人工神經(jīng)元的輸入X可以在可以在R上取值時上取值時 離散感知器離散感知器(簡稱感知器簡稱感知器) nnRxxX,11, 1 y 0 , 1若M-P人工神經(jīng)元的輸入,而其輸出值為或模型就改進為離散感知器(因為其輸出還是離散的),簡稱為感知

8、器。則此時的M-P3.1 3.1 單個感知器模型與解決問題的能力單個感知器模型與解決問題的能力 (a) 分類器結(jié)構(gòu) 2w 1w 0w y 10u 21uu 1u 2u (b) 平面上兩類模式分界線 圖 2-3-2 平面上兩類模式分類 用圖所示 二輸入 /單輸出單層感知器 ,輸入輸出描述: 0,00,1)()(2211fuwuwfy 即 22112211,0,1uwuwuwuwy 可見:輸入輸出為線性可分集合,一定可找到一條直線,將輸入模式分為兩類,此直線方程: ywuw u1 1220 則 uwwwu22121 見圖,此直線與 權(quán)值及閾值有關(guān)。 3.1 3.1 單個感知器模型與解決問題的能力單

9、個感知器模型與解決問題的能力2u1u 0w 10u y 1w 3w 2w 321uuu 圖 2-3-3 三維空間上的兩類模式分類 用圖所示三輸入用圖所示三輸入 / 單輸出的單層感知器,輸入輸出:單輸出的單層感知器,輸入輸出: 0,00,1)()(332211fuwuwuwfy即即 332211332211,0,1uwuwuwuwuwuwy可見可見 ,輸入輸出為線性可分集合,一定可找到一個平面,輸入輸出為線性可分集合,一定可找到一個平面,將輸入模式分為兩類,平面方程:將輸入模式分為兩類,平面方程: 0332211uwuwuwy則則 23213133uwwuwwwu此平面與此平面與權(quán)值及閾值權(quán)值及

10、閾值有關(guān)有關(guān), ,見圖。見圖。3.1 3.1 單個感知器模型與解決問題的能力單個感知器模型與解決問題的能力 感知器的分類定義感知器的分類定義 作為數(shù)學模型,我們對感知器作出如下歸納:作為數(shù)學模型,我們對感知器作出如下歸納:感知器是一個多輸入、單輸出的運算系統(tǒng),表示一個神經(jīng)元感知器是一個多輸入、單輸出的運算系統(tǒng),表示一個神經(jīng)元的運算特性,它的輸入狀態(tài)向量記為:的運算特性,它的輸入狀態(tài)向量記為:)(21nnxxxx)(21nnwwww權(quán)向量權(quán)向量: : 2. 感知器的狀態(tài)值可以為感知器的輸出值感知器的狀態(tài)值可以為感知器的輸出值 );(nnxwfy000111niiiniiixxy3. 以以為分界線

11、,實現(xiàn)對輸入的分類為分界線,實現(xiàn)對輸入的分類0 x 連續(xù)感知器連續(xù)感知器(簡稱感知器簡稱感知器) 3.1 3.1 單個感知器模型與解決問題的能力單個感知器模型與解決問題的能力bxwkxwfyniiiniii1111)(連續(xù)感知器人工神經(jīng)元結(jié)構(gòu)及其數(shù)學描述如下: 若取0, 1bk,則其成為一類最簡單的連續(xù)人工感知神經(jīng)元。( )yf ok o b激活函數(shù):3.1 3.1 單個感知器模型與解決問題的能力單個感知器模型與解決問題的能力nxix是不連續(xù)的: 或0101)(xxxf0001)(xxxf都在0,1或-1,1上取值,的每個向量定義:定義: )sgn()(xxf如果且激活函數(shù)那么這個感知神經(jīng)元被

12、成為M-P模型。是離散的,那么這個nnRx )(xfb) 如果, 但激勵函數(shù)感知神經(jīng)元被稱為離散感知器常簡稱為感知器。是連續(xù)函數(shù),那么這個感知nnRx )(xf且C) 如果神經(jīng)元稱為連續(xù)感知器。 由相應(yīng)的感知神經(jīng)元組成的網(wǎng)絡(luò)就稱為相應(yīng)神經(jīng)網(wǎng)絡(luò),如M-P神經(jīng)網(wǎng)絡(luò)、感知器神經(jīng)網(wǎng)絡(luò)、連續(xù)感知器神經(jīng)網(wǎng)絡(luò)。 例例 線性不可分集合。線性不可分集合。 二維平面上的兩類模式二維平面上的兩類模式異或(異或(XOR)問題)問題,見表。,見表。 二維平面中不存在一條直線,將輸入模式分為兩類,此輸入二維平面中不存在一條直線,將輸入模式分為兩類,此輸入模式稱模式稱線性不可分集合線性不可分集合,見圖。,見圖。可見可見:單

13、層感知器不能解決:單層感知器不能解決異或問題異或問題。 表表 2-3-3 uu12 y 0 0 0 0 1 1 1 0 1 1 1 0 圖圖 2-3-4異 或 問 題 2u 1u 3.1 3.1 單個感知器模型與解決問題的能力單個感知器模型與解決問題的能力 單層感知器工作原理單層感知器工作原理 對于只有兩個輸入的判別邊界是直線(如下式對于只有兩個輸入的判別邊界是直線(如下式所示)所示),選擇合適的學習算法可訓練出滿意的選擇合適的學習算法可訓練出滿意的 和和 ,當它用于兩類模式的分類時,相當于在高維樣本空當它用于兩類模式的分類時,相當于在高維樣本空間中,用一個超平面將兩類樣本分開。間中,用一個超

14、平面將兩類樣本分開。3.1 3.1 單個感知器模型與解決問題的能力單個感知器模型與解決問題的能力3.2 3.2 單層感知器模型與解決問題的能力單層感知器模型與解決問題的能力 在上一節(jié)中指出了線性單個感知神經(jīng)網(wǎng)絡(luò)只能實現(xiàn)兩類分類,如果要進行多于兩類的分類將怎么辦?生物醫(yī)學已經(jīng)證明:生物神經(jīng)系統(tǒng)是由一些相互聯(lián)系的,并能互相傳遞信息的神經(jīng)細胞互連構(gòu)成。因此這就使我們自然地想到是否可將單個的感知神經(jīng)元連成網(wǎng)絡(luò)形成一個單層的網(wǎng)絡(luò)? 結(jié)構(gòu)3.2 3.2 單層感知器模型與解決問題的能力單層感知器模型與解決問題的能力 例例 線性不可分集合。線性不可分集合。 二維平面上的兩類模式二維平面上的兩類模式異或(異或(

15、XOR)問題)問題,見表。,見表。 二維平面中不存在一條直線,將輸入模式分為兩類,此輸入二維平面中不存在一條直線,將輸入模式分為兩類,此輸入模式稱模式稱線性不可分集合線性不可分集合,見圖。,見圖。可見可見:單層感知器不能解決:單層感知器不能解決異或問題異或問題。 表表 2-3-3 uu12 y 0 0 0 0 1 1 1 0 1 1 1 0 圖圖 2-3-4異 或 問 題 2u 1u 感知器的學習目標感知器的學習目標 感知機的基本功能是對外部信號進行“感知”與識別,這就是當外部n個刺激信號或來自其它n個神經(jīng)元(的信號)處于一定的狀態(tài)時,感知器就處于“興奮”狀態(tài),而當外部n個信號或n個神經(jīng)元的輸

16、出處于另一些狀態(tài)時,感知器就呈現(xiàn)“抑制”狀態(tài)。 (;)nnyf wx若用 表示感知器的運算函數(shù)關(guān)系,那么它們的運算目標就是:BxAxxwfynnnn如果如果11);(即一個感知神經(jīng)元只能實現(xiàn)兩類的劃分,且其中A,B是 nR中互不相交的集合。 3.3 3.3 單層感知器的學習算法單層感知器的學習算法定義:感知器的學習目標:我們稱(A,B)為感知器的學習目標,如果A、B是nR 感知器的學習目標感知器的學習目標 中兩個互不相交的集合,且下面方程成立。即一個感知神經(jīng)元只能實現(xiàn)兩類的劃分,且其中A,B是 nR中互不相交的集合。 等價于如下描述: BxAxxwfynnniii如果如果01)(1BxxwAx

17、xwnniiinniii如果如果00113.3 3.3 單層感知器的學習算法單層感知器的學習算法3.3 3.3 單層感知器的學習算法單層感知器的學習算法 離散單個感知器的學習算法離散單個感知器的學習算法 1, 1)(21nnxxxx0101)(uuufy11nTnTxwxwuWX| ),(對應(yīng)的輸出為為輸入向量,XYXYX設(shè)M-P模型的幾何圖形如右圖:設(shè)為網(wǎng)絡(luò)的廣義權(quán)向量, 為輸入向量且是二值的,網(wǎng)絡(luò)的訓練樣本集為若M-P神經(jīng)元的權(quán)值為 0w n,則M-P神經(jīng)元的輸出為: 01011111110niiijiniiijiniiijixwxwxwfnO)()(的值與此時對應(yīng)的 不一樣,即jy 0O

18、 njy如果的值與此時對應(yīng)的一樣,則說明此時權(quán)值將jxjy 0O njjxyW和正確分類;如果表示將此時的錯誤分類,則此時需要調(diào)整值。 。 01O n1jy110njiiix w11njiiiux w 001( )jW nW nX當時,說明此時實際值,即,說明計算得到的的值大小小于零,而實際上應(yīng)該是大于零,對此修正權(quán)值為3.3 3.3 單層感知器的學習算法單層感知器的學習算法如此調(diào)整后)()()(00011nWXXXnWXXnWXWxwuTTTTTTniiii使被減小了,故算法如下:增加了。否則u 01O n1jyjXnWnW)(100)(u,則表示實際,此時則取,調(diào)整后3.3 3.3 單層感

19、知器的學習算法單層感知器的學習算法2.重復(fù)下列過程,直到訓練完成: 2.1對樣本集中的每一個樣本與實際樣本中所有都一樣,則2.1.1輸入WnZW ),(YXX),(WXFOOy11OWWXOWWX 當時取當時取初始化權(quán)向量(一般在一定范圍內(nèi)取); ,重復(fù)如下過程:2.1.2計算2.1.3如果計算得的退出;否則。Oy3.3 3.3 單層感知器的學習算法單層感知器的學習算法。iOiy如果計算得的與實際樣本中所有都一樣,則輸入iX),(WXFOjOiyiiiiiiii11OWWXOWWX 當時取當時取2.重復(fù)下列過程,直到訓練完成: 2.1對樣本集中的每一個樣本n離散單層

20、感知器的訓練算法:離散單層感知器的訓練算法:WnZW ),(YX初始化權(quán)向量(一般在一定范圍內(nèi)?。?,重復(fù)如下過程:計算退出;否則2.1.1對每一個神經(jīng)元i作以下操作用公式wij=wij+(yj-oj)xi取代離散單個感知器的學習算法 中的權(quán)值調(diào)整方法,可以得到如下連續(xù)單個感知器的學習算法 : 連續(xù)單個感知器的學習算法連續(xù)單個感知器的學習算法 3.3 3.3 單層感知器的學習算法單層感知器的學習算法2.重復(fù)下列過程,直到訓練完成: 2.1對樣本集中的每一個樣本與實際樣本中所有都一樣,則2.1.1輸入WnZW ),(YXX),(WXFOjOjy初始化權(quán)向量(一般在一定范圍內(nèi)取);

21、,重復(fù)如下過程:2.1.2計算2.1.3如果計算得的退出;否則wij=wij+(yj-oj)xi說明:說明:y yj j與與o oj j之間的差別對之間的差別對wwij ij的影響由的影響由(y(yj j-o-oj j)x)xi i表現(xiàn)出來:表現(xiàn)出來:不僅使得算法的控制在結(jié)構(gòu)上更容易理解,而且還使得它的不僅使得算法的控制在結(jié)構(gòu)上更容易理解,而且還使得它的適應(yīng)面更寬適應(yīng)面更寬 。 連續(xù)單層感知器的學習算法連續(xù)單層感知器的學習算法 3.3 3.3 單層感知器的學習算法單層感知器的學習算法如果計算得的與實際樣本中所有都一樣,輸入iX),(WXFOjOiy2.重復(fù)下列過程,

22、直到訓練完成: 2.1對樣本集中的每一個樣本W(wǎng)nZW ),(YX初始化權(quán)向量(一般在一定范圍內(nèi)取);,重復(fù)如下過程:計算2.1.1對每一個神經(jīng)元i作以下操作則退出;否則wij=wij+(yj-oj)xi1.用適當?shù)男坞S機數(shù)初始化權(quán)矩陣用適當?shù)男坞S機數(shù)初始化權(quán)矩陣W;2.初置精度控制參數(shù)初置精度控制參數(shù),學習率學習率,精度控制變量精度控制變量d=+1;3. While d do 3.1 d=0; 3.2 for 每個樣本(每個樣本(X,Y)do3.2.1 輸入輸入X( X X =(x1,x2,xn)););3.2.2 求求O=F(XW););3.2.3 修改權(quán)矩陣修改權(quán)矩陣W:

23、for i=1 to n,j=1 to m dowij=wij+(yj-oj)xi;3.2.4 累積誤差累積誤差for j = 1 to m dod=d+(yj-oj)2 連續(xù)單層感知器的學習算法連續(xù)單層感知器的學習算法 3.3 3.3 單層感知器的學習算法單層感知器的學習算法1、程序?qū)崿F(xiàn):、d、i、j、n、m為簡單變量來表示,W為n行m列的二維數(shù)組。樣本集(X,Y)是二維數(shù)組。2、Minsky在1969年證明,有許多基本問題是感知器無法解決的。3 、很難從樣本數(shù)據(jù)集直接看出問題是否線性可分。4、未能證明,一個感知器究竟需要經(jīng)過多少步才能完成訓練。 連續(xù)單層感知器的學習算法連續(xù)單層感知器的學習

24、算法 3.3 3.3 單層感知器的學習算法單層感知器的學習算法3.4 3.4 單層感知器網(wǎng)絡(luò)的局限性單層感知器網(wǎng)絡(luò)的局限性3.4 3.4 單層感知器網(wǎng)絡(luò)的局限性單層感知器網(wǎng)絡(luò)的局限性 表表 2-3-3 uu12 y 0 0 0 0 1 1 1 0 1 1 1 0 圖圖 2-3-4異 或 問 題 2u 1u 變量變量函數(shù)及其值函數(shù)及其值xyf1f2f3f4f5f6f7f8f9f10f11f12f13f14f15f160000000000111111110100001111000011111000110011001100111101010101010101013.4 3.4 單層感知器網(wǎng)絡(luò)的局限性

25、單層感知器網(wǎng)絡(luò)的局限性3.4 3.4 單層感知器網(wǎng)絡(luò)的局限性單層感知器網(wǎng)絡(luò)的局限性R. O. Windner 1960年年 自變量個數(shù)自變量個數(shù)函數(shù)的個數(shù)函數(shù)的個數(shù)線性可分函數(shù)的個數(shù)線性可分函數(shù)的個數(shù)144216143256104465,536188254.3*10994,57261.8*10195,028,134u用多個單級網(wǎng)組合在一起,并用其中的一個去綜合其它單級網(wǎng)的結(jié)果,我們就可以構(gòu)成一個兩級網(wǎng)絡(luò),該網(wǎng)絡(luò)可以被用來在平面上劃分出一個封閉或者開放的凸域來u一個非凸域可以拆分成多個凸域。按照這一思路,三級網(wǎng)將會更一般一些,我們可以用它去識別出一些非凸域來。3.5 3.5 多層感知器的設(shè)計方法

26、多層感知器的設(shè)計方法當wij=1,=1,右圖可實現(xiàn)“與”運算,當wij=1,=n,右圖可實現(xiàn)“或”運算,1111110()10njijnjijijnjjijjw xyfx ww x3.5 3.5 多層感知器的設(shè)計方法多層感知器的設(shè)計方法 本章第三節(jié)中討論了單層的感知器網(wǎng)絡(luò),本章第四節(jié)中指出了單層感知神經(jīng)網(wǎng)絡(luò)的局限性,如果要實現(xiàn)非線性數(shù)據(jù)分類,有必要構(gòu)造多層感知器網(wǎng)絡(luò)。 表表 2-3-3 uu12 y 0 0 0 0 1 1 1 0 1 1 1 0 圖圖 2-3-4異 或 問 題 2u 1u 3.5 3.5 多層感知器的設(shè)計方法多層感知器的設(shè)計方法例100u1u2yW1=1,- 1;-1 11=

27、0.5;-0.5W2=1,12=1.5例3.1:假設(shè)某壓力設(shè)備的正常與不正常運行狀態(tài)是由設(shè)備內(nèi)部的壓力P和溫度T決定的。當P和T位于圖3.1的陰影部分(包括邊界)時設(shè)備運行正常,否則該設(shè)備不正常。問能否用感知器網(wǎng)絡(luò)來實現(xiàn)該設(shè)備運行狀態(tài)的識別(即運行正常與運行不正常的分類)。P(Mpa)T()450390 3.5 多層感知器的設(shè)計方法多層感知器的設(shè)計方法3.6 3.6 有關(guān)的幾個問題有關(guān)的幾個問題 M-P M-P模型在人工神經(jīng)網(wǎng)絡(luò)中的地位模型在人工神經(jīng)網(wǎng)絡(luò)中的地位 首先M-P模型是所有人工神經(jīng)元中第一個被建立起來的,它在多個方面都顯示出生物神經(jīng)元所具有的基本特性。 其次,目前其

28、它形式的人工神經(jīng)元已有很多,但大多數(shù)都是在M-P模型的基礎(chǔ)上經(jīng)過不同的修正,改進變換而發(fā)展起來。因此M-P人工神經(jīng)元是整個人工神經(jīng)網(wǎng)的基礎(chǔ)。1、神經(jīng)元的內(nèi)部改造:對不同的人工神經(jīng)元取不同的非線性函數(shù)F();對人工神經(jīng)元的輸入和輸出做不同的限制:離散的(某些離散點)和連續(xù)的(整個實數(shù)域)。2、人工神經(jīng)元之間的聯(lián)接形式上進行改造神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)上的改造。3、在人工神經(jīng)網(wǎng)絡(luò)權(quán)值和閾值取求的方法上改造算法的改進。4、其它形式的改造,譬如(1)與(2)結(jié)合起來改進;(2)與(3)結(jié)合起來改進等等。 3.6 3.6 有關(guān)的幾個問題有關(guān)的幾個問題對對M-PM-P人工神經(jīng)元進行改進的主要方式人工神經(jīng)元進行改進的

29、主要方式1、單神經(jīng)元(M-P模型、單感知器、單連續(xù)感知機);2、單層前向連接的神經(jīng)網(wǎng)絡(luò);3、多層前向連接的神經(jīng)網(wǎng)絡(luò)(BP、RBF);4、單層帶有反饋連接的神經(jīng)網(wǎng)絡(luò)(Hopfield網(wǎng));5、多層回歸(遞歸)神經(jīng)網(wǎng)絡(luò);6、局部連接的人工神經(jīng)網(wǎng)絡(luò)(細胞神經(jīng)網(wǎng)、小腦模型等)。 3.6 3.6 有關(guān)的幾個問題有關(guān)的幾個問題人工神經(jīng)網(wǎng)絡(luò)常見的連接形式有:方式人工神經(jīng)網(wǎng)絡(luò)常見的連接形式有:方式 MATLAB中單層感知器常用工具函數(shù)名稱和基本功能 函 數(shù) 名功 能newp()生成一個感知器hardlim()硬限幅激活函數(shù)learnp()感知器的學習函數(shù)train()神經(jīng)網(wǎng)絡(luò)訓練函數(shù)sim()神經(jīng)網(wǎng)絡(luò)仿真函數(shù)

30、mae()平均絕對誤差性能函數(shù)plotpv()在坐標圖上繪出樣本點plotpc()在已繪制的圖上加分類線3.7 3.7 單層感知器的單層感知器的MATLABMATLAB設(shè)計與實現(xiàn)設(shè)計與實現(xiàn)newp() 功能:創(chuàng)建一個感知器神經(jīng)網(wǎng)絡(luò)的函數(shù)功能:創(chuàng)建一個感知器神經(jīng)網(wǎng)絡(luò)的函數(shù) 格式:格式:net = newp(PR,S,TF,LF) 說明:說明:net為生成的感知機神經(jīng)網(wǎng)絡(luò);為生成的感知機神經(jīng)網(wǎng)絡(luò);PR為一個為一個R2的矩陣,由的矩陣,由R組輸入向量中的最大值和最小值組成;組輸入向量中的最大值和最小值組成;S表示神經(jīng)元的個數(shù);表示神經(jīng)元的個數(shù);TF表示感知器的激活函數(shù),缺省值為硬限幅激活函數(shù)表示感知

31、器的激活函數(shù),缺省值為硬限幅激活函數(shù)hardlim;LF表示網(wǎng)絡(luò)的學習函數(shù),缺省值為表示網(wǎng)絡(luò)的學習函數(shù),缺省值為learnp hardlim() 功能功能 硬限幅激活函數(shù)硬限幅激活函數(shù) 格式格式 A = hardlim(N) 說明說明 函數(shù)函數(shù)hardlim(N)在給定網(wǎng)絡(luò)的輸入矢量矩陣在給定網(wǎng)絡(luò)的輸入矢量矩陣N時,返回該時,返回該層的輸出矢量矩陣層的輸出矢量矩陣A。當。當N中的元素大于等于零時,返回的值中的元素大于等于零時,返回的值為為l;否則為;否則為0。也就是說,如果網(wǎng)絡(luò)的輸入達到閾值,則硬限。也就是說,如果網(wǎng)絡(luò)的輸入達到閾值,則硬限幅傳輸函數(shù)的輸出為幅傳輸函數(shù)的輸出為1;否則,為;否則

32、,為0。 learnp() 功能功能 感知機的權(quán)值和閾值學習函數(shù)感知機的權(quán)值和閾值學習函數(shù) 3.7 3.7 單層感知器的單層感知器的MATLABMATLAB設(shè)計與實現(xiàn)設(shè)計與實現(xiàn)3.7 3.7 單層感知器的單層感知器的MATLABMATLAB設(shè)計與實現(xiàn)設(shè)計與實現(xiàn)train() 功能功能 神經(jīng)網(wǎng)絡(luò)訓練函數(shù)神經(jīng)網(wǎng)絡(luò)訓練函數(shù) 格式格式 net,tr,Y,E,Pf,Af = train(NET,P,T,Pi,Ai,VV,TV) 說明說明 net為訓練后的網(wǎng)絡(luò);為訓練后的網(wǎng)絡(luò);tr為訓練記錄;為訓練記錄;Y為網(wǎng)絡(luò)輸出矢量;為網(wǎng)絡(luò)輸出矢量;E為誤差矢量;為誤差矢量;Pf為訓練終止時的輸入延遲狀態(tài);為訓練終止

33、時的輸入延遲狀態(tài);Af為訓練終止時為訓練終止時的層延遲狀態(tài);的層延遲狀態(tài);NET為訓練前的網(wǎng)絡(luò);為訓練前的網(wǎng)絡(luò);P為網(wǎng)絡(luò)的輸入向量矩陣;為網(wǎng)絡(luò)的輸入向量矩陣;T表示網(wǎng)絡(luò)的目標矩陣,缺省值為表示網(wǎng)絡(luò)的目標矩陣,缺省值為0;Pi表示初始輸入延時,缺省表示初始輸入延時,缺省值為值為0;Ai表示初始的層延時,缺省值為表示初始的層延時,缺省值為0; VV為驗證矢量(可為驗證矢量(可省略);省略);TV為測試矢量(可省略)。網(wǎng)絡(luò)訓練函數(shù)是一種通用為測試矢量(可省略)。網(wǎng)絡(luò)訓練函數(shù)是一種通用的學習函數(shù),訓練函數(shù)重復(fù)地把一組輸入向量應(yīng)用到一個網(wǎng)絡(luò)上,的學習函數(shù),訓練函數(shù)重復(fù)地把一組輸入向量應(yīng)用到一個網(wǎng)絡(luò)上,每

34、次都更新網(wǎng)絡(luò),直到達到了某種準則,停止準則可能是達到最每次都更新網(wǎng)絡(luò),直到達到了某種準則,停止準則可能是達到最大的學習步數(shù)、最小的誤差梯度或誤差目標等。大的學習步數(shù)、最小的誤差梯度或誤差目標等。3.7 3.7 單層感知器的單層感知器的MATLABMATLAB設(shè)計與實現(xiàn)設(shè)計與實現(xiàn)sim() 功能功能 對網(wǎng)絡(luò)進行仿真對網(wǎng)絡(luò)進行仿真 格式格式 (1) Y,Pf,Af,E,perf = sim(NET,P,Pi,Ai,T) (2) Y,Pf,Af,E,perf = sim(NET,Q TS,Pi,Ai,T) (3) Y,Pf,Af,E,perf = sim(NET,Q,Pi,Ai,T) 說明說明 Y為

35、網(wǎng)絡(luò)的輸出;為網(wǎng)絡(luò)的輸出;Pf表示最終的輸入延時狀態(tài);表示最終的輸入延時狀態(tài);Af表示最表示最終的層延時狀態(tài);終的層延時狀態(tài);E為實際輸出與目標矢量之間的誤差;為實際輸出與目標矢量之間的誤差;perf為為網(wǎng)絡(luò)的性能值;網(wǎng)絡(luò)的性能值;NET為要測試的網(wǎng)絡(luò)對象;為要測試的網(wǎng)絡(luò)對象;P為網(wǎng)絡(luò)的輸入向量為網(wǎng)絡(luò)的輸入向量矩陣;矩陣;Pi為初始的輸入延時狀態(tài)(可省略);為初始的輸入延時狀態(tài)(可省略);Ai為初始的層延為初始的層延時狀態(tài)(可省略);時狀態(tài)(可省略);T為目標矢量(可省略)。式為目標矢量(可省略)。式(1)、(2)用于用于沒有輸入的網(wǎng)絡(luò),其中沒有輸入的網(wǎng)絡(luò),其中Q為批處理數(shù)據(jù)的個數(shù),為批處理數(shù)

36、據(jù)的個數(shù),TS為網(wǎng)絡(luò)仿真為網(wǎng)絡(luò)仿真的時間步數(shù)。的時間步數(shù)。3.7 3.7 單層感知器的單層感知器的MATLABMATLAB設(shè)計與實現(xiàn)設(shè)計與實現(xiàn) mae() 功能功能 平均絕對誤差性能函數(shù)平均絕對誤差性能函數(shù) 格式格式 perf=mae(E,w,pp) 說明說明 perf表示平均絕對誤差和,表示平均絕對誤差和, E為誤差矩陣或向量為誤差矩陣或向量(網(wǎng)絡(luò)的目標向量與輸出向量之差網(wǎng)絡(luò)的目標向量與輸出向量之差), w為所有權(quán)值和偏為所有權(quán)值和偏值向量值向量(可忽略可忽略), pp為性能參數(shù)為性能參數(shù)(可忽略可忽略)。 plotpv() 功能功能 繪制樣本點的函數(shù)繪制樣本點的函數(shù) 格式格式 (1) pl

37、otpv(P,T) (2) plotpv(P,T,V) 說明說明 P定義了定義了n個個2或或3維的樣本,是一個維的樣本,是一個2n維或維或3n維的矩陣;維的矩陣;T表示各樣本點的類別,是一個表示各樣本點的類別,是一個n維的向量;維的向量;V=x_min x_max y_min y_max,為一設(shè)置繪圖坐標值范圍的向量。利用,為一設(shè)置繪圖坐標值范圍的向量。利用plotpv()函數(shù)可在坐標圖中繪出給定的樣本點及其類別,不同函數(shù)可在坐標圖中繪出給定的樣本點及其類別,不同的類別使用不同的符號。如果的類別使用不同的符號。如果T只含一元矢量,則目標為只含一元矢量,則目標為0的的輸入矢量在坐標圖中用符號輸入

38、矢量在坐標圖中用符號o表示:表示: 目標為目標為1的輸入矢量的輸入矢量在坐標圖中用符號在坐標圖中用符號+表示。如果表示。如果T含二元矢量,則輸入矢含二元矢量,則輸入矢量在坐標圖中所采用的符號分別如下:量在坐標圖中所采用的符號分別如下:0 0用用o表示;表示;0 1用用+表示:表示:1 0用用*表示;表示;1 1用表示。用表示。 3.7 3.7 單層感知器的單層感知器的MATLABMATLAB設(shè)計與實現(xiàn)設(shè)計與實現(xiàn)3.7 3.7 單層感知器的單層感知器的MATLABMATLAB設(shè)計與實現(xiàn)設(shè)計與實現(xiàn)使用使用MATLAB實現(xiàn)神經(jīng)網(wǎng)絡(luò)的步驟如下:實現(xiàn)神經(jīng)網(wǎng)絡(luò)的步驟如下: 第一步 根據(jù)應(yīng)用創(chuàng)建一個神經(jīng)網(wǎng)絡(luò)

39、; 第二步 設(shè)定神經(jīng)網(wǎng)絡(luò)的訓練參數(shù),利用給定樣本對創(chuàng)建的神經(jīng)網(wǎng)絡(luò)進行訓練; 第三步 輸入測試數(shù)據(jù),測試訓練好的神經(jīng)網(wǎng)絡(luò)的性能。clearclffigure(gcf)%setfsize(300,300);echo on%NEWP 建立一個感知器神經(jīng)元%INIT 對感知器神經(jīng)元初始化%TRAIN 訓練感知器神經(jīng)元%SIM 對感知器神經(jīng)元仿真pause % 敲任意鍵繼續(xù)clc% P為輸入矢量P = -0.5 -0.5 +0.3 +0.0; -0.5 +0.5 -0.5 +1.0;3.7 3.7 單層感知器的單層感知器的MATLABMATLAB設(shè)計與實現(xiàn)設(shè)計與實現(xiàn)Example 3.1% T為目標矢量

40、T = 1 1 0 0;pauseclc% 繪制輸入矢量圖plotpv(P,T);pauseclc3.7 3.7 單層感知器的單層感知器的MATLABMATLAB設(shè)計與實現(xiàn)設(shè)計與實現(xiàn)3.7 3.7 單層感知器的單層感知器的MATLABMATLAB設(shè)計與實現(xiàn)設(shè)計與實現(xiàn)% 定義感知器神經(jīng)元并對其初始化 net=newp(-0.5 0.5;-0.5 1,1);net.initFcn=initlay;net.layers1.initFcn=initwb;net.inputWeights1,1.initFcn=rands;net.layerWeights1,1.initFcn=rands;net.biases1.initFcn=rands;net=init(net);echo offk = pickic;%選擇訓練方式if k = 2 net.iw1,1 = -0.8161 0.3078; net.b1 = -0.1680;endecho onplotpc(net.iw1,1,net.b1)pause% 訓練感知器神經(jīng)元net=train(net,P,T);net.

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論