版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領
文檔簡介
適用的任務
分類:判定輸入數(shù)值屬于哪一類
模式識別:辨識數(shù)據(jù)中的結(jié)構(gòu)或模式
聯(lián)想記憶:基于內(nèi)容的記憶喚醒
預測:根據(jù)輸入值,通過推理給出結(jié)果
優(yōu)化:約束下的“最佳”狀態(tài)適用的任務1JohnVonNeuman(1903-1957)美籍匈牙利人數(shù)學家,對人工智能的貢獻:細胞自動機celluarautomata
神經(jīng)計算neurallyinspiredapproachestocomputationDonaldOldingHebb1904-1985,加拿大心理學家,對人工智能的貢獻:細胞集合Cellassembly赫布律HebbianRule
JohnVonNeuman(1903-1957)美籍21)神經(jīng)網(wǎng)絡基礎
人工神經(jīng)網(wǎng)絡
ArtificialNeuralNetworks,ANN,NN脊椎動物神經(jīng)元結(jié)構(gòu)樹突樹突突觸突觸胞體胞體軸突1)神經(jīng)網(wǎng)絡基礎
人工神經(jīng)網(wǎng)絡
Artificial3神經(jīng)細胞工作狀態(tài)毫秒神經(jīng)細胞工作狀態(tài)毫秒4
人工神經(jīng)元模型基本神經(jīng)元模型k1k2kp∑(.)x1x2xpuk輸出ykk激活函數(shù)輸入基本神經(jīng)元模型人工神經(jīng)元模型k1k2kp∑(.)x1x2xpu5組成三要素:連接、求和、激活函數(shù)數(shù)學表達式:激活函數(shù)的類型:閾值函數(shù):分段線性函數(shù):組成三要素:連接、求和、激活函數(shù)6激活函數(shù)Sigmoid函數(shù):連續(xù)可導激活函數(shù)Sigmoid函數(shù):連續(xù)可導7
有向圖表示神經(jīng)網(wǎng)絡x0=-1x1x2xpykw1w2wnw0輸入權重激活函數(shù)
有向圖表示神經(jīng)元
相關概念網(wǎng)絡拓撲:獨立神經(jīng)元之間的連接模式學習算法:網(wǎng)絡訓練方法編碼系統(tǒng):輸入數(shù)據(jù)和輸出結(jié)果的解釋有向圖表示神經(jīng)網(wǎng)絡x0=-1x1x2xpyk8MP模型(McCulloch-PittsNeuron)yAND真值表x1x2y-1-1-11-1-1-11-1111yAND=x1x2w0
=-
2x1x2w1
=
1w2
=1x0
=1MP模型(McCulloch-PittsNeuron)yA9yOR
真值表x1x2y-1-1-11-11-111111yOR=x1x2w0
=-
1x1x2w1
=
1w2
=1x0
=1yOR真值表yOR=x1x2w0=-1x1x2w110
2)網(wǎng)絡結(jié)構(gòu)
前饋網(wǎng)絡:各神經(jīng)元接受前一層的輸入,并輸出給下一層,沒有反饋輸入節(jié)點輸入層隱層輸出層
前饋網(wǎng)絡輸出節(jié)點
計算單元
輸入單元2)網(wǎng)絡結(jié)構(gòu)輸入節(jié)點輸入層隱層11
反饋網(wǎng)絡:所有節(jié)點都是計算單元,同時可接受輸入,并向外界輸出輸入節(jié)點輸出節(jié)點反饋網(wǎng)絡反饋網(wǎng)絡:所有節(jié)點都是計算單元,同時可接受輸入,并向外界123)ANN學習學習方式
有監(jiān)督學習
環(huán)境教師學習系統(tǒng)誤差信號∑-+環(huán)境狀態(tài)信號期望響應實際響應訓練樣本集:一組給定的已知輸入-輸出的數(shù)據(jù)集合3)ANN學習環(huán)境教師學習系統(tǒng)誤差信號∑-+環(huán)境狀態(tài)信號期望13無監(jiān)督學習(自組織學習)再勵學習(強化學習)環(huán)境學習系統(tǒng)環(huán)境狀態(tài)環(huán)境學習系統(tǒng)評價輸出作用狀態(tài)輸入無監(jiān)督學習(自組織學習)環(huán)境學習系統(tǒng)環(huán)境狀態(tài)環(huán)境學習系統(tǒng)評價142)學習算法
感知器學習
學習規(guī)則:w0
=-
1x1x2w1
=
1w2
=1x0
=1ye=0,wi=0e>0,wi>
0e<0,wi<
0學習過程:通過權重調(diào)節(jié),使得網(wǎng)絡輸出平均誤差最小化e=d-ye=d-ye=d-y2)學習算法w0=-1x1x2w1=1w2=1x015
感知器學習算法步驟設:p+1維輸入向量
p+1維權向量實際輸出:y(n)
期望輸出:d(n)
學習步長:η<1
①初始化:置w(0)為小的隨機數(shù)
②
輸入x(n),計算感知器的實際輸出感知器學習算法步驟16
③
按下式調(diào)節(jié)權系數(shù):
④
令n=n+1,返回第2步已證明感知器學習算法對于線性可分模式,在有限步內(nèi)收斂,所得權系數(shù)能對所有樣本正確分類例如圖所示的單層感知器學習已知:樣本單變量樣本4個,采用線性閾值單元:第一類:d=1,x1=1,x3=3
第二類:d=-1,x2=-0.5,x4=-2X1(n)x0=110Od0d=1d=-1③按下式調(diào)節(jié)權系數(shù):X1(n)x0=110Od0d17求:經(jīng)過學習后,4個樣本分類器的權系數(shù)值解:考慮閾值輸入變量:
利用感知器學習算法,選=1/2,得:
選初值
輸入x(1):ú?ùê?é=111x)(求:經(jīng)過學習后,4個樣本分類器的權系數(shù)值利用感知器學習算法,18輸入x(2):輸入x(2):19輸入x(3):輸入x(4):訓練結(jié)果:0d=1d=-1輸入x(3):輸入x(4):訓練結(jié)果:0d=1d=-120
廣義誤差學習規(guī)則GeneralizedDeltaRule:
sigmoid函數(shù)代替符號函數(shù)sgnsigmoid函數(shù):wiEwiwi
梯度下降學習要求函數(shù)連續(xù)可導廣義誤差學習規(guī)則GeneralizedDeltaRu21神經(jīng)網(wǎng)絡基礎課件22
反向傳播學習算法(BP)原理工作狀態(tài):工作信號、誤差信號
反向傳播網(wǎng)絡工作信號流反向傳播學習算法(BP)反向傳播網(wǎng)絡工作信號流23
多層網(wǎng)絡誤差糾正:令神經(jīng)元k的輸入輸出在n時刻的誤差為尋找基于誤差最小的目標函數(shù)優(yōu)化問題常用目標函數(shù):均方誤差判據(jù)學習過程寬平穩(wěn)瞬時誤差:
多層網(wǎng)絡24j單元誤差信號:設j單元平方誤差:y0=-1yk(n)ik(n)i(n)(·)yi(n)ji(n)j(n)(·)yj(n)-1dj(n)ej(n)反向傳播網(wǎng)絡單元j與下層單元i之間的信號流圖j單元誤差信號:y0=-1yk(n)ik(n)i(n)25輸出端總平方誤差:c包括所有輸出單元設訓練集樣本總數(shù)為N,平方誤差均值:目標函數(shù)EAVBP算法推導:對于節(jié)點j輸出端總平方誤差:26連接權重變化引起的均方誤差變化率,即:權值修正量:
局部梯度連接權重變化引起的均方誤差變化率,即:27①j為輸出單元:②
i為隱元:
j為輸出單元:yj(n)dj(n)ej(n)yi(n)yk(n)①j為輸出單元:yj(n)dj(n)ej(n)yi(n)y28兩種網(wǎng)絡訓練方式①每個樣本修改一次權值②所有樣本依次輸入后,計算平均誤差,根據(jù)平均誤差修改權值yj(n)dj(n)ej(n)yi(n)yk(n)j(n)ik(n)兩種網(wǎng)絡訓練方式y(tǒng)j(n)dj(n)ej(n)yi(n)yk29訓練周期:全部樣本輸入一次稱為一個訓練周期終止條件:網(wǎng)絡以周期為單位進行訓練,直到誤差函數(shù)達到最小或小于一個給定值步驟:①初始化,選定結(jié)構(gòu)合理的網(wǎng)絡,置所有可調(diào)參數(shù)(權、閾值)為均勻分布的較小數(shù)值②對每個輸入樣本作如下計算:前向計算
設:l
層的j單元
激活函數(shù)選sigmoid函數(shù)訓練周期:全部樣本輸入一次稱為一個訓練周期30神經(jīng)網(wǎng)絡基礎課件31如果j在l=0層:如果j在l=L層:②反向計算
輸出單元:隱元:③修正權值
n=n+1,輸入新的樣本(或新一周期樣本)直至EAV達到預定要求
訓練時各周期樣本要隨機重新排序如果j在l=0層:32XOR的一個簡單網(wǎng)絡解x1x2y3yx1x3-x2x1x2x3y000000101011110x0303132414342y040XOR的一個簡單網(wǎng)絡解x1x2y3yx1x3-x2x1331400訓練周期,結(jié)果:30=2.640=7.043=-11.031=-7.041=-5.032=-7.042=-4.0
x1x2x3y00f3(0-7.0+0-7.0+12.6)
f4(0-5.0+0-4.0+1-11.0+17.0)=00f3(1-7.0+0-7.0+12.6)f4(1-5.0+0-4.0+1-11.0+17.0)=101f3(0-7.0+1-7.0+12.6)f4(0-5.0+1-4.0+1-11.0+17.0)=
111f3(1-7.0+1-7.0+12.6)f4(1-5.0+1-4.0+0-11.0+17.0)=
01400訓練周期,結(jié)果:x1x2x334競爭學習贏者通吃Winner-Take-All
無監(jiān)督學習贏者:最大激活測試x1x1xjxmABNwinner競爭學習x1x1xjxmABNwinner35贏者通吃學習規(guī)則KohonenLearningRulex11.09.42.58.00.57.97.02.81.27.8x11.06.42.17.72.28.47.00.83.06.1O1-11-11-1-111-1K網(wǎng)學習KohonennetLearning
已知:數(shù)據(jù)表
求:K網(wǎng)無監(jiān)督分類贏者通吃學習規(guī)則KohonenLearningRule3611122122x1x2o1o2初始化:A:W=[11,12]=[7,2]
B:W=[21,22]=[2,9]K網(wǎng):自組織網(wǎng)絡無監(jiān)督學習
AB11122122x1x2o1o2初始化:A:W=[37||X(n)-W(n)||
W(n+1)=W(n)+(X(n)-W(n))
競爭學習規(guī)則
①與X接近的節(jié)點,W調(diào)整,使得更接近X
②其他節(jié)點,W不變
||(x1,x2)-(11,12)||||(1,1)-(7,2)||=(1-7)2+(1-2)2=37||(1,1)-(2,9)||=(1-2)2+(1-9)2=65Winner→AW(2)=W(1)+(X(1)-W(1))||X(n)-W(n)||
W(n+1)=W(n)38W(2)=W(1)+(X(1)-W(1))=(7,2)+0.5((1-7),(1-2))=(7,2)+(-3,-5)=(4,1.5)||(9.4,6.4)-(4,1.5)||=53.17||(9.4,6.4)-(2,9)||=60.15Winner→AW(3)=(4,1.5)+0.5((9.4-4),(6.4-1.5))=(6.7,4)||(2.5,2.1)-(6.7,4)||=21.25||(2.5,2.1)-(2,9)||=47.86Winner→AW(4)=(6.7,4)+0.5((2.5-6.7),(2.1-4))=(4.6,3.1)W(2)=W(1)+(X(1)-W(1))39OutstarNetworkOutstar學習:YXW-T-ALayerOLayerJI111000000000OutstarNetworkYXW-T-ALayerO40①
訓練K網(wǎng),找到Winnner,所有的Winner連接置1,其他神經(jīng)元連接置0②如果所有輸入為同一類,根據(jù)輸出期望直接連接Winner與相應輸出節(jié)點的連接值③如果輸入類不同,利用監(jiān)督矢量Y進行輸出層學習,調(diào)整outstar層連接權重,規(guī)則如下:
W(n+1)=W(n)+(Y-W(n))例:已知:數(shù)據(jù)如表,表中+1→安全;-1→危險
x1---推進系統(tǒng)的引擎速度,數(shù)據(jù)范圍[0,10]x2---推進系統(tǒng)的引擎溫度,數(shù)據(jù)范圍[0,10]
數(shù)據(jù)超范圍時,報警①訓練K網(wǎng),找到Winnner,所有的Winner連接置141[x1,x2,s,d]WinnerA:[x1,x2,1,0]WinnerB:[x1,x2,0,1]X1X2safedangerousSDABSADASBSB[x1,x2,s,d]X1X2safedangerousSD42初始化:WA=[SA,DA]=[0,0]
WA(n+1)=WA(n)+(Y-WA(n))Y=[1,0],=0.2
WA(1)=[0,0]+0.2([1,0]-[0,0])=[0.2,0]
WA(2)=[0.2,0]+0.2([1,0]-[0.2,0])=[0.36,0]
WA(3)=[0.36,0]+0.2([1,0]-[0.36,0])=[0.49,0]WA(4)=[0.49,0]+0.2([1,0]-[0.49,0])=[0.59,0]
WA(5)=[0.59,0]+0.2([1,0]-[0.59,0])=[0.67,0]
WA(n)→[1,0]初始化:WA=[SA,DA]=[0,0]43另一類競爭學習支持向量機SVMSupportVectorMachine支持向量:所學概念樣本最大可分的最小數(shù)據(jù)集合線性分類器假設前提:數(shù)據(jù)獨立同分布另一類競爭學習44赫布機遇學習
HebbianCoincidenceLearning赫布學習理論神經(jīng)生理學的觀察關鍵詞:細胞集合Cellassembly
由成百個突觸大規(guī)模連接的神經(jīng)元細胞組
細胞集合的產(chǎn)生:簡單而關鍵的特征重復輸入傳感器產(chǎn)生細胞集合,同時,細胞集合促進周圍細胞集合響應而形成另外的細胞集合細胞集合激活:關鍵特征再次輸入傳感器,這組細胞集合都有可能被激活,繼而,響應它們而形成的細胞集合也會激活
赫布機遇學習HebbianCoincidence45細胞集合之間的聯(lián)系:有正有負,并可以被改變,一個細胞集合的激活將會提高與它有正相關的細胞集合的活動,而減弱那些與它們有負相關的細胞集合的活動細胞集合反映形式:任何時刻,被激活的細胞集合決定了傳感器輸入信息的反應
細胞集合的反映時間:細胞組合容易受到“需要滿足”的影響(例如對饑餓、口渴的滿足等等)而增強它們之間的聯(lián)系細胞集合激活順序:當前激活的細胞集合會預先把與它相聯(lián)系的細胞集合作為后續(xù)者,使得它們激活后這些后續(xù)者很容易被激活
正聯(lián)系細胞對負聯(lián)系細胞對細胞集合之間的聯(lián)系:有正有負,并可以被改變,一個細胞集合的激46HebbianLearningOiOjOiOj++++---+---+HebbianLearningOiOjOiOj++++--47無監(jiān)督
HebbianLearning條件反射學習隨機選擇的刺激作為希望的條件反射巴浦洛夫Pavlov實驗模型訓練:每次鈴聲,給狗食物無條件刺激反射:鈴聲引起狗的食欲有條件反射構(gòu)建神經(jīng)網(wǎng)絡W(n+1)=W(n)+sgn(W(n)X(n))YX1X2X3X4X5X6wf(X)=sgn(WX)視覺聽覺無監(jiān)督HebbianLearningX1wf(X)=s48輸入模式:[1,-1,1,-1,1,-1]
無條件刺激
新刺激假定:網(wǎng)絡對無條件刺激響應為“正”權重向量:[1,-1,1]與輸入無條件刺激相同權重向量:[0,0,0]與輸入新刺激網(wǎng)絡初始權重:[1,-1,1,0,0,0]
訓練網(wǎng)絡:輸入模式訓練,希望網(wǎng)絡權重的學習對新刺激產(chǎn)生“正”響應
WX=[1,-1,1,0,0,0]
[1,-1,1,-1,1,-1]T
=1+1+1=3
sgn(3)=1輸入模式:[1,-1,1,-1,1,-1]49W(2)=[1,-1,1,0,0,0]+0.2[1,-1,1,-1,1,-1]=[1.2,-1.2,1.2,-0.2,0.2,-0.2]WX=[1.2,-1.2,1.2,-0.2,0.2,-0.2][1,-1,1,-1,1,-1]T=1.2+1.2+1.2+0.2+0.2+0.2=4.2sgn(4.2)=1W(3)=[1.2,-1.2,1.2,-0.2,0.2,-0.2]+0.2[1,-1,1,-1,1,-1]=[1.4,-1.4,1.4,-0.4,0.4,-0.4]再進行10次迭代后W(13)=[3.4,-3.4,3.4,-2.4,2.4,-2.4]W(2)=[1,-1,1,0,0,0]+0.2[1,-1,150測試網(wǎng)絡無條件刺激:[1,-1,1,1,1,-1]sgn(WX)=sgn([3.4,-3.4,3.4,-2.4,2.4,-2.4]
[1,-1,1,1,1,-1]T)=sgn(3.4+3.4+3.4-2.4+2.4+2.4)=sgn(12.6)=1無條件刺激:[1,-1,1,1,-1,-1]sgn(WX)=sgn([3.4,-3.4,3.4,-2.4,2.4,-2.4]
[1,-1,1,1,-1,-1]T)=sgn(3.4+3.4+3.4-2.4-2.4+2.4)=sgn(7.8)=1產(chǎn)生正響應產(chǎn)生正響應網(wǎng)絡對原始刺激的敏感增強了測試網(wǎng)絡產(chǎn)生正響應產(chǎn)生正響應網(wǎng)絡對原始刺激的敏感增強了51新刺激:[1,1,1,-1,1,-1]sgn(WX)=sgn([3.4,-3.4,3.4,-2.4,2.4,-2.4]
[1,1,1,-1,1,-1
]T)=sgn(3.4-3.4+3.4+2.4+2.4+2.4)=sgn(10.6)=1新刺激:[1,-1,-1,1,1,-1]新模式稍變新食物或鈴聲sgn(WX)=sgn([3.4,-3.4,3.4,-2.4,2.4,-2.4]
[1,-1,-1,1,1,-1
]T)=sgn(3.4+3.4-3.4-2.4+2.4+2.4)=sgn(5.8)=1新模式產(chǎn)生正響應!新模式稍變產(chǎn)生正響應!HebbianLearning產(chǎn)生了什么?新舊刺激不斷重復產(chǎn)生,使得網(wǎng)絡建立了在新刺激和舊響應之間的聯(lián)想新刺激:[1,1,1,-1,1,-1]新模式產(chǎn)生正響應!新52有監(jiān)督HebbianLearning構(gòu)建神經(jīng)網(wǎng)絡訓練網(wǎng)絡實現(xiàn)一組模式之間的聯(lián)想x1x2x3…xny1y2…ym有監(jiān)督HebbianLearningx153聯(lián)想模式序列:{<X1,Y1>,<X2,Y2>,…<Xi,Yi>,…,<Xt,Yt>}學習規(guī)則:ij=djxiX=[x1,x2,……,xn]Y=[d1,d2,……,dm]W=YX期望輸出聯(lián)想模式序列:期望輸出54線性吸引子linerassociator線性吸引子55聯(lián)想記憶和線性吸引子聯(lián)想模式對{<X1,Y1>,<X2,Y2>,……<Xt,Yt>}聯(lián)想記憶模式異聯(lián)想heteroassociative:如果隨機矢量X比任何其他樣例更靠近Xi,則聯(lián)想結(jié)果為Yi自聯(lián)想autoassociative:除Xi=Yi
之外,所有聯(lián)想與異聯(lián)想相同;每個模式Xi
與自身相關,用于部分缺失或劣化刺激模式下的全模式記憶插入聯(lián)想:當X不同于訓練樣例時,X=Xi+i,輸出矢量Y=Yi+f(Xi+i)聯(lián)想記憶和線性吸引子56x1x2x3…xny1y2…ymx1x2x3…57定義矢量距離:hangming空間Hn={X=(x1,x2,…,xn)},xi{+1,-1}||X,Y||=X與Y不相同元素個數(shù)例||(1,-1,-1,1),(1,1,-1,1)||H=1||(-1,-1,-1,1),(1,1,1,-1)||H=4
||(1,-1,1,-1),(1,-1,1,-1)||H=0Hangming矢量補:
(1,-1,1,-1),(-1,1,-1,1)互補Hangming矢量正交|:定義矢量距離:hangming空間58神經(jīng)網(wǎng)絡基礎課件59存儲2個聯(lián)想對:X1=[1,-1,-1,-1]Y1=[-1,1,1]X1=[-1,-1,-1,1]Y1=[1,-1,1]W=Y1X1+Y2X2+……+YnXn存儲2個聯(lián)想對:60網(wǎng)絡測試:X=[1,-1,-1,-1]y1=-4,sgn(-4)=-1y2=4,sgn(4)=+1y3=4,sgn(4)=+1Y=[-1,1,1]X=[1,-1,1,-1]y1=-4,sgn(-4)=-1y2=4,sgn(4)=+1y3=0,sgn(4)=+1Y=[-1,1,1]X存在干擾網(wǎng)絡測試:X存在干擾61線性吸引子問題及特點可能不存在真實狀態(tài)到正交矢量模式的映射存儲的模式數(shù)受矢量空間維數(shù)限制,當正交維數(shù)不夠時,會發(fā)生模式之間的串擾輸入模式完全匹配樣例時,線性吸引子聯(lián)想到Y(jié);當輸入有一定偏差時,線性吸引子聯(lián)想為Y附近的插值線性吸引子問題及特點62
適用的任務
分類:判定輸入數(shù)值屬于哪一類
模式識別:辨識數(shù)據(jù)中的結(jié)構(gòu)或模式
聯(lián)想記憶:基于內(nèi)容的記憶喚醒
預測:根據(jù)輸入值,通過推理給出結(jié)果
優(yōu)化:約束下的“最佳”狀態(tài)適用的任務63JohnVonNeuman(1903-1957)美籍匈牙利人數(shù)學家,對人工智能的貢獻:細胞自動機celluarautomata
神經(jīng)計算neurallyinspiredapproachestocomputationDonaldOldingHebb1904-1985,加拿大心理學家,對人工智能的貢獻:細胞集合Cellassembly赫布律HebbianRule
JohnVonNeuman(1903-1957)美籍641)神經(jīng)網(wǎng)絡基礎
人工神經(jīng)網(wǎng)絡
ArtificialNeuralNetworks,ANN,NN脊椎動物神經(jīng)元結(jié)構(gòu)樹突樹突突觸突觸胞體胞體軸突1)神經(jīng)網(wǎng)絡基礎
人工神經(jīng)網(wǎng)絡
Artificial65神經(jīng)細胞工作狀態(tài)毫秒神經(jīng)細胞工作狀態(tài)毫秒66
人工神經(jīng)元模型基本神經(jīng)元模型k1k2kp∑(.)x1x2xpuk輸出ykk激活函數(shù)輸入基本神經(jīng)元模型人工神經(jīng)元模型k1k2kp∑(.)x1x2xpu67組成三要素:連接、求和、激活函數(shù)數(shù)學表達式:激活函數(shù)的類型:閾值函數(shù):分段線性函數(shù):組成三要素:連接、求和、激活函數(shù)68激活函數(shù)Sigmoid函數(shù):連續(xù)可導激活函數(shù)Sigmoid函數(shù):連續(xù)可導69
有向圖表示神經(jīng)網(wǎng)絡x0=-1x1x2xpykw1w2wnw0輸入權重激活函數(shù)
有向圖表示神經(jīng)元
相關概念網(wǎng)絡拓撲:獨立神經(jīng)元之間的連接模式學習算法:網(wǎng)絡訓練方法編碼系統(tǒng):輸入數(shù)據(jù)和輸出結(jié)果的解釋有向圖表示神經(jīng)網(wǎng)絡x0=-1x1x2xpyk70MP模型(McCulloch-PittsNeuron)yAND真值表x1x2y-1-1-11-1-1-11-1111yAND=x1x2w0
=-
2x1x2w1
=
1w2
=1x0
=1MP模型(McCulloch-PittsNeuron)yA71yOR
真值表x1x2y-1-1-11-11-111111yOR=x1x2w0
=-
1x1x2w1
=
1w2
=1x0
=1yOR真值表yOR=x1x2w0=-1x1x2w172
2)網(wǎng)絡結(jié)構(gòu)
前饋網(wǎng)絡:各神經(jīng)元接受前一層的輸入,并輸出給下一層,沒有反饋輸入節(jié)點輸入層隱層輸出層
前饋網(wǎng)絡輸出節(jié)點
計算單元
輸入單元2)網(wǎng)絡結(jié)構(gòu)輸入節(jié)點輸入層隱層73
反饋網(wǎng)絡:所有節(jié)點都是計算單元,同時可接受輸入,并向外界輸出輸入節(jié)點輸出節(jié)點反饋網(wǎng)絡反饋網(wǎng)絡:所有節(jié)點都是計算單元,同時可接受輸入,并向外界743)ANN學習學習方式
有監(jiān)督學習
環(huán)境教師學習系統(tǒng)誤差信號∑-+環(huán)境狀態(tài)信號期望響應實際響應訓練樣本集:一組給定的已知輸入-輸出的數(shù)據(jù)集合3)ANN學習環(huán)境教師學習系統(tǒng)誤差信號∑-+環(huán)境狀態(tài)信號期望75無監(jiān)督學習(自組織學習)再勵學習(強化學習)環(huán)境學習系統(tǒng)環(huán)境狀態(tài)環(huán)境學習系統(tǒng)評價輸出作用狀態(tài)輸入無監(jiān)督學習(自組織學習)環(huán)境學習系統(tǒng)環(huán)境狀態(tài)環(huán)境學習系統(tǒng)評價762)學習算法
感知器學習
學習規(guī)則:w0
=-
1x1x2w1
=
1w2
=1x0
=1ye=0,wi=0e>0,wi>
0e<0,wi<
0學習過程:通過權重調(diào)節(jié),使得網(wǎng)絡輸出平均誤差最小化e=d-ye=d-ye=d-y2)學習算法w0=-1x1x2w1=1w2=1x077
感知器學習算法步驟設:p+1維輸入向量
p+1維權向量實際輸出:y(n)
期望輸出:d(n)
學習步長:η<1
①初始化:置w(0)為小的隨機數(shù)
②
輸入x(n),計算感知器的實際輸出感知器學習算法步驟78
③
按下式調(diào)節(jié)權系數(shù):
④
令n=n+1,返回第2步已證明感知器學習算法對于線性可分模式,在有限步內(nèi)收斂,所得權系數(shù)能對所有樣本正確分類例如圖所示的單層感知器學習已知:樣本單變量樣本4個,采用線性閾值單元:第一類:d=1,x1=1,x3=3
第二類:d=-1,x2=-0.5,x4=-2X1(n)x0=110Od0d=1d=-1③按下式調(diào)節(jié)權系數(shù):X1(n)x0=110Od0d79求:經(jīng)過學習后,4個樣本分類器的權系數(shù)值解:考慮閾值輸入變量:
利用感知器學習算法,選=1/2,得:
選初值
輸入x(1):ú?ùê?é=111x)(求:經(jīng)過學習后,4個樣本分類器的權系數(shù)值利用感知器學習算法,80輸入x(2):輸入x(2):81輸入x(3):輸入x(4):訓練結(jié)果:0d=1d=-1輸入x(3):輸入x(4):訓練結(jié)果:0d=1d=-182
廣義誤差學習規(guī)則GeneralizedDeltaRule:
sigmoid函數(shù)代替符號函數(shù)sgnsigmoid函數(shù):wiEwiwi
梯度下降學習要求函數(shù)連續(xù)可導廣義誤差學習規(guī)則GeneralizedDeltaRu83神經(jīng)網(wǎng)絡基礎課件84
反向傳播學習算法(BP)原理工作狀態(tài):工作信號、誤差信號
反向傳播網(wǎng)絡工作信號流反向傳播學習算法(BP)反向傳播網(wǎng)絡工作信號流85
多層網(wǎng)絡誤差糾正:令神經(jīng)元k的輸入輸出在n時刻的誤差為尋找基于誤差最小的目標函數(shù)優(yōu)化問題常用目標函數(shù):均方誤差判據(jù)學習過程寬平穩(wěn)瞬時誤差:
多層網(wǎng)絡86j單元誤差信號:設j單元平方誤差:y0=-1yk(n)ik(n)i(n)(·)yi(n)ji(n)j(n)(·)yj(n)-1dj(n)ej(n)反向傳播網(wǎng)絡單元j與下層單元i之間的信號流圖j單元誤差信號:y0=-1yk(n)ik(n)i(n)87輸出端總平方誤差:c包括所有輸出單元設訓練集樣本總數(shù)為N,平方誤差均值:目標函數(shù)EAVBP算法推導:對于節(jié)點j輸出端總平方誤差:88連接權重變化引起的均方誤差變化率,即:權值修正量:
局部梯度連接權重變化引起的均方誤差變化率,即:89①j為輸出單元:②
i為隱元:
j為輸出單元:yj(n)dj(n)ej(n)yi(n)yk(n)①j為輸出單元:yj(n)dj(n)ej(n)yi(n)y90兩種網(wǎng)絡訓練方式①每個樣本修改一次權值②所有樣本依次輸入后,計算平均誤差,根據(jù)平均誤差修改權值yj(n)dj(n)ej(n)yi(n)yk(n)j(n)ik(n)兩種網(wǎng)絡訓練方式y(tǒng)j(n)dj(n)ej(n)yi(n)yk91訓練周期:全部樣本輸入一次稱為一個訓練周期終止條件:網(wǎng)絡以周期為單位進行訓練,直到誤差函數(shù)達到最小或小于一個給定值步驟:①初始化,選定結(jié)構(gòu)合理的網(wǎng)絡,置所有可調(diào)參數(shù)(權、閾值)為均勻分布的較小數(shù)值②對每個輸入樣本作如下計算:前向計算
設:l
層的j單元
激活函數(shù)選sigmoid函數(shù)訓練周期:全部樣本輸入一次稱為一個訓練周期92神經(jīng)網(wǎng)絡基礎課件93如果j在l=0層:如果j在l=L層:②反向計算
輸出單元:隱元:③修正權值
n=n+1,輸入新的樣本(或新一周期樣本)直至EAV達到預定要求
訓練時各周期樣本要隨機重新排序如果j在l=0層:94XOR的一個簡單網(wǎng)絡解x1x2y3yx1x3-x2x1x2x3y000000101011110x0303132414342y040XOR的一個簡單網(wǎng)絡解x1x2y3yx1x3-x2x1951400訓練周期,結(jié)果:30=2.640=7.043=-11.031=-7.041=-5.032=-7.042=-4.0
x1x2x3y00f3(0-7.0+0-7.0+12.6)
f4(0-5.0+0-4.0+1-11.0+17.0)=00f3(1-7.0+0-7.0+12.6)f4(1-5.0+0-4.0+1-11.0+17.0)=101f3(0-7.0+1-7.0+12.6)f4(0-5.0+1-4.0+1-11.0+17.0)=
111f3(1-7.0+1-7.0+12.6)f4(1-5.0+1-4.0+0-11.0+17.0)=
01400訓練周期,結(jié)果:x1x2x396競爭學習贏者通吃Winner-Take-All
無監(jiān)督學習贏者:最大激活測試x1x1xjxmABNwinner競爭學習x1x1xjxmABNwinner97贏者通吃學習規(guī)則KohonenLearningRulex11.09.42.58.00.57.97.02.81.27.8x11.06.42.17.72.28.47.00.83.06.1O1-11-11-1-111-1K網(wǎng)學習KohonennetLearning
已知:數(shù)據(jù)表
求:K網(wǎng)無監(jiān)督分類贏者通吃學習規(guī)則KohonenLearningRule9811122122x1x2o1o2初始化:A:W=[11,12]=[7,2]
B:W=[21,22]=[2,9]K網(wǎng):自組織網(wǎng)絡無監(jiān)督學習
AB11122122x1x2o1o2初始化:A:W=[99||X(n)-W(n)||
W(n+1)=W(n)+(X(n)-W(n))
競爭學習規(guī)則
①與X接近的節(jié)點,W調(diào)整,使得更接近X
②其他節(jié)點,W不變
||(x1,x2)-(11,12)||||(1,1)-(7,2)||=(1-7)2+(1-2)2=37||(1,1)-(2,9)||=(1-2)2+(1-9)2=65Winner→AW(2)=W(1)+(X(1)-W(1))||X(n)-W(n)||
W(n+1)=W(n)100W(2)=W(1)+(X(1)-W(1))=(7,2)+0.5((1-7),(1-2))=(7,2)+(-3,-5)=(4,1.5)||(9.4,6.4)-(4,1.5)||=53.17||(9.4,6.4)-(2,9)||=60.15Winner→AW(3)=(4,1.5)+0.5((9.4-4),(6.4-1.5))=(6.7,4)||(2.5,2.1)-(6.7,4)||=21.25||(2.5,2.1)-(2,9)||=47.86Winner→AW(4)=(6.7,4)+0.5((2.5-6.7),(2.1-4))=(4.6,3.1)W(2)=W(1)+(X(1)-W(1))101OutstarNetworkOutstar學習:YXW-T-ALayerOLayerJI111000000000OutstarNetworkYXW-T-ALayerO102①
訓練K網(wǎng),找到Winnner,所有的Winner連接置1,其他神經(jīng)元連接置0②如果所有輸入為同一類,根據(jù)輸出期望直接連接Winner與相應輸出節(jié)點的連接值③如果輸入類不同,利用監(jiān)督矢量Y進行輸出層學習,調(diào)整outstar層連接權重,規(guī)則如下:
W(n+1)=W(n)+(Y-W(n))例:已知:數(shù)據(jù)如表,表中+1→安全;-1→危險
x1---推進系統(tǒng)的引擎速度,數(shù)據(jù)范圍[0,10]x2---推進系統(tǒng)的引擎溫度,數(shù)據(jù)范圍[0,10]
數(shù)據(jù)超范圍時,報警①訓練K網(wǎng),找到Winnner,所有的Winner連接置1103[x1,x2,s,d]WinnerA:[x1,x2,1,0]WinnerB:[x1,x2,0,1]X1X2safedangerousSDABSADASBSB[x1,x2,s,d]X1X2safedangerousSD104初始化:WA=[SA,DA]=[0,0]
WA(n+1)=WA(n)+(Y-WA(n))Y=[1,0],=0.2
WA(1)=[0,0]+0.2([1,0]-[0,0])=[0.2,0]
WA(2)=[0.2,0]+0.2([1,0]-[0.2,0])=[0.36,0]
WA(3)=[0.36,0]+0.2([1,0]-[0.36,0])=[0.49,0]WA(4)=[0.49,0]+0.2([1,0]-[0.49,0])=[0.59,0]
WA(5)=[0.59,0]+0.2([1,0]-[0.59,0])=[0.67,0]
WA(n)→[1,0]初始化:WA=[SA,DA]=[0,0]105另一類競爭學習支持向量機SVMSupportVectorMachine支持向量:所學概念樣本最大可分的最小數(shù)據(jù)集合線性分類器假設前提:數(shù)據(jù)獨立同分布另一類競爭學習106赫布機遇學習
HebbianCoincidenceLearning赫布學習理論神經(jīng)生理學的觀察關鍵詞:細胞集合Cellassembly
由成百個突觸大規(guī)模連接的神經(jīng)元細胞組
細胞集合的產(chǎn)生:簡單而關鍵的特征重復輸入傳感器產(chǎn)生細胞集合,同時,細胞集合促進周圍細胞集合響應而形成另外的細胞集合細胞集合激活:關鍵特征再次輸入傳感器,這組細胞集合都有可能被激活,繼而,響應它們而形成的細胞集合也會激活
赫布機遇學習HebbianCoincidence107細胞集合之間的聯(lián)系:有正有負,并可以被改變,一個細胞集合的激活將會提高與它有正相關的細胞集合的活動,而減弱那些與它們有負相關的細胞集合的活動細胞集合反映形式:任何時刻,被激活的細胞集合決定了傳感器輸入信息的反應
細胞集合的反映時間:細胞組合容易受到“需要滿足”的影響(例如對饑餓、口渴的滿足等等)而增強它們之間的聯(lián)系細胞集合激活順序:當前激活的細胞集合會預先把與它相聯(lián)系的細胞集合作為后續(xù)者,使得它們激活后這些后續(xù)者很容易被激活
正聯(lián)系細胞對負聯(lián)系細胞對細胞集合之間的聯(lián)系:有正有負,并可以被改變,一個細胞集合的激108HebbianLearningOiOjOiOj++++---+---+HebbianLearningOiOjOiOj++++--109無監(jiān)督
HebbianLearning條件反射學習隨機選擇的刺激作為希望的條件反射巴浦洛夫Pavlov實驗模型訓練:每次鈴聲,給狗食物無條件刺激反射:鈴聲引起狗的食欲有條件反射構(gòu)建神經(jīng)網(wǎng)絡W(n+1)=W(n)+sgn(W(n)X(n))YX1X2X3X4X5X6wf(X)=sgn(WX)視覺聽覺無監(jiān)督HebbianLearningX1wf(X)=s110輸入模式:[1,-1,1,-1,1,-1]
無條件刺激
新刺激假定:網(wǎng)絡對無條件刺激響應為“正”權重向量:[1,-1,1]與輸入無條件刺激相同權重向量:[0,0,0]與輸入新刺激網(wǎng)絡初始權重:[1,-1,1,0,0,0]
訓練網(wǎng)絡:輸入模式訓練,希望網(wǎng)絡權重的學習對新刺激產(chǎn)生“正”響應
WX=[1,-1,1,0,0,0]
[1,-1,1,-1,1,-1]T
=1+1+1=3
sgn(3)=1輸入模式:[1,-1,1,-1,1,-1]111W(2)=[1,-1,1,0,0,0]+0.2[1,-1,1,-1,1,-1]=[1.2,-1.2,1.2,-0.2,0.2,-0.2]WX=[1.2,-1.2,1.2,-0.2,0.2,-0.2][1,-1,1,-1,1,-1]T=1.2+1.2+1.2+0.2+0.2+0.2=4.2sgn(4.2)=1W(3)=[1.2,-1.2,1.2,-0.2,0.2,-0.2]+0.2[1,-1,1,-1,1,-1]=[1.4,-1.4,1.4,-0.4,0.4,-0.4]再進行10次迭代后W(13)=[3.4,-3.4,3.4,-2.4,2.4,-2.4]W(2)=[1,-1,1,0,0,0]+0.2[1,-1,1112測試網(wǎng)絡無條件刺激:[1,-1,1,1,1,-1]sgn(WX)=sgn([3.4,-3.4,3.4,-2.4,2.4,-2.4]
[1,-1,1,1,1,-1]T)=sgn(3.4+3.4+3.4-2.4+2.4+2.4)=sgn(12.6)=1無條件刺激:[1,-1,1,1,-1,-1]sgn(WX)=sgn([3.4,-3.4,3.4,-2.4,2.4,-2.4]
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024年度房產(chǎn)銷售專屬代理協(xié)議
- 文書模板-《產(chǎn)業(yè)園咨詢服務合同》
- 定制化技術服務方案協(xié)議2024
- 2024年杭州勞務派遣服務協(xié)議樣本
- 城市中心廣場租賃協(xié)議(定制)
- 2024年銷售協(xié)議化范本
- 2024年杭州租房協(xié)議細則樣本
- 內(nèi)蒙古自治區(qū)赤峰市多校2025屆高三年級上學期第一次統(tǒng)一考試語文試題(解析版)
- 2024年限定化妝品銷售代理協(xié)議
- 2024商業(yè)貨物承運協(xié)議條款解析
- 《護理文書書寫》課件
- 2024年小轎車買賣合同標準版本(三篇)
- 動火作業(yè)施工方案5篇
- 河南省鄭州市第四中學教育集團2024-2025學年七年級上學期期中地理試題
- 八年級生物中考備考計劃
- 2024-2030年全球及中國濕巾和衛(wèi)生紙行業(yè)市場現(xiàn)狀供需分析及市場深度研究發(fā)展前景及規(guī)劃可行性分析研究報告
- 2024高考物理一輪復習 第13講 牛頓第二定律的基本應用(課件)
- 公務員2019年國考《申論》真題及答案(省級)
- 2024年會計專業(yè)考試初級會計實務試卷與參考答案
- 職業(yè)技術學院材料工程技術專業(yè)調(diào)研報告
- 浙江省金華市蘭溪市2023-2024學年五年級上學期期中數(shù)學試卷
評論
0/150
提交評論