![前向多層人工神經(jīng)網(wǎng)絡(luò)_第1頁](http://file4.renrendoc.com/view/b447e4e4e74cdd7ad19bcbbed2db6898/b447e4e4e74cdd7ad19bcbbed2db68981.gif)
![前向多層人工神經(jīng)網(wǎng)絡(luò)_第2頁](http://file4.renrendoc.com/view/b447e4e4e74cdd7ad19bcbbed2db6898/b447e4e4e74cdd7ad19bcbbed2db68982.gif)
![前向多層人工神經(jīng)網(wǎng)絡(luò)_第3頁](http://file4.renrendoc.com/view/b447e4e4e74cdd7ad19bcbbed2db6898/b447e4e4e74cdd7ad19bcbbed2db68983.gif)
![前向多層人工神經(jīng)網(wǎng)絡(luò)_第4頁](http://file4.renrendoc.com/view/b447e4e4e74cdd7ad19bcbbed2db6898/b447e4e4e74cdd7ad19bcbbed2db68984.gif)
![前向多層人工神經(jīng)網(wǎng)絡(luò)_第5頁](http://file4.renrendoc.com/view/b447e4e4e74cdd7ad19bcbbed2db6898/b447e4e4e74cdd7ad19bcbbed2db68985.gif)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
前向多層人工神經(jīng)網(wǎng)絡(luò)第1頁/共30頁2023/3/8第2頁ANN的主要功能之二——聯(lián)想
(AssociativeMemory)聯(lián)想的心理學(xué)定義:當(dāng)一個(gè)事物的表象被激活時(shí),也就是說該表象所包含的若干屬性單元同時(shí)有效時(shí),我們的注意力焦點(diǎn)就集中在這個(gè)表象上,如果對該表象的處理使得表象被否決時(shí),也就是說由于一些屬性單元的失效(或被抑制,或處于高阻)導(dǎo)致該表象無法成立的時(shí)候,剩余的屬性單元或許可以構(gòu)成另一種事物的表象,或許還需要結(jié)合那些被激活了的新的屬性(或是由外界事物具有的新的屬性所激活,或是因降低了對一些屬性的抑制所導(dǎo)致的激活)。
例如:看到檸檬,感覺到嘴里口水增多。因?yàn)?,由檸檬?lián)想到了酸味。
字符識別:第2頁/共30頁2023/3/8第3頁再論模式識別:對表征事物或現(xiàn)象的各種形式的(數(shù)值的、文字的或邏輯的)信息進(jìn)行處理和分析,以對事物或現(xiàn)象進(jìn)行描述、辨認(rèn)、分類和解釋的過程稱為“模式識別”,是信息科學(xué)和人工智能的重要組成部分。
人在分辨不同類別的事物時(shí),抽取了同類事物之間的相同點(diǎn)以及不同類事物之間的不同點(diǎn);字符識別:例如漢字“中”可以有各種寫法,但都屬于同一類別。更為重要的是,即使對于某個(gè)“中”的具體寫法從未見過,也能把它分到“中”這一類別。識別目標(biāo):人們走向一個(gè)目的地的時(shí)候,總是在不斷的觀察周圍的景物,判斷所選擇的路線是否正確。實(shí)際上,是對眼睛看到的圖象做“正確”和“不正確”的分類判斷。人腦的這種思維能力就構(gòu)成了“模式”的概念和“模式識別”的過程。
模式是和類別(集合)的概念分不開的,只要認(rèn)識這個(gè)集合的有限數(shù)量的事物或現(xiàn)象,就可以識別這個(gè)集合中的任意多的事物或現(xiàn)象。為了強(qiáng)調(diào)能從具體的事物或現(xiàn)象中推斷出總體,我們就把個(gè)別的事物或現(xiàn)象稱作“模式”,而把總體稱作類別或范疇。特征矢量:最簡單的情況是用一組稱為“特征參數(shù)”的數(shù)值信息表示一個(gè)客觀對象。例如,水果品質(zhì)分類中用到的大小、重量、比重、果型、顏色,其取值均為數(shù)值。表示成特征矢量形式:Xi=[xi1,xi2,xi3,xi4,xi5];樣本:對一個(gè)具體對象進(jìn)行觀測得到的一個(gè)特征矢量稱為一個(gè)“樣本”,Xi稱為第i個(gè)樣本,或者第i個(gè)樣本的特征矢量。特征空間:即特征矢量張成的空間,每個(gè)樣本對應(yīng)于特征空間上的一點(diǎn)。針對一個(gè)具體的模式識別問題,選定特征參數(shù)非常重要,關(guān)乎模式識別的成敗。著名大師傅京孫教授曾說過模式識別問題的關(guān)鍵是特征提取。特征參數(shù)應(yīng)能區(qū)分所定義的模式,同時(shí)有沒有過多的重復(fù),即:完備而不冗余。選定特征參數(shù)的過程稱為“特征提取”。特征提取沒有統(tǒng)一的方法,事實(shí)上,特征提取是一個(gè)不同專業(yè)領(lǐng)域范疇內(nèi)的問題。正因?yàn)槿绱?,模式識別應(yīng)用問題往往是跨專業(yè)領(lǐng)域的工程。第3頁/共30頁2023/3/8第4頁模式類:特征參數(shù)選擇合理時(shí),不同類的模式,在特征空間中占據(jù)不同的分布區(qū)域;模式識別所要做的事情,包含兩個(gè)方面:在不同類別樣本點(diǎn)集之間,尋找合理的分界面,或稱作“判別函數(shù)(DecisionFunction)”——因?yàn)榕袆e函數(shù)來自于實(shí)際觀測數(shù)據(jù),因此稱此階段為“學(xué)習(xí)”或“訓(xùn)練”;給定未知模式,判斷該樣本所屬類別,稱為“工作”或“應(yīng)用”。特征選擇的好壞是模式識別成敗的關(guān)鍵,但如何選擇“特征”,即,選擇什么物理量作為特征,是具體專業(yè)“領(lǐng)域”的問題,需要運(yùn)用“領(lǐng)域”的專業(yè)知識來解決。例如,語音識別,如何從自然語音中提取“特征”,是語音識別的專業(yè)問題;圖象識別,如何從CCD圖象獲取適當(dāng)?shù)奶卣?,是圖象處理領(lǐng)域的問題,即使在圖象處理領(lǐng)域,不同應(yīng)用目的所取的特征也不同。
模式識別的全過程,應(yīng)該包括特征提取階段。但是,我們這里將要講到的有關(guān)智能方法,都只涉及到特征提取之后的工作。以上所說的“學(xué)習(xí)”或“訓(xùn)練”,是根據(jù)若干已知樣本在空間找到合適的分類面。對于一個(gè)樣本Xi,用yi表示它所屬的類別,例如,它屬于第k類。樣本已知,意思是{Xi
,
yi}已知。這種“學(xué)習(xí)”又稱為“有監(jiān)督”學(xué)習(xí),即,通過對已知樣本{Xi
,yi}的學(xué)習(xí)找到合理的判別函數(shù)。所謂“工作”,指的是給定類別未知的樣本Xi
,求yi的值。Xi是對某個(gè)客觀對象觀測的結(jié)果,其取值無法事先限定。但類別yi的取值是離散的、有限的,是事先主觀規(guī)定的。第4頁/共30頁2023/3/8第5頁神經(jīng)元模型
神經(jīng)元的輸入:
所完成的運(yùn)算為:式中:稱為神經(jīng)元的“權(quán)值矢量”;稱為神經(jīng)元的“功能函數(shù)”;稱為神經(jīng)元的“凈輸入”;稱為神經(jīng)元的“輸出”;稱為神經(jīng)元的“閾值”;第5頁/共30頁2023/3/8第6頁常用的神經(jīng)元功能函數(shù)類型
線性函數(shù)
又稱為“恒同函數(shù)”
硬限幅函數(shù)
S函數(shù)(Sigmoid)
fs
取值于[0,1]之間。第6頁/共30頁2023/3/8第7頁前項(xiàng)人工神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)
前層的輸出作為后層的輸入;
各層的神經(jīng)元個(gè)數(shù)可以不同;
至少一層,一般最多為3層;
輸入矢量X代表從客觀對象觀測得到的特征;輸出層包含一個(gè)或多個(gè)神經(jīng)元,用于表達(dá)更為復(fù)雜的運(yùn)算結(jié)果;
同層神經(jīng)元不能連接,后層不能向前層反向連接;
連接強(qiáng)度(即,權(quán)值大?。┛梢詾?,強(qiáng)度為0實(shí)際上就是沒有連接;第7頁/共30頁2023/3/8第8頁§2.2采用硬限幅函數(shù)時(shí)單個(gè)神經(jīng)元的分類功能
線性可分性(Linear
Separable
)設(shè)有C0和C1兩類模式R0:C0類模式的樣本集;R1:C1類模式的樣本集;學(xué)習(xí)(訓(xùn)練):在給定的兩類學(xué)習(xí)樣本分布區(qū)域之間尋找一個(gè)分類函數(shù)(分類線、面)使得兩類樣本各處在一邊;實(shí)現(xiàn)這一目標(biāo)的過程,稱為“學(xué)習(xí)”或“訓(xùn)練”,所用到的計(jì)算策略稱為“學(xué)習(xí)算法”;樣本集合R0和R1稱為學(xué)習(xí)樣本集合。工作:當(dāng)獲得了分類函數(shù)l以后,就可以進(jìn)入工作階段了。任給未知模式X,若它位于R0一側(cè),則判定其為C0類;若它位于R1一側(cè),則判定其為C1類;若它落在分類線l
上,則不可識別。
給定兩類C0和C1的學(xué)習(xí)樣本集合R0和R1,若存在線性分類函數(shù)(直線、平面、超平面)l,將兩類學(xué)習(xí)樣本無誤差地分開,則稱該分類問題為“線性可分問題”。第8頁/共30頁2023/3/8第9頁假設(shè),二維分類問題的分類函數(shù)為l:任給樣本X=[x1,x2],l應(yīng)該滿足:令:則模式識別問題可以表達(dá)成:把
看作權(quán)值,看作閾值,用一個(gè)神經(jīng)元來表示以上二維分類問題,則:任意輸入一個(gè)模式X,若X屬于C0則y=1;若X屬于C1則y=0;其中:X=
[x1,x2]是任意樣本,W=[w0,w1]是權(quán)值矢量。
WT.X–q=w0.x0+w1.x1–q=0
是直線的矢量方程,若W為單位矢量,即:w02+w12
=1則q的意義如圖所示。為了便于表達(dá),這里用矢量方程表示線性分類線或分類面。第9頁/共30頁2023/3/8第10頁學(xué)習(xí)算法
將輸入矢量X
和權(quán)矢量W
作如下擴(kuò)張:
神經(jīng)元模型成為:(2-7)
學(xué)習(xí)的目的,就是要找到權(quán)矢量W。對于前面的例子,就是尋找能夠無誤差分開兩類樣本的直線參數(shù)[w0,w1,q],注意:其中包含了直線方程的所有參數(shù)。學(xué)習(xí)是針對給定的學(xué)習(xí)樣本集合進(jìn)行的,不同的學(xué)習(xí)樣本集合可以得到不同的學(xué)習(xí)結(jié)果。即使用同一學(xué)習(xí)樣本集合進(jìn)行學(xué)習(xí),多次學(xué)習(xí)的結(jié)果也可能不同,也就是說分類問題的解不唯一。第10頁/共30頁2023/3/8第11頁設(shè)二維分類問題,有學(xué)習(xí)樣本:其中:
訓(xùn)練樣本k;該樣本的類別值;起初,我們隨意指定一個(gè)權(quán)矢量:這相當(dāng)于在特征空間上隨意畫了一條線。向神經(jīng)元輸入一個(gè)樣本X(k),用y(k)表示得到的輸出,顯然y(k)不一定等于X(k)的實(shí)際類別值d(k),令:
fh
為硬限幅函數(shù),則e
的取值有三種可能:(2-29)第11頁/共30頁2023/3/8第12頁學(xué)習(xí)算法:為了找到正確的W,依次向神經(jīng)元輸入學(xué)習(xí)樣本X(k),k=0,1,2,…,并且依照誤差e
(k)的正負(fù)來修正W
:式中a
稱為“步幅”,用來控制每次調(diào)整的步長。如此不斷重復(fù),W(k)隨著迭代次數(shù)k的增加,逐漸趨于正確答案。(2-7)
若輸出y(k)
與樣本類別值d(k)
相同,即,則:W(k+1)=W(k),不調(diào)整W。
若輸出y(k)
與樣本類別值d
(k)
不同,即,則:W根據(jù)e
(k)
的正負(fù)被調(diào)整;第12頁/共30頁2023/3/8第13頁算法的幾何原理:為直觀起見,設(shè):理想分類線過原點(diǎn),即:,閾值q為0。訓(xùn)練樣本:權(quán)值矢量:由直線方程可知,W(k)是直線l
的法線。分類函數(shù)為直線l:
若,X
恰好位于
l
上,則:
若,Xa位于l
上方,則:
若,Xb位于l下方,則:第13頁/共30頁2023/3/8第14頁假設(shè)已經(jīng)輸入了k
個(gè)樣本,運(yùn)行到了第
k
步,當(dāng)前的權(quán)值W(k)。假設(shè)輸入X(k)
得到y(tǒng)(k)=1,但給定的
X(k)
屬于C1類,即,d(k)=0,則:于是,有:可見,分類線
l得到了合理的調(diào)整。再假設(shè),接下來輸入的X(k+1)屬于
C0類,即d(k)=1,被錯(cuò)分為C1類,即,由X(k+1)和W(k+1)
計(jì)算得到y(tǒng)(k+1)=0
:于是,有:錯(cuò)把C1
當(dāng)C0;實(shí)驗(yàn):CH2e1hard,兩類可分、硬限幅函數(shù);第14頁/共30頁2023/3/8第15頁§2.3線性函數(shù)神經(jīng)元的最小二乘分類算法
線性不可分給定樣本集,尋找一個(gè)分類函數(shù),使得分類誤差最小—
最優(yōu)分類函數(shù)其中
優(yōu)化問題的一般形式:第15頁/共30頁2023/3/8第16頁
xkyk
-0.43250.2552-1.665
-0.21190.1253-1.8050.2876-1.539
-1.146
-0.5313
……設(shè)有:,解無約束優(yōu)化問題:聯(lián)立解出a
和b:優(yōu)化問題實(shí)例——線性回歸其中:將任意樣本代入直線方程,則:——圖中黃線;樣本的實(shí)測值;樣本的估計(jì)值;即:尋找一條使誤差均方和最小的直線;第16頁/共30頁2023/3/8第17頁采用線性函數(shù)的神經(jīng)元,即:輸入樣本矢量:權(quán)值矢量:神經(jīng)元完成的運(yùn)算為:判別規(guī)則:注意到,理想值為:
對于權(quán)矢量W的某個(gè)具體取值,其誤差定義為:學(xué)習(xí)的目的是,針對所有學(xué)習(xí)樣本,尋找c
最小的W
取值,它即為誤差最小的分類函數(shù)。(2-10)xNwN第17頁/共30頁2023/3/8第18頁設(shè)學(xué)習(xí)樣本集{(X0,d0),(X1,d1),…,(XK-1,dK-1),則
c
的估計(jì)為:以c最小為目標(biāo)函數(shù)的優(yōu)化過程統(tǒng)稱為“最小二乘法(LeastMeanSquare)
”。顯然,樣本的分布給定后
c
是權(quán)矢量
W
的函數(shù),即:
c
=c
(W);
首先需要證明,存在W*
使得cmin=c(W*)成立。由于是線性函數(shù),所以,神經(jīng)元的輸出可以寫成:(2-11)代入(2-10)得到:(2-12)其中是第k個(gè)樣本的分類誤差。樣本Xk
的理想值,事先已知;樣本Xk
輸入神經(jīng)元的計(jì)算結(jié)果,與理想dk有差異;第18頁/共30頁2023/3/8第19頁用下列符號代表式中一些參量:
為了簡化,我們考慮二維并且閾值q=0的情況,有:(2-13)(2-14)顯然,R是隨機(jī)矢量X的相關(guān)矩陣,它是一個(gè)對稱矩陣,且正定。將以上符號代入(2-12),得到:(2-15)第19頁/共30頁2023/3/8第20頁
顯然,若存在W*
使得
cmin=c
(W*)
成立,則在W*點(diǎn)上c關(guān)于W的所有元素w0,w1,…(二維情況下只有w0和w1)的偏導(dǎo)都為0,或者,說c關(guān)于矢量W的梯度在W*點(diǎn)為零矢量。即,對(2-15)求梯度得到:(2-16)或用多元函數(shù)微分表示梯度,重寫誤差公式:第20頁/共30頁2023/3/8第21頁令:注意到,R
是正定的,它的逆存在,于是,得到:(2-17)代回(2.15)式可以得到最小誤差平方和:
(2-18)命題得證,并且找到了最佳的W:解(2-17)式即可得到W*。但我們需要找到求解W*的迭代算法。第21頁/共30頁2023/3/8第22頁LMS學(xué)習(xí)問題的最陡梯度算法
m
表示迭代學(xué)習(xí)過程的序號;k
=0,1,2,……表示樣本序號,Xk(m)表示第m輪迭代時(shí)的第k個(gè)輸入的學(xué)習(xí)樣本,即,第m步的第k個(gè)樣本。
定義誤差平方和為:(2-38)當(dāng)兩類樣本的分布不變時(shí)(統(tǒng)計(jì)意義上),J(m)是W的函數(shù)。LMS學(xué)習(xí)的最陡梯度法就是以J(m)為目標(biāo)函數(shù),尋找使得J(m)最小的權(quán)值矢量W。
W(m)表示迭代學(xué)習(xí)第m步時(shí)的權(quán)值矢量,dk(m)
為輸入學(xué)習(xí)樣本Xk(m)的已知類別值(取+1或–1
)、yk(m)為當(dāng)前神經(jīng)元的輸出(+1>
yk
>–1
)。
Xk(m)
的誤差為:
ek(m)=dk(m)-yk(m)第22頁/共30頁2023/3/8第23頁
函數(shù)J(W)的圖象稱為“誤差響應(yīng)面”。當(dāng)W=[w1,w2]為二維時(shí),J(W)
為一曲面。
尋優(yōu)的策略:從某個(gè)隨意選定的起始點(diǎn)W(0)開始,沿著梯度最大的反方向,一步一步前行,走到梯度為0的點(diǎn)的時(shí)候,得到的W
就是W*;用表示第m
步時(shí)的梯度,學(xué)習(xí)算法為:第23頁/共30頁2023/3/8第24頁梯度算法的正確性,以二維問題為例:(2-39)(2-40)為了逐步走向W
的最小點(diǎn),選擇其增量為:
,即:或者:(2-41)當(dāng)很小時(shí),誤差平方和的增量可以用其全微分來近似:回憶:二元函數(shù)全微分第24頁/共30頁2023/3/8第25頁寫成DW
的分量形式,就是:(2-42)取
a>0,將此結(jié)果代入到全微分(2-40)式中,得到:此結(jié)果說明,按照學(xué)習(xí)算法:
迭代求最佳
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年葫蘆島貨運(yùn)從業(yè)資格證模擬考試題下載
- 長安大學(xué)《Spak大數(shù)據(jù)技術(shù)與應(yīng)用》2023-2024學(xué)年第二學(xué)期期末試卷
- 2025年A特種設(shè)備相關(guān)管理(A5起重機(jī)械)考試試題題庫
- 中級工商管理-中級經(jīng)濟(jì)師考試《工商管理實(shí)務(wù)》模考試卷2
- 2025至2030年中國消渴丸數(shù)據(jù)監(jiān)測研究報(bào)告
- 2025至2030年中國旋轉(zhuǎn)式真空傳輸器數(shù)據(jù)監(jiān)測研究報(bào)告
- 2025至2030年中國ABS法蘭數(shù)據(jù)監(jiān)測研究報(bào)告
- 2025年中國UV鐳射油墨市場調(diào)查研究報(bào)告
- 江西省撫州市2020-2021學(xué)年高一下學(xué)期期末生物試題
- 2025至2030年中國真空紅燒黃魚數(shù)據(jù)監(jiān)測研究報(bào)告
- 新員工入職通識考試(中軟國際)
- 四星級酒店工程樣板房裝修施工匯報(bào)
- 圓翳內(nèi)障病(老年性白內(nèi)障)中醫(yī)診療方案
- 博士后進(jìn)站申請書博士后進(jìn)站申請書八篇
- 華為攜手深圳國際會展中心創(chuàng)建世界一流展館
- 2023版思想道德與法治專題2 領(lǐng)悟人生真諦 把握人生方向 第3講 創(chuàng)造有意義的人生
- 全過程工程咨詢服務(wù)技術(shù)方案
- GB/T 41509-2022綠色制造干式切削工藝性能評價(jià)規(guī)范
- 土木工程畢業(yè)設(shè)計(jì)(論文)-五層宿舍樓建筑結(jié)構(gòu)設(shè)計(jì)
- 青年卒中 幻燈
- 典型倒閘操作票
評論
0/150
提交評論