神經網絡和模糊系統(tǒng).ppt_第1頁
神經網絡和模糊系統(tǒng).ppt_第2頁
神經網絡和模糊系統(tǒng).ppt_第3頁
神經網絡和模糊系統(tǒng).ppt_第4頁
神經網絡和模糊系統(tǒng).ppt_第5頁
已閱讀5頁,還剩40頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

神經網絡和模糊系統(tǒng),第五章 突觸動力學:有監(jiān)督的學習 張文革 2006.11,突觸動力學:有監(jiān)督的學習,本章內容: 一、預備知識 二、有監(jiān)督的函數估計 三、監(jiān)督學習就是有效的訓練 四、已知類隸屬度的監(jiān)督學習 五、感知器、MLS和BP算法,一、預備知識(1),1、生物神經元模型 神經元是腦組織的基本單元,人腦是由大約140多億個神經元組成的巨系統(tǒng)。神經元的結構如下圖所示:,一、預備知識(2),2、神經元的突觸: 突觸是兩個細胞之間連接的基本單元,每個細胞約有 個突觸。突觸主要有兩種連接方式: 一是一個神經細胞的軸突與另一個神經細胞的樹突發(fā)生接觸; 二是一個神經細胞的軸突與另一個神經細胞的胞體接觸。,一、預備知識(3),突觸有兩種類型: 興奮型和抑制型。 突觸的界面具有脈沖/電位信號轉換功能,它能將沿神經纖維傳遞的等幅、恒寬、編碼的離散脈沖信號,轉換為細胞膜可以處理的連續(xù)電位信號。,一、預備知識(4),3、突觸動力學: 突觸能夠傳遞神經沖動。樹突從四方收集由其它神經細胞傳來的信息,信息流由樹突出發(fā),經過細胞體,然后由軸突輸出。信息傳遞在突觸處主要是發(fā)生化學和電的變化,從而對神經細胞產生一個興奮或抑制的動力。,一、預備知識(5),4、人工神經網絡的分類: 人工神經網絡的分類有多種方法,但通常采用如下分類: 按網絡結構分為:前饋網絡和反饋網絡; 按學習方式分為:監(jiān)督學習和非監(jiān)督學習,也叫有導師學習和無導師學習。 本章主要論述前饋網絡的監(jiān)督學習算法。,一、預備知識(6),5、什么是學習? 學習就是對信息進行編碼,其目的就是通過向有限個例子(訓練樣本)的學習來找到隱藏在例子背后(即產生這些例子)的規(guī)律(如函數形式)。 當樣本數據改變系統(tǒng)參數時,系統(tǒng)會對這些改變進行自適應或自組織的學習,在神經網絡中表現(xiàn)為突觸的改變。 按突觸修正假說,神經網絡在拓撲結構固定時,其學習歸結為連接權的變化。 所以,對固定拓撲的神經網絡,學習就是求權值,即突觸矩陣。,一、預備知識(7),6、什么是監(jiān)督? 監(jiān)督就是對每一個輸入Xi,都假定我們已經知道它的期望輸出Yi,這個Yi可以理解為監(jiān)督信號,也叫“教師信號”。 對每一個輸入Xi及其對其估計的期望輸出Yi,就構成了一個訓練樣本。,一、預備知識(8),7、學習的種類: 學習的種類有四種:死記式學習, 學習律,自組織的學習和Hebbian學習律,相近學習。 由于監(jiān)督學習主要使用的是 學習律,所以,在此主要介紹 學習律。,一、預備知識(9),8、 學習律 這種方法是用已知例子作為教師對網絡的權進行學習。其規(guī)則是通過神經網絡理想輸出和實際輸出之間的誤差來修正網絡的權值。在很多神經網絡中,都采用了這種學習方法,如Perceptron, Adaline和Back-propagation算法等。,一、預備知識(10),9、有監(jiān)督的學習 有監(jiān)督的學習就是根據這若干組訓練樣本 ,對人工神經網絡進行訓練,利用學習系統(tǒng)的誤差( EJ ,為期望輸出與實際輸出之差),不斷校正學習系統(tǒng)的行為(即突觸權值),使誤差盡可能地小,從而估計出神經元函數:f : xy。 所以,監(jiān)督學習的最終任務,就是通過使系統(tǒng)誤差盡可能地小,不斷地調整突觸權值,最終求出神經元函數f。,一、預備知識(11),10、監(jiān)督學習與非監(jiān)督學習的區(qū)別: 在監(jiān)督學習中,假定我們知道每一輸入對應的期望輸出,并利用學習系統(tǒng)的誤差,不斷校正系統(tǒng)的行為; 在非監(jiān)督學習中,我們不知道學習系統(tǒng)的期望輸出。,11、前饋神經網絡的結構示意圖,特點:各神經元接受前一級輸入,并輸出到下一級,無反饋。輸入、輸出節(jié)點稱為可見層,其它中間層稱為隱層。,12、監(jiān)督學習流圖,其關鍵之處,就是將教師信號加入到了網絡中.,二、有監(jiān)督的函數估計(1),在學習之前,神經網絡猶如一個黑盒子,我們能做的,就是可以給它加一定的輸入 Xi,再給每個輸入Xi提供一個期望輸出Yi,即“教師信號”,從而形成了一系列的樣本對(Xi,Yi)。 有監(jiān)督的函數估計,就是通過包含“教師信號”的樣本對(Xi,Yi),求出神經網絡的傳輸函數 f 的近似表達式。,二、有監(jiān)督的函數估計(2),采用的方法,就是利用誤差函數EJ(期望輸出與實際輸出的差值),不斷調整ANN的突觸權值,使EJ達到最小,從而達到對ANN函數的估計。,二、有監(jiān)督的函數估計(3),已知隨機樣本矢量對 通過實驗可以測出實際輸出 求出EJ= - 然后通過使EJ最小而修改突觸權值來求出f: 其中F是要估計的ANN函數; 是輸入空間; 是輸出空間。,三、監(jiān)督學習就是有效的訓練,有效訓練是指,對具有記憶功能的系統(tǒng),當使用訓練樣本對其進行學習之后,系統(tǒng)能夠記住所學的方法,并能處理類似的問題。 對ANN進行有監(jiān)督的學習就是有記憶功能的系統(tǒng)。也就是說,使用期望輸出與實際輸出的誤差不斷校正其突觸權值,最終的結果,就是系統(tǒng)具備了一定的功能,訓練取得了一定的成效。就像巴普洛夫條件反射試驗一樣。,四、已知類隸屬度的監(jiān)督學習(1),就是用已知的模式類的隸屬度函數,來調整系統(tǒng)的突觸權值,從而達到學習的目的。 比如,在噪聲隨機競爭學習定律中,由于沒有使用類成員信息校正突觸矢量,所以是非監(jiān)督學習。,四、已知類隸屬度的監(jiān)督學習(2),噪聲隨機競爭學習定律為: 它實際上就是在隨機競爭學習中加入了噪聲ni。其規(guī)律為:若第j個神經元獲勝,則學新忘舊;若第j個神經元失敗,則不學新也不忘舊。 其不足是:未使用已知模式類X的隸屬度信息。 如果使用了類成員信息校正突觸矢量,就成了監(jiān)督學習。因為是監(jiān)督學習,有“教師”信號,我們預先就知道其期望分類,所以實行了獎懲機制:若分對,則獎勵;分錯則懲罰。,四、已知類隸屬度的監(jiān)督學習(3),而對應的監(jiān)督隨機競爭學習定律為: 增強函數為: 若x屬于Dj,上式中第一項為+1,說明是分對了;若x不屬于Dj,上式中第二項為-1,說明是分錯了。獎勵正確的模式分類1,懲罰錯誤的模式分類為1,從而調整權值,達到學習的目的。,五、感知器學習算法(1),1、感知器拓撲結構,五、感知器學習算法(2),2、感知器學習 網絡用誤差修正規(guī)則( 規(guī)則)學習,訓練樣本對為( , )k=1,2,m.第k個模式對應的輸入向量 =( , )為模擬值模式,輸出向量 =( , , )為二值模式。網絡中, 層的n個單元對應模式 的n個分量 , 層的p個單元對應模式 的P個分量. 所以,感知器最突出的一個特點便是:輸入是模擬向量,輸出是二值模式。,五、感知器學習算法(3),由于 層中每個單元只取值+1或-1,因此可將它視作輸入模式 (k=1,2m)兩個可能的分類。在學習開始 時,由各連接權決定的超平面隨機地被 放到N維空間。隨著學習的進行,這個超平面漸漸移動,直到它能將兩類模式恰當劃分為止。,五、感知器學習算法(4),3、算法過程 從隨機的權值開始; 反復應用每個訓練樣例到感知器,只要它誤分樣例,就修改感知器的權值; 重復這個過程,直到感知器正確分類所有的訓練樣例為止。,五、感知器學習算法(5),4、具體算法: (1)初始化連接權。將 層到 層的連接權 , i=1,2,n,j=1,2,p及 層單元閾值 j=1,2,p賦予-1,+1間的隨機值。 (2)對每一模式對( , )k=1,m,完成下面操作: A、將 的值送到 層單元, 層單元的輸出之加權和作為 層單元的輸入,計算 層單元的輸出:,五、感知器學習算法(6),上式中j=1p,f(x)為雙極階躍函數 B、計算 層單元希望輸出與實際輸出間誤差,五、感知器學習算法(7),C、調整 層單元與 層單元之間的連接權 式中i=1n,j=1p,0 1 (3)重復步驟(2)直到誤差 (j=1p且k=1m)變得足夠小或變?yōu)?為止。,五、感知器學習算法(8),5、說明: 感知器算法,如果輸入模式是線性可分的,學習后能對輸入模式正確分類; 如果輸入模式本身是線性不可分的,那么學習后的網絡不能對輸入模式正確分類。,六、LMS算法(1),1、LMS就是最小均方誤差算法。它采用的準則函數是均方誤差函數。 它通過調整單個神經元的權值,以使誤差為最小,其數學基礎是誤差曲面上的梯度下降。 其學習過程也是根據教師信號計算其均方誤差,由均方誤差調整突觸向量,如此反復,最后達到學習的目的。,六、LMS算法(2),2、權值調整公式: 其中 為下一次權值向量的取值, 為現(xiàn)在的權向量, 為現(xiàn)在的輸入向量, 為現(xiàn)在的誤差, 為系數, 為輸入向量的模.,七、反向傳播網絡學習(1),1、定義:反向傳播神經網絡(Back-Propagation Networks)簡稱BP模型。由于在這一神經網絡模型中引入了中間隱含神經元層,所以,標準的BP模型由三個神經元層次組成,分別為輸入層、隱層和輸出層。各層次之間的神經元形成全互連接,各層次內的神經元之間沒有連接。,七、反向傳播網絡學習(2),2、BP算法是通過使代價函數最小化的過程來完成輸入到輸出的映射。 代價函數有多種,但通常在BP算法中,將代價函數定義為期望輸出與實際輸出的誤差平方和。 在本算法中,將代價函數(期望輸出與實際輸出的誤差平方和)用與其等價的一般化誤差來代替,從而減小了運算量。,七、反向傳播網絡學習(3),3、BP算法分成兩個階段 第一階段:正向傳播。 在正向傳播過程中,輸入信息從輸入層經隱層逐層處理,并傳向輸出層,獲得各個單元的實際輸出,每一層神經元的狀態(tài)只影響下一層神經元的狀態(tài)。,七、反向傳播網絡學習(4),第二階段:反向傳播。 如果在輸出層未能得到期望的輸出,則轉入反向傳播,計算出輸出層各單元的一般化誤差,然后將這些誤差信號沿原來的連接通路返回,以獲得調整各連接權所需的各單元參考誤差,通過修改各層神經元的權值,使得誤差信號最小。,七、反向傳播網絡學習(5),4、BP網絡拓撲結構,七、反向傳播網絡學習(6),5、BP算法: (1)初始化。將網絡中所有權值及閾值賦予(-1,+1)之間的隨機值; (2)對于樣本模式對( , )(k=1m)進行如下操作: A)將 的值送到輸入層單元,通過連接權矩陣V送到隱層單元,產生隱層單元新的激活值 式中i=1p, f為S型函數:,七、反向傳播網絡學習(7),B)計算輸出層單元的激活值 C)計算輸出層單元的一般化誤差 式中j=1q, 為輸出層單元j的期望輸出;,七、反向傳播網絡學習(8),D)計算隱含層單元對于每個 的誤差 式中i=1p;上式相當于將輸出層單元的誤差反向傳播到隱含層; E)調整隱含層到輸出層的連接權 為學習率,0 1.,七、反向傳播網絡學習(9),F)調整輸入層到隱含層的連接權 式中h=1n,i=1p,0 1; G)調整輸出單元的閾值 式中j=1q;,七、反向傳播網絡學習(10),H)調整隱含層單元的閾值 (3)重復步驟(2),直到對于k=1,2,m,誤差 變得足夠小或為0為止。,七、反向傳播網絡學習(11),6、BP算法的優(yōu)點 (1) BP算法是一個很有效的算法,許多問題都可由它來解決。BP模型把一組樣本的I/O問題變?yōu)橐粋€非線性優(yōu)化問題,使用了優(yōu)化中最普通的梯度下降法,用迭代運算求解權相應于學習記憶問題,加入隱節(jié)點使優(yōu)化問題的可調參數增加,從而可得到更精確的解。,七、反向傳播網絡學

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論