C5神經網絡分類課件_第1頁
C5神經網絡分類課件_第2頁
C5神經網絡分類課件_第3頁
C5神經網絡分類課件_第4頁
C5神經網絡分類課件_第5頁
已閱讀5頁,還剩18頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

第5講神經網絡分類2003.12.181第5講神經網絡分類2003.12.181人工神經網絡學習概述人工神經網絡提供了一種普遍且實用的方法從樣例中學習值為實數(shù)、離散值或向量的函數(shù)。人工神經網絡對于訓練數(shù)據中的錯誤健壯性很好。人工神經網絡已被成功應用到很多領域,例如視覺場景分析,語音識別,機器人控制。其中,最流行的網絡和算法是20世紀80年代提出的BP網絡和BP算法,BP算法使用梯度下降法來調節(jié)BP網絡的參數(shù)以最佳擬合由輸入-輸出對組成的訓練集合。2003.12.182人工神經網絡學習概述人工神經網絡提供了一種普遍且實用的方法從BP算法概述1、BP算法的出現(xiàn)非循環(huán)多級網絡的訓練算法UCSDPDP小組的Rumelhart、Hinton和Williams1986年獨立地給出了BP算法清楚而簡單的描述1982年,Paker就完成了相似的工作1974年,Werbos已提出了該方法2、弱點:訓練速度非常慢、局部極小點的逃離問題、算法不一定收斂。3、優(yōu)點:廣泛的適應性和有效性。2003.12.183BP算法概述1、BP算法的出現(xiàn)2003.12.183BP網絡的基本結構2003.12.184BP網絡的基本結構2003.12.184確定BP網絡的拓撲結構在開始訓練之前,需要確定網絡的拓撲結構:出入層神經元的個數(shù)、隱含層神經元的層數(shù)及每一層神經元的個數(shù)、輸出層神經元的個數(shù)。對訓練樣本中的每一屬性的值進行歸一化,使其值落在(0,1)區(qū)間,有助于加快學習過程。對于離散的屬性值,要進行合適的編碼。BP網一般都選用二級網絡。實驗表明:增加隱藏層的層數(shù)和隱藏層神經元個數(shù)不一定總能夠提高網絡精度和表達能力。2003.12.185確定BP網絡的拓撲結構在開始訓練之前,需要確定網絡的拓撲結構神經元的M-P模型2003.12.186神經元的M-P模型2003.12.186激活函數(shù)(ActivationFunction)

激活函數(shù)——執(zhí)行對該神經元所獲得的網絡輸入的變換,也可以稱為激勵函數(shù)、活化函數(shù):o=f(net)

1、線性函數(shù)(LinerFunction)

f(net)=k*net+c

netooc2003.12.187激活函數(shù)(ActivationFunction)激活函數(shù)2、非線性斜面函數(shù)(RampFunction)

γ ifnet≥θf(net)=k*net if|net|<θ -γ ifnet≤-θ

γ>0為一常數(shù),被稱為飽和值,為該神經元的最大輸出。

2003.12.1882、非線性斜面函數(shù)(RampFunction) γ2、非線性斜面函數(shù)(RampFunction)γ-γθ

net

o

2003.12.1892、非線性斜面函數(shù)(RampFunction)γ-γ3、閾值函數(shù)(ThresholdFunction)階躍函數(shù)

β ifnet>θf(net)= -γ ifnet≤θβ、γ、θ均為非負實數(shù),θ為閾值二值形式: 1 ifnet>θf(net)= 0 ifnet≤θ雙極形式: 1 ifnet>θf(net)= -1 ifnet≤θ

2003.12.18103、閾值函數(shù)(ThresholdFunction)階躍函數(shù)3、閾值函數(shù)(ThresholdFunction)階躍函數(shù)β

-γθonet02003.12.18113、閾值函數(shù)(ThresholdFunction)階躍函數(shù)4、S形函數(shù)

壓縮函數(shù)(SquashingFunction)和邏輯斯特函數(shù)(LogisticFunction)。f(net)=a+b/(1+exp(-d*net))a,b,d為常數(shù)。它的飽和值為a和a+b。最簡單形式為:f(net)=1/(1+exp(-d*net))函數(shù)的飽和值為0和1。S形函數(shù)有較好的增益控制

2003.12.18124、S形函數(shù)壓縮函數(shù)(SquashingFunction4、S形函數(shù)

a+bo(0,c)netac=a+b/22003.12.18134、S形函數(shù)a+bo(0,c)netac=a+b/220BP算法2003.12.1814BP算法2003.12.1814BP算法的基本思想BP算法的基本工作過程大概可以分為兩個階段:1)信號的向前傳播,在這個階段,要求計算出隱含層和輸出層中每一神經元的凈輸入和輸出。 2)誤差的向后傳播,在這個階段,要求計算出輸出層和隱含層中每一神經元的誤差。2003.12.1815BP算法的基本思想BP算法的基本工作過程大概可以分為兩個階段初始化問題在BP算法中,權和偏置在網絡學習之前,都將其初始化為不同的小隨機數(shù)。“不同”保證網絡可以學習;“小隨機數(shù)”防止其值過大而提前進入飽和狀態(tài)。2003.12.1816初始化問題在BP算法中,權和偏置在網絡學習之前,都將其初始化更新問題基本的BP算法采用的是實例更新,即每處理一個實例就更新一次權和偏置。實例更新的缺陷:實例的順序對訓練結果有較大影響。它更“偏愛”較后出現(xiàn)的實例。而給其中的實例安排一個適當?shù)捻樞?,是非常困難的。解決的辦法就是采用周期更新,即每處理一遍所有的實例才更新一次權和偏置。周期更新的好處是:可以消除實例順序對結果的影響。2003.12.1817更新問題基本的BP算法采用的是實例更新,即每處理一個實例就更收斂速度問題BP算法的訓練速度是非常慢的,尤其是當訓練達到一定的程度后,甚至有時是發(fā)散的。2003.12.1818收斂速度問題BP算法的訓練速度是非常慢的,尤其是當訓練達到一局部極小點問題避免——修改初始值:并不是總有效。逃離——統(tǒng)計方法:[Wasserman,1986]將Cauchy訓練與BP算法結合起來,可以在保證訓練速度不被降低的情況下,找到全局極小點。2003.12.1819局部極小點問題避免——修改初始值:并不是總有效。2003.1網絡癱瘓問題在訓練中,權可能變得很大,這會使神經元的網絡輸入變得很大,從而又使得其激活函數(shù)的導函數(shù)在此點上的取值很小。根據相應式子,此時的訓練步長會變得非常小,進而將導致訓練速度降得非常低,最終導致網絡停止收斂。2003.12.1820網絡癱瘓問題在訓練中,權可能變得很大,這會使神經元的網絡輸入穩(wěn)定性問題用修改量的綜合實施權的修改(用消除樣本順序影響的算法4-2來訓練)連續(xù)變化的環(huán)境,它將變成無效的(網絡不可塑)2003.12.1821穩(wěn)定性問題用修改量的綜合實施權的修改(用消除樣本順序影響的算步長問題BP網絡的收斂是基于無窮小的權修改量步長太小,收斂就非常慢步長太大,可能會導致網絡的癱瘓和不穩(wěn)定自適應步長,使得權修改量能隨著網絡的訓練而不斷變化。[1988年,Wasserman]2003.12.1822步長問題BP網絡的收斂是基于無窮小的權修改量2003.12.B

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論