數(shù)學(xué)建模神經(jīng)網(wǎng)絡(luò)建模培訓(xùn)課件_第1頁
數(shù)學(xué)建模神經(jīng)網(wǎng)絡(luò)建模培訓(xùn)課件_第2頁
數(shù)學(xué)建模神經(jīng)網(wǎng)絡(luò)建模培訓(xùn)課件_第3頁
數(shù)學(xué)建模神經(jīng)網(wǎng)絡(luò)建模培訓(xùn)課件_第4頁
數(shù)學(xué)建模神經(jīng)網(wǎng)絡(luò)建模培訓(xùn)課件_第5頁
已閱讀5頁,還剩87頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

數(shù)學(xué)建模神經(jīng)網(wǎng)絡(luò)建模數(shù)學(xué)建模神經(jīng)網(wǎng)絡(luò)建模11、神經(jīng)網(wǎng)絡(luò)簡介

人工神經(jīng)網(wǎng)絡(luò)是在現(xiàn)代神經(jīng)科學(xué)的基礎(chǔ)上發(fā)展起來的,旨在模擬人腦結(jié)構(gòu)以及功能的一種抽象的數(shù)學(xué)模型,其中Hopfield神經(jīng)網(wǎng)絡(luò)、ART神經(jīng)網(wǎng)絡(luò)、BP神經(jīng)網(wǎng)絡(luò)是常用的網(wǎng)絡(luò)。Hopfield神經(jīng)網(wǎng)絡(luò)是由相同的神經(jīng)元構(gòu)成的單元,是一類不具有學(xué)習(xí)能力的單層自聯(lián)想網(wǎng)絡(luò),她的網(wǎng)絡(luò)模型由一組可使某一個能量函數(shù)最小的微分方程組成。ART神經(jīng)網(wǎng)絡(luò)主要用于模式識別,她的不足之處在于對轉(zhuǎn)換、失真和規(guī)模變化較敏感BP神經(jīng)網(wǎng)絡(luò)是誤差反向傳播的多層前向網(wǎng)絡(luò),其信息處理機(jī)制由神經(jīng)元激活特性和網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)決定,神經(jīng)元的傳遞函數(shù)是非線性函數(shù),網(wǎng)絡(luò)結(jié)構(gòu)由輸入層、隱含層、輸出層組成,同層節(jié)點間無關(guān)聯(lián),異層節(jié)點前向連接。

1、神經(jīng)網(wǎng)絡(luò)簡介人工神經(jīng)網(wǎng)絡(luò)是在現(xiàn)代神經(jīng)科學(xué)的基礎(chǔ)上發(fā)展起21.1、人工神經(jīng)元模型人工神經(jīng)網(wǎng)絡(luò)的基本單元的神經(jīng)元模型1.1、人工神經(jīng)元模型人工神經(jīng)網(wǎng)絡(luò)的基本單元的神經(jīng)元模型3人工神經(jīng)元的三個要素人工神經(jīng)元的三個要素41.2激活(傳遞)函數(shù)的取法在Matlab工具箱里包括了許多激活(傳遞)函數(shù)。在“TransferFunctionGraphs”中可以找到它們的完全列表函數(shù)名功能purelin線性傳遞函數(shù)hardlim硬限幅遞函數(shù)hardlims對稱硬限幅遞函數(shù)satli飽和線性傳遞函數(shù)satlins對稱飽和線性傳遞函數(shù)logsig對數(shù)S形傳遞函數(shù)tansig正切S形傳遞函數(shù)radbas徑向基傳遞函數(shù)compet競爭層傳遞函數(shù)1.2激活(傳遞)函數(shù)的取法在Matlab工具箱里包括了許多5數(shù)學(xué)建模神經(jīng)網(wǎng)絡(luò)建模培訓(xùn)課件61.3、網(wǎng)絡(luò)結(jié)構(gòu)以及工作方式從連接方式看NN主要有兩種網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu):前饋型網(wǎng)絡(luò):結(jié)點分為輸入單元和計算單元反饋型網(wǎng)絡(luò):所有結(jié)點都是計算單元NN的工作過程主要分為兩個階段:第一階段:學(xué)習(xí)期,此時個計算單元狀態(tài)不變,各連線上的權(quán)值可通過學(xué)習(xí)來修改第二階段:工作期,此時各連接權(quán)值固定,計算各單元狀態(tài)變化1.3、網(wǎng)絡(luò)結(jié)構(gòu)以及工作方式從連接方式看NN主要有兩種網(wǎng)絡(luò)拓7網(wǎng)絡(luò)結(jié)構(gòu):前饋型神經(jīng)網(wǎng)絡(luò)

兩個或更多的上面所示的神經(jīng)元可以組合成一層,一個典型的網(wǎng)絡(luò)可包括一層或者多層。我們首先來研究神經(jīng)元層。單層神經(jīng)元網(wǎng)絡(luò)

有R輸入元素和S個神經(jīng)元組成的單層網(wǎng)絡(luò)如下圖所示n{1}=net.IW{1,1}*p+net.b{1}網(wǎng)絡(luò)結(jié)構(gòu):前饋型神經(jīng)網(wǎng)絡(luò)兩個或更多的上面所示的神經(jīng)元可以組8多層神經(jīng)元網(wǎng)絡(luò)

上面所示的網(wǎng)絡(luò)有R1個輸入,第一層有S1個神經(jīng)元,第二層有S2個神經(jīng)元…多層神經(jīng)元網(wǎng)絡(luò)上面所示的網(wǎng)絡(luò)有R1個輸入,第一層有S1個神9中間層的輸出就是下一層的輸入。第二層可看作有S1個輸入,S2個神經(jīng)元和S1xS2階權(quán)重矩陣W2的單層網(wǎng)絡(luò)。第二層的輸入是a1,輸出是a2,現(xiàn)在我們已經(jīng)確定了第二層的所有向量和矩陣,我們就能把它看成一個單層網(wǎng)絡(luò)了。其他層也可以照此步驟處理。

多層網(wǎng)絡(luò)的功能非常強(qiáng)大。例、一個兩層的網(wǎng)絡(luò),第一層的轉(zhuǎn)移函數(shù)是曲線函數(shù),第二層的轉(zhuǎn)移函數(shù)是線性函數(shù),通過訓(xùn)練,它能夠很好的模擬任何有有限斷點的函數(shù)。這種兩層網(wǎng)絡(luò)集中應(yīng)用于“反向傳播網(wǎng)絡(luò)”。

注意:我們把第三層的輸出a3標(biāo)記為y。我們將使用這種符號來定義這種網(wǎng)絡(luò)的輸出。

中間層的輸出就是下一層的輸入。第二層可看作有S1個輸入,S2101.4創(chuàng)建網(wǎng)絡(luò)newp創(chuàng)建感知器網(wǎng)絡(luò)newlind設(shè)計一線性層newlin創(chuàng)建一線性層newff創(chuàng)建一前饋BP網(wǎng)絡(luò)newcf創(chuàng)建一多層前饋BP網(wǎng)絡(luò)newfftd創(chuàng)建一前饋輸入延遲BP網(wǎng)絡(luò)newrb設(shè)計一徑向基網(wǎng)絡(luò)newrbe設(shè)計一嚴(yán)格的徑向基網(wǎng)絡(luò)newgrnn設(shè)計一廣義回歸神經(jīng)網(wǎng)絡(luò)newpnn設(shè)計一概率神經(jīng)網(wǎng)絡(luò)newc創(chuàng)建一競爭層newsom創(chuàng)建一自組織特征映射newhop創(chuàng)建一Hopfield遞歸網(wǎng)絡(luò)newelm創(chuàng)建一Elman遞歸網(wǎng)絡(luò)1.4創(chuàng)建網(wǎng)絡(luò)newp創(chuàng)建感知器網(wǎng)絡(luò)111.5數(shù)據(jù)結(jié)構(gòu):影響網(wǎng)絡(luò)仿真的輸入數(shù)據(jù)結(jié)構(gòu)的格式靜態(tài)網(wǎng)絡(luò)中的同步輸入仿真:例11.5數(shù)據(jù)結(jié)構(gòu):影響網(wǎng)絡(luò)仿真的輸入數(shù)據(jù)結(jié)構(gòu)的格式靜態(tài)網(wǎng)絡(luò)中的12動態(tài)網(wǎng)絡(luò)中的異步輸入仿真:當(dāng)網(wǎng)絡(luò)中存在延遲時,順序發(fā)生的輸入向量就要按一定的序列輸入網(wǎng)絡(luò)。為了演示這種情況,我們以一個有延遲的簡單網(wǎng)絡(luò)為例。

動態(tài)網(wǎng)絡(luò)中的異步輸入仿真:當(dāng)網(wǎng)絡(luò)中存在延遲時,順序發(fā)生的輸入131、堅持中國共產(chǎn)黨的領(lǐng)導(dǎo),堅持四項基本原則,積極參加各種政治理論學(xué)習(xí),入黨動機(jī)端正;5.7按規(guī)定認(rèn)真填寫各項記錄,做到資料齊全,數(shù)據(jù)準(zhǔn)確,不得弄虛作假。怎樣激勵員工?在管理學(xué)中有個“海豚理論”:海豚往下潛得越深,就跳得越高。如何讓自己的生命成就更高?怎樣才能升遷?怎樣才能獲得更好的獎勵?如果員工們認(rèn)真考慮這些問題,那么他們就要好好努力,爭取潛得越深,跳得越高?!翱蛻舻碾y題就是我們的課題”服務(wù)要想做得好,就必須具備這樣的觀念和理念,沒有這種理念、心態(tài)和氣度,服務(wù)肯定是做不好的。三工轉(zhuǎn)換采用“績效管理,計量到位,績效連籌”的原則。這種管理方法能夠促使員工產(chǎn)生競爭心理,從而提高工作效率。競爭會促進(jìn)和改善生存質(zhì)量,要讓員工產(chǎn)生不安定、不安全的危機(jī)意識。為此,員工必須爭奪工作機(jī)會,工作起來就會更認(rèn)真。農(nóng)村相對貧困,店鋪經(jīng)營不穩(wěn)定。因此,針對農(nóng)村客戶設(shè)計了兩層型的冰柜,有兩個分離式的壓縮機(jī),省電的時候使用上層,里面的結(jié)構(gòu)非常簡單,降低成本和價格。這就是服務(wù)的策略,產(chǎn)品的設(shè)計能夠滿足顧客的細(xì)分化的技巧。服務(wù)人員的走姿4.7.3崗位安全操作規(guī)程,生產(chǎn)設(shè)備、安全裝置、勞動防護(hù)用品的性能及正確使用方法,事故案例【案例】動態(tài)網(wǎng)絡(luò)中的同步輸入仿真如果我們在上例中把輸入作為同步而不是異步應(yīng)用,我們就會得到完全不同的響應(yīng)。這就好象每一個輸入都同時加到一個單獨的并行網(wǎng)絡(luò)中。在前一個例子中,如果我們用一組同步輸入,我們有:p1=[1],p2=[2],p3=[3],p4=[4]這可用下列代碼創(chuàng)建:P=[1234];模擬這個網(wǎng)絡(luò),我們得到:A=sim(net,P)A=12341、堅持中國共產(chǎn)黨的領(lǐng)導(dǎo),堅持四項基本原則,積極參加各種政治14在某些特定的情況下,我們可能想要在同一時間模擬一些不同序列的網(wǎng)絡(luò)響應(yīng)。這種情況我們就要給網(wǎng)絡(luò)輸入一組同步序列。比如說,我們要把下面兩個序列輸入網(wǎng)絡(luò):p(1)=[1],p(2)=[2],p(3)=[3],p(4)=[4]p(1)=[4],p(2)=[3],p(3)=[2],p(4)=[1]輸入P應(yīng)該是一個細(xì)胞數(shù)組,每一個數(shù)組元素都包含了兩個同時發(fā)生的序列的元素。P={[14][23][32][41]};現(xiàn)在我們就可以模擬這個網(wǎng)絡(luò)了:A=sim(net,P);網(wǎng)絡(luò)輸出結(jié)果將是:A={[14][411][78][105]}可以看到,每個矩陣的第一列是由第一組輸入序列產(chǎn)生的輸出序列,每個矩陣的第二列是由第二組輸入序列產(chǎn)生的輸出序列。這兩組序列之間沒有關(guān)聯(lián),好象他們是同時應(yīng)用在單個的并行網(wǎng)絡(luò)上的。在某些特定的情況下,我們可能想要在同一時間模擬一些不同序列的15前面的討論中,不論是作為一個同步向量矩陣輸入還是作為一個異步向量細(xì)胞數(shù)組輸入,模擬的輸出值是一樣的。在訓(xùn)練網(wǎng)絡(luò)時,這是不對的。當(dāng)我們使用adapt函數(shù)時,如果輸入是異步向量細(xì)胞數(shù)組,那么權(quán)重將在每一組輸入提交的時候更新(就是增加方式);如果輸入是同步向量矩陣,那么權(quán)重將只在所有輸入提交的時候更新(就是批處理方式)。前面的討論中,不論是作為一個同步向量矩陣輸161.6訓(xùn)練方式

兩種不同的訓(xùn)練方式

(1)增加方式:每提交一次輸入數(shù)據(jù),網(wǎng)絡(luò)權(quán)重和偏置都更新一次;

(2)在批處理方式中:僅僅當(dāng)所有的輸入數(shù)據(jù)都被提交以后,網(wǎng)絡(luò)權(quán)重和偏置才被更新.增加方式(應(yīng)用于自適應(yīng)網(wǎng)絡(luò)和其他網(wǎng)絡(luò))雖然增加方式更普遍的應(yīng)用于動態(tài)網(wǎng)絡(luò),比如自適應(yīng)濾波,但是在靜態(tài)和動態(tài)網(wǎng)絡(luò)中都可以應(yīng)用它。1.6訓(xùn)練方式兩種不同的訓(xùn)練方式

(1)增加方式:每提交一17靜態(tài)網(wǎng)絡(luò)中的增加方式

用增加方式來訓(xùn)練靜態(tài)同步仿真中的例1,這樣每提交一次輸入數(shù)據(jù),網(wǎng)絡(luò)權(quán)重和偏置都更新一次。在此我們用函數(shù)adapt,并給出輸入和目標(biāo)序列:假定我們要訓(xùn)練網(wǎng)絡(luò)建立以下線性函數(shù):t=2p1+p2.我們的輸入是:目標(biāo)輸出是:t1=[4],t2=[5],t3=[7],t4=[7]首先用0初始化權(quán)重和偏置。為了顯示增加方式的效果,先把學(xué)習(xí)速度也設(shè)為0。net=newlin([-11;-11],1,0,0);net.IW{1,1}=[00];net.b{1}=0;為了用增加方式,我們把輸入和目標(biāo)輸出表示為以下序列:P={[1;2][2;1][2;3][3;1]};T={4577};靜態(tài)網(wǎng)絡(luò)中的增加方式用增加方式來訓(xùn)練靜態(tài)同步仿真中的例1,18用增加方式訓(xùn)練網(wǎng)絡(luò):net=newlin([-11;-11],1,0,0);net.IW{1,1}=[00];net.b{1}=0;P={[1;2][2;1][2;3][3;1]};T={4577};[net,a,e,pf]=adapt(net,P,T);由于學(xué)習(xí)速度為0,網(wǎng)絡(luò)輸出仍然為0,并且權(quán)重沒有被更新。錯誤和目標(biāo)輸出相等。a=[0][0][0][0]e=[4][5][7][7]如果我們設(shè)置學(xué)習(xí)速度為0.1,我們就能夠看到當(dāng)每一組輸入提交時,網(wǎng)絡(luò)是怎么調(diào)整的了。net.inputWeights{1,1}.learnParam.lr=0.1;net.biases{1,1}.learnParam.lr=0.1;[net,a,e,pf]=adapt(net,P,T);a=[0][2][6.0][5.8]e=[4][3][1.0][1.2]用增加方式訓(xùn)練網(wǎng)絡(luò):192、BP神經(jīng)網(wǎng)絡(luò)2.1、概述BP網(wǎng)絡(luò)是采用Widrow-Hoff學(xué)習(xí)算法和非線性可微轉(zhuǎn)移函數(shù)的多層網(wǎng)絡(luò)。一個典型的BP網(wǎng)絡(luò)采用的是梯度下降算法,也就是Widrow-Hoff算法所規(guī)定的。backpropagation就是指的為非線性多層網(wǎng)絡(luò)計算梯度的方法?,F(xiàn)在有許多基本的優(yōu)化算法,例如變尺度算法和牛頓算法。神經(jīng)網(wǎng)絡(luò)工具箱提供了許多這樣的算法。一個經(jīng)過訓(xùn)練的BP網(wǎng)絡(luò)能夠根據(jù)輸入給出合適的結(jié)果,雖然這個輸入并沒有被訓(xùn)練過。這個特性使得BP網(wǎng)絡(luò)很適合采用輸入/目標(biāo)對進(jìn)行訓(xùn)練,而且并不需要把所有可能的輸入/目標(biāo)對都訓(xùn)練過。為了提高網(wǎng)絡(luò)的適用性,神經(jīng)網(wǎng)絡(luò)工具箱提供了兩個特性--規(guī)則化和早期停止。2、BP神經(jīng)網(wǎng)絡(luò)2.1、概述202.2、基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)

1)常用的前饋型BP網(wǎng)絡(luò)的轉(zhuǎn)移函數(shù)有l(wèi)ogsig,tansig有時也會用到線性函數(shù)purelin。當(dāng)網(wǎng)絡(luò)的最后一層采用曲線函數(shù)時輸出被限制在一個很小的范圍內(nèi),如果采用線性函數(shù)則輸出可為任意值。如果需要也可以創(chuàng)建其他可微的轉(zhuǎn)移函數(shù)。

2)在BP網(wǎng)絡(luò)中,轉(zhuǎn)移函數(shù)可求導(dǎo)是非常重要的,tansig、logsig和purelin都有對應(yīng)的導(dǎo)函數(shù)dtansig、dlogsig和dpurelin。為了得到更多轉(zhuǎn)移函數(shù)的導(dǎo)函數(shù),可以輸入

tansig(‘deriv’)

ans=dtansig

2.2、基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)

1)常用的前饋型BP網(wǎng)絡(luò)的轉(zhuǎn)移函21網(wǎng)絡(luò)構(gòu)建和初始化訓(xùn)練前饋網(wǎng)絡(luò)的第一步是建立網(wǎng)絡(luò)對象。函數(shù)newff建立一個可訓(xùn)練的前饋網(wǎng)絡(luò)。net=newff(PR,[S1S2...SNl],{TF1TF2...TFNl},BTF,BLF,PF)這里需要4個輸入?yún)?shù)。第一個參數(shù)是一個RxS1的矩陣以定義R個輸入向量的最小值和最大值。第二個參數(shù)是一個每層神經(jīng)元個數(shù)的數(shù)組。第三個參數(shù)是包含每層用到的轉(zhuǎn)移函數(shù)名稱的細(xì)胞數(shù)組。最后一個參數(shù)是用到的訓(xùn)練函數(shù)的名稱。網(wǎng)絡(luò)構(gòu)建和初始化訓(xùn)練前饋網(wǎng)絡(luò)的第一步是建立網(wǎng)絡(luò)對象。22例、創(chuàng)建一個二層網(wǎng)絡(luò)它的輸入是兩個元素的向量,第一層有四個神經(jīng)元,第二層有三個神經(jīng)元。第一層的轉(zhuǎn)移函數(shù)是tan-sigmoid,輸出層的轉(zhuǎn)移函數(shù)是linear。輸入向量的第一個元素的范圍是-1到2,輸入向量的第二個元素的范圍是0到5,訓(xùn)練函數(shù)是=newff([-12;05],[4,3],{‘tansig’,‘purelin’},‘traingd’);這個命令建立了網(wǎng)絡(luò)對象并且初始化了網(wǎng)絡(luò)權(quán)重和偏置,因此網(wǎng)絡(luò)就可以進(jìn)行訓(xùn)練了。例、創(chuàng)建一個二層網(wǎng)絡(luò)它的輸入是兩個元素的向量,第一層有四個神23在訓(xùn)練前饋網(wǎng)絡(luò)之前,權(quán)重和偏置必須被初始化。初始化權(quán)重和偏置的工作用命令init來實現(xiàn)。

net=init(net);

對前饋網(wǎng)絡(luò)來說,有兩種不同的初始化方式經(jīng)常被用到:initwb和initnw。

1)initwb函數(shù)根據(jù)每一層自己的初始化參數(shù)(net.inputWeights{i,j}.initFcn)初始化權(quán)重矩陣和偏置。前饋網(wǎng)絡(luò)的初始化權(quán)重通常設(shè)為rands,它使權(quán)重在-1到1之間隨機(jī)取值值,這種方式經(jīng)常用在轉(zhuǎn)換函數(shù)是線性函數(shù)時。

2)initnw通常用于轉(zhuǎn)換函數(shù)是曲線函數(shù)。它根據(jù)Nguyen和Widrow[NgWi90]為層產(chǎn)生初始權(quán)重和偏置值,使得每層神經(jīng)元的活動區(qū)域能大致平坦的分布在輸入空間。它比起單純的給權(quán)重和偏置隨機(jī)賦值有以下優(yōu)點:(1)減少神經(jīng)元的浪費(因為所有神經(jīng)元的活動區(qū)域都在輸入空間內(nèi))。(2)有更快的訓(xùn)練速度(因為輸入空間的每個區(qū)域都在活動的神經(jīng)元范圍中)。

在訓(xùn)練前饋網(wǎng)絡(luò)之前,權(quán)重和偏置必須被初始化。初始化權(quán)重和偏置24初始化函數(shù)被newff所調(diào)用。因此當(dāng)網(wǎng)絡(luò)創(chuàng)建時,它根據(jù)缺省的參數(shù)自動初始化。init不需要單獨的調(diào)用??墒俏覀兛赡芤匦鲁跏蓟瘷?quán)重和偏置或者進(jìn)行自定義的初始化。例如,我們用newff創(chuàng)建的網(wǎng)絡(luò),它缺省用initnw來初始化第一層。如果我們想要用rands重新初始化第一層的權(quán)重和偏置,我們用以下命令:net.layers{1}.initFcn='initwb';net.inputWeights{1,1}.initFcn='rands';net.biases{1,1}.initFcn='rands';net.biases{2,1}.initFcn='rands';net=init(net);初始化函數(shù)被newff所調(diào)用。因此當(dāng)網(wǎng)絡(luò)創(chuàng)建256.1檢查增壓后的管道是否有泄漏現(xiàn)象,及時處理漏點。顧客滿意是任何企業(yè)的核心價值,企業(yè)只有努力提供自身的服務(wù)能力,才能提高市場競爭力。服務(wù)能力的提高,有賴于顧客滿意服務(wù)策略和制度的規(guī)劃與執(zhí)行。沒有全面顧客服務(wù)制度的建立,相應(yīng)的技術(shù)執(zhí)行也就失去了方向。4、容器的使用管理第一條推薦優(yōu)秀青年作為黨的發(fā)展對象(簡稱“推優(yōu)入黨”)是黨賦予共青團(tuán)組織的一項光榮任務(wù),是共青團(tuán)發(fā)揮黨的助手和后備軍作用的有力體現(xiàn)。為更好的發(fā)揮團(tuán)組織的推優(yōu)薦才作用,不斷為黨組織輸送新鮮血液,根據(jù)《中國共產(chǎn)主義青年團(tuán)章程》有關(guān)規(guī)定,按照“黨建帶團(tuán)建”的工作要求,制定本辦法。那么這樣的訓(xùn)練結(jié)束之后,接受培訓(xùn)的人員的慣性是否真的發(fā)生了改變呢?據(jù)了解,總經(jīng)理將全部市場四十幾個專柜統(tǒng)和起來舉辦服務(wù)競賽,最后出現(xiàn)了意想不到的成果。那些接受培訓(xùn)的人員開始自發(fā)地自費接受培訓(xùn),因為他們發(fā)現(xiàn)培訓(xùn)很有意義,能夠幫助他們成長。(二)團(tuán)組織申報。擬進(jìn)行換屆的團(tuán)組織,向同級黨組織和上級團(tuán)委提出開展競爭上崗的申請,經(jīng)同意后按照領(lǐng)導(dǎo)小組辦公室的統(tǒng)一安排組織實施。監(jiān)督機(jī)制是實現(xiàn)物業(yè)管理各項工作開展的必要外在約束條件,防止或糾正工作中出現(xiàn)的偏差。保證管理機(jī)構(gòu)及其工作人員依法辦事。9.4.6成交供應(yīng)商未交納成交服務(wù)費的。5.2.7使用部門負(fù)責(zé)編制適用的統(tǒng)計報表,按規(guī)定向有關(guān)部門報送統(tǒng)計結(jié)果;30.2投標(biāo)人對澄清問題的說明或答復(fù),應(yīng)以書面形式提交給招標(biāo)代理機(jī)構(gòu),并應(yīng)由投標(biāo)人的法定代表人或法定代表人授權(quán)代表簽字或加蓋投標(biāo)人印章。第八條符合競爭上崗條件的人員要積極參與競爭上崗,通過競爭上崗提高素質(zhì)、增強(qiáng)能力、展示才華。(1)如果賣方未能在合同規(guī)定的時間內(nèi)或未能在買方同意延長的時間內(nèi)提供部分或全部貨物及服務(wù)。網(wǎng)絡(luò)模擬(SIM)

用函數(shù)sim模擬一個網(wǎng)絡(luò)。sim接收網(wǎng)絡(luò)輸入p,網(wǎng)絡(luò)對象net,返回網(wǎng)絡(luò)輸出a,這里是simuff用來模擬上面建立的帶一個輸入向量的網(wǎng)絡(luò)。p=[1;2];a=sim(net,p)a=-0.1011(用這段代碼得到的輸出是不一樣的,這是因為網(wǎng)絡(luò)初始化是隨機(jī)的。)例、調(diào)用sim來計算一個同步輸入3向量網(wǎng)絡(luò)的輸出:p=[132;241];a=sim(net,p)a=-0.1011-0.23080.49556.1檢查增壓后的管道是否有泄漏現(xiàn)象,及時處理漏點。網(wǎng)絡(luò)模擬26網(wǎng)絡(luò)訓(xùn)練一旦網(wǎng)絡(luò)加權(quán)和偏差被初始化,網(wǎng)絡(luò)就可以開始訓(xùn)練了。我們能夠訓(xùn)練網(wǎng)絡(luò)來做函數(shù)近似(非線性后退),模式結(jié)合,或者模式分類。訓(xùn)練處理需要一套適當(dāng)?shù)木W(wǎng)絡(luò)操作的例子--網(wǎng)絡(luò)輸入p和目標(biāo)輸出t。在訓(xùn)練期間網(wǎng)絡(luò)的加權(quán)和偏差不斷的把網(wǎng)絡(luò)性能函數(shù)net.performFcn減少到最小。前饋網(wǎng)絡(luò)的缺省性能函數(shù)是均方誤差mse--網(wǎng)絡(luò)輸出和目標(biāo)輸出t之間的均方誤差。網(wǎng)絡(luò)訓(xùn)練一旦網(wǎng)絡(luò)加權(quán)和偏差被初始化,網(wǎng)絡(luò)就可以開始訓(xùn)練了。27反向傳播算法反向傳播學(xué)習(xí)算法最簡單的應(yīng)用是沿著性能函數(shù)最速增加的方向--梯度的負(fù)方向更新權(quán)重和偏置。這種遞歸算法可以寫成:xk+1=xk-ak*gk這里xk是當(dāng)前權(quán)重和偏置向量,gk是當(dāng)前梯度,ak是學(xué)習(xí)速率。有兩種不同的辦法實現(xiàn)梯度下降算法:增加模式和批處理模式。在增加模式中,網(wǎng)絡(luò)輸入每提交一次,梯度計算一次并更新權(quán)重。在批處理模式中,當(dāng)所有的輸入都被提交后網(wǎng)絡(luò)才被更新。反向傳播算法反向傳播學(xué)習(xí)算法最簡單的應(yīng)用是沿著性能函數(shù)最速28增加模式訓(xùn)練法(ADAPT)現(xiàn)在我們就可以開始訓(xùn)練網(wǎng)絡(luò)了。當(dāng)然我們要指定輸入值和目標(biāo)值如下所示:p=[-1-122;0505];t=[-1-111];如果我們要在每一次提交輸入后都更新權(quán)重,那么我們需要將輸入矩陣和目標(biāo)矩陣轉(zhuǎn)變?yōu)榧?xì)胞數(shù)組。每一個細(xì)胞都是一個輸入或者目標(biāo)向量。p=num2cell(p,1);t=num2cell(t,1);現(xiàn)在就可以用adapt來實現(xiàn)增加方式訓(xùn)練了:[net,a,e]=adapt(net,p,t);訓(xùn)練結(jié)束以后,就可以模擬網(wǎng)絡(luò)輸出來檢驗訓(xùn)練質(zhì)量了。a=sim(net,p)a=[-0.9995][-1.0000][1.0001][1.0000]增加模式訓(xùn)練法(ADAPT)現(xiàn)在我們就可以開始訓(xùn)練網(wǎng)絡(luò)了。29帶動力的梯度下降(LEARDGDM)

批處理訓(xùn)練方式批處理梯度下降法(TRAINGD)

帶動量的批處理梯度下降法(批處理訓(xùn)練方式TRAINGDM)帶動力的梯度下降(LEARDGDM)

30例1、蠓蟲分類問題1、蠓蟲分類問題生物學(xué)家試圖對兩種蠓蟲(Af與Apf)進(jìn)行鑒別,依據(jù)的資料是觸角和翅膀的長度,已經(jīng)測得了9支Af和6支Apf的數(shù)據(jù)如下:Af:(1.24,1.27),(1.36,1.74),(1.38,1.64),(1.38,1.82),(1.38,1.90),(1.40,1.70),(1.48,1.82),(1.54,1.82),(1.56,2.08);Apf:(1.14,1.82),(1.18,1.96),(1.20,1.86),(1.26,2.00),(1.28,2.00),(1.30,1.96).(i)根據(jù)如上資料,如何制定一種方法,正確地區(qū)分兩類蠓蟲。(ii)對觸角和翼長分別為(1.24,1.80),(1.28,1.84)與(1.40,2.04)的3個標(biāo)本,用所得到的方法加以識別。(iii)設(shè)Af是寶貴的傳粉益蟲,Apf是某疾病的載體,是否應(yīng)該修改分類方法。例1、蠓蟲分類問題1、蠓蟲分類問題31問題分析:要求依據(jù)已知資料(9支Af的數(shù)據(jù)和6支Apf的數(shù)據(jù))制定一種分類方法,類別是已經(jīng)給定的(Af或Apf)。我們將9支Af及6支Apf的數(shù)據(jù)集合稱之為學(xué)習(xí)樣本。

2多層前饋網(wǎng)絡(luò)

為解決此問題,考慮一個其結(jié)構(gòu)如下圖所示的人工神經(jīng)網(wǎng)絡(luò)輸入層輸出層中間層(隱層)問題分析:要求依據(jù)已知資料(9支Af的數(shù)據(jù)和6支Apf的數(shù)據(jù)32以s=1,2,,15,分別表示學(xué)習(xí)樣本中的15個樣品,對樣品s而言,對任何一組確定的輸入I_k^s(k=1,2)隱單元j的輸入是

相應(yīng)的輸出狀態(tài)是

網(wǎng)絡(luò)的最終輸出是以s=1,2,,15,分別表示學(xué)習(xí)樣本中的15個樣品,33對于任何一組確定的輸入,輸出是所有權(quán)的函數(shù)。如果我們能夠選定一組適當(dāng)?shù)臋?quán)值,使得對應(yīng)于學(xué)習(xí)樣本中任何一組Af樣品的輸入,輸出為(1,0),對應(yīng)于Apf的輸入數(shù)據(jù),輸出為(0,1),那么蠓蟲分類問題實際上就解決了。因為,對于任何一個未知類別的樣品,只要將其觸角及翅膀長度輸入網(wǎng)絡(luò),視其輸出模式靠近(1,0)亦或(0,1),就可能判斷其歸屬。當(dāng)然,有可能出現(xiàn)介于中間無法判斷的情況。

現(xiàn)在的問題是,如何找到一組適當(dāng)?shù)臋?quán)值,實現(xiàn)上面所設(shè)想的網(wǎng)絡(luò)功能。對于任何一組確定的輸入,輸出是所有權(quán)的函343向后傳播算法

在1985年,美國加州大學(xué)的一個研究小組提出了所謂向后傳播算法(Back-Propagation)。

我們希望對應(yīng)于學(xué)習(xí)樣本中Af樣品的輸出是(1,0),對應(yīng)于Apf的輸出是(0,1),這樣的輸出稱之為理想輸出。實際上要精確地作到這一點是不可能的,只能希望實際輸出盡可能地接近理想輸出。為清楚起見,把對應(yīng)于樣品s的理想輸出記為,

度量了在一組給定的權(quán)下,實際輸出與理想輸出的差異,由此,尋找一組恰當(dāng)?shù)臋?quán)的問題,自然地歸結(jié)為求適當(dāng)W的值,使E(W)達(dá)到極小的問題3向后傳播算法

在1985年,美國加州大學(xué)的一個研究小組提35最速下降法對每一個變量w_ij或w而言,這是一個連續(xù)可微的非線性函數(shù),為了求得其極小點與極小值,最為方便的就是使用最速下降法。最速下降法是一種迭代算法,為求出E(W)的(局部)極小,它從一個任取的初始點W_0出發(fā),計算在W_0點的負(fù)梯度方向,這是函數(shù)在該點下降最快的方向;只要,就可沿該方向移動一小段距離,達(dá)到一個新的點。不斷重復(fù)這一過程,一定能達(dá)到E的一個(局部)極小點。就本質(zhì)而言,這就是BP算法的全部內(nèi)容。然而,對人工神經(jīng)網(wǎng)絡(luò)問題而言,這一算法的具體形式是非常重要的,下面我們就來給出這一形式表達(dá)。最速下降法對每一個變量w_ij或w而言,這是一個連續(xù)可微36對于隱單元到輸出單元的權(quán)w_ij而言,最速下降法給出的每一步的修正量是可以看出,所有權(quán)的修正量都有如下形式指標(biāo)p對應(yīng)于兩個單元中輸出信號的一端,q對應(yīng)于輸入信號的一端,v或者代表H或者代表I。對于隱單元到輸出單元的權(quán)w_ij而言,最速下降法給出的每一37由實際輸出與理想輸出的差及決定,而則需依賴算出,因此,這一算法才稱為

向后傳播算法。利用這一迭代算法,最終生成在一定精度內(nèi)滿足要求的的過程,稱為人工神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過程??梢钥闯?,這里所提供的學(xué)習(xí)機(jī)制是元與元之間權(quán)的不斷調(diào)整,學(xué)習(xí)樣本中任何一個樣品所提供的信息,最終將包含在網(wǎng)絡(luò)的每一個權(quán)之中。參數(shù)h的大小則反映了學(xué)習(xí)效率。由實際輸出與理想輸出的差及決定,而則387.1賣方負(fù)責(zé)辦理將貨物運抵本標(biāo)書第二章“前附表”規(guī)定的交貨地點的一切運輸事項,相關(guān)費用應(yīng)包含在合同總價中。(5) 按本合同規(guī)定,及時向承包方支付各種費用。3、不合格氣瓶處理制度3、專職團(tuán)干部和在崗兼職團(tuán)(總)支部正副書記。3.一旦有改善時﹐就將情況拍下來﹐以時間先后次序張貼出來。但如果只言明“改善后拍照”的話﹐后續(xù)工作會十分麻煩﹐因此如果明白寫下一次定點攝影日期的話﹐目標(biāo)完成的時間就十分明確﹐且會造成必須在規(guī)定時間前將不好的地方加以改善的動機(jī)。4.3.1國家和公司關(guān)于安全生產(chǎn)和職業(yè)安全衛(wèi)生法律法規(guī);16.4在合同實施過程中,除非賣方違約,買方不得指定分包人。4.3.1國家和公司關(guān)于安全生產(chǎn)和職業(yè)安全衛(wèi)生法律法規(guī);【案例】用戶能否正確使用室內(nèi)智能系統(tǒng),是減少誤報警及延長設(shè)備使用壽命的關(guān)鍵,我們將對租戶通過提供詳細(xì)的使用操作指引、舉辦培訓(xùn)班、上門指導(dǎo)等多種形式,讓所有的租戶都能全面了解室內(nèi)智能化系統(tǒng)的各種功能并熟練操作。2.1貫徹執(zhí)行國家和上級有關(guān)健康、安全環(huán)境管理的方針、政策、法規(guī)和制度,對本站員工在生產(chǎn)過程中的健康、安全和環(huán)境管理負(fù)第一責(zé)任。7.1賣方負(fù)責(zé)辦理將貨物運抵本標(biāo)書第二章“前附表”規(guī)定394、蠓蟲分類問題求解clearp1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08];p2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.001.28,2.00;1.30,1.96];p=[p1;p2]';pr=minmax(p);goal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)];subplot(1,2,1)plot(p1(:,1),p1(:,2),'h',p2(:,1),p2(:,2),'o')subplot(1,2,2)net=newff(pr,[3,2],{'logsig','logsig'});net.trainParam.show=10;net.trainParam.lr=0.05;net.trainParam.epochs=3000;net.trainParam.goal=1e-10;net=train(net,p,goal);x=[1.241.80;1.281.84;1.402.04]';y0=sim(net,p)y=sim(net,x)4、蠓蟲分類問題求解clear40例2、人口預(yù)測

以下是從《北京統(tǒng)計年鑒》中得到的1980-2010年的北京城近郊區(qū)戶籍人口統(tǒng)計結(jié)果作為樣本數(shù)據(jù),建立人工神經(jīng)網(wǎng)絡(luò)模型,預(yù)測、2011年的北京城近郊區(qū)戶籍人口例2、人口預(yù)測

以下是從《北京統(tǒng)計年鑒》中得到的1980-41北京市人口數(shù)統(tǒng)計表:年份人數(shù)(萬人)年份人數(shù)(萬人)1980498.41996631.81981510.21997638.71982521.31998646.21983534.01999651.81984540.72000658.91985542.82001667.41986553.02002678.61987563.22003689.21988573.92004698.81989582.12005707.219905922006713.21991598.72007718.51992604.32008730.91993609.52009743.81994616.12010749.61995625.1北京市人口數(shù)統(tǒng)計表:年份人數(shù)(萬人)年份人數(shù)(萬人)198042數(shù)據(jù)處理后的樣本數(shù)據(jù):樣本用途樣本組數(shù)輸入一輸入二輸入三輸入四輸出學(xué)習(xí)樣本10.49840.51020.52130.5340.540720.51020.52130.5340.54070.542830.52130.5340.54070.54280.55340.5340.54070.54280.5530.563250.54070.54280.5530.56320.573960.54280.5530.56320.57390.582170.5530.56320.57390.58210.59280.56320.57390.58210.5920.598790.57390.58210.5920.59870.6043100.58210.5920.59870.60430.6095110.5920.59870.60430.60950.6161120.59870.60430.60950.61610.6251130.60430.60950.61610.62510.6318140.60950.61610.62510.63180.6387150.61610.62510.63180.63870.6462160.62510.63180.63870.64620.6518170.63180.63870.64620.65180.6589180.63870.64620.65180.65890.6674190.64620.65180.65890.66740.6786200.65180.65890.66740.67860.6892210.65890.66740.67860.68920.6988220.66740.67860.68920.69880.7072檢驗樣本230.67860.68920.69880.70720.7132240.68920.69880.70720.71320.7185250.69880.70720.71320.71850.7309260.70720.71320.71850.73090.7438270.71320.71850.73090.74380.7496數(shù)據(jù)處理后的樣本數(shù)據(jù):樣本用途樣本組數(shù)輸入一輸入二輸入三輸入43%樣本訓(xùn)練net=newff(minmax(p),[6,1],{'tansig','purelin'},'trainlm');%建立網(wǎng)絡(luò)inputWeights=net.IW{1,1};%當(dāng)前輸入層權(quán)值和閾值inputbias=net.b{1};layerWeights=net.LW{2,1};%當(dāng)前網(wǎng)絡(luò)層權(quán)值和閾值layerbias=net.b{2};%樣本訓(xùn)練44%網(wǎng)絡(luò)參數(shù)設(shè)置net.performFcn='mse';net.trainParam.show=20;net.trainParam.goal=1e-5;net.trainParam.epochs=1000;net.trainParam.lr=0.15;net.trainParam.mc=0.9;%網(wǎng)絡(luò)參數(shù)設(shè)置45net=train(net,p,t);%訓(xùn)練網(wǎng)絡(luò)y=sim(net,p);x=[1984:2005];plot(x,y,‘h',x,t,’*’)e=t-y;holdon;plot(x,e);%樣本檢驗y2=sim(net,p2);x=[1:5];plot(x,y2,'*');holdonplot(x,t2,'red');%預(yù)測樣本y3=sim(net,py);net=train(net,p,t);%訓(xùn)練網(wǎng)絡(luò)46數(shù)學(xué)建模神經(jīng)網(wǎng)絡(luò)建模數(shù)學(xué)建模神經(jīng)網(wǎng)絡(luò)建模471、神經(jīng)網(wǎng)絡(luò)簡介

人工神經(jīng)網(wǎng)絡(luò)是在現(xiàn)代神經(jīng)科學(xué)的基礎(chǔ)上發(fā)展起來的,旨在模擬人腦結(jié)構(gòu)以及功能的一種抽象的數(shù)學(xué)模型,其中Hopfield神經(jīng)網(wǎng)絡(luò)、ART神經(jīng)網(wǎng)絡(luò)、BP神經(jīng)網(wǎng)絡(luò)是常用的網(wǎng)絡(luò)。Hopfield神經(jīng)網(wǎng)絡(luò)是由相同的神經(jīng)元構(gòu)成的單元,是一類不具有學(xué)習(xí)能力的單層自聯(lián)想網(wǎng)絡(luò),她的網(wǎng)絡(luò)模型由一組可使某一個能量函數(shù)最小的微分方程組成。ART神經(jīng)網(wǎng)絡(luò)主要用于模式識別,她的不足之處在于對轉(zhuǎn)換、失真和規(guī)模變化較敏感BP神經(jīng)網(wǎng)絡(luò)是誤差反向傳播的多層前向網(wǎng)絡(luò),其信息處理機(jī)制由神經(jīng)元激活特性和網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)決定,神經(jīng)元的傳遞函數(shù)是非線性函數(shù),網(wǎng)絡(luò)結(jié)構(gòu)由輸入層、隱含層、輸出層組成,同層節(jié)點間無關(guān)聯(lián),異層節(jié)點前向連接。

1、神經(jīng)網(wǎng)絡(luò)簡介人工神經(jīng)網(wǎng)絡(luò)是在現(xiàn)代神經(jīng)科學(xué)的基礎(chǔ)上發(fā)展起481.1、人工神經(jīng)元模型人工神經(jīng)網(wǎng)絡(luò)的基本單元的神經(jīng)元模型1.1、人工神經(jīng)元模型人工神經(jīng)網(wǎng)絡(luò)的基本單元的神經(jīng)元模型49人工神經(jīng)元的三個要素人工神經(jīng)元的三個要素501.2激活(傳遞)函數(shù)的取法在Matlab工具箱里包括了許多激活(傳遞)函數(shù)。在“TransferFunctionGraphs”中可以找到它們的完全列表函數(shù)名功能purelin線性傳遞函數(shù)hardlim硬限幅遞函數(shù)hardlims對稱硬限幅遞函數(shù)satli飽和線性傳遞函數(shù)satlins對稱飽和線性傳遞函數(shù)logsig對數(shù)S形傳遞函數(shù)tansig正切S形傳遞函數(shù)radbas徑向基傳遞函數(shù)compet競爭層傳遞函數(shù)1.2激活(傳遞)函數(shù)的取法在Matlab工具箱里包括了許多51數(shù)學(xué)建模神經(jīng)網(wǎng)絡(luò)建模培訓(xùn)課件521.3、網(wǎng)絡(luò)結(jié)構(gòu)以及工作方式從連接方式看NN主要有兩種網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu):前饋型網(wǎng)絡(luò):結(jié)點分為輸入單元和計算單元反饋型網(wǎng)絡(luò):所有結(jié)點都是計算單元NN的工作過程主要分為兩個階段:第一階段:學(xué)習(xí)期,此時個計算單元狀態(tài)不變,各連線上的權(quán)值可通過學(xué)習(xí)來修改第二階段:工作期,此時各連接權(quán)值固定,計算各單元狀態(tài)變化1.3、網(wǎng)絡(luò)結(jié)構(gòu)以及工作方式從連接方式看NN主要有兩種網(wǎng)絡(luò)拓53網(wǎng)絡(luò)結(jié)構(gòu):前饋型神經(jīng)網(wǎng)絡(luò)

兩個或更多的上面所示的神經(jīng)元可以組合成一層,一個典型的網(wǎng)絡(luò)可包括一層或者多層。我們首先來研究神經(jīng)元層。單層神經(jīng)元網(wǎng)絡(luò)

有R輸入元素和S個神經(jīng)元組成的單層網(wǎng)絡(luò)如下圖所示n{1}=net.IW{1,1}*p+net.b{1}網(wǎng)絡(luò)結(jié)構(gòu):前饋型神經(jīng)網(wǎng)絡(luò)兩個或更多的上面所示的神經(jīng)元可以組54多層神經(jīng)元網(wǎng)絡(luò)

上面所示的網(wǎng)絡(luò)有R1個輸入,第一層有S1個神經(jīng)元,第二層有S2個神經(jīng)元…多層神經(jīng)元網(wǎng)絡(luò)上面所示的網(wǎng)絡(luò)有R1個輸入,第一層有S1個神55中間層的輸出就是下一層的輸入。第二層可看作有S1個輸入,S2個神經(jīng)元和S1xS2階權(quán)重矩陣W2的單層網(wǎng)絡(luò)。第二層的輸入是a1,輸出是a2,現(xiàn)在我們已經(jīng)確定了第二層的所有向量和矩陣,我們就能把它看成一個單層網(wǎng)絡(luò)了。其他層也可以照此步驟處理。

多層網(wǎng)絡(luò)的功能非常強(qiáng)大。例、一個兩層的網(wǎng)絡(luò),第一層的轉(zhuǎn)移函數(shù)是曲線函數(shù),第二層的轉(zhuǎn)移函數(shù)是線性函數(shù),通過訓(xùn)練,它能夠很好的模擬任何有有限斷點的函數(shù)。這種兩層網(wǎng)絡(luò)集中應(yīng)用于“反向傳播網(wǎng)絡(luò)”。

注意:我們把第三層的輸出a3標(biāo)記為y。我們將使用這種符號來定義這種網(wǎng)絡(luò)的輸出。

中間層的輸出就是下一層的輸入。第二層可看作有S1個輸入,S2561.4創(chuàng)建網(wǎng)絡(luò)newp創(chuàng)建感知器網(wǎng)絡(luò)newlind設(shè)計一線性層newlin創(chuàng)建一線性層newff創(chuàng)建一前饋BP網(wǎng)絡(luò)newcf創(chuàng)建一多層前饋BP網(wǎng)絡(luò)newfftd創(chuàng)建一前饋輸入延遲BP網(wǎng)絡(luò)newrb設(shè)計一徑向基網(wǎng)絡(luò)newrbe設(shè)計一嚴(yán)格的徑向基網(wǎng)絡(luò)newgrnn設(shè)計一廣義回歸神經(jīng)網(wǎng)絡(luò)newpnn設(shè)計一概率神經(jīng)網(wǎng)絡(luò)newc創(chuàng)建一競爭層newsom創(chuàng)建一自組織特征映射newhop創(chuàng)建一Hopfield遞歸網(wǎng)絡(luò)newelm創(chuàng)建一Elman遞歸網(wǎng)絡(luò)1.4創(chuàng)建網(wǎng)絡(luò)newp創(chuàng)建感知器網(wǎng)絡(luò)571.5數(shù)據(jù)結(jié)構(gòu):影響網(wǎng)絡(luò)仿真的輸入數(shù)據(jù)結(jié)構(gòu)的格式靜態(tài)網(wǎng)絡(luò)中的同步輸入仿真:例11.5數(shù)據(jù)結(jié)構(gòu):影響網(wǎng)絡(luò)仿真的輸入數(shù)據(jù)結(jié)構(gòu)的格式靜態(tài)網(wǎng)絡(luò)中的58動態(tài)網(wǎng)絡(luò)中的異步輸入仿真:當(dāng)網(wǎng)絡(luò)中存在延遲時,順序發(fā)生的輸入向量就要按一定的序列輸入網(wǎng)絡(luò)。為了演示這種情況,我們以一個有延遲的簡單網(wǎng)絡(luò)為例。

動態(tài)網(wǎng)絡(luò)中的異步輸入仿真:當(dāng)網(wǎng)絡(luò)中存在延遲時,順序發(fā)生的輸入591、堅持中國共產(chǎn)黨的領(lǐng)導(dǎo),堅持四項基本原則,積極參加各種政治理論學(xué)習(xí),入黨動機(jī)端正;5.7按規(guī)定認(rèn)真填寫各項記錄,做到資料齊全,數(shù)據(jù)準(zhǔn)確,不得弄虛作假。怎樣激勵員工?在管理學(xué)中有個“海豚理論”:海豚往下潛得越深,就跳得越高。如何讓自己的生命成就更高?怎樣才能升遷?怎樣才能獲得更好的獎勵?如果員工們認(rèn)真考慮這些問題,那么他們就要好好努力,爭取潛得越深,跳得越高。“客戶的難題就是我們的課題”服務(wù)要想做得好,就必須具備這樣的觀念和理念,沒有這種理念、心態(tài)和氣度,服務(wù)肯定是做不好的。三工轉(zhuǎn)換采用“績效管理,計量到位,績效連籌”的原則。這種管理方法能夠促使員工產(chǎn)生競爭心理,從而提高工作效率。競爭會促進(jìn)和改善生存質(zhì)量,要讓員工產(chǎn)生不安定、不安全的危機(jī)意識。為此,員工必須爭奪工作機(jī)會,工作起來就會更認(rèn)真。農(nóng)村相對貧困,店鋪經(jīng)營不穩(wěn)定。因此,針對農(nóng)村客戶設(shè)計了兩層型的冰柜,有兩個分離式的壓縮機(jī),省電的時候使用上層,里面的結(jié)構(gòu)非常簡單,降低成本和價格。這就是服務(wù)的策略,產(chǎn)品的設(shè)計能夠滿足顧客的細(xì)分化的技巧。服務(wù)人員的走姿4.7.3崗位安全操作規(guī)程,生產(chǎn)設(shè)備、安全裝置、勞動防護(hù)用品的性能及正確使用方法,事故案例【案例】動態(tài)網(wǎng)絡(luò)中的同步輸入仿真如果我們在上例中把輸入作為同步而不是異步應(yīng)用,我們就會得到完全不同的響應(yīng)。這就好象每一個輸入都同時加到一個單獨的并行網(wǎng)絡(luò)中。在前一個例子中,如果我們用一組同步輸入,我們有:p1=[1],p2=[2],p3=[3],p4=[4]這可用下列代碼創(chuàng)建:P=[1234];模擬這個網(wǎng)絡(luò),我們得到:A=sim(net,P)A=12341、堅持中國共產(chǎn)黨的領(lǐng)導(dǎo),堅持四項基本原則,積極參加各種政治60在某些特定的情況下,我們可能想要在同一時間模擬一些不同序列的網(wǎng)絡(luò)響應(yīng)。這種情況我們就要給網(wǎng)絡(luò)輸入一組同步序列。比如說,我們要把下面兩個序列輸入網(wǎng)絡(luò):p(1)=[1],p(2)=[2],p(3)=[3],p(4)=[4]p(1)=[4],p(2)=[3],p(3)=[2],p(4)=[1]輸入P應(yīng)該是一個細(xì)胞數(shù)組,每一個數(shù)組元素都包含了兩個同時發(fā)生的序列的元素。P={[14][23][32][41]};現(xiàn)在我們就可以模擬這個網(wǎng)絡(luò)了:A=sim(net,P);網(wǎng)絡(luò)輸出結(jié)果將是:A={[14][411][78][105]}可以看到,每個矩陣的第一列是由第一組輸入序列產(chǎn)生的輸出序列,每個矩陣的第二列是由第二組輸入序列產(chǎn)生的輸出序列。這兩組序列之間沒有關(guān)聯(lián),好象他們是同時應(yīng)用在單個的并行網(wǎng)絡(luò)上的。在某些特定的情況下,我們可能想要在同一時間模擬一些不同序列的61前面的討論中,不論是作為一個同步向量矩陣輸入還是作為一個異步向量細(xì)胞數(shù)組輸入,模擬的輸出值是一樣的。在訓(xùn)練網(wǎng)絡(luò)時,這是不對的。當(dāng)我們使用adapt函數(shù)時,如果輸入是異步向量細(xì)胞數(shù)組,那么權(quán)重將在每一組輸入提交的時候更新(就是增加方式);如果輸入是同步向量矩陣,那么權(quán)重將只在所有輸入提交的時候更新(就是批處理方式)。前面的討論中,不論是作為一個同步向量矩陣輸621.6訓(xùn)練方式

兩種不同的訓(xùn)練方式

(1)增加方式:每提交一次輸入數(shù)據(jù),網(wǎng)絡(luò)權(quán)重和偏置都更新一次;

(2)在批處理方式中:僅僅當(dāng)所有的輸入數(shù)據(jù)都被提交以后,網(wǎng)絡(luò)權(quán)重和偏置才被更新.增加方式(應(yīng)用于自適應(yīng)網(wǎng)絡(luò)和其他網(wǎng)絡(luò))雖然增加方式更普遍的應(yīng)用于動態(tài)網(wǎng)絡(luò),比如自適應(yīng)濾波,但是在靜態(tài)和動態(tài)網(wǎng)絡(luò)中都可以應(yīng)用它。1.6訓(xùn)練方式兩種不同的訓(xùn)練方式

(1)增加方式:每提交一63靜態(tài)網(wǎng)絡(luò)中的增加方式

用增加方式來訓(xùn)練靜態(tài)同步仿真中的例1,這樣每提交一次輸入數(shù)據(jù),網(wǎng)絡(luò)權(quán)重和偏置都更新一次。在此我們用函數(shù)adapt,并給出輸入和目標(biāo)序列:假定我們要訓(xùn)練網(wǎng)絡(luò)建立以下線性函數(shù):t=2p1+p2.我們的輸入是:目標(biāo)輸出是:t1=[4],t2=[5],t3=[7],t4=[7]首先用0初始化權(quán)重和偏置。為了顯示增加方式的效果,先把學(xué)習(xí)速度也設(shè)為0。net=newlin([-11;-11],1,0,0);net.IW{1,1}=[00];net.b{1}=0;為了用增加方式,我們把輸入和目標(biāo)輸出表示為以下序列:P={[1;2][2;1][2;3][3;1]};T={4577};靜態(tài)網(wǎng)絡(luò)中的增加方式用增加方式來訓(xùn)練靜態(tài)同步仿真中的例1,64用增加方式訓(xùn)練網(wǎng)絡(luò):net=newlin([-11;-11],1,0,0);net.IW{1,1}=[00];net.b{1}=0;P={[1;2][2;1][2;3][3;1]};T={4577};[net,a,e,pf]=adapt(net,P,T);由于學(xué)習(xí)速度為0,網(wǎng)絡(luò)輸出仍然為0,并且權(quán)重沒有被更新。錯誤和目標(biāo)輸出相等。a=[0][0][0][0]e=[4][5][7][7]如果我們設(shè)置學(xué)習(xí)速度為0.1,我們就能夠看到當(dāng)每一組輸入提交時,網(wǎng)絡(luò)是怎么調(diào)整的了。net.inputWeights{1,1}.learnParam.lr=0.1;net.biases{1,1}.learnParam.lr=0.1;[net,a,e,pf]=adapt(net,P,T);a=[0][2][6.0][5.8]e=[4][3][1.0][1.2]用增加方式訓(xùn)練網(wǎng)絡(luò):652、BP神經(jīng)網(wǎng)絡(luò)2.1、概述BP網(wǎng)絡(luò)是采用Widrow-Hoff學(xué)習(xí)算法和非線性可微轉(zhuǎn)移函數(shù)的多層網(wǎng)絡(luò)。一個典型的BP網(wǎng)絡(luò)采用的是梯度下降算法,也就是Widrow-Hoff算法所規(guī)定的。backpropagation就是指的為非線性多層網(wǎng)絡(luò)計算梯度的方法?,F(xiàn)在有許多基本的優(yōu)化算法,例如變尺度算法和牛頓算法。神經(jīng)網(wǎng)絡(luò)工具箱提供了許多這樣的算法。一個經(jīng)過訓(xùn)練的BP網(wǎng)絡(luò)能夠根據(jù)輸入給出合適的結(jié)果,雖然這個輸入并沒有被訓(xùn)練過。這個特性使得BP網(wǎng)絡(luò)很適合采用輸入/目標(biāo)對進(jìn)行訓(xùn)練,而且并不需要把所有可能的輸入/目標(biāo)對都訓(xùn)練過。為了提高網(wǎng)絡(luò)的適用性,神經(jīng)網(wǎng)絡(luò)工具箱提供了兩個特性--規(guī)則化和早期停止。2、BP神經(jīng)網(wǎng)絡(luò)2.1、概述662.2、基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)

1)常用的前饋型BP網(wǎng)絡(luò)的轉(zhuǎn)移函數(shù)有l(wèi)ogsig,tansig有時也會用到線性函數(shù)purelin。當(dāng)網(wǎng)絡(luò)的最后一層采用曲線函數(shù)時輸出被限制在一個很小的范圍內(nèi),如果采用線性函數(shù)則輸出可為任意值。如果需要也可以創(chuàng)建其他可微的轉(zhuǎn)移函數(shù)。

2)在BP網(wǎng)絡(luò)中,轉(zhuǎn)移函數(shù)可求導(dǎo)是非常重要的,tansig、logsig和purelin都有對應(yīng)的導(dǎo)函數(shù)dtansig、dlogsig和dpurelin。為了得到更多轉(zhuǎn)移函數(shù)的導(dǎo)函數(shù),可以輸入

tansig(‘deriv’)

ans=dtansig

2.2、基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)

1)常用的前饋型BP網(wǎng)絡(luò)的轉(zhuǎn)移函67網(wǎng)絡(luò)構(gòu)建和初始化訓(xùn)練前饋網(wǎng)絡(luò)的第一步是建立網(wǎng)絡(luò)對象。函數(shù)newff建立一個可訓(xùn)練的前饋網(wǎng)絡(luò)。net=newff(PR,[S1S2...SNl],{TF1TF2...TFNl},BTF,BLF,PF)這里需要4個輸入?yún)?shù)。第一個參數(shù)是一個RxS1的矩陣以定義R個輸入向量的最小值和最大值。第二個參數(shù)是一個每層神經(jīng)元個數(shù)的數(shù)組。第三個參數(shù)是包含每層用到的轉(zhuǎn)移函數(shù)名稱的細(xì)胞數(shù)組。最后一個參數(shù)是用到的訓(xùn)練函數(shù)的名稱。網(wǎng)絡(luò)構(gòu)建和初始化訓(xùn)練前饋網(wǎng)絡(luò)的第一步是建立網(wǎng)絡(luò)對象。68例、創(chuàng)建一個二層網(wǎng)絡(luò)它的輸入是兩個元素的向量,第一層有四個神經(jīng)元,第二層有三個神經(jīng)元。第一層的轉(zhuǎn)移函數(shù)是tan-sigmoid,輸出層的轉(zhuǎn)移函數(shù)是linear。輸入向量的第一個元素的范圍是-1到2,輸入向量的第二個元素的范圍是0到5,訓(xùn)練函數(shù)是=newff([-12;05],[4,3],{‘tansig’,‘purelin’},‘traingd’);這個命令建立了網(wǎng)絡(luò)對象并且初始化了網(wǎng)絡(luò)權(quán)重和偏置,因此網(wǎng)絡(luò)就可以進(jìn)行訓(xùn)練了。例、創(chuàng)建一個二層網(wǎng)絡(luò)它的輸入是兩個元素的向量,第一層有四個神69在訓(xùn)練前饋網(wǎng)絡(luò)之前,權(quán)重和偏置必須被初始化。初始化權(quán)重和偏置的工作用命令init來實現(xiàn)。

net=init(net);

對前饋網(wǎng)絡(luò)來說,有兩種不同的初始化方式經(jīng)常被用到:initwb和initnw。

1)initwb函數(shù)根據(jù)每一層自己的初始化參數(shù)(net.inputWeights{i,j}.initFcn)初始化權(quán)重矩陣和偏置。前饋網(wǎng)絡(luò)的初始化權(quán)重通常設(shè)為rands,它使權(quán)重在-1到1之間隨機(jī)取值值,這種方式經(jīng)常用在轉(zhuǎn)換函數(shù)是線性函數(shù)時。

2)initnw通常用于轉(zhuǎn)換函數(shù)是曲線函數(shù)。它根據(jù)Nguyen和Widrow[NgWi90]為層產(chǎn)生初始權(quán)重和偏置值,使得每層神經(jīng)元的活動區(qū)域能大致平坦的分布在輸入空間。它比起單純的給權(quán)重和偏置隨機(jī)賦值有以下優(yōu)點:(1)減少神經(jīng)元的浪費(因為所有神經(jīng)元的活動區(qū)域都在輸入空間內(nèi))。(2)有更快的訓(xùn)練速度(因為輸入空間的每個區(qū)域都在活動的神經(jīng)元范圍中)。

在訓(xùn)練前饋網(wǎng)絡(luò)之前,權(quán)重和偏置必須被初始化。初始化權(quán)重和偏置70初始化函數(shù)被newff所調(diào)用。因此當(dāng)網(wǎng)絡(luò)創(chuàng)建時,它根據(jù)缺省的參數(shù)自動初始化。init不需要單獨的調(diào)用??墒俏覀兛赡芤匦鲁跏蓟瘷?quán)重和偏置或者進(jìn)行自定義的初始化。例如,我們用newff創(chuàng)建的網(wǎng)絡(luò),它缺省用initnw來初始化第一層。如果我們想要用rands重新初始化第一層的權(quán)重和偏置,我們用以下命令:net.layers{1}.initFcn='initwb';net.inputWeights{1,1}.initFcn='rands';net.biases{1,1}.initFcn='rands';net.biases{2,1}.initFcn='rands';net=init(net);初始化函數(shù)被newff所調(diào)用。因此當(dāng)網(wǎng)絡(luò)創(chuàng)建716.1檢查增壓后的管道是否有泄漏現(xiàn)象,及時處理漏點。顧客滿意是任何企業(yè)的核心價值,企業(yè)只有努力提供自身的服務(wù)能力,才能提高市場競爭力。服務(wù)能力的提高,有賴于顧客滿意服務(wù)策略和制度的規(guī)劃與執(zhí)行。沒有全面顧客服務(wù)制度的建立,相應(yīng)的技術(shù)執(zhí)行也就失去了方向。4、容器的使用管理第一條推薦優(yōu)秀青年作為黨的發(fā)展對象(簡稱“推優(yōu)入黨”)是黨賦予共青團(tuán)組織的一項光榮任務(wù),是共青團(tuán)發(fā)揮黨的助手和后備軍作用的有力體現(xiàn)。為更好的發(fā)揮團(tuán)組織的推優(yōu)薦才作用,不斷為黨組織輸送新鮮血液,根據(jù)《中國共產(chǎn)主義青年團(tuán)章程》有關(guān)規(guī)定,按照“黨建帶團(tuán)建”的工作要求,制定本辦法。那么這樣的訓(xùn)練結(jié)束之后,接受培訓(xùn)的人員的慣性是否真的發(fā)生了改變呢?據(jù)了解,總經(jīng)理將全部市場四十幾個專柜統(tǒng)和起來舉辦服務(wù)競賽,最后出現(xiàn)了意想不到的成果。那些接受培訓(xùn)的人員開始自發(fā)地自費接受培訓(xùn),因為他們發(fā)現(xiàn)培訓(xùn)很有意義,能夠幫助他們成長。(二)團(tuán)組織申報。擬進(jìn)行換屆的團(tuán)組織,向同級黨組織和上級團(tuán)委提出開展競爭上崗的申請,經(jīng)同意后按照領(lǐng)導(dǎo)小組辦公室的統(tǒng)一安排組織實施。監(jiān)督機(jī)制是實現(xiàn)物業(yè)管理各項工作開展的必要外在約束條件,防止或糾正工作中出現(xiàn)的偏差。保證管理機(jī)構(gòu)及其工作人員依法辦事。9.4.6成交供應(yīng)商未交納成交服務(wù)費的。5.2.7使用部門負(fù)責(zé)編制適用的統(tǒng)計報表,按規(guī)定向有關(guān)部門報送統(tǒng)計結(jié)果;30.2投標(biāo)人對澄清問題的說明或答復(fù),應(yīng)以書面形式提交給招標(biāo)代理機(jī)構(gòu),并應(yīng)由投標(biāo)人的法定代表人或法定代表人授權(quán)代表簽字或加蓋投標(biāo)人印章。第八條符合競爭上崗條件的人員要積極參與競爭上崗,通過競爭上崗提高素質(zhì)、增強(qiáng)能力、展示才華。(1)如果賣方未能在合同規(guī)定的時間內(nèi)或未能在買方同意延長的時間內(nèi)提供部分或全部貨物及服務(wù)。網(wǎng)絡(luò)模擬(SIM)

用函數(shù)sim模擬一個網(wǎng)絡(luò)。sim接收網(wǎng)絡(luò)輸入p,網(wǎng)絡(luò)對象net,返回網(wǎng)絡(luò)輸出a,這里是simuff用來模擬上面建立的帶一個輸入向量的網(wǎng)絡(luò)。p=[1;2];a=sim(net,p)a=-0.1011(用這段代碼得到的輸出是不一樣的,這是因為網(wǎng)絡(luò)初始化是隨機(jī)的。)例、調(diào)用sim來計算一個同步輸入3向量網(wǎng)絡(luò)的輸出:p=[132;241];a=sim(net,p)a=-0.1011-0.23080.49556.1檢查增壓后的管道是否有泄漏現(xiàn)象,及時處理漏點。網(wǎng)絡(luò)模擬72網(wǎng)絡(luò)訓(xùn)練一旦網(wǎng)絡(luò)加權(quán)和偏差被初始化,網(wǎng)絡(luò)就可以開始訓(xùn)練了。我們能夠訓(xùn)練網(wǎng)絡(luò)來做函數(shù)近似(非線性后退),模式結(jié)合,或者模式分類。訓(xùn)練處理需要一套適當(dāng)?shù)木W(wǎng)絡(luò)操作的例子--網(wǎng)絡(luò)輸入p和目標(biāo)輸出t。在訓(xùn)練期間網(wǎng)絡(luò)的加權(quán)和偏差不斷的把網(wǎng)絡(luò)性能函數(shù)net.performFcn減少到最小。前饋網(wǎng)絡(luò)的缺省性能函數(shù)是均方誤差mse--網(wǎng)絡(luò)輸出和目標(biāo)輸出t之間的均方誤差。網(wǎng)絡(luò)訓(xùn)練一旦網(wǎng)絡(luò)加權(quán)和偏差被初始化,網(wǎng)絡(luò)就可以開始訓(xùn)練了。73反向傳播算法反向傳播學(xué)習(xí)算法最簡單的應(yīng)用是沿著性能函數(shù)最速增加的方向--梯度的負(fù)方向更新權(quán)重和偏置。這種遞歸算法可以寫成:xk+1=xk-ak*gk這里xk是當(dāng)前權(quán)重和偏置向量,gk是當(dāng)前梯度,ak是學(xué)習(xí)速率。有兩種不同的辦法實現(xiàn)梯度下降算法:增加模式和批處理模式。在增加模式中,網(wǎng)絡(luò)輸入每提交一次,梯度計算一次并更新權(quán)重。在批處理模式中,當(dāng)所有的輸入都被提交后網(wǎng)絡(luò)才被更新。反向傳播算法反向傳播學(xué)習(xí)算法最簡單的應(yīng)用是沿著性能函數(shù)最速74增加模式訓(xùn)練法(ADAPT)現(xiàn)在我們就可以開始訓(xùn)練網(wǎng)絡(luò)了。當(dāng)然我們要指定輸入值和目標(biāo)值如下所示:p=[-1-122;0505];t=[-1-111];如果我們要在每一次提交輸入后都更新權(quán)重,那么我們需要將輸入矩陣和目標(biāo)矩陣轉(zhuǎn)變?yōu)榧?xì)胞數(shù)組。每一個細(xì)胞都是一個輸入或者目標(biāo)向量。p=num2cell(p,1);t=num2cell(t,1);現(xiàn)在就可以用adapt來實現(xiàn)增加方式訓(xùn)練了:[net,a,e]=adapt(net,p,t);訓(xùn)練結(jié)束以后,就可以模擬網(wǎng)絡(luò)輸出來檢驗訓(xùn)練質(zhì)量了。a=sim(net,p)a=[-0.9995][-1.0000][1.0001][1.0000]增加模式訓(xùn)練法(ADAPT)現(xiàn)在我們就可以開始訓(xùn)練網(wǎng)絡(luò)了。75帶動力的梯度下降(LEARDGDM)

批處理訓(xùn)練方式批處理梯度下降法(TRAINGD)

帶動量的批處理梯度下降法(批處理訓(xùn)練方式TRAINGDM)帶動力的梯度下降(LEARDGDM)

76例1、蠓蟲分類問題1、蠓蟲分類問題生物學(xué)家試圖對兩種蠓蟲(Af與Apf)進(jìn)行鑒別,依據(jù)的資料是觸角和翅膀的長度,已經(jīng)測得了9支Af和6支Apf的數(shù)據(jù)如下:Af:(1.24,1.27),(1.36,1.74),(1.38,1.64),(1.38,1.82),(1.38,1.90),(1.40,1.70),(1.48,1.82),(1.54,1.82),(1.56,2.08);Apf:(1.14,1.82),(1.18,1.96),(1.20,1.86),(1.26,2.00),(1.28,2.00),(1.30,1.96).(i)根據(jù)如上資料,如何制定一種方法,正確地區(qū)分兩類蠓蟲。(ii)對觸角和翼長分別為(1.24,1.80),(1.28,1.84)與(1.40,2.04)的3個標(biāo)本,用所得到的方法加以識別。(iii)設(shè)Af是寶貴的傳粉益蟲,Apf是某疾病的載體,是否應(yīng)該修改分類方法。例1、蠓蟲分類問題1、蠓蟲分類問題77問題分析:要求依據(jù)已知資料(9支Af的數(shù)據(jù)和6支Apf的數(shù)據(jù))制定一種分類方法,類別是已經(jīng)給定的(Af或Apf)。我們將9支Af及6支Apf的數(shù)據(jù)集合稱之為學(xué)習(xí)樣本。

2多層前饋網(wǎng)絡(luò)

為解決此問題,考慮一個其結(jié)構(gòu)如下圖所示的人工神經(jīng)網(wǎng)絡(luò)輸入層輸出層中間層(隱層)問題分析:要求依據(jù)已知資料(9支Af的數(shù)據(jù)和6支Apf的數(shù)據(jù)78以s=1,2,,15,分別表示學(xué)習(xí)樣本中的15個樣品,對樣品s而言,對任何一組確定的輸入I_k^s(k=1,2)隱單元j的輸入是

相應(yīng)的輸出狀態(tài)是

網(wǎng)絡(luò)的最終輸出是以s=1,2,,15,分別表示學(xué)習(xí)樣本中的15個樣品,79對于任何一組確定的輸入,輸出是所有權(quán)的函數(shù)。如果我們能夠選定一組適當(dāng)?shù)臋?quán)值,使得對應(yīng)于學(xué)習(xí)樣本中任何一組Af樣品的輸入,輸出為(1,0),對應(yīng)于Apf的輸入數(shù)據(jù),輸出為(0,1),那么蠓蟲分類問題實際上就解決了。因為,對于任何一個未知類別的樣品,只要將其觸角及翅膀長度輸入網(wǎng)絡(luò),視其輸出模式靠近(1,0)亦或(0,1),就可能判斷其歸屬。當(dāng)然,有可能出現(xiàn)介于中間無法判斷的情況。

現(xiàn)在的問題是,如何找到一組適當(dāng)?shù)臋?quán)值,實現(xiàn)上面所設(shè)想的網(wǎng)絡(luò)功能。對于任何一組確定的輸入,輸出是所有權(quán)的函803向后傳播算法

在1985年,美國加州大學(xué)的一個研究小組提出了所謂向后傳播算法(Back-Propagation)。

我們希望對應(yīng)于學(xué)習(xí)樣本中Af樣品的輸出是(1,0),對應(yīng)于Apf的輸出是(0,1),這樣的輸出稱之為理想輸出。實際上要精確地作到這一點是不可能的,只能希望實際輸出盡可能地接近理想輸出。為清楚起見,把對應(yīng)于樣品s的理想輸出記為,

度量了在一組給定的權(quán)下,實際輸出與理想輸出的差異,由此,尋找一組恰當(dāng)?shù)臋?quán)的問題,自然地歸結(jié)為求適當(dāng)W的值,使E(W)達(dá)到極小的問題3向后傳播算法

在1985年,美國加州大學(xué)的一個研究小組提81最速下降法對每一個變量w_ij或w而言,這是一個連續(xù)可微的非線性函數(shù),為了求得其極小點與極小值,最為方便的就是使用最速下降法。最速下降法是一種迭代算法,為求出E(W)的(局部)極小,它從一個任取的初始點W_0出發(fā),計算在W_0點的負(fù)梯度方向,這是函數(shù)在該點下降最快的方向;只要,就可沿該方向移動一小段距離,達(dá)到一個新的點。不斷重復(fù)這一過程,一定能達(dá)到E的一個(局部)極小點。就本質(zhì)而言,這就是BP算法的全部內(nèi)容。然而,對人工神經(jīng)網(wǎng)絡(luò)問題而言,這一算法的具體形式是非常重要的,下面我們就來給出這一形式表達(dá)。最速下降法對每一個變量w_ij或w而言,這是一個連續(xù)可微82對于隱單元到輸出單元的權(quán)w_ij而言,最速下降法給出的每一步的修正量是可以看出,所有權(quán)的修正量都有如下形式指標(biāo)p對應(yīng)于兩個單元中輸出信號的一端,q對應(yīng)于輸入信號的一端,v或者代表H或者代表I。對于隱單元到輸出單元的權(quán)w_ij而言,最速下降法給出的每一83由實際輸出與理想輸出的差及決定,而則需依賴算出,因此,這一算法才稱為

向后傳播算法。利用這一迭代算法,最終生成在一定精度內(nèi)滿足要求的的過程,稱為人工神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過程。可以看出,這里所提供的學(xué)習(xí)機(jī)制是元與元之間權(quán)的不斷調(diào)整,學(xué)習(xí)樣本中任何一個樣品所提供的信息,最終將包含在網(wǎng)絡(luò)的每一個權(quán)之中。參數(shù)h的大小則反映了學(xué)習(xí)效率。由實際輸出與理想輸出的差及決定,而則847.1賣方負(fù)責(zé)辦理將貨物運抵本標(biāo)書第二章“前附表”規(guī)定的交貨地點的一切運輸事項,相關(guān)費用應(yīng)包含在合同總價中。(5) 按本合同規(guī)定,及時向承包方支付各種費用。3、不合格氣瓶處理制度3、專職團(tuán)干部和在崗兼職團(tuán)(總)支部正副書記。3.一旦有改善時﹐就將情況拍下來﹐以時間先后次序張貼出來。但如果只言明“改善后拍照”的話﹐后續(xù)工作會十分麻煩﹐因此如果明白寫下一次定點攝影日期的話﹐目標(biāo)完成的時間就十分明確﹐且會造成必須在規(guī)定時間前將不好的地方加以改善的動機(jī)。4.3.1國家和公司關(guān)于安全生產(chǎn)和職業(yè)安全衛(wèi)生法律法規(guī);16.4在合同實施過程中,除非賣方違約,買方不得指定分包人。4.3.1國家和公司關(guān)于安全生產(chǎn)和職業(yè)安全衛(wèi)生法律法規(guī);【案例】用戶能否正確使用室內(nèi)智能系統(tǒng),是減少誤報警及延長設(shè)備使用壽命的關(guān)鍵,我們將對租戶通過提供詳細(xì)的使用操作指引、舉辦培訓(xùn)班、上門指導(dǎo)等多種形式,讓所有的租戶都能全面了解室內(nèi)智能化系統(tǒng)的各種功能并熟練操作。2.1貫徹執(zhí)行國家和上級有關(guān)健康、安全環(huán)境管理的方針、政策、法規(guī)和制度,對本站員工在生產(chǎn)過程中的健康、安全和環(huán)境管理負(fù)第一責(zé)任。7.1賣方負(fù)責(zé)辦理將貨物運抵本標(biāo)書第二章“前附表”規(guī)定854、蠓蟲分類問題求解clearp1=[1.24,1.27;1.36,1.74;1.38,1.

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論