變頻系統(tǒng)的選擇_第1頁
變頻系統(tǒng)的選擇_第2頁
變頻系統(tǒng)的選擇_第3頁
變頻系統(tǒng)的選擇_第4頁
變頻系統(tǒng)的選擇_第5頁
已閱讀5頁,還剩45頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

變頻系統(tǒng)的選擇第一頁,共五十頁,2022年,8月28日4.1人工神經(jīng)元模型人工神經(jīng)元是對人或其它生物的神經(jīng)元細(xì)胞的若干基本特性的抽象和模擬。

生物神經(jīng)元模型生物神經(jīng)元主要由細(xì)胞體、樹突和軸突組成,樹突和軸突負(fù)責(zé)傳入和傳出信息,興奮性的沖動(dòng)沿樹突抵達(dá)細(xì)胞體,在細(xì)胞膜上累積形成興奮性電位;相反,抑制性沖動(dòng)到達(dá)細(xì)胞膜則形成抑制性電位。兩種電位進(jìn)行累加,若代數(shù)和超過某個(gè)閾值,神經(jīng)元將產(chǎn)生沖動(dòng)。

第二頁,共五十頁,2022年,8月28日4.1人工神經(jīng)元模型人工神經(jīng)元模型模仿生物神經(jīng)元產(chǎn)生沖動(dòng)的過程,可以建立一個(gè)典型的人工神經(jīng)元數(shù)學(xué)模型[x1,…,xn]T為輸入向量,y為輸出,f(·)為激發(fā)函數(shù),θ為閾值。Wi為神經(jīng)元與其它神經(jīng)元的連接強(qiáng)度,也稱權(quán)值。第三頁,共五十頁,2022年,8月28日4.1人工神經(jīng)元模型常用的激發(fā)函數(shù)f的種類:1)閾值型函數(shù)第四頁,共五十頁,2022年,8月28日4.1人工神經(jīng)元模型2)飽和型函數(shù)3)雙曲函數(shù)第五頁,共五十頁,2022年,8月28日4.1人工神經(jīng)元模型4)S型函數(shù)5)高斯函數(shù)第六頁,共五十頁,2022年,8月28日4.2神經(jīng)網(wǎng)絡(luò)的定義和特點(diǎn)神經(jīng)網(wǎng)絡(luò)系統(tǒng)是由大量的神經(jīng)元,通過廣泛地互相連接而形成的復(fù)雜網(wǎng)絡(luò)系統(tǒng)。

定義

特點(diǎn)(1)非線性映射逼近能力。任意的連續(xù)非線性函數(shù)映射關(guān)系可由多層神經(jīng)網(wǎng)絡(luò)以任意精度加以逼近。(2)自適應(yīng)性和自組織性。神經(jīng)元之間的連接具有多樣性,各神經(jīng)元之間的連接強(qiáng)度具有可塑性,網(wǎng)絡(luò)可以通過學(xué)習(xí)與訓(xùn)練進(jìn)行自組織,以適應(yīng)不同信息處理的要求。(3)并行處理性。網(wǎng)絡(luò)的各單元可以同時(shí)進(jìn)行類似的處理過程,整個(gè)網(wǎng)絡(luò)的信息處理方式是大規(guī)模并行的,可以大大加快對信息處理的速度。(4)分布存儲(chǔ)和容錯(cuò)性。信息在神經(jīng)網(wǎng)絡(luò)內(nèi)的存儲(chǔ)按內(nèi)容分布于許多神經(jīng)元中,而且每個(gè)神經(jīng)元存儲(chǔ)多種信息的部分內(nèi)容。網(wǎng)絡(luò)的每部分對信息的存儲(chǔ)具有等勢作用,部分的信息丟失仍可以使完整的信息得到恢復(fù),因而使網(wǎng)絡(luò)具有容錯(cuò)性和聯(lián)想記憶功能。(5)便于集成實(shí)現(xiàn)和計(jì)算模擬。神經(jīng)網(wǎng)絡(luò)在結(jié)構(gòu)上是相同神經(jīng)元的大規(guī)模組合,特別適合于用大規(guī)模集成電路實(shí)現(xiàn)。第七頁,共五十頁,2022年,8月28日4.3感知器模型感知器(Perceptron)是由美國學(xué)者F.Rosenblatt于1957年提出的,它是一個(gè)具有單層計(jì)算單元的神經(jīng)網(wǎng)絡(luò),并由線性閾值元件組成。

激發(fā)函數(shù)為閾值型函數(shù),當(dāng)其輸入的加權(quán)和大于或等于閾值時(shí),輸出為1,否則為0或-1。它的權(quán)系W可變,這樣它就可以學(xué)習(xí)。

感知器的結(jié)構(gòu)第八頁,共五十頁,2022年,8月28日4.3感知器模型感知器的學(xué)習(xí)算法為方便起見,將閾值θ(它也同樣需要學(xué)習(xí))并入W中,令Wn+1=-θ,X向量也相應(yīng)地增加一個(gè)分量xn+1=1,則學(xué)習(xí)算法:①給定初始值:賦給Wi(0)各一個(gè)較小的隨機(jī)非零值,這里Wi(t)為t時(shí)刻第i個(gè)輸入的權(quán)(1≤i≤n),Wn+1(t)為t時(shí)刻的閾值;

②輸入一樣本X=(xi,…,xn,1)和它的希望輸出d;

③計(jì)算實(shí)際輸出④修正權(quán)W:

Wi(t+1)=Wi(t)+η[d-Y(t)]xi,i=1,2,…,n+1

⑤轉(zhuǎn)到②直到W對一切樣本均穩(wěn)定不變?yōu)橹埂?/p>

第九頁,共五十頁,2022年,8月28日4.3感知器模型根據(jù)某樣本訓(xùn)練時(shí),均方差隨訓(xùn)練次數(shù)的收斂情況第十頁,共五十頁,2022年,8月28日4.4神經(jīng)網(wǎng)絡(luò)的構(gòu)成和分類

構(gòu)成

從Perceptron模型可以看出神經(jīng)網(wǎng)絡(luò)通過一組狀態(tài)方程和一組學(xué)習(xí)方程加以描述。狀態(tài)方程描述每個(gè)神經(jīng)元的輸入、輸出、權(quán)值間的函數(shù)關(guān)系。學(xué)習(xí)方程描述權(quán)值應(yīng)該怎樣修正。神經(jīng)網(wǎng)絡(luò)通過修正這些權(quán)值來進(jìn)行學(xué)習(xí),從而調(diào)整整個(gè)神經(jīng)網(wǎng)絡(luò)的輸入輸出關(guān)系。分類

(1)從結(jié)構(gòu)上劃分

通常所說的網(wǎng)絡(luò)結(jié)構(gòu),主要是指它的聯(lián)接方式。神經(jīng)網(wǎng)絡(luò)從拓?fù)浣Y(jié)構(gòu)上來說,主要分為層狀和網(wǎng)狀結(jié)構(gòu)。

第十一頁,共五十頁,2022年,8月28日4.4神經(jīng)網(wǎng)絡(luò)的構(gòu)成和分類①層狀結(jié)構(gòu):網(wǎng)絡(luò)由若干層組成,每層中有一定數(shù)量的神經(jīng)元,相鄰層中神經(jīng)元單向聯(lián)接,一般同層內(nèi)神經(jīng)元不能聯(lián)接。前向網(wǎng)絡(luò):只有前后相鄰兩層之間神經(jīng)元相互聯(lián)接,各神經(jīng)元之間沒有反饋。每個(gè)神經(jīng)元從前一層接收輸入,發(fā)送輸出給下一層。

第十二頁,共五十頁,2022年,8月28日4.4神經(jīng)網(wǎng)絡(luò)的構(gòu)成和分類②網(wǎng)狀結(jié)構(gòu):網(wǎng)絡(luò)中任何兩個(gè)神經(jīng)元之間都可能雙向聯(lián)接。反饋網(wǎng)絡(luò):從輸出層到輸入層有反饋,每一個(gè)神經(jīng)元同時(shí)接收外來輸入和來自其它神經(jīng)元的反饋輸入,其中包括神經(jīng)元輸出信號(hào)引回自身輸入的自環(huán)反饋。

混合型網(wǎng)絡(luò):前向網(wǎng)絡(luò)的同一層神經(jīng)元之間有互聯(lián)的網(wǎng)絡(luò)。第十三頁,共五十頁,2022年,8月28日4.4神經(jīng)網(wǎng)絡(luò)的構(gòu)成和分類(2)從激發(fā)函數(shù)的類型上劃分

高斯基函數(shù)神經(jīng)網(wǎng)絡(luò)、小波基函數(shù)神經(jīng)網(wǎng)絡(luò)、樣條基函數(shù)神經(jīng)網(wǎng)絡(luò)等等

(3)從網(wǎng)絡(luò)的學(xué)習(xí)方式上劃分①有導(dǎo)師學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)為神經(jīng)網(wǎng)絡(luò)提供樣本數(shù)據(jù),對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,使網(wǎng)絡(luò)的輸入輸出關(guān)系逼近樣本數(shù)據(jù)的輸入輸出關(guān)系。②有導(dǎo)師學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)不為神經(jīng)網(wǎng)絡(luò)提供樣本數(shù)據(jù),學(xué)習(xí)過程中網(wǎng)絡(luò)自動(dòng)將輸入數(shù)據(jù)的特征提取出來。(4)從學(xué)習(xí)算法上來劃分:基于BP算法的網(wǎng)絡(luò)、基于Hebb算法的網(wǎng)絡(luò)、基于競爭式學(xué)習(xí)算法的網(wǎng)絡(luò)、基于遺傳算法的網(wǎng)絡(luò)。第十四頁,共五十頁,2022年,8月28日4.4多層前向BP神經(jīng)網(wǎng)絡(luò)最早由werbos在1974年提出的,1985年由Rumelhart再次進(jìn)行發(fā)展。

多層前向神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)多層前向神經(jīng)網(wǎng)絡(luò)由輸入層、隱層(不少于1層)、輸出層組成,信號(hào)沿輸入——>輸出的方向逐層傳遞。第十五頁,共五十頁,2022年,8月28日4.4多層前向BP神經(jīng)網(wǎng)絡(luò)沿信息的傳播方向,給出網(wǎng)絡(luò)的狀態(tài)方程,用Inj(i),Outj(i)表示第i層第j個(gè)神經(jīng)元的輸入和輸出,則各層的輸入輸出關(guān)系可描述為:第一層(輸入層):將輸入引入網(wǎng)絡(luò)第二層(隱層)第三層(輸出層)第十六頁,共五十頁,2022年,8月28日4.4多層前向BP神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)

學(xué)習(xí)的基本思想是:誤差反傳算法調(diào)整網(wǎng)絡(luò)的權(quán)值,使網(wǎng)絡(luò)的實(shí)際輸出盡可能接近期望的輸出。假設(shè)有M個(gè)樣本:

將第k個(gè)樣本Xk輸入網(wǎng)絡(luò),得到的網(wǎng)絡(luò)輸出為定義學(xué)習(xí)的目標(biāo)函數(shù)為:第十七頁,共五十頁,2022年,8月28日4.4多層前向BP神經(jīng)網(wǎng)絡(luò)為使目標(biāo)函數(shù)最小,訓(xùn)練算法是:令則第十八頁,共五十頁,2022年,8月28日4.4多層前向BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的步驟:(1)依次取第k組樣本,將Xk輸入網(wǎng)絡(luò)。(2)依次計(jì)算

,如果

,退出。(3)計(jì)算(4)計(jì)算(5),修正權(quán)值,返回(1)

如果樣本數(shù)少,則學(xué)習(xí)知識(shí)不夠;如果樣本多,則需計(jì)算更多的dJk/dw,,訓(xùn)練時(shí)間長??刹捎秒S機(jī)學(xué)習(xí)法每次以樣本中隨機(jī)選取幾個(gè)樣本,計(jì)算

dJk/dw,,調(diào)整權(quán)值。

第十九頁,共五十頁,2022年,8月28日例4.1多層前向BP網(wǎng)絡(luò)訓(xùn)練訓(xùn)練樣本SISO:SampleInput=[00.10.20.30.4];SampleOutput=[42222];網(wǎng)絡(luò)結(jié)構(gòu):第二十頁,共五十頁,2022年,8月28日網(wǎng)絡(luò)輸入輸出關(guān)系:需訓(xùn)練的量:第二十一頁,共五十頁,2022年,8月28日訓(xùn)練算法:第二十二頁,共五十頁,2022年,8月28日訓(xùn)練初始參數(shù):W1=rand(1,5);W2=rand(1,5);theta=rand(1,5);beta=rand(1,5);LearningRate1=0.2;LearningRate2=0.4;LearningRate3=0.2;LearningRate4=0.2;第二十三頁,共五十頁,2022年,8月28日訓(xùn)練后參數(shù):W1=[-0.40598.5182-0.5994-0.1153-1.1916];W2=[0.62452.83820.66320.57833.5775];Beta=[1.6219-4.94031.60411.5145-0.3858];Theta=[1.58320.19001.54061.6665-0.1441];第二十四頁,共五十頁,2022年,8月28日訓(xùn)練1000次目標(biāo)函數(shù)的變化曲線:第二十五頁,共五十頁,2022年,8月28日訓(xùn)練結(jié)束后神經(jīng)網(wǎng)絡(luò)的輸出與樣本的擬和情況第二十六頁,共五十頁,2022年,8月28日4.4多層前向BP神經(jīng)網(wǎng)絡(luò)前向網(wǎng)絡(luò)進(jìn)一步需研究的問題

局部最優(yōu)問題,(網(wǎng)絡(luò)初值選取不恰當(dāng))。學(xué)習(xí)算法收斂速度慢,Sigmaid函數(shù)本身存在無窮多閃導(dǎo)數(shù),而BP算法只用了一次導(dǎo)數(shù),致使收斂速度慢。網(wǎng)絡(luò)的運(yùn)行是單向傳播,沒有反饋,是一個(gè)非淺性映射,而不是非淺性動(dòng)力系統(tǒng)。網(wǎng)絡(luò)隱層節(jié)點(diǎn)個(gè)數(shù)和初始權(quán)值的選取,尚無理論指導(dǎo)。

第二十七頁,共五十頁,2022年,8月28日4.5大腦自組織神經(jīng)網(wǎng)絡(luò)是一種無導(dǎo)師學(xué)習(xí)的網(wǎng)絡(luò)腦神經(jīng)科學(xué)研究表明:傳遞感覺的神經(jīng)元排列是按某種規(guī)律有序進(jìn)行的,這種排列往往反映所感受的外部刺激的某些物理特征。

大腦自組織神經(jīng)網(wǎng)絡(luò)在接受外界輸入時(shí),將會(huì)分成不同的區(qū)域,不同的區(qū)域?qū)Σ煌哪J骄哂胁煌捻憫?yīng)特征,即不同的神經(jīng)元以最佳方式響應(yīng)不同性質(zhì)的信號(hào)激勵(lì),從而形成一種拓?fù)湟饬x上的有序排列

在這種網(wǎng)絡(luò)中,輸出節(jié)點(diǎn)與其鄰域其他節(jié)點(diǎn)廣泛相連,并互相激勵(lì)。輸入節(jié)點(diǎn)和輸出節(jié)點(diǎn)之間通過強(qiáng)度wij(t)相連接。通過某種規(guī)則,不斷地調(diào)整wij(t),使得在穩(wěn)定時(shí),每一鄰域的所有節(jié)點(diǎn)對某種輸入具有類似的輸出,并且這種聚類的概率分布與輸入模式的概率分布相接近。

第二十八頁,共五十頁,2022年,8月28日4.5大腦自組織神經(jīng)網(wǎng)絡(luò)自組織學(xué)習(xí)算法:權(quán)值初始化并選定領(lǐng)域的大?。?2)輸入模式;

(3)計(jì)算空間距離式中xi(t)是t時(shí)刻i節(jié)點(diǎn)的輸入,wij(t)是輸入節(jié)點(diǎn)i與輸出節(jié)點(diǎn)j的連接強(qiáng)度,N為輸入節(jié)點(diǎn)的數(shù)目;

(4)選擇節(jié)點(diǎn)j*,它滿足(5)按下式改變j*和其領(lǐng)域節(jié)點(diǎn)的連接強(qiáng)度wij(t+1)=wij(t)+η(t)[xi(t)-wij(t)],j∈j*的領(lǐng)域,0≤i≤N-1

式中η(t)稱之為衰減因子。

(6)返回到第(2)步,直至滿足[xi(t)-wij(t)]2<ε(ε為給定的誤差)。

第二十九頁,共五十頁,2022年,8月28日4.5大腦自組織神經(jīng)網(wǎng)絡(luò)例4.2大腦自組織網(wǎng)絡(luò)的訓(xùn)練輸入模式:X=[x1,x2,x3]網(wǎng)絡(luò)節(jié)點(diǎn)數(shù)量:9鄰域:1網(wǎng)絡(luò)初始權(quán)值:W=[0.11220.01470.28160.78390.90280.82890.52080.46080.4435

0.44330.66410.26180.98620.45110.16630.71810.44530.3663

0.46680.72410.70850.47330.80450.39390.56920.08770.3025];第三十頁,共五十頁,2022年,8月28日4.5大腦自組織神經(jīng)網(wǎng)絡(luò)1.單模式訓(xùn)練情況輸入為:X=[001]結(jié)果:W=[0.11220.00000.00000.00000.90280.82890.52080.46080.44350.44330.00000.00000.00000.45110.16630.71810.44530.36630.46681.00001.00001.00000.80450.39390.56920.08770.3025]輸入為:X=[010]結(jié)果:W=[0.11220.01470.28160.78390.90280.82890.00000.00000.00000.44330.66410.26180.98620.45110.16631.00001.00001.00000.46680.72410.70850.47330.80450.39390.00000.00000.0000]第三十一頁,共五十頁,2022年,8月28日4.5大腦自組織神經(jīng)網(wǎng)絡(luò)2.多模式訓(xùn)練情況100010001Input=訓(xùn)練結(jié)果:0.00000.00001.00001.00001.00000.00000.00000.00000.00000.00000.00000.00000.00000.00001.00001.00001.00001.00001.00001.00000.00000.00000.00000.00000.00000.00000.0000W=網(wǎng)絡(luò)輸出:Output=Input*W=0.00000.00001.00001.00001.00000.00000.00000.00000.00000.00000.00000.00000.00000.00001.00001.00001.00001.00001.00001.00000.00000.00000.00000.00000.00000.00000.0000模式1模式2模式3模式2模式1模式3模式1模式2模式3第三十二頁,共五十頁,2022年,8月28日4.6小腦神經(jīng)網(wǎng)絡(luò)小腦模型關(guān)節(jié)控制器(CMAC)是由Albus最初于1975年基于神經(jīng)生理學(xué)提出的,它是一種基于局部逼近的簡單快速的神經(jīng)網(wǎng)絡(luò),能夠?qū)W習(xí)任意多維非線性映射,迄今已廣泛用于許多領(lǐng)域。CMAC具有優(yōu)點(diǎn):具有局部逼近能力,每次修正的權(quán)值極少,學(xué)習(xí)速度快,適合于在線學(xué)習(xí);一定的泛化能力,相近輸入給出相近輸出,不同輸入給出不同輸出;第三十三頁,共五十頁,2022年,8月28日4.6小腦神經(jīng)網(wǎng)絡(luò)CMAC的原理CMAC是一種模仿人類小腦的學(xué)習(xí)結(jié)構(gòu)。在這種技術(shù)里,每個(gè)狀態(tài)變量被量化并且輸入空間被劃分成離散狀態(tài)。量化的輸入構(gòu)成的向量指定了一個(gè)離散狀態(tài)并且被用于產(chǎn)生地址來激活聯(lián)想單元中存儲(chǔ)的聯(lián)想強(qiáng)度從而恢復(fù)這個(gè)狀態(tài)的信息。對于輸入空間大的情況,聯(lián)想單元數(shù)量巨大,為了節(jié)省存儲(chǔ)空間,Albus提出了hash編碼,將聯(lián)想強(qiáng)度存于數(shù)量大大少于聯(lián)想單元的hash單元中,聯(lián)想單元中只存儲(chǔ)hash單元的散列地址編碼第三十四頁,共五十頁,2022年,8月28日4.6小腦神經(jīng)網(wǎng)絡(luò)CMAC的空間劃分和量化機(jī)制超立方體聯(lián)想單元“塊”第三十五頁,共五十頁,2022年,8月28日4.6小腦神經(jīng)網(wǎng)絡(luò)CMAC學(xué)習(xí)的數(shù)學(xué)推導(dǎo)1)無hash映射的CMAC在CMAC中,每個(gè)量化的狀態(tài)對應(yīng)Ne個(gè)聯(lián)想單元。假設(shè)Nh是總的聯(lián)想單元的數(shù)量,該數(shù)量與沒有hash映射時(shí)的物理存儲(chǔ)空間大小一致。用CMAC技術(shù),第s個(gè)狀態(tài)對應(yīng)的輸出數(shù)據(jù)ys可以被表示為:

式中W是代表存儲(chǔ)內(nèi)容(聯(lián)想強(qiáng)度)的向量,Cs是存儲(chǔ)單元激活向量,該向量包含Ne個(gè)1。在決定了空間的劃分方式后,對于指定的狀態(tài),單元激活向量Cs也隨之確定。

第三十六頁,共五十頁,2022年,8月28日4.6小腦神經(jīng)網(wǎng)絡(luò)2)有hash映射的CMAChash映射將幾個(gè)聯(lián)想單元和一個(gè)物理存儲(chǔ)位置(hash單元)相對應(yīng)。hash單元中存儲(chǔ)聯(lián)想強(qiáng)度,而此時(shí)的聯(lián)想單元是虛擬的存儲(chǔ)空間,只存儲(chǔ)hash單元的散列地址編碼。有hash映射的CMAC特別適用于存儲(chǔ)空間小于超立方體數(shù)量時(shí)的情況。用有hash映射的CMAC技術(shù),第s個(gè)狀態(tài)對應(yīng)的輸出數(shù)據(jù)ys可以被表示為:式中Mp是hash單元的數(shù)量,它小于聯(lián)想單元數(shù)Nh。hij=1表示聯(lián)想單元i激活hash單元j。由于每個(gè)聯(lián)想單元僅僅和一個(gè)hash單元相對應(yīng),所以hash矩陣H的每一行僅有一個(gè)單元等于1,其余的都等于0。

第三十七頁,共五十頁,2022年,8月28日4.6小腦神經(jīng)網(wǎng)絡(luò)沒有hash映射的公式和有hash映射的公式可以合并為一個(gè)式子:

CMAC的學(xué)習(xí)CMAC用迭代算法來訓(xùn)練聯(lián)想強(qiáng)度。在學(xué)習(xí)中,我們將Ns個(gè)訓(xùn)練數(shù)據(jù)重復(fù)用于學(xué)習(xí)。在第i次迭代中用第s個(gè)樣本學(xué)習(xí)的迭代算法為:

S:樣本數(shù)i:迭代次數(shù)α:學(xué)習(xí)率期望輸出第三十八頁,共五十頁,2022年,8月28日4.6小腦神經(jīng)網(wǎng)絡(luò)第三十九頁,共五十頁,2022年,8月28日4.6小腦神經(jīng)網(wǎng)絡(luò)例4.3CMAC訓(xùn)練樣本:SampleInput1=[0.050.150.250.35];SampleInput2=[0.050.150.250.35];SampleOutput=[4444;2222;3333;1111];量化:兩輸入均量化為四個(gè)元素ifx1>0&&x1<=0.1indexX1=1;elseifx1>0.1&&x1<=0.2indexX1=2;elseifx1>0.2&&x1<=0.3indexX1=3;elseifx1>0.3&&x1<=0.4indexX1=4;end第四十頁,共五十頁,2022年,8月28日4.6小腦神經(jīng)網(wǎng)絡(luò)狀態(tài)編號(hào):MSTATENUM=12345678910111213141516激活向量矩陣:

100010001000100001001000100001000100010001000100100000101000100000011000100000010100010000010100100000100010100000010010100000010001010000010001001000100010001000010010001000010001000100010001MC=第四十一頁,共五十頁,2022年,8月28日4.6小腦神經(jīng)網(wǎng)絡(luò)聯(lián)想強(qiáng)度初始值:Weight=rand(12,1);學(xué)習(xí)率:learningRate=0.005;訓(xùn)練2000次,均方差結(jié)果:訓(xùn)練2000次,聯(lián)想強(qiáng)度:

2.01672.01670.01680.01691.77361.7739-0.2261-0.22610.20940.20931.20931.2092第四十二頁,共五十頁,2022年,8月28日4.6小腦神經(jīng)網(wǎng)絡(luò)輸出跟蹤結(jié)果:第四十三頁,共五十頁,2022年,8月28日4.6小腦神經(jīng)網(wǎng)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論