智能控制技術(shù) 第3版 課件 第6、7章 智能控制的集成技術(shù)、深度學(xué)習(xí)_第1頁
智能控制技術(shù) 第3版 課件 第6、7章 智能控制的集成技術(shù)、深度學(xué)習(xí)_第2頁
智能控制技術(shù) 第3版 課件 第6、7章 智能控制的集成技術(shù)、深度學(xué)習(xí)_第3頁
智能控制技術(shù) 第3版 課件 第6、7章 智能控制的集成技術(shù)、深度學(xué)習(xí)_第4頁
智能控制技術(shù) 第3版 課件 第6、7章 智能控制的集成技術(shù)、深度學(xué)習(xí)_第5頁
已閱讀5頁,還剩115頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

第六章智能控制的集成技術(shù)2

模糊神經(jīng)網(wǎng)絡(luò)控制123

基于神經(jīng)網(wǎng)絡(luò)的自適應(yīng)控制5

智能控制的優(yōu)化算法模糊神經(jīng)網(wǎng)絡(luò)控制方法的提出:模糊控制系統(tǒng)的隸屬度函數(shù)或控制規(guī)則的設(shè)計(jì)方法存在很大的主觀性。利用神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)功能來優(yōu)化模糊控制規(guī)則和相應(yīng)的隸屬度函數(shù)、將一些專家知識預(yù)先分布到神經(jīng)網(wǎng)絡(luò)中去是提出模糊神經(jīng)網(wǎng)絡(luò)理論的兩個基本出發(fā)點(diǎn)。一、模糊神經(jīng)網(wǎng)絡(luò)控制多層前向傳播神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)來逼近的模糊神經(jīng)網(wǎng)絡(luò)系統(tǒng)結(jié)構(gòu)圖一、模糊神經(jīng)網(wǎng)絡(luò)控制結(jié)構(gòu)說明:第一層節(jié)點(diǎn)為輸入節(jié)點(diǎn),用來表示語言變量;輸出層的每個輸出變量有兩個語言節(jié)點(diǎn),一個用于訓(xùn)練時期望輸出信號的饋入,另一個表示模糊神經(jīng)網(wǎng)絡(luò)推理控制的輸出信號節(jié)點(diǎn);第二層和第四層的節(jié)點(diǎn)稱為項(xiàng)節(jié)點(diǎn),用來表示相應(yīng)語言變量語言值的隸屬度函數(shù)。第三層節(jié)點(diǎn)稱為規(guī)則節(jié)點(diǎn),用來實(shí)現(xiàn)模糊邏輯推理。其中第三層與第四層節(jié)點(diǎn)間的連接系數(shù)定義規(guī)則節(jié)點(diǎn)的結(jié)論部、第二、三層節(jié)點(diǎn)間的連接系數(shù)定義規(guī)則節(jié)點(diǎn)的條件部。一、模糊神經(jīng)網(wǎng)絡(luò)控制第一層只是將輸入變量值直接傳送到下一層。所以,且輸入變量與第一層節(jié)點(diǎn)之間的連接系數(shù)wji(1)=1。一、模糊神經(jīng)網(wǎng)絡(luò)控制

第二層實(shí)現(xiàn)語言值的隸屬度函數(shù)變換,可選取鐘型函數(shù)其中:mji和σji分別表示第i個輸入語言變量Xi的第j個語言值隸屬度函數(shù)的中心值和寬度??沙橄罂醋鞯谝?、二層神經(jīng)元節(jié)點(diǎn)之間的連接系數(shù)wji(2)

。一、模糊神經(jīng)網(wǎng)絡(luò)控制

第三層完成模糊邏輯推理?xiàng)l件部的匹配工作。由最大、最小推理規(guī)則可知,規(guī)則節(jié)點(diǎn)實(shí)現(xiàn)的功能是模糊“與”運(yùn)算。

fj(3)=min(u1(3),u2(3),...,up(3)),aj(3)=fj(3)

且第二層節(jié)點(diǎn)與第三層節(jié)點(diǎn)之間的連接系數(shù)wji(3)=1一、模糊神經(jīng)網(wǎng)絡(luò)控制

第四層有兩種模式從上到下的傳輸模式時,與第二層相同,實(shí)現(xiàn)模糊化的功能。從下到上的傳輸模式中,實(shí)現(xiàn)的是模糊邏輯推理運(yùn)算。根據(jù)最大、最小推理規(guī)則,是模糊“或”運(yùn)算:

fj(4)=max(u1(4),u2(4),...,up(4)),aj(4)=fj(4)

且第三、四層節(jié)點(diǎn)之間的連接系數(shù)wji(4)=1一、模糊神經(jīng)網(wǎng)絡(luò)控制

第五層有兩種模式從上到下的信號傳輸方式,同第一層。從下到上是精確化計(jì)算,如果采用重心法,有則第四層節(jié)點(diǎn)與第五層節(jié)點(diǎn)之間的連接系數(shù)wji(5)可以看作是mji(5)·σji(5)。一、模糊神經(jīng)網(wǎng)絡(luò)控制模糊神經(jīng)網(wǎng)絡(luò)控制學(xué)習(xí)算法第一階段,使用自組織學(xué)習(xí)方法進(jìn)行各語言變量語言值隸屬度函數(shù)的初步定位以及盡量發(fā)掘模糊控制規(guī)則的存在性(即可以通過自組織學(xué)習(xí)刪除部分不可能出現(xiàn)的規(guī)則)在第二階段,利用有導(dǎo)學(xué)習(xí)方法來改進(jìn)和優(yōu)化期望輸出的各語言值隸屬度函數(shù)。一、模糊神經(jīng)網(wǎng)絡(luò)控制第一階段:自組織學(xué)習(xí):模糊控制規(guī)則的自組織和語言值隸屬度函數(shù)的預(yù)辨識給定一組輸入樣本數(shù)據(jù)xi(t),i=1,2,...,n、期望的輸出值yi(t),i=1,2,...,m、模糊分區(qū)|T(x)|和|T(y)|以及期望的隸屬度函數(shù)類型(即三角型、鐘型等)。學(xué)習(xí)的目的是找到隸屬度函數(shù)的參數(shù)和系統(tǒng)實(shí)際存在的模糊邏輯控制規(guī)則。一、模糊神經(jīng)網(wǎng)絡(luò)控制率先利用樣本確定隸屬度函數(shù)的均值和方差均值(中心值)mi的估計(jì):Kohonen自組織映射法方差(寬度值)σi是與重疊參數(shù)r以及中心點(diǎn)mi鄰域內(nèi)分布函數(shù)值相關(guān)。一、模糊神經(jīng)網(wǎng)絡(luò)控制Kohonen自組織學(xué)習(xí)法。經(jīng)過一段時間的學(xué)習(xí)后,其權(quán)值的分布可以近似地看作輸入隨機(jī)樣本的概率密度分布。學(xué)習(xí)過程是一個Winner-take-all的過程,具體如下:mcloest(t+1)=mcloest(t)+α(t)[x(t)-mcloest(t)]mi(t+1)=mi(t)當(dāng)mi(t)≠mcloest(t)k=|T(x)|表示語言變量x語言值的數(shù)目mi(0)為一個小的隨機(jī)數(shù)一、模糊神經(jīng)網(wǎng)絡(luò)控制一旦確定了mi后,再計(jì)算寬度σi:通過求下列目標(biāo)函數(shù)的極小值來獲取,即:其中r為重疊參數(shù)。也可以采用一階最近鄰域法近似:一、模糊神經(jīng)網(wǎng)絡(luò)控制推理規(guī)則的確定即確定第三層規(guī)則節(jié)點(diǎn)和第四層輸出語言值節(jié)點(diǎn)之間的連接關(guān)系。采用競爭學(xué)習(xí)獲得記o(3)i(t)為規(guī)則節(jié)點(diǎn)的激勵強(qiáng)度、o(4)j(t)為第四層輸出語言值節(jié)點(diǎn)輸出,則一、模糊神經(jīng)網(wǎng)絡(luò)控制規(guī)則刪除僅保留規(guī)則節(jié)點(diǎn)與同一輸出語言變量的所有語言值節(jié)點(diǎn)的連接系數(shù)最大的那個連接關(guān)系,將其余的連接關(guān)系刪除。當(dāng)某一規(guī)則節(jié)點(diǎn)與某一輸出語言變量所有語言值節(jié)點(diǎn)之間的連接系數(shù)都非常小時,則所有的連接關(guān)系都可以刪除。如果某一規(guī)則節(jié)點(diǎn)與第四層中的所有節(jié)點(diǎn)的連接系數(shù)都很少而被刪除的話,則該規(guī)則節(jié)點(diǎn)對輸出節(jié)點(diǎn)不產(chǎn)生任何影響。因此,該規(guī)則節(jié)點(diǎn)可以刪除。一、模糊神經(jīng)網(wǎng)絡(luò)控制

規(guī)則合并的條件該組節(jié)點(diǎn)具有完全相同的結(jié)論部(如圖6-2中輸出變量yi中的第二個語言值節(jié)點(diǎn));在該組規(guī)則節(jié)點(diǎn)中某些條件部是相同的(如圖6-2中輸入變量x0中的第一個語言值節(jié)點(diǎn)的輸出與該組規(guī)則節(jié)點(diǎn)全部相連);該組規(guī)則節(jié)點(diǎn)的其它條件輸入項(xiàng)包含了所有其它輸入語言變量某一語言值節(jié)點(diǎn)的輸出。一、模糊神經(jīng)網(wǎng)絡(luò)控制圖6-2:規(guī)則節(jié)點(diǎn)合并示例一、模糊神經(jīng)網(wǎng)絡(luò)控制第二階段:有導(dǎo)師學(xué)習(xí)階段可采用BP學(xué)習(xí)一、模糊神經(jīng)網(wǎng)絡(luò)控制第五層反向傳播到上一層的廣義誤差δ(5)為一、模糊神經(jīng)網(wǎng)絡(luò)控制第四層沒有任何參數(shù)進(jìn)行更新。唯一需要做的是實(shí)現(xiàn)誤差的反向傳播計(jì)算。一、模糊神經(jīng)網(wǎng)絡(luò)控制第二與第四層相似如果輸出語言變量有m個,則一、模糊神經(jīng)網(wǎng)絡(luò)控制qk(3)=δk(3)

當(dāng)aj(2)是第k個規(guī)則節(jié)點(diǎn)輸入值中的最小值時;qk(3)=0其它情況下。一、模糊神經(jīng)網(wǎng)絡(luò)控制第二層的學(xué)習(xí)公式一、模糊神經(jīng)網(wǎng)絡(luò)控制整個學(xué)習(xí)流程一、模糊神經(jīng)網(wǎng)絡(luò)控制27

模糊神經(jīng)網(wǎng)絡(luò)控制123

基于神經(jīng)網(wǎng)絡(luò)的自適應(yīng)控制5

智能控制的優(yōu)化算法神經(jīng)網(wǎng)絡(luò)控制器完全滿足自適應(yīng)控制的要素在線、實(shí)時地了解對象;有一個可調(diào)節(jié)環(huán)節(jié);能使系統(tǒng)性能達(dá)到指標(biāo)要求和最優(yōu)。常規(guī)的神經(jīng)網(wǎng)絡(luò)控制器本身也具有一定的自適應(yīng)能力。二、基于神經(jīng)網(wǎng)絡(luò)的自適應(yīng)控制與傳統(tǒng)的自適應(yīng)控制器一樣,有兩種不同的設(shè)計(jì)途徑:間接控制:通過系統(tǒng)辨識獲取對象的數(shù)學(xué)模型,再根據(jù)一定的設(shè)計(jì)指標(biāo)進(jìn)行設(shè)計(jì);直接控制:根據(jù)對象的輸出誤差直接調(diào)節(jié)控制器內(nèi)部參數(shù)來達(dá)到自適應(yīng)控制的目的。二、基于神經(jīng)網(wǎng)絡(luò)的自適應(yīng)控制1、模型參考自適應(yīng)控制通過選擇一個適當(dāng)?shù)膮⒖寄P秃陀煞€(wěn)定性理論設(shè)計(jì)的自適應(yīng)算法,并利用參考模型的輸出與實(shí)際系統(tǒng)輸出之間的誤差信號,由一套自適應(yīng)算法計(jì)算出當(dāng)前的控制量去控制系統(tǒng)達(dá)到自適應(yīng)控制的目的。在實(shí)時性方面都沒有重大進(jìn)展。二、基于神經(jīng)網(wǎng)絡(luò)的自適應(yīng)控制如果被控系統(tǒng)

y(k+1)=f(y(k),y(k-1),u(k-1))+g(u(k))參考系統(tǒng):

ym(k+1)=a1ym(k)+a2ym(k-1)+r(k)則控制輸入可?。憾⒒谏窠?jīng)網(wǎng)絡(luò)的自適應(yīng)控制基于神經(jīng)網(wǎng)絡(luò)的模型參考自適應(yīng)控制結(jié)構(gòu)二、基于神經(jīng)網(wǎng)絡(luò)的自適應(yīng)控制舉例:非線性控制對象為參考系統(tǒng)的模型為:ym(k+1)=0.6ym

(k)+0.2ym

(k-1)+r(k)二、基于神經(jīng)網(wǎng)絡(luò)的自適應(yīng)控制控制策略,記:如果?。簎(k)=-f(y(k),y(k-1))+0.6y(k+1)+0.2y(k-1)+r(k)則控制系統(tǒng)的誤差方程為

ec(k+1)=0.6ec(k)+0.2ec(k-1)其中ec(k+1)=yp(k+1)-ym(k+1)上述控制可漸漸穩(wěn)定。二、基于神經(jīng)網(wǎng)絡(luò)的自適應(yīng)控制由于非線性方程f(·)是未知的,利用網(wǎng)絡(luò)辨識模型取代未知的非線性方程f(·),從而構(gòu)成了基于神經(jīng)網(wǎng)絡(luò)的模型參考自適應(yīng)控制器,即:u(k)=-Ni(y(k),y(k-1))+0.6y(k)+0.2y(k-1)+r(k)取r(k)=sin(2

k/25)二、基于神經(jīng)網(wǎng)絡(luò)的自適應(yīng)控制在線辨識后的控制效果確定導(dǎo)師信號tj(k+1)=yp(k+1)-u(k)二、基于神經(jīng)網(wǎng)絡(luò)的自適應(yīng)控制復(fù)雜情況:對于

y(k+1)=f(y(k),y(k-1),u(k-1))+g(u(k))可得如果存在,可用神經(jīng)網(wǎng)絡(luò)逼近之。如不存在,可采用動態(tài)BP學(xué)習(xí)算法。二、基于神經(jīng)網(wǎng)絡(luò)的自適應(yīng)控制動態(tài)BP學(xué)習(xí)算法:設(shè)網(wǎng)絡(luò)模型已離線精確獲得。訓(xùn)練控制網(wǎng)絡(luò),使下列標(biāo)準(zhǔn)最小二、基于神經(jīng)網(wǎng)絡(luò)的自適應(yīng)控制結(jié)構(gòu)圖二、基于神經(jīng)網(wǎng)絡(luò)的自適應(yīng)控制40

模糊神經(jīng)網(wǎng)絡(luò)控制123

基于神經(jīng)網(wǎng)絡(luò)的自適應(yīng)控制5

智能控制的優(yōu)化算法遺傳算法美國的J.Holland教授于1975年提出在遺傳學(xué)的基礎(chǔ)上利用計(jì)算機(jī)來模擬生物的進(jìn)化過程,從而實(shí)現(xiàn)復(fù)雜問題的優(yōu)化求解。模擬生物染色體的運(yùn)作(復(fù)制、交叉、變異),是一種隨機(jī)化搜索算法三、智能控制的優(yōu)化算法步驟:10

群體的初始化;20

評價(jià)群體中每一個體的性能;30

選擇下一代個體;40

執(zhí)行簡單的操作算子(如交叉、變異);50

評價(jià)下一代群體的性能;60

判斷終止條件滿足否?若不,則轉(zhuǎn)(3)繼續(xù);若滿足,則結(jié)束。三、智能控制的優(yōu)化算法需要解決的問題:編碼機(jī)制;選擇機(jī)制;控制參數(shù)選擇;二進(jìn)制字符串的群體構(gòu)成;適應(yīng)度函數(shù)的計(jì)算遺傳算子(交叉、變異)的定義。三、智能控制的優(yōu)化算法遺傳學(xué)習(xí)算法的操作算子:編碼機(jī)制(Encodingmechanism)適應(yīng)度函數(shù)(Fitnessfunction)選擇機(jī)制(Selectionmechanism)

交叉算子(Crossover)變異算子(Mutation)三、智能控制的優(yōu)化算法編碼機(jī)制:二進(jìn)制編碼每一個位(0或1)-基因字符串-染色體多值編碼方法實(shí)數(shù)編碼三、智能控制的優(yōu)化算法適應(yīng)度函數(shù):優(yōu)化問題的目標(biāo)函數(shù)“適應(yīng)度值”的計(jì)算直接通過將目標(biāo)函數(shù)經(jīng)一定的線性變換映射到的[0,1]區(qū)間內(nèi)的一個值。三、智能控制的優(yōu)化算法選擇機(jī)制:基本思想取自于自然界進(jìn)化論的“適者生存”。適應(yīng)度值越高的個體,生存的數(shù)量也越高。滿足“優(yōu)勝劣汰”自然法則。也可稱為復(fù)制機(jī)制比例選擇法(Proportionateselectionscheme)轉(zhuǎn)輪選擇法(RouletteWheelSelectionScheme):隨機(jī)方法三、智能控制的優(yōu)化算法交叉算子:模擬有性繁殖現(xiàn)象隨機(jī)地從父輩集合中選取兩個個體作為雙親。設(shè)Ll表示遺任一個體的字符串(染色體)長度,隨機(jī)地產(chǎn)生(0~Ll)之間的一個數(shù)d,并把此點(diǎn)位置稱為交叉點(diǎn)。交叉運(yùn)算就是將雙親的基因鏈在交叉點(diǎn)斷裂,且將在交叉點(diǎn)之后的基因根據(jù)交叉率的條件決定是否進(jìn)行相互交換形成下一代。所謂交叉率pc是根據(jù)優(yōu)化問題預(yù)先確定的一個0~1之間的值。通常取0.6~0.9。三、智能控制的優(yōu)化算法變異算子:模擬基因突變現(xiàn)象所謂變異指的是隨機(jī)地選取染色體中的某個基因(也即字符串中的某一位)進(jìn)行取反運(yùn)算,即將原有的“1”變?yōu)椤?”和反之。變異率pm取比較小的數(shù)值,一般pm為0.001~0.2。三、智能控制的優(yōu)化算法一般過程:①群體初始化;②繁殖;③交叉;④變異;⑤終止準(zhǔn)則判斷,若不滿足,重復(fù)②~④;否則,搜索結(jié)束。三、智能控制的優(yōu)化算法蟻群算法Dorigo,Maniezzo,Colomi等人于1991年提出模擬昆蟲王國中媽蟻群體智能行為的仿生優(yōu)化算法,當(dāng)它們碰到一個還沒走過的路口時,會隨機(jī)的選擇一個路徑,并在走過的路徑上釋放信息素,螞蟻所走的路徑越長,則釋放的信息素量就越小.當(dāng)后來的螞蟻再次路過這個路徑時,選擇信息量較大的路徑的概率相對較大,這樣便形成了一個正反饋機(jī)制三、智能控制的優(yōu)化算法基本原理:螞蟻種群之間進(jìn)行通訊信息交換經(jīng)由信息素與所處環(huán)境而決定。每只單個螞蟻在選擇路徑時是根據(jù)其周圍的局部環(huán)境做出相對應(yīng)的反應(yīng),其只是對本身經(jīng)過的路徑做反應(yīng),而不對其他螞蟻所經(jīng)過的路徑信息素做任何反應(yīng)。螞蟻?zhàn)龀龅南鄳?yīng)反應(yīng)是由其內(nèi)部狀態(tài)決定的。螞蟻個體雖簡單,但作為一種基因生物,其內(nèi)部狀態(tài)中存儲著許多自身過去的信息量,在路徑選擇上會依靠群體其他個體釋放的信息素,選擇最優(yōu)路線。對于單個螞蟻來說,每只螞蟻僅會對自處環(huán)境做獨(dú)立選擇;對于整個螞蟻種群來說,單個螞蟻則會將路徑中信息素多的作為優(yōu)選,經(jīng)過一段時間最終整個蟻群以高效有序的自組性選擇最短路徑。三、智能控制的優(yōu)化算法蟻群算法的基本機(jī)制分為兩個階段:適應(yīng)階段:整個螞蟻種群各自集合自身釋放出的信息素,并不斷調(diào)整自身結(jié)構(gòu),種群經(jīng)過的路徑螞蟻數(shù)量越多則具有的信息素就越多,該路徑成為最佳路徑的機(jī)率就越大;而隨著時間的推移,路徑中的信息素?cái)?shù)量也就隨之降低,被選概率受到影響。協(xié)作階段:螞蟻種群通過相互的通訊交流中主要傳遞的是個體自身信息量的多少,進(jìn)而獲取性能更加完善的最優(yōu)解。三、智能控制的優(yōu)化算法蟻群算法的基本機(jī)制分為兩個階段:適應(yīng)階段:整個螞蟻種群各自集合自身釋放出的信息素,并不斷調(diào)整自身結(jié)構(gòu),種群經(jīng)過的路徑螞蟻數(shù)量越多則具有的信息素就越多,該路徑成為最佳路徑的機(jī)率就越大;而隨著時間的推移,路徑中的信息素?cái)?shù)量也就隨之降低,被選概率受到影響。協(xié)作階段:螞蟻種群通過相互的通訊交流中主要傳遞的是個體自身信息量的多少,進(jìn)而獲取性能更加完善的最優(yōu)解。三、智能控制的優(yōu)化算法

三、智能控制的優(yōu)化算法

三、智能控制的優(yōu)化算法

三、智能控制的優(yōu)化算法蟻群算法應(yīng)用范圍:廣義分配問題多重背包問題網(wǎng)絡(luò)路由問題三、智能控制的優(yōu)化算法迭代學(xué)習(xí)迭代學(xué)習(xí)(Iterativelearning)的基本思想在于總結(jié)人類學(xué)習(xí)的方法,即通過多次的訓(xùn)練,從經(jīng)驗(yàn)中學(xué)會某種技能。迭代學(xué)習(xí)控制是智能控制中具有嚴(yán)格數(shù)學(xué)描述的一個分支。它以極為簡單的學(xué)習(xí)算法,在給定的時間區(qū)間上實(shí)現(xiàn)未知被控對象以任意精度跟蹤某一給定的期望軌跡的控制問題。三、智能控制的優(yōu)化算法二階非線性動力系統(tǒng)迭代學(xué)習(xí)控制

三、智能控制的優(yōu)化算法

引入變量:x2(t)=x1'(t)

二階非線性動力系統(tǒng)迭代學(xué)習(xí)控制三、智能控制的優(yōu)化算法

設(shè)系統(tǒng)的期望輸出為xd(t),t∈[0,T]??刂频膯栴}就歸結(jié)為尋求一個控制輸入u(t)使得系統(tǒng)的輸出x(t)盡可能地逼近xd(t),t∈[0,T]三、智能控制的優(yōu)化算法

其中∈Rn為反饋誤差控制項(xiàng)

三、智能控制的優(yōu)化算法

η為學(xué)習(xí)因子,為了保證迭代算法的收斂性,η的取值范圍必須滿足0<η<2

取性能指標(biāo)函數(shù):

應(yīng)用梯度法得到第j次反饋輸入迭代計(jì)算公式:三、智能控制的優(yōu)化算法

迭代學(xué)習(xí)控制的最成功應(yīng)用是機(jī)械手的軌跡跟蹤控制。多關(guān)節(jié)機(jī)械手系統(tǒng)是一個嚴(yán)重非線性、強(qiáng)耦合、時變系統(tǒng),它的動力學(xué)方程相當(dāng)復(fù)雜。利用常規(guī)的控制方法都無法得到滿意的控制效果。同時,我們也注意到,多關(guān)節(jié)機(jī)械手系統(tǒng)與本節(jié)研究的一類非線性系統(tǒng)完全耦合,因此多關(guān)節(jié)機(jī)械手系統(tǒng)的迭代學(xué)習(xí)控制具有控制算法簡單、魯棒性強(qiáng)、跟蹤精度高、實(shí)時性好等優(yōu)點(diǎn),在重復(fù)周期作業(yè)的環(huán)境的跟蹤控制是有明顯的優(yōu)勢。第七章深度學(xué)習(xí)66

引言123

模型范式5

深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用傳統(tǒng)機(jī)器學(xué)習(xí)面臨的挑戰(zhàn):維數(shù)災(zāi)難:當(dāng)數(shù)據(jù)的維度很高時,非常多的機(jī)器學(xué)習(xí)方法將很難以去應(yīng)用求解。信息提取困難:對于圖像、聲音、文本等高維抽象數(shù)據(jù)難以提取有效信息。需要先驗(yàn)知識:在大數(shù)據(jù)和多復(fù)雜場景下,機(jī)器學(xué)習(xí)無法適應(yīng)實(shí)際環(huán)境中的動態(tài)變化。一、引言機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的本質(zhì)都是學(xué)習(xí)樣本數(shù)據(jù)的內(nèi)在規(guī)律和表示層次,但深度學(xué)習(xí)對原始多層感知機(jī)進(jìn)行了進(jìn)一步設(shè)計(jì)和優(yōu)化,所擴(kuò)展的模型復(fù)雜度遠(yuǎn)超從前。一、引言深度學(xué)習(xí)模型的規(guī)模和復(fù)雜度要遠(yuǎn)大于傳統(tǒng)人工神經(jīng)元網(wǎng)絡(luò)模型,在訓(xùn)練和應(yīng)用過程中面臨的問題如下:局部最優(yōu)解梯度爆炸長期依賴非精確梯度優(yōu)化算法參數(shù)選擇一、引言1)局部最優(yōu)解深度學(xué)習(xí)模型中的損失和誤差函數(shù)用來反向傳遞來更新網(wǎng)絡(luò)中的節(jié)點(diǎn)參數(shù)。然而深度神經(jīng)網(wǎng)絡(luò)待訓(xùn)練的參數(shù)量非常多,并且具有一定的冗余,這導(dǎo)致了其中單個參數(shù)對最終誤差結(jié)果的影響都比較小。因此當(dāng)模型收斂到局部最優(yōu)解時,即使參數(shù)變動比較劇烈也無法將模型運(yùn)行點(diǎn)從這個局部最小值處拋出。此時,雖然損失函數(shù)值在每一輪的訓(xùn)練過程中變化不大,但模型測試效果非常差。一、引言局部最小值與全局最小值2)梯度爆炸神經(jīng)網(wǎng)絡(luò)模型中的參數(shù)值是通過損失函數(shù)的變化來實(shí)現(xiàn)更新,損失函數(shù)的大小和方向決定了誤差梯度更新的大小和方向。但是深度學(xué)習(xí)模型的層數(shù)非常多,而不同層的誤差梯度會在更新過程中累積。在累積過程中,誤差梯度有可能會達(dá)到一個非常大的數(shù)值。這樣的數(shù)值會導(dǎo)致神經(jīng)網(wǎng)絡(luò)某些節(jié)點(diǎn)的權(quán)重值大幅更新,進(jìn)而導(dǎo)致網(wǎng)絡(luò)參數(shù)和結(jié)構(gòu)的不穩(wěn)定甚至內(nèi)存溢出。一、引言參數(shù)更新過程中梯度爆炸導(dǎo)致搜索結(jié)果出現(xiàn)誤判3)長期依賴對于深度學(xué)習(xí)模型來說,由于變深的結(jié)構(gòu)使網(wǎng)絡(luò)中更靠近輸出層的模型結(jié)構(gòu)喪失了學(xué)習(xí)到先前信息的能力,這讓后端模型的參數(shù)更新變得極其困難,這一現(xiàn)象稱之為“長期依賴”或者“梯度消失”。特別的,有的時候?yàn)榱藴p少深度學(xué)習(xí)模型中參數(shù)的訓(xùn)練量,模型中的部分結(jié)構(gòu)參數(shù)將與其他層神經(jīng)元實(shí)現(xiàn)參數(shù)共享,而這一技巧恰恰更加深了參數(shù)更新的困難程度。梯度消失問題使得模型訓(xùn)練者難以知道神經(jīng)網(wǎng)絡(luò)的某些層參數(shù)更新問題是否來源于訓(xùn)練數(shù)據(jù)本身還是模型構(gòu)造問題,這會導(dǎo)致模型設(shè)計(jì)的不確定性一、引言4)非精確梯度大多數(shù)優(yōu)化算法在對深度學(xué)習(xí)模型參數(shù)進(jìn)行更新的時候都有Hessian矩陣的計(jì)算過程。在實(shí)際模型訓(xùn)練過程中,以上計(jì)算都會有噪聲的影響導(dǎo)致最后的結(jié)果并不如理論分析。而當(dāng)損失目標(biāo)函數(shù)不可微的時候,通常對應(yīng)的梯度計(jì)算也是非常困難的。此時需要對目標(biāo)函數(shù)進(jìn)行近似處理,但是這個過程也會帶來梯度的損失,導(dǎo)致梯度估計(jì)缺陷。梯度缺陷會隨著神經(jīng)網(wǎng)絡(luò)的計(jì)算過程在每個神經(jīng)元節(jié)點(diǎn)處產(chǎn)生影響,最終的結(jié)果會比較差。一、引言5)優(yōu)化算法參數(shù)選擇深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練需要對應(yīng)的優(yōu)化算法,而優(yōu)化算法里有著各種各樣可調(diào)整的參數(shù),這些參數(shù)對最終的訓(xùn)練會產(chǎn)生不一樣的影響。因此需要對具體的訓(xùn)練任務(wù)選擇對應(yīng)合適的優(yōu)化算法。訓(xùn)練數(shù)據(jù)批量選擇學(xué)習(xí)率更改規(guī)則修正梯度估計(jì),優(yōu)化訓(xùn)練速度一、引言不同學(xué)習(xí)率衰減方法結(jié)果GPU的重要性并行計(jì)算是一種將特定計(jì)算分解成可以同時進(jìn)行的,獨(dú)立的較小計(jì)算程序的程序。在將特定計(jì)算分別為較小的獨(dú)立計(jì)算后,將計(jì)算時間一致的計(jì)算結(jié)果再次組合為最終結(jié)果。目前工業(yè)界所用設(shè)備中包含計(jì)算單元最多的是圖像處理器設(shè)備(Graphicsprocessingunit,GPU),擁有成千上萬個核心數(shù),可以完全滿足并行計(jì)算的需求。GPU可以加速神經(jīng)網(wǎng)絡(luò)的計(jì)算,減少模型更新和設(shè)計(jì)的時間。對于一個普通的深度學(xué)習(xí)模型,當(dāng)不使用GPU時,訓(xùn)練周期可能長達(dá)幾周甚至幾個月。而基于GPU進(jìn)行訓(xùn)練時,訓(xùn)練周期可以縮短為幾小時或者幾天。一、引言76

引言123

模型范式5

深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用深度學(xué)習(xí)中常用的網(wǎng)絡(luò)結(jié)構(gòu):卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNN)循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurrentNeuralNetwork,RNN)自動編碼器(Autoencoder,AE)二、模型范式卷積神經(jīng)網(wǎng)絡(luò)(CNN)卷積神經(jīng)網(wǎng)絡(luò)(Convolutionalneuralnetworks,CNN)是深度神經(jīng)網(wǎng)絡(luò)的代表之一,適合處理空間數(shù)據(jù),在計(jì)算機(jī)視覺領(lǐng)域應(yīng)用非常廣泛二、模型范式卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu):輸入層卷積層池化層全連接層二、模型范式卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)二、模型范式卷積神經(jīng)網(wǎng)絡(luò)將原始高維輸入轉(zhuǎn)化為了低維特征矩陣,從而減少了原始模型的參數(shù)量,同時沒有損失過多的原始信息卷積操作可以保持圖像的空間連續(xù)性,同時還可以提取圖像的局部特征池化操作可以降低中間隱藏層的維度,減少卷積層之后神經(jīng)網(wǎng)絡(luò)節(jié)點(diǎn)的運(yùn)算量卷積操作和池化操作過程:二、模型范式卷積操作和池化操作

二、模型范式循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)循環(huán)神經(jīng)網(wǎng)絡(luò)是一類專門處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。如同卷積網(wǎng)絡(luò)專門用來處理矩陣式數(shù)據(jù),循環(huán)神經(jīng)網(wǎng)絡(luò)對長序列的數(shù)據(jù)預(yù)測和建模非常有效。二、模型范式

二、模型范式(7-1)典型動態(tài)控制系統(tǒng)典型動態(tài)控制系統(tǒng):二、模型范式(7-3)有外部輸入的動態(tài)控制系統(tǒng)進(jìn)一步地,考慮有外部驅(qū)動信號的動態(tài)控制系統(tǒng):

循環(huán)神經(jīng)網(wǎng)絡(luò)主要特點(diǎn):輸入序列信息,對應(yīng)輸出序列信息,同時內(nèi)部的狀態(tài)值會在各個時間步長中進(jìn)行傳遞。二、模型范式循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)二、模型范式(7-4)是

時刻輸入層的輸入向量是相鄰神經(jīng)元時刻的狀態(tài)向量是輸入對應(yīng)的權(quán)重矩陣是相鄰兩個神經(jīng)元的隱含層權(quán)重矩陣是

時刻隱含層和輸出層之間的權(quán)重矩陣為非線性激活函數(shù)

其中:二、模型范式循環(huán)神經(jīng)網(wǎng)絡(luò)主要改型:長短周期記憶模型(long-shorttermmemory,LSTM):當(dāng)輸入序列較長時,整個時間序列較早的信息無法被傳遞到后面,導(dǎo)致歷史信息對未來神經(jīng)元輸出的參考作用越來越弱,即“長時間依賴”,LSTM可有效克服。獨(dú)立循環(huán)神經(jīng)網(wǎng)絡(luò)(independentRNN,IndRNN):主要用來解決的問題是LSTM模型中存在的梯度衰減問題雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(bidirectionalRNN,BiRNN):雙向循環(huán)神經(jīng)網(wǎng)絡(luò)的本質(zhì)是每一個訓(xùn)練的時間序列向前和向后均有一個循環(huán)神經(jīng)網(wǎng)絡(luò),且兩者均連接著同一個輸出層。這種結(jié)構(gòu)可以提供給輸出層的輸入序列每一個點(diǎn)的完整過去和未來上下文信息自動編碼器(AE)自動編碼器本質(zhì)上屬于數(shù)據(jù)壓縮的一種方法,但是它的結(jié)構(gòu)是以深度學(xué)習(xí)模型來展現(xiàn)的。傳統(tǒng)編碼器一般用來數(shù)據(jù)降維或者特征學(xué)習(xí),但是自動編碼器要靈活的多,因?yàn)樗瓤梢员碚骶€性變換也可以表征非線性變換。二、模型范式自動編碼器結(jié)構(gòu):編碼器:將高維輸入編碼為隱含層中的低維信息,從而實(shí)現(xiàn)原始數(shù)據(jù)的數(shù)據(jù)壓縮解碼器:解碼器會將隱含層的低維信息還原到初始維度二、模型范式自動編碼器結(jié)構(gòu)自動編碼器常用類型:欠完備自編碼器:欠完備自編碼器的隱含層維度強(qiáng)制小于輸入層,此模型將強(qiáng)制自編碼器捕捉訓(xùn)練數(shù)據(jù)中最顯著的特征,自編碼器的學(xué)習(xí)過程就是最小化重構(gòu)誤差正則編碼器:正則編碼器使用的損失函數(shù)可以激勵模型學(xué)習(xí)除了輸入與輸出映射關(guān)系的其他特性,而不必限制使用低緯度的隱含層神經(jīng)元數(shù)量或者層數(shù)較少的編碼器和解碼器來限制模型學(xué)習(xí)空間容量變分自編碼器:1)內(nèi)部的特征是服從正態(tài)分布的隨機(jī)變量;2)引入了建議分布,通過變分下界將數(shù)據(jù)概率分布的數(shù)學(xué)期望轉(zhuǎn)化為了建議分布的數(shù)學(xué)期望;3)對編碼器輸出的均值和方程進(jìn)行了線性變換二、模型范式注意力機(jī)制注意力機(jī)制可以以高權(quán)重去聚焦重要信息,以低權(quán)重去忽略不相關(guān)的信息,并且還可以不斷調(diào)整權(quán)重,來適應(yīng)在不同的情況下對重要信息的提取過程二、模型范式注意力機(jī)制注意力機(jī)制特點(diǎn):注意力模型的本質(zhì)就是關(guān)注重點(diǎn)信息而忽略不相關(guān)的信息,直接建立輸入和輸出之間的依賴關(guān)系,從而提高模型運(yùn)行速度(實(shí)際上是一種較弱的先驗(yàn)行為)注意力模型克服了傳統(tǒng)神經(jīng)網(wǎng)絡(luò)中的一些局限,如隨著輸入長度增加系統(tǒng)的性能下降、輸入順序不合理導(dǎo)致計(jì)算效率下降、特征工程能力弱等。同時注意力模型能夠很好地建??勺冮L度的序列數(shù)據(jù)和可變寬度的網(wǎng)格化數(shù)據(jù),進(jìn)一步增強(qiáng)了其捕獲遠(yuǎn)程依賴信息的能力,減少模型層次的同時又有效提高了精度注意力模型的權(quán)重模式是訓(xùn)練之前定義的,對每個輸入數(shù)據(jù)對應(yīng)的權(quán)重模型可以單獨(dú)設(shè)置和訓(xùn)練,因此提高了模型訓(xùn)練過程的并行化程度,使得模型的預(yù)測性能、分類性能更高二、模型范式94

引言123

模型范式5

深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用電力設(shè)備及系統(tǒng)故障診斷光伏功率預(yù)測電力系統(tǒng)快速潮流計(jì)算三、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用電力設(shè)備及系統(tǒng)故障診斷故障定位是在故障發(fā)生后,根據(jù)故障傳播特性、暫態(tài)特性、電氣量變化特性等,判斷故障所在的線路和區(qū)段。這個過程需要非常多的計(jì)算過程而且不易得到最終的結(jié)果。深度學(xué)習(xí)可以直接用原始的電氣量輸入建立端到端模型直接判斷。三、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用不同故障定位技術(shù)對比應(yīng)用實(shí)例:四端直流輸電系統(tǒng)拓?fù)淙⑸疃葘W(xué)習(xí)在智能電網(wǎng)中的應(yīng)用四端直流輸電系統(tǒng)拓?fù)淙?、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用樣本特征提取MTDC系統(tǒng)發(fā)生故障時,電氣量波形的幅值變化能比較明顯地區(qū)分出各個故障,然而實(shí)際系統(tǒng)故障距離的變化不能明顯地反映在幅值上,使得僅僅依靠幅值變化不能可靠地區(qū)分故障的類別和位置。可應(yīng)用頻率分析的小波包分析方法進(jìn)行數(shù)據(jù)預(yù)處理,同時給神經(jīng)網(wǎng)絡(luò)輸入幅值特征和頻率特征,全面捕捉故障特征。首先在故障的幅值確定方面,幅值特征在于確定電氣量幅值變化信息,確定故障波形與正常波形的不同之處。利用信號波形進(jìn)行MTDC線路故障診斷時,把故障信號波形和正常信號波形首尾相連排列成新信號,如此實(shí)現(xiàn)了新信號波形前后幅值特征變化提取。三、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用具體的合成公式:合成后的數(shù)據(jù)故障發(fā)生的時刻采樣點(diǎn)的間隔采樣點(diǎn)的個數(shù)三、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用頻率分析方面:對直流端兩極電壓、正/負(fù)極電流、正/負(fù)極電壓5種電氣量進(jìn)行3層小波包重構(gòu),提取各頻段頻率特征,實(shí)現(xiàn)頻率特征提取。小波包分解小波包重構(gòu)三、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用模型構(gòu)建:故障的幅值特征與頻率特征都得到了對應(yīng)的數(shù)據(jù)之后,構(gòu)建并聯(lián)卷積神經(jīng)網(wǎng)絡(luò)(parallelconvolutionalneuralnetwork,P-CNN),P-CNN可以在人為干預(yù)下將兩個支路分別訓(xùn)練成為有專一功能的神經(jīng)網(wǎng)絡(luò),然后再依靠全連接層結(jié)合在一起。P-CNN的雙支路結(jié)構(gòu)可以讓故障診斷過程更加有序和快速。2條支路分別提取MTDC故障分類特征和故障定位特征,并且依靠P-CNN的特殊性質(zhì)同時進(jìn)行計(jì)算,提高故障診斷快速性。三、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用故障幅值特征與頻率特征P-CNN并聯(lián)神經(jīng)網(wǎng)絡(luò)模型輸入節(jié)點(diǎn)故障電壓幅值特征節(jié)點(diǎn)故障頻率特征模型輸出故障類別故障定位三、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用模型驗(yàn)證:在模型訓(xùn)練完成后,可將設(shè)計(jì)模型與其他模型進(jìn)行相關(guān)性能的比較。通常來說,人工智能學(xué)習(xí)模型再故障診斷方面,以故障診斷準(zhǔn)確率、診斷時間和訓(xùn)練時長作為相關(guān)的性能指標(biāo)??紤]到基于模型方法的故障診斷與定位準(zhǔn)確性受所選閾值的影響比較大,避免了人為造成的不確定因素,將傳統(tǒng)人工智能方法與深度學(xué)習(xí)方法在MTDC故障定位領(lǐng)域的對比進(jìn)行分析。神經(jīng)網(wǎng)絡(luò)故障診斷準(zhǔn)確率/%診斷時間/ms訓(xùn)練時長KNN90.820.70421SVM95.230.80057單支路CNN90.451.24328串聯(lián)結(jié)構(gòu)CNN95.611.86479P-CNN99.241.8565.73不同方法的性能比較結(jié)果三、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用從結(jié)果可以看出,在MTDC線路故障診斷方面,有著更多的神經(jīng)元串聯(lián)結(jié)構(gòu)CNN和P-CNN的準(zhǔn)確性比KNN,SVM和單支路CNN高。在快速性方面,結(jié)構(gòu)簡單的KNN,SVM及單支路CNN表現(xiàn)更加優(yōu)秀,但是整體均滿足快速性的要求。雖然單支路CNN的故障診斷時長優(yōu)于P-CNN,但是準(zhǔn)確性不足,如果在增加故障類型和故障位置導(dǎo)致輸出數(shù)量激增的情況,單支路CNN故障診斷的適應(yīng)能力會進(jìn)一步下降。三、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用光伏功率預(yù)測智能電網(wǎng)中分布式光伏接入的比例越來越高,為了減少光伏波動性對電網(wǎng)穩(wěn)定性的影響,光伏功率預(yù)測技術(shù)必不可少。深度學(xué)習(xí)相比傳統(tǒng)預(yù)測方法,充分利用歷史數(shù)據(jù)的同時可以利用實(shí)時數(shù)據(jù)來更新自身模型。特別地,深度學(xué)習(xí)中的序列模型對具有時間序列特征的光伏功率預(yù)測有著明顯的優(yōu)勢,從而可以提高預(yù)測模型的準(zhǔn)確性。三、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用應(yīng)用實(shí)例:超短周期光伏功率預(yù)測基于多頭注意力機(jī)制的長短周期記憶模型方法15分鐘1小時15分鐘2小時15分鐘4小時誤差MAPERSMEMAPERSMEMAPERSMEMAPERSMEBP0.4011.20.4914.40.6015.60.6719.4LSTM0.329.30.4111.30.4713.80.5215.2AttentionLSTM0.226.40.339.50.4011.20.4312.6多頭注意力機(jī)制的長短周期記憶模型0.112.90.164.60.205.80.287.8不同方法預(yù)測準(zhǔn)確度三、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用模型數(shù)據(jù)處理首先我們需要確定光伏功率預(yù)測的相關(guān)數(shù)據(jù)。通常來講,光伏功率的數(shù)據(jù)包括功率數(shù)據(jù)和氣象數(shù)據(jù)。功率數(shù)據(jù)即為光伏發(fā)電功率數(shù)據(jù),氣象數(shù)據(jù)包括直接輻照度,散射輻照度、總輻照度、溫度、濕度、風(fēng)速、風(fēng)向。由于目前工業(yè)界數(shù)據(jù)采集設(shè)備的缺陷,直接利用傳感器在光伏的逆變器側(cè)測得的數(shù)據(jù)在傳輸和保存過程中會出現(xiàn)誤差。因此首先要對原始數(shù)據(jù)進(jìn)行處理。三、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用模型數(shù)據(jù)處理原始數(shù)據(jù)的異常情況包括:缺失、重復(fù)和異常值。針對缺失數(shù)據(jù)采用數(shù)值插值的方法將該時間段領(lǐng)域的數(shù)據(jù)進(jìn)行平均來作為該時間的預(yù)測數(shù)據(jù)。重復(fù)和異常值通過對歷史數(shù)據(jù)中,同樣是該時間段的數(shù)據(jù)進(jìn)行統(tǒng)計(jì)并畫出頻率分布直方圖。將頻率分布直方圖中出現(xiàn)頻率最低的兩個區(qū)間內(nèi)數(shù)據(jù)剔除,之后同樣利用插值的方法將剔除后的數(shù)據(jù)缺失位填補(bǔ)完整。模型數(shù)據(jù)處理另一方面,原始數(shù)據(jù)與光伏功率的相關(guān)性也需要進(jìn)行檢驗(yàn)。若輸入模型的訓(xùn)練數(shù)據(jù)與目標(biāo)數(shù)據(jù)相關(guān)性較小,那么模型的可信度較小。通常來講,光伏功率預(yù)測與相關(guān)氣象數(shù)據(jù)的相關(guān)度分析使用皮爾遜相關(guān)系數(shù)法。相關(guān)數(shù)越接近1,相關(guān)性越大;相關(guān)數(shù)越接近-1,相關(guān)性越?。辉浇咏?,相關(guān)性越弱??商蕹嚓P(guān)性較小的數(shù)據(jù),保留相關(guān)性較大的數(shù)據(jù)三、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用三、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用模型構(gòu)建光伏功率屬于典型的序列數(shù)據(jù),通常采用長短周期記憶模型進(jìn)行訓(xùn)練。首先要確定序列預(yù)測模型的輸入序列長度和輸出序列長度。針對超短期光伏功率預(yù)測,輸出序列可以為單個時間步也可以為多個時間步長。而預(yù)測方式也分別對應(yīng)了滾動預(yù)測和直接預(yù)測。而為了進(jìn)一步提高預(yù)測精度和計(jì)算效率,在長短周期記憶模型的基礎(chǔ)上可增加多頭注意力模型。三、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用模型構(gòu)建滾動預(yù)測相比直接預(yù)測的區(qū)別,除了模型結(jié)構(gòu)不同外,還有一點(diǎn)就是滾動預(yù)測的預(yù)測模型輸出,會作為下一個時間步預(yù)測的模型輸入。這樣滾動預(yù)測模型理論上可以預(yù)測任意長度的時間序列。但是不可否認(rèn)的是,基于滾動預(yù)測方法的預(yù)測結(jié)果,會隨著預(yù)測時間尺度的增加而下降,而直接預(yù)測方法該特點(diǎn)并不明顯,各個尺度的預(yù)測結(jié)果相對平均。因此在實(shí)際光伏功率預(yù)測的實(shí)際應(yīng)用中,要根據(jù)實(shí)際情況來選擇合適的預(yù)測模型。三、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用滾動預(yù)測模型直接預(yù)測模型三、深度學(xué)習(xí)在智能電網(wǎng)中的應(yīng)用方法15分鐘1小時15分鐘2小時15分鐘4小時誤差MAPERSMEMAPERSMEMAPERSMEMAPERSMEBP0.4011.20.4914.4

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論