基于階比域的ar模型盲辨識方法_第1頁
基于階比域的ar模型盲辨識方法_第2頁
基于階比域的ar模型盲辨識方法_第3頁
基于階比域的ar模型盲辨識方法_第4頁
全文預覽已結(jié)束

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

基于階比域的ar模型盲辨識方法

基于傳統(tǒng)序列模型的盲概率識別算法克服了系統(tǒng)輸入信號的未知和系統(tǒng)階躍的確定問題,同時識別了相應的模型參數(shù)。無需提示模式模型的階次,也不需要確定模型的階次。然而,該算法只適用于平穩(wěn)信號的分析。而工程信號往往表現(xiàn)為非平穩(wěn)特征,如旋轉(zhuǎn)機械在升降速過程中,其振動信號的幅值和頻率均隨時間變化,在機組穿越一階、二階共振點時,振動信號變化相當激烈。即使穩(wěn)態(tài)運行的旋轉(zhuǎn)機械,當出現(xiàn)碰摩、沖擊等故障時,其轉(zhuǎn)子的阻尼、剛度、彈性力等都發(fā)生變化,呈現(xiàn)出非線性,振動信號變得非平穩(wěn),很顯然,若直接對這種非平穩(wěn)信號進行時序模型盲辨識,得到的模型參數(shù)往往不能真正地反映原始信號的特征。因此,為了擴大現(xiàn)有的時序模型盲辨識方法進行改進,以便能適應非平穩(wěn)信號處理。很顯然,若能通過某種途徑,只要能將非平穩(wěn)信號轉(zhuǎn)化為平穩(wěn)信號,則就可以利用時序模型盲辨識直接對轉(zhuǎn)化后的信號進行處理。由于階比分析實質(zhì)是將時域的非平穩(wěn)信號通過等角度采樣轉(zhuǎn)變?yōu)榻怯虻钠椒€(wěn)信號,因此,利用階比采樣,可以很好地滿足時序模型盲辨識的要求。基于此,本文結(jié)合階比采樣和AR模型盲辨識,提出了一種基于階比域的AR模型盲辨識算法,并進行仿真研究,仿真結(jié)果驗證了本文提出的方法的有效性。1xn模型在對原始振動信號建立AR模型之前采用階比采樣進行預處理。階比分析的實質(zhì)是通過階比跟蹤采樣,將時域的非平穩(wěn)信號通過等角度采樣轉(zhuǎn)變?yōu)榻怯虻钠椒€(wěn)信號。對經(jīng)過等角度間隔采樣所得的階比信號x(t)建立如下的自回歸模型AR(p)x(n)=p∑k=1φkx(n-k)+e(t)(1)x(n)=∑k=1pφkx(n?k)+e(t)(1)式中,φk(k=1,2,…,p)、p分別是x(n)的AR模型參數(shù)和模型階數(shù);e為模型的殘差,是均值為零、方差為σ2的白噪聲序列。其自相關函數(shù)滿足:p∑k=0φkrx(t-k)=0,t>0,φk(0)=1(2)∑k=0pφkrx(t?k)=0,t>0,φk(0)=1(2)設?pp?為向量x(n)的AR模型的估計階次,?φk,k=1,2,?,?pφ?k,k=1,2,?,p?為向量x(n)的AR模型的估計系數(shù),rx(n)的估計為?rx(n)r?x(n)。并假設模型預期的最大階數(shù)為L,當t=L,L+1,…,N時,可得到Rx(?p)?θ(?p)=Q(3)其中:Rx(?p)=[?rx(L-1)?rx(L-2)??rx(L-?p)?rx((L+1)-1)?rx((L+1)-2)??rx((L+1)-?p)?????rx(Ν-1)?rx(Ν-2)??rx(Ν-?p)](4)?θ(?p)=[-?φ1-?φ2?-?φ?p]Τ(5)Q=[?rx(L)?rx(L+1)??rx(Ν)]Τ(6)定義誤差向量為:e=Rx(?p)?θ(?p)-Q(7)令代價函數(shù)為:J(?p)=12|e|2=12[Rx(?p)?θ(?p)-Q]Τ[Rx(?p)?θ(?p)-Q](8)則可參考類似文獻的公式推導,可以類似推導出角域向量x(n)的AR模型的遞推估計式:?θ(?p+1)=[?θ(?p)-Ρ(?p)RΤyi(?p)U(?p+1)UΤ(?p+1)V(?p)QUΤ(?p+1)V(?p)U(?p+1)UΤ(?p+1)V(?p)QUΤ(?p+1)V(?p)U(?p+1)](9)J(?p+1)=J(?p)-QΤV(?p)U(?p+1)UΤ(?p+1)V(?p)QUΤ(?p+1)V(?p)U(?p+1)(10)Ρ(?p+1)=[Ρ(?p)+Ρ(?p)RΤx(?p)U(?p+1)UΤ(?p+1)Rx(?p)Ρ(?p)UΤ(?p+1)V(?p)U(?p+1)-Ρ(?p)RΤx(?p)U(?p+1)UΤ(?p+1)V(?p)U(?p+1)UΤ(?p+1)Ryi(?p)Ρ(?p)UΤ(?p+1)V(?p)U(?p+1)1UΤ(?p+1)V(?p)U(?p+1)](11)其中Ρ(?p)=[Rx(?p)ΤRx(?p)]-1(12)U(?p+1)=[?rx(L-(?p+1))?rx(L+1-(?p+1))??rx(Ν-(?p+1))](13)V(?p)=Ι-Rx(?p)Ρ(?p)RΤx(?p)(14)令:A=UΤ(?p+1)V(?p)U(?p+1)(15)B=UΤ(?p+1)V(?p)Q(16)D(?p)=Ρ(?p)RΤx(?p)U(?p+1)(17)Η(?p)=UΤ(?p+1)Rx(?p)Ρ(?p)(18)E=QΤV(?p)U(?p+1)(30)其中D(?p)為?p×1維列向量,Η(?p)為1×?p維行向量,A、B、E為一標量,這樣,得到第i個IMF的AR模型遞推盲辨識式為:Ρ(?p+1)=[Ρ(?p)+D(?p)*Η(?p)A-D(?p)A-Η(?p)A1A](19)?θ(?p+1)=[?θ(?p)-D(?p)*BABA](20)J(?p+1)=J(?p)-E*BA(21)由上可知,新估計是在老估計上修正得到,利用代價函數(shù)來確定AR模型的階次。2穩(wěn)態(tài)信號的辨識仿真一個頻率f隨主軸轉(zhuǎn)速n變化的變頻振動信號(例如旋轉(zhuǎn)機械啟動升速信號),設幅值為10μm,頻率與時間、轉(zhuǎn)速和轉(zhuǎn)角之間的關系為:x(t)=10cos(2πf(t)t)(22)其中頻率f(t)=t,轉(zhuǎn)速n(t)=60f(t),轉(zhuǎn)角?(t)=2πt2以采樣頻率為85Hz從主軸轉(zhuǎn)動開始進行時域采樣,采集512點,如圖1(a)所示,等角度采樣:從開始轉(zhuǎn)動每轉(zhuǎn)采樣64點,即旋轉(zhuǎn)軸每變換π/32rad采集一個值,也采集512點。對上述數(shù)據(jù)繪圖如圖1(b)所示。從圖1(a)可知,時域采樣波形顯示頻率是逐漸增加的,由此可以說明該信號是一個變頻信號,即非穩(wěn)態(tài)信號。由圖1(b)可知,基于同步整周期采樣的階比分析技術可以得到角域中的穩(wěn)態(tài)信號。在角域的穩(wěn)態(tài)信號辨識中,選擇AR模型的階次的上限為10,AR模型的代價函數(shù)隨遞推階次的收斂過程如圖2所示。由圖2可知,開始時,代價函數(shù)值隨遞推階次的增加而迅速下降,當AR模型的階次為2時,其代價函數(shù)值為JAR=0.0003;當相繼增加模型的階次為3,4,5,…時,其代價函數(shù)值JAR幾乎接近為0,代價函數(shù)幾乎不再減少。對應其代價函數(shù)曲線的轉(zhuǎn)折點上的迭代次數(shù)即為模型的階數(shù),由此可確定角域里的穩(wěn)態(tài)正弦信號AR模型的階次為p=2,此時的估計參數(shù)即為系統(tǒng)的估計參數(shù)。為了驗證提出的方法的有效性,在此,將角域里的穩(wěn)態(tài)信號的前256點進行AR模型盲辨識,用后256點來驗證模型的有效性。圖3為后256點的實際輸出與辨識模型的預測輸出之間的誤差。由圖3可知,實際輸出與預測的誤差很小,大概在5%以下。因而,辨識的模型具有非常好的滿意程度。為了比較,將提出的方法直接應用到時域采樣的信號建模中,仿真中,選擇模型的階次的AR模型的上限也為10,AR模型的代價函數(shù)隨遞推階次的收斂過程如圖4所示。同樣,由圖4可確定時域里的非穩(wěn)態(tài)信號AR模型的階次為p=3。為了驗證該模型的可靠性,在此,同樣將時域里的穩(wěn)態(tài)信號的前256點進行AR模型盲辨識,用后256點來驗證該模型的有效性。圖5為后256點的實際輸出與辨識模型的預測輸出之間誤差。由圖5可知,預測輸出與實際輸出隨著信號頻率變化越快,誤差越來越大,該模型不足以描述該非穩(wěn)態(tài)信號,誤差越來越大,這主要是該信號為變頻信號,而AR模型盲辨識只適應處理平穩(wěn)信號,對于非平穩(wěn)信號處理是無能為力的。因而,對時變信號直接進行AR模型盲辨識是不可行的,必須經(jīng)過平穩(wěn)化處理。由此進一步驗證了本文方法的有效性。3模型優(yōu)化方法總覽針對現(xiàn)有的時序模型盲辨識的不足,提出了一種基于階比域的AR模型盲辨識算法。該方法利用階比采樣進行預處理,把時域非平穩(wěn)信號進行平穩(wěn)化處理,然后利用AR模型盲辨

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論