




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
1、學(xué)校學(xué)院年級班級Huaqiao university 測控系統(tǒng)課程設(shè)計題 目: 神經(jīng)網(wǎng)絡(luò)的消除干擾方案B1-46 院 (系) 專 業(yè) 學(xué) 號 姓 名 級 別 指導(dǎo)老師 2012年6月目錄1.前言2.原理 2.1神經(jīng)網(wǎng)絡(luò)消除干擾的原理 2.2 adaptwh函數(shù) 2.3 learnwh函數(shù) 2.4程序中用到的訓(xùn)練算法原理3.程序、注釋、結(jié)果 3.1.1程序1與注釋 3.1.2程序1結(jié)果 3.2.1程序2與注釋 3.2.2程序2結(jié)果4.程序分析5.程序小結(jié)6.課設(shè)心得7.參考文獻神經(jīng)網(wǎng)絡(luò)的消除干擾方案B1-46 班級 姓名 指導(dǎo)老師 摘要:本文具體闡述了如何通過自適應(yīng)函數(shù)或神經(jīng)網(wǎng)絡(luò)工具箱中的函數(shù)對
2、構(gòu)造的神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練,然后將含有噪聲的信號分離出噪聲、消除干擾,提取出有用的信號。關(guān)鍵詞:函數(shù),神經(jīng)網(wǎng)絡(luò),消除干擾Abstract:This article provides details on how to train the neural network constructed by the adaptive function. And then we contain the signal of the noise channel isolated from noise, interference cancellation, finally we extract the useful
3、signal.Keywords: function、Neural network、Eliminate the interference1 前言Adaline型的神經(jīng)元將接收到的輸入信號與權(quán)值乘積的總和再加上一個偏移量。這個激活函數(shù)完成一個線性傳遞功能。在工業(yè)中,有用信號x并不能單獨傳輸,其中往往有引入干擾的寄生信號p。實際輸出信號由有用信號x和與p成比例的噪聲構(gòu)成。x+kpx+p系統(tǒng)結(jié)構(gòu)2 原理2.1神經(jīng)網(wǎng)絡(luò)消除干擾的原理把p作為現(xiàn)行神經(jīng)元的輸入重構(gòu)感染噪聲的信號。由于神經(jīng)元是線性的。因此它輸出的一部分與噪聲p成比例,這就是干擾。神經(jīng)元輸出與目標(biāo)輸出之間的誤差即為要提取的有用信號x訓(xùn)練算法。b
4、pt=x+kpyWp+b-+x線性神經(jīng)元系統(tǒng)結(jié)構(gòu)例如,在一個噪聲較大的環(huán)境中打電話,如車間、機場等,想要傳輸最接近于有用信號x的信號,這時已知整個信號,可以用如下自適應(yīng)函數(shù):y,c,w,b=adaptwhw,b,x,t,eta2.2 adaptwh函數(shù)函數(shù)使用格式 a,e,w,b = adaptwh(w,b,p,t,lr)%ADAPTWH Widrow-霍夫規(guī)則相適應(yīng)的線性層.% 使用NNT2LIN 和 ADAPT更新和適應(yīng)網(wǎng)絡(luò)% A,E,W,B = ADAPTWH(W,B,P,T,lr)% W - SxR 權(quán)重矩陣% B - Sx1 偏置向量% P - RXQ輸入向量矩陣% T -目標(biāo)向量S
5、xQ矩陣% lr - 學(xué)習(xí)率(可選,默認(rèn)值=0.1)。% 返回:% A - 自適應(yīng)線性濾波器的輸出% E - 自適應(yīng)線性濾波器的誤差% W - 新的權(quán)重矩陣% B - 新的偏置向量.如果nargin<4,錯誤(“NNET:參數(shù)','沒有足夠的論據(jù)”),結(jié)束% 訓(xùn)練參數(shù)if nargin = 4, lr = 0.1; endr,q = size(p);s,q = size(t);a = zeros(s,q);e = zeros(s,q);% 呈報期for i=1:q a(:,i) = purelin(w*p(:,i),b); e(:,i) = t(:,i) - a(:,i)
6、; dw,db = learnwh(p(:,i),e(:,i),lr); w = w + dw; b = b + db;End2.3 learnwh函數(shù) dw,ls = learnwh(w,p,z,n,a,t,e,gW,gA,d,lp,ls)LEARNWH Widrow霍夫重量/偏見的學(xué)習(xí)功能。% 句法% dW,LS = learnwh(W,P,Z,N,A,T,E,gW,gA,D,LP,LS)% db,LS = learnwh(b,ones(1,Q),Z,N,A,T,E,gW,gA,D,LP,LS)% info = learnwh(code)% 描述% LEARNWH是Widrow-的霍夫重量
7、/偏置學(xué)習(xí)功能,% 也是最小平方(LMS)原則% LEARNWH(W,P,Z,N,A,T,E,gW,gA,D,LP,LS) 需要多個輸入% W - SxR 偏重矩陣(或b是SX1偏置的載體)% P - RxQ i輸入向量 (或(1,Q).% Z - SxQ 加權(quán)輸入向量.% N - SxQ 凈輸入向量。% A - SxQ 輸出向量。% T - SxQ 層目標(biāo)向量。% E - SxQ 層誤差向量。% gW - SxR 梯度方面的表現(xiàn)。% gA - SxQ 輸出梯度方面的性能。% D - SxS 神經(jīng)元的距離。% LP - 學(xué)習(xí)參數(shù),無, LP = .% LS - 學(xué)習(xí)狀態(tài),最初應(yīng)該是= 。% 返
8、回% dW - SxR 偏重(或偏置)的變化矩陣.% LS - 新的學(xué)習(xí)狀態(tài)% 學(xué)習(xí)是根據(jù)LEARNWH的學(xué)習(xí)參數(shù), 這里顯示其默認(rèn)值。% LP.lr - 0.01 - 學(xué)習(xí)率% LEARNWH(CODE)返回每個CODE串的有用信息:% 'pnames' - 學(xué)習(xí)參數(shù)返回名稱.% 'pdefaults' - 返回默認(rèn)學(xué)習(xí)參數(shù).% 'needg' - 返回1,如果此功能使用gW或GA.% 舉例% 在這里,我們定義一個隨機輸入P和誤差E層 與2元的輸入和3個神經(jīng)元。我們還定義了 學(xué)習(xí)率LR的學(xué)習(xí)參數(shù)。% p = rand(2,1);% e = ra
9、nd(3,1);% lp.lr = 0.5;% 由于LEARNWH只需要這些值來計算權(quán)重的變化(見下面的算法),% dW = learnwh(,p,e,lp,)% Network Use% 你可以創(chuàng)建一個標(biāo)準(zhǔn)的網(wǎng)絡(luò)使用LEARNWH紐林。 要準(zhǔn)備的偏重和層的一個自定義的網(wǎng)絡(luò)偏置用來LEARNWH學(xué)習(xí):% 1)設(shè)置NET.trainFcn為“trainb”。 NET.trainParam將自動成為TRAINB的默認(rèn)參數(shù)。 2)設(shè)置NET.adaptFcn'trains'。 NET.adaptParam將自動成為TRAINS的默認(rèn)參數(shù)。 3)設(shè)置的每個NET.inputWeight
10、sI,J。learnFcn為“l(fā)earnwh”。 設(shè)置的每個NET.layerWeightsI,J。learnFcn為“l(fā)earnwh”。 設(shè)置NET.biases的I。learnFcn為“l(fā)earnwh'。 每權(quán)重和偏置的學(xué)習(xí)參數(shù)屬性將自動設(shè)置LEARNWH的默認(rèn)參數(shù)。 對網(wǎng)絡(luò)進行訓(xùn)練(或使其能夠適應(yīng)): 1)設(shè)置NET.trainParam(NET.adaptParam)屬性所需的值。 2)呼叫TRAIN(適應(yīng))。 看到NEWLIN適應(yīng)和訓(xùn)練的例子。 算法 LEARNWH計算為從給定的神經(jīng)元的權(quán)重變化DW 神經(jīng)元的輸入P和誤差E,權(quán)重(或偏置)學(xué)習(xí) 速率LR,根據(jù)Widrow-Ho
11、ff學(xué)習(xí)規(guī)則:% dw = lr*e*pn'% * NNT2 Support *if nargin = 3 nntobsu('learnp','See help on LEARNP for new argument list.') lp.lr = z; e = p; p = w; dw = learnwh(,p,e,lp,); db = learnwh(,ones(1,size(p,2),e,lp,); ls = db; returnend%功能信息if isstr(w) switch lower(w) case 'name' dw =
12、'Widrow-Hoff' case 'pnames' dw = 'lr' case 'pdefaults' lp.lr = 0.01; dw = lp; case 'needg' dw = 0; otherwise error('NNET:Arguments','Unrecognized code.') end returnend% CALCULATIONdw = lp.lr*e*p'2.4程序中用到的訓(xùn)練算法原理神經(jīng)網(wǎng)絡(luò)的訓(xùn)練包括修改每一步的任何權(quán)值和偏移量,以逐步減小使
13、用Widrow-Hoff規(guī)則的均方誤差的和。每一步訓(xùn)練的輸出誤差是目標(biāo)輸出t和網(wǎng)絡(luò)實際輸出的差。第k步最小化的量是網(wǎng)絡(luò)輸出誤差的方差:這個量的梯度和如下給出的權(quán)值矩陣一致:這個梯度可以按下式計算:根據(jù)的表達式和,偏導(dǎo)數(shù)權(quán)值更新是由梯度下降法產(chǎn)生的,(k+1)步的權(quán)值矩陣為其中為訓(xùn)練增益。所以得到偏移量修改的表達式總的來說,一個Adaline型的神經(jīng)網(wǎng)絡(luò)只有一個含有S個神經(jīng)元節(jié)點的層。如果輸入向量是R維的,權(quán)值矩陣W是(S,R)維的。在每一步計算輸出值y=Wx+b和目標(biāo)向量,這些值在訓(xùn)練算法中要用到。"神經(jīng)網(wǎng)絡(luò)工具箱"提供了learnwh函數(shù)來實現(xiàn)這個算法.dw,db=lea
14、rnwhx,e,etae輸出誤差e=t-y,(S,1)維x輸入向量,(R,1)維eta訓(xùn)練增益dw權(quán)值的變化量,(S,R)維db偏移量的變化量(S,1)維3 程序、注釋、結(jié)果3.1.1程序與注釋% Interference cancellation(消除干擾)clear all, close all, clctime=0:0.1:10; r=sin(time*4*pi); %隨機初始化的W權(quán)重和B偏置R=length(time); %輸入數(shù)S=R; p=randn(size(r); % p 寄生信號 t=r+0.833*p; % 含噪信號w,b=initlin(p,t); % w和b初始化fi
15、gure(1),plot(time,t) %繪圖title('target to be predicted = noised signal'), xlabel('time') y,e=adaptwh(w,b,p,t,0.1); figure(2)plot(r,':')hold onplot(e)title('useful signal = error signal')hold offfigure(3)plot(r-e)title('error=useful signal - reconstructed signal'
16、;)xlabel('time')w,b % final weight and bias3.1.2結(jié)果 含有噪聲的信號 提取有用的信號 誤差變化曲線 程序運行結(jié)果 工作空間中各變量的取值3.2.1程序與程序注釋% Interference cancellation 消除干擾clear all, close all,clctime = 0:0.05:20; r=sin(time*pi); %W權(quán)重和B偏置隨機初始化S = 1;R = S;p= randn(size(time); % p 寄生信號t=r+0.833*p; % 含噪信號w=randn(1,1); % w和b初始化b=r
17、andn(1,1);weight_w=w;bias_b=b;figure(1), plot(time,t)title('target to be predicted = noised signal') %取名為預(yù)測目標(biāo)等于噪聲信號xlabel('time') %橫坐標(biāo)為 時間eta=0.02; %訓(xùn)練增益 for i = 1:length(time) %循環(huán) y(i)=w*p(i)+b; % 神經(jīng)元的輸出 e(i)=t(i)-y(i); %輸出誤差 dw,db=learnwh(p(i),e(i),eta); %使用神經(jīng)網(wǎng)絡(luò)工具箱中的learnwh函數(shù) w=w+d
18、w; %更新的權(quán)重和偏置 b=b+db; weight_w=weight_w,w; %保存權(quán)重和偏置 bias_b=bias_b,b;endfigure(2)plot(time,r,':'), hold on, plot(time,e) %繪制重構(gòu)信號函數(shù),繪制誤差信號圖像title('useful signal = error signal') hold offfigure(3)plot(time,r-e) %繪制誤差信號圖像title('error = useful signal - reconstruted signal') xlabel('time') % 分別輸入 w 和b回車可得結(jié)果 3.2.2
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 公司員工入職合同樣本
- 上海疫情租車合同范例
- 二手車發(fā)動機轉(zhuǎn)讓合同標(biāo)準(zhǔn)文本
- 兌快遞合同標(biāo)準(zhǔn)文本
- 企業(yè)內(nèi)退合同標(biāo)準(zhǔn)文本
- 個人鏟車租賃合同標(biāo)準(zhǔn)文本
- 他人捐款合同范例
- 共享單車落地合同標(biāo)準(zhǔn)文本
- 人力資源公司勞動合同標(biāo)準(zhǔn)文本
- 企業(yè)托管經(jīng)營服務(wù)合同標(biāo)準(zhǔn)文本
- 大型設(shè)備的吊裝技術(shù)課件
- 各種網(wǎng)絡(luò)安全設(shè)備巡檢報告匯總
- 拖欠貨款合同糾紛起訴狀范本
- 愛美的小公雞(共22張)課件
- 碳酸丙烯酯法脫碳工藝工程設(shè)計
- 巧用繪本提升自閉癥兒童語言表達能力
- 計數(shù)型量具分析報告(Excel帶計算KAPPA公式)
- 麗聲北極星分級繪本第三級下 A Long Wait課件
- 瀝青路面工程施工監(jiān)理細則
- 新規(guī)范四統(tǒng)表(范本)
- 不穩(wěn)定性心絞痛和非ST段抬高心肌梗死診斷與治療指南(全文)
評論
0/150
提交評論