版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、Matlab工具箱中的BP與RBF函數(shù)Matlab神經(jīng)網(wǎng)絡(luò)工具箱中的函數(shù)非常豐富,給網(wǎng)絡(luò)設(shè)置合適的屬性,可以加快網(wǎng)絡(luò)的學(xué)習(xí)速度,縮短網(wǎng)絡(luò)的學(xué)習(xí)進(jìn)程。限于篇幅,僅對(duì)本章所用到的函數(shù)進(jìn)行介紹,其它的函數(shù)及其用法請(qǐng)讀者參考聯(lián)機(jī)文檔和幫助。1 BP與RBF網(wǎng)絡(luò)創(chuàng)建函數(shù)在Matlab工具箱中有如表1所示的創(chuàng)建網(wǎng)絡(luò)的函數(shù),作為示例,這里只介紹函數(shù)newff、newcf、newrb和newrbe。 表 1 神經(jīng)網(wǎng)絡(luò)創(chuàng)建函數(shù)函數(shù)名含 義newcf創(chuàng)建一個(gè)前向?qū)盈B(cascade-forward)BP網(wǎng)絡(luò)newff創(chuàng)建一個(gè)前饋(feed-forward)BP網(wǎng)絡(luò)newrb設(shè)計(jì)一個(gè)徑向基網(wǎng)絡(luò)newrbe設(shè)計(jì)一個(gè)精
2、密徑向基網(wǎng)絡(luò)(1) newff函數(shù)功能:創(chuàng)建一個(gè)前饋BP神經(jīng)網(wǎng)絡(luò)。調(diào)用格式:net = newff(PR,S1 S2.SNl,TF1 TF2.TFNl,BTF,BLF,PF)參數(shù)說(shuō)明: PR - R個(gè)輸入的最小、最大值構(gòu)成的R×2矩陣; Si SNI層網(wǎng)絡(luò)第i層的神經(jīng)元個(gè)數(shù); TFi - 第i層的傳遞函數(shù),可以是任意可導(dǎo)函數(shù),默認(rèn)為 'tansig',可設(shè)置為logsig,purelin等; BTF -反向傳播網(wǎng)絡(luò)訓(xùn)練函數(shù), 默認(rèn)為 'trainlm',可設(shè)置為trainbfg,trainrp,traingd等; BLF -反向傳播權(quán)值、閾值學(xué)習(xí)函數(shù),
3、默認(rèn)為 'learngdm'; PF -功能函數(shù),默認(rèn)為'mse'; (2) newcf函數(shù)功能:創(chuàng)建一個(gè)N層的層疊(cascade)BP網(wǎng)絡(luò)調(diào)用格式:net = newcf(Pr,S1 S2.SNl,TF1 TF2.TFNl,BTF,BLF,PF)參數(shù)同函數(shù)newff。(3) newrb函數(shù)功能:創(chuàng)建一個(gè)徑向基神經(jīng)網(wǎng)絡(luò)。徑向基網(wǎng)絡(luò)可以用來(lái)對(duì)一個(gè)函數(shù)進(jìn)行逼近。newrb函數(shù)用來(lái)創(chuàng)建一個(gè)徑向基網(wǎng)絡(luò),它可以是兩參數(shù)網(wǎng)絡(luò),也可以是四參數(shù)網(wǎng)絡(luò)。在網(wǎng)絡(luò)的隱層添加神經(jīng)元,直到網(wǎng)絡(luò)滿足指定的均方誤差要求。調(diào)用格式:net = newrb(P,T,GOAL,SPREAD)參數(shù)說(shuō)
4、明: P:Q個(gè)輸入向量構(gòu)成的R×Q矩陣; T:Q個(gè)期望輸出向量構(gòu)成的S×Q矩陣; GOAL:均方誤差要求,默認(rèn)為0。 SPREAD:分散度參數(shù),默認(rèn)值為1。SPREAD越大,網(wǎng)絡(luò)逼近的函數(shù)越平滑,但SPREAD取值過(guò)大將導(dǎo)致在逼近變化比較劇烈的函數(shù)時(shí)神經(jīng)元過(guò)多,若SPREAD取值過(guò)小,則導(dǎo)致在逼近平滑函數(shù)時(shí),導(dǎo)致神經(jīng)元過(guò)多。 (4) newrbe函數(shù)功能:創(chuàng)建一個(gè)精密徑向基網(wǎng)絡(luò)。newrbe函數(shù)可以很快地根據(jù)設(shè)計(jì)向量創(chuàng)建一個(gè)0誤差的徑向基網(wǎng)絡(luò)。調(diào)用格式:Net=Newrbe(P,T,SPREAD)參數(shù)說(shuō)明: 參數(shù)P,T和SPREAD同newrb函數(shù)中的參數(shù)P,T和SPREA
5、D含義相同。2 網(wǎng)絡(luò)訓(xùn)練函數(shù)(1) Adapt函數(shù)功能:神經(jīng)網(wǎng)絡(luò)單步訓(xùn)練函數(shù)。調(diào)用格式:net,Y,E,Pf,Af = adapt(net,P,T,Pi,Ai)參數(shù)說(shuō)明:Adapt函數(shù)調(diào)用由net.adaptFcn所指定的函數(shù)和net.adaptParam所指定的參數(shù)來(lái)訓(xùn)練網(wǎng)絡(luò)。在執(zhí)行命令A(yù)dapt之前,可以預(yù)先指定訓(xùn)練函數(shù)net.adaptFcn和訓(xùn)練參數(shù)net.adaptParam。輸入?yún)?shù): net 所要訓(xùn)練的網(wǎng)絡(luò); P - 網(wǎng)絡(luò)的輸入; T - 網(wǎng)絡(luò)的期望輸出,可選項(xiàng),只在有教師訓(xùn)練時(shí)需要,一般不用,默認(rèn)值為0; Pi 初始輸入延遲,可選項(xiàng),只在有輸入延遲時(shí)需要,一般不用,默認(rèn)值為0;
6、 Ai 初始層延遲,可選項(xiàng),只在有層延遲時(shí)需要,默認(rèn)值為0; 輸出參數(shù):NET 訓(xùn)練后的網(wǎng)絡(luò); Y - 網(wǎng)絡(luò)輸出; E - 網(wǎng)絡(luò)誤差; Pf -訓(xùn)練后的輸入延遲,一般不用.; Af -訓(xùn)練后的層延遲,一般不用。ADAPT的參數(shù)有兩種格式:陣列格式和矩陣格式。陣列格式易于描述,最適合于多輸入多輸出網(wǎng)絡(luò)。當(dāng)ADAPT的參數(shù)為陣列格式時(shí):P - Ni×TS陣列, 陣列的每個(gè)元素Pi,ts是一個(gè)Ri×Q 的矩陣; T - Nt×TS陣列, 陣列的每個(gè)元素Pi,ts是一個(gè)Vi×Q的矩陣; Pi - Ni×ID陣列, 陣列的每個(gè)元素i,k是一個(gè)Ri
7、5;Q 的矩陣;Ai - Nl×LD陣列, 陣列的每個(gè)元素i,k是一個(gè)Si×Q的矩陣; 其中:Ni = net.numInputs Nl = net.numLayers Nt = net.numTargets ID = net.numInputDelays LD = net.numLayerDelays TS = Number of time steps Q = Batch size Ri = net.inputsi.size Si = net.layersi.size Vi = net.targetsi.size 矩陣格式最適合于單輸入單輸出網(wǎng)絡(luò),但也可以用于多輸入多輸出
8、網(wǎng)絡(luò)。每個(gè)矩陣元素通過(guò)把相應(yīng)陣列參數(shù)元素存儲(chǔ)到一個(gè)單一的矩陣來(lái)尋找。當(dāng)ADAPT的參數(shù)為矩陣格式時(shí):P-(sum of Ri)×Q matrix T-(sum of Vi)×Q matrix Pi-(sum of Ri)×(ID*Q) matrixAi-(sum of Si)×LD*Q) matrix其中Pi, Ai, Pf和Af的列為最初的延遲條件到最近的延遲條件。Pii,k為時(shí)刻 ts=k-ID的輸入i; Pfi,k為時(shí)刻ts=TS+k-ID 的輸入 i ;Aii,k為時(shí)刻 ts=k-LD的層輸出i; Afi,k為時(shí)刻ts=TS+k-LD的層輸出i。
9、(2) adaptwb函數(shù)功能:網(wǎng)絡(luò)權(quán)值和偏置單步訓(xùn)練函數(shù)調(diào)用格式:net,Ac,El = adaptwb(net,Pd,T,Ai,Q,TS) info = adaptwb(code)說(shuō)明:adaptwb函數(shù)根據(jù)網(wǎng)絡(luò)的學(xué)習(xí)函數(shù)(net.learnFcn)對(duì)網(wǎng)絡(luò)的權(quán)值和偏置進(jìn)行單步訓(xùn)練。輸入?yún)?shù): net 所要訓(xùn)練的神經(jīng)網(wǎng)絡(luò); Pd 延遲輸入,是一個(gè)No×Ni×TS陣列,元素Pi,j,ts是一個(gè)Zij×Q矩陣; Tl 各層的期望輸出,Nl×TS陣列,元素Pi,ts是一個(gè)Vi×Q矩陣或空矩陣; Ai 初始輸入條件,Nl×LD陣列,元素Ai
10、i,k是一個(gè)Si×Q矩陣; Q 輸入向量的個(gè)數(shù) TS 步長(zhǎng)輸出參數(shù): net 更新后的網(wǎng)絡(luò) Ac 總的層輸出,Nl×(LD+TS)陣列,元素Eli,k是一個(gè)Si×Q矩陣或空矩陣。 El 該層的誤差其中參數(shù)Ni、Nl、LD、Ri、Si和Vi同adapt函數(shù)中的參數(shù)Ni、Nl、LD、Ri、Si和Vi相同。 Zij = Ri*length(net.inputWeightsi,j.delays)adaptwb(code)函數(shù)根據(jù)code返回有用的信息,code可以取為pnames 訓(xùn)練參數(shù)的名稱pdefaults 缺省的訓(xùn)練參數(shù)如果要使一個(gè)網(wǎng)絡(luò)使用adaptwb函數(shù)進(jìn)行網(wǎng)
11、絡(luò)訓(xùn)練,需要作如下設(shè)置: 設(shè)置net.adaptFcn為adaptwb(net.adaptParam將自動(dòng)設(shè)為adaptwb的缺省值); 設(shè)置第i層各偏置的學(xué)習(xí)函數(shù)(net.biasesi.learnFcn)和各權(quán)值的學(xué)習(xí)函數(shù)(net.inputWeightsi,j.learnFcn 和net.layerWeightsi,j.learnFcn)為各自的期望學(xué)習(xí)函數(shù);(3) train函數(shù)功能:神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)函數(shù)。調(diào)用格式:net,tr = train(net,P,T,Pi,Ai) net,tr = train(net,P,T,Pi,Ai,VV,TV)說(shuō)明: train函數(shù)根據(jù)net.trainF
12、cn和net.trainParam訓(xùn)練網(wǎng)絡(luò)net。輸入?yún)?shù):train函數(shù)的輸入?yún)?shù)同adapt函數(shù)的輸入?yún)?shù)相同。輸出參數(shù): net 返回網(wǎng)絡(luò); tr 網(wǎng)絡(luò)訓(xùn)練步數(shù)和性能; Train函數(shù)的信號(hào)參數(shù)可以有兩種格式:陣列或矩陣, 輸入?yún)?shù)的陣列格式和矩陣格式同adapt函數(shù)相同。Train函數(shù)的第二種調(diào)用格式net,tr =train(NET,P,T,Pi,Ai,VV,TV)與其第一種格式的區(qū)別在于:第二種調(diào)用格式在訓(xùn)練完網(wǎng)絡(luò)過(guò)程中進(jìn)行網(wǎng)絡(luò)測(cè)試,確認(rèn)向量用來(lái)盡早終止訓(xùn)練,以免過(guò)訓(xùn)練損害網(wǎng)絡(luò)的普遍性,而第一種調(diào)用格式在訓(xùn)練過(guò)程中不進(jìn)行這種測(cè)試。如果VV.Pi、VV.Ai設(shè)為空矩陣或空陣列,將使用
13、起默認(rèn)值。其中VV.P,TV.P為給定/測(cè)試輸入,VV.T, TV.T為給定/測(cè)試輸入的期望輸出,默認(rèn)值為0;VV.Pi,TV.Pi為給定/測(cè)試初始輸入延遲條件,默認(rèn)值為0; VV.Ai,TV.Ai為給定/測(cè)試層延遲條件,默認(rèn)值為0;(4) trainwb函數(shù)功能:網(wǎng)絡(luò)權(quán)值/偏置訓(xùn)練函數(shù)調(diào)用格式:net,tr=trainwb(net,Pd,Tl,Ai,Q,TS,VV)info = trainwb(code)說(shuō)明:輸入?yún)?shù): Pd 延遲輸入,No×Ni×TS陣列,元素Pi,j,ts是一個(gè)Dij×Q矩陣,其中u Dij=Ri*length(net.inputWeigh
14、tsi,j.delays) VV 變量向量結(jié)構(gòu)體或空矩陣 其它參數(shù)同adaptwb函數(shù)中相應(yīng)的參數(shù)相同。 輸出參數(shù): net 訓(xùn)練后的網(wǎng)絡(luò) tr 每一步中各個(gè)值的訓(xùn)練記錄,它有四個(gè)參量,tr.epoch為訓(xùn)練次數(shù),tr.perf為訓(xùn)練性能,tr.vperf為驗(yàn)證性能,tr.tperf為測(cè)試性能。同adaptwb函數(shù)一樣,若要設(shè)計(jì)一個(gè)用trainwb函數(shù)進(jìn)行訓(xùn)練的網(wǎng)絡(luò),需要對(duì)網(wǎng)絡(luò)作一些設(shè)置,設(shè)置的參數(shù)與設(shè)置方法同adaptwb相同。3 網(wǎng)絡(luò)初始化函數(shù)(1) init函數(shù)功能:網(wǎng)絡(luò)初始化函數(shù)。調(diào)用格式:init(net)說(shuō)明:根據(jù)由net.initFcn說(shuō)明的網(wǎng)絡(luò)初始化函數(shù)和net.initPar
15、am說(shuō)明的參數(shù)值重新初始化網(wǎng)絡(luò)的權(quán)值和閾值。示例:net = newp(0 1;-2 2,1); %創(chuàng)建一個(gè)感知器神經(jīng)網(wǎng)絡(luò);net.iw1,1 %顯示網(wǎng)絡(luò)的輸入權(quán)值,其結(jié)果為ans =0 0 P = 0 1 0 1; 0 0 1 1; %網(wǎng)絡(luò)的輸入矩陣T = 0 0 0 1; %網(wǎng)絡(luò)的輸出矩陣net = train(net,P,T); %對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練net.iw1,1 %顯示訓(xùn)練后網(wǎng)絡(luò)的輸入權(quán)值,其結(jié)果為ans =1 1net = init(net); %重新初始化網(wǎng)絡(luò)net.iw1,1 %顯示重新初始化后網(wǎng)絡(luò)的輸入權(quán)值,其結(jié)果為ans =0 0(2) initlay函數(shù)功能:網(wǎng)絡(luò)層初始化函
16、數(shù)。調(diào)用格式:net = initlay(net)info= initlay(code)說(shuō)明:第一種調(diào)用格式根據(jù)網(wǎng)絡(luò)各層的初始化函數(shù)net.layersi.initFcn對(duì)網(wǎng)絡(luò)相應(yīng)層進(jìn)行初始化,其中i為初始化層的序號(hào);第二種調(diào)用格式根據(jù)code指定的代碼返回一些有用的信息,其中code可以取 pnames 初始化參數(shù)的名稱 pdefaults 缺省的初始化參數(shù)(3) initwb函數(shù)功能:神經(jīng)網(wǎng)絡(luò)某一層的權(quán)值和偏置的初始化函數(shù)調(diào)用格式:net = initwb(net,i)說(shuō)明:initwb函數(shù)只對(duì)網(wǎng)絡(luò)中的第i層的權(quán)值和偏置進(jìn)行初始化。(4) initzero函數(shù)功能:將權(quán)值/偏置初始化為0的
17、函數(shù)。調(diào)用格式:W=initzero(S,PR)B=initzero(S,1 1)說(shuō)明:initzero(S,PR)函數(shù)將網(wǎng)絡(luò)的權(quán)值矩陣初始化為0矩陣;B=initzero(S,1 1)將網(wǎng)絡(luò)的偏置初始化為0,它返回一個(gè)0偏置向量。其中S為神經(jīng)元個(gè)數(shù),PR為輸入向量的范圍。4 網(wǎng)絡(luò)學(xué)習(xí)函數(shù)Matlab工具箱中的學(xué)習(xí)函數(shù)用于網(wǎng)絡(luò)的設(shè)置,以配合adapt函數(shù)和train函數(shù)對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,一般不單獨(dú)調(diào)用。(1) Learnp函數(shù)功能:感知器權(quán)值和偏置值學(xué)習(xí)函數(shù)。調(diào)用格式:dW,LS = learnp(W,P,Z,N,A,T,E,gW,gA,D,LP,LS) db,LS = learnp(b,one
18、s(1,Q),Z,N,A,T,E,gW,gA,D,LP,LS) info= learnp(code)參數(shù)說(shuō)明:輸入?yún)?shù)W - S×R權(quán)值矩陣 (或 S×1 偏置向量);P - R×Q 輸入向量 ;Z - S×Q 加權(quán)輸入向量;N - S×Q 網(wǎng)絡(luò)輸入向量; A - S×Q輸出向量; T - S×Q l層期望向量; E - S×Q 層誤差向量; gW - S×R 關(guān)于性能的梯度; gA - S×Q 關(guān)于性能的輸出梯度;. D - S×S 節(jié)點(diǎn)距離; LP 學(xué)習(xí)參數(shù),它是一個(gè)空矩陣; LS
19、 學(xué)習(xí)狀態(tài),初始狀態(tài)應(yīng)為空; 返回參數(shù): dW - S×R 權(quán)值(或偏置)變化量矩陣; LS 新的學(xué)習(xí)狀態(tài);learnp(code)根據(jù)code代碼返回相應(yīng)的有用信息,code可以取為l pnames 返回學(xué)習(xí)參數(shù)的名稱l pdefaults 返回默認(rèn)的學(xué)習(xí)參數(shù)l needg 如果該函數(shù)使用gW或gA,則返回值為1。(2) learngd函數(shù)功能:梯度下降權(quán)值/偏置學(xué)習(xí)函數(shù)調(diào)用格式:dW,LS = learngd(W,P,Z,N,A,T,E,gW,gA,D,LP,LS) db,LS = learngd(b,ones(1,Q),Z,N,A,T,E,gW,gA,D,LP,LS) info
20、 = learngd(code)說(shuō)明:learngd函數(shù)的參數(shù)同learnp函數(shù)的參數(shù)相同,只是參數(shù)本身附帶一個(gè)學(xué)習(xí)步長(zhǎng)參數(shù)LP.lr,默認(rèn)值為 0.01 其它學(xué)習(xí)函數(shù)的調(diào)用格式和參數(shù)同learnp相同,只是有的學(xué)習(xí)函數(shù)沒(méi)有第二種調(diào)用格式而已,為節(jié)省篇幅起見(jiàn),這里不再贅述。5 網(wǎng)絡(luò)仿真函數(shù)SIM函數(shù)功能:神經(jīng)網(wǎng)絡(luò)仿真函數(shù)。只有在創(chuàng)建好一個(gè)網(wǎng)絡(luò)后才能進(jìn)行網(wǎng)絡(luò)仿真。調(diào)用格式:T,X,Y = SIM('model',TIMESPAN,OPTIONS,UT)T,X,Y1,.,Yn = SIM('model',TIMESPAN,OPTIONS,UT)參數(shù)說(shuō)明:輸出參數(shù):
21、T:返回的時(shí)間向量; X:返回的矩陣狀態(tài)或結(jié)構(gòu)格式狀態(tài); Y:返回的輸出;輸入?yún)?shù): Y1,.,Yn:只能用于框圖模式,這里n為根輸出塊的個(gè)數(shù); model:框圖模型名稱,即仿真的網(wǎng)絡(luò)名,它必須在進(jìn)行網(wǎng)絡(luò)仿真前已經(jīng)創(chuàng)建好; TIMESPAN:時(shí)間范圍,寫成TStart TFinal格式或TStart OutputTimes TFinal格式,其中TStart為起始時(shí)間,Tfinal為終止時(shí)間,OutputTimes為時(shí)間步長(zhǎng); OPTIONS:可選仿真參數(shù),這是由SIMSET創(chuàng)建的一個(gè)結(jié)構(gòu)體,一般不用;UT:可選外部輸入,UT = T, U1, . Un,或者是一個(gè)u=UT(t)的函數(shù)表達(dá)式,
22、其中T = t1, ., tm';溫度 壓力0 MPa1.0 MPa2.0 MPa3.0 MPa4.0 MPa5.0 MPa21.5UP/mV-13.8410.6928.8847.0565.1983.36UT/Mv27.6429.6526.4325.9225.4524.9428UP/mV-13.499.3226.3443.1259.9976.82UT/mV34.4133.9333.4732.9332.4731.9134UP/mV-10.807.5424.8442.0559.2576.38UT/mV37.7636.9235.4435.9735.3935.0944UP/mV-9.726.5623.8741.2158.5875.87UT/mV54.8853.9752.8752.4151.9351.5550UP/mV-8.624.8621.8438.7056.3273.75UT/mV65.7764.7963.8462.9161.9961.0670UP/mV-7.723.7221.2538.6055.5673.28UT/mV86.1284.9483.7882.6581.5580.45UP=-13.84 10.69 2
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 英文版購(gòu)銷合同反駁
- 全力確保合同的能力保證
- 影視作品授權(quán)放映合同
- 個(gè)人借款合同范本簡(jiǎn)單明了
- 農(nóng)產(chǎn)品購(gòu)銷稻谷合同
- 攝影作品授權(quán)合同
- 消防設(shè)備安裝勞務(wù)分包合同
- 環(huán)境監(jiān)測(cè)與咨詢服務(wù)合同
- 旅游班車服務(wù)合同
- 集裝箱購(gòu)買合同范例
- Unit 2 How often do you exercise Section A 1a-2d 教學(xué)實(shí)錄 2024-2025學(xué)年人教版八年級(jí)英語(yǔ)上冊(cè)
- 廣告牌匾安裝施工方案
- 石文化與寶玉石鑒賞智慧樹(shù)知到期末考試答案2024年
- 《設(shè)計(jì)調(diào)查問(wèn)卷》教學(xué)設(shè)計(jì)范文
- 常用抗凝藥物的應(yīng)用及護(hù)理PPT課件
- 枇杷栽培技術(shù)26661
- 離退休干部管理崗試題
- 青島海事局平臺(tái)建設(shè)方案
- 施工現(xiàn)場(chǎng)臨水臨電.PPT
- 高速公路BOT項(xiàng)目公司合同管理辦法
- 依法治校工作機(jī)構(gòu)及職責(zé)
評(píng)論
0/150
提交評(píng)論