完整地神經(jīng)網(wǎng)絡(luò)講解_第1頁(yè)
完整地神經(jīng)網(wǎng)絡(luò)講解_第2頁(yè)
完整地神經(jīng)網(wǎng)絡(luò)講解_第3頁(yè)
完整地神經(jīng)網(wǎng)絡(luò)講解_第4頁(yè)
完整地神經(jīng)網(wǎng)絡(luò)講解_第5頁(yè)
已閱讀5頁(yè),還剩21頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、實(shí)用標(biāo)準(zhǔn)文案學(xué)習(xí)是神經(jīng)網(wǎng)絡(luò)一種最重要也最令人注目的特點(diǎn)。在神經(jīng)網(wǎng)絡(luò)的發(fā)展進(jìn)程中, 學(xué)習(xí)算法的研究有著十分重要的地位。目前,人們所提岀的神經(jīng)網(wǎng)絡(luò)模型都是和學(xué)習(xí)算法相應(yīng)的。所以,有時(shí)人們并不去祈求對(duì)模型和算法進(jìn)行嚴(yán)格的定義或區(qū)分。有的模型可以有多種算法.而有的算法可能可用于多種模型。不過(guò),有時(shí)人們也稱(chēng)算法為模型。自從40年代Hebb提岀的學(xué)習(xí)規(guī)則以來(lái),人們相繼提岀了各種各樣的學(xué)習(xí)算法。其中以在1986年RUmeIhart 等提岀的誤差反向傳播法,即BP(error BaCkProPagatiOn)法影響最為廣泛。直到今天,BP算法仍然是自動(dòng)控制上最重要、應(yīng)用最多的有效算法。1 . 2 . 1神經(jīng)網(wǎng)

2、絡(luò)的學(xué)習(xí)機(jī)理和機(jī)構(gòu)在神經(jīng)網(wǎng)絡(luò)中,對(duì)外部環(huán)境提供的模式樣本進(jìn)行學(xué)習(xí)訓(xùn)練,并能存儲(chǔ)這種模式,則稱(chēng)為感知器; 對(duì)外部環(huán)境有適應(yīng)能力,能自動(dòng)提取外部環(huán)境變化特征,則稱(chēng)為認(rèn)知器。神經(jīng)網(wǎng)絡(luò)在學(xué)習(xí)中,一般分為有教師和無(wú)教師學(xué)習(xí)兩種。感知器采用有教師信號(hào)進(jìn)行學(xué)習(xí),而認(rèn)知器則采用無(wú)教師信號(hào)學(xué)習(xí)的。在主要神經(jīng)網(wǎng)絡(luò)如BP網(wǎng) 絡(luò),HOPfieId 網(wǎng)絡(luò),ART網(wǎng)絡(luò)和Kohonen 網(wǎng)絡(luò)中;BP網(wǎng)絡(luò)和HOPfieId 網(wǎng)絡(luò)是需要教師信號(hào)才能進(jìn)行學(xué)習(xí)的;而 ART網(wǎng)絡(luò)和 Koho nen網(wǎng)絡(luò)則無(wú)需教師信號(hào)就可以學(xué)習(xí)。所謂教師信號(hào),就是在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中由外部提供 的模式樣本信號(hào)。一、感知器的學(xué)習(xí)結(jié)構(gòu)感知器的學(xué)習(xí)是神經(jīng)網(wǎng)絡(luò)最

3、典型的學(xué)習(xí)。目前,在控制上應(yīng)用的是多層前饋網(wǎng)絡(luò),這是一種感知器模型,學(xué)習(xí)算法是BP法,故是有教師學(xué)習(xí)算法。一個(gè)有教師的學(xué)習(xí)系統(tǒng)可以用圖1 7表示。這種學(xué)習(xí)系統(tǒng)分成三個(gè)部分:輸入部,訓(xùn)練部和輸神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)一般需要多次重復(fù)訓(xùn)練,使誤差值逐漸向零趨近,最后到達(dá)零。則這時(shí)才會(huì)使輸岀與期望一致。故而神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)是消耗一定時(shí)期的,有的學(xué)習(xí)過(guò)程要重復(fù)很多次,甚至達(dá)萬(wàn)次級(jí)。原因在于神經(jīng)網(wǎng)絡(luò)的權(quán)系數(shù)W有很多分量Wl,W2,-W n ;也即是一個(gè)多參數(shù)修改系統(tǒng)。系統(tǒng)的參數(shù)的調(diào)整就必定耗時(shí)耗量。目前,提高神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)速度,減少學(xué)習(xí)重復(fù)次數(shù)是十分重要的研究課題,也是實(shí)時(shí)控制中的關(guān)鍵問(wèn)題。二、感知器的學(xué)習(xí)算法感知

4、器是有單層計(jì)算單元的神經(jīng)網(wǎng)絡(luò),由線性元件及閥值元件組成。感知器如圖1-9所示。精彩文檔感知器的數(shù)學(xué)模型:圖1-9感知器結(jié)構(gòu)ILY = fwixi-i=l(1-12)其中:f.是階躍函數(shù),并且有(1-13)Ii-ITl,u = WiXi-0<O“1是閥值感知器的最大作用就是可以對(duì)輸入的樣本分類(lèi),故它可作分類(lèi)器,感知器對(duì)輸入信號(hào)的分類(lèi)如下:B(I-14)即是,當(dāng)感知器的輸出為1時(shí),輸入樣本稱(chēng)為 A類(lèi);輸岀為-1時(shí),輸入樣本稱(chēng)為 B類(lèi)。從上可知感知器的分類(lèi)邊界是:IL(1-15兀 WiXd-B二Oi 1、在輸入樣本只有兩個(gè)分量X1,X2時(shí),則有分類(lèi)邊界條件:即W1 X1 +W 2 X2 - =

5、0(1-17)也可寫(xiě)成這時(shí)的分類(lèi)情況如固 1 10所示。感知器的學(xué)習(xí)算法目的在于找尋恰當(dāng)?shù)臋?quán)系數(shù)W = (w1 . w2 ,,Wn),使系統(tǒng)對(duì)一個(gè)特定的樣本X = (Xt , x2 ,,Xn)熊產(chǎn)生期望值d。當(dāng)X分類(lèi)為A類(lèi)時(shí),期望值d = 1 ; X為B類(lèi) 時(shí), d=-1。為了方便說(shuō)明感知器學(xué)習(xí)算法,把閥值并人權(quán)系數(shù)W中,同時(shí),樣本 X也相應(yīng)增加一個(gè)分量Xn+1。故令:Wn+1 =- , Xn+1 =1(1-19)則感知器的輸出可表示為:Y=fwixi (1-20)感知器學(xué)習(xí)算法步驟如下:1 對(duì)權(quán)系數(shù)W置初值對(duì)權(quán)系數(shù) W = (W1 W2 ,,Wn , Wn+1 )的各個(gè)分量置一個(gè)較小的零隨機(jī)

6、值,但Wn+1 =g。并記為 Wi (O) , W2 (0) , Wn (0),同時(shí)有 Wn+1(0)= - 。這里 Wi (t)為 t 時(shí)刻從第 i個(gè)輸入上的權(quán)系數(shù),i= 1 , 2 ,,n。Wn+1 (t)為t時(shí)刻時(shí)的閥值。圖1-10感知器的分類(lèi)例子2 輸入一樣本 X = (Xi , X2 ,,Xn+1 )以及它的期望輸岀 d。期望輸岀值d在樣本的類(lèi)屬不同時(shí)取值不同。如果X是A類(lèi),則取d = 1,如果X是B類(lèi),則取-1。期望輸岀d也即是教師信號(hào)。3 計(jì)算實(shí)際輸岀值 Y* 1(t) = fLwi(t)xiI= 14 根據(jù)實(shí)際輸出求誤差 ee = d Y(t) (1-21)5 用誤差e去修改權(quán)

7、系數(shù)Wi(t* 1) = Wi(t + eXii=1,2,n,n+1(1-22)其中,稱(chēng)為權(quán)重變化率,OV 1在式(1 22)中,的取值不能太大.如果1取值太大則會(huì)影響 Wi (t)的穩(wěn)定;的取值也不能太小, 太小則會(huì)使Wi (t)的求取過(guò)程收斂速度太慢。當(dāng)實(shí)際輸岀和期望值 d相同時(shí)有:Wi (t+1)=W i (t)6轉(zhuǎn)到第2點(diǎn),一直執(zhí)行到一切樣本均穩(wěn)定為止。從上面式(1 14)可知,感知器實(shí)質(zhì)是一個(gè)分類(lèi)器,它的這種分類(lèi)是和二值邏輯相應(yīng)的。因此,感知器可以用于實(shí)現(xiàn)邏輯函數(shù)。下面對(duì)感知器實(shí)現(xiàn)邏輯函數(shù)的情況作一些介紹。例:用感知器實(shí)現(xiàn)邏輯函數(shù)Xi VX 2的真值:X10011X20101X1 V

8、 X20111以X1VX2 = 1為A類(lèi),以X1VX2=0 為B類(lèi),則有方程組Wl0 十 W2-0-fl<0(1-23)W1O÷W2l-0W1l+W2*0-fl0LWrl + Wrl-fl0即有:>0w1LWL ÷ WjS(1-24)從式(1 24)有:Wi ,W2 令 Wi =1,W 2 =2則有: 1取 =0.5則有:X1+X2-0.5=0, 分類(lèi)情況如圖1 11所示。圖1-11邏輯函數(shù)Xi VX 2的分類(lèi)1. 2 . 2神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的梯度算法使到網(wǎng)絡(luò)對(duì)于所輸入的模式權(quán)系數(shù)就反映了同類(lèi)輸人由于權(quán)系數(shù)是分散存在的,故前面一節(jié)所講的感知器學(xué)習(xí)算從感如器的學(xué)習(xí)算法

9、可知, 學(xué)習(xí)的目的是在于修改網(wǎng)絡(luò)中的權(quán)系數(shù), 樣本能正確分類(lèi)。當(dāng)學(xué)習(xí)結(jié)束時(shí),也即神經(jīng)網(wǎng)絡(luò)能正確分類(lèi)時(shí),顯然 模式樣本的共同特征。換句話講,權(quán)系數(shù)就是存儲(chǔ)了的輸人模式。神經(jīng)網(wǎng)絡(luò)自然而然就有分布存儲(chǔ)的特點(diǎn)。前面的感知器的傳遞函數(shù)是階躍函數(shù),所以,它可以用作分類(lèi)器。法因其傳遞函數(shù)的簡(jiǎn)單而存在局限性。感知器學(xué)習(xí)算法相當(dāng)簡(jiǎn)單,并且當(dāng)函數(shù)線性可分時(shí)保證收斂。但它也存在問(wèn)題:即函數(shù)不是線性可分時(shí),則求不岀結(jié)果;另外,不能推廣到一般前饋網(wǎng)絡(luò)中。為了克服存在的問(wèn)題,所以人們提岀另一種算法梯度算法他即是LMS法)。為了能實(shí)現(xiàn)梯度算法,故把神經(jīng)元的激發(fā)函數(shù)改為可微分函數(shù),例如Sigmoid 函數(shù),非對(duì)稱(chēng)Sigmoi

10、d 函數(shù)為 f(X)=1(1+e-X),對(duì)稱(chēng) SigmOid 函數(shù) f(X)=(1-e -x )(1+e -x );而不采用式(1 13)的階躍函數(shù)。對(duì)于給定的樣本集 Xi (i = 1,2,n),梯度法的目的是尋找權(quán)系數(shù)W* ,使得fW * Xi 與期望輸出Yi盡可能接近。設(shè)誤差e采用下式表示:其中,Yi = f W* Xi是對(duì)應(yīng)第i個(gè)樣本Xi的實(shí)時(shí)輸岀Yi是對(duì)應(yīng)第i個(gè)樣本Xi的期望輸岀。要使誤差e最小,可先求取 e的梯度:=SfW(I-26)其中:1C(1-27)令 Uk =W Xk ,則有:即有:憲一(Y久卜 F(UJxfc(1-29)最后有按負(fù)梯度方向修改權(quán)系數(shù)W的修改規(guī)則:(1-30

11、)1 =7 I也可寫(xiě)成:Wk+1-Wk + (-aw> TeWl (I-31)在上式(1 30),式(1 31)中,是權(quán)重變化率,它視情況不同而取值不同,一般取0-1之間的小數(shù)。很明顯,梯度法比原來(lái)感知器的學(xué)習(xí)算法進(jìn)了一大步。其關(guān)鍵在于兩點(diǎn):1 神經(jīng)元的傳遞函數(shù)采用連續(xù)的S型函數(shù),而不是階躍函數(shù);2 對(duì)權(quán)系數(shù)的修改采用誤差的梯度去控制,而不是采用誤差去控制。故而有更好的動(dòng)態(tài)特能,即加強(qiáng)了收斂進(jìn)程。但是梯度法對(duì)于實(shí)際學(xué)習(xí)來(lái)說(shuō),仍然是感覺(jué)太慢;所以,這種算法仍然是不理想的。1 . 2 3反向傳播學(xué)習(xí)的 BP算法反向傳播算法也稱(chēng) BP算法。由于這種算法在本質(zhì)上是一種神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的數(shù)學(xué)模型,所以

12、,有時(shí)也稱(chēng)為BP模型。BP算法是為了解決多層前向神經(jīng)網(wǎng)絡(luò)的權(quán)系數(shù)優(yōu)化而提岀來(lái)的;所以,BP算法也通常暗示著神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)是一種無(wú)反饋的多層前向網(wǎng)絡(luò)。故而有時(shí)也稱(chēng)無(wú)反饋多層前向網(wǎng)絡(luò)為BP模型。在這里,并不要求過(guò)于嚴(yán)格去爭(zhēng)論和區(qū)分算法和模型兩者的有關(guān)異同。感知機(jī)學(xué)習(xí)算法是一種單層網(wǎng)絡(luò)的學(xué)習(xí)算法。在多層網(wǎng)絡(luò)中它只能改變最后權(quán)系數(shù)。因此,感知機(jī)學(xué)習(xí)算法不能用于多層神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)。1986 年, RUmelhart 提岀了反向傳播學(xué)習(xí)算法,即 BP(backpropagatiOn)算法。這 種算法可以對(duì)網(wǎng)絡(luò)中各層的權(quán)系數(shù)進(jìn)行修正,故適用于多層網(wǎng)絡(luò)的學(xué)習(xí)。BP算法是目前最廣泛用的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法之一,

13、在自動(dòng)控制中是最有用的學(xué)習(xí)算法。、BP算法的原理BP算法是用于前饋多層網(wǎng)絡(luò)的學(xué)習(xí)算法,前饋多層網(wǎng)絡(luò)的結(jié)構(gòu)一般如圖1 12所示信號(hào)圖1-12 網(wǎng)絡(luò)學(xué)習(xí)結(jié)構(gòu)它含有輸人層、輸岀層以及處于輸入輸岀層之間的中間層。中間層有單層或多層,由于它們和外界沒(méi)有直接的聯(lián)系, 故也稱(chēng)為隱層。在隱層中的神經(jīng)元也稱(chēng)隱單元。隱層雖然和外界不連接.但是,它們的狀態(tài)則影響輸入輸岀之間的關(guān)系。這也是說(shuō),改變隱層的權(quán)系數(shù),可以改變整個(gè)多層神經(jīng)網(wǎng)絡(luò)的性能。設(shè)有一個(gè)m層的神經(jīng)網(wǎng)絡(luò),并在輸入層加有樣本 X;設(shè)第k層的i神經(jīng)元的輸入總和表示為Uik,輸岀Xi k ;從第k 1層的第j個(gè)神經(jīng)元到第k層的第i個(gè)神經(jīng)元的權(quán)系數(shù)為 Wij各個(gè)神

14、經(jīng)元的 激發(fā)函數(shù)為f ,則各個(gè)變量的關(guān)系可用下面有關(guān)數(shù)學(xué)式表示:Xi k =f(U i k )(1-32)姑二孕 WiiXFl(1-33)反向傳播算法分二步進(jìn)行,即正向傳播和反向傳播。這兩個(gè)過(guò)程的工作簡(jiǎn)述如下。1 正向傳播輸入的樣本從輸入層經(jīng)過(guò)隱單元一層一層進(jìn)行處理,通過(guò)所有的隱層之后,則傳向輸出層;在逐層處理的過(guò)程中,每一層神經(jīng)元的狀態(tài)只對(duì)下一層神經(jīng)元的狀態(tài)產(chǎn)生影響。在輸岀層把現(xiàn)行輸岀和期望輸出進(jìn)行比較,如果現(xiàn)行輸出不等于期望輸出,則進(jìn)入反向傳播過(guò)程。2 反向傳播反向傳播時(shí),把誤差信號(hào)按原來(lái)正向傳播的通路反向傳回,并對(duì)每個(gè)隱層的各個(gè)神經(jīng)元的權(quán)系數(shù)進(jìn)行修改,以望誤差信號(hào)趨向最小。二、BP算法的

15、數(shù)學(xué)表達(dá)BP算法實(shí)質(zhì)是求取誤差函數(shù)的最小值問(wèn)題。這種算法采用非線性規(guī)劃中的最速下降方法,按誤 差函數(shù)的負(fù)梯度方向修改權(quán)系數(shù)。為了說(shuō)明BP算法,首先定義誤差函數(shù) e。取期望輸岀和實(shí)際輸岀之差的平方和為誤差函數(shù),則 有:E=舟莘(XF-Y滬(1-34)其中:Yi是輸出單元的期望值;它也在這里用作教師信號(hào);Xi m是實(shí)際輸岀;因?yàn)榈?m層是輸岀層。由于BP算法按誤差函數(shù) e的負(fù)梯度方向修改權(quán)系數(shù),故權(quán)系數(shù)Wij的修改量AW j ,和e(1-35)也可寫(xiě)成(1-36)其中:為學(xué)習(xí)速率,即步長(zhǎng)。很明顯,根據(jù) BP算法原則,求 ae/aW j最關(guān)鍵的。下面求 ae/aW j ;有eeiC NUiIt 1H

16、m c3wij auik 叫(1-37)由于3U刃耳X】j)I3W呷f(wàn) IUj(1-38)故而(1-39)從而有W - - F衛(wèi)皂I)3Wlj% I二-噸Cjk-I(1-40)令 auLk(1-41)則有學(xué)習(xí)公式: Wj = - d,cX(1-42)其中:為學(xué)習(xí)速率,即步長(zhǎng),一般取 0-1間的數(shù)。從上面可知,d ik實(shí)際仍末給岀明顯的算法公式,下面求 di k的計(jì)算公式。de 3XiiE(1-43)從式(1-32)可知在式(1-43)中,有(1-44)為了方便進(jìn)行求導(dǎo),取 f為連續(xù)函數(shù)。一般取非線性連續(xù)函數(shù),例如Sigmoid 函數(shù)。當(dāng)取f為非對(duì)稱(chēng)SigmOid 函數(shù)時(shí),有:f(Uik)ST則

17、有:f'(U i k )=f'(U i k )(1-f(U i k )=X i k (1-X i k )(1-45)再考慮式(1 43)中的偏微分項(xiàng)ae /aXi k ,有兩種情況需考慮的:如果k = m ,則是輸岀層,這時(shí)有Yi是輸岀期望值,它是常數(shù)。從式(1-34)有% %3Xit _ 旳= CXim-Yi)(1-46)從而有 di m =X i m (1-X i m )(X i m -Yi )(1-47)2 如果k<m ,則該層是隱層這時(shí)應(yīng)考慮上一層對(duì)它的作用,故有:-.才型T JXjk TaUlk+l ax?(1-48)從式(1 41)中,可知有:k+l(1-49

18、)從式(1 33)中,可知有:aikaxjtILlj=I(1-50)故而有 = w11-d,k(1-51)最后有:4lC=XiiC(I -X>vwi÷1(1-52)從上述過(guò)程可知:多層網(wǎng)絡(luò)的訓(xùn)練方法是把一個(gè)樣本加到輸入層,并根據(jù)向前傳播的規(guī)則:Xi k =f(U i k )不斷一層一層向輸出層傳遞,最終在輸出層可以得到輸出Xi m。把Xim和期望輸岀Yi進(jìn)行比較如果兩者不等,則產(chǎn)生誤差信號(hào)e,接著則按下面公式反向傳播修改權(quán)系數(shù):AWij= -dit(1-53)其中di m =Xim (1-X i m )(Xim-Yi)dik = Xit(l-Xik)id1k+1上面公式中,求取

19、本層dik時(shí),要用到高一層的 dik+1 ;可見(jiàn),誤差函數(shù)的求取是從輸岀層開(kāi)始, 到輸入層的反向傳播過(guò)程。在這個(gè)過(guò)程中不斷進(jìn)行遞歸求誤差。通過(guò)多個(gè)樣本的反復(fù)訓(xùn)練,同時(shí)向誤差漸漸減小的方向?qū)?quán)系數(shù)進(jìn)行修正,以達(dá)最終消除誤差。從上面公式也可以知道,如果網(wǎng)絡(luò)的層數(shù)較多時(shí),所用的計(jì)算量就相當(dāng)可觀,故而收斂速度不快。為了加快收斂速度,一般考慮上一次的權(quán)系數(shù),并以它作為本次修正的依據(jù)之一,故而有修正公式:wit+l)= -dik-Xjk-I+<tWt)(1-54)其中:為學(xué)習(xí)速率,即步長(zhǎng),n = 0. 1 0 . 4左右為權(quán)系數(shù)修正常數(shù),取O . 7 0 . 9左右。在上面,式(1 53)也稱(chēng)為一般化的 Delta法則。對(duì)于沒(méi)有隱層的神經(jīng)網(wǎng)絡(luò),可取 WijYj-Xj)- Xi (1-55)其中:,Yi為期望輸出;Xj為輸出層的實(shí)際輸出;Xi為輸入層的輸入。這顯然是一種十分簡(jiǎn)單的情況,式(1 55)也稱(chēng)為簡(jiǎn)單 Delta法則。在實(shí)際應(yīng)用中,只有一般化的 Delta法則式(1 53)或式(1 54)才有意義。簡(jiǎn)單Delta法則式(1 55)只在理論推導(dǎo)上有用。三、BP算法的執(zhí)行步驟在反向傳播算法應(yīng)用于前饋多層網(wǎng)絡(luò)時(shí),采用Sigmoid為激發(fā)面數(shù)時(shí),可用下列步驟對(duì)網(wǎng)絡(luò)的權(quán)系數(shù) Wij進(jìn)行遞歸求取。注意對(duì)于每層有 n個(gè)神經(jīng)元的時(shí)候

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論