計(jì)算機(jī)視覺(jué)應(yīng)用開發(fā)課件:LSTM(上)_第1頁(yè)
計(jì)算機(jī)視覺(jué)應(yīng)用開發(fā)課件:LSTM(上)_第2頁(yè)
計(jì)算機(jī)視覺(jué)應(yīng)用開發(fā)課件:LSTM(上)_第3頁(yè)
計(jì)算機(jī)視覺(jué)應(yīng)用開發(fā)課件:LSTM(上)_第4頁(yè)
計(jì)算機(jī)視覺(jué)應(yīng)用開發(fā)課件:LSTM(上)_第5頁(yè)
已閱讀5頁(yè),還剩9頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

LSTMRNN概述01任務(wù)LSTM概述02任務(wù)學(xué)習(xí)目標(biāo)了解RNN的網(wǎng)絡(luò)結(jié)構(gòu)了解LSTM的基本概念1RNN概述1RNN概述之前講神經(jīng)網(wǎng)絡(luò)的時(shí)候,只能一次單獨(dú)處理一個(gè)圖像的輸入,并且前一個(gè)輸入和后一個(gè)輸入是完全沒(méi)有關(guān)系的。但是在某些任務(wù)中需要能夠更好地處理序列的信息,即前面的輸入和后面的輸入是有關(guān)系的。比如,當(dāng)理解一句話的時(shí)候,需要把組成這句話的所有詞關(guān)聯(lián)起來(lái),而不能去單獨(dú)地理解每個(gè)詞的意思。以自然語(yǔ)言處理的詞性標(biāo)注任務(wù)來(lái)講,一個(gè)句子中,前一個(gè)單詞其實(shí)對(duì)于當(dāng)前單詞的詞性預(yù)測(cè)是有很大影響的。比如“小明跳舞”,“關(guān)公舞大刀”,同樣是“舞”字,詞性卻不相同,前者是名詞,后者是動(dòng)詞。但是由于“小明跳舞”中“舞”子的前面“跳”是一個(gè)動(dòng)詞,那么很顯然“舞”作為名詞的概率就會(huì)遠(yuǎn)大于動(dòng)詞的概率。因?yàn)閯?dòng)詞后面接名詞很常見,而動(dòng)詞后面接動(dòng)詞很少見。所以為了解決一些這樣類似的問(wèn)題,能夠更好的處理序列的信息,RNN就誕生了。1RNN概述RNN(RecurrentNeuralNetwork)循環(huán)神經(jīng)網(wǎng)絡(luò),是一類以序列數(shù)據(jù)為輸入,在序列的演進(jìn)方向進(jìn)行遞歸且所有節(jié)點(diǎn)(循環(huán)單元)按鏈?zhǔn)竭B接的遞歸神經(jīng)網(wǎng)絡(luò)。RNN是一種特殊的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它是根據(jù)“人的認(rèn)知是基于過(guò)往的經(jīng)驗(yàn)和記憶”這一觀點(diǎn)提出的。它與DNN,CNN不同的是:它不僅考慮前一時(shí)刻的輸入,而且賦予了網(wǎng)絡(luò)對(duì)前面的內(nèi)容的一種‘記憶’功能。1RNN概述圖中展示的是一個(gè)簡(jiǎn)單的循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖:可以看到,如果把上面的“W”去掉,它就變成了前面講的神經(jīng)網(wǎng)絡(luò)。X代表輸入層的值,S代表隱藏層的值,O代表輸入層的值,U和V分別代表層到層之間的權(quán)重。那W是什么呢?循環(huán)神經(jīng)網(wǎng)絡(luò)的隱藏層的值S不僅僅取決于當(dāng)前這次的輸入X,還取決于上一次隱藏層的值S,

W就是隱藏層上一次的值作為這一次的輸入的權(quán)重。1RNN概述可以把W按照時(shí)間線展開,循環(huán)神經(jīng)網(wǎng)絡(luò)就變成如圖右側(cè)一樣:現(xiàn)在看上去就比較清楚了,這個(gè)網(wǎng)絡(luò)在t時(shí)刻接收到輸入

之后,隱藏層的值是

,輸出值是。關(guān)鍵一點(diǎn)是,

的值不僅僅取決于

,還取決于

。1RNN概述在t=1時(shí)刻,一般初始化輸入

=0,隨機(jī)初始化W,U,V,進(jìn)行下面的公式計(jì)算:其中,f和g均為激活函數(shù)。其中f可以是tanh,ReLu,sigmoid等激活函數(shù),g通常是softmax也可以是其他激活函數(shù)。1RNN概述時(shí)間就向前推進(jìn),此時(shí)的狀態(tài)

作為時(shí)刻1的記憶狀態(tài)將參與下一個(gè)時(shí)刻的預(yù)測(cè)活動(dòng),也就是:以此類推,可以得到最終的輸出值為:2LSTM概述2LSTM概述RNN的關(guān)鍵點(diǎn)之一就是它們可以用來(lái)連接先前的信息到當(dāng)前的任務(wù)上。但是當(dāng)相關(guān)信息和當(dāng)前預(yù)測(cè)位置之間的間隔變得非常大,RNN會(huì)喪失學(xué)習(xí)到連接如此遠(yuǎn)的信息的能力。LSTM就是專門設(shè)計(jì)出來(lái)解決這個(gè)問(wèn)題的。LSTM(LongShort-TermMemory),長(zhǎng)短期記憶網(wǎng)絡(luò),是一種特殊的RNN,是為了解決RNN長(zhǎng)期依賴問(wèn)題而專門設(shè)計(jì)出來(lái)的。所有的RNN都具有一種重復(fù)神經(jīng)網(wǎng)絡(luò)模塊的鏈?zhǔn)叫问?。在?biāo)準(zhǔn)RNN中,這個(gè)重復(fù)的結(jié)構(gòu)模塊只有一個(gè)非常簡(jiǎn)單的結(jié)構(gòu),例如一個(gè)tanh層,如圖所示。2LSTM概述LSTM也擁有這種鏈狀結(jié)構(gòu),但是重復(fù)模塊則擁有不同的結(jié)構(gòu)。與神經(jīng)網(wǎng)絡(luò)的簡(jiǎn)單的一層相比,LSTM擁有四層,這四層以特殊的方式進(jìn)行交互。如圖所示。

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論