深度學(xué)習(xí)綜述_第1頁
深度學(xué)習(xí)綜述_第2頁
深度學(xué)習(xí)綜述_第3頁
深度學(xué)習(xí)綜述_第4頁
深度學(xué)習(xí)綜述_第5頁
已閱讀5頁,還剩6頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

目錄1深度學(xué)習(xí)的觀點(diǎn)........................................................................................................01。1卷積神經(jīng)網(wǎng)絡(luò)模型.......................................................................................11.2深度相信網(wǎng)絡(luò)模型.........................................................................................21.3貨倉自編碼網(wǎng)絡(luò)模型......................................................................................32深度學(xué)習(xí)算法............................................................................................................42。1深度費(fèi)希爾映照方法....................................................................................42。2非線性變換方法...........................................................................................42。3稀少編碼對(duì)稱機(jī)算法...................................................................................52.4遷徙學(xué)習(xí)算法.................................................................................................52.5自然語言分析算法.........................................................................................52.6學(xué)習(xí)率自適應(yīng)方法.........................................................................................53深度學(xué)習(xí)的實(shí)質(zhì)應(yīng)用..............................................................................................53。1語音辨別.......................................................................................................63。2視頻剖析........................................................................................................63。3人臉辨別.......................................................................................................63.4圖像辨別和檢索.............................................................................................74深度學(xué)習(xí)的問題及發(fā)展趨向....................................................................................75總結(jié)............................................................................................................................8參照文件........................................................................................................................9深度學(xué)習(xí)綜述綱要:深度學(xué)習(xí)是機(jī)器學(xué)習(xí)研究中的一個(gè)新領(lǐng)域,在于成立、模擬人腦進(jìn)行剖析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),它模擬人腦的體制來解說數(shù)據(jù).近來幾年來,深度學(xué)習(xí)在各領(lǐng)域上也獲得了豐富的研究成就。本文簡(jiǎn)要闡述了深度學(xué)習(xí)的觀點(diǎn)、模型、算法以及在各領(lǐng)域的應(yīng)用,最后說明深度學(xué)習(xí)的問題及發(fā)展趨向.要點(diǎn)字:深度學(xué)習(xí),神經(jīng)網(wǎng)絡(luò),機(jī)器學(xué)習(xí)ReviewofDeepLearningAbstract:Deepleaningisanewfieldinmachinelearningresearch.Itisawhichsimulatesthehumanbraintoanalyzeandstudythemechanismofthehumantointerpretthedata.Inrecentyears,deepleaninghasachievedfruitfulresultsinvariousfields。Thispaperbrieflydiscussestheconcept,model,algorithmandapplicationinvariousfieldsofdeeplearning.Finally,explainstheproblemsanddevelopmenttrendofdeeplearning。Keywords:Deeplearning,neuralnetwork,machinelearning深度學(xué)習(xí)的觀點(diǎn)深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域一個(gè)新的研究方向,近來幾年來在圖像辨別與檢索、語言信息辦理、語音辨別等多領(lǐng)域中都獲得較為成功的發(fā)展。深度學(xué)習(xí)應(yīng)用的發(fā)展基礎(chǔ)在于成立模型來模擬人類大腦的神經(jīng)連結(jié)構(gòu)造,在辦理圖像、聲音和文本這些信號(hào)時(shí),經(jīng)過多個(gè)變換階段分層對(duì)數(shù)據(jù)特色進(jìn)行描繪,從而給出數(shù)據(jù)的解說。深度學(xué)習(xí)的觀點(diǎn)源于人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知器就是一種深度學(xué)習(xí)構(gòu)造.深度學(xué)習(xí)經(jīng)過組合低層特色形成更為抽象的高層表示屬性類型或特色,以發(fā)現(xiàn)數(shù)據(jù)的散布式特色表示。深度學(xué)習(xí)的觀點(diǎn)最早G。E.Hinton等于2006年提出。鑒于堅(jiān)信度網(wǎng)(DBN)提出非監(jiān)察貪婪訓(xùn)練逐層算法,為解決深層構(gòu)造有關(guān)的優(yōu)化難題帶來希望,隨后提出多層自動(dòng)編碼器深層構(gòu)造。其余Lecun等人提出的卷積神經(jīng)網(wǎng)絡(luò)是第一個(gè)真切多層構(gòu)造學(xué)習(xí)算法,它利用空間相對(duì)關(guān)系減少參數(shù)數(shù)目以提升訓(xùn)練性能。同機(jī)器學(xué)習(xí)方法同樣,深度機(jī)器學(xué)習(xí)方法也有有監(jiān)察學(xué)習(xí)和無監(jiān)察學(xué)習(xí)之分,不一樣的學(xué)習(xí)框架下成立的學(xué)習(xí)模型不一樣。比如卷積神經(jīng)網(wǎng)絡(luò)就是一種深度的監(jiān)察學(xué)習(xí)下的機(jī)器學(xué)習(xí)模型,而就是一種無監(jiān)察學(xué)習(xí)下的機(jī)器學(xué)習(xí)模型.0典型的深度學(xué)習(xí)模型有卷積神經(jīng)網(wǎng)絡(luò)、深度置信網(wǎng)絡(luò)和貨倉自編碼網(wǎng)絡(luò)模型等,下邊對(duì)這些模型進(jìn)行描繪。1.1卷積神經(jīng)網(wǎng)絡(luò)模型卷積神經(jīng)網(wǎng)絡(luò)是人工神經(jīng)網(wǎng)絡(luò)的一種,已成為目前語音剖析和圖像辨別領(lǐng)域的研究熱門。它的權(quán)值共享網(wǎng)絡(luò)構(gòu)造使之更近似于生物神經(jīng)網(wǎng)絡(luò),降低了網(wǎng)絡(luò)模型的復(fù)雜度,減少了權(quán)值的數(shù)目。該長(zhǎng)處在于網(wǎng)絡(luò)的輸入是多維圖像時(shí)表現(xiàn)的更為明顯,使圖像能夠直接作為網(wǎng)絡(luò)的輸入,防止了傳統(tǒng)算法中復(fù)雜的特色提取和數(shù)據(jù)重修過程。卷積網(wǎng)絡(luò)是為辨別二維形狀而特別設(shè)計(jì)的一個(gè)多層感知器,這類網(wǎng)絡(luò)構(gòu)造對(duì)平移、比率縮放、傾斜或是其余形式的變形擁有高度不變形。Lecun的卷積神經(jīng)網(wǎng)絡(luò)由卷積層和子抽樣層兩種種類的神經(jīng)網(wǎng)絡(luò)層構(gòu)成。每一層有一個(gè)拓?fù)鋱D構(gòu)造,即在接收域內(nèi),每個(gè)神經(jīng)元與輸入圖像中某個(gè)地點(diǎn)對(duì)應(yīng)的固定二維地點(diǎn)編碼信息關(guān)系。在每層的各個(gè)地點(diǎn)散布著很多不一樣的神經(jīng)元,每個(gè)神經(jīng)元有一組輸入權(quán)值,這些權(quán)值與前一層神經(jīng)網(wǎng)絡(luò)矩形塊中的神經(jīng)元關(guān)系;同一組權(quán)值和不一樣輸入矩形塊與不一樣地點(diǎn)的神經(jīng)元關(guān)系.下列圖是一個(gè)用于手寫體字符識(shí)其余卷積神經(jīng)網(wǎng)絡(luò),由一個(gè)輸入層、四個(gè)隱層和一個(gè)輸出層構(gòu)成。由下列圖能夠看出,與完整連結(jié)的多層前饋感知器網(wǎng)絡(luò)對(duì)比,卷積神經(jīng)網(wǎng)絡(luò)經(jīng)過使用接收域的局部連結(jié),限制了網(wǎng)絡(luò)構(gòu)造。卷積神經(jīng)網(wǎng)絡(luò)的另一個(gè)特色是權(quán)值共享,圖中包含大批連結(jié)權(quán)值,可是因?yàn)橥浑[層的神經(jīng)元共享同一權(quán)值集,大大減少了自由參數(shù)的數(shù)目。圖1-1用于手寫體字符識(shí)其余卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)實(shí)質(zhì)上實(shí)現(xiàn)一種輸入到輸出的映照關(guān)系,能夠?qū)W習(xí)大批輸入與輸出之間的映照關(guān)系,不需要任何輸入和輸出之間的精準(zhǔn)數(shù)學(xué)表達(dá)式,只需用已知的模式對(duì)卷積神經(jīng)網(wǎng)絡(luò)加以訓(xùn)練,就能夠使網(wǎng)絡(luò)擁有輸入輸出之間的映照能力.1卷積神經(jīng)網(wǎng)絡(luò)履行的是有監(jiān)察訓(xùn)練,在開始訓(xùn)練前,用一些不一樣的小隨機(jī)數(shù)對(duì)網(wǎng)絡(luò)的全部權(quán)值進(jìn)行初始化。卷積神經(jīng)網(wǎng)絡(luò)中這類層間聯(lián)系和空域信息的密切關(guān)系,使其適于圖像辦理和理解。并且,在其自動(dòng)提取圖像的明顯特色方面還表現(xiàn)出了比較優(yōu)秀的性能.在目前大多數(shù)的工作中,研究者將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用到了多種機(jī)器學(xué)習(xí)問題中,包含人臉辨別,文檔剖析和語言檢測(cè)等.為了達(dá)到找尋視頻中幀與幀之間的相關(guān)性的目的,目前卷積神經(jīng)網(wǎng)絡(luò)經(jīng)過一個(gè)時(shí)間想干性去訓(xùn)練,但這個(gè)不是卷積神經(jīng)網(wǎng)絡(luò)獨(dú)有的。1。2深度相信網(wǎng)絡(luò)模型深度相信網(wǎng)絡(luò)能夠解說為貝葉斯概率生成模型,由多層隨機(jī)隱變量構(gòu)成,上面的兩層擁有無向?qū)ΨQ連結(jié),下邊的層獲得來自上一層的自頂向下的有向連結(jié),最基層單元的狀態(tài)為可見輸入數(shù)據(jù)向量。深度相信網(wǎng)絡(luò)由若干構(gòu)造單元貨倉組成,如圖1-2所示,構(gòu)造單元往常為RBM.貨倉中每個(gè)RBM單元的可視層神經(jīng)元數(shù)目等于前一RBM單元的隱層神經(jīng)元數(shù)目.依據(jù)深度學(xué)習(xí)體制,采納輸入樣例訓(xùn)練第一層RBM單元,并利用其輸出訓(xùn)練第二層RBM模型,將RBM模型進(jìn)行貨倉經(jīng)過增添層來改良模型性能。在無監(jiān)察預(yù)訓(xùn)練過程中,DBN編碼輸入到頂層RBM后解碼頂層的狀態(tài)到最基層的單元實(shí)現(xiàn)輸入的重構(gòu)。圖1—2DBN的生成過程RBM的無向圖模型如圖1—3所示,作為DBN的構(gòu)造單元,RBM與每一層DBN共享參數(shù)。2圖1—3RBM的無向圖模型RBM是一種特別形式的波爾茲曼機(jī),變量之間的圖模型連結(jié)形式有限制,只有可見層節(jié)點(diǎn)與隱層節(jié)點(diǎn)之間有連結(jié)權(quán)值,而可見層節(jié)點(diǎn)與可見層節(jié)點(diǎn)以及隱層節(jié)點(diǎn)與隱層節(jié)點(diǎn)之間無連結(jié)。1.3貨倉自編碼網(wǎng)絡(luò)模型貨倉自編碼網(wǎng)絡(luò)的構(gòu)造與深度相信網(wǎng)絡(luò)近似,由若干構(gòu)造單元貨倉構(gòu)成,不同之處在于其構(gòu)造單元為自編碼模型而不是RBM。自編碼模型是一個(gè)兩層的神經(jīng)網(wǎng)絡(luò),第一層稱為編碼層,第二層稱為解碼層.如圖1—4所示,訓(xùn)練該模型的目的是用編碼器c(·)將輸入x編碼成表示c(x),再用解碼器g(·)從c(x)表示中解碼重構(gòu)輸入r(x)=g(c(x))。所以,自編碼模型的輸出是其輸入自己,經(jīng)過最小化重構(gòu)偏差L(r(x),x)來履行訓(xùn)練。當(dāng)隱層是線性的,并且L(r(x),x)=‖r(x),x‖2是平方偏差時(shí),c(x)訓(xùn)練網(wǎng)絡(luò)將輸入投影到數(shù)據(jù)的主重量空間中,此時(shí)自編碼模型的作用等效于PCA;當(dāng)隱層非線性時(shí)與PCA不一樣,獲得的表示能夠貨倉成多層,自編碼模型能夠獲得多模態(tài)輸入散布。重構(gòu)偏差的概率散布能夠解說為非歸一化對(duì)數(shù)概率密度函數(shù)這類特別形式的能量函數(shù),意味著有低重構(gòu)偏差的樣例對(duì)應(yīng)的模型擁有更高的概率.圖1-4自編碼模型構(gòu)造3自編碼模型的重構(gòu)偏差的梯度與深度相信網(wǎng)絡(luò)的CD更新規(guī)則表達(dá)式存在對(duì)應(yīng)關(guān)系。貨倉自編碼網(wǎng)絡(luò)的構(gòu)造單元除了上述的自編碼模型以外,還能夠使用自編碼模型的一些變形,如降噪自編碼模型和縮短自編碼模型等.降噪自編碼模型防止了一般的自編碼模型可能會(huì)學(xué)習(xí)獲得無編碼功能的恒等函數(shù)和需要樣本的個(gè)數(shù)大于樣本的維數(shù)的限制,試試經(jīng)過最小化降噪重構(gòu)偏差,從含隨機(jī)噪聲的數(shù)據(jù)中重構(gòu)真切的原始輸入。降噪自編碼模型使用由少許樣本構(gòu)成的微批次樣本履行隨機(jī)梯度降落算法,這樣能夠充分利用圖辦理單元的矩陣到矩陣迅速運(yùn)算使得算法能夠更快地收斂。降噪自編碼模型與得分般配方法直接有關(guān)。得分般配是一種概括原理,當(dāng)所求解的問題易于辦理時(shí),能夠用來取代極大似然求解過程。深度學(xué)習(xí)算法2。1深度費(fèi)希爾映照方法Wong等人提出一種新的特色提取方法—-正則化深度費(fèi)希爾映照方法,學(xué)習(xí)從樣本空間到特色空間的顯式映照,依據(jù)Fisher準(zhǔn)則用深度構(gòu)造神經(jīng)網(wǎng)絡(luò)提升特色的劃分度.深度構(gòu)造神經(jīng)網(wǎng)絡(luò)擁有深度非局部學(xué)習(xí)構(gòu)造,從更少的樣本中學(xué)習(xí)變化很大的數(shù)據(jù)集中的特色,顯示出比核方法更強(qiáng)的特色辨別能力,同時(shí)RDFM方法的學(xué)習(xí)過程因?yàn)橐胝齽t化因子,解決了學(xué)習(xí)能力過強(qiáng)帶來的過擬合問題.在各樣種類的數(shù)據(jù)集長(zhǎng)進(jìn)行試驗(yàn),獲得的結(jié)果說了然在深度學(xué)習(xí)微調(diào)階段運(yùn)用無監(jiān)察正則化的必需性。2。2非線性變換方法Raiko等人提出了一種非線性變換方法,該變換方法使得多層感知器網(wǎng)絡(luò)的每個(gè)隱神經(jīng)元的輸出擁有零輸出和均勻值上的零斜率,使學(xué)習(xí)MLP變得更簡(jiǎn)單。將學(xué)習(xí)整個(gè)輸入輸出函數(shù)的線性部分和非線性部分盡可能分開,用shorteut權(quán)值成立線性映照模型,令Fisher信息陣靠近對(duì)角陣,使得標(biāo)準(zhǔn)梯度靠近自然梯度.經(jīng)過實(shí)考證明非線性變換方法的有效性,該變換使得基本隨機(jī)梯度學(xué)習(xí)與目前的學(xué)習(xí)算法在速度上伯仲之間,并有助于找到泛化性能更好的分類器.用這類非線性變換方法實(shí)現(xiàn)的深度無監(jiān)察自編碼模型進(jìn)行圖像分類和學(xué)習(xí)圖像的低維表示的實(shí)驗(yàn),說明這些變換有助于學(xué)習(xí)深度起碼達(dá)到五個(gè)隱層的深度構(gòu)造神經(jīng)網(wǎng)絡(luò),證了然變換的有效性,提升了基本隨機(jī)梯度學(xué)習(xí)算法的速度,有助于找到泛化性4能更好的分類器。2。3稀少編碼對(duì)稱機(jī)算法Ranzato等人提出一種新的有效的無監(jiān)察學(xué)習(xí)算法——稀少編碼對(duì)稱機(jī),能夠在不必歸一化的狀況下有效產(chǎn)生稀少表示。稀少編碼對(duì)稱機(jī)的損失函數(shù)是重構(gòu)偏差和稀少罰函數(shù)的加權(quán)總和,鑒于該損失函數(shù)比較和選擇不一樣的無監(jiān)察學(xué)習(xí)機(jī),提出一種與文件算法有關(guān)的迭代在線學(xué)習(xí)算法,并在理論和實(shí)驗(yàn)大將稀少編碼對(duì)稱機(jī)與深度相信網(wǎng)絡(luò)和PCA進(jìn)行比較,在手寫體數(shù)字辨別MNIST數(shù)據(jù)集和實(shí)質(zhì)圖像數(shù)據(jù)集長(zhǎng)進(jìn)行實(shí)驗(yàn),表示該方法的優(yōu)勝性。2.4遷徙學(xué)習(xí)算法在很多常有學(xué)習(xí)場(chǎng)景中訓(xùn)練和測(cè)試數(shù)據(jù)集中的類標(biāo)簽不一樣,一定保證訓(xùn)練和測(cè)試數(shù)據(jù)集中的相像性進(jìn)行遷徙學(xué)習(xí).Mesnil等人研究了用于無監(jiān)察遷徙學(xué)習(xí)場(chǎng)景中學(xué)習(xí)表示的不一樣種類模型構(gòu)造,將多個(gè)不一樣構(gòu)造的層貨倉使用無監(jiān)察學(xué)習(xí)算法用于五個(gè)學(xué)習(xí)任務(wù),并研究了用于少許已標(biāo)志訓(xùn)練樣本的簡(jiǎn)單線性分類器貨倉深度構(gòu)造學(xué)習(xí)算法。叫研究了無監(jiān)察遷徙學(xué)習(xí)問題,議論了無監(jiān)察預(yù)訓(xùn)練實(shí)用的原由,怎樣在遷徙學(xué)習(xí)場(chǎng)景中利用無監(jiān)察預(yù)訓(xùn)練,以及在什么狀況下需要注意從不一樣數(shù)據(jù)散布獲得的樣例上的展望問題。2。5自然語言分析算法Collobert鑒于深度遞歸卷積圖變換網(wǎng)絡(luò)提出一種迅速可擴(kuò)展的鑒別算法用于自然語言分析,將文法分析樹分解到貨倉層中,只用很少的基本文本特色,獲得的性能與現(xiàn)有的鑒別分析器和標(biāo)準(zhǔn)分析器的性能相像,而在速度上有了很大提升。2.6學(xué)習(xí)率自適應(yīng)方法學(xué)習(xí)率自適應(yīng)方法可用于提升妙度構(gòu)造神經(jīng)網(wǎng)絡(luò)訓(xùn)練的收斂性并且去除超參數(shù)中的學(xué)習(xí)率參數(shù),此中包含全局學(xué)習(xí)率、層次學(xué)習(xí)率、神經(jīng)元學(xué)習(xí)率和參數(shù)學(xué)習(xí)率等。近來研究人員提出了一些新的學(xué)習(xí)率自適應(yīng)方法,如Duchi等人提出的自適應(yīng)梯度方法和Schaul等人提出的學(xué)習(xí)率自適應(yīng)方法;Leroux等人提出自然梯度的對(duì)角低秩在線近似方法,并說明該算法在一些學(xué)習(xí)場(chǎng)景中能加快訓(xùn)練過程。深度學(xué)習(xí)的實(shí)質(zhì)應(yīng)用53.1語音辨別2011年,微軟語音辨別采納深度學(xué)習(xí)技術(shù)降低語音辨別錯(cuò)誤20-30%,是該領(lǐng)域十多年來最大的打破性進(jìn)展.2013年6月18日,微軟宣告已經(jīng)研發(fā)出一種新型語音辨別技術(shù),可供給“靠近即時(shí)”的語音至文本的變換服務(wù),比目前的語音辨別技術(shù)快兩倍。同時(shí),正確率提升了15%,該技術(shù)模擬人類大腦對(duì)交流理解的方式。深度神經(jīng)網(wǎng)絡(luò)技術(shù)能夠像人類大腦同樣工作,該技術(shù)將會(huì)取代谷歌等競(jìng)爭(zhēng)敵手在搜尋和安卓產(chǎn)品中常用的技術(shù)。在國(guó)際上,IBM、谷歌等企業(yè)都迅速進(jìn)行了深度學(xué)習(xí)語音辨別研究,并且速度飛速。國(guó)內(nèi)方面,科大訊飛、百度、中科院自動(dòng)化所等企業(yè)或研究單位,也在進(jìn)行深度學(xué)習(xí)在語音辨別上的研究.3。2視頻剖析描繪視頻的靜態(tài)圖像特色能夠采納從imageNet上學(xué)習(xí)的獲得的深度模型。過去的視覺研究方法對(duì)動(dòng)向特色的描繪常常依靠于光流預(yù)計(jì)、對(duì)要點(diǎn)點(diǎn)的追蹤和動(dòng)向紋理。怎樣將這些信息表此刻深度模型中是個(gè)難點(diǎn)。最直接的做法是將視頻是為三維圖像,直策應(yīng)用卷積網(wǎng)絡(luò)在每一層學(xué)習(xí)三維濾波器??墒沁@一思路明顯沒有考慮到時(shí)間維和空間維的差別性.此外一種簡(jiǎn)單更為有效的思路是,經(jīng)過與辦理計(jì)算光流場(chǎng)或其余動(dòng)向特色的空間廠散布,作為卷及網(wǎng)絡(luò)的一個(gè)輸入通道。也有研究工作利用深度編碼器以非線性的方式提取動(dòng)向紋理。在最新的研究工作中,長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)遇到寬泛關(guān)注,它能夠捕獲長(zhǎng)久依靠性,對(duì)視頻中復(fù)雜的動(dòng)向建模.3。3人臉辨別深度學(xué)習(xí)在物體辨別上的另一個(gè)重要打破就是人臉辨別。人臉識(shí)其余最大挑戰(zhàn)是怎樣劃分因?yàn)楣饷ⅰ⒆藨B(tài)和表情等要素惹起的類內(nèi)變化和因?yàn)樯矸莶灰粯赢a(chǎn)生的類間變化.這兩種變化的散布是非線性的,且極為復(fù)雜,傳統(tǒng)的線性模型沒法將它們有效劃分開。深度學(xué)習(xí)的目的是經(jīng)過多層的非線性變換獲得新的特色表示。這些特色須盡可能多地去掉內(nèi)變化,而保存類間變化.人臉辨別包含人臉確認(rèn)和人臉辨別兩種任務(wù)。人臉確認(rèn)是判斷兩張人臉照片能否屬于同一個(gè)人的,屬于二分類問題。人臉鑒別是將一張人臉分為N個(gè)類型之一,類型是由人臉的身份定義的。這個(gè)是多分類問題,更擁有挑戰(zhàn)性,其難度跟著類型數(shù)的增添而增大。兩種任務(wù)都能夠經(jīng)過深度模型學(xué)習(xí)人臉的特色表達(dá)。63.4圖像辨別和檢索深度相信網(wǎng)絡(luò)和貨倉自編碼網(wǎng)絡(luò)在單個(gè)圖像辨別任務(wù)中表現(xiàn)出很好的性能,成功用于生成緊湊而存心義的圖像檢索表示形式,并且已用于大型圖像檢索任務(wù)中,獲得特別好的結(jié)果。圖像辨別方面比深度相信網(wǎng)絡(luò)更一般的方法。Taylor等人將條件深度相信網(wǎng)絡(luò)用于視頻排序和人類動(dòng)作合成,條件深度相信網(wǎng)絡(luò)使得深度相信網(wǎng)絡(luò)的權(quán)值與以前的數(shù)據(jù)有關(guān)系,能夠提升訓(xùn)練的有效性.Lee和Raina等人用稀少編碼和深度相信網(wǎng)絡(luò)從自然圖像中學(xué)習(xí)有效特色表示。Nair等人提出改良的深度相信網(wǎng)絡(luò),該模型的頂層模型用三階BM,他們將這類模型用于三維目表記別任務(wù)NORB數(shù)據(jù)集上,實(shí)驗(yàn)結(jié)果顯示出訓(xùn)練獲得了很低的展望偏差率.Tang等人提出兩種策略來提升妙度相信網(wǎng)絡(luò)的魯棒性,第一將深度相信網(wǎng)絡(luò)的第一層擁有稀少連結(jié)構(gòu)造引入正則化方法,接著提出一種概率降噪算法,這些技術(shù)在高噪聲圖像辨別任務(wù)和隨機(jī)噪聲的魯棒性方面顯示出其有效性。Lee等人提出一種深度學(xué)習(xí)方法使腦圖像切割自動(dòng)化,用卷積神經(jīng)網(wǎng)絡(luò)成立用于腦圖像切割的鑒別特色,能自動(dòng)從人類專家供給的類標(biāo)簽中進(jìn)行學(xué)習(xí),經(jīng)過實(shí)驗(yàn)考證該方法在自動(dòng)多類腦圖像切割方面顯示出優(yōu)勝的性能,表示該方法能夠代替已有的模板圖像切割方法,減少了圖像切割過程對(duì)人類專家的干涉和對(duì)先驗(yàn)信息的需求。深度學(xué)習(xí)的問題及發(fā)展趨向深度學(xué)習(xí)算法在計(jì)算機(jī)視覺(圖像辨別、視頻辨別等)和語音辨別中的應(yīng)用,特別是大規(guī)模數(shù)據(jù)集下的應(yīng)用獲得打破性的進(jìn)展,但仍有以下問題值得進(jìn)一步研究:(1)無標(biāo)志數(shù)據(jù)的特色學(xué)習(xí)目前,標(biāo)志數(shù)據(jù)的特色學(xué)習(xí)仍舊占有主導(dǎo)地位,而真切世界存在著海量的無標(biāo)志數(shù)據(jù),將這些無標(biāo)志數(shù)據(jù)逐個(gè)增添人工標(biāo)簽,明顯是不現(xiàn)實(shí)的。所以,跟著數(shù)據(jù)集和儲(chǔ)存技術(shù)的發(fā)展,勢(shì)必愈來愈重視對(duì)無標(biāo)志數(shù)據(jù)的特色學(xué)習(xí),以及將無標(biāo)志數(shù)據(jù)進(jìn)行自動(dòng)增添標(biāo)簽技術(shù)的研究。(2)模型規(guī)模與訓(xùn)練速度、訓(xùn)練精度之間的衡量一般地,同樣數(shù)據(jù)集下,模型規(guī)模越大,訓(xùn)練精度越高,訓(xùn)練速度會(huì)越慢.比如一些模型方法采納ReLU非線性變換、GPU運(yùn)算,在保證精度的前提下,常常需要訓(xùn)練。固然離線訓(xùn)練并不影響訓(xùn)練以后模型的應(yīng)用,可是關(guān)于模型優(yōu)化,諸如模型規(guī)模調(diào)整、超參數(shù)設(shè)置、訓(xùn)練時(shí)調(diào)試等問題,訓(xùn)練時(shí)間會(huì)嚴(yán)重影響其

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論