-機(jī)器人的學(xué)習(xí)研究進(jìn)展:深度學(xué)習(xí)及應(yīng)用_第1頁
-機(jī)器人的學(xué)習(xí)研究進(jìn)展:深度學(xué)習(xí)及應(yīng)用_第2頁
-機(jī)器人的學(xué)習(xí)研究進(jìn)展:深度學(xué)習(xí)及應(yīng)用_第3頁
-機(jī)器人的學(xué)習(xí)研究進(jìn)展:深度學(xué)習(xí)及應(yīng)用_第4頁
-機(jī)器人的學(xué)習(xí)研究進(jìn)展:深度學(xué)習(xí)及應(yīng)用_第5頁
已閱讀5頁,還剩225頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

機(jī)器人的學(xué)習(xí)研究進(jìn)展:深度學(xué)習(xí)及應(yīng)用內(nèi)容1.深度學(xué)習(xí)概述2.深度學(xué)習(xí)應(yīng)用研究1.深度學(xué)習(xí)概述1.1概述1.2背景1.3人腦視覺機(jī)理1.4關(guān)于特征1.5深度學(xué)習(xí)的基本思想1.6淺層學(xué)習(xí)(ShallowLearning)和深度學(xué)習(xí)(DeepLearning)1.深度學(xué)習(xí)概述1.7Deeplearning與NeuralNetwork1.8Deeplearning訓(xùn)練過程1.9DeepLearning的常用模型或者方法1.1概述ArtificialIntelligence,也就是人工智能,就像長(zhǎng)生不老和星際漫游一樣,是人類最美好的夢(mèng)想之一。雖然計(jì)算機(jī)技術(shù)已經(jīng)取得了長(zhǎng)足的進(jìn)步,但是到目前為止,還沒有一臺(tái)電腦能產(chǎn)生“自我”的意識(shí)。的確如此,在人類和大量現(xiàn)成數(shù)據(jù)的幫助下,電腦可以表現(xiàn)的十分強(qiáng)大,但是離開了這兩者,它甚至都不能分辨一個(gè)喵星人和一個(gè)汪星人。1.1概述圖靈(計(jì)算機(jī)和人工智能的鼻祖,分別對(duì)應(yīng)于其著名的“圖靈機(jī)”和“圖靈測(cè)試”)在1950年的論文里,提出圖靈試驗(yàn)的設(shè)想,即,隔墻對(duì)話,你將不知道與你談話的,是人還是電腦。這無疑給計(jì)算機(jī),尤其是人工智能,預(yù)設(shè)了一個(gè)很高的期望值。但是半個(gè)世紀(jì)過去了,人工智能的進(jìn)展,遠(yuǎn)遠(yuǎn)沒有達(dá)到圖靈試驗(yàn)的標(biāo)準(zhǔn)。這不僅讓多年翹首以待的人們,心灰意冷,認(rèn)為人工智能是忽悠,相關(guān)領(lǐng)域是“偽科學(xué)”。1.1概述但是自2006年以來,機(jī)器學(xué)習(xí)領(lǐng)域,取得了突破性的進(jìn)展。圖靈試驗(yàn),至少不是那么可望而不可及了。至于技術(shù)手段,不僅僅依賴于云計(jì)算對(duì)大數(shù)據(jù)的并行處理能力,而且依賴于算法。這個(gè)算法就是,DeepLearning。借助于DeepLearning算法,人類終于找到了如何處理“抽象概念”這個(gè)亙古難題的方法。1.1概述2012年6月,《紐約時(shí)報(bào)》披露了GoogleBrain項(xiàng)目,吸引了公眾的廣泛關(guān)注。這個(gè)項(xiàng)目是由著名的斯坦福大學(xué)的機(jī)器學(xué)習(xí)教授AndrewNg和在大規(guī)模計(jì)算機(jī)系統(tǒng)方面的世界頂尖專家JeffDean共同主導(dǎo),用16000個(gè)CPUCore的并行計(jì)算平臺(tái)訓(xùn)練一種稱為“深度神經(jīng)網(wǎng)絡(luò)”(DNN,DeepNeuralNetworks)的機(jī)器學(xué)習(xí)模型(內(nèi)部共有10億個(gè)節(jié)點(diǎn)。1.1概述這一網(wǎng)絡(luò)自然是不能跟人類的神經(jīng)網(wǎng)絡(luò)相提并論的。要知道,人腦中可是有150多億個(gè)神經(jīng)元,互相連接的節(jié)點(diǎn)也就是突觸數(shù)更是如銀河沙數(shù)。曾經(jīng)有人估算過,如果將一個(gè)人的大腦中所有神經(jīng)細(xì)胞的軸突和樹突依次連接起來,并拉成一根直線,可從地球連到月亮,再從月亮返回地球)。“深度神經(jīng)網(wǎng)絡(luò)”在語音識(shí)別和圖像識(shí)別等領(lǐng)域獲得了巨大的成功。1.1概述項(xiàng)目負(fù)責(zé)人之一Andrew稱:“我們沒有像通常做的那樣自己框定邊界,而是直接把海量數(shù)據(jù)投放到算法中,讓數(shù)據(jù)自己說話,系統(tǒng)會(huì)自動(dòng)從數(shù)據(jù)中學(xué)習(xí)?!绷硗庖幻?fù)責(zé)人Jeff則說:“我們?cè)谟?xùn)練的時(shí)候從來不會(huì)告訴機(jī)器說:‘這是一只貓?!到y(tǒng)其實(shí)是自己發(fā)明或者領(lǐng)悟了“貓”的概念?!?.1概述2012年11月,微軟在中國天津的一次活動(dòng)上公開演示了一個(gè)全自動(dòng)的同聲傳譯系統(tǒng),講演者用英文演講,后臺(tái)的計(jì)算機(jī)一氣呵成自動(dòng)完成語音識(shí)別、英中機(jī)器翻譯和中文語音合成,效果非常流暢。據(jù)報(bào)道,后面支撐的關(guān)鍵技術(shù)也是DNN,或者深度學(xué)習(xí)(DL,DeepLearning)。2013年1月,在百度年會(huì)上,創(chuàng)始人兼CEO李彥宏高調(diào)宣布要成立百度研究院,其中第一個(gè)成立的就是“深度學(xué)習(xí)研究所”(IDL,InstitueofDeepLearning)。1.1概述為什么擁有大數(shù)據(jù)的互聯(lián)網(wǎng)公司爭(zhēng)相投入大量資源研發(fā)深度學(xué)習(xí)技術(shù)。聽起來感覺deeplearning很牛那樣。那什么是deeplearning?為什么有deeplearning?它是怎么來的?又能干什么呢?目前存在哪些困難呢?這些問題的簡(jiǎn)答都需要慢慢來。咱們先來了解下機(jī)器學(xué)習(xí)(人工智能的核心)的背景。1.2背景機(jī)器學(xué)習(xí)(MachineLearning)是一門專門研究計(jì)算機(jī)怎樣模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為,以獲取新的知識(shí)或技能,重新組織已有的知識(shí)結(jié)構(gòu)使之不斷改善自身的性能的學(xué)科。1959年美國的塞繆爾(Samuel)設(shè)計(jì)了一個(gè)下棋程序,這個(gè)程序具有學(xué)習(xí)能力,它可以在不斷的對(duì)弈中改善自己的棋藝。4年后,這個(gè)程序戰(zhàn)勝了設(shè)計(jì)者本人。又過了3年,這個(gè)程序戰(zhàn)勝了美國一個(gè)保持8年之久的常勝不敗的冠軍。這個(gè)程序向人們展示了機(jī)器學(xué)習(xí)的能力,提出了許多令人深思的社會(huì)問題與哲學(xué)問題。1.2背景機(jī)器學(xué)習(xí)雖然發(fā)展了幾十年,但還是存在很多沒有良好解決的問題:1.2背景例如圖像識(shí)別、語音識(shí)別、自然語言理解、天氣預(yù)測(cè)、基因表達(dá)、內(nèi)容推薦等等。目前我們通過機(jī)器學(xué)習(xí)去解決這些問題的思路都是這樣的(以視覺感知為例子):1.2背景從開始的通過傳感器(例如CMOS)來獲得數(shù)據(jù)。然后經(jīng)過預(yù)處理、特征提取、特征選擇,再到推理、預(yù)測(cè)或者識(shí)別。最后一個(gè)部分,也就是機(jī)器學(xué)習(xí)的部分,絕大部分的工作是在這方面做的,也存在很多的學(xué)術(shù)論文和研究。而中間的三部分,概括起來就是特征表達(dá)。良好的特征表達(dá),對(duì)最終算法的準(zhǔn)確性起了非常關(guān)鍵的作用,而且系統(tǒng)主要的計(jì)算和測(cè)試工作都耗在這一大部分。但是這塊實(shí)際中一般都是人工完成的,即靠人工提取特征。1.2背景截止現(xiàn)在,也出現(xiàn)了不少優(yōu)秀特征表示方式(好的特征應(yīng)具有不變性(大小、尺度和旋轉(zhuǎn)等)和可區(qū)分性)。例如Sift的出現(xiàn),是局部圖像特征描述子研究領(lǐng)域一項(xiàng)里程碑式的工作。由于SIFT對(duì)尺度、旋轉(zhuǎn)以及一定視角和光照變化等圖像變化都具有不變性,并且SIFT具有很強(qiáng)的可區(qū)分性,的確讓很多問題的解決變?yōu)榭赡堋5膊皇侨f能的。1.2背景然而,手工地選取特征是一件非常費(fèi)力、啟發(fā)式(需要專業(yè)知識(shí))的方法,能不能選取好很大程度上靠經(jīng)驗(yàn)和運(yùn)氣,而且它的調(diào)節(jié)需要大量的時(shí)間。既然手工選取特征不太好,那么能不能自動(dòng)地學(xué)習(xí)一些特征呢?答案是能!DeepLearning就是用來干這個(gè)事情的,看它的一個(gè)別名UnsupervisedFeatureLearning,就可以顧名思義了,Unsupervised的意思就是不要人參與特征的選取過程。1.2背景那它是怎么學(xué)習(xí)的呢?怎么知道哪些特征好哪些不好呢?我們說機(jī)器學(xué)習(xí)是一門專門研究計(jì)算機(jī)怎樣模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為的學(xué)科。那人類的視覺系統(tǒng)是怎么工作的呢?為什么在茫茫人海,蕓蕓眾生,滾滾紅塵中我們都可以找到另一個(gè)她(因?yàn)?,你存在我深深的腦海里,我的夢(mèng)里、我的心里、我的歌聲里……)。1.2背景人腦那么優(yōu)秀,我們能不能參考人腦,模擬人腦呢?(注:好像和人腦扯上點(diǎn)關(guān)系的特征、算法,都不錯(cuò),但不知道是不是人為強(qiáng)加的,為了使自己的研究變得神圣和高雅。)近幾十年以來,認(rèn)知神經(jīng)科學(xué)、生物學(xué)等等學(xué)科的發(fā)展,讓我們對(duì)自己這個(gè)神秘的而又神奇的大腦不再那么的陌生。也給人工智能的發(fā)展推波助瀾。1.3人腦視覺機(jī)理1981年的諾貝爾醫(yī)學(xué)/生理學(xué)獎(jiǎng),頒發(fā)給了DavidHubel(出生于加拿大的美國神經(jīng)生物學(xué)家)和TorstenWiesel以及RogerSperry。前兩位的主要貢獻(xiàn),是“發(fā)現(xiàn)了視覺系統(tǒng)的信息處理機(jī)制”,發(fā)現(xiàn)可視皮層是分級(jí)的。如“人見到蛇的情景”。1.3人腦視覺機(jī)理我們看看他們做了什么。1958年,DavidHubel和TorstenWiesel在JohnHopkinsUniversity研究了瞳孔區(qū)域與大腦皮層神經(jīng)元的對(duì)應(yīng)關(guān)系。他們?cè)谪埖暮竽X頭骨上開了一個(gè)3毫米的小洞,向洞里插入電極,測(cè)量神經(jīng)元的活躍程度。然后,他們?cè)谛∝埖难矍?,展現(xiàn)各種形狀、各種亮度的物體。并且,在展現(xiàn)每一件物體時(shí),還改變物體放置的位置和角度。他們期望通過這個(gè)辦法,讓小貓瞳孔感受不同類型、不同強(qiáng)弱的刺激。1.3人腦視覺機(jī)理之所以做這個(gè)試驗(yàn),目的是去證明一個(gè)猜測(cè):位于后腦皮層的不同視覺神經(jīng)元,與瞳孔所受刺激之間,存在某種對(duì)應(yīng)關(guān)系。一旦瞳孔受到某一種刺激,后腦皮層的某一部分神經(jīng)元就會(huì)活躍。經(jīng)歷了很多天反復(fù)的枯燥的試驗(yàn),同時(shí)犧牲了若干只可憐的小貓,DavidHubel和TorstenWiesel發(fā)現(xiàn)了一種被稱為“方向選擇性細(xì)胞(OrientationSelectiveCell)”的神經(jīng)元細(xì)胞。當(dāng)瞳孔發(fā)現(xiàn)了眼前的物體的邊緣,而且這個(gè)邊緣指向某個(gè)方向時(shí),這種神經(jīng)元細(xì)胞就會(huì)活躍。這個(gè)發(fā)現(xiàn)激發(fā)了人們對(duì)于神經(jīng)系統(tǒng)的進(jìn)一步思考。神經(jīng)-中樞-大腦的工作過程,或許是一個(gè)不斷迭代、不斷抽象的過程。1.3人腦視覺機(jī)理這里的關(guān)鍵詞有兩個(gè),一個(gè)是抽象,一個(gè)是迭代。從原始信號(hào),做低級(jí)抽象,逐漸向高級(jí)抽象迭代。人類的邏輯思維,經(jīng)常使用高度抽象的概念。例如,從原始信號(hào)攝入開始(瞳孔攝入像素Pixels),接著做初步處理(大腦皮層某些細(xì)胞發(fā)現(xiàn)邊緣和方向),然后抽象(大腦判定,眼前的物體的形狀,是圓形的),然后進(jìn)一步抽象(大腦進(jìn)一步判定該物體是只氣球)。再比如人臉識(shí)別,如下圖:1.3人腦視覺機(jī)理這個(gè)生理學(xué)的發(fā)現(xiàn),促成了計(jì)算機(jī)人工智能在四十年后的突破性發(fā)展??偟膩碚f,人的視覺系統(tǒng)的信息處理是分級(jí)的。從低級(jí)的V1區(qū)提取邊緣特征,再到V2區(qū)的形狀或者目標(biāo)的部分等,再到更高層,整個(gè)目標(biāo)、目標(biāo)的行為等。也就是說高層的特征是低層特征的組合,從低層到高層的特征表示越來越抽象,越來越能表現(xiàn)語義或者意圖。而抽象層面越高,存在的可能猜測(cè)就越少,就越利于分類。例如,單詞集合和句子的對(duì)應(yīng)是多對(duì)一的,句子和語義的對(duì)應(yīng)又是多對(duì)一的,語義和意圖的對(duì)應(yīng)還是多對(duì)一的,這是個(gè)層級(jí)體系。1.3人腦視覺機(jī)理敏感的人注意到這個(gè)關(guān)鍵詞了:分層。而Deeplearning的deep是不是就表示我存在多少層,也就是多深呢?對(duì)。那Deeplearning是如何借鑒這個(gè)過程的呢?畢竟是歸于計(jì)算機(jī)來處理,面對(duì)的一個(gè)問題就是怎么對(duì)這個(gè)過程進(jìn)行建模?因?yàn)槲覀円獙W(xué)習(xí)的是特征的表達(dá),那么關(guān)于特征,或者說關(guān)于這個(gè)層級(jí)特征,我們需要了解地更深入點(diǎn)。所以在說DeepLearning之前,我們下面有必要解釋一下特征。1.4關(guān)于特征特征是機(jī)器學(xué)習(xí)系統(tǒng)的原材料,對(duì)最終模型的影響是毋庸置疑的。如果數(shù)據(jù)被很好地表達(dá)成了特征,通常線性模型就能達(dá)到滿意的精度。那對(duì)于特征,我們需要考慮什么呢?1.4關(guān)于特征1.4.1特征表示的粒度1.4.2初級(jí)(淺層)特征表示1.4.3結(jié)構(gòu)性特征表示1.4.4需要有多少個(gè)特征1.4.1特征表示的粒度學(xué)習(xí)算法在一個(gè)什么粒度上的特征表示,才有能發(fā)揮作用?就一個(gè)圖片來說,像素級(jí)的特征根本沒有價(jià)值。例如上面的摩托車,從像素級(jí)別,根本得不到任何信息,其無法進(jìn)行摩托車和非摩托車的區(qū)分。1.4.1特征表示的粒度而如果特征是一個(gè)具有結(jié)構(gòu)性(或者說有含義)的時(shí)候,比如是否具有車把手(handle),是否具有車輪(wheel),就很容易把摩托車和非摩托車區(qū)分開來,學(xué)習(xí)算法才能發(fā)揮作用。1.4.2初級(jí)(淺層)特征表示既然像素級(jí)的特征表示方法沒有作用,那怎樣的表示才有用呢?1995年前后,BrunoOlshausen和DavidField兩位學(xué)者任職CornellUniversity,他們?cè)噲D同時(shí)用生理學(xué)和計(jì)算機(jī)的手段,雙管齊下,研究視覺問題。他們收集了很多黑白風(fēng)景照片,從這些照片中,提取出400個(gè)小碎片,每個(gè)小碎片的尺寸均為16x16像素,不妨把這400個(gè)碎片標(biāo)記為S[i],i=0,..399。接下來,再從這些黑白風(fēng)景照片中,隨機(jī)提取另一個(gè)碎片,尺寸也是16x16像素,不妨把這個(gè)碎片標(biāo)記為T。1.4.2初級(jí)(淺層)特征表示他們提出的問題是,如何從這400個(gè)碎片中,選取一組碎片S[k],通過疊加的辦法,合成出一個(gè)新的碎片,而這個(gè)新的碎片應(yīng)當(dāng)與隨機(jī)選擇的目標(biāo)碎片T盡可能相似,同時(shí),S[k]的數(shù)量盡可能少。用數(shù)學(xué)的語言來描述,就是:Sum_k(a[k]*S[k])-->T,

其中a[k]是在疊加碎片S[k]時(shí)的權(quán)重系數(shù)。為解決這個(gè)問題,BrunoOlshausen和DavidField發(fā)明了一個(gè)算法,稀疏編碼(SparseCoding)。1.4.2初級(jí)(淺層)特征表示稀疏編碼是一個(gè)重復(fù)迭代的過程,每次迭代分兩步:1)選擇一組S[k],然后調(diào)整a[k],使得Sum_k(a[k]*S[k])最接近T;2)固定住a[k],在400個(gè)碎片中,選擇其它更合適的碎片S’[k],替代原先的S[k],使得Sum_k(a[k]*S’[k])最接近T。經(jīng)過幾次迭代后,最佳的S[k]組合被遴選出來。令人驚奇的是,被選中的S[k]基本上都是照片上不同物體的邊緣線,這些線段形狀相似,區(qū)別在于方向。1.4.2初級(jí)(淺層)特征表示BrunoOlshausen和DavidField的算法結(jié)果,與DavidHubel和TorstenWiesel的生理發(fā)現(xiàn),不謀而合!也就是說,復(fù)雜圖形往往由一些基本結(jié)構(gòu)組成。比如下圖:一個(gè)圖可以通過用64種正交的edges(可以理解成正交的基本結(jié)構(gòu))來線性表示。比如樣例的x可以用1-64個(gè)edges中的三個(gè)按照0.8,0.3,0.5的權(quán)重調(diào)和而成。而其他基本edge沒有貢獻(xiàn),因此均為0。1.4.2初級(jí)(淺層)特征表示另外,許多專家還發(fā)現(xiàn),不僅圖像存在這個(gè)規(guī)律,聲音也存在。他們從未標(biāo)注的聲音中發(fā)現(xiàn)了20種基本的聲音結(jié)構(gòu),其余的聲音可以由這20種基本結(jié)構(gòu)合成。1.4.3結(jié)構(gòu)性特征表示小塊的圖形可以由基本edge構(gòu)成,更結(jié)構(gòu)化,更復(fù)雜的,具有概念性的圖形如何表示呢?這就需要更高層次的特征表示,比如V2,V4。因此V1看像素級(jí)是像素級(jí)。V2看V1是像素級(jí),這個(gè)是層次遞進(jìn)的,高層表達(dá)由底層表達(dá)的組合而成。專業(yè)點(diǎn)說就是基basis。V1區(qū)提出的basis是邊緣,然后V2層是V1層這些basis的組合,這時(shí)候V2區(qū)得到的又是高一層的basis,上上層又是上一層的組合basis結(jié)果...所以有專家說Deeplearning就是“搞基”,因?yàn)殡y聽,所以美其名曰Deeplearning或者UnsupervisedFeatureLearning.1.4.3結(jié)構(gòu)性特征表示直觀上說,就是找到有意義的小碎片(patch),再將其進(jìn)行組合(combine),就得到了上一層的特征(feature),遞歸地向上學(xué)習(xí)特征(learningfeature)。1.4.3結(jié)構(gòu)性特征表示在不同對(duì)象(object)上做訓(xùn)練時(shí),所得的邊緣基(edgebasis)是非常相似的,但對(duì)象部分(objectparts)和模式(models)完全不同。這樣便于圖像的準(zhǔn)確識(shí)別。1.4.3結(jié)構(gòu)性特征表示

從文本來說,一個(gè)doc文檔表示什么意思?我們描述一件事情,用什么來表示比較合適?用一個(gè)一個(gè)字嘛?不是,字就是像素級(jí)別了,起碼應(yīng)該是term(術(shù)語/詞組),換句話說每個(gè)doc都由term構(gòu)成;但這樣表示概念的能力就夠了嘛,可能也不夠,需要再上一步,達(dá)到topic級(jí),有了topic,再到doc就合理。但每個(gè)層次的數(shù)量差距很大,比如doc表示的概念->topic(千-萬量級(jí))->term(10萬量級(jí))->word(百萬量級(jí))。一個(gè)人在看一個(gè)doc的時(shí)候,眼睛看到的是word,由這些word在大腦里自動(dòng)切詞形成term,在按照概念組織的方式,先驗(yàn)的學(xué)習(xí),得到topic,然后再進(jìn)行高層次的learning。1.4.4需要有多少個(gè)特征我們知道需要層次的特征構(gòu)建,由淺入深,但每一層該有多少個(gè)特征呢?任何一種方法,特征越多,給出的參考信息就越多,準(zhǔn)確性會(huì)得到提升。但特征多意味著計(jì)算復(fù)雜,探索的空間大,可以用來訓(xùn)練的數(shù)據(jù)在每個(gè)特征上就會(huì)稀疏,都會(huì)帶來各種問題,并不一定特征越多越好。小結(jié)上面我們談到為什么會(huì)有Deeplearning(讓機(jī)器自動(dòng)學(xué)習(xí)良好的特征,而免去人工選取過程。還有參考人的分層視覺處理系統(tǒng)),我們得到一個(gè)結(jié)論就是Deeplearning需要多層來獲得更抽象的特征表達(dá)。那么多少層才合適呢?用什么架構(gòu)來建模呢?怎么進(jìn)行非監(jiān)督訓(xùn)練呢?1.5深度學(xué)習(xí)的基本思想假設(shè)我們有一個(gè)系統(tǒng)S,它有n層(S1,…Sn),它的輸入是I,輸出是O,形象地表示為:I=>S1=>S2=>…..=>Sn=>O,如果輸出O等于輸入I,即輸入I經(jīng)過這個(gè)系統(tǒng)變化之后沒有任何的信息損失。這意味著輸入I經(jīng)過每一層Si都沒有任何的信息損失,即在任何一層Si,它都是原有信息(即輸入I)的另外一種表示?,F(xiàn)在回到我們的主題DeepLearning,我們需要自動(dòng)地學(xué)習(xí)特征,假設(shè)我們有一堆輸入I(如一堆圖像或者文本),假設(shè)我們?cè)O(shè)計(jì)了一個(gè)系統(tǒng)S(有n層),我們通過調(diào)整系統(tǒng)中參數(shù),使得它的輸出仍然是輸入I,那么我們就可以自動(dòng)地獲取得到輸入I的一系列層次特征,即S1,…,Sn。1.5深度學(xué)習(xí)的基本思想對(duì)于深度學(xué)習(xí)來說,其思想就是對(duì)堆疊多個(gè)層,也就是說這一層的輸出作為下一層的輸入。通過這種方式,就可以實(shí)現(xiàn)對(duì)輸入信息進(jìn)行分級(jí)表達(dá)了。另外,前面是假設(shè)輸出嚴(yán)格地等于輸入,這個(gè)限制太嚴(yán)格,我們可以略微地放松這個(gè)限制,例如我們只要使得輸入與輸出的差別盡可能地小即可,這個(gè)放松會(huì)導(dǎo)致另外一類不同的DeepLearning方法。上述就是DeepLearning的基本思想。1.6淺層學(xué)習(xí)和深度學(xué)習(xí)1.6.1淺層學(xué)習(xí)(ShallowLearning):機(jī)器學(xué)習(xí)第一次浪潮1.6.2深度學(xué)習(xí)(DeepLearning):機(jī)器學(xué)習(xí)第二次浪潮1.6.1淺層學(xué)習(xí):機(jī)器學(xué)習(xí)第一次浪潮20世紀(jì)80年代末期,用于人工神經(jīng)網(wǎng)絡(luò)的反向傳播算法(也叫BackPropagation算法或者BP算法)的發(fā)明,給機(jī)器學(xué)習(xí)帶來了希望,掀起了基于統(tǒng)計(jì)模型的機(jī)器學(xué)習(xí)熱潮。這個(gè)熱潮一直持續(xù)到今天。人們發(fā)現(xiàn),利用BP算法可以讓一個(gè)人工神經(jīng)網(wǎng)絡(luò)模型從大量訓(xùn)練樣本中學(xué)習(xí)統(tǒng)計(jì)規(guī)律,從而對(duì)未知事件做預(yù)測(cè)。這種基于統(tǒng)計(jì)的機(jī)器學(xué)習(xí)方法比起過去基于人工規(guī)則的系統(tǒng),在很多方面顯出優(yōu)越性。這個(gè)時(shí)候的人工神經(jīng)網(wǎng)絡(luò),雖也被稱作多層感知機(jī)(Multi-layerPerceptron),但實(shí)際是一種只含有一層隱層節(jié)點(diǎn)的淺層模型。1.6.1淺層學(xué)習(xí):機(jī)器學(xué)習(xí)第一次浪潮20世紀(jì)90年代,各種各樣的淺層機(jī)器學(xué)習(xí)模型相繼被提出,例如支撐向量機(jī)(SVM,SupportVectorMachines)、Boosting、最大熵方法(如LR,LogisticRegression)等。這些模型的結(jié)構(gòu)基本上可以看成帶有一層隱層節(jié)點(diǎn)(如SVM、Boosting),或沒有隱層節(jié)點(diǎn)(如LR)。這些模型無論是在理論分析還是應(yīng)用中都獲得了巨大的成功。相比之下,由于理論分析的難度大,訓(xùn)練方法又需要很多經(jīng)驗(yàn)和技巧,這個(gè)時(shí)期深度人工神經(jīng)網(wǎng)絡(luò)反而相對(duì)沉寂。1.6.2深度學(xué)習(xí):機(jī)器學(xué)習(xí)第二次浪潮2006年,加拿大多倫多大學(xué)教授、機(jī)器學(xué)習(xí)領(lǐng)域的泰斗GeoffreyHinton和他的學(xué)生RuslanSalakhutdinov在國際頂級(jí)期刊《科學(xué)》上發(fā)表了一篇文章,開啟了深度學(xué)習(xí)在學(xué)術(shù)界和工業(yè)界的浪潮。這篇文章有兩個(gè)主要觀點(diǎn):1)多隱層的人工神經(jīng)網(wǎng)絡(luò)具有優(yōu)異的特征學(xué)習(xí)能力,學(xué)習(xí)得到的特征對(duì)數(shù)據(jù)有更本質(zhì)的刻畫,從而有利于可視化或分類;2)深度神經(jīng)網(wǎng)絡(luò)在訓(xùn)練上的難度,可以通過“逐層初始化”(layer-wisepre-training)來有效克服,在這篇文章中,逐層初始化是通過無監(jiān)督學(xué)習(xí)實(shí)現(xiàn)的。當(dāng)前多數(shù)分類、回歸等學(xué)習(xí)方法為淺層結(jié)構(gòu)算法,其局限性在于有限樣本和計(jì)算單元情況下對(duì)復(fù)雜函數(shù)的表示能力有限,針對(duì)復(fù)雜分類問題其泛化能力受到一定制約。深度學(xué)習(xí)可通過學(xué)習(xí)一種深層非線性網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)復(fù)雜函數(shù)逼近,表征輸入數(shù)據(jù)分布式表示,并展現(xiàn)了強(qiáng)大的從少數(shù)樣本中集中學(xué)習(xí)數(shù)據(jù)集本質(zhì)特征的能力。(多層的好處是可以用較少的參數(shù)表示復(fù)雜的函數(shù))1.6.2深度學(xué)習(xí):機(jī)器學(xué)習(xí)第二次浪潮1.6.2深度學(xué)習(xí):機(jī)器學(xué)習(xí)第二次浪潮深度學(xué)習(xí)的實(shí)質(zhì),是通過構(gòu)建具有很多隱層的機(jī)器學(xué)習(xí)模型和海量的訓(xùn)練數(shù)據(jù),來學(xué)習(xí)更有用的特征,從而最終提升分類或預(yù)測(cè)的準(zhǔn)確性。因此,“深度模型”是手段,“特征學(xué)習(xí)”是目的。區(qū)別于傳統(tǒng)的淺層學(xué)習(xí),深度學(xué)習(xí)的不同在于:1)強(qiáng)調(diào)了模型結(jié)構(gòu)的深度,通常有5層、6層,甚至10多層的隱層節(jié)點(diǎn);2)明確突出了特征學(xué)習(xí)的重要性,也就是說,通過逐層特征變換,將樣本在原空間的特征表示變換到一個(gè)新特征空間,從而使分類或預(yù)測(cè)更加容易。與人工規(guī)則構(gòu)造特征的方法相比,利用大數(shù)據(jù)來學(xué)習(xí)特征,更能夠刻畫數(shù)據(jù)的豐富內(nèi)在信息。1.6.2深度學(xué)習(xí):機(jī)器學(xué)習(xí)第二次浪潮1.7Deeplearning與NeuralNetwork深度學(xué)習(xí)是機(jī)器學(xué)習(xí)研究中的一個(gè)新的領(lǐng)域,其動(dòng)機(jī)在于建立、模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),它模仿人腦的機(jī)制來解釋數(shù)據(jù),例如圖像,聲音和文本。深度學(xué)習(xí)是無監(jiān)督學(xué)習(xí)的一種。深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示。1.7Deeplearning與NeuralNetworkDeeplearning本身算是machinelearning的一個(gè)分支,簡(jiǎn)單可以理解為neuralnetwork的發(fā)展。大約二三十年前,neuralnetwork曾經(jīng)是ML領(lǐng)域特別火熱的一個(gè)方向,但是后來確慢慢淡出了,原因包括以下幾個(gè)方面:1)比較容易過擬合,參數(shù)比較難調(diào)整,而且需要不少竅門;2)訓(xùn)練速度比較慢,在層次比較少(小于等于3)的情況下效果并不比其它方法更優(yōu);1.7Deeplearning與NeuralNetwork所以中間有大約20多年的時(shí)間,神經(jīng)網(wǎng)絡(luò)被關(guān)注很少,這段時(shí)間基本上是SVM和boosting算法的天下。但是,一個(gè)癡心的老先生Hinton,他堅(jiān)持了下來,并最終(和其它人一起B(yǎng)engio、Yann.lecun等)提成了一個(gè)實(shí)際可行的deeplearning框架。1.7Deeplearning與NeuralNetworkDeeplearning與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)之間有相同的地方也有很多不同。相同點(diǎn):deeplearning采用了神經(jīng)網(wǎng)絡(luò)相似的分層結(jié)構(gòu),系統(tǒng)由包括輸入層、隱層(多層)、輸出層組成的多層網(wǎng)絡(luò),只有相鄰層節(jié)點(diǎn)之間有連接,同一層以及跨層節(jié)點(diǎn)之間相互無連接,每一層可以看作是一個(gè)邏輯回歸模型;這種分層結(jié)構(gòu),是比較接近人類大腦的結(jié)構(gòu)的。1.7Deeplearning與NeuralNetworkDeeplearning與NeuralNetwork異同而為了克服神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的問題,DL采用了與神經(jīng)網(wǎng)絡(luò)很不同的訓(xùn)練機(jī)制。傳統(tǒng)神經(jīng)網(wǎng)絡(luò)中,采用的是反向傳播(BP)的方式進(jìn)行。即采用迭代的算法來訓(xùn)練整個(gè)網(wǎng)絡(luò),隨機(jī)設(shè)定初值,計(jì)算當(dāng)前網(wǎng)絡(luò)的輸出,然后根據(jù)當(dāng)前計(jì)算的輸出值和實(shí)際的標(biāo)記值之間的差去改變前面各層的參數(shù),直到收斂(整體是一個(gè)梯度下降法)。deeplearning整體上是一個(gè)layer-wise的訓(xùn)練機(jī)制。這樣做的原因是因?yàn)椋绻捎胋ackpropagation的機(jī)制,對(duì)于一個(gè)deepnetwork(7層以上),殘差傳播到最前面的層已經(jīng)變得太小,出現(xiàn)所謂的gradientdiffusion(梯度擴(kuò)散)。這個(gè)問題在后面有所討論。1.8Deeplearning訓(xùn)練過程1.8.1傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法為什么不能用在深度神經(jīng)網(wǎng)絡(luò)1.8.2deeplearning訓(xùn)練過程1.8.1傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法為什么不能用在深度神經(jīng)網(wǎng)絡(luò)BP算法作為傳統(tǒng)訓(xùn)練多層網(wǎng)絡(luò)的典型算法,實(shí)際上對(duì)僅含幾層網(wǎng)絡(luò),該訓(xùn)練方法就已經(jīng)很不理想。深度結(jié)構(gòu)(涉及多個(gè)非線性處理單元層)非凸目標(biāo)代價(jià)函數(shù)中普遍存在的局部最小是訓(xùn)練困難的主要來源。1.8.1傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法為什么不能用在深度神經(jīng)網(wǎng)絡(luò)BP算法存在的問題:(1)梯度越來越稀疏:從頂層越往下,誤差校正信號(hào)越來越??;(2)收斂到局部最小值:尤其是從遠(yuǎn)離最優(yōu)區(qū)域開始的時(shí)候(隨機(jī)值初始化會(huì)導(dǎo)致這種情況的發(fā)生);(3)一般,我們只能用有標(biāo)簽的數(shù)據(jù)來訓(xùn)練:但大部分的數(shù)據(jù)是沒標(biāo)簽的,而大腦可以從沒有標(biāo)簽的數(shù)據(jù)中學(xué)習(xí);1.8.2deeplearning訓(xùn)練過程如果對(duì)所有層同時(shí)訓(xùn)練,時(shí)間復(fù)雜度會(huì)太高;如果每次訓(xùn)練一層,偏差就會(huì)逐層傳遞。這會(huì)面臨跟上面監(jiān)督學(xué)習(xí)中相反的問題,會(huì)嚴(yán)重欠擬合(因?yàn)樯疃染W(wǎng)絡(luò)的神經(jīng)元和參數(shù)太多了)。1.8.2deeplearning訓(xùn)練過程2006年,hinton提出了在非監(jiān)督數(shù)據(jù)上建立多層神經(jīng)網(wǎng)絡(luò)的一個(gè)有效方法,簡(jiǎn)單的說,分為兩步,一是每次訓(xùn)練一層網(wǎng)絡(luò),二是調(diào)優(yōu),使原始表示x向上生成的高級(jí)表示r和該高級(jí)表示r向下生成的x'盡可能一致。方法是:1)首先逐層構(gòu)建單層神經(jīng)元,這樣每次都是訓(xùn)練一個(gè)單層網(wǎng)絡(luò)。2)當(dāng)所有層訓(xùn)練完后,Hinton使用wake-sleep算法進(jìn)行調(diào)優(yōu)。1.8.2deeplearning訓(xùn)練過程將除最頂層的其它層間的權(quán)重變?yōu)殡p向的,這樣最頂層仍然是一個(gè)單層神經(jīng)網(wǎng)絡(luò),而其它層則變?yōu)榱藞D模型。向上的權(quán)重用于“認(rèn)知”,向下的權(quán)重用于“生成”。然后使用Wake-Sleep算法調(diào)整所有的權(quán)重。讓認(rèn)知和生成達(dá)成一致,也就是保證生成的最頂層表示能夠盡可能正確的復(fù)原底層的結(jié)點(diǎn)。比如頂層的一個(gè)結(jié)點(diǎn)表示人臉,那么所有人臉的圖像應(yīng)該激活這個(gè)結(jié)點(diǎn),并且這個(gè)結(jié)果向下生成的圖像應(yīng)該能夠表現(xiàn)為一個(gè)大概的人臉圖像。1.8.2deeplearning訓(xùn)練過程Wake-Sleep算法分為醒(wake)和睡(sleep)兩個(gè)部分。1)wake階段:認(rèn)知過程(從現(xiàn)實(shí)到概念),通過外界的特征和向上的權(quán)重(認(rèn)知權(quán)重)產(chǎn)生每一層的抽象表示(結(jié)點(diǎn)狀態(tài)),并且使用梯度下降修改層間的下行權(quán)重(生成權(quán)重)。如:“如果現(xiàn)實(shí)跟我想象的不一樣,改變我的權(quán)重使得我想象的東西就是這樣的”。1.8.2deeplearning訓(xùn)練過程2)sleep階段:生成過程(從概念到現(xiàn)實(shí)),通過頂層表示(醒時(shí)學(xué)得的概念)和向下權(quán)重(生成權(quán)重),生成底層的狀態(tài),同時(shí)修改層間向上的權(quán)重。如:“如果夢(mèng)中的景象不是我腦中的相應(yīng)概念,改變我的向上的權(quán)重(認(rèn)知權(quán)重)使得這種景象在我看來就是這個(gè)概念”。deeplearning具體訓(xùn)練過程1)使用自下上升非監(jiān)督學(xué)習(xí)(就是從底層開始,一層一層的往頂層訓(xùn)練)2)自頂向下的監(jiān)督學(xué)習(xí)(就是通過帶標(biāo)簽的數(shù)據(jù)去訓(xùn)練,誤差自頂向下傳輸,對(duì)網(wǎng)絡(luò)進(jìn)行微調(diào))1)使用自下上升非監(jiān)督學(xué)習(xí)采用無標(biāo)定數(shù)據(jù)(有標(biāo)定數(shù)據(jù)也可)分層訓(xùn)練各層參數(shù),這一步可以看作是一個(gè)無監(jiān)督訓(xùn)練過程,是和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)區(qū)別最大的部分(這個(gè)過程可以看作是featurelearning過程):具體的,先用無標(biāo)定數(shù)據(jù)訓(xùn)練第一層,訓(xùn)練時(shí)先學(xué)習(xí)第一層的參數(shù)(這一層可以看作是得到一個(gè)使得輸出和輸入差別最小的三層神經(jīng)網(wǎng)絡(luò)的隱層),由于模型capacity的限制以及稀疏性約束,使得得到的模型能夠?qū)W習(xí)到數(shù)據(jù)本身的結(jié)構(gòu),從而得到比輸入更具有表示能力的特征;在學(xué)習(xí)得到第n-1層后,將n-1層的輸出作為第n層的輸入,訓(xùn)練第n層,由此分別得到各層的參數(shù);2)自頂向下的監(jiān)督學(xué)習(xí)基于第一步得到的各層參數(shù)進(jìn)一步調(diào)整整個(gè)多層模型的參數(shù),這一步是一個(gè)有監(jiān)督訓(xùn)練過程;第一步類似神經(jīng)網(wǎng)絡(luò)的隨機(jī)初始化初值過程,由于DL的第一步不是隨機(jī)初始化,而是通過學(xué)習(xí)輸入數(shù)據(jù)的結(jié)構(gòu)得到的,因而這個(gè)初值更接近全局最優(yōu),從而能夠取得更好的效果;所以,deeplearning效果好很大程度上歸功于第一步的featurelearning過程。1.9DeepLearning的常用模型或者方法1.9.1AutoEncoder自動(dòng)編碼器1.9.2SparseCoding稀疏編碼1.9.3RestrictedBoltzmannMachine(RBM)限制波爾茲曼機(jī)1.9.4DeepBeliefNetworks深度信念網(wǎng)絡(luò)1.9.5ConvolutionalNeuralNetworks卷積神經(jīng)網(wǎng)絡(luò)1.9.1AutoEncoder自動(dòng)編碼器DeepLearning最簡(jiǎn)單的一種方法是利用人工神經(jīng)網(wǎng)絡(luò)的特點(diǎn),人工神經(jīng)網(wǎng)絡(luò)(ANN)本身就是具有層次結(jié)構(gòu)的系統(tǒng),如果給定一個(gè)神經(jīng)網(wǎng)絡(luò),我們假設(shè)其輸出與輸入是相同的,然后訓(xùn)練調(diào)整其參數(shù),得到每一層中的權(quán)重。自然地,我們就得到了輸入I的幾種不同表示(每一層代表一種表示),這些表示就是特征。自動(dòng)編碼器就是一種盡可能復(fù)現(xiàn)輸入信號(hào)的神經(jīng)網(wǎng)絡(luò)。為了實(shí)現(xiàn)這種復(fù)現(xiàn),自動(dòng)編碼器就必須捕捉可以代表輸入數(shù)據(jù)的最重要的因素,就像PCA那樣,找到可以代表原信息的主要成分。具體過程1)給定無標(biāo)簽數(shù)據(jù),用非監(jiān)督學(xué)習(xí)學(xué)習(xí)特征2)通過編碼器產(chǎn)生特征,然后訓(xùn)練下一層,這樣逐層訓(xùn)練3)有監(jiān)督微調(diào)1)給定無標(biāo)簽數(shù)據(jù),用非監(jiān)督學(xué)習(xí)學(xué)習(xí)特征在我們之前的神經(jīng)網(wǎng)絡(luò)中,如第一個(gè)圖,我們輸入的樣本是有標(biāo)簽的,即(input,target),這樣我們根據(jù)當(dāng)前輸出和target(label)之間的差去改變前面各層的參數(shù),直到收斂。但現(xiàn)在我們只有無標(biāo)簽數(shù)據(jù),也就是右邊的圖。那么這個(gè)誤差怎么得到呢?1)給定無標(biāo)簽數(shù)據(jù),用非監(jiān)督學(xué)習(xí)學(xué)習(xí)特征如下圖,我們將input輸入一個(gè)encoder編碼器,就會(huì)得到一個(gè)code,這個(gè)code也就是輸入的一個(gè)表示,那么我們?cè)趺粗肋@個(gè)code表示的就是input呢?我們加一個(gè)decoder解碼器,這時(shí)候decoder就會(huì)輸出一個(gè)信息,那么如果輸出的這個(gè)信息和一開始的輸入信號(hào)input是很像的(理想情況下就是一樣的),那很明顯,我們就有理由相信這個(gè)code是靠譜的。所以,我們就通過調(diào)整encoder和decoder的參數(shù),使得重構(gòu)誤差最小,這時(shí)候我們就得到了輸入input信號(hào)的第一個(gè)表示了,也就是編碼code了。因?yàn)槭菬o標(biāo)簽數(shù)據(jù),所以誤差的來源就是直接重構(gòu)后與原輸入相比得到。1.9.4DeepBeliefNetworks深度信念網(wǎng)絡(luò)DBNs是一個(gè)概率生成模型,與傳統(tǒng)的判別模型的神經(jīng)網(wǎng)絡(luò)相對(duì),生成模型是建立一個(gè)觀察數(shù)據(jù)和標(biāo)簽之間的聯(lián)合分布,對(duì)P(Observation|Label)和P(Label|Observation)都做了評(píng)估,而判別模型僅僅評(píng)估了后者而已,也就是P(Label|Observation)。對(duì)于在深度神經(jīng)網(wǎng)絡(luò)應(yīng)用傳統(tǒng)的BP算法的時(shí)候,DBNs遇到了以下問題:(1)需要為訓(xùn)練提供一個(gè)有標(biāo)簽的樣本集;(2)學(xué)習(xí)過程較慢;(3)不適當(dāng)?shù)膮?shù)選擇會(huì)導(dǎo)致學(xué)習(xí)收斂于局部最優(yōu)解。1.9.4DeepBeliefNetworks深度信念網(wǎng)絡(luò)1.9.4DeepBeliefNetworks深度信念網(wǎng)絡(luò)DBNs由多個(gè)限制玻爾茲曼機(jī)(RestrictedBoltzmannMachines)層組成,一個(gè)典型的神經(jīng)網(wǎng)絡(luò)類型如圖三所示。這些網(wǎng)絡(luò)被“限制”為一個(gè)可視層和一個(gè)隱層,層間存在連接,但層內(nèi)的單元間不存在連接。隱層單元被訓(xùn)練去捕捉在可視層表現(xiàn)出來的高階數(shù)據(jù)的相關(guān)性。1.9.4DeepBeliefNetworks深度信念網(wǎng)絡(luò)在最高兩層,權(quán)值被連接到一起,這樣更低層的輸出將會(huì)提供一個(gè)參考的線索或者關(guān)聯(lián)給頂層,這樣頂層就會(huì)將其聯(lián)系到它的記憶內(nèi)容。而我們最關(guān)心的,最后想得到的就是判別性能,例如分類任務(wù)里面。1.9.4DeepBeliefNetworks深度信念網(wǎng)絡(luò)在預(yù)訓(xùn)練后,DBN可以通過利用帶標(biāo)簽數(shù)據(jù)用BP算法去對(duì)判別性能做調(diào)整。在這里,一個(gè)標(biāo)簽集將被附加到頂層(推廣聯(lián)想記憶),通過一個(gè)自下向上的,學(xué)習(xí)到的識(shí)別權(quán)值獲得一個(gè)網(wǎng)絡(luò)的分類面。這個(gè)性能會(huì)比單純的BP算法訓(xùn)練的網(wǎng)絡(luò)好。這可以很直觀的解釋,DBNs的BP算法只需要對(duì)權(quán)值參數(shù)空間進(jìn)行一個(gè)局部的搜索,這相比前向神經(jīng)網(wǎng)絡(luò)來說,訓(xùn)練是要快的,而且收斂的時(shí)間也少。1.9.4DeepBeliefNetworks深度信念網(wǎng)絡(luò)

DBNs的靈活性使得它的拓展比較容易。一個(gè)拓展就是卷積DBNs(ConvolutionalDeepBeliefNetworks(CDBNs))。DBNs并沒有考慮到圖像的2維結(jié)構(gòu)信息,因?yàn)檩斎胧呛?jiǎn)單的從一個(gè)圖像矩陣一維向量化的。而CDBNs就是考慮到了這個(gè)問題,它利用鄰域像素的空域關(guān)系,通過一個(gè)稱為卷積RBMs的模型區(qū)達(dá)到生成模型的變換不變性,而且可以容易得變換到高維圖像。DBNs并沒有明確地處理對(duì)觀察變量的時(shí)間聯(lián)系的學(xué)習(xí)上,雖然目前已經(jīng)有這方面的研究,例如堆疊時(shí)間RBMs,以此為推廣,有序列學(xué)習(xí)的dubbedtemporalconvolutionmachines刺激顳葉卷積機(jī),這種序列學(xué)習(xí)的應(yīng)用,給語音信號(hào)處理問題帶來了一個(gè)讓人激動(dòng)的未來研究方向。1.9.4DeepBeliefNetworks深度信念網(wǎng)絡(luò)目前,和DBNs有關(guān)的研究包括堆疊自動(dòng)編碼器,它是通過用堆疊自動(dòng)編碼器來替換傳統(tǒng)DBNs里面的RBMs。這就使得可以通過同樣的規(guī)則來訓(xùn)練產(chǎn)生深度多層神經(jīng)網(wǎng)絡(luò)架構(gòu),但它缺少層的參數(shù)化的嚴(yán)格要求。與DBNs不同,自動(dòng)編碼器使用判別模型,這樣這個(gè)結(jié)構(gòu)就很難采樣輸入采樣空間,這就使得網(wǎng)絡(luò)更難捕捉它的內(nèi)部表達(dá)。但是,降噪自動(dòng)編碼器卻能很好的避免這個(gè)問題,并且比傳統(tǒng)的DBNs更優(yōu)。它通過在訓(xùn)練過程添加隨機(jī)的污染并堆疊產(chǎn)生場(chǎng)泛化性能。訓(xùn)練單一的降噪自動(dòng)編碼器的過程和RBMs訓(xùn)練生成模型的過程一樣。強(qiáng)化節(jié)能減排實(shí)現(xiàn)綠色發(fā)展內(nèi)容覽要節(jié)能減排,世界正在行動(dòng)為什么要節(jié)能減排什么是節(jié)能減排節(jié)能減排,我們正在行動(dòng)0502010403目錄CONTENTS一、什么是節(jié)能減排

在《中華人民共和國節(jié)約能源法》中定義的節(jié)能減排,是指加強(qiáng)用能管理,采取技術(shù)上可行、經(jīng)濟(jì)上合理以及環(huán)境和社會(huì)可以承受的措施,從能源生產(chǎn)到消費(fèi)的各個(gè)環(huán)節(jié),降低消耗、減少損失和污染物排放、制止浪費(fèi),有效、合理地利用能源。從具體意義上說,節(jié)能,就是降低各種類型的能源品消耗;減排,就是減少各種污染物和溫室氣體的排放,以最大限度地避免污染我們賴以生存的環(huán)境。二、為什么要節(jié)能減排1、節(jié)能減排是緩解能源危機(jī)的有效手段

當(dāng)下,能源危機(jī)迫在眉睫,國外有關(guān)機(jī)構(gòu)的統(tǒng)計(jì)結(jié)果顯示:2010年中國的能源消耗超過美國,成為全球第一。2011年2月底,中國能源研究會(huì)公布最新統(tǒng)計(jì)數(shù)據(jù)顯示,2010年我國一次能源消費(fèi)量為32.5億噸標(biāo)準(zhǔn)煤,同比增長(zhǎng)6%,超過美國成為全球第一能源消費(fèi)大國。統(tǒng)計(jì)數(shù)據(jù)稱,2010年中國一次能源消費(fèi)量為24.32億噸油當(dāng)量,同比增長(zhǎng)11.2%,占世界能源消費(fèi)總量的20.3%。美國一次能源消費(fèi)量為22.86億噸油當(dāng)量,同比增長(zhǎng)3.7%,占世界能源消費(fèi)總量的19.0%。

根據(jù)全球已探明傳統(tǒng)能源儲(chǔ)量測(cè)算,按照當(dāng)前能源消耗增長(zhǎng)速度,傳統(tǒng)的石化燃料(煤、石油、天然氣)已經(jīng)不夠人類再使用一百年。目前新能源的開發(fā)利用方興未艾,2010年全球有23%的能源需求來自再生能源,其中13%為傳統(tǒng)的生物能,多半用于熱能(例如燒柴),5.2%是來自水力,來自新的可再生能源(小于20MW的水力,現(xiàn)代的生物質(zhì)能,風(fēng)能,太陽,地?zé)岬龋﹦t只有4.7%。在再生能源發(fā)電方面,全球來自水力的占16%,來自新的再生能源者占5%。如果我們不對(duì)現(xiàn)有能源和資源節(jié)約使用,按照目前情況持續(xù)下去,有可能百年之后,人類將會(huì)部分進(jìn)入一個(gè)“新石器時(shí)代”。2節(jié)能減排是保護(hù)自然生態(tài)環(huán)境的強(qiáng)力武器

這就是我們美麗的太陽系概念圖從太空中拍攝到的蔚藍(lán)色的精靈——地球如詩如畫的鄉(xiāng)間美景,逸趣橫生的勞動(dòng)生活!

這幾乎就是我們每個(gè)人為之向往的家園!

然而我們目前不得不面對(duì)的卻是自然生態(tài)環(huán)境的日益惡化!

“溫室氣體大量排放,發(fā)生溫室效應(yīng),造成全球變暖,這已是不爭(zhēng)的事實(shí)!”目前,在各種溫室氣體中,二氧化碳對(duì)溫室效應(yīng)的影響約占50%,而大氣中的二氧化碳有70%是燃燒石化燃料排放的。我們可以了解到冰川融化、海平面上升、干旱蔓延、農(nóng)作物生產(chǎn)力下降、動(dòng)植物行為發(fā)生變異等氣候變化帶來的影響。我國最近兩年干旱頻發(fā),有相當(dāng)部分原因是受到全球氣候變化問題的影響,而這也是我們目前面臨的最復(fù)雜、最嚴(yán)峻的挑戰(zhàn)之一。長(zhǎng)江江西九江段裸露出來的江灘湘江長(zhǎng)沙橘子洲以西河床(2009年)江西贛江南昌段裸露的橋墩(2009年)溫室效應(yīng)導(dǎo)致氣候變化,打破降雨平衡,旱澇頻發(fā)洪水泛濫——當(dāng)大自然露出鋒利的爪牙,

我們才發(fā)現(xiàn)自己原來是如此脆弱,不堪一擊!溫室效應(yīng)導(dǎo)致冰川融化

北極熊等極地生命形態(tài)遭遇嚴(yán)重的生存危機(jī)受世界氣候變化影響,曼谷遭遇洪水

溫室效應(yīng)導(dǎo)致的冰川融化還將造成海平面升高的后果,它將直接威脅到沿海國家以及30多個(gè)海島國家的生存和發(fā)展。美國環(huán)保專家的預(yù)測(cè)更令人擔(dān)憂,再過50年~70年,巴基斯坦國土的1/5、尼羅河三角洲的1/3以及印度洋上的整個(gè)馬爾代夫共和國,都將因海平面升高而被淹沒;東京、曼谷、上海、威尼斯、彼得堡和阿姆斯特丹等許多沿海城市也將完全或局部被淹沒。

目前,在溫室氣體排放方面,我們國家正保持領(lǐng)先優(yōu)勢(shì)并有繼續(xù)將其擴(kuò)大的趨勢(shì)!??!

馬爾代夫倒計(jì)時(shí):預(yù)計(jì)將于90年內(nèi)被海水淹沒。原因:全球變暖導(dǎo)致海平面上升.

馬爾代夫是一個(gè)群島國家,80%是珊瑚礁島,全國最高的兩座島嶼距離海平面只有2.4米。因此,它也是受到全球變暖影響最嚴(yán)重的國家.在過去一個(gè)世紀(jì)里,該國家海平面上升了約20厘米,根據(jù)聯(lián)合國政府間氣候變化問題研究小組的報(bào)告,2100年全球海平面有可能升高0.18米至0.59米。屆時(shí),馬爾代夫?qū)⒚媾R滅頂之災(zāi)。太平洋上的一顆美麗的翡翠——馬爾代夫澄澈的碧藍(lán)海水上徜徉著白云——這就是人間天堂婆娑的椰樹,潔白的沙灘,舒適的躺椅

圖瓦盧倒計(jì)時(shí):預(yù)計(jì)將于未來50至100年消失。原因:氣候變暖導(dǎo)致海平面上升.

這個(gè)由9座環(huán)形珊瑚島群組成、平均海拔1.5米的小國家每逢二三月大潮期間,就會(huì)有30%的國土被海水淹沒。近20年來,這些由珊瑚礁形成的海島已被海水侵蝕得千瘡百孔,土壤加速鹽堿化,糧食和蔬菜已很難正常生長(zhǎng)。事實(shí)上,圖瓦盧人從2001年就已開始陸陸續(xù)續(xù)地告別自己的國家,遷往美國、新西蘭等國。澳大利亞大堡礁倒計(jì)時(shí):20年消失原因:全球變暖和人為破壞大堡礁1981年被列入自然類世界遺產(chǎn),支撐著規(guī)模巨大的旅游業(yè)。然而,自上世紀(jì)80年代以來,由于全球變暖導(dǎo)致海洋酸性增加以及人為破壞,珊瑚漸漸在人們的視線中消失。海洋學(xué)家查利·沃隆今年7月公布的一份報(bào)告指出,全球氣候變暖將在短短20年時(shí)間內(nèi)讓大堡礁蕩然無存。

美麗的澳大利亞大堡礁大堡礁色彩繽紛的美麗珊瑚礁和魚群大堡礁的明星——與??采男〕篝~

南北極倒計(jì)時(shí):50年消失原因:全球變暖導(dǎo)致冰帽融化溫室效應(yīng)造成全球氣溫升高已經(jīng)使得兩極冰帽開始融化,冰帽融化不僅直接沖擊當(dāng)?shù)氐纳鷳B(tài)環(huán)境,使現(xiàn)存的南北極生物面臨滅絕,南北極也漸漸消亡。全球海平面上升,許多低洼地區(qū)的國家甚至?xí)虼硕谎蜎]。以上幾個(gè)現(xiàn)實(shí)中正在慢慢被證實(shí)的例子,已經(jīng)為我們敲響了最刺耳的警鐘,如果我們?cè)俨患皶r(shí)采取強(qiáng)有力的措施,那么,后果將不堪設(shè)想。我們,需要盡可能為子孫后代留下一個(gè)相對(duì)較好的生存環(huán)境,這是我們每個(gè)人義不容辭的責(zé)任!【開普勒-22b】科學(xué)家用開普勒望遠(yuǎn)鏡發(fā)現(xiàn)首顆適合居住星球美國航空航天局(NASA)12月5日宣布,該局通過開普勒太空望遠(yuǎn)鏡項(xiàng)目證實(shí)了太陽系外第一顆類似地球的、可適合居住的行星。報(bào)道稱,NASA表示,科學(xué)家們利用開普勒太空望遠(yuǎn)鏡在距地球約600光年的一個(gè)恒星系統(tǒng)中新發(fā)現(xiàn)了一顆宜居行星。該行星被命名為“開普勒-22b”,半徑約為地球半徑的2.4倍,這是目前被證實(shí)的最接近地球形態(tài)的行星。目前,該行星的主要成分尚不清楚,繞恒星運(yùn)行的周期約為290個(gè)地球日。這顆行星圍繞運(yùn)轉(zhuǎn)的母恒星比太陽略小、略冷,但和太陽一樣屬于比較穩(wěn)定、壽命比較長(zhǎng)的恒星。因此,這也是首次在與太陽系類似的恒星系統(tǒng)中發(fā)現(xiàn)宜居行星。最新發(fā)現(xiàn)的行星“不冷不熱”,溫度大約為22.2℃,正好適合人類居住。此外,這顆行星上還可能有液態(tài)水,而液態(tài)水被科學(xué)家視為生命存在的關(guān)鍵指標(biāo)。據(jù)悉,相關(guān)研究成果將發(fā)表在美國《天體物理學(xué)》雜志上。各種水體污染繼續(xù)加劇,“清流”變“濁流”超標(biāo)排放造成河流的污染,導(dǎo)致大量魚類死去,仍存活的魚類體內(nèi)也富集了數(shù)量不一的各類有害物質(zhì)酸性氣體超標(biāo)排放導(dǎo)致酸雨形成酸雨頻降導(dǎo)致嚴(yán)重污染

以下是全國酸雨分布示意圖我國三大酸雨區(qū)包括(我國酸雨主要是:硫酸型)1.西南酸雨區(qū):是僅次于華中酸雨區(qū)的降水污染嚴(yán)重區(qū)域。2.華中酸雨區(qū):目前它已成為全國酸雨污染范圍最大,中心強(qiáng)度最高的酸雨污染區(qū)。3.華東沿海酸雨區(qū):它的污染強(qiáng)度低于華中、西南酸雨區(qū)。我國酸雨主要分布地區(qū)是長(zhǎng)江以南的四川盆地、貴州、湖南、湖北、江西,以及沿海的福建、廣東等省。在華北,很少觀測(cè)到酸雨沉降,其原因可能是北方的降水量少,空氣濕度低,土壤酸度低。然而值得注意的是北方如侯馬、京津、丹東、圖們等地區(qū)現(xiàn)在也出現(xiàn)了酸性降水。酸雨危害是多方面的,包括對(duì)人體健康、生態(tài)系統(tǒng)和建筑設(shè)施都有直接和潛在的危害。酸雨還可使農(nóng)作物大幅度減產(chǎn),特別是小麥,在酸雨影響下,可減產(chǎn)13%至34%。大豆、蔬菜也容易受酸雨危害,導(dǎo)致蛋白質(zhì)含量和產(chǎn)量下降。酸雨對(duì)森林和其他植物危害也較大,常使森林和其他植物葉子枯黃、病蟲害加重,最終造成大面積死亡??諝庵械亩趸蛳扰c空氣中的氧氣反應(yīng)生成三氧化硫,再與氫離子結(jié)合生成濃硫酸,濃硫酸再與水反應(yīng)生成酸雨。酸雨具有腐蝕性,人體遇到酸雨很容易得皮膚癌。被酸雨毀壞的叢林,其危害超乎想象受到酸雨腐蝕影響的樂山大佛

長(zhǎng)明燈、長(zhǎng)流水等現(xiàn)象屢見不鮮,這些瑣碎的細(xì)節(jié)造成了當(dāng)今社會(huì)能源、資源的大量浪費(fèi)。3節(jié)能減排是改善日常能源和各種資源浪費(fèi)嚴(yán)重的有力措施長(zhǎng)流水現(xiàn)象隨處可見

在此,我想向各位在此通報(bào)我們各類資源占有率:我國水資源總量占世界水資源總量的7%,居第6位。但人均占有量?jī)H有2400m3,為世界人均水量的1/4,居世界第119位,是全球13個(gè)貧水國之一;我國森林面積為15894.1萬公頃,全國森林覆蓋率達(dá)到16.55%,居世界首位,但人均森林蓄積量只有世界人均蓄積量的1/8;當(dāng)前,我國天然氣產(chǎn)量?jī)H居世界第19位,占世界總產(chǎn)量的1%,消費(fèi)量排名在世界第20位以后;消費(fèi)量是世界總量的0.9%。節(jié)能減排對(duì)大至國家、小至個(gè)人都是很有意義的一件事情!

首先,國家在節(jié)能減排政策方面不斷出臺(tái)各種強(qiáng)制性政策,不斷提高對(duì)各類企業(yè)節(jié)能減排組織機(jī)構(gòu)與能力建設(shè)的要求;其次,中央和地方政府大幅度增加節(jié)能減排方面的財(cái)政預(yù)算,在稅收、價(jià)格等方面有各種激勵(lì)機(jī)制,激發(fā)企業(yè)節(jié)能減排的熱情;再次,自主節(jié)能減排可以企業(yè)降低生產(chǎn)經(jīng)營(yíng)成本,具有非常直觀的經(jīng)濟(jì)效益;最后,節(jié)能減排是衡量一個(gè)企業(yè)是不是一個(gè)有強(qiáng)烈社會(huì)責(zé)任意識(shí)的優(yōu)秀企業(yè)的重要標(biāo)準(zhǔn)(即你所在的企業(yè)是否受人尊重)。4節(jié)能減排與企業(yè)的發(fā)展休戚相關(guān)

總之,種種事實(shí)向我們說明了節(jié)能減排工作的必要性和迫切性!?。《?jié)能減排目標(biāo)的實(shí)現(xiàn),也涉及生產(chǎn)、生活、建設(shè)、流通和消費(fèi)等各個(gè)環(huán)節(jié),關(guān)系各行各業(yè)、社會(huì)各界和我們自己的切身利益,所以,在公在私,我們都要充分調(diào)動(dòng)各方面參與這項(xiàng)工作的積極性,全社會(huì)動(dòng)員,全民參與,實(shí)施節(jié)水、節(jié)油、節(jié)煤、節(jié)電、節(jié)地等等,使節(jié)能減排成為每個(gè)企業(yè)、每個(gè)社區(qū)、每個(gè)單位、每個(gè)學(xué)校、每個(gè)家庭、每個(gè)社會(huì)成員的自覺行動(dòng),這是非常必要的。三節(jié)能減排世界正在行動(dòng)世界各國和各相關(guān)組織機(jī)構(gòu)的行動(dòng)計(jì)劃1、各國從政策律例上為節(jié)能減排加大支持力度,很多國家都把節(jié)能減排納入企業(yè)管理的一個(gè)強(qiáng)力約束指標(biāo)。2、全球相關(guān)組織發(fā)起積極行動(dòng)“地球1小時(shí)”是世界自然基金會(huì)向全球發(fā)出的一項(xiàng)倡議,呼吁個(gè)人、社區(qū)、企業(yè)和政府在每年3月份的最后一個(gè)星期六熄燈1小時(shí),以此來激發(fā)人們對(duì)保護(hù)地球的責(zé)任感,以及對(duì)氣候變化等環(huán)境問題的思考,表明對(duì)全球共同抵御氣候變暖行動(dòng)的支持。參加活動(dòng)的法國巴黎艾菲爾鐵塔燈光對(duì)比的圖景英國積極響應(yīng)“地球一小時(shí)”熄燈活動(dòng),圖為倫敦的大本鐘燈光明滅對(duì)照四節(jié)能減排我們正在行動(dòng)1

.節(jié)能減排,國家在行動(dòng)

在政策方面,國家財(cái)政十大措施支持新能源與節(jié)能減排:一是大力支持風(fēng)電規(guī)?;l(fā)展,建立比較完善的風(fēng)電產(chǎn)業(yè)體系;二是實(shí)施“金太陽”工程,加快啟動(dòng)國內(nèi)光伏發(fā)電市場(chǎng);三是開展節(jié)能與新能源汽車示范推廣試點(diǎn),鼓勵(lì)北京、上海等13個(gè)城市在公交、出租等領(lǐng)域推廣使用;四是加快實(shí)施十大重點(diǎn)節(jié)能工程,鼓勵(lì)合同能源管理發(fā)展;五是加快淘汰落后產(chǎn)能,對(duì)經(jīng)濟(jì)欠發(fā)達(dá)地區(qū)淘汰電力、鋼鐵等13個(gè)行業(yè)落后產(chǎn)能給予獎(jiǎng)勵(lì);

六是支持城鎮(zhèn)污水管網(wǎng)建設(shè),推進(jìn)污水處理產(chǎn)業(yè)化發(fā)展;七是支持生態(tài)環(huán)境保護(hù)和污染治理,加大重點(diǎn)流域水污染治理,促進(jìn)企業(yè)加強(qiáng)污染治理,加強(qiáng)農(nóng)村環(huán)境保護(hù),探索跨流域生態(tài)環(huán)境補(bǔ)償機(jī)制;八是實(shí)施“節(jié)能產(chǎn)品惠民工程”,擴(kuò)大節(jié)能環(huán)保產(chǎn)品使用和消費(fèi);九是支持發(fā)展循環(huán)經(jīng)濟(jì),全面推行清潔生產(chǎn);十是支持節(jié)能減排能力建設(shè),建立完善能效標(biāo)識(shí)制度,節(jié)能統(tǒng)計(jì)、報(bào)告和審計(jì)制度,加強(qiáng)環(huán)境監(jiān)管能力建設(shè)。

出臺(tái)十二五節(jié)能減排規(guī)劃,作為十二五發(fā)展重要考核指標(biāo)之一,計(jì)劃在“十二五”期間,全國31個(gè)省市自治區(qū)被分為5類地區(qū),每類地區(qū)確定一個(gè)節(jié)能指標(biāo),其單位GDP能耗降低率分為10%—18%?!笆濉逼陂g和今年我國工業(yè)節(jié)能減排四大約束性指標(biāo):?jiǎn)挝还I(yè)增加值能耗、二氧化碳排放量和用水量分別要比“十一五”末降低18%、18%以上和30%,工業(yè)固體廢物綜合利用率要提高到72%左右;今年這四項(xiàng)指標(biāo)同比要分別降低4%、4%以上和7%左右以及提高2.2個(gè)百分點(diǎn)。十二五期間,SO2、COD排放總量要比“十一五”末分別減少10%和5%。

我國在節(jié)能減排各項(xiàng)相關(guān)體系構(gòu)建上日益嚴(yán)密,約束力和影響力日益凸顯!--節(jié)約型的生產(chǎn)體系、消費(fèi)體系建設(shè)加快;--政策保障體系“三管齊下”,形成比較完善的節(jié)能政策保障體系(法律、行政、經(jīng)濟(jì));--技術(shù)支撐體系:節(jié)能技術(shù)創(chuàng)新的能力不斷提高,節(jié)能產(chǎn)品層出不窮,節(jié)能成為一些企業(yè)“創(chuàng)品牌”的亮點(diǎn);--監(jiān)督管理體系:管理節(jié)能的部門和機(jī)構(gòu)不斷增多、級(jí)別不斷提高,隊(duì)伍不斷壯大,能力不斷提高:(首長(zhǎng)負(fù)責(zé)、中央和地方成立新機(jī)構(gòu)、新鮮血液)

為此,我國還專門制定并推廣十大重點(diǎn)節(jié)能工程,它包括:節(jié)約和替代石油、燃煤工業(yè)鍋爐(窯爐)改造、區(qū)域熱電聯(lián)產(chǎn)、余熱余壓利用、電機(jī)系統(tǒng)節(jié)能、能量系統(tǒng)優(yōu)化、建筑節(jié)能、綠色照明、政府機(jī)構(gòu)節(jié)能以及節(jié)能監(jiān)測(cè)和技術(shù)服務(wù)體系建設(shè)工程。綜上所述,我們可以看到國家在節(jié)能減排方面的決心和投入是多么的堅(jiān)決,這一點(diǎn)是非??上驳?!2節(jié)能減排,我們自己在行動(dòng)從之前的實(shí)例表明,節(jié)能減排與國家、企業(yè)息息相關(guān),同時(shí)與我們自身也是密不可分的。因?yàn)槲覀兠總€(gè)人都是節(jié)能減排這項(xiàng)很有意義的工作執(zhí)行者,只有當(dāng)我們每個(gè)人都具備強(qiáng)烈的節(jié)能減排意識(shí)和責(zé)任心的時(shí)候,節(jié)能減排這項(xiàng)工作的開展才算是有了最廣泛、最強(qiáng)大的基礎(chǔ)和平臺(tái),才會(huì)達(dá)到或者超出預(yù)期的效果。事實(shí)上,節(jié)能減排對(duì)我們的工作現(xiàn)實(shí)生活也有非常重要的作用——一方面能提高我們的工作質(zhì)量和個(gè)人素養(yǎng),另一方面還可以節(jié)約生活成本,暢享低碳生活!

通過對(duì)之前幾個(gè)節(jié)能減排項(xiàng)目的介紹,我們可以看到,節(jié)能減排其實(shí)并不神秘,很多可以實(shí)施的項(xiàng)目就在我們身邊以各種形式存在著,它可以是對(duì)原有放空蒸汽的回收利用,可以是對(duì)冷凝液四處橫流浪費(fèi)現(xiàn)象的有效解決,可以是工藝操作法方面的改進(jìn),可以是對(duì)設(shè)備自身問題的優(yōu)化解決,等等。然而我們要認(rèn)識(shí)到,盡管我們身邊存在不少需要優(yōu)化改進(jìn)的問題,但是能否發(fā)現(xiàn)并解決這些問題則取決于我們自身的技術(shù)水平、工作思路和責(zé)任心是否到位,而這三個(gè)方面是直接2.1樹立和增強(qiáng)節(jié)能減排意識(shí)有利于我們提高自身的工作質(zhì)量、個(gè)人素養(yǎng)以及未來的發(fā)展

決定我們的工作質(zhì)量和個(gè)人綜合素養(yǎng)的高低的重要因素,并會(huì)最終影響到個(gè)人未來的發(fā)展。換句話說,節(jié)能減排工作開展質(zhì)量的高低,可以在某種程度上直接反映個(gè)人工作能力的高下!從現(xiàn)在起,如果你是班長(zhǎng)或巡檢員,那么,請(qǐng)你保持細(xì)致敏感、善于發(fā)現(xiàn)問題的心態(tài),把自己責(zé)任范圍內(nèi)的所有工藝問題匯總起來,與技術(shù)員和廠領(lǐng)導(dǎo)一起去討論、解決,然后你就會(huì)發(fā)現(xiàn)這非常有利于你的技術(shù)水平和綜合素質(zhì)的全面提高,如果你又一顆強(qiáng)烈的進(jìn)取心,那么還有什么理由不用心去做好節(jié)能減排工作呢?2.2節(jié)能減排可以節(jié)約生活成本,暢享低碳生活

我們通過以下方面可以培養(yǎng)良好的節(jié)能習(xí)慣:1、合理使用空調(diào)如果每臺(tái)空調(diào)在國家提倡的26℃基礎(chǔ)上調(diào)高1℃,每年可節(jié)電22度,相應(yīng)減排二氧化碳21千克.如果對(duì)全國1.5億臺(tái)空調(diào)都采取這一措施,那么每年可節(jié)電約33億度,減排二氧化碳317萬噸.如果全國每年10%的空調(diào)更新為節(jié)能空調(diào),那么可節(jié)電約3.6億度,減排二氧化碳35萬噸.2、節(jié)能裝修如果全國每年2000萬戶左右的家庭裝修能做到減少1千克裝修用鋁材和鋼材,節(jié)約使用0.1立方米裝修用的木材和1平方米建筑陶瓷,那么可節(jié)能約100萬噸標(biāo)準(zhǔn)煤,減排二氧化碳220萬噸.3、采用節(jié)能方式洗衣如果選用節(jié)能洗衣機(jī)每月用手洗代替一次機(jī)洗,每年少用1千克洗衣粉,那么每年可節(jié)能約50萬噸標(biāo)準(zhǔn)煤,減排二氧化碳120萬噸.4、減少糧食浪費(fèi)

"誰知盤中餐,粒粒皆辛苦",可是現(xiàn)在浪費(fèi)糧食的現(xiàn)象仍比較嚴(yán)重.而少浪費(fèi)0.5千克糧食(以水稻為例),可節(jié)能約0.18千克標(biāo)準(zhǔn)煤,相應(yīng)減排二氧化碳0.47千克.如果全國平均每人每年減少糧食浪費(fèi)0.5千克,每年可節(jié)能約24.1萬噸標(biāo)準(zhǔn)煤,減排二氧化碳61.2萬噸.

5、節(jié)約用水可以用淘米水去洗碗或者澆花。沖洗衣服時(shí),可以加入少量肥皂粉,因?yàn)橄匆路塾龅椒试頃?huì)減少很多泡沫,既省水又節(jié)約清洗的時(shí)間。洗臉、洗手用小臉盆接住水,然后倒進(jìn)大桶收集起來。洗手、洗澡、洗衣、洗菜的水和較干凈的洗碗水,都可以收集起來洗抹布、擦地板、沖馬桶。刷牙時(shí)要用多少水就盛多少水,不要開著水龍頭讓水一直流個(gè)不停。

6.節(jié)約照明用電注意隨手關(guān)燈。使用高效節(jié)能燈泡。美國的能源部門估計(jì),單單使用高效節(jié)能燈泡代替?zhèn)鹘y(tǒng)電燈泡,就能避免四億噸二氧化碳被釋放。節(jié)能燈最好不要短時(shí)間內(nèi)開關(guān),節(jié)能燈在開關(guān)時(shí)是最耗電的,對(duì)于保險(xiǎn)絲的損傷也是最大的。白天可以干完的事不留著晚上做,洗衣服、寫作業(yè)在天黑之前做完。早睡早起有利于身體健康,又環(huán)保節(jié)能。

7、低碳烹調(diào)法盡量節(jié)約廚房里的能源。食用油在加熱時(shí)產(chǎn)生致癌物,并造成油煙污染居室環(huán)境。減少烹炸的菜肴。

如果我們的節(jié)能減排工作做到位了,那么,你就會(huì)享受到低碳生活帶來的種種好處:居家更溫暖——建筑節(jié)能改造,提高室溫5-7℃交通更便利——地鐵、公共車、城際高速鐵路家庭支出更少——綠色照明、節(jié)能產(chǎn)品惠民政策購買高效節(jié)能產(chǎn)品更便宜——以舊換新、惠民工程我們賴以生存的天更藍(lán)、水更綠、空氣更清新!

節(jié)能減排,讓我們用明天的視野設(shè)計(jì)今天的工程!在此處添加演示文稿標(biāo)題在此處添加演示文稿正文在此處添加演示文稿正文在此處添加演示文稿正文強(qiáng)化節(jié)能減排謝謝!實(shí)現(xiàn)綠色發(fā)展!單擊此處添加副標(biāo)題內(nèi)容蛋白質(zhì)-能量營(yíng)養(yǎng)障礙了解營(yíng)養(yǎng)不良和肥胖均是營(yíng)養(yǎng)平衡紊亂所致綜合征;熟悉營(yíng)養(yǎng)不良和肥胖癥的病因和病理生理;掌握營(yíng)養(yǎng)不良和肥胖癥的臨床表現(xiàn)和診斷標(biāo)準(zhǔn);掌握營(yíng)養(yǎng)不良和肥胖癥的防治原則。目的和要求

蛋白質(zhì)-能量營(yíng)養(yǎng)不良

protein-energymalnutrition,PEM蛋白質(zhì)-能量營(yíng)養(yǎng)不良是由于缺乏能量和/或蛋白質(zhì)所致的一種營(yíng)養(yǎng)缺乏癥,主要見于3

歲以下嬰幼兒。臨床上以體重明顯減輕,皮下脂肪減少和皮下水腫為特征,常伴有各器官系統(tǒng)的功能紊亂。急性發(fā)病者常伴有水、電解質(zhì)紊亂,慢性者常有多種營(yíng)養(yǎng)素缺乏。定義消瘦型:能量供應(yīng)不足為主浮腫型:蛋白質(zhì)供應(yīng)不足為主浮腫-消瘦型:兩者兼有臨床類型長(zhǎng)期攝入不足—喂養(yǎng)不當(dāng)

母乳不足,未及時(shí)添加富含蛋白質(zhì)的食品;人工喂養(yǎng)調(diào)配不當(dāng);驟然斷奶,輔食添加不及時(shí)、不恰當(dāng);長(zhǎng)期以淀粉類食物喂養(yǎng);不良的飲食習(xí)慣;

病因消化吸收不良

消化系統(tǒng)解剖異常:如唇裂、腭裂、幽門梗阻、腸旋轉(zhuǎn)不良等;

消化系統(tǒng)功能異常:如遷延性腹瀉、過敏性腸炎、腸吸收不良綜合征等;病因需要量增加

急慢性傳染病恢復(fù)期;生長(zhǎng)發(fā)育快速階段;疾病使?fàn)I養(yǎng)素消耗過多;先天不足、營(yíng)養(yǎng)基礎(chǔ)差(早產(chǎn)、雙胎)病因新陳代謝異常各系統(tǒng)功能低下病理生理

蛋白質(zhì)低蛋白血癥水腫

攝入不足脂肪膽固醇↓、脂肪肝消瘦、皮下脂肪↓、消失消化吸收不良營(yíng)養(yǎng)不良碳水化合物血糖偏低昏迷

水、鹽代謝細(xì)胞外液↑低滲脫水低鈉、低鉀需要增加體溫調(diào)節(jié)體溫偏低系統(tǒng)功能低下

貧血消化系統(tǒng)消化液↓消化吸收功能↓維生素缺乏系消化酶↓腹瀉統(tǒng)循環(huán)系統(tǒng)心臟收縮力↓血壓偏低、脈細(xì)弱功能泌尿系統(tǒng)尿重吸收↓多尿、低比重尿低下神經(jīng)系統(tǒng)腦細(xì)胞數(shù)↓表情淡漠、反應(yīng)遲鈍、記成分改變憶力減退、條件反射不易建立、精神抑郁間伴煩躁不安免疫系統(tǒng)胸腺、淋巴結(jié)特異性免疫功能↓容易脾臟、扁桃體、非特異性免疫功能↓感染腸、闌尾等淋巴組織萎縮

系統(tǒng)功能低下體重:不增(早期表現(xiàn))→下降皮下脂肪厚度:是判斷營(yíng)養(yǎng)不良程度的重要指標(biāo)之—減少→消失腹部→軀干→臀部→四肢→面部身高:不長(zhǎng)→低于正常

臨床表現(xiàn)皮膚干燥、蒼白→彈性差→肌肉萎縮→

老人狀、“皮包骨”精神乏力→萎靡→反應(yīng)遲鈍;食欲下降→腹瀉與便秘交替;其它:浮腫(凹陷性),體溫低,BP↓

肌張力↓臨床表現(xiàn)營(yíng)養(yǎng)性貧血:小細(xì)胞低色素貧血最常見多種維生素缺乏:維生素A缺乏(角膜渾濁、潰瘍)微量元素缺乏:鋅繼發(fā)各種感染:反復(fù)呼吸道感染、反復(fù)腹瀉等自發(fā)性低血糖:要警惕,多在凌晨發(fā)生并發(fā)癥血清白蛋白濃度:代謝周期短的蛋白濃度下降有早期診斷價(jià)值IGF-I(胰島素樣生長(zhǎng)因子1)下降作為診斷蛋白質(zhì)營(yíng)養(yǎng)不良指標(biāo)?;撬帷⒈匦璋被帷?,非必需氨基酸無變化實(shí)驗(yàn)室檢查淀粉酶、脂肪酶、轉(zhuǎn)氨酶、胰酶、嘌呤氧化酶活力均↓膽固醇、電解質(zhì)、微量元素濃度下降生長(zhǎng)激素水平升高

-經(jīng)治療后以上項(xiàng)目可恢復(fù)正常值實(shí)驗(yàn)室檢查診斷依據(jù):年齡:多見于<3歲嬰兒;喂養(yǎng)史;體重不增,反而下降;皮下脂肪少,注意順序規(guī)律;全身相應(yīng)各系統(tǒng)紊亂;合并癥存在。診斷體重低下(underweight):慢性或急性營(yíng)養(yǎng)不良體重低于同年齡、同性別參照人群的均值減2SD以下;中度:體重低于同年齡、同性別參照人群的均值減2SD~3SD;重度:體重低于同年齡、同性別參照人群的均值減3SD以下

分型與分度生長(zhǎng)遲緩(stunting):慢性長(zhǎng)期營(yíng)養(yǎng)不良身長(zhǎng)低于同年齡、同性別的參照人群的均值減2SD以下;中度:身長(zhǎng)低于同年齡、同性別的參照人群的均值減2SD~3SD;重度:身長(zhǎng)低于同年齡、同性別的參照人群的均值減3SD以下分型與分度消瘦(wasting):近期、急性營(yíng)養(yǎng)不良體重低于同性別、同身高的參照人群的均值減2SD;中度:體重低于同性別、同身高的參照人群的均值減2SD~3SD;重度:體重低于同性別、同身高的參照人群的均值減3SD以下分型與分度

根據(jù)能量缺乏為主、還是蛋白質(zhì)缺乏為主進(jìn)行分型:消瘦型:以能量缺乏為主,可進(jìn)一步分度浮腫型:以蛋白質(zhì)缺乏為主消瘦-浮腫型臨床類型處理危及生命的并發(fā)癥:脫水、酸中毒、電解質(zhì)紊亂、休克、低血糖等祛除病因:積極治療原發(fā)病,如糾正畸形、控制感染、改進(jìn)喂養(yǎng)方式。調(diào)整飲食:應(yīng)由少至多,循序漸進(jìn),不可操之過急,否則會(huì)引起消化不良。治療輕度:250~330kJ/kg.d(60~80Kcal/kg.d開始;中、重度:165~230kJ/kg.d(40~

55Kcal/kg.d開始->逐步少量增加,漸加至500~727kJ/kg.d(120~170Kcal/kgkg.d;蛋白質(zhì)從1.5~2g/kg開始逐漸->3.0~4.5g/kg。豐富的維生素和微量元素食物。促進(jìn)消化,改善消化功能

藥物:B族維生素,胃蛋白酶,胰酶蛋白質(zhì)同化類固醇制劑(苯丙酸諾龍10~25mg/次,每周1~2

次,連用2~3周)胰島素(2~3U/次/天,1~2周一療程)鋅制劑中醫(yī)治療:其他:成分輸血、靜脈營(yíng)養(yǎng)等合理喂養(yǎng):母乳喂養(yǎng)、及時(shí)添加輔食、正確選用代乳品、糾正不良飲食習(xí)慣合理安排生活作息制度:防治

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論