基于DL4J庫(kù)CNN手寫識(shí)別原理研究與實(shí)現(xiàn)_第1頁(yè)
基于DL4J庫(kù)CNN手寫識(shí)別原理研究與實(shí)現(xiàn)_第2頁(yè)
基于DL4J庫(kù)CNN手寫識(shí)別原理研究與實(shí)現(xiàn)_第3頁(yè)
基于DL4J庫(kù)CNN手寫識(shí)別原理研究與實(shí)現(xiàn)_第4頁(yè)
基于DL4J庫(kù)CNN手寫識(shí)別原理研究與實(shí)現(xiàn)_第5頁(yè)
已閱讀5頁(yè),還剩31頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

題目:基于DL4J庫(kù)CNN手寫識(shí)別原理研究與實(shí)現(xiàn)摘要卷積神經(jīng)網(wǎng)絡(luò)作為一種深度單方向傳播的可用一個(gè)有向無環(huán)圖表示的網(wǎng)絡(luò),其在計(jì)算機(jī)對(duì)圖像的處理中應(yīng)用效果非常好。LeNet-5模型是一個(gè)專門為手寫數(shù)字識(shí)別而設(shè)計(jì)的最經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型。借助MNIST字符庫(kù)數(shù)據(jù)集,優(yōu)化卷積層樣本的訓(xùn)練模式,即將每批固定輸入樣本和固定迭代次數(shù)的原始訓(xùn)練模式優(yōu)化為每批不同輸入樣本和不同迭代次數(shù)的混合訓(xùn)練模式。優(yōu)化后的訓(xùn)練方法可以提高識(shí)別速度,減少預(yù)處理的工作量。實(shí)驗(yàn)結(jié)果表明,優(yōu)化后的混合樣本輸入法在保證樣本訓(xùn)練時(shí)間相等的前提下,可以獲得較高的識(shí)別率。關(guān)鍵詞:手寫數(shù)字識(shí)別;MNIST字符集;卷積神經(jīng)網(wǎng)絡(luò);Lenet-5模型

ABSTRACTAsakindofdeepunidirectionalpropagationnetwork,convolutionalneuralnetworkcanberepresentedbyadirectedacyclicgraph,whichhasbeenwellappliedinimageprocessingbycomputer.Lenet-5modelisthemostclassicalconvolutionalneuralnetworkmodelspeciallydesignedforhandwrittendigitrecognition.WiththehelpofMNISTcharacterlibrarydataset,thetrainingmodeofconvolutionlayersamplesisoptimized,thatis,theoriginaltrainingmodeofeachbatchoffixedinputsamplesandfixediterationsisoptimizedtothemixedtrainingmodeofeachbatchofdifferentinputsamplesanddifferentiterations.Theoptimizedtrainingmethodcanimprovetherecognitionspeedandreducetheworkloadofpreprocessing.Theexperimentalresultsshowthattheoptimizedmixedsampleinputmethodcanachievehighrecognitionrateonthepremiseofensuringthesametrainingtimeofsamples.Keywords:Handwrittendigitrecognition;MNISTcharacterset;convolutionalneural network;lenet-5model

目錄2915第一章引言 第一章引言選題依據(jù)和研究意義文字識(shí)別處理信息普遍來說可分為兩大類:第一種是文本處理,主要處理文字或者印制的文字信息,如書本上的字或者圖中的字。第二種是數(shù)字處理,主要由十個(gè)阿拉伯?dāng)?shù)字組成。在人們的日常生活中,數(shù)字的使用是非常廣泛的,我們每天都要進(jìn)行與大量的數(shù)字工作打交道,比如銀行轉(zhuǎn)賬、統(tǒng)計(jì)報(bào)表、批改學(xué)生試卷打分、支票金額的識(shí)別等等,因此手寫數(shù)字識(shí)別有重要的研究意義。然而許多深度學(xué)習(xí)庫(kù)是基于Python、MATLAB的,但是Deeplearning4j支持許多深度學(xué)習(xí)模型,也為從事Java行業(yè)的從業(yè)人員以及愛好者提供了一個(gè)比較優(yōu)渥的學(xué)習(xí)與實(shí)踐環(huán)境。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional

Neural

Networks,CNN)是具有卷積計(jì)算的同時(shí)又有深度結(jié)構(gòu)的單方向傳播的一個(gè)用有向無環(huán)圖表示的網(wǎng)絡(luò),它是深度學(xué)習(xí)(deep

learning)領(lǐng)域中算法的顯著代表,及其廣泛的應(yīng)用在學(xué)習(xí)與項(xiàng)目中。數(shù)字識(shí)別發(fā)展及研究情況近些年來,各國(guó)的學(xué)者在不斷的研究數(shù)字識(shí)別,在手寫數(shù)字識(shí)別方面已獲得了巨大的成就。Cheng-LinLiu[1]將輪廓、自身結(jié)構(gòu)及曲率等10個(gè)結(jié)構(gòu)特征與8個(gè)分類器組合,在CENPARMI,CEDAR和MNIST數(shù)據(jù)庫(kù)的測(cè)試集上進(jìn)行測(cè)驗(yàn),實(shí)驗(yàn)識(shí)別率達(dá)到99.58%。但對(duì)它來說價(jià)格昂貴在計(jì)算和存儲(chǔ)上。Loo-NinTeow[2]利用現(xiàn)有的生物視覺構(gòu)建了手寫數(shù)字識(shí)別模型,該模型提取的線性可分類特征使得MNIST訓(xùn)練集的識(shí)別錯(cuò)誤率降低到了0.59%。JinhaiCai[3]提出了一種無限制的手寫的數(shù)字識(shí)別的統(tǒng)計(jì)信息和結(jié)構(gòu)信息集成的方法。該方法運(yùn)用狀態(tài)持續(xù)時(shí)間的自適應(yīng)轉(zhuǎn)移概率對(duì)常規(guī)HMM的狀態(tài)時(shí)間建模進(jìn)行了改進(jìn),克服了HMM在利用宏?duì)顟B(tài)建模模式結(jié)構(gòu)時(shí)的困難。通過這種方法使得識(shí)別的正確率和識(shí)別速度得到了良好的提升。黃巧巧[4]設(shè)計(jì)的手寫體數(shù)字識(shí)別系統(tǒng)是基于BP神經(jīng)網(wǎng)絡(luò)的,驗(yàn)證了BP神經(jīng)網(wǎng)絡(luò)應(yīng)用于手寫數(shù)字識(shí)別的可行性,對(duì)于手寫體數(shù)字可以進(jìn)行良好的識(shí)別。王強(qiáng)[5]提出了主成分分析(PCA)與CNN相結(jié)合的新方法,并在svhn數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),試圖提高自然場(chǎng)景中字符的識(shí)別率。曹丹[6]對(duì)基于Hopfield神經(jīng)網(wǎng)絡(luò)手寫數(shù)字識(shí)別模型構(gòu)建并進(jìn)程實(shí)現(xiàn),與BP網(wǎng)絡(luò)相比,識(shí)別率在誤識(shí)率和正確率方面更為準(zhǔn)確。德國(guó)、清華大學(xué)和上海交通大學(xué)[7]等根據(jù)壓縮字結(jié)構(gòu)的特點(diǎn),選取大量樣本組成不同的訓(xùn)練集和測(cè)試集,采用先進(jìn)技術(shù)進(jìn)行大規(guī)模測(cè)試,進(jìn)一步提高了測(cè)試的準(zhǔn)確性和速度性能。然而,測(cè)試要么需要書寫的形式,要么測(cè)試樣本和訓(xùn)練樣本的數(shù)據(jù)源必須是同一批人。一言以蔽之,共同制度對(duì)撰稿人有更多的限制,或者對(duì)正式寫作程度有更高的要求,或者對(duì)寫作位置有更高的要求,或者對(duì)所使用的筆墨有具體的要求。例如,對(duì)納稅申報(bào)單的確認(rèn),要求按規(guī)定的字體書寫數(shù)字,對(duì)書寫位置也有規(guī)定。對(duì)于隨意手寫出來的數(shù)字,識(shí)別效果仍然不理想,有待進(jìn)一步的提高?;谏疃葘W(xué)習(xí)的手寫數(shù)字識(shí)別為我們?nèi)蘸髮W(xué)習(xí)和做項(xiàng)目提供了許多寶貴的經(jīng)驗(yàn),避免我們少走了許多的彎路。其對(duì)資源的低要求讓我們節(jié)約了許多的成本,防止不必要的開支。其在識(shí)別時(shí)具有高精度的準(zhǔn)確率,達(dá)到人們所預(yù)期的識(shí)別度。手寫數(shù)字識(shí)別說明圖像處理模塊中的一個(gè)重要角色就是字符識(shí)別,字符識(shí)別本身就是一個(gè)具有高熱度的話題及課題,讓人們趨之若鶩的一個(gè)存在。其包含了其他識(shí)別領(lǐng)域分支都會(huì)遇到的一些基礎(chǔ)問題。伴隨著字符識(shí)別技術(shù)的發(fā)展,其他相關(guān)的領(lǐng)域也在一步步地前進(jìn)。字符識(shí)別一般可以以輸入設(shè)備的差異性、字符的字體和識(shí)別對(duì)象分為以下的幾個(gè)方向:根據(jù)輸入設(shè)備的差異性分別為聯(lián)機(jī)識(shí)別和脫機(jī)識(shí)別;根據(jù)待處理的字符的字體來分為印刷體識(shí)別和手寫體識(shí)別;從識(shí)別對(duì)象劃分為手寫體字母識(shí)別、手寫體數(shù)字識(shí)別、手寫體漢字識(shí)別和其他國(guó)家的字符識(shí)別。根據(jù)字符數(shù)的不同,字符識(shí)別可分為有限識(shí)別和非有限識(shí)別。在線識(shí)別通過與計(jì)算機(jī)相連的手寫輸入設(shè)備,獲得數(shù)字筆畫的起始點(diǎn),方向,終止點(diǎn)等,使得識(shí)別更容易。但是要求輸入者在指定的設(shè)備上輸入。在生活中更多的是識(shí)別已準(zhǔn)備好的各種資料,即為脫機(jī)識(shí)別。脫機(jī)識(shí)別可以將已準(zhǔn)備好的待識(shí)別的數(shù)據(jù)輸入到機(jī)器中,然后進(jìn)行識(shí)別。手寫數(shù)字的識(shí)別即0-9,把目標(biāo)按10類劃分。賬單、憑證、票據(jù)等多為數(shù)字的數(shù)據(jù)都是手寫數(shù)字識(shí)別可以識(shí)別出的。通過手寫數(shù)字識(shí)別系統(tǒng)的使用,將提高人類處理事情的速率。且數(shù)字在人類交流中是不可或缺的存在,數(shù)字手寫識(shí)別的發(fā)展為漢字等的手寫識(shí)別做好鋪墊,為深度學(xué)習(xí)的發(fā)展打好基礎(chǔ)。第二章選題相關(guān)算法2.1手寫識(shí)別算法發(fā)展手寫的數(shù)字識(shí)別算法的分類基礎(chǔ)[8]是基于結(jié)構(gòu)和統(tǒng)計(jì)特性的算法。上個(gè)世紀(jì)開發(fā)的識(shí)別工具網(wǎng)絡(luò),支持不同模型的人工神經(jīng)網(wǎng)絡(luò),在當(dāng)今仍處于主流地位,也是業(yè)界探討的核心。手寫數(shù)字的功能特性,和應(yīng)用自身所具備的獨(dú)有吸引力,已經(jīng)引起了領(lǐng)域中專家相互地探討和討論,并在實(shí)際應(yīng)用價(jià)值上備受關(guān)注。手寫數(shù)字識(shí)別技術(shù)的準(zhǔn)確率在產(chǎn)品中仍然沒有絕對(duì)的保證,所以在甄選神經(jīng)網(wǎng)絡(luò)的適配性上非常嚴(yán)格,模型的選擇對(duì)識(shí)別網(wǎng)絡(luò)極其重要。手寫數(shù)字識(shí)別正處于不斷提升的發(fā)展階段。隨著科技的發(fā)展和技術(shù)的變革,將深度學(xué)習(xí)結(jié)合手寫識(shí)別,在實(shí)際當(dāng)中應(yīng)用,也是具有挑戰(zhàn)性的一項(xiàng)任務(wù),需要經(jīng)過不斷的鉆研創(chuàng)新來摸索前進(jìn)。而脫機(jī)識(shí)別對(duì)準(zhǔn)確率的需求日益提高,更是完成任務(wù)的首要前提通過研究我們可以從不同方面考量[9],既有關(guān)于手寫識(shí)別這樣的技術(shù)手段應(yīng)用,也有深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的選擇,以及多項(xiàng)技術(shù)的融合,任何技術(shù)都不單一存在,都需并行結(jié)合,才能更好的發(fā)揮效能。手寫數(shù)字技術(shù)的發(fā)源地并不在我國(guó),我國(guó)在該項(xiàng)技術(shù)研究上的時(shí)間也不超過三十年,但在三十年的時(shí)間里,多個(gè)國(guó)家已經(jīng)放棄了對(duì)該領(lǐng)域的開發(fā)和爭(zhēng)奪,這讓我國(guó)在該項(xiàng)技術(shù)的深究中取得了非常大的機(jī)會(huì)。這項(xiàng)技術(shù)是一個(gè)非常有研究?jī)r(jià)值的領(lǐng)域,其成果可市場(chǎng)化。所以,該領(lǐng)域仍然存在著大量的潛力,但機(jī)會(huì)和威脅并存,該項(xiàng)技術(shù)也有其受約束的條件。首先,每個(gè)數(shù)字字形攜帶的信息量為數(shù)不多,不同數(shù)字的字形在區(qū)別上不大,而且,不同的書寫習(xí)慣和不同的書寫方法都是造成該項(xiàng)技術(shù)可能會(huì)出現(xiàn)誤差的重要問題。人們通常習(xí)慣從性能上對(duì)數(shù)字識(shí)別進(jìn)行分類[10],分為二次判別函數(shù)和支持向量機(jī)的SVM。這兩種方法在實(shí)現(xiàn)過程中差別很大,所以識(shí)別效果也各有差異。從各方面來看,大家更推薦的是改良后的二次判別函數(shù),大家認(rèn)為這也是最好的識(shí)別方法。使用方法是先對(duì)數(shù)據(jù)集進(jìn)行預(yù)處理,再根據(jù)傳輸數(shù)據(jù)類型的異同點(diǎn),進(jìn)行些特征提取,通過自參考所需求范圍內(nèi)的數(shù)據(jù),再對(duì)關(guān)鍵數(shù)據(jù)進(jìn)行指標(biāo)分析,然后對(duì)數(shù)據(jù)進(jìn)行不同層次的劃分。識(shí)別方法的各個(gè)實(shí)現(xiàn)流程大致一致。在IAPR會(huì)議上,許多業(yè)界精英對(duì)字符識(shí)別提出了自己的設(shè)想和看法。基于不同的識(shí)別對(duì)象,我們?cè)噲D通過微調(diào)修改和改進(jìn)促進(jìn)手寫體識(shí)別[11],可以說2012年是具有歷史意義的一年。2.2深度學(xué)習(xí)算法分類每一個(gè)深度學(xué)習(xí)算法模型都有自己的應(yīng)用領(lǐng)域,并在其應(yīng)用領(lǐng)域有自己獨(dú)特的優(yōu)勢(shì)。比如:循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurentNeuralNetwork,RNN)適用于時(shí)間序列上的變化建模;在圖像識(shí)別分類方面卷積神經(jīng)網(wǎng)絡(luò)更具有一定的優(yōu)點(diǎn)。2.2.1據(jù)學(xué)習(xí)方法分類按學(xué)習(xí)方法[12]可以分為有監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí)。有監(jiān)督學(xué)習(xí)的典型算法是多層感知機(jī)和卷積神經(jīng)網(wǎng)絡(luò)。無監(jiān)督學(xué)習(xí)有高度置信網(wǎng)(DBNs),自動(dòng)編碼器(AutoEncoders,DAE)、自動(dòng)去噪編碼器(DAEs)和稀疏編碼(SparseCoding,SC)。如圖2-1所示圖2-1據(jù)學(xué)習(xí)方法分類2.2.2據(jù)編解碼方法分類深度神經(jīng)網(wǎng)絡(luò)由多個(gè)網(wǎng)絡(luò)不斷的融合所組成,即許多個(gè)單層網(wǎng)絡(luò),在考慮但層網(wǎng)絡(luò)如何能達(dá)到編碼要求時(shí),要考慮以下幾種常見的情況,有包含部分編碼器的網(wǎng)絡(luò),還有只包含部分解碼器的網(wǎng)絡(luò),和不止有部分編碼器還有有部分解碼器的網(wǎng)絡(luò)。常見的深度網(wǎng)絡(luò)不外乎就是單向傳播的深度網(wǎng)絡(luò),包含多個(gè)編碼器融合;不僅僅是前饋深度網(wǎng)絡(luò)還有反饋深度網(wǎng)絡(luò),其和前者大體相似,都是由若干編碼器融合組合而成,但涵蓋內(nèi)容略有不同;還有就是雙向深度網(wǎng)絡(luò),和前兩個(gè)深度網(wǎng)絡(luò)的構(gòu)成均一致,只是在內(nèi)部包含的某些編碼和解碼的相關(guān)方法不太一樣。按照是否含有編碼器的分類如下圖2-2所示。圖2-2據(jù)是否含編碼器2.2.3據(jù)技術(shù)結(jié)構(gòu)應(yīng)用分類在深度學(xué)習(xí)的具體應(yīng)用中,通常以應(yīng)用的結(jié)構(gòu)分為以下三種:區(qū)分型深層結(jié)構(gòu)(辨別深層結(jié)構(gòu))包含卷積神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)DNN;生成型深度網(wǎng)絡(luò)結(jié)構(gòu)可分為深層有向網(wǎng)絡(luò),深度無向網(wǎng)絡(luò)和深度混合網(wǎng)絡(luò)根據(jù)網(wǎng)絡(luò)結(jié)構(gòu)中是否存在方向性。DBN模型是一種以后驗(yàn)分布概率為主要目標(biāo)的深度混合網(wǎng)絡(luò)。它主要描述數(shù)據(jù)之間的相關(guān)性并以并以數(shù)據(jù)類別的形式處理概率分布。其主要目的是在對(duì)相關(guān)數(shù)據(jù)進(jìn)行有效分類的同時(shí)提高數(shù)據(jù)的差異化程度;混合結(jié)構(gòu)是對(duì)每個(gè)系統(tǒng)進(jìn)行有效劃分的混合深層結(jié)構(gòu),以便更好地區(qū)分每個(gè)系統(tǒng),優(yōu)化與生成結(jié)構(gòu)的結(jié)合如圖2-3所示。圖2-3據(jù)技術(shù)結(jié)構(gòu)應(yīng)用方式分類2.3識(shí)別結(jié)果分類與對(duì)比我們生活中常用的二分類的分類方法的結(jié)果只有兩種可能的標(biāo)記為0或1。但是手寫數(shù)字識(shí)別的分類結(jié)果是一個(gè)多分類問題,需判斷是具體的哪一個(gè)數(shù)字。Logistics回歸屬于線性兩類回歸模型,Logistics結(jié)果是在連續(xù)值上加一次函數(shù)投映,具有線性疊加的特點(diǎn),然后通過映射投映,將所得值映射為0-1區(qū)間的值。logistics回歸有一種一般形式,我們稱為Softmax-logistic回歸模型,Softmax作用是將原來要輸出的0-9數(shù)字歸一到(0,1)之間的值,且歸一之后的值的總和為1,其符合概率和為1的性質(zhì)。在選擇如何輸出時(shí),我們可以選取其中概率最大的輸出將其作為輸出節(jié)點(diǎn),并作為預(yù)測(cè)對(duì)象。Softmax回歸模型在識(shí)別阿拉伯?dāng)?shù)字方面是非常有用的。2.4章節(jié)總結(jié)通過章節(jié)介紹了手寫數(shù)字識(shí)別算法的發(fā)展史,并對(duì)深度學(xué)習(xí)算法進(jìn)行了歸類和識(shí)別結(jié)果分類做了詳細(xì)的介紹。第三章基于CNN手寫識(shí)別的實(shí)現(xiàn)本次設(shè)計(jì)的手寫識(shí)別系統(tǒng)是在Java中通過手寫來判別手寫數(shù)字輸出結(jié)果的工作。系統(tǒng)主要分為:手寫數(shù)字的數(shù)據(jù)集采集、圖像的前期處理、識(shí)別模型的調(diào)整、對(duì)已完善的模型進(jìn)行識(shí)別。3.1手寫識(shí)別分析基于DL4J的手寫系統(tǒng)設(shè)計(jì)如圖3-1所示。Mnist數(shù)據(jù)集手寫圖片Mnist數(shù)據(jù)集手寫圖片卷積神經(jīng)網(wǎng)絡(luò)模型GUI顯示訓(xùn)練圖3-1手寫識(shí)別設(shè)計(jì)系統(tǒng)的關(guān)鍵是規(guī)劃一個(gè)可以識(shí)別輸入的數(shù)字并輸出其正確率的卷積神經(jīng)網(wǎng)絡(luò)模型,因?yàn)長(zhǎng)eNet-5模型是一個(gè)專門為手寫數(shù)字識(shí)別而設(shè)計(jì)的最經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型,所以本次使用Lenet-5模型來進(jìn)行實(shí)現(xiàn)并完善。用MNIST數(shù)據(jù)集對(duì)網(wǎng)絡(luò)模型進(jìn)行監(jiān)督訓(xùn)練使其達(dá)到可實(shí)用準(zhǔn)確度。與此同時(shí)還要對(duì)圖片進(jìn)行預(yù)處理操作,需經(jīng)過大量測(cè)試數(shù)據(jù)集的驗(yàn)證,識(shí)別效果較理想即可。3.2卷積神經(jīng)網(wǎng)絡(luò)模型簡(jiǎn)介卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNN)是一種單方向向前的神經(jīng)網(wǎng)絡(luò)(FeedforwardNeuralNetworks),此網(wǎng)絡(luò)可以對(duì)運(yùn)算進(jìn)行卷積操作并有著深度的結(jié)構(gòu)。由于受到生物感受野發(fā)展(ReceptiveField)的現(xiàn)象引導(dǎo)人們提出了卷積神經(jīng)網(wǎng)絡(luò)的概念。匯聚、權(quán)值共享和局部連接是卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)上的特點(diǎn)。正是因?yàn)橛辛诉@些特性,卷積神經(jīng)網(wǎng)絡(luò)具有通過空間內(nèi)的操作如平移、縮放都會(huì)原始圖像的不變性[13]。卷積神經(jīng)網(wǎng)絡(luò)中出現(xiàn)最早的是LeNet-5網(wǎng)絡(luò)模型,這也是最簡(jiǎn)單的一個(gè)深度網(wǎng)絡(luò)模型。根據(jù)一個(gè)基本的卷積填充方法Same卷積,卷積網(wǎng)絡(luò)的根本原理是輸入和輸出的相對(duì)應(yīng),并通過相互對(duì)應(yīng)學(xué)習(xí)兩者的對(duì)應(yīng)關(guān)系。而這個(gè)操作也恰好避免了數(shù)學(xué)算法,通過這種方法,使網(wǎng)絡(luò)得到了兩者之間的對(duì)應(yīng)能力。因?yàn)榫矸e網(wǎng)絡(luò)屬于被訓(xùn)練對(duì)象,所以其所有數(shù)據(jù)都以向量對(duì)的方式呈現(xiàn)。向量對(duì)是來自特定網(wǎng)絡(luò)模型下系統(tǒng)的執(zhí)行結(jié)果,且部分在執(zhí)行系統(tǒng)里面提取的。在開始訓(xùn)練時(shí),把權(quán)進(jìn)行優(yōu)化。通過優(yōu)化確定網(wǎng)絡(luò)持續(xù)穩(wěn)定性,減輕連接時(shí)的負(fù)擔(dān),也避免因?yàn)橛?xùn)練不當(dāng)對(duì)成功率的影響[14]。LeNet-5模型結(jié)構(gòu)如圖3-2所示。圖3-2LeNet-5圖示典型的LeNet-5共有7層,輸入(INPUT)層,C1-卷積層(Convolutions),S2-池化(下采樣)層,C3層-卷積層,S4層-池化層(下采樣層),C5層-卷積層,F(xiàn)6層-全連接層,Output層-全連接層。其包括了卷積神經(jīng)網(wǎng)絡(luò)的所有單元。輸入層,實(shí)驗(yàn)輸入32*32像素的灰度圖片,平均輸入大致為0,而方差大約為1,從而加速了學(xué)習(xí),要求手寫體數(shù)字應(yīng)該在中心,即20*20以內(nèi)。卷積層,其作用是提取一塊范圍內(nèi)的特征,通過每一個(gè)濾波器來提取出相對(duì)應(yīng)的特征。假定一個(gè)圖片為5*5矩陣,如圖3-3所示,涂色部分為濾波器即一個(gè)滑動(dòng)的窗口,主要用于特征的提取,暫定步幅為1,卷積核依次在矩陣上從左到右滑動(dòng)一格,繼續(xù)從上到下滑動(dòng)一格,避免邊緣效應(yīng)。每一次移動(dòng)都進(jìn)行一次求值,即兩個(gè)區(qū)間內(nèi)對(duì)應(yīng)的地方做乘積運(yùn)算最后將所有相乘值求和,得到圖3-4的一個(gè)值。圖3-3矩陣圖圖3-4特征平面圖經(jīng)過卷積處理后的圖片特征更為明顯,且噪聲降低。設(shè)定手寫圖片的灰度值如圖3-5所示,每格放一個(gè)代表0-255中的一個(gè)數(shù)字,對(duì)陰影部分選取其中的平均值作為抽樣,如圖3-6所示。圖3-5數(shù)字圖片灰度值圖3-6平均池化后灰度值池化(Pooling)在卷積中是一個(gè)非常重要的概念,在池化中,非線性池化函數(shù)有多種形式,而“平均池化”是最常見的。它是將輸入的圖像劃分為許多個(gè)塊區(qū)域,對(duì)每個(gè)子區(qū)域輸出求平均值,并進(jìn)行數(shù)據(jù)的壓縮。直觀地說,這種機(jī)制之所以有效,對(duì)其來說,它和其他特征的整體位置較它的當(dāng)前位置更為重要。數(shù)據(jù)像素的大小是不斷地減小下采樣層對(duì)它的作用,此作用導(dǎo)致參數(shù)的數(shù)量和計(jì)算成本也會(huì)跟隨著下降,所以在一定程度上避免了過擬合情況的出現(xiàn)。通常情況下CNN的卷積層之間會(huì)有一定頻率地插入池化層(池化層又叫下采樣層),其目的是為了壓縮數(shù)據(jù)并降低數(shù)據(jù)維度。同時(shí)池化也具有一定的優(yōu)勢(shì),保證圖片的特征并不會(huì)變形,保留了圖片的特征并降低維度,在一定程度上防止過擬合、更方便優(yōu)化。3.3開發(fā)工具安裝深度學(xué)習(xí)開源框架有很多,但是支持Java語言的很少。所以這次采用DL4J框架去完成本次設(shè)計(jì)。3.3.1開發(fā)工具Java語言作為一名在業(yè)界語言排行榜占據(jù)前排位置的語言,其簡(jiǎn)單易懂、面向?qū)ο?、可支持不同平臺(tái)等等優(yōu)點(diǎn)占有了大部分的市場(chǎng)。此次設(shè)計(jì)所需環(huán)境為win7系統(tǒng),Java環(huán)境采用的是JDK1.8。JDK1.8版本的運(yùn)行速度更加快速,代碼更少。它具有強(qiáng)大的流API核心功能,使得代碼調(diào)用更加簡(jiǎn)潔。與其他系統(tǒng)相比,win7系統(tǒng)具有很強(qiáng)的穩(wěn)定性。win7系統(tǒng)的優(yōu)勢(shì)在于繼承了XP的穩(wěn)定性,對(duì)硬件有很強(qiáng)的兼容性。微軟曾經(jīng)發(fā)布過一個(gè)vista系統(tǒng),但由于其穩(wěn)定性和兼容性差,安裝不久,vista系統(tǒng)就被XP系統(tǒng)取代,占用率較低。隨著win7系統(tǒng)的發(fā)布,人們逐漸從XP轉(zhuǎn)向win7系統(tǒng)。3.3.2DL4J庫(kù)與Python開源的深度學(xué)習(xí)庫(kù)不同,java語言深度學(xué)習(xí)庫(kù)(deeplearning4j)專門用于Java和JVM,支持多種深度學(xué)習(xí)模型。DL4J的特點(diǎn)之一是支持分布式的,它可以運(yùn)行在spark和Hadoop上,為生產(chǎn)環(huán)境帶來了極大的便利,DL4J支持在CPU或GPU運(yùn)行??梢愿鶕?jù)自己的需要及環(huán)境選擇相應(yīng)的運(yùn)行方式。DL4J是為商業(yè)環(huán)境所設(shè)計(jì)的,因此更適合項(xiàng)目落地。每一個(gè)機(jī)器學(xué)習(xí)工作流程至少由兩部分組成。第一部分是加載數(shù)據(jù)并準(zhǔn)備用數(shù)據(jù)進(jìn)行學(xué)習(xí),即ETL(提取、轉(zhuǎn)換、加載)過程。第二部分就是系統(tǒng)本身的實(shí)現(xiàn)。系統(tǒng)環(huán)境搭建:在搭建過程中,電腦不同系統(tǒng)版本對(duì)DL4J響應(yīng)速度有很大影響。此次采用CPU版本的DL4J,如果電腦有NVIDIAGPU則可使用GPU版的DL4J,速度與CPU版本相比要迅捷很多。先預(yù)裝jdk1.7及以上版本,我這里使用的是jdk64位1.8版本??稍趯?duì)應(yīng)官網(wǎng)上進(jìn)行下載并配置系統(tǒng)環(huán)境變量。Maven是用于Java項(xiàng)目的依賴項(xiàng)管理和自動(dòng)構(gòu)建工具。在配置maven的時(shí)候注意setting.xml文件中鏡像源的優(yōu)化以及本地倉(cāng)庫(kù)的配置。在配置神經(jīng)網(wǎng)絡(luò)時(shí),我們可以使用集成開發(fā)環(huán)境(IDE)允許客戶使用他們的API,為了避免不必要的麻煩,我們使用IntelliJ來處理依賴關(guān)系。通過Git來下載dl4j-examples的示例包,里面包含了開源的一些代碼,克隆到本地完成后,執(zhí)行以下操作。如圖3-7所示。通過mvncleaninstall安裝所依賴的相關(guān)包。下載之后自己新建一個(gè)maven項(xiàng)目,然后在自己的項(xiàng)目中使用DL4J并配置pom.xml文件。圖3-7Git下載3.4手寫識(shí)別算法實(shí)現(xiàn)到目前為止,有很多框架支持深度學(xué)習(xí),雖然Caffe作為第一個(gè)深度學(xué)習(xí)框架,在圖像處理方面比較熟練,但是其可擴(kuò)展性不是很好。雖然torch較強(qiáng)大,但其設(shè)計(jì)并不適合兩大群體的廣泛普及,即以Python為主流的學(xué)者們和大面積使用Java的企業(yè)軟件開發(fā)人員及其他人員。DL4J是一個(gè)將大量復(fù)雜的手寫數(shù)據(jù)引入人工智能神經(jīng)網(wǎng)絡(luò),并利用其進(jìn)行研究和分析處理的系統(tǒng)。本文采用易于理解和分析的DL4J框架。DeepLearning4J在API語言、目的和集成方面獨(dú)占鰲頭跟其他框架相比。DL4J是一個(gè)基于JVM的分布式深度學(xué)習(xí)框架,以工業(yè)應(yīng)用為中心,提供業(yè)務(wù)支持,能夠在合理的時(shí)間內(nèi)解決涉及海量數(shù)據(jù)的不同問題。DL4J集成了Kafka、Hadoop、spark,可以運(yùn)行個(gè)數(shù)不限的gpu或cpu,如有問題可以聯(lián)系服務(wù)熱線。DL4J是一個(gè)跨平臺(tái)的便攜式學(xué)習(xí)庫(kù),沒有針對(duì)任何特定的云服務(wù)(如AWS、azure或Google云)進(jìn)行特別優(yōu)化。在速度方面,DL4J的性能優(yōu)于tensorflow和torch。在多個(gè)GPU下運(yùn)行非平凡圖像處理任務(wù)的性能與Caffe相當(dāng),Deeplearning4j有java、Scala和pythonAPI。3.5實(shí)現(xiàn)方法此次設(shè)計(jì)采用的編程語言是Java,為了實(shí)現(xiàn)手寫識(shí)別算法,我選取了DL4J的CNN網(wǎng)絡(luò)。算法主要分為以下兩個(gè)模塊。如圖3-8和圖3-9所示。反傳更新網(wǎng)絡(luò)參數(shù)反傳更新網(wǎng)絡(luò)參數(shù)計(jì)算總損失預(yù)設(shè)隨機(jī)小參數(shù)MNIST訓(xùn)練集CNN網(wǎng)絡(luò)圖3-8確定參數(shù)流程圖輸出Softmax分類輸出Softmax分類手寫數(shù)字CNN網(wǎng)絡(luò)圖像預(yù)處理手寫圖片的處理圖3-9識(shí)別算法的流程對(duì)于手寫圖片來說,其處理主要為CNN調(diào)整適合的網(wǎng)絡(luò)維數(shù)。CNN網(wǎng)絡(luò)使28*28的圖片輸出為一維矩陣。最后使用softmax進(jìn)行預(yù)測(cè)值。通過需求來設(shè)計(jì)卷積神經(jīng)網(wǎng)絡(luò)的模型,并進(jìn)行參數(shù)的配置,包括隱藏層的節(jié)點(diǎn)數(shù)、學(xué)習(xí)率、衰減率和為了防止過擬合的正則化系數(shù)。經(jīng)過對(duì)存儲(chǔ)的MNIST數(shù)據(jù)集生成的隱藏層參數(shù)和output層參數(shù)使用的激活函數(shù)來進(jìn)行向前傳播和代價(jià)函數(shù)還有正則化損失函數(shù)計(jì)算,它通過反向傳播的渠道算法來更新神經(jīng)網(wǎng)絡(luò)的取值范圍,一次次地進(jìn)行更新并且進(jìn)行監(jiān)督訓(xùn)練,以此實(shí)現(xiàn)權(quán)值更新。直到使測(cè)試集一定程度上識(shí)別正確即可。確定實(shí)現(xiàn)訓(xùn)練的網(wǎng)絡(luò)模型。將手寫入手寫區(qū)的數(shù)字識(shí)別進(jìn)行預(yù)測(cè)。3.6總結(jié)本章節(jié)主要介紹了所設(shè)計(jì)的手寫識(shí)別系統(tǒng),并對(duì)所用到的深度模型及環(huán)境搭建進(jìn)行了詳細(xì)說明。第四章訓(xùn)練識(shí)別和結(jié)果對(duì)比分析本設(shè)計(jì)訓(xùn)練和識(shí)別的設(shè)計(jì)思路如圖4-1所示。0,1...9訓(xùn)練樣本圖片0,1...9訓(xùn)練樣本圖片圖像預(yù)處理特征提取CNN網(wǎng)絡(luò)待識(shí)別數(shù)字訓(xùn)練識(shí)識(shí)別圖4-1訓(xùn)練和識(shí)別流程圖4.1訓(xùn)練識(shí)別過程在目前這個(gè)社會(huì)中,所需的通過手寫出來的數(shù)字最全的為MNIST數(shù)據(jù)字符集,該數(shù)據(jù)集來自NationalInstituteofStandardsandTechnology,它的訓(xùn)練樣本數(shù)量達(dá)到60000個(gè),測(cè)試樣本總數(shù)為10000個(gè)。數(shù)據(jù)中的數(shù)字尺寸大小都是28*28的灰度圖片。導(dǎo)入MNIST數(shù)據(jù)集首先需要對(duì)數(shù)據(jù)集進(jìn)行處理,最好能直接識(shí)別的程度則處理成功。數(shù)據(jù)的存儲(chǔ)格式是非常簡(jiǎn)單的。將讀取的數(shù)據(jù)轉(zhuǎn)化成數(shù)字保存到列表中,然后使用matplotlib輸出一下效果。識(shí)別率為判別網(wǎng)絡(luò)是好或壞的唯一指標(biāo)。當(dāng)正確讀取數(shù)據(jù)后,需要定義具體的網(wǎng)絡(luò)神經(jīng)架構(gòu),在該處用Lenet-5網(wǎng)絡(luò)模型,此網(wǎng)絡(luò)是一個(gè)5層的網(wǎng)絡(luò)結(jié)構(gòu)(不包括輸入層)。第0層:inputlayer:輸入28*28的圖片作為原始訓(xùn)練圖像第1層:Convolution1:6個(gè)5*5的卷積核,步長(zhǎng)Stride為1第2層:Pooling1:卷積核size為2*2,步長(zhǎng)Stride為2第3層:Convolution2:12個(gè)5*5的卷積核,步長(zhǎng)Stride為1第4層:Pooling2:卷積核size為2*2,步長(zhǎng)Stride為2第5層:Outputlayer:輸出結(jié)果訓(xùn)練數(shù)據(jù)的結(jié)果如下圖4-2所示。圖4-2預(yù)設(shè)值為0.1時(shí)的準(zhǔn)確率圖4-3預(yù)設(shè)值為0.01時(shí)的準(zhǔn)確率圖4-4預(yù)設(shè)值為0.0005時(shí)的準(zhǔn)確率為了得到理想的召回率,根據(jù)不同的小參數(shù)進(jìn)行不斷預(yù)設(shè)并比較,發(fā)現(xiàn)當(dāng)預(yù)設(shè)值為0.005時(shí),模型最優(yōu)。要根據(jù)自己的內(nèi)存大小設(shè)置好訓(xùn)練次數(shù),不然會(huì)報(bào)錯(cuò),我設(shè)置的訓(xùn)練次數(shù)為5000,如圖4-4所示。代碼如4-5所示。圖4-4訓(xùn)練次數(shù)過多報(bào)錯(cuò)圖4-5訓(xùn)練實(shí)現(xiàn)圖4.2數(shù)據(jù)識(shí)別實(shí)現(xiàn)結(jié)果圖導(dǎo)入MNIST數(shù)據(jù)集,在網(wǎng)址下載MNIST數(shù)據(jù)集,通過二進(jìn)制拆分導(dǎo)入到網(wǎng)絡(luò)神經(jīng)架構(gòu),對(duì)手寫區(qū)域的數(shù)據(jù)進(jìn)行捕獲,對(duì)灰度圖片進(jìn)行處理,并將其二值化然后將灰度圖轉(zhuǎn)為黑白圖,通過網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,實(shí)現(xiàn)了基于CNN手寫識(shí)別,并取得了不錯(cuò)的成果。對(duì)于單個(gè)數(shù)字識(shí)別測(cè)試時(shí),其他數(shù)字的識(shí)別結(jié)果均比較理想,但是數(shù)字9多次誤識(shí)為8。經(jīng)過查閱各種數(shù)據(jù)和資料,發(fā)現(xiàn)訓(xùn)練過程中的過擬合有關(guān)。因此,為了使識(shí)別結(jié)果更準(zhǔn)確,一些節(jié)點(diǎn)被丟棄。對(duì)于0-10的數(shù)字識(shí)別結(jié)果概率如下表4-5所示。數(shù)字正確率誤識(shí)率拒識(shí)率可靠性094.36%4.55%1.12%95.48%195.01%4.2%0.07%95.8%293.22%5.92%0.88%94.1%392.28%6.62%1.1%93.38%494.46%4.81%0.76%95.22%595.08%4.4%0.52%95.6%693.37%5.61%1.05%94.42%794.48%4.91%0.74%95.22%895.66%4.11%0.36%96.02%992.29%5.97%1.78%94.07%總計(jì)94.02%5.14%0.84%94.84%表4-5數(shù)字識(shí)別實(shí)現(xiàn)結(jié)果4.3結(jié)果分析通過吳琳琳[15]在其他線性分類器上以SVM(SupportVectorMachine)的手寫數(shù)字識(shí)別體的研究中,以UCIRepository訓(xùn)練樣本集,并嘗試在線性回歸中采用One-Against-All和One-Against-One多分類器和有向無環(huán)圖方法提高分類精度。其分類值的精確度如表4-6所示。測(cè)試集One-Against-OneOne-Against-AllDAG測(cè)試集準(zhǔn)確率測(cè)試集準(zhǔn)確率測(cè)試集準(zhǔn)確率dna95.447%95.74%95.447%satimage91.3%91.7%91.250%letter97.780%97.880%97.980%圖4-6基于SVM分類值的結(jié)果從上面的幾個(gè)圖對(duì)比得出,在CNN模型上測(cè)試集的準(zhǔn)確率有了明顯的提高。KNN的準(zhǔn)確率只有95%,NN網(wǎng)絡(luò)準(zhǔn)確率僅有91.6%。通過這些數(shù)據(jù)的比較,本設(shè)計(jì)的識(shí)別準(zhǔn)確性更為理想,更滿足實(shí)際應(yīng)用需要。通過CNN中的pooling,更好的解決了圖像在處理與識(shí)別方面的問題。與此同時(shí),以CNN為基礎(chǔ)的手寫數(shù)字分類識(shí)別具有局部的特征,下采樣使得深度學(xué)習(xí)模型參數(shù)大幅度減小等優(yōu)點(diǎn)因?yàn)镃NN模型的存在,以至于系統(tǒng)存在很多參數(shù),比如隱層節(jié)點(diǎn)數(shù),卷積核大小等等。這些超參數(shù)的組合形式是多種多樣的。對(duì)于最優(yōu)組合方法到現(xiàn)在都沒有系統(tǒng)理論支撐。本設(shè)計(jì)是憑經(jīng)驗(yàn)嘗試組合,通過多次實(shí)驗(yàn)驗(yàn)證的。因?yàn)闀r(shí)間有限,以至于系統(tǒng)沒有達(dá)到效率最高和最優(yōu),系統(tǒng)有待進(jìn)一步的優(yōu)化和改進(jìn)。本次設(shè)計(jì)采用的物理環(huán)境為:CPU:intercorei5,內(nèi)存:4G。在訓(xùn)練過程中,訓(xùn)練的次數(shù)如果太大則不能進(jìn)行正常計(jì)算,耗費(fèi)的時(shí)間也較長(zhǎng)。若有條件則建議深度結(jié)構(gòu)模型通過GPU來進(jìn)行運(yùn)行,這樣訓(xùn)練速度將成倍地上升。4.4學(xué)習(xí)速率與算法收斂趨勢(shì)收斂速度之間的關(guān)系我們?cè)趯W(xué)習(xí)速率中得知在損失函數(shù)梯度的幫助下怎樣去調(diào)整網(wǎng)絡(luò)的權(quán)重。在優(yōu)化學(xué)習(xí)率時(shí)我們使用梯度下降算法,則在權(quán)值更新規(guī)則中,在梯度項(xiàng)之前乘以一個(gè)系數(shù)即為超參數(shù)。損失函數(shù)的變化速度隨著學(xué)習(xí)率變化成正比即學(xué)習(xí)率越低其越慢。而學(xué)習(xí)率越低則收斂時(shí)間更為漫長(zhǎng)。當(dāng)學(xué)習(xí)速率過大時(shí),就會(huì)因?yàn)樵谔荻认陆捣ㄔ谶\(yùn)算時(shí)可能會(huì)跳過最低點(diǎn)而錯(cuò)失最佳值,使得神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率出現(xiàn)誤差,甚至可能發(fā)散。數(shù)據(jù)樣本決定學(xué)習(xí)率的取值,我們可以準(zhǔn)備許多具有比較性的值,根據(jù)值得大到小的順序分別運(yùn)行算法,觀察得到的效果。如果loss函數(shù)在變小,則說明取值有效,否則要增大步長(zhǎng)。4.5章節(jié)總結(jié)根據(jù)實(shí)際需求改進(jìn)并訓(xùn)練模型,將訓(xùn)練后的結(jié)果與其他的進(jìn)行對(duì)比分析??聪到y(tǒng)是否達(dá)到基本可實(shí)用要求。第五章總結(jié)最簡(jiǎn)單的一種深度學(xué)習(xí)結(jié)構(gòu)是多隱層的多層感知機(jī)。深度學(xué)習(xí)的源頭又是人工神經(jīng)網(wǎng)絡(luò)。本此實(shí)驗(yàn)通過對(duì)深度學(xué)習(xí)算法的研究,并將其應(yīng)用在實(shí)際問題中,具有實(shí)用性,也為其他的手寫識(shí)別打好基礎(chǔ),做好鋪墊。本設(shè)計(jì)總結(jié)如下:先對(duì)選題意義及手寫數(shù)字識(shí)別現(xiàn)狀進(jìn)行了概述。并闡明了如今的手寫識(shí)別技術(shù)的整體發(fā)展和方案。對(duì)深度學(xué)習(xí)算法進(jìn)行分析與歸類。并給出了具體的圖例說明。確定設(shè)計(jì)所用的手寫數(shù)字識(shí)別的深度學(xué)習(xí)網(wǎng)絡(luò)模型,并對(duì)實(shí)際應(yīng)用系統(tǒng)進(jìn)行設(shè)計(jì),配置模型所需的參數(shù),進(jìn)行系統(tǒng)開發(fā)工具、開發(fā)環(huán)境的選擇以及算法如何實(shí)現(xiàn)。在訓(xùn)練過程中不斷對(duì)參數(shù)調(diào)參并驗(yàn)證試驗(yàn)結(jié)果的準(zhǔn)確性。但是,由于自身實(shí)力不足,系統(tǒng)仍需進(jìn)一步改進(jìn)。且在本次實(shí)驗(yàn)中占用資源較多,需進(jìn)一步調(diào)優(yōu)。參考文獻(xiàn)程柳柳,中島一木,廣崎,藤澤浩.手寫數(shù)字識(shí)別:最新技術(shù)的基準(zhǔn).模式識(shí)別[J],2003,36:2271-2285.盧寧濤,起亞.基于視覺的聯(lián)機(jī)手寫數(shù)字識(shí)別特征與分類方法.模式識(shí)別[J],2002,35:2355-2364.JinhaiCai.IntegrationofStructuralandStatisticalInformationforUnconstrainedHandwrittenNumeralRecognitionIEEETransactionsonPatternAnalysisandMachineIntelligence[J],199(3),21(3).HuangQiaoqiao.ResearchonhandwrittendigitrecognitionsystembasedonBPneuralnetwork[D].CentralChinaNormalUniversity,2009.WangQiang.ResearchoncharacterrecognitionmethodbasedonCNN[D].TianjinNormalUniversity,2014.CaoDan.OfflinehandwrittendigitrecognitionbasedonHopfieldneuralnetwork[D].CentralSouthUniversity,2009.陳宙斯,胡文心.簡(jiǎn)化LSTM的語音合成[J].計(jì)算機(jī)工程與應(yīng)用,2018.54(03):131-135.付吉.聯(lián)機(jī)手寫梵音藏文樣本的構(gòu)建[D].西北民族大學(xué),2016.張宇翔.面向iOS的聯(lián)機(jī)手寫識(shí)別方法及其實(shí)現(xiàn)[D].華南理工大學(xué),2016.伍文源.基于BP神經(jīng)網(wǎng)絡(luò)的湘西方塊苗文圖像識(shí)別研究[D].華南理工大學(xué),2016.呂書龍,劉文麗,江巧洪,朱玉燦.網(wǎng)絡(luò)閱卷系統(tǒng)中一體化試卷模板的探討[J].福建電腦,2016,32(05):10-11黃獻(xiàn)通.

基于深度學(xué)習(xí)的手寫數(shù)字識(shí)別研究及應(yīng)用[D].曲阜師范大學(xué),2018.汪雅琴,夏春蕾,戴曙光.基于LeNet-5模型的手寫數(shù)字識(shí)別優(yōu)化方法[J].計(jì)算機(jī)與數(shù)字工程,2019,47(12):3177-3181.邱錫鵬.神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)[M].上海:復(fù)旦大學(xué),2019:42-50.吳琳琳.基于SVM技術(shù)的手寫識(shí)別研究[D].山東師范大學(xué),2016.致謝時(shí)間轉(zhuǎn)瞬即逝,在母校學(xué)習(xí)成長(zhǎng)的日子即將結(jié)束,回顧我在校期間的時(shí)日,有老師的諄諄教誨,也有同學(xué)朋友的幫助和支持一直伴隨著我左右,我們?cè)谝稽c(diǎn)點(diǎn)的成長(zhǎng),也在向成熟走去。我要發(fā)自內(nèi)心地感謝我的教師。從一開始得到老師耐心的講解和支持與鼓勵(lì),從文章的定題,再到資料的收集分析整理,到論文的撰寫修改,老師都傾注了大量的心血在里面,才使得我順利完成我的畢業(yè)文本寫作作業(yè)。真摯的感謝我的老師,在我的學(xué)習(xí)生涯中,給予了我生活和工作上的幫助與支持。老師無私教授,在生活上無微不至的關(guān)心和平日里寬以待人的人文關(guān)懷,令我在學(xué)習(xí),生活上倍感溫馨。在畢業(yè)之際,我也非常感謝其他老師的對(duì)我的指導(dǎo)與包容,在他們的引領(lǐng)下,我樹立了全新的思想,制定了新的學(xué)習(xí)目標(biāo),掌握了社會(huì)上的多種思維方式和與人交往的原則,創(chuàng)造了許多必要的條件和學(xué)習(xí)契機(jī)。還有日日夜夜一起學(xué)習(xí)的同學(xué),朋友們,同我跨過兩年的美妙的年華,在此我也對(duì)你們表示深深的感謝之情!最后,衷心并真摯的的感謝審查本篇文章的老師,感謝您在百忙之中擠出時(shí)間。由于本人的學(xué)問和寫作能力有限,在本文撰寫及修改中未免有一些漏洞,懇請(qǐng)老師和同學(xué)指教。

HYPERLINK電腦文件整理懶招從來都是不會(huì)經(jīng)常整理文件的,不過時(shí)間一長(zhǎng),眾多的文檔分布在硬盤的各個(gè)角落,用目錄進(jìn)行整理保存,工作量大、查看起來也不方便且還會(huì)浪費(fèi)不少的磁盤空聞;用壓縮工具打包,盡管可以節(jié)約空間但是卻無法直接編輯修改或查看壓縮包中的文件。這些招,懶人怎么會(huì)用,他們自有妙招!再多再亂的文件也能整理得井井有條,關(guān)鍵是不費(fèi)力哦!

懶招1,自動(dòng)提取亂中取勝

小張起初將照片、Office文檔、電影、音樂等文件一股腦地存放在某一個(gè)磁盤分區(qū),剛開始文件少使用起來倒也方便,但隨著時(shí)間的推移,文件數(shù)量劇增,每次找所需的文件都要瞪大眼睛,不過有了MY文檔管理器(下載地址:)就不用擔(dān)心了。

第一步,下載MY文檔管理器,解壓到任意目錄,直接雙擊其中的可執(zhí)行性文件即可使用。依次單擊“節(jié)點(diǎn)操作→添加節(jié)點(diǎn)”,分別添加多個(gè)節(jié)點(diǎn),如“辦公文檔”、“電影”等分類,這樣做的目的是方便歸類。

第二步,在小張的F盤中的TEST目錄下有眾多的RM、MP3、JPG、DOC、TXT格式的文件,現(xiàn)在他要把JPG格式的文件提取到“照片”類別中。依次單擊“系統(tǒng)配置→文件過濾”選項(xiàng),打開Dialog對(duì)話框,輸入“*.doc”,單擊“添加”按鈕,意思是過濾掉所有類型為“.DOC”的文件。然后按照同樣的方法,將“*.txt”、“*.rm”、“*.MP3”一一添加進(jìn)來。

第三步,雙擊左側(cè)窗格中的“照片”節(jié)點(diǎn),然后依次單擊“記錄操作→導(dǎo)入記錄樹”命令,在打開的對(duì)話框中單擊瀏覽按鈕,打開“F:\test”目錄,單擊“確定”按鈕之后就可以將格式為JPG的文件提取出來并添加到“照片”節(jié)點(diǎn)中了。

懶招2,不同的電腦統(tǒng)一的管理

小張是電愛的Fans,工作之余常常為雜志寫稿,他寫完的和正在處理的稿件一般都存在一個(gè)稿件文件夾里。不過時(shí)間一長(zhǎng),家里的電腦(PC1)和單位的電腦(PC2)上都有這個(gè)文件夾。時(shí)常需要通過移動(dòng)硬盤(U盤)在兩臺(tái)電腦之間傳遞,使用和管理都很不方便。不過他現(xiàn)在用優(yōu)盤就可以統(tǒng)一管理了。

第一步,將上文提到的那個(gè)MY文檔管理器解壓后直接拷貝到優(yōu)盤上。把優(yōu)盤插到PC1上,并運(yùn)行軟件,依次單擊“記錄操作→導(dǎo)入記錄樹”命令,在隨后彈出的對(duì)話框中設(shè)置好“稿件”文件夾的根目錄,將“導(dǎo)入深度”設(shè)置為“5”,單擊“確定”后,稍等片刻,軟件就把PC1上的“稿件”導(dǎo)入到MY文檔管理器中。

小提示:通過這種方式導(dǎo)入到程序中的僅僅是文件的路徑、文件名等屬性信息,并不是文件本身。

第二步,把優(yōu)盤插到PC2上,按照同樣的方法導(dǎo)入PC2上的“稿件”文件。以后要編輯“稿件”里的文件,你自己根本不用記住哪臺(tái)電腦的哪個(gè)路徑,只要把優(yōu)盤插入到電腦,運(yùn)行MY文檔管理器,就可以直接編輯了。

第三步,為方便在異地使用,小張決定為當(dāng)前正在處理的稿件增加一個(gè)副本。在需要異地處理的稿件上右鍵單擊,選擇“復(fù)制文件到(自動(dòng)添加副本)”命令,在彈出的對(duì)話框中將保存目錄設(shè)置為優(yōu)盤上的某個(gè)目錄即可。這樣,就可以在優(yōu)盤上編輯PC1或PC2的稿件了。

小提示:對(duì)于PC1、PC2上的同名文件,MY文檔管理器以不同的磁盤號(hào)+文件路徑來標(biāo)識(shí)文件記錄,因此,對(duì)于不同電腦上的同名文件,甚至是路徑和文件名完全相同的文件,程序也可以準(zhǔn)確識(shí)別哪個(gè)是哪個(gè)。

懶招3多種文件批量移動(dòng)

要將文件管理得井然有序,就免不了要進(jìn)行復(fù)制、刪除、移動(dòng)等等操作,如果一個(gè)個(gè)進(jìn)行操作,工作量是非常巨大的。這時(shí)我們就需要借助于BelvedereAutomated(下載地址:.com/assets/resources/2008/03/Belvedere%200.3.exe)進(jìn)行批量操作了。例如我們想把“F:\test”目錄中的所有照片移動(dòng)到F盤中的“北京游照片”目錄中,可以按以下方法進(jìn)行。

第一步,建立“F:\test”目錄后在“rule”一欄中,單擊“+”按鈕,建立一個(gè)規(guī)則。在“Descriptior”文本框中為當(dāng)前規(guī)則起一個(gè)名字如“批量整理移動(dòng)”。單擊第一個(gè)下拉列表,在這里可以選擇Name(文件名)、Extension(擴(kuò)展名)、Size(大小)等進(jìn)行操作,這里選擇擴(kuò)展名“Extension”。單擊第二個(gè)下拉列表,在這里設(shè)置的是操作條件,有is(是)、isnot(不是)、contains(包含)等操作可供選擇,這里選擇的是“is”。接下來,在最后的文本框中輸入圖片文件的擴(kuò)展名,示例中是“JPG”。定義的規(guī)則合起來的意思就是“擴(kuò)展名是JPG”。

第二步,在“Dothefollowing”區(qū)域設(shè)置操作動(dòng)作,單擊第一個(gè)下拉列表進(jìn)行操作動(dòng)作的選擇,有“Movefile(移動(dòng))、Renamefile(重命名)、Deletefile(刪除)”等動(dòng)作可供選擇,我們要批量移動(dòng),那就選擇重命名“Movefile(移動(dòng)文件)”。接下來,單擊后面的按鈕選擇“F:\北京游照片”目錄。

第三步,規(guī)則設(shè)置完畢,單擊“Test”按鈕應(yīng)用規(guī)則,程序即可一次性地將所有擴(kuò)展名為“JPG”的圖片文件移動(dòng)到“F:\北京游照片”目錄中了。

懶招4提綱挈領(lǐng)一點(diǎn)即得

在前面幾大懶招的幫助下,你電腦里的文件應(yīng)該已經(jīng)有點(diǎn)類別了吧。如果從此想告別懶人的生活,那就要養(yǎng)成管理文件的好習(xí)慣了。

第一步,在你保存資料的電腦分區(qū)中,要接類別建立多個(gè)文件夾,可以按用途分為:學(xué)習(xí)、娛樂、暫存、工作、下載,在娛樂下又可以建立二級(jí)目錄:電影、歌曲、動(dòng)畫等。也可以按照常見的文件性質(zhì)進(jìn)行分類,例如分為:圖片、電影、電子書、安裝文件等,當(dāng)然也可以按照你的需要再建立二級(jí)目錄,以后每有文件需要保存就按這個(gè)類別保存到相應(yīng)的目錄。

第二步,雖然現(xiàn)在已經(jīng)把文件分門別類存放了,但時(shí)間長(zhǎng)了,目錄太深,一層一層查找也很麻煩的,在EXCEL里建一個(gè)目錄就可以統(tǒng)一管理了。運(yùn)行EXCEL后,新建一個(gè)表格,然后按照我們的分類方式隔行輸入:圖片、電影、電子書,在圖片分類下再建立二級(jí)目錄名,例如明星、汽車、壁紙等。

第三步,右鍵單擊“圖片文字”,選擇“超鏈接”,在彈出的對(duì)話框中選擇電腦里圖片目錄文件夾,單擊“確定”后EXCEL里的“圖片”文字就變成彩色。用同樣的方法為一級(jí)目錄的“電影、電子書”和二級(jí)目錄的“明星、汽車、壁紙”等添加超鏈接。然后將這個(gè)EXCEL文件命名為文件目錄,保存到桌面上,以后打開這個(gè)文檔,直接單擊相應(yīng)的文字,比如單擊“壁紙”,就可以切換到壁紙文件夾了。

小提示:如果要更改某個(gè)超鏈接,直接右鍵單擊該文字,選擇“編輯超鏈接”就可以了。本人的電腦分類原則簡(jiǎn)述如下。

硬盤的第一層(請(qǐng)?jiān)谧约旱募A中右鍵“按組排列”查看)

第一位字母表示A生活?yuàn)蕵稡教學(xué)C工作D安裝程序

第二位字母表示只是流水號(hào)

AA影視

AB音樂

AC閱讀

AD圖片

AE相冊(cè)

生活?yuàn)蕵?/p>

BA計(jì)算機(jī)

BB英語

BC運(yùn)動(dòng)

BD游戲攻略

BE衣食住行

BF文藝

教學(xué)

CA管理制度

CB流程圖

CC程序文件

工作

DA娛樂

DB其它

安裝程序

硬盤的第二層(進(jìn)入“AA影視”的文件夾舉例)

第一位字母表示只是流水號(hào)

第二位字母表示只是流水號(hào)

AA電影

BA電視劇

CAMTV

硬盤的第三級(jí)(進(jìn)入“AA電影”的文件夾舉例)

第一位字母表示A動(dòng)作片B劇情片C動(dòng)畫片

第二位字母表示A未看過B已看過

AA導(dǎo)火線

AB尖峰時(shí)刻

動(dòng)作片

BA獨(dú)自等待

劇情片

CB機(jī)器貓

CB獅子王

動(dòng)畫片

利用“字母排序”和“按組排列查看”可以使文件查看和存放簡(jiǎn)潔明了,結(jié)合自己資料的特點(diǎn)和實(shí)際需求,給自己定一個(gè)分類原則并嚴(yán)格執(zhí)行。個(gè)人電腦資料的資源會(huì)得到高效而充分的利用。電腦文件管理八條小技巧

在電腦的內(nèi)部,在電腦的桌面上,在“資源管理器”中,充斥著無序與混亂,這種虛擬的混亂極大地影響了電腦的性能和我們辦公的效率,當(dāng)大家面臨這個(gè)問題時(shí),通常認(rèn)為硬盤空間又不夠了,電腦性能又不跟不上了,需要再換一臺(tái)新的電腦了。事實(shí)上,我們真正需要的是坐下來,好好花時(shí)間將電腦里的文件真正管理起來,會(huì)為自己日后省下更多的時(shí)間。

文件管理的真諦在于方便保存和迅速提取,所有的文件將通過文件夾分類被很好地組織起來,放在你最能方便找到的地方。解決這個(gè)問題目前最理想的方法就是分類管理,從硬盤分區(qū)開始到每一個(gè)文件夾的建立,我們都要按照自己的工作和生活需要,分為大大小小、多個(gè)層級(jí)的文件夾,建立合理的文件保存架構(gòu)。此外所有的文件、文件夾,都要規(guī)范化地命名,并放入最合適的文件夾中。這樣,當(dāng)我們需要什么文件時(shí),就知道到哪里去尋找。

這種方法,對(duì)于相當(dāng)數(shù)量的人來說,并不是一件輕松的事,因?yàn)樗麄兞?xí)慣了隨手存放文件和辛苦、茫無頭緒地查找文件。

下面,我們將幫你制訂一套分類管理的原則,并敦促您養(yǎng)成好的文件管理習(xí)慣。以下是我們總結(jié)出的一些基本技巧,這些技巧并不是教條,可能并不適合你,但無論如何你必須要有自己的規(guī)則,并堅(jiān)持下來,形成習(xí)慣。

一、發(fā)揮我的文檔的作用

有很多理由讓我們好好地利用“我的文檔”,它能方便地在桌面上、開始菜單、資源管理器、保存/打開窗口中找到,有利于我們方便而快捷地打開、保存文件。我們可以利用“我的文檔”中已有的目錄,也可以創(chuàng)建自己的目錄,將經(jīng)常需要訪問的文件存儲(chǔ)在這里。至于“我的文檔”存儲(chǔ)在C盤,在重裝系統(tǒng)時(shí)可能會(huì)誤刪除的問題,可以在非系統(tǒng)盤建立一個(gè)目錄,然后右擊桌面上的“我的文檔”,選擇“屬性”。在彈出的“我的文檔屬性”窗口中,單擊目標(biāo)文件夾下的“移動(dòng)”按鈕,然后在新的窗口中指定我們剛創(chuàng)建的文件夾。重裝系統(tǒng)后再次執(zhí)行以上操作,再重新指向此文件夾即可,即安全又便捷。

小提示:如果你使用Windows2000/XP,則移動(dòng)“我的文檔”文件夾時(shí),其下的所有文件會(huì)自動(dòng)移過去,但如果你使用Windows9x,則需要手工將C:MyDocuments下的所有

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論