![基于DL4J庫CNN手寫識別原理研究與實現(xiàn)_第1頁](http://file4.renrendoc.com/view12/M06/13/11/wKhkGWYFHSGAUCBkAAE-SRnx310690.jpg)
![基于DL4J庫CNN手寫識別原理研究與實現(xiàn)_第2頁](http://file4.renrendoc.com/view12/M06/13/11/wKhkGWYFHSGAUCBkAAE-SRnx3106902.jpg)
![基于DL4J庫CNN手寫識別原理研究與實現(xiàn)_第3頁](http://file4.renrendoc.com/view12/M06/13/11/wKhkGWYFHSGAUCBkAAE-SRnx3106903.jpg)
![基于DL4J庫CNN手寫識別原理研究與實現(xiàn)_第4頁](http://file4.renrendoc.com/view12/M06/13/11/wKhkGWYFHSGAUCBkAAE-SRnx3106904.jpg)
![基于DL4J庫CNN手寫識別原理研究與實現(xiàn)_第5頁](http://file4.renrendoc.com/view12/M06/13/11/wKhkGWYFHSGAUCBkAAE-SRnx3106905.jpg)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
題目:基于DL4J庫CNN手寫識別原理研究與實現(xiàn)摘要卷積神經(jīng)網(wǎng)絡(luò)作為一種深度單方向傳播的可用一個有向無環(huán)圖表示的網(wǎng)絡(luò),其在計算機(jī)對圖像的處理中應(yīng)用效果非常好。LeNet-5模型是一個專門為手寫數(shù)字識別而設(shè)計的最經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型。借助MNIST字符庫數(shù)據(jù)集,優(yōu)化卷積層樣本的訓(xùn)練模式,即將每批固定輸入樣本和固定迭代次數(shù)的原始訓(xùn)練模式優(yōu)化為每批不同輸入樣本和不同迭代次數(shù)的混合訓(xùn)練模式。優(yōu)化后的訓(xùn)練方法可以提高識別速度,減少預(yù)處理的工作量。實驗結(jié)果表明,優(yōu)化后的混合樣本輸入法在保證樣本訓(xùn)練時間相等的前提下,可以獲得較高的識別率。關(guān)鍵詞:手寫數(shù)字識別;MNIST字符集;卷積神經(jīng)網(wǎng)絡(luò);Lenet-5模型
ABSTRACTAsakindofdeepunidirectionalpropagationnetwork,convolutionalneuralnetworkcanberepresentedbyadirectedacyclicgraph,whichhasbeenwellappliedinimageprocessingbycomputer.Lenet-5modelisthemostclassicalconvolutionalneuralnetworkmodelspeciallydesignedforhandwrittendigitrecognition.WiththehelpofMNISTcharacterlibrarydataset,thetrainingmodeofconvolutionlayersamplesisoptimized,thatis,theoriginaltrainingmodeofeachbatchoffixedinputsamplesandfixediterationsisoptimizedtothemixedtrainingmodeofeachbatchofdifferentinputsamplesanddifferentiterations.Theoptimizedtrainingmethodcanimprovetherecognitionspeedandreducetheworkloadofpreprocessing.Theexperimentalresultsshowthattheoptimizedmixedsampleinputmethodcanachievehighrecognitionrateonthepremiseofensuringthesametrainingtimeofsamples.Keywords:Handwrittendigitrecognition;MNISTcharacterset;convolutionalneural network;lenet-5model
目錄2915第一章引言 第一章引言選題依據(jù)和研究意義文字識別處理信息普遍來說可分為兩大類:第一種是文本處理,主要處理文字或者印制的文字信息,如書本上的字或者圖中的字。第二種是數(shù)字處理,主要由十個阿拉伯?dāng)?shù)字組成。在人們的日常生活中,數(shù)字的使用是非常廣泛的,我們每天都要進(jìn)行與大量的數(shù)字工作打交道,比如銀行轉(zhuǎn)賬、統(tǒng)計報表、批改學(xué)生試卷打分、支票金額的識別等等,因此手寫數(shù)字識別有重要的研究意義。然而許多深度學(xué)習(xí)庫是基于Python、MATLAB的,但是Deeplearning4j支持許多深度學(xué)習(xí)模型,也為從事Java行業(yè)的從業(yè)人員以及愛好者提供了一個比較優(yōu)渥的學(xué)習(xí)與實踐環(huán)境。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional
Neural
Networks,CNN)是具有卷積計算的同時又有深度結(jié)構(gòu)的單方向傳播的一個用有向無環(huán)圖表示的網(wǎng)絡(luò),它是深度學(xué)習(xí)(deep
learning)領(lǐng)域中算法的顯著代表,及其廣泛的應(yīng)用在學(xué)習(xí)與項目中。數(shù)字識別發(fā)展及研究情況近些年來,各國的學(xué)者在不斷的研究數(shù)字識別,在手寫數(shù)字識別方面已獲得了巨大的成就。Cheng-LinLiu[1]將輪廓、自身結(jié)構(gòu)及曲率等10個結(jié)構(gòu)特征與8個分類器組合,在CENPARMI,CEDAR和MNIST數(shù)據(jù)庫的測試集上進(jìn)行測驗,實驗識別率達(dá)到99.58%。但對它來說價格昂貴在計算和存儲上。Loo-NinTeow[2]利用現(xiàn)有的生物視覺構(gòu)建了手寫數(shù)字識別模型,該模型提取的線性可分類特征使得MNIST訓(xùn)練集的識別錯誤率降低到了0.59%。JinhaiCai[3]提出了一種無限制的手寫的數(shù)字識別的統(tǒng)計信息和結(jié)構(gòu)信息集成的方法。該方法運用狀態(tài)持續(xù)時間的自適應(yīng)轉(zhuǎn)移概率對常規(guī)HMM的狀態(tài)時間建模進(jìn)行了改進(jìn),克服了HMM在利用宏狀態(tài)建模模式結(jié)構(gòu)時的困難。通過這種方法使得識別的正確率和識別速度得到了良好的提升。黃巧巧[4]設(shè)計的手寫體數(shù)字識別系統(tǒng)是基于BP神經(jīng)網(wǎng)絡(luò)的,驗證了BP神經(jīng)網(wǎng)絡(luò)應(yīng)用于手寫數(shù)字識別的可行性,對于手寫體數(shù)字可以進(jìn)行良好的識別。王強(qiáng)[5]提出了主成分分析(PCA)與CNN相結(jié)合的新方法,并在svhn數(shù)據(jù)集上進(jìn)行了實驗,試圖提高自然場景中字符的識別率。曹丹[6]對基于Hopfield神經(jīng)網(wǎng)絡(luò)手寫數(shù)字識別模型構(gòu)建并進(jìn)程實現(xiàn),與BP網(wǎng)絡(luò)相比,識別率在誤識率和正確率方面更為準(zhǔn)確。德國、清華大學(xué)和上海交通大學(xué)[7]等根據(jù)壓縮字結(jié)構(gòu)的特點,選取大量樣本組成不同的訓(xùn)練集和測試集,采用先進(jìn)技術(shù)進(jìn)行大規(guī)模測試,進(jìn)一步提高了測試的準(zhǔn)確性和速度性能。然而,測試要么需要書寫的形式,要么測試樣本和訓(xùn)練樣本的數(shù)據(jù)源必須是同一批人。一言以蔽之,共同制度對撰稿人有更多的限制,或者對正式寫作程度有更高的要求,或者對寫作位置有更高的要求,或者對所使用的筆墨有具體的要求。例如,對納稅申報單的確認(rèn),要求按規(guī)定的字體書寫數(shù)字,對書寫位置也有規(guī)定。對于隨意手寫出來的數(shù)字,識別效果仍然不理想,有待進(jìn)一步的提高?;谏疃葘W(xué)習(xí)的手寫數(shù)字識別為我們?nèi)蘸髮W(xué)習(xí)和做項目提供了許多寶貴的經(jīng)驗,避免我們少走了許多的彎路。其對資源的低要求讓我們節(jié)約了許多的成本,防止不必要的開支。其在識別時具有高精度的準(zhǔn)確率,達(dá)到人們所預(yù)期的識別度。手寫數(shù)字識別說明圖像處理模塊中的一個重要角色就是字符識別,字符識別本身就是一個具有高熱度的話題及課題,讓人們趨之若鶩的一個存在。其包含了其他識別領(lǐng)域分支都會遇到的一些基礎(chǔ)問題。伴隨著字符識別技術(shù)的發(fā)展,其他相關(guān)的領(lǐng)域也在一步步地前進(jìn)。字符識別一般可以以輸入設(shè)備的差異性、字符的字體和識別對象分為以下的幾個方向:根據(jù)輸入設(shè)備的差異性分別為聯(lián)機(jī)識別和脫機(jī)識別;根據(jù)待處理的字符的字體來分為印刷體識別和手寫體識別;從識別對象劃分為手寫體字母識別、手寫體數(shù)字識別、手寫體漢字識別和其他國家的字符識別。根據(jù)字符數(shù)的不同,字符識別可分為有限識別和非有限識別。在線識別通過與計算機(jī)相連的手寫輸入設(shè)備,獲得數(shù)字筆畫的起始點,方向,終止點等,使得識別更容易。但是要求輸入者在指定的設(shè)備上輸入。在生活中更多的是識別已準(zhǔn)備好的各種資料,即為脫機(jī)識別。脫機(jī)識別可以將已準(zhǔn)備好的待識別的數(shù)據(jù)輸入到機(jī)器中,然后進(jìn)行識別。手寫數(shù)字的識別即0-9,把目標(biāo)按10類劃分。賬單、憑證、票據(jù)等多為數(shù)字的數(shù)據(jù)都是手寫數(shù)字識別可以識別出的。通過手寫數(shù)字識別系統(tǒng)的使用,將提高人類處理事情的速率。且數(shù)字在人類交流中是不可或缺的存在,數(shù)字手寫識別的發(fā)展為漢字等的手寫識別做好鋪墊,為深度學(xué)習(xí)的發(fā)展打好基礎(chǔ)。第二章選題相關(guān)算法2.1手寫識別算法發(fā)展手寫的數(shù)字識別算法的分類基礎(chǔ)[8]是基于結(jié)構(gòu)和統(tǒng)計特性的算法。上個世紀(jì)開發(fā)的識別工具網(wǎng)絡(luò),支持不同模型的人工神經(jīng)網(wǎng)絡(luò),在當(dāng)今仍處于主流地位,也是業(yè)界探討的核心。手寫數(shù)字的功能特性,和應(yīng)用自身所具備的獨有吸引力,已經(jīng)引起了領(lǐng)域中專家相互地探討和討論,并在實際應(yīng)用價值上備受關(guān)注。手寫數(shù)字識別技術(shù)的準(zhǔn)確率在產(chǎn)品中仍然沒有絕對的保證,所以在甄選神經(jīng)網(wǎng)絡(luò)的適配性上非常嚴(yán)格,模型的選擇對識別網(wǎng)絡(luò)極其重要。手寫數(shù)字識別正處于不斷提升的發(fā)展階段。隨著科技的發(fā)展和技術(shù)的變革,將深度學(xué)習(xí)結(jié)合手寫識別,在實際當(dāng)中應(yīng)用,也是具有挑戰(zhàn)性的一項任務(wù),需要經(jīng)過不斷的鉆研創(chuàng)新來摸索前進(jìn)。而脫機(jī)識別對準(zhǔn)確率的需求日益提高,更是完成任務(wù)的首要前提通過研究我們可以從不同方面考量[9],既有關(guān)于手寫識別這樣的技術(shù)手段應(yīng)用,也有深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的選擇,以及多項技術(shù)的融合,任何技術(shù)都不單一存在,都需并行結(jié)合,才能更好的發(fā)揮效能。手寫數(shù)字技術(shù)的發(fā)源地并不在我國,我國在該項技術(shù)研究上的時間也不超過三十年,但在三十年的時間里,多個國家已經(jīng)放棄了對該領(lǐng)域的開發(fā)和爭奪,這讓我國在該項技術(shù)的深究中取得了非常大的機(jī)會。這項技術(shù)是一個非常有研究價值的領(lǐng)域,其成果可市場化。所以,該領(lǐng)域仍然存在著大量的潛力,但機(jī)會和威脅并存,該項技術(shù)也有其受約束的條件。首先,每個數(shù)字字形攜帶的信息量為數(shù)不多,不同數(shù)字的字形在區(qū)別上不大,而且,不同的書寫習(xí)慣和不同的書寫方法都是造成該項技術(shù)可能會出現(xiàn)誤差的重要問題。人們通常習(xí)慣從性能上對數(shù)字識別進(jìn)行分類[10],分為二次判別函數(shù)和支持向量機(jī)的SVM。這兩種方法在實現(xiàn)過程中差別很大,所以識別效果也各有差異。從各方面來看,大家更推薦的是改良后的二次判別函數(shù),大家認(rèn)為這也是最好的識別方法。使用方法是先對數(shù)據(jù)集進(jìn)行預(yù)處理,再根據(jù)傳輸數(shù)據(jù)類型的異同點,進(jìn)行些特征提取,通過自參考所需求范圍內(nèi)的數(shù)據(jù),再對關(guān)鍵數(shù)據(jù)進(jìn)行指標(biāo)分析,然后對數(shù)據(jù)進(jìn)行不同層次的劃分。識別方法的各個實現(xiàn)流程大致一致。在IAPR會議上,許多業(yè)界精英對字符識別提出了自己的設(shè)想和看法。基于不同的識別對象,我們試圖通過微調(diào)修改和改進(jìn)促進(jìn)手寫體識別[11],可以說2012年是具有歷史意義的一年。2.2深度學(xué)習(xí)算法分類每一個深度學(xué)習(xí)算法模型都有自己的應(yīng)用領(lǐng)域,并在其應(yīng)用領(lǐng)域有自己獨特的優(yōu)勢。比如:循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurentNeuralNetwork,RNN)適用于時間序列上的變化建模;在圖像識別分類方面卷積神經(jīng)網(wǎng)絡(luò)更具有一定的優(yōu)點。2.2.1據(jù)學(xué)習(xí)方法分類按學(xué)習(xí)方法[12]可以分為有監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí)。有監(jiān)督學(xué)習(xí)的典型算法是多層感知機(jī)和卷積神經(jīng)網(wǎng)絡(luò)。無監(jiān)督學(xué)習(xí)有高度置信網(wǎng)(DBNs),自動編碼器(AutoEncoders,DAE)、自動去噪編碼器(DAEs)和稀疏編碼(SparseCoding,SC)。如圖2-1所示圖2-1據(jù)學(xué)習(xí)方法分類2.2.2據(jù)編解碼方法分類深度神經(jīng)網(wǎng)絡(luò)由多個網(wǎng)絡(luò)不斷的融合所組成,即許多個單層網(wǎng)絡(luò),在考慮但層網(wǎng)絡(luò)如何能達(dá)到編碼要求時,要考慮以下幾種常見的情況,有包含部分編碼器的網(wǎng)絡(luò),還有只包含部分解碼器的網(wǎng)絡(luò),和不止有部分編碼器還有有部分解碼器的網(wǎng)絡(luò)。常見的深度網(wǎng)絡(luò)不外乎就是單向傳播的深度網(wǎng)絡(luò),包含多個編碼器融合;不僅僅是前饋深度網(wǎng)絡(luò)還有反饋深度網(wǎng)絡(luò),其和前者大體相似,都是由若干編碼器融合組合而成,但涵蓋內(nèi)容略有不同;還有就是雙向深度網(wǎng)絡(luò),和前兩個深度網(wǎng)絡(luò)的構(gòu)成均一致,只是在內(nèi)部包含的某些編碼和解碼的相關(guān)方法不太一樣。按照是否含有編碼器的分類如下圖2-2所示。圖2-2據(jù)是否含編碼器2.2.3據(jù)技術(shù)結(jié)構(gòu)應(yīng)用分類在深度學(xué)習(xí)的具體應(yīng)用中,通常以應(yīng)用的結(jié)構(gòu)分為以下三種:區(qū)分型深層結(jié)構(gòu)(辨別深層結(jié)構(gòu))包含卷積神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)DNN;生成型深度網(wǎng)絡(luò)結(jié)構(gòu)可分為深層有向網(wǎng)絡(luò),深度無向網(wǎng)絡(luò)和深度混合網(wǎng)絡(luò)根據(jù)網(wǎng)絡(luò)結(jié)構(gòu)中是否存在方向性。DBN模型是一種以后驗分布概率為主要目標(biāo)的深度混合網(wǎng)絡(luò)。它主要描述數(shù)據(jù)之間的相關(guān)性并以并以數(shù)據(jù)類別的形式處理概率分布。其主要目的是在對相關(guān)數(shù)據(jù)進(jìn)行有效分類的同時提高數(shù)據(jù)的差異化程度;混合結(jié)構(gòu)是對每個系統(tǒng)進(jìn)行有效劃分的混合深層結(jié)構(gòu),以便更好地區(qū)分每個系統(tǒng),優(yōu)化與生成結(jié)構(gòu)的結(jié)合如圖2-3所示。圖2-3據(jù)技術(shù)結(jié)構(gòu)應(yīng)用方式分類2.3識別結(jié)果分類與對比我們生活中常用的二分類的分類方法的結(jié)果只有兩種可能的標(biāo)記為0或1。但是手寫數(shù)字識別的分類結(jié)果是一個多分類問題,需判斷是具體的哪一個數(shù)字。Logistics回歸屬于線性兩類回歸模型,Logistics結(jié)果是在連續(xù)值上加一次函數(shù)投映,具有線性疊加的特點,然后通過映射投映,將所得值映射為0-1區(qū)間的值。logistics回歸有一種一般形式,我們稱為Softmax-logistic回歸模型,Softmax作用是將原來要輸出的0-9數(shù)字歸一到(0,1)之間的值,且歸一之后的值的總和為1,其符合概率和為1的性質(zhì)。在選擇如何輸出時,我們可以選取其中概率最大的輸出將其作為輸出節(jié)點,并作為預(yù)測對象。Softmax回歸模型在識別阿拉伯?dāng)?shù)字方面是非常有用的。2.4章節(jié)總結(jié)通過章節(jié)介紹了手寫數(shù)字識別算法的發(fā)展史,并對深度學(xué)習(xí)算法進(jìn)行了歸類和識別結(jié)果分類做了詳細(xì)的介紹。第三章基于CNN手寫識別的實現(xiàn)本次設(shè)計的手寫識別系統(tǒng)是在Java中通過手寫來判別手寫數(shù)字輸出結(jié)果的工作。系統(tǒng)主要分為:手寫數(shù)字的數(shù)據(jù)集采集、圖像的前期處理、識別模型的調(diào)整、對已完善的模型進(jìn)行識別。3.1手寫識別分析基于DL4J的手寫系統(tǒng)設(shè)計如圖3-1所示。Mnist數(shù)據(jù)集手寫圖片Mnist數(shù)據(jù)集手寫圖片卷積神經(jīng)網(wǎng)絡(luò)模型GUI顯示訓(xùn)練圖3-1手寫識別設(shè)計系統(tǒng)的關(guān)鍵是規(guī)劃一個可以識別輸入的數(shù)字并輸出其正確率的卷積神經(jīng)網(wǎng)絡(luò)模型,因為LeNet-5模型是一個專門為手寫數(shù)字識別而設(shè)計的最經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型,所以本次使用Lenet-5模型來進(jìn)行實現(xiàn)并完善。用MNIST數(shù)據(jù)集對網(wǎng)絡(luò)模型進(jìn)行監(jiān)督訓(xùn)練使其達(dá)到可實用準(zhǔn)確度。與此同時還要對圖片進(jìn)行預(yù)處理操作,需經(jīng)過大量測試數(shù)據(jù)集的驗證,識別效果較理想即可。3.2卷積神經(jīng)網(wǎng)絡(luò)模型簡介卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNN)是一種單方向向前的神經(jīng)網(wǎng)絡(luò)(FeedforwardNeuralNetworks),此網(wǎng)絡(luò)可以對運算進(jìn)行卷積操作并有著深度的結(jié)構(gòu)。由于受到生物感受野發(fā)展(ReceptiveField)的現(xiàn)象引導(dǎo)人們提出了卷積神經(jīng)網(wǎng)絡(luò)的概念。匯聚、權(quán)值共享和局部連接是卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)上的特點。正是因為有了這些特性,卷積神經(jīng)網(wǎng)絡(luò)具有通過空間內(nèi)的操作如平移、縮放都會原始圖像的不變性[13]。卷積神經(jīng)網(wǎng)絡(luò)中出現(xiàn)最早的是LeNet-5網(wǎng)絡(luò)模型,這也是最簡單的一個深度網(wǎng)絡(luò)模型。根據(jù)一個基本的卷積填充方法Same卷積,卷積網(wǎng)絡(luò)的根本原理是輸入和輸出的相對應(yīng),并通過相互對應(yīng)學(xué)習(xí)兩者的對應(yīng)關(guān)系。而這個操作也恰好避免了數(shù)學(xué)算法,通過這種方法,使網(wǎng)絡(luò)得到了兩者之間的對應(yīng)能力。因為卷積網(wǎng)絡(luò)屬于被訓(xùn)練對象,所以其所有數(shù)據(jù)都以向量對的方式呈現(xiàn)。向量對是來自特定網(wǎng)絡(luò)模型下系統(tǒng)的執(zhí)行結(jié)果,且部分在執(zhí)行系統(tǒng)里面提取的。在開始訓(xùn)練時,把權(quán)進(jìn)行優(yōu)化。通過優(yōu)化確定網(wǎng)絡(luò)持續(xù)穩(wěn)定性,減輕連接時的負(fù)擔(dān),也避免因為訓(xùn)練不當(dāng)對成功率的影響[14]。LeNet-5模型結(jié)構(gòu)如圖3-2所示。圖3-2LeNet-5圖示典型的LeNet-5共有7層,輸入(INPUT)層,C1-卷積層(Convolutions),S2-池化(下采樣)層,C3層-卷積層,S4層-池化層(下采樣層),C5層-卷積層,F(xiàn)6層-全連接層,Output層-全連接層。其包括了卷積神經(jīng)網(wǎng)絡(luò)的所有單元。輸入層,實驗輸入32*32像素的灰度圖片,平均輸入大致為0,而方差大約為1,從而加速了學(xué)習(xí),要求手寫體數(shù)字應(yīng)該在中心,即20*20以內(nèi)。卷積層,其作用是提取一塊范圍內(nèi)的特征,通過每一個濾波器來提取出相對應(yīng)的特征。假定一個圖片為5*5矩陣,如圖3-3所示,涂色部分為濾波器即一個滑動的窗口,主要用于特征的提取,暫定步幅為1,卷積核依次在矩陣上從左到右滑動一格,繼續(xù)從上到下滑動一格,避免邊緣效應(yīng)。每一次移動都進(jìn)行一次求值,即兩個區(qū)間內(nèi)對應(yīng)的地方做乘積運算最后將所有相乘值求和,得到圖3-4的一個值。圖3-3矩陣圖圖3-4特征平面圖經(jīng)過卷積處理后的圖片特征更為明顯,且噪聲降低。設(shè)定手寫圖片的灰度值如圖3-5所示,每格放一個代表0-255中的一個數(shù)字,對陰影部分選取其中的平均值作為抽樣,如圖3-6所示。圖3-5數(shù)字圖片灰度值圖3-6平均池化后灰度值池化(Pooling)在卷積中是一個非常重要的概念,在池化中,非線性池化函數(shù)有多種形式,而“平均池化”是最常見的。它是將輸入的圖像劃分為許多個塊區(qū)域,對每個子區(qū)域輸出求平均值,并進(jìn)行數(shù)據(jù)的壓縮。直觀地說,這種機(jī)制之所以有效,對其來說,它和其他特征的整體位置較它的當(dāng)前位置更為重要。數(shù)據(jù)像素的大小是不斷地減小下采樣層對它的作用,此作用導(dǎo)致參數(shù)的數(shù)量和計算成本也會跟隨著下降,所以在一定程度上避免了過擬合情況的出現(xiàn)。通常情況下CNN的卷積層之間會有一定頻率地插入池化層(池化層又叫下采樣層),其目的是為了壓縮數(shù)據(jù)并降低數(shù)據(jù)維度。同時池化也具有一定的優(yōu)勢,保證圖片的特征并不會變形,保留了圖片的特征并降低維度,在一定程度上防止過擬合、更方便優(yōu)化。3.3開發(fā)工具安裝深度學(xué)習(xí)開源框架有很多,但是支持Java語言的很少。所以這次采用DL4J框架去完成本次設(shè)計。3.3.1開發(fā)工具Java語言作為一名在業(yè)界語言排行榜占據(jù)前排位置的語言,其簡單易懂、面向?qū)ο蟆⒖芍С植煌脚_等等優(yōu)點占有了大部分的市場。此次設(shè)計所需環(huán)境為win7系統(tǒng),Java環(huán)境采用的是JDK1.8。JDK1.8版本的運行速度更加快速,代碼更少。它具有強(qiáng)大的流API核心功能,使得代碼調(diào)用更加簡潔。與其他系統(tǒng)相比,win7系統(tǒng)具有很強(qiáng)的穩(wěn)定性。win7系統(tǒng)的優(yōu)勢在于繼承了XP的穩(wěn)定性,對硬件有很強(qiáng)的兼容性。微軟曾經(jīng)發(fā)布過一個vista系統(tǒng),但由于其穩(wěn)定性和兼容性差,安裝不久,vista系統(tǒng)就被XP系統(tǒng)取代,占用率較低。隨著win7系統(tǒng)的發(fā)布,人們逐漸從XP轉(zhuǎn)向win7系統(tǒng)。3.3.2DL4J庫與Python開源的深度學(xué)習(xí)庫不同,java語言深度學(xué)習(xí)庫(deeplearning4j)專門用于Java和JVM,支持多種深度學(xué)習(xí)模型。DL4J的特點之一是支持分布式的,它可以運行在spark和Hadoop上,為生產(chǎn)環(huán)境帶來了極大的便利,DL4J支持在CPU或GPU運行??梢愿鶕?jù)自己的需要及環(huán)境選擇相應(yīng)的運行方式。DL4J是為商業(yè)環(huán)境所設(shè)計的,因此更適合項目落地。每一個機(jī)器學(xué)習(xí)工作流程至少由兩部分組成。第一部分是加載數(shù)據(jù)并準(zhǔn)備用數(shù)據(jù)進(jìn)行學(xué)習(xí),即ETL(提取、轉(zhuǎn)換、加載)過程。第二部分就是系統(tǒng)本身的實現(xiàn)。系統(tǒng)環(huán)境搭建:在搭建過程中,電腦不同系統(tǒng)版本對DL4J響應(yīng)速度有很大影響。此次采用CPU版本的DL4J,如果電腦有NVIDIAGPU則可使用GPU版的DL4J,速度與CPU版本相比要迅捷很多。先預(yù)裝jdk1.7及以上版本,我這里使用的是jdk64位1.8版本。可在對應(yīng)官網(wǎng)上進(jìn)行下載并配置系統(tǒng)環(huán)境變量。Maven是用于Java項目的依賴項管理和自動構(gòu)建工具。在配置maven的時候注意setting.xml文件中鏡像源的優(yōu)化以及本地倉庫的配置。在配置神經(jīng)網(wǎng)絡(luò)時,我們可以使用集成開發(fā)環(huán)境(IDE)允許客戶使用他們的API,為了避免不必要的麻煩,我們使用IntelliJ來處理依賴關(guān)系。通過Git來下載dl4j-examples的示例包,里面包含了開源的一些代碼,克隆到本地完成后,執(zhí)行以下操作。如圖3-7所示。通過mvncleaninstall安裝所依賴的相關(guān)包。下載之后自己新建一個maven項目,然后在自己的項目中使用DL4J并配置pom.xml文件。圖3-7Git下載3.4手寫識別算法實現(xiàn)到目前為止,有很多框架支持深度學(xué)習(xí),雖然Caffe作為第一個深度學(xué)習(xí)框架,在圖像處理方面比較熟練,但是其可擴(kuò)展性不是很好。雖然torch較強(qiáng)大,但其設(shè)計并不適合兩大群體的廣泛普及,即以Python為主流的學(xué)者們和大面積使用Java的企業(yè)軟件開發(fā)人員及其他人員。DL4J是一個將大量復(fù)雜的手寫數(shù)據(jù)引入人工智能神經(jīng)網(wǎng)絡(luò),并利用其進(jìn)行研究和分析處理的系統(tǒng)。本文采用易于理解和分析的DL4J框架。DeepLearning4J在API語言、目的和集成方面獨占鰲頭跟其他框架相比。DL4J是一個基于JVM的分布式深度學(xué)習(xí)框架,以工業(yè)應(yīng)用為中心,提供業(yè)務(wù)支持,能夠在合理的時間內(nèi)解決涉及海量數(shù)據(jù)的不同問題。DL4J集成了Kafka、Hadoop、spark,可以運行個數(shù)不限的gpu或cpu,如有問題可以聯(lián)系服務(wù)熱線。DL4J是一個跨平臺的便攜式學(xué)習(xí)庫,沒有針對任何特定的云服務(wù)(如AWS、azure或Google云)進(jìn)行特別優(yōu)化。在速度方面,DL4J的性能優(yōu)于tensorflow和torch。在多個GPU下運行非平凡圖像處理任務(wù)的性能與Caffe相當(dāng),Deeplearning4j有java、Scala和pythonAPI。3.5實現(xiàn)方法此次設(shè)計采用的編程語言是Java,為了實現(xiàn)手寫識別算法,我選取了DL4J的CNN網(wǎng)絡(luò)。算法主要分為以下兩個模塊。如圖3-8和圖3-9所示。反傳更新網(wǎng)絡(luò)參數(shù)反傳更新網(wǎng)絡(luò)參數(shù)計算總損失預(yù)設(shè)隨機(jī)小參數(shù)MNIST訓(xùn)練集CNN網(wǎng)絡(luò)圖3-8確定參數(shù)流程圖輸出Softmax分類輸出Softmax分類手寫數(shù)字CNN網(wǎng)絡(luò)圖像預(yù)處理手寫圖片的處理圖3-9識別算法的流程對于手寫圖片來說,其處理主要為CNN調(diào)整適合的網(wǎng)絡(luò)維數(shù)。CNN網(wǎng)絡(luò)使28*28的圖片輸出為一維矩陣。最后使用softmax進(jìn)行預(yù)測值。通過需求來設(shè)計卷積神經(jīng)網(wǎng)絡(luò)的模型,并進(jìn)行參數(shù)的配置,包括隱藏層的節(jié)點數(shù)、學(xué)習(xí)率、衰減率和為了防止過擬合的正則化系數(shù)。經(jīng)過對存儲的MNIST數(shù)據(jù)集生成的隱藏層參數(shù)和output層參數(shù)使用的激活函數(shù)來進(jìn)行向前傳播和代價函數(shù)還有正則化損失函數(shù)計算,它通過反向傳播的渠道算法來更新神經(jīng)網(wǎng)絡(luò)的取值范圍,一次次地進(jìn)行更新并且進(jìn)行監(jiān)督訓(xùn)練,以此實現(xiàn)權(quán)值更新。直到使測試集一定程度上識別正確即可。確定實現(xiàn)訓(xùn)練的網(wǎng)絡(luò)模型。將手寫入手寫區(qū)的數(shù)字識別進(jìn)行預(yù)測。3.6總結(jié)本章節(jié)主要介紹了所設(shè)計的手寫識別系統(tǒng),并對所用到的深度模型及環(huán)境搭建進(jìn)行了詳細(xì)說明。第四章訓(xùn)練識別和結(jié)果對比分析本設(shè)計訓(xùn)練和識別的設(shè)計思路如圖4-1所示。0,1...9訓(xùn)練樣本圖片0,1...9訓(xùn)練樣本圖片圖像預(yù)處理特征提取CNN網(wǎng)絡(luò)待識別數(shù)字訓(xùn)練識識別圖4-1訓(xùn)練和識別流程圖4.1訓(xùn)練識別過程在目前這個社會中,所需的通過手寫出來的數(shù)字最全的為MNIST數(shù)據(jù)字符集,該數(shù)據(jù)集來自NationalInstituteofStandardsandTechnology,它的訓(xùn)練樣本數(shù)量達(dá)到60000個,測試樣本總數(shù)為10000個。數(shù)據(jù)中的數(shù)字尺寸大小都是28*28的灰度圖片。導(dǎo)入MNIST數(shù)據(jù)集首先需要對數(shù)據(jù)集進(jìn)行處理,最好能直接識別的程度則處理成功。數(shù)據(jù)的存儲格式是非常簡單的。將讀取的數(shù)據(jù)轉(zhuǎn)化成數(shù)字保存到列表中,然后使用matplotlib輸出一下效果。識別率為判別網(wǎng)絡(luò)是好或壞的唯一指標(biāo)。當(dāng)正確讀取數(shù)據(jù)后,需要定義具體的網(wǎng)絡(luò)神經(jīng)架構(gòu),在該處用Lenet-5網(wǎng)絡(luò)模型,此網(wǎng)絡(luò)是一個5層的網(wǎng)絡(luò)結(jié)構(gòu)(不包括輸入層)。第0層:inputlayer:輸入28*28的圖片作為原始訓(xùn)練圖像第1層:Convolution1:6個5*5的卷積核,步長Stride為1第2層:Pooling1:卷積核size為2*2,步長Stride為2第3層:Convolution2:12個5*5的卷積核,步長Stride為1第4層:Pooling2:卷積核size為2*2,步長Stride為2第5層:Outputlayer:輸出結(jié)果訓(xùn)練數(shù)據(jù)的結(jié)果如下圖4-2所示。圖4-2預(yù)設(shè)值為0.1時的準(zhǔn)確率圖4-3預(yù)設(shè)值為0.01時的準(zhǔn)確率圖4-4預(yù)設(shè)值為0.0005時的準(zhǔn)確率為了得到理想的召回率,根據(jù)不同的小參數(shù)進(jìn)行不斷預(yù)設(shè)并比較,發(fā)現(xiàn)當(dāng)預(yù)設(shè)值為0.005時,模型最優(yōu)。要根據(jù)自己的內(nèi)存大小設(shè)置好訓(xùn)練次數(shù),不然會報錯,我設(shè)置的訓(xùn)練次數(shù)為5000,如圖4-4所示。代碼如4-5所示。圖4-4訓(xùn)練次數(shù)過多報錯圖4-5訓(xùn)練實現(xiàn)圖4.2數(shù)據(jù)識別實現(xiàn)結(jié)果圖導(dǎo)入MNIST數(shù)據(jù)集,在網(wǎng)址下載MNIST數(shù)據(jù)集,通過二進(jìn)制拆分導(dǎo)入到網(wǎng)絡(luò)神經(jīng)架構(gòu),對手寫區(qū)域的數(shù)據(jù)進(jìn)行捕獲,對灰度圖片進(jìn)行處理,并將其二值化然后將灰度圖轉(zhuǎn)為黑白圖,通過網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,實現(xiàn)了基于CNN手寫識別,并取得了不錯的成果。對于單個數(shù)字識別測試時,其他數(shù)字的識別結(jié)果均比較理想,但是數(shù)字9多次誤識為8。經(jīng)過查閱各種數(shù)據(jù)和資料,發(fā)現(xiàn)訓(xùn)練過程中的過擬合有關(guān)。因此,為了使識別結(jié)果更準(zhǔn)確,一些節(jié)點被丟棄。對于0-10的數(shù)字識別結(jié)果概率如下表4-5所示。數(shù)字正確率誤識率拒識率可靠性094.36%4.55%1.12%95.48%195.01%4.2%0.07%95.8%293.22%5.92%0.88%94.1%392.28%6.62%1.1%93.38%494.46%4.81%0.76%95.22%595.08%4.4%0.52%95.6%693.37%5.61%1.05%94.42%794.48%4.91%0.74%95.22%895.66%4.11%0.36%96.02%992.29%5.97%1.78%94.07%總計94.02%5.14%0.84%94.84%表4-5數(shù)字識別實現(xiàn)結(jié)果4.3結(jié)果分析通過吳琳琳[15]在其他線性分類器上以SVM(SupportVectorMachine)的手寫數(shù)字識別體的研究中,以UCIRepository訓(xùn)練樣本集,并嘗試在線性回歸中采用One-Against-All和One-Against-One多分類器和有向無環(huán)圖方法提高分類精度。其分類值的精確度如表4-6所示。測試集One-Against-OneOne-Against-AllDAG測試集準(zhǔn)確率測試集準(zhǔn)確率測試集準(zhǔn)確率dna95.447%95.74%95.447%satimage91.3%91.7%91.250%letter97.780%97.880%97.980%圖4-6基于SVM分類值的結(jié)果從上面的幾個圖對比得出,在CNN模型上測試集的準(zhǔn)確率有了明顯的提高。KNN的準(zhǔn)確率只有95%,NN網(wǎng)絡(luò)準(zhǔn)確率僅有91.6%。通過這些數(shù)據(jù)的比較,本設(shè)計的識別準(zhǔn)確性更為理想,更滿足實際應(yīng)用需要。通過CNN中的pooling,更好的解決了圖像在處理與識別方面的問題。與此同時,以CNN為基礎(chǔ)的手寫數(shù)字分類識別具有局部的特征,下采樣使得深度學(xué)習(xí)模型參數(shù)大幅度減小等優(yōu)點因為CNN模型的存在,以至于系統(tǒng)存在很多參數(shù),比如隱層節(jié)點數(shù),卷積核大小等等。這些超參數(shù)的組合形式是多種多樣的。對于最優(yōu)組合方法到現(xiàn)在都沒有系統(tǒng)理論支撐。本設(shè)計是憑經(jīng)驗嘗試組合,通過多次實驗驗證的。因為時間有限,以至于系統(tǒng)沒有達(dá)到效率最高和最優(yōu),系統(tǒng)有待進(jìn)一步的優(yōu)化和改進(jìn)。本次設(shè)計采用的物理環(huán)境為:CPU:intercorei5,內(nèi)存:4G。在訓(xùn)練過程中,訓(xùn)練的次數(shù)如果太大則不能進(jìn)行正常計算,耗費的時間也較長。若有條件則建議深度結(jié)構(gòu)模型通過GPU來進(jìn)行運行,這樣訓(xùn)練速度將成倍地上升。4.4學(xué)習(xí)速率與算法收斂趨勢收斂速度之間的關(guān)系我們在學(xué)習(xí)速率中得知在損失函數(shù)梯度的幫助下怎樣去調(diào)整網(wǎng)絡(luò)的權(quán)重。在優(yōu)化學(xué)習(xí)率時我們使用梯度下降算法,則在權(quán)值更新規(guī)則中,在梯度項之前乘以一個系數(shù)即為超參數(shù)。損失函數(shù)的變化速度隨著學(xué)習(xí)率變化成正比即學(xué)習(xí)率越低其越慢。而學(xué)習(xí)率越低則收斂時間更為漫長。當(dāng)學(xué)習(xí)速率過大時,就會因為在梯度下降法在運算時可能會跳過最低點而錯失最佳值,使得神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率出現(xiàn)誤差,甚至可能發(fā)散。數(shù)據(jù)樣本決定學(xué)習(xí)率的取值,我們可以準(zhǔn)備許多具有比較性的值,根據(jù)值得大到小的順序分別運行算法,觀察得到的效果。如果loss函數(shù)在變小,則說明取值有效,否則要增大步長。4.5章節(jié)總結(jié)根據(jù)實際需求改進(jìn)并訓(xùn)練模型,將訓(xùn)練后的結(jié)果與其他的進(jìn)行對比分析??聪到y(tǒng)是否達(dá)到基本可實用要求。第五章總結(jié)最簡單的一種深度學(xué)習(xí)結(jié)構(gòu)是多隱層的多層感知機(jī)。深度學(xué)習(xí)的源頭又是人工神經(jīng)網(wǎng)絡(luò)。本此實驗通過對深度學(xué)習(xí)算法的研究,并將其應(yīng)用在實際問題中,具有實用性,也為其他的手寫識別打好基礎(chǔ),做好鋪墊。本設(shè)計總結(jié)如下:先對選題意義及手寫數(shù)字識別現(xiàn)狀進(jìn)行了概述。并闡明了如今的手寫識別技術(shù)的整體發(fā)展和方案。對深度學(xué)習(xí)算法進(jìn)行分析與歸類。并給出了具體的圖例說明。確定設(shè)計所用的手寫數(shù)字識別的深度學(xué)習(xí)網(wǎng)絡(luò)模型,并對實際應(yīng)用系統(tǒng)進(jìn)行設(shè)計,配置模型所需的參數(shù),進(jìn)行系統(tǒng)開發(fā)工具、開發(fā)環(huán)境的選擇以及算法如何實現(xiàn)。在訓(xùn)練過程中不斷對參數(shù)調(diào)參并驗證試驗結(jié)果的準(zhǔn)確性。但是,由于自身實力不足,系統(tǒng)仍需進(jìn)一步改進(jìn)。且在本次實驗中占用資源較多,需進(jìn)一步調(diào)優(yōu)。參考文獻(xiàn)程柳柳,中島一木,廣崎,藤澤浩.手寫數(shù)字識別:最新技術(shù)的基準(zhǔn).模式識別[J],2003,36:2271-2285.盧寧濤,起亞.基于視覺的聯(lián)機(jī)手寫數(shù)字識別特征與分類方法.模式識別[J],2002,35:2355-2364.JinhaiCai.IntegrationofStructuralandStatisticalInformationforUnconstrainedHandwrittenNumeralRecognitionIEEETransactionsonPatternAnalysisandMachineIntelligence[J],199(3),21(3).HuangQiaoqiao.ResearchonhandwrittendigitrecognitionsystembasedonBPneuralnetwork[D].CentralChinaNormalUniversity,2009.WangQiang.ResearchoncharacterrecognitionmethodbasedonCNN[D].TianjinNormalUniversity,2014.CaoDan.OfflinehandwrittendigitrecognitionbasedonHopfieldneuralnetwork[D].CentralSouthUniversity,2009.陳宙斯,胡文心.簡化LSTM的語音合成[J].計算機(jī)工程與應(yīng)用,2018.54(03):131-135.付吉.聯(lián)機(jī)手寫梵音藏文樣本的構(gòu)建[D].西北民族大學(xué),2016.張宇翔.面向iOS的聯(lián)機(jī)手寫識別方法及其實現(xiàn)[D].華南理工大學(xué),2016.伍文源.基于BP神經(jīng)網(wǎng)絡(luò)的湘西方塊苗文圖像識別研究[D].華南理工大學(xué),2016.呂書龍,劉文麗,江巧洪,朱玉燦.網(wǎng)絡(luò)閱卷系統(tǒng)中一體化試卷模板的探討[J].福建電腦,2016,32(05):10-11黃獻(xiàn)通.
基于深度學(xué)習(xí)的手寫數(shù)字識別研究及應(yīng)用[D].曲阜師范大學(xué),2018.汪雅琴,夏春蕾,戴曙光.基于LeNet-5模型的手寫數(shù)字識別優(yōu)化方法[J].計算機(jī)與數(shù)字工程,2019,47(12):3177-3181.邱錫鵬.神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)[M].上海:復(fù)旦大學(xué),2019:42-50.吳琳琳.基于SVM技術(shù)的手寫識別研究[D].山東師范大學(xué),2016.致謝時間轉(zhuǎn)瞬即逝,在母校學(xué)習(xí)成長的日子即將結(jié)束,回顧我在校期間的時日,有老師的諄諄教誨,也有同學(xué)朋友的幫助和支持一直伴隨著我左右,我們在一點點的成長,也在向成熟走去。我要發(fā)自內(nèi)心地感謝我的教師。從一開始得到老師耐心的講解和支持與鼓勵,從文章的定題,再到資料的收集分析整理,到論文的撰寫修改,老師都傾注了大量的心血在里面,才使得我順利完成我的畢業(yè)文本寫作作業(yè)。真摯的感謝我的老師,在我的學(xué)習(xí)生涯中,給予了我生活和工作上的幫助與支持。老師無私教授,在生活上無微不至的關(guān)心和平日里寬以待人的人文關(guān)懷,令我在學(xué)習(xí),生活上倍感溫馨。在畢業(yè)之際,我也非常感謝其他老師的對我的指導(dǎo)與包容,在他們的引領(lǐng)下,我樹立了全新的思想,制定了新的學(xué)習(xí)目標(biāo),掌握了社會上的多種思維方式和與人交往的原則,創(chuàng)造了許多必要的條件和學(xué)習(xí)契機(jī)。還有日日夜夜一起學(xué)習(xí)的同學(xué),朋友們,同我跨過兩年的美妙的年華,在此我也對你們表示深深的感謝之情!最后,衷心并真摯的的感謝審查本篇文章的老師,感謝您在百忙之中擠出時間。由于本人的學(xué)問和寫作能力有限,在本文撰寫及修改中未免有一些漏洞,懇請老師和同學(xué)指教。
HYPERLINK電腦文件整理懶招從來都是不會經(jīng)常整理文件的,不過時間一長,眾多的文檔分布在硬盤的各個角落,用目錄進(jìn)行整理保存,工作量大、查看起來也不方便且還會浪費不少的磁盤空聞;用壓縮工具打包,盡管可以節(jié)約空間但是卻無法直接編輯修改或查看壓縮包中的文件。這些招,懶人怎么會用,他們自有妙招!再多再亂的文件也能整理得井井有條,關(guān)鍵是不費力哦!
懶招1,自動提取亂中取勝
小張起初將照片、Office文檔、電影、音樂等文件一股腦地存放在某一個磁盤分區(qū),剛開始文件少使用起來倒也方便,但隨著時間的推移,文件數(shù)量劇增,每次找所需的文件都要瞪大眼睛,不過有了MY文檔管理器(下載地址:)就不用擔(dān)心了。
第一步,下載MY文檔管理器,解壓到任意目錄,直接雙擊其中的可執(zhí)行性文件即可使用。依次單擊“節(jié)點操作→添加節(jié)點”,分別添加多個節(jié)點,如“辦公文檔”、“電影”等分類,這樣做的目的是方便歸類。
第二步,在小張的F盤中的TEST目錄下有眾多的RM、MP3、JPG、DOC、TXT格式的文件,現(xiàn)在他要把JPG格式的文件提取到“照片”類別中。依次單擊“系統(tǒng)配置→文件過濾”選項,打開Dialog對話框,輸入“*.doc”,單擊“添加”按鈕,意思是過濾掉所有類型為“.DOC”的文件。然后按照同樣的方法,將“*.txt”、“*.rm”、“*.MP3”一一添加進(jìn)來。
第三步,雙擊左側(cè)窗格中的“照片”節(jié)點,然后依次單擊“記錄操作→導(dǎo)入記錄樹”命令,在打開的對話框中單擊瀏覽按鈕,打開“F:\test”目錄,單擊“確定”按鈕之后就可以將格式為JPG的文件提取出來并添加到“照片”節(jié)點中了。
懶招2,不同的電腦統(tǒng)一的管理
小張是電愛的Fans,工作之余常常為雜志寫稿,他寫完的和正在處理的稿件一般都存在一個稿件文件夾里。不過時間一長,家里的電腦(PC1)和單位的電腦(PC2)上都有這個文件夾。時常需要通過移動硬盤(U盤)在兩臺電腦之間傳遞,使用和管理都很不方便。不過他現(xiàn)在用優(yōu)盤就可以統(tǒng)一管理了。
第一步,將上文提到的那個MY文檔管理器解壓后直接拷貝到優(yōu)盤上。把優(yōu)盤插到PC1上,并運行軟件,依次單擊“記錄操作→導(dǎo)入記錄樹”命令,在隨后彈出的對話框中設(shè)置好“稿件”文件夾的根目錄,將“導(dǎo)入深度”設(shè)置為“5”,單擊“確定”后,稍等片刻,軟件就把PC1上的“稿件”導(dǎo)入到MY文檔管理器中。
小提示:通過這種方式導(dǎo)入到程序中的僅僅是文件的路徑、文件名等屬性信息,并不是文件本身。
第二步,把優(yōu)盤插到PC2上,按照同樣的方法導(dǎo)入PC2上的“稿件”文件。以后要編輯“稿件”里的文件,你自己根本不用記住哪臺電腦的哪個路徑,只要把優(yōu)盤插入到電腦,運行MY文檔管理器,就可以直接編輯了。
第三步,為方便在異地使用,小張決定為當(dāng)前正在處理的稿件增加一個副本。在需要異地處理的稿件上右鍵單擊,選擇“復(fù)制文件到(自動添加副本)”命令,在彈出的對話框中將保存目錄設(shè)置為優(yōu)盤上的某個目錄即可。這樣,就可以在優(yōu)盤上編輯PC1或PC2的稿件了。
小提示:對于PC1、PC2上的同名文件,MY文檔管理器以不同的磁盤號+文件路徑來標(biāo)識文件記錄,因此,對于不同電腦上的同名文件,甚至是路徑和文件名完全相同的文件,程序也可以準(zhǔn)確識別哪個是哪個。
懶招3多種文件批量移動
要將文件管理得井然有序,就免不了要進(jìn)行復(fù)制、刪除、移動等等操作,如果一個個進(jìn)行操作,工作量是非常巨大的。這時我們就需要借助于BelvedereAutomated(下載地址:.com/assets/resources/2008/03/Belvedere%200.3.exe)進(jìn)行批量操作了。例如我們想把“F:\test”目錄中的所有照片移動到F盤中的“北京游照片”目錄中,可以按以下方法進(jìn)行。
第一步,建立“F:\test”目錄后在“rule”一欄中,單擊“+”按鈕,建立一個規(guī)則。在“Descriptior”文本框中為當(dāng)前規(guī)則起一個名字如“批量整理移動”。單擊第一個下拉列表,在這里可以選擇Name(文件名)、Extension(擴(kuò)展名)、Size(大小)等進(jìn)行操作,這里選擇擴(kuò)展名“Extension”。單擊第二個下拉列表,在這里設(shè)置的是操作條件,有is(是)、isnot(不是)、contains(包含)等操作可供選擇,這里選擇的是“is”。接下來,在最后的文本框中輸入圖片文件的擴(kuò)展名,示例中是“JPG”。定義的規(guī)則合起來的意思就是“擴(kuò)展名是JPG”。
第二步,在“Dothefollowing”區(qū)域設(shè)置操作動作,單擊第一個下拉列表進(jìn)行操作動作的選擇,有“Movefile(移動)、Renamefile(重命名)、Deletefile(刪除)”等動作可供選擇,我們要批量移動,那就選擇重命名“Movefile(移動文件)”。接下來,單擊后面的按鈕選擇“F:\北京游照片”目錄。
第三步,規(guī)則設(shè)置完畢,單擊“Test”按鈕應(yīng)用規(guī)則,程序即可一次性地將所有擴(kuò)展名為“JPG”的圖片文件移動到“F:\北京游照片”目錄中了。
懶招4提綱挈領(lǐng)一點即得
在前面幾大懶招的幫助下,你電腦里的文件應(yīng)該已經(jīng)有點類別了吧。如果從此想告別懶人的生活,那就要養(yǎng)成管理文件的好習(xí)慣了。
第一步,在你保存資料的電腦分區(qū)中,要接類別建立多個文件夾,可以按用途分為:學(xué)習(xí)、娛樂、暫存、工作、下載,在娛樂下又可以建立二級目錄:電影、歌曲、動畫等。也可以按照常見的文件性質(zhì)進(jìn)行分類,例如分為:圖片、電影、電子書、安裝文件等,當(dāng)然也可以按照你的需要再建立二級目錄,以后每有文件需要保存就按這個類別保存到相應(yīng)的目錄。
第二步,雖然現(xiàn)在已經(jīng)把文件分門別類存放了,但時間長了,目錄太深,一層一層查找也很麻煩的,在EXCEL里建一個目錄就可以統(tǒng)一管理了。運行EXCEL后,新建一個表格,然后按照我們的分類方式隔行輸入:圖片、電影、電子書,在圖片分類下再建立二級目錄名,例如明星、汽車、壁紙等。
第三步,右鍵單擊“圖片文字”,選擇“超鏈接”,在彈出的對話框中選擇電腦里圖片目錄文件夾,單擊“確定”后EXCEL里的“圖片”文字就變成彩色。用同樣的方法為一級目錄的“電影、電子書”和二級目錄的“明星、汽車、壁紙”等添加超鏈接。然后將這個EXCEL文件命名為文件目錄,保存到桌面上,以后打開這個文檔,直接單擊相應(yīng)的文字,比如單擊“壁紙”,就可以切換到壁紙文件夾了。
小提示:如果要更改某個超鏈接,直接右鍵單擊該文字,選擇“編輯超鏈接”就可以了。本人的電腦分類原則簡述如下。
硬盤的第一層(請在自己的件夾中右鍵“按組排列”查看)
第一位字母表示A生活娛樂B教學(xué)C工作D安裝程序
第二位字母表示只是流水號
AA影視
AB音樂
AC閱讀
AD圖片
AE相冊
生活娛樂
BA計算機(jī)
BB英語
BC運動
BD游戲攻略
BE衣食住行
BF文藝
教學(xué)
CA管理制度
CB流程圖
CC程序文件
工作
DA娛樂
DB其它
安裝程序
硬盤的第二層(進(jìn)入“AA影視”的文件夾舉例)
第一位字母表示只是流水號
第二位字母表示只是流水號
AA電影
BA電視劇
CAMTV
硬盤的第三級(進(jìn)入“AA電影”的文件夾舉例)
第一位字母表示A動作片B劇情片C動畫片
第二位字母表示A未看過B已看過
AA導(dǎo)火線
AB尖峰時刻
動作片
BA獨自等待
劇情片
CB機(jī)器貓
CB獅子王
動畫片
利用“字母排序”和“按組排列查看”可以使文件查看和存放簡潔明了,結(jié)合自己資料的特點和實際需求,給自己定一個分類原則并嚴(yán)格執(zhí)行。個人電腦資料的資源會得到高效而充分的利用。電腦文件管理八條小技巧
在電腦的內(nèi)部,在電腦的桌面上,在“資源管理器”中,充斥著無序與混亂,這種虛擬的混亂極大地影響了電腦的性能和我們辦公的效率,當(dāng)大家面臨這個問題時,通常認(rèn)為硬盤空間又不夠了,電腦性能又不跟不上了,需要再換一臺新的電腦了。事實上,我們真正需要的是坐下來,好好花時間將電腦里的文件真正管理起來,會為自己日后省下更多的時間。
文件管理的真諦在于方便保存和迅速提取,所有的文件將通過文件夾分類被很好地組織起來,放在你最能方便找到的地方。解決這個問題目前最理想的方法就是分類管理,從硬盤分區(qū)開始到每一個文件夾的建立,我們都要按照自己的工作和生活需要,分為大大小小、多個層級的文件夾,建立合理的文件保存架構(gòu)。此外所有的文件、文件夾,都要規(guī)范化地命名,并放入最合適的文件夾中。這樣,當(dāng)我們需要什么文件時,就知道到哪里去尋找。
這種方法,對于相當(dāng)數(shù)量的人來說,并不是一件輕松的事,因為他們習(xí)慣了隨手存放文件和辛苦、茫無頭緒地查找文件。
下面,我們將幫你制訂一套分類管理的原則,并敦促您養(yǎng)成好的文件管理習(xí)慣。以下是我們總結(jié)出的一些基本技巧,這些技巧并不是教條,可能并不適合你,但無論如何你必須要有自己的規(guī)則,并堅持下來,形成習(xí)慣。
一、發(fā)揮我的文檔的作用
有很多理由讓我們好好地利用“我的文檔”,它能方便地在桌面上、開始菜單、資源管理器、保存/打開窗口中找到,有利于我們方便而快捷地打開、保存文件。我們可以利用“我的文檔”中已有的目錄,也可以創(chuàng)建自己的目錄,將經(jīng)常需要訪問的文件存儲在這里。至于“我的文檔”存儲在C盤,在重裝系統(tǒng)時可能會誤刪除的問題,可以在非系統(tǒng)盤建立一個目錄,然后右擊桌面上的“我的文檔”,選擇“屬性”。在彈出的“我的文檔屬性”窗口中,單擊目標(biāo)文件夾下的“移動”按鈕,然后在新的窗口中指定我們剛創(chuàng)建的文件夾。重裝系統(tǒng)后再次執(zhí)行以上操作,再重新指向此文件夾即可,即安全又便捷。
小提示:如果你使用Windows2000/XP,則移動“我的文檔”文件夾時,其下的所有文件會自動移過去,但如果你使用Windows9x,則需要手工將C:MyDocuments下的所有
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 現(xiàn)代科技與學(xué)生身心健康融合教育的實踐案例分析
- 現(xiàn)代企業(yè)的安全生產(chǎn)管理體系構(gòu)建與實施策略
- 科技發(fā)展中的創(chuàng)新型報告制作
- 2025年福州英華職業(yè)學(xué)院高職單招高職單招英語2016-2024歷年頻考點試題含答案解析
- 2025年湖南三一工業(yè)職業(yè)技術(shù)學(xué)院高職單招高職單招英語2016-2024歷年頻考點試題含答案解析
- 2025年鼓風(fēng)機(jī)群項目可行性研究報告
- 2025年渤海船舶職業(yè)學(xué)院高職單招職業(yè)適應(yīng)性測試近5年??及鎱⒖碱}庫含答案解析
- 科技助力下的旅游景區(qū)安全管理新模式探索
- 營養(yǎng)餐對學(xué)生智力與學(xué)習(xí)能力的影響
- 2025年皂基項目可行性研究報告
- 2025-2030年中國電動高爾夫球車市場運行狀況及未來發(fā)展趨勢分析報告
- 河南省濮陽市2024-2025學(xué)年高一上學(xué)期1月期末考試語文試題(含答案)
- 長沙市2025屆中考生物押題試卷含解析
- 2024年08月北京中信銀行北京分行社會招考(826)筆試歷年參考題庫附帶答案詳解
- 蘇教版二年級數(shù)學(xué)下冊全冊教學(xué)設(shè)計
- 職業(yè)技術(shù)學(xué)院教學(xué)質(zhì)量監(jiān)控與評估處2025年教學(xué)質(zhì)量監(jiān)控督導(dǎo)工作計劃
- 金字塔原理與結(jié)構(gòu)化思維考核試題及答案
- 廣東省梅州市2023-2024學(xué)年七年級上學(xué)期期末數(shù)學(xué)試題
- 《革蘭陽性球菌》課件
- 基礎(chǔ)護(hù)理學(xué)導(dǎo)尿操作
- 標(biāo)牌加工風(fēng)險防范方案
評論
0/150
提交評論