《三種人臉識(shí)別算法的實(shí)現(xiàn)及性能比較研究》12000字(論文)_第1頁
《三種人臉識(shí)別算法的實(shí)現(xiàn)及性能比較研究》12000字(論文)_第2頁
《三種人臉識(shí)別算法的實(shí)現(xiàn)及性能比較研究》12000字(論文)_第3頁
《三種人臉識(shí)別算法的實(shí)現(xiàn)及性能比較研究》12000字(論文)_第4頁
《三種人臉識(shí)別算法的實(shí)現(xiàn)及性能比較研究》12000字(論文)_第5頁
已閱讀5頁,還剩13頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

三種人臉識(shí)別算法的實(shí)現(xiàn)及性能比較研究目錄第一章:緒論51.1研究背景及意義51.2研究現(xiàn)狀及發(fā)展趨勢(shì)和存在的問題61.3人臉識(shí)別主要技術(shù)指標(biāo)71.3.1識(shí)別率71.3.2識(shí)別速度71.3.3數(shù)據(jù)存儲(chǔ)量71.3.4數(shù)據(jù)可拓展性71.4本文主要工作及章節(jié)安排8第二章:基于Eigenface的人臉識(shí)別92.1基本原理92.2仿真實(shí)驗(yàn)122.3實(shí)驗(yàn)結(jié)果與分析12第三章:基于Fisherface的人臉識(shí)別132.1基本原理132.2仿真實(shí)驗(yàn)142.3實(shí)驗(yàn)結(jié)果與分析14第四章:基于LBPH的人臉識(shí)別152.1基本原理152.2仿真實(shí)驗(yàn)202.3實(shí)驗(yàn)結(jié)果與分析20第五章:總結(jié)與展望215.1總結(jié)215.2展望21第一章:緒論1.1研究背景及意義眾所周知,人類的生存發(fā)展過程中,并不是僅僅作為一個(gè)獨(dú)立的個(gè)體而存在,還需要依靠自然界的輔助并與之交流。根據(jù)這些,我們可以將這些獲取得到信息的方式進(jìn)行分類類比。其中,這些方式之中的視覺大概占了60%,而聽力部分占了約有20%,剩余的占比則被人類的其他感官所占據(jù)。根據(jù)上述的數(shù)值占比我們可以看到,眼睛作為感知自然的一個(gè)重要器官,利用眼睛視力,對(duì)于人類獲取的場(chǎng)景進(jìn)行區(qū)分。對(duì)比之下,我們的面額代表的場(chǎng)景是自身的信息。人臉上的肌肉動(dòng)作,眼、鼻、嘴、耳、口的形狀,大小,甚至是膚色都能夠成為我們?nèi)四樧R(shí)別的識(shí)別對(duì)象。隨著我們社會(huì)的不斷進(jìn)步,如果不使用人臉識(shí)別這種技術(shù)方法,可能會(huì)達(dá)不到我們?nèi)粘I钪械男枨蟆H四樃?FaceTracking)是指在視頻圖像之中,通過與相關(guān)人臉的幀數(shù)比對(duì)去確定是否是要進(jìn)行人臉跟蹤的對(duì)象。人臉識(shí)別(FaceRecognition)是在對(duì)視頻或者圖片中的人臉進(jìn)行一些基本的檢測(cè),之后再對(duì)人臉的人臉的REF_Ref9503\r\h[5]局部特征進(jìn)行對(duì)比分析,從這些得到的數(shù)據(jù)中獲取對(duì)我們有意義的信息,即人臉特征。眾所周知,人的面部結(jié)構(gòu)特征都是通過隨機(jī)的自然組合得來的,人與人之間的表情特征,皮膚紋理,大小形狀等各個(gè)方面都是不同的,并且也會(huì)隨著人的衰老變得不同。所以每次進(jìn)行仿真實(shí)驗(yàn)的過程中,因?yàn)榄h(huán)境變化、人員變動(dòng)等不同因素帶來的影響都有可能對(duì)實(shí)驗(yàn)帶來誤差,這些因素都對(duì)人臉識(shí)別的難度有了極大地提升。相同的,圖像是否快速運(yùn)動(dòng),人臉遮擋與否,在不同的人臉識(shí)別處理方式中都會(huì)收到不同程度上的影響。隨著科技的不斷發(fā)展,目前來講市面上的人臉識(shí)別系統(tǒng)大都需要用戶的正面人臉保持不動(dòng)才能準(zhǔn)確識(shí)別人臉信息。但事實(shí)上我們都生活在一個(gè)快速運(yùn)動(dòng)的環(huán)境之中,這些環(huán)境為更先進(jìn)的人臉識(shí)別的發(fā)展創(chuàng)造了阻礙。未來的時(shí)間中,人臉識(shí)別這一方向一定會(huì)有更加出色的發(fā)展,變得更加簡(jiǎn)單深刻,與此同時(shí),計(jì)算機(jī)硬件也有可能會(huì)被這一領(lǐng)域所帶動(dòng),迎來更多的專家學(xué)著投入其中。圖像采集處理技術(shù)在信息處理技術(shù)之中占據(jù)著舉足輕重的地位,發(fā)展方向眾多。1960年左右,人們才開始把目光投向人臉識(shí)別技術(shù)之上,在這60年左右的時(shí)間里,大批的科研團(tuán)隊(duì)投入其中,近些年來越來越多的人也開始投入到這方面來,不斷地往這方面投入人力物力來充分發(fā)展。1.2研究現(xiàn)狀及發(fā)展趨勢(shì)和存在的問題我們自身網(wǎng)絡(luò)的安全問題在這十幾年來逐漸成為了我國(guó)不得不面對(duì)的事實(shí),社會(huì)的安定團(tuán)結(jié)才會(huì)促進(jìn)經(jīng)濟(jì)的穩(wěn)定進(jìn)步。在電視上我們經(jīng)常可以看到,有些不法之徒通過各種手段犯罪,會(huì)對(duì)國(guó)家的經(jīng)濟(jì)發(fā)展和人民大眾的財(cái)產(chǎn)和生命安全帶來危害。要防止這一類的事情發(fā)生,我們就需要使用生物特征識(shí)別技術(shù)來作為技術(shù)保障。目前我國(guó)大約有14億五千萬人口,在全世界之中的土地面積排行第二。而且人口流動(dòng)量大,我們?nèi)绻褂蒙锾卣髯R(shí)別技術(shù)的話,可以有效的攔截那些具有敏感身份的人員,提高國(guó)民的安全系數(shù)。目前來講,每當(dāng)世界各國(guó)舉辦任意的大型活動(dòng)時(shí),各個(gè)機(jī)場(chǎng)、鐵路、輪船都會(huì)存在大量的出入境信息,而我們?nèi)绻栌蒙锾卣髯R(shí)別技術(shù)來對(duì)所有人進(jìn)行例行檢查,那么便可以減少乃至杜絕大多數(shù)危險(xiǎn)傷害事件的發(fā)生。隨著網(wǎng)絡(luò)的快速發(fā)展,互聯(lián)網(wǎng)給人們帶來了方便快捷的同時(shí)也夾雜著一些潛在的危險(xiǎn)。大多數(shù)人在網(wǎng)上進(jìn)行瀏覽是使用的都是自己的真實(shí)身份,這給了網(wǎng)絡(luò)黑客或者一些不法分子有利可乘的機(jī)會(huì)。再過去的幾十年里,被黑客盜取錢財(cái),盜取個(gè)人信息的事情數(shù)不勝數(shù),甚至還有部分不法分子想要利用網(wǎng)絡(luò)來獲取真正的會(huì)危害到國(guó)家安全的信息。而生物特征識(shí)別技術(shù)就能夠非常全面的解決人們?cè)诨ヂ?lián)網(wǎng)當(dāng)中的網(wǎng)絡(luò)安全問題,可以在極大程度上保證自己的權(quán)利不受侵害的同時(shí)進(jìn)行暢快的網(wǎng)絡(luò)瀏覽。而說到物種甄別科技,原理很簡(jiǎn)單,就是通過特征的甄別,比如臉部、手指、視網(wǎng)膜甄別實(shí)現(xiàn)的。這幾類甄別措施內(nèi),臉部甄別比較簡(jiǎn)便,就是對(duì)面部信息進(jìn)行辨別,與個(gè)人在網(wǎng)絡(luò)上留存的身份信息進(jìn)行對(duì)比,有著唯一性的可靠屬性??煽啃愿咦匀灰簿透菀妆蝗藗兯邮?。當(dāng)然,事物總是會(huì)具有兩面性,人臉識(shí)別在擁有各種優(yōu)勢(shì)的同時(shí),也會(huì)有各方面不同的劣勢(shì)存在。比如說我們的面部表情永遠(yuǎn)都不會(huì)是一成不變的,身份證上的照片因?yàn)楦鞣N原因總會(huì)與本人存在各種各樣的差異,在環(huán)境變化,或者本人化妝情形,臉部甄別有些不足,對(duì)于解決這種情況對(duì)于后續(xù)的進(jìn)步發(fā)展提出了新的要求,舉例說明,臉部甄別時(shí)亮度也會(huì)似的人臉的采集出現(xiàn)問題,很多魯棒性不好的程序?qū)庹諞]有很好的‘抵抗力’,所以會(huì)直接影響到人臉采集的結(jié)果。所以我們?nèi)绻胍谖磥碓谌魏螘r(shí)間地點(diǎn)都能完美的使用人臉識(shí)別技術(shù)的話,就必須要克服這些問題。1.3人臉識(shí)別主要技術(shù)指標(biāo)1.3.1識(shí)別率這就是數(shù)據(jù)整合階段常見的問題,針對(duì)這個(gè)問題的出現(xiàn),甄別無誤的情況占據(jù)了全體甄別數(shù)據(jù)的比重顯得尤為重要。在判定因素內(nèi),影響最大同時(shí)也是占比最大的因素就是識(shí)別率,作為核心考慮因素,若系統(tǒng)對(duì)于其符合率的數(shù)值不能做到標(biāo)準(zhǔn)值的話,那么系統(tǒng)的其余考慮方面都沒有意義。1.3.2識(shí)別速度對(duì)于系統(tǒng)來說,如果其甄別速率符合了標(biāo)準(zhǔn),達(dá)到了一定數(shù)值,這時(shí)候需要系統(tǒng)著重探究的一個(gè)因素就是甄別需要花費(fèi)的時(shí)間長(zhǎng)短的問題了,這個(gè)因素直接影響的就是程序客戶在體驗(yàn)這個(gè)程序中所要付出的時(shí)間長(zhǎng)短,如果消耗過長(zhǎng),那么對(duì)于客戶來說造成的就是無端的浪費(fèi),那么這個(gè)客戶就已經(jīng)消失了。這個(gè)程序消耗的時(shí)間主要在處理和甄別兩個(gè)階段。首先,處理消耗的客戶看不到,雖然有這樣的問題,同樣的也需要進(jìn)行預(yù)先處置,這也是文章前序沒有提及的原因。任何強(qiáng)烈的要求,只需要在一個(gè)可以接受的時(shí)間范圍內(nèi)就可以了。但是我們測(cè)試樣本時(shí)系統(tǒng)的反應(yīng)速度,也即是所用的時(shí)間就顯得尤其的重要,這個(gè)時(shí)間的多少是這個(gè)應(yīng)用好壞與否的關(guān)鍵因素,所以怎么樣才能將時(shí)間控制在我們可以接受的范圍之內(nèi)就顯得非常重要了。1.3.3數(shù)據(jù)存儲(chǔ)量面部甄別程序的工作原理可以理解為,這項(xiàng)工作是基于一整個(gè)的互聯(lián)網(wǎng)基礎(chǔ)上進(jìn)行的,優(yōu)秀的互聯(lián)網(wǎng)存儲(chǔ)庫內(nèi)保存著數(shù)不盡的信息,這樣多的基數(shù)信息,同樣產(chǎn)生了負(fù)面的影響,那就是程序運(yùn)行期間需要進(jìn)行大量的算法才能完成此項(xiàng)工作。1.3.4數(shù)據(jù)可拓展性為了保持程序的正常運(yùn)行,不會(huì)在關(guān)鍵時(shí)刻出現(xiàn)不可挽回的錯(cuò)誤,對(duì)于系統(tǒng)信息的質(zhì)量監(jiān)護(hù)是重中之重,雖然這項(xiàng)工作經(jīng)常被人所忽略,但是他的實(shí)際作用非常大,隨著后續(xù)時(shí)代的發(fā)展,程序也需要跟隨客戶需求進(jìn)行變更,可能就會(huì)存在程序信息擴(kuò)容或者精簡(jiǎn)的問題,研發(fā)者需要考慮的就是未來可能發(fā)生的事件,只有擁有前瞻性才可以完美應(yīng)對(duì)未來的發(fā)展趨勢(shì)。1.4本文主要工作及章節(jié)安排本文的主要研究換內(nèi)容為:基于Fisherface的人臉識(shí)別方法、基于EigenFaces特征臉的人臉識(shí)別方法和局部二值模式LocalBinaryPatterns(LBP)人臉識(shí)別算法。通過自建圖庫來對(duì)需要識(shí)別的信息進(jìn)行相應(yīng)的處理,使用各種方法對(duì)圖片進(jìn)行分析來進(jìn)行人臉識(shí)別。人臉檢測(cè)實(shí)現(xiàn)之后對(duì)這些算法的識(shí)別率和準(zhǔn)確率等進(jìn)行對(duì)比,得出最后結(jié)論。本文一共含有五個(gè)章節(jié)。第一個(gè)章節(jié)為緒論部分,重點(diǎn)說明人臉識(shí)別的研究背景及意義、說明人臉識(shí)別的研究現(xiàn)狀及發(fā)展趨勢(shì)以及目前來講存在的問題,同時(shí)簡(jiǎn)要說明這篇文章的主要的研究方向以及內(nèi)容,同時(shí)也說明了本文的整體架構(gòu)進(jìn)行詳解。第二章節(jié)詳細(xì)介紹了Eigenface的基本原理以及仿真實(shí)驗(yàn),并介紹了該算法的優(yōu)點(diǎn)與不足之處。第三章節(jié)詳細(xì)介紹了Fisherface的基本原理以及仿真實(shí)驗(yàn),并介紹了該算法的優(yōu)點(diǎn)與不足之處。第四章節(jié)詳細(xì)介紹了LBPH的基本原理以及仿真實(shí)驗(yàn),并介紹了該算法的優(yōu)點(diǎn)與不足之處。第五章節(jié)是前序內(nèi)容的概括,并且對(duì)于未來發(fā)展趨勢(shì)進(jìn)行暢想,預(yù)測(cè)未來的探究目標(biāo)。第二章:基于Eigenface的人臉識(shí)別2.1基本原理檢測(cè)子空間模型PCA降維特征矩陣計(jì)算特征值計(jì)算協(xié)方差矩陣計(jì)算平均臉讀取訓(xùn)練數(shù)據(jù)開始檢測(cè)子空間模型PCA降維特征矩陣計(jì)算特征值計(jì)算協(xié)方差矩陣計(jì)算平均臉讀取訓(xùn)練數(shù)據(jù)開始圖2.1特征臉訓(xùn)練與識(shí)別原理圖Eigenfaces也就是特征臉識(shí)別的英文意思,是指一種能夠從人臉主特征成分分析數(shù)據(jù)庫內(nèi)以目標(biāo)為導(dǎo)向,輸出最終信息的全新面部甄別系統(tǒng)。特殊點(diǎn)方式其中之一原理是假定把導(dǎo)入的面部信息作為多個(gè)矩陣,將之進(jìn)行命名之后,最終摘取較為重要的信息,最終通過摘取的重要信息整合作為面部信息集合。很多業(yè)務(wù)應(yīng)用環(huán)境中我們需要經(jīng)常對(duì)這些大量的數(shù)據(jù)問題進(jìn)行綜合分析與計(jì)算分析并去尋找到其各自內(nèi)在聯(lián)系的內(nèi)在變化,與之而來的就是信息體量的過多導(dǎo)致程序?qū)τ谶^多信息的處置以及摘取帶來的冗雜的處理過程,為了能夠應(yīng)對(duì)此難題,需要采取合適的不影響程序功能的方式進(jìn)行處理,這樣既能夠解決問題,另外一方面還可以保存信息聯(lián)系,這就是PCA出現(xiàn)的意義:1、信息維度減低??s減對(duì)應(yīng)信息功能抑制,保證獨(dú)立個(gè)體信息之間可以獨(dú)立存在同時(shí)還可以有一定聯(lián)系,通過這樣的處置,最終的信息集合體則簡(jiǎn)潔同時(shí)具有條理。2、消耗聲音,處理信息遮擋的過程。PCA程序:特點(diǎn)中實(shí)心化:將矩陣每一維中的每個(gè)數(shù)據(jù)項(xiàng)數(shù)值扣除平均數(shù),這樣算法結(jié)束后平均數(shù)是零;處置變更程序變換后矩陣B的協(xié)方差矩陣C;計(jì)算協(xié)方差矩陣C的特征值和特征向量REF_Ref9621\r\h[6];擇取區(qū)間廣的數(shù)值和相對(duì)數(shù)值當(dāng)作"主成分",并考慮以此關(guān)系構(gòu)成了一組新的數(shù)據(jù)集特征臉方法:其方法簡(jiǎn)單理解就是以PCA為基礎(chǔ),通過復(fù)雜的算法程序最后實(shí)現(xiàn)面部甄別工作研究領(lǐng)域中,將任何一組特征人臉圖像就可以直接看得到成都是任何一張的原始人臉圖像信息整合,通過與PCA原理相同的程序?qū)π畔㈤_展程序管理工作,通過信息集取和研究,最終的信息叫做"主成分",接下來針對(duì)單個(gè)一組特征人臉數(shù)據(jù)集都采集就可了以通過計(jì)算機(jī)用所有這些整合數(shù)據(jù)開展程序甄別。其方法探究理念可以理解為人類在潛意識(shí)中對(duì)于某類物種特點(diǎn)的普遍性,即相同類物質(zhì)帶有類似的重合點(diǎn)信息的話,通過使用計(jì)算機(jī)來將所對(duì)所有同一類型特定的目標(biāo)物體(人臉圖像)信息中的全部這些臉特性尋在其中顯示了出來,就已基本的可以同時(shí)被人用來進(jìn)行識(shí)別和區(qū)分這些各種具有不同特征屬性信息的特定目標(biāo)事物了。人臉圖像特征識(shí)別的技術(shù)目的就是要為了解決一個(gè)人臉特征區(qū)別的情況,把帶有差異化數(shù)據(jù)的面部信息進(jìn)行辨別。特征臉程序:1.對(duì)于多個(gè)面部信息數(shù)據(jù)整合的綜合體,例如你將需要使用一張有15張圖片的人臉圖片的集合來作為一幅人臉的訓(xùn)練圖像,每張人字臉圖片的集合對(duì)應(yīng)的兩個(gè)像素尺寸分別應(yīng)該是70*100,所以在我們的這里可以取為M=15。我們可以現(xiàn)在就把導(dǎo)入的圖像寫成矩陣展開,本來,70*100的大矩陣,那么展開也就是一個(gè)7000*71的小矩陣,然后再將M張導(dǎo)入圖片放在了另一個(gè)更大的小矩陣下,該大小矩陣也即轉(zhuǎn)化為了一個(gè)7000*15。2.運(yùn)算得到平均圖像矩陣A,通過一系列的運(yùn)算,最后得到偏差矩陣B,對(duì)于整合數(shù)據(jù)集合開展均值運(yùn)算,通過這樣的方法最終輸出即為常規(guī)面部。下一個(gè)步驟就是個(gè)體面部與均相減,最后會(huì)得到:A=1Bi求得的協(xié)方差矩陣。并可以給出計(jì)算矩陣的特征值和特征向量。這里面基本上也就是沒有一個(gè)標(biāo)準(zhǔn)的PCA算法和工作流程。很大的一個(gè)的問題也就是協(xié)方差矩陣的維度有時(shí)也會(huì)被偏大影響到而無法實(shí)現(xiàn)精確地計(jì)算,下面的方法可以解決:設(shè)矩陣K是指一組用于待運(yùn)算數(shù)值陣列,個(gè)體數(shù)值與前后數(shù)值相減之后的結(jié)果,則協(xié)方差矩陣為S=K

,并且可以對(duì)S的特征值做分解:SV然而KKT是指一個(gè)非常的大的矩陣。因此,如果轉(zhuǎn)而使用如下的特征值解:KK這其實(shí)就是意味著,如果Ui是矩陣KKT中的一個(gè)特征向量,則矩陣Vi=TUi是矩陣S中的另外一個(gè)特征向量,反正到了最后一步我們先得KKT中的最后一個(gè)特征向量,再用矩陣K與之相乘就是一個(gè)協(xié)方差矩陣的特征向量μ。而我們此時(shí)需要求得一組特征向量是15000*15行的像素矩陣,每一行像素(7000*1)若是可以轉(zhuǎn)變?yōu)槠呤?一百影像,可以被當(dāng)作嶄新面部,這被叫做特征臉。主特征成分的分析?;谘芯磕繕?biāo)來說,趨向于差異向量以及差異數(shù)值內(nèi),針對(duì)核心差異數(shù)值,僅僅做到摘取特備明顯的差異數(shù)值還有與之聯(lián)結(jié)的向量就可以,同樣的,對(duì)于遠(yuǎn)離核心差異數(shù)值的點(diǎn),其所具備的差異數(shù)值可以理解為沒有數(shù)值,他對(duì)應(yīng)聯(lián)結(jié)的向量也基本趨向于零。這樣可以組建一個(gè)selecthr進(jìn)行管控,這樣排列之后的數(shù)值累計(jì)與selecthr類似,摘取一個(gè)跟特點(diǎn)數(shù)值類似的向量,剩余矩陣值是7000*M,M是一個(gè)可變量。通過類似的程序縮減了運(yùn)算過程,這樣也可以留存核心部分。5.人臉識(shí)別。程序需要輸入嶄新面部信息,對(duì)人臉上的主成分特征進(jìn)行分析提取并計(jì)算后所得到人臉的特征向量μ,來進(jìn)一步計(jì)算求得導(dǎo)入下一個(gè)人面臉中每一個(gè)人臉特征向量對(duì)于一個(gè)被導(dǎo)入的新人臉的權(quán)重向量Ω:

ωKΩnew這里的人臉圖像A實(shí)際上也就是剛才我們的第二步分析中我們求得出來的一個(gè)平均的人臉圖像,特征向量其實(shí)也就是訓(xùn)練集合上的已知平均人臉圖像與未知均值圖像之間的在某特定該某特定的方向上而產(chǎn)生的一個(gè)偏差,通過直接觀察這些未知平均值的平均人臉圖像在這些特征向量集合里產(chǎn)生的一個(gè)投影,我們現(xiàn)在自然我們就會(huì)知道可以這樣直接觀察知道的一個(gè)未知的平均的人臉像與另一個(gè)未被解析的面部是存在差異的,接下來通過回到第二步驟去分別做了一個(gè)這樣的運(yùn)算和處理,每間隔的一行得到一個(gè)向量。最后根據(jù)Ω及歐式間距甄別首張面部距與已知的第K張已知的訓(xùn)練人臉距離之間的差距εk2.2仿真實(shí)驗(yàn)表2.1本次仿真的實(shí)驗(yàn)結(jié)果為:基于Eigenface的人臉識(shí)別算法第一次實(shí)驗(yàn)第二次實(shí)驗(yàn)第三次實(shí)驗(yàn)第四次實(shí)驗(yàn)訓(xùn)練樣本類數(shù)9181818每類樣本數(shù)20202040測(cè)試樣本數(shù)11112222識(shí)別率81.81%90.91%90.83%95.45%識(shí)別時(shí)間1.21s1.33s1.51s1.56s2.3實(shí)驗(yàn)結(jié)果與分析可從上表中得到的信息為:在訓(xùn)練樣本每類樣本數(shù)不變的情況下,僅增加訓(xùn)練樣本類數(shù),可使得在識(shí)別時(shí)間不發(fā)生大幅漲幅的同時(shí)提高其識(shí)別率。當(dāng)其他條件不變僅增加訓(xùn)練樣本數(shù)時(shí),其識(shí)別時(shí)間有小幅的增加,但對(duì)于識(shí)別率的提升沒有明顯的幫助。當(dāng)其他條件不變的情況下,僅增加每類樣本數(shù)的數(shù)量,可以使得識(shí)別率有明顯的增加,且在識(shí)別時(shí)間上沒有大的漲幅。上表中沒有表現(xiàn)出來的信息為:在實(shí)驗(yàn)過程中得到,在進(jìn)行圖片訓(xùn)練時(shí),圖片的大小不能超過35721的像素,一旦超過將會(huì)報(bào)錯(cuò),使程序無法運(yùn)行。在實(shí)驗(yàn)中可觀察出,eigenface算法的魯棒性并不好,對(duì)光照下的圖片識(shí)別率將會(huì)降低。同時(shí),待測(cè)人臉的尺寸必須與訓(xùn)練尺寸相統(tǒng)一,并且待測(cè)人臉必須為正面人臉圖像,否則識(shí)別錯(cuò)誤率將會(huì)極大提升??梢缘贸龅慕Y(jié)論為,eigenface特征臉的人臉識(shí)別方法 在環(huán)境光線不發(fā)生較大改變的情況下,人臉識(shí)別率可以隨著訓(xùn)練樣本數(shù)的增加而持續(xù)增高,并且識(shí)別時(shí)間僅隨測(cè)試樣本數(shù)持續(xù)小幅增長(zhǎng)。第三章:基于Fisherface的人臉識(shí)別3.1基本原理結(jié)束投影到子空間計(jì)算前K個(gè)最大特征值與特征向量計(jì)算特征值與特征向量計(jì)算離散矩陣減去均值輸入數(shù)據(jù)結(jié)束投影到子空間計(jì)算前K個(gè)最大特征值與特征向量計(jì)算特征值與特征向量計(jì)算離散矩陣減去均值輸入數(shù)據(jù)圖3.1LDA原理圖介紹FisherFace算法就是指由一種算法完全可以基于線性LDA分析算法(全稱LinearDiscriminantAnalysis,線性判別分析)而實(shí)現(xiàn)起來的另一種人臉識(shí)別算法,而這種基于線性LDA方法的算法是通過英國(guó)人RonaldFisher于約1936年首先被正式提出來而來得以實(shí)現(xiàn)出來的,所以這種基于線性LDA分析算法也常常被稱作是一種基于Fisher的Discriminant的AnalYsis,也就是或許也正是也因?yàn)槭侨绱?該人肉臉型的識(shí)別算法因此也可以被稱為FisherFace。關(guān)于LDA還可以詳細(xì)參考主成分分析原理(PCA)原理和線性判別分析法(LDA)的原理及其簡(jiǎn)介。LDA中有一項(xiàng)和PCA相同的兩個(gè)地方分別是,都表示有利用矩陣特征值進(jìn)行排序以找到主元的過程,但是所不同一樣的點(diǎn)是PCA是求取的僅僅是簡(jiǎn)單協(xié)方差矩陣的一個(gè)特征值,而LDA中是所求取的將是另外一個(gè)結(jié)構(gòu)更為簡(jiǎn)單復(fù)雜的矩陣的一個(gè)特征值(具體如下)。其中一點(diǎn)還比較需要引起我們重點(diǎn)注意的一下值得注意的一些地方即是在求加權(quán)樣本均值時(shí),和一般PCA算法相比也是必須要注意有所的區(qū)別所不同的,LDA是分別對(duì)每個(gè)類別中的每個(gè)樣本各求到一個(gè)加權(quán)均值,而普通PCA方法是對(duì)所有樣本數(shù)據(jù)求均值,得到平均臉。LDA的降維步驟如下:1、通過計(jì)算得出數(shù)據(jù)庫中各個(gè)樣本的均值向量REF_Ref9925\r\h[7]。2、通過均值向量,計(jì)算出類中間的外散度矩陣SB和類兩端的內(nèi)散度矩陣SW。3、對(duì)Sw?1SBW=λW進(jìn)行特征值的求解,求定求出Sw?1SB的特征向量和特征值。4、對(duì)特征向量矩陣按照對(duì)其前特征值影響的幅度大小降序的進(jìn)行排列,并能從中任意選擇與其最前方第K個(gè)特征向量矩陣所組成的投影矩陣W。5、通過D*K維的特征值矩陣將樣本點(diǎn)投影映射到一個(gè)新的子空間中REF_Ref10049\r\h[8]REF_Ref10088\r\h[9],Y=X?W。如果你可以直接用下面這樣簡(jiǎn)單一句話來簡(jiǎn)單地概括一下LDA的中心思想那它就是要最大化類間距離,最小化類間內(nèi)的距離。由于LDA利用了類的所有成員信息并從中隨機(jī)抽取從而得出了其中的一個(gè)特征向量集,該特征向量集中主要在強(qiáng)調(diào)其反映出來的觀察對(duì)象僅僅是不同人臉類型之間的細(xì)微差距而不是光照的的環(huán)境條件、人臉動(dòng)態(tài)的變化方向和光束方向變化等方面的變化。因此,相比于直接使用EigenFace方法識(shí)別人臉來說,采用基于Fisherface技術(shù)的方法在對(duì)人臉特征信息進(jìn)行快速識(shí)別的時(shí)侯對(duì)來自外界光照、人臉姿態(tài)等變化導(dǎo)致的各種細(xì)微人臉變化信息也顯得更快接近并不變得那么的敏感,有助于進(jìn)一步提高快速人臉識(shí)別應(yīng)用的效果。3.2仿真實(shí)驗(yàn)表3.1本次仿真實(shí)驗(yàn)的結(jié)果為:基于Fisher線性判別的人臉識(shí)別算法第一次實(shí)驗(yàn)第二次實(shí)驗(yàn)第三次實(shí)驗(yàn)第四次試驗(yàn)訓(xùn)練樣本數(shù)9181818每類樣本數(shù)10102040測(cè)試樣本數(shù)15153030識(shí)別率83.93%92.50%96.33%96.67%識(shí)別時(shí)間3.86s4.69s6.33s7.13s3.3實(shí)驗(yàn)結(jié)果與分析可從上表中得到的信息為:1、在訓(xùn)練樣本每類樣本數(shù)不變的情況下,僅增加訓(xùn)練樣本類數(shù),可使得在識(shí)別時(shí)間不發(fā)生大幅漲幅的同時(shí)提高其識(shí)別率。2、當(dāng)其他條件不變僅增加訓(xùn)練樣本數(shù)時(shí),其識(shí)別時(shí)間有小幅的增加,但對(duì)于識(shí)別率的提升沒有明顯的幫助。3、當(dāng)其他條件不變的情況下,僅增加每類樣本數(shù)的數(shù)量,可以使得識(shí)別率有明顯的增加,且在識(shí)別時(shí)間上沒有大的漲幅。上表中沒有表現(xiàn)出來的信息為:1、在實(shí)驗(yàn)過程中得到,在進(jìn)行圖片訓(xùn)練時(shí),圖片的大小大約應(yīng)該為2916的像素,像素值不匹配則將會(huì)報(bào)錯(cuò),使程序無法運(yùn)行。2、在實(shí)驗(yàn)中可觀察出,fisherface算法的魯棒性并不好,對(duì)光照下的圖片識(shí)別率將會(huì)降低。3、同時(shí),待測(cè)人臉的尺寸必須與訓(xùn)練尺寸相統(tǒng)一,并且待測(cè)人臉必須為正面人臉圖像,否則識(shí)別錯(cuò)誤率將會(huì)極大提升??梢缘贸龅慕Y(jié)論為,基于fisherface的人臉識(shí)別方法,在環(huán)境光線不發(fā)生較大改變的情況下,人臉識(shí)別率可以隨著訓(xùn)練樣本數(shù)的增加而持續(xù)增高,并且識(shí)別時(shí)間僅隨測(cè)試樣本數(shù)持續(xù)小幅增長(zhǎng)。相比于eigenface方法,該方法在識(shí)別時(shí)間上要明顯長(zhǎng)于前者。但對(duì)光鮮的敏感程度要比前者稍弱第四章:基于LBPH的人臉識(shí)別4.1基本原理LBP局部特征也是特征描述的一種方法,是現(xiàn)在階段廣受歡迎的一種方法,它的起源來源于國(guó)外學(xué)者,成立于一九九四年,其作為互聯(lián)網(wǎng)程序分析研究設(shè)計(jì)等其他眾多相關(guān)領(lǐng)域研究里的應(yīng)用也都快速的發(fā)展以至于傳播的越來越廣泛。其最大突出之優(yōu)勢(shì)處則當(dāng)是算法命名精準(zhǔn)、處置速率快、不受陽光影像、擴(kuò)容性強(qiáng)、利于互聯(lián)網(wǎng)互通運(yùn)行。這項(xiàng)方法應(yīng)用于其他領(lǐng)域的運(yùn)算中同樣表現(xiàn)優(yōu)異,OpenCV程序內(nèi)存在一個(gè)入口,此功能外,其還可以通過LBP特點(diǎn)開展面部甄別測(cè)試。LBP運(yùn)行方式:基于常見環(huán)境,陽光對(duì)于每一個(gè)畫面物體顏色呈現(xiàn)的變化深淺的影響范圍往往會(huì)是部分貫穿而全局變化的,也就是說對(duì)于每張圖片畫面中要表現(xiàn)出的某一個(gè)畫面物體明暗程度往往也是可能會(huì)因在同一個(gè)特定時(shí)間方向內(nèi)而出現(xiàn)改變的幅度范圍的,也許會(huì)僅僅是由局部的變中暗或由部分的變中高亮,明暗漸變幅度的具體改變的幅度往往也只是由其所與陽光點(diǎn)所處距離等原因變化?;诔R婈柟猸h(huán)境部分區(qū)間的臨近區(qū)間內(nèi)的區(qū)別,像素點(diǎn)更改是基于陽光照射變化而變化的。LBP就是一種正因?yàn)樗兄@一特性所以它才能輕易被計(jì)算并得出的一個(gè)有效的特征?;綥BP算子基本的LBP運(yùn)算符通過在任意像素3*3的子窗口中基于來自任意像素及其周圍相鄰的全部八個(gè)相鄰位置的像素的全部像素灰度值與子窗口的中心灰度值進(jìn)行比較在計(jì)算針對(duì)8個(gè)相鄰像素產(chǎn)生的8位灰度二進(jìn)制編碼(大于閾值為1,小于閾值為0)REF_Ref10215\r\h[10]之后,根據(jù)其周邊的不同相鄰像素上的灰度位置分別提供不同灰度值的灰度權(quán)重相等來得出各中心值的灰度整數(shù),即可以直接獲得獲得獲得子窗口的中心點(diǎn)的灰度LBP的特征值,即灰度像素及其周圍的灰度區(qū)域中包含的編碼紋理信息。接著,基于得到這樣的紋理的灰度編碼直方圖信息進(jìn)行分類的公式表示如下:(4-1)其中代表鄰域像素的坐標(biāo),ic代表中心像素的最大灰度值,ip代表鄰域像素最小的灰度值,p代表周圍所有像素中灰度最小時(shí)的第P個(gè)像素,s(x)代表符號(hào)函數(shù)REF_Ref10343\r\h[11]。表示為:S(x)=1,ifx≥0=0,else例如當(dāng)我們先在每一張人眼圖像中隨機(jī)分別算取到了這八個(gè)像素點(diǎn)對(duì)應(yīng)的灰度值并對(duì)與其對(duì)應(yīng)最中間那一個(gè)灰度閾值進(jìn)行做了比較,最后我們就又可以算得到了這是一串的灰度二進(jìn)制數(shù),轉(zhuǎn)換后即為灰度十進(jìn)制數(shù)即可算得到了對(duì)應(yīng)的人臉圖像中的一個(gè)基本信息LBP碼,即(01111100)=124,這個(gè)灰度值數(shù)其實(shí)也僅僅只是反應(yīng)算出去了對(duì)應(yīng)在該幅圖像區(qū)域里的紋理信息,基本系統(tǒng)的LBP算子特征及其提取的計(jì)算工作流程圖如框圖所示。最終得到分類結(jié)果直方圖比較分割為多個(gè)方格每個(gè)方格生成直方圖直方圖鏈接特征向量集合Ulbp降維處理Lbp特征提取圖像灰度化開始最終得到分類結(jié)果直方圖比較分割為多個(gè)方格每個(gè)方格生成直方圖直方圖鏈接特征向量集合Ulbp降維處理Lbp特征提取圖像灰度化開始圖4.1LBPH算法介紹原理圖2)LBP算子基本內(nèi)容信息LBP特征在于自從1994年首次被人們正式系統(tǒng)地提出來研究之后,學(xué)者們也逐漸研究發(fā)現(xiàn)出了其目前最大和明顯突出的一些主要理論缺陷還主要在于它一般都只能是集中分布在某3個(gè)*或3個(gè)以上鄰域空間中的計(jì)算,過于分散狹窄而死板,其計(jì)算僅僅也只是集中覆蓋住在了空間某一個(gè)固定的半徑范圍內(nèi)的某些較窄小區(qū)域,不能夠滿足有效的滿足對(duì)于各種不同空間的空間尺寸紋理計(jì)算和空間頻率紋理計(jì)算方面的大量實(shí)際需求。時(shí)至今日盡管它已在世界上先后多次發(fā)展并演變發(fā)展出過了許多變形算子,但其幾個(gè)主要理論核心觀念至今為止依然仍保持得大同小異,就是要用來近似計(jì)算求出每個(gè)相鄰的像素點(diǎn)間和與它及其周圍幾乎所有相鄰像素點(diǎn)間體積的大小及相對(duì)于比例關(guān)系。Ojala把原的LBP算法行圖做了一項(xiàng)較大地改進(jìn),把鄰域圖從之前的3*3變?yōu)榱瞬幌薜南袼卮笮?,并且還直接的用了圓形區(qū)域圖來直接代替了原的正方形區(qū)域圖以直接進(jìn)行取點(diǎn)的操作。改進(jìn)的LBP運(yùn)算符可以任意選擇任何半徑和任何半徑等于半徑r的圓形區(qū)域中的任意點(diǎn)來直接執(zhí)行采樣計(jì)算和編碼,并且可以實(shí)現(xiàn)比突破常規(guī)限制更簡(jiǎn)單和更靈活的高速化。這種LBP算子稱為ExtenedLBP,也叫做CircularLBP。圓形LBP特征的采樣點(diǎn)(xp,yp)由如下公式計(jì)算:Xp=xc+Rcos(2πp/p)yp=yc+Rcos(2πP/P)其中(Xc,Yc)分別是閾值中心點(diǎn)的坐標(biāo)p代表第p個(gè)采樣點(diǎn),R代表采樣的半徑,P代表總采樣的數(shù)目。因?yàn)橛纱说墓剿?jì)算出得算出來點(diǎn)數(shù)的點(diǎn)數(shù)之間也許都會(huì)不是個(gè)純的整數(shù),所以你還是首先要多考慮使用此公式所計(jì)算的得計(jì)算出來的點(diǎn)數(shù)的兩個(gè)點(diǎn)之間的插值點(diǎn)。在OpenCV中也可以直接使用雙線性插值,公式如下:(4-2)LBP等價(jià)模式改進(jìn)的描述LBP特征的算子最常用涉及到的算子主要有UniformPatternLBP特征,又??梢灾苯臃Q作之為L(zhǎng)BP等價(jià)模式,由LBP等價(jià)算子的定義可知,一個(gè)LBP的特征點(diǎn)可以說分別可以由下列四種完全不同類型的二進(jìn)制模式來組成,若以半徑均為R的鄰域范圍內(nèi)均勻的采樣到第P個(gè)特征點(diǎn),則只將會(huì)出現(xiàn)第2P種二進(jìn)制模式。例如在10個(gè)*10個(gè)鄰域里均勻的采樣10個(gè)點(diǎn)則我們就會(huì)發(fā)現(xiàn)有最多達(dá)的210種模式,采樣20個(gè)點(diǎn),則會(huì)有220種模式。很明顯,模式種類將是會(huì)隨著采樣點(diǎn)數(shù)的被急劇的增加而會(huì)被急劇的地增加,也就是即在每個(gè)模式圖像中包含的信息量也就會(huì)也會(huì)隨之急劇地增加。這一切無疑將對(duì)于紋理圖的信息的表達(dá)的方式都非常極之的不利REF_Ref10607\r\h[12],因?yàn)長(zhǎng)BP的模式都是直接用直方圖來進(jìn)行表達(dá)的信息,模式種類數(shù)量就直接代表了著整個(gè)直方圖橫坐標(biāo)值的分布和范圍,種類數(shù)就越多,直方圖整體上也必然會(huì)就因此的變得越稀疏。同時(shí)由于這也將使得對(duì)于冗余的信息數(shù)據(jù)資源的有效集中存儲(chǔ)、分類與整理和進(jìn)行智能識(shí)別等處理導(dǎo)致的信息運(yùn)算處理速度大幅提升和系統(tǒng)存儲(chǔ)整體效率明顯降低等很可易會(huì)有另外一些積極負(fù)面影響的綜合影響,不能夠完全同時(shí)的滿足對(duì)智能信息識(shí)別功能和對(duì)系統(tǒng)信息處理效率的更高度和實(shí)時(shí)性要求。所以如果我們要想完全的去除所有這些冗余的數(shù)據(jù)信息,保存所有這些有效數(shù)據(jù)的信息,即是一定要建立在最原始的LBP特征基礎(chǔ)數(shù)據(jù)模型上來去進(jìn)行數(shù)據(jù)降維。后來,Ojala提出了一種既能提高數(shù)據(jù)統(tǒng)計(jì)性又能解決二進(jìn)制數(shù)據(jù)過多問題的新模式,“等效模式”,以此來降低數(shù)據(jù)的維度?!暗葍r(jià)模式”是當(dāng)某個(gè)LBP對(duì)應(yīng)的循環(huán)二進(jìn)制數(shù)在0到1或1到0之間最多發(fā)生了兩次以內(nèi)的變動(dòng)時(shí),保留該類型不變,對(duì)應(yīng)于該LBP的二進(jìn)制稱為等價(jià)模式類。當(dāng)變動(dòng)次數(shù)超過兩次時(shí),都?xì)w為同一類,對(duì)應(yīng)于該LBP的二進(jìn)制數(shù)被稱為混合模式類。因?yàn)镺jala以及其他相關(guān)學(xué)者是這樣考慮的:在實(shí)際圖像中REF_Ref11799\r\h[12],大部分的LBP模式僅僅只能發(fā)生兩次及以內(nèi)的二進(jìn)制跳變。例如,二進(jìn)制碼11111111(沒有發(fā)生過跳變)、000011(僅包括從0跳到1)、00011110(從1跳到0、從0跳到1、兩次跳變)是等效模式類別。而混合的模式類別如01010101(8次跳變)可以采用將LBP二進(jìn)制碼和循環(huán)移動(dòng)1比特后的二進(jìn)制碼以位相相加,并驗(yàn)證每個(gè)比特的和是否是等效模式的方法。通過這樣的改進(jìn),因?yàn)橹荒芡瑫r(shí)進(jìn)行跳變的兩次,0位的位置或全1位置的位置均可以分別有P種選擇模式供選擇,由于其可循環(huán)性,跳變兩次的位置選擇也可以只有P位和-1種位置可選擇,所以兩次以上的位置跳變有全P位和(P-1)位兩種位置選擇的模式,除此之外還有全0,全1位置共有兩類的選擇的模式。所以對(duì)于每一個(gè)P個(gè)的二進(jìn)制采樣點(diǎn),模式數(shù)量就將可能由之前所規(guī)定好的只有2P種的二進(jìn)制模式數(shù)量降低到了只有一個(gè)P個(gè)(P-1)+的2種二進(jìn)制混合的模式,即使僅僅是加上跳變的次數(shù)大于其2倍的二進(jìn)制混合的模式數(shù)量也只可能也就少得最多一種。由此可見二進(jìn)制模式數(shù)的種類數(shù)一下子也就可以大大的地減少掉了很多。例如對(duì)于只含有8個(gè)采樣點(diǎn)的LBP特征,就能實(shí)現(xiàn)從一個(gè)基本的LBP算子模型中為的256種基本等價(jià)模式全部降低到了為的58種基本的等價(jià)模式,這樣的基本等價(jià)模式基本上已經(jīng)幾乎占盡到了總的等價(jià)模式類型中為的絕大多數(shù),不僅是顯著的降低到了原始特征的維數(shù),而且是實(shí)際上的還可以明顯地降低到減少了對(duì)高頻噪聲的影響。所以這些混合等效模式類型通常能夠同時(shí)識(shí)別表示圖像信息中的三角點(diǎn)、邊緣、斑點(diǎn)等的幾個(gè)重要像素信息,所以使用這些混合等效模式類別和這些混合等效模式類別直方圖可以更快、更好地分析和提取這些圖像特征。4.2仿真實(shí)驗(yàn)表4.1本次實(shí)驗(yàn)的數(shù)據(jù)如下:基于LBPH的人臉識(shí)別算法第一次實(shí)驗(yàn)第二次實(shí)驗(yàn)第三次實(shí)驗(yàn)第四次實(shí)驗(yàn)訓(xùn)練樣本類數(shù)9181818每類樣本數(shù)20202040測(cè)試樣本數(shù)15153030識(shí)別率88.37%86.68%94.54%97.68%識(shí)別時(shí)間11.12s11.83s14.86s15.21s4.3實(shí)驗(yàn)結(jié)果與分析可從上表中得到的信息為:1、在訓(xùn)練樣本每類樣本數(shù)不變的情況下,僅增加訓(xùn)練樣本類數(shù),可使得在識(shí)別時(shí)間不發(fā)生大幅漲幅的同時(shí)提高其識(shí)別率。2、當(dāng)其他條件不變僅增加訓(xùn)練樣本數(shù)時(shí),其識(shí)別時(shí)間有小幅的增加,但對(duì)于識(shí)別率的提升沒有明顯的幫助。3、當(dāng)其他條件不變的情況下,僅增加每類樣本數(shù)的數(shù)量,可以使得識(shí)別率有明顯的增加,且在識(shí)別時(shí)間上沒有大的漲幅。上表中沒有表現(xiàn)出來的信息為:1、在實(shí)驗(yàn)過程中得到,在進(jìn)行圖片訓(xùn)練時(shí),該算法沒有訓(xùn)練圖像大小的要求,任意格式的圖片都可以使用2、在實(shí)驗(yàn)中可觀察出,LBPH算法的魯棒性相較于前兩種算法好很多,對(duì)光照下的圖片識(shí)別率會(huì)有提高。3、同時(shí),待測(cè)人臉的尺寸必須與訓(xùn)練尺寸相統(tǒng)一,并且待測(cè)人臉必須為正面人臉圖像,否則識(shí)別錯(cuò)誤率將會(huì)極大提升??梢缘贸龅慕Y(jié)論為,基于lbph的人臉識(shí)別方法,在環(huán)境變化不大的情況下,人臉識(shí)別率可以隨著訓(xùn)練樣本數(shù)的增加而持續(xù)增高,并且識(shí)別時(shí)間僅隨測(cè)試樣本數(shù)持續(xù)小幅增長(zhǎng)。相比于前兩種方法,因?yàn)槠湫枰诿恳桓睖y(cè)試圖片上進(jìn)行處理后進(jìn)行識(shí)別,所以該方法在識(shí)別時(shí)間上要明顯長(zhǎng)于前兩者。但對(duì)光鮮的敏感程度要比前者弱很多。第五章:總結(jié)與展望5.1總結(jié)本文作者通過借助編程語言Python語言和語言開發(fā)工具matlab編程完成實(shí)現(xiàn)了下面這幾個(gè)基于人臉生物特征識(shí)別的技術(shù)的分別為幾個(gè)面向不同的領(lǐng)域應(yīng)用的算法的實(shí)現(xiàn),基于Eigenface的人臉生物識(shí)別算法,基于LBPH的人臉生物識(shí)別算法,基于FISHER線性判決技術(shù)的人臉生物特征識(shí)別算法。首先是對(duì)人臉特征識(shí)別新技術(shù)的應(yīng)用研究及意義介紹與典型應(yīng)用情況介紹,介紹人臉特征識(shí)別新技術(shù)與一些其他常用的人臉生物特征的識(shí)別應(yīng)用技術(shù)之間的優(yōu)勢(shì)劣勢(shì)REF_Ref12282\r\h[14]REF_Ref12289\r\h[13]REF_Ref12292\r\h[15]。介紹包括了OpenCV一些特定的算法和OpenCV的主要特點(diǎn),對(duì)使用的python語言的進(jìn)行簡(jiǎn)單介紹,操作人員在使用python編程語言下如何對(duì)一個(gè)OpenCV進(jìn)行配置也給出了較詳細(xì)具體的配置步驟。介紹了人臉識(shí)別技術(shù)應(yīng)用中常用的幾種關(guān)鍵指標(biāo)包括時(shí)間、速度、數(shù)據(jù)存儲(chǔ)量和數(shù)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論