



下載本文檔
版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
基于神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法
性別識(shí)別始于20世紀(jì)90年代。這個(gè)問(wèn)題最初由心理學(xué)研究,其目的是了解人類(lèi)如何區(qū)分男性和女性的性別。隨著計(jì)算機(jī)技術(shù)、數(shù)字圖像處理技術(shù)和模式識(shí)別的發(fā)展,有學(xué)者從計(jì)算機(jī)視覺(jué)角度進(jìn)行研究,主要目標(biāo)是得到一個(gè)性別分類(lèi)器,性別識(shí)別在各方面有著廣闊的應(yīng)用前景。其可在身份識(shí)別中充當(dāng)“前濾鏡”的功能,即可利用檢測(cè)出的性別信息減小在身份識(shí)別時(shí)的搜索范圍,從而提高身份識(shí)別的速度和精度,性別識(shí)別也能在安保系統(tǒng)起到較大作用。憑此優(yōu)勢(shì),其在生物特征識(shí)別領(lǐng)域占有了一席之地,成為一項(xiàng)科技創(chuàng)新的課題。傳統(tǒng)的性別識(shí)別方法都是基于人體第二性特征進(jìn)行識(shí)別,比如眉毛的粗細(xì)濃厚、是否有胡子、喉結(jié)是否明顯、頭發(fā)長(zhǎng)短等獨(dú)有的性別特征。雖然利用此方法進(jìn)行性別識(shí)別原理較簡(jiǎn)單,但特征提取時(shí)存在著一定的困難,特別是在復(fù)雜環(huán)境下,例如被檢測(cè)對(duì)象沒(méi)有胡子,眉毛受到眼鏡遮擋等,其特征定位、提取效果較差,從而導(dǎo)致識(shí)別率下降,魯棒性也大幅降低。因此,如何避免復(fù)雜環(huán)境帶來(lái)的影響,提高算法的識(shí)別率和魯棒性是性別識(shí)別的一大難題。針對(duì)此問(wèn)題,提出了一種基于神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法,該方法先將人臉圖像進(jìn)行高斯濾波,以去除高斯白噪聲、光線(xiàn)突變等帶來(lái)的影響,將預(yù)處理后的圖像進(jìn)行歸一化處理,然后選取足夠多的歸一化樣本對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,達(dá)到預(yù)期的指標(biāo)后停止訓(xùn)練,保存各節(jié)點(diǎn)參數(shù)即可得到性別識(shí)別分類(lèi)器,為驗(yàn)證分類(lèi)器的有效性,將訓(xùn)練及測(cè)試數(shù)據(jù)輸入到分類(lèi)器中,查看其識(shí)別效果。最后為了說(shuō)明本文方法的有效性,在正常情況下和特殊環(huán)境下分別與傳統(tǒng)的性別識(shí)別方法進(jìn)行比較。本文方法在訓(xùn)練分類(lèi)器時(shí)已將各種復(fù)雜環(huán)境包括進(jìn)去,故增強(qiáng)了分類(lèi)器的魯棒性,性別分類(lèi)的特征依據(jù)由神經(jīng)網(wǎng)絡(luò)自動(dòng)分析提取,簡(jiǎn)化了人體第二性特征的提取步驟,其性能優(yōu)于傳統(tǒng)的性別識(shí)別方法。1局部二元模式傳統(tǒng)的性別識(shí)別方法主要是基于人臉圖像的特征提取后進(jìn)行識(shí)別,如文獻(xiàn),也有基于步態(tài)、鞋子等作為研究對(duì)象的,但特征提取均是不可或缺的步驟。在圖像進(jìn)行預(yù)處理后,圖像所包含的信息量還是相當(dāng)大,為更有效地進(jìn)行性別識(shí)別,必須對(duì)原始圖像進(jìn)行相應(yīng)處理,以提取有效的信息,有助于模式分類(lèi)。在數(shù)學(xué)上,上述特征提取過(guò)程就是從測(cè)量空間到特征空間的一種映射變換。該變換必須符合兩個(gè)準(zhǔn)則:特征空間必須包含測(cè)量空間的主要分類(lèi)信息;特征空間的維數(shù)必須遠(yuǎn)低于測(cè)量空間的維數(shù)。特征提取技術(shù)主要有:梯度方向直方圖(HistogramofOrientedGradient,HOG),其描述了像素點(diǎn)鄰域內(nèi)像素灰度值變化的特征,梯度的大小表示該像素點(diǎn)附近灰度值變換的劇烈程度,梯度的方向表示該像素點(diǎn)附近灰度值變化的方向,在輪廓明顯的情況下提取效果較好,但也存在一定的問(wèn)題,如背景和前景區(qū)分不明顯時(shí)提取效果較差,也容易受噪聲的影響。局部二元模式(LocalBinaryPattern,LBP),其利用圖像像素及其鄰域位置內(nèi)的其他像素信息一起進(jìn)行計(jì)算,得到一種魯棒的紋理信息表示,紋理信息的表示方法可以由編碼表實(shí)現(xiàn),量化后可以有效地消除光照對(duì)圖像單個(gè)像素的影響,基本的LBP特征提取方法如下:(1)以像素點(diǎn)gc為中心,取其8鄰域,即圖1中灰度值為151的點(diǎn)。(2)以點(diǎn)的灰度值為閾值,對(duì)8領(lǐng)域進(jìn)行二值化處理。(3)將二值化得到的二進(jìn)制序列作為一個(gè)8位二進(jìn)制數(shù),并將該二進(jìn)制數(shù)轉(zhuǎn)化為10進(jìn)制即為gc點(diǎn)處LBP算子的值,其具體原理如圖1所示。由圖1可知,點(diǎn)gc的灰度值為151,其LBP碼為00111100。其它特征提取方式還有:尺度不變特征變換(ScaleInvariantFeatureTransform,SIFT)、形狀上下文(ShapeContext)等。由于性別分類(lèi)是個(gè)典型的二類(lèi)問(wèn)題,可根據(jù)經(jīng)驗(yàn)值進(jìn)行單閾值劃分,也可使用機(jī)器學(xué)習(xí)理論,尋找特征數(shù)據(jù)的規(guī)律,以進(jìn)行數(shù)據(jù)的分類(lèi)和預(yù)測(cè),常見(jiàn)的有基于支持向量機(jī)(SupportVectorMachine,SVM),即根據(jù)特征數(shù)據(jù)來(lái)尋找決策函數(shù)f(x)。其主要優(yōu)點(diǎn)有:專(zhuān)門(mén)針對(duì)有限樣本情況下的最優(yōu)解;算法最終將問(wèn)題轉(zhuǎn)化為一個(gè)二次尋優(yōu)問(wèn)題,理論上可以得到全局最優(yōu)解;算法本質(zhì)上將實(shí)際問(wèn)題通過(guò)非線(xiàn)性變換轉(zhuǎn)換到高維的特征空間,在高維特征空間中用線(xiàn)性判別函數(shù)來(lái)實(shí)現(xiàn)低維空間中的非線(xiàn)性判別函數(shù)的功能,故SVM有一定的推廣能力。為說(shuō)明本文方法的有效性,將其與傳統(tǒng)性別識(shí)別方法作比較,傳統(tǒng)性別識(shí)別方法特征提取部分采用局部二元模式,其中檢測(cè)數(shù)據(jù)采用CMUPIE圖像集人臉庫(kù)。2基于神經(jīng)元的腦功能研究人工神經(jīng)網(wǎng)絡(luò)(ArtificialNeuralNetwork,ANN)是由大量簡(jiǎn)單且高度互聯(lián)的神經(jīng)元所組成的復(fù)雜網(wǎng)絡(luò)計(jì)算系統(tǒng),其反映了腦功能的若干基本特征,是模擬人工智能的一條重要途徑?;谏窠?jīng)網(wǎng)絡(luò)的性別識(shí)別方法是先將數(shù)據(jù)進(jìn)行高斯濾波,以減少噪聲、背景光源等帶來(lái)的影響,然后將處理后的數(shù)據(jù)輸入神經(jīng)網(wǎng)絡(luò),對(duì)其進(jìn)行訓(xùn)練,達(dá)到要求后保存神經(jīng)網(wǎng)絡(luò),即可得到基于神經(jīng)網(wǎng)絡(luò)的性別分類(lèi)器。2.1圖像表面織構(gòu)由于在獲取圖像時(shí)存在著一定的高斯白噪聲,不均勻光照等,都會(huì)影響識(shí)別效果,故在進(jìn)行性別識(shí)別前必須要對(duì)圖像進(jìn)行預(yù)處理,減少噪聲等帶來(lái)的影響,以提高識(shí)別率。較為典型的預(yù)處理方法有均值濾波、中值濾波、高斯濾波等,均值濾波對(duì)圖像有平滑的作用,但容易使圖像中物體輪廓邊緣模糊,模板尺寸選取不合適會(huì)導(dǎo)致細(xì)節(jié)信息的丟失。中值濾波對(duì)椒鹽噪聲效果較好,考慮到人臉各部位油性程度不同,具體如圖2(a)所示,臉頰、額頭等部位相對(duì)油性較大,從而導(dǎo)致明暗差距較大,文中采用高斯低通濾波。二維高斯低通濾波函數(shù)如式(1)所示式中,D(u,v)表示距傅里葉變換原點(diǎn)的距離;σ表示高斯曲線(xiàn)的曲張程度,也是其截至頻率。圖2為耶魯大學(xué)人臉庫(kù)中男子的一幅臉部圖像,對(duì)其進(jìn)行高斯低通濾波,濾波器尺寸為3×3,σ取0.5。由圖2可知,經(jīng)高斯濾波后,有效地去除了白噪聲,并對(duì)不均勻光照帶來(lái)的影響有了一定的抑制,去除了圖像中因噪聲產(chǎn)生的灰度值階躍畸變,減少了圖像中人臉虛假特征點(diǎn),使圖像更加平滑,更有利于神經(jīng)網(wǎng)絡(luò)的判斷識(shí)別。2.2隱層網(wǎng)絡(luò)設(shè)計(jì)在對(duì)數(shù)據(jù)預(yù)處理后,為得到基于神經(jīng)網(wǎng)絡(luò)的性別分類(lèi)器,需先設(shè)計(jì)一個(gè)神經(jīng)網(wǎng)絡(luò),對(duì)其進(jìn)行訓(xùn)練以得到分類(lèi)器,最后對(duì)分類(lèi)器進(jìn)行測(cè)試,若不符合要求則重新設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)并訓(xùn)練。根據(jù)神經(jīng)網(wǎng)絡(luò)的特點(diǎn),選取了基于誤差反向傳播算法的多層前饋網(wǎng)絡(luò),其可以逼近任意精度的連續(xù)函數(shù),廣泛應(yīng)用于模式分類(lèi)、非線(xiàn)性建模、函數(shù)逼近等。BP網(wǎng)絡(luò)的設(shè)計(jì)主要考慮網(wǎng)絡(luò)層數(shù)、輸入輸出層節(jié)點(diǎn)數(shù)、隱層節(jié)點(diǎn)數(shù)、傳輸函數(shù)、訓(xùn)練算法等。在模式樣本較少的情況下,通常選取只含一個(gè)隱層的BP網(wǎng)絡(luò),其節(jié)點(diǎn)數(shù)也較少。但當(dāng)模式樣本較多時(shí),若采用單隱層網(wǎng)絡(luò)必將會(huì)導(dǎo)致隱層節(jié)點(diǎn)數(shù)大量增加,為減少單層網(wǎng)絡(luò)的規(guī)模,提高訓(xùn)練、識(shí)別的效率,故可通過(guò)增加隱層數(shù)來(lái)解決。因?yàn)橛糜谛詣e識(shí)別的人臉圖像模式較多,以耶魯大學(xué)人臉庫(kù)為例,其圖像大小為100×100,8位的灰度圖像,其模式較多,故本文在設(shè)計(jì)時(shí)采用6個(gè)隱層。隱層節(jié)點(diǎn)數(shù)與求解問(wèn)題的要求、輸入輸出單元數(shù)等有一定的關(guān)系,過(guò)多會(huì)導(dǎo)致學(xué)習(xí)時(shí)間過(guò)長(zhǎng),而過(guò)少會(huì)使容錯(cuò)能力下降,導(dǎo)致識(shí)別錯(cuò)誤。根據(jù)研究經(jīng)驗(yàn),可參考式(2)進(jìn)行設(shè)計(jì)式中,n為隱層節(jié)點(diǎn)數(shù);n1為輸入節(jié)點(diǎn)數(shù);n0為輸出節(jié)點(diǎn)數(shù);a為1~10之間的常數(shù)。輸入層維數(shù)和圖像尺寸相同,輸出層維數(shù)為2維,即男性或者女性。數(shù)據(jù)經(jīng)高斯濾波后將其歸一化到[0,1]之間,具體見(jiàn)式(3)式中,g(x,y)為原始圖像(x,y)處的灰度值;f(x,y)為歸一化后的灰度值。BP網(wǎng)路中的傳輸函數(shù)采用S型函數(shù)該函數(shù)無(wú)內(nèi)部狀態(tài)且連續(xù)取值,其輸入\輸出特性為一個(gè)有最大輸出值的非線(xiàn)性Sigmoid曲線(xiàn),反映了神經(jīng)元的飽和特性,在有限范圍內(nèi)有抑制噪聲的作用。訓(xùn)練算法采用變學(xué)習(xí)率動(dòng)量梯度下降算法,在Matlab中為traingdx,其綜合了附加動(dòng)量法和自適應(yīng)學(xué)習(xí)速率法,在同類(lèi)算法中內(nèi)存需求較小,學(xué)習(xí)速度快。在實(shí)際應(yīng)用中運(yùn)算速度快,只迭代了400次就達(dá)到了0.0001的誤差,基本符合要求。3圖像特征對(duì)比為說(shuō)明本文算法的有效性,將本算法與傳統(tǒng)的性別識(shí)別算法作比較,并在加噪聲、圖像旋轉(zhuǎn)情況下測(cè)試其識(shí)別率,以驗(yàn)證其魯棒性。算法在PC機(jī)上運(yùn)行,CPU為Inteli532103.0GHz,RAM為DDR31600容量4GB,以Matlab2012b為軟件開(kāi)發(fā)環(huán)境。訓(xùn)練用的人臉圖像庫(kù)采用CMUPIE圖像集,其包括來(lái)自68個(gè)人的40000張照片,每個(gè)人的13種姿態(tài)條件,43種光照條件和4種表情下的照片,測(cè)試用人臉圖像庫(kù)采用Yale圖像集,其包括15人,每人11張照片,主要包括光照條件和表情的變化,圖像分辨率均調(diào)整為100×100,灰度級(jí)為8位。在文中傳統(tǒng)的性別識(shí)別算法采用局部二元模式提取臉部第二性特征,主要是胡子、眉毛,并采用單閾值法進(jìn)行識(shí)別。測(cè)試用部分人臉圖像如圖3所示。由圖像可知,單從人臉圖像的第二性特征進(jìn)行性別識(shí)別,其差異并不明顯,故在識(shí)別時(shí)存在一定的誤差。其識(shí)別率結(jié)果如表1所示。如表1所示,本文算法在識(shí)別率上有了一定的提高,特別是在抗噪聲方面比傳統(tǒng)算法有所提高,其主要原因是神經(jīng)網(wǎng)絡(luò)通過(guò)學(xué)習(xí)、訓(xùn)練可以自動(dòng)提取特征,并具有一定的容錯(cuò)能力。表1中加入椒鹽噪聲的情況如圖4(a)所示。為進(jìn)一步測(cè)試本文算法的魯棒性,文中將圖像(Yale圖像集)進(jìn)行逆時(shí)針旋轉(zhuǎn),具體如圖4(b)所示,最大旋轉(zhuǎn)角度為45°,并與傳統(tǒng)算法相比,其實(shí)驗(yàn)結(jié)果如圖5所示。由圖5可知,文中算法具有一定的幾何不變性,旋轉(zhuǎn)角度在0°~45°變化時(shí)識(shí)別率保持在0.75以上,而傳統(tǒng)算法識(shí)別率較低,均值約為0.4,最低僅為0.3。為兼顧收斂速度和準(zhǔn)確性,算法采用6個(gè)隱層的BP網(wǎng)絡(luò),在訓(xùn)練時(shí)采用變學(xué)習(xí)率動(dòng)量梯度下降算法。通過(guò)實(shí)驗(yàn)可知,基于神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法比傳統(tǒng)算法具有更高的識(shí)別率,其魯棒性也得到了
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 浙江農(nóng)林大學(xué)《體育統(tǒng)計(jì)學(xué)(含體育測(cè)量與評(píng)價(jià))》2023-2024學(xué)年第二學(xué)期期末試卷
- 《歸去來(lái)兮辭》教學(xué)設(shè)計(jì) 2023-2024學(xué)年統(tǒng)編版高中語(yǔ)文選擇性必修下冊(cè)
- 天津理工大學(xué)中環(huán)信息學(xué)院《有毒有害物質(zhì)檢測(cè)》2023-2024學(xué)年第二學(xué)期期末試卷
- 中國(guó)美術(shù)學(xué)院《財(cái)務(wù)信息系統(tǒng)》2023-2024學(xué)年第二學(xué)期期末試卷
- 西藏警官高等專(zhuān)科學(xué)校《全媒體新聞評(píng)論》2023-2024學(xué)年第二學(xué)期期末試卷
- 大連科技學(xué)院《工程項(xiàng)目管理A》2023-2024學(xué)年第二學(xué)期期末試卷
- 廣西工商職業(yè)技術(shù)學(xué)院《制藥分離工程》2023-2024學(xué)年第二學(xué)期期末試卷
- 重慶交通大學(xué)《會(huì)計(jì)信息系統(tǒng)(一)》2023-2024學(xué)年第二學(xué)期期末試卷
- 瀘州四川瀘州市國(guó)有土地上房屋征收補(bǔ)償中心(瀘州市物業(yè)管理中心)招聘編外人員筆試歷年參考題庫(kù)附帶答案詳解
- 泰州2025年江蘇泰州市第四人民醫(yī)院招聘合同制人員27人筆試歷年參考題庫(kù)附帶答案詳解
- ESAP法律英語(yǔ)教程全冊(cè)配套優(yōu)質(zhì)教學(xué)課件
- 水資源保護(hù)知識(shí)競(jìng)賽試題及答案
- 道路清掃保潔-組織機(jī)構(gòu)框架圖、內(nèi)部分工
- PCB制程漲縮系數(shù)操作指引
- 標(biāo)準(zhǔn) DB37T 3690.1-2019 液體菌種制備技術(shù)規(guī)程 第1部分:香菇規(guī)范
- 2021五年級(jí)道德與法治培優(yōu)輔差計(jì)劃3篇
- 靜脈藥物配置中心課件
- 最新2022年減肥食品市場(chǎng)現(xiàn)狀與發(fā)展趨勢(shì)預(yù)測(cè)
- 發(fā)展?jié)h語(yǔ)初級(jí)綜合1:第30課PPT課件[通用]
- 馬工程西方經(jīng)濟(jì)學(xué)(第二版)教學(xué)課件-(4)
- 醫(yī)療廢物管理組織機(jī)構(gòu)架構(gòu)圖
評(píng)論
0/150
提交評(píng)論