人臉識(shí)別的主要方法_第1頁
人臉識(shí)別的主要方法_第2頁
人臉識(shí)別的主要方法_第3頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、1.1人臉識(shí)別的主要方法目前,國內(nèi)外人臉識(shí)別的方法很多,并且不斷有新的研究成果出現(xiàn)。人臉識(shí)別的方法根 據(jù)研究角度的不同,有不同的分類方法。根據(jù)輸入圖像中人臉的角度不同,可以分為正面, 側(cè)面,傾斜的人臉圖像的識(shí)別;根據(jù)圖像來源的不同,可分為靜態(tài)和動(dòng)態(tài)的人臉識(shí)別;根據(jù) 輸入圖像的特點(diǎn),又可分為灰度圖像和彩色圖像的人臉識(shí)別等等。本文重點(diǎn)研究基于正面的、 靜態(tài)的灰度圖像的識(shí)別方法。對(duì)于靜態(tài)的人臉識(shí)別方法從總體上看可以分為三大類:一是基于統(tǒng)計(jì)的識(shí)別方法,主要 包括特征臉(Eigenface)方法和隱馬爾科夫模型(Hidden Markov Model簡(jiǎn)稱HMM)方法等;二 是基于連接機(jī)制的識(shí)別方法,包括

2、人工神經(jīng)網(wǎng)路(Artifical Neural Network簡(jiǎn)稱ANN)方法和 彈性圖匹配(Elastic Bunch Graph Matching簡(jiǎn)稱EBGM)方法等;三是一些其他的綜合方法及 處理非二維灰度圖像的方法。下面分別進(jìn)行介紹。1.1.1基于特征臉的方法特征臉方法5,又稱為主成份分析法(Principal Component Analysis簡(jiǎn)稱PCA),它是 20世紀(jì)90年代初期由Turk和Pentland提出的,是一種經(jīng)典的算法。它根據(jù)圖像的統(tǒng)計(jì) 特征進(jìn)行正交變換(即K-L變換),以消除原有向量各個(gè)分量之間的相關(guān)性。變換得到對(duì)應(yīng) 特征值依次遞減的特征向量,即特征臉。特征臉方法

3、的基本思想是將圖像經(jīng)過K-L變換后由高維向量轉(zhuǎn)換為低維向量,并形成 低維線性向量空間,利用人臉投影到這個(gè)低維空間所得到的投影系數(shù)作為識(shí)別的特征矢量。 這樣,就產(chǎn)生了一個(gè)由“特征臉”矢量張成的子空間,稱為“人臉子空間”或“特征子空間”, 每一幅人臉圖像向其投影都可以獲得一組坐標(biāo)系數(shù),這組坐標(biāo)系數(shù)表明了人臉在子空間中的 位置,因此利用特征臉方法可以重建和識(shí)別人臉。通過人臉向量向特征子空間作投影得到的向量稱之為主分量或特征主分量。主分量特征 具有如下性質(zhì):主分量特征具有很強(qiáng)的信息壓縮能力。對(duì)于任何屬于樣本空間的人臉模式都有唯一的主分量特征與之相對(duì)應(yīng)。主分量特征具有穩(wěn)定性。即當(dāng)輸入的人臉模式向量有微小

4、變化時(shí),其對(duì)應(yīng)的主分量特征 變化將小于輸入模式的變化。這一點(diǎn)對(duì)于模式的分類是非常有利的。經(jīng)過變換矩陣的映射,隨著空間維數(shù)的降低,模式之間的距離也得以縮小,從而避免了 在高維空間中進(jìn)行分類的復(fù)雜性由于PCA方法主要是利用了 K-L變換,因此它具有良好的穩(wěn)定性、位移不變性、特 征向量與圖像的高度成比例變化以及轉(zhuǎn)置不變性,且K-L變換是統(tǒng)計(jì)最優(yōu)的、具有速度快, 實(shí)現(xiàn)方便、對(duì)正面圖像識(shí)別率高等特點(diǎn),但是特征臉的不足之處是容易受人臉姿態(tài)和表情, 光照改變及位移改變等因素的影響。為了克服這些缺點(diǎn),研究人員提出了許多改進(jìn)方案,如Bartlett等采用獨(dú)立分量分析 (ICA,Independent Compo

5、nent Analysis)的方法識(shí)別人臉;將特征臉與線性判別函數(shù)相結(jié)合的 Fisher臉方法等。現(xiàn)在還出現(xiàn)了很多其他子空間的人臉識(shí)別方法,如借鑒SVM的Kernel方 法,PCA,IDA等都被擴(kuò)展到Kernel PCA和 Kernel ICA等等。從以上介紹不難發(fā)現(xiàn),利用特征臉方法進(jìn)行人臉識(shí)別有其他人臉識(shí)別方法無法取代的優(yōu) 勢(shì),因此在人臉識(shí)別領(lǐng)域,特征子空間的方法仍是人們研究的一個(gè)熱門方向。1.1.2基于幾何特征的人臉識(shí)別方法基于幾何特征的方法,有時(shí)也稱為結(jié)構(gòu)匹配方法,是早期的人臉識(shí)別方法6,7,該方法 常采用的幾何特征有人臉的五官如眼睛、鼻子、嘴巴等的局部形狀特征,臉型特征以及五官 在臉上

6、分布的幾何特征。因此該方法需要先檢測(cè)人臉的眼睛,眉毛,鼻子和嘴巴等各種幾何 特征,然后將特征點(diǎn)的位置,距離和角度等各個(gè)特征和相互的聯(lián)系用作人臉識(shí)別的特征。提 取特征時(shí)往往要用到人臉結(jié)構(gòu)的一些先驗(yàn)知識(shí)。在這種基于幾何特征的識(shí)別中,識(shí)別歸為特 征矢量之間的匹配,其中基于歐氏距離的判決是最常用的識(shí)別方法?;趲缀翁卣鞯淖R(shí)別方法具有如下優(yōu)點(diǎn):符合人類識(shí)別人臉的機(jī)理,易于理解;存儲(chǔ)量 小,對(duì)每幅圖像只需存儲(chǔ)一個(gè)特征矢量;具有光照不變性;模板匹配高識(shí)別率等。但這種方 法存在如下問題:對(duì)強(qiáng)烈的表情變化和姿態(tài)變化的魯棒性較差;從圖像中抽取穩(wěn)定的特征比 較困難,特別是特征受到遮擋時(shí)。因此一般不單獨(dú)利用基于幾何特

7、征的方法進(jìn)行人臉識(shí)別, 而是和其他方法結(jié)合使用。1.1.3彈性圖匹配的方法彈性圖匹配法最早由Lades在1993年提出的8。該方法使用一種基于動(dòng)態(tài)鏈接結(jié)構(gòu) 的彈性匹配法來定位人臉,并根據(jù)已有人臉數(shù)據(jù)庫進(jìn)行匹配識(shí)別。彈性圖匹配法將人臉用格 狀的稀疏圖形描述,圖形中的每個(gè)節(jié)點(diǎn)用圖像位置的Gabor小波分解得到的特征向量標(biāo)記, 這些特征向量記錄人臉在該頂點(diǎn)位置的分布信息,稀疏圖的邊用連接節(jié)點(diǎn)的距離向量標(biāo)記, 表示連接關(guān)系。在進(jìn)行匹配的時(shí)候,先尋找與輸入圖像的最相似的模型圖,再對(duì)圖中的每個(gè) 節(jié)點(diǎn)位置進(jìn)行最佳匹配。彈性匹配方法提取了人臉圖像的局部特征,同時(shí)保留了人臉圖像的 空間信息,可以在一定程度上容忍

8、人臉從三維到二維投影引起的變形。由于Gabor變換具 有局部性、帶通性以及方向選擇性,能夠很好地提取目標(biāo)的本質(zhì)特征,對(duì)于目標(biāo)局部變換、 小的旋轉(zhuǎn)、以及光照改變等情況都能得到較好的識(shí)別。彈性模板的方法考慮了人臉的特征和 非剛性,因此該方法的識(shí)別率較高,但是計(jì)算量非常大識(shí)別速度慢。1.1.4基于人工神經(jīng)網(wǎng)絡(luò)的方法神經(jīng)網(wǎng)絡(luò)方法在人臉識(shí)別的應(yīng)用中有很長的歷史,如早期的 Kohonen自聯(lián)想映射網(wǎng) 絡(luò),后來出現(xiàn)的BP網(wǎng)絡(luò)、SOM網(wǎng)絡(luò)等。人工神經(jīng)網(wǎng)絡(luò)(ANN)是在對(duì)大腦的生理研究成果 的基礎(chǔ)上,用機(jī)器來模擬大腦的某些機(jī)理與機(jī)制,實(shí)現(xiàn)某方面功能的方法,它具有強(qiáng)大的非 線性逼近能力。它即可以做特征提取器,又可

9、以做分類器。神經(jīng)網(wǎng)絡(luò)中的神經(jīng)元是對(duì)人類大 腦神經(jīng)單元的一種簡(jiǎn)化,神經(jīng)網(wǎng)絡(luò)以這些具有非線性映射能力的神經(jīng)元為節(jié)點(diǎn),神經(jīng)元之間 通過加權(quán)系數(shù)連接。目前,比較有代表性的方法有混合型神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)、基于概 率決策的神經(jīng)網(wǎng)絡(luò)、主元神經(jīng)網(wǎng)絡(luò)等。將神經(jīng)網(wǎng)絡(luò)應(yīng)用在人臉識(shí)別中,實(shí)際上是把模型的統(tǒng)計(jì)特征隱含于神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和參 數(shù)中。通過神經(jīng)網(wǎng)絡(luò)各神經(jīng)元之間的相互關(guān)系體現(xiàn)人臉特征之間的內(nèi)部聯(lián)系。人工神經(jīng)網(wǎng)絡(luò) 方法的優(yōu)點(diǎn)很多,如適應(yīng)性更強(qiáng)、比較容易實(shí)現(xiàn),但其也存在網(wǎng)絡(luò)難以收斂、訓(xùn)練時(shí)間長等 問題。神經(jīng)網(wǎng)絡(luò)方法在人臉識(shí)別上的應(yīng)用和其他幾類方法比較有一定的優(yōu)勢(shì)9,因?yàn)閷?duì)人臉 識(shí)別的許多規(guī)律或規(guī)則進(jìn)行顯性的描述是

10、相當(dāng)困難的,而神經(jīng)網(wǎng)絡(luò)方法則可以通過學(xué)習(xí)的過 程獲得對(duì)這些規(guī)律和規(guī)則的隱性表達(dá)10,它的適應(yīng)性更強(qiáng),一般也比較容易實(shí)現(xiàn)。1.1.5基于支持向量機(jī)的方法支持向量機(jī)(Support Vector Machine簡(jiǎn)稱SVM)的方法,起源于統(tǒng)計(jì)學(xué)習(xí)理論,它研 究如何構(gòu)造學(xué)習(xí)機(jī),實(shí)現(xiàn)模式分類問題。其基本思想是通過非線性變換將輸入空間變換 到一個(gè)高維空間,在高維空間求取最優(yōu)線性分類面,以解決那些線性不可分的分類問題。 而這種非線性變換是通過定義適當(dāng)?shù)膬?nèi)積函數(shù)(即核函數(shù))來實(shí)現(xiàn)的。由于該方法是基于 結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理,而不是傳統(tǒng)統(tǒng)計(jì)學(xué)的經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化,因而表現(xiàn)出很多優(yōu)于已有 方法的性能。但該方法需要大量的存

11、儲(chǔ)空間,并且訓(xùn)練速度慢。1.1.6隱馬爾可夫模型的方法隱馬爾科夫模型(Hidden Markov Model,HMM)是用于描述信號(hào)概率統(tǒng)計(jì)特性的一組統(tǒng) 計(jì)模型。HMM使用馬爾科夫鏈來模擬信號(hào)統(tǒng)計(jì)特性的變化,而這種變化又是間接地通過觀 察序列來描述的,因此,隱馬爾科夫過程是一個(gè)雙重的隨機(jī)過程。在HMM中,節(jié)點(diǎn)表示 狀態(tài),有向邊表示狀態(tài)之間的轉(zhuǎn)移,一個(gè)狀態(tài)可以具有特征空間中的任意特征,對(duì)同一特征, 不同狀態(tài)表現(xiàn)出這一特征的概率不同。由于HMM是一個(gè)統(tǒng)計(jì)模型,對(duì)于同一特征序列, 可能會(huì)對(duì)應(yīng)于許多狀態(tài)序列,特征序列與狀態(tài)序列之間的對(duì)應(yīng)關(guān)系是非確定的。這種模型對(duì) 于狀態(tài)序列來說是隱的,故稱為隱馬爾科夫

12、模型。隱馬爾可夫模型最初用于一維的語音信號(hào),為了把HMM應(yīng)用于二維的圖像,需要在 圖像上取一個(gè)采樣窗口,該窗口的寬度就是圖像的寬度,高度可能只有幾個(gè)像素,然后將其 在圖像上由上至下滑動(dòng),相鄰窗口之間允許重疊,這樣就把人臉垂直分成了五個(gè)區(qū)域:前額, 眼睛,鼻子,嘴巴,下顎,然后用一個(gè)五狀態(tài)的HMM模型來表達(dá)人臉。馬爾可夫模型的 特性主要用“轉(zhuǎn)移概率”來表示。后一狀態(tài)出現(xiàn)的概率取決于其以前出現(xiàn)過的狀態(tài)次序。這 種方法魯棒性較好、對(duì)不同角度和不同光照條件的人臉圖像都可以取得較好的識(shí)別效果。該 方法實(shí)現(xiàn)的復(fù)雜度高,且識(shí)別效果主要取決于特征定位的準(zhǔn)確性。1.1.7其他綜合方法以上介紹的是幾種典型的人臉識(shí)別方法,從分析中可以看出,每種方法都各有其優(yōu)缺點(diǎn), 因此一些研

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論