人臉識(shí)別主要算法原_第1頁(yè)
人臉識(shí)別主要算法原_第2頁(yè)
人臉識(shí)別主要算法原_第3頁(yè)
人臉識(shí)別主要算法原_第4頁(yè)
人臉識(shí)別主要算法原_第5頁(yè)
已閱讀5頁(yè),還剩5頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

#基于KL變換的特征人臉識(shí)別方法基本原理:KL變換是圖象壓縮中的一種最優(yōu)正交變換,人們將它用于統(tǒng)計(jì)特征提取,從而形成了子空間法模式識(shí)別的基礎(chǔ),若將KL變換用于人臉識(shí)別,則需假設(shè)人臉處于低維線(xiàn)性空間,且不同人臉具有可分性,由于高維圖象空間KL變換后可得到一組新的正交基,因此可通過(guò)保留部分正交基,以生成低維人臉空間,而低維空間的基則是通過(guò)分析人臉訓(xùn)練樣本集的統(tǒng)計(jì)特性來(lái)獲得,KL變換的生成矩陣可以是訓(xùn)練樣本集的總體散布矩陣,也可以是訓(xùn)練樣本集的類(lèi)間散布矩陣,即可采用同一人的數(shù)張圖象的平均來(lái)進(jìn)行訓(xùn)練,這樣可在一定程度上消除光線(xiàn)等的干擾,且計(jì)算量也得到減少,而識(shí)別率不會(huì)下降。基于彈性模型的方法Lades等人針對(duì)畸變不變性的物體識(shí)別提出了動(dòng)態(tài)鏈接模型(DLA),將物體用稀疏圖形來(lái)描述(見(jiàn)下圖),其頂點(diǎn)用局部能量譜的多尺度描述來(lái)標(biāo)記,邊則表示拓?fù)溥B接關(guān)系并用幾何距離來(lái)標(biāo)記,然后應(yīng)用塑性圖形匹配技術(shù)來(lái)尋找最近的已知圖形。Wiscott等人在此基礎(chǔ)上作了改進(jìn),用FERET圖像庫(kù)做實(shí)驗(yàn),用300幅人臉圖像和另外300幅圖像作比較,準(zhǔn)確率達(dá)到97.3%。此方法的缺點(diǎn)是計(jì)算量非常巨大。Nastar將人臉圖像(I)(x,y)建模為可變形的3D網(wǎng)格表面(x,y,I(x,y))(如下圖所示),從而將人臉匹配問(wèn)題轉(zhuǎn)化為可變形曲面的彈性匹配問(wèn)題。利用有限元分析的方法進(jìn)行曲面變形,并根據(jù)變形的情況判斷兩張圖片是否為同一個(gè)人。這種方法的特點(diǎn)在于將空間(x,y)和灰度I(x,y)放在了一個(gè)3口空間中同時(shí)考慮,實(shí)驗(yàn)表明識(shí)別結(jié)果明顯優(yōu)于特征臉?lè)椒?。Lanitis等提出靈活表現(xiàn)模型方法,通過(guò)自動(dòng)定位人臉的顯著特征點(diǎn)將人臉編碼為83個(gè)模型參數(shù),并利用辨別分析的方法進(jìn)行基于形狀信息的人臉識(shí)別。彈性圖匹配技術(shù)是一種基于幾何特征和對(duì)灰度分布信息進(jìn)行小波紋理分析相結(jié)合的識(shí)別算法,由于該算法較好的利用了人臉的結(jié)構(gòu)和灰度分布信息,而且還具有自動(dòng)精確定位面部特征點(diǎn)的功能,因而具有良好的識(shí)別效果,適應(yīng)性強(qiáng)識(shí)別率較高,該技術(shù)在FERET測(cè)試中若干指標(biāo)名列前茅,其缺點(diǎn)是時(shí)間復(fù)雜度高,速度較慢,實(shí)現(xiàn)復(fù)雜。神經(jīng)網(wǎng)絡(luò)方法(NeuralNetworks)人工神經(jīng)網(wǎng)絡(luò)是一種非線(xiàn)性動(dòng)力學(xué)系統(tǒng),具有良好的自組織、自適應(yīng)能力。目前神經(jīng)網(wǎng)絡(luò)方法在人臉識(shí)別中的研究方興未艾。Valentin提出一種方法,首先提取人臉的50個(gè)主元,然后用自相關(guān)神經(jīng)網(wǎng)絡(luò)將它映射到5維空間中,再用一個(gè)普通的多層感知器進(jìn)行判別,對(duì)一些簡(jiǎn)單的測(cè)試圖像效果較好;Intrator等提出了一種混合型神經(jīng)網(wǎng)絡(luò)來(lái)進(jìn)行人臉識(shí)別,其中非監(jiān)督神經(jīng)網(wǎng)絡(luò)用于特征提取,而監(jiān)督神經(jīng)網(wǎng)絡(luò)用于分類(lèi)。Lee等將人臉的特點(diǎn)用六條規(guī)則描述,然后根據(jù)這六條規(guī)則進(jìn)行五官的定位,將五官之間的幾何距離輸入模糊神經(jīng)網(wǎng)絡(luò)進(jìn)行識(shí)別,效果較一般的基于歐氏距離的方法有較大改善,Laurence等采用卷積神經(jīng)網(wǎng)絡(luò)方法進(jìn)行人臉識(shí)別,由于卷積神經(jīng)網(wǎng)絡(luò)中集成了相鄰像素之間的相關(guān)性知識(shí),從而在一定程度上獲得了對(duì)圖像平移、旋轉(zhuǎn)和局部變形的不變性,因此得到非常理想的識(shí)別結(jié)果,Lin等提出了基于概率決策的神經(jīng)網(wǎng)絡(luò)方法(PDBNN),其主要思想是采用虛擬(正反例)樣本進(jìn)行強(qiáng)化和反強(qiáng)化學(xué)習(xí),從而得到較為理想的概率估計(jì)結(jié)果,并采用模塊化的網(wǎng)絡(luò)結(jié)構(gòu)(OCON)加快網(wǎng)絡(luò)的學(xué)習(xí)。這種方法在人臉檢測(cè)、人臉定位和人臉識(shí)別的各個(gè)步驟上都得到了較好的應(yīng)用,其它研究還有:Dai等提出用Hopfield網(wǎng)絡(luò)進(jìn)行低分辨率人臉聯(lián)想與識(shí)別,Gutta等提出將RBF與樹(shù)型分類(lèi)器結(jié)合起來(lái)進(jìn)行人臉識(shí)別的混合分類(lèi)器模型,Phillips等人將MatchingPursuit濾波器用于人臉識(shí)別,國(guó)內(nèi)則采用統(tǒng)計(jì)學(xué)習(xí)理論中的支撐向量機(jī)進(jìn)行人臉?lè)诸?lèi)。神經(jīng)網(wǎng)絡(luò)方法在人臉識(shí)別上的應(yīng)用比起前述幾類(lèi)方法來(lái)有一定的優(yōu)勢(shì),因?yàn)閷?duì)人臉識(shí)別的許多規(guī)律或規(guī)則進(jìn)行顯性的描述是相當(dāng)困難的,而神經(jīng)網(wǎng)絡(luò)方法則可以通過(guò)學(xué)習(xí)的過(guò)程獲得對(duì)這些規(guī)律和規(guī)則的隱性表達(dá),它的適應(yīng)性更強(qiáng),一般也比較容易實(shí)現(xiàn)。因此人工神經(jīng)網(wǎng)絡(luò)識(shí)別速度快,但識(shí)別率低。而神經(jīng)網(wǎng)絡(luò)方法通常需要將人臉作為一個(gè)一維向量輸入,因此輸入節(jié)點(diǎn)龐大,其識(shí)別重要的一個(gè)目標(biāo)就是降維處理。PCA的算法描述:利用主元分析法(即PrincipleComponentAnalysis,簡(jiǎn)稱(chēng)PCA)進(jìn)行識(shí)別是由Anderson和Kohonen提出的。由于PCA在將高維向量向低維向量轉(zhuǎn)化時(shí),使低維向量各分量的方差最大,且各分量互不相關(guān),因此可以達(dá)到最優(yōu)的特征抽取。其它方法:除了以上幾種方法,人臉識(shí)別還有其它若干思路和方法,包括一下一些:隱馬爾可夫模型方法(HiddenMarkovModel)Gabor小波變換+圖形匹配(1)精確抽取面部特征點(diǎn)以及基于Gabor引擎的匹配算法,具有較好的準(zhǔn)確性,能夠排除由于面部姿態(tài)、表情、發(fā)型、眼鏡、照明環(huán)境等帶來(lái)的變化。(2)Gabor濾波器將Gaussian網(wǎng)絡(luò)函數(shù)限制為一個(gè)平面波的形狀,并且在濾波器設(shè)計(jì)中有優(yōu)先方位和頻率的選擇,表現(xiàn)為對(duì)線(xiàn)條邊緣反應(yīng)敏感。(3)但該算法的識(shí)別速度很慢,只適合于錄象資料的回放識(shí)別,對(duì)于現(xiàn)場(chǎng)的適應(yīng)性很差。人臉等密度線(xiàn)分析匹配方法多重模板匹配方法該方法是在庫(kù)中存貯若干標(biāo)準(zhǔn)面像模板或面像器官模板,在進(jìn)行比對(duì)時(shí),將采樣面像所有象素與庫(kù)中所有模板采用歸一化相關(guān)量度量進(jìn)行匹配。(2)線(xiàn)性判別分析方法(LinearDiscriminantAnalysis,LDA)(3)本征臉?lè)ū菊髂樂(lè)▽D像看做矩陣,計(jì)算本征值和對(duì)應(yīng)的本征向量作為代數(shù)特征進(jìn)行識(shí)別,具有無(wú)需提取眼嘴鼻等幾何特征的優(yōu)點(diǎn),但在單樣本時(shí)識(shí)別率不高,且在人臉模式數(shù)較大時(shí)計(jì)算量大(4)特定人臉子空間555)算法該技術(shù)來(lái)源于但在本質(zhì)上區(qū)別于傳統(tǒng)的"特征臉"人臉識(shí)別方法。"特征臉"方法中所有人共有一個(gè)人臉子空間,而該方法則為每一個(gè)體人臉建立一個(gè)該個(gè)體對(duì)象所私有的人臉子空間,從而不但能夠更好的描述不同個(gè)體人臉之間的差異性,而且最大可能地?cái)P棄了對(duì)識(shí)別不利的類(lèi)內(nèi)差異性和噪聲,因而比傳統(tǒng)的"特征臉?biāo)惴?具有更好的判別能力。另外,針對(duì)每個(gè)待識(shí)別個(gè)體只有單一訓(xùn)練樣本的人臉識(shí)別問(wèn)題,提出了一種基于單一樣本生成多個(gè)訓(xùn)練樣本的技術(shù),從而使得需要多個(gè)訓(xùn)練樣本的個(gè)體人臉子空間方法可以適用于單訓(xùn)練樣本人臉識(shí)別問(wèn)題。(5)奇異值分解(singularvaluedecompositi

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論