![人臉識(shí)別核心算法技術(shù)_第1頁(yè)](http://file3.renrendoc.com/fileroot_temp3/2022-1/6/ed66216b-7764-492b-80c4-41c575d3b9dc/ed66216b-7764-492b-80c4-41c575d3b9dc1.gif)
![人臉識(shí)別核心算法技術(shù)_第2頁(yè)](http://file3.renrendoc.com/fileroot_temp3/2022-1/6/ed66216b-7764-492b-80c4-41c575d3b9dc/ed66216b-7764-492b-80c4-41c575d3b9dc2.gif)
![人臉識(shí)別核心算法技術(shù)_第3頁(yè)](http://file3.renrendoc.com/fileroot_temp3/2022-1/6/ed66216b-7764-492b-80c4-41c575d3b9dc/ed66216b-7764-492b-80c4-41c575d3b9dc3.gif)
![人臉識(shí)別核心算法技術(shù)_第4頁(yè)](http://file3.renrendoc.com/fileroot_temp3/2022-1/6/ed66216b-7764-492b-80c4-41c575d3b9dc/ed66216b-7764-492b-80c4-41c575d3b9dc4.gif)
下載本文檔
版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、人臉識(shí)別核心算法技術(shù)在檢測(cè)到人臉并定位面部關(guān)鍵特征點(diǎn)之后,主要的人臉區(qū)域就可以被裁剪出來(lái),經(jīng)過(guò)預(yù)處理之后,饋入后端的識(shí)別算法。1、在檢測(cè)到人臉并定位面部關(guān)鍵特征點(diǎn)之后,主要的人臉區(qū)域就可以被裁剪出來(lái),經(jīng)過(guò) 預(yù)處理之后,饋入后端的識(shí)別算法。 識(shí)別算法要完成人臉特征的提取,并與庫(kù)存的已知人臉進(jìn)行比對(duì),完成最終的分類(lèi)。我們?cè)谶@方面的主要工作包括:基于LGBP的人臉識(shí)別方法問(wèn)題:統(tǒng)計(jì)學(xué)習(xí)目前已經(jīng)成為人臉識(shí)別領(lǐng)域的主流方法,但實(shí)踐表明,基于統(tǒng)計(jì)學(xué)習(xí)的方法往往會(huì)存在“推廣能力弱”的問(wèn)題,尤其在待識(shí)別圖像“屬性”未知的情況下, 更難以確定采用什么樣的訓(xùn)練圖像來(lái)訓(xùn)練人臉模型。鑒于此,在對(duì)統(tǒng)計(jì)學(xué)習(xí)方法進(jìn)行研究的
2、同時(shí),我們還考慮了非統(tǒng)計(jì)模式識(shí)別的一類(lèi)方法。思路:對(duì)于給定的人臉圖像,LGBPT法首先將其與多個(gè)不同尺度和方向的Gabor濾波器卷積(卷積結(jié)果稱(chēng)為 Gabor特征圖譜)獲得多分辨率的變換圖像。 然后將每個(gè)Gabor特征圖譜劃 分成若干互不相交的局部空間區(qū)域, 對(duì)每個(gè)區(qū)域提取局部鄰域像素的亮度變化模式,并在每個(gè)局部空間區(qū)域內(nèi)提取這些變化模式的空間區(qū)域直方圖,所有Gabor特征圖譜的、所有區(qū)域的直方圖串接為一高維特征直方圖來(lái)編碼人臉圖像。并通過(guò)直方圖之間的相似度匹配技術(shù)(如直方圖交運(yùn)算)來(lái)實(shí)現(xiàn)最終的人臉識(shí)別。在FERET四個(gè)人臉圖像測(cè)試集合上與 FERET97的結(jié)果對(duì)比情況見(jiàn)下表。由此可見(jiàn),該方法
3、具有良好的識(shí)別性能。而且LGBPT法具有計(jì)算速度快、無(wú)需大樣本學(xué)習(xí)、推廣能力強(qiáng)的優(yōu)點(diǎn)。表.LGBP方法與FERET'97最佳結(jié)果的對(duì)比情況對(duì)比算法各制賦子集合性能(苜選正確識(shí)別率)FBFCDup 1Pupil我們的篁法性能SM5-9%73.8%70一 5 乳FEKIT 97最好結(jié)果婚0%59.0%52.0%基于AdaBoost的Gabor特征選擇及判別分析方法問(wèn)題:人臉描述是人臉識(shí)別的核心問(wèn)題之一,人臉識(shí)別的研究實(shí)踐表明:在人臉三維形狀信息難以準(zhǔn)確獲取的條件下,從圖像數(shù)據(jù)中提取多方向、多尺度的Gabor特征是一種合適的選擇。 使用Gabor特征進(jìn)行人臉識(shí)別的典型方法包括彈性圖匹配方法(
4、 EGM和Gabor特征判別分 類(lèi)法(GFC。 EGMB實(shí)用中需要解決關(guān)鍵特征點(diǎn)的定位問(wèn)題,而且其速度也很難提高;而 GF-U直接對(duì)下采樣的 Gabor特征用PCA條維并進(jìn)行判別分析,盡管這避免了精確定位關(guān)鍵 特征點(diǎn)的難題,但下采樣的特征維數(shù)仍然偏高,而且簡(jiǎn)單的下采樣策略很可能遺漏了非常多的有用特征。摘要:針對(duì)上述問(wèn)題,我們考慮如何對(duì)Gabor特征進(jìn)行有效降維,將目前受到極大關(guān)注的AdaBoost算法創(chuàng)新性的應(yīng)用于 Gabor特征的選擇上來(lái),用于提取對(duì)識(shí)別最有利的特征(我 們稱(chēng)這些選擇出來(lái)的 Gabor特征為AdaGabor特征),并最終通過(guò)對(duì) AdaGabor特征的判別分 析實(shí)現(xiàn)識(shí)別(稱(chēng)該方
5、法為AGF加別方法)。在CAS-PEA用FERETA臉圖像庫(kù)上的對(duì)比實(shí)驗(yàn) 表明:AGFGT法不但可以大大降低 Gabor特征的維數(shù)從而可以更加有效地避免“維數(shù)災(zāi)難 問(wèn)題”,降低了計(jì)算復(fù)雜度,同時(shí)識(shí)別精度也有了較大的提高。將AGFC EGM GFCS一步比較可以看出:無(wú)論是 EGM3E是GFC均是主觀的選擇若干面部關(guān)鍵特征點(diǎn)提取人臉的特征 表示,而我們提出的 AGFCT法則是通過(guò)機(jī)器學(xué)習(xí)的方法自動(dòng)的選擇那些對(duì)區(qū)分不同人臉具 有關(guān)鍵作用的Gabor特征。參見(jiàn)下圖所示三者之間的區(qū)別與聯(lián)系。三種不同的人臉建模方法比較示意圖基于SV的Kernel判別分析方法sv-KFD摘要:支持向量機(jī)(SVM和Kern
6、el Fisher分析是利用kernel方法解決線(xiàn)性不可分問(wèn)題的兩 種不同途徑,我們將二者進(jìn)行了有機(jī)結(jié)合。我們首先證明了 SVM最優(yōu)分類(lèi)面的法向量在基于 支持向量的類(lèi)內(nèi)散度矩陣的前提下具有零空間性質(zhì),基于此定義了核化的決策邊界特征矩陣(Kernelized Decision Boundary Feature Matrix,簡(jiǎn)寫(xiě)為 KDBFM ,最后利用基于零空間的Kernel Fisher方法計(jì)算投影空間。我們還進(jìn)一步提出了融合類(lèi)均值向量差及KDBFM來(lái)構(gòu)建擴(kuò)展的決策邊界特征矩陣(EKDBFM的方法,并把這兩種方法成功地應(yīng)用到了人臉識(shí)別領(lǐng)域,在FERET和CAS-PEA嗷據(jù)庫(kù)的實(shí)驗(yàn)結(jié)果表明該方
7、法比傳統(tǒng)人臉識(shí)別算法具有更好 的識(shí)別性能?;谔囟ㄈ四樧涌臻g的人臉識(shí)別方法問(wèn)題:Eigenface是人臉識(shí)別領(lǐng)域最著名的算法之一, 本質(zhì)上是通過(guò) PCA求取人臉圖像分布 的線(xiàn)性子空間,該空間從最佳重構(gòu)的角度反映了所有人臉圖像分布的共性特征,但對(duì)識(shí)別而言,這樣的特征卻未必有利于識(shí)別,識(shí)別任務(wù)需要的是最大可能區(qū)分不同人臉的特征。摘要:“特征臉”方法中所有人共有一個(gè)人臉子空間,而我們的方法則為每一個(gè)體人臉建立一個(gè)該個(gè)體對(duì)象所私有的人臉子空間,從而不但能夠更好的描述不同個(gè)體人臉之間的差異性, 而且最大可能地挨棄了對(duì)識(shí)別不利的類(lèi)內(nèi)差異性和噪聲,因而比傳統(tǒng)的“特征臉?biāo)惴ā本哂懈玫呐袆e能力。另外,針對(duì)每個(gè)
8、待識(shí)別個(gè)體只有單一訓(xùn)練樣本的人臉識(shí)別問(wèn)題,我們提出了一種基于單一樣本生成多個(gè)訓(xùn)練樣本的技術(shù),從而使得需要多個(gè)訓(xùn)練樣本的個(gè)體人臉子空間方法可以適用于單訓(xùn)練樣本人臉識(shí)別問(wèn)題。在Yale Face DatabaseB人臉庫(kù)對(duì)比實(shí)驗(yàn)也表明我們提出的方法比傳統(tǒng)的特征臉?lè)椒?、模板匹配方法?duì)表情、光照、和一定范圍內(nèi)的姿態(tài)變化具有更優(yōu)的識(shí)別性能。2、人體面貌識(shí)別技術(shù)包含三個(gè)部分:(1)人體面貌檢測(cè)面貌檢測(cè)是指在動(dòng)態(tài)的場(chǎng)景與復(fù)雜的背景中判斷是否存在面像,并分離出這種面像。一般有下列幾種方法:參考模板法首先設(shè)計(jì)一個(gè)或數(shù)個(gè)標(biāo)準(zhǔn)人臉的模板,然后計(jì)算測(cè)試采集的樣品與標(biāo)準(zhǔn)模板之間的匹配程度,并通過(guò)閾值來(lái)判斷是否存在人臉;
9、人臉規(guī)則法由于人臉具有一定的結(jié)構(gòu)分布特征,所謂人臉規(guī)則的方法即提取這些特征生成相應(yīng)的規(guī) 則以判斷測(cè)試樣品是否包含人臉;樣品學(xué)習(xí)法這種方法即采用模式識(shí)別中人工神經(jīng)網(wǎng)絡(luò)的方法,即通過(guò)對(duì)面像樣品集和非面像樣品集的學(xué)習(xí)產(chǎn)生分類(lèi)器;膚色模型法這種方法是依據(jù)面貌膚色在色彩空間中分布相對(duì)集中的規(guī)律來(lái)進(jìn)行檢測(cè)。特征子臉?lè)ㄟ@種方法是將所有面像集合視為一個(gè)面像子空間,并基于檢測(cè)樣品與其在子孔間的投影之間的距離判斷是否存在面像。值得提出的是,上述 5種方法在實(shí)際檢測(cè)系統(tǒng)中也可綜合采用。(2)人體面貌跟蹤面貌跟蹤是指對(duì)被檢測(cè)到的面貌進(jìn)行動(dòng)態(tài)目標(biāo)跟蹤。具體采用基于模型的方法或基于運(yùn)動(dòng)與模型相結(jié)合的方法。此外,利用膚色模
10、型跟蹤也不失為一種簡(jiǎn)單而有效的手段。(3)人體面貌比對(duì)面貌比對(duì)是對(duì)被檢測(cè)到的面貌像進(jìn)行身份確認(rèn)或在面像庫(kù)中進(jìn)行目標(biāo)搜索。這實(shí)際上就是說(shuō),將采樣到的面像與庫(kù)存的面像依次進(jìn)行比對(duì),并找出最佳的匹配對(duì)象。所以,面像的 描述決定了面像識(shí)別的具體方法與性能。目前主要采用特征向量與面紋模板兩種描述方法:特征向量法該方法是先確定眼虹膜、鼻翼、嘴角等面像五官輪廓的大小、位置、距離等屬性,然后 再計(jì)算出它們的幾何特征量,而這些特征量形成一描述該面像的特征向量。面紋模板法該方法是在庫(kù)中存貯若干標(biāo)準(zhǔn)面像模板或面像器官模板,在進(jìn)行比對(duì)時(shí),將采樣面像所有象素與庫(kù)中所有模板采用歸一化相關(guān)量度量進(jìn)行匹配。此外,還有采用模式
11、識(shí)別的自相關(guān)網(wǎng)絡(luò)或特征與模板相結(jié)合的方法。人體面貌識(shí)別技術(shù)的核心實(shí)際為“局部人體特征分析”和“圖形/神經(jīng)識(shí)別算法?!边@種算法是利用人體面部各器官及特征部位的方法。如對(duì)應(yīng)幾何關(guān)系多數(shù)據(jù)形成識(shí)別參數(shù)與數(shù)據(jù)庫(kù)中所有的原始參數(shù)進(jìn)行比較、判斷與確認(rèn)。一般要求判斷時(shí)間低于1秒。3、人體面貌的識(shí)別過(guò)程一般分三步:(1)首先建立人體面貌的面像檔案。即用攝像機(jī)采集單位人員的人體面貌的面像文件或取他們的照片形成面像文件,并將這些面像文件生成面紋( Faceprint )編碼貯存起來(lái)。(2)獲取當(dāng)前的人體面像即用攝像機(jī)捕捉的當(dāng)前出入人員的面像,或取照片輸入,并將當(dāng)前的面像文件生成面紋編碼。(3)用當(dāng)前的面紋編碼與檔
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 撫順師范高等專(zhuān)科學(xué)?!督?jīng)濟(jì)數(shù)學(xué)-微積分(一)》2023-2024學(xué)年第二學(xué)期期末試卷
- 國(guó)際金融業(yè)務(wù)合作協(xié)議
- 滅火器采購(gòu)合同范本
- 貴州經(jīng)貿(mào)職業(yè)技術(shù)學(xué)院《近世代數(shù)》2023-2024學(xué)年第二學(xué)期期末試卷
- 吉林大學(xué)《高等代數(shù)方法》2023-2024學(xué)年第二學(xué)期期末試卷
- 委托售后服務(wù)合作協(xié)議書(shū)
- 湖北文理學(xué)院《現(xiàn)代數(shù)學(xué)思想與方法》2023-2024學(xué)年第二學(xué)期期末試卷
- 濰坊護(hù)理職業(yè)學(xué)院《畫(huà)法幾何與陰影透視二》2023-2024學(xué)年第二學(xué)期期末試卷
- 混凝土攪拌站承包合同書(shū)
- 長(zhǎng)春東方職業(yè)學(xué)院《計(jì)算機(jī)科學(xué)中的數(shù)學(xué)基礎(chǔ)》2023-2024學(xué)年第二學(xué)期期末試卷
- (康德一診)重慶市2025屆高三高三第一次聯(lián)合診斷檢測(cè) 英語(yǔ)試卷(含答案詳解)
- 2025年福建泉州文旅集團(tuán)招聘24人高頻重點(diǎn)提升(共500題)附帶答案詳解
- 建筑行業(yè)砂石物資運(yùn)輸方案
- 腫瘤全程管理
- 融資報(bào)告范文模板
- 桃李面包盈利能力探析案例11000字
- GB/Z 30966.71-2024風(fēng)能發(fā)電系統(tǒng)風(fēng)力發(fā)電場(chǎng)監(jiān)控系統(tǒng)通信第71部分:配置描述語(yǔ)言
- 污泥處置合作合同模板
- 腦梗死的護(hù)理查房
- 2025高考數(shù)學(xué)專(zhuān)項(xiàng)復(fù)習(xí):概率與統(tǒng)計(jì)的綜合應(yīng)用(十八大題型)含答案
- 2024-2030年中國(guó)紫蘇市場(chǎng)深度局勢(shì)分析及未來(lái)5發(fā)展趨勢(shì)報(bào)告
評(píng)論
0/150
提交評(píng)論