基于三維模型與Gabor小波的人臉特征點(diǎn)跟蹤方法_第1頁
基于三維模型與Gabor小波的人臉特征點(diǎn)跟蹤方法_第2頁
基于三維模型與Gabor小波的人臉特征點(diǎn)跟蹤方法_第3頁
基于三維模型與Gabor小波的人臉特征點(diǎn)跟蹤方法_第4頁
基于三維模型與Gabor小波的人臉特征點(diǎn)跟蹤方法_第5頁
已閱讀5頁,還剩4頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、dcs:: io.1qcbqz3k .2311.01 oc5基于二維模型與gdocr"小波的人臉特征點(diǎn)跟蹤方法戰(zhàn)江濤劉強(qiáng)3,柴春雷1浙江大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院.浙江杭州31gce7:2.浙江機(jī)屯職業(yè)技術(shù)學(xué)院設(shè)計(jì)藝術(shù)系.浙江杭州31qdeb; 3.濟(jì)華大學(xué)美木學(xué)院,北京xbcbo摘要:為了實(shí)現(xiàn)人臉特征點(diǎn)跟蹤系統(tǒng)的鈐棒性和精確性,使用光束平差法校型將莊于三維人臉兒何校型的跟蹤 方法與基于小波的特征點(diǎn)跟蹤方法結(jié)合起來.提出基于三維模型與小波的人臉特征點(diǎn)跟蹤方法.這 方法使用基于、波的特征跟嫁方法來得到毎幀的初始特征點(diǎn),使用基于三維人臉幾何模型的整合優(yōu)化跟嫁 方法來得到每幀的圾終特征點(diǎn).與

2、3類典型人臉特征點(diǎn)跟蹤方法的對(duì)比實(shí)驗(yàn)結(jié)澩表明,該方法克服了以往方法薄 于二維閣像信息來尋找特征點(diǎn)的局限性,可以實(shí)現(xiàn)魯棒的、實(shí)吋的、人允度的人臉特征點(diǎn)跟蹤.關(guān)鍵詞:人臉特征小波三維跟蹤;光朿平差法文獻(xiàn)標(biāo)志碣:a文章編吁:xubxsk toil«>c«<37rnoohanclzhanjteo 2, lbj gfa,chatchurrk1令.cfcjpofchjtizjjter-sdbrcand te±rdz<» 及與ha*gpbdu31qce7, owna 2.czjartmartizjf /rt»modna'fcsl a

3、nd elslrialhaghou 310083, chwnb j3. aazferr/of/rteand» ajr toocb,china)a3dtrsdt 二 a new tkfci <hdbjrpzmsrtesckisdrorne wee prcfocsadmdfrod aee 1qdfrnpcidts. ttneadrrreouoterneltcfesduqrlcfvavocfrnanazr irtlsrflresazrrpad vatvlbrabcltiafirf mdfrccfe. tlnesdnsriegan becaad'er* icfaudb retb

4、neancl vfeoqfe-fedlblreftraci. kwztcfe:; q±er-vvevfet:tbrasc對(duì)視頻序列中的人臉特征點(diǎn)進(jìn)行實(shí)吋的im動(dòng)化 跟蹤足計(jì)算機(jī)視覺研究中一個(gè)基礎(chǔ)且具科挑戰(zhàn)性的 問題.學(xué)者們針對(duì)該h題提出了很多方法,這些方過 在總體上可以分為2類:自頂句下的方法和自底向 上的方法n 1 .自頂句下的方法基于人臉全部器官ft 像的特征,典型的fl godes等u提出的主動(dòng)表觀模型么八1/1)、1等6提出的直接表觀模型<bam).收榀日期:2dtoce<b.浙江大學(xué)學(xué)報(bào)(i:學(xué)版網(wǎng)址基金項(xiàng)hl :國家自然科學(xué)基金資助項(xiàng)目feconi)沖央萵?;?/p>

5、本科研業(yè)務(wù)費(fèi)專項(xiàng)資金資助項(xiàng)目to0qna)i4) 你存簡介:戰(zhàn)江濤1977 乂男,山東艱州人,時(shí)士生,從銀人機(jī)工程研究.e-m : acfct-brft1163. ocm1 994-20m蓿聯(lián)原加:激洛慮ml傲)激教拔alen :曲notrf12b.<3=w()us自底向上的方法首先對(duì)人臉各個(gè)局部器官進(jìn)行跟 蹤,然c結(jié)合器宮之間的位置關(guān)系對(duì)跟蹤結(jié)果作進(jìn) 一步優(yōu)化,典型的有金城等m提出的n底向上的人 臉特征定位方法,=»等&3提出的基于cci-小汲 網(wǎng)絡(luò)的人臉特征跟蹤方法.以往的各類人臉特征跟蹤方法0 d只使用二維 的人臉閣像信息,比如主動(dòng)形狀模型j使用 二維人臉全局形狀

6、信息和特征點(diǎn)局部紋理信息; aam模型u使用二維人臉的全局形狀信息和紋理 信息迦丁 小波的各類方法均利川人臉 特征點(diǎn)周圍的紋理信息.實(shí)際上,除了眼睛和嘴巴附 近,人臉上各個(gè)特征點(diǎn)的運(yùn)動(dòng)近似等于三維剛體點(diǎn) 的運(yùn)動(dòng),并且這些點(diǎn)之w的相互約朿關(guān)系保持不 變.人臉特征點(diǎn)之間的三維約束關(guān)系可以用來解決 當(dāng)人頭旋轉(zhuǎn)角度過人吋特征點(diǎn)跟蹤丟失的問題.基 丁上述考慮,本文借鑒70=11等&提出的基丁脫 機(jī)和聯(lián)機(jī)倍息的三維跟蹤算法思想,提出一種基于 三維模型與小波的人臉特征點(diǎn)跟蹤方法.該 h'法針對(duì)人臉實(shí)吋跟蹤的特點(diǎn),在逐幀跟蹤方而采 川基于小波的跟蹤算法b人在三維模型輔助 跟蹤方而采用提出的算法

7、,最后采用 光來法平差稅型將兩者結(jié)合起來得到ii后的跟蹤結(jié) 果,1跟蹤算法流程圖跟蹤算法流程如圖1所示,可以看出,本文算法 主要由3個(gè)部分構(gòu)成狗造初始欠鍵幀、基t gasa- 小波的逐幀跟蹤、基于三維模型的整合跟蹤.構(gòu)造初始化關(guān)鍵幀步驟根裾第1幀檢測到的人 臉特征點(diǎn)分布信息,將一個(gè)通川的三維人臉模型作 相應(yīng)的變形,使得二維人臉特征點(diǎn)集p與三維人臉 特征點(diǎn)集p 一對(duì)應(yīng),基于該對(duì)應(yīng)關(guān)系求解三維人 臉的姿態(tài)參數(shù)fk,將和民均作為關(guān)鍵幀信息 k存儲(chǔ)卜來.基于c3cr"小波的逐幀跟蹤不考慮人臉三維 信息,根據(jù)ml和訓(xùn)練好的小波jte庫,通過 小波變換來佔(zhàn)計(jì)m1 ,計(jì)算速度快,但結(jié)果屮 會(huì)存在一

8、些誤差.基于三維模型的整合跟蹤步驟,利用k、m和 m1來估計(jì)當(dāng)前幀的rt .基tk中包含的p和, 可以得到當(dāng)前的二維特征點(diǎn)集rs,ri即為優(yōu)化后 的、最終的當(dāng)前幀二維人臉特征點(diǎn)集合.im-i跟蹤箱法流程圖2構(gòu)造初始關(guān)鍵巾貞設(shè)計(jì)的特征點(diǎn)集合如閣2 g)所示,共14個(gè)特 征點(diǎn),這些特征點(diǎn)都楚人臉上具有明顯特征的點(diǎn),付 用訓(xùn)練好的小波對(duì)以很好地匹配到?jīng)] 些特征點(diǎn)的位置人臉模型m格簡單,m 格中的三維頂點(diǎn)具存明叢的兒何意義,因此使用人臉模型m格作為通用三維人臉模型r在f三維頂點(diǎn)與人臉二維特征點(diǎn)之間討以直觀地 建立起 對(duì)應(yīng)關(guān)系,如圖2 g)所示.(a)二維人臉特征點(diǎn)(b)三維人臉特征點(diǎn)閣2二維人臉和三維

9、人臉特征點(diǎn)對(duì)應(yīng)關(guān)系f.2bdh/voarvtwocfttsnrdl為了得到當(dāng)前幀屮人臉的寬高比r-,采用vfcfa 等003提出的人臉檢測方法來快速地得到人臉k域.基于-值,對(duì)f執(zhí)行全局縮放變換,使得三維人臉模 型f的整體寬萵比與當(dāng)前幀屮被跟蹤對(duì)象的寬 比相同.以p為fi標(biāo),使用分塊仿射變形fctowfee作將f變形為三維人臉器官分布,與 當(dāng)前幀中二維人臉器官分布一致.經(jīng)過上述變形,f變?yōu)榕c當(dāng)前幀中二維人臉結(jié) 構(gòu)非常相似的三維人臉校型.基于p和p,采用cfe rribcn等& 1 提出的算法,可以很容易地求出當(dāng)前 人臉的三維姿態(tài)參數(shù),即ft=與之間的關(guān)系如下:r = a=y=>6

10、 )式中g(shù)表示p中的第i個(gè)點(diǎn),p表示f>中的第i個(gè) 點(diǎn),a為攝像機(jī)的內(nèi)部參數(shù)矩陣.不失一般性,假設(shè) a已經(jīng)通過事先的定標(biāo)過程得到,并且在整個(gè)跟路 過程屮不變.p、p、fu以及變形后的f這4者共同 構(gòu)成了 k.3基于cocr-小波的逐巾貞跟蹤函數(shù)具有生物學(xué)上的明顯意義523 :函數(shù)被廣泛地應(yīng)用丁計(jì)算機(jī)視覺領(lǐng)域函數(shù)實(shí)際 上是一個(gè)三角函數(shù)和一個(gè)商斯函數(shù)的乘積.一維的qdjcr-函數(shù)農(nóng)達(dá)式力 wc-crfc<£>)2p h對(duì)應(yīng)的小波變換足義為快計(jì)算:a sir+ k_d.fe)式屮白和是第i幀上特征點(diǎn)p的的幅值與相 角i和是評(píng)價(jià)點(diǎn)fs的幅值與相角d為p與ps之 間的距離矢m

11、,k為一個(gè)與c3cr函數(shù)同方向、幅值 等于三角函數(shù)頻率的矢量,4-ooc= j'xtw fcto.cofct 6)oo在小波特征表示屮,采川式紅)所定義的二 維的(30-闌數(shù)作為小波變換的付函數(shù):fe)w q,y©,入xp<j,y) =肪+<p):x = >xeb0= +w)xfr©+vcebe.式中e為二維cjcr"的朝向,入為二維ge長$為二維的波的相位o為髙斯函數(shù)的半徑為二維gdacr"的妖覺比.o-a.'qjo'v這5個(gè)參數(shù)的不同組合構(gòu)成不同的二維小波.文獻(xiàn)fe的實(shí)驗(yàn)結(jié)果表明o和入的不m組合敁能表達(dá)人臉的

12、 二維特征點(diǎn)倍息,因此e取8個(gè)方向入取5個(gè)頻率,組合成4d個(gè)不冋的30-小波函數(shù)來對(duì)閣像上的 特征點(diǎn)作小波變換.于足,對(duì)應(yīng)一個(gè)圖像點(diǎn),變換一 次可以得到4d個(gè)fi數(shù),即8d個(gè)系數(shù).這8d個(gè)系數(shù) 即為,它可以很好地描述一個(gè)閣像點(diǎn) 的特征.針對(duì)人臉特征點(diǎn)初始定位fi ll題,在訓(xùn)練階段,計(jì) 算t4個(gè)人臉特征點(diǎn)中每一個(gè)點(diǎn)在各種典型惜況下 的vjbt集合s.在跟蹤視頻的第1巾貞,即構(gòu)造初始失 鍵幀步驟中,使用vfcfe等的方法川以將到人臉 區(qū)域.在該區(qū)域根據(jù)人臉器官分布經(jīng)驗(yàn)可以大致 知道每個(gè)特征點(diǎn)的分布區(qū)域r.對(duì)r內(nèi)每一個(gè)點(diǎn)計(jì) 算一個(gè)jbt使用該dbt與訓(xùn)練階段建立的s比較, 最匹配的點(diǎn)即為人臉特征點(diǎn)

13、最可能的位置.假設(shè)已知第i幀屮人臉特征點(diǎn)的位置,根據(jù)文 獻(xiàn)fe吋知,使相位相關(guān)的ja:相似性公式取值最大 的2個(gè)點(diǎn)最有可能是連續(xù)2幀上的同一個(gè)特征 點(diǎn).若要在i+1幀上杏找某個(gè)人臉特征點(diǎn)的位置, 則只需在以第i幀該人臉特征點(diǎn)所處位置為中心, 8個(gè)像素為半徑的圓形區(qū)域r內(nèi),查找與上一幀u t最相似的那個(gè)點(diǎn).在岡形區(qū)域內(nèi)的査找策略有很多利,實(shí)驗(yàn)表明, 窮舉策略的誤差最小,w此采用窮舉的策略.然而窮4基于三維模型的整合跟蹤采川基于小波的逐幀跟蹤方法,可以根 據(jù)第i幀特征點(diǎn)集來預(yù)測第i+1幀上的特征點(diǎn)集.以管基于小波的逐幀跟蹤方法可以克服光 照變化、姿態(tài)變換等影響,但逐幀跟蹤方法只使用待 跟蹤幀上一幀

14、的信息,沒杏利用人臉的全局三維鈐 束倍息.根據(jù)等53的研究結(jié)論,只利用連紐 幀之間吋空連續(xù)性信息的跟蹤結(jié)果往往會(huì)濘致誤差 累積,從而逐漸偏離貫.正的跟蹤點(diǎn).這個(gè)問題可以通 過整合待跟蹤點(diǎn)的關(guān)鍵幀特征信息來解決.本文使廳 在構(gòu)造初始關(guān)鍵幀階段存儲(chǔ)卜*來的關(guān)鍵幀倍息.假設(shè)己經(jīng)跟蹤到了第i幀,第i幀之前每一幀的二維人臉特征點(diǎn)信息、三維人臉姿態(tài)參數(shù)均已知. 記第i1幀人臉姿態(tài)參數(shù)為fvi =ti-n .基i ' 與 pk,n 以定義變換 h .使用h可以將關(guān)鍵幀人臉二維圖像變換為與第 i 一 1幀上人臉二維閣像較相似的人臉閣像,即與第i 幀人臉二維圖像較相似的人臉圖像.h矩陣的廷 義如f :平

15、法的時(shí)問開銷較大,為了實(shí)現(xiàn)實(shí)時(shí)跟蹤,當(dāng)計(jì)算r式屮:3 = r-irt» dt = fftk+ti-i,r»t = rri- ci =d?。喊譶).fe)取關(guān)鍵幀人臉圖像中每個(gè)特征點(diǎn)周圍3d 像素x 3d像素的圖像區(qū)域?yàn)樽儞Q前的圖像塊,不屈 于任何特征點(diǎn)周圍3像素x 3像素區(qū)域閃的像素 點(diǎn)記為無值,統(tǒng)一設(shè)置為純黑色,記該閣像為i.使 用h將圖像屮的每一個(gè)像索變換之后得到新圖 像直m i h實(shí)際上由14個(gè)3像素x 3d像素的i冬i 像子區(qū)域構(gòu)成,每個(gè)子區(qū)域?qū)?yīng)一個(gè)人臉特征點(diǎn).記© 1994-2013 china academic journal electronic

16、publis 內(nèi)每個(gè)點(diǎn)的小波系數(shù)吋,采用如下的近似公忒來加x5-,=與j=1,2,,14,在待跟蹤的第i幀上,以r的屮心岑屮命,大小為33像索x3像索的區(qū) 域內(nèi),找與4 g相似的子區(qū)域r柯的中心點(diǎn)徵繼繼.wltwoubiishinghouffe.8:nki.n圖4人臉上下轉(zhuǎn)動(dòng)r.4 fdbri閣5人臉前后移動(dòng)閣6人臉在平而內(nèi)兄動(dòng)hg.6 fobskar-g hi pfene閿7人臉表怡變化f."7 fcidnerrg即為基于關(guān)鍵幀信息定位到的第j個(gè)人臉特征點(diǎn). 炅體的子區(qū)域相似性計(jì)算方法為采用標(biāo)準(zhǔn)互相欠相 似函數(shù)作力相似性度量準(zhǔn)則的w像相似性匹配方法.將使川基于k定位到的14個(gè)人臉特

17、征點(diǎn)集記 為ft,f=j ) ;_j=1,2,14.fe)pf包含了三維人臉的約束信息,接卜*來將ft和基t- <30-小波逐幀跟蹤到的人臉特征點(diǎn)集fy結(jié)合起來,去掉m:屮的錯(cuò)誤數(shù)據(jù),從而使得跟蹤結(jié)果平沿 且無誤差累積.對(duì)于整合2個(gè)點(diǎn)集的問題,采用在三維重建領(lǐng) 域中使用頻繁的光束平差法cfaurrfe artrfz rrort51.針對(duì)本文的問題,以第i幀人臉三維姿態(tài) 參數(shù)p:作為待求解變鱟,求解®映射誤差最小問 題.記®映射誤差為n,定義如下:n = £pruk <11 m!-色,m0)|2). fe)式屮mi g ttuff)為與mi對(duì)應(yīng)的f上的

18、三維頂點(diǎn),fj)=pnjk 函數(shù)力ft棒 tt 計(jì) 器),使川prxjk函數(shù)可以去棹錯(cuò)誤匹配的點(diǎn);為將 mfj>使用p:映射到二維特征點(diǎn)的映射函數(shù).考慮連續(xù)幀之間的時(shí)空連續(xù)性,設(shè)計(jì)y標(biāo)優(yōu) 化函數(shù):邑令i,pi-i ) = min +rs_n ).)p5 .p對(duì)丁式如)所示的1£問題,采用 »±算法56可以快速得到最優(yōu)化函數(shù)的觸 pi.基于pi o和p,可以直接求得在第i幀上優(yōu)tt 人1的ps .5實(shí)驗(yàn)結(jié)果在訓(xùn)練小波#庫時(shí)使川1oo張具冇不 m的膚色、光線情、姿態(tài)屬性情況的人臉圖像庫.在跟蹤速度方而,木文方法討以實(shí)現(xiàn)芯 的跟蹤速度.在跟蹤效果方而,閣35給出了

19、在人 臉左右、上下轉(zhuǎn)動(dòng)及前后移動(dòng)情況下的跟蹤結(jié)果, 圖6給出了人臉在平而內(nèi)晃動(dòng)情況下的跟蹤結(jié)果, 閣7給出了在人臉衣情變換情況下的跟蹤結(jié)果.在普通的實(shí)驗(yàn)室光照環(huán)境屮,針對(duì)5種典型的 人臉運(yùn)動(dòng)類型,采集5個(gè)不同的人在每類運(yùn)動(dòng)惜況文跟蹤7/法的跟蹤結(jié)果與理想位置之間的平均誤差 統(tǒng)計(jì)如圖8所示.圖屮,x為14個(gè)人臉特征點(diǎn)索引,每個(gè)點(diǎn)的具體位置如閣2)所示e為每個(gè)特征點(diǎn) 相對(duì)丁人臉大小的平均定位誤差.可以看出,本文力 法的定位誤差較小,在大部分情況下可以很好地® 蹤到正確的人臉特征點(diǎn).閣8逐點(diǎn)定位誤差(b)戴眼鏡(c)留胡須(d)跟蹤失敗圖9特殊怙況下的跟蹤結(jié)釆除上述實(shí)驗(yàn)之外,為了證明木文方

20、法的可行性, 從ucsdhcrcfe人臉視頻數(shù)據(jù)庫573中挑選1o個(gè) 典型的視頻數(shù)裾來驗(yàn)證本文算法的跟蹤效果.對(duì)戴 眼鏡、留胡須、少許頭發(fā)遮擋等特殊情況不的跟蹤結(jié) 果關(guān)鍵幀序列如閣9所示.可以肴出,在規(guī)眼鏡、留 胡須、少許頭發(fā)遮捫等怡況下本文方法可以較準(zhǔn)確 地跟蹤到各個(gè)特征點(diǎn).閣9 展示了跟蹤失敗的例 子截圖,主耍是人臉旋轉(zhuǎn)角度過大、表情變化過快 等情形.由于ucaxlhcrcfe數(shù)據(jù)庫沒有手工標(biāo)定的逐 幀aocru 丁dhi人臉特征點(diǎn)數(shù)據(jù),本文對(duì)跟蹤效果的評(píng)價(jià)方法采用太剛等683建議的人工主觀評(píng)判方 法.通過一個(gè)簡單的輔助評(píng)分接口,測試人員根據(jù)主 觀感受接受或拒絕每一幀的定位結(jié)果,芯當(dāng)前幀沒

21、 冇跟t,則直接拒絕.實(shí)驗(yàn)結(jié)果如表1所示,表中,n 為總幀數(shù),a為接受幀數(shù),t為接受率.所有人臉特征點(diǎn)跟蹤萬法的重點(diǎn)均在如何對(duì)山表1人臉序跟蹤結(jié)來統(tǒng)計(jì)表rao.1 fajtean uc3zx1honcfec3ebb視頻名稱nahrvotrithbd.avi3b4-351ob_nsb.evi jjp31422d"73333235"73btcbl3kmm329arz萬r.sviaaostg5o.avi437s39b cferry.ev29123d刃39b3d5s339033595hodfcr-.sviqs4-391a419314姿態(tài)變化和表情變化所引起的人臉特征點(diǎn)運(yùn)動(dòng)的非 線性

22、性質(zhì)的建模方而.具體而言,這些方法w以分為 3類用局部線性模型的集合來表達(dá)整體的hi 線性,典型代表為gate等593提出的基于視角fk aam方法;2地川從閣像序列屮提取的三維人臉特征來表達(dá)人臉特征的非線性,典型代農(nóng)為丁erg 等提出的多m次、多狀態(tài)、姿態(tài)相欠的跟蹤方法; 3)過接使川非線性稅型來表達(dá)人臉特征的非線性, 典型代表為等提出的使川 fca的跟蹤方法.在5個(gè)人作5類不同運(yùn)動(dòng)的數(shù)據(jù) 集合&33o幀)上,將本文方法與3個(gè)典型方法作對(duì) 比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如閣1o所示.1冬i屮,匕為像素位移 量,pt為特征點(diǎn)跟蹤誤差.對(duì)以看出,在跟蹤誤差方而,本文方法比 goctes 法減少了 8%

23、,比"tizrg z/ 法和 rzrrchoi 方法均增加了 6%左右.在計(jì)算吋問效率方而,在相 同的汁算環(huán)境屮4"* ca dlo itfcsxjx本文方 法甸秒可以處理25幀數(shù)據(jù),方法每秒處理7 幀,ffcrnzm方法每秒只可以處理2幀.盡管在跟 蹤誤差方面,本文方法比丁erg方法和rzrrc±«"i方 法人60/0,但在計(jì)算時(shí)間效率方而卻有著明叢優(yōu)勢.0246810閣1o 4種方法跟蹤誤差對(duì)比閣hg. to brctcfefcrtoctfcri cf=fedhl>o'lrarirg ewaortrndfroefe6結(jié)語本文提

24、出一種結(jié)合基于小波的人臉特 征點(diǎn)跟蹤算法與基于三維模型的跟蹤算法的人臉特 征點(diǎn)跟蹤力*法.該力*法既利用了幀與幀之間的吋空 連續(xù)性,乂利用了人臉的3維全局約束倍息,從而同 時(shí)避免了跟蹤漂移現(xiàn)象和跟蹤丟失現(xiàn)象的發(fā)生.實(shí) 驗(yàn)結(jié)果表明,木文方法對(duì)于人臉人角度的姿態(tài)變換 具有很好的跟蹤精度,可以容忍的人臉p/v運(yùn)動(dòng)和 pjfcjri運(yùn)動(dòng)在正、負(fù)zj5度范圍內(nèi),k=運(yùn)動(dòng)在正、負(fù) 6度范m內(nèi).山t本文方法可以高質(zhì)量、實(shí)吋地跟蹤到人臉 特征點(diǎn)的位®,本文方法為三維人臉實(shí)時(shí)識(shí)別、基丁 人臉的智能人機(jī)交互提供了很好的基礎(chǔ).木文方袪 還討以推廣應(yīng)用丁 非人臉的剛體類物體的特征點(diǎn)實(shí) 時(shí)跟蹤.參考文獻(xiàn)b金城

25、,卜佳俊,陳華,等.自底向上的人臉特征點(diǎn)定位d1浙江人學(xué)學(xué)報(bào)江學(xué)版23c8- 42 fe)jnbuchhi hear tl. humanaecfebgdfcm and -felte-lracki hi a bctfcm-vpd. jhttrcf:37brlhjoq<shb3iscfena& 23cb. 42 g):刃ftsd.tfart grerdd ftonrfn: b i t-t 2<i>:227-232.&oootst,axm_kb k> taylcr c. x/fevtaeaada&lfe hou x, us,zhan g h,改翩.rr

26、oohfe fo / frznaaefr cp b-he carpvtbr sbc<cvffol). haz«i: ebe, 23d1 :«33.&rogtwlo s,卜tbosa,roebto m,tracies caoraaebtndhacrfrs fc/ o edr| cf xhul rt - "m xtpcalrn on gtnxkibr* (rdrissbandlhnraasaa. oarbot> : m h,2300 :22-27.fe李英,賴劍煌,阮邦志.多模板/xsm方法及其在人臉特 征點(diǎn)檢測屮的應(yīng)用u1計(jì)算機(jī)研究與發(fā)展.23d

27、7. 41liyb,ruanmkjfrter>- plfe zsm arj teki ckipcidks cj=farti-n l). jhlrrdgfcrrpvlaffeearhanci efeu- cjcrngrfc 2307, 41 令):133-vt).fe段鴻,程義民,王以孝,等.基于kotfeuuctcn 算法的人臉特征點(diǎn)跟蹤方法d1計(jì)算機(jī)輔助設(shè)計(jì)與閣形學(xué)學(xué)報(bào),23c», 16):2283.du/mmcheng y5-rrin. wangi. ttaci-fedapertskanbcfeto- mea yjc»ch 01 dhtrndi dqzrrpvta

28、afcbd cfas n and qzrrpvteqzhb& 2304- 16 白:279283.& 顏蔣國,潘立登.越于cxt-小波的人臉特征點(diǎn)跟蹤方法 d1 計(jì)算機(jī)應(yīng)用,2301, 24:33s1. yanuas o panttocki-fedyi-fedhli aah qdocrwei4=ul ll.23ot,2):33s1.fe wb<ott l_ fh_kous j m, kruger n,攻a i.berrinli. !llltiarsadfcinqn flam anjsbercj machhel rdh1207, t9: /aar /a3.v/m3chtl

29、ijl l_> ljzptlxi v» fua p.tirne 3dcatg cr®ne and cjflb <=01 !bbetr«dfoon 抽marfre2304 35 o): t39&1391.bovkdlap,udns m.berated gesd3cfeclt|zferfeltes r?/ rooaaefrpdf 23d1 jtt 七i 二 qrpjbr-socfe< gcr-feonason gcrrpjbr xaonand ffam feghkcino1 ) haaj» :fi-f, 23d1 :s11-518.

30、blzldementthon df, daxzbls. mochesadcdt pxse in 5 rnescfceefe j. xdterrtioni kjblrrd cf gcrnjxzri 1se5, 15: 123-141.62 daugmanug. txaoc&reraadhacf ccrti raodtiuectl |jrb.cj. yfeon faaatdh, t9bd. 2dto):8?7s®.53 va3chettil, lbfettt v, fua p. fl»cr* arxjczhrne 5fcrrfcin-cr-zfe3dliacwrg; b

31、n tdh 1 ire fc/ fkaaaacfr-cfaocb mi gfcrrpjbrsbdb gcrfeonoeon gcrrpjbr-/sdnand ftero feqfcjn tx/acb). wfeacr :1=ff,23cb :241-28.eklzlocabceitfcr'i ibboiji. http v/on. vvibejaci a#4kt>csb<e>tizin# nzrmagd ocsb<gjicizti=>.&3cdc&311b5 ihaggs 巳,mcluchln p, hartuev r,&5sbun

32、cteafcm3rt:amocfe»rirlbefe fc/ rtex c esc#- cjf x farrtij aj wzhnqo on afcm ar ri *rrs facx/sd).:1rff, 1sbd56 wbjjam h p. brian pf- sajjlat,攻或.c 數(shù) 偵算法ik/ll傅祖蕓,趙梅娜,丁巖石,譯.2版.北京: 電了工業(yè)出版社,23cn: 121-128.&71 rf k c, hoj, yang m h.x/falraigand raacqfcm cekg p,i,i 卜ti、ppgarsra mari- -i fcfe cl. qzr

33、rpd-/fetin andlhobandrg23c5, sd fe) :333-331.bs宋剛,艾海舟,徐光仿.紋理約束下的人臉特征點(diǎn)跟蹤d1 軟件學(xué)院,23cm, 151): 1qd7-1615. 9dng fe rr ai ha-hou. xu qar/au. "fe<ltepewztee cj1 dhlrrnrf cfsrjh 230 4, 151):1qd7-t615.b9oootst f,whbblb g v, walker k n,攻 zfearteaad adftue cpsasnoe mooyfe 01 irr vteon cfcrrpjfrtgt 23cr

34、,2d :6t>7-q34.&d tong 丫扔 wang 丫zhu改.i. rdomyllfau <allgr|kacixs iuxr-ver5rg"feosp <3"cj $3aazm d. flatn feqsfcm- 23 7,4d1):31s&33cb.bmx3. nzuinernsssromdhanis. gongs, psarrou a. mclfruiaa ncnfenoaradsuote mocyi cargpca ic/ f怨怨怨怨從怨盤怨怨怨怨怨怨盤怨怨盤怨怨怨怨怨怨怨怨怨怨怨怨怨怨怨怨怨怨怨怨從怨怨怨怨從怨盤怨怨怨怨

35、4*4汗不沖承不不不不4*>r*汗不沖4;不不沖4;不不不不4*>r*汗不不不不不汗不汗不沖4汗不汗不汗不汗不汗不汗不不承汗不汗不4*4汗不不不不不汗不不不汗不沖承不不不不沖不汗不沖4;不不不不不不(h接第19頁)參考文獻(xiàn)備xeb)bwu 丫,shcxj l hu t,glos<*doaa*/: bi jnj alitaandijextii asstcin orjghe fc/ raasscfcfhte 23cb xardasnd qxonoeon qlaer- v ofcfe hru:eee. 23cb :42s427.efoa21mston b e. cybhm<o g. htwcir»yfcfetezvdo qj gfcrrixfahbote 2300 33) :22. fe erewington b e, cyeenko g. kdrmo vsah ibecba-g vdo 03. all.2300- 33 fe):ob.&cmvtc» bbsj so. ix/facafe

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論