一種改進(jìn)的slow算法_第1頁
一種改進(jìn)的slow算法_第2頁
一種改進(jìn)的slow算法_第3頁
一種改進(jìn)的slow算法_第4頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

一種改進(jìn)的slow算法

1人臉定位研究面部的位置是確定景觀中是否有一系列面部特征,以及位置的技術(shù)。人臉定位與識別系統(tǒng)被廣泛應(yīng)用于監(jiān)控、制造、急救以及基于內(nèi)容的視頻檢索中。近年來,人臉定位技術(shù)獲得較大的發(fā)展,并涌現(xiàn)出了許多研究方向。現(xiàn)有的人臉定位研究主要集中在如下的幾個領(lǐng)域:神經(jīng)網(wǎng)絡(luò)技術(shù)、統(tǒng)計模型、AdaBoost、SNoW和支持向量機(jī)。與其他技術(shù)相比,SNoW具有算法復(fù)雜度低,執(zhí)行速度快等優(yōu)點(diǎn),所以受到了廣泛關(guān)注。但是傳統(tǒng)的SNoW算法直接使用像素亮度為特征,導(dǎo)致網(wǎng)絡(luò)龐大,占用存儲空間大。且分類算法對于表情,遮蓋,光照,姿勢,大小等魯棒性較差。本文以提出一種新的算法對傳統(tǒng)的SNoW算法做出了大的改進(jìn)。實(shí)驗表明,改進(jìn)之后的算法具有良好的效果。2算法描述2.1人臉定位算法SNoW(SparseNetworkofWinnows)學(xué)習(xí)體系的基本思想是利用事先定義好的樣本特征來訓(xùn)練線性稀疏網(wǎng)絡(luò),然后用訓(xùn)練好的網(wǎng)絡(luò)實(shí)現(xiàn)分類。每一個線性網(wǎng)絡(luò)節(jié)點(diǎn)直接與樣本特征相對應(yīng)。SNoW用于人臉定位最初由Roth在文獻(xiàn)中提出。在訓(xùn)練網(wǎng)絡(luò)的過程中,樣本被分為兩類。一類為積極樣本,一類為消極樣本。在人臉定位過程中,訓(xùn)練該網(wǎng)絡(luò)的積極樣本為人臉樣本,消極樣本為非人臉樣本。令A(yù)t={i1,i2,…,im}為積極樣本的特征集合,它們對應(yīng)網(wǎng)絡(luò)上目標(biāo)節(jié)點(diǎn)t。設(shè)wtiti為網(wǎng)絡(luò)節(jié)點(diǎn)t的第i個特征的權(quán)重,θt為判決門限。當(dāng)且僅當(dāng)∑i∈Atwti>θt時,表示網(wǎng)絡(luò)的權(quán)重滿足要求,否則將根據(jù)訓(xùn)練規(guī)則調(diào)整網(wǎng)絡(luò)節(jié)點(diǎn)的權(quán)重wti。SNoW網(wǎng)絡(luò)的訓(xùn)練規(guī)則主要是通過事先定義的積極和消極樣本升高和降低網(wǎng)絡(luò)節(jié)點(diǎn)的權(quán)重。首先定義門限θt、上升參數(shù)α>1,和下降參數(shù)0<β<1。當(dāng)輸入訓(xùn)練樣本為人臉,但是∑i∈Atwti<θt時,令?i∈At:wti←αwti;當(dāng)輸入樣本為非人臉,但是∑i∈Atwti>θt時,令?i∈At:wti←βwti。經(jīng)過大量的人臉和非人臉的樣本訓(xùn)練,該線性網(wǎng)絡(luò)具有了分類的功能。當(dāng)輸入一幅未知內(nèi)容的圖像時,該網(wǎng)絡(luò)就可以實(shí)現(xiàn)人臉定位。傳統(tǒng)的算法主要使用圖像的原始亮度作為特征來訓(xùn)練網(wǎng)絡(luò)。該特征定義如圖1所示:傳統(tǒng)的算法具有占用資源多、執(zhí)行效率低、魯棒性差等缺點(diǎn)。本文針對這些缺點(diǎn)從樣本特征定義和分類算法方面對傳統(tǒng)的算法做出改進(jìn)。2.2樣本資源提取2.2.1n圖像造成的誤差傳統(tǒng)算法直接使用亮度作為像素特征具有以下缺點(diǎn):(1)占用資源多。由于每個像素都有256種可能灰度,所以當(dāng)樣本圖像的大小為m×n時,線性網(wǎng)絡(luò)的大小為m×n×256。(2)魯棒性差。光照的強(qiáng)弱會直接導(dǎo)致人臉亮度的大小。所以同樣一張人臉在光照不同的情況下,傳統(tǒng)算法會得出不同的結(jié)果,導(dǎo)致漏檢或錯檢。2.2.2局部閾值二值化針對以上缺點(diǎn),新的算法提出局部二值化映射算法,步驟如下:(1)計算樣本圖像亮度的局部均值E(x,y)。(2)以局部均值E(x,y)為閾值,對樣本圖像的亮度I(x,y)進(jìn)行局部閾值的二值化,得到二值化圖像M(x,y)。Ι(x,y)E(x,y)→Μ(x,y)(1)(3)根據(jù)式(2)將M(x,y)映射為D(x,y)。D(x,y)=Μ(x,y)+2×Μ(x+1,y)+4×Μ(x,y+1)+8×Μ(x+1,y+1)(2)(4)利用D(x,y)作為像素特征訓(xùn)練樣本。2.2.3本圖像的大小(1)由于D(x,y)只有16種可能值,所以當(dāng)樣本圖像的大小為m×n時,線性網(wǎng)絡(luò)的大小為m×n×16。比傳統(tǒng)算法大大節(jié)約資源。(2)局部二值化有效的克服光照的強(qiáng)弱對算法的影響,提高了算法的魯棒性。2.3hfix模型SNoW算法的關(guān)鍵是如何訓(xùn)練一個有效的線性網(wǎng)絡(luò)。本文提出的新的分類器如下:θ=∑x∈Whnonfacex(Μ(x))-∑x∈Whfacex(Μ(x))(3)其中hnonfacex為非人臉網(wǎng)絡(luò);hfacex為人臉網(wǎng)絡(luò);θ為非人臉網(wǎng)絡(luò)與人臉網(wǎng)絡(luò)計算結(jié)果之差;定義判決門限為γ,當(dāng)θ<γ時判決為人臉,當(dāng)θ>γ時判決為非人臉。訓(xùn)練人臉網(wǎng)絡(luò)hfacex的方法如下:(1)建立一個m×n×16的矩陣,每個矩陣元素的值均為1。(2)利用標(biāo)準(zhǔn)人臉圖庫進(jìn)行訓(xùn)練。當(dāng)∑x∈whfacex(Μi(x))≤ε時:hfacex(Μi(x))=αhfacex(Μi(x))其中α>1。(3)利用標(biāo)準(zhǔn)非人臉圖庫進(jìn)行訓(xùn)練。當(dāng):∑x∈whfacex(Μi(x))>ε時:hfacex(Mi(x))=βhfacex(Mi(x))。其中0<β<1。訓(xùn)練非人臉網(wǎng)絡(luò)的方法與上述方法類似,但升高和降低網(wǎng)絡(luò)權(quán)重的規(guī)則正好相反。2.4人臉定位分類器當(dāng)訓(xùn)練好的分類器用于人臉定位時,為了避免頭發(fā)和衣領(lǐng)的影響。這里使用一個遮蓋物將圖像四角遮蓋起來。人臉定位分類器對于人臉大小的魯棒性問題一直是該領(lǐng)域研究的重點(diǎn)。這里使用采樣的方法獲取一個圖像的不同大小。例如對圖像進(jìn)行隔1個像素采1個樣,獲取圖像的大小為原圖像的1/2。如果隔1個像素采2個像素,采樣得到的圖像為原圖像大小的2/3。3人臉定位算法實(shí)驗這里使用CMU+MIT標(biāo)準(zhǔn)人臉數(shù)據(jù)庫,其中包含2429張人臉和4548張非人臉來訓(xùn)練人臉和非人臉網(wǎng)絡(luò)。接下來將待定位圖像以19×19的大小為單位進(jìn)行局部二值化映射,并將圖像以9/10的比例進(jìn)行逐級采樣。然后送入人臉定位分類器進(jìn)行分類。為了驗證分類器的性能,做了2組實(shí)驗。一組使用標(biāo)準(zhǔn)圖庫,這里采用的是AT&T的400副圖進(jìn)行實(shí)驗。第二組采用20副自然照片進(jìn)行實(shí)驗。實(shí)驗結(jié)果證明,該人臉定位算法對于表情、遮蓋(如眼鏡,胡須等)、光照、姿勢、大小等均具有較強(qiáng)的魯棒性。部分人臉定位的結(jié)果如圖3所示:4人臉對比實(shí)驗本文提出一種基于SNoW的人臉定位算法。樣本特征提取時將亮度做了局部二值化映射有效地提高了算法對于光照的魯棒性。訓(xùn)練分類器對人臉和非人臉模板分別進(jìn)行訓(xùn)練,利用兩個網(wǎng)絡(luò)的輸出結(jié)果之差進(jìn)行分

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論