工程實踐課程設(shè)計報告_第1頁
工程實踐課程設(shè)計報告_第2頁
工程實踐課程設(shè)計報告_第3頁
工程實踐課程設(shè)計報告_第4頁
工程實踐課程設(shè)計報告_第5頁
已閱讀5頁,還剩1頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

人臉識別的具體實現(xiàn)一個完整的人臉識別系統(tǒng)由以下幾個環(huán)節(jié)組成,人臉檢測,特征提取,和分類識別。人臉檢測即為從輸入的靜止圖像或序列圖像中檢測圖像是否包含人臉。因為本次實驗主要是驗證PCA和KNN算法的精度,所以選擇的圖像都是包含人臉的圖像。實驗中采用PCA算法對特征進(jìn)行提取,用KNN算法對實驗結(jié)果進(jìn)行檢測,測定測試圖像屬于哪個分類。在計算機中,一幅數(shù)字圖像可以看成是一個矩陣或者是一個數(shù)組,用,0力表示。其行列下標(biāo)對應(yīng)了圖像上的一個點,而在矩陣中對應(yīng)相應(yīng)元素,則標(biāo)出了該點的灰度值。一幅nxm大小的圖像按行列相連構(gòu)成一個n*m維向量x=(bb…bbb…b…bb…b)「1112 1m2122 2mn1n2 nm,匕被視為空間中的一|點。人臉圖像樣本集可用矩陣X表示,其中,X=[X1X2…Xp],P為樣本集中人臉圖像的數(shù)量。交叉驗證當(dāng)數(shù)據(jù)源不充足時,為了保證所建分類器的性能和錯誤率估計的準(zhǔn)確性,交叉驗證技術(shù)常常被采用.在交叉驗證中,先要決定一個固定的重數(shù),或者說折數(shù).一般地,將重數(shù)定為k,這就是k重交叉驗證,記為k-CV.由于本次試驗中采集了40組圖像,每組10幀,數(shù)據(jù)源相對不充足,為了充分驗證算法的性能,分別采用了3-CV,4-CV,5-CV交叉驗證法,隨機選擇訓(xùn)練樣例。實驗結(jié)果分析為了保證分類的健壯性,在試驗中在訓(xùn)練集上采取交叉驗證的方法,分別從每組樣本中國隨機選取3,4,5張圖像作為訓(xùn)練樣本,其余的樣本作為測試樣本。計算訓(xùn)練樣本的特征向量。實驗中使用的圖像為1024*92大小的圖片,通過resize()函數(shù)的處理,把圖像變?yōu)?2*32

大小的圖像,把此圖像重置為1*1023的向量。當(dāng)每組選擇3張訓(xùn)練樣本時,訓(xùn)練樣本矩陣大小為120*1024.,訓(xùn)練樣本的大小為:280*1024。使用PCA方法得到了訓(xùn)練樣本矩陣的特征值和特征向量,特征值按從大到小排序。較大特征值對應(yīng)的一些正交基(也稱主分量)能夠表達(dá)人臉的大體形狀。貢獻(xiàn)率表示所定義的主成分在整個數(shù)據(jù)分析中承擔(dān)的主要意義占多大的比重,當(dāng)取前r個主成分來代替原來全部變量時,累計貢獻(xiàn)率的大小反應(yīng)了這種取代的可靠性,累計貢獻(xiàn)率越大,可靠性越大;反之,則可靠性越小。一般要求累計貢獻(xiàn)率達(dá)到70%以上。實驗中的貢獻(xiàn)率是通過選擇的特征值之和與總的特征值之和的比值來計算的,要求貢獻(xiàn)率達(dá)到98%21.bmp(1)KNN算法中近鄰個數(shù)的選擇5個, 分別為1,2,3時的情況表21.bmp(1)KNN算法中近鄰個數(shù)的選擇5個, 分別為1,2,3時的情況表5-1KNN算法中近鄰個維度-____--鄰近-0775七- -- 23維度” Z3.,豈口、?二鄰乂5.bmp n2^mp0/74528.bmp1n.nq0.775nqnrmo1 150.909050.9 0905\ 0.8350851?j20. 0935. 0935. 08725. 0945. 0945. 09130. 095. 095. 090535. \ 0955. \ 0955. 09240. 094. 0.94.j乙 0.91545. 0945 0945 091.nqr.nqr.ngo50550.95 \ 095| 0.95 \ 095| 0.9乙 09260. 095. 0.95.j乙 0.90565. 095 0.95 09170. 094 094. 090575. 094. 094. 090580. 0945. 0945. 0.905..0QI851 900.95 \095| 0.95 \ 0950.91091595. 095. 095. 0915JU100. 0955. 0955. 0.9151M.nQRR.nQRRngo110. 0955. 0955.7jLj 1 092115. 0955. 0955.j乙 0915117. 0955. 0955. 0.915AVERAGEC平均值). 0.9375. 0.9375 0.898125雖然很多文獻(xiàn)中提到,當(dāng)近鄰數(shù)位1時,并不足以確定測試樣本的類別,因為數(shù)據(jù)中有噪聲和異常值。但在本次實驗中,通過結(jié)果我們可以看到實驗進(jìn)度不受近鄰個數(shù)的影響。(2)交叉驗證次數(shù)的影響本次實驗中進(jìn)行了5次交叉驗證,為論文測試交叉驗證的次數(shù)是否對實驗進(jìn)行影響,我們采集了K=5,每組的訓(xùn)練樣本為5時,CV變換的進(jìn)度結(jié)果。表5-2交叉次數(shù)對進(jìn)度的影響統(tǒng)計維度……一1234 550.820.7950.810.7650.775100.910.9050.8750.890.9150.9250.90.90.920.905200.9450.910.9050.90.935250.950.910.920.920.945300.9550.920.9150.9350.95350.9550.920.920.930.955400.9650.9250.920.930.94450.9650.9250.920.9350.945500.9650.9250.920.9350.95 550.970.930.9150.9350.95600.970.9250.930.9350.95650.970.9250.9250.9350.95700.970.9350.920.9350.94750.970.9350.920.9350.94800.970.940.9250.9450.945850.970.9350.920.9450.95900.970.9350.9250.9450.95950.9750.9350.9250.9450.951000.9750.9350.9250.9450.9551050.9750.9350.9250.950.9551100.9750.9350.9250.950.9551150.9750.9350.9250.950.9551170.975(118)0.935(116)0.9250.950.955STDEV(標(biāo)準(zhǔn)差:0.0339440.0294620.024890.0377060.037388通過上述實驗結(jié)果分析可知,在本次實驗中(1) 交叉驗證中CV的選擇和KNN中K的選擇對精度的影響不大;(2) 訓(xùn)練樣本的數(shù)量和特征向量的數(shù)量與識別精度成正相關(guān);(3) 但為了保證對全局的識別更加穩(wěn)定,我們需要選擇盡量高的CV次數(shù);(4) 為了識別精度和系統(tǒng)的運行速度,我們選擇的特征向量的數(shù)目為15到50個比較合理,訓(xùn)練數(shù)目選擇3-5個比較合理。4.展望從壓縮能量的角度來看,K-L變換是最優(yōu)的,變換后的低維空間對于人臉有很好的表達(dá)能力,然而這并不等同于對不同人臉具有較好的判別能力。選擇訓(xùn)練樣本的散布矩陣作為K.L變換的生成矩陣,其最大特征向量反映了該樣本集合的最大分布的方向,但這是圖像統(tǒng)計方法,而不是人臉統(tǒng)計方法。它查找的是圖像之間所有的差異,并根據(jù)這些差異來確定不同人臉間的距離,而不管這些差異是由于光線、發(fā)型或背景的改變引起的,還是屬于人臉本身的內(nèi)在差異,因此特征臉的方法用于人臉識別存在理論的缺陷。研究表明,特征連的方法隨著光線、角度以及人臉的尺寸的引入而識別率急劇下降。主分量的方法使得變換后的表達(dá)能力最佳,次分量的方法考慮了高頻的人臉區(qū)分能力,但是由于外在因素帶來圖像差異和人臉本身帶來的差異對K-L變換而言是不加任何區(qū)分的,因此,如何選擇正交基并不根本解決問題。改進(jìn)的一個思路是針對干擾所在,對輸入圖像作規(guī)范化處理,包括輸入圖像的均值方差歸一化,人臉尺寸歸一化。另一種改進(jìn)是考慮到局部人臉圖像受到外在干擾相對較小的情況,除了計算特征臉之外,還利用K-L變換計算出特征眼、特征嘴等。將局部特征向量加權(quán)進(jìn)行匹配得到一些好的效果。5.代碼(1)%用pca方法進(jìn)行降維矩陣,得到特征臉functiony=pca(mixedsig)ifnargin==0error('Youmustsupplythemixeddataasinputargument.');endiflength(size(mixedsig))>2error('Inputdatacannothavemorethantwodimensions.');endifany(any(isnan(mixedsig)))error('InputdatacontainsNaN''s.');endmeanValue=mean(mixedsig')';[m,n]=size(mixedsig);fors=1:mfort=1:nmixedsig(s,t)=mixedsig(s,t)-meanValue(s);endend[Dim,NumofSampl]=size(mixedsig);oldDimension=Dim;fprintf('Numberofsignals:%d\n',Dim);fprintf('Numberofsamples:%d\n',NumofSampl);fprintf('CalculatePCA...');firstEig=1;lastEig=Dim;covarianceMatrix=cov(mixedsig',1);[E,D]=eig(covarianceMatrix);rankTolerance=1e-5;maxLastEig=sum(diag(D))>=rankTolerance;lastEig=maxLastEig;lastEig=10;eigenvalues=flipud(sort(diag(D)));iflastEig<oldDimensionlowerLimitValue=(eigenvalues(lastEig)+eigenvalues(lastEig+1))/2;elselowerLimitValue=eigenvalues(oldDimension)-1;endlowerColumns=diag(D)>lowerLimitValue;iffirstEig>1higherLimitValue=(eigenvalues(firstEig-1)+eigenvalues(firstEig))/2;elsehigherLimitValue=eigenvalues(1)+1;endhigherColumns=diag(D)<higherLimitValue;selectedColumns=lowerColumns&higherColumns;fprintf('Selected[%d]dimensions.\n',sum(selectedColumns));fprintf('Smallestremaining(non-zero)eigenvalue[%g]\n',eigenvalues(lastEig));fprintf('Largestremaining(non-zero)eigenvalue[%g]\n',eigenvalues(firstEig));fprintf('Sumofremovedeigenvalue[%g]\n',sum(diag(D).大(?selectedColumns)));E=selcol(E,selectedColumns);D=selcol(selcol(D,selectedColumns)',selectedColumns);whiteningMatrix=inv(sqrt(D))*E';dewhiteningMatrix=E*sqrt(D);y=whiteningMatrix*mixedsig;functionnewMatrix=selcol(oldMatrix,maskVector)ifsize(maskVector,1)?=size(oldMatrix,2)error('Themaskvectorandmatrixareofuncompatiblesize.');endnumTaken=0;fori=1:size(maskVector,1)ifmaskVector(i,1)==1takingMask(1,numTaken+1)==i;numTaken=numTaken+1;endendnewMatrix=oldMatrix(:,takingMask);(2)%KNN方法計算準(zhǔn)確率functioninfo=KNN(targetimage)temp=0;kind=[000];i=0;j=0;temp1=0;i1=0;s(1)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('al.jpg'));s(2)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('a2.jpg'));s(3)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('a3.jpg'));s(4)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('a4.jpg'));s(5)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('a5.jpg'));s(6)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('b1.jpg'));s(7)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('b2.jpg'));s(8)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('b3.jpg'));s(9)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('b4.jpg'));s(10)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('b5.jpg'));s(11)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('c1.jpg'));s(12)=Co

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論