人臉識(shí)別PCA算法matlab實(shí)現(xiàn)及詳細(xì)步驟_第1頁(yè)
人臉識(shí)別PCA算法matlab實(shí)現(xiàn)及詳細(xì)步驟_第2頁(yè)
人臉識(shí)別PCA算法matlab實(shí)現(xiàn)及詳細(xì)步驟_第3頁(yè)
人臉識(shí)別PCA算法matlab實(shí)現(xiàn)及詳細(xì)步驟_第4頁(yè)
人臉識(shí)別PCA算法matlab實(shí)現(xiàn)及詳細(xì)步驟_第5頁(yè)
已閱讀5頁(yè),還剩9頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、人臉識(shí)別% FaceRec.m% PCA 人臉識(shí)別修訂版,識(shí)別率88% calc xmean,sigma and its eigen decompositionallsamples=;%所有訓(xùn)練圖像for i=1:40for j=1:5a=imread(strcat('e:ORLs',num2str(i),'',num2str(j),'.jpg');% imshow(a);b=a(1:112*92); % b 是行矢量 1×N,其中N10304,提取順序是先列后行,即從上到下,從左到右b=double(b);allsamples=all

2、samples; b; % allsamples 是一個(gè)M * N 矩陣,allsamples 中每一行數(shù)據(jù)代表一張圖片,其中M200endendsamplemean=mean(allsamples); % 平均圖片,1 × Nfor i=1:200 xmean(i,:)=allsamples(i,:)-samplemean; % xmean 是一個(gè)M × N 矩陣,xmean每一行保存的數(shù)據(jù)是“每個(gè)圖片數(shù)據(jù)-平均圖片”end;% 獲取特征值及特征向量sigma=xmean*xmean' % M * M 階矩陣v d=eig(sigma);d1=diag(d);%

3、按特征值大小以降序排列dsort = flipud(d1);vsort = fliplr(v);%以下選擇90%的能量dsum = sum(dsort);dsum_extract = 0;p = 0;while( dsum_extract/dsum < 0.9)p = p + 1;dsum_extract = sum(dsort(1:p);endi=1;% (訓(xùn)練階段)計(jì)算特征臉形成的坐標(biāo)系base = xmean' * vsort(:,1:p) * diag(dsort(1:p).(-1/2);% base 是N×p 階矩陣,除以dsort(i)(1/2)是對(duì)人臉圖像

4、的標(biāo)準(zhǔn)化(使其方差為1)% 詳見(jiàn)基于PCA 的人臉識(shí)別算法研究p31% xmean' * vsort(:,i)是小矩陣的特征向量向大矩陣特征向量轉(zhuǎn)換的過(guò)程%while (i<=p && dsort(i)>0)% base(:,i) = dsort(i)(-1/2) * xmean' * vsort(:,i); % base 是N×p 階矩陣,除以dsort(i)(1/2)是對(duì)人臉圖像的標(biāo)準(zhǔn)化(使其方差為1)% 詳見(jiàn)基于PCA 的人臉識(shí)別算法研究p31% i = i + 1; % xmean' * vsort(:,i)是小矩陣的特征向

5、量向大矩陣特征向量轉(zhuǎn)換的過(guò)程%end% 以下兩行add by gongxun 將訓(xùn)練樣本對(duì)坐標(biāo)系上進(jìn)行投影,得到一個(gè) M*p 階矩陣allcoorallcoor = allsamples * base; % allcoor 里面是每張訓(xùn)練人臉圖片在M*p 子空間中的一個(gè)點(diǎn),即在子空間中的組合系數(shù),accu = 0; % 下面的人臉識(shí)別過(guò)程中就是利用這些組合系數(shù)來(lái)進(jìn)行識(shí)別% 測(cè)試過(guò)程for i=1:40for j=6:10 %讀入40 x 5 副測(cè)試圖像a=imread(strcat('e:ORLs',num2str(i),'',num2str(j),'.

6、jpg');b=a(1:10304);b=double(b);tcoor= b * base; %計(jì)算坐標(biāo),是1×p 階矩陣for k=1:200mdist(k)=norm(tcoor-allcoor(k,:);end;%三階近鄰dist,index2=sort(mdist);class1=floor( (index2(1)-1)/5 )+1;class2=floor(index2(2)-1)/5)+1;class3=floor(index2(3)-1)/5)+1;if class1=class2 && class2=class3class=class1;el

7、seif class1=class2class=class1;elseif class2=class3class=class2;end;if class=iaccu=accu+1;end;end;end;accuracy=accu/200 %輸出識(shí)別率特征人臉% eigface.mfunction = eigface()% calc xmean,sigma and its eigen decompositionallsamples=;%所有訓(xùn)練圖像for i=1:40for j=1:5a=imread(strcat('e:ORLs',num2str(i),'',

8、num2str(j),'.jpg');% imshow(a);b=a(1:112*92); % b 是行矢量 1×N,其中N10304,提取順序是先列后行,即從上到下,從左到右b=double(b);allsamples=allsamples; b; % allsamples 是一個(gè)M * N 矩陣,allsamples 中每一行數(shù)據(jù)代表一張圖片,其中M200endendsamplemean=mean(allsamples); % 平均圖片,1 × Nfor i=1:200 xmean(i,:)=allsamples(i,:)-samplemean; % x

9、mean 是一個(gè)M × N 矩陣,xmean每一行保存的數(shù)據(jù)是“每個(gè)圖片數(shù)據(jù)-平均圖片”end;% 獲取特征值及特征向量sigma=xmean*xmean' % M * M 階矩陣v d=eig(sigma);d1=diag(d);% 按特征值大小以降序排列dsort = flipud(d1);vsort = fliplr(v);%以下選擇90%的能量dsum = sum(dsort);dsum_extract = 0;p = 0;while( dsum_extract/dsum < 0.9)p = p + 1;dsum_extract = sum(dsort(1:p)

10、;endp = 199;% (訓(xùn)練階段)計(jì)算特征臉形成的坐標(biāo)系%while (i<=p && dsort(i)>0)% base(:,i) = dsort(i)(-1/2) * xmean' * vsort(:,i); % base 是N×p 階矩陣,除以dsort(i)(1/2)是對(duì)人臉圖像的標(biāo)準(zhǔn)化,詳見(jiàn)基于PCA 的人臉識(shí)別算法研究p31% i = i + 1; % xmean' * vsort(:,i)是小矩陣的特征向量向大矩陣特征向量轉(zhuǎn)換的過(guò)程%endbase = xmean' * vsort(:,1:p) * diag(d

11、sort(1:p).(-1/2);% 生成特征臉for (k=1:p),temp = reshape(base(:,k), 112,92);newpath = 'd:test' int2str(k) '.jpg'imwrite(mat2gray(temp), newpath);endavg = reshape(samplemean, 112,92);imwrite(mat2gray(avg), 'd:testaverage.jpg');% 將模型保存save('e:ORLmodel.mat', 'base', &#

12、39;samplemean');人臉重建% Reconstruct.mfunction = reconstruct()load e:ORLmodel.mat;% 計(jì)算新圖片在特征子空間中的系數(shù)img = 'D:test210.jpg'a=imread(img);b=a(1:112*92); % b 是行矢量 1×N,其中N10304,提取順序是先列后行,即從上到下,從左到右b=double(b);b=b-samplemean;c = b * base; % c 是圖片a 在子空間中的系數(shù), 是1*p 行矢量% 根據(jù)特征系數(shù)及特征臉重建圖% 前15 個(gè)t = 1

13、5;temp = base(:,1:t) * c(1:t)'temp = temp + samplemean'imwrite(mat2gray(reshape(temp, 112,92),'d:test2t1.jpg');% 前50 個(gè)t = 50;temp = base(:,1:t) * c(1:t)'temp = temp + samplemean'imwrite(mat2gray(reshape(temp, 112,92),'d:test2t2.jpg');% 前100 個(gè)t = 100;temp = base(:,1:t) * c(1:t)'temp = temp + samplemean'imwrite(mat2gray(reshape(temp, 112,92),'d:test2t3.jpg');% 前150 個(gè)t = 150;temp = base(:,1:t) * c(1:t)'temp = temp + samplemean'imwrite(mat2gray

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論