基于KL變換的人臉識別報告_第1頁
基于KL變換的人臉識別報告_第2頁
基于KL變換的人臉識別報告_第3頁
基于KL變換的人臉識別報告_第4頁
基于KL變換的人臉識別報告_第5頁
已閱讀5頁,還剩8頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、模式識別大作業班級:09030901題目:基于KL變換的人臉識別姓名:黎 照 學號:2009302320姓名:陳升富 學號:2009302313姓名:益 琛 學號:2009302311日期:2012/4/25【摘要】本次實驗論述了K_L變換在人臉識別中的應用,主要介紹人臉識別過程中的每個環節,整個過程包括人臉圖像的采集、預處理、特征提取到訓練和識別。圖像的采集預處理特征提取人臉識別一、基本要求從網上下載人臉圖像,構建人臉訓練數據庫和測試數據庫,采用K-L變換進行特征臉提取,并實現人臉識別。通過K-L變換在人臉識別中的應用,加深對所學內容的理解和感性認識。二、主要思想基于特征臉的人臉識別方法是基

2、于K-L變換的人臉識別方法,K-L變換是圖像壓縮的一種最優正交變換。高維的圖像空間經過K-L變換后得到一組新的正交基,保留其中重要的正交基,由這些基可以轉成低維線性空間。如果假設人臉在這些低維線性空間的投影具有可分性,就可以將這些投影用作識別的特征矢量,這就是特征臉方法的基本思想實驗原理1、K-L變換設n維隨機向量其均值向量,相關矩陣,協方差矩陣,經正交變換后產生向量。設有標準正交變換矩陣T,(即 TT=I), (稱為的K-L展開式)取前m項為的估計值 其均方誤差為在TT=I的約束條件下,要使均方誤差為此設定準則函數由 得 ,即 表明: li是的特征值,而是相應的特征向量。利用上式有:用“截斷

3、”方式產生x的估計時,使均方誤差最小的正交變換矩陣是其相關矩陣Rx的前m個特征值對應的特征向量構成的。2、構造參數模型使用K-L變換不僅能起到降維與壓縮數據的作用,更重要的是每個描述量都有明確的意義,因而改變某一個參數就可以讓圖像按需要的方向變化。在沒有使用K-L變換的原始數據集中對圖像的描述量是每個像素的灰度值,而孤立的改變某個像素的灰度值是沒有意義的。而在使用K-L變換后,每個描述量都有其各自的作用。因此通過改變這些參數的值就可以實現對模型的有效描述,這在圖像生成中很有用。因此利用K-L變換構造出可控制的,連續可調的參數模型在人臉識別方面的應用十分有效 3、人臉識別利用K-L變換進行人臉圖

4、象識別原理:第一步:搜集要識別的人的人臉圖象,建立人臉圖象庫第二步:利用K-L變換確定相應的人臉基圖象,再反過來用這些基圖象對人臉圖象庫中的所有人臉圖象進行K-L變換,從而得到每幅圖象的參數向量并將每幅圖的參數向量存起來第三步:先對一張所輸入的臉圖象進行必要的規范化,再進行K-L變換分析,得到其參數向量第四步:將這個參數向量與庫中每幅圖的參數向量進行比較,找到最相似的參數向量,也就等于找到最相似的人臉,從而認為所輸入的人臉圖象就是庫內該人的一張人臉, 完成了識別過程。搜集人臉圖象,建立人臉庫確定基圖象,并用基圖象對所有人臉進行K-L變換對輸入的圖象規范化并進行K-L變換,得到其參數向量正確錯誤

5、將參數向量與庫中參數向量比較比對實驗源代碼1、特征人臉 function = eigface()allsamples=; for i=1:7a=imread( strcat( C:UserslenvoDesktop圖 , ,num2str(i), .BMP ) ); b=a( 1:100*100 ); b=double(b);allsamples= allsamples; b ; endsamplemean=mean(allsamples); for i=1:7xmean(i,:)=allsamples(i,:)-samplemean;end;sigma=xmean*xmean; v d=ei

6、g(sigma);d1=diag(d);dsort = flipud(d1);vsort = fliplr(v);dsum = sum(dsort);dsum_extract = 0;p = 0;while( dsum_extract/dsum 0.9) p = p + 1; dsum_extract = sum(dsort(1:p);endp=6;base = xmean * vsort(:,1:p) * diag(dsort(1:p).(-1/2);for ( k=1:p ) hape( base(:,k), 100,100); newpath = C:UserslenvoDesktopt

7、est int2str(k) .jpg; imwrite( mat2gray(temp), newpath );endavg = reshape(samplemean, 100,100);imwrite(mat2gray(avg), C:UserslenvoDesktoptestaverage.jpg);save(C:UserslenvoDesktoptesteigface.mat, base, samplemean);2、識別allsamples=; for i=1:7a=imread( strcat( C:UserslenvoDesktop 圖 , ,num2str(i), .BMP )

8、); b=double(b); allsamples= allsamples; b ; endsamplemean=mean(allsamples); for i=1:7 xmean(i,:)=allsamples(i,:)-samplemean; end;sigma=xmean*xmean; v d=eig(sigma);d1=diag(d);dsort = flipud(d1);vsort = fliplr(v);dsum = sum(dsort);dsum_extract = 0;p = 0;while( dsum_extract/dsum 0.9) p = p + 1; dsum_ex

9、tract = sum(dsort(1:p);endi=1;base = xmean * vsort(:,1:p) * diag(dsort(1:p).(-1/2);allcoor = allsamples * base; accu = 0; for j=1:3 a=imread( strcat( C:UserslenvoDesktoptest3 , ,num2str(i), .BMP ) ); b=a(1:10000); b=double(b); tcoor= b * base; for k=1:7 mdist(k)=norm(tcoor-allcoor(k,:); end; dist,in

10、dex2=sort(mdist); class1=floor( (index2(1)-1)/5 )+1; class2=floor(index2(2)-1)/5)+1; class3=floor(index2(3)-1)/5)+1; if class1=class2 & class2=class3 class=class1; elseif class1=class2 class=class1; elseif class2=class3 class=class2; end; if class=i accu=accu+1; end; end; accuracy =accu/7 3重構functio

11、n = Reconstruct()load C:UserslenvoDesktoptesteigface.mat;a=imread(C:UserslenvoDesktoptest210.bmp); b=a( 1:100*100 ); b=double(b);b=b-samplemean;c = b * base; t = 2;temp = base(:,1:t) * c(1:t);temp = temp + samplemean;imwrite(mat2gray(reshape(temp, 100,100),C:UserslenvoDesktop1.jpg)t = 4;temp = base(

12、:,1:t) * c(1:t);temp = temp + samplemean;imwrite(mat2gray(reshape(temp, 100,100),C:UserslenvoDesktop2.jpg);t = 6;temp = base(:,1:t) * c(1:t);temp = temp + samplemean;imwrite(mat2gray(reshape(temp, 100,100),C:UserslenvoDesktop3.jpg);五、實驗結果給出ORL人臉數據庫,共有400幅人臉圖像(40人,每人10幅,大小為92*112象素)。其中第一個人的圖像如下圖: 選取數

13、據庫中的部分樣本(每個人的前5張圖片)作為訓練樣本,其余作為未知的測試樣本。從訓練樣本中得到KL變換矩陣,然后對訓練樣本和測試樣本都進行變換,用變換后的數據作最近鄰識別,距離可以為對應灰度值之差的平方和,統計識別率。 通過取不同的前N個最大特征向量,如最大的10個表示為190:200,得到如下識別率的數據:190:200 識別率為: 0.9100180:200 識別率為: 0.9350170:200 識別率為: 0.9450160:200 識別率為: 0.9500150:200 識別率為: 0.9450140:200 識別率為: 0.9500130:200 識別率為: 0.9400120:200 識別率為: 0.9500110:200 識別率為: 0.9450100:200 識別率為: 0.9450 50:200 識別率為: 0.950020:200 識別率為: 0.96001:200 識別率為: 0.9600當最大特征向量達到30個以后識別率已經固定在0.9450。再增加提高已經不大。六、心得體會人臉識別是當前人工智能和模

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論