發(fā)布時(shí)間:所屬分類:計(jì)算機(jī)職稱論文瀏覽:1次
摘 要: 要: 針對(duì)圖像特征提取方法提取單一特征不能很好地表示圖像的問題,提出了二維線性鑒別分析和協(xié)同表示的面部識(shí)別方法. 該方法首先通過二維線性鑒別分析( Two-Dimensional Linear Discriminant Analysis,2DLDA) 分別對(duì)訓(xùn)練樣本的類間散布矩陣和類內(nèi)散布矩陣提取特征,之
要: 針對(duì)圖像特征提取方法提取單一特征不能很好地表示圖像的問題,提出了二維線性鑒別分析和協(xié)同表示的面部識(shí)別方法. 該方法首先通過二維線性鑒別分析( Two-Dimensional Linear Discriminant Analysis,2DLDA) 分別對(duì)訓(xùn)練樣本的類間散布矩陣和類內(nèi)散布矩陣提取特征,之后利用得到的特征重建圖像,包括類間虛擬圖像和類內(nèi)虛擬圖像. 其次,將類間虛擬圖像、類內(nèi)虛擬圖像和原始圖像利用協(xié)同表示( Collaborative Representation,CR) 算法進(jìn)行得分. 最后,采用加權(quán)得分融合算法將上述得分進(jìn)行融合以獲得最終得分,并利用最終得分進(jìn)行圖像識(shí)別. 該方法不僅有效的抑制了光照和表情對(duì)面部識(shí)別的影響,同時(shí)根據(jù)獲得的類間虛擬圖像、類內(nèi)虛擬圖像與原始圖像互補(bǔ),有效的提高面部圖像識(shí)別的性能. 實(shí)驗(yàn)結(jié)果表明,該方法在不同的數(shù)據(jù)庫下( ORL、AR、GT) 具有較好的識(shí)別精度.
關(guān) 鍵 詞: 圖像識(shí)別; 二維線性鑒別分析; 協(xié)同表示; 得分融合
1 引 言
面部識(shí)別在生物特征識(shí)別技術(shù)中占有重要的位置,同時(shí),在實(shí)際應(yīng)用中面部識(shí)別技術(shù)廣泛地應(yīng)用于交通安全、快捷支付和智能管理等領(lǐng)域內(nèi)[1,2]. 然而,面部識(shí)別技術(shù)仍存在諸多挑戰(zhàn),如: 不同光照、不同角度、變化表情和有無遮擋等. 因此,如何更好的提取面部圖像特征來表示圖像成為研究人員研究的熱點(diǎn).
Liu 等人提出了基于幾何特征圖像識(shí)別方法[3],該方法提取面部關(guān)鍵器官的位置信息進(jìn)行識(shí)別,如人的眼睛、鼻子等. Gross 等人提出基于表象( Appearance-based) 的人臉識(shí)別方法[4],該方法將面部圖像看作一個(gè)整體并利用面部的全部信息進(jìn)行面部識(shí)別. 主成分分析( Principal Component Analysis,PCA) 是基于表象的面部識(shí)別方法之一[5],PCA 也稱為 K-L 變換,它的主要思想是將面部圖像矩陣轉(zhuǎn)換為一維向量.然而,PCA 方法可能導(dǎo)致面部圖像部分關(guān)鍵特性丟失,并且算法復(fù)雜度較高. 因此 Yang 等人提出了二維主成分分析方法 ( Two-Dimensional Principal Component Analysis, 2DPCA) [6]. 2DPCA 方法不需要將圖像矩陣轉(zhuǎn)換為一維向量,該方法具有計(jì)算簡(jiǎn)便的顯著特點(diǎn),其計(jì)算代價(jià)遠(yuǎn)小于 PCA 方法. 由于,通過 2DPCA 方法構(gòu)建協(xié)方差矩陣提取的單一特征不能對(duì)所得圖像都有較好的魯棒性. 因此,本文將通過二維線性鑒別分析方法提取兩類特征,將在第 2. 1 部分詳細(xì)介紹.
此外,近年來提出的稀疏表示( Sparse Representation) 方法[7]對(duì)于面部識(shí)別非常有效. 該方法實(shí)現(xiàn)的主要思想是假設(shè)給定一個(gè)測(cè)試樣本可以由所有類的全體訓(xùn)練樣本線性組合來近似表示,進(jìn)而獲取稀疏表示系數(shù),然后計(jì)算給定的測(cè)試樣本和所有類的訓(xùn)練樣本之間的殘差,即殘差最小的類別是該測(cè)試樣本的類別. Wright 等人提出測(cè)試樣本可以由其同類訓(xùn)練樣本線性表示,稀疏表示方法也稱為稀疏表示分類( Sparse Representation based Classification,SRC) [8]. SRC 方法通過 l1 范數(shù)求得的稀疏解具有較好的稀疏性,然而,該方法具有較高的計(jì)算代價(jià). 為了解決上述這個(gè)問題,Zhang 等人通過 l2 范數(shù)求稀疏解,l2 范數(shù)較 l1 范數(shù)求得的稀疏解具有較弱的稀疏性,但在求解時(shí)可以大大降低其計(jì)算代價(jià),此方法稱為協(xié)同表示 分 類 ( Collaborative Representation based Classification, CRC) [9]. 本文將利用 CRC 作為分類器,將在第 2. 2 節(jié)詳細(xì)介紹.
Xu 等人通常以得分層融合方法、特征層融合方法和決策層融合方法對(duì)兩種特征進(jìn)行融合[10-13]. 特征層融合方法是將全部生物特征看做一個(gè)樣本進(jìn)行識(shí)別,然而不同生物特征存在較大的差異影響其識(shí)別性能. 決策層融合方法是最簡(jiǎn)單的一種融合方法,但是它的融合效果略差于其它兩種融合方法.得分層融合方法[14,15]是將每個(gè)特征得出的各自得分( 也稱為距離) 進(jìn)行融合. 因此,本文采用一種加權(quán)得分融合機(jī)制將類間虛擬圖像、類內(nèi)虛擬圖像和原始圖像[16-18] 分別在 CRC 上的獲得得分并進(jìn)行融合,將在第 2. 3 節(jié)詳細(xì)介紹. 為了驗(yàn)證本文方法的識(shí)別性能,分別在 ORL、AR、GT 不同數(shù)據(jù)庫上進(jìn)行實(shí)驗(yàn).
本文的主要貢獻(xiàn)如下:
1) 本文首次提出對(duì)二維線性鑒別分析的類間散布矩陣和類內(nèi)散布矩陣進(jìn)行特征提取,進(jìn)而得到兩類特征,即類間特征和類內(nèi)特征. 有效緩解了單一特征不能很好地表示圖像的問題.
2) 本文所提出的類間特征和類內(nèi)特征與原始圖像是互補(bǔ)的.
3) 本文采用新穎的加權(quán)得分融合機(jī)制將原始圖像和 2) 中特征進(jìn)行融合.
本文其余組織如下: 第 2 部分詳細(xì)介紹了提出方法; 第 3 部分展示了提出方法的性能; 第 4 部分提供了實(shí)驗(yàn)結(jié)果; 第 5 部分給出了本文的結(jié)論.
2 提出的方法
本章涉及的基本符號(hào)如表 1 所示.
2. 1 類間虛擬圖像和類內(nèi)虛擬圖像
本文通過二維線性鑒別分析構(gòu)建類間散布矩陣和類內(nèi)散布矩陣,并且分別進(jìn)行特征提取. 定義類間散布矩陣 Sb 和類內(nèi)散布矩陣 Sw . 分別從 Sb 中求解最優(yōu)投影向量組 u 和 Sw 中求解最優(yōu)投影向量組 v,從而將所有面部圖像分別對(duì) u 和 v 作投影得到各自的特征向量,具體過程如下:
相關(guān)知識(shí)推薦:人臉識(shí)別有關(guān)論文投稿期刊推薦
令樣本類別有 M 個(gè),第 j 類樣本有 N 個(gè)圖像: Aj 1,Aj 2, …,AjN,每幅圖像均為 m × n 的矩陣. 定義準(zhǔn)則函數(shù) J1 ( x) = uT Sb u,當(dāng) uT Sb u 取最大時(shí),圖像矩陣對(duì)向量組 u 作投影獲得 特征向量的類別間分散程度最優(yōu). uT Sb u最大取值問題可以轉(zhuǎn)化為求解 Sb 中最大 g 個(gè)特征值所對(duì)應(yīng)的特征向量問題.
2. 2 協(xié)同表示分類
針對(duì)于面部識(shí)別中小樣本問題,稀疏表示方法是解決這個(gè)問題最佳方法之一. 稀疏表示方法核心思想是通過給定測(cè)試樣本 y 由所有訓(xùn)練樣本線性組合表示,并且求出稀疏系數(shù),利用每類訓(xùn)練樣本和稀疏系數(shù)重構(gòu)后與所有測(cè)試樣本進(jìn)行分類. 稀疏表示方法具體過程如下:
假設(shè)矩陣 Aj 表示第 j 類所有訓(xùn)練樣本,樣本類別個(gè)數(shù)為 M. 記 A =[A1,A2,…,AM],A 表示全體訓(xùn)練樣本組成矩陣. 給定一個(gè)測(cè)試樣本 y 可用所有訓(xùn)練樣本線性組合表示,即 Aw = y
2. 3 得分融合與圖像分類
根據(jù)本文前面介紹的理論,得分融合方法首先獨(dú)立對(duì)待各生物特征,得出各自識(shí)別結(jié)果后再進(jìn)行融合,得分融合方法比其它兩類融合方法往往能取得較優(yōu)鑒別性能.
3 算法的步驟及性能展示
3. 1 算法步驟
根據(jù)第 2 部分的分析和推導(dǎo),我們以 ORL 數(shù)據(jù)集為例,闡述本文方法的主要操作步驟.
步驟 1. 將 ORL 數(shù)據(jù)庫分為訓(xùn)練樣本集和測(cè)試樣本集,如: 每個(gè)類別選取前 2-5 張作為訓(xùn)練樣本,其余作為測(cè)試樣本. 并將訓(xùn)練樣本集和測(cè)試樣本集的面部圖像大小統(tǒng)一設(shè)置為 50* 50 像素.
步驟 2. 利用公式( 1) -公式( 3) 構(gòu)造原始面部圖像訓(xùn)練樣本集的類間散布矩陣,通過特征提取方式提取相應(yīng)特征向量,并且利用公式( 4) 將訓(xùn)練樣本集和測(cè)試樣本集分別向提取出來的特征向量作投影,得到對(duì)應(yīng)訓(xùn)練樣本的類間虛擬圖像和測(cè)試樣本的類間虛擬圖像.
步驟3. 利用公式( 2) 、公式( 5) 構(gòu)造原始面部圖像訓(xùn)練樣本集的類內(nèi)散布矩陣,通過特征提取方式提取與之對(duì)應(yīng)的特征向量,并利用公式( 6) 將訓(xùn)練樣本集和測(cè)試樣本集分別向提取的特征向量作投影,獲得對(duì)應(yīng)訓(xùn)練樣本的類內(nèi)虛擬圖像和測(cè)試樣本的類內(nèi)虛擬圖像.
步驟 4. 利用稀疏解具體表現(xiàn)公式 w = ( AT A + γI) - 1 AT y 和公式( 10) 分別獲取原始面部圖像中測(cè)試樣本 y 的得分、類間虛擬圖像中測(cè)試樣本 y 的得分和類內(nèi)虛擬圖像中測(cè)試樣本 y 的得分,其中 γ 表示一個(gè)很小的常量,I 表示為單位矩陣.
步驟 5. 分別獲取權(quán)重系數(shù) q1、q2 和 q3,并通過公式( 11) 融合原始圖像的得分、類間虛擬圖像的得分和類內(nèi)虛擬圖像的得分.
步驟 6. 通過公式( 14) 將融合后最終的得分進(jìn)行面部圖像識(shí)別.
3. 2 算法性能展示
為了讓讀者更直觀的了解本文原理,通過圖 1 展示了本文提出的類間虛擬圖像和類內(nèi)虛擬圖像示意圖. 本文通過 2DLDA 來提取圖像的類間特征和類內(nèi)特征,通過特征提取的方式重構(gòu)類間虛擬圖像和類內(nèi)虛擬圖像,類間虛擬圖像和類內(nèi)虛擬圖像與原始圖像是互補(bǔ)的. 在圖 1 中,第 1 行展示了原始圖像,第 2 行展示了類間虛擬圖像,第 3 行展示了類內(nèi)虛擬圖像.
通過圖 2 展示了選取不同特征向量個(gè)數(shù)下對(duì)應(yīng)的識(shí)別錯(cuò)誤率的直觀圖. 從圖 2 中可以看出,本文提出的方法在選取不同特征向量個(gè)數(shù)下,識(shí)別率的總體趨勢(shì)是趨于平穩(wěn)的,具有穩(wěn)定性. 當(dāng)特征向量個(gè)數(shù)選為 15 時(shí),本文方法面部識(shí)別錯(cuò)誤率最低.
通過圖 3 展示了不同訓(xùn)練樣本個(gè)數(shù)下對(duì)應(yīng)的識(shí)別錯(cuò)誤率. 從圖 3 中可以看出,本文提出的方法有著較低的錯(cuò)誤識(shí)別率,隨著每類訓(xùn)練樣本個(gè)數(shù)的增加,其面部識(shí)別錯(cuò)誤率越來越低.
4 實(shí)驗(yàn)結(jié)果
為了進(jìn)一步測(cè)試本文提出方法的性能,在 ORL、AR 及 GT 數(shù)據(jù)庫上分別設(shè)計(jì)了實(shí)驗(yàn). 我們?cè)O(shè)計(jì)了協(xié)同表示分類方法、快速迭代算法( Fast Iterative Shrinkage Thresholding Algorithm,F(xiàn)ISTA) 、同倫法( Homotopy Method) 和增廣拉格朗日乘子法( Primal Augmented Lagrange Multiplier,PALM ) 來分別作為分類算法.
本章采用識(shí)別錯(cuò)誤率來比較算法之間性能的好壞,識(shí)別錯(cuò)誤率越低,算法的性能越好. 表 2-表 4 中,“本文方法”表示在 ORL、AR 和 GT 面部數(shù)據(jù)庫上的識(shí)別精度,具體為將原始圖像、類間虛擬圖像和類內(nèi)虛擬圖像分別利用 CRC 進(jìn)行得分,利用文中公式( 11) 所示的加權(quán)融合機(jī)制進(jìn)行得分融合,并利用最終得分進(jìn)行面部識(shí)別.“類間虛擬圖像/類內(nèi)虛擬圖像/原始圖像 + CRC /FISTA /HOMOTOPY /PALM”分別表示在不同數(shù)據(jù)集上類間虛擬圖像/類內(nèi)虛擬圖像/原始圖像在分類算法為 CRC /FISTA /HOMOTOPY /PALM 上的識(shí)別結(jié)果; 從表 2-表 4 中可以看出,本文提出的方法對(duì)于面部圖像識(shí)別具有較低的識(shí)別錯(cuò)誤率.
4. 1 在 ORL 面部數(shù)據(jù)上的實(shí)驗(yàn)
本部分將在 ORL 人臉數(shù)據(jù)庫進(jìn)行實(shí)驗(yàn). ORL 人臉數(shù)據(jù)庫包含了 40 個(gè)人,每個(gè)人 10 幅圖像,共 400 幅人臉圖像. 每幅人臉圖像均在不同的光照、不同的表情變化、不同的角度條件下獲得. 在 ORL 人臉數(shù)據(jù)庫中圖像包括表情的變化( 笑或不笑,睜眼或閉眼) 及面部細(xì)節(jié). 每幅人臉圖像分辨率均為 50 像素 × 50 像素,每幅人臉圖像的格式為'. bmp'. 圖 4 顯示 ORL 人臉數(shù)據(jù)庫的部分圖像.
表 2 展示了在 ORL 數(shù)據(jù)庫的識(shí)別錯(cuò)誤率,每個(gè)受試者前 2-5 幅圖像作為訓(xùn)練樣本,其余圖像作為測(cè)試樣本. 從表2中可以看出,本文方法在 ORL 數(shù)據(jù)庫上具有較低的錯(cuò)誤率.例如: 當(dāng)每類訓(xùn)練樣本個(gè)數(shù)為 2-5 時(shí),并且分類器選為 CRC 時(shí),本文方法的識(shí)別錯(cuò)誤率為 14. 06% ,12. 14% ,8. 33% , 8. 00% . 然而,原始圖像利用 CRC 進(jìn)行分類時(shí),它的識(shí)別錯(cuò)誤率為 16. 25% ,14. 64% ,10. 83% ,11. 00% . 由表 2 可知,當(dāng)不同訓(xùn)練樣本個(gè)數(shù)由 2 變化到 5 時(shí),本文提出的方法也比文獻(xiàn)[18]方法( 2DPCA + Original images + CRC) 、文獻(xiàn)[17]方法 ( FFT + Original images + CRC) 和文獻(xiàn)[15]中的一般融合方法( Gabor + L1LS) 效果要好.
4. 2 在 AR 面部數(shù)據(jù)庫上的實(shí)驗(yàn)
本部分將在 AR 人臉數(shù)據(jù)庫進(jìn)行實(shí)驗(yàn). AR 人臉數(shù)據(jù)庫中包含了 120 個(gè)人,每個(gè)人 26 幅圖像,共 3120 幅人臉圖像. 圖像在不同光照、不同面部表情、不同角度和有無遮擋物( 戴眼鏡或圍巾) 條件下獲得. 每幅人臉圖像的分辨率均為 50 像素 × 40 像素,每幅人臉圖像的格式均為'. tif'. 圖 5 顯示 AR 人臉數(shù)據(jù)庫的部分圖像.
每個(gè)受試者前 9-12 幅圖像作為訓(xùn)練樣本,其余圖像作為測(cè)試樣本. 例如: 分類器選為 CRC 時(shí),本文提出的方法錯(cuò)誤率為 30. 74% ,32. 76% ,23. 11% ,24. 88% . 然而,使用 FISTA 對(duì)原始圖像進(jìn)行分類并且每類訓(xùn)練樣本個(gè)數(shù)為 9-12 時(shí),它的識(shí)別錯(cuò)誤率為 44. 95% ,47. 71% ,34. 33% ,35. 89% . 由表 3 可知,當(dāng)每個(gè)訓(xùn)練樣本個(gè)數(shù)由 9 變化到 12 時(shí),本文提出的方法在 AR 數(shù)據(jù)庫上的識(shí)別錯(cuò)誤率低于原始圖像使用 FISTA 的識(shí)別錯(cuò)誤率.
4. 3 在 GT 面部數(shù)據(jù)庫上的實(shí)驗(yàn)
本部分將在 GT 人臉數(shù)據(jù)庫進(jìn)行實(shí)驗(yàn). GT 人臉數(shù)據(jù)庫中包含了 50 個(gè)人,每個(gè)人 15 幅彩色圖像,共 750 幅圖像. 在 GT 人臉數(shù)據(jù)庫中,每個(gè)人的面部細(xì)節(jié)和面部表情都存在著不同程度的變化. 將每幅人臉圖像的壓縮為 50 像素 × 50 像素,實(shí)驗(yàn)中將這些彩色圖像轉(zhuǎn)化為灰度圖像. 每幅人臉圖像的格式均為'. jpg'. 圖 6 顯示 GT 人臉數(shù)據(jù)庫的部分圖像.
在 GT 數(shù)據(jù)庫中,每個(gè)受試者的前 9-11 幅圖像作為訓(xùn)練樣本,其余圖像作為測(cè)試樣本. 通過表 4 的實(shí)驗(yàn)結(jié)果可知,當(dāng)每類訓(xùn)練樣本個(gè)數(shù)為 9-11 時(shí)并且分類器選為 CRC 時(shí),本文提出的面部識(shí)別方法錯(cuò)誤率為 28. 67% 、26. 80% 、24. 00% . 文獻(xiàn)[17]方法的識(shí)別錯(cuò)誤率為 31. 67% 、32. 00% 、27. 50% ,而文獻(xiàn)[18]方法的識(shí)別錯(cuò)誤率為 32. 67% 、29. 60% 、29. 50% .由表 4 可知,本文提出的方法與其他經(jīng)典方法相比具有較低的識(shí)別錯(cuò)誤率.
5 結(jié)束語
本文提出了二維線性鑒別分析和協(xié)同表示的面部識(shí)別方法. 該方法在不同人臉數(shù)據(jù)庫中可以獲得較好的識(shí)別性能. 在實(shí)際應(yīng)用中,該方法具有有效性和可行性,不需要手動(dòng)調(diào)整參數(shù)并且易于實(shí)現(xiàn). 本文方法可以獲取類間虛擬圖像和類內(nèi)虛擬圖像來表示原始圖像,不僅保留了圖像關(guān)鍵特征信息,并且在面部識(shí)別方面與原始圖像具有一定的互補(bǔ)性,降低了圖像識(shí)別錯(cuò)誤率. 通過實(shí)驗(yàn)表明,在面部識(shí)別中將類間虛擬圖像、類內(nèi)虛擬圖像和原始圖像的分類結(jié)果進(jìn)行融合可以取得較好的識(shí)別效果.——論文作者:林克正,鄧 旭,張玉倫