摘 要: 張量主成分分析法(TPCA)用于人臉特征提取,克服了傳統(tǒng)的基于統(tǒng)計(jì)特征的特征提取方法會(huì)破壞圖像原始結(jié)構(gòu)的問(wèn)題;而源圖像經(jīng)過(guò)非下采樣剪切波變換后得到了k個(gè)大小相同但尺度不同的帶通圖像,具有良好的時(shí)頻分析特征。為了更好地提取人臉識(shí)別特征,提出了非下采樣剪切波融合TPCA的人臉特征提取算法,該算法先對(duì)源圖像進(jìn)行非下采樣剪切波變換得到4個(gè)子代圖像,再對(duì)子代圖像進(jìn)行TPCA特征提取得到特征集,實(shí)現(xiàn)人臉的高效識(shí)別。實(shí)驗(yàn)結(jié)果表明,該算法明顯優(yōu)于原有的單一算法。
關(guān)鍵詞: 非下采樣剪切波變換;張量主成分分析;特征提取;人臉識(shí)別
人臉識(shí)別技術(shù)有著十分廣闊的研究前景,在許多領(lǐng)域得到了應(yīng)用。人臉識(shí)別的特征提取是決定人臉識(shí)別準(zhǔn)確率的關(guān)鍵性因素之一,其目標(biāo)是用最少的特征來(lái)表征人臉,同時(shí)又可以最大程度地區(qū)分人臉,研究表明:不同的人臉特征提取方法對(duì)人臉識(shí)別的性能影響很大[1]。提取人臉特征的方法分為基于幾何特征和基于統(tǒng)計(jì)特征兩種,近年來(lái)所提出的方法主要是基于統(tǒng)計(jì)特征[2]。主成分分析法(PCA)是一種經(jīng)典的基于統(tǒng)計(jì)特征的人臉特征提取方法[3],其主要思想是:把人臉圖像展開(kāi)成高維的行或列向量,然后計(jì)算這些向量的協(xié)方差矩陣的特征向量所組成的投影矩陣,最后通過(guò)投影矩陣把原始訓(xùn)練樣本的高維向量投影到低維向量。但是這種方法有以下問(wèn)題:(1)圖像展開(kāi)成向量的形式,破壞了圖像的原始空間結(jié)構(gòu);(2)圖像展成高維的向量容易造成維數(shù)災(zāi)難;(3)求解樣本的協(xié)方差矩陣需要大量的存儲(chǔ)空間和計(jì)算量。
為了解決PCA算法提取人臉特征的不足,提出了張量主成分分析法(TPCA)進(jìn)行人臉特征的提取[4-8]。TPCA將圖像看成二階張量空間中的點(diǎn),投影后的特征既能有效地保持張量圖像像點(diǎn)之間的空間關(guān)系,又能良好地保持蘊(yùn)含在張量圖像之間的類(lèi)內(nèi)關(guān)系,提高了人臉特征提取的準(zhǔn)確性。
非下采樣剪切波變換將圖像分解成4個(gè)子代圖像,每個(gè)子代圖像的面積與當(dāng)前圖像的面積相等,其中一個(gè)子代圖像對(duì)應(yīng)圖像的低通部分,保留了當(dāng)前圖像的主要信息;而其他3個(gè)子帶圖像對(duì)應(yīng)當(dāng)前圖像的高通部分,保留了當(dāng)前圖像的細(xì)節(jié)信息。
非下采樣剪切波融合TCPA的人臉特征提取算法的主要思想是:首先對(duì)圖像做非下采樣剪切波變換,然后再用TPCA進(jìn)行特征提取,并分別在3個(gè)人臉數(shù)據(jù)庫(kù)ORL、FLD、FERET及自建庫(kù)進(jìn)行實(shí)驗(yàn),得到了更高的識(shí)別率。
1 非下采樣剪切波變換
非下采樣剪切波變換過(guò)程主要分為以下兩部分[9]:
?。?)非下采樣金字塔(NSP)分解
首先采用二通道的非下采樣濾波器組使得非下采樣剪切波具備了多尺度的性質(zhì),原來(lái)的圖像經(jīng)過(guò)一級(jí)NSP分解可產(chǎn)生一個(gè)低通的子代圖像,之后的每一級(jí)NSP分解都在低通分量上進(jìn)行迭代,得到圖像中的奇異點(diǎn)。所以,二維的圖像經(jīng)過(guò)k級(jí)NSP分解后,可得到1個(gè)低通圖像和k個(gè)大小相同但尺度不同的子帶通圖像。
(2)方向局部化
方向局部化是通過(guò)剪切波器(SF)實(shí)現(xiàn)的。通過(guò)偽極化坐標(biāo)映射到笛卡爾坐標(biāo),運(yùn)用Meyer小波構(gòu)造窗口函數(shù),得到剪切波濾波器,將分解后的帶通子代圖像與Meyer窗口函數(shù)進(jìn)行二維卷積運(yùn)算,得到方向子代圖像。
自建庫(kù)中圖像及其一層非下采樣剪切波變換圖像如圖1所示。非下采樣剪切波變換的過(guò)程不存在下采樣操作,所以避免了下采樣變換的不足,使其具有平移不變性,同時(shí)具備了非常好的局部特性、較高的方向敏感性和尺度化的拋物線特性等。
2 張量主成分分析法(TPCA)
假設(shè)一個(gè)圖像矩陣為X∈RW×H,利用二階TPCA對(duì)X來(lái)進(jìn)行特征提取,首先要得到兩個(gè)投影矩陣U∈RW×l1和V∈RH×l2,把X投影到低維的矩陣子空間:
Y=UTXV∈Rl1×l2(1)
兩個(gè)最優(yōu)的投影矩陣U、V可以通過(guò)計(jì)算Y和X的最小重構(gòu)方差得到[10]:
參考文獻(xiàn)[11]給出了求解U、V的步驟,前提是樣本的均值矩陣全為零矩陣,而且需要計(jì)算樣本間的相關(guān)協(xié)方差矩陣,本文改進(jìn)參考文獻(xiàn)[11]的方法,如表1所示。
3 算法實(shí)現(xiàn)過(guò)程
首先對(duì)人臉圖像進(jìn)行非下采樣剪切波變換得到4個(gè)子代圖像,然后對(duì)子代圖像進(jìn)行特征提取,最后用最鄰近法進(jìn)行人臉的分類(lèi)。圖像經(jīng)過(guò)非下采樣剪切波變換產(chǎn)生的4個(gè)子代圖像對(duì)表征圖像特征的貢獻(xiàn)率不同,賦予它們不同的權(quán)值,權(quán)值滿足:
w1+w2+w3+w4=1(3)
給出訓(xùn)練樣本圖像Xi,它是從每類(lèi)圖像中抽取的一些圖像,其余的圖像就組成了測(cè)試樣本圖像Yj。對(duì)每個(gè)Xi進(jìn)行非下采樣剪切波變換得到4個(gè)子代圖像,再用TPCA進(jìn)行特征提取得到訓(xùn)練樣本特征集合Xi1,Xi2,Xi3,Xi4。對(duì)Yj進(jìn)行同樣處理,得到測(cè)試樣本特征集合Yj1,Yj2,Yj3,Yj4。
根據(jù)與Yj距離最小的Xi來(lái)判斷Yj所屬的類(lèi)別,利用式(4)計(jì)算測(cè)試樣本特征集合和訓(xùn)練樣本特征集合之間的距離:
dist(Yj,Xi)=w1dis(Yj1,Xi1)+w2dis(Yj2,Xi2)+w3dis(Yj3, Xi3)+w4dis(Yj4,Xi4)(4)
其中,dis(·)算子的計(jì)算方法為:
dis(X,Y)=sqrt(trace((X-Y)*(X-Y))T)(5)
4 實(shí)驗(yàn)分析
采用4個(gè)人臉圖像數(shù)據(jù)庫(kù)進(jìn)行實(shí)驗(yàn),分別是:ORL、FLD、FERET和自建庫(kù)。ORL人臉數(shù)據(jù)庫(kù)包括40類(lèi)共400張人臉圖像。FLD人臉數(shù)據(jù)庫(kù)是彩色的,在進(jìn)行人臉識(shí)別之前先把圖像處理成灰度圖像,包括10類(lèi)共20張人臉圖像。FERET人臉數(shù)據(jù)庫(kù)包括200類(lèi)共1 400張人臉圖像?,F(xiàn)有的數(shù)據(jù)庫(kù)不足以檢驗(yàn)算法的準(zhǔn)確性,所以根據(jù)需要建立了一個(gè)自建庫(kù),選取了10類(lèi)不同的人臉,分別在不同光照、不同角度甚至不同配飾下拍攝圖片20幅。
表2~4給出了分別選取2個(gè)樣本、3個(gè)樣本和5個(gè)樣本作為訓(xùn)練集,采用PCA、TPCA和本文方法進(jìn)行人臉識(shí)別時(shí)的平均最高識(shí)別率。可以看出,對(duì)于所有的識(shí)別算法,隨著訓(xùn)練樣本數(shù)量的增加識(shí)別率有所提高,而基于張量的算法在識(shí)別性能上優(yōu)于基于向量的算法,本文算法明顯優(yōu)于以上兩者。
在自建庫(kù)上的各種算法識(shí)別率的比較如表5所示。自建庫(kù)中每類(lèi)每個(gè)圖像的表情和姿勢(shì)變換很大,眼睛和嘴部的變換很明顯,其他幾類(lèi)數(shù)據(jù)庫(kù)沒(méi)有這樣的情況,所以該實(shí)驗(yàn)的識(shí)別率不是很高,但也可以作為參考。
非下采樣剪切波變換融合TPCA的人臉識(shí)別算法,采用TPCA對(duì)非下采樣剪切波變換后的子圖像進(jìn)行特征提取,得到了具有良好分辨能力的圖像特征,識(shí)別算法優(yōu)于單一的張量算法或者非下采樣算法。盡管張量算法優(yōu)于普通的向量算法,但是張量算法只是考慮圖像中同一行或同一列的像素間的關(guān)系,而沒(méi)有考慮圖像的全部空間關(guān)系,而且目前該方法只適用于圖像數(shù)據(jù),但是很容易將其擴(kuò)散到高階張量,從而處理一些視頻數(shù)據(jù),這是進(jìn)行下一步研究的重點(diǎn)問(wèn)題。
參考文獻(xiàn)
[1] Tao Liang, Zhuang Zhenquan. An effective approach for frontal face verification[J]. Journal of image and Graphics, 2003, 8(A):1-3.
[2] Liu Qingshan, Lu Hanqing, Ma Songde. A survey: subspace analysis for face recognition[J]. Automatica Sinica,2003, 129(16):900-911.
[3] BELHUMEUR P N, HESPANHA J P, KRIENGMAN D J.Eigen faces vs. Fisher faces[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997:19(7):711-720.
[4] He Xiaofei, Cai Deng, NIYOGI P. Tensor subspace analysis[EB/OL].[2008-7-1]http://books.nips.cc/papers/files/nips18/NIPS2005_2049.pdf.
[5] Yan Shuicheng, Xu Dong, LIN S, et al. Element rearrangement for tensor-based subspace learning[C]. IEEE Conference on Computer Vision and Patten, 2007: 1-8.
[6] Xu Dong, Yan Shuicheng, Zhang Lei, et al. Concurrent subspaces analysis[C]. San Diego: IEEE Conference on Computer Vision and Patten, 2005:203-208.
[7] 楊穎嫻.一種基于模糊支持向量機(jī)的人臉識(shí)別新算法[J].微型機(jī)與應(yīng)用,2012,31(15):43-44.
[8] 張九龍,夏春莉,張志禹,等.基于多尺度分析的人臉識(shí)別比較研究[J].微型機(jī)與應(yīng)用,2011,30(7):46-49.
[9] Gao Yinhan, Chen Guangqiu, Liu Yanyan. Adaptive image fusion based on image quality assessment parameter in NSST system[J]. Journal of Jilin University, 2014:3-4.
[10] PUYATI W, WALAIRACHT S, WALAIRACHT A. PCA in wavelet domain for face recognition[C]. The 8th International Conference on Advanced Communicaltion Technology, ICACT 2006,2006:450-456.
[11] Xu Dong, Yan Shuicheng, Zhang Lei. Coupled subspaces analysis[EB/OL]. [2008-07-10]ftp://ftp.research.microsoft.com/pub/tr/TR-2004-106.pdf