《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 可編程邏輯 > 設(shè)計(jì)應(yīng)用 > 基于SURF特征的人臉識(shí)別方法研究
基于SURF特征的人臉識(shí)別方法研究
來(lái)源:微型機(jī)與應(yīng)用2014年第7期
王祎灝,宋璟毓
(中國(guó)船舶工業(yè)集團(tuán)公司 船舶系統(tǒng)工程部,北京 100036)
摘要: 采用了一種基于SURF的人臉識(shí)別方法,其中所提取出的SURF特征向量對(duì)于圖像的尺度與旋轉(zhuǎn)變化均具有較好的適應(yīng)性;通過(guò)采用LDA算法有效地縮短了運(yùn)算時(shí)間;此外還采用K-means聚類方法對(duì)特征向量進(jìn)行分組處理;最后通過(guò)綜合圖像的局部與全局特征信息便可完成對(duì)人臉的分類工作。實(shí)驗(yàn)結(jié)果證明,最終所獲取的LDA-SURF特征向量對(duì)于一般圖像中人臉的平移、亮度變化、遮擋和噪聲等具有良好的不變性。
Abstract:
Key words :

摘  要: 采用了一種基于SURF人臉識(shí)別方法,其中所提取出的SURF特征向量對(duì)于圖像的尺度與旋轉(zhuǎn)變化均具有較好的適應(yīng)性;通過(guò)采用LDA算法有效地縮短了運(yùn)算時(shí)間;此外還采用K-means聚類方法對(duì)特征向量進(jìn)行分組處理;最后通過(guò)綜合圖像的局部與全局特征信息便可完成對(duì)人臉的分類工作。實(shí)驗(yàn)結(jié)果證明,最終所獲取的LDA-SURF特征向量對(duì)于一般圖像中人臉的平移、亮度變化、遮擋和噪聲等具有良好的不變性。
關(guān)鍵詞: 人臉識(shí)別;SURF;LDA算法;K-means聚類

 經(jīng)過(guò)多年研究,人臉識(shí)別已經(jīng)得到了很大發(fā)展,而隨著在訪問(wèn)控制、信息安全和視頻監(jiān)控等領(lǐng)域的應(yīng)用需求不斷增長(zhǎng),如何更好地解決低分辨率、出現(xiàn)遮擋以及光照、姿態(tài)和尺度變化等問(wèn)題已經(jīng)成為近幾年來(lái)研究中的難點(diǎn)與重點(diǎn)[1]。
 現(xiàn)在最為傳統(tǒng)的識(shí)別方法有Eigen Face、Fisher Face和2D-PCA等。其中由LOWE D G所提出的尺度旋轉(zhuǎn)不變性變換SIFT(Scale Invariant Feature Transform)憑借其良好的性能表現(xiàn)而迅速得到關(guān)注。由于SIFT特征對(duì)描述對(duì)象的姿態(tài)與大小變化均有很強(qiáng)的適應(yīng)性[2],因此可以將其應(yīng)用于人臉識(shí)別。目前已經(jīng)出現(xiàn)了大量的比較優(yōu)秀的尺度不變算法,SIFT算法具有較好的魯棒性,但其計(jì)算效率低、算法復(fù)雜度高;SURF算法的思想與SIFT類似,但是其復(fù)雜度有所精簡(jiǎn),在參考文獻(xiàn)[3]中,通過(guò)比較兩種特征的性能,最終判斷出SURF比SIFT具有更好的性能。本文所采用的人臉識(shí)別方法分特征提取與特征分類兩步進(jìn)行,其中特征提取采用SURF特征與LDA降維相結(jié)合的方法;而特征分類階段則通過(guò)改進(jìn)的K-means方法來(lái)對(duì)特征進(jìn)行區(qū)域劃分,然后綜合利用區(qū)域的局域相似性與全局相似性進(jìn)行最后的分類。具體流程如圖1所示。

1 圖像預(yù)處理
 預(yù)處理階段對(duì)于人臉識(shí)別的功能實(shí)現(xiàn)起著非常關(guān)鍵的作用,這就要求在該階段中能夠去除掉盡可能多的由光照與視角所引起的噪聲,并保存圖像中盡可能多的有用信息。
 首先要對(duì)圖像進(jìn)行膚色檢測(cè)處理,以剔除掉人臉周圍的頭發(fā)、衣服等噪聲影響;然后對(duì)人臉區(qū)域進(jìn)行直方圖歸一化與像素值歸一化處理,如圖2所示。

 在人臉圖像中,兩眼的位置和間距受光照或表情變化的影響是最小的,因此通過(guò)對(duì)人眼進(jìn)行準(zhǔn)確定位,然后根據(jù)人臉器官的分布關(guān)系,就可以比較準(zhǔn)確地對(duì)臉部其他特征進(jìn)行定位,從而進(jìn)行尺寸歸一化處理,如圖3所示。
2 SURF特征介紹
 SURF特征作為一種尺度旋轉(zhuǎn)不變特征,其獲取過(guò)程由檢測(cè)和描述兩步組成,SURF所采用的特征為64維,而不是128維,從而能夠在進(jìn)行特征提取和匹配時(shí)更加快速[4]。

 為了減少濾波處理的運(yùn)算量,通過(guò)使用盒濾波器來(lái)近似表示高斯二階偏導(dǎo)數(shù),并利用該近似表示對(duì)源圖像的積分圖像進(jìn)行濾波處理。
 在實(shí)際計(jì)算時(shí),先使用δ=1.2的大小為9×9的近似盒濾波器來(lái)構(gòu)成尺度最小的濾波器,隨著尺度的增大,利用這些不同尺度的濾波器來(lái)對(duì)圖像進(jìn)行濾波處理,并計(jì)算出行列式值,從而得出對(duì)應(yīng)的近似Hessian矩陣的行列式分布圖,由這些圖便可以構(gòu)成金字塔尺度空間。然后從這些分布圖中得到各個(gè)尺度下的行列式極值點(diǎn),由極值點(diǎn)、同尺度下極值點(diǎn)周圍的8個(gè)點(diǎn)以及前后兩個(gè)尺度中的18個(gè)點(diǎn)組成一個(gè)3×3×3的正方體鄰域,將極值點(diǎn)與其正方體鄰域中的其余26個(gè)點(diǎn)比較大小,當(dāng)極值點(diǎn)的值大于所有這些點(diǎn)時(shí),將該極值點(diǎn)作為候選點(diǎn)。
2.2 興趣點(diǎn)描述
 在確定興趣點(diǎn)的位置之后,接下來(lái)就需要對(duì)SURF興趣點(diǎn)進(jìn)行描述。參考文獻(xiàn)[5]采用Haar小波響應(yīng)來(lái)進(jìn)行興趣點(diǎn)描述。圖4為濾波計(jì)算所使用的水平與垂直方向的Haar小波濾波器。其中,黑白兩種顏色區(qū)域的值分別為-1與1。

 

 

 興趣點(diǎn)描述主要分為主方向確定以及描述向量生成兩步進(jìn)行。參考文獻(xiàn)[6]提出了一種確定方向的方法:假設(shè)檢測(cè)該興趣點(diǎn)時(shí)的尺度為s,對(duì)以興趣點(diǎn)為圓心,以6s為半徑的圓中的點(diǎn)計(jì)算Haar小波響應(yīng)。然后將x和y方向上的響應(yīng)值投影到圓形區(qū)域之中,從而得出dx與dy的分布圖,如圖5所示。讓π/3的扇形區(qū)域圍繞圓心旋轉(zhuǎn),對(duì)每個(gè)扇形區(qū)域中的dx與dy分別求和,利用這兩個(gè)值能夠得到一個(gè)方向向量,最終可以得到一個(gè)向量集合,其中最長(zhǎng)的向量就可作為該興趣點(diǎn)的主方向。

2.3 SURF特征降維處理
(1)在訓(xùn)練階段,先從訓(xùn)練樣本集合中提取出SURF特征。設(shè)Ni(i=1,2,…,C)為從某一類人臉樣本中所提取的特征點(diǎn)的數(shù)目,因此可以定義矩陣Bi=1,2,…,C),該矩陣的每一行代表一個(gè)SURF向量。

2.4 SURF特征分組
 在不同圖像中,興趣點(diǎn)的位置與數(shù)目往往會(huì)有很大區(qū)別,因此不能單純依靠興趣點(diǎn)在圖像中的位置來(lái)進(jìn)行匹配,否則就會(huì)出現(xiàn)錯(cuò)誤匹配。為了只對(duì)人臉圖像中物理意義相同的特征點(diǎn)進(jìn)行比較,采用K-means方法來(lái)將人臉圖像分為數(shù)個(gè)子區(qū)域,然后將各個(gè)子區(qū)域分開(kāi)進(jìn)行比較。這樣就能夠較好地解決上述問(wèn)題。
K均值聚類是一種實(shí)時(shí)的非監(jiān)督性聚類算法,其基本原理是通過(guò)最小化誤差函數(shù)來(lái)將數(shù)據(jù)分到K種不同的類別中。但由于傳統(tǒng)的均值算法對(duì)初始聚類中心十分敏感,聚類中心的不同往往會(huì)導(dǎo)致聚類結(jié)果有很大的波動(dòng)性。針對(duì)這一缺點(diǎn),通過(guò)綜合考慮特征點(diǎn)的密度與距離分布特點(diǎn),本文選擇出相距最遠(yuǎn)且區(qū)域密度為最高的k個(gè)點(diǎn)來(lái)作為初始聚類中心,這樣就可以盡量避免噪聲數(shù)據(jù)的干擾,從而更好地表現(xiàn)數(shù)據(jù)的分布狀況[7]。定義特征點(diǎn)的r鄰域?yàn)榘霃綖閞的圓形區(qū)域,特征點(diǎn)之間的距離計(jì)算采用歐氏距離,則選擇最初聚類中心的算法描述如下。
?。?)初始化類的數(shù)目k、鄰域半徑r、以及鄰域內(nèi)所包含點(diǎn)的最小值Pmin。
?。?)計(jì)算每個(gè)特征點(diǎn)的鄰域內(nèi)所包含的特征點(diǎn)的數(shù)目,如果大于Pmin,就將該點(diǎn)加入到特征點(diǎn)集合M中。
?。?)找出集合M中其鄰域內(nèi)所包含的特征點(diǎn)數(shù)目最多的特征點(diǎn),將該點(diǎn)作為候選的聚類中心P1,并從集合M中去除。
?。?)將集合M中距離P1最遠(yuǎn)的特征點(diǎn)作為聚類中心P2,同樣將其從集合M中去除。
 (5)繼續(xù)尋找集合M中與所有候選聚類中心距離和最大的點(diǎn)作為候選中心點(diǎn),直到找出k個(gè)點(diǎn)為止。
對(duì)這些聚類中心運(yùn)用K-means聚類算法,則可以確定出圖像的各個(gè)子區(qū)域。如圖8所示,可以看到圖中所標(biāo)記出的子區(qū)域主要位于雙眼、鼻子和兩嘴角附近,而這些區(qū)域正是人臉圖像中最具有區(qū)分能力的部分。
2.5 特征匹配
 經(jīng)過(guò)特征分組處理,人臉圖像中的興趣點(diǎn)將會(huì)被分到k個(gè)不同的區(qū)域Rm中,其中m=1,2,…,k,nk表示子區(qū)域Rk中特征點(diǎn)的數(shù)目,而fij表示子區(qū)域Ri中第j個(gè)特征向量。則圖像It與Ir的相似性的計(jì)算方法如下。

3 實(shí)驗(yàn)及其結(jié)果
 為了對(duì)上述人臉識(shí)別算法進(jìn)行測(cè)試,通過(guò)使用標(biāo)準(zhǔn)CAS-PEAL-R1共享人臉圖像數(shù)據(jù)庫(kù)來(lái)建立訓(xùn)練與測(cè)試的樣本庫(kù),該數(shù)據(jù)庫(kù)總共包含有30 863幅人臉圖像,這些圖像可以分為兩個(gè)主要的子集:正面與非正面人臉圖像子集。這個(gè)數(shù)據(jù)庫(kù)內(nèi)容十分全面,其中的圖像含有各種表情變化、飾物變化、光照變化、背景變化、姿勢(shì)變化及視角變化等,而且面部圖像的關(guān)鍵點(diǎn)(如眼睛、嘴巴的位置)等比較規(guī)范,無(wú)需進(jìn)行歸一化和配準(zhǔn)等工作。訓(xùn)練樣本集中共包含有300人的1 200張圖像,通過(guò)利用LDA方法來(lái)得出訓(xùn)練集的最佳投影矩陣,同時(shí)利用K-means方法進(jìn)行特征區(qū)域劃分。測(cè)試樣本集中則包含438個(gè)人的2 287張圖片。
 為了更好地判斷算法的性能,利用樣本集同時(shí)對(duì)當(dāng)前比較流行的KPCA與傳統(tǒng)的SURF兩種方法進(jìn)行測(cè)試,其中的KPCA方法是指核主成分分析方法,是PCA方法的改進(jìn)算法,主要是通過(guò)選擇合適的核函數(shù)來(lái)在高維空間提取人臉圖像的主成分。3種方法識(shí)別結(jié)果的ROC曲線如圖10所示。

 為了更好地測(cè)試該算法對(duì)視頻中人臉的識(shí)別表現(xiàn),從2010年FIFA世界杯中的幾場(chǎng)比賽視頻中提取測(cè)試集。視頻的分辨率為720×580,幀率為25 f/s,通過(guò)從每場(chǎng)比賽視頻中抽取那些出現(xiàn)次數(shù)較多的球員所在的鏡頭序列,每個(gè)序列將會(huì)包含100~200幀人臉圖像,最終測(cè)試集包含3 000余幀圖像。由于視頻中存在姿勢(shì)、光照條件、人臉表情與鏡頭環(huán)境等諸多干擾因素,為了分析識(shí)別算法的魯棒性,將這些測(cè)試集分為A、B兩個(gè)子集。A類中的人臉圖像都來(lái)自于同一視頻,其中人臉的姿勢(shì)、表情、大小、光照與遮擋情況等改變較??;而B(niǎo)類中的圖像則來(lái)自于不同的比賽視頻,變化較大。具體測(cè)試結(jié)果如表1所示。

 本文主要通過(guò)提取人臉的SURF特征來(lái)進(jìn)行人臉識(shí)別工作,然后運(yùn)用LDA算法與改進(jìn)的K-means算法分別進(jìn)行降維與區(qū)域化處理。從實(shí)驗(yàn)結(jié)果可以看出,無(wú)論對(duì)于在實(shí)驗(yàn)室條件下所采集的人臉數(shù)據(jù)庫(kù)和從視頻中所抽取人臉圖像,均能取得較好的測(cè)試效果,但在環(huán)境條件改變較大的情況下,識(shí)別正確率仍然不高,有待進(jìn)一步的研究。
參考文獻(xiàn)
[1] BAY H, ESS A, TUYTELAARS T, et al. SURF: speeded up robust features[J]. Computer Vision and Image Understanding, 2008, 110(3):346-359.
[2] SHAKHNAROVICH G, MOGHADDAM B. Face recognition in subspaces[J]. Handbook of Face Recognition, 2004:141-168.
[3] Lei Yunqi, Jiang Xutuan, Shi Zhenxiang, et al. Face recognition method based on SURF feature[J]. International Symposium on Computer Network and Multimedia Technology, 2009:1-4.
[4] An Shan, Ma Xin, Song Rui, et al. Face detection and recognition with SURF for human-robot interaction[J].International Conference on Automation and Logistics, 2009:1946-1951.
[5] Zhao Tuo, Liang Zhizheng, ZHANG D, et al. Interest filter vs interest operator: face recognition using Fisher linear discriminant based on interest filter representation[J]. Pattern Recognition Letters, 2008,(29):1849-1857.
[6] 張銳娟,張建奇,楊翠.基于SURF的圖像配準(zhǔn)方法研究[J].紅外與激光工程,2009,38(1):160-165.
[7] PRABHUET P. Improvising the performance of K-means clustering for high dimensional data set[J]. International Journal on Computer Science and Engineering, 2011:2318-2321.

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。