摘 要: 提出了一個(gè)由粗到細(xì)的多階段人臉" title="人臉">人臉檢測(cè)算法,介紹了檢測(cè)工作的三個(gè)部分:膚色區(qū)域分割預(yù)處理、應(yīng)用人臉基本特征檢測(cè)和定位的人臉細(xì)檢、平均臉模板匹配的人臉驗(yàn)證。實(shí)驗(yàn)證明該算法能有效檢測(cè)出復(fù)雜環(huán)境中的人臉。該算法對(duì)于人臉的平移、縮放、適度旋轉(zhuǎn)都能很好地適應(yīng)。
關(guān)鍵詞: 人臉檢測(cè)" title="人臉檢測(cè)">人臉檢測(cè) 彩色空間? 膚色模型" title="膚色模型">膚色模型? 圖像分割? 模板匹配
?
人臉檢測(cè)是指在輸入圖像中確定人臉(如果存在)的位置、大小等信息。
在人臉檢測(cè)定位方面,以前已經(jīng)有人提出了一些解決方案。但在定位方法的簡(jiǎn)便性、算法的穩(wěn)定性、定位結(jié)果的準(zhǔn)確性以及適用條件等方面依然存在局限。例如參考文獻(xiàn)[1]提出的人臉檢測(cè)算法,雖然可以在復(fù)雜背景下實(shí)現(xiàn)人臉檢測(cè),但其只能檢測(cè)單人臉,而且人臉的姿態(tài)又不能任意。又如參考文獻(xiàn)[2]提出的復(fù)雜背景下的人臉檢測(cè)與定位算法,雖可以檢測(cè)背景復(fù)雜、姿態(tài)各異的多人臉,但對(duì)所檢人臉尺寸、比例及灰度都有一定要求,而且限制了所能檢測(cè)的人臉的種類。
筆者在人臉檢測(cè)定位方面做了一些有意義的探索和研究。筆者認(rèn)為,對(duì)于復(fù)雜背景中的人臉檢測(cè),應(yīng)針對(duì)背景采用分階段的檢測(cè)定位算法,即先減小背景的復(fù)雜度,在簡(jiǎn)單背景中檢測(cè)定位人臉,然后進(jìn)一步由粗到細(xì)地檢測(cè)定位人臉。這種檢測(cè)定位算法的整個(gè)檢測(cè)定位過(guò)程分三個(gè)階段進(jìn)行:①預(yù)處理:膚色區(qū)域分割;②粗檢:膚色區(qū)域的篩選;③細(xì)檢:候選人臉的特征檢測(cè)和定位。
1 預(yù)處理——膚色區(qū)域分割
已有研究[3-4]表明,人的皮膚顏色具有以下兩個(gè)重要的特征:(1)人的皮膚顏色分布在顏色空間中很小的一個(gè)范圍內(nèi);(2)人的皮膚顏色的不同主要是由顏色的強(qiáng)度引起。即膚色具有聚類" title="聚類">聚類性,膚色的這種聚類性可以用來(lái)從背景中分割出人臉。
通過(guò)對(duì)不同顏色空間的分析發(fā)現(xiàn),YCbCr空間具有將色度與亮度分離的特點(diǎn),在YCrCb色彩空間中膚色的聚類特性比較好,受亮度變化的影響較小,而且是兩維獨(dú)立分布,能較好地限制膚色分布區(qū)域[5],并且受人種的影響不大。因此本研究選擇YCrCb色彩空間模式進(jìn)行膚色區(qū)域分割。
1.1 膚色模型的建立
膚色模型是根據(jù)大量樣本的統(tǒng)計(jì)數(shù)據(jù)建立的。針對(duì)不同膚色的人:亞洲人、高加索人和非洲人,本文選擇在一般室內(nèi)外照明背景下的人臉圖片,以便所建立的膚色模型具有一般性。建立膚色模型的步驟如下:
(1)手工剪裁出大量膚色區(qū)域。在本文中首先手工裁減了1000個(gè)各色人種的膚色區(qū)域,分別選自不同的性別、不同的身體區(qū)域(包括臉部、手臂、四肢和軀干部分)。
(2)將皮膚區(qū)域中每個(gè)像素點(diǎn)的R、G、B轉(zhuǎn)換成Y,Cb、Cr表示,得到每個(gè)像素點(diǎn)的色度值(Cb,Cr)。轉(zhuǎn)換公式如下:
(3)對(duì)剪裁出的膚色區(qū)域圖像使用低通濾波器減小樣本的噪聲,這個(gè)低通濾波器的脈沖響應(yīng)如下:
(4)統(tǒng)計(jì)色度為(Cb,Cr)的像素點(diǎn)數(shù),得到色度分布圖,如圖1所示。
從色度分布圖可以看到膚色聚類在色度空間中的一個(gè)很小的范圍內(nèi)。
(5)歸一化色度分布圖,膚色分布可以用高斯模型N(m,C)表示。其中,m是均值,C是協(xié)方差陣,可表示如下:
m=E{x}, x=(Cr?? Cb)T
C=E{(x-m)(x-m)T}
1.2 膚色區(qū)域的提取
通過(guò)前面所建立的膚色高斯分布,可以得到某幅彩色圖像" title="彩色圖像">彩色圖像中任意一個(gè)像素點(diǎn)屬于皮膚的概率。對(duì)于某像素點(diǎn)s,從R、G、B空間轉(zhuǎn)換到Y(jié)、Cb、Cr彩色空間,可以得到色度值(Cr,Cb),則這個(gè)像素的膚色概率密度(即膚色似然度)可以通過(guò)下面的式子計(jì)算得到:
計(jì)算被檢測(cè)的彩色圖像各像素點(diǎn)的膚色似然度,并得到整幅圖像的最大膚色似然度。每一點(diǎn)像素的膚色似然度除以最大膚色似然度所得到的值,作為該像素點(diǎn)的灰度值(表征這個(gè)像素點(diǎn)屬于皮膚的概率),從而得到膚色似然圖像,如圖2所示。
隨著閾值的下降,直覺上將會(huì)導(dǎo)致分割區(qū)域的增加。然而試驗(yàn)結(jié)果表明,當(dāng)閾值處于某一范圍中時(shí),隨著閾值的降低分割區(qū)域并不會(huì)明顯增加(這是因?yàn)檫@個(gè)階段的膚色像素已經(jīng)被完全檢測(cè)出來(lái),而非膚色像素還沒(méi)有被認(rèn)為是膚色像素)。如果閾值繼續(xù)降低到某一個(gè)特定值后,隨著非膚色區(qū)域被錯(cuò)認(rèn)為是膚色區(qū)域,則會(huì)出現(xiàn)分割區(qū)域面積大幅度增加的情形。故最優(yōu)閾值應(yīng)該是在隨著閾值增長(zhǎng)而類膚色區(qū)域面積增長(zhǎng)最小的范圍之內(nèi)。本文中采用的方法是,讓閾值從0.65開始減少,每次減少0.1,直到0.15為止,并找出膚色分割區(qū)域面積增加最小的一段,從而得到優(yōu)化后的閾值。其試驗(yàn)結(jié)果如圖3所示。
2 粗檢——膚色區(qū)域的篩選
2.1 膚色區(qū)域的提取
通過(guò)形態(tài)學(xué)處理不但可以過(guò)濾由于噪音或者其他原因引起的一些較小的不可能為人臉的類膚色區(qū)域,減少候選區(qū)域和提高檢測(cè)速度,而且可以填補(bǔ)膚色區(qū)域內(nèi)的較小空洞,防止這些空洞被誤認(rèn)為是人臉器官所造成的,為后續(xù)檢測(cè)區(qū)域內(nèi)(歐拉數(shù)判斷是否為候選區(qū)域)降低了誤判的可能性。
在本文中,考慮到干擾造成的小的虛假膚色區(qū)域,使用5×5的結(jié)構(gòu)元素進(jìn)行開運(yùn)算消除較小物體(假設(shè)人臉區(qū)域應(yīng)該有足夠大),減小后面分割區(qū)域編碼的工作量;同時(shí),考慮到一部分分割區(qū)域內(nèi)部有較小的空洞存在,使用3×3的結(jié)構(gòu)元素對(duì)其進(jìn)行閉運(yùn)算,消除分割區(qū)域中的較小的空洞,以利于后面計(jì)算歐拉數(shù)時(shí)可以減少干擾,其效果如圖4所示。
2.2 人臉幾何特征分析
(1)有效面積。在目標(biāo)圖像中,存在著一些由某些原因引起的噪聲,這些噪聲的區(qū)域面積不大,因此可用面積參數(shù)先過(guò)濾掉這些噪聲。
Ai>A
式中,Ai代表第i個(gè)目標(biāo)區(qū)的面積;A(=10)為一事先確定的面積閾值。符合上式的區(qū)域可進(jìn)一步進(jìn)行檢測(cè),否則被認(rèn)為是噪聲濾除掉。
(2)圓度。人臉在不同的視角中,都有類似橢圓的性質(zhì)。在人臉區(qū)域的檢測(cè)中,區(qū)域的圓度可以作為一項(xiàng)基于形狀檢測(cè)的參數(shù):
式中,Ai為第i個(gè)區(qū)域的面積;Pi為第i個(gè)區(qū)域的周長(zhǎng),Ci為第i個(gè)目標(biāo)區(qū)的圓度;C(=0.05)是預(yù)定的圓度閾值。符合此式的區(qū)域才能成為下一步的候選區(qū)域。
(3)長(zhǎng)寬比例。人臉區(qū)域的長(zhǎng)寬比應(yīng)該符合一個(gè)約束范圍,在目標(biāo)二值圖像中利用該約束范圍可快速排除那些太過(guò)狹長(zhǎng)或橫軸長(zhǎng)度明顯超標(biāo)的區(qū)域。區(qū)域的長(zhǎng)寬比例同樣是一項(xiàng)基于形狀檢測(cè)的參數(shù):
Ri=Hi/Wi?????? Ri∈RR
式中,Hi是第i個(gè)區(qū)域的高度,Wi為第i個(gè)區(qū)域的寬度,Ri等于該區(qū)域的長(zhǎng)寬比例;RR(=[0.8 2.2])為設(shè)定的人臉區(qū)域長(zhǎng)寬比例約束范圍。不符合該式的區(qū)域被認(rèn)為是非人臉區(qū)域舍棄掉。
(4)歐拉數(shù)。歐拉數(shù)可以表示一個(gè)封閉區(qū)間中的空洞數(shù)量的情況,其定義如下:
E=C-H
式中,E為連通區(qū)域的歐拉數(shù);C為連通區(qū)域的數(shù)目,這里應(yīng)為1;H為連通區(qū)域內(nèi)部的空洞數(shù)。在正常情況下,人臉圖像中一定包括眼睛、眉毛等非膚色區(qū)域,所以真正的人臉區(qū)域須包括一個(gè)或多個(gè)小孔。故若歐拉數(shù)大于0,則該連通區(qū)域不會(huì)是人臉待選區(qū)域。但是如果歐拉數(shù)太小,也不應(yīng)該是人臉,人臉中由于嘴、眼等區(qū)域形成的空洞數(shù)不會(huì)太多,在本文中,如果計(jì)算出來(lái)的歐拉數(shù)小于-10,也不認(rèn)為其是人臉待選區(qū)域。
(5)質(zhì)心。對(duì)于一塊人臉圖像區(qū)域,應(yīng)該是或基本上是一個(gè)凸多邊形,也就是說(shuō)其質(zhì)心應(yīng)該在多邊形區(qū)域內(nèi),質(zhì)心計(jì)算公式如下:
式中,A為該區(qū)域的像素?cái)?shù)量;i和j分別是水平和垂直坐標(biāo);B是區(qū)域經(jīng)過(guò)計(jì)算得到的相似矩陣;B[i,j]=1表示該點(diǎn)為膚色區(qū)域。
在實(shí)驗(yàn)中發(fā)現(xiàn),只需使用以上兩種計(jì)算進(jìn)行篩選就能夠過(guò)濾掉大部分的非人臉區(qū)域。
3 細(xì)檢——候選人臉的特征檢測(cè)和定位
在粗檢檢測(cè)結(jié)果的基礎(chǔ)上,利用平均臉模板匹配的方法對(duì)候選隊(duì)列中的圖像進(jìn)行是否是人臉的檢測(cè)[6-7]。
本文中所用的模板是對(duì)多個(gè)人臉樣本取平均構(gòu)造出來(lái)的。具體構(gòu)造過(guò)程如下:
(1)在選取的樣本圖像中用矩形框手工裁剪出人臉的區(qū)域作為人臉樣本,裁剪出100幅圖像,組成一組樣本圖像集。并將所選人臉樣本轉(zhuǎn)換成灰度圖像,將其尺度標(biāo)準(zhǔn)化到80×80[8]。
(2)將所選人臉樣本進(jìn)行灰度分布標(biāo)準(zhǔn)化。
(3)將所有樣本取灰度平均得到平均人臉圖像,并對(duì)平均人臉圖像進(jìn)行灰度分布標(biāo)準(zhǔn)化,得到初步的人臉模板。如圖5所示。
根據(jù)待選人臉區(qū)域的高度h、寬度w和傾斜角θ對(duì)原始人臉模板圖像T(x,y)拉伸高寬比t(t=h/w)、旋轉(zhuǎn)θ變換為T′(x′,y′):
然后使用新的人臉模板對(duì)待選人臉圖像窗口進(jìn)行匹配。算法使用以下系數(shù)作為匹配準(zhǔn)則。假設(shè)人臉模板的灰度矩陣為T[M][N],灰度均值與方差分別為μT和σT,待選人臉圖像區(qū)域的灰度矩陣為S[M][N],灰度均值與方差分別為μR和σR,則它們之間的相關(guān)系數(shù)r(T,S)為:
使用人臉模板進(jìn)行匹配時(shí),若相關(guān)系數(shù)r(T,R)超過(guò)門限值t(t=0.6),則認(rèn)為通過(guò)了平均臉匹配篩選,被認(rèn)為是人臉。
將檢測(cè)到的人臉窗口存放在一個(gè)備選人臉列表中,在輸入的原彩色圖像上根據(jù)備選人臉列表中記錄的每個(gè)人臉框的位置和大小將其框出,結(jié)果如圖6所示。
本算法改變了傳統(tǒng)的模板匹配方法中逐點(diǎn)匹配的方式,通過(guò)對(duì)分割后的膚色區(qū)域的統(tǒng)計(jì)分析,進(jìn)一步減小搜索區(qū)域,大大加快了檢測(cè)速度。具有計(jì)算量小、速度快、易于實(shí)現(xiàn)實(shí)時(shí)處理、不受臉部表情變化的影響、抗噪聲能力強(qiáng)、魯棒性好等優(yōu)點(diǎn)。
參考文獻(xiàn)
[1] YUILLE A,HALLINAN P,COHEN D.Feature extraction from faces using deformable templates[J].International Jour-nal of computer vision,1992,8(2):99-111.
[2] TURK M,PENTLAND A.Eigenface for recognition[J].J Cog Neurosci,1991,23(3):71-86.
[3] YANG J,WAIBEL A.Shin-color modeling and adaptation[C].Proceedings of ACCV′98,1998:687-694.
[4] PGRAF H,COSATTO E,GIBBON D et al.Multimodel sys-tem for the location heads and faces.proceedings of the Second IEEE International Conference on Automatic Face and Gesture Recognition,1996:88-93
[5] GONG Y,SAKAUCHI M.Detection of regions matching specifiedchromatic features[J].Computer Vision and Image Understanding,1995,61(2):263-269.
[6] MOGHADDAM B,PENTLAND A.Probabilistic visual learn-ing for object representation.IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):696-710.
[7] MOGHADDAM B,PENTLAND A.Beyond linear eigenspaces Bayesian matching for face recognition.WECHSLER H,PHILLIPS,P J,Bruce V,et al.Face Recognition from Theory to Applications.New York:Springer-Verlag,1997,230-243.