摘 要: 傳統(tǒng)混合高斯模型一般為每個(gè)像素分配固定的高斯分布個(gè)數(shù),從而造成背景形成速度的減慢和系統(tǒng)資源的浪費(fèi);同時(shí)也存在著高斯模型背景建模中的緩慢或滯留運(yùn)動(dòng)物體造成目標(biāo)誤判現(xiàn)象的問題(即空洞問題)。為此,提出了一種有效的兩階段視頻圖像處理方法。該方法在第一階段根據(jù)像素點(diǎn)的優(yōu)先級(jí)大小自動(dòng)地調(diào)節(jié)高斯分布的數(shù)目,在第二階段首先對(duì)像素點(diǎn)進(jìn)行所屬區(qū)域的劃分,進(jìn)而對(duì)目標(biāo)區(qū)域和非目標(biāo)區(qū)域采取不同的更新手段。實(shí)驗(yàn)表明,采用兩階段視頻圖像處理方法明顯地改善了背景建模的速度,有效解決了提取目標(biāo)出現(xiàn)的空洞問題。
關(guān)鍵詞: 背景建模;混合高斯模型;背景更新;目標(biāo)檢測(cè)
在視頻序列中,目標(biāo)區(qū)域背景的估計(jì)和目標(biāo)的提取是智能監(jiān)控領(lǐng)域的關(guān)鍵問題之一,它對(duì)于后續(xù)的目標(biāo)分割、跟蹤和更高層次的理解等處理非常重要。在解決此問題的方案中,背景差分法是近年來常用的方法,并且其在運(yùn)動(dòng)目標(biāo)檢測(cè)中也獲得了大量的應(yīng)用[1-3]。但該方法存在著缺陷,如背景中包含的陰影、運(yùn)動(dòng)的物體(如搖擺的樹枝、移動(dòng)的電梯以及經(jīng)歷各種變化如光照變化)都會(huì)給背景差分帶來干擾,所以建立一個(gè)好的自適應(yīng)的背景模型成為一個(gè)亟待解決的問題。
目前已經(jīng)提出很多建立自適應(yīng)背景模型的方法。Richard等[4]人利用單高斯分布進(jìn)行背景更新,但不能有效地處理室外頻繁變化的場(chǎng)景。Stauffer等[5]人利用混合高斯模型來建立背景模型,在每幀中對(duì)各個(gè)像素點(diǎn)建立由多個(gè)高斯分布組成的背景模型。該方法能魯棒性地克服光照變化、樹枝擺動(dòng)等造成的影響,但是由于在每幀圖片中要對(duì)所有的像素點(diǎn)都建立多個(gè)固定的高斯分布,在處理時(shí)會(huì)消耗大量的系統(tǒng)資源。近年來,Zivkovic等[6]人利用最大似然估計(jì)提出了一種高斯模型個(gè)數(shù)的選擇方法。該方法由于人為地引入了負(fù)的先驗(yàn)系數(shù),使得在更新過程中高斯模型的權(quán)重有可能被不合理地負(fù)更新。上述自適應(yīng)背景模型都存在一些問題,不能很好地解決背景估計(jì)和目標(biāo)檢測(cè)的問題。
為解決背景估計(jì)和目標(biāo)檢測(cè)問題,本文提出了一種有效的兩階段視頻圖像處理方法。該方法在第一階段根據(jù)該像素點(diǎn)的優(yōu)先級(jí)來自動(dòng)調(diào)整它的高斯個(gè)數(shù),從而有效地降低背景提取的速度;在第二階段對(duì)目標(biāo)區(qū)域和非目標(biāo)區(qū)域采取不同的更新策略,即對(duì)目標(biāo)區(qū)域做緩慢更新、非目標(biāo)區(qū)域做快速更新,此階段可以有效地解決目標(biāo)提取不完整的問題。
1 基于混合高斯模型的背景建模
Stauffer等人[7]用由K個(gè)高斯分布組成的混合高斯模型表示同一個(gè)像素在時(shí)間域上的概率分布,即對(duì)于圖像中的第n個(gè)像素在1~t不同時(shí)刻取值分別為{Xn1,…,Xnt},當(dāng)前幀圖像中的第n個(gè)像素值在t時(shí)刻的概率分布為:
閾值TB決定了高斯分布在背景選取所占的比例,再取值較小時(shí),背景通常用一個(gè)高斯分布表示;取值較大時(shí),背景由多個(gè)分布混合表示。
2 兩階段視頻圖像處理方法設(shè)計(jì)
第一階段,針對(duì)傳統(tǒng)的混合高斯模型為每個(gè)像素點(diǎn)分配了固定的高斯個(gè)數(shù),但這樣會(huì)造成系統(tǒng)資源浪費(fèi)和降低背景建模的速度問題,因此提出了一種動(dòng)態(tài)調(diào)節(jié)混合高斯分布個(gè)數(shù)的方案;第二階段,針對(duì)物體運(yùn)動(dòng)緩慢或者長(zhǎng)時(shí)間停留造成目標(biāo)像素更新到背景中導(dǎo)致目標(biāo)提取的不完整問題,提出了一種緩慢或滯留目標(biāo)問題的解決方案。
2.1對(duì)第一階段的動(dòng)態(tài)調(diào)節(jié)混合高斯分布個(gè)數(shù)的方案
根據(jù)上述分析,使用如下策略對(duì)傳統(tǒng)的混合高斯模型的更新過程加以改進(jìn):
(1)初始化:初始化對(duì)每個(gè)像素只選取一個(gè)高斯分布(可以用初始的一幀或多幀圖像的平均值來初始化背景模型)。
3 實(shí)驗(yàn)評(píng)估
為驗(yàn)證本文算法的有效性,根據(jù)上述兩階段視頻圖像處理方法采用VC++6.0編寫程序,在Inter 3.0 GHz處理器、1 GB內(nèi)存的PC機(jī)上對(duì)多個(gè)視頻進(jìn)行了測(cè)試。所處理視頻的分辨率均為320×240。
3.1 動(dòng)態(tài)調(diào)節(jié)高斯分布個(gè)數(shù)方案性能評(píng)估
首先設(shè)置各個(gè)變量,選取最大高斯分布個(gè)數(shù)為3,初始權(quán)值ωinit為0.05,標(biāo)準(zhǔn)差σinit為20,模型學(xué)習(xí)率α為0.1,權(quán)值更新率β為0.1。改進(jìn)算法中高斯分布個(gè)數(shù)示意圖如圖1所示。
圖1中第一列為視頻某一幀的原始圖像,第二列圖像為這些幀上每個(gè)像素的高斯分布個(gè)數(shù),黑色、灰色以及白色區(qū)域分別表示該像素由1個(gè)、2個(gè)、3個(gè)高斯模型。由圖可知,對(duì)于靜態(tài)背景下的視頻的大多數(shù)區(qū)域場(chǎng)景比較穩(wěn)定,使用一個(gè)高斯分布便可滿足要求,而有行人經(jīng)過的地方場(chǎng)景會(huì)頻繁變化,需要2~3個(gè)高斯模型。同樣當(dāng)場(chǎng)景狀態(tài)變化較為復(fù)雜時(shí),如圖1(a),由于圖中燈光照射陰影的存在和圖1(c)中樹葉的搖擺,也需要較多的高斯分布才能實(shí)現(xiàn)背景的建模。此外,由于攝像機(jī)抖動(dòng)的存在,也會(huì)造成在紋理豐富區(qū)域像素的高斯分布個(gè)數(shù)增加,如圖1(b)中建筑物的邊緣等。
利用傳統(tǒng)的混合高斯模型方法對(duì)這三幀圖像的處理時(shí)間分別為27.9 ms、28.1 ms、28.6 ms,而使用兩階段視頻圖像處理方法的處理時(shí)間分別為19.6 ms、20.3 ms、22.7 ms??梢钥闯?,通過動(dòng)態(tài)調(diào)節(jié)混合高斯分布個(gè)數(shù)可以顯著提高背景建模的速度,從而有效地節(jié)約了運(yùn)算資源。此外,隨著背景狀態(tài)變化復(fù)雜程度的增加,每個(gè)像素的混合高斯模型需要更多的高斯分布,也就需要更多的處理時(shí)間,如對(duì)圖1(c)的處理時(shí)間會(huì)相應(yīng)較長(zhǎng)。
3.2 緩慢或滯留目標(biāo)問題的解決方案性能評(píng)估
首先設(shè)置各個(gè)變量,選取高斯模型的最大高斯分布個(gè)數(shù)為4,初始權(quán)值ωinit為0.05,標(biāo)準(zhǔn)差σinit為20,模型學(xué)習(xí)率α為0.1,αF為0.3,αS為0.03,權(quán)值更新率β為0.1,背景權(quán)值閾值TB為0.7。滯留目標(biāo)檢測(cè)結(jié)果對(duì)比示意圖如圖2所示。
圖2中第一列從上到下依次為:當(dāng)前幀視頻圖像、估計(jì)背景和目標(biāo)二值圖像。由圖2可以看到,短期滯留的目標(biāo)沒有被更新到背景區(qū)域,提取出比較完整的目標(biāo),避免了空洞現(xiàn)象。
本文提出了一種有效的兩階段視頻圖像處理方法,在第一階段,動(dòng)態(tài)地更新每個(gè)像素高斯分布的個(gè)數(shù),顯著提高了背景建模的速度;第二階段,在目標(biāo)區(qū)和非目標(biāo)區(qū)采用不同的更新策略,有效地解決了滯留目標(biāo)像素融入背景的問題,同時(shí)也減弱了慢速運(yùn)動(dòng)物體對(duì)背景模型的影響。通過大量的實(shí)驗(yàn)測(cè)試證明,即使在光線變化、車輛人流雜亂的場(chǎng)合中,背景生成也是穩(wěn)定的,具有較好的自適應(yīng)性。
在實(shí)驗(yàn)中發(fā)現(xiàn),與路面顏色相近的人或者車輛可能在背景差分的過程中誤判為背景,因此,如何利用色度之外的信息量建立背景模型,從而更有效地區(qū)分背景和前景,將是今后需要解決的問題。
參考文獻(xiàn)
[1] KAEW T K P P, BOWDER R. An improved adaptive background mixture model for real-time tracking with shadow detection[C]. The 2nd European Workshop on Advanced Video-based Surveillance Systems. Kingston: Kluwer Academic Publishers, 2001: 1-5.
[2] ELGAMMAL A, DURAISWAMI R, DAVIS L. Efficient non parametric adaptive color modeling using fast gauss transform[C]. IEEE Conference on Computer Vision and Patern Recognition, Kauai, Hawaii, December, 2001.
[3] COLLINS R, LIPTON A, KANADE T. A system for video surveillance and monitoring[C]. Proceeding. Am. Nuclear Soc. (ANS) Eighth Int′l Topical Meeting Robotic and Remote Systems, Apr. 1999.
[4] WREN C R, AZARBAYE J A, DARRELL T P. Real-time tracking of the human body[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997,19(7):780–785.
[5] STAUFFER C, GRIMSON W E L. Adaptive background mixture models for real-time tracking[C]. Computer Vision and Pattern Recognition. CO, USA: IEEE, 1999: 246-250.
[6] ZIVKOVIC Z, HEIJDEN F V D. Efficient adaptive density estimation per image pixel for the task of background subtraction[J]. Pattern Recognition Letters, 2006, 27(5): 827-832.
[7] STAUFFER C, GRIMSONW E L. Learning patterns of activity using real-time tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(8): 747-757.