《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 其他 > 設(shè)計(jì)應(yīng)用 > 基于對(duì)比度分析及矢量匹配的混合高斯模型
基于對(duì)比度分析及矢量匹配的混合高斯模型
來(lái)源:微型機(jī)與應(yīng)用2012年第24期
黃 榜, 劉忠杰, 王 敏, 趙娜娜, 宋小波
(常州先進(jìn)制造技術(shù)研究所 機(jī)器視覺(jué)實(shí)驗(yàn)室,江蘇 常州213164)
摘要: 針對(duì)經(jīng)典的混合高斯背景建模算法魯棒性不強(qiáng)且背景建模實(shí)時(shí)性不足的特點(diǎn),提出了一種改進(jìn)方法。首先將圖像矢量化,即將圖像分成若干塊,每一塊圖像作為一個(gè)矢量進(jìn)行整體建模;然后對(duì)于每一個(gè)圖像塊基于其反差描述元與K個(gè)高斯模型進(jìn)行匹配。實(shí)驗(yàn)結(jié)果表明,改進(jìn)的算法降低了環(huán)境光變化和背景波動(dòng)等因素的干擾且建模速度較快。
Abstract:
Key words :

摘   要: 針對(duì)經(jīng)典的混合高斯背景建模算法魯棒性不強(qiáng)且背景建模實(shí)時(shí)性不足的特點(diǎn),提出了一種改進(jìn)方法。首先將圖像矢量化,即將圖像分成若干塊,每一塊圖像作為一個(gè)矢量進(jìn)行整體建模;然后對(duì)于每一個(gè)圖像塊基于其反差描述元與K個(gè)高斯模型進(jìn)行匹配。實(shí)驗(yàn)結(jié)果表明,改進(jìn)的算法降低了環(huán)境光變化和背景波動(dòng)等因素的干擾且建模速度較快。
關(guān)鍵詞: 對(duì)比度分析; 混合高斯模型; 背景建模; 反差描述元; 矢量匹配

    背景建模是基于視覺(jué)應(yīng)用的一個(gè)重要模塊,如智能交通、視頻監(jiān)控及行為識(shí)別等。運(yùn)動(dòng)目標(biāo)檢測(cè)的一般方法是將當(dāng)前圖像與根據(jù)歷史數(shù)據(jù)訓(xùn)練出的背景模型進(jìn)行分析比較,進(jìn)而將前景圖像與背景圖像分離開(kāi)來(lái)。目前,背景建模的一個(gè)難點(diǎn)就是訓(xùn)練背景模型時(shí)背景并不是一成不變的,而是不穩(wěn)定的。這些波動(dòng)可能是飄落的樹(shù)葉、隨風(fēng)飄動(dòng)的旗幟、蕩漾的水波、變化的燈光及閃爍的顯示器等。即使背景是靜態(tài)的,攝像頭的抖動(dòng)及信號(hào)噪音也會(huì)帶來(lái)不穩(wěn)定的因素。不僅如此,陰影及瞬間的光照變化也是較為重要的問(wèn)題。除此之外,實(shí)時(shí)性也是一個(gè)重要的指標(biāo)。
    大部分背景建模方法是基于像素的。高斯分布是背景建模的一種常用方法。因?yàn)楸尘安环€(wěn)定,僅僅使用單高斯模型是不夠的,STAUFFER C和GRIMSON W對(duì)每個(gè)像素點(diǎn)使用K個(gè)高斯分布進(jìn)行描述,提出了混合高斯模型MoG(Mixture of Gaussians) [1-2]。混合高斯模型利用K-均值近似法[3]替代了期望最大化EM(Expectation-Maximization)方法。該方法后來(lái)被不斷改進(jìn)和拓展。例如,HARVILLE M等使用YUV顏色編碼方式并利用立體相機(jī)加入了圖像的深度信息替代了RGB三原色顏色表示方法[4]。LEE D S提出了一個(gè)高效的MoG訓(xùn)練算法[5],描述如下:
 
 
2 基于反差描述元的混合高斯模型
    混合高斯模型是目前背景建模最為成功的方法之一,它使用K個(gè)高斯分布來(lái)表征圖像所有像素的特性,在新一幀圖像獲得后更新混合高斯模型,用當(dāng)前圖像中的每個(gè)像素點(diǎn)與混合高斯模型匹配,如果成功匹配,則將該點(diǎn)判定為背景點(diǎn),反之為前景點(diǎn)。
        本文首先令n個(gè)圖像塊的反差描述元為{X1,X2,…,Xn},然后用K個(gè)高斯分布進(jìn)行建模。當(dāng)前矢量Xn+1被識(shí)別為背景的概率為:

3 實(shí)驗(yàn)結(jié)果與分析
    圖2(a)為從原始視頻序列中截取的9幀圖像, 圖2(b)為使用本文基于反差描述元的混合高斯模型背景建模識(shí)別效果。本文所取的視頻右方是一片風(fēng)中搖曳的樹(shù)木,從圖2(b)可以明顯看出,在速度為20 S/s的情況下,改進(jìn)的背景建模方法有效地濾除了干擾,基本無(wú)殘留的像素點(diǎn),前景輪廓比較清晰,幾乎沒(méi)有拖影現(xiàn)象,達(dá)到了較好的前景識(shí)別效果。最后對(duì)檢測(cè)到的前景進(jìn)行了實(shí)時(shí)跟蹤,并對(duì)其運(yùn)動(dòng)軌跡進(jìn)行了實(shí)時(shí)描述。最終的檢測(cè)效果如圖2(c)。

 

 

    針對(duì)經(jīng)典的混合高斯背景建模算法魯棒性較差且背景建模實(shí)時(shí)性不足的缺點(diǎn),本文提出了一種改進(jìn)方法,其進(jìn)行了兩點(diǎn)改進(jìn),首先將圖像矢量化,即將圖像分成若干塊,對(duì)每一塊圖像進(jìn)行高斯背景建模,其次基于圖像塊的反差描述元進(jìn)行匹配,降低了環(huán)境光等的干擾。經(jīng)實(shí)驗(yàn)取得了良好的效果。
參考文獻(xiàn)
[1] FRIEDMAN N,RUSSELL S. Image segmentation in video sequences: A probabilistic approach[C]. Proceedings of the 13th Annual Conference on Uncertainty in Artificial Intelligence,1997:175-181.
[2] STAUFFER C, GRIMSON W. Adaptive background mixture  models for real time tracking[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, 1999:246-252.
[3] Sun Tong, NEUVO Y. Detail-preserving median based filters in image processing[J]. Pattern Recognition Letters,1994,15(4):341-347.
[4] HARVILLE M. A framework for high-level feedback to adaptive, per-pixel, mixture-of-Gaussian background models[C]. Proceedings of European Conference on Computer Vision, 2002:543-560.
[5] LEE D S. Effective gaussian mixture learning for video background subtraction[J]. IEEE Transactions on Pattern Anal. Mach. Intell. 2005,27(5):827-832.

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。