《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設(shè)計應(yīng)用 > 基于目標(biāo)多區(qū)域分割的抗干擾跟蹤算法研究
基于目標(biāo)多區(qū)域分割的抗干擾跟蹤算法研究
2019年電子技術(shù)應(yīng)用第10期
張?zhí)祜w,龍海燕,丁 嬌,張 磊
安徽信息工程學(xué)院,安徽 蕪湖241000
摘要: 針對視頻序列中運動目標(biāo)跟蹤過程中可能出現(xiàn)的目標(biāo)旋轉(zhuǎn)、遮擋、形變等原因造成的跟蹤失敗問題,提出了一種基于目標(biāo)多區(qū)域分割的跟蹤方法。主要通過將目標(biāo)劃分為多個部分相互重疊的區(qū)域,然后選擇跟蹤過程中相對穩(wěn)定的多個區(qū)域進行定位,進而對跟蹤的目標(biāo)采用不同目標(biāo)區(qū)域權(quán)重更新不同的模板更新策略,這樣選擇主要可以增加算法的抗遮擋、抗旋轉(zhuǎn)能力。實驗結(jié)果表明,該方法對目標(biāo)遮擋、旋轉(zhuǎn)等具有一定的適應(yīng)能力。
中圖分類號: TP391.41
文獻標(biāo)識碼: A
DOI:10.16157/j.issn.0258-7998.190356
中文引用格式: 張?zhí)祜w,龍海燕,丁嬌,等. 基于目標(biāo)多區(qū)域分割的抗干擾跟蹤算法研究[J].電子技術(shù)應(yīng)用,2019,45(10):37-39,44.
英文引用格式: Zhang Tianfei,Long Haiyan,Ding Jiao,et al. Research on anti-jamming tracking algorithm based on multi-region segmentation of target[J]. Application of Electronic Technique,2019,45(10):37-39,44.
Research on anti-jamming tracking algorithm based on multi-region segmentation of target
Zhang Tianfei,Long Haiyan,Ding Jiao,Zhang Lei
Anhui Institute of Information Technology,Wuhu 241000,China
Abstract: Aiming at the problem of tracking failure caused by rotation, occlusion and deformation of moving target in video sequence, a tracking method based on multi-region segmentation of target was proposed. The target is divided into multiple overlapping regions, and then multiple regions that are relatively stable in the tracking process are selected for positioning, and then different target region weights are used to update different template updating strategies for the tracked target. In this way, the anti-blocking and anti-rotation ability of the algorithm can be increased. Experimental results show that the proposed method is adaptive to occlusion and rotation.
Key words : computer vision;target tracking;multi-region segmentation;search location;template update

0 引言

    隨著計算機技術(shù)及數(shù)字圖像處理技術(shù)的快速發(fā)展,基于視頻序列的運動目標(biāo)檢測與跟蹤是計算機視覺的一個重要的研究方向,目前已被廣泛的應(yīng)用于各個領(lǐng)域,如智能交通、視頻監(jiān)控、無人機跟蹤、人機交互等,實現(xiàn)了用計算機代替人眼對外界物體的運動進行智能分析,為人們的生活和工作提供了很大的便利[1-2]。近年來各種目標(biāo)檢測與目標(biāo)跟蹤的技術(shù)已日趨成熟,有基于顏色信息進行跟蹤的方法,如Mean Shift算法[3-5]、模糊C均值聚類[6-9];有基于紋理的方法,如核相關(guān)濾波算法(Kernerlized Correlation Filter,KCF)[10-14]、尺度空間判別跟蹤算法(Discriminative Scale Space Tracking,DSST)[15]。目前很多跟蹤方法也將深度學(xué)習(xí)的思路融入其中[16-18],并且取得了長足的進步。

    視頻序列中目標(biāo)跟蹤的難點在于目標(biāo)移動過程中可能出現(xiàn)被其他物體遮擋、目標(biāo)形狀發(fā)生變化以及目標(biāo)發(fā)生旋轉(zhuǎn)等情況,從而造成跟蹤失敗。本文通過對目標(biāo)分割成多個區(qū)域分別跟蹤以及采用多個區(qū)域的模板分別更新這兩個策略以期望算法能夠在一定程度上容忍目標(biāo)在移動過程中出現(xiàn)的形變和部分遮擋情況。實驗結(jié)果證明所采用的方法達到了預(yù)期。

    接下來,本文將分別介紹算法的模板更新策略以及定位策略。

1 目標(biāo)多區(qū)域分割跟蹤方法

    在實際場景中,經(jīng)常會遇到目標(biāo)在移動過程中由于視角的變化等原因?qū)е履繕?biāo)形態(tài)發(fā)生變化,以及由于目標(biāo)在移動過程中被其他物體遮擋等原因?qū)е履繕?biāo)只有部分區(qū)域出現(xiàn)在圖像中,這些都會導(dǎo)致跟蹤算法性能降低。針對此種情況,本文提出了一種新的搜索定位方法,即對目標(biāo)中的多個區(qū)域進行跟蹤,此方法可以在一定程度上解決由于目標(biāo)部分遮擋以及形變等原因造成跟蹤算法性能下降的問題。

1.1 模板選擇策略

    目前將目標(biāo)分割為多個區(qū)域主要有兩種劃分方法,分別是劃分為相互重疊的區(qū)域以及劃分為相互不重疊的區(qū)域。將目標(biāo)劃分為相互不重疊的區(qū)域,可以簡化計算;將目標(biāo)劃分為相互重疊的區(qū)域,可以增加目標(biāo)可用區(qū)域,使得選取的目標(biāo)區(qū)域位置更加合理。本文選擇對目標(biāo)劃分為部分相互重疊的區(qū)域,其中重疊率為50%,如圖1所示,其中,陰影部分為相鄰模塊的重疊區(qū)域。

rgzn3-t1.gif

    在得到目標(biāo)的多個區(qū)域位置后,對目標(biāo)區(qū)域進行篩選。首先利用式(1)計算目標(biāo)區(qū)域特征,篩選的準(zhǔn)則是特征穩(wěn)定且特征盡可能大的區(qū)域。

    rgzn3-gs1.gif

其中,fbi表示第i個區(qū)域的特征值;ω表示區(qū)域距離中心的權(quán)重信息,距離中心越遠權(quán)重越小,反之越大;fi表示目標(biāo)的紋理特征值(由n個子特征值組成,第k的子特征值為xk),特征值越大表示是目標(biāo)的可能性就越大,跟蹤過程中此特征就越穩(wěn)定。將式(1)計算得到的多個區(qū)域值按fbi特征值由大到小進行排序,然后選擇其中3個區(qū)域作為定位區(qū)域,另外將目標(biāo)中心區(qū)域一同作為定位區(qū)域使用,這樣最終獲得了4個定位區(qū)域??紤]到所選區(qū)域的多樣性,在進行區(qū)域選擇時,盡量不要選擇距離很近的兩個區(qū)域作為定位區(qū)域。

1.2 搜索定位策略

    接下來的問題是如何找到兩個目標(biāo)的相似性。計算目標(biāo)相似性本文使用的是相關(guān)濾波的方法,見式(2),值越小表示相似度越高。

rgzn3-gs2.gif

    算法中為了增加抗干擾性能,使用了多個區(qū)域?qū)δ繕?biāo)進行定位,通過式(3)計算整個目標(biāo)區(qū)域的相關(guān)性。

    rgzn3-gs3.gif

式中,λbi表示第i個區(qū)域?qū)φ麄€結(jié)果的重要性,可以用高斯濾波表示。為了使得計算結(jié)果更加穩(wěn)定且準(zhǔn)確,在確定λbi值時需要注意:目標(biāo)中心區(qū)域中的λbi所占的比重會比周圍的區(qū)域大,另外區(qū)域特征值越大,給出的λbi也會越大。

1.3 模板更新策略

    模板是直接影響下一幀搜索結(jié)果的一個很重要的因素,若模板選擇不合理,將會導(dǎo)致跟蹤結(jié)果出現(xiàn)偏差,甚至跟蹤到完全錯誤的物體上。根據(jù)實驗可知,如果模板每幀都在更新,若出現(xiàn)遮擋等情況時,就會造成模板被污染,導(dǎo)致跟蹤失敗。本文中,模版更新采用不同的目標(biāo)區(qū)域,其更新的權(quán)重不同,這樣可以使得模板更新相對精確,從而避免由于遮擋等原因造成誤更新問題。模板更新公式如下:

rgzn3-gs4.gif

2 實驗結(jié)果分析

    KCF是目前跟蹤算法相對比較出色的一種相關(guān)濾波算法,采用脊回歸以及循環(huán)卷積等方法取得了較好的跟蹤效果。下述實驗將KCF與本文提出的方法進行對比分析,如圖2所示。

rgzn3-t2.gif

    圖2中,虛線框代表KCF跟蹤效果,實線框代表本文算法,在跟蹤過程未遇到障礙物之前KCF方法與本文算法跟蹤效果類似,都能相對準(zhǔn)確地跟蹤到目標(biāo);當(dāng)障礙物剛開始遮擋目標(biāo)時,KCF方法也可以跟蹤到目標(biāo),但是偏差會越來越大,本文方法可以相對準(zhǔn)確地跟蹤部分遮擋的目標(biāo);當(dāng)目標(biāo)從障礙物的另一個方向出現(xiàn)時,KCF并沒有及時地跟蹤到目標(biāo),但是本文方法能夠跟蹤到目標(biāo),這主要得益于本文方法使用的多區(qū)域跟蹤以及多幀更新模板的策略。

    由上述實驗結(jié)果可以看出,本文對于跟蹤目標(biāo)的形變以及遮擋等情況有一定的抗干擾能力。

3 結(jié)論

    目標(biāo)跟蹤過程中,本文使用的多區(qū)域目標(biāo)跟蹤策略以及不同權(quán)重的多幀更新模板策略在一定程度上可以減少由于目標(biāo)形變以及障礙物遮擋造成的跟蹤丟失的情況,即具有一定的魯棒性,能夠較好地實現(xiàn)目標(biāo)的實時跟蹤。

參考文獻

[1] 袁寶紅.基于視頻的運動目標(biāo)檢測與跟蹤研究[D].合肥:安徽大學(xué),2014.

[2] 祁淑霞.基于形狀上下文和粒子濾波的多目標(biāo)跟蹤[J].電子技術(shù)應(yīng)用,2015,41(1):156-160.

[3] VOJIR T,NOSKOVA J,MATAS J.Robust scale-adaptive mean-shift for tracking[C].SCIA,2013:652-663.

[4] 李紅波,曾德龍,吳渝.基于Mean-Shift和粒子濾波的兩步多目標(biāo)跟蹤方法[J].重慶郵電大學(xué)學(xué)報(自然科學(xué)版),2010(1):112-117,121.

[5] 周楊,胡桂明,黃東芳.基于邊緣自適應(yīng)的Mean Shift目標(biāo)跟蹤方法[J].電子技術(shù)應(yīng)用,2017(5):138-142.

[6] 王小鵬,張永芳,王偉,等.基于自適應(yīng)濾波的快速廣義模糊C均值聚類圖像分割[J].模式識別與人工智能,2018,31(11):1040-1046.

[7] 郝慧娟,許繼勇,劉廣起.基于自適應(yīng)分塊的視頻目標(biāo)跟蹤方法研究[J].計算機應(yīng)用研究,2010,27(9):3579-3580,3590.

[8] 許辰銘.視頻圖像中的運動目標(biāo)檢測與跟蹤[D].南京:南京郵電大學(xué),2012.

[9] HENRIQUES J F,CASEIRO R,MARTINS P,et al.High-speed tracking with kernelized correlation filters[J].TPAMI,2015,37(3):583-596.

[10] HENRIQUES J F,CASEIRO R,MARTINS P,et al.Exploiting the circulant structure of tracking-by-detection with kernels[C].ECCV,2012.

[11] 劉延飛,何燕輝,張薇,等.基于異常值檢測的KCF目標(biāo)丟失預(yù)警方法研究[J].計算機工程與應(yīng)用,2018,54(22):216-222.

[12] DANELLJAN M,H?魧GER G,KHAN F S,et al.Accurate scale estimation for robust visual tracking[C].Proceedings of the British Machine Vision Conference(BMVC),2014.

[13] DANELLJAN M,H?魧GER G,KHAN F S,et al.Michael felsberg. discriminative scale space tracking[J].TPAMI,2017,39(8):1561-1575.

[14] 馬曉虹,尹向雷.基于相關(guān)濾波器的目標(biāo)跟蹤方法綜述[J].電子技術(shù)應(yīng)用,2018,44(6):3-7,14.

[15] NAM H,HAN B.Learning multi-domain convolutional neural networks for visual tracking[C].CVPR,2016.

[16] BERTINETTO L,VALMADRE J,HENRIQUES J F,et al.Fully-convolutional siamese networks for object tracking[C].ECCV,2016.

[17] HELD D,THRUN S,SAVARESE S.Learning to track at 100 fps with deep regression networks[C].ECCV,2016.

[18] 黃睿,陸許明,鄔依林.基于TensorFlow深度學(xué)習(xí)手寫體數(shù)字識別及應(yīng)用[J].電子技術(shù)應(yīng)用,2018,44(10):6-10.



作者信息:

張?zhí)祜w,龍海燕,丁  嬌,張  磊

(安徽信息工程學(xué)院,安徽 蕪湖241000)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。