《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 嵌入式技術(shù) > 設(shè)計(jì)應(yīng)用 > 基于強(qiáng)獨(dú)特性二進(jìn)制描述子的無(wú)人機(jī)目標(biāo)識(shí)別算法
基于強(qiáng)獨(dú)特性二進(jìn)制描述子的無(wú)人機(jī)目標(biāo)識(shí)別算法
2016年電子技術(shù)應(yīng)用第10期
杜玉龍,李建增,張 巖,范 聰
軍械工程學(xué)院,河北 石家莊050003
摘要: 針對(duì)基于傳統(tǒng)特征描述子獨(dú)特性低導(dǎo)致誤匹配率高、圖像匹配效果較差的問(wèn)題,提出一種基于強(qiáng)獨(dú)特性二進(jìn)制描述子的無(wú)人機(jī)目標(biāo)識(shí)別算法。算法首先通過(guò)對(duì)比BRISK和FREAK采樣模型,確定了影響描述子性能的模型參數(shù),然后通過(guò)理論建模選取參數(shù)最優(yōu)值,最后根據(jù)人眼視網(wǎng)膜細(xì)胞的分布特性構(gòu)建改進(jìn)模型。在此基礎(chǔ)上,結(jié)合圖像灰度排序信息和高斯平滑獲得多組子圖像,將采樣模型映射其中生成描述子,通過(guò)計(jì)算篩選得到其中具有強(qiáng)區(qū)分性和低相關(guān)性的特征描述子。對(duì)比實(shí)驗(yàn)表明基于本文算法不僅可以更好地克服無(wú)人機(jī)偵察圖像中各種尺度、視角、旋轉(zhuǎn)、光照和噪聲等變換的影響,而且滿足戰(zhàn)場(chǎng)應(yīng)用中實(shí)時(shí)性的要求。
中圖分類號(hào): TP391.4
文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.2016.10.005
中文引用格式: 杜玉龍,李建增,張巖,等. 基于強(qiáng)獨(dú)特性二進(jìn)制描述子的無(wú)人機(jī)目標(biāo)識(shí)別算法[J].電子技術(shù)應(yīng)用,2016,42(10):24-28,32.
英文引用格式: Du Yulong,Li Jianzeng,Zhang Yan,et al. Objection recognition algorithm of UAV based on strong uniqueness binary description[J].Application of Electronic Technique,2016,42(10):24-28,32.
Objection recognition algorithm of UAV based on strong uniqueness binary description
Du Yulong,Li Jianzeng,Zhang Yan,F(xiàn)an Cong
Unmanned Aerial Vehicle Engineering Department,Ordnance Engineering College,Shijiazhuang 050003,China
Abstract: Aiming at the serious problem that traditional descriptors have low uniqueness, which results in high error matching rate and poor matching behavior between images, an objection recognition algorithm of UAV based on strong uniqueness binary description is proposed. First, based upon the comparison of BRISK and FREAK sampling model, the parameters are determined which have influence on the model performance. Then the effect of parameters is analyzed to choose optimal ones by theoretical modeling. Finally the model is gained with the combination of biotical principle. On the basis, the images are divided according to the gray levels of pixels and smoothed by different scales of Gaussian, and the proposed sampling pattern is taken into them, the strong distinguished and low correlated keypoints descriptor of original image is chosen through the calculation. Comparative experiments show that the proposed algorithm can not only better overcome the influence of various change of scale, viewpoint, rotation, brightness and noise in the battle reconnaissance images, but fully meet the real-time requirements in battle application.
Key words : UAV;object recognition;binary descriptor;sampling model;Gaussian distribution;multi-scale sub-image

0 引言

    目標(biāo)識(shí)別是計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)的經(jīng)典問(wèn)題,隨著多媒體技術(shù)的發(fā)展,人類接收的信息量與日俱增,使用計(jì)算機(jī)代替人力實(shí)現(xiàn)目標(biāo)識(shí)別已逐漸成為發(fā)展趨勢(shì)。在軍事應(yīng)用方面,為了節(jié)省人力以及減少人員傷亡,無(wú)人機(jī)目標(biāo)識(shí)別技術(shù)同樣得到了廣泛研究,而無(wú)人機(jī)的迅猛發(fā)展為該技術(shù)提供了研究條件和工程應(yīng)用基礎(chǔ)。目標(biāo)識(shí)別中特征描述算法可分為浮點(diǎn)型和二進(jìn)制兩類,與采用歐氏距離作為特征點(diǎn)匹配判定條件的浮點(diǎn)型算法不同,二進(jìn)制算法通過(guò)異或操作即可完成判斷,有效降低計(jì)算量,確保圖像的實(shí)時(shí)處理,考慮到無(wú)人機(jī)目標(biāo)識(shí)別應(yīng)用對(duì)于實(shí)時(shí)性的要求,選用二進(jìn)制算法作為本文算法的基礎(chǔ)。

    代表性的二進(jìn)制算法主要包括BRIEF[1](Binary Robust Independent Elementary Features)算法、ORB[2](Oriented Fast and Rotated BRIEF)算法、BRISK[3](Binary Robust Invariant Scalable Keypoints)算法以及FREAK[4](Fast Retina Keypoints)算法等。其中BRIEF算法在特征點(diǎn)鄰域內(nèi)隨機(jī)選取采樣點(diǎn)對(duì),通過(guò)灰度對(duì)比生成特征描述符,雖然算法運(yùn)行速度很快,但采樣點(diǎn)選取策略的隨機(jī)性導(dǎo)致算法的特征表達(dá)能力有限,且旋轉(zhuǎn)不變性與尺度不變性較差。ORB算法在其基礎(chǔ)上引入方向特性,具備良好的旋轉(zhuǎn)不變性,但采樣點(diǎn)選取策略并沒(méi)有得到改進(jìn)。BRISK算法設(shè)計(jì)了一種固定采樣模型,基于該模型的特征描述有效改善算法對(duì)于各種變換的魯棒性,但模型內(nèi)采樣點(diǎn)感受域之間重疊率低,信息連續(xù)性較差,導(dǎo)致特征描述不夠充分。FREAK算法根據(jù)人眼視網(wǎng)膜原理,在BRISK算法的基礎(chǔ)上進(jìn)一步優(yōu)化采樣模型結(jié)構(gòu),增加了相鄰采樣點(diǎn)感受域之間的交疊帶,改善了特征描述的信息含量,但重疊區(qū)域過(guò)大導(dǎo)致信息冗余,降低了描述子的獨(dú)特性。

    針對(duì)傳統(tǒng)無(wú)人機(jī)目標(biāo)識(shí)別特征描述算法的不足,提出了一種基于改進(jìn)采樣模型的強(qiáng)獨(dú)特性二進(jìn)制描述算法,算法首先對(duì)比BRISK和FREAK采樣模型,確定影響模型性能的參數(shù),并通過(guò)理論建模逐項(xiàng)優(yōu)化選取參數(shù)最優(yōu)值,根據(jù)人眼視網(wǎng)膜中細(xì)胞的分布特性得到改進(jìn)模型。在此基礎(chǔ)上,對(duì)圖像進(jìn)行灰度劃分及排序,將改進(jìn)模型映射其中,增加對(duì)圖像層次信息的表達(dá),在眾多描述子中選取具有強(qiáng)區(qū)分性和低相關(guān)性作為最終的特征描述子,改善算法的魯棒性能。

1 構(gòu)建采樣模型

    在特征描述階段,通過(guò)比較采樣模型內(nèi)采樣點(diǎn)對(duì)的灰度值生成二進(jìn)制描述字符串,因此合理的采樣模型是保證描述子性能的關(guān)鍵。在設(shè)計(jì)采樣模型前,首先對(duì)比BRISK和FREAK采樣模型以確定影響模型性能的參數(shù),模型示意圖如圖1所示。

wrj5-t1.gif

1.1 傳統(tǒng)采樣模型分析

    兩種采樣模型均采用圓形對(duì)稱結(jié)構(gòu)。通過(guò)對(duì)比分析得出影響性能的主要參數(shù)分別為:采樣點(diǎn)密度、采樣環(huán)層數(shù)和采樣點(diǎn)感受域重疊度。

    三個(gè)參數(shù)之間相互聯(lián)系和制約,由于同一采樣環(huán)上的采樣點(diǎn)之間不存在重疊,采樣點(diǎn)密度決定了每個(gè)采樣點(diǎn)的感受域,相鄰采樣環(huán)之間的距離決定了采樣點(diǎn)感受域之間的重疊范圍,采樣點(diǎn)密度與采樣環(huán)層數(shù)決定了采樣模型內(nèi)的采樣點(diǎn)個(gè)數(shù),三者之間相互作用共同決定了采樣模型的性能。

1.2 采樣環(huán)層數(shù)與采樣點(diǎn)密度

    首先對(duì)采樣點(diǎn)全局均勻分布類模型性能進(jìn)行測(cè)試,結(jié)果如圖2所示。

wrj5-t2.gif

    實(shí)驗(yàn)結(jié)果表明:此類模型的正確匹配率隨總采樣點(diǎn)數(shù)和采樣環(huán)層數(shù)的增加逐漸上升,當(dāng)采樣點(diǎn)數(shù)為57個(gè),采樣環(huán)達(dá)到6層時(shí),模型獲取的所有信息中特征信息占比最高,描述子位特征方差和均值達(dá)到最佳,模型性能最優(yōu)。為了滿足圖像實(shí)時(shí)處理的要求,選取57個(gè)采樣點(diǎn)均勻分布在6層采樣環(huán)上的模型作為此類最優(yōu)模型,基于此模型的算法正確匹配率為74%。

    對(duì)相同層采樣點(diǎn)數(shù)類分布模型性能進(jìn)行測(cè)試,結(jié)果如圖3所示。

wrj5-t3.gif

    實(shí)驗(yàn)結(jié)果表明:此類模型的正確匹配率隨層采樣點(diǎn)數(shù)和采樣環(huán)層數(shù)的增加逐漸上升,對(duì)應(yīng)的總信息中特征信息比重逐漸增大,當(dāng)達(dá)到極值時(shí),特征信息利用率最高,算法性能達(dá)到最優(yōu)并逐漸趨于穩(wěn)定。因此,綜合考慮算法的精確度和復(fù)雜度,將7層采樣環(huán),每層均勻分布8個(gè)采樣點(diǎn)的模型作為此類最優(yōu)模型,基于該模型的算法正確匹配率為78%。

1.3 感受域范圍重疊度

    在生成描述子時(shí),采樣點(diǎn)的感受域越大,包含的信息越多,特征點(diǎn)的描述子獨(dú)特性越強(qiáng),但過(guò)大的感受域會(huì)使重疊度增大,從而導(dǎo)致信息冗余。對(duì)不同重疊度下模型獲取的信息量進(jìn)行統(tǒng)計(jì),以確定最優(yōu)重疊度,結(jié)果如圖4所示,當(dāng)重疊度為20%~25%時(shí)特征信息含量達(dá)到極值,因此在設(shè)計(jì)采樣模型時(shí),將每個(gè)采樣點(diǎn)的感受域重疊度調(diào)整為23%左右。

wrj5-t4.gif

1.4 本文采樣模型

    研究[4]表明:人眼在觀察目標(biāo)時(shí),通過(guò)視網(wǎng)膜中央?yún)^(qū)域識(shí)別目標(biāo)的細(xì)節(jié)信息;而周邊區(qū)域主要用于檢測(cè)目標(biāo)的輪廓信息;其細(xì)胞分布的數(shù)學(xué)模型符合高斯分布[8]。根據(jù)人眼視網(wǎng)膜中的細(xì)胞分布規(guī)律,提出一種基于高斯分布的強(qiáng)獨(dú)特性描述子采樣模型。模型性能測(cè)試結(jié)果如圖5所示。

wrj5-t5.gif

    wrj5-t6.gif根據(jù)測(cè)試結(jié)果,當(dāng)模型的采樣環(huán)達(dá)到6層后算法性能逐漸趨于穩(wěn)定,此時(shí)的正確匹配率為83%,性能優(yōu)于前兩類模型。根據(jù)這一結(jié)論得到本文模型分布如圖6所示。

2 構(gòu)建二進(jìn)制描述子

    在傳統(tǒng)無(wú)人機(jī)目標(biāo)識(shí)別特征描述子的生成過(guò)程中,僅在特征點(diǎn)的單一鄰域內(nèi)利用采樣模型中采樣點(diǎn)對(duì)比結(jié)果生成二進(jìn)制字符串,缺乏對(duì)圖像層次信息和旋轉(zhuǎn)信息的表達(dá),且忽略了圖像中像素的聚類特征,導(dǎo)致描述子在圖像中存在各種仿射變換和噪聲干擾情況下的魯棒性能較差。針對(duì)這一局限性,本文在改進(jìn)采樣模型的基礎(chǔ)上,通過(guò)對(duì)圖像分層處理提升算法的獨(dú)特性。

    如圖7所示,將灰度值劃分為幾段,對(duì)應(yīng)不同區(qū)間可得到多組子圖像,分別對(duì)每一幅子圖像進(jìn)行多尺度高斯平滑,高斯核越大,特征點(diǎn)的魯棒性能越強(qiáng),因此優(yōu)先描述高尺度平滑子圖像特征點(diǎn),并賦予較高的權(quán)重。將通過(guò)不同灰度劃分計(jì)算法得到的描述子在按順序排列成矩陣形式,分別計(jì)算矩陣的方差和協(xié)方差,篩選出其中具有強(qiáng)區(qū)分性和低相關(guān)性的列作為最終的特征描述子。

wrj5-t7.gif

3 實(shí)驗(yàn)分析

    為了測(cè)試本文無(wú)人機(jī)目標(biāo)識(shí)別算法的魯棒性能,采用由Mikolajczyk[10]所提供的國(guó)際標(biāo)準(zhǔn)測(cè)試圖像集進(jìn)行實(shí)驗(yàn)。

3.1 魯棒性能測(cè)試

    在測(cè)試中統(tǒng)一采用FAST-Hessian算法進(jìn)行特征點(diǎn)檢測(cè),利用Precision-Recall曲線對(duì)算法的魯棒性能進(jìn)行分析,其中Precision代表查準(zhǔn)率,即所有匹配特征點(diǎn)中正確匹配點(diǎn)所占的比例;Recall代表查全率,表示正確匹配特征點(diǎn)數(shù)與特征點(diǎn)總數(shù)的比值,其計(jì)算公式分別為:

     wrj5-gs1-2.gif

    其中,#correct matches表示錯(cuò)誤匹配的特征點(diǎn)數(shù),#match keypoints表示匹配成功的總點(diǎn)數(shù),#corresponding keypoints表示兩幅圖像之間對(duì)應(yīng)的特征點(diǎn)總數(shù)。采用各個(gè)測(cè)試集中的第一幅與第四幅圖像進(jìn)行實(shí)驗(yàn),測(cè)試結(jié)果如圖8所示。

wrj5-t8.gif

    圖8中測(cè)試曲線表明:本文算法在各種變換下的魯棒性能優(yōu)于其他四種算法,這是由于采樣模型中采樣點(diǎn)感受域之間的交互重疊使得模型能夠充分獲取特征點(diǎn)的周邊信息,信息更加連續(xù),保證模型對(duì)于視點(diǎn)變換具有更強(qiáng)的魯棒性。在生成描述子時(shí),對(duì)子圖像進(jìn)行了多尺度高斯平滑,并引入灰度排序信息,通過(guò)計(jì)算描述子矩陣的方差和協(xié)方差,篩選其中具有強(qiáng)區(qū)分性和低相關(guān)性的特征描述子,從而能夠更好地克服各種變換對(duì)目標(biāo)識(shí)別帶來(lái)的影響,保證算法在無(wú)人機(jī)戰(zhàn)場(chǎng)偵察中對(duì)于各種復(fù)雜環(huán)境的穩(wěn)定性能,有利于對(duì)于敵方情報(bào)的實(shí)時(shí)掌控,控制戰(zhàn)爭(zhēng)走向。

3.2 實(shí)時(shí)性

    在測(cè)試圖像集中,分別統(tǒng)計(jì)各無(wú)人機(jī)目標(biāo)識(shí)別算法的總匹配特征點(diǎn)數(shù)Num、特征描述總耗時(shí)t和每個(gè)特征點(diǎn)描述平均耗時(shí)Ave,通過(guò)數(shù)據(jù)對(duì)比分析算法性能,統(tǒng)計(jì)結(jié)果如表1所示。

wrj5-b1.gif

    其中SIFT和SURF算法作為浮點(diǎn)型算法通過(guò)計(jì)算特征點(diǎn)之間的歐氏距離判斷是否匹配,因此耗時(shí)嚴(yán)重。而二進(jìn)制BRISK和FREAK描述算法,只需在特征點(diǎn)鄰域內(nèi)按照采樣模型選取點(diǎn)對(duì)進(jìn)行灰度比較,將生成的二進(jìn)制描述字符串作為特征描述子,因此算法運(yùn)行速度有較大提升,滿足實(shí)時(shí)性處理的實(shí)際應(yīng)用要求;本文采樣模型在設(shè)計(jì)過(guò)程中,通過(guò)合理選取采樣點(diǎn)密度和采樣環(huán)層數(shù),按高斯模型分布采樣點(diǎn),優(yōu)化感受域重疊度,從而增強(qiáng)模型獨(dú)特性,并提高算法的精度與速度。但本文算法在生成描述子時(shí)引入了灰度排序信息,在改善描述子性能的同時(shí),算法耗時(shí)相對(duì)有所提高,根據(jù)表1數(shù)據(jù),本文算法耗時(shí)在BRISK和FREAK算法之上,但遠(yuǎn)少于浮點(diǎn)型算法的耗時(shí),基本滿足實(shí)際應(yīng)用中實(shí)時(shí)性的要求,結(jié)合識(shí)別性能中的測(cè)試結(jié)果,本文所提出的無(wú)人機(jī)目標(biāo)識(shí)別算法能夠同時(shí)滿足戰(zhàn)場(chǎng)應(yīng)用對(duì)于識(shí)別精度和速度的要求,且相對(duì)傳統(tǒng)算法有較大的提升,因此本文算法具有一定的優(yōu)越性。

4 結(jié)論

    針對(duì)傳統(tǒng)無(wú)人機(jī)目標(biāo)識(shí)別算法中特征描述子獨(dú)特性有限導(dǎo)致算法誤匹配率較高,目標(biāo)識(shí)別精度較低的不足。本文首先對(duì)影響模型性能的主要因素進(jìn)行分析,然后通過(guò)理論建模獲取最優(yōu)參數(shù),結(jié)合仿生學(xué)原理,提出一種基于高斯分布的強(qiáng)區(qū)分性采樣模型,最后結(jié)合灰度排序信息和高斯平滑,通過(guò)計(jì)算方差和協(xié)方差篩選出具有強(qiáng)區(qū)分性和低相關(guān)性的特征描述子;實(shí)驗(yàn)結(jié)果表明本文算法不僅能較好地克服戰(zhàn)場(chǎng)偵察圖像中各種變換帶來(lái)的影響,同時(shí)滿足實(shí)際應(yīng)用中實(shí)時(shí)性處理的要求。

    本文在構(gòu)建采樣模型時(shí),只在兩種約束模型條件下進(jìn)行了討論分析,進(jìn)一步優(yōu)化時(shí)可考慮采樣模型的所有可能分布,從而獲得絕對(duì)最優(yōu)模型,且只對(duì)目標(biāo)識(shí)別中的特征描述算法進(jìn)行了優(yōu)化,對(duì)于特征檢測(cè)算法的改進(jìn)可作為下一步研究方向。

參考文獻(xiàn)

[1] CALONDER M,LEPETIT V,OZUYSAL M,et al.BRIEF:binary robust independent elementary features[J].IEEE Transactions on Model Analysis and Machine Intelligence,2012,34(7):1281-1298.

[2] RUBLEE E,RABAUD V,KONOLIDGEK,et al.ORB:an efficient alternative to SIFT or  SURF[C].Proceedings of the 13th IEEE International on Conference Computer Vision.Los Alamitos:IEEE Computer Society Press,2011,2011:2564-2571.

[3] LEUTENEGGER S,CHLI M,SIEGWART R.BRISK:binary robust invariant scalable keypoints[C].Proceedings of the 13th IEEE International Conference on Computer Vision.Los Alamitos:IEEE Computer Society Press,2012:2548-2555.

[4] ALAHI A,ORTIZ R,VANDERRGHEYNST P.FREAK:fast retina keypoint[C].Proceedings of Computer Version and Model Recognition.Los Alamitos:IEEE Computer Society Press,2011:510-517.

[5] MARI E,HAGER G,BURSCHKA G,et al.Adaptive and generic corner detection based on the accelerated segment test[C].Proceedings of the 11th European Conference on Computer Vision,2010,6312:183-196.

[6] 惠國(guó)保,李東波,童一飛.挖掘圖像補(bǔ)丁特征信息增強(qiáng)二進(jìn)制描述子獨(dú)特性[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2014,26(9):1419-1429.

[7] 白豐,張明路,張小俊,等.快速優(yōu)化篩選多尺度矩形域的二進(jìn)制描述[J].中國(guó)圖像圖形學(xué)報(bào),2016,21(3):303-313.

[8] 林森,苑瑋琦,宋輝.二進(jìn)制魯棒不變尺度特征在非接觸掌紋識(shí)別中的應(yīng)用[J].儀器儀表學(xué)報(bào),2013,34(12):2785-2792.

[9] BEKELE D,TEUTHCS M,SCHUCHERT T.Evaluation of binary keypoint descriptors[C].Proceedings of the 20th IEEE International Conference on Image Processing,2013:3652-3656.

[10] MIKOLAJCZYK K,SCHMID C.A performance evaluation of local descriptors[J].IEEE Transactions on Model Analysis and Machine Intelligence,2005,27(10):1615-1630.

[11] 王燦進(jìn),孫濤,陳娟.基于FREAK特征的快速景象匹配[J].電子測(cè)量與儀器學(xué)報(bào),2015,29(2):204-212.

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。