《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設(shè)計應(yīng)用 > 基于局部限定搜索區(qū)域的特征匹配算法
基于局部限定搜索區(qū)域的特征匹配算法
2018年電子技術(shù)應(yīng)用第8期
張振寧,李 征,鄭俊偉
四川大學(xué) 計算機學(xué)院,四川 成都610065
摘要: 提出一種局部限定搜索區(qū)域的特征匹配算法,將空間約束與局部描述符結(jié)合起來。該算法在ASIFT算法基礎(chǔ)之上,針對在特征匹配階段直接去除一對多、多對一的特征點的缺陷做出了改進。由于這些被去掉的特征點中有很多是可以得到正確匹配的,導(dǎo)致獲得到的匹配點對少了很多,通過在已經(jīng)匹配的點對的周圍限定區(qū)域內(nèi)尋找出新的未曾匹配的點對,最終達到提升正確匹配數(shù)量的目標。經(jīng)實驗驗證,所提出的局部限定搜索區(qū)域的特征匹配算法相比于ASIFT算法能大量增加特征匹配點的數(shù)量。
關(guān)鍵詞: 局部限定 ASIFT 特征匹配
中圖分類號: TP391
文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.174463
中文引用格式: 張振寧,李征,鄭俊偉. 基于局部限定搜索區(qū)域的特征匹配算法[J].電子技術(shù)應(yīng)用,2018,44(8):130-133,142.
英文引用格式: Zhang Zhenning,Li Zheng,Zheng Junwei. Feature matching algorithm based on partial limitation search region[J]. Application of Electronic Technique,2018,44(8):130-133,142.
Feature matching algorithm based on partial limitation search region
Zhang Zhenning,Li Zheng,Zheng Junwei
College of Computer Science,Sichuan University,Chengdu 610065,China
Abstract: This paper proposes a feature matching algorithm for partial limitation search regions, which combines spatial constraints with local descriptors. Based on the ASIFT algorithm, this paper improves the defects of directly removing one-to-many and many-to-one feature points in the feature matching phase. Since many of these removed feature points can be properly matched,resulting match points less. This paper will find a new unmatched pair of points within the surrounding area of the matching pairs, and finally achieve the goal of raising the correct number of matches. Experiments show that the feature matching algorithm proposed in this paper can greatly increase the number of feature matching compared with the ASIFT algorithm.
Key words : partial limitation;ASIFT;feature matching

0 引言

    在現(xiàn)有的目標識別[1]、目標分類[2]、三維重建[3]等實際應(yīng)用中,提取到的特征點匹配數(shù)量越多,識別精度越高,分類則會越精細。

    尺度不變模擬[4-5]、基于仿射變換的SURF描述符[6]、仿射不變模擬[7-8]及二值圖像代替灰度圖像[9]等現(xiàn)有提升特征數(shù)量的方法雖然提升了特征點數(shù)量,然而在進行匹配的過程中,由于直接去掉了很多一對多、多對一的特征點,從而導(dǎo)致獲得到的匹配點對少了很多,而這些被去掉的特征點中有很多是可以得到正確匹配的。本文方法在ASIFT算法特征匹配的基礎(chǔ)上,通過在已經(jīng)正確匹配的特征點對的周圍限定鄰域內(nèi)尋找特征點進行匹配,達到增加正確匹配的特征點、提升正確匹配點數(shù)量的目標。

1 算法模型與方法

    在正確匹配的特征點對的周圍限定鄰域內(nèi)尋找特征點進行匹配的過程如下:

    (1)設(shè)ASIFT算法在參考圖像I1與測試圖像I2中提取到的特征點集合分別為S1、S2,ASIFT算法得到的匹配點集合為MS,S1、S2中未匹配的點為US1、US2。

    (2)在MS中隨機選取一個未計算過的匹配點對設(shè)為P1(x1,y1)、P2(x2,y2),設(shè)點P1、P2所在的模擬圖像分別為Ip1、Ip2。分別求出US1、US2中未匹配上的特征點在圖像Ip1、Ip2上的坐標,分別記這些坐標集合為Ssim1、Ssim2

    (3)分別在Ssim1、Ssim2中查找在點(x1,y1)、(x2,y2)的限定區(qū)域內(nèi)的點,當選取的兩個點同時滿足條件時分別保存在集合S3和S4中。

    (4)若集合S3中的所有點都已經(jīng)計算過,則跳至步驟(5);否則在集合S3中隨機選取未計算過得一個點,同時在集合S4中選取與該點距離最近與次近的點,若與最近點的距離和與次近點的小于給定閾值,則該點與最近距離的點匹配,將匹配的特征點對加入集合NS中,將US1、US2中對應(yīng)的點標記為已匹配。

    (5)若MS中所有的點對都已經(jīng)計算過,則將集合NS中的點加入MS中并結(jié)束,否則跳至步驟(2)。

    下面對步驟(2)、步驟(3)和步驟(4)分別進行詳細介紹。

1.1 將特征點坐標映射到對應(yīng)的模擬圖像上

    設(shè)圖像I1當前某一模擬圖像為I,由于在ASIFT中求得的特征點的坐標都是I1上的坐標(需要在I1上畫出匹配的特征點對),因此需要將I1上的坐標映射到模擬圖像I上。

    由ASIFT算法中從圖像I1到圖像I的變換,可以得出圖像I1坐標(x,y)到模擬圖像上的坐標(x1,y1)之間的對應(yīng)關(guān)系為:

jsj5-gs1-2.gif

其中,w與h分別為圖像I1的寬度與高度。

    根據(jù)式(1)和式(2),在MS中隨機選取一個未計算過的匹配點對設(shè)為P1(x1,y1)、P2(x2,y2),設(shè)點P1、P2所在的模擬圖像分別Ip1、Ip2,就可以求出US1、US2中未匹配上的特征點在圖像Ip1、Ip2上的坐標,分別記這些坐標集合為Ssim1、Ssim2

1.2 在未匹配的特征點中查找符合匹配點對的限定區(qū)域內(nèi)的點

    在Ssim1、Ssim2中查找在點P1(x1,y1)、P2(x2,y2)的限定區(qū)域內(nèi)的點,限定區(qū)域范圍為計算特征點描述符的像素區(qū)域。當Ssim1、Ssim2中選取的兩個點同時滿足條件時,將這兩個點記錄下來,分別保存在集合S3和S4中。限定區(qū)域用如下式表示:

    jsj5-gs3.gif

其中,(x3,y3)、(x4、y4)分別為集合Ssim1、Ssim2中未匹配的點在圖像Ip1、Ip2上的坐標,r1、r2分別為點P1(x1,y1)、P2(x2,y2)在圖像Ip1、Ip2上計算描述符像素區(qū)域的半徑。

1.3 計算符合限定區(qū)域內(nèi)的特征點是否為匹配點

    從集合S3中隨機取出未計算過的點設(shè)為Q1,從集合S4中找出與點Q1最近與次近的兩個點,設(shè)為Q2、Q3。若Q2與Q1間的距離d1以及Q3與Q1間的距離d2的比值小于給定閾值t,則認為Q1與Q2匹配。計算公式為:

    jsj5-gs4.gif

其中:

     jsj5-gs5-6.gif

其中,(l1,l2,…,lh)表示點Q1的描述符,(m1,m2,…,mh)表示點Q2的描述符,(n1,n2,…,nh)表示點Q3的描述符,h表示描述符的維數(shù),t此處取0.36。

    將匹配的特征點對加入集合NS中,將US1、US2中對應(yīng)的點標記為已匹配。這樣就把空間約束與局部描述符結(jié)合起來了。

2 實驗

    本節(jié)主要是通過實驗分析本文算法的性能,并將結(jié)果與ASIFT算法結(jié)果進行比較。通過使用相同的圖像集,利用本文算法與ASIFT算法來處理圖像集得到匹配實驗結(jié)果。在比較兩個算法的性能時,會用到兩種算法的匹配結(jié)果圖像以及匹配正確點對數(shù)目來進行對比分析。

2.1 絕對傾斜測試

    圖1顯示了絕對傾斜測試實驗的設(shè)置。在圖2中的油畫在拍攝時焦距縮放改變在×1~×10間,拍攝時視角的改變范圍在為0°(正面)~80°。很顯然,超過80°,在正面圖像與最邊上的圖像之間建立對應(yīng)關(guān)系是非常復(fù)雜的。在一個反射表面存在一個如此大的視角改變范圍,傾斜視圖中的圖像在正面視圖中會完全不同。

jsj5-t1.gif

jsj5-t2.gif

    表1給出了在不同的絕對傾斜角下,兩個算法匹配的正確點對數(shù)。其中表1中相機的焦距縮放為×1,表1中的圖像在拍攝時相機的拍攝角度θ均在45°~80°之間,其中傾斜度t=1/cosθ,圖像的尺寸大小均為400×300,表中的正確匹配點對數(shù)量都是經(jīng)過RANSAC[10-11]算法處理得到的。圖3給出了兩個算法使用部分圖像經(jīng)過RANSAC算法處理得到的匹配結(jié)果,兩幅用來匹配的圖像是相機在正面拍攝圖2以及65°拍攝角度拍攝圖2,相機焦距縮放均為×1。由表1以及圖3中可以看出,在相同的條件下,本文算法比ASIFT算法得到的正確匹配點對數(shù)較多。

jsj5-b1.gif

jsj5-t3.gif

    再來比較一下相機與物體之間的距離放大10 倍的結(jié)果。表2中的圖像在拍攝時相機的拍攝角度均在45°~80°之間,相機的焦距縮放為×10,使用圖2兩個算法匹配得到正確點對數(shù),其中圖像的尺寸大小均為400×300,表中的正確匹配點對數(shù)量都是經(jīng)過RANSAC算法處理得到的。圖4給出了兩個算法使用部分圖像經(jīng)過RANSAC算法處理后得到的匹配結(jié)果,兩幅用來匹配的圖像是相機在正面拍攝圖2以及45°拍攝角度拍攝圖2,相機焦距縮放均為×10。由表2以及圖4可以看出,仍然能夠得到類似表1以及圖3中給出的結(jié)論。

jsj5-b2.gif

jsj5-t4.gif

    上述的實驗結(jié)果表明在相同的條件下,不管相機的焦距縮放范圍在×1~×10內(nèi)以及緯度角(絕對傾斜)在0°~80°范圍內(nèi)如何變化,本文算法都能得到比ASIFT算法多很多的正確匹配點對。

2.2 相對傾斜測試

    圖5顯示了相對傾斜測試實驗的設(shè)置。對于圖6中的雜志分別設(shè)置相機使用一個固定的緯度角θ,對應(yīng)t=2和t=4,經(jīng)度角φ的變化范圍為0°~90°。相機的焦距和光軸縮放是×4。在每個設(shè)置中用作實驗的圖像都有相同的絕對傾斜度t=2或者t=4,對應(yīng)的相對傾斜τ(相對于圖像在φ=0°)的范圍為1~t2=4或者16,而φ的范圍為0°~90°。

jsj5-t5.gif

jsj5-t6.gif

    表3顯示了用來匹配的兩幅圖像絕對傾斜度為t1=2,t2=2,φ1=0°,φ和相對傾斜τ的取值為表中的第一列時的對比結(jié)果。其中所使用的實驗圖像的大小均為400×300,表中的正確匹配點對數(shù)量都是經(jīng)過RANSAC算法處理得到的。

jsj5-b3.gif

    表4顯示了在待匹配的兩幅圖像絕對傾斜度t1=4,t2=4,φ1=0°,φ和相對傾斜τ的值取表中的第一列時的對比結(jié)果。其中所使用的實驗圖像的大小均為400×300,表中的正確匹配點對數(shù)量都是經(jīng)過RANSAC算法處理得到的。

jsj5-b4.gif

    圖7給出了兩個算法使用部分圖像得到的匹配結(jié)果,兩幅用來匹配的圖像是在t1=2,t2=2,φ1=0°,φ2=40°(τ=2.5)條件下得到的,正確匹配點對數(shù)是經(jīng)過RANSAC算法處理后得到的結(jié)果。

jsj5-t7.gif

3 結(jié)論

    本文主要研究基于局部限定搜索區(qū)域的特征匹配算法,介紹了研究方向現(xiàn)狀,針對經(jīng)典算法ASIFT在特征匹配階段直接去除一對多、多對一的特征點的缺陷做出了改進,提出局部限定搜索區(qū)域的特征匹配算法。在實驗階段本文利用大量的實驗詳細地對比了本文算法與ASIFT算法,結(jié)果顯示本文算法得到的匹配點對比ASIFT算法增加大約0.85倍左右。

    由于本文算法是在ASIFT算法得到的匹配結(jié)果上得到的,算法的匹配時間要比ASIFT算法較長一些,接下來工作的重點是在保證得到大量的正確匹配點對數(shù)量的情況下,使算法的效率能夠大大提高。

參考文獻

[1] He Kaiming,Zhang Xiangyu,Ren Shanqing,et al.Deep residual learning for image recognition[C].2016 IEEE Conference on CVPR,2016.

[2] ZENG X,OUYANG W,WANG M,et al.Deep learning of scene-specific classifier for pedestrian detection[M].Computer Vision-ECCV 2014.Springer International Publishing,2014:472-487.

[3] VERGAUWEN M,GOOL L V.Web-based 3D reconstruction service[J].Machine Vision & Applications,2006,17(6):411-426.

[4] SE S,LOWE D,LITTLE J.Vision-based mobile robot localization and mapping using scale-invariant features[C].IEEE International Conference on Robotics and Automation,2001.Proceedings.IEEE,2001,2:2051-2058.

[5] LOWE D G.Object recognition from local scale-invariant features[C].The Proceedings of the Seventh IEEE International Conference on Computer Vision.IEEE,2002:1150.

[6] 劉欣,李校林,謝燦,等.一種基于仿射變換的SURF圖像配準算法[J].電子技術(shù)應(yīng)用,2014,40(6):130-132.

[7] CUI C,NGAN K N.Global propagation of affine invariant features for robust matching[J].IEEE Transactions on Image Processing,2013,22(7):2876-2888.

[8] TUYTELAARS T,GOOL L V.Matching widely separated views based on affine invariant regions[J].International Journal of Computer Vision,2004,59(1):61-85.

[9] 彭興璇,唐雪嬌,董星.基于改進SIFT算法在圖像匹配中的研究[J].微型機與應(yīng)用,2015,34(20):36-38.

[10] LUO J,GWUN O.A comparison of SIFT,PCA-SIFT and SURF[J].International Journal of Image Processing,2009,3(4):143-152.

[11] FISCHLER M A,BOLLES R C.Random sample consensus;a paradigm for model fitting with applications to image analysis and automated cartography[M].ACM,1981.



作者信息:

張振寧,李  征,鄭俊偉

(四川大學(xué) 計算機學(xué)院,四川 成都610065)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。