文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.174463
中文引用格式: 張振寧,李征,鄭俊偉. 基于局部限定搜索區(qū)域的特征匹配算法[J].電子技術(shù)應(yīng)用,2018,44(8):130-133,142.
英文引用格式: Zhang Zhenning,Li Zheng,Zheng Junwei. Feature matching algorithm based on partial limitation search region[J]. Application of Electronic Technique,2018,44(8):130-133,142.
0 引言
在現(xiàn)有的目標識別[1]、目標分類[2]、三維重建[3]等實際應(yīng)用中,提取到的特征點匹配數(shù)量越多,識別精度越高,分類則會越精細。
尺度不變模擬[4-5]、基于仿射變換的SURF描述符[6]、仿射不變模擬[7-8]及二值圖像代替灰度圖像[9]等現(xiàn)有提升特征數(shù)量的方法雖然提升了特征點數(shù)量,然而在進行匹配的過程中,由于直接去掉了很多一對多、多對一的特征點,從而導(dǎo)致獲得到的匹配點對少了很多,而這些被去掉的特征點中有很多是可以得到正確匹配的。本文方法在ASIFT算法特征匹配的基礎(chǔ)上,通過在已經(jīng)正確匹配的特征點對的周圍限定鄰域內(nèi)尋找特征點進行匹配,達到增加正確匹配的特征點、提升正確匹配點數(shù)量的目標。
1 算法模型與方法
在正確匹配的特征點對的周圍限定鄰域內(nèi)尋找特征點進行匹配的過程如下:
(1)設(shè)ASIFT算法在參考圖像I1與測試圖像I2中提取到的特征點集合分別為S1、S2,ASIFT算法得到的匹配點集合為MS,S1、S2中未匹配的點為US1、US2。
(2)在MS中隨機選取一個未計算過的匹配點對設(shè)為P1(x1,y1)、P2(x2,y2),設(shè)點P1、P2所在的模擬圖像分別為Ip1、Ip2。分別求出US1、US2中未匹配上的特征點在圖像Ip1、Ip2上的坐標,分別記這些坐標集合為Ssim1、Ssim2。
(3)分別在Ssim1、Ssim2中查找在點(x1,y1)、(x2,y2)的限定區(qū)域內(nèi)的點,當選取的兩個點同時滿足條件時分別保存在集合S3和S4中。
(4)若集合S3中的所有點都已經(jīng)計算過,則跳至步驟(5);否則在集合S3中隨機選取未計算過得一個點,同時在集合S4中選取與該點距離最近與次近的點,若與最近點的距離和與次近點的小于給定閾值,則該點與最近距離的點匹配,將匹配的特征點對加入集合NS中,將US1、US2中對應(yīng)的點標記為已匹配。
(5)若MS中所有的點對都已經(jīng)計算過,則將集合NS中的點加入MS中并結(jié)束,否則跳至步驟(2)。
下面對步驟(2)、步驟(3)和步驟(4)分別進行詳細介紹。
1.1 將特征點坐標映射到對應(yīng)的模擬圖像上
設(shè)圖像I1當前某一模擬圖像為I,由于在ASIFT中求得的特征點的坐標都是I1上的坐標(需要在I1上畫出匹配的特征點對),因此需要將I1上的坐標映射到模擬圖像I上。
由ASIFT算法中從圖像I1到圖像I的變換,可以得出圖像I1坐標(x,y)到模擬圖像上的坐標(x1,y1)之間的對應(yīng)關(guān)系為:
其中,w與h分別為圖像I1的寬度與高度。
根據(jù)式(1)和式(2),在MS中隨機選取一個未計算過的匹配點對設(shè)為P1(x1,y1)、P2(x2,y2),設(shè)點P1、P2所在的模擬圖像分別Ip1、Ip2,就可以求出US1、US2中未匹配上的特征點在圖像Ip1、Ip2上的坐標,分別記這些坐標集合為Ssim1、Ssim2。
1.2 在未匹配的特征點中查找符合匹配點對的限定區(qū)域內(nèi)的點
在Ssim1、Ssim2中查找在點P1(x1,y1)、P2(x2,y2)的限定區(qū)域內(nèi)的點,限定區(qū)域范圍為計算特征點描述符的像素區(qū)域。當Ssim1、Ssim2中選取的兩個點同時滿足條件時,將這兩個點記錄下來,分別保存在集合S3和S4中。限定區(qū)域用如下式表示:
其中,(x3,y3)、(x4、y4)分別為集合Ssim1、Ssim2中未匹配的點在圖像Ip1、Ip2上的坐標,r1、r2分別為點P1(x1,y1)、P2(x2,y2)在圖像Ip1、Ip2上計算描述符像素區(qū)域的半徑。
1.3 計算符合限定區(qū)域內(nèi)的特征點是否為匹配點
從集合S3中隨機取出未計算過的點設(shè)為Q1,從集合S4中找出與點Q1最近與次近的兩個點,設(shè)為Q2、Q3。若Q2與Q1間的距離d1以及Q3與Q1間的距離d2的比值小于給定閾值t,則認為Q1與Q2匹配。計算公式為:
其中:
其中,(l1,l2,…,lh)表示點Q1的描述符,(m1,m2,…,mh)表示點Q2的描述符,(n1,n2,…,nh)表示點Q3的描述符,h表示描述符的維數(shù),t此處取0.36。
將匹配的特征點對加入集合NS中,將US1、US2中對應(yīng)的點標記為已匹配。這樣就把空間約束與局部描述符結(jié)合起來了。
2 實驗
本節(jié)主要是通過實驗分析本文算法的性能,并將結(jié)果與ASIFT算法結(jié)果進行比較。通過使用相同的圖像集,利用本文算法與ASIFT算法來處理圖像集得到匹配實驗結(jié)果。在比較兩個算法的性能時,會用到兩種算法的匹配結(jié)果圖像以及匹配正確點對數(shù)目來進行對比分析。
2.1 絕對傾斜測試
圖1顯示了絕對傾斜測試實驗的設(shè)置。在圖2中的油畫在拍攝時焦距縮放改變在×1~×10間,拍攝時視角的改變范圍在為0°(正面)~80°。很顯然,超過80°,在正面圖像與最邊上的圖像之間建立對應(yīng)關(guān)系是非常復(fù)雜的。在一個反射表面存在一個如此大的視角改變范圍,傾斜視圖中的圖像在正面視圖中會完全不同。
表1給出了在不同的絕對傾斜角下,兩個算法匹配的正確點對數(shù)。其中表1中相機的焦距縮放為×1,表1中的圖像在拍攝時相機的拍攝角度θ均在45°~80°之間,其中傾斜度t=1/cosθ,圖像的尺寸大小均為400×300,表中的正確匹配點對數(shù)量都是經(jīng)過RANSAC[10-11]算法處理得到的。圖3給出了兩個算法使用部分圖像經(jīng)過RANSAC算法處理得到的匹配結(jié)果,兩幅用來匹配的圖像是相機在正面拍攝圖2以及65°拍攝角度拍攝圖2,相機焦距縮放均為×1。由表1以及圖3中可以看出,在相同的條件下,本文算法比ASIFT算法得到的正確匹配點對數(shù)較多。
再來比較一下相機與物體之間的距離放大10 倍的結(jié)果。表2中的圖像在拍攝時相機的拍攝角度均在45°~80°之間,相機的焦距縮放為×10,使用圖2兩個算法匹配得到正確點對數(shù),其中圖像的尺寸大小均為400×300,表中的正確匹配點對數(shù)量都是經(jīng)過RANSAC算法處理得到的。圖4給出了兩個算法使用部分圖像經(jīng)過RANSAC算法處理后得到的匹配結(jié)果,兩幅用來匹配的圖像是相機在正面拍攝圖2以及45°拍攝角度拍攝圖2,相機焦距縮放均為×10。由表2以及圖4可以看出,仍然能夠得到類似表1以及圖3中給出的結(jié)論。
上述的實驗結(jié)果表明在相同的條件下,不管相機的焦距縮放范圍在×1~×10內(nèi)以及緯度角(絕對傾斜)在0°~80°范圍內(nèi)如何變化,本文算法都能得到比ASIFT算法多很多的正確匹配點對。
2.2 相對傾斜測試
圖5顯示了相對傾斜測試實驗的設(shè)置。對于圖6中的雜志分別設(shè)置相機使用一個固定的緯度角θ,對應(yīng)t=2和t=4,經(jīng)度角φ的變化范圍為0°~90°。相機的焦距和光軸縮放是×4。在每個設(shè)置中用作實驗的圖像都有相同的絕對傾斜度t=2或者t=4,對應(yīng)的相對傾斜τ(相對于圖像在φ=0°)的范圍為1~t2=4或者16,而φ的范圍為0°~90°。
表3顯示了用來匹配的兩幅圖像絕對傾斜度為t1=2,t2=2,φ1=0°,φ和相對傾斜τ的取值為表中的第一列時的對比結(jié)果。其中所使用的實驗圖像的大小均為400×300,表中的正確匹配點對數(shù)量都是經(jīng)過RANSAC算法處理得到的。
表4顯示了在待匹配的兩幅圖像絕對傾斜度t1=4,t2=4,φ1=0°,φ和相對傾斜τ的值取表中的第一列時的對比結(jié)果。其中所使用的實驗圖像的大小均為400×300,表中的正確匹配點對數(shù)量都是經(jīng)過RANSAC算法處理得到的。
圖7給出了兩個算法使用部分圖像得到的匹配結(jié)果,兩幅用來匹配的圖像是在t1=2,t2=2,φ1=0°,φ2=40°(τ=2.5)條件下得到的,正確匹配點對數(shù)是經(jīng)過RANSAC算法處理后得到的結(jié)果。
3 結(jié)論
本文主要研究基于局部限定搜索區(qū)域的特征匹配算法,介紹了研究方向現(xiàn)狀,針對經(jīng)典算法ASIFT在特征匹配階段直接去除一對多、多對一的特征點的缺陷做出了改進,提出局部限定搜索區(qū)域的特征匹配算法。在實驗階段本文利用大量的實驗詳細地對比了本文算法與ASIFT算法,結(jié)果顯示本文算法得到的匹配點對比ASIFT算法增加大約0.85倍左右。
由于本文算法是在ASIFT算法得到的匹配結(jié)果上得到的,算法的匹配時間要比ASIFT算法較長一些,接下來工作的重點是在保證得到大量的正確匹配點對數(shù)量的情況下,使算法的效率能夠大大提高。
參考文獻
[1] He Kaiming,Zhang Xiangyu,Ren Shanqing,et al.Deep residual learning for image recognition[C].2016 IEEE Conference on CVPR,2016.
[2] ZENG X,OUYANG W,WANG M,et al.Deep learning of scene-specific classifier for pedestrian detection[M].Computer Vision-ECCV 2014.Springer International Publishing,2014:472-487.
[3] VERGAUWEN M,GOOL L V.Web-based 3D reconstruction service[J].Machine Vision & Applications,2006,17(6):411-426.
[4] SE S,LOWE D,LITTLE J.Vision-based mobile robot localization and mapping using scale-invariant features[C].IEEE International Conference on Robotics and Automation,2001.Proceedings.IEEE,2001,2:2051-2058.
[5] LOWE D G.Object recognition from local scale-invariant features[C].The Proceedings of the Seventh IEEE International Conference on Computer Vision.IEEE,2002:1150.
[6] 劉欣,李校林,謝燦,等.一種基于仿射變換的SURF圖像配準算法[J].電子技術(shù)應(yīng)用,2014,40(6):130-132.
[7] CUI C,NGAN K N.Global propagation of affine invariant features for robust matching[J].IEEE Transactions on Image Processing,2013,22(7):2876-2888.
[8] TUYTELAARS T,GOOL L V.Matching widely separated views based on affine invariant regions[J].International Journal of Computer Vision,2004,59(1):61-85.
[9] 彭興璇,唐雪嬌,董星.基于改進SIFT算法在圖像匹配中的研究[J].微型機與應(yīng)用,2015,34(20):36-38.
[10] LUO J,GWUN O.A comparison of SIFT,PCA-SIFT and SURF[J].International Journal of Image Processing,2009,3(4):143-152.
[11] FISCHLER M A,BOLLES R C.Random sample consensus;a paradigm for model fitting with applications to image analysis and automated cartography[M].ACM,1981.
作者信息:
張振寧,李 征,鄭俊偉
(四川大學(xué) 計算機學(xué)院,四川 成都610065)