結(jié)合區(qū)域全局特征和Ann-SIFT的二階段快速景象匹配算法
2023年電子技術(shù)應(yīng)用第5期
辛瑞,張霄力,彭俠夫,陳錦文
(廈門大學(xué) 航空航天學(xué)院,福建 廈門 361005)
摘要: 在GPS拒止環(huán)境下,提出了一種基于高清航拍圖像的視覺定位方法。為了保證高分辨率圖像匹配的實時性,結(jié)合粗粒度高級語義全局特征和細粒度點特征實現(xiàn)兩階段快速景象匹配。第一階段,設(shè)計三元組網(wǎng)絡(luò)針對圖像區(qū)域提取具有尺度和旋轉(zhuǎn)不變性的全局描述符進行區(qū)域預(yù)匹配。第二階段,快速最近鄰點搜索的Ann-SIFT對實時圖和參考區(qū)域進行精確點匹配以實現(xiàn)定位。對于3 000×3 000的參考圖像和500×500到1 000×1 000尺寸范圍的實時圖像,平均耗時可以從66.24 s降低到0.97 s。
中圖分類號:TN967.2
文獻標(biāo)志碼:A
DOI: 10.16157/j.issn.0258-7998.223204
中文引用格式: 辛瑞,張霄力,彭俠夫,等. 結(jié)合區(qū)域全局特征和Ann-SIFT的二階段快速景象匹配算法[J]. 電子技術(shù)應(yīng)用,2023,49(5):135-141.
英文引用格式: Xin Rui,Zhang Xiaoli,Peng Xiafu,et al. Two-stage fast scene matching algorithm combining global descriptor and Ann-SIFT[J]. Application of Electronic Technique,2023,49(5):135-141.
文獻標(biāo)志碼:A
DOI: 10.16157/j.issn.0258-7998.223204
中文引用格式: 辛瑞,張霄力,彭俠夫,等. 結(jié)合區(qū)域全局特征和Ann-SIFT的二階段快速景象匹配算法[J]. 電子技術(shù)應(yīng)用,2023,49(5):135-141.
英文引用格式: Xin Rui,Zhang Xiaoli,Peng Xiafu,et al. Two-stage fast scene matching algorithm combining global descriptor and Ann-SIFT[J]. Application of Electronic Technique,2023,49(5):135-141.
Two-stage fast scene matching algorithm combining global descriptor and Ann-SIFT
Xin Rui,Zhang Xiaoli,Peng Xiafu,Chen Jinwen
(School of Aerospace Engineering, Xiamen University, Xiamen 361005, China)
Abstract: Under the circumstance of GPS-denied environment, a visual positioning method based on high-definition aerial images is proposed. In order to ensure the real-time performance of high-resolution image matching, two-stage fast scene matching is realized by combining coarse-grained high-level semantic global features and fine-grained point features. In the first stage, a triplet network is designed to extract scale and rotation-invariant global descriptors for referance image blocks for region pre-matching. In the second stage, Ann-SIFT for fast nearest neighbor search performs precise point matching on the real-time image and reference area to achieve localization. For reference images of 3 000×3 000 and real-time images in the size range from 500×500 to 1 000×1 000, the average time-consuming can be reduced from 66.24 s to 0.97 s.
Key words : scene matching;visual localization;deep learning;global descriptor
0 引言
無人機在工業(yè)檢測、遙感測繪以及災(zāi)難救援等實際問題中都有廣泛的應(yīng)用,而完成這些復(fù)雜任務(wù)的基礎(chǔ)是導(dǎo)航,在GPS信號良好的區(qū)域,GNSS與INS是高效的導(dǎo)航策略。而在某些GPS信號弱的區(qū)域,基于計算機視覺的自主導(dǎo)航系統(tǒng)因其可以通過圖像提供豐富的在線環(huán)境信息而被采用。視覺輔助導(dǎo)航系統(tǒng)大致可以分為三類:無地圖系統(tǒng)、地圖構(gòu)建系統(tǒng)和有地圖系統(tǒng)。有地圖系統(tǒng)可以通過景象匹配算法根據(jù)帶有準(zhǔn)確位置信息的參考圖像輔助修正慣性導(dǎo)航產(chǎn)生的累積誤差,與視覺導(dǎo)航結(jié)合可以實現(xiàn)高精度長時間的自主導(dǎo)航。
本文詳細內(nèi)容請下載:http://theprogrammingfactory.com/resource/share/2000005310
作者信息:
辛瑞,張霄力,彭俠夫,陳錦文
(廈門大學(xué) 航空航天學(xué)院,福建 廈門 361005)
此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。