《電子技術(shù)應用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設計應用 > 一種基于高級驅(qū)動輔助系統(tǒng)快速時空立體匹配方法
一種基于高級驅(qū)動輔助系統(tǒng)快速時空立體匹配方法
朱素杰,王萌
(周口科技職業(yè)學院,河南 周口 466100)
摘要: 提出了一種用于高級駕駛輔助系統(tǒng)(ADAS)的快速時空立體匹配方法。該方法使用動態(tài)規(guī)劃(DP)算法來匹配立體圖像的邊緣點,其主要思想在于將當前的匹配結(jié)果用于下一幀的視差圖的計算。根據(jù)前一幀的視差圖計算局部和整體視差范圍,其整體視差范圍通過前一幀v視差圖像得到;某一點的局部視差則通過左圖在當前幀的某一點與該圖在前一幀的另一個點之間的距離得到,然后根據(jù)得到的局部視差通過動態(tài)規(guī)劃算法進行匹配。該方法不僅能夠減小搜索范圍而且提高了匹配速度。通過虛擬系列圖像進行了測試,得到了令人滿意的效果。
中圖分類號:TP391
文獻標識碼:A
DOI: 10.19358/j.issn.2096-5133.2018.08.011
中文引用格式:朱素杰,王萌.一種基于高級驅(qū)動輔助系統(tǒng)快速時空立體匹配方法[J].信息技術(shù)與網(wǎng)絡安全,2018,37(8):45-49.
A fast time-space stereo matching method based on advanced driving assistance system
Zhu Sujie,Wang Meng
(Zhoukou Vocational College of Science and Technology, Zhoukou 466100, China)
Abstract: In this paper, a fast time-space stereo matching method for advanced driving assistance system (ADAS) is presented. This method uses dynamic programming (DP) algorithm to match the edge points of stereo images. The main idea of this paper is to use the matching result of a frame to calculate the parallax of the next frame. To this end, we propose a parallax range of the local and the whole based on the parallax of the previous frame. The overall parallax range can be calculated from a set of images based on the previous frame v parallax. The local parallax at a certain point is the distance from one point of the current frame to another point in the previous frame. By using dynamic programming algorithm, these local parallax can reduce the search range and improve the matching speed. This method has been tested by virtual series images, and the results are satisfactory.
Key words : advanced driving assistance system;dynamic programming algorithm;space-time stereo matching

0  引言

 

高級駕駛輔助系統(tǒng)(Advanced Driver Assistance Systems, ADAS)旨在提高汽車的安全性和駕駛舒適性,其功能包括目標檢測和跟蹤、交通標志檢測和識別、行人檢測等。ADAS面臨的最重要的難題是車輛對外部環(huán)境的感知,然而隨著立體視覺技術(shù)的不斷成熟,立體匹配可以非常精確和詳細地對周圍環(huán)境進行直觀的描述。立體匹配的關(guān)鍵問題在于從不同視點拍攝的立體圖像中找到像素之間的對應關(guān)系[1]。為此,文獻[2]提供了一種新的高密度立體聲通信算法分類法(STM)和一個用于定量評價立體算法(SM)的試驗臺。可以看出,這兩種算法產(chǎn)生了很好的結(jié)果,然而卻以時間為代價,僅適合于靜態(tài)場景[3]。

本文研究的方法主要致力于立體聲傳感器嵌入在動態(tài)的ADAS,對于應用在動態(tài)場景上的立體匹配,需要處理動態(tài)場景。該匹配算法通過立體聲傳感器根據(jù)每秒的幀提供每一對立體圖像對,獲得相應的立體圖像,將時間信息合并到立體方法中來提高最后的匹配結(jié)果。然而,僅有少量的研究致力于從立體序列中重建動態(tài)場景。本文通過考慮連續(xù)幀之間的一致性,將立體匹配的結(jié)果大大改進。 

本文提出了一種基于時空信息的快速立體匹配方法?;谠缙谔岢龅耐ㄟ^圖像點得到全球視差范圍的方法,本文提出了一種新的計算視差范圍的方法。該方法不再通過所有圖像點來求取全局視差范圍,而是根據(jù)邊緣點的性質(zhì)得到。最后,將該方法和STM[4]、SM[5]方法進行了比較,通過比較結(jié)果可以看出該方法大大提高了匹配率。

 

1  立體匹配算法

 

本文提出的立體匹配算法的流程如圖1所示。其中:ILk 和 IRk分別表示在時間k上獲得的左右立體聲圖像;ILk-1和IRk-1分別表示在時間k-1上獲得的左右立體聲圖像;Dk和Dk-1分別表示在當前幀和前一個幀中計算的視差圖;fk=(ILk,IRk)和fk-1=(ILk-1,IRk-1)分別表示當前幀和前一幀。

 

微信截圖_20180922152943.png

 

該算法根據(jù)左側(cè)圖像ILk-1當前幀的局部視差圖和前一幀的全局視差圖以及立體圖像點通過DP算法計算出當前幀的視差圖Dk (見圖1)。

首先根據(jù)以上方法進行特性的匹配,然后通過關(guān)聯(lián)方法在連續(xù)的圖像之間建立關(guān)系。根據(jù)視差約束原理,本文提出一種獨立于掃描線的視差約束方法。通過成本函數(shù)來度量候選邊緣點之間的相似性。最后利用DP算法計算當前幀的視差圖Dk進行特征點的匹配。

 

1.1 匹配特征

 

首先從立體圖像中提取匹配特征點。通常使用邊緣點作為特征點。為了便于適應智能交通系統(tǒng),需要選擇快速而準確的邊緣檢測算法。本文使用Canny邊緣檢測算法進行了邊緣檢測,此邊緣檢測器提供了連續(xù)的邊緣曲線,并產(chǎn)生了更重要的邊緣點,有助于得到較少的稀疏視差圖。

 

1.2 邊緣點之間的聯(lián)系

 

本節(jié)簡要介紹了用于在連續(xù)圖像之間建立關(guān)系的關(guān)聯(lián)算法。如圖2所示, PLk-1和  QLk-1屬于圖像ILk-1上CL,ik-1邊上的兩個點,PLk和QLk屬于圖像ILk上CL,jk邊上的對應點。點QLk的匹配點被定義為CL,jk-1邊上與QLk點y坐標相同的對應點。

 

微信截圖_20180922153050.png

1.3 視差因素

 

在所有已知的立體匹配方法中,對于輸出視差圖的質(zhì)量和計算時間來說,精確選擇視差搜索空間是至關(guān)重要的。在本節(jié)中,提出了一種新的查找局部和全局視差范圍(視差搜索空間)方法。將局部視差范圍適用于相關(guān)聯(lián)的圖像點,將全局視差范圍適用于沒有關(guān)聯(lián)的圖像點。通過討論研究,根據(jù)匹配算法在每一對圖像掃描線上獨立執(zhí)行的原理,提出局部或全局視差范圍與圖像掃描線有關(guān)。

 

1.3.1 局部視差范圍計算

 

本小節(jié)將介紹如何計算局部視差范圍。首先用Pk表示左圖中當前幀的一點,Pk-1表示左圖中前一幀的對應點,然后根據(jù)前一幀對應點Pk-1的視差值計算邊緣點Pk的視差范圍。由于通過在相鄰幀的邊緣點之間尋找對應點是一個具有挑戰(zhàn)性的任務,為此提出在邊緣線Ck-1的邊緣點Pk-1處尋找視差值的方法。視差值通過與Ck-1相關(guān)聯(lián)的均值來確定,Pk的對應點Passk-1是圖像Ik-1中的像素點,該像素點與邊緣線Ck-1上Pk-1的y坐標相同。在高級驅(qū)動輔助系統(tǒng)應用程序中,fps為高(即邊緣點Pk與對應點Pk-1的y坐標),則Pcorrk-1應該與其y坐標相接近的一點Passk-1相對應。

微信截圖_20180922153440.png

微信截圖_20180922153215.png


 

微信截圖_20180922153256.png


微信截圖_20180922153645.png

 

微信截圖_20180922153804.png微信截圖_20180922153815.png

 

1.3.2 全局視差范圍計算

 

全局視差范圍的計算方法是基于v視差圖的分析,該v視差圖通過初始視差圖或預估視差圖得到。在本文中,根據(jù)當前幀的v視差與前一幀相同的原理,提出了一種既不用計算初始視差圖,也不用計算預估視差圖的計算方法。如果每秒的幀數(shù)非常精確,那么圖像中物體的視差值不會發(fā)生較大的變化。也可以說,在當前幀的v視差圖中道路表示的斜線,將會在前一幀的v視差圖中非常接近它的位置。當前幀的v視差圖將分為兩部分:包含對象的頂部和包含道路的底部。在v視差圖中表示道路的斜線可以用下列方程描述:

di=(yi-b)/a                                     (5)

其中yi為圖像線指數(shù),di為同一圖像線的視差值,a和b為斜線參數(shù)。

每個圖像線上只有一個視差值di??紤]到上面所做的假設與前一幀的視差圖所固有的不確定性,在圖像線yi處的差異d的值應該滿足以下不等式:

 

 di-a≤d≤di+a                                    (6)

 

其中a是選擇的一個不確定性值(公差值)。此約束用于圖像底部的整個圖像線。

 

微信截圖_20180922154156.png

 

微信截圖_20180922154232.png 

1.4 成本函數(shù)

 

為了確定候選邊緣點之間的相似性,采用了成本函數(shù),該函數(shù)根據(jù)強度、梯度大小和邊緣點的方向來定義。令eLi和eRi分別表示左圖和右圖對應的兩個邊緣點,其代價函數(shù)定義如下:

微信截圖_20180922154355.png

其中I(ei)是邊緣點ei的強度,M(ei)是邊緣點ei的梯度大小,θ(ei)是邊緣點ei的方向。

 

1.5 動態(tài)規(guī)劃算法

 

微信截圖_20180922154601.png微信截圖_20180922154605.png是兩組邊緣點,根據(jù)兩個極線(即左、右) 上的x坐標論證了在二維平面上從兩個極線獲取邊緣點之間的對應關(guān)系的問題。二維平面的橫坐標與左極線相對應,縱坐標與右極線相對應(見圖5)。二維平面的兩個軸在兩個相對應極線的邊緣點位置。

 

微信截圖_20180922154658.png


將局部和全局視差范圍應用到動態(tài)規(guī)劃的1.3.1和1.3.2小節(jié)中,在這些范圍內(nèi)的邊緣點被認為是可能的匹配,而另一些則被認為是無效的匹配。在1.4節(jié)中討論的成本函數(shù)用于填充搜索平面中的可能匹配項。在尋找最佳路徑后,確定了微信截圖_20180922154601.png微信截圖_20180922154605.png之間的對應邊緣點。對于每個圖像線都有獨立的匹配過程。

局部視差范圍不僅需要提高匹配點的精度,也需要提高整個圖像的精度,因為如果DP算法在某一步失敗,將可能影響到圖像中其他邊緣點匹配。但在本文的匹配過程中,如果DP算法在某一個階段失敗,那么局部視差范圍就會迫使算法遵循最優(yōu)路徑,如圖5所示。當在圖像中發(fā)現(xiàn)大量的局部區(qū)域時,局部視差范圍都能夠較好地控制。

 

2  實驗結(jié)果

 

為了評估本文所提方法的性能,在立體圖像對的虛擬序列中進行了測試,并與現(xiàn)有的快速時空立體匹配方法相比較。為了說明時間信息在匹配過程中的重要性,在不整合時間信息的情況下,同樣的方法應用于立體圖像,既不使用本地約束,也不使用全局約束。

該方法在虛擬立體圖像上進行了測試。數(shù)據(jù)集包含512×512的立體圖像和它們的地面實況。圖6顯示了在第294幀的左立體圖像,圖7顯示了由Canny邊緣檢測算法獲得的邊緣圖像。圖8描述了用本文方法在第294幀計算的視差圖。圖9描述了由STM和SM方法計算該幀的視差圖。

 

微信截圖_20180922154850.png


微信截圖_20180922154901.png

 

微信截圖_20180922154915.png

 

微信截圖_20180922155110.png


表1對三種方法在第294幀中得到的結(jié)果進行比較,為每種方法提供了匹配邊緣點(NME)的數(shù)量、正確匹配點的數(shù)量(NCM)、錯誤匹配點的數(shù)量、正確匹配的百分比(PCM)和第294幀的執(zhí)行時間(ETime)。 

通過表1可以清楚地看到本文方法正確匹配了更多的邊緣點,提供了較少的稀疏視差圖,從而大大提高了正確匹配率。

 

微信截圖_20180922155301.png


3  結(jié)束語

 

本文利用相鄰幀之間的時間一致性,通過對前一幀的匹配結(jié)果進行計算,完成了當前幀的視差圖的計算。在當前幀的匹配過程中,通過前一幀的視差圖來確定局部和全局視差范圍,這樣既減少了每個邊緣點可能匹配的數(shù)量,也減少了錯誤匹配的數(shù)量,并加速了匹配過程。該方法已經(jīng)在虛擬的序列上進行了測試,結(jié)果令人滿意。后續(xù)研究中將在真實序列中進行測試。

 

參考文獻

 

[1] 耿英楠. 立體匹配技術(shù)的研究[D].長春:吉林大學,2014. 

[2] SCHARSTEIN D, SZELISKI  R. A taxonomy and evaluation of dense two-frame stereo correspondence algorithms[J]. International Journal of Computer Vision, 2002,47(1-3):7-42. 

[3] 郭寶龍,侯葉. 基于圖切割的圖像自動分割方法[J]. 模式識別與人工智能,2011,24(5):604-609. 

[4] 杜歆,陳國赟,朱云芳. 一種基于時空結(jié)合的動態(tài)場景立體視頻匹配方法[J]. 電路與系統(tǒng)學報,2012,17(6):6-13.

[5] 萬立莉. 立體視覺測量的快速立體匹配方法研究[D]. 哈爾濱:哈爾濱理工大學,2016.

 

 

(收稿日期:2018-04-26)

 

 

作者簡介:

朱素杰(1987-),女,碩士研究生,助教,主要研究方向:圖形圖像處理。 

王萌(1990-),女,碩士研究生,助教,主要研究方向:數(shù)字廣播技術(shù)。

 

 

 

 


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。