摘 要: 針對傳統(tǒng)視頻車流量檢測中虛擬檢測區(qū)域人為設(shè)置,使得系統(tǒng)不能自動適應(yīng)不同的車道環(huán)境,靈活性低的問題,提出了自動提取虛擬檢測區(qū)域的算法。利用均值法獲得粗糙背景,再通過概率Hough變換和車道線特征排除各種干擾線段,獲取車道線并自動提取虛擬檢測區(qū)域。實驗表明,該算法準(zhǔn)確度達(dá)到90%以上,實時性較好、魯棒性高,對后續(xù)實時車流量檢測及車速計算等具有較好的應(yīng)用價值。
關(guān)鍵詞: 車流量檢測;虛擬檢測區(qū)域;概率Hough變換;車道線
道路監(jiān)控系統(tǒng)[1-2]是智能交通系統(tǒng)(ITS)的重要組成部分,通過采集車道和車輛信息獲取各項交通流參數(shù),對車流量統(tǒng)計及車速計算等ITS的應(yīng)用具有重要意義。目前,車輛信息檢測方法主要有環(huán)形線圈檢測、紅外線檢測、超聲波檢測和視頻監(jiān)控檢測方法等。其中,視頻監(jiān)控檢測[3]具有成本低廉、安裝和維護(hù)簡便、獲取信息量大以及靈活等優(yōu)點,因而得以廣泛使用。
視頻車流量檢測中,由于視頻幀圖像中通常存在大量非車輛區(qū)域,全局掃描會有過多的冗余計算,因此通常通過截取一定寬度和高度的包含判別所需的足夠信息的虛擬檢測區(qū)域,再對檢測區(qū)域中的像素點進(jìn)行處理,以統(tǒng)計車流量。而傳統(tǒng)虛擬檢測區(qū)域大多人為固定設(shè)置或人為判斷設(shè)置[4-6],當(dāng)車道環(huán)境參數(shù)改變或更新后,需要重新設(shè)置虛擬檢測區(qū)域,靈活性差,且存在部分冗余計算,不利于實時車輛信息檢測和車流量統(tǒng)計。因此,根據(jù)不同車道環(huán)境中視頻監(jiān)控圖像本身自動獲取車輛信息的虛擬檢測區(qū)域,成為實時視頻車流量檢測和計數(shù)中急需解決的問題。本文提出了基于概率Hough變換和根據(jù)車道線特征提取車道線,并自動獲取虛擬檢測區(qū)域的算法。該算法能有效去除圖像幀中的冗余信息,提取的虛擬檢測區(qū)域僅覆蓋所有要進(jìn)行車流量檢測的車道,節(jié)省了內(nèi)存,提高了算法效率,并能根據(jù)車道環(huán)境參數(shù)的變化自適應(yīng)獲取虛擬檢測區(qū)域,魯棒性好。
1 算法原理
通常,監(jiān)控攝像機(jī)安裝在路旁的支架上或天橋底部,從路旁或道路正中央以俯視的角度拍攝,在拍攝的圖像中越靠近圖像底部,車輛之間的間隔越大,在一定程度上可以減少車輛遮擋的問題,減少漏檢。根據(jù)此特點,常規(guī)的車輛檢測區(qū)域通常設(shè)置在靠近圖像底部的位置。本文算法選取位于圖像下方1/3的圖像進(jìn)行背景提取和處理,能準(zhǔn)確定位和獲取需要的虛擬檢測區(qū)域,大大減少了計算量,并快速、自動生成虛擬檢測區(qū)域。
算法主要包括4部分:(1)粗糙背景圖像提取。首先對圖像預(yù)處理,采用均值法提取圖像背景,以便檢測車道線;(2)利用概率Hough變換檢測粗糙背景圖像中的直線段,包括車道線和各種干擾直線段;(3)自動生成虛擬檢測區(qū)域,根據(jù)Hough變換檢測到的直線段,結(jié)合車道線自身的特征(如長度、位置和角度信息),提取真實的車道線環(huán)境,確定虛擬檢測區(qū)域的寬度和高度;(4)標(biāo)記虛擬檢測區(qū)域。
算法框圖如圖1所示。針對道路交通視頻,首先選取前N幀圖像,對圖像灰度化,初始化背景,提取粗糙背景圖;然后利用概率Hough變化對經(jīng)過平滑濾波、邊緣檢測和二值化后的粗糙背景圖檢測各種直線;再利用車道線的角度、長度和位置等特征排除各種干擾直線,提取車道線,確定車道線長度和位置,自動獲取虛擬檢測區(qū)域;最后標(biāo)記虛擬檢測區(qū)域。
1.1 粗糙背景提取
通常,背景初始化方法有單分布高斯背景模型、混合高斯背景模型、平均值法和序列眾數(shù)法等?;诟咚贡尘澳P陀嬎懔看螅骄捣ê托蛄斜姅?shù)法相對簡單,更適合實時檢測應(yīng)用。因此,本文采用平均值法對幀圖像提取粗糙背景,計算簡單,利于實時獲取虛擬檢測區(qū)域。
攝像機(jī)拍攝的視頻一般是連續(xù)RGB彩色圖像序列,為了提高車輛實時檢測的效率,需將彩色圖像轉(zhuǎn)換成灰度圖像。RGB彩色圖像灰度轉(zhuǎn)換公式為:
Gray=R×0.299+G×0.587+B×0.114 (1)
其中,Gray為灰度圖像的灰度值,R、G、B分別為彩色圖像紅色、綠色、藍(lán)色通道的值。
將連續(xù)N幀灰度圖像的同一像素點灰度值累加,將累加值取平均作為該對應(yīng)像素點的灰度值。遍歷整幅圖像的像素,獲取粗糙背景圖像:
概率Hough變換的檢測結(jié)果如圖4所示。由圖4可知,檢測到的所有直線中包含車道線C、D和E、F以及干擾直線A、B、G、H、I、J、K、L。其中,C和D是同一車道的左右邊緣,E和F是同一車道的左右邊緣,C和D、E和F屬于同類直線需要合并,分別只用其中的一條線表示車道線。干擾直線A、B、K、L是由車道兩邊的籬笆欄造成的,G、H、J是由地面上的字造成的,I是由前景目標(biāo)造成的,根據(jù)是否符合車道線傾角、長度和位置等特征排除干擾直線。具體步驟如下:
?。?)比較直線的傾角大小。由于攝像機(jī)一般安裝在路旁的支架上或天橋底部,因此視頻幀圖像中的車道線的傾角一般在45°~90°范圍內(nèi)。
?。?)合并同類直線。直線相近且角度相差30°范圍內(nèi)的直線合并成一條直線。
?。?)根據(jù)車道線的長度、橫坐標(biāo)值和縱坐標(biāo)值大小等特征,排除干擾直線,確定車道線。
?。?)根據(jù)車道線的位置和寬度獲取虛擬檢測區(qū)域。
實驗結(jié)果表明,晴天的26個交通視頻片段中,在道路暢通時,有25個視頻正確提取了虛擬檢測區(qū)域,且平均檢測時間和準(zhǔn)確率明顯優(yōu)于擁擠狀況。這是由于擁擠狀態(tài)下獲取的粗糙背景中車道線易被前景車輛污染??赏ㄟ^增加背景初始化的幀數(shù)來提取完整的車道線,進(jìn)而提高標(biāo)記虛擬檢測區(qū)域的正確率。而晴天的檢測準(zhǔn)確率高于雨天,這是由于地面雨水和天氣影響導(dǎo)致檢測出的車道線不完整引起的。實驗自動提取的虛擬檢測區(qū)域靠近圖像的底部,覆蓋整個車道路面。由于記錄了車道線的首尾坐標(biāo)和中點坐標(biāo),因此可以調(diào)整虛擬檢測區(qū)域的高度。
本算法提取道路虛擬檢測區(qū)域的準(zhǔn)確率達(dá)90%以上,平均檢測時間低于0.5 s,相對于傳統(tǒng)人工設(shè)置檢測區(qū)域的方法具有較大優(yōu)勢,能有效提高實時車流量檢測和統(tǒng)計的計算效率。
本文針對視頻車流量檢測中傳統(tǒng)虛擬檢測區(qū)域人工設(shè)置的缺陷問題,提出了自動提取虛擬檢測區(qū)域算法,利用基于粗糙背景圖和概率Hough變換檢測直線(包括車道線和各種干擾直線),根據(jù)車道線的傾角、長度和位置等特征提取車道線,最后由車道線自動獲取虛擬檢測區(qū)域。實驗證明,提出的算法能夠較準(zhǔn)確地自動提取出虛擬檢測區(qū)域,準(zhǔn)確率達(dá)到90%以上,比人工參與設(shè)置檢測區(qū)域更加靈活、方便,且能夠自動適應(yīng)不同的道路環(huán)境,效率高、魯棒性較好。該算法為后續(xù)車流量統(tǒng)計和車速預(yù)測等應(yīng)用提供了有效方法。
參考文獻(xiàn)
[1] DICKMANNS E D. Computer vision and highway autom-ation[J]. Vechicle System Dynamics,1999,31(5):325-344.
[2] TOMIZUKA M. Automated highway systems——an intelligent transportation system for the next century[J]. IEEE International Symposium on Industrial Electronics,1997(1):1-4.
[3] TSENG B L, LIN C Y, SMITH J R, et al. Real-time video surveillance for traffic monitoring using virtual line analysis[C]. IEEE Intemational Conference,2002:541-544.
[4] 左奇,史忠科.一種新的交通流視頻檢測方法[J].西安交通大學(xué)學(xué)報,2004,38(4):396-399.
[5] 高磊,李超,朱成軍,等.基于邊緣對稱性的視頻車輛檢測算法[J].北京航空航天大學(xué)學(xué)報,2008,34(9):1113-1116.
[6] 李學(xué)超.基于垂直投影和虛擬檢測帶的車輛檢測[J].信息與電腦,2011(4):36-37.
[7] 王彩玲,趙春霞.基于Hough譜的任意形狀表示與配準(zhǔn)[J].中國圖象圖形學(xué)報,2010,15(5):764-769.
[8] 胡彬.基于概率霍夫變換的快速車道線檢測方法[J].微電子學(xué)與計算機(jī),2011,28(10):177-180.