《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 測試測量 > 設(shè)計(jì)應(yīng)用 > 基于Darknet23和特征融合的交通標(biāo)志檢測方法
基于Darknet23和特征融合的交通標(biāo)志檢測方法
2023年電子技術(shù)應(yīng)用第1期
杜婷婷,鐘國韻,江金懋,任維民
東華理工大學(xué) 信息工程學(xué)院,江西 南昌 330013
摘要: 道路交通標(biāo)志檢測是智能交通的重要環(huán)節(jié)之一,針對交通標(biāo)志檢測存在背景復(fù)雜、目標(biāo)較小、檢測速度慢等問題,選取工業(yè)界青睞的YOLOv3模型提出一種改進(jìn)的檢測方法。利用雙向特征金字塔結(jié)構(gòu)實(shí)現(xiàn)圖像低、中、高層特征語意信息的雙向融合,提升低層預(yù)測目標(biāo)的分類和高層預(yù)測目標(biāo)的定位能力;將原模型的主干特征提取網(wǎng)絡(luò)進(jìn)行改進(jìn),提出Darknet23網(wǎng)絡(luò),以提高網(wǎng)絡(luò)的提取能力和減少計(jì)算量;根據(jù)目標(biāo)形狀的特點(diǎn),使用K-means聚類算法得到用于訓(xùn)練合適的錨點(diǎn)框,并在邊框回歸中引入靈活性更強(qiáng)的L_(α-CIOU)損失函數(shù),使網(wǎng)絡(luò)朝著預(yù)測框與真實(shí)框重疊度較高的方向去優(yōu)化。實(shí)驗(yàn)結(jié)果表明,該方法在CCTSDB數(shù)據(jù)集上mAP@0.75達(dá)到86.10%、mAP@0.5:0.05:0.95達(dá)到70.017%,相比原網(wǎng)絡(luò)分別提升10.17%和5.656%,參數(shù)量減少3 622 091,速度提升8.27 f/s,且優(yōu)于SSD和Faster RCNN等主流的檢測網(wǎng)絡(luò)。
中圖分類號:TP391
文獻(xiàn)標(biāo)志碼:A
DOI: 10.16157/j.issn.0258-7998.222900
中文引用格式: 杜婷婷,鐘國韻,江金懋,等. 基于Darknet23和特征融合的交通標(biāo)志檢測方法[J]. 電子技術(shù)應(yīng)用,2023,49(1):14-19.
英文引用格式: Du Tingting,Zhong Guoyun,Jiang Jinmao,et al. Traffic sign′s detection method based on Darknet23 and feature fusion[J]. Application of Electronic Technique,2023,49(1):14-19.
Traffic sign′s detection method based on Darknet23 and feature fusion
Du Tingting,Zhong Guoyun,Jiang Jinmao,Ren Weimin
School of Information Engineering, East China University of Technology, Nanchang 330013, China)
Abstract: Road traffic sign′s detection is one of the important links of intelligent transportation. A detection method based on the improved YOLOv3 model by the industry is proposed for the problems of complex background, small targets and slow detection speed in traffic sign detection.The method used a bidirectional feature pyramid structure to achieve bidirectional fusion of semantic information of low,middle and high level features of images to improve the classification of low-level prediction targets and the localization of high-level prediction targets. The main feature extraction network of the original model is improved, and the Darknet23 network is proposed to improve the extraction ability of the network and reduce the computational burden.According to the characteristics of the target shape, the K-means clustering algorithm for training the appropriate anchor frames and a more flexible L_(α-CIOU) loss function is introduced into the bounding box regression to make the network optimize towards a higher degree of overlap between the prediction boxes and the ground-truth boxes. The experimental results show that the method reaches 86.10% mAP@0.75 and 70.017% mAP@0.5:0.05:0.95 on the CCTSDB dataset, which are 10.17% and 5.656% higher than the original network, the number of parameters is reduced by 3 622 091 and the speed is improved 8.27 f/s ,which is better than mainstream detection networks such as SSD and Faster RCNN.
Key words : traffic sign′s detection;bidirectional feature pyramid;Darknet23 network;K-means clustering;loss function

0 引言

    隨著全球汽車數(shù)量的逐漸增加,智能交通系統(tǒng)(Intelligent Traffic System,ITS)迎來了新的發(fā)展機(jī)遇。交通標(biāo)志檢測與識別技術(shù)作為在ITS中的一種關(guān)鍵技術(shù)應(yīng)用,它可以輔助駕駛員準(zhǔn)確、高效地識別道路交通標(biāo)志,有效減輕駕駛疲勞,從而保障安全駕駛。因此,在真實(shí)路況下準(zhǔn)確并及時地檢測出交通標(biāo)志,對無人駕駛、高級輔助駕駛系統(tǒng)具有重要的現(xiàn)實(shí)意義。而在駕駛過程中,獲取的交通標(biāo)志圖像存在背景復(fù)雜、目標(biāo)小和光照天氣變化等問題,導(dǎo)致交通標(biāo)志的誤檢或漏檢。

    針對上述問題,近年來相關(guān)專家學(xué)者提出了許多不同的檢測方法,主要可以分為兩類:傳統(tǒng)交通標(biāo)志檢測方法和基于深度學(xué)習(xí)的交通標(biāo)志檢測方法。傳統(tǒng)的檢測方法分為基于顏色空間[1]、基于形狀特征[2]和基于多特征融合[3],這3類方法往往面臨諸如遮擋、褪色和環(huán)境等各種因素的影響而造成檢測精度下降的問題。在這些方法的基礎(chǔ)上,相關(guān)研究人員進(jìn)行了深入的研究和優(yōu)化,提出了基于深度學(xué)習(xí)的檢測方法,分為基于錨框和不基于錨框兩種。目前主流的算法基于錨框的,具體分為兩階段(Two-Stage)和單階段(One-Stage)兩種。前者的典型代表是Zuo Z[4]提出的Faster RCNN和徐國整[5]提出的改進(jìn)Cascade R-CNN方法,這類算法首先在特征層上通過區(qū)域生成網(wǎng)絡(luò)(Region Proposal Network,RPN)提取可能存在交通標(biāo)志的預(yù)選框,再用對其進(jìn)行檢測,雖然可以大幅度提高檢測精度,但由于計(jì)算量過大,檢測速度較慢;后者的典型代表有Redmon J[6-8] 提出的YOLO系列和孫超[9]提出的改進(jìn)SSD方法,此類方法是直接對輸入圖像做回歸任務(wù),得到目標(biāo)框的左上角、右下角坐標(biāo)和類別信息,在輸出層上一次性完成預(yù)測,雖然檢測速快,適合做實(shí)時檢測任務(wù),但因?yàn)橹虚g不需要額外的映襯,在檢測精度上會略有欠缺。張建民[10]等提出了融合注意力機(jī)制的Cascaded R-CNN算法,在CCTSDB數(shù)據(jù)集上mAP@0.5達(dá)到99.7%,但模型的平均檢測速度僅為7.6 f/s;鮑敬源[11]等提出了Strong Tiny-YOLOv3算法,雖然在速度上達(dá)到33.78 f/s,但在mAP@0.5上只有85.56%。因此,本文提出一種兼檢測精度高和速度快的交通標(biāo)志檢測方法。




本文詳細(xì)內(nèi)容請下載:http://theprogrammingfactory.com/resource/share/2000005069。




作者信息:

杜婷婷,鐘國韻,江金懋,任維民

(東華理工大學(xué) 信息工程學(xué)院,江西 南昌 330013)




wd.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。