文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.2016.12.023
中文引用格式: 賀康建,周冬明,聶仁燦,等. 基于局部控制核的彩色圖像目標(biāo)檢測(cè)方法[J].電子技術(shù)應(yīng)用,2016,42(12):89-92.
英文引用格式: He Kangjian,Zhou Dongming,Nie Rencan,et al. Target detection method based on local steering kernel of color image[J].Application of Electronic Technique,2016,42(12):89-92.
0 引言
近年來(lái)計(jì)算機(jī)技術(shù)快速發(fā)展,計(jì)算機(jī)智能為人們的日常生活帶來(lái)諸多方便。隨著人們需求的日益增長(zhǎng),目標(biāo)檢測(cè)與定位逐步進(jìn)入到人們的實(shí)際生活中[1,2],隨著對(duì)人體動(dòng)作識(shí)別、人機(jī)交互技術(shù)的深入研究,計(jì)算機(jī)視覺系統(tǒng)也變得越來(lái)越智能。使用計(jì)算機(jī)進(jìn)行特征檢測(cè)、目標(biāo)跟蹤、目標(biāo)檢測(cè)及定位等技術(shù)得到了研究人員的廣泛關(guān)注,這些技術(shù)也開始應(yīng)用到人們的日常生活中。本文采用圖像局部控制核算法[3],實(shí)現(xiàn)了對(duì)不同目標(biāo)的快速檢測(cè)與定位。目前對(duì)于目標(biāo)檢測(cè)及定位問(wèn)題,有關(guān)研究人員提出了許多新穎的算法,但大多數(shù)算法需要進(jìn)行繁瑣的訓(xùn)練和預(yù)處理過(guò)程。如參考匹配法[4]將隱馬爾科夫統(tǒng)計(jì)模型引入到目標(biāo)參考匹配,此方法的局限性是無(wú)法從圖像內(nèi)容來(lái)解釋并確定隱馬爾科夫模型的參數(shù),只能通過(guò)一系列的實(shí)驗(yàn)來(lái)選擇最優(yōu)參數(shù),這一問(wèn)題限定了圖像識(shí)別中隱馬爾科夫模型[5]的進(jìn)一步應(yīng)用。還有一種多檢測(cè)目標(biāo)自動(dòng)定位監(jiān)測(cè)技術(shù)主要是基于圖像像素的單閾值分割法[6]的運(yùn)用,此類定位方法過(guò)程繁瑣耗時(shí)。本文提出采用圖像局部控制核算法來(lái)對(duì)目標(biāo)進(jìn)行快速的配準(zhǔn)、檢測(cè)與定位[7]。
1 算法描述
本文采用局部控制核[8]的方法,獲取圖像像素點(diǎn)的幾何結(jié)構(gòu)信息,提取出圖像的結(jié)構(gòu)特征,將目標(biāo)圖像分割成與目標(biāo)參考圖像大小一致的一系列子圖,參考圖像即為所需查找定位的目標(biāo),最后分析包含圖像特征信息的數(shù)據(jù)矩陣之間的相似性來(lái)達(dá)到目標(biāo)檢測(cè)的目的。算法流程圖如圖1所示。
1.1 局部控制核函數(shù)LSK
局部控制核函數(shù)(Local Steering Kernel,LSK)是在評(píng)估梯度的基礎(chǔ)上通過(guò)分析像素值的差異來(lái)獲取圖像的局部數(shù)據(jù)結(jié)構(gòu),用所獲取的結(jié)構(gòu)信息確定核的形狀和大小,用徑向?qū)ΨQ函數(shù)來(lái)表示局部核函數(shù),表達(dá)式如式(1):
式中,n和nT分別是在參考圖像Q和目標(biāo)圖像T中計(jì)算LSK所用到的子塊數(shù)目。
1.2 獲取主要數(shù)據(jù)特征(降維)
1.3 矩陣相似性判決準(zhǔn)側(cè)
得到ρi以后,就可以分析參考圖像Q和目標(biāo)圖像Ti之間的相似性關(guān)系。如果夾角為0°,意味著方向相同、線段重合;如果夾角為90°,意味著形成直角,方向正交;如果夾角為180°,意味著方向正好相反。為更好地體現(xiàn)向量間的差異,用與1-的比值來(lái)衡量?jī)上蛄康南嗨贫龋磃(ρi)=/(1-),f(ρi)∈[0,∞]。這樣,就將相似度的范圍從[0,1]擴(kuò)展到[0,∞]之間,可以更好地突出向量間的微小差異,更能體現(xiàn)兩者的相似程度。
1.4 保留最大相似區(qū)域
在圖像中目標(biāo)的檢測(cè)與定位過(guò)程中,設(shè)定一個(gè)整體閾值τ0,將f(ρi)與τ0作比較,若f(ρi)>τ0就認(rèn)為目標(biāo)圖像與參考圖像相似,最終的定位與檢測(cè)的準(zhǔn)確度與相似度可以通過(guò)調(diào)節(jié)τ0來(lái)實(shí)現(xiàn)。這樣就可以得到一個(gè)相似區(qū)域,然后,進(jìn)行非極大值抑制,即只保留maxf(ρi)的對(duì)象,就是最終的檢測(cè)與定位結(jié)果。maxf(ρi)>τ0表明目標(biāo)圖像中有需要檢測(cè)的參考圖像,maxf(ρi)<τ0,則目標(biāo)圖像中不存在所感興趣的對(duì)象。
所有相似性區(qū)域子圖塊位置和保留最大相似區(qū)域?qū)嶒?yàn)結(jié)果如圖2所示。
2 實(shí)驗(yàn)結(jié)果與分析
為了驗(yàn)證該算法的有效性,本文選取兩組圖作為實(shí)驗(yàn)數(shù)據(jù)。其中一組圖像是對(duì)衛(wèi)星接收器進(jìn)行定位,如圖3所示。
實(shí)驗(yàn)結(jié)果如圖4所示。圖4中,不同顏色代表不同的相似度,藍(lán)色(區(qū)域1、3)到紅色(區(qū)域2、4)表示的相似度依次增強(qiáng),實(shí)驗(yàn)選取的參考圖像為目標(biāo)圖像中最左側(cè)的圖像,所以定位結(jié)果中最左側(cè)的定位結(jié)果為紅色,與參考圖像最為接近。圖4(c)中可以看到檢測(cè)出不同的相似區(qū)域,可以通過(guò)調(diào)節(jié)整體閾值來(lái)決定不同相似度區(qū)域的取舍,最終定位出結(jié)果。
下面給出另一組人臉檢測(cè)與定位實(shí)驗(yàn),并分析靈敏度?琢對(duì)準(zhǔn)確度與計(jì)算復(fù)雜度的影響,實(shí)驗(yàn)結(jié)果如圖5所示。
由于式(3)中參數(shù)靈敏度α影響檢測(cè)的準(zhǔn)確度與運(yùn)算速度,在實(shí)驗(yàn)中,選取α=1.0。從表1與圖5中可以看出,靈敏度α越小,計(jì)算出的顯著性區(qū)域即與參考圖相似的子塊區(qū)域越大,檢測(cè)結(jié)果越準(zhǔn)確,但需要很大的計(jì)算復(fù)雜度;α越大,相似性區(qū)域越小,檢測(cè)時(shí)間越短,但有可能造成檢測(cè)目標(biāo)的缺失,如圖5(e)中所示。
3 結(jié)論
本文采用的目標(biāo)定位算法對(duì)圖像中的參考圖像目標(biāo)進(jìn)行定位,該算法不需要過(guò)多的預(yù)處理和訓(xùn)練過(guò)程,只需要輸入一個(gè)參考圖像來(lái)獲取所需定位目標(biāo)的結(jié)構(gòu)信息矩陣,再用局部保留投影(LPP)對(duì)圖像矩陣進(jìn)行降維,提取顯著特征,進(jìn)而與目標(biāo)圖像的相似特征進(jìn)行匹配,用余弦相似性方法作為判決依據(jù)。由實(shí)驗(yàn)得知,該算法是一個(gè)通用的定位算法,參考圖像和目標(biāo)圖像里的定位圖像不需要嚴(yán)格一致。從實(shí)驗(yàn)1看出,在目標(biāo)圖像中,定位目標(biāo)的角度、方向、亮度和目標(biāo)大小等信息不一致,仍準(zhǔn)確定位出3個(gè)目標(biāo);在實(shí)驗(yàn)2中也可以看出,在復(fù)雜的圖像背景下,輸入的參考與檢測(cè)目標(biāo)有一定的差異,仍能檢測(cè)定位出人臉信息,說(shuō)明本算法的有效性和通用性。
本文算法的局限在于,檢測(cè)目標(biāo)圖像中的目標(biāo)時(shí),目標(biāo)圖像中目標(biāo)的大小應(yīng)大致與參考圖像大小一致,這樣對(duì)檢測(cè)圖像分割成一系列與參考圖像大小一致的子圖塊時(shí)才能進(jìn)行特征點(diǎn)相似性判決。針對(duì)目標(biāo)圖像中目標(biāo)大小與參考圖像大小不一致的問(wèn)題,可以通過(guò)縮放參考圖像來(lái)解決。在參考圖像與目標(biāo)圖像存在形變時(shí),若目標(biāo)的局部幾何形狀特征明顯,能提取出特征,則可以通過(guò)調(diào)節(jié)相似度閾值τ0來(lái)實(shí)現(xiàn)對(duì)目標(biāo)進(jìn)行檢測(cè)與定位,但會(huì)造成定位精度下降。有關(guān)算法的參數(shù)設(shè)置,目前沒有自適應(yīng)的優(yōu)化參數(shù)方法,只能做大量實(shí)驗(yàn)選取最優(yōu)參數(shù),隨著這一問(wèn)題的解決,必會(huì)使此算法得到更廣泛的應(yīng)用。
參考文獻(xiàn)
[1] 喻鑫,明德烈,田金文.前下視紅外圖像中復(fù)雜地面背景下的目標(biāo)定位[J].紅外與激光工程,2007,6(6):988-991.
[2] 楊威,付耀文,潘曉剛,等.弱目標(biāo)檢測(cè)前跟蹤技術(shù)研究綜述[J].電子學(xué)報(bào),2014,42(9):1786-1793.
[3] SEO H J,MILANFAR P.Training-free,generic object detection using locally adaptive regression kernels[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2010,32(9):1688-1704.
[4] 任仙怡,張桂林,張?zhí)煨颍?基于奇異值分解的圖像匹配方法[J].紅外與激光工程,2001,30(4):200-202.
[5] 劉小軍,王東峰,張麗飛,等.一種基于奇異值分解和隱馬爾可夫模型的人臉識(shí)別方法[J].計(jì)算機(jī)學(xué)報(bào),2003,26(3):340-344.
[6] 陳果,左洪福.圖像的自適應(yīng)模糊閾值分割法[J].自動(dòng)化學(xué)報(bào),2003,29(5):791-796.
[7] 鄧集洪,魏宇星.基于局部特征描述的目標(biāo)定位[J].光電工程,2015,1(1):58-64.
[8] KUMAR Y,GAUTAM J.Training-free video indexing scheme using local steering kernel[J/OL].(2012)[2016].http://www.tjprc.org/files/2-15-1371044563-1.Training%20free%20video.full.pdf.
[9] WONG W K,ZHAO H T.Supervised optimal locality preserving projection[J].Pattern Recognition,2012,45(1):186-197.
[10] YE J.Cosine similarity measures for intuitionistic fuzzy sets and their applications[J].Mathematical & Computer Modelling,2011,53(53):91-97.