《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設(shè)計應(yīng)用 > 基于視覺顯著性的LED晶圓自動提取系統(tǒng)
基于視覺顯著性的LED晶圓自動提取系統(tǒng)
2017年電子技術(shù)應(yīng)用第12期
王想實1,王 棋2
1.無錫職業(yè)技術(shù)學院 物聯(lián)網(wǎng)技術(shù)學院,江蘇 無錫214121;2.深圳市艾特智能科技有限公司,廣東 深圳518007
摘要: 晶圓目標提取是晶粒計數(shù)系統(tǒng)的重要處理環(huán)節(jié),是確保晶粒計數(shù)準確度的前提條件。目前主要應(yīng)用閾值化方法將晶圓目標從背景中提取出來,由于離型紙固有因素影響,造成成像灰度不均勻,嚴重影響晶圓目標范圍的有效識別。系統(tǒng)通過對光源的閉環(huán)控制,取得合適亮度的晶圓圖像后,在Harris輪廓點的外圍區(qū)域確定邊界,通過內(nèi)部區(qū)域?qū)吔绲倪B接度來檢測區(qū)域中的晶圓視覺顯著性目標。試驗證明,該系統(tǒng)能精確地在離型紙背景上有效提取晶圓目標。
關(guān)鍵詞: 晶圓 閾值 邊界 Harris 顯著性
中圖分類號: TP391.41
文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.171157
中文引用格式: 王想實,王棋. 基于視覺顯著性的LED晶圓自動提取系統(tǒng)[J].電子技術(shù)應(yīng)用,2017,43(12):113-115,119.
英文引用格式: Wang Xiangshi,Wang Qi. LED wafer automatic extraction system based on visual saliency[J].Application of Elec-
tronic Technique,2017,43(12):113-115,119.
LED wafer automatic extraction system based on visual saliency
Wang Xiangshi1,Wang Qi2
1.Wuxi Technology Institute,Wuxi 214121,China; 2.Shenzhen Aite Intelligent Technology Company Limited,Shenzhen 518007,China
Abstract: LED wafer target detection is an important part of the grain counting system, and it is a prerequisite for ensuring the accuracy of grain counting. The threshold method is applied to extract the wafer target from the background of the release paper at present. Due to the inherent factors of the release paper, the gray scale of the imaging is not uniform,which seriously affected the recognition of the wafer target range.The system can obtain the appropriate brightness of the wafer image through the control mode of the closed-loop light source.The visual saliency of the wafer target in the internal area is further detected by the connection degree of the inner region to the boundary based on the boundary of the peripheral area of the Harris contour point. The experiments show that the system can obtain clean and uniform saliency maps of the wafers from the background of the release paper.
Key words : wafer;threshold;boundary;Harris;saliency

0 引言

    目前LED外延片生產(chǎn)過程中,由于生產(chǎn)工藝本身原因,導致LED晶粒存在諸多缺陷,如缺角、劃痕、電極污染等,在測試中分選機無法通過電特性對晶粒進行剔除,只能通過人工剔除有缺陷的晶粒,如此導致晶粒數(shù)量處于未知狀態(tài),也就是無法確切知道晶粒數(shù)量,首先需要通過晶圓提取系統(tǒng)來有效統(tǒng)計計算晶粒范圍。

    通常晶圓貼在藍膜或者白膜上,然后再貼在黃色離型紙上,LED計數(shù)儀通過背光照射晶圓,由于黃色離型紙為非均勻材質(zhì),導致成像灰度不均勻,晶圓以外的地方容易造成誤識別,所以需要解決精確提取晶圓問題。

    目前LED晶圓提取系統(tǒng)一般采用降低分辨率,設(shè)定一個統(tǒng)一閾值,將晶圓范圍從離型紙背景中分割出來。這類方法存在其局限性,統(tǒng)一的閾值對非均勻亮度圖像存在極大的誤差,漏識別或者多識別的概率偏高,對晶圓邊緣的提取精度較低[1],僅為98.47%。由此設(shè)計一種基于視覺顯著性的晶圓范圍提取系統(tǒng),有效解決了精準自動提取晶圓范圍問題。應(yīng)用邊界連接度優(yōu)先的算法,將晶圓從背景中有效提取出來。主要依據(jù)晶圓圖像目標居中,且目標基本不與邊界相接觸的特點,與邊界大面積接觸的則屬于背景區(qū),可以直接將圖像邊緣信息當作背景來處理,通過像素與邊界點的連接度來識別圖像空間布局,精確提取晶圓的邊緣。整個系統(tǒng)由晶圓圖像采集模塊、晶圓目標提取模塊兩部分構(gòu)成,如圖1所示。

jsj2-t1.gif

1 晶圓采集模塊

    晶圓采集模塊主要通過調(diào)整光源亮度,并通過評價圖像亮度函數(shù)計算出控制量,反饋給光源控制器,對光源進行閉環(huán)控制,確保得到適合系統(tǒng)亮度的晶圓圖像。相機驅(qū)動模塊主要負責相機與計算機的通信,將圖像數(shù)據(jù)放入計算機內(nèi)存,供后續(xù)圖像處理使用。

2 晶圓目標提取模塊

    一般在實際應(yīng)用中,對晶圓非均勻亮度圖像目標提取主要采用閾值化方法,LI C M等人的LBF(Local Binary Fitting)模型[2]中最大的特點是利用高斯函數(shù)取得圖像的局部灰度信息,圖像雖然在整體上存在灰度不均勻,但是在局部,灰度可以近似地認為不存在偏差場。LBF模型引入了懲罰項,因此無須再重新初始化,但是其最大的缺點是計算量大、演化收斂緩慢、效率低下。在LBF模型和高斯函數(shù)規(guī)則符號距離函數(shù)的基礎(chǔ)上,由ZHANG K H等人提出LIF(Local Image Fiting)模型[3],LIF模型修改了活動輪廓模型的能量函數(shù),并將LBF模型中用高斯函數(shù)求零水平集曲線內(nèi)外局部灰度高斯加權(quán)均值改為直接求曲線內(nèi)外灰度均值,效率相比LBF模型有所提高,但其效率仍然無法滿足本系統(tǒng)小于1 s的計數(shù)速度,且對初始輪廓敏感,對非高斯噪聲圖區(qū)并不理想,基于閾值的晶圓目標提取在速度以及精準度方面都存在不足。

    通過分析整個晶圓采集圖像具有背景單一、目標集中的基本構(gòu)圖特征[4-6],將晶圓圖像分為邊界、背景和目標區(qū)域三部分。目標區(qū)域一般位于圖像的視角聚焦的中心位置,目標完全不與邊界相接觸,直接采用邊界優(yōu)先策略,將圖像邊緣當作背景來處理,通過區(qū)域間特征線索的關(guān)聯(lián)度來判斷區(qū)域與邊界的連接度,識別出目標或背景區(qū)域。

    這里關(guān)鍵是首先要確定邊界區(qū)域,然后通過特征線索按照邊界優(yōu)先的原則來劃分背景和目標區(qū)域。ZHU W在文獻[7]中只簡單將圖像4個邊緣定量的行列區(qū)域人為劃分為邊界區(qū)域。當目標與邊界有接觸或接近邊界區(qū)域時,存在將目標誤判為邊界區(qū)域的概率,直接影響到后續(xù)對背景與目標的準確劃分。

    這里采用VAN DE WEIJER J文獻[8]中的Harris檢測算法,檢測圖像中晶圓目標的角點與輪廓角點,晶圓目標包含在一個凸多邊形內(nèi),整個晶圓圖像被劃分為包含目標對象的內(nèi)部區(qū)域和外部區(qū)域,角點檢測結(jié)果如圖2所示,整個晶圓目標包含在角點所包絡(luò)的區(qū)域中。

jsj2-t2.gif

    整個邊界區(qū)域則在外部區(qū)域中劃分,以角點到邊緣的平均垂直距離為基準值為寬度,來劃分4個方向上的邊界區(qū)域,作為后續(xù)背景和目標分割的基礎(chǔ),避免誤將目標盲目劃分為邊界區(qū)域。

2.1 邊界連接度優(yōu)先晶圓顯著性算法

    依據(jù)晶圓圖像目標居中,與邊界大面積接觸的則是背景區(qū)域的特點,通過邊界連接度來表示這一特性,依據(jù)這一特性來識別晶圓目標。這里定義像素區(qū)域的邊界連接度為該點的邊界外圍長度與其總長度的比率,具體計算如下:

jsj2-gs1-2.gif

2.2 晶圓目標顯著性提取

    在充分考慮晶圓圖像空間布局基礎(chǔ)上,這里同時應(yīng)用圖像空間上的特征,將顏色與空間信息同時融合來提取晶圓顯著性目標,目標顯著性定義為:

jsj2-gs3-4.gif

    依據(jù)式(3),晶粒區(qū)域從背景區(qū)域中接收到較大的值jsj2-gs3-4-x1.gif對比度加強;與此相反,背景區(qū)域從目標區(qū)域中接收小的值jsj2-gs3-4-x2.gif對比度降低。這種非對稱的行為加強了目標與背景區(qū)域的對比度。整個算法流程如圖3所示。

jsj2-t3.gif

    在晶圓目標提取中,為避免大規(guī)模數(shù)值計算,提高顯著性檢測的速度,滿足實時性的要求,將計算處理的基本圖像單元分割為不同的塊[9-10]。使用SLIC[10]方法將圖像抽象為一組大致固定的超像素點,超像素保存了局部結(jié)構(gòu)的同時減少了不必要的細節(jié)信息,利用文獻[11]算法來計算超像素結(jié)點構(gòu)成的稀疏圖中任意兩點間的最短距離,僅需要0.047 s,時間復雜度只有O(n)。超像素劃分結(jié)果如圖4所示。通過計算超像素點的顯著性來提取晶圓目標。

jsj2-t4.gif

3 試驗結(jié)果分析

    通過對分辨率為4 000×3 000的彩色晶圓圖像、運用邊界連接度優(yōu)先的目標提取算法進行實驗。其實驗環(huán)境為IntelCore i3-3240 3.40 GHz,RAM 8 GB,VC2010。實驗中,在對圖像歸一化[0,1]基礎(chǔ)上,將邊界區(qū)域中前50行、值低于0.57的像素劃分為邊界點。超像素點設(shè)置為200個,對原始晶圓圖4(a)進行目標提取,結(jié)果如圖5(b)所示。圖5(a)中是LIF閾值二值化提取結(jié)果,受識別背景區(qū)域的噪音干擾,嚴重降低了目標提取的精確度。

jsj2-t5.gif

    為客觀驗證評價晶圓目標提取的有效性,通過查準率-查全率曲線PR來定量分析,其中查準率表示像素被正確標注為顯著性像素的比率,而查全率表示像素被標注為顯著性像素與實際顯著性像素的比率。其實驗數(shù)據(jù)集來自應(yīng)用最廣泛的基準數(shù)據(jù)集ASD[10],相應(yīng)的顯著性目標檢測結(jié)果如圖6所示,可檢測到較清晰的顯著性目標。相應(yīng)的查準率-查全率PR曲線如圖7所示,相比較當前廣泛應(yīng)用的閾值化中LIF檢測算法,其查準率有明顯的提高,同時整個晶圓目標提取的時間控制在0.26 s內(nèi),目標提取效率較高。

jsj2-t6.gif

jsj2-t7.gif

4 結(jié)論

    本文利用機器視覺中的邊界優(yōu)先提取顯著性目標算法設(shè)計晶圓目標提取系統(tǒng)。采用反饋式光源采集系統(tǒng),在此基礎(chǔ)上,得到有利于該算法實施的亮度一致的圖像,可完整識別出整個晶粒包絡(luò)的區(qū)域,同時可有效排除識別區(qū)外的噪音干擾,滿足了系統(tǒng)對精度速度的要求。

參考文獻

[1] 鐘鑫.LED芯片檢測算法研究及實現(xiàn)[D].北京:北京交通大學,2007.

[2] LI C M,KAO C Y,GORE J C,et al.Minimization of region-scalable fitting energy for image segmentation[J].IEEE Transactions on Image Processing,2008,17(10):1940-1949.

[3] ZHANG K H,SONG H H,ZHANG L.Active contours driven by local image fitting energy[J].Pattern Recog-Gnition,2010,43(4):1199-1206.

[4] 張文康,朱倩,陳瀟君.擬人視覺系統(tǒng)的顯著性檢測方法[J].電子技術(shù)應(yīng)用,2016,42(11):122-125.

[5] 吳曉.一種LED芯片橢圓定位方法[J].紅外與激光工程,2013(S1):98-102.

[6] CHENG M M,WARRELL J,LIN W Y,et al.Efficient salient region detection with soft image abstraction[C].In ICCV,2013.

[7] ZHU W,LIANG S,WEI Y,et al.Saliency optimization from robust background delection IEEE delection[C].IEEE Conference on Computer Vision & Pattern Recognition,2014:2814-2821.

[8] VAN DE WEIJER J,GEVER T,BAGDANOV A D.Boosting color saliency in image feature detection[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2006,28(1):150-156.

[9] ACHANTA R,SHAJI A,SMITH K,et al.Slic superpixels compared to atate-of-the-art superpixel methods[J].IEEE Transactions on Pattern Analysys and Machine Intelligence,2012,34(11):2273-2282.

[10] ACHANTA R,HEMAMI S,ESTRADA F,et al.Frequency-tuned salient region detection[C].In CVPR,2009.

[11] JOHNSON D B.Efficient algorithms for shortest paths in sparse networks[J].ACM,1977,24(1):1-13.



作者信息:

王想實1,王  棋2

(1.無錫職業(yè)技術(shù)學院 物聯(lián)網(wǎng)技術(shù)學院,江蘇 無錫214121;2.深圳市艾特智能科技有限公司,廣東 深圳518007)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。