《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 其他 > 業(yè)界動(dòng)態(tài) > 基于踝關(guān)節(jié)軌跡的身份識(shí)別算法

基于踝關(guān)節(jié)軌跡的身份識(shí)別算法

2008-05-28
作者:耿 磊1,2,吳曉娟1,張

  摘 要: 步態(tài)識(shí)別相對(duì)于其他的生物特征" title="生物特征">生物特征具有諸多優(yōu)點(diǎn)。本文通過(guò)跟蹤腳踝得到其運(yùn)動(dòng)軌跡,計(jì)算出步態(tài)特征的相關(guān)信息,并以此為基礎(chǔ),進(jìn)行了動(dòng)態(tài)參數(shù)的識(shí)別算法研究。在中科院的NLPR數(shù)據(jù)庫(kù)上進(jìn)行了大量的仿真實(shí)驗(yàn)。
  關(guān)鍵詞: 生物特征識(shí)別 步態(tài)識(shí)別 背景減除 速度距 路徑距


  生物特征的識(shí)別是一個(gè)傳統(tǒng)的模式識(shí)別問(wèn)題,它利用人的生理或行為特征進(jìn)行身份識(shí)別" title="身份識(shí)別">身份識(shí)別,包括臉像、指紋、虹膜等第一代生物特征的識(shí)別技術(shù)。隨著安全敏感場(chǎng)合(如銀行、機(jī)場(chǎng)等)對(duì)智能監(jiān)控系統(tǒng)的需求,非接觸式遠(yuǎn)距離的身份識(shí)別技術(shù)近來(lái)倍受關(guān)注。步態(tài)識(shí)別[1]是生物特征識(shí)別技術(shù)的一個(gè)新興子領(lǐng)域。所謂步態(tài),傳統(tǒng)上是指人行走的方式。步態(tài)的更一般定義則把人行走運(yùn)動(dòng)的動(dòng)力學(xué)特征也包括了進(jìn)去。相應(yīng)的步態(tài)識(shí)別就是在不考慮衣服、視角、環(huán)境等情況下,根據(jù)人們走路的方式及動(dòng)力學(xué)特征進(jìn)行身份識(shí)別。步態(tài)以其良好的非侵犯性特點(diǎn),必將在動(dòng)態(tài)視覺(jué)監(jiān)控系統(tǒng)中得到廣泛的應(yīng)用。
  近年來(lái),在步態(tài)識(shí)別領(lǐng)域已有很多嘗試性工作。采用關(guān)節(jié)點(diǎn)軌跡和角度識(shí)別的嘗試取得了令人鼓舞的成果。其中,Taylor[2]等人使用人身體的運(yùn)動(dòng)規(guī)律性和一些約束來(lái)識(shí)別人行走和非行走狀態(tài);Chew Yean等[3]用兩個(gè)鏈接鐘擺建立腿部的運(yùn)動(dòng)模型,從鐘擺傾斜角度的曲線中提取某些頻率分量作為步態(tài)特征進(jìn)行識(shí)別。Aaron[4]采用感應(yīng)標(biāo)簽的辦法獲取身體關(guān)節(jié)的運(yùn)動(dòng)軌跡來(lái)達(dá)到識(shí)別目的。
  基于步態(tài)的身份識(shí)別很大程度上依賴于人體形狀隨著時(shí)間的變化過(guò)程。故可將步態(tài)序列看作由一組靜態(tài)姿勢(shì)所組成的模式,然后在識(shí)別過(guò)程中引入這些觀察姿勢(shì)隨時(shí)間變化的信息。針對(duì)過(guò)去提取關(guān)節(jié)點(diǎn)采取感應(yīng)標(biāo)簽等具有很高計(jì)算代價(jià)的方法,本文提出了采用細(xì)化的辦法提取腳踝點(diǎn)并采用軌跡特征來(lái)識(shí)別的算法:首先根據(jù)背景減除的方法進(jìn)行運(yùn)動(dòng)區(qū)域分割,在經(jīng)過(guò)背景提取以及差分" title="差分">差分二值化" title="二值化">二值化后,可以把運(yùn)動(dòng)區(qū)域提取出來(lái);然后通過(guò)跟蹤腳踝提取出其運(yùn)動(dòng)軌跡,并從運(yùn)動(dòng)軌跡中獲取表示步態(tài)的特征。訓(xùn)練過(guò)程中使用簡(jiǎn)單的方法提取出速度場(chǎng)和路徑場(chǎng);針對(duì)行走過(guò)程中兩腳重合時(shí)跟蹤不到腳踝的情況,采用插值算法估計(jì)腳踝的位置;在識(shí)別過(guò)程中將序列的軌跡參數(shù)作為步態(tài)特征進(jìn)行分類(lèi)。
1 特征提取
1.1 運(yùn)動(dòng)區(qū)域分割

  (1)背景提取。采用背景減除的方法進(jìn)行運(yùn)動(dòng)區(qū)域分割,首先必須從圖像序列中恢復(fù)背景圖像,考慮到視頻處理的實(shí)時(shí)性,本文使用一種復(fù)雜度較低的方法提取背景。令{Ik,k=1,2,3,…,N}代表一個(gè)包含N幀圖像的視頻,則背景圖像B可用下面迭代的方法獲得:
  B=αIk+βB(k=2,3,4,…,N)
  其中,參數(shù)α+β=1,初始化時(shí)B=I1。
  (2)差分及二值化。為把前景從背景中分割開(kāi)來(lái),使用下述函數(shù)來(lái)間接執(zhí)行差分操作[3]
  
  其中0≤f(a,b)〈1,0≤a(x,y),b(x,y)≤255,a(x,y)與b(x,y)分別是當(dāng)前圖像和背景圖像在像素(x,y)處的亮度值。對(duì)于每幅圖像I(x,y),通過(guò)二值化提取函數(shù)來(lái)獲取當(dāng)前圖像中的變化像素。
1.2 運(yùn)動(dòng)目標(biāo)檢測(cè)
  二值化后提取的運(yùn)動(dòng)區(qū)域可能會(huì)出現(xiàn)空洞和噪聲點(diǎn),用圖像形態(tài)學(xué)的方法可以去除它們的影響。然后,通過(guò)執(zhí)行單連通分量分析就可以得到單連通的運(yùn)動(dòng)目標(biāo)。由于邊界對(duì)本文中采用細(xì)化算法來(lái)尋找腳踝的方法比較敏感,所以采取邊界平滑的算法進(jìn)一步調(diào)整前景區(qū)。在經(jīng)過(guò)背景提取以及差分二值化后,就可以把運(yùn)動(dòng)區(qū)域提取出來(lái)。步態(tài)檢測(cè)中對(duì)運(yùn)動(dòng)目標(biāo)提取與檢測(cè)的示例如圖1所示,圖中分別是背景、行人和提取出來(lái)的行人區(qū)域。


1.3 腳踝提取
  針對(duì)腳踝處于彎曲部位的特征,采用細(xì)化算法,找到細(xì)化之后的曲線交叉點(diǎn)即近似等于腳踝的位置。為了降低細(xì)化算法的復(fù)雜度,先找到腳的大體位置,步驟如下:
  (1)求重心
  
  其中,(Xc,Yc)是重心的坐標(biāo),Nt是前景區(qū)像素總數(shù),(xi,yi)是前景區(qū)像素點(diǎn)。
  (2)減小搜索區(qū)的范圍
  只保留要跟蹤的腳踝所在的一側(cè)和重心以下位置。
  (3)細(xì)化
  對(duì)圖像序列用生態(tài)學(xué)方法進(jìn)一步平滑邊界,填充空洞、去除噪聲并細(xì)化圖像。
  (4)搜索腳踝點(diǎn)
  搜索細(xì)化后曲線上出現(xiàn)的交叉點(diǎn)可近似得到腳踝的坐標(biāo)p(x,y)。
  在經(jīng)過(guò)以上四個(gè)步驟之后,就可以得到腳踝的位置坐標(biāo)。圖2是腳踝跟蹤示意圖,從左向右依次為:(a)腳的大概位置;(b)細(xì)化后的骨架;(c)跟蹤到的腳踝點(diǎn)。該方法對(duì)鞋子的影響具有魯棒性,原因是鞋子對(duì)腳踝彎曲部位的影響不大。


1.4 腳踝軌跡的形成
  提取序列一個(gè)周期中的每一幅圖像腳踝的位置坐標(biāo)Pi(x,y)。為了便于軌跡的描述和特征向量的提取,本文采用以下方法。令:
  
  N是某個(gè)序列的幀數(shù),P(i)x是序列中第i幅圖像的x坐標(biāo)(注:坐標(biāo)系選取圖像的左上角為原點(diǎn),x軸向下,y軸向右)。
  
  D(i)x是序列中第i幅圖像的x坐標(biāo)相對(duì)于均值的偏移。這樣就得到了腳踝點(diǎn)運(yùn)動(dòng)的幅度。為了消除圖像尺度、信號(hào)長(zhǎng)度對(duì)訓(xùn)練和識(shí)別過(guò)程的影響,本文使用L-泛數(shù)方法對(duì)D(i)x和P(i)y進(jìn)行幅度上的歸一化。
  
  其中, 是取絕對(duì)值。考慮到軌跡的特征,進(jìn)一步從步態(tài)周期中確定適合所有個(gè)體的軌跡起始點(diǎn)和結(jié)束點(diǎn)。分別從上述曲線的起始點(diǎn)和終止點(diǎn)搜索x方向變化幅度最大的第一點(diǎn)。
  
  dsx是曲線上升最快的第一點(diǎn)的x坐標(biāo),dex是曲線反向上升最快的第一點(diǎn),N是一個(gè)步態(tài)周期序列的樣本個(gè)數(shù)。這樣就得到了歸一化后一個(gè)周期的兩個(gè)向量:
  
1.5 步態(tài)特征的表示
  確定行人內(nèi)在運(yùn)動(dòng)的一個(gè)重要線索是人體部分的運(yùn)動(dòng)。人的腳踝軌跡體現(xiàn)了個(gè)體的差異,它可以用速度場(chǎng)和路徑距離表示。

  其中,M=dex-dsx+1。路徑的距離可以用于度量路徑的一致性。這樣就得到了作為識(shí)別的兩個(gè)度量Sm和L。它們從時(shí)空方面反映腳踝的運(yùn)動(dòng)軌跡,則C=[Sm,L]可作為最終的步態(tài)特征。
2 識(shí)別
2.1 相似性度量

  由于步態(tài)是時(shí)空運(yùn)動(dòng),故期望使用時(shí)空相關(guān)來(lái)更好地捕捉它的空間結(jié)構(gòu)特性及時(shí)間平移特性。對(duì)于任意兩個(gè)步態(tài)序列要確定其周期,并從步態(tài)序列中提取出完整的步態(tài)周期,就需要找到每個(gè)人的視頻序列中高寬比最大兩幀圖像作為大致周期。在該大致周期中選擇腳踝上升幅度最大的第一點(diǎn)作為周期起始點(diǎn),并從該周期的反方向選擇上升幅度最大的第一點(diǎn)作為周期的終止點(diǎn),這兩個(gè)點(diǎn)之間作為精確周期。腳踝點(diǎn)在兩腳重疊時(shí)不能從圖像上直接得到,可以用插值的辦法取得近似的腳踝點(diǎn)。
2.2 分類(lèi)器
  可采用非參數(shù)的方法設(shè)計(jì)分類(lèi)器" title="分類(lèi)器">分類(lèi)器。最近鄰規(guī)則(NN)分類(lèi)器就是一種比較容易實(shí)現(xiàn)的分類(lèi)器,但不是最有效的,因而只用它來(lái)測(cè)試步態(tài)特征的可分性。NN分類(lèi)器使用歐氏距離作為相似性測(cè)度。其歐氏距離的定義為:
  d2=||Smc-Sme||2+||Lc-Le||2
  其中,Smc和Lc是測(cè)試樣本,Sme和Le是數(shù)據(jù)庫(kù)中的參考訓(xùn)練樣本。
3 實(shí)驗(yàn)
3.1 識(shí)別性能
  本文采用中科院自動(dòng)化所提供的NLPR數(shù)據(jù)庫(kù)。它包含20個(gè)人,每人3個(gè)視角(側(cè)面視角0°,傾斜視角45°,正面視角90°),每視角4個(gè)序列,共240個(gè)步態(tài)序列。本實(shí)驗(yàn)選取這20個(gè)人,并使用側(cè)面視角。在該數(shù)據(jù)庫(kù)上已作了大量的計(jì)算機(jī)仿真,全面測(cè)試了算法的識(shí)別性能和校驗(yàn)性能,獲得了大量的仿真數(shù)據(jù)。通過(guò)使用留一校驗(yàn)(Leave-one-out Cross Validation)的方法,得出了0°視角下k=2、5、10、20算法的正確分類(lèi)率CCR(Correct Classification Rate)如表1所示。


3.2 校驗(yàn)性能
  借用了臉部識(shí)別算法中用到的一種分類(lèi)性能度量ROS(Rank Order Statistic)來(lái)評(píng)估算法的性能,該方法在FERET[7]評(píng)估協(xié)議中首先被提到。使用最近鄰分類(lèi)器時(shí)算法的累積匹配分值圖如圖3所示。
  本文同時(shí)使用留一規(guī)則估計(jì)了算法的錯(cuò)誤接受率FAR(False Acceptance Rate)和錯(cuò)誤拒絕率FRR(False Reject Rate)。圖4給出了算法在使用最近鄰分類(lèi)器NN的情況下的ROC(Receiver Operating Characteris)曲線。
  錯(cuò)誤接受是指將冒充者識(shí)別為真正的生物特征擁有者;錯(cuò)誤拒絕是指生物特征擁有者被拒絕。對(duì)于理想的算法來(lái)說(shuō),這兩個(gè)錯(cuò)誤率均為0。但實(shí)際中,這兩個(gè)指標(biāo)是相關(guān)的,當(dāng)錯(cuò)誤拒絕率較低時(shí),錯(cuò)誤接受率會(huì)較高;反之亦然。因此往往需要在兩個(gè)錯(cuò)誤率之間折衷選取。用ROC曲線能夠很好地反映兩個(gè)錯(cuò)誤率之間的關(guān)系,如圖4所示。曲線上的點(diǎn)表示在某個(gè)給定的閾值下得到的錯(cuò)誤拒絕率和錯(cuò)誤接受率。從圖中可以看到側(cè)面0°視角的等錯(cuò)誤率EER(Equal Error Rate)為17%。

?


3.3 結(jié)果分析
  從圖3、4可以看出,使用速度距和路徑距的識(shí)別辦法可以有效避免某一幀丟失或是某一幀腳踝提取不好對(duì)識(shí)別結(jié)果的影響。但是基于NN分類(lèi)器的等錯(cuò)誤率EER為17%不是很理想。其中速度場(chǎng)的范數(shù)會(huì)累加誤差,一定程度上加大了總的時(shí)空匹配誤差。而軌跡距離卻可以克服部分軌跡點(diǎn)上的波動(dòng),從而取得好的識(shí)別效果。
3.4 算法比較
  中科院自動(dòng)化所提供的NLPR數(shù)據(jù)庫(kù)是步態(tài)數(shù)據(jù)庫(kù)中比較大的一個(gè)。所以本文算法使用該數(shù)據(jù)庫(kù)作測(cè)試,與文獻(xiàn)[5]中步態(tài)識(shí)別算法是有可比性的。兩種算法在使用NN分類(lèi)器的識(shí)別性能均較好。比較結(jié)果如表2所示。


  相比而言,本算法在0°視角下的正確分類(lèi)率CCR比文獻(xiàn)[5]中算法的略高。就校驗(yàn)性能來(lái)講,本文在0°視角下等錯(cuò)誤率EER比文獻(xiàn)[5]中算法的要低一些。但是文獻(xiàn)[5]中對(duì)SOTON數(shù)據(jù)庫(kù)(7人,每人4個(gè)序列)識(shí)別率要比本文效果好。此外,本文提出的算法與以往方法相比,特征選擇更簡(jiǎn)單,更易于理解和實(shí)現(xiàn),避免了使用光流、圖像自相關(guān)等復(fù)雜的處理方法,大大減小了計(jì)算復(fù)雜度,提高了識(shí)別的速度。
  本文提出了一種簡(jiǎn)單有效的步態(tài)識(shí)別算法,并作了大量的性能測(cè)試和評(píng)估工作,獲得了令人滿意的算法性能。未來(lái)的工作將會(huì)集中在復(fù)雜背景、遮擋、陰影下的腳踝跟蹤以及其他關(guān)節(jié)軌跡提取等。同時(shí)3D人體建模、多攝像機(jī)跟蹤關(guān)節(jié)軌跡都將是未來(lái)的研究方向。
參考文獻(xiàn)
1 Nixon M,Carter J,Cunado D et al.Automatic gait recognition. In:Proceedings of BIOMETRICS personal identification in networked society,1999:231~249
2 James W,Stephanie D,Taylor R.Analysis and recognition of walking movements.In:International conference on pattern recognition,Quebec City,Canada,2002:315~318
3 Yam C Y,Nixon M S,Carter J N.Gait recognition by walk-ing and running:A model-based approach.In:the 5th Asian conference on computer vision,Melbourne,Australia,2002:23~25
4 Rawesak T,Aaron B.Gait recognition from time-normalized joint-angle trajectories in the walking plane.In:Proceedings of the 2001 IEEE Computer Society Conference,2001;2(12): 726~731
5 王 亮,胡衛(wèi)明,譚鐵牛.基于步態(tài)的身份識(shí)別.計(jì)算機(jī)學(xué)報(bào),2003;26(3):353~360
6 Shutler J,Nixon M,Harris C.Statistical gait recognition via temporal moments.In:Proceedings of IEEE southwest sympo-sium on image analysis and interpretation,Austin,Texas,2000:291~295
7 Phillips J,Moon H,Rizvi S et al.The FERET evaluation methodology for face recognition algorithms.IEEE Transactions on Pattern Analysis and Machine Intelligence,2000;22(10):1090~1104

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。