《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設(shè)計(jì)應(yīng)用 > 面向特殊人群行為識別的主動學(xué)習(xí)與預(yù)測方法
面向特殊人群行為識別的主動學(xué)習(xí)與預(yù)測方法
2018年電子技術(shù)應(yīng)用第11期
陳凡健
茂名職業(yè)技術(shù)學(xué)院 計(jì)算機(jī)工程系,廣東 茂名525000
摘要: 老人等特殊人群的智能護(hù)理是人體行為識別研究的新方向?,F(xiàn)有行為識別方法在學(xué)習(xí)樣本時(shí)需要人工標(biāo)記的樣本數(shù)量多,在面向特殊人群行為識別應(yīng)用時(shí)存在工作量大、識別率低的問題。為此,提出一種主動學(xué)習(xí)與預(yù)測方法,依據(jù)信息熵和互信息量構(gòu)建目標(biāo)函數(shù),主動學(xué)習(xí)行為樣本集,自動生成需要人工標(biāo)記的樣本子集。同時(shí),以無向圖模型作為行為描述子,依據(jù)信任傳播方法進(jìn)行類標(biāo)簽預(yù)測。實(shí)驗(yàn)結(jié)果表明,該方法需要人工標(biāo)記的樣本數(shù)量少,而且對特殊人群行為識別的識別率高。
中圖分類號: TP391
文獻(xiàn)標(biāo)識碼: A
DOI:10.16157/j.issn.0258-7998.174976
中文引用格式: 陳凡健. 面向特殊人群行為識別的主動學(xué)習(xí)與預(yù)測方法[J].電子技術(shù)應(yīng)用,2018,44(11):116-120.
英文引用格式: Chen Fanjian. Active learning and prediction method for activity recognition of special populations[J]. Application of Electronic Technique,2018,44(11):116-120.
Active learning and prediction method for activity recognition of special populations
Chen Fanjian
Department of Computer Engineering,Maoming Vocational Technical College,Maoming 525000,China
Abstract: The intelligent nursing of the elderly and other special populations is the new research direction of human activity recognition. For the existing activity recognition methods, the number of samples that need to be manually marked when learning samples is large, and there is a problem that the workload is large and the recognition rate is low in the application of activity recognition for special populations. Therefore, an active learning and prediction method is proposed, which constructs the objective function according to the information entropy and mutual information, to learn activity sample set actively, and automatically generates the subset of the samples need to be manually marked. At the same time, the undirected graph model is used as the activity descriptor, and the class labels are predicted through belief propagation method. The experimental results show that this method requires a small number of manually labeled samples, and the recognition rate of activity recognition for special populations is high.
Key words : activity recognition;activity prediction;active learning;undirected graph;intelligent nursing

0 引言

    空巢老人的護(hù)理問題是目前社會的焦點(diǎn)問題之一,針對這類特殊群體的智能看護(hù)系統(tǒng)需求迫切。基于計(jì)算機(jī)視覺的人體行為識別技術(shù)可以實(shí)現(xiàn)人體行為的智能識別,對于特殊群體的智能看護(hù)有著重要意義。鑒于此,特殊人群的智能護(hù)理成為目前人體行為識別研究的新方向。人體行為識別是計(jì)算機(jī)視覺學(xué)科的研究熱點(diǎn),在視頻監(jiān)控、電影分級、人工智能領(lǐng)域已有廣泛應(yīng)用[1]。人體行為常用一個(gè)特定的時(shí)間和空間模型來描述,行為識別需要獲取充分的時(shí)空信息來區(qū)分不同的行為類別,同時(shí)還需要處理復(fù)雜的外界環(huán)境因素干擾。然而,人體行為本身極其復(fù)雜,環(huán)境干擾也復(fù)雜多變,因此從視頻中自動識別人體行為還面臨著很大挑戰(zhàn)[2]。目前的人體行為識別方法主要依據(jù)低層和中層的行為特征來區(qū)分不同行為,譬如全局時(shí)空特征[3-4]、局部時(shí)空特征[5-6]、深度感興趣點(diǎn)特征[7]和梯度直方圖特征[8-9]等。這些方法在KTH、WEIZANN等簡單行為數(shù)據(jù)集上可以達(dá)到較高的識別率,然而對特殊群體行為的區(qū)分能力有限[10]。Action Bank[10]是一種高層的行為特征表示方法,該方法采用許多獨(dú)立的行為檢測子進(jìn)行行為檢測,然后再將檢測輸出轉(zhuǎn)化為特征向量,采用支持向量機(jī)(Support Vector Machines,SVM)對其進(jìn)行分類,可以有效提高行為識別性能。但是,此方法的識別性能依賴于構(gòu)建的行為模型,而模型構(gòu)建需要人工標(biāo)記大量樣本,人工標(biāo)記難度和工作量很大。詞袋模型(Bag-of-Words,BoW)[11]是目前比較流行的行為識別方法之一,該方法的主要優(yōu)點(diǎn)是魯棒性強(qiáng),計(jì)算效率高。但是,該模型只關(guān)注行為的局部特征,難以區(qū)分局部行為類似而整體行為差異巨大的人體行為,譬如采用手部向外用力的特征難以區(qū)分用手推門的動作和用手推人的動作。

    為了提高行為識別算法對特殊群體行為識別的識別率,同時(shí)降低人工標(biāo)記樣本的難度和工作量,本文提出一種主動學(xué)習(xí)與預(yù)測的特殊群體行為識別方法。在現(xiàn)有采用局部時(shí)空特征描述行為的基礎(chǔ)上,構(gòu)建包含行為類別、行為屬性、目標(biāo)屬性、幀內(nèi)特征和幀間特征的行為圖模型及各條邊的勢能函數(shù),結(jié)合信任傳播算法進(jìn)行行為的類標(biāo)簽預(yù)測,依據(jù)行為頂點(diǎn)的熵和各行為頂點(diǎn)之間的互信息量進(jìn)行主動學(xué)習(xí),可以有效提高行為識別率和降低人工標(biāo)記樣本的工作量。

1 主動學(xué)習(xí)與預(yù)測方法

    本文提出一種面向特殊群體行為識別的主動學(xué)習(xí)與預(yù)測方法,采用無向圖模型作為行為描述子,依據(jù)信任傳播方法進(jìn)行類標(biāo)簽預(yù)測,依據(jù)信息熵和互信息量構(gòu)建目標(biāo)函數(shù),主動學(xué)習(xí)行為樣本集,自動生成需要人工標(biāo)記的樣本子集,詳細(xì)描述如下。

1.1 行為描述子

    圖模型(Graph Model,GM)[12]是采用圖的形式來描述條件獨(dú)立的概率分布,這樣可以將概率分布表示成多個(gè)因子的乘積形式,從而簡化概率分布的計(jì)算。圖模型包含有向圖和無向圖兩類,有向圖模型中各個(gè)節(jié)點(diǎn)的連接是有方向的,而無向圖模型中各個(gè)節(jié)點(diǎn)的連接沒有方向。在描述行為時(shí),行為各種特征構(gòu)成的節(jié)點(diǎn)之間的連接并沒有明確的方向,故本文采用無圖模型來描述行為,記為G=(V,E)。其中,V表示圖的頂點(diǎn)集合,E表示圖的邊的集合[13]。

    在本文中,圖模型的頂點(diǎn)分為五類:

    (1)行為類別頂點(diǎn):簡記為C,用于描述行為的類別,如奔跑行為、行走行為;

    (2)行為屬性頂點(diǎn):簡記為A,用于描述行為的屬性,可以由行為分類器的分類得分表示;

    (3)目標(biāo)屬性頂點(diǎn):簡記為O,用于描述目標(biāo)的屬性,可以由目標(biāo)分類器的分類得分表示;

    (4)幀內(nèi)特征頂點(diǎn):簡記為X,用于描述行為的單幀特征,如方向梯度直方圖(Histogram of Oriented Gradient,HOG)特征;

    (5)幀間特征頂點(diǎn):簡記為Y,用于描述行為的視頻相關(guān)性特征,如光流直方圖(Histogram of Optical Flow,HOF)特征。

    這樣,圖模型的頂點(diǎn)集合可以表示為V={C,A,O,X,Y},如圖1所示。

jsj5-t1.gif

    E表示圖的邊的集合。本文的設(shè)計(jì)思想是,幀內(nèi)特征輸入分類器Px后得到目標(biāo)屬性信息,故幀內(nèi)特征頂點(diǎn)X與目標(biāo)屬性頂點(diǎn)O相連接;幀間特征輸入分類器Py得到行為屬性信息,故幀間特征頂點(diǎn)Y與行為屬性頂點(diǎn)A相連接;行為分類時(shí)需要參考目標(biāo)屬性信息和行為屬性信息,故行為類別頂點(diǎn)C與目標(biāo)屬性頂點(diǎn)O和行為屬性頂點(diǎn)A相連接;另外,考慮到不同行為之間可能存在相關(guān)性,故不同的行為類別頂點(diǎn)C也可以相互連接。于是,行為圖模型邊的集合可以表示為E={C-C,C-A,C-O,A-Y,O-X},如圖1所示。

    對于一個(gè)視頻片段vi,本文提取每一幀圖像中時(shí)空興趣點(diǎn)的HOG特征作為幀內(nèi)特征,提取HOF特征作為幀間特征,具體特征提取過程詳見文獻(xiàn)[6]。特征的訓(xùn)練與分類采用SVM方法,詳見文獻(xiàn)[10],這里不再贅述。本文主要闡述如何采用圖模型對行為和目標(biāo)屬性之間的內(nèi)在關(guān)系進(jìn)行建模,目的是在判定行為類別時(shí)既利用視頻的相關(guān)性信息,又利用目標(biāo)的屬性信息,這樣可以降低各種干擾目標(biāo)的運(yùn)動對行為判決的影響,從而降低行為識別的虛警率。譬如,在利用光流的激烈變化屬性確定了可疑的斗毆行為后,如果發(fā)現(xiàn)可疑斗毆區(qū)域中有多個(gè)人體目標(biāo)出現(xiàn),那么此處發(fā)生斗毆行為的可信度很大;但如果在可疑斗毆區(qū)域內(nèi)未發(fā)現(xiàn)人體目標(biāo)出現(xiàn)(譬如只有車輛等其他非人體目標(biāo)),那么該區(qū)域發(fā)生斗毆行為的可信度就降低了,此處的激烈光流變化可能是由車輛、樹葉等其他運(yùn)動目標(biāo)的激烈運(yùn)動引起的,故可以判定該區(qū)域未發(fā)生斗毆行為。

    無向圖模型常采用各條邊的勢能函數(shù)來描述,對于本文的行為圖模型G=(V,E),下面定義各條邊的勢能函數(shù)。

    (1)邊O-X的勢

    對于一個(gè)目標(biāo)屬性頂點(diǎn)oi,對應(yīng)的HOG特征向量記為xi,HOG特征的SVM分類器記為Px。這樣,目標(biāo)屬性頂點(diǎn)O的勢可以用相應(yīng)特征分類器的分類得分代替,表示為:

jsj5-gs1-2.gif

    (3)邊C-O的勢

邊C-O的勢用于描述行為類別和目標(biāo)屬性的內(nèi)在關(guān)系,可以用行為類別與目標(biāo)屬性同時(shí)出現(xiàn)的頻率(簡記為同現(xiàn)頻率)來表示,為:

    jsj5-gs3.gif

其中,α為權(quán)重。為便于計(jì)算,同現(xiàn)頻率可以簡單地用行為類別與目標(biāo)屬性同時(shí)出現(xiàn)的次數(shù)代替,此時(shí)α取值為0.01,且φ(ci,oi)的最大值為1,也即當(dāng)φ(ci,oi)大于1時(shí)將其置為1。同現(xiàn)頻率越高,表明行為類別與目標(biāo)屬性的關(guān)聯(lián)度越大。譬如,對于騎馬行為常伴隨著人和馬兩類目標(biāo),也即這兩類目標(biāo)與騎馬行為的同現(xiàn)頻率很高。這樣,對于一個(gè)未知的行為,如果行為分類為騎馬行為的得分較高,同時(shí)又伴隨有人和馬兩類目標(biāo),那么該行為為騎馬行為的可信度很高。

    (4)邊C-A的勢

    邊C-A的勢用于描述行為類別和行為屬性的內(nèi)在關(guān)系,也可以用行為類別與行為屬性的同現(xiàn)頻率來表示,為:

    jsj5-gs4.gif

其中,β為權(quán)重。同現(xiàn)頻率也用行為類別與行為屬性同時(shí)出現(xiàn)的次數(shù)代替,此時(shí)β取值為0.02,同樣地,φ(ci,ai)的最大值也為1。需要說明的是,此處權(quán)重β的取值大于權(quán)重α的取值,主要是考慮到與目標(biāo)屬性相比,行為屬性對行為分類的貢獻(xiàn)更大。

    (5)邊C-C的勢

    邊C-C的勢用于描述兩個(gè)行為類別頂點(diǎn)之間的連通性。假設(shè)在一個(gè)時(shí)空距離上的行為是相互關(guān)聯(lián)的,行為類別頂點(diǎn)之間的勢主要由時(shí)間和空間上的距離來描述,表示為:

jsj5-gs5.gif

1.2 類標(biāo)簽預(yù)測

    信任傳播(Belief Propagation,BP)算法采用局部消息傳遞來擴(kuò)散信任度,可以很好地解決標(biāo)簽離散情況下的樣本標(biāo)記問題。本文采用BP算法計(jì)算行為類別頂點(diǎn)C的后驗(yàn)概率,預(yù)測類標(biāo)簽。具體地,在每一次迭代過程中,信任頂點(diǎn)依據(jù)其鄰居頂點(diǎn)收到的消息進(jìn)行更新。對于任一頂點(diǎn)ci∈C,其鄰居頂點(diǎn)集合記為CN(ci),從頂點(diǎn)ci到其鄰居頂點(diǎn)的消息可以表示為:

    jsj5-gs6.gif

其中:

    jsj5-gs7-8.gif

    選擇邊緣概率最大的類標(biāo)簽作為頂點(diǎn)ci預(yù)測的類標(biāo)簽。

1.3 主動學(xué)習(xí)與預(yù)測

    考慮到特殊群體行為的多樣性和場景的多變性,在訓(xùn)練階段人工標(biāo)記行為類別是非常困難的。本文采用主動學(xué)習(xí)策略來降低人工標(biāo)記的難度。

    給定一組已標(biāo)記的樣本集L和一組未標(biāo)記的樣本集U,以及行為類別數(shù)N。為降低人工標(biāo)記難度,已標(biāo)記樣本集中的元素?cái)?shù)量遠(yuǎn)遠(yuǎn)小于未標(biāo)記樣本集中元素?cái)?shù)量。對于未標(biāo)記樣本集中的元素,結(jié)合圖模型和主動學(xué)習(xí)策略從中主動選取需要人工標(biāo)記的樣本子集S*?;舅悸肥牵菏紫?,按照前述方法構(gòu)建圖模型G,并計(jì)算任一ci∈U的邊緣分布p(ci);然后,計(jì)算ci的熵,表示為:

    jsj5-gs9.gif

    在信息論中,熵越大說明信息的不確定性越大,對應(yīng)的信息量越豐富。很明顯,信息量越豐富的樣本越需要專家進(jìn)行標(biāo)記。因此,本文將熵最大作為選取需人工標(biāo)記的子集S*的依據(jù)之一。

    另外,考慮到在許多應(yīng)用中,各行為樣本可能相互關(guān)聯(lián),這樣,ci的邊緣分布可能受鄰居頂點(diǎn)集合中的其他頂點(diǎn)影響。本文采用互信息量來描述兩個(gè)頂點(diǎn)之間的相互影響,表示為:

    jsj5-gs10.gif

    互信息量越大,說明兩個(gè)頂點(diǎn)之間的相互影響越大。這樣情況下,如果知道其中一個(gè)頂點(diǎn)的標(biāo)簽,另一個(gè)頂點(diǎn)的標(biāo)簽受其影響很大,可以依據(jù)其標(biāo)簽在圖模型上進(jìn)行可靠的預(yù)測。換言之,不需要同時(shí)人工標(biāo)記兩個(gè)相互影響的頂點(diǎn)。因此,本文將互信息量最小作為選取需人工標(biāo)記的子集S*的另一依據(jù)。

    綜合所述,本文依據(jù)熵最大和互信息量最小兩個(gè)準(zhǔn)則選取需人工標(biāo)記的子集S*?;静襟E為:

    (1)給定擬選取的S*的元素個(gè)數(shù)K,S*初始為空;

    (2)對任一ci∈U,計(jì)算熵H(ci),并按由大到小的順序進(jìn)行排序,排序后的集合記為As;

    (3)如果S*中元素個(gè)數(shù)小于K,選取As中第一位數(shù)據(jù)對應(yīng)的頂點(diǎn)cx,加入集合S*;否則,結(jié)束S*的搜索過程,輸出S*;

    (4)計(jì)算cx與其所有相鄰頂點(diǎn)的互信息量M(cx,cy),選取信息量最小的頂點(diǎn)cy,加入集合S*。

    對于得到的最優(yōu)子集S*,需要專家進(jìn)行標(biāo)記。標(biāo)記之后,再針對S*上的頂點(diǎn)進(jìn)行類別預(yù)測,這樣與這些頂點(diǎn)相鄰的頂點(diǎn)得到的標(biāo)簽可信度更高。

2 實(shí)驗(yàn)結(jié)果與分析

    本節(jié)對本文方法和目前主流的行為識別方法進(jìn)行對比分析,首先介紹實(shí)驗(yàn)數(shù)據(jù)集和對比算法,然后展示和分析實(shí)驗(yàn)結(jié)果。

2.1 實(shí)驗(yàn)數(shù)據(jù)集與對比算法

    目前公開的行為識別數(shù)據(jù)集中,與特殊群體智能看護(hù)相關(guān)的行為識別數(shù)據(jù)集只有一個(gè),是ADL數(shù)據(jù)集[13]。該數(shù)據(jù)集是由Rirsiavash建立的人體日常行為數(shù)據(jù)集,主要用于研究特殊人群的智能輔助系統(tǒng)。該數(shù)據(jù)集包含10個(gè)類別的日常行為,詳見表1。其中,每類行為都由5個(gè)不同的人體完成,且每個(gè)行為重復(fù)進(jìn)行3次。部分行為示例如圖2所示。

jsj5-b1.gif

jsj5-t2.gif

    目前在該數(shù)據(jù)集下測試結(jié)果排名靠前的算法見文獻(xiàn)[13]-[17]。本文直接引用相應(yīng)文獻(xiàn)中的識別率指標(biāo)進(jìn)行對比分析。

2.2 實(shí)驗(yàn)結(jié)果與分析

    本文采用該領(lǐng)域常用的識別率和分類混淆矩陣來評價(jià)算法性能。表2展示了ADL數(shù)據(jù)集下不同算法的識別率指標(biāo),圖3展示了ADL數(shù)據(jù)集下本文算法的分類混淆矩陣。其中,對比算法的性能指標(biāo)取自相應(yīng)文獻(xiàn)。

jsj5-b2.gif

jsj5-t3.gif

    需要指出的是,本文算法在訓(xùn)練時(shí),每類行為選擇4個(gè)視頻片段進(jìn)行學(xué)習(xí),主動學(xué)習(xí)階段的參數(shù)K取值為2,也即每類行為只選擇2個(gè)視頻片段進(jìn)行人工標(biāo)記,其余視頻片段采用本文的主動學(xué)習(xí)方法進(jìn)行訓(xùn)練。

    分析以上實(shí)驗(yàn)結(jié)果,可以得出以下結(jié)論:

    (1)從表2可以看出,本文算法在ADL行為數(shù)據(jù)集下的識別率都是最高的,比相應(yīng)數(shù)據(jù)集下現(xiàn)有測試算法高出一個(gè)百分點(diǎn)以上。可見,本文方法提高了特殊群體行為識別的識別率指標(biāo)。

    (2)從圖3可以看出,在ADL數(shù)據(jù)集下的10個(gè)行為類別中,本文方法僅在2個(gè)行為類別上存在錯(cuò)分現(xiàn)象,低于識別率次高的文獻(xiàn)[16]所述方法??梢?,本文方法區(qū)分不同行為的能力強(qiáng),對群體復(fù)雜行為的混淆率低。

    (3)對于ADL行為數(shù)據(jù)集,本文方法在識別率高于其他對比算法的情況下,人工標(biāo)記的樣本數(shù)量小于其他對比算法,如識別率次高的文獻(xiàn)[16]中每類行為需要標(biāo)記16個(gè)樣本。這樣在實(shí)際應(yīng)用過程中,本文方法可以從海量視頻中主動學(xué)習(xí)行為類別,大幅降低人工標(biāo)記樣本的難度和工作量。

    綜上所述,本文方法不僅提高了特殊群體行為識別的識別率,而且增強(qiáng)了不同行為的區(qū)分能力,同時(shí)需要人工標(biāo)記的樣本數(shù)量少。

3 結(jié)束語

    本文提出了一種基于主動學(xué)習(xí)與預(yù)測的特殊群體行為識別方法,主要設(shè)計(jì)思路包括兩個(gè)方面:(1)在行為描述方面,將視頻的幀內(nèi)特征、幀間特征、目標(biāo)屬性、行為屬性和行為類別組合在一起,構(gòu)建成行為的無向圖模型,這樣在行為識別時(shí)可以綜合利用多層次的關(guān)聯(lián)性特征,減少了單純依靠部分特征引起的虛警現(xiàn)象,增強(qiáng)了特征的區(qū)分能力,提高了行為識別算法對特殊群體行為識別的識別率;(2)在學(xué)習(xí)過程中采用主動學(xué)習(xí)方法,以行為類別頂點(diǎn)的熵最大和行為類別頂點(diǎn)之間的互信息量最小為準(zhǔn)則進(jìn)行主動學(xué)習(xí),降低了人工標(biāo)記樣本的數(shù)量和難度。通過在國際上通用的ADL行為數(shù)據(jù)集上進(jìn)行對比實(shí)驗(yàn),證實(shí)本文方法可以提高行為識別算法對特殊群體行為識別的識別率,降低不同行為間的分類混淆現(xiàn)象,同時(shí)降低了需人工標(biāo)記的樣本數(shù)量。

參考文獻(xiàn)

[1] 楊帥,于忠清,蘇博群,等.基于軌跡分割的老人行為識別方法[J].青島大學(xué)學(xué)報(bào)(自然科學(xué)版),2017(1):103-107.

[2] 李瑞峰,王亮亮,王珂.人體動作行為識別研究綜述[J].模式識別與人工智能,2014(1):35-48.

[3] KIHL O,PICARD D,GOSSELIN P H.Local polynomial space-time descriptors for action classification[J].Machine Vision & Applications,2016,27(3):351-361.

[4] MA S,ZHANG J,IKIZLER-CINBIS N,et al.Action recognition and localization by hierarchical space-time segments[C].IEEE International Conference on Computer Vision.IEEE,2014:2744-2751.

[5] 王泰青,王生進(jìn).基于中層時(shí)空特征的人體行為識別[J].中國圖象圖形學(xué)報(bào),2015,20(4):520-526.

[6] EVERTS I,GEMERT J C V,GEVERS T.Evaluation of color spatio-temporal interest points for human action recognition[J].IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society,2014,23(4):1569-1580.

[7] Wang Yangyang,Li Yibo,Ji Xiaofei.Human action recognition based on normalized interest points and super-interest points[J].International Journal of Humanoid Robotics,2014,11(1):145005.

[8] LI Y,YE J,WANG T,et al.Augmenting bag-of-words:a robust contextual representation of spatiotemporal interest points for action recognition[J].Visual Computer,2015,31(10):1383-1394.

[9] WANG P,LI W,GAO Z,et al.Action recognition from depth maps using deep convolutional neural networks[J].IEEE Transactions on Human-Machine Systems,2016,46(4):498-509.

[10] SADANAND S.Action bank:a high-level representation of activity in video[C].IEEE Conference on Computer Vision & Pattern Recognition,2012:1234-1241.

[11] AGUSTI P,TRAVER V J,PLA F.Bag-of-words with aggregated temporal pair-wise word co-occurrence for human action recognition[J].Pattern Recognition Letters,2014,49(49):224-230.

[12] Pu Songtao,Zha Hongbin.Video object segmentation via two-frame graph model[J].Beijing Daxue Xuebao Ziran Kexue Ban/acta Scientiarum Naturalium Universitatis Pekinensis,2015,51(3):409-417.

[13] FEICHTENHOFER C,PINZ A,ZISSERMAN A.Convolutional two-stream network fusion for video action recognition[C].Computer Vision and Pattern Recognition.IEEE,2016:1933-1941.

[14] FERNANDO B,GAVVES E,ORAMAS M J,et al.Modeling video evolution for action recognition[C].Computer Vision and Pattern Recognition.IEEE,2015:5378-5387.

[15] WANG H,DAN O,VERBEEK J,et al.A robust and efficient video representation for action recognition[J].International Journal of Computer Vision,2016,119(3):219-238.

[16] SINGH S,VELASTIN S A,RAGHEB H.MuHAVi:a multicamera human action video dataset for the evaluation of action recognition methods[C].Seventh IEEE International Conference on Advanced Video and Signal Based Surveillance.IEEE,2010:48-55.

[17] GUO K,ISHWAR P,KONRAD J.Action recognition from video using feature covariance matrices[J].IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society,2013,22(6):2479-2494.



作者信息:

陳凡健

(茂名職業(yè)技術(shù)學(xué)院 計(jì)算機(jī)工程系,廣東 茂名525000)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。