這項(xiàng)工作由騰訊 AI Lab 獨(dú)立完成,其目的是通過(guò)研發(fā)新的深度學(xué)習(xí)模型以提高跨年齡人臉識(shí)別的精度。
在這篇文章里,我們提出了一種正交深度特征分解算法 OE-CNNs,通過(guò)把深度特征正交分解為年齡分量和身份分量,從而將年齡分量和身份分量有效分離開(kāi),從而達(dá)到減少年齡差異、提高跨年齡人臉識(shí)別精度的目標(biāo)。
我們?cè)诙鄠€(gè)跨年齡人臉識(shí)別的國(guó)際評(píng)測(cè)基準(zhǔn)(FG-NET, Morph Album 2, CACD-VS)中都取得了國(guó)際領(lǐng)先的性能,顯著提高了跨年齡人臉識(shí)別的精度。此外,我們還建立了一個(gè)新的跨年齡人臉數(shù)據(jù)庫(kù) CAF 以幫助促進(jìn)跨年齡人臉識(shí)別研究。
跨年齡人臉識(shí)別是人臉識(shí)別領(lǐng)域中的一個(gè)極具挑戰(zhàn)性的國(guó)際性難題。眾所周知,同一個(gè)人的不同年齡階段的圖片會(huì)有非常大的差異,這些差異會(huì)嚴(yán)重影響到跨年齡人臉識(shí)別的精度。迄今為止,深度學(xué)習(xí)已經(jīng)被廣泛運(yùn)用到人臉識(shí)別,并且取得了非常好的性能。但是,對(duì)于跨年齡人臉識(shí)別,問(wèn)題,由于同一個(gè)人在不同年齡階段下的多張人臉之間存在著非常顯著的差異,這嚴(yán)重影響到現(xiàn)有的深度人臉識(shí)別模型的性能。為了克服這個(gè)巨大的年齡差異,在這篇文章里我們研發(fā)了一種新的深度學(xué)習(xí)算法,該算法把深度特征按照模長(zhǎng)方向和角度方向(這兩個(gè)方向是彼此正交的)分別分解為年齡成分和身份成分,如下圖所示。
其中,年齡成分被分解成一維徑向分量,而身份成分則分解為高維角度分量。這兩種分量最后通過(guò)多任務(wù)學(xué)習(xí)的方式同時(shí)訓(xùn)練,最終的損失函數(shù)是二者損失的算術(shù)疊加:
其中身份成分的損失函數(shù)
而年齡成分的損失函數(shù)
基于這種新的分解模型我們可以把人臉的年齡分量和身份分量有效分離開(kāi),并基于身份分量來(lái)做跨年齡人臉識(shí)別從而有效提高跨年齡人臉識(shí)別的精度。
為了進(jìn)一步提高跨年齡人臉識(shí)別性能,我們還采集了一個(gè)面向跨年齡人臉識(shí)別的的新型人臉數(shù)據(jù)庫(kù) CAF。我們通過(guò)在網(wǎng)上搜集名人在不同年齡段拍的照片,以保證這些訓(xùn)練圖片有足夠大的年齡差異。我們的搜集的人名來(lái)源于公共的信息庫(kù),比如 IMDB, Forbes Celebrity, Wikipedia 等。我們的 CAF 數(shù)據(jù)庫(kù)有 4,668 個(gè)不同的人和這些人的 313,000 張圖片。這個(gè)數(shù)據(jù)庫(kù)的樣例和統(tǒng)計(jì)分布如下圖所示。
實(shí)驗(yàn)結(jié)果
在上表的 FG-NET 跨年齡人臉識(shí)別任務(wù)中,我們的新算法 OE-CNNs 取得了高達(dá) 53.26% 的第一識(shí)別率,比第二名的 38.21% 足足高了超過(guò) 15% 的識(shí)別率。
在上表的 Morph Album 2 識(shí)別任務(wù)中,我們的算法也穩(wěn)定地高于其它所有的人臉?biāo)惴ā?/p>
在上表的對(duì)比實(shí)驗(yàn)中,能明顯看出增加了我們新建立的 CAF 人臉數(shù)據(jù)做訓(xùn)練后,對(duì)于上表中的所有人臉?biāo)惴?,它們的識(shí)別率都能顯著獲得提升,這證明了 CAF 對(duì)于跨年齡人臉識(shí)別研究的幫助和價(jià)值。