文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.211516
中文引用格式: 蔡靖,杜佳辰,王慶,等. 基于VGG16網(wǎng)絡(luò)的人臉情緒識(shí)別[J].電子技術(shù)應(yīng)用,2022,48(1):67-70,75.
英文引用格式: Cai Jing,Du Jiachen,Wang Qing,et al. Facial emotion recognition based on VGG16 network[J]. Application of Electronic Technique,2022,48(1):67-70,75.
0 引言
Hinton等人在研究深度卷積神經(jīng)網(wǎng)絡(luò)中通過引入ReLU函數(shù)以及采用多GPU訓(xùn)練等方式加快了網(wǎng)絡(luò)的訓(xùn)練速度并提高了網(wǎng)絡(luò)模型的準(zhǔn)確率[1]。LeCun等人表明深度學(xué)習(xí)通過使用反向傳播算法來發(fā)現(xiàn)大型數(shù)據(jù)集中的復(fù)雜結(jié)構(gòu),以指示機(jī)器應(yīng)如何更改用于從前一層的表示計(jì)算每一層的表示的內(nèi)部參數(shù)。深度卷積網(wǎng)絡(luò)在處理圖像、視頻、語音和音頻方面取得了突破性進(jìn)展,而遞歸網(wǎng)絡(luò)則為文本和語音等順序數(shù)據(jù)帶來了光明[2]。隨著科學(xué)技術(shù),尤其是計(jì)算機(jī)技術(shù)方面的不斷進(jìn)步,人們對卷積神經(jīng)網(wǎng)絡(luò)的研究也不斷深入,面部表情識(shí)別技術(shù)也隨之得到了發(fā)展。同時(shí),一些問題也隨之而來,例如:如何提高面部表情分類的準(zhǔn)確率,如何能夠在保證準(zhǔn)確率的前提下減少計(jì)算的參數(shù)量等。
Tang等人[3]提出將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)中融入支持向量機(jī)(SVM),同時(shí)修改了全連接層中的計(jì)算損失值的方法,在表情數(shù)據(jù)集上的測試結(jié)果為71.2%,斬獲了當(dāng)年Kaggle比賽的一等獎(jiǎng)。崔鳳焦[4]將卷積神經(jīng)網(wǎng)絡(luò)、Adaboost和支持向量機(jī)3種模型算法結(jié)構(gòu)進(jìn)行相互比較和設(shè)計(jì)優(yōu)化,在Cohn-Kanade表情庫中實(shí)現(xiàn)了對人臉情緒的智能識(shí)別,平均識(shí)別率最高達(dá)到了74.92%。謝鑫等人[5]采用了耗時(shí)加長的杜鵑算法(CuckooSearch,CS)對ResNet50模型進(jìn)行了變更改進(jìn),提高了準(zhǔn)確率并使算法不會(huì)在調(diào)參時(shí)陷入梯度消失或爆炸的問題,準(zhǔn)確率達(dá)到了74.3%。陳佳等人[6]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)集成的表情識(shí)別方法,子網(wǎng)結(jié)構(gòu)在第一階段訓(xùn)練3個(gè)子網(wǎng)絡(luò),采用Batch Normalization方法和Dropout層來加速網(wǎng)絡(luò)的收斂。接著去掉3個(gè)子網(wǎng)絡(luò)的輸出層,使用SVM進(jìn)行第二階段的訓(xùn)練,完成最終表情的預(yù)測,其準(zhǔn)確率達(dá)到了70.84%。
本文詳細(xì)內(nèi)容請下載:http://theprogrammingfactory.com/resource/share/2000003910。
作者信息:
蔡 靖,杜佳辰,王 慶,周泓任
(吉林大學(xué) 儀器科學(xué)與電氣工程學(xué)院,吉林 長春130026)