《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 通信與網(wǎng)絡(luò) > 設(shè)計(jì)應(yīng)用 > 基于VGG16網(wǎng)絡(luò)的人臉情緒識(shí)別
基于VGG16網(wǎng)絡(luò)的人臉情緒識(shí)別
2022年電子技術(shù)應(yīng)用第1期
蔡 靖,杜佳辰,王 慶,周泓任
吉林大學(xué) 儀器科學(xué)與電氣工程學(xué)院,吉林 長春130026
摘要: 近年來,如何通過人工智能對人的面部表情進(jìn)行識(shí)別分析成為一個(gè)研究熱點(diǎn),利用人工智能可以快速地分析人的面部情緒,并以此為基礎(chǔ)進(jìn)行進(jìn)一步研究。在深度學(xué)習(xí)中,傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)存在對面部表情特征的提取不充分以及計(jì)算機(jī)參數(shù)量較大的問題,導(dǎo)致分類準(zhǔn)確率較低。因此,提出了基于VGG16網(wǎng)絡(luò)的人臉表情識(shí)別算法,通過與InceptionV3、InceptionResNetV2、ResNet50等模型實(shí)驗(yàn)對比,結(jié)果表明,VGG16神經(jīng)網(wǎng)絡(luò)在FER2013PLUS測試數(shù)據(jù)集上的識(shí)別準(zhǔn)確率為79%,準(zhǔn)確率比傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)高。
中圖分類號: TP183;TP391.41
文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.211516
中文引用格式: 蔡靖,杜佳辰,王慶,等. 基于VGG16網(wǎng)絡(luò)的人臉情緒識(shí)別[J].電子技術(shù)應(yīng)用,2022,48(1):67-70,75.
英文引用格式: Cai Jing,Du Jiachen,Wang Qing,et al. Facial emotion recognition based on VGG16 network[J]. Application of Electronic Technique,2022,48(1):67-70,75.
Facial emotion recognition based on VGG16 network
Cai Jing,Du Jiachen,Wang Qing,Zhou Hongren
College of Instrumentation & Electrical Engineering,Jilin University,Changchun 130026,China
Abstract: In recent years, how to recognize and analyze people′s facial expressions through artificial intelligence has become a research hotspot. Using artificial intelligence can quickly analyze people′s facial emotions, and further research is carried out on this basis. In deep learning, the traditional convolutional neural network can not extract facial expression features sufficiently, and the amount of computer parameters is large, which leads to low classification accuracy. Therefore, a facial expression recognition algorithm based on VGG16 neural network is proposed. Compared with the model experiments of InceptionV3, InceptionResNetV2 and ResNet50, the results show that the recognition accuracy of VGG16 neural network on FER2013PLUS test data set is 79%, which is higher than that of traditional convolution neural network.
Key words : deep learning;convolutional neural network;emotion recognition;VGG16

0 引言

    Hinton等人在研究深度卷積神經(jīng)網(wǎng)絡(luò)中通過引入ReLU函數(shù)以及采用多GPU訓(xùn)練等方式加快了網(wǎng)絡(luò)的訓(xùn)練速度并提高了網(wǎng)絡(luò)模型的準(zhǔn)確率[1]。LeCun等人表明深度學(xué)習(xí)通過使用反向傳播算法來發(fā)現(xiàn)大型數(shù)據(jù)集中的復(fù)雜結(jié)構(gòu),以指示機(jī)器應(yīng)如何更改用于從前一層的表示計(jì)算每一層的表示的內(nèi)部參數(shù)。深度卷積網(wǎng)絡(luò)在處理圖像、視頻、語音和音頻方面取得了突破性進(jìn)展,而遞歸網(wǎng)絡(luò)則為文本和語音等順序數(shù)據(jù)帶來了光明[2]。隨著科學(xué)技術(shù),尤其是計(jì)算機(jī)技術(shù)方面的不斷進(jìn)步,人們對卷積神經(jīng)網(wǎng)絡(luò)的研究也不斷深入,面部表情識(shí)別技術(shù)也隨之得到了發(fā)展。同時(shí),一些問題也隨之而來,例如:如何提高面部表情分類的準(zhǔn)確率,如何能夠在保證準(zhǔn)確率的前提下減少計(jì)算的參數(shù)量等。

    Tang等人[3]提出將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)中融入支持向量機(jī)(SVM),同時(shí)修改了全連接層中的計(jì)算損失值的方法,在表情數(shù)據(jù)集上的測試結(jié)果為71.2%,斬獲了當(dāng)年Kaggle比賽的一等獎(jiǎng)。崔鳳焦[4]將卷積神經(jīng)網(wǎng)絡(luò)、Adaboost和支持向量機(jī)3種模型算法結(jié)構(gòu)進(jìn)行相互比較和設(shè)計(jì)優(yōu)化,在Cohn-Kanade表情庫中實(shí)現(xiàn)了對人臉情緒的智能識(shí)別,平均識(shí)別率最高達(dá)到了74.92%。謝鑫等人[5]采用了耗時(shí)加長的杜鵑算法(CuckooSearch,CS)對ResNet50模型進(jìn)行了變更改進(jìn),提高了準(zhǔn)確率并使算法不會(huì)在調(diào)參時(shí)陷入梯度消失或爆炸的問題,準(zhǔn)確率達(dá)到了74.3%。陳佳等人[6]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)集成的表情識(shí)別方法,子網(wǎng)結(jié)構(gòu)在第一階段訓(xùn)練3個(gè)子網(wǎng)絡(luò),采用Batch Normalization方法和Dropout層來加速網(wǎng)絡(luò)的收斂。接著去掉3個(gè)子網(wǎng)絡(luò)的輸出層,使用SVM進(jìn)行第二階段的訓(xùn)練,完成最終表情的預(yù)測,其準(zhǔn)確率達(dá)到了70.84%。




本文詳細(xì)內(nèi)容請下載:http://theprogrammingfactory.com/resource/share/2000003910。




作者信息:

蔡  靖,杜佳辰,王  慶,周泓任

(吉林大學(xué) 儀器科學(xué)與電氣工程學(xué)院,吉林 長春130026)




wd.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。