《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 設(shè)計(jì)應(yīng)用 > 基于改進(jìn)VGG16的猴子圖像分類方法
基于改進(jìn)VGG16的猴子圖像分類方法
《信息技術(shù)與網(wǎng)絡(luò)安全》2020年第5期
田佳鷺,鄧立國
摘要: 為提高對細(xì)粒度圖像分類的準(zhǔn)確性和分類速度,提出基于改進(jìn)VGG16和遷移學(xué)習(xí)的圖像分類方法。首先從kaggle平臺中獲取十種不同猴子數(shù)據(jù)集,并對數(shù)據(jù)集進(jìn)行標(biāo)準(zhǔn)化處理,包含圖片去椒鹽噪聲、將數(shù)據(jù)集轉(zhuǎn)換為TensorFlow中提供的統(tǒng)一TFRecord數(shù)據(jù)格式。然后遷移學(xué)習(xí)改進(jìn)的VGG16卷積神經(jīng)網(wǎng)絡(luò),模型的優(yōu)化包括利用Swish作為激活函數(shù)、將softmax loss與center loss相結(jié)合作為損失函數(shù)以實(shí)現(xiàn)更好的聚類效果、采用性能完善的Adam優(yōu)化器。用訓(xùn)練集訓(xùn)練模型以確定微調(diào)參數(shù)信息,再用測試集檢驗(yàn)?zāi)P蜏?zhǔn)確性。結(jié)果表明,該方法對猴子圖像分類的準(zhǔn)確度可達(dá)到98.875%,分類速度也得到了顯著提升。與其他傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)模型相比,該方法具有更高的準(zhǔn)確性和適用性。
中圖分類號:TP391.41;TP18 文獻(xiàn)標(biāo)識碼:A DOI: 10.19358/j.issn.2096-5133.2020.05.002
引用格式:田佳鷺,鄧立國.基于改進(jìn)VGG16的猴子圖像分類方法[J].信息技術(shù)與網(wǎng)絡(luò)安全,2020,39(5):6-11.
Abstract:
Key words :

隨著深度學(xué)習(xí)技術(shù)的不斷進(jìn)步,對于通用對象的類別分析,卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)達(dá)到了很高的水平,但對于細(xì)粒度圖像分類的穩(wěn)定性目前還有待提升。所謂細(xì)粒度圖像分類,通常用于描述對同一類事物進(jìn)行細(xì)致的劃分,所以待分類圖像的區(qū)別要更加精準(zhǔn),類內(nèi)區(qū)別大而類間區(qū)別小,粒度則更為精細(xì)。本文方法基于改進(jìn)的VGG16深度卷積神經(jīng)網(wǎng)絡(luò)。盡管原始的VGG16模型已經(jīng)擁有了良好的普適性和實(shí)用價值,并且在各種圖像分類和目標(biāo)檢測任務(wù)中都體現(xiàn)了極佳的效果,通過遷移學(xué)習(xí)改進(jìn)的VGG16模型,能夠?qū)⒁蚜?xí)得的特征和性能應(yīng)用到待解決的問題中,極大地節(jié)省了訓(xùn)練時間。此外在硬件上選取GPU進(jìn)行訓(xùn)練,使得速度得到進(jìn)一步提升。為了改善原始的交叉熵?fù)p失函數(shù)無法保證提取的特征具有識別度的缺點(diǎn),在VGG16模型中引入將center loss損失函數(shù)與交叉熵?fù)p失函數(shù)相結(jié)合的辦法。此外還運(yùn)用了新型的Swish激活函數(shù),以及擁有自適應(yīng)學(xué)習(xí)率的Adam優(yōu)化器。最后利用不同種類的猴子訓(xùn)練集對改進(jìn)的模型重新訓(xùn)練,以獲得少量微調(diào)的參數(shù)信息。經(jīng)驗(yàn)證該方法對猴子圖像識別的精準(zhǔn)度可提升到98.875%,而原始的VGG16模型在該數(shù)據(jù)集上的分類僅能達(dá)到90.210%的準(zhǔn)確率,可以證明改進(jìn)后的模型具有更好的識別效果。




本文詳細(xì)內(nèi)容請下載http://theprogrammingfactory.com/resource/share/2000003088


作者信息:田佳鷺,鄧立國(沈陽師范大學(xué) 數(shù)學(xué)與系統(tǒng)科學(xué)學(xué)院,遼寧 沈陽 110034)


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。