文獻標識碼:A
DOI:10.19358/j.issn.2097-1788.2023.08.010
引用格式:明水根,張洪.基于因果關(guān)系和特征對齊的圖像分類域泛化模型[J].網(wǎng)絡(luò)安全與數(shù)據(jù)治理,2023,42(8):59-65.
0引言
深度學習在計算機視覺和自然語言處理等領(lǐng)域都取得了驚人的成就。傳統(tǒng)的深度學習方法基于一個基本假設(shè):訓練數(shù)據(jù)和測試數(shù)據(jù)是獨立且同分布的(Independent and Identically Distribution,IID)。但是,在現(xiàn)實任務(wù)中,如醫(yī)學成像和自主駕駛等領(lǐng)域,這種IID假設(shè)通常不成立。當訓練數(shù)據(jù)的分布(也稱為域)與測試數(shù)據(jù)的分布不同時,由于存在分布差距,訓練出的模型通常表現(xiàn)不佳。訓練數(shù)據(jù)的域與測試數(shù)據(jù)的域不同的現(xiàn)象也被稱為域偏移。上述觀點促進了域適應(yīng)(Domain Adaptation,DA)和域泛化(Domain Generalization,DG)的研究。域泛化的目標是從多個相似分布(也稱為源域)中學習一種通用表征。一般數(shù)據(jù)都存在某些與輸出(即標簽)相關(guān)且在不同域間都保持不變的特征,那么就可以將這種特征遷移到具有未見過分布(也稱為目標域)的測試數(shù)據(jù)上。域泛化任務(wù)的示例如圖1所示。
大多數(shù)域泛化研究集中在學習不受域干擾的表征,從而得到所謂的域不變特征。例如,Li等[1]采用了域適應(yīng)研究中的思想,使用對抗訓練來學習域不變特征以解決域泛化問題。盡管這些基于學習策略的方法在真實世界的任務(wù)中表現(xiàn)良好,但缺乏理論可解釋性。Ilse等[2]和Peng等[3]采用特征解耦方法來學習標簽的特定特征,并希望這些特征是關(guān)于域不變的。這種基于特征解耦的方法在理論上是可解釋的,但在實際的域泛化任務(wù)中表現(xiàn)不佳。因此,研究既具有理論可解釋性又在真實的域泛化任務(wù)中表現(xiàn)良好的方法非常重要。
本文提出了一種稱為對抗域不變變分自動編碼器(Adversarial Domain Invariant Variational AutoEncoder,ADIVA)的模型來解決域泛化問題。該模型先使用變分自動編碼器[4](Variational AutoEncoder,VAE)框架將輸入數(shù)據(jù)解耦成三個潛在因子:域信息因子、標簽信息因子和包含任何殘留信息的因子,然后,將因果關(guān)系引入到域泛化任務(wù)中,將域偏移問題拆分為兩個相關(guān)分布的偏移問題。為了修正這些偏移,本文采用特征對齊方法來學習域不變特征。此外,為了解決VAE中存在的解耦不完全問題,本文采用對抗訓練來消除潛在因子中的混淆信息,以進一步提高模型的實際表現(xiàn)。本文在兩個域泛化公開數(shù)據(jù)集——Rotated MNIST和PACS上,對ADIVA進行了大量實驗。實驗結(jié)果表明,ADIVA在域泛化表現(xiàn)方面具有與目前最優(yōu)方法相當?shù)母偁幜?。本文的主要貢獻有:其一,本文基于域泛化中的因果關(guān)系使用特征對齊來解決域偏移問題;其二,本文采用對抗訓練來解決VAE特征解耦不完全的問題,提升ADIVA在實際任務(wù)中的性能;其三,本文證明了ADIVA的可識別性理論。
本文詳細內(nèi)容請下載:http://theprogrammingfactory.com/resource/share/2000005468
作者信息:
明水根1,張洪2
(1.中國科學技術(shù)大學大數(shù)據(jù)學院,安徽合肥230026;2.中國科學技術(shù)大學管理學院,安徽合肥230026)