魯亞男 魯林溪 杜東舫
摘要 隨著社交網(wǎng)絡(luò)和社會標簽系統(tǒng)的飛速發(fā)展,新的標簽和概念不斷涌現(xiàn)。而對于圖像分類任務(wù)而言,傳統(tǒng)的機器學(xué)習(xí)方法通常需要大量的有標記數(shù)據(jù)才能訓(xùn)練出有效的模型,因此如何合理使用這些新出現(xiàn)的沒有標記信息的標簽和概念對目標圖像進行有效分類成為機器學(xué)習(xí)中迫切需要解決的問題。本文通過借鑒自編碼器的結(jié)構(gòu),提出了一個同時考慮正向投影和反向投影的新模型來解決零樣本學(xué)習(xí)在圖像分類中的應(yīng)用。
【關(guān)鍵詞】零樣本學(xué)習(xí) 自編碼器 圖像分類
1 引言
傳統(tǒng)的圖像分類任務(wù)旨在將測試圖像分類到確定的標簽集中,但隨著社交網(wǎng)絡(luò)和社會標簽系統(tǒng)的飛速發(fā)展,新的標簽和概念不斷涌現(xiàn),隨之而來的是人們使用這些新標簽對圖像進行標記的需求。而已有的監(jiān)督學(xué)習(xí)方法需要大量的標記信息才能進行有效分類,因此不能適用于這種沒有標記信息的情況,而無監(jiān)督學(xué)習(xí)的方法雖然可行,但卻不能充分利用已有的相關(guān)領(lǐng)域中的信息來提高目標領(lǐng)域中的分類性能。針對這種情況,零樣本學(xué)習(xí)應(yīng)運而生。
在零樣本學(xué)習(xí)中,源領(lǐng)域和目標領(lǐng)域含有不同的標簽集,并且對于目標領(lǐng)域中的標簽集沒有有標記的訓(xùn)練樣本可用。因此,零樣本學(xué)習(xí)的目標主要是通過將從有充足訓(xùn)練樣本的源領(lǐng)域中的己知類中學(xué)到的知識有效地遷移到目標領(lǐng)域中,以此來為目標領(lǐng)域中的在訓(xùn)練過程中沒有出現(xiàn)過的新類構(gòu)建有效的分類模型。本文通過借鑒自編碼器的結(jié)構(gòu),將會給出一個采用了編碼.解碼框架的新的零樣本學(xué)習(xí)方法,并且使用標準的零樣本學(xué)習(xí)的數(shù)據(jù)集來驗證提出的算法的有效性。
2 符號定義與說明
4 實驗分析
4.1 數(shù)據(jù)集與實驗設(shè)置
本文采用4個標準的零樣本學(xué)習(xí)數(shù)據(jù)集(aPY、AwA、SUN和CUB)進行實驗,確保在實驗過程中訓(xùn)練類和測試類是不相交的。然后選擇3個當(dāng)前最優(yōu)的零樣本學(xué)習(xí)模型作為對比算法。模型參數(shù)的選擇采用交叉驗證法,最后算法的整體性能采用它在新的目標類上的分類準確度進行評估。
4.2 實驗結(jié)果與分析
實驗結(jié)果如表1所示。從中可以看出:本文提出的RevIZSL模型在4個數(shù)據(jù)集AwA、CUB、aPY和SUN上的分類準確度與對比算法相比有顯著的提升。尤其是在細粒度數(shù)據(jù)集CUB上的明顯提高,表明了提出的算法具有很好的判別能力,從而更進一步說明了RevIZSL算法的有效性。
5 結(jié)論
本文基于編碼.解碼框架提出了一個新的零樣本學(xué)習(xí)模型,并在自編碼器的共享參數(shù)思想的啟發(fā)下,在模型中結(jié)合了一個簡單有效的正則化項。受益于編碼,解碼框架,使得RevIZSL模型具有很好的魯棒性,并避免了Hubness問題的影響。為了解決提出的模型,本文也給出了相應(yīng)的簡單有效的學(xué)習(xí)算法。并通過實驗部分與現(xiàn)有算法進行對比,說明了提出算法的有效性。
參考文獻
[1] Lampert,C.H,H.Nickisch, and S.Harmeling.Learning to detect unseenobject classes by between-classattribute transfer. IEEE, 2009.
[2] Farhadi,Ali, et al. "Describing objectsby their attributes. "Computer Visionand Pattern Recognition,2009.CVPR2009.IEEEConferenceonIEEE, 2009:1778-1785.
[3] Shigeto, Yutaro, et al. "Ridgeregression,hubness,and zero-shot learning.”Joint EuropeanConference on Machine Learning andKnowledge Discovery in DatabasesSpringer, Cham, 2015: 135-151.
[4]Paredes,B. Romera, and P.Torr. "Anembarrassingly simple approach tozero-shot learning.”(2015).
[5] Fu, Yanwei, and L.Sigal. "Semi-supervised Vocabulary-InformedLearning.” Computer Vision andPattern Recognition IEEE, 2016: 5337-5346.
[6] Changpinyo, Soravit,et al."Synthesized Classifiers for Zero-Shot Learning.”(2016): 5327-5336.