宋文廣 李程文 譚建平
摘 ? 要:傳統(tǒng)的圖數(shù)據(jù)分類(lèi)研究主要集中在單標(biāo)簽集,然而在很多應(yīng)用中,每個(gè)圖數(shù)據(jù)都會(huì)同時(shí)具有多個(gè)標(biāo)簽集。文章研究關(guān)于多標(biāo)簽圖數(shù)據(jù)分類(lèi)問(wèn)題,并提出基于半監(jiān)督的SVM多標(biāo)簽圖數(shù)據(jù)分類(lèi)算法。算法首先通過(guò)一對(duì)多二元分解將多標(biāo)簽圖數(shù)據(jù)分解成多個(gè)單標(biāo)簽圖數(shù)據(jù)。然后對(duì)分解后的圖數(shù)據(jù),運(yùn)用半監(jiān)督SVM進(jìn)行分類(lèi)。通過(guò)實(shí)驗(yàn)證明,該方法在已標(biāo)注圖數(shù)據(jù)較少情況下具有較高的分類(lèi)精度。
關(guān)鍵詞:圖數(shù)據(jù);多標(biāo)簽;半監(jiān)督;自訓(xùn)練
單標(biāo)簽分類(lèi)(二分類(lèi))是傳統(tǒng)分類(lèi)方法的主要研究方向,它是基于一幅圖只有一個(gè)標(biāo)簽的假設(shè)上。在現(xiàn)實(shí)場(chǎng)景中,所用到的圖數(shù)據(jù)一般都具有多個(gè)標(biāo)簽集[1-2]。
半監(jiān)督學(xué)習(xí)即利用大量無(wú)標(biāo)簽數(shù)據(jù)和少量有標(biāo)簽數(shù)據(jù)共同訓(xùn)練模型。但半監(jiān)督學(xué)習(xí)很難與監(jiān)督學(xué)習(xí)分類(lèi)性能相比,但從目前算法優(yōu)化發(fā)展來(lái)看,半監(jiān)督學(xué)習(xí)很有可能達(dá)到傳統(tǒng)分類(lèi)方法的性能。
1 ? ?基于半監(jiān)督的SVM分類(lèi)算法
2 ? ?實(shí)驗(yàn)
2.1 ?數(shù)據(jù)集
用一組化合物抗癌活性性能數(shù)據(jù)集作為實(shí)驗(yàn)用多標(biāo)簽數(shù)據(jù)集。該組數(shù)據(jù)包含了化合物對(duì)于10種癌癥的抗癌活性性能的記錄,將10種癌癥中記錄不完全的數(shù)據(jù)移除,得到812個(gè)被分配了10個(gè)標(biāo)簽的圖。
2.2 ?評(píng)估方法
多標(biāo)簽分類(lèi)比傳統(tǒng)單標(biāo)簽分類(lèi)問(wèn)題需要不同的實(shí)驗(yàn)結(jié)果評(píng)估標(biāo)準(zhǔn)。在這里采用Ranking Loss和Average Precision評(píng)估多標(biāo)簽[3-4]分類(lèi)性能。實(shí)驗(yàn)結(jié)果評(píng)估標(biāo)準(zhǔn)如下:
(1)Ranking Loss:評(píng)估分類(lèi)實(shí)際輸出值的性能,它的值由錯(cuò)誤預(yù)測(cè)的標(biāo)簽對(duì)的平均值計(jì)算得到的。
(2)平均準(zhǔn)確率:評(píng)估排列順序在特殊標(biāo)簽y之上的標(biāo)簽的平均值,把y設(shè)置為真實(shí)標(biāo)簽集。
2.3 ?實(shí)驗(yàn)設(shè)置
為了體現(xiàn)本文算法的有效性與實(shí)用性,采用以下對(duì)比方法進(jìn)行實(shí)驗(yàn)。
(1)單標(biāo)簽+SVM:這個(gè)方法采用單標(biāo)簽圖數(shù)據(jù)訓(xùn)練普通的SVM模型。
(2)多標(biāo)簽+SVM:這個(gè)方法采用多標(biāo)簽圖數(shù)據(jù)訓(xùn)練自適應(yīng)SVM模型。
2.4 ?實(shí)驗(yàn)結(jié)果
實(shí)驗(yàn)中,將每一個(gè)圖數(shù)據(jù)集平均分割成10個(gè)小數(shù)據(jù)集。在這些數(shù)據(jù)集中只采用其中的一個(gè)作為測(cè)試集,其他的9個(gè)作為訓(xùn)練集,每一組實(shí)驗(yàn)重復(fù)進(jìn)行10次。實(shí)驗(yàn)結(jié)果如圖1—2所示。圖1表示1-AvgPrec的實(shí)驗(yàn)結(jié)果,圖2表示Ranking Loss的實(shí)驗(yàn)結(jié)果。
如圖1—2所示,縱坐標(biāo)則分別表示1-AvgPrec值和Ranking Loss值,橫坐標(biāo)表示實(shí)驗(yàn)次數(shù)。由圖1—2可知,無(wú)論是Ranking Loss還是1-AvgPrec,文章提出的方法(MG+STSVM)輸出效果比(G+SVM)的輸出效果略好。
3 ? ?結(jié)語(yǔ)
本文采用半監(jiān)督SVM方法可以利用大量未標(biāo)注數(shù)據(jù)來(lái)幫助分類(lèi)模型的訓(xùn)練,從而挖掘出未標(biāo)注數(shù)據(jù)中可能含有的對(duì)分類(lèi)起重要作用的信息。進(jìn)而,在已標(biāo)注多標(biāo)簽圖數(shù)據(jù)比較少的情況下,得到不錯(cuò)的分類(lèi)器。在以后的研究工作中,將會(huì)繼續(xù)完善研究方法,并尋找提高目標(biāo)域子圖數(shù)量的算法。
[參考文獻(xiàn)]
[1]BRAVO MARQUEZ F,F(xiàn)RANK E,MOHAMMAD S M,et al.Determining word-emotion associations from tweets by multi-label classification[C].Nebraska:IEEE/WIC/ACM International Conference on Web Intelligence,2017.
[2]AGGARWAL C C,ZHAI C X.A survey of text classification algorithms[J].Springer US,2012(3):163-222.
[3]SEBASTINAI F.Machine learning in automated text categorization[J].ACM Computing Surveys,2002(1):1-47.
[4]YEH C K,WU W C,KO W J,et al.Learning deep latent spaces for multi-label classification[J]. 2017(7):12-15.