摘 要: 在垃圾短信過濾系統(tǒng)中,傳統(tǒng)方法的短信息特征很難準確地考慮到詞語的貢獻。提出了一種新的特征詞查找和特征構(gòu)造方法,較好地反映了詞語之間的關系和在短信中的貢獻度。通過聯(lián)合采用稀疏自編碼器和支撐矢量機(SVM)進行學習和分類仿真實驗,結(jié)果表明過濾效果比目前報道的類似分類器效果有顯著的提升和改進。
關鍵詞: 支撐矢量機; 稀疏自編碼器; 短信; 特征提取
中圖分類號: TN911?34; TP391 文獻標識碼: A 文章編號: 1004?373X(2016)17?0145?04
0 引 言
每年移動運營商和國家都花費了大量的人力和物力進行垃圾短信治理,但公眾還是不滿意治理效果,主要是由于短信自動識別技術(shù)方面還有待提高的地方。本文利用SVM[1?2]完成短信分類,取得了比KNN更好的效果,但如果數(shù)據(jù)量大,訓練的時間則比較長。但是SVM有個很大的優(yōu)解,能夠收斂到全局最優(yōu)解。因此選擇SVM作為分類器,是實際應用中不錯的選擇;稀疏自編碼(SAE)是深度學習理論的強力工具,它具有獲取從低層到高層特征的能力,同時具有稀疏數(shù)據(jù)能力[3]。SAE這些能力正好合乎SVM的有效分類應用。
本文主要根據(jù)實際完成的移動垃圾過濾項目的結(jié)果,結(jié)合理論進行提升。首先通過深度學習方法取得詞語在構(gòu)成一個短信語義中的貢獻度,從而獲得特征詞庫和特征,接著完成短信的特征構(gòu)建,然后用堆疊稀疏自編碼對原始特征數(shù)據(jù)進行有效特征分解,最后利用SVM分類器短信進行分類識別。實驗表明本文算法更能精確地過濾垃圾短信,比目前報道的效果[1?2]有顯著的提升和改進。
由于沒有公開的短信素材可以得到,本文利用以前所做項目收集的大約有300萬條的短信作為實驗樣本。
3 實驗與結(jié)論
本文拿出每類大約42 560條垃圾短信(訓練樣本數(shù)的2倍)和70 000條正常短信作為測試樣本。把這些測試樣本首先按照式(5),式(6)的方式取得所有短信的稀疏編碼向量。
在訓練階段仿真用的稀疏自編碼器代碼借鑒了DeepLearnToolbox?master工具包;多類帶概率輸出的SVM訓練和分類器借鑒了臺灣的林智仁LIBSVM工具。
稀疏自編碼器訓練參數(shù)和結(jié)果見第2節(jié)。圖2是SVM訓練后的參數(shù)設置和支撐矢量情況,考慮到政治敏感性,分類器SVM中[C1,C2,C3,C4]四個類的輸出概率下限分別是0.67,0.9,0.95,0.8(可以根據(jù)不同需求調(diào)整),比這個下限值小的樣本本文認為是正常短信。
為了能將識別結(jié)果與已有文獻[1,4]比較,本文按照文獻[4]列出的指標對本文的結(jié)果進行了統(tǒng)計(見表2)。統(tǒng)計指標有:查準率(P)、查全率(R,召回率) 和正常短信誤分率(N)。同時本文用?T表示訓練樣本,?C表示測試樣本。比如P?T表示的是訓練樣本的查準率。
從表2可以得出以下結(jié)論:本文設計的分類器,推廣性能較好。其分類效果優(yōu)于文獻[1,4]。主要是本文設計的特征采用了深度學習的理論,比較準確地考慮了詞語在短信中的權(quán)重;從訓練時間來看稍微比文獻[4]的方法長,主要是因為本文采用了稀疏自編碼器,需要批量過濾短信。
本文需要改進的是如何減少學習時間,這需要從模型上進行研究。另外,短信的特征除了本文特征詞的特征外,還可以考慮主被叫、來源地等特征,分類效果會更好。
參考文獻
[1] 李慧,葉鴻,潘學瑞,等.基于SVM 的垃圾短信過濾系統(tǒng)[J].計算機安全,2012(6):34?38.
[2] 楊明極,宋艷艷.支持向量機在垃圾短信攔截系統(tǒng)中的實現(xiàn)[J].數(shù)字技術(shù)與應用,2012(1):32.
[3] SHIN H C, ORTON M R, COLLINS D J, et al. Stacked auto?encoders for unsupervised feature learning and multiple organ detection in a pilot study using 4D patient data [J]. IEEE tran?sactions on pattern analysis and machine intelligence, 2013, 35(8): 1930?1943.
[4] 張永軍,劉金嶺.基于特征詞的垃圾短信分類器模型[J].計算機應用,2013,33(5):1334?1337.
[5] BENGIO Y, DUCHARME B, VINCENT P, et a1. A neural probabilistic language model [J]. Journal of machine learning research, 2003, 3: 1137?1155.
[6] 袁丁.中文短文本的情感分析[D].北京:北京郵電大學,2015.
[7] SCHOLKOPF B, PLATT J, HOFMANN T, et al. Efficient learning of sparse representations with an energy?based model [C]// Proceedings of 2006 IEEE Conference on Advances in Neural Information Processing Systems. US: IEEE, 2006: 1137?1144.
[8] 段寶彬,韓立新,謝進.基于堆疊稀疏自編碼的模糊C?均值聚類算法[J].計算機工程與應用,2015,51(4):51?56.
[9] LEOPOLD E, KINDERMANN J. Text categorization with support vector machines, how to represent text in input space [J]. Machine learning, 2002, 46(1): 423?444.
[10] HUANG T K, WENG R C, LIN C J. Generalized Bradley?Terry models and multi?class probability estimates [J]. Journal of machine learning research, 2006, 7(1): 85?115.