謝小紅 陸建波 李文韜 劉春霞 黃華梅
(南寧師范大學(xué)計(jì)算機(jī)與信息工程學(xué)院 廣西 南寧 530299)
隨著互聯(lián)網(wǎng)服裝電子商務(wù)迅猛發(fā)展,人們對(duì)服裝圖像識(shí)別分類(lèi)技術(shù)的要求不斷提高。但由于服裝圖像包含的細(xì)粒度分類(lèi)[1]多,視覺(jué)變化大,如形變、光照、拍攝視角、背景影響、鏡頭縮放尺度等,使得人工設(shè)計(jì)特征越來(lái)越難以滿(mǎn)足實(shí)際分類(lèi)的需求。傳統(tǒng)的服裝圖像分類(lèi)方法是基于文本的,即依據(jù)圖像給予的文本描述進(jìn)行分類(lèi)。隨著服裝圖像數(shù)據(jù)量的增加,需要對(duì)大量圖片進(jìn)行人工標(biāo)注,由于每個(gè)人看待圖像的角度不同,則做的圖像標(biāo)注也會(huì)不同,會(huì)對(duì)服裝圖像分類(lèi)的精度造成一定的影響[2]。
近年來(lái),深度學(xué)習(xí)(Deep Learning,DL)[3]已成為當(dāng)前機(jī)器學(xué)習(xí)領(lǐng)域中的重要發(fā)展方向。使用卷積神經(jīng)網(wǎng)絡(luò)CNN[4-5]去解決圖像分類(lèi)中的問(wèn)題漸成主流。越來(lái)越多的研究者們把深度學(xué)習(xí)與服裝分類(lèi)結(jié)合,取得了不錯(cuò)的效果。Liu等[6]收集了一個(gè)大規(guī)模且語(yǔ)義標(biāo)注更全面的服裝數(shù)據(jù)集DeepFashion,提出了FashionNet,對(duì)服裝的類(lèi)別、屬性、ID以及關(guān)鍵點(diǎn)做監(jiān)督進(jìn)行服裝特征學(xué)習(xí)。Wang等[7]采用標(biāo)注感知注意力和分類(lèi)驅(qū)動(dòng)注意力并引入雙向卷積遞歸神經(jīng)網(wǎng)絡(luò)(BCRNNs)來(lái)建模,使網(wǎng)絡(luò)可以進(jìn)行端到端的訓(xùn)練,實(shí)現(xiàn)了最先進(jìn)的時(shí)尚圖像分類(lèi)和地標(biāo)檢測(cè)性能。Ge等[8]提出了一種基于掩碼R-CNN的新型匹配R-CNN框架以端到端的方式解決了服裝檢測(cè)、姿態(tài)估計(jì)、分割和檢索等問(wèn)題。Krizhevsky等[9]提出的AlexNet在2012 ImageNet LSVRC比賽中,獲得深度神經(jīng)網(wǎng)絡(luò)模型的分類(lèi)效果第一。GoogLeNet[10]、VGGNet[11]、ResNet[12]等深度卷積神經(jīng)網(wǎng)絡(luò)模型不斷涌現(xiàn),越來(lái)越多的學(xué)者將這些模型用于具體的圖像識(shí)別任務(wù)中。
傳統(tǒng)的CNN模型在處理圖像分類(lèi)時(shí)存在如下問(wèn)題:CNN模型需要數(shù)百萬(wàn)個(gè)參數(shù)來(lái)達(dá)到訓(xùn)練效果,需要大量時(shí)間訓(xùn)練,訓(xùn)練時(shí)也需要使用大量的標(biāo)記樣本,在訓(xùn)練樣本數(shù)足夠多、網(wǎng)絡(luò)結(jié)構(gòu)比較復(fù)雜的情況下,才能達(dá)到較優(yōu)異的性能[13]。深度分類(lèi)網(wǎng)絡(luò)在ImageNet數(shù)據(jù)集上表現(xiàn)優(yōu)異,但在少量的數(shù)據(jù)上訓(xùn)練復(fù)雜的分類(lèi)網(wǎng)絡(luò)時(shí),可能出現(xiàn)過(guò)擬合和陷入局部最優(yōu)解等現(xiàn)象[9]。
在訓(xùn)練樣本缺失情況下,為了提高整體識(shí)別性能,遷移學(xué)習(xí)的加入可以很好地解決訓(xùn)練樣本缺失帶來(lái)的上述問(wèn)題。本文提出一種基于遷移學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)服裝圖像分類(lèi)方法,該方法有如下特點(diǎn):
(1) 預(yù)訓(xùn)練模型在ImageNet數(shù)據(jù)集上得到有效訓(xùn)練,不斷調(diào)整超參數(shù),使模型能提取到關(guān)于圖像的邊緣、紋理等基本特征,使預(yù)訓(xùn)練模型中的底層特征有著通用性。
(2) 一定量的服裝數(shù)據(jù)集可以再次對(duì)模型超參數(shù)進(jìn)行微調(diào),模型的語(yǔ)義層面參數(shù)得到充分訓(xùn)練和調(diào)整,提取到的目標(biāo)特征具有區(qū)分性。
(3) 遷移模型魯棒性和泛化能力相比更強(qiáng),網(wǎng)絡(luò)的識(shí)別精度有效提升以及收斂速度快。
本文選取經(jīng)典的VGG16、VGG19、Inception_v3、Xception、ResNet50和MnasNet六種深度分類(lèi)網(wǎng)絡(luò)做初始化模型和遷移模型的實(shí)驗(yàn)對(duì)比。實(shí)驗(yàn)表明,本文方法能明顯提高服裝圖像的識(shí)別精度,具有較好的泛化能力和魯棒性。
遷移學(xué)習(xí)[14]是指將模型通過(guò)源域?qū)W習(xí)的遷移運(yùn)用到目標(biāo)域中,即將以往的知識(shí)遷移到另一個(gè)新的領(lǐng)域中。遷移學(xué)習(xí)有四種常見(jiàn)類(lèi)別:基于樣本遷移、基于特征遷移、基于模型遷移以及基于關(guān)系遷移。近幾年,遷移學(xué)習(xí)對(duì)相關(guān)任務(wù)的研究已經(jīng)受到了越來(lái)越多的關(guān)注。Thrun[15]是第一次討論以前學(xué)到的知識(shí)在泛化中所起的作用,尤其是在訓(xùn)練數(shù)據(jù)缺乏的情況下。Yosinsk等[16]通過(guò)對(duì)其他數(shù)據(jù)集采用不同的微調(diào)策略,對(duì)預(yù)先從ImageNet數(shù)據(jù)集中學(xué)習(xí)到的特征的可移植性進(jìn)行了廣泛的研究,發(fā)現(xiàn)當(dāng)基本任務(wù)與目標(biāo)任務(wù)之間的距離增大時(shí),特征的可移植性降低。Wu等[17]結(jié)合了CNN和遷移用于花卉識(shí)別中,取得了很好的分類(lèi)效果。本文在處理超參數(shù)調(diào)優(yōu)以及對(duì)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)進(jìn)行微調(diào)方面進(jìn)行了研究與探索。
下面給出一些遷移學(xué)習(xí)中術(shù)語(yǔ)的定義。
定義1領(lǐng)域(Domains)。一個(gè)領(lǐng)域可以表示為:
D={X,P(x)}
(1)
式中:X表示特征空間;P(x)表示x={x1,x2,…,xn}∈X,xi∈Rd,i=1,2,…,n的邊緣分布,xi表示第i幅圖的特征,Rd表示領(lǐng)域的特征集。
定義2任務(wù)(Task)。給定某一個(gè)具體的領(lǐng)域D={X,P(x)},一個(gè)任務(wù)可以表示為:
T={Y,f(·)}
(2)
根據(jù)遷移學(xué)習(xí)的定義,在源域中對(duì)目標(biāo)域任務(wù)的完成存在有用的知識(shí)均可將其遷移至目標(biāo)域中。若遷移的知識(shí)來(lái)自源域或目標(biāo)域中的多個(gè)相關(guān)任務(wù),則屬于多任務(wù)的范疇。遷移學(xué)習(xí)并不是在任何時(shí)候都能使用,當(dāng)源域和目標(biāo)域任務(wù)差異較大,進(jìn)行遷移學(xué)習(xí)一般會(huì)導(dǎo)致負(fù)遷移的發(fā)生[18]。例如,將源領(lǐng)域中完成花卉識(shí)別任務(wù)時(shí)學(xué)到的知識(shí)遷移給目標(biāo)領(lǐng)域中的服裝識(shí)別任務(wù)效果是不好的。因此只有具有共性的知識(shí)遷移到目標(biāo)領(lǐng)域才能更好地發(fā)揮其作用。
在卷積神經(jīng)網(wǎng)絡(luò)中,當(dāng)訓(xùn)練樣本不夠充分時(shí),通常識(shí)別效果不夠理想,而重新建立模型會(huì)很費(fèi)時(shí),這時(shí)可以考慮使用遷移學(xué)習(xí)來(lái)改善識(shí)別效果。在圖像分類(lèi)識(shí)別中,遷移學(xué)習(xí)不僅可以學(xué)習(xí)非目標(biāo)數(shù)據(jù)集的顏色、紋理等底層特征,還可以學(xué)習(xí)目標(biāo)數(shù)據(jù)集的高級(jí)特征,有望提高模型的分類(lèi)性能。為了驗(yàn)證遷移學(xué)習(xí)的效果,本文提出基于遷移學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)服裝圖像分類(lèi)方法,描述如算法1所示,流程如圖1所示。
算法1卷積神經(jīng)網(wǎng)絡(luò)遷移學(xué)習(xí)訓(xùn)練方法
輸入:ImageNet圖像數(shù)據(jù)I,DeepFashion服裝圖像數(shù)據(jù)D,迭代次數(shù)Epoch1和Epoch2,模型M,訓(xùn)練精度閾值A(chǔ)1、A2,訓(xùn)練損失閾值L1、L2。
1. 選擇深層模型M
2. 模型F初始化參數(shù)w1
3. X1=g(I)
//對(duì)ImageNet圖像數(shù)據(jù)I進(jìn)行預(yù)處理
4. epoch=1
5. While epoch≤Epoch1 do
6. if A≤A1and L≥L1then
//訓(xùn)練得到的精度和損失與設(shè)定的閾值比較
//更新模型參數(shù)
8. break
9. else
10. train M(I;w1)
11. epoch=epoch+1
12. End
//輸出預(yù)訓(xùn)練模型和參數(shù)
14. X2=g(D)
//對(duì)DeepFashion服裝圖像數(shù)據(jù)D進(jìn)行預(yù)處理
16. epoch=1
17. While epoch≤Epoch2 do
18. if A′≤A1and L′≥L2then
//更新模型參數(shù)
20. break
21. else
23. epoch=epoch+1
24. End
//輸出遷移模型和參數(shù)
圖1 基于CNN模型的遷移學(xué)習(xí)流程圖
本文選取六種經(jīng)典深度分類(lèi)網(wǎng)絡(luò)模型,首先在包含120多萬(wàn)幅自然圖像和1 000多個(gè)不同類(lèi)別的ImageNet數(shù)據(jù)集上對(duì)模型進(jìn)行預(yù)訓(xùn)練,然后將模型參數(shù)遷移到DeepFashion數(shù)據(jù)集中進(jìn)行微調(diào)訓(xùn)練。
遷移方法采用預(yù)訓(xùn)練和遷移訓(xùn)練兩種方法相結(jié)合的方式。
1) 預(yù)訓(xùn)練。預(yù)訓(xùn)練過(guò)程與隨機(jī)初始化訓(xùn)練過(guò)程基本類(lèi)似。在參數(shù)隨機(jī)初始化后,通過(guò)網(wǎng)絡(luò)訓(xùn)練迭代和優(yōu)化模型中參數(shù),使得模型精度提升及損失函數(shù)下降到某個(gè)設(shè)定的閾值,即模型達(dá)到收斂后輸出預(yù)訓(xùn)練模型。
2) 遷移訓(xùn)練方法。將訓(xùn)練好的模型進(jìn)行參數(shù)遷移,再通過(guò)目標(biāo)數(shù)據(jù)集來(lái)微調(diào)網(wǎng)絡(luò)和優(yōu)化參數(shù),使得模型能很好地適應(yīng)目標(biāo)任務(wù)。對(duì)于本文的服裝圖像分類(lèi)任務(wù),深度網(wǎng)絡(luò)的遷移訓(xùn)練方法步驟如下:
(1) 訓(xùn)練數(shù)據(jù)集準(zhǔn)備。將ImageNet數(shù)據(jù)集直接放入到本文選用的模型中,而目標(biāo)數(shù)據(jù)集DeepFashion輸入到訓(xùn)練好的模型中。
(2) 選擇模型。深度網(wǎng)絡(luò)遷移訓(xùn)練方法選擇經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)VGG16、VGG19、Inception_v3、Xception、ResNet50和MnasNet,最后對(duì)比六種遷移模型的識(shí)別性能的優(yōu)劣。
(3) 設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu)。根據(jù)遷移所選擇的網(wǎng)絡(luò)特征,將最終的預(yù)測(cè)類(lèi)別調(diào)整為實(shí)驗(yàn)所需要的類(lèi)別數(shù)目;根據(jù)模型使用Dropout技術(shù)、凍結(jié)層數(shù)等對(duì)遷移訓(xùn)練模型進(jìn)行精調(diào)。
(4) 參數(shù)優(yōu)化。將預(yù)訓(xùn)練模型參數(shù)遷移到設(shè)計(jì)的網(wǎng)絡(luò)結(jié)構(gòu)中,進(jìn)一步優(yōu)化網(wǎng)絡(luò)參數(shù),能充分訓(xùn)練模型和有效地觀察模型的性能。
本文使用的服裝圖像來(lái)自香港中文大學(xué)多媒體實(shí)驗(yàn)室提供的多類(lèi)別大型服裝數(shù)據(jù)集DeepFashion[6],這些圖像大部分來(lái)自購(gòu)物網(wǎng)站,其余部分來(lái)源于博客、論壇和其他用戶(hù)的生成。DeepFashion包含了28萬(wàn)幅圖片,其服裝圖片全部由人工標(biāo)注,每幅圖像都有1個(gè)類(lèi)別標(biāo)注,1 000個(gè)屬性標(biāo)注,Bbox邊框。這是迄今為止最大、最全面的服裝數(shù)據(jù)集。由于DeepFashion數(shù)據(jù)集過(guò)于龐大,本文僅從中抽取2 533幅服裝圖片,8個(gè)服裝類(lèi)型(Dress,Jeans,Tank,shots,Tee,Jecket,Hoodie,Coat)進(jìn)行實(shí)驗(yàn)。其中80%作為訓(xùn)練集,20%作為驗(yàn)證集,兩者沒(méi)有數(shù)據(jù)之間的交集,訓(xùn)練集用于模型訓(xùn)練和學(xué)習(xí)以及參數(shù)的調(diào)整。在訓(xùn)練中使用驗(yàn)證集對(duì)模型進(jìn)行測(cè)試、優(yōu)化,對(duì)模型參數(shù)進(jìn)行微調(diào)。數(shù)據(jù)集中部分圖像如圖2所示,數(shù)據(jù)集中呈現(xiàn)了服裝的風(fēng)格、款式、材質(zhì)的多樣化。服裝的褶皺、遮光、側(cè)拍等因素,在很大程度上增加了服裝圖像分類(lèi)的困難。
圖2 DeepFashion數(shù)據(jù)集部分?jǐn)?shù)據(jù)圖
本文實(shí)驗(yàn)環(huán)境:Ubuntu操作系統(tǒng),Intel i7-7700處理器,1 TB固態(tài)硬盤(pán),32 GB內(nèi)存,NVIDIA GTX1080Ti GPU,采用TensorFlow平臺(tái)進(jìn)行訓(xùn)練;實(shí)驗(yàn)結(jié)果中的準(zhǔn)確率曲線(xiàn)采用Python中的matplotlib可視化得到。
利用在ImageNet上訓(xùn)練完成的VGG16和VGG19模型的權(quán)值來(lái)進(jìn)行訓(xùn)練,將獲取到特征向量進(jìn)行一維化,再將模型的全連接層替換成Softmax分類(lèi)器,最后用修改后的模型對(duì)服裝圖像數(shù)據(jù)集進(jìn)行訓(xùn)練。其中模型學(xué)習(xí)率為0.000 1,迭代次數(shù)為300次,批尺寸(Batch_size)為32,Dropout為0.6。
利用在ImageNet上訓(xùn)練好的Inception_v3模型來(lái)訓(xùn)練服裝圖像數(shù)據(jù)集,輸入的圖片尺寸為(224,224,3),獲取特征向量后對(duì)其進(jìn)行全局最大池化和全局平均池化,將該模型瓶頸層的輸出作為提取的特征,然后把這些特征輸入到Softmax分類(lèi)器中獲得分類(lèi)結(jié)果。其中,模型的學(xué)習(xí)率為0.000 1,迭代次數(shù)為300,批尺寸為32,Dropout為0.5。
利用ImageNet上訓(xùn)練好的ResNet50模型來(lái)訓(xùn)練服裝圖像數(shù)據(jù)集,獲取特征向量后對(duì)其進(jìn)行了全局平均池化,然后將特征向量輸入到Softmax分類(lèi)器中獲得分類(lèi)結(jié)果。其中,模型的學(xué)習(xí)率為0.001,迭代次數(shù)為300,批尺寸為32,Dropout為0.5。NASNetMobile和Xception的實(shí)驗(yàn)設(shè)置與ResNet50模型相類(lèi)似。
表1顯示了VGG16、VGG19、Inception_v3、Xception、ResNet50和MnasNet六種圖像分類(lèi)網(wǎng)絡(luò)模型在相同數(shù)據(jù)集上評(píng)價(jià)指標(biāo)的比較。圖3-圖5分別展示了六種模型的初始化訓(xùn)練和遷移訓(xùn)練方法在同一數(shù)據(jù)集上準(zhǔn)確率的比較。
(a) VGG16
(b) VGG19圖3 VGG16和VGG19初始化模型與遷移模型驗(yàn)證集準(zhǔn)確率比較
(a) Inception_v3
(b) Xception圖4 Inception_v3和Xception初始化模型與遷移模型驗(yàn)證集準(zhǔn)確率比較
(a) ResNet50
(b) MnasNet圖5 ResNet50和MnasNet初始化模型和遷移模型驗(yàn)證集準(zhǔn)確率比較
圖3(a)為VGG16遷移學(xué)習(xí)模型與初始化模型的對(duì)比,VGG16遷移模型在驗(yàn)證集迭代40次左右開(kāi)始收斂且波動(dòng)相對(duì)平穩(wěn),初始化模型則需要迭代100次左右才收斂且波動(dòng)較大。原因是VGG16遷移模型凍結(jié)了部分層數(shù),需要訓(xùn)練的參數(shù)比較少且適合該模型分類(lèi),而VGG16初始化模型則需要從隨機(jī)參數(shù)進(jìn)行訓(xùn)練。圖3(b)為VGG19遷移模型與VGG19的初始化模型的比較,兩個(gè)模型的收斂速度與圖3(a)相似,但波動(dòng)相對(duì)平穩(wěn)。
圖4(a)為Inception_v3遷移學(xué)習(xí)模型與初始化模型的對(duì)比,Inception_v3遷移模型在迭代35次左右就開(kāi)始收斂且較圖3的兩個(gè)模型相對(duì)平穩(wěn),而初始化模型則需要迭代到125次左右才收斂且波動(dòng)較大。圖4(b)為Xception遷移模型與初始化模型的比較,Xception遷移模型驗(yàn)證集在迭代20次達(dá)到收斂。因?yàn)閄ception是Inception_v3的優(yōu)化網(wǎng)絡(luò)輕量化模型,在同等參數(shù)量的情況下網(wǎng)絡(luò)效率比Inception_v3高,所以收斂速度快。
圖5(a)為ResNet50遷移模型與初始化模型的對(duì)比,由于初始化模型本身的網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,需要訓(xùn)練的參數(shù)多,所以它的初始化模型準(zhǔn)確率較低收斂速度也比較慢,且波動(dòng)大。在ResNet50遷移模型迭代50次之后趨于收斂,雖然不比VGG16、VGG19模型收斂速度快,但是到達(dá)收斂點(diǎn)后波動(dòng)不大。圖5(b)為MnasNet遷移模型與初始化模型的比較,MnasNet遷移模型在訓(xùn)練50代左右開(kāi)始收斂,而MnasNet初始化模型比前面的初始化模型的收斂速度要慢很多,需要迭代230次后才慢慢收斂。
由表1可知,六種神經(jīng)網(wǎng)絡(luò)使用遷移學(xué)習(xí)方法訓(xùn)練后,分類(lèi)效果明顯優(yōu)于隨機(jī)初始化網(wǎng)絡(luò)模型。由圖3-圖5可以看出,初始化模型的準(zhǔn)確率均低于遷移模型,且模型收斂速度非常慢。六種遷移學(xué)習(xí)模型中,Inception_v3遷移模型和Xception遷移模型的收斂速度較快,收斂后相對(duì)平穩(wěn),且Inception_v3遷移模型和Xception遷移模型網(wǎng)絡(luò)損失均小于其他遷移模型。可以看出,神經(jīng)網(wǎng)絡(luò)模型遷移學(xué)習(xí)后具有更好的魯棒性和較強(qiáng)的泛化能力。而隨機(jī)初始化網(wǎng)絡(luò)模型有可能陷入局部最優(yōu)的問(wèn)題,所以魯棒性和泛化能力相對(duì)較差。初始網(wǎng)絡(luò)模型受其自身的深層結(jié)構(gòu)和較大的訓(xùn)練參數(shù)的影響,網(wǎng)絡(luò)訓(xùn)練速度慢,容易出現(xiàn)局部最優(yōu)和過(guò)擬合情況。對(duì)遷移模型的特定網(wǎng)絡(luò)層權(quán)重參數(shù)進(jìn)行凍結(jié),以及充分訓(xùn)練和調(diào)整模型的語(yǔ)義層參數(shù),使模型提取的目標(biāo)特征更加清晰。
如表2所示,遷移模型的識(shí)別精度都高于初始化模型,這證明了遷移學(xué)習(xí)方法用在DeepFashion服裝數(shù)據(jù)集上是有效的。由于傳統(tǒng)的深度分類(lèi)模型需要大量的訓(xùn)練數(shù)據(jù)才能獲得較為理想的實(shí)驗(yàn)效果,而本文數(shù)據(jù)集的數(shù)據(jù)量少,因此模型的準(zhǔn)確率低,還會(huì)出現(xiàn)梯度消失和過(guò)擬合等問(wèn)題。初始化模型的收斂速度遠(yuǎn)慢于遷移模型,且每次迭代所需時(shí)間稍長(zhǎng),原因是初始化模型沒(méi)有凍結(jié)前層網(wǎng)絡(luò)參數(shù),所有的網(wǎng)絡(luò)參數(shù)需要重新訓(xùn)練。遷移學(xué)習(xí)方法在時(shí)間和準(zhǔn)確率上都優(yōu)于隨機(jī)初始化模型方法,說(shuō)明模型先在大數(shù)據(jù)集上做預(yù)訓(xùn)練,再將訓(xùn)練好的模型放到數(shù)據(jù)量少的目標(biāo)領(lǐng)域上進(jìn)行微調(diào),節(jié)省了大量時(shí)間,而且能夠達(dá)到更高的分類(lèi)精度。遷移模型也證明了在小樣本數(shù)據(jù)集中利用遷移學(xué)習(xí)的方法是可行的。
表2 各種方法分類(lèi)性能對(duì)比
本文采用基于遷移學(xué)習(xí)的服裝圖像識(shí)別分類(lèi)模型,在DeepFashion部分?jǐn)?shù)據(jù)集上,將神經(jīng)網(wǎng)絡(luò)模型與遷移學(xué)習(xí)方法相結(jié)合,VGG16和Inception_v3的驗(yàn)證集準(zhǔn)確率分別達(dá)到94.80%和93.91%,其收斂速度較快,訓(xùn)練集與驗(yàn)證集之間未出現(xiàn)過(guò)擬合現(xiàn)象。實(shí)驗(yàn)結(jié)果表明,用遷移后的神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,收斂速度快,魯棒性和泛化能力都優(yōu)于隨機(jī)初始化模型。本文方法在DeepFashion服裝數(shù)據(jù)集上可以有效地對(duì)服裝圖像進(jìn)行分類(lèi),在識(shí)別精度和時(shí)效性上取得了顯著的提高。