江 浩,羅瑞林,金雪松,陳載清,云利軍
(1.云南師范大學(xué) 信息學(xué)院,云南 昆明 650500;2.云南省煙草煙葉公司 設(shè)備信息科,云南 昆明 650218;3.玉溪市第二人民醫(yī)院 信息網(wǎng)絡(luò)中心,云南 玉溪 653100)
隨著烤煙收購工作規(guī)范化提升,煙葉質(zhì)量要求不斷提高,但在實(shí)際煙葉收購過程中仍存在煙葉質(zhì)量不達(dá)標(biāo)等情況[1]。影響煙葉質(zhì)量不達(dá)標(biāo)的因素多種多樣,其中在人為劃分煙葉等級過程中,會(huì)因環(huán)境因素或員工精神狀態(tài)不好等原因?qū)е聼熑~等級分類不準(zhǔn)確,分類精度降低。
隨著科技進(jìn)步,煙葉種植、烘烤、收購等環(huán)節(jié)不斷引入許多信息化手段提升效率、產(chǎn)量、質(zhì)量[2]。為此,本文通過深度學(xué)習(xí)方法實(shí)現(xiàn)在煙葉收購過程中識別、劃分不同等級煙葉,以減少人為誤差造成的損失。
目前,在煙葉自動(dòng)化分級方面的研究主要分為兩條思路。第一種是按照煙葉的著生部位、顏色、光譜、氣味及其他與總體質(zhì)量相關(guān)的主要特征將煙葉劃分為若干等級[3],通過人為提取的特征采用機(jī)器學(xué)習(xí)算法進(jìn)行識別。例如,趙世民等[4]提出基于圖像特征的煙葉分級方法,將采集的煙葉圖像灰度化處理以減少后續(xù)圖像處理的工作量,提高模型檢測效率,再提取顏色、形狀、紋理等煙葉圖片特征對煙葉進(jìn)行分級。袁奎[5]在RGB 與HSV 顏色空間下提取顏色分量特征信息,采用灰度系統(tǒng)理論對煙葉的各種特征進(jìn)行定量化研究,再通過一種基于煙葉特征視覺信息的機(jī)器學(xué)習(xí)算法實(shí)現(xiàn)煙葉分級。李勝[6]通過煙葉長度、寬度等特征信息提取煙葉紋理參數(shù),并將提取的參數(shù)作為BP 神經(jīng)網(wǎng)絡(luò)的輸入實(shí)現(xiàn)煙葉分級,但這種先提取煙葉特征進(jìn)行分析,再使用機(jī)器學(xué)習(xí)分級的方法不僅需要人工手動(dòng)操作,而且通常情況下分級的準(zhǔn)確率不高。
第二種則是通過深度學(xué)習(xí)方法采集不同等級煙葉圖像進(jìn)行特征提取與識別,相較于第一種方法更具有實(shí)際操作性,且分級準(zhǔn)確率更高。例如,王士鑫等[7]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)的煙葉分級處理算法,使用CNN 神經(jīng)網(wǎng)絡(luò)結(jié)合Inception V3分支結(jié)構(gòu)并行處理特征信息得到分級結(jié)果,但該方法并未使用經(jīng)典的分類網(wǎng)絡(luò)進(jìn)行比較實(shí)驗(yàn),無法判斷相同數(shù)據(jù)及環(huán)境情況下經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)是否具有更優(yōu)的分類結(jié)果。魯夢瑤等[8]在原有傳統(tǒng)分支卷積網(wǎng)絡(luò)基礎(chǔ)上,采用特征金字塔、殘差網(wǎng)絡(luò)結(jié)構(gòu),并引入基于注意力機(jī)制的縮聚激發(fā)模塊獲得更多尺度特征,實(shí)驗(yàn)表明該方法相較于經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)在煙葉分級方面提升5.1%,雖然該方法在殘差網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ)上引入了注意力機(jī)制,但并未考慮模型推理時(shí)間及模型參數(shù)量對工程應(yīng)用的重要性。
在實(shí)際煙葉采購過程中,不僅需要保證識別煙葉等級的精確性,還需保證模型在硬件設(shè)備上的可用性。在使用各種神經(jīng)網(wǎng)絡(luò)進(jìn)行煙葉等級分類實(shí)驗(yàn)過程中,殘差注意力網(wǎng)絡(luò)(Residual Attention Network,RAN)[9]對紋路、形狀等煙葉特征表現(xiàn)出更優(yōu)的提取能力,同時(shí)網(wǎng)絡(luò)運(yùn)算量與參數(shù)量方面相較于其他主流分級網(wǎng)絡(luò)更優(yōu)。RAN 主要通過堆疊注意力結(jié)構(gòu)模塊構(gòu)建網(wǎng)絡(luò),但直接堆疊注意力模塊會(huì)導(dǎo)致模型性能下降,因此在原網(wǎng)絡(luò)中使用殘差學(xué)習(xí)機(jī)制在增加網(wǎng)絡(luò)層數(shù)時(shí)不會(huì)丟失太多信息。同時(shí),每個(gè)注意力模塊分為mask、trunk 分支,mask 分支中通過先連續(xù)下采樣再連續(xù)上采樣的結(jié)構(gòu)獲得特征權(quán)重,trunk分支負(fù)責(zé)特征處理功能。此外,注意力機(jī)制的重要性在以往文獻(xiàn)中已被廣泛研究[10-15],但實(shí)際測試過程中會(huì)發(fā)生訓(xùn)練速度較慢、識別準(zhǔn)確率較低等問題。研究發(fā)現(xiàn),稠密連接卷積模塊能讓每層網(wǎng)絡(luò)特征圖均能影響后面的所有層,既能讓特征在整個(gè)網(wǎng)絡(luò)中復(fù)用,還緩解了梯度消失問題,降低了網(wǎng)絡(luò)參數(shù)量[16]。研究表明,結(jié)合通道注意力[17]與空間注意力[18]也能增強(qiáng)特征信息,提升識別準(zhǔn)確率。
為此,本文結(jié)合稠密連接卷積神經(jīng)網(wǎng)絡(luò)與混合注意力機(jī)制,提出一種改進(jìn)的RAN,以達(dá)到提升精度的同時(shí)有效降低網(wǎng)絡(luò)參數(shù)量,并且運(yùn)算量較低。
本文實(shí)驗(yàn)為云南某煙葉收集站實(shí)地采集的煙葉圖像數(shù)據(jù)集,包括10 種等級煙葉,3 個(gè)不同品質(zhì)。其中,上等煙葉品質(zhì)B1F、B2F、C3F,中等煙葉品質(zhì)C4F、B3F、X2F、X3F,下等煙葉品質(zhì)B1K、CX2K、X4F。每種等級煙葉圖片500張,圖片大小為224×224,將每種等級煙葉數(shù)據(jù)按4∶1 劃分,即4 000 張圖片用于訓(xùn)練,1 000 張圖片用于測試,部分煙葉數(shù)據(jù)如圖1所示。
Fig.1 Image data of tobacco leaf圖 1 煙葉圖像數(shù)據(jù)
本文所提改進(jìn)RAN 的具體思路與方法包括以下3 個(gè)步驟:
步驟1:ResNet 中擁有兩種模式的卷積塊,分別為3 層的1×1 卷積、3×3 卷積、1×1 卷積和2 層的2 個(gè)3×3 卷積[19],56 層殘差注意力網(wǎng)絡(luò)中只使用3 層卷積結(jié)構(gòu)。在網(wǎng)絡(luò)層數(shù)相對較小的網(wǎng)絡(luò)中,使用2 層結(jié)構(gòu)卷積往往能取得更好的效果,通過比較不同模式卷積塊對網(wǎng)絡(luò)特征提取的影響,發(fā)現(xiàn)采用2 層卷積和3 層卷積的混合結(jié)構(gòu),效果相較于僅使用3層卷積策略更好。
步驟2:改進(jìn)原殘差注意力56 層網(wǎng)絡(luò)的3 個(gè)注意力模塊與網(wǎng)絡(luò)輸出階段的殘差塊,其中注意力模塊中的trunk分支為殘差模塊堆疊而成。為此,本文將殘差模塊替換為稠密連接模塊,以疊加不同層的特征圖。由于網(wǎng)絡(luò)輸出階段堆疊了多個(gè)殘差塊,網(wǎng)絡(luò)深度較深,為避免丟失上層信息使用稠密連接模塊保留更好的特征。由于在擴(kuò)張?zhí)卣魍ǖ罆r(shí),不斷使用稠密連接模塊會(huì)出現(xiàn)內(nèi)存占用過高的情況,因此將稠密連接放入trunk 分支,而mask 分支作為特征選擇器來提升trunk 分支中的有用特征,并抑制噪聲特征。在處理過程中,trunk 分支需要與mask 的輸出特征圖、輸出通道保持一致。為此,本文提出一種用于壓縮特征通道的預(yù)稠密連接模塊,將通道通過卷積操作壓縮為原有輸入通道數(shù),再通過稠密連接卷積模塊擴(kuò)張通道,具體公式為:
式中,IC、OC表示輸入輸出通道數(shù),ICE表示壓縮后的通道數(shù),N表示該分支稠密連接模塊數(shù)量,ICk表示第k個(gè)稠密連接模塊輸入通道數(shù),當(dāng)k=N時(shí)滿足式(1)。
步驟3:將RAN 中間的殘差注意力模塊替換為空間注意力模塊,由于先進(jìn)行通道注意力再進(jìn)行空間注意力的效果更好[20],且優(yōu)于僅使用通道注意力的縮聚激發(fā)網(wǎng)絡(luò)(Squeeze-and-Excitation Networks,SENet)。其中,通道注意力模塊使用步驟2改進(jìn)后的模塊,具體公式為:
式中,σ表示Sigmoid 函數(shù),F(xiàn)代表特征圖,MLP為多層感知機(jī)(Multilayer Perceptron,MLP)獲取AvgPool均值池化下采樣與通道累加的稠密連接模塊不同空間通道上的特征。使用兩種不同空間通道元素的乘積來突出注意力mask。同時(shí),為強(qiáng)調(diào)主分支稠密連接模塊提取的全局特征,通過主分支與mask 相加的方式輸出通道注意力圖Mc(F)??臻g注意力與通道注意力不同,空間注意力更關(guān)注特征圖的特征信息位置,具體公式為:
式中,f1×1,3×3,1×1代表1×1、3×3、1×1的3層卷積結(jié)構(gòu)。
為了計(jì)算空間注意力,本文在通道軸使用均值池化與最大值池化,并連接它們的特征圖使用卷積層生成空間注意力圖Ms(F)。然后,使用通道注意力模塊進(jìn)一步提取特征。實(shí)驗(yàn)表明,稠密連接卷積結(jié)構(gòu)相較于原模型的殘差卷積結(jié)構(gòu)參數(shù)量更少,更加有效利用了通道特征圖,加強(qiáng)了傳遞不同通道特征。
網(wǎng)絡(luò)沿著通道—空間—通道兩種維度3 個(gè)注意力模塊依次進(jìn)行訓(xùn)練,使用稠密連接的trunk 分支與混合注意力提取煙葉特征。實(shí)驗(yàn)表明,所提模型相較于原模型性能更優(yōu),特征提取結(jié)果如圖2所示。
Fig.2 Comparison of characteristic maps圖 2 特征圖比較
由圖2 可見,稠密連接在提取特征過程中保留了較多顏色信息,混合注意力相較于通道注意力提取的煙葉形狀、紋路特征更明顯,改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)圖如圖3所示。
由圖3 可見,與殘差注意力網(wǎng)絡(luò)結(jié)構(gòu)一樣,通過卷積操作將初始的3 通道圖擴(kuò)張至64 通道,mask 分支與原網(wǎng)絡(luò)結(jié)構(gòu)保持一致,包含前饋掃描與自上而下的反饋步驟。其中,前饋掃描用于快速獲取整個(gè)圖像的全局信息,自上而下的反饋通過在近鄰上采樣過程中添加前饋掃描權(quán)重的方式獲得反饋信息,使此過程中不會(huì)丟失過多全局信息。注意力模塊的trunk 分支則將初始的兩個(gè)殘差結(jié)構(gòu)替換為具有壓縮特征通道的預(yù)稠密連接模塊與3 個(gè)稠密連接模塊,將第一個(gè)通道注意力模塊處理后的特征圖輸入空間注意力機(jī)制模塊,通過混合注意力廣泛捕獲各位置和通道的特征,以獲得更優(yōu)的性能,接下來通過第二個(gè)通道注意力模塊加深網(wǎng)絡(luò)層數(shù),進(jìn)一步提取更抽象的特征,最后通過4個(gè)稠密連接模塊進(jìn)一步擴(kuò)張?zhí)卣魍ǖ溃瑝嚎s特征圖,提取特征信息,輸出均值池化、全連接層后預(yù)測的煙葉圖像數(shù)據(jù)分類。模型部分結(jié)構(gòu)參數(shù)如表1所示。
Fig.3 Improved model structure圖3 改進(jìn)后的模型結(jié)構(gòu)
Table 1 Partial parameters of model structure表1 模型部分結(jié)構(gòu)參數(shù)
本文實(shí)驗(yàn)顯卡為GTX1060 6G,處理器為I5-6500,實(shí)驗(yàn)數(shù)據(jù)從10 個(gè)樣本分類中隨機(jī)抽取,每種類別隨機(jī)抽取400 張圖片作為訓(xùn)練集,共4 000 張訓(xùn)練樣本,剩余樣本作為驗(yàn)證集,并確保數(shù)據(jù)集中的驗(yàn)證集與訓(xùn)練集數(shù)據(jù)不重復(fù)。以相同的數(shù)據(jù)集、損失函數(shù)、訓(xùn)練輪次等為前提,實(shí)驗(yàn)主要比較使用兩層卷積結(jié)構(gòu)與原網(wǎng)絡(luò)的3 層卷積結(jié)構(gòu),主干網(wǎng)絡(luò)使用稠密連接卷積結(jié)構(gòu)與原網(wǎng)絡(luò)的殘差連接卷積結(jié)構(gòu),Residual Attention56 與總體改進(jìn)后的模型及改進(jìn)后的網(wǎng)絡(luò)與經(jīng)典分類網(wǎng)絡(luò)VGGNet19、ResNet34。
首先使用原始Residual Attention56 進(jìn)行實(shí)驗(yàn),在此基礎(chǔ)上將網(wǎng)絡(luò)輸入注意力模塊前的3 層殘差卷積結(jié)構(gòu)替換為兩層殘差卷積結(jié)構(gòu),進(jìn)行100 輪迭代訓(xùn)練后使用相同測試集進(jìn)行測試,實(shí)驗(yàn)準(zhǔn)確率曲線如圖4所示。
圖4 中上方曲線為更改后的兩層卷積結(jié)構(gòu)模型測試結(jié)果,下方曲線為原網(wǎng)絡(luò)測試結(jié)果,兩層卷積結(jié)構(gòu)改進(jìn)后的模型測試集準(zhǔn)確率接近84%,原網(wǎng)絡(luò)接近81%,可證明使用兩層卷積結(jié)構(gòu)在網(wǎng)絡(luò)深度較低的情況下能有效提高模型準(zhǔn)確率。接下來,使用稠密連接卷積模塊替換原始Residual Attention56 主干網(wǎng)絡(luò)中的殘差模塊,實(shí)驗(yàn)中首先使用預(yù)稠密連接,將通道壓縮,類似于瓶頸層結(jié)構(gòu),并將初始的兩個(gè)殘差連接模塊替換為3 個(gè)稠密連接模塊,在特征得到復(fù)用的同時(shí)進(jìn)一步加深網(wǎng)絡(luò)深度。相同測試集下與原版Residual Attention56測試比較結(jié)果如圖5所示。
Fig.4 Comparison of test accuracy between two-layer convolution residual attention network and 56-layer residual attention network圖4 兩層卷積殘差注意力網(wǎng)絡(luò)與56層殘差注意力網(wǎng)絡(luò)測試準(zhǔn)確率比較
Fig.5 Comparison of test accuracy between two-layer convolution dense attention network and 56-layer residual attention network圖5 兩層卷積稠密注意力網(wǎng)絡(luò)與56層殘差注意力網(wǎng)絡(luò)測試準(zhǔn)確率比較
圖5 中上方曲線為稠密連接卷積模塊替換殘差連接卷積后的測試結(jié)果,下方曲線為原始Residual Attention56測試結(jié)果,由此可見使用稠密連接卷積模塊后,稠密連接卷積的多特征圖特征復(fù)用能進(jìn)一步提升模型準(zhǔn)確率,測試集準(zhǔn)確率接近89%。為了減少稠密連接卷積主干網(wǎng)絡(luò)在不斷加深過程中運(yùn)算量與參數(shù)量增加所造成的影響,本文將中間通道注意力模塊替換為空間注意力模塊,使用原始模型與總體改進(jìn)后的模型進(jìn)行100 輪迭代訓(xùn)練,實(shí)驗(yàn)訓(xùn)練集準(zhǔn)確率曲線如圖6所示。
Fig.6 Comparison of test accuracy of the overall improved model圖6 總體改進(jìn)后模型的測試準(zhǔn)確率比較
由圖6 可見,原始網(wǎng)絡(luò)在第一個(gè)訓(xùn)練迭代后準(zhǔn)確率為34.47%,改進(jìn)后的網(wǎng)絡(luò)第一個(gè)訓(xùn)練迭代后準(zhǔn)確率達(dá)到44.9%,迭代100 次后改進(jìn)后的網(wǎng)絡(luò)為99.05%。由此可見,改進(jìn)后的模型無論在收斂速度還是最后收斂趨于穩(wěn)定時(shí)的準(zhǔn)確率上,相較于原始?xì)埐钭⒁饬W(wǎng)絡(luò)模型更優(yōu)。
損失函數(shù)的主要作用是衡量當(dāng)前模型樣本的預(yù)測值與真實(shí)值間的大小,交叉熵?fù)p失函數(shù)在使用sigmoid 函進(jìn)行梯度下降時(shí),能有效避免梯度彌散而導(dǎo)致學(xué)習(xí)速率下降的問題,通過交叉熵?fù)p失函數(shù)得到原模型與改進(jìn)模型的損失函數(shù)曲線,如圖7所示。
Fig.7 Comparison of cross entropy loss function of the overall improved model圖7 總體改進(jìn)后模型的交叉熵?fù)p失函數(shù)比較
由圖7 可見,模型在迭代100 次過程中,改進(jìn)后的模型始終保持著更低的損失值,且模型訓(xùn)練時(shí)間相較于原始模型更少,之后還與ResNet34、VGGNet19 進(jìn)行比較,發(fā)現(xiàn)改進(jìn)后的網(wǎng)絡(luò)訓(xùn)練所需時(shí)間最少。
混淆矩陣通常用于總結(jié)網(wǎng)絡(luò)分類結(jié)果,能可視化記錄分類器預(yù)測結(jié)果的誤差,改進(jìn)殘差注意力模型的混淆矩陣如圖8 所示。由此可見,實(shí)驗(yàn)中使用的10 種等級煙葉,在實(shí)際分類標(biāo)簽為C3F、B2F、CX2K、X2F 中誤差較高,通過比較其他模型混淆矩陣發(fā)現(xiàn)所有測試模型對這4 種分類均存在較大的分類誤差,并且錯(cuò)誤預(yù)測等級種類分布相似,原因可能手工進(jìn)行煙葉圖像分類存在一定的誤差。
Fig.8 Confusion matrix of overall improved network圖 8 總體改進(jìn)網(wǎng)絡(luò)混淆矩陣
通過消融實(shí)驗(yàn)總結(jié)以上3 種改進(jìn)策略測試結(jié)果與總體改進(jìn)后的模型測試結(jié)果,統(tǒng)計(jì)每次改進(jìn)后的測試集平均準(zhǔn)確率、運(yùn)算量、模型參數(shù),如表2所示。
由表2 可知,兩層卷積結(jié)構(gòu)與稠密連接卷積模塊能可有效提升模型分類準(zhǔn)確率;在相同深度的改進(jìn)模型結(jié)構(gòu)下,使用稠密卷積模塊相較于殘差卷積模塊能降低參數(shù)量,但由于兩層卷積模塊保留了更多圖像信息,較多的稠密連接卷積模塊加深了主干網(wǎng)絡(luò)層數(shù),將顯著增加運(yùn)算量與參數(shù)量。
Table 2 Comparison of ablation experimental results of improved network表 2 改進(jìn)網(wǎng)絡(luò)的消融實(shí)驗(yàn)結(jié)果比較
本文將第二個(gè)注意力模塊替換為空間注意力模塊以提升模型準(zhǔn)確率,減少網(wǎng)絡(luò)層數(shù),降低網(wǎng)絡(luò)運(yùn)算量與參數(shù)量。利用改進(jìn)后的網(wǎng)絡(luò)、原殘差注意力網(wǎng)絡(luò)、ResNet34、VGGNet19 對隨機(jī)抽取的10 個(gè)分類(每個(gè)分類100 張,共1 000 張)煙葉圖像測試集進(jìn)行測試,并對所有測試集圖像重復(fù)分類預(yù)測100次,結(jié)果如圖9所示。
Fig.9 Comparison of classification prediction results圖9 分類預(yù)測結(jié)果比較
由圖9 可見,改進(jìn)后的網(wǎng)絡(luò)與ResNet34 預(yù)測準(zhǔn)確率相似,相較于RAN 與VGGNet19 預(yù)測準(zhǔn)確率更高。同時(shí),本文還通過macro-F1 指標(biāo)評價(jià)模型預(yù)測結(jié)果,具體計(jì)算式為:
其中,Ri表示第i種等級煙葉的召回率,Pi表示第i種等級煙葉的預(yù)測準(zhǔn)確率,n為分級種類數(shù)。macro-F1 是對各等級煙葉的F1-score 相加后求均值,通常為多分類任務(wù)中的評價(jià)指標(biāo)。通過統(tǒng)計(jì)各網(wǎng)絡(luò)100 次測試的平均準(zhǔn)確率、macro-F1、浮點(diǎn)運(yùn)算數(shù)量與參數(shù)量分析網(wǎng)絡(luò)性能,得到各網(wǎng)絡(luò)分類性能指標(biāo)如表3所示。
Table 3 Performance indicators of each classification network表 3 各分類網(wǎng)絡(luò)性能指標(biāo)
表3 中所選比較模型均屬于多分類預(yù)測中的經(jīng)典網(wǎng)絡(luò),通過分析平均測試準(zhǔn)確率、測試集macro-F1、參數(shù)量、運(yùn)算量可知,改進(jìn)后的網(wǎng)絡(luò)與ResNet34 測試平均準(zhǔn)確率幾乎相同,相較于原測試集預(yù)測精度提升8.19%,相較于VGGNet19 提升7.72%。分析macro-F1 值可知,改進(jìn)后的網(wǎng)絡(luò)對每個(gè)分類進(jìn)行預(yù)測均具有較高的準(zhǔn)確率,在FLOPs 運(yùn)算量上相較于原網(wǎng)絡(luò)具有明顯提升,這是由于在稠密連接卷積過程中多次將不同特征通道進(jìn)行加操作,提升了模型計(jì)算量,參數(shù)量方面相較于其他網(wǎng)絡(luò)最小,因此部署在硬件上會(huì)更靈活。此外,改進(jìn)的模型能在縮減參數(shù)量的同時(shí)保證準(zhǔn)確率,相較于ResNet34 還降低了運(yùn)算量,提升了模型識別速度。
本文提出一種基于稠密連接卷積神經(jīng)網(wǎng)絡(luò)與混合注意力的煙葉圖像分級方法,模型主要框架來源于殘差注意力網(wǎng)絡(luò)。在對實(shí)驗(yàn)室采集的10 種分類煙葉圖像數(shù)據(jù)的測試表明,改進(jìn)后的網(wǎng)絡(luò)在所用煙葉數(shù)據(jù)集上的參數(shù)量、精準(zhǔn)度較原網(wǎng)絡(luò)及常用的分級網(wǎng)絡(luò)均具有較大提升,但本文提出的殘差注意力網(wǎng)絡(luò)修改方法仍存在進(jìn)一步優(yōu)化的方面,還需要進(jìn)一步提升運(yùn)算量,減少模型參數(shù)量。
此外,將所提模型應(yīng)用于工程實(shí)踐中還需要研究更多方面,由于數(shù)據(jù)集較少、采集煙葉圖像標(biāo)準(zhǔn)化程度不足等原因會(huì)導(dǎo)致模型識別精度降低,后續(xù)工作中需要不斷擴(kuò)充數(shù)據(jù)庫并較少采集數(shù)據(jù)過程中的圖像差異,以進(jìn)一步提升模型識別精度。