張 盾,黃志開(kāi),王 歡,吳義鵬,王 穎,鄒家豪
基于多尺度特征實(shí)現(xiàn)超參進(jìn)化的野生菌分類(lèi)研究與應(yīng)用
張 盾1,黃志開(kāi)1,王 歡2,吳義鵬1,王 穎1,鄒家豪1
(1. 南昌工程學(xué)院信息工程學(xué)院,江西 南昌 330000;2. 南昌工程學(xué)院機(jī)械工程學(xué)院,江西 南昌 330000)
在我國(guó),因誤食不可食用野生菌而導(dǎo)致中毒的事件頻發(fā),尤其是云南等西南地區(qū),由于野生菌種類(lèi)的類(lèi)間特征差異較小,且實(shí)際場(chǎng)景下的圖像背景復(fù)雜,僅靠肉眼分辨困難。目前雖然有多種方法可對(duì)野生菌進(jìn)行分類(lèi),且最為可靠的方法為分子鑒定法,但該方法耗時(shí)長(zhǎng)、門(mén)檻高,不適合進(jìn)行實(shí)時(shí)分類(lèi)檢測(cè)。針對(duì)這一問(wèn)題,提出了一種基于深度學(xué)習(xí)的方法,即使用注意力機(jī)制(CBAM),配合多尺度特征融合,增加Anchor層,利用超參數(shù)進(jìn)化思想對(duì)其模型訓(xùn)練時(shí)的超參數(shù)進(jìn)行調(diào)整,從而提升識(shí)別精度。與常見(jiàn)的目標(biāo)檢測(cè)網(wǎng)絡(luò)SSD,F(xiàn)aster_Rcnn和Yolo系列等進(jìn)行對(duì)比,該模型能更準(zhǔn)確地對(duì)野生菌進(jìn)行分類(lèi)檢測(cè);經(jīng)過(guò)模型改進(jìn)后,相較于原Yolov5,Map提升3.7%,達(dá)到93.2%,準(zhǔn)確率提升1.3%,召回率提升1.0%,且模型檢測(cè)速度提升2.3%;相較于SSD,Map提升14.3%。最終將模型簡(jiǎn)化,部署到安卓設(shè)備上,增加其實(shí)用性,解決當(dāng)前因野生菌難以辨別而誤食不可食用野生菌導(dǎo)致中毒的問(wèn)題。
計(jì)算機(jī)應(yīng)用;卷積神經(jīng)網(wǎng)絡(luò);多尺度特征;超參數(shù)進(jìn)化;注意力機(jī)制;可食用野生菌;目標(biāo)檢測(cè)
可食用野生菌因味道鮮美、營(yíng)養(yǎng)豐富而深受?chē)?guó)人的喜愛(ài),但如何識(shí)別外觀上極為相似的可食用與不可食用野生菌對(duì)于普通人群而言成為一個(gè)待解決的問(wèn)題,因其不具備鑒別的相關(guān)知識(shí),容易誤食不可食用野生菌而發(fā)生中毒。據(jù)文獻(xiàn)[1]統(tǒng)計(jì)顯示,2011年—2017年,云南省共報(bào)告野生菌中毒事件1 789起,中毒7 966人,死亡219人。
目前在我國(guó)的傳統(tǒng)野生菌交易市場(chǎng),還不具備專(zhuān)業(yè)化的野生菌檢測(cè)系統(tǒng)或設(shè)備,大多依賴(lài)于商家或購(gòu)買(mǎi)者的人為分類(lèi),所以有誤判的情況出現(xiàn),基于此,研究一種便攜式的野生菌識(shí)別工具就顯得十分重要。傳統(tǒng)野生菌的識(shí)別方法大致分為化學(xué)檢測(cè)法[2]、動(dòng)物實(shí)驗(yàn)檢驗(yàn)法[3]、真菌分類(lèi)學(xué)鑒定法[4]和形態(tài)特征識(shí)別方法[5]等,雖然方法眾多,但也存在諸多問(wèn)題,如實(shí)驗(yàn)器材難以獲取、耗時(shí)長(zhǎng)、實(shí)用性差、不易推廣等。因此,基于圖像處理、深度學(xué)習(xí)的野生菌識(shí)別顯得極具優(yōu)勢(shì),文獻(xiàn)[6]探討了基于Xception與ResNet50網(wǎng)絡(luò)進(jìn)行野生菌的分類(lèi)識(shí)別,其數(shù)據(jù)集來(lái)源于網(wǎng)絡(luò)開(kāi)源數(shù)據(jù)集,大部分來(lái)自于Kaggle,但存在類(lèi)別少、數(shù)據(jù)集不符合應(yīng)用實(shí)際,導(dǎo)致泛化性能降低,通常難以達(dá)到實(shí)驗(yàn)過(guò)程中在測(cè)試集上獲取的指標(biāo)。文獻(xiàn)[7]是基于深度學(xué)習(xí)的蘑菇圖像分類(lèi)研究,其數(shù)據(jù)集共計(jì)7類(lèi),但未涉及目前市場(chǎng)上常見(jiàn)的可食用野生菌種類(lèi),數(shù)據(jù)集不具備普遍適應(yīng)性。文獻(xiàn)[8]探討了基于改進(jìn)Xception遷移學(xué)習(xí)的野生菌種類(lèi)識(shí)別研究,其數(shù)據(jù)集和文獻(xiàn)[6]存在相同問(wèn)題,即大部分來(lái)自于網(wǎng)絡(luò)收集,存在不夠貼近實(shí)際應(yīng)用場(chǎng)景的問(wèn)題,且文獻(xiàn)[8]采集的數(shù)據(jù)集主要為不可食用的野生菌種類(lèi),缺乏可食用野生菌種類(lèi)。
上述基于深度學(xué)習(xí)的野生菌檢測(cè)方法對(duì)可食用野生菌的識(shí)別做出了一定貢獻(xiàn),但仍然有改進(jìn)空間:如野生菌的生長(zhǎng)受地域影響,其菌類(lèi)繁雜,對(duì)于使用深度學(xué)習(xí)進(jìn)行野生菌檢測(cè)首先應(yīng)該限定區(qū)域,并對(duì)特定區(qū)域的野生菌進(jìn)行收集分類(lèi);部分野生菌類(lèi)之間特征差異較小,從外觀上僅表現(xiàn)為部分紋理的不同,因此對(duì)于數(shù)據(jù)集的圖像分辨率要求較高;野生菌識(shí)別時(shí)因背景較為復(fù)雜,在收集時(shí)應(yīng)該保持?jǐn)?shù)據(jù)集背景的多樣性,而非單目標(biāo)的單一背景圖片;收集的數(shù)據(jù)集應(yīng)盡可能避免修圖等破壞對(duì)象特征的情況存在。文獻(xiàn)[9]利用多尺度特征引導(dǎo)的細(xì)粒度野生菌圖像識(shí)別,使識(shí)別精確率得到了提升,但對(duì)實(shí)際應(yīng)用未做過(guò)多探討,未解決當(dāng)前野生菌市場(chǎng)的野生菌識(shí)別系統(tǒng)或設(shè)備欠缺的問(wèn)題。
深度學(xué)習(xí)廣泛應(yīng)用于微生物食品安全領(lǐng)域[10-11];在菌類(lèi)測(cè)量等方面,圖像分類(lèi)技術(shù)也具備良好的效果[12];在農(nóng)業(yè)疾病控制方面,圖像分割技術(shù)也應(yīng)用廣泛,如文獻(xiàn)[13-14]利用深度學(xué)習(xí)對(duì)病害孢子進(jìn)行精準(zhǔn)分割。利用深度學(xué)習(xí)實(shí)現(xiàn)可食用與不可食用野生菌的分類(lèi)檢測(cè)是解決問(wèn)題的關(guān)鍵,但仍然需要做出諸多完善。在數(shù)據(jù)集方面,收集高質(zhì)量、多種類(lèi)具有代表性圖片共計(jì)4 000張;在模型設(shè)計(jì)改進(jìn)方面引入CBAM注意力機(jī)制,結(jié)合可食用野生菌的多尺度特征融合,增加Anchor層,利用超參數(shù)進(jìn)化去優(yōu)化訓(xùn)練超參數(shù),最后結(jié)合自制數(shù)據(jù)集進(jìn)行訓(xùn)練獲取模型。從P-R曲線圖可知,相較于原網(wǎng)絡(luò)結(jié)構(gòu)模型,野生菌的識(shí)別率得到明顯提升,Map提升3.7%,達(dá)到93.2%,同時(shí)準(zhǔn)確率(Precision)提升1.3%,召回率(Recall)提升1.0%,且模型檢測(cè)速度提升2.3%;Map相較于其他目標(biāo)檢測(cè)網(wǎng)絡(luò)如Faster_Rcnn和SSD網(wǎng)絡(luò)分別提升了7.5%和14.3%。在實(shí)現(xiàn)可食用野生菌識(shí)別精確率提升的同時(shí),結(jié)合NCNN框架,將其部署至安卓系統(tǒng)上,降低深度學(xué)習(xí)使用門(mén)檻較高的問(wèn)題,實(shí)現(xiàn)人人能方便使用的目的。
每年7月和8月為可食用野生菌生長(zhǎng)旺季,通過(guò)手機(jī)實(shí)地拍攝構(gòu)建可食用野生菌數(shù)據(jù)集,其為高質(zhì)量、多角度、具備普遍適用性的數(shù)據(jù)集。該數(shù)據(jù)集共計(jì)4 000張圖片,包括16 000余朵野生菌對(duì)象,大部分圖像分辨率為4344×5792 px,圖片具備高清晰度。本次采集的數(shù)據(jù)集共計(jì)12類(lèi)(圖1),其中可食用野生菌10類(lèi),均為在云南野生菌市場(chǎng)常見(jiàn)種類(lèi),分別為青頭菌、白牛肝菌、紅牛肝菌、黑牛肝菌、紅見(jiàn)手青、黃見(jiàn)手青、黑羊肝菌、雞油菌、雞樅菌、靈芝;2類(lèi)不可食用野生菌分別為毒蠅傘和鵝膏菌。
圖1 數(shù)據(jù)集種類(lèi)
圖1中,本數(shù)據(jù)集的對(duì)象并非為單一對(duì)象,其包含大量多種類(lèi)對(duì)象圖片,目的在于增強(qiáng)模型最終的泛化性能,增強(qiáng)目標(biāo)檢測(cè)能力,使得其在實(shí)際應(yīng)用時(shí)得到較好的效果。在上述12類(lèi)野生菌中,大部分為有毒野生菌,只是毒性強(qiáng)弱不等,且部分有毒野生菌經(jīng)過(guò)適當(dāng)加工后可以食用。
深度學(xué)習(xí)中關(guān)于模型訓(xùn)練參數(shù)可分為模型參數(shù)和模型超參數(shù)。模型超參數(shù)又可分為結(jié)構(gòu)超參數(shù)和運(yùn)行超參數(shù)2類(lèi),結(jié)構(gòu)超參數(shù)是指在模型結(jié)構(gòu)中起決定性作用的配置變量,也稱(chēng)為神經(jīng)結(jié)構(gòu)搜索(neural architecture search,NAS)[15]。如,隱藏層的層數(shù)、卷積核與池化核的大小和數(shù)量,其均為卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)的結(jié)構(gòu)超參數(shù);運(yùn)行超參數(shù)即運(yùn)行神經(jīng)網(wǎng)絡(luò)的超參數(shù),如學(xué)習(xí)率、批量大小等[16],本文主要用于進(jìn)化運(yùn)行超參數(shù)。
文獻(xiàn)[17]在訓(xùn)練時(shí)偶爾增大學(xué)習(xí)率而非持續(xù)地減少,雖然短期內(nèi)會(huì)造成模型性能表現(xiàn)不佳,但最終訓(xùn)練結(jié)果在測(cè)試集上表現(xiàn)卻比傳統(tǒng)的逐漸衰減策略更好,以更大地學(xué)習(xí)率進(jìn)行學(xué)習(xí)能加快速度逃離鞍點(diǎn),從而加速模型收斂。余弦退火可通過(guò)余弦函數(shù)來(lái)調(diào)整學(xué)習(xí)率,隨著值的增加,余弦值先緩慢下降,后加速下降,再緩慢下降。將這種模式用于學(xué)習(xí)率的調(diào)整,可產(chǎn)生很好的效果。
在SGDR實(shí)現(xiàn)中,學(xué)習(xí)率調(diào)整策略為:先確定學(xué)習(xí)率的極大值和極小值以及循環(huán)周期步長(zhǎng)。根據(jù)式(1),確定訓(xùn)練步長(zhǎng),然后以最大學(xué)習(xí)率進(jìn)行訓(xùn)練,并在每個(gè)訓(xùn)練步長(zhǎng)結(jié)束后逐漸降低學(xué)習(xí)率,直到最小學(xué)習(xí)率,然后將學(xué)習(xí)率逐步恢復(fù)到最大學(xué)習(xí)率繼續(xù)下一次訓(xùn)練,即
其中,max和min分別為學(xué)習(xí)率的最大和最小范圍;T為步長(zhǎng)。
在本文模型訓(xùn)練中,超參數(shù)進(jìn)化列表共有36個(gè),超參數(shù)包括:學(xué)習(xí)率、余弦退火超參數(shù)、學(xué)習(xí)率動(dòng)量、權(quán)重衰減系數(shù)、預(yù)熱學(xué)習(xí)步長(zhǎng)、預(yù)熱學(xué)習(xí)率動(dòng)量、預(yù)熱學(xué)習(xí)率等。文中超參數(shù)的進(jìn)化原理為,首先根據(jù)設(shè)置的權(quán)重判斷參數(shù)的優(yōu)先級(jí),如本文設(shè)置Map@0.5為第一參數(shù),Map@0.5:0.95為第二參數(shù),則權(quán)重參數(shù)設(shè)置為[0.9 0.1],然后將之前訓(xùn)練所得的超參數(shù)矩陣與權(quán)重相乘,通過(guò)排列的方式將mAP@0.5參數(shù)更優(yōu)的超參數(shù)組合置頂在矩陣的首行,組成一個(gè)新的超參數(shù)矩陣;最后通過(guò)2種參數(shù)選擇方法選擇下一代超參數(shù),其一根據(jù)權(quán)重隨機(jī)選擇,其二融合歷代超參數(shù)作為下一代超參數(shù)。
在目標(biāo)檢測(cè)中,最為重要的評(píng)價(jià)指標(biāo)有Precision,Recall,Map@0.5和Map@0.5:0.95。本文重點(diǎn)關(guān)注Map@0.5值的提升,所以預(yù)先設(shè)置權(quán)重=[0 0 0.9 0.1]。為×的一個(gè)矩陣,為超參數(shù)已迭代的次數(shù),為超參數(shù)的個(gè)數(shù)。假設(shè)迭代次數(shù)為1,即=1,將權(quán)重與矩陣相乘,得到
若迭代次,則得到個(gè),矩陣是一個(gè)1×的矩陣,且由組成。
將矩陣中的各項(xiàng)按照從大到小重新排列,以各項(xiàng)順序作為矩陣的索引值,并將矩陣重新排列,實(shí)現(xiàn)將Map@0.5更優(yōu)的參數(shù)列依次置頂,將重新排列后的矩陣稱(chēng)為矩陣,其是一個(gè)×的矩陣。
以為基礎(chǔ),計(jì)算一個(gè)新的權(quán)重為
其中,為防止*為零,增加一個(gè)常數(shù)b,b取值為1e-6。
有了權(quán)重*后,提供2種獨(dú)立方法選擇下一代超參數(shù)。從矩陣中根據(jù)權(quán)重*隨機(jī)選擇一組超參數(shù),利用choices函數(shù)實(shí)現(xiàn);再進(jìn)行*與矩陣的運(yùn)算,獲得×的矩陣,即
之后對(duì)矩陣每一列進(jìn)行求和,最終得到一個(gè)1×的矩陣,對(duì)其各項(xiàng)除以*的和,由此得到個(gè)新超參數(shù),其為融合歷代超參數(shù)特點(diǎn)所得的下一代超參數(shù),即
在超參數(shù)進(jìn)化的過(guò)程中,設(shè)置權(quán)重為[0.9 0.1],再次用choices函數(shù)對(duì)2種迭代方法交替使用,以實(shí)現(xiàn)在繼承最優(yōu)父類(lèi)的同時(shí),保持以往的延續(xù)。進(jìn)行適當(dāng)次數(shù)的超參數(shù)進(jìn)化后獲得了更適合于野生菌分類(lèi)的參數(shù),使用該系列參數(shù)進(jìn)行模型訓(xùn)練,相較于基于COCO數(shù)據(jù)集進(jìn)化參數(shù)所得的模型,最終Map值提升了1.8%。
在實(shí)際場(chǎng)景中應(yīng)用可食用野生菌檢測(cè),需考慮應(yīng)用場(chǎng)景的復(fù)雜性,對(duì)可食用野生菌特征進(jìn)行多尺度融合可取得良好效果。進(jìn)行多尺度特征融合不僅能提高驗(yàn)證集的表現(xiàn),也能夠加強(qiáng)模型在實(shí)際應(yīng)用場(chǎng)景中的泛化能力。其廣泛應(yīng)用于,如食品安全[18]、信號(hào)分類(lèi)[19]、目標(biāo)跟蹤[20]等領(lǐng)域。
由于多尺度特征網(wǎng)絡(luò)結(jié)構(gòu)較靈活,且沒(méi)有清晰的界限,可將網(wǎng)絡(luò)結(jié)構(gòu)分為:多尺度輸入、多尺度特征融合、多尺度輸出。對(duì)于多尺度輸入,顧名思義就是將多個(gè)尺度的圖像輸入網(wǎng)絡(luò),然后對(duì)每層圖片提取不同尺度的特征,融合后得到新的特征圖,最后對(duì)每個(gè)尺度的特征均進(jìn)行單獨(dú)的預(yù)測(cè)。多尺度圖像輸入如圖2所示,本文對(duì)圖像進(jìn)行最小0.5倍,最大1.6倍的縮放,最后送往網(wǎng)絡(luò)對(duì)其執(zhí)行訓(xùn)練。
圖2 多尺度圖像輸入
本文網(wǎng)絡(luò)結(jié)構(gòu)采用PANet作為特征融合,其為特征金字塔(feature pyramid networks,F(xiàn)PN)的改進(jìn)版。FPN通過(guò)上采樣,與上一層特征融合,經(jīng)過(guò)多層融合,其具備了多分辨率特征檢測(cè)的能力,以檢測(cè)不同大小的對(duì)象。PANet經(jīng)正、反向融合,相較于FPN提升了Map值。PANet結(jié)構(gòu)如圖3所示,其中的圖3(a)區(qū)域?yàn)镕PN骨干部分;相較于FPN,PANet開(kāi)辟新的道路,將頂層信息快速與底層信息匯合;圖3(b)區(qū)域?yàn)樽韵露系奶卣魅诤稀?/p>
多尺度目標(biāo)檢測(cè)方法中的Bounding Box設(shè)計(jì),利用RPN網(wǎng)絡(luò)生成不同尺度的Anchor,實(shí)現(xiàn)多尺度目標(biāo)檢測(cè)。在原網(wǎng)絡(luò)結(jié)構(gòu)中,Anchor共計(jì)3層,考慮到實(shí)際應(yīng)用中的泛化性能,將3層增至4層。在骨干(Backbone)結(jié)構(gòu)部分,在之前的1 024與512卷積層之間增加一個(gè)卷積層及一個(gè)C3模塊;而在PANet部分也增加與之對(duì)應(yīng)的特征融合層,如圖4加粗標(biāo)識(shí)所示。經(jīng)過(guò)上述改動(dòng)后,新模型的Map值提升2.3%。
圖3 PANet結(jié)構(gòu)細(xì)化圖((a)FPN骨干;(b)特征融合)
圖4 模型總體網(wǎng)絡(luò)結(jié)構(gòu)
注意力機(jī)制主要是通過(guò)模擬人眼的視覺(jué)注意力,在模型訓(xùn)練中主動(dòng)關(guān)注感興趣的區(qū)域,以便更好地學(xué)習(xí)圖像中的重要特征,其被廣泛應(yīng)用于車(chē)輛分類(lèi)[21-22]和行人屬性識(shí)別[23],以及面部表情識(shí)別[24]等領(lǐng)域。
注意力機(jī)制通常分為通道(Channel)注意力機(jī)制以及空間(Spatial)注意力機(jī)制。本文選用常見(jiàn)的幾種注意力機(jī)制進(jìn)行實(shí)驗(yàn),分別對(duì)比其各自的性能,以選擇更好的注意力機(jī)制進(jìn)行后續(xù)的組合實(shí)驗(yàn)。
本文選擇CBAM (convolutional block attention module),SE (Selayer)和CA (coord attention) 3種注意力機(jī)制以及包含自注意力機(jī)制的TR (transformer block)進(jìn)行實(shí)驗(yàn),4組實(shí)驗(yàn)均將模塊放于骨干網(wǎng)絡(luò)(Backbone)的末端,如圖4所示。
SELayer來(lái)源于SENet[25],SE模塊主要為了提升模型對(duì)通道特征的敏感性,該模塊屬于輕量級(jí),應(yīng)用于現(xiàn)有的網(wǎng)絡(luò)結(jié)構(gòu)中,只需要增加較少的計(jì)算量就可以帶來(lái)性能的提升。SE模塊只考慮了通道間信息的編碼,但忽略了空間位置信息的重要性,而位置信息對(duì)于很多需要捕獲目標(biāo)結(jié)構(gòu)的視覺(jué)任務(wù)至關(guān)重要。
CA將通道注意力進(jìn)行了分解,為2個(gè)不同方向的特征編碼過(guò)程。其好處是可以沿著一個(gè)空間方向捕獲長(zhǎng)程依賴(lài),沿著另一個(gè)空間方向保留精確的位置信息。然后,將生成的特征圖進(jìn)行分別編碼,形成一對(duì)方向感知和位置敏感的特征圖,并可互補(bǔ)地應(yīng)用于輸入特征圖中以增強(qiáng)感興趣的目標(biāo)。CA通常是靈活且高效的,不會(huì)帶來(lái)更多的額外計(jì)算量,使得目標(biāo)檢測(cè)更為有效。本文嘗試在Backbone中引入CA,但結(jié)果不理想。以往學(xué)者常將CA,SE以及CBAM進(jìn)行注意力機(jī)制性能對(duì)比,依據(jù)文獻(xiàn)[26],本文嘗試加入CBAM注意力機(jī)制。
CBAM[27]是一種用于前饋CNN的簡(jiǎn)單而有效的注意力模塊;相較于SE只關(guān)注通道注意力機(jī)制而言,CBAM結(jié)合了通道和空間的注意力機(jī)制顯得更為高效。CBAM將輸入的特征圖順序通過(guò)通道和空間模塊,即首先將輸入的特征圖經(jīng)過(guò)全局最大池化(global max pooling)和全局平均池化(global average pooling),然后經(jīng)過(guò)全連接層,加權(quán)后得到通道注意力特征圖;之后將通道注意力特征圖與輸入特征圖進(jìn)行Element-Wise乘法操作,最終獲得空間注意力特征圖。通過(guò)實(shí)驗(yàn)可知,CBAM更適合應(yīng)用于野生菌分類(lèi)檢測(cè),相較于未添加CBAM的原生網(wǎng)絡(luò)而言,前者的Map值提升了1.5%,召回率也提升了2.0%。
將數(shù)據(jù)集輸入網(wǎng)絡(luò)前,對(duì)輸入圖片進(jìn)行Resize操作,統(tǒng)一縮放為640×640大小,并送入Focus進(jìn)行切片操作,然后通過(guò)Concat操作進(jìn)行連接,最后進(jìn)行卷積,該模塊的設(shè)計(jì)主要是減少參數(shù)量,以達(dá)到降維、提速的目的。卷積完成后送入C3模塊,其與BottleneckCSP模塊結(jié)構(gòu)基本一致,在一般的CNN網(wǎng)絡(luò)中,卷積層、BN層、激活函數(shù)均是配套出現(xiàn)的,但是從YOLOV5-V4.0開(kāi)始,激活函數(shù)就由LeakyReLU改為SiLU函數(shù),而C3模塊取代了原CSP模塊,C3由3個(gè)卷積組合,而CSP模塊由4個(gè)卷積組合,通過(guò)C3替換CSP,可以起到精簡(jiǎn)網(wǎng)絡(luò)結(jié)構(gòu),減少計(jì)算量及模型推理時(shí)間的作用。SPP模塊分別采用3,5,7的最大池化,進(jìn)行Concat融合,提高感受野。在Backbone的最后,加入CBAM注意力機(jī)制,以便更好地學(xué)習(xí)感興趣區(qū)域,提高模型Map值。在網(wǎng)絡(luò)的Neck部分,采用PANet,通過(guò)增加從最底層到最上層的信息傳輸路徑,加強(qiáng)了FPN,使得模型泛化性能增強(qiáng),提升識(shí)別對(duì)象的能力。
可食用野生菌分類(lèi)數(shù)據(jù)集為自建數(shù)據(jù)集,共計(jì)12個(gè)種類(lèi),4 000張高清圖像,16 000余朵野生菌對(duì)象。實(shí)驗(yàn)中數(shù)據(jù)集劃分按照訓(xùn)練集﹕驗(yàn)證集﹕測(cè)試集=7﹕2﹕1進(jìn)行劃分。
實(shí)驗(yàn)操作系統(tǒng)為Windows 10服務(wù)器,CPU為i5 10400,GPU為3060。深度學(xué)習(xí)框架為Pytorch 1.9,編程環(huán)境選擇Python 3.8,CUDA驅(qū)動(dòng)版本選擇11.1。實(shí)驗(yàn)共計(jì)4組,在模型訓(xùn)練時(shí),訓(xùn)練步數(shù)均為200步;在獲取模型指標(biāo)時(shí),交并比(intersection over union,IoU)和置信度閾值(Conf)等參數(shù)設(shè)置均保持一致,為0.6和0.001;關(guān)于Yolov5改進(jìn)與對(duì)比部分實(shí)驗(yàn)均采用Yolov5s結(jié)構(gòu);所有實(shí)驗(yàn)均在COCO數(shù)據(jù)預(yù)訓(xùn)練所得的模型上進(jìn)行遷移學(xué)習(xí)。
2.2.1 實(shí)驗(yàn)方法分析
實(shí)驗(yàn)共計(jì)4組,①將多尺度變化、使用進(jìn)化所得超參數(shù)、增加Anchor層等方法單獨(dú)實(shí)驗(yàn),并與原Yolov5進(jìn)行對(duì)比;②對(duì)比目前常見(jiàn)的注意力機(jī)制運(yùn)用效果,即自帶注意力機(jī)制(self-attention)的Transformer Block,和選用的Convolutional Block Attention Module,Selayer和Coord Attention 3種注意力機(jī)制;③分別將上述注意力機(jī)制與多尺度變化、超參數(shù)進(jìn)化以及增加Anchor層相結(jié)合進(jìn)行實(shí)驗(yàn)對(duì)比;④選擇本文中最優(yōu)模型與常見(jiàn)的目標(biāo)檢測(cè)網(wǎng)絡(luò)進(jìn)行對(duì)比,如歷代Yolo,SSD和Faster Rcnn等。
主要評(píng)價(jià)指標(biāo)為Map,Precision和Recall,即
其中,參數(shù)有TP (true positives),F(xiàn)P (false positives),TN (true negatives)和FN (false negatives);Map值為確定IoU以及Precision和Recall后,繪制P-R曲線計(jì)算出AP值,再對(duì)AP取平均值。
2.2.2 實(shí)驗(yàn)一
實(shí)驗(yàn)一對(duì)多尺度變化、超參數(shù)進(jìn)化和增加Anchor層分別進(jìn)行實(shí)驗(yàn),其中增加Anchor層實(shí)驗(yàn)相較于原網(wǎng)絡(luò)結(jié)構(gòu)提升最大,Map達(dá)到91.8%,Precision達(dá)到94.1%,其P-R曲線圖如圖5所示。實(shí)驗(yàn)結(jié)果及其對(duì)比見(jiàn)表1。
2.2.3 添加注意力機(jī)制實(shí)驗(yàn)二
本文實(shí)驗(yàn)中引入了CBAM,SE和CA 3種注意力機(jī)制以及包含自注意力機(jī)制的TR。對(duì)比4組實(shí)驗(yàn)結(jié)果(表2),可以發(fā)現(xiàn)加入CBAM注意力機(jī)制對(duì)于模型的第一指標(biāo)Map值有小幅提升,提升1.5%,召回率提升2.0%;對(duì)于模型的Precision而言,僅有SE注意力機(jī)制有小幅度提升。加入CBAM注意力機(jī)制訓(xùn)練所的模型的P-R曲線如圖6所示。
圖5 增加Anchor層的模型P-R曲線
表1 實(shí)驗(yàn)數(shù)據(jù)(%)
表2 注意力機(jī)制實(shí)驗(yàn)數(shù)據(jù)(%)
圖6 加入CBAM機(jī)制的模型P-R曲線
2.2.4 組合實(shí)驗(yàn)三
第3組實(shí)驗(yàn)是在第1組和第2組實(shí)驗(yàn)的基礎(chǔ)上進(jìn)行組合的,即分別將幾種注意力機(jī)制與多尺度變化、超參數(shù)進(jìn)化、增加Anchor層進(jìn)行組合實(shí)驗(yàn)的結(jié)果,見(jiàn)表3。由表3可知,CBAM注意力機(jī)制結(jié)合多尺度變化、超參數(shù)進(jìn)化和增加Anchor層訓(xùn)練所得的模型結(jié)果達(dá)到最優(yōu),相較于未進(jìn)行改進(jìn)的Yolov5,該模型用于評(píng)價(jià)目標(biāo)檢測(cè)好壞的 3個(gè)指標(biāo)均得到提升,Map值提升最大,達(dá)到3.7%;Precision提升1.3%;Recall提升1.0%。所有訓(xùn)練所得模型對(duì)400張測(cè)試圖片進(jìn)行檢測(cè)時(shí),CBAM組合模型耗時(shí)最短,相較于原生Yolov5減少2 s的時(shí)長(zhǎng)。CBAM注意力機(jī)制結(jié)合多尺度變化、超參數(shù)進(jìn)化以及增加Anchor層訓(xùn)練所得模型指標(biāo)如圖7所示。
表3 注意力機(jī)制組合實(shí)驗(yàn)數(shù)據(jù)
注:MS為多尺度變化;HE為超參數(shù)進(jìn)化;FA為增加Anchor層至4層
圖7 CBAM機(jī)制組合實(shí)驗(yàn)?zāi)P蚉-R曲線
2.2.5 與其他網(wǎng)絡(luò)進(jìn)行對(duì)比實(shí)驗(yàn)
從實(shí)驗(yàn)三中可以看出,CBAM組合實(shí)驗(yàn)所得的模型指標(biāo)達(dá)到最優(yōu),較原生的Yolov5均得到提升,該模型即為本文推薦最優(yōu)模型。
使用該模型與目前常見(jiàn)的目標(biāo)檢測(cè)算法One- Stage與Two-Stage所對(duì)應(yīng)的代表網(wǎng)絡(luò)進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果見(jiàn)表4。
表4 各網(wǎng)絡(luò)對(duì)比實(shí)驗(yàn)數(shù)據(jù)
從上述4組實(shí)驗(yàn)中可以看出,對(duì)于超參數(shù)進(jìn)化、增加Anchor層以及添加注意力機(jī)制均對(duì)模型有不同程度地提升,且多尺度變化會(huì)影響模型應(yīng)用的泛化性能,因此本文最優(yōu)模型將所述內(nèi)容全部進(jìn)行結(jié)合,最終訓(xùn)練所得模型在Map,Precision和Recall以及模型檢測(cè)速度方面均得到提升,相較于Unchanged yolov5,Map提升3.7%,Precision提升1.3%,Recall提升1.0%,模型檢測(cè)速度提升2.3%。
使用改進(jìn)后的模型與目前主流的目標(biāo)檢測(cè)網(wǎng)絡(luò)訓(xùn)練所得的模型進(jìn)行對(duì)比,相較于其他Yolo系列網(wǎng)絡(luò),Map提升5.0%以上,Precision提升9.0%以上;相較于Faster-Rcnn網(wǎng)絡(luò),Map提升7.5%;相較于SSD網(wǎng)絡(luò),Map提升14.3%。
圖8為模型實(shí)際測(cè)試效果對(duì)比圖,選用了Yolov3,SSD以及Faster-Rcnn與本文改進(jìn)后的模型進(jìn)行對(duì)比。測(cè)試圖片選用外觀相似的菌種,如白牛肝菌、黃見(jiàn)手青以及青頭菌;圖片背景選用單一以及復(fù)雜2種背景;野生菌對(duì)象數(shù)選用單一目標(biāo)以及多目標(biāo)2種。從圖8可以看出,其他3種模型在對(duì)復(fù)雜背景且對(duì)象數(shù)眾多的圖片進(jìn)行檢測(cè)時(shí),均出現(xiàn)了不同程度的誤檢。
圖8 模型測(cè)試效果圖
本文致力于準(zhǔn)確、快速地實(shí)現(xiàn)可食用野生菌的分類(lèi)檢測(cè)。針對(duì)目前野生菌的分類(lèi)檢測(cè)如分子鑒定法、化學(xué)檢測(cè)法、動(dòng)物實(shí)驗(yàn)檢驗(yàn)法、真菌分類(lèi)學(xué)鑒定法和形態(tài)特征識(shí)別方法等,通常不適合于廣大群眾??墒秤靡吧鳛橐环N常見(jiàn)的食物,人們?cè)诓耸袌?chǎng)即可購(gòu)得,并不會(huì)花費(fèi)大量的時(shí)間和金錢(qián)去鑒別,分辨野生菌是否可食用一般通過(guò)個(gè)人認(rèn)知或賣(mài)家介紹,這伴隨著巨大的安全隱患,因此本文基于深度學(xué)習(xí),提出一種快速、準(zhǔn)確的檢測(cè)方法,解決該問(wèn)題。
NCNN是一個(gè)為手機(jī)端極致優(yōu)化的高性能神經(jīng)網(wǎng)絡(luò)前向計(jì)算框架。在設(shè)計(jì)之初就考慮手機(jī)端的部署和使用。其無(wú)第三方依賴(lài),手機(jī)端CPU運(yùn)行的速度快于目前所有已知的開(kāi)源框架。采用NCNN框架進(jìn)行移動(dòng)端本地部署,主要目的在于追求識(shí)別速度,因此模型的簡(jiǎn)化是必要的,識(shí)別效果如圖9所示,其對(duì)野生菌的識(shí)別具有一定作用。
圖9 模型部署安卓測(cè)試效果圖
考慮到用戶(hù)可能需要準(zhǔn)確度更高的識(shí)別方式,因此擬通過(guò)云端部署模型進(jìn)行識(shí)別的方式解決該問(wèn)題。在云端部署準(zhǔn)確度更高的模型,通過(guò)手機(jī)拍照上傳圖片,以阿里云OSS作為圖片存儲(chǔ)的中轉(zhuǎn)站,最終通過(guò)云端服務(wù)器對(duì)圖片進(jìn)行檢測(cè),輸出相應(yīng)檢測(cè)信息,回傳至Mysql數(shù)據(jù)庫(kù)等待手機(jī)端調(diào)用回傳。
本App設(shè)計(jì)的初衷旨在于為廣大民眾在購(gòu)買(mǎi)野生菌時(shí)提供一定的幫助,同時(shí)也起到科普及鑒別的作用。本地部署的識(shí)別方法已有相關(guān)報(bào)道[28],考慮到識(shí)別準(zhǔn)確性問(wèn)題,本應(yīng)用程序提供了2種識(shí)別方法。在各種場(chǎng)景中為用戶(hù)提供不同的識(shí)別方法供其選擇,以改善用戶(hù)體驗(yàn)。
(1) 本地識(shí)別(無(wú)需接入互聯(lián)網(wǎng))實(shí)時(shí)性好,但準(zhǔn)確度不如云端部署模式;
(2) 云端部署模型的方法具有高精度,但由于網(wǎng)絡(luò)波動(dòng)等因素,實(shí)時(shí)性較差。
本文結(jié)合多尺度特征、超參數(shù)進(jìn)化以及CBAM注意力機(jī)制提出了一種針對(duì)野生菌分類(lèi)檢測(cè)的網(wǎng)絡(luò)。通過(guò)與其他的目標(biāo)檢測(cè)網(wǎng)絡(luò)對(duì)比,該網(wǎng)絡(luò)具備更準(zhǔn)確、更快速地檢測(cè)特點(diǎn),其相較于原Yolov5網(wǎng)絡(luò),Map提升3.7%,達(dá)到93.2%,Precision提升1.3%,Recall提升1.0%,且模型檢測(cè)速度提升2.3%。野生菌種類(lèi)繁雜,文中提及種類(lèi)共計(jì)12類(lèi),增加模型能鑒別的種類(lèi)將提升應(yīng)用的實(shí)際意義;對(duì)于模型鑒別種類(lèi)準(zhǔn)確性的進(jìn)一步提升,使用具備更強(qiáng)計(jì)算能力的設(shè)備完善超參數(shù)可能會(huì)取得更好的效果。
[1] 萬(wàn)蓉, 劉志濤, 萬(wàn)青青, 等. 2011—2017年云南省野生菌中毒情況分析[J]. 衛(wèi)生軟科學(xué), 2019, 33(10): 84-86, 97.
WAN R, LIU Z T, WAN Q Q, et al. Analysis on wild mushroom poisoning in Yunnan Province from 2011 to 2017[J]. Soft Science of Health, 2019, 33(10): 84-86, 97 (in Chinese).
[2] GRANDSTAFF D E, TERRY D O Jr. Rare earth element composition of Paleogene vertebrate fossils from Toadstool Geologic Park, Nebraska, USA[J]. Applied Geochemistry, 2009, 24(4): 733-745.
[3] ZHAO J, CAO M, ZHANG J, et al. Pathological effects of the mushroom toxin α-amanitin on BALB/c mice[J]. Peptides, 2006, 27(12): 3047-3052.
[4] 桂明英, 何容, 郭永紅, 等. 基于形態(tài)特征和ITS序列對(duì)新疆蘆葦根蘑菇的分類(lèi)鑒定[J]. 食用菌, 2014, 36(4): 14-16.
GUI M Y, HE R, GUO Y H, et al. Classification and identification of Xinjiang reed root mushrooms based on morphological characteristics and ITS sequences[J]. Edible Fungi, 2014, 36(4): 14-16 (in Chinese).
[5] 曾令奎. 毒蘑菇中毒的識(shí)別和預(yù)防[J]. 中國(guó)林副特產(chǎn), 2008(1): 97-98.
ZENG L K. Recognition and Prevention of Poisonous Mushroom Poisoning[J]. Forest by-Product and Speciality in China, 2008(1): 97-98 (in Chinese).
[6] 沈若蘭, 黃英來(lái), 溫馨, 等. 基于Xception與ResNet50模型的蘑菇分類(lèi)方法[J]. 黑河學(xué)院學(xué)報(bào), 2020, 11(7): 181-184.
SHEN R L, HUANG Y L, WEN X, et al. Mushroom classification based on xception and ResNet50 models[J]. Journal of Heihe University, 2020, 11(7): 181-184 (in Chinese).
[7] 肖杰文, 趙鋮博, 李欣潔, 等. 基于深度學(xué)習(xí)的蘑菇圖像分類(lèi)研究[J]. 軟件工程, 2020, 23(7): 21-26.
XIAO J W, ZHAO C B, LI X J, et al. Research on mushroom image classification based on deep learning[J]. Software Engineering, 2020, 23(7): 21-26 (in Chinese).
[8] 陳德剛, 艾孜爾古麗, 尹鵬博, 等. 基于改進(jìn)Xception遷移學(xué)習(xí)的野生菌種類(lèi)識(shí)別研究[J]. 激光與光電子學(xué)進(jìn)展, 2021, 58(8):245-254.
CHEN D G, AZRAGUL,YIN P B, et al. Research on identification of wild mushroom species based on improved xception transfer learning[J]. Laser & Optoelectronics Progress, 2021, 58(8): 245-254 (in Chinese).
[9] 張志剛, 余鵬飛, 李海燕, 等. 基于多尺度特征引導(dǎo)的細(xì)粒度野生菌圖像識(shí)別[J/OL]. 激光與光電子學(xué)進(jìn)展: 2021, 1-19. http://kns.cnki.net/kcms/detail/31.1690.tn.20210823.1131.008.html.
ZHANG Z G, YU P F, LI H Y, et al. Fine-grained image recognition of wild mushroom based on multi-scale feature guidance[J/OL]. Laser and Optoelectronics, 2021, 1-19. http://kns.cnki.net/kcms/detail/31.1690.tn.20210823.1131.008.html (in Chinese).
[10] BHAT R, KIRAN K, ARUN A B, et al. Determination of mineral composition and heavy metal content of some nutraceutically valued plant products[J]. Food Analytical Methods, 2010, 3(3): 181-187.
[11] ABDULLAH M Z, MOHAMAD-SALEH J, FATHINUL- SYAHIR A S, et al. Discrimination and classification of fresh-cut starfruits (Averrhoa carambola L.) using automated machine vision system[J]. Journal of Food Engineering, 2006, 76(4): 506-523.
[12] 朱怡航, 張小斌, 沈穎越, 等. 基于圖像識(shí)別技術(shù)的金針菇表型高通量采集與分析[J]. 菌物學(xué)報(bào), 2021, 40(3): 626-640.
ZHU Y H, ZHANG X B, SHEN Y Y, et al. High-throughput phenotyping collection and analysis of Flammulina filiformis based on image recognition technology[J]. Mycosystema, 2021, 40(3): 626-640 (in Chinese).
[13] ZHAO Y C, LIN F S, LIU S G, et al. Constrained-focal-loss based deep learning for segmentation of spores[EB/OL]. [2021-04-26].https://ieeexplore.ieee.org/document/8896836.
[14] ZHAO Y C, LIU S G, HU Z H. Focal learning on stranger for imbalanced image segmentation[J]. IET Image Processing, 2022, 16(5): 1305-1323.
[15] LUO R Q, TIAN F, QIAN T, et al. Neural Architecture Optimization[J]. Neural Information Processing Systems, 2018, 34(2): 7827-7838.
[16] 龔道慶. 深度神經(jīng)網(wǎng)絡(luò)模型超參數(shù)進(jìn)化調(diào)優(yōu)及其應(yīng)用研究[D]. 南寧: 南寧師范大學(xué), 2020.
GONG D Q. Research on hyperparameter evolutionary tuning of deep neural network mode and its application[D]. Nanning: Nanning Normal University, 2020 (in Chinese).
[17] LOSHCHILOV I, HUTTER F. SGDR: stochastic gradient descent with warm restarts[EB/OL]. [2021-05-10]. https://arxiv.org/abs/1608.03983.
[18] ANUKRISHNA P R, PAUL V. A review on feature selection for high dimensional data[C]//2017 International Conference on Inventive Systems and Control. New York: IEEE Press, 2017: 1-4.
[19] 張繁, 尹鑫, 徐宇揚(yáng), 等. 基于多尺度特征提取的多導(dǎo)聯(lián)心跳信號(hào)分類(lèi)[J]. 圖學(xué)學(xué)報(bào), 2021, 42(4): 581-589.
ZHANG F, YIN X, XU Y Y, et al. Multi-lead heartbeat signal classification based on multi-scale feature extraction[J]. Journal of Graphics, 2021, 42(4): 581-589 (in Chinese).
[20] 牟琦, 張寒, 何志強(qiáng), 等. 基于深度估計(jì)和特征融合的尺度自適應(yīng)目標(biāo)跟蹤算法[J]. 圖學(xué)學(xué)報(bào), 2021, 42(4): 563-571.
MU Q, ZHANG H, HE Z Q, et al. Scale adaptive target tracking algorithm based on depth estimation and feature fusion[J]. Journal of Graphics, 2021, 42(4): 563-571 (in Chinese).
[21] 李宇昕, 楊帆, 劉釗, 等. 基于改進(jìn)殘差網(wǎng)絡(luò)的道口車(chē)輛分類(lèi)方法[J]. 激光與光電子學(xué)進(jìn)展, 2021, 58(4): 384-390.
LI Y X, YANG F, LIU Z, et al. Classification method of crossing vehicle based on improved residual network[J]. Laser & Optoelectronics Progress, 2021, 58(4): 384-390 (in Chinese).
[22] 陳錢(qián)球. 基于深度多任務(wù)學(xué)習(xí)的車(chē)輛細(xì)粒度分類(lèi)方法研究[D]. 南昌: 華東交通大學(xué), 2021.
CHEN Q Q. Research on the fine-grained classification of vehicles based on deep multi-task learning[D]. Nanchang: East China Jiaotong University, 2021 (in Chinese).
[23] 李娜, 武陽(yáng)陽(yáng), 劉穎, 邢琎. 基于多尺度注意力網(wǎng)絡(luò)的行人屬性識(shí)別算法[J]. 激光與光電子學(xué)進(jìn)展, 2021, 58(4): 290-296.
LI N, WU Y Y, LIU Y, et al. Pedestrian attribute recognition algorithm based on multi-scale attention network[J]. Laser & Optoelectronics Progress, 2021, 58(4): 290-296 (in Chinese).
[24] 史浩, 邢瑜航, 陳煉. 基于多尺度融合注意力機(jī)制的人臉表情識(shí)別研究[J]. 微電子學(xué)與計(jì)算機(jī), 2022, 39(3): 34-40.
SHI H, XING Y H, CHEN L. Research on facial expression recognition based on multi-scale fusion attention mechanism[J]. Microelectronics and Computer, 2022, 39(3): 34-40 (in Chinese).
[25] HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2018: 7132-7141.
[26] HOU Q B, ZHOU D Q, FENG J S. Coordinate attention for efficient mobile network design[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2021: 13708-13717.
[27] WOO S, PARK J, LEE J Y, et al.Convolutional block attention module[EB/OL]. [2021-05-23]. https://arxiv.org/ abs/1807.06521.
[28] 蘭寧. 基于Android平臺(tái)的圖像識(shí)別設(shè)計(jì)方法與實(shí)現(xiàn)[J]. 電子技術(shù)與軟件工程, 2021(19): 61-64.
LAN N. Design method and implementation of image recognition based on Android platform[J]. Electronic Technology & Software Engineering, 2021(19): 61-64 (in Chinese).
Research and application of wild mushrooms classification based on multi-scale features to realize hyperparameter evolution
ZHANG Dun1, HUANG Zhi-kai1, WANG Huan2, WU Yi-peng1, WANG Ying1, ZOU Jia-hao1
(1. School of Information Engineering, Nanchang Institute of Technology, Nanchang Jiangxi 330000, China; 2. School of Mechanical Engineering, Nanchang Institute of Technology, Nanchang Jiangxi 330000, China)
In China, there are frequent poisoning events caused by ingestion of inedible wild mushrooms every summer, especially in Southwest China, such as Yunnan. This is due to the slight differences in inter-class characteristics of wild mushrooms and the complex image backgrounds in actual scenarios, making it difficult to distinguish only by naked eyes. At present, although there are many methods to classify wild mushrooms, and the most reliable way is molecular identification, the relevant techniques are time-consuming and require a high threshold, so they are not suitable for real-time classification and detection. To solve this problem, an approach based on deep learning was proposed. This approach employed the attention mechanism convolution block attention module (CBAM), was combined with multi-scale fusion, and added the anchor layer. The hyperparameter evolution idea was adopted to adjust the hyperparameter during the model training, so as to improve the recognition accuracy. Compared with standard target detection networks, such as SSD, Faster Rcnn, and Yolo series, the proposed model can classify and detect wild mushrooms more accurately. Compared with the original Yolov5, after the proposed model was improved, Map was improved by 3.7% and reached 93.2%, precision by 1.3%, Recall by 1.0%, and model detection speed by 2.3%. Compared with SSD, Map was improved by 14.3%. Finally, the model was simplified and deployed on Android devices to increase its practicability, thus solving the current problem of poisoning caused by eating inedible wild mushrooms because of the difficulty of identification.
computer application; convolutional neural network; multi scale features; hyperparameter evolution; attention mechanism; edible wild mushrooms; target detection
24 December,2021;
National Key Research and Development Plan of China (2019YFB1704502); National Natural Science Foundation of China (61472173); The Grants from the Educational Commission of Jiangxi Province of China (GJJ151134)
ZHANG Dun (1996–), master student. His main research interests cover image processing and target detection. E-mail:zzzd0413@163.com
TP 391
10.11996/JG.j.2095-302X.2022040580
A
2095-302X(2022)04-0580-10
2021-12-24;
2022-03-24
24 March,2022
國(guó)家重點(diǎn)研發(fā)計(jì)劃項(xiàng)目(2019YFB1704502);國(guó)家自然科學(xué)基金項(xiàng)目(61472173);江西省教委資助項(xiàng)目(GJJ151134)
張 盾(1996-),男,碩士研究生。主要研究方向?yàn)閳D像處理與目標(biāo)檢測(cè)。E-mail:zzzd0413@163.com
黃志開(kāi)(1969-),男,教授,博士。主要研究方向?yàn)閳D像處理等。E-mail:huangzhik2001@163.com
HUANG Zhi-kai (1969-), professor, Ph.D. His main research interest covers image processing, etc. E-mail:huangzhik2001@163.com