摘 要:隨著城市的快速發(fā)展,居民的生活質(zhì)量日漸提高,但生活垃圾數(shù)量也迅速增加,許多城市都面臨著垃圾分類處理的難題。可回收垃圾占生活垃圾的比例很大,且其回收價(jià)值較高,可二次利用。針對(duì)目前人工分揀和機(jī)械分揀低效率、高成本的問(wèn)題,文中提出了改進(jìn)EfficientNet V1的可回收垃圾圖像分類方法,使用通道和空間注意力模塊和空間轉(zhuǎn)換器模塊用于改進(jìn)模型,增強(qiáng)對(duì)特征的提取能力。實(shí)驗(yàn)結(jié)果表明,僅使用空間轉(zhuǎn)換器模塊的模型在TrashNet數(shù)據(jù)集上的準(zhǔn)確率達(dá)到了98.88%,高于所有對(duì)比模型,而使用通道和空間注意力模塊以及同時(shí)使用兩種模塊的模型相對(duì)于原模型來(lái)說(shuō)精度有提升。在2種公共數(shù)據(jù)集Cifar100和ImageNet100上進(jìn)行實(shí)驗(yàn),僅使用空間轉(zhuǎn)換器模塊的模型仍獲得了最高準(zhǔn)確率62.78%和68.17%。利用深度學(xué)習(xí)技術(shù),實(shí)現(xiàn)了可回收垃圾準(zhǔn)確快速分類,為垃圾分類事業(yè)提供了幫助。
關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);垃圾分類;深度學(xué)習(xí);注意力機(jī)制;圖像分類;數(shù)據(jù)增強(qiáng)
中圖分類號(hào):TP391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-1302(2024)06-00-05
0 引 言
隨著城市的快速發(fā)展,經(jīng)濟(jì)發(fā)展與人口增長(zhǎng)導(dǎo)致全球各國(guó)的生活垃圾產(chǎn)生量增加,世界許多城市都面臨垃圾處理危機(jī)。垃圾分類回收任務(wù)是減少?gòu)U物產(chǎn)生、緩解環(huán)境壓力和改善國(guó)家經(jīng)濟(jì)的正確途徑[1]。目前,我國(guó)把生活垃圾分為可回收垃圾、其他垃圾、有害垃圾、廚余垃圾這四大類[2]。而其中可回收垃圾的價(jià)值較高,可通過(guò)分類回收進(jìn)行再循環(huán)利用,傳統(tǒng)的垃圾分類方法只能采取人工分揀和機(jī)械分揀等方法,這些方法費(fèi)時(shí)費(fèi)力,而且成本相對(duì)較高。計(jì)算機(jī)視覺(jué)和深度學(xué)習(xí)技術(shù)在分類識(shí)別垃圾方面效果明顯,只需通過(guò)RGB相機(jī)采集垃圾圖片,即可通過(guò)神經(jīng)網(wǎng)絡(luò)算法完成垃圾分類識(shí)別任務(wù)。
自從AlexNet[3]被提出并在ILSVRC-2012競(jìng)賽中取得冠軍后,深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)任務(wù)上的研究吸引了越來(lái)越多的學(xué)者,提出了許多新的模型,VGG、GoogleNet,ResNet[4-6]等優(yōu)秀的深度卷積網(wǎng)絡(luò)模型層出不窮。隨著模型對(duì)于分類識(shí)別任務(wù)的性能愈加突出,不斷加深或加寬卷積網(wǎng)絡(luò)模型使得參數(shù)和計(jì)算量越來(lái)越大,輕量級(jí)網(wǎng)絡(luò)逐漸引領(lǐng)新的深度學(xué)習(xí)熱潮,例如ShuffleNet,MobileNet,EfficientNet[7-9]等網(wǎng)絡(luò)在保證準(zhǔn)確率等性能指標(biāo)的同時(shí),使得網(wǎng)絡(luò)模型參數(shù)和計(jì)算量更少,速度更快。
由于許多模型的評(píng)價(jià)指標(biāo)是以大型公共數(shù)據(jù)集為基準(zhǔn),所以針對(duì)不同場(chǎng)景的分類任務(wù)需要使用不同的優(yōu)化手段。Yang等[10]針對(duì)可回收垃圾收集了2 527張圖像創(chuàng)建了TrashNet數(shù)據(jù)集,除此之外,很少有針對(duì)垃圾圖像的公共數(shù)據(jù)集,大多數(shù)研究都是在私有數(shù)據(jù)集上評(píng)估其模型[11],
目前也有許多研究使用TrashNet數(shù)據(jù)集來(lái)訓(xùn)練模型。BIRCANO?LU C等[12]修改DenseNet里Dense模塊的連接結(jié)構(gòu),在TrashNet上進(jìn)行訓(xùn)練,準(zhǔn)確率為81%。ZHANG Q等[13]將自注意力模塊(SMM)融入ResNet18中對(duì)TrashNet進(jìn)行訓(xùn)練,最終測(cè)試集的準(zhǔn)確率達(dá)到了95.87%。ADEDEJI O等[14]
使用支持向量機(jī)(SVM)作為ResNet50的分類器,能夠在TrashNet數(shù)據(jù)集上達(dá)到87%的準(zhǔn)確率。MAO W-L等[15]使用遺傳算法對(duì)DenseNet121全連接層的超參數(shù)進(jìn)行優(yōu)化微調(diào),并將全連接層的神經(jīng)元數(shù)量和Dropout層的丟棄率作為主要決策變量,優(yōu)化后的DenseNet121準(zhǔn)確率最高達(dá)到了99.6%。
研究以TrashNet作為基準(zhǔn)數(shù)據(jù)集,對(duì)每幅圖像進(jìn)行水平翻轉(zhuǎn)和垂直翻轉(zhuǎn)來(lái)填充數(shù)據(jù)集,以EfficientNetV1作為研究的主干網(wǎng)絡(luò),提出了一種改進(jìn)的基于深度學(xué)習(xí)的可回收垃圾分類方法。
1 算法研究
1.1 研究思路
本研究以構(gòu)建高準(zhǔn)確率的可回收垃圾分類模型為目的,使用輕量級(jí)網(wǎng)絡(luò)EfficientNet V1作為網(wǎng)絡(luò)主干,探究了即插即用的空間轉(zhuǎn)換器模塊(STN)[16]與通道和空間注意力機(jī)制(CBAM)[17]對(duì)網(wǎng)絡(luò)的影響,更新網(wǎng)絡(luò)基礎(chǔ)模塊構(gòu)成,通過(guò)數(shù)據(jù)增強(qiáng)手段來(lái)提高模型精度。
1.2 EfficientNet V1
在之前提升卷積神經(jīng)網(wǎng)絡(luò)性能的研究中,學(xué)者們的主要手段是通過(guò)不斷加深或者加寬網(wǎng)絡(luò)。2019年,谷歌團(tuán)隊(duì)在平衡網(wǎng)絡(luò)深度、寬度和輸入圖像分辨率后發(fā)現(xiàn)能帶來(lái)更好的性能,提出了EfficientNet V1,其測(cè)試的準(zhǔn)確率性能和參數(shù)數(shù)量以及計(jì)算量基本都優(yōu)于之前在單一維度上提升網(wǎng)絡(luò)精度的模型。其主要由MBConv[18]模塊組成,結(jié)構(gòu)如圖1所示。EfficientNet V1分為B0~B7共8個(gè)配置,其輸入圖像的尺寸隨著配置的序號(hào)增大而增大。為加快模型收斂速度,本研究使用B0配置進(jìn)行訓(xùn)練,輸入圖像分辨率為224×224。MBConv結(jié)構(gòu)如圖1所示。
1.3 STN模塊
STN模塊是一種對(duì)輸入進(jìn)行空間變換的模塊,空間變換器結(jié)構(gòu)如圖2所示。STN模塊可以使模型對(duì)于輸入圖像中物體姿勢(shì)與位置的變化具有一定的不變性,為每一個(gè)輸入提供對(duì)應(yīng)的空間變換方式。模塊可以插入網(wǎng)絡(luò)的各個(gè)位置,根據(jù)輸入的通道數(shù)和特征圖尺寸修改模塊內(nèi)卷積層和全連接層即可達(dá)到即插即用的目的。
STN模塊由3個(gè)部分組成。定位函數(shù)網(wǎng)絡(luò)(Localisation Net)通過(guò)獲取寬W、高H、C通道的輸入特征圖U∈RH×W×C,采用包含最終回歸層的全連接網(wǎng)絡(luò)或卷積網(wǎng)絡(luò)產(chǎn)生應(yīng)用于特征圖的空間變換參數(shù)θ,變換參數(shù)的大小取決于參數(shù)化的變換類型。
第二部分是網(wǎng)格生成器(Grid Generator),通過(guò)產(chǎn)生的θ和定義的變換以尋找輸出和輸入特征圖的映射Tθ(G),通常,輸出像素位于規(guī)則網(wǎng)格G=(Gi)上,輸入特征圖U每個(gè)像素位置為(xsi, ysi),經(jīng)過(guò)映射Tθ(G)變換后每個(gè)像素位置為Gi=(xti, yti),形成輸出特征圖V∈RH'×W'×C,其中輸入輸出的通道數(shù)C相同。
假設(shè)Tθ是二維仿射變換Aθ,在這種變換情況下,逐點(diǎn)變換:
(1)
式中:(xti, yti)是輸出特征圖中規(guī)則網(wǎng)格的目標(biāo)坐標(biāo);(xsi, ysi)是輸入特征圖中每個(gè)樣本點(diǎn)的源坐標(biāo);Aθ是仿射變換
矩陣。
最后一部分為采樣器(Sampler),通過(guò)之前的步驟得到輸出特征圖各像素點(diǎn)坐標(biāo)后,需要結(jié)合不同的采樣方式生成各像素點(diǎn)對(duì)應(yīng)的像素值。每個(gè)像素點(diǎn)應(yīng)用采樣核獲取輸出特征圖V中的像素值可寫為:
(2)
式中:Φx和Φy是定義圖像插值(例如雙線性插值)的通用采樣內(nèi)核k()的參數(shù);UCnm是輸入通道C中位置(n,m)的值;Vic是通道C中位置(xti, yti)處像素i的輸出值。理論上可以使用任何采樣內(nèi)核,只要可相對(duì)xsi和ysi定義(子)梯度。
1.4 CBAM模塊
CBAM模塊將通道和空間注意力機(jī)制串聯(lián)集成,通道和空間注意力機(jī)制如圖3所示。以特征圖F∈RC×H×W作為輸入,CBAM會(huì)按順序生成一個(gè)1D的Mc∈RC×1×1通道注意力輸出和一個(gè)2D的Ms∈R1×H×W輸出,整體計(jì)算過(guò)程由下式
給出:
(3)
(4)
式中:代表點(diǎn)積運(yùn)算;F'是給定輸入通過(guò)通道注意力模塊的輸出;F''是F'通過(guò)空間注意力模塊的輸出。
在通道注意力模塊中(圖4),分別使用平均池化層和最大池化層生成2個(gè)中間特征,分別用Fcavg和Fcmax表示,然后將這2個(gè)特征轉(zhuǎn)發(fā)到共享的多層感知機(jī)中,再將各輸出逐元素相加后通過(guò)Sigmoid激活函數(shù)得到最終的通道注意力特征向量。通道注意力模塊運(yùn)算可概括為:
(5)
式中:σ表示Sigmoid函數(shù);MLP是多層感知機(jī);W0和W1是感知機(jī)的權(quán)重;Fcavg和Fcmax是輸入特征圖經(jīng)過(guò)平均池化層和最大池化層的結(jié)果。
在空間注意力模塊中(圖5),首先使用最大池化層和平均池化層融合通道上的特征信息生成2個(gè)特征圖,隨后在通道維度上拼接后并使用卷積層卷積,從而生成2D空間注意力圖??臻g注意力機(jī)制如圖5所示。計(jì)算過(guò)程如下所示:
(6)
式中:σ表示sigmoid函數(shù);f7×7表示卷積核大小為7的卷積操作;Fsavg和Fsmax大小均為1×H×M。
1.5 基于STN和CBAM改進(jìn)的EfficientNet V1
EfficientNet V1使用MBConv作為網(wǎng)絡(luò)的基礎(chǔ)模塊,由于在網(wǎng)絡(luò)的淺層包含大量特征信息,CBAM模塊能夠有效融合通道和空間的特征信息。本研究在淺層使用CBAM模塊,需要將CBAM插入MBConv中以獲得新的模塊。而STN模塊的使用由于其即插即用的特性和對(duì)輸入圖像的位置矯正作用,所以將其放在特征提取部分之前。
文中共研究了3種模型,只加入STN和只加入CBAM以及將2種模塊同時(shí)加入網(wǎng)絡(luò)中,分別命名為EffV1-stn、EffV1-cbam和EffV1-stn-cbam。將CBAM融入MBConv模塊后的結(jié)構(gòu)如圖6所示。
由于網(wǎng)絡(luò)淺層存在更多特征信息,本研究只在EfficientNet V1的前4個(gè)階段使用改進(jìn)后的MB-Conv模塊,在后面3個(gè)階段保持原結(jié)構(gòu)不變。
2 實(shí)驗(yàn)與結(jié)果
2.1 數(shù)據(jù)集和實(shí)驗(yàn)環(huán)境
由于目前可回收垃圾分類工作暫時(shí)沒(méi)有公開的標(biāo)準(zhǔn)數(shù)據(jù)集,但介于國(guó)內(nèi)外有大量研究工作是以TrashNet數(shù)據(jù)集開展,所以文中也采用此數(shù)據(jù)集進(jìn)行研究。該數(shù)據(jù)集包含常見的6種
可回收垃圾,表1為每種類別垃圾的數(shù)量分布,由于數(shù)據(jù)集數(shù)量偏少,將圖片進(jìn)行水平翻轉(zhuǎn)和垂直翻轉(zhuǎn)后作為數(shù)據(jù)增強(qiáng)手段來(lái)填充數(shù)據(jù)集,將擴(kuò)充后的數(shù)據(jù)集的80%作為訓(xùn)練集,其余數(shù)據(jù)作為測(cè)試集。
實(shí)驗(yàn)平臺(tái)配置:CPU為AMD EPYC 7763 64-Core Processor,搭載NVIDIA A100-SXM4-80GB顯卡,操作系統(tǒng)為Ubuntu20.04.4,Python版本為3.8.10,使用的深度學(xué)習(xí)框架為Pytorch 1.11。
2.2 實(shí)驗(yàn)結(jié)果及分析
文中選取了一些經(jīng)典的神經(jīng)網(wǎng)絡(luò)進(jìn)行實(shí)驗(yàn)結(jié)果對(duì)比,以證明本研究模型在可回收垃圾分類任務(wù)上的有效性,選用的對(duì)比網(wǎng)絡(luò)模型包括ResNet50、ResNet101、ShuffleNet等。使用上述模型對(duì)增強(qiáng)后的TrashNet數(shù)據(jù)集進(jìn)行訓(xùn)練,統(tǒng)一使用Adma優(yōu)化器,學(xué)習(xí)率為0.001,迭代次數(shù)為100輪,批量大小為64,每一輪訓(xùn)練結(jié)束后,記錄此周期每一批次的訓(xùn)練集損失,測(cè)試集的總損失和準(zhǔn)確率以及每輪結(jié)束后當(dāng)前最高準(zhǔn)確率,便于及時(shí)掌控模型的訓(xùn)練情況,避免模型過(guò)擬合等影響訓(xùn)練,確保模型能夠完成迭代周期的訓(xùn)練。
各模型在增強(qiáng)后的TrashNet數(shù)據(jù)集上的訓(xùn)練結(jié)果如圖7、圖8所示。其中,E代表訓(xùn)練的迭代周期,A代表測(cè)試的準(zhǔn)確率,L代表訓(xùn)練損失。從各曲線得知,未使用任何改進(jìn)的基準(zhǔn)EfficientNet V1網(wǎng)絡(luò)。在可回收垃圾分類任務(wù)方面,該模型相較于ResNet50、ShuffleNet等模型取得了更好的結(jié)果。本研究算法基于EfficientNet V1進(jìn)行改進(jìn),共有3種改進(jìn)后的模型,準(zhǔn)確率相比無(wú)任何改進(jìn)的基準(zhǔn)模型有所提升,EffV1-stn、EffV1-cbam和EffV1-stn-cbam分別比原模型準(zhǔn)確率提高了2.88%、1.02%、1.42%,但相比于獲得最高準(zhǔn)確率的對(duì)比模型ResNet101,只有EffV1-stn提高了1.32%。原因可能是Effcient V1本身就是優(yōu)秀的輕量級(jí)神經(jīng)網(wǎng)絡(luò),即使使用不同訓(xùn)練集進(jìn)行訓(xùn)練,其訓(xùn)練速度和測(cè)試準(zhǔn)確率等均強(qiáng)于之前的部分網(wǎng)絡(luò);本研究算法使用2種不同的模塊進(jìn)行模型性能的提升,EffV1-stn在網(wǎng)絡(luò)起點(diǎn)使用STN模塊,能夠矯正不同翻轉(zhuǎn)程度的輸入特征圖,獲取更好的特征。EffV1-cbam在網(wǎng)絡(luò)淺層的MBconv模塊中加入CBAM模塊,將空間和通道的注意力機(jī)制串聯(lián)集成,使得相比于原始的EffV1能夠提取更多的特征信息。而EffV1-stn-cbam試圖將兩者的優(yōu)點(diǎn)集合從而獲得更高的準(zhǔn)確率。結(jié)果表明,此舉的準(zhǔn)確率超過(guò)了EffV1-cbam,但未超過(guò)EffV1-stn,可能是STN模塊對(duì)輸入圖像進(jìn)行位置矯正后,CBAM模塊能獲得相較于EffV1-cbam更多的特征信息,但是也未能超過(guò)僅使用STN模塊對(duì)提升模型性能的影響。
為分析本研究算法模型在其他分類任務(wù)場(chǎng)景下的性能提升效果,選用公共數(shù)據(jù)集ImageNet100和Cifar100進(jìn)行對(duì)比試驗(yàn),各訓(xùn)練參數(shù)保持一致。公共數(shù)據(jù)集和本研究所用數(shù)據(jù)集的測(cè)試集分類準(zhǔn)確率見表2所列。
表2中,AT代表模型在TrashNet數(shù)據(jù)集上的測(cè)試集準(zhǔn)確率,AC代表模型在Cifar100數(shù)據(jù)集上的測(cè)試集準(zhǔn)確率,AI代表模型在ImageNet100數(shù)據(jù)集上的測(cè)試集準(zhǔn)確率。從表2
可知,EffV1-stn在ImageNet100和Cifar100數(shù)據(jù)集上的準(zhǔn)確率最高,分別為62.78%和68.17%,EffV1-stn-cbam在Cifar100測(cè)試集上的準(zhǔn)確率高于ResNet101,EffV1-cbam在2個(gè)公共數(shù)據(jù)集上的測(cè)試準(zhǔn)確率仍低于ResNet101。造成這種結(jié)果可能的原因是ResNet101網(wǎng)絡(luò)深度較大,模型復(fù)雜,在大型數(shù)據(jù)集上一般能取得更好的性能,但這種模型由于體積過(guò)大不能保證實(shí)時(shí)性。而EffV1-stn一直保持最高準(zhǔn)確率的原因可能是由于各數(shù)據(jù)集的圖片中物體存在不同程度姿勢(shì)和位置的變化,而STN模塊能夠有效矯正這種變化,從而獲得更高的準(zhǔn)確率。
將文中獲得最高精度的算法EffV1-stn進(jìn)行可視化測(cè)試,隨機(jī)選取一組數(shù)據(jù)集外的真實(shí)場(chǎng)景中的可回收垃圾圖像,將其傳入模型后進(jìn)行識(shí)別,結(jié)果如圖9所示。
圖9中括號(hào)內(nèi)的數(shù)值為置信度,可以看出不同環(huán)境下,模型都能精準(zhǔn)識(shí)別出可回收垃圾種類,但是在復(fù)雜背景下的識(shí)別效果略差。因此,本研究精度最高的EffV1-stn模型是一個(gè)在可回收垃圾分類任務(wù)中具有高準(zhǔn)確率的網(wǎng)絡(luò)模型。
3 結(jié) 語(yǔ)
文中改進(jìn)了輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)EfficientNet V1,使用STN和CBAM兩種模塊提升準(zhǔn)確率。實(shí)驗(yàn)表明,分別使用和融合使用都能使性能增強(qiáng),但僅使用STN模塊可獲得最高的精度,實(shí)現(xiàn)了對(duì)可回收垃圾的快速精準(zhǔn)分類。在其他分類任務(wù)中,使用STN模塊的模型同樣得到了最高的準(zhǔn)確率,證明本研究算法的可用性。本研究使用的數(shù)據(jù)集主要是單標(biāo)簽簡(jiǎn)單背景下的物體,識(shí)別圖像中的多個(gè)目標(biāo)時(shí)存在局限性。實(shí)際情況下可回收垃圾所處的背景復(fù)雜,一張圖像內(nèi)有多種多樣的垃圾。今后的研究重點(diǎn)需要針對(duì)復(fù)雜背景下的可回收垃圾建立更加完整的數(shù)據(jù)集,將可回收垃圾分類任務(wù)擴(kuò)展到多標(biāo)簽多目標(biāo)分類,使之更能適用現(xiàn)實(shí)的垃圾分類場(chǎng)景。
注:本文通訊作者為劉心中。
參考文獻(xiàn)
[1] ABDALLAH M,ABUTALIB M,F(xiàn)EROZ S,et al. Artificial intelligence applications in solid waste management:A systematic research review [J]. Waste manag,2020,109:231-46.
[2]戴冰燕,鄭志碩. 基于遷移學(xué)習(xí)的可回收垃圾識(shí)別分類研究 [J]. 中國(guó)科技信息,2021,33(5):86-88.
[3] KRIZHEVSKY A,SUTSKEVER I,HINTON G E. Imagenet classification with deep convolutional neural networks [J]. Communications of the ACM,2017,60(6):84-90.
[4] HE K,ZHANG X,REN S,et al. Deep residual learning for image recognition [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,F(xiàn),2016.
[5] SIMONYAN K,ZISSERMAN A. Very deep convolutional networks for large-scale image recognition [Z]. arXiv preprint arXiv:14091556,2014.
[6] SZEGEDY C,LIU W,JIA Y,et al. Going deeper with convolutions[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,F(xiàn),2015.
[7] HOWARD A G,ZHU M,CHEN B,et al. Mobilenets:Efficient convolutional neural networks for mobile vision applications [Z]. arXiv preprint arXiv:170404861,2017.
[8] TAN M,LE Q. Efficientnet:Rethinking model scaling for convolutional neural networks [C]// Proceedings of the International Conference on Machine Learning,F(xiàn),2019.
[9] ZHANG X,ZHOU X,LIN M,et al. Shufflenet:An extremely efficient convolutional neural network for mobile devices [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,F(xiàn),2018.
[10] YANG M,THUNG G. Classification of trash for recyclability status [J]. CS229 project report,2016(1):3.
[11] LU W,CHEN J. Computer vision for solid waste sorting:A critical review of academic research [J]. Waste management,2022,142:29-43.
[12] BIRCANO?LU C,ATAY M,BE?ER F,et al. RecycleNet:Intelligent waste sorting using deep neural networks [C]// Proceedings of the 2018 Innovations in Intelligent Systems and Applications(INISTA),F(xiàn),2018.
[13] ZHANG Q,ZHANG X,MU X,et al. Recyclable waste image recognition based on deep learning [J]. Resources,conservation and recycling,2021,171:105636.
[14] ADEDEJI O,WANG Z. Intelligent waste classification system using deep learning convolutional neural network [J]. Procedia manufacturing,2019,35:607-12.
[15] MAO W L,CHEN W C,WANG C T,et al. Recycling waste classification using optimized convolutional neural network [J]. Resources,conservation and recycling,2021,164:105132.
[16] JADERBERG M,SIMONYAN K,ZISSERMAN A. Spatial transformer networks [J]. Advances in neural information processing systems,2015,28.
[17] WOO S,PARK J,LEE J Y,et al. Cbam:Convolutional block attention module [C]// Proceedings of the European Conference on Computer Vision (ECCV),F(xiàn),2018.
[18] SANDLER M,HOWARD A,ZHU M,et al. Mobilenetv2:Inverted residuals and linear bottlenecks [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,F(xiàn),2018.
基金項(xiàng)目:國(guó)家重點(diǎn)研發(fā)計(jì)劃(2019YFC1904103)
作者簡(jiǎn)介:李鎮(zhèn)宏(1999—),男,碩士在讀,研究方向?yàn)橛?jì)算機(jī)視覺(jué)、垃圾圖像分類。
劉心中(1963—),男,博士,教授,研究方向?yàn)楣腆w廢物資源化利用。
林澤宇(1997—),男,碩士在讀,研究方向?yàn)闄C(jī)器學(xué)習(xí)。
聶文峰(1993—),女,碩士在讀,研究方向?yàn)闄C(jī)器學(xué)習(xí)。
馬樹森(1999—),男,碩士在讀,研究方向?yàn)楣腆w廢物資源化利用。
葛 焰(1999—),男,碩士在讀,研究方向?yàn)橛?jì)算機(jī)視覺(jué)。
趙 津(1999—),男,碩士在讀,研究方向?yàn)楣腆w廢物資源化利用。