亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)EfficientNet V1的可回收垃圾分類算法

        2024-09-15 00:00:00李鎮(zhèn)宏劉心中林澤宇聶文峰馬樹森葛焰趙津
        物聯(lián)網(wǎng)技術(shù) 2024年6期
        關(guān)鍵詞:圖像分類注意力機(jī)制垃圾分類

        摘 要:隨著城市的快速發(fā)展,居民的生活質(zhì)量日漸提高,但生活垃圾數(shù)量也迅速增加,許多城市都面臨著垃圾分類處理的難題。可回收垃圾占生活垃圾的比例很大,且其回收價(jià)值較高,可二次利用。針對(duì)目前人工分揀和機(jī)械分揀低效率、高成本的問(wèn)題,文中提出了改進(jìn)EfficientNet V1的可回收垃圾圖像分類方法,使用通道和空間注意力模塊和空間轉(zhuǎn)換器模塊用于改進(jìn)模型,增強(qiáng)對(duì)特征的提取能力。實(shí)驗(yàn)結(jié)果表明,僅使用空間轉(zhuǎn)換器模塊的模型在TrashNet數(shù)據(jù)集上的準(zhǔn)確率達(dá)到了98.88%,高于所有對(duì)比模型,而使用通道和空間注意力模塊以及同時(shí)使用兩種模塊的模型相對(duì)于原模型來(lái)說(shuō)精度有提升。在2種公共數(shù)據(jù)集Cifar100和ImageNet100上進(jìn)行實(shí)驗(yàn),僅使用空間轉(zhuǎn)換器模塊的模型仍獲得了最高準(zhǔn)確率62.78%和68.17%。利用深度學(xué)習(xí)技術(shù),實(shí)現(xiàn)了可回收垃圾準(zhǔn)確快速分類,為垃圾分類事業(yè)提供了幫助。

        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);垃圾分類;深度學(xué)習(xí);注意力機(jī)制;圖像分類;數(shù)據(jù)增強(qiáng)

        中圖分類號(hào):TP391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-1302(2024)06-00-05

        0 引 言

        隨著城市的快速發(fā)展,經(jīng)濟(jì)發(fā)展與人口增長(zhǎng)導(dǎo)致全球各國(guó)的生活垃圾產(chǎn)生量增加,世界許多城市都面臨垃圾處理危機(jī)。垃圾分類回收任務(wù)是減少?gòu)U物產(chǎn)生、緩解環(huán)境壓力和改善國(guó)家經(jīng)濟(jì)的正確途徑[1]。目前,我國(guó)把生活垃圾分為可回收垃圾、其他垃圾、有害垃圾、廚余垃圾這四大類[2]。而其中可回收垃圾的價(jià)值較高,可通過(guò)分類回收進(jìn)行再循環(huán)利用,傳統(tǒng)的垃圾分類方法只能采取人工分揀和機(jī)械分揀等方法,這些方法費(fèi)時(shí)費(fèi)力,而且成本相對(duì)較高。計(jì)算機(jī)視覺(jué)和深度學(xué)習(xí)技術(shù)在分類識(shí)別垃圾方面效果明顯,只需通過(guò)RGB相機(jī)采集垃圾圖片,即可通過(guò)神經(jīng)網(wǎng)絡(luò)算法完成垃圾分類識(shí)別任務(wù)。

        自從AlexNet[3]被提出并在ILSVRC-2012競(jìng)賽中取得冠軍后,深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)任務(wù)上的研究吸引了越來(lái)越多的學(xué)者,提出了許多新的模型,VGG、GoogleNet,ResNet[4-6]等優(yōu)秀的深度卷積網(wǎng)絡(luò)模型層出不窮。隨著模型對(duì)于分類識(shí)別任務(wù)的性能愈加突出,不斷加深或加寬卷積網(wǎng)絡(luò)模型使得參數(shù)和計(jì)算量越來(lái)越大,輕量級(jí)網(wǎng)絡(luò)逐漸引領(lǐng)新的深度學(xué)習(xí)熱潮,例如ShuffleNet,MobileNet,EfficientNet[7-9]等網(wǎng)絡(luò)在保證準(zhǔn)確率等性能指標(biāo)的同時(shí),使得網(wǎng)絡(luò)模型參數(shù)和計(jì)算量更少,速度更快。

        由于許多模型的評(píng)價(jià)指標(biāo)是以大型公共數(shù)據(jù)集為基準(zhǔn),所以針對(duì)不同場(chǎng)景的分類任務(wù)需要使用不同的優(yōu)化手段。Yang等[10]針對(duì)可回收垃圾收集了2 527張圖像創(chuàng)建了TrashNet數(shù)據(jù)集,除此之外,很少有針對(duì)垃圾圖像的公共數(shù)據(jù)集,大多數(shù)研究都是在私有數(shù)據(jù)集上評(píng)估其模型[11],

        目前也有許多研究使用TrashNet數(shù)據(jù)集來(lái)訓(xùn)練模型。BIRCANO?LU C等[12]修改DenseNet里Dense模塊的連接結(jié)構(gòu),在TrashNet上進(jìn)行訓(xùn)練,準(zhǔn)確率為81%。ZHANG Q等[13]將自注意力模塊(SMM)融入ResNet18中對(duì)TrashNet進(jìn)行訓(xùn)練,最終測(cè)試集的準(zhǔn)確率達(dá)到了95.87%。ADEDEJI O等[14]

        使用支持向量機(jī)(SVM)作為ResNet50的分類器,能夠在TrashNet數(shù)據(jù)集上達(dá)到87%的準(zhǔn)確率。MAO W-L等[15]使用遺傳算法對(duì)DenseNet121全連接層的超參數(shù)進(jìn)行優(yōu)化微調(diào),并將全連接層的神經(jīng)元數(shù)量和Dropout層的丟棄率作為主要決策變量,優(yōu)化后的DenseNet121準(zhǔn)確率最高達(dá)到了99.6%。

        研究以TrashNet作為基準(zhǔn)數(shù)據(jù)集,對(duì)每幅圖像進(jìn)行水平翻轉(zhuǎn)和垂直翻轉(zhuǎn)來(lái)填充數(shù)據(jù)集,以EfficientNetV1作為研究的主干網(wǎng)絡(luò),提出了一種改進(jìn)的基于深度學(xué)習(xí)的可回收垃圾分類方法。

        1 算法研究

        1.1 研究思路

        本研究以構(gòu)建高準(zhǔn)確率的可回收垃圾分類模型為目的,使用輕量級(jí)網(wǎng)絡(luò)EfficientNet V1作為網(wǎng)絡(luò)主干,探究了即插即用的空間轉(zhuǎn)換器模塊(STN)[16]與通道和空間注意力機(jī)制(CBAM)[17]對(duì)網(wǎng)絡(luò)的影響,更新網(wǎng)絡(luò)基礎(chǔ)模塊構(gòu)成,通過(guò)數(shù)據(jù)增強(qiáng)手段來(lái)提高模型精度。

        1.2 EfficientNet V1

        在之前提升卷積神經(jīng)網(wǎng)絡(luò)性能的研究中,學(xué)者們的主要手段是通過(guò)不斷加深或者加寬網(wǎng)絡(luò)。2019年,谷歌團(tuán)隊(duì)在平衡網(wǎng)絡(luò)深度、寬度和輸入圖像分辨率后發(fā)現(xiàn)能帶來(lái)更好的性能,提出了EfficientNet V1,其測(cè)試的準(zhǔn)確率性能和參數(shù)數(shù)量以及計(jì)算量基本都優(yōu)于之前在單一維度上提升網(wǎng)絡(luò)精度的模型。其主要由MBConv[18]模塊組成,結(jié)構(gòu)如圖1所示。EfficientNet V1分為B0~B7共8個(gè)配置,其輸入圖像的尺寸隨著配置的序號(hào)增大而增大。為加快模型收斂速度,本研究使用B0配置進(jìn)行訓(xùn)練,輸入圖像分辨率為224×224。MBConv結(jié)構(gòu)如圖1所示。

        1.3 STN模塊

        STN模塊是一種對(duì)輸入進(jìn)行空間變換的模塊,空間變換器結(jié)構(gòu)如圖2所示。STN模塊可以使模型對(duì)于輸入圖像中物體姿勢(shì)與位置的變化具有一定的不變性,為每一個(gè)輸入提供對(duì)應(yīng)的空間變換方式。模塊可以插入網(wǎng)絡(luò)的各個(gè)位置,根據(jù)輸入的通道數(shù)和特征圖尺寸修改模塊內(nèi)卷積層和全連接層即可達(dá)到即插即用的目的。

        STN模塊由3個(gè)部分組成。定位函數(shù)網(wǎng)絡(luò)(Localisation Net)通過(guò)獲取寬W、高H、C通道的輸入特征圖U∈RH×W×C,采用包含最終回歸層的全連接網(wǎng)絡(luò)或卷積網(wǎng)絡(luò)產(chǎn)生應(yīng)用于特征圖的空間變換參數(shù)θ,變換參數(shù)的大小取決于參數(shù)化的變換類型。

        第二部分是網(wǎng)格生成器(Grid Generator),通過(guò)產(chǎn)生的θ和定義的變換以尋找輸出和輸入特征圖的映射Tθ(G),通常,輸出像素位于規(guī)則網(wǎng)格G=(Gi)上,輸入特征圖U每個(gè)像素位置為(xsi, ysi),經(jīng)過(guò)映射Tθ(G)變換后每個(gè)像素位置為Gi=(xti, yti),形成輸出特征圖V∈RH'×W'×C,其中輸入輸出的通道數(shù)C相同。

        假設(shè)Tθ是二維仿射變換Aθ,在這種變換情況下,逐點(diǎn)變換:

        (1)

        式中:(xti, yti)是輸出特征圖中規(guī)則網(wǎng)格的目標(biāo)坐標(biāo);(xsi, ysi)是輸入特征圖中每個(gè)樣本點(diǎn)的源坐標(biāo);Aθ是仿射變換

        矩陣。

        最后一部分為采樣器(Sampler),通過(guò)之前的步驟得到輸出特征圖各像素點(diǎn)坐標(biāo)后,需要結(jié)合不同的采樣方式生成各像素點(diǎn)對(duì)應(yīng)的像素值。每個(gè)像素點(diǎn)應(yīng)用采樣核獲取輸出特征圖V中的像素值可寫為:

        (2)

        式中:Φx和Φy是定義圖像插值(例如雙線性插值)的通用采樣內(nèi)核k()的參數(shù);UCnm是輸入通道C中位置(n,m)的值;Vic是通道C中位置(xti, yti)處像素i的輸出值。理論上可以使用任何采樣內(nèi)核,只要可相對(duì)xsi和ysi定義(子)梯度。

        1.4 CBAM模塊

        CBAM模塊將通道和空間注意力機(jī)制串聯(lián)集成,通道和空間注意力機(jī)制如圖3所示。以特征圖F∈RC×H×W作為輸入,CBAM會(huì)按順序生成一個(gè)1D的Mc∈RC×1×1通道注意力輸出和一個(gè)2D的Ms∈R1×H×W輸出,整體計(jì)算過(guò)程由下式

        給出:

        (3)

        (4)

        式中:代表點(diǎn)積運(yùn)算;F'是給定輸入通過(guò)通道注意力模塊的輸出;F''是F'通過(guò)空間注意力模塊的輸出。

        在通道注意力模塊中(圖4),分別使用平均池化層和最大池化層生成2個(gè)中間特征,分別用Fcavg和Fcmax表示,然后將這2個(gè)特征轉(zhuǎn)發(fā)到共享的多層感知機(jī)中,再將各輸出逐元素相加后通過(guò)Sigmoid激活函數(shù)得到最終的通道注意力特征向量。通道注意力模塊運(yùn)算可概括為:

        (5)

        式中:σ表示Sigmoid函數(shù);MLP是多層感知機(jī);W0和W1是感知機(jī)的權(quán)重;Fcavg和Fcmax是輸入特征圖經(jīng)過(guò)平均池化層和最大池化層的結(jié)果。

        在空間注意力模塊中(圖5),首先使用最大池化層和平均池化層融合通道上的特征信息生成2個(gè)特征圖,隨后在通道維度上拼接后并使用卷積層卷積,從而生成2D空間注意力圖??臻g注意力機(jī)制如圖5所示。計(jì)算過(guò)程如下所示:

        (6)

        式中:σ表示sigmoid函數(shù);f7×7表示卷積核大小為7的卷積操作;Fsavg和Fsmax大小均為1×H×M。

        1.5 基于STN和CBAM改進(jìn)的EfficientNet V1

        EfficientNet V1使用MBConv作為網(wǎng)絡(luò)的基礎(chǔ)模塊,由于在網(wǎng)絡(luò)的淺層包含大量特征信息,CBAM模塊能夠有效融合通道和空間的特征信息。本研究在淺層使用CBAM模塊,需要將CBAM插入MBConv中以獲得新的模塊。而STN模塊的使用由于其即插即用的特性和對(duì)輸入圖像的位置矯正作用,所以將其放在特征提取部分之前。

        文中共研究了3種模型,只加入STN和只加入CBAM以及將2種模塊同時(shí)加入網(wǎng)絡(luò)中,分別命名為EffV1-stn、EffV1-cbam和EffV1-stn-cbam。將CBAM融入MBConv模塊后的結(jié)構(gòu)如圖6所示。

        由于網(wǎng)絡(luò)淺層存在更多特征信息,本研究只在EfficientNet V1的前4個(gè)階段使用改進(jìn)后的MB-Conv模塊,在后面3個(gè)階段保持原結(jié)構(gòu)不變。

        2 實(shí)驗(yàn)與結(jié)果

        2.1 數(shù)據(jù)集和實(shí)驗(yàn)環(huán)境

        由于目前可回收垃圾分類工作暫時(shí)沒(méi)有公開的標(biāo)準(zhǔn)數(shù)據(jù)集,但介于國(guó)內(nèi)外有大量研究工作是以TrashNet數(shù)據(jù)集開展,所以文中也采用此數(shù)據(jù)集進(jìn)行研究。該數(shù)據(jù)集包含常見的6種

        可回收垃圾,表1為每種類別垃圾的數(shù)量分布,由于數(shù)據(jù)集數(shù)量偏少,將圖片進(jìn)行水平翻轉(zhuǎn)和垂直翻轉(zhuǎn)后作為數(shù)據(jù)增強(qiáng)手段來(lái)填充數(shù)據(jù)集,將擴(kuò)充后的數(shù)據(jù)集的80%作為訓(xùn)練集,其余數(shù)據(jù)作為測(cè)試集。

        實(shí)驗(yàn)平臺(tái)配置:CPU為AMD EPYC 7763 64-Core Processor,搭載NVIDIA A100-SXM4-80GB顯卡,操作系統(tǒng)為Ubuntu20.04.4,Python版本為3.8.10,使用的深度學(xué)習(xí)框架為Pytorch 1.11。

        2.2 實(shí)驗(yàn)結(jié)果及分析

        文中選取了一些經(jīng)典的神經(jīng)網(wǎng)絡(luò)進(jìn)行實(shí)驗(yàn)結(jié)果對(duì)比,以證明本研究模型在可回收垃圾分類任務(wù)上的有效性,選用的對(duì)比網(wǎng)絡(luò)模型包括ResNet50、ResNet101、ShuffleNet等。使用上述模型對(duì)增強(qiáng)后的TrashNet數(shù)據(jù)集進(jìn)行訓(xùn)練,統(tǒng)一使用Adma優(yōu)化器,學(xué)習(xí)率為0.001,迭代次數(shù)為100輪,批量大小為64,每一輪訓(xùn)練結(jié)束后,記錄此周期每一批次的訓(xùn)練集損失,測(cè)試集的總損失和準(zhǔn)確率以及每輪結(jié)束后當(dāng)前最高準(zhǔn)確率,便于及時(shí)掌控模型的訓(xùn)練情況,避免模型過(guò)擬合等影響訓(xùn)練,確保模型能夠完成迭代周期的訓(xùn)練。

        各模型在增強(qiáng)后的TrashNet數(shù)據(jù)集上的訓(xùn)練結(jié)果如圖7、圖8所示。其中,E代表訓(xùn)練的迭代周期,A代表測(cè)試的準(zhǔn)確率,L代表訓(xùn)練損失。從各曲線得知,未使用任何改進(jìn)的基準(zhǔn)EfficientNet V1網(wǎng)絡(luò)。在可回收垃圾分類任務(wù)方面,該模型相較于ResNet50、ShuffleNet等模型取得了更好的結(jié)果。本研究算法基于EfficientNet V1進(jìn)行改進(jìn),共有3種改進(jìn)后的模型,準(zhǔn)確率相比無(wú)任何改進(jìn)的基準(zhǔn)模型有所提升,EffV1-stn、EffV1-cbam和EffV1-stn-cbam分別比原模型準(zhǔn)確率提高了2.88%、1.02%、1.42%,但相比于獲得最高準(zhǔn)確率的對(duì)比模型ResNet101,只有EffV1-stn提高了1.32%。原因可能是Effcient V1本身就是優(yōu)秀的輕量級(jí)神經(jīng)網(wǎng)絡(luò),即使使用不同訓(xùn)練集進(jìn)行訓(xùn)練,其訓(xùn)練速度和測(cè)試準(zhǔn)確率等均強(qiáng)于之前的部分網(wǎng)絡(luò);本研究算法使用2種不同的模塊進(jìn)行模型性能的提升,EffV1-stn在網(wǎng)絡(luò)起點(diǎn)使用STN模塊,能夠矯正不同翻轉(zhuǎn)程度的輸入特征圖,獲取更好的特征。EffV1-cbam在網(wǎng)絡(luò)淺層的MBconv模塊中加入CBAM模塊,將空間和通道的注意力機(jī)制串聯(lián)集成,使得相比于原始的EffV1能夠提取更多的特征信息。而EffV1-stn-cbam試圖將兩者的優(yōu)點(diǎn)集合從而獲得更高的準(zhǔn)確率。結(jié)果表明,此舉的準(zhǔn)確率超過(guò)了EffV1-cbam,但未超過(guò)EffV1-stn,可能是STN模塊對(duì)輸入圖像進(jìn)行位置矯正后,CBAM模塊能獲得相較于EffV1-cbam更多的特征信息,但是也未能超過(guò)僅使用STN模塊對(duì)提升模型性能的影響。

        為分析本研究算法模型在其他分類任務(wù)場(chǎng)景下的性能提升效果,選用公共數(shù)據(jù)集ImageNet100和Cifar100進(jìn)行對(duì)比試驗(yàn),各訓(xùn)練參數(shù)保持一致。公共數(shù)據(jù)集和本研究所用數(shù)據(jù)集的測(cè)試集分類準(zhǔn)確率見表2所列。

        表2中,AT代表模型在TrashNet數(shù)據(jù)集上的測(cè)試集準(zhǔn)確率,AC代表模型在Cifar100數(shù)據(jù)集上的測(cè)試集準(zhǔn)確率,AI代表模型在ImageNet100數(shù)據(jù)集上的測(cè)試集準(zhǔn)確率。從表2

        可知,EffV1-stn在ImageNet100和Cifar100數(shù)據(jù)集上的準(zhǔn)確率最高,分別為62.78%和68.17%,EffV1-stn-cbam在Cifar100測(cè)試集上的準(zhǔn)確率高于ResNet101,EffV1-cbam在2個(gè)公共數(shù)據(jù)集上的測(cè)試準(zhǔn)確率仍低于ResNet101。造成這種結(jié)果可能的原因是ResNet101網(wǎng)絡(luò)深度較大,模型復(fù)雜,在大型數(shù)據(jù)集上一般能取得更好的性能,但這種模型由于體積過(guò)大不能保證實(shí)時(shí)性。而EffV1-stn一直保持最高準(zhǔn)確率的原因可能是由于各數(shù)據(jù)集的圖片中物體存在不同程度姿勢(shì)和位置的變化,而STN模塊能夠有效矯正這種變化,從而獲得更高的準(zhǔn)確率。

        將文中獲得最高精度的算法EffV1-stn進(jìn)行可視化測(cè)試,隨機(jī)選取一組數(shù)據(jù)集外的真實(shí)場(chǎng)景中的可回收垃圾圖像,將其傳入模型后進(jìn)行識(shí)別,結(jié)果如圖9所示。

        圖9中括號(hào)內(nèi)的數(shù)值為置信度,可以看出不同環(huán)境下,模型都能精準(zhǔn)識(shí)別出可回收垃圾種類,但是在復(fù)雜背景下的識(shí)別效果略差。因此,本研究精度最高的EffV1-stn模型是一個(gè)在可回收垃圾分類任務(wù)中具有高準(zhǔn)確率的網(wǎng)絡(luò)模型。

        3 結(jié) 語(yǔ)

        文中改進(jìn)了輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)EfficientNet V1,使用STN和CBAM兩種模塊提升準(zhǔn)確率。實(shí)驗(yàn)表明,分別使用和融合使用都能使性能增強(qiáng),但僅使用STN模塊可獲得最高的精度,實(shí)現(xiàn)了對(duì)可回收垃圾的快速精準(zhǔn)分類。在其他分類任務(wù)中,使用STN模塊的模型同樣得到了最高的準(zhǔn)確率,證明本研究算法的可用性。本研究使用的數(shù)據(jù)集主要是單標(biāo)簽簡(jiǎn)單背景下的物體,識(shí)別圖像中的多個(gè)目標(biāo)時(shí)存在局限性。實(shí)際情況下可回收垃圾所處的背景復(fù)雜,一張圖像內(nèi)有多種多樣的垃圾。今后的研究重點(diǎn)需要針對(duì)復(fù)雜背景下的可回收垃圾建立更加完整的數(shù)據(jù)集,將可回收垃圾分類任務(wù)擴(kuò)展到多標(biāo)簽多目標(biāo)分類,使之更能適用現(xiàn)實(shí)的垃圾分類場(chǎng)景。

        注:本文通訊作者為劉心中。

        參考文獻(xiàn)

        [1] ABDALLAH M,ABUTALIB M,F(xiàn)EROZ S,et al. Artificial intelligence applications in solid waste management:A systematic research review [J]. Waste manag,2020,109:231-46.

        [2]戴冰燕,鄭志碩. 基于遷移學(xué)習(xí)的可回收垃圾識(shí)別分類研究 [J]. 中國(guó)科技信息,2021,33(5):86-88.

        [3] KRIZHEVSKY A,SUTSKEVER I,HINTON G E. Imagenet classification with deep convolutional neural networks [J]. Communications of the ACM,2017,60(6):84-90.

        [4] HE K,ZHANG X,REN S,et al. Deep residual learning for image recognition [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,F(xiàn),2016.

        [5] SIMONYAN K,ZISSERMAN A. Very deep convolutional networks for large-scale image recognition [Z]. arXiv preprint arXiv:14091556,2014.

        [6] SZEGEDY C,LIU W,JIA Y,et al. Going deeper with convolutions[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,F(xiàn),2015.

        [7] HOWARD A G,ZHU M,CHEN B,et al. Mobilenets:Efficient convolutional neural networks for mobile vision applications [Z]. arXiv preprint arXiv:170404861,2017.

        [8] TAN M,LE Q. Efficientnet:Rethinking model scaling for convolutional neural networks [C]// Proceedings of the International Conference on Machine Learning,F(xiàn),2019.

        [9] ZHANG X,ZHOU X,LIN M,et al. Shufflenet:An extremely efficient convolutional neural network for mobile devices [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,F(xiàn),2018.

        [10] YANG M,THUNG G. Classification of trash for recyclability status [J]. CS229 project report,2016(1):3.

        [11] LU W,CHEN J. Computer vision for solid waste sorting:A critical review of academic research [J]. Waste management,2022,142:29-43.

        [12] BIRCANO?LU C,ATAY M,BE?ER F,et al. RecycleNet:Intelligent waste sorting using deep neural networks [C]// Proceedings of the 2018 Innovations in Intelligent Systems and Applications(INISTA),F(xiàn),2018.

        [13] ZHANG Q,ZHANG X,MU X,et al. Recyclable waste image recognition based on deep learning [J]. Resources,conservation and recycling,2021,171:105636.

        [14] ADEDEJI O,WANG Z. Intelligent waste classification system using deep learning convolutional neural network [J]. Procedia manufacturing,2019,35:607-12.

        [15] MAO W L,CHEN W C,WANG C T,et al. Recycling waste classification using optimized convolutional neural network [J]. Resources,conservation and recycling,2021,164:105132.

        [16] JADERBERG M,SIMONYAN K,ZISSERMAN A. Spatial transformer networks [J]. Advances in neural information processing systems,2015,28.

        [17] WOO S,PARK J,LEE J Y,et al. Cbam:Convolutional block attention module [C]// Proceedings of the European Conference on Computer Vision (ECCV),F(xiàn),2018.

        [18] SANDLER M,HOWARD A,ZHU M,et al. Mobilenetv2:Inverted residuals and linear bottlenecks [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,F(xiàn),2018.

        基金項(xiàng)目:國(guó)家重點(diǎn)研發(fā)計(jì)劃(2019YFC1904103)

        作者簡(jiǎn)介:李鎮(zhèn)宏(1999—),男,碩士在讀,研究方向?yàn)橛?jì)算機(jī)視覺(jué)、垃圾圖像分類。

        劉心中(1963—),男,博士,教授,研究方向?yàn)楣腆w廢物資源化利用。

        林澤宇(1997—),男,碩士在讀,研究方向?yàn)闄C(jī)器學(xué)習(xí)。

        聶文峰(1993—),女,碩士在讀,研究方向?yàn)闄C(jī)器學(xué)習(xí)。

        馬樹森(1999—),男,碩士在讀,研究方向?yàn)楣腆w廢物資源化利用。

        葛 焰(1999—),男,碩士在讀,研究方向?yàn)橛?jì)算機(jī)視覺(jué)。

        趙 津(1999—),男,碩士在讀,研究方向?yàn)楣腆w廢物資源化利用。

        猜你喜歡
        圖像分類注意力機(jī)制垃圾分類
        基于深度學(xué)習(xí)的問(wèn)題回答技術(shù)研究
        基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
        基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類中的研究
        軟件工程(2017年11期)2018-01-05 08:06:09
        InsunKBQA:一個(gè)基于知識(shí)庫(kù)的問(wèn)答系統(tǒng)
        基于云計(jì)算的圖像分類算法
        小學(xué)校本課程《垃圾分類》智慧教育案例研究
        淺析我國(guó)農(nóng)村垃圾處理難題
        基于錨點(diǎn)建圖的半監(jiān)督分類在遙感圖像中的應(yīng)用
        日本城市垃圾分類的做法
        青春歲月(2016年22期)2016-12-23 16:15:10
        高校環(huán)境教育非課堂教學(xué)模式的探索
        av网站不卡的av在线| 色噜噜狠狠狠综合曰曰曰| 国产精品成人va在线观看| 亚洲日韩精品无码专区网站| 国产亚洲av片在线观看18女人| 国产欧美日韩午夜在线观看| 久久精品国产亚洲av热九九热| 99热婷婷一区二区三区| 无人区乱码一区二区三区| 国产精品泄火熟女| 成人网站免费大全日韩国产| 一级做a爰片久久毛片| 青青草视频国产在线观看| 中文字幕在线看精品乱码 | av无码精品一区二区三区四区| 中国精品久久久久国产| 亚洲男人在线天堂av| 婷婷色精品一区二区激情| 波多野结衣绝顶大高潮| 国产成人无码免费网站| 亚洲成aⅴ人片在线观看天堂无码| 亚洲最大的av在线观看| 日本无遮挡真人祼交视频| 日本丰满熟妇bbxbbxhd| 亚洲男人天堂av在线| 亚洲一区二区三区熟妇| 蜜臀av无码人妻精品| 日韩毛片基地一区二区三区| 91情侣在线精品国产免费| 国产优质av一区二区三区| 国产一区二区三区av天堂| 久久久久亚洲精品无码网址蜜桃 | 欧美俄罗斯乱妇| 日本女优中文字幕看片| 亚洲一区二区一区二区免费视频| 巨爆中文字幕巨爆区爆乳| 一本久久伊人热热精品中文字幕| 粗了大了 整进去好爽视频| 日本护士一区二区三区高清热线| 精品人妻码一区二区三区红楼视频| 成人片黄网站a毛片免费|