裴健 黃進(jìn)
[摘? ? 要]為了解決社會(huì)中的垃圾分類(lèi)的問(wèn)題,提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)和群體標(biāo)準(zhǔn)化的垃圾圖像分類(lèi)方法。不需要輸入復(fù)雜的圖像處理,網(wǎng)絡(luò)模型可以根據(jù)生成算法來(lái)提取圖像的特征由集團(tuán)標(biāo)準(zhǔn)化和網(wǎng)絡(luò)模型的每一層之間的合作,克服傳統(tǒng)分類(lèi)算法的缺點(diǎn),實(shí)現(xiàn)垃圾圖像的準(zhǔn)確分類(lèi)。實(shí)驗(yàn)表明,該方法具有較高的準(zhǔn)確率,能夠識(shí)別出不可進(jìn)行回收處理垃圾和可回收垃圾。
[關(guān)鍵詞]卷積神經(jīng)網(wǎng)絡(luò);組規(guī)范化;圖像分類(lèi);機(jī)器學(xué)習(xí)
[中圖分類(lèi)號(hào)]TP183 [文獻(xiàn)標(biāo)志碼]A [文章編號(hào)]2095–6487(2020)10–00–04
Research on Garbage image Classification based on Convolutional
Neural Network and Group Normalization
Pei Jian ,Huang Jin
[Abstract]In order to solve the problem of garbage classification in the society, put forward a kind of based on convolutional neural networks and groups standardization of spam image classification method, no need to input the complex image processing, network model can be generated according to the characteristics of the algorithm to extract image by group collaboration between standardization and network model of each layer, overcome traditional classification algorithms shortcomings, realize accurate classification garbage image. Experiments show that this method has high accuracy and can identify non-recyclable and recyclable garbage.
[Keywords]Convolutional neural network; Group normalization; Image classification; Machine learning
垃圾分類(lèi)是垃圾終端處理設(shè)施運(yùn)轉(zhuǎn)的基礎(chǔ),實(shí)施生活垃圾分類(lèi),可以有效改善城鄉(xiāng)環(huán)境,促進(jìn)資源回收利用。應(yīng)在生活垃圾科學(xué)合理分類(lèi)的基礎(chǔ)上,對(duì)應(yīng)開(kāi)展生活垃圾分類(lèi)配套體系建設(shè),根據(jù)分類(lèi)品種建立與垃圾分類(lèi)相配套的收運(yùn)體系、建立與再生資源利用相協(xié)調(diào)的回收體系,完善與垃圾分類(lèi)相銜接的終端處理設(shè)施,以確保分類(lèi)收運(yùn)、回收、利用和處理設(shè)施相互銜接。只有做好垃圾分類(lèi),垃圾回收及處理等配套系統(tǒng)才能更高效地運(yùn)轉(zhuǎn)。
近年來(lái),人口老齡化加快,我國(guó)出現(xiàn)清潔工招人困難,服務(wù)行業(yè)用工成本攀升等問(wèn)題。包括清潔工在內(nèi)的服務(wù)行業(yè)缺少勞動(dòng)力成為了行業(yè)普遍面臨的瓶頸問(wèn)題。少子化也讓更多人不愿做重復(fù)枯燥的清潔工等工作。在消費(fèi)水平提升、需求增長(zhǎng)等多方面共同推進(jìn)下,垃圾清理機(jī)器人將會(huì)成為機(jī)器人領(lǐng)域的熱點(diǎn),我國(guó)的垃圾清理機(jī)器人將迎來(lái)巨大的機(jī)遇和發(fā)展空間。加大垃圾清理機(jī)器人的研究可以使得機(jī)器人技術(shù)更快服務(wù)于人類(lèi)社會(huì)。
1 相關(guān)深度學(xué)習(xí)方法
深度學(xué)習(xí)在圖像進(jìn)行處理領(lǐng)域的主要通過(guò)網(wǎng)絡(luò)經(jīng)濟(jì)結(jié)構(gòu)包括:深度神經(jīng)網(wǎng)絡(luò)、深度信念網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、生成對(duì)抗網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)。以垃圾圖像分類(lèi)為例。在輸入階段,硬件設(shè)備通過(guò)系統(tǒng)采集垃圾圖像的光學(xué)信息,經(jīng)過(guò)預(yù)處理、特征提取和分析將馮世華的數(shù)據(jù)輸入算法進(jìn)行計(jì)算和輸出。卷積神經(jīng)網(wǎng)絡(luò)經(jīng)過(guò)在公安、軍事、農(nóng)業(yè)等領(lǐng)域的多次應(yīng)用,在機(jī)器視覺(jué)領(lǐng)域發(fā)展有著一個(gè)非常優(yōu)異的性能,因此已經(jīng)被應(yīng)用在各種解決方案中。
1982年福島等人首次提出了深度學(xué)習(xí)模型,但沒(méi)有得到重視。直到2012年,Krizh等人提出了一種新的深度結(jié)構(gòu)和Dropout方法,該方法成功贏得了計(jì)算機(jī)視覺(jué)Imagenet競(jìng)賽,CNN正式進(jìn)入人們的視野。神經(jīng)網(wǎng)絡(luò)在 2012 年嶄露頭角,Alex Krizhevsky 憑借它們贏得了那一年的 ImageNet 挑戰(zhàn)賽(大體上相當(dāng)于計(jì)算機(jī)視覺(jué)的年度奧林匹克),他把分類(lèi)誤差記錄從 26 % 降到了 15 %,在當(dāng)時(shí)震驚了世界。自那之后,大量公司開(kāi)始將深度學(xué)習(xí)用作服務(wù)的核心。Facebook 將神經(jīng)網(wǎng)絡(luò)用于自動(dòng)標(biāo)注算法、谷歌將它用于圖片搜索、亞馬遜將它用于商品推薦、Pinterest 將它用于個(gè)性化主頁(yè)推送、Instagram 將它用于搜索架構(gòu)。
1.1 卷積神經(jīng)網(wǎng)絡(luò)
卷積神經(jīng)網(wǎng)絡(luò)是一種典型的深度學(xué)習(xí)算法,一種具有深度結(jié)構(gòu)和卷積計(jì)算的前饋神經(jīng)網(wǎng)絡(luò)算法。它是多層感知器的一個(gè)變體模型。時(shí)滯神經(jīng)系統(tǒng)網(wǎng)絡(luò)和Lenet-5是最早的卷積進(jìn)行神經(jīng)通過(guò)網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)仍然是一個(gè)層次網(wǎng)絡(luò),但層次的功能和形式發(fā)生了變化,這是對(duì)傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的改進(jìn)。典型的卷積進(jìn)行神經(jīng)系統(tǒng)網(wǎng)絡(luò)由輸入層、卷積層、池化層、全連接層和輸出層組成。從本質(zhì)上講,卷積神經(jīng)網(wǎng)絡(luò)是一種通過(guò)輸入-輸出映射。它可以學(xué)習(xí)輸入和輸出之間的大量映射關(guān)系,而無(wú)需輸入和輸出之間的精確數(shù)學(xué)表達(dá)式。卷積網(wǎng)絡(luò)的思想是將局部接收?qǐng)觥?quán)重分擔(dān)和時(shí)空二次抽樣三種結(jié)構(gòu)思想結(jié)合起來(lái),以獲得一定程度的位移、尺度和變形不變性。卷積神經(jīng)網(wǎng)絡(luò)只要用已知的模式進(jìn)行訓(xùn)練,網(wǎng)絡(luò)就具有對(duì)應(yīng)輸入和輸出對(duì)應(yīng)的映射學(xué)習(xí)能力。
1.2 組規(guī)范化
總結(jié)來(lái)說(shuō),Group Normbalization(GN)是一種新的深度學(xué)習(xí)歸一化方式,可以替代BN。眾所周知,BN是深度學(xué)習(xí)中常使用的歸一化方法,在提升訓(xùn)練以及收斂速度上發(fā)揮了重大的作用,是深度學(xué)習(xí)上里程碑式的工作,但是其仍然存在一些問(wèn)題,而新提出的GN解決了BN式歸一化對(duì)batch size依賴的影響。
BN全名是Batch Normalization,其是一種歸一化方式,而且是以batch的維度做歸一化,那么問(wèn)題就來(lái)了,此歸一化方式對(duì)batch是independent的,過(guò)小的batch size會(huì)導(dǎo)致其性能下降,一般來(lái)說(shuō)每GPU上batch設(shè)為32最合適,但是對(duì)于一些其他深度學(xué)習(xí)任務(wù)batch size往往只有1~2,比如目標(biāo)檢測(cè),圖像分割,視頻分類(lèi)上,輸入的圖像數(shù)據(jù)很大,較大的batchsize顯存吃不消。導(dǎo)致分組(group)的因素有很多,比如頻率、形狀、亮度和紋理等,HOG特征根據(jù)orientation分組,而對(duì)神經(jīng)網(wǎng)絡(luò)來(lái)講,其提取特征的機(jī)制更加復(fù)雜,也更加難以描述,變得不那么直觀。另在神經(jīng)科學(xué)領(lǐng)域,一種被廣泛接受的計(jì)算模型是對(duì)cell的響應(yīng)做歸一化,此現(xiàn)象存在于淺層視覺(jué)皮層和整個(gè)視覺(jué)系統(tǒng)。如圖1所示。
2 垃圾分類(lèi)方法設(shè)計(jì)
卷積神經(jīng)系統(tǒng)網(wǎng)絡(luò)是深度合作學(xué)習(xí)的代表算法技術(shù)之一,是一種發(fā)展具有卷積計(jì)算和深度結(jié)構(gòu)的前饋神經(jīng)通過(guò)網(wǎng)絡(luò)傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)算法主要由卷積層、匯聚層和全連接層組成。與傳統(tǒng)模型相比,RESNET模型引入了殘差函數(shù)的概念,同時(shí)通過(guò)引入dropout算法來(lái)解決過(guò)擬合分析問(wèn)題。我們希望對(duì)每個(gè)神經(jīng)元,激勵(lì)函數(shù)都能盡量區(qū)分出z值變化,這樣每個(gè)神經(jīng)元的表達(dá)能力更強(qiáng),但sigmoid明顯在|z|>4的區(qū)間的梯度就不夠看了,即它的梯度消失了。相比之下,ReLU輸出就很穩(wěn)定,因?yàn)樗鹺>0區(qū)間就是一個(gè)線性函數(shù)!不存在sigmoid的梯度消失的問(wèn)題。另一個(gè)ReLU很給力的地方就是稀疏度問(wèn)題。就是我們希望每個(gè)神經(jīng)元都能最大化的發(fā)揮它篩選的作用,符合某一個(gè)特征的中間值,使勁兒放大;不符合的,一刀切掉。算法流程如圖2所示。
2.1 resnet模型
對(duì)于資源網(wǎng)絡(luò)模型,引入了殘差元素,加入身份映射,ResNet使用兩種殘差單元。對(duì)應(yīng)的是淺層網(wǎng)絡(luò)和深層網(wǎng)絡(luò)。對(duì)于短路連接,當(dāng)輸入和輸出維度一致時(shí),可以直接將輸入加到輸出上。但是當(dāng)維度不一致時(shí)(對(duì)應(yīng)的是維度增加一倍),這就不能直接相加。有2種策略:(1)采用zero-padding增加維度,此時(shí)一般要先做一個(gè)downsamp,可以采用strde=2的pooling,這樣不會(huì)增加參數(shù);(2)采用新的映射(projection shortcut),一般采用1×1的卷積,這樣會(huì)增加參數(shù),也會(huì)增加計(jì)算量。短路連接除了直接使用恒等映射,當(dāng)然都可以采用projection shortcut。也就是說(shuō),f(X)=h(X)-x。Resnet更適合于訓(xùn)練學(xué)生深度學(xué)習(xí)卷積神經(jīng)系統(tǒng)網(wǎng)絡(luò)。由于lamp的增加和訓(xùn)練樣本較小,會(huì)發(fā)生過(guò)擬合。為了解決這一問(wèn)題,采用dropout丟棄算法。
2.2 dropout丟棄算法
由于RESNET可以訓(xùn)練較深的卷積神經(jīng)網(wǎng)絡(luò),誤差較小,隨著時(shí)間卷積層數(shù)量的增加,會(huì)出現(xiàn)過(guò)擬合分析問(wèn)題?,F(xiàn)在過(guò)擬合表: 模型在訓(xùn)練數(shù)據(jù)中的損失函數(shù)值小,預(yù)測(cè)精度高。丟棄算法是提高模型泛化能力的一種方法。神經(jīng)系統(tǒng)網(wǎng)絡(luò)單元可以根據(jù)企業(yè)一定的概率暫時(shí)從網(wǎng)絡(luò)中丟棄。但在試驗(yàn)研究數(shù)據(jù)中,損失函數(shù)值比較大,預(yù)測(cè)模型精度要求較低。為了減少過(guò)擬合現(xiàn)象,bn與Dropout同時(shí)引入,在一定影響程度上達(dá)到了一個(gè)正則化效果,增加了迭代次數(shù)。原理是隨機(jī)將某些神經(jīng)元的輸出設(shè)置為 0,概率為 0,不參與正向影響傳播,也不參與反向進(jìn)行傳播。
2.3 特征提取
于己而言,特征是某些突出性質(zhì)的表現(xiàn),于他而言,特征是區(qū)分事物的關(guān)鍵,所以,當(dāng)要對(duì)事物進(jìn)行分類(lèi)或者識(shí)別,實(shí)際上就是提取‘特征,通過(guò)特征的表現(xiàn)進(jìn)行判斷。卷積神經(jīng)系統(tǒng)網(wǎng)絡(luò)的卷積檢查應(yīng)該是作為一個(gè)學(xué)生接受域,使得每個(gè)神經(jīng)元不需要感知全局圖像,只需要感知局部圖像數(shù)據(jù)區(qū)域。然后,在更高的層次上,結(jié)合不同感知區(qū)域的神經(jīng)元,可以獲得全局信息。2個(gè)3×3堆疊卷積層的有限接收?qǐng)鰹?×5,三個(gè)3×3疊加卷積層的接收?qǐng)鰹?×7。因此,小卷積層的疊加分析可以通過(guò)提升大卷積層的點(diǎn),而感知場(chǎng)的大小保持不變。這里,左卷積的核大小是3:3。
2.4 群組歸一化
導(dǎo)致分組(group)的因素有很多,比如頻率、形狀、亮度和紋理等,HOG特征根據(jù)orientation分組,而對(duì)神經(jīng)網(wǎng)絡(luò)來(lái)講,其提取特征的機(jī)制更加復(fù)雜,也更加難以描述,變得不那么直觀。另在神經(jīng)科學(xué)領(lǐng)域,一種被廣泛接受的計(jì)算模型是對(duì)cell的響應(yīng)做歸一化,此現(xiàn)象存在于淺層視覺(jué)皮層和整個(gè)視覺(jué)系統(tǒng)。 Bn有許多學(xué)生優(yōu)點(diǎn),例如,加快進(jìn)行訓(xùn)練發(fā)展速度,緩解梯度擴(kuò)散,等等,但Bn層接近批量大小,如果數(shù)量太小會(huì)太多的干涉,因?yàn)槊看斡?jì)算一批均值和方差時(shí),如果體積太小,則均值和方差的計(jì)算不足以表示整個(gè)數(shù)據(jù)分布??梢钥闯鯞N對(duì)批量大小有很強(qiáng)的依賴性。
2.5 relu激活函數(shù)
當(dāng)將 ReLU 函數(shù)引入神經(jīng)網(wǎng)絡(luò)時(shí),也引入了很大的稀疏性。稀疏是指數(shù)量少,通常分散在很大的區(qū)域。在神經(jīng)網(wǎng)絡(luò)中,這意味著激活的矩陣含有許多 0。當(dāng)某個(gè)比例(比如 50 %)的激活飽和時(shí),就稱這個(gè)神經(jīng)網(wǎng)絡(luò)是稀疏的。這能提升時(shí)間和空間復(fù)雜度方面的效率——常數(shù)值(通常)所需空間更少,計(jì)算成本也更低。Yoshua Bengio 等人發(fā)現(xiàn) ReLU 這種分量實(shí)際上能讓神經(jīng)網(wǎng)絡(luò)表現(xiàn)更好,而且還有前面提到的時(shí)間和空間方面的效率。
Softmax函數(shù)分析又稱歸一化指數(shù)進(jìn)行函數(shù),它是在多分類(lèi)中促進(jìn)sigmiod,其目的是以概率的形式表達(dá)多分類(lèi)的結(jié)果訓(xùn)練進(jìn)行回歸分析模型后,softmax可以同時(shí)通過(guò)數(shù)據(jù)輸入任意樣本基本特征的圖來(lái)預(yù)測(cè)輸出類(lèi)別的概率。在多分類(lèi)管理過(guò)程中,將多個(gè)不同神經(jīng)元的輸出映射到[0,1]區(qū)間,進(jìn)行多分類(lèi)。Softmax回歸也是一個(gè)單層神經(jīng)網(wǎng)絡(luò),輸出層相當(dāng)于全連接層。以預(yù)測(cè)概率最高的類(lèi)別作為神經(jīng)網(wǎng)絡(luò)的最終輸出類(lèi)別,從而實(shí)現(xiàn)圖像分類(lèi)。
3 實(shí)驗(yàn)與結(jié)果分析
選擇的圖像數(shù)據(jù)集是garbage image Collection,它對(duì)廚余垃圾、可回收垃圾、不可回收垃圾和其他國(guó)家垃圾問(wèn)題進(jìn)行分析分類(lèi)。圖像分為灰度圖像和彩色圖像。灰度圖像的灰度值為[0,1],彩色圖像用三維張量表示,格式為M×N×3矩陣,M,N為圖像長(zhǎng)度和寬度的像素點(diǎn)個(gè)數(shù)??偣才臄z了2164張訓(xùn)練圖像,其中219張用于測(cè)試,1945張用于訓(xùn)練。垃圾圖像數(shù)據(jù)集大小如表1、表2所示。
素點(diǎn)個(gè)數(shù)。垃圾圖像數(shù)據(jù)集大小如表所示。
數(shù)據(jù)庫(kù)中可回收垃圾的圖像如圖所示,圖中可以使用的是32×32像素的3通道RGB彩色進(jìn)行圖像。訓(xùn)練前,對(duì)圖像進(jìn)行預(yù)處理。如圖3所示。
(1)圖像大小歸一化是將圖像大小均勻改變?yōu)?2×32×3的三維張量。
(2)增加圖片的差異性和多樣性,并對(duì)圖片進(jìn)行隨機(jī)調(diào)整,如平移、旋轉(zhuǎn)等。
將大小為32×32×3的三維張量輸入網(wǎng)絡(luò),基于2-2層池化的特征提取,得到4×4×32的特征圖。最后通過(guò)4×4×120的卷積核,得到一個(gè)120的向量并輸入到全連接層。在神經(jīng)網(wǎng)絡(luò)中引入了激活函數(shù)和非線性因子,提高了模型的表達(dá)能力。第一個(gè)樣本選擇可回收垃圾圖像分類(lèi),實(shí)驗(yàn)結(jié)果如圖,培訓(xùn)50次,訓(xùn)練集和測(cè)試集的準(zhǔn)確性增加更精確的數(shù)量的增加,最終的目的是將訓(xùn)練好的模型部署到真實(shí)的環(huán)境中,希望訓(xùn)練好的模型能夠在真實(shí)的數(shù)據(jù)上得到好的預(yù)測(cè)效果,換句話說(shuō)就是希望模型在真實(shí)數(shù)據(jù)上預(yù)測(cè)的結(jié)果誤差越小越好。把模型在真實(shí)環(huán)境中的誤差叫做泛化誤差,最終的目的是希望訓(xùn)練好的模型泛化誤差越低越好。最后,隨著訓(xùn)練次數(shù)的增加,準(zhǔn)確率與圖片數(shù)量呈正相關(guān),而成本損失函數(shù)則呈負(fù)相關(guān)。
4 結(jié)束語(yǔ)
垃圾的大量產(chǎn)出,使環(huán)境與健康問(wèn)題日益突出。垃圾的隨意丟棄、簡(jiǎn)單堆放與處理,會(huì)導(dǎo)致很多問(wèn)題產(chǎn)生,比如破壞良好的生活環(huán)境,污染水源、土壤、空氣等環(huán)境,導(dǎo)致蚊蟲(chóng)、細(xì)菌的大量孳生,增加傳染病發(fā)生的概率等。實(shí)行垃圾分類(lèi),可以改善我們的生活環(huán)境,可以減少垃圾對(duì)環(huán)境的污染,從而有利的保障人們的健康。通過(guò)卷積神經(jīng)網(wǎng)絡(luò)在快速訓(xùn)練神經(jīng)網(wǎng)絡(luò)的同時(shí)降低了對(duì)硬件的需求,從而可以更好更方便的完成垃圾分類(lèi)任務(wù)
參考文獻(xiàn)
[1] . Instrumentation Research; Study Findings from University of Waterloo Provide New Insights into Instrumentation Research (Deep-learning-based Neural Network Training for State Estimation Enhancement: Application To Attitude Estimation)[J]. Network Weekly News,2020.
[2] . Covid-19 classification by FGCNet with deep feature fusion from graph convolutional network and convolutional neural network.[J]. An international journal on information fusion,2020,67.
[3] . Computers; New Computers Study Results from Georgia Institute of Technology Described (Accelerating Deep Neural Network In-situ Training With Non-volatile and Volatile Memory Based Hybrid Precision Synapses)[J]. Computer Weekly News,2020.
[4] 楊斌,李成華,江小平,等.一種用于提升深度學(xué)習(xí)分類(lèi)模型準(zhǔn)確率的正則化損失函數(shù)[J].中南民族大學(xué)學(xué)報(bào)(自然科學(xué)版),2020,39(1):74-78.
[5] 張苗輝,張博,高誠(chéng)誠(chéng).一種多任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)分類(lèi)算法[J].激光與光電子學(xué)進(jìn)展,2019,56(23):222-229.
[6] 鄭遠(yuǎn)攀,李廣陽(yáng),李曄.深度學(xué)習(xí)在圖像識(shí)別中的應(yīng)用研究綜述[J].計(jì)算機(jī)工程與應(yīng)用,2019,55(12):20-36.
[7] 楊真真,匡楠,范露,等.基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類(lèi)算法綜述[J].信號(hào)處理,2018,34(12):1474-1489.
[8] Yiliu Jiang,Lianghao Ji,Xingcheng Pu,Qun Liu,Marcio Eisencraft. Group Consensus for Discrete-Time Heterogeneous Multiagent Systems with Input and Communication Delays[J]. Complexity,2018.
[9] 張德園,常云翔,張利國(guó),等.SAT-CNN:基于卷積神經(jīng)網(wǎng)絡(luò)的遙感圖像分類(lèi)算法[J].小型微型計(jì)算機(jī)系統(tǒng),2018,39(4):859-864.
[10] 劉雨桐,李志清,楊曉玲.改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)在遙感圖像分類(lèi)中的應(yīng)用[J].計(jì)算機(jī)應(yīng)用,2018,38(4):949-954.
[11] 朱威,屈景怡,吳仁彪.結(jié)合批歸一化的直通卷積神經(jīng)網(wǎng)絡(luò)圖像分類(lèi)算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2017,29(9):1650-1657.
[12] 周俊宇,趙艷明.卷積神經(jīng)網(wǎng)絡(luò)在圖像分類(lèi)和目標(biāo)檢測(cè)應(yīng)用綜述[J].計(jì)算機(jī)工程與應(yīng)用,2017,53(13):34-41.
[13] Evgeny A.Smirnov,Denis M.Timoshenko,Serge N.Andrianov. Comparison of Regularization Methods for ImageNet Classification with Deep Convolutional Neural Networks[A]. Information Engineering Research Institute,USA.Proceedings of 2013 2nd AASRI Conference on Computational Intelligence and Bioinformatics(CIB 2013 V6)[C].Information Engineering Research Institute,USA:智能信息技術(shù)應(yīng)用學(xué)會(huì),2013.
[14] Kunihiko Fukushima. Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position[J]. Biological Cybernetics,1980,36(4):193-202.
[15] 王玉,王夢(mèng)佳,張偉紅.基于CNN和Group Normalization的校園垃圾圖像分類(lèi)[J].吉林大學(xué)學(xué)報(bào)(信息科學(xué)版),2020,38(6):744-750.