亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進(jìn)YOLOX-s算法的自動(dòng)販賣機(jī)商品檢測方法

        2023-10-30 08:58:32張少林姜吳瑾李太福
        關(guān)鍵詞:販賣機(jī)卷積特征

        張少林,姜吳瑾,李太福,楊 杰

        1.重慶科技學(xué)院 電氣工程學(xué)院,重慶 400030

        2.重慶科技學(xué)院 安全工程學(xué)院,重慶 400030

        3.重慶工貿(mào)職業(yè)技術(shù)學(xué)院 人工智能學(xué)院,重慶 408000

        4.重慶新制導(dǎo)智能科技研究院有限公司,重慶 400000

        隨著經(jīng)濟(jì)水平和互聯(lián)網(wǎng)技術(shù)的不斷向前發(fā)展,以自動(dòng)販賣機(jī)為代表的新零售方式已成為寫字樓、商超中的常客,它極大地提高了商品交易效率,為顧客提供了方便、快捷的購物選擇。在新冠疫情常態(tài)化防控的當(dāng)下,自動(dòng)販賣機(jī)也以無接觸式、快捷式售賣方式降低了消費(fèi)者感染風(fēng)險(xiǎn)?,F(xiàn)階段常用的自動(dòng)販賣機(jī)通常使用RFID技術(shù)對商品進(jìn)行識別,此技術(shù)對每樣商品貼上電子標(biāo)簽,通過RFID 技術(shù)讀取商品的詳細(xì)信息,然后進(jìn)行商品價(jià)格結(jié)算[1]。但此種方法成本較高,需要給每件商品人工張貼標(biāo)簽,無法大規(guī)模應(yīng)用到自動(dòng)販賣機(jī)中,研究人員考慮用深度學(xué)習(xí)目標(biāo)檢測的方法來處理商品檢測問題[2]。

        自2012 年Hinton 等人[3]在ImageNet 大賽中提出AlexNet模型以來,深度學(xué)習(xí)網(wǎng)絡(luò)模型得到了長足發(fā)展,科研人員提出的越來越多的卷積神經(jīng)網(wǎng)絡(luò)模型已廣泛地應(yīng)用于圖像目標(biāo)檢測領(lǐng)域之中。目前,基于深度學(xué)習(xí)的目標(biāo)檢測算法主要包括兩類,一類是以R-CNN[4]、Fast R-CNN[5]、Faster R-CNN[6]為代表的two-stage檢測算法,其主要方法是先生成一系列候選框,然后根據(jù)候選框進(jìn)行目標(biāo)分類識別工作,相比較于one-stage 系列檢測算法,two-stage 算法檢測精度普遍較高,但是檢測速度相對較慢,在實(shí)時(shí)檢測性能上邊表現(xiàn)較差。另一類是以YOLO系列算法[7-9]以及SSD[10]系列算法為代表的one-stage算法,此類算法檢測速度較快,能夠滿足實(shí)時(shí)檢測的需求,但是整體檢測準(zhǔn)確率相對較低,仍具有較大的提升空間。近年來,在通用目標(biāo)檢測領(lǐng)域,以Transformer框架為核心的算法逐漸成為研究主流[11],但此類算法模型普遍較大,無法滿足自動(dòng)販賣機(jī)商品檢測任務(wù)中對模型輕量化、實(shí)時(shí)性的需求。而以YOLOv4、YOLOv5、YOLOX 為代表的模型以輕量化的模型大小、較為迅速的檢測速度和相對精確的識別精度,成為解決目標(biāo)檢測模型輕量化問題的重要抓手,其中YOLOX模型憑借其在目標(biāo)檢測工作上優(yōu)異的檢測速度和檢測精度,贏得了越來越多研究人員的青睞。

        在針對自動(dòng)販賣機(jī)商品檢測的研究之中,科研人員已經(jīng)做了大量的工作。劉照邦等人[12]則針對商品檢測問題對RetinaNet 通用目標(biāo)檢測框架做出改進(jìn),提出用A-Softmax 替換傳統(tǒng)SoftMax 函數(shù),改進(jìn)模型對場景形態(tài)和商品相似性的容忍度有了較大改進(jìn),提升了商品目標(biāo)識別效果。Ji等人[13]針對商品小而密的特征提出了一種名為CommodityNet 的one-stage 框架,在自建數(shù)據(jù)集SDOD-MT上取得了卓越的性能。此外,劉文豪等人[14]提出了一種基于SSD模型和YOLOv3模型的半監(jiān)督模型,采用self-training 方式充分利用大量無標(biāo)簽數(shù)據(jù)來提高模型的特征學(xué)習(xí)能力,相比于基準(zhǔn)模型,改進(jìn)模型的檢測精度得到了顯著提升。

        上述方案主要針對商品檢測任務(wù)中數(shù)據(jù)量少、魯棒性差、數(shù)據(jù)分布密集等問題提出改進(jìn)方案,而由于自動(dòng)販賣機(jī)中攝像頭拍攝角度是俯視角,商品目標(biāo)特征信息較少,且商品之間互相遮擋造成對商品的特征提取較為困難,此外圖片邊緣部分圖像畸變嚴(yán)重,造成部分特征損失,對商品的識別造成一定的困難。此外,出于成本考慮,自動(dòng)販賣機(jī)對模型計(jì)算量和大小容忍度較低,選用模型須保持輕量化和低計(jì)算量。針對上述問題,本文在目前綜合性能較好的YOLOX-s 算法上進(jìn)行改進(jìn),在進(jìn)一步提高識別準(zhǔn)確率的同時(shí),保持原模型的輕量化和檢測速度,本文主要改進(jìn)點(diǎn)如下:

        (1)針對YOLOX-s 中PAFPN 網(wǎng)絡(luò)特征融合過程中容易丟失淺層網(wǎng)絡(luò)信息的問題,采用改進(jìn)后的雙向特征金字塔網(wǎng)絡(luò)(BiFPN-m)重構(gòu)原始特征提取網(wǎng)絡(luò),在不增加額外損失的同時(shí),將淺層網(wǎng)絡(luò)與深層網(wǎng)絡(luò)直接進(jìn)行融合,增強(qiáng)不同網(wǎng)絡(luò)層的特征信息傳遞,從而增強(qiáng)整個(gè)模型的特征提取能力。

        (2)針對采用BiFPN網(wǎng)絡(luò)重構(gòu)后模型規(guī)模大幅度增加、計(jì)算量增加明顯等問題,借鑒Ghost 卷積[15]思想,利用少量的卷積核對輸入進(jìn)行特征提取,然后將特征圖進(jìn)行線性運(yùn)算,通過Concat 模塊拼接生成最終的特征圖,此方法可以有效地降低模型計(jì)算資源,且能保持模型性能。

        (3)為了讓模型更好地提取目標(biāo)關(guān)鍵特征,本文借鑒注意力機(jī)制思想,經(jīng)過充分實(shí)驗(yàn)論證,將CBAM[16]引入CSP3模塊中,賦予重要特征更高的權(quán)重,以增強(qiáng)模型的目標(biāo)識別能力。

        經(jīng)過在自動(dòng)販賣機(jī)商品檢測數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),與原始YOLOX-s 網(wǎng)絡(luò)模型相比,改進(jìn)后的模型犧牲了部分檢測速度,但在mAP指標(biāo)上提升了1.91個(gè)百分點(diǎn),達(dá)到了99.57%的識別準(zhǔn)確率,且模型大小基本保持不變,在能夠更加精確地識別出飲料販賣機(jī)中飲料類別的同時(shí),保持了模型的輕量化和較快的檢測速度,能夠滿足自動(dòng)販賣機(jī)實(shí)際應(yīng)用的使用要求。

        1 基于YOLOX-BGC的商品檢測網(wǎng)絡(luò)

        1.1 YOLOX-s網(wǎng)絡(luò)

        YOLOX-s網(wǎng)絡(luò)是由Ge等人[9]于2021年提出的YOLO系列網(wǎng)絡(luò)模型,其主要由輸入端、主干網(wǎng)絡(luò)(Backbone)部分、特征提取網(wǎng)絡(luò)(Neck)和用于結(jié)果預(yù)測的檢測頭(YOLO Head)等四部分構(gòu)成。與YOLOv5-s 相比,YOLOX-s 網(wǎng)絡(luò)模型在多個(gè)部分做出了優(yōu)化和改進(jìn)。YOLOX-s網(wǎng)絡(luò)模型基本結(jié)構(gòu)如圖1所示。

        圖1 YOLOX-s網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.1 Structure of YOLOX-s network

        在輸入端部分,使用MixUp方法將不同輸入圖片按照一定比例生成新的圖像,同時(shí)生成對應(yīng)標(biāo)簽,在后續(xù)訓(xùn)練過程中采用新的圖片和標(biāo)簽進(jìn)行訓(xùn)練,而原始圖像不再參與訓(xùn)練。此外,采用Mosaic 方法將四張輸入圖片拼接到一起,使模型可以一次訓(xùn)練4 張圖,此種方式可以極大地豐富目標(biāo)背景,一定程度增強(qiáng)網(wǎng)絡(luò)模型的魯棒性。

        在BackBone 部分,沿用YOLO 系列的CSPDarkent結(jié)構(gòu),整體結(jié)構(gòu)主要包含4 個(gè)部分,分別是Focus 模塊、CBS模塊、CSP1模塊、CSP2模塊、CSP3模塊和SSP模塊。

        在Neck 層部分,采用FPN+PAN 的級聯(lián)結(jié)構(gòu),其中FPN采用自上而下的方式,將淺層信息與深層信息進(jìn)行信息融合,傳遞目標(biāo)語義信息。PAN則采用自下而上的方式,將深層信息傳遞給淺層部分進(jìn)行融合,傳遞目標(biāo)位置信息。

        在YOLO Head部分,開創(chuàng)性地提出Decoupled Head解耦頭,提高了整體模型的收斂速度和精度,有利于YOLOX-s 實(shí)現(xiàn)端到端化,也便于下游任務(wù)一體化。此外采用Anchor Free 方式進(jìn)行目標(biāo)框的標(biāo)注,實(shí)驗(yàn)證明相較于YOLOv3、YOLOv4、YOLOv5 中采用的Anchor Based 方式,Anchor Free 在減小計(jì)算量的同時(shí),能顯著提高模型最終識別準(zhǔn)確率。

        作為端到端的目標(biāo)檢測模型,YOLOX-s 網(wǎng)絡(luò)通過PAFPN網(wǎng)絡(luò)可以滿足對不同尺度特征圖進(jìn)行目標(biāo)檢測,淺層網(wǎng)絡(luò)檢測小目標(biāo),深層網(wǎng)絡(luò)檢測大目標(biāo),但是在淺層網(wǎng)絡(luò)到深層網(wǎng)絡(luò)的特征融合過程中,特征圖容易丟失一些重要的特征信息,對此本文提出了相應(yīng)改進(jìn)方案。

        1.2 BiFPN網(wǎng)絡(luò)

        原始YOLOX-s模型在Neck層采用PAN+FPN的方式實(shí)現(xiàn)淺層和深層網(wǎng)絡(luò)的特征融合,而BiFPN網(wǎng)絡(luò)相比于PAN+FPN 可以獲得更高級的特征融合方式,它可以增加各尺度特征的耦合,特別是有助于小目標(biāo)檢測的淺層特征[17-18]。此外,由于BiFPN采用了跨尺度連接方式,可以對不同檢測特征按照跨尺度權(quán)重進(jìn)行抑制或者增強(qiáng)特征表達(dá),從而緩解因檢測目標(biāo)重合導(dǎo)致的識別不準(zhǔn)確問題。FPN網(wǎng)絡(luò)、PAFPN網(wǎng)絡(luò)和BiFPN網(wǎng)絡(luò)結(jié)構(gòu)圖如圖2所示。

        圖2 三種特征金字塔結(jié)構(gòu)對比Fig.2 Comparison of structure of three network

        原始YOLOX-s模型僅會(huì)將主干網(wǎng)絡(luò)的3層深層特征輸入Neck層進(jìn)行特征融合。受鐘志峰等人[19]研究成果啟發(fā),本文將原始BiFPN 網(wǎng)絡(luò)結(jié)構(gòu)簡化為3 層結(jié)構(gòu)(記為BiFPN-m),此步驟可將BiFPN 融入YOLOX-s 網(wǎng)絡(luò)結(jié)構(gòu),在減少模型計(jì)算量的同時(shí)實(shí)現(xiàn)對同級節(jié)點(diǎn)最大程度的特征融合,具體網(wǎng)絡(luò)結(jié)構(gòu)如圖3 所示。相比于5層BiFPN網(wǎng)絡(luò),BiFPN-m網(wǎng)絡(luò)的特征融合方式可以降低淺層特征中噪聲對模型精度的干擾,顯著降低模型計(jì)算量,并提高模型檢測速度。后續(xù)實(shí)驗(yàn)也驗(yàn)證了多尺度特征輸出層數(shù)的改進(jìn)對算法整體檢測效果,相比于5 層BiFPN 網(wǎng)絡(luò),將BiFPN-m 模塊融入網(wǎng)絡(luò)模型中,能夠以更快的檢測速度、更小的模型、更少的參數(shù)量得到更好的檢測精度。

        圖3 BiFPN-m網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.3 BiFPN-m network structure

        在BiFPN-m 結(jié)構(gòu)中,P3~P5是從主干網(wǎng)絡(luò)層傳入的不同特征尺度的輸入,每個(gè)輸出節(jié)點(diǎn)的數(shù)學(xué)表達(dá)式如式(1)~(4)所示:

        1.3 Ghost卷積模塊

        Ghost卷積是Han等人[15]在2020年CVPR會(huì)議上提出的一種稀疏卷積層網(wǎng)絡(luò),其基本結(jié)構(gòu)如圖4所示。對于一個(gè)輸入特征圖,Ghost 卷積先采用原始卷積得到m個(gè)特征圖,然后利用分組線性運(yùn)算得到n個(gè)Ghost 特征圖,最后通過簡單的Concat 拼接操作輸出最終的n×m個(gè)特征圖,傳統(tǒng)卷積和Ghost 卷積的參數(shù)量分別為S1、S2,兩者參數(shù)量之比為S1/S2,其中c表示輸入圖像通道數(shù),k·k表示傳統(tǒng)卷積核的大小,d·d為線性運(yùn)算卷積核的大小,最終通過比較可以得到Ghost卷積運(yùn)算所用參數(shù)計(jì)算量約為傳統(tǒng)卷積的1/n。

        圖4 Ghost卷積網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 Structure of ghost convolution network

        1.4 注意力機(jī)制CBAM模塊

        CBAM(convolutional block attention module)是由Woo等人[16]在注意力機(jī)制理論和SENet研究基礎(chǔ)上,提出的一種新的注意力機(jī)制模塊。相比于SENet 模塊通過學(xué)習(xí)的方式獲取輸入端每個(gè)通道的重要程度,CBAM 模塊則同時(shí)關(guān)注輸入數(shù)據(jù)在空間和通道兩個(gè)方面的重要程度,從而更好地提升整個(gè)網(wǎng)絡(luò)模型的性能。自注意力機(jī)制模塊提出以來,許多科研人員將其添加進(jìn)網(wǎng)絡(luò)模型以提升模型效果[20-21],進(jìn)一步證明了模塊的有效性。CBAM模塊包含channel attention module(CAM模塊,圖5)和spatial attention module(SAM 模塊,圖6)等兩個(gè)部分,其基本原理如圖7所示。

        圖5 CAM網(wǎng)絡(luò)結(jié)構(gòu)Fig.5 Structure of CAM network

        圖6 SAM網(wǎng)絡(luò)結(jié)構(gòu)Fig.6 Structure of SAM network

        圖7 CBAM網(wǎng)絡(luò)結(jié)構(gòu)Fig.7 Structure of CBAM network

        CAM是針對特征圖在通道維度上特征分布不均而提出的方案,用于強(qiáng)化重要特征的權(quán)重并弱化不重要特征的權(quán)重,具體方案為將輸入特征圖分別進(jìn)行最大池化和平均池化操作,之后將兩個(gè)輸出分別經(jīng)過MLP網(wǎng)絡(luò),將輸出結(jié)果進(jìn)行特征融合再經(jīng)過sigmoid函數(shù)得到像素點(diǎn)權(quán)重,其基本公式如式(6)所示,其中MLP 代表兩層神經(jīng)網(wǎng)絡(luò),σ表示sigmoid激活函數(shù)。

        SAM 則是討論空間層面上輸入特征圖的內(nèi)在關(guān)系,將CAM模塊的輸出結(jié)果沿Channel方向進(jìn)行再次平均池化和最大池化,將兩者結(jié)果經(jīng)過卷積核為7×7大小的卷積層和sigmoid函數(shù)后得到SAM模塊的特征圖,其基本公式如式(7)所示,其中f n×n表示n×n的卷積運(yùn)算,σ表示sigmoid激活函數(shù)。

        WOO 等人[16]已通過實(shí)驗(yàn)證明,將注意力機(jī)制模塊嵌入不同目標(biāo)檢測任務(wù)之中,可以帶來較好的性能提升,但是將CBAM 模塊嵌入網(wǎng)絡(luò)結(jié)構(gòu)的哪一部分沒有具體的參考標(biāo)準(zhǔn),所以本文將改進(jìn)后的YOLOX-s-BG(YOLOX-s+BiFPN+Ghost 卷積)算法在主干網(wǎng)絡(luò)CSP1和CSP2 模塊內(nèi)、特征提取網(wǎng)絡(luò)的CSP3 模塊內(nèi)、主干網(wǎng)絡(luò)與特征提取網(wǎng)絡(luò)連接處、特征提取網(wǎng)絡(luò)的CSP3 模塊前分別嵌入CBAM 模塊,探究其對網(wǎng)絡(luò)性能的影響,從而產(chǎn)生了4 種網(wǎng)絡(luò)模型,分別為YOLOX-s-BG-A、YOLOX-s-BG-B、YOLOX-s-BG-C、YOLOX-s-BG-D,具體位置如圖8所示。

        圖8 四種嵌入CBAM模塊后的YOLOX-s-BG模型Fig.8 Four YOLOX-s-BG models embedded with CBAM modules

        圖8(a)、(c)、(d)三種融合方案均是在特征融合過程中提取關(guān)鍵信息,但是在后續(xù)更深層次特征融合中仍會(huì)造成一定程度的特征損失,而將CBAM 模塊融入CSP3 中能夠同時(shí)在淺層和深層網(wǎng)絡(luò)中提取重要特征,從而可以更好地為檢測頭提供更多的關(guān)鍵性信息,后續(xù)實(shí)驗(yàn)也證明,將CSP3中對應(yīng)位置加上CBAM模塊對網(wǎng)絡(luò)模型精度提升較大,因此本文最終選取了此種方法作為最終網(wǎng)絡(luò)模型,命名為YOLOX-s-BGC(BiFPN-m+Ghost卷積+CBAM),其網(wǎng)絡(luò)結(jié)構(gòu)如圖9所示。

        圖9 YOLOX-s-BGC網(wǎng)絡(luò)結(jié)構(gòu)Fig.9 YOLOX-s-BGC network structure

        2 實(shí)驗(yàn)

        2.1 實(shí)驗(yàn)數(shù)據(jù)集

        本文選用第六屆信也科技杯圖像算法大賽提供的自動(dòng)販賣機(jī)商品檢測數(shù)據(jù)集,本數(shù)據(jù)集采用魚眼攝像頭拍攝,包含5 422張圖片,已經(jīng)按照7∶2∶1的比例分為訓(xùn)練集、驗(yàn)證集和測試集,數(shù)據(jù)集分布情況和數(shù)據(jù)集示例分別如表1和圖10所示。

        表1 數(shù)據(jù)分布Table 1 Data distribution

        圖10 數(shù)據(jù)集展示Fig.10 Dataset presentation

        整個(gè)數(shù)據(jù)集包含了113 種自動(dòng)販賣機(jī)中常見的商品類型,商品數(shù)量分布較為不均。單張圖片至少包含一個(gè)待檢測商品目標(biāo),至多包含40 多個(gè)待檢測商品目標(biāo)。部分類型商品之間細(xì)粒度差異極小,僅存在顏色和包裝文字的差異,對檢測算法特征提取能力要求較高。此外,由于商品目標(biāo)之間互相遮擋,數(shù)據(jù)圖片邊緣部分圖像畸變嚴(yán)重造成部分特征損失,也給檢測算法特征提取能力帶來了一定挑戰(zhàn)。

        2.2 實(shí)驗(yàn)平臺

        操作系統(tǒng)為Ubuntu 20.04.1;處理器為AMD Ryzen 9 5900X 12-Core;GPU 為NVIDIA GeForce GTX 3090(24 GB);深度學(xué)習(xí)框架為Pytorch 1.12.0;利用CUDA 11.2 和cuDNN 8.1.1 加速訓(xùn)練;使用Python 3.7.2 作為主要編程語言。

        2.3 網(wǎng)絡(luò)訓(xùn)練

        YOLOX-s-BGC網(wǎng)絡(luò)初始化設(shè)置信息為:采用Mosaic和Mixup方式對圖像數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng),增強(qiáng)概率設(shè)置分別設(shè)置為0.5和0.7,epoch設(shè)置為150,batch_size設(shè)置為32,IoU閾值設(shè)置為0.5,運(yùn)行線程數(shù)設(shè)置為4,選取的優(yōu)化器為SGD。在實(shí)際訓(xùn)練過程中,初始學(xué)習(xí)率設(shè)定為0.01,最低學(xué)習(xí)率為0.000 1,采用余弦退火算法作為學(xué)習(xí)率降低的策略。

        為評判模型的有效性,本文選取均值平均精度(mean average precision,mAP)、準(zhǔn)確率(precision rate,P)、召回率(recall rate,R)、F1 值、每秒幀率(frame per second,F(xiàn)PS)、模型大小和參數(shù)量等七個(gè)指標(biāo)作為模型的評估指標(biāo)。其中P和R指標(biāo)依賴于真正例(true positive,TP)、假正例(false positive,F(xiàn)P)、真負(fù)例(true nagetive,TN)和假負(fù)例(false nagetive,F(xiàn)N),P和R指標(biāo)的計(jì)算公式如式(8)、(9)所示;AP 表示P-R 曲線的面積,F(xiàn)PSAP值越高表示模型準(zhǔn)確度越高,mAP表示所有檢測類別AP的平均值,AP和mAP的計(jì)算公式如式(10)、(11)所示。

        訓(xùn)練過程中訓(xùn)練集和驗(yàn)證集的損失曲線如圖11所示,訓(xùn)練集和驗(yàn)證集的loss值最終收斂于1.85和1.48。

        圖11 Loss值下降曲線Fig.11 Decline curve of Loss value

        3 實(shí)驗(yàn)結(jié)果與分析

        3.1 改進(jìn)特征提取層的實(shí)驗(yàn)分析

        為了驗(yàn)證將5 層BiFPN 網(wǎng)絡(luò)(模型記為YOLOX-s-B1)和3層BiFPN網(wǎng)絡(luò)(模型記為YOLOX-s-B2)融入原始YOLOX-s 模型中特征提取層的效果,本文將原始YOLOX-s模型與改進(jìn)后的兩種模型在數(shù)據(jù)集上作了實(shí)驗(yàn)對比,實(shí)驗(yàn)結(jié)果如表2所示。

        表2 改進(jìn)特征提取層驗(yàn)證實(shí)驗(yàn)Table 2 Verifying experiment of improved feature extraction layer

        結(jié)果表明,相比于原始YOLOX-s 模型,改進(jìn)后的YOLOX-s-B1模型檢測精度提升不明顯,且模型FPS大幅下降,模型大小和參數(shù)量大幅增加,證明此方案改進(jìn)效果不佳。而YOLOX-s-B2模型算法相比于原始YOLOX-s模型,精度提升了1.54 個(gè)百分點(diǎn),且模型檢測速度也有一定的加快,說明BiFPN-m網(wǎng)絡(luò)可以在一定程度上更好地融合特征圖中的特征,證明了將BiFPN-m 融入模型Neck層的有效性,此網(wǎng)絡(luò)模型記為YOLOX-s-B。

        3.2 改進(jìn)卷積層的實(shí)驗(yàn)分析

        為了驗(yàn)證將卷積層替換為Ghost卷積對模型性能提升的有效性,本文將原始YOLOX-s 模型中的部分卷積層替換為Ghost卷積,其余部分不做改動(dòng),改動(dòng)后的算法記為YOLOX-s-G,將改進(jìn)前后算法在數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)對比,實(shí)驗(yàn)結(jié)果如表3所示。

        表3 改進(jìn)卷積層驗(yàn)證實(shí)驗(yàn)Table 3 Verifying experiment of improved convolution layer

        結(jié)果表明,將原始YOLOX-s 模型中的部分卷積層替換為Ghost 卷積之后,改進(jìn)后的模型在mAP、Recall、Precision等指標(biāo)上僅下降0.1~0.4個(gè)百分點(diǎn),但是在模型大小和計(jì)算參數(shù)量等指標(biāo)上均減少了50%,即改進(jìn)方法對模型輕量化效果有一定的提升,證明了改進(jìn)方案的有效性。

        3.3 融合CBAM模塊的實(shí)驗(yàn)分析

        為了驗(yàn)證融合CBAM 模塊對原始模型的有效性并探究將CBAM 模塊嵌入網(wǎng)絡(luò)模型的具體位置,本文以經(jīng)過Ghost 卷積和BiFPN-m網(wǎng)絡(luò)改進(jìn)后的YOLOX-s網(wǎng)絡(luò)模型(YOLOX-s-BG)為基礎(chǔ),將CBAM模塊分別嵌入網(wǎng)絡(luò)模型的不同位置,形成了1.4 節(jié)所示的4 個(gè)新的網(wǎng)絡(luò)模型,將4種模型與YOLOX-s-BG模型在數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)對比,實(shí)驗(yàn)結(jié)果如表4所示。

        表4 融合CBAM模塊驗(yàn)證實(shí)驗(yàn)Table 4 Verifying experiment of fusion CBAM

        結(jié)果表明,通過四種方式將CBAM 模塊嵌入到Y(jié)OLOX-s-BG 模型后,均能進(jìn)一步提升整體模型的精度,證明了CBAM 模塊對本模型改進(jìn)的有效性。通過各項(xiàng)指標(biāo)對比發(fā)現(xiàn),將CBAM模塊嵌入CSP3模塊的對應(yīng)位置之后,改進(jìn)后模型的mAP 提升最大,達(dá)到了99.57%的整體識別準(zhǔn)確率,因此本文最終選定圖8(b)方案作為CBAM最終嵌入的位置。

        3.4 消融實(shí)驗(yàn)

        本文所提的改進(jìn)方案分別為B(BiFPN-m)、G(Ghost卷積)、C(CBAM)。為了驗(yàn)證改進(jìn)方案在不同方案上的改進(jìn)效果及其有效性,本文在采用相同軟硬件配置、相同參數(shù)設(shè)置的前提下,探究了原始YOLOX-s 網(wǎng)絡(luò)模型與添加1種改進(jìn)方案、2種改進(jìn)方案和3種改進(jìn)方案的不同優(yōu)化策略進(jìn)行對比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表5所示。結(jié)果表明,三種改進(jìn)方案均能取得預(yù)想的改進(jìn)效果,證明了改進(jìn)的有效性。

        表5 消融實(shí)驗(yàn)Table 5 Ablation experimental

        3.5 對比實(shí)驗(yàn)

        為了進(jìn)一步驗(yàn)證本文提出的改進(jìn)網(wǎng)絡(luò)模型的有效性和性能的優(yōu)越性,本文將改進(jìn)后的YOLOX-s-BGC算法與原始YOLOX-s 算法、SSD 算法、ScaledYOLOv4 算法[22]、YOLOv5Lite-g 算法[23]在數(shù)據(jù)集上進(jìn)行了對比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表6所示。

        表6 不同算法網(wǎng)絡(luò)模型性能對比Table 6 Performance comparison of different algorithm models

        結(jié)果表明,本文提出的YOLOX-s-BGC網(wǎng)絡(luò)模型相較于其他主流算法,在mAP、Recall、Precision、F1值等指標(biāo)上有著明顯的優(yōu)勢。其中,相較于SSD 算法,本文所提方法在模型大小上只有SSD的24.5%,且在整體精度上提升了8.66個(gè)百分點(diǎn),優(yōu)勢較為明顯。而相較于體積相似的YOLOv5Lite-g 算法和ScaledYOLOv4 算法,本文所提算法在保持模型輕量化的同時(shí),檢測精度也有了較大的提高,且FPS 下降不明顯,能滿足實(shí)時(shí)檢測的需求,證明了本文所提算法的優(yōu)越性。改進(jìn)前后網(wǎng)絡(luò)模型識別效果圖如圖12所示。

        圖12 算法改進(jìn)前后效果對比圖Fig.12 Comparison of detection effect before and after algorithm improvement

        通過對比可以看出,在待檢測商品邊緣壓縮較為嚴(yán)重、商品特征丟失明顯的情況下,SSD 算法、Scaled YOLOv4、YOLOv5Lite-g 算法模型均存在漏檢、誤檢等問題,而經(jīng)過本文改進(jìn)后的YOLOX-s-BGC模型能夠精準(zhǔn)識別所有待檢測商品,明顯提升了商品檢測準(zhǔn)確率。

        4 結(jié)束語

        本文針對魚眼相機(jī)拍攝的商品圖片檢測任務(wù)提出了一種YOLOX-s-BGC算法。首先,為提高模型對不同尺度特征提取能力,同時(shí)減小特征圖損失,使用改進(jìn)的BiFPN 網(wǎng)絡(luò)(BiFPN-m)替換原始YOLOX-s 網(wǎng)絡(luò)中的PAFPN結(jié)構(gòu),在提高模型推理速度的同時(shí)大幅提高了模型的識別準(zhǔn)確率。然后,為避免改進(jìn)模型過大,使用Ghost 卷積替換部分卷積層,在大幅減小模型大小和計(jì)算參數(shù)量的同時(shí),保持模型識別準(zhǔn)確率基本不下降。此外,為了進(jìn)一步增強(qiáng)模型對目標(biāo)關(guān)鍵特征的提取能力,在改進(jìn)模型的CSP3模塊中引入CBAM注意力機(jī)制,實(shí)現(xiàn)了模型整體mAP值的進(jìn)一步提升,最終達(dá)到了99.57%的識別精度。將YOLOX-s-BGC模型與YOLOv3、Scaled YOLOv4、YOLOv5-Lite-g 以及原始YOLOX 模型對比,改進(jìn)后的模型在mAP、Recall、Precision、F1 值等多個(gè)指標(biāo)上均取得了最優(yōu),而在FPS、模型大小、計(jì)算參數(shù)量等指標(biāo)上也保持了較為優(yōu)越的性能,達(dá)到了模型改進(jìn)的目的。將YOLOX-s-BGC 模型應(yīng)用到無人販賣機(jī)的商品檢測中,能夠達(dá)到實(shí)際應(yīng)用的要求。但是,本文的算法仍存在一些問題,對只有顏色差異的兩類產(chǎn)品的識別準(zhǔn)確度相對較低,同時(shí)沒有考慮自動(dòng)販賣機(jī)照明故障等特殊情況對模型檢測精度的影響。后續(xù)研究將針對這些不足,進(jìn)一步優(yōu)化算法,提高模型的魯棒性。

        猜你喜歡
        販賣機(jī)卷積特征
        Pizza from a vending machine
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        如何表達(dá)“特征”
        基于S7-200的語音播放自動(dòng)販賣機(jī)設(shè)計(jì)
        電子制作(2019年14期)2019-08-20 05:43:24
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        不忠誠的四個(gè)特征
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        抓住特征巧觀察
        I am a Vending Machine我是一臺自動(dòng)販賣機(jī)
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        久久久久无码精品国| 国产精品一区二区久久不卡| 久久久久久av无码免费看大片 | 亚洲亚色中文字幕剧情| 亚洲精品色午夜无码专区日韩| 日本最大色倩网站www| 亚洲日韩欧美国产高清αv| 加勒比精品一区二区三区| 日韩中文字幕久久久老色批| 无码人妻精品一区二区三| 亚洲成a人片在线观看天堂无码| 色综合久久无码中文字幕app| 无码精品国产午夜| 91久久精品一区二区| 久久久久夜夜夜精品国产| 亚洲国产av一区二区三区四区| 一个人免费观看在线视频播放| 亚洲老女人区一区二视频| 久久精品国产亚洲av蜜点| 亚洲欧美综合区自拍另类| 免费看奶头视频的网站| av网站一区二区三区| 免费a级毛片无码免费视频首页| 国产aⅴ无码专区亚洲av麻豆| 国产无套护士在线观看| 91精品国产91久久久无码色戒| 区二区三区亚洲精品无| 99噜噜噜在线播放| 精品国产一区av天美传媒| 久久久AV无码精品免费| 日本免费一区二区在线| 亚洲午夜成人精品无码色欲| 国产av无码专区亚洲av手机麻豆| 色yeye在线观看| 成av人片一区二区久久| 色综合久久精品亚洲国产| 色丁香在线观看| 五十路一区二区中文字幕| 精品av熟女一区二区偷窥海滩 | 亚洲综合日韩精品一区二区| 老熟妇仑乱视频一区二区|