亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        結(jié)合空洞卷積和遷移學(xué)習(xí)改進(jìn)YOLOv4的X光安檢危險(xiǎn)品檢測(cè)

        2021-11-25 07:48:12吳海濱魏喜盈劉美紅王愛(ài)麗巖堀祐之
        中國(guó)光學(xué) 2021年6期
        關(guān)鍵詞:錨框危險(xiǎn)品X光

        吳海濱,魏喜盈,劉美紅,王愛(ài)麗,劉 赫,巖堀祐之

        (1.哈爾濱理工大學(xué) 黑龍江省激光光譜技術(shù)及應(yīng)用重點(diǎn)實(shí)驗(yàn)室,黑龍江 哈爾濱 150080;2.中部大學(xué) 計(jì)算機(jī)科學(xué)學(xué)院,愛(ài)知 春日井 487-8501)

        1 引言

        隨著社會(huì)的不斷進(jìn)步,公共交通在生產(chǎn)生活中所占據(jù)的位置日益重要。目前,安全檢查廣泛應(yīng)用于一些政府機(jī)關(guān)辦公場(chǎng)所、交通樞紐、軍事基地、科研及保密場(chǎng)所、航天基地等場(chǎng)所,如果在這些場(chǎng)所發(fā)生意外,將會(huì)導(dǎo)致人員傷亡和經(jīng)濟(jì)財(cái)產(chǎn)損失,并帶來(lái)極其惡劣的社會(huì)影響。為了減少此類(lèi)惡性事件的發(fā)生,我國(guó)對(duì)安防領(lǐng)域的投入也逐漸增多,安檢級(jí)別也越來(lái)越高。安檢門(mén)和安檢機(jī)是目前應(yīng)用最廣泛的安檢設(shè)備。安檢門(mén),又稱(chēng)為金屬探測(cè)門(mén),主要是檢查人身上攜帶的金屬品,如槍支、械具等。安檢機(jī)則主要是對(duì)人隨身攜帶的行李、包裹等進(jìn)行檢查,通過(guò)X光安檢通道對(duì)行李進(jìn)行透視性掃描,安檢員進(jìn)而通過(guò)影像判斷是否含有違禁品、危險(xiǎn)品等。越來(lái)越密集的交通網(wǎng)絡(luò)以及巨大的客流量使得我國(guó)的安檢工作量激增,安全檢查的工作面臨嚴(yán)峻的挑戰(zhàn)。

        近年來(lái),深度學(xué)習(xí)在目標(biāo)檢測(cè)等任務(wù)中發(fā)揮了至關(guān)重要的作用[1-2]。利用深度卷積神經(jīng)網(wǎng)絡(luò)能自動(dòng)提取X光危險(xiǎn)品特征的優(yōu)勢(shì),有效地解決了物品遮擋、背景雜亂等問(wèn)題,提高了危險(xiǎn)品的檢測(cè)性能。2017年,Mery等在GDXray數(shù)據(jù)集測(cè)試了10余種安檢圖像識(shí)別方法,它們包括基于BoW、稀疏KNN、深度學(xué)習(xí)等,這也是深度學(xué)習(xí)首次應(yīng)用到X光安檢領(lǐng)域[3]。2018年,Akcay提出了一種基于深度學(xué)習(xí)的行李檢查方法。首先,標(biāo)記圖像中的每個(gè)對(duì)象,然后將圖像的位置和邊界框指定給具有卷積神經(jīng)網(wǎng)絡(luò)的區(qū)域,最后檢測(cè)并識(shí)別出危險(xiǎn)品[4]。Morris等人提出了Passenger Baggage Object Database,應(yīng)用于危險(xiǎn)品分類(lèi),并且在VGG19、Xception、InceptionV3模型上進(jìn)行測(cè)試,得到最佳模型的ROC曲線為0.95[5]。Akcay等采用遷移學(xué)習(xí)(Transfer Learning)的方法,使用深度卷積神經(jīng)網(wǎng)絡(luò)解決X光行李安全篩選背景下的圖像分類(lèi)問(wèn)題[6]。

        2019年,Akcay提出了GANomaly模型,利用生成對(duì)抗網(wǎng)絡(luò)訓(xùn)練不包含危險(xiǎn)品的正常樣本,將包含危險(xiǎn)品的少數(shù)樣本作為異常樣本,通過(guò)判別器判斷其與網(wǎng)絡(luò)學(xué)習(xí)到的潛在變量之間的差異,從而判斷是否為異常樣本[7]。Reagan等人利用VGG-16網(wǎng)絡(luò)在ImageNet數(shù)據(jù)上訓(xùn)練了1000個(gè)不同的類(lèi),再將該模型學(xué)習(xí)到的內(nèi)容作為初始化參數(shù)遷移到危險(xiǎn)品的分類(lèi)任務(wù)上,大大改善了分類(lèi)精度[8]。

        2020年,唐浩漾等人提出在SSD目標(biāo)檢測(cè)網(wǎng)絡(luò)上構(gòu)建特征金字塔,融合危險(xiǎn)品的底層邊緣形狀信息特征和深層語(yǔ)義特征,并使用可行變卷積提高網(wǎng)絡(luò)危險(xiǎn)品檢測(cè)能力[9]。張友康等人提出了非對(duì)稱(chēng)卷積多視野檢測(cè)網(wǎng)絡(luò),該網(wǎng)絡(luò)使用小卷積非對(duì)稱(chēng)網(wǎng)絡(luò)、多尺度特征圖融合策略以及空洞多視野卷積模塊,有助于提高背景干擾下的X光安檢圖像危險(xiǎn)品識(shí)別[10]。郭守向等人構(gòu)建了基于YOLO (You Only Look Once)的X光圖像違禁品檢測(cè)網(wǎng)絡(luò),其主干網(wǎng)絡(luò)Darknet-C由輔助骨干網(wǎng)絡(luò)各個(gè)特征層和引導(dǎo)主干網(wǎng)絡(luò)對(duì)應(yīng)的上一層級(jí)進(jìn)行特征級(jí)聯(lián)后向下一層傳播,有效提升了檢測(cè)小目標(biāo)的檢測(cè)效果[11]。Zhu等人提出了一種用于X光安檢圖像的數(shù)據(jù)增強(qiáng)方法,豐富安檢圖像的多樣性。首先,使用改進(jìn)的自我注意生成對(duì)抗網(wǎng)絡(luò) (Self-Attention Generative Adversarial Networks,SAGAN)生成了新的危險(xiǎn)品圖像。其次,提出了一種基于循環(huán)生成對(duì)抗網(wǎng)絡(luò)(Cycle Generative Adversarial Networks,CycleGAN)的方法,將物品的自然圖像轉(zhuǎn)換為X光圖像[12]。

        本文在YOLOv4的基礎(chǔ)上,結(jié)合空洞卷積對(duì)其網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),加入空洞空間金字塔池化模型(Atrous Spatial Pyramid Pooling,ASPP),稱(chēng)為ASPP-YOLOv4模型,以此增大感受野,聚合多尺度上下文信息,同時(shí)利用遷移學(xué)習(xí)訓(xùn)練網(wǎng)絡(luò)和余弦退火優(yōu)化學(xué)習(xí)率,大大提高了對(duì)X光安檢圖像中危險(xiǎn)品的檢測(cè)精度。

        2 ASPP-YOLOv4檢測(cè)模型

        本文構(gòu)建的ASPP-YOLOv4模型包括模型預(yù)訓(xùn)練、網(wǎng)絡(luò)結(jié)構(gòu)、錨框選擇3個(gè)部分,如圖1所示。

        圖1 ASPP-YOLOv4模型設(shè)計(jì)Fig.1 ASPP-YOLOv4 model design

        (1)引入遷移學(xué)習(xí),利用公開(kāi)的VOC數(shù)據(jù)集對(duì)YOLOv4網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練,將訓(xùn)練好的參數(shù)遷移到本文構(gòu)建的ASPP-YOLOv4模型進(jìn)行微調(diào)。與正常卷積神將網(wǎng)絡(luò)訓(xùn)練中的隨機(jī)初始化不同,將預(yù)先訓(xùn)練的網(wǎng)絡(luò)權(quán)重值作為初始化參數(shù)加載,可以有效加速收斂并提高檢測(cè)性能。

        (2)采用具有高性能和強(qiáng)穩(wěn)定性的YOLOv4作為基本檢測(cè)模型,結(jié)合上下文信息對(duì)于檢測(cè)目標(biāo)的重要性,將原網(wǎng)絡(luò)中的空間金字塔池化改進(jìn)為空洞空間金字塔池化,構(gòu)建ASPP-YOLOv4檢測(cè)網(wǎng)絡(luò)。通過(guò)使用不同擴(kuò)張率的空洞卷積實(shí)現(xiàn)不同尺度的最大值池化,在增大感受野的同時(shí)有效融合多尺度的上下文信息,增強(qiáng)模型對(duì)危險(xiǎn)品尺度變化的魯棒性。

        (3)根據(jù)危險(xiǎn)品目標(biāo)的尺度分布特點(diǎn)重新設(shè)計(jì)了初始錨框。使用K-means聚類(lèi)算法對(duì)危險(xiǎn)品目標(biāo)的尺度進(jìn)行聚類(lèi)的結(jié)果作為初始錨框,使得網(wǎng)絡(luò)候選框的初始化尺寸更加貼合危險(xiǎn)品目標(biāo)。另外,在訓(xùn)練過(guò)程中采用學(xué)習(xí)率余弦退火衰減策略,實(shí)現(xiàn)模型訓(xùn)練過(guò)程的優(yōu)化。

        2.1 YOLOv4

        YOLO[13-14]網(wǎng)絡(luò)是一種基于回歸的目標(biāo)檢測(cè)網(wǎng)絡(luò),其可以通過(guò)充分提取被檢目標(biāo)的特征,直接在一個(gè)網(wǎng)絡(luò)內(nèi)同時(shí)完成目標(biāo)的分類(lèi)和定位任務(wù),真正實(shí)現(xiàn)了一種簡(jiǎn)單且高效的端到端的設(shè)計(jì)思路,成為one-stage檢測(cè)模型的重要代表。

        YOLOv4[15-16]算法是在YOLOv3的基礎(chǔ)上,從數(shù)據(jù)增強(qiáng)、主干網(wǎng)絡(luò)、網(wǎng)絡(luò)訓(xùn)練、損失函數(shù)等方面進(jìn)行改進(jìn)優(yōu)化,雖然其網(wǎng)絡(luò)結(jié)構(gòu)更復(fù)雜,但有更高的精度和更快的速度,在檢測(cè)小目標(biāo)和被遮擋目標(biāo)方面有著顯著的提高。圖2為YOLOv4的網(wǎng)絡(luò)結(jié)構(gòu)。

        圖2 YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Network structure of YOLOv4

        YOLOv4算法主要包括4個(gè)步驟:

        (1) 將輸入圖片分成S×S個(gè)網(wǎng)格,物品中心落在網(wǎng)格中心,檢測(cè)該網(wǎng)格中的物體;

        (2) 每個(gè)網(wǎng)格都生成B個(gè)預(yù)測(cè)框;

        (3) 每一個(gè)預(yù)測(cè)框均針對(duì)C個(gè)類(lèi)別進(jìn)行概率預(yù)測(cè);

        (4) 使用非極大值抑制算法對(duì)所有預(yù)測(cè)框進(jìn)行篩選,得到最終包含目標(biāo)類(lèi)別和位置坐標(biāo)的檢測(cè)結(jié)果。

        2.2 空洞空間金字塔池化模型

        在X光安檢圖像檢測(cè)任務(wù)中,容易受到遮擋、拍攝角度、復(fù)雜背景等因素的影響,導(dǎo)致其外觀信息獲取不足,影響其整體信息的收集,因此在檢測(cè)危險(xiǎn)品時(shí),僅通過(guò)目標(biāo)表征進(jìn)行判斷的準(zhǔn)確率較低。上下文信息具有描述目標(biāo)內(nèi)在聯(lián)系的特點(diǎn),將其加入至目標(biāo)檢測(cè)任務(wù)中,能有減少上述影響,提高檢測(cè)的準(zhǔn)確度。空洞卷積在不使用池化層的情況下,能夠增大感受野,使每個(gè)卷積輸出都包含較大范圍的信息,進(jìn)而提高網(wǎng)絡(luò)性能。其核心是向卷積層引入一個(gè)新參數(shù)——擴(kuò)張率(dilation rate),該參數(shù)定義了卷積核處理的間隔數(shù)量??斩淳矸e核和感受野大小計(jì)算如式(1)和式(2)所示:

        其中,fk表示原始卷積核的大小,表示空洞卷積核大小,r表示卷積核的擴(kuò)張率,Rm表示經(jīng)空洞卷積后第m層感受野大小,Si表 示第i層的步長(zhǎng),“*”表示卷積。

        YOLOv4中使用SPP模塊提取不同感受野的信息,但沒(méi)有充分體現(xiàn)全局信息和局部信息的語(yǔ)法關(guān)系。本文設(shè)計(jì)的ASPP引入不同擴(kuò)張率的空洞卷積操作,實(shí)現(xiàn)SPP中的池化操作,并將其與全局平均池化并聯(lián),組成一個(gè)新的特征金字塔模型,以此聚合多尺度上下文信息,增強(qiáng)模型識(shí)別不同尺寸同一物體的能力。

        結(jié)合ASPP改進(jìn)的YOLOv4框架如圖3所示,其中ASPP采用擴(kuò)張率r分別為1、3、5且卷積核為 3 ×3的空洞卷積,在前一層的局部特征上關(guān)聯(lián)到更廣的視野,防止小目標(biāo)特征在信息傳遞時(shí)丟失。

        圖3 結(jié)合ASPP改進(jìn)的YOLOv4框架Fig.3 Improved YOLOv4 framework combined with ASPP

        圖3中,ASPP將輸入的特征同時(shí)輸出到5個(gè)支路中,第1個(gè)支路是一個(gè)1×1的卷積,目的是保持原始的感受野;第2~4支路是不同擴(kuò)張率的空洞卷積,并且包含BN層,目的是對(duì)特征進(jìn)行提取,獲得不同的感受野,最后的特征圖能夠融合不同尺度的信息;第5個(gè)支路的目的是獲取全局特征,將特征做全局平均化池化后,經(jīng)過(guò)1×1卷積和歸一化處理,再進(jìn)行上采樣。本文模型通過(guò)ASPP,可以學(xué)習(xí)到不同尺寸危險(xiǎn)品的特征,降低危險(xiǎn)品的漏檢率。

        通過(guò)特征融合后,YOLOv4獲得了3個(gè)特征層的預(yù)測(cè)結(jié)果,尺寸大小分別為(13, 13, 30),(26,26, 30),(52, 52, 30)的數(shù)據(jù),分別對(duì)應(yīng)網(wǎng)格上3個(gè)預(yù)測(cè)框的位置,其中每一個(gè)網(wǎng)格點(diǎn)負(fù)責(zé)一個(gè)區(qū)域的檢測(cè)。其中維度30代表了3個(gè)box的詳細(xì)信息,每個(gè)box長(zhǎng)度為10。這10個(gè)維度的信息為得到的預(yù)測(cè)結(jié)果:(x_offset,y_offset,h,w,conf,conf1,···,conf5) 。其中x_offset表示網(wǎng)格左上角相對(duì)于x軸的偏移量,y_offset代表網(wǎng)格左上角相對(duì)于y軸的偏移量,h代表預(yù)測(cè)框的高,w代表預(yù)測(cè)框的寬,conf代表置信度,confi(1≤i≤5)表示分類(lèi)結(jié)果。最后,取出每一類(lèi)得分大于閾值的框和得分進(jìn)行排序,利用框的位置和得分進(jìn)行非極大抑制 ,最終得出概率最大的邊界框。

        2.3 利用遷移學(xué)習(xí)訓(xùn)練網(wǎng)絡(luò)

        在深度神經(jīng)網(wǎng)絡(luò)中,前面的卷積層一般學(xué)習(xí)具有通用性的淺層特征,而后面的卷積層學(xué)習(xí)的是對(duì)當(dāng)前訓(xùn)練目標(biāo)更具有針對(duì)性的、更高級(jí)的抽象特征。先凍結(jié)部分網(wǎng)絡(luò)層可以加快訓(xùn)練速度,也可以在訓(xùn)練初期防止權(quán)值被破壞。導(dǎo)致模型泛化能力差的另一個(gè)原因是目標(biāo)函數(shù)存在局部最小值,而遷移學(xué)習(xí)能有效避免這個(gè)問(wèn)題。

        考慮到存在大量可見(jiàn)光圖像,而X光危險(xiǎn)品圖像過(guò)少,采用基于參數(shù)遷移的學(xué)習(xí)方法訓(xùn)練ASPP-YOLOv4網(wǎng)絡(luò)。遷移策略如下:

        (1)選取公開(kāi)的VOC數(shù)據(jù)集為預(yù)訓(xùn)練數(shù)據(jù)集,該數(shù)據(jù)集有20類(lèi)標(biāo)注目標(biāo),共計(jì)16萬(wàn)張圖像,用VOC數(shù)據(jù)集為源域在YOLOv4網(wǎng)絡(luò)上學(xué)習(xí)圖片底層特征;

        (2)取訓(xùn)練檢測(cè)效果較好的YOLOv4源域網(wǎng)絡(luò),去掉后面全連接層和分類(lèi)層,作為ASPPYOLOv4骨干網(wǎng)絡(luò)的預(yù)訓(xùn)練權(quán)重,其他網(wǎng)絡(luò)部分采用權(quán)重隨機(jī)初始化的方式;

        (3)凍結(jié)主干網(wǎng)絡(luò),對(duì)不凍結(jié)的網(wǎng)絡(luò)層進(jìn)行微調(diào),參與反向傳播中的梯度更新;

        (4)放開(kāi)凍結(jié)層,對(duì)全部層利用反向傳播算法進(jìn)行訓(xùn)練,得到最終合適的參數(shù)矩陣和偏置向量。

        2.4 基于K-means聚類(lèi)的錨框選擇

        采用K-means聚類(lèi)的方法代替原始錨框,使得網(wǎng)絡(luò)候選框的初始化尺寸更加貼合危險(xiǎn)品目標(biāo),進(jìn)一步提高網(wǎng)絡(luò)的檢測(cè)效果。K-means是一種無(wú)監(jiān)督學(xué)習(xí)算法,它將數(shù)據(jù)集劃分成多個(gè)簇,通過(guò)計(jì)算每個(gè)樣本的相似性度量,并將其分配給與之距離最近的簇中心,每次迭代都計(jì)算每個(gè)簇中所有樣本的均值,不斷更新簇中心,直到簇中心不再變化。

        本文處理的X光危險(xiǎn)品的真實(shí)框由左上定點(diǎn)和右下定點(diǎn)表示,即 (xmin,ymin,xmax,ymax)。由于數(shù)據(jù)集中圖片大小不同,首先對(duì)使用圖片的長(zhǎng)寬對(duì)box的寬和高按式(3)做歸一化處理。標(biāo)準(zhǔn)的K-means使用歐式距離作為度量,但本文檢測(cè)方法中只需要關(guān)心錨框與真實(shí)框的交并比(Intersection Over Union, IOU),不關(guān)心真實(shí)框的大小,因此,使用IOU作為度量更加合適。假設(shè)anthor=(wa,ha),box=(wb,hb),則二者的IOU如式(4)所示。IOU值越大,表示兩個(gè)框距離越近。最終度量如式(5)所示。

        本文首先選取9個(gè)框作為初始的錨框,再使用IOU度量,將每個(gè)框分配給其距離最近的錨框形成新的簇,并在每次迭代后計(jì)算每個(gè)簇中所有框的均值,更新錨框,直到錨框不再變化。最終得到的錨框如表1所示。

        表1 錨框計(jì)算結(jié)果Tab.1 Calculation results of the anchor

        2.5 余弦退火優(yōu)化學(xué)習(xí)率

        ASPP-YOLOv4的學(xué)習(xí)率采用了余弦退火(Cosine annealing)優(yōu)化算法,它與傳統(tǒng)的學(xué)習(xí)率不同,隨著epoch的增加,學(xué)習(xí)率先模擬余弦函數(shù)快速下降,再線性上升,不斷重復(fù)該過(guò)程。傳統(tǒng)的訓(xùn)練過(guò)程中學(xué)習(xí)率逐漸減小,模型逐漸尋找到局部最優(yōu)點(diǎn),模型會(huì)快速地往局部最優(yōu)點(diǎn)移動(dòng),隨著學(xué)習(xí)率的減小,模型最終收斂到一個(gè)全局最優(yōu)點(diǎn)。而余弦退火的學(xué)習(xí)率急速下降,所以模型會(huì)迅速踏入局部最優(yōu)點(diǎn),并保存局部最優(yōu)點(diǎn)的模型,然后開(kāi)啟熱重啟(Warm restart),學(xué)習(xí)率重新恢復(fù)到一個(gè)較大值,逃離當(dāng)前的局部最優(yōu)點(diǎn),并尋找新的最優(yōu)點(diǎn),周期性重復(fù)上述過(guò)程。學(xué)習(xí)率余弦退火衰減具體策略如表2所示。

        表2 余弦退火衰減過(guò)程Tab.2 Cosine annealing decay process

        其中重啟并不是從頭開(kāi)始,而是通過(guò)增加學(xué)習(xí)率來(lái)模擬,另外定義了一個(gè)初始學(xué)習(xí)率。由于模型在剛開(kāi)始訓(xùn)練時(shí)的權(quán)重是隨機(jī)初始化的,如果此時(shí)就直接采用較大的學(xué)習(xí)率,容易造成模型的震蕩。采用warmup預(yù)熱學(xué)習(xí)率可以避免上述問(wèn)題,這是因?yàn)槿绻趧傞_(kāi)始訓(xùn)練的幾個(gè)epoch內(nèi)采用預(yù)熱的小學(xué)習(xí)率下,模型可以慢慢趨于穩(wěn)定,這時(shí)再使用預(yù)設(shè)的學(xué)習(xí)率進(jìn)行訓(xùn)練,可獲得更快的收斂速度。

        3 實(shí)驗(yàn)結(jié)果及分析

        本文實(shí)驗(yàn)均在Windows操作系統(tǒng)下實(shí)現(xiàn),采用Python語(yǔ)言和Keras庫(kù)編碼,NVIDIA RTX2070顯卡GPU加速,CPU為32 GB Intel?Core? i7-9750H CPU @ 2.60 GHz。數(shù)據(jù)集采用的是SIXRay數(shù)據(jù)集[17]中所有正類(lèi)樣本添加位置標(biāo)簽生成的數(shù)據(jù)集,手動(dòng)框出危險(xiǎn)品的位置并標(biāo)注出類(lèi)別,最終生成每幅圖片的標(biāo)簽文件。將數(shù)據(jù)集劃分為兩部分,80%樣本作為訓(xùn)練集,20%樣本作為測(cè)試集。選擇余弦退火學(xué)習(xí)率算法作為梯度優(yōu)化算法。

        訓(xùn)練超參數(shù)配置如表3所示。為了驗(yàn)證本文算法的有效性,選取目前主流目標(biāo)檢測(cè)模型,包 括YOLOv3[18]、M2Det[19]、SSD[20]、YOLOv4做對(duì)比。表4列出了以上幾種方法對(duì)5種危險(xiǎn)品的檢測(cè)結(jié)果。

        表3 訓(xùn)練超參數(shù)設(shè)計(jì)Tab.3 Design of the training hyperparameters

        表4 不同模型的AP比較Tab.4 Comparison of AP for different networks (%)

        在目標(biāo)檢測(cè)模型訓(xùn)練時(shí),訓(xùn)練和驗(yàn)證過(guò)程中每一個(gè)Epoch的損耗值下降曲線如圖4所示。從圖中可以看出,在前50個(gè)Epoch訓(xùn)練過(guò)程中,隨著迭代次數(shù)和訓(xùn)練時(shí)間的增加,Train-Loss和Validation-Loss均逐漸下降,最終趨于平穩(wěn),訓(xùn)練過(guò)程中設(shè)置了早停策略,得到最優(yōu)檢測(cè)模型。

        圖4 訓(xùn)練過(guò)程中的Loss下降曲線Fig.4 Loss decline curves during training process

        對(duì)于Gun來(lái)說(shuō),數(shù)量相對(duì)較多,特征明顯,所有網(wǎng)絡(luò)對(duì)其檢測(cè)精度較高;由于Wrench的類(lèi)內(nèi)差異大、相互重疊,所有網(wǎng)絡(luò)對(duì)它們的檢測(cè)精度均偏低;Scissors的數(shù)量少,目標(biāo)小,易被覆蓋,漏檢率較高。ASPP-YOLOv4的多類(lèi)別平均精度(mean Average Precision, mAP)為最高,達(dá)到85.23%,相比于YOLOv3、M2Det、SSD、YOLOv4分別提升了5.95%、3.76%、2.27%和2.12%。除了Knife,本文的檢測(cè)精度均最高。

        與YOLOv4相比,Gun、Wrench、Pliers的平均精度(Average Precision, AP)分別提升了1.38%、0.46%、2.86%,Scissors提升明顯,為6.21%。對(duì)于Knife來(lái)說(shuō),本文方法相對(duì)于YOLOv3提升了3.39%,比M2Det提升了5.69%,比SSD提升了3.52%,與YOLOv4相比,僅下降了0.3%,是可以接受的。

        圖5(彩圖見(jiàn)期刊電子版)用柱狀圖比較5種方法在每類(lèi)樣本上的AP,可以直觀地看出,本文方法具有良好的檢測(cè)效果,性能最優(yōu)。

        圖5 幾種方法對(duì)各類(lèi)危險(xiǎn)品的檢測(cè)結(jié)果Fig.5 Detection results of dangerous goods detected by different algorithms

        表5列出了ASPP-YOLOv4對(duì)SIXRay數(shù)據(jù)集上不同類(lèi)別危險(xiǎn)品的檢測(cè)性能。從表5可以看出,針對(duì)各類(lèi)樣本,模型的AP較好,但召回率(Recall)相對(duì)較低,這是因?yàn)榘矙z圖像目標(biāo)較小,重疊較多,更容易造成漏檢而不是誤檢。尤其是對(duì)于Knife這類(lèi)物品,擺放的方式、物品大小形狀等差異較大,漏檢率相對(duì)較高。而本模型的準(zhǔn)確率(Precision)保持在較好的水平,誤檢率較低。

        表5 ASPP-YOLOv4的性能分析Tab.5 The performance of ASPP-YOLOv4

        為了進(jìn)一步證明本文提出的ASPP-YOLOv4算法的有效性,表6取各類(lèi)目標(biāo)的平均值,作為整體性能評(píng)估指標(biāo),與原始YOLOv4進(jìn)行對(duì)比。從表6中可以看出,ASPP-YOLOv4相比YOLOv4,mAP提高了2.12%,召回率提高了2.16%。表明本文方法能更好地與目標(biāo)特點(diǎn)匹配,目標(biāo)定位更準(zhǔn)確,同時(shí)空洞卷積的引入提高了模型識(shí)別同一類(lèi)物品的能力,所以能有效提升目標(biāo)準(zhǔn)確率和召回率。

        表6 YOLOv4改進(jìn)前后檢測(cè)性能對(duì)比Tab.6 Comparison of YOLOv4 performance before and after improvement

        ASPP-YOLOv4模型在測(cè)試集上的目標(biāo)檢測(cè)效果如圖6(彩圖見(jiàn)期刊電子版)所示。其中圖6(a)是多目標(biāo)圖像,可以看出ASPP-YOLOv4模型能較為準(zhǔn)確地檢測(cè)出每一個(gè)目標(biāo),其中綠色檢測(cè)框表示刀具,同一張圖片中的3個(gè)刀具具有不同的形狀和大小,但是本文模型可以較好地識(shí)別,置信度分別為0.94、0.72、0.67;紫色檢測(cè)框表示槍支,置信度為0.77;藍(lán)色檢測(cè)框表示扳手,由于輪廓相對(duì)清晰,置信度達(dá)到0.98。圖6(b)是擺放差異圖像,兩把刀具的擺放方式有較大的差異,但背景較為簡(jiǎn)單,模型對(duì)兩支槍的置信度均為1.00,對(duì)刀具的置信度分別為0.85和0.87。圖6(c)是小目標(biāo)圖像,紅色檢測(cè)框表示剪刀,ASPP-YOLOv4對(duì)其有較好的識(shí)別精度,置信度為0.99。圖6(d)是重疊圖像,背景雜亂且顏色相近,ASPP-YOLOv4模型可以獲得更大的感受野,較好地融合上下文信息,進(jìn)而能從重疊的X光圖像中得到更加準(zhǔn)確的目標(biāo)特征,對(duì)扳手的置信度為0.81,黃色檢測(cè)框表示鉗子,其置信度為0.94。

        圖6 危險(xiǎn)品檢測(cè)效果Fig.6 Detection results for dangerous goods

        4 結(jié)論

        本文對(duì)YOLOv4進(jìn)行改進(jìn),實(shí)現(xiàn)了X光安檢圖像危險(xiǎn)品檢測(cè),該模型結(jié)合空洞卷積改進(jìn)空間金字塔池化,在增大感受野的同時(shí)有效融合多尺度的上下文信息。同時(shí)利用遷移學(xué)習(xí)訓(xùn)練網(wǎng)絡(luò)和余弦退火優(yōu)化學(xué)習(xí)率,提高檢測(cè)精度的同時(shí),加速模型收斂,減少訓(xùn)練時(shí)間。最后以K-means聚類(lèi)的方法設(shè)計(jì)錨框,使其更加適合危險(xiǎn)品的定位。實(shí)現(xiàn)結(jié)果顯示,在SIXRay數(shù)據(jù)集上的mAP達(dá)到85.23%,充分表明ASPP-YOLOv4模型對(duì)于X光安檢危險(xiǎn)品圖像的檢測(cè)結(jié)果優(yōu)于其他方法,能有效解決物體遮擋問(wèn)題,危險(xiǎn)品的分類(lèi)與定位效果均有提升。

        猜你喜歡
        錨框危險(xiǎn)品X光
        這些標(biāo)志帶你了解九大危險(xiǎn)品
        基于YOLOv3錨框優(yōu)化的側(cè)掃聲吶圖像目標(biāo)檢測(cè)
        錨框策略匹配的SSD飛機(jī)遙感圖像目標(biāo)檢測(cè)
        基于SSD算法的輕量化儀器表盤(pán)檢測(cè)算法*
        基于GA-RoI Transformer的遙感圖像任意方向目標(biāo)檢測(cè)
        仿生武器大揭秘
        給動(dòng)物拍張X光片
        人眼X光
        還在喂奶,能照X光嗎?
        媽媽寶寶(2017年2期)2017-02-21 01:21:28
        是誰(shuí)讓危險(xiǎn)品企業(yè)埋伏居民區(qū)?
        亚洲精品综合久久国产二区| 亚洲中文久久精品无码ww16| 女性自慰网站免费看ww| av资源在线播放网站| 亚洲一区二区三区中文字幕网| 国产亚洲一本大道中文在线| 无码中文字幕加勒比一本二本 | 91亚洲精品久久久蜜桃| 日韩精品视频高清在线| 成人免费xxxxx在线观看| 亚洲国产成人久久综合一区77| 最新国产精品精品视频 | 国产天堂av手机在线| 美女在线一区二区三区视频| 人人爽久久涩噜噜噜丁香| 欧洲午夜视频| 一区二区中文字幕蜜桃| 亚洲综合色区一区二区三区| 亚洲а∨天堂久久精品2021| 久久99精品久久久66| 一区二区三区在线观看视频精品| 亚洲人成精品久久久久| av大片在线无码免费| 高清av一区二区三区在线| 丝袜美腿国产一区精品| 看av免费毛片手机播放| 亚洲欧洲久久久精品| 国产伦奸在线播放免费| 中文字字幕人妻中文| 五十路熟妇亲子交尾| 亚洲国产精品夜男人天堂| 99久久精品在线视频| 人人爽人人爱| 亚洲成Av人片不卡无码观看| 亚洲一品道一区二区三区| 女人被弄到高潮的免费视频 | 爆爽久久久一区二区又大又黄又嫩| 99在线视频精品费观看视| 精品视频手机在线免费观看 | 中文字幕日本最新乱码视频 | 人妻丰满精品一区二区|