亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于注意力機(jī)制的YOLOv5算法在跑道異物檢測(cè)中的應(yīng)用

        2023-04-13 11:39:52王元濟(jì)李彥冬
        現(xiàn)代計(jì)算機(jī) 2023年3期
        關(guān)鍵詞:機(jī)制特征檢測(cè)

        程 擎,王元濟(jì),李彥冬

        (中國(guó)民用航空飛行學(xué)院空中交通管理學(xué)院,廣漢 618300)

        0 引言

        機(jī)場(chǎng)跑道異物(foreign object debris,FOD)是指飛行區(qū)內(nèi)可能會(huì)損傷航空器、設(shè)備或威脅機(jī)場(chǎng)工作人員和乘客生命安全的外來(lái)物體[1]。常見(jiàn)的機(jī)場(chǎng)跑道異物包括螺絲、輪胎碎片、維修工具等,大部分的跑道異物體積微小,直徑一般不超過(guò)5 cm,卻具有強(qiáng)大的破壞力,嚴(yán)重影響著民航客機(jī)的飛行安全。全球民航業(yè)每年因機(jī)場(chǎng)跑道異物而產(chǎn)生的直接損失高達(dá)11 億美元[2]。目前,我國(guó)大部分現(xiàn)有機(jī)場(chǎng)的跑道異物檢測(cè)工作是靠人工完成的,由專人步行或乘車進(jìn)行撒網(wǎng)式巡檢的方法,該模式占用跑道時(shí)間較長(zhǎng),效率低下,易出現(xiàn)漏檢;新建的樞紐型機(jī)場(chǎng)配備了雷達(dá)和光電復(fù)合式自動(dòng)檢測(cè)系統(tǒng),無(wú)需占用跑道,實(shí)時(shí)檢測(cè)效率高,但設(shè)備成本高昂,難以普及。因此,基于圖像的跑道異物檢測(cè)方法的研究成為民航領(lǐng)域的一個(gè)熱點(diǎn)。

        傳統(tǒng)的目標(biāo)檢測(cè)算法由于滑動(dòng)窗口法時(shí)間冗余度高,手工設(shè)計(jì)的特征魯棒性差,其檢測(cè)速度和精度都受到了很大程度的限制。2013 年以來(lái),人工智能得到了跨越式發(fā)展,國(guó)內(nèi)外有眾多學(xué)者針對(duì)機(jī)場(chǎng)跑道異物檢測(cè)任務(wù),展開(kāi)了對(duì)深度學(xué)習(xí)檢測(cè)算法的研究和創(chuàng)新。Xu 等[3]創(chuàng)建了一個(gè)FOD 圖像數(shù)據(jù)集,并提出了一種基于遷移學(xué)習(xí)和主流深度卷積神經(jīng)網(wǎng)絡(luò)(D-CNN)模型的新型FOD 識(shí)別方法。郭曉靜等[4]針對(duì)機(jī)場(chǎng)跑道異物的小目標(biāo)特點(diǎn),提出了一種以YOLOv3網(wǎng)絡(luò)為基礎(chǔ),采用運(yùn)算復(fù)雜度相對(duì)更低的Darknet-49 作為特征提取網(wǎng)絡(luò)的FOD 目標(biāo)檢測(cè)算法,該算法有效解決了原YOLOv3存在的定位精度偏低和漏檢問(wèn)題。蘭庭信等[5]設(shè)計(jì)了一種基于無(wú)人機(jī)的FOD 檢測(cè)與定位系統(tǒng),采用多架無(wú)人機(jī)迂回飛行,采集機(jī)場(chǎng)跑道圖像,使用Faster R-CNN 算法實(shí)現(xiàn)對(duì)FOD 的檢測(cè)與定位。馮明寬[6]設(shè)計(jì)并實(shí)現(xiàn)了基于高分辨率網(wǎng)絡(luò)、基于IoU閾值級(jí)聯(lián)、基于全局上下文信息的三種FOD 檢測(cè)算法,在FOD3數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,這三種算法均顯著提升了對(duì)FOD 中小目標(biāo)的檢測(cè)準(zhǔn)確率。

        上述研究表明,機(jī)場(chǎng)跑道異物檢測(cè)在實(shí)際生產(chǎn)環(huán)境中需要兼顧速度與精度,因此本文選擇了2020 年發(fā)布的高精度、高速度YOLOv5 網(wǎng)絡(luò)作為研究對(duì)象,在保持模型輕量化和高效率的同時(shí),針對(duì)機(jī)場(chǎng)跑道異物的漏檢率高和小目標(biāo)占比高的特點(diǎn),對(duì)YOLOv5 網(wǎng)絡(luò)進(jìn)行有效改進(jìn),從而實(shí)現(xiàn)更高精度的跑道異物檢測(cè)。

        1 YOLOv5算法介紹

        YOLOv5 目標(biāo)檢測(cè)算法于2020 年首次發(fā)布,是 由Ultralytics LLC 團(tuán) 隊(duì) 基 于YOLOv3[7]和YOLOv4[8]進(jìn)行改進(jìn)的目標(biāo)檢測(cè)網(wǎng)絡(luò)。YOLOv5 提供了4 個(gè)版本(s/m/l/x),其中YOLOv5s 的模型深度和寬度均為最小,另外三種可認(rèn)為在前者的基礎(chǔ)上進(jìn)行了加深和加寬,提高了檢測(cè)精度的同時(shí)也增加了運(yùn)算時(shí)間??紤]到跑道異物檢測(cè)的實(shí)時(shí)性需求,本文選擇檢測(cè)速度最快的YOLOv5s 檢測(cè)網(wǎng)絡(luò)作為基礎(chǔ)算法進(jìn)行改進(jìn)。如圖1所示,YOLOv5 的網(wǎng)絡(luò)模型可分為4 個(gè)部分,包括輸入端、主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)和輸出端。

        圖1 YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)圖

        YOLOv5 網(wǎng)絡(luò)在輸入端采用了Mosiac 增強(qiáng)、自適應(yīng)錨框和自適應(yīng)圖片縮放等策略。輸入端相較于YOLOv4的一個(gè)創(chuàng)新,是采用了自適應(yīng)錨框計(jì)算,即根據(jù)不同數(shù)據(jù)集的標(biāo)簽,采用K-means聚類和遺傳算法自動(dòng)學(xué)習(xí),調(diào)整YOLOv5預(yù)設(shè)的錨框尺寸。

        YOLOv5 采用CSPDarknet53 作為主干網(wǎng)絡(luò)進(jìn)行特征提取,在主干網(wǎng)絡(luò)使用Focus 模塊、CBL 模塊、CSP 模塊和SPP 模塊。其中,F(xiàn)ocus模塊結(jié)構(gòu)是首次出現(xiàn)在YOLO 系列網(wǎng)絡(luò)中,其主要思想是通過(guò)切片操作對(duì)輸入圖片直接進(jìn)行裁剪處理,在減少信息丟失的同時(shí),提升了運(yùn)算速度。

        頸部網(wǎng)絡(luò)使用SPP+PANet 的結(jié)構(gòu),該結(jié)構(gòu)可以提高網(wǎng)絡(luò)的多尺度預(yù)測(cè)能力。路徑聚合網(wǎng)絡(luò)(PANet)結(jié)構(gòu)[9]由特征金字塔網(wǎng)絡(luò)(FPN)和金字塔特征層級(jí)(PAN)結(jié)構(gòu)共同組成,兩種結(jié)構(gòu)從不同的主干層對(duì)不同的檢測(cè)層進(jìn)行參數(shù)聚合,完成了對(duì)高層級(jí)特征圖中豐富的語(yǔ)義信息和低層級(jí)特征圖中豐富的位置信息的有效融合。

        YOLOv5在輸出端采用三種損失函數(shù)分別計(jì)算分類、定位和置信度損失,并通過(guò)非極大值抑制方法解決多目標(biāo)和遮擋嚴(yán)重導(dǎo)致檢測(cè)不準(zhǔn)確的問(wèn)題,提高網(wǎng)絡(luò)預(yù)測(cè)的準(zhǔn)確度。YOLOv5采用CIoU Loss作為損失函數(shù)和邊界框預(yù)測(cè)函數(shù)。

        2 算法改進(jìn)

        本文考慮到機(jī)場(chǎng)跑道異物數(shù)據(jù)集的小目標(biāo)占比高和背景干擾強(qiáng)兩種特性,在主干網(wǎng)絡(luò)引入了有效通道注意力機(jī)制模塊(ECA-Net)[10],并在頸部網(wǎng)絡(luò)使用Bi-FPN 替換PAN-Net,最后在邊界框預(yù)測(cè)部分使用EIoU Loss 更換CIoU Loss。

        2.1 有效通道注意力機(jī)制模塊(ECA-Net)

        計(jì)算機(jī)視覺(jué)中的注意力機(jī)制就是借鑒了人類的視覺(jué)注意機(jī)制,從圖像背景的大量信息中篩選出與目標(biāo)最相關(guān)的區(qū)域,利用加權(quán)的方法強(qiáng)化重要特征并抑制非必要特征,從而高效捕獲目標(biāo)。常見(jiàn)的注意力機(jī)制有通道注意力機(jī)制(SENet)、坐標(biāo)注意力(CA)、卷積注意力(CBAM)和瓶頸注意力(BAM)等,其中SENet 注重使用通道注意力,CA 將位置信息嵌入到了通道注意力中,CBAM 則同時(shí)運(yùn)用了通道注意力機(jī)制和空間注意力機(jī)制。

        本文的主干有效通道注意力機(jī)制模塊(ECANet),該模塊是由Wang等[10]于2019年提出的一個(gè)簡(jiǎn)單而高效的注意力模塊。ECA-Net可以簡(jiǎn)單視為通道注意力機(jī)制(SENet)的改進(jìn),SENet 的結(jié)構(gòu)如圖2 所示。通過(guò)避免SE 模塊多次降維的負(fù)面影響,以及改進(jìn)低效的局部跨通道交互,設(shè)計(jì)了基于快速的一維卷積產(chǎn)生通道注意的ECA-Net,該模塊能夠通過(guò)增加少量的參數(shù),而帶來(lái)明顯的性能增益,其結(jié)構(gòu)如圖3所示。

        圖2 通道注意力機(jī)制的結(jié)構(gòu)示意圖

        圖3 有效通道注意力機(jī)制模塊結(jié)構(gòu)示意圖

        該注意力機(jī)制模塊具備添加在YOLOv5網(wǎng)絡(luò)任何位置的特性,本文選擇將ECA-Net 模塊與C3模塊相結(jié)合,以提升其性能表現(xiàn)。

        2.2 多尺度特征融合

        本文在頸部網(wǎng)絡(luò)使用加權(quán)雙向特征金字塔網(wǎng)絡(luò)結(jié)構(gòu)(Bi-FPN)替換PANet,以獲取更高效的多尺度融合。Bi-FPN 是谷歌公司團(tuán)隊(duì)在EfficientDet[11]中提出的一種加權(quán)的雙向特征金字塔網(wǎng)絡(luò),它允許簡(jiǎn)單和快速的多尺度特征融合,其內(nèi)部結(jié)構(gòu)如圖4所示。傳統(tǒng)的特征金字塔只能進(jìn)行單向的特征融合,PANe 則在此基礎(chǔ)上添加了一個(gè)自底向上的路徑,Bi-FPN 則更進(jìn)一步地處理每個(gè)雙向路徑(自頂向下和自底而上)作為一個(gè)特征網(wǎng)絡(luò)層,并重復(fù)同一層多次,以實(shí)現(xiàn)更高層次的特征融合。

        圖4 Bi-FPN結(jié)構(gòu)示意圖

        為了提高特征融合的效率,Bi-FPN 針對(duì)跨尺度連接,優(yōu)化掉了信息貢獻(xiàn)量少的只有一條輸入邊的節(jié)點(diǎn),從而降低了網(wǎng)絡(luò)的復(fù)雜程度。相比于傳統(tǒng)的特征金字塔平等地對(duì)待不同尺度特征的融合方式,Bi-FPN 專門引入了權(quán)重,在特征融合過(guò)程中為每個(gè)輸入添加一個(gè)額外的權(quán)重,讓網(wǎng)絡(luò)來(lái)學(xué)習(xí)每個(gè)輸入特征的重要性,更好地平衡不同尺度的特征信息。

        2.3 損失函數(shù)

        損失函數(shù)能夠反映模型和實(shí)際數(shù)據(jù)間存在的差異,YOLOv5 默認(rèn)使用CIoU 函數(shù)進(jìn)行邊框界預(yù)測(cè)計(jì)算,該函數(shù)的特點(diǎn)是不僅關(guān)注真實(shí)框與預(yù)測(cè)框的重疊區(qū)域、非重疊區(qū)域,還綜合考慮了兩框之間的重疊率、中心點(diǎn)距離、長(zhǎng)寬比等關(guān)鍵因素。其計(jì)算公式如式(1)和式(2)所示。

        本文使用EIoU[12]替代CIoU 作為目標(biāo)框回歸的損失函數(shù),CIoU 僅將長(zhǎng)寬比作為影響因子,沒(méi)有考慮到真實(shí)框與預(yù)測(cè)框的長(zhǎng)寬比相同、值不同的情形,導(dǎo)致與回歸目標(biāo)不相符。EIoU 在此基礎(chǔ)上綜合考慮了長(zhǎng)度損失和寬度損失,并且添加了Focal loss 解決樣本的類別不平衡和難度差異問(wèn)題,使得目標(biāo)框回歸過(guò)程中更加穩(wěn)定,收斂的精度更高,其計(jì)算公式見(jiàn)式(3)和式(4)。

        式中:b和bgt分別表示檢測(cè)框和目標(biāo)框的中心點(diǎn);w和h分別表示兩個(gè)框的寬度和高度;ρ表示兩個(gè)中心點(diǎn)間的歐式距離;c為覆蓋檢測(cè)框和目標(biāo)框之間最小矩形的斜距;α是一個(gè)平衡參數(shù),不參與梯度計(jì)算;v是用來(lái)衡量長(zhǎng)寬比一致性的參數(shù);γ是用來(lái)表示異常值抑制程度的參數(shù)。

        3 實(shí)驗(yàn)

        3.1 實(shí)驗(yàn)環(huán)境介紹

        本文進(jìn)行實(shí)驗(yàn)的軟件環(huán)境采用Windows 10操作系統(tǒng),使用Python編程語(yǔ)言,CUDA版本為11.1,Pytorch版本為1.8.0。訓(xùn)練循環(huán)100次,圖片輸入尺寸為300像素。

        3.2 數(shù)據(jù)集介紹

        目前網(wǎng)絡(luò)上公開(kāi)發(fā)布的機(jī)場(chǎng)跑道異物數(shù)據(jù)集較少,本文使用的數(shù)據(jù)集是FOD-A(FOD in airports)數(shù)據(jù)集[13],包含31 個(gè)種類,圖片總量超過(guò)3萬(wàn)張。盡管該數(shù)據(jù)集的總量巨大,但其圖像內(nèi)部之間存在相似度較高的問(wèn)題,易導(dǎo)致出現(xiàn)泛化能力差的現(xiàn)象。因此本文選擇其中具有代表性、差異性的占比約10%的圖像,并且加入了500 張自制圖像,建成了一個(gè)包含3479 張跑道圖像的數(shù)據(jù)集。在原數(shù)據(jù)集基礎(chǔ)上,擴(kuò)充了訓(xùn)練樣本的豐富程度,為YOLOv5網(wǎng)絡(luò)模型提供了更多的特征信息,降低了過(guò)擬合現(xiàn)象的可能性。

        3.3 評(píng)價(jià)指標(biāo)

        本文使用均值平均精度(mean average precision, mAP)作為模型檢測(cè)準(zhǔn)確性能的評(píng)價(jià)指標(biāo),平均精度綜合考慮了目標(biāo)檢測(cè)的精確率(precision, P),召回率(recall, R)以及平均精度(average precision,AP)。

        3.4 實(shí)驗(yàn)結(jié)果

        圖5分別展示了改進(jìn)前后檢測(cè)算法的效果實(shí)例,表1 展示了原YOLOv5s 網(wǎng)絡(luò)以及本文改進(jìn)后的YOLOv5s 網(wǎng)絡(luò)在FOD-A 數(shù)據(jù)集上的檢測(cè)結(jié)果。本文改進(jìn)的YOLOv5s 網(wǎng)絡(luò),其均值平均檢測(cè)精度mAP@0.5 相比于原YOLOv5s 網(wǎng)絡(luò)提升了1.6個(gè)百分點(diǎn)。

        圖5 檢測(cè)結(jié)果

        表1 模型評(píng)價(jià)指標(biāo)對(duì)比結(jié)果 單位:%

        4 結(jié)語(yǔ)

        本文針對(duì)跑道異物檢測(cè)任務(wù),提出了一種改進(jìn)的YOLOv5目標(biāo)檢測(cè)算法。在主干網(wǎng)絡(luò)添加有效通道注意力機(jī)制模塊(ECA-Net),提高了算法提取全局特征的能力;在頸部網(wǎng)絡(luò),使用Bi-FPN 模塊替換原有的PA-Net,以獲取更高效的多尺度融合;最后采用EIoU Loss 作為損失函數(shù),加快了函數(shù)的收斂速度,提升了回歸精確度。改進(jìn)后的檢測(cè)算法能夠有效避免漏檢和誤檢,提高了對(duì)跑道異物小目標(biāo)的檢測(cè)能力,改進(jìn)后算法的均值平均精度mAP@0.5 相比于YOLOv5 網(wǎng)絡(luò)提升了1.6 個(gè)百分點(diǎn),滿足在機(jī)場(chǎng)復(fù)雜環(huán)境下對(duì)跑道異物檢測(cè)的準(zhǔn)確性需求。

        猜你喜歡
        機(jī)制特征檢測(cè)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        自制力是一種很好的篩選機(jī)制
        文苑(2018年21期)2018-11-09 01:23:06
        抓住特征巧觀察
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        破除舊機(jī)制要分步推進(jìn)
        注重機(jī)制的相互配合
        久久亚洲av成人无码电影| 无码啪啪人妻| 蜜桃激情视频一区二区| 高级会所技师自拍视频在线| 性xxxx18免费观看视频| 亚洲成人中文| 国产美女久久久亚洲综合| 亚洲国产中文字幕精品| 亚洲中文字幕无码av| 乱子真实露脸刺激对白 | 日本久久久免费观看视频| 18黑白丝水手服自慰喷水网站| 双腿张开被9个黑人调教影片| 久久青青草视频免费观看| 亚洲视频专区一区二区三区| 最新日本一道免费一区二区| 亚洲 欧美 综合 另类 中字| 国产av91在线播放| 国产女同va一区二区三区| 午夜福利啪啪片| 国产精品自产拍在线18禁| 精品奇米国产一区二区三区| 日本少妇高潮喷水视频| 黑人玩弄人妻中文在线| 精品无码一区二区三区小说| 久久精品国产亚洲av麻豆床戏| 99久久人妻无码精品系列| 久久6国产| 日本一区二区精品色超碰| 日本三级香港三级人妇99| 日本高清www无色夜在线视频| 啊v在线视频| 婚外情长久的相处之道| 亚洲无亚洲人成网站77777| 日韩AV有码无码一区二区三区| 国产大片在线观看91| 亚洲成av人片乱码色午夜| 久久这里只精品国产免费10| 亚洲在线一区二区三区四区| 国产91精品高潮白浆喷水| 亚洲精品午睡沙发系列|