亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        選擇性坐標(biāo)注意力下紅外圖像無(wú)人機(jī)目標(biāo)檢測(cè)方法

        2025-04-05 00:00:00吳茜魏晶鑫陳中舉
        現(xiàn)代電子技術(shù) 2025年7期
        關(guān)鍵詞:特征融合目標(biāo)檢測(cè)

        摘" 要: 為解決無(wú)人機(jī)帶來(lái)的安全隱患與隱私侵犯等問(wèn)題,提出選擇性坐標(biāo)注意力下紅外圖像無(wú)人機(jī)目標(biāo)檢測(cè)方法。基于選擇性坐標(biāo)注意力機(jī)制,通過(guò)非對(duì)稱卷積核在不同方向上捕捉不同尺度和形狀的特征,將無(wú)人機(jī)特征的行列位置信息進(jìn)行編碼,動(dòng)態(tài)地調(diào)整不同位置特征的權(quán)重,強(qiáng)化關(guān)鍵區(qū)域的特征表示。將多個(gè)紅外圖像輸入YOLOv5網(wǎng)絡(luò)中進(jìn)行訓(xùn)練和處理后,在主干網(wǎng)絡(luò)中經(jīng)卷積操作后嵌入選擇性坐標(biāo)注意力機(jī)制,實(shí)現(xiàn)紅外圖像無(wú)人機(jī)目標(biāo)特征精確提取。采用GIoU作為損失函數(shù),優(yōu)化預(yù)測(cè)框的位置和大小,實(shí)現(xiàn)紅外圖像無(wú)人機(jī)目標(biāo)精準(zhǔn)檢測(cè)。實(shí)驗(yàn)結(jié)果表明:該方法對(duì)大小不同的無(wú)人機(jī)目標(biāo)均能實(shí)現(xiàn)準(zhǔn)確且快速的定位與檢測(cè),能夠保持較高的檢測(cè)精度。

        關(guān)鍵詞: 坐標(biāo)注意力機(jī)制; 特征融合; YOLOv5網(wǎng)絡(luò); 紅外圖像; 無(wú)人機(jī)目標(biāo); 目標(biāo)檢測(cè)

        中圖分類號(hào): TN911.73?34; TP391" " " " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " 文章編號(hào): 1004?373X(2025)07?0043?05

        UAV object detection method for infrared images based on selective coordinate attention

        WU Xi, WEI Jingxin, CHEN Zhongju

        (School of Computer Science, Yangtze University, Jingzhou 434023, China)

        Abstract: This paper proposes an unmanned aerial vehicle (UAV) object detection method for infrared images based on selective coordinate attention in order to avoid the security risks and privacy violations caused by UAVs. On the basis of the selective coordinate attention mechanism, the asymmetric convolutional kernels are used to capture features of different scales and shapes in different directions. The row and column position information of UAV features is encoded, the weights of different position features are adjusted dynamically, and the feature representations of key regions are strengthened. After inputting multiple infrared images into the YOLOv5 network for training and processing, a selective coordinate attention mechanism is embedded in the backbone network after convolution operation, so as to achieve accurate feature extraction of UAV objects in infrared images. The GIoU is taken as the loss function to optimize the position and size of the prediction box, so as to achieve accurate detection of UAV objects in infrared images. The experimental results show that the method can locate and detect UAV objects of different sizes accurately and quickly, and can maintain high detection accuracy.

        Keywords: coordinate attention mechanism; feature fusion; YOLOv5 network; infrared image; UAV object; object detection

        0" 引" 言

        無(wú)人機(jī)的廣泛使用帶來(lái)了一系列安全和隱私問(wèn)題[1],其數(shù)量及飛行活動(dòng)顯著增多,這使得無(wú)人機(jī)與其他航空器、建筑物及人員的碰撞風(fēng)險(xiǎn)急劇攀升。同時(shí),無(wú)人機(jī)配備的高清攝像頭和傳感器能夠輕易捕獲個(gè)人或敏感信息,若被濫用,將嚴(yán)重侵犯他人隱私。因此,紅外圖像無(wú)人機(jī)目標(biāo)檢測(cè)成為了一個(gè)備受關(guān)注的研究課題[2?3]。

        文獻(xiàn)[4]將圖像輸入到Y(jié)OLOv3?MobileNetv2模型中,并在卷積層中加入注意力機(jī)制,實(shí)現(xiàn)紅外圖像無(wú)人機(jī)目標(biāo)檢測(cè),但是若初始參數(shù)設(shè)置不當(dāng)或訓(xùn)練數(shù)據(jù)不足,會(huì)導(dǎo)致網(wǎng)絡(luò)性能不佳或出現(xiàn)過(guò)擬合等問(wèn)題。文獻(xiàn)[5]結(jié)合圖像翻譯和共享標(biāo)簽,利用YOLOv5s網(wǎng)絡(luò)結(jié)合梯度反轉(zhuǎn)層優(yōu)化特征適應(yīng)性,采用最大均值差異損失縮小不同圖像特征分布差異,并使用AdamW優(yōu)化器進(jìn)一步提升紅外圖像無(wú)人機(jī)目標(biāo)的檢測(cè)精度,但是該方法在圖像翻譯和目標(biāo)檢測(cè)的過(guò)程中,每一步都有引入誤差的可能性。文獻(xiàn)[6]融合高層語(yǔ)義信息與低層特征,利用上下文信息增強(qiáng)模塊(CIE)精準(zhǔn)定位目標(biāo),適應(yīng)不同尺度目標(biāo),實(shí)現(xiàn)紅外圖像無(wú)人機(jī)的檢測(cè),但是該方法過(guò)于復(fù)雜,導(dǎo)致訓(xùn)練和推理速度降低。文獻(xiàn)[7]將通道與不同方向上的注意力模塊進(jìn)行連接,對(duì)獲取通道與不同方向上的特征信息進(jìn)行融合,增強(qiáng)紅外目標(biāo)的特征,通過(guò)SIoU損失函數(shù)進(jìn)行訓(xùn)練,提高網(wǎng)絡(luò)的收斂速度和紅外圖像目標(biāo)的檢測(cè)精度,但是該方法的YOLOv7引入了更多的超參數(shù)和復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),使得模型的優(yōu)化和調(diào)整變得更加困難。

        基于以上紅外圖像無(wú)人機(jī)目標(biāo)檢測(cè)方法存在的不足,本文提出了選擇性坐標(biāo)注意力下紅外圖像無(wú)人機(jī)目標(biāo)檢測(cè)方法。

        1" 紅外圖像無(wú)人機(jī)目標(biāo)檢測(cè)方法

        1.1" 選擇性坐標(biāo)注意力機(jī)制

        針對(duì)紅外圖像無(wú)人機(jī)目標(biāo)提取特征有限的問(wèn)題,選擇性坐標(biāo)注意力機(jī)制可以通過(guò)非對(duì)稱卷積核在不同的空間方向上捕捉不同尺度和形狀的特征[8?9],全面地描述無(wú)人機(jī)目標(biāo)的復(fù)雜形態(tài),提取紅外圖像無(wú)人機(jī)目標(biāo)的特征;再將無(wú)人機(jī)特征的行列位置信息進(jìn)行編碼,使得網(wǎng)絡(luò)能夠充分利用位置信息,對(duì)不同位置的特征進(jìn)行有針對(duì)性的處理,并且可以根據(jù)位置信息動(dòng)態(tài)地調(diào)整特征的權(quán)重,強(qiáng)化關(guān)鍵區(qū)域的特征表示,同時(shí)抑制無(wú)關(guān)區(qū)域的干擾。選擇性坐標(biāo)注意力機(jī)制的結(jié)構(gòu)如圖1所示。

        為拓寬無(wú)人機(jī)捕獲視野,抓取不同方向上紅外圖像無(wú)人機(jī)目標(biāo)的特征信息,假設(shè)輸入圖像為[Y∈RW×H×C],其中,[W]表示寬度,[H]表示高度,[C]表示通道數(shù),通過(guò)非對(duì)稱的卷積核在[W]和[H]上分別使用一定大小的橫向卷積核和縱向卷積核,得到這兩個(gè)方向上的特征分別為[O']:[Y→U′1,U′2,…,U′k∈RW×H×C]和[O]:[Y→U″1,U″2,…,U″k∈RW×H×C]。同時(shí),為了適應(yīng)不同尺度和形狀的無(wú)人機(jī)目標(biāo),通過(guò)引入超參數(shù)[k],使網(wǎng)絡(luò)可以靈活地調(diào)整兩個(gè)方向上特征提取分支的數(shù)量,并且調(diào)整各分支的感受野。融合兩個(gè)方向的特征后,通過(guò)ReLU激活函數(shù)進(jìn)一步形成更加全面的無(wú)人機(jī)目標(biāo)特征表示,進(jìn)一步增強(qiáng)了特征的判別能力。得到紅外圖像無(wú)人機(jī)目標(biāo)兩個(gè)方向上的特征為:

        [U'=ReLUsum(U′1,U′2,…,U′k)] (1)

        [U=ReLUsum(U″1,U″2,…,U″k)] (2)

        進(jìn)一步將兩個(gè)方向上的特征融合,獲取紅外圖像無(wú)人機(jī)目標(biāo)的總體特征:

        [U=sum(U'+U)] (3)

        通過(guò)非對(duì)稱卷積核、特征提取分支的多樣性和特征融合,有效地提高了網(wǎng)絡(luò)對(duì)紅外圖像中無(wú)人機(jī)目標(biāo)的特征表示能力,為后續(xù)的目標(biāo)檢測(cè)任務(wù)奠定了堅(jiān)實(shí)的基礎(chǔ)[10]。

        在紅外圖像無(wú)人機(jī)目標(biāo)檢測(cè)任務(wù)中,無(wú)人機(jī)往往會(huì)因?yàn)椴幻魑矬w的遮擋,無(wú)法獲取全部有效的特征。因此,將引入坐標(biāo)注意力機(jī)制(CA模塊),結(jié)合編碼的方式強(qiáng)化無(wú)人機(jī)目標(biāo)特征圖中重要的元素,并抑制對(duì)檢測(cè)任務(wù)貢獻(xiàn)較小的元素以保證對(duì)無(wú)人機(jī)目標(biāo)的獲取更加全面。CA模塊的具體操作可以分為如下兩個(gè)步驟。

        1) 在坐標(biāo)信息嵌入的步驟中,對(duì)于特征圖[U],使用大小為[(1,W)]和[(H,1)]的池化核對(duì)兩個(gè)方向進(jìn)行全局平均池化,輸出尺寸為[(C,1,W)]和[(C,H,1)]的特征向量。精確地識(shí)別出哪些位置的特征對(duì)于無(wú)人機(jī)目標(biāo)的檢測(cè)更為重要,使網(wǎng)絡(luò)在面對(duì)不明物體遮擋時(shí),仍能準(zhǔn)確地定位到無(wú)人機(jī)目標(biāo)的關(guān)鍵特征。

        2) 針對(duì)復(fù)雜背景情況,將[(C,1,W)]和[(C,H,1)]進(jìn)行維度轉(zhuǎn)換后,沿著通道方向連接,獲取大小為[C×1×(W+H)]的向量,將其通過(guò)[1×1]的卷積操作,獲取大小為[C r×1×(W+H)]的特征向量,其中[r]為一個(gè)縮減比例,用于降低網(wǎng)絡(luò)的復(fù)雜性。將其沿著特征圖兩個(gè)方向分解成大小為[C r×1×W]和[C r×1×H]的兩個(gè)特征向量,分別使用[1×1]卷積進(jìn)行變換,使其通道數(shù)量一致。通過(guò)歸一化操作后,獲取兩個(gè)注意力權(quán)重特征向量[C×1×W]和[C×1×H],將其與[U]逐個(gè)元素地相乘,從而根據(jù)位置信息調(diào)整特征圖[U]的權(quán)重,突出關(guān)鍵區(qū)域并抑制不重要的信息,有助于網(wǎng)絡(luò)在復(fù)雜的背景環(huán)境中更加聚焦于無(wú)人機(jī)目標(biāo)的有效特征。

        通過(guò)選擇性特征融合,使網(wǎng)絡(luò)更準(zhǔn)確地在紅外圖像中定位無(wú)人機(jī)目標(biāo)的區(qū)域位置,并加強(qiáng)對(duì)無(wú)人機(jī)目標(biāo)的特征提取,提升目標(biāo)檢測(cè)模型的性能。將[C]通道中兩個(gè)方向的特征向量進(jìn)行壓縮后得到特征編碼[ZW]和[ZH],通過(guò)中間映射層[D]和[E]進(jìn)行轉(zhuǎn)換,其中,[D]和[E]是[1×1]卷積層,學(xué)習(xí)如何將原始特征轉(zhuǎn)換為注意力權(quán)重,經(jīng)softmax算子對(duì)[ZW]和[ZH]進(jìn)行歸一化,得到在[C]上兩個(gè)方向的注意力分布為:

        [gHC=eDCZHeDCZH+eECZW] (4)

        [gWC=eECZWeDCZH+eECZW] (5)

        式中:[e]表示自然指數(shù);[gWC]與[gHC]的和為1,確保每個(gè)位置的注意力權(quán)重都是歸一化的。

        通過(guò)[gWC]與[gHC]對(duì)原始特征進(jìn)行加權(quán)融合,使每個(gè)位置的特征值都根據(jù)對(duì)應(yīng)位置的注意力權(quán)重進(jìn)行調(diào)整,在[C]通道第[(i, j)]個(gè)特征可表示為:

        [UC(i, j)=U'(i, j)×gWC(i)+U(i, j)×gHC(j)] (6)

        通過(guò)選擇性特征融合,網(wǎng)絡(luò)可以更加關(guān)注重要的區(qū)域,忽略不相關(guān)的區(qū)域,進(jìn)一步提升了紅外圖像無(wú)人機(jī)目標(biāo)特征提取的能力。

        1.2" 基于改進(jìn)YOLOv5網(wǎng)絡(luò)的無(wú)人機(jī)目標(biāo)檢測(cè)

        基于選擇性特征融合的思想,YOLOv5網(wǎng)絡(luò)能夠更有效地提取和利用圖像中的特征信息,從而提高無(wú)人機(jī)目標(biāo)檢測(cè)的準(zhǔn)確性和效率。YOLOv5網(wǎng)絡(luò)作為一種先進(jìn)的目標(biāo)檢測(cè)算法,具有出色的性能和速度[11?12]。由于紅外圖像存在對(duì)比度低、噪聲多等問(wèn)題,傳統(tǒng)的YOLOv5網(wǎng)絡(luò)難以充分提取和利用紅外圖像中的有用特征。因此,基于YOLOv5網(wǎng)絡(luò)[13],通過(guò)在卷積層后嵌入選擇性坐標(biāo)注意力機(jī)制,提升對(duì)紅外圖像無(wú)人機(jī)目標(biāo)特征的提取能力。YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)主要包括以下三部分。

        1) 輸入端:結(jié)合多個(gè)紅外圖像創(chuàng)建一個(gè)訓(xùn)練樣本,YOLOv5通過(guò)自動(dòng)計(jì)算錨框[14],以適應(yīng)訓(xùn)練樣本中無(wú)人機(jī)目標(biāo)大小和形狀,預(yù)測(cè)邊界框。同時(shí),為了適應(yīng)網(wǎng)絡(luò)的輸入尺寸,需要對(duì)輸入紅外圖像進(jìn)行縮放,實(shí)現(xiàn)紅外圖像的初步處理。

        2) 主干網(wǎng)絡(luò):通過(guò)下采樣操作,在紅外圖像特征圖上捕獲更多的信息,同時(shí)減少空間尺寸。再經(jīng)卷積層進(jìn)行卷積操作,提取不同級(jí)別的特征。經(jīng)卷積操作后,通過(guò)嵌入1.1節(jié)的坐標(biāo)注意力機(jī)制進(jìn)一步實(shí)現(xiàn)紅外圖像無(wú)人機(jī)目標(biāo)的特征提取。

        3) 預(yù)測(cè)端:由于紅外圖像中會(huì)同時(shí)存在大、中、小不同尺寸的無(wú)人機(jī)目標(biāo),因此使用多尺度特征圖能夠提供更豐富的上下文信息和更準(zhǔn)確的定位能力。

        將全部預(yù)測(cè)框按照不同的類別標(biāo)簽進(jìn)行分組,然后在每個(gè)類別內(nèi)部按照可靠性得分進(jìn)行排序,將可靠性最高的作為基準(zhǔn)預(yù)測(cè)框,求出它與其他預(yù)測(cè)框的交并比(IoU),公式表達(dá)如下:

        [IoU=P?QP?Q=AB] (7)

        式中:[P]表示紅外圖像無(wú)人機(jī)目標(biāo)的基準(zhǔn)預(yù)測(cè)框;[Q]表示紅外圖像無(wú)人機(jī)目標(biāo)預(yù)測(cè)框;[A]表示[P]和[Q]的交集;[B]表示[P]和[Q]的并集。

        設(shè)置一個(gè)閾值[γ],若某個(gè)預(yù)測(cè)框與基準(zhǔn)預(yù)測(cè)框的IoU值大于[γ],則認(rèn)為它們重疊,并且保留可靠性最高的預(yù)測(cè)框,抑制可靠性較低的預(yù)測(cè)框。不斷操作該步驟,直至處理完全部預(yù)測(cè)框。

        為了更好地評(píng)估紅外圖像無(wú)人機(jī)目標(biāo)檢測(cè)中預(yù)測(cè)框與真實(shí)框之間的重疊程度[15],在基于YOLOv5網(wǎng)絡(luò)的目標(biāo)檢測(cè)方法中,GIoU(廣義交并比)被用作損失函數(shù)的一部分,能夠優(yōu)化預(yù)測(cè)框的位置和大小。GIoU的計(jì)算公式如式(8)所示:

        [GIoU=IoU-F-(P?Q)F] (8)

        式中[F]表示包含[Q]和[P]的最小矩形框。

        GIoU的損失函數(shù)可表示為:

        [GIoULoss=1-GIoU=1-IoU+F-(P?Q)F] (9)

        通過(guò)[GIoULoss]在訓(xùn)練過(guò)程中優(yōu)化預(yù)測(cè)框的位置和大小,當(dāng)預(yù)測(cè)框與基準(zhǔn)預(yù)測(cè)框的重疊程度越高時(shí),[GIoULoss]的值越小,反之,則越大。通過(guò)最小化[GIoULoss],YOLOv5網(wǎng)絡(luò)可以學(xué)習(xí)到如何更準(zhǔn)確地檢測(cè)紅外圖像無(wú)人機(jī)目標(biāo)的位置和大小,從而提升紅外圖像無(wú)人機(jī)捕獲目標(biāo)特征的能力。

        2" 實(shí)驗(yàn)分析

        為了驗(yàn)證本文方法的有效性,從互聯(lián)網(wǎng)上爬取了560張無(wú)人機(jī)蜂群圖像,并經(jīng)過(guò)紅外技術(shù)處理,自制了一個(gè)無(wú)人機(jī)數(shù)據(jù)集。該數(shù)據(jù)集共包含1 228個(gè)無(wú)人機(jī)目標(biāo),涵蓋了各種無(wú)人機(jī)類型、姿態(tài)和場(chǎng)景,為后續(xù)的目標(biāo)檢測(cè)研究提供了豐富的數(shù)據(jù)資源。

        通過(guò)Roboflow軟件對(duì)每張紅外圖像中的無(wú)人機(jī)目標(biāo)進(jìn)行標(biāo)注,賦予相應(yīng)的標(biāo)簽,使每個(gè)無(wú)人機(jī)目標(biāo)在圖像中都有一個(gè)明確的位置和類別信息。將392張包含無(wú)人機(jī)目標(biāo)的紅外圖像作為訓(xùn)練集,剩下的168張包含無(wú)人機(jī)目標(biāo)的紅外圖像作為測(cè)試集,用于測(cè)試網(wǎng)絡(luò)的性能。

        同時(shí),確保訓(xùn)練集和測(cè)試集中的無(wú)人機(jī)目標(biāo)數(shù)量、尺寸分布、遮擋程度等保持一致,避免引入偏差?;谝陨蠈?shí)驗(yàn)環(huán)境的設(shè)置,本文方法的紅外圖像無(wú)人機(jī)目標(biāo)檢測(cè)結(jié)果如圖2所示。

        由圖2中可以看出,在面對(duì)復(fù)雜的紅外圖像時(shí),本文方法能夠迅速且準(zhǔn)確地定位到無(wú)人機(jī)目標(biāo)的位置。對(duì)于紅外圖像中的大目標(biāo),由于其特征明顯且占據(jù)較多的像素空間,網(wǎng)絡(luò)能夠很容易地捕捉到其關(guān)鍵信息,從而進(jìn)行準(zhǔn)確定位;而對(duì)于小目標(biāo),盡管其像素?cái)?shù)量較少,特征可能相對(duì)模糊,但本文方法通過(guò)優(yōu)化算法和模型結(jié)構(gòu),依然能夠準(zhǔn)確地識(shí)別并定位這些小目標(biāo),實(shí)現(xiàn)紅外圖像無(wú)人機(jī)目標(biāo)的檢測(cè)。

        為了進(jìn)一步驗(yàn)證本文方法的有效性,在自制數(shù)據(jù)集中選取包含多種天氣條件和遮擋程度下的紅外圖像無(wú)人機(jī)目標(biāo)數(shù)據(jù),評(píng)估本文方法在不同天氣條件下,包括正常天氣和雨天,以及重度遮擋情況下,IoU閾值為0.6、0.4和0.2時(shí)的檢測(cè)精確度,檢測(cè)結(jié)果如表1所示。

        從表1中可以看出,在正常天氣條件下,本文方法的平均精確度較高;而在雨天和重度遮擋條件下,平均精確度均有所下降,特別是在重度遮擋情況下,對(duì)紅外圖像無(wú)人機(jī)目標(biāo)檢測(cè)的性能有一定的影響。但隨著IoU閾值的降低,本文方法在三種不同條件下的平均精確度都有所提高,在被重度遮擋情況下,本文方法的IoU閾值為0.2時(shí),其檢測(cè)精度在90%以上。

        為了驗(yàn)證不同方法對(duì)紅外圖像無(wú)人機(jī)目標(biāo)檢測(cè)的能力,在自制數(shù)據(jù)集中隨機(jī)抽選一張?jiān)陟F天拍攝,且存在被遮擋情況的無(wú)人機(jī)圖像,并分別通過(guò)顯著圖融合方法、無(wú)監(jiān)督域方法和本文方法進(jìn)行無(wú)人機(jī)目標(biāo)的檢測(cè),驗(yàn)證三種方法是否能夠在復(fù)雜環(huán)境下檢測(cè)出無(wú)人機(jī)目標(biāo),驗(yàn)證結(jié)果如圖3所示。

        從圖3a)中能夠看出,顯著圖融合方法雖然能夠檢測(cè)出紅外圖像中大多數(shù)的無(wú)人機(jī)目標(biāo),但由于圖像中某些與無(wú)人機(jī)特征相似的物體,使得該方法存在誤檢情況,此外,對(duì)于被樹(shù)木遮擋的無(wú)人機(jī)目標(biāo),該方法無(wú)法進(jìn)行有效檢測(cè);在圖3b)中,無(wú)監(jiān)督域方法相較于顯著圖融合方法在誤檢方面有了明顯的改進(jìn),沒(méi)有出現(xiàn)誤檢的情況,但該方法同樣無(wú)法檢測(cè)出被樹(shù)木遮擋的無(wú)人機(jī)目標(biāo);而在圖3c)中,本文方法不僅沒(méi)有出現(xiàn)誤檢的情況,并且能夠準(zhǔn)確地檢測(cè)出被樹(shù)木遮擋的無(wú)人機(jī)。證明了本文方法能夠準(zhǔn)確、快速地檢測(cè)出紅外圖像中全部的無(wú)人機(jī)目標(biāo),同時(shí)避免了誤檢和漏檢的情況,為實(shí)際應(yīng)用提供了更加可靠和有效的解決方案。

        3" 結(jié)" 論

        本文結(jié)合YOLOv5網(wǎng)絡(luò)和選擇性坐標(biāo)注意力機(jī)制的優(yōu)勢(shì),構(gòu)建出針對(duì)紅外圖像無(wú)人機(jī)目標(biāo)檢測(cè)的高效、準(zhǔn)確的方法,并在自制數(shù)據(jù)集上驗(yàn)證了不同IoU閾值以及不同天氣和遮擋條件下,本文方法均能保持較高的檢測(cè)精度。相信在未來(lái)通過(guò)不斷優(yōu)化和完善該方法,將能夠?yàn)榧t外圖像目標(biāo)檢測(cè)領(lǐng)域的發(fā)展作出更大的貢獻(xiàn)。

        注:本文通訊作者為陳中舉。

        參考文獻(xiàn)

        [1] 崔令飛,郭永紅,修全發(fā),等.基于國(guó)產(chǎn)嵌入式智能計(jì)算平臺(tái)的無(wú)人機(jī)檢測(cè)方法[J].兵工學(xué)報(bào),2022,43(z1):146?154.

        [2] 張學(xué)思,張婷,劉兆英,等.基于輕量型卷積神經(jīng)網(wǎng)絡(luò)的海面紅外顯著性目標(biāo)檢測(cè)方法[J].山東大學(xué)學(xué)報(bào)(工學(xué)版),2022,52(2):41?49.

        [3] 張栩培,賀占莊,馬鐘,等.一種自標(biāo)簽特征點(diǎn)異源圖像目標(biāo)檢測(cè)算法[J].北京理工大學(xué)學(xué)報(bào),2021,41(5):558?568.

        [4] 趙興科,李明磊,張弓,等.基于顯著圖融合的無(wú)人機(jī)載熱紅外圖像目標(biāo)檢測(cè)方法[J].自動(dòng)化學(xué)報(bào),2021,47(9):2120?2131.

        [5] 宋子壯,楊嘉偉,張東方,等.基于無(wú)監(jiān)督域適應(yīng)的低空海面紅外目標(biāo)檢測(cè)[J].光學(xué)學(xué)報(bào),2022,42(4):127?134.

        [6] LUO H, WANG P, CHEN H, et al. Object detection method based on shallow feature fusion and semantic information enhancement [J]. IEEE sensors journal, 2021, 21(19): 21839?21851.

        [7] 梁曉,李俊.基于改進(jìn)YOLOv7的紅外無(wú)人機(jī)目標(biāo)檢測(cè)方法[J].電光與控制,2023,30(12):38?43.

        [8] 郭陽(yáng)陽(yáng),洪文浩,丁屹,等.基于坐標(biāo)注意力機(jī)制和YOLO v5s模型的山羊臉部檢測(cè)方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2023,54(7):313?321.

        [9] 朱勇,肖沁,李正周,等.基于海面場(chǎng)景感知的紅外小目標(biāo)檢測(cè)方法[J].光子學(xué)報(bào),2022,51(12):294?311.

        [10] 宋鵬鵬,龔聲蓉,鐘珊,等.基于雙注意力擦除和注意力信息聚合的弱監(jiān)督目標(biāo)檢測(cè)[J].計(jì)算機(jī)工程,2023,49(3):113?120.

        [11] 孫備,黨昭洋,吳鵬,等.基于多分支注意力改進(jìn)的YOLOv5無(wú)人艇目標(biāo)檢測(cè)方法[J].無(wú)人系統(tǒng)技術(shù),2023(5):89?97.

        [12] 陳成琳,鮑春,曹杰,等.基于改進(jìn)YOLOv3的遙感小目標(biāo)檢測(cè)網(wǎng)絡(luò)[J].計(jì)算機(jī)仿真,2023,40(8):30?35.

        [13] 譚顯東,彭輝.改進(jìn)YOLOv5的SAR圖像艦船目標(biāo)檢測(cè)[J].計(jì)算機(jī)工程與應(yīng)用,2022,58(4):247?254.

        [14] 郭雨.基于輕量化改進(jìn)型YOLOv5的車輛檢測(cè)方法[J].建模與仿真,2023,12(3):1840?1849.

        [15] 蔡云澤,張彥軍.基于雙通道特征增強(qiáng)集成注意力網(wǎng)絡(luò)的紅外弱小目標(biāo)檢測(cè)方法[J].空天防御,2021(4):14?22.

        [16] 楊軍利,屈子昂,楊沛達(dá),等.基于改進(jìn)蟻群算法的無(wú)人機(jī)災(zāi)區(qū)航跡規(guī)劃[J].電子設(shè)計(jì)工程,2024,32(10):120?124.

        作者簡(jiǎn)介:吳" 茜(1999—),女,湖北荊門人,在讀碩士研究生,研究方向?yàn)槟繕?biāo)檢測(cè)。

        魏晶鑫(2000—),女,湖北襄陽(yáng)人,在讀碩士研究生,研究方向?yàn)槟繕?biāo)檢測(cè)。

        陳中舉(1976—),男,湖北荊州人,碩士研究生,副教授,研究方向?yàn)槿斯ぶ悄堋?/p>

        收稿日期:2024?04?17" " " " " "修回日期:2024?05?08

        基金項(xiàng)目:中國(guó)高校產(chǎn)學(xué)研創(chuàng)新基金:新一代信息技術(shù)創(chuàng)新項(xiàng)目(2023IT269)

        猜你喜歡
        特征融合目標(biāo)檢測(cè)
        基于多特征融合的圖像匹配算法
        人體行為特征融合與行為識(shí)別的分析
        基于移動(dòng)端的樹(shù)木葉片識(shí)別方法的研究
        科技資訊(2017年11期)2017-06-09 18:28:13
        基于SIFT特征的港口內(nèi)艦船檢測(cè)方法
        融合整體與局部特征的車輛型號(hào)識(shí)別方法
        視頻中目標(biāo)檢測(cè)算法研究
        軟件(2016年4期)2017-01-20 09:38:03
        行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
        移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
        基于背景建模法的運(yùn)動(dòng)目標(biāo)檢測(cè)
        基于MATLAB的道路交通標(biāo)志識(shí)別
        亚洲欧洲成人精品香蕉网| 色婷婷综合一区二区精品久久 | 国产精品亚洲А∨天堂免下载| 亚洲精品区二区三区蜜桃| 久久精品国产亚洲av高清三区| 国产免费内射又粗又爽密桃视频| 久久久噜噜噜久久中文字幕色伊伊| 亚洲AV无码中文AV日韩A| 亚洲精品中字在线观看| 97人伦色伦成人免费视频| 久久精品夜夜夜夜夜久久| 亚洲国产视频精品一区二区| av成人一区二区三区| 久久99国产精一区二区三区| 福利网址在线观看| av免费一区在线播放| 亚洲av成人一区二区三区本码| 永久免费看啪啪网址入口| 欧美日韩亚洲一区二区精品 | 亚洲av无一区二区三区久久蜜桃| 亚洲人成网站色www| 国产啪精品视频网给免丝袜| 日韩精品高清不卡一区二区三区| av网站在线观看入口| 久久精品娱乐亚洲领先| 成人在线免费视频亚洲| 亚洲白嫩少妇在线喷水| 狠狠躁日日躁夜夜躁2020| 丁香综合网| 色偷偷亚洲女人的天堂| 中文有码亚洲制服av片| 欧美第一黄网免费网站| 久久亚洲精彩无码天堂| 东北熟妇露脸25分钟| 老师粉嫩小泬喷水视频90| 国产亚洲高清不卡在线观看| 久久影院最新国产精品| 国产乱码卡二卡三卡老狼| 亚洲中文字幕每日更新| 免费人成网站在线播放| 免费无码又爽又高潮视频|