亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合ReFPN結(jié)構(gòu)與混合注意力的小目標(biāo)檢測算法

        2022-05-25 08:16:22趙一鳴王金聰任洪娥趙龍
        關(guān)鍵詞:特征融合注意力機(jī)制深度學(xué)習(xí)

        趙一鳴 王金聰 任洪娥 趙龍

        摘要:基于深度學(xué)習(xí)的小目標(biāo)檢測研究對于如小人臉識別、遙感圖像檢測等任務(wù)的優(yōu)化與提升都具有極為重要的意義。但由于圖像中的小目標(biāo)所占像素較少,分辨率低,包含的特征信息不明顯,現(xiàn)有方法對小目標(biāo)的檢測效果并不理想。針對此問題,提出一種基于反饋的特征融合網(wǎng)絡(luò)ReFPN用于YOLOv4算法,兩次利用骨干網(wǎng)絡(luò)提取的原始特征層,加強小目標(biāo)特征信息,對其進(jìn)行更精確的位置回歸。同時提出混合注意力機(jī)制Co-AM充分提取小目標(biāo)的細(xì)節(jié)特征信息,抑制無效特征,進(jìn)一步提高小目標(biāo)的檢測精度。實驗結(jié)果表明,此文提出的方法使YOLOv4算法在MS COCO數(shù)據(jù)集上平均精度AP提高了1.9%,小目標(biāo)平均精度AP提高了3.3%,檢測效果優(yōu)于現(xiàn)有小目標(biāo)檢測算法,證明了此文提出方法的有效性。

        關(guān)鍵詞:深度學(xué)習(xí);小目標(biāo)檢測;特征融合;注意力機(jī)制

        DOI:10.15938/j.jhust.2022.02.011

        中圖分類號: TP751.1

        文獻(xiàn)標(biāo)志碼: A

        文章編號: 1007-2683(2022)02-0085-07

        A Small Object Detection Algorithm Integrated with ReFPN

        and Compound Attention Mechanism

        ZHAO Yi-ming WANG Jin-cong REN Hong-e ZHAO Long

        (1.College of Information and Computer Engineering, Northeast Forestry University, Harbin 150040, China;

        2.College of Mechanical and Electrical Engineering, Northeast Forestry University, Harbin 150040, China;

        3.Heilongjiang Forestry Intelligent Equipment Engineering Research Center, Harbin 150040, China)

        Abstract:The research of small target detection is of great significance for the optimization and improvement of tasks such as small face recognition and remote sensing image detection. However, the small target in the image occupies fewer pixels, lower resolution, unobvious feature information, resulting in the effect that existing methods for small target detection is not ideal. To solve this problem, a feedback-based feature fusion network (ReFPN) for YOLOV4 algorithm was proposed. The original feature layer extracted from the backbone network is used twice to enhance the feature information of small targets and position regression performs more accurately. At the same time, the compound attention mechanism (Co-AM) was proposed to more fully extract the detail feature information of small targets, suppress invalid features, and further improve small targets’ detection accuracy. Experimental results show that the method improves the AP of YOLOV4 algorithm on MS COCO dataset by 1.9%, and the AP?by 3.3%. The effectiveness of our method is proved, and the detection effect of small target detection is better than the existing algorithms.

        Keywords:deep learning; small object detection; feature fusion; attention mechanism

        0引言

        目標(biāo)檢測作為圖像理解和計算機(jī)視覺的基石,是解決圖像分割、目標(biāo)追蹤、圖像描述等更復(fù)雜更高層次視覺任務(wù)的基礎(chǔ),廣泛應(yīng)用于無人駕駛[1]、安全系統(tǒng)和微小瑕疵檢測等領(lǐng)域[2]。近年來迅猛發(fā)展的深度學(xué)習(xí)技術(shù)是一類能自動從數(shù)據(jù)中學(xué)習(xí)特征表示的強大方法,為機(jī)器學(xué)習(xí)和計算機(jī)視覺等領(lǐng)域帶來了革命性的進(jìn)步,顯著改善了目標(biāo)檢測的表現(xiàn)。

        基于深度學(xué)習(xí)的小目標(biāo)檢測研究對于諸多領(lǐng)域如小人臉識別、目標(biāo)跟蹤、人體關(guān)鍵點檢測、遙感圖像檢測等任務(wù)的優(yōu)化與提升都具有極為重要的意義。而卷積神經(jīng)網(wǎng)絡(luò)[3](Convolution Neural Networks, CNN)具有多層網(wǎng)絡(luò)結(jié)構(gòu)自動學(xué)習(xí)的特點,主要由輸入層、輸出層、卷積層、下采樣層和全連接層組成。淺層的卷積層用于提取豐富的局部特征,深層的卷積層將這些局部特征進(jìn)行結(jié)合,從而學(xué)習(xí)到更加抽象的特征。卷積神經(jīng)網(wǎng)絡(luò)提取的抽象特征對圖像分類以及圖像中物體粗略位置的定位很有效。早期的目標(biāo)檢測框架大多數(shù)是針對通用目標(biāo)來進(jìn)行檢測的。但小目標(biāo)像素偏低,所包含的特征信息較少,易被算法當(dāng)做背景信息忽略掉,導(dǎo)致檢測精度偏低,小目標(biāo)檢測在深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)模型中一直是個難題。

        隨著深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)[4]的快速發(fā)展,科研人員提出了基于區(qū)域提取的R-CNN(Region-CNN)、Faster R-CNN[5]等兩階段檢測方法,在產(chǎn)生目標(biāo)候選框的基礎(chǔ)上對候選框做分類與回歸,仍無法很好地解決小目標(biāo)檢測問題。在端到端的單級目標(biāo)檢測算法中,Liu 等[6]提出一種SSD(Single Shot MultiBox Detector)算法,該算法兼顧了檢測速度和檢測精度。但是其存在特征提取不充分的問題,從而對小目標(biāo)檢測的效果一般。Redmon等[7]提出了YOLO(You Only Look Once)算法,它的第三個版本——YOLOv3[8]將高級網(wǎng)絡(luò)與低級網(wǎng)絡(luò)連接起來,從高層特征與低層特征圖中的細(xì)粒度信息中獲取信息。這種信息融合方式在一定程度上提高了小目標(biāo)的檢測性能,但沒有充分利用低層特征信息。因此,它在檢測小目標(biāo)方面很弱。YOLOv4[9]在YOLOv3的基礎(chǔ)上提高了目標(biāo)檢測精度,使速度與精度達(dá)到了最優(yōu)平衡,目前對通用目標(biāo)的檢測效果較好,但在小目標(biāo)檢測精度方面仍有很大提升空間。

        針對YOLOv4算法在MS COCO數(shù)據(jù)集上對小目標(biāo)的檢測效果不夠理想的問題,本文在YOLOv4算法結(jié)構(gòu)的基礎(chǔ)上提出以下方法來提升小目標(biāo)的檢測效果:①針對小目標(biāo)在圖像中像素少、分辨率低的本質(zhì)問題,提出了一種基于反饋的特征融合網(wǎng)絡(luò)ReFPN用于YOLOv4算法,通過兩次利用原始特征層,加強算法對小尺寸目標(biāo)特征的學(xué)習(xí),對小目標(biāo)進(jìn)行更精確的位置回歸。②針對小目標(biāo)本身所包含信息因素少,容易被非檢測目標(biāo)因素影響的問題,提出混合注意力機(jī)制Co-AM,搭建在CSPDarknet53后,充分提取小目標(biāo)的特征信息,增強有效特征,避免小目標(biāo)被當(dāng)做背景信息。實驗證明本文提出的方法模型對小目標(biāo)的檢測精度有較大提升,得到了更優(yōu)的檢測效果。

        1特征融合結(jié)構(gòu)ReFPN

        低層網(wǎng)絡(luò)特征圖攜帶更多目標(biāo)的位置形狀等信息,故為加強算法對小尺寸目標(biāo)特征的學(xué)習(xí),獲得更多的低層特征信息,本文提出一種基于反饋的特征融合結(jié)構(gòu)(retroaction feature pyramid networks, ReFPN),如圖1所示。虛線框部分為FPN[10]結(jié)構(gòu),由自底向上和自頂向下2個路徑組成。自底向上的路徑是提取特征的卷積網(wǎng)絡(luò),特征層由低到高的空間分辨率以2倍遞減,同時檢測到更多的高層語義信息。自頂向下的融合路徑通過對所提取每步卷積特征層進(jìn)行上采樣處理,將高層的特征圖放大到上一步的特征圖一樣的大小,保證維度相同。為了將高層語義特征和低層特征的精確定位能力結(jié)合,利用橫向連接將上一層經(jīng)過上采樣后和當(dāng)前層分辨率一致的特征,通過相加的方法進(jìn)行融合。既利用了高層較強的利于分類的語義特征,又利用了低層利于定位的高分辨率信息,豐富了融合后的特征圖所包含的信息。

        成功的目標(biāo)檢測器都表現(xiàn)出了信息的反復(fù)利用和提精[11]。故ReFPN的后半部分將來自FPN(Featu-re Pyramid Networks)層的特征通過反饋連接合并到自下而上的骨干層中,將FPN的反饋信息集成到骨干網(wǎng)絡(luò)上,再次利用原始特征圖,使骨干網(wǎng)絡(luò)重新訓(xùn)練來自FPN的帶有梯度的特征,實現(xiàn)了兩次思考的順序設(shè)計,增強了FPN的特征表示,豐富了特征融合的表現(xiàn)能力。再經(jīng)過自下而上的特征融合路徑,在低層用準(zhǔn)確的定位信號來增強整個特征分層,縮短低層和高層特征之間的信息路徑,獲得更多的低層特征信息,對小目標(biāo)的位置形狀等信息的檢測更有利。

        反饋連接使用空洞空間金字塔池化(atrous spatial pyramid pooling, ASPP),為圖1橫線圓部分,采用不同采樣率可以有效地捕獲多尺度上下文信息,模塊結(jié)構(gòu)如圖2所示。在此模塊中,以FPN的特征圖作為輸入,有4個并行分支,其中3個分支中的卷積層配置如圖2所示,后跟ReLU層,輸出通道數(shù)是輸入通道數(shù)的1/4,最后1個分支使用全局平均池化層來壓縮特征,然后使用1×1卷積層和ReLU層將壓縮后的特征轉(zhuǎn)換為1/4輸入通道數(shù)的特征。最后,調(diào)整大小并與其他3個分支的特征連接在一起,以多個比例捕捉圖像的上下文,實現(xiàn)特征金字塔的級聯(lián)連接。

        使用融合模塊如圖3所示。此模塊用來融合FPN輸出特征f與整體特征融合后的輸出特征f’,為圖1豎線圓部分,通過1×1卷積層和Sigmoid運算來計算注意力圖,然后將結(jié)果注意力圖用于計算更新后的加權(quán)和。

        ReFPN通過兩次利用原始特征層,加強了算法對小尺寸目標(biāo)特征的學(xué)習(xí),并利用ASPP作為反饋連接提升整合多尺度信息的能力,獲得更多的低層特征信息,更有利于小目標(biāo)的定位檢測。

        2混合注意力機(jī)制Co-AM

        深度學(xué)習(xí)中的注意力機(jī)制[12]的核心目標(biāo)是從眾多信息中選擇出對當(dāng)前任務(wù)目標(biāo)更關(guān)鍵的信息,最早由DeepMind為圖像分類提出,讓神經(jīng)網(wǎng)絡(luò)在執(zhí)行預(yù)測任務(wù)時可以更多關(guān)注輸入中的相關(guān)部分,更少關(guān)注不相關(guān)的部分。Woo等[13]基于一個有效的體系結(jié)構(gòu)同時利用空間和通道注意模塊來關(guān)注更多信息,取得了很好的效果。徐誠極等[14]將注意力機(jī)制引入到Y(jié)OLO算法中,提高了檢測精度。

        受此啟發(fā),針對小目標(biāo)因包含特征信息不明顯而易受到背景信息因素的干擾的問題,本文提出混合注意力模塊(compound attention mechanism, Co-AM),用于YOLOv4算法的主干網(wǎng)絡(luò)CSPDarknet53后,來更多的關(guān)注小目標(biāo)的特征信息。Co-AM的模塊結(jié)構(gòu)如圖4所示。其中,通道注意力模塊CAM如圖5所示,輸入特征F依次經(jīng)過卷積層、全局平均池化層以及ReLU和Sigmoid運算,得到的特征圖再與F相乘輸出特征F,關(guān)注輸入的圖像是否有檢測目標(biāo)的特征,對不同通道的特征重新進(jìn)行了加權(quán)分配。通道注意力的計算見式(1)。

        空間注意力模塊SAM如圖6所示,輸入特征F′ 通過卷積層與Sigmoid運算,得到的特征圖再與F′ 相乘輸出特征F,關(guān)注目標(biāo)所在位置的特征信息,是對通道注意力的補充??臻g注意力的計算見式(2)。

        分別在空間和通道2個維度,學(xué)習(xí)并提取特征中的權(quán)重分布,依次推斷得到注意力特征圖。將注意力特征圖與原特征圖相乘進(jìn)行自適應(yīng)特征優(yōu)化,再次與原特征圖相加,如圖4中虛線箭頭,二次增強小目標(biāo)區(qū)域的有效特征信息,更有利于提升小目標(biāo)的檢測效果。Co-AM的計算見式(3)。

        為了減輕模型參數(shù)量,保留預(yù)訓(xùn)練參數(shù)的基礎(chǔ)上增強模型效果,本文將Co-AM模塊搭建在CSPDar-knet53主干網(wǎng)絡(luò)結(jié)構(gòu)后,模型結(jié)構(gòu)位置如圖7所示。

        Co-AM使網(wǎng)絡(luò)能更多的關(guān)注小目標(biāo)區(qū)域,充分提取小目標(biāo)的特征信息,強化低層特征圖中的有效特征,抑制無效特征及噪聲,獲取更多的小目標(biāo)的細(xì)節(jié)信息,避免小目標(biāo)因特征不明顯而被當(dāng)成背景信息,從而提高算法對小目標(biāo)的檢測精度[15]。

        3實驗與結(jié)果分析

        3.1數(shù)據(jù)集與數(shù)據(jù)處理

        本文選擇MS COCO[16]作為實驗數(shù)據(jù)集。該數(shù)據(jù)集是一個大型的、豐富的用于物體檢測、分割等的數(shù)據(jù)集。主要收集自然環(huán)境中包含常見對象的日常復(fù)雜場景的圖像,圖像中的目標(biāo)都有精確的位置標(biāo)定。MS COCO 2017數(shù)據(jù)集包含訓(xùn)練集圖片118287張,約19.3GB,驗證集圖片5000張,約1814.7M,共計123287張。數(shù)據(jù)集包括80個目標(biāo)分類,平均每張圖片包含3.5個類別和7.7個實例目標(biāo)。

        該數(shù)據(jù)集中定義大目標(biāo)為所占像素面積大于96的目標(biāo),中目標(biāo)所占像素面積大于32并且小于96,其余像素面積小于32的目標(biāo)均為本文重點檢測的小目標(biāo)。數(shù)據(jù)集中小目標(biāo)的數(shù)量和像素值分布的統(tǒng)計如表1所示。從表中發(fā)現(xiàn)雖然數(shù)據(jù)集上小目標(biāo)的數(shù)量很多,但是所占的像素又很少,這和我們的生活是類似的,這也是選擇該數(shù)據(jù)集的原因之一。

        COCO數(shù)據(jù)集作為小目標(biāo)檢測數(shù)據(jù)有以下優(yōu)點:①包含大量小尺寸目標(biāo);②數(shù)據(jù)集場景復(fù)雜,能夠提供較多目標(biāo)上下文信息;③數(shù)據(jù)集規(guī)模大,數(shù)據(jù)類型豐富,具有較強的泛化性和遷移能力[17]。

        本算法模型對數(shù)據(jù)集使用了CutMix和Mosaic等方法做數(shù)據(jù)增強。

        3.2模型訓(xùn)練

        實驗在Ubuntu16.04.12操作系統(tǒng)下進(jìn)行,深度學(xué)習(xí)框架為Pytorch,開發(fā)語言為Python。硬件配置包括CPU為Intel(R) Xeon(R) Gold 5218R,主頻為2.10GHz,內(nèi)存為36GB;GPU為兩塊NVIDIA RTX 2080Ti,顯存11GB。

        為了獲得更好的結(jié)果,模型選擇了具備自適應(yīng)調(diào)節(jié)步長能力的Adam方法作為優(yōu)化算法,其中學(xué)習(xí)率初始值設(shè)置為0.0026,batchsize設(shè)置為128,訓(xùn)練過程中將128張圖一次性加載進(jìn)內(nèi)存,前向傳播后將128張圖的loss累加求平均,再一次性后向傳播更新權(quán)重。subdivisions設(shè)置為16,一個batch分16次完成前向傳播,即每次計算8張。為了防止模型出現(xiàn)過擬合,模型中使用了類別標(biāo)簽平滑,并且在訓(xùn)練階段加入了系數(shù)為0.0005的權(quán)重衰減正則項。

        輸入圖片大小為608×608,以上述模型訓(xùn)練參數(shù)為基礎(chǔ)訓(xùn)練出3個改進(jìn)后的模型,分別為改進(jìn)特征融合的模型,加入混合注意力的模型以及兩改進(jìn)點共同作用的模型,用于后續(xù)檢測的消融實驗。

        3.3檢測效果分析及算法性能評價

        本文方法在MS COCO數(shù)據(jù)集上進(jìn)行了多組實驗以驗證小目標(biāo)的檢測效果,實驗中發(fā)現(xiàn),影響檢測效果的因素主要是錯檢和漏檢。檢測效果如圖8所示,圖中共標(biāo)注44個待檢目標(biāo),圖8(a)為YOLOv4模型的檢測效果,檢測出22個目標(biāo),錯檢3個目標(biāo),漏檢22個目標(biāo);圖8(b)為加入ReFPN后模型的檢測效果,檢測出28個目標(biāo),錯檢3個目標(biāo),漏檢16個目標(biāo);圖8(c)為加入Co-AM后模型的檢測效果,檢測出27個目標(biāo),錯檢3個目標(biāo),漏檢17個目標(biāo);圖8(d)為本文綜合改進(jìn)模型后的檢測效果,檢測出31個目標(biāo),錯檢3個目標(biāo),漏檢13個目標(biāo)。本文算法在數(shù)據(jù)集上有效提高了對小目標(biāo)的檢測效果,下一步將研究依舊存在錯檢和漏檢的原因并通過改進(jìn)來提高算法的檢測效果。

        為對比評價YOLOv4模型和本文訓(xùn)練出的3個模型對于包含小目標(biāo)的COCO數(shù)據(jù)集的檢測精度,采用AP(average precision)作為評價指標(biāo)。AP是指P-R(precision-recall)曲線與坐標(biāo)第一象限圍成的面積,通常在實際應(yīng)用中并不會直接對P-R曲線計算AP,而是對P-R曲線進(jìn)行平滑處理操作,即對P-R曲線上的每一個點,都選擇該點右側(cè)最大的那個精確率值,然后使用平滑后的精確率值計算AP,計算AP的計算式為式(4)、(5)。

        各項實驗數(shù)據(jù)如表2所示。選取Pytorch版本的YOLOv4算法作為對比基線模型,可以看出,相較于YOLOv4算法在COCO數(shù)據(jù)集上目標(biāo)檢測的精度,本文中加入ReFPN的模型平均精度AP提高了1.1%,小目標(biāo)平均精度AP提高了2.4%;加入Co-AM的模型平均精度AP提高了1.4%,小目標(biāo)平均精度AP提高了1.8%;綜合改進(jìn)后的模型平均精度AP提高了1.9%,小目標(biāo)平均精度AP提高了3.3%。結(jié)果表明,本文提出的方法有效提取了小目標(biāo)的特征信息,提高了YOLOv4算法的目標(biāo)檢測精度,尤其對小目標(biāo)的檢測效果提升明顯。

        為了便于比較各算法性能指標(biāo),表3列出了最新小目標(biāo)檢測算法中的Bi-SSD[18]、FIENet[19]、CPNet[20]和IENet[21]在MS COCO數(shù)據(jù)集上的具體檢測結(jié)果。綜合表中各精度數(shù)據(jù)來看,在MS COCO數(shù)據(jù)集的目標(biāo)檢測中,除本文算法模型外,IENet算法模型的性能表現(xiàn)最優(yōu),其次是CPNet,然后是FIENet和Bi-SSD。本文算法精度均優(yōu)于其他算法。從平均精度方面來看,本文算法的AP值相比于其他算法有所提升,達(dá)到51.5%;中等尺寸和大尺寸目標(biāo)的平均檢測精度AP和AP分別都有提升,說明本文算法在提升小目標(biāo)的檢測精度的同時沒有損失其他目標(biāo)的檢測精度;小尺寸目標(biāo)的平均檢測精度AP提升較大,達(dá)到35.4%,整體檢測效果均優(yōu)于其他算法,說明本文算法在COCO數(shù)據(jù)集上具有更好的目標(biāo)檢測能力。

        4結(jié)論

        YOLOv4算法在通用數(shù)據(jù)集中對小目標(biāo)的檢測不夠理想,根據(jù)小目標(biāo)分辨率低、攜帶信息少、容易受到背景因素影響等特點,本文提出一種基于反饋的特征融合網(wǎng)絡(luò)ReFPN,利用ASPP作為反饋連接提升整合多尺度信息的能力,兩次利用骨干網(wǎng)絡(luò)提取的原始特征信息加強小目標(biāo)特征信息,對其進(jìn)行更精確的位置回歸。同時提出混合注意力機(jī)制Co-AM來充分提取小目標(biāo)的細(xì)節(jié)特征信息,強化低層特征圖中的有效特征信息,抑制無效特征,進(jìn)一步提高小目標(biāo)的檢測精度。實驗結(jié)果表明,改進(jìn)的YOLOv4模型在MS COCO數(shù)據(jù)集上對目標(biāo)的檢測平均精度AP提高了1.9%,小目標(biāo)平均精度AP提高了3.3%,證明了本文提出的方法可以有效提升小目標(biāo)的檢測效果。與其他最新小目標(biāo)檢測算法相比,該算法達(dá)到了較好的檢測性能,但仍有提升空間,下一步將參考本文方法嘗試尋找構(gòu)建最優(yōu)的網(wǎng)絡(luò)模型用于圖像及視頻中的小目標(biāo)檢測,獲得進(jìn)一步性能的提升。

        參 考 文 獻(xiàn):

        [1]丁博,王水凡. 基于混合預(yù)測模型的交通標(biāo)志識別方法[J].哈爾濱理工大學(xué)學(xué)報,2019,24(5) :108.DING Bo, WANG Shuifan. Traffic Signs Identification Based on Mixed Forecasting Model[J]. Journal of Harbin University of Science and Technology,2019,24 (5): 108.

        [2]WU X,?SAHOO D, HOI S C H. Recent Advances in Deep Learning for ObjectDetection[J]. Neurocomputing, 2020, 396: 39.

        [3]LECUN Y,?BOTTOU L, BENGIO Y, et al. Gradient-based Learning Applied to Document Recognition[J]. Proceedings of the IEEE,1998,86(11):2278.

        [4]劉忠偉,戚大偉.基于卷積神經(jīng)網(wǎng)絡(luò)的樹種識別研究[J].森林工程,2020,(1):33.LIU Zhongwei, QI Dawei. Study on Tree Spiecies Identification Based on Convolution Neural Network[J]. Forest Engineering,2020,36(1): 33.

        [5]REN S, HE K, GIRSHICK R, et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6):1137.

        [6]LIU W,ANGUELOV D,ERHAN D,et al.SSD: Single Shot Multibox Detector[C]//European Conference on Computer Vision.2016: 21.

        [7]REDMON J, DIVVALA S, GIRSHICK R, et al. You Only Look Once: Unified, Real-time Object Detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016: 779.

        [8]REDMON J, FARHADI A. Yolov3: An Incremental Improvement[J]. arXiv preprint arXiv:1804.02767, 2018.

        [9]BOCHKOVSKIY A, WANG C Y, LIAO H Y M. Yolov4: Optimal Speed and Accuracy of Object Detection[J]. arXiv preprint arXiv:2004.10934, 2020.

        [10]LIN T Y, DOLLR P,GIRSHICK R, et al. Feature Pyramid Networks for Object Detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2017: 2117.

        [11]QIAO S, CHEN L C, YUILLE A. DetectoRS: Detecting Objects with Recursive Feature Pyramid and Switchable Atrous Convolution[J]. arXiv, 2020.

        [12]SANTORO A, FAULKNER R, RAPOSO D, et al.Relational Recurrent Neural Networks[J]. arXiv preprint arXiv: 1806.01822, 2018.

        [13]WOO S, PARK J, LEE J Y, et al. Cbam: Convolutional Block Attention Module[C]//Proceedings of the European Conference on Computer Vision (ECCV). 2018: 3.

        [14]徐誠極,王曉峰,楊亞東. Attention-YOLO:引入注意力機(jī)制的YOLO檢測算法[J].計算機(jī)工程與應(yīng)用,2019,55 (6):13.XU Chengji, WANG Xiaofeng, YANG Yadong.Attention-YOLO:YOLO Detection Algorithm that Introduces Attention Mechanism[J]. Computer Engineering and Applications, 2019, 55(6) :13.

        [15]劉芳,韓笑.基于多尺度深度學(xué)習(xí)的自適應(yīng)航拍目標(biāo)檢測[J].航空學(xué)報, 2022, 43(2):325270.LIU Fang, HAN Xiao. Adaptive Aerial Object Detection Based on Multi-scale Deep Learning[J]. Acta Aeronautica et Astronautica Sinica, 2022,43(2):325270.

        [16]LIN T Y, MAIRE M, BELONGIE S, et al. Microsoft COCO : CommonObjects in Context[C]// European Conference on Computer Vision. Springer International Publishing, 2014.

        [17]梁華,宋玉龍,錢鋒,等.基于深度學(xué)習(xí)的航空對地小目標(biāo)檢測[J].液晶與顯示,2018,33(9):793.LIANG Hua, SONG Yulong, QIAN Feng, et al. Aeronautical Small Target Detection to Ground Based on Deep Learning[J]. LCD and Display, 2018,33(9) : 793.

        [18]汪能,胡君紅,劉瑞康,等.基于 Bi-SSD 的小目標(biāo)檢測算法[J].計算機(jī)系統(tǒng)應(yīng)用,2020,29(11):139.WANG Neng, HU Junhong, LIU Ruikang, et al. Small Target Detection Algorithm Based on Bi-SSD[J]. Computer Systems & Applications,2020,29(11):139.

        [19]劉建政,梁鴻,崔學(xué)榮,等.融入特征融合與特征增強的SSD目標(biāo)檢測[J/OL].計算機(jī)工程與應(yīng)用:1 [2021-03-12].LIU Jianzheng, LIANG Hong, CUI Xuerong, et al. SSD Visual Target Detector Based on Feature Integration and Feature Enhancement[J/OL]. Computer Engineering and Applications, 1[2021-03-12].

        [20]DUAN K, XIE L, QI H, et al. Corner Proposal Network for Anchor-free, Two-stage Object Detection[J]. arXiv preprint arXiv:2007.13816, 2020.

        [21]LENG J X, REN Y H, JIANG W, et al.Realize your Surroundings: Exploiting Context Information for Small Object Detection[J]. Neurocomputing,2021,433:287.

        (編輯:溫澤宇)

        猜你喜歡
        特征融合注意力機(jī)制深度學(xué)習(xí)
        基于深度學(xué)習(xí)的問題回答技術(shù)研究
        基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
        基于注意力機(jī)制的雙向LSTM模型在中文商品評論情感分類中的研究
        軟件工程(2017年11期)2018-01-05 08:06:09
        InsunKBQA:一個基于知識庫的問答系統(tǒng)
        基于移動端的樹木葉片識別方法的研究
        科技資訊(2017年11期)2017-06-09 18:28:13
        基于SIFT特征的港口內(nèi)艦船檢測方法
        融合整體與局部特征的車輛型號識別方法
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        免费国产黄线在线播放| 久久精品国产亚洲av影院| 国产一区二区精品久久| 在线欧美不卡| 精品中文字幕日本久久久| 国产一区二区三区免费精品视频| 大学生高潮无套内谢视频| 18无码粉嫩小泬无套在线观看| 高清高速无码一区二区| 天堂久久一区二区三区| 成人爽a毛片免费视频| 国产精品无套内射迪丽热巴| 制服丝袜人妻中出第一页| 成人水蜜桃视频在线观看| 国产极品女主播国产区| 99久久国产露脸精品竹菊传媒| 99成人无码精品视频| 亚洲永久免费中文字幕| 国产精品186在线观看在线播放 | 国产成人亚洲精品青草天美| 在线一区不卡网址观看| 女同国产日韩精品在线| 男人的天堂一区二av| 水蜜桃精品一二三| 在线观看无码一区二区台湾| 青青草绿色华人播放在线视频| 亚洲a无码综合a国产av中文| 国产影片中文字幕| 人妻精品久久中文字幕| 经典黄色一区二区三区| 日日拍夜夜嗷嗷叫国产| 亚洲人成网站77777在线观看| 亚洲成人av一区二区麻豆蜜桃| av中国av一区二区三区av| 我把护士日出水了视频90分钟 | 日本一区二区三区丰满熟女| 国产人成无码视频在线观看| 亚洲天堂在线视频播放| 日韩在线精品视频免费 | 四虎影视成人永久免费观看视频| 亚洲欲色欲香天天综合网|