亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        遙感場(chǎng)景下基于關(guān)系挖掘的旋轉(zhuǎn)目標(biāo)檢測(cè)算法研究

        2023-06-25 07:42:18肖陽李煒
        現(xiàn)代信息科技 2023年7期

        肖陽 李煒

        摘? 要:與常規(guī)場(chǎng)景相比,遙感場(chǎng)景目標(biāo)檢測(cè)任務(wù)存在圖像尺寸大、小目標(biāo)數(shù)量多、檢測(cè)框有旋轉(zhuǎn)角等難點(diǎn),這些難點(diǎn)也使得遙感圖像中物體間有更多的關(guān)系可挖掘。為提升遙感場(chǎng)景下對(duì)旋轉(zhuǎn)目標(biāo)的檢測(cè)效果,通過添加關(guān)系挖掘模塊對(duì)旋轉(zhuǎn)目標(biāo)檢測(cè)算法(Oriented R-CNN for Object Detection, ORCN)進(jìn)行優(yōu)化。關(guān)系挖掘模塊利用動(dòng)態(tài)圖神經(jīng)網(wǎng)絡(luò)、交叉注意力機(jī)制使候選區(qū)域的特征、形狀信息進(jìn)行有效交互,豐富候選區(qū)域特征的上下文語義。實(shí)驗(yàn)結(jié)果表明,添加關(guān)系挖掘模塊后模型在遙感數(shù)據(jù)集上的DOTA表現(xiàn)提升1.53%,明顯優(yōu)于原檢測(cè)算法。

        關(guān)鍵詞:旋轉(zhuǎn)目標(biāo)檢測(cè);遙感圖像;圖神經(jīng)網(wǎng)絡(luò);交叉注意力機(jī)制

        中圖分類號(hào):TP391.4 文獻(xiàn)標(biāo)識(shí)碼:A? ? 文章編號(hào):2096-4706(2023)07-0074-05

        Abstract: Compared with the conventional scene, the target detection task in remote sensing scene has difficulties such as large image size, large number of small targets, and detection frame with rotation angle. These difficulties also make more relationships between objects in remote sensing images can be mined. In order to improve the detection effect of rotating targets in remote sensing scenes, the Oriented R-CNN for Object Detection (ORCN) algorithm is optimized by adding a relationship mining module. The relationship mining module uses dynamic graph neural network and cross-attention mechanism to effectively interact the features and shape information of candidate regions, and enrich the context semantics of the features of candidate regions. The experimental results show that the DOTA performance of the model on the remote sensing data set is improved by 1.53% after adding the relationship mining module, which is significantly better than the original detection algorithm.

        Keywords: rotating target detection; remote sensing image; graph neural network; cross-attention mechanism

        0? 引? 言

        遙感圖像目標(biāo)檢測(cè)是目標(biāo)檢測(cè)任務(wù)的一個(gè)新興方向,在航空器場(chǎng)景感知、遙感探測(cè)、智能導(dǎo)航中具有廣泛的應(yīng)用價(jià)值。同時(shí),遙感圖像數(shù)據(jù)集存在圖像尺寸大、小目標(biāo)數(shù)量多、目標(biāo)方向不確定等特點(diǎn),相比常規(guī)數(shù)據(jù)集難度更大,具有更高的研究意義。航空?qǐng)鼍跋滦∧繕?biāo)(幾十甚至幾個(gè)像素)檢測(cè)所占比例大,基于卷積的目標(biāo)檢測(cè)方法雖然在常規(guī)目標(biāo)檢測(cè)數(shù)據(jù)集上表現(xiàn)良好,但層層池化會(huì)使小目標(biāo)信息量進(jìn)一步減少,難以區(qū)分。常規(guī)場(chǎng)景中一般通過特征金字塔、擴(kuò)充目標(biāo)上下文語義信息的方式加以解決。其中,特征金字塔已廣泛遷移至遙感圖像目標(biāo)檢測(cè)任務(wù)中,但由于目標(biāo)多、朝向自由等特點(diǎn)使得遙感場(chǎng)景下目標(biāo)間語義關(guān)系更加復(fù)雜,常規(guī)場(chǎng)景中使用的上下文方法往往不能很好地建模其中關(guān)系。因此,本文根據(jù)遙感目標(biāo)檢測(cè)的場(chǎng)景特點(diǎn),設(shè)計(jì)關(guān)系挖掘模塊,利用物體間的關(guān)系強(qiáng)化候選區(qū)域特征,對(duì)遙感目標(biāo)檢測(cè)算法進(jìn)行優(yōu)化。

        1? 遙感圖像目標(biāo)檢測(cè)與關(guān)系挖掘

        1.1? 遙感圖像目標(biāo)檢測(cè)

        航空遙感圖像中的目標(biāo)檢測(cè)問題,是近年來計(jì)算機(jī)視覺領(lǐng)域出現(xiàn)的一個(gè)極具挑戰(zhàn)性的問題。與自然場(chǎng)景不同,遙感圖像中的物體通常以任意方向分布,人們采用有向邊界框(Oriented Bounding Boxes, OBBs)而不是水平邊界框(Horizontal Bounding Boxes, HBBs)進(jìn)行標(biāo)注與檢測(cè),因此遙感圖像目標(biāo)檢測(cè)算法也多被視為旋轉(zhuǎn)目標(biāo)檢測(cè)問題。為了應(yīng)對(duì)旋轉(zhuǎn)帶來的挑戰(zhàn),學(xué)界紛紛提出設(shè)計(jì)良好的有向目標(biāo)檢測(cè)器,并在極具挑戰(zhàn)性的航空?qǐng)D像數(shù)據(jù)集[1]上取得不錯(cuò)的效果,主要思路在于提取旋轉(zhuǎn)不變特征[2-5]。在實(shí)踐中,旋轉(zhuǎn)RoI變換(例如Rotate RoI Pooling[4]和Rotate RoIAlign[2])是提取旋轉(zhuǎn)不變特征的最常用方法,其根據(jù)二維平面中候選區(qū)域的有向邊界框精確地提取區(qū)域特征。在旋轉(zhuǎn)問題經(jīng)過廣泛的研究討論并取得一定的成效后,遙感圖像目標(biāo)檢測(cè)的其他難點(diǎn)紛紛走入研究視野,其中目標(biāo)眾多、形狀各異是最為突出的特點(diǎn)與難點(diǎn),而目標(biāo)間蘊(yùn)含著豐富的上下文信息將會(huì)是解決其小目標(biāo)檢測(cè)困難的又一突破口。因此,本文提出關(guān)系挖掘模塊,對(duì)遙感場(chǎng)景下物體間的特征和幾何形狀中蘊(yùn)含的關(guān)系信息進(jìn)行建模,擴(kuò)充候選區(qū)域的上下文信息,提高檢測(cè)效果。

        1.2? 目標(biāo)檢測(cè)中的關(guān)系挖掘方法

        關(guān)系挖掘旨在在物體間合理地交互、傳播和更新信息,經(jīng)常應(yīng)用于一些常見的視覺任務(wù),如分類、目標(biāo)檢測(cè)[6]和視覺關(guān)系檢測(cè)[7]等。先前工作[8-11]中的一個(gè)常見做法有將手動(dòng)設(shè)計(jì)的關(guān)系和對(duì)象之間的共享屬性考慮在內(nèi)。隨著基于深度學(xué)習(xí)的幾何學(xué)發(fā)展,圖結(jié)構(gòu)憑借其靈活的成對(duì)交互數(shù)據(jù)結(jié)構(gòu),慢慢成為主流的關(guān)系建模結(jié)構(gòu)。有的研究手工建立不同類別之間的知識(shí)圖譜以輔助大規(guī)模的目標(biāo)檢測(cè)[12],然而,這種方法嚴(yán)重依賴于來自視覺關(guān)系數(shù)據(jù)的歸因和注釋,物體間的某些空間關(guān)系也被忽略。有的工作[13-16]試圖從視覺特征中隱式學(xué)習(xí)區(qū)域之間的完全連通圖,如使用自適應(yīng)注意力模塊進(jìn)行對(duì)象視覺特征之間的交互。然而,全連通模式合并了來自無關(guān)對(duì)象和背景的冗余信息,空間關(guān)系也未被充分利用。有的工作[17,18]通過手工構(gòu)造與深度學(xué)習(xí)相結(jié)合的方式建立物體間的稀疏圖,并通過圖卷積的方式交互信息。但隨著圖神經(jīng)網(wǎng)絡(luò)技術(shù)的日益發(fā)展,其中使用的圖卷積模式并不是信息交互的最優(yōu)解,關(guān)系圖結(jié)構(gòu)也在交互過程中趨于固定,缺乏靈活性。因此,本文提出新的關(guān)系挖掘模塊,新模塊利用層層更新的動(dòng)態(tài)圖神經(jīng)網(wǎng)絡(luò),結(jié)合交叉注意力機(jī)制,使候選區(qū)域間的語義特征和空間結(jié)構(gòu)信息進(jìn)行有效交流,同時(shí)通過稀疏圖結(jié)構(gòu)和注意力掩碼技術(shù)防止冗余信息的干擾,將有效的關(guān)系信息融入特征。

        2? 關(guān)系挖掘模塊

        關(guān)系挖掘模塊(Relation Mining Module, RMM)設(shè)置在兩階段目標(biāo)檢測(cè)網(wǎng)絡(luò)的感興趣區(qū)域(Region of Interest, ROI)池化層之后,整體處理流程如圖1所示。在兩階段目標(biāo)檢測(cè)網(wǎng)絡(luò)中,ROI池化操作可得到一批候選區(qū)域,每個(gè)候選區(qū)域?qū)?yīng)有語義特征信息和空間位置信息,預(yù)測(cè)頭利用其語義特征信息得到最終檢測(cè)結(jié)果。因此,我們的關(guān)系挖掘模塊將利用候選區(qū)域的語義特征信息和空間位置信息對(duì)其進(jìn)行特征更新(新特征包含候選區(qū)域在語義特征和空間結(jié)構(gòu)上的上下文信息),以更好地輔助預(yù)測(cè)頭進(jìn)行分類和定位。

        圖1中,N表示候選區(qū)域個(gè)數(shù),DO表示原語義特征維度,DR表示關(guān)系模塊內(nèi)特征維度。在送入關(guān)系模塊前,本文利用兩個(gè)全連接網(wǎng)絡(luò)對(duì)語義特征和邊界框信息進(jìn)行維度統(tǒng)一。由于邊框信息由中心坐標(biāo)x、y、邊框?qū)捀遷、h,以及邊框旋轉(zhuǎn)角a三類尺度不同的信息組成,因此使用一層分塊全連接網(wǎng)絡(luò)分別處理三類信息,拼接后再利用一層全連接網(wǎng)絡(luò)統(tǒng)一維度,得到空間特征。

        維度得以統(tǒng)一后,模塊利用動(dòng)態(tài)圖神經(jīng)網(wǎng)絡(luò)對(duì)輸入特征進(jìn)行圖結(jié)構(gòu)的建立或更新,再按圖結(jié)構(gòu)對(duì)特征進(jìn)行圖卷積操作,卷積更新后的節(jié)點(diǎn)特征能夠有效聚合鄰居節(jié)點(diǎn)信息;隨后特征進(jìn)入交叉注意力模塊,先進(jìn)行自注意力操作,再進(jìn)行交叉注意力操作,使得語義特征與空間特征得到信息交互,重復(fù)三次后完成關(guān)系挖掘,與原特征拼接后送入全連接網(wǎng)絡(luò)恢復(fù)特征維度,以供預(yù)測(cè)頭使用。

        在關(guān)系挖掘過程中,為排除冗余信息的干擾,降低計(jì)算量,在交叉注意力模塊中進(jìn)行mask操作,即只有圖結(jié)構(gòu)中建立連接的節(jié)點(diǎn)才進(jìn)行注意力運(yùn)算。與此同時(shí),為使語義特征和空間特征兩路關(guān)系挖掘模塊形成合力,添加Graph Loss損失項(xiàng),使得兩路更易于形成相近的圖關(guān)系結(jié)構(gòu)。

        2.1? 動(dòng)態(tài)圖神經(jīng)網(wǎng)絡(luò)

        動(dòng)態(tài)圖神經(jīng)網(wǎng)絡(luò)對(duì)特征的處理流程如圖2所示,依次經(jīng)過圖數(shù)據(jù)構(gòu)建、圖卷積聚合節(jié)點(diǎn)特征、全連接層特征變換三部分。

        2.1.1? 構(gòu)建圖結(jié)構(gòu)

        面對(duì)N個(gè)D維語義/空間特征形成的集合X=[x1, x2,…, xN],xi ∈ RD,我們可以將其視為一張圖上的一組無序節(jié)點(diǎn)V={v1,v2,…,vN}。對(duì)于每個(gè)節(jié)點(diǎn)vi,我們以K近鄰的思路找到K個(gè)與它最近的節(jié)點(diǎn)形成鄰居集合N(vi),并且對(duì)所有鄰居節(jié)點(diǎn)vj ∈ N(vi)添加一條由vj指向vi的邊eij。由此我們將特征集合組織成一張有向圖數(shù)據(jù)G=(V, E),其中E表示所有邊的集合,這一過程可記為G=Graph(X)。以K近鄰的思路建立圖數(shù)據(jù)結(jié)構(gòu),可以使得節(jié)點(diǎn)的特征在相似的節(jié)點(diǎn)間進(jìn)行聚合更新,一方面能夠避免其他類別特征的混疊干擾,另一方面可消除類間差異,使得各節(jié)點(diǎn)的特征表示趨于類的特征表示。

        2.1.2? 圖卷積聚合節(jié)點(diǎn)特征

        圖卷積模塊[19]可以從鄰居節(jié)點(diǎn)聚合特征的操作使不同的節(jié)點(diǎn)相互交換信息。其過程可表述為:

        其中,Wagg和Wupdate分別表示聚合和更新操作中的可學(xué)習(xí)權(quán)重。具體來講,聚合操作將鄰居節(jié)點(diǎn)特征與本節(jié)點(diǎn)進(jìn)行聚合,更新操作進(jìn)一步融合聚合后的特征:

        具體的更新和聚合操作我們參照最大相關(guān)性圖卷積方法[20],該圖卷積方法形式簡(jiǎn)潔、計(jì)算方便,能在較小的計(jì)算復(fù)雜度下完成對(duì)圖節(jié)點(diǎn)特征的聚合與更新:

        2.1.3? 全連接層特征變換

        研究表明[20],隨著圖卷積操作的加深,卷積感受野逐漸增大,圖中各個(gè)節(jié)點(diǎn)會(huì)漸漸趨于一致,這種現(xiàn)象被稱為過平滑。因此,一般在圖卷積操作后接入帶有非線性激活函數(shù)的全連接網(wǎng)絡(luò),使特征處于不斷的變換中,延緩過平滑現(xiàn)象的發(fā)生,提高圖卷積網(wǎng)絡(luò)的學(xué)習(xí)空間。

        2.2? 交叉注意力模塊

        在經(jīng)過動(dòng)態(tài)圖神經(jīng)網(wǎng)絡(luò)后,語義和空間兩組特征都完成了特征集合內(nèi)部的信息交互。然而,作為候選區(qū)域的兩大關(guān)鍵信息,我們希望兩組特征之間也能進(jìn)行有效的交流,互相補(bǔ)足其在關(guān)系建立和特征聚合過程中的遺漏。鑒于語義特征和空間特征有著完全不同的表達(dá)模式,我們將其間的信息交流視作一個(gè)多模態(tài)信息融合問題,故引入多模態(tài)融合技術(shù):交叉注意力機(jī)制,形成交叉注意力模塊,如圖3所示。

        交叉注意力機(jī)制是自注意力機(jī)制的變體,其與自注意力機(jī)制的主要差異在于,自注意力操作中的query、key、value值均源于本身序列,而在交叉注意力機(jī)制中,query值來自本身序列,而key、value則由另一模態(tài)的序列變換而來,這也是本文交叉注意力模塊的核心操作。

        其中,se表示語義特征,sp表示空間特征,由于注意力模型通常應(yīng)用于序列問題而非無序特征的處理,我們對(duì)模塊進(jìn)行了一些適應(yīng)性調(diào)整:一是針對(duì)無序的特征集合,我們?nèi)∠宋恢镁幋a,但同一位置的空間特征與語義特征依然對(duì)應(yīng)放置,使其在做交叉注意力時(shí)依然能維持對(duì)應(yīng)關(guān)系;二是對(duì)注意力運(yùn)算添加掩膜mask,即只有圖結(jié)構(gòu)中建立連接的節(jié)點(diǎn)才能進(jìn)行注意力運(yùn)算,自注意力運(yùn)算時(shí)查詢本特征集合在動(dòng)態(tài)圖卷積過程中形成的圖結(jié)構(gòu),自注意力運(yùn)算時(shí)查詢另一特征集合的圖結(jié)構(gòu),避免無關(guān)特征影響特征融合的有效性。

        2.3? 圖相似性損失

        在動(dòng)態(tài)圖神經(jīng)網(wǎng)絡(luò)建立圖結(jié)構(gòu)的過程中,兩類特征集合根據(jù)不同的信息建立不同的關(guān)系網(wǎng)絡(luò),但實(shí)際上,兩套節(jié)點(diǎn)對(duì)應(yīng)的是現(xiàn)實(shí)中同一個(gè)物體集合,因此其產(chǎn)生的關(guān)系雖有差異,但穩(wěn)定后應(yīng)是互補(bǔ)而相似的。因此,為了使關(guān)系模塊更好地收斂,兩類特征有效地為同一目標(biāo)服務(wù),特在損失函數(shù)中添加圖相似性損失Graph Loss:

        其中,Asp表示空間特征建立圖結(jié)構(gòu)所對(duì)應(yīng)的鄰接矩陣,Ase表示語義特征建立圖結(jié)構(gòu)的鄰接矩陣。

        3? 實(shí)驗(yàn)與結(jié)果分析

        將關(guān)系模塊加入到經(jīng)典的旋轉(zhuǎn)目標(biāo)檢測(cè)算法ORCN[21]中后,我們將其在遙感圖像數(shù)據(jù)集DOTA(Dataset for Object Detection in Aerial Images)[1]上的表現(xiàn)與近年來常用的兩階段旋轉(zhuǎn)目標(biāo)檢測(cè)算法(RSDet-II[22]、Oriented RepPoints[23]、SCRDet++[24]、ORCN)進(jìn)行對(duì)比。經(jīng)多次實(shí)驗(yàn)探究,關(guān)系模塊中主要參數(shù)設(shè)定如下,模塊數(shù)量NM=3,特征維度DR=256,K近鄰中的K=4,多頭注意力的頭數(shù)量NH=4。為保證實(shí)驗(yàn)的有效性,表中所有算法都未單獨(dú)添加任何檢測(cè)中的通用trick,并且同在一張GeForce RTX 2080 Ti顯卡上,使用同樣的backbone(ResNet50)進(jìn)行訓(xùn)練,每類算法均取其在驗(yàn)證集上mAP最高的回合測(cè)試,最終結(jié)果如表1所示。加入關(guān)系挖掘模塊后的ORCN算法比原算法提高了1.53%的精度,并在一些集群出現(xiàn)(SV(Small Vehicle)、LV(Large Vehicle)、SH(Ship))或形狀突出(BR(bridge))的類別中有較好的提升效果。

        為探究模塊各部分的有效性,對(duì)動(dòng)態(tài)圖神經(jīng)網(wǎng)絡(luò)、交叉注意力、注意力mask與Graph Loss三部分進(jìn)行消融實(shí)驗(yàn),結(jié)果如表2所示??梢钥闯?,動(dòng)態(tài)圖神經(jīng)網(wǎng)絡(luò)有效地挖掘了物體間的語義特征與空間位置關(guān)系,精度提升效果較為明顯,而交叉注意力模塊使得語義特征和空間位置信息在計(jì)算過程中即時(shí)進(jìn)行共享交互,進(jìn)一步提升了其在DOTA數(shù)據(jù)集上的表現(xiàn),Mask和Graph Loss的引入對(duì)模型表現(xiàn)也有所提升,但更多地起到減少計(jì)算量、使訓(xùn)練過程快速收斂的作用。

        如圖4所示,(a)為ORCN算法檢測(cè)效果,(b)為添加關(guān)系模塊RMM后的效果圖??梢钥闯?,關(guān)系模塊的使用有效減少了檢測(cè)中出現(xiàn)的漏檢、誤檢、定位框偏移的情況,在目標(biāo)密集出現(xiàn)的情況下,加入關(guān)系模塊有更好的優(yōu)化表現(xiàn)。

        4? 結(jié)? 論

        本文對(duì)遙感場(chǎng)景下旋轉(zhuǎn)目標(biāo)檢測(cè)任務(wù)中的關(guān)系挖掘問題進(jìn)行了研究,對(duì)二階段檢測(cè)模型中候選區(qū)域的語義特征和空間信息進(jìn)行關(guān)系建模,從而增強(qiáng)候選區(qū)域的上下文特征,提高檢測(cè)精度。其中,動(dòng)態(tài)圖神經(jīng)網(wǎng)絡(luò)即時(shí)構(gòu)造圖結(jié)構(gòu),利用圖卷積操作進(jìn)行特征聚合;交叉注意力模塊使候選區(qū)域的空間信息和語義信息跨模態(tài)交互融合,注意力掩膜和圖相似性損失則能減少模型計(jì)算量并加速收斂,最終有效建模物體間的關(guān)系,豐富特征的上下文信息,獲得了優(yōu)于原方法的精度表現(xiàn)。在未來的工作中,需要進(jìn)一步降低關(guān)系模塊中的參數(shù)量,提高模型的速度表現(xiàn)。

        參考文獻(xiàn):

        [1] XIA G S,BAI X,DING J,et al. DOTA: A large-scale dataset for object detection in aerial images [J/OL].arXiv:1711.10398 [cs.CV].[2022-12-23].https://arxiv.org/abs/1711.10398v2 .

        [2] DING J,XUE N,LONG Y,et al. Learning RoI transformer for oriented object detection in aerial images [C]// 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach:IEEE:2019:2844-2853.

        [3] HAN J M,DING J,LI J,et al. Align deep features for oriented object detection [J/OL].arXiv:2008.09397 [cs.CV].[2022-12-25].https://arxiv.org/abs/2008.09397.

        [4] MA J,SHAO W,YE H,et al. Arbitrary-oriented scene text detection via rotation proposals [J].IEEE Transactions on Multimedia,2018,20(11):3111-3122.

        [5] YANG X,YAN J C,F(xiàn)ENG Z M,et al. R3det: Refined single-stage detector with feature refinement for rotating object [J/OL].arXiv:1908.05612 [cs.CV].[2022-12-16].https://arxiv.org/abs/1908.05612v6.

        [6] CHEN X L,Li L J,LI F F,et al. Iterative visual reasoning beyond convolutions [J/OL].arXiv:1803.11189 [cs.CV].[2022-12-23].https://arxiv.org/abs/1803.11189.

        [7] DAI B,ZHANG Y Q,LIN D H. Detecting Visual Relationships with Deep Relational Networks [J/OL].arXiv:1704.03114 [cs.CV].[2022-12-25].https://arxiv.org/abs/1704.03114v2.

        [8] AKATA Z,PERRONNIN F,HARCHAOUI Z,et al. Label-embedding for Attribute-Based Classification [C]//2013 IEEE Conference on Computer Vision and Pattern Recognition. Portland:IEEE,2013:819-826.

        [9] ALMAZáN J,GORDO A,F(xiàn)ORNéS A,et al. Word spotting and recognition with embedded attributes [J].IEEE transactions on pattern analysis and machine intelligence,2014,36(12):2552-2566.

        [10] LAMPERT C H,NICKISCH H,HARMELING S. Learning to detect unseen object classes by between-class attribute transfer [C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR).Miami:IEEE,2009:951-958.

        [11] MISRA I,GUPTA A,HEBERT M. From red wine to red tomato: Composition with context [C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu:IEEE,2017:1160-1169.

        [12] JIANG C H,XU H,LIANG X D,et al. Hybrid knowledge routed modules for large-scale object detection [J/OL].arXiv:1810.12681 [cs.CV].[2022-12-15].https://arxiv.org/abs/1810.12681.

        [13] LIU Y,WANG R P,SHAN S G,et al. Structure inference net: Object detection using scene-level context and instance-level relationships [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City:IEEE,2018:6985-6994.

        [14] CHEN X L,GUPTA A. Spatial memory for context reasoning in object detection [C]// 2017 IEEE International Conference on Computer Vision (ICCV). Venice:IEEE,2017:4106-4116.

        [15] HU H,GU J Y,ZHANG Z,et al. Relation networks for object detection [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City:IEEE,2018:3588-3597.

        [16] WANG X L,GIRSHICK R,GUPTA A,et al. Non-local neural networks [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City:IEEE,2018:7794-7803.

        [17] FU K,LI J,MA L,et al. Intrinsic relationship reasoning for small object detection [J/OL].arXiv:2009.00833 [cs.CV].[2022-12-18].https://arxiv.org/abs/2009.00833v1.

        [18] XU H,JIANG C H,LIANG X D,et al. Spatial-Aware Graph Relation Network for Large-Scale Object Detection [C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach:IEEE,2019:9290-9299.

        [19] ZHOU Z P,Li X C. Graph convolution: a high-order and adaptive approach [J/OL].arXiv:1706.09916v2 [cs.LG].[2022-12-10].https://arxiv.org/pdf/1706.09916v2.pdf.

        [20] LI G H,MULLER M,THABET A,et al. Deepgcns: Can gcns go as deep as cnns?[C]//HYPERLINK "https://ieeexplore.ieee.org/xpl/conhome/8972782/proceeding"2019 IEEE/CVF International Conference on Computer Vision (ICCV).Seoul:IEEE,2019:9266-9275.

        [21] XIE X X,CHENG G,WANG J B,et al. Oriented R-CNN for object detection [C]//2021 IEEE/CVF International Conference on Computer Vision (ICCV).Montreal:IEEE,2021:3500-3509.

        [22] QIAN W,YANG X,PENG S L,et al. RSDet++: Point-based modulated loss for more accurate rotated object detection [J].IEEE Transactions on Circuits and Systems for Video Technology,2022,32(11):7869-7879.

        [23] LI W T,CHEN Y J,HU K X,et al. Oriented reppoints for aerial object detection [C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New Orleans:IEEE,2022:1819-1828.

        [24] YANG X,YAN J C,LIAO W L,et al. Scrdet++: Detecting small, cluttered and rotated objects via instance-level feature denoising and rotation loss smoothing [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2023,45(2):2384-2399.

        作者簡(jiǎn)介:肖陽(1998—),男,漢族,遼寧鐵嶺人,碩士研究生在讀,研究方向:航空?qǐng)鼍跋滦∧繕?biāo)檢測(cè)算法;李煒(1990—),男,漢族,四川成都人,副研究員,博士,研究方向:視頻圖像處理技術(shù)、傳感器網(wǎng)絡(luò)技術(shù)、視頻網(wǎng)絡(luò)應(yīng)用技術(shù)。

        亚洲精品亚洲人成在线下载| 国产aⅴ无码专区亚洲av| 五月天国产成人av免费观看| 美丽的熟妇中文字幕| 久久久久久久妓女精品免费影院 | 亚洲国产成人极品综合| 成人爽a毛片免费网站中国| 国产精品亚洲av无人区一区香蕉| 亚洲看片lutube在线观看| 国产精品日韩高清在线蜜芽| 亚洲中文字幕在线爆乳| 极品少妇在线观看视频| 91精品国产综合久久久密臀九色| 免费观看18禁无遮挡真人网站| 国产精品熟女视频一区二区| 中日韩欧美在线观看| 国产av一区二区三区香蕉| 91自拍视频国产精品| 丰满人妻熟妇乱又伦精品软件| 亚洲 高清 成人 动漫| 成人国产在线观看高清不卡| 国产成版人性视频免费版| 亚洲高清中文字幕视频| 最近免费mv在线观看动漫| 伊人22综合| 免费看男女啪啪的视频网站| 亚洲乱码一区二区av高潮偷拍的| 中文无码伦av中文字幕| 内射交换多p国产| 日本岛国大片不卡人妻| 国产av一级片在线观看| 69sex久久精品国产麻豆| 国产爆乳无码一区二区在线| 精品国产3p一区二区三区| 亚洲国产精品久久久久久无码| 天美传媒精品1区2区3区| 国产成人综合亚洲av| 亚洲天堂久久午夜福利| 久久久久久曰本av免费免费| 精品国内自产拍在线视频| 国产精品视频白浆免费看|