亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向小樣本的遙感影像目標(biāo)識別技術(shù)

        2021-05-27 10:05:58張萌月陳金勇王港王敏帥通孫康
        河北工業(yè)科技 2021年2期
        關(guān)鍵詞:模式識別

        張萌月 陳金勇 王港 王敏 帥通 孫康

        摘 要:為了解決深度學(xué)習(xí)方法網(wǎng)絡(luò)模型在小樣本遙感圖像目標(biāo)識別場景下過擬合、性能急劇下降等問題,設(shè)計了基于度量學(xué)習(xí)的小樣本目標(biāo)識別方法RS-DN4。在度量模塊中選擇前k個具有代表性的特征進(jìn)行目標(biāo)相似度的計算;引入元學(xué)習(xí)中階段式訓(xùn)練理念,執(zhí)行上萬次任務(wù)級迭代訓(xùn)練;基于互聯(lián)網(wǎng)開源遙感影像數(shù)據(jù)集和自有遙感影像數(shù)據(jù)集,構(gòu)建了一套包含21類不同遙感目標(biāo)切片數(shù)據(jù)的多尺度、多分辨率的遙感影像數(shù)據(jù)集RSD-FSC,并據(jù)此進(jìn)行RS-DN4方法的實驗驗證。結(jié)果表明:針對新類小樣本目標(biāo),當(dāng)訓(xùn)練樣本分別只有1,5和10個時,平均識別準(zhǔn)確率可分別達(dá)到59.13%,82.55%和87.80%,相對于其他方法,RS-DN4在遙感圖像小樣本目標(biāo)識別中具有識別準(zhǔn)確率高、泛化能力強等優(yōu)勢。RS-DN4方法實現(xiàn)難度適中,在小樣本遙感目標(biāo)檢測識別領(lǐng)域的工程應(yīng)用場景中具有推廣應(yīng)用價值。

        關(guān)鍵詞:模式識別;小樣本;遙感目標(biāo)識別;度量學(xué)習(xí);階段式訓(xùn)練

        中圖分類號:TP75?? 文獻(xiàn)標(biāo)識碼:A

        DOI: 10.7535/hbgykj.2021yx02008

        Target recognition of few-shot remote sensing image

        ZHANG Mengyue1,2, CHEN Jinyong1,2, WANG Gang1,2, WANG Min1,2, SHUAI Tong1, SUN Kang1

        (1.The 54th Research Institution of CETC, Shijiazhuang, Hebei 050081, China; 2.CETC Key Laboratory of Aerospace Information Applications, Shijiazhuang, Hebei 050081, China)

        Abstract:In order to solve the problems of overfitting and drastic performance degradation of network models with deep learning methods in few-shot remote sensing image target recognition scenarios, the few-shot target recognition method RS-DN4 was designed based on metric learning. The top k representative features in the metric module were selected to calculate the similarity of the targets, and the concept of meta-learning method for episodic training was introduced to conduct thousands of task-level iterative training. In addition, based on the internet open source remote sensing image dataset and own remote sensing image dataset, a multi-scale and multi-resolution remote sensing image dataset RSD-FSC, which contained sliced data of 21 different classes of remote sensing targets, was constructed. On this basis, the? RS-DN4 method was verified by experiments. The results show that: for the new few-shot targets, the average recognition accuracy can reach 59.13%, 82.55% and 87.80% respectively when there are only one, five and ten training samples. Compared with other methods, RS-DN4 has the advantages of high recognition accuracy and strong generalization ability in few-shot target recognition of remote sensing images. The RS-DN4 method? is moderately difficult to implement and has the value to be promoted in engineering application scenarios in the field of few-shot remote sensing target detection and recognition.

        Keywords:pattern recognition; few-shot; remote sensing target recognition; metric learning; episodic training

        遙感技術(shù)的發(fā)展使得獲取高質(zhì)量遙感影像越來越便捷,通過智能解譯手段獲取其包含地物信息進(jìn)行遙感影像目標(biāo)識別,具有廣闊的應(yīng)用空間。基于深度學(xué)習(xí)的相關(guān)思想,研究人員提出了Faster R-CNN,YOLO,R-FCN和SSD等目標(biāo)檢測識別模型,通過海量標(biāo)注樣本的訓(xùn)練,其檢測識別效果可以達(dá)到甚至超過人工操作的水平。但是,在某些特定的遙感目標(biāo)識別應(yīng)用場景中,可獲得的標(biāo)注樣本數(shù)量十分有限,很難為上述方法提供豐富的訓(xùn)練樣本,導(dǎo)致其在模型訓(xùn)練過程中發(fā)生過擬合現(xiàn)象,目標(biāo)識別性能大幅下降。

        為了緩解“海量訓(xùn)練樣本的需求”和“有限標(biāo)注樣本的現(xiàn)實情況”之間的矛盾,研究人員在自然圖像目標(biāo)識別領(lǐng)域開展了小樣本學(xué)習(xí)(FSL,few-shot learning)研究,即針對某個任務(wù),通過十分有限的訓(xùn)練數(shù)據(jù)進(jìn)行模型訓(xùn)練,在測試數(shù)據(jù)集上獲得較高的檢測識別性能,其解決方法大致可分為樣本增廣和模型優(yōu)化訓(xùn)練兩大類。

        樣本增廣方法是通過數(shù)據(jù)生成手段生成新的樣本來豐富樣本數(shù)量,如生成對抗網(wǎng)絡(luò)(GANs, generative adversarial networks)可以通過生成網(wǎng)絡(luò)和判斷網(wǎng)絡(luò)的對抗訓(xùn)練,生成高度逼真的新樣本[1-2];RATNER等[3]基于水平翻轉(zhuǎn)、旋轉(zhuǎn)、縮放、添加高斯噪聲等幾何變化,自定義一個幾何變化的序列模型,實現(xiàn)對已有樣本的隨機幾何變化,完成樣本數(shù)量上的擴增并保證圖像中目標(biāo)不發(fā)生嚴(yán)重畸變;ALFASSY等[4]提出的LaSO(label-set operations networks)利用卷積神經(jīng)網(wǎng)絡(luò)提取幾幅圖像的特征,通過對特征進(jìn)行組合,如取交集、并集、差集等,獲得圖像中隱含目標(biāo)的特征,生成新的樣本。

        模型優(yōu)化訓(xùn)練方法可分為度量學(xué)習(xí)、遷移學(xué)習(xí)和元學(xué)習(xí)3類,如基于度量學(xué)習(xí)的原型網(wǎng)絡(luò)(prototype network),在訓(xùn)練樣本的特征空間里,計算每類目標(biāo)的平均特征表示作為該類目標(biāo)的特征原型,在新樣本的識別中,通過計算新樣本的特征向量和原型之間的距離,完成對新樣本中目標(biāo)的分類[5];陳立福等[6]基于遷移學(xué)習(xí)提出一種監(jiān)督式預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò),首先把數(shù)據(jù)集進(jìn)行劃分為含有大規(guī)模數(shù)據(jù)的源域數(shù)據(jù)集和含有小規(guī)模數(shù)據(jù)的目標(biāo)域數(shù)據(jù)集,在源域數(shù)據(jù)集中利用大規(guī)模數(shù)據(jù)預(yù)訓(xùn)練一個卷積網(wǎng)絡(luò),將其作為初始化模型遷移到目標(biāo)域中,利用小規(guī)模數(shù)據(jù)進(jìn)行優(yōu)化調(diào)整,提高了網(wǎng)絡(luò)的目標(biāo)識別精度以及收斂速度;JAMAL等[7]提出了TAML(task-agnostic meta-learning)方法,該方法在元學(xué)習(xí)的框架下,結(jié)合基于熵的優(yōu)化策略以及基于最小化不均衡性的優(yōu)化策略,有效緩解了元學(xué)習(xí)器在不同任務(wù)上性能不均衡的問題。

        上述小樣本目標(biāo)識別方法在自然圖像目標(biāo)識別領(lǐng)域取得了較好的效果,但在遙感目標(biāo)識別領(lǐng)域,由于成像方式的不同,遙感影像具有成像場景大、目標(biāo)出現(xiàn)頻率低、尺度效應(yīng)明顯、觀測角度差異大等特點,使得遙感影像小樣本目標(biāo)識別面臨如下挑戰(zhàn)。

        1)針對某些特定遙感目標(biāo)和特定場景,可獲得的樣本極其稀缺,即使通過樣本增廣方法仍然無法緩解小樣本難題。

        2)在遙感目標(biāo)識別領(lǐng)域,某些類型目標(biāo)樣本稀缺,且目標(biāo)特征類間差異小、類內(nèi)差異大,給分類識別帶來更大的困難。

        3)在某些樣本數(shù)量極其稀缺的場景,采用遷移學(xué)習(xí)方法時,由于過擬合問題,無法使源模型適應(yīng)到新類小樣本目標(biāo)識別應(yīng)用中。

        針對上述問題,本文構(gòu)建了用于小樣本目標(biāo)識別的遙感影像目標(biāo)切片數(shù)據(jù)集RSD-FSC(remote sensing dataset of few-shot classification),提出了小樣本遙感目標(biāo)識別算法模型RS-DN4(remote sensing deep nearest neighbor neural network),使用元學(xué)習(xí)中階段式訓(xùn)練的方法對模型進(jìn)行訓(xùn)練,實現(xiàn)小樣本場景下遙感目標(biāo)識別,取得了較好效果。

        1 小樣本遙感目標(biāo)識別

        基于DN4(deep nearest neighbor neural network)小樣本目標(biāo)識別網(wǎng)絡(luò),結(jié)合元學(xué)習(xí)中階段式訓(xùn)練方法,形成面向遙感應(yīng)用的小樣本目標(biāo)識別方法RS-DN4。

        1.1 骨干網(wǎng)絡(luò)

        DN4模型延續(xù)了度量學(xué)習(xí)的思想,即在某個特征映射空間中,同類目標(biāo)距離近,不同類目標(biāo)距離遠(yuǎn),以目標(biāo)之間的距離作為相似度,判斷目標(biāo)的類別屬性[8]。網(wǎng)絡(luò)基本結(jié)構(gòu)如圖1所示,主要由特征提取器和特征度量模塊2部分組成,分別實現(xiàn)樣本中目標(biāo)特征的提取和目標(biāo)之間相似度的度量。

        圖1中特征提取器為沒有全連接層的卷積神經(jīng)網(wǎng)絡(luò),用于提取圖像的局部特征向量。設(shè)輸入的樣本為X,特征提取器參數(shù)為θ的Ψθ,樣本經(jīng)過特征提取器后輸出特征圖Ψθ(X),包含n個d維的局部特征向量

        xi,其中n=h×w,h和w分別為特征向量圖的長和寬:

        Ψθ(X)=[x1,x2,…,xi,…,xn]∈Rd×n。(1)

        圖1中度量模塊以度量學(xué)習(xí)為基礎(chǔ),針對小樣本問題中類內(nèi)差異增大的問題,利用測試樣本和訓(xùn)練樣本集之間的相似度,代替其個體之間的相似度,作為測試樣本的識別依據(jù)。

        首先對訓(xùn)練樣本提取特征,構(gòu)成每類目標(biāo)的特征向量集:

        {[x1,x2,…,xi,…,xn]1,[x1,x2,…,xi,…,xn]2,[x1,x2,…,xi,…,xn]3,…}。(2)

        然后針對局部特征xi,從每類目標(biāo)的特征向量集中尋找相似的前k個局部特征向量{x^1i,x^2i,…,x^ki},計算xi和每個x^i之間的相似度,求和得到每個局部特征分量下測試樣本和訓(xùn)練樣本集之間的相似度Di:

        cos(xi,x^i)=xTix^i‖xi‖·‖x^i‖,Di(q,cm)=∑kj=1cos(xi,x^i)。(3)

        對每個局部特征都做式(2)中的計算,得到n個這樣的距離,求和作為測試樣本的特征和每類目標(biāo)特征向量集之間的距離D:

        D(q,cm)=∑ni=1Di(q,cm)。(4)

        式中cm代表第m類目標(biāo)的訓(xùn)練樣本集。通過最小化同類目標(biāo)之間的距離,最大化不同類目標(biāo)之間的距離,使模型實現(xiàn)目標(biāo)類型的識別。

        1.2 階段式訓(xùn)練

        階段式訓(xùn)練方法原理如圖2所示,將數(shù)據(jù)集劃分為基類目標(biāo)樣本集(輔助訓(xùn)練集)和新類目標(biāo)樣本集。通過在基類目標(biāo)樣本集上隨機采樣模擬小樣本目標(biāo)識別任務(wù),不斷重復(fù)學(xué)習(xí)如何解決小樣本目標(biāo)識別任務(wù),提高模型的模式學(xué)習(xí)能力,使模型在新類別小樣本集上能夠完成訓(xùn)練學(xué)習(xí)任務(wù),獲得對新類別目標(biāo)的識別能力。

        2 實驗驗證

        2.1 數(shù)據(jù)制備

        小樣本學(xué)習(xí)常用的數(shù)據(jù)集有miniImageNet,Standford Cars等,這些數(shù)據(jù)集的特點是目標(biāo)單一,背景簡單,有利于分類器學(xué)習(xí)目標(biāo)特征[9-10],而且均為自然圖像,與遙感影像差異較大,基于此,本文構(gòu)建了遙感影像典型目標(biāo)切片樣本庫,開展研究工作。

        基于遙感影像數(shù)據(jù)集DOTA[11],NWPU VHR-10[12-14],RSD-GOD[15]和自有數(shù)據(jù)集重新組織樣本類別。

        根據(jù)標(biāo)注文件提取目標(biāo)切片,人工清洗標(biāo)注錯誤的樣本,形成一套用于目標(biāo)識別的遙感影像目標(biāo)切片樣本集RSD-FSC(remote sensing dataset for few-shot classification),該數(shù)據(jù)集包含21類目標(biāo),分別為航空母艦、鉆井平臺、油罐、火車、島嶼、艦船、港口、停車場、大貨車、游泳池、橋梁、網(wǎng)球場、飛機、小汽車、直升機、交通環(huán)島、籃球場、田徑場、棒球場、足球場和機場,共13 944個目標(biāo)切片,其中航空母艦、鉆井平臺、停車場、直升機等目標(biāo),由于其客觀存在的數(shù)量較少,屬于典型的小樣本目標(biāo)類型。

        針對不同尺度的目標(biāo)獲取不同分辨率范圍的遙感影像切片,如港口、機場等大尺度目標(biāo)切片分辨率為10 m和20 m,飛機、直升機、油罐等小尺度目標(biāo)切片分辨率為0.6 m和0.3 m,停車場目標(biāo)切片分辨率為0.3~10 m,島嶼切片分辨率為1.2~2.0 m,鉆井平臺切片分辨率為0.3~2.4 m,橋梁切片的分辨率為1.2 ~10 m。針對同一種目標(biāo),包含了從幾像素到幾百像素的不同尺度的切片樣本。樣本切片示意圖如圖3所示,數(shù)量分布如表1所示。RSD-FSC數(shù)據(jù)集的多尺度、多分辨率特性可增強模型的魯棒性和尺度適應(yīng)性,同時具備類間差異小、類內(nèi)差異大等遙感影像目標(biāo)特性,具備更高的小樣本目標(biāo)識別難度。

        2.2 實驗設(shè)計

        1)RS-DN4實驗設(shè)置

        采用DN4模型為骨干網(wǎng)絡(luò),為緩解小樣本下深度網(wǎng)絡(luò)過擬合問題,使用網(wǎng)絡(luò)深度為50層的ResNet_v2_50[16]做特征提取器,采用階段式訓(xùn)練方法進(jìn)行小樣本遙感目標(biāo)識別實驗。具體仿真實驗環(huán)境:Linux系統(tǒng),Python3.7.2,torch0.4.1深度學(xué)習(xí)開源庫。

        基于RSD-FSC數(shù)據(jù)集分別進(jìn)行5-way 1-shot,5-way 5-shot和5-way 10-shot小樣本遙感目標(biāo)識別實驗。在階段式訓(xùn)練階段,基類目標(biāo)類別數(shù)量越多,采樣形成的小樣本目標(biāo)識別任務(wù)越具有多樣性,訓(xùn)練得到的模型泛化能力越強,因此本文隨機選取5類目標(biāo)作為新類目標(biāo),分別是鉆井平臺、直升機、橋梁、停車場和艦船,其余16類目標(biāo)均作為基類目標(biāo)。

        以5-way 1-shot實驗為例,在階段式訓(xùn)練階段,首先從16類基類目標(biāo)樣本集中隨機抽取5類目標(biāo),每類目標(biāo)隨機抽取1個訓(xùn)練樣本,10個測試樣本,構(gòu)成1個5-way 1-shot小樣本目標(biāo)識別任務(wù),采樣形成30 000次這樣的任務(wù),進(jìn)行模型的迭代訓(xùn)練,并按照式(5)更新模型參數(shù)θ。

        在測試階段,從每類新類目標(biāo)中隨機抽取1個訓(xùn)練樣本,10個測試樣本,模型學(xué)習(xí)訓(xùn)練樣本后,對測試樣本進(jìn)行識別,并統(tǒng)計測試樣本識別結(jié)果,計算平均目標(biāo)識別準(zhǔn)確率pprecision,即正確識別的目標(biāo)個數(shù)與所有目標(biāo)個數(shù)之比,nTP代表正確識別的目標(biāo)個數(shù),nFP代表錯誤識別的目標(biāo)個數(shù):

        pprecision=nTPnTP+nFP。(5)

        2)對比實驗設(shè)置

        采用2種小樣本目標(biāo)識別方法進(jìn)行對比實驗,分別是原型網(wǎng)絡(luò)[5]和匹配網(wǎng)絡(luò)[9],在2種對比方法的特征提取部分同樣使用ResNet_v2_50。分別對原型網(wǎng)絡(luò)和匹配網(wǎng)絡(luò)進(jìn)行5-way 1-shot,5-way 5-shot和5-way 10-shot小樣本遙感目標(biāo)識別實驗,數(shù)據(jù)集劃分方法、模型訓(xùn)練方式以及迭代次數(shù)與RS-DN4實驗設(shè)置一致。對比實驗用于檢驗RS-DN4中相似度度量方法的有效性,以及相比于其他小樣本目標(biāo)識別算法具有的優(yōu)越性。

        針對階段式訓(xùn)練方法的有效性,使用原始的訓(xùn)練方法對骨干網(wǎng)絡(luò)進(jìn)行訓(xùn)練,即分別使用1,5和10個訓(xùn)練樣本對模型進(jìn)行訓(xùn)練,迭代次數(shù)為30 000次。

        2.3 實驗結(jié)果

        對RS-DN4在5-way 5-shot小樣本遙感目標(biāo)識別實驗訓(xùn)練過程中的Loss值進(jìn)行記錄,如圖4所示,可以看到當(dāng)?shù)螖?shù)達(dá)到15 000時,Loss值開始趨于收斂,在0.5上下振蕩,當(dāng)?shù)螖?shù)達(dá)到30 000時,Loss值更加穩(wěn)定,此時模型可以穩(wěn)定地達(dá)到較優(yōu)的目標(biāo)識別效果。

        本方法在新類目標(biāo)只有1,5和10個訓(xùn)練樣本時,平均識別準(zhǔn)確率分別為59.13%,82.55%和87.80%,相較于原型網(wǎng)絡(luò),平均識別準(zhǔn)確率分別提高了7.51%,15.23%,16.62%,相較于匹配網(wǎng)絡(luò),平均識別準(zhǔn)確率分別提高了10.79%,21.20%和18.71%,均取得較高優(yōu)勢。典型遙感目標(biāo)識別平均準(zhǔn)確率如表2所示。經(jīng)分析認(rèn)為本文方法具有絕對優(yōu)勢的原因如下。

        1)在原型網(wǎng)絡(luò)的度量模塊中,對各類目標(biāo)訓(xùn)練樣本的特征向量求平均值作為特征原型,計算測試樣本和特征原型之間的相似度。但求平均的方法只能得到平均化的特征,而具有差異性的代表特征被丟失了[17]。因此,本方法在度量模塊計算相似度時,選擇前k個具有代表性的特征作為相似度計算的參考量,保留了具有差異性的代表特征。

        2)在目標(biāo)識別應(yīng)用中,特征提取器對圖像提取特征后,通常會使用全連接層等網(wǎng)絡(luò)結(jié)構(gòu)把局部特征量化成圖像級的特征向量。然而,由于量化過程中存在計算誤差,會使最終的圖像級特征向量丟失掉許多重要的局部信息,當(dāng)樣本數(shù)量充足時,這一損失可能會被彌補,但是在小樣本場景下,這個損失使目標(biāo)識別性能嚴(yán)重下降[8]。因此,本文方法中的特征提取器沒有全連接層結(jié)構(gòu),提取圖像的局部特征用于相似度計算時特征表示能力更強。

        骨干網(wǎng)絡(luò)平均識別準(zhǔn)確率如表3所示,當(dāng)不使用階段式訓(xùn)練方法訓(xùn)練模型,而使用傳統(tǒng)方法訓(xùn)練模型時,本文方法中的骨干網(wǎng)絡(luò)在訓(xùn)練樣本分別只有1,5和10個時,平均識別準(zhǔn)確率分別為26.70%,20.00%和5.00%,與使用階段式訓(xùn)練方法訓(xùn)練的模型相比,目標(biāo)識別準(zhǔn)確率大幅下降。經(jīng)分析認(rèn)為,階段式訓(xùn)練方法可以有效緩解小樣本帶來的過擬合問題,且通過在輔助訓(xùn)練集上的階段式訓(xùn)練之后,骨干網(wǎng)絡(luò)在新類小樣本目標(biāo)識別問題上具有泛化能力。

        此外,對識別結(jié)果分析發(fā)現(xiàn),鉆井平臺和油罐、火車和橋梁、直升機和飛機等較為相似的目標(biāo)在原型網(wǎng)絡(luò)和匹配網(wǎng)絡(luò)的目標(biāo)識別過程中容易發(fā)生混淆。如圖5中的鉆井平臺形狀和維修中的艦船紋理相似,對比方法會將這種形態(tài)的鉆井平臺誤識別為艦船,而本文方法通過度量學(xué)習(xí)和階段式學(xué)習(xí),有效地約束了目標(biāo)類內(nèi)、類間距離,提高了小樣本目標(biāo)識別準(zhǔn)確率。

        3 結(jié) 論

        針對遙感影像目標(biāo)識別中,某些目標(biāo)類別樣本少、難以支持大數(shù)據(jù)訓(xùn)練的難題,提出了以DN4模型為基礎(chǔ)的小樣本遙感目標(biāo)識別方法RS-DN4;構(gòu)建了用于小樣本目標(biāo)識別的遙感影像目標(biāo)切片樣本庫RSD-FSC;設(shè)計了基于度量學(xué)習(xí)的小樣本遙感目標(biāo)識別網(wǎng)絡(luò)模型,用于提取各類目標(biāo)的代表性特征并區(qū)分各類目標(biāo);采用元學(xué)習(xí)中階段式訓(xùn)練的方法,使模型具有泛化能力,在面對新類小樣本遙感目標(biāo)時,可以通過少量支撐樣本實現(xiàn)目標(biāo)識別。實驗結(jié)果表明,本文方法在小樣本場景下,當(dāng)訓(xùn)練樣本分別只有1,5和10個時,平均識別準(zhǔn)確率可分別達(dá)到59.13%,82.55%和87.80%,相對于其他典型方法,具有較好的小樣本遙感目標(biāo)識別能力。

        本文實驗只選擇了5類目標(biāo)作為新類目標(biāo),未能完全體現(xiàn)實驗的隨機性,且在實際應(yīng)用中目標(biāo)的檢測識別具有更廣泛的應(yīng)用意義,因此在未來的研究中將針對此問題多次隨機抽選新類目標(biāo)進(jìn)行實驗,并開展小樣本遙感目標(biāo)檢測識別技術(shù)的研究。

        參考文獻(xiàn)/References:

        [1]? GOODFELLOW I, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[C]//Proceedings of the 27th? International Conference on Neural? Information Processing Systems.[S.l.]:[s.n.], 2014: 2672-2680.

        [2] MAO Xudong, LI Qing, XIE Haoran, et al. Least squares generative adversarial networks[C]//2017 IEEE International Conference on Computer Vision(ICCV). Venice: IEEE, 2017: 2794-2802.

        [3] RATNER A J, EHRENBERG H R, HUSSAIN Z, et al. Learning to compose domain-specific transformations for data augmentation[C]//Proceedings of the 31st? International Conference on Neural Information Processing Systems. [S.l.]:[s.n.], 2017: 3239-3249.

        [4] ALFASSY A, KARLINSKY L, AIDES A, et al. Laso: Label-set operations networks for multi-label few-shot learning[C]//2019? IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR). Long Beach: IEEE,2019.DOI:10.1109/CVPR.2019.00671.

        [5] SNELL J, SWERSKY K, ZEMEL R. Prototypical networks for few-shot learning[C]//Proceedings of the 31st? International Conference on Neural Information Processing Systems. [S.l.]:[s.n.], 2017: 4080-4090.

        [6] 陳立福, 武鴻, 崔先亮, 等. 基于遷移學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò) SAR 圖像目標(biāo)識別[J]. 中國空間科學(xué)技術(shù), 2018, 38(6): 45-51.

        CHEN Lifu, WU Hong, CUI Xianliang, et al. Convolution neural network SAR image target recognition based on transfer learning[J]. Chinese Space Science and Technology, 2018, 38(6): 45-51.

        [7] JAMAL M A, QI G J. Task agnostic meta-learning for few-shot learning[C]// 2019? IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR). Long Beach: IEEE, 2019. DOI:10.1109/CVPR.2019.01199.

        [8] LI Wenbin, WANG Lei, XU Jinglin, et al. Revisiting local descriptor based image-to-class measure for few-shot learning[C]// 2019? IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR). Long Beach: IEEE, 2019. DOI:10.1109/CVPR.2019.00743.

        [9] VINYALS O, BLUNDELL C, LILLICRAP T, et al. Matching networks for one shot learning[C]// Proceedings of the 30th? International Conference on Neural Information Processing Systems. [S.l.]:[s.n.], 2016: 3637-3645.

        [10]KRAUSE J, STARK M, DENG J, et al. 3D object representations for fine-grained categorization[C]//Proceedings of the 2013 IEEE International Conference on Computer Vision Workshops. [S.l.]:[s.n.], 2013: 554-561.

        [11] XIA Guisong, BAI Xiang, DING Jian, et al. DOTA: A large-scale dataset for object detection in aerial images[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 3974-3983.

        [12] CHENG Gong, HAN Junwei, ZHOU Peicheng, et al. Multi-class geospatial object detection and geographic image classification based on collection of part detectors[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2014, 98: 119-132.

        [13] CHENG Gong, HAN Junwei. A survey on object detection in optical remote sensing images[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2016, 117: 11-28.

        [14] CHENG Gong, ZHOU Peicheng, HAN Junwei. Learning rotation-invariant convolutional neural networks for object detection in VHR optical remote sensing images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(12): 7405-7415.

        [15]ZHUANG Shuo, WANG Ping, JIANG Boran, et al. A single shot framework with multi-scale feature fusion for geospatial object detection[J]. Remote Sensing, 2019, 11(5).DOI: 10.3390/rs.11050594.

        [16]HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Identity mappings in deep residual networks[C]//European Conference on Computer Vision. [S.l.]:[s.n.], 2016: 630-645.

        [17] WANG Yaqing, YAO Quanming, KWOK J T, et al. Generalizing from a few examples: A survey on few-shot learning[J]. ACM Computing Surveys, 2020, 53(3): 1-34.

        收稿日期:2020-11-26;修回日期:2021-02-07;責(zé)任編輯:陳書欣

        基金項目:中國電子科技集團公司航天信息應(yīng)用技術(shù)重點實驗室開放基金(SXX19629X060)

        第一作者簡介:張萌月(1996—),女,河北邯鄲人,碩士研究生,主要從事遙感圖像處理方面的研究。

        通訊作者:陳金勇研究員。 E-mail: 13001899119@163.com

        張萌月,陳金勇,王港,等. 面向小樣本的遙感影像目標(biāo)識別技術(shù)[J].河北工業(yè)科技,2021,38(2):116-122.

        ZHANG Mengyue, CHEN Jinyong, WANG Gang, et al. Target recognition of few-shot remote sensing image[J]. Hebei Journal of Industrial Science and Technology, 2021,38(2):116-122.

        猜你喜歡
        模式識別
        紫地榆HPLC指紋圖譜建立及模式識別
        中成藥(2018年2期)2018-05-09 07:19:52
        2019 IEEE計算機視覺與模式識別會議
        UPLC-MS/MS法結(jié)合模式識別同時測定芪參益氣滴丸中11種成分
        中成藥(2017年10期)2017-11-16 00:50:05
        淺談模式識別在圖像識別中的應(yīng)用
        電子測試(2017年23期)2017-04-04 05:06:50
        第四屆亞洲模式識別會議
        基于可拓模式識別的孤島檢測研究
        電測與儀表(2016年6期)2016-04-11 12:07:48
        可拓模式識別算法中經(jīng)典域的確定方法
        第3屆亞洲模式識別會議
        基于LLE降維和BP_Adaboost分類器的GIS局部放電模式識別
        電氣設(shè)備的故障診斷與模式識別
        河南科技(2014年5期)2014-02-27 14:08:35
        久久久久亚洲av无码a片软件| 国产喷水1区2区3区咪咪爱av| 337p人体粉嫩胞高清视频| 欧洲熟妇色 欧美| 51久久国产露脸精品国产| 日本a级特黄特黄刺激大片| 色老头久久综合网老妇女| 久久中文字幕无码专区| 永久免费不卡在线观看黄网站| 手机看片福利日韩| 加勒比日本东京热1区| 黄色av三级在线免费观看| 久久精品一区二区三区夜夜| 人妻少妇偷人精品一区二区| 国产一区二区三区激情视频| 久久成人成狠狠爱综合网| 大屁股人妻女教师撅着屁股| 海角国精产品一区一区三区糖心| 亚洲日韩精品久久久久久| 久久91精品国产91久久麻豆| 东京热日本道免费高清| 中文字幕一区二区三区日日骚| 国产成人久久精品一区二区三区| 国产av一区二区精品凹凸| 开心五月激情综合婷婷色| 成人无码区免费a片www| 午夜在线观看有码无码| 国产喷白浆精品一区二区豆腐| 国产护士一区二区三区| 男女性爽大片视频| 色一情一乱一乱一区99av| 国产免费久久精品国产传媒| 久久亚洲国产欧洲精品一| 最近中文字幕一区二区三区| 国产精品人妻熟女男人的天堂 | 绝顶高潮合集videos| 国产肉体xxxx裸体137大胆| 国产av一区二区精品久久凹凸| 国产午夜精品一区二区三区视频| 国产在线AⅤ精品性色| 国产av午夜精品一区二区入口|