亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于通道注意力機(jī)制的小樣本SAR 飛機(jī)圖像分類方法

        2024-06-30 00:00:00趙一銘王佩瑾刁文輝孫顯鄧波

        摘要:合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)以其全天候、全天時(shí)、高分辨率、大幅寬的特點(diǎn),成為對(duì)地觀測(cè)的重要手段,圖像分類是SAR 圖像解譯的一個(gè)重要方向. 和光學(xué)圖像相比,SAR 圖像的成像機(jī)理較復(fù)雜,存在較多噪聲干擾,導(dǎo)致圖像清晰度較差、樣本標(biāo)注的難度大,無(wú)法保證深度學(xué)習(xí)算法對(duì)樣本量的需求,因此,對(duì)小樣本SAR 圖像進(jìn)行圖像分類成為當(dāng)前SAR 圖像解譯領(lǐng)域的重點(diǎn)研究問(wèn)題之一. 基于這一問(wèn)題展開(kāi)了基于元學(xué)習(xí)的SAR 圖像分類模型的研究,以實(shí)現(xiàn)小樣本條件下SAR 圖像的高精度識(shí)別. 構(gòu)建基于注意力機(jī)制的原型網(wǎng)分類方法,設(shè)計(jì)了通道注意力模塊來(lái)自動(dòng)獲取圖像特征的重要程度,促進(jìn)提取對(duì)圖像分類更有判別力的特征;同時(shí),對(duì)模型設(shè)計(jì)預(yù)訓(xùn)練網(wǎng)絡(luò),以充分利用已有數(shù)據(jù)的信息,學(xué)習(xí)更好的先驗(yàn)信息,提高分類的準(zhǔn)確率. 在自建的高分辨率SAR 圖像數(shù)據(jù)集上對(duì)該小樣本分類模型進(jìn)行了實(shí)驗(yàn). 消融實(shí)驗(yàn)表明,注意力模塊和預(yù)訓(xùn)練模塊對(duì)模型的性能均有一定的提升效果. 通過(guò)對(duì)比實(shí)驗(yàn),證明和當(dāng)前常用的小樣本學(xué)習(xí)方法相比,構(gòu)建的分類方法能在SAR 圖像分類中獲得較高的準(zhǔn)確率,在第一組實(shí)驗(yàn)的5?way 1?shot 實(shí)驗(yàn)中得到的分類精度提高了5. 9%,在5?way 5?shot 實(shí)驗(yàn)中提高了1. 92%.

        關(guān)鍵詞:SAR 圖像分類,元學(xué)習(xí),小樣本學(xué)習(xí),通道注意力模塊,預(yù)訓(xùn)練

        中圖分類號(hào):TP753 文獻(xiàn)標(biāo)志碼:A

        合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)以其全天時(shí)、全天候的成像模式和可以進(jìn)行大場(chǎng)景觀測(cè)的特性,在對(duì)地觀測(cè)領(lǐng)域進(jìn)行長(zhǎng)期、連續(xù)的監(jiān)測(cè)任務(wù)中具有重要作用[1-2]. 隨著雷達(dá)技術(shù)的發(fā)展,對(duì)SAR 圖像的自動(dòng)解譯技術(shù)得到了廣泛的關(guān)注,SAR 圖像分類是其中最重要的解譯技術(shù)之一.

        SAR 圖像分類任務(wù)是指對(duì)包含不同類別目標(biāo)的圖像切片進(jìn)行的型號(hào)識(shí)別. SAR 圖像能夠捕捉目標(biāo)的電磁散射特性,為其圖像分類提供獨(dú)特的信息. 傳統(tǒng)的SAR 圖像分類方法主要通過(guò)分類器和特征提取設(shè)計(jì)兩個(gè)方面對(duì)分類模型進(jìn)行優(yōu)化[3],近年來(lái),隨著深度卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展,以數(shù)據(jù)驅(qū)動(dòng)的深度學(xué)習(xí)方法因其強(qiáng)大的特征表達(dá)能力和自主學(xué)習(xí)能力極大地提高了SAR 圖像分類的性能[4-6].

        然而,SAR 圖像的成像機(jī)理較復(fù)雜,存在較多噪聲干擾,使圖像的清晰度較差,樣本標(biāo)注的難度大[7],難以獲得足夠樣本量的數(shù)據(jù)集. SAR 圖像分類任務(wù)面臨的數(shù)據(jù)匱乏的問(wèn)題,給深度學(xué)習(xí)技術(shù)下的小樣本SAR 圖像分類領(lǐng)域的發(fā)展帶來(lái)了挑戰(zhàn),而且這些方法也不具備對(duì)新目標(biāo)快速適應(yīng)的能力. 受人類小樣本學(xué)習(xí)能力的啟發(fā),近幾年小樣本學(xué)習(xí)[8]成為深度學(xué)習(xí)領(lǐng)域一個(gè)重要的前沿方向. 小樣本學(xué)習(xí)研究從少量樣本中進(jìn)行有效的學(xué)習(xí),對(duì)于減輕深度學(xué)習(xí)圖像分類方法對(duì)大量訓(xùn)練數(shù)據(jù)的依賴,減輕數(shù)據(jù)人工標(biāo)注的負(fù)擔(dān),擴(kuò)展已有深度學(xué)習(xí)算法的應(yīng)用場(chǎng)景有重要的意義.

        當(dāng)前的小樣本分類方法在遙感圖像解譯領(lǐng)域的發(fā)展基本可以分四類:數(shù)據(jù)擴(kuò)充[9]的方法、遷移學(xué)習(xí)方法[10]、度量學(xué)習(xí)方法[11]和元學(xué)習(xí)方法[12].這些方法不是相互獨(dú)立的,有很多研究結(jié)合了兩種或多種方法來(lái)設(shè)計(jì)小樣本學(xué)習(xí)算法. 擴(kuò)充樣本集是從數(shù)據(jù)的角度解決樣本缺失以及樣本圖像質(zhì)量較低問(wèn)題的一種簡(jiǎn)單而直接的方法,包括傳統(tǒng)的數(shù)據(jù)增強(qiáng)、自動(dòng)數(shù)據(jù)擴(kuò)充以及通過(guò)仿真軟件或生成模型合成新樣本等方法. 這些方法雖然可以在數(shù)據(jù)層面滿足深度學(xué)習(xí)算法的訓(xùn)練需求,但“數(shù)據(jù)擴(kuò)充+再訓(xùn)練”的雙階段模式在一定程度上會(huì)影響分類效率. 深度學(xué)習(xí)模型在大規(guī)模的數(shù)據(jù)集上訓(xùn)練可以學(xué)習(xí)到具有泛化性的先驗(yàn)知識(shí),遷移學(xué)習(xí)方法將這些知識(shí)遷移到小樣本數(shù)據(jù)集上,僅用少量的樣本也可獲取較好的性能. 遷移學(xué)習(xí)的思想在于要建立源域樣本和目標(biāo)域樣本之間的聯(lián)系,最大化地利用源域知識(shí)來(lái)解決目標(biāo)域上樣本不充足的問(wèn)題. Rostami et al[13]利用標(biāo)注充足的可見(jiàn)光數(shù)據(jù)作為源域數(shù)據(jù),將遷移學(xué)習(xí)技術(shù)用于目標(biāo)域SAR 圖像上的小樣本艦船識(shí)別任務(wù),提出的域間特征對(duì)齊約束模型可以學(xué)習(xí)光學(xué)圖像域、SAR 域所共用的特征表示. 許夙暉等[14]使用對(duì)抗學(xué)習(xí)機(jī)制進(jìn)行域不變特征的學(xué)習(xí),實(shí)現(xiàn)了小樣本下的遙感圖像場(chǎng)景分類. 度量學(xué)習(xí)方法的基本思想是根據(jù)樣本間的相似性度量來(lái)對(duì)測(cè)試樣本進(jìn)行分類,這類方法通過(guò)適宜的度量準(zhǔn)則去學(xué)習(xí)一個(gè)最優(yōu)的度量空間,使得具有不同類別的樣本特征在度量空間上的相似性更小,相同類別的樣本特征的相似性更高,進(jìn)而實(shí)現(xiàn)對(duì)新類別樣本的分類,其研究重點(diǎn)在于度量空間的學(xué)習(xí)和度量準(zhǔn)則的選取. Yang et al[15]提出基于度量學(xué)習(xí)的衛(wèi)星圖像分類方法,通過(guò)設(shè)計(jì)中心損失函數(shù)來(lái)增強(qiáng)同類樣本特征的相似性. Rao et al[16]提出一種可以自適應(yīng)調(diào)整距離度量準(zhǔn)則的遙感圖像地物要素分類器,提高了小樣本學(xué)習(xí)算法的自動(dòng)化程度.

        元學(xué)習(xí)方法通過(guò)大量的小樣本學(xué)習(xí)任務(wù)的迭代優(yōu)化進(jìn)行通用性的知識(shí)積累,在面對(duì)新任務(wù)和新類別樣本數(shù)據(jù)時(shí)可以快速進(jìn)行小樣本學(xué)習(xí),因此,其成為解決小樣本SAR 圖像分類問(wèn)題的一種有效途徑. 基于度量的元學(xué)習(xí)方法是將度量學(xué)習(xí)和元學(xué)習(xí)結(jié)合的一類算法. 例如,Vin?yals et al[17]提出基于episode 的小樣本學(xué)習(xí)機(jī)制,利用隨機(jī)采樣的批量小樣本學(xué)習(xí)任務(wù)作為訓(xùn)練單元進(jìn)行度量空間的學(xué)習(xí),有效提升了度量空間的泛化能力.OSCD 模型[18]利用元學(xué)習(xí)方法自動(dòng)學(xué)習(xí)相似性度量,實(shí)現(xiàn)對(duì)條件類目標(biāo)的檢測(cè). 基于優(yōu)化的元學(xué)習(xí)方法使用少量支持樣本對(duì)任務(wù)T 進(jìn)行微調(diào),并在幾個(gè)參數(shù)更新步驟內(nèi)使基礎(chǔ)學(xué)習(xí)器快速收斂到這些樣本. Fu et al[19]提出基于元學(xué)習(xí)的小樣本SAR 圖像分類算法,可以學(xué)習(xí)良好的初始化和更新策略;還采用難任務(wù)挖掘的方法,在元學(xué)習(xí)訓(xùn)練階段挖掘相對(duì)更難的任務(wù),提高元學(xué)習(xí)模型的泛化能力. 此外,元學(xué)習(xí)方法還包括基于記憶的元學(xué)習(xí)方法和基于數(shù)據(jù)擴(kuò)充的元學(xué)習(xí)方法.

        和通用圖像分類問(wèn)題相比,本文應(yīng)用的小樣本SAR 圖像分類問(wèn)題是對(duì)大類目標(biāo)下更細(xì)致的子類的分類,如汽車、樹(shù)木、輪船為大類,而200 種樹(shù)木中的每一種或50 種輪船中的每一種是子類,劃分子類更注重模型的特征提取能力. 如圖1 所示,和圖像大類相比,圖像子類類間的特征差別更小,而且,圖像清晰度、角度和背景干擾等因素使類內(nèi)的差異較大,因而,在同一種大類圖像的子類間進(jìn)行分類具有更大的難度. 對(duì)于這種SAR 圖像分類任務(wù),充分利用少量支持樣本的信息并從中尋找具有判別力的特征、提高分類準(zhǔn)確率是目前亟待解決的問(wèn)題.

        基于以上問(wèn)題,本文開(kāi)展基于元學(xué)習(xí)的SAR圖像分類模型的研究,實(shí)現(xiàn)小樣本條件下SAR 圖像的高精度識(shí)別. 受到Snell et al[20]的元學(xué)習(xí)方法的啟發(fā),本文構(gòu)建了基于注意力機(jī)制的原型網(wǎng)分類方法,通過(guò)引入通道注意力機(jī)制[21-22]來(lái)自動(dòng)獲取小樣本SAR 圖像特征的重要程度,根據(jù)該重要程度突出有用的特征,有助于網(wǎng)絡(luò)學(xué)習(xí)更有判別力的特征;同時(shí),對(duì)模型進(jìn)行預(yù)訓(xùn)練,充分利用已有數(shù)據(jù)的特征信息,提高元學(xué)習(xí)模型對(duì)訓(xùn)練類別中先驗(yàn)知識(shí)的學(xué)習(xí)能力,使模型可以快速收斂到一個(gè)新任務(wù). 在自建的小樣本SAR 圖像數(shù)據(jù)集上對(duì)該小樣本分類模型進(jìn)行了消融實(shí)驗(yàn)和對(duì)比實(shí)驗(yàn),驗(yàn)證了所提模型的性能.

        1 相關(guān)工作

        小樣本學(xué)習(xí)最早可追溯至2000 年,Miller etal[23]假設(shè)圖像數(shù)字化轉(zhuǎn)換的密度是共享的,并提出一種使測(cè)試數(shù)字圖像與特定類別的壓縮數(shù)字圖像相對(duì)應(yīng)的壓縮算法. 小樣本學(xué)習(xí)研究的發(fā)展過(guò)程大致可以分兩個(gè)階段,即非深度學(xué)習(xí)階段(2000-2015)和深度學(xué)習(xí)階段(2015 年至今),這兩個(gè)階段的分水嶺是2015 年Koch et al[24]首次將深度學(xué)習(xí)技術(shù)與小樣本學(xué)習(xí)問(wèn)題結(jié)合起來(lái),此前所有針對(duì)小樣本學(xué)習(xí)問(wèn)題的解決方案都是基于非深度學(xué)習(xí)方法或技術(shù). 特別地,早期著名的非深度小樣本學(xué)習(xí)方法大多建立在生成模型的基礎(chǔ)上,生成模型的思想是在非常少的可觀察到的訓(xùn)練樣本上,在給定監(jiān)督(例如一個(gè)類)的情況下估計(jì)聯(lián)合分布 P ( X,Y)或條件分布 P ( X |Y),然后使用貝葉斯決策對(duì)測(cè)試樣本進(jìn)行預(yù)測(cè).

        在基于生成模型的非深度小樣本學(xué)習(xí)方法中有幾個(gè)里程碑,如Miller et al[23]的凝聚算法,Li etal[25]的變分貝葉斯框架以及Lake et al[26]的貝葉斯程序?qū)W習(xí). 凝聚算法是最早研究從極少樣本中學(xué)習(xí)的工作,變分貝葉斯框架第一次明確提出了“單樣本學(xué)習(xí)”這一術(shù)語(yǔ),而貝葉斯程序?qū)W習(xí)借鑒人類對(duì)新概念認(rèn)知中的構(gòu)成性、因果關(guān)系和想象力,達(dá)到了人類水平的單字符分類性能.

        在非深度階段還有幾種基于判別模型的小樣本學(xué)習(xí)方法. 與基于生成模型的方法不同,基于判別模型的小樣本方法要求條件分布 P (Y | X ),該分布可以直接預(yù)測(cè)一個(gè)給定的觀察樣本的概率.

        隨著深度學(xué)習(xí)的蓬勃發(fā)展,小樣本學(xué)習(xí)的研究開(kāi)始從非深度模型轉(zhuǎn)向深度模型. 2015 年Koch et al[24]提出孿生卷積網(wǎng)絡(luò)來(lái)學(xué)習(xí)成對(duì)樣本的與類無(wú)關(guān)的相似性度量,率先將深度學(xué)習(xí)融入小樣本學(xué)習(xí)問(wèn)題的解決方案,這標(biāo)志著小樣本學(xué)習(xí)的一個(gè)新時(shí)期的開(kāi)始,即深度期.

        此后,小樣本學(xué)習(xí)方法充分利用深度神經(jīng)網(wǎng)絡(luò)在特征表示和端到端模型優(yōu)化方面的優(yōu)勢(shì),從數(shù)據(jù)增強(qiáng)、度量學(xué)習(xí)、元學(xué)習(xí)等不同角度解決小樣本學(xué)習(xí)問(wèn)題,將小樣本學(xué)習(xí)的研究推向了一個(gè)新的快速發(fā)展時(shí)期.

        盡管一些基于生成模型的方法在深度時(shí)期被提出,如神經(jīng)統(tǒng)計(jì)[27]以及用多個(gè)網(wǎng)絡(luò)層進(jìn)行線性堆疊的序貫生成模型[28],但基于判別模型的小樣本學(xué)習(xí)方法主導(dǎo)了小樣本學(xué)習(xí)研究的發(fā)展.

        近年來(lái)涌現(xiàn)了大量基于元學(xué)習(xí)的小樣本學(xué)習(xí)方法,主要包括五個(gè)方向:學(xué)會(huì)度量(Learn ?to ?Measure,L2M)、學(xué)會(huì)微調(diào)(Learn ? to ? Finetune,L2F)、學(xué)會(huì)參數(shù)化(Learn?to?Parameterize,L2P)、學(xué)會(huì)調(diào)整(Learn ? to ? Adjust,L2A)和學(xué)會(huì)記?。↙earn?to?Remember,L2R). 例如,Vinyals et al[17]提出的匹配網(wǎng)是第一個(gè)基于深度學(xué)習(xí)的L2M 方法,通過(guò)余弦相似度來(lái)預(yù)測(cè)查詢樣本的概率.Finn et al[29]提出的模型不可知元學(xué)習(xí)(MAML)以及Ravi and Larochelle[30]提出的元學(xué)習(xí)長(zhǎng)短期記憶網(wǎng)絡(luò)(Meta ?Learner LSTM)均屬于L2F 方法. L2F 使用少量支持樣本對(duì)任務(wù)T 進(jìn)行微調(diào),并在幾個(gè)參數(shù)更新步驟內(nèi)使基礎(chǔ)學(xué)習(xí)器快速收斂到這些樣本. MAML 通過(guò)跨任務(wù)訓(xùn)練策略為基礎(chǔ)學(xué)習(xí)器尋找一個(gè)較好的初始化參數(shù),通過(guò)平衡在多個(gè)任務(wù)上更新的基礎(chǔ)學(xué)習(xí)器參數(shù)的損失來(lái)優(yōu)化元學(xué)習(xí)器. Meta?Learner LSTM 是基于LSTM 的元學(xué)習(xí)器,將基礎(chǔ)學(xué)習(xí)器相對(duì)于每個(gè)支持樣本的損失和梯度作為輸入,將其隱藏狀態(tài)看作更新的基礎(chǔ)學(xué)習(xí)參數(shù)用于處理下一個(gè)支持樣本,即在少數(shù)支持樣本上對(duì)基礎(chǔ)學(xué)習(xí)器進(jìn)行微調(diào). Santoro"et al[31]提出的記憶增強(qiáng)神經(jīng)網(wǎng)絡(luò)(MANN)屬于L2R 方法,用記憶增強(qiáng)神經(jīng)圖靈機(jī)快速吸收支持樣本,然后在查詢樣本到達(dá)時(shí)檢索它們. L2R 的主要思想是將小樣本學(xué)習(xí)任務(wù)的支持集建模為序列,并將其表示為序列學(xué)習(xí)任務(wù),其中查詢樣本需要與先前看到的信息(即支持樣本)匹配. Munkh?dalai and Yu[32]提出的元網(wǎng)屬于L2A 方法,L2A 方法的核心思想是針對(duì)特定樣本自適應(yīng)調(diào)節(jié)基礎(chǔ)學(xué)習(xí)器中的計(jì)算流程或計(jì)算節(jié)點(diǎn),使該樣本與基礎(chǔ)學(xué)習(xí)器兼容. 元網(wǎng)在基礎(chǔ)學(xué)習(xí)器的每一層上都有一個(gè)快速加權(quán)層,每個(gè)快速加權(quán)層的權(quán)重由外部的元學(xué)習(xí)器根據(jù)輸入樣本生成,附屬分支層用于在前饋過(guò)程中調(diào)整輸入樣本的中間值. Li et al[33]提出的LGM?Nets 屬于L2P 方法,L2P 的思想是對(duì)一個(gè)新任務(wù)的基礎(chǔ)學(xué)習(xí)器或它的某些子部分進(jìn)行參數(shù)化來(lái)具體地解決這個(gè)任務(wù). LGM?Net 開(kāi)發(fā)了一個(gè)元網(wǎng)模塊(即元學(xué)習(xí)器),根據(jù)每個(gè)任務(wù)中的少量支持樣本生成目標(biāo)網(wǎng)的權(quán)值(即基礎(chǔ)學(xué)習(xí)器). 上述發(fā)展證明了元學(xué)習(xí)在小樣本學(xué)習(xí)方法中的有效性. 受此啟發(fā),本文方法結(jié)合通道注意力機(jī)制,使網(wǎng)絡(luò)自適應(yīng)學(xué)習(xí)輸入圖像不同通道的重要程度,提高模型對(duì)目標(biāo)特征的表達(dá)能力.

        2 本文方法

        2. 1 總體結(jié)構(gòu) 和光學(xué)圖像通用圖像分類任務(wù)相比,本文更關(guān)注在數(shù)據(jù)受限的SAR 圖像中對(duì)同類目標(biāo)不同型號(hào)的區(qū)分,因此設(shè)計(jì)了一種基于注意力機(jī)制的原型網(wǎng)模型,該模型能夠?qū)W習(xí)到更有判別性的局部特征. 其網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示.

        為了使模型在小樣本SAR 圖像中學(xué)習(xí)到更有效的先驗(yàn)知識(shí)并獲得更好的初始化參數(shù),本文提出的模型首先在數(shù)據(jù)集上進(jìn)行預(yù)訓(xùn)練,一定程度上提高了元學(xué)習(xí)模型對(duì)訓(xùn)練類別中先驗(yàn)知識(shí)的學(xué)習(xí)能力. 然后,在卷積神經(jīng)網(wǎng)絡(luò)中加入通道注意力模塊,通過(guò)參數(shù)學(xué)習(xí)來(lái)自動(dòng)獲取每個(gè)特征通道的重要程度,根據(jù)該重要程度為有用的特征賦予更大的權(quán)重,有助于網(wǎng)絡(luò)學(xué)習(xí)更有判別力的特征,提高SAR 圖像分類的準(zhǔn)確度,降低樣本數(shù)量較少的影響,提升SAR 圖像的分類性能.

        2. 2 任務(wù)定義 元學(xué)習(xí),又叫“學(xué)會(huì)學(xué)習(xí)”,即讓機(jī)器學(xué)會(huì)學(xué)習(xí). 不同于傳統(tǒng)機(jī)器學(xué)習(xí)從數(shù)據(jù)中學(xué)習(xí)規(guī)律,元學(xué)習(xí)在任務(wù)層次上進(jìn)行學(xué)習(xí),在不同任務(wù)中學(xué)習(xí)其中的一般性規(guī)律,利用已有知識(shí)來(lái)指導(dǎo)新任務(wù)的學(xué)習(xí),使機(jī)器具備學(xué)會(huì)學(xué)習(xí)的能力.

        手机av在线中文字幕| 国产91对白在线观看| 538在线视频| 国产性感午夜天堂av| 无码av中文一区二区三区桃花岛 | 国产精品无码a∨精品影院| 91免费播放日韩一区二天天综合福利电影| 强奷乱码中文字幕| 久久人人爽天天玩人人妻精品| 国产免费一级高清淫日本片| 亚洲国产精品午夜一区| 极品粉嫩小仙女高潮喷水操av| 少妇愉情理伦片高潮日本| 亚洲乱码日产精品bd在线观看 | 欧美破处在线观看| 国产精品高清国产三级国产av| 肥老熟妇伦子伦456视频| 99久久久无码国产精品试看| 日本专区一区二区三区| 亚洲精品大全中文字幕| 又紧又大又爽精品一区二区| 国产精品区一区第一页| 欧美zozo另类人禽交| 蜜桃av中文字幕在线观看| 亚洲精品少妇30p| 精品综合久久久久久97超人| 国产视频不卡在线| 精品人妻av一区二区三区四区| 日韩精品成人无码专区免费| 韩国三级中文字幕hd久久精品| 无遮挡粉嫩小泬| 精品久久综合日本久久综合网| 中文无码精品a∨在线观看不卡| 亚洲a∨天堂男人无码| 丰满人妻一区二区三区52| 国产亚洲精品久久久久久国模美| 人与禽交av在线播放| 亚洲AV无码AV色| 日本高清视频在线观看一区二区| 国产在线精品一区二区三区| 久久婷婷国产剧情内射白浆 |