亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)R-FCN的SAR圖像識(shí)別

        2022-04-07 12:10:26周曉玲張朝霞王琨琨
        關(guān)鍵詞:圖像識(shí)別殘差卷積

        周曉玲, 張朝霞, 魯 雅, 王 倩, 王琨琨

        (太原理工大學(xué)物理與光電工程學(xué)院, 山西 太原 030024)

        0 引 言

        合成孔徑雷達(dá)(synthetic aperture radar,SAR)成像是通過(guò)雷達(dá)與成像目標(biāo)之間相對(duì)位移產(chǎn)生等效的合成天線陣列,再通過(guò)發(fā)射端發(fā)射寬帶信號(hào)與合成陣列的相干獲取距離像和方位向的高分辨實(shí)現(xiàn)的成像技術(shù)。因其受到外界天氣的影響相對(duì)較小,還具有一定的地表穿透能力,所以在軍事領(lǐng)域、國(guó)土資源、農(nóng)林業(yè)、重大災(zāi)害等方面應(yīng)用廣泛。傳統(tǒng)的SAR圖像識(shí)別技術(shù)在數(shù)據(jù)量巨大且數(shù)據(jù)愈發(fā)復(fù)雜的情況下,會(huì)導(dǎo)致最終的識(shí)別精度和識(shí)別效率低下,而深度學(xué)習(xí)是通過(guò)將獲得的低層次特征進(jìn)行非線性組合,由此來(lái)得到數(shù)據(jù)的抽象表達(dá)。深度學(xué)習(xí)在圖像識(shí)別領(lǐng)域的成功,為其在SAR目標(biāo)識(shí)別方面的應(yīng)用提供了依據(jù)。

        在傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)的基礎(chǔ)上,Girshick等提出了一種基于區(qū)域特征提取的卷積神經(jīng)網(wǎng)絡(luò)(region CNN, R-CNN)模型用來(lái)實(shí)現(xiàn)目標(biāo)檢測(cè),R-CNN模型可以獲得比CNN更快的識(shí)別速度和更好的識(shí)別精度。但R-CNN網(wǎng)絡(luò)在提取大量候選區(qū)域時(shí)會(huì)占用很大磁盤空間以及巨大的計(jì)算浪費(fèi)。另外,由于傳統(tǒng)CNN需要輸入圖像為固定尺寸(227×227),所以會(huì)進(jìn)行歸一化處理,使圖像被截?cái)嗷蚶?導(dǎo)致圖像信息丟失。文獻(xiàn)[11]提出的快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Fast R-CNN)模型不需要進(jìn)行圖像預(yù)處理和生成候選區(qū)域,解決了R-CNN中圖像信息丟失、計(jì)算速度慢和占用存儲(chǔ)空間大的問(wèn)題。為了加快提取候選區(qū)域的速度,Ren等提出更快的區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Faster R-CNN)模型,用區(qū)域建議網(wǎng)絡(luò)(region proposal networks, RPN)來(lái)提取候選區(qū)域(region of interest, ROI),然后利用Fast R-CNN實(shí)現(xiàn)目標(biāo)檢測(cè)功能。由于RPN獲得建議區(qū)域只需要做一次完全卷積,能和整個(gè)檢測(cè)網(wǎng)絡(luò)共享全圖的卷積特征,減少了大量冗余數(shù)據(jù)的計(jì)算,加快了目標(biāo)檢測(cè)速度。同時(shí),Faster R-CNN還具有較高的檢測(cè)精度。Dai等提出一種基于區(qū)域特征的全卷積網(wǎng)絡(luò)(region-based fully convolutional networks, R-FCN),用于實(shí)現(xiàn)精確并且有效的目標(biāo)檢測(cè)。為解決圖像分類中平移不可變性與目標(biāo)檢測(cè)過(guò)程中平移方差的矛盾,提出了位置敏感得分圖。

        在數(shù)據(jù)集中數(shù)據(jù)較少的情況下,本文提出了將遷移學(xué)習(xí)應(yīng)用于改進(jìn)R-FCN中實(shí)現(xiàn)SAR圖像目標(biāo)識(shí)別的方法。

        1 SAR圖像數(shù)據(jù)集

        1.1 數(shù)據(jù)集介紹

        本文數(shù)據(jù)源于美國(guó)國(guó)防高級(jí)研究計(jì)劃局支持的MSTAR計(jì)劃所公布的實(shí)測(cè)SAR地面靜止目標(biāo)數(shù)據(jù)。與光學(xué)圖像識(shí)別不同,雷達(dá)圖像識(shí)別更加困難,SAR的分辨率遠(yuǎn)低于光學(xué)圖像。方位角的變化對(duì)SAR圖像識(shí)別的影響是巨大的,此外,不同背景下的SAR圖像對(duì)目標(biāo)識(shí)別會(huì)產(chǎn)生很大的影響。

        本文用于訓(xùn)練的數(shù)據(jù)集是雷達(dá)俯仰角為17°時(shí)所獲得的SAR圖像,用于測(cè)試的數(shù)據(jù)集是雷達(dá)俯仰角為15°時(shí)所獲得的SAR圖像。圖1是MSTAR數(shù)據(jù)集中坦克的光學(xué)圖像和SAR圖像。

        圖1 目標(biāo)圖像Fig.1 Target image

        對(duì)比可以看出這兩者之間存在很大的區(qū)別,光學(xué)圖像肉眼可區(qū)分出不同型號(hào)的戰(zhàn)車,而通過(guò)人眼觀察SAR圖像無(wú)法區(qū)分出戰(zhàn)車的不同型號(hào),因而需要借助于計(jì)算機(jī)來(lái)區(qū)分。實(shí)驗(yàn)采用的訓(xùn)練集和測(cè)試集中分別包含五種類別的戰(zhàn)車,分別為ZSU_23_4、ZIL131、2S1、T62、D7。每類中包含299個(gè)訓(xùn)練樣本和274個(gè)測(cè)試樣本。

        1.2 圖像數(shù)據(jù)集擴(kuò)展

        由于用于訓(xùn)練的數(shù)據(jù)集數(shù)量相對(duì)較少,使訓(xùn)練參數(shù)不能達(dá)到最優(yōu),不能得到很好的識(shí)別效果,需要通過(guò)圖像增強(qiáng)中的灰度變換對(duì)訓(xùn)練集數(shù)據(jù)進(jìn)行擴(kuò)充,本文利用了冪律變換、對(duì)數(shù)變換與Imadjust函數(shù),使原始訓(xùn)練集數(shù)據(jù)量擴(kuò)充到原來(lái)的4倍。其中,利用冪律變換得到的灰度圖像和原始圖像如圖2所示。

        圖2 灰度變換Fig.2 Gray scale transformation

        2 R-FCN結(jié)構(gòu)模型

        人們對(duì)于圖像檢測(cè)的速度和精度的需求在逐步提高,在Faster R-CNN的基礎(chǔ)上提出了R-FCN模型。R-FCN網(wǎng)絡(luò)的主體部分可以適應(yīng)不同的全卷積網(wǎng)絡(luò)架構(gòu),無(wú)論是ResNet101還是ResNet152都能滿足R-FCN的需求,從而提取出高質(zhì)量的圖像特征,本文采用ResNet101結(jié)構(gòu)。

        2.1 R-FCN網(wǎng)絡(luò)結(jié)構(gòu)

        R-FCN網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,包括了輸入層、100層卷積層、感興趣池化層以及千級(jí)全連接層。

        圖3 R-FCN網(wǎng)絡(luò)架構(gòu)圖Fig.3 R-FCN network architecture diagram

        R-FCN網(wǎng)絡(luò)結(jié)構(gòu)由完全共享、完全卷積的體系構(gòu)成,針對(duì)共享網(wǎng)絡(luò)檢測(cè)精度不佳的缺陷,加入了位置敏感得分圖,該部分負(fù)責(zé)對(duì)目標(biāo)進(jìn)行準(zhǔn)確識(shí)別。假設(shè)最終要完成類目標(biāo)的分類,對(duì)于一個(gè)待測(cè)物體,首先要對(duì)其ROI區(qū)域完成劃分,使其分為×個(gè)子網(wǎng)格,每一個(gè)子網(wǎng)格中包含了待測(cè)物體的不同部分。經(jīng)過(guò)各自對(duì)應(yīng)后,判斷每一個(gè)子網(wǎng)格內(nèi)是否含有對(duì)應(yīng)部分,如果符合要求,則識(shí)別成功屬于該類別,否則歸于其他類別。所以對(duì)于R-FCN來(lái)說(shuō),加上圖中背景共有+1類,每一類又要經(jīng)過(guò)次處理,所以需要(+1)個(gè)通道用來(lái)輸出。

        2.2 R-FCN工作原理

        R-FCN網(wǎng)絡(luò)在識(shí)別時(shí),首先由RPN提取出候選區(qū)域ROI,每一類ROI都有高、寬和橫、縱坐標(biāo)4個(gè)參數(shù),記為、、、。由于這些ROI都會(huì)被劃分為×個(gè)子網(wǎng)格,故每個(gè)子網(wǎng)格的尺寸為(×)。之后,在第101層卷積層引入位置敏感得分圖,將個(gè)子網(wǎng)格都與得分圖上的相應(yīng)區(qū)域進(jìn)行位置敏感的評(píng)比,可以通過(guò)平均池化實(shí)現(xiàn)。給定區(qū)域(0≤,≤-1),假設(shè)坐標(biāo)為(,)的子網(wǎng)格需要在得分圖上尋找坐標(biāo)同為(,)的位置完成池化操作,共進(jìn)行+1次。平均池化原理如下:

        (,|)=

        (1)

        式中:(,)是第個(gè)類別的第(,)個(gè)子網(wǎng)格中的匯集響應(yīng),所以一個(gè)ROI可以得到(+1)個(gè)分?jǐn)?shù)圖;bin(,)代表ROI中個(gè)分塊中第(,)個(gè)分塊對(duì)應(yīng)在特征圖中的位置集合,,,是第(,)個(gè)子網(wǎng)格為類的分?jǐn)?shù)值;+是ROI的左上角坐標(biāo);是子網(wǎng)格中的像素?cái)?shù);表示網(wǎng)絡(luò)所有可學(xué)習(xí)參數(shù)。第(,)個(gè)子網(wǎng)格的范圍如下:

        (2)

        (3)

        根據(jù)每一個(gè)子網(wǎng)格的得分圖進(jìn)行相應(yīng)的篩選,利用每一類ROI的平均分?jǐn)?shù)來(lái)完成目標(biāo)判別。每個(gè)ROI產(chǎn)生一個(gè)+1維的向量

        (4)

        計(jì)算跨類別的最大響應(yīng)如下:

        (5)

        式(5)用于評(píng)估訓(xùn)練過(guò)程中的交叉熵?fù)p失,隨后對(duì)不同的ROI進(jìn)行分類。

        由于每類ROI都有4個(gè)坐標(biāo),在計(jì)算出位置敏感得分后還需要對(duì)其完成回歸操作,故還需要4個(gè)卷積層用于包絡(luò)框回歸。對(duì)其進(jìn)行位置敏感池化,為每一類ROI都產(chǎn)生4個(gè)矢量,然后平均得分可以將其聚合成4維矢量。這個(gè)4維矢量會(huì)將包絡(luò)框參數(shù)化為=[,,,]。由于包絡(luò)框回歸后沒(méi)有別的層級(jí),所以網(wǎng)絡(luò)的運(yùn)算速度相應(yīng)加快。

        在試驗(yàn)中,R-FCN可以輕易完成端到端的訓(xùn)練,所以把損失函數(shù)定義為交叉熵和包絡(luò)框回歸的損失。在此過(guò)程中,若ROI的交并比(intersection-over-union, IOU)所代表的候選框與原標(biāo)記框的重疊程度大于05,則將其判定為本類列,否則為其他類別。

        3 基于改進(jìn)R-FCN的SAR圖像目標(biāo)識(shí)別

        3.1 改進(jìn)殘差網(wǎng)絡(luò)的R-FCN

        R-FCN的最初提出是對(duì)光學(xué)圖像的目標(biāo)檢測(cè),由于光學(xué)圖像的灰度變化平滑并且目標(biāo)特征明顯,因此R-FCN的特征提取網(wǎng)絡(luò)能夠有效提取目標(biāo)特征。SAR成像原理與光學(xué)成像原理不同,SAR圖像帶有很多相干斑噪聲,嚴(yán)重影響特征的提取。卷積核的大小決定著卷積神經(jīng)網(wǎng)絡(luò)最終輸出特征向量所包含的原圖特征信息量的多少。卷積核越大,所取得的特征圖的信息量越多。此外,卷積核越大越能夠有效抑制SAR圖像中的相干斑噪聲對(duì)識(shí)別結(jié)果的影響。

        殘差網(wǎng)絡(luò)中特殊的殘差塊可以極大提高目標(biāo)圖像分類的準(zhǔn)確率。圖4給出了本文中用到的殘差塊結(jié)構(gòu),其中殘差結(jié)構(gòu)是恒等映射和殘差映射()兩部分之和,ReLU為線性整流函數(shù)。

        圖4 殘差網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.4 Residual network structure diagram

        R-FCN的殘差網(wǎng)絡(luò)中每個(gè)殘差塊均包含著一個(gè)卷積核大小為3×3的卷積層,為了使特征圖包含的信息量越大,使用5×5的卷積層替換原來(lái)的3×3的卷積層,殘差網(wǎng)絡(luò)能夠有效提取出不同型號(hào)目標(biāo)之間的差異。

        3.2 改進(jìn)位置敏感區(qū)域池化層的R-FCN

        3.2.1 改進(jìn)的位置敏感區(qū)域池化層

        由于原始R-FCN網(wǎng)絡(luò)中的位置區(qū)域池化層具有一定的特殊性,原始R-FCN網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)適用于目標(biāo)檢測(cè)數(shù)據(jù)集PASCAL VOC,此數(shù)據(jù)集中目標(biāo)加背景一共有21類。位置敏感區(qū)域池化層(position-sensitive ROI pooling layer, PS ROI pooling)決定著R-FCN特征提取網(wǎng)絡(luò)的特征圖的個(gè)數(shù)。當(dāng)檢測(cè)目標(biāo)類別越多時(shí),網(wǎng)絡(luò)提取的特征圖個(gè)數(shù)越多,當(dāng)數(shù)據(jù)集中目標(biāo)加背景的類型遠(yuǎn)小于PASCAL VOC的類別時(shí),會(huì)導(dǎo)致R-FCN網(wǎng)絡(luò)畸形。

        為了得到更好的識(shí)別率,對(duì)位置敏感區(qū)域池化層作出了更適合小類數(shù)據(jù)集的改進(jìn)。首先通過(guò)RPN獲得位置敏感區(qū)域的位置,將其與特征圖結(jié)合生成位置敏感分?jǐn)?shù)圖,然后對(duì)位置敏感分?jǐn)?shù)圖做全局最大值池化,得到長(zhǎng)度為(+1)的特征向量,最后對(duì)特征向量做全連接操作并放入Softmax中進(jìn)行分類。將ROI pooling層改為ROI Align后采用雙線性內(nèi)插的方法獲得像素點(diǎn)上的圖像數(shù)值,從而使特征聚集過(guò)程連續(xù)操作。

        改進(jìn)的位置敏感區(qū)域池化層具體步驟:將大小為×的ROI分割成個(gè)矩形小方塊,其中寬為,高為,公式如下:

        (,|)=

        (6)

        式中:(,)表示ROI和位置敏感分?jǐn)?shù)圖的每個(gè)分塊位置,(,)的取值范圍為0≤≤-1, 0≤≤-1;(,│)為位置敏感分?jǐn)?shù)圖第個(gè)通道中個(gè)分塊中的第(,)個(gè)分塊;,,為特征圖中第通道的數(shù)據(jù),的取值范圍為0≤≤(+1);(,)表示ROI的左上角坐標(biāo);(,)表示ROI中以(,)為原點(diǎn)時(shí)每個(gè)元素的坐標(biāo)值,且(,)的取值范圍為×≤≤(+1)×,表示第(,)個(gè)塊里的像素總數(shù),且表示網(wǎng)絡(luò)參數(shù)。

        322 損失函數(shù)

        為了使改進(jìn)的R-FCN能夠準(zhǔn)確地識(shí)別SAR圖像型號(hào),需要依據(jù)最小化損失函數(shù)的原則訓(xùn)練卷積網(wǎng)絡(luò)模型。損失函數(shù)由分類損失函數(shù)和定位損失函數(shù)組成,公式如下:

        (7)

        式中:是調(diào)節(jié)系數(shù);是感興趣區(qū)域所屬的SAR圖像型號(hào)類別,分類損失函數(shù)由交叉熵函數(shù)表示,即

        (8)

        定義損失函數(shù)是Smooth L1損失函數(shù),即

        (9)

        其中,Smooth L1函數(shù)為

        (10)

        3.3 遷移學(xué)習(xí)的R-FCN

        遷移學(xué)習(xí)可以將學(xué)到的對(duì)圖像分類的理解分享到新模型中,神經(jīng)網(wǎng)絡(luò)從數(shù)據(jù)中獲取信息并將其換成相應(yīng)的權(quán)重。這些權(quán)重被提取出來(lái)遷移到其他神經(jīng)網(wǎng)絡(luò)中,加快并優(yōu)化了模型的收斂速度。

        在基于遷移學(xué)習(xí)的改進(jìn)R-FCN網(wǎng)絡(luò)的訓(xùn)練過(guò)程中,利用預(yù)訓(xùn)練模型進(jìn)行特征提取。去掉輸出層后將剩下的網(wǎng)絡(luò)當(dāng)做已經(jīng)訓(xùn)練好的特征提取機(jī)應(yīng)用到新的數(shù)據(jù)集中。這個(gè)過(guò)程中,需要對(duì)特定層進(jìn)行訓(xùn)練得到新的權(quán)重,凍結(jié)其他層保持其權(quán)重不變,因此加快了圖像識(shí)別的速度。

        4 SAR圖像目標(biāo)識(shí)別結(jié)果及分析

        4.1 Faster R-CNN模型實(shí)驗(yàn)結(jié)果及分析

        本節(jié)實(shí)驗(yàn)采用Faster R-CNN網(wǎng)絡(luò)對(duì)SAR圖像進(jìn)行識(shí)別分類。數(shù)據(jù)集上預(yù)訓(xùn)練VGG16模型用來(lái)提取網(wǎng)絡(luò)特征圖,學(xué)習(xí)率為0.002,動(dòng)量為0.9,權(quán)重衰減設(shè)置為0.000 5,最大迭代次數(shù)為45 000。

        通過(guò)訓(xùn)練集對(duì)Faster R-CNN模型進(jìn)行訓(xùn)練優(yōu)化后,利用測(cè)試集檢測(cè)該模型,得到識(shí)別結(jié)果,部分識(shí)別結(jié)果如圖5所示。在實(shí)驗(yàn)中每種類別分別進(jìn)行測(cè)試,若識(shí)別出的類別與目標(biāo)類別不一致,則認(rèn)為識(shí)別錯(cuò)誤,若沒(méi)有標(biāo)注出識(shí)別框,則認(rèn)為漏識(shí)別。各種類別的所有測(cè)試數(shù)據(jù)集,通過(guò)Faster R-CNN網(wǎng)絡(luò)模型對(duì)SAR圖像進(jìn)行目標(biāo)識(shí)別,得到的目標(biāo)識(shí)別率基本在80%以上,最高可達(dá)到95%,識(shí)別效果較好。

        圖5 Faster R-CNN模型識(shí)別目標(biāo)結(jié)果圖Fig.5 Target recognition results obtained by using the Faster R-CNN model

        4.2 R-FCN模型實(shí)驗(yàn)結(jié)果及分析

        本節(jié)實(shí)驗(yàn)采用R-FCN網(wǎng)絡(luò)對(duì)SAR圖像進(jìn)行識(shí)別分類。用同樣的數(shù)據(jù)集對(duì)R-FCN網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練與檢測(cè),為了與Faster R-CNN的識(shí)別結(jié)果進(jìn)行比較,實(shí)驗(yàn)中的參數(shù)設(shè)置與Faster R-CNN網(wǎng)絡(luò)的參數(shù)設(shè)置一致。實(shí)驗(yàn)得到的部分識(shí)別結(jié)果如圖6所示。利用訓(xùn)練集數(shù)據(jù)對(duì)原始R-FCN網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練及優(yōu)化,再將測(cè)試集數(shù)據(jù)應(yīng)用到優(yōu)化后的R-FCN網(wǎng)絡(luò)模型。結(jié)果顯示,R-FCN網(wǎng)絡(luò)模型對(duì)SAR圖像識(shí)別率基本在95%以上,最高可達(dá)到97%。識(shí)別結(jié)果與Faster R-CNN的識(shí)別結(jié)果相比較,識(shí)別率得到提高,說(shuō)明R-FCN對(duì)SAR圖像目標(biāo)識(shí)別方法較Faster R-CNN優(yōu)越。

        圖6 R-FCN模型識(shí)別目標(biāo)結(jié)果圖Fig.6 Target recognition results obtained by using the R-FCN model

        4.3 基于遷移學(xué)習(xí)的R-FCN的SAR圖像識(shí)別

        本節(jié)基于遷移學(xué)習(xí)的R-FCN網(wǎng)絡(luò)對(duì)SAR圖像識(shí)別分類,利用構(gòu)建好的數(shù)據(jù)集對(duì)訓(xùn)練好的模型進(jìn)行仿真實(shí)驗(yàn),得到識(shí)別結(jié)果如圖7所示。通過(guò)分析實(shí)驗(yàn)結(jié)果可看出,基于遷移學(xué)習(xí)的R-FCN網(wǎng)絡(luò)模型對(duì)SAR圖像的識(shí)別率均在98%以上,最高可達(dá)到99%,具有很好的識(shí)別結(jié)果。

        圖7 遷移學(xué)習(xí)的R-FCN模型識(shí)別目標(biāo)結(jié)果圖Fig.7 Target recognition results of R-FCN model based on transfer learning

        4.4 Faster R-CNN、R-FCN和改進(jìn)的R-FCN模型SAR圖像識(shí)別結(jié)果對(duì)比

        將文中提到的3種方法識(shí)別結(jié)果進(jìn)行統(tǒng)計(jì),得到的結(jié)果如表1所示。表1是在整體測(cè)試集中利用3種模型進(jìn)行測(cè)試,得到的圖像正確識(shí)別率、漏檢率和誤檢率。通過(guò)表1對(duì)比分析可得,在常用的目標(biāo)識(shí)別算法中,本文提出的基于遷移學(xué)習(xí)的R-FCN網(wǎng)絡(luò)模型對(duì)SAR圖像的識(shí)別率已經(jīng)超過(guò)傳統(tǒng)的識(shí)別算法,對(duì)R-FCN網(wǎng)絡(luò)中網(wǎng)絡(luò)結(jié)構(gòu)以及各層參數(shù)的優(yōu)化,使得R-FCN對(duì)SAR圖像的識(shí)別能夠得到更優(yōu)的結(jié)果。

        表1 3種算法檢測(cè)識(shí)別率、漏檢率及誤檢率的統(tǒng)計(jì)結(jié)果Table 1 Statistical results of detection and recognition rate, omission rate and error rate of the three algorithms %

        5 結(jié) 論

        本文主要研究基于深度學(xué)習(xí)的SAR圖像目標(biāo)識(shí)別算法,將深度學(xué)習(xí)中全卷積網(wǎng)絡(luò)框架應(yīng)用于SAR圖像識(shí)別中。首先通過(guò)圖像增強(qiáng)的方法對(duì)數(shù)據(jù)庫(kù)進(jìn)行擴(kuò)增,引入遷移學(xué)習(xí)方法訓(xùn)練改進(jìn)R-FCN模型實(shí)現(xiàn)對(duì)SAR圖像的識(shí)別。通過(guò)對(duì)實(shí)驗(yàn)結(jié)果對(duì)比分析,可以看出改進(jìn)后的R-FCN網(wǎng)絡(luò)模型的目標(biāo)識(shí)別率略大于原始的R-FCN模型的圖像識(shí)別率,同時(shí)也減少了訓(xùn)練需要的時(shí)間。所以當(dāng)數(shù)據(jù)集較小時(shí),本文所提方法很好地滿足了目標(biāo)識(shí)別的精度和效率。

        在本文的基礎(chǔ)上,還可以對(duì)R-FCN網(wǎng)絡(luò)作進(jìn)一步改進(jìn),除了將遷移學(xué)習(xí)運(yùn)用到R-FCN中,還可以改變殘差網(wǎng)絡(luò)的部分或者改變損失函數(shù)的參數(shù)值,進(jìn)而改善圖像識(shí)別的準(zhǔn)確性。由于現(xiàn)階段R-FCN網(wǎng)絡(luò)應(yīng)用于SAR圖像識(shí)別的研究相對(duì)較少,大多數(shù)還用于識(shí)別光學(xué)圖像,所以在這方面還需要更加深入的研究,希望能設(shè)計(jì)出更適用于SAR圖像識(shí)別并且識(shí)別率更高的算法。

        猜你喜歡
        圖像識(shí)別殘差卷積
        基于時(shí)域全卷積網(wǎng)絡(luò)的語(yǔ)音增強(qiáng)
        一種改進(jìn)的殘差χ2故障檢測(cè)算法
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        基于殘差學(xué)習(xí)的自適應(yīng)無(wú)人機(jī)目標(biāo)跟蹤算法
        基于Resnet-50的貓狗圖像識(shí)別
        電子制作(2019年16期)2019-09-27 09:34:50
        基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
        高速公路圖像識(shí)別技術(shù)應(yīng)用探討
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        圖像識(shí)別在物聯(lián)網(wǎng)上的應(yīng)用
        電子制作(2018年19期)2018-11-14 02:37:04
        圖像識(shí)別在水質(zhì)檢測(cè)中的應(yīng)用
        電子制作(2018年14期)2018-08-21 01:38:16
        亚洲va欧美va国产综合| 亚洲国产成人久久精品一区| 成人av片在线观看免费| 亚洲精品久久久久久久久久吃药| av无码天堂一区二区三区| 亚洲综合网在线观看首页| 香蕉久久夜色精品国产| 国产美女高潮流白浆视频| 十八禁视频在线观看免费无码无遮挡骂过 | 国产精品激情自拍视频| 桃花影院理论片在线| 国产精品久免费的黄网站| 99日本亚洲黄色三级高清网站| 中文字幕有码在线人妻| 性无码一区二区三区在线观看| 亚洲国产精品日韩av专区| 亚洲高潮喷水中文字幕| 色婷婷一区二区三区四| 久久精品亚洲熟女av蜜謦| 人妻无码一区二区视频| 国产精品视频流白浆免费视频| 国产喷白浆精品一区二区| 青青草成人免费在线观看视频| 欧美三级不卡在线观看| 久久国产36精品色熟妇| 无遮高潮国产免费观看韩国| 亚洲成人av一区免费看| 无遮挡18禁啪啪羞羞漫画| 又粗又大又黄又爽的免费视频| 亚洲a人片在线观看网址| 日本亚洲视频免费在线看| 无码专区亚洲综合另类| 亚洲av男人的天堂在线观看| 亚洲中字幕永久在线观看| 日本免费视频一区二区三区| 免费a级毛片无码a∨中文字幕下载| 亚洲国产高清在线观看视频| 国产一级黄色av影片| 蜜桃视频在线免费观看| 大陆极品少妇内射aaaaa| 久99久精品免费视频热77|