亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度形狀先驗的高分辨率SAR飛機目標重建

        2017-11-27 08:42:12竇方正刁文輝
        雷達學報 2017年5期
        關鍵詞:玻爾茲曼先驗形狀

        竇方正 刁文輝 孫 顯 張 躍 付 琨

        ①(中國科學院電子學研究所 北京 100190)

        ②(中國科學院大學 北京 100190)

        基于深度形狀先驗的高分辨率SAR飛機目標重建

        竇方正*①②刁文輝①孫 顯①張 躍①付 琨①

        ①(中國科學院電子學研究所 北京 100190)

        ②(中國科學院大學 北京 100190)

        目標重建是合成孔徑雷達圖像分析中的重要研究內容。該文提出了一種新的基于深度形狀先驗的高分辨率合成孔徑雷達圖像飛機目標重建方法。該方法分為兩個階段,在形狀先驗建模階段,利用產(chǎn)生式的深度玻爾茲曼機模型進行深度形狀先驗建模;在目標重建階段,提出了一種新的目標重建框架,該框架將深度形狀先驗作為約束融入重建過程中。為了解決目標旋轉問題,該文提出了一種新的姿態(tài)估計方法獲取目標的候選姿態(tài),避免了姿態(tài)的窮舉搜索。除此之外,該文構造了融合散射區(qū)域項和形狀先驗項的能量函數(shù),并利用迭代優(yōu)化算法進行函數(shù)優(yōu)化,從而獲取目標重建結果。該文提出的方法框架是首次利用深度形狀先驗在高分辨率合成孔徑雷達圖像中實現(xiàn)復雜目標的重建。在TerraSAR-X數(shù)據(jù)集上的實驗結果表明,該文提出的方法具有較高的重建精度和魯棒性。

        合成孔徑雷達;目標重建;形狀先驗;深度玻爾茲曼機

        1 引言

        目標重建是合成孔徑雷達(Synthetic Aperture Radar, SAR)[1]圖像解譯的重要應用之一,該應用能夠獲取目標的姿態(tài)、尺寸、輪廓等信息。這些信息能夠用在圖像解譯的其他應用中,如目標檢測、目標識別,從而提高目標解譯精度,因此目標重建具有重要的研究意義。

        然而,在SAR圖像中,目標表現(xiàn)為一些強散射點,因此可以利用的信息和特征有限。我們難以像光學目標解譯一樣利用目標的紋理和輪廓等傳統(tǒng)特征信息實現(xiàn)計算機輔助SAR目標解譯。研究表明,人類在SAR圖像目標解譯的過程中通常會借助于先驗知識。因此,合理地利用先驗信息對于計算機輔助SAR圖像目標解譯是至關重要的。

        其中,如何將先驗知識表達為合理的數(shù)學表示是亟需解決的難題。研究人員利用的先驗信息主要包括強散射點的分布規(guī)律,強散射點的強度分布規(guī)律,目標形狀信息等。在此基礎上,Chen等人[2]提出了一種基于關鍵點檢測和特征匹配策略的SAR飛機目標識別方法,該方法將強散射點視為一種關鍵點特征,然后利用強散射點的分布信息使用模板匹配策略進行目標識別。Chang和Tang等人[3,4]通過SAR圖像仿真,研究SAR散射特征規(guī)律,從而實現(xiàn)SAR圖像目標識別。這些方法雖然取得了一定的成果,但SAR圖像中的散射點信息會隨著成像條件和參數(shù)等信息的變化而變化,并且僅利用散射點難以獲得魯棒的結果。Zhang等人[5]提出了一種自上而下的SAR圖像房屋目標重建的方法,該方法成功地將房屋屋頂形狀先驗融入到目標重建模型中,獲得了很好的實驗結果。在SAR圖像中,我們可以利用強散射點和目標形狀對目標進行重建,與單純利用散射點相比,這類方法的解譯魯棒性較高。然而,對于房屋屋頂這類形狀較為簡單的目標,我們可以用較為簡單的數(shù)學模型進行表達,但是對于飛機這類結構較為復雜的目標,形狀先驗建模較為困難。在SAR圖像目標解譯研究中,深度學習模型已被廣泛用于目標檢測[6]、目標提取[7]、目標識別[8,9]等應用中,并取得了很好的解譯性能。本文為了解決以上問題,將深度學習模型用于SAR飛機目標形狀先驗建模中,提出了一種基于深度形狀先驗的SAR飛機目標重建方法,其主要的創(chuàng)新點和貢獻總結如下:

        首先,本文引入了深度學習建模方法解決飛機這類復雜目標的形狀建模問題,這是SAR圖像目標重建過程中第1次引入深度模型建模的形狀約束。其中,產(chǎn)生式的深度玻爾茲曼機(Deep Boltzmann Machine, DBM)[10]用來建模飛機目標形狀的全局和局部結構以及形狀變化。該深度形狀先驗將由深度玻爾茲曼機的參數(shù)來表示,在目標重建階段,這些參數(shù)將被作為形狀約束項融入圖像能量函數(shù)中。

        其次,飛機目標在機場中的??拷嵌炔煌?,因此SAR圖像中的飛機目標存在旋轉問題,給目標重建帶來了一定的困難。為此,本文提出了一種姿態(tài)估計策略,該策略在目標重建之前提出一種姿態(tài)估計方法獲取候選姿態(tài),并在目標重建中融入局部姿態(tài)估計技巧。其中,姿態(tài)估計方法分為兩步,在粗姿態(tài)估計中,我們利用變換不變低秩紋理(Transform Invariant Low-rank Textures, TILT)方法[11]將目標的姿態(tài)限定在8個特定的數(shù)值中,對應4種對稱方式;在精細姿態(tài)估計中,變換后的圖像利用圖像相關性分析方法確定目標的對稱方式,得到兩個特定的候選姿態(tài)。局部姿態(tài)估計將姿態(tài)變換參數(shù)融入能量函數(shù)中并采用梯度下降法進行優(yōu)化。該策略能夠有效解決對目標姿態(tài)進行窮舉搜索而導致的目標重建效率低下問題,并能夠提高目標重建的精度。

        再次,如何將深度形狀先驗融入目標重建中是解譯的難題,為此本文引入了一種目標重建框架,該框架分為兩個主要的步驟。第1步,通過姿態(tài)估計得到候選姿態(tài),然后確定候選深度形狀先驗作為目標重建中的形狀先驗。第2步,通過融合形狀能量項和散射能量項構造目標重建的能量函數(shù)。在能量函數(shù)優(yōu)化中,本文采用了基于近似推斷和Split Bregman算法的迭代優(yōu)化方法[12]。

        為了驗證本文方法的有效性,我們在分辨率為0.5 m和1.0 m的TerraSAR-X數(shù)據(jù)集上進行目標重建實驗。實驗結果表明,該方法能夠以較高的精度實現(xiàn)SAR飛機目標的重建。此外,我們將該方法與基于輪廓分割的傳統(tǒng)方法進行比較,結果顯示深度形狀先驗的使用極大地提高了目標重建的精度。

        2 數(shù)據(jù)描述與分析

        在機場中,飛機??拷嵌炔⒉还潭?。如圖1所示,不同目標類型和目標姿態(tài)的測試切片來源于0.5 m和1.0 m分辨率的TerraSAR-X圖像。分析可知,數(shù)據(jù)集中的目標姿態(tài)多樣,具有豐富的目標細節(jié)信息,同時也有噪聲的干擾。例如,飛機的頭部、兩翼和尾部等結構清晰,肉眼可區(qū)分,這是飛機目標重建的基礎。但是,這些部件的部分區(qū)域,如機身、兩翼等散射特征不明顯。因此形狀先驗成為有缺失或有噪聲切片中目標重建的重要信息,能夠輔助獲取完整的目標輪廓。

        實驗使用的形狀模板數(shù)據(jù)集包含10類飛機目標,共8組對應8個角度;測試數(shù)據(jù)集是從Terra SAR-X圖像中獲取的約100幅數(shù)據(jù)切片,分辨率為1.0 m或0.5 m。如圖2所示,本文利用的形狀先驗是飛機目標的黑白二值模板。圖中從上而下依次對應目標角度0°, 315°, 270°, 225°, 180°, 135°, 90°和45°,其中機頭朝上為0°,按順時針方向遞增。從模板數(shù)據(jù)分析可得,飛機目標具有相似的十字交叉結構,以及不同的尺寸和部件外觀,如兩翼后掠角、發(fā)動機的有無和分布、頭部的形狀等。這些明顯的結構相似性和結構差異性的存在使得通過多層神經(jīng)網(wǎng)絡對這些形狀模板進行建模是有效的。

        圖2 8種特定角度下10種不同種類的飛機目標黑白二值模板(從上到下角度依次是0°, 315°, 270°, 225°, 180°, 135°, 90°和45°)Fig. 2 Original black and white binary templates of ten types of aircrafts in 8 different poses (Poses, from top to bottom, are 0°, 315°,270°, 225°, 180°, 135°, 90° and 45°)

        本文中,我們利用深度玻爾茲曼機預先訓練圖2所示的形狀模板集合獲取深度形狀先驗模型的參數(shù),8個角度對應8組深度形狀模型參數(shù)。這些預先得到的參數(shù)集合將作為形狀先驗候選集合,并利用姿態(tài)估計結果選擇候選形狀先驗構造圖像能量函數(shù)的形狀能量項。

        3 形狀先驗模型學習

        在目標解譯領域中,形狀是一種典型特征,能夠用來表征目標的不同結構,也可以用來表征某一類目標的細節(jié)結構。研究表明,產(chǎn)生式形狀先驗模型,能夠產(chǎn)生真實樣本。因此,深度玻爾茲曼機能夠用于形狀先驗建模并產(chǎn)生形狀樣本域中有別于訓練集形狀樣本的真實形狀[13]。

        一般而言,圖像的分辨率已知,這意味著形狀的尺寸是固定的,因此我們只需要對形狀進行對齊操作。本文采用了Liu等人[14]的方法實現(xiàn)二值形狀模板的重心對齊操作。重心的計算公式如下:

        其中,(xc,yc)是模板的重心,則表示像素S的x,y坐標,即(xi,j,yi,j),S為像素值的大小。尺度對齊的計算公式如下:

        其中,尺度對齊參數(shù)用sx和sy表示。對齊操作的結果如圖3所示,該圖是0°姿態(tài)下的二值模板形狀對齊的結果。

        圖3 形狀對齊結果(第1行和第2行分別表示0°姿態(tài)下原始形狀模板和形狀對齊后的結果圖像)Fig. 3 Results of shape alignment (The first and second rows represent the original templates and the results of shape alignment respectively)

        深度玻爾茲曼機是一種產(chǎn)生式的深度模型,模板數(shù)據(jù)在形狀對齊之后輸入到3層的深度玻爾茲曼機網(wǎng)絡中進行深度形狀先驗建模,并利用吉布斯采樣近似推斷方法實現(xiàn)該形狀先驗模型的預訓練,該方法的具體實現(xiàn)原理和步驟請參見[10,15]。該模型結構如圖4所示,其中隱藏層節(jié)點h1,h2數(shù)目均設定為100,W1,W2表示層之間的權重參數(shù)。預訓練結束后,深度玻爾茲曼機的參數(shù)能夠用于表征形狀模板的局部和全局的結構特征,在目標重建中這些參數(shù)將作為形狀約束融入到圖像能量函數(shù)中。

        4 基于形狀先驗的目標重建

        圖4 3層深度玻爾茲曼機網(wǎng)絡結構Fig. 4 The structure of three-layered deep Boltzmann machine

        本文提出的方法框架如圖5所示,該框架主要分為3個部分。在深度形狀先驗建模中,深度形狀先驗通過深度玻爾茲曼機訓練得到的參數(shù)進行表征,并作為目標重建階段中的形狀約束;在姿態(tài)估計階段,由粗到細的姿態(tài)估計方法確定兩個候選的姿態(tài),該方法使本文提出的目標重建框架對目標旋轉具有較高的魯棒性;在目標重建階段,通過融合候選姿態(tài)選取的深度形狀先驗作為形狀能量項與姿態(tài)估計之后得到的散射能量項構造能量函數(shù),并利用基于近似推斷和Split Bregman的迭代優(yōu)化算法進行能量函數(shù)的優(yōu)化,從而實現(xiàn)目標重建。

        圖5 本文方法的流程圖Fig. 5 The framework of the proposed aircraft reconstruction method

        為了解決目標旋轉問題,本文提出了一種由粗到細的姿態(tài)估計方法。該方法通過對稱變化和對稱性檢測將目標的姿態(tài)限制為兩個特定值,其原理是左右對稱、上下對稱、主對角線對稱、副對角線對稱分別對應0°和180°, 90°和270°, 135°和315°, 45°和225°,即一種對稱方式對應兩個角度,且二者之間相差180°?;谏鲜鲈?,近似對稱圖像可以通過變換不變低秩紋理算法變換為上述4種對稱模式之一,變換得到的圖像記為X,并作為目標重建部分的輸入。

        粗估計中的對稱變換操作僅能夠將目標姿態(tài)限定在上述8個角度中。如上所述,目標在切片中一般不處于中心位置。因此,在本文的精細估計中,我們利用對稱變換和平移變換將圖像矩陣X變換為XS,D,隨后通過相關系數(shù)公式計算二者的相關性,相關性最大的一組變換參數(shù)即目標的對稱模式和平移距離,對稱模式對應的角度即為候選角度。結合上述過程的描述,定義計算公式如下:

        如圖5所示,變量h1,h2和q分別表示深度玻爾茲曼機第1個隱層和第2個隱層,以及目標形狀。DBM和TILT為深度玻爾茲曼機和變換不變低秩紋理的縮寫形式。在姿態(tài)估計中輸入的測試切片利用恒虛警率算法[16]實現(xiàn)背景噪聲的去除,該預處理操作能夠抑制噪聲對重建精度的影響。姿態(tài)估計階段的輸出包括目標候選姿態(tài)和變換后圖像,二者將與形狀先驗模型一起輸入到能量函數(shù)中。我們利用候選姿態(tài)從深度形狀先驗集合中選擇特定的深度形狀先驗作為待構造的圖像能量的形狀先驗項,而變換后的圖像則通過定義散射區(qū)域項和強散射點邊緣項構造SAR圖像能量函數(shù)的目標散射項。本文采用的圖像能量函數(shù)將以經(jīng)典的概率形狀表示法[15,17]為基礎,并融入形狀先驗項和目標散射項來進行修改和增強,其函數(shù)表達式如下:

        其中,局部變換參數(shù){x,y,h,θ}分別表示第1維度坐標、第2維度坐標、尺度和旋轉角度。

        目標散射項中的s是區(qū)分目標散射區(qū)域和背景區(qū)域的差異矩陣,其公式定義如下:

        5 函數(shù)優(yōu)化與目標重建

        本節(jié)我們將詳細介紹函數(shù)優(yōu)化和目標重建過程中的算法,迭代最小化方法被用于能量函數(shù)的優(yōu)化從而獲得目標重建結果。在本文函數(shù)優(yōu)化的整個過程中,通過引入深度玻爾茲曼機的近推斷方法[15]計算每一個隱層單元,并通過引入Split Bregman算法計算目標形狀。算法1詳細闡述了能量函數(shù)優(yōu)化的整個過程,算法2則是算法1步驟2 (b)(iii)中目標形狀q最優(yōu)化問題的Split Bregman算法的實現(xiàn)細節(jié)(見表1,表2)。

        如算法1中的各個步驟所示,我們首先對變量和參數(shù)進行初始化,變換參數(shù)中,由于數(shù)據(jù)分辨率已知,因此尺度h初始化為與目標分辨率相關的特定數(shù)值;默認設置為0,若獲取的數(shù)據(jù)集切片中目標不在中心位置,則我們將利用姿態(tài)估計得到的參數(shù)D即對稱軸位置對進行初始化,例如,若對稱軸為為x0=目標形狀初始化為當前姿態(tài)下形狀模板的平均形狀。隱層單元參數(shù)則被初始化為0。然后,優(yōu)化過程將根據(jù)算法1的步驟繼續(xù)執(zhí)行,為了實現(xiàn)局部自適應,當使用梯度下降法來更新參數(shù)時,學習率設為較小的值。隨后整個優(yōu)化過程將持續(xù)迭代,直到達到收斂條件或達到最大迭代次數(shù)。

        表1 算法1:目標重建中的優(yōu)化算法Tab. 1 The optimization algorithm in object reconstruction

        表2 算法:算法1步驟2(b)(iii)算法Tab. 2 The algorithm for step 2(b)(iii) in Tab. 1

        本文中上述過程將僅僅被執(zhí)行兩次,并從中選擇能量函數(shù)值較小的一個對應的姿態(tài)和目標重建結果作為本文實驗的最終結果。

        6 實驗結果與分析

        本節(jié)展示本文實驗結果并對結果進行分析。為了驗證基于深度形狀先驗的目標重建方法框架的有效性,我們在高分辨率SAR圖像目標切片中實現(xiàn)飛機目標的重建,在此基礎上本節(jié)的實驗將分為3個部分,首先,由粗到細的姿態(tài)估計方法;其次,本文方法與去除形狀先驗的本文方法和無形狀先驗的方法,如GraphCut方法[19]的對比結果;最后,本文方法與非深度形狀先驗方法,如SG-ACM[14]方法的對比結果。

        在第1部分的實驗中,圖6展示的是本文提出的姿態(tài)估計方法的實驗結果。其中,圖6(a)為不同類型和姿態(tài)的飛機目標切片,圖6(b)是CFAR預處理操作之后進行姿態(tài)估計的變換圖像,飛機目標均變換到某一對稱模式,從而得到兩個候選姿態(tài)。舉例說明,圖6(b)第1列的紅色實線表示估計得到的目標姿態(tài),對應0°和180°兩個候選姿態(tài)。后續(xù)實驗結果表明,該方法簡化了目標重建過程,并能夠有效解決目標旋轉的問題。

        第2部分實驗對目標的重建結果進行了定量分析。本文為此從1.0 m和0.5 m分辨率TerraSARX項中裁切了100多幅高分辨率飛機目標切片,同時進行人工標注,區(qū)分目標區(qū)域和背景區(qū)域,以便分析目標重建結果的精確性。這些標注后的圖像將作為真值與實驗結果進行對比。本文采用平均像素誤分比[20]作為重建精度的評價標準,其定義如下:

        為了驗證本文提出的方法框架和形狀先驗利用的有效性,傳統(tǒng)的基于分割GraphCut[19]方法,以及去除先驗項的本文的方法將與本文方法進行對比。本節(jié)中,我們將從定量和定性兩個方面進行實驗結果的展示和分析。

        為此,表3依次列出了上述兩種對比方法和本文方法的重建精確度,圖7則更加直觀地展示了目標重建的效果,包括目標輪廓圖和目標區(qū)域圖。上述實驗結果表明,本文的方法能夠準確提取SAR圖像中的飛機目標,而GraphCut方法由于無法將SAR圖像中目標的強散射點組合起來,從而難以提取出完整的目標輪廓,并且,如果去除形狀先驗項,本文的方法也將獲得與GraphCut方法相近的結果。上述分析表明,本文采用的方法框架和形狀先驗能夠顯著地提高目標重建的精確性。另外,如圖6所示,本文的姿態(tài)估計方法的提出使得目標重建效率很高,并能夠用于不同角度數(shù)據(jù)的目標重建,從而解決了SAR圖像中目標旋轉的問題。

        表3 不同目標重建方法的性能比較Tab. 3 Performance of different reconstruction methods

        第3部分實驗將驗證基于深度學習方法建模形狀先驗的魯棒性,本節(jié)實驗使用的數(shù)據(jù)與上述實驗相同。在該部分實驗中,本文方法將與非深度形狀先驗的SG-ACM方法進行對比,此方法是用主成分分析方法進行形狀先驗建模。如圖8和表3所示,分析可得,SG-ACM方法由于使用了形狀先驗,因此其重建效果遠遠好于GraphCut方法和去除形狀先驗的本文方法,這也驗證了形狀先驗的有效性,但是該方法無法達到本文方法的效果。如上所述SGACM方法使用主成分分析方法進行先驗建模,實驗表明在SAR飛機目標重建應用中,其魯棒性較差,而本文采用的基于深度學習方法建模形狀先驗的方法具有較高的魯棒性。

        圖7 不同目標重建方法的結果對比(第1行與第2行分別對應提取目標區(qū)域的輪廓圖和提取到的目標區(qū)域圖)Fig. 7 Comparison of reconstruction results of different methods (The first and the second rows correspond to the contour of the extracted aircraft area and the extracted aircraft area)

        另外,SG-ACM不能處理目標旋轉的問題,因此,實驗中的切片是人工旋轉到0°方向的,其效果如圖8(a)所示。

        7 結束語

        本文提出了一種基于深度形狀先驗的高分辨率SAR飛機目標重建方法,該方法主要分為兩個階段。在形狀先驗建模階段,本文使用產(chǎn)生式的深度學習方法,深度玻爾茲曼機,對形狀模板進行建模,模型訓練得到的參數(shù)用于表征深度形狀先驗。在目標重建階段,本文提出了一種新的目標重建框架。該框架主要分為兩步,首先,利用目標的對稱特性解決了目標重建中的目標旋轉和平移問題實現(xiàn)目標姿態(tài)估計,提高了目標重建的效率和精度。然后,由形狀能量項和散射能量項組成的能量函數(shù)通過深度玻爾茲曼機的近似推斷技巧進行迭代函數(shù)優(yōu)化,并在迭代過程中融入了Split Bregman算法解決目標形狀的最優(yōu)化計算。實驗結果表明,本文提出的目標重建方法能夠以較高的重建準確率得到較為完整的目標形狀,同時獲取目標的姿態(tài)。

        在未來的研究中,我們還將研究如何利用目標重建的信息實現(xiàn)目標的識別與檢測等應用,同時對形狀模板進行擴展。

        圖8 目標重建結果Fig. 8 Reconstruction results

        [1]鄧云凱, 趙鳳軍, 王宇. 星載SAR技術的發(fā)展趨勢及應用淺析[J]. 雷達學報, 2012, 1(1): 1–10.Deng Yunkai, Zhao Fengjun, and Wang Yu. Brief analysis on the development and application of spaceborne SAR[J].Journal of Radars, 2012, 1(1): 1–10.

        [2]Chen Jiehong, Zhang Bo, and Wang Chao. Backscattering feature analysis and recognition of civilian aircraft in TerraSAR-X images[J].IEEE Geoscience and Remote Sensing Letters, 2015, 12(4): 796–800. DOI: 10.1109/LGRS.2014.2362845.

        [3]Chang Y L, Chiang C Y, and Chen K S. SAR image simulation with application to target recognition[J].Progress in Electromagnetics Research, 2011, 119: 35–57.DOI: 10.2528/PIER11061507.

        [4]Tang Kan, Sun Xian, Sun Hao,et al.. A geometrical-based simulator for target recognition in high-resolution SAR images[J].IEEE Geoscience and Remote Sensing Letters,2012, 9(5): 958–962. DOI: 10.1109/LGRS.2012.2187426.

        [5]Zhang Yue, Sun Xian, Thiele A,et al.. Stochastic geometrical model and Monte Carlo optimization methods for building reconstruction from InSAR data[J].ISPRS Journal of Photogrammetry and Remote Sensing, 2015, 108:49–61. DOI: 10.1016/j.isprsjprs.2015.06.004.

        [6]王思雨, 高鑫, 孫皓, 鄭歆慰, 孫顯. 基于卷積神經(jīng)網(wǎng)絡的高分辨率SAR圖像飛機目標檢測方法[J]. 雷達學報, 2017, 6(2):195–203.Wang Siyu, Gao Xin, Sun Hao,et al.. An aircraft detection method based on convolutional neural networks in highresolution sar images[J].Journal of Radars, 2017, 6(2):195–203.

        [7]杜康寧, 鄧云凱, 王宇, 李寧. 基于多層神經(jīng)網(wǎng)絡的中分辨SAR圖像時間序列建筑區(qū)域提取[J]. 雷達學報, 2016, 5(4):410–418.Du Kangning, Deng Yunkai, Wang Yu,et al... Medium Resolution SAR Image Time-series Built-up Area Extraction Based on Multilayer Neural Network[J].Journal of Radars, 2016, 5(4): 410–418.

        [8]田壯壯, 占榮輝, 胡杰民, 張軍. 基于卷積神經(jīng)網(wǎng)絡的SAR圖像目標識別研究[J]. 雷達學報, 2016, 5(3): 320–325.Tian Zhuangzhuang, Zhan Ronghui, Hu Jiemin,et al... SAR ATR Based on Convolutional Neural Network[J].Journal of Radars, 2016, 5(3): 320–325.

        [9]徐豐, 王海鵬, 金亞秋. 深度學習在SAR目標識別與地物分類中的應用[J]. 雷達學報, 2017, 6(2): 136–148.Xu Feng, Wang Haipeng, Jin Yaqiu. Deep learning as applied in sar target recognition and terrain classification[J].Journal of Radars, 2017, 6(2): 136–148.

        [10]Salakhutdinov R and Hinton G. Deep Boltzmann machines[J].Journal of Machine Learning Research, 2009,5(2): 448–455.

        [11]Zhang Zhengdong, Liang Xiao, Ganesh A,et al.. TILT:Transform invariant low-rank textures[C]. Proceedings of Asian Conference on Computer Vision, Berlin, Heidelberg,2010: 314–328.

        [12]Goldstein T, Bresson X, and Osher S. Geometric applications of the split bregman method: Segmentation and surface reconstruction[J].Journal of Scientific Computing,2010, 45(1): 272–293.

        [13]Eslami S M A, Heess N, Williams C K I,et al.. The shape boltzmann machine: A strong model of object shape[J].International Journal of Computer Vision, 2014, 107(2):155–176. DOI: 10.1007/s11263-013-0669-1.

        [14]Liu Ge, Sun Xian, Fu Kun,et al.. Interactive geospatial object extraction in high resolution remote sensing images using shape-based global minimization active contour model[J].Pattern Recognition Letters, 2013, 34(10):1186–1195. DOI: 10.1016/j.patrec.2013.03.031.

        [15]Chen Fei, Yu Huimin, Hu R,et al.. Deep learning shape priors for object segmentation[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,Portland, OR, USA, 2013: 1870–1877.

        [16]Kuttikkad S and Chellappa R. Non-gaussian CFAR techniques for target detection in high resolution SAR images[C]. Proceedings of IEEE International Conference on Image Processing, Austin, TX, USA, 1994: 910–914.

        [17]Cremers D, Schmidt F R, and Barthel F. Shape priors in variational image segmentation: Convexity, Lipschitz continuity and globally optimal solutions[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Anchorage, AK, USA, 2008: 1–6.

        [18]Jones III G and Bhanu B. Recognizing articulated objects in SAR images[J].Pattern Recognition, 2001, 34(2): 469–485.DOI: 10.1016/S0031-3203(99)00218-6.

        [19]Boykov Y Y and Jolly M P. Interactive graph cuts for optimal boundary amp; region segmentation of objects in N-D images[C]. Proceedings of IEEE International Conference on Computer Vision, Vancouver, BC, Canada, 2001: 105–112.

        [20]Wu Qichang, Diao Wenhui, Dou Fangzheng,et al.. Shapebased object extraction in high-resolution remote-sensing images using deep Boltzmann machine[J].International Journal of Remote Sensing, 2016, 37(24): 6012–6022. DOI:10.1080/01431161.2016.1253897.

        竇方正(1990–),女,山東淄博人,中國科學院電子學研究所博士研究生。研究方向為遙感圖像解譯、機器學習與深度學習。

        E-mail: doufangzheng@126.com

        刁文輝(1988–),男,山東萊蕪人,中國科學院電子學研究所博士畢業(yè),現(xiàn)為中國科學院電子學研究所助理研究員。研究方向為遙感圖像解譯、機器學習與深度學習、計算機視覺。

        E-mail: whdiao@mail.ie.ac.cn

        孫 顯(1982–),男,浙江紹興人,中國科學院電子學研究所博士畢業(yè),現(xiàn)為中國科學院電子學研究所副研究員。研究方向為遙感圖像解譯、機器學習與深度學習、計算機視覺;參加工作以來,一直從事高分辨率遙感圖像理解方面的前沿技術研究,作為項目負責人主持國家自然科學基金1項,高分青年創(chuàng)新基金1項,以及SAR目標檢測識別技術相關的國防預研課題3項。作為技術負責人組織國家高分重大專項應用基礎支撐技術測試評估總體技術、海上目標檢測識別技術測試評估技術等項目的開展,并主持撰寫國家高分重大專項測試評估方面2項標準規(guī)范。

        E-mail: sunxian@mail.ie.ac.cn

        張 躍(1990–),男,河南許昌人,中國科學院電子學研究所博士研究生。研究方向為遙感圖像解譯、機器學習與深度學習、計算機視覺。

        E-mail: zhangyuereal@163.com

        付 琨(1974–),男,湖北襄陽人,中國科學院電子學研究所博士畢業(yè),現(xiàn)為中國科學院電子學研究所研究員。研究方向為計算機視覺與遙感圖像理解,地理空間信息挖掘與可視化;長期從事我國航天/航空遙感地面處理和應用系統(tǒng)技術相關領域的研究工作,多次擔任中國遙感衛(wèi)星系列地面系統(tǒng)的型號總師/副總師、學術帶頭人,承擔或參與了10多項國家重大遙感地面系統(tǒng)型號建設任務,包括我國第1套SAR衛(wèi)星地面系統(tǒng)、第1套多星多傳感器一體化地面應用系統(tǒng)、第1套面向全國分布式多中心的地面系統(tǒng)等,此外,獲得國家各類基金、863、預研項目支持20多項,參與973項目2項。

        E-mail: kunfuiecas@gmail.com

        The National Natural Science Foundation of China (61331017)

        Aircraft Reconstruction in High Resolution SAR Images Using Deep Shape Prior

        Dou Fangzheng①②Diao Wenhui①Sun Xian①Zhang Yue①Fu Kun①
        ①(Institute of Electronics,Chinese Academy of Sciences,Beijing100190,China)
        ②(University of Chinese Academy of Sciences,Beijing100190,China)

        Object reconstruction is of vital importance in Synthetic Aperture Radar (SAR) image analysis. In this paper, we propose a novel method based on shape prior to reconstruct aircraft in high resolution SAR images. The method mainly contains two stages. In the shape prior modeling stage, a generative deep learning method is used to model deep shape priors; a novel framework is then proposed in the reconstruction stage,which integrates the shape priors in the process of reconstruction. Specifically, to address the issue of object rotation, a novel pose estimation method is proposed to obtain candidate poses, which avoids making an exhaustive search for each pose. In addition, an energy function combining a scattering region term and a shape prior term is proposed; this is optimized via an iterative optimization algorithm to achieve the goal of object reconstruction. To the best of our knowledge, this is the first attempt made to reconstruct objects with complex shapes in SAR images using deep shape priors. Experiments are conducted on the dataset acquired by TerraSAR-X and results demonstrate the accuracy and robustness of the proposed method.

        Synthetic Aperture Radar (SAR); Object reconstruction; Shape prior; Deep Boltzmann machine

        TN957.52

        A

        2095-283X(2017)05-0503-11

        10.12000/JR17047

        竇方正, 刁文輝, 孫顯, 等. 基于深度形狀先驗的高分辨率SAR飛機目標重建[J]. 雷達學報, 2017, 6(5):503–513.

        10.12000/JR17047.

        Reference format:Dou Fangzheng, Diao Wenhui, Sun Xian,et al.. Aircraft reconstruction in high resolution SAR images using deep shape prior[J].Journal of Radars, 2017, 6(5): 503–513. DOI: 10.12000/JR17047.

        2017-04-17;改回日期:2017-05-10;網(wǎng)絡出版:2017-06-07

        *通信作者: 竇方正 doufangzheng@126.com

        國家自然科學基金重點項目(61331017)

        猜你喜歡
        玻爾茲曼先驗形狀
        基于格子玻爾茲曼方法的流固耦合問題模擬
        挖藕 假如悲傷有形狀……
        非對稱彎道粒子慣性遷移行為的格子玻爾茲曼模擬
        基于無噪圖像塊先驗的MRI低秩分解去噪算法研究
        你的形狀
        基于自適應塊組割先驗的噪聲圖像超分辨率重建
        自動化學報(2017年5期)2017-05-14 06:20:44
        看到的是什么形狀
        基于平滑先驗法的被動聲信號趨勢項消除
        先驗的廢話與功能的進路
        東南法學(2015年2期)2015-06-05 12:21:36
        淺談玻爾茲曼分布的微小偏離量所引起的微觀狀態(tài)數(shù)的變化
        欧美亚洲一区二区三区| 国产三级黄色的在线观看 | 激情五月六月婷婷俺来也| 精品一区二区三区在线视频| 无码av无码天堂资源网| 国产精品无码一区二区在线国| 一区二区三区四区在线观看视频| 精品国产一区二区三区性色| 日本护士xxxx视频| 久久国产成人午夜av影院| 亚洲中文字幕精品久久久久久直播| 日产国产精品亚洲高清| 国产成人精品亚洲日本在线观看| 日日碰狠狠躁久久躁9| 国产成人永久在线播放| 亚洲一区二区自偷自拍另类| 亚洲高清乱码午夜电影网| 欧美成人看片黄a免费看| 特一级熟女毛片免费观看| 日本免费精品一区二区| 人妻无码中文字幕| 天天爽夜夜爽人人爽曰喷水| 久久99精品免费国产| 中出人妻希奇杰卡西av| 美女视频黄的全免费视频网站| 中文字幕不卡高清免费| 国产福利一区二区三区在线观看| 日韩国产人妻一区二区三区| 男女肉粗暴进来120秒动态图 | 国产精品成人久久a级片| 国产免费三级av在线| 亚洲欧洲日本综合aⅴ在线| 国产精品亚洲综合色区韩国| 精品亚洲av乱码一区二区三区| 亚洲精品成人片在线观看精品字幕| 欧美午夜刺激影院| 精品女同av一区二区三区| 中文字幕一区二区三区四区五区| 无码国产色欲xxxxx视频| 国产亚洲女人久久久久久| 91成人黄色蘑菇视频|