李曉慧,汪西莉
結(jié)合目標局部和全局特征的CV遙感圖像分割模型
李曉慧1,汪西莉2
(1. 青海民族大學計算機學院,青海 西寧 810007; 2. 陜西師范大學計算機科學學院,陜西 西安 710119)
隨著遙感衛(wèi)星技術(shù)的發(fā)展,高分辨率遙感影像不斷涌現(xiàn)。從含有較多信息、背景復雜的遙感影像中自動提取目標成為一個亟待解決的難題。傳統(tǒng)的圖像分割方法主要依賴圖像光譜、紋理等底層特征,容易受到圖像中遮擋和陰影等的干擾。為此,針對特定的目標類型,提出結(jié)合目標局部和全局特征的CV (Chan Vest)遙感圖像目標分割模型,首先,采用深度學習生成模型——卷積受限玻爾茲曼機建模表征目標全局形狀特征,以及重建目標形狀;其次,利用Canny算子提取目標邊緣信息,經(jīng)過符號距離變換得到綜合了局部邊緣和全局形狀信息的約束項;最終,以CV模型為圖像目標分割模型,增加新的約束項得到結(jié)合目標局部和全局特征的CV遙感圖像分割模型。在遙感小數(shù)據(jù)集Levir-oil drum、Levir-ship和Levir-airplane上的實驗結(jié)果表明:該模型不僅可以克服CV模型對噪聲敏感的缺點,且在訓練數(shù)據(jù)有限、目標尺寸較小、遮擋及背景復雜的情況下依然能完整、精確地分割出目標。
圖像分割;形狀先驗;卷積受限玻爾茲曼機;深度學習;Chan Vest模型
隨著遙感技術(shù)的發(fā)展,高分辨率的遙感影像不斷涌現(xiàn),從影像中自動提取目標引起了眾多學者的廣泛研究。與普通光學圖像相比,遙感圖像的場景、目標分布等都更為復雜,針對遙感影像復雜背景下的小目標分割[1-2]更為困難。在采用分割提取目標的方法中,基于水平集的CV (Chan Vest)[3]圖像分割方法最大的優(yōu)勢在其處理拓撲變化的能力。但面對復雜的遙感圖像時,僅依靠圖像顏色、紋理等底層信息,當圖像中存在目標部分被遮擋、目標與背景雜糅等情況時,往往得不到正確的分割結(jié)果。因此,在基于水平集的CV模型中引入與目標相關(guān)的形狀先驗信息,有利于輔助模型分割出完整的目標。但如何準確且靈活地表示目標形狀是困難的。形狀建模的方法主要分為3種:①基于映射的統(tǒng)計形狀建模方法[4-6],即通過映射得到形狀的特征向量表達形狀特征空間,如主成分分析和核主成分分析。然而對于復雜的形狀,此類方法不能靈活地表達。②基于標記點統(tǒng)計特征的形狀建模方法[7-9],即通過標記目標輪廓中的關(guān)鍵點,對其統(tǒng)計建模來表達全局形狀特征。這些標記點都是手工標記的,通過統(tǒng)計的方法建模形狀,建模過程較為復雜且不適合復雜形狀。③基于深度學習的形狀建模方法[10-12],用深度生成式模型從大量的目標形狀樣本中學習其結(jié)構(gòu)并建模表示形狀,模型不僅可以自動提取訓練集的目標形狀特征,而且可以靈活地表示形狀及生成形狀。
考慮到在采用深度學習模型獲取目標形狀的過程中,圖像歸一化的操作可能造成目標形狀細節(jié)特征的丟失,本文在重建的目標形狀基礎(chǔ)上,采用Canny[13]算子從原圖中提取目標邊緣信息,結(jié)合局部邊緣和全局形狀構(gòu)造目標形狀約束項,提出了一種結(jié)合目標局部和全局特征的CV圖像分割模型,即采用深度學習的卷積受限玻爾茲曼機模型(convolutional restricted Boltzmann machine,CRBM)[14]來提取目標全局形狀特征,并結(jié)合Canny算子提取的原圖像的邊緣信息,經(jīng)過符號距離變換得到含有邊緣約束的目標形狀,以此為先驗信息引入到CV模型中指導曲線演化,得到正確的分割結(jié)果。模型在訓練數(shù)據(jù)有限、背景復雜、形態(tài)各異、尺度變化較大且成像面積小于2 000像素的遙感影像目標提取中取得了理想的分割結(jié)果。
CV模型是由Chan和Vest提出的圖像分割模型。該模型將圖像分割表達為能量函數(shù)最小化問題,用表示待分割的灰度圖像,(,)的值表示中任意像素點(,)的灰度值。演化曲線將劃分成2個部分,1和2分別表示演化曲線內(nèi)部和外部的灰度信息的均值。()和()的值分別表示演化曲線的長度以及演化曲線內(nèi)部的區(qū)域面積。1,2,,是各項的系數(shù),則CV模型的能量泛函為
其中,前2項使得演化曲線不斷向目標輪廓標靠近,合稱為保真項;第3項用于約束演化曲線,確保獲得的曲線足夠短,稱為長度約束項;第4項用于約束演化曲線,避免曲線振蕩,稱為面積項。只有當保真項的值為零,即演化曲線在目標邊界上時能量函數(shù)才能達到最小,實現(xiàn)對圖的分割。
將式(1)中演化曲線表示為水平集函數(shù)(,),令(,)表示圖像中任意點(,)與演化曲線的最小歐式距離值。且設(shè)定當(,)在圖像的內(nèi)部時水平集函數(shù)(,)>0,當(,)恰好在目標邊界上時,(,)=0 (即是初始化水平集),否則水平集函數(shù)(,)<0,則式(1)改寫為
其中,海氏(Heaviside)函數(shù),()和狄拉克(Dirac)函數(shù)()分別為
根據(jù)變分原理,使用歐拉-拉格朗日(Euler- Lagrange)方法推導出水平集函數(shù)的演化方程為
其中,為演化曲線的曲率,通過迭代水平集函數(shù)的演化方程使得CV模型的能量函數(shù)值最小,得到分割結(jié)果。
為了在CV分割模型中引入有效的目標形狀先驗知識,本文采用2層的卷積受限波爾茲曼機深度學習模型來建模和獲取目標的全局形狀特征。該模型是在RBM的基礎(chǔ)上,引入卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)[15]中“卷積權(quán)值共享”思想衍生的生成模型。如圖1所示,CRBM模型是包含一個輸入層和一個隱層的2層模型,由于CRBM模型中卷積操作增加了局部感受野和權(quán)值共享的特點,且CRBM的輸入是二維的,使得模型能夠較好地獲取輸入數(shù)據(jù)的二維空間結(jié)構(gòu)信息和圖像的局部信息。
圖1 CRBM模型結(jié)構(gòu)圖
故此,該模型的聯(lián)合概率分布為
模型結(jié)構(gòu)確定后,利用訓練樣本訓練模型,其目的是確定模型的參數(shù)。本文訓練CRBM模型時以二值圖像作為輸入,0表示背景,1表示目標,即模型中所有的節(jié)點狀態(tài)均為二值變量。
CRBM模型采用對比散度算法(contrast divergence,CD)[16]訓練模型,以訓練集中的樣本作為模型的初始狀態(tài),并將訓練集中的樣本記為={0,1,···,x},模型初始值記為0,用訓練樣本初始化模型可視層單元的狀態(tài),即令0=0。首先根據(jù)式(8)確定隱層單元的狀態(tài),即由(|)求得;其次根據(jù)式(7)重構(gòu)輸入層單元的狀態(tài),即由(|)求得。不斷重復上述步驟次,得到0對應(yīng)的重構(gòu)結(jié)果v。使用梯度下降法更新CRBM模型參數(shù),故此,基于CD算法的參數(shù)的梯度更新公式為
其中,=1,該算法的偽代碼如下:
輸入:訓練樣本={0,1,···,x}卷積核的個數(shù),卷積核的大小N×N。輸入層大小N,隱層中特征圖的大小N。
輸出:權(quán)重矩陣w,輸入層的偏置,隱層的偏置b。
初始化:令輸入層的單元狀態(tài)0=0,w,和b的初始值隨機初始化。
更新參數(shù):
在確定模型參數(shù)之后,采用多步吉布斯采樣的[17]方法從模型中生成形狀。其核心思想是通過模擬的聯(lián)合概率分布直接推導出條件分布,多次反復直到采樣得到的樣本與模型所定義的概率分布的樣本非常接近。CRBM模型的采樣過程如圖2所示,為了生成近似服從CRBM模型所定義的樣本,本文實驗采用二值圖像初始化模型輸入層的單元狀態(tài),并執(zhí)行Gibbs采樣得到輸入層單元的狀態(tài)(即生成樣本)。由于CRBM的輸入是二維的,使得模型能夠更好地獲取輸入樣本的二維空間結(jié)構(gòu)信息和圖像的局部信息,從而使得模型的生成形狀更加接近真實的形狀數(shù)據(jù)。
圖2 CRBM模型采樣過程圖
邊緣信息作為圖像最基本特征之一,是圖像分割依賴的重要特征。Canny算子用一階導數(shù)的極大值表示邊緣,可以很好地描述圖像目標的外部形狀和空間結(jié)構(gòu)的輪廓特性。圖3中的3行分別表示Levir數(shù)據(jù)集[18]中Levir-oil drum001,Levir-ship001和Levir-airplane001提取邊緣信息的距離變換示例,圖3(a)為原始圖像,圖3(b)為原始圖像邊緣提取結(jié)果圖,將圖3(b)距離變換得到圖3(c),其表示邊緣形狀的距離函數(shù)圖,即令邊緣像素點的值為1,其他像素取其與最近邊緣像素點之間的歐式距離min(,)。由此邊緣距離函數(shù)可定義為
圖3 距離變換示例圖
為了融合深度學習模型中的生成形狀和圖像邊緣信息,本文將深度學習模型中的生成形狀(圖4(a))用距離函數(shù)表示模型生成形狀的結(jié)果(圖4(b)),使得形狀邊界處像素點的值為1,其他像素取其與最近邊界點之間的歐式距離mindist (,)<1。由此生成形狀距離函數(shù)定義為
圖4 距離變換示例圖((a) 生成形狀;(b) 生成形狀距離函數(shù);(c) 結(jié)合邊緣和深度學習的目標形狀;(d) 結(jié)合邊緣和深度學習的目標形狀的符號距離函數(shù);(e) Ground-truth)
將生成形狀距離函數(shù)與邊緣距離函數(shù)作點乘運算,即將圖4(b)以及圖3(c)中對應(yīng)位置像素的歐式距離值做乘運算,將運算結(jié)果作為輸出圖像相應(yīng)位置像素的歐式距離值,最終得到結(jié)合邊緣和深度學習的目標形狀(圖4(c))。該方法不僅有效地去除了由Canny算子提取的邊緣信息中虛假目標邊界,而且也改善了深度學習生成模型-CRBM生成形狀時,目標邊緣細節(jié)丟失的情況。并將結(jié)合邊緣和深度學習的目標形狀表示為符號函數(shù)(特殊的水平集函數(shù))[19](圖4(d)),即設(shè)定邊界上像素點的值為0,其他像素取與最近邊界上像素點之間的最小歐式距離。為方便描述,用符號距離函數(shù)表示結(jié)合邊緣和深度學習的目標形狀,用水平集距離函數(shù)表示演化曲線,通過定義得到新的形狀約束項為
本文提出的CLG-CV模型在傳統(tǒng)的CV模型的能量函數(shù)中做了以下改進:首先舍棄了面積項對演化曲線的約束;其次融合邊緣和卷積受限玻爾茲曼機的目標形狀信息,定義新的形狀約束項E,對演化曲線加以約束;最后結(jié)合CV模型的能量項E和形狀約束能量項E得到新的能量泛函。故CLG-CV模型的能量函數(shù)為
其中,為形狀先驗項系數(shù)。通過對式(11)對應(yīng)的歐拉-拉格朗日方程進行求解,可得到演化方程
最后通過迭代水平集函數(shù)的演化方程使得CV模型的能量函數(shù)值達到最小,曲線停止演化,得到最終的分割結(jié)果。
本文主要針對少于2 000像素的小目標遙感圖像來提取目標,其分割任務(wù)更具有挑戰(zhàn)性。所提模型通過施加包含全局和局部的目標特征的約束,使分割得到的目標在完整性和邊緣細節(jié)保留方面都體現(xiàn)得更好,在復雜背景下也能得到正確的分割結(jié)果。分割算法步驟如下:
步驟1.粗分割,給定待分割灰度圖像,建立CV模型對應(yīng)的能量函數(shù)E(),將其最小化,得到粗分割結(jié)果*;
步驟2.訓練CRBM模型,把一批已歸一化至32×32大小的ground truth圖作為訓練集,送入到CRBM模型中訓練;
步驟3. 生成形狀,將*歸一化至32×32大小,并將其作為模型的輸入,經(jīng)過采樣得到重建結(jié)果,將擴大至待分割圖像大小,由式(11)計算生成形狀距離函數(shù);
步驟4.邊緣提取,用Canny算子提取原圖像的邊緣信息,并進行距離變換,由式(10)計算邊緣距離函數(shù);
步驟5. 定義形狀約束項,將步驟3中得到的與步驟4中得到的做點乘運算得到融合邊緣信息和深度學習的目標形狀,并將其表示成符號距離函數(shù),由式(12)得到形狀約束項E;
步驟6. CLG-CV圖像分割,結(jié)合形狀約束項E和能量項E,由式(13)得到新的能量函數(shù),求解對應(yīng)歐拉-拉格朗日方程,使能量函數(shù)達到最小值,得到最終的分割結(jié)果。
Levir數(shù)據(jù)集來源于Google Earth,包含RGB圖像、標記圖像(含有檢測框的圖像) 2類圖像,每幅彩色圖像的尺寸均為800×600,空間分辨率0.2 m。該數(shù)據(jù)集中的目標為油桶、飛機、艦船3類,目標面積小于2 000像素。從標記圖像中隨機選擇500張圖像作為實驗對象。
采用3階段方法制作新的小目標遙感數(shù)據(jù)集。第1階段,將所有標記圖像按照標記信息裁剪圖像,得到僅含一個特定類別的圖像2 485幅。其中油桶651幅,船艦492幅,飛機1 342幅。第2階段,將第1階段中所有圖像,按類別制作為Levir-oil drum、Levir-ship和Levir-airplane 3個數(shù)據(jù)集。第3階段,從Levir-oil drum數(shù)據(jù)集中選取600幅圖像作為訓練集,51幅圖像作為測試集。從Levir-ship數(shù)據(jù)集中選取400幅圖像作為訓練集,92幅圖像作為測試集。從Levir-airplane數(shù)據(jù)集中選取1 000幅圖像作為訓練集,342幅飛機圖像作為測試集。數(shù)據(jù)集中的部分圖像如圖5所示。
表1列出了Levir-oil drum,Levir-ship和Levir- airplane 3個數(shù)據(jù)集中的目標尺寸分析,表明該數(shù)據(jù)集在圖像分割方面具有較大的挑戰(zhàn)。
表1 Levir數(shù)據(jù)集圖像中目標尺寸分析表
電腦配置為Intel(R)Xeon(R) CPU E5-2690,2.6 GHz,256 GB RAM,實驗環(huán)境為Windows10系統(tǒng)下安裝的Matlab R2016a。CV模型分割實驗中,使用數(shù)據(jù)集中的灰度圖像。設(shè)定初始演化曲線是通過位于圖像中心的矩形表示,步長D=0.1,1與2取值均為1,迭代次數(shù)為100。在Canny算子提取邊緣實驗中,直接調(diào)用Matlab中的Canny函數(shù),不需單獨為不同的數(shù)據(jù)集設(shè)置參數(shù)。
參考文獻[20]并結(jié)合實際設(shè)置模型參數(shù)。針對Levir數(shù)據(jù)集中的油桶類,CRBM的參數(shù)設(shè)置如下:卷積核的大小為3×3,卷積核個數(shù)為20,學習率為0.01,迭代次數(shù)為1 500。針對Levir數(shù)據(jù)集中的船艦類,CRBM的參數(shù)設(shè)置如下:卷積核的大小為4×4,卷積核個數(shù)為20,學習率為0.01,迭代次數(shù)為2 000。針對Levir數(shù)據(jù)集中的飛機類,CRBM的參數(shù)設(shè)置如下:卷積核的大小為3×3,卷積核個數(shù)為20,學習率為0.005,迭代次數(shù)為3 000。
為了驗證本文CLG-CV模型的分割性能,分別與CV分割模型和CG-CV分割模型進行實驗對比。
3種分割模型,其中CV模型的分割原理最簡單,該方法通過統(tǒng)計中心區(qū)域與局部鄰域灰度特性對比度值,尋找遙感影像中的目標區(qū)域信息,然后在通過空間關(guān)系剔除疑似的噪聲點,使得演化曲線向著目標輪廓不斷逼近,最終得到正確的分割結(jié)果。優(yōu)點是對灰度均勻的圖像能自動提取出完整的目標,缺點是針對復雜的遙感影像中目標背景區(qū)與目標區(qū)雜糅在一起的情況,很難取得較好的分割結(jié)果。
CG-CV分割模型,是以傳統(tǒng)CV模型為基礎(chǔ)的衍生模型,首先,采用深度學習生成模型–卷積受限玻爾茲曼機建模表征目標全局形狀特征,以及重建目標形狀。其次,利用重建目標形狀,做符號距離變換,得到結(jié)合目標全局形狀信息的約束項。最終,以CV模型為圖像目標分割模型,增加新的約束項得到結(jié)合目標全局特征的CG-CV遙感圖像分割模型。該模型是在傳統(tǒng)的CV模型的能量函數(shù)中做了以下改進:首先舍棄了面積項對演化曲線的約束。其次通過卷積受限波爾茲曼機生成形狀,并定義新的形狀約束項E。最后結(jié)合CV模型的能量項E和形狀約束能量項E得到新的能量泛函。由此新的CG-CV模型的能量函數(shù)為
該模型優(yōu)點是克服了傳統(tǒng)CV分割模型對噪聲敏感的缺點,即在采用深度學習模型CRBM獲取目標形狀的過程中,圖像歸一化的操作造成目標形狀細節(jié)特征的丟失。
本文采用全局精度(global accuracy,Global acc)和交并比(intersection over union,IOU) 2種評價標準來定量評價分割結(jié)果的正確性和完整性,其分別定義為
其中,為目標正確分類的像素數(shù)目;為背景正確分類的像素數(shù)目;為目標分為背景的像素數(shù)目;為背景分為目標的像素數(shù)目。
分別使用Levir-oil drum,Levir-ship和Levir- airplane數(shù)據(jù)集來訓練CRBM模型。通過度量生成的形狀圖像與原始形狀圖像之間的歐式距離差異,來定量地分析CRBM模型對不同形狀的建模效果差異,該值越小表明模型生成的形狀越接近真實的形狀。CRBM模型在不同數(shù)據(jù)集上的訓練時間以及平均歐氏距離度量值見表2。通過對比3個數(shù)據(jù)集在CRBM的訓練時間可以發(fā)現(xiàn),Levir-ship數(shù)據(jù)集的訓練時間最短,主要是由于其訓練樣本的數(shù)量最少。針對不同的數(shù)據(jù)集在CRBM模型上的生成形狀不論是訓練集還是測試集的平均歐氏距離都較小,這是由于CRBM中的卷積操作能夠很好地提取輸入樣本的的局部信息,從而使得生成形狀的結(jié)果更接近真實的形狀。
表2 模型訓練時間及生成形狀結(jié)果的平均歐氏距離度量
圖6分別展示了Levir-oil drum,Levir-ship和Levir-airplane數(shù)據(jù)集的測試集中的5幅圖像生成形狀結(jié)果(圖6(I)a1,圖6(II)a2,圖6(III)a3)。模型生成形狀的時間都在0.25 s左右。由圖6(I)b1,圖6(II)b2,圖6(III) b3可見,在生成形狀的效果方面,油桶的生成形狀結(jié)果最好,重構(gòu)出來的形狀能很好地保留目標油桶的形狀特征,符合真實形狀。從Levir-ship數(shù)據(jù)集中的生成形狀結(jié)果可以看出,對于包含多個目標艦船的圖像,CRBM模型依然能夠很好地建模形狀。這是CRBM模型中的“卷積操作”使得模型能夠很好地提取輸入樣本的全局特征,靈活地表示形狀及生成形狀。從Levir-airplane數(shù)據(jù)集中的生成形狀結(jié)果可以看到,由于目標飛機的形態(tài)結(jié)構(gòu)較為復雜,使得CRBM生成的飛機形狀與真實的飛機形狀仍有較大的差異,如圖6(III)b3-3,6(III)b3-5的所示,生成的飛機形狀丟失較多機翼和發(fā)動機的細節(jié)特征。
圖6 不同數(shù)據(jù)集的生成形狀結(jié)果((a1)~(a3)輸入圖像;(b1~(b3))CRBM生成形狀結(jié)果)
圖7(I)~7(III)分別展示了Levir-oil drum,Levir-ship和Levir-airplane等3個數(shù)據(jù)集的訓練集和測試集中的5幅圖像分割結(jié)果圖。圖8(I)~圖8(III)分別對應(yīng)圖7(I)~圖7(III)中不同模型在上述3個數(shù)據(jù)集的訓練集和測試集中的5幅圖像分割結(jié)果評價。其中Global acc和IOU分別衡量了分割的完整性和正確性,其值越高越好。由圖7(I)可見Levir-oil drum數(shù)據(jù)集中,存在原始圖像是目標油桶被周圍目標背景陰影遮擋的情況(圖7(I)a1-4、圖7(I)a1-5)、原始圖像是目標油桶圖像較復雜的情況(圖7(I)a1-3、圖7(I)a2-6、圖7(I)a2-7)、以及原始圖像的尺寸小于32×32的情況(圖7(I)a1-1、圖7(I)a1-2、7(I)a2-10)。Levir-ship數(shù)據(jù)集中目標船艦個數(shù)不同、形態(tài)各異,且目標艦船周圍都存在一定的背景影響。例如圖7(II)a1-1、圖7(II)a1-3、圖7(II)a1-5、圖7(II)a2-8是原始圖像中目標艦船與背景海面相近且原始圖像尺寸均小于32×32的情況。圖7(II)a1-4是原始圖像中目標艦船的個數(shù)為2個的情況。第圖7(II)a2-6、圖7(II)a2-7、圖7(II)a2-10是原始圖像中目標船艦較小的情況。相較于傳統(tǒng)的CV模型,由于CG-CV模型和CLG-CV模型引入先驗知識指導分割,使得CG-CV模型和CLG-CV模型能有效地克服目標與背景雜糅、目標遮擋等噪聲干擾的影響,提升了模型的分割精度。并且所提模型CLG-CV在每一幅圖上的度量指標能夠達到最高,分割的結(jié)果更符合實際,效果更好。這是由于在CLG-CV模型中將邊緣信息引入模型的形狀約束項中,加強了目標形狀的邊緣細節(jié)特征,能更好地約束演化曲線向目標輪廓不斷逼近,得到正確的分割結(jié)果。
在Levir-airplane數(shù)據(jù)集中,由于原始圖像目標飛機的形態(tài)較油桶及艦船更為復雜,且原始圖像中飛機周圍都存在背景環(huán)境的影響。如圖7(III)a1-1是目標飛機被云層遮擋的情況??梢钥闯鰺o論是訓練集還是測試集,雖然CLG-CV模型在每副圖像的性能評價值最高。這是由于在模型中將邊緣信息引入模型的形狀約束項中,加強了目標形狀的邊緣細節(jié)特征,能更好地約束演化曲線向目標輪廓不斷逼近,得到正確的分割結(jié)果。但與標記圖相比仍有一定的差距,丟失了大量尾翼和飛機發(fā)動機的細節(jié)信息。這是由于建模目標形狀以及生成目標時,模型的輸入尺寸為32×32,在圖像縮放的過程中丟失了細節(jié)信息。從而使得分割效果較差。
為了驗證所提模型的分割性能,表3給出了CV,CG-CV以及CLG-CV模型在Levir數(shù)據(jù)集的測試上的分割性能評價結(jié)果。相較于CV模型,CLG-CV模型在Levir-oil drum,Levir-ship和Levir-airplane 3個數(shù)據(jù)集上的平均Global acc值分別提高至98.654%,97.936%以及96.628%。在Levir-oil drum,Levir-ship和Levir-airplane 3個數(shù)據(jù)集的測試集上的平均IOU值分別提高至95.328%,94.140%以及92.425%。
為了驗證所提模型CLG-CV的推廣性,從網(wǎng)上選取與訓練集中圖像在背景、位置、數(shù)目、上均有差異的256×256大小的圖像,送入模型進行測試(圖9)。
表3 不同模型在Levir測試集上的分割結(jié)果評價
圖9 其他圖像上的分割結(jié)果圖
為解決遙感影像復雜背景下,遠距離成像的小目標分割問題,提出結(jié)合目標局部和全局特征的CV遙感圖像分割(CLG-CV)。在小目標遙感數(shù)據(jù)上的實驗結(jié)果表明,相較于只結(jié)合卷積受限玻爾茲曼機CG-CV模型,CLG-CV模型的分割效果最佳。這是由于CLG-CV在采用生成式模型獲取目標形狀信息的同時,將原圖像的邊緣信息引入模型的形狀約束項中,通過“點乘”的方式減少了邊緣信息中虛假目標邊界,彌補了深度學習生成模型的形狀時,丟失的目標邊緣細節(jié)特征。通過圖像分割實驗結(jié)果表明,與傳統(tǒng)CV模型和CG-CV模型分割方法相比,本文模型在小目標以及其他尺寸較大的遙感影像分割應(yīng)用中也依然能取得較好的分割結(jié)果。
[1] 王好賢, 董衡, 周志權(quán). 紅外單幀圖像弱小目標檢測技術(shù)綜述[J]. 激光與光電子學進展, 2019, 56(8): 080001. WANG H X, DONG H, ZHOU Z Q. Review on dim small target detection technologies in infrared single frame images[J]. Laster & Optoelectronics Progress, 2019, 56(8): 080001 (in Chinese).
[2] 姚紅革, 王誠, 喻鈞, 等. 復雜衛(wèi)星圖像中的小目標船舶識別[J]. 遙感學報, 2020, 24(2): 116-125.YAO H G, WANG C, YU J.Recognition of small-target ships in complex satellite images[J]. Journal of Remote Sensing, 2020, 24(2): 116-125 (in Chinese).
[3] CHAN T F, SANDBERG B Y, VESE L A.Active contours without edges for vector-valued images[J].Journal of Visual Communication and Image Representation,2000,11(2):130-141.
[4] SCH?LKOPFB,SMOLA A, MüLLER K-R. Nonlinear component analysis as a kernel eigenvalue problem[J]. Neural Computation, 1996, 10(5): 1299-1319.
[5] 楊建功, 汪西莉, 李虎. 融合Kernel PCA 形狀先驗信息的變分圖像分割模型[J]. 中國圖象圖形學報, 2015, 20(8): 1035-1041. YANG J G, WANG X L, LI H. Variational image segmentation incorporating Kernel PCA-based shape priors[J]. Journal of Image and Graphics, 2015, 20(8): 1035-1041 (in Chinese).
[6] 田杰, 韓冬, 胡秋霞, 等. 基于PCA和高斯混合模型的小麥病害彩色圖像分割[J]. 農(nóng)業(yè)機械學報, 2014, 45(7): 267-271. TIAN J, HAN D, HU Q X, et al. Segmentation of w heat rust lesion image using PCA and Gussian mix model[J]. Transactions of the Chinese Society for Agricultural Machinery, 2014, 45(7): 267-271 (in Chinese).
[7] AMBERG B, VETTER T. Optimal landmark detection using shape models and branch and bound[C]//2011 IEEE International Conference on Computer Vision (ICCV). New York: IEEE Press, 2011: 455-462.
[8] 王雷, 王升, 汪叢, 等. 基于析取正態(tài)水平集的彩色圖像分割[J]. 傳感器與微系統(tǒng), 2020, 39(6): 127-130. WANG L, WANG S, WANG C, et al. Color image segmentation based on disjunctive normal level set[J]. Transducer and Microsystem Technologies, 2020, 39(6): 127-130 (in Chinese).
[9] 雷曉亮, 于曉升, 遲劍寧, 等. 基于稀疏形狀先驗的腦腫瘤圖像分割[J]. 中國圖象圖形學報, 2019, 24(12): 2222-2232. LEI X L, YU X S, CHI J N, et al. Brain tumor segmentation based on prior sparse shapes[J]. Journal of Image and Graphics, 2019, 24(12): 2222-2232 (in Chinese).
[10] 張娟, 汪西莉, 楊建功. 基于深度學習的形狀建模方法[J]. 計算機學報, 2018, 41(1): 132-144. ZHANG J, WANG X L, YANG J G. Shape modeling method based on deep learning[J]. Chinese Journal of Computers, 2018, 41(1): 132-144 (in Chinese).
[11] DOU F Z, DIAO W H, SUN X, et al. Aircraft reconstruction in high-resolution SAR images using deep shape prior[J]. International of Geo-Information, 2017, 12(6): 214-232.
[12] YUKA K, MATVEY S, TSUHAN C. In the shadows, shape priors shine: using occlusion to improve multi-region segmentation[C]//2016 IEEE Computer Society Conference on computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2016: 392-401.
[13] CANNT J. A computational approach to edge detection[J]. IEEE Transactions on Pattern Analysis and Machine, 1986, 8(6): 679-698.
[14] NOROUZI M, RANJBAR M, MORI G.Stacks of convolutional restricted boltzmann machines for shift-invariant feature learning[C]//2009 IEEEComputer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2009:2735-2742.
[15] FUKUSHIMA K, MIYAKE S, ITO T. Neocognitron: a self-organizing neural network model for a mechanism of visual pattern recognition[J].IEEE Transactions on Systems Man and Cybernetics,1970,13(5):826-834.
[16] HINTON G E. Training products of experts by minimizing contrastive divergence[J]. Neural computation, 2002, 14(8): 1771-1800.
[17] WALSH B. Markov chain monte carlo and gibbs sampling[J]. Notes, 2004, 91(8): 497-537.
[18] Zou Z, Shi Z. Random access memories: a new paradigm for target detection in high resolution aerial remote sensing images[J]. IEEE Transactions on Image Processing, 2018, 27(3): 1100-1111.
[19] CHAN T F, SANDBERG B Y, VESE L A. Active contours without edges for vector-valued images[J]. Journal of Visual Communication and Image Representation, 2000, 11(2): 130-141.
[20] 李曉慧, 汪西莉. 結(jié)合卷積受限玻爾茲曼機的CV分割模型[J]. 激光與光電子學進展, 2020, 57(4): 041018. LI X H, WANG X L. CV image segmentation model combinig convolutional restricted Boltzman machine[J]. Laster & Optoelectronics Progress, 2020, 57(4): 041018 (in Chinese).
CV image segmentation model combining with local and global features of the target
LI Xiao-hui1, WANGXi-li2
(1. School of Computer Science, Qinghai Nationalities University, Xining Qinghai 810007, China; 2. School of Computer Science, Shaanxi Normal University, Xi’an Shaanxi 710119, China)
With the development of the remote sensing satellite technology, high-resolution remote sensing images are on an increasing trend. The automatic target extraction from remote sensing images containing other information and complex background urgently needs to be realized. The traditional image segmentation method mainly depended on such underlying features as image spectrum and texture, and in image segmentation tasks, was likely to be impacted by the interference of shadow and occlusion in the image, complicating the segmentation and leading to unsatisfactory results. For this reason, according to the specific target type, a CV (Chan Vest) image segmentation model combined with local and global features of the target was proposed. Firstly, the deep learning generation model-CRBM (convolution restricted Boltzmann machine) was employed to represent the global shape features of the target and to reconstruct the shape of the target. Secondly, the edge information of the target was extracted by Canny operator, and a new shape constraint term integrating the local edge and global shape information was obtained by symbolic distance transformation. Finally, the CV model served as the image target segmentation model, and new constraints were added to gain the CV remote sensing image segmentation model integrating the local and global features of the target. The experimental results on the remote sensing dataset Levir-oil drum, Levir-ship and Levir-airplane show that the proposed model can not only overcome the noise sensitivity of the CV model, but also segment the target completely and accurately in the case of limited training data, small target size, occlusion and complex background.
image segmentation; shape prior; convolutional restricted Boltzmann machine; deep learning; Chan Vest model
TP 391
10.11996/JG.j.2095-302X.2020060905
A
2095-302X(2020)06-0905-12
2020-07-15;
2020-08-12
15 July,2020;
12 August,2020
國家自然科學基金項目(41471280,61701290,61701289)
National Natural Science Foundation of China (41471280, 61701290, 61701289)
李曉慧(1992-),女,青海西寧人,教師,碩士。主要研究方向為機器學習、圖像處理。E-mail:lixiaohuihxl@163.com
LI Xiao-hui (1992-), female, master student. Her main research interests cover machine learning and image processing. E-mail:lixiaohuihxl@163.com
汪西莉(1969-),女,陜西西安人,教授,博士。主要研究方向為智能信息處理、模式識別、圖像處理。E-mail:wangxili@snnu.edu.cn
WANG Xi-li (1969-), female, professor, Ph.D. Her main research interests cover intelligent information processing, machine learning and image processing. E-mail:wangxili@snnu.edu.cn