亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于ObjectNess BING 的海面多艦船目標(biāo)檢測

        2016-01-21 07:27:00郭少軍沈同圣馬新星
        關(guān)鍵詞:角點(diǎn)艦船模板

        郭少軍, 沈同圣, 徐 健, 馬新星

        (1.海軍航空工程學(xué)院控制科學(xué)與工程系, 山東 煙臺(tái) 264001;

        2.中國國防科技信息中心, 北京 100142; 3. 91868部隊(duì), 海南 三亞 572000)

        ?

        基于ObjectNess BING 的海面多艦船目標(biāo)檢測

        郭少軍1,3, 沈同圣2, 徐健1, 馬新星1

        (1.海軍航空工程學(xué)院控制科學(xué)與工程系, 山東 煙臺(tái) 264001;

        2.中國國防科技信息中心, 北京 100142; 3. 91868部隊(duì), 海南 三亞 572000)

        摘要:將一幅圖像按照一個(gè)目標(biāo)的大小進(jìn)行縮放,然后計(jì)算其梯度特征,再對梯度特征進(jìn)行標(biāo)準(zhǔn)化,二值化能夠極大地提高目標(biāo)候選區(qū)域的選擇和檢測計(jì)算效率,減少耗時(shí)。由于對海上艦船目標(biāo)的檢測是具有豐富角點(diǎn)的人造目標(biāo),對ObjectNess二值化標(biāo)準(zhǔn)梯度特征(binarized normed gradients, BING)方法中的目標(biāo)候選區(qū)域提取算法進(jìn)行改進(jìn),使其能夠更加快速地進(jìn)行候選區(qū)域的選擇并保持較高的檢測率。分析了海上多艦船目標(biāo)的圖像特征,提出了利用角點(diǎn)確定目標(biāo)的候選基點(diǎn),再利用ObjectNess BING檢測模型訓(xùn)練獲得的多目標(biāo)尺寸進(jìn)行候選區(qū)域的選擇,對互聯(lián)網(wǎng)上下載的多幅多艦船圖像進(jìn)行處理的結(jié)果表明,算法能夠有效減少候選目標(biāo)區(qū)域的數(shù)量并保持較高的檢測概率。

        關(guān)鍵詞:ObjectNess二值化標(biāo)準(zhǔn)梯度特征; 角點(diǎn)檢測; 模板訓(xùn)練; 海面艦船; 目標(biāo)檢測

        0引言

        海上多艦船目標(biāo)檢測的任務(wù)是對感興趣的艦船進(jìn)行檢測與識別。目標(biāo)檢測的好壞對海戰(zhàn)、海上救援、海上反恐、海島安全防御都具有重大的影響。時(shí)間是完成任務(wù)的根本,因此減少候選目標(biāo)區(qū)域和提高目標(biāo)檢測運(yùn)算速度顯得尤為重要。

        文獻(xiàn)[1]針對可見光遙感紅外小目標(biāo)檢測問題,根據(jù)背景呈紋理狀的特性,依據(jù)局部熵大處圖像灰度比較均勻,局部熵小處圖像的灰度離散程度較大的原理,提出了一種基于局部熵的目標(biāo)檢測方法;文獻(xiàn)[2]采用小波濾波降低圖像噪聲,再檢測海天線,確定目標(biāo)潛在區(qū)域,最后采用基于行列均值的自適應(yīng)閾值方法進(jìn)行閾值分割,并以邊界長度、目標(biāo)大小、長寬比及復(fù)雜度作為目標(biāo)特征進(jìn)行匹配,實(shí)現(xiàn)目標(biāo)檢測。文獻(xiàn)[3]探討了一種基于海天線檢測的艦船目標(biāo)定位方法。該方法運(yùn)用最大類間方差(OTSU)算法二值化圖像,運(yùn)用模板濾波去除離散干擾點(diǎn),運(yùn)用Canny算子檢測邊緣并掃描圖像,運(yùn)用閾值鏈接方法保留海天線上的點(diǎn),去除目標(biāo)邊緣點(diǎn)和干擾點(diǎn),并以一元線性回歸方法擬合出海天線,確定目標(biāo)潛在區(qū)域,最后運(yùn)用投影法實(shí)現(xiàn)目標(biāo)定位;文獻(xiàn)[4]提出了基于分形特征的海上目標(biāo)檢測方法,分形特征能夠有效區(qū)分人造目標(biāo)和自然目標(biāo);文獻(xiàn)[5]采用局部熵方法對圖像進(jìn)行預(yù)處理,突出目標(biāo)邊緣,再用Canny算子提取目標(biāo)邊緣,實(shí)現(xiàn)對目標(biāo)的檢測;文獻(xiàn)[6]針對目標(biāo)像素小于背景像素10%時(shí),門限分割方法難以分割目標(biāo)的問題,采用顯著性特征引導(dǎo)方法,利用吃水線、高灰度煙囪等特征確定潛在目標(biāo)區(qū)域,縮小背景范圍,并通過高灰度煙囪及發(fā)動(dòng)機(jī)部位像素與船體像素的比例判斷是否先進(jìn)行直方圖像均衡化,再運(yùn)用OTSU方法分割圖像,實(shí)現(xiàn)目標(biāo)的分割。以上的方法大部分需要一個(gè)條件:海天線。然而,在背景存在海島或者其他海天線不容易檢測的條件下,以上方法的檢測效率將會(huì)受到較大影響。所以需要盡可能的提取候選目標(biāo)區(qū)域并盡可能多地包含真實(shí)目標(biāo)。

        近些年,為了克服海面目標(biāo)檢測對海天線的依賴,海面目標(biāo)檢測得到了快速地發(fā)展,然而主流的方法都是基于特殊分類器進(jìn)行的圖像窗口區(qū)域掃描[7-8],掃描數(shù)據(jù)量龐大。因此,對減少分類器掃描窗口的研究變得越來越熱門[9-15],文獻(xiàn)[10]向我們展示了“似物性”,即表示一個(gè)窗口內(nèi)存在目標(biāo)的可能性。文獻(xiàn)[16]提出用二值化標(biāo)準(zhǔn)梯度特征(binarized normed gradients, BING)來進(jìn)行候選窗口的“似物性”預(yù)測,表現(xiàn)出了強(qiáng)大的多目標(biāo)檢測能力。

        在研項(xiàng)目的主要任務(wù)是檢測海面艦船,角點(diǎn)檢測能夠有效地對人造目標(biāo)進(jìn)行檢測,而艦船目標(biāo)屬于人造目標(biāo),通過研究發(fā)現(xiàn)利用角點(diǎn)和BING相結(jié)合的方法能夠有效地減少候選目標(biāo)窗口從而減少目標(biāo)估計(jì)檢測時(shí)間。設(shè)計(jì)一個(gè)高效的多艦船目標(biāo)檢測方法需要滿足以下幾點(diǎn)要求:

        (1) 具有較高的檢測概率(detection rate, DR);

        (2) 預(yù)測較少數(shù)量的候選窗口從而減少艦船檢測的計(jì)算時(shí)間;

        (3) 具備高計(jì)算效率使算法能夠較容易地移植到不同的應(yīng)用,尤其是實(shí)時(shí)應(yīng)用系統(tǒng);

        (4) 具有檢測不可見目標(biāo)的能力。

        到目前為止,能同時(shí)滿足以上所有條件的方法幾乎沒有[16]。

        基于上述分析本文提出了結(jié)合BING和角點(diǎn)的方法進(jìn)行海面目標(biāo)檢測,該方法首先利用BING和LIB-SVM對目標(biāo)樣本集訓(xùn)練識別模板,再針對不同尺度的樣本集計(jì)算模板系數(shù)與偏差,提高模板匹配精度;測試過程中利用角點(diǎn)檢測和樣本尺度數(shù)據(jù)進(jìn)行候選窗口預(yù)測,有效減少候選窗口數(shù)量,再利用尺度模板進(jìn)行候選窗口得分評估,完成目標(biāo)檢測。通過實(shí)驗(yàn)分析發(fā)現(xiàn),本文方法能夠滿足以上條件中的前3點(diǎn)。

        1基于BING的模板訓(xùn)練

        圖1給出的是本文算法流程??梢詫⒒贐ING的檢測模板訓(xùn)練描述如下:給定一系列具有目標(biāo)信息描述的數(shù)據(jù)集,從描述信息中獲得目標(biāo)窗口位置,利用真實(shí)目標(biāo)作為正樣本,同時(shí)在每幅圖像中選取100個(gè)非目標(biāo)窗口作為負(fù)樣本,引入LIB-linear或LIB-SVM[17]來訓(xùn)練這些樣本集,獲得目標(biāo)似物性檢測模板。

        圖1 算法流程圖

        1.1線性模板

        在文獻(xiàn)[16]中,利用BING訓(xùn)練獲得了目標(biāo)模板,對于不同尺寸的目標(biāo)窗口進(jìn)行匹配得分計(jì)算,模板用w∈R64形容。

        (1)

        式中,sl,gl,l,i和(x,y)分別是濾波得分、標(biāo)準(zhǔn)化梯度特征、位置、尺寸和窗口坐標(biāo)。用普遍的常識形容:將一幅圖像重構(gòu)成一個(gè)目標(biāo)的大小尺寸,這個(gè)尺寸中含有這個(gè)目標(biāo)的區(qū)域占整個(gè)圖像比例將會(huì)增多[18-20]。同理,一個(gè)具有目標(biāo)大小的候選尺寸將更有可能包含這個(gè)目標(biāo)。因此,將圖像按照目標(biāo)尺寸重構(gòu),計(jì)算梯度特征,同時(shí)利用非最大值約束方法選擇邊緣點(diǎn)并以邊緣點(diǎn)和目標(biāo)尺寸大小進(jìn)行候選目標(biāo)窗口區(qū)域提取將具有更大的概率包含同尺寸目標(biāo)。定義似物性得分為

        (2)

        式中,vi,ti∈R分別代表學(xué)習(xí)獲得的尺寸i對于模板w的系數(shù)和偏移量。

        1.2模板訓(xùn)練

        模板訓(xùn)練包含兩個(gè)階段,第一階段的訓(xùn)練是利用所有尺寸的正樣本與負(fù)樣本計(jì)算BING特征,再輸入到LIB-SVM中進(jìn)行模板訓(xùn)練,獲得第一階段模板;第二階段模板訓(xùn)練是建立在第一階段基礎(chǔ)之上的,這個(gè)階段將完成不同尺度模板相對第一階段模板的系數(shù)與偏移量,從而使不同尺度的目標(biāo)匹配得分更加精確。

        1.2.1第一階段模板訓(xùn)練

        獲得包含目標(biāo)區(qū)域圖像的正樣本后選擇和正樣本具有50%重合的圖像都作為目標(biāo)的正樣本,這樣生成的模板將具有一定的局部目標(biāo)檢測能力。同時(shí),在每幅圖像中隨機(jī)選擇100個(gè)窗口作為負(fù)樣本,這100個(gè)窗口不能和任意一個(gè)目標(biāo)區(qū)域具有超過50%的重合區(qū)域。進(jìn)一步地引入LIB-linear和LIB-SVM來進(jìn)行檢測模板訓(xùn)練。和BING一樣,本文也將模板重構(gòu)為一個(gè)固定的大小(8×8),這將有利于計(jì)算高效化。

        1.2.2第二階段模板訓(xùn)練

        以上獲得的模板不是最終的結(jié)果,因?yàn)槊總€(gè)尺寸的目標(biāo)利用這個(gè)模板進(jìn)行似物性計(jì)算都存在相應(yīng)的偏差,因此需要進(jìn)行進(jìn)一步的計(jì)算,即獲得如等式(2)所示的系數(shù)和偏移量。首先利用預(yù)測獲得的候選窗口(見第2節(jié)),選擇那些和真實(shí)目標(biāo)具有超過50%疊加面積的窗口作為正樣本,其他的作為負(fù)樣本,同時(shí)記錄樣本的尺寸和數(shù)量,對不同的尺寸進(jìn)行提取相對應(yīng)的正樣本和負(fù)樣本,再一次引入LIB-linear和LIB-SVM對樣本進(jìn)行訓(xùn)練從而獲得與第一階段訓(xùn)練獲得模板的系數(shù)vi和偏差ti,這樣,利用式(1)計(jì)算候選窗口的似物性得分就變得簡單。

        1.3檢測模板與梯度特征的二值化

        檢測模板訓(xùn)練是基于BING進(jìn)行的,模板與特征的二值化將大大提高目標(biāo)的檢測速率。本文利用海面多目標(biāo)艦船圖像進(jìn)行模板訓(xùn)練,獲得模板的圖形化表示如圖2所示。從圖形來看模板中間目標(biāo)區(qū)域的BING特征值較邊緣處的BING特征值亮度要低,具有特征包裹性,即目標(biāo)存在圖像中心的特征[21-25]。沿著模板w邊緣的的高權(quán)值有效將目標(biāo)從背景中分離開來,同時(shí),基于BING的訓(xùn)練模板能夠更具有穩(wěn)定性和預(yù)見性[16]。

        圖2 訓(xùn)練模板W

        文獻(xiàn)[26-28]解釋了模板二值化近似的優(yōu)點(diǎn),文獻(xiàn)[16]提出了BING的快速估計(jì),加速了特征提取和測試過程,因此本文中也使用BING的二值化模板近似估計(jì)以加速特征提取與測試。模板的二值化近似過程為:

        算法 1二值化近似模板w[25]

        輸入w,Nw

        輸出{βj}Nwj=1,{aj}Nwj=1

        偏移初始化ε=w

        forj=1toNwdo

        aj=sign(ε)

        βj=〈aj,ε〉/‖aj‖2(映射ε到aj)

        ε←ε-βjaj(更新偏移量ε)

        endfor

        (3)

        算法2是用來對梯度特征計(jì)算并二值化的,以Ng個(gè)二進(jìn)制位來表述正規(guī)化的梯度特征,這樣一個(gè)64D的梯度特征gl可以由Ng個(gè)二值化的梯度特征來近似

        (4)

        在位的不同位置BING具有不同的權(quán)值,利用它能夠快速高效地計(jì)算獲得候選目標(biāo)窗口。擋計(jì)算候選窗口的BING特征的似物性得分時(shí),可以將得分以等式(5)來近似。

        (5)

        算法 2計(jì)算 W×H 的BING特征

        輸入二值化的正規(guī)梯度特征bW×H

        輸出BING特征矩陣bW×H

        初始化bW×H=0,rW×H=0

        for每個(gè)位置(x,y)do

        rx,y=(rx,y?1)|bx,y

        bx,y=(bx,y-1?8)|rx,y

        endfor

        2候選窗口預(yù)測與檢驗(yàn)

        2.1候選窗口預(yù)測

        候選目標(biāo)窗口的多少是目標(biāo)檢測耗時(shí)的一個(gè)關(guān)鍵因素,BING利用非最大值約束(non-maximum suppression, NMS)平均為每幅圖像預(yù)測1 000+的候選窗口,是窗口掃描方式需要候選窗口的1/1 000左右[19,24,26,30]。BING利用二值化正規(guī)模板來對目標(biāo)進(jìn)行檢測,具有強(qiáng)大的檢測能力和檢測效率,在文獻(xiàn)[16]中顯示處理VOC2007訓(xùn)練圖像集過程中,平均每幅圖像的候選目標(biāo)窗口預(yù)測耗時(shí)只有0.03 s。

        減少多艦船目標(biāo)檢測耗時(shí)具有兩種方法:一種是建立一個(gè)更加高效的檢測模板,二值化正規(guī)模板已經(jīng)具有強(qiáng)大的檢測能力,因此文章利用此方式訓(xùn)練模板;另一種是減少候選目標(biāo)窗口的數(shù)量但同時(shí)保持較高的DR。本文利用了圖像的角點(diǎn)和訓(xùn)練模板獲得的目標(biāo)尺寸進(jìn)行候選窗口的構(gòu)建與選擇,提取的候選窗口數(shù)量只有先前BING方法中非最大值約束的一半,但同時(shí)保持了較高的檢測效率(見第3節(jié))。

        2.2非最大值約束的窗口預(yù)測

        利用非最大值約束進(jìn)行候選目標(biāo)窗口預(yù)測的方法首先需要將圖像重構(gòu)成訓(xùn)練獲得的目標(biāo)尺寸的大小(候選目標(biāo)尺寸越多檢測范圍越廣),再對重構(gòu)后的圖像進(jìn)行梯度特征計(jì)算[18,30],然后在對梯度特征圖像進(jìn)行非最大值約束提取候選窗口基點(diǎn),最后結(jié)合基點(diǎn)位置和訓(xùn)練目標(biāo)尺寸構(gòu)建候選窗口并進(jìn)行提取,這種方式為每股圖像獲得的候選窗口數(shù)量在1 500~1 800。

        2.3基于角點(diǎn)的窗口預(yù)測

        利用角點(diǎn)的窗口預(yù)測和基于非最大值約束的方法具有一定的相似性,同樣首先需要將圖像重構(gòu)成訓(xùn)練獲得的目標(biāo)尺寸大小,不同的是進(jìn)一步計(jì)算的不再是梯度特征而是角點(diǎn)位置的檢測,在完成了角點(diǎn)位置的檢測后需要進(jìn)一步利用非最大值約束的方法對角點(diǎn)的分布進(jìn)行優(yōu)化。角點(diǎn)檢測原理如下。

        為了定義圖像中的角點(diǎn),觀察一個(gè)假設(shè)的特征點(diǎn)周圍小窗口內(nèi)的方向性強(qiáng)度平均變化??紤]到偏移向量(μ,ν),則它的平均變化為

        (6)

        求和過程覆蓋了預(yù)定義的相鄰像素點(diǎn)[33]。強(qiáng)度變化的平均值計(jì)算需要在所有可能方向上進(jìn)行,因?yàn)楦邚?qiáng)度變化可能出現(xiàn)在任何方向。通過這個(gè)定義,進(jìn)行如下測試過程:首先獲取平均強(qiáng)度變化最大值對應(yīng)的方向,在檢查位于它垂直方向的變化是否也很強(qiáng)烈,同時(shí)滿足條件的便是一個(gè)角點(diǎn)。

        用數(shù)學(xué)語言來講,測試這個(gè)條件時(shí)可以利用泰勒級數(shù)展開對式(6)進(jìn)行近似

        (7)

        可以用矩陣形式重寫式(7)

        (8)

        這是一個(gè)協(xié)方差矩陣,表現(xiàn)的是所有方向上強(qiáng)度的變化率。該定義涉及圖像的一階導(dǎo)數(shù),通常利用Sobel算子來進(jìn)行結(jié)果計(jì)算。協(xié)方差矩陣的兩個(gè)特征值給出了最大平均強(qiáng)度變化以及垂直方向上的平均強(qiáng)度變化,如果這兩個(gè)特征比較低,那么對應(yīng)的特征點(diǎn)位于同質(zhì)區(qū)域,如果其中一個(gè)高另一個(gè)低,則屬于邊緣區(qū)域,如果兩個(gè)特征值都較高,那么可以認(rèn)為特征點(diǎn)處于角點(diǎn)位置。因此,角點(diǎn)成立的條件是協(xié)方差的最小特征值超過閾值大小。

        為了避免特征值計(jì)算帶來的時(shí)間消耗,利用特征分解理論中的一些特性可以避免對特征值進(jìn)行求解,這些特征包括:

        (1) 矩陣的特征值之積等于它的行列式(Determinant);

        (2) 矩陣的特征值之和等于矩陣對角線之和,既矩陣的跡(Trace)。

        然后可以通過式(9)判斷兩個(gè)特征值是否都足夠高。

        score=Det(C)-k.Trace2(C)

        (9)

        可以很容易的驗(yàn)證,只有兩個(gè)特征值都足夠高的時(shí)候,式(9)的結(jié)果才會(huì)足夠高。為了改進(jìn)檢測結(jié)果,進(jìn)一步引入非最大值抑制來進(jìn)行優(yōu)化,從而角點(diǎn)不僅是具有較高得分的點(diǎn),并且必須是鄰域內(nèi)得分最高的點(diǎn)。

        盡管NMS能夠?qū)屈c(diǎn)檢測結(jié)果進(jìn)行優(yōu)化,但是角點(diǎn)通常在紋理豐富的區(qū)域集聚密集,在紋理稀疏的地方分布較少,為了改善這種情況,首先計(jì)算出得分最大的角點(diǎn)作為基點(diǎn),再進(jìn)行角點(diǎn)兩兩之間的歐氏距離,只有和任意角點(diǎn)距離都大于一定值的角點(diǎn)才保留下來,這樣角點(diǎn)數(shù)量將會(huì)變少,并且分布更加均勻。

        2.4窗口檢驗(yàn)

        預(yù)測一幅測試圖像獲得候選窗口后需要對候選窗口進(jìn)行檢驗(yàn)。首先計(jì)算候選窗口的BING特征向量,再將特征向量與候選窗口相對應(yīng)的模板進(jìn)行匹配得分計(jì)算,如果匹配得分值大于閾值T,則認(rèn)為這個(gè)窗口內(nèi)有目標(biāo),否則認(rèn)為這個(gè)窗口是虛假窗口。得分計(jì)算等式為

        sl=

        (10)

        式中,Wc是按照式(2)計(jì)算得到的不同尺度的模板;sl、gl、l、i、(x,y)分別是濾波得分、標(biāo)準(zhǔn)化梯度特征、位置、尺寸,窗口坐標(biāo)。

        3實(shí)驗(yàn)結(jié)果

        本文利用Intel(R) Core(TM) i5-3317U CPU @1.7HZ進(jìn)行處理,采用海面艦船目標(biāo)圖像進(jìn)行試驗(yàn),利用DR-#WIN3估計(jì)矩陣進(jìn)行性能評估,并將評估結(jié)果和BING方法進(jìn)行對比。按式(11)計(jì)算目標(biāo)的DR:

        (11)

        圖3給出了兩種方法的檢測率與候選數(shù)量之間的關(guān)系曲線圖,基于角點(diǎn)的候選窗口預(yù)測數(shù)量不如BING多,在候選窗口少于900時(shí),其檢測效率不如BING,但是當(dāng)候選窗口達(dá)到900時(shí)能夠達(dá)到96.2%的檢測率并在5 000時(shí)能夠達(dá)到99.5%,效果和BING不相上下。表1給出了兩種方法對不同尺寸的圖像集處理的結(jié)果。每組采用10幅圖像進(jìn)行處理。

        為了更加直觀地觀察不同尺度下兩種方法的候選窗口數(shù)量的差異,考慮到篇幅問題,圖4只給出了3個(gè)不同尺度圖像的候選窗口預(yù)測結(jié)果來進(jìn)行對比。

        圖3 檢測率曲線

        如表1所示,本文方法對整個(gè)數(shù)據(jù)圖像集候選窗口的提取與目標(biāo)的檢測耗時(shí)為15.4 ms/幅,而BING的處理耗時(shí)為37.4 ms/圖,對332×220,334×500,500×375 3個(gè)尺寸的圖像集耗時(shí)只需BING的1/4。

        表1 候選窗口提取與目標(biāo)檢測耗時(shí)表

        總體來看本文方法平均耗時(shí)量是BING方法的一半不到,這歸結(jié)于本文方法提取的目標(biāo)候選區(qū)域較少但是覆蓋目標(biāo)區(qū)域較完善,減少了不必要的錯(cuò)誤檢測與判斷,從而減少了時(shí)間的消耗。本文方法在檢測概率上較BING稍微遜色1/1 000,但是在時(shí)間速度上能達(dá)到BING的兩倍以上。

        從統(tǒng)計(jì)結(jié)果來看,本文算法耗時(shí)比BING要少,候選窗口提取與目標(biāo)檢測速度大約是BING的兩倍。

        圖5中對檢測結(jié)果進(jìn)行了展示。其中有多艦船目標(biāo)圖像的檢測,也有針對單個(gè)大目標(biāo)的檢測結(jié)果。通過檢測結(jié)果發(fā)現(xiàn),本文算法對多個(gè)海面目標(biāo)檢測精確,檢測目標(biāo)在檢測框中間位置,對于較大的單個(gè)目標(biāo)圖像,由于艦船桅桿及其他明顯角點(diǎn)位置的干擾還存在一些誤差,如圖 5最后一行所示,這也是下一步需要改進(jìn)的方面。

        圖4 兩種方法提取的候選目標(biāo)區(qū)域

        圖5 海面真實(shí)目標(biāo)的檢測說明

        4結(jié)束語

        本文提出了一種比非最大值約束更有效地候選目標(biāo)提取算法,利用BING訓(xùn)練模型的出色檢測能力,對候選窗口進(jìn)行目標(biāo)檢測。對多艦船目標(biāo)的檢測結(jié)果利用DR-#WIN3進(jìn)行評估,評估結(jié)果表明本文算法在耗時(shí)上較BING提升了將近1倍,同時(shí)保證了目標(biāo)的檢測率。

        本文算法為每幅圖像提取相對應(yīng)的候選窗口的前提是目標(biāo)具有一定的封閉輪廓。因此,該算法和BING以及窗口掃描式的檢測算法[10,15,31-33]一樣具有局限性。另外,該算法是為了完成海面多艦船目標(biāo)檢測任務(wù)而設(shè)計(jì)的,它的應(yīng)用范圍沒有BING廣泛,對于一些不具備角點(diǎn)的目標(biāo)檢測會(huì)變得困難,但是在我們的任務(wù)中,即對艦船目標(biāo)的檢測中,它在速度方面具有一定的優(yōu)勢,這對時(shí)效性要求較高的情況具有積極的意義。

        較好的目標(biāo)檢測效果和運(yùn)算效率使得該算法能夠在一定程度上勝任多艦船目標(biāo)的檢測。算法中引入了二值化操作和存儲(chǔ)使其可以移植到低能耗的設(shè)備上,比如為海島安全、海面反恐、海上救援等設(shè)計(jì)的移動(dòng)設(shè)備等。另一方面,對于缺乏角點(diǎn)的目標(biāo)檢測效率并不理想,這促使我們進(jìn)一步地研究人工目標(biāo)檢測模板的訓(xùn)練方法,考慮各個(gè)方面的需求,針對特殊任務(wù)特殊需求進(jìn)行深入研究。

        參考文獻(xiàn):

        [1] Shi P, Zhuang L S, Ao H H, et al. Ship detection based on human vision perception[J].JournalofAtmosphericandEnvironmentalOptics, 2010,5(5):373-379.(施鵬,莊連生,敖歡歡,等,基于視覺感知機(jī)理的艦船目標(biāo)檢測[J].大氣與環(huán)境光學(xué)學(xué)報(bào),2010,5(5):373-379.)

        [2] Yang M Y, Yang W P. Automatic detection method of IR warship target in the complex sea-sky background[J].InfraedandLaserEngineering,2006,28(10):580-584.(楊明月,楊衛(wèi)平.復(fù)雜海天背景下紅外艦船目標(biāo)實(shí)時(shí)檢測算法[J].紅外技術(shù),2006, 28(10): 580-584.)

        [3] Huang Y D, Li J, Fan N J. Algorithm for locating naval ship on the sea-sky-line[J].TransactionsofBeijingInstituteofTechnology, 2008,28(4):302-305.(黃英東,李杰,范寧軍.海天線上艦船定位算法研究[J].北京理工大學(xué)學(xué)報(bào),2008,28(4):302-305.)

        [4] Zhang D X, He S H, Yang S Q. Ship targets detection method based on multi-scale fractal feature[J].Laser&Infrared,2009,39(3):315-318.(張東曉,何四華,楊紹清.一種多尺度分形的艦船目標(biāo)檢測方法[J].激光與紅外,2009, 39(3):315-318.)

        [5] Ai S F, Zhang G H, Lv G J. A local entrophy based algorithm for detecting IR target under sea background[J].ElectronicOptics&Control,2008,15(7):75-82.(艾淑芳,張國華,呂高杰.一種基于局部熵的海背景紅外目標(biāo)檢測算法[J].電光與控制,2008,15(7):75-82.)

        [6] Zhang F, Wang Y H. Fast IR ship segmentation guided by salient features detection[J].InfraredandLaserEngineering,2004,33(6):603-606.(張芳,王岳環(huán).基于顯著特征引導(dǎo)的紅外艦船目標(biāo)快速分割方法研究[J].紅外與激光工程,2004,33(6):603-606.)

        [7] Dalal N, Triggs B. Histograms of oriented gradients for human detection[C]∥Proc.ofthethe18thIEEEConferenceonComputerVisionandPatternRecognition, 2005: 886-893.

        [8] Felzenszwalb P F, Girshick R B, McAllester D, et al. Object detection with discriminatively trained part-based models[J].IEEETrans.onPatternAnalysis&MachineIntelligence, 2010,32(9):1627-1645.

        [9] Alexe B, Deselaers T, Ferrari V, et al. What is an object?[C]∥Proc.ofthe23thIEEEConferenceonComputerVisionandPatternRecognition, 2010: 73-80.

        [10] Alexe B, Deselaers T, Ferrari V, et al. Measuring the objectness of image windows[J].IEEETrans.onPatternAnalysis&MachineIntelligence, 2012,34(11): 2189-2202.

        [11] Endres I, Hoiem D. Category independent object proposals[C]∥Proc.ofthe11thEuropeanConferenceonComputerVision, 2010:575-588.

        [12] Endres I, Hoiem D. Category-independent object proposals with diverse ranking[J].IEEETrans.onSoftwareEngineering, 2014, 36(2):222-234.

        [13] Uijlings J R R, Van de Sande K E A, Gevers T, et al. Selective search for object recognition[J].InternationalJournalofComputerVision, 2013,104(2):154-171.

        [14] Van de Sande K E A, Uijlings J R R, Gevers T, et al. Segmentation as selective search for object recognition[C]∥Proc.ofthe13thIEEEInternationalConferenceonComputerVision, 2011:1879-1886.

        [15] Zhang Z, Warrell J, Torr P H, et al. Proposal generation for object detection using cascaded ranking svms[C]∥Proc.ofthe24thIEEEConferenceonComputerVisionandPatternRecognition, 2011:1497-1504.

        [16] Cheng M M, Zhang Z M, Lin W Y, et al. BING: binarized normed gradients for objectness estimation at 300fps[C]∥Proc.ofthe27thIEEEConferenceonComputerVisionandPatternRecognition, 2014: 2386-2393.

        [17] Fan R E, Chang K W, Hsieh C J, et al. A library for large linear classification[J].TheJournalofMachineLearningResearch, 2008,9:1871-1874.

        [18] Cheng M M, Warrell J, Lin W Y, et al. Efficient salient region detection with soft image abstraction[C]∥Proc.ofthe14thInternationalConferenceonComputerVision,2013: 1529-1536.

        [19] Cheng M M, Zhang F L, Mitra N J, et al. RepFinder: finding approximatelyrepeated scene elements for image editing[J].ACMTrans.onGraphics, 2010,29(4):1-8.

        [20] Cheng M M, Zhang G X, Mitra N J, et al. Global contrast based salient region detection[C]∥Proc.ofthe24thIEEEConferenceonComputerVisionandPatternRecognition,2011:409-416.

        [21] Itti L, Koch C, Niebur E, et al. A model of saliency-based visual attention for rapid scene analysis[J].IEEETrans.onPatternAnalysisandMachineIntelligence, 1998, 20(11): 1254-1259.

        [22] Gottlieb J P, Kusunoki M, Goldberg M E, et al. The representation of visual salience in monkey parietal cortex[J].Nature, 1998, 391(6666):481-484.

        [23] Koch C, Ullman S. Shifts in selective visual attention: towards the underlying neural circuitry[J].HumanNeurbiology,1985,4:219-227.

        [24] Cheng M M, Zheng S, Lin W Y, et al. ImageSpirit: verbal guided image parsing[J].ACMTrans.onGraphics, 2014,34(1):1-11.

        [25] Wolfe J M, Horowitz T S. What attributes guide the deployment of visual attention and how do they do it?[J].NatureReviewsNeuroscience, 2004,5(6):495-501.

        [26] Chia Y S, Zhuo S, Gupta R K, et al. Semantic colorization with internet images[J].ACMTrans.onGraphics(ACMTOG), 2011,30(6):1-8.

        [27] Hare S, Saffari A. Efficient online structured output learning for keypoint-based object tracking[C]∥Proc.ofthe25thIEEEConferenceonComputerVisionandPatternRecognition, 2012:1894-1901.

        [28] Zheng S, Sturgess P, Torr P H S, et al. Approximate structured output learning for constrained local models with application to real-time facial feature detection and tracking on low-power devices[C]∥Proc.ofthe10thIEEEConferenceonAutomaticFaceandGestureRecognition, 2013:1-8.

        [29] Cheng M M, Mitra N J, Huang X, et al. Salient object detection and segmentation[R].TPAMI-2011-10-0753.Springfield: China Tsinghua University,2011.

        [30] Cheng M M, Mitra N J, Huang X, et al. Salientshape: group saliency in image collections[J].TheVisualComputer,2013:1-10.

        [31] Dalal N, Triggs B. Histograms of oriented gradients for human detection[C]∥Proc.ofthe18thIEEEConferenceonComputerVisionandPatternRecognition,2005,1: 886-893.

        [32] Felzenszwalb P F, Girshick R B, McAllester D, et al. Object detection with discriminatively trained partbased models[J].IEEETrans.onPatternAnalysis&MachineIntelligence,2010,32(9): 1627-1645.

        [33] Bongioe K, Jihoon C, Yong W P, et al. Robust corner detection based on image structure[J].CircuitsSystemSignalProcess, 2012,31(10): 1443-1457.

        郭少軍(1985-),男,助理工程師,博士研究生,主要研究方向?yàn)閳D像融合,多目標(biāo)檢測與模式識別。

        E-mail:guoba2000@163.com.

        沈同圣(1966-),男,教授,博士研究生導(dǎo)師,主要研究方向?yàn)閳D像融合、多目標(biāo)檢測與識別。

        E-mail:TS-SY@163.com.

        徐健(1983-),男,工程師,博士研究生,主要研究方向?yàn)槟繕?biāo)識別、圖像融合技術(shù)。

        E-mail:blues_coffee@163.com

        馬新星(1983-),男,工程師,博士研究生,主要研究方向?yàn)槎嗄繕?biāo)檢測識別與圖像融合。

        E-mail:xinxing_2006@tom.com

        網(wǎng)絡(luò)優(yōu)先出版地址:http://www.cnki.net/kcms/detail/11.2422.TN.20150818.1519.006.html

        Detection of multi-ship targets at sea based on ObjectNess BING

        GUO Shao-jun1,3, SHEN Tong-sheng2, XU Jian1, MA Xin-xing1

        (1.DepartmentofControlEngineering,NavyAeronauticalEngineeringUniversity,Yantai264001,China;

        2.ChinaDefenseScienceandTechnologyInformationCenter,Beijing100142,China;

        3.Unit91868ofthePLA,Sanya572000,China)

        Abstract:It is found that generic objects with well-defined closed boundary can be discriminated by looking at the norm of gradients, with a suitable resizing of their corresponding image windows into a small fixes size,which can save a lot of time. Inspired by the high quality of ObjectNess binarized normed gradients (BING), it is used for the multi-ship target detection on the sea. Considering the characteristics of the ship targets and the artificial objects, a method of predicting the object candidate windows based on corner points and ObjectNess BING is proposed, which can also generates a small set of high quality ship target windows, yielding 96.2% object detection rate (DR) just like the former ObjectNess BING dose for the test of images downloaded from the internet, but with only 900+proposals. It reduces the time cost of ship targets detection and makes the ship detection more efficient than the former ObjectNess BING.

        Keywords:ObjectNess binarized normed gradients (BING); detection of corner points; model training; ship target at sea; object detection

        作者簡介:

        中圖分類號:TP 391

        文獻(xiàn)標(biāo)志碼:A

        DOI:10.3969/j.issn.1001-506X.2016.01.03

        基金項(xiàng)目:國家自然科學(xué)基金(61303192)資助課題

        收稿日期:2014-12-18;修回日期:2015-05-30;網(wǎng)絡(luò)優(yōu)先出版日期:2015-08-18。

        猜你喜歡
        角點(diǎn)艦船模板
        鋁模板在高層建筑施工中的應(yīng)用
        艦船通信中的噪聲消除研究
        鋁模板在高層建筑施工中的應(yīng)用
        艦船測風(fēng)傳感器安裝位置數(shù)值仿真
        基于FAST角點(diǎn)檢測算法上對Y型與X型角點(diǎn)的檢測
        基于邊緣的角點(diǎn)分類和描述算法
        電子科技(2016年12期)2016-12-26 02:25:49
        基于圓環(huán)模板的改進(jìn)Harris角點(diǎn)檢測算法
        艦船腐蝕預(yù)防與控制系統(tǒng)工程
        鋁模板在高層建筑施工中的應(yīng)用
        城市綜改 可推廣的模板較少
        麻豆国产巨作AV剧情老师| 2019最新中文字幕在线观看| 日日摸天天摸人人看| 国产三级精品三级国产| 按摩女内射少妇一二三区| 男奸女永久免费视频网站| 亚洲妇女自偷自偷图片| 色爱区综合激情五月综合小说| 日本啪啪一区二区三区| 亚洲国产女性内射第一区二区| 少妇激情一区二区三区视频| 久久亚洲黄色| 青青草视频原手机在线观看| 一本色道久久88—综合亚洲精品 | 午夜理论片日本中文在线| 高潮内射双龙视频| 自拍偷自拍亚洲精品播放| 五月激情狠狠开心五月| 中文字幕一区在线直播| 亚洲国产精品无码专区影院| 亚洲综合欧美在线| 亚洲一区二区三区高清视频| 无码爽视频| a亚洲va欧美va国产综合| 国产成人精品aaaa视频一区| 亚洲一区二区三区av资源| 麻豆tv入口在线看| 最新国产三级| 琪琪av一区二区三区| 8x国产精品视频| 国产乱妇乱子视频在播放| 亚洲黄片久久| 偷拍美女上厕所一区二区三区| 色 综合 欧美 亚洲 国产| 色爱无码A V 综合区| 日本三区在线观看视频| 日韩精品真人荷官无码| 免费观看国产精品| 一区二区三区夜夜久久| 丰满大爆乳波霸奶| 亚洲色偷偷色噜噜狠狠99|