亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種融合顯著性的Adaboost電視制導(dǎo)圖像變尺度目標快速檢測方法研究

        2014-04-23 09:20:18
        指揮控制與仿真 2014年2期
        關(guān)鍵詞:分類器顯著性模板

        錢 昆

        (解放軍陸軍軍官學(xué)院,安徽 合肥 230031)

        電視制導(dǎo)武器進行地面目標自主攻擊時,需要在末端制導(dǎo)時實時檢測出目標,確定目標位置與彈軸中心的偏差量。但制導(dǎo)過程中隨著彈目距離的改變,目標尺寸發(fā)生快速變化,即隨著彈目距離的減小,目標尺度呈現(xiàn)非線性快速變大。傳統(tǒng)的圖像目標檢測算法如模板相關(guān)匹配法[1]、背景建模法[2]、基于識別的方法[3]等,雖然對目標的檢測方式各不相同,但算法較難適應(yīng)目標尺度發(fā)生較快變化的情況。模板相關(guān)匹配法要求預(yù)裝模板與目標實時的尺寸相近,其在制導(dǎo)過程中模板更新機制難以確定;基于背景建模法要求圖像背景較為穩(wěn)定,其無法適應(yīng)制導(dǎo)圖像的快速變化;基于識別的方法需要提取大量的對尺度具有不變性的高維特征,進行分類器的訓(xùn)練,如SVM支持向量機、神經(jīng)網(wǎng)絡(luò)模型、Boosting方法等,這類方法對圖像質(zhì)量要求較高,對紋理不豐富目標的檢測效果不理想,且運算量較大;在戰(zhàn)場環(huán)境中,要求系統(tǒng)有較高的實時性和可靠性,因此,上述算法很難滿足戰(zhàn)場需求。

        針對這些問題,本文采用一種融合改進的Adaboost目標檢測方法,通過提取圖像的顯著性區(qū)域,從而有針對性地檢測目標,減少計算量。在考慮彈目距離較遠時,電視制導(dǎo)畫面成像不清晰,紋理不豐富情況下,該方法能很好地提取出塊狀目標,針對海面或沙漠等背景較為單一的區(qū)域目標檢測較為有效。

        1 融合顯著性的檢測

        1.1 顯著性檢測

        人類視覺可以在無經(jīng)驗情況下快速搜索到感興趣目標,依靠的就是圖像顯著性。顯著性檢測方法有很多,如 Itti方法[4],GBVS 方法[5]等,但這些方法計算較為復(fù)雜,不利于硬件實時地實現(xiàn),本文采用一種實現(xiàn)較為簡單的剩余譜[6]理論的顯著性檢測方法,這種方法可描述為一幅圖像的log振幅譜減去平均log振幅譜就是顯著性部分,其檢測效果如圖1~3所示。

        提取出的區(qū)域用矩形框標出,通過顯著性區(qū)域提取,就大致確定了目標尺度,為下一步識別提供方便。對于單一背景下的目標檢測,由于目標相對于背景的顯著性較強,因此采用顯著性方法能有效地框出疑似目標。

        圖1 海面艦船可見光圖像

        圖2 圖像顯著性區(qū)域提取

        圖3 提取出的待檢測區(qū)域

        1.2 Adaboost檢測

        Adaboost[7](Adaptive Boosting的簡稱)是一種Boosting目標識別分類器訓(xùn)練方法,其思想是針對同一類樣本訓(xùn)練不同的弱分類器,然后把這些弱分類器集聯(lián)起來,最終形成一個強分類器。Adaboost算法訓(xùn)練分類器時利用了Haar特征和積分圖像來加快訓(xùn)練速度。由于矩形特征的特征值計算只與此特征端點的積分圖像有關(guān),而與圖像坐標值無關(guān),使得特征提取速度大大提升,同時又采用級聯(lián)式的聯(lián)合分類器,可以加快目標的檢測速度。

        原有的Adaboost檢測需要將圖像進行不同尺度金字塔式的降采樣,然后再進行滑動窗口提取識別,這種做法無疑增加了計算量,同時利用滑動窗口的提取可能導(dǎo)致目標提取不完整,導(dǎo)致檢測不出目標。本文將Adaboost方法應(yīng)用于電視圖像目標檢測,由于前期利用顯著性確定了目標的大致尺寸,下一步則直接利用Adaboost對提取出的區(qū)域進行識別。

        本文提出的檢測方法具體步驟總結(jié)如下:

        1)收集目標樣本進行Adaboost級聯(lián)式分類器的訓(xùn)練,這屬于前期準備工作也稱為離線學(xué)習(xí);

        2)對獲取的每一幀圖像進行直方圖均衡化和去噪等預(yù)處理,之后利用基于剩余譜的顯著性區(qū)域提取方法,提取出區(qū)域,區(qū)域的邊界由矩形框標出,從而確定目標尺寸;

        3)對提取出區(qū)域直接利用訓(xùn)練好的Adaboost級聯(lián)式分類器進行識別,這個過程屬于在線監(jiān)測。

        由于AdaBoost分類器是屬于級聯(lián)式的分類器,對于非目標窗口,它被最初的幾個弱分類器識別時就能夠被判斷是否為目標,因此不需要進行完全級聯(lián)式地識別,減少了消耗時間,保證了檢測的實時性。

        綜上所述,本文的檢測總流程如圖4所示,它由離線學(xué)習(xí)和在線檢測兩部分組成,離線學(xué)習(xí)是利用收集的訓(xùn)練樣本經(jīng)過Adaboost算法的訓(xùn)練,得到表示目標模型的分類器;在線檢測是指利用得到的分類器檢測圖像確定是否為目標。

        圖4 本文目標檢測流程

        2 實驗與分析

        本文利用 OpenCV1.0[8]與 VC++6.0 實現(xiàn)基于Adaboost算法的檢測識別,實驗平臺配置:CPU為Intel Core2 Quad CPU Q9400 2.66GHz,內(nèi)存為 4G,Windows XP操作系統(tǒng)。

        分類器需要通過訓(xùn)練樣本得以實現(xiàn)識別功能,因此需要選取事前獲得的目標區(qū)域模板和非目標模板,進行分類器訓(xùn)練。選取事前獲得的地面圓形靶標區(qū)域圖像150張作為正樣本,其中不含背景圖像,同時選取任意背景大小的圖(不包含目標)150張作為負樣本,正樣本都是統(tǒng)一經(jīng)過裁切縮放對齊成24×24像素的BMP格式的圖片,負樣本是不含有正樣本模式的任何圖像,如圖5、圖6所示。

        圖5 正樣本示例

        圖6 負樣本示例

        本文將分類器的級聯(lián)數(shù)設(shè)置為20個,虛警率設(shè)置為10-6,訓(xùn)練耗時約20小時,訓(xùn)練完之后,采用cvLoad-Image函數(shù)循環(huán)導(dǎo)入序列圖像,cvLoad函數(shù)載入訓(xùn)練好的分類器,cvHaarDetectObjects函數(shù)進行檢測識別,程序?qū)γ恳粋€顯著性區(qū)域進行預(yù)處理和特征提取,然后送入分類器中來判斷該窗口中是否為目標。

        實驗利用某次外場實驗獲取的圖像進行本文方法的目標自主檢測,為了與原算法進行對比,實驗中視頻圖像利用傳統(tǒng)Adaboost方法進行目標檢測。利用本文方法其檢測識別效果如圖7所示,圖中的方框所標示的區(qū)域即為目標。

        統(tǒng)計檢測識別結(jié)果,模板檢測窗口能隨著目標的快速非線性變大而增大,共檢測300幅圖像,有32幅圖像出現(xiàn)漏檢,誤檢12幅,檢測率為85.33%。實驗結(jié)果表明:檢測一副720×586大小的圖像,平均耗時16.6ms,小于電視場掃描時間20ms,在普通PC上達到了實時性。同時統(tǒng)計利用改進前的方法進行檢測結(jié)果,兩者對比如表1所示,可見利用本方法無論是在檢測率還是在耗時上都優(yōu)勢明顯。

        表1 兩種方法檢測結(jié)果對比

        圖7 檢測識別結(jié)果

        3 結(jié)束語

        本文將顯著性檢測融入Adaboost目標檢測中,在普通計算機上達到了實時性,針對海面或沙漠等背景較為單一的區(qū)域,取得了很好的檢測效果,適應(yīng)了目標的尺度快速變化,但使用本文方法前期準備工作量大,需要獲取大量目標模板,對于實際戰(zhàn)場應(yīng)用還有許多問題待研究。下一步將針對檢測率的提高及該算法的硬件化設(shè)計進行研究,為實現(xiàn)電視制導(dǎo)武器的自尋的奠定基礎(chǔ)。

        [1]張萬清.飛航導(dǎo)彈電視導(dǎo)引頭[M].北京:中國宇航出版社,1994.

        [2]Stauffer C,Crimson W.Adaptive Background Mixture Models for Real-time Tracking[C]//Proc IEEE Conference on Computer Vision and Pattern Recognition,F(xiàn)ort Collins,Colorado,1999(2):246-252.

        [3]R.Fergus,P.Perona,A.Zisserman.Object Class Recognition by Unsupervised Scale-invariant Learning[C].Proc.CVPR,2,2003.

        [4]L.Itti,C.Koch,E.Niebur.A Model of Saliency-Based Visual Attention for Rapid Scene Analysis[C].PAMI,1998:1254-1259.

        [5]J.Harel,C.Koch,P.Perona.Graph-based Visual Saliency[C].Advances in Neural Information Processing Systems,19:545,2007.

        [6]X.Hou,L.Zhang.Saliency Detection:A Spectral Residual Approach[C]//IEEE Conf.Computer Vision and Pattern Recognition,2007.

        [7]Paul Viola,Michael J.Jones.Rapid Object Detection U-sing a Boosted Cascade of Simple Features[C]//Proceedings of the 2001 IEEE Computer Society Conference,Computer Vision and Pattern Recognition,2001(1):511-518.

        [8]劉瑞禎,于仕琪.OpenCV教程——基礎(chǔ)篇[M].北京:北京航空航天大學(xué)出版社,2007.

        猜你喜歡
        分類器顯著性模板
        鋁模板在高層建筑施工中的應(yīng)用
        鋁模板在高層建筑施工中的應(yīng)用
        基于顯著性權(quán)重融合的圖像拼接算法
        電子制作(2019年24期)2019-02-23 13:22:26
        基于視覺顯著性的視頻差錯掩蓋算法
        BP-GA光照分類器在車道線識別中的應(yīng)用
        電子測試(2018年1期)2018-04-18 11:52:35
        一種基于顯著性邊緣的運動模糊圖像復(fù)原方法
        論商標固有顯著性的認定
        加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
        結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機的TSK分類器
        鋁模板在高層建筑施工中的應(yīng)用
        开心久久综合婷婷九月| www.日本一区| 五月天亚洲av优女天堂| 日韩精品视频高清在线| 尤物在线精品视频| 国产精品99久久免费| 中国人妻沙发上喷白将av| 久久精品国产亚洲av天美| 国产激情无码视频在线播放性色| 亚洲一区二区免费在线观看视频| 精品伊人久久大香线蕉综合| 久久精品国产99国产精2020丨| 国产偷国产偷高清精品| 91精品国产色综合久久不| 亚洲国产精品一区二区成人av| 欧美日韩国产码高清综合人成| 国产亚洲欧美成人久久片| 一本久久综合亚洲鲁鲁五月夫| 插入日本少妇一区二区三区| 久久精品国产久精国产| 乱伦一区二| 精品高清国产乱子伦| 中文字幕一区二区黄色| 国产精品无码v在线观看| 亚洲最大天堂无码精品区| av毛片在线播放网址| 99国产精品久久一区二区三区| 国产农村妇女精品一二区| 免费一级毛片麻豆精品| 中文字幕一区二区三区四区久久| 亚洲熟妇av一区二区三区| 在教室伦流澡到高潮hgl视频| 亚洲无码性爱视频在线观看| 精品一区二区三区亚洲综合| 夜夜躁狠狠躁日日躁2022| 亚洲欧美国产日韩制服bt| 久久九九av久精品日产一区免费| 色婷婷av一区二区三区久久| 国产va免费精品高清在线| 91中文人妻丝袜乱一区三区 | 日本免费一二三区在线|