亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于結構光的特征點提取方法研究

        2018-01-09 13:04:36王鵬趙汗青
        軟件導刊 2017年12期

        王鵬+趙汗青

        摘要:特征提取是基于視覺定位的關鍵,只有選擇合適的特征及特征提取方法才能確保定位精度。選取結構簡單、成本低且易實現(xiàn)的單目視覺定位技術作為研究對象,以屋頂上的結構光點作為觀測數(shù)據(jù)來源。為得到耗時少、提取數(shù)目滿足定位需求的特征點提取算法,對 Moravec、Harris、Harris-Laplace、SUSAN、DoG、FAST等6種特征點提取方法進行比較,選出適合該環(huán)境下的特征點提取方法。實驗表明,在提取結構光環(huán)境下,F(xiàn)AST特征點提取耗時優(yōu)于其它算法,并且提取數(shù)目滿足定位所需點數(shù)目。

        關鍵詞:特征點提取;單目視覺;頂視;自主移動機器人

        DOIDOI:10.11907/rjdk.172771

        中圖分類號:TP301

        文獻標識碼:A 文章編號:1672-7800(2017)012-0026-04

        Abstract:Feature extraction is the key of visual positioning, and only the selection of appropriate features and feature extraction methods can ensure the accuracy of positioning. In this paper, the technology of simple structure, low cost and easy to achieve the single vision positioning is used as the research object, and the structural spot of the roof is used as the source of observation data. In order to get less time consuming, extraction number positioning requirements of feature points extraction algorithm, this paper contrast Moravec, Harris, Harris - Laplace, SUSAN, DoG, FAST six kinds of feature point extraction method in extracting the number of structure light and time consuming, finally choose the feature point extraction method is suitable for the environment. The test proved that, in extracting the structure light environment, FAST feature point extraction time is better than other algorithms and the number of extracted points can be obtained.

        Key Words:feature point extraction; monocular vision; upward-looking camera; autonomous mobile robot

        0 引言

        自主移動機器人視覺定位是近年來發(fā)展起來的一種定位方法,該方法在實時數(shù)字攝影測量、機器人運動導航、飛行器主動視覺定位等領域具有重要的使用價值[1]。特征點是基于特征的視覺定位關鍵,影響著特征點匹配及相機位姿的解算。特征點提取的類型分為狹義特征點和廣義特征點兩種。狹義特征點通常指在二維方向上灰度較鄰域有明顯變化的像素點,包括角點、交叉點、明顯點和圓點等;而廣義特征點只代表滿足一定特征條件的特征區(qū)域位置,如某個特征區(qū)域的中心、重心或特征區(qū)域里任一個相對位置[2]。

        1 特征點提取方法

        1.1 Moravec特征點提取

        1977年Moravec提出利用灰度方差提取點特征的概念,并且用于Stanford Cart。Moravec算子是在4個主要方向上選擇灰度方差最值(最大—最?。┳鳛橄袼氐呐d趣值。通過設定一個閾值,篩選興趣值大于閾值的像素點作為候選點。在候選點中選取最大值點作為特征點提取算子[3]。

        Moravec算子提取步驟如下:

        (1)計算各像元的興趣值IV(Interest VaIue)。在(x,y)為影響中心的w×w影像窗口內(nèi)計算4個方向的灰度差分。

        1.4 SUSAN特征點提取

        1997年牛津大學的Smith等人提出SUSAN算法,它主要用來計算圖像中的角點特征。SUSAN算法選用圓形模板,待檢測點位于圓形模板中心,該像素點稱為核心點。核心點的鄰域劃分為兩個區(qū)域:亮度值相似于核心點亮度的區(qū)域和亮度值不相似于核心點亮度的區(qū)域[7-8]。

        SUSAN角點檢測算法步驟如下:

        (1)將一個擁有37個像素的圓形模板放置于圖像上,在圖像上滑動模板,計算模板內(nèi)各像素點和模板核的灰度差值,判斷是否屬于USAN區(qū)域。

        對同一幅圖片進行3個參數(shù)高斯濾波,而后兩兩相減(包括原尺度共4個)得到3個不同尺度下的DoG圖,求中間尺度下的DoG圖的每個像素,以及同尺度的8個相鄰點和上下相鄰尺度對應的18個像素點極值。如果所計算的像素點是所有相鄰像素點的最大值(最小值),則該點對應的點為特征點。

        高斯差分檢測法不僅在點的鄰域空間,而且在點的尺度空間尋找高斯差分函數(shù)極值,因此對尺度變化的圖像魯棒性很好。

        1.6 FAST點特征提取

        FAST算法是由 Edward Rosten和Tom Drummond 提出的一種簡單快速的角點檢測算法[10]。此算法選取角點的方法與 SUSAN 算法類似。以候選點p為圓心,半徑為R的圓上,如果存在連續(xù)并且足夠多的像素點灰度值,大于(小于)中心點灰度值的一定閾值,則該點選作角點。因為FAST 算法只比較圓上的像素點灰度值,而不比較圓內(nèi)的像素點灰度值,因此FAST的運算速度比 SUSAN 快。

        式中:Ip代表p點的像素值,Ip→i代表圓周上第i個像素點,n是一個參數(shù),得到的結果Sp→i有3 種取值:d代表比檢測點暗,s代表與檢測點相似,b代表比檢測點亮。為了加快檢測速度,可以先檢測第1和第9兩個像素點,如果都為相似,則不把該點選擇為候選點;而后檢測 5和 13,若以上4個值中有3個值都是暗或亮,則將此點作為候選點,繼續(xù)計算其它像素值。如果檢測的16個點中有至少m個連續(xù)為暗或者亮,則該點確定為特征點。通過大量文獻可知m為9時提取效果最佳,即FAST-9。

        2 實驗

        平臺如圖1所示,左邊是自主移動小車,右邊是利用相機獲取的帶有結構光的圖,圖片大小是640*480。

        對實驗圖片進行特征點提取。比較Moravec點特征提取、Harris點特征提取、Harris-Laplace點特征提取、SUSAN點特征提取、DoG點特征提取、FAST點特征提取。最后對比各個方法在此幅圖片中的特征點提取數(shù)量,以及提取所用時間。

        圖2中,從左到右依次是Moravec點特征提取、Harris點特征提取、Harris-Laplace點特征提?。粓D3中,從左到右依次為SUSAN點特征提取、DoG點特征提取、FAST點特征提取。

        根據(jù)實驗結果進行分析,找出適合提取結構光的方法。實驗得出結論:按照提取特征點花費時間排序:SUSAN>DoG>Moravec>Harris>Harris-Laplace>FAST,按照提取特征點數(shù)目多少排序:Moravec>Harris-Laplac>DoG=FAST>Harris>SUSAN=150。這幾種方法提出的特征點足夠完成特征點匹配、地圖初始化以及相機位姿計算任務。根據(jù)時間短數(shù)量多的原則,應該選擇FAST作為此環(huán)境提取特征點的方法。

        3 結語

        本文通過實驗比較了Moravec、Harris、Harris-Laplace、SUSAN、DoG、FAST六種方法提取結構光特征點效果,得出FAST方法是最適合此環(huán)境的結論,為之后的特征點匹配及機器人位姿計算奠定了基礎。因為提取出的特征點數(shù)目多,本文只對特征點進行了初步分析,未能制定更加全面的篩選策略。由于編程的原因,提取特征點未能達到實時處理,未來需進一步研究。

        參考文獻:

        [1] 王鑫.基于單目視覺的目標物定位算法研究[D].哈爾濱:哈爾濱工業(yè)大學,2016.

        [2] 張純美.特征點提取及其在圖像匹配中的應用研究[D].鄭州:解放軍信息工程大學,2008.

        [3] 曾凡永,顧愛輝.幾種特征點提取算子的分析和比較[J].現(xiàn)代測繪,2015(5):15-18.

        [4] 張凱南,楊志強.基于低空攝影測量影像的特征點提取算子比較研究[J].地理信息科學:2017(5):30-35.

        [5] 李偉生,王衛(wèi)星,羅代建.用Harris-Laplace特征進行遙感圖像配準[J].四川大學學報:工程科學版,2011,43(4):89-95.

        [6] LINDEBERG.Scale-space for discrete signals[J].IEEE Transactions,PAMI, 1980(207):187-217.

        [7] SMITH S M,BRADY J M. SUSAN-a new approach to low level image processing[J]. International Journal of Computer Vision, 1997,23(1):45-78.

        [8] 王巍,趙紅蕊.面向影像匹配的SUSAN角點檢測[J].遙感學報,2011,15(5):940-956.

        [9] 于鵬鵬. 基于感知特征的圖像認證技術的研究[D].哈爾濱:哈爾濱理工大學,2013.

        [10] ROSTEN E,BREMNER D,ERICKSON J,et al. Output-sensitive algorithms for computing computational nearest-neighbor decision boundaries[J]. Discrete and Geometry,2005,33(4):539-604.

        (責任編輯:杜能鋼)

        馬与人黃色毛片一部| 成 人 免费 在线电影| 国产日产精品_国产精品毛片| 国产日产欧产精品精品蜜芽| 日韩av无码中文字幕| 国产裸体舞一区二区三区| 亚洲av日韩av天堂一区二区三区| 亚洲男人av天堂午夜在| 久久精品国产第一区二区三区| 欧美巨大xxxx做受l| 午夜家庭影院| 亚洲性爱区免费视频一区| 国产无遮挡又黄又爽又色| 少妇被粗大的猛进69视频| 任你躁国产自任一区二区三区| 中文字幕人成人乱码亚洲| 第九色区Aⅴ天堂| av永久天堂一区二区三区蜜桃| 超短裙老师在线观看一区| 蜜桃传媒免费观看视频| 亚洲一区二区国产一区| 在线观看国产成人av天堂野外| 日产乱码一二三区别免费l | 少妇一区二区三区精选| 免费看av网站在线亚洲| 国产一区二区三区在线蜜桃| 尤物yw午夜国产精品视频| 黑人巨大精品欧美一区二区免费| 18禁黄久久久aaa片| 久久99精品久久久久久hb无码 | 亚洲一区二区三区码精品色| 大尺度极品粉嫩嫩模免费| 亚洲一区二区三区精品| 夫妻免费无码v看片| 国产绳艺sm调教室论坛| 亚洲欧美一区二区三区国产精| 99在线无码精品秘 入口九色| 日本一区二区三级免费| 熟女中文字幕一区二区三区| 精品国产综合区久久久久久 | 熟女人妻一区二区中文字幕|