蔣 萌,王堯堯,2,陳 柏*
(1.南京航空航天大學(xué) 機(jī)電學(xué)院,江蘇 南京 210016;2.浙江大學(xué) 流體動(dòng)力與機(jī)電系統(tǒng)國家重點(diǎn)實(shí)驗(yàn)室,浙江 杭州 310027)
近年來,人們將機(jī)器視覺應(yīng)用到交通[1]、醫(yī)療[2-3]、生產(chǎn)[4-5]、生活等多個(gè)領(lǐng)域[6],從而提高了機(jī)器人作業(yè)的自主性與智能性。
機(jī)器視覺分為單目視覺技術(shù)與多目視覺技術(shù)。在對(duì)物體進(jìn)行識(shí)別、定位、分類等操作中,常常需要獲取目標(biāo)的三維信息,單目視覺無法恢復(fù)場(chǎng)景的深度信息,而基于結(jié)構(gòu)光[7]、激光[8]、物理傳感器的主動(dòng)測(cè)距方法雖能實(shí)現(xiàn)快速、準(zhǔn)確、無干預(yù)地三維測(cè)量,但是設(shè)備成本較高,無法達(dá)到普及應(yīng)用。相較之下,基于雙目視覺的三維重建方法,具有設(shè)備要求較低、實(shí)施較為簡(jiǎn)易、算法時(shí)空復(fù)雜度較低等優(yōu)勢(shì),受到了國內(nèi)外各界學(xué)者的關(guān)注與研究。
來自Loccioni的STROPPA L、CRISTALLI C[9]設(shè)計(jì)了應(yīng)用于生產(chǎn)線上檢測(cè)插件器質(zhì)量的雙目視覺檢測(cè)系統(tǒng),最終測(cè)量得到的結(jié)果表明,基于雙目視覺的測(cè)量方法在分辨率、檢測(cè)速度及穩(wěn)定性上均優(yōu)于其他非接觸測(cè)量方法;瓦倫西亞理工大學(xué)的LVORRA E等[10]利用雙目立體視覺重建了葡萄局部三維模型,重建誤差小于1 mm。相較國外,國內(nèi)在立體視覺方面的研究起步較晚,哈爾濱工業(yè)大學(xué)的李勝利[11]針對(duì)堆疊工件的識(shí)別與定位問題,采用Sobel算子與區(qū)域增長法相結(jié)合的算法檢測(cè)工件邊緣,然后基于梯度方向的橢圓擬合檢測(cè)工件,取得了較Hough變換和最小二乘法更精確的檢測(cè)結(jié)果,顯示基于支持向量機(jī)的方法具有較高的穩(wěn)定性;西南科技大學(xué)的張華、夏菠等[12]采用雙目視覺系統(tǒng)重建稀疏特征匹配點(diǎn)的三維點(diǎn)云,并在傳統(tǒng)RANSAC算法的基礎(chǔ)上,加入動(dòng)態(tài)閾值更新和姿態(tài)估計(jì)收斂判斷,降低誤匹配的同時(shí)提高了系統(tǒng)的實(shí)時(shí)性,實(shí)現(xiàn)了機(jī)器人在室內(nèi)、室外環(huán)境下姿態(tài)的準(zhǔn)確輸出。
針對(duì)空間物體的三維重建問題,本文將對(duì)基于雙目視覺的目標(biāo)識(shí)別與定位進(jìn)行研究。
相機(jī)成像過程丟失了場(chǎng)景的深度信息,雙目視覺則可克服這一缺點(diǎn)。
雙目視覺的原理如圖1所示。
圖1 雙目測(cè)距原理圖Ol,Or—左右兩個(gè)相機(jī)的光心;pl,pr—目標(biāo)P分別在左右相機(jī)的成像平面上所成的像點(diǎn);f—相機(jī)焦距;Z—目標(biāo)與觀測(cè)位置的距離;b—兩個(gè)相機(jī)放置的水平距離,稱作基線
假設(shè)目標(biāo)點(diǎn)P在左圖像平面所成的像點(diǎn)pl的坐標(biāo)為(x1,y1),在右圖像平面上所成的像點(diǎn)pr的坐標(biāo)為(x2,y2)。則視差d=x1-x2。依據(jù)相似三角形原理易得:
(1)
為確定空間一點(diǎn)的三維位置與其在圖像中的對(duì)應(yīng)點(diǎn)之間的關(guān)系,必須對(duì)視覺系統(tǒng)進(jìn)行標(biāo)定,即建立相機(jī)成像模型,通過實(shí)驗(yàn)及計(jì)算的方法求解模型的參數(shù)。三維空間點(diǎn)Pw投影到像平面點(diǎn)p的過程如圖2所示。
圖2 相機(jī)投影模型1—相機(jī);2—成像平面;3—實(shí)際場(chǎng)景
整個(gè)投影過程涉及世界坐標(biāo)系、相機(jī)坐標(biāo)系到圖像坐標(biāo)系及像素坐標(biāo)系之間的轉(zhuǎn)換,根據(jù)相機(jī)的透視模型易得投影關(guān)系為:
(2)
式中:M1—相機(jī)的內(nèi)部參數(shù)矩陣;M2—相機(jī)的外部參數(shù)矩陣。
實(shí)際上,相機(jī)內(nèi)參還應(yīng)包含鏡頭的畸變系數(shù)k,即相機(jī)內(nèi)參數(shù)為(f,k,u0,v0,dx,dy),外參數(shù)為(tx,ty,tz,α,β,γ)。而求解相機(jī)的內(nèi)外參數(shù)、消除畸變的過程就是相機(jī)標(biāo)定的過程。本文采用張正友標(biāo)定法對(duì)搭建的視覺系統(tǒng)進(jìn)行標(biāo)定。
實(shí)驗(yàn)采集15組不同姿態(tài)下的標(biāo)定板圖像,提取其特征點(diǎn)進(jìn)行標(biāo)定實(shí)驗(yàn),其中一組過程如圖3所示。
圖3 相機(jī)標(biāo)定過程
左右兩個(gè)相機(jī)的參數(shù)標(biāo)定結(jié)果如表(1,2)所示。
表1 左右相機(jī)的內(nèi)部參數(shù)
表2 左右相機(jī)的相對(duì)位姿
其中,兩相機(jī)布置的實(shí)際水平距離為5.03 cm,標(biāo)定結(jié)果為5.21 cm,通過對(duì)比表(1,2)實(shí)際參數(shù)值與標(biāo)定參數(shù)值,可發(fā)現(xiàn)標(biāo)定誤差很小,足以滿足后期三維重建的精度要求。
常用的模板匹配方法有基于灰度、基于相關(guān)性、基于形狀的模板匹配等等,但這些方法往往易受到光照的影響。故本文采用基于描述子的模板匹配方法,將檢測(cè)到的特征點(diǎn)與其描述子相結(jié)合,提高匹配的準(zhǔn)確性。
對(duì)特征的描述方式主要有兩大類,一類是用于處理角點(diǎn)、邊緣等局部特征的強(qiáng)特征描述方式,其中應(yīng)用最廣泛的是由LOWE D G[13]提出的SIFT算法;另一類則是將特征匹配作為分類問題處理。SIFT算法雖然匹配特性穩(wěn)定,但計(jì)算量大,運(yùn)算時(shí)間較長,無法保證實(shí)時(shí)性;隨機(jī)樹算法相較于其他機(jī)器學(xué)習(xí)算法可以更高效快速的解決多類別分類問題,故本文采用基于Harris角點(diǎn)檢測(cè)與隨機(jī)樹算法相結(jié)合的特征匹配算法[14]。
隨機(jī)樹模型由根節(jié)點(diǎn)與葉節(jié)點(diǎn)構(gòu)成,由樹根向下分出兩個(gè)節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)再分出兩個(gè)節(jié)點(diǎn),依次遞歸至底層節(jié)點(diǎn)不再產(chǎn)生分支,成為樹葉。每一個(gè)節(jié)點(diǎn)處都有一個(gè)判定公式,從樹根輸入的待測(cè)數(shù)據(jù)經(jīng)過判定公式的判定,決定其向下進(jìn)入左節(jié)點(diǎn)或是右節(jié)點(diǎn),到達(dá)下一結(jié)點(diǎn)后再次進(jìn)行判定,直至其到達(dá)底層的樹葉。
基于隨機(jī)樹的模板匹配算法模型如圖4所示。
圖4 基于隨機(jī)樹的模板匹配算法模型
在本文構(gòu)建的基于隨機(jī)樹的特征匹配算法中,輸入根節(jié)點(diǎn)的數(shù)據(jù)即為特征點(diǎn)及其周圍的圖像塊patch。節(jié)點(diǎn)處采取的判定方法是在特征點(diǎn)m的圖像塊patch中隨機(jī)選取兩個(gè)像素點(diǎn)m1和m2,對(duì)它們的灰度值進(jìn)行比較,判定公式如下:
(3)
采用隨機(jī)樹算法對(duì)特征進(jìn)行模式識(shí)別分類,首先要對(duì)特征點(diǎn)及其描述子進(jìn)行樣本訓(xùn)練。本研究選取模板的正視圖作為初始模板圖像,通過Harris算法檢測(cè)得到模板上的N個(gè)特征點(diǎn),對(duì)其進(jìn)行編號(hào)得K={k1...kN}。以每個(gè)特征點(diǎn)為中心建立n×n像素的圖像塊patch,對(duì)這些圖像塊進(jìn)行離線訓(xùn)練,對(duì)待檢測(cè)圖像上的特征點(diǎn)k建立同樣大小的圖像塊p(k),則識(shí)別的關(guān)鍵問題為判定p(k)中是否含有K中的一個(gè)特征點(diǎn),以及它是哪一個(gè)特征點(diǎn)。即確定p(k)的類別Y(p)∈C={-1,1,2,...,N},其中-1表示p(k)中不包含K中的特征點(diǎn)。
為了增強(qiáng)算法對(duì)目標(biāo)位置及光照變化的魯棒性,需要對(duì)大量多尺度、多視角狀態(tài)下的特征點(diǎn)樣本進(jìn)行訓(xùn)練,由于人工采集較為繁瑣,可采用計(jì)算機(jī)隨機(jī)生成大量圖像樣本。當(dāng)目標(biāo)物基本不發(fā)生變形時(shí),特征點(diǎn)周圍的圖像塊可視為平面模型,則可通過仿射變換隨機(jī)生成訓(xùn)練樣本。對(duì)特征點(diǎn)及圖像塊進(jìn)行仿射變換:
(4)
式中:Rθ—目標(biāo)旋轉(zhuǎn)變換矩陣;Rφ—尺度變換軸旋轉(zhuǎn)矩陣;S—圖像的尺度變化;θ,φ∈[-π,+π];S=diag{λ1,λ2},本文中選取λ1,λ2∈[0.4,1.2]。
通過隨機(jī)生成參數(shù)得到不同的仿射矩陣A,對(duì)K中每個(gè)特征點(diǎn)及其圖像塊生成與其對(duì)應(yīng)的多個(gè)樣本集合。
由于訓(xùn)練樣本以及概率測(cè)試的數(shù)據(jù)相當(dāng)龐大,優(yōu)化隨機(jī)樹變得尤為困難,故通常采取增加隨機(jī)樹數(shù)量的方式來增強(qiáng)識(shí)別的穩(wěn)定性。在樣本訓(xùn)練階段,大量的圖像塊樣本輸入到隨機(jī)樹系統(tǒng)中,其中有的樣本包含K中的特征點(diǎn),有的樣本不包含K中的特征點(diǎn)。當(dāng)全部樣本均達(dá)到樹葉后,便可得到每片葉子對(duì)于K中特征點(diǎn)的概率分布:
Pη(l,p)(Y(p)=c)
(5)
式中:η(l,p)—圖像塊p所到達(dá)的Tl棵樹的樹葉。
該概率分布即為訓(xùn)練樣本中到達(dá)η處的c類圖像塊與到達(dá)η處的所有圖像塊的比值。
在檢測(cè)階段,為確定輸入的圖像塊p是否含有K中的特征點(diǎn),對(duì)應(yīng)的是哪一個(gè)特征點(diǎn),對(duì)p在不同樹中所達(dá)到的葉片對(duì)應(yīng)的概率分布求取平均概率分布,平均概率分布中概率最大的特征點(diǎn),即為待檢測(cè)圖像塊對(duì)應(yīng)的特征點(diǎn):
(6)
在進(jìn)行基于隨機(jī)樹的特征匹配識(shí)別算法性能驗(yàn)證之前,首先要確定算法的各項(xiàng)參數(shù)。
本文實(shí)驗(yàn)選定的目標(biāo)物體的模板如圖5所示。
圖5 實(shí)驗(yàn)選定模板
根據(jù)實(shí)驗(yàn)的實(shí)際情況,本研究設(shè)置目標(biāo)沿著模板法向量的旋轉(zhuǎn)角度范圍為[-π,+π],縮放比例為[0.4,1.2]。則還需要確定的參數(shù)有隨機(jī)樹的深度Depth,隨機(jī)樹的數(shù)目Number以及圖像塊的尺寸PatchSize。
本研究選取Sample1,對(duì)不同參數(shù)條件的算法進(jìn)行匹配時(shí)間與匹配率的測(cè)試。實(shí)驗(yàn)效果如圖6所示。
圖6 不同參數(shù)對(duì)應(yīng)的算法匹配率及匹配時(shí)間
良好的匹配性能應(yīng)同時(shí)兼具較高的匹配率與較快的匹配速度。由實(shí)驗(yàn)結(jié)果可見:當(dāng)隨機(jī)樹的深度Depth、隨機(jī)樹的數(shù)目Number以及圖像塊的尺寸PatchSize分別取11、30、17時(shí),算法可以實(shí)現(xiàn)以較快的匹配速度達(dá)到較高的匹配率。
識(shí)別實(shí)驗(yàn)設(shè)置的9幅樣本如圖7所示。
圖7 算法識(shí)別效果圖Sample1—目標(biāo)旋轉(zhuǎn)的情況;Sample(2~4)—圖像不同程度旋轉(zhuǎn)與傾斜的情況;Sample6—遮擋的情況;Sample(7,8)—代表過暗過明的情況;Sample9—雜亂背景的情況
可見采用上述算法,不同姿態(tài)和環(huán)境下的目標(biāo)物體均可被準(zhǔn)確識(shí)別。
各個(gè)樣本的匹配率如圖8所示。
圖8 實(shí)驗(yàn)樣本與模板匹配率
由實(shí)驗(yàn)結(jié)果可見:物體傾斜角度越大,檢測(cè)到匹配到的特征點(diǎn)越少,匹配率越低;同樣,在過暗或過量的環(huán)境下,圖像對(duì)應(yīng)的灰度值總體偏低或偏高,相應(yīng)地會(huì)損失一些匹配點(diǎn),匹配率也較低。
通過特征點(diǎn)匹配識(shí)別出目標(biāo)物體后,為了對(duì)目標(biāo)物進(jìn)行定位,需要確定匹配的特征點(diǎn)對(duì)應(yīng)在三維空間的位置信息,由此求解目標(biāo)物體的位姿。
對(duì)特征點(diǎn)的三維重建,關(guān)鍵是求解其對(duì)應(yīng)的深度信息。雙目立體視覺系統(tǒng)中,通常采取立體匹配的方法對(duì)采集到的兩幅圖像進(jìn)行匹配,獲得對(duì)應(yīng)的視差圖,恢復(fù)圖像的深度信息。需要注意的是,只有在兩幅圖像是行對(duì)準(zhǔn)的情況下,才可采用式(1)表示的關(guān)系計(jì)算視差,而實(shí)際應(yīng)用中,兩臺(tái)相機(jī)幾乎不可能有準(zhǔn)確的共面,故進(jìn)行立體匹配的兩幅圖像必須先通過立體校正實(shí)現(xiàn)行對(duì)準(zhǔn),這樣不但可以提高匹配的準(zhǔn)確性,也可以縮短匹配時(shí)間。
根據(jù)采取的最優(yōu)化理論方法的不同,立體匹配分為基于全局的立體匹配算法與基于局部的立體匹配算法,基于全局的立體匹配算法計(jì)算量大運(yùn)算時(shí)間長,故本文選擇基于局部的區(qū)域匹配算法,對(duì)一幅圖像上給定的一點(diǎn),選取該像素點(diǎn)鄰域內(nèi)的一個(gè)大小為(2m+1)×(2n+1)子窗口(通常m=n),在另一幅圖像的一個(gè)區(qū)域內(nèi),沿著該點(diǎn)所在的極線,依據(jù)某種相似性判斷標(biāo)準(zhǔn)進(jìn)行搜索,尋找與子窗口圖像最為相似的子圖。常用的相似性判斷標(biāo)準(zhǔn)有SAD,SSD,NCC等,其中SAD與SSD算法直接比較像素及其子窗口的灰度值,而NCC算法則是補(bǔ)償子窗口內(nèi)的平均灰度值及其協(xié)方差。NCC算法相較SAD、SSD算法,對(duì)光照強(qiáng)度的變化更穩(wěn)定,本文采用NCC算法對(duì)兩幅圖進(jìn)行匹配。兩幅圖像的相似度S為:
(7)
S的值越高表明兩幅圖越相似,S為1,則兩幅圖相關(guān)性很高,S為-1則表明兩幅圖不相關(guān)。匹配結(jié)束之后,則可得對(duì)應(yīng)像素點(diǎn)之間的視差d=x2-x1,如1.1節(jié)所述。
為提高立體匹配的準(zhǔn)確性及效率,本文采取了以下措施:(1)將模板匹配識(shí)別出的目標(biāo)物所在區(qū)域設(shè)置為ROI區(qū)域,僅將該ROI區(qū)域與另一幅圖像進(jìn)行立體匹配;(2)在進(jìn)行搜索時(shí),給定一個(gè)合理的視差范圍,約束搜索空間,如式(8,9)所示:最小視差為場(chǎng)景中距離視覺系統(tǒng)最近點(diǎn)對(duì)應(yīng)的列坐標(biāo)之差,最大視差為場(chǎng)景中距離視覺系統(tǒng)最遠(yuǎn)點(diǎn)對(duì)應(yīng)的列坐標(biāo)之差;(3)采用圖像金字塔的方法提高匹配速度,視差搜索范圍應(yīng)用于圖像金字塔的頂層圖像,下層圖像對(duì)應(yīng)的視差搜索范圍自動(dòng)進(jìn)行調(diào)整。
(8)
(9)
立體視覺的最終目的是恢復(fù)景物可視表面的完整信息,目前,無論哪種匹配方法都不能完全恢復(fù)出所有圖像點(diǎn)的視差,因此必須進(jìn)行最終的表面內(nèi)插重建。深度插值、誤差校正和精度改善是立體匹配的后處理部分。
通過上述對(duì)兩幅圖像的立體匹配結(jié)合視覺系統(tǒng)的標(biāo)定結(jié)果,則可重建出圖像上一點(diǎn)p(u,v)對(duì)應(yīng)的世界坐標(biāo)pw=(xw,yw,zw)。
為驗(yàn)證算法重建的精度,筆者對(duì)所選樣本圖像中目標(biāo)物體頂點(diǎn)的三維重建結(jié)果在X、Y、Z方向的誤差進(jìn)行分析。分別計(jì)算出各頂點(diǎn)在X、Y、Z方向的誤差,對(duì)4個(gè)頂點(diǎn)在同一方向的上的誤差求取均值,得到三維重建在3個(gè)方向上的誤差結(jié)果,如表3所示。因Sample6的一頂點(diǎn)被遮擋,故不予考慮。
表3 頂點(diǎn)三維重建在X、Y、Z方向的誤差
可見,本文所采用的算法重建精度較高。其中,在物體傾斜越大的方向上,對(duì)應(yīng)的重建誤差越大。
本研究在完成對(duì)特征點(diǎn)的三維重建之后,根據(jù)2D-3D匹配點(diǎn)的信息,對(duì)位姿進(jìn)行求解。在匹配的特征點(diǎn)對(duì)中,任選4組點(diǎn)對(duì),取其中重投影誤差最小的解。再多次取任意4組點(diǎn)對(duì),進(jìn)行上述處理,依據(jù)Levenberg-Marquardt算法反復(fù)進(jìn)行迭代,取重投影誤差最小的解作為待求解位姿。
本文對(duì)實(shí)驗(yàn)設(shè)置的9幅樣本進(jìn)行位姿求解,定位結(jié)果如圖9所示。
圖9 目標(biāo)頂點(diǎn)三維重建及定位結(jié)果
實(shí)驗(yàn)結(jié)果驗(yàn)證:對(duì)不同條件下物體,均可進(jìn)行有效、準(zhǔn)確的定位。
(1)為解決空間三維物體的識(shí)別與定位問題,本文搭建了平行的雙目立體視覺系統(tǒng),建立了雙目視覺對(duì)應(yīng)的成像模型,采用張正友方法對(duì)視覺系統(tǒng)進(jìn)行標(biāo)定,消除光學(xué)畸變,獲得兩個(gè)相機(jī)的內(nèi)部參數(shù)及相對(duì)位姿。實(shí)驗(yàn)對(duì)比顯示:標(biāo)定結(jié)果精度較高。
(2)針對(duì)場(chǎng)景中目標(biāo)的識(shí)別問題,本文采用基于描述子的模板匹配方法,將角點(diǎn)檢測(cè)算法與隨機(jī)樹算法相結(jié)合,對(duì)目標(biāo)進(jìn)行分類識(shí)別;以匹配時(shí)間和匹配率為標(biāo)準(zhǔn),確定算法的最佳參數(shù)。經(jīng)實(shí)驗(yàn)驗(yàn)證:對(duì)旋轉(zhuǎn)、遮擋、傾斜等各種條件下的物體,算法均能快速、準(zhǔn)確地進(jìn)行識(shí)別。
(3)基于NCC算法,本文對(duì)同一場(chǎng)景對(duì)應(yīng)的兩幅圖像進(jìn)行了立體匹配,求取視差,結(jié)合標(biāo)定結(jié)果對(duì)特征點(diǎn)進(jìn)行三維重建,并根據(jù)特征點(diǎn)對(duì)在圖像及實(shí)際場(chǎng)景中對(duì)應(yīng)的2D-3D位置信息求解目標(biāo)位姿。實(shí)驗(yàn)結(jié)果證明:三維重建精度較高,對(duì)不同條件下的目標(biāo)物體均可準(zhǔn)確定位。
參考文獻(xiàn)(References):
[1] JAAFARI I E, ANSARI M E, KOUTTI L. Fast edge-based stereo matching approach for road applications[J].Signal,ImageandVideoProcessing,SpringerLondon,2017,11(2):267-274.
[2] 董 峰,孫立寧,汝長海.基于雙目視覺的醫(yī)療機(jī)器人擺位系統(tǒng)測(cè)量方法[J].光電子·激光,2014(5):1027-1034.
[3] 呂家國,蔣曉瑜,張鵬煒,等.醫(yī)療機(jī)器人雙目視覺硬件系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[J].中國光學(xué),2014,7(2):307-314.
[4] ZHAO D, FENG W, SUN G, et al. High precision measurement system of micro-electronic connector based on machine vision[J].JournalofAppliedSciences,2013,13(22):5363-5369.
[5] STROPPA L, CASTELLINI P, PAONE N. Self-optimizing robot vision for online quality control[J].ExperimentalTechniques,2016,40(3):1051-1064.
[6] AHMED A A, ELBASHIR M K ,OSMAN A A. Distance alert system using stereo vision and feature extraction[C]. International Conference on Communication, Control, Computing and Electronics Engineering, Khartoum: IEEE,2017.
[7] GUEHRING J. Dense 3D surface acquisition by structured light using off-the-shelf components[J].ProceedingsofSPIE,2000(4309):220-231.
[8] KOCH T, BREIER M, LI W. Heightmap generation for printed circuit boards (PCB) using laser triangulation for pre-processing optimization in industrial recycling applications[C]. IEEE International Conference on Industrial Informatics, Bochum: IEEE,2013.
[9] STROPPA L, CRISTALLI C. Stereo vision system for accurate 3D measurements of connector pins’ positions in production Lines[J].ExperimentalTechniques,2017,41(1):69-78.
[10] IVORRA E, SáNCHEZ A J, CAMARASA J G, et al. Assessment of grape cluster yield components based on 3D descriptors using stereo vision[J].FoodControl,2015,50(4):273-282.
[11] 李勝利.基于雙目立體視覺的工件識(shí)別與定位技術(shù)研究[D].哈爾濱:哈爾濱工業(yè)大學(xué)機(jī)電工程學(xué)院,2016.
[12] 張 華,夏 菠.基于雙目視覺的機(jī)器人自定位方法研究[J].華中科技大學(xué)學(xué)報(bào):自然科學(xué)版,2015,43(s1):104-108.
[13] LOWE D G. Distinctive image features from scale-invariant keypoints[J].InternationalJournalofComputerVision,2004,60(2):91-110.
[14] HARRIS C, STEPHENS M. A combined corner and edge detector[R]. London: The Plessey Company PLC,1988.