陳 強(qiáng), 趙晶晶, 彭衛(wèi)平, 佘 毅, 劉麗瑤, 楊瑩輝
(1.西南交通大學(xué) 測(cè)繪遙感信息系,四川 成都 610031;2.四川省測(cè)繪產(chǎn)品質(zhì)量監(jiān)督檢驗(yàn)站,四川 成都 610041)
高速鐵路軌道的高平順性與高穩(wěn)定性是列車長(zhǎng)期安全運(yùn)行的重要地面基礎(chǔ),而軌道直接承載車輪并引導(dǎo)列車運(yùn)行,如果軌道的幾何平順性不良,將引起機(jī)車車輛劇烈振動(dòng),輪軌作用力成倍增加,嚴(yán)重危害軌道和機(jī)車車輛部件,甚至導(dǎo)致脫軌事件。為確保高速行駛列車的平穩(wěn)性和舒適性,必須加強(qiáng)對(duì)鐵路軌道幾何狀態(tài)的檢測(cè)和維護(hù),確保軌道狀態(tài)具有長(zhǎng)期的高平順性[1-2]。
隨著我國(guó)高速鐵路運(yùn)營(yíng)里程和在建規(guī)模的不斷擴(kuò)大,快速準(zhǔn)確地完成大規(guī)模軌道檢測(cè)將成為一項(xiàng)具有挑戰(zhàn)性的工作。而將近景攝影測(cè)量技術(shù)引入軌道幾何狀態(tài)檢測(cè),通過數(shù)碼相機(jī)獲取數(shù)字影像,采用非接觸測(cè)量方式,可快速、高效地獲取大面積連續(xù)的長(zhǎng)軌道影像數(shù)據(jù)。數(shù)字圖像具有信息量大且易于存儲(chǔ)、計(jì)算機(jī)處理自動(dòng)化程度高等顯著優(yōu)勢(shì),是一種具有應(yīng)用潛力的軌道檢測(cè)新方法[3-4]。
軌道影像的準(zhǔn)確匹配是近景攝影測(cè)量檢測(cè)軌道幾何平順性的重要技術(shù)環(huán)節(jié),可為軌道影像的精確定向與建模提供大量分布均勻的同名點(diǎn)[5]。高速鐵路軌道近景影像上有鋼軌、軌道板及扣件等鐵路構(gòu)筑物,圖像紋理特征差異小且灰度變化不顯著,灰度值的相似程度比較高,尤其是鋼軌的顏色基本保持同一色調(diào),且影像數(shù)據(jù)量大,因此需要探索一種適合于高速鐵路軌道近景影像的準(zhǔn)確、快速匹配算法。
本文試驗(yàn)采用ORB(Oriented FAST and Rotated BRIEF)算法對(duì)高速鐵路軌道近景影像進(jìn)行特征點(diǎn)檢測(cè)與匹配,ORB算法具有計(jì)算性能高、數(shù)據(jù)處理實(shí)時(shí)性和圖像旋轉(zhuǎn)不變性[6],對(duì)抗噪性能也有較好表現(xiàn),可快速、準(zhǔn)確地匹配出大量同名點(diǎn)。采用ORB算法對(duì)影像進(jìn)行特征點(diǎn)檢測(cè),以最近鄰距離與次近鄰距離的比值及隨機(jī)抽樣一致性RANSAC(Random Sample Consensus)方法完成同名點(diǎn)的匹配,根據(jù)匹配的同名點(diǎn)為基礎(chǔ)進(jìn)行軌道影像的拼接,通過采集杭甬客運(yùn)專線無砟軌道的影像進(jìn)行實(shí)驗(yàn)與對(duì)比分析。
ORB算法首先使用FAST算法檢測(cè)得到大量的特征點(diǎn),之后采用Harris算法過濾得到穩(wěn)定的特征點(diǎn),然后通過Hu矩為特征點(diǎn)確定主方向,最后采用BRIEF算法為特征點(diǎn)建立描述符,使特征點(diǎn)具有旋轉(zhuǎn)不變性。ORB算法提取特征點(diǎn)不僅提高了特征點(diǎn)的穩(wěn)定性,增加了特征點(diǎn)的旋轉(zhuǎn)不變性,而且簡(jiǎn)化了描述向量的構(gòu)建過程,縮短了后續(xù)特征點(diǎn)匹配所用的時(shí)間。
ORB算法采用FAST算法作為特征點(diǎn)的檢測(cè)核,檢測(cè)獲得特征點(diǎn)。FAST算法定義的特征點(diǎn)是當(dāng)某個(gè)像元異于其周圍足夠數(shù)量的像元時(shí),該像元被認(rèn)定為這個(gè)區(qū)域的一個(gè)特征點(diǎn)[7],在灰度圖像中表現(xiàn)為該像元灰度值大于或者小于它附近一定數(shù)量的像元灰度值,見圖1。
在圖1中,任取一個(gè)像元P為中心,在半徑為3個(gè)像元的圓環(huán)上共有16個(gè)像元,按照角點(diǎn)響應(yīng)函數(shù)式(1),圓環(huán)上的每個(gè)像元存在darker、similar和brighter共3種狀態(tài),即
圖1 FAST算法定義的特征點(diǎn)
式中:Ip為中心像元的灰度值;Ip→x為圓環(huán)上16個(gè)像元中某個(gè)像元的灰度值;t為一個(gè)適當(dāng)?shù)拈撝怠<僭O(shè)在圓環(huán)上存在1個(gè)連續(xù)的圓弧,該圓弧上的像元全部處于darker狀態(tài)或者brighter狀態(tài),則中心像元就是1個(gè)特征點(diǎn)。其中圓弧的長(zhǎng)度可以選擇9、10、11、12個(gè)像元,考慮到提取特征點(diǎn)的可靠性,通常選擇9個(gè)像元構(gòu)成的圓弧,如圖1中灰色部分所示的9個(gè)像元。
采用FAST算法獲得的特征點(diǎn)會(huì)存在聚簇現(xiàn)象,需采用非極大值抑制方法去除局部冗余,使保留下來的特征點(diǎn)在局部區(qū)域最優(yōu)。使用非極大值抑制前,需要尋找每個(gè)特征點(diǎn)的最大閾值tmax,也就是使中心像元成為特征點(diǎn)的最大臨界值,超過該臨界值中心像元將不再判定為特征點(diǎn)。通常在判定中心像元為特征點(diǎn)后,采用二分查找法在t與最大灰度值255之間尋找該特征點(diǎn)的臨界閾值tmax。確定每個(gè)特征點(diǎn)的臨界閾值tmax后,在特征點(diǎn)的3×3鄰域內(nèi),進(jìn)行非極大值抑制運(yùn)算,如果中心特征點(diǎn)的臨界值大于其他特征點(diǎn)的臨界閾值,則保留中心特征點(diǎn),反之則舍棄,從而得到局部最優(yōu)的特征點(diǎn)。
FAST算法檢測(cè)的特征點(diǎn)沿著影像中地物的邊緣分布較多,這類特征點(diǎn)實(shí)際上是邊緣點(diǎn),其穩(wěn)定性相對(duì)較差。采用Harris算法的角點(diǎn)響應(yīng)函數(shù)計(jì)算特征點(diǎn)的響應(yīng)值[8],作為特征點(diǎn)穩(wěn)定性的評(píng)價(jià)測(cè)度,用以得到穩(wěn)定的特征點(diǎn)。
Harris算法檢測(cè)特征點(diǎn),采用一個(gè)窗口在圖像I(x,y)上進(jìn)行局部的微小移動(dòng)[u,v],灰度的改變量為
由二元函數(shù)的泰勒公式
得到Harris算法的角點(diǎn)響應(yīng)函數(shù)R為
式中:
則式(3)用矩陣形式表示為
式中:det為矩陣的行列式;tr為矩陣的跡(矩陣對(duì)角線元素的和);k為經(jīng)驗(yàn)值,一般取0.04~0.06。
由于Harris算法只考慮平坦區(qū)域、邊緣以及角點(diǎn)3種情況的響應(yīng)值,其在角點(diǎn)處的響應(yīng)值最大。因此使用Harris角點(diǎn)響應(yīng)函數(shù)計(jì)算每個(gè)FAST算法檢測(cè)的特征點(diǎn)在其鄰域內(nèi)的響應(yīng)值,按照特征點(diǎn)響應(yīng)值的大小進(jìn)行降序排列,截取計(jì)劃數(shù)量的前N個(gè)點(diǎn)作為最終穩(wěn)定的特征點(diǎn),避免了讓所有的候選特征點(diǎn)參與匹配計(jì)算,降低誤匹配率,節(jié)省匹配時(shí)間。
目前得到的特征點(diǎn)沒有設(shè)定主方向,該類特征點(diǎn)不具備旋轉(zhuǎn)不變性,Rosin利用圖像的幾何矩給特征點(diǎn)提供一個(gè)確定主方向的方法[9],而幾何矩由Hu在1962年提出[10],對(duì)于離散狀態(tài)下的數(shù)字圖像I(x,y)的(p+q)階幾何矩定義為
圖像不同階的幾何矩表示了圖像亮度分布的不同空間特性。零階幾何矩m00代表1幅圖像的總亮度;一階幾何矩m10、m01代表圖像關(guān)于x軸和y軸的亮度矩[11]。由圖像的零階矩和一階矩得圖像I(x,y)的矩心(ˉx,ˉy)的表達(dá)式為
為了保證主方向具有各向同性,以特征點(diǎn)為圓心O,建立一個(gè)半徑為r個(gè)像元的圓,計(jì)算圓的矩心C,由于圓心和矩心確定了一個(gè)方向OC,則特征點(diǎn)的主方向?yàn)?/p>
式中:θ的取值范圍是(-π,π]。
ORB算法采用BRIEF為特征點(diǎn)建立描述符,使特征點(diǎn)具有旋轉(zhuǎn)不變性。BRIEF是Calonder在2010年提出的一種基于比較的描述向量[12],該算法對(duì)特征點(diǎn)周圍指定區(qū)域內(nèi)的多個(gè)像素點(diǎn)對(duì)進(jìn)行二值化判斷(即0或1的判斷),建立一個(gè)由二進(jìn)制數(shù)表示的描述向量。在特征點(diǎn)周圍S×S大小的圖像塊中定義1個(gè)像素點(diǎn)對(duì)p的τ檢測(cè)
式中:p(x)、p(y)分別表示圖像中位于x=(u,v)T和y=(u′,v′)T處的像元灰度值,當(dāng)這兩個(gè)位置的像元灰度值滿足式(9)中第1個(gè)條件時(shí),τ的值為1,否則為0。
特征點(diǎn)鄰域內(nèi)的nd個(gè)(x,y)點(diǎn)對(duì)能夠唯一地確定一組二進(jìn)制τ檢測(cè),BRIEF描述符就是nd維的二進(jìn)制向量,其表達(dá)式為
式中:nd可以為128、256或512,考慮到速度和魯棒性,本文中nd=256。在特征點(diǎn)的S×S鄰域內(nèi)選擇nd個(gè)(xi,yi)像素點(diǎn)對(duì),當(dāng)xi、yi服從高斯分布(0,S2/25)時(shí),采樣的像素點(diǎn)對(duì)在各個(gè)方向性能一致。
為使特征點(diǎn)的BRIEF描述符具有旋轉(zhuǎn)不變性,采用特征點(diǎn)圓形鄰域的矩心確立的主方向θ,將nd個(gè)像素點(diǎn)對(duì)變換到主方向確定的坐標(biāo)系下,得到像素點(diǎn)對(duì)旋轉(zhuǎn)后的BRIEF描述符
式中:Rθ是主方向確定的二維旋轉(zhuǎn)矩陣,即
將旋轉(zhuǎn)后的像素點(diǎn)對(duì)的BRIEF描述符Sθ,通過式(10)建立特征點(diǎn)的二進(jìn)制向量描述符,使特征點(diǎn)具有旋轉(zhuǎn)不變性。
同名點(diǎn)匹配是在相鄰兩幅影像提取的特征點(diǎn)及其描述符建立的基礎(chǔ)上,首先以最近鄰匹配中的最近鄰特征點(diǎn)距離與次近鄰特征點(diǎn)距離的比值匹配同名點(diǎn),然后采用RANSAC方法剔除誤匹配的同名點(diǎn),最后得到精確匹配的同名點(diǎn)。
同名點(diǎn)的匹配需在兩幅重疊影像的特征點(diǎn)及描述符建立完成后,本文采用最近鄰匹配方法匹配同名點(diǎn)[13]。ORB算法的二進(jìn)制向量描述符選定為32維,由于空間維度較低,通過比較描述符之間歐式距離的大小評(píng)價(jià)相鄰影像上特征點(diǎn)的相似程度,描述符之間的歐式距離表達(dá)式為
式中:A、B分別為相鄰兩幅影像的兩個(gè)特征點(diǎn);descrA和descrB分別為描述符;dE(A,B)是描述符的歐式距離。
尋找特征點(diǎn)與待匹配點(diǎn)的最近鄰特征點(diǎn)距離N N(Nearest Neighbor)和次近鄰特征點(diǎn)距離SCN(Second Nearest Neighbor),如果N N/SCN的比值小于給定的閾值,則認(rèn)為這組特征點(diǎn)相互匹配。
根據(jù)FAST算法對(duì)特征點(diǎn)的定義,檢測(cè)得到的特征點(diǎn)同樣也只存在darker或者brighter兩者之一的狀態(tài),重疊影像的同名點(diǎn)必然處于同一種狀態(tài),因此在計(jì)算歐氏距離之前先判斷特征點(diǎn)的明暗狀態(tài),不同狀態(tài)的特征點(diǎn)不用計(jì)算描述符的歐氏距離,從而可以節(jié)省匹配時(shí)間。
當(dāng)特征點(diǎn)數(shù)量比較多時(shí),在基準(zhǔn)點(diǎn)集和目標(biāo)點(diǎn)集之間采用窮舉搜索方法尋找同名點(diǎn)是一個(gè)非常費(fèi)時(shí)的過程。為了提高特征點(diǎn)的搜索速度,按照特征點(diǎn)描述符的維度對(duì)搜索空間進(jìn)行劃分,構(gòu)建KD-樹來加快特征點(diǎn)的檢索,可以極大地縮減匹配過程。
由于影像獲取環(huán)境的光照變化以及噪聲等因素干擾,特征點(diǎn)的匹配不可避免的存在錯(cuò)誤,為提高匹配的準(zhǔn)確率,本文采用RANSAC方法剔除誤匹配的同名點(diǎn),具體步驟為:
Step1在齊次坐標(biāo)系下,兩張重疊影像上的一對(duì)同名點(diǎn)Xp=(x,y,1)T和Xq=(x′,y′,1)T滿足透視變換關(guān)系
hi(i=1,2,…,8),理論上至少4對(duì)同名點(diǎn)可以計(jì)算出兩幅影像間的變換關(guān)系。
Step2隨機(jī)地選取4組同名點(diǎn),計(jì)算單應(yīng)性矩陣H中的8個(gè)未知參數(shù)。
Step3計(jì)算剩余匹配點(diǎn)的相似性測(cè)度ρ,如果小于閾值ε,則選定為內(nèi)點(diǎn),并存入內(nèi)點(diǎn)集S,否則被認(rèn)為是外點(diǎn)。相似性測(cè)度為
式中:Xa、Xb為一組候選同名點(diǎn);dE為透視變換后匹配點(diǎn)坐標(biāo)的歐式距離。
Step4統(tǒng)計(jì)內(nèi)點(diǎn)集S中內(nèi)點(diǎn)的數(shù)量,如果內(nèi)點(diǎn)的個(gè)數(shù)大于4,則記錄下所有的內(nèi)點(diǎn);否則返回到Step2。
Step5經(jīng)過K次隨機(jī)抽樣后,選擇內(nèi)點(diǎn)數(shù)量最大的內(nèi)點(diǎn)集S′作為最終的精確匹配結(jié)果,并用S′估計(jì)單應(yīng)性矩陣H。其中采樣次數(shù)K=log(1-p)/log(1-w4),匹配點(diǎn)是內(nèi)點(diǎn)的概率p應(yīng)大于95%,內(nèi)點(diǎn)占數(shù)據(jù)點(diǎn)集的比例w視具體情況而定。
本實(shí)驗(yàn)的影像數(shù)據(jù)是利用Canon EOS 5D MarkⅡ數(shù)碼相機(jī)結(jié)合車載近景攝影裝置,在杭甬客運(yùn)專線紹興段采集的無砟軌道近景影像,見圖2。相機(jī)傳感器CMOS的尺寸為36 mm×24 mm,鏡頭焦距為24 mm,攝影平臺(tái)高度為1.4 m,影像像素行列數(shù)為5 616×3 744,影像地面分辨率為0.4 mm。由圖2可見,影像成像范圍內(nèi)主要是鋼軌、軌道板及扣件等鐵路構(gòu)筑物,圖像特征相對(duì)較少,影像色彩信息較為單一,圖像灰度數(shù)值具有較高的相似性,尤其是鋼軌的顏色基本保持在同一色調(diào)。
為驗(yàn)證在鐵路軌道近景影像紋理特征差異小且灰度變化不顯著時(shí),ORB算法進(jìn)行特征點(diǎn)提取與匹配的可靠性和穩(wěn)定性,本文同時(shí)采用ORB算法和SURF(Speeded up Robust Features)算法[15]進(jìn)行鐵路軌道近景影像特征點(diǎn)的提取與匹配,并對(duì)這兩種算法的結(jié)果進(jìn)行對(duì)比與分析。
圖2 杭甬客運(yùn)專線采集的無砟軌道近景影像
采用ORB算法對(duì)圖2中的兩幅影像進(jìn)行匹配,具體參數(shù)設(shè)置情況見表1。兩幅影像實(shí)際提取得到的特征點(diǎn)數(shù)量為2 040個(gè),如圖3(a),從圖中可看出特征點(diǎn)的分布較均勻,沒有聚簇現(xiàn)象,主要位于軌道板上,可為同名點(diǎn)匹配提供高質(zhì)量的數(shù)據(jù)。在特征點(diǎn)匹配時(shí),采用最近鄰匹配得到粗匹配同名點(diǎn)個(gè)數(shù)是626對(duì),經(jīng)RANSAC方法提純后得到同名點(diǎn)個(gè)數(shù)是266對(duì),如圖4(a)所示,圖中用紅色直線連接左、右兩張影像上的同名點(diǎn),同名點(diǎn)較為均勻地分布在軌道板上,可為鐵路軌道近景影像的拼接提供高質(zhì)量的數(shù)據(jù)基礎(chǔ)。
表1 ORB算法參數(shù)設(shè)置情況
圖3 采用兩種算法分別提取影像特征點(diǎn)
圖4 采用兩種算法匹配的同名點(diǎn)
采用SURF算法對(duì)圖2中的影像進(jìn)行特征點(diǎn)匹配,具體參數(shù)設(shè)置情況見表2。SURF算法提取得到的特征點(diǎn)如圖3(b),在圖3(b)中左影像特征點(diǎn)數(shù)量為5 148個(gè),右影像特征點(diǎn)數(shù)量為3 998個(gè),從圖中可看出特征點(diǎn)分布不夠均勻,存在聚簇現(xiàn)象,主要集中在軌道板邊緣位置,這類點(diǎn)為邊緣點(diǎn),其穩(wěn)定性相對(duì)較差,不利于特征點(diǎn)匹配。在特征點(diǎn)匹配時(shí),粗匹配得到的同名點(diǎn)個(gè)數(shù)有630對(duì),精匹配得到的同名點(diǎn)個(gè)數(shù)有214對(duì),結(jié)果見圖4(b),同名點(diǎn)分布較集中,主要位于軌道板邊緣位置,會(huì)影響到軌道近景影像的拼接。
表2 SURF算法參數(shù)設(shè)置
分別以兩種算法匹配得到的同名點(diǎn)為基礎(chǔ),將圖2中的兩幅影像進(jìn)行拼接,結(jié)果見圖5。
圖5 軌道影像兩種算法下拼接結(jié)果比較
從圖5中可見,基于ORB算法的影像拼接效果較優(yōu),沒有拼接縫隙,拼接質(zhì)量較好;而基于SURF算法的影像拼接在上側(cè)軌道有明顯的錯(cuò)位,拼接縫隙較為明顯,如圖5(b)中圓圈所標(biāo)記的地方,拼接質(zhì)量較差。由此可見,基于ORB算法的軌道近景影像匹配得到的同名點(diǎn)穩(wěn)健性相對(duì)更好。
ORB算法和SURF算法均在Visual Studio 2008 C++平臺(tái)上編寫,所用計(jì)算機(jī)的CPU為2.67 GHz,系統(tǒng)環(huán)境內(nèi)存為2 GB,整個(gè)影像匹配過程消耗的時(shí)間,見表3。
由表3可得出,基于ORB算法的鐵路軌道近景影像特征點(diǎn)提取與匹配全過程消耗的時(shí)間約為SURF算法的1/16,即 ORB算法的時(shí)間效率明顯優(yōu)于SURF算法,可達(dá)到近實(shí)時(shí)處理的要求;尤其當(dāng)鐵路軌道近景影像數(shù)量巨大時(shí),ORB算法較SURF算法其優(yōu)勢(shì)將更加突出。
表3 ORB算法和SURF算法匹配時(shí)間對(duì)比 s
本文提出采用ORB算法對(duì)高速鐵路軌道近景影像進(jìn)行特征點(diǎn)提取,采用最近鄰距離與次近鄰距離的比值及RANSAC方法完成同名點(diǎn)匹配,以匹配的同名點(diǎn)為基礎(chǔ)進(jìn)行相鄰影像的拼接。通過對(duì)杭甬客運(yùn)專線上采集的無砟軌道影像進(jìn)行處理,結(jié)果表明,在高速鐵路軌道近景影像紋理特征差異小且灰度變化不顯著的情況下,ORB算法能夠提取到足夠數(shù)量且分布均勻的同名點(diǎn);利用這些同名點(diǎn)進(jìn)行圖像拼接,ORB算法較SURF算法得到了較好的拼接結(jié)果;在計(jì)算效率方面,ORB算法明顯優(yōu)于SURF算法。本文實(shí)驗(yàn)表明,采用ORB算法進(jìn)行鐵路軌道近景影像特征點(diǎn)自動(dòng)識(shí)別與無縫拼接,可為近景攝影測(cè)量檢測(cè)高速鐵路軌道幾何平順性提供重要的圖像技術(shù)支撐。
[1]熊衛(wèi)東,周清躍,穆恩生.高速鐵路鋼軌的平順性[J].中國(guó)鐵道科學(xué),2000,21(3):76-83.
XIONG Weidong,ZHOU Qingyue,MU Ensheng.The Smoothness of High-speed Railway Track Rails[J].China Railway Science,2000,21(3):76-83.
[2]蔡成標(biāo),翟婉明,王其昌.軌道幾何平順性安全限值的研究[J].鐵道學(xué)報(bào),1995,17(4):82-87.
CAI Chengbiao,ZHAI Wanming,WANG Qichang.Study on Allowable Safety Criterion of Track Geometric Irregularities[J].Journal of the China Railway Society,1995,17(4):82-87.
[3]陳強(qiáng),劉麗瑤,楊瑩輝,等.基于雙向近景攝影測(cè)量檢測(cè)軌道平順度的計(jì)算模型[J].鐵道學(xué)報(bào),2012,34(12):83-89.
CHEN Qiang,LIU Liyao,YANG Yinghui,et al.Track Regularity Determination Model form Two-way Closerange Photogrammetry[J].Journal of the China Railway Society,2012,34(12):83-89.
[4]陳強(qiáng),劉麗瑤,楊瑩輝,等.高速鐵路軌道幾何狀態(tài)的車載攝影快速檢測(cè)方法與試驗(yàn)[J].鐵道學(xué)報(bào),2014,36(3):80-86.
CHEN Qiang,LIU Liyao,YANG Yinghui,et al.Static Geometry Measurement of High-speed Railway Tracks by Vehicle-borne Photogrammetry[J].Journal of the China Railway Society,2014,36(3):80-86.
[5]張祖勛,張劍清.數(shù)字?jǐn)z影測(cè)量學(xué)[M].武漢:武漢大學(xué)出版社,1997.
[6]RUBLEE E,RABAUD V,KONOLIGE K,et al.ORB:an Efficient Alternative to SIFT or SURF[C]//Proceedings of IEEE International Conference on Computer Vision(ICCV2011).New York:IEEE,2011:2564-2571.
[7]ROSTEN E,DRUMMOND T.Machine Learning for High-speed Corner Detection[C]//Proceedings of the 2006 European Conference on Computer Vision(ECCV).Berlin Heidelberg:Springer Verlag,2006:430-443.
[8]HARRIS C,STEPHENS M.A Combined Corner and Edge Detector[C]//Proceedings of Alvey Vision Conference.Manchester:AVC,1988:15-50.
[9]ROSIN P L.Measuring Corner Properties[J].Computer Vision and Image Understanding,1999,73(2):291-307.[10]HU M K.Visual Pattern Recognition by Moment Invariants[J].IRE Transactions on Information Theory,1962,8(2):179-187.
[11]王耀明.圖像的矩函數(shù):原理、算法及應(yīng)用[M].上海:華東理工大學(xué)出版社,2002.
[12]CALONDER M,LEPETIT V,STRECHA C,et al.BRIEF:Binary Robust Independent Elementary Features[C]//Proceedings of the 2010 European Conference on Computer Vision (ECCV).Berlin Heidelberg:Springer Verlag,2010:778-792.
[13]SZELISKI R.Computer Vision:Algorithms and Applications[M].London:Springer Verlag,2011.
[14]吳福朝.計(jì)算機(jī)視覺中的數(shù)學(xué)方法[M].北京:科學(xué)出版社,2008.
[15]BAY H,TUYTELAARS T,VAN GOOL L.SURF:Speeded Up Robust Features[C]//Proceedings of the 2006 European Conference on Computer Vision(ECCV).Berlin Heidelberg:Springer Verlag,2006:404-417.