張開(kāi)生 韋逸野
(陜西科技大學(xué)電氣與信息工程學(xué)院,陜西西安,710021)
數(shù)字化紙張是指采用數(shù)字化的形式來(lái)表征紙張的功能信息,將特定字符信息鑲嵌在非織物成形過(guò)程中,形成具有特定功能的專(zhuān)用紙張[1]。目前的研究主要為基于點(diǎn)陣圖形的纖維成紙方法[2],其對(duì)紙張本身進(jìn)行了內(nèi)嵌式的加密,信息鑲嵌于紙張纖維之中。但在對(duì)數(shù)字化紙張進(jìn)行抄造時(shí),需要對(duì)抄紙?jiān)O(shè)備進(jìn)行改造,耗費(fèi)人力物力,如果方案不完善,勢(shì)必還會(huì)造成更大的經(jīng)濟(jì)損失。為了完善數(shù)字化紙張的理念,為數(shù)字化紙張的實(shí)際抄造及信息識(shí)別提供理論指導(dǎo),本文從數(shù)字化的角度出發(fā),根據(jù)紙張?zhí)匦允褂肬nigraphics NX軟件進(jìn)行紙張數(shù)字化信息圖像建模,運(yùn)用軟件的仿真性能,獲取紙張圖像,并在此基礎(chǔ)上研究紙張功能數(shù)字化信息的識(shí)別方法。
目前,對(duì)圖像進(jìn)行識(shí)別處理的主流方法有基于圖像灰度值[3]和特征提取兩種?;趫D像灰度值的模板匹配方法雖然對(duì)圖像尺寸敏感、不具備旋轉(zhuǎn)不變性,但其簡(jiǎn)單易行、定位精度較高、匹配速度快?;谔卣魈崛〉钠ヅ浞椒╗4]主要有尺度不變特征變換(Scale-Invariant Feature Transform,SIFT)、加速穩(wěn)健特征(Speeded Up Robust Features,SURF)和基于FAST特征提取和BRIEF特征描述的算法(Oriented FAST and Rotated BRIEF,ORB)等,這幾種算法應(yīng)對(duì)圖像旋轉(zhuǎn)、亮度變化和尺度變化等有不同的效果。文獻(xiàn)[5]在SURF特征匹配階段利用Hessian矩陣跡的正負(fù)性來(lái)提高特征點(diǎn)匹配的速度,采用隨機(jī)采樣一致算法(Random Sample Consensus,RANSAC)提高匹配精確度。文獻(xiàn)[6]通過(guò)快速最近鄰搜索算法得到初匹配點(diǎn),再進(jìn)行雙向匹配,最后采用漸進(jìn)抽樣一致性算法(Progressive Sample Consensus,PROSAC)進(jìn)一步剔除誤匹配點(diǎn)對(duì)。文獻(xiàn)[7]針對(duì)ORB算法,在FAST特征檢測(cè)時(shí),建立多尺度空間金字塔,在計(jì)算描述符時(shí),采用精簡(jiǎn)的快速視網(wǎng)膜特征描述。文獻(xiàn)[8]則通過(guò)雙直方圖哈希算法進(jìn)行模板匹配,縮小ORB特征提取范圍,節(jié)省了特征提取的時(shí)間,從而提高算法速度。
在圖像識(shí)別方面,本文針對(duì)實(shí)際識(shí)別中對(duì)實(shí)時(shí)性需求較強(qiáng)的特點(diǎn),提出一種改進(jìn)的ORB算法。采用速度較快的ORB特征提取來(lái)獲得特征點(diǎn)和特征描述符,并結(jié)合隨機(jī)采樣一致性算法篩選特征點(diǎn)來(lái)保證圖像識(shí)別的精確度,通過(guò)快速最近鄰逼近搜索函數(shù)(Fast Library for Approximate Nearest Neighbors,F(xiàn)LANN)加快描述子匹配的匹配速度。最后使用透視變換來(lái)尋找已知物體,實(shí)現(xiàn)模擬紙張的信息識(shí)別。
Unigraphics NX是一個(gè)交互式計(jì)算機(jī)輔助設(shè)計(jì)與計(jì)算機(jī)輔助制造系統(tǒng)(Computer Aided Design/Computer Aided Manufacturing,CAD/CAM),功能強(qiáng)大,可以輕松實(shí)現(xiàn)各種復(fù)雜實(shí)體及造型的建構(gòu)。通過(guò)虛擬產(chǎn)品設(shè)計(jì)軟件Unigraphics NX首先形成3D的數(shù)字化紙張模型,在紙張模型上生成文字或者圖形,通過(guò)拉伸求差的方法使得文字與圖形產(chǎn)生嵌入紙張模型內(nèi)的效果,再通過(guò)真實(shí)渲染完善紙張建模。
首先進(jìn)行基礎(chǔ)紙張建模,在Unigraphics NX中選擇紙張形狀為長(zhǎng)方體,進(jìn)行紙張?jiān)c(diǎn)定位來(lái)確定模擬紙張的位置。然后進(jìn)行模擬紙張的尺寸設(shè)計(jì),假設(shè)其為普通登記單及發(fā)票大小,即190 mm×265 mm。為了展示方便,模擬紙張的厚度設(shè)置為1 mm。由于單純的紙張模型不需要進(jìn)行布爾運(yùn)算,所以布爾運(yùn)算選項(xiàng)為無(wú)。
在模擬的基礎(chǔ)紙張構(gòu)建后,則進(jìn)行文字信息“陜西科技大學(xué)”的創(chuàng)建。文字信息需要放置在虛擬紙張正面上的位置,放置方法選擇面上的曲線,錨點(diǎn)位置與參數(shù)百分比默認(rèn)選擇與模擬紙張一致。接下來(lái)為了實(shí)現(xiàn)信息內(nèi)嵌的效果,需要對(duì)文字信息進(jìn)行立體的拉伸以及嵌入。選定文字“陜西科技大學(xué)”后使用軟件的“拉伸”功能來(lái)產(chǎn)生文字立體感,即方向矢量選擇紙張模型向內(nèi),結(jié)束值設(shè)置為1 mm使之契合紙張參數(shù)。此時(shí)就需要用到布爾運(yùn)算中的求差使得立體文字與模擬紙張結(jié)合,至此數(shù)字化信息植入的模擬紙張構(gòu)建完成。
磁性點(diǎn)陣編碼控制器形成的紙張?zhí)攸c(diǎn)是點(diǎn)陣圖形的顏色由磁性纖維所決定,磁性纖維具有無(wú)色和有色兩種。所以在模擬紙張圖像時(shí),有色磁性纖維形成的點(diǎn)陣圖形應(yīng)該具有不同顏色,且具有顏色的點(diǎn)陣圖形存在于紙張的正反面。無(wú)色磁性纖維形成的點(diǎn)陣圖形可以通過(guò)特制的裝置采集得到圖像,其圖像中信息的顏色應(yīng)為顯像磁粉的顏色。
為了產(chǎn)生由磁性點(diǎn)陣編碼控制器作用于磁性纖維形成的紙張模型,需要復(fù)制基礎(chǔ)紙張模型進(jìn)行填充。同時(shí)在進(jìn)行真實(shí)渲染時(shí),選定符合真實(shí)紙張效果的白色亮澤對(duì)紙張模型進(jìn)行著色處理。假設(shè)該模擬紙張嵌入的文字信息使用了紅色磁性纖維,所以將嵌入的文字信息“陜西科技大學(xué)”選擇為紅色紋理,同時(shí)編輯復(fù)制后的紙張模型的顏色為淡粉色。這是因?yàn)榧t色磁性纖維存在紙張中,所以編碼控制器形成的文字信息處紅色磁性纖維密集,顏色較深顯示為紅色。其他紅色磁性纖維稀疏的紙張部分顯示為淡粉色,產(chǎn)生了紅色磁性纖維加密紙張正面模型(見(jiàn)圖1)。藍(lán)色磁性纖維創(chuàng)建同上,創(chuàng)建完成后選定模型后進(jìn)行模型旋轉(zhuǎn),則產(chǎn)生藍(lán)色磁性纖維加密紙張反面模型(見(jiàn)圖2)。
圖1 紅色磁性纖維加密紙張正面
圖2 藍(lán)色磁性纖維加密紙張反面
模板匹配是一項(xiàng)在一副圖像中尋找與另一幅模板圖像最相似部分的技術(shù)。模板匹配并不是基于直方圖的,而是通過(guò)在輸入圖像上滑動(dòng)圖像塊,對(duì)實(shí)際的圖像塊和輸入圖像進(jìn)行匹配的一種匹配方法?;舅悸窞椋河靡阎膱D像模板和原圖像中同樣大小的一塊區(qū)域去對(duì)比。最開(kāi)始的時(shí)候,模板左上角與原圖像左上角重合,然后拿模板和原圖像中同樣大小的一塊區(qū)域?qū)Ρ炔⑵揭频较乱粋€(gè)像素,仍然進(jìn)行同樣的操作,如此循環(huán)至所有位置都對(duì)比完成后,原圖像中差別最小的那塊位置區(qū)域就是要找的目標(biāo)。
2.2.1平方差匹配法(TM_ SQDIFF)
這類(lèi)方法利用平方差來(lái)進(jìn)行匹配,最好匹配為0。若匹配越差,匹配值則越大。
2.2.2歸一化平方差匹配法(TM_ SQDIFF_ NORMED)
2.2.3相關(guān)匹配法(TM_ CCORR)
這類(lèi)方法采用模板和圖像間的乘法操作,較大的數(shù)表示匹配程度較高,0表示最壞的匹配效果。
2.2.4歸一化相關(guān)匹配法(TM_ CCORR_ NORMED)
這類(lèi)方法將模板對(duì)其均值的相對(duì)值與圖像對(duì)其均值的相關(guān)值進(jìn)行匹配,1表示完美匹配,-1表示糟糕匹配,而0表示沒(méi)有任何相關(guān)性(隨機(jī)序列)。
其中:
T′(x′,y′)=T(x′,y′)-1/(w·h)·∑x″,y″T(x″,y″)
I′(x+x′,y+y′)=I(x+x′,y+y′)-1/(w·h)·∑x″, y″I(x+x″,y+y″)
2.2.6化相關(guān)系數(shù)匹配法(TM_ CCOEFF_ NORMED)
通常,隨著從簡(jiǎn)單的平方差到更復(fù)雜的相關(guān)系數(shù),匹配結(jié)果也會(huì)越來(lái)越準(zhǔn)確。但同時(shí)也會(huì)使得計(jì)算量越來(lái)越大。在實(shí)際應(yīng)用時(shí),應(yīng)進(jìn)行不同的實(shí)驗(yàn)測(cè)試,以便方案同時(shí)兼顧速度和精度。
ORB為ORiented Brief的簡(jiǎn)稱(chēng),是基于FAST特征檢測(cè)和BRIEF描述子改良的算法。BRIEF是Binary Robust Independent Elementary Features的縮寫(xiě),主要思路就是在特征點(diǎn)附近選取若干點(diǎn)對(duì),將這些點(diǎn)對(duì)的灰度值大小組合成一個(gè)二進(jìn)制串,并將這個(gè)二進(jìn)制串作為該特征點(diǎn)的特征描述子。BRIEF的優(yōu)點(diǎn)在于速度快,而缺點(diǎn)也相當(dāng)明顯:不具備旋轉(zhuǎn)不變性、對(duì)噪聲敏感、不具備尺度不變性。
ORB算法則是試圖解決上述缺點(diǎn)提出的一種新概念,但并沒(méi)有試圖解決尺度不變性。由于ORB算法執(zhí)行速度較快,所以O(shè)RB算法一般應(yīng)用在實(shí)時(shí)的視頻處理中。
3.2.1特征點(diǎn)提取
首先用FAST特征檢測(cè)方法,設(shè)置像素中心和圓環(huán)中心的強(qiáng)度閾值。以待測(cè)特征點(diǎn)為圓心,比較待測(cè)點(diǎn)和圓周上所有點(diǎn)的灰度值的大小,若差值足夠大并超過(guò)強(qiáng)度閾值,該待測(cè)點(diǎn)則為特征點(diǎn)。結(jié)合圖像尺度金字塔,一共N層,與SIFT不同,每層僅有一幅圖像,在每一層圖像計(jì)算需要提取的特征點(diǎn)數(shù)N,根據(jù)Harris角點(diǎn)響應(yīng)值排序。接著根據(jù)灰度質(zhì)心法,計(jì)算角點(diǎn)的灰度和質(zhì)心之間的偏移向量的方向作為特征點(diǎn)方向。
3.2.2特征點(diǎn)描述子
圖像在進(jìn)行高斯平滑后,對(duì)于檢測(cè)到的每個(gè)特征點(diǎn),考慮其31×31鄰域內(nèi)的某個(gè)點(diǎn)的5×5灰度平均值來(lái)代替某個(gè)點(diǎn)對(duì)的值,進(jìn)一步來(lái)比較點(diǎn)對(duì)的大小,這樣更加具備抗噪性。相關(guān)5×5的像素圖像塊描述子分段函數(shù)τ定義為:
根據(jù)均值與0.5的距離對(duì)測(cè)試排序,形成矢量T;進(jìn)行貪婪搜索,將第一個(gè)測(cè)試值τ加入結(jié)果矢量R中,同時(shí)將其從T移除;再?gòu)腡中取出下一個(gè)測(cè)試值τ將其與R中的所有測(cè)試值比較,相關(guān)系數(shù)大于設(shè)定的某一個(gè)閾值,則將其刪除,反之加入矢量R中。重復(fù)以上步驟直到R中有256個(gè)測(cè)試值τ,形成描述子,若少于256個(gè),則提高設(shè)定的閾值,繼續(xù)測(cè)試。
3.2.3特征匹配
提取出ORB的特征點(diǎn)和特征點(diǎn)描述子后,求出兩個(gè)關(guān)鍵點(diǎn)之間的最短和次最短的漢明距離。(在信息論中,兩個(gè)等長(zhǎng)字符串之間的漢明距離是兩個(gè)字符串對(duì)應(yīng)位置的不同字符的個(gè)數(shù)。換句話說(shuō),它就是將一個(gè)字符串變換成另外一個(gè)字符串所需要替換的字符個(gè)數(shù)),當(dāng)兩個(gè)漢明距離的比例小于0.8且漢明距離小于50時(shí),認(rèn)為兩個(gè)關(guān)鍵點(diǎn)是匹配的。
在獲得ORB特征點(diǎn)后,需要保證特征點(diǎn)匹配的精確性,使用隨機(jī)采樣一致性算法來(lái)減少誤配,得到魯棒性較強(qiáng)的圖像變換模型。
它是一種從數(shù)據(jù)集合中估計(jì)模型參數(shù)擬合的迭代方法。其篩選特征點(diǎn)的核心思想是將所有數(shù)據(jù)分為“局內(nèi)點(diǎn)”和“局外點(diǎn)”,通過(guò)構(gòu)造一個(gè)能夠解釋局內(nèi)點(diǎn)的目標(biāo)函數(shù)模型,反復(fù)提取與迭代來(lái)得到符合該函數(shù)模型中的初始值,這樣的值也認(rèn)為是局內(nèi)點(diǎn)。經(jīng)過(guò)多次隨機(jī)采樣評(píng)估局內(nèi)點(diǎn)與模型的錯(cuò)誤率,直至找到所需的函數(shù)模型,符合最后函數(shù)模型的局內(nèi)點(diǎn)即為匹配點(diǎn)。
對(duì)ORB描述子進(jìn)行匹配時(shí),使用快速最近鄰逼近搜索函數(shù)從大規(guī)模的數(shù)據(jù)集中尋找匹配的向量對(duì),在隨機(jī)一致性算法保證魯棒性的前提下,加快匹配速度。該方法基于K均值樹(shù)所實(shí)現(xiàn)的,可以根據(jù)數(shù)據(jù)集的分布特點(diǎn)來(lái)推薦索引類(lèi)型和檢索參數(shù),在高維空間內(nèi)最近鄰查找不受局部敏感影響。核心思想在于使用歐式距離來(lái)找到描述子的近鄰。具體匹配流程為:先找到模板圖像中描述子x1在原圖像中具有最小距離D的匹配點(diǎn)對(duì)(x1,x2),之后根據(jù)所有匹配點(diǎn)對(duì)的最小距離來(lái)設(shè)置一個(gè)閾值。若單個(gè)最小距離小于閾值則該匹配點(diǎn)對(duì)(x1,x2)成立,否則繼續(xù)尋找并剔除原描述子x1。
歐式距離按下式計(jì)算:
式中,xn和xn′分別為每對(duì)匹配描述子的特征向量。
最后,使用透視變換直接通過(guò)得到特征點(diǎn)與描述子最佳匹配求出變換矩陣,對(duì)模板圖的邊緣點(diǎn)進(jìn)行變換,在原圖中框出模板對(duì)應(yīng)的部分,達(dá)到準(zhǔn)確識(shí)別的效果。
透視變換(Perspective Transformation)是將圖片投影到一個(gè)新的視平面,也稱(chēng)作投影映射。設(shè)兩幅需尋找透視變換關(guān)系的圖像I1、I2中的相似性最好的特征點(diǎn)為p(a,b)和q(m,n),透視變換過(guò)程中的關(guān)系為:
其中Y=(m,n,1)T,X=(a,b,1)T,A為兩幅圖像間的變換矩陣。
實(shí)驗(yàn)選用的計(jì)算機(jī)配置為Intel(R)Core(TM)i5- 3230M CPU@2.60GHz 2.60GHz,內(nèi)存為 4.00GB,操作系統(tǒng)為WIN7 64位,實(shí)驗(yàn)使用的工具為Visual Studio 2013配置OpenCV_2.4.10。選取的圖像為磁性編碼器形成的模擬紙張圖像。由于該種紙張?jiān)趯?shí)際中使用光照條件恒定的特制裝置進(jìn)行圖像采集,所以只比較了模板匹配、ORB以及改進(jìn)ORB在面對(duì)尺度變化和旋轉(zhuǎn)變化的效果。
平方差匹配法、歸一化平方差匹配法、歸一化相關(guān)匹配法、系數(shù)匹配法和化相關(guān)系數(shù)匹配法的匹配結(jié)果一致,其正確匹配效果如圖5所示。圖6為相關(guān)匹配法的錯(cuò)誤匹配效果圖。從實(shí)驗(yàn)結(jié)果表1中可以發(fā)現(xiàn),雖然相關(guān)匹配法的運(yùn)行速度最快,但是匹配結(jié)果是錯(cuò)誤的。其余方法中同時(shí)考慮精度和速度,歸一化相關(guān)匹配法的效果最好。當(dāng)模板發(fā)生尺度變化或旋轉(zhuǎn)變化時(shí),效果如圖7、圖8所示,模板匹配的結(jié)果出現(xiàn)極大誤差。
原圖像大小為822×435,模板圖像大小為490×109,尺度變化模板大小為251×58。
圖3 磁性纖維的模擬紙張圖像
圖4 模板圖像
圖5 正確匹配效果圖
圖6 錯(cuò)誤匹配效果圖
圖7 尺度變化匹配效果圖
圖8 旋轉(zhuǎn)變化匹配效果圖
匹配方案匹配坐標(biāo)匹配耗時(shí)/s平方差匹配法(168,203)0.161618歸一化平方差匹配法(168,203)0.104564相關(guān)匹配法(332,324)0.067831歸一化相關(guān)匹配法(168,203)0.080988系數(shù)匹配法(168,203)0.083077化相關(guān)系數(shù)匹配法(168,203)0.106765
使用隨機(jī)采樣篩選特征點(diǎn),快速最近鄰逼近搜索函數(shù)庫(kù)實(shí)現(xiàn)快速高效匹配,用細(xì)線條連接匹配對(duì)應(yīng)點(diǎn),用粗線條框出檢測(cè)到的物體,并可以輸出檢測(cè)到匹配角點(diǎn)的精確坐標(biāo)值。由圖中可以看出,兩種算法在進(jìn)行紙張信息的匹配時(shí),得出的結(jié)果都是準(zhǔn)確的。
通過(guò)表1、表2中數(shù)據(jù)分析可以得出:在速度方面,模板匹配最快,改進(jìn)后的ORB算法與原算法相比快了1倍左右。從圖7與圖8中可以看出,在圖像發(fā)生尺度變化和旋轉(zhuǎn)變化時(shí),模板匹配的結(jié)果是錯(cuò)誤的,明顯不能識(shí)別。從圖10和圖11中可以看出,改進(jìn)后的ORB算法與原算法相比較,匹配點(diǎn)數(shù)量減少導(dǎo)致穩(wěn)定性略有減弱但其實(shí)時(shí)性大大加強(qiáng)。說(shuō)明改進(jìn)后的ORB算法在保留識(shí)別精度的前提下,提高了識(shí)別效率,符合數(shù)字化功能信息紙張的圖像識(shí)別需求。
圖9 ORB及改進(jìn)ORB算法原圖匹配效果圖
圖10 ORB及改進(jìn)ORB算法尺度變化匹配效果圖
圖11 ORB及改進(jìn)ORB算法旋轉(zhuǎn)變化匹配效果圖
匹配方法匹配特征點(diǎn)匹配耗時(shí)/sORB改進(jìn)ORBORB改進(jìn)ORB原圖匹配 186671.675810.96904尺度變化匹配134211.167520.53281旋轉(zhuǎn)變化匹配159261.326890.71398
本研究針對(duì)纖維成紙過(guò)程中,基于點(diǎn)陣圖形的數(shù)字化紙張信息的產(chǎn)品進(jìn)行了建模,在信息植入的早期,運(yùn)用軟件的仿真功能,為數(shù)字化紙張的實(shí)際抄造提供理論指導(dǎo)。然后選取目前圖像識(shí)別領(lǐng)域中的主流方法并改進(jìn),將ORB特征提取與隨機(jī)采樣一致性、快速最近鄰逼近搜索函數(shù)結(jié)合,得到一種新的算法。從實(shí)驗(yàn)結(jié)果中發(fā)現(xiàn),改進(jìn)后的ORB算法與模板匹配以及原算法相比,提高了運(yùn)行速度,面對(duì)尺度變化和旋轉(zhuǎn)變化也具有較好的魯棒性。
參 考 文 獻(xiàn)
[1] Zhang Kaisheng, Hou Xingang. The Discussion on Digital Encryption Method for Papermaking[J].Transactions of China Pulp and Paper 2016, 31(3): 42.
張開(kāi)生, 侯新剛. 纖維成紙過(guò)程中數(shù)字化加密方法探討[J].中國(guó)造紙學(xué)報(bào), 2016, 31(3): 42.
[2] Zhang Kaisheng, Li Zhijian, Zhang Xin. A Digital Encryption Method Based on Dot Pattern for Fiber Forming Process, China: CN201210224813. X[P].2012- 11- 07.
張開(kāi)生, 李志健, 張 馨. 一種基于點(diǎn)陣圖形的纖維成紙過(guò)程的數(shù)字化加密方法, 中國(guó): CN201210224813. X[P].2012- 11- 07.
[3] Li Qiang, Zhang Bo. A Fast Matching Algorithm Based on Image Gray Value[J].Journal of Software, 2006, 17(2): 216.
李 強(qiáng), 張 鈸. 一種基于圖像灰度的快速匹配算法[J].軟件學(xué)報(bào), 2006, 17(2): 216.
[4] Suo Chunbao, Yang Dongqing, Liu Yunpeng, et al. Comparing SIFT, SURF, BRISK, ORB and FREAK in Some Different Perspectives[J].Beijing Surveying and Mapping, 2014(4): 23.
索春寶, 楊東清, 劉云鵬, 等. 多種角度比較SIFT、SURF、BRISK、ORB、FREAK算法[J].北京測(cè)繪, 2014(4): 23.
[5] Gao Suqing, Tan Xunjun, Huang Chengxia, et al. Improved algorithm of image registration based on SURF[J].Journal of PLA University of Science and Technology: Natural Science, 2013, 14(4): 372.
高素青, 譚勛軍, 黃承夏, 等. 一種基于SURF的圖像配準(zhǔn)改進(jìn)算法[J].解放軍理工大學(xué)學(xué)報(bào): 自然科學(xué)版, 2013, 14(4): 372.
[6] Zhao Lulu, Geng Guohua, Li Kang, et al. Images matching algorithm based on SURF and fastapproximate nearest neighbor search[J].Application Research of Computers, 2013, 30(3): 921.
趙璐璐, 耿國(guó)華, 李康, 等. 基于SURF和快速近似最近鄰搜索的圖像匹配算法[J].計(jì)算機(jī)應(yīng)用研究, 2013, 30(3): 921.
[7] Zhang yang, Lv Qiang, Lin Huican, et al. An Improved Image Matching Algorithm Based on ORB for Visual SLAM[J].Journal of Academy of Armored Force Engineering, 2016, 30(6): 82.
張 洋, 呂 強(qiáng), 林輝燦, 等. 一種基于改進(jìn)ORB的視覺(jué)SLAM圖像匹配算法[J].裝甲兵工程學(xué)院學(xué)報(bào), 2016, 30(6): 82.
[8] Qiu Lijun, Tang Jiashan. A New Fast Two-step Image Matching Algorithm[J].Computer Technology and Development, 2015(8): 67.
邱麗君, 唐加山. 一種快速的兩步驟圖像匹配新算法[J].計(jì)算機(jī)技術(shù)與發(fā)展, 2015(8): 67.