陳忠 周德文 張憲民
(華南理工大學(xué) 機(jī)械與汽車工程學(xué)院, 廣東 廣州 510640)
?
基于改進(jìn)空間矩算法的光纖纖芯輪廓特征點(diǎn)快速提取*
陳忠周德文張憲民
(華南理工大學(xué) 機(jī)械與汽車工程學(xué)院, 廣東 廣州 510640)
摘要:為了提高基于視覺的光纖精密對(duì)接的特征點(diǎn)提取速度和定位精度,提出了一種基于改進(jìn)空間矩算法的光纖纖芯輪廓特征點(diǎn)亞像素快速提取算法.該算法首先對(duì)光纖纖芯的初始位置進(jìn)行快速搜索,進(jìn)而對(duì)纖芯和光纖端面進(jìn)行邊緣追蹤,提取出纖芯的邊緣;然后采用改進(jìn)空間矩算法得到邊緣的亞像素位置,并對(duì)提取到的纖芯邊緣點(diǎn)和端面邊緣點(diǎn)進(jìn)行直線擬合,求取光纖中軸線及端面直線方程.實(shí)驗(yàn)結(jié)果表明,文中提出的光纖纖芯輪廓特征點(diǎn)提取算法相對(duì)于傳統(tǒng)方法具有提取速度快、抗噪性好和定位精度高的特點(diǎn),能滿足實(shí)時(shí)精密對(duì)接光纖的要求.
關(guān)鍵詞:計(jì)算機(jī)視覺;特征提取;一維空間矩;光纖
隨著通信技術(shù)的發(fā)展,光纖被廣泛應(yīng)用在遠(yuǎn)程通訊中,光纖對(duì)接是光纖網(wǎng)絡(luò)工程中的關(guān)鍵技術(shù)之一.目前,對(duì)接光纖的方式主要分為主動(dòng)對(duì)接和被動(dòng)對(duì)接[1].被動(dòng)對(duì)接一般比較簡單,但精度不高.主動(dòng)對(duì)接方式又可分為視覺伺服型[2]和光功率伺服型[3- 4].由于能夠避免局部尋優(yōu)點(diǎn),以及一些特殊情況下不適合采用光功率伺服主動(dòng)對(duì)接[5],因此,基于視覺的光纖對(duì)接技術(shù)不斷發(fā)展[6- 8].
在基于視覺進(jìn)行光纖對(duì)接時(shí),快速而高精度的圖像處理技術(shù)顯得尤為重要.在圖像處理過程中,一般需要對(duì)光纖圖像進(jìn)行邊緣提取以求取光纖的中軸線及其特征點(diǎn),即光纖末端端點(diǎn)的位置.而在提取圖像邊緣時(shí),傳統(tǒng)的方法如Canny、Sobel或形態(tài)學(xué)算法[9],通常只有像素級(jí)精度[10],而且耗時(shí)過長,一般不能滿足視覺伺服的實(shí)時(shí)性要求[11].在處理光纖圖像時(shí),Chuang等[11]將上下兩根光纖分割為4個(gè)感興趣的區(qū)域,每根光纖由2個(gè)特征點(diǎn)表示,但無法定位光纖端點(diǎn)的位置,同時(shí)其特征點(diǎn)的精度僅為像素級(jí).張偉等[12]利用自適應(yīng)閾值和形態(tài)學(xué)法求取光纖輪廓,但圖像處理時(shí)間過長,提取得到的是光纖包層的輪廓而不是光纖纖芯的輪廓.
為了提高視覺伺服系統(tǒng)的性能,文中提出了一種基于改進(jìn)空間矩算法的光纖纖芯輪廓特征點(diǎn)亞像素快速提取算法.該算法首先對(duì)光纖纖芯的初始位置進(jìn)行快速搜索,進(jìn)而對(duì)纖芯和光纖端面進(jìn)行邊緣追蹤,提取纖芯的邊緣而非包層的邊緣,以避免光纖包層和纖芯因制造誤差帶來的不同軸問題[13];然后采用改進(jìn)空間矩算法得到邊緣的亞像素位置,并對(duì)提取到的纖芯邊緣點(diǎn)和端面邊緣點(diǎn)進(jìn)行直線擬合,求取光纖中軸線及端面直線方程;最后基于所建立的遠(yuǎn)心視覺實(shí)驗(yàn)系統(tǒng)獲取光纖對(duì)接的圖像,并與傳統(tǒng)方法如Canny、Sobel、形態(tài)學(xué)算法、傳統(tǒng)空間矩算法的快速性、抗噪性及準(zhǔn)確性進(jìn)行對(duì)比分析.
1空間矩算法
在圖像處理中,利用矩不變特性求取理想邊緣模型的邊緣值,并用其表征實(shí)際圖像的邊緣,此即為空間矩算法[14- 15].
1.1一維空間矩邊緣提取算法
在理想的情況下,物體在成像后,其背景部分完全保持為白色,物體部分則完全為黑色.而實(shí)際上,物體邊緣部分的灰度值總是漸變的,如圖1所示.圖中連續(xù)曲線f(x)為一維(1D)理想邊緣階躍模型,而離散點(diǎn)P則表示實(shí)際成像后的像素點(diǎn).對(duì)于圖像中長為n的邊緣序列,可用Ii(1≤i≤n)來表示第i處像素的灰度值,Ii在讀取圖像時(shí)獲取.
圖1 一維空間矩的理想階躍邊緣模型
為了便于分析,文中將理想邊緣f(x)歸一化為-1≤x<1,其背景和前景灰度值分別為h1、h2,而其邊緣位置為l,則歸一化后的理想邊緣函數(shù)為
(1)
其p(p=0,1,2,…)階空間矩為
(h1-h2)lp+1]/(p+1)
(2)
對(duì)實(shí)際成像后的邊緣序列Ii進(jìn)行歸一化處理,則其p階空間矩為
(3)
由矩不變特性可知,實(shí)際成像和理想邊緣的矩應(yīng)保持一致,即有矩不變方程
(4)
聯(lián)立前3階矩不變方程,可解得
(5)
為了得到實(shí)際邊緣值L,需要將l還原,即有
L=[(l+1)n+1]/2
(6)
1.2改進(jìn)的空間矩算法
在進(jìn)行一維空間矩邊緣提取時(shí),由點(diǎn)P向兩側(cè)均勻選取N個(gè)點(diǎn)所形成的2N+1個(gè)點(diǎn)構(gòu)成采樣離散序列,如圖2所示.采樣離散序列的中心位置P的選取對(duì)邊緣定位精度有很大的影響,為了減小因P的不恰當(dāng)選取帶來的影響,文中采用粗定位和后校驗(yàn)相結(jié)合的方法來提高該算法的準(zhǔn)確性.
2)精定位.對(duì)上述選取的灰度離散序列,利用一階空間矩求取其邊緣.
圖2 校驗(yàn)粗邊緣的一維空間矩算法示意圖
Fig.2Schematic diagram of the 1D spatial moment algorithm with checking the coarse edge
2快速特征提取
在對(duì)光纖圖像進(jìn)行特征提取時(shí),如果是在圖像二維空間中進(jìn)行運(yùn)算,如二維空間矩或Canny等算法,則處理時(shí)間會(huì)較長,不利于光纖的實(shí)時(shí)對(duì)接.單模光纖示意圖如圖3所示.從圖中可以看出,光纖纖芯的邊緣清晰且與圖像坐標(biāo)系v軸的夾角較小,因而文中考慮綜合運(yùn)用光纖初始搜索、邊緣徑向追蹤算法和改進(jìn)空間矩算法來提取纖芯邊緣及光纖端面,以快速提取光纖中軸線及特征點(diǎn).
圖3 單模光纖示意圖
2.1光纖成像特征
從圖3(a)可知,單模光纖從外到內(nèi)分別為保護(hù)外殼、涂覆層、包層、玻璃纖芯(纖芯).在對(duì)接光纖過程中,涂覆層和保護(hù)外殼會(huì)被剝掉,只剩下纖芯和包層部分.纖芯和包層成像如圖3(b)所示.由于纖芯與包層的折射率不同,圖像中黑色部分為光纖的包層,而位于光纖包層內(nèi)的白色部分則為纖芯.由于光信號(hào)在纖芯中傳播,因此文中對(duì)纖芯邊緣而非包層邊緣進(jìn)行圖像處理.
2.2光纖初始搜索
在光纖對(duì)接全過程中,光纖調(diào)節(jié)的角度一般很小.光纖在成像后,其軸線與v軸大致平行,如圖3(b)所示.為了避免在整幅圖像內(nèi)進(jìn)行圖像處理,可以在第m(m為正整數(shù))行進(jìn)行粗、精兩步快速搜索方式定位包層和纖芯的初始位置.
如圖4所示,在對(duì)第m行的像素序列進(jìn)行包層粗搜索時(shí),若粗搜索步長s選取過大,則可能會(huì)搜索不到光纖,而若選取過小,則算法會(huì)比較耗時(shí).因而,文中選取光纖包層和纖芯的距離作為粗搜索步長.假設(shè)粗搜索得到的包層(黑色部分)的兩端分別為a和b,則可以認(rèn)為纖芯位于a和b之間,即減小了對(duì)纖芯的搜索范圍.然后對(duì)此搜索范圍逐像素進(jìn)行精搜索,并利用1.2節(jié)中粗定位和后校驗(yàn)方法求取纖芯的左右端點(diǎn)A和B.
圖4 光纖初始搜索
2.3光纖纖芯的邊緣追蹤
經(jīng)初始搜索后,可以得到纖芯左邊緣點(diǎn)A1(u1,v1),其中(u1,v1)為邊緣點(diǎn)在圖像坐標(biāo)系下的坐標(biāo)值.以同樣的方法得到纖芯第k行(k>m)的左邊緣點(diǎn)A2(u2,v2),構(gòu)成初始點(diǎn)集{Ai(ui,vi),i=1,2}.對(duì)這個(gè)初始點(diǎn)集進(jìn)行一步步搜索,直到完成整個(gè)光纖的搜索過程.具體過程如下:
1)預(yù)測(cè)下一個(gè)邊緣點(diǎn)的位置.為了能更快地完成纖芯追蹤過程,選取一較大追蹤步長s(s為正整數(shù))進(jìn)行跳躍式追蹤.由于追蹤步長過大會(huì)降低圖像處理的精度,而步長過小會(huì)使算法過于耗時(shí),故文中選取s=10.設(shè)此時(shí)初始點(diǎn)集數(shù)為t(t≥2),則下一個(gè)點(diǎn)At+1(ut+1,vt+1)的位置為
(7)
2)判斷預(yù)測(cè)點(diǎn)At+1是否為纖芯邊緣點(diǎn).為了能判斷纖芯是否延續(xù)到此預(yù)測(cè)點(diǎn),可以對(duì)預(yù)測(cè)點(diǎn)At+1和At之間的每個(gè)像素點(diǎn)進(jìn)行檢驗(yàn),若所有的像素點(diǎn)灰度值與纖芯一致,則表明該預(yù)測(cè)點(diǎn)為纖芯的邊緣點(diǎn);否則,所檢驗(yàn)的像素點(diǎn)不在光纖之內(nèi),即表示已經(jīng)搜索到纖芯的端點(diǎn),記錄纖芯端點(diǎn)信息Ae(ue,ve),結(jié)束追蹤,如圖5所示.
圖5 纖芯邊緣的追蹤過程
3)求取預(yù)測(cè)點(diǎn)附近的纖芯邊緣點(diǎn).為加快處理速度,設(shè)此預(yù)測(cè)點(diǎn)At+1為1.2節(jié)中的粗定位結(jié)果.以At+1為中心,向兩端均勻取離散點(diǎn)構(gòu)成離散序列(取樣長度為N=5),并通過空間矩法求取該序列邊緣點(diǎn).由于At+1是在步驟1)中通過預(yù)測(cè)得到的,其值并不準(zhǔn)確,有可能會(huì)造成離散序列的不恰當(dāng)選取,降低空間矩算法的邊緣提取精度,因而在通過空間矩算法提取邊緣后還需要進(jìn)行校驗(yàn).設(shè)通過改進(jìn)的空間矩算法得到此序列的邊緣值為φ,則可以得到預(yù)測(cè)點(diǎn)在u軸的準(zhǔn)確位置,即
(8)
5)同理得到纖芯右邊緣點(diǎn)集{Bi(ui,vi)},此時(shí),纖芯的軸線位置Oi(ui,vi)即為左邊緣Ai與右邊緣Bi的中心.
2.4纖芯直線擬合
單模光纖的直徑非常小,一般來講,光纖在視場(chǎng)內(nèi)的長度僅有1mm.對(duì)于文中所用的遠(yuǎn)心相機(jī),空間中的直線被投射為直線.因而,可以將圖像中光纖各軸線點(diǎn)Oi擬合成直線.對(duì)于已經(jīng)提取到的纖芯左邊緣點(diǎn)集{Oi(ui,vi),i=1,2,…},得到通過其光纖中心點(diǎn)集的直線方程為
au+bv+c=0,a2+b2=1
(9)
由于提取的光纖中心點(diǎn)個(gè)數(shù)大于2,即求取中軸線方程實(shí)際上是一個(gè)最優(yōu)化問題,將點(diǎn)集到直線距離的平方和作為該優(yōu)化問題的目標(biāo)函數(shù),即優(yōu)化問題為
(10)
2.5光纖端面處理
在2.3節(jié)中進(jìn)行光纖纖芯邊緣的提取時(shí),若搜索到光纖端部Ae(ue,ve)和Be(ue,ve),則搜索算法停止.此時(shí),光纖端部Ae和Be的定位精度僅為像素級(jí),其對(duì)兩光纖的間隙有很大的影響,很難滿足光纖對(duì)接的要求.因而,文中采用改進(jìn)的空間矩算法對(duì)光纖端面邊緣進(jìn)行亞像素定位以提高其精度.
如圖6所示,分別以纖芯端點(diǎn)Ae和Be為起點(diǎn),沿2.4節(jié)中光纖纖芯中軸線垂直的方向以一定間隔選取預(yù)測(cè)點(diǎn),如圖6中Fi(i=1,2,…,6)所示.取樣間隔越大,則預(yù)測(cè)點(diǎn)點(diǎn)數(shù)越少,文中取預(yù)測(cè)點(diǎn)點(diǎn)數(shù)為6.可以看出,預(yù)測(cè)點(diǎn)Fi只是光纖端面邊緣附近的點(diǎn),因此,以預(yù)測(cè)點(diǎn)Fi為中心,沿v軸均勻提取離散點(diǎn)序列,利用空間矩算法求取實(shí)際的邊緣位置.為了避免因預(yù)測(cè)點(diǎn)誤差太大而導(dǎo)致邊緣位置失真,文中利用1.2節(jié)的方法進(jìn)行后校驗(yàn),修正其邊緣位置以提高定位精度.最后得到修正后的光纖端面點(diǎn)集{Fi(ui,vi)|i=1,2,…}.
圖6 光纖端面定位過程
提取得到光纖的端點(diǎn)后,采用2.4節(jié)方法將端面點(diǎn)集{Fi(ui,vi)}擬合成直線.設(shè)其端面線方程為
αu+βv+γ=0,α2+β2=1
(11)
光纖的端點(diǎn)可以用端面線和中軸線的交點(diǎn)表示,聯(lián)合式(9)和(11),即可得到端點(diǎn)P(uP,vP)坐標(biāo):
(12)
此時(shí),便可得到上端光纖端點(diǎn)P(up,vp)及其直線方程(9),用同樣方法處理下端光纖,可得到下端光纖端點(diǎn)及其直線方程.至此,可得到兩光纖在圖像中的位置.光纖纖芯特征點(diǎn)提取的迭代過程如圖7所示.
圖7 光纖纖芯特征點(diǎn)提取流程圖
Fig.7Flowchartofthefeaturepointextractionfortheopticalfibercores
3實(shí)驗(yàn)結(jié)果與分析
文中采用AVTGuppyProF125B相機(jī)搭配MoritexMML02-110D遠(yuǎn)心鏡頭來采集光纖圖像,如圖8所示.采集到的圖像大小為1 024×768,如圖3(b)所示.
圖8 實(shí)驗(yàn)裝置示意圖
3.1時(shí)間對(duì)比分析
在配置為CPUi3-2120 3.30GHz、4GBRAM的計(jì)算機(jī)上采用Matlab2010b進(jìn)行Canny、Sobel、形態(tài)學(xué)算法、空間矩算法(無后校驗(yàn)過程)及文中算法提取光纖特征點(diǎn)的仿真實(shí)驗(yàn),各運(yùn)行20次的平均耗時(shí)(不計(jì)讀取圖像時(shí)間)分別為364.0、72.0、15.0、5.8、6.3ms.其中空間矩和文中算法的耗時(shí)均為提取特征點(diǎn)的時(shí)間,而Canny、Sobel、形態(tài)學(xué)算法的耗時(shí)為提取圖像邊緣所用的時(shí)間.由此可知,文中算法提取光纖特征點(diǎn)的速度優(yōu)于傳統(tǒng)算法,耗時(shí)可以達(dá)到毫秒級(jí).同時(shí),由于在利用空間矩算法求取邊緣時(shí),文中算法采用校驗(yàn)后再次求取邊緣的方法以提高其精度,因而其處理圖像時(shí)間比無后校驗(yàn)的一維空間矩算法增加了約0.5ms.3.2抗噪性分析
圖9 5種算法的抗噪性比較
顯然,文中算法較傳統(tǒng)算法有更好的抗噪性.與無后校驗(yàn)過程的空間矩算法相比,文中算法加入后校驗(yàn)后具有更好的抗噪性.
3.3準(zhǔn)確性分析
利用已標(biāo)定后的雙目視覺系統(tǒng)(像素當(dāng)量e=1.91μm/像素)對(duì)空間中的光纖進(jìn)行垂直拍照,并利用納米位移平臺(tái)(型號(hào)P-611.3,分辨率為1nm,重復(fù)定位精度小于10nm)對(duì)光纖沿光纖軸向方向移動(dòng)20次,每次移動(dòng)的距離為5μm,則光纖在圖像中移動(dòng)距離的理論值為G=5/e.在每次光纖移動(dòng)過程中,利用視覺系統(tǒng)測(cè)量得到光纖端點(diǎn)的位置變化值Di,并將其與G進(jìn)行比較,5種算法檢測(cè)光纖端點(diǎn)的誤差范圍及標(biāo)準(zhǔn)差見表2.
表25種算法的定位準(zhǔn)確性比較
Table2Comparisonofdetectionaccuracyamongfivealgorithms
算法標(biāo)準(zhǔn)差誤差范圍/像素CannySobel形態(tài)學(xué)算法空間矩算法文中算法0.300.300.310.050.04±0.47±0.46±0.48±0.09±0.09
從表2中可知:加入校驗(yàn)重定位的文中算法檢測(cè)準(zhǔn)確度更高;文中算法提取光纖端點(diǎn)的準(zhǔn)確性較傳統(tǒng)方法高.在實(shí)時(shí)光纖對(duì)接時(shí),應(yīng)用文中算法能獲得更好的精密光纖對(duì)接性能.
4結(jié)論
文中提出了一種基于改進(jìn)空間矩算法的光纖特征點(diǎn)快速提取算法.該算法在提取光纖特征時(shí),追蹤光纖纖芯邊緣,避免了因光纖外徑和纖芯不同軸所導(dǎo)致的對(duì)接偏差;在處理大小為1 024×768的大圖像過程中,采用了粗、精兩步搜索方式,跳躍式地搜索光纖包層和纖芯,從而避免了在全幅圖像內(nèi)進(jìn)行處理;使用一維空間矩算法而非二維邊緣提取算法求取光纖邊緣點(diǎn),使得光纖邊緣提取速度遠(yuǎn)遠(yuǎn)超過常規(guī)方法;采用粗定位和后校驗(yàn)相結(jié)合的方法來求取邊緣點(diǎn),使其邊緣定位精度不受預(yù)測(cè)點(diǎn)誤差的影響,提高了光纖的定位精度.相比于傳統(tǒng)方法,文中算法具有良好的抗噪性及準(zhǔn)確性.
參考文獻(xiàn):
[1]B?TTGERG,SCHR?DERH,JORDANR.Activeorpassivefiber-chip-alignment:approachestoefficientsolutions[C]∥ProceedingsofSPIE:InternationalSocietyforOpticsandPhotonics.SanFrancisco:SPIE,2013:863006/1- 17.[2]VANG,JOHANFC,TICHEMM,etal.Passivephotonicalignmentwithsubmicrometerrepeatabilityandaccuracy[J].IEEETransactionsonComponents,PackagingandManufacturingTechnology,2013,3(11):1971- 1979.
[3]ZHANGR,SHIFG.Anovelalgorithmforfiber-opticalignmentautomation[J].IEEETransactionsonAdvancedPackaging,2004,27(1):173- 178.
[4]LANDRYAM,KADDOURIA,BOUSLIMANIY,etal.Automatedalignmentofmicrostructuredopticalfibersandconventionalsingle-modefibers[J].OpticalEnginee-ring,2013,52(6):665- 670.
[5]MIZUNOY,NAKAMURAK.Corealignmentofbuttcouplingbetweensingle-modeandmultimodeopticalfibersbymonitoringBrillouinscatteringsignal[J].JournalofLightwaveTechnology,2011,29(17):2616- 2620.
[6]BOUVREEG,ESPINOZAB.Softwaresupportsmultipleopticalfiberalignmentoptions[J].LaserFocusWorld,2014,50(6):45- 48.
[7]ZHENGYu,KAIXiao-chao,DUANJi-an,etal.Automatedvisualpositiondetectionandadjustmentforopticalwaveguidechipsandopticalfiberarrays[J].JournalofCentralSouthUniversity,2015,22(10):3868- 3875.
[8]WENCM,CHENGMY.Positioningaccuracyimprovementofavision-basedopticalfiberalignmentstagepow-eredbyapiezo-actuator[C]∥Proceedingsof2008In-ternationalWorkshoponRoboticandSensorsEnvironments.Ottawa:IEEE,2008:70- 75.
[9]劉清,林土勝.基于數(shù)學(xué)形態(tài)學(xué)的圖像邊緣檢測(cè)算法 [J].華南理工大學(xué)學(xué)報(bào)(自然科學(xué)版),2008,36(9):113- 116,121.
LIUQing,LINTu-sheng.Imageedgedetectionalgorithmbasedonmathematicalmorphology[J].JournalofSouthChinaUniversityofTechnology(NaturalScienceEdition),2008,36(9):113- 116,121.[10]MAINIR,AGGARWALH.Studyandcomparisonofvariousimageedgedetectiontechniques[J].InternationalJournalofImageProcessing,2009,3(1):1- 11.
[11]CHUANGHS,WENCM,CHENMY,etal.Automaticvision-basedopticalfiberalignmentusingmultiratetechnique[J].IEEETransactionsonIndustrialElectronics,2009,56(8):2998- 3003.
[12]張偉,王樂鋒,榮偉彬,等.保偏光纖對(duì)軸中的同軸度調(diào)節(jié) [J].光學(xué)精密工程,2014,22(1):125- 131.
ZHANGWei,WANGLe-feng,RONGWei-bin,etal.CoaxialadjustmentinPMFalignments[J].OpticsandPrecisionEngineering,2014,22(1):125- 131.
[13]宋志佗.光纖帶光纖接頭損耗的探討 [J].光纖與電纜及其應(yīng)用技術(shù),2007(4):24- 26.
SONGZhi-tuo.Discussiononthesplicelossofopticalfiberribbon[J].OpticalFiber&ElectricCableandTheirApplications,2007(4):24- 26.
[14]WANGZJ,HUANGXD.Visualpositioningmethodofprintedcircuitboardsbasedonspatialmoments[J].OpticalEngineering,2014,53(3):1709- 1717.
[15]鐘秦.基于圖像不變矩特征和BP神經(jīng)網(wǎng)絡(luò)的車型分類 [J].華南理工大學(xué)學(xué)報(bào)(自然科學(xué)版),2009,37(2):87- 91.
ZHONGQin.VehicleclassificationbasedonimagemomentinvariantfeatureandBPneuralnetwork[J].JournalofSouthChinaUniversityofTechnology(NaturalScienceEdition),2009,37(2):87- 91.
收稿日期:2015- 07- 20
*基金項(xiàng)目:國家公派出國留學(xué)基金資助項(xiàng)目(201506155012);廣東省自然科學(xué)基金研究團(tuán)隊(duì)項(xiàng)目(S2013030013355)
Foundation items: Supported by the State Scholarship Fund of China(201506155012) and the Research Team Project of the Natural Science Foundation of Guangdong Province(S2013030013355)
作者簡介:陳忠(1968-),男,博士,副教授,主要從事機(jī)器視覺及其應(yīng)用、精密測(cè)量和故障診斷研究.E-mail:mezhchen@scut.edu.cn
文章編號(hào):1000- 565X(2016)05- 0117- 06
中圖分類號(hào):TP393
doi:10.3969/j.issn.1000-565X.2016.05.018
FastExtractionofFeaturePointsforContoursofOpticalFiberCoresBasedonImprovedSpatialMomentAlgorithm
CHEN ZhongZHOU De-wenZHANG Xian-min
(SchoolofMechanicalandAutomotiveEngineering,SouthChinaUniversityofTechnology,Guangzhou510640,Guangdong,China)
Abstract:In order to improve the speed and accuracy of vision-based feature point extraction for optical fibers in their precision alignment process,a rapid extraction algorithm of subpixel feature points for contours of optical fiber cores is proposed on the basis of an improved spatial moment algorithm.In the proposed algorithm,firstly,the initial position of optical fibers is quickly searched,and the pixel-level edges of fiber cores are extracted via tracking the cores and their end faces.Then,subpixel edges are located by means of an improved spatial moment method,and linear equations of the axle and the edges are derived after a linear fitting on the extracted subpixel edges.Experimental results show that the proposed extraction algorithm runs more rapidly and possesses higher precision and stronger noise robustness than the traditional method,and that it meets the requirements of real-time precision alignment of optical fibers.
Key words:computer vision;feature extraction;one-dimension spatial moment;optical fiber