王明佳,武治國(guó),徐大鵬,李桂菊,張旭光
(1.中國(guó)科學(xué)院長(zhǎng)春光學(xué)精密機(jī)械與物理研究所,吉林長(zhǎng)春130033; 2.燕山大學(xué)工業(yè)計(jì)算機(jī)控制工程河北省重點(diǎn)實(shí)驗(yàn)室,河北秦皇島066004)
光源照射光柵成像形成莫爾條紋,通過(guò)測(cè)量莫爾條紋光斑成像角度可以實(shí)現(xiàn)對(duì)光柵微小運(yùn)動(dòng)量的檢測(cè),其在剛體位移、結(jié)構(gòu)變形、角度測(cè)量等方面應(yīng)用廣泛。由于莫爾條紋法具有高靈敏度、高分辨率、非接觸測(cè)量等特點(diǎn),其在民用和軍用方面均有良好的應(yīng)用前景。如何保證在多種惡劣成像質(zhì)量條件下快速準(zhǔn)確地計(jì)算莫爾條紋方向角已成為圖像處理領(lǐng)域迫切需要解決的問題。常見的莫爾條紋檢測(cè)方法有閾值分割算法[1]及頻域處理算法[2],閾值分割法計(jì)算速度快,但計(jì)算精度低;頻域處理算法計(jì)算精度較高,但難以滿足速度上的處理要求。針對(duì)此問題,本文提出了一種莫爾條紋處理算法。該算法采用最小均方差原理與Mean-Shift算法結(jié)合來(lái)計(jì)算角度,增強(qiáng)了抗干擾性,減少了處理時(shí)間,計(jì)算精度比傳統(tǒng)方法大幅提高,可以滿足工程實(shí)際需要。
光柵上平行等距的刻線為柵線,一般情況下透光的縫寬等于不透光的縫寬。通常選2個(gè)參數(shù)相同的光柵,刻劃面相向疊合,且2只光柵夾角θ很小,在與光柵刻線大致垂直的方向形成明暗相間的條紋,稱為莫爾條紋。若主光柵與指示光柵的夾角為θ,光柵距為W時(shí),相鄰莫爾條紋間距B滿足式(1):
從式(1)可以得到以下結(jié)論:W一定時(shí),兩光柵刻線夾角θ越小則B越大,由于θ值很小,其倒數(shù)就相當(dāng)大,因此莫爾條紋間距對(duì)光柵間距具有重要作用。利用莫爾條紋可以實(shí)現(xiàn)高精度的位移測(cè)量,因?yàn)槟獱枟l紋是光柵中大量柵線共同作用的結(jié)果,如果由于工藝原因其中某條柵線出現(xiàn)毛刺,就會(huì)使成像產(chǎn)生局部誤差,但經(jīng)過(guò)大量柵線的平均,局部誤差對(duì)整體莫爾條紋位置及角度的影響是十分微小的[3]。
由于光柵加工工藝和使用場(chǎng)合不同,很難確保莫爾條紋的成像質(zhì)量,從而造成圖像質(zhì)量多種多樣,也使自動(dòng)測(cè)量莫爾條紋的角度成為一個(gè)重要的研究課題。莫爾條紋成像具有許多共性,如各條紋角度相同,條紋寬度相等,通過(guò)測(cè)量圖像整體方向角或者任意一條紋方向角便可以得到莫爾條紋角度。
給出一組數(shù)據(jù)x1x2…xi…xn,其均值計(jì)算如式(2)所示:
該組數(shù)據(jù)均方根誤差如式(3)所示:
通過(guò)式(3)可以看出,該組數(shù)據(jù)的數(shù)值越接近,其均方根誤差越小。依此原理,在莫爾條紋圖像上劃一條直線,在該直線經(jīng)過(guò)位置取圖像灰度值,如圖1所示。如果直線a方向與莫爾條紋方向一致,則與該直線對(duì)應(yīng)的一組數(shù)據(jù)數(shù)值接近,式(3)中根號(hào)內(nèi)數(shù)據(jù)接近0,均方根誤差值σ最小;直線c與莫爾條紋方向垂直,該直線方向圖像數(shù)據(jù)波動(dòng)最大,其均方根誤差σ也最大。
圖1 在莫爾條紋圖像中等間隔劃直線求取方向角Fig.1 Setting lines in even interval in image to get the angle of Moiré fringe
圖1中直線a平行莫爾條紋方向,通過(guò)統(tǒng)計(jì)最小均方根誤差發(fā)現(xiàn),誤差值σ與直線a經(jīng)過(guò)的位置有關(guān),當(dāng)直線a經(jīng)過(guò)條紋最亮區(qū)域或者最暗區(qū)域時(shí),σ值最小,當(dāng)直線經(jīng)過(guò)莫爾條紋明暗過(guò)渡區(qū)域時(shí),該位置圖像灰度值變化幅度較大,造成σ值較大,該位置不利于莫爾條紋方向角的計(jì)算,因此直線選取要遵循一定的原則。
以下是根據(jù)最小均方根誤差原理計(jì)算莫爾條紋方向角的步驟:
第一步:在莫爾條紋圖像中心區(qū)域建立處理區(qū)域,在處理區(qū)域內(nèi)尋找灰度值最大的位置,該位置即為O點(diǎn)。如果O點(diǎn)處于處理區(qū)域邊緣位置,將處理區(qū)域擴(kuò)大,繼續(xù)搜索最亮點(diǎn),直到最亮點(diǎn)O不落在處理區(qū)域附近為止;
第二步:以O(shè)點(diǎn)為中心,每隔1°劃一條直線,提取該直線經(jīng)過(guò)圖像位置作為一組數(shù)據(jù),尋找這些直線中均方根誤差σ值最小的直線,如圖1所示,直線a均方根誤差最小,初步找到莫爾條紋方向。
為精確求取莫爾條紋方向角,將Mean-Shift向量引入到細(xì)分算法中。Mean-Shift向量Mh(x)的物理意義表征為樣本點(diǎn)集xi相對(duì)幾何中心x0的偏移向量,它總是指向樣本分布最多的區(qū)域,也就是概率密度梯度方向。Mean-Shift向量Mh(x)計(jì)算公式如式(4)所示:
式中:G(x)是單位核函數(shù),xi表示采樣點(diǎn),x0表示采樣點(diǎn)集幾何中心位置,h表示采樣帶寬,w(xi)是一個(gè)賦給采樣點(diǎn)xi的權(quán)重,對(duì)于Mean-Shift算法表示一個(gè)迭代步驟,如果把式(4)中第一項(xiàng)記為mh(x),即:
給定一個(gè)初始點(diǎn)x0,核函數(shù)G(X),容許誤差ε,Mean-Shft算法循環(huán)執(zhí)行下面3步,直至滿足約束條件:
(1)計(jì)算mh(x)
(2)把mh(x)賦值給x
(3)如果‖mh(x)-x‖<ε,結(jié)束循環(huán);否則,繼續(xù)執(zhí)行(1)。
為簡(jiǎn)化計(jì)算量,G(X)采用單位均勻核函數(shù),w(xi)≡1,以圖1中直線a為初始點(diǎn),令x0=a。以直線a為中心,該直線兩側(cè)角度1°內(nèi)各等間隔劃分30次,莫爾條紋方向角細(xì)分精度達(dá)到2'。利用細(xì)分的直線進(jìn)行迭代,其中迭代參量xi=σi,σi為細(xì)分直線的均方根誤差,采用Mean-Shift迭代算法,不斷更新最優(yōu)角度,從而實(shí)現(xiàn)莫爾條紋方向角的精確測(cè)量。
圖2 莫爾條紋實(shí)驗(yàn)Fig.2 Experiments of Moiré fringes
為驗(yàn)證本文算法莫爾條紋的識(shí)別能力,在計(jì)算機(jī)上完成了一系列實(shí)驗(yàn)以進(jìn)行測(cè)試,計(jì)算機(jī)配置采用雙核處理器,CPU為2.4 GHz,內(nèi)存2 G,編程工具為VC6.0,采用角度檢測(cè)誤差δα作為莫爾條紋評(píng)判指標(biāo),δα定義如式(5)所示:
式中:αF表示莫爾條紋實(shí)際角度,αC表示計(jì)算的莫爾條紋角度。圖2(a)、2(b)分別是莫爾條紋成像圖像,采用本文提出的自動(dòng)識(shí)別算法與頻域莫爾條紋算法進(jìn)行比較,比較結(jié)果見表1。通過(guò)表1可以看出,本文提出的莫爾條紋角度檢測(cè)方法比頻域方法精度略高,處理時(shí)間大大縮短,頻域方法計(jì)算時(shí)間為300 ms,本文方法計(jì)算時(shí)間為15 ms。從實(shí)驗(yàn)數(shù)據(jù)可以看出,識(shí)別精度主要受圖像對(duì)比度以及圖像信噪比的影響,在信噪比高、圖像對(duì)比度高的情況下,采用本文提出的莫爾條紋計(jì)算方法獲得的處理精度能夠滿足工程實(shí)際要求。
表1 頻域方法與本文方法檢測(cè)角度的誤差比較Tab.1 Comparison between frequency algorithm and proposed algorithm in this paper
提出了莫爾條紋自動(dòng)檢測(cè)算法。該算法采用最小均方差原理與Mean-Shift算法相結(jié)合來(lái)計(jì)算角度,增強(qiáng)了抗干擾性,縮短了處理時(shí)間。相對(duì)傳統(tǒng)算法該算法的計(jì)算精度得到大幅度提升,能夠在較低對(duì)比度下實(shí)現(xiàn)條紋檢測(cè),當(dāng)目標(biāo)對(duì)比度為5.4%時(shí),角度精度誤差<29',能夠滿足工程需要。
[1]李龍林.莫爾條紋特性檢測(cè)及其圖像處理[D].重慶:重慶大學(xué),2009.LI L L.The detection of Moiré fringe speciality and image processing[D].Chongqing:Chongqing University,2009.(in Chinese)
[2]李向榮.基于CCD的莫爾條紋圖像頻域處理研究[J].電子器件,2007,30(2):617-619.LI X R.Research of frequency domain processing of Moiré fringe grabbed by CCD[J].Chinese J.Electron Devices,2007,30(2):617-619.(in Chinese)
[3]趙長(zhǎng)海,萬(wàn)秋華,龍科慧.莫爾條紋信號(hào)采集的自適應(yīng)采用系統(tǒng)[J].武漢理工大大學(xué)學(xué)報(bào),2008,30(6):143-145.ZHAO CH H,WAN Q H,LONG K H.Self-adaptive sampling system for Moiré fringe signal[J].J.Wuhan University Technol.,2008,30(6):143-149.(in Chinese)
[4]徐進(jìn),陳浙泊,李燕,等.可編程成像系統(tǒng)中莫爾條紋處理方法研究[J].光子學(xué)報(bào),2008,37(2):325-327.XU J,CHEN ZH B,LI Y,et al..A processing method for Moiré fringe in programmable imaging systems[J].Acta Photonica Sinica,2008,37(2):325-327.(in Chinese)
[5]CASTLEMAN K R.Digital Image Processing[M].New Jersey:Prentice Hall,1998.
[6]LI X R,Q Y F,LIU W.Grating interferometry method for torsion measurement[J].SPIE,2006,6027:39-44.
[7]OTSUBO M,OKADA K.Measurement of large plane surface shapes by connecting small-aperture interferograms[J].Opt.Eng.,1994,33(2):608-613.
[8]SUZU KI M,KANA YA M.Application of Moiré topography measurement methods in industry[J].Opt.Laser Eng.,1988,8(3):171-188.
[9]TA KASA KIH.Moiré topography[J].Appl.Opl.,1970(9):1468-1472.
[10]MORIMOTO Y,YANG I H,GU C G.Scanning Moiré method for obtaining fringe patterns[J].Opt.Laser Eng.,1996,24(1):3-17.
[11]程仕東,張學(xué)軍,張忠玉,等.基于相移電子莫爾條紋的深度非球面檢測(cè)[J].光學(xué) 精密工程,2003,11(6):250-255.CHENG SH D,ZHANG X J,ZHANG ZH Y,et al..Deep aspheric testing based on phase-shift electronic Moiré parrerns[J].Opt.Precision Eng.,2003,11(6):250-255.
[12]小野明.檢驗(yàn)非球面的疑似移動(dòng)莫爾條紋法[J].光學(xué) 精密機(jī)械,1989(1):26-32.XIAO Y M.The examination aspheric surface using moving Moiré patterns methods[J].Opt.Precision Machinery,1989(1):26-32.(in Chinese)
[13]IDESAWA M,YATAGAI T,SOMA T.Scanning Moiré method and automatic measurement of 32D shapes[J].Appl.Opt.,1977,16(8):2152-2162.
[14]高俊.莫爾條紋的處理[J].印刷雜志,2003(3):53-54.GAO J.Processing Morié Fringe[J].Printing Field,2003(3):53-54.(in Chinese)
[15]NAYAR S K,BRANZOI V,BOULT T.Programmableimaging using a digital micromirror array[C].In2004IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Washington,USA,27 June-2 July 2004(1):436-443.