亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于高斯擬合的亞像素邊緣檢測算法

        2018-07-05 02:42:32李煜祺武彥輝中國電子科技集團(tuán)第二十八研究所江蘇南京210007
        關(guān)鍵詞:檢測信息模型

        韓 東 李煜祺 武彥輝(中國電子科技集團(tuán)第二十八研究所 江蘇 南京 210007)

        0 引 言

        隨著機(jī)器視覺的發(fā)展,配有CCD攝像機(jī)的視覺系統(tǒng)被廣泛地應(yīng)用在監(jiān)視[1]、遙感、測量、質(zhì)量監(jiān)控和三維重建等領(lǐng)域。這些領(lǐng)域中的絕大多數(shù)應(yīng)用都需要分析圖像中的邊緣來獲得場景的信息,因此準(zhǔn)確地提取圖像中的邊緣信息對(duì)視覺系統(tǒng)功能的實(shí)現(xiàn)起著至關(guān)重要的作用。傳統(tǒng)的邊緣檢測算法如Canny[2]和Sobel[3]算法只能提供像素級(jí)的準(zhǔn)確率,這意味著整數(shù)像素點(diǎn)之間的邊緣信息被遺失了。鑒于這種情況,亞像素的邊緣檢測算法應(yīng)運(yùn)而生。目前,亞像素邊緣檢測算法主要可以分為三類,即插值法、曲線擬合法和基于矩的邊緣檢測法。

        插值法通過對(duì)像素值和梯度進(jìn)行插值來得到亞像素的精確度[4-6]。通常該類算法采用多項(xiàng)式擬合法來實(shí)現(xiàn)插值的計(jì)算,但是多項(xiàng)式階數(shù)的選擇是一個(gè)棘手的問題:用高階數(shù)的多項(xiàng)式擬合會(huì)大大降低計(jì)算速度,而用低階的多項(xiàng)式往往達(dá)不到精度的要求。另外,這類算法對(duì)圖像噪聲比較敏感,容易得到較差的效果[7]。

        曲線擬合方法通過使用已知的邊緣模型,將圖像梯度數(shù)據(jù)進(jìn)行擬合從而獲得亞像素精度。例如,Ye等[7]提出了一種使用二維高斯函數(shù)作為邊緣模型,并通過多維最優(yōu)化來獲得邊緣信息的方法;基于雙曲切線邊緣模型,Nalwa等[8]提出了一種三階段亞像素邊緣提取算法;Su等[9]提出的算法利用拋物線擬合的方法來定位亞像素邊緣的位置。這些算法大都能在圖像噪聲存在的情況下取得較好的效果,但是計(jì)算量成為限制其應(yīng)用的一大瓶頸。

        基于矩的亞像素邊緣檢測算法也比較多的被采用。例如,灰度矩[10]被用來進(jìn)行階梯邊緣模型的擬合,空間矩[11-12]被用來計(jì)算邊緣位置的封閉解。這些算法處理無噪聲的合成圖像可以獲得較好的效果,然而如果圖像中含有噪聲,算法可能會(huì)產(chǎn)生較大的誤差。基于Zernike矩的邊緣提取方法[13-14]雖具有抗噪性能,但是卻非常容易錯(cuò)誤檢測邊緣。

        為了準(zhǔn)確、快速地取得亞像素邊緣,我們提出了一種簡單卻有效的邊緣提取算法。算法首先基于模糊邊緣模型,利用傳統(tǒng)的Canny邊緣法提取邊緣的粗定位信息,而后使用梯度信息進(jìn)行一維高斯函數(shù)擬合從而得到亞像素邊緣信息。一維高斯函數(shù)在擬合方面的計(jì)算優(yōu)勢和高斯模糊邊緣模型的恰當(dāng)選取共同為算法的高效性、準(zhǔn)確性提供了支撐。與傳統(tǒng)的邊緣檢測算法相比,本文算法精確度更高并且運(yùn)行時(shí)間更短。

        1 亞像素邊緣檢測算法

        1.1 模糊邊緣模型

        邊緣是圖像中灰度值不連續(xù)的位置。為了分析邊緣信息,學(xué)者提出了許多邊緣模型,例如階梯模型、直線模型和T形模型[15]。其中,應(yīng)用最廣泛的是階梯模型。然而,由于圖像的模糊特性(圖像生成過程本身會(huì)產(chǎn)生模糊效應(yīng),另外一種可能是由邊緣提取算法中的圖像濾波造成的),階梯模型往往被高斯模型所取代。如邊緣剖面圖,如圖1所示,邊緣的灰度值函數(shù)是平滑的階梯函數(shù),其梯度是一個(gè)高斯函數(shù)。因此,高斯邊緣模型可以看作是一個(gè)二維的階梯和高斯函數(shù)的卷積[16]。

        圖1 模糊邊緣模型

        1.2 亞像素邊緣位置計(jì)算

        本文提出的亞像素邊緣檢測算法可以分為兩步。

        1) 算法利用傳統(tǒng)的Canny邊緣檢測算法進(jìn)行邊緣的粗定位。Canny算法先使用高斯濾波對(duì)圖像進(jìn)行平滑并計(jì)算濾波圖像在每個(gè)像素點(diǎn)的梯度。而后利用遲滯閾值和非極大值抑制機(jī)制獲得較純凈的像素級(jí)邊緣粗定位信息。

        2) 獲得邊緣粗定位信息后,算法使用高斯擬合進(jìn)一步將像素級(jí)定位信息提升為亞像素級(jí)。由于圖像生成過程具有模糊效應(yīng),并且 Canny邊緣提取算法對(duì)圖像也有高斯濾波的操作,因此使用高斯模型進(jìn)行擬合更適合邊緣提取的實(shí)際情況。如圖 2所示,虛線網(wǎng)格代表圖像中的整數(shù)像素點(diǎn),設(shè)G為梯度函數(shù),并且坐標(biāo)系原點(diǎn)與Canny邊緣點(diǎn)重合。在梯度方向上,算法通過插值的方法獲取2N+1個(gè)采樣點(diǎn)G(-N)…G(0)…G(+N)。而后利用這2N+1個(gè)采樣點(diǎn)擬合一維高斯函數(shù),得到的高斯函數(shù)中心點(diǎn)的位置就是更新的亞像素邊緣點(diǎn)坐標(biāo)。

        圖2 基于高斯擬合的亞像素邊緣提取

        具體的說,擬合的高斯函數(shù)為:

        (1)

        式中:μ是亞像素邊緣坐標(biāo);σ是高斯函數(shù)的標(biāo)準(zhǔn)差;k表示高斯函數(shù)的幅度。

        擬合過程使用最小二乘法來求解高斯函數(shù)μ、σ、k參數(shù)值,其中目標(biāo)函數(shù)為梯度點(diǎn)G(i)和高斯函數(shù)預(yù)測點(diǎn)N(i)之間的均方誤差:

        算法利用Levenberg-Marquardt法對(duì)上述最優(yōu)化問題求解,擬合參數(shù)初始值設(shè)定為k=max{G(i)},σ=2N+1,u=0。

        2 實(shí) 驗(yàn)

        本文使用合成圖像和真實(shí)圖像來檢測算法的性能。

        2.1 合成圖像

        圖3 合成圖像

        利用計(jì)算機(jī)合成技術(shù),生成分辨率為400×300的含有不同程度噪聲的邊緣圖像來驗(yàn)證算法的魯棒性和準(zhǔn)確性。邊緣圖像生成方法如下。

        圖像中的直線邊緣是根據(jù)高斯邊緣模型生成。具體地說,假設(shè)直線表達(dá)式為ax+by+c=0,那么沿著直線法向量方向的灰度分布被設(shè)置成高斯函數(shù)與階梯函數(shù)的卷積。即圖像的灰度分布函數(shù)為:

        I(x,y)=(lmax-lmin)E(d)+lmin

        (2)

        實(shí)驗(yàn)中所有圖像的模糊因子σb都被設(shè)定為1.2。為測試提出的算法可以檢測不同方向邊緣,圖像中的直線角度θ被設(shè)置為從0到1.5 rad。像素灰度值被歸一化到[0,1]區(qū)間,lmax=150/255和lmin=50/255,即邊緣對(duì)比度Ec=100/255。生成的圖像中加入了不同等級(jí)的高斯隨機(jī)噪聲來測試算法對(duì)噪聲的魯棒性。加入的噪聲均值為0,標(biāo)準(zhǔn)差σa由噪聲比RN來控制:

        (3)

        在實(shí)驗(yàn)中,RN取為1%到20%區(qū)間;高斯擬合用的數(shù)據(jù)點(diǎn)數(shù)為11,即N=5。

        為評(píng)估算法的有效性,實(shí)驗(yàn)中用檢測到的邊緣點(diǎn)與邊緣真實(shí)位置(直線)之間的距離作為評(píng)價(jià)標(biāo)準(zhǔn)。從得到的實(shí)驗(yàn)數(shù)據(jù)中看到,由于該距離是帶符號(hào)的距離,其均值με非常接近0,因此將其標(biāo)準(zhǔn)差σε和邊緣直線角度的關(guān)系作為評(píng)價(jià)性能標(biāo)準(zhǔn),如圖 4所示。

        圖4 亞像素邊緣檢測距離誤差

        從圖中可以看到,當(dāng)RN是1%的時(shí)候,σε小于0.02像素,體現(xiàn)了算法的準(zhǔn)確性;而即使RN是20%的時(shí)候,σε也在0.17像素以下,充分證明了算法的魯棒性。另一方面,σε值在θ變化的時(shí)候基本保持穩(wěn)定,說明算法不依賴于邊緣的角度,可以用于提取不同角度的邊緣信息。

        文本還將實(shí)驗(yàn)結(jié)果與文獻(xiàn)中具有代表性的亞像素邊緣提取算法進(jìn)行了比較。Ye等[7]使用了二維高斯函數(shù)進(jìn)行擬合,是亞像素邊緣提取文獻(xiàn)記錄中實(shí)驗(yàn)結(jié)果最好的實(shí)驗(yàn)之一。為了進(jìn)行比較實(shí)驗(yàn),本文選取了與文獻(xiàn)[7]一致的邊緣參數(shù),即σb=1.2,lmax=150/255和lmin=50/255,并選擇θ=0.8 的數(shù)據(jù)與文獻(xiàn)[7]中窗口大小為11×11的圖像集1的結(jié)果進(jìn)行比較,比較結(jié)果見表1。從表1中可以看出本文提出的算法得到的誤差均值和標(biāo)準(zhǔn)差都小于文獻(xiàn)[7]的結(jié)果,證明了本文提出算法的優(yōu)越性。

        表1 亞像素邊緣檢測比較表

        實(shí)驗(yàn)中還將提出的算法與Ye[7]算法在運(yùn)算時(shí)間方面進(jìn)行了比較。在Intel i7-2670-2.2 GHz CPU、4 GB內(nèi)存的計(jì)算機(jī)上,利用Matlab2012實(shí)現(xiàn)了本文提出的算法,在與上述窗口參數(shù)保持一致的條件下,監(jiān)測到算法平均運(yùn)行時(shí)間為0.093 s,而文獻(xiàn)[7]提出的算法的平均運(yùn)行時(shí)間為0.392 s。本文算法的運(yùn)行時(shí)間遠(yuǎn)小于文獻(xiàn)[7],證明了該算法的高效性。

        2.2 真實(shí)圖像

        提出的算法在表面光滑物體的三維重建系統(tǒng)得到了較好的應(yīng)用。該系統(tǒng)利用本文提出的亞像素邊緣檢測算法獲得物體的輪廓,并使用多視角的輪廓作為三維重建的輸入,經(jīng)過攝像機(jī)自標(biāo)定、可視凸殼重建等過程得到物體的三維重建模型。攝像機(jī)拍攝到的真實(shí)圖像(由 Olympus SH-21攝像機(jī)采集得到),圖像中的前景物體是彩色的,而背景平面是黑白的,因此本文根據(jù)RGB空間的彩色圖像的轉(zhuǎn)換到HSI空間,并用H通道來進(jìn)行邊緣提取。檢測到邊緣結(jié)果如圖 5所示,圖中小玩具兔子周邊的曲線代表了檢測到的亞像素邊緣。

        圖5 真實(shí)圖像亞像素邊緣檢測

        重建得到的可視凸殼模型見圖 6左下角所示,圖右下角顯示了恢復(fù)的12張圖像對(duì)應(yīng)的相機(jī)姿態(tài)。從圖中我們可以看到,三維重建模型較好地恢復(fù)了物體的形狀。三維重建的正確性驗(yàn)證了提出的亞像素邊緣檢測算法的有效性。

        將三維重建系統(tǒng)中的本算法替換為文獻(xiàn)[7]的算法,并將得到的三維重建的結(jié)果進(jìn)行比較,見圖 7。第一排顯示的是使用提出算法的三維重建系統(tǒng)得到的結(jié)果,而第二排顯示的是使用文獻(xiàn)[7]算法得到的結(jié)果,可以看到,第一排三維模型比第二排三維模型具有更清晰的輪廓和更細(xì)致的細(xì)節(jié)(如耳朵部分),說明了提出算法的有效性。

        圖6 基于輪廓的光滑物體三維重建結(jié)果

        圖7 三維重建結(jié)果比較

        3 結(jié) 語

        本文提出了一種基于高斯擬合的亞像素邊緣檢測算法。算法基于圖像形成過程中的模糊現(xiàn)象,提出使用高斯擬合的方式來提取亞像素精度的邊緣信息。與傳統(tǒng)算法比較具有高準(zhǔn)確度和計(jì)算量小的優(yōu)勢。該算法可以使用在精密測量、三維重建等應(yīng)用場景下,可以獲得精度較高的邊緣定位信息。

        [1] 吳宣康,徐祥鵬,基于Mean-Shift算法的道路車輛跟蹤[J].指揮信息系統(tǒng)與技術(shù),2016,7(3):86- 90.

        [2] Canny J. A computational approach to edge detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1986,8(6):679- 698.

        [3] Gonzalez R C,Woods R E.Digital Image Processing[M].3rd ed.Prentice-Hall,Inc.,Upper Saddle River,NJ,USA,2006.

        [4] Overington I, Greenway P. Practical first-difference edge detection with subpixel accuracy[J]. Image & Vision Computing, 1987,5(3):217- 224.

        [5] Steger C. Subpixel-precise extraction of lines and edges[C]// XIXth ISPRS Congress, 2000,33:141- 156.

        [6] Tabbone S, Ziou D. Subpixel positioning of edges for first and second order operators[C]// Iapr International Conference on Pattern Recognition. Vol. Iii. Conference C: Image, Speech and Signal Analysis. IEEE, 1992:655- 658.

        [7] Ye J, Fu G, Poudel U P. High-accuracy edge detection with Blurred Edge Model[J]. Image & Vision Computing, 2005,23(5):453- 467.

        [8] Nalwa V, Binford T. On detecting edges[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1986,8(6):699- 714.

        [9] Su C Y, Yu L A, Chen N K. Effective subpixel edge detection for LED probes[C]// IEEE International Conference on Systems, Man, and Cybernetics. IEEE, 2017:379- 382.

        [10] Tabatabai A J, Mitchell O R. Edge location to subpixel values in digital imagery[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1984,6(2):188- 201.

        [11] Lyvers E P, Mitchell O R, Akey M L, et al. Subpixel Measurements Using a Moment-Based Edge Operator[J]. Pattern Analysis & Machine Intelligence IEEE Transactions on, 1989,11(12):1293- 1309.

        [12] Shan Y, Boon G. Sub-pixel location of edges with non-uniform blurring: a finite closed-form approach[J]. Image and Vision Computing, 2000, 18(13):1015- 1023.

        [13] Yu W, Ma Y, Wu X, et al. Research of improved subpixel edge detection algorithm using Zernike moments[C]// Chinese Automation Congress. IEEE, 2016:712- 716.

        [14] Xiang F, Wang Z, Yuan X. Subpixel Edge Detection: An Improved Zernike Orthogonal Moments Method[C]// International Conference on Intelligent Human-Machine Systems and Cybernetics. IEEE, 2013:19- 22.

        [15] Ziou D, Tabbone S, Ziou D. Edge Detection Techniques-An Overview[J]. International Journal of Pattern Recognition & Image Analysis, 1998,8(4):537- 559.

        [16] Elder J H, Zucker S W. Local Scale Control for Edge Detection and Blur Estimation[J]. IEEE Trans Pattern Analysis & Machine Intelligence, 1998,20(7):699- 716.

        猜你喜歡
        檢測信息模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        3D打印中的模型分割與打包
        小波變換在PCB缺陷檢測中的應(yīng)用
        展會(huì)信息
        国产七十六+老熟妇| 中文天堂一区二区三区| 成人做爰黄片视频蘑菇视频| 欧美成人国产精品高潮| 国产av无码专区亚洲av琪琪| 毛片av在线播放亚洲av网站| 亚洲av中文字字幕乱码软件| 国产成人无码精品久久久免费| 中国内射xxxx6981少妇| 连续高潮喷水无码| 亚洲激情一区二区三区视频| 新婚人妻不戴套国产精品| 精品亚洲成a人在线观看青青| 亚洲精品成人av观看| 视频一区精品中文字幕| 国产精品亚洲色婷婷99久久精品 | 欧美性群另类交| 白白色发布永久免费观看视频| 人妻无码AⅤ不卡中文字幕| 精品国产麻豆免费人成网站| 国产在线高清理伦片a| 国产在线视频一区二区三区| 99久久国产综合精品女乱人伦| 亚洲性感毛片在线视频| 国产电影无码午夜在线播放| 厨房玩丰满人妻hd完整版视频| 国产 无码 日韩| 男女av免费视频网站| 国产探花在线精品一区二区 | 无码流畅无码福利午夜| 熟女人妻在线中文字幕| 久久超碰97人人做人人爱| 亚洲日本va99在线| 白色白色白色在线观看视频| 99999久久久久久亚洲| 久久97精品久久久久久久不卡 | 欧美性猛交xxxx乱大交蜜桃| 中文亚洲第一av一区二区| 久久aaaa片一区二区| 无码h黄动漫在线播放网站| 大肥婆老熟女一区二区精品|