大尺寸鋼板測(cè)量中的激光標(biāo)簽精確定位*
錢強(qiáng),龐林斌,王直,白素琴
(江蘇科技大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院,江蘇 鎮(zhèn)江 212003)
摘要:在基于視覺的非接觸測(cè)量法中,為了取得較好的測(cè)量精度和速度,可以結(jié)合激光測(cè)量與相機(jī)測(cè)量兩種技術(shù)。在實(shí)現(xiàn)兩種測(cè)量系統(tǒng)的配準(zhǔn)過程中,對(duì)于特定標(biāo)記物(比如激光標(biāo)簽)的精確定位是提高測(cè)量精度的關(guān)鍵技術(shù)。針對(duì)于此,提出了一種精確的激光標(biāo)簽中心定位方法。首先,利用基于GPU的梯度方向直方圖(HOG)算法實(shí)現(xiàn)激光標(biāo)簽的粗定位;然后,利用圖像二值化方法實(shí)現(xiàn)進(jìn)一步的基于質(zhì)心法的精確定位。在粗定位過程中,利用GPU的并行計(jì)算優(yōu)勢(shì),可以實(shí)現(xiàn)對(duì)超大圖像的實(shí)時(shí)檢測(cè),滿足工業(yè)測(cè)量需求。在二值化過程中,提出了一種基于高斯差分(DOG)的二值化方法,能夠取得比傳統(tǒng)的Otsu、Bernsen等二值化方法更好的效果。實(shí)驗(yàn)結(jié)果表明,該方法精度可以達(dá)到1 mm以下,能夠滿足工業(yè)測(cè)量的需要。
關(guān)鍵詞:GPU;HOG;激光標(biāo)簽;DOG;圖像二值化
中圖分類號(hào):TP391.14 文獻(xiàn)標(biāo)志碼:A
doi:10.3969/j.issn.1007-130X.2015.06.020
收稿日期:*2014-03-11;修回日期:2014-06-30
基金項(xiàng)目:上海市引進(jìn)技術(shù)的吸收與創(chuàng)新項(xiàng)目(12CH-11);江蘇省產(chǎn)學(xué)研資助項(xiàng)目(BY2011143)
作者簡介:
通信地址:212003 江蘇省鎮(zhèn)江市江蘇科技大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院
Address:School of Computer Science and Engineering, Jiangsu University of Science and Technology,Zhenjiang 212003,Jiangsu,P.R.China
Precisepositioningoflasertagsinlarge-scalesteelplatemeasurement
QIANQiang,PANGLin-bin,WANGZhi,BAISu-qin
(SchoolofComputerScienceandEngineering,JiangsuUniversityofScienceandTechnology,Zhenjiang212003,China)
Abstract:In order to achieve better accuracy and speed in non-contact measurement based on vision, the camera measuring technologies and the laser measuring technologies can be integrated. In the registration process of the two measuring systems, the precise positioning of a particular marker (such as laser tags) is the key technology to improve the measurement accuracy.We propose a precise positioning method of laser tags. First, the GPU-based Histogram of Oriented Gradients (HOG) algorithm is used to detect the laser tags on the steel plate.Then,the image binarization is used for further precise positioning based on the centroid method. In the process of laser tag detection,the very large image can be detected in real time to meet the requirements of industrial measurement due to the parallel computing advantage of GPU.In the process,a novel binarization method based on Difference of Gaussian (DOG) is proposed,which can obtain better results than the traditional methods such as Otsu and Bernsen. Experimental results show that the accuracy of the proposed method can reach 1 mm or less.
Keywords:graphicprocessingunit(GPU);histogramoforientedgradients(HOG);lasertag;differenceofgaussian(DOG);imagebinarization
1引言
隨著計(jì)算機(jī)視覺技術(shù)的不斷發(fā)展,基于視覺的非接觸式測(cè)量方法在工業(yè)測(cè)量、缺陷檢測(cè)等方面應(yīng)用越來越廣泛[1~7]?,F(xiàn)有的視覺測(cè)量系統(tǒng)多基于CCD相機(jī)構(gòu)建,具有測(cè)量速度快、密度高等優(yōu)點(diǎn),但也有測(cè)量精度低等缺點(diǎn)[2]。激光測(cè)量的精度較高,能夠避免相機(jī)測(cè)量中的畸變等問題,但存在數(shù)據(jù)點(diǎn)稀疏、在對(duì)大尺寸的大型目標(biāo)測(cè)量中測(cè)量速度低等缺點(diǎn)[3]。因此,可以將相機(jī)測(cè)量與激光測(cè)量技術(shù)結(jié)合后進(jìn)行三維目標(biāo)的測(cè)量,結(jié)合兩者優(yōu)點(diǎn),實(shí)現(xiàn)一種測(cè)量速度快、密度高的精確的測(cè)量系統(tǒng)[4]。在激光測(cè)量與相機(jī)測(cè)量相結(jié)合方面,美國的伯克利等大學(xué)開發(fā)的MURI系統(tǒng)[5]、東京大學(xué)開發(fā)的車載城市三維建模系統(tǒng)[6]、清華大學(xué)開發(fā)的三維成像掃描儀[4]等都較好地結(jié)合兩種測(cè)量技術(shù),取得了一定成果。
在結(jié)合激光與視覺的測(cè)量系統(tǒng)中,需要在被測(cè)物體上放置特定標(biāo)記,首先用相機(jī)測(cè)量物體的關(guān)鍵標(biāo)記點(diǎn);再通過激光對(duì)同樣的標(biāo)記點(diǎn)進(jìn)行測(cè)量,進(jìn)而建立兩種測(cè)量系統(tǒng)的配準(zhǔn)關(guān)系,求解配準(zhǔn)參數(shù);后續(xù)的測(cè)量過程中,直接利用相機(jī)測(cè)量,并用配準(zhǔn)參數(shù)來修正相機(jī)測(cè)量結(jié)果,消除測(cè)量中出現(xiàn)的畸變等問題,從而同時(shí)提高測(cè)量系統(tǒng)的精度和速度。在這兩種測(cè)量技術(shù)結(jié)合的過程中,需要解決的主要問題是建立相互的配準(zhǔn)關(guān)系,即求解從一個(gè)測(cè)量系統(tǒng)到另一個(gè)測(cè)量系統(tǒng)的坐標(biāo)轉(zhuǎn)化。文獻(xiàn)[7~9]中介紹相異測(cè)量系統(tǒng)之間的配準(zhǔn)方法。在不同的配準(zhǔn)方法中,都需要特定的物體作為參照物,比如棋盤格、特殊標(biāo)記等。船舶外板三維測(cè)量系統(tǒng)中,采用激光標(biāo)簽作為兩種測(cè)量系統(tǒng)的參照標(biāo)記物。激光標(biāo)簽的定位精度將影響相異測(cè)量系統(tǒng)之間的配準(zhǔn)參數(shù)求解,進(jìn)而影響最終的測(cè)量精度,因此本文主要研究如何精確定位激光標(biāo)簽的問題。
目前在視覺中對(duì)于特定目標(biāo)物的檢測(cè)及定位已有較多實(shí)現(xiàn)方法。文獻(xiàn)[10]介紹了一種基于DWT(DiscreteWaveletTransform)和DCT(DiscreteCosineTransform)的對(duì)數(shù)Gabor濾波法來實(shí)現(xiàn)印刷電路板中的焊點(diǎn)檢測(cè);文獻(xiàn)[11]介紹了一種基于質(zhì)心法的曲線擬合亞像素定位算法實(shí)現(xiàn)對(duì)激光光斑中心的精確定位方法;文獻(xiàn)[12]介紹了利用角點(diǎn)檢測(cè)方法實(shí)現(xiàn)對(duì)人眼目標(biāo)的精確定位;文獻(xiàn)[13]介紹了基于輪廓矢量算法的薄片零件檢測(cè)系統(tǒng)。上述方法多針對(duì)于特定目標(biāo)的精確定位,無法在復(fù)雜的外部環(huán)境下穩(wěn)定地工作,并不適用本文介紹的鋼板測(cè)量系統(tǒng)。為了不受自然光照、照相角度和曝光時(shí)間等外界因素的影響,能夠?qū)崿F(xiàn)高精度的激光標(biāo)簽中心定位,本文提出了一種基于快速梯度方向直方圖HOG(HistogramofOrientedGradients)和高斯差分DOG(DifferenceOfGaussian)二值化的精確定位方法。
本定位方法分為兩個(gè)階段:第一步采用基于GPU(GraphicProcessingUnit)的快速HOG算法[14]對(duì)大型鋼板中激光標(biāo)簽進(jìn)行粗定位;第二步采用基于DOG的圖像二值化方法來檢測(cè)激光標(biāo)簽的質(zhì)心,實(shí)現(xiàn)標(biāo)簽的亞像素級(jí)別精確定位。實(shí)驗(yàn)結(jié)果表明,本定位方法的精度可以達(dá)到1mm以下,且穩(wěn)定性較好,能夠滿足對(duì)2m×1m的船舶鋼板的測(cè)量要求。
2基于GPU的快速HOG檢測(cè)算法
HOG算法是DalalN和TriggsB[14]在2005年提出的一種圖像特征描述方法。HOG算法最早被用于行人檢測(cè),后來在車輛和常見動(dòng)物的檢測(cè)中也都取得了較好的效果。該方法通過計(jì)算局部圖像梯度的方向信息的統(tǒng)計(jì)值來描述圖像特征。它和邊緣方向直方圖[15]、尺度不變特征變換[16]以及形狀上下文方法[17]有很多相似之處,但與它們的不同點(diǎn)是:HOG算法是在一個(gè)網(wǎng)格密集的、大小統(tǒng)一的細(xì)胞單元上計(jì)算。
HOG算法主要思想是:在一幅圖像中,局部目標(biāo)的表象和形狀能夠被梯度或邊緣的方向密度分布很好地描述。具體實(shí)現(xiàn)為:首先將圖像分成小的連通區(qū)域(稱為單元格cell);然后計(jì)算各區(qū)域中各像素點(diǎn)的梯度的或邊緣的方向直方圖;最后把這些直方圖組合起來構(gòu)成特征描述器。HOG算法對(duì)于激光標(biāo)簽的檢測(cè)能夠取得比較理想的效果,可以擺脫尺度、光照等因素的限制,對(duì)圖像的幾何和光學(xué)形變都能保持很好的不變性,但檢測(cè)的處理時(shí)間較長,無法滿足工業(yè)測(cè)量中的實(shí)時(shí)性要求。
與CPU相比,GPU在并行計(jì)算方面天生就有著巨大的優(yōu)勢(shì),無論是單精度浮點(diǎn)數(shù)的處理能力上還是內(nèi)存帶寬,GPU都遠(yuǎn)遠(yuǎn)高于CPU,同時(shí)由GPU提供相同的計(jì)算能力所需要的成本和功耗都要小于基于CPU的系統(tǒng)。所以,本文采用一種基于GPU的快速HOG檢測(cè)算法[18],算法基于NVIDIA公司的CUDA架構(gòu),在檢測(cè)時(shí),速度可以提升20多倍,能夠滿足系統(tǒng)的實(shí)時(shí)應(yīng)用要求。算法檢測(cè)結(jié)果如圖1所示。圖片背景即為鋼板,可以看出在鋼板上標(biāo)記的兩個(gè)激光標(biāo)簽都被檢測(cè)出,并用矩形框作為檢測(cè)窗口的標(biāo)識(shí)。為了保證最后的檢測(cè)窗口能夠完整地涵蓋激光標(biāo)簽圖像,在程序處理時(shí)對(duì)窗口進(jìn)行了適當(dāng)?shù)姆糯蟆?/p>
Figure 1 Result of laser tag detection on the steel plate 圖1 鋼板圖像的激光標(biāo)簽檢測(cè)結(jié)果
3基于DOG的圖像二值化
通過HOG算法可以較好地實(shí)現(xiàn)激光標(biāo)簽的粗定位,但實(shí)現(xiàn)其中心的精確定位還需要進(jìn)行進(jìn)一步的處理。
對(duì)圖1中激光標(biāo)簽檢測(cè)后,能夠得到如圖2a所示的圖像。為了能夠?qū)崿F(xiàn)激光測(cè)量對(duì)相機(jī)測(cè)量數(shù)據(jù)的校正,需要精確定位標(biāo)簽中兩條黑線的交叉點(diǎn),即激光標(biāo)簽的中心。
如果標(biāo)簽圖像清晰,可以利用霍夫變換等方法檢測(cè)黑線,通過幾何方法計(jì)算出交叉點(diǎn)具體位置。但是,實(shí)際生產(chǎn)中,由于光照、角度、曝光時(shí)間等外部因素的影響,無法保證可以穩(wěn)定地檢測(cè)出圖像中的黑色線條。為此,本文采用基于圖像二值化的質(zhì)心法檢測(cè)激光標(biāo)簽的中心位置。
3.1圖像二值化
目前圖像二值化方法應(yīng)用較多,主要可分為全局閾值法和局部閾值法兩類。其中,全局閾值法,如Otsu算法[19],對(duì)于雙峰圖像效果較好,但該方法的抗噪性能差;局部閾值法,如Bernsen算法[20],能處理比較復(fù)雜的圖片,但其耗時(shí)較長,而且某些情況下,該方法可能造成圖像失真的結(jié)果。
本文首先分析激光標(biāo)簽的直方圖是一個(gè)雙峰圖像,如圖2b所示。如果采用類似于Bernsen的局部閾值法會(huì)帶來偽影等失真現(xiàn)象。此外,雖然Otsu算法對(duì)于雙峰圖像效果較好,但該方法簡單地計(jì)算圖像目標(biāo)和圖像背景兩類的類間方差和類內(nèi)方差比值的優(yōu)化問題來選取閾值,而沒有考慮圖像本身的特征信息,因此如果采用Otsu方法會(huì)造成部分二值化圖像有一定程度的失真。為了解決Otsu方法存在的問題,本文利用圖像的DOG極值點(diǎn)的周圍信息來選取二值化閾值。
DOG算法在斑點(diǎn)檢測(cè)、尺度不變特征變換等中得到了廣泛的應(yīng)用[17]。對(duì)于圖像I,設(shè)某像素點(diǎn)位置為(x,y),其灰度大小記為I(x,y),σ1和σ2為高斯平滑的寬度參數(shù),則該圖像的DOG如公式(1)所示。
(1)
DOG算法基本思想為:對(duì)圖像進(jìn)行高斯平衡處理相當(dāng)于用一個(gè)低通濾波器對(duì)圖像做濾波操作DOG是兩個(gè)不同的低通濾波結(jié)果做差分運(yùn)算,相當(dāng)于采用一個(gè)帶通濾波器來濾波。因?yàn)樵诙祷^程中,如果DOG操作的參數(shù)選取合適,能夠提取圖像中目標(biāo)物體豐富的邊緣信息?;贒OG極值點(diǎn)選取二值化閾值,能夠取得較好的結(jié)果。
Figure 2 Binarization process based on DOG of laser tag image 圖2 基于DOG的激光標(biāo)簽圖像二值化過程
3.2激光標(biāo)簽中心的定位
目前常用圖像定位算法包括:質(zhì)心法、曲線擬合法和矩方法等[11]。其中應(yīng)用比較多的是質(zhì)心法,該方法思想簡單且精度較高。在圖像可以較好地二值化的前提下,通過簡單的質(zhì)心計(jì)算,能夠達(dá)到亞像素級(jí)別的精度。本文對(duì)圖像二值化后,采用該方法對(duì)激光標(biāo)簽中心定位。
f(x0,y0)=min{f(x,y)}
f(x0,y0)=max{f(x,y)}
(2)
其中(x0,y0)為極值點(diǎn),w為參數(shù),在本文中選取為2。
算法步驟如下:
步驟1對(duì)如圖2a的灰度圖像I進(jìn)行DOG運(yùn)算,得到矩陣IDOG。兩次高斯平滑的模板為n1×n1和n2×n2。本文n1和n2的取值分別為3和15。
步驟2對(duì)IDOG在5×5范圍內(nèi),尋找極值點(diǎn),如果該極值點(diǎn)的像素值大于或等于某一閾值Thex(本文Thex取4),則放入集合E中。圖像I中的極值點(diǎn)分布如圖2c中標(biāo)示出的小圓點(diǎn)。
步驟3對(duì)集合E中的每個(gè)DOG極值點(diǎn)P,計(jì)算其在圖像I中對(duì)應(yīng)像素點(diǎn)周圍5×5窗口的所有像素點(diǎn)的均值。如果該均值和P的像素值之差超過某閾值,則認(rèn)為P是一個(gè)關(guān)鍵點(diǎn),將均值放入集合Avg。否則,則丟棄。最后集合Avg的點(diǎn)基本都位于激光標(biāo)簽邊緣,統(tǒng)計(jì)集合Avg的均值Th,認(rèn)為Th就是二值化圖像所需要的閾值。
步驟4用Th對(duì)圖像進(jìn)行二值化,得到圖像Ibin,如圖2d所示。
步驟5為了排除圖像I中標(biāo)簽橫向和縱向的黑線以及其他字符符號(hào)的影響,對(duì)Ibin進(jìn)行膨脹操作得到圖像Ibin2,如圖2e所示。因?yàn)樽罱K使用質(zhì)心來計(jì)算中心位置,所以膨脹操作所帶來的邊緣擴(kuò)充的影響可以忽略。
步驟6對(duì)Ibin2計(jì)算各連通區(qū)域的中心點(diǎn)坐標(biāo),去除面積過小的連通區(qū)域后(噪聲信息),對(duì)所有的中心點(diǎn)求均值,則該均值坐標(biāo)即為激光標(biāo)簽的精確定位值,如圖2f中間標(biāo)示出的圓點(diǎn)所示。圖2g是圖2f的局部放大圖。
4實(shí)驗(yàn)結(jié)果與分析
本文討論的視覺測(cè)量系統(tǒng)采用雙目相機(jī)測(cè)量大型鋼板的三維形狀,為了提高測(cè)量精度采用激光測(cè)量數(shù)據(jù)校正相機(jī)測(cè)量數(shù)據(jù),利用大小為2cm×2cm的激光標(biāo)簽作為標(biāo)記點(diǎn)來匹配兩種測(cè)量系統(tǒng)。本文設(shè)計(jì)的實(shí)驗(yàn)系統(tǒng)由兩臺(tái)佳能600d單反相機(jī)組成,相機(jī)分辨率為4 512×3 000,相機(jī)的焦距35mm;激光測(cè)量采用了尼康NIVO2m激光全站儀,激光標(biāo)簽定位程序在CPU為Inteli5-3450,GPU為NVIDIAGeFroceGTX680,8GB內(nèi)存的高性能計(jì)算機(jī)下運(yùn)行,本文在Win7操作系統(tǒng)的環(huán)境下進(jìn)行了以下實(shí)驗(yàn):(1)基于GPU的HOG算法在標(biāo)簽的粗定位過程中與傳統(tǒng)的基于CPU的HOG算法的時(shí)間消耗對(duì)比實(shí)驗(yàn);(2)基于DOG的圖像二值化方法和Otsu法以及Bernsen法等傳統(tǒng)的圖像二值化方法的對(duì)比實(shí)驗(yàn);(3)本文提出的圖像二值化方法中,取不同的閾值Thex以及高斯平滑模板大小n1和n2,對(duì)定位結(jié)果的影響。
4.1基于GPU和CPU的HOG算法的對(duì)比實(shí)驗(yàn)
本實(shí)驗(yàn)選取貼有激光標(biāo)簽的鋼板圖片數(shù)量為50幅,其中,被測(cè)鋼板的物理尺寸為2 m×1 m,激光標(biāo)簽尺寸為2 cm×2 cm。兩個(gè)算法采用同樣的樣本集進(jìn)行訓(xùn)練,其中正樣本數(shù)量為65,負(fù)樣本數(shù)量為87。訓(xùn)練集中樣本圖片的大小均在100像素×100像素左右。HOG算法中,檢測(cè)窗口大小設(shè)置為64×64,塊的大小為16×16,細(xì)胞大小為8×8,一個(gè)胞元內(nèi)統(tǒng)計(jì)9個(gè)方向的梯度直方圖,特征描述符為1 764維。分類器選取線性的SVM分類器。
實(shí)驗(yàn)結(jié)果顯示,由于本身鋼板的紋理不是十分豐富,而激光標(biāo)簽本身的圖片紋理也不復(fù)雜,因此,即使在光照比較昏暗或者相機(jī)本身拍攝不清楚的情況下,兩種HOG算法均可以較好地識(shí)別出激光標(biāo)簽,取得很好的識(shí)別效果,但是在識(shí)別中所花費(fèi)的時(shí)間有著較大區(qū)別,如表1所示??梢钥闯?,基于GPU的HOG算法在標(biāo)簽的粗定位過程中其速度性能至少可以提高1個(gè)數(shù)量級(jí)以上。
Table 1Cost comparison of GPU-baesd HOG algorithm
and CPU-based HOG algorithm
表1基于GPU的HOG算法和
基于CPU的HOG算法時(shí)間開銷比較 s
4.2Otsu算法、Bernsen算法和本文算法的對(duì)比實(shí)驗(yàn)
本實(shí)驗(yàn)分別采用Otsu算法、Bernsen算法和本文提出的基于DOG的二值化方法,對(duì)于已經(jīng)實(shí)現(xiàn)粗定位的激光標(biāo)簽圖像進(jìn)行二值化,并精確定位,結(jié)果如圖3所示??梢钥闯觯谙鄼C(jī)拍攝的圖片不是十分模糊的情況下,由于圖像本身的雙峰特性,本文提出的方法和Otsu方法要比局部閾值法Bernsen法的效果要好。采用Bernsen法對(duì)某些標(biāo)簽圖像二值化,會(huì)有較大的失真。同時(shí)進(jìn)一步觀察可以發(fā)現(xiàn),如圖3b和圖3c所示,由于本文提出的二值化方法考慮到了激光標(biāo)簽圖像的一些關(guān)鍵特征,從而可以取得比Otsu更好的效果。
Figure 3 Positioning results comparison of Otsu method, Bernsen method and the proposed method 圖3 本文方法和Otsu法及Bernsen法的定位結(jié)果比較
對(duì)于已檢測(cè)出激光標(biāo)簽的50幅鋼板圖片,抽取的激光標(biāo)簽圖像有87幅,去除其中拍攝十分模糊的6幅圖像。共計(jì)81幅含有激光標(biāo)簽的小圖像。首先,人工點(diǎn)擊確定圖像的中心坐標(biāo);然后,分別用Otsu法、Bernsen法和本文的二值化方法查找中心,本文算法中,高斯模板設(shè)為3×3和15×15, Thex設(shè)為4;最后,計(jì)算不同算法的定位結(jié)果與人工定位結(jié)果的平均絕對(duì)歐氏距離,如表2所示??梢钥闯?,本文的方法比Otsu法要好,且這兩種方法都要比Bernsen法的定位結(jié)果好的多。從該表可以看出,本文方法無論是誤差均值還是方差值都要優(yōu)于Bernsen法和Otsu法。同時(shí)可以發(fā)現(xiàn),在最大誤差值中,另外的兩種方法都出現(xiàn)了無法接受的大誤差結(jié)果,這說明這兩種方法在實(shí)際工作中的穩(wěn)定性比本文提出的方法要差。另外需要說明的是,由于人工定位的方法只能到像素級(jí)別而無法到亞像素級(jí)別,所以實(shí)際的測(cè)量誤差結(jié)果應(yīng)該比表2中的測(cè)量誤差還要小。鋼板的實(shí)際物理尺寸為2m×1m,鋼板圖像的尺寸為6 016×4 000像素,因此,本文提出的精確定位算法的誤差不超過0.3mm。
Table 2 Impact on measuring error of
在實(shí)驗(yàn)中發(fā)現(xiàn),對(duì)于激光標(biāo)簽拍攝非常不清楚的情況(主要是由于相機(jī)位置和焦距設(shè)置等因素)。本文方法的定位結(jié)果要比Otsu方法略差些。但是,在實(shí)際的測(cè)量過程中,本系統(tǒng)的相機(jī)的位置和焦距等,在測(cè)量前都已經(jīng)固定調(diào)試好,因此基本不會(huì)出現(xiàn)這樣的情況。
需要說明的是,由于通過HOG的粗檢測(cè)后,需要采用DOG二值化進(jìn)行精確定位的激光標(biāo)簽大小一般都在100像素×100像素以內(nèi)。此時(shí)完全可以采用CPU進(jìn)行處理。如果此時(shí)采用GPU處理,因?yàn)閳D像本身很小,其速度效果反而不如CPU,因?yàn)榇蟛糠痔幚頃r(shí)間都消耗在GPU和CPU的數(shù)據(jù)傳輸上,而數(shù)據(jù)計(jì)算上減少的時(shí)間消耗很有限。
4.3基于不同平滑模板和閾值的對(duì)比實(shí)驗(yàn)
對(duì)于本文提出的基于DOG的二值化方法,選取不同大小的高斯平滑模板,以及不同的極值的閾值Thex都會(huì)對(duì)定位精度產(chǎn)生影響。因此,本實(shí)驗(yàn)對(duì)不同的平滑模板和閾值進(jìn)行了對(duì)比實(shí)驗(yàn)。
首先,選取極值的閾值Thex為4,并選取不同大小的模板進(jìn)行實(shí)驗(yàn),對(duì)定位精度的誤差影響如圖4a所示,其中n1和n2分別表示在DOG中不同的高斯模板大小,誤差值和表2的定義一樣。如圖4a所示,當(dāng)n1在3和5中取值,且n2在13到17取值時(shí),誤差值較??;當(dāng)n1=3,n2=15時(shí),激光標(biāo)簽的中心定位效果最好。
接著,分別選取高斯模板的大小為3×3和15×15,并選取不同的極值閾值Thex進(jìn)行實(shí)驗(yàn),對(duì)定位精度的誤差影響如圖4b所示,可以看出在Thex為4時(shí)誤差最小。
Figure 4 Impact on measuring error of different parameters 圖4 不同參數(shù)對(duì)測(cè)量誤差的影響
5結(jié)束語
針對(duì)激光測(cè)量中對(duì)相機(jī)測(cè)量數(shù)據(jù)的校正過程需要對(duì)特定標(biāo)記精確定位的需要,本文提出了一種基于HOG算法和二值化質(zhì)心定位法的激光標(biāo)簽精確定位方法。本方法在定位精度、系統(tǒng)運(yùn)行速度、穩(wěn)定性等方面都適合于工業(yè)測(cè)量的要求。具有精度高、魯棒性強(qiáng)、適合實(shí)時(shí)應(yīng)用的優(yōu)點(diǎn)。通過實(shí)驗(yàn)可以發(fā)現(xiàn)該方法的測(cè)量精度能夠達(dá)到1mm以下,具有一定的推廣價(jià)值和社會(huì)效用。
參考文獻(xiàn):
[1]ShiJin-long,BaiSu-qin,TanYou-xia,etal. 3Dmeasurementmethodofdeformablesteelsurfacebasedonmulti-vision[J].ComputerMeasurement&Control, 2011, 19(9):2119-2121. (inChinese)
[2]LiuJian-wei,LiangJin,LiangXin-he,etal.Industrialvisionmeasuringsystemforlargedimensionwork-pieces[J].OpticsandPrecisionEngineering, 2010, 18(1):126-134. (inChinese)
[3]LiuT,CarlbergM,ChenG,etal.Indoorlocalizationandvisualizationusingahuman-operatedbackpacksystem[C]//Procof2010InternationalConferenceonIndoorPositioningandIndoorNavigation(IPIN), 2010:1-10.
[4]ZhangAi-wu,HuShao-xing,SunWei-dong,etal. 3Dreconstructionofoutdoorscenesfromsynchronizedlaserrangedataandvisualimagedata[J].ActaElectronicaSinica, 2005, 33(5):810-815. (inChinese)
[5]VarshneyPK,MehrotraKG,MohanCK.Distributeddecision-makingandreasoningwithuncertainimageandsensordata[EB/OL].[2013-08-01].http://www-video.eecs.berkeley.edu/vismuri/Meeting2003/syracuse03.ppt.
[6]HuijingZ,ShibasakiR.Reconstructionoftexturedurban3Dmodelbyfusingground-basedlaserrangeandCCDimages[J].IEICETransactionsonInformationandSystems, 2000, 83(7):1429-1440.
[7]LiLin,ZhangXu,TuDa-wei.Jointcalibrationof2Dand3Dvisionintegratedsensorsystem[J].ChineseJournalofScientificInstrument, 2012, 33(11):2473-2479. (inChinese)
[8]HuFeng,HuChun-sheng,WangXing-shu,etal.Calibrationofexternalrelationbetweenimaginglaserradarandcamera[J].OpticsandPrecisionEngineering, 2011, 19(4):938-943. (inChinese)
[9]ZhangQi-long,PlessR.Extrinsiccalibrationofacameraandlaserrangefinder(improvescameracalibration)[C]//Procof2004IEEE/RSJInternationalConferenceonIntelligentRobotsandSystems(IROS2004), 2004:1.
[10]MarNSS,YarlagaddaP,FookesC.DesignanddevelopmentofautomaticvisualinspectionsystemforPCBmanufacturing[J].RoboticsandComputer-IntegratedManufacturing, 2011, 27(5):949-962.
[11]WangZhi-qian,LiuZhao-rong,ZhaoYan,etal.Precisecenterlocationalgorithmforlaserspotindistortionmeasuringsystem[J].JournalofElectronicMeasurementandInstrument, 2011, 25(6):485-489.(inChinese)
[12]WangLi,TangJin,XuHai-zhu.FastpupilslocalizationmethodbasedonHarriscornerdetection[J].ChineseJournalofLiquidCrystalsandDisplays, 2008, 23(1):87-90.(inChinese)
[13]WuJi-gang,BinHong-zan.Dimensionalinspectingsystemofthinsheetpartsbasedonmachinevision[J].OpticsandPrecisionEngineering, 2007, 15(1):124.(inChinese)
[14]DalalN,TriggsB.Histogramsoforientedgradientsforhumandetection[C]//ProcofIEEEComputerSocietyConferenceonComputerVisionandPatternRecognition(CVPR2005), 2005:886-893.
[15]FreemanWT,RothM.Orientationhistogramsforhandgesturerecognition[C]//ProcofInternationalWorkshoponAutomaticFaceandGestureRecognition. 1995:296-301.
[16]LoweDG.Distinctiveimagefeaturesfromscale-invariantkeypoints[J].InternationalJournalofComputerVision, 2004, 60(2):91-110.
[17]BelongieS,MalikJ,PuzichaJ.Matchingshapes[C]//Procofthe8thIEEEInternationalConferenceonComputerVision(ICCV2001), 2001:454-461.
[18]PrisacariuV,ReidI.FastHOG—areal-timeGPUimplementationofHOG[R].TechnicalReportNo2310/09.Oxford:UniversityofOxford, 2009.
[19]OtsuN.Athresholdselectionmethodfromgray-levelhistograms[J].Automatica, 1975, 11(285-296):23-27.
[20]BernsenJ.Dynamicthresholdingofgrey-levelimages[C]//ProcofInternationalConferenceonPatternRecognition,1986:1251-1255.
參考文獻(xiàn):附中文
[1]史金龍, 白素琴, 談?dòng)严?等. 基于多目視覺的變形鋼板三維測(cè)量方法[J]. 計(jì)算機(jī)測(cè)量與控制, 2011, 19(9):2119-2121.
[2]劉建偉, 梁晉, 梁新合, 等. 大尺寸工業(yè)視覺測(cè)量系統(tǒng)[J]. 光學(xué)精密工程, 2010, 18(1):126-134.
[4]張愛武,胡少興, 孫衛(wèi)東,等. 基于激光與可見光同步數(shù)據(jù)的室外場(chǎng)景三維重建[J]. 電子學(xué)報(bào), 2005, 33(5):810-815.
[7]李琳, 張旭, 屠大維. 二維和三維視覺傳感集成系統(tǒng)聯(lián)合標(biāo)定方法[J]. 儀器儀表學(xué)報(bào), 2012, 33(11):2473-2479.
[8]胡峰, 胡春生, 王省書, 等. 成像激光雷達(dá)與攝像機(jī)外部位置關(guān)系的標(biāo)定[J]. 光學(xué)精密工程, 2011, 19(4):938-943.
[11]王志乾, 劉兆蓉, 趙雁,等. 變形測(cè)量系統(tǒng)中激光光斑中心精確定位算法[J]. 電子測(cè)量與儀器學(xué)報(bào), 2011, 25(6):485-489.
[12]王力, 唐琎, 許海柱. 一種基于Harris角點(diǎn)檢測(cè)的快速瞳孔定位方法[J]. 液晶與顯示, 2008, 23(1):87-90.
[13]伍濟(jì)鋼, 賓鴻贊. 機(jī)器視覺的薄片零件尺寸檢測(cè)系統(tǒng)[J]. 光學(xué)精密工程, 2007, 15(1):124.
錢強(qiáng)(1978-),男,安徽巢湖人,碩士,講師,研究方向?yàn)闄C(jī)器視覺。E-mail:qianqiang_just@163.com
QIANQiang,bornin1978,MS,lecturer,hisresearchinterestincludescomputervision.
龐林斌(1975-),男,山東泰安人,碩士,講師,研究方向?yàn)闄C(jī)器視覺。E-mail:panglinbin_just@just.edu.cn
PANGLin-bin,bornin1975,MS,lecturer,hisresearchinterestincludescomputervision.
王直(1963-),男,江蘇濱海人,碩士,教授,研究方向?yàn)闄C(jī)器視覺。E-mail:cw@just.edu.cn
WANGZhi,bornin1963,MS,professor,hisresearchinterestincludescomputervision.
2015年全國高性能計(jì)算學(xué)術(shù)年會(huì)(HPCChina2015)
征文通知(第二輪)
由中國計(jì)算機(jī)學(xué)會(huì)主辦、北京中科超算信息咨詢有限公司、國家超級(jí)計(jì)算無錫中心(籌)協(xié)辦、中國計(jì)算機(jī)學(xué)會(huì)高性能計(jì)算專業(yè)委員會(huì)、江南大學(xué)共同承辦的“2015年全國高性能計(jì)算學(xué)術(shù)年會(huì)”(HPCChina2015) 將于2015年11月10日至12日在無錫召開。全國高性能計(jì)算學(xué)術(shù)年會(huì)是中國一年一度高性能計(jì)算領(lǐng)域的盛會(huì),為相關(guān)領(lǐng)域的學(xué)者提供交流合作、發(fā)布最前沿科研成果的平臺(tái),將有力地推動(dòng)中國高性能計(jì)算的發(fā)展。
征文涉及的領(lǐng)域包括但不限于:高性能計(jì)算機(jī)體系結(jié)構(gòu)、高性能計(jì)算機(jī)系統(tǒng)軟件、高性能計(jì)算環(huán)境、高性能微處理器、高性能計(jì)算機(jī)應(yīng)用、并行算法設(shè)計(jì)、并行程序開發(fā)、大數(shù)據(jù)并行處理、科學(xué)計(jì)算可視化、云計(jì)算和網(wǎng)格計(jì)算相關(guān)技術(shù)及應(yīng)用,以及其他高性能計(jì)算相關(guān)領(lǐng)域。會(huì)議錄用論文將分別推薦到《計(jì)算機(jī)學(xué)報(bào)》(EI)、《計(jì)算機(jī)研究與發(fā)展》(EI)、《計(jì)算機(jī)科學(xué)與探索》(正刊)、《計(jì)算機(jī)工程與科學(xué)》(正刊)和《計(jì)算機(jī)科學(xué)》(正刊)等刊物上發(fā)表。會(huì)議還將評(píng)選優(yōu)秀論文和優(yōu)秀論文提名獎(jiǎng)各4名。
投稿須知:本屆大會(huì)接收中英文投稿。作者所投稿件必須是原始的、未發(fā)表的研究成果、技術(shù)綜述、工作經(jīng)驗(yàn)總結(jié)或技術(shù)進(jìn)展報(bào)告。務(wù)必附上第一作者簡歷(姓名、性別、出生年月、出生地、職稱、學(xué)位、研究方向等)、通信地址、郵政編碼、聯(lián)系電話和電子信箱,并注明論文所屬領(lǐng)域。
請(qǐng)登錄https://easychair.org/conferences/?conf=hpcchina2015 的會(huì)議投稿系統(tǒng)鏈接進(jìn)行投稿,首次登錄請(qǐng)注冊(cè)。
投稿要求:請(qǐng)參照《計(jì)算機(jī)研究與發(fā)展》的格式編排論文(http://crad.ict.ac.cn/CN/item/downloadFile.jsp?filedisplay=20150317155924.doc)。
會(huì)議將邀請(qǐng)知名院士、學(xué)者做大會(huì)特邀報(bào)告,舉行學(xué)術(shù)報(bào)告和分組交流,還將發(fā)布2015年中國HPCTOP100排行榜、進(jìn)行高性能計(jì)算專題研討、高性能計(jì)算相關(guān)的CCFADL培訓(xùn)、高性能計(jì)算新技術(shù)與新產(chǎn)品展示等活動(dòng),并同期現(xiàn)場(chǎng)舉辦“PAC2015全國并行應(yīng)用挑戰(zhàn)賽”決賽。本次會(huì)議邀請(qǐng)了美國HPCAdvisoryCouncil的加盟,還將邀請(qǐng)國內(nèi)外知名超算中心主任參加,并舉行形式多樣、不同主題的論壇研討,會(huì)議期間還將召開“CODESIGN國際研討會(huì)”。
論文提交截止日期:2015年07月15日 論文錄用通知日期:2015年08月15日
正式論文提交日期:2015年09月15日
聯(lián)系人:李希代 聯(lián)系電話:010-62600662
HPCChina2015籌委會(huì)
2015年06月08日