亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)GWO-GRNN 的管道焊縫三維重構(gòu)測量

        2024-01-31 07:04:00高博軒趙弘苗興園
        機(jī)床與液壓 2024年1期
        關(guān)鍵詞:雙目重構(gòu)像素

        高博軒,趙弘,苗興園

        (中國石油大學(xué)(北京)機(jī)械與儲運(yùn)工程學(xué)院,北京 102249)

        0 前言

        近年來隨著機(jī)器視覺、計算機(jī)圖像處理等技術(shù)不斷興起與發(fā)展,雙目視覺三維重構(gòu)技術(shù)已經(jīng)運(yùn)用到智能工廠、非接觸測量、虛擬現(xiàn)實(shí)、教育輔導(dǎo)和生物醫(yī)學(xué)等領(lǐng)域中,極大地促進(jìn)了模式識別、人工智能等相關(guān)領(lǐng)域的發(fā)展[1]。曹治國等[2]提出的基于Snake 模型的血管樹骨架三維重構(gòu)技術(shù)大大減少了人工干預(yù),提高了重構(gòu)的精度。高慶吉等[3]設(shè)計了實(shí)現(xiàn)全自主足球機(jī)器人導(dǎo)航的異構(gòu)雙目活動視覺系統(tǒng),通過數(shù)據(jù)融合觀測相遇目標(biāo)。彭鶴等人[4]基于NURBS 曲面三維成像技術(shù),通過管道檢測數(shù)據(jù)反求曲面的節(jié)點(diǎn)矢量與控制點(diǎn),重構(gòu)出表面過渡更加平滑的管道三維模型。OKADA 等[5]設(shè)計了仿真機(jī)器人動態(tài)行走導(dǎo)航系統(tǒng),將采集到的二維圖像重構(gòu)成周圍區(qū)域地圖,實(shí)現(xiàn)機(jī)器人的避障和自行走。

        雙目視覺三維重構(gòu)技術(shù)同樣也用到管道焊縫測量領(lǐng)域。傳統(tǒng)的焊縫測量方法是采用肉眼觀察或接觸式測量等方法,這種方法效率低、精度低且需要耗費(fèi)大量的人工成本,工人工作強(qiáng)度大,已經(jīng)不再滿足目前工業(yè)自動化的需求,因此越來越多的學(xué)者采用機(jī)器視覺技術(shù)對焊縫尺寸進(jìn)行非接觸測量研究[6]。陳海永等[7-10]提取焊縫線結(jié)構(gòu)光,計算特征點(diǎn)的空間坐標(biāo)對焊縫進(jìn)行三維測量。王乃鑫[11]搭建了基于線激光視覺的焊縫三維信息測量平臺來解決對焊后焊縫磨拋的數(shù)據(jù)問題,對于實(shí)際熔寬6.9 mm 的焊縫實(shí)驗測得誤差為0.07 mm。楊鵬程等[12]采用點(diǎn)激光位移傳感器對焊縫表面缺陷進(jìn)行檢測,基于高斯降噪以及Delaunay 三角剖分原理,重構(gòu)出缺陷的三維模型。RODRíGUEZ-GONZáLVEZ 等[13]基于宏觀攝影測量和激光掃描技術(shù)對焊縫進(jìn)行測量與質(zhì)量評估,對長度300 mm 的焊縫測量誤差為0.072 mm。以上學(xué)者采用激光視覺對管道焊縫或熔池進(jìn)行三維重構(gòu),雖然激光視覺有著較高的精度,但激光視覺發(fā)射的結(jié)構(gòu)光易受到環(huán)境因素的影響,且需要高精度的控制臺對其進(jìn)行控制,不適用于現(xiàn)場作業(yè)的條件。

        羅天洪等[14]提出基于雙目結(jié)構(gòu)光的方法對焊接熔池進(jìn)行三維重構(gòu),來解決焊接過程中弧光對重構(gòu)的干擾問題,實(shí)驗表明該方法測量實(shí)際尺寸5.6 mm 的熔池得到的重構(gòu)誤差為0.7 mm。胡曦等人[15]提出一種基于雙目視覺的管道全位置焊縫三維測量方法,對雙目系統(tǒng)進(jìn)行標(biāo)定并進(jìn)行極線校正,構(gòu)建與像素點(diǎn)灰度值、灰度值梯度相關(guān)的能量代價函數(shù)進(jìn)行立體匹配,再結(jié)合三角測量法計算三維坐標(biāo)重構(gòu)出焊縫點(diǎn)云,與標(biāo)準(zhǔn)值6.25 mm 相比重構(gòu)誤差在0.2 mm 以內(nèi)。ZHANG 等[16]采用被動視覺傳感系統(tǒng),提出一種雙光路成像方法采集焊縫熔池圖像,選擇了660 nm窄帶和850 nm 長通作為系統(tǒng)的工作波段,并采用兩臺帶有相同波段濾波器的相機(jī)采集熔池圖像,圖像配準(zhǔn)后采用基于梯度和灰度的鄰域超像素合并(GNSM)方法提取熔池圖像輪廓,通過對比分析擬合偏差和實(shí)際測量結(jié)果,實(shí)際焊縫寬度為12 mm 的重構(gòu)誤差在0.2 mm 以內(nèi)。以上學(xué)者采用立體視覺技術(shù)對管道焊縫進(jìn)行三維重構(gòu)。立體視覺的結(jié)構(gòu)相對簡單且易于操作,效率較高,因此本文作者選擇雙目立體視覺對管道焊縫進(jìn)行三維重構(gòu)。

        但由于相機(jī)裝配工作臺安裝不精確導(dǎo)致相機(jī)位姿改變,使測得焊縫的實(shí)際尺寸存在較大的累計誤差。此外,雙目相機(jī)平臺在管道內(nèi)運(yùn)動過程中由于振動、障礙等情況也會導(dǎo)致相機(jī)位姿改變,無法保證焊縫三維重構(gòu)測量的精確性。因此,本文作者提出一種基于改進(jìn)灰狼算法優(yōu)化廣義回歸神經(jīng)網(wǎng)絡(luò)(Improved Gray Wolf Algorithm-Generalized Regression Neural Network)的圖像點(diǎn)三維坐標(biāo)誤差補(bǔ)償模型,以解決不同相機(jī)位姿下管道焊縫的三維重構(gòu)與測量。為提高GWO 算法的全局尋優(yōu)能力,分別從種群初始化、收斂因子和最優(yōu)位置更新3 個方面進(jìn)行改進(jìn),優(yōu)化GRNN 的平滑因子。在此基礎(chǔ)上,利用GRNN 進(jìn)行圖像點(diǎn)三維坐標(biāo)誤差預(yù)測。通過立體視覺測量系統(tǒng)和焊縫三維重構(gòu)測量實(shí)驗,驗證誤差補(bǔ)償模型對于不同相機(jī)姿態(tài)的焊縫三維重構(gòu)和測量精度。

        1 雙目立體視覺測量方法

        1.1 單目相機(jī)模型建立

        單目相機(jī)模型是雙目立體視覺的基礎(chǔ),在單目相機(jī)成像過程中設(shè)計4 個坐標(biāo)系之間的變換,分別為世界坐標(biāo)系Ow-xwywzw、相機(jī)坐標(biāo)系Oc-xcyczc、圖像坐標(biāo)系O-xy和像素坐標(biāo)系O-uv,如圖1 所示。

        圖1 單目相機(jī)4 個坐標(biāo)系Fig.1 Four coordinate systems for monocular camera

        通過剛體變換,將坐標(biāo)系進(jìn)行旋轉(zhuǎn)和平移可將世界坐標(biāo)系轉(zhuǎn)化為相機(jī)坐標(biāo)系,再根據(jù)針孔成像原理將相機(jī)坐標(biāo)系轉(zhuǎn)化為更利于坐標(biāo)變換的圖像坐標(biāo)系,像素坐標(biāo)系反映了相機(jī)CCD 芯片中像素的排列情況,像素坐標(biāo)是相機(jī)拍攝照片后唯一已知的位置信息,因為像素坐標(biāo)系與圖像坐標(biāo)系共處同一二維平面內(nèi),通過平移變換便可相互轉(zhuǎn)化,最終得到空間內(nèi)任意一點(diǎn)P(xw,yw,zw)投影到像素坐標(biāo)系中p(u,v)的變換公式為式(1)所示:

        式中:Zc為比例因子;f為焦距;fx、fy分別為x軸、y軸的歸一化焦距;u0、v0分別為圖像主點(diǎn)中心坐標(biāo);R為相機(jī)的旋轉(zhuǎn)矩陣;T為相機(jī)的平移向量。其中焦距和主點(diǎn)中心坐標(biāo)都是相機(jī)內(nèi)部參數(shù),可通過查閱相機(jī)生產(chǎn)廠商手冊獲得。

        1.2 雙目相機(jī)模型建立及三維坐標(biāo)計算

        雙目相機(jī)模型是基于單目相機(jī)模型建立的,雙目相機(jī)中通常以左相機(jī)為基準(zhǔn)建立雙目模型,先確定左相機(jī)與世界坐標(biāo)系的位置關(guān)系再建立右相機(jī)相對于左相機(jī)的聯(lián)系。雙目相機(jī)模型如圖2 所示。

        圖2 雙目相機(jī)模型Fig.2 Binocular camera model

        基于雙目相機(jī)模型對空間點(diǎn)三維重構(gòu)及計算三維坐標(biāo),規(guī)定左相機(jī)為主相機(jī),通過單目相機(jī)標(biāo)定可以分別得到左相機(jī)的旋轉(zhuǎn)矩陣Rl和平移向量Tl和右相機(jī)的旋轉(zhuǎn)矩陣Rr和平移向量Tr。由式(1)可知兩相機(jī)分別有:

        因為旋轉(zhuǎn)矩陣R是3×3的矩陣,平移向量T是3×1的向量,因此:

        則式(2)(3)可改寫為

        將式(5)(6)展開整理得到:

        通過雙目相機(jī)的標(biāo)定可以得到相機(jī)的外參數(shù)矩陣以及任意空間點(diǎn)P在左、右像平面上投影點(diǎn)的像素坐標(biāo),采用最小二乘法求解式(7),便可得到任意空間點(diǎn)P在世界坐標(biāo)系下的三維坐標(biāo)(xw,yw,zw)。

        2 基于IGWO-GRNN 的圖像點(diǎn)坐標(biāo)誤差補(bǔ)償模型

        本文作者針對立體視覺檢測圖像坐標(biāo)點(diǎn)的誤差進(jìn)行預(yù)測和補(bǔ)償,提出IGWO-GRNN 建立圖像點(diǎn)坐標(biāo)的誤差補(bǔ)償模型。利用Tent 映射提高初始種群的多樣性,同時引入一種余弦收斂因子以平衡算法的全局和局部搜索能力,并將最優(yōu)記憶保存思想用于最優(yōu)位置更新,有效避免算法陷入局部最優(yōu)。通過IGWO 算法對GRNN 的參數(shù)進(jìn)行優(yōu)化選擇,以獲得更高的圖像坐標(biāo)點(diǎn)誤差的預(yù)測精度。

        2.1 廣義回歸神經(jīng)網(wǎng)絡(luò)(GRNN)

        廣義回歸神經(jīng)網(wǎng)絡(luò)(Generalized Regression Neural Network,GRNN)廣泛應(yīng)用于求解回歸問題。GRNN 的網(wǎng)絡(luò)結(jié)構(gòu)共有4 層,包含輸入層、模式層、求和層和輸出層,網(wǎng)絡(luò)結(jié)構(gòu)示意如圖3 所示。廣義回歸神經(jīng)網(wǎng)絡(luò)是以徑向基網(wǎng)絡(luò)為基礎(chǔ)并且沒有模型參數(shù)需要訓(xùn)練,因此具有良好的非線性逼近性能、收斂速度快、樣本數(shù)據(jù)少時預(yù)測效果很好等優(yōu)勢。文中針對圖像坐標(biāo)的誤差補(bǔ)償屬于回歸問題且采集的數(shù)據(jù)量較少,因此選用GRNN 模型對圖像坐標(biāo)的誤差進(jìn)行補(bǔ)償。

        圖3 廣義回歸網(wǎng)絡(luò)結(jié)構(gòu)示意Fig.3 Schematic diagram of GRNN

        由圖3 可知,網(wǎng)絡(luò)的輸入樣本為X= [X1,X2,…,Xn]T,輸出樣本為Y= [Y1,Y2,…,Yk]T,n、k分別表示輸入訓(xùn)練樣本的維度和輸出樣本的維度。模式層神經(jīng)元數(shù)目等于學(xué)習(xí)樣本數(shù)目n,各神經(jīng)元對應(yīng)不同的樣本,模式層神經(jīng)元傳遞函數(shù)[17]如式(8)所示:

        求和層的節(jié)點(diǎn)個數(shù)等于輸出樣本的維度加1(k+1)。求和層輸出分為兩部分:第一節(jié)點(diǎn)輸出為模式層算術(shù)和,其余k個節(jié)點(diǎn)的輸出為模式層的加權(quán)和。求和層的第一個節(jié)點(diǎn)輸出如式(9)所示:

        其余k個節(jié)點(diǎn)的輸出如式(10)所示:

        輸出層節(jié)點(diǎn)個數(shù)等于標(biāo)簽向量的維度,每個節(jié)點(diǎn)的輸出等于對應(yīng)的求和層輸出與求和層第一個節(jié)點(diǎn)輸出相除,如式(11)所示:

        式(8)中:X為輸入?yún)?shù);Xi為第i個神經(jīng)元的訓(xùn)練樣本;σ為平滑因子。由式(8)可知,當(dāng)輸入數(shù)據(jù)不屬于樣本數(shù)據(jù)時,σ的取值會嚴(yán)重影響預(yù)測精度,因此為了減小模型預(yù)測誤差,需要求解一個最優(yōu)的平滑因子σ。GWO 算法于2014 年由澳大利亞學(xué)者M(jìn)IRJALILI 等根據(jù)狼群等級制度和狩獵過程提出,具有收斂性能較強(qiáng)、參數(shù)少、易實(shí)現(xiàn)等特點(diǎn),但也存在容易收斂過早、易陷入局部最優(yōu)等問題,因此提出一種改進(jìn)GWO 算法來優(yōu)化平滑因子。

        2.2 改進(jìn)灰狼優(yōu)化算法(IGWO)

        2.2.1 基本灰狼優(yōu)化算法

        灰狼種群有著嚴(yán)格的社會層級結(jié)構(gòu),如圖4 所示。灰狼優(yōu)化算法(Grey Wolf Optimizer,GWO)在每次求最優(yōu)解過程中取得最優(yōu)解的3 只狼的位置標(biāo)記為α、β、δ,其余狼的位置標(biāo)記為ω。GWO 的優(yōu)化過程主要由每代種群中的最好3 個解α、β、δ 指導(dǎo)完成。

        圖4 灰狼種群層級結(jié)構(gòu)Fig.4 Gray wolf population hierarchy

        灰狼捜索獵物時會逐漸地接近獵物并包圍它,全局最優(yōu)灰狼的位置即為獵物的位置,位置標(biāo)記為ω的狼跟隨著α、β、δ 狼的位置進(jìn)行更新,其行為的數(shù)學(xué)模型[13]為

        式中:t為當(dāng)前迭代次數(shù);Xp(t)表示獵物的位置向量;X(t)表示當(dāng)前灰狼的位置向量;D為狼群中個體狼與獵物之間的距離;A和C是協(xié)同系數(shù)向量;r1和r2是[0,1]中的隨機(jī)向量;在整個迭代過程中a由2 線性降到0。

        由式(12)可知α、β、δ 狼與獵物之間的距離Dα、Dβ、Dδ,進(jìn)而引導(dǎo)ω 狼共同狩獵,達(dá)到更新狼群位置的目的,該行為的數(shù)學(xué)模型[18]為

        式中:X1、X2、X3為狼群ω 被α、β、δ 三只狼指導(dǎo)后更新的位置。

        2.2.2 改進(jìn)灰狼優(yōu)化算法

        基本GWO 算法存在中后期收斂速度慢、容易陷入局部最優(yōu)等問題,為此,本文作者通過引入Tent混沌映射、收斂因子非線性調(diào)整機(jī)制和最優(yōu)記憶保存思想對算法進(jìn)行改進(jìn),建立了一種具有較好全局尋優(yōu)能力的改進(jìn)灰狼優(yōu)化算法。

        (1)基于Tent 混沌映射的種群初始化策略

        GWO 在優(yōu)化過程中通常采用隨機(jī)產(chǎn)生的數(shù)據(jù)作為種群的初始化設(shè)定,這種方法難以確保種群的豐富性,對求解最優(yōu)造成影響。針對這種問題,本文作者引入Tent 混沌映射。

        Tent 混沌映射的表達(dá)式為

        里下河腹部地區(qū)湖泊湖蕩管理與保護(hù)信息系統(tǒng)………………………………… 錢福軍,李 頻,夏衛(wèi)中(17.72)

        由式(15)可知:當(dāng)u=1/2 時,Tent 混沌映射具有最典型的形式,此時得到的序列均勻分布,對不同的參數(shù)具有相似的分布密度,因此本文作者引入的Tent 混沌映射表達(dá)式為

        Tent 混沌映射種群初始化的步驟為:隨機(jī)產(chǎn)生一個[0,1]的初值,按照式(16)進(jìn)行迭代計算至最大迭代次數(shù)后保存序列結(jié)果。

        (2)非線性調(diào)整機(jī)制

        GWO 算法中收斂因子a的值從0~2 的線性變化,容易陷入局部最優(yōu)。為避免算法早熟,引入非線性余弦收斂因子,表達(dá)式為

        式中:t為當(dāng)前迭代次數(shù);T為最大迭代次數(shù)。余弦因子在剛開始迭代時收斂速度較線性因子緩慢,便于尋找全局最優(yōu);在迭代后期,余弦收斂因子的收斂速度更快,有利于提升算法的快速性。

        (3)基于最優(yōu)記憶保存的位置更新策略

        為了進(jìn)一步改善GWO 算法易陷入局部最優(yōu)、收斂速度慢、求解精度不高等問題,引入粒子群最優(yōu)記憶思想保存狼群的位置更新變化。該方程表達(dá)式為

        式中:τ為0~1 之間的個體記憶系數(shù);Pi(t)為第i個灰狼個體經(jīng)過的最優(yōu)位置。改進(jìn)后的灰狼算法在加強(qiáng)了算法的求解速度和求解精度的同時,又增加了個體自身最優(yōu)信息。

        2.2.3 改進(jìn)算法測試

        表1 測試函數(shù)Tab.1 Test functions

        表2 測試結(jié)果Tab.2 Test results

        由表2 可知:對于f7(x)和f8(x),IGWO 算法與基本GWO 算法求解精度相同,但對于其他情況,IGWO 算法表現(xiàn)出明顯的優(yōu)勢,迭代尋優(yōu)得到的最優(yōu)解偏差都小于其他3 種優(yōu)化算法。由此可見,IGWO 算法的尋優(yōu)精度更佳,說明提出的改進(jìn)策略能夠有效地提高算法求解的質(zhì)量,驗證了IGWO 算法的有效性。

        2.3 IGWO 優(yōu)化GRNN 算法

        本文作者采用IGWO 算法優(yōu)化GRNN 中的平滑因子σ,將樣本數(shù)據(jù)分為訓(xùn)練集和測試集,采用10 折交叉驗證的方式對GRNN 進(jìn)行訓(xùn)練。將訓(xùn)練集劃分為10 等份,隨機(jī)選擇1 份作為測試數(shù)據(jù),剩余9 份作為訓(xùn)練數(shù)據(jù),可有效解決訓(xùn)練數(shù)據(jù)少導(dǎo)致預(yù)測精度低的問題。將GRNN 模型交叉訓(xùn)練的最小均方根誤差(RMSE)作為IGWO 的目標(biāo)函數(shù),通過不斷迭代使RMSE 的值達(dá)到最小或達(dá)到最大迭代次數(shù)后結(jié)束循環(huán),將求解得到的最優(yōu)平滑因子代入GRNN 模型,并通過獨(dú)立測試集進(jìn)行模型驗證。IGWO-GRNN 的預(yù)測流程如圖5 所示。

        圖5 IGWO-GRNN 流程Fig.5 Flow of IGWO-GRNN

        詳細(xì)步驟如下:

        步驟1,通過立體視覺技術(shù)獲取不同相機(jī)位姿下標(biāo)定板各點(diǎn)在左、右相機(jī)中的像素坐標(biāo),計算檢測的三維世界坐標(biāo)與真實(shí)坐標(biāo)之間的誤差,構(gòu)建坐標(biāo)誤差數(shù)據(jù)集,對數(shù)據(jù)歸一化處理,并以9 ∶1 的比例劃分為訓(xùn)練集和測試集。

        步驟2,引入Tent 混沌映射對灰狼種群進(jìn)行初始化,設(shè)置種群數(shù)量N,維度D以及上下限ub、lb,最大迭代次數(shù)T。

        步驟3,采用10 折交叉驗證的方式訓(xùn)練GRNN,獲取均方根誤差(RMSE)作為IGWO 的目標(biāo)函數(shù)。

        式中:n為預(yù)測樣本總數(shù)量;為第i組預(yù)測樣本的預(yù)測輸出值;yi為對應(yīng)的實(shí)際目標(biāo)輸出值。

        步驟4,不斷迭代至F(x)值最小后,輸出對應(yīng)最小值的最優(yōu)平滑因子。

        步驟5,將優(yōu)化得到的最優(yōu)平滑因子輸入GRNN網(wǎng)絡(luò),對圖像各點(diǎn)的三維坐標(biāo)誤差進(jìn)行預(yù)測,并計算預(yù)測誤差。

        3 焊縫三維重構(gòu)與測量實(shí)驗

        3.1 測量系統(tǒng)搭建及數(shù)據(jù)集構(gòu)建

        本文作者設(shè)計的雙目立體視覺測量系統(tǒng)包括2 臺basler 相機(jī)、4 個平面光源、光源控制器、激光發(fā)射器、圖像采集器以及相機(jī)工作臺。圖像采集器選用NI 公司的IC-3172 相機(jī)控制器,相機(jī)型號為ACA2440-75uc,分辨率為2 448 像素(H)×2 048 像素(V),像素尺寸為3.45 μm×3.45 μm,鏡頭焦距為12 mm。圖像采集采用LabVIEW 軟件搭載的IMAQ模塊,測量系統(tǒng)實(shí)物如圖6 所示。

        圖6 雙目立體視覺測量系統(tǒng)Fig.6 Binocular stereo vision measurement system

        為了補(bǔ)償雙目相機(jī)在不同位姿下圖像點(diǎn)三維坐標(biāo)的檢測誤差,依據(jù)正交試驗設(shè)計方法,選取雙目相機(jī)之間轉(zhuǎn)動角度θ、雙目相機(jī)間距離D以及相機(jī)距待測物體表面高度H3 個因素表征相機(jī)位姿,其中因素θ包含五水平,因素D和H包含三水平,正交試驗水平及因素如表3 所示[21]。為了方便試驗與計算,只研究右相機(jī)相對于左相機(jī)z軸的旋轉(zhuǎn),且左、右相機(jī)處在同一平面(xOy面),距離D僅在y軸移動。圖像采集環(huán)境為試驗室,不考慮環(huán)境噪聲對圖片的影響,采集過程光源強(qiáng)度保持相同且相機(jī)光圈調(diào)至合適亮度,不考慮光線對圖片的影響。

        表3 正交試驗水平及因素Tab.3 Orthogonal test levels and factors

        為了便于坐標(biāo)計算,利用雙目相機(jī)采集的標(biāo)定板圖像構(gòu)建坐標(biāo)誤差數(shù)據(jù)集,通過激光發(fā)射器產(chǎn)生的激光與標(biāo)定板方格產(chǎn)生交點(diǎn),可以確保左右相機(jī)在不同姿態(tài)下提取圖像中每組點(diǎn)都為同一組固定點(diǎn)。利用VBAI 軟件對采集后的圖像進(jìn)行特征提取,每張圖片分別提取19 組激光與方格交點(diǎn)的左相機(jī)像素坐標(biāo)(xl,yl)以及右相機(jī)像素坐標(biāo)(xr,yr),根據(jù)設(shè)計的正交試驗共有45 種不同的相機(jī)位姿,因此共提取了855 組對應(yīng)點(diǎn)的左右相機(jī)像素坐標(biāo),計算各點(diǎn)的三維世界坐標(biāo),通過真實(shí)坐標(biāo)獲取各點(diǎn)坐標(biāo)的檢測誤差。

        3.2 誤差補(bǔ)償模型驗證

        本文作者以左相機(jī)坐標(biāo)系為世界坐標(biāo)系,即左相機(jī)坐標(biāo)系與世界坐標(biāo)系完全重合,那么左相機(jī)的旋轉(zhuǎn)矩陣為單位陣,平移向量為零向量。已知右相機(jī)相對于左相機(jī)的旋轉(zhuǎn)角度θ以及相機(jī)間的距離D,便可求得右相機(jī)的旋轉(zhuǎn)矩陣R和平移向量T,結(jié)合第3.1 節(jié)中提取的左右相機(jī)圖像中點(diǎn)的像素坐標(biāo)并代入式(7)中便可求出不同姿態(tài)下提取點(diǎn)的三維坐標(biāo)(x,y,z)。利用光柵尺測得提取點(diǎn)的真實(shí)三維坐標(biāo)便可得到每個點(diǎn)坐標(biāo)的誤差(Δx,Δy,Δz)。IGWOGRNN 以相機(jī)間角度θ、相機(jī)間距離D、相機(jī)高度H、左相機(jī)像素坐標(biāo)(xl,yl)以及右相機(jī)像素坐標(biāo)(xr,yr)7 個參數(shù)作為輸入,每個點(diǎn)坐標(biāo)的誤差(Δx,Δy,Δz)作為輸出,將提取的855 組數(shù)據(jù)亂序后以9 ∶1的比例劃分為訓(xùn)練集和數(shù)據(jù)集,并采用10 折交叉驗證的方式進(jìn)行訓(xùn)練,及訓(xùn)練集再劃分為10 份,輪流將其中9 份作為訓(xùn)練數(shù)據(jù),1 份作為測試數(shù)據(jù)進(jìn)行訓(xùn)練,可有效解決訓(xùn)練數(shù)據(jù)少導(dǎo)致訓(xùn)練效果差的問題。設(shè)置IGWO 種群數(shù)量為30,最大迭代次數(shù)為200次,優(yōu)化參數(shù)為平滑因子。訓(xùn)練基于MATLAB 平臺,采用Intel Xeon Silver 4214R CPU GeForce 以及RTX 3070 GPU×2 64G RAM 的配置。

        為了驗證IGWO-GRNN 模型的優(yōu)越性,采用相同的數(shù)據(jù)集分別對遺傳算法優(yōu)化廣義回歸神經(jīng)網(wǎng)絡(luò)(GA-GRNN),粒子群算法優(yōu)化廣義回歸神經(jīng)網(wǎng)絡(luò)(PSO-GRNN),以及灰狼算法優(yōu)化廣義回歸神經(jīng)網(wǎng)絡(luò)(GWO-GRNN)進(jìn)行訓(xùn)練,并比較4 種模型的RMSE 收斂曲線以及預(yù)測效果,收斂曲線如圖7所示。

        圖7 4 種方法的收斂曲線Fig.7 Convergence curves for the four methods

        由圖7 可以看出:IGWO-GRNN 模型隨迭代次數(shù)的增加呈多層階梯式的收斂,共經(jīng)歷了4 個收斂階段,得到最小的RMSE 值為0.254,相比于其他3 種模型,IGWO-GRNN 求解的RMSE 值最小,且在迭代至100 次左右就結(jié)束收斂,快速性也優(yōu)于其他3 種模型,IGWO-GRNN 最終優(yōu)化得到的最優(yōu)平滑因子值為1.514 1。

        由此可以證明本文作者提出的IGWO 能夠很好地實(shí)現(xiàn)對GRNN 模型的優(yōu)化,相比于其他3 種模型,IGWO-GRNN 具有更小的RMSE 值,收斂速度更快,且精度更高,穩(wěn)定性更好。將測試數(shù)據(jù)集以及求解得到的最優(yōu)平滑因子分別導(dǎo)入至上述4 種模型中,得到圖像點(diǎn)三維坐標(biāo)檢測誤差的預(yù)測效果如圖8 所示。

        圖8 4 種方法預(yù)測點(diǎn)的坐標(biāo)誤差Fig.8 Coordinate errors of the predicted points for the four methods:(a) x coordinate;(b) y coordinate;(c) z coordinate

        由圖8 可知:IGWO-GRNN 模型相比較于其他3種模型具有更高的預(yù)測精度,與真實(shí)值相比預(yù)測的平均誤差為6.52×10-4mm,而GA -GRNN、PSO -GRNN、GWO-GRNN 的平均預(yù)測誤差分別為0.314 8、0.608 6、0.067 5 mm,分別減少了99.8%、99.9%以及99%。這說明本文作者提出的IGWO-GRNN 預(yù)測精度最高,可以精準(zhǔn)補(bǔ)償相機(jī)在不同姿態(tài)下圖像中任意點(diǎn)的三維坐標(biāo)誤差。

        3.3 焊縫三維重構(gòu)

        本文作者通過搭建的試驗平臺對管道焊縫圖像進(jìn)行雙目立體視覺檢測。為了驗證所提出的IGWOGRNN 誤差補(bǔ)償模型在相機(jī)不同位姿下的焊縫三維重構(gòu)效果,以X80 鋼管道的一部分作為試樣,該試樣中間有垂直于母線方向的均勻焊縫,選取3 種不同位姿進(jìn)行焊縫的三維重構(gòu),分別為:第一組,θ=20°,D=60 mm,H=420 mm;第二組,θ=45°,D=65 mm,H=370 mm;第三組,θ=70°,D=70 mm,H=470 mm。以第一組為例,雙目相機(jī)采集的焊縫圖像如圖9 所示。

        圖9 第一組參數(shù)下雙目相機(jī)采集焊縫圖像Fig.9 Collected weld seam images by binocular camera under the first set of parameters:(a)left camera image;(b)right camera image

        利用VBAI 軟件提取焊縫圖像各點(diǎn)的左、右相機(jī)像素坐標(biāo),并整合其位姿信息代入訓(xùn)練好的IGWOGRNN 模型中進(jìn)行三維坐標(biāo)補(bǔ)償,利用補(bǔ)償后的三維坐標(biāo)繪制三維點(diǎn)云圖,并計算補(bǔ)償后的三維重構(gòu)誤差。3 組位姿的焊縫三維重構(gòu)圖以及x、y、z3 個方向的重構(gòu)誤差如圖10 所示??梢钥闯觯褐貥?gòu)后焊縫三維模型很好地反映出焊縫的三維形貌,通過建立的IGWO-GRNN 誤差補(bǔ)償模型,x和y方向坐標(biāo)的誤差在6×10-4~8×10-4mm 內(nèi),很好地反映出焊縫的三維形貌;由于z坐標(biāo)的實(shí)際尺寸略大于x和y坐標(biāo)尺寸,導(dǎo)致誤差有所增大,但平均誤差也只有6×10-3mm 左右。

        圖10 重構(gòu)后的焊縫三維模型及三維坐標(biāo)誤差Fig.10 Reconstructed 3D model of weld seam and 3D coordinate error:(a)the first set of poses;(b)the second set of poses;(c)the third set of poses

        3.4 焊縫三維測量

        根據(jù)第3.3 節(jié)中三維重構(gòu)后的點(diǎn)云圖對焊縫進(jìn)行三維測量,提取焊縫邊緣點(diǎn),將最高點(diǎn)作為焊縫特征點(diǎn)從而對焊縫的焊寬、余高和長度進(jìn)行計算測量。焊縫的尺寸示意圖如圖11 所示。

        圖11 焊縫尺寸示意Fig.11 Schematic of weld size

        在焊縫橫向的兩端提取一組邊緣點(diǎn)作為焊寬計算的特征點(diǎn),由于焊縫寬度并不固定,因此共取n組邊緣點(diǎn)計算,取平均值作為焊縫的焊寬,計算公式為

        式中:為焊縫焊寬;(x1,y1,z1)、(x2,y2,z2)為左、右邊緣點(diǎn)的三維坐標(biāo)。

        焊縫的余高是焊縫頂端至管道切面的垂直距離,由于不能直接測量,因此在焊縫表面提取3 個坐標(biāo)點(diǎn)構(gòu)成三維平面,求解該平面的法向量再求出單位法向量(i,j,k),取焊縫最高點(diǎn)到該法向量的投影即得到焊縫余高。共取n個最高點(diǎn)分別計算對應(yīng)的余高后取平均得到焊縫的余高。其公式為

        式中:為焊縫余高;各點(diǎn)與管道表面點(diǎn)構(gòu)成的向量為(xm,ym,zm)。

        提取焊縫首尾兩端點(diǎn)的三維坐標(biāo),通過點(diǎn)到點(diǎn)距離公式計算焊縫的長度。共取10 組邊緣點(diǎn)以及10 個焊縫最高點(diǎn)計算焊縫的焊寬與余高,將提取的三維坐標(biāo)代入式(20)(21)中,分別計算得到焊縫的焊寬、余高以及長度,計算結(jié)果以及與目前其他學(xué)者研究的誤差對比如表4 所示,表中焊縫真實(shí)值由游標(biāo)卡尺測得。

        表4 焊縫三維測量值以及誤差對比Tab.4 Comparison of 3D measurement values and errors of weld seams

        4 結(jié)論與展望

        為解決相機(jī)在不同位姿下焊縫圖像重構(gòu)誤差大、三維測量尺寸精度低的問題,建立雙目立體視覺模型補(bǔ)償相機(jī)不同位姿下圖像點(diǎn)坐標(biāo)的誤差。針對雙目立體視覺圖像坐標(biāo)點(diǎn)的誤差預(yù)測和補(bǔ)償,提出IGWOGRNN 建立圖像點(diǎn)坐標(biāo)的誤差補(bǔ)償模型,并搭建試驗臺對模型進(jìn)行驗證。

        (1)基于GWO 優(yōu)化算法提出了IGWO 算法,該算法分別對GWO 的種群初始化、位置更新以及收斂因子三方面進(jìn)行改進(jìn),引入Tent 映射加強(qiáng)種群初始化的豐富性,引入粒子群最優(yōu)記憶保存位置更新策略,同時引入余弦收斂因子代替原算法中的線性收斂因子,提高算法的收斂速度,避免陷入局部最優(yōu)。

        (2)根據(jù)IGWO 算法建立IGWO-GRNN 模型,基于GRNN 網(wǎng)絡(luò)預(yù)測得到的RMSE 值作為IGWO 算法的目標(biāo)函數(shù),求解使RMSE 值最小時的GRNN 平滑因子作為最優(yōu)平滑因子。將相機(jī)位姿信息以及左、右相機(jī)圖像坐標(biāo)點(diǎn)的像素坐標(biāo)作為IGWO-GRNN 模型的輸入,預(yù)測三維點(diǎn)x、y、z坐標(biāo)的誤差,驗證預(yù)測的平均誤差為6.52×10-4mm。

        (3)搭建雙目立體視覺測量試驗臺,提取不同相機(jī)位姿下的焊縫圖片,基于IGWO-GRNN 模型預(yù)測焊縫三維重構(gòu)坐標(biāo)點(diǎn)的誤差,與真實(shí)值比較,驗證得到x、y方向坐標(biāo)的重構(gòu)誤差在8×10-4mm 以內(nèi),z方向坐標(biāo)的重構(gòu)誤差在6×10-3mm 以內(nèi),并繪制重構(gòu)后的焊縫三維點(diǎn)云圖計算焊縫的焊寬、余高和長度。研究結(jié)果表明:提出的IGWO-GRNN 模型收斂精度高,迭代速度快,具有強(qiáng)泛化能力,對不同位姿狀態(tài)下的雙目相機(jī)采集的圖像誤差補(bǔ)償都有極高的精度。

        猜你喜歡
        雙目重構(gòu)像素
        趙運(yùn)哲作品
        藝術(shù)家(2023年8期)2023-11-02 02:05:28
        像素前線之“幻影”2000
        長城敘事的重構(gòu)
        攝影世界(2022年1期)2022-01-21 10:50:14
        基于雙目測距的卡爾曼濾波船舶軌跡跟蹤
        電子制作(2019年20期)2019-12-04 03:51:38
        “像素”仙人掌
        北方大陸 重構(gòu)未來
        北京的重構(gòu)與再造
        商周刊(2017年6期)2017-08-22 03:42:36
        論中止行為及其對中止犯的重構(gòu)
        高像素不是全部
        CHIP新電腦(2016年3期)2016-03-10 14:22:03
        基于雙目視覺圖像的長度測量方法
        大香蕉视频在线青青草| 欧美成人激情在线| 日本老熟妇毛茸茸| 欧美日韩在线观看免费| 国产系列丝袜熟女精品视频| 日本高清一区二区在线观看| 国产日产在线视频一区| 国产精品无码无片在线观看3d| 日韩无码无播放器视频| 免费高清视频在线观看视频| 国产成人精品日本亚洲i8| 人人爽人人爽人人片av| 国内精品久久久久久久久齐齐| 久久精品国产亚洲av成人擦边| 日本亚洲视频免费在线看| 朋友的丰满人妻中文字幕| 亚洲欧美精品伊人久久| 一区二区无码精油按摩| 开心激情视频亚洲老熟女| 又粗又黄又猛又爽大片免费| 波多野结衣中文字幕在线视频| 久久久精品亚洲懂色av| 人妻一区二区三区av| av国产传媒精品免费| 蜜桃精品免费久久久久影院| 丝袜 亚洲 另类 欧美| 日本一区二区三区光视频| 欧美另类人妖| 欧美三级免费网站| 给我播放的视频在线观看| 无码专区一ⅴa亚洲v天堂 | 亚洲精品久久久久久| 熟妇与小伙子露脸对白| 漂亮丰满人妻被中出中文字幕| 亚洲男人av天堂午夜在| 手机看片国产日韩| 亚洲综合久久精品少妇av| 国产激情无码一区二区三区| 在线一区不卡网址观看| 亚洲精品国产二区在线观看| 免费不卡无码av在线观看|