熊希曦, 王旭紅, 文藝
(長沙理工大學(xué)電氣與信息工程學(xué)院, 湖南 長沙 410004)
目前城市配電網(wǎng)的中低壓線路中(即10 kV 及以下電壓等級(jí)) 通常是架空絕緣電纜安裝。 但是在檢修電纜及設(shè)備時(shí), 為了保障檢修人員的人身安全需要驗(yàn)明線路無電后掛設(shè)接地保護(hù)線。 如果是配電網(wǎng)人工帶電將接地線掛上接地環(huán), 工作人員往往需要穿上密不透風(fēng)的絕緣服、 隨身攜帶各種設(shè)備工具, 在高空長時(shí)間作業(yè), 危險(xiǎn)性高且作業(yè)效率低[1]。 因此采用帶電作業(yè)機(jī)器人代替人工作業(yè),而如何實(shí)現(xiàn)接地環(huán)的精準(zhǔn)識(shí)別與定位是實(shí)現(xiàn)機(jī)器人作業(yè)的重點(diǎn)與難點(diǎn)。
基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法在配電網(wǎng)金具識(shí)別領(lǐng)域應(yīng)用越來越廣泛[2-3]。 王素珍等人采用改進(jìn)后的YOLOv5 算法對(duì)絕緣子進(jìn)行了識(shí)別[4]; 武建超等人在YOLOv4-tiny 的基礎(chǔ)上引入了空洞空間卷積池化金字塔模塊, 這種改進(jìn)后的網(wǎng)絡(luò)實(shí)現(xiàn)了輸電線路典型目標(biāo)的識(shí)別[5]; 戴永東等人將改進(jìn)后的Faster-RCNN 網(wǎng)絡(luò)運(yùn)用在均壓環(huán)和絕緣子識(shí)別范疇[6]。 以上這些目標(biāo)檢測(cè)算法很難同時(shí)兼顧檢測(cè)的速度與精度。 本文提出一種改進(jìn)的YOLOX-S 配電網(wǎng)接地環(huán)視覺識(shí)別方法, 在保留目標(biāo)檢測(cè)算法速度的同時(shí), 提高檢測(cè)的精度。
在目標(biāo)測(cè)距與定位方面, 陳遠(yuǎn)設(shè)計(jì)了基于超聲波傳感的目標(biāo)定位系統(tǒng)[7]; 雷艷敏等人采用激光測(cè)距儀對(duì)動(dòng)靜態(tài)目標(biāo)進(jìn)行了位置檢測(cè)[8]; 王澤民等人利用單目視覺進(jìn)行目標(biāo)測(cè)距并分析了影響精度的因素[9]。 這些基于超聲波技術(shù)、 紅外技術(shù)、 激光技術(shù)的測(cè)距方法魯棒性差且成本高。 采用單目視覺進(jìn)行測(cè)距的條件過于理想, 不切合實(shí)際, 而雙目視覺就很好地解決了這一問題, 二者相比, 雙目視覺在測(cè)距定位領(lǐng)域的應(yīng)用精度更高。 因此, 本文提出一種基于雙目視覺的配電網(wǎng)接地環(huán)定位方法。
本文提出的基于改進(jìn)YOLOX-S 的接地環(huán)識(shí)別方法和基于雙目視覺的接地環(huán)定位方法, 可降低帶電作業(yè)的難度和安全風(fēng)險(xiǎn), 提高配電網(wǎng)帶電作業(yè)的自動(dòng)化水平。
2021 年, YOLOX 算法的提出, 將目標(biāo)檢測(cè)領(lǐng)域的解耦頭、 無錨框、 數(shù)據(jù)增強(qiáng)及標(biāo)簽分類等進(jìn)行了巧妙的運(yùn)用。 YOLOX 算法的輸入為640×640 的三通道圖像, 輸入圖像經(jīng)過主干特征提取網(wǎng)絡(luò)(CSPDarknet) 進(jìn)行淺層特征提取[10], 然后傳入到PAFPN 特征利用層, 由PAFPN 對(duì)三個(gè)維度的特征圖進(jìn)行特征融合, 最后傳入到三個(gè)Decoupled Head, 置信度和回歸框都由Decoupled Head 實(shí)現(xiàn),在預(yù)測(cè)時(shí)合成為一體, 將三個(gè)預(yù)測(cè)結(jié)果進(jìn)行組合。各個(gè)特征層的輸出:h、w、x、y、Fobj、Fcls, 其中前四個(gè)參數(shù)用來確定每個(gè)特征點(diǎn)的回歸參數(shù), 以便獲得預(yù)測(cè)框位置; 第五個(gè)參數(shù)用來判斷每個(gè)特征點(diǎn)是否包含物體; 最后一個(gè)參數(shù)用來判斷每個(gè)特征點(diǎn)所包含物體的類別[11]。 YOLOX 相比于之前的YOLO 系列最大的進(jìn)步就是實(shí)現(xiàn)了anchorfree, 而這一突破得益于SimOTA, 即動(dòng)態(tài)樣本匹配,SimOTA 為每個(gè)正樣本分配一個(gè)GT 框, 讓正樣本去擬合該GT 框, 起到替代anchor 方案去擬合anchor的作用。 圖1 為YOLOX 的網(wǎng)絡(luò)結(jié)構(gòu)圖。 YOLOX 根據(jù)參數(shù)量的不同分為YOLOX-S、 YOLOX-M、YOLOX-L、 YOLOX-X, 其中YOLOX-S 由于參數(shù)量最少而被廣泛應(yīng)用。
圖1 YOLOX 網(wǎng)絡(luò)結(jié)構(gòu)圖
為提升YOLOX-S 模型的檢測(cè)速度和精度, 分別從網(wǎng)絡(luò)結(jié)構(gòu)和損失函數(shù)兩部分對(duì)此模型進(jìn)行改進(jìn)。
1.2.1 網(wǎng)絡(luò)結(jié)構(gòu)
為了充分利用圖像的底層信息, 將頸部的PAFPN 特征利用層用BiFPN 網(wǎng)絡(luò)替代, 以提高檢測(cè)精度。 PAFPN 是一種均衡對(duì)待各個(gè)尺度的特征融合方式, 但不同輸入特征的分辨率是不同的, 而且他們對(duì)輸出特征的付出也是不同的[12], 為處理好這種情況, BiFPN 為每個(gè)輸入引入了權(quán)重, 更好地協(xié)調(diào)不同尺度的圖像特征。
BiFPN 網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示, 藍(lán)色箭頭代表下采樣, 紅色箭頭代表上采樣。P3—P7為五個(gè)輸入特征(在圖像矩陣中), 在進(jìn)行下采樣、 上采樣和融合之后得到五個(gè)輸出特征。 BiFPN 網(wǎng)絡(luò)為每個(gè)特征分支提供一個(gè)權(quán)重值, 如式(1), 通過網(wǎng)絡(luò)的自學(xué)習(xí)得到最佳權(quán)重值。
圖2 BiFPN 網(wǎng)絡(luò)結(jié)構(gòu)
式中,I、O分別表示輸入和輸出特征, 使用ReLU函數(shù)使得ωi≥0,ε取極小值0.000 1 來保證數(shù)值穩(wěn)定。
因?yàn)閅OLOX-S 的主干特征提取網(wǎng)絡(luò)是對(duì)中間層、 中下層和底層進(jìn)行特征提取, 輸出為三個(gè)特征分支, 而BiFPN 網(wǎng)絡(luò)的輸入為五個(gè)特征層, 所以必須對(duì)BiFPN 網(wǎng)絡(luò)加以簡化。 經(jīng)過改進(jìn)后的BiFPN網(wǎng)絡(luò)結(jié)構(gòu)如圖3 所示, 輸入為三個(gè)特征層, 輸出也是三個(gè)特征層[13], 這不但適應(yīng)了YOLOX-S 網(wǎng)絡(luò)結(jié)構(gòu), 還降低了模型的計(jì)算量。
圖3 改進(jìn)后的BiFPN 網(wǎng)絡(luò)結(jié)構(gòu)
結(jié)合式(1) 可以得到各節(jié)點(diǎn)輸出特征的計(jì)算公式, 如式(2) — (5)。
式中,Conv為卷積和多項(xiàng)式乘法的函數(shù); 下標(biāo)u、d 分別為上采樣和下采樣操作;ω表示權(quán)重。 改進(jìn)后的YOLOX 網(wǎng)絡(luò)架構(gòu)如圖4 所示。
圖4 改進(jìn)后的YOLOX 網(wǎng)絡(luò)整體結(jié)構(gòu)圖
1.2.2 損失函數(shù)
使用GIoU 作為定位損失函數(shù)。 原YOLOX 是使用IoU 作為邊界框損失函數(shù), 將IoU 同時(shí)作為度量和損失函數(shù)時(shí), 會(huì)產(chǎn)生兩個(gè)問題。 第一, 若兩個(gè)目標(biāo)之間沒有重合的部分, 這時(shí)IoU 就為0, 無法正確反映兩個(gè)目標(biāo)之間的距離; 若將這種情況下的IoU 作為定位損失函數(shù), 梯度就會(huì)為0, 因此無法實(shí)現(xiàn)優(yōu)化訓(xùn)練。 第二, 不同方向上有相同重合水平的兩個(gè)對(duì)象的IoU 會(huì)完全相同[14], 因此無法確定這兩個(gè)對(duì)象間的對(duì)齊方式。 為了處理這兩個(gè)問題,引入GIoU-Loss 作為定位損失函數(shù)。 GIoU 函數(shù)和GIoU-Loss 公式如式(6)、 (7) 所示。
圖5 為GIoU 示意圖, 其中,C表示能同時(shí)包住A和B的最小包圍框。 GIoU 作為度量時(shí)具備如下五個(gè)特性: 1) GIoU 作為距離時(shí), GIoU-Loss 具有非負(fù)性、 對(duì)稱性、 三角不等性和不確定性;2) GIoU具有尺度不變性, 即對(duì)尺度不敏感[15];3) GIoU(A,B) ≤IoU(A,B) , 當(dāng)A和B形狀相似且無限接近時(shí),;4)-1 ≤GIoU(A,B) ≤1; 5) GIoU 函數(shù)不僅考慮了A和B不重疊的情況, 而且能夠體現(xiàn)A和B重疊時(shí)的方式[13]。
圖5 GIoU 示意圖
1.2.3 置信度預(yù)測(cè)損失函數(shù)
使用Focal Loss 作為置信度預(yù)測(cè)損失函數(shù)。 原YOLOX 利用二元交叉熵?fù)p失作為置信度預(yù)測(cè)損失,出現(xiàn)了正負(fù)樣本不均衡問題。 因此使用Focal Loss來達(dá)到兩階段檢測(cè)算法的精度并保留一階段檢測(cè)算法的速度。 Focal Loss 函數(shù)的表達(dá)式如式 (8)所示。
Focal Loss 就是在二元交叉熵?fù)p失的基礎(chǔ)上增加了αt和兩項(xiàng),其中,用來調(diào)整難易分類樣本的比重,αt對(duì)經(jīng)過系數(shù)衰減后的損失再進(jìn)行調(diào)整。
數(shù)字圖像成像原理就是小孔成像。 任何一個(gè)點(diǎn)接收到光照以后就會(huì)向四周輻射光源, 當(dāng)一條光線穿過一個(gè)擋板小孔時(shí), 就會(huì)落在背面感光面的一點(diǎn)上。 如果觀測(cè)場(chǎng)景中的每個(gè)點(diǎn)都有一條光線穿過小孔落在感光面上, 那么感光面上就形成了一個(gè)和觀測(cè)世界完全對(duì)應(yīng)起來的像。
雙目視覺是利用兩個(gè)攝像頭模擬人的雙眼對(duì)同一物體形成視差, 從而能夠感知到三維世界。 雙目立體成像的實(shí)現(xiàn)是基于視差原理, 模型如圖6所示。
圖6 三角測(cè)量原理
兩臺(tái)相機(jī)的像平面精確處于同一平面上, 且光軸嚴(yán)格平行, 間距一定, 焦距相同fx=fy, 并且左主點(diǎn)和右主點(diǎn)已經(jīng)過校準(zhǔn), 即主點(diǎn)在左右圖像上像素、 坐標(biāo)一致。 模型中的兩幅圖像是對(duì)準(zhǔn)的, 并且每一行是嚴(yán)格對(duì)準(zhǔn)的, 具有一致的方向和列坐標(biāo)。假設(shè)物理世界中的點(diǎn)P在圖像上的成像點(diǎn)為Pl和Pr, 相應(yīng)的橫坐標(biāo)分別為xl和xr[16]。 兩個(gè)相機(jī)的投影中心的連線叫作基線, 用b表示。 根據(jù)三角形相似原理有式(9):
解得
式中,xl - xr稱為視差, 用d表示。 則式(10) 可改寫成:
由上式可知, 由于b、f是已知的, 只要求得某點(diǎn)的視差即可得到該點(diǎn)的深度信息。
相機(jī)的外參數(shù)是指相機(jī)坐標(biāo)系相對(duì)于世界坐標(biāo)系的一個(gè)旋轉(zhuǎn)平移矩陣參數(shù), 包括三個(gè)自由度的旋轉(zhuǎn)矩陣和三個(gè)自由度的平移矩陣, 從世界坐標(biāo)系到相機(jī)坐標(biāo)系的轉(zhuǎn)換是一個(gè)三維空間到三維空間的轉(zhuǎn)換[17]。 內(nèi)參數(shù)通常是指相機(jī)內(nèi)部的參數(shù), 包括主點(diǎn)、 主距、x軸和y軸方向的像素尺寸及畸變參數(shù)。 各坐標(biāo)系之間的轉(zhuǎn)換關(guān)系如圖7 所示。
圖7 各坐標(biāo)系及其轉(zhuǎn)換示意圖
世界坐標(biāo)系到相機(jī)坐標(biāo)系的轉(zhuǎn)換:M表示世界坐標(biāo)系中的一點(diǎn),m表示像平面坐標(biāo)系中對(duì)應(yīng)的點(diǎn)。 利用一個(gè)旋轉(zhuǎn)矩陣和一個(gè)平移矩陣可以實(shí)現(xiàn)三維空間的坐標(biāo)變換, 即一個(gè)三維目標(biāo)點(diǎn)在世界坐標(biāo)系和相機(jī)空間坐標(biāo)系下的轉(zhuǎn)換關(guān)系可以通過一個(gè)旋轉(zhuǎn)和一個(gè)平移矩陣運(yùn)算得到。
式中,C為相機(jī)空間坐標(biāo)系中的一個(gè)點(diǎn);W為世界坐標(biāo)系中的一個(gè)點(diǎn);t=- RC。
暫時(shí)不考慮畸變因素的影響, 相機(jī)空間坐標(biāo)系和像平面坐標(biāo)系的關(guān)系存在一個(gè)相似性變換, 如式(12) 所示。
像平面坐標(biāo)系到像素坐標(biāo)系的轉(zhuǎn)換: 定義主點(diǎn)O的像素坐標(biāo)為(u0,v0), 從像平面坐標(biāo)系轉(zhuǎn)換到像素坐標(biāo)系存在一個(gè)比例, 此比例和像素的物理尺寸相關(guān)。 世界坐標(biāo)系到相機(jī)坐標(biāo)系以及相機(jī)坐標(biāo)系到像平面坐標(biāo)系的轉(zhuǎn)換都是在物理坐標(biāo)系[18](以m 或者mm 為單位) 下, 但是從像平面轉(zhuǎn)換到像素平面就存在一個(gè)像素對(duì)應(yīng)多少單位長度的問題,px、py代表一個(gè)像素在物理尺寸上的寬和高,利用這兩個(gè)量可以把坐標(biāo)值從物理尺寸過渡到像素整形尺寸, 如式(13) 所示。 像平面坐標(biāo)系與像素坐標(biāo)系之間的轉(zhuǎn)換如圖8 所示。 由于加工的問題, 感光元器件可能不是一個(gè)絕對(duì)的正方形, 而是一個(gè)平行四邊形。
圖8 像平面坐標(biāo)系到像素坐標(biāo)系的轉(zhuǎn)換示意圖
把上式簡化得:
式中,f為焦距;fx、fy是以像素為單位的在行和列方向上測(cè)量的焦距尺寸;s是由非矩形像素引起的傾斜因子, 由于傾斜角α很小, tanα接近于0, 通常s=0[19]。 上述的上三角矩陣稱為內(nèi)參矩陣, 并使用符號(hào)K表示。
綜合公式(11) 和(14), 場(chǎng)景中的三維點(diǎn)M(XM,YM,ZM) 投影到二維像素平面上的點(diǎn)m(um,vm) 的投影方程可以表示如下:
即:
式中,K表示內(nèi)參數(shù)矩陣;R表示外參數(shù)的旋轉(zhuǎn)矩陣;t表示外參數(shù)的平移矩陣;K(R t) 組合起來構(gòu)成相機(jī)矩陣。
相機(jī)標(biāo)定的目的是利用給定物體的參考點(diǎn)坐標(biāo)(x,y,z) 和像素坐標(biāo)(u,v) 來確定相機(jī)內(nèi)部的幾何學(xué)結(jié)構(gòu)和光學(xué)特征(內(nèi)部參數(shù)), 以及相機(jī)的三維世界坐標(biāo)關(guān)系(外部參數(shù))。 最常見的相機(jī)標(biāo)定方法是傳統(tǒng)的相機(jī)標(biāo)定法, 在一定相機(jī)模型下, 基于特定的試驗(yàn)條件(如形狀、 尺寸等已知的參照物進(jìn)行圖像處理、 數(shù)學(xué)變換等) 求取內(nèi)外參數(shù)的過程。 但是這種方法需要經(jīng)常調(diào)整相機(jī)的需求和設(shè)置已知參照物, 存在不現(xiàn)實(shí)、 適應(yīng)性差的缺點(diǎn)。 為克服傳統(tǒng)相機(jī)標(biāo)定法的缺點(diǎn), 張正友博士對(duì)這種方法進(jìn)行了改進(jìn)并提出了張正友標(biāo)定法。 該方法介于傳統(tǒng)相機(jī)標(biāo)定法和自標(biāo)定法之間, 既解決了傳統(tǒng)相機(jī)標(biāo)定法需要高精度三維標(biāo)定物的不足, 又克服了自標(biāo)定法魯棒性差的難點(diǎn)。 標(biāo)定過程只需使用一個(gè)打印出來的棋盤格, 并在各個(gè)方位拍攝幾組照片即可, 不僅實(shí)用、 靈活、 方便, 而且精度更高、 魯棒性更強(qiáng)。 因?yàn)槠灞P格相對(duì)于三維物體更容易處理, 從而選擇棋盤格作為標(biāo)定物。 與此同時(shí),相對(duì)于三維物體, 二維物體會(huì)缺少部分信息, 因此通過多次改變棋盤格的方位來捕獲圖像, 以獲得更豐富的位置信息。
完成相機(jī)內(nèi)外參數(shù)求取后, 標(biāo)定鏡頭畸變。 張正友標(biāo)定法只考慮了畸變模型中有較大影響的徑向畸變, 根據(jù)最小二乘法求解徑向畸變系數(shù)[20]。 至此, 相機(jī)的內(nèi)參、 外參和畸變系數(shù)已被全部求出,但直接求取結(jié)果只能作為初值。 接著, 根據(jù)實(shí)際的像素坐標(biāo)和計(jì)算得到的像素坐標(biāo)計(jì)算重投影誤差,最小化重投影誤差, 反復(fù)迭代相機(jī)的內(nèi)外參數(shù)和畸變系數(shù)直至收斂。
立體匹配算法是通過最小化能量代價(jià)函數(shù)來估計(jì)像素點(diǎn)視差值。 按照采用的最優(yōu)化理論方法的不同, 將立體匹配算法分為局部匹配算法和全局匹配算法、 半全局匹配算法。 局部匹配算法的匹配精度低但速度快, 全局匹配算法的匹配精度高但速度慢, 而半全局匹配算法正好介于二者之間。 半全局匹配算法的代表有雙目立體匹配 (semi-global block matching, SGBM) 算法, 本文采用此算法來完成雙目左右圖像的立體匹配。 半全局算法利用多個(gè)方向上的信息減少或消除視差突變處產(chǎn)生的錯(cuò)誤信息干擾。 SGBM 算法通過圖像上多個(gè)方向的一維路徑約束來建立全局馬爾可夫能量方程, 從而獲得每個(gè)像素的匹配代價(jià), 即所有方向路徑信息的總和。 SGBM 算法的匹配代價(jià)函數(shù)如下:
式中,L(p,d) 為當(dāng)前路徑積累的代價(jià)函數(shù);d為視差;c(p,d) 為像素點(diǎn)p以d為視差的代價(jià);r為指向像素點(diǎn)p的路徑方向;P1是像素點(diǎn)與相鄰點(diǎn)視差存在較小差異時(shí)的平滑懲罰系數(shù),P2是像素點(diǎn)與相鄰點(diǎn)視差存在較大差異時(shí)的平滑懲罰系數(shù), 又因?yàn)镻1 3.1.1 試驗(yàn)環(huán)境 將改進(jìn)后的YOLOX-S 模型部署在上位機(jī)上,從而控制帶電作業(yè)機(jī)器人對(duì)配電網(wǎng)接地環(huán)進(jìn)行識(shí)別試驗(yàn), 試驗(yàn)設(shè)備及型號(hào)見表1。 3.1.2 數(shù)據(jù)集與預(yù)處理 對(duì)于接地環(huán)識(shí)別方法, 為了使模型具有更好的效果, 采集1 083 張包含接地環(huán)的圖像作為數(shù)據(jù)集。 對(duì)數(shù)據(jù)集進(jìn)行縮放、 旋轉(zhuǎn)、 翻轉(zhuǎn)、 平移等預(yù)處理, 如圖9 所示, 數(shù)據(jù)集擴(kuò)充到5 415 張, 標(biāo)簽為ground_ring。 對(duì)數(shù)據(jù)集按9 ∶1 的比例分配訓(xùn)練集與測(cè)試集, 其中將訓(xùn)練集的20%作為驗(yàn)證集。 圖9 數(shù)據(jù)集擴(kuò)充 3.1.3 訓(xùn)練過程 為了節(jié)約時(shí)間和資源, 采取凍結(jié)訓(xùn)練的方式,共迭代300 次, 訓(xùn)練參數(shù)見表2。 表2 訓(xùn)練參數(shù) 從表2 可以看出, 前100 次迭代采用凍結(jié)訓(xùn)練, 批量樣本數(shù)為8, 學(xué)習(xí)率為10-3; 后200 次迭代采用解凍訓(xùn)練, 批量樣本數(shù)為4, 學(xué)習(xí)率為10-4, 訓(xùn)練的整個(gè)過程都采用Adam 優(yōu)化器。 訓(xùn)練過程的損失函數(shù)曲線如圖10 所示。 圖10 損失函數(shù)曲線 從圖中可以看到, 訓(xùn)練集損失和驗(yàn)證集損失在前25 次迭代都急劇下降, 在第25 次迭代到第100次迭代之間下降緩慢, 在第100 次迭代之后趨于收斂, 訓(xùn)練集損失和驗(yàn)證集損失都收斂于0.67。 3.1.4 試驗(yàn)結(jié)果分析 為了評(píng)價(jià)改進(jìn)后的YOLOX-S 網(wǎng)絡(luò)的性能優(yōu)劣, 采用平均精度(AP)、 召回率(Recall)、 模型大小、 推理時(shí)間作為評(píng)價(jià)指標(biāo)。 其中, 召回率(Recall) 表示被預(yù)測(cè)為正樣本的數(shù)量與所有正樣本數(shù)量的比值。 根據(jù)每個(gè)召回率可以獲得對(duì)應(yīng)的最大精確率, 把所有正樣本的最大精確率取平均值就是平均精度(AP)。 圖11 (a) — (d) 4 組圖像分別是原圖及經(jīng)過YOLOv5s 模型、 YOLOX-S 模型、 改進(jìn)YOLOXS 模型測(cè)試的結(jié)果, 可以看出YOLOv5s 模型對(duì)于從側(cè)面傾斜拍攝的接地環(huán)出現(xiàn)了漏檢情況,YOLOX-S 模型對(duì)非接地環(huán)物體產(chǎn)生誤檢。 對(duì)表3分析可得, 改進(jìn)后的YOLOX-S 模型的平均精度比改進(jìn)前提升了約5%, 比YOLOv5s 模型提升了約6%, 達(dá)到了96.98%; 召回率亦是三種模型中最高的。 雖然改進(jìn)后的YOLOX-S 模型比其他兩種模型略大, 但是每幀推理時(shí)間相當(dāng)。 表3 模型性能分析 圖11 接地環(huán)識(shí)別結(jié)果 按照雙目測(cè)距原理、 坐標(biāo)系轉(zhuǎn)換關(guān)系及相機(jī)標(biāo)定、 畸變校正和立體匹配方法完成試驗(yàn), 其中世界坐標(biāo)系與左相機(jī)坐標(biāo)系重合, 雙目測(cè)距的流程如圖12 所示。 圖12 雙目測(cè)距流程 張正友標(biāo)定法通過固定相機(jī)拍攝不同位置和姿態(tài)的平面標(biāo)定板, 建立三維世界坐標(biāo)與二維像素坐標(biāo)之間的關(guān)系。 對(duì)線性求解的相機(jī)內(nèi)外參數(shù)和畸變系數(shù)通過Levenberg-Marquardt (LM) 算法進(jìn)行非線性參數(shù)優(yōu)化, 理論精度高, 有利于提升定位精度。 因此, 選用張正友標(biāo)定法對(duì)雙目相機(jī)進(jìn)行標(biāo)定, 建立相機(jī)成像幾何模型并校正鏡頭畸變。 表4、 表5 分別給出了雙目相機(jī)內(nèi)參矩陣和畸變系數(shù)、雙目相機(jī)外參矩陣。 表4 雙目相機(jī)內(nèi)參矩陣和畸變系數(shù) 表5 雙目相機(jī)外參矩陣 校正后的圖像利用SGBM 算法進(jìn)行立體匹配,得到各個(gè)像素點(diǎn)的視差, 從而根據(jù)式(10) 得到各點(diǎn)深度。 對(duì)采集到的接地環(huán)圖像進(jìn)行雙目測(cè)距試驗(yàn), 得到的結(jié)果如圖13 所示。 圖13 雙目測(cè)距試驗(yàn)結(jié)果 本試驗(yàn)將每個(gè)樣本的測(cè)量值與實(shí)際值進(jìn)行對(duì)比得到誤差, 部分樣本結(jié)果見表6。 表6 雙目測(cè)距測(cè)量值與實(shí)際值對(duì)比 通過計(jì)算可得, 所有試驗(yàn)樣本中最大測(cè)量誤差為2.1 cm, 最小測(cè)量誤差是0.4 cm, 樣本的測(cè)量誤差控制在3%以內(nèi), 滿足帶電作業(yè)機(jī)器人掛設(shè)接地保護(hù)線精準(zhǔn)定位的要求。 針對(duì)帶電作業(yè)機(jī)器人掛線過程中對(duì)接地環(huán)的識(shí)別與定位, 提出一種改進(jìn)的YOLOX-S 算法和雙目定位方法。 在改進(jìn)的YOLOX-S 算法中, 為了充分利用圖像的底層信息, 將頸部的PAFPN 特征利用層用BiFPN 網(wǎng)絡(luò)來替代, 以提高檢測(cè)精度; 采用GIoU 函數(shù)作為定位損失函數(shù)有利于網(wǎng)絡(luò)的迭代優(yōu)化; 利用Focal Loss 函數(shù)作為置信度預(yù)測(cè)損失函數(shù)解決正負(fù)樣本不均衡的問題。 采用雙目定位方法,首先對(duì)雙目相機(jī)采用張正友標(biāo)定法進(jìn)行標(biāo)定, 獲得相機(jī)內(nèi)外參數(shù)和畸變系數(shù)并進(jìn)行立體校正; 再采用SGBM 算法對(duì)左右圖像進(jìn)行立體匹配, 獲得視差;最后根據(jù)視差, 利用三角測(cè)量原理和重投影矩陣獲得接地環(huán)的坐標(biāo)和距離。 將改進(jìn)后的YOLOX-S 算法和雙目定位方法應(yīng)用于帶電作業(yè)機(jī)器人進(jìn)行識(shí)別和定位試驗(yàn), 試驗(yàn)結(jié)果表明改進(jìn)后的YOLOX-S 模型具有更高的識(shí)別精度且能實(shí)現(xiàn)精準(zhǔn)定位。 本文所提出的識(shí)別和定位方法能完成帶電作業(yè)機(jī)器人掛設(shè)接地保護(hù)線的任務(wù),并可推廣到電力機(jī)器人的其他作業(yè)領(lǐng)域。3 試驗(yàn)分析
3.1 配電網(wǎng)接地環(huán)視覺識(shí)別試驗(yàn)
3.2 配電網(wǎng)接地環(huán)定位試驗(yàn)
4 結(jié)論