亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于分布式無線傳感網(wǎng)絡(luò)的電纜隧道無人機巡檢技術(shù)

        2022-09-14 08:20:08馬聰李德泉汪培月王興振侯建峰
        電子設(shè)計工程 2022年17期
        關(guān)鍵詞:姿態(tài)元件卷積

        馬聰,李德泉,汪培月,王興振,侯建峰

        (國網(wǎng)山東省電力公司濟南供電公司,山東濟南 250000)

        隨著計算機科學(xué)、智能電站的快速發(fā)展,電纜隧道巡檢手段不斷從人工巡檢向智能巡檢的方向發(fā)展。電站管理人員借助物聯(lián)網(wǎng)等通信設(shè)備可以進行遠程巡檢,大幅度提高了巡檢效率,降低了人員受傷的可能。

        具有自主導(dǎo)航和環(huán)境感知能力的無人機在物流、運輸、偵察等領(lǐng)域應(yīng)用廣泛,但大多數(shù)無人機并不適合在電纜隧道內(nèi)使用,即使訓(xùn)練有素、經(jīng)驗豐富的飛行員也難以確保絕對安全的遠程操作。

        為了實現(xiàn)大規(guī)模的智能化隧道巡檢,該文采用了可以廣泛部署的低成本傳感器,總體設(shè)計了基于擴展卡爾曼濾波器(EKF)的多傳感器融合框架。由于隧道圖像的共同背景和色彩紋理較為復(fù)雜,該文提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)特征的快速深度卷積神經(jīng)網(wǎng)絡(luò)(R-CNN)方法來定位故障元件,將目標(biāo)分類問題轉(zhuǎn)化為目標(biāo)檢測和識別問題。使用轉(zhuǎn)移學(xué)習(xí)的方法學(xué)習(xí)目標(biāo)的基本特征,并根據(jù)學(xué)習(xí)結(jié)果在圖像中準(zhǔn)確定位故障區(qū)域。

        1 無人機傳感網(wǎng)絡(luò)設(shè)計

        該文設(shè)計的系統(tǒng)架構(gòu)包括傳感器、軟件算法模塊、基于擴展卡爾曼濾波的多傳感器融合框架等[1],具體如圖1 所示。

        圖1 自主無人機的整體系統(tǒng)架構(gòu)

        為了實現(xiàn)魯棒的隧道內(nèi)自主導(dǎo)航,無人機傳感系統(tǒng)由一個2D 激光雷達、一個測距激光雷達、3 個攝像頭(向前、向上和向下)和一個慣性測量單元組成。

        在實現(xiàn)無人機的自主運動前,需要無人機所處的環(huán)境地圖[2]。該文基于XML 標(biāo)簽,在坐標(biāo)系中存儲無人機的位置和姿態(tài),然后將這些姿勢附加到每個機架的預(yù)定位置。當(dāng)無人機觀察到標(biāo)簽時,即可根據(jù)標(biāo)簽識別所計算出的結(jié)果更新無人機的定位信息。

        該文假設(shè)IMU 傳感器的姿態(tài)與UAV 的姿態(tài)相同。EKF 的狀態(tài)由以下位置組成:坐標(biāo)框架{W}中IMU 的定位向量為pw,速度向量為vw,其方向四元數(shù)描述了IMU 相對于W的旋轉(zhuǎn),陀螺儀偏置為qw,加速度計偏置[3]為ba。無人機的總體狀態(tài)由16 維狀態(tài)向量x表示:

        從而可以得出以下微分方程:

        其中,Rw是與四元數(shù)qw相對應(yīng)的旋轉(zhuǎn)矩陣,am是IMU測得的加速度[4],na、nbω、nba是高斯噪聲[5]。該文將偏置項建模為隨機浮動,取微分方程式(2)-(6)的期望值,并定義式(1)的誤差狀態(tài)向量Δx,得到線性化的誤差狀態(tài)方程。測量模型將狀態(tài)向量和傳感器測量值關(guān)聯(lián)為:

        其中,z是測量向量,如位置、歐拉角和姿態(tài);h(x)是相應(yīng)的測量模型;n是高斯測量噪聲[6]。該次采用模塊化多傳感器融合框架,其中各個傳感器的測量數(shù)據(jù)更新相互融合,以獲得狀態(tài)的最佳估計。

        文中用于更新EKF 濾波器的最小傳感器系統(tǒng)包括:1)攝像頭:測量6D 絕對姿態(tài)機架上標(biāo)簽的姿態(tài)。2)2D 激光掃描儀以及IMU 傳感器。3)下視測距傳感器:估計無人機的高度。

        從理論上講,此概念應(yīng)保證足夠一致的結(jié)果,因為通過組合絕對姿態(tài)和相對姿態(tài)測量,始終可以獲得完整的6D 姿態(tài)。但由于系統(tǒng)不確定性和不完整的傳感數(shù)據(jù),系統(tǒng)估計不可避免地存在漂移、離群值和測量干擾。此外,相比基于視覺的自主導(dǎo)航,隧道環(huán)境的情況更加復(fù)雜,若不解決此類問題,則無法保障自主操縱無人機的安全,所以該文設(shè)計了魯棒的異常數(shù)據(jù)剔除算法。

        異常值通常是由傳感器故障、較大的識別錯誤或不良的測量環(huán)境引起的。為了消除測量異常值,采用馬氏規(guī)則來剔除異常數(shù)據(jù)。

        在任務(wù)飛行期間,分別檢查馬氏規(guī)則的特定組成部分,對于機器人定位標(biāo)簽的偏航角、俯仰角或來自SLAM 定位的橫向位置,若其中某一項或幾項大于預(yù)定閾值時,該文設(shè)計的EKF 框架將拒止相應(yīng)的測量部分,從而有效降低錯誤拒絕率。

        2 基于Faster R-CNN的巡檢算法

        傳感器網(wǎng)絡(luò)主要依靠視覺相機實現(xiàn)對隧道內(nèi)有價值目標(biāo)的準(zhǔn)確檢測,因此選用Faster R-CNN 檢測網(wǎng)絡(luò)實現(xiàn)實時巡檢算法[7]。

        由于電纜線路檢查的復(fù)雜性,無人機不易獲得真實的采樣圖像。但神經(jīng)網(wǎng)絡(luò)需要大量的樣本,以實現(xiàn)高精度訓(xùn)練。因此采用轉(zhuǎn)移學(xué)習(xí)方法,使用公開數(shù)據(jù)獲得預(yù)訓(xùn)練模型,以構(gòu)建檢測網(wǎng)絡(luò)。

        為了確定檢查過程中的電纜故障,將正常元件、損壞元件和干擾物圖像構(gòu)建為訓(xùn)練集,并通過包含目標(biāo)和類別的最小矩形框的坐標(biāo)進行標(biāo)記圖像。利用特征提取網(wǎng)絡(luò)的卷積層,可以生成訓(xùn)練集中隨機大小的正常元件、受損元件和干擾物圖像的相應(yīng)特征,然后添加基于滑動操作的卷積層以預(yù)測包含目標(biāo)的窗口位置。

        當(dāng)小窗口中的信息被識別為目標(biāo)時,將區(qū)域保留并轉(zhuǎn)換到網(wǎng)絡(luò)中。若將小窗口中的信息識別為背景,則將該區(qū)域丟棄。

        在訓(xùn)練集的基礎(chǔ)上,基于ResNet 網(wǎng)絡(luò)中的共享卷積層提取圖像的深層特征[8]。綜合考慮卷積層的區(qū)域信息,使用隨機抽取的方法篩選不同大小的圖像輸入網(wǎng)絡(luò)池層。為了保證網(wǎng)絡(luò)輸入的一致性,將不同大小的圖像標(biāo)準(zhǔn)化為固定大小的數(shù)據(jù),并輸入ResNet。然后通過兩個完整的連接層連接到高維特征向量[9],第一個完整的連接層用于實現(xiàn)對目標(biāo)的分類;網(wǎng)絡(luò)所用的第二個連接層主要用于驗證數(shù)據(jù)合理性,同時負責(zé)區(qū)域回歸算法的實例化[10]。在訓(xùn)練過程中,神經(jīng)網(wǎng)絡(luò)的參數(shù)并非不發(fā)生改變,隨著訓(xùn)練的進行,網(wǎng)絡(luò)參數(shù)通過下述的損失函數(shù)進行調(diào)整:

        其中,i是用于索引訓(xùn)練集數(shù)據(jù)的錨點,預(yù)測定義錨點i的預(yù)測概率為pi[11]。

        在具體實現(xiàn)時,網(wǎng)絡(luò)使用隨機梯度下降法最小化損失函數(shù)的輸出,以實現(xiàn)最小化反向傳播過程中的損失函數(shù)[12-14]。算法整體流程如圖2 所示,詳細步驟如下:

        圖2 算法流程

        1)基于ResNet-101 網(wǎng)絡(luò)模型,初始化權(quán)重W和初始化神經(jīng)網(wǎng)絡(luò)的偏移b。

        2)前向傳播計算分下述三種情況:

        ①若當(dāng)前層是完整連接層,則:

        其中,am,l代表第l層中m個圖像樣本的輸出值,σ為激活函數(shù)[15]。

        ② 若當(dāng)前層是卷積層,則:

        ③若當(dāng)前層是池化層,則需要進行降維操作。

        3)對于輸出層l有:

        4)基于損失函數(shù)J(W,b),反向傳播參數(shù)分別按照以下三種情況計算:

        ①若當(dāng)前層是完整連接層,則使用標(biāo)準(zhǔn)隨機梯度下降法。

        ② 若當(dāng)前層是卷積層,則:

        其中,rot180 是卷積核的函數(shù),具體實現(xiàn)為卷積內(nèi)核上下翻轉(zhuǎn),然后左右翻轉(zhuǎn)。

        ③若當(dāng)前層是池化層,則進行反池操作。

        5)根據(jù)以下兩種情況更新l層的Wl和bl:

        若當(dāng)前層是完整連接層,則:

        其中,α是學(xué)習(xí)率。

        若Wl和bl的所有變化均小于停止迭代閾值或達到預(yù)先設(shè)定的迭代次數(shù),則跳轉(zhuǎn)至步驟6)。

        6)輸出每個隱藏層與輸出層的線性關(guān)系矩陣W和偏移向量b。

        該文使用標(biāo)記的隧道內(nèi)部圖片作為驗證集,通過檢驗網(wǎng)絡(luò)輸出的預(yù)測區(qū)域信息與實際網(wǎng)絡(luò)之間的差異,最終調(diào)整整個網(wǎng)絡(luò)的權(quán)重[16]。經(jīng)過足夠的訓(xùn)練,F(xiàn)aster R-CNN 可以檢測興趣目標(biāo)的準(zhǔn)確位置和標(biāo)識。

        3 實驗驗證

        為了對該文設(shè)計的無人機巡檢平臺進行性能驗證,選取傳感器網(wǎng)絡(luò)搭建了傳感系統(tǒng),在隧道環(huán)境中進行巡檢實驗。

        文中選取低成本2D激光雷達Hokuyo UST-10LX(具有270°視場和10 m 測量范圍),一維距離傳感器Terabee TeraRanger One(可測高度上限為14 m)。向前和向上的攝像機是分辨率為752×480 的單色攝像機,具有全局快門功能并配備平角和廣角鏡頭。向下的相機是分辨率為1 280×960的全局快門彩色相機,該文使用嵌入在Pixhawk3 中的IMU 傳感器。無人機的長寬均為74 cm,包括電池在內(nèi)的重量為3.2 kg。為了實現(xiàn)隧道巡檢的高性能故障定位,該次實驗在裝有Intel Core i7-7700 K、CPU(4.0 GHz)、16 GB DDR3和1080Ti顯卡、11 GB 內(nèi)存的Windows PC 上進行。

        在實驗的隧道環(huán)境中,共有32 個檢查位。隧道巡檢區(qū)域長60 m,寬55 m。圖3 為自主無人機執(zhí)行的單個路徑上的環(huán)境感知圖。

        圖3 無人機環(huán)境感知圖

        該文設(shè)計的自主無人機可以完成在電纜隧道中全面檢查和周期盤點的任務(wù),能夠代替人工完成常規(guī)的隧道巡檢。

        無人機在高壓線路檢查中所拍攝的圖像可分為3 類,包括元件損壞的120 幅圖像、雜物120 幅圖像、正常元件320 幅圖像。按照4∶1 的比例,訓(xùn)練集由448個圖像組成,測試集由112個圖像組成。由于計算資源的限制,將原始圖像的分辨率調(diào)整為1 000×750。

        如圖4 所示,所有圖像均以最小矩形框標(biāo)記,并以VOC2007 的XML 格式保存。當(dāng)識別的外圍框架與標(biāo)記的外圍框架之間的重疊區(qū)域大于標(biāo)記區(qū)域的90%時,則被認為是成功識別。該文所提出的方法性能通過分析識別精度和召回值來進行評估。

        圖4 數(shù)據(jù)集示例

        深度學(xué)習(xí)框架基于Caffe 搭建,并選擇由大數(shù)據(jù)集ImageNet 預(yù)訓(xùn)練的ResNet-101 作為網(wǎng)絡(luò)模型。Faster R-CNN 的訓(xùn)練使用動量法進行,該次使用0.000 1 的權(quán)重衰減和0.9 的動量。前40 000 個小批次的學(xué)習(xí)率為0.001,接下來30 000 批次的學(xué)習(xí)率為0.000 1,最大步長值為70 000,訓(xùn)練損失如圖5 所示。

        圖5 訓(xùn)練損失

        為了分析所提方法的有效性,使用了一系列不同的目標(biāo)檢測方法進行對比實驗,如表1 所示。

        表1 檢測方法對比實驗

        使用ResNet-101 預(yù)訓(xùn)練網(wǎng)絡(luò)模型時,F(xiàn)aster RCNN 的平均識別準(zhǔn)確率為97.6%,平均召回率為97.9%。此外,單個圖像的平均時間成本為101 ms,可以有效檢測出隧道中的問題元件,并且兼顧了成本開銷。

        4 結(jié)束語

        該文設(shè)計了一種具有低成本傳感系統(tǒng)和多傳感器融合框架的自主無人機,其可以有效地用于狹窄和黑暗的隧道環(huán)境。為了自動定位故障元件,提出了一種基于Fast R-CNN 方法的深度卷積神經(jīng)網(wǎng)絡(luò)。將目標(biāo)分類問題轉(zhuǎn)化為目標(biāo)檢測和識別問題,可以準(zhǔn)確實現(xiàn)對故障元件的檢測。

        在今后的工作中,如何使用有限的計算資源,實現(xiàn)自主巡檢無人機平臺的大規(guī)模部署將是研究的重點。

        猜你喜歡
        姿態(tài)元件卷積
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        攀爬的姿態(tài)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        全新一代宋的新姿態(tài)
        汽車觀察(2018年9期)2018-10-23 05:46:40
        跑與走的姿態(tài)
        中國自行車(2018年8期)2018-09-26 06:53:44
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        QFN元件的返工指南
        在新興產(chǎn)業(yè)看小元件如何發(fā)揮大作用
        寶馬i3高電壓元件介紹(上)
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        久久久久夜夜夜精品国产| 五月停停开心中文字幕| 丝袜av乱码字幕三级人妻| 国产毛多水多高潮高清| 国模少妇一区二区三区| 亚洲av在线播放观看| 国产一区二区三区在线av| 一区二区和激情视频| 亚洲精华国产精华液的福利| 欧美韩国精品另类综合| 日产一区一区三区区别| 风韵丰满熟妇啪啪区老熟熟女| 美女不带套日出白浆免费视频| 天天综合网在线观看视频| 亚洲男同志gay 片可播放| 人妻少妇中文字幕久久69堂| 日本按摩偷拍在线观看| 先锋中文字幕在线资源| 国产一级农村无码| 日韩精品极品视频在线免费| 国产在线一区二区三区四区不卡| 国产做国产爱免费视频| 婷婷亚洲综合五月天小说| 亚洲中文字幕无线乱码va| 亚洲国产精品久久又爽av| 九九热线有精品视频86| 国产精品亚洲一区二区杨幂| 国产精品区二区东京在线| 欲求不満の人妻松下纱荣子| 久久无码高潮喷水| 日日噜噜夜夜狠狠久久av| 久久久国产精品免费无卡顿| 日韩人妻大奶子生活片| 国产亚洲精品第一综合另类| 玩弄人妻少妇500系列网址| 亚洲女同同性少妇熟女| 男女主共患难日久生情的古言| 国产精品久久熟女吞精| 精品人妻夜夜爽一区二区| 白白色白白色视频发布| 纯爱无遮挡h肉动漫在线播放|