亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于場(chǎng)景理解與改進(jìn)型BUG算法的移動(dòng)機(jī)器人避障

        2023-04-03 14:29:12查榮瑞馬云華
        關(guān)鍵詞:移動(dòng)機(jī)器人柵格特征提取

        查榮瑞, 馬云華, 燕 翔, 鄭 霜

        (華能瀾滄江水電股份有限公司糯扎渡水電廠,云南 普洱 665005)

        0 引言

        移動(dòng)機(jī)器人是一個(gè)集計(jì)算機(jī)科學(xué)、電子工程、傳感器技術(shù)、自動(dòng)控制理論、人工智能等多個(gè)學(xué)科理論于一體的綜合系統(tǒng),代表著科學(xué)技術(shù)的最新進(jìn)展[1]。隨著《中國(guó)制造2025》戰(zhàn)略規(guī)劃的全面推進(jìn)下,移動(dòng)機(jī)器人技術(shù)得到了迅速發(fā)展與應(yīng)用,在工業(yè)、農(nóng)業(yè)、交通、電力、醫(yī)療、服務(wù)等行業(yè)都占據(jù)著必不可少的地位[2]。對(duì)于移動(dòng)機(jī)器人而言,如何有效實(shí)現(xiàn)自主避障是其體現(xiàn)性能的關(guān)鍵因素。目前,移動(dòng)機(jī)器人主要利用測(cè)距傳感器和視覺(jué)傳感器結(jié)合避障算法完成避障[3]。測(cè)距傳感器主要利用激光雷達(dá)、超聲波等設(shè)備獲取障礙物信息,該方式的測(cè)距精度高,但傳感器成本也較高,同時(shí),隨著機(jī)器人應(yīng)用場(chǎng)景日益復(fù)雜,僅靠障礙物距離信息開(kāi)始逐漸無(wú)法滿(mǎn)足實(shí)際需求[4]。而基于視覺(jué)傳感器的避障方法由于成本較低,并且可以獲取豐富的環(huán)境信息,逐漸成為了當(dāng)前的研究熱點(diǎn)[5]。同時(shí),隨著近幾年深度學(xué)習(xí)技術(shù)的不斷突破,逐漸彌補(bǔ)了傳統(tǒng)基于機(jī)器學(xué)習(xí)的視覺(jué)避障方法存在的局限,為移動(dòng)機(jī)器人的避障提供了新的思路[6]。因此,研究一種基于深度學(xué)習(xí)的視覺(jué)避障方法不僅可以提高移動(dòng)機(jī)器人在復(fù)雜環(huán)境中導(dǎo)航避障的泛化能力和可靠性,并且對(duì)于智能化機(jī)器人的發(fā)展也有較大的推動(dòng)作用。

        目前,已有不少研究者針對(duì)移動(dòng)機(jī)器人視覺(jué)避障進(jìn)行了相應(yīng)研究,并取得了一系列成果。李娟等人[7]針對(duì)三輪全向移動(dòng)機(jī)器人自主避障問(wèn)題,利用OpenMV中目標(biāo)檢測(cè)算法對(duì)障礙物進(jìn)行識(shí)別和定位,再根據(jù)不同障礙物位置信息結(jié)合模糊控制算法來(lái)輔助機(jī)器人完成避障。劉明春[8]提出了一種基于深度學(xué)習(xí)的變電站巡檢機(jī)器人場(chǎng)景理解及避障方法,通過(guò)全卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像進(jìn)行語(yǔ)義分割,再根據(jù)分割結(jié)果判斷機(jī)器人可行道路區(qū)域,進(jìn)而實(shí)現(xiàn)機(jī)器人避障。Li等人[9]在ROS平臺(tái)上提出了一種基于機(jī)器視覺(jué)的動(dòng)態(tài)障礙檢測(cè)避障方法。該方法采用改進(jìn)的YOLO-v3的目標(biāo)檢測(cè)算法實(shí)現(xiàn)實(shí)時(shí)檢測(cè)動(dòng)態(tài)障礙物,并結(jié)合改進(jìn)的動(dòng)態(tài)窗口法(DWA)局部路徑避障算法來(lái)提高移動(dòng)機(jī)器人的局部避障性能。Saleem等人[10]針對(duì)移動(dòng)機(jī)器人在室內(nèi)環(huán)境中的避障問(wèn)題提出了一種深層卷積神經(jīng)網(wǎng)絡(luò)(CNN),利用慣性測(cè)量單元(IMU)獲得的機(jī)器人方向并結(jié)合深度圖像(RGBD)訓(xùn)練神經(jīng)網(wǎng)絡(luò),通過(guò)網(wǎng)絡(luò)生成機(jī)器人方向控制命令,指導(dǎo)機(jī)器人避障?,F(xiàn)有方法從不同角度、場(chǎng)景分析了移動(dòng)機(jī)器人避障問(wèn)題,并提出了相應(yīng)的避障思路,但大多數(shù)方法仍存在對(duì)場(chǎng)景理解不充分、避障策略局限性較大等問(wèn)題。因此,對(duì)于移動(dòng)機(jī)器人避障問(wèn)題,仍有較大的探索空間和研究?jī)r(jià)值。

        為提升移動(dòng)機(jī)器人避障性能,本文在分析現(xiàn)有視覺(jué)避障策略存在的不足后,設(shè)計(jì)了一種融合深度學(xué)習(xí)技術(shù)和Bug算法的機(jī)器人自主避障方法。該方法首先以卷積核為核心設(shè)計(jì)特征提取單元,通過(guò)依次堆疊的方式構(gòu)建深層卷積神經(jīng)網(wǎng)絡(luò),用于提取道路場(chǎng)景特征;其次,利用提取的特征信息分別對(duì)機(jī)器人運(yùn)動(dòng)方向預(yù)測(cè)和道路場(chǎng)景語(yǔ)義分割;最后,通過(guò)濾波、構(gòu)形空間變換等操作將語(yǔ)義分割結(jié)果轉(zhuǎn)化為柵格地圖,并基于柵格地圖結(jié)合機(jī)器人運(yùn)動(dòng)方向與Bug算法,規(guī)劃出機(jī)器人避障路線,指導(dǎo)機(jī)器人實(shí)現(xiàn)避障。同時(shí),為了降低該方法在實(shí)際場(chǎng)景中的冗余計(jì)算,引入了特征對(duì)比模塊,通過(guò)對(duì)比關(guān)鍵特征層在前后兩幀圖像中的道路信息變化情況來(lái)判斷機(jī)器人是否繼續(xù)執(zhí)行上一個(gè)動(dòng)作,進(jìn)而保障實(shí)際運(yùn)行效率。通過(guò)實(shí)驗(yàn)表明,所提方法可以有效實(shí)現(xiàn)場(chǎng)景分割和行駛方向預(yù)測(cè),并能準(zhǔn)確指導(dǎo)機(jī)器人避障。同時(shí),在實(shí)際場(chǎng)景中,該方法也體現(xiàn)出較好的魯棒性,保障機(jī)器人高效完成自主避障。

        1 移動(dòng)機(jī)器人避障方法

        1.1 整體架構(gòu)

        本文所提的移動(dòng)機(jī)器人視覺(jué)避障方法整體結(jié)構(gòu)如圖1所示。該方法主要由特征提取網(wǎng)絡(luò)、任務(wù)分支、改進(jìn)的Bug避障策略以及特征對(duì)比結(jié)構(gòu)4個(gè)部分組成。特征提取網(wǎng)絡(luò)主要以卷積、池化、激活等操作以密集連接的方式依次串聯(lián)堆疊構(gòu)成,對(duì)輸入圖像由淺到深的提取關(guān)鍵信息。任務(wù)分支分為語(yǔ)義分割和機(jī)器人行駛方向分類(lèi)兩條支路,語(yǔ)義分割支路為機(jī)器人提供準(zhǔn)確的場(chǎng)景信息,方便機(jī)器人構(gòu)建柵格地圖;分類(lèi)支路則從全局角度上為后續(xù)機(jī)器人避障提供指導(dǎo)信息。改進(jìn)的Bug避障策略則基于柵格地圖與分類(lèi)支路結(jié)果,通過(guò)迭代搜索出最優(yōu)避障方向,指導(dǎo)機(jī)器人準(zhǔn)確避障。而特征對(duì)比結(jié)構(gòu)則是結(jié)合實(shí)際,對(duì)整個(gè)避障過(guò)程在計(jì)算效率上的優(yōu)化,通過(guò)計(jì)算特征提取網(wǎng)絡(luò)中關(guān)鍵特征層在前后兩幀圖像上的差異來(lái)降低冗余計(jì)算,從而保證所提方法的實(shí)際落地性和高效性。

        圖1 整體框架結(jié)構(gòu)圖

        1.2 特征提取網(wǎng)絡(luò)

        基于深度學(xué)習(xí)的計(jì)算機(jī)視覺(jué)是當(dāng)前人工智能最熱門(mén)的研究領(lǐng)域,主要包含圖像分類(lèi)、目標(biāo)定位、目標(biāo)檢測(cè)以及圖像分割四大基本任務(wù)[11],盡管各視覺(jué)任務(wù)內(nèi)容差異較大,但其首要目標(biāo)都是對(duì)圖像關(guān)鍵特征進(jìn)行提取。目前,經(jīng)典的特征提取網(wǎng)絡(luò)主要有LeNet、AlexNet、VGGNet、InceptionNet、ResNet等[12]。而隨著近幾年深度學(xué)習(xí)技術(shù)的不斷發(fā)展,特征提取網(wǎng)絡(luò)針對(duì)不同的視覺(jué)任務(wù)以及應(yīng)用場(chǎng)景也進(jìn)化出了一系列結(jié)構(gòu),如圖像分類(lèi)網(wǎng)絡(luò)MobileNet[13]、EfficientNet[14]等;目標(biāo)檢測(cè)網(wǎng)絡(luò)YOLO[15]、MobileDets[16]等;語(yǔ)義分割網(wǎng)絡(luò)ShuffleSeg[17]、BiSeNet[18]、STDC[19]等。為有效提取圖像特征,同時(shí)考慮到對(duì)應(yīng)視覺(jué)任務(wù)以及實(shí)際應(yīng)用場(chǎng)景,本文在對(duì)比分析現(xiàn)有網(wǎng)絡(luò)結(jié)構(gòu)后,設(shè)計(jì)了適用于移動(dòng)機(jī)器人的特征提取網(wǎng)絡(luò)。

        所提特征提取網(wǎng)絡(luò)主要由特征預(yù)處理結(jié)構(gòu)和多個(gè)不同維度的特征提取模塊串聯(lián)組成,如圖2所示。圖2(a)為特征預(yù)處理結(jié)構(gòu)(Prep),主要由并列的3×3大小的標(biāo)準(zhǔn)卷積、深度可分離卷積、空洞卷積以及2×2大小的最大池化拼接后再進(jìn)行卷積融合,所有操作步長(zhǎng)為2。該結(jié)構(gòu)主要目標(biāo)是在降維的同時(shí)從多個(gè)角度提取輸入圖像特征,減少噪聲干擾、保障有效特征的提取并降低后續(xù)提取高維特征的計(jì)算量。圖2(b)為特征提取模塊(Stage),通過(guò)對(duì)輸入特征先以降通道再降維度的方式逐層提取,并以密集連接的方式融合提取的特征信息,可以有效提供整體網(wǎng)絡(luò)的非線性表達(dá)能力。同時(shí),降低每層通道數(shù)在一定程度上降低了信息冗余,保障了網(wǎng)絡(luò)計(jì)算效率;而降維度提取特征則提高了該特征模塊對(duì)多尺度目標(biāo)信息的獲取。圖2(c)為不同維度特征模塊之間的連接,通過(guò)步長(zhǎng)為2的卷積和平均池化操作來(lái)降低維度,盡可能的避免有效信息的丟失。特征提取網(wǎng)絡(luò)中深層特征模塊相對(duì)淺層的特征,維度更低,特征通道數(shù)更多,包含的細(xì)節(jié)特征較少,而語(yǔ)義特征較多。網(wǎng)絡(luò)具體結(jié)構(gòu)如表1所示,其中Layer Structure為網(wǎng)絡(luò)層結(jié)構(gòu), stride為步長(zhǎng),Repetition為重復(fù)次數(shù),Output Size為輸出特征圖大小。

        圖2 場(chǎng)景理解網(wǎng)絡(luò)模塊

        表1 場(chǎng)景理解網(wǎng)絡(luò)結(jié)構(gòu)

        1.3 任務(wù)分支

        任務(wù)分支是利用特征提取網(wǎng)絡(luò)獲取的圖像特征信息完成相應(yīng)的計(jì)算機(jī)視覺(jué)任務(wù)。為有效實(shí)現(xiàn)機(jī)器人導(dǎo)航避障,任務(wù)分支采用了圖像分類(lèi)和圖像語(yǔ)義分割來(lái)共同輔助機(jī)器人避障。圖像分類(lèi)分支主要從圖像全局角度對(duì)機(jī)器人下一步行駛方向進(jìn)行分類(lèi)預(yù)測(cè)(直行、左偏、右偏、停止),保證機(jī)器人整體行駛方向準(zhǔn)確,避免機(jī)器人陷入局部“死胡同”之中。該分支相對(duì)簡(jiǎn)單,只需要利用深層抽象特征進(jìn)行全連接后分類(lèi)即可,結(jié)構(gòu)如圖3(a)所示。語(yǔ)義分割分支相對(duì)于分類(lèi)更復(fù)雜,該分支需要將深層抽象信息和淺層細(xì)節(jié)信息結(jié)合,實(shí)現(xiàn)對(duì)輸入圖像中每個(gè)像素的識(shí)別分類(lèi),使機(jī)器人能理解所處環(huán)境,完成局部精確避障。為保證語(yǔ)義分割效果與效率,選擇特征提取模塊最后一層的輸出作為輸入,采用由深到淺逐步上采樣的方式進(jìn)行融合,如圖3(b)所示。同時(shí),融合時(shí)引入注意力機(jī)制來(lái)提升有效信息的權(quán)重,降低無(wú)效特征干擾,從而提升語(yǔ)義分割準(zhǔn)確度,注意力結(jié)構(gòu)如圖3(c)所示。

        圖3 任務(wù)分支結(jié)構(gòu)

        1.4 Bug避障策略

        深度網(wǎng)絡(luò)只是幫助移動(dòng)機(jī)器人從全局的角度理解所處的環(huán)境,而為實(shí)現(xiàn)機(jī)器人安全準(zhǔn)確避障,需要進(jìn)一步將分類(lèi)和分割結(jié)果與避障算法相結(jié)合。因此,本文首先根據(jù)語(yǔ)義分割結(jié)果將機(jī)器人所處場(chǎng)景轉(zhuǎn)化為柵格地圖,再基于柵格地圖將分類(lèi)結(jié)果與Bug避障方法相結(jié)合,搜索出安全避障路徑,避障流程如圖4所示。

        圖4 避障策略流程

        該避障策略分為柵格地圖構(gòu)建和Bug避障規(guī)劃。柵格地圖構(gòu)建首先是對(duì)語(yǔ)義分割結(jié)果進(jìn)行二值化操作,提取出道路區(qū)域,并利用中值濾波、腐蝕再膨脹等圖像預(yù)處理操作剔除噪聲;其次,搜索出最大的道路連通區(qū)域,作為機(jī)器人可行道路區(qū)域;同時(shí),考慮到機(jī)器人自身會(huì)占據(jù)一定道路區(qū)域,因此,需要對(duì)可行道路區(qū)域進(jìn)行構(gòu)形空間(C空間)轉(zhuǎn)化,即利用不同大小的卷積核腐蝕道路區(qū)域,模擬機(jī)器人由近到遠(yuǎn)所占道路面積;最后,將處理后的語(yǔ)義分割圖劃分成m×n維度的柵格,根據(jù)每個(gè)柵格中是否全為道路像素來(lái)判斷其是否可通行,最終將圖像轉(zhuǎn)為m×n的柵格地圖。柵格地圖構(gòu)建過(guò)程如圖5所示。

        圖5 柵格地圖構(gòu)建

        為保證機(jī)器人安全有效的完成避障,本文在傳統(tǒng)Bug算法基礎(chǔ)上進(jìn)行改進(jìn),基于柵格地圖并結(jié)合分類(lèi)結(jié)果來(lái)為機(jī)器人提供準(zhǔn)確的避障方向。傳統(tǒng)的Bug算法中當(dāng)機(jī)器人遇到障礙物時(shí)將繞著障礙物行駛,而在實(shí)際應(yīng)用中,該方式效率較低且容易陷入“死胡同”。針對(duì)此,本文利用分類(lèi)結(jié)果保障機(jī)器人全局方向的準(zhǔn)確性,并通過(guò)迭代分段尋路方式優(yōu)化Bug算法,保證機(jī)器人局部避障方向最優(yōu)性。具體避障偽代碼如表2所示,對(duì)應(yīng)分類(lèi)結(jié)果為右偏時(shí)的路徑搜索如圖6所示。

        表2 改進(jìn)的Bug算法偽代碼

        圖6 改進(jìn)的Bug路徑搜索

        1.5 特征對(duì)比結(jié)構(gòu)

        特征對(duì)比結(jié)構(gòu)主要是結(jié)合移動(dòng)機(jī)器人實(shí)際情況,從全局的角度對(duì)所提方法進(jìn)行優(yōu)化。通常,大多數(shù)移動(dòng)機(jī)器人行駛時(shí),速度相對(duì)較慢,有障礙物路段相對(duì)較少,因此,對(duì)于機(jī)器人而言,行駛過(guò)程中相鄰圖像幀之間可行道路區(qū)域重復(fù)率較高?;诖耍瑸楸苊鈱?duì)重復(fù)信息的計(jì)算,保證所提方法在實(shí)際應(yīng)用中的實(shí)時(shí)性,引入了如圖7所示的道路特征對(duì)比計(jì)算流程。

        圖7 特征對(duì)比計(jì)算過(guò)程

        對(duì)于整個(gè)網(wǎng)絡(luò)而言,特征層stage1的輸出決定著最終的避障動(dòng)作,即兩張輸入圖像若stage1輸出相同,則最終輸出也相同,因此特征對(duì)比結(jié)構(gòu)以stage1為輸入。將stage1輸出特征圖通過(guò)線性打分層(Conv1×1)來(lái)預(yù)測(cè)每個(gè)位置像素屬于每個(gè)類(lèi)別的概率,并取最大概率的類(lèi)別為該像素類(lèi)別;然后,提取出其中道路像素并將特征圖轉(zhuǎn)為0-1編碼,即道路像素為1,其他為0,將轉(zhuǎn)化后的特征圖與緩存中的上一幀特征進(jìn)行對(duì)比,利用漢明距離計(jì)算兩者之間相似性,如式(1)所示;最后,根據(jù)專(zhuān)家設(shè)置相似度閾值來(lái)判斷是否繼續(xù)后續(xù)的特征計(jì)算還是持續(xù)機(jī)器人上一個(gè)動(dòng)作。

        D(It,It-1)=count1(ItxorIt-1)

        (1)

        其中:It和It-1表示當(dāng)前幀和上一幀圖像,xor表示對(duì)兩圖像相同位置異或操作,count1表示統(tǒng)計(jì)1的總數(shù),D表示計(jì)算兩幀圖像的漢明距離。

        2 實(shí)驗(yàn)與結(jié)果分析

        為有效驗(yàn)證所提方法的可行性,實(shí)驗(yàn)采用了多個(gè)數(shù)據(jù)集對(duì)所提網(wǎng)絡(luò)性能進(jìn)行了測(cè)試,并在實(shí)際場(chǎng)景中驗(yàn)證了移動(dòng)機(jī)器人避障效果。實(shí)驗(yàn)主要利用嵌入式AI計(jì)算平臺(tái)NVIDIA Jetson Xavier NX為基礎(chǔ),分別對(duì)所提分類(lèi)網(wǎng)絡(luò)、語(yǔ)義分割網(wǎng)絡(luò)、分類(lèi)分割網(wǎng)絡(luò)以及最終機(jī)器人避障效果進(jìn)行了測(cè)試。所提網(wǎng)絡(luò)采用TensorFlow深度學(xué)習(xí)框架進(jìn)行搭建,網(wǎng)絡(luò)超參數(shù)主要借鑒同類(lèi)型網(wǎng)絡(luò)[13-14,18-19]設(shè)置,超參設(shè)置如表3所示。

        表3 網(wǎng)絡(luò)超參數(shù)設(shè)置

        網(wǎng)絡(luò)訓(xùn)練時(shí)以交叉熵?fù)p失函數(shù)計(jì)算誤差,由于所提網(wǎng)絡(luò)為多任務(wù)結(jié)構(gòu),故網(wǎng)絡(luò)訓(xùn)練時(shí)整體損失為分類(lèi)和分割誤差之和,具體計(jì)算公式如式(2)~(4)所示。對(duì)于所提方法性能評(píng)估主要采用分類(lèi)精度(P)、平均精度(AP)、全局精度(G)、平均精度(C)、交除并均值 (mIoU)以及每秒處理圖像數(shù)量 (FPS)等幾個(gè)指標(biāo)來(lái)進(jìn)行衡量。

        (2)

        (3)

        Lall=Lcls+Lseg

        (4)

        其中:ai表示目標(biāo)屬于第i類(lèi)的概率,N為目標(biāo)類(lèi)別數(shù),Si表示對(duì)第i類(lèi)概率進(jìn)行指數(shù)歸一化處理,yi為標(biāo)簽值,L為交叉熵?fù)p失函數(shù),Lcls和Lseg分別為分類(lèi)和分割損失。

        2.1 分類(lèi)分割網(wǎng)絡(luò)測(cè)試

        分類(lèi)分割網(wǎng)絡(luò)的精度直接影響著后續(xù)機(jī)器人的避障效果,為了有效驗(yàn)證所設(shè)計(jì)的網(wǎng)絡(luò),實(shí)驗(yàn)利用了多個(gè)公開(kāi)數(shù)據(jù)集以及實(shí)際道路場(chǎng)景數(shù)據(jù)集分別對(duì)分類(lèi)、分割和結(jié)合后的網(wǎng)絡(luò)進(jìn)行測(cè)試。由于分類(lèi)網(wǎng)絡(luò)相對(duì)簡(jiǎn)單,實(shí)驗(yàn)首先對(duì)其進(jìn)行了測(cè)試,考慮到實(shí)際機(jī)器人避障應(yīng)用中只分為四類(lèi),場(chǎng)景相對(duì)簡(jiǎn)單,故采用了Animals公開(kāi)標(biāo)準(zhǔn)數(shù)據(jù)集進(jìn)行訓(xùn)練測(cè)試。該數(shù)據(jù)集包含狗、貓以及熊貓3種動(dòng)物圖像約3 000張,平均每類(lèi)動(dòng)物圖像約1 000張左右,圖像大小為960×720。Animals數(shù)據(jù)集與實(shí)際應(yīng)用復(fù)雜度接近,數(shù)據(jù)集較為簡(jiǎn)單,可以快速驗(yàn)證所提網(wǎng)絡(luò),將該數(shù)據(jù)集以7:1:2的比例隨機(jī)分配,構(gòu)建訓(xùn)練、驗(yàn)證和測(cè)試集,對(duì)分類(lèi)網(wǎng)絡(luò)進(jìn)行迭代訓(xùn)練收斂后與同類(lèi)型網(wǎng)絡(luò)[13-14]進(jìn)行測(cè)試對(duì)比,結(jié)果如表4所示。

        表4 分類(lèi)網(wǎng)絡(luò)對(duì)比

        根據(jù)分類(lèi)網(wǎng)絡(luò)對(duì)比結(jié)果可以看出,網(wǎng)絡(luò)對(duì)于狗的分類(lèi)效果較好,對(duì)貓和熊貓識(shí)別效果略微較低,但整體的分類(lèi)效果較佳。而與同類(lèi)網(wǎng)絡(luò)相比,所提網(wǎng)絡(luò)盡管在效率上未達(dá)到最優(yōu),但識(shí)別效果最佳,可以有效保障網(wǎng)絡(luò)后續(xù)任務(wù)。

        分類(lèi)網(wǎng)絡(luò)是從全局角度對(duì)整幅圖像進(jìn)行分類(lèi),而分割網(wǎng)絡(luò)是從局部角度對(duì)圖像每個(gè)像素進(jìn)行分類(lèi),可見(jiàn)分割網(wǎng)絡(luò)的復(fù)雜度相對(duì)更高。而對(duì)于分割網(wǎng)絡(luò)的測(cè)試主要利用了CamVid和Cityscapes兩個(gè)城市道路數(shù)據(jù)集,CamVid數(shù)據(jù)集包含11類(lèi)目標(biāo)約700張圖像,Cityscapes數(shù)據(jù)集包含19類(lèi)目標(biāo)約5 000張圖像,統(tǒng)一兩數(shù)據(jù)集圖像尺寸為960×720大小后分別進(jìn)行訓(xùn)練測(cè)試,并與同類(lèi)型網(wǎng)絡(luò)[18,20]進(jìn)行對(duì)比,結(jié)果如表5和表6所示,分割效果如圖8所示。

        表5 CamVid數(shù)據(jù)集測(cè)試結(jié)果對(duì)比

        表6 Cityscapes數(shù)據(jù)集測(cè)試結(jié)果對(duì)比

        分割結(jié)果可以看出,對(duì)于復(fù)雜場(chǎng)景而言,網(wǎng)絡(luò)分割精度有所降低,但全局精度相對(duì)較高,可見(jiàn)網(wǎng)絡(luò)對(duì)于部分小目標(biāo)識(shí)別較差。同時(shí),與同類(lèi)網(wǎng)絡(luò)相比,所提分割網(wǎng)絡(luò)較好的平衡了計(jì)算效率與分割效果,可以更好的應(yīng)用于實(shí)際場(chǎng)景。

        對(duì)于分類(lèi)分割結(jié)合后的網(wǎng)絡(luò)測(cè)試,由于未找到相關(guān)公開(kāi)數(shù)據(jù)集,故采用實(shí)際移動(dòng)機(jī)器人采集的道路場(chǎng)景圖像約3 000張,包含道路、石子、障礙物等6類(lèi)目標(biāo),每張圖像分別對(duì)應(yīng)直行、左偏、右偏、停止4個(gè)類(lèi)別中的一個(gè),通過(guò)人工標(biāo)注并歸一化為960×720大小后進(jìn)行測(cè)試驗(yàn)證,并與同類(lèi)網(wǎng)絡(luò)[21]進(jìn)行對(duì)比,結(jié)果如表7和圖9所示。

        表7 分類(lèi)分割網(wǎng)絡(luò)對(duì)比

        圖9 分類(lèi)分割結(jié)果對(duì)比

        根據(jù)上述實(shí)驗(yàn)結(jié)果可以看出,由于任務(wù)分支的變多,網(wǎng)絡(luò)計(jì)算效率有所下降,但從分類(lèi)以及分割精度可見(jiàn),所提網(wǎng)絡(luò)在實(shí)際場(chǎng)景中也體現(xiàn)出較好的魯棒性和泛化能力。同時(shí),與同類(lèi)型網(wǎng)絡(luò)相比,所提結(jié)構(gòu)在犧牲少量效率基礎(chǔ)上較大幅度的提升了網(wǎng)絡(luò)精度,為后續(xù)機(jī)器人避障提供了可靠保障。

        2.2 機(jī)器人避障效果測(cè)試

        分類(lèi)分割網(wǎng)絡(luò)使移動(dòng)機(jī)器人可以有效理解所處環(huán)境,為進(jìn)一步測(cè)試特征對(duì)比結(jié)構(gòu)的有效性以及機(jī)器人的避障效果,實(shí)驗(yàn)利用搭載Jetson Xavier NX的輪式移動(dòng)機(jī)器人對(duì)所提方法進(jìn)行了測(cè)試。為方便其他避障方法對(duì)比,借鑒了文獻(xiàn)[7]的測(cè)試方法,通過(guò)固定相機(jī)位置,在不同的機(jī)器人轉(zhuǎn)向視角下,對(duì)采集的視頻幀歸一化為960×720后進(jìn)行避障規(guī)劃(設(shè)置柵格地圖維度48×36),根據(jù)最終輸出的避障方向是否與預(yù)期方向一致來(lái)衡量機(jī)器人避障效果。實(shí)驗(yàn)首先在無(wú)障礙道路和有障礙道路情況下測(cè)試了特征差異變化,如圖10所示;再分別對(duì)引入特征對(duì)比結(jié)構(gòu)前后的避障方法性能進(jìn)行測(cè)試,結(jié)果如表8所示。

        表8 引入自適應(yīng)控制模塊前后測(cè)試結(jié)果

        根據(jù)圖10可以看出,無(wú)障礙道路前后幀特征差異接近為零,而有障礙道路的特征變化率差異較大,可以較好的區(qū)分當(dāng)前是否有無(wú)障礙物,特征差異閾值可設(shè)置為0.1。同時(shí),由表7也可以看出,引入特征對(duì)比結(jié)構(gòu)后,所提方法精度輕微降低,但其效率在無(wú)障礙物場(chǎng)景下得到了較大提升,有障礙物時(shí)也有所提升。由此可見(jiàn),該結(jié)構(gòu)可以有效提升所提方法在實(shí)際場(chǎng)景中的計(jì)算效率。

        圖10 有無(wú)障礙物時(shí)前后兩幀特征差異

        為驗(yàn)證改進(jìn)后的Bug算法有效性,通過(guò)模擬復(fù)雜場(chǎng)景,對(duì)比改進(jìn)前后的全局尋路效果,如圖11所示。其中,由于是全局尋路,故改進(jìn)后的Bug是以固定終點(diǎn)迭代調(diào)整起點(diǎn)進(jìn)行搜索。

        圖11 Bug算法對(duì)比

        根據(jù)全局路徑搜索結(jié)果可以看出,所提方法所規(guī)劃路徑效率更高、路徑更為合理。而在機(jī)器人實(shí)際應(yīng)用中,由于場(chǎng)景實(shí)時(shí)變化,機(jī)器人主要以局部尋路結(jié)果進(jìn)行避障,即固定起點(diǎn)迭代調(diào)整終點(diǎn)的方式,如圖6(b)中只利用SG2指導(dǎo)機(jī)器人行駛。為驗(yàn)證所提方法實(shí)際避障效果,本文分別選擇了多個(gè)不同機(jī)器人視角的路徑進(jìn)行測(cè)試驗(yàn)證,并與文獻(xiàn)[7、21]的避障方法進(jìn)行了對(duì)比,對(duì)比結(jié)果如表9所示,所提方法避障規(guī)劃效果圖12所示。

        表9 機(jī)器人避障效果對(duì)比

        圖12 避障規(guī)劃(從上到下依次為直行、右偏、左偏、停止)

        根據(jù)上述結(jié)果可以看出,本文所提方法在實(shí)際場(chǎng)景中平均避障效率以及精度都較優(yōu)于同類(lèi)型避障方法,盡管在有障礙物時(shí)機(jī)器人效率會(huì)受到較大影響,但在實(shí)際避障過(guò)程中,機(jī)器人行駛速度也有所降低,故所提方法可以基本保障機(jī)器人實(shí)時(shí)避障需求。同時(shí),根據(jù)圖12也可以看出,所提方法可以有效地為機(jī)器人規(guī)劃出當(dāng)前最優(yōu)方向以及大致轉(zhuǎn)向角度,保障了移動(dòng)機(jī)器人行駛區(qū)域的安全可靠。

        3 結(jié)束語(yǔ)

        本文針對(duì)目前移動(dòng)機(jī)器人在避障過(guò)程中存在的不足,提出了一種將深層卷積神經(jīng)網(wǎng)絡(luò)與改進(jìn)后的Bug路徑規(guī)劃相結(jié)合的機(jī)器人自主避障方法。該方法首先采用多層卷積稠密連接方式逐步提取圖像特征,并利用提取的特征信息通過(guò)全連接、跳層上采樣融合、注意力機(jī)制等操作抽象出機(jī)器人轉(zhuǎn)向信息并對(duì)圖像中各目標(biāo)進(jìn)行語(yǔ)義分割,使機(jī)器人理解自身所處場(chǎng)景。其次,將分割結(jié)果進(jìn)行濾波、腐蝕等處理后提取機(jī)器人可行道路區(qū)域,再將其轉(zhuǎn)化為機(jī)器人構(gòu)形空間后構(gòu)建柵格地圖。最后,基于柵格地圖,通過(guò)分段尋路方式優(yōu)化Bug路徑搜索算法,并將其與機(jī)器人轉(zhuǎn)向信息相結(jié)合,規(guī)劃出最優(yōu)的避障方向。同時(shí),為避免該方法在實(shí)際應(yīng)用中對(duì)相似場(chǎng)景重復(fù)計(jì)算,引入了特征對(duì)比結(jié)構(gòu),有效提升了所提方法的計(jì)算效率。通過(guò)實(shí)驗(yàn)結(jié)果表明,本文所提方法可以有效的為機(jī)器人提供安全準(zhǔn)確的避障路線,同時(shí)與同類(lèi)型方法相比,該方法也體現(xiàn)出更高的精度與效率,能夠高效輔助移動(dòng)機(jī)器人實(shí)現(xiàn)自主避障。

        盡管所提方法在一定程度上取得了不錯(cuò)的效果,但仍有較多值得深入探索的地方,如機(jī)器人可行區(qū)域的劃分可進(jìn)一步擴(kuò)展等。同時(shí),隨著移動(dòng)機(jī)器人應(yīng)用的場(chǎng)景逐漸復(fù)雜,所提方法也需要考慮更多環(huán)境因素的影響,后續(xù)仍需持續(xù)優(yōu)化完善。

        猜你喜歡
        移動(dòng)機(jī)器人柵格特征提取
        移動(dòng)機(jī)器人自主動(dòng)態(tài)避障方法
        基于鄰域柵格篩選的點(diǎn)云邊緣點(diǎn)提取方法*
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        基于Twincat的移動(dòng)機(jī)器人制孔系統(tǒng)
        Bagging RCSP腦電特征提取算法
        不同剖面形狀的柵格壁對(duì)柵格翼氣動(dòng)特性的影響
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        基于CVT排布的非周期柵格密度加權(quán)陣設(shè)計(jì)
        極坐標(biāo)系下移動(dòng)機(jī)器人的點(diǎn)鎮(zhèn)定
        基于引導(dǎo)角的非完整移動(dòng)機(jī)器人軌跡跟蹤控制
        国产又a又黄又潮娇喘视频| 伊人狼人大香线蕉手机视频| 亚洲国产女性内射第一区二区| 无码中文亚洲av影音先锋| 无码精品黑人一区二区三区| 最新在线观看精品国产福利片| 亚洲一区二区懂色av| 粉嫩av国产一区二区三区| 国产老熟女狂叫对白| 亚洲一区二区三区精品网| 国产一区二区三区小向美奈子| av无码小缝喷白浆在线观看| 久久久久亚洲av无码专区导航| 日韩精品永久免费播放平台| 国产美女高潮流白浆视频| 国产av国片精品jk制服| 综合三区后入内射国产馆| 色偷偷亚洲第一综合网| 五月激情在线视频观看| 疯狂做受xxxx高潮视频免费| 中文字幕精品无码一区二区| 无码视频一区=区| 日本一区二区视频在线| 欧美人妻日韩精品| 国产偷国产偷高清精品| 久久精品伊人久久精品| 无码人妻丰满熟妇啪啪网不卡| 国产精品毛片无码| 无码视频一区=区| 97成人精品视频在线| 极品新婚夜少妇真紧| 韩国精品一区二区三区| 国产优质av一区二区三区| 五月综合激情婷婷六月| 久久天天躁狠狠躁夜夜爽| 久久视频在线视频精品| 国产一区高清在线观看| 亚洲国产成人久久综合电影| 欧美性爱一区二区三区无a| 丰满少妇被爽的高潮喷水呻吟| 国模无码一区二区三区|