亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于2-D范圍掃描的室內(nèi)場景識別方法

        2018-12-17 08:12:38郜春艷何秀娟黃文美劉卓錕
        電光與控制 2018年12期
        關(guān)鍵詞:移動機(jī)器人

        郜春艷,何秀娟,黃文美,劉卓錕

        (河北工業(yè)大學(xué)省部共建電工裝備可靠性與智能化國家重點實驗室,天津 300132)

        0 引言

        場景識別是室內(nèi)移動機(jī)器人研究的一個重要分支[1],移動機(jī)器人的諸多功能如定位、導(dǎo)航、路徑規(guī)劃的實現(xiàn)都基于其良好的場景識別能力[2]。利用2-D測距信息進(jìn)行機(jī)器人場景識別技術(shù)的研究是當(dāng)前一大熱點[3]。不同的室內(nèi)場景由于結(jié)構(gòu)和布置不同而有著不同的形狀與大小特征,比如走廊呈現(xiàn)規(guī)則的矩形,又窄又長;臥室的床與墻之間存在窄縫;客廳面積寬闊且較為雜亂,衛(wèi)生間面積最小。這些特點都是基于2-D掃描進(jìn)行室內(nèi)場景識別的重要依據(jù)[4-5]。

        安裝有激光雷達(dá)傳感器的移動機(jī)器人在室內(nèi)行駛的過程中,范圍掃描數(shù)據(jù)也會被實時記錄下來,這些數(shù)據(jù)描述了移動機(jī)器人所處環(huán)境的輪廓特征?;诩す饫走_(dá)掃描的室內(nèi)場景識別問題可以描述為:給定一系列來自不同類型室內(nèi)場景的激光雷達(dá)測距樣本,利用機(jī)器學(xué)習(xí)算法對已知樣本進(jìn)行學(xué)習(xí),歸納總結(jié)出各類場景特有的數(shù)據(jù)特征,當(dāng)再給予陌生的測距樣本時,可判斷出其所屬室內(nèi)場景的類型[6-8]。

        本文在Ubuntu系統(tǒng)下,利用機(jī)器人操作系統(tǒng)(ROS)和仿真軟件 Gazebo搭建仿真環(huán)境,并采集虛擬激光雷達(dá)測距信息,對范圍掃描數(shù)據(jù)提取二值化圖像信息后,利用基于局部感受野的極限學(xué)習(xí)機(jī)(ELM-LRF)對特征信息進(jìn)行學(xué)習(xí)與分類。最后,利用公共數(shù)據(jù)集DR Dataset所提供的從123個真實生活場景中所采集到的激光雷達(dá)范圍掃描信息對所提出的方法進(jìn)行了驗證。

        1 仿真環(huán)境中的數(shù)據(jù)采集

        1.1 搭建仿真環(huán)境

        ROS以其點對點設(shè)計、模塊化程度高、代碼可重利用性強(qiáng)、采用分布式架構(gòu)等優(yōu)點成為目前國內(nèi)外機(jī)器人研究者的主要操作平臺。在ROS操作平臺中利用仿真軟件Gazebo能夠模擬現(xiàn)實生活場景搭建3-D仿真環(huán)境。相比普通2-D仿真環(huán)境,如MobileSim,Gazebo能夠更加真實地模擬事物的各種屬性以及物體之間在物理上合理的相互作用,如摩擦、碰撞、打滑等。兩種仿真環(huán)境的直觀展現(xiàn)如圖1所示。

        圖1 仿真環(huán)境Fig.1 Simulation environment

        本文共搭建了4種仿真環(huán)境,包括客廳、臥室、廚房、衛(wèi)生間,每個房間的大小、形狀、位置都參考真實生活場景,每個場景中都有相應(yīng)的擺設(shè),如客廳擺放有茶幾、沙發(fā)等家具。由于Gazebo的編輯界面僅包含一些簡單模型,衣柜、花盆等模型需在solidworks中進(jìn)行編輯,再將文件導(dǎo)入Gazebo。

        1.2 數(shù)據(jù)采集

        在仿真場景中,模擬移動機(jī)器人Pioneer 3-AT進(jìn)行數(shù)據(jù)采集,在該移動機(jī)器人平臺上安裝激光雷達(dá)傳感器RP LIDAR A1,其最大掃描距離為6 m,掃描范圍為360°,每進(jìn)行一次范圍掃描,將提取到一組包含400個采樣點的距離數(shù)據(jù)的測距信息。

        通過ROS節(jié)點發(fā)布命令消息控制移動機(jī)器人的行駛方向與時間,使移動機(jī)器人在仿真環(huán)境中無碰撞前行,且所經(jīng)路途均無重復(fù)。同時對激光雷達(dá)主題進(jìn)行訂閱,實時記錄并保存所采集到的測距信息。由于各房間大小不同,在每個房間中所采集到的樣本數(shù)量也有所差別,臥室樣本為751、廚房樣本為678、客廳樣本為1338、衛(wèi)生間樣本為572。

        2 數(shù)據(jù)特征提取

        每一組原始的激光雷達(dá)測距數(shù)據(jù)均為單純的離散數(shù)據(jù)集,各個數(shù)據(jù)的關(guān)聯(lián)性很弱,邊緣特征和局部特征均很模糊,無法進(jìn)行有效的特征提取,故需要對數(shù)據(jù)進(jìn)行處理。特征提取過程如圖2所示。

        圖2 特征提取過程Fig.2 Feature extraction process

        以任意一組激光雷達(dá)所測得的距離數(shù)據(jù)為例,利用Matlab將其轉(zhuǎn)化為極坐標(biāo)圖,如圖2a所示,圖像的中心點為O,進(jìn)行范圍掃描時,將裝有激光雷達(dá)或聲納傳感器的移動機(jī)器人所處的位置相鄰的點連接起來便得到紅色邊緣部分,表示該時刻所掃描到的環(huán)境的輪廓信息。

        為除去冗余信息,進(jìn)一步提取有效特征,如圖2b所示,將極坐標(biāo)圖提取到直角坐標(biāo)系中,生成矩形圖,矩形圖的中點為極坐標(biāo)圖的原點。為增強(qiáng)其特征信息,對極坐標(biāo)圖中的范圍輪廓內(nèi)部進(jìn)行顏色填充,此時所得到的圖像為以白色為背景的三通道彩色圖像。

        圖像處理對計算機(jī)的性能要求較高,所占內(nèi)存較大,為簡化計算,減少空間占用,先對彩色圖像進(jìn)行灰度化處理,將每個像素點的R,G,B分量分別求平均值,得到灰度圖像的像素信息矩陣,如圖2c所示。

        隨后使用最大類間方差法找到灰度圖像像素點的一個合適的閾值,將大于閾值的像素點的值轉(zhuǎn)換為1,小于閾值的像素點的值轉(zhuǎn)換為0,完成灰度圖像到二值圖像的轉(zhuǎn)換,如圖2d所示。最后,二值化圖像像素矩陣將作為輸入基于局部感受野的極限學(xué)習(xí)機(jī)的訓(xùn)練樣本和測試樣本。

        3 基于局部感受野的極限學(xué)習(xí)機(jī)

        基于局部感受野的極限學(xué)習(xí)機(jī)(ELM-LRF)是一種快速有效的機(jī)器學(xué)習(xí)算法。該算法在輸入層節(jié)點和隱藏層節(jié)點引入了根據(jù)連續(xù)概率分布函數(shù)產(chǎn)生的局部感受野,提出利用組合節(jié)點將多個隱藏層節(jié)點的輸出進(jìn)行組合。并且可隨機(jī)生成卷積層節(jié)點與輸入層節(jié)點之間的輸入權(quán)重,各網(wǎng)絡(luò)參數(shù)在學(xué)習(xí)過程中均不需要進(jìn)行迭代調(diào)整,最終可產(chǎn)生唯一的最優(yōu)解,因此,與SVM相比,ELM-LRF的學(xué)習(xí)速度要快幾十倍[9]。

        圖3 基于局部感受野的極限學(xué)習(xí)機(jī)原理圖

        (1)

        式中,i,j=1,2,…,(d-r+1)。

        組合層節(jié)點即為池化節(jié)點,對所得到的特征圖進(jìn)行平方根池化處理,這樣便將多個卷積節(jié)點所得到的特征值組合為一個節(jié)點值。設(shè)e為池化的大小,表示池化區(qū)域的中心到邊的距離,若hp,q,k表示第k個池化圖中的組合節(jié)點(p,q)的值,則hp,q,k的算式為

        (2)

        對池化層進(jìn)行全連接處理,即將某個輸入所得到的所有組合節(jié)點的值連接成一個行向量,假設(shè)共有N個輸入,則可得到N個組合的行向量,將它們組合在一起,形成組合層矩陣H∈RN×K·(d-r+1)2,采用正則化最小二乘法計算輸出權(quán)重矩陣β。

        當(dāng)N>K·(d-r+1)2時,

        (3)

        當(dāng)N≤K·(d-r+1)2時,

        (4)

        式中:C為可調(diào)參數(shù);T為輸入樣本所對應(yīng)的標(biāo)簽矩陣。本文中,輸入為二值化圖像像素矩陣,其大小為43×43,局部感受野的大小為5×5。

        4 實驗與結(jié)果分析

        每個房間隨機(jī)選取80%的樣本進(jìn)行訓(xùn)練學(xué)習(xí),其余樣本用于測試。則訓(xùn)練集共包含2670個樣本,其中600個取自臥室,542個取自廚房,458個取自衛(wèi)生間,1070個取自客廳,其余樣本全部組成測試集。給不同類型的房間設(shè)置不同的標(biāo)簽,臥室為1,廚房為2,客廳為3,衛(wèi)生間為4。生成訓(xùn)練標(biāo)簽矩陣的大小為2670×4,若第k個樣本取自客廳,則訓(xùn)練標(biāo)簽矩陣的第k行,除第3列的值為1,其余列的值都為0。同樣,生成測試標(biāo)簽矩陣。

        將特征圖個數(shù)設(shè)置為30,調(diào)節(jié)參數(shù)C從10-4到104,將訓(xùn)練集以及訓(xùn)練標(biāo)簽矩陣輸入ELM-LRF對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,獲得輸出權(quán)重β,隨后將測試集和測試標(biāo)簽輸入已完成訓(xùn)練的網(wǎng)絡(luò)結(jié)構(gòu),得到測試正確率。所得實驗結(jié)果如圖4所示。

        圖4 訓(xùn)練與測試正確率規(guī)律圖Fig.4 The correct rate of training and testing

        從圖中可看出,隨著C的增大,訓(xùn)練樣本的分類正確率越來越高,最終達(dá)到100%,測試樣本的分類正確率逐漸增大達(dá)到90%左右后逐漸減小,穩(wěn)定性較好。

        圖5表示各個房間的具體分類情況,可以看到,每個房間的分類正確率都達(dá)到了80%以上,分類效果很好。

        圖5 基于ELM-LRF分類的混淆結(jié)果Fig.5 Confusion results based on ELM-LRF classification

        利用SVM對激光雷達(dá)測距數(shù)據(jù)進(jìn)行分類實驗,測試結(jié)果如圖6所示。

        圖6 基于SVM分類的混淆結(jié)果Fig.6 Confusion results based on SVM classification

        與圖5進(jìn)行對比可見,應(yīng)用ELM-LRF的房間分類測試結(jié)果比SVM要好,前者每一類房間的識別率都比后者高很多,且前者的訓(xùn)練時間比后者快幾十倍。

        5 基于DR Dataset的驗證實驗

        圖7展示了數(shù)據(jù)采集平臺,在移動機(jī)器人Pioneer P3-DX上安裝激光測距雷達(dá)Hokuyo URG,其離地高度約為30 cm,測量半徑為5.6 m,掃描范圍為240°,同時在移動機(jī)器人平臺上安裝里程計,激光雷達(dá)測距信息與相應(yīng)的里程計讀數(shù)以10 幀/s的頻率輸出到計算機(jī),這樣便記錄下了該場景下的測量信息。

        圖7 DR Dataset數(shù)據(jù)采集平臺Fig.7 DR Dataset data acquisition platform

        原始的測量數(shù)據(jù)包括時間戳、激光雷達(dá)測距數(shù)據(jù)、里程計讀數(shù)等信息,分別將每組測量數(shù)據(jù)的激光雷達(dá)范圍掃描數(shù)據(jù)提取出來,轉(zhuǎn)化為二值化圖像并將像素矩陣作為ELM-LRF的輸入樣本。每類場景中,隨機(jī)選取80%的樣本組成訓(xùn)練集,其余樣本組成測試集,同時生成相應(yīng)的訓(xùn)練標(biāo)簽矩陣和測試標(biāo)簽矩陣。

        在K分別為10,20,30,40的情況下,調(diào)節(jié)C從10-5增長到104,實驗結(jié)果如圖8所示。

        圖8 測試正確率變化規(guī)律圖Fig.8 Correct rate of test

        從圖中可看出,隨著C的增大,測試正確率逐漸升高,當(dāng)C=10時正確率達(dá)到最大值,隨后逐漸降低。K越大,測試正確率越高,當(dāng)C=10,K=40時,總體的測試正確率最高,達(dá)到89%左右。表1描述了當(dāng)C=10,K=40時,訓(xùn)練集與測試集的樣本組成情況以及各類房間測試集分類結(jié)果的具體情況,每類場景的識別率均在80%以上。

        表1 樣本集組成與分類結(jié)果統(tǒng)計表

        實驗結(jié)果說明,本文提出的方法可有效地應(yīng)用于真實的室內(nèi)場景。

        6 結(jié)束語

        本文將激光雷達(dá)測距數(shù)據(jù)轉(zhuǎn)化為圖像信息,用于處理移動機(jī)器人的室內(nèi)場景識別問題,將基于局部感受野的極限學(xué)習(xí)機(jī)作為分類器,大大提高了分類效果。實驗結(jié)果證明:本文提出的方法可滿足移動機(jī)器人對室內(nèi)場景識別的要求,適用于各種室內(nèi)環(huán)境。

        猜你喜歡
        移動機(jī)器人
        移動機(jī)器人自主動態(tài)避障方法
        移動機(jī)器人VSLAM和VISLAM技術(shù)綜述
        基于改進(jìn)強(qiáng)化學(xué)習(xí)的移動機(jī)器人路徑規(guī)劃方法
        基于ROS與深度學(xué)習(xí)的移動機(jī)器人目標(biāo)識別系統(tǒng)
        電子測試(2018年15期)2018-09-26 06:01:34
        基于Twincat的移動機(jī)器人制孔系統(tǒng)
        室內(nèi)環(huán)境下移動機(jī)器人三維視覺SLAM
        簡述輪式移動機(jī)器人控制系統(tǒng)中的傳感器
        未知環(huán)境中移動機(jī)器人的環(huán)境探索與地圖構(gòu)建
        極坐標(biāo)系下移動機(jī)器人的點鎮(zhèn)定
        基于引導(dǎo)角的非完整移動機(jī)器人軌跡跟蹤控制
        开心久久婷婷综合中文字幕| 亚洲欧美日韩高清中文在线| 国产免费一区二区av| 国产激情一区二区三区不卡av| 久久无码字幕中文久久无码| 亚洲男同志网站| 精品亚洲女同一区二区| 少妇性l交大片免费1一少| 久久精品网站免费观看| 亚洲日本中文字幕天天更新| 色伊人国产高清在线| 国产成人亚洲精品一区二区三区| 国产亚洲aⅴ在线电影| 国产麻豆精品久久一二三| ZZIJZZIJ亚洲日本少妇| 在线观看日本一区二区三区| 一区二区三区内射美女毛片| 丁香五香天堂网| 亚洲国产综合专区在线电影| 日本在线一区二区免费| 欧美成人www在线观看| 无套内谢孕妇毛片免费看看| 一区二区无码精油按摩| 青青草成人免费在线观看视频| 一本色道久久综合无码人妻| 欧美一欧美一区二三区性| 亚洲综合天堂av网站在线观看| 日韩免费视频| 久久久精品欧美一区二区免费| 久久精品国产乱子伦多人| 国产一区二区免费在线视频| 免费高清av一区二区三区| 国产啪精品视频网站丝袜| 日本不卡一区二区三区在线| 午夜人妻久久久久久久久| 日韩内射美女人妻一区二区三区 | 久久免费视频国产| 国产极品嫩模大尺度在线播放| 国产高清乱码又大又圆| 无码a∨高潮抽搐流白浆| 波多吉野一区二区三区av|