亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于雙目視覺的無人機自主導航系統(tǒng)

        2019-10-15 08:50:02侯永宏呂華龍陳艷芳
        關(guān)鍵詞:系統(tǒng)

        侯永宏,劉 艷,呂華龍,吳 琦,趙 健,陳艷芳

        (1. 天津大學電氣自動化與信息工程學院,天津 300072;2. 天津航天中為數(shù)據(jù)系統(tǒng)科技有限公司,天津 300072)

        無人機在荒野搜救[1]、環(huán)境探測[2]、農(nóng)林植保、電力能源巡檢、消防救災、國土測繪、包裹派送等領(lǐng)域有著廣闊的應(yīng)用前景.提高無人機在復雜環(huán)境下的自主飛行能力,快速高效地自動規(guī)避障礙物,對拓寬無人機應(yīng)用領(lǐng)域、提高無人機工作效率具有重要意義.

        根據(jù)對障礙物的感知方式區(qū)別,目前的無人機避障方案主要有基于超聲波傳感器的避障方案[3]、基于激光傳感器的避障方案[4]以及視覺傳感器避障方案.其中超聲傳感器存在感知范圍窄、空間分辨率差、無法感知吸收聲波的物體,在大風干擾的情況下無法工作等缺點,只能作為一種輔助手段.激光傳感器障礙物感知精度高,但體積龐大、價格昂貴,不適用于載荷能力受限的低成本無人機系統(tǒng).視覺傳感器具有感知范圍寬、空間分辨率高、成本低的優(yōu)勢,其主要缺點是計算復雜度高、實時性差.近年來得益于計算機處理能力的快速提高,特別是圖像處理單元(graphic processing unit,GPU)并行處理技術(shù)的普及,使得在嵌入式平臺上完成復雜的實時視頻處理成為可能.

        在無人機精確定位方面,目前無人機大多采用GPS+慣性測量單元進行無人機的位姿估計,但在一些樓宇建筑物或者叢林等復雜場景中會存在沒有GPS信號的情況,使得無人機無法完成精準定位.雖然慣性測量單元可以進行輔助定位,但是慣性測量單元由于長時間的運行,逐漸累積誤差會產(chǎn)生嚴重的定位漂移.而采用基于視覺傳感器的里程計進行無人機定位,既可以不依賴于外部 GPS,也能避免嚴重定位漂移問題.

        目前,有多種基于視覺的機器人自主感知與導航算法已被提出.從研究方法來說,可分為基于深度學習的算法[5]與基于經(jīng)典的同時定位與建圖[6](simultaneous localization and mapping,SLAM)框架的算法.基于深度學習的定位與導航算法因為其計算量龐大,目前不適用于實時導航系統(tǒng).基于SLAM框架的算法根據(jù)視覺傳感器的類型,又可分為單目SLAM[7]系統(tǒng)、雙目 SLAM[8]系統(tǒng)、多目 SLAM 系統(tǒng)以及基于RGB-D相機[9-11]的SLMA系統(tǒng).單目相機對計算資源要求不高,但缺少物體實際的尺度信息,造成系統(tǒng)初始化困難[12];多目系統(tǒng)在場景的三維重建方面有更好的精度,但是很難做到無人機上的實時應(yīng)用;RGB-D相機能直接獲得深度信息,但易受日光干擾,不適用于室外環(huán)境.雙目相機SLAM系統(tǒng)不存在尺度不確定性問題且可用于室外環(huán)境,適用于在未知室外環(huán)境的實時無人機導航系統(tǒng).

        本文設(shè)計并實現(xiàn)了一種基于雙目視覺的小型旋翼無人機自主導航系統(tǒng).該系統(tǒng)利用雙目相機獲取環(huán)境信息,在機載的嵌入式處理平臺上完成了無人機飛行的視覺里程計、障礙物感知、局部環(huán)境地圖的構(gòu)建、以及飛行路徑的自主規(guī)劃等自主避障所需的全部實時信號處理,取得了較好的避障效果.

        1 系統(tǒng)結(jié)構(gòu)

        本系統(tǒng)的軟硬件架構(gòu)如圖 1所示.系統(tǒng)分為多旋翼無人機平臺、飛行控制器、機載信號處理平臺和視覺感知模組 4個部分.為了滿足無人機的有效載荷,使得無人機既能掛載視覺感知模組、信號處理平臺同時又可以執(zhí)行救援等其他任務(wù),系統(tǒng)選用了額定載荷2kg的Tarot 650四旋翼機架.通用的Pixhawk飛行控制器不僅能夠保證無人機的平穩(wěn)飛行與運動控制,而且還有豐富的外部控制接口.本系統(tǒng)通過Pixhawk的串口采用基于機器人操作系統(tǒng)(robot operation system,ROS)的 MavLink協(xié)議與機載信號處理平臺進行數(shù)據(jù)通信.信號處理平臺采用 NVIDIA Jetson TX2模組,其具有4顆ARM A57 CPU核、256顆CUDA核以及8GB內(nèi)存空間,在功耗僅為7.5W的情況下,處理速度達到1.3TOPS(trillion operations per second).不僅運算能力強勁,而且體積小、重量輕,目前被廣泛應(yīng)用于各類無人駕駛系統(tǒng)作為信號處理平臺.視覺感知模組采用 StereoLabs ZED雙目立體視覺相機,其具有高分辨率、較佳的低光靈敏度,并且檢測距離可達到20m.

        圖1 系統(tǒng)軟件硬件框架Fig.1 Framework of the system software hardware

        2 雙目視覺避障算法

        所設(shè)計的無人機自主導航系統(tǒng),使用 ZED雙目攝像機獲取場景信息,無人機定位部分采用 ORB SLAM2算法,得到無人機位姿信息,再利用改進的SAD算法檢測障礙物點,結(jié)合障礙物點與無人機位姿生成局部障礙物地圖,再根據(jù)本地軌跡庫,規(guī)劃航跡,實現(xiàn)無人機自主導航.

        2.1 視覺里程計

        無人機在復雜環(huán)境下飛行,會存在無法使用GPS進行定位的情況,為了實現(xiàn)在無 GPS信號的環(huán)境下平穩(wěn)、正確飛行,無人機需要對自己的飛行位姿(位置和姿態(tài))進行精確估計.視覺里程計就是利用連續(xù)視頻幀內(nèi)同一路標的位置變化來估計相機的運動軌跡.本系統(tǒng)視覺里程計(visual odometry,VO)模塊采用ORB SLAM[12-13]算法來進行無人機精確定位.

        視覺里程計的基本思想是,相機在運動過程中會觀測到三維世界中的物體并提取特征組成路標點地圖,不同幀圖像會觀測到路標點地圖中的同一路標點.通過當前幀圖像中特征點與路標點地圖中特征點的匹配,利用雙目相機的成像幾何模型,直接得到特征點的深度信息,進而求得其世界坐標,之后根據(jù)同一路標點在下一幀圖像中的坐標,可以求出不同幀之間的相機位姿變換(旋轉(zhuǎn)矩陣R和平移向量t).經(jīng)過累積和非線性優(yōu)化準確估計出無人機在整體運動過程中的狀態(tài).

        ORB SLAM 算法為降低視覺信息冗余度,從視頻序列中抽取一些幀進行位姿的計算,所選取的幀稱為關(guān)鍵幀.在關(guān)鍵幀的選取策略上,由于雙目視覺里程計能獲得深度信息,所以圖像首幀即為關(guān)鍵幀,從立體點中可以直接構(gòu)建初始化地圖,后續(xù)每隔固定時間間隔選取一次關(guān)鍵幀,特殊情況是當場景發(fā)生較大變化時,也需選取關(guān)鍵幀.

        ORB-SLAM 算法采用 ORB特征點作為前端匹配特征點.ORB特征由關(guān)鍵點和描述子兩部分組成[14],關(guān)鍵點稱為“oriented FAST”,它改進了FAST[15]不具有方向性的問題;描述子稱為BRIEF[16](binary robust independent elementary feature),是一種快速的二進制描述子,用于匹配原始關(guān)鍵點.得到匹配點后,即可計算出關(guān)鍵點在世界坐標系中的坐標.

        由匹配點計算物體實際坐標的具體方法.首先采用PnP(perspective-n-point)幾何約束關(guān)系初步得到兩幀之間的相對位姿.由于匹配的關(guān)鍵點會存在噪聲,這樣計算出來的位姿誤差較大,需要使用光束法平差(bundle adjustment,BA)進一步優(yōu)化無人機位姿.BA算法是非線性優(yōu)化中計算最小化重投影誤差的方法.本系統(tǒng)采用的BA只對兩幀圖像的運動進行優(yōu)化,可以認為是純運動 BA.定義旋轉(zhuǎn)矩陣R∈SO(3),平移向量t∈?3,χ是所有匹配點集合,BA的優(yōu)化目標是最小化在世界坐標系中匹配到的路標點Xi∈?3與關(guān)鍵點xi∈?3之間的重投影誤差為

        式中:ρ為穩(wěn)健的 Huber損失函數(shù);Δ為協(xié)方差矩陣,利用Δ對重投影誤差求橢球范數(shù);(fx,fy)為焦距;b為基線;(cx, cy)為像素坐標系下坐標原點從圖片中心平移到圖片左上角造成的平移量,以上參數(shù)均可通過相機標定獲得.該式實現(xiàn)相機坐標系下的路標點投影到像素坐標系下.在相機坐標系中,通常Z軸指向相機前方,X軸向右,Y軸向下,坐標原點在相機中心,則Z軸數(shù)據(jù)大小代表路標點深度信息.

        由于長時間的相對位姿誤差累積會帶來定位漂移誤差,ORB SLAM 算法后端優(yōu)化應(yīng)用局部 BA優(yōu)化算法,減少漂移誤差.采用與 ORB-SLAM[12]中基本相同的關(guān)鍵幀插入與剔除策略,同時增加一個判斷標準,即當前幀的關(guān)鍵點小于一定數(shù)目或者幀中出現(xiàn)的新關(guān)鍵點大于一定數(shù)目時插入新的關(guān)鍵幀.對于新場景內(nèi)的關(guān)鍵幀KL,進行局部BA優(yōu)化得

        局部BA相對于純運動BA,添加優(yōu)化KL幀中所有關(guān)鍵點PL在地圖中的 3D坐標,該優(yōu)化需利用本次地圖時間內(nèi)所有的關(guān)鍵幀K.集合kχ中的點表示第k個關(guān)鍵幀中與PL匹配的關(guān)鍵點.

        使用 ORB SLAM2算法,設(shè)計的無人機系統(tǒng)在沒有 GPS的情況下也能實現(xiàn)精確的定位,得到無人機在世界坐標系中的位姿,提高本系統(tǒng)的穩(wěn)定性.

        2.2 基于雙目視覺的障礙物感知

        在無人機自主導航中,無人機對周圍環(huán)境的精確感知是定位與構(gòu)建地圖的基礎(chǔ)與前提.

        對于實際飛行中的無人機系統(tǒng),要達到有效躲避障礙物的需求,必須有較高的計算效率,穩(wěn)定的計算精度來自主感知周圍環(huán)境.

        在估計環(huán)境深度信息時,一般采用對雙目成像像素匹配的方法完成環(huán)境深度的估計.但如果對無人機雙目成像的所有像素點做立體匹配,會造成大量信息冗余,浪費機載計算機有限的計算資源,難以達到實時性的要求.所以在識別障礙物時,只需計算障礙物的輪廓信息,并且只把關(guān)注的焦點集中在飛行前方一定范圍內(nèi),在雙目視圖的左右圖像中匹配障礙物的輪廓像素點即可識別障礙物的位置和大小.

        本系統(tǒng)中使用二階微分的拉普拉斯算子(LOG)進行邊緣檢測,獲取障礙物的邊緣信息為

        式中:I( x, y)表示原始圖像中坐標是(x, y)的像素點;L( x, y)表示進行拉普拉斯變換后的像素點.

        根據(jù)初步提取的障礙物對應(yīng)像素點在左目圖像中的位置,為了獲得障礙物實際的位置與深度信息,需要在右目圖像中尋找匹配的像素點.在這一步中采用經(jīng)過改進的圖像塊匹配算法 SAD(sum of absolute differences).其基本思想是取左、右目圖像像素塊中對應(yīng)像素的差的絕對值之和,據(jù)此評估兩個圖像塊的相似度[17].

        傳統(tǒng)的SAD匹配估計的是一張圖像中所有像素點的視差信息.每一個像素點的視差信息的計算,需要通過對右目圖像對應(yīng)的極線上所有像素周圍的像素塊進行匹配,選取像素差值最小的點作為匹配點,再計算相應(yīng)視差.這樣一個匹配過程的時間復雜度是相當高的,很難保證足夠的幀率.

        改進的SAD算法僅僅需要均勻稀疏的像素塊視差和每一幀左、右目圖像中的固定視差大小的像素塊匹配,同時整個匹配過程使用 CUDA加速.①均勻稀疏是指對一張 1280×720的圖片,將其分割成12×12大小的網(wǎng)格,隨后只求這些網(wǎng)格中心點(同時也應(yīng)當是邊緣點)對應(yīng)的像素塊的視差,有效減少將近兩個數(shù)量級的匹配時間復雜度;②固定視差大小匹配是指,假定無人機只關(guān)心前方固定距離處的障礙物,在視頻流中也就是固定深度處的像素塊,深度反推出在左、右目圖像中的固定視差,通過計算固定視差處的像素塊的像素差值是否在一定閾值內(nèi)來確定是否匹配,通過這種方法又可以降低一個數(shù)量級左右的時間復雜度;③同時將整個視差估計以及預先的濾波(拉普拉斯邊緣提取設(shè)定閾值以及雙邊濾波去除噪點)過程都放在NVIDIA Jetson TX2的GPU當中進行并行運算,有效提升障礙物感知過程的效率,保障系統(tǒng)的實時性.

        經(jīng)典SAD算法流程如下.

        從左到右、從上到下依次掃描左目圖像中像素.

        (1) 選定圖像像素點,并以此為中心,構(gòu)造一個n×n的窗口,用窗口分別覆蓋左、右目圖像對應(yīng)區(qū)域,窗口中心點在選中像素點的坐標上;

        (2) 左目覆蓋區(qū)域減去右目覆蓋區(qū)域,并求出所有像素點灰度差的絕對值之和;

        (3) 在同一水平線上移動右目圖像的窗口,在一定搜索范圍d內(nèi)重復上一步的處理;

        (4) 找到這個范圍內(nèi)SAD值在規(guī)定閾值內(nèi)的窗口,即找到了左目圖像邊緣點的最佳匹配的像素塊.

        SAD值的求解公式為

        式中L( i)表示拉普拉斯變換后的像素點.

        本系統(tǒng)根據(jù)無人機的飛行速度及系統(tǒng)響應(yīng)時間,采用“推掃式”障礙物深度感知方法.即設(shè)定對于每幀圖像,只尋找無人機前方固定范圍處(即圖片中固定深度)的障礙物,無人機在持續(xù)飛行過程中,如圖 2所示,根據(jù)當前范圍(深色部分)所捕捉到的障礙物信息,結(jié)合之前(淺色部分)的障礙物信息,逐步累積獲得周圍環(huán)境的整體感知.

        圖2 “推掃式”圖像感知Fig.2 Pushbroom image perception

        根據(jù)經(jīng)典的雙目攝像機針孔模型的三角相似原理,可以得到固定深度下的視差大小為

        式中:B為基線,代表雙目攝像機左右攝像頭之間的距離;f為攝像頭的焦距.B與f均是攝像機的基本參數(shù)信息,本方法中設(shè)定取攝像機鏡頭前5 m的障礙物進行檢測,d則是同一物體在左右兩幅圖中的成像視差值,也是本文改進的SAD算法的搜索范圍.

        障礙物邊緣點匹配成功后,根據(jù)相機標定獲得的內(nèi)參矩陣,把障礙物點的像素坐標轉(zhuǎn)換到相機坐標.對于遠處的地面水平線和具有重復紋理信息的背景,系統(tǒng)可能會將其當做障礙物,因此,本系統(tǒng)加入水平一致性檢測消除該影響.本系統(tǒng)所采用的改進的 SAD匹配方法避免傳統(tǒng)匹配中的遍歷過程,極大地降低計算復雜度,提高處理速度,適用于無人機飛行過程中的實時障礙物檢測.

        2.3 點云地圖

        無人機自主規(guī)劃飛行軌跡,需要當前環(huán)境地圖.傳統(tǒng)方法需要先獲得當前環(huán)境的先驗地圖,使得無人機在已知環(huán)境下進行導航,此方法具有局限性的,不適用于所有場景.較好的解決方案是無人機在飛行的過程中進行地圖的構(gòu)建.受限于機載計算機的內(nèi)存大小,本方法不會對地圖進行本地化的存儲,所以本系統(tǒng)認為所有場景均是未知的.無人機不斷進行局部地圖的增量式構(gòu)建,以此作為導航的依據(jù).

        結(jié)合第 2.1節(jié)中得到的無人機在世界坐標系中的位姿與第 2.2節(jié)中得到的障礙物在相機坐標系中的位置,便可得到障礙物在世界坐標系中的三維坐標.本系統(tǒng)采用 PCL[18]中提出的基于點云的八叉樹結(jié)構(gòu)地圖.八叉樹地圖(octomap)是一種可壓縮、可更新并且分辨率可調(diào)的適用于導航的稠密地圖.八叉樹地圖把空間建模成許多立方體,大的立方體被逐漸均分成同等大小的 8個小立方體.用概率對數(shù)值描述某個小立方體中含有障礙物的概率,即

        式中:x為0~1的概率;y為概率對數(shù)值.當不斷觀測到某個節(jié)點被障礙物占據(jù)時,讓y增加一個值,否則減少一個值.對獲得的 y,根據(jù)式(7)求逆變換可以得到相應(yīng)的概率值.因此可以查詢某個空間范圍“可以通過的概率”,從而實現(xiàn)無人機飛行過程中的導航.

        為了避免在八叉樹中長時間積累大規(guī)模地圖信息,同時有效緩解處理負擔,本系統(tǒng)采用地圖生存期與關(guān)鍵幀機制,同時構(gòu)建兩個八叉樹地圖,如圖 3所示:一幅八叉樹地圖的生存時間是4s,當前運行的地圖是工作地圖,下一時刻的地圖是構(gòu)造地圖.為了確保在丟棄一個八叉樹時不會錯過一個潛在的障礙,在工作地圖運行 2s時,構(gòu)造地圖開始同步構(gòu)建,工作地圖和構(gòu)造地圖之間至少存在2s的重疊期.

        通過上述方法,無人機就獲得了周圍環(huán)境的局部障礙物地圖信息.

        圖3 地圖生存期Fig.3 Map lifetime

        2.4 基于軌跡庫的路徑規(guī)劃

        無人機的軌跡規(guī)劃是指計算機根據(jù)周邊障礙物信息規(guī)劃出一條能有效躲避障礙物的安全飛行路徑.由于無人機在局部地圖中只需進行局部路徑規(guī)劃,本系統(tǒng)根據(jù)已生成的局部障礙物地圖,采用一種簡化的基于本地軌跡庫的航跡規(guī)劃方法.

        具體過程如下.

        (1) 首先選擇無人機與當前地圖障礙物的最近距離dobs當做判斷當前路徑上是否有障礙物的標準,并且設(shè)定一個參考閾值dref,如果dobs>dref,則認為當前執(zhí)行路徑上沒有障礙物(即當前執(zhí)行路徑安全),反之則認為是有障礙物.

        (2) 狀態(tài)集合S={s0, s1}代表當前無人機的飛行狀態(tài),s0表示當前路徑安全,s1代表路徑不安全.動作集合A={a0, a1, a2, a3}中的元素分別代表無人機沿直線飛行、向左飛行、向右飛行以及朝終點飛行的飛行指令.其中a3表示無人機根據(jù)當前飛行位姿、速度以及終點坐標,在不考慮未觀測區(qū)域障礙物的情況下,直接朝向終點飛行的路徑.假設(shè)a代表無人機當前動作,具體的軌跡庫遍歷順序見表1.

        表1 軌跡庫遍歷順序Tab.1 Traversal order of trajectory library

        2.5 系統(tǒng)優(yōu)化

        自主導航的難點之一在于規(guī)劃有限的機載計算資源[19].前文中的各個模塊都占用一定的 CPU資源,尤其是地圖的構(gòu)建需要占用更大的處理資源.考慮到本系統(tǒng)所使用的處理器 NVIDIA Jetson TX2中帶有GPU模塊(具有256個CUDA內(nèi)核),為了降低CPU的工作負擔并充分利用處理器的資源,實驗中使用大規(guī)模并行計算工具 CUDA,優(yōu)化系統(tǒng)的建圖框架,縮短程序運行時間,達到實時運行效果.

        為驗證 CUDA提高系統(tǒng)運行速度的效果,在NVIDIA Jetson TX2上分別進行 3種實驗,如表 2 所示.

        表2 GPU加速對比實驗Tab.2 GPU comparative experiment

        實驗 1~3是本系統(tǒng)的不同方案,實驗 1代表不使用CUDA進行加速,分辨率是640× 480,實驗2代表經(jīng)過CUDA加速,分辨率同實驗1,實驗3代表經(jīng)過 GPU 加速,分辨率是1280× 720,經(jīng)過對比可以看出,在同樣的視頻質(zhì)量下,使用 GPU加速優(yōu)化系統(tǒng),障礙物感知速度提高了4倍左右,達到了明顯的加速效果.

        與文獻[20]中的實驗方法進行對比.換算成同樣的分辨率,本系統(tǒng)在640× 480分辨率下,處理幀率與其相比提升 4倍;當分辨率提高到1280× 720時,雖然處理幀率有所下降,但是系統(tǒng)整體性能仍有大幅提高,從一定程度上驗證了本系統(tǒng)的優(yōu)化效果.

        3 實驗結(jié)果與分析

        對所設(shè)計方案分別進行仿真和真實飛行兩種實驗進行驗證,實驗中所有的算法均在嵌入式處理器NVIDIA Jetson TX2上完成,實驗平臺如圖4所示.

        圖4 實驗平臺Fig.4 Experimental platform

        3.1 仿真驗證

        仿真實驗在能渲染 3D世界的虛幻引擎 Unreal Engine 4(UE4)上搭配Microsoft開源框架AirSim的環(huán)境下進行[21].Airsim提供了多種無人機、無人車模型,能夠虛擬出 GPS、IMU、氣壓計和磁力計等多種傳感器.配合 UE4引擎使用,能夠渲染出非常詳細的3D城市環(huán)境.在Airsim仿真中,通過API接口獲取仿真環(huán)境中虛擬相機圖片,通過本系統(tǒng)的算法處理,將最終的無人機飛行指令反饋給仿真環(huán)境的無人機模型執(zhí)行.

        圖5 仿真試驗展示Fig.5 Simulation display

        圖 5(a)顯示出無人機對距離 5m的障礙物進行了標注,用多個藍色方框覆蓋樹干.最終建立的點云局部地圖如圖5(b)所示.圖5(c)、(d)是第 3視角的不同場景軌跡圖,圖 5(d)中上方的立方體堆積物是檢測出的障礙物,目的地設(shè)定在地圖的右上方.左半部分的3條直線是世界地圖坐標系,右半部分較短的線是從當前位置指向當前規(guī)劃航線最遠航點的矢量線,連續(xù)的線代表實際飛行的軌跡.從圖 5中可以看出無人機在避開前面的障礙物時,首先不停地向右飛行并且旋轉(zhuǎn)偏航角,隨后選擇沿著障礙物直線飛行,直到指向終點的飛行路徑是可以安全飛行的,則選擇向終點飛行的路徑.

        3.2 真實飛行

        基于安全性考慮,飛行實驗選擇在航天中為數(shù)據(jù)系統(tǒng)有限公司的無人機專用實驗場地進行.

        圖 6是測試時的真實場景,由于環(huán)境所限,無人機設(shè)定為定高飛行,目標是自主繞過無人機的飛行路線上的一排樹木.實驗中設(shè)定相機采集的視頻分辨率是1280× 720,實際處理幀率達到60幀/s.

        圖6 真實飛行展示Fig.6 Real flight show

        圖 6(b)是無人機飛行時攝像頭拍攝的實時場景,紅色方框代表識別出的障礙物點(上方陰影是無人機螺旋槳).圖 6(c)是真實場景測試時記錄下的飛行軌跡和建立的地圖,無人機從圖 6(c)下方出發(fā),飛行終點在圖 6(c)的左上方,其中圖片中間偏左部分的像素點區(qū)域是無人機識別出的障礙物區(qū)域,圍繞障礙物區(qū)域的綠色線段是無人機飛行的實際軌跡.無人機先是直線飛行,在距離樹木大約5m的時候識別出前方的障礙物,隨即不斷進行航跡的規(guī)劃,多次試探著改變方向角,同時繼續(xù)觀察周圍環(huán)境,從而避開障礙物,成功飛向終點.

        4 結(jié) 語

        本文介紹了一種無人機在復雜場景下的自主感知與路徑規(guī)劃系統(tǒng).首先采用 ORB視覺里程計獲取無人機位姿,再使用 SAD障礙物點提取搭配“推掃式”感知技術(shù)獲得障礙物信息,上述兩種方法結(jié)合生成局部八叉樹地圖,其次使用基于本地軌跡庫的路徑規(guī)劃算法,最后在NVIDIA Jetson TX2平臺上實現(xiàn)了所有的信號處理,并用 GPU對關(guān)鍵算法進行了加速.實驗結(jié)果表明,所設(shè)計的方案能實時處理雙目視頻信息,感知飛行環(huán)境,避開飛行路線上的障礙物.為提高低成本多旋翼無人機自主飛行能力,提高其在未知環(huán)境下的避障能力做了積極的探索.

        猜你喜歡
        系統(tǒng)
        Smartflower POP 一體式光伏系統(tǒng)
        WJ-700無人機系統(tǒng)
        ZC系列無人機遙感系統(tǒng)
        北京測繪(2020年12期)2020-12-29 01:33:58
        基于PowerPC+FPGA顯示系統(tǒng)
        半沸制皂系統(tǒng)(下)
        連通與提升系統(tǒng)的最后一塊拼圖 Audiolab 傲立 M-DAC mini
        看全色黄大色大片免费久久久| 成人免费看www网址入口| 初尝黑人嗷嗷叫中文字幕| 中文字幕亚洲无线码a| 日韩av中文字幕波多野九色| 国产极品粉嫩福利姬萌白酱| 日本熟妇人妻xxxxx视频| 成人无码区免费AⅤ片WWW| 亚洲国产综合精品一区最新| 欧美牲交a欧美牲交aⅴ免费下载| 人妻暴雨中被强制侵犯在线| 全免费a级毛片免费看| 国产亚洲精品免费专线视频| 国产午夜福利片在线观看| 朝鲜女子内射杂交bbw| 亚洲综合网站精品一区二区| 97成人精品在线视频| 亚洲av成人片在线观看| 乱码午夜-极国产极内射| 精品国产福利一区二区三区| 久久久久久久国产精品电影| 亚洲精品视频一区二区三区四区 | 免费国产在线精品三区| 日本久久久免费观看视频| 国产一区二区女内射| 国产精品久久码一区二区| 欧美日韩国产高清| 极品夫妻一区二区三区| 亚洲av永久无码一区二区三区| 高潮毛片无遮挡高清免费| 国产精品天干天干在线观蜜臀| 人妻中文字幕在线一二区| 日韩网红少妇无码视频香港| 香蕉久久人人97超碰caoproen| 国产精品国产三级国产an| 漂亮丰满人妻被中出中文字幕| 亚洲av无码一区二区三区人妖 | 亚洲国产一区二区三区视频在线| 亚洲一区二区免费在线观看视频| 国产av无码专区亚洲awww| 国产老妇伦国产熟女老妇高清|