黃沛琛,羅錫文,張智剛,劉兆朋
(1.華南農(nóng)業(yè)大學工程學院,廣東 廣州 510642; 2.華南農(nóng)業(yè)大學南方農(nóng)業(yè)機械與裝備關(guān)鍵技術(shù)教育部重點實驗室,廣東 廣州 510642)
自動導航是實現(xiàn)農(nóng)業(yè)機械智能化的核心問題之一,定位是實現(xiàn)自動導航的基礎性難題[1]。目前,GPS、激光雷達與機器視覺是農(nóng)業(yè)機械自動導航定位研究的三大熱門[2]。GPS定位精度高,但其會因障礙物遮擋而導致定位精度下降甚至丟失信號,如林業(yè)和果園環(huán)境[3 - 7]。激光檢測技術(shù)測量精度高,能以較高頻率提供準確的距離信息,但設備成本高,且探測范圍有限[8-12]。機器視覺技術(shù)憑借其探測范圍廣、獲取信息完整、成本低等優(yōu)勢,成為目前國內(nèi)外應用較多的機器人定位方式[13 - 19]。
機器視覺定位是一個僅利用單個或多個相機的輸入信息估計物體的運動信息的過程。根據(jù)所使用的相機數(shù)目可分為單目視覺定位和立體視覺定位。由于立體視覺可通過固定和已知的基線提供深度信息,容易確定位移絕對尺度因子,因此大部分的機器視覺定位研究集中在立體視覺定位[20]。Nister等人[21]利用隨機抽樣一致RANSAC(Random Sample Consensus)迭代提純,實現(xiàn)了魯棒的視覺運動估算。Olson等人[22]利用定位信息限制特征跟蹤的搜索范圍以提高跟蹤精度,并利用極大似然方法求解運動估計,在20 m的道路上獲得了1.2%的相對位置誤差。Sünderhauf等人[23]將稀疏光束平差法SBA(Sparse Bundle Adjustment) 擴展運用于立體視覺定位中,在初始三維模型和相機運動未知的情況下,對左右立體圖像對中獲取的特征運用滑動窗口 ( Sliding Window)方法,結(jié)合簡單的運動閾值濾波完成運動估計。Zhang等人[24]利用單目視覺與輪式里程計相結(jié)合,采用轉(zhuǎn)向模型分別還原旋轉(zhuǎn)姿態(tài)和位移姿態(tài),實驗結(jié)果顯示,平均誤差低于1%。許允喜等人[25]提出了立體視覺采用微粒群優(yōu)化的初始運動估計和內(nèi)點檢測新方法對車體進行運動的估計。王亞龍等人[26]針對移動服務機器人在未知環(huán)境下三維路徑估計的問題,設計了一種基于Kinect攝像機的實時估計機器人運動軌跡的方法,文獻所提出的方法可將視覺定位誤差降低至3.1%。夏凌楠等人[27]則采用慣性傳感器和立體視覺信息融合實現(xiàn)機器人定位。對于立體視覺,當物體距離遠大于基線時,立體視覺近似于單目視覺。因此,只有在合適范圍內(nèi)的物體特征,立體視覺才能提供比較精確的景深信息。同時,立體攝像機參數(shù)校正過程較單目攝像機復雜,而攝像機參數(shù)校正的精度在很大程度上影響機器視覺定位算法的精度。相比之下,單目攝像機具有成本低、參數(shù)校正過程容易和校正精度高的優(yōu)點,但其最大的缺點是缺少位移絕對尺度。近年來研究指出,加入一定的約束和假設條件,可以恢復其絕對尺度,如利用輪式車體運動的非完整性約束[28]以及利用車體運動在平坦地形上的假設等[29]。
本文通過對捕獲的每幀圖像進行特征點檢測與跟蹤,基于特征點配對,還原農(nóng)業(yè)車輛行駛過程中的姿態(tài)信息。同時,通過假設車輛前方區(qū)域近似平坦,攝像機離地高度近似固定不變,實時修正車輛位移的絕對尺度因子,配合姿態(tài)閾值濾波,對車輛姿態(tài)信息進行在線修正。實驗以實時動態(tài)全球定位系統(tǒng)RTK-GPS(Real-Time Kinematic Global Positioning System)定位數(shù)據(jù)作為對比,選擇在三種不同的場景進行檢測。
由于blob和corner算子具有特征點位置計算精確的優(yōu)點,本文對采集的每幀圖像分別采用5*5模板的blob濾波器和corner濾波器進行濾波。對濾波后的圖像采用非最大值抑制算法產(chǎn)生后續(xù)配對的候選特征點[30]。為確保計算效率,每幀圖像提取候選特征點不超過1 000個。
給定兩個提取的特征點,對其的11*11區(qū)域范圍內(nèi)Sobel算子水平濾波和垂直濾波后的響應采用絕對差值總和SAD(Sum of Absolute Differences)公式進行區(qū)域匹配。一旦SAD計算出現(xiàn)最小值,則成功獲得最優(yōu)匹配特征點對。圖1為連續(xù)兩幀圖像特征點匹配后在k-1圖像幀中顯示的結(jié)果,匹配特征點數(shù)目為858個,特征點檢測時間為13 ms,特征點匹配時間為22 ms。
Figure 1 Feature matching results圖1 特征點配對結(jié)果
本文計算農(nóng)業(yè)車體姿態(tài)包括車輛的平面位置信息和航向角。算法分成兩步,對于初始采集的前兩幀圖像采用2D-2D特征點配對方法計算車體姿態(tài)與重構(gòu)特征點的三維坐標;對于第三幀開始的圖像序列,則采用3D-2D特征點配對方法計算姿態(tài)與重構(gòu)特征點的三維坐標。
(1)對于已標定內(nèi)部參數(shù)的攝像機,可以通過本質(zhì)矩陣E描述兩幀圖像Ik-1與Ik之間的幾何關(guān)系:
(1)
0
(2)
車體姿態(tài)估算步驟總結(jié)如下:
①獲取Ik-2,Ik-1圖像幀;
②提取并匹配兩幀圖像的特征點;
③重構(gòu)Ik-2,Ik-1圖像幀的配對特征點三維坐標;
④獲取圖像幀Ik;
⑤提取特征點并與Ik-1進行匹配;
⑥對3D-2D匹配的特征點采用PnP(Perspective-n-Points)算法求解攝像機姿態(tài);
⑦重構(gòu)Ik-1,Ik圖像幀的新配對特征點三維坐標;
⑧重復步驟④;
在實際應用中,由于圖像噪聲、圖像模糊或車輛震蕩等原因會造成特征點檢測出現(xiàn)不精確,從而導致錯誤匹配的無效特征點,稱為外點(Outlier)。一旦出現(xiàn)外點,即使數(shù)目很少,計算得到的姿態(tài)結(jié)果也會與真實值有很大的偏差,因此需要識別外點,確定有效的特征匹配點對,稱為內(nèi)點(Inlier)。本文采用RANSAC較常用的處理外點方法;同時,本文采用稀疏光束平差法SBA(Sparse Bundle Adjustment)軟件包實現(xiàn)攝像機估算位姿與重構(gòu)的三維坐標實時局部最優(yōu)化[34]。
單目視覺的校正難度低于立體視覺,有利于降低相機校正過程引入的誤差對最終的定位精度造成的誤差影響。然而采用單目視覺設計定位算法的困難在于缺少絕對尺度,在模型求解過程中,會出現(xiàn)尺度因子的模糊性。因此,在設計單目視覺定位算法時,需加入一定約束條件和假設。本文采用Kitt等人[35]提出的方法求解單目視覺定位算法過程中的絕對尺度。該算法假設車體行進過程中前方一小塊區(qū)域是近似平坦地形,同時攝像機在移動過程中離地垂直高度近似固定不變,從而對絕對尺度加以約束。算法首先在所有重構(gòu)的三維坐標中篩選屬于車輛前方小區(qū)域地面的三維坐標點,采用式(3)確定絕對尺度因子s:
(3)
采用式(4)和式(5)分別對滑動窗口里面的圖像幀位移向量和重構(gòu)的三維點進行修正:
(4)
(5)
其中,i∈{S,k},S為滑動窗口中最早的關(guān)鍵幀序號。
Figure 2 Camera coordinate system圖2 攝像機坐標系
|headingk-headingk-1|≤η
(6)
|distk-distk-1|≤δ
(7)
Figure 3 視覺定位軌跡與RTK-GPS軌跡對比圖圖3 Comparison between visual localization and RTK-GPS
Figure 4 Absolute value of heading change estimated by localization圖4 視覺定位估算的相鄰航向角變化絕對值
式(6)為姿態(tài)閾值濾波器的航向角濾波條件,式(7)為位移向量的濾波條件,η和δ為預設的閾值,需根據(jù)實際行走地形設定。一旦估算的姿態(tài)不符合以上兩個濾波條件之一,則該估算姿態(tài)無效并忽略當前圖像幀,重新捕獲下一幀圖像進行姿態(tài)估算。一旦連續(xù)5幀圖像都無法滿足濾波條件時,則認為視覺定位出現(xiàn)較大誤差,算法停止。圖5為采用本文方法修正后的視覺定位軌跡和RTK-GPS定位軌跡對比圖,姿態(tài)閾值濾波器有效抑制了漂移現(xiàn)象。本文在后續(xù)實驗中將此方法整合至系統(tǒng),對視覺定位軌跡進行實時修正。
Figure 5 Comparison between refined visual localization and RTK-GPS圖5 修正后視覺定位軌跡與RTK-GPS定位軌跡對比圖
實驗選擇在華南農(nóng)業(yè)大學校園內(nèi)三種不同路面上進行(如圖6場景1~場景3所示)。場景1為空曠平坦的人造草坪標準操場;場景2為地表覆蓋雜草、部分土壤裸露的草地,帶有較多坑洼,單邊種植景觀樹,樹高約3.5 m,株間距5 m;場景3主干道為瀝青地面,道路平均寬度為4.1 m,主干道兩旁種植景觀樹,樹高約3.5 m,株間距5.1 m,道路總長100 m。車輛平臺采用John Deere越野車,圖像采集設備為德國ImagingSource工業(yè)攝像機DFK21AU04,采集圖像大小為640 *480像素,存儲格式為JPG。
Figure 6 Experimental environment and agricultural vehicle圖6 實驗場景圖及實驗車輛
攝像機安置于車頂前端(圖6實驗車輛所示),其中心距離地面垂直高度為2.15 m,向下傾斜9.45°。圖像處理所用計算機為SONY VGN-SR16,CPU主頻為2.26 GHz,內(nèi)存為2 GB,程序開發(fā)環(huán)境采用Visual Studio 2010,使用C++語言開發(fā)。實驗前,使用Camera Calibration Toolbox for Matlab工具箱對攝像機進行校正,獲取其內(nèi)部參數(shù)。在實驗過程中,對所采集的圖像先使用Damien Teney提出的算法在線進行圖像畸形校正[36]。定位對比設備采用John Deere RTK-GPS,GPS實時位置原始數(shù)據(jù)采用10 Hz方式通過RS232串口通信傳送至圖像處理計算機,經(jīng)坐標轉(zhuǎn)換后在軟件界面實時顯示視覺定位與GPS定位跟蹤效果。本文采用相對位置誤差和航向角誤差作為衡量視覺定位算法跟蹤效果的主要指標:
(8)
Table 1 Data of experimental environment 1
Table 2 Data of Experimental environment 2
Table 3 Data of experimental environment 3
估算的車輛位置坐標,xgi,ygi為對應時刻GPS原始定位數(shù)據(jù)轉(zhuǎn)后的位置坐標。
H=headingvi-headinggi
(9)
其中,headingvi為第i幀圖像估算的車輛航向角,headinggi為對應時刻GPS原始定位數(shù)據(jù)估算的航向角。
為了檢測算法的魯棒性和精度,車輛保持接近1 m/s的速度分別在三種不同的場景進行測試。η和δ為多次實驗后的經(jīng)驗值,η調(diào)整范圍為40°~50°,δ調(diào)整范圍為1.0 m~1.5 m。依據(jù)不同行走地形,在此經(jīng)驗值范圍內(nèi)反復進行微調(diào),直到系統(tǒng)在該地形上有較好的定位效果,并以此η和δ值作為該地形的閾值。不同場景采用的閾值濾波參數(shù)如下:場景1,η=45,δ=1.1;場景2,η=45,δ=1.2;場景3,η=45,δ=1.0。不同場景的位置偏差如表1~表3所示。由實驗統(tǒng)計結(jié)果可知,算法在場景1中有較好的跟蹤效果,相對位置偏差平均值為5.459 9%,標準差為4.184 2%,航向角平均偏差為7.717 70,標準差平均值為6.788 90。通過分析可知,場景1地表紋理特征豐富,因此視覺定位算法能捕獲足夠多的特征點進行匹配。同時,場景1為平坦的操場地面,可很好地滿足攝像機移動過程中離地面垂直高度固定不變的約束條件,故算法在場景1中有較好的跟蹤效果。盡管場景2地面紋理特征比場景1更為豐富,但場景2的地面出現(xiàn)較多凹凸不平的坑洼,致使約束條件不能很好地滿足,同時,凹凸的地面也導致人工駕駛難以保持勻速行駛,加劇車輛的顛簸,場景2的相對位置偏差平均值為8.373 1%,標準差為5.110 7%,航向角平均偏差為5.738 9°,標準差平均值為4.834 9°。場景3的地表紋理特征不太豐富,但其地表相對平坦,出現(xiàn)的凹凸地形較場景2少,配合本文的姿態(tài)閾值濾波器,跟蹤效果較為理想,相對位置偏差平均值為6.443 94%,標準差為3.811 84%,航向角平均偏差為3.438 3°,標準差平均值為3.134 0°。圖7為場景3其中一次實驗圖像序列離線處理后的視覺定位與GPS定位效果對比圖,由圖6可知,視覺定位軌跡曲線在車輛發(fā)生幅度較大的轉(zhuǎn)向時,算法處理時間滯后于車輛的變化,此時產(chǎn)生位置偏差,并且這個偏差累積在后續(xù)的定位跟蹤過程中。但是,只要車輛不發(fā)生大幅度轉(zhuǎn)向,視覺定位算法對于位置和航向角都能有較好的跟蹤精度。對三種場景數(shù)據(jù)統(tǒng)計分析可知,本文所提出的視覺定位算法在地表紋理特征豐富、地面較為平坦的道路有較好的定位效果。在凹凸不平的地面,加入本文的姿態(tài)閾值濾波器能夠在一定程度降低定位誤差。同時,本文在實驗過程中發(fā)現(xiàn)提升攝像機高度有利于近似滿足約束條件。本文在實驗過程中發(fā)現(xiàn),只采用單目攝像機難以消除航向角偏差、位置偏差的誤差累積,配合絕對姿態(tài)傳感器如慣性測量裝置IMU(Intertial Measurement Unit)或RTK-GPS會是一個解決視覺定位算法誤差累加的方法。
Figure 7 Localization result comparison between the visual localization algorithm and GPS圖7 視覺定位算法與GPS定位軌跡對比圖
本文針對農(nóng)業(yè)機械在果園作業(yè)時視覺定位算法進行了研究,設計了基于單目攝像機進行特征點捕獲、特征點跟蹤,采用特定約束條件求解車體姿態(tài)的定位算法,并采用RTK-GPS數(shù)據(jù)作為參照進行了實驗。
(1)針對果園環(huán)境復雜,有利于特征點檢測,提出了采用blob和corner算子配合非最大值抑制算法產(chǎn)生特征點,并采用SAD進行匹配,實驗表明每幀圖像檢測約600~900個特征點,所耗平均時間為38 ms。
(2)基于特征點匹配方法求解車體位置與航向角信息。同時,基于車體行進過程中前方小塊區(qū)域近似平坦,攝像機在移動過程中離地垂直高度近似固定不變的假設求解車體位移向量的絕對尺度,配合車輛姿態(tài)閾值濾波器實時修正所估算的位姿。
(3)在模擬果園環(huán)境的三種不同場景進行了實車實驗。三種不同場景的平均位置偏差分別為5.459 9%、8.373 1%、6.443 94%;三種不同場景的航向角變化平均值分別為7.717 7°、5.738 9°、3.438 3°。實驗結(jié)果表明,加入車輛姿態(tài)閾值濾波器的視覺定位算法,能夠有效降低因地形起伏不平所引致的誤差,在一定程度上提高了果園車輛自動導航的可靠性和適用性。
從現(xiàn)有的實驗結(jié)果來看,研究的算法是可行的,但定位精度還達不到RTK-GPS的厘米等級,在后期研究工作中,可與其他傳感器技術(shù)如輪系里程計、慣性導航設備或GPS 等相結(jié)合,能滿足如果園噴霧、 施藥等作業(yè)的精確定位要求。同時,車輛的顛簸引起攝像頭的俯仰也會對定位精度產(chǎn)生影響。因此,多傳感器信息融合、將機器學習和模式識別新方法引入至視覺定位系統(tǒng),采用GPU進行大規(guī)模的并行計算使算法從根本上得到加速將是下一步的主要研究工作。同時,在其他傳感器信號受干擾的地區(qū),如溫室、南方山區(qū)或果園環(huán)境,GPS信號會丟失,本文方法可作為一種低成本的輔助定位方式,起到補償 GPS 誤差的作用。
[1] Luo Xi-wen,Ou Ying-gang,Zhao Zuo-xi,et al.Research and development of intelligent flexible chassis for precision farming[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE),2005,21(2):83-85.(in Chinese)
[2] Li M,Imou K,Wakabayashi K,et al.Review of research on agricultural vehicle autonomous guidance[J].Int J Agric & Biol Eng,2009,2(3):1-16.
[3] Subramanian V, Burks T F, Arroyo A A.Development of machine vision and laser radar based autonomous vehicle guidance systems for citrus grove navigation[J].Computers and Electronics in Agriculture,2006,53(2):130-143.
[4] Luo Xi-wen, Zhang Zhi-gang,Zhao Zuo-xi,et al.Design of DGPS navigation control system for Dongfanghong X-804 tractor[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE),2009,25(11):139-145.(in Chinese)
[5] Chen Yan, Zhang Man,Ma Wen-qiang,et al.Positioning method of integrated navigation based on GPS and machine vision[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE),2011,27(3):126-130.(in Chinese)
[6] Zhang Hui-chun,Zheng Jia-qiang,Zhou Hong-ping.Positioning accuracy analysis of RBN DGPS applied in precision forestry[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE),2011,27(7):210-213.(in Chinese)
[7] Wan Li-qin,Qiu Bai-jing.Experiment and study of the positioning accuracy of DGPS in precision agriculture[J].Journal of Agricultural Mechanization Research,2003 (1):115-117.(in Chinese)
[8] Liu Pei,Chen Jun,Zhang Ming-ying.Automatic control system of orchard tractor based on laser navigation[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE),2011,27(3):196-199.(in Chinese)
[9] Wang Ling,Liu Si-yao,Lu Wei,et al.Laser detection method for cotton orientation in robotic cotton picking[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE),2014,30(14):42-47.(in Chinese)
[10] Feng Juan,Liu Gang,Si Yong-sheng,et al.Construction of laser vision system for apple harvesting robot[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE),2013,29(1):32-36.(in Chinese)
[11] Xue Jin-lin,Zhang Shun-shun.Navigation of an agricultural robot based on laser radar[J].Transactions of the Chinese Society for Agricultural Machinery,2014,45(9):55-60.(in Chinese)
[12] Li Yong-jian. Robot Monto Carlo self-localization method based on combination of vision sensors and laser range finder[J].Transactions of the Chinese Society for Agricultural Machinery,2012,43(1):170-174.(in Chinese)
[13] Feng Juan,Liu Gang,Si Yong-sheng,et al.Algorithm based on image processing technology to generate navigation directrix in orchard[J].Transactions of the Chinese Society for Agricultural Machinery,2012,43(7):185-189.(in Chinese)
[14] Wu Jia-yi,Yang Qing-hua,Bao Guan-jun,et al.Algorithm of path navigation line for robot in forestry environment based on machine vision[J].Transactions of the Chinese Society for Agricultural Machinery,2009,40(7):176-179.(in Chinese)
[15] Xiong Jun-tao,Zou Xiang-jun,Chen Li-juan,et al.Visual position of picking manipulator for disturbed litchi[J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE),2012,28(14):36-41.(in Chinese)
[16] Jiang Huan-yu,Peng Yong-shi,Shen Chuan,et al.Recognizing and locating ripe tomatoes based on binocular stereo vision technology[J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE),2008,24(8):279-283.(in Chinese)
[17] Zhou Jun,Chen Qin,Liang Quan.Vision navigation of agricultural mobile robot based on reinforcement learning[J].Transactions of the Chinese Society for Agricultural Machinery,2014,45(2):53-58.(in Chinese)
[18] Zhang Hao,Chen Yong,Wang Wei,et al.Positioning method for tea picking using active computer vision[J].Transactions of the Chinese Society for Agricultural Machinery,2014,45(9):61-65.(in Chinese)
[19] Meng Qing-kuan,Zhang Man,Qiu Rui-cheng,et al.Navigation line detection for farm machinery based on improved genetic algorithm[J].Transactions of the Chinese Society for Agricultural Machinery,2014,45(10):39-46.(in Chinese)
[20] Li Yu-bo,Zhu Xiao-zhou,Lu Hui-min,et al.Review on visual odometry technology[J].Application Research of Computers,2012,29(8):2801-2804.(in Chinese)
[21] Nister D, Naroditsky O,Bergen J. Visual odometry[C]∥Proc of IEEE International on Conference on Computer Vision and Pattern Recognition,2004:652-659.
[22] Olson C,Matthies L,Schoppers M,et al.Robust stereo ego-motion for long distance navigation[C]∥Proc of IEEE International Conference on Computer Vision and Pattern Recognition,2000:453-458.
[23] Sünderhauf N,Konolige K,Lacroix S,et al.Visual odometry using sparse bundle adjustment on an autonomous outdoor vehicle[C]∥Proc of Autonome Mobile System,2005:157-163.
[24] Zhang J,Singh S,Kantor G.Robust monocular visual odometry for a ground vehicle in undulating terrain[C]∥Proc of the 8th International Conference on Field and Service Robots (FSR),2014:311-326.
[25] Xu Yun-xi,Xiang Zhi-yu,Liu Ji-lin.Initial motion estimation and inliers detection based on particle swarm optimization for stereo odometry[J].Control Theory & Applications,2015,32(1):93-100.(in Chinese)
[26] Wang Ya-long,Zhang Qi-zhi,Zhou Ya-li.Design of 3D visual odometry based on Kinect[J].Journal of Computer Applications,2014,34(8):2371-2374.(in Chinese)
[27] Xia Ling-nan,Zhang Bo,Wang Ying-guan,et al.Robot localization algorithm based on inertial sensor and video odometry[J].Chinese Journal of Scientific Instrument, 2013,34(1):166-172.(in Chinese)
[28] Scaramuzza D,Fraundorfer F,Siegwart R.Real-time monocular visual odometry for on-road vehicles with 1-point RANSAC[C]∥Proc of IEEE International Conference on Robotics and Automation,2009:4293-4299.
[29] Scaramuzza D, Siegwart R.Appearance-guided monocular omnidirectional visual odometry for outdoor ground vehicles[J].IEEE Transactions on Robotics,2008,24(5):1015-1026.
[30] Neubeck A,Gool L V.Efficient non-maximum suppression[C]∥Proc of ICPR,2006:850-855.
[31] Longuet-Higgins H. A computer algorithm for reconstructing a scene from two projections[J].Nature,1981,293(10):133-135.
[32] Shewchuk J R.Triangle:Engineering a 2D quality mesh generator and delaunay triangualtor[M]∥Applied Computational Geometry Towards Geometric Engineering. Berlin:Springer, 2012:203-222.
[33] Moreno-Noguer F,Lepetit V,Fua P.Accurate non-iterativeO(n) solution to the PnP problem[C]∥Proc of IEEE International Conference on Computer Vision,2007:1-8.
[34] SBA: A generic sparse bundle adjustment C/C++ package based on the Levenberg-Marquardt algorithm[CP/OL].[2015-03-17].http://users.ics.forth.gr/~lourakis/sba/.
[35] Kitt B,Rehder J,Chambers A,et al.Monocular visual odometry using a planar road model to solve scale ambiguity[C]∥Proc of European Conference on Mobile Robots,2011:43-48.
[36] Damien’s Matlab library[CP/OL].[2015-03-17].http://www.montefiore.ulg.ac.be/~dteney/dml.htm.
附中文參考文獻:
[1] 羅錫文,區(qū)穎剛,趙祚喜,等.農(nóng)業(yè)智能作業(yè)平臺的模型的研
制[J].農(nóng)業(yè)工程學報,2005,21(2):83-85.
[4] 羅錫文,張智剛,趙祚喜,等.東方紅X-804拖拉機的DGPS自動導航控制系統(tǒng)[J].農(nóng)業(yè)工程學報,2009,25(11):139-145.
[5] 陳艷,張漫,馬文強,等.基于GPS和機器視覺的組合導航定位方法[J].農(nóng)業(yè)工程學報,2011,27(3):126-130.
[6] 張慧春,鄭加強,周宏平.精確林業(yè) GPS 信標差分定位精度分析[J].農(nóng)業(yè)工程學報,2011,27(7):210-213.
[7] 萬麗芹,邱白晶.GPS 在精確農(nóng)業(yè)應用中定位精度的實驗研究[J].農(nóng)機化研究,2003 (1):115-117.
[8] 劉沛,陳軍,張明穎.基于激光導航的果園拖拉機自動控制系統(tǒng)[J].農(nóng)業(yè)工程學報,2011,27(3):196-199.
[9] 王玲,劉思瑤,盧偉,等.面向采摘機器人的棉花激光定位算法[J].農(nóng)業(yè)工程學報,2014,30(14):42-47.
[10] 馮娟,劉剛,司永勝,等.蘋果采摘機器人激光視覺系統(tǒng)的構(gòu)建[J].農(nóng)業(yè)工程學報,2013,29(1):32-36.
[11] 薛金林,張順順.基于激光雷達的農(nóng)業(yè)機器人導航控制研究[J].農(nóng)業(yè)機械學報,2014,45(9):55-60.
[12] 李永堅.融合視覺和激光測距的機器人Monte Carlo自定位方法[J].農(nóng)業(yè)機械學報,2012,43(1):170-174.
[13] 馮娟,劉剛,司永勝,等.果園視覺導航基準線生成算法[J].農(nóng)業(yè)機械學報,2012,43(7):185-189.
[14] 吳佳藝,楊慶華,鮑官軍,等.基于機器視覺的林間導航路徑生成算法[J].農(nóng)業(yè)機械學報,2009,40(7):176-179.
[15] 熊俊濤,鄒湘軍,陳麗娟,等.采摘機械手對擾動荔枝的視覺定位[J].農(nóng)業(yè)工程學報,2012,28(14):36-41.
[16] 蔣煥煜,彭永石,申川,等.基于雙目立體視覺技術(shù)的成熟番茄識別與定位[J].農(nóng)業(yè)工程學報,2008,24(8):279-283.
[17] 周俊,陳欽,梁泉.基于強化學習的農(nóng)業(yè)移動機器人視覺導航[J].農(nóng)業(yè)機械學報,2014,45(2):53-58.
[18] 張浩,陳勇,汪巍,等.基于主動計算機視覺的茶葉采摘定位技術(shù)[J].農(nóng)業(yè)機械學報,2014,45(9):61-65.
[19] 孟慶寬,張漫,仇瑞承,等.基于改進遺傳算法的農(nóng)機具視覺導航線檢測[J].農(nóng)業(yè)機械學報,2014,45(10):39-46.
[20] 李宇波,朱效洲,盧惠民,等.視覺里程計技術(shù)綜述[J].計算機應用研究.2012,29(8):2801-2805.
[25] 許允喜,項志宇,劉濟林.立體視覺里程計中基于微粒群優(yōu)化的初始運動估計和內(nèi)點檢測[J].控制理論與應用,2015,32(1):93-100.
[26] 王亞龍,張奇志,周亞麗.基于Kinect的三維視覺里程計的設計[J].計算機應用,2014,34(8):2371-2374.
[27] 夏凌楠,張波,王營冠,等.基于慣性傳感器和視覺里程計的機器人定位[J].儀器儀表學報,2013,34(1):166-172.