楊長輝 劉艷平 王 毅 熊龍燁 許洪斌 趙萬華
(1.西安交通大學機械工程學院, 西安 710049; 2.重慶理工大學機械工程學院, 重慶 400054)
近年來,由于人力成本的上升導致果蔬采摘成本大幅提高,果實采摘機器人逐漸成為研究熱點,有關番茄、蘋果、甜椒[1-4]等采摘機器人的研究居多。識別定位系統(tǒng)是采摘機器人的重要組成部分,通常采用機器視覺方法實現對采摘環(huán)境的感知[5]。文獻[6]通過K-means聚類分割和Hough圓擬合實現柑橘果實的識別分割,文獻[7]采用貝葉斯分類器實現櫻桃樹樹干識別,文獻[8]通過K-means聚類算法和HSV閾值分割方法實現柑橘果實的識別。上述傳統(tǒng)機器視覺方法在自然環(huán)境中對光照變化較為敏感,不能準確提取遮擋果實及枝干等障礙物的特征信息,從而導致機器人不能準確感知周圍環(huán)境,在采摘過程中經常會因為碰撞障礙物導致采摘失敗,對執(zhí)行器或機械臂造成破壞。
目前,深度學習在物體檢測領域取得了巨大進展,可較好地解決機器視覺在自然環(huán)境下識別物體泛化性較弱的問題。如文獻[9]針對田間環(huán)境下的多簇獼猴桃果實識別,提出基于卷積神經網絡的識別方法,實現了多類果實的同時識別。文獻[10]采用基于SSD(Single shot multibox detector)卷積神經網絡的多類水果識別模型,通過加深網絡模型和數據集增強處理,提升識別正確率。文獻[11]采用基于Darknet19的網絡識別柑橘果實,該方法對果實的識別率達到86.9%,實現了柑橘果實的多場景識別。文獻[12]針對蘋果樹枝干提出了基于R-CNN(Regions-convolutional neural network)的識別方法。文獻[13]基于SSD檢測模型和Kinect V2三維測量模型實現物體的快速準確定位。
以上研究成果在自然環(huán)境下均能實現對采摘果實和采摘場景的識別。本文針對傳統(tǒng)機器視覺方法在自然環(huán)境下不能準確理解采摘場景的問題,構建柑橘采摘機器人識別定位系統(tǒng),提出障礙物的分類準則。通過改進YOLO V3識別算法實現障礙物和采摘果實的識別分類,采用Kinect V2深度圖映射得到柑橘果實和障礙物的位置信息,實現目標物柑橘和障礙物的快速識別和精準定位,并在自然環(huán)境下使用自行研制的柑橘采摘機器人進行實驗驗證。
柑橘采摘機器人識別與定位系統(tǒng)由物體識別和三維定位兩個模塊組成。物體識別模塊采用卷積神經網絡作為識別算法,將原圖的目標物進行分類并得到目標物位置邊框信息。定位模塊將每個目標物的位置邊框信息轉換為目標物二維中心點坐標,通過二維中心點坐標在Kinect V2深度映射圖上獲取該坐標點深度值。最后采用Kinect V2三維定位技術將目標物二維中心點坐標轉換為三維空間坐標。系統(tǒng)組成如圖1所示。
圖1 識別定位系統(tǒng)組成Fig.1 Schematic of recognition and position system
柑橘采摘機器人采摘場景中主要由柑橘果實、樹葉和枝干3類物體組成,本文根據3類物體在柑橘樹上不同的空間位置關系定義4類障礙物目標和1類可采摘果實,詳細定義如下:
(1)枝干遮擋果實(Branch occluded),簡稱BO。定義枝干對果實造成的遮擋為枝干遮擋果實類。
(2)樹葉遮擋果實(Leaf occluded),簡稱LO。設樹葉遮擋面積為SL,被遮擋果實擬合圓面積為Sf,二者之比為
P=SL/Sf
(1)
定義P≥1/3為樹葉遮擋果實類。
(3)重疊果實(Overlapping),簡稱OL。設果實重疊數量為N,定義2≤N≤4為重疊果實類。
(4)枝干類(Main branch),簡稱MB。果樹的一、二級枝干承擔著果樹的營養(yǎng)運輸任務,為了保護果樹的一、二級枝干不受破壞,同時也為了確保采摘機器人的安全,定義果樹的一、二級枝干為枝干類。
(5)正常無遮擋果實(Normal),簡稱NM。果實前面無遮擋物,樹葉遮擋面積小于1/3均為正常無遮擋果實類。
以上5類中,正常無遮擋果實能直接進行采摘。由于本課題組設計的末端執(zhí)行器只能針對單個果實進行采摘作業(yè)[14],因此樹葉遮擋果實、枝干遮擋果實和重疊果實均不能直接采摘,將其和枝干類一起作為采摘過程中的障礙物。如圖2所示。
圖2 識別目標物類別Fig.2 Classification of recognition object
YOLO V3[15-17]具有識別速度快、識別準確率高等優(yōu)點。該算法將整幅圖像用作輸入,并將圖像分割成S×S大小的網格,若某個格子中包含檢測目標,則該格子負責檢測該目標,并預測位置邊框和物體置信度。位置邊框信息為該格子位置的偏移寬度和高度,置信度反映是否包含物體以及包含物體情況下的準確性。位置邊框采用losgistic進行預測
(2)
式中cx、cy——網格的坐標偏移量
pw、ph——預設anchor框的邊長
bx、by、bw、bh——最終得到的邊框坐標值
tx、ty、tw、th——網絡學習目標
通過對每種尺度預測多個邊框來提高多尺度目標預測準確率。
對于枝干和樹葉遮擋的果實,特征信息相似度較高,相互干擾較為嚴重,因此采用最大池化層強化卷積神經網絡在訓練過程中對枝干和樹葉遮擋紋理特征的提取,以提高識別準確率。在YOLO V3第2個卷積層模塊中,添加3層最大池化層,第1層尺寸為5×5,第2層尺寸為9×9,第3層尺寸為13×13,第2和第3層最大池化層融合卷積模塊中第1層卷積層輸出的特征信息,如圖3所示。
圖3 障礙物識別檢測網絡模型Fig.3 Network model for obstacle recognition and detection
獲取Kinect V2視場內障礙物的三維坐標(X,Y,Z),其中三維坐標中的深度Z通過Kinect V2自帶的SDK函數(MapColorFrameTo DepthSpace)獲得,該函數將彩色相機(1 920像素×1 080像素)的像素點映射到深度相機空間中,得到彩色圖中每個像素點的深度Z。通過彩色相機的標定得到內外參數矩陣,從而建立像素坐標系到相機坐標系的映射關系,得到坐標(X,Y,Z)。
1.4.1像素坐標點與基坐標空間點的轉換
采用張正友標定法[18]和Matlab標定工具箱對Kinect V2彩色鏡頭進行標定。得到標定結果內部參數矩陣Krgb為
則彩色鏡頭焦距為(fx,fy)=(1 092.213 7,1 093.432 7),主光點為(u0,v0)=(963.451 5,540.945 0)。
物體的三維空間坐標與圖像坐標存在線性關系[19],假設相機坐標系中采摘點PC的坐標為(XC,YC,ZC),像素坐標系上與之對應的坐標為p(x,y),其關系式為
(3)
其中ZC由深度鏡頭獲取,u0、v0、fx、fy為前面標定結果,代入式(3)可得
(4)
利用式(4)可計算物體標記點在相機坐標系中的三維坐標。實際采摘中使用機械臂坐標系為基準,因此需要將相機坐標系的三維坐標轉換為對應基坐標系中的三維坐標。在機械臂末端放置帶有標記點的標記板,通過控制移動機械臂到基坐標系中某點Prob(Xrob,Yrob,Zrob)處,利用式(4)計算點Prob位置處標記點在相機坐標系中的三維點坐標(XC,YC,ZC)。按照上述步驟重復測量80組基坐標系與相機坐標系對應的三維點坐標,使用Opencv函數EstimateAffine3D建立相機坐標系與基坐標系的轉換關系,該函數為計算2個三維點集的理想仿射變換矩陣,得到仿射變換矩陣
則
(5)
由式(5)可計算物體中心點在基坐標系中的三維坐標,其中Xrob、Yrob、Zrob為采摘機器人基坐標系中三維坐標值。
1.4.2目標物空間特征獲取
Kinect V2彩色相機采集的圖像經過本文識別模型識別后,輸出結果包含目標物的類別信息和位置邊框,位置邊框信息為像素坐標系中左上角PLT(XL,YL)點坐標和右下角PRD(XR,YR)點坐標,如圖4所示。
圖4 障礙物三維空間示意圖Fig.4 Digram of 3D space area of obstacles
(6)
點PC(XC,YC,ZC)為NM類的采摘點。以點PC為圓柱體表面中心,min(LW,LH)為直徑、max(LW,LH)為高度構造的圓柱體為障礙物BO、LO、OL和MB類的三維空間區(qū)域。
圖像采集平臺包括微軟公司生產的Kinect V2相機、相機三腳架和聯想Think Pad E535型便攜式計算機,如圖5a所示。Kinect V2相機結構如圖5b所示,彩色鏡頭分辨率為1 920像素×1 080像素,深度鏡頭分辨率為512像素×424像素,垂直和水平方向視場角分別為60°和70°,深度測量范圍為0.5~4.5 m。光照強度測試儀為勝利儀器生產的VC1010A型。
圖5 圖像采集平臺硬件Fig.5 Platform for collecting experimental dataset1.柑橘樹 2.Kinect V2相機 3.相機三腳架 4.計算機終端 5.彩色鏡頭 6.深度鏡頭 7.紅外鏡頭
本文數據集采自于重慶市北碚金果園(果園A)與重慶理工大學柑橘實驗基地(果園B),柑橘樹樹齡為12 a。相機感受視野與拍攝距離LC相關,設相機視場角α=60°,樹冠視為直徑為d的類球體。則
(7)
圖6 樹冠直徑直方圖Fig.6 Histogram of canopy diameter
統(tǒng)計果園A和果園B中隨機分布的160株12 a樹齡柑橘樹樹冠直徑,樹冠直徑直方圖如圖6所示。由圖可知,樹冠直徑集中在1.0~1.1 m,取該區(qū)間平均值1.05 m作為樹冠直徑。由式(7)可知LC為0.38 m。結合Kinect V2相機最小測距距離為0.50 m,本文使用的采摘機械臂最大采摘距離為0.90 m,因此LC應滿足:0.50 m 為了模擬自然環(huán)境下不同光照強度的環(huán)境,設計3種拍攝角度:順光、側光和逆光,所有訓練數據集均按此拍攝角度進行采集。 在果園A和果園B中采集1 400幅圖像,從中隨機選用1 200幅圖像按照3∶1配置訓練集和測試集,200幅作為驗證集。采用labelImg標注工具進行數據集標注,用鼠標框選目標物,形成的四邊形框外接目標物輪廓邊緣。本文對形狀不規(guī)則的枝干采用形狀規(guī)則的四邊形離散化標記,四邊形的尺寸沒有強制性要求,其包含的像素點面積盡量和柑橘果實包含的像素點面積一致,四邊形邊框兩條對角線中的任一對角線應在枝干區(qū)域內。標記樣例如圖7所示。 圖7 訓練數據集標注樣例Fig.7 Example of training dataset annotation YOLO V3使用anchor boxes對圖像中的目標進行檢測,其尺寸設置與數據集的標記框尺寸有關。本文對形狀不規(guī)則的枝干采用離散化標記方法,枝干類和果實類的標記邊框尺寸差異明顯,因此需要對數據集的標記框尺寸做K-means聚類分析[20],得到合適的anchor boxes參數。 圖8 K-means聚類分析結果Fig.8 Result of K-means cluster analysis 本文K選取[1,40],分別對訓練集中標記邊框尺寸進行K-means聚類分析,得到的結果如圖8所示。由圖可知,在K=12之后,曲線下降趨勢減緩,逐漸趨于平緩,所以anchor boxes設置為12。 識別模型使用遷移學習訓練,訓練過程中對數據集旋轉、增加對比度、增加曝光進行數據增強,實現3倍數據集擴充。訓練階段動量項為0.9,每一個batch包含16幅圖像,衰減系數為0.000 5。迭代訓練50 000次,其中1 000~5 000次迭代訓練中,權值學習率為0.02,加速模型的收斂。5 000~15 000次迭代訓練中,權值學習率為0.002,精調模型,15 000~24 000迭代訓練中,權值學習率為0.000 2,優(yōu)化模型。模型訓練過程中每1 000次迭代保存一次網絡的權重文件。 模型迭代訓練50 000次,其迭代訓練過程中的損失率曲線如圖9所示。由圖9可知,訓練模型在迭代訓練20 000次左右時損失率不再下降。為了查看mAP(Mean average precision)在迭代訓練20 000次左右的變化趨勢,在迭代訓練20 000次基礎上增加8 000次,即選用28 000以內的權重文件計算mAP,其mAP曲線如圖10所示。 圖9 識別模型訓練損失率曲線Fig.9 Loss curve of proposed model 圖10 識別模型mAP曲線Fig.10 mAP curve of proposed model mAP計算公式為 (8) (9) (10) 式中P(k)——在閾值k時的準確率 ΔR(k)——在閾值k時的召回率變化量 TP——真實正樣本數量 FP——虛假正樣本數量 FN——虛假的負樣本數量 k——閾值P——準確率 R——召回率N——引用閾值的數量 由圖10可知,在迭代20 000次之后,mAP達到85%左右,并逐漸趨于平穩(wěn),因此本文選擇迭代20 000次的權重文件作為識別模型。 F1值是物體檢測模型綜合評價指標,是精確率和召回率的調和均值,因此本文使用F1對模型的識別性能進行評估,其計算公式為 (11) 3.1.1驗證集識別結果 使用驗證集的200幅圖像對迭代訓練20 000次的識別模型進行性能測試,同時與改進前的YOLO V3算法對比,部分識別效果如圖11所示。統(tǒng)計識別模型對5類目標物識別的F1值。障礙物的F1值為非NM類F1值的平均值。圖11a中1號黃色框為漏識別MB類,在統(tǒng)計MB類的F1值時,漏識別的MB數量參照枝干標記規(guī)則,此處應為3個MB類目標。實驗統(tǒng)計結果如表1所示。 圖11 部分識別效果Fig.11 Partial recognition results 由表1統(tǒng)計結果可知,本文方法對枝干類的F1最低,為79.4%;對NM類和OL類的F1值較高,分別為91.9%和89.3%;對BO類和LO類的F1值為83.5%和82.0%,對障礙物的F1值為83.6%。與改進前的YOLO V3相比,本文方法對NM類、OL類和MB類的提升效果不明顯。對BO類和LO類的F1值提升了3.3個百分點和3.4個百分點,對障礙物的F1值提升了2.1個百分點。 其原因在于改進前模型對BO類和LO類的誤識別率較高,相互干擾較為嚴重。改進后的模型強化了模型對枝干和樹葉的紋理特征提取,減少了BO類和LO類的誤識別,小幅提升了F1值,圖11a中2號黃色框與圖11e中4號黃色框所示,YOLO V3方法對BO類均出現了誤識別。從圖11a的識別效果可以發(fā)現,識別模型對MB類在枝干底部區(qū)域有較好的識別效果,在靠近樹冠區(qū)域開始出現漏識別現象。其原因在于從柑橘樹的生長姿態(tài)來看,靠近樹冠區(qū)域的枝干其直徑比底部區(qū)域枝干的直徑要小。且由于靠近樹冠區(qū)域,背景開始出現樹葉和柑橘的干擾,降低MB類的F1值。而NM類的特征較為明顯,且訓練數據集中NM類是最多的類別。因此NM類的F1值是最高的。OL類由于是多果重疊,其形狀特征明顯,尺度較大,且遮擋物干擾較少,有利于模型對OL類的特征提取。圖11a中OL類的位置邊框尺度為198像素×215像素和117像素×220像素,NM類的邊框尺度為115像素×127像素。而圖中較遠的目標物對采摘機器人沒有識別意義,不作為識別目標物。圖11c中3號黃色框的柑橘尺寸為38像素×42像素,而離相機最近的柑橘樹上最小的柑橘尺寸為72像素×75像素。BO類和LO類由于枝葉的遮擋,造成模型對遮擋面積過大的目標難以識別。圖11e中5號黃色框內的目標物,枝干遮擋面積超過了果實面積的60%,且遮擋面積較多的目標物在訓練集中較少出現,降低了模型對該類別的F1值。綜合來看,本文改進后的方法識別效果優(yōu)于改進前的YOLO V3方法。 表1 識別模型性能指標F1統(tǒng)計結果Tab.1 Recognition model performance indicators F1 % 3.1.2不同光照環(huán)境識別結果 由于本文的識別模型要滿足采摘機器人在果園環(huán)境中的采摘要求,測試識別模型在不同光照環(huán)境中的識別性能。由3.1.1節(jié)可知,改進后的識別模型識別效果優(yōu)于改進前,因此只對改進后的識別模型進行不同光照測試實驗。按照采集數據集時的3種拍攝角度采集圖像,每次拍攝采集時記錄當前拍攝角度的光照強度。每種拍攝角度采集20幅圖像,共計60幅圖像作為模型在變光照環(huán)境中性能評估的驗證集,統(tǒng)計3種拍攝角度的光照強度變化范圍分別為6 300~11 800 lx、48 000~76 000 lx和21 000~43 000 lx。計算模型在每一種光照強度區(qū)間中對5類目標物的平均F1值。 圖12 不同光照環(huán)境識別結果Fig.12 Recognition results in variable illuminations 在光照強度較弱的6 300~11 800 lx和21 000~43 000 lx環(huán)境中模型對5類物體的F1最高為83.8%和84.5%,識別效果最好。在該環(huán)境中,每類物體表面沒有出現過曝區(qū)域,紋理特征明顯,有利于卷積神經網絡的識別。在強光照48 000~76 000 lx環(huán)境中,F1為81.1%,比弱光環(huán)境低3個百分點左右。如圖12a所示,圖中拍攝時的光照強度為69 600 lx。圖中黃色框1、2均為目標物過曝區(qū)域,均失去枝干表面特征信息,造成卷積神經網絡無法識別MB類目標物。圖12b光照強度為47 500 lx,圖中3、4號黃色框中的枝干處于曝光不足,造成枝干表面出現黑色區(qū)域,不能真實反映枝干的特征,同樣造成模型對曝光不足的MB類識別率較低。因此在曝光不足或過曝區(qū)域,本文識別模型對MB類的識別容易出現漏識別現象,降低模型的F1值。 3.2.1定位精度評估 為了評估本文識別與定位系統(tǒng)的定位精度,在自然環(huán)境下采用本課題組研發(fā)的采摘機器人進行定位測試實驗[21],采摘機器人平臺如圖13所示。由Kinect V2相機、履帶式移動底盤、采摘機械臂、控制主機和自組研制的末端執(zhí)行器組成??刂浦鳈C配置如下:CPU為Intel i7 7800X,GPU為2塊11 GB NVIDA1080Ti,主機運行內存32 GB。 圖13 柑橘采摘機器人樣機Fig.13 Overview of citrus picking robot1.采摘執(zhí)行器 2.采摘機械臂 3.Kinect V2相機 4.機器人控制器 5.履帶式移動底盤 Kinect V2相機基于TOF實現物體深度值測量,其測量過程受光照變化影響較小[22]。為了驗證強光照環(huán)境中Kinect V2相機對采摘場景中目標物的深度值測量性能,設計如下實驗:采用光照強度測試儀測量目標物表面光照強度,如圖14所示。在2019年5月16日13:00—17:00時間段內,采用順光拍攝角度采集圖像和記錄對應的光照強度,最后選取光照強度最強圖像進行深度測量,如圖15所示。Kinect V2相機采集的深度圖中每個像素點的灰度為16位二進制數,其數值在0~65 535之間,圖像效果較暗。為了提高深度圖的可視化效果,將深度圖中每個像素點16位的灰度左移兩位進行深度圖增強,增強深度圖只作為可視化效果圖。 圖14 光照強度測試Fig.14 Measurement of light intensity on fruit surface 圖15 識別圖與增強深度圖Fig.15 Recognition result and enhanced depth images 使用本文的三維坐標計算模型得到目標物標記點Prob的三維坐標(Xrob,Yrob,Zrob)。在采摘機械臂末端關節(jié)安裝長度為45 mm的探針,將坐標(Xrob,Yrob,Zrob-45)作為采摘機械臂的運動位置點,待采摘機械臂末端探針移動到Prob位置時,測量探針端點Pz與標記點Prob的距離ΔE,設定位系統(tǒng)在X、Y和Z方向上的定位誤差為ΔX、ΔY和ΔZ,則 (12) ΔE即為識別定位系統(tǒng)的綜合定位誤差。統(tǒng)計結果如表2所示。 表2 柑橘果實中心點三維坐標點計算結果Tab.2 Results of 3D coordinate of citrus fruits central points 由表2可知,測試期間,自然環(huán)境光照強度最強在54 500 lx左右,部分柑橘果實表面由于樹葉的遮擋,其表面光照強度有所減弱。實驗結果表明Kinect V2相機在光照強度30 000~55 000 lx的自然環(huán)境中,可實現三維坐標測量。平均定位誤差達到5.9 mm。定位誤差主要來源于相機的標定誤差和手動測量誤差。同時由于測量過程中的實時性,自然環(huán)境中的風向造成目標物的隨機微弱擺動對三維坐標的實時測量也有一定影響。 3.2.2避障采摘實驗 由本文設計的識別定位系統(tǒng)得到目標物邊框中心點坐標,結合Kinect V2相機三維坐標計算模型和式(5)獲得柑橘果實和枝干在基坐標系中的三維坐標點,將該坐標點作為果實的采摘點和避障路徑特征坐標點。應用快速擴展隨機樹算法(Rapid-exploration Random Trees,RRT)進行避障[23],該算法是一種基于隨機采樣的規(guī)劃算法,能夠快速有效地搜索高維空間。通過隨機采樣點,把搜索導向空白區(qū)域,從而尋找到一條從起始點到目標點的規(guī)劃路徑。 采摘機械臂完成一次采摘動作需要14 s左右,本文設定每隔5 s進行一次圖像采集和識別定位。設計每組采摘實驗為采摘一棵柑橘樹機械臂采摘范圍內的可采摘柑橘果實,共進行20組實驗。統(tǒng)計指標為采摘過程中成功采摘的柑橘果實數量和采摘機械臂與障礙物發(fā)生碰撞的次數。識別定位系統(tǒng)界面如圖16所示,圖中左上方為采集原圖,右上方為識別效果圖,下方包含5類目標物坐標信息,其中NM類為采摘中心點坐標,BO、LO、OL和MB類為中心點坐標和三維圓柱體的直徑和高度。采摘過程如圖17所示。實驗統(tǒng)計結果如圖18所示。設可采摘果實數量為Q,成功采摘果實數量為M,與障礙物發(fā)生碰撞次數為P,則采摘成功率ΔM為 (13) 圖16 識別定位系統(tǒng)界面Fig.16 Recognition and location system interface 圖17 采摘實驗過程示意圖Fig.17 Process of picking experiment 圖18 每組采摘實驗統(tǒng)計結果Fig.18 Statistical results of harvesting experiments 避障成功率ΔP為 (14) 從統(tǒng)計結果可知,本文設計的識別定位系統(tǒng)在自然環(huán)境下采摘成功率達到80.51%,避障成功率達到75.79%。采摘實驗中,存在采摘失敗的主要原因在于采摘路徑和采摘姿態(tài)求解失敗[24],導致采摘機械臂不能完成采摘動作。采摘過程中,障礙物的誤識別和避障算法本身不足是導致避障失敗的主要原因。采摘過程中,采摘機器人識別1幅圖像的時間為0.4 s,小于完成一次采摘時間14 s,滿足采摘機器人的實時性采摘要求。 (1)針對自然環(huán)境下柑橘采摘機器人障礙物的識別提出了障礙物分類準則,對不規(guī)則枝干的識別提出離散化標記方法,解決了不規(guī)則枝干的識別問題。在自然環(huán)境下的識別實驗中,本文的識別模型對障礙物和可采摘果實的識別綜合評價指數為83.6%和91.9%,在6 300~76 000 lx光照強度區(qū)間范圍內對5類目標物的識別綜合評價指數均值為83.13%,在自然環(huán)境下有良好的泛化性。 (2)通過自然環(huán)境下定位精度實驗驗證了Kinect V2相機在自然光照條件下的深度測量性能,并得到定位模塊的綜合定位誤差為5.9 mm。整個識別定位系統(tǒng)實時處理一幅圖像的時間為0.4 s。 (3)自然環(huán)境下識別定位系統(tǒng)實驗表明,采摘機器人采摘成功率達到80.51%,避障成功率達到75.79%。在滿足自然環(huán)境下采摘作業(yè)的同時,提高了機器人采摘作業(yè)過程中的安全性。該系統(tǒng)可應用于其他各類采摘機器人識別定位系統(tǒng)中,具有良好的泛化性。2.2 數據集建立
2.3 anchor boxes參數設置
2.4 模型訓練與性能評估
3 實驗結果與分析
3.1 障礙物與采摘果實識別實驗
3.2 三維定位與避障采摘實驗
4 結論