亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于視覺的插秧機導航線提取方法研究

        2020-11-03 12:26:52張澤清陳海蔣浩方慧
        中國稻米 2020年5期
        關(guān)鍵詞:模型

        張澤清 陳海 蔣浩 方慧

        (浙江大學生物系統(tǒng)工程與食品科學學院,杭州310058;第一作者:ztszhang@zju.edu.cn;*通訊作者:hfang@zju.edu.cn)

        自動導航技術(shù)是農(nóng)機自主作業(yè)的基礎(chǔ),整地、插秧、噴藥、除草、收獲等環(huán)節(jié)的自主作業(yè)都是建立在自動導航的基礎(chǔ)之上。其中,基于衛(wèi)星定位的自動導航在農(nóng)業(yè)中應用較為廣泛,多用于拖拉機等旱地作業(yè)。目前,高精度的衛(wèi)星導航價格高昂,一套可靠的衛(wèi)星導航定位系統(tǒng)價格從幾萬到十幾萬不等,而低精度的衛(wèi)星導航裝置又不能滿足精細作業(yè)的要求;衛(wèi)星定位在我國的復雜農(nóng)田環(huán)境中,容易受到干擾而出現(xiàn)信號丟失或多路徑效應的現(xiàn)象[1]。相關(guān)研究表明,機器視覺可以在一定程度上彌補衛(wèi)星定位在成本、精度和穩(wěn)定性等方面的不足[2-3]。

        農(nóng)機視覺導航的關(guān)鍵環(huán)節(jié)在于導航基準線的提取,國內(nèi)外許多學者對此進行了系統(tǒng)性的研究。喬智利等[4]研究了胡蘿卜、芋頭農(nóng)田中的拖拉機導航線提取,使用改進霍夫變換與最小二乘法相結(jié)合的方法提取導航基準線。李勇等[5]提出了基于暗原色的農(nóng)機具視覺導航線提取算法,該算法適用于不同顏色情況下的農(nóng)田場景及農(nóng)田道路導航線提取。Rovira-Más 等[6]使用霍夫變換檢測作物行,應用連通性分析確定合適的路徑。Sgaard 等[7]提出了一種無需分割、利用多幅連續(xù)圖像確定農(nóng)機具的運動從而推斷作物行的方法。

        然而,插秧機導航技術(shù)與其他農(nóng)機導航(如收割機、打藥機)的不同之處在于,一方面插秧機在工作時正前方?jīng)]有可以參照的作物行,另一方面水稻的生長環(huán)境決定了插秧時水田里有較深的泥水,深度一般為20~30 cm,水田地面高低不平,易發(fā)生側(cè)滑,影響自動導航精度。目前基于視覺的導航系統(tǒng)尚無商業(yè)化應用,也很少有針對插秧機工作環(huán)境特點的導航方法研究。

        本文針對插秧機的工作環(huán)境,研究了基于視覺導航的插秧機導航線提取方法。該方法主要包括顏色空間變換、圖像分割、中心點提取、直線擬合、導航參數(shù)計算等步驟,流程如圖1 所示。通過逆投影變換可以將相機采集到的像素坐標系下的圖像轉(zhuǎn)化為相機坐標已知的現(xiàn)實坐標系,此時圖像中的像素大小對應已知的真實的長度;顏色空間變換的目的是為了使目標與背景的差異更加明顯,便于后續(xù)的圖像分割;通過圖像分割可以將目標對象從圖像背景中分離出來;中心點提取是指在圖像分割后的圖像中選取用于擬合導航線的定位點;直線擬合是指利用霍夫變換、隨機一致性采樣(RANSAC)等方法進行直線的擬合。

        圖1 基于視覺的插秧機導航線提取方法技術(shù)路線

        圖2 反光去除效果對比

        1 逆投影變換

        1.1 建立現(xiàn)實參考系

        以插秧機前進方向為y 軸方向,垂直向右為x 軸,以相機視野左邊界與下邊界相交位置為原點,單位長度為1 cm,相機位置(270,0),建立現(xiàn)實坐標參考系。在插秧機前擺放標志物,使其四頂點現(xiàn)實坐標從左下角逆時針依次 為Pw1(180,180),Pw2(360,180),Pw3(360,360),Pw4(180,360)。

        1.2 獲取標志點像素坐標

        圖像像素坐標以圖像左上角為原點,橫坐標為像素行數(shù),縱坐標為像素列數(shù)。在圖像中分別取得標志點的像素坐標Pp1,Pp2,Pp3,Pp4。

        1.3 逆投影變換矩陣H 解算

        在齊次坐標下,有投影關(guān)系

        其中pp=[xp,yp,1]T為逆投影變換前的點,pw=[xw,yw,1]T為逆投影變換后的點,H為逆投影變換矩陣。

        對于一組對應點,根據(jù)公式(1),有

        將公式(4)代入公式(2,3),有

        因此一組對應點可以得到兩個有關(guān)H的方程,H有8 個約束,至少需要4 組點對H 求解。當輸入點數(shù)多于4 組時,本文選擇重投影誤差最小的四組點對H進行解算,即

        達到最小的四組點。

        2 導航線定位點提取

        2.1 秧苗導航線定位點提取

        在利用側(cè)邊秧苗進行導航時,需對圖像進行顏色空間變換、圖像分割、中心點選取以得到視覺導航的定位點。

        2.1.1 RGB 灰度變換

        灰度變換是將相機采集到的彩色圖像變?yōu)榛叶葓D的過程,一般可以去除噪聲,使作物對象和背景的區(qū)別更加明顯,常用的灰度變換有RGB 法、HIS 法、YCrCb法、暗原色法等。

        與其他方法相比,RGB 顏色空間對綠色植物的提取有較好的提取效果,且速度較快,因此本文在分割秧苗和土壤時,選用αG+βB+γR秧苗進行分割,試驗表明,α、β、γ 分別為1.8、-1、-1 時分割效果較好。

        在實際導航作業(yè)過程中,插秧機逆光行駛時,陽光照在水田中會產(chǎn)生鏡面反射,導致相機采集到的圖片會出現(xiàn)反光現(xiàn)象,影響后續(xù)的圖像處理和導航結(jié)果。反光較為強烈的像素點接近白色,在農(nóng)機導航過程中,可以利用此特性對異常像素進行剔除,因此原有灰度變換變?yōu)?/p>

        反光去除的效果如圖2 所示。

        2.1.2 閾值分割

        圖像分割是指將目標從背景中分離的過程,圖像分割的傳統(tǒng)方法包括閾值法、邊界檢測法、區(qū)域法等,新方法包括各種超像素的圖像分割方法如圖論法、聚類法、分類法等。超像素法將利用像素及像素間的相互信息,實現(xiàn)圖像像素的分類。在本方法中需要分割的對象僅為秧苗和背景土壤,對經(jīng)過顏色空間變換后的圖像應用閾值法分割能夠?qū)崿F(xiàn)簡單高效分割。

        2.1.3 中心點選取

        對分割后的二值圖像,包含作物的像素為1,不包含作物的像素坐標為零,因此圖像的像素值從0 到1或從1 到0 可以作為作物的邊界。根據(jù)秧苗所在導航線只在插秧機一側(cè)的特點,從圖像中央向兩端遍歷,記錄作物行邊界點,利用寬度判斷邊界點是否有效,若邊界點有效則求取作物行中點并保存。為了加快圖像處理速度,每隔20 像素行遍歷一次圖像記錄作物行邊界點,并求取作物行中點,將每一行中最靠近圖像中央的點作為導航線擬合點。

        2.2 邊界導航線定位點提取

        利用農(nóng)田邊界導航時無法利用作物和土壤之間的顏色灰度差異,因此可以利用灰度產(chǎn)生突變位置的信息,即提取圖像中的輪廓信息。

        2.2.1 大津法圖像分割

        在利用農(nóng)田邊界進行導航時,其分割對象不再是綠色植物,因此選用灰度變換得到灰度圖像,使其具有與原始彩色圖像相同的亮度[8]。

        采用大津法對灰度圖進行圖像分割。大津二值化法自動對基于聚類的圖像進行二值化,即將一個灰度圖像退化為二值圖像。該算法以日本的大津展之命名,算法假定該圖像根據(jù)雙模直方圖(前景像素和背景像素)包含兩類像素,于是它要計算能將兩類分開的最佳閾值,使得它們的類內(nèi)方差最?。挥捎趦蓛善椒骄嚯x恒定,所以即它們的類間方差最大[9]。因此,大津二值化法粗略的來說就是一維Fisher 判別分析的離散化模擬。

        2.2.2 輪廓提取

        輪廓提取采用Satoshi 提出的邊界拓撲分析的算法[10],將圖像分割后的二值圖中所有輪廓編號,從輪廓中篩選出輪廓最長的即是農(nóng)田邊界,提取其靠近圖像中心一側(cè)邊界用于后續(xù)導航線的直線擬合點。所提取的邊界如圖3 左圖中白色粗線部分所示。

        圖3 圖像中農(nóng)田邊界的輪廓

        圖4 不同方法擬合效果對比

        3 導航線與參數(shù)計算

        3.1 導航線擬合

        利用邊界導航和秧苗導航時,需要對得到的定位點進行擬合得到導航線,常用的方法有霍夫直線擬合、最小二乘法、RANSAC 法,對于含有較多噪聲的點,可以使用RANSAC 法進行直線擬合。

        RANSAC 算法的輸入包括一組觀測數(shù)據(jù)(點集)、擬合觀測數(shù)據(jù)的含參模型(直線)及其參數(shù)。本算法通過迭代選擇數(shù)據(jù)中的隨機子集實現(xiàn)模型擬合,被選取的子集被假設(shè)為有效(inline)點,其驗證方法如下:

        1)假設(shè)有一個模型可以解釋隨機選擇的一部分初始有效點,該模型未知參數(shù)可以從初始有效點計算得到;2)用1)中得到的模型去對所有的其它數(shù)據(jù)進行驗證,若數(shù)據(jù)在允許范圍內(nèi)符合此模型,則將其歸為有效點;3)當有效點數(shù)量到達一定比例時,認為此模型有效;4)用此時所有的有效點重新計算模型;5)通過估計有效點比例與模型的錯誤率來衡量模型優(yōu)劣。

        上述過程被迭代執(zhí)行給定次數(shù),每次產(chǎn)生的模型與現(xiàn)有的最好模型比較,若有效點比現(xiàn)有的最佳模型更少,則舍棄此模型;若有效點比現(xiàn)有最優(yōu)模型更多,則選用此模型。

        本研究將同一幅圖(圖4-a,c)分別用最小二乘法和RANSAC 法進行擬合,得到如圖4 所示結(jié)果,從中可以看出利用RANCSAC 擬合出正確的直線(圖4-d),利用最小二乘法擬合直線結(jié)果(圖4-b)會受到噪點影響,而RANSAC 法可以將噪點排除,魯棒性較好。

        3.2 導航參數(shù)計算

        得到擬合參考線的圖像坐標后,需要對直線和相機的關(guān)系進行計算,得到相機相對導航線的位置,在本文中即導航參數(shù)。計算導航參數(shù)方法如圖5 所示,導航線與圖像垂直方向即相機前視方向夾角為航向偏差θ,符號與導航線的斜率相同;導航線與后輪中心點距離為橫向偏差d,當導航線在后輪中心點左邊時符號為正,反之為負。設(shè)擬合參考線上兩點P1(X1,Y1)、P2(X2,Y2)。根據(jù)幾何關(guān)系,有:直線。

        式中,l0是圖像底端和后輪中心點之間的距離,loffset是擬合參考線和目標導航線之間距離。

        對于計算得到的導航參數(shù),根據(jù)本次導航參數(shù)的前5 次導航參數(shù)對其進行判斷,若其值改變大于一定閾值則舍棄之,最后將有效的導航參數(shù)作為后續(xù)控制模型的輸入。

        4 視覺定位精度實驗與分析

        本文研究的視覺導航系統(tǒng)誤差主要考慮兩種誤差,一是由視覺定位方法導致的誤差,其二是由于導航控制算法及執(zhí)行機構(gòu)引起的誤差。本實驗的目的在于衡量視覺相對定位的誤差,包括不同距離下的距離誤差和不同角度下的距離誤差。為此實驗利用視覺擬合植物作為導航線、計算得到其與相機的距離與實際距離進行比較。

        4.1 實驗原理

        在相機和地面位置不發(fā)生相對變化時,可通過圖像像素坐標逆投影變換至與現(xiàn)實坐標成比例的俯視圖,利用圖像處理方法從中獲取擬合導航線,并計算與相機的相對距離和所成角度。

        如圖6 所示,l2直線為仿真植物位置,擬合導航線為視覺擬合得到的導航位置,改變相機(前視方向)與待擬合直線(仿真植物)的距離和角度,觀察視覺計算所得導航線的橫向距離與實際橫向距離關(guān)系,其實物圖如圖7 所示。

        圖5 航向偏差θ 和橫向偏差d 計算示意圖

        圖6 視覺導航誤差測量示意圖

        4.2 實驗材料與實驗步驟

        4.2.1 實驗材料

        實驗中用到的材料有相機、相機電源、移動計算機、三腳架、卷尺、仿真植物若干、激光打線儀、量角器、記號筆等。

        4.2.2 實驗步驟

        4.2.2.1 坐標系建立 將相機固定在三腳架上,調(diào)節(jié)相機高度為h,與水平線夾角為φ,以相機前視方向為Yw軸正方向,在水平面建立平面直角坐標系XwOYw。

        4.2.2.2 相機標定 將一個已知大小的方形紙板置于坐標系XOY中,記錄方形紙板在此坐標系 的四個頂點坐標;在相機拍攝的圖片中記錄四個頂點的像素坐標,利用實驗原理中的公式計算變換矩陣H。

        4.2.2.3 場景模擬 利用兩臺激光打線器,產(chǎn)生兩條距離為dx的平行直線l1、l2,其中,l1與Yw軸重合,夾角“θ”為0,在另一條直線l2上每間隔20 cm 擺放1 株仿真植物。

        4.2.2.4 視覺計算 計算相機所得圖像中模擬植物所擬合的直線與相機所在位置的距離di。

        4.2.2.5 改變兩條線的實際距離dx,重復實驗得到不同的di;固定實際距離dx,改變前視方向與l1的夾角θ,分別為-15,-10,-5,0,5,10,15,重復實驗得到不同的di;誤差計算與分析。

        表1 夾角為0°時不同距離下的測量距離和角度

        表2 實際距離為100 cm 時不同角度下所測量得到的橫向距離和所成角度

        圖8 角度誤差和橫向誤差

        圖9 實際距離為1 000 mm 時不同角度下的橫向距離和角度偏差

        4.3 實驗結(jié)果

        實驗記錄結(jié)果如表1 所示。實驗結(jié)果表明,對于橫向位移為100 mm 時,測量的位移平均距離為100.7 mm、標準差為9.8 mm;角度變化為0 時,測量平均角度變化為-0.14°、標準差為0.63°。根據(jù)表2,在橫向距離為1 000 mm 時,視覺所測得的橫向偏差平均為-18 mm,標準差為26.0 mm;角度偏差平均為-1.4°,標準差為0.5°。

        由此可知在航向角度較小時,橫向偏差的測量平均誤差小于1 cm;在航向角度較大時,橫向偏差測量平均誤差小于2 cm。

        5 總結(jié)

        本文研究了以秧苗和農(nóng)田邊界為導航目標的視覺定位信息提取方法,二者均需先對圖像進行逆投影變換得到與現(xiàn)實坐標成比例的俯視圖;在以秧苗為導航目標時,通過綠色特征提取,閾值分割和中心點提取得到視覺導航線的定位點;在以農(nóng)田邊界為導航目標時,通過灰度變換、大津法進行圖像分割后,利用輪廓線得到視覺導航線定位點;對導航線定位點進行隨機一致性采樣直線擬合,得到導航線;從而計算相機和導航線的橫向偏差和航向偏差,得到定位數(shù)據(jù)。視覺定位精度的驗證表明,在航向角接近0°時其相對定位誤差平均值小于1 cm;在橫向距離為100cm 時,不同角度下的橫向偏差平均小于2 cm、標準差小于3 cm,角度誤差測量均值小于-0.14°、標準差小于0.7°。

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務本地化模型
        適用于BDS-3 PPP的隨機模型
        提煉模型 突破難點
        函數(shù)模型及應用
        p150Glued在帕金森病模型中的表達及分布
        函數(shù)模型及應用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        3D打印中的模型分割與打包
        日本一区二区免费看片| 中文字幕一区二区三区.| 538在线视频| 亚洲乱码中文字幕综合| 人妻秘书被社长浓厚接吻| 99青青草视频在线观看| 亚洲中文字幕永久网站| 色小姐在线视频中文字幕| 一本色道久久亚洲综合| 成人试看120秒体验区| 国产在线 | 中文| 大肉大捧一进一出好爽视频mba| 综合三区后入内射国产馆| 福利在线国产| 在线看片国产免费不卡| 日本一区二区在线资源| 亚洲av区一区二区三区| 久久精品国产久精国产爱| 女人脱了内裤趴开腿让男躁| 性激烈的欧美三级视频| 玩弄人妻少妇500系列网址| 久久半精品国产99精品国产| 永久免费毛片在线播放| 成人性生交c片免费看| 蜜臀av一区二区三区| 亚洲精品国产第一综合色吧| 国产内射爽爽大片视频社区在线| 又硬又粗又大一区二区三区视频| 久久se精品一区二区国产| 高清亚洲精品一区二区三区| 97成人精品国语自产拍| 日本黄页网站免费观看| 国产免费看网站v片不遮挡| 亚洲天堂资源网| 无码av永久免费大全| 亚洲av日韩专区在线观看| 麻豆国产精品久久人妻| 免费人成视频xvideos入口| 亚洲男人第一av网站| 久久99精品中文字幕在| 日本av不卡一区二区三区|