亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        自主導(dǎo)航農(nóng)業(yè)車輛全景視覺光線的自適應(yīng)方法研究

        2017-10-27 13:39:43李盛輝周俊姬長(zhǎng)英
        江蘇農(nóng)業(yè)科學(xué) 2017年16期

        李盛輝 周俊 姬長(zhǎng)英

        摘要:為解決自主導(dǎo)航農(nóng)業(yè)車輛在實(shí)際野外作業(yè)中不同環(huán)境光線對(duì)全景視覺成像質(zhì)量的影響問題,提高自主導(dǎo)航的準(zhǔn)確性和可靠性,提出全景視覺光線自適應(yīng)方法。首先,通過數(shù)字成像原理分析、成像曝光控制、成像質(zhì)量評(píng)價(jià),研究視覺成像系統(tǒng);其次,通過相機(jī)響應(yīng)函數(shù)求取、數(shù)據(jù)匹配與更新、光線自適應(yīng)曝光時(shí)間調(diào)整,實(shí)現(xiàn)全景視覺光線自適應(yīng)算法的具體過程。結(jié)果表明,改進(jìn)的光線自適應(yīng)算法,在正常光線、較強(qiáng)光線、較弱光線3種情況下,均能明顯提高全景視覺圖像的成像質(zhì)量;相較于未經(jīng)改進(jìn)的原始算法,在光線較亮情況下改進(jìn)的光線自適應(yīng)算法,圖像平均二維信息熵提高471%,平均梯度值提高609%;在光線較暗情況下,改進(jìn)的光線自適應(yīng)算法,圖像平均二維信息熵提高 303%,平均梯度值提高764%;在不同光線情況下,改進(jìn)的光線自適應(yīng)算法,單次平均耗時(shí)036 s,相較于傳統(tǒng)多曝光處理算法,速度平均加快755%。

        關(guān)鍵詞:全景視覺;農(nóng)業(yè)車輛;光線自適應(yīng);成像曝光控制;成像質(zhì)量評(píng)價(jià)

        中圖分類號(hào): S229文獻(xiàn)標(biāo)志碼:

        文章編號(hào):1002-1302(2017)16-0177-08

        收稿日期:2016-11-20

        基金項(xiàng)目:江蘇省高校自然科學(xué)研究項(xiàng)目(編號(hào):15KJD210002);江蘇省高?!扒嗨{(lán)工程”項(xiàng)目。

        作者簡(jiǎn)介:李盛輝(1984—),男,浙江舟山人,博士,講師,主要從事農(nóng)業(yè)機(jī)器人視覺和導(dǎo)航技術(shù)研究。E-mail:lshhui2006@163com。

        由于視覺系統(tǒng)能獲得較為細(xì)致的環(huán)境信息,同時(shí)更接近“人眼”的特性,視覺技術(shù)在國(guó)內(nèi)外已成為農(nóng)業(yè)車輛自主導(dǎo)航的關(guān)鍵與熱點(diǎn)研究領(lǐng)域,并取得了一定的研究成果[1-6]。而如何解決光線對(duì)成像的影響,是視覺系統(tǒng)的難點(diǎn)問題,特別是在野外農(nóng)業(yè)作業(yè)環(huán)境下,由于光線情況較為復(fù)雜,為提高成像質(zhì)量,更好地實(shí)現(xiàn)通過多目全景視覺完成農(nóng)業(yè)車輛自主導(dǎo)航,提高導(dǎo)航精度,必須解決系統(tǒng)環(huán)境光線自適應(yīng)問題。

        若在環(huán)境光線過亮的情況下,視覺系統(tǒng)會(huì)由于曝光量過大,使成像結(jié)果偏白,甚至全白;若在環(huán)境光線過暗的情況下,視覺系統(tǒng)則會(huì)由于曝光量過小,使成像結(jié)果變暗,甚至全黑。為解決此問題,國(guó)內(nèi)外許多專家學(xué)者對(duì)此進(jìn)行了研究。求取相機(jī)的響應(yīng)函數(shù),是分析曝光量與圖像成像關(guān)系的基礎(chǔ)問題,北京理工大學(xué)裘溯等通過主成分分析(PCA)算法提取最大特征向量,實(shí)現(xiàn)了對(duì)相機(jī)響應(yīng)函數(shù)的求取。北京大學(xué)章衛(wèi)祥等通過對(duì)迭代結(jié)束條件的改進(jìn),利用不同光線環(huán)境下的多張不同曝光度圖像得到相機(jī)響應(yīng)函數(shù)[8]。在光線較弱的低照度環(huán)境中,如何提高成像質(zhì)量是研究難點(diǎn)。哈爾濱工業(yè)大學(xué)遆曉光等通過暗通道先驗(yàn)方法對(duì)低照度圖像進(jìn)行增強(qiáng)[9]。清華大學(xué)禹晶等利用顏色恒常性的特點(diǎn),增強(qiáng)了低照度下圖像的視見度[10]。洛桑聯(lián)邦理工學(xué)院的Meylan等采用直方圖改進(jìn)和小波變換算法,對(duì)低照度下的圖像進(jìn)行增強(qiáng)[11]。麻省理工學(xué)院Durand等提出了快速的Bilateral Filter算法,以實(shí)現(xiàn)不同環(huán)境光線下高動(dòng)態(tài)范圍的圖像顯示[12]。同時(shí),猶他大學(xué)的Reinhard等也對(duì)該領(lǐng)域進(jìn)行了研究。米蘭大學(xué)的Rizzi等研究了高動(dòng)態(tài)范圍圖像的眩光抑制[14]。

        從目前的研究成果看,大多采用多次曝光的方式得到多張圖片,通過相關(guān)算法對(duì)圖片進(jìn)行增強(qiáng)處理,主要應(yīng)用于較弱光線環(huán)境和對(duì)實(shí)時(shí)性要求不高的情況。但由于農(nóng)業(yè)車輛工作在自然的野外環(huán)境,室外不確定的光線條件會(huì)嚴(yán)重影響農(nóng)業(yè)車輛視覺自主導(dǎo)航功能的實(shí)現(xiàn)。而本研究采用的全景視覺系統(tǒng),雖然能獲取更完整的周圍環(huán)境圖像信息,但由于是通過不同方向的多目相機(jī)拼接實(shí)現(xiàn)全景圖像,因此就算處于同一環(huán)境光線下,不同方向的光線也存在較大不同,因此對(duì)環(huán)境光線影響更為敏感,同時(shí)自主導(dǎo)航需要較高的實(shí)時(shí)性。因此如何研究實(shí)現(xiàn)一種實(shí)時(shí)性較高的多目全景視覺光線自適應(yīng)方法,直接影響自主導(dǎo)航農(nóng)業(yè)車輛的可靠運(yùn)行,具有重要的研究?jī)r(jià)值和意義。

        1視覺成像系統(tǒng)

        視覺成像系統(tǒng)主要分為傳統(tǒng)膠片成像和數(shù)字成像這2種方式,隨著電子信息技術(shù)的高速發(fā)展和機(jī)器人視覺技術(shù)的廣泛應(yīng)用,數(shù)字成像技術(shù)由于在圖像信息存儲(chǔ)、信息處理和信息傳輸?shù)确矫娴谋憬菪耘c高效性,已成為主流發(fā)展趨勢(shì)。

        11數(shù)字成像原理

        本研究中多目全景視覺系統(tǒng)的各相機(jī)采用光感應(yīng)式電荷耦合器件(CCD)傳感器,其成像過程如圖1所示。環(huán)境場(chǎng)景光照度(L),通過相機(jī)鏡頭得到進(jìn)入相機(jī)的光照度(E),通過快門控制的曝光時(shí)間(T),就能得到曝光量(X),通過CCD傳感器輸出電壓量(模擬),經(jīng)過A/D轉(zhuǎn)換得到相應(yīng)的數(shù)字量,最后通過重映射過程得到相機(jī)輸出數(shù)字量(Z)。

        環(huán)境場(chǎng)景光照度(L)與進(jìn)入相機(jī)的光照度(E)的關(guān)系可用公式(1)表示:

        [JZ(]E=L×[SX(]π4[SX)]×([SX(]df[SX)])2×cos4θ。[JZ)][JY](1)

        式中:d為相機(jī)光圈直徑,f為相機(jī)鏡頭焦距,θ為光線與光軸的夾角。其中相機(jī)光圈值F的定義如公式(2)所示:

        [FK(W5][TPLSH1tif][FK)]

        F=f/d。[JZ)][JY](2)

        將公式(2)代入公式(1),則可得到公式(3):

        E=L×[SX(]π4[SX)]×([SX(]1F[SX)])2×cos4θ。[JZ)][JY](3)

        12成像曝光控制

        曝光量(X)由進(jìn)入相機(jī)的入射光照度(E)和相機(jī)曝光時(shí)間(T)這2個(gè)因素決定,其關(guān)系如公式(4)所示:

        X=E×T。[JZ)][JY](4)

        圖像亮度與曝光時(shí)間,在k時(shí)刻的狀態(tài)表示為

        Bk=f(Tk,Ek,Gk,F(xiàn)k)。[JZ)][JY](5)

        式中:Bk為k時(shí)刻圖像亮度,Tk為k時(shí)刻相機(jī)曝光時(shí)間,Ek為k時(shí)刻環(huán)境的光照度,Gk為k時(shí)刻相機(jī)放大電路增益,F(xiàn)k為k時(shí)刻相機(jī)光圈值,f為相機(jī)響應(yīng)函數(shù),則在k+1時(shí)刻的狀態(tài)表示為

        Bk+1=f(Tk+1,Ek+1,Gk+1,F(xiàn)k+1)。[JZ)][JY](6)

        由于光照度(E)取決于周圍環(huán)境因素,相機(jī)放大電路增益(G)由相機(jī)內(nèi)部電路結(jié)構(gòu)決定,改變其值將會(huì)影響圖像的信噪比,故本研究?jī)?yōu)先選擇改變相機(jī)曝光時(shí)間(T)和相機(jī)光圈值(F)來實(shí)現(xiàn)對(duì)圖像亮度的控制。

        2成像質(zhì)量評(píng)價(jià)

        成像質(zhì)量是視覺成像系統(tǒng)的核心問題,同時(shí)直接關(guān)系到采用視覺技術(shù)進(jìn)行自主導(dǎo)航的可靠性。國(guó)內(nèi)外對(duì)成像質(zhì)量評(píng)價(jià)參數(shù)的研究,主要分為主觀與客觀兩大類[15-19]。

        主觀評(píng)價(jià)方法是通過圖像觀察者的主觀感受來對(duì)圖像質(zhì)量進(jìn)行評(píng)價(jià)打分,雖然該方法評(píng)價(jià)效果較好,但由于需要大量的人力成本且無法用數(shù)學(xué)方法進(jìn)行建模描述,故無法實(shí)際應(yīng)用于圖像處理過程??陀^評(píng)價(jià)方法是通過模型計(jì)算得到相關(guān)參數(shù)值,對(duì)圖像質(zhì)量進(jìn)行評(píng)價(jià)。本研究采用全景視覺的自主導(dǎo)航農(nóng)業(yè)車輛,由于須對(duì)視覺圖像信息進(jìn)行直接處理,得到相關(guān)導(dǎo)航信息,需要較高的算法精度,故選取客觀評(píng)價(jià)方法。

        客觀評(píng)價(jià)方法,如峰值信噪比(PSNR)、均方根誤差(RMSE)、結(jié)構(gòu)相似度(SSIM)等大多數(shù)方法都須要依賴參考圖像,但是在視覺自主導(dǎo)航系統(tǒng)實(shí)際應(yīng)用中,提供無失真的原始圖像(參考圖像)較難實(shí)現(xiàn),同時(shí)該類方法由于需要與參考圖像進(jìn)行比較,較難滿足自主導(dǎo)航系統(tǒng)對(duì)視覺圖像處理較高的實(shí)時(shí)性要求,故本研究選取與參考圖像無關(guān)的圖像信息熵和圖像平均梯度對(duì)視覺成像質(zhì)量進(jìn)行評(píng)價(jià)。

        信息熵用于描述信源信息量的情況,其表達(dá)為

        H[p(x1),p(x2),…,p(xn)]=-∑[DD(]ni=1[DD)]p(xi)lgp(xi)。[JZ)][JY](7)

        式中:p(xi)表示xi事件發(fā)生概率,則p(xi)滿足表達(dá)式(8):

        ∑[DD(]ni=1[DD)]p(xi)=1。[JZ)][JY](8)

        將信息熵用于描述圖像信息量情況,則將公式(7)變化為公式(9):

        H1=-∑[DD(]ni=1[DD)]p(i)lg p(i)。[JZ)][JY](9)

        式中:H1為圖像一維信息熵,表示圖像包含信息量的大小,HX越大,說明圖像所含信息量越大,圖像質(zhì)量越好,反之,HX越小,說明圖像所含信息量較小,圖像質(zhì)量越差;p(i)表示i灰度值像素出現(xiàn)的概率,滿足公式(10):

        ∑[DD(]ni=1[DD)]p(i)=1。[JZ)][JY](10)

        但圖像一維信息熵僅表示圖像像素灰度分布特性,未能反映其空間域特性,故本研究采用圖像二維信息熵作為成像質(zhì)量評(píng)價(jià)參數(shù),其表達(dá)式為

        ({]pij=f(i,j)/(L×W)H2=-∑[DD(]255i=0[DD)] ∑[DD(]255j=0[DD)]pij lg pij11)

        式中:L、W分別表示圖像的行、列像素點(diǎn)數(shù)量,則L×W為圖像分辨率,i表示像素P的灰度值,j表示像素P的領(lǐng)域灰度均值,f(i,j)表示有序?qū)Γ╥,j)出現(xiàn)的次數(shù)。圖像二維信息熵能更好地通過計(jì)算圖像所含信息量大小來評(píng)價(jià)成像質(zhì)量。

        為更全面地評(píng)價(jià)本研究多目全景視覺成像系統(tǒng)所生成的彩色圖像,分別通過計(jì)算圖像中的紅綠藍(lán)(RGB)分量的二維信息熵,然后求其平均值,表達(dá)式為

        HM/2=[SX(]13[SX)](HR/2+HG/2+HB/2)。[JZ)][JY](12)

        式中:HR/2、HG/2、HB/2分別為圖像R、G、B分量二維信息熵;HM/2為各分量平均二維信息熵。

        本研究通過圖像的平均梯度值來衡量圖像的清晰程度,平均梯度值越大,圖像越清晰,其成像質(zhì)量就越好,表達(dá)式為

        ▽G[TX-]=[SX(]1(L-1)(W-1)[SX)]∑[DD(]L-1i=0[DD)] ∑[DD(]W-1j=0[DD)][KF(][SX(]ΔI2x+ΔI2y213)

        式中:ΔIx=I(i,j)-I(i+1,j)為圖像x方向差分,ΔIy=I(i,j)-I(i,j+1)為圖像y方向差分,I(i,j)為圖像i行j列的像素值。

        3多目全景視覺光線自適應(yīng)算法實(shí)現(xiàn)

        本研究提出的多目全景視覺光線自適應(yīng)算法,就是為提高在不同環(huán)境光線條件下,多目全景視覺系統(tǒng)的成像質(zhì)量。

        31算法總體流程

        圖2為多目全景視覺光線自適應(yīng)算法的總體流程。首先,對(duì)設(shè)備進(jìn)行初始化;其次,對(duì)周圍環(huán)境光照度進(jìn)行采集,并判斷其是否在設(shè)定的正常光線范圍內(nèi);再次,針對(duì)不在設(shè)定的正常光線范圍內(nèi)的情況,計(jì)算圖像二維信息熵和圖像平均梯度值,并相應(yīng)地對(duì)數(shù)據(jù)庫(kù)進(jìn)行匹配更新;最后,根據(jù)匹配更新的數(shù)據(jù),設(shè)置新的曝光時(shí)間。

        32相機(jī)響應(yīng)函數(shù)求取

        相機(jī)的響應(yīng)函數(shù)反映了相機(jī)成像過程中曝光量與輸出量之間的映射關(guān)系,該函數(shù)通常是非線性函數(shù)[20-21]。準(zhǔn)確求取標(biāo)定相機(jī)響應(yīng)函數(shù),對(duì)相機(jī)成像系統(tǒng)的分析至關(guān)重要。

        根據(jù)“11”節(jié)數(shù)字成像原理,其成像模型描述可用公式(14)表示:

        Z=f(X)。[JZ)][JY](14)

        式中:X為曝光量,Z為相機(jī)輸出的數(shù)字量,f為相機(jī)的響應(yīng)函數(shù),根據(jù)公式(4),則公式(14)可表示為

        Zij=f(EiΔtj)。[JZ)][JY](15)

        式中:Δtj為j次曝光時(shí)間,Ei為i像素點(diǎn)的入射光照度,Zij為第j次曝光時(shí)間條件下i像素點(diǎn)的相機(jī)輸出數(shù)字量。假設(shè)f為單調(diào)函數(shù),則公式(15)可表示為

        f-1(Zij)=EiΔtj。[JZ)][JY](16)

        對(duì)公式(16)兩邊同時(shí)取自然對(duì)數(shù),則得到公式(17):

        lnf-1(Zij)=lnEi+lnΔtj。[JZ)][JY](17)

        為簡(jiǎn)化表達(dá)式,令公式(17)中l(wèi)nf-1=g,則公式(17)可表示為

        g(Zij)=lnEi+lnΔtj。[JZ)][JY](18)

        公式(18)中假設(shè)g()為平滑單調(diào)函數(shù)。

        O=∑[DD(]Ni=1[DD)] ∑[DD(]Pj=1[DD)][g(Zij)-lnEi-lnΔtj]2+λ∑[DD(]Zmax-1z=Zmin+1[DD)]g″(z)2。[JZ)][JY](19)

        式中:Zmin為相機(jī)輸出最小量,Zmax為相機(jī)輸出最大量,公式(19)中第2項(xiàng)為g(z)二階導(dǎo)數(shù)的平方和,g″(z)表達(dá)式為

        g″(z)=g(z-1)-2g(z)+g(z+1)。[JZ)][JY](20)

        公式(19)又可表示為

        O=∑[DD(]Ni=1[DD)] ∑[DD(]Pj=1[DD)]{w(Zij)[g(Zij)-lnEi-lnΔtj]}2+λ∑[DD(]Zmax-1z=Zmin+1[DD)][w(z)g″(z)]2。[JY](21)

        其中w(z)定義為

        w(z)=[JB({]z-Zmin[KG3]當(dāng) z≤[SX(]12[SX)](Zmin+Zmax)時(shí)Zmax-z[KG3]當(dāng)z>[SX(]12(Zmin+Zmax)時(shí)[JB)]。(22)

        根據(jù)公式(18)得到

        lnEi=g(Zij)-lnΔtj。

        (23)結(jié)合公式(21)得到

        [JZ(]lnEi=[SX(]∑[DD(]Pj=1[DD)]w(Zij)[g(Zij)-lnΔtj]∑[DD(]Pj=1[DD)]w(Zij)[SX)]。[JZ)][JY](24)

        33數(shù)據(jù)匹配與更新

        本研究中的多目全景視覺光線自適應(yīng)算法,其目的為通過獲取光照度的數(shù)據(jù),調(diào)節(jié)曝光時(shí)間,進(jìn)而控制曝光量,提高圖像成像質(zhì)量。根據(jù)公式(16),相機(jī)響應(yīng)函數(shù)反映了相機(jī)輸出量與曝光量之間的關(guān)系,其中曝光量為曝光強(qiáng)度與曝光時(shí)間的乘積,故可得曝光時(shí)間與相機(jī)輸出量之間的關(guān)系。僅通過求取相機(jī)響應(yīng)函數(shù)雖能較準(zhǔn)確地進(jìn)行分析,但需要大量的計(jì)算和擬合工作,影響實(shí)時(shí)性。為更好地解決此問題,本研究建立了光照度與曝光時(shí)間的關(guān)系數(shù)據(jù)庫(kù),在數(shù)據(jù)匹配時(shí)優(yōu)先采用數(shù)據(jù)查表方式,如在數(shù)據(jù)庫(kù)中未能獲取其關(guān)系時(shí)再采用相機(jī)響應(yīng)函數(shù)的方式進(jìn)行計(jì)算,其后根據(jù)傳感采集端回傳的相關(guān)數(shù)據(jù)對(duì)關(guān)系數(shù)據(jù)庫(kù)進(jìn)行更新,該方法能有效地提高匹配運(yùn)算速度??紤]到硬件模塊安裝與數(shù)據(jù)傳輸?shù)谋憬菪?,安裝于相機(jī)端的光照度采集硬件模塊通過數(shù)據(jù)無線傳輸將光照度數(shù)據(jù)傳輸回來。

        本研究數(shù)據(jù)庫(kù)設(shè)計(jì)存儲(chǔ)的關(guān)系量為T、Estd、Emin、Emax 4個(gè),其中T為對(duì)應(yīng)光照度Estd時(shí)的曝光時(shí)間,考慮到農(nóng)業(yè)車輛在野外環(huán)境下光照度是時(shí)刻變化的,為避免頻繁調(diào)整曝光時(shí)間,影響算法實(shí)時(shí)性和圖像成像質(zhì)量,數(shù)據(jù)庫(kù)中設(shè)定了2個(gè)區(qū)間參數(shù)Emin和Emax,光照度在[Emin,Emax]區(qū)間范圍時(shí),根據(jù)“34”節(jié)算法判定依據(jù)仍有可能不改變曝光時(shí)間T,正常運(yùn)行原有程序,能有效地提高算法實(shí)時(shí)性。同時(shí)減少數(shù)據(jù)庫(kù)更新記錄次數(shù),減小數(shù)據(jù)庫(kù),從而加快數(shù)據(jù)索引匹配速度。

        34光線自適應(yīng)曝光時(shí)間調(diào)整

        根據(jù)采集的環(huán)境光照度和“33”節(jié)建立的關(guān)系數(shù)據(jù)庫(kù),則能實(shí)現(xiàn)光線自適應(yīng)曝光時(shí)間調(diào)整,具體步驟如下:

        (1)通過安裝于多目全景視覺系統(tǒng)各相機(jī)方向的光照度采集硬件模塊,在t時(shí)刻,獲取各相機(jī)方向的光照度Eit,其中 i=1,…,6。

        (2)若Estd-δ≤Eit≤Estd+δ,則表明光照度在正常范圍區(qū)間,執(zhí)行步驟(6);若Emin≤Eit

        (3)根據(jù)公式(11)計(jì)算t時(shí)刻圖像的二維信息熵Hit,若Hit≥Hs,則表明圖像二維信息熵不小于設(shè)定的正常二維信息熵,圖像質(zhì)量較好,執(zhí)行步驟(6);若Hit

        (4)根據(jù)公式(13),計(jì)算圖像的平均梯度值▽G[TX-]it,若▽G[TX-]it≥Gs,則表明圖像的平均梯度值不小于設(shè)定的正常平均梯度值,圖像質(zhì)量較好,執(zhí)行步驟(6);反之▽G[TX-]it

        (5)通過數(shù)據(jù)匹配重新得到曝光時(shí)間Tit、Estd、Emin、Emax。

        [JZ(]Tit=Yi(Eit,Hit,▽G[TX-]it)。[JZ)][JY](25)

        (6)生成光線自適應(yīng)的全景視覺圖像,判斷程序是否完成,若未完成,則t=t+1,繼續(xù)執(zhí)行步驟(1);若完成,則結(jié)束運(yùn)行。

        4系統(tǒng)整體試驗(yàn)數(shù)據(jù)及分析

        試驗(yàn)以加裝全球定位系統(tǒng)(GPS)和多目全景視覺系統(tǒng)(Ladybug3)并經(jīng)過電控液壓轉(zhuǎn)向改造的東方紅SG250型拖拉機(jī)為自主導(dǎo)航農(nóng)業(yè)車輛試驗(yàn)平臺(tái)進(jìn)行試驗(yàn)。

        通過設(shè)計(jì)進(jìn)行光線自適應(yīng)算法成像試驗(yàn)、主要成像質(zhì)量指標(biāo)測(cè)試試驗(yàn)和算法實(shí)時(shí)性測(cè)試試驗(yàn),來有效地檢驗(yàn)本研究中提出的多目全景視覺光線自適應(yīng)系統(tǒng)的實(shí)際運(yùn)行效果。

        41光線自適應(yīng)算法成像試驗(yàn)

        農(nóng)業(yè)車輛在實(shí)際野外工作環(huán)境中,光照度會(huì)由于時(shí)間、季節(jié)、天氣等因素有較大變化,對(duì)視覺自主導(dǎo)航的可靠運(yùn)行造成影響。而本研究中的多目全景視覺系統(tǒng),由于采用多方向的相機(jī)圖像拼接來得到全景視覺圖像,則光照度變化會(huì)直接影響全景視覺圖像拼接的成功率,從而影響自主導(dǎo)航功能的實(shí)現(xiàn)。試驗(yàn)分別選取光線正常、光線較強(qiáng)、光線較弱這3種情況進(jìn)行測(cè)試。

        如圖3-a所示,在光線較強(qiáng)情況下,由于未經(jīng)改進(jìn)的原始處理算法得到的全景視覺圖像存在過曝光的情況,圖像質(zhì)量較差,有較多圖像信息丟失,圖3-b、3-c、3-d、3-e分別為圖像R分量、G分量、B分量、灰度的直方圖,通過分析可以反映圖像存在較多高亮度值區(qū)域,而低亮度值區(qū)域較少。圖4-a為采用本研究提出的光線自適應(yīng)算法進(jìn)行處理后所得到的全景視覺圖像,其成像質(zhì)量明顯得到改善,圖4-b、4-c、4-d、4-e分別為圖像R分量、G分量、B分量、灰度的直方圖,其高亮度值區(qū)域減少,亮度分布得到改善。

        如圖5-a所示,在光線較弱情況下,由于圖像存在欠曝光的情況,未經(jīng)改進(jìn)的原始處理算法得到的全景視覺圖像質(zhì)量較差,從而丟失較多圖像信息。圖5-b、5-c、5-d、5-e分別為圖像R分量、G分量、B分量、灰度的直方圖,通過分析可以反映圖像集中于低亮度值區(qū)域,高亮度值區(qū)域接近0。圖6-a為采用本研究提出的光線自適應(yīng)算法進(jìn)行處理后得到的全景視覺圖像,其成像質(zhì)量明顯得到改善,圖6-b、6-c、6-d、6-e分別為圖像R分量、G分量、B分量、灰度的直方圖,它的低亮度值區(qū)域減少,有效地改善了亮度分布區(qū)域。

        由圖7-a可見,由于光線情況較正常,未經(jīng)改進(jìn)的原始處理算法得到的全景視覺圖像,雖然總體質(zhì)量也較良好,但通過圖7-b、7-c、7-d、7-e與圖8-b、8-c、8-d、8-e對(duì)應(yīng)直方圖進(jìn)行比較可以發(fā)現(xiàn),采用本研究提出的光線自適應(yīng)算法處理后所得的全景視覺圖像,直方圖分布更接近中心均衡分布,成像質(zhì)量較好,得到的全景視覺圖像如圖8-a所示。

        42主要成像質(zhì)量指標(biāo)測(cè)試試驗(yàn)

        平均二維信息熵用來描述圖像所含信息量的大小,平均梯度值用來描述圖像的清晰程度?!?1”節(jié)試驗(yàn)結(jié)果表明,本研究提出的改進(jìn)光線自適應(yīng)算法,能在不同光線條件下,有效地提高成像質(zhì)量。為更系統(tǒng)地測(cè)試采用本研究改進(jìn)的光線自適應(yīng)算法進(jìn)行處理的實(shí)際圖像的成像質(zhì)量,在不同光線情況下, 通過分組進(jìn)行多次試驗(yàn),由于像素是圖像的重要參數(shù),

        故在每組中對(duì)不同像素的圖像計(jì)算分析其平均二維信息熵、平均梯度值、單次平均耗時(shí)。

        將試驗(yàn)分為A、B、C組,分別在光線較亮、光線正常、光線較暗的環(huán)境條件下進(jìn)行測(cè)試。其中A1、B1、C1組采用320×240像素圖像進(jìn)行測(cè)試,A2、B2、C2組采用512×256像素圖像進(jìn)行測(cè)試,A3、B3、C3組采用1 024×512像素圖像進(jìn)行測(cè)試。為較有效地分析試驗(yàn)數(shù)據(jù),每組各進(jìn)行50次獨(dú)立試驗(yàn)。

        選取在1 024×512相同像素圖像情況下進(jìn)行分析,由表1可見,在光線較亮?xí)r,A3組中采用未經(jīng)改進(jìn)的原始算法處理,其圖像平均二維信息熵為629,平均梯度值為581,而采用本研究改進(jìn)的光線自適應(yīng)算法處理后,其圖像二維信息熵為922,平均梯度值為931。在光線較暗時(shí),C3組中采用未經(jīng)改進(jìn)的原始算法處理,其圖像平均二維信息熵為 732,平均梯度值為472,而采用本研究改進(jìn)的光線自適應(yīng)算法處理后,其圖像二維信息熵為958,平均梯度值為813。相較于未經(jīng)改進(jìn)的原始處理算法,本研究提出的光線自適應(yīng)處理算法,在光線較亮和較暗情況下的圖像平均二維信息熵分別提高466%、309%,平均梯度值分別提高602%、722%。在光線正常情況下,由于光線因素對(duì)成像影響較小,故采用未經(jīng)的原始算法雖然較本研究改進(jìn)的光線自適應(yīng)算法成像質(zhì)量略差,但差距不明顯。相較于未經(jīng)改進(jìn)的原始算法,由于本研究改進(jìn)的光線自適應(yīng)處理算法增加了相關(guān)處理步驟,在處理時(shí)間上會(huì)略有增加,但增加幅度較小,能滿足系統(tǒng)實(shí)時(shí)性需要。

        綜合各組試驗(yàn)數(shù)據(jù),在光線較亮情況下,未經(jīng)改進(jìn)的原始算法的圖像平均二維信息熵為624,平均梯度值為574;本研究改進(jìn)的光線自適應(yīng)算法的圖像平均二維信息熵為917,平均梯度值為924,相較于未經(jīng)改進(jìn)的原始算法,圖像平均二維信息熵提高471%,平均梯度值提高609%。

        在光線較暗情況下,未經(jīng)改進(jìn)的原始算法的圖像平均二維信息熵為717,平均梯度值為458;本研究改進(jìn)的光線自適應(yīng)算法的圖像平均二維信息熵為934,平均梯度值為 808,相較于未經(jīng)改進(jìn)的原始算法,圖像平均二維信息熵提高303%,平均梯度值提高764%。

        43算法實(shí)時(shí)性測(cè)試試驗(yàn)

        雖然隨著像素的提高,圖像成像質(zhì)量也隨之提高,但處理時(shí)間也會(huì)隨之增加,由于本研究中多目全景視覺系統(tǒng)的目的是為實(shí)現(xiàn)農(nóng)業(yè)車輛的自主導(dǎo)航,故必須考慮實(shí)時(shí)性,實(shí)際應(yīng)用中通常設(shè)置512×256像素圖像進(jìn)行處理。試驗(yàn)選取512×256像素圖像,在較亮、正常、較暗3種光線情況下進(jìn)行測(cè)試。

        由表2可見,選取試驗(yàn)1進(jìn)行具體分析,傳統(tǒng)多曝光處理算法的圖像平均二維信息熵為932,平均梯度值為 942,單次平均耗時(shí)為169 s,本研究改進(jìn)的光線自適應(yīng)算法的圖像平均二維信息熵為919,平均梯度值為929,單次平均耗時(shí)為036 s,速度加快787%。

        綜合各組試驗(yàn)數(shù)據(jù),在不同光線情況下,傳統(tǒng)多曝光處理算法的圖像平均二維信息熵為957,平均梯度值為942,單次平均耗時(shí)147 s;本研究改進(jìn)的光線自適應(yīng)算法的圖像平均二維信息熵為946,平均梯度值為931,單次平均耗時(shí) 036 s。由于傳統(tǒng)多曝光處理算法采用多次曝光得到多張圖像進(jìn)行算法處理, 故在成像質(zhì)量上稍好于本研究中改進(jìn)的光線自適應(yīng)算法,但同時(shí)也造成算法運(yùn)算耗時(shí)較長(zhǎng),不適合應(yīng)用于對(duì)實(shí)時(shí)性要求較高的視覺導(dǎo)航。相較于傳統(tǒng)多曝光處理算法,本研究改進(jìn)的光線自適應(yīng)算法在成像質(zhì)量差別不大的情況下,速度平均加快了755%。

        5結(jié)論

        (1)本研究提出的光線自適應(yīng)算法,在正常、較強(qiáng)、較弱的不同光線情況下,所得到的全景視覺圖像,其成像質(zhì)量明顯得到提高。(2)在光線較亮情況下,本研究改進(jìn)的光線自適應(yīng)算法,相較于未經(jīng)改進(jìn)的原始算法,圖像平均二維信息熵提高471%,平均梯度值提高609%。在光線較暗情況下,本研究改進(jìn)的光線自適應(yīng)算法,相較于未經(jīng)改進(jìn)的原始算法,圖像平均二維信息熵提高303%,平均梯度值提高764%。(3)在不同光線情況下,本研究改進(jìn)的光線自適應(yīng)算法單次平均耗時(shí)036 s。相較于傳統(tǒng)多曝光處理算法,速度平均加快 755%,能較好地滿足農(nóng)業(yè)車輛全景視覺自主導(dǎo)航的較高實(shí)時(shí)性要求。

        參考文獻(xiàn):

        姬長(zhǎng)英,周俊 農(nóng)業(yè)機(jī)械導(dǎo)航技術(shù)發(fā)展分析[J] 農(nóng)業(yè)機(jī)械學(xué)報(bào),2014,45(9):44-54

        李進(jìn),陳無畏 基于自適應(yīng)導(dǎo)航參數(shù)的智能車輛視覺導(dǎo)航[J] 農(nóng)業(yè)機(jī)械學(xué)報(bào),2012,43(6):19-24

        [3]趙博,王猛,毛恩榮,等 農(nóng)業(yè)車輛視覺實(shí)際導(dǎo)航環(huán)境識(shí)別與分類[J] 農(nóng)業(yè)機(jī)械學(xué)報(bào),2009,40(7):166-170

        [4]Bergerman M,Maeta S M,Zhang J,et alRobot farmers: autonomous orchard vehicles help tree fruit production[J] IEEE Robotics and Automation Magazine,2015,22(1):54-63

        [5]Cariou C,Lenain R,Thuilot B,et alAutomatic guidance of a four-wheel-steering mobile robot for accurate field operations[J] Journal of Field Robotics,2009,26(6/7):504-518

        [6]Asif M,Amir S,Israr A,et alA vision system for autonomous weed detection robot [J] International Journal of Computer and Electrical Engineering,2010,2(3):486-491

        [7]裘溯,金偉其 基于PCA的相機(jī)響應(yīng)函數(shù)特征化方法研究[J] 北京理工大學(xué)學(xué)報(bào),2015,35(10):1085-1089

        [8]章衛(wèi)祥,周秉鋒 一個(gè)穩(wěn)健的用于HDR圖像的相機(jī)響應(yīng)函數(shù)標(biāo)定算法[J] 計(jì)算機(jī)學(xué)報(bào),2006,29(4):658-663

        [9]遆曉光,曲悠楊 一種改進(jìn)的色彩保持低照度圖像增強(qiáng)方法[J] 哈爾濱工業(yè)大學(xué)學(xué)報(bào),2014,46(3):1-7

        [10]禹晶,李大鵬,廖慶敏 基于顏色恒常性的低照度圖像視見度增強(qiáng)[J] 自動(dòng)化學(xué)報(bào),2011,37(8):923-931

        [11]Meylan L,Susstrunk SHigh dynamic range image rendering with a retinex-based adaptive filter [J] IEEE Transactions on Image Processing,2006,15(9):2820-2830

        [12]Durand F,Dorsey JFast bilateral filtering for the display of high-dynamic-range images[J] ACM Transactions on Graphics,2002,21(3):257-266

        [13]Reinhard E,Stark M,Shirley P,et alPhotographic tone reproduction for digital images[J] ACM Transactions on Graphics,2002,21(3):267-276[HJ17mm]

        [14]Rizzi A,McCann J JGlare‐limited appearances in HDR images [J] Journal of the Society for Information Display,2009,17(1):3-12

        [15]蔣剛毅,黃大江,王旭,等 圖像質(zhì)量評(píng)價(jià)方法研究進(jìn)展[J] 電子與信息學(xué)報(bào),2010,32(1):219-226

        [16]王志明 無參考圖像質(zhì)量評(píng)價(jià)綜述[J] 自動(dòng)化學(xué)報(bào),2015,41(6):1062-1079

        [17]Eskicioglu A M,F(xiàn)isher P SImage quality measures and their performance[J] IEEE Transactions on Communications,1995,43(12):2959-2965

        [18]Zhang Y JA survey on evaluation methods for image segmentation[J] Pattern Recognition,1996,29(8):1335-1346

        [19]Veeramallu B,Lavanya S C,Sahitya SSurvey on an image quality assessment metric based on early vision features[J] IEEE Transactions on Image Process,2013,2(6):447-449

        [20]Debevec P E,Malik JRecovering high dynamic range radiance maps from photographs[C] Proceedings of ACM SIGGRAPH,1997:369-378

        [21]Nayar S K,Mitsunaga THigh dynamic range imaging: spatially varying pixel exposures[C] Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,2000:472-479

        久久久久久一本大道无码 | 亚洲天码一区二区三区| 老熟女富婆激情刺激对白| 香港三级精品三级在线专区| 国产精品久久久久国产精品| 熟女白浆精品一区二区| 国产午夜福利小视频在线观看| 香蕉视频在线观看亚洲| 日本无码人妻波多野结衣| 久久噜噜噜| 少妇人妻字幕一区二区| 国产精品一区二区三区自拍| 久久精品国产久精国产| 夜夜春精品视频| 中文字幕一区二区人妻在线不卡| 美女午夜福利视频网址| 亚洲综合色区另类av| 精品少妇大屁股白浆无码| 午夜精品人妻中字字幕| 久久婷婷五月综合色高清| 日韩精品无码视频一区二区蜜桃| 成人在线免费视频亚洲| 久久久精品国产av麻豆樱花| 亚洲av无码乱码国产精品久久| 亚洲级αv无码毛片久久精品| 中文字幕第一页在线无码一区二区| 日本一区二区三区熟女俱乐部 | 99精品国产闺蜜国产在线闺蜜| 亚洲永久免费中文字幕| 欧美最猛黑人xxxx黑人猛交| 国产亚洲婷婷香蕉久久精品| 亚洲美女性生活一级片| 精品国产成人av久久| 亚洲精品无码成人a片| 国产精品一区2区三区| av天堂网手机在线观看| 波多野42部无码喷潮在线| 国产免费资源高清小视频在线观看| 亚洲黄片av在线免费观看| 日韩乱码人妻无码系列中文字幕 | 亚洲国产一区二区三区|