亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        無(wú)人機(jī)視覺(jué)下基于改進(jìn)OTSU的負(fù)障礙物檢測(cè)

        2020-09-09 03:09:06付浩龍席阿行劉東杰劉子豪
        關(guān)鍵詞:障礙物方差灰度

        付浩龍 趙 津 席阿行 劉東杰 劉子豪

        (貴州大學(xué)機(jī)械工程學(xué)院 貴州 貴陽(yáng) 550025)

        0 引 言

        障礙物分為正障礙物和負(fù)障礙物,負(fù)障礙物具有較高的隱蔽性與危險(xiǎn)性,容易導(dǎo)致無(wú)人車(chē)輛翻滾、傾覆,但針對(duì)負(fù)障礙物檢測(cè)的相關(guān)研究較少?,F(xiàn)有研究大多為基于無(wú)人車(chē)平臺(tái)搭載不同傳感器并結(jié)合相應(yīng)識(shí)別算法進(jìn)行負(fù)障礙物檢測(cè)的方法。然而,受無(wú)人車(chē)平臺(tái)觀測(cè)高度的影響,負(fù)障礙物的觀測(cè)角度隨車(chē)輛與其距離的增加而急劇減小。Wang等[1]結(jié)合陰影特征和邊緣散射特征,提出了一種無(wú)監(jiān)督的正、負(fù)障礙物區(qū)分檢測(cè)方法;劉家銀等[2]提出了一種基于多激光雷達(dá)與組合特征的非結(jié)構(gòu)化環(huán)境負(fù)障礙物檢測(cè)方法;Larson等[3]提出了一種名為Negative Obstacle DetectorR(NODR)的支持向量機(jī)的負(fù)障礙檢測(cè)方法;Karunasekera等[4]提出了一種利用視差圖檢測(cè)負(fù)障礙物的方法,并利用車(chē)載視覺(jué)傳感器開(kāi)展了實(shí)驗(yàn)。但上述方法均未解決無(wú)人車(chē)觀測(cè)角度受限的問(wèn)題。本文針對(duì)該問(wèn)題,提出了一種利用無(wú)人機(jī)廣闊視野在較大范圍內(nèi)對(duì)地面負(fù)障礙物進(jìn)行檢測(cè)的方法,利用圖像分割技術(shù)確認(rèn)負(fù)障礙物區(qū)域,并為后續(xù)的負(fù)障礙物定位提供基礎(chǔ)。

        基于最大類(lèi)間方差的OTSU算法因其良好的分割效果在圖像分割以及相關(guān)的圖像處理領(lǐng)域廣泛應(yīng)用[5]。但是OTSU算法具有一定的局限性,比如對(duì)于灰度直方圖不具備明顯雙峰特點(diǎn)的圖像,因目標(biāo)像素比例過(guò)小、直方圖中存在大范圍波谷等原因,往往無(wú)法進(jìn)行較為準(zhǔn)確的分割[6]。因此,為增強(qiáng)OTSU算法的閾值分割適應(yīng)性,相關(guān)學(xué)者對(duì)其做了許多優(yōu)化與改進(jìn)[7-9]。馬天兵等[10]將閾值與鄰近波峰之間灰度值的差值及二者像素?cái)?shù)量之和在總體中的比例共同作為權(quán)重改進(jìn)OTSU算法,避免了背景像素對(duì)閾值選取的影響。Fan等[11]考慮目標(biāo)與背景的方差,將閾值鄰域灰度值的所有像素的分布概率作為權(quán)重改進(jìn)OTSU算法,在目標(biāo)與背景方差差距較大的圖像上獲得較好的分割效果。申鉉京等[12]在上述基礎(chǔ)上,考慮波谷與鄰近波峰的相對(duì)高度差,并將其作為權(quán)重加入方差求解公式中,進(jìn)一步突出了波谷。

        本文在分析傳統(tǒng)OTSU與其他改進(jìn)OTSU算法原理的基礎(chǔ)上,結(jié)合負(fù)障礙區(qū)域內(nèi)灰度值較低、灰度變化較小的特點(diǎn),提出了一種適應(yīng)負(fù)障礙物檢測(cè)的改進(jìn)OTSU算法。算法用圖像的方差信息代替均值信息并將閾值鄰近灰度的所有像素的分布概率作為權(quán)重,來(lái)確定最佳的分割閾值,實(shí)現(xiàn)準(zhǔn)確的負(fù)障礙物圖像分割。

        1 負(fù)障礙物檢測(cè)示意

        基于無(wú)人車(chē)的負(fù)障礙物檢測(cè)示意圖如圖1所示,其檢測(cè)原理符合tanα=d/(R+w),tan(α+θ)=d/R。根據(jù)相似三角形原理h=dw/R,因?yàn)镽>>d,故滿(mǎn)足α≈d/(R+w),α+θ≈(d+h)/(R+w),進(jìn)而可知:

        (1)

        圖1 基于無(wú)人車(chē)的負(fù)障礙物檢測(cè)

        在較遠(yuǎn)距離時(shí),受無(wú)人車(chē)高度d的限制,其觀測(cè)角度θ隨距離R的增大而急劇減小,因此很難檢測(cè)到負(fù)障礙物。

        基于無(wú)人機(jī)的負(fù)障礙物檢測(cè)示意圖如圖2所示。針對(duì)無(wú)人車(chē)負(fù)障礙檢測(cè)過(guò)程中視角受限問(wèn)題,本文提出了一種基于無(wú)人機(jī)視覺(jué)的負(fù)障礙物檢測(cè)方法。該方法在無(wú)人機(jī)處于懸停狀態(tài)時(shí)利用固定于無(wú)人機(jī)底部的攝像機(jī)進(jìn)行近似垂直角度拍攝以獲取負(fù)障礙物圖像。其檢測(cè)原理為:tanβ=S/H,tan(β+θa)=(S+w)/H,因H>>S,β+θa≈(S+w)/H,故β≈S/H。由此可得:

        (2)

        圖2 基于無(wú)人機(jī)的負(fù)障礙物檢測(cè)

        對(duì)比式(1)、式(2):對(duì)于同一負(fù)障礙物,當(dāng)無(wú)人車(chē)距離R與無(wú)人機(jī)高度H近似時(shí)θ正比于1/R2,θa正比于1/H,無(wú)人機(jī)獲得的有效觀測(cè)角度遠(yuǎn)大于無(wú)人車(chē)。因此利用無(wú)人機(jī)的高度優(yōu)勢(shì),從較高視野獲取負(fù)障礙物的圖像信息并進(jìn)行檢測(cè),能有效解決傳統(tǒng)方法無(wú)法在較遠(yuǎn)處檢測(cè)負(fù)障礙物的問(wèn)題,提升負(fù)障礙物的檢測(cè)速度。

        2 負(fù)障礙物圖像分割

        2.1 HSV空間轉(zhuǎn)換

        無(wú)人機(jī)搭載的視覺(jué)傳感器極易受到光線(xiàn)變化的影響,導(dǎo)致獲取的環(huán)境圖像質(zhì)量降低,而采用轉(zhuǎn)化HSV色彩空間模型的方法可以有效減少光線(xiàn)變化對(duì)其造成的影響[13]。無(wú)人機(jī)獲取的簡(jiǎn)單、復(fù)雜兩種環(huán)境下的負(fù)障礙物圖像如圖3所示,其中:(a)、(c)為原圖,對(duì)應(yīng)V通道分量圖為(b)、(d)。

        圖3 典型負(fù)障礙物圖像

        2.2 圖像分割

        閾值分割作為圖像分割的一種,具有計(jì)算簡(jiǎn)單、運(yùn)算速度快、效率高的特點(diǎn),能有效提高圖像識(shí)別的效率與準(zhǔn)確性。

        2.2.1傳統(tǒng)的OTSU算法

        OTSU算法將圖像根據(jù)閾值分為目標(biāo)與背景兩部分,通過(guò)計(jì)算最大間類(lèi)方差區(qū)分目標(biāo)與背景,使得兩類(lèi)像素之間區(qū)分度最大,從而獲得最佳閾值。

        對(duì)于圖像I(x,y),假設(shè)圖像大小為M×N,目標(biāo)和背景的分割閾值記作T,圖像中像素的灰度值小于等于閾值T的像素個(gè)數(shù)為N0,大于閾值T的像素個(gè)數(shù)為N1。屬于目標(biāo)的像素點(diǎn)數(shù)占整幅圖像的比例記為ω0,平均灰度為μ0;背景像素點(diǎn)數(shù)占整幅圖像的比例為ω1,平均灰度為μ1;整幅圖像的平均灰度記為μ,類(lèi)間方差記為g。那么:

        ω0=N0/(M×N)

        (3)

        ω1=N1/(M×N)

        (4)

        N0+N1=M×N

        (5)

        ω0+ω1=1

        (6)

        μ=ω0×μ0+ω1×μ1

        (7)

        g=ω0(μ0-μ)2+ω1(μ1-μ)2

        (8)

        采用遍歷方法獲得的類(lèi)間方差g的最大值,即為所求最佳閾值T:

        (9)

        2.2.2改進(jìn)的OTSU算法

        文獻(xiàn)[11]提出一種基于權(quán)重系數(shù)的改進(jìn)算法,在傳統(tǒng)OTSU的基礎(chǔ)上,將閾值鄰域灰度值的所有像素的分布概率作為權(quán)重加入式(8)。改進(jìn)后的類(lèi)間方差公式為:

        (10)

        文獻(xiàn)[14]提出一種基于圖像方差信息的改進(jìn)算法,即用圖像方差信息代替式(8)中的均值信息。改進(jìn)后的間類(lèi)方差公式為:

        g=ω0(σ1-σ)2+ω1(σ2-σ)2

        (11)

        式中:σ1、σ2、σ分別表示目標(biāo)、背景以及總體的方差信息。

        文獻(xiàn)[15]提出了一種加大背景像素占整幅圖像比例的改進(jìn)方法。改進(jìn)后的類(lèi)間方差公式為:

        g=ω0(μ0-μ)2+ω11.35(μ1-μ)2

        (12)

        文獻(xiàn)[12]提出了一種通過(guò)將波谷及其鄰近波峰灰度值的相對(duì)頻率作為權(quán)重加入式(8)的改進(jìn)方法。改進(jìn)后的類(lèi)間方差公式為:

        ω1(μ1-μ)2)

        (13)

        式中:P(t)、PL(t)、PR(t)分別表示閾值T與其鄰近左右波峰區(qū)域的像素分布概率。

        3 基于方差與權(quán)重的OTSU改進(jìn)算法

        負(fù)障礙物圖像的圖像分割難點(diǎn)在于其圖像的灰度級(jí)多、環(huán)境信息復(fù)雜,難以準(zhǔn)確定位負(fù)障礙物區(qū)域。然而負(fù)障礙物的內(nèi)部區(qū)域灰度值變化較小且大部分為低灰度值,目標(biāo)與背景之間的灰度值變化比較明顯。但是傳統(tǒng)的OTSU算法不能較好地分割出負(fù)障礙物區(qū)域。本文針對(duì)無(wú)人機(jī)獲取的簡(jiǎn)單、復(fù)雜環(huán)境下兩種典型負(fù)障礙物的分割結(jié)果以及負(fù)障礙物的特征提出一種基于方差與權(quán)重的OTSU改進(jìn)算法,使閾值向低灰度值趨近。

        本文提出的改進(jìn)OTSU算法的具體思路為:把圖像的均值信息代替為方差信息,并將閾值鄰近灰度值的所有像素的分布概率作為權(quán)重。其中,方差是表示圖像灰度分布均勻性的一種度量,對(duì)于負(fù)障礙物圖像而言,目標(biāo)內(nèi)部方差變化較小,而邊界及其附近點(diǎn)處的方差變化較大。因此,用方差信息代替式(8)中的均值信息對(duì)于負(fù)障礙物圖像來(lái)說(shuō)具有更好的自適應(yīng)性。同時(shí)考慮負(fù)障礙物區(qū)域內(nèi)部灰度較低的特點(diǎn),將閾值鄰域灰度值所有像素的分布概率作為權(quán)重,使閾值向低灰度區(qū)域偏移,以此獲得最佳的負(fù)障礙物圖像分割閾值。

        定義目標(biāo)類(lèi)間方差為:

        σ1=(μ0-μ)2

        (14)

        背景類(lèi)間方差為:

        σ2=(μ1-μ)2

        (15)

        圖像的總體方差為:

        (16)

        本文改進(jìn)后的類(lèi)間方差g為:

        (17)

        P(t+1)+…+P(t+k)]

        (18)

        最終,本文算法的最佳閾值判別準(zhǔn)則函數(shù)為:

        ω1(σ2-σ)2])

        (19)

        4 圖像分割實(shí)驗(yàn)與負(fù)障礙物定位

        采用本文算法對(duì)由無(wú)人機(jī)獲取的簡(jiǎn)單、復(fù)雜兩種環(huán)境下的負(fù)障礙物圖像進(jìn)行圖像分割實(shí)驗(yàn)并與其他五種算法進(jìn)行對(duì)比,最終根據(jù)最佳閾值分割結(jié)果進(jìn)行負(fù)障礙區(qū)域定位實(shí)驗(yàn)。

        4.1 圖像分割結(jié)果

        無(wú)人機(jī)獲取的簡(jiǎn)單環(huán)境下的負(fù)障礙物圖像具有負(fù)障礙物區(qū)域小、目標(biāo)與背景灰度區(qū)分明顯且二者面積相差甚遠(yuǎn)等特點(diǎn)。其灰度直方圖及六種方法所得閾值結(jié)果如圖4所示,其中:A、B、C、D、E分別代表傳統(tǒng)的OTSU算法、文獻(xiàn)[11]、文獻(xiàn)[14]、文獻(xiàn)[15]、文獻(xiàn)[12]提出的改進(jìn)算法??梢钥闯觯叶葏^(qū)域分為一高一低兩部分且兩者面積區(qū)域差距很大,顯然傳統(tǒng)的OTSU算法不適用于該形式。

        圖4 簡(jiǎn)單環(huán)境負(fù)障礙物圖像灰度直方圖

        六種算法圖像分割結(jié)果如圖5所示。可以看出:基于傳統(tǒng)OTSU算法(A方法)獲得的圖像分割結(jié)果,環(huán)境噪聲信息與負(fù)障礙物區(qū)域混雜,圖像分割結(jié)果較差;B方法的閾值向高灰度值趨近,不適用于目標(biāo)與背景面積相差較大的負(fù)障礙物圖像,無(wú)法準(zhǔn)確分割出負(fù)障礙物區(qū)域;C方法清晰地分割出了負(fù)障礙物區(qū)域,能較好地適應(yīng)該情形的負(fù)障礙物圖像;D方法未能分割出負(fù)障礙物區(qū)域,分割結(jié)果較差;E方法分割出了負(fù)障礙物區(qū)域,但是負(fù)障礙物區(qū)域存在虛化問(wèn)題,分割結(jié)果不理想,無(wú)法為后續(xù)的定位工作提供基礎(chǔ);本文方法準(zhǔn)確、清晰地分割出了負(fù)障礙物區(qū)域。

        圖5 簡(jiǎn)單環(huán)境負(fù)障礙物圖像分割結(jié)果對(duì)比

        無(wú)人機(jī)獲取的復(fù)雜環(huán)境下的負(fù)障礙物圖像具有環(huán)境復(fù)雜、灰度混雜的特點(diǎn)。其V通道灰度直方圖及六種方法所得閾值如圖6所示??梢钥闯?,該灰度直方圖具有明顯的雙峰特征,傳統(tǒng)的OTSU算法適用于該情形,但負(fù)障礙檢測(cè)要求閾值向低灰度趨近以獲得最佳的圖像分割結(jié)果。

        圖6 復(fù)雜環(huán)境負(fù)障礙物圖像灰度直方圖

        六種算法得到的圖像分割結(jié)果如圖7所示。可以看出:傳統(tǒng)OTSU算法(A方法)獲得的閾值分割結(jié)果顯示負(fù)障礙物區(qū)域與上方環(huán)境信息混雜,圖像分割結(jié)果較差;B方法向高灰度趨近,圖像分割結(jié)果不理想;C方法雖然向低灰度值趨近,但是閾值結(jié)果過(guò)低,依舊未能成功分割出負(fù)障礙物區(qū)域;D方法與傳統(tǒng)OTSU獲得的分割結(jié)果相近,均未成功分割出負(fù)障礙物區(qū)域;而E方法與本文方法均較清晰地分割出負(fù)障礙物區(qū)域。

        圖7 復(fù)雜環(huán)境負(fù)障礙物圖像分割結(jié)果對(duì)比

        由無(wú)人機(jī)獲取的簡(jiǎn)單、復(fù)雜兩種環(huán)境下的負(fù)障礙物圖像分割結(jié)果可知B、C、D、E四種方法雖然都對(duì)OTSU算法進(jìn)行了改進(jìn),但分割結(jié)果僅有C、E方法適用于部分情況。其中,E方法雖然較清晰地分割出復(fù)雜環(huán)境下的負(fù)障礙物區(qū)域,但對(duì)于負(fù)障礙物與背景面積相差較大的情況,其分割結(jié)果呈現(xiàn)嚴(yán)重的虛化現(xiàn)象,無(wú)法為后續(xù)的圖像定位工作提供基礎(chǔ)。因此,OTSU算法與部分改進(jìn)算法無(wú)法很好地適用于負(fù)障礙物圖像的分割。本文提出的基于方差與權(quán)重的改進(jìn)算法清晰地分割出了無(wú)人機(jī)獲取的負(fù)障礙物圖像,為后續(xù)的圖像定位工作提供了良好的基礎(chǔ)。

        4.2 障礙物圖像定位

        以無(wú)人機(jī)獲取的復(fù)雜環(huán)境下的負(fù)障礙物圖像為例進(jìn)行的負(fù)障礙物定位過(guò)程如圖8所示。先對(duì)基于本文算法得到的圖像分割結(jié)果進(jìn)行形態(tài)學(xué)處理,然后進(jìn)行圖像取反,再去除其中面積較小的連通區(qū)域,僅保留對(duì)車(chē)輛威脅較嚴(yán)重的大面積負(fù)障礙物區(qū)域,最終標(biāo)出剩余的負(fù)障礙物區(qū)域并返回原圖。

        圖8 根據(jù)圖像分割結(jié)果進(jìn)行的負(fù)障礙物定位

        根據(jù)最終的定位結(jié)果可知,由圖7(f)提供的負(fù)障礙物圖像分割結(jié)果通過(guò)一系列圖像處理后能準(zhǔn)確地定位負(fù)障礙物區(qū)域。本文算法與其他五種算法對(duì)無(wú)人機(jī)獲取的復(fù)雜環(huán)境下的負(fù)障礙物圖像分割運(yùn)行時(shí)間與閾值結(jié)果如表1所示。采用六種算法在包含175幅負(fù)障礙物圖的數(shù)據(jù)集上進(jìn)行驗(yàn)證實(shí)驗(yàn),實(shí)驗(yàn)準(zhǔn)確率如表2所示。

        表1 復(fù)雜環(huán)境下負(fù)障礙物圖像分割結(jié)果

        表2 實(shí)驗(yàn)準(zhǔn)確率

        由圖8、表1及表2可知,本文方法具有明顯優(yōu)越性。即使在運(yùn)行時(shí)間上本文方法用時(shí)略長(zhǎng),但是依舊能夠滿(mǎn)足實(shí)時(shí)性要求。就圖像分割效果與準(zhǔn)確率而言,本文充分分析傳統(tǒng)OTSU算法與四種改進(jìn)算法,結(jié)合權(quán)重與方差兩種因素對(duì)圖像分割結(jié)果的影響,有效地克服了傳統(tǒng)OTSU算法較難分割出負(fù)障礙物區(qū)域的缺陷,獲得了理想的負(fù)障礙物圖像分割效果,完成了負(fù)障礙物區(qū)域的定位。

        5 結(jié) 語(yǔ)

        本文提出了一種基于無(wú)人機(jī)視覺(jué)的負(fù)障礙物檢測(cè)方法。該方法有效克服了傳統(tǒng)負(fù)障礙物檢測(cè)方法無(wú)法檢測(cè)較遠(yuǎn)處負(fù)障礙物的缺陷,提高了檢測(cè)速率。在分析傳統(tǒng)OTSU算法與其他四種改進(jìn)算法原理的基礎(chǔ)上,提出了一種基于方差與權(quán)重的OTSU改進(jìn)算法,以此來(lái)確定負(fù)障礙物圖像的最佳分割閾值。對(duì)無(wú)人機(jī)獲取的簡(jiǎn)單、復(fù)雜兩種環(huán)境下的負(fù)障礙物圖像進(jìn)行圖像分割,并與其他五種算法進(jìn)行對(duì)比,驗(yàn)證了本文方法的優(yōu)越性。最終在本文方法的圖像分割基礎(chǔ)上進(jìn)行了復(fù)雜環(huán)境下的負(fù)障礙物區(qū)域定位,定位結(jié)果及實(shí)驗(yàn)數(shù)據(jù)結(jié)果證明本文提出的改進(jìn)算法是一種適應(yīng)性與實(shí)時(shí)性兼顧的可靠算法,能為負(fù)障礙物檢測(cè)提供準(zhǔn)確有效的圖像分割基礎(chǔ)。

        猜你喜歡
        障礙物方差灰度
        方差怎么算
        采用改進(jìn)導(dǎo)重法的拓?fù)浣Y(jié)構(gòu)灰度單元過(guò)濾技術(shù)
        基于灰度拉伸的圖像水位識(shí)別方法研究
        概率與統(tǒng)計(jì)(2)——離散型隨機(jī)變量的期望與方差
        高低翻越
        SelTrac?CBTC系統(tǒng)中非通信障礙物的設(shè)計(jì)和處理
        計(jì)算方差用哪個(gè)公式
        方差生活秀
        基于最大加權(quán)投影求解的彩色圖像灰度化對(duì)比度保留算法
        基于灰度線(xiàn)性建模的亞像素圖像抖動(dòng)量計(jì)算
        国产精品免费久久久久软件| 国产免费二区三区视频| 精品免费国产一区二区三区四区| 久久久久久亚洲精品中文字幕 | 亚洲另类国产精品中文字幕| 一本大道道久久综合av| 老司机亚洲精品影院| 四虎影视亚洲精品| 少妇特殊按摩高潮不断| 日韩不卡的av二三四区| 99国产精品无码| 无码日韩人妻AV一区免费| 日韩女同一区二区三区久久| 国产内射爽爽大片| 国产亚洲av无码专区a∨麻豆| 亚洲av日韩片在线观看| 精品亚洲在线一区二区| 蜜臀亚洲av无码精品国产午夜.| 国产亚洲美女精品久久久| 狠狠亚洲婷婷综合久久久| 国产精品一区av在线| 日韩人妻一区二区三区蜜桃视频 | 综合无码一区二区三区四区五区| 超短裙老师在线观看一区二区 | av中文字幕性女高清在线| 无码色av一二区在线播放| 亚洲中文无码永久免| 成人国产乱对白在线观看| 亚洲av迷人一区二区三区| 人妻有码中文字幕| 亚洲不卡无码高清视频| 亚洲第一大av在线综合| av色综合久久天堂av色综合在| 日韩精品一区二区三区在线观看| 亚洲国产精品第一区二区三区 | 精品国产一区二区三区2021| 久久天天躁狠狠躁夜夜96流白浆| 中文字幕日本熟妇少妇| 日本精品视频二区三区| 最近日本免费观看高清视频| 国产成人无精品久久久|