徐 敏,張紅英 ,吳亞東
(1.西南科技大學(xué)信息工程學(xué)院,四川 綿陽 621010; 2.西南科技大學(xué)特殊環(huán)境機(jī)器人技術(shù)四川省重點(diǎn)實(shí)驗(yàn)室,四川 綿陽 621010;3.西南科技大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,四川 綿陽 621010;4.西南科技大學(xué)核廢物與環(huán)境安全國防重點(diǎn)學(xué)科實(shí)驗(yàn)室,四川 綿陽 621010)
基于場景深度的霧天圖像能見度檢測算法
徐 敏1,2,張紅英1,2,吳亞東3,4
(1.西南科技大學(xué)信息工程學(xué)院,四川 綿陽 621010; 2.西南科技大學(xué)特殊環(huán)境機(jī)器人技術(shù)四川省重點(diǎn)實(shí)驗(yàn)室,四川 綿陽 621010;3.西南科技大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,四川 綿陽 621010;4.西南科技大學(xué)核廢物與環(huán)境安全國防重點(diǎn)學(xué)科實(shí)驗(yàn)室,四川 綿陽 621010)
針對傳統(tǒng)能見度測試方法存在硬件成本較高、操作復(fù)雜、不能大范圍使用等缺陷,提出了一種簡單、快速的基于圖像的能見度測量方法。首先,對圖像進(jìn)行感興趣區(qū)域的提取、閾值分割和形態(tài)學(xué)處理。然后,基于大氣退化物理模型和暗通道先驗(yàn)原理,估計(jì)透射率。再利用同一場景中不同角度所獲取的兩幅圖像提取像素突變點(diǎn),從而結(jié)合攝像機(jī)的內(nèi)部參數(shù)估算場景深度。最后,根據(jù)能見度檢測原理求取大氣消光系數(shù),進(jìn)而獲得圖像的能見度。試驗(yàn)結(jié)果表明,該算法與人眼觀測效果一致,準(zhǔn)確率較高。與傳統(tǒng)方法相比,該方法操作簡單、抗干擾性強(qiáng),不需要任何攝像機(jī)標(biāo)定,并且適用范圍廣。
計(jì)算機(jī)視覺; 大氣光學(xué); 能見度; 透射率; 消光系數(shù)
隨著計(jì)算機(jī)視覺的不斷發(fā)展,能見度越來越受到人們的重視。能見度的檢測有利于人們的交通出行,同時(shí),也可以體現(xiàn)空氣質(zhì)量的好壞。因此,如何快速高效地測量能見度距離是當(dāng)前的研究熱點(diǎn)。目前,關(guān)于能見度的檢測方法主要有傳統(tǒng)方法和基于圖像處理技術(shù)的能見度估計(jì)算法。
能見度是指在當(dāng)時(shí)的天氣條件下,正常的人眼視力能夠從背景中確認(rèn)目標(biāo)物的距離。常用的傳統(tǒng)能見度測量方法一般分為目測法和使用大氣射儀、散射儀等儀器的器測法[1]。但前者帶有較強(qiáng)的主觀性,因此測量精度不高,而器測法雖然在精度上得到了很大的提高,但其硬件設(shè)備高度較高、占地面積較大,對周圍的環(huán)境要求較高,必須視野開闊、無遮擋物。因此,研究基于圖像處理技術(shù)的能見度檢測算法已成為一種新的主流方向。Liaw等[2]提出利用光銳圖像和Haar函數(shù)來降低非一致光照的影響,從而提高能見度估計(jì)精度。Barari[3]研究了對比度分布與大氣能見度之間的映射關(guān)系來計(jì)算能見度,由于技術(shù)水平有限,且該方法操作流程復(fù)雜,需要許多外部的標(biāo)定信息,因此沒有得到推廣。Hautiere[4]提出了利用雙目視覺技術(shù)來得到場景的深度圖,再利用深度信息和對比度來估計(jì)能見度的方法。該方法只適用于霧天場景的測量,不僅需要對攝像機(jī)標(biāo)定[5-7],還需要不斷地進(jìn)行角度修正;此方法易受外界環(huán)境的影響。陳釗正等[8]提出了采用小波變換提取圖像邊緣特征點(diǎn),再結(jié)合攝像機(jī)自標(biāo)定模型的方法。該方法對于攝像機(jī)采集距離有一定的限制,所取的目標(biāo)大約在500 m以內(nèi);此外,需要不定時(shí)清理攝像機(jī),以防能見度檢測出現(xiàn)偏差。劉建磊等[9]提出一種基于拐點(diǎn)線檢測濾波器的能見度檢測算法,但該算法計(jì)算量大,且不適合檢測非勻質(zhì)天空情況下的能見度。
在圖像理解和計(jì)算機(jī)識別方面,Bronte等[10]利用霧的模糊效應(yīng),實(shí)現(xiàn)霧天的識別,同時(shí)結(jié)合道路的消失點(diǎn)與攝像機(jī)參數(shù)來估計(jì)能見度。該算法雖然提高了霧天識別和能見度的精確度,但在霧濃度較大的場景下,該算法在區(qū)分天空與道路部分上,難度增加,因此魯棒性較差。在文獻(xiàn)[10]利用消失點(diǎn)估計(jì)的基礎(chǔ)上,文獻(xiàn)[11]結(jié)合了自定義區(qū)域增長和基于加權(quán)平均值的拐點(diǎn)估計(jì),進(jìn)一步提高了拐點(diǎn)估計(jì)的準(zhǔn)確性。但是該算法在路面起伏較大的情況下準(zhǔn)確率較低。
為克服以上方法的缺陷,本文提出了一種利用圖像測量霧天能見度的算法。該算法根據(jù)霧天成像模型和暗通道先驗(yàn)原理,基于圖像像素突變點(diǎn)的特征與雙目立體視覺的視差特性,結(jié)合了相機(jī)成像原理的幾何模型來檢測能見度。該算法測量方便、快捷,成本較低,不易受外界環(huán)境的干擾,對于攝像機(jī)的要求也不高;同時(shí),其可以完全達(dá)到自動(dòng)檢測能見度的效果,因此應(yīng)用前景更為廣泛。
能見度作為一個(gè)復(fù)雜的物理量,其好壞主要取決于空氣中懸浮的各種微粒對大氣消光系數(shù)的衰減,其次是人眼能區(qū)分的最小亮度對比值,該值越小,則能見度越大。如果目標(biāo)物剛好能夠辨別,則意味著視覺對比度達(dá)到眼睛的對比閾值。在航空氣象部門,為確保飛行安全,國際民航組織(international civil aviation organization,ICAO)將視覺閾值取為0.05[12],因此在計(jì)算過程中選取對比閾值(ε=0.05)。
本文所提出的能見度檢測算法由透射率估計(jì)、場景深度估計(jì)以及能見度估計(jì)三部分組成。①圖像透射率的估計(jì):將輸入圖像進(jìn)行預(yù)處理,提取感興趣區(qū)域(region of imterest,ROI),求取透射率值。②場景深度估計(jì):對兩幅圖像利用其區(qū)域特征信息進(jìn)行閾值分割,將獲得的圖像進(jìn)行形態(tài)學(xué)處理,再通過視差圖計(jì)算像素突變點(diǎn),從而恢復(fù)圖像的深度信息,得到場景深度值。③能見度估計(jì):根據(jù)透射率與景深深度求得消光系數(shù),進(jìn)而估計(jì)能見度的大小。能見度檢測具體流程如圖1所示。
圖1 能見度檢測流程圖
1.1 能見度檢測原理
1924年,Koschmieder建立了觀測者在遠(yuǎn)處地平天空下所看到的目標(biāo)物的視覺對比度與其本身亮度對比度的關(guān)系,即Koschmieder定律[13]:
C=C0e-σd
(1)
式中:C為目標(biāo)物與背景的相對亮度差;C0為常數(shù),是目標(biāo)物的固有亮度對比度;σ為消光系數(shù),表征任意情況下大氣透明度的一個(gè)特征量;d為觀測員距離目標(biāo)物的距離。
根據(jù)ICAO推薦的對比閾值,式(1)可表示為:
ε=e-σV
(2)
即:
(3)
根據(jù)大氣衰減模型,太陽光在大氣中的衰減滿足指數(shù)定律:
I=I0e-σd
(4)
式中:I0為發(fā)射光光強(qiáng);I為接收光光強(qiáng);I/I0為透射率;σ為消光系數(shù);d為拍攝場景中某場景點(diǎn)與傳感器之間的距離,即為場景深度。
則消光系數(shù)σ可推導(dǎo)為:
(5)
由此可見,能見度的估計(jì)關(guān)鍵在于求得透射率t和場景深度d,從而確定消光系數(shù)σ,最終得到能見度。
1.2 透射率的估計(jì)
圖像能見度的估計(jì)值與圖像中天空所占區(qū)域的大小有關(guān)。當(dāng)場景中存在濃霧時(shí),圖片上面的天空部分與地面部分的邊緣、梯度、對比度等信息將會(huì)減少,由此增加區(qū)別地面與天空部分的難度;其次,圖片下方可能出現(xiàn)移動(dòng)的物體,如車輛等,存在大量噪聲點(diǎn),并表現(xiàn)出很多不需要的細(xì)節(jié),從而影響測量效果。因此,為了保證透射率的計(jì)算值更具一般性,防止圖像因噪聲干擾而導(dǎo)致計(jì)算不準(zhǔn)確問題,本文在進(jìn)行透射率估計(jì)前,將圖像中間區(qū)域的70%設(shè)置為ROI區(qū)域。
1975年,Mc Cartney提出大氣退化物理模型。該模型包含衰減模型和大氣光模型兩部分,如圖2所示。衰減模型即直接傳播,是大氣光能量從場景點(diǎn)到觀測點(diǎn)的衰減過程。因?yàn)榭諝庵械母鞣N微粒,光波在傳播的過程中會(huì)受到這些懸浮微粒的散射作用,從而產(chǎn)生能量的衰減。大氣光模型描述的是大氣光因?yàn)樵诳諝庵邪l(fā)生折射進(jìn)入人眼或成像設(shè)備所感受到的光強(qiáng)度。隨著傳播距離的增大,環(huán)境光強(qiáng)度也隨之增強(qiáng)。
圖2 大氣退化物理模型示意圖
霧天圖像降質(zhì)過程可以用退化模型表示,即:
I(x)=J(x)t(x)+A[1-t(x)]
(6)
式中:I為拍攝的有霧圖像;J為需要恢復(fù)的無霧圖像;A為大氣光值,表示周圍環(huán)境光的總強(qiáng)度;t(x)為霧霾的介質(zhì)透射率,代表了場景目標(biāo)的深度信息。
當(dāng)大氣同質(zhì)時(shí),介質(zhì)透射率t(x)為:
t(x)=e-βd
(7)
式中:β為大氣消光系數(shù);d為場景深度。
根據(jù)何愷明提出的暗原色先驗(yàn)理論[14],即對于戶外無霧的圖像中存在絕大多數(shù)局部區(qū)域(除去天空區(qū)域)的某一些像素至少有一個(gè)顏色通道具有很低的強(qiáng)度值,這些像素被稱為暗原色像素。對于圖像J,暗通道定義為:
(8)
式中:Ω(x)為以像素點(diǎn)x為中心的一塊區(qū)域;Jc為無霧圖像J的三個(gè)顏色通道的一個(gè);Jdark為無霧圖像J的暗原色。對于J的非天空區(qū)域,Jdark的值趨近于0。在霧天情況下,由于霧的顏色的干擾,使得圖像的整體像素強(qiáng)度得到提高。因此可以利用這些暗原色的強(qiáng)度狀況來判斷霧的濃度大小,從而估計(jì)透射率t(x)。
1.3 場景深度的估計(jì)
本節(jié)提出一種根據(jù)相機(jī)成像原理中視差與深度信息的關(guān)系,利用圖像的像素突變點(diǎn)進(jìn)行能見度估計(jì)的方法。首先,對同一場景中不同角度的視圖進(jìn)行預(yù)處理,消除圖中存在的噪聲、干擾以及失真等現(xiàn)象。然后,提取左右視圖的像素突變點(diǎn),并結(jié)合攝像機(jī)的某些內(nèi)部信息來估算能見度值。
1.3.1 圖像預(yù)處理
從圖像中獲取符合立體視覺原理的左右圖像對,由于各方面因素的影響,會(huì)不可避免地存在各種噪聲和干擾,從而使得圖像質(zhì)量的下降。因此,在對其進(jìn)行分析與能見度估計(jì)之前,必須對原始圖像進(jìn)行預(yù)處理。圖像預(yù)處理就是采用一系列的技術(shù)方法來降低噪聲等因素的影響,改善其視覺效果,突出其中的有用信息,降低無用信息?;谏鲜鰡栴},提出了預(yù)處理方法,步驟如下。
①采用閾值分割法將圖像二值化,提取圖像的特征信息。
為了從圖像中提取出需要的特征信息,首先要判斷哪些像素點(diǎn)是閾值需要的,其次判斷這些像素點(diǎn)是否屬于目標(biāo)區(qū)域,根據(jù)這種方法便可以將灰度圖轉(zhuǎn)換為二值圖像。設(shè)f(x,y)為原始圖像,T為分割的閾值大小,則最終獲取的圖像滿足式(9):
(9)
根據(jù)大量的試驗(yàn)數(shù)據(jù)分析及不同的場景分析,本文采取手動(dòng)選取閾值的方法,從而提高試驗(yàn)效率,即在中霧與濃霧的環(huán)境中分別將T取值為0.7、0.5。圖像分割處理圖如圖3所示。
圖3 圖像分割處理圖
②采用形態(tài)學(xué)處理對圖像進(jìn)行降噪平滑。
利用形態(tài)學(xué)上的開運(yùn)算和閉運(yùn)算對圖像進(jìn)行降噪平滑處理,消除圖像中小且無意義的點(diǎn),填充圖像中的空洞。某一幅圖像的預(yù)處理結(jié)果如圖4所示。
圖4 預(yù)處理結(jié)果示意圖
1.3.2 場景深度計(jì)算
視差是一種可以反映深度信息的現(xiàn)象,雙目視覺就是模擬人眼觀察事物的原理,從多個(gè)角度觀察同一個(gè)場景以獲取感知圖像,然后根據(jù)不同角度下的圖像像素的匹配關(guān)系來提取三維信息,從而恢復(fù)場景深度[14-15]。目前,基于圖像深度計(jì)算的方法[16-17]有許多,常見的主要有光度立體視覺法、散焦推斷法以及基于機(jī)器學(xué)習(xí)等方法。本文主要從分析同一場景不同角度拍攝的兩幅圖像出發(fā),在同一場景下比較不同角度拍攝的圖像特征,尋找它們之間的不同點(diǎn);再利用這些不同點(diǎn)的信息與攝像機(jī)的內(nèi)在參數(shù)相結(jié)合來進(jìn)行景深估計(jì),從而計(jì)算出場景深度。
假設(shè)兩個(gè)相機(jī)的內(nèi)部參數(shù)一致,如相機(jī)分辨率、焦距等,下面主要借助幾何和代數(shù)的方法來描述視差與景深的關(guān)系。為了描述方便,引入了相關(guān)的坐標(biāo),如圖5所示。假設(shè)兩個(gè)相機(jī)處于同一水平線上,且像平面重疊為同一個(gè),坐標(biāo)系以左相機(jī)為原點(diǎn),則右相機(jī)是左相機(jī)的簡單平移,用坐標(biāo)表示為(Tx,0,0),其中Tx為基線,是兩個(gè)相機(jī)中心的距離。
圖5 相機(jī)坐標(biāo)示意圖
然后,根據(jù)圖5的相機(jī)坐標(biāo)示意圖,P為空間中的一點(diǎn),P1和P2為點(diǎn)P(X,Y,Z)分別在左右像平面上的成像點(diǎn),b1為兩個(gè)成像點(diǎn)的間距,Z為場景深度,X1、X2分別為左右成像點(diǎn)到Z的距離,X3、X4為成像點(diǎn)距離左右相機(jī)光軸的長度,XR與XT分別為左右成像點(diǎn)到圖像左邊緣的距離,X11、X22分別為左右相機(jī)到Z的距離,f為相機(jī)焦距,d為視差,OR和OT為左右相機(jī)的光心。根據(jù)三角形相似關(guān)系,很容易得出空間中的一點(diǎn)P(X,Y,Z)分別在像平面上的投影坐標(biāo)。X1+X2=b1、X11+X22=Tx,由相似三角形原理可知:
從而,有:
(10)
b1可以用Tx、XR和XT表示,即:
(11)
最終得到:
(12)
由此可得場景深度Z為:
(13)
由此可知,其視差跟物體的深度成反比。
景深信息是判斷圖像邊緣突變的重要依據(jù)[17],本文選擇從視差的角度來分析像素點(diǎn)的變化,尋找同一區(qū)域的突變點(diǎn)。在理想情況下,左圖像的特征點(diǎn)都可以在右圖像中找到與其對應(yīng)的點(diǎn)。由于噪聲等因素的影響,使得某些特征點(diǎn)在右圖像中找不到與之匹配的點(diǎn)。因此,根據(jù)這種特點(diǎn),利用圖像的像素灰度特征,即像素突變點(diǎn)來提取場景深度信息。其基本過程是:首先掃描一遍圖像的邊界、面積信息,求取當(dāng)前圖像的總灰度值;其次根據(jù)圖像像素點(diǎn)的個(gè)數(shù)求取灰度平均值;最后利用兩幅圖像中像素點(diǎn)灰度值的突變情況設(shè)置相對應(yīng)的閾值,選取適當(dāng)?shù)拈撝祬?shù)θ提取視差的像素突變點(diǎn)。根據(jù)試驗(yàn)數(shù)據(jù),本文選取0.2作為參數(shù)θ的值。在具體實(shí)現(xiàn)中,如果左右圖像中相對應(yīng)的像素點(diǎn)的灰度值之差大于設(shè)定的閾值θ,那么該像素點(diǎn)即為像素突變點(diǎn)。利用像素突變點(diǎn),結(jié)合攝像機(jī)的焦距,光軸間距離等信息的相互關(guān)系,可以將式(13)轉(zhuǎn)換為式(14),從而得到所需要的場景深度。
(14)
式中:D為像素突變點(diǎn);f為焦距;B為光軸間距離;dx為單位像素的尺寸。
因此,根據(jù)上述方法,可求得透射率和場景深度;根據(jù)式(3),可求得消光系數(shù),進(jìn)而求得能見度V。
為了驗(yàn)證本文算法的有效性,在Intel i5(2.67 GHz)、8 GB內(nèi)存、Windows 7(64 bit)環(huán)境下,在Matlab與Opencv平臺上實(shí)現(xiàn)該算法,并與文獻(xiàn)[10]和文獻(xiàn)[11]的檢測算法作對比。為了體現(xiàn)試驗(yàn)數(shù)據(jù)集的豐富性和全面性,本文收集了不同類型(包括風(fēng)景、人物、交通、建筑等不同類型的圖像)、不同大小、不同霧天濃度的27 590幅圖像,組成試驗(yàn)數(shù)據(jù)集。數(shù)據(jù)集中有11 400張晴天圖像,3 400張中霧圖像和12 790張濃霧圖像。
能見度的等級可劃分為晴天、中霧、濃霧,對應(yīng)的能見度范圍如表1所示。
表1 能見度等級范圍
表2給出了文獻(xiàn)[10]、文獻(xiàn)[11]以及本文算法的能見度檢測試驗(yàn)數(shù)據(jù)。從表2可以看出,本文算法在整體上優(yōu)于現(xiàn)有的檢測算法,在能見度檢測上取得了一定的效果,尤其在晴天與濃霧下檢測精度更好。
表2 能見度檢測試驗(yàn)數(shù)據(jù)
試驗(yàn)數(shù)據(jù)比較結(jié)果如圖6所示。圖6(a)為本文算法的測量結(jié)果和參考文獻(xiàn)[10]~[11]算法結(jié)果比較;圖6(b)為三種算法的能見度檢測距離的相對誤差。其相對誤差的定義如下:
圖6 試驗(yàn)數(shù)據(jù)比較圖
從圖6可以看出,本文算法的能見度測量值更接近于真實(shí)值,其對應(yīng)的相對誤差也較小。
綜合上述的試驗(yàn)結(jié)果說明,與現(xiàn)有的能見度檢測算法相比,本文所提算法不需要利用復(fù)雜的機(jī)器學(xué)習(xí)進(jìn)行特征提取,相反,它的思想是將同一場景下的圖片利用不同的角度尋找像素突變點(diǎn)來測量;同時(shí)也不需要對攝像機(jī)安裝角度等較難獲取的參數(shù)進(jìn)行隨時(shí)標(biāo)定,因此檢測方便、精確度更高、成本更低。
本文從能見度檢測原理出發(fā),利用暗通道先驗(yàn)原理和圖像像素突變點(diǎn)的特征,尋找其中的相關(guān)切入點(diǎn)來測量能見度。它克服了能見度測量儀占地面積大、傳統(tǒng)方法帶有的一定主觀性,以及機(jī)器學(xué)習(xí)上的相機(jī)相關(guān)標(biāo)定參數(shù)較多和易受外界影響的缺點(diǎn),具有實(shí)時(shí)性、應(yīng)用成本低、操作簡單方便等優(yōu)勢。當(dāng)然,本文算法目前也存在需要進(jìn)行改善的不足之處,即能見度為幾十米的情況下的檢測算法的準(zhǔn)確度有待提高。在能見度極低的情況下,圖像的梯度、邊緣、對比度等區(qū)域特征并不明顯,測量結(jié)果的精確度也隨之降低,這一工作將是今后的研究重點(diǎn)。
[1] 苗苗.視頻能見度檢測算法綜述[J].現(xiàn)代電子技術(shù),2012,35(15):72-75.
[2] LIAW J J,LIAN S B,HUANG Y F,et al.Using sharpness image with haar function for urban atmospheric visibility measurement[J].Aerosol and Air Quality Research,2010,10(4):323-330.[3] BABARI R,HAUTIERE N,DUMONT E,et al.A model-driven approach to estimate atmospheric visibility with ordinary cameras[J].Atmospheric Environment,2011,45(30):5316-5324.
[4] HAUTIERE N,LABAYRADE R,AUBERT D.Real-time disparity contrast combination for onboard estimation of the visibility distance[J].IEEE Transactions on Intelligent Transportation Systems,2006,7(2):201-212.
[5] 宋洪軍,陳陽舟,郜園園.基于車道線檢測與圖像拐點(diǎn)的道路能見度估計(jì)[J].計(jì)算機(jī)應(yīng)用,2012,32(12):3397-3403.
[6] MICLEA R C,SILEA I.Visibility detection in foggy environment[C]//CSCS2015:20th International Conference on Control System & Computer Science,2015:959-964.[7] 王京麗,劉旭林,雷鳴,等.數(shù)字?jǐn)z像能見度系統(tǒng)及其比對實(shí)驗(yàn)[J].電子學(xué)報(bào),2014,42(11):2298-2302.
[8] 陳釗正,周慶逵,陳啟美.基于小波變換的視頻能見度檢測算法研究與實(shí)現(xiàn)[J].儀器儀表學(xué)報(bào),2010,31(1):92-98.
[9] 劉建磊,劉曉亮.基于拐點(diǎn)線的大霧能見度檢測算法[J].計(jì)算機(jī)應(yīng)用,2015,35(2):528-530,534.
[10]BRONTE S,BERGASA L M,ALCANTARILLA P F.Fog detection system based on computer vision techniques[C]// International IEEE Conference on Intelligent Transportation Systems,2009:1-6.
[11]ZHU W X.Research of fog driving scenarios and visibility recognition algorithm based on video[J].Journal of Image & Signal Processing,2015,4(3):67-77.
[12]許茜,殷緒成,李巖,等.基于圖像理解的能見度測量方法[J].模式識別與人工智能,2013,26(6):543-551.
[13]NEGRU M,NEDEVSCHI S.Image based fog detection and visibility estimation for driving assistance systems[C]// IEEE International Conference on Intelligent Computer Communication and Processing,IEEE,2013:163-168.
[14]張登銀,鞠銘燁,王雪梅.一種基于暗通道先驗(yàn)的快速圖像去霧算法[J].電子學(xué)報(bào),2015,43(7):1437-1443.
[15]牛連丁,陳婷婷,張立志.基于多尺度紋理特征的最小二乘法深度信息估計(jì)方法[J].智能計(jì)算機(jī)與應(yīng)用,2015,5(4):71-74.
[16]張淑芳,李華.基于一幅散焦圖像的深度估計(jì)新算法[J].光電子激光,2006,17(3):364-367.
[17]TRIPATHI A K,MUKHOPADHYAY S.Single image fog removal using bilateral filter[C]// IEEE International Conference on Signal Processing,2012:1-6.
ImageVisibilityDetectionAlgorithmBasedonSceneDepthforFoggingEnvironment
XU Min1,2,ZHANG Hongying1,2,WU Yadong3,4
(1.School of Information Engineering,Southwest University of Science and Technology,Mianyang 621010,China;2.Robot Technology Used for Special Environment Key Laboratory of Sichuan Province,Southwest University of Science and Technology,Mianyang 621010,China;3.School of Computer Science and Technology,Southwest University of Science and Technology,Mianyang 621010,China;4.Key Science on Nuclear Wastes and Environmental Safety Laboratory,Southwest University of Science and Technology,Mianyang 621010,China)
The traditional visibility detection methods feature many defects,e.g.,high costs of hardware,complex operation,and small detection range,etc.;to overcome these problems,a simple and fast measurement method of the visibility based on image is proposed.Firstly,the region of interest (ROI) of the image is extracted,and threshold segmentation and morphology treatment are carried out.Then,the transmittance is estimated based on the physical model of the atmospheric degradation and the dark channel prior principle,the pixel mutation point of the two images taken from different angles in the same scene is extracted,thus the scene depth is estimated from the internal parameters of the camera.Finally,the atmospheric extinction coefficient is found according to the principle of visibility detection; and then the visibility of image is obtained.The test results show that the algorithm is consistent with the observation effect of human eye,and the accuracy rate is high.Compared with traditional methods,this method is simple,offering strong anti-interference capability and wide applicable range,even any camera calibration is not needed.
Computer vision; Atmospheric optics; Visibility; Transmittance; Extinction coefficient
TH-89;TP39
: A
10.16086/j.cnki.issn1000-0380.201709021
修改稿收到日期:2017-04-07
國家自然科學(xué)基金資助項(xiàng)目(61303127)、四川省科技廳科技支撐計(jì)劃基金資助項(xiàng)目(2015GZ0212/2014SZ0223)、四川省重點(diǎn)實(shí)驗(yàn)室開放基金資助項(xiàng)目(13zxtk05)
徐敏(1994—),女,在讀碩士研究生,主要從事數(shù)字圖像處理方向的研究。E-mail:178848524@qq.com。 張紅英(通信作者),女,博士,教授,主要從事數(shù)字圖像處理、模式識別方向的研究。E-mail:zhywyd@163.com。