亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種聯(lián)合散焦與大氣透視線索的室外場(chǎng)景深度估計(jì)方法

        2020-02-01 11:22:16朱先震呂順唐天航
        現(xiàn)代計(jì)算機(jī) 2020年35期
        關(guān)鍵詞:大氣深度區(qū)域

        朱先震,呂順,唐天航

        (四川大學(xué)計(jì)算機(jī)學(xué)院,成都610065)

        0 引言

        作為人類(lèi)認(rèn)識(shí)和感知世界的基礎(chǔ),深度信息被廣泛應(yīng)用于三維重建、無(wú)人駕駛、工業(yè)檢測(cè)、外科手術(shù)定位等諸多領(lǐng)域。目前,大多數(shù)深度估計(jì)方法依據(jù)計(jì)算攝影學(xué)的相關(guān)理論,采用基于光場(chǎng)恢復(fù)[1-2]、深度線索[3-8]或機(jī)器學(xué)習(xí)[9-10]的方式完成場(chǎng)景深度信息的恢復(fù)。然而,基于光場(chǎng)恢復(fù)的深度估計(jì)大多需要額外的附加硬件或修改相機(jī)結(jié)構(gòu),應(yīng)用范圍有限;基于機(jī)器學(xué)習(xí)的深度估計(jì)每次訓(xùn)練僅針對(duì)特定場(chǎng)景的圖像有效,泛化性不強(qiáng)。故本文選擇基于散焦和透視線索的深度估計(jì)方法作為研究重點(diǎn)。

        基于散焦線索的深度估計(jì)將深度估計(jì)問(wèn)題轉(zhuǎn)化為對(duì)散焦區(qū)域的模糊估計(jì)問(wèn)題,依據(jù)薄透鏡成像原理計(jì)算場(chǎng)景的相對(duì)深度。Pentland將散焦圖像建模為清晰圖像與點(diǎn)擴(kuò)散函數(shù)(PSF)的卷積,通過(guò)測(cè)量圖像中給定點(diǎn)的模糊量,計(jì)算場(chǎng)景中相應(yīng)點(diǎn)的距離[3];Zhuo利用已知的高斯模糊核對(duì)輸入圖像進(jìn)行再模糊,通過(guò)計(jì)算輸入圖像和再模糊圖像的梯度比得到邊緣位置的散焦量,進(jìn)而恢復(fù)完整的場(chǎng)景深度圖[5]?;诖髿馔敢暰€索的深度估計(jì)方法認(rèn)為,由于空氣中氣溶膠的散射作用,距離觀測(cè)點(diǎn)越遠(yuǎn)的物體其成像對(duì)比度、顏色、分辨率衰減越明顯。Zhu等人提出顏色衰減先驗(yàn),通過(guò)建立霧天圖像場(chǎng)景深度的線性模型,可以很好地恢復(fù)有霧圖像的深度信息[7];He等人提出暗通道先驗(yàn)用于圖像去霧,在恢復(fù)清晰無(wú)霧圖像的同時(shí)可以得到高質(zhì)量的場(chǎng)景深度圖[8]。

        本文致力于解決單幅單目室外圖像的自然場(chǎng)景深度恢復(fù)問(wèn)題。之前算法由于僅采用散焦線索進(jìn)行深度估計(jì),無(wú)法避免焦平面及模糊紋理二義性,造成最終深度估計(jì)結(jié)果存在誤差,魯棒性不足。為解決該問(wèn)題,本文提出一種聯(lián)合散焦和大氣透視線索的深度估計(jì)方法恢復(fù)輸入圖像的深度信息:①分別計(jì)算圖像散焦與透視線索的深度估計(jì)值;②分析對(duì)比兩種深度估計(jì)信息,采用最小二乘優(yōu)化的方式融合來(lái)自不同線索的深度值,獲得場(chǎng)景的最終深度圖。

        1 本文算法

        1.1 基于散焦退化模型的散焦深度估計(jì)

        從散焦估計(jì)深度是一個(gè)盲反卷積問(wèn)題[11],在恢復(fù)場(chǎng)景深度信息的同時(shí)需要估計(jì)清晰的場(chǎng)景圖像,求解效率不高,實(shí)時(shí)性不強(qiáng)。在實(shí)際應(yīng)用中,由于人們往往只關(guān)注于高質(zhì)量深度信息的獲取而無(wú)意求解場(chǎng)景的去模糊圖像,故可將深度估計(jì)轉(zhuǎn)化為半盲反卷積問(wèn)題,避免場(chǎng)景清晰圖像的求解。受此啟發(fā),本文采用的散焦深度估計(jì)方法包括兩個(gè)階段,即邊緣稀疏散焦量的估計(jì)與散焦信息的傳播。

        1.1.1 薄透鏡模型及散焦圖像建模

        盡管大多數(shù)相機(jī)鏡頭采用具有多個(gè)獨(dú)立透鏡元件的復(fù)雜設(shè)計(jì),但本文在此僅討論簡(jiǎn)化的薄透鏡成像模型,相關(guān)原理足以支撐本文提出算法的適用場(chǎng)景。

        圖1 薄透鏡成像模型

        圖2 物距dobject與模糊圓直徑dblur間的關(guān)系

        圖1 展示了簡(jiǎn)化的相機(jī)成像模型。由高斯成像公式[12]可知,薄透鏡成像滿(mǎn)足:

        其中,dobject為成像物體與鏡頭之間的距離,dimage為鏡頭與準(zhǔn)確聚焦像平面之間的距離,f為鏡頭焦距。由于衍射效應(yīng),散焦成像形成的模糊光斑可近似為圓形斑點(diǎn),被稱(chēng)為模糊圓(Circle of Confusion,CoC)。假設(shè)鏡頭到傳感器距離為d,根據(jù)場(chǎng)景幾何關(guān)系結(jié)合式(1),模糊圓的直徑dblur滿(mǎn)足:

        其中,A為鏡頭光圈直徑,N為光圈值,模糊圓直徑dblur反映了成像點(diǎn)的散焦程度。圖2展示了當(dāng)焦距f、光圈值N取特定值時(shí)物距dobject與模糊圓直徑dblur滿(mǎn)足的數(shù)量關(guān)系。從圖中可以看出,在焦平面兩側(cè),場(chǎng)景物距與模糊圓直徑具有一一對(duì)應(yīng)的關(guān)系,故通過(guò)估計(jì)散焦圖像的模糊量可以恢復(fù)場(chǎng)景的相對(duì)深度。此外,散焦引起的圖像退化過(guò)程可以建模為場(chǎng)景反射光和相機(jī)點(diǎn)擴(kuò)散函數(shù)(Point Spread Function,PSF)的卷積[3]。在實(shí)踐過(guò)程中,一般采用標(biāo)準(zhǔn)差為σ的二維高斯函數(shù)作為點(diǎn)擴(kuò)散函數(shù)的近似,因此,散焦成像過(guò)程可以表示為:

        1.1.2 場(chǎng)景散焦深度估計(jì)

        假設(shè)圖像中的場(chǎng)景邊緣均為理想的階躍邊緣,可將其建模為:

        其中,A和B分別表示邊緣強(qiáng)度與偏移量大小,s(x)表示階躍函數(shù),x表示像素位置。根據(jù)式(3),模糊邊緣可以表示為:高斯函數(shù)g(x,σ)的標(biāo)準(zhǔn)差σ反映了邊緣像素x的模糊程度。

        采用Zhuo[5]的方法進(jìn)行邊緣散焦估計(jì)。使用具有已知大小模糊核σr的高斯函數(shù)對(duì)圖像進(jìn)行模糊處理,再次模糊后的邊緣梯度可以表示為:

        可以看出邊緣梯度大小僅與邊緣強(qiáng)度A及高斯函數(shù)標(biāo)準(zhǔn)差σ有關(guān)。根據(jù)Zhuo的理論,原始邊緣與再次模糊邊緣之間的梯度比R在邊緣像素處(x=0時(shí))取得最大值[5],即:

        因此,已知邊緣像素的最大梯度比R與再次模糊的模糊核大小σr,可求出原始圖像的邊緣稀疏散焦量:

        實(shí)驗(yàn)中,本文采用σr=1的模糊核對(duì)原始圖像進(jìn)行再次模糊,采用Canny算子提取圖像邊緣,基于式(7)可以求得邊緣稀疏散焦量的估計(jì)。如圖3所示,(a)為原始場(chǎng)景圖像,(b)為求得的場(chǎng)景稀疏散焦圖。

        圖3 場(chǎng)景稀疏散焦圖

        獲得場(chǎng)景邊緣稀疏深度圖d?后,通過(guò)散焦傳播的方式進(jìn)行完整場(chǎng)景深度d的估計(jì)。根據(jù)局部一致性假設(shè),在局部較小的圖像區(qū)域內(nèi),不同像素對(duì)應(yīng)同一成像物體,其深度應(yīng)當(dāng)是一致的?;谶@一假設(shè),受Chen[6]提出方法的啟發(fā),采用基于超像素的散焦傳播方法獲得完整場(chǎng)景深度圖。

        首先使用SLIC算法[13]對(duì)圖像進(jìn)行過(guò)分割,得到超像素集S={s1,s2,…,sN}。根據(jù)局部一致性假設(shè),每個(gè)超像素si區(qū)域內(nèi)的深度應(yīng)當(dāng)是一致的,故可依據(jù)上一步求得的邊緣稀疏散焦量為每個(gè)超像素分配其初始深度。超像素si的初始深度可以定義為:

        針對(duì)散焦傳播,本文作出如下假設(shè):超像素si與sj如果有相似的強(qiáng)度和顏色,則具有相似的模糊度。據(jù)此,應(yīng)用特征相似性對(duì)任意兩超像素間的相似度進(jìn)行度 量,構(gòu) 建 相 似 權(quán) 重 矩 陣。其 中,表示超像素si與sj顏色空間的歐氏距離。由于W編碼任意兩個(gè)超像素之間的相似性,因此可以使用該矩陣調(diào)整超像素對(duì)間的散焦模糊量,將邊緣稀疏散焦量傳播至整幅圖像,修正超像素的初始深度值。具體方法可以表示為:

        其中,W?表示正則化后的相似權(quán)重矩陣,滿(mǎn)足每行元素相加為1的條件。式(9)表明,每個(gè)超像素的深度估計(jì)來(lái)自于除不包含邊緣像素外的所有其他超像素的散焦傳播。

        圖4 散焦傳播得到的完整場(chǎng)景深度圖及深度估計(jì)誤差

        使用散焦傳播算法得到的完整場(chǎng)景深度圖如圖4所示。從圖中可以看出,受焦平面二義性影響,實(shí)際拍攝的近景被錯(cuò)誤估計(jì)為具有更大的景深,不符合人類(lèi)的直觀判斷。因此,為提高深度估計(jì)的準(zhǔn)確性,需要融合來(lái)自大氣透視線索的深度信息修正散焦深度估計(jì)中不準(zhǔn)確的深度值。

        1.2 基于散射成像模型的透視深度估計(jì)

        1.2.1 大氣散射模型及初始透視深度估計(jì)

        如圖5所示,由于空氣中灰塵、煙霧等氣溶膠顆粒的存在,幾乎每一個(gè)室外場(chǎng)景反射的光線在到達(dá)相機(jī)前都會(huì)在大氣中散射,造成相機(jī)拍攝圖像的對(duì)比度降低、飽和度下降。針對(duì)這一現(xiàn)象,Narasimhan等人建立了散射成像的數(shù)學(xué)模型,解釋了強(qiáng)散射介質(zhì)中探測(cè)系統(tǒng)成像質(zhì)量下降的原因[14]。該模型可以表示為:

        圖5 大氣散射成像模型

        其中,I為相機(jī)拍攝圖像的觀測(cè)強(qiáng)度,J為場(chǎng)景輻射照度,A為全局大氣光,t為介質(zhì)透射率。當(dāng)光線在均勻介質(zhì)中傳播時(shí),介質(zhì)透射率可以表示為:

        其中,β為大氣散射系數(shù),d是場(chǎng)景深度。式(11)表明介質(zhì)透射率隨深度增加呈指數(shù)衰減,在估計(jì)場(chǎng)景介質(zhì)透射率的同時(shí)可恢復(fù)場(chǎng)景相對(duì)深度信息。

        大氣散射模型被廣泛應(yīng)用于圖像去霧操作。在圖像去霧的同時(shí),除了從觀測(cè)圖像I中恢復(fù)出無(wú)霧的原始場(chǎng)景圖J,還可同時(shí)預(yù)測(cè)全局大氣光A及場(chǎng)景介質(zhì)透射率t。He等人基于統(tǒng)計(jì)觀察,提出暗通道先驗(yàn)理論,該理論認(rèn)為對(duì)于室外無(wú)霧圖像,在大多數(shù)非天空區(qū)域中,至少存在一個(gè)顏色通道的像素強(qiáng)度非常低且接近于零[8],可以表示為:

        其中,Jdark表示圖像J的暗通道,Ω(x)表示以像素x為中心的局部圖像域,c表示彩色像素的顏色通道。假定全局大氣光A已知且不為0,結(jié)合式(12),可推導(dǎo)出介質(zhì)透射率t(x)的表達(dá)式:

        如圖6所示,(a)為相機(jī)拍攝的室外圖像,(b)和(c)分別為其對(duì)應(yīng)的暗通道及透射率圖。依據(jù)大氣透視線索,在估計(jì)出場(chǎng)景全局大氣光A的基礎(chǔ)上,結(jié)合式(11)和式(13)可求得場(chǎng)景初始透視深度信息:

        圖6 圖像暗通道及其透射率

        1.2.2 大氣透視深度估計(jì)修正

        基于大氣透視線索的深度估計(jì)方法根據(jù)場(chǎng)景中遠(yuǎn)、近景散射效應(yīng)的不同利用式(14)恢復(fù)場(chǎng)景的相對(duì)深度信息。然而,當(dāng)場(chǎng)景本身包含反射強(qiáng)度較高且表面無(wú)陰影覆蓋的明亮區(qū)域時(shí),該方法會(huì)產(chǎn)生較大的深度估計(jì)誤差。為解決該問(wèn)題,本文提出結(jié)合亮通道計(jì)算與高層語(yǔ)義先驗(yàn)的不可靠深度修正方法。

        與暗通道類(lèi)似,將圖像亮通道定義為:

        式中,Jbright表示圖像J的亮通道,Ω(x)表示以像素x為中心的局部圖像區(qū)域,c表示彩色像素的r,g,b顏色通道。從式(15)可知,圖像亮通道描述了局部圖像區(qū)域各像素顏色通道強(qiáng)度的最大值。由于圖像明亮區(qū)域的各通道像素強(qiáng)度值都很高,其亮通道與暗通道之間的差異很小,故使用圖像亮通道與暗通道的差值可以識(shí)別不可靠的深度估計(jì)區(qū)域。

        基于這一思想,取濾波后的亮、暗通道之間的差值與某一閾值進(jìn)行比較,若差值低于設(shè)定閾值,則判定該像素屬于深度估計(jì)不可靠區(qū)域,具體可以表示為:

        式中,G表示引導(dǎo)濾波[15],用于平滑亮、暗通道之間的差值圖像,α表示設(shè)定閾值,用于判定特定像素的深度估計(jì)是否可靠。實(shí)驗(yàn)中,本文將α設(shè)定為0.4。圖7顯示了使用該方法預(yù)測(cè)出的不可靠深度估計(jì)區(qū)域??梢钥吹綀D中天空、道路、灰色建筑物等色彩對(duì)比度較低的區(qū)域都被標(biāo)記為不可靠區(qū)域,符合上文的分析判斷。下面介紹使用高層語(yǔ)義先驗(yàn)修正不可靠深度估計(jì)的方法。

        圖7 識(shí)別不可靠的深度估計(jì)

        首先,使用K-均值聚類(lèi)算法[16]對(duì)圖像進(jìn)行分割,將圖像劃分為天空、地面及中間過(guò)渡區(qū)域。聚類(lèi)后,根據(jù)圖像幾何關(guān)系與圖中顏色、紋理變化,推斷場(chǎng)景隱含的高層語(yǔ)義信息。即,位于圖像頂部且像素強(qiáng)度較高的區(qū)域?yàn)樘炜諈^(qū)域;位于圖像底部且具有特定紋理變化的區(qū)域?yàn)榈孛鎱^(qū)域;除此之外,其余區(qū)域?yàn)橹虚g過(guò)渡區(qū)域。圖8展示了使用K-均值聚類(lèi)法得到的圖像分割結(jié)果。

        圖8 圖像場(chǎng)景分割及高層語(yǔ)義推斷

        獲得場(chǎng)景高層語(yǔ)義信息后,可以根據(jù)不同區(qū)域的對(duì)象類(lèi)型有針對(duì)地修正其不準(zhǔn)確的深度估計(jì)。對(duì)于天空區(qū)域,默認(rèn)其位于距離焦平面無(wú)限遠(yuǎn)處,故為其分配最大深度值;對(duì)于地面區(qū)域,根據(jù)相機(jī)投影模型[17],像素距離圖像底部越近對(duì)應(yīng)深度越小,故為最底部的圖像像素分配最小深度值;對(duì)于圖像中間過(guò)渡區(qū)域,取過(guò)渡區(qū)域與深度估計(jì)不可靠區(qū)域的交集,采用乘以特定比例因子的策略過(guò)渡區(qū)域的不可靠深度估計(jì)值,修正后的深度估計(jì)可以表示為:

        圖9 基于高層語(yǔ)義信息的深度估計(jì)修正

        1.3 多線索深度估計(jì)融合

        獲得場(chǎng)景散焦深度估計(jì)與優(yōu)化后的大氣透視深度估計(jì)后,本文采用最小二乘回歸策略,通過(guò)優(yōu)化目標(biāo)函數(shù)取得最小值,獲得兩種深度線索的融合權(quán)重。具體可以表示為:

        其中,d為數(shù)據(jù)集中場(chǎng)景真實(shí)深度值,α與β分別為權(quán)重系數(shù),db為散焦深度估計(jì)值,dp為優(yōu)化后的大氣透視深度估計(jì)值。通過(guò)優(yōu)化式(18)取得最小值,可以得到最終的場(chǎng)景深度圖。

        2 實(shí)驗(yàn)與結(jié)果分析

        為驗(yàn)證本文提出算法的有效性,本文使用斯坦福大學(xué)的“Make3D”圖像數(shù)據(jù)集[9-18]進(jìn)行測(cè)試?!癕ake3D”數(shù)據(jù)集包含了534張分辨率為1704×2272的室外圖像,以及使用激光掃描測(cè)距儀采集的灰度范圍為1~81的對(duì)應(yīng)真實(shí)深度圖。本文算法基于MATLAB R2018b編程實(shí)現(xiàn),運(yùn)行于載有Intel Core i5-6300HQ CPU、16GB內(nèi)存、64位操作系統(tǒng)的PC上。同時(shí)使用Zhuo[5]、He[8]、Saxena[9]提出的深度估計(jì)方法作為對(duì)照算法進(jìn)行性能對(duì)比。

        2.1 定性分析

        如圖10所示,(a)為從“Make3D”數(shù)據(jù)集中隨機(jī)選取的測(cè)試圖像,(b)為測(cè)試圖像對(duì)應(yīng)的真實(shí)深度圖,(c)、(d)、(e)、(f)分別為Zhuo算法、He算法、Saxena算法以及本文提出算法在測(cè)試圖像上的表現(xiàn)。從圖中可以看出,由于“Make3D”數(shù)據(jù)集包含的測(cè)試圖像具有較大景深,缺乏足夠的散焦線索,Zhuo算法采用散焦測(cè)距原理進(jìn)行深度估計(jì),無(wú)法有效應(yīng)對(duì)此類(lèi)圖像,生成的深度圖對(duì)近、遠(yuǎn)景區(qū)分不明顯,主觀視覺(jué)效果不好;He算法對(duì)場(chǎng)景透射率進(jìn)行估計(jì),使用透射率作為深度先驗(yàn)進(jìn)行相對(duì)深度估計(jì),無(wú)法有效應(yīng)對(duì)不準(zhǔn)確透射率帶來(lái)的深度估計(jì)誤差,對(duì)于存在明顯過(guò)亮區(qū)域的測(cè)試圖像,亮區(qū)域深度估計(jì)結(jié)果不符合主觀視覺(jué)判斷;Saxena算法雖然可以生成相對(duì)深度估計(jì)較為準(zhǔn)確的深度圖,但深度估計(jì)結(jié)果存在明顯噪聲,主觀視覺(jué)效果不好。本文提出的算法結(jié)合散焦線索與大氣透視線索進(jìn)行深度估計(jì),使兩種單一線索得到的深度估計(jì)優(yōu)勢(shì)互補(bǔ),避免了Zhuo算法與He算法存在的問(wèn)題,生成了視覺(jué)效果良好的、符合人眼主觀判斷的深度圖。

        除此之外,本文還使用PENTAX K-5單反相機(jī)拍攝了若干張真實(shí)自然環(huán)境下的室外圖像用于算法測(cè)試。如圖11所示,(a)為拍攝的真實(shí)自然場(chǎng)景圖像,(b)、(c)、(d)、(e)分別為Zhuo算法、He算法、Saxena算法以及本文提出算法在對(duì)應(yīng)圖像上的表現(xiàn)。從圖中可以看出,相較于“Make3D”數(shù)據(jù)集,雖然Zhuo算法深度估計(jì)性能有所提升,但是受焦平面及模糊紋理二義性影響,該算法對(duì)于部分近景區(qū)域及天空區(qū)域的深度估計(jì)存在明顯誤差。對(duì)于He算法,由于選取的拍攝圖像中基本不存在明顯的過(guò)亮區(qū)域,其深度估計(jì)性能也有提升,生成的深度估計(jì)結(jié)果基本符合人眼相對(duì)深度判斷,但視覺(jué)效果還有待提升。對(duì)于Saxena算法,由于該算法采用機(jī)器學(xué)習(xí)的方式進(jìn)行場(chǎng)景深度估計(jì),無(wú)法保證其在各類(lèi)不同場(chǎng)景中的泛化性,故Saxena算法在真實(shí)拍攝的室外場(chǎng)景圖像上表現(xiàn)不盡人意,相對(duì)深度估計(jì)結(jié)果與人類(lèi)主觀視覺(jué)判斷差別較大。本文提出的算法采用散焦與透視線索進(jìn)行深度估計(jì),適用于絕大多數(shù)室外場(chǎng)景圖像,避免了Saxena等基于機(jī)器學(xué)習(xí)的深度估計(jì)算法泛化性不強(qiáng)的問(wèn)題。此外,選取部分圖像局部區(qū)域放大對(duì)比可以看出,本文算法對(duì)于深度細(xì)節(jié)處理更加優(yōu)異,較好反映了不同場(chǎng)景的相對(duì)深度關(guān)系,在真實(shí)拍攝的測(cè)試圖像上性能優(yōu)于對(duì)比的3個(gè)基準(zhǔn)算法。

        圖10 不同算法在“Make3D”數(shù)據(jù)集上深度估計(jì)結(jié)果對(duì)比

        圖11 不同算法在真實(shí)拍攝圖像上深度估計(jì)結(jié)果對(duì)比

        2.2 定量分析

        選取絕對(duì)相對(duì)誤差(Absolute Relative Error)與平均絕對(duì)對(duì)數(shù)誤差(Mean Absolute Logarithmic Error)作為深度估計(jì)結(jié)果的評(píng)價(jià)指標(biāo),其中,絕對(duì)相對(duì)誤差可以定義為:

        平均絕對(duì)對(duì)數(shù)誤差可以定義為:

        式中,N表示圖像像素的數(shù)量,Di表示算法估計(jì)深度值,D*i表示場(chǎng)景真實(shí)深度值。隨機(jī)選擇“Make3D”數(shù)據(jù)集中的100張圖像用于測(cè)試,分別使用Saxena算法、Zhuo算法、He算法以及本文提出算法對(duì)測(cè)試圖像進(jìn)行深度估計(jì)。使用絕對(duì)相對(duì)誤差與平均絕對(duì)對(duì)數(shù)誤差度量不同算法在每張測(cè)試圖像上的性能表現(xiàn),取所有測(cè)試圖像的誤差均值作為算法的最終性能度量。表1展示了本文提出算法與Saxena算法、Zhuo算法、He算法深度估計(jì)誤差的定量對(duì)比,從表中可以看出,本文提出算法在深度估計(jì)準(zhǔn)確性上優(yōu)于其他算法。

        3 結(jié)語(yǔ)

        本文沿用基于深度線索的深度估計(jì)方式,提出了一種結(jié)合散焦線索與大氣透視線索的單幅單目室外圖像深度估計(jì)方法。不同于以往采用單一線索的深度估計(jì)方法,本文分別采用散焦與透視線索進(jìn)行深度估計(jì),采用多線索深度融合的方式獲得最終的場(chǎng)景深度估計(jì)。對(duì)于散焦深度估計(jì),基于散焦圖像退化模型與局部一致性假設(shè),求取并傳播邊緣稀疏散焦量,獲得場(chǎng)景散焦深度估計(jì)值;對(duì)于透視深度估計(jì),基于暗通道先驗(yàn)與高層語(yǔ)義信息,求取并修正大氣散射深度估計(jì),獲得場(chǎng)景透視深度估計(jì)值;對(duì)于深度信息融合與最終深度圖的生成,采用最小二乘回歸策略獲取不同深度線索的融合權(quán)重,融合來(lái)自散焦與大氣透視線索的深度信息獲得場(chǎng)景的最終深度估計(jì)。實(shí)驗(yàn)結(jié)果表明,相比3個(gè)對(duì)比的基準(zhǔn)算法,提出的算法可以有效避免采用單一線索進(jìn)行深度估計(jì)可能產(chǎn)生的誤差,精度平均提高10%~13%,生成主觀視覺(jué)效果良好的、魯棒性較高的場(chǎng)景深度圖。

        表1 本文提出算法與Saxena、Zhuo、He算法的性能對(duì)比

        猜你喜歡
        大氣深度區(qū)域
        大氣的呵護(hù)
        軍事文摘(2023年10期)2023-06-09 09:15:06
        深度理解一元一次方程
        深度觀察
        深度觀察
        深度觀察
        大氣古樸揮灑自如
        大氣、水之后,土十條來(lái)了
        關(guān)于四色猜想
        分區(qū)域
        基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
        青青草视频网站在线观看| 亚洲an日韩专区在线| 日本啪啪一区二区三区| 丰满又紧又爽又丰满视频| 久久综合狠狠综合久久综合88| 亚洲国产精品久久久久秋霞影院| 丰满熟妇人妻av无码区| 久久无码专区国产精品| 亚洲综合无码一区二区三区| 天堂Av无码Av一区二区三区| 日本精品一区二区三区试看| 国产精品蝌蚪九色av综合网| 性大毛片视频| 亚洲AV永久无码精品导航| 国产精品亚洲婷婷99久久精品 | 在线观看国产白浆一区三区| 青春草在线视频观看| 四川发廊丰满老熟妇| 日韩毛片在线看| 色婷婷丁香综合激情| 成人高清在线播放视频| 久久午夜无码鲁丝片午夜精品| 久久亚洲国产精品成人av秋霞| 中文字幕日本人妻一区| 国内嫩模自拍诱惑免费视频 | 成人精品一级毛片| 亚洲精品乱码久久久久99| 少妇被啪出水在线视频| 色五月丁香五月综合五月| 熟女人妻在线视频| 亚洲欧美日韩中文v在线| 亚洲中国美女精品久久久| 精品国产一区二区三区不卡在线| 国产在线精品一区二区在线看| 亚洲精品理论电影在线观看| 久久婷婷综合激情亚洲狠狠| 久久久久久欧美精品se一二三四| 亚洲av乱码中文一区二区三区| 无码超乳爆乳中文字幕| 日产精品毛片av一区二区三区| 亚洲成a人片在线观看无码专区|