亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        壓縮光場重建與深度估計

        2019-03-23 03:33:00劉曉旻馬治邦王前程杜夢珠朱云飛馬鳳英梁二軍
        應用光學 2019年2期
        關鍵詞:光場置信度邊緣

        劉曉旻,馬治邦,王前程,杜夢珠,朱云飛,馬鳳英,梁二軍

        (鄭州大學 物理工程學院,河南 鄭州 450001)

        引言

        光場是空間中每一個點和每一個方向輻射函數(shù)的總和[1],光場圖像蘊含了物方全部的三維信息,可用在重聚焦[2]、超分辨[3]、深度估計[4]、顯著性檢測[5]、以及三維重建[6]等領域。目前獲取光場的途徑主要有3種:相機陣列[7]或者單個相機進行移動[1]、微透鏡陣列法[2]以及掩膜法[8]獲取光場。相機陣列成本高,體積龐大,限制了它的應用,單個相機移動采集光場僅限靜態(tài)場景。微透鏡陣列法采集光場雖然光場采集設備輕便,但該方法采集的光場的空間分辨率(光場子圖像大小)和角度分辨率(光場視角個數(shù))存在制約,不能得到和傳感器分辨率一樣的光場子圖像。掩膜法是將掩膜加入到成像系統(tǒng)中,對光線進行調(diào)制,再通過重建算法恢復出光場數(shù)據(jù),這種方法可以解決光場空間分辨率與角度分辨率制約問題,恢復出的光場子圖像大小和采集到的光場圖像大小一致。目前研究光場重建主要有Ashok、Babacan等人分別用光學編碼方法采集壓縮光場[9-10],常雷等人分析掩膜光場成像的特點并仿真驗證[11],劉永春等人仿真驗證基于掩膜的光場采集與重建[12]。覃亞麗利用低秩矩陣分解完成光場稀疏采樣和重建[13]。光場的深度估計是指將采集的光場通過一系列計算獲取場景的深度信息,是當今國內(nèi)外研究熱點之一。目前研究光場深度估計的主要有:Wanner和Kim等人利用對極平面圖(EPI)通過計算優(yōu)化得到最終深度圖[4,14],但EPI計算深度計算量大,容易受噪聲影響。Chen、Heber、Jeon等通過求解不同微透鏡所對應子圖像間的匹配關系來獲取深度信息[15-17],對匹配噪聲難以抑制。Tao和Wang等人利用圖像的散焦信息為基礎,融合圖像其他信息后得到最終深度圖[18-19],其深度估計結(jié)果邊緣效果不理想。

        綜上所述,為了有效降低光場采集、處理和傳輸?shù)臄?shù)據(jù)量,提高深度估計結(jié)果邊緣處的準確性,本文利用壓縮感知原理仿真重建了壓縮光場,同時在文獻[19]的基礎上提出了一種新的融合場景多種信息的深度估計算法,并實現(xiàn)對仿真重建出的光場的深度估計。通過K-SVD算法訓練學習獲取光場過完備字典,使得光場可以稀疏表示。然后利用壓縮感知重建算法仿真重建出5×5視角光場。獲取光場數(shù)據(jù)后,實現(xiàn)光場的重聚焦,對于存在遮擋區(qū)域,采用方差較小的部分代替整個角度像素塊,計算聚焦不同深度處的角度像素塊的均值和方差之和的最小值作為初始深度,最大值和次最大值的比值作為置信度。然后計算中心視角圖像邊緣信息,最后通過融合初始深度、置信度、邊緣信息得到最終深度。實驗通過壓縮感知原理仿真實現(xiàn)了多視角光場重建,并且對仿真重建光場和公開光場數(shù)據(jù)進行了深度估計,實驗結(jié)果表明,本文的深度估計算法在場景邊緣處的深度估計結(jié)果邊界清晰,層次分明。

        1 壓縮感知原理

        壓縮感知是一種新的采樣理論[20],突破了奈奎斯特采樣定律的限制,在采樣頻率低于信號最高頻率的2倍時,也能精確重建信號,只要滿足:1)原始信號可以在稀疏基下稀疏表示;2) 稀疏基Ψ與測量矩陣Φ滿足約束等距性(RIP)就能夠高概率地重構原始信號。信號f(f∈Rn)壓縮感知理論采樣過程可表示為

        y=Φf

        (1)

        式中:Φ(Φ∈Rm×n(m<

        f=Ψα

        (2)

        那么壓縮感知的測量公式可表示為

        y=ΦΨα=Θα

        (3)

        1.1 光場稀疏表示

        由于光場的復雜性,光場不能由單一完備基來稀疏表示。本文選擇過完備字典作為稀疏基Ψ,提高復雜光場稀疏表示的通用性。通過采集多組光場樣本數(shù)據(jù)作為光場樣本集,將光場樣本集隨機分成多個p×q光場碎片,再利用K-SVD[21]算法訓練學習獲取這個稀疏基Ψn×d(n

        圖1 部分光場過完備字典可視化Fig.1 Part of visualization over-complete light field dictionary

        1.2 光場測量矩陣設計

        測量矩陣Φ將完整光場值傳遞到測量值y,完成信號的線性測量和降維,即在采集光場圖像時實現(xiàn)數(shù)據(jù)壓縮。測量矩陣Φ與稀疏基Ψ共同構成傳感矩陣Θ,重建原始信號時需要傳感矩陣能夠高概率地滿足約束等距性[21]。測量矩陣Φ與稀疏基Ψ之間高度不相干,則傳感矩陣Θ滿足k階約束等矩性。為了最大程度地滿足Φ與Ψ的不相干性,更好重建5×5視角的4D光場圖像,對測量矩陣進行改進,我們所用測量矩陣仍是隨機矩陣,但不直接生成等同圖像空間分辨率為808×808像素的隨機矩陣(如圖2所示),而是每次只生成等同分割塊大小8×8像素的隨機矩陣,之后用多次生成的8×8像素大小隨機矩陣組合成大小為808×808像素的矩陣作為測量矩陣(如圖3所示)。這樣的測量矩陣具有更高的隨機性,且與冗余字典能滿足約束等距性(RIP)。

        圖2 隨機測量矩陣Fig.2 Random measurement matrix

        圖3 優(yōu)化隨機測量矩陣Fig.3 Optimization of random

        1.3 光場重建算法

        當傳感矩陣滿足階約束等距性時,用l1最小化代替l0最小化,稀疏重建模型[20]可以表示為

        mina‖α‖1s.t.y=Θα

        (4)

        采用LASSO(least absolute shrinkage and selection operator)模型來求解。引入噪聲約束參數(shù)λ更準確描述,拉格朗日方程表示約束項形式為

        mina‖y-Θα‖2+λ‖α‖1

        (5)

        采用交替方向乘子ADMM[22](alternating direction method of multipliers)算法求出稀疏向量α,再由過完備字典Ψ與稀疏向量求出原始光場。

        重建時,需要將采集的二維光場圖像,即測量值y轉(zhuǎn)變?yōu)镹×1數(shù)組進行計算。計算時數(shù)據(jù)量大,為了提高計算效率,采用滑動分塊法重建光場,滑動模塊大小為8×8像素。

        2 光場深度估計原理

        光場成像中,可以通過計算像點角度像素塊[19]特征來表征場景中的深度信息。通過數(shù)字重聚焦原理[23]獲得不同深度聚焦序列圖像。計算不同深度聚焦圖像角度像素塊的均值和方差來表征匹配線索和散焦線索。為使初始深度估計準確,用匹配線索和散焦線索之和的最小值來表示初始深度。用匹配線索和散焦線索之和的最大值和次最大值比值表示置信度[19]。通過融合場景初始深度、置信度、中心視角圖像邊緣信息來獲取最終深度。

        2.1 初始深度和置信度

        當重聚焦到α處時。遮擋區(qū)域被遮擋物分割成2個區(qū)域,方差小的區(qū)域用i表示,匹配線索用Cα(x,y)表示、散焦線索用Dα(x,y)表示,則有:

        Cα(x,y)=Vα,i(x,y)

        (6)

        Dα(x,y)=(Iα,i(x,y)-L(0,0,x,y))2

        (7)

        式中Vα,i(x,y)、Iα,i(x,y)分別表示聚焦在α處時,角度像素片的方差和均值。

        初始深度用Z(x,y)表示,置信度用W(x,y)來表示,有關系式:

        Hα(x,y)=Cα(x,y)+Dα(x,y)

        (8)

        Z(x,y)=argminαHα(x,y)

        (9)

        W(x,y)=Hα(x,y)/Hα2(x,y)

        (10)

        2.2 最終深度計算

        本文在最終深度的計算過程中融合圖像邊緣信息來增加場景邊緣處深度估計準確性,其最終深度的計算是利用馬爾卡夫隨機場來傳播,定義能量函數(shù)為

        (11)

        Eunary部分的計算類似于Tao[24]里面(MRF propagation)表示初始深度Z(x,y)與置信圖W(x,y)之間運算,表征著該點深度估計可靠性。

        中心視角圖像相鄰像素之間灰度變化可表示為▽i(p,q),有關系式:

        (12)

        式中:W(p)表示初始深度響應;p,q表示兩相鄰像素;分子部分表示相鄰像素初始深度的變化;分母部分表示圖像邊緣信息。初始深度和場景中邊緣信息融合可以增加場景中邊緣處深度估計效果,使邊緣更明顯,深度結(jié)果更準確。

        3 實驗結(jié)果

        實驗設備有:北京卓立漢光微米級三維平移臺2個,維視工業(yè)相機MV-VEM200SC 1個。實驗數(shù)據(jù)處理使用Intel(R) Core i7-3770 計算機,參數(shù)為CPU3.40 GHz、內(nèi)存16.0 GB、Windows7 64位,處理軟件為MATLAB2016b和vs2010。

        圖4 實驗流程圖Fig.4 Experimental flow chart

        3.1 壓縮光場仿真重建

        利用三維平移臺采集5×5視角真實光場數(shù)據(jù)組成原始光場數(shù)據(jù),每個光場子圖像大小為808×808像素,如圖5所示。然后用MATLAB生成808×808像素周期排列的測量矩陣。將采集到的光場子圖像與相應的測量矩陣點乘再相加,得到仿真的壓縮傳感測量值y。然后利用上述的重建算法重建出5×5視角的光場圖像,公式(5)中正則化參數(shù)取2,仿真重建結(jié)果如圖6所示,局部放大圖像為90×90像素。

        圖5 原始光場圖Fig.5 Origin light field images

        圖6 仿真重建光場圖像Fig.6 Reconstruction light field images

        通過圖5和圖6可以看出,仿真重建出的光場具有視差。但由于平移臺精度以及實驗操作時的精度不能達到亞像素級,所以造成重建光場清晰度有所下降,但是平滑效果好。

        3.2 公開光場數(shù)據(jù)深度估計結(jié)果

        為驗證本文深度估計算法的準確性,用HCI大學光場數(shù)據(jù)“monasRoom”進行深度估計,分別用本文方法、Wang方法[19]、Tao方法[24]和Mousnier方法[25]進行深度估計,結(jié)果如圖7所示。從深度估計結(jié)果可以看出,與其他方法相比,本文方法的深度估計結(jié)果更好。在最終深度計算時,融合了圖像的邊緣信息,所以在場景邊緣處深度估計結(jié)果更準確。

        圖7 “monasRoom”深度估計結(jié)果Fig.7 Results of “monasRoom” depth estimation

        在文獻[19]的基礎上,提出了融合初始深度、置信度、邊緣信息的深度估計算法,用邊緣信息代替文獻[19]深度正則化中遮擋預測的計算,在不影響計算精度的前提下,降低了時間開銷。分別用本文和文獻[19]對HCI大學的光場數(shù)據(jù)以及合成光場數(shù)據(jù)進行深度估計,其深度估計的結(jié)果與基準深度圖做對比,用均方誤差(mean squared error,MSE)作為誤差評價標準,實驗結(jié)果如表1所示。MSE定義為

        (13)

        表1 時間開銷與MSE對比Table 1 Comparison of time cost and MSE

        從表1中時間復雜度對比中可看到:利用邊緣信息替代遮擋線索優(yōu)化初始深度圖,降低了程序運行的時間開銷,同時能夠獲取高精度的深度圖。

        3.3 原始光場和仿真重建光場深度估計結(jié)果

        用本文的深度估計方法分別對采集的原始光場、仿真重建出的光場進行深度估計,實驗結(jié)果如圖8所示。從圖8可以看出,重建光場深度估計結(jié)果分層沒有原始光場深度估計結(jié)果明顯,原因在于重建光場的視差比原始光場有所減少。

        圖8 深度估計結(jié)果Fig.8 Results of depth estimation

        為了驗證重建光場深度估計準確度,用本文的深度估計方法分別對“monasRoom”和仿真重建的“monasRoom”進行深度估計,實驗結(jié)果如圖9所示。通過與基準深度對比,可以看出原始光場和仿真重建光場的準確性。

        圖9 深度估計結(jié)果Fig.9 Results of depth estimation

        4 結(jié)論

        文中采用壓縮感知原理仿真實現(xiàn)多視角光場重建,通過融合光場的初始深度、置信度、邊緣信息實現(xiàn)光場深度估計,系統(tǒng)地完成了從仿真壓縮光場采樣獲取光場數(shù)據(jù),到重建光場,最后得到深度估計結(jié)果的整個過程。實驗結(jié)果表明仿真重建光場可以用于深度估計。深度估計結(jié)果表明本文方法在場景邊緣處有更好效果,邊緣輪廓清晰,分層明顯。實驗驗證了單個相機單次曝光便可重建出一組5×5視角的光場圖像,將光場圖像的采樣率降低為4%。為降低光場采集、處理和傳輸?shù)臄?shù)據(jù)量,提高邊緣處深度估計結(jié)果的準確度提供了實驗依據(jù)。為后續(xù)搭建更準確的物理平臺,實現(xiàn)測量矩陣調(diào)制真實入射光線,提高重建光場的精度,為采集、重建、深度估計一體化奠定了實驗基礎,可用在三維重建、三維顯示等領域。

        猜你喜歡
        光場置信度邊緣
        硼鋁復合材料硼含量置信度臨界安全分析研究
        利用新型光場顯微鏡高速記錄神經(jīng)元活動和血流動態(tài)變化
        科學(2020年5期)2020-01-05 07:03:12
        正負關聯(lián)規(guī)則兩級置信度閾值設置方法
        計算機應用(2018年5期)2018-07-25 07:41:26
        壓縮混沌光場的量子統(tǒng)計性質(zhì)研究
        一張圖看懂邊緣計算
        置信度條件下軸承壽命的可靠度分析
        軸承(2015年2期)2015-07-25 03:51:04
        集成光場三維顯示亮度均勻性校正方法
        瘋攝影
        攝影之友(2014年3期)2014-04-21 20:21:38
        多假設用于同一結(jié)論時綜合置信度計算的新方法?
        電訊技術(2011年11期)2011-04-02 14:00:37
        在邊緣尋找自我
        雕塑(1999年2期)1999-06-28 05:01:42
        无码国产精品一区二区免费97| 亚洲中文字幕精品乱码2021| 亚洲高清乱码午夜电影网| 中日韩精品视频在线观看| 国产福利免费看| 国产大陆av一区二区三区| 久久久精品国产免费看| 国产偷国产偷精品高清尤物| 精品性高朝久久久久久久| 波多野无码AV中文专区| 亚洲精品综合久久中文字幕| 国产成人无码精品久久久免费 | 蜜桃国产精品视频网站| 欧美伦费免费全部午夜最新| 亚洲一区二区三区厕所偷拍| 亚洲熟妇自偷自拍另类| 狼人香蕉香蕉在线28 - 百度| 国产成人av一区二区三区在线| 亚洲色欲Aⅴ无码一区二区| 成人av在线免费播放| 国产精品高清网站| 丰满少妇被猛烈进入| 99riav精品国产| 国产精品第一区亚洲精品| 久久亚洲中文字幕精品一区| 国产台湾无码av片在线观看| 精品88久久久久88久久久| 老熟妇高潮av一区二区三区啪啪| 偷拍韩国美女洗澡一区二区三区| 国产午夜片无码区在线播放| 亚洲色欲色欲综合网站| 亚洲另类激情专区小说婷婷久 | 在线观看精品国产福利片100| 精品人妻一区二区三区av| 91精品久久久中文字幕| 内射人妻无套中出无码| 日韩好片一区二区在线看| 午夜国产精品视频免费看电影| 日本一区二区三级免费| 人妻丰满熟妇岳av无码区hd| 中文字幕av在线一二三区|