亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合3D 對極平面圖像的光場角度超分辨重建

        2023-12-02 12:48:02陳純毅范曉輝胡小娟于海洋
        光學(xué)精密工程 2023年21期
        關(guān)鍵詞:深度圖光場卷積

        陳純毅, 范曉輝, 胡小娟, 于海洋

        (長春理工大學(xué) 計(jì)算機(jī)科學(xué)技術(shù)學(xué)院,吉林 長春 130022)

        1 引 言

        光場(Light Field,LF)成像可以捕獲到現(xiàn)實(shí)世界的四維信息[1](二維空間信息和二維角度信息),克服了傳統(tǒng)成像技術(shù)只能捕獲到二維空間信息的局限性,具有能在不同焦距下進(jìn)行重投影的獨(dú)特優(yōu)勢,逐漸在工業(yè)探測、生命科學(xué)和虛擬現(xiàn)實(shí)等領(lǐng)域受到重視[2-4]。光場圖像的角度分辨率會直接影響三維重建、光場渲染等視覺應(yīng)用的效果。然而,微透鏡陣列光場相機(jī)受到傳感器分辨率的限制,必須在空間分辨率和角度分辨率之間進(jìn)行平衡。所以,提高光場圖像的空間分辨率和角度分辨率一直是光場成像的研究熱點(diǎn)。

        光場角度超分辨重建(Angular Super-resolution Reconstruction,ASR)分為不基于深度信息的重建和基于深度信息的重建兩種方法。不基于深度信息的重建方法在沒有場景幾何信息的情況下直接對角度維度進(jìn)行上采樣。Shi 等[5]通過優(yōu)化連續(xù)傅里葉域中的稀疏性進(jìn)行光場重建。Vagharshakyan 等[6]提出了一種自適應(yīng)迭代正則化算法,在剪切波域中利用對極平面圖像(Epipolar Plane Image, EPI)的稀疏表示來重建光場圖像。但是,這些傳統(tǒng)方法需要大量的輸入圖像。Yoon 等[7]采用深度學(xué)習(xí)方法重建高分辨率光場,利用相鄰的兩個(gè)進(jìn)行空間上采樣后的圖像逐個(gè)重建中間視角圖像。該方法僅利用較少的角度信息,無法直接在任意位置合成新視圖。Wu等[8]將光場重建問題轉(zhuǎn)化為EPI 的角度域細(xì)節(jié)恢復(fù)問題,提出“模糊-恢復(fù)-去模糊”的框架。該方法有效地提高了遮擋區(qū)域及非朗伯表面的重建效果,但是需要重復(fù)執(zhí)行很多次。Wang 等[9-10]構(gòu)建了偽4D 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN),在3D EPI 上直接進(jìn)行插值重建。Salem 等[11]將角度維度上采樣后的圖像堆棧輸入殘差通道注意力網(wǎng)絡(luò),學(xué)習(xí)重要特征,恢復(fù)更多的紋理細(xì)節(jié)信息。由于沒有建模場景的幾何信息,這些方法都不能很好地處理更加稀疏采樣的輸入圖像。

        基于深度信息的重建方法是指在重建過程中估計(jì)出所有視角的深度圖,然后利用深度圖將輸入圖像映射到新視角位置。Wanner 等[12]利用結(jié)構(gòu)張量法估計(jì)視差圖,并通過能量函數(shù)懲罰映射圖像和真實(shí)圖像之間的誤差來合成新視圖,但這種方法必須在視點(diǎn)采樣足夠密集時(shí)才能達(dá)到合理的精度。Penner 等[13]在軟3D 重建過程中充分考慮了深度信息的不確定性,使這個(gè)框架同時(shí)適用于結(jié)構(gòu)化和非結(jié)構(gòu)化的輸入圖像。傳統(tǒng)方法一般聚焦于深度圖的精度。近年來,基于深度學(xué)習(xí)的方法得到了廣泛的應(yīng)用。Kalantari 等[14]預(yù)定義一組深度等級,并將每個(gè)等級上所有映射圖像的均值和標(biāo)準(zhǔn)差作為手動(dòng)提取到的特征輸入端到端的順序網(wǎng)絡(luò),進(jìn)行深度估計(jì)和顏色估計(jì)。該方法有效提高了重建光場圖像的質(zhì)量,但是每次只能合成一個(gè)新視角圖像。Vadathya等[15]利用散焦圖像和聚焦圖像進(jìn)行視差估計(jì),并通過修復(fù)網(wǎng)絡(luò)修復(fù)遮擋造成的錯(cuò)誤像素。Jin等[16]提出在空間域和角度域執(zhí)行交錯(cuò)卷積的策略,有效提高了大基線光場的重建質(zhì)量。Navarro 等[17]在每個(gè)新視角位置對映射圖像計(jì)算融合權(quán)重,并將其加權(quán)融合。Gul 等[18]在融合映射圖像時(shí)引入注意力機(jī)制,有效地處理了遮擋區(qū)域。Yun 等[19]提出基于多重感受野的分層特征提取方法,用于提高深度估計(jì)的準(zhǔn)確度。上述方法在處理映射圖像時(shí)或只利用光場的空間信息,或交錯(cuò)利用空間信息和角度信息,不利于提高光場圖像的重建質(zhì)量。

        光場圖像的重建質(zhì)量與能否充分利用光場圖像的豐富信息有關(guān)。光場圖像的3D EPI 既包含空間信息,也包含角度信息[20],利用這一特點(diǎn),本文提出融合3D EPI 的光場角度超分辨重建方法。該方法由3 部分組成:(1)深度估計(jì)模塊將輸入圖像按視差方向分為不同的圖像對,分別進(jìn)行特征提取,提取到的特征用來無監(jiān)督地估計(jì)密集光場所有視角的深度圖;(2)圖像映射部分利用得到的深度圖將輸入圖像反向映射到每一個(gè)新視角位置,得到初始合成光場;(3)光場融合重建模塊分為兩個(gè)分支,分別從水平方向和垂直方向?qū)Τ跏己铣晒鈭龅?D EPI 進(jìn)行融合,得到水平方向和垂直方向的重建結(jié)果,再對兩個(gè)重建結(jié)果進(jìn)行混合重建,得到最終的高角度分辨率光場圖像。該方法通過評估3D EPI 來引導(dǎo)光場融合,能夠在處理映射圖像時(shí)同時(shí)考慮空間信息和角度信息,使重建的光場圖像保持更好的細(xì)節(jié)信息及幾何一致性。

        2 原 理

        2.1 光場成像及光場的3D 對極平面圖像

        微透鏡陣列光場相機(jī)的成像原理如圖1 所示,將微透鏡陣列置于主透鏡的焦平面處,微透鏡可以將同一場景點(diǎn)不同方向的光線信息解耦,并記錄在對應(yīng)位置的傳感器上,從而得到光線的空間信息和角度信息[21]。每個(gè)微透鏡捕獲一個(gè)場景點(diǎn)不同方向的光線信息,一個(gè)方向代表一個(gè)視角,視角的總數(shù)即為光場圖像的角度分辨率。光場圖像的空間分辨率是指捕獲的場景點(diǎn)的數(shù)量,即微透鏡的數(shù)量。在所有微透鏡中固定角度坐標(biāo),將對應(yīng)的像素點(diǎn)全部提取,可得到光場圖像的一個(gè)視角圖像,即子孔徑圖像。

        如圖2 所示,在光場圖像L(x,y,s,t)中,x和y表示二維空間坐標(biāo),s和t表示二維角度坐標(biāo)。在水平方向,通過固定y軸坐標(biāo)和t軸坐標(biāo),將x軸和s軸的像素點(diǎn)都提取出來,即可得到水平EPIEy?,t?(x,s)。只固定角度坐標(biāo)t,將s軸的子孔徑圖像進(jìn)行堆疊,即可得到水平3D EPIIt?(x,y,s)。在垂直方向執(zhí)行類似的操作即可得到 垂 直 EPIEx?,s?(y,t) 和 垂 直 3D EPIIs?(x,y,t)[20]。EPI 清晰地反映了水平方向或垂直方向上每個(gè)場景點(diǎn)在各個(gè)視角圖像中的移動(dòng)軌跡,能夠體現(xiàn)光場圖像的幾何一致性。3D EPI包含光場圖像的二維空間信息和一維角度信息,EPI 包含光場圖像的一維空間信息和一維角度信息。

        圖2 光場圖像及其3D EPI 與EPIFig.2 Light field image and its 3D EPI and EPI

        2.2 方法框架

        對于4D 光場圖像L(x,y,s,t)[1],為了簡化數(shù)學(xué)表達(dá)式,二維空間坐標(biāo)(x,y)用x來簡化表示,二維角度坐標(biāo)(s,t)將用s來簡化表示,即將L(x,y,s,t)簡化表示為L(x,s)。光場圖像角度超分辨重建利用稀疏光場圖像L′(x,s′)重建密集光場圖像該問題可表示為:

        其中f為光場圖像角度超分辨重建對應(yīng)的映射函數(shù)。本文提取密集光場圖像4 個(gè)角的子孔徑圖像作為稀疏光場圖像,即輸入圖像。結(jié)合光場圖像的3D EPI 包含空間信息和角度信息的特點(diǎn),提出一種融合3D EPI 的光場角度超分辨重建方法。該方法遵循基于深度信息的重建方法的一般步驟,即深度估計(jì)、圖像映射和光場融合重建,深度學(xué)習(xí)網(wǎng)絡(luò)框架如圖3 所示。深度估計(jì)模塊利用輸入圖像估計(jì)出密集光場所有視角的深度圖。這些深度圖可以把輸入圖像映射到每一個(gè)新視角位置,以合成初始光場。由于遮擋和深度圖的不精確性,映射后的圖像會產(chǎn)生幾何扭曲。因此在最后的光場融合部分,與一般的直接融合映射圖像的方法不同,本文的光場融合重建從水平和垂直兩個(gè)方向分別融合由不同的輸入圖像映射產(chǎn)生的初始光場的3D EPI,再將水平重建結(jié)果與垂直重建結(jié)果混合,獲得最終的高角度分辨率光場圖像。

        圖3 融合3D EPI 的光場圖像角度超分辨重建網(wǎng)絡(luò)框架Fig.3 Architecture of light-field angular super-resolution reconstruction via fusing 3D EPIs

        2.3 深度估計(jì)模塊

        光場圖像具有規(guī)則的幾何一致性,視差與深度成反比,這為深度估計(jì)模塊無監(jiān)督地估計(jì)所有視角的深度圖提供了基礎(chǔ)。給定位置為s0的已知視角圖像L(x,s0),ds1(x)是位置為s1的待重建新視角圖像L(x,s1)的深度圖,則[12]:

        深度估計(jì)模塊利用輸入圖像估計(jì)出密集光場所有視角的深度圖D(x,s),即:

        其中fd為輸入圖像與深度圖之間的映射關(guān)系。

        深度估計(jì)模塊在每個(gè)新視角位置生成對應(yīng)景物的深度圖,利用深度圖將輸入圖像映射到新視角位置可以引入更多的場景信息,有利于減少大基線光場重建的偽影,提高光場重建的質(zhì)量。光場圖像的多視角結(jié)構(gòu)決定了它具有多個(gè)方向的視差。為了更好地估計(jì)輸入圖像與深度圖之間的映射關(guān)系,本文將輸入圖像分為水平、垂直和對角3 類圖像對(如圖4 所示),分別送入結(jié)構(gòu)相同的網(wǎng)絡(luò)分支進(jìn)行特征提取,學(xué)習(xí)不同方向的視差信息。稀疏光場本身就是密集光場的欠采樣,光場圖像4 個(gè)角的子孔徑圖像作為整個(gè)場景的邊緣視角,每個(gè)視角都包含重要的場景信息,特別是各個(gè)物體間的遮擋關(guān)系。所以,與Gul等[18]根據(jù)合成圖像的位置選取距離最近的3 幅輸入圖像組成3 個(gè)圖像對不同,本文利用4 幅輸入圖像組成6 個(gè)圖像對,充分利用所有輸入圖像的視差信息。

        圖4 深度估計(jì)模塊Fig.4 Depth estimation module

        深度估計(jì)模塊首先通過特征提取網(wǎng)絡(luò)對不同方向的圖像對分別提取像素匹配特征。視差具有方向性,這樣按視差方向進(jìn)行特征提取的方法可以提取到更加精準(zhǔn)的匹配特征,這些特征輸入到后續(xù)的深度估計(jì)網(wǎng)絡(luò)來生成深度圖。如圖4 所示,特征提取網(wǎng)絡(luò)分支類似于Epinet[22],圖像對首先通過1 個(gè)包含32 個(gè)3×3 卷積核的卷積層(Conv),然后連續(xù)通過3 個(gè)結(jié)構(gòu)為“Conv-ReLU-Conv”的殘差塊(ResBlock),其中殘差塊的輸入作為殘差部分與輸出相加,且殘差塊中的卷積層同樣由32 個(gè)3×3 卷積核組成。特征提取完畢后,將6 個(gè)分支提取的特征按順序串聯(lián)到一起作為深度估計(jì)網(wǎng)絡(luò)的輸入。深度估計(jì)網(wǎng)絡(luò)由7 個(gè)卷積層組成,其中前2 個(gè)卷積層使用擴(kuò)張率為2 的5×5 卷積,其余為3×3 卷積層。深度估計(jì)網(wǎng)絡(luò)除了最后一個(gè)卷積層外,其余每個(gè)卷積層后都跟一個(gè)ReLU 激活層。

        2.4 圖像映射

        圖像映射利用深度估計(jì)模塊得到的深度圖將輸入圖像映射到每個(gè)新視角位置。將位置為s′的輸入圖像L′(x,s′)映射到位置為s的新視角,得到映射圖像Ws′(x,s),這一過程可以表示為:

        其中fw表示圖像映射過程。

        由于有4 幅輸入圖像,每幅輸入圖像被分別映射到所有新視角,所以每個(gè)新視角會有4 幅映射圖像,即形成4 個(gè)初始合成光場,如圖5 所示。

        圖5 四個(gè)初始合成光場Fig.5 Four initial synthetic light fields

        2.5 光場融合重建模塊

        光場融合重建模塊利用4 個(gè)初始合成光場生成最終的高角度分辨率光場圖像。與通常的直接融合所有映射圖像或構(gòu)建修復(fù)網(wǎng)絡(luò)不同,本文通過評估4 個(gè)初始合成光場的3D EPI 來引導(dǎo)光場融合。光場融合重建步驟旨在從映射圖像中獲取正確的光場信息,這不僅要求每個(gè)視角圖像保持正確的空間信息,還要保證各視角間的幾何關(guān)系。Navarro 等[17]在每個(gè)新視角位置對來自不同輸入圖像的映射圖像的空間域進(jìn)行卷積,確定不同映射圖像的融合權(quán)重,以保留正確的空間信息。Jin 等[16]考慮到不同視角之間的角度相關(guān)性,在對初始光場圖像的空間域卷積之后又增加了對角度域的卷積。但是光場圖像的空間信息和角度信息不是獨(dú)立的兩部分,它們之間存在密切的關(guān)聯(lián),這個(gè)關(guān)聯(lián)體現(xiàn)在EPI 中反映物體移動(dòng)軌跡的斜線上??紤]空間信息和角度信息可以使重建光場保持更好的幾何一致性,所以可以通過計(jì)算每個(gè)初始光場的EPI 對最終光場的EPI 的貢獻(xiàn)來融合初始光場,而3D EPI 比EPI 多了一維空間信息,有助于重建光場保持更好的細(xì)節(jié)信息,所以最終通過融合4 個(gè)初始合成光場的3D EPI來重建光場圖像。

        光場融合重建模塊首先對4 個(gè)初始合成光場進(jìn)行水平3D EPI 融合重建和垂直3D EPI 融合重建,再將水平重建結(jié)果和垂直重建結(jié)果進(jìn)行混合重建,得到最終的光場圖像。這一過程可以表示為:

        其中:Ws′(x,s)表示映射圖像,即初始合成光場;fh表示水平3D EPI 融合重建,fv表示垂直3D EPI融合重建,fb表示水平垂直混合重建。對4 個(gè)初始合成光場的角度坐標(biāo)為t=1 的子孔徑圖像分別堆疊,得到如圖6 所示的4 個(gè)水平3D EPI。將這4 個(gè)水平3D EPI 分別輸入3D EPI 評估網(wǎng)絡(luò),計(jì)算出各自對重建光場圖像的角度坐標(biāo)為t=1的水平3D EPI 的貢獻(xiàn),得到它們的融合權(quán)重,并進(jìn)行加權(quán)融合,完成角度坐標(biāo)為t=1 的水平重建。同理,對其余的水平3D EPI 進(jìn)行融合,得到水平3D EPI 融合重建的光場圖像對垂直3D EPI 執(zhí)行上述操作,得到垂直3D EPI 融合重建的光場圖像最后,將和輸入2 個(gè)3D 卷積層進(jìn)行混合重建,得到最終的重建光場圖像。其中,2 個(gè)3D 卷積層的卷積核尺寸分別為(5,3,3)和(3,3,3),步長分別為(4,1,1)和(1,1,1)。

        圖6 4個(gè)初始合成光場的角度坐標(biāo)t=1時(shí)的水平3D EPIFig.6 Horizontal 3D EPI at angular coordinate t=1 of four initial synthetic light fields

        在每個(gè)新視角位置,若直接對4 幅映射圖像進(jìn)行融合,那么每個(gè)像素點(diǎn)只有一個(gè)評價(jià)值,且只在空間域進(jìn)行融合權(quán)重的計(jì)算。本文提出的3D EPI 融合方法通過水平重建和垂直重建,使每個(gè)像素點(diǎn)有兩個(gè)評價(jià)值,可以更好地保持細(xì)節(jié)信息,并且結(jié)合空間域和角度域來計(jì)算融合權(quán)重,有利于維持光場圖像的幾何一致性。

        受Wu 等[23]的啟發(fā),3D EPI 評估網(wǎng)絡(luò)使用帶跳躍連接的編碼器-解碼器結(jié)構(gòu),如圖7 所示。編碼器由3 個(gè)卷積-池化層組成,每一個(gè)池化層都將圖像的分辨率降為原來的二分之一。解碼器由3個(gè)反卷積層組成,每個(gè)反卷積層都與對應(yīng)的卷積層的高分辨率特征相連接,使解碼器能夠更好地捕捉細(xì)節(jié)信息。3D EPI 評估網(wǎng)絡(luò)的輸入是角度維度為7 的3D EPI,輸出是對應(yīng)的7 個(gè)評分圖。對于4 個(gè)初始合成光場的角度坐標(biāo)為t=1 的水平3D EPI,分別進(jìn)行計(jì)算評分后,每個(gè)視角的4幅映射圖像都有對應(yīng)的評分圖。接著通過Softmax 函數(shù)將每個(gè)視角位置的4 個(gè)評分圖映射到[0,1]之間,得到4 幅映射圖像的融合權(quán)重,并進(jìn)行加權(quán)融合。對其余的每組3D EPI 都執(zhí)行相同的操作。

        圖7 三維EPI 評估網(wǎng)絡(luò)Fig.7 Three-dimensional EPI evaluation network

        2.6 損失函數(shù)

        與Jin 等[16]類似,本文提出的光場角度超分辨重建方法的損失函數(shù)l定義為:

        其中l(wèi)d為深度估計(jì)損失函數(shù)。因?yàn)檎鎸?shí)的光場深度圖很難獲取,所以通過度量初始合成光場與真實(shí)光場之間的差異來優(yōu)化深度圖,并且通過懲罰空間梯度對深度圖進(jìn)行平滑約束。ld定義為:

        其中:L(x,s)代表真實(shí)的高角度分辨率光場圖像,?x D(x,s)是深度圖D(x,s)的空間梯度。lb為融合重建損失函數(shù),用于度量重建光場圖像與真實(shí)光場圖像的相似度,定義為:

        其中:Ey,t(x,s)和Ex,s(y,t)分別表示真實(shí)光場的水平EPI 和垂直和分別表示重建光場的水平EPI 和垂直EPI,λ為le的權(quán)重,本文設(shè)置為1。

        3 實(shí)驗(yàn)結(jié)果及分析

        實(shí)驗(yàn)使用的訓(xùn)練集為HCI new[24]的20 個(gè)光場圖像,每個(gè)光場圖像的角度分辨率為9×9,空間分辨率為512×512。針對角度分辨率為2×2 的稀疏光場圖像進(jìn)行角度超分辨重建,生成角度分辨率為7×7 的密集光場圖像。在制作訓(xùn)練集時(shí),將9×9 光場周圍一圈的視角剪裁掉,僅使用中間7×7 的子孔徑圖像,并且每個(gè)子孔徑圖像的空間分辨率被隨機(jī)剪裁為96×96,即使用7×7×96×96 的光場圖像作為密集光場圖像。實(shí)驗(yàn)使用密集光場圖像的4 個(gè)角度坐標(biāo)為(0,0),(0,6),(6,0),(6,6)的子孔徑圖像作為輸入圖像。

        本文使用PyTorch 框架,在NVIDIA Ge-Force RTX 3050 上對提出的模型進(jìn)行訓(xùn)練。實(shí)驗(yàn)使用Adam 優(yōu)化器(β1=0.9,β2=0.999)來訓(xùn)練網(wǎng)絡(luò),初始學(xué)習(xí)率設(shè)置為0.000 1,且每500 個(gè)周期衰減0.5 倍。

        3.1 對比實(shí)驗(yàn)

        為了初步驗(yàn)證本文方法是否能夠提高光場角度超分辨重建的質(zhì)量,在HCI new[24]的測試集上對本文的重建結(jié)果與Yun 等[19]的重建結(jié)果進(jìn)行比較,通過峰值信噪比(Peak Signal to Noise Ratio,PSNR)與結(jié)構(gòu)相似性(Structural Similarity,SSIM)來定量評估光場的重建質(zhì)量。實(shí)驗(yàn)結(jié)果如表1 所示,可以看出本文方法的重建結(jié)果的PSNR 和SSIM 都較高,說明該方法能夠提高光場角度超分辨重建的質(zhì)量。

        表1 光場角度超分辨重建結(jié)果的比較Tab.1 Comparison of angular super-resolution reconstruction results on light field images

        為了進(jìn)一步分析本文方法的有效性及適用場景,選取lf-syn[14],RCA-LF[11],LFASR[16]3 種方法進(jìn)行對比實(shí)驗(yàn)。在對比實(shí)驗(yàn)中,除了RCALF[11],其他方法都是基于深度信息的重建方法。公平起見,各個(gè)方法均使用相同的數(shù)據(jù)集重新訓(xùn)練,且這些方法均使用各自論文提供的代碼和訓(xùn)練模型。對比實(shí)驗(yàn)分別在合成光場圖像和真實(shí)光場圖像上進(jìn)行。

        3.1.1 合成光場圖像

        對于合成光場圖像,實(shí)驗(yàn)使用HCI new[24]中的bedroom,bicycle,herbs,dishes 和HCI old[25]中的Buddha,Mona 來評估各個(gè)方法的重建結(jié)果。所有測試子孔徑圖像在評估時(shí)都被剪裁掉四周的22 pixels。圖8 展示了各方法在場景bedroom,bicycle 上的角度超分辨重建結(jié)果的中心視角圖像及其局部放大,也展示了局部放大部分的中心水平EPI。從圖中可以看出,lf-syn[14]的重建結(jié)果整體較為模糊,主要是因?yàn)樵摲椒▋H用相鄰的子孔徑圖像來生成中間圖像,利用的光場信息較少。該方法還十分耗時(shí),重建一個(gè)場景大概需要3 h。RCA-LF[11]沒有利用深度信息,因此重建結(jié)果的整體性較差,如圖8(b)中EPI 的斜線有較多的錯(cuò)誤。LFASR[16]通過EPI 損失函數(shù)約束重建結(jié)果的幾何一致性,重建結(jié)果的整體性更好,但是一些復(fù)雜的紋理部分會出現(xiàn)模糊。本文提出的角度超分辨方法在水平方向和垂直方向分別對3D EPI 進(jìn)行整體融合,能夠更好地保持紋理細(xì)節(jié)信息,且重建光場的幾何一致性較好。表2 從定量角度展示了各方法的重建結(jié)果,可以看出,本文方法在大部分場景下表現(xiàn)出更好的性能。

        表2 合成光場圖像上角度超分辨重建結(jié)果的比較Tab.2 Comparison of angular super-resolution reconstruction results on synthetic light field images

        3.1.2 真實(shí)光場圖像

        對于真實(shí)光場圖像,實(shí)驗(yàn)選取Stanford Lytro Light Field[26]的Bikes 和Kalantari 等[14]的Rock和IMG_1528_eslf。在制作測試集時(shí),先將這些光場的子孔徑圖像尺寸統(tǒng)一為540×360,為了更好地分析結(jié)果,所有測試光場的子孔徑圖像在評估時(shí)都被剪裁掉四周的22 pixel。圖9 展示了各方法在場景bikes_20_eslf,IMG_1528_eslf 上的角度超分辨重建結(jié)果的中心視角圖像及其局部放大,也展示了局部放大部分的中心水平EPI。真實(shí)光場圖像往往有著更復(fù)雜的遮擋關(guān)系,這更加考驗(yàn)重建方法對深度關(guān)系的計(jì)算。lf-syn[14]在深度估計(jì)階段是手動(dòng)提取特征,生成的深度圖不精確,重建場景有很多重影。RCA-LF[11]忽略幾何信息,直接對角度維度進(jìn)行上采樣,導(dǎo)致遮擋邊緣出現(xiàn)模糊。相比于LFASR[16],本文方法從水平、垂直、對角方向分別提取視差特征,一定程度上提高了深度圖的精度,在主觀視覺上表現(xiàn)出更好的遮擋關(guān)系。表3 展示了各方法重建結(jié)果的PSNR 和SSIM,可以看出,本文方法在真實(shí)光場圖像上的重建效果優(yōu)于其他方法。

        表3 真實(shí)光場圖像上角度超分辨重建結(jié)果的比較Tab.3 Comparison of angular super-resolution reconstruction results on real-world light field images

        圖9 真實(shí)光場圖像的角度超分辨重建結(jié)果Fig.9 Angular super-resolution reconstruction results of real-world light field images

        3.2 消融實(shí)驗(yàn)

        為了驗(yàn)證水平3D EPI 融合重建分支和垂直3D EPI 融合重建分支的組合能否充分利用光場的高維信息,進(jìn)而提高重建光場圖像的質(zhì)量,對這兩個(gè)分支進(jìn)行了消融實(shí)驗(yàn),其他部分保持不變。消融實(shí)驗(yàn)(1):只保留水平3D EPI 融合重建分支;消融實(shí)驗(yàn)(2):只保留垂直3D EPI 融合重建分支。實(shí)驗(yàn)結(jié)果如表4 所示,只進(jìn)行水平重建或垂直重建時(shí)的效果比較接近,這表明水平方向上的三維信息和垂直方向上的三維信息同等重要。本文方法將兩者組合起來,充分利用兩個(gè)方向上的高維信息,重建效果比單獨(dú)使用水平重建分支或單獨(dú)使用垂直重建分支的效果好。

        表4 消融實(shí)驗(yàn)的角度超分辨重建結(jié)果Tab.4 Angular super-resolution reconstruction results produced in ablation experiments

        為了驗(yàn)證深度估計(jì)模塊按不同視差方向分別提取特征能夠有效地提高深度圖的精度,還設(shè)計(jì)了消融實(shí)驗(yàn)(3),即去掉特征提取部分,直接將輸入圖像輸入深度估計(jì)網(wǎng)絡(luò),深度估計(jì)結(jié)果如表4 所示。從表4 可以看出,去掉特征提取部分后的重建效果比單分支融合重建還差,證明了按視差方向進(jìn)行特征提取有利于提高深度估計(jì)的準(zhǔn)確性,進(jìn)而提高光場圖像的重建質(zhì)量。

        3.3 光場應(yīng)用

        重建光場具有高角度分辨率,包含更多的場景信息,可以進(jìn)行深度估計(jì)、重聚焦等光場應(yīng)用。這里采用Epinet[22]的方法,利用本文方法的重建結(jié)果對光場圖像進(jìn)行深度估計(jì),結(jié)果如圖10 所示。從圖中可以看出,利用本文的重建結(jié)果能夠估計(jì)出場景的深度圖,且邊緣部分能夠保持清晰的結(jié)構(gòu)。

        圖10 利用本文重建結(jié)果預(yù)測的深度圖Fig.10 Depth map predicted by reconstruction results in this article

        4 結(jié) 論

        本文針對利用稀疏光場圖像重建密集光場圖像的問題,提出了融合3D EPI 的光場角度超分辨重建方法。該方法通過對輸入圖像提取不同方向的視差特征,有效地提高了深度估計(jì)的準(zhǔn)確性,用生成的深度圖將輸入圖像映射到新視角位置,形成初始合成光場,最后從水平方向和垂直方向分別對初始合成光場的3D EPI 進(jìn)行加權(quán)融合,再將兩個(gè)方向的融合結(jié)果進(jìn)行混合重建,得到最終的高質(zhì)量重建光場圖像。本文方法適用于用微透鏡陣列光場相機(jī)采樣的大基線稀疏光場圖像,可以提高光場角度超分辨重建的質(zhì)量,在合成光場數(shù)據(jù)集和真實(shí)光場數(shù)據(jù)集上的重建效果均得到了提高,PSNR 值的提升幅度最高達(dá)1.99%,更好地保持了重建光場圖像的細(xì)節(jié)信息及幾何一致性,在遮擋區(qū)域展現(xiàn)出更好的重建效果。但是,光場圖像的采樣方式不止一種,對于用相機(jī)陣列采樣的光場圖像,其各視角之間的基線會更寬,本文方法的重建質(zhì)量就較低。未來會繼續(xù)深入探索光場圖像包含的豐富信息,優(yōu)化本文方法,使該方法可以適用于相機(jī)陣列采樣的光場圖像。

        猜你喜歡
        深度圖光場卷積
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        利用新型光場顯微鏡高速記錄神經(jīng)元活動(dòng)和血流動(dòng)態(tài)變化
        科學(xué)(2020年5期)2020-01-05 07:03:12
        基于深度圖的3D-HEVC魯棒視頻水印算法
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        壓縮混沌光場的量子統(tǒng)計(jì)性質(zhì)研究
        一種基于局部直方圖匹配的深度編碼濾波算法
        疊加速度譜在鉆孔稀少地區(qū)資料解釋中的應(yīng)用
        科技視界(2016年2期)2016-03-30 11:17:03
        集成光場三維顯示亮度均勻性校正方法
        瘋攝影
        攝影之友(2014年3期)2014-04-21 20:21:38
        日本在线一区二区三区四区| 99re热这里只有精品最新| 国产高清无码91| 三级黄色片一区二区三区| 亚洲中文av中文字幕艳妇| 波多野42部无码喷潮在线| 狠狠躁夜夜躁无码中文字幕| 素人激情福利视频| 美女露出奶头扒开内裤的视频 | 天堂网在线最新版www中文网| 亚洲第一区二区快射影院| 日韩av水蜜桃一区二区三区 | 人妻丝袜无码国产一区| 亚洲色大成在线观看| 一级黄片草逼免费视频| 亚洲国产成人极品综合| 乱人伦中文无码视频| 91久久国产自产拍夜夜嗨| 日韩av中文字幕波多野九色| 欧美牲交a欧美牲交aⅴ| 巨熟乳波霸若妻在线播放 | 一本色道加勒比精品一区二区| 欧美成人猛片aaaaaaa| 国产精品天天狠天天看| 精品人妻一区二区三区蜜桃 | 欧美亚洲另类 丝袜综合网| 校园春色日韩高清一区二区 | 亚洲夫妻性生活免费视频| 欧美大屁股xxxxhd黑色| 免费一级黄色大片久久久| 日韩五码一区二区三区地址| 国产免费一区二区三区免费视频| 中文亚洲日韩欧美| 国内精品国产三级国产avx| 免费av片在线观看网址| 久久精品一区二区三区av| 亚洲黄片久久| 亚洲女优中文字幕在线观看| 最近日本免费观看高清视频| 久久久久久久综合日本| 亚洲男人免费视频网站|