亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        多視點(diǎn)稀疏測(cè)量的圖像繪制方法

        2021-05-22 12:18:58蘭誠(chéng)棟林宇鵬方大銳陳建
        自動(dòng)化學(xué)報(bào) 2021年4期
        關(guān)鍵詞:測(cè)量信號(hào)方法

        蘭誠(chéng)棟 林宇鵬 方大銳 陳建

        隨著當(dāng)代計(jì)算技術(shù)和多媒體技術(shù)的飛速發(fā)展,追求用戶高質(zhì)量體驗(yàn)的沉浸式視頻取得了長(zhǎng)足的發(fā)展[1?2].一個(gè)多媒體系統(tǒng),其提供的顯示和追蹤技術(shù)如果可以用來在時(shí)間和空間上忠實(shí)地再現(xiàn)現(xiàn)實(shí)世界的感覺和行為,就被稱為沉浸[3].在視覺領(lǐng)域,沉浸感就是指借助設(shè)備顯示技術(shù),能夠讓參與到虛擬環(huán)境中的人們產(chǎn)生身臨其境的臨場(chǎng)感.2016年,多媒體產(chǎn)品工業(yè)界對(duì)于虛擬現(xiàn)實(shí)VR 技術(shù)產(chǎn)生濃厚興趣,Facebook、谷歌、微軟、蘋果等大公司都開展了相關(guān)技術(shù)研發(fā),并發(fā)布了相關(guān)VR 產(chǎn)品.視頻呈現(xiàn)的歷史,正是追逐更強(qiáng)沉浸式體驗(yàn)的技術(shù)發(fā)展過程.

        為了增強(qiáng)沉浸感和互動(dòng)性,需要將現(xiàn)實(shí)世界的三維場(chǎng)景的全部信息進(jìn)行記錄,并且能夠?yàn)橛脩暨M(jìn)行無失真的重現(xiàn).計(jì)算機(jī)視覺領(lǐng)域中,場(chǎng)景的表示與重建技術(shù)是該問題主要的解決方案[4?5].

        依據(jù)原始圖像的數(shù)量可以將三維重建方法分為單視點(diǎn)圖像三維重建和多視點(diǎn)圖像三維重建.單視點(diǎn)圖像三維重建方法是基于單幅2D圖像提取場(chǎng)景深度信息來構(gòu)建立體視覺圖像[6?7].由于多視點(diǎn)圖像中包含更強(qiáng)的場(chǎng)景深度線索―視差,基于圖像的繪制技術(shù)(Image-based render,IBR)成為一種近年來較為熱門的三維重建方法.該方法拍攝圖像用于采集光線,通過繪制對(duì)這些光線進(jìn)行重組[8?9].

        采集和重建是實(shí)現(xiàn)IBR 渲染技術(shù)的主要方法.目前通用的方法需要的攝像機(jī)數(shù)量較多,采集數(shù)據(jù)量大,帶來壓縮和存儲(chǔ)的巨大壓力,同時(shí)設(shè)備及帶寬成本高昂;若是減少攝像機(jī)數(shù)量,則會(huì)導(dǎo)致重建內(nèi)容產(chǎn)生跳躍性,圖像出現(xiàn)重影和模糊現(xiàn)象.

        對(duì)IBR 技術(shù)調(diào)研可知,最先有Chai 等[10]在2000年分析了全光函數(shù)的頻帶并找到最優(yōu)的全光函數(shù)平均采樣率.在此基礎(chǔ)上,Zhang 等[11]將IBR 的譜分析擴(kuò)展到了更加通用的情況,包括非Lambertian和遮擋場(chǎng)景.他們利用一個(gè)表面全光函數(shù)首次研究了同心拼接的譜分析,初步分析了非Lambertian反射和遮擋場(chǎng)景.然而,該方法在對(duì)全光函數(shù)進(jìn)行分析時(shí),并沒有指出在何種條件下全光函數(shù)為帶限信號(hào).針對(duì)該問題,Do等[12?13]的論文指出:除非場(chǎng)景表面是平的,否則全光函數(shù)的頻帶不是帶限的.Zhou 等[14]擴(kuò)展了對(duì)非Lambertian 反射的光譜分析.通過將反射解析光場(chǎng)作為紋理信息,建立了一個(gè)新的非Lambertian反射場(chǎng)景模型.2014年,Gilliam 等[15]首次提出了有限斜面的全光譜表達(dá)式,并以此為基礎(chǔ)對(duì)復(fù)雜場(chǎng)景進(jìn)行合成.

        2000年~2014年的研究大多將信號(hào)變換到傅里葉頻域進(jìn)行處理,通過全光函數(shù)建模,利用奈奎斯特采樣定理推導(dǎo)最優(yōu)的采樣率,方法較為傳統(tǒng).近年來,許多新技術(shù)被應(yīng)用于通過稀疏視點(diǎn)圖像估計(jì)稠密視點(diǎn)圖像的應(yīng)用中.

        2015年,Vagharshakyan等提出了一種重建密集采樣光場(chǎng)的方法[16].通過一個(gè)由多視點(diǎn)校正相機(jī)采集得到的稀疏圖像對(duì)光場(chǎng)進(jìn)行重建,而不需要對(duì)場(chǎng)景深度進(jìn)行精確的估計(jì),所需的中間視圖利用極化平面圖像在剪切域里的稀疏性進(jìn)行合成.

        2016年,Heber 等[17]利用卷積神經(jīng)網(wǎng)絡(luò)來預(yù)測(cè)光數(shù)據(jù)(Light field,LF)的深度.該方法根據(jù)2D超平面的方向?qū)W習(xí)LF和相應(yīng)4D深度場(chǎng)以表示端到端的映射.然后通過應(yīng)用更高階的正則化在后處理步驟中進(jìn)一步細(xì)化所獲得的預(yù)測(cè).

        2016年,Kalantari等[18]基于深度學(xué)習(xí)的方法使用兩個(gè)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行視差和顏色估計(jì),LF的4個(gè)角視圖用于合成中間視圖.

        2017年,Unde等[19]提出了基于迭代加權(quán)L1范數(shù)最小化的圖像的塊壓縮感知框架重構(gòu)算法和基于塊的相關(guān)圖像和視頻幀聯(lián)合重建算法,編碼復(fù)雜度低,具有良好的壓縮性能.

        2017年,Ansari等[20]提出了一種基于提升的、可分離的、圖像匹配的小波聯(lián)合框架,并將其應(yīng)用于圖像的重建.

        2018年Vagharshakyan等[21]基于壓縮感知框架的重建方法,利用剪切波更靈活地對(duì)傅里葉頻譜進(jìn)行濾波,以低于奈奎斯特采樣定理的采樣率進(jìn)行稀疏視點(diǎn)的圖像重建,效果較好.

        最新前沿方法[21]利用剪切波作為稀疏基,通過隨機(jī)測(cè)量矩陣獲得低維測(cè)量信號(hào),基于壓縮感知求解方法重建稠密多視點(diǎn)圖像,此時(shí),測(cè)量信號(hào)包含了原始稠密多視點(diǎn)圖像盡可能多的信息熵[22].現(xiàn)實(shí)VR 場(chǎng)景圖像重建等應(yīng)用場(chǎng)景中,需要通過攝像機(jī)采集稀疏視點(diǎn)圖像,并將它們作為壓縮感知框架中的低維信號(hào).顯然,低維信號(hào)需要與測(cè)量矩陣相對(duì)應(yīng),若是采用隨機(jī)測(cè)量矩陣,無法采集相應(yīng)的低維測(cè)量信號(hào).本文提出構(gòu)建稀疏視點(diǎn)測(cè)量矩陣,基于該測(cè)量矩陣自適應(yīng)構(gòu)建稠密視點(diǎn)圖像的稀疏基,并使之滿足壓縮感知框架中獲取唯一精確解的條件.

        1 基于壓縮感知的多視點(diǎn)測(cè)量與稀疏基構(gòu)建

        1.1 壓縮感知算法框架

        根據(jù)壓縮感知理論,設(shè)原始信號(hào)為變量x,測(cè)量矩陣為Φ,采樣后的信號(hào)為y,則:

        如果原始信號(hào)x是稀疏信號(hào),則可通過求解以下式子獲得信號(hào)x近似無失真的重建信號(hào):

        但是原始信號(hào)x通常不滿足稀疏性,我們假設(shè)存在一個(gè)基Ψ,使得:

        其中,s是稀疏的,則將式(3)代入式(1)得:

        顯然,上面的公式需要先確定采樣矩陣Φ和稀疏基Ψ,再通過稀疏表示求解方法獲得.

        1.2 動(dòng)機(jī)與思路

        由式(6)可知,稀疏感知算法能夠從觀測(cè)值y中,通過稀疏優(yōu)化求解方法,估計(jì)出原始信號(hào)x.由Candes-Romberg-Tao定理[23]可知,式(6)中傳感矩陣ΦΨ必須滿足RIP(Restricted isometry property)條件才能求得唯一解.由隨機(jī)測(cè)量矩陣文獻(xiàn)[24]可知,隨機(jī)測(cè)量矩陣與確定信號(hào)基(如小波基、傅里葉基)之間很大概率是不相關(guān)的,低相關(guān)性保障了RIP條件的滿足.并且,隨機(jī)測(cè)量矩陣使得觀測(cè)數(shù)據(jù)的不確定性最大,表明數(shù)據(jù)含有的信息熵最大.因此,采用了壓縮感知框架重建多視點(diǎn)圖像的前沿方法[21],觀測(cè)矩陣Φ采用隨機(jī)測(cè)量矩陣,Ψ取剪切波基.然而,在稠密多視點(diǎn)圖像或視頻的應(yīng)用場(chǎng)景中(如光場(chǎng)重建,VR 無縫漫游等),相鄰視點(diǎn)的間距小至幾厘米,一個(gè)幾十平米的空間就需要成百上千的攝像頭進(jìn)行拍攝,顯然,這導(dǎo)致成本高昂且數(shù)據(jù)量巨大.因此,需要通過采集稀疏視點(diǎn)圖像用于估計(jì)出稠密視點(diǎn)圖像.

        如圖1所示,假設(shè)奇數(shù)視點(diǎn)為稀疏視點(diǎn),偶數(shù)視點(diǎn)為待估計(jì)的虛擬視點(diǎn),所有視點(diǎn)為稠密視點(diǎn).其中,定義SVEPI表示由稀疏視點(diǎn)獲得的對(duì)極平面圖像(Epipolar-plane image,EPI),DVEPI表示由稠密視點(diǎn)得到的EPI.前沿方法將稠密視點(diǎn)映射成壓縮感知框架中的原始信號(hào)x,并認(rèn)為稀疏視點(diǎn)圖像為測(cè)量信息.但是,在隨機(jī)測(cè)量矩陣條件下,測(cè)量信號(hào)值包含了所有稠密視點(diǎn)信息,而SVEPI 信息僅僅來源于稀疏視點(diǎn)信號(hào),兩者不一致.如果將SVEPI作為測(cè)量值,顯然會(huì)導(dǎo)致估計(jì)的原始信號(hào)不準(zhǔn)確.因此,需要重新構(gòu)建稀疏視點(diǎn)測(cè)量矩陣,使得測(cè)量值與稀疏視點(diǎn)采集的信息一致.同時(shí),新的測(cè)量矩陣與稀疏基應(yīng)滿足壓縮感知方法獲取唯一精確解的RIP條件.

        圖1 基于壓縮感知框架的稠密多視點(diǎn)圖像重建原理Fig.1 Principle of dense multi-view image reconstruction based on compressed sensing framework

        由圖1可看出,稀疏視點(diǎn)信號(hào)僅僅是抽取稠密視點(diǎn)圖像的局部位置信息,因此,首先將稠密視點(diǎn)圖像按序列重組方式轉(zhuǎn)化成向量,然后通過測(cè)量矩陣線性操作(在抽取信息位置設(shè)置1,如圖2中矩陣Φ的顏色塊;其他位置設(shè)0,如圖2中矩陣Φ的白色塊),使得原始信號(hào)經(jīng)過設(shè)計(jì)的稀疏視點(diǎn)測(cè)量矩陣,獲得與稀疏視點(diǎn)采集信息相一致的測(cè)量值.此外,基于設(shè)計(jì)的稀疏測(cè)量矩陣,為了使壓縮感知框架能夠求解出唯一精確解需最大化滿足RIP條件.由于RIP常數(shù)衡量了測(cè)量矩陣Φ與基矩陣Ψ乘積中任意兩列之間的正交程度,提出構(gòu)建稀疏基函數(shù)的列相關(guān)性代價(jià)函數(shù)作為RIP條件約束,同時(shí)設(shè)計(jì)基函數(shù)Ψ線性表示系數(shù)的稀疏約束項(xiàng),求解獲得能夠基于測(cè)量矩陣自適應(yīng)的最優(yōu)稀疏基矩陣.

        2 多視點(diǎn)稀疏測(cè)量的圖像繪制算法

        2.1 多視點(diǎn)信號(hào)的對(duì)極平面圖像構(gòu)建

        圖2 構(gòu)建稀疏視點(diǎn)測(cè)量矩陣與自適應(yīng)稀疏基函數(shù)Fig.2 Constructing sparse viewpoint measurement matrix and adaptive sparse basis function

        由于對(duì)極平面原理,不同視點(diǎn)拍攝的同一場(chǎng)景對(duì)象,都會(huì)呈現(xiàn)在EPI圖像的某一斜線上,該斜率與視差有關(guān),并直接取決于對(duì)象與拍攝視點(diǎn)之間的景深.因此,可以利用對(duì)極平面圖像(EPI)將不同視點(diǎn)中相應(yīng)對(duì)象的信息聚集到同一圖像,使得進(jìn)一步的處理能夠更易于利用視點(diǎn)間的相關(guān)性.基于以上分析,我們選擇采用EPI來作為壓縮感知框架中輸入信號(hào)的表示方式.對(duì)極平面圖像首先由Bolles等[25]提出.與自然圖像相比,EPI 具有特定的斜線紋理結(jié)構(gòu),如圖3所示.EPI構(gòu)建方法如下所述.

        設(shè)K個(gè)視點(diǎn)圖像分別為I1,I2,I3,···,IK.定義矩陣Am是第m行都為1,其他行都為0的矩陣,矩陣Am的大小等于圖像大小,表示如下:

        則,EPI 圖可以表示為:

        其中,T代表矩陣轉(zhuǎn)置,m代表多視點(diǎn)圖像的第m行,K是代表多視點(diǎn)圖像總個(gè)數(shù).

        2.2 多視點(diǎn)間隔采樣的測(cè)量矩陣構(gòu)建

        由前述可知,壓縮感知框架中的隨機(jī)測(cè)量矩陣并不能適用于現(xiàn)實(shí)場(chǎng)景的運(yùn)用,為了實(shí)現(xiàn)攝像機(jī)位置與觀測(cè)矩陣相對(duì)應(yīng),提出了采用等間隔采樣矩陣作為測(cè)量矩陣的方法.

        我們對(duì)EPI圖的重建是基于分塊進(jìn)行的,測(cè)量矩陣的設(shè)計(jì)原則如下:能夠從原始信號(hào)EPI 分塊向量中提取出對(duì)應(yīng)視點(diǎn)位置采集到的信息.我們將稀疏測(cè)量矩陣Φ定義為:

        圖3 EPI 及其頻譜示意圖Fig.3 EPI and its spectrum diagram

        采用等間隔矩陣后,便可以設(shè)計(jì)出與矩陣相對(duì)應(yīng)的攝像機(jī)擺放位置,也是采用等間隔擺放的方式,同時(shí),因?yàn)槭菧y(cè)量矩陣的間隔采樣特性,測(cè)量值維度小于原始信號(hào),攝像機(jī)數(shù)量可以相應(yīng)減少.

        2.3 雙約束代價(jià)構(gòu)建與求解

        不失一般性,我們?cè)O(shè)被測(cè)信號(hào)為x,測(cè)量矩陣為Φ和稀疏基Ψ,由前面可知,在多視點(diǎn)圖像采集和重建中,測(cè)量矩陣Φ是設(shè)定已知的,相關(guān)方法通常利用正則性約束稀疏求解[26?27].我們的任務(wù)是設(shè)計(jì)最優(yōu)的稀疏基Ψ,使其滿足兩個(gè)條件.條件1:被測(cè)信號(hào)盡量被分解成稀疏的系數(shù)s;條件2:能夠利用稀疏優(yōu)化求解方法獲得精確解.

        為了滿足條件1,我們構(gòu)建稀疏約束正則項(xiàng):

        其中,y為采集獲得的信號(hào),我們使用EPI圖的分塊重組成列向量賦值y,Φ賦值為已知的間隔測(cè)量矩陣,ε為稀疏度,Ψ為待求解矩陣變量.

        為了滿足條件2,我們引入傳感矩陣D=ΦΨ,根據(jù)測(cè)不準(zhǔn)定理可知[24],當(dāng)時(shí),L0范數(shù)問題等價(jià)于L1范數(shù)問題,且它們有唯一解.我們所設(shè)計(jì)的最優(yōu)稀疏基Ψ,必須使得相關(guān)系數(shù)系數(shù)μ(D)最小.根據(jù)相干性的定義有,設(shè)dddi,dddj為列歸一化的原子,則:

        此外,根據(jù)Welch定理[21]可知,相干系數(shù)存在下界.設(shè)D ∈RM×K,其中M

        顯然,根據(jù)相干性的定義,我們只需要使得矩陣G上的元素逼近Welch下界,由于D是列向量歸一化矩陣,因此,G對(duì)角線元素都為1.我們構(gòu)建相干約束正則項(xiàng)為:

        綜上所述,我們計(jì)算求解多視點(diǎn)EPI 分塊稀疏基的代價(jià)函數(shù)為:

        其中,λ為平滑因子,可由用戶設(shè)置.

        由于有兩個(gè)變量,為了求解式(15),需要分為兩個(gè)階段.

        第一階段,假設(shè)Ψ為已知,s為未知變量.這時(shí),相干性正則項(xiàng)為常量,在最小化代價(jià)函數(shù)中不起作用,因此,求解代價(jià)函數(shù)(15)等價(jià)于求解函數(shù):

        我們用正交匹配追蹤算法(Orthogonal matching pursuit,OMP)求解.

        第二階段,我們利用求解獲得的s設(shè)定為常量,將Ψ設(shè)定為變量,則求解(15)等價(jià)于:

        由于共軛梯度法是求解優(yōu)化問題的常用方法,且具有簡(jiǎn)單高效的特點(diǎn),本文利用共軛梯度法求解式(17).設(shè):

        通過矩陣求導(dǎo)可得:

        代入共軛梯度法求解,從而獲得原始信號(hào):

        2.4 算法流程

        綜上所述,多視點(diǎn)稀疏測(cè)量約束的圖像繪制算法如圖4所示,首先輸入采集的稀疏多視點(diǎn)圖像,利用EPI模型將不同視點(diǎn)的對(duì)應(yīng)信息集中表示,構(gòu)建稀疏視點(diǎn)測(cè)量矩陣,通過建立稀疏性和傳感矩陣列獨(dú)立性的雙約束代價(jià)求解稀疏基,將獲得的稀疏基和構(gòu)建的測(cè)量矩陣代入壓縮感知框架求解稀疏系數(shù),最后估計(jì)出稠密多視點(diǎn)圖像.其中,雙約束代價(jià)的稀疏基求解算法如下:

        圖4 圖像繪制算法流程Fig.4 Image rendering algorithm flow

        任務(wù):通過求解下式,找到最好的稀疏基矩陣用于表示低維數(shù)據(jù)樣本yyy:

        初始化:設(shè)置稀疏基矩陣Ψ(0)∈Rn×K,稀疏視點(diǎn)測(cè)量矩陣Φs,設(shè)J=0.

        重復(fù)以下兩個(gè)階段直到收斂或滿足退出條件:

        1)系數(shù)求解階段:使用OMP正交匹配追蹤算法求解下式,計(jì)算稀疏表示系數(shù)s.

        2)基函數(shù)更新階段:固定前一階段獲得的s,利用共軛梯度法,求解下式,

        同時(shí)更新J值,即J=J+1.

        3 實(shí)驗(yàn)

        為了驗(yàn)證本文提出算法的有效性,本實(shí)驗(yàn)通過Matlab實(shí)現(xiàn)了多視點(diǎn)稀疏測(cè)量的圖像重建算法,并利用了斯坦福提供的公共測(cè)試序列[28]分析算法的適用性.

        基于分塊的稀疏求解方法常用于圖像恢復(fù)[29],因而,我們對(duì)EPI圖像進(jìn)行分塊處理.針對(duì)分塊大小的選擇,分別測(cè)試了由2×2、4×4、8×8三種塊大小訓(xùn)練生成的稀疏表示基的重建誤差.其中,稀疏表示基的向量個(gè)數(shù)非常重要,需要測(cè)試基向量個(gè)數(shù)變化對(duì)于重建結(jié)果的影響.因此,該參數(shù)測(cè)試實(shí)驗(yàn)分析了不同分塊情況下,重建誤差隨著基向量個(gè)數(shù)變化的曲線情況,如圖5所示.其中,重建誤差用原始圖像與重建圖像的均方根誤差衡量.

        從結(jié)果可以看出,對(duì)于2×2的分塊大小,基向量個(gè)數(shù)的變化對(duì)于重建誤差沒有很大影響;對(duì)于4×4和8×8的分塊大小,相同基向量情況下,重建誤差隨著塊增大逐漸變小,但誤差減小的幅度逐漸趨于平緩;8×8分塊具有更低的重建誤差.因此,本文采用8×8作為實(shí)驗(yàn)的分塊大小.

        為了驗(yàn)證本文算法的有效性,對(duì)比測(cè)試了三種算法:基于傅里葉基的壓縮傳感矩陣算法[9]、基于小波基的壓縮傳感矩陣算法[19]以及本文提出的基于多視點(diǎn)稀疏測(cè)量約束的壓縮傳感矩陣算法.算法的參數(shù)設(shè)置如表1所示:1)三種算法的輸入為相同的8組斯坦福公共測(cè)試序列;2)壓縮傳感矩陣分別采用了傳統(tǒng)的基于傅里葉基的壓縮傳感矩陣、前沿方法的基于小波基的壓縮傳感矩陣、本文提出的基于多視點(diǎn)稀疏測(cè)量約束的壓縮傳感矩陣,該部分是導(dǎo)致三種算法差異的主要參數(shù);3)采樣點(diǎn)數(shù)均為原采樣點(diǎn)數(shù)量的一半;4)測(cè)量均使用本文提出的多視點(diǎn)間隔測(cè)量矩陣.

        圖5 基向量個(gè)數(shù)與重建誤差的關(guān)系Fig.5 The relationship between the number of base vectors and reconstruction error

        實(shí)驗(yàn)結(jié)果如圖6主觀質(zhì)量對(duì)比圖所示,其中圖6(a)為原始圖像,為了便于分析圖片細(xì)節(jié),用方框截出來部分圖片放大進(jìn)行分析;圖6(b)為基于傅里葉基的還原結(jié)果,圖6(c)為基于小波基的重建結(jié)果,圖6(d)為基于本文重多視點(diǎn)稀疏測(cè)量約束方法的重建結(jié)果.在與原始圖像的對(duì)比中可以看到,基于小波基的重建結(jié)果整體圖像較為模糊,有重影等現(xiàn)象存在,這與理論結(jié)果相符;基于小波基的重建圖像整體清晰度高于基于傅里葉基的重建結(jié)果,但是圖像邊緣位置容易模糊,且有少部分圖像出現(xiàn)重影;基于本文方法的重建結(jié)果整體圖像最為清晰,邊緣部分基本上無失真還原,無重影現(xiàn)象.

        表2和表3顯示了用PSNR 和SSIM兩種方法評(píng)價(jià)的重建客觀質(zhì)量結(jié)果.從中可以清晰地看到,基于傅里葉基方法的重建圖像PSNR、SSIM值最差,基于小波基的方法對(duì)于PSNR、SSIM有所提高,而用本文方法重建出來的PSNR、SSIM結(jié)果最好,這與主觀圖像實(shí)驗(yàn)結(jié)果相符.

        表1 算法參數(shù)說明Table 1 Algorithm parameter description

        圖6 主觀質(zhì)量對(duì)比圖((a)原始圖像;(b)傅里葉頻域?yàn)V波;(c)小波基稀疏重建;(d)本文重建方法)Fig.6 Subjective quality comparison chart((a)Original image;(b)Fourier frequency domain filtering;(c)Wavelet base sparse reconstruction;(d)Reconstruction method)

        表2 重建圖像客觀質(zhì)量PSNR (平均值)比較Table 2 Comparison of objective quality PSNR (average)of reconstructed images

        表3 重建圖像客觀質(zhì)量SSIM(平均值)比較Table 3 Comparison of objective quality SSIM(average)of reconstructed images

        4 結(jié)語

        本文描述了一種從給定的稀疏視點(diǎn)通過相應(yīng)的測(cè)量矩陣訓(xùn)練稀疏表示基,優(yōu)化求解原始EPI圖分塊,進(jìn)而重建稠密視點(diǎn)圖象的方法.本文算法構(gòu)建了均勻間隔采樣的稀疏視點(diǎn)測(cè)量矩陣,并基于該矩陣約束訓(xùn)練稀疏基,進(jìn)而求解基于多視點(diǎn)稀疏測(cè)量約束傳感矩陣的壓縮感知框架,重建稠密多視點(diǎn)圖像.通過仿真實(shí)驗(yàn)結(jié)果表明,本文提出的方法在給定少量視點(diǎn)情況下,重建稠密視點(diǎn)圖象是非常有效的.提出的重建算法可應(yīng)用于虛擬視點(diǎn)合成、多視點(diǎn)視頻壓縮后處理以及虛擬現(xiàn)實(shí)等.

        猜你喜歡
        測(cè)量信號(hào)方法
        信號(hào)
        鴨綠江(2021年35期)2021-04-19 12:24:18
        完形填空二則
        把握四個(gè)“三” 測(cè)量變簡(jiǎn)單
        滑動(dòng)摩擦力的測(cè)量和計(jì)算
        基于FPGA的多功能信號(hào)發(fā)生器的設(shè)計(jì)
        電子制作(2018年11期)2018-08-04 03:25:42
        滑動(dòng)摩擦力的測(cè)量與計(jì)算
        可能是方法不對(duì)
        用對(duì)方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        測(cè)量
        基于LabVIEW的力加載信號(hào)采集與PID控制
        亚洲国产成人久久三区| 国产一区二区三区日韩精品| 日韩精品一区二区亚洲观看av| 亚洲天堂av在线免费看| 蜜桃久久综合一区二区| 国产爆乳无码一区二区麻豆| 国产99久久久国产精品免费看| www国产无套内射com| 婷婷成人亚洲| 亚洲色图在线视频免费观看| 色综合中文字幕综合网| 精品人妻少妇av中文字幕| 精品国产av一区二区三区| vr成人片在线播放网站| 国产福利小视频91| 美女露出奶头扒开内裤的视频 | 久久久国产精品| 亚洲av午夜福利精品一区| 日本高清aⅴ毛片免费| 国产精彩刺激对白视频| 午夜精品人妻中字字幕| 一二三四五区av蜜桃| 少妇无码av无码专区线| 亚洲阿v天堂2018在线观看| 亚洲中文有码一区二区| 日本熟妇中出高潮视频| 日日麻批免费40分钟无码| 亚洲成av人片在线观看无码| 亚洲成在人网av天堂| 熟女免费观看一区二区 | 国产精品泄火熟女| 2021久久最新国产精品| 丰满人妻无套内射视频| 亚洲av成人av三上悠亚| 无码av不卡一区二区三区| 精品性影院一区二区三区内射| 亚洲精品一区二区三区av| 麻豆91蜜桃传媒在线观看| 欧美熟妇性xxx交潮喷| 午夜福利电影| 大白屁股流白浆一区二区三区|