深度圖
- 基于T-CNN 的3D-HEVC 深度圖幀內(nèi)快速編碼算法①
而不能使用基于深度圖的繪制技術(shù)(depth image based rendering,DIBR)[4]來合成虛擬視點(diǎn),相比之下加入了深度圖的3D-HEVC 標(biāo)準(zhǔn)的顯示效果更好且范圍更廣。然而,3D-HEVC 標(biāo)準(zhǔn)需要對多個視點(diǎn)中的紋理圖和對應(yīng)深度圖進(jìn)行編碼,這導(dǎo)致數(shù)據(jù)量急劇增加。該標(biāo)準(zhǔn)下各個視點(diǎn)中的紋理圖和深度圖仍以HEVC 標(biāo)準(zhǔn)的編碼框架為基礎(chǔ)[5]。H.265/HEVC 的編碼復(fù)雜度相對于H.264/AVC 增加了253%,其中基于四叉樹結(jié)構(gòu)的編碼單
高技術(shù)通訊 2023年10期2023-11-20
- 基于多源數(shù)據(jù)關(guān)聯(lián)融合的交通圖像深度補(bǔ)全技術(shù)
補(bǔ)全技術(shù)可填補(bǔ)深度圖像中的缺失部分或不準(zhǔn)確部分,從而提高路面深度估計(jì)的準(zhǔn)確性。但基于圖像的深度補(bǔ)全仍存在一定挑戰(zhàn):1)深度圖可能受到天氣、光照、遮擋和反射等多種干擾和影響,攝像機(jī)和毫米波雷達(dá)獲取的深度圖可能包含缺失或不準(zhǔn)確部分,無法保證深度圖的質(zhì)量和完整性;2)路面上存在的障礙物使深度估計(jì)可能受到一定干擾。為解決以上問題,基于多源異構(gòu)數(shù)據(jù)融合和深度學(xué)習(xí)的深度補(bǔ)全等技術(shù)應(yīng)運(yùn)而生。深度補(bǔ)全是計(jì)算機(jī)視覺領(lǐng)域的重要研究方向之一,目的是利用稀疏的深度數(shù)據(jù)(例如毫米波
電子科技 2023年10期2023-10-21
- 基于場景對象注意與深度圖融合的深度估計(jì)
注意機(jī)制與加權(quán)深度圖融合的深度估計(jì)算法。利用卷積網(wǎng)絡(luò)計(jì)算特征圖任意位置之間的相似度向量,以增大網(wǎng)絡(luò)的感受野并增強(qiáng)特征圖的上下文信息,有效解決對象缺失的問題。將不同網(wǎng)絡(luò)層的深度圖進(jìn)行融合,在融合之前利用權(quán)重生成器為每一個深度圖賦予權(quán)重,提高深度圖的預(yù)測精度。1 相關(guān)工作自監(jiān)督單目深度估計(jì)是深度估計(jì)算法研究的主流。GODARD等[6]提出的Monodepth2 模型具有較優(yōu)的深度估計(jì)性能。為進(jìn)一步提升算法的性能,GUIZILINI等[7]提出一種新的自監(jiān)督單目
計(jì)算機(jī)工程 2023年2期2023-02-20
- 基于多分支網(wǎng)絡(luò)的深度圖幀內(nèi)編碼單元快速劃分算法
理圖及其對應(yīng)的深度圖組成,其采用基于深度圖像的繪制(Depth Image-Based Rendering, DIBR)[6]技術(shù)實(shí)現(xiàn)任意虛擬視點(diǎn)的合成,通過減少視點(diǎn)數(shù)量來降低待編碼視頻的數(shù)據(jù)量。MVD視頻格式的出現(xiàn)緩解了因視點(diǎn)數(shù)增加導(dǎo)致數(shù)據(jù)量激增的問題,是目前最為有效的3D視頻編碼格式。與高效視頻編碼(High Efficiency Video Coding, HEVC)[7]標(biāo)準(zhǔn)相比,3D-HEVC引入了深度圖。與紋理圖不同,深度圖表示物體與相機(jī)的距離
電子與信息學(xué)報 2022年12期2022-12-28
- 多視圖幾何輕量級三維重建算法
方法相結(jié)合生成深度圖,在面對紋理信息較少區(qū)域和稀疏結(jié)構(gòu)時比其他算法效果更好,但也存在不能正確判斷包含樹木或草地的植被區(qū)域、整體速度易受卷積量和模型深度影響等問題?;谏疃葘W(xué)習(xí)的多視圖幾何方法可顯著改進(jìn)傳統(tǒng)計(jì)算幾何在弱紋理、稀疏結(jié)構(gòu)、反射面和透明面存在的局限性。文獻(xiàn)[4-5]提出了一種端到端的MVSNet神經(jīng)網(wǎng)絡(luò)模型,通過2D CNN特征提取網(wǎng)絡(luò)得到成本量,然后通過3D CNN對成本量進(jìn)行正則化平滑調(diào)整,能極大地提高三維重建的整體質(zhì)量,但在計(jì)算時會產(chǎn)生大量的
重慶郵電大學(xué)學(xué)報(自然科學(xué)版) 2022年6期2022-12-28
- 紋理-深度圖共同優(yōu)化的3D-HEVC幀內(nèi)快速算法
提出了多視點(diǎn)加深度圖(Multi-view Video Plus Depth,MVD)[2]的視頻格式。MVD 視頻格式中包括來自不同視點(diǎn)的紋理圖信息和對應(yīng)的深度圖信息,其余虛擬視點(diǎn)可用深度圖渲染(Depth Image Based Rendering,DIBR)技術(shù)[3]進(jìn)行合成。高效視頻編碼(High Efficiency Video Coding,HEVC)[4]于2013 年4 月頒布,其壓縮性能在上一個編碼標(biāo)準(zhǔn)的基礎(chǔ)上提高了一倍。3D-HEVC[
信號處理 2022年10期2022-11-16
- 基于多尺度特征遞歸卷積的稠密點(diǎn)云重建網(wǎng)絡(luò)
網(wǎng)絡(luò)生成的初始深度圖進(jìn)行優(yōu)化,使深度圖表述更準(zhǔn)確。實(shí)驗(yàn)結(jié)果表明,在DTU數(shù)據(jù)集上取得了優(yōu)異的結(jié)果,該網(wǎng)絡(luò)在擁有較高深度圖估計(jì)精度的同時還節(jié)約了硬件資源,且能擴(kuò)展到航拍影像的實(shí)際工程之中。深度學(xué)習(xí);計(jì)算機(jī)視覺;遙感測繪;三維重建;多視圖立體;遞歸神經(jīng)網(wǎng)絡(luò)基于多視圖立體(multi-view stereo,MVS)信息的稠密點(diǎn)云重建是計(jì)算機(jī)視覺的經(jīng)典研究課題,是虛擬現(xiàn)實(shí)、智能駕駛和考古研究等多個領(lǐng)域中的關(guān)鍵技術(shù)[1]。傳統(tǒng)的稠密重建方法[2-4]利用計(jì)算相似性
圖學(xué)學(xué)報 2022年5期2022-11-02
- RGB-D相機(jī)深度圖與彩色圖配準(zhǔn)方法研究
信息,需要進(jìn)行深度圖與彩色圖的配準(zhǔn)。SIFT、SURF、RANSAC算法等常見的圖像配準(zhǔn)方法一般用于二維彩色圖像。龍勇志使用卷積神經(jīng)網(wǎng)絡(luò)提取紅外圖像與可見光圖像的共有特征,實(shí)現(xiàn)了紅外圖像與可見光圖像的配準(zhǔn)。針對深度圖與彩色圖的配準(zhǔn),彭麗通過使用NPDM算法,以迭代的方式獲取深度圖與彩色圖間的配準(zhǔn)參數(shù)。Mikhelson等提出了一種用于RGB-D相機(jī)的配準(zhǔn)方法,將深度圖重建為三維點(diǎn)云數(shù)據(jù),分別提取點(diǎn)云中的角點(diǎn)與彩色圖的角點(diǎn),獲得深度圖與彩色圖的對應(yīng)關(guān)系。宋希
現(xiàn)代計(jì)算機(jī) 2022年6期2022-05-25
- 基于非對稱融合和關(guān)聯(lián)上下文的RGBD語義分割算法研究
器的迅速發(fā)展,深度圖數(shù)據(jù)的獲取變得越來越容易了。深度圖信息具有3D圖像的幾何信息,能夠映射真實(shí)世界中的物體,因此可以作為具有色彩和紋理的RGB圖像的補(bǔ)充。然而,如何利用深度圖信息并且將其融入到其他信息流,仍是沒有解決的問題。早期的研究試圖使用雙通路網(wǎng)絡(luò),分別提取RGB和深度圖的特征,然后在最后一層融合它們,再取得分割結(jié)果。這種晚期融合的策略融合兩個模態(tài)的時機(jī)太晚,導(dǎo)致RGB分支不能在早期階段取得它所需要的幾何信息作為引導(dǎo)。后來,研究者設(shè)法在多個階段將深度圖
現(xiàn)代計(jì)算機(jī) 2022年1期2022-04-14
- 基于多尺度特征融合的快速單目圖像深度估計(jì)
計(jì)的研究主要從深度圖的精度和網(wǎng)絡(luò)的推理速度2個方面進(jìn)行。在深度圖的精度方面,文獻(xiàn)[6]首次利用卷積神經(jīng)網(wǎng)絡(luò)提取的特征和雙尺度深度網(wǎng)絡(luò)擬合訓(xùn)練圖片與其對應(yīng)的深度值之間的關(guān)系;文獻(xiàn)[7]利用多尺度融合和同尺度內(nèi)部剔除圖像中的噪聲來提高深度圖的精度;文獻(xiàn)[8]受ResNet啟發(fā),設(shè)計(jì)了編碼器的多層級融合結(jié)構(gòu)來提升深度圖的細(xì)節(jié);文獻(xiàn)[9]考慮到圖像中不同物體的尺寸,使用尺度特征匯集策略來提升深度圖的精度。以上幾種方法使得深度圖精度有很大提高,但是也導(dǎo)致深度估計(jì)模型
- 基于卷積神經(jīng)網(wǎng)絡(luò)的深度圖修復(fù)
攝像頭采集到的深度圖會出現(xiàn)大小不一的空洞,以及豬只在活動過程中被欄桿遮擋的情況。殘缺的深度圖會導(dǎo)致后續(xù)的視覺任務(wù)精度下降甚至失敗。關(guān)于深度圖修復(fù)的算法研究發(fā)展大致分為2個階段,一是基于濾波的傳統(tǒng)算法,二是基于數(shù)據(jù)驅(qū)動的深度學(xué)習(xí)算法。傳統(tǒng)濾波算法主要有均值濾波、中值濾波、雙邊濾波和聯(lián)合雙邊濾波,之后的算法大部分是基于此進(jìn)行改進(jìn)。雙邊濾波在高斯濾波的基礎(chǔ)上同時考慮了空間上的距離以及像素值之間的距離,使修復(fù)后的圖像保留了結(jié)構(gòu)和紋理信息。聯(lián)合雙邊濾波在雙邊濾波的基
應(yīng)用科技 2022年1期2022-03-25
- 深度圖像及其修復(fù)在煤礦井下的研究
了很多的價值,深度圖像也成為獲取三維場景信息的一種方法,并且運(yùn)用的很廣泛。本文提出深度圖像與煤礦井下相結(jié)合,可以對井下環(huán)境真實(shí)距離進(jìn)行獲取。這樣就可以更好的掌握井下的三維場景信息,提高工作效率,并且在危險發(fā)生或?qū)⒁l(fā)生時快速的進(jìn)行避險。1 深度圖像深度圖像也被稱之為距離圖像,它是反應(yīng)環(huán)境內(nèi)各個點(diǎn)到傳感器之間的距離的圖像,采集到的深度用像素的值的大小來表示,通過處理將像素的值轉(zhuǎn)化為灰度,灰度越深,距離傳感器距離越近,灰度越淺,說明距離傳感器越遠(yuǎn)。深度圖采集到
電子測試 2022年4期2022-03-17
- 結(jié)合LiDAR與RGB數(shù)據(jù)構(gòu)建稠密深度圖的多階段指導(dǎo)網(wǎng)絡(luò)
,進(jìn)而得到稠密深度圖。然而該方法在遠(yuǎn)處物體和物體邊緣處激光雷達(dá)獲得的深度信息存在歧義,很難在這些位置上推理出缺失的深度信息。研究表明,利用RGB信息可以有效地構(gòu)建稠密深度圖(黃軍 等,2019;周大可 等,2021)。一些學(xué)者提出采用RGB圖像引導(dǎo)稀疏深度稠密化,通過RGB圖像中蘊(yùn)含的豐富信息提高稠密深度圖構(gòu)建質(zhì)量。Wang等人(2018)通過構(gòu)建多尺度融合模塊分別融合不同尺度下的RGB圖像和稀疏深度信息,學(xué)習(xí)它們之間的相關(guān)性,從而提取深度信息。Ma等人(
中國圖象圖形學(xué)報 2022年2期2022-02-28
- 結(jié)合高低頻分解和多尺度兩級融合策略的單一深度圖去噪方法
深度相機(jī)獲得的深度圖分辨率遠(yuǎn)遠(yuǎn)小于對應(yīng)彩色圖的分辨率,并且包含了很多的噪聲像素點(diǎn)和無效的深度值,從而導(dǎo)致拍攝到的深度圖質(zhì)量不能滿足實(shí)際應(yīng)用需求.為了解決該問題,很多的學(xué)者致力于研究深度圖增強(qiáng)去噪方法[3-7].目前,圖像的去噪方法大致可以分為兩類:傳統(tǒng)的圖像去噪方法和基于深度學(xué)習(xí)的圖像去噪方法.由于早期的圖像去噪方法往往只利用圖像的局部空間相關(guān)性來實(shí)現(xiàn)圖像的加權(quán)平均濾波,因此這些方法無法很好地恢復(fù)圖像的細(xì)節(jié)信息.例如,葉建雄等[8]采用雙邊濾波的方法在一定
北京交通大學(xué)學(xué)報 2022年5期2022-02-03
- 基于FSCD-CNN的深度圖像快速幀內(nèi)預(yù)測模式選擇算法
了多視點(diǎn)視頻加深度圖的編碼格式,可以同時對多個視點(diǎn)的紋理圖以及相應(yīng)的深度圖進(jìn)行編碼,從而提高了3D 視頻的編碼性能。在幀內(nèi)編碼中,3D-HEVC 不僅保留了原有HEVC 的四叉樹的編碼結(jié)構(gòu)和35 種幀內(nèi)預(yù)測模式,而且針對深度圖的幀內(nèi)預(yù)測增加了深度建模模式(depth modeling mode, DMM),從而更有效地提高了編碼性能。但由于3D-HEVC 使用的四叉樹結(jié)構(gòu)即要對所有編碼單元(coding uint, CU)進(jìn)行遞歸計(jì)算,又要計(jì)算多個預(yù)測模式
應(yīng)用科學(xué)學(xué)報 2021年3期2022-01-19
- 單目視覺的深度與位姿聯(lián)合預(yù)測網(wǎng)絡(luò)
構(gòu),可以表示為深度圖、點(diǎn)云或者三維體。其中深度圖由于可轉(zhuǎn)換性好、容易獲取等原因,應(yīng)用最為廣泛。在三維重建的過程中,給定每幅圖像的相機(jī)位姿有助于捕獲圖像間的幾何關(guān)系,使得重建的結(jié)果更加準(zhǔn)確。深度信息是理解場景中幾何關(guān)系的重要線索。例如,具有顏色和深度通道的RGBD圖像可以應(yīng)用于各種任務(wù),如三維模型重建、場景識別和人體姿態(tài)估計(jì)等。深度可以從立體圖像對或運(yùn)動序列中估計(jì),這為理解三維結(jié)構(gòu)提供了相對豐富的信息。相反地,從單幅圖像中估計(jì)深度更具有挑戰(zhàn)性和模糊性,因?yàn)闊o
計(jì)算機(jī)應(yīng)用與軟件 2021年12期2021-12-14
- 基于Hough變換的3D-HEVC深度圖快速幀內(nèi)預(yù)測方法
(MVD)加上深度圖組成(Merkle et al.,2007),該標(biāo)準(zhǔn)本身由H.264(Wiegand et al.,2003)同一標(biāo)準(zhǔn)中多視點(diǎn)視頻編碼(MVC)技術(shù)發(fā)展而來(Sarker,2014;Vetro et al.,2011)。得益于該標(biāo)準(zhǔn)的制定,3D視頻才能更高效地進(jìn)行存儲和網(wǎng)絡(luò)傳輸。3D-HEVC增加了深度建模模式(DMM),目前DMM包括DMM1模式和DMM4模式(Muller et al.,2013),而DMM模式帶來了巨大的計(jì)算復(fù)雜度
東華理工大學(xué)學(xué)報(自然科學(xué)版) 2021年5期2021-11-23
- 基于半稠密COLMAP自監(jiān)督單目內(nèi)窺鏡深度估計(jì)
備來獲取真實(shí)的深度圖。文獻(xiàn)[21]為了解決這個問題使用數(shù)字合成和電子計(jì)算機(jī)斷層掃描(computed tomograph,CT)渲染的方式生成相應(yīng)的真實(shí)深度圖,然而這種方法需要提供病人的CT數(shù)據(jù),此外模擬的圖像可能會失去圖像原有的細(xì)節(jié)紋理,這對于本來就紋理稀疏的人體組織并不適用。由于有監(jiān)督學(xué)習(xí)方法的局限性,近幾年,無監(jiān)督學(xué)習(xí)方法也得到了廣泛的關(guān)注。X.Liu等[4]根據(jù)傳統(tǒng)SFM具有光照不變特性提出自監(jiān)督方法很好地解決了缺乏真實(shí)深度標(biāo)簽和光照變化問題,并在
南華大學(xué)學(xué)報(自然科學(xué)版) 2021年5期2021-11-16
- 一種基于WMF-ACA的深度圖像修復(fù)算法
限制,所獲取的深度圖像往往存在空洞與噪聲的問題,提出一種彩色圖像引導(dǎo)的深度圖像空洞填補(bǔ)方法.對深度圖像邊緣區(qū)域采用基于局部直方圖的加權(quán)模式濾波器(WMF)進(jìn)行處理,在有效保留深度圖邊緣與細(xì)節(jié)的前提下,消除圖像噪聲.對深度圖像非邊緣區(qū)域采用一種異步元胞自動機(jī)(ACA)模型算法,根據(jù)鄰域和迭代規(guī)則對深度圖空洞進(jìn)行填補(bǔ),快速、準(zhǔn)確地完成任務(wù).在立體匹配數(shù)據(jù)集Middlebury上測試所提算法實(shí)現(xiàn)性能,實(shí)驗(yàn)結(jié)果表明:該算法的結(jié)構(gòu)相似性(SSIM)與峰值信噪比(PS
上海師范大學(xué)學(xué)報·自然科學(xué)版 2021年4期2021-09-23
- 基于塊分類的深度圖運(yùn)動估計(jì)及其并行實(shí)現(xiàn)
序列和相對應(yīng)的深度圖序列。紋理圖具有豐富的細(xì)節(jié)信息和少部分較為平坦的紋理區(qū)域,而深度圖的平坦區(qū)域占比高達(dá)85%[2],只有在物體的邊界處有著陡峭的邊緣。因此紋理圖編碼需要側(cè)重于每個像素點(diǎn)的細(xì)節(jié)信息,而深度圖只需要重點(diǎn)保護(hù)圖像中各對象的邊緣信息[3]。針對如何利用深度圖獨(dú)有的內(nèi)容特性,降低在幀間預(yù)測部分的編碼復(fù)雜度,專家提出了一些有效的解決方案。文獻(xiàn)[4]針對深度圖平坦塊在運(yùn)動估計(jì)時采用了復(fù)雜度較高的全搜索(full search,F(xiàn)S)算法或者TZSear
計(jì)算機(jī)工程與設(shè)計(jì) 2021年9期2021-09-16
- 分層聯(lián)合雙邊濾波的深度圖修復(fù)算法研究
成為研究熱點(diǎn),深度圖能夠直接反映出場景物體到相機(jī)的距離,但目前三維深度相機(jī)(例如Kinect 和Time of Flight,ToF)獲取的深度圖通常存在分辨率低、深度值缺失和噪聲污染等問題。到目前為止,獲取深度信息的兩類主要方法[5]:被動方法和主動方法。立體匹配(被動方法)是在多視圖中進(jìn)行對應(yīng)像素點(diǎn)匹配,然后估計(jì)像素點(diǎn)的視差求取深度,是獲取深度信息的經(jīng)典方法。該方法不依賴于復(fù)雜的設(shè)備,只需要拍攝雙視圖或多視圖圖像計(jì)算估計(jì)深度信息,如通過立體匹配[6]和
計(jì)算機(jī)工程與應(yīng)用 2021年6期2021-03-23
- 蘋果新專利防窺屏“隱私眼鏡”曝光下一代面部ID或?qū)⑸蠄?/a>
感器的掃描生成深度圖,接著與已注冊用戶相關(guān)聯(lián)的生物識別身份圖進(jìn)行對比,確定深度圖和一個或多個身份圖之間的相似性分?jǐn)?shù)。針對超過閾值的相似性分?jǐn)?shù),該方法可能會將用戶身份認(rèn)證為注冊用戶,再使用深度圖確定視力校正方案。此外,該方法可能還包括選擇與矯正視力場景和注冊用戶相關(guān)的顯示配置文件,并根據(jù)選定的顯示配置文件生成圖形輸出。而矯正視力方案可能與佩戴矯正眼鏡的注冊用戶相對應(yīng),圖形輸出則可以彌補(bǔ)與矯正視力場景和注冊用戶相關(guān)的視力缺陷。蘋果在電子設(shè)備的顯示屏上設(shè)置視力菜
海外星云 2021年23期2021-01-19
- 基于多通道卷積神經(jīng)網(wǎng)絡(luò)的單幅圖像深度估計(jì)
幅圖像預(yù)測場景深度圖的過程。當(dāng)使用多幅圖像預(yù)測深度圖時,通常采用運(yùn)動序列圖像進(jìn)行預(yù)測[6-7],其得到的深度圖可以用于理解相對豐富的三維結(jié)構(gòu)信息。相比之下,從單幅圖像估計(jì)深度更具挑戰(zhàn)性。這是因?yàn)樵谑褂脝畏鶊D時,無法將立體圖像和時間幀進(jìn)行相互匹配。越來越多的方法嘗試對單幅圖像進(jìn)行深度估計(jì),大致可以分為兩大類:基于學(xué)習(xí)的方法和交互式方法。一些傳統(tǒng)的基于學(xué)習(xí)的方法將深度估計(jì)表述為一個馬爾可夫隨機(jī)場學(xué)習(xí)問題。Saxena等[8]使用線性回歸和馬爾可夫隨機(jī)場從一組圖
計(jì)算機(jī)應(yīng)用與軟件 2020年6期2020-06-16
- 基于ToF相機(jī)的三維重建技術(shù)
],其利用多幀深度圖像重建了三維場景。吳劍峰等[3]提出了一種快速的Kinect三維重建技術(shù),并將其與實(shí)際的3D打印結(jié)合,實(shí)現(xiàn)優(yōu)化。近年來,隨著神經(jīng)網(wǎng)絡(luò)的飛速發(fā)展,其除了在二維圖像的識別分割等方面,也已經(jīng)應(yīng)用到了三維重建領(lǐng)域,例如斯坦福大學(xué)提出的基于RGB-D圖像重建點(diǎn)云模型的PointNet網(wǎng)絡(luò)[4],江航等[5]也提出了對室內(nèi)場景CAD模型的重建網(wǎng)絡(luò)。但是,神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)的重建主要用于對遮擋部分、背面部分的預(yù)測,目前精確的重建仍然需要依賴多視角圖像的精確
計(jì)算機(jī)應(yīng)用與軟件 2020年4期2020-04-18
- 基于深度圖的3D-HEVC魯棒視頻水印算法
式的3D視頻中深度圖魯棒性不足的問題,提出了一種基于深度圖的3D魯棒視頻水印算法。首先,將深度圖不重疊的劃分為4×4大小的塊,計(jì)算每一塊像素域的均方差,并設(shè)置一個閾值來區(qū)分紋理塊和平坦塊;其次,對紋理塊計(jì)算區(qū)域塊的能量值,根據(jù)計(jì)算的能量值設(shè)置一個閾值來選擇性嵌入水印比特位;最后,獲取每個塊變換量化后的DC系數(shù),根據(jù)獲取的DC系數(shù)值構(gòu)造3×3的可逆矩陣,對可逆矩陣進(jìn)行QR分解,將水印嵌入在分解后的Q矩陣中。所提算法保證了平均峰值信噪比不變,且不同量化參數(shù)(Q
計(jì)算機(jī)應(yīng)用 2019年3期2019-07-31
- 基于學(xué)習(xí)模型的3D-HEVC提前Merge模式終止算法
視點(diǎn)及其相應(yīng)的深度圖(紋理視點(diǎn)的幾何信息)組成。然而,與單個紋理視頻相比,3D視頻數(shù)據(jù)更多、更復(fù)雜。因此,高效壓縮對于3D視頻數(shù)據(jù)實(shí)時傳輸?shù)膽?yīng)用非常重要[1]。HEVC(high efficiency video coding)由 JCT-VC(joint collaborative team on video coding)開發(fā)并用于單個紋理視點(diǎn)壓縮[2],為了進(jìn)一步壓縮 3D視頻數(shù)據(jù),JCT-3V(joint collaborative team on
通信學(xué)報 2019年7期2019-07-26
- 以HEVC為基礎(chǔ)的3D視頻編解碼
、攝像機(jī)參數(shù)和深度圖送入到3D視頻編碼器之后,經(jīng)編碼可以得到比特流,在這個過程中,深度序列可以不參與編碼。如果比特流被解碼器解碼,可以得到相應(yīng)的視頻序列和攝像機(jī)參數(shù),如果深度圖同樣參與編碼,則在解碼后,利用技術(shù)深度圖繪制技術(shù)生成的N個視點(diǎn)序列,能夠提供自由立體顯示,利用生成的兩個左右視點(diǎn)則可以提供雙目立體顯示。若比特流在經(jīng)過抽取后送入到雙目立體視頻解碼器中,可以得到雙視點(diǎn)視頻序列,利用圖像域變形技術(shù)得到中間視點(diǎn)后,同樣可以提供自由立體顯示和雙目立體顯示等功
數(shù)字通信世界 2018年7期2018-08-03
- 3D-HEVC深度圖幀內(nèi)編碼快速算法
用多視點(diǎn)視頻加深度圖(Multi-view Video Plus Depth, MVD)的編碼格式[1],能同時編碼多個視點(diǎn)的紋理圖及對應(yīng)深度圖,使用基于深度圖的繪制(Depth-image-based rendering, DIBR)技術(shù)就能合成任意視點(diǎn)的視頻信息[2]。增加的深度圖信息,反映了物體與攝像機(jī)的相對距離。與紋理圖相比,平坦區(qū)域占據(jù)大部分面積,但物體邊緣處是鋸齒狀邊界。深度圖不在解碼端顯示,但直接影響合成視點(diǎn)的失真大小[3],而傳統(tǒng)的2D視頻
信號處理 2018年6期2018-07-25
- 三維視頻的深度圖快速編碼算法*
),以多視點(diǎn)加深度圖(Multi-view Video plus Depth,MVD)為編碼格式,在HEVC編碼標(biāo)準(zhǔn)基礎(chǔ)上,提出了編碼3D視頻的3D-HEVC編碼標(biāo)準(zhǔn)[1-2]。MVD的格式需要編碼幾個不同視點(diǎn)的紋理圖及其對應(yīng)的深度圖,再利用基于深度圖的繪制(Depth-Image-Based Rendering,DIBR)技術(shù),合成任意位置的視頻信息[3]。不同視點(diǎn)的采集通過一系列同樣高度、角度不同的攝像頭完成。3D-HEVC標(biāo)準(zhǔn)測試平臺的測試序列使用三
通信技術(shù) 2018年3期2018-03-21
- 實(shí)時交互的帶浮雕紋理的三維模型構(gòu)建方法
圖像轉(zhuǎn)換為初始深度圖,并進(jìn)一步轉(zhuǎn)換為梯度圖,再通過梯度域的壓縮、過濾,求解線性方程重建出整體連續(xù)的浮雕深度圖;第二步,借助基于網(wǎng)格求交的浮雕紋理映射算法將浮雕深度圖貼在目標(biāo)模型表面,并通過移動、旋轉(zhuǎn)、縮放等操作實(shí)時在目標(biāo)模型三維空間上修改浮雕效果,最終重建目標(biāo)模型網(wǎng)格,生成浮雕紋理模型。實(shí)驗(yàn)表明,所提方法可快速實(shí)現(xiàn)在一個目標(biāo)模型上生成凹浮雕、凸浮雕、多浮雕等效果,所得模型無需經(jīng)過其他處理,可直接應(yīng)用于3D打印,打印效果較好。浮雕紋理;紋理映射;快速建模;三
計(jì)算機(jī)應(yīng)用 2017年8期2017-10-21
- 一種基于改進(jìn)MRF的深度圖超分辨率重建
于改進(jìn)MRF的深度圖超分辨率重建陳金奇,李 榕(華南師范大學(xué)物理與電信工程學(xué)院,廣州510006)隨著計(jì)算機(jī)視覺技術(shù)的發(fā)展,快速直接獲取深度信息越來越受到大家的重視,然而直接獲取的深度圖像因受到其成像原理以及硬件設(shè)備所限,存在分辨率低、邊緣噪聲大等缺點(diǎn),而無法達(dá)到實(shí)際應(yīng)用要求。為此提出一種基于改進(jìn)馬爾科夫隨機(jī)場的深度圖超分辨率重建方法,具體就是引進(jìn)同場景高分辨率彩色圖,充分挖掘彩色圖和深度圖的內(nèi)在關(guān)系,構(gòu)建局部自相關(guān)性特征結(jié)構(gòu),從而重新構(gòu)建馬爾科夫隨機(jī)場的
微處理機(jī) 2017年4期2017-09-11
- 基于邊緣復(fù)雜度的深度圖幀內(nèi)模式選擇方法
于邊緣復(fù)雜度的深度圖幀內(nèi)模式選擇方法項(xiàng)璐露,張 樺,戴國駿(杭州電子科技大學(xué)計(jì)算機(jī)應(yīng)用技術(shù)研究所,浙江 杭州 310018)3D-HEVC在深度圖中的內(nèi)部模式眾多導(dǎo)致了編碼時間大量增加.為此,提出了一種基于邊緣復(fù)雜度的深度圖幀內(nèi)模式選擇方法.由于DMMs中的深度圖幀內(nèi)模式適用于不同特征的邊緣,其中的Intra_Wedge模式針對簡單邊緣而Intra_Contour模式適用復(fù)雜邊緣.因此提出了依據(jù)邊緣復(fù)雜度情況分別選擇不同深度圖幀內(nèi)模式到候選列表中.實(shí)驗(yàn)結(jié)果
杭州電子科技大學(xué)學(xué)報(自然科學(xué)版) 2016年6期2016-12-13
- 一種深度圖的時域下采樣編碼及重建方法
0050)一種深度圖的時域下采樣編碼及重建方法葛 川1,劉 琚1,2,元 輝1,3,肖依凡1,李鳳榮3(1.山東大學(xué)信息科學(xué)與工程學(xué)院,山東濟(jì)南 250101;2.山東大學(xué)蘇州研究院,江蘇蘇州 215123; 3.中國科學(xué)院上海微系統(tǒng)與信息技術(shù)研究所無線傳感網(wǎng)與通信重點(diǎn)實(shí)驗(yàn)室,上海 200050)為提高三維視頻系統(tǒng)的編碼效率,提出了一種針對中間視點(diǎn)的深度時域下采樣編碼方法.首先確定深度圖像的丟棄方式;然后利用基于時間一致性和視點(diǎn)間的相關(guān)性,恢復(fù)出丟棄的深度
西安電子科技大學(xué)學(xué)報 2016年4期2016-12-06
- 3D-HEVC中深度圖幀內(nèi)預(yù)測模式判決過程的改進(jìn)*
D-HEVC中深度圖幀內(nèi)預(yù)測模式判決過程的改進(jìn)*雷海衛(wèi)1,劉文怡1,王安紅2(1.中北大學(xué) 儀器科學(xué)與動態(tài)測試教育部重點(diǎn)實(shí)驗(yàn)室,山西 太原 030051;2.太原科技大學(xué) 電子信息工程學(xué)院,山西 太原 030024)深度圖建模模式的使用可以有效地降低編碼的深度圖內(nèi)部邊界處的偽影效應(yīng),從而改善深度圖的編碼質(zhì)量,但同時也極大地增加了編碼的計(jì)算復(fù)雜度。為了降低由此而帶來的計(jì)算復(fù)雜度,對深度圖幀內(nèi)預(yù)測的模式判決過程和現(xiàn)有的快速模式判決方案進(jìn)行了分析,同時對不同大小
電子技術(shù)應(yīng)用 2016年10期2016-12-02
- 一種去除虛假邊緣的任意視點(diǎn)繪制方法
0050)基于深度圖的視點(diǎn)渲染(DIBR)是支撐3D視頻服務(wù)的一種重要技術(shù)。為了解決任意視點(diǎn)繪制結(jié)果中常出現(xiàn)的虛假邊緣問題,本文在前向映射過程中采用了一種深度圖不連續(xù)區(qū)域檢測的算法,且在后向映射過程為了節(jié)省計(jì)算成本僅對必要的像素點(diǎn)集處理,并對alpha融合后的圖像進(jìn)行紋理修復(fù),獲得了高質(zhì)量的視點(diǎn)繪制結(jié)果。實(shí)驗(yàn)證明,在微軟提供的多視點(diǎn)數(shù)據(jù)集上測試得到PSNR和SSIM指標(biāo)都優(yōu)于DIBR標(biāo)準(zhǔn)參考方法的處理結(jié)果。視點(diǎn)渲染;深度圖;DIBR;多視點(diǎn)裸眼3D電視技術(shù)
電子設(shè)計(jì)工程 2016年15期2016-11-22
- 一種基于局部直方圖匹配的深度編碼濾波算法
++欒桌摘要:深度圖壓縮編碼會引起深度圖失真,進(jìn)而造成虛擬合成視點(diǎn)圖像邊緣模糊、缺失甚至前/背景錯位,嚴(yán)重影響3D視頻質(zhì)量。利用深度圖邊緣突出、內(nèi)部平滑的特性,分析發(fā)現(xiàn)其局部累計(jì)直方圖呈線性分段函數(shù)分布的規(guī)律。從深度圖編碼流中提取圖像分塊大小,建立圖像塊直方圖映射函數(shù),匹配編碼失真后的深度圖與原始參考深度圖的局部累計(jì)直方圖,校正由深度圖編碼引起的深度錯誤,改善深度圖質(zhì)量。實(shí)驗(yàn)結(jié)果表明,提出的方法不僅能提高深度圖主觀質(zhì)量,消除深度圖編碼邊緣模糊現(xiàn)象,而且信噪
軟件導(dǎo)刊 2016年9期2016-11-07
- 基于JNDD邊界劃分的立體視頻深度編碼
)針對編碼后的深度圖中邊界區(qū)域失真導(dǎo)致的虛擬視圖質(zhì)量下降的問題,利用基于恰可察覺深度差異(JNDD)的邊界提取方法,將深度圖劃分為尖銳的邊界區(qū)域和平滑的非邊界區(qū)域,并對劃分后的區(qū)域分配不同的量化參數(shù)值進(jìn)行深度編碼.實(shí)驗(yàn)結(jié)果表明:本文提出的方法能夠很好地保留深度圖的邊緣信息,有效地減輕虛擬視圖繪制的失真;同時,繪制的虛擬視圖能夠保持較高的峰值信噪比(PSNR)和結(jié)構(gòu)相似性測量參數(shù)(SSIM)值.虛擬視點(diǎn)合成圖;深度失真;立體視頻編碼隨著平面信息技術(shù)的日臻成熟
- 基于紋理平滑度的視點(diǎn)合成失真優(yōu)化快速算法
D-HEVC中深度圖編碼采用的視點(diǎn)合成失真優(yōu)化方法的高復(fù)雜度問題,提出一種基于紋理平滑度的快速算法。首先結(jié)合幀內(nèi)DC預(yù)測特性和統(tǒng)計(jì)學(xué)方法分析平坦紋理圖中像素規(guī)律并設(shè)定基于紋理圖平坦度的跳過準(zhǔn)則;然后在深度圖編碼采用視點(diǎn)合成失真優(yōu)化方法時提前分離出紋理圖平坦區(qū)域所對應(yīng)的深度圖區(qū)域,并終止該區(qū)域像素基于虛擬視點(diǎn)合成的視點(diǎn)合成失真計(jì)算過程。實(shí)驗(yàn)結(jié)果證明該算法的有效性,能在保持編碼質(zhì)量的同時減少大量編碼時間。3D-HEVC;深度圖編碼;視點(diǎn)合成失真優(yōu)化;紋理圖平坦
通信學(xué)報 2016年3期2016-10-14
- 基于可信度的深度圖融合三維重建方法
)基于可信度的深度圖融合三維重建方法易守林(四川大學(xué)計(jì)算機(jī)學(xué)院,成都610065)0 引言三維重建是計(jì)算機(jī)視覺和圖像處理領(lǐng)域中一個重要研究方向,在文物保護(hù)、數(shù)字娛樂、地形建模等方面具有廣泛的應(yīng)用前景。相比于使用激光掃描,基于圖像的三維重建方法使用普通相機(jī)和計(jì)算機(jī)作為設(shè)備,具有操作更加方便、成本更低、適用范圍更廣等優(yōu)點(diǎn)。基于深度圖融合的三維重建是基于圖像的三維重建中一個重要的分支[1],每幅圖像可以分別計(jì)算深度圖,然后再融合成最后的三維模型,精度較高,有利于
現(xiàn)代計(jì)算機(jī) 2016年4期2016-09-23
- 基于層次遮擋圖的軟陰影渲染
場景,用于生成深度圖和遮擋圖;第二個繪制遍是在常規(guī)視點(diǎn)下,通過處理之前生成的深度圖和遮擋圖中的信息進(jìn)行場景渲染。與傳統(tǒng)方法不同的是,本文中的深度圖和遮擋圖都是多層次結(jié)構(gòu),即二維紋理數(shù)組。這種結(jié)構(gòu)的渲染將場景離散化,深度圖中存儲深度信息,遮擋圖中存儲離散化點(diǎn)的陰影因子。1.1計(jì)算遮擋區(qū)域?qū)⒁朁c(diǎn)置于光源處渲染場景時,需要對場景進(jìn)行離散化處理。多層次深度圖和遮擋圖就是離散化后的存儲結(jié)構(gòu),兩者的結(jié)構(gòu)相同,但是存儲的內(nèi)容不同:深度圖中存儲每個點(diǎn)的深度信息,遮擋圖中存
現(xiàn)代計(jì)算機(jī) 2016年4期2016-09-23
- 基于視頻壓縮域的深度圖推理算法研究
于視頻壓縮域的深度圖推理算法研究馮杰,馬漢杰(浙江理工大學(xué)信息學(xué)院,杭州 310018)對2D到3D視頻轉(zhuǎn)換過程中的深度圖推理算法進(jìn)行了研究。該研究以視頻壓縮域中的宏塊為單位進(jìn)行深度圖推理,根據(jù)不同的宏塊類型選擇不同的推理策略。首先,采用基于鄰塊的運(yùn)動估計(jì)算法對幀內(nèi)宏塊的運(yùn)動矢量進(jìn)行計(jì)算;然后,針對幀間宏塊,對直接提取出的運(yùn)動矢量進(jìn)行濾波處理以提升其魯棒性;最后,采用運(yùn)動補(bǔ)償和上采樣雙邊濾波技術(shù)獲得深度圖。實(shí)驗(yàn)結(jié)果表明該方法可以獲得平滑而可靠的深度圖像,并
浙江理工大學(xué)學(xué)報(自然科學(xué)版) 2016年5期2016-09-15
- 3D-HEVC中深度圖編碼技術(shù)研究進(jìn)展
D-HEVC中深度圖編碼技術(shù)研究進(jìn)展雷海衛(wèi)1,劉文怡1,王安紅2(1. 中北大學(xué) 儀器科學(xué)與動態(tài)測試教育部重點(diǎn)實(shí)驗(yàn)室,山西 太原 030051;2. 太原科技大學(xué) 電子信息工程學(xué)院,山西 太原 030024)3D-HEVC是為了滿足3D視頻和自由視點(diǎn)視頻的高效編碼而最新制定的視頻編碼標(biāo)準(zhǔn),它要求同時編碼幾個視點(diǎn)的紋理視頻和深度圖。完全采用傳統(tǒng)的技術(shù)來編碼深度圖會使得深度圖內(nèi)部銳利邊界處產(chǎn)生偽影效應(yīng),為此,一些新的針對于深度圖的編碼工具被開發(fā)。詳細(xì)介紹了這些
電視技術(shù) 2016年7期2016-08-22
- 基于二階微分算子和測地距離的深度圖超分辨率重建
子和測地距離的深度圖超分辨率重建董文菁胡良梅張旭東楊慧陳仲海(合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院圖像信息處理研究室安徽 合肥 230009)摘要針對TOF相機(jī)原始獲取深度圖像分辨率非常低,且超分辨率重建中易出現(xiàn)邊緣模糊和偽影的問題,提出一種基于二階微分算子和測地距離的深度圖超分辨率重建算法。以彩色信息作為引導(dǎo),運(yùn)用雙邊濾波的思想,采用測地距離把低分辨率深度圖像的空間高斯核與高分辨率彩色圖像的幅度高斯核函數(shù)結(jié)合起來,體現(xiàn)了深度圖與彩色圖的一致性,并引入深度核函數(shù)對
計(jì)算機(jī)應(yīng)用與軟件 2016年7期2016-08-05
- 基于矩-傅里葉描述子的不同姿態(tài)三維人臉識別
態(tài)下的三維人臉深度圖,先用微分幾何相關(guān)知識把該圖校正到正中面,然后通過提取人臉面部的等高線特征,將三維人臉變成容易處理的二維曲線,針對如何能夠更好的描述該二維曲線,提出了一種把矩和傅里葉描述子相結(jié)合的新方法,最后利用提取的曲線特征進(jìn)行人臉識別。實(shí)驗(yàn)結(jié)果表明,該方法具有很好的實(shí)時性和更強(qiáng)大的形狀區(qū)分能力,魯棒性高,優(yōu)于傳統(tǒng)傅里葉描述子提取等高線特征的方法。關(guān)鍵詞:深度圖;矩;傅里葉描述子;人臉識別人臉識別和手紋識別,指紋識別,聲音識別等一樣,是一種基于生命個
安徽科技學(xué)院學(xué)報 2016年3期2016-07-25
- 基于雙目立體視覺的場景分割方法
得到場景的幾何深度圖,同時利用左視圖進(jìn)行RGB顏色空間到CIELab均勻顏色空間的轉(zhuǎn)換以得到顏色信息;然后將顏色與幾何信息構(gòu)造生成六維向量;最后再將六維向量給到聚類算法中進(jìn)行分割并對分割的偽影進(jìn)行消除,得到最終的分割結(jié)果。對Middlebury數(shù)據(jù)集樣本場景baby 2實(shí)驗(yàn)了6種立體視覺算法和3種聚類技術(shù)的不同組合進(jìn)行的場景分割,從實(shí)驗(yàn)結(jié)果來看,不同的組合應(yīng)用所提方法都比傳統(tǒng)方法具有更好的分割效果。關(guān)鍵詞:場景分割;立體視覺;聚類;深度圖1場景分割場景分割
電視技術(shù) 2016年1期2016-06-23
- 基于輪廓的kinect深度圖像的空洞填補(bǔ)
的kinect深度圖像的空洞填補(bǔ)操宣鵬陳一民*(上海大學(xué)計(jì)算機(jī)工程與科學(xué)學(xué)院上海 200444)摘要針對Kinect獲得深度圖噪聲的特點(diǎn),以及現(xiàn)有去噪算法存在的問題,提出一種基于輪廓的自適應(yīng)非對稱高斯濾波方法。該方法針對Kinect能夠同時獲得深度圖像和彩色圖像的特點(diǎn),利用彩色圖找到場景中物體的輪廓;在對深度圖進(jìn)行填補(bǔ)時,利用輪廓選取合適的有效點(diǎn);選取的有效點(diǎn)是非對稱的,所以需要改變高斯濾波的對稱性;另外,改變高斯濾波的尺度,使其隨著被填補(bǔ)區(qū)域深度值的變化
計(jì)算機(jī)應(yīng)用與軟件 2016年5期2016-06-08
- 一種基于深度信息的人頭檢測方法
提出了一種基于深度圖像的人頭檢測方法。首先通過運(yùn)動目標(biāo)檢測,得到運(yùn)動人員所在區(qū)域;然后對該區(qū)域使用改進(jìn)的立體匹配算法,該匹配算法對傳統(tǒng)的WTA匹配算法進(jìn)行改進(jìn),只對強(qiáng)紋理點(diǎn)進(jìn)行匹配,對弱紋理點(diǎn)只進(jìn)行視差驗(yàn)證,并根據(jù)三角投影原理計(jì)算出深度圖。由于深度圖中人員與周圍場景的深度分布不同,根據(jù)深度分布將人頭區(qū)域提取出來,得到候選區(qū)域,最后將候選區(qū)域經(jīng)過形態(tài)學(xué)運(yùn)算并根據(jù)區(qū)域輪廓的特征來判斷是否為人頭。實(shí)驗(yàn)結(jié)果表明:該方法在不同光線環(huán)境條件下的檢測正確率為94%以上,
長春理工大學(xué)學(xué)報(自然科學(xué)版) 2016年2期2016-06-07
- 疊加速度譜在鉆孔稀少地區(qū)資料解釋中的應(yīng)用
時深轉(zhuǎn)換,制作深度圖的精度高,誤差小?!娟P(guān)鍵詞】疊加速度;速度譜;時深轉(zhuǎn)換;深度圖0 引言目前,煤田勘探中主要使用“鉆孔反算求取平均速度進(jìn)行時深轉(zhuǎn)換”的方法,該方法在構(gòu)造簡單、沉積平穩(wěn)、鉆孔多且分布均勻的地區(qū)是可以滿足勘探精度要求的。但是在速度橫向變化大,鉆孔資料少的勘探區(qū),該方法存在一定的困難和局限性,制作的構(gòu)造圖存在較大的誤差,難以滿足煤田精細(xì)解釋的要求[1-4]。針對這一問題,前人做過許多的研究與探討,提出了一些有效的工作方法。本文借助前人的工作經(jīng)驗(yàn)
科技視界 2016年2期2016-03-30
- 一種基于置信度的深度圖融合方法
種基于置信度的深度圖融合方法董鵬飛(四川大學(xué)計(jì)算機(jī)學(xué)院,成都 610065)在三維重建過程中,由于受到噪聲影響,計(jì)算出的深度圖精度無法保證。針對此問題,提出一種基于置信度的抗噪融合方法。首先對每幅深度圖來進(jìn)行修正,并利用一致性原理來剔除錯誤點(diǎn)并填補(bǔ)某些空洞。然后通過保留在自身鄰域內(nèi)具有最高置信度的三維點(diǎn),以刪除冗余。最后將深度圖反投影到三維空間,采用迭代最小二乘法優(yōu)化三維點(diǎn)并剔除離群點(diǎn)。通過在測試數(shù)據(jù)集上與其他算法比較,驗(yàn)證此方法的有效性。多目立體視覺;三
現(xiàn)代計(jì)算機(jī) 2016年35期2016-02-13
- 視點(diǎn)合成中基于深度的空洞修復(fù)
復(fù)的方法.通過深度圖預(yù)處理、圖像映射變換、合成深度圖修復(fù)以及合成視圖修復(fù)等步驟,實(shí)現(xiàn)對空洞區(qū)域的填充,得到虛擬視點(diǎn)視圖.所提出的深度邊緣單向膨脹預(yù)處理方法、先修復(fù)合成深度圖再修復(fù)合成視圖的策略以及匹配塊的預(yù)編輯方法,可以提高最終合成視圖的質(zhì)量.實(shí)驗(yàn)結(jié)果表明:所提出方法在主觀視覺對比、峰值信噪比(PSNR)以及運(yùn)行耗時上優(yōu)于現(xiàn)有方法,在圖像邊緣連續(xù)性的保持、前景和背景像素滲透現(xiàn)象的消除等方面具有較好的效果.視點(diǎn)合成;空洞修復(fù);深度圖修復(fù)虛擬視點(diǎn)合成是指用一個
浙江大學(xué)學(xué)報(工學(xué)版) 2015年9期2015-10-24
- 一種深度圖失真引入的虛擬視失真估計(jì)方法
0072)一種深度圖失真引入的虛擬視失真估計(jì)方法李春華1,2, 安 平1,3, 張兆揚(yáng)1,3(1.上海大學(xué)通信與信息工程學(xué)院,上海 200444; 2.河北科技大學(xué)信息科學(xué)與工程學(xué)院,石家莊 050018; 3.上海大學(xué)新型顯示技術(shù)及應(yīng)用集成教育部重點(diǎn)實(shí)驗(yàn)室,上海 200072)提出了一種深度圖失真引入的虛擬視失真估計(jì)方法.該方法依據(jù)能量一致性假設(shè)要求,將深度圖宏塊劃分為平坦宏塊和非平坦宏塊.平坦宏塊使用頻域塊級方法,非平坦宏塊使用時域像素級方法估計(jì)由深度
上海大學(xué)學(xué)報(自然科學(xué)版) 2015年4期2015-07-19
- 抑制編碼誤差擴(kuò)散的深度圖幀內(nèi)編碼*
紋理視頻編碼和深度圖編碼.深度圖的亮度值表示場景中的物體到攝像機(jī)光心的距離,紋理視頻的亮度值和色度值表示場景中物體的顏色、輪廓和紋理特性[2].深度圖與紋理視頻的特征存在一定的差異性和關(guān)聯(lián)性,故深度圖編碼與紋理視頻編碼類似,均采用基于H.264/MVC 的編碼標(biāo)準(zhǔn)[3].目前已有許多深度圖的幀內(nèi)編碼方法[4-12],如文獻(xiàn)[4]中提出了一種幀內(nèi)預(yù)測模式,該模式利用邊緣圖表信息獲得任意的邊緣形狀以達(dá)到提高深度圖幀內(nèi)編碼效率的目的;文獻(xiàn)[5]中利用k-均值方法
華南理工大學(xué)學(xué)報(自然科學(xué)版) 2014年1期2014-08-16
- 深度圖實(shí)時提取系統(tǒng)中后處理的設(shè)計(jì)與實(shí)現(xiàn)
200437)深度圖實(shí)時提取系統(tǒng)中后處理的設(shè)計(jì)與實(shí)現(xiàn)李 攀,華艷秋,李火生(上海工程技術(shù)大學(xué) 高等職業(yè)技術(shù)學(xué)院,上海200437)基于硬件的深度圖實(shí)時提取系統(tǒng)可實(shí)現(xiàn)深度圖的實(shí)時提取,但由于硬件結(jié)構(gòu)的局限性不能像軟件那樣實(shí)現(xiàn)較復(fù)雜的匹配算法,會產(chǎn)生較多誤匹配。在深度圖實(shí)時提取系統(tǒng)上設(shè)計(jì)和實(shí)現(xiàn)深度圖后處理功能,先對視差結(jié)果進(jìn)行匹配唯一性檢測,再根據(jù)需要針對左右視圖對應(yīng)的視差結(jié)果分別設(shè)計(jì)兩種左右一致性檢測方案,最后利用正確的深度值進(jìn)行空洞填充。實(shí)驗(yàn)表明該設(shè)計(jì)和實(shí)
電視技術(shù) 2014年23期2014-07-02
- 基于聯(lián)合雙邊濾波的深度圖像增強(qiáng)算法
聯(lián)合雙邊濾波的深度圖像增強(qiáng)算法劉金榮1,2,李淳芃2,歐陽建權(quán)1,劉 京2(1. 湘潭大學(xué)智能計(jì)算與信息處理教育部重點(diǎn)實(shí)驗(yàn)室,湖南 湘潭 411105;2. 中國科學(xué)院計(jì)算技術(shù)研究所,北京 100190)主動光設(shè)備是目前獲取深度圖的主要方法,被廣泛應(yīng)用于導(dǎo)航、人機(jī)交互、增強(qiáng)現(xiàn)實(shí)等領(lǐng)域。但主動光設(shè)備存在分辨率低、空洞、邊緣不匹配等問題。為此,提出一種基于聯(lián)合雙邊濾波的深度圖像增強(qiáng)算法。采用基于深度的前景分割方法,找出深度圖與彩色圖邊緣不匹配像素集合,利用基于
計(jì)算機(jī)工程 2014年3期2014-06-02
- 面向虛擬視點(diǎn)合成的深度圖編碼
頻序列和相應(yīng)的深度圖序列的壓縮至關(guān)重要。通常, 對不精確的深度圖, 視點(diǎn)合成會受到繪制失真的影響, 尤其在目標(biāo)邊緣處更加嚴(yán)重。通常在虛擬視點(diǎn)目標(biāo)邊緣處, 不正確的深度值會導(dǎo)致繪制的相應(yīng)像素誤投影到3D空間中彩色圖像坐標(biāo)的深度平面。對于深度數(shù)據(jù)的有損壓縮(例如H.264/AVC)不可避免地扭曲深度結(jié)構(gòu), 尤其是含有豐富高頻成分的深度邊緣[3]。通過分析視頻和深度序列的相關(guān)性直方圖, 可知深度圖的結(jié)構(gòu)特征不同于相應(yīng)視頻序列的結(jié)構(gòu)特征[4], 當(dāng)前的H.264/
吉林大學(xué)學(xué)報(信息科學(xué)版) 2013年2期2013-10-15
- 基于深度圖的多視點(diǎn)裸眼3D立體視頻技術(shù)研究
研究集中在基于深度圖的多視點(diǎn)3D立體視頻技術(shù)上面,本文對基于深度圖的多視點(diǎn)裸眼3D立體視頻系統(tǒng)的幾個關(guān)鍵技術(shù)環(huán)節(jié),包括深度圖提取、虛擬視點(diǎn)合成、多視點(diǎn)視頻合成等進(jìn)行了研究并進(jìn)行了相應(yīng)的仿真實(shí)驗(yàn),從實(shí)驗(yàn)效果來看,基于深度圖的多視點(diǎn)裸眼3D立體視頻系統(tǒng)具有數(shù)據(jù)量小、傳輸效率高、顯示內(nèi)容可自適應(yīng)調(diào)節(jié),用戶交互性好等優(yōu)點(diǎn)。關(guān)鍵詞:裸眼3D立體視頻;深度圖;3DTV目前3D立體視頻技術(shù)正引起越來越多人的關(guān)注,其中主流的3D技術(shù)主要包括雙目立體視頻(包含2個視點(diǎn)的視頻
卷宗 2012年11期2012-10-21
- Kinect深度圖像快速修復(fù)算法
)Kinect深度圖像快速修復(fù)算法王 奎1, 安 平1,2, 張兆楊1,2, 程 浩1, 李賀建1(1.上海大學(xué)通信與信息工程學(xué)院,上海200072;2.新型顯示技術(shù)及應(yīng)用集成教育部重點(diǎn)實(shí)驗(yàn)室,上海200072)深度提取是基于“紋理+深度”自由立體視頻系統(tǒng)的關(guān)鍵技術(shù),而立體視頻實(shí)際應(yīng)用系統(tǒng)需要高效快速的深度圖提?。岢鲆环N針對Kinect提取深度圖的快速修復(fù)算法.首先,對Kinect提取的彩色紋理圖和深度圖進(jìn)行對齊裁剪,并采用背景填充算法對裁剪后的深度圖進(jìn)
上海大學(xué)學(xué)報(自然科學(xué)版) 2012年5期2012-10-16
- 基于深度分層圖的虛擬視點(diǎn)合成方法的研究
視點(diǎn)和該視點(diǎn)的深度圖序列組成,在終端可以利用基于深度圖的描繪(DIBR)虛擬合成視點(diǎn),但其主要問題就是不能解決因遮擋問題到導(dǎo)致的空洞問題。最終出現(xiàn)了多視點(diǎn)視頻+深度視頻(MVD)的三維立體視頻格式[3],它可以利用DIBR技術(shù)合成虛擬視點(diǎn)?;?span id="mu0egyq" class="hl">深度圖像描繪是一種基于圖像的描繪方法?;?span id="ogsgo0w" class="hl">深度圖像描繪系統(tǒng)流程如圖1所示。該系統(tǒng)由深度圖像信息預(yù)處理;3D圖像變換;空洞填充組成。其中,根據(jù)深度圖像信息預(yù)處理的效果,空洞填充可有可無。圖1 DIBR算法流程圖相比IB
武漢船舶職業(yè)技術(shù)學(xué)院學(xué)報 2012年3期2012-08-01
- 百分比濾波技術(shù)的改進(jìn)和實(shí)現(xiàn)
樣點(diǎn)的深度值和深度圖中的相應(yīng)Z值作比較,比較的結(jié)果是二值化的,導(dǎo)致邊緣不可能平滑,如果采用深度值和深度圖的均值做比較,雖然能柔化邊緣,但是繪制效果將嚴(yán)重偏離物體的幾何形狀。2 百分比濾波算法百分比濾波算法[3]在SM的基礎(chǔ)上調(diào)換濾波比較的順序。首先將采樣點(diǎn)的Z值和深度圖區(qū)域內(nèi)的點(diǎn)做比較,再將區(qū)域比較的二值化結(jié)果百分比化,根據(jù)百分比值可以判斷采樣點(diǎn)在陰影中的程度,即半影的值。從而生成邊緣平滑的硬陰影或者半影大小固定的軟陰影效果。PCF的計(jì)算如下:pcf(P)
杭州電子科技大學(xué)學(xué)報(自然科學(xué)版) 2011年6期2011-09-04
- 基于FTV的改進(jìn)深度估計(jì)算法?
題,提出一種在深度圖的時間一致性保持算法,以前一幀的深度圖與當(dāng)前視圖的運(yùn)動信息為約束條件估計(jì)當(dāng)前幀的深度,使得相鄰幀的深度圖在時間上保持一致。任意視點(diǎn)電視;深度/視差估計(jì);深度圖時間一致性;平均亮度-梯度匹配1 引言2002年MPEG會議中提出了任意視點(diǎn)電視(Free View Television,F(xiàn)TV)[1]系統(tǒng),它能夠提供一種全新的、生動的、真實(shí)的、交互式[2]的三維視聽系統(tǒng),該系統(tǒng)可廣泛應(yīng)用于廣播通信、娛樂、教育、醫(yī)療、視頻監(jiān)控等領(lǐng)域。FTV的一
電訊技術(shù) 2011年9期2011-06-28