亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于圖像融合的深度圖像修復算法

        2020-03-04 02:48:41劉漢偉曹雛清
        現(xiàn)代電子技術 2020年2期
        關鍵詞:圖像融合圖像分類

        劉漢偉 曹雛清

        摘 ?要: 針對目前大多數(shù)深度相機采集到的深度圖像中含有大量噪點以及大面積的空洞問題,提出一種基于圖像融合的深度圖像修復算法。采用改進分水嶺算法提取彩色圖像中的邊緣信息,基于KD樹近鄰算法依據深度圖像的梯度信息提取分類信息,將彩色圖像的邊緣信息與深度圖像像素點的分類信息相結合,得到精確地圖像分類結果,再對融合后的每一類進行最小二乘法算法擬合空洞,修復深度圖像中出現(xiàn)的大面積空洞問題。實驗結果表明,該方法在對物體邊緣處小面積空洞進行較為準確地修復的同時,能夠對深度圖像中存在的大面積空洞問題進行有效修復。

        關鍵詞: 深度圖像修復; 圖像融合; 提取邊緣信息; 圖像分類; 修復空洞; 對比驗證

        中圖分類號: TN911.73?34 ? ? ? ? ? ? ? ? ? ? ? ? 文獻標識碼: A ? ? ? ? ? ? ? ? ? ? ? 文章編號: 1004?373X(2020)02?0182?05

        Depth image restoration algorithm based on image fusion

        LIU Hanwei1, CAO Chuqing2

        Abstract: A depth image restoration algorithm based on image fusion is proposed to solve the problem that the depth images collected by most depth cameras contain a large number of noisy points and a large area of voids. The edge information of the color image is extracted by means of the improved watershed algorithm, and the classification information of the depth image is extracted accordingto the gradient information of it and based on the KD tree neighbor algorithm. The accurate image classification results are obtained in combination with the edge information of the color image and the classification information of the depth image pixels. For each class after fusion, the least square algorithm is used to fit the voids to repair the large?area voids in depth images. The experimental results show that the method can not only accurately repair small?area voids at the edge of the object, but also effectively repair large?area voids in the depth images.

        Keywords: depth image restoration; image fusion; extract edge information; image classification; repair voids; comparison validation

        近年來深度相機得到了廣泛的應用,包含深度信息的深度圖像在人機交互、人臉技術、三維重建、AR等領域起到了關鍵作用。然而,目前大多數(shù)深度相機由于測量時的光照變化、物體材質的紅外反射特性以及區(qū)域遮擋等原因,導致采集到的深度圖像含有大量噪點以及空洞[1],從而降低了深度圖像的質量。

        深度相機生成的深度圖像的空洞問題主要發(fā)生在物體邊緣和遮擋區(qū)域[2]。目前深度圖像修復方法大致分為兩類:一類是基于聯(lián)合雙邊濾波器的深度圖像濾波算法[3],該類方法可以很好地修復物體邊緣處的小面積空洞問題,但是對于深度圖像出現(xiàn)的大面積空洞問題,濾波器算法迭代次數(shù)多,修復時間長,修復產生的深度數(shù)據模糊[4];另一類基于加權最小二乘法算法的深度圖像修復算法[5],該方法可以修復深度圖像大面積空洞,但是由于擬合范圍廣,產生深度數(shù)據不穩(wěn)定,且在物體邊緣處的空洞修復結果往往產生過平滑的現(xiàn)象。因此,本文提出基于圖像融合的深度圖像修復方法,將彩色圖像中獲取的邊緣信息與深度圖像中依據梯度信息獲取的分類結果相融合,得到較為精確的分類結果,并對融合后每一類進行最小二乘法擬合空洞,從而實現(xiàn)對深度圖像中存在的空洞問題進行修復。

        1 ?圖像處理

        1.1 ?算法框架

        本文首先獲取深度相機配準[6]后的彩色圖像以及深度圖像,分別對彩色圖像以及深度圖像進行處理,獲取各圖像粗略的分類信息,再將分類信息進行融合獲取圖像較為精確的分類結果,最后對圖像中的每一類進行最小二乘法擬合空洞獲取最終修復的深度圖像。本文算法框架如圖1所示。

        1.2 ?彩色圖像處理

        1.2.1 ?彩色圖像預處理

        由于相機在采集圖像的過程中,易受到外界環(huán)境、設備本身等的影響,圖像會產生大量噪點,而分水嶺分割算法易受到噪聲、梯度局部不規(guī)則等因素的影響導致過分割[7],所以在進行彩色圖像分割前要進行預處理。

        目前,圖像去噪的方式大多采用低通濾波,但該類方法在平滑背景噪聲的同時模糊了圖像的重要邊緣[8],不利于圖像邊緣的提取。使用偏微分方程進行圖像去噪,能夠更好地保持原始圖像的頻譜特性,特別是圖像邊緣處特性。本文建立如下偏微分方程:

        設[l(u,v)]為理想不含噪圖像,[g(u,v)]為含噪圖像,為了除去彩色圖像中的噪點,滿足如下方程:

        [min E(x)=Ωl2(u)+l2(v)dudv] (1)

        式中,[Ω]為圖像域,采用Lagrange方程和最速下降法進行求解,可以得到:

        [lt=??ulul2u+l2v+??vlvl2u+l2v-λ(l-g),u,v∈Ω] ?(2)

        式中,[λ]為權重系數(shù),其計算公式為:

        [λ=-12σ2l2u+l2v-gulu+gvlvl2u+l2vdudv] ? ?(3)

        [σ2=Ω12(l-g)2dudv] ? ? ? ? ? ?(4)

        通過上述方法,得到最終去噪后的圖像[lt]。將彩色圖像[lt]轉化為灰度圖像,采用頂帽與低帽處理來增強圖像的邊緣信息,再對圖像進行基于重建的形態(tài)學開、閉運算[9]來消除圖像產生的多余極大值點,減小過分割現(xiàn)象,得到形態(tài)學重建后的圖像。

        1.2.2 ?彩色圖像分割

        將彩色圖像轉化為灰度圖像再計算梯度會丟失圖像的彩色信息,對彩色圖像計算梯度,可以獲得更加準確的邊緣信息。本文采用如下方法計算彩色圖像梯度。

        令[r],[g]和[b]為RGB彩色空間沿[R],[G]和[B]軸的單位向量,則有:

        [u1=?R?ur+?G?ug+?B?ubv1=?R?vr+?G?vg+?B?vb] ?(5)

        彩色圖像在[(u,v)]處的最大變化率方向由角度給出:

        [θ=12arctan2uT1v1uT1u1-vT1v1] ? ? ? ? ? ?(6)

        [(u,v)]點在[θ]方向上的變化率,即最終梯度值:

        [gr(θ)=12uT1u1-vT1v1+uT1u1-vT1v1cos 2θ+2uT1v1sin 2θ12] (7)

        傳統(tǒng)的分水嶺分割只是對圖像前景進行分割,但是在低對比度圖像中易丟失重要輪廓[10],如圖2b)所示。本文分別提取形態(tài)學重建后圖像的局部極大值區(qū)域以及局部極小值區(qū)域得到圖像前景區(qū)域以及背景區(qū)域,并對梯度圖像在各區(qū)域進行極小值標記[11],分別對前景、背景標記后的梯度圖像進行分水嶺變換。

        用M1,M2,…,MR表示彩色梯度圖像[gr(u,v)]的極小值標記區(qū)域,且[gr(u,v)=0],其中[(u,v)∈Mi(i=1,2,…,R)],Mi為極小值區(qū)域,也為最小值點集。令[gr(u,v)]的最小值為[gmin],最大值為[gmax],[C(Mi)]為與極小值區(qū)域Mi相聯(lián)系的匯水盆地點集,[T[n]=(s,t)|gr(s,t)

        1) 初始化[gr(u,v)=0],[gmin=gr(u,v)],[gmax=] [max(gr(u,v))][n=gmin+1];

        2) 設定[T[n]]和[C[n]]的值;

        3) [Q[n]]表示[T[n]]中的連續(xù)區(qū)域,[qj∈Q[n]],遍歷[Q[n]]中的連續(xù)區(qū)域[qj],如果[qj∩C[n-1]]包含多個[C[n-1]]集合中的區(qū)域,則在這些區(qū)域間建立分界線;

        4) [n=n+1],當[n

        最終得到對圖像前景、背景的分割結果[L1],[L2],如圖2b)、圖2c)所示,成功將與圖像背景灰度值相近的物體(圖2中紅色圓圈內物體)提取出來,保證了圖像重要物體輪廓的提取。最后將分割結果進行融合,如下:

        [L(u,v)=β(L1(u,v))+L2(u,v)] ?(8)

        式中,[β]為標簽權重防止兩個不相同標簽相加為相同的數(shù),本文實驗中[β=max(L2)]。最終分割結果如圖2d)所示。

        1.3 ?深度圖像處理

        1.3.1 ?深度圖像梯度

        由于深度圖像中處于同一平面的相鄰像素點之間的梯度值變化小,處于平面邊緣處的相鄰像素點之間的梯度值變化大[12]。本文依據深度圖像中相鄰像素點梯度值變化對圖像進行分類,對深度圖像的梯度進行計算的公式為:

        [G(u,v)=?f?ui2+?f?vj2] (9)

        式中:[f]為深度圖像在像素點[(u,v)]處的深度值;[i],[j]分別為[u],[v]方向的單位矢量,得到像素點[(u,v)]的梯度值[G(u,v)]。在對圖像進行梯度計算之前需對深度圖像進行偏微分去噪減噪,減少對梯度計算產生的影響。

        1.3.2 ?深度圖像分類

        依據相鄰兩點之間的梯度差值對深度圖像進行分類,引入圖像坐標[(u,v)]對梯度[G]進行約束,采用三維數(shù)組成簇的方法,對每個坐標點[(u,v)]分配一個整體簇標簽:對每一像素點[(u0,v0)]搜索與其在[(u,v,G)]下的歐幾里得距離小于閾值[μ]的點[(u1,v1)]劃分為同一集群,通過如下公式計算滿足閾值的點:

        [p=(u1-u0)2+(v1-v0)2+(τ(G1-G0))2<μ] ? (10)

        式中:[p]為[(u,v,G)]的歐幾里得距離;[τ]為梯度系數(shù);[μ]為距離閾值。[τ],[μ]為深度圖像分類的關鍵部分,在本文實驗中,處于同一平面的相鄰兩像素點之間的梯度差值保持在5以內。先將梯度差減少[12],[τ=0.5],再以同一平面中相鄰兩點梯度差值代入式(10)計算歐幾里得距離[p]:對于水平或豎直相鄰兩點[p=2.7];對于斜對角相鄰兩點[p=2.9]。所以設置梯度系數(shù)[τ=0.5],閾值[μ=3]。

        對于滿足閾值[μ]的點的搜索策略大多采用窮舉搜索,依次計算樣本集[E]中每個樣本到輸入實例點的距離,然后抽取滿足閾值的點。由于圖像像素坐標集合數(shù)量大,消耗的時間會很多,因此采用基于KD樹的近鄰搜索算法來加快對于滿足閾值點的搜索。本文深度圖像分類算法具體表示為:

        1) 新建零矩陣[K(u,v)],令其橫縱坐標個數(shù)與深度圖像[f(u,v)]相同,令初始標簽[La=0]。

        2) 對矩陣[K(u,v)]每一點[(ui,vi)],令[K1=K(ui,vi)],找出在深度圖像[f(u,v)]中的相同坐標點[(ui,vi)],利用KD樹算法找出在深度圖像[f(u,v)]中滿足點[(ui,vi)]在式(10)成立下的點集合[(uj,vj)],對于每一個點[(uj,vj)],令[K2=K(uj,vj)],其中:

        若[K2>K1>0],則[K(uj,vj)=K(ui,vi)];若[K1>K2>0],則[K(ui,vi)=K(uj,vj)]。

        若[K2>0]且[K1=0],則[K(ui,vi)=K(uj,vj)];若[K1>0]且[K2=0],則[K(uj,vj)=K(ui,vi)]。

        若[K1=0],則[La=La+1],[K(uj,vj)=La];

        循環(huán)步驟2)將矩陣[K(u,v)]中每個像素點進行賦值,最終得到深度圖像的分類集群[K(u,v)]。

        上述步驟將不同平面的像素點進行分類,分類結果如圖3d)所示。圖中同一種顏色代表同一類,白色區(qū)域表示為深度圖像空洞部分。

        1.4 ?圖像融合及擬合空洞

        依據深度圖像的梯度信息可以獲取每類平面的基本位置信息,但其產生的邊緣模糊;彩色圖像可以獲取物體較為精確的邊緣信息,但容易出現(xiàn)過分割現(xiàn)象。將深度圖像、彩色圖像分類結果融合可以有效地彌補以上缺點。本文圖像融合和擬合空洞步驟具體表示為:

        1) 地取彩色圖像分割結果[L]的每一類[Lh]([h]為彩色圖像分割個數(shù))的坐標集合[(uh,vh)],賦值在深度圖像的分類結果[K]中相對應坐標的坐標值,得到新的分類結果[R]。

        2) 在新的分類結果[R]中取與[Lh]相同坐標的坐標點[Rh],繪制[Rh]坐標值的直方圖,求得出現(xiàn)次數(shù)最多的數(shù)[Rhmax],通過式(11)為每一類[Rh]進行賦值:

        [Rh=Rhmax, ? Rhmax≠0Rhmax2, Rhmax=0] ? ? ? ? ? ?(11)

        式中,[Rhmax2]為除0外出現(xiàn)次數(shù)最多的數(shù)。得到最終的分類結果[R1],如圖3e)所示。

        3) 取[R1]中除值為0外坐標值相同的每一類坐標點集[(uk,vk)],在深度圖像[f(u,v)]中對點集[(uk,vk)]進行最小二乘法擬合空洞。為提高擬合效率,當點集[(uk,vk)]中有效像素點個數(shù)大于4 000時,隨機選取4 000個點作為樣本點進行最小二乘法擬合。

        4) 利用雙邊濾波處理,消除深度圖像剩余小區(qū)域空洞和噪點,得到最終的修復圖像。

        本文修復算法能成功將原始深度圖像中存在的大面積空洞問題進行修復,其中各步驟效果圖及最終修復結果如圖3所示。

        2 ?實驗結果及分析

        本文算法在CPU為Intel i7,主頻為1.80 GHz,四核處理器,8 GB內存,操作系統(tǒng)為Windows 10的計算機上實現(xiàn),軟件部分基于Matlab語言編寫。

        為了驗證本文算法的有效性,實驗中分別對采用Kinect1、Kinect2、圖漾MF830?5M三種深度相機獲取的多幅自采深度圖以及Middlebury公開數(shù)據庫[13]中深度圖像進行修復實驗,并和雙邊濾波(BF)[14]、聯(lián)合雙邊濾波(JBF)[3]進行對比。

        2.1 ?自采數(shù)據修復對比實驗

        在對自采圖像的修復實驗中發(fā)現(xiàn),本文算法在較為準確地修復物體邊緣處空洞的前提下,對于圖像中出現(xiàn)的大面積的空洞修復效果較好,如圖4c)所示;雙邊濾波(BF)在修復深度圖像時,物體邊緣處容易產生毛刺現(xiàn)象,修復效果不佳,如圖4d)所示;聯(lián)合雙邊濾波(JBF)對大面積空洞現(xiàn)象的修復結果容易產生模糊,且算法迭代次數(shù)較高,如圖4e)所示。

        為了使各方法的修復效果進行更為直觀的表示,將圖中代表性區(qū)域進行放大。部分自采圖像的修復結果如圖4~圖6所示。

        2.2 ?Middlebury數(shù)據集數(shù)據修復對比實驗

        實驗選取Middlebury公共數(shù)據庫中的數(shù)據進行定量分析,從中選取Baby,Wool,Cloth,Plastic,Midd,Teddy深度圖作為測試對象,將數(shù)據集提供的深度圖像作為真實圖,為了能夠進行定量分析,在深度圖像中人工添加一些噪聲和空洞。深度圖像修復結果見圖7。

        在本文實驗中,添加高斯噪聲(均值為0,標準差為3)到實際深度圖像中,同時隨機添加6處小于60×60像素的空洞。將添加噪聲和空洞后的深度圖像作為待修復圖像,如圖7b)所示。將本文算法與BF和JBF的修復效果進行對比,各算法修復效果如圖7c)~圖7e)所示,各方法修復的均方誤差RSME和峰值信噪比PSNR的結果如表1所示。

        3 ?結 ?語

        本文針對目前大多數(shù)深度相機獲取的深度圖像中存在的大面積空洞問題,提出基于圖像融合的深度圖像修復算法,利用彩色圖像獲取的邊緣信息與深度圖像獲取的分類信息相結合的方法對深度圖像進行修復。本文方法在保證深度圖像邊緣處小面積空洞較為精確修復的前提下,將剩余大面積空洞進行了有效的修復,后續(xù)研究中,優(yōu)化步驟使得修復效率進一步的提高。

        注:本文通訊作者為曹雛清。

        參考文獻

        [1] JUN X,CHENG C, CHOU, FERIS R, et al. Single depth image super resolution and denoising via coupled dictionary learning with local constraints and shock filtering [C]// 2014 IEEE International Conference on Multimedia and Expo. Chengdu: IEEE, 2014: 142?145.

        [2] 胡天佑,彭宗舉,焦任直,等.基于超像素分割的深度圖像修復算法[J].光電子·激光,2016(10):1120?1128.

        [3] 劉繼忠,吳文虎,程承,等.基于像素濾波和中值濾波的深度圖像修復方法[J].光電子·激光,2018,29(5):539?544.

        [4] 呂朝輝,沈縈華,李精華.基于Kinect的深度圖像修復方法[J].吉林大學學報(工學版),2016,46(5):1697?1703.

        [5] 譚筠,安向京,賀漢根.基于優(yōu)化的深度圖像修復與恢復算法[J].華中科技大學學報(自然科學版),2013(z1):137?139.

        [6] ZHANG F, LEI T, LI J, et al. Real?time calibration and registration method for indoor scene with joint depth and color camera [J]. International journal of pattern recognition & artificial intelligence, 2018, 32(7): 1854021.

        [7] CAI Q, LIU Y Q, CAO J, et al. A watershed image segmentation algorithm based on self?adaptive marking and interregional affinity propagation clustering [J]. Acta electronica sinica, 2017, 45(8): 1911?1918.

        [8] 張建偉,王譯禾,陳允杰.基于非線性擴散濾波結構信息的圖像去噪方法[J].計算機工程與設計,2016,37(11):2971?2978.

        [9] DEVKOTA B, ALSADOON A, PRASED P W C, et al. Image segmentation for early stage brain tumor detection using mathematical morphological reconstruction [J]. Procedia computer science, 2018, 125: 115?123.

        [10] CAI Q, LIU Y Q, CAO J, et al. A watershed image segmentation algorithm based on self?adaptive marking and interregional affinity propagation clustering [J]. Acta electronica sinica, 2017, 45(8): 1911?1918.

        [11] WANG L L, LI G D, SHI L P, et al. Research on segmentation of grape disease based on improved watershed algorithm [C]// International Conference on Smart City & Systems Engineering IEEE Computer Society. Changsha: IEEE, 2017: 46?51.

        [12] PAN J, HU Z, SU Z, et al. Deblurring text images via l0?regularized intensity and gradient prior [C]// 2014 IEEE Conference on Computer Vision and Pattern Recognition IEEE Computer Society. Columbus: IEEE, 2014: 67?71.

        [13] Anon. Middlebury datasets [EB/OL]. [2017?12?24]. http://vision.middlebury.edu/stereo.

        [14] 徐歡,鄭江濱.Kinect深度圖像修復算法[J].微電子學與計算機,2013,30(11):98?103.

        作者簡介:劉漢偉(1996—),男,山東濟南人,碩士,主要研究方向為圖像處理、模式識別等。

        曹雛清(1982—),男,安徽宣城人,博士,講師,主要研究方向為模式識別與人工智能、智能化機器人、人機交互與多機器人協(xié)作等。

        猜你喜歡
        圖像融合圖像分類
        基于數(shù)據挖掘的圖像分類算法
        基于云計算的圖像分類算法
        基于小波變換的多模態(tài)醫(yī)學圖像的融合方法
        基于錨點建圖的半監(jiān)督分類在遙感圖像中的應用
        一種基于引導濾波和MNF的高光譜遙感圖像分類方法
        軟件導刊(2016年9期)2016-11-07 22:19:22
        灰色關聯(lián)度在紅外與微光圖像融合質量評價中的應用研究
        基于最大似然法的南京市土地利用類型分類研究
        商(2016年22期)2016-07-08 14:32:30
        林火安防預警與應急處理系統(tǒng)設計
        基于Matlab的遙感圖像IHS小波融合算法的并行化設計
        科技視界(2016年11期)2016-05-23 08:13:35
        一種新的IHS圖像多次融合的方法
        日本一级二级三级不卡| 亚州无线国产2021| 黄色av三级在线免费观看| 国产激情一区二区三区不卡av | 粗了大了 整进去好爽视频| 亚洲综合一| 欧美成人中文字幕| 日本看片一区二区三区| 九一免费一区二区三区偷拍视频| 亚洲av无码一区二区三区乱子伦| 久久AV老司机精品网站导航| 午夜一区二区三区av| 蜜桃视频在线观看网址| 色天使综合婷婷国产日韩av| 亚洲综合欧美日本另类激情| 伊人久久婷婷综合五月97色| 国产av久久在线观看| 亚洲av日韩av天堂一区二区三区| 亚洲第一看片| 亚洲黑寡妇黄色一级片| 久久综合伊人77777麻豆| 少妇高潮潮喷到猛进猛出小说| 久久尤物av天堂日日综合| 日韩国产自拍视频在线观看| 免费国产在线精品一区| 女同久久精品国产99国产精品| 国产在线AⅤ精品性色| 国内自拍偷国视频系列| 超级碰碰色偷偷免费视频| 亚洲产在线精品亚洲第一站一| 自拍av免费在线观看| 精品日韩亚洲av无码| 欧美成人看片黄a免费看| 久久精品国产亚洲AV高清wy| 亚洲国产中文字幕无线乱码| 日本高清h色视频在线观看| 久久福利青草精品资源| 国产91在线播放九色快色| 国产精品国三级国产av| 亚洲专区欧美| 久久夜色精品国产三级|