亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于時空域相關性的屏幕內(nèi)容幀間快速編碼算法

        2017-11-15 06:02:43胡晴晴彭宗舉
        計算機應用 2017年9期
        關鍵詞:復雜度編碼深度

        胡晴晴,彭宗舉,陳 芬

        (寧波大學 信息科學與工程學院,浙江 寧波 315211)(*通信作者電子郵箱pengzongju@nbu.edu.cn)

        基于時空域相關性的屏幕內(nèi)容幀間快速編碼算法

        胡晴晴,彭宗舉*,陳 芬

        (寧波大學 信息科學與工程學院,浙江 寧波 315211)(*通信作者電子郵箱pengzongju@nbu.edu.cn)

        針對屏幕內(nèi)容視頻幀間編碼的高復雜度問題,提出了一種基于時空域特性的幀間快速編碼算法。首先,根據(jù)運動靜止檢測算法將待編碼幀分為靜止幀和運動幀;然后,對運動和靜止幀分別采用不同的編碼策略。對于靜止幀,在統(tǒng)計分析時域?qū)幋a單元(CU)分割深度和預測模式的基礎上,確定CU最佳分割深度和最優(yōu)預測模式。對于運動幀中的靜止最大編碼單元(LCU),利用時域相關特性提前終止CU分割,模式選取則只針對大尺寸模式進行預測;對于運動幀中的運動LCU,根據(jù)其相鄰LCU的運動靜止特性確定CU分割深度以及預測模式。實驗結(jié)果表明,所提算法相比原始編碼平臺,在BDBR平均上升3.65%的情況下,編碼時間平均節(jié)省46.40%。所提算法在率失真性能損失可接受的前提下,有效地降低了屏幕內(nèi)容視頻幀間編碼復雜度,有利于屏幕內(nèi)容視頻的實時應用。

        屏幕內(nèi)容視頻;幀間快速算法;時空域相關性;運動靜止特性;編碼單元分割深度;預測模式

        隨著高清和超高清視頻應用的日益增加,高效視頻編碼(High Efficiency Video Coding, HEVC)標準[1]應運而生,它是繼H.264/AVC(Advanced Video Coding)[2]之后的新一代視頻編碼標準。隨著移動設備終端以及云技術的發(fā)展,諸如遠程桌面、遠程教育、在線游戲、電話會議等屏幕視頻的應用變得越來越廣泛。2014年初視頻編碼聯(lián)合小組在HEVC的基礎上提出了屏幕內(nèi)容編碼(Screen Content Coding, SCC)的擴展標準,并開發(fā)了SCC測試模型(SCC Test Model, SCM)[3]。

        HEVC采用基于編碼樹單元(Coding Tree Unit, CTU)的分層四叉樹結(jié)構(gòu),用編碼單元(Coding Unit, CU)、預測單元 (Prediction Unit, PU)和變換單元(Transform Unit, TU)來描述整個編碼過程。HEVC幀內(nèi)編碼過程采用了基于四叉樹的編碼技術和35種幀內(nèi)預測模式;在幀間編碼中采用可變PU的高精度運動補償技術、自適應運動矢量預測技術以及運動融合技術。SCC是HEVC的擴展,不僅繼承了HEVC的編碼技術,而且增加了新的編碼技術:幀內(nèi)塊拷貝(Intra-Block Copy ,IBC)、調(diào)色板模式(Palette Mode, PLT)、自適應顏色變換和自適應運動矢量分辨率編碼新技術[4-8]。由于HEVC編碼標準的復雜性以及SCC編碼標準增加新技術帶來的復雜度,不利于視頻的實時應用。

        目前有很多學者從不同的角度提出了多種屏幕內(nèi)容視頻快速編碼算法。Lei等[9]通過分析視頻序列的內(nèi)容屬性,將視頻分為自然內(nèi)容CU和屏幕內(nèi)容CU:對自然內(nèi)容CU,如果其最佳預測模式為DC或Planar模式,則跳過其他模式并終止CU分割;對于屏幕內(nèi)容CU,引入基于秩的策略終止CU劃分。Zhang等[10]首先利用CU的時域相關性,確定CU的分割深度,然后采用自適應搜索加速IBC的快匹配過程。Zhang等[11]提出了一種基于熵編碼和編碼比特位的快速最大編碼單元(Largest CU, LCU)分割模式。Kwon等[12]針對SCM平臺IBC技術過于復雜的問題,提出了基于幀內(nèi)率失真代價和CU復雜度的快速跳過模式。Duanmu等[13]用機器學習的方法根據(jù)CU的特點進行分類以確定當前CU是否需要劃分,并對CU劃分的結(jié)果進行PU選擇。Zhang等[14]首先利用CU之間的時域相關性對CU的深度預測進行快速選擇,然后采取自適應搜索的方法降低IBC的復雜度。Kawakami等[15]利用屏幕內(nèi)容序列具有銳利邊緣的特點,提出了基于銳利邊緣分類和基于邊緣方向性分類的算法,根據(jù)邊緣方向性的強弱區(qū)分CU的分割深度,根據(jù)邊緣方向性確定PU模式。Laude等[16]針對屏幕內(nèi)容序列含有大量靜止塊的特點,利用時間相關性,對于靜止區(qū)域當前LCU的信息可以從參考幀中的同位塊直接拷貝。陳先義等[17]針對屏幕內(nèi)容包含大量非連續(xù)色調(diào)內(nèi)容的特點,提出了一種新的幀內(nèi)編碼模式:幀內(nèi)串匹配,基本思想是在CU編碼層引入字典編碼工具,利用散列表對CU內(nèi)的像素進行串搜索和匹配。

        以上算法主要是考慮幀內(nèi)CU遞歸分割和模式選擇的復雜度,對視頻序列的時空域考慮較少,尤其是時域相關性以及運動特性。目前對SCC幀間編碼的研究較少,幀間編碼與幀內(nèi)編碼的復雜性不同。基于此,本文提出了基于時空域特性的屏幕內(nèi)容視頻幀間快速算法。首先,根據(jù)視頻的運動特性將視頻分為靜止幀和運動幀;然后對不同的幀類型根據(jù)CU分割深度和最優(yōu)預測模式統(tǒng)計特性以及時空域相關性采用不同的編碼方案進行快速CU分割和PU模式的選取。

        1 復雜度分析

        HEVC采用遞歸方式對LCU進行四叉樹結(jié)構(gòu)的劃分,在一個LCU內(nèi)遞歸遍歷0~3深度的CU,根據(jù)率失真優(yōu)化模型選擇最佳的CU分割尺寸。在確定最優(yōu)CU劃分深度的過程中,需要進行85次遞歸過程,這使得編碼復雜度大大增加。預測編碼過程中,不同尺寸的CU可以繼續(xù)劃分成不同大小PU。針對每個PU塊,HEVC需要遍歷Skip、Merge和2種幀內(nèi)模式以及8種幀間模式,其中interN×N和intraN×N只有當前CU深度值為3時才可用。HEVC-SCC的預測過程還增加了IBC和PLT模式,其中當CU尺寸為64×64時,PLT模式不存在,如圖1所示。

        圖1 PU模式

        HEVC-SCC編碼新技術的加入降低了碼率,但同時也引入了更大的編碼復雜度。為了更清楚地了解編碼新技術的加入對編碼性能的影響,本文分別在全幀內(nèi)、低延時和隨機訪問配置下測試了Map、CADWaveform、WordEditing和PCBLayout共4個屏幕內(nèi)容標準測試序列的編碼情況。圖2中BDBR(Bj?ntegaard Delta Bit Rate)[18]表示相同圖像質(zhì)量條件下碼率的變化百分比,Δt表示編碼時間的改變,其計算公式為:

        Δt=tSCC/tno-SCC

        (1)

        其中:tSCC表為增加SCC新編碼技術所用的編碼時間,tno-SCC表示未增加新技術所用的編碼時間。

        圖2 不同編碼配置下編碼新技術引起的編碼性能變化

        由圖2可以看出,在不同的配置下碼率均是下降的,而編碼時間是上升的。全幀內(nèi)編碼時,編碼時間平均上升321.73%,碼率平均下降62.74%;低延時編碼時,編碼時間平均上升113.49%,碼率平均下降53.88%;隨機訪問編碼時,編碼時間平均上升121.17%,碼率平均下降59.74%。

        2 HEVC-SCC幀間快速編碼算法

        HEVC-SCC中,每個CU深度級和模式?jīng)Q策過程都需要計算率失真代價,這使得計算復雜度非常高。如果跳過不必要的深度級和預測模式的率失真代價計算,則可以有效地降低編碼復雜度。

        2.1 運動靜止檢測

        與HEVC標準測試序列相比,HEVC-SCC的標準測試序列時域相關性較強。在幀間編碼過程中,運動和靜止區(qū)域的編碼特性不同,因此本文重點探索了運動靜止區(qū)域的編碼特性,根據(jù)編碼特性的不同決定LCU分割深度和預測模式的最優(yōu)選擇。

        本文采用前向幀差確定運動靜止幀。具體步驟如下:

        1)獲取當前幀和前向參考幀的像素值;

        2)計算當前幀與前向參考幀的像素差diff[i];

        3)計算diff[i]不為0的像素占整幀的比例p;

        若p

        在運動幀中仍然存在運動靜止塊的區(qū)別,采用大津閾值方法判定不同幀中的運動靜止塊。首先根據(jù)像素得到幀差圖,利用大津閾值法將幀差圖進行二值化,然后根據(jù)得到的二值化幀差圖判定運動靜止塊。若當前LCU中無運動像素,則判定其為靜止LCU,否則為運動LCU。

        2.2 靜止幀快速算法

        2.2.1 CU劃分深度的確定

        對于同一個視頻序列,靜止幀與其對應參考幀的內(nèi)容差異往往較小,從而其對應的CU分割深度范圍具有很強的相似性。因此,可以根據(jù)時域相關性利用參考幀的最佳編碼深度確定當前LCU的編碼深度。

        對Map、CADWaveform、WordEditing 3個序列的前35幀進行統(tǒng)計分析。表1給出了當前幀的深度范圍與參考幀深度范圍的統(tǒng)計結(jié)果,其中參考幀深度表示參考幀的最小、最大分割深度,靜止幀深度表示當前幀的最小、最大分割深度。通過統(tǒng)計結(jié)果可以看出時域參考幀最佳分割深度為0且當前幀的最佳分割深度也為0的比例為96.00%,說明靜止幀與其時域參考幀都是靜止區(qū)域的LCU占了整幀圖像的96.00%;當前幀與時域參考幀相比為靜止區(qū)域的LCU占整幀圖像的99.76%,最佳編碼深度為0。由以上分析可以得出,靜止幀的編碼深度可以設置為0。

        表1 靜止幀與參考幀深度范圍統(tǒng)計

        2.2.2 模式快速選取

        靜止幀往往采用大尺寸LCU進行編碼,也通常采用大尺寸模式作為最佳分割模式。首先對原始編碼平臺進行統(tǒng)計分析,如表2所示,可以看出靜止幀中Skip/Merge模式所占比例均在90.00%以上,Skip/Merge、Intra、IBC和PLT模式所占比例為99.00%以上,因此基于統(tǒng)計信息可以對靜止幀模式選取采取以下策略:若當前幀判定為靜止幀,則只遍歷Skip/Merge、Intra、IBC和PLT模式,其中Skip和Merge模式包括幀間和IBC模式。

        表2 靜止幀預測模式分布

        2.3 運動幀快速算法

        2.3.1 靜止LCU快速算法

        由于絕對靜止塊與其參考塊的圖像信息是完全相同的,則其分割深度與參考塊的分割深度應該是相似的。靜止LCU的最佳分割深度由式(2)確定:

        (2)

        為了驗證該部分算法的準確性,表3統(tǒng)計了不同量化參數(shù)(Quantization Parameter, QP)下的準確率。由表3可以看出,靜止LCU的深度分割快速算法的平均準確率可以達到99.39%,提前終止靜止LCU的分割不會造成太大的率失真性能損失。

        靜止塊往往采用大尺寸模式作為最佳分割模式,由表4可知,對于靜止塊采用Skip/Merge和IIP(Inter_2N×2N、IBC_2N×2N、PLT_2N×2N)作為最佳分割模式的平均比例占到了99.86%,因此可以跳過其他模式的運動估計過程。

        表3 靜止CU深度預測準確率

        表4 靜止塊最優(yōu)預測模式統(tǒng)計

        2.3.2 運動LCU快速算法

        運動塊的CU分割深度往往較大,并且與時空域相鄰LCU的分割深度有較強的關聯(lián)性。若其相鄰LCU均為靜止塊則關聯(lián)性幾乎為0,因此利用時空域相關性對當前LCU進行分割深度預測時首先要考慮其相鄰LCU的運動特性。本文采用5個同位和相鄰LCU對當前LCU進行預測,分別為參考幀同位LCU、當前幀左側(cè)LCU、左上LCU、上方LCU和右上LCU。具體預測過程如下:

        1)首先確定其相鄰LCU的運動靜止標志位FlagMove;

        (3)

        2)計算相鄰LCU標志位的和SUMFlag;

        (4)

        3)利用SUMFlag對當前LCU進行深度預測。

        (5)

        其中,Depthmin和Depthmax分別為相鄰LCU的最小和最大分割深度。

        由于視頻圖像中存在著很強的時空域相關性,因此圖像中相鄰CU的最佳預測模式之間存在著很強的時空域相關性。根據(jù)這一特性,在運動LCU模式選擇時,可以利用其時空域相鄰CU最佳預測模式來預測當前CU的最佳預測模式。由于運動LCU中仍然可能存在小尺寸的靜止CU,其預測模式可能為Skip、Merge、IIP,因此要將Skip、Merge模式作為預測的候選模式。具體方案為:針對運動LCU,首先將Skip、Merge、IIP模式加入當前LCU的候選模式列表,若其時空域相鄰的5個LCU中的各CU的最佳預測模式為P,則將P加入候選模式列表,完成當前LCU的模式預測過程。經(jīng)過實驗驗證發(fā)現(xiàn),在小尺寸CU的預測過程中,由于其時空域相鄰LCU并不一定為運動劇烈LCU,這種預測方案會造成較大的率失真性能損失,因此運動LCU中模式選取快速算法只針對分割深度為0和1的CU。

        3 實驗結(jié)果與分析

        為了驗證本文所提出的HEVC-SCC幀間快速編碼算法的有效性,將其在SCM參考軟件SCM-5.2上進行實現(xiàn)以測試其率失真性能和編碼時間。實驗平臺的硬件配置為Intel Core i5- 4590 CPU 3.3 GHz,內(nèi)存為8.0 GHz,操作系統(tǒng)為Windows 7 64位。實驗的主要編碼參數(shù)為低延時編碼模式,編碼幀數(shù)為100幀,QP分別為22、27、32和37,GOP(Group of Pictures)大小為4。為了衡量算法的編碼性能,本文采用BDBR和ΔT來衡量算法的編碼復雜度降低,其計算公式為:

        ΔT=((Treference-Tproposed)/Treference)×100%

        (6)

        其中:Treference以及Tproposed分別表示SCM原始算法(Anchor SCM-5.2)和提出算法的編碼時間。

        本文采用通用測試條件[19]中的11個測試序列進行實驗驗證。實驗結(jié)果表明,本文算法與標準算法相比,編碼時間平均降低46.40%,BDBR平均上升3.65%。

        由表5實驗結(jié)果可以看出,本文所提算法對不同序列均可以降低編碼復雜度。用原始平臺進行編碼,每個LCU都需要遍歷0~3深度的預測模式,而使用本文所提算法可以根據(jù)編碼幀以及編碼LCU類型的不同,提前終止CU的分割以及實現(xiàn)模式的快速選取,從而節(jié)省編碼時間。

        表5 算法實驗結(jié)果

        但是對不同的測試序列編碼復雜度的降低情況是不同的。對Kimono1和VenueVu序列節(jié)省的時間可以達到70%左右,這是由于這兩個序列本身變化雖緩慢,但受光照因素以及復雜背景的影響,原始平臺編碼時Skip模式相對較少,而采用本文所提快速算法,可以跳過某些深度及模式的預測過程,大大降低編碼復雜度。對Ppt_doc_xls、CADWaveform等序列因為其本身存在大量的字符、線條等且變化緩慢,編碼Skip模式的占很大比例,而原始平臺在模式選取時有Skip模式的提前終止,因此本文所提算法對這類序列的編碼復雜度降低較少。

        為了進一步驗證不同幀的編碼策略對編碼性能的影響,對Map、CADWaveform、WordEditing 3個測試序列的前35幀進行統(tǒng)計。其中,Map序列的第2、3、6、8、9、11、32、33、34幀,CADWaveform序列的第32、33、34幀,WordEditing序列的第3、7、9、10、12、19、22、23、24、26、27幀為靜止幀,所占比例為21.90%;運動幀中,靜止LCU的比例為49.02%,運動LCU的比例為50.98%。表6分別測試了靜止幀和運動幀編碼策略對編碼性能的影響。從表6可以看出,運動幀快速算法對編碼時間的節(jié)省更加明顯。

        表6 不同編碼策略對編碼性能的影響

        4 結(jié)語

        本文提出了一種基于時空域相關性的屏幕內(nèi)容視頻幀間快速算法,該算法通過運動靜止檢測將編碼幀分為運動幀和靜止幀,針對不同的幀類型采用不同的快速算法。在靜止幀中,充分利用統(tǒng)計特性及時域相關性來確定CU分割深度和最優(yōu)預測模式。在運動幀中,將待編碼LCU分為靜止LCU和運動LCU,靜止LCU利用時域統(tǒng)計特性提前終止CU分割和確定預測模式;運動LCU利用時空域相關性確定CU最佳分割深度。實驗結(jié)果表明,本文提出的算法相比原始SCM平臺,在BDBR平均上升3.65%的情況下,編碼時間平均節(jié)省46.40%,有利于屏幕內(nèi)容視頻的實際應用。

        References)

        [1] WIEGAND T, OHM J R, SULLIVAN G J, et al. Special section on the joint call for proposals on High Efficiency Video Coding (HEVC) standardization [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2010, 20(12): 1661-1666.

        [2] WIEGAND T, SULLIVAN G J, BJONTEGAARD G, et al. Overview of the H.264/AVC video coding standard [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2003, 13(7): 560-576.

        [3] JOSHI R, XU J, COHEN R, et al. Screen content coding test model 3 encoder description (SCM 3) [R]. Strasbourg, France: The Joint Collaborative Team on Video Coding, 2014.

        [4] CHEN C C, XU X, LIAO R L, et al. Screen content coding using non-square intra block copy for HEVC [C]// Proceedings of the 2014 IEEE International Conference on Multimedia and Expo. Washington, DC: IEEE Computer Society, 2014: 1-6.

        [5] XU J, JOSHI R, COHEN R A. Overview of the emerging HEVC screen content coding extension [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2016, 26(1): 50-62.

        [6] ZHANG K, AN J, ZHANG X, et al. Symmetric intra block copy in video coding [C]// Proceedings of the 2015 IEEE International Symposium on Circuits and Systems. Piscataway, NJ: IEEE, 2015: 521-524.

        [7] CHANG T S, LIAO R L, CHEN C C, et al. RCE3: Results of subtest B.1 onN×2N/2N×Nintra block copy [R]. San Jose, USA: The Joint Collaborative Team on Video Coding, 2014.

        [8] SUN Y C, CHUANG T D, LAI P L, et al. Palette mode—a new coding tool in screen content coding extensions of HEVC [C]// Proceedings of the 2015 IEEE International Conference on Image Processing. Piscataway, NJ: IEEE, 2015: 2409-2413.

        [9] LEI J, LI D, PAN Z, et al. Fast intra prediction based on content property analysis for low complexity HEVC-based screen content coding [J]. IEEE Transactions on Broadcasting, 2017, 63(1): 48-58.

        [10] ZHANG H, ZHOU Q, SHI N, et al. Fast intra mode decision and block matching for HEVC screen content compression [C]// Proceedings of the 2016 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE, 2016: 1377-1381.

        [11] ZHANG M, GUO Y, BAI H. Fast intra partition algorithm for HEVC screen content coding [C]// Proceedings of the 2014 IEEE Visual Communications and Image Processing Conference. Piscataway, NJ: IEEE, 2014: 390-393.

        [12] KWON D K, BUDAGAVI M. Fast intra block copy (IntraBC) search for HEVC screen content coding [C]// Proceedings of the 2014 IEEE International Symposium on Circuits and Systems. Piscataway, NJ: IEEE, 2014: 9-12.

        [13] DUANMU F, MA Z, WANG Y. Fast CU partition decision using machine learning for screen content compression [C]// Proceedings of the 2015 IEEE International Conference on Image Processing. Piscataway, NJ: IEEE, 2015: 4972-4976.

        [14] ZHANG H, ZHOU Q, SHI N, et al. Fast intra mode decision and block matching for HEVC screen content compression [C]// Proceedings of the 2016 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE, 2016: 1377-1381.

        [15] KAWAKAMI Y, CHEN G, IKENAGA T. Content based mode and depth skipping with sharp and directional edges for intra prediction in screen content coding [C]// Proceedings of the 2016 IEEE International Colloquium on Signal Processing and Its Applications. Piscataway, NJ: IEEE, 2016: 46-49.

        [16] LAUDE T, OSTERMANN J. Copy mode for static screen content coding with HEVC [C]// Proceedings of the 2015 IEEE International Conference on Image Processing. Piscataway, NJ: IEEE, 2015: 1930-1934.

        [17] 陳先義,趙利平,林濤.一種新的用于屏幕圖像編碼的HEVC 幀內(nèi)模式[J].電子與信息學報,2015,37(11):2685-2690.(CHEN X Y, ZHAO L P, LIN T. A new HEVC intra mode for screen content coding [J]. Journal of Electronics and Information Technology, 2015, 37(11): 2685-2690.)

        [18] BJONTEGAARD G. Calculation of average PSNR differences between RD-curves [EB/OL]. (2001- 05- 18) [2016- 09- 15]. http://wftp3.itu.int/av-arch/video-site/0104_Aus/.

        [19] YU H, COHEN R, RAPAKA K, et al. Common test conditions for screen content coding [R]. Sapporo, Japan: The Joint Collaborative Team on Video Coding, 2014.

        Fastinter-framecodingalgorithmforscreencontentbasedontemporal-spatialcorrelation

        HU Qingqing, PENG Zongju*, CHEN Fen

        (FacultyofInformationScienceandEngineering,NingboUniversity,NingboZhejiang315211,China)

        Aiming at the high complexity problem of inter-frame coding for screen content video, a fast inter-frame algorithm based on temporal-spatial correlation was proposed. Firstly, the encoding frames were classified to static frames and motion frames according to motion-static detection algorithm. Then, different encoding strategies were used for motion and static frames, respectively. For the static frames, the optimal partition depth and the optimal prediction mode of Coding Unit (CU) were determined based on the CU partition depth and the prediction mode of the temporal correlation. For the static Largest CU (LCU) in the motion frames, the CU partition was terminated prematurely by using the temporal correlation, and the mode selection was only for the large size modes. Whereas for the motion LCU in motion frames, the motion-static characteristic of adjacent LCU was utilized to determine the current CU partition depth and prediction mode. The experimental results show that the proposed method can reduce the average coding time by 46.40% when BDBR is increased by 3.65% compared with the original coding platform. The proposed method can significantly reduce the complexity of screen content inter-frame encoding process in the premise of negligible BDBR (Bj?ntegaard Delta Bit Rate) performance loss. Therefore the proposed method is beneficial to the real-time application of screen content video.

        screen content video; fast inter-frame algorithm; temporal-spatial correlation; motion-static characteristic; Coding Unit (CU) partition depth; prediction mode

        2017- 03- 13;

        2017- 04- 24。

        浙江省自然科學基金資助項目(LY16F010002, LY15F010005, LY17F010005);寧波市自然科學基金資助項目(2015A610127, 2015A610124); 寧波大學科研基金(理)/學科項目(xkxl1502)。

        胡晴晴(1991—),女,山東棗莊人,碩士研究生,主要研究方向:視頻信號處理與編碼; 彭宗舉(1973—),男,四川南充人,教授,博士,主要研究方向:視頻圖像壓縮、多媒體信號處理與通信、感知編碼; 陳芬(1973—),女,四川鄰水人,副教授,博士,主要研究方向:圖像信號處理、三維視頻編碼。

        1001- 9081(2017)09- 2643- 05

        10.11772/j.issn.1001- 9081.2017.09.2643

        TN919.81

        A

        This work is partially supported by the Natural Science Foundation of Zhejiang Province (LY16F010002, LY15F010005, LY17F010005), the Natural Science Foundation of Ningbo (2015A610127, 2015A610124), the Research Foundation (Science) or Subject Project of Ningbo University (xkxl1502).

        HUQingqing, born in 1991, M.S. candidate. Her research interest include video signal processing and coding.

        PENGZongju, born in 1973, Ph. D., professor. His research interests include video image compression, multimedia signal processing and communication research, perceptual coding.

        CHENFen, born in 1973, Ph. D., associate professor. Her research interests include image signal processing, 3D video coding.

        猜你喜歡
        復雜度編碼深度
        基于SAR-SIFT和快速稀疏編碼的合成孔徑雷達圖像配準
        深度理解一元一次方程
        《全元詩》未編碼疑難字考辨十五則
        子帶編碼在圖像壓縮編碼中的應用
        電子制作(2019年22期)2020-01-14 03:16:24
        一種低復雜度的慣性/GNSS矢量深組合方法
        深度觀察
        深度觀察
        Genome and healthcare
        深度觀察
        求圖上廣探樹的時間復雜度
        国产成人无码av一区二区在线观看| 97久久久一区二区少妇| 区二区欧美性插b在线视频网站| 香色肉欲色综合| 国产xxxxx在线观看免费| 国产剧情无码中文字幕在线观看不卡视频| 国产精品国产三级国产av主| 国产黄三级三级三级三级一区二区| 亚洲六月丁香色婷婷综合久久| 天天色天天操天天日天天射| 国产黑丝美腿在线观看| av色综合久久天堂av色综合在| 色妞ww精品视频7777| 少妇厨房愉情理伦片免费 | 国产成人午夜精品免费视频| 在线观看精品国产福利片100| 一区二区三区不卡免费av| 国产一区二区三区十八区| 亚洲免费观看视频| 蜜臀av999无码精品国产专区| 300部国产真实乱| 波多野结衣视频网址| 天天插天天干天天操| 高清亚洲成av人片乱码色午夜| 中文字日产幕码三区做法| 日韩有码中文字幕在线观看| 国产精品videossex久久发布| 激情内射日本一区二区三区| 内射中出无码护士在线| 综合网五月| 精品久久久久久99人妻| 69久久精品亚洲一区二区| 神马影院日本一区二区| 精品九九人人做人人爱| 亚洲综合色丁香婷婷六月图片| 日韩精品有码在线视频| 国产色第一区不卡高清| 日韩 亚洲 制服 欧美 综合 | 色欲网天天无码av| a级毛片无码免费真人| 国产精品一区二区在线观看99|