亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        視頻編碼新技術和新方向

        2017-09-03 09:21:25郭勐聶秀英黃更生
        電信科學 2017年8期
        關鍵詞:編碼標準像素點矢量

        郭勐,聶秀英,黃更生

        (1. 中國移動通信有限公司研究院,北京 100053;2. 中國信息通信研究院,北京 100191)

        視頻編碼新技術和新方向

        郭勐1,聶秀英2,黃更生1

        (1. 中國移動通信有限公司研究院,北京 100053;2. 中國信息通信研究院,北京 100191)

        以HEVC和AVS2為代表的新一代視頻編碼標準,仍主要采用基于預測/變換的編碼框架,但在編碼單元、幀內預測、幀間預測和去塊效應濾波等環(huán)節(jié)均引入了新的編碼技術。對這些視頻編碼新技術進行了總結,同時分析和探討了場景視頻編碼、云編碼以及深度學習視頻編碼等視頻技術發(fā)展新方向。

        視頻編碼;HEVC;AVS2

        1 引言

        近年來,隨著網(wǎng)絡帶寬的提高、智能終端和互聯(lián)網(wǎng)音視頻應用數(shù)量的迅猛增長,視頻流量已經成為網(wǎng)絡傳輸?shù)闹饕髁浚⑶胰栽谝苿泳W(wǎng)絡中持續(xù)大幅增長。根據(jù)思科視覺網(wǎng)絡指數(shù)(visual networking index,VNI)《全球移動數(shù)據(jù)流量預測(2016—2021)》報告,預計 2016—2021年,移動視頻將增長 8.7倍,在移動應用類別中享有最高的增長率;預計到2021年,移動視頻流量將達到 457 EB,占總移動流量的78%。持續(xù)增長的視頻流量不僅對網(wǎng)絡傳輸帶來了巨大挑戰(zhàn),也帶來了海量存儲的要求。為了能夠傳輸和存儲海量的視頻數(shù)據(jù),視頻壓縮編碼作為音視頻應用的基礎技術在快速發(fā)展,以HEVC/H.265為代表的新一代視頻編碼技術已經完成了標準化[1-4],并逐步應用在智能手機、監(jiān)控攝像機等設備中。本文將對視頻編碼的新技術進行介紹,并從應用和技術的角度分析視頻編碼發(fā)展的新方向。

        2 視頻編碼概述

        視頻編碼是利用圖像統(tǒng)計特性,去除視頻信號中存在的冗余信息的過程,通過視頻編碼可以實現(xiàn)原始視頻數(shù)據(jù)量的大幅減少。圖1截取了視頻序列中相鄰的兩幀。把圖像劃分為像素塊后,可以看到在空間相鄰的區(qū)域中、時間相鄰的區(qū)域中,圖像像素值相似,通過幀內預測、幀間預測技術可以去除空間冗余和時間冗余。同時,人眼對圖像中的邊緣、輪廓等信息更為敏感,通過時域到頻域的變換,可以把高頻的感知冗余做進一步的去除。

        圖1 視頻冗余信息去除

        經過幾十年的技術發(fā)展,視頻編碼基本采用基于塊的運動補償預測、殘差變換量化和熵編碼方法,形成了統(tǒng)一的技術框架,如圖 2所示。首先選擇幀內編碼或者幀間編碼;對幀內編碼的塊進行空間預測,對幀間編碼的塊進行運動補償預測;對預測后的殘差再做變換和量化,然后進行熵編碼,最終得到編碼碼流。為了減少解碼端預測誤差積累,在編碼器中還包含了一個解碼器生成用于幀內或者幀間預測的參考圖像。

        圖2 視頻編碼框架

        在視頻編碼標準方面,ITU-T VCEG工作組和ISO/IEC MPEG工作組已經制定了H.26x系列標準和MPEG系列標準,為視頻通話、IPTV等各類應用的快速普及提供了統(tǒng)一的技術標準。目前,新一代視頻編碼 HEVC(high efficiency video coding)已由ITU-T VCEG工和ISO/IEC MPEG的聯(lián)合工作組完成了標準制定,在2013年的4月正式發(fā)布。HEVC仍沿用了圖2的編碼框架,但在幀內預測、幀間預測等編碼環(huán)節(jié),引入了更高效的編碼算法,能夠更好地去除視頻信息冗余。HEVC主要采用的編碼新技術包括靈活的圖像塊劃分、多角度幀內預測、幀內預測子像素插值和樣本自適應補償?shù)?,較之前的H.264編碼算法,在獲得相同視頻質量的前提下,HEVC編碼視頻流的碼率節(jié)省了50%[5-9]。在國內,AVS工作組完成了AVS2視頻編碼標準。AVS2沿用圖2的編碼框架,同樣引入了靈活的編碼塊結構、多角度幀內預測和幀間對稱預測等技術,獲得了和HEVC相近的編碼性能[3,4]。

        3 視頻編碼新技術

        在新一代視頻編碼標準中,主要引入的新技術有新型編碼單元、多角度幀內預測、幀間預測子像素插值和樣本自適應補償?shù)取?/p>

        3.1 新型編碼單元

        與以往視頻編碼采用長度、寬度均為16像素的圖像塊(稱為16×16宏塊(macroblock,MB))作為基本編碼單元不同,HEVC和AVS2均引入了靈活的編碼樹單元(coding tree unit,CTU)。CTU可以是16×16像素、32×32像素或者64×64像素,采用靈活和較大的像素塊能夠提供高分辨率視頻的編碼效率。CTU進一步劃分為編碼單元(coding unit,CU),CU又劃分為多個預測單元(prediction unit,PU)和多個變換單元(transform unit,TU)。

        PU是進行預測運算的基本單元,一個CU可以劃分為一個或多個PU,PU不能超過一個CU的大小。圖3示意了一個2N×2N的CU可劃分為PU的8種方式。HEVC標準規(guī)定幀間預測可以在圖3所示的8種方式里面任意選擇,幀內預測只能選擇2N × 2N或者N×N的方式[9]。

        圖3 預測單元劃分方式

        TU是進行變換和量化的基本單元,每個TU可以包含多個PU,一個PU也可以包含多個TU,TU不能超過一個 CU的大小。為了清晰地描述CTU和CU、TU之間的關系,HEVC采用了四叉樹結構。圖4為CU、TU的四叉樹結構關系,其中實線為CU的四叉樹分割,虛線為TU的四叉樹分割,編號為各CU的編碼順序[9]。

        圖5對比了HEVC和H.264在編碼單元劃分上的不同。HEVC采用可變的塊大小能夠更好地表征出圖像的紋理和結構特點,CU、PU和 TU的分離也使得視頻編碼更加靈活,有助于提高視頻編碼效率。

        圖4 編碼單元劃分和四叉樹組織

        圖5 編碼單元對比

        3.2 多角度幀內預測

        幀內預測利用圖像相鄰像素之間的相關性,為需要編碼的圖像塊生成預測像素值,預測得到像素值和圖像真實像素值的差異很小,也就是大部分預測誤差基本為0。在編碼端只編碼傳輸預測誤差,解碼端一方面解碼預測誤差,一方面生成預測像素值,將二者加和就恢復出了被編碼的圖像塊。因此,幀內預測的關鍵是能夠盡可能地按照圖像塊的紋理、結構特點,生成和真實像素誤差最小的預測像素。HEVC編碼算法較H.264等以往編碼算法,在預測的角度上有更細的劃分,從8種增加到33種。幀內預測更細的角度劃分,能夠更好地表達圖像中的紋理信息和結構信息,從而獲得準確的預測值。圖6對比了H.264的8種預測方向和HEVC的33種幀內預測方向,HEVC預測方向角度由當前 PU的最下面一行或最右邊一列像素與上面參考像素行或者左邊參考像素列之間的位移確定,可以看到預測角度分別為[?32,?26,?21,?17,?13,?9,?5,?2,0,2,5,9,13,17,21,26,32]/32。同時,HEVC還定義了平面預測(intra_planar)和直流預測(intra_DC)。平面預測使用水平和垂直2個方向的線性插值平均作為當前像素的預測值,適用于紋理平滑、變化趨勢一致的圖像塊。直流預測對當前 PU的所有像素使用參考像素的平均值作為預測值,適用于平坦的圖像塊[9]。

        圖6 幀內預測角度對比

        3.3 幀間預測技術

        幀間預測利用視頻在時間上相鄰圖像幀的時域相關性,使用已經編碼的圖像重建幀作為參考幀,通過運動估計和運動補償對當前編碼幀進行預測,計算得到和真實像素值盡可能一致的預測像素值,從而去除時間冗余信息。HEVC幀間預測編碼整體上和H.264相似,主要是在子像素插值和運動矢量編碼方面進行了改進。

        在運動估計和運動補償中,預測得到的運動矢量可以指向整像素點,也可以指向1/2或者1/4子像素點。對于整像素位置,可以使用參考幀像素值直接進行運動補償;對于1/2或者1/4像素點,則需要根據(jù)整像素點進行插值運算,得到1/2或1/4像素點值。在H.264中,首先利用6抽頭的濾波器對整像素點濾波并舍入得到1/2像素點插值,再平均整像素點和相鄰的1/2像素點值得到1/4像素點插值。HEVC對此進行了改進,首先使用分離的兩個濾波器,分別進行1/2像素點和1/4像素點插值,一方面簡化了子像素插值過程,另一方面避免了H.264計算 1/4像素點過程中的舍入操作,提高了預測精度。同時,HEVC采用了更長的濾波器來進行子像素插值,對1/2子像素采用8抽頭濾波器,對1/4子像素采用7抽頭濾波器,能夠獲得更高的預測精度。

        在幀間預測編碼中,每個PU都有對應的運動矢量,為了進一步壓縮碼流,運動矢量同樣需要進行預測和編碼。在H.264中采用了空域中相鄰塊的運動矢量中值作為運動矢量的預測值,然后對運動矢量預測誤差進行編碼。HEVC對運動矢量編碼進行了改進,可以把空域中相鄰塊的運動矢量作為預測候選運動矢量,也可以把參考幀中對應位置的時域相鄰塊的運動矢量作為預測候選運動矢量。圖 7說明了在空域和時域上可以采用的多個候選運動矢量,其中C0、C1為參考幀時域相鄰塊的候選運動矢量,A0、A1、B0、B1、B2為空域相鄰塊的候選運動矢量。通過先進運動矢量預測技術,HEVC提高了運動矢量預測的準確性,進一步減少了編碼碼率[9]。

        圖7 運動矢量候選

        進行運動估計和補償時,每個 PU都有一套運動參數(shù),為了進一步地壓縮編碼參數(shù),HEVC對運動參數(shù)編碼引入了Merge模式,也就是將運動參數(shù)相同或相近的一些 PU合并起來形成一個區(qū)域,為這個區(qū)域只編碼和傳輸一次運動參數(shù)。圖8(a)為需要編碼的圖像,其中白色箭頭示意了圖像中主要運動的類似鐘擺的部分;圖8(b)為經過運動估計的CU的四叉樹劃分,可以看到對于具有相同或相近運動參數(shù)的靜止區(qū)域,被劃分為多個PU;圖8(c)為經過Merge合并后可以共享運動信息的區(qū)域劃分,這些區(qū)域共用了運動信息,減少了編碼碼流[9]。

        圖8 運動參數(shù)編碼Merge模式

        圖9 邊緣補償?shù)?個方向

        3.4 樣本自適應補償

        由于視頻編碼均把像素塊作為基本的編碼處理單元,在相鄰的像素塊邊界處會出現(xiàn)像素值不連續(xù)的現(xiàn)象,這種現(xiàn)象被稱為塊效應。為了消除塊效應,提高編碼質量,H.264等編碼算法均定義了去塊效應濾波(de-blocking filter)算法對重建圖像的塊邊界進行平滑。HEVC在采用去塊效應濾波的同時,另外加入了樣本自適應補償(sample adaptive offset,SAO)來增強圖像質量。SAO在去塊效應濾波之后,對重建像素塊中的像素值進行分類,并加上相應的偏移值,達到降低圖像失真的效果。SAO分為邊緣補償(edge offset,EO)和條帶補償(band offset,BO)。圖9示意了邊緣補償?shù)乃?、垂直?35°和45°的4個方向[9]。在選定邊緣補償?shù)姆较蚝?,繼續(xù)根據(jù)圖10的分類,進行像素值的偏移,對由于量化造成的像素點局部拐點、峰值點和谷值點加上一個適當?shù)南喾吹难a償量,用來消除編碼引入的偏移[9]。圖10中,類別 1指 ca & & c==b)||(c==a & & c>b),類別4指c>a & & c>b,類別0指以上都不是。條帶補償將圖像像素值范圍劃分為32等份,每個等份是一個“band(條帶)”。條帶補償首先計算每個條帶中原始像素點和重建像素點之間的平均值誤差(補償值),并選擇連續(xù)的4個偏移最大的條帶進行補償(把補償值加到每個重建像素上)。圖11中虛線表示圖像原始像素值,圓點表示圖像重建像素值,條帶補償將對4個條帶中的重建像素值加上補償值,使之更接近原始圖像像素值[9]。

        圖10 邊緣補償?shù)姆诸?/p>

        圖11 條帶補償示例

        4 視頻編碼新方向

        當前,HEVC和AVS2新一代視頻編碼標準已制定完成,其主要技術仍采用了基于預測/變換的編碼框架。為了能夠滿足視頻應用持續(xù)增長的需求,視頻編碼技術還在快速發(fā)展,出現(xiàn)了一些新的發(fā)展方向。

        4.1 場景視頻編碼

        雖然標準化的視頻編碼算法能夠在各種類型的視頻上均取得較好的壓縮效果,但在一些特定應用中仍有較大的提升空間。例如,在視頻監(jiān)控應用中,一般來說攝像機采集到圖像的背景是保持不變的,如果能夠獲取到視頻監(jiān)控場景的特征,并在編碼過程中使用,將能夠大幅提高壓縮效率。AVS2標準已經面向智能監(jiān)控應用,提出了場景視頻編碼,使得整體壓縮效率提高了大約1倍。AVS2的場景視頻編碼引入了場景圖像,在標準中為 G圖像或者GB圖像。G圖像是只使用幀內預測解碼的場景圖像,應被輸出;GB圖像也是只使用幀內預測解碼的場景圖像,但不被輸出。圖12中說明了場景圖像如何作為時間上的長期參考幀,用于預測[11],且量化參數(shù)較小。雖然場景圖像使用較小的量化系數(shù),產生了較多的編碼長度,但是場景圖像編碼質量會較高,能夠提供更高的預測精度,降低后續(xù)編碼幀的編碼長度。在編碼復雜度方面,場景視頻編碼未改變編碼框架,仍采用預測、變換和量化的編碼技術,保持了現(xiàn)有編碼技術相近的時間復雜度,編解碼器只增加了存儲場景圖像的緩沖存儲[11]。

        圖12 AVS2的場景編碼

        目前場景編碼在H.264或H.265等編碼標準中尚未引入,但在實際產品中,已出現(xiàn)了針對監(jiān)控視頻場景不變、圖像靜止的編碼優(yōu)化技術,對靜態(tài)場景降低幀率、碼率來實現(xiàn)進一步的壓縮。除了視頻監(jiān)控應用,還有視頻會議、課堂教學視頻、桌面云等一系列應用,都有著視頻場景不變或切換不頻繁的特點,結合這些應用的特點,對場景加以分析和利用,以便獲取更高壓縮比,是視頻編碼技術發(fā)展的方向之一[12]。

        4.2 云編碼

        隨著互聯(lián)網(wǎng)應用的發(fā)展,在云端保留了大量的圖像以及視頻,這些圖像和視頻可以用作參考,用于預測,從而實現(xiàn)云編碼,提高編碼效率。

        云編碼對云端的大量圖像和視頻數(shù)據(jù)中提取共性的對象,形成共享的視覺詞典。圖13描述了云編碼的技術特征,當新的圖像或視頻需要進行壓縮時,首先分析圖像中的典型編碼對象,和云端的視覺對象進行對比,記錄視覺詞典的索引后,只編碼有差異的部分[12]。當前已有研究工作嘗試了采用SIFT方法提取圖像特征,在云平臺進行特征匹配以實現(xiàn)圖像壓縮編碼[13]。

        云編碼不僅能夠從已有海量圖像視頻數(shù)據(jù)中獲取視頻編碼的先驗知識,提高編碼效率,還能夠利用云端豐富的計算資源,降低終端編碼復雜度,是值得深入研究的視頻編碼方向之一。

        圖13 云編碼技術特征

        4.3 深度學習視頻編碼

        隨著計算能力和數(shù)據(jù)量的提升,深度學習成為當前人工智能研究的熱點之一。通過大批量數(shù)據(jù)訓練,深度網(wǎng)絡模型能夠自動發(fā)現(xiàn)和提取圖像特征,已普遍應用在人臉識別、圖像分割、目標檢測等任務上,并取得了優(yōu)于傳統(tǒng)手工特征方法的檢測和識別性能。

        在圖像編碼領域,Google和MIT的研究人員也開始研究采用深度學習進行圖像和視頻壓縮編碼[14,15]。Google在2016年提出了一種基于神經網(wǎng)絡的有損圖像壓縮方法,采用了基于遞歸神經網(wǎng)絡(RNN)的編碼和解碼器以及二值化和熵編碼神經網(wǎng)絡,在柯達圖像集合上取得了優(yōu)于JPEG算法的壓縮性能[14]。MIT提出了生成壓縮的概念,采用生成網(wǎng)絡(generative network)進行編碼壓縮。圖14對比了生成壓縮和JPEG2000的效果,MIT在論文中特別提出和傳統(tǒng)圖像視頻壓縮算法依賴手工設計編碼器相比,生成神經網(wǎng)絡具有自動特征提取的優(yōu)勢,將是視頻編碼的重要發(fā)展方向[15]。

        4.4 立體視頻編碼

        為滿足3D電視、全景視頻的需求,H.264等視頻編碼標準制定了多視點視頻編碼的算法。近年來,隨著 VR的發(fā)展,立體視頻編碼仍是視頻編碼的研究熱點之一[16],HEVC也開展了面向多視點和深度信息的編碼研究。立體視頻編碼時,不僅需要去除某一視點內的空間和時間冗余,還需要去除不同視點間的空間和時間冗余,同時還需要對深度圖進行壓縮編碼。相比對每個視點視頻獨立編碼傳輸,立體視頻編碼能夠顯著降低碼率,隨著 VR設備和應用的增長,立體視頻編碼也將逐步得到應用。

        圖14 生成壓縮效果對比

        5 結束語

        HEVC和 AVS2是當前最新制定的視頻編碼標準,在互聯(lián)網(wǎng)、物聯(lián)網(wǎng)和可穿戴等領域都有廣泛應用[17-19]。HEVC和AVS2雖然仍采用了基于預測/變換的編碼框架,但引入了很多先進的編碼技術。在編碼單元上,可以是 16×16像素、32×32像素或者64×64像素,并能夠進一步靈活劃分為預測單元和變換單元;在幀內預測環(huán)節(jié),可以有33種預測方向;在幀間預測環(huán)節(jié),采用了更高精度的子像素插值和高效的運動矢量編碼;在環(huán)路濾波環(huán)節(jié),新增加了樣本自適應補償。本文首先介紹了視頻編碼的通用框架,隨后總結了這些編碼新技術。最后,本文對視頻編碼技術進行了展望,提出了場景視頻編碼、云編碼、深度學習視頻編碼等可能的發(fā)展新方向。

        [1]沈燕飛, 李錦濤, 朱珍民, 等. 高效視頻編碼[J]. 計算機學報, 2013, 36(11) : 2340-2355. SHEN Y F, LI J T, ZHU Z M, et al. High efficient video coding[J]. Chinese Journal of Computers, 2013, 36(11): 2340-2355.

        [2]SULLIVAN G J. OHM J R, HAN W J, et al. Overview of the high efficiency video coding (HEVC) standard[J]. Transactions on Circuits and Systems for Video Technology, 2012, 22(11): 1649-1688.

        [3]馬思偉. AVS視頻編碼標準技術回顧及最新進展[J]. 計算機研究與發(fā)展, 2015, 52(1): 27-37. MA S W. History and recent developments of AVS video coding standards[J]. Journal of Computer Research and Development, 2015, 52(1): 27-37.

        [4]WANG S S, LUO F L, MA S W. Overview of the second generation AVS video coding standard(AVS2)[J]. ZTE Communications, 2016, 1(1): 3-11.

        [5]朱秀昌, 李欣, 陳杰. 新一代視頻編碼標準——HEVC[J]. 南京郵電大學學報(自然科學版), 2013, 33(3): 1-11. ZHU X C, LI X, CHEN J. Next generation video coding stan-dard—HEVC[J]. Journal of Nanjing University of Posts and Telecommunications(Natural Science), 2013, 33(3): 1-11.

        [6]周作成, 賈克斌. 新一代視頻編碼標準HEVC關鍵技術及其應用[J]. 北京工業(yè)大學學報, 2014, 40(10): 1489-1496. ZHOU Z C, JIA K B. Key technologies and applications of next generation video coding standard HEVC[J]. Journal of Beijing University of Technology, 2014, 40(10): 1489-1496.

        [7]趙耀, 黃晗, 林春雨, 等. 新一代視頻編碼標準 HEVC的關鍵技術[J]. 數(shù)據(jù)采集與處理, 2014, 29(1): 1-10. ZHAO Y, HUANG H, LIN C Y, et al. Key techniques in new video coding standard HEVC[J]. Journal of Data Acquisition and Processing, 2014, 29(1): 1-10.

        [8]朱秀昌, 劉峰, 胡棟. H.265/HEVC視頻編碼新標準及其擴展[M]. 北京: 電子工業(yè)出版社, 2016. ZHU X C, LIU F, HU D. H.265/HEVC video coding standard[M]. Beijing: Publishing House of Electronices Industry, 2016.

        [9]SZE V, BUDAGAVI M, SULLIVAN G J. High efficiency video coding (HEVC) algorithms and architectures[M]. Heidelberg: Springer, 2014.

        [10]YANG J Y, DONG S W, TIAN Y H, et al. Introductions to AVS2 scene video coding techniques[J]. ZTE Communications, 2016(1): 50-53.

        [11]ZHANG X G, LIANG L H, HUANG Q, et al. An efficient cod ing scheme for surveillance videos captured by stationary cameras[C]//2010 SPIE Conference on Visual Communications and Image Processing, July 11, 2010, Huangshan, China. Bellingham: SPIE Press, 2010: 77442A-1-10.

        [12]黃鐵軍. AVS2標準及未來展望[J]. 電視技術, 2014, 38(22) : 7-10. HUANG T J. AVS2 standard and prospective[J]. Video Engineering, 2014, 38(22) : 7-10.

        [13]YUE H J, SUN X Y, WU F, et al. SIFT-based image compression[C]//2012 IEEE International Conference on Multimedia and Expo, July 9-13, 2012, Los Alamitos, USA. New Jersey: IEEE Press, 2012: 473-478.

        [14]TODERICI G, VINCENT D, JOHNSTON N, et al. Full resolution image compression with recurrent neural networks[J]. ar-Xiv: 1608.05148v118.

        [15]SANTURKAR S, BUDDENY D, SHAVIT N. Generative compression[J]. arXiv:1703.01467v2.

        [16]黎洪松, 程福林, 艾新宇. 視頻編碼技術的若干新進展[J].計算機應用研究, 2016, 33(8): 2246-2254. LI H S, CHENG F L, AI X Y. Survey on some new advances in video coding technology[J]. Application Research of Computers, 2016, 33(8): 2246-2254.

        [17]魏崢, 施唯佳, 祝谷喬. 互聯(lián)網(wǎng)視頻中多屏互動技術的應用[J]. 電信科學, 2014, 30(5): 27-32, 39. WEI Z,SHI W J,ZHU G Q. Multi-screen interaction technologies on internet streaming video[J]. Telecommunications Science, 2014, 30(5): 27-32, 39.

        [18]毛彤, 周開宇. 可穿戴設備綜合分析及建議[J]. 電信科學, 2014, 30(10): 134-142. MAO T, ZHOU K Y. Discussion about the influence of wearable device on mobile operators’ service[J]. Telecommunications Science, 2014, 30(10): 134-142.

        [19]魏穎琪, 林瑋平, 李穎, 等. 物聯(lián)網(wǎng)智能終端技術研究[J]. 電信科學, 2015, 31(8): 146-152. WEI Y Q, LIN W P, LI Y, et al. Study on key technologies of intelligent IoT device[J]. Telecommunications Science, 2015, 31(8): 146-152.

        聶秀英(1965?),女,中國信息通信研究院教授級高級工程師,擔任IEC TC1中國專家、SAC/TC232委員、CCSA TC1 WG3組長等,主要從事數(shù)據(jù)通信、多媒體通信、互聯(lián)網(wǎng)、現(xiàn)代服務業(yè)等領域研究和標準制定工作。獲得國家科學技術進步獎二等獎1項,省部級科學技術進步獎多項。出版著作兩部,發(fā)表論文60多篇,向ITU-T 提交文稿20多篇。

        黃更生(1962?),男,博士,中國移動通信有限公司研究院業(yè)務所所長、主任研究員,中國移動技術咨詢委員會業(yè)務領域專家委員。

        Recent development and prospective of video coding

        GUO Meng1, NIE Xiuying2, HUANG Gengsheng1
        1. China Mobile Research Institute, Beijing 100053, China 2. China Academy of Information and Communications Technology, Beijing 100191, China

        The next generation video coding standard HEVC(high efficiency video coding) and AVS2 have been developed.The key technologies of video coding were surveyed, specifically including coding unit, intra-prediction, inter-prediction and de-blocking filter. Besides that, the new development directions were analyzed and discussed, such as scene video coding, cloud coding, deep learning video coding, and so on.

        video coding, HEVC, AVS2

        TN919

        A

        10.11959/j.issn.1000?0801.2017246

        郭勐(1981?),男,博士,中國移動通信有限公司研究院高級工程師、項目經理,主要研究方向為音視頻編碼、視頻云和人工智能等。

        2017?07?15;

        2017?08?07

        猜你喜歡
        編碼標準像素點矢量
        矢量三角形法的應用
        國家醫(yī)保局發(fā)布《關于貫徹執(zhí)行15項醫(yī)療保障信息業(yè)務編碼標準的通知》
        高校標準化主數(shù)據(jù)平臺建設與應用
        高保真壓縮技術的商用價值
        基于canvas的前端數(shù)據(jù)加密
        基于逐像素點深度卷積網(wǎng)絡分割模型的上皮和間質組織分割
        基于矢量最優(yōu)估計的穩(wěn)健測向方法
        三角形法則在動態(tài)平衡問題中的應用
        鐵路工程信息模型分類和編碼標準研究
        基于Node-Cell結構的HEVC幀內編碼
        電視技術(2014年11期)2014-12-02 02:43:28
        久久99久久99精品免视看国产成人| 国产成人v爽在线免播放观看| 亚洲乱妇老熟女爽到高潮的片| 日韩中文字幕免费视频| 中文日韩亚洲欧美制服| 久久亚洲精品无码va大香大香| 中文字幕在线亚洲日韩6页手机版| 国内无遮码无码| 国产精品麻豆A啊在线观看| 青青青伊人色综合久久| 国产精品自拍网站在线| 在线观看午夜视频国产| 亚洲乱码中文在线观看| 国产不卡视频一区二区三区| 国产人妻精品无码av在线| 亚洲成人中文| 少妇特殊按摩高潮不断| 丝袜美腿精品福利在线视频| 激情五月婷婷一区二区| 午夜免费啪视频| 久久99热久久99精品| 女人被做到高潮免费视频| 国产成人8x视频网站入口| 熟女系列丰满熟妇av| 在线不卡av一区二区| 亚洲成人中文字幕在线视频 | 久久伊人少妇熟女大香线蕉| 国产农村妇女高潮大叫| 国产精品日韩中文字幕| 视频一区二区三区国产| 女同同性av观看免费| 国产真实老熟女无套内射| 国产精品密播放国产免费看 | 91蜜桃精品一区二区三区毛片| 女主播国产专区在线观看| av色一区二区三区精品 | 欧美人与动zozo| www久久久888| 国产精品女丝袜白丝袜美腿| 伊人中文字幕亚洲精品乱码| 国产 麻豆 日韩 欧美 久久|