亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        分數(shù)像素快速塊匹配運動估計方法綜述

        2011-03-28 01:52:50陳志江涂丹
        電子設計工程 2011年16期
        關鍵詞:模型

        陳志江,涂丹

        (國防科技大學信息系統(tǒng)與管理學院系統(tǒng)工程系,湖南長沙410073)

        運動估計(Motion Estimation,ME)是根據(jù)圖像內(nèi)容估計圖像序列相對運動的方法,是計算機視覺領域的關鍵技術,由于其在壓縮編碼、視頻穩(wěn)像、目標跟蹤、圖像配準等方面有著重要應用,一直以來都是研究的熱點,各種技術方案推陳出新、快速發(fā)展。一般說來,現(xiàn)有的運動估計方法可分為塊匹配法、像素法、特征法和相位法等4類,其中塊匹配方法由于簡單高效,便于硬件實現(xiàn),得到了推廣使用,尤其在現(xiàn)在的視頻壓縮標準中有著非常重要的作用,被認為是最成功的運動估計方法。

        塊匹配運動估計是現(xiàn)有國際視頻壓縮標準中的核心技術,早期的標準如H.261中采用整像素運動估計(Integerpixel Motion Estimation,IME),后來的標準中則引入了分數(shù)像素運動估計(Fractional-pixel Motion Estimation,F(xiàn)ME)來獲得更高的壓縮率與更好的圖像重構質(zhì)量[1],如H.263、MPEG-1、MPEEG-2等標準中采用1/2像素精度的運動估計,H.264[2]中則引入了1/4和1/8像素精度的運動估計。

        引入分數(shù)像素運動估計帶來了壓縮率與圖像質(zhì)量帶來提升,但同時也帶來了更大的計算量。文獻[3]對H.264的計算復雜度進行了分析,得出其中IME與FME分別占總共編碼過程計算量的52.034%和37.207%。混合編碼結構中的運動估計總是分成兩部分進行的,先進行整數(shù)像素運動估計,然后在整像素估計最優(yōu)解的周圍進行亞像素位置的搜索求解。隨著整像素快速算法的提出與不斷改進,已經(jīng)能在僅檢測5個搜索點的情況下找到最優(yōu)解[4]。相比之下,分數(shù)像素的搜索求解計算量顯得難以接受了,因此發(fā)展分數(shù)精度的快速運動估計算法,是有著迫切需求的,近些年來許多的學者都投身于其中的研究,取得了很多新的研究成果。

        1 塊匹配運動估計

        1.1 塊匹配運動估計基本原理

        在自然視頻中,由于場景的不變性與物體運動的連續(xù)性,視頻圖像內(nèi)容在時間域上具有很強的相關性,通過運動估計得到這些相關性就能去除冗余數(shù)據(jù)達到壓縮目的?,F(xiàn)有視頻壓縮一般都是基于混合編碼結構(Hybrid Coding Framework,HCF),其基本思想是將視頻中的幀圖像分成許多互不重疊的宏塊(Macro Block,MB),并認為宏塊內(nèi)所有像素的運動偏移都相同,然后在參考幀中對每個宏塊的特定搜索范圍內(nèi)根據(jù)一定的匹配準則找出與當前塊最相似的匹配塊,匹配塊與當前塊的相對位移即為運動矢量[5]。當前塊與匹配塊的差為殘差數(shù)據(jù),其值都較小,只對殘差數(shù)據(jù)進行壓縮,能夠獲得較大的壓縮率。通過殘差數(shù)據(jù)與運動向量,就可以完全恢復當前塊。使用塊匹配運動估計進行視頻壓縮的基本原理如圖1所示。

        圖1 視頻壓縮的基本原理Fig.1 Basic theory of video compression

        實際中的運動是幾乎不會以整像素為單位發(fā)生的,使用整像素為單位進行運動估計,必然造成殘差數(shù)據(jù)過大,降低壓縮性能,因此必須考慮精度更高的運動估計。文獻[6]中對自然視頻中的運動進行了統(tǒng)計,由于自然視頻中的場景大都是靜止的,所以超過90%的宏塊整數(shù)像素運動估計和分數(shù)像素運動估計是一致的,但是仍然不能忽視分數(shù)像素的運動向量估計,即使是微小的分數(shù)像素精度錯誤偏移,都會帶來比特率的明顯增大。

        1.2 分數(shù)像素插值算法

        在自然視頻圖像中,圖像的采樣都是以整像素單位進行的,要進行分數(shù)像素精度的運動估計計算,則需要進行插值得到分數(shù)像素位置的值,一般使用的是雙線性插值方法。但在實際的壓縮編碼中,分數(shù)像素位置常以1/2n為單位的,如在H.264中,運動估計需要達到1/4像素精度,其插值運算便分兩步進行,先進行1/2像素的插值,再進行1/4像素的插值[7]。

        如圖2所示,1/2像素的位置可以分為與整像素相鄰的和不相鄰的兩種,其像素值是通過在水平或垂直方向上使用6抽頭FIR濾波器得到,濾波系數(shù)為(1,-5,20,20,-5,1)/32。其計算公式如式(1)所示:

        然后利用1/2像素位置和整像素位置值進行插值,便可以得到1/4像素位置的值。

        圖2 分數(shù)像素位置及其計算Fig.2 Calculation of fractional pixel in H.264

        1.3 分數(shù)像素全搜索算法

        整數(shù)像素的全搜索算法是逐個計算搜索框內(nèi)每個點的費用函數(shù)值,最優(yōu)值位置對應的向量即為運動向量。分數(shù)像素精度的全搜索算法,則是在整數(shù)最優(yōu)解的附近搜索計算所有位置點的費用值從中選優(yōu)的。由于分數(shù)像素精度是一個遞進式的,有1/2像素精度、1/4像素精度、1/8像素精度等,這便形成了一個層次式的計算。以H.264中的1/4精度全搜索算法為例,其計算步驟如下:

        步驟1全搜索求最優(yōu)1/2像素點

        如圖3所示,其中的點O是整像素最優(yōu)解,a-h標示的位置為1/2像素位置,則通過計算每一個位置的費用函數(shù)值,通過比較就能得出具有最優(yōu)值的1/2像素位置。在H.264中使用拉格朗日函數(shù)作為費用函數(shù),如公式(2)所示。其中m為運動向量;p為預測的運動向量;r為參考幀參數(shù)索引;λSAD為SAD失真準則的拉格朗日乘子;R為運動信息和所選則的參考圖片r的碼率。分數(shù)像素搜索時SAD是殘差經(jīng)過哈達碼變換后的系數(shù)的絕對和。

        圖3 分數(shù)像素搜索步驟Fig.3 Process of Fractional Full Search

        步驟2求最優(yōu)像1/4素點

        得到最優(yōu)1/2像素點后,以其為搜索中心,計算其周圍的8個1/4像素點1-8的拉格朗日函數(shù)值,比較得出最優(yōu)1/4像素位置。

        從以上步驟可以看出,按相同的思路可以達到更高精度的搜索,但是若要達到1/2n精度的運動估計,則需要搜索計算8n個點的拉格朗日函數(shù)值,其中包含了計算量很大的插值運算,因此該算法的計算量是不可接受的,必須引入快速算法來解決分數(shù)像素運動估計問題。

        2 分數(shù)像素運動估計快速算法

        由于分數(shù)像素全搜索運動估計方法的計算量太大,成為壓縮技術發(fā)展與應用的桎梏,近些年來許多學者致力于優(yōu)化分數(shù)像素運動估計方法,提出了許多快速算法。現(xiàn)在發(fā)展的分數(shù)像素快速算法已經(jīng)比較多了,但并沒有一個很好的分類。通過對現(xiàn)有快速算法的分析發(fā)現(xiàn),主要是從4個方面進行算法的優(yōu)化:基于數(shù)學模型、基于向量預測、基于搜索優(yōu)化、基于提前退出(Early Termination,ET)技術等。下面分別進行介紹。

        2.1 基于數(shù)學模型

        對于分數(shù)像素的運動估計,一個重要的前提假設就是在整數(shù)最優(yōu)解的附近,誤差曲面是一個單調(diào)凸函數(shù),如圖4所示?;跀?shù)學模型的方法,就是利用數(shù)學函數(shù)對誤差曲面進行擬合,然后通過整數(shù)最優(yōu)解位置及周圍8個點的誤差費用值求解未知參數(shù),再利用求解出的參數(shù)估計分數(shù)像素位置的SAD值,從而達到分數(shù)像素的運動估計精度。主要有二次曲面模型、二次曲線模型和線性模型等。

        圖4 典型的SAD誤差曲面Fig.4 Typical SAD distortion surface

        2.1.1 二次曲面模型

        文獻[8]提出了3種參數(shù)個數(shù)不同的二次曲面模型,分別有9個、6個、5個參數(shù),并且在6參數(shù)和5參數(shù)模型的基礎上提出了加權的改進模型。其中9參數(shù)模型是用任意的平滑曲面來對誤差曲面進行擬合,公式如(3)所示,其自由度最大,精度也較高,但參數(shù)較多也帶了計算復雜度大的問題。6參數(shù)模型將9參數(shù)模型中的高次項忽略,用投影為橢圓的曲面來進行擬合,公式如(4)所示。5參數(shù)模型進一步對高次項進行了忽略與簡化,公式如(5)所示。這3種模型如圖5所示,從左到右依次為9參數(shù)模型曲面,6參數(shù)模型曲面投影,5參數(shù)模型曲面投影。文獻還對6參數(shù)模型和5參數(shù)模型進行了改進,給整像素點賦予不同的權重,提出了加權二次曲面模型,具有更大的靈活性與準確度。

        2.1.2 二次曲線模型

        圖5 3種二次曲面模型圖示Fig.5 Three kind of conicoid model

        對于曲面模型,當令x或y為定值時,可得到曲面與該切面的相交線,即為二次曲線。對誤差曲面建立9參數(shù)模型:

        當令x=k時有:

        同理,當y=g時有:

        因此在水平和豎直方向上能得到2個一元二次曲線函數(shù),如圖6所示。

        圖6 二次曲線模型Fig.6 Conic model

        文獻[9]利用二次曲線進行建模,通過整像素函數(shù)求解參數(shù)然后計算分數(shù)像素位置的值。該方法計算1/2精度時需要引入4個擴展位置的計算,總共計算12個點的值,由于使用二次曲線模型,計算量相比曲面模型大大減少。文獻[10]基于二次曲線模型提出一種HADP模型,將五參數(shù)的二維曲面函數(shù)分解為x,y兩維上的三參數(shù)拋物線模型,然后直接估計最優(yōu)解的位置,在位置附近搜索2~3點,以增加算法的魯棒性。該方法可在不同的分辨率精度上使用不同的值來估計參數(shù),從而更加精確。實驗表明,該方法節(jié)省了大量的計算量,對PSNR的影響較小。

        2.1.3 線性模型

        文獻[11]對誤差曲面建模進行了進一步的簡化,使用線性函數(shù)來估計SAD曲面模型(如圖7所示)。對于已知的3個整數(shù)點的值,文獻中提出使用兩條具有相同斜率值的對稱直線來進行建模,這種建模方法十分簡單,大大減少了運算量。

        總的說來,使用數(shù)學模型的好處是可以直接計算出亞像素位置的SAD值,避免了進行分數(shù)像素值運算和之后的二次搜索,從而大大減少了計算量。但是數(shù)學模型計算出來的SAD值與實際的值是存在誤差的,算法準確度不是很高,因此在很多文獻中數(shù)學模型方法只是用來提供預測信息來進行搜索優(yōu)化,如文獻[12]提出一種基于退化的二次函數(shù)的預測方法,先通過二次曲面模型直接求解極值點,將解量化至1/4像素精度位置,然后使用CBFPS[13]算法精細求解。

        圖7 線性模型Fig.7 Linear model

        2.2 基于向量預測

        向量觀測技術最早被提出用來查找整數(shù)運動估計中的全局最優(yōu)解的點,這種方法在分數(shù)像素運動估計中也被廣泛使用。文獻[14]中提出了4種預測向量,空間域上兩種,時間域上兩種。運動估計中的預測向量大都是這4種思路,下面分別進行介紹。

        1)中值預測(Median Prediction,MP)

        由前面的介紹可知,視頻壓縮中是將圖像劃分為互不重疊的宏塊來進行運動估計的,在進行當前塊運動估計時,左、上、左上和右上的鄰塊的運動向量已經(jīng)在前面的計算中得出,圖像內(nèi)容在很多時候是具有整體性的,因此認為當前塊與鄰塊的運動向量具有很強相關性。這里使用鄰塊運動向量的中值來進行預測,稱之為中值預測。如圖8所示,A、B、C、D分別為當前塊的鄰塊,對應的向量為則中值的計算公式為:

        圖8 中值預測Fig.8 Median prediction

        2)上層預測(Up-layer Prediction,UP)

        在H.264的標準中,宏塊的尺寸大小有7種,如圖9所示。在早期的JM參考軟件中,先進行8×8的模式搜索,再進行16×16的;后來的版本中改成了先16×16后8×8了,依照的順序是1到7的層次結構順序。由于使用層次結構,可以使用大尺寸的搜索模式來預測小尺寸搜索模式的向量,稱之為上層預測。如5和6是7的上層,1是2和3的上層。具體的預測公式如下所示:

        圖9 宏塊尺寸Fig.9 Size of macro-block

        3)對應塊預測(Corresponding-block Prediction,CP)

        對于自然視頻的圖像序列,若沒有發(fā)生場景的改變,幀圖像之間的內(nèi)容的相關性是非常大的?;谶@種時間域上的相關性,可以用前一幀相對應位置的塊的運動向量來預測當前塊的向量,計算公式如下:

        4)加速時間預測(Neighboring Reference-picture Prediction,NRP)

        在H.264標準中使用了多參考幀運動補償技術來增強預測的精度與編碼的效率。對于同一宏塊位置,在不同的參考幀中也是有著很強的相關性的。如圖10所示,假設宏塊的運動是勻速的,那么可以通過參考幀之間的時間差與宏塊運動向量的比例關系來進行預測。其計算公式如下:

        圖10 加速時間預測Fig.10 Neighboring reference-picture prediction

        前面所介紹的4種預測向量,MP與UP是從空間域上出發(fā)考慮的,CP和NRP是從時間域上出發(fā)考慮的。文獻[14]對這4種預測向量進行了比較分析,發(fā)現(xiàn)空間域上的向量預測準確性要更大,UP的準確度最高,而MP隨著宏塊尺寸的越小準確度越高,因為宏塊劃分越小它們之間的運動相關性越大。文中給出的建議是先考慮MP再考慮UP來預測搜索的起始點。

        前面關于預測向量的分析與介紹是基于整像素運動估計的,但很顯然,當引入分數(shù)像素運動估計時,這4種預測仍然成立。以中值預測為例,定義M—→Vpred_MP為包含分數(shù)部分的預測向量(鄰塊A、B、C、D的分數(shù)像素精度已知,可通過前面的公式進行計算),在進行分數(shù)像素精度搜索時當前塊的整像素運動向量是已經(jīng)求解出來的,則可通過公式(13)預測分數(shù)像素向量的值。在1/4精度時式中β=4,1/8精度時β=8。

        CBFPS是典型的基于預測向量的分數(shù)像素搜索算法,已經(jīng)被H.264標準采用。該算法使用前面提到的中值預測估計出一個預測位置,計算出當前中心位置與預測位置的拉格朗日費用函數(shù)值,選擇費用較小的位置進行小菱形模板迭代搜索,直到最優(yōu)解在小菱形模板的中心。文獻[15]在CBFPS的基礎上進行了改進,提出一種僅需六個搜索點的單迭代算法(SIFME)。SIFME方法根據(jù)最優(yōu)分數(shù)像素位置在預測位置周圍的概率更大這一假設,直接搜索中心點,預測點及預測點對應的4個菱形位置點,直接從中挑選最優(yōu)的解,而不再進行迭代搜索。實驗表明,與全搜索相比,該方法雖然忽略了幾乎88%的搜索點,但仍有60%~90%的正確率,而且該方法十分簡單,易于使用硬件實現(xiàn)。

        通過預測向量能夠大大減少搜索量,因此在這基礎上發(fā)展了很多方法,如同時考慮中值預測與上層預測的PDFPS算法[16],基于候選預測集(Candidate Predictors Set)的HAPBPFPS算法[17]等,這里不再進行一一介紹。

        2.3 基于搜索優(yōu)化

        基于搜索優(yōu)化的方法,其出發(fā)點與整像素快速運動估計方法相似,主要是從搜索步驟、模式或中間搜索結果的關系來進行優(yōu)化,減少對不必要點的搜索。

        文獻[18]充分利用分數(shù)像素位置間費用值的高度相關性,將搜索點減少到8-9個,該方法較為簡單,便于硬件實現(xiàn),文獻中還給出了其VLSI結構,比文獻[19]中的方法節(jié)省了約40%的硬件空間。如圖11所示,算法的具體步驟如下:

        圖11 算法過程Fig.11 Process of the algorithm

        1)計算整數(shù)最優(yōu)解位置和周圍4個小菱形位置點的費用值。

        2)根據(jù)計算結果的4種情況分別進行處理:

        ①當最優(yōu)解在中心,次優(yōu)解與第3優(yōu)解不相鄰時,搜索圖中的1、2、3所示的位置。

        ②當最優(yōu)解在中心,次優(yōu)解與第3優(yōu)解相鄰時,搜索圖中的4、5、6所示的位置。

        ③當最優(yōu)解與次優(yōu)解都不在中心并且相鄰時,搜索如圖中的e、f、g所示的位置。

        文獻[20-21]利用前面提到的5參數(shù)模型對誤差曲面進行擬合求解得出預測最優(yōu)解的位置,在附近進行優(yōu)化搜索得到最終解,該方法在1/2精度時只需搜索3個點,1/4精度時只需搜索6個點。文獻[22]提出了一種1/2像素精度的兩步估計算法,該算法基于誤差曲面單調(diào)性假設,先后分別在水平和豎直方向上進行計算搜索,比較得出最優(yōu)值。與全搜索算法相比,該算法保持著幾乎同樣的圖像質(zhì)量與比特率,但計算量減少了一半。文獻[23]提出了一種基于紋理方向分析的快速亞像素運動估計算法。該算法基于的基本思想是,在有紋理的圖像中,垂直紋理方向進行亞像素的運動偏移更能夠減小運動估計時的誤差。通過最優(yōu)解與次優(yōu)解的位置關系,將1/4像素精度的搜索位置減少至4~5個點。陸寄遠[24]等人利用分數(shù)點殘差曲面的單峰特性和整分數(shù)運動向量的相關性,通過優(yōu)化搜索模板和搜索的起始位置,在菱形模板的基礎上提出動態(tài)剪裁策略,有效加快了搜索的速度。

        基于搜索優(yōu)化的算法的最大特點就是比較便于硬件的實現(xiàn),而這一點也是近年來分數(shù)像素快速塊匹配方法的發(fā)展趨勢。

        2.4 基于提前終止

        所謂提前終止技術(Early Termination,ET),就是通過設置各種閾值來減少不必要的搜索,當某一條件達到閾值門限時就及時退出搜索過程。使用提前終止技術要達到兩個目的,一是越早退出越好,這樣能減少更多的搜索量;二是要使得退出前得到的運動向量越接近最優(yōu)向量越好(這里指的最優(yōu)向量是以全搜索得到的結果為參考的)。當然,很多時候這兩個目的是有所沖突的,這使得提前終技術中的閾值設置很有難度。

        提前終止技術對算法本身沒有具體的要求,能夠與許多算法進行配合來優(yōu)化加速。文獻[18]中使用自適應線性預測閾值來進行提前終止,能夠提高8.5%~14%的速度。文獻[24]主要對整像素的快速算法ARPS-3提出了兩點改進,一是通過設置自適應搜索閾值T來進行提前終止,二是通過設置隊列標記已搜索的點避免重復搜索。文章也將提前終止技術的擴展到分數(shù)像素精度,在1/2精度時使用0.95T作為閾值,在1/4精度時使用0.9T作為閾值。

        提前終止技術不僅僅只是從像素點位置的SAD值上進行考慮的,如文獻[25]提出的一種SQIA方法,該方法從視頻幀、搜索塊的兩個層次進行閾值設置,當達到閾值時便跳過當前幀或當前塊的1/4搜索,同時還對搜索點進行了優(yōu)化處理,獲得了很好的加速效果。

        3 結束語

        本文對分數(shù)像素塊匹配運動估計方法的基本原理進行了介紹,對于現(xiàn)有的快速分數(shù)像素運動估計算法,主要是運用數(shù)學模型、向量預測、搜索優(yōu)化、提前終止這4種技術來進行加速的,本文對這4種技術的基本原理和代表算法進行了介紹。值得注意的是,本文介紹的4種技術是能夠較好的相融與組合,使其發(fā)揮更好的加速效果的。

        分數(shù)像素的運動估計是H.264標準中的重要部分,帶來了視頻質(zhì)量與壓縮率的提升,但同時也帶來了更多的計算量。最新視頻壓縮標準中,將分數(shù)像素的運動估計精度擴展到1/8像素。現(xiàn)有許多快速算法能夠較大減少計算的復雜度,但是各有優(yōu)缺點,或算法較為復雜不便于硬件實現(xiàn),或參數(shù)選擇較為困難等。分數(shù)像素運動估計的精度不是無限提高的,從近年發(fā)表的論文來看,該領域的研究重心慢慢轉向于發(fā)展快速簡單的算法,以便于從硬件角度實現(xiàn)實時編碼。此外,分數(shù)像素運動估計在其他領域的相關應用也是值得思考的問題。

        [1] FURSHT B,JOSHUA G,RAYMOND W,Motion estimatio algorithm for video compression[M].London(UK):Kiuwer Academic Publishers,1998.

        [2] ITU-T Rec.H.264/ISO/IEC 14496-10 AVC.Draft ITU-T Recommendation and Final Draft International Standard of Joint Video Specification[S].Mar,2003.

        [3] HUANG Y W,HSISH B Y,CHIEN S Y,el al.Analysis and complexity reduction of multiple reference frames motion estimation in H.264/AVC[J].IEEE Transactions on Circuits And Systems for Viedo Technology,2006,16(4):507-522.

        [4] BANH X Q,TAN Y P.Adaptive Dual-Cross search algorithm for block-matching motion estimation[J].IEEE Trans.Consumer Electron,2004,50(2):766-775.

        [5] MULLA MI,CANAKRAJA.C N.Video coding for mobile communication:Efficiency,complexity&resilience[M].Boston:Academic Press,2002.

        [6] WANG Y J,CHENG C C,CHANG TS,A fast algorithm and its VLSI architecture for fractional motion estimation for H.264/MPEG-4 AVC video coding[J].IEEE Transactions on Circuits And Systems for Viedo Technology,2007,17(5):578-583.

        [7] Jain D S,Nal D S L,A fast fractional pel motion estimation algorithm[J].International Journal of Advanced Engineering&Applications,2010,I&II:118-124.

        [8] SUH J W,JEONG J.Fast sub-pixel motion estimation techniques having lower computational complexity[J].IEEE Transactions on Consumer Electronics,2004(50):968-973.

        [9] Mohammed Sayed,Wael MB,Graham J.Low-complexity algorithm for fractional-pixel motion estimation[C]//International Conference on Image Processing(ICIP).DOI:10.1109/ICIP.2009.5414600.2009:1565-1568.

        [10] Yi-long LIU,Soontorn O.Fractional-pel motion refinement based on hierarchical adjustable dual-parabola model[C]//Communications and Information Technology,2004.ISCIT 2004.IEEE International Symposium on,2004:752-755.

        [11] Yun-gu Lee,Jae Hun Lee,Jong Beom Ra.Fast half-pixel motion estimation based on directional search and a linear model[C]//Taiwan:Visual Communications and Image Processing(VCIP),2003:1513-1520.

        [12] CHANG Jing-fu,LEOU Jin-jang.A quadratic prediction based fractional-pixel motion estimation algorithm for H.264[C]//in Proc.Seventh IEEE International Symposium on Multimedia(ISM'05),2005:491-498.

        [13] CHEN Z B,ZHOU P,HE Y.Fast integer pel and fractional pel motion estimation for JVT[C]//Awaji,Japan:JVT-F017,6th metting,2002:5-13.

        [14] Zhi-bo CHEN,Jian-feng XU,Yun HE,et al.Fast integerpel and fractional-pel motion estimation for H.264/AVC[J].Journal of Visual Communication and Image Representation(JVCIR),2006,17(2):264-290.

        [15] Tzu-Yun Kuo,Yu-Kun Lin,Tian-Sheuan Chang.SIFME:A single iteration fractional-pel motion estimation algorithm and architecture for HDTV sized H.264 video coding[C]//International Conference on Acoustics,Speech,and Signal Processing(ICASSP),2007:I-1185-I-1188.

        [16] YANG Li-bo,YU Ke-man,LI Jiang,et al.Predictionbased directional fractional pixel motion estimation for H.264 video coding[C]//in Proc.IEEE International Conference on Acoustics,Speech,and Signal Processing(ICASSP2005),2005(2):901-904.

        [17] Hong-yang CHAO,Ji-yuan LU.A high accurate predictor based fractional pixel search for H.264[C]//International Conference on Image Processing(ICIP)2006:2365-2368.

        [18] Tung-Chien CHEN,Yu-Wen HUANG,Liang-Gee CHEN.Fully utilized and reusable architecture for fractional motion estimation of H.264/AVC[C]//International Conference on Acoustics,Speech,and Signal Processing(ICASSP).2004(4):9-12.

        [19] Chen T C,Huang Y W,Chen L G.Fully utilized and reusable architecture for fractional motion estimation of H.264/AVC[C]//in Proc.ICASSP,2004(4):9-12.

        [20] DU C,HE Y,ZHENG J.PPHPS:A parabolic predictionbased,fast half-pixel search algorithm for very low bit-rate moving-picture coding[J].IEEE Transactions on Circuits And Systems for Video Technology,2003,13(6):514-518.

        [21] Zhi-bo CHEN,Cheng DU,Jing-hua WANG,et al.PPFPSA paraboloid prediction based fractional pixel search strategy for H.26L[C]//IEEE International Symposium on Circuits and Systems(ISCAS).DOI:10.1109/ISCAS.2022.1010147,2002:9-12.

        [22]ZHOU Bo,CHEN Jian.A fast two-step search algorithm for half-pixel motion estimation[C]//10th IEEE International Conference on Electronics,Circuits and Systems,2003:611-614.

        [23] Hoi-ming Wong,Oscar C Au,Andy Chang.Fast sub-pixel inter-prediction-based on texture direction analysis[C]//IEEE International Symposium on Circuits and Systems(ISCAS).DOI:10.1109/ISCAS.2005.1465876,2005:5477-5480.

        [24] WEI Z,JIANG B,ZHANG X,et al.A new full-pixel and sub-pixel motion vector search algorithm for fast blockmatching motion estimation in H.264[J].in Proc.Int.Conf.Image Graph.,2004:345-348.

        [25] Hoi-Ming Wong,Oscar C Au,Jin-xin Huang,et al.Suboptimal quarter-pixel inter-prediction algorithm(SQIA)[C]//International Conference on Acoustics,Speech,and Signal Processing(ICASSP).2005:II-921-II-924.

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務本地化模型
        適用于BDS-3 PPP的隨機模型
        提煉模型 突破難點
        函數(shù)模型及應用
        p150Glued在帕金森病模型中的表達及分布
        函數(shù)模型及應用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權M-估計的漸近分布
        3D打印中的模型分割與打包
        国产强伦姧在线观看| 日韩国产成人无码av毛片蜜柚| 成人一区二区人妻少妇| 加勒比东京热中文字幕| 亚洲乱亚洲乱妇50p| 午夜亚洲www湿好大| 欧洲无码一级毛片无遮挡| 丰满老熟女性生活视频| 爱情岛论坛亚洲永久入口口| 无码人妻丰满熟妇啪啪7774| 亚洲国产福利成人一区二区| 日韩av在线手机免费观看| 成人欧美一区二区三区在线观看| 一本一道波多野结衣一区| 亚洲av日韩片在线观看| 日本女同视频一区二区三区| 在线观看免费无码专区| 色妞色综合久久夜夜| 无码人妻丰满熟妇区免费| 亚洲无精品一区二区在线观看| 国产精品无码aⅴ嫩草| 正在播放亚洲一区| 国产麻豆一区二区三区在线播放| 手机看片久久第一人妻| 欧美日韩色另类综合| 欧美刺激午夜性久久久久久久| 国产理论亚洲天堂av| 免费国产在线精品一区| 精品无码专区久久久水蜜桃 | 久久免费视亚洲无码视频| 白白色日韩免费在线观看| 无码色av一二区在线播放| 美女大量吞精在线观看456| 国产在线白浆一区二区三区在线| 中国少妇久久一区二区三区| 少妇人妻大乳在线视频不卡 | 日本成人午夜一区二区三区| 国产喷水1区2区3区咪咪爱av| 久久99国产精品尤物| 蜜臀精品一区二区三区| 人人妻人人做人人爽|