亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        采用內(nèi)容劃分方法的視頻質(zhì)量評(píng)價(jià)

        2013-08-04 02:24:02中國電子設(shè)備系統(tǒng)工程公司北京100141
        關(guān)鍵詞:權(quán)值區(qū)域圖像

        1.中國電子設(shè)備系統(tǒng)工程公司,北京 100141

        2.重慶通信學(xué)院 軍事網(wǎng)格實(shí)驗(yàn)室,重慶 400035

        3.解放軍理工大學(xué) 指揮自動(dòng)化學(xué)院,南京 210007

        1.中國電子設(shè)備系統(tǒng)工程公司,北京 100141

        2.重慶通信學(xué)院 軍事網(wǎng)格實(shí)驗(yàn)室,重慶 400035

        3.解放軍理工大學(xué) 指揮自動(dòng)化學(xué)院,南京 210007

        1 引言

        通常來說,人是視頻應(yīng)用的最終消費(fèi)者,因此評(píng)價(jià)視頻質(zhì)量最準(zhǔn)確的辦法是主觀質(zhì)量評(píng)價(jià)。但是根據(jù)ITU-T BT500所規(guī)定的方法進(jìn)行主觀質(zhì)量評(píng)價(jià),不但要花費(fèi)大量的人力和物力,而且無法嵌入到視頻應(yīng)用系統(tǒng)中。因此,如何獲得高效的客觀視頻質(zhì)量評(píng)價(jià)算法已經(jīng)成為目前亟待解決的問題。

        根據(jù)參考視頻的可用程度可將目前的客觀視頻質(zhì)量評(píng)價(jià)算法分為三類。第一類是全參考算法,參考視頻完全可用,將失真視頻和參考視頻進(jìn)行比對(duì),以與參考視頻的接近程度來衡量失真視頻的質(zhì)量;第二類是半?yún)⒖妓惴?,僅僅知道參考視頻的某些圖像特性,將失真視頻和參考視頻中已知的圖像特性進(jìn)行對(duì)比,以這些特性的接近程度來衡量失真視頻的質(zhì)量;第三種是無參考算法,不需要參考視頻,根據(jù)人類視覺特性直接對(duì)失真視頻進(jìn)行質(zhì)量評(píng)價(jià)。由于后兩種算法沒有完整的參考視頻作為比較基準(zhǔn),而僅僅以某些圖像特性和人類視覺特性作為算法的基礎(chǔ),評(píng)價(jià)準(zhǔn)確性難以保證。因此,目前研究的重點(diǎn)仍是全參考算法。

        由于計(jì)算簡單,峰值信噪比PSNR在相當(dāng)長的時(shí)期內(nèi)都是評(píng)價(jià)視頻質(zhì)量的重要方法,但大量事實(shí)表明其評(píng)價(jià)結(jié)果在很多情況下與人的真實(shí)感受不一致,比如,PSNR值很高但視頻的質(zhì)量卻很差。為了解決這個(gè)問題,許多能反映人真實(shí)感受的客觀視頻質(zhì)量評(píng)價(jià)算法先后被提出。Zhou Wang等根據(jù)人類視覺系統(tǒng)對(duì)自然圖像的結(jié)構(gòu)敏感性原理提出了基于結(jié)構(gòu)相似性的SSIM[1]算法。之后,在此基礎(chǔ)上,Zhou Wang又通過對(duì)圖像的反復(fù)低通過濾和降采樣將原來的算法擴(kuò)展為MSSIM[2],使其在性能上有了較大的提高。VSNR[3]利用小波進(jìn)行圖像分析,將可觀察到的自然圖像失真通過兩個(gè)闕值進(jìn)行量化并擴(kuò)展到視頻質(zhì)量評(píng)價(jià)中去,取得了較好的效果。由美國國家電信管理中心開發(fā)的VQM[4]算法因其在VQEG Phase 2視頻測試序列庫上的良好效果,已被美國國家標(biāo)準(zhǔn)研究院制定為國家標(biāo)準(zhǔn)。V-VIF[5]通過時(shí)間延伸的方法來度量失真視頻的信息保真度,在時(shí)間域上反映了視頻的失真程度。

        但是,人類在觀看視頻時(shí)對(duì)不同區(qū)域的敏感程度是不同的,而目前的算法在設(shè)計(jì)時(shí)并沒有引入這種思想?;谶@一點(diǎn),本文在結(jié)構(gòu)相似性的基礎(chǔ)上先對(duì)圖像進(jìn)行分割,再對(duì)不同的分割區(qū)域分別進(jìn)行質(zhì)量評(píng)價(jià)。最后,采用運(yùn)動(dòng)估計(jì)幀加權(quán)的方式將其擴(kuò)展為視頻質(zhì)量評(píng)價(jià)。

        2 基于結(jié)構(gòu)相似性的SSIM算法

        研究指出自然圖像是高度結(jié)構(gòu)化的,而且人類視覺系統(tǒng)對(duì)自然圖像的結(jié)構(gòu)失真是高度敏感的,結(jié)構(gòu)失真會(huì)造成圖像質(zhì)量的大幅下降?;谏鲜鍪聦?shí),SSIM算法在經(jīng)過空間校準(zhǔn)后的參考圖像x和失真圖像 y之間定義了如下三個(gè)比較函數(shù):

        其中 l(x,y),c(x,y),s(x,y)分別是亮度,對(duì)比度和結(jié)構(gòu)比較函數(shù);μx和 μy分別是 x和 y的樣本平均值;σx和σy分別是 x和 y的樣本標(biāo)準(zhǔn)差;σxy是 x和 y的樣本相關(guān)系數(shù);C1、C2和C3是足夠小的正常數(shù),用來保證以上3個(gè)函數(shù)的分母趨近于0時(shí)的計(jì)算穩(wěn)定性。聯(lián)合以上3個(gè)方程,兩個(gè)圖像的結(jié)構(gòu)相似度SSIM(x,y)由以下公式給出:

        其中,α,β和γ是調(diào)整三個(gè)部分的權(quán)重系數(shù)。一般取C2= 2C3,α=β=γ=1,那么結(jié)構(gòu)相似度的一種普通形式為:

        一般情況下,SSIM在一個(gè)11×11的滑動(dòng)窗口內(nèi)計(jì)算,滑動(dòng)窗口逐像素地在整個(gè)圖像空間內(nèi)滑動(dòng)。最后,對(duì)所有窗口的SSIM值取平均得到整幅圖像的SSIM值。同時(shí),相應(yīng)的SSIM映射圖可以直觀地看出圖像的結(jié)構(gòu)失真部分。

        傳統(tǒng)的SSIM算法從結(jié)構(gòu)失真的角度考慮失真圖像的質(zhì)量,雖然在一定程度上反映了人類視覺系統(tǒng)的真實(shí)感受,但是并沒有考慮到具體的圖像內(nèi)容,例如,邊緣區(qū)域必然包含了極其重要的圖像信息[6],而且人類視覺系統(tǒng)對(duì)其失真也是相當(dāng)敏感的,如果將它和圖像中的平坦光滑區(qū)域賦予同樣的權(quán)值,顯然是不合理的。因此,根據(jù)實(shí)際的內(nèi)容將圖像劃分為不同的區(qū)域?qū)ζ溥M(jìn)行更細(xì)致的分析,并根據(jù)人對(duì)不同區(qū)域失真的敏感程度賦予不同的權(quán)值,則能更真實(shí)地反映人的視覺感受。

        3 基于內(nèi)容劃分的4-SSIM算法

        基于人類視覺系統(tǒng)對(duì)圖像不同區(qū)域敏感程度不同的思想,在SSIM算法的基礎(chǔ)上采用內(nèi)容劃分的方法將圖像分為4部分,并賦予不同的權(quán)值,得到了基于內(nèi)容劃分的4-SSIM算法。

        3.1 4-SSIM算法的整體流程

        4-SSIM算法的整體流程如圖1所示,共分為4個(gè)步驟:

        (1)計(jì)算失真圖像的SSIM映射圖。

        (2)在不考慮SSIM計(jì)算結(jié)果的情況下,跟據(jù)變化率將參考圖像和失真圖像劃分成4個(gè)區(qū)域。

        (3)依據(jù)人類視覺系統(tǒng)的敏感程度賦予不同區(qū)域不同的權(quán)值。

        (4)對(duì)所有區(qū)域進(jìn)行加權(quán)求和。

        3.2 4-SSIM算法的內(nèi)容劃分方法

        圖1 4-SSIM算法流程圖

        在4-SSIM算法中,將圖像劃分為4個(gè)部分:(1)改變的邊緣區(qū)域:在參考(或失真)圖像中存在,而在失真(或參考)圖像中的不存在的邊緣區(qū)域;(2)保留的邊緣區(qū)域:在參考和失真圖像中相同的邊緣區(qū)域;(3)紋理區(qū)域:圖像細(xì)節(jié)密集而人類視覺系統(tǒng)無法分辨的區(qū)域;(4)光滑區(qū)域:圖像光滑,細(xì)節(jié)較少的區(qū)域。文獻(xiàn)[7]給出了將圖像劃分為3個(gè)區(qū)域的方法,本文在此基礎(chǔ)上進(jìn)行了修改,將圖像劃分為4個(gè)部分,并根據(jù)實(shí)驗(yàn)結(jié)果對(duì)闕值進(jìn)行了適當(dāng)調(diào)整。具體的劃分步驟如下:

        (1)在參考和失真圖像上的滑動(dòng)窗口中通過Sobel算子計(jì)算圖像的變化率。

        (2)確定闕值:T1=a·gmax,T2=b·gmax,其中 gmax參考圖像中的最大變化率;一般取a=0.1,b=0.05,并且圖像中邊緣區(qū)域較多時(shí),a的取值應(yīng)當(dāng)適當(dāng)減??;光滑區(qū)域較多,b的取值應(yīng)當(dāng)適當(dāng)增大。

        (3)令 pr(i,j)表示參考圖像在點(diǎn)(i,j)處的變化率,pd(i,j)表示失真圖像在點(diǎn)(i,j)處的變化率,根據(jù)如下規(guī)則確定每個(gè)像素點(diǎn)具體屬于哪個(gè)區(qū)域:

        ①如果 pr(i,j)> T1且 pd(i,j)> T1,則此像素點(diǎn)屬于保留的邊緣區(qū)域。

        ②如 果 pr(i,j)>T1且 pd(i,j)≤T1, 或 pd(i,j)>T1且pr(i,j)≤T1,則此像素點(diǎn)屬于改變的邊緣區(qū)域。

        ③如果 pr(i,j)< T2且 pd(i,j)>T1,則此點(diǎn)屬于光滑區(qū)域。

        ④否則,該點(diǎn)屬于紋理區(qū)域。

        3.3 確定各個(gè)區(qū)域的權(quán)值

        邊緣在圖像感知中起著非常重要的作用,邊緣的失真會(huì)對(duì)圖像質(zhì)量產(chǎn)生非常重要的影響,因此,給邊緣區(qū)域賦予較高的權(quán)值。在本文中,分別賦予兩個(gè)邊緣區(qū)域0.4的權(quán)值。根據(jù)人類視覺系統(tǒng)的失真遮蔽效應(yīng),紋理區(qū)域的失真基本被掩蓋了,幾乎無法覺察。在光滑區(qū)域中,人類視覺系統(tǒng)除了對(duì)假輪廓,塊效應(yīng)和高頻噪聲等個(gè)別失真類型有細(xì)微覺察,其他類型的失真也不易被覺察,因此給光滑和紋理區(qū)域賦予較小的權(quán)值。在本文中,對(duì)紋理和光滑區(qū)域,分別賦予0.1的權(quán)值。

        4 基于運(yùn)動(dòng)估計(jì)的視頻質(zhì)量評(píng)價(jià)

        視頻是由連續(xù)的幀序列組成的,每一幀又是一張靜態(tài)圖片,所以圖像質(zhì)量評(píng)價(jià)可以作為視頻質(zhì)量評(píng)價(jià)的基礎(chǔ)。但是,由于在視頻中幀一般是以每秒25~30張的速度連續(xù)播放的,人在觀看時(shí)能明顯感覺到視頻中物體的運(yùn)動(dòng)具有連續(xù)性,并能判斷出運(yùn)動(dòng)的大小和方向。而在靜態(tài)圖片中,物體運(yùn)動(dòng)的大小和方向是無法準(zhǔn)確獲取的,如果簡單地將每一幀的質(zhì)量進(jìn)行求和平均作為整個(gè)視頻的質(zhì)量顯然是不合理的。因此,充分考慮視頻中物體的運(yùn)動(dòng)特性,對(duì)視頻中物體的運(yùn)動(dòng)情況進(jìn)行判斷,才能更好地反映出人觀看視頻時(shí)的真實(shí)感受。在本文中,利用運(yùn)動(dòng)向量進(jìn)行運(yùn)動(dòng)估計(jì),提出了基于運(yùn)動(dòng)的幀加權(quán)求和方法。

        4.1 基于4-SSIM的視頻質(zhì)量評(píng)價(jià)

        在局部區(qū)域級(jí),幀級(jí),和序列級(jí)分別對(duì)視頻進(jìn)行分析,度量失真視頻的質(zhì)量,具體的算法流程如圖2所示。

        圖2 視頻質(zhì)量評(píng)價(jià)流程圖

        首先,分析局部區(qū)域。從參考和失真視頻中對(duì)應(yīng)幀的對(duì)應(yīng)空間位置上隨機(jī)地提取一些11×11圖像塊。與圖像質(zhì)量評(píng)價(jià)算法中的方法不同的是,在這里僅僅提取一部分樣本區(qū)域,而不是使用滑動(dòng)窗口逐個(gè)像素的滑動(dòng)。令Rs表示樣本密度,代表每個(gè)幀中提取的樣本窗口的個(gè)數(shù)。在實(shí)驗(yàn)中發(fā)現(xiàn),一個(gè)合適的Rs的取值能夠在保證算法質(zhì)量幾乎不受影響的情況下大大降低算法的復(fù)雜度。在YUV視頻的Y,Cr和Cb三個(gè)部分上分別使用4-SSIM算法。根據(jù)人類視覺系統(tǒng)的亮度敏感性原理,亮度Y對(duì)視頻質(zhì)量影響很大,而色度Cr和Cb影響較小,分別賦予它們0.8,0.1和0.1的權(quán)值。最后,進(jìn)行加權(quán)求和得到該圖像塊的質(zhì)量。令4-SSIMij代表第i幀中的第 j個(gè)選中的樣本窗口的質(zhì)量,分別代表4-SSIM在Y, Cr和Cb三個(gè)部分上的計(jì)算結(jié)果,那么:

        然后,求幀的質(zhì)量。令Qi代表視頻中第i幀的質(zhì)量,ωij代表第i幀中的第 j個(gè)選中的樣本窗口的權(quán)值,那么:

        根據(jù)亮度敏感性原理,黑暗的區(qū)域通常不會(huì)引起觀察者的注意,應(yīng)當(dāng)賦予較小的權(quán)值,而較亮的區(qū)域應(yīng)當(dāng)賦予較大權(quán)值。通過當(dāng)前幀的樣本均值μi根據(jù)公式(8)來調(diào)節(jié)其權(quán)值:

        最后,求整個(gè)視頻序列的質(zhì)量。令Qv代表整個(gè)視頻序列的質(zhì)量,F(xiàn)代表視頻序列中所含的幀數(shù),Wi代表第i幀的權(quán)值,那么:

        4.2 基于運(yùn)動(dòng)估計(jì)的幀加權(quán)方法

        在實(shí)驗(yàn)中發(fā)現(xiàn),當(dāng)有視頻非常大的整體運(yùn)動(dòng)情況發(fā)生時(shí),算法的結(jié)果并不穩(wěn)定。因此,給予那些運(yùn)動(dòng)較大的幀較小的權(quán)值來保證整個(gè)算法的穩(wěn)定性。令mij代表第i幀中第 j個(gè)被選中的窗口的運(yùn)動(dòng)向量長度,Mi代表第i幀的運(yùn)動(dòng)強(qiáng)度,Km是反映運(yùn)動(dòng)強(qiáng)度的常數(shù),那么:

        然后根據(jù)第i幀的運(yùn)動(dòng)情況賦予其權(quán)值,具體方法由下式給出:

        圖3 引言中各算法與本文算法的散點(diǎn)比較圖

        5 實(shí)驗(yàn)與分析

        實(shí)驗(yàn)采用美國德克薩斯大學(xué)LIVE實(shí)驗(yàn)室的視頻測試序列庫。序列庫中包含了10個(gè)典型的自然場景,每個(gè)場景用MPEG-2壓縮、H.264壓縮、模擬IP傳輸和模擬無線傳輸4種視頻失真方式進(jìn)行失真處理,生成了15個(gè)失真序列,并進(jìn)行了主觀質(zhì)量測試,給出了每個(gè)失真序列的差異主觀意見分值DMOS(Difference Mean Opinion Score)。

        本實(shí)驗(yàn)中,將Km的值設(shè)置為16,并采用目前被普遍認(rèn)可的兩個(gè)指標(biāo)來度量算法的性能。一個(gè)是算法結(jié)果和DMOS之間的秩相關(guān)系數(shù)SROCC(Spearman Rank Order Correlation Coefficient),用來度量算法結(jié)果和人的主觀感受之間的單調(diào)性;另一個(gè)是經(jīng)過非線性回歸處理后的算法結(jié)果和DMOS之間的線性相關(guān)系數(shù)LCC(Linear Correlation Coefficient),用來度量算法的準(zhǔn)確性。在進(jìn)行非線性回歸處理時(shí),采用VQEG的報(bào)告[8]中提供的方程:

        其中Q代表算法結(jié)果,Q′代表經(jīng)過處理后的算法結(jié)果。為了獲得以上方程中能使算法結(jié)果和預(yù)測值方差最小的(β1,β2,β3,β4), 采用 Matlab 中的“nlinfit”函數(shù)進(jìn)行非線性最小二乘法優(yōu)化。為了便于數(shù)據(jù)收斂,在進(jìn)行優(yōu)化之前用線性重調(diào)節(jié)的方法對(duì)算法的結(jié)果進(jìn)行處理。最后,SROCC和LCC在Q'和DMOS之間計(jì)算。圖3給出了本文算法和引言中其他算法的散點(diǎn)比較圖,同時(shí)也畫出了每個(gè)圖中所有散點(diǎn)的最佳擬合曲線。表1給出了本文算法和引言中其他算法的SROCC和LCC值的比較??梢钥闯?,與其他算法相比,本文算法在單調(diào)性和準(zhǔn)確性上都有明顯提高。

        表1 引言中各算法與本文算法的SROCC和LCC比較

        6 總結(jié)

        本文在圖像結(jié)構(gòu)相似性的基礎(chǔ)上,考慮到圖像中不同區(qū)域有著不同感知重要性,通過對(duì)變化率進(jìn)行分析將圖像劃分為不同的區(qū)域,提出了基于內(nèi)容劃分的圖像質(zhì)量評(píng)價(jià)算法,并通過運(yùn)動(dòng)估計(jì)幀加權(quán)的方式將其擴(kuò)展到了視頻質(zhì)量評(píng)價(jià)中。在今后的工作中,從許多方面可以進(jìn)一步提升算法的準(zhǔn)確性。如果改變區(qū)域劃分的方式,對(duì)圖像區(qū)域進(jìn)行更細(xì)致的劃分,相信算法的效果會(huì)更加理想。另外,本文中的權(quán)值主要是根據(jù)實(shí)驗(yàn)結(jié)果不斷調(diào)整得到的,并沒有經(jīng)過專業(yè)的優(yōu)化處理。在充分考慮人類視覺特性的基礎(chǔ)上,怎樣選取合適的優(yōu)化算法對(duì)各個(gè)權(quán)值進(jìn)行訓(xùn)練和優(yōu)化也是今后努力的方向。

        [1]Wang Z,Lu L,Bovik A C.Video quality assessment based on structural distortion measurement[J].Signal Process:Image Communication,2004,19(2):121-132.

        [2]Wang Z,Simoncelli E,Bovik A C,et al.Multiscale structural similarity for imagequality assessment[C]//IEEE Asilomar Conference on Signals,System and Computers,2003.

        [3]Chandler D M,Hemami S S.VSNR:a wavelet-based visual signal-to-noise ratio for natural images[J].IEEE Transactions on Image Process,2007,16(19):2284-2298.

        [4]Pinson M H,Wolf S.A new standardized method for objectively measuring video quality[J].IEEE Transactions on Broadcast,2004,50(3):312-322.

        [5]Sheikh H R,Bovik A C.Image information and visual quality[J]. IEEE Transactions on Image Process,2006,15(2):430-444.

        [6]Le Meur O,Ninassi A.Overt visual attention for free-viewing and quality assessment tasks[J].Signal Processing:Image Communication,2010.

        [7]Li J L,Chen G,Chi Z R.Image coding quality assessment using fuzzy integrals with a three-component image model[J]. IEEE Transactions on Fuzzy Systems,2004,12(1):99-106.

        [8]Final report from the video quality experts group on the validation of objective quality metrics for video quality assessment[EB/OL].[2011-05-11].http://www.its.bldrdoc.gov/vqeg/projects/frtv_phaseI.

        采用內(nèi)容劃分方法的視頻質(zhì)量評(píng)價(jià)

        姚 杰1,2,謝永強(qiáng)1,譚建明2,李 東1,3,唐 超2,王伏華2

        YAO Jie1,2,XIE Yongqiang1,TAN Jianming2,LI Dong1,3,TANG Chao2,WANG Fuhua2

        1.China Electronic Equipment System Engineering Company,Beijing 100141,China
        2.Military Grid Laboratory,Chongqing Communication Institute,Chongqing 400035,China
        3.Institute of Command Automation,PLA University of Science and Technology,Nanjing 210007,China

        Current structural similarity based image quality assessment algorithm is generally the overall image quality analysis. However,different regions in image have different structural characteristics and visual perceptions,and the overall quality analysis can not reflect these differences effectively.In this view,a content-partitioned structural similarity image quality assessment algorithm is presented,which partitions an image into four regions according to their different gradient magnitudes and assesses the qualities of these regions respectively.A frame motion estimation weighted approach is used to extend this approach to video quality assessment.The experiments show that the proposed is more accurate than several modern popular algorithms.

        image quality assessment;video quality assessment;structural similarity

        目前基于結(jié)構(gòu)相似性的圖像質(zhì)量評(píng)價(jià)算法均是對(duì)圖像進(jìn)行整體質(zhì)量分析,但圖像中不同的區(qū)域存在著不同的結(jié)構(gòu)特性和視覺感知特性,而對(duì)圖像進(jìn)行整體質(zhì)量分析無法有效反應(yīng)出這些差異。鑒于此,提出了一種基于內(nèi)容劃分的結(jié)構(gòu)相似性圖像質(zhì)量評(píng)價(jià)算法,根據(jù)圖像不同區(qū)域的變化率將圖像分為4個(gè)部分,分別進(jìn)行質(zhì)量評(píng)價(jià)。采用運(yùn)動(dòng)估計(jì)的幀加權(quán)的方式將該方法擴(kuò)展到視頻質(zhì)量評(píng)價(jià)中。實(shí)驗(yàn)證明了該算法與目前比較流行的幾個(gè)算法相比具有較高的評(píng)價(jià)準(zhǔn)確性。

        圖像質(zhì)量評(píng)價(jià);視頻質(zhì)量評(píng)價(jià);結(jié)構(gòu)相似性

        A

        TP391

        10.3778/j.issn.1002-8331.1110-0081

        YAO Jie,XIE Yongqiang,TAN Jianming,et al.Video quality assessment using content-partitioned approach.Computer Engineering and Applications,2013,49(11):158-161.

        國家創(chuàng)新基金(No.11c26215115768);重慶市重點(diǎn)攻關(guān)基金項(xiàng)目(No.cstc2011ab2064)。

        姚杰(1986—),男,碩士研究生,主要研究領(lǐng)域?yàn)橐曨l質(zhì)量評(píng)價(jià);譚建明,男,教授;李東,碩士研究生;唐超,碩士研究生;王伏華,碩士研究生。

        2011-10-09

        2011-11-25

        1002-8331(2013)11-0158-04

        CNKI出版日期:2012-03-08 http://www.cnki.net/kcms/detail/11.2127.TP.20120308.1520.007.html

        猜你喜歡
        權(quán)值區(qū)域圖像
        改進(jìn)的LapSRN遙感圖像超分辨重建
        一種融合時(shí)間權(quán)值和用戶行為序列的電影推薦模型
        CONTENTS
        有趣的圖像詩
        基于權(quán)值動(dòng)量的RBM加速學(xué)習(xí)算法研究
        關(guān)于四色猜想
        分區(qū)域
        基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
        電測與儀表(2015年5期)2015-04-09 11:30:52
        遙感圖像幾何糾正中GCP選取
        區(qū)域
        民生周刊(2012年10期)2012-10-14 09:06:46
        天堂网www资源在线| 女人18毛片aa毛片免费| 加勒比一区二区三区av| 亚洲人成无码网www| 粗一硬一长一进一爽一a级| 国产91色在线|亚洲| 亚洲成a∨人片在线观看无码| 午夜久久精品国产亚洲av| 毛片一级精油按摩无码| 亚洲国产高清在线视频| 精品蜜桃一区二区三区| 久久最黄性生活又爽又黄特级片| 国产免费精品一品二区三| 国产爽快片一区二区三区| 国产一区二区黄色网页 | а天堂8中文最新版在线官网| 中文字幕一精品亚洲无线一区| 亚洲中文字幕在线第二页| 影音先锋男人站| 午夜精品久久久久久中宇| 日本少妇人妻xxxxx18| 视频国产精品| 亚洲av综合色区在线观看| 丰满少妇一区二区三区专区| 精品午夜中文字幕熟女| 我要看免费久久99片黄色| 国产在线无码一区二区三区视频 | 亚洲香蕉久久一区二区| 公厕偷拍一区二区三区四区五区| 亚洲精品无码永久中文字幕| 亚洲色大成网站www永久网站| 亚洲av成人中文无码专区| 国产精品一区二区资源| 无码人妻精品中文字幕免费| 成人短篇在线视频夫妻刺激自拍 | 日本女优爱爱中文字幕| 91久久精品一区二区| 91伦理片视频国产精品久久久| 久久视频在线| 中文字幕av一区二区三区| 日本视频一区二区三区三州|