亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于極深卷積神經(jīng)網(wǎng)絡(luò)的人臉超分辨率重建算法

        2018-06-20 09:33:12孫毅堂宋慧慧張開華
        計(jì)算機(jī)應(yīng)用 2018年4期
        關(guān)鍵詞:低分辨率人臉分辨率

        孫毅堂,宋慧慧,張開華,嚴(yán) 飛

        0 引言

        圖像超分辨率重建是計(jì)算機(jī)視覺領(lǐng)域的一個經(jīng)典的問題,其旨在從給定的低分辨率(Low Resolution,LR)圖像中推斷出具有關(guān)鍵信息的高分辨率(High Resolution,HR)圖像。其中,人臉超分辨率重建是其重要的分支之一。人臉超分辨率重建在人臉識別、身份認(rèn)證、智能監(jiān)控等諸多領(lǐng)域有著重要的應(yīng)用價值。

        當(dāng)前超分辨率重建的方法[1]主要有:1)將超分看成是圖像處理中的不適定問題,通過引入先驗(yàn)信息解決該問題。2)采用機(jī)器學(xué)習(xí)的方法來學(xué)習(xí)到低分辨率和高分辨率圖像之間的映射關(guān)系,從而實(shí)現(xiàn)圖像超分辨率重建。目前,基于學(xué)習(xí)的算法可以獲得比其他超分辨率重建技術(shù)更好的視覺效果,且可以處理更高的放大倍數(shù)。其中,鄰域嵌入[2-3]的方法采用插補(bǔ)補(bǔ)丁子空間的策略。稀疏編碼(Sparse Coding, SC)[4]的方法使用基于稀疏信號表示的字典學(xué)習(xí)LR和HR之間的映射關(guān)系。最近隨機(jī)森林(Random Forest, RF)[5]和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)也被用于提升重建精度。其中Dong等[6]已證明CNN可以被有效應(yīng)用于端到端的學(xué)習(xí)LR到HR的映射,其所提方法稱為SRCNN(Single-image Reconstruction CNN)。受到上述方法的啟發(fā),很多研究人員開始使用深度卷積網(wǎng)絡(luò)來處理超分辨率重建的問題。Wang等[7]將稀疏編碼與卷積網(wǎng)絡(luò)相結(jié)合,以解決超分辨率方法中的一致性問題。Cui等[8]結(jié)合稀疏編碼的專長和深度學(xué)習(xí)的優(yōu)點(diǎn),提出了大型、任意縮放因子的級聯(lián)網(wǎng)絡(luò);Nie等[9]將多個卷積網(wǎng)絡(luò)串聯(lián)起來進(jìn)行人臉超分辨率重建。

        盡管CNN被成功應(yīng)用于處理人臉超分辨率重建問題并取得了不錯的效果,但是,其在如下幾個方面也存在局限性:CNN的重建依賴于小圖像塊之間的細(xì)節(jié)信息;隨著層數(shù)的增加,感受野變大會導(dǎo)致重建圖像細(xì)節(jié)易丟失;訓(xùn)練收斂速度太慢。

        本文設(shè)計(jì)了一種極深卷積網(wǎng)絡(luò)來解決以上問題。首先,本文方法通過加深網(wǎng)絡(luò)層數(shù)來擴(kuò)大感受野的大小,使得網(wǎng)絡(luò)能夠在更大的圖像塊中來來獲取更多的細(xì)節(jié)信息。人臉超分由于受很多復(fù)雜因素的影響,通常情況下小圖像塊中包含的信息對于細(xì)節(jié)恢復(fù)來說不夠充分,因此,本文采用極深卷積網(wǎng)絡(luò)獲得大的感受野以提取大圖像中的豐富信息。其次,本文采用了殘差學(xué)習(xí)[10]的方法,一方面可以提升收斂的速度,另一方面還可以避免因感受野變大而導(dǎo)致的細(xì)節(jié)丟失問題。最后,本文采用了一種單模超分方法來靈活處理放大系數(shù)問題。放大系數(shù)可以由用戶指定的,也可以是任意的,本文在實(shí)驗(yàn)中發(fā)現(xiàn)所設(shè)計(jì)的單個卷積網(wǎng)絡(luò)可以較好處理多尺度放大系數(shù)的超分辨率重建問題。

        總之,本文提出的基于極深卷積網(wǎng)絡(luò)的高精度的人臉超分辨率重建方法主要有以下幾方面的優(yōu)點(diǎn):

        1)采用了極深的卷積網(wǎng)絡(luò),可以提取更加精確的圖像細(xì)節(jié)信息。

        2)采用了殘差學(xué)習(xí)的方法,提升了訓(xùn)練的速度,避免了細(xì)節(jié)丟失的問題。

        3)采用了多個放大因子同時訓(xùn)練的方法,減少了所需模型的數(shù)量。

        1 相關(guān)工作

        單幅圖像超分辨率問題要求如下:給定低分辨率圖像Y,恢復(fù)相同場景的高分辨率圖像X?;镜募s束是要求恢復(fù)的X應(yīng)與輸入Y一致。其重建約束如下所述:

        Y=DHX

        (1)

        其中:H表示一個模糊濾波器;D表示下采樣算子。

        超分辨率重建依然是一個不可能精確恢復(fù)的病態(tài)問題,因?yàn)閷τ诮o定的低分辨率圖像Y,有無限多的高分辨率圖像X滿足上述約束。本文的工作就是要找到一個很好的D和H,使得本文的重建能夠取得較好的結(jié)果。

        以下,本文分別介紹兩類與本文的工作最相關(guān)的方法,即基于稀疏表示和基于CNN的超分辨率重建算法。

        1.1 基于稀疏表示的超分辨率重建

        稀疏表示是將原始信號x表示為字典元素的一個線性組合x=Dα,其中:D是訓(xùn)練獲得的字典;α為原始信號x在字典D上的表示,即稀疏系數(shù)。壓縮感知理論(Compressive Sensing, CS)[11]指出,一幅圖像能夠在非常苛刻的條件下由它的一組稀疏表示系數(shù)在超完備字典上得到重建。Yang等[4]首先提出了基于稀疏表示的超分辨率重建的方法。

        1.2 基于卷積神經(jīng)網(wǎng)絡(luò)的超分辨率重建

        (2)

        1.3 VGG網(wǎng)絡(luò)模型

        VGG(Visual Geometry Group)網(wǎng)絡(luò)模型是由Simonyan等[12]在2014年提出的卷積神經(jīng)網(wǎng)絡(luò),包含了19個卷積/全連接層。該網(wǎng)絡(luò)在每一個卷積層都使用了3×3大小的卷積核,訓(xùn)練和測試時使用了多放大尺度的圖片。

        其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示:該網(wǎng)絡(luò)探索了卷積神經(jīng)網(wǎng)絡(luò)的深度與其性能之間的關(guān)系,通過反復(fù)使用3×3的小卷積核和2×2的最大池化(pooling)層,成功地構(gòu)筑了一個19層的卷積神經(jīng)網(wǎng)絡(luò)。VGG網(wǎng)絡(luò)相對于之前的網(wǎng)絡(luò)結(jié)構(gòu)取得了更好的效果,有效地證明了卷積網(wǎng)絡(luò)深度越深性能越好。

        圖1 VGG19網(wǎng)絡(luò)結(jié)構(gòu)

        2 基于極深卷積網(wǎng)絡(luò)的人臉超分辨率重建

        2.1 網(wǎng)絡(luò)結(jié)構(gòu)

        受到Simonyan工作[12]啟發(fā),本文設(shè)計(jì)了一個極深的卷積網(wǎng)絡(luò)來處理人臉的超分辨率重建問題,其結(jié)構(gòu)如圖2所示。不同于SRCNN的三層結(jié)構(gòu),本文使用了20個卷積層,除了輸入層與輸出層外,其他卷積層都采用了64個3×3×64的濾波器,并且在每一個濾波器后面都使用了線性激勵單元(Rectified Linear Unit, ReLU)。本文把輸入記為Y,通過學(xué)習(xí)一種映射F(Y)使得本文能夠預(yù)測圖像的細(xì)節(jié),其表達(dá)式如下所示:

        Fn(Y)=max(0,Wn*Fn-1(Y)+Bn);n=1,2,…,20

        (3)

        其中:Fn表示第n個卷積層的輸出;Wn表示64×3×3×64的一個權(quán)重矩陣;Bn表示一個64維的偏置向量。

        如圖3所示,本文的網(wǎng)絡(luò)采用經(jīng)過雙三次插值(Bicubic)的低分辨率圖像作為輸入,并且對圖像的細(xì)節(jié)進(jìn)行預(yù)測建模。圖像細(xì)節(jié)通常被用于超分辨率重建方法[13-15 ],本文發(fā)現(xiàn)基于CNN的方法可以有效學(xué)習(xí)出圖像的細(xì)節(jié)信息。

        使用極深的網(wǎng)絡(luò)來預(yù)測密集輸出導(dǎo)致的一個問題是每次運(yùn)用卷積運(yùn)算時,特征圖會變小。舉例來說,一個(n+1)×(n+1)大小的輸入圖像,其感受野為n×n,經(jīng)過n個卷積層后的輸出則變?yōu)?×1。其次,由于一般的超分辨率重建的方法都需要用周圍的像素來正確推斷中心像素,從而導(dǎo)致周圍區(qū)域會給重建問題帶來更多的限制。對于圖像邊界附近的信息,由于這種關(guān)系不能被充分利用,所以許多超分方法會對結(jié)果圖像進(jìn)行裁剪。但是,如果所需要的環(huán)繞區(qū)域非常大則不能采用裁剪的方法,因?yàn)椴眉艉笞罱K的圖像會很小,無法在視覺上令人滿意。為了解決以上問題,本文在每個卷積層之前填零(Padding)以保持所有特征圖的大小相同。其示意圖如圖3所示。

        最后,將低分辨率圖片輸入到訓(xùn)練好的網(wǎng)絡(luò)來獲取預(yù)測的包含有高分辨率細(xì)節(jié)信息的殘差圖像,再和輸入的低分辨率圖像(LR)相加以得到最終的高分辨率(HR)圖像。

        圖2 極深卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        圖3 填零示意圖

        2.2 訓(xùn)練過程

        所采用的網(wǎng)絡(luò)由于存在很多的權(quán)重層而產(chǎn)生了一種非常長的端對端的關(guān)系,所以非常容易產(chǎn)生梯度消失或者梯度爆炸[16]的問題。因此,本文采用了殘差學(xué)習(xí)的方法來解決這個問題。由于輸入圖像和輸出圖像在很大程度上是相似的,所以本文定義殘差圖像R=X-Y,其中大多數(shù)的數(shù)值可能為零或者非常地小。本文現(xiàn)在需要對這個殘差圖像進(jìn)行預(yù)測,其損失函數(shù)表示如下:

        (4)

        在損失層中,有三個輸入?yún)?shù):殘差估計(jì)、輸入LR圖像和真實(shí)HR圖像。損失計(jì)算為重建圖像和真實(shí)圖像之間的歐氏距離。

        3 實(shí)驗(yàn)與分析

        3.1 數(shù)據(jù)準(zhǔn)備

        本文使用CASPEAL-R1的正臉圖像和FERET(Face Recognition Technology)人臉庫中的正臉圖像作為訓(xùn)練集和測試集。本文使用了CASPEAL中的600張和FERET中的400張人臉圖像作為訓(xùn)練集,另外挑選了其中的100張作為測試集。因?yàn)樵跀?shù)據(jù)庫中男士和女士的人臉圖像數(shù)量并不是相等的,為了使得結(jié)果更加公平,本文的訓(xùn)練集采用了500張男士人臉圖像和500張女士人臉圖像,然后用50張女士人臉圖像和其余的50張男士人臉圖像組成測試集。

        由于所提網(wǎng)絡(luò)有大量參數(shù)需要訓(xùn)練,所以需要對數(shù)據(jù)進(jìn)行擴(kuò)充來更好地匹配所提模型。本文將人臉圖像進(jìn)行旋轉(zhuǎn),將高分辨率圖像進(jìn)行插值下采樣之后會丟失高分辨率的細(xì)節(jié)信息,所以可以將插值后的低分辨率圖像作為本文的訓(xùn)練集,通過本文所提的網(wǎng)絡(luò)來獲取高低分辨率圖像之間的細(xì)節(jié)信息進(jìn)行重建。為了解決不同放大因子的問題,本文將訓(xùn)練集中的數(shù)據(jù)分別以不同的放大因子(2~4)進(jìn)行下采樣,最終可以得到一個包含10 000張人臉圖像的、可以應(yīng)對不同放大因子的一個訓(xùn)練集。

        為了驗(yàn)證本文方法在與訓(xùn)練集不同的測試集上也能取得很好的效果,本文還使用了FEI人臉庫中的正臉圖像來進(jìn)行測試。

        3.2 參數(shù)設(shè)置

        人臉圖像感受野的大小對重建效果有著很大的影響,感受野越大圖像所能獲得的信息就越多。本文每一個圖像塊的大小都設(shè)置為41×41,所提網(wǎng)絡(luò)有20個權(quán)重層,每一層的卷積核大小為3×3,訓(xùn)練時每一批的圖片數(shù)量為64,動量和權(quán)重衰減設(shè)為0.9和0.000 1。初始的學(xué)習(xí)率設(shè)為0.001。每迭代50 000次學(xué)習(xí)率乘以0.1,對于權(quán)重的初始化,本文使用He方法[17]。本文設(shè)置迭代次數(shù)15萬次,在GPU Tatin X上訓(xùn)練時間為2 d左右。

        3.3 定量評價指標(biāo)

        為了評價超分結(jié)果的性能,本文采用了圖像峰值信噪比(Peak Signal-to-Noise Ratio, PSNR)和圖像結(jié)構(gòu)相似度(Structural SIMilarity index, SSIM)兩種性能指標(biāo)。PSNR表示圖像的信號與噪聲的方差之比,它的值越高表示圖像的重建效果越好,計(jì)算公式如下:

        (5)

        其中:N為圖像像素區(qū)的大小;MSE是均方值誤差(Mean Square Error);In指原始圖像I第n個像素值;Pn指經(jīng)處理后的圖像P第n個像素值。PSNR值越大,就代表失真越少。

        SSIM結(jié)構(gòu)相似性是衡量兩幅圖像相似度的指標(biāo)。給定兩個圖像x和y,兩張圖像的結(jié)構(gòu)相似性的計(jì)算公式如下:

        (6)

        3.4 實(shí)驗(yàn)結(jié)果和分析

        在對經(jīng)過插值獲取的低分辨率人臉進(jìn)行重建過后,本文方法在細(xì)節(jié)的重建上有著更好的視覺效果。由于人的眼睛是人臉圖像中信號能量較大的區(qū)域,也是人臉最重要的表征。

        因此,本文選取了放大因子為4的人臉重建圖像并選取圖像中眼睛的細(xì)節(jié)進(jìn)行說明。如圖4所示:圖4(a)為低分辨率人臉圖像的眼部細(xì)節(jié)圖;圖4(b)為經(jīng)過雙三次插值(Bicubic)后的人臉圖像眼部細(xì)節(jié)圖;圖4(c)為本文方法4倍放大重建后的人臉圖像眼部細(xì)節(jié)圖。從圖4可以看出:低分辨率圖像眼睛周圍非常模糊,細(xì)節(jié)信息很少;經(jīng)過插值法重建后的圖像能夠看區(qū)分眼球與眼白的邊緣,但是,仍然是比較模糊的;而經(jīng)過本文方法重建獲得的圖像,眼睛周圍的輪廓比較銳利,區(qū)分十分明顯,而且能夠重建瞳孔的細(xì)節(jié)。

        圖4 放大因子為4的人臉重建圖像細(xì)節(jié)

        本文分別對CASPEAL人臉測試集進(jìn)行了不同放大因子下的重建,并對重建結(jié)果采用PSNR和SSIM進(jìn)行量化評估,其結(jié)果如表1所示。

        表1 兩種方法的 PSRN 和 SSIM 比較

        從表1可看出:由于放大因子越大重建的難度就會越大,所以放大因子越大所取得的結(jié)果也會有一定程度的減弱,但是相對于傳統(tǒng)的方法,本文方法在PSNR的值上平均高出了2.7 dB,SSIM的值也平均高出0.020 8。

        本文還將所提方法與雙三次插值的方法和SRCNN的方法進(jìn)行了比較。本文在CASPEAL的測試集用不同的方法,在放大因子為4的情況下進(jìn)行了超分辨率重建,并用PSNR值來進(jìn)行定量評估,其比較結(jié)果如圖5所示。

        圖5 不同方法的PSNR比較

        為了能更加直觀地比較用不同方法放大進(jìn)行重建后的差別,本文選取了在4倍放大因子下進(jìn)行重建的人臉圖像進(jìn)行比較。

        從圖6可以看出,在放大因子為4時,本文方法和SRCNN的方法在重建后相對于Bicubic在輪廓上要更加銳利;由于采用了更加深的卷積網(wǎng)絡(luò)和更大的感受野,本文方法相對于SRCNN的方法在眉毛、眼睛等部位邊緣更加分明,模糊較少,有著更好的細(xì)節(jié)信息。

        圖6 CASPEAL人臉重建結(jié)果對比(放大因子4)

        為驗(yàn)證本文方法在與訓(xùn)練集不同的測試集上也能取得很好的效果,還使用了FEI人臉庫中的200張正臉圖像來進(jìn)行測試。同CASPEAL的測試集一樣,選取了2~4倍放大因子下作實(shí)驗(yàn),其量化結(jié)果如表2所示。

        表2 本文算法在不同放大因子下的FEI人臉結(jié)果

        由表2可知,本文方法在FEI的200張人臉圖片中也能取得較好的重建結(jié)果,其量化結(jié)果數(shù)值與在CASPEAL上的結(jié)果比較接近,其視覺圖如圖7所示。

        圖7 FEI人臉重建結(jié)果(放大因子2~4)

        從圖7可以看出,本文方法在FEI人臉測試集上也能取得較好的視覺效果和細(xì)節(jié)。

        4 結(jié)語

        本文提出了一種基于極深卷積神經(jīng)網(wǎng)絡(luò)的人臉圖像超分辨率重建算法。首先,本文采用了一個20層的極深卷積神經(jīng)網(wǎng)絡(luò)來進(jìn)行人臉超分辨率重建;其次,本文還采用了殘差學(xué)習(xí)的方法來進(jìn)行更好的細(xì)節(jié)提取;最后,本文采用了多種放大因子共同訓(xùn)練的方法來減少所需要的網(wǎng)絡(luò)模型。實(shí)驗(yàn)結(jié)果表明,本文方法能夠應(yīng)對不同放大因子的人臉圖像的超分辨率重建,并取得了比傳統(tǒng)超分辨率重建方法更好的視覺效果。

        參考文獻(xiàn)(References)

        [1] 蘇衡, 周杰, 張志浩. 超分辨率圖像重建方法綜述[J]. 自動化學(xué)報, 2013, 39(8): 1202-1213.(SU H, ZHOU J, ZHANG Z H. Survey of super-resolution image reconstruction methods[J]. Acta Automatica Sinica, 2013, 39(8): 1202-1213.)

        [2] CHANG H, YEUNG D-Y, XIONG Y. Super-resolution through neighbor embedding[C]// CVPR 2004: Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2004: 275-282.

        [3] BEVILACQUA M, ROUMY A, GUILLEMOT C, et al. Low-complexity single-image super-resolution based on nonnegative neighbor embedding[EB/OL]. [2017- 05- 10]. http: //eprints.imtlucca.it/2412/1/Bevilacqua_2012.pdf.

        [4] YANG J, WRIGHT J, HUANG T S, et al. Image super-resolution via sparse representation[J]. IEEE Transactions on Image Processing, 2010, 19(11): 2861-2873.

        [5] SCHULTER S, LEISTNER C, BISCHOF H. Fast and accurate image upscaling with super-resolution forests[C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2015: 3791-3799.

        [6] DONG C, LOY C C, HE K, et al. Image super-resolution using deep convolutional networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(2): 295-307.

        [7] WANG Z, LIU D, YANG J, et al. Deep networks for image super-resolution with sparse prior[C]// Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2015: 370-378.

        [8] CUI Z, CHANG H, SHANG S, et al. Deep network cascade for image super-resolution[C]// ECCV 2014: Proceedings of the 13th European Conference on Computer Vision. Berlin: Springer, 2014: 49-64.

        [9] NIE H, LU Y, IKRAM J. Face hallucination via convolution neural network[C]// Proceedings of the 2016 IEEE 28th International Conference on Tools with Artificial Intelligence. Piscataway, NJ: IEEE, 2017: 485-489.

        [10] KIM C, CHOI K, RA J B. Improvement on learning-based super-resolution by adopting residual information and patch reliability[C]// Proceedings of the 2009 16th IEEE International Conference on Image Processing. Piscataway, NJ: IEEE, 2010: 1197-1200.

        [11] TIMOFITE R, DE V, GOOL L V. Anchored neighborhood regression for fast example-based super-resolution[C]// Proceedings of the 2013 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2014: 1920-1927.

        [12] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[EB/OL]. [2017- 05- 10]. https: //arxiv.org/abs/1409.1556.

        [13] TIMOFTE R, SMET V D, GOOL L V. A+: adjusted anchored neighborhood regression for fast super-resolution[C]// ACCV 2014: Proceedings of the 12th Asian Conference on Computer Vision. Berlin: Springer, 2014: 111-126.

        [14] TIMOFTE R, ROTHE R, GOOL L V. Seven ways to improve example-based single image super resolution[C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2016: 1865-1873.

        [15] 練秋生, 張鈞芹, 陳書貞. 基于兩級字典與分頻帶字典的圖像超分辨率算法[J]. 自動化學(xué)報, 2013, 39(8): 1310-1320.(LIAN Q S, ZHANG J Q, CHEN S Z. Single image super-resolution algorithm based on two-stage and multi-frequency-band dictionaries[J]. Acta Automatica Sinica, 2013, 39(8): 1310-1320.)

        [16] BENGIO Y, SIMARD P, FRASCION P. Learning long-term dependencies with gradient descent is difficult[J]. IEEE Transactions on Neural Networks, 1994, 5(2): 157-66.

        [17] HE K, ZHANG X, REN S, et al. Delving deep into rectifiers: surpassing human-level performance on ImageNet classification[C]// Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2015: 1026-1034.

        [18] 傅天宇, 金柳頎, 雷震, 等. 基于關(guān)鍵點(diǎn)逐層重建的人臉圖像超分辨率方法[J]. 信號處理, 2016, 32(7): 834-841.(FU T Y, JIN L Q, LEI Z, et al. Face super-resolution method based on key points layer by layer[J]. Journal of Signal Processing, 2016, 32(7): 834-841.)

        This work is partially supported by the National Natural Science Foundation of China (41501377, 61605083), the Natural Science Foundation of Jiangsu Province (BK20150906, BK20170040).

        猜你喜歡
        低分辨率人臉分辨率
        基于全局和局部特征集成的低分辨率人臉識別方法
        紅外熱成像中低分辨率行人小目標(biāo)檢測方法
        基于偏移學(xué)習(xí)的低分辨率人體姿態(tài)估計(jì)
        有特點(diǎn)的人臉
        EM算法的參數(shù)分辨率
        原生VS最大那些混淆視聽的“分辨率”概念
        三國漫——人臉解鎖
        動漫星空(2018年9期)2018-10-26 01:17:14
        樹木的低分辨率三維模型資源創(chuàng)建實(shí)踐
        基于深度特征學(xué)習(xí)的圖像超分辨率重建
        一種改進(jìn)的基于邊緣加強(qiáng)超分辨率算法
        欧洲美女熟乱av| av一区二区不卡久久| 国产精品久久av高潮呻吟| 九九综合va免费看| 久久和欧洲码一码二码三码| 久久91综合国产91久久精品| 一个人的视频免费播放在线观看| 最新国产熟女资源自拍 | 亚洲一区二区三区重口另类| 亚洲精品无码专区| 亚洲a∨无码一区二区| 日韩AV无码中文无码AV| 日韩av一区二区不卡在线| 99热在线观看| 曰本无码人妻丰满熟妇5g影院| 亚洲AV成人无码天堂| 中文字幕综合一区二区三区| 国内女人喷潮完整视频| 一本色道久久99一综合| 农村国产毛片一区二区三区女| 亚洲高清中文字幕视频| 国产操逼视频| 久久国产品野战| 日韩精品午夜视频在线| 久久无码字幕中文久久无码| 久久久久亚洲av无码观看| 美女被射视频在线观看91| 亚洲av乱码二区三区涩涩屋| 漂亮人妻被中出中文字幕久久| 狠狠躁天天躁无码中文字幕图| 女同重口味一区二区在线| 加勒比hezyo黑人专区| 日韩综合无码一区二区| 国产精品人妻一码二码尿失禁| 久久夜色精品国产亚洲噜噜| 亚洲婷婷久久播66性av| 美女网站免费福利视频| 在线欧美精品二区三区| 午夜宅男成人影院香蕉狠狠爱| 亚洲一区二区三区四区五区黄| 乱码午夜-极品国产内射|