亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度神經(jīng)網(wǎng)絡的圖像修復算法綜述

        2023-10-30 08:57:38呂建峰邵立珍雷雪梅
        計算機工程與應用 2023年20期
        關(guān)鍵詞:掩膜紋理語義

        呂建峰,邵立珍,雷雪梅

        1.北京科技大學 自動化學院,北京 100083

        2.北京科技大學 順德創(chuàng)新學院,廣東 佛山 528399

        3.北京科技大學 信息化建設與管理辦公室,北京 100083

        圖像修復是根據(jù)未損壞區(qū)域的信息來推測缺失內(nèi)容并對破損區(qū)域進行復原的技術(shù),早期的圖像修復主要應用于藝術(shù)畫作,修復師根據(jù)自身的想象力來還原的原本的畫作[1]。不同于圖像分類[2]、檢測[3]等高層視覺語義分析,圖像修復任務不僅需要對圖像進行特征的提取,還需要輸出相應的圖像,主要實現(xiàn)的是圖像編輯這種底層視覺的任務[4]。

        傳統(tǒng)圖像修復方法包括基于擴散方法和基于樣本方法?;跀U散的方法[5-6]利用偏微分方程,根據(jù)圖像缺失部分邊緣的已知信息確定擴散的方向和大小,由四周逐步擴散至中心區(qū)域,直到傳播至整個缺失部分。對于存在有明顯復雜紋理圖像的照片來說,使用擴散會出現(xiàn)畸變。并且對于大面積的信息缺失的圖片,信息會隨著擴散而逐漸丟失,導致中心區(qū)域模糊不清,因此該方法不適合用于大區(qū)域修復?;跇颖痉椒╗7-9]將未知區(qū)域與已知區(qū)域樣本進行相似度匹配,將相似度最高的塊直接復制到對應缺失部分。此類方法可以處理較大破損面積,但置信度會隨著填充而下降,檢索速度和匹配效率較低。傳統(tǒng)圖像修復方法只能關(guān)注圖像的結(jié)構(gòu)和紋理,忽略了圖像高層的語義信息,對于紋理結(jié)構(gòu)復雜、缺失面積較大的圖像都不能處理得很好。深度學習方法能夠很好地提取圖像深層的語義特征,使缺失區(qū)域的修復符合視覺語義一致的效果,因此基于深度學習的圖像修復得到廣泛研究。

        隨著卷積神經(jīng)網(wǎng)絡(convolutional neural network,CNN)[10]、自編碼器(auto encoder,AE)[11]以及生成對抗網(wǎng)絡(generative adversarial network,GAN)[12]的提出,圖像修復技術(shù)已經(jīng)能在語義、紋理結(jié)構(gòu)上保持與原圖一致,視覺效果日漸趨于真實圖像,圖像修復技術(shù)已經(jīng)被應用于物質(zhì)文化遺產(chǎn)保護[13]、醫(yī)學領域圖像處理[14]、日常圖像編輯修復[15-16]等領域。

        盡管目前國內(nèi)有部分發(fā)表的圖像修復綜述性工作,但都存在一些方面沒有考慮,如缺少質(zhì)量指標的定量對比、實驗數(shù)據(jù)缺少相關(guān)的數(shù)值分析、沒有對分類的修復方法進行概括總結(jié)等。因此本文首先在概述傳統(tǒng)圖像修復方法及其不足基礎上,對近幾年基于深度神經(jīng)網(wǎng)絡的圖像修復方法按照不同優(yōu)化方向進行分類與綜述;然后介紹了圖像修復研究常用的數(shù)據(jù)集和性能評價指標,并在相關(guān)數(shù)據(jù)集上對具有代表性的圖像修復算法進行性能評價和分析總結(jié);最后,對現(xiàn)有圖像修復方法目前面臨的挑戰(zhàn)進行分析,并對未來研究方向進行了展望。本文的主要貢獻是按照圖像修復的優(yōu)化方向進行分類綜述,并結(jié)合相關(guān)的實驗條件進行了性能分析,包括圖像分辨率、掩膜類型以及推理時間,最后總結(jié)了圖像修復四種優(yōu)化方向各自的優(yōu)勢、局限性以及適用場景。

        1 基于深度學習的圖像修復方法

        基于深度學習的圖像修復是利用深度自編碼器(deep auto encoder,DAE)[17]與卷積自編碼網(wǎng)絡(convolutional auto encoder,CAE)[18]實現(xiàn)的,其通過卷積網(wǎng)絡將整個破損圖像進行數(shù)據(jù)信息的特征提取,然后利用解上采樣將關(guān)鍵的特征重新組合起來,從而完成修復區(qū)域的生成。GAN 主要由生成器G(generator)和判別器D(discriminator)組成,其中生成器G主要任務是用噪聲信號通過數(shù)據(jù)分布來生成新的圖像,判別器D的作用則是判別生成的圖像是真實圖像還是虛假圖像。此時判別器做的是不斷訓練自己的判別能力,既能將真實圖片判別為真實,同時也要將生成圖片判定為虛假;而生成器需要做的是不斷訓練自己生成的圖片盡可能地真實,以此來使生成器與判別器達到平衡。

        自編碼網(wǎng)絡需要GAN對抗損失來彌補傳統(tǒng)像素級別的距離損失,所以目前基于深度學習的圖像修復主流是將自編碼網(wǎng)絡的生成模型和GAN的對抗損失結(jié)合起來。按照模型的優(yōu)化方向,將圖像修復方法分為基于網(wǎng)絡結(jié)構(gòu)優(yōu)化的方法、基于注意力機制的方法、基于輔助信息指導的方法以及基于損失函數(shù)優(yōu)化的方法。

        1.1 基于網(wǎng)絡結(jié)構(gòu)優(yōu)化的方法

        Pathak等人[19]結(jié)合了自編碼網(wǎng)絡與GAN的思想,提出了上下文編碼器(context encoders,CE)網(wǎng)絡,開創(chuàng)了深度學習圖像修復的先河,其網(wǎng)絡結(jié)構(gòu)如圖1所示。具體來看,context encoders網(wǎng)絡將帶有缺失區(qū)域的圖像作為輸入,利用編碼器提取出圖像的高級潛在特征,接著解碼器將提取的特征進行上采樣生成缺失的圖像內(nèi)容。作者發(fā)現(xiàn)僅使用與真實圖像之間的L1距離作為重構(gòu)損失函數(shù)會導致修復圖像內(nèi)部模糊不清,并且修復邊緣明顯,而加入對抗損失可以讓生成的圖片更加自然,使得修復內(nèi)部圖像更加具有真實性。但context encoders網(wǎng)絡僅僅對修復的局部圖像進行鑒別、使原圖與生成圖像邊緣出現(xiàn)較為明顯的割裂感,大大降低了整體圖像的觀感,并且context encoders 網(wǎng)絡針對的破損圖像僅為中心規(guī)則掩膜,并不能很好地處理隨機的不規(guī)則圖案。

        圖1 Context encoder網(wǎng)絡結(jié)構(gòu)Fig.1 Network structure of context encoder

        常規(guī)的卷積網(wǎng)絡會把感受野上的所有像素進行卷積,但被污染的圖片上的像素分為有效像素和破損像素,同時將其卷積會導致修復邊界出現(xiàn)扭曲偽影等視覺問題。Liu等人[20]提出了部分卷積(partial convolutions,PConv),其能夠?qū)ρ谀ぐ凑找?guī)定好的公式進行自動更新,避免了無效像素對圖像特征提取的影響,同時加大了破損邊緣的權(quán)重,實現(xiàn)了對不規(guī)則破損圖像的修復。使用掩碼自動更新的部分卷積來代替普通卷積可以有效消除偽影問題,并且部分卷積作為即插即用的模塊可以廣泛地推廣到其他圖像修復模型中,且無需任何額外處理操作。但人為設定掩膜更新機制作為硬門控不能自主學習權(quán)重系數(shù),具有不同數(shù)量的有效像素一同卷積導致邊緣信息消失,同時破損像素隨著網(wǎng)絡深度逐漸消失。因此Yu 等人[21]提出了可學習的門控卷積(gated convolutions,GConv),門控卷積自主學習了破損圖像以及掩膜通道和空間位置的動態(tài)特征,掩膜同樣由特征圖作為輸入進行卷積操作更新,而不再是通過人為規(guī)則更新,門控卷積能夠自動學習掩膜的權(quán)重,使不規(guī)則圖像修復邊緣過渡更加自然,減少偽影以及扭曲等視覺問題。但GConv網(wǎng)絡結(jié)構(gòu)采用了由粗到精的兩階段修復,并在精修復網(wǎng)絡中添加了注意力模塊,增加了大量網(wǎng)絡參數(shù)與計算成本。

        由于常規(guī)卷積只有固定的感受野,因此Wang 等人[22]提出了多列分支結(jié)構(gòu)網(wǎng)絡,通過不同卷積核大小的膨脹卷積提取出具有不同感受野以及多分辨率的特征,使解碼器能夠利用不同層級以及更遠的全局特征信息進行圖像生成,但此方法面對不同對象和場景的大規(guī)模數(shù)據(jù)集時仍然存在困難。Zhang等人[23]從課程學習中獲取靈感,通過合理的修復順序能夠比一次性完成修復獲得更好的效果。因此文章將大區(qū)域的圖像修復劃分為了多階段的區(qū)域修復,通過漸進式的修復方式使圖像能夠從邊界逐步向中心完成修復,但此方法只能針對固定的規(guī)則掩膜進行設計,并不能處理不規(guī)則或者隨機的破損圖像。

        早期圖像修復大多采用批歸一化(batch normalization,BN)[24]、層歸一化(layer normalization,LN)[25]以及實例歸一化(instance normalization,IN)[26],這導致破損區(qū)域與已知區(qū)域一起進行歸一化而造成均值方差偏移的問題。Yu等人[27]提出了區(qū)域歸一化(region normalization,RN),其核心是分別對破損區(qū)域和已知區(qū)域各自進行歸一化處理,通過計算各自的均值和方差以此來區(qū)分不同區(qū)域的數(shù)據(jù)分布。由于網(wǎng)絡后層區(qū)域掩膜已經(jīng)融合,所以文中還提出了在不需要區(qū)域掩模下能自動檢測損壞區(qū)域并獲得掩碼的可學習區(qū)域標準化(learnable region normalization,RN-L),解決了均值和方差移位問題并增強了破損區(qū)域的融合。但該網(wǎng)絡需要明確的掩膜信息,對于破損區(qū)域與未破損區(qū)域難以分辨的圖像,或者掩膜信息在卷積過程中被融合,都會導致RN-L 無法確定破損的區(qū)域,使修復圖像較為模糊。

        修復生成的圖像不一定要與原圖一樣,只要看起來合理,就允許產(chǎn)生多種解決方案,Peng 等人[28]通過分層向量量化變分自動編碼器(hierarchical vector quantized variational auto-encoder,VQ-VAE)得到離散化的圖像結(jié)構(gòu)與紋理信息,紋理生成器將生成的不同粗糙結(jié)果通過結(jié)構(gòu)注意力模塊來輔助紋理細節(jié)的增強,從而實現(xiàn)修復結(jié)果的多樣化以及確保了圖像的視覺質(zhì)量,但該方法仍只能處理分辨率不高的圖像。

        傳統(tǒng)CNN 無法捕捉長距離的信息,所以CNN 需要通過其他方法來獲取全局信息的能力,Zeng等人[29]提出了上下文信息聚合轉(zhuǎn)換(aggregated contextual transformations,AOT)網(wǎng)絡,AOT block采用多個不同膨脹率空洞卷積,用門控連接并且代替了普通殘差塊中的Identity連接,在增強對遠距離特征的捕捉的同時也降低了邊緣顏色偏差問題,但該網(wǎng)絡中AOT block分支數(shù)與膨脹率是根據(jù)研究設定的,當修復不同大小的圖片時需要再次尋找最佳的參數(shù)設置。Quan 等人[30]提出了一種三階段生成網(wǎng)絡,其中小感受野的局部細化網(wǎng)絡對于修復局部紋理更為有效,而大感受野和注意力方案用于修復長距離細節(jié)與大結(jié)構(gòu),通過局部和全局細化網(wǎng)絡組合可以處理不同的修復場景。然而三階段的網(wǎng)絡也會產(chǎn)生更多的參數(shù)與計算成本,將局部和全局細化作為一個整體才會實現(xiàn)更高效的存儲和計算。Zheng等人[31]提出了級聯(lián)調(diào)制生成網(wǎng)絡(cascaded modulation GAN,CM-GAN),該網(wǎng)絡具有全局調(diào)制塊和空間調(diào)制塊級聯(lián)的雙流解碼器,應用全局調(diào)制特征圖中提取的空間樣式調(diào)整特征圖,從而確保全局和局部生成的一致性,但網(wǎng)絡對于合成像人或動物這種特定類型的大型物體方面仍然具有局限性。He等人[32]認為視覺圖像具有高度冗余的特點,提出直接隨機mask大部分patch來降低冗余信息,而視覺任務中解碼器重構(gòu)更多的是低語義信息像素。因此作者設計了一種非對稱的編碼器-解碼器架構(gòu),僅通過對可見Patch進行編碼以及通過輕量級的解碼器進行圖像重建,在加快訓練速度的同時提高精度,使模型能夠輕松擴展到其他模型中。

        1.2 基于注意力機制的方法

        普通卷積的感受野十分有限,所以基于CNN 的圖像修復網(wǎng)絡不能很好地將破損區(qū)域與較遠的已知區(qū)域聯(lián)系起來,這就導致了圖像修復缺乏精細的紋理細節(jié)[33]。而早期基于樣本修復的方法能夠通過匹配和復制粘貼補丁塊,使得修復的圖像擁有高頻的紋理細節(jié),但此種方法又不能捕捉到圖像的深層信息,導致出現(xiàn)修復的圖像語義混亂和不一致。因此人們考慮在自編碼網(wǎng)絡的基礎上加入匹配塊,使網(wǎng)絡既可以學習到深層的語義信息,又能學習到高頻的細節(jié)紋理信息。

        Yan 等人[34]在U-Net[35]為主干網(wǎng)絡的基礎上添加了移位連接層,Shift-Net通過將編碼層特征和解碼層特征以及匹配最相近的特征塊進行跳躍連接融合,從而引導編碼器對未知區(qū)域的特征的修復。Yu 等人[36]引入了注意力機制的概念,通過上下文注意力層從遠距離的區(qū)域提取出與待修復區(qū)域相近的特征,其上下文注意力層如圖2所示。具體來看就是將整個圖像通過卷積,匹配出已知區(qū)域和待修補區(qū)域相近的塊,然后按照塊的得分進行上采樣來重建待修補區(qū)域,以此提升網(wǎng)絡的遠距離信息抓取能力。但上述方法都只是關(guān)注到缺失區(qū)域與已知區(qū)域特征信息的相關(guān)性,直接將已知區(qū)域特征轉(zhuǎn)移修復區(qū)域容易導致修復邊界信息混亂,以及生成圖像內(nèi)部斷層的問題。

        圖2 上下文注意力層Fig.2 Contextual attention layer

        考慮到待修復區(qū)域內(nèi)部自身的相關(guān)性,Liu 等人[37]針對破損區(qū)域內(nèi)部特征之間的相關(guān)性問題,提出了連貫語義注意力(coherent semantic attention,CSA),其不僅使用注意力機制將破損區(qū)域與已知區(qū)域建立聯(lián)系,同時也用CSA 層關(guān)注到缺失區(qū)域修復中塊之間的相關(guān)性,有效解決了修復區(qū)域內(nèi)部斷層以及扭曲的問題。在計算特征塊的相似度時,使用不同大小的塊會導致修復的關(guān)注點不同,越大的塊就越會關(guān)注高層語義之間的相似性,相反則會關(guān)注圖片低層紋理細節(jié)之間的相似性,Wang 等人[38]將不同尺度塊進行特征融合,然后通過壓縮和激勵(squeeze-and-excitation,SE)模塊來調(diào)整不同尺度注意力層的權(quán)重,使修復的圖片能夠關(guān)注到紋理細節(jié)與全局語義。但上述方法都只是針對注意力提取的特征進行改進,對于邊界信息以及整體結(jié)構(gòu)還有待改善。為了保證圖像修復紋理細節(jié)與高級語義的一致性,Zeng等人[39]基于多尺度特征金字塔的網(wǎng)絡結(jié)構(gòu)(feature pyramid network,F(xiàn)PN)[40]提出了金字塔式上下文編碼網(wǎng)絡。網(wǎng)絡同時將淺層提取的紋理細節(jié)特征、深層提取的高級語義特征以及注意轉(zhuǎn)移網(wǎng)絡學習的注意力得分進行了融合,通過金字塔形式逐層完成多尺度的圖像補全。該方法在圖像修復的同時也進行了特征層面的補全,將高級語義的學習與紋理細節(jié)的學習聯(lián)系在了一起,保證了紋理與語義的一致性。但多尺度的注意力機制也導致了模型訓練時間長、參數(shù)大等問題,如今的圖像分辨率越來越高,需要修復破損區(qū)域的面積越來越大,需要一種輕量級的修復網(wǎng)絡解決這些問題。

        針對漸進式修復對于大面積破損圖像計算量大與時間成本大的問題,Li 等人[41]提出循環(huán)特征推理網(wǎng)絡,該網(wǎng)絡將注意力機制嵌入在循環(huán)特征推理模塊(recurrent feature reasoning,RFR)中,通過反復利用RFR 的參數(shù)使模型輕便化,并用知識一致注意力模塊以自適應的方式融合注意力得分,從而逐步完善特征圖。雖然上述方法能解決大面積缺失問題,但針對高分辨率圖像仍然需要計算成本,為此Yi等人[42]提出了上下文殘差聚合網(wǎng)絡,第二階段網(wǎng)絡計算的注意力得分不僅用于圖像的精細修復,同時也共享在殘差聚合的高分辨修復中,該網(wǎng)絡的優(yōu)勢在于可以只針對低分辨率圖像進行學習,通過上采樣并加入高頻殘差得到最終高分辨的補全圖像。此外作者還設計了輕量級的門控卷積,使網(wǎng)絡在降低參數(shù)數(shù)量和推理時間的同時也保持了有效性,大大降低了計算時間和成本。

        Transformer[43]最初是針對NLP領域提出的,并且在NLP領域大獲成功,Google團隊隨后也提出了在計算機視覺領域中使用Transformer 視覺自注意力模型(vision transformer,ViT)[44]。卷積網(wǎng)絡對全局信息具有局限性且不支持多元輸出,而Transformer 擁有很強的結(jié)構(gòu)理解能力但計算量大,為此Wan 等人[45]將兩者結(jié)合起來,通過顏色離散化和圖像壓縮來減少計算復雜度,采用雙向Transformer 不斷將標記為掩膜的token 進行修復,而修復好的token會繼續(xù)參與新的重建中,以此打破CNN局部感知的空間限制以及循環(huán)神經(jīng)網(wǎng)絡(recurrent neural network,RNN)單項傳播的順序限制,最后網(wǎng)絡再通過高分辨率掩膜引導CNN 來填充細節(jié)紋理。Zheng 等人[46]用Transformer替換了VQ-VAE編碼CNN特征生成器,其網(wǎng)絡通過代碼共享策略能夠高效且魯棒地學習語義豐富的離散特征,最鄰近特征經(jīng)過Transformer 實現(xiàn)未知編碼的補全,從而獲得多樣化的高質(zhì)量修復結(jié)果。但上述方法最后都需要經(jīng)過CNN 進行高分辨的精修復,并且需要針對不同數(shù)據(jù)類型訓練不同模型以獲得通用的代碼本。

        1.3 基于輔助信息指導的方法

        對于圖像修復任務,直接將缺失圖像映射成完整圖像會使得結(jié)果過于平滑以及結(jié)構(gòu)扭曲,受到書畫修復師以及人類大腦對圖像補全認知過程的啟發(fā),研究人員開始對圖像修復加上先驗的輔助信息[47]?;谳o助信息指導的方法類似于由粗糙到精確的兩階段法,首先把破損的圖片放到第一個修復網(wǎng)絡中,根據(jù)未破損的圖像信息構(gòu)建出破損區(qū)域的先驗信息,然后把輸出的輔助信息和原來破損圖一起輸入到第二階段修復網(wǎng)絡中,來幫助完成圖像補全修復任務。不同于常規(guī)兩階段法生成粗糙結(jié)果的紋理約束,基于輔助信息指導方法生成的主要是高級語義結(jié)構(gòu)的約束,因此增加結(jié)構(gòu)信息指導的修復減少了修復區(qū)域與未破損區(qū)域之間的過渡平滑與模糊,使修復的圖像結(jié)構(gòu)符合原本的語義。

        語義分割是對圖像中的每一個像素進行分類,Song等人[48]將圖像修復過程分為分割預測網(wǎng)絡(segmentation prediction net,SP-Net)和分割指導網(wǎng)絡(segmentation guidance net,SG-Net),將兩個部分串聯(lián)起來形成語義預測指導網(wǎng)絡(segmentation prediction and guidance network,SPG-Net),其網(wǎng)絡結(jié)構(gòu)如圖3 所示。利用全卷積網(wǎng)絡(fully convolutional networks,F(xiàn)CN)[49]得到的破損語義分割圖送入SP-Net生成完整的語義信息圖,以此作為輔助先驗信息來指導圖像的生成,有效消除了修復中的類間差異。但面對數(shù)據(jù)集語義不明顯或者存在相同語義的對象時,這種輔助信息往往也會導致相應紋理修復出現(xiàn)問題。受到藝術(shù)家工作方式靈感啟發(fā),Nazeri等人[50]認為輪廓恢復是圖片修補中的一項簡單的任務,提出的Edge Connect 網(wǎng)絡采取了先生成輪廓線條得到完整邊界信息,再指導圖像填充色彩的方法。輪廓生成器的作用可以把圖片修補任務的難度降低,將修復三通道RGB 圖的任務轉(zhuǎn)為修復輪廓的二值圖,當修復得到完整的輪廓圖片后,再將圖像修復的任務轉(zhuǎn)變?yōu)樯仙蝿?。這個過程相當于把恢復高頻信息與低頻信息的過程解耦合,使圖像修復任務能夠有效地重建高頻信息。

        圖3 SPG-Net網(wǎng)絡結(jié)構(gòu)Fig.3 Network structure of SPG-Net

        但上述方法都有不足之處:首先是在混合場景中直接從缺失圖像預測完整語義分割或輪廓圖都很困難,而不準確的先驗信息將會降低后續(xù)圖像修復的質(zhì)量;其次輔助信息的生成與圖像修復的過程不應該割裂,而應該是相互促進的。為此Li 等人[51]設計了視覺結(jié)構(gòu)重建(visual structure reconstruction,VSR)層,在圖像特征提取的同時進行圖像輪廓的更新,通過漸進式的邊緣補全指導圖像內(nèi)容的修復,VSR層的主要目的是將結(jié)構(gòu)信息整合到重構(gòu)的特征映射中,通過共享參數(shù)提高彼此的性能,采用單一階段逐步完成修復。Liao等人[52]提出了單一階段語義指導圖像修復模型,其通過漸進式方式生成更高分辨率的語義分割圖像來引導模型獲得更精確的修復結(jié)果。此外,為了解決語義分割預測的不準確問題,作者還提出了一種可以預測語義分割可信度的評估模塊(segmentation confidence evaluation module,SCEM),SCEM 會根據(jù)語義分割結(jié)果的類別概率生成一個掩膜矩陣,來標記出置信度不高的區(qū)域,通過漸進式解碼逐漸減少不確定的語義分割以此提高最終語義的準確性。

        常用的圖像修復方法需要輸入破損圖像相對應的破損掩膜,但實際生活中往往不知道圖像需要修復的是什么區(qū)域,或者說標定相應的破損區(qū)域相對困難。如果要利用人工標注掩膜,用戶則需要仔細手動定位損壞區(qū)域,而且對于批量圖片操作也會耗費大量時間和精力。較早的盲修復都是針對固定噪聲直接端到端進行修復[53],但對于圖像缺失區(qū)域語義不一致等情況卻很難進行處理,因此Wang 等人[54]提出了一種能實現(xiàn)圖像盲修復的網(wǎng)絡,其中掩碼預測網(wǎng)絡(mask prediction network,MPN)用于預測視覺不一致區(qū)域,MPN的目標是檢測所有損壞的區(qū)域并生成對應的掩膜矩陣;魯棒補全網(wǎng)絡(robust inpainting network,RIN)用于補全視覺不一致區(qū)域,利用概率上下文規(guī)范化對輸入的預測掩膜進行處理,其誤差也會在RIN優(yōu)化時反向傳播到MPN中,使網(wǎng)絡中的掩膜預測與圖像修復相互關(guān)聯(lián)。

        結(jié)構(gòu)輔助信息的增加可以使圖像語義更清晰,但內(nèi)部依然會存在混亂的顏色偽影問題,Wang 等人[55]設計了外部-內(nèi)部修復方法,外部學習通過數(shù)據(jù)集學習語義知識重建缺失圖像的結(jié)構(gòu),內(nèi)部學習統(tǒng)計單個圖像的顏色數(shù)據(jù),漸進式地對圖像進行顏色恢復,從而消除了突變顏色振鈴的缺陷,但此方法對每個測試圖像都需要顏色學習訓練,所以推理時間較長,不能完成實時運算。

        Zeng 等人[56]設計了將置信度圖作為輔助信息來反饋修復準確度,以此來應對圖像出現(xiàn)較大破損區(qū)域時中心部分修復效果較差的問題。網(wǎng)絡通過置信度圖的信息循環(huán)迭代來指導修正上一次的生成結(jié)果,并采用指導式上采用來生成高分辨率的結(jié)果。雖然網(wǎng)絡處理大面積破損以及高分辨圖像有一定優(yōu)勢,但由于網(wǎng)絡需要迭代運算,所以計算資源也較大。Guo等人[57]也指出修復過程中紋理信息和結(jié)構(gòu)信息是相互影響、相互促進的,為此提出了一種雙流的網(wǎng)絡結(jié)構(gòu)。網(wǎng)絡擁有紋理和結(jié)構(gòu)的編解碼器,用結(jié)構(gòu)約束紋理特征生成,用紋理特征引導結(jié)構(gòu)的重建,將紋理和結(jié)構(gòu)彼此作為輔助信息從而引導恢復。同時網(wǎng)絡設計的雙向門控征融合模塊和上下文特征聚合,使結(jié)構(gòu)和紋理特征之間能夠共享和組合信息,從而增強圖像紋理細節(jié)的一致性。

        1.4 基于損失函數(shù)優(yōu)化的方法

        Context encoders網(wǎng)絡雖然使用了對抗損失作為約束,但其僅僅作用于圖像局部區(qū)域,因此存在修復區(qū)域模糊和邊界結(jié)構(gòu)不一致的問題。Iizuka等人[58]在context encoders局部對抗損失基礎上新增了全局對抗損失,全局判別網(wǎng)絡會把生成圖像與原本圖像拼接起來判斷整體圖像的真?zhèn)危萌謱箵p失可以在保證圖像全局結(jié)構(gòu)一致性的同時,也使得生成的圖像更具真實性,其網(wǎng)絡結(jié)構(gòu)如圖4所示。

        圖4 全局局部一致圖像補全網(wǎng)絡結(jié)構(gòu)Fig.4 Network structure of globally and locally consistent image completion

        Johnson 等人[59]提出了感知損失和風格損失概念。感知損失是原始圖像與修復圖像相似特征之間的L1距離;風格損失為原始圖像與修復圖像特征圖對應格拉姆矩陣的L1 距離[60]。感知損失與風格損失的加入,使圖像風格細節(jié)受到更多的顏色和紋理約束,用于衡量兩張圖片之間高級感知及語義差別。利用這種思想,Yang等人[61]通過VGG-19網(wǎng)絡[62]的圖像特征層進行已知區(qū)域與缺失區(qū)域特征塊的最相近匹配,利用提取的圖像深層特征實現(xiàn)了圖像紋理的匹配,其本質(zhì)就是增加了一個紋理約束作為損失函數(shù)。文獻[22]將感知損失進行隱式多元馬爾科夫隨機場(implicit diversified Markov random fields,ID-MRF)正則化,采取相對距離來度量特征之間的相似性,與直接相似性度量相比,該方法可以還原更真實的紋理、增加結(jié)構(gòu)的變化。同時為了使修復邊界的未知像素受到更強的約束,作者還設計了置信驅(qū)動的重建損失,將掩膜卷積得到的權(quán)重作用到損失函數(shù)中,以此來改變圖像不同位置的約束權(quán)重。

        文獻[36]在注意力機制網(wǎng)絡中添加了空間權(quán)重衰減損失,離待修復區(qū)域的邊緣越遠,其中心修復的圖像就越自然,而邊緣部分由于和已知區(qū)域相連,其紋理結(jié)構(gòu)就會受到已知區(qū)域更多的約束。因此作者給邊緣部分的損失更大的權(quán)重,而離邊緣越遠,其權(quán)重衰減越厲害,從而達到對邊緣約束的同時也讓缺失區(qū)域中心能夠不受到原圖的影響。后來作者又借鑒了PatchGAN[63]和譜歸一化(spectral normalization,SN)[64],在門控卷積網(wǎng)絡中加入了簡單高效的SN-PatchGAN判別器。其中SN解決了判別器訓練不穩(wěn)定以及模式崩潰的問題;而PatchGAN 又稱馬爾可夫判別器,其輸出為N×N的矩陣,每個Patch對應著原圖的一片感受野,判別器將會對每一塊Patch 進行鑒別,因此解決了傳統(tǒng)判別器受輸入分辨率的限制以及判別區(qū)域不能為任意形狀的問題。文獻[29]在PatchGAN 的基礎上進行改進,為了突出優(yōu)化圖片生成的部分,將原圖部分改為真實,但強行優(yōu)化生成部分也會導致與原圖片部分融合不夠充分,通過給硬標簽加上高斯濾波進行模糊處理就變成了軟便簽PatchGAN。

        由于缺少已知區(qū)域與未知區(qū)域?qū)P(guān)系的約束,使用注意力層將已知區(qū)域塊轉(zhuǎn)移到未知區(qū)域可能會導致匹配錯誤,Zeng等人[65]在精修復網(wǎng)絡中加入了上下文重建損失,通過最小化輔助圖像的修復損失,鼓勵網(wǎng)絡尋找最佳的補丁塊并移動到相應的位置,使得生成器找到適當?shù)囊阎獏^(qū)域作為填充。

        2 相關(guān)數(shù)據(jù)集與性能分析

        2.1 圖像修復相關(guān)數(shù)據(jù)集

        圖像修復作為底層視覺任務,其常用于街景、場景以及人臉等場合,因此圖像修復相關(guān)數(shù)據(jù)集主要也分為以上三大類。

        在街景上,Paris StreetView數(shù)據(jù)集[66]拍攝于現(xiàn)實的街景,大多為巴黎街景圖片,其包含訓練圖像14 900張,數(shù)據(jù)集較早用于圖像修復場景,分辨率為963×537;Cityscapes 數(shù)據(jù)集[67]是以歐洲城市為主的街道場景,其擁有的語義分割和實例分割可以作為輔助信息幫助完成圖像修復任務。

        對于場景數(shù)據(jù)集,Places[68]具有1 000 多萬張圖片,包含了400多種場景,圖像分辨率為256×256,主要用于場景環(huán)境的高級視覺任務中;ImageNet 數(shù)據(jù)集[69]具有1 400萬張圖片,包含兩萬多個生活場景的物體圖像,擁有用于分類、定位和檢測任務評估的數(shù)據(jù)。

        針對人臉數(shù)據(jù)集,Celeba[70]數(shù)據(jù)集收集了20 萬多張人臉圖像,包含一萬多個身份,分辨率為178×218;CelebaHQ[71]則是高分辨版本的Celeba,分辨率為1 024×1 024;人臉高清數(shù)據(jù)集(flickr-faces-high-quality,F(xiàn)FHQ)[72]最初作為GAN的基準創(chuàng)建,包含1 024×1 024分辨率的高質(zhì)量人臉圖像,每張圖像都有多種屬性標簽。

        由于現(xiàn)有的圖片很難找到對應的實際破損圖像,所以目前圖像修復使用的破損圖像數(shù)據(jù)集基本都是在上述公共數(shù)據(jù)集上加入掩膜圖像生成的。最早使用的主要是中心矩形的規(guī)則掩膜,但由于其掩膜不符合實際生活的破損圖像,所以文獻[20]提供了NVIDIA Mask數(shù)據(jù)集,其不規(guī)則掩膜由視頻的兩個連續(xù)幀之間的遮擋和去遮擋生成,圖像分辨率為512×512,該數(shù)據(jù)集實例如圖5所示。文獻[21]提出的隨機掩膜(free-form masks),主要利用程序代碼,通過改變垂直邊距、水平邊緣、圖像尺寸等參數(shù)來隨機生成相應的掩膜。還有部分文獻使用的不規(guī)則掩膜也是利用程序代碼隨機生成的,但其方法在代碼上各不相同。上述掩膜都沒有人為因素的實際干預,要么存在鋒利的邊緣,要么就是過渡的涂抹,為此快速繪制不規(guī)則掩碼數(shù)據(jù)集(quick draw irregular mask dataset,QD-IMD)[73]提供了手繪制的筆畫組合的不規(guī)則掩膜圖案,圖像分辨率為512×512。

        圖5 NVIDIA Mask數(shù)據(jù)集Fig.5 NVIDIA Mask data set

        2.2 圖像修復評價指標

        圖像修復評價指標分為主觀和客觀評價指標,由于圖像修復屬于底層視覺任務,所以其主觀評價又顯得尤為重要,主要根據(jù)人的視覺來對修復圖像進行認知,但對于修復結(jié)果的好壞也依賴于主觀判斷能力,并且需要大量的樣本才能確保評價結(jié)果的一致。下面對常用的客觀評價指標進行說明。

        平均絕對誤差(mean absolute error,MAE),指修復圖像與真實圖像像素值之差絕對值之和的平均值,即L1 損失函數(shù),MAE 越大則像素差異越大;MAE 越小則與真實圖像的像素差異也就越小。峰值信噪比(peak signal to noise ratio,PSNR),該指標評價的是噪聲對圖像修復差異的影響,PSNR越大,說明修復的圖像與真實圖像失真越小。結(jié)構(gòu)相似性(structural similarity index,SSIM)[74]用來衡量圖片相似度,主要關(guān)注邊緣和紋理相似性來模仿人類感知,由亮度、對比度和結(jié)構(gòu)三部分組成,SSIM 越大圖片相似度越高。弗雷歇距離(Fréchet inception distance,F(xiàn)ID)[75],其使用Inception v3[76]網(wǎng)絡提取圖像特征的均值和方差計算它們分布距離,F(xiàn)ID分數(shù)越低,代表兩者分布越近,兩組圖像也就越相近。

        2.3 圖像修復方法性能分析

        本節(jié)采用MAE、PSNR和SSIM作為評價指標,對前文所述基于深度神經(jīng)網(wǎng)絡的圖像具有代表性的修復方法進行性能分析。其中“—”表示此算法文獻沒有該項性能指標數(shù)值,掩膜類型為“不規(guī)則掩膜”的數(shù)據(jù)集為NVIDIA Mask[20]。計算時間能夠體現(xiàn)出算法成本和性能的特性,也是體現(xiàn)修復算法質(zhì)量的重要因素,尤其是實時應用,計算時間更是計算機視覺任務的一項挑戰(zhàn)。因此表格也加上了推斷時間數(shù)據(jù),代表修復一張圖像所需要花費的時間。表1~表4 分別列出了在基于網(wǎng)絡結(jié)構(gòu)優(yōu)化、基于注意力機制、基于輔助信息指導、基于損失函數(shù)優(yōu)化具有代表性的算法在常用數(shù)據(jù)集上的性能。

        表1 基于網(wǎng)絡結(jié)構(gòu)優(yōu)化的算法性能Table 1 Algorithms comparison based on network structure optimization

        從表1圖像分辨率以及掩膜類型可以看出,由于先前圖像修復還不太成熟,只能處理低分辨率以及人工放置在圖像中心區(qū)域規(guī)則掩膜的簡單圖像,但隨著編碼器-解碼器網(wǎng)絡結(jié)構(gòu)的優(yōu)化,能夠處理的圖像分辨率逐漸提高,也能實現(xiàn)一些復雜的不規(guī)則掩膜圖像的修復,同時推理時間也在不斷縮減。PGN 通過將整體拆分成子任務的漸進式修復,LGNet 將修復分為粗修復、局部精修復和全局優(yōu)化三階段修復,這種分階段思想使MAE和PSNR數(shù)值有所提升;而GMCNN通過不同尺寸的卷積核,AOT-GAN 通過不同膨脹系數(shù)的卷積都獲得了更大的感受野,使CNN 獲得了捕捉更長距離信息的能力,從而能夠處理更多類型的數(shù)據(jù)集以及更高分辨率的圖像。

        分析表2數(shù)據(jù),從Shift-Net到CA再到CSA,隨著注意力方法的不斷改進,性能指標數(shù)據(jù)也在不斷提高,但相應的推斷時間卻越來越長,這是由于注意力的引入使得網(wǎng)絡需要處理的數(shù)據(jù)量增多,從而導致推理時間變慢。隨著圖像分辨率提高,圖像修復的計算時間也需要解決,RFR網(wǎng)絡通過循環(huán)網(wǎng)絡參數(shù)以及融合注意力得分使模型輕量化,同時使用了漸進式方法,可以看到在性能指標相差不大的情況下,RFR網(wǎng)絡能夠處理較大面積的掩膜;CRA 通過殘差聚合模塊能夠在100 ms 內(nèi)處理2K 甚至4K 分辨率的高清圖像;ICT 采用的Transformer結(jié)構(gòu)可以利用自注意力機制獲得更遠的信息,也擁有更強的全局理解能力強,因此其性能指標在高掩膜占比情況下都優(yōu)于其他注意力方法,能夠很好地實現(xiàn)復雜場景以及大面積破損圖像的修復。

        表2 基于注意力機制的算法性能Table 2 Algorithms comparison based on attention mechanism

        表3 主要是對比EC 與PRVS 兩種靠邊緣信息指導圖像補全的算法,不同于EC 兩階段串聯(lián)的方法,PRVS算法得益于漸進式方式以及輔助信息與圖像補全的相互促進,在不同掩膜占比的情況下性能指標均優(yōu)于使用二階段法的EC算法。而VCNet由于缺少了掩膜的輸入信息,因此其性能指標不如其他算法,但VCNet 使用掩膜預測網(wǎng)絡與補全網(wǎng)絡相結(jié)合的方法能夠?qū)崿F(xiàn)更為常見的盲修復任務,并且破損區(qū)域不再局限于黑白掩膜,還能夠處理各種語義不一致的問題,開辟了圖像修復新的方向。

        表3 基于輔助信息指導的算法性能Table 3 Algorithms comparison based on auxiliary information guidance

        從表4可以看出在設計新的圖像修復算法時,往往不會只針對其中一種方向進行優(yōu)化,而是會針對多方面進行不同的優(yōu)化,通過改進現(xiàn)有的損失函數(shù)從而使自身網(wǎng)絡的優(yōu)勢發(fā)揮更大的作用。如HR針對高分辨率圖像引入了感知損失,CA 算法針對注意力引入了空間權(quán)重衰減損失,這都使性能指標得到一定程度上的提升。

        分析四種不同優(yōu)化方向的修復算法,由于目前圖像修復處理領域沒有專門和標準化的基準數(shù)據(jù)集以及評價指標,從各算法分析結(jié)果來看,除了訓練的圖像分辨率大小以及數(shù)據(jù)集不一樣外,使用的掩膜類型、占比大小也各不相同。從數(shù)據(jù)集分析上看,對于同一種算法,Places數(shù)據(jù)集上的性能指標均低于StreetView和Celeba,可以說明場景數(shù)據(jù)集Places具有更復雜的圖像背景,修復對象多樣化,使圖像修復更為困難?;谌四槇D像數(shù)據(jù)集Celeba 的性能指標最高,因為人臉圖像對象單一,不存在冗雜的背景修復,因此人臉修復更為簡單。從掩膜類型對比來看,在掩膜占比近似情況下,中心規(guī)則掩膜的性能指標基本高于不規(guī)則掩膜,由此推斷出規(guī)則掩膜中心孔洞面積較大,正中心區(qū)域距離已知信息區(qū)域較遠,所以25%的規(guī)則掩膜相比于20%~30%占比的隨機掩膜邊緣約束相對較弱,導致最后修復效果與原圖有一定差距,但隨著不規(guī)則掩膜占比面積的增大,其性能指標下降得也越快,可以反映出大面積修復仍然是圖像修復領域的重大難題。總的來說,數(shù)據(jù)集、掩膜類型、圖像分辨率的不同都會對圖像修復性能產(chǎn)生很大差異。

        作為底層視覺任務的圖像修復也離不開人的視覺來對修復圖像進行評定,較好的定量評價指標不意味著圖像修復的定性評價結(jié)果會更好,因此部分文獻在實驗結(jié)果分析中加入了用戶評估圖像的真實性與自然性。許多圖像修復算法都是針對某一問題進行優(yōu)化,如面部修復、大面積破損修復、高分辨率修復等,其最后通過放大修復圖片的局部來體現(xiàn)優(yōu)化效果,根據(jù)不同的優(yōu)化方向可以總結(jié)出其注重優(yōu)化視覺效果的不同方面。根據(jù)上述表格以及上章基于深度學習的圖像修復方法的機制、優(yōu)勢、局限性對比可以總結(jié)出:

        (1)基于網(wǎng)絡優(yōu)化角度的算法主要針對的是對特征提取上的優(yōu)化,使網(wǎng)絡可以捕捉到更深的高級特征,增強語義學習能力,使生成的圖像更加符合原本圖像的語義,但缺點是對圖像紋理學習不足,修復區(qū)域上的紋理細節(jié)有待提高;

        (2)基于注意力機制算法針對圖像遠距離特征提取以及紋理細節(jié)上的優(yōu)化,通過優(yōu)化網(wǎng)絡頸部,使圖像能夠在捕捉深層特征的同時也能學習到高頻的紋理細節(jié)特征,更善于捕捉全局信息,因此基于注意力機制優(yōu)化的方向在大面積破損修復上表現(xiàn)得更好,但缺點則是增加了計算量,同時修復邊緣以及內(nèi)部語義連貫的問題還是沒能得到解決;

        (3)基于輔助信息指導算法則是通過增加先驗信息確保了圖像的語義結(jié)構(gòu),加強了模型輸入約束,從而使生成圖像與原本圖像的連接處的語義結(jié)構(gòu)具有一致性,使修復起來更為輕松,因此也更適合修復復雜的對象和場景,但缺點是生成先驗信息的準確性會對后續(xù)修復產(chǎn)生較大的影響,同時修復內(nèi)部的紋理細節(jié)還需進一步加強;

        (4)基于損失函數(shù)算法不僅解決了如判別器訓練不穩(wěn)定的問題,同時通過增加新的約束使輸出的圖像邊緣、紋理細節(jié)、圖像風格以及整體視覺上都有一定的提高,往往模型在對其他方向優(yōu)化的同時會根據(jù)自身的需求來改進損失函數(shù),從而使自身網(wǎng)絡的優(yōu)勢發(fā)揮更大的作用,但缺點則是網(wǎng)絡參數(shù)也會相應地有所增大。

        總結(jié)來看,四種不同的優(yōu)化方向分別對應了模型的編碼解碼、網(wǎng)絡頸部、輸入與輸出約束的優(yōu)化,其在一定程度上都使生成的圖像更加真實與自然,更符合人類的視覺觀感,而不是單純地為了指標數(shù)值上的提高。

        3 圖像修復面臨的挑戰(zhàn)

        近年來,應用計算機視覺技術(shù)處理圖像修復得以普遍關(guān)注。相比基于傳統(tǒng)方法的圖像修復,基于深度學習方法通過優(yōu)化網(wǎng)絡結(jié)構(gòu)、先驗信息、損失函數(shù)等方法使得網(wǎng)絡能夠處理不規(guī)則遮擋、大面積損失以及紋理細節(jié)恢復等問題。雖然圖像修復在實驗上取得了一定的效果,但針對實際應用還存在很多不足之處,本文在對現(xiàn)有的圖像修復方法上進行分析的基礎上,針對該領域面臨的挑戰(zhàn)性的問題歸納如下:

        (1)數(shù)據(jù)集對于深度學習至關(guān)重要,如今關(guān)于圖像修復的數(shù)據(jù)集大多只是將完好的圖片增加掩膜的方式形成破損圖像,這樣就造成了目前的修復網(wǎng)絡并不能很好地將真實生活中遭到破損的圖像進行還原。目前已經(jīng)有工作在對現(xiàn)實場景具有完整語義結(jié)構(gòu)、有意義的物體進行掩膜處理,適用于實際對象去除的任務,未來還需要對相關(guān)破損圖像以及相應完好圖像的收集,使得訓練數(shù)據(jù)集符合大部分圖像修復任務的需求。

        (2)現(xiàn)有大部分模型存在復雜結(jié)構(gòu)以及大量參數(shù),同時高分辨率圖像的修復也意味著更大的計算量和成本。因此如何實現(xiàn)快速、網(wǎng)絡結(jié)構(gòu)輕量,是圖像修復算法實用化的關(guān)鍵,不僅要考慮到實現(xiàn)修復圖像紋理細節(jié)與語義結(jié)構(gòu)一致,也要考慮到高分辨率、低延遲的問題,從而實現(xiàn)快速與高質(zhì)量的修復。目前對高分辨率圖像修復研究的工作還相對較少,因此高分辨率修復以及低延遲的推理計算正是目前熱門的研究方向之一。

        (3)在實際生活中人們對于需要修復的圖像往往不能提供相對精確的掩膜,而針對此問題的盲修復網(wǎng)絡僅在最近兩年內(nèi)才出現(xiàn),并且研究得相對較少。需要收集相關(guān)的數(shù)據(jù)集,或者研究相應的檢測方法,在某些場合內(nèi)對圖像特定區(qū)域進行智能擦除并修復的預處理,如在人臉識別系統(tǒng)上自動對頭發(fā)遮擋、佩戴的墨鏡、口罩進行擦除修復,進而方便后續(xù)的識別操作,所以能夠?qū)崿F(xiàn)僅輸入破損圖片就能夠輸出修復圖像的全自動網(wǎng)絡將會成為未來研究的熱點問題。

        (4)目前圖像修復質(zhì)量評價指標使用較多的是MAE、PSNR和SSIM,這些指標都需要將修復圖像與原始圖像進行對比,所以生成的圖像會盡可能與原圖一樣,具有一定的局限性。因此可以設計更加系統(tǒng)合理的、無需與原圖進行對比的無參考指標,能根據(jù)人類視覺對生成圖像直接進行評價。同時研究還應該根據(jù)圖像的邊緣、紋理細節(jié)、結(jié)構(gòu)等人眼視覺敏感的特征來調(diào)整網(wǎng)絡結(jié)構(gòu)和參數(shù),使圖像修復效果更加符合人眼評判標準。

        4 結(jié)束語

        本文對近幾年的圖像修復研究進行了綜述,總結(jié)了圖像修復方法中經(jīng)典模型的設計思路和優(yōu)勢,對模型不同優(yōu)化方向的圖像修復方法進行歸納和分析。通過對已有圖像修復方法的分析,可以概括總結(jié)為以下方面:基于網(wǎng)絡結(jié)構(gòu)優(yōu)化更注重圖像原本語義,基于注意力機制獲得遠距離較多的細節(jié)信息,基于輔助信息指導生成的圖像與未破損圖像的結(jié)構(gòu)更加一致,基于損失函數(shù)優(yōu)化使整體圖像更為自然。目前CNN通過不斷優(yōu)化網(wǎng)絡結(jié)構(gòu)來彌補自身遠距離信息獲取能力不足的缺陷,Transformer的出現(xiàn)也讓圖像修復生成結(jié)果更加多樣化,輔助信息指導可以為盲修復等更加艱巨的圖像修復任務提供幫助,多方向優(yōu)化的模型在未來將具有更好的視覺效果,但需要在性能和成本上尋找平衡。未來圖像修復研究應該更加關(guān)注推理速度以及特定對象目標的盲修復,以滿足實際應用的需要。

        猜你喜歡
        掩膜紋理語義
        利用掩膜和單應矩陣提高LK光流追蹤效果
        一種結(jié)合圖像分割掩膜邊緣優(yōu)化的B-PointRend網(wǎng)絡方法
        基于BM3D的復雜紋理區(qū)域圖像去噪
        軟件(2020年3期)2020-04-20 01:45:18
        語言與語義
        使用紋理疊加添加藝術(shù)畫特效
        光纖激光掩膜微細電解復合加工裝置研發(fā)
        TEXTURE ON TEXTURE質(zhì)地上的紋理
        Coco薇(2017年8期)2017-08-03 15:23:38
        多層陰影掩膜結(jié)構(gòu)及其制造和使用方法
        科技資訊(2016年21期)2016-05-30 18:49:07
        “上”與“下”語義的不對稱性及其認知闡釋
        消除凹凸紋理有妙招!
        Coco薇(2015年5期)2016-03-29 23:22:15
        √天堂中文官网在线| 亚洲大片一区二区三区四区| 成h视频在线观看免费| 日韩精品专区av无码| 美女视频黄的全免费的| 97色综合| 亚洲精品中文字幕不卡| 强开少妇嫩苞又嫩又紧九色| 久久国产精久久精产国| 久久99亚洲综合精品首页| 国产精品伦理久久一区| 亚洲精品蜜夜内射| 亚洲最大中文字幕无码网站| 97人妻无码免费专区| 在线观看午夜视频国产| 亚洲av综合a色av中文| 午夜性刺激免费视频| 亚洲中文字幕高清乱码毛片| 中文字幕人成人乱码亚洲av| 日日澡夜夜澡人人高潮| 亚洲视频高清| 国产一区二区三区精品乱码不卡| 亚洲精品无码专区在线在线播放| 亚洲国产精品特色大片观看完整版| 国产亚洲欧美另类第一页| 国产av剧情精品麻豆| 好紧好爽免费午夜视频| 久久久久无码精品亚洲日韩| 亚洲免费成年女性毛视频| 男人天堂这里只有精品| 中国凸偷窥xxxx自由视频妇科| 亚洲三区二区一区视频| av免费网站免费久久网| 又爽又黄又无遮挡的视频| 国产在线不卡AV观看| 国产精品高清免费在线| 国产办公室秘书无码精品99| 无遮无挡三级动态图| 极品少妇被后入内射视| 久久成人国产精品一区二区| 大地资源在线播放观看mv|