亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多尺度卷積神經(jīng)網(wǎng)絡(luò)的人臉潤(rùn)飾檢測(cè)算法①

        2019-10-18 06:41:04王曉峰胡姣姣張德鵬
        關(guān)鍵詞:人臉尺度卷積

        張 萌,王曉峰,胡姣姣,張德鵬

        (西安理工大學(xué) 理學(xué)院,西安 710054)

        隨著Photoshop等圖像潤(rùn)飾工具的廣泛使用,越來(lái)越多的圖像編輯軟件被用于圖像潤(rùn)飾.如圖1,每對(duì)圖像的左邊為原始圖像,右邊為對(duì)應(yīng)的潤(rùn)飾圖像,從圖1可以看出圖像潤(rùn)飾可改變圖像的原始內(nèi)容并且篡改痕跡肉眼難以辨認(rèn).部分惡意篡改圖像如被大量地用于科學(xué)研究和法庭證據(jù)等,無(wú)疑將會(huì)對(duì)政治和社會(huì)穩(wěn)定產(chǎn)生嚴(yán)重的影響,因此數(shù)字圖像取證技術(shù)的研究顯得尤為重要.

        1 相關(guān)工作

        圖像潤(rùn)飾通常改變了圖像的顏色、紋理、亮度,常見(jiàn)操作包括對(duì)圖像進(jìn)行局部模糊[1]等,目前的潤(rùn)飾檢測(cè)算法主要有傳統(tǒng)算法和深度學(xué)習(xí)兩類,下文將分別對(duì)兩類算法進(jìn)行介紹.

        1.1 傳統(tǒng)人臉潤(rùn)飾檢測(cè)算法

        傳統(tǒng)的人臉潤(rùn)飾檢測(cè)算法主要依賴于人工設(shè)計(jì)判別特征,最后建立特征分類模型實(shí)現(xiàn)潤(rùn)飾圖像分類.2011年,Ananya等人[2]首次將潤(rùn)飾圖像作為篡改圖像來(lái)檢測(cè),提出用期望最大化算法(Expectation-Maximization,EM)實(shí)現(xiàn)圖像分類,但該算法只能將篡改圖像種類的范圍縮小,無(wú)法徹底區(qū)分潤(rùn)飾圖像與復(fù)制粘貼圖像.2011年,李曉飛等人[3]提出了基于雙拉普拉斯變換的潤(rùn)飾圖像盲檢測(cè)技術(shù),該方法使用KD-Tree和分層聚類法來(lái)匹配圖像塊,應(yīng)用7-tap拉普拉斯濾波器消除誤匹配,最終實(shí)現(xiàn)潤(rùn)飾圖像的局部潤(rùn)飾檢測(cè).該算法對(duì)于未壓縮的和高分辨率的壓縮圖像有效,但是對(duì)于不同色調(diào)和飽和度的圖像有誤檢,對(duì)低質(zhì)量的壓縮圖像誤檢較多.2011年,Farid等人[4]引入一個(gè)定量的潤(rùn)飾圖像度量標(biāo)準(zhǔn),通過(guò)建模估計(jì)圖像的幾何和光度變化,用8個(gè)統(tǒng)計(jì)量將圖像按潤(rùn)飾程度分為5級(jí),其中幾何修正量化為4個(gè)統(tǒng)計(jì)量,即待測(cè)對(duì)象面部和身體的運(yùn)動(dòng)幅度的平均值和標(biāo)準(zhǔn)差,光度修正也量化為4個(gè)統(tǒng)計(jì)量,包括局部平滑/銳化濾波器在空間邊界的均值和標(biāo)準(zhǔn)差,和結(jié)構(gòu)相似性指標(biāo)度量(Structural Similarity Index Metric,SSIM)的均值和標(biāo)準(zhǔn)差.該度量標(biāo)準(zhǔn)能定量的判斷圖像的潤(rùn)飾程度,缺點(diǎn)是需要原始圖像作參考.2013年,Shah等人[5]使用人類感知來(lái)檢測(cè)潤(rùn)飾圖像,首先采用PCA技術(shù)對(duì)待測(cè)圖像進(jìn)行人臉識(shí)別,然后將待測(cè)圖像與其潤(rùn)飾圖像做對(duì)比,最后通過(guò)人類的感知確定待測(cè)圖像是否潤(rùn)飾圖像.

        1.2 基于深度學(xué)習(xí)的人臉潤(rùn)飾檢測(cè)算法

        2006年,加拿大多倫多大學(xué)教授Hinton在頂尖學(xué)術(shù)刊物《科學(xué)》上發(fā)表了一篇文章[6],開(kāi)啟了深度學(xué)習(xí)在學(xué)術(shù)界和工業(yè)界的浪潮.近幾年隨著深度學(xué)習(xí)在圖像分類[7-11]、目標(biāo)檢測(cè)[12]、圖像語(yǔ)義分割[13]等領(lǐng)域取得的一系列突破性的研究成果,研究者們開(kāi)始將深度學(xué)習(xí)應(yīng)用于圖像取證領(lǐng)域.2015年,Kang等人[14]提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的中值濾波檢測(cè)方法,通過(guò)添加濾波器層來(lái)改進(jìn)傳統(tǒng)的CNN模型,添加的濾波層可以抑制由于圖像邊緣和紋理的存在引起的干擾,使得中值濾波留下的跡線可以成功暴露,這是深度學(xué)習(xí)應(yīng)用在取證領(lǐng)域的第一個(gè)研究成果,在此之后,卷積神經(jīng)網(wǎng)絡(luò)陸續(xù)應(yīng)用在其他取證領(lǐng)域,例如圖像重拍攝檢測(cè)[15],相機(jī)源識(shí)別[16],圖像隱寫(xiě)分析[17],圖像拼接及復(fù)制粘貼篡改檢測(cè)[18]等.隨著深度學(xué)習(xí)在圖像取證領(lǐng)域的廣泛應(yīng)用,研究者們也開(kāi)始將深度學(xué)習(xí)用于人臉潤(rùn)飾檢測(cè).在2016年,Bharati等人[19]設(shè)計(jì)了第一個(gè)ND-IIITD人臉潤(rùn)飾數(shù)據(jù)庫(kù),首次提出用監(jiān)督的深度玻爾茲曼機(jī)(Supervised Deep Boltzmann Machine,SDBM)來(lái)提取特征,支持向量機(jī)來(lái)對(duì)原始圖像和潤(rùn)飾圖像分類,檢測(cè)精度比傳統(tǒng)人臉潤(rùn)飾檢測(cè)算法高38.3%.2017年,Bharati等人[20]又提出了一種新的半監(jiān)督自動(dòng)編碼器來(lái)提取特征,并用支持向量機(jī)分類,但這兩個(gè)算法的特征提取和圖像分類都是分步進(jìn)行的,不是端到端的潤(rùn)飾圖像檢測(cè)算法.

        1.3 本文工作

        由上文可知,傳統(tǒng)人臉潤(rùn)飾檢測(cè)算法手動(dòng)設(shè)計(jì)特征復(fù)雜且識(shí)別率低,現(xiàn)有深度學(xué)習(xí)算法無(wú)法實(shí)現(xiàn)端到端的潤(rùn)飾圖像檢測(cè),為了解決以上問(wèn)題,本文提出了多尺度卷積神經(jīng)網(wǎng)絡(luò)模型(Multi Scale-Convolutional Neural Network,MS-CNN),不同于傳統(tǒng)的CNN,本文提出的MSCNN有3個(gè)優(yōu)點(diǎn):增加基于方向梯度直方圖(Histograms of Oriented Gradient,HOG)特征的人臉提取預(yù)處理,從待測(cè)圖像中提取人臉部分作為網(wǎng)絡(luò)的唯一輸入;在首次池化操作后加入局部歸一化層(Local Response Normali-zation,LRN),加速網(wǎng)絡(luò)收斂;由于傳統(tǒng)CNN中使用的單層單卷積核難以捕獲人臉潤(rùn)飾圖像與原始圖像間微小的類間差別,因此提出了多尺度卷積層,將不同尺寸的1×1,3×3和5 ×5的卷積核進(jìn)行了級(jí)聯(lián),以提高檢測(cè)精度.

        本文算法在人臉潤(rùn)飾數(shù)據(jù)集LFW和ND-IIITD進(jìn)行了測(cè)試,實(shí)驗(yàn)結(jié)果表明提出的算法與4種網(wǎng)絡(luò)結(jié)構(gòu)和最新人臉潤(rùn)飾檢測(cè)算法相比,檢測(cè)精度均有大幅提升.

        2 基于HOG特征的人臉提取預(yù)處理

        2005年Dalal提出了基于HOG特征 的行人檢測(cè)算法,近幾年該算法被越來(lái)越多的應(yīng)用于人臉檢測(cè)和人臉識(shí)別領(lǐng)域.考慮到人臉潤(rùn)飾檢測(cè)的目標(biāo)區(qū)域?yàn)閳D像中的人臉部分,因此在預(yù)處理層利用基于HOG特征的人臉提取算法從待測(cè)圖像中提取出人臉部分,算法步驟如下:

        Step 1.對(duì)圖像I(x,y)進(jìn)行平方根的伽馬壓縮得到I(x,y)gamma,實(shí)驗(yàn)中壓縮參數(shù)gamma取0.5;

        Step 2.結(jié)合象限信息求像素點(diǎn)(x,y)處的梯度幅值G(x,y)和梯度方向θ (x,y):其中,Gx(x,y)與Gy(x,y)分別為像素點(diǎn) (x,y)水平和垂直方向的梯度分量,求出梯度方向后將梯度方向θ(x,y)∈[0°,180°]劃分為 9 個(gè)區(qū)間.

        圖2 提出的多尺度卷積神經(jīng)網(wǎng)絡(luò)(MS-CNN)模型

        Step 3.將圖像劃分為 8 ×8不重疊的單元格,檢測(cè)窗口在圖像上滑動(dòng)的步長(zhǎng)和塊在檢測(cè)窗口滑動(dòng)的步長(zhǎng)均為8個(gè)像素,檢測(cè)窗口大小設(shè)置為1 2 8×64,塊大小為16×16.每個(gè)單元格中像素點(diǎn) (x,y)的梯度方向 θ(x,y)按區(qū)間段投票,計(jì)算區(qū)間段i及其相鄰區(qū)間段的梯度投票vi(i=0,···,8).

        其中 α為權(quán)重,為了簡(jiǎn)化計(jì)算復(fù)雜度,實(shí)驗(yàn)中取權(quán)重α=0.5[21].這樣每個(gè)單元格生成一個(gè)9維的特征每個(gè)塊由四個(gè)單元格組成,因此每個(gè)塊生成一個(gè)36維的特征向量再對(duì)特征向量Vblock歸一化得到V,圖像內(nèi)所有塊的特征向量V組合得到最終特征向量VHOG,最后將VHOG送入支持向量機(jī)來(lái)提取圖像中的人臉部分.

        3 多尺度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)

        多尺度卷積神經(jīng)網(wǎng)絡(luò)(MS-CNN)模型包括3部分:數(shù)據(jù)輸入、特征提取和分類,圖2為MS-CNN的結(jié)構(gòu)圖.數(shù)據(jù)輸入層分批次將圖像送進(jìn)特征提取部分,每個(gè)批次可處理40張圖像;特征提取部分共6個(gè)卷積層,每個(gè)卷積層都有一個(gè)xavier核,使輸入輸出的數(shù)據(jù)服從式(4)的均勻分布.同時(shí)為了防止網(wǎng)絡(luò)過(guò)擬合,MS-CNN中添加了3個(gè)池化層,常見(jiàn)的池化操作包括最大池化、平均池化和重疊池化,本文選用最大池化來(lái)對(duì)圖像做下采樣;分類部分包括全鏈接層、Dropout層和Softmax層.下文將詳細(xì)描述MS-CNN網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì).

        其中,nj和nj+1分別表示輸入、輸出該卷積層的樣本個(gè)數(shù).[21]

        3.1 MS-CNN網(wǎng)絡(luò)超參數(shù)

        MS-CNN首先將輸入的彩色圖像的大小統(tǒng)一調(diào)整為1 2 8×128,數(shù)據(jù)輸入層的batch_size取40,即MSCNN每個(gè)批次處理40張圖像,直到處理完圖像庫(kù)中的所有圖像,特征提取和分類部分的超參數(shù)見(jiàn)表1.

        表1 MS-CNN的超參數(shù)

        3.2 特征提取

        特征提取部分是MS-CNN的核心,包括LRN層、多尺度卷積層和單尺度卷積單元三部分,下文詳細(xì)介紹了每個(gè)部分.

        3.2.1 局部歸一化(LRN)層

        一張1 2 8×128的圖像首先進(jìn)入數(shù)據(jù)輸入層,從數(shù)據(jù)輸入層輸出后進(jìn)入第一個(gè)卷積層,該層設(shè)有96個(gè)11×11的大尺寸卷積核ki1j,連接輸入的第i(i=1,···,40)個(gè)圖像與本層的第j(j=1,···,96)個(gè)卷積核,卷積生成96個(gè)大小為 5 9×59的特征圖x1j(j=1,···,96),在卷積層后緊跟一個(gè)最大池化層,對(duì)特征圖x1j做下采樣.第一個(gè)卷積與池化操作的公式如下:

        其中,b1j表示第一層卷積的偏置,ReLU(·)為激活函數(shù),batch_size表示MS-CNN每個(gè)批次處理圖像的個(gè)數(shù),本文中取batch_size=40;為池化層輸出的特征圖,和 分別表示池化層的權(quán)重和偏置,down(·)為最大池化操作.

        LRN仿造生物學(xué)上活躍的神經(jīng)元對(duì)相鄰神經(jīng)元的側(cè)抑制現(xiàn)象[8],對(duì)局部神經(jīng)元的活動(dòng)創(chuàng)建競(jìng)爭(zhēng)機(jī)制,使得其中響應(yīng)比較大的值變得相對(duì)更大,并抑制其他反饋較小的神經(jīng)元,因此在池化層后添加LRN層有助于網(wǎng)絡(luò)的快速收斂.該層對(duì)輸入的96個(gè)特征圖分別按像素做歸一化處理,輸出歸一化后的特征圖1,···,96):

        其中,xqpool表示池化層輸出的第q(q=1,···,N)個(gè)特征圖,N=96為特征圖總數(shù),n,k,α和 β 為參數(shù),在本文中分別取n=5,k=2,α=10?4,β=0.75.

        3.2.2 多尺度卷積層

        計(jì)算機(jī)視覺(jué)領(lǐng)域的圖像分類問(wèn)題類間差別較大,多為不同類別的分類問(wèn)題,例如貓狗分類、汽車卡車分類等.而圖像取證的類間差別微小,傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)難以區(qū)分,例如文獻(xiàn)[14]中為了放大中值濾波取證的類間差別,增加了中值濾波殘差層作為預(yù)處理,同樣文獻(xiàn)[15]在預(yù)處理層利用拉普拉斯濾波器來(lái)放大重拍攝圖像與原始圖像間的類間差別.而潤(rùn)飾圖像取證屬于圖像取證中的一類,潤(rùn)飾圖像與原始圖像間的差異也很小,多為圖像局部的亮度、紋理、飽和度等,因此傳統(tǒng)單尺度的卷積層難以捕獲這種微小的類間差別,因此本文提出多尺度卷積層,該層級(jí)聯(lián)了3種大小分別為1 ×1,3×3和5×5的xavier卷積核各64個(gè),分別對(duì)LRN層輸出的特征圖xLjRN做卷積,多尺度卷積操作表示為:

        其中,ki1j×1為1 ×1卷積核,連接LRN層的第j個(gè)輸出特征圖xLjRN與多尺度卷積層的第i個(gè)輸出特征圖fi1×1,b1i×1為偏置,nLRN為L(zhǎng)RN層輸出特征圖的個(gè)數(shù),nLRN=96,ReLU(·)為激活函數(shù),fi3×3與fi5×5同理.

        為了使特征圖fi1×1、fi3×3與fi5×5大小相同,針對(duì)3種不同尺寸的卷積核分別設(shè)定填充參數(shù)pad:pad1×1=0,pad3×3=1,pad5×5=2.最后由Concat(·)將特征圖fi1×1、fi3×3與fi5×5連接,得到最終由多尺度卷積層輸出的特征圖該操作表示為:

        3.2.3 單尺度卷積單元

        多個(gè)多尺度卷積層堆疊會(huì)產(chǎn)生大量的參數(shù),降低網(wǎng)絡(luò)訓(xùn)練效率,因此本文沒(méi)有采取對(duì)多尺度卷積層進(jìn)行簡(jiǎn)單的堆疊,而是在它之后添加了兩個(gè)單尺度卷積單元unit1和unit2.每個(gè)單尺度卷積單元都有兩個(gè)卷積層,一個(gè)最大池化層,每個(gè)卷積層后都有一個(gè)ReLU(·)激活函數(shù)來(lái)加速網(wǎng)絡(luò)收斂.unit1和unit2的結(jié)構(gòu)類似但卷積核的個(gè)數(shù)不同,卷積核個(gè)數(shù)分別為128和256,unit1和unit2的具體結(jié)構(gòu)和詳細(xì)參數(shù)見(jiàn)3.1節(jié).

        3.3 分類

        分類層分3部分:2個(gè)全連接層、Dropout層和Softmax層.全連接層將特征提取部分得到的所有二維特征圖轉(zhuǎn)化為全連接的一維特征向量;Dropout層[9]以概率p=0.5隨機(jī)的將部分隱藏神經(jīng)元的輸出清零,避免網(wǎng)絡(luò)過(guò)擬合;最后由Softmax分類器將多個(gè)神經(jīng)元的輸出映射到 (0 ,1)區(qū)間內(nèi),實(shí)現(xiàn)潤(rùn)飾圖像與原始圖像的分類.

        4 實(shí)驗(yàn)

        4.1 實(shí)驗(yàn)環(huán)境

        本文實(shí)驗(yàn)采用的深度學(xué)習(xí)平臺(tái)為Caffe[22],電腦硬件環(huán)境的內(nèi)存為8 GB,CPU為Intel(R)Core(TM)i7,GPU為GTX 1050 Ti,操作系統(tǒng)為64位Ubuntu 16.04.

        4.2 實(shí)驗(yàn)數(shù)據(jù)

        帶標(biāo)簽的人臉(Labeled Faces in the Wild,LFW)數(shù)據(jù)集:LFW是一個(gè)用于研究無(wú)約束的人臉識(shí)別的數(shù)據(jù)庫(kù),包含了13 233張人臉圖像,圖像大小均為 2 50×250.我們從LFW中隨機(jī)選取1000人臉圖像,利用Meitu軟件中的潤(rùn)飾功能,即:人像美容中的智能美容,對(duì)1000張人臉進(jìn)行潤(rùn)飾,這2000張圖像組成LFW潤(rùn)飾數(shù)據(jù)集,該數(shù)據(jù)集的部分示例圖見(jiàn)圖3,每對(duì)示例圖的左邊為原始圖像,右邊為對(duì)應(yīng)的潤(rùn)飾圖像.

        圖3 LFW潤(rùn)飾數(shù)據(jù)集的示例

        ND-IIITD 人臉潤(rùn)飾數(shù)據(jù)集:ND-IIITD 是 Bharati[19]提出的第一個(gè)人臉潤(rùn)飾數(shù)據(jù)集,圖像大小均為1200×1600,示例見(jiàn)圖4,圖4(a)(b)中的第一行為原始圖像,第二行為對(duì)應(yīng)的潤(rùn)飾圖像.該數(shù)據(jù)庫(kù)對(duì)325個(gè)對(duì)象進(jìn)行照片采集,每個(gè)對(duì)象采集8張照片,因此該數(shù)據(jù)集共有2600張?jiān)紙D像,并利用PortraitPro Studio Max軟件對(duì)每個(gè)對(duì)象中的7張照片進(jìn)行人臉潤(rùn)飾操作,該潤(rùn)飾操作對(duì)男性女性分別預(yù)設(shè)了7種不同的潤(rùn)飾操作組合,這些潤(rùn)飾操作都不同程度的改變了面部特征,包括:皮膚的紋理,眼睛、鼻子或嘴唇的形狀,眼睛的顏色等等.

        圖4 ND-IIITD人臉潤(rùn)飾數(shù)據(jù)集的示例

        實(shí)驗(yàn)中人臉潤(rùn)飾數(shù)據(jù)集LFW與ND-IIITD的訓(xùn)練集及測(cè)試集數(shù)量見(jiàn)表2.

        表2 訓(xùn)練樣本和測(cè)試樣本數(shù)量

        4.3 實(shí)驗(yàn)參數(shù)設(shè)置

        到目前為止,深度學(xué)習(xí)平臺(tái)Caffe總共提供了6種優(yōu)化算法,本實(shí)驗(yàn)中選取的優(yōu)化算法為隨機(jī)梯度下降算法(Stochastic Gradient Descent,SGD).

        在模型訓(xùn)練中,基礎(chǔ)學(xué)習(xí)率(base_lr)為0.001,在訓(xùn)練過(guò)程中對(duì)基礎(chǔ)學(xué)習(xí)率進(jìn)行調(diào)整,學(xué)習(xí)率調(diào)整策略(lr-policy)為“inv”,學(xué)習(xí)率調(diào)整策略“inv”的系數(shù) gamma和power分別為0.0001和0.75.上一次梯度更新的權(quán)重(momentum)為0.9,基礎(chǔ)網(wǎng)絡(luò)權(quán)值衰減項(xiàng)(weight_decay)為0.0005,用來(lái)防止網(wǎng)絡(luò)過(guò)擬合.每訓(xùn)練1000次在屏幕上打印一次訓(xùn)練詳情,方便觀察檢測(cè)精度和損失值隨迭代次數(shù)的變化結(jié)果,最大迭代次數(shù)(maxiter)為100 000次,為了節(jié)省訓(xùn)練時(shí)間,運(yùn)行模式(slover_mode)選GPU.

        4.4 性能評(píng)估

        4.4.1 方法有效性驗(yàn)證

        為了驗(yàn)證本文提出的MS-CNN網(wǎng)絡(luò)結(jié)構(gòu)的有效性,分別在人臉潤(rùn)飾數(shù)據(jù)集LFW和ND-IIITD上進(jìn)行測(cè)試,實(shí)驗(yàn)結(jié)果見(jiàn)表3和圖5.

        表3 MS-CNN在不同迭代次數(shù)下的檢測(cè)精度和損失值

        從表3和圖5可以看出,檢測(cè)精度隨著迭代次數(shù)的增加先快速增長(zhǎng)然后趨于平穩(wěn),且LFW數(shù)據(jù)集的檢測(cè)精度略優(yōu)于ND-IIITD數(shù)據(jù)集,原因是ND-IIITD數(shù)據(jù)集的潤(rùn)飾操作更精細(xì),圖像分辨率更高,因此潤(rùn)飾圖像與原始圖像的像素間差異較小,使得ND-IIITD數(shù)據(jù)集比LFW數(shù)據(jù)集較難檢測(cè),故檢測(cè)精度略低.

        損失值代表實(shí)際值與模型估計(jì)值之間的誤差,損失值越小說(shuō)明模型擬合的越好.圖5(b)為本文構(gòu)建的模型在不同數(shù)據(jù)集上的訓(xùn)練損失值變化情況,隨著迭代次數(shù)的增加,兩個(gè)數(shù)據(jù)集上的損失值均逐漸遞減并趨于穩(wěn)定,說(shuō)明本文提出的模型擬合的較好.

        4.4.2 性能比較

        近幾年用于圖像分類的卷積神經(jīng)網(wǎng)絡(luò)層出不窮,其中LeNet[7]與AlexNet[8]是比較經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),Mlpconv網(wǎng)絡(luò)是Yan等人[10]提出的一種增強(qiáng)的非線性網(wǎng)絡(luò)結(jié)構(gòu),ResNet[11]是一種全新的網(wǎng)絡(luò)結(jié)構(gòu),即深度殘差網(wǎng)絡(luò).為了檢驗(yàn)文本提出網(wǎng)絡(luò)模型的性能,我們?cè)谙嗤臄?shù)據(jù)集上,對(duì)迭代次數(shù)為10萬(wàn)次的網(wǎng)絡(luò)模型進(jìn)行測(cè)試,每個(gè)模型測(cè)試10次取平均值,實(shí)驗(yàn)結(jié)果見(jiàn)表4.

        圖5 MS-CNN在人臉潤(rùn)飾數(shù)據(jù)集LFW和ND-IIITD上的檢測(cè)性能

        表4 不同網(wǎng)絡(luò)結(jié)構(gòu)的檢測(cè)精度

        從表4可以得出,在LFW人臉潤(rùn)飾數(shù)據(jù)集上,本文算法的檢測(cè)精度高于LeNet網(wǎng)絡(luò)10.1%,高于AlexNet網(wǎng)絡(luò)5.3%,高于Mlpconv網(wǎng)絡(luò)8.9%,高于 ResNet-50網(wǎng)絡(luò)1.9%;在ND-IIITD人臉潤(rùn)飾數(shù)據(jù)集上,本文算法的檢測(cè)精度高于LeNet網(wǎng)絡(luò)9.9%,高于AlexNet網(wǎng)絡(luò)39.1%,高于Mlpconv網(wǎng)絡(luò)7.1%,高于 ResNet-50網(wǎng)絡(luò)2.5%.

        模型大小反應(yīng)了網(wǎng)絡(luò)結(jié)構(gòu)在訓(xùn)練過(guò)程中參數(shù)量的大小,模型越大神經(jīng)網(wǎng)絡(luò)需要學(xué)習(xí)的參數(shù)越多,層之間傳輸?shù)臄?shù)據(jù)流越大,更消耗計(jì)算資源.ResNet-50的網(wǎng)絡(luò)層數(shù)最深參數(shù)量最大,因此模型最大,而本文算法在保證檢測(cè)精度較高的情況下參數(shù)量較小,節(jié)約了計(jì)算資源.

        綜上,本文提出的算法與以上4種網(wǎng)絡(luò)結(jié)構(gòu)相比檢測(cè)精度較高、模型較小,因此性能較好.

        除此之外,本文還與人臉潤(rùn)飾檢測(cè)領(lǐng)域的最新算法文獻(xiàn)[4]和文獻(xiàn)[19]進(jìn)行對(duì)比,文獻(xiàn)[4]屬于傳統(tǒng)手動(dòng)設(shè)計(jì)特征的算法,作者將圖像的幾何、光度變化和感知失真作為判別特征,利用支持向量實(shí)現(xiàn)分類;文獻(xiàn)[19]屬于深度學(xué)習(xí)類的算法,作者利用有監(jiān)督的深度玻爾茲曼機(jī)來(lái)提取圖像特征,支持向量實(shí)現(xiàn)分類.本文算法、文獻(xiàn)[4]和文獻(xiàn)[19]在ND-IIITD人臉潤(rùn)飾數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果見(jiàn)表5.

        表5 檢測(cè)精度對(duì)比

        由表5可知本文算法的檢測(cè)精度分別比文獻(xiàn)[4]和文獻(xiàn)[19]高44.1%和5.8%,并且文獻(xiàn)[4]和文獻(xiàn)[19]都將特征提取和圖像分類分步進(jìn)行,而本文提出的MSCNN實(shí)現(xiàn)了端到端的人臉潤(rùn)飾圖像檢測(cè).

        5 結(jié)論

        由于人臉潤(rùn)飾檢測(cè)的類間差別遠(yuǎn)小于計(jì)算機(jī)視覺(jué),傳統(tǒng)CNN的檢測(cè)精度不高,針對(duì)該問(wèn)題,本文提出了一種多尺度卷積神經(jīng)網(wǎng)絡(luò)模型MS-CNN用于人臉潤(rùn)飾檢測(cè),該算法不僅避免了手動(dòng)設(shè)計(jì)提取特征的復(fù)雜,而且實(shí)現(xiàn)了端到端人臉潤(rùn)飾檢測(cè).在圖像預(yù)處理階段,本文算法利用基于HOG特征的人臉提取算法提取待測(cè)圖像的人臉部分;通過(guò)添加局部歸一化層來(lái)加速模型收斂;提出多尺度卷積層使模型能學(xué)習(xí)到更豐富的紋理特征.實(shí)驗(yàn)結(jié)果表明,與現(xiàn)有的算法相比,MSCNN具有較高的檢測(cè)精度.

        今后的工作主要圍繞增強(qiáng)MS-CNN對(duì)人臉潤(rùn)飾檢測(cè)的通用性進(jìn)行,進(jìn)一步優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)并提高檢測(cè)精度.

        猜你喜歡
        人臉尺度卷積
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        有特點(diǎn)的人臉
        財(cái)產(chǎn)的五大尺度和五重應(yīng)對(duì)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        三國(guó)漫——人臉解鎖
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        馬面部與人臉相似度驚人
        9
        長(zhǎng)得象人臉的十種動(dòng)物
        奇聞怪事(2014年5期)2014-05-13 21:43:01
        91白浆在线视频| 免费观看交性大片| 久久99精品久久久久久清纯| 强开小婷嫩苞又嫩又紧视频韩国| 少妇饥渴偷公乱a级无码| 成人区视频| 99精品国产第一福利网站| 妇女自拍偷自拍亚洲精品| 亚洲国产综合精品中文| 国产白浆在线免费观看| 伊人久久久精品区aaa片| 精品 无码 国产观看| 美女被射视频在线观看91| 免费人成网站在线播放| 高清在线有码日韩中文字幕| 熟女一区二区三区在线观看| 一本色道久久爱88av| 亚洲精品第一国产综合亚av| 国产精品爆乳在线播放 | 人妻中文字幕在线一二区| 国产性感丝袜在线观看| 无码毛片内射白浆视频| 久久99久久99精品免观看| 99国产精品视频无码免费| 日韩精品欧美激情国产一区| av天堂一区二区三区| av天堂精品久久综合网 | 欧美精品区| 深夜福利国产| 五十路在线中文字幕在线中文字幕| 亚洲国产精品久久精品| 8ⅹ8x擦拨擦拨成人免费视频 | 美女在线国产| 精品国产迪丽热巴在线| 中文资源在线一区二区三区av| 亚洲国产婷婷六月丁香| 国产一区二区女内射| 狠狠躁夜夜躁人人爽天天不卡软件| 亚洲大尺度动作在线观看一区 | 亚洲妇熟xxxx妇色黄| 国产成人啪精品视频免费软件|