亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        審計(jì)調(diào)查中人臉識別算法的研究與應(yīng)用

        2021-06-28 17:46:41王海榮李偉波萬權(quán)鄢華向銳
        電腦知識與技術(shù) 2021年10期
        關(guān)鍵詞:圖像增強(qiáng)人臉識別深度學(xué)習(xí)

        王海榮 李偉波 萬權(quán) 鄢華 向銳

        摘要:針對審計(jì)調(diào)查中人臉圖像識別應(yīng)用場景,首先模擬了一個(gè)相應(yīng)環(huán)境干擾的人臉數(shù)據(jù)集,增加數(shù)據(jù)的多樣性;在預(yù)處理階段,研究采用自適應(yīng)直方圖光照平衡和模擬眼鏡遮蓋的改進(jìn)方法進(jìn)行了圖像增強(qiáng)處理;在模型訓(xùn)練階段,提出一種最優(yōu)權(quán)重再重載的模型訓(xùn)練算法。對比實(shí)驗(yàn)結(jié)果表明,經(jīng)過圖像增強(qiáng)預(yù)處理的改進(jìn)和最優(yōu)權(quán)重再重載的模型訓(xùn)練,提高了應(yīng)用場景中人臉識別的準(zhǔn)確率、魯棒性和效率。

        關(guān)鍵詞:深度學(xué)習(xí);人臉識別;審計(jì)調(diào)查 ;圖像增強(qiáng);模型訓(xùn)練

        中圖分類號:TP301? ? ? 文獻(xiàn)標(biāo)識碼:A

        文章編號:1009-3044(2021)10-0012-07

        Abstract: According to the application scenarios of face recognition in the audit investigation, a face data set with corresponding environmental interference was simulated in advance to increase the diversity of data. In the preprocessing stage, transformation operations such as adaptive histogram light balance, glasses concealment, and horizontal flipping were done, which improved the accuracy and robustness of the training model. In the pre-processing comparison experiment, the accuracy of the model increased by 5.7% after a series of pre-processing. In the model training stage, a model training algorithm with optimal weights and reload is proposed. Experimental results show that this training algorithm has significant advantages over traditional training algorithms in terms of the convergence speed and final accuracy of model training.

        Key words: deep learning; face recognition; audit investigation; image enhancement; model training

        傳統(tǒng)的人臉識別有基于幾何特征的人臉識別方法\基于模板匹配的方法\基于子空間的方法\基于統(tǒng)計(jì)的方法[1]。而現(xiàn)在主流的人臉識別的方法是基于深度卷積神經(jīng)網(wǎng)絡(luò)的方法,雖然在檢測速度和占用的性能資源沒有傳統(tǒng)的方法的優(yōu)勢,但是在檢測準(zhǔn)確率方面,具有明顯的優(yōu)勢和更好的應(yīng)用前景[2]。不過,在人臉識別實(shí)際應(yīng)用過程中仍然有許多問題亟待解決。

        “在飛行檢查的會(huì)議合規(guī)性調(diào)查中,一些涉及人員審核的場景比如會(huì)議現(xiàn)場或者聚餐現(xiàn)場的人臉識別場景,需要對這些活動(dòng)現(xiàn)場中的關(guān)鍵人物進(jìn)行人臉識別”審計(jì)人員會(huì)根據(jù)會(huì)議關(guān)鍵人物到場情況來判斷會(huì)議的合規(guī)性和風(fēng)險(xiǎn)程度?,F(xiàn)場會(huì)議人員審核作為其中至關(guān)重要的一環(huán)節(jié),往往需要準(zhǔn)確實(shí)時(shí)。但是一般的人臉圖像識別算法在這些復(fù)雜多樣的場景下面,由于光線不均,檢測對象人臉遮蓋等因素很容易導(dǎo)致檢測失敗,識別出錯(cuò)等問題[3-5]。面對這些問題,文獻(xiàn)[6-9]使用隨機(jī)遮蓋方法來提高對人臉遮蓋的魯棒性,但是對于人臉的特定局部特征不具有針對性。文獻(xiàn)[4]介紹了可以使用Retinex算法緩解光照的問題,但是沒有應(yīng)用在人臉識別預(yù)處理中。

        基于審計(jì)調(diào)查的應(yīng)用場景,在預(yù)處理階段,提出直方圖均衡處理和Retinex光照均衡處理,緩解人臉光照不均的問題;使用模擬眼鏡遮蓋改進(jìn)算法提高識別戴眼鏡人臉準(zhǔn)確度和魯棒性。在模型訓(xùn)練階段,根據(jù)在卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練過程中往往需要大量的訓(xùn)練時(shí)間才能獲得一個(gè)比較滿意的模型效果這一現(xiàn)象,提出一種最優(yōu)權(quán)重重載的模型訓(xùn)練算法,加快模型的收斂速率,提高模型最終成型的準(zhǔn)確率。通過對比實(shí)驗(yàn)的結(jié)果表明,這些改進(jìn)能夠讓模型取得了比較好的效果,并且具有非常好的普適性和應(yīng)用價(jià)值。

        1 相關(guān)理論與方法研究

        1.1 圖像增強(qiáng)處理

        圖像增強(qiáng)處理能夠讓原始數(shù)據(jù)集圖像信息得到充分的利用。圖像增強(qiáng)處理一般有兩種處理方式。第一種是離線增強(qiáng),即數(shù)據(jù)集擴(kuò)充;第二種是在線增強(qiáng),即數(shù)據(jù)集加載時(shí)的預(yù)處理。

        在深度學(xué)習(xí)圖像領(lǐng)域模型訓(xùn)練過程中,一般在預(yù)處理階段來實(shí)現(xiàn)圖像增強(qiáng)。因?yàn)橐话銛?shù)據(jù)集所占用的內(nèi)存都比較大,這樣能節(jié)省很多空間。同時(shí)這樣也便于使用隨機(jī)處理,可以讓訓(xùn)練出的模型泛化性能會(huì)更好。

        研究將局部遮蓋和直方圖均衡和Retinex均衡這三種圖像增強(qiáng)處理操作用于模型訓(xùn)練的預(yù)處理中的意義,就在于充分利用原始圖像的信息,實(shí)現(xiàn)模型對局部特征和對光照不均的魯棒性。

        1.1.1 局部遮蓋

        局部遮蓋與隨機(jī)遮蓋的區(qū)別就是,局部遮蓋的針對性更強(qiáng),能夠提高模型對特定局部特征的魯棒性。在人臉識別中,為了提高模型對眼鏡的魯棒性,我們可以使用眼鏡遮蓋的局部遮蓋干擾算法。

        眼鏡遮蓋算法就是模擬出人臉戴眼鏡的圖像。在實(shí)現(xiàn)眼鏡遮蓋這個(gè)過程中,首先通過MTCNN(Multi-task convolutional neural networks[10],多任務(wù)卷積神經(jīng)網(wǎng)絡(luò))人臉檢測算法定位到人臉的兩只眼睛的坐標(biāo),然后根據(jù)該坐標(biāo)進(jìn)人臉對齊并添加眼鏡遮蓋。一般情況下,兩只眼睛并不在同一水平下面。根據(jù)兩只眼睛的坐標(biāo)[x1,y1]與[x2,y2]求出與水平線的夾角θ

        然后根據(jù)夾角θ進(jìn)行矯正,即可達(dá)到人臉對齊的效果。

        1.1.2 直方圖均衡

        直方圖均衡化是將原始圖像的灰度直方圖通過變化函數(shù)重新分配為灰度均勻的直方圖,增強(qiáng)了對比度。

        每個(gè)移動(dòng)模板中的直方圖中每一灰度級k出現(xiàn)的概率可定義為:

        其中 N表示圖像的像素總數(shù),L表示圖像灰度級數(shù),表示第k級灰度,r_k表示第k個(gè)灰度級

        然后根據(jù)灰度級概率進(jìn)行均衡化處理:

        對比效果見圖2。

        1.1.3 Retinex光照均衡

        Retinex理論[11-12]認(rèn)為物體的圖像(S)是由物體表面對入射光(L)反射得到的,而反射率R則由物體本身決定,不受入射光L的影響而變化。圖像的照度取決于照射在該物體上的1光源,反射率取決于物體本身。根據(jù)Retinex理論,從數(shù)學(xué)的角度看,可以將圖像除以反射率來計(jì)算出照度?;赗etinex方法的圖像形成模型如下:

        其中I(m,n)表示圖像,I的取值范圍在0到255之間,R(m,n)是物體的反射率,反射率的范圍在0和1之間,L(m,n)是照度,照度取值范圍也在0到255之間。

        最終可以整理出:

        根據(jù)式(5)可以看到,要估計(jì)反射率,必須對照度以及圖像進(jìn)行估算。因此,可以使用各種估算照度的濾波器。通過濾波器,可以使圖像平滑,并且在大多數(shù)基于Retinex的圖像增強(qiáng)方法中,平滑的圖像可以充當(dāng)照度。這就是單尺度Retinex算法(SSR)原理。

        本文在圖像預(yù)處理階段引入Retinex算法,緩解人臉圖像光照不均的問題。經(jīng)過Retinex做圖像預(yù)處理的對比圖效果如圖3所示(左邊是原圖,右邊是經(jīng)過Retinex處理后的圖)。

        1.2 模型優(yōu)化算法

        一個(gè)合適的優(yōu)化算法就像選擇了一條潛在的捷徑,能夠模型訓(xùn)練的時(shí)候快速地找到模型參數(shù)的最優(yōu)解。研究模型優(yōu)化算法的意義就在于找到這樣的一條捷徑,縮短模型的訓(xùn)練時(shí)間,節(jié)省模型訓(xùn)練的資源。常用的模型優(yōu)化算法方法有隨機(jī)梯度下降法SGD和Adam,在模型訓(xùn)練的過程中也是各有優(yōu)勢。最近剛出的RAdam效果也是非常不錯(cuò)。

        1.2.1 隨機(jī)梯度下降法SGD

        隨機(jī)梯度下降源于1951年Robbins和Monro提出的隨機(jī)逼近,最初被應(yīng)用于模式識別和神經(jīng)網(wǎng)絡(luò),現(xiàn)已成為求解大規(guī)模機(jī)器學(xué)習(xí)優(yōu)化問題的一類主流且非常有效的方法[13]。主要用來求解類似于如下求和形式的優(yōu)化問題:

        其中,[fw]表示整個(gè)數(shù)據(jù)集的損失,[fi]表示第i個(gè)樣本的損失,[w]表示當(dāng)前的模型的權(quán)重,[xi]表示輸入第i個(gè)樣本的特征,[yi]表示第i個(gè)樣本的標(biāo)簽

        梯度下降法:

        當(dāng)n很大時(shí),每次迭代計(jì)算所有的[?fwt]會(huì)非常耗時(shí)。

        隨機(jī)梯度下降的想法就是在[?fi]每次在中隨機(jī)選取一個(gè)[?fik]計(jì)算代替如上的,以這個(gè)隨機(jī)選取的方向作為下降的方向。

        注意到在[wt]靠近極小值點(diǎn)[w*]時(shí),[?fiw*≠0],這導(dǎo)致隨機(jī)梯度下降法精度低。由于方差的存在,要使得算法收斂,就需要[ηt]隨[t]逐漸減小。因此導(dǎo)致函數(shù)即使在強(qiáng)凸且光滑的條件下,收斂速度也只有[O1/t]。

        SGD每次迭代可以只用一個(gè)訓(xùn)練批次的數(shù)據(jù)來更新參數(shù),使得代價(jià)函數(shù)變小,優(yōu)點(diǎn)就是訓(xùn)練速度快,但是收斂慢。

        1.2.2 自適應(yīng)學(xué)習(xí)率優(yōu)化算法Adam

        Adam集成了SGD的一階動(dòng)量和RMSProp的二階動(dòng)量,動(dòng)量就是在梯度下降的過程中加入了慣性,使得梯度方向不變的維度上速度變快,梯度方向有所改變的維度上的更新速度變慢,這樣就可以加快收斂并減小振蕩[14]。

        偏差修正:在訓(xùn)練前期,梯度權(quán)值比較小,需要將權(quán)值之和修正為1。

        Adam結(jié)合了Adagrad善于處理稀疏梯度和Rmsprop善于處理非平穩(wěn)目標(biāo)的優(yōu)點(diǎn),適用于大數(shù)據(jù)集和高維空間。

        1.2.3 RAdam優(yōu)化算法

        由Liyuan Liu提出對Adam改進(jìn)的優(yōu)化器RAdam[15],兼有Adam和SGD兩者的優(yōu)點(diǎn),既保證了收斂速度,也不容易調(diào)入到局部最優(yōu)解。RAdam指出在訓(xùn)練的初期 Adam 中的方差會(huì)非常大。而公式(11)起到修正更新方向的作用,因此 Adam 參數(shù)的更新量的方差也會(huì)很大。在訓(xùn)練的初期([ρt<4]))時(shí),使用帶動(dòng)量的SGD來更新參數(shù)。后期再使用做一個(gè)學(xué)習(xí)率的預(yù)熱(learning rate warmup)。最后參數(shù)每一步的更新量就是:

        2 理論應(yīng)用與改進(jìn)

        2.1 圖像增強(qiáng)應(yīng)用與改進(jìn)

        在審計(jì)調(diào)查的人臉圖像識別項(xiàng)目中的人臉圖像識別容易受光照不均,遮蓋等因素影響。因此為了增加模型對光照和遮蓋的魯棒性,在數(shù)據(jù)增強(qiáng)階段添加了三個(gè)增強(qiáng)操作:局部遮蓋干擾,直方圖均衡以及Retinex光照均衡。

        在局部遮蓋干擾過程中需要使用到MTCNN檢測出關(guān)鍵點(diǎn)的坐標(biāo)。由于MTCNN人臉檢測的時(shí)間成本比較高,因此這里做進(jìn)一步的優(yōu)化。也就是在前期將原始數(shù)據(jù)集的經(jīng)過MTCNN進(jìn)行裁剪的時(shí)候,將識別出的人臉關(guān)鍵點(diǎn)(包括兩只眼睛、鼻尖和兩個(gè)嘴角,一起共五個(gè)點(diǎn)的坐標(biāo))保存在文本文件中。然后在進(jìn)行的眼鏡遮蓋需要當(dāng)前圖片的人眼坐標(biāo)的時(shí)候就直接在文本文件中查找相應(yīng)的坐標(biāo)并返回。這樣處理就減少M(fèi)TCNN的使用次數(shù),降低預(yù)處理的時(shí)間消耗。

        另外,對于添加的局部遮蓋干擾,直方圖均衡以及Retinex光照均衡這三個(gè)增強(qiáng)操作,分別給定一個(gè)概率值[pi]來判斷是否使用該操作。這樣就可以對樣本進(jìn)行不同程度的干擾,使得樣本數(shù)據(jù)信息進(jìn)行充分的利用。經(jīng)過這樣的預(yù)處理得到的圖像為:

        其中[pi]表示第i個(gè)預(yù)處理的概率,[n]表示預(yù)處理的數(shù)量,[ti]表示第i個(gè)預(yù)處理,這樣經(jīng)過一輪預(yù)處理操作之后得到的圖片進(jìn)行訓(xùn)練就可以使的模型的魯棒性更強(qiáng)。

        這個(gè)算法的偽代碼如算法1所示。

        算法 1 預(yù)處理改進(jìn)

        輸入:img,trans,prop

        輸出:trans_img

        1.fori in range(n):

        2.p=random()

        3.if p < prop[i] then

        4.img = trans[i](img)

        5.return trans_img

        2.2 基于最優(yōu)權(quán)重重載的模型訓(xùn)練方法

        在模型訓(xùn)練階段有很多影響效果的因素,比如學(xué)習(xí)率的初始化,優(yōu)化器的選擇以及訓(xùn)練方法的設(shè)計(jì)。選擇一個(gè)好的訓(xùn)練方法能夠提高訓(xùn)練效率,加快模型收斂的速度,節(jié)省模型收斂時(shí)間。

        SGD和Adam兩種優(yōu)化方式都能在一定程度上解決訓(xùn)練過程中的收斂問題,但是都傾向于向前去尋找最優(yōu)解,這容易導(dǎo)致丟失曾經(jīng)已經(jīng)遍歷到的局部甚至全局最優(yōu)解。這種情況在圖像上一般表現(xiàn)為:驗(yàn)證集的準(zhǔn)確率在訓(xùn)練過程中的某個(gè)瞬間會(huì)達(dá)到最大,繼續(xù)訓(xùn)練驗(yàn)證集的準(zhǔn)確率反而會(huì)下降。如圖4所示。

        出現(xiàn)這個(gè)情況的時(shí)候,Epochs(整個(gè)數(shù)據(jù)集訓(xùn)練的次數(shù))設(shè)置得再大也沒有效果,因?yàn)轵?yàn)證集已經(jīng)收斂了。面對這個(gè)問題普遍的做法是,停止訓(xùn)練,重新調(diào)整超參數(shù)。這種方式還需要進(jìn)行手動(dòng)調(diào)參,操作繁雜且不可控?;谧顑?yōu)權(quán)重重載的模型訓(xùn)練方法就是在SGD或者Adam優(yōu)化器訓(xùn)練的過程中,將最高準(zhǔn)確率或者最小損失的權(quán)重(上圖中best對應(yīng)的權(quán)重)保存下來。預(yù)先設(shè)置一個(gè)比較小的epochs=50,然后,每次自動(dòng)重新訓(xùn)練的過程當(dāng)中,加載上一次保存的最佳模型的權(quán)重,反復(fù)循環(huán)幾次,達(dá)到加快模型收斂速度的效果。

        其中[wi]表示當(dāng)前批次的損失,[Lwbest]表示損失最小的權(quán)重對應(yīng)的最小損失值。這個(gè)過程的算法偽代碼算法2所示:

        算法 2:最優(yōu)權(quán)重重載算法

        輸入:? Epochs,train_times //總的迭代次數(shù),間隔的迭代次數(shù)

        輸出: model_file //模型文件

        1.init model

        2.set pre_acc=0

        3.for train_iter in range(train_times)

        4.? if exist(model_file) then reload(model)

        5.? ? init optimizer, scheduler, loss_fn,

        6.? ? for epoch in range(epochs)

        7.? ? ? Train(model)

        8.? ? ? acc = Valid(model)

        9.? ? ? if acc >pre_acc then

        10.? ? ? ?model_file=save(model)

        11.return model_file

        算法執(zhí)行流程如圖5。

        3 對比實(shí)驗(yàn)

        3.1 實(shí)驗(yàn)準(zhǔn)備

        實(shí)驗(yàn)環(huán)境:顯卡GTX 1660Ti,顯存6G,系統(tǒng)windows 64,編程工具pycharm,語言版本python3.6,深度學(xué)習(xí)框架pytorch1.3,使用畫圖工具tensorboard。

        數(shù)據(jù)集處理:將數(shù)據(jù)集打亂后,取其中10%作為驗(yàn)證集固定不變,90%作為訓(xùn)練集進(jìn)行反復(fù)的訓(xùn)練。

        3.2 預(yù)處理對比實(shí)驗(yàn)

        實(shí)驗(yàn)設(shè)置:在預(yù)處理對比實(shí)驗(yàn)過程中的實(shí)驗(yàn)參數(shù)為:學(xué)習(xí)率Lr =0.001;數(shù)據(jù)集 LFW;Batch = 100;模型 InceptionResnetV1;優(yōu)化器Adam;調(diào)度器MultiStepLR;LOSS:CrossEntropyLoss;預(yù)訓(xùn)練:vggface2;模型大?。?1M。

        預(yù)處理的對比實(shí)驗(yàn)結(jié)果如表1所示。

        實(shí)驗(yàn)結(jié)果分析:實(shí)驗(yàn)從實(shí)驗(yàn)中我們可知,左右翻轉(zhuǎn)對準(zhǔn)確率的提高2.3%;眼鏡遮蓋提高了0.6%,累計(jì)提高了2.9%;直方圖處理增加了1.1%,累計(jì)提高了4.0%;Retinex均衡處理增加了1.7左右,累計(jì)提高了5.7%。達(dá)到的最好的效果訓(xùn)練曲線如圖 6所示。實(shí)驗(yàn)表明經(jīng)過數(shù)據(jù)增強(qiáng)能顯著提高整個(gè)模型的魯棒性和準(zhǔn)確率。

        3.1 訓(xùn)練方法對比實(shí)驗(yàn)

        實(shí)驗(yàn)采用的數(shù)據(jù)集是lfw經(jīng)過MTCNN人臉檢測對齊裁剪成112*112的人臉數(shù)據(jù)集,訓(xùn)練過程中的采樣方法是無放回地按照給定的索引列表采樣樣本元素,即隨機(jī)地從原始的數(shù)據(jù)集中抽樣數(shù)據(jù),生成任意一個(gè)下標(biāo)組合,從而利用下標(biāo)來提取dataset中的數(shù)據(jù)的方法。

        為了充分驗(yàn)證最優(yōu)權(quán)重重加載算法的有效性和優(yōu)越性,這部分的實(shí)驗(yàn)分別對MobileNetV2,resnet18,shufflenet_v2_x2_0三個(gè)模型做了三組實(shí)驗(yàn),每組實(shí)驗(yàn)針對不同的優(yōu)化器(SGD,Adam,RAdam)又做了權(quán)重重載訓(xùn)練和普通訓(xùn)練的兩種算法的對比實(shí)驗(yàn)。參數(shù)都設(shè)置為epochs=300,batch_size=30,weight_decay=5e-4,學(xué)習(xí)率為1e-2。在重載的曲線中權(quán)重重載的次數(shù)設(shè)置為5。實(shí)驗(yàn)結(jié)果如圖7-9所示,其中每張圖的左半部分為權(quán)重重載實(shí)驗(yàn)的曲線,右半部分為正常訓(xùn)練的曲線。下面著重分析圖7中的實(shí)驗(yàn)數(shù)據(jù)。

        在優(yōu)化器為SGD訓(xùn)練對比過程中,經(jīng)過300個(gè)epochs,使用重載的算法的訓(xùn)練集的準(zhǔn)確率已經(jīng)完全收斂到了100%,損失也接近0,擬合效果很不錯(cuò)。驗(yàn)證集上面準(zhǔn)確率已經(jīng)高達(dá)50%,損失也控制在了2.3。而使用一般的訓(xùn)練流程訓(xùn)練,訓(xùn)練集的準(zhǔn)確率還在40%左右震蕩,損失也在2.5左右震蕩,完全達(dá)不到擬合,驗(yàn)證集的準(zhǔn)確率也只達(dá)到30%左右,損失還在3.5。相比之下,在使用相同的SGD優(yōu)化器和相同時(shí)間間隔訓(xùn)練條件下面,使用重載比不使用重載的驗(yàn)證集提高了20%的準(zhǔn)確率,損失降低了1.2,訓(xùn)練集收斂速度提高了60%,損失降低了2.5。實(shí)驗(yàn)非常明顯地表現(xiàn)出重載算法的比不使用重載算法具有更強(qiáng)勁的收斂速度和收斂效率。

        在優(yōu)化器為Adam訓(xùn)練對比過程中,經(jīng)過了300個(gè)epochs的訓(xùn)練后,使用重載的訓(xùn)練集達(dá)到了83%,還有繼續(xù)上漲的空間,損失也在再慢慢地往下降;驗(yàn)證集的準(zhǔn)確率達(dá)到了62%,也還有上漲的趨勢。而使用非重載的訓(xùn)練集已經(jīng)擬合到了100%,損失也降到了0;驗(yàn)證集的準(zhǔn)確率只有34%,損失中間獲得了一個(gè)最小值,后面訓(xùn)練到后面越來越大。相比之下,在訓(xùn)練集還沒有擬合的情況下面,重載的驗(yàn)證集就比非重載的驗(yàn)證集高出0.28,何況后面重載還有上漲的勢頭。證明了重載算法與Adam優(yōu)化器搭配使用也是能夠顯著提高模型訓(xùn)練的收斂速度,抑制過擬合的效果,以及提高模型的驗(yàn)證集的準(zhǔn)確率。

        在優(yōu)化器為RAdam訓(xùn)練對比過程中,經(jīng)過了300個(gè)epochs的訓(xùn)練后,重載和非重載的準(zhǔn)確率都收斂到了100%,損失都收斂到了0附近。而在驗(yàn)證集上面,使用重載的算法準(zhǔn)確率達(dá)到72%,損失穩(wěn)定在1.8左右;非重載的準(zhǔn)確率只有0.61%,但是損失降到最低值1.8后,后面又繼續(xù)上漲,穩(wěn)定在3.3左右,此時(shí)已經(jīng)訓(xùn)練出的模型已經(jīng)失去了泛化能力。相比之下,兩個(gè)訓(xùn)練集都收斂的情況下面,重載算法準(zhǔn)確率高出了0.11,損失穩(wěn)定在1.8,而非重載算法訓(xùn)練到后面效果會(huì)越來越差。這個(gè)實(shí)驗(yàn)證明,重載算法能夠訓(xùn)練出泛化能力更好和準(zhǔn)確率更高的模型,而且訓(xùn)練出的模型更加的穩(wěn)定,不會(huì)出現(xiàn)因?yàn)橛?xùn)練時(shí)長過長而導(dǎo)致泛化能力變差的情況。

        從上面實(shí)驗(yàn)結(jié)果分析可以得出,重載算法對MobileNetV2使用不同的優(yōu)化器都具有很好的優(yōu)越性。從圖8,圖9中也可知,對其他的模型也是具有同樣的適用效果。

        從上面的訓(xùn)練曲線圖整理出最終的模型結(jié)果(epochs=300)見表2:

        從表2中可知,利用重載算法搭配不同的模型使用不同的優(yōu)化器,模型的準(zhǔn)確率也都有相當(dāng)?shù)奶嵘?,最高的能夠接?0%。

        總之,通過以上的大量的實(shí)驗(yàn)表明,使用最優(yōu)權(quán)重重載的訓(xùn)練模型的方法能夠加快模型收斂速度,提高模型的準(zhǔn)確率和模型的泛化能力,抑制訓(xùn)練集過擬合的情況,對不同的模型也是具有普適作用。

        4 結(jié)語

        針對審計(jì)調(diào)查中的人臉圖像識別應(yīng)用場景,在預(yù)處理階段,提出了局部遮蓋干擾,直方圖均衡以及Retinex光照均衡這三個(gè)增強(qiáng)操作。其中局部遮蓋干擾主要以眼鏡遮蓋為例進(jìn)行分析和實(shí)驗(yàn),在實(shí)驗(yàn)中使得模型提高了0.6%的準(zhǔn)確率。表明隨機(jī)眼鏡遮蓋能有效緩解戴眼鏡導(dǎo)致的識別不準(zhǔn)的問題。同時(shí)也側(cè)面表明了隨機(jī)局部遮蓋能夠提高模型的局部特征魯棒性。直方圖均衡和Retinex均衡則分別使模型相應(yīng)提高了1.1%和1.7%的準(zhǔn)確率,表明了這兩種增強(qiáng)方法能夠緩解光照不均對人臉圖像識別的影響。在訓(xùn)練人臉識別模型階段,提出了一種最優(yōu)權(quán)重重載的訓(xùn)練方法,經(jīng)過對比實(shí)驗(yàn)表明該訓(xùn)練算法能夠提高模型訓(xùn)練過程中的收斂速度,提高模型的泛化能力,經(jīng)過不同模型的多組實(shí)驗(yàn)表明了該方法的有效性和普適性。

        參考文獻(xiàn):

        [1] 祝秀萍,吳學(xué)毅,劉文峰.人臉識別綜述與展望[J].計(jì)算機(jī)與信息技術(shù),2008,16(4):53-56.

        [2] 陳希彤,盧濤.基于全局深度分離卷積殘差網(wǎng)絡(luò)的高效人臉識別算法[J].武漢工程大學(xué)學(xué)報(bào),2019,41(3):276-282.

        [3] 王慧星,黃勃,高永彬,等.部分遮擋人臉識別的方法綜述[J].武漢大學(xué)學(xué)報(bào)(理學(xué)版),2020,66(5):451-461.

        [4] 梁琳,何衛(wèi)平,雷蕾,等.光照不均圖像增強(qiáng)方法綜述[J].計(jì)算機(jī)應(yīng)用研究,2010,27(5):1625-1628.

        [5] 嚴(yán)春滿,張迪,郝有菲,等.基于LC-KSVD字典學(xué)習(xí)的變化光照下人臉識別方法[J].傳感器與微系統(tǒng),2020,39(11):44-46.

        [6] 楊蘭蘭,高銘宇,王晨寧,等.基于數(shù)據(jù)增強(qiáng)的人臉表情識別方法研究[J].計(jì)算機(jī)產(chǎn)品與流通,2020(11):128-129.

        [7] 王子威,范伊紅,趙錦雯,等.基于FasterR-CNN的教室監(jiān)控人數(shù)識別系統(tǒng)的開發(fā)與研究[J].電腦知識與技術(shù),2020,16(17):35-38.

        [8] 張韓鈺,吳志昊,徐勇,等.增強(qiáng)卷積神經(jīng)網(wǎng)絡(luò)的人臉篡改檢測方法[J/OL].計(jì)算機(jī)工程與應(yīng)用:1-7[2020-11-17].http://kns.cnki.net/kcms/detail/11.2127.TP.20200701.1040.016.html.

        [9] 甘嵐,沈鴻飛,王瑤,等.基于改進(jìn)DCGAN數(shù)據(jù)集增強(qiáng)方法[J/OL].計(jì)算機(jī)應(yīng)用:1-11[2020-11-17].http://kns.cnki.net/kcms/detail/51.1307.TP.20201015.1715.017.html.

        [10] Zhang K P,Zhang Z P,Li Z F,et al.Joint face detection and alignment using multitask cascaded convolutional networks[J].IEEE Signal Processing Letters,2016,23(10):1499-1503.

        [11] 劉明珠,蘇桃宇,王依寧.壓擴(kuò)多尺度Retinex圖像增強(qiáng)算法研究[J].哈爾濱理工大學(xué)學(xué)報(bào),2020,25(5):93-99.

        [12] 鄭美林,王杉.基于RETINEX的圖像增強(qiáng)方法探討[J].九江學(xué)院學(xué)報(bào)(自然科學(xué)版),2020,35(3):69-73.

        [13] 史加榮,王丹,尚凡華,張鶴于.隨機(jī)梯度下降算法研究進(jìn)展[J/OL].自動(dòng)化學(xué)報(bào):1-17[2020-11-17].https://doi.org/10.16383/j.aas.c190260.

        [14] Diederik P. Kingma and Jimmy Lei Ba. Adam: a Method for Stochastic Optimization.Interna-tional Conference on Learning Representations, pages 1–13, 2015

        [15] Liu L Y,Jiang H M,He P C,et al.On the variance of the adaptive learning rate and beyond[EB/OL].2019

        【通聯(lián)編輯:唐一東】

        猜你喜歡
        圖像增強(qiáng)人臉識別深度學(xué)習(xí)
        基于卷積神經(jīng)網(wǎng)絡(luò)的船舶圖像增強(qiáng)研究
        人臉識別 等
        圖像增強(qiáng)技術(shù)在超跨聲葉柵紋影試驗(yàn)中的應(yīng)用
        水下視覺SLAM圖像增強(qiáng)研究
        揭開人臉識別的神秘面紗
        基于圖像增強(qiáng)的無人機(jī)偵察圖像去霧方法
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        久久九九国产精品怡红院| 曰日本一级二级三级人人| 亚洲AV无码一区二区三区精神| 黄片亚洲精品在线观看| 麻豆精品国产专区在线观看| 国产精品毛片完整版视频| 欧美日韩综合网在线观看| 亚洲av粉嫩性色av| 国产桃色一区二区三区| 国产在线观看无码免费视频| 亚洲国产18成人中文字幕久久久久无码av | 亚洲久悠悠色悠在线播放| 日本黄网站三级三级三级| 在线视频你懂的国产福利| 国产精品高清亚洲精品| 亚洲av午夜一区二区三| 国产午夜无码片在线观看影院| 激情五月天伊人久久| 中文字幕一区二区区免| 日本一区二区在线播放视频| 插入日本少妇一区二区三区| 最新精品国偷自产在线| 久久精品国产99久久丝袜| 中文字幕丰满人妻有码专区| 国产毛片黄片一区二区三区| 国产丝袜无码一区二区三区视频| 国产成人精品麻豆| 精品麻豆一区二区三区乱码| 欧美乱大交xxxxx潮喷| 亚洲自偷自偷偷色无码中文| 亚洲av综合日韩精品久久久| 媚药丝袜美女高清一二区| 国产精成人品日日拍夜夜免费| 久久国产亚洲AV无码麻豆| 9l国产自产一区二区三区| 中文字幕av人妻少妇一区二区| 亚洲熟妇少妇任你躁在线观看无码 | 91日本精品国产免| 亚洲九九夜夜| 久久伊人精品色婷婷国产| 久久久久高潮综合影院|