亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        圖像均衡化與FaceNet算法相結(jié)合的方法研究

        2022-04-24 09:58:50王欣汪寧于曉昀公安部第一研究所
        警察技術(shù) 2022年2期
        關(guān)鍵詞:均衡化特征向量直方圖

        王欣 汪寧 于曉昀 公安部第一研究所

        引言

        迄今為止,計(jì)算機(jī)人臉識(shí)別的準(zhǔn)確性依然受到光照條件等因素的影響,特別在公安實(shí)戰(zhàn)環(huán)境下,由于受到光照以及攝像頭角度等因素影響,獲取的線索照片一般比較模糊,質(zhì)量不高,降低了識(shí)別率,影響了實(shí)戰(zhàn)應(yīng)用效果[1]。因此,本文提出了圖像均衡化與FaceNet算法相結(jié)合的方法,用于提升光線不足、過(guò)曝等圖像的識(shí)別準(zhǔn)確率。

        一、研究現(xiàn)狀

        人臉識(shí)別的研究始于20世紀(jì)60年代,人臉識(shí)別因其便捷、高效、易普及的優(yōu)點(diǎn)成為最受關(guān)注的研究問(wèn)題之一[2]。

        人臉識(shí)別的方法主要分為四類(lèi),分別是神經(jīng)網(wǎng)絡(luò)方法、稀疏表示方法、子空間方法、基于三維形變模型的方法[3]。

        稀疏矩陣標(biāo)識(shí)方法,其中稀疏標(biāo)識(shí)在一個(gè)含有大量訓(xùn)練樣本的空間,樣本可以由空間的同類(lèi)樣本線性表示,并可通過(guò)將噪聲考慮在內(nèi),增加算法的魯棒性。

        子空間方法是通過(guò)尋找映射矩陣,將原始高維樣本映射至低維空間,同時(shí)樣本結(jié)構(gòu)保持不變。但子空間算法常常會(huì)發(fā)生“小樣本問(wèn)題”。

        因?yàn)槿四樖侨S結(jié)構(gòu),所以采用三維形變模型可以更好的表示人臉,但三維形變模型理論不是很完善,還有很多問(wèn)題需要研究。

        近年來(lái),基于深度學(xué)習(xí)的人臉識(shí)別方法受到了廣泛研究。使用深度學(xué)習(xí)進(jìn)修人臉識(shí)別的早期,研究人員傾向于使用多個(gè)深度卷積神經(jīng)網(wǎng)絡(luò)提取人臉特征,再進(jìn)行融合。而基于深度學(xué)習(xí)的人臉識(shí)別方法的趨勢(shì)是使用單個(gè)網(wǎng)絡(luò),多網(wǎng)融合特征逐漸被VGGNet、GoogleNet和ResNet這三種深度人臉識(shí)別的代表性網(wǎng)絡(luò)架構(gòu)所取代。其中,GoogleNet通過(guò)增加網(wǎng)絡(luò)結(jié)構(gòu)的稀疏性來(lái)解決網(wǎng)絡(luò)參數(shù)過(guò)多的問(wèn)題,大大減少了計(jì)算量。FaceNet使用Inception模塊實(shí)現(xiàn)了輕量級(jí)的深度人臉識(shí)別模型,可以在前端設(shè)備上實(shí)時(shí)運(yùn)行。

        通常,圖像質(zhì)量受采集環(huán)境、采集設(shè)備和采集距離等因素影響,如何提升低質(zhì)量圖像識(shí)別精度是一個(gè)值得關(guān)注的問(wèn)題。

        二、圖像均衡化與FaceNet算法相結(jié)合的方法研究

        (一)FaceNet算法

        傳統(tǒng)的基于深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)的方法,一般利用CNN的Siamese網(wǎng)絡(luò)來(lái)提取人臉特征,然后利用SVM等方法進(jìn)行分類(lèi)。

        FaceNet則利用DNN直接學(xué)習(xí)到從原始圖片到歐氏距離空間的映射,從而使得在歐式空間里的距離的度量直接關(guān)聯(lián)著相似度,并且引入Triplet損失函數(shù),增強(qiáng)模型學(xué)習(xí)能力。

        FaceNet算法的本質(zhì)是通過(guò)CNN學(xué)習(xí)圖像到128維歐幾里得空間的映射,該映射將圖像映射為128維的特征向量,通過(guò)使用特征向量之間距離的倒數(shù)來(lái)表征圖像之間的相似度,對(duì)于相同個(gè)體的不同圖片,其特征向量之間的距離較小,對(duì)于不同個(gè)體的圖像,其特征向量之間的距離較大。最后基于特征向量之間的相似度來(lái)解決圖像的識(shí)別、驗(yàn)證和聚類(lèi)等問(wèn)題。

        (二)圖像均衡化

        圖像均衡化技術(shù)可以在圖像增強(qiáng)、光照補(bǔ)償?shù)榷鄠€(gè)領(lǐng)域取得很好的效果[3]。該項(xiàng)技術(shù)能夠?qū)⒁粋€(gè)灰度級(jí)別分布不均勻的圖像,通過(guò)變換得到一個(gè)均勻分布。

        直方圖是圖像中像素強(qiáng)度分布的圖形表達(dá)方式,它統(tǒng)計(jì)了每一個(gè)強(qiáng)度值所具有的像素個(gè)數(shù),是一種常用的灰度變換方法,主要用于增強(qiáng)動(dòng)態(tài)范圍偏小的圖像對(duì)比度。

        直方圖均衡化是一種簡(jiǎn)單有效的圖像增強(qiáng)技術(shù),通過(guò)改變圖像的直方圖來(lái)改變圖像匯總個(gè)像素的灰度,通過(guò)拉伸像素強(qiáng)度分布范圍來(lái)增強(qiáng)圖像對(duì)比度。

        (三)圖像均衡化與FaceNet算法相結(jié)合

        為了提高別準(zhǔn)確率,本文把輸入的圖片先進(jìn)行圖像均衡化處理,提高圖像的對(duì)比度,然后再進(jìn)行邊緣檢測(cè)提取,最終通過(guò)FaceNet模型進(jìn)行識(shí)別與比對(duì),用于提升識(shí)別的準(zhǔn)確率。

        具體流程如下:

        (1)輸入圖片

        (2)圖像均衡化處理

        本文采用直方圖均衡化技術(shù)進(jìn)行圖像預(yù)處理。

        ① 映射函數(shù)應(yīng)該是一個(gè)累積分布函數(shù)(cdf)。對(duì)于直方圖H(i),它的累積分布H(i)是:

        ② 要使用其作為映射函數(shù),須對(duì)最大值為255(或者用圖像的最大強(qiáng)度值)的累積分布H(i)進(jìn)行歸一化。

        ③ 最后,通過(guò)映射過(guò)程來(lái)獲得均衡化后像素的強(qiáng)度值:

        (3)檢測(cè)對(duì)齊

        檢測(cè)對(duì)齊采用基于深度學(xué)習(xí)的MTCNN算法。該算法利用檢測(cè)任務(wù)和分類(lèi)任務(wù)來(lái)輔助關(guān)鍵點(diǎn)檢測(cè)。其總體框架包含三個(gè)階段:Proposal Network(P-Net)、Refine Network(R-Net)、Output Network(O-Net),這三個(gè)階段的輸入為不同大小的圖片,用于檢測(cè)不同大小的人臉[4]。

        P-Net的輸入是一個(gè)12×12×3的RGB圖像,在訓(xùn)練的時(shí)候,該網(wǎng)絡(luò)要判斷該圖像中是否存在人臉,并且給出人臉框的回歸和關(guān)鍵點(diǎn)定位。

        為了去除大量的非人臉框,R-Net輸入是P-Net生成的邊界框,輸出是人臉框的回歸和人臉關(guān)鍵點(diǎn)定位。

        進(jìn)一步將R-Net的所得到的區(qū)域進(jìn)行縮放,輸入ONet。O-Net輸入大小為48×48×3的圖像,輸出包含P個(gè)邊界框的坐標(biāo)信息,score以及關(guān)鍵點(diǎn)位置。

        (4)采用FaceNet算法計(jì)算

        具體流程如下:

        ① 采用CNN結(jié)構(gòu)提取特征;

        ② 特征歸一化(使其特征的 | |f(x) | |2 = 1 ,所有圖像的特征都會(huì)被映射到一個(gè)超球面上);

        ③ 再接入一個(gè)Embedding層(嵌入函數(shù)),嵌入過(guò)程可以表達(dá)為一個(gè)函數(shù),即把圖像x通過(guò)函數(shù)f(x)映射到d維歐式空間;

        ④ 此外,對(duì)嵌入函數(shù)f(x)的值,即值閾,做了限制。使得x的映射f(x)在一個(gè)超球面上;

        ⑤ 使用Triplet損失函數(shù)(優(yōu)化函數(shù))進(jìn)行特征優(yōu)化。

        (5)輸出結(jié)果

        本文采用Inception ResNet v1神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),基于數(shù)據(jù)集CASIA-WebFace,進(jìn)行模型訓(xùn)練。選取了LFW數(shù)據(jù)集和網(wǎng)絡(luò)爬取的圖片,經(jīng)過(guò)粗略的人工篩選,去除不符合要求的圖片,并對(duì)所有圖片進(jìn)行了Gamma變換,降低亮度,模擬暗處拍出的圖片,組成了一個(gè)5000余張的測(cè)試集,進(jìn)行測(cè)試。

        ?

        測(cè)試效果示例如圖1所示,其中圖片左側(cè)為原圖,中間為對(duì)原圖Gamma處理后的圖像,右側(cè)為對(duì)中間圖像進(jìn)行直方圖均衡化處理后的圖片。

        結(jié)果如圖2所示,通過(guò)直方圖均衡化預(yù)處理后,對(duì)相對(duì)較暗的圖片,識(shí)別的準(zhǔn)確率有了明顯的提升。

        ?

        三、應(yīng)用展望

        本研究提出的方法可作為人員身份核實(shí)的一個(gè)步驟應(yīng)用于分析研判、比對(duì)等業(yè)務(wù)中。如在公安分析研判業(yè)務(wù)中,利用該算法將圖像進(jìn)行比對(duì),基于比對(duì)結(jié)果進(jìn)行分析,如通行分析、聚集分析等,并可進(jìn)行預(yù)警反饋。

        四、結(jié)語(yǔ)

        本文提出了一種基于圖像均衡化和FaceNet人臉識(shí)別算法相結(jié)合的方法,針對(duì)于提升光線不足、過(guò)曝等圖像的人臉識(shí)別準(zhǔn)確率。通過(guò)實(shí)驗(yàn)證明本文提出的方法對(duì)人臉識(shí)別準(zhǔn)確率有明顯提升。

        猜你喜歡
        均衡化特征向量直方圖
        統(tǒng)計(jì)頻率分布直方圖的備考全攻略
        二年制職教本科線性代數(shù)課程的幾何化教學(xué)設(shè)計(jì)——以特征值和特征向量為例
        符合差分隱私的流數(shù)據(jù)統(tǒng)計(jì)直方圖發(fā)布
        克羅內(nèi)克積的特征向量
        用直方圖控制畫(huà)面影調(diào)
        一類(lèi)特殊矩陣特征向量的求法
        EXCEL表格計(jì)算判斷矩陣近似特征向量在AHP法檢驗(yàn)上的應(yīng)用
        制度變遷是資源均衡化的關(guān)鍵
        基于直方圖平移和互補(bǔ)嵌入的可逆水印方案
        直方圖均衡化技術(shù)在矢量等值填充圖中的算法及實(shí)現(xiàn)
        麻豆乱码国产一区二区三区| 亚洲福利二区三区四区| 一本色道久久88—综合亚洲精品| 日韩人妻中文字幕一区二区| 亚洲无人区一码二码国产内射| 日韩亚洲在线一区二区| 亚洲精品一区二区高清| 波多野结衣不打码视频| 国产老熟女网站| 免费看泡妞视频app| 三级国产女主播在线观看| 色青青女同性恋视频日本熟女| 美女露出奶头扒开内裤的视频| 国内精品久久久久影院优| 免费人成在线观看视频播放| 18禁超污无遮挡无码免费游戏| 色欧美与xxxxx| 在线亚洲精品一区二区三区| 亚洲国产综合久久天堂| 摸进她的内裤里疯狂揉她动图视频 | av最新版天堂在资源在线| 久久中文字幕亚洲综合| 色欲欲www成人网站| 国产精品va无码一区二区| 精品国产福利片在线观看| 女同视频网站一区二区| 久草视频在线手机免费看 | a级毛片免费完整视频| 久久精品国产亚洲AⅤ无码| 久久精品国产亚洲一级二级| 国产精品亚洲精品国产| 亚洲国产精品无码久久98| 美女自卫慰黄网站| 青青草视频原手机在线观看| 久久精品女同亚洲女同 | 日本视频中文字幕一区在线| 亚洲av有码精品天堂| 国产免费观看久久黄av麻豆| 强奷乱码中文字幕| 人妻在卧室被老板疯狂进入国产| 国产丝袜美腿诱惑在线观看|