亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于MTCNN 與改進Camshift相結合的人臉檢測算法

        2021-12-14 07:05:04宋博源郭曉敏
        桂林電子科技大學學報 2021年3期
        關鍵詞:概率分布直方圖人臉

        黃 新, 高 雷, 宋博源, 郭曉敏

        (桂林電子科技大學 電子工程與自動化學院,廣西 桂林 541004)

        目標的檢測與跟蹤在計算機視覺領域是一個非?;钴S的研究方向[1],同時也是動態(tài)人臉識別、智能安防監(jiān)控、智能交通等領域的核心問題。常見的目標跟蹤算法主要有:1)基于目標模型建模的算法,如區(qū)域匹配、特征點跟蹤、光流法等;2)基于搜索的算法,如粒子濾波[2]、kalman濾波[3]、Camshift[4]等算法。目前在已有目標跟蹤算法中,均值偏移(Meanshift)算法憑借計算簡單、實時性較好[5]等優(yōu)點被廣泛應用于人臉跟蹤等領域。Bradski等[4]在Meanshift算法的基礎上提出了Camshift算法。從本質上說,這2種算法都是爬坡算法,即在數(shù)據的概率密度分布中反復迭代,進而求解出局部極值穩(wěn)定的算法[5]。

        Camshift算法是一種無參估計跟蹤算法,該算法利用視頻序列中被跟蹤物體的顏色特征信息來實現(xiàn)對運動目標的跟蹤[6]。傳統(tǒng)的Camshift算法在光照的變化及被跟蹤目標與背景環(huán)境顏色相似的情況下,跟蹤效果不明顯[7]。針對Camshift算法的這一不足,可將貝葉斯概率框架[8]與傳統(tǒng)的Camshift算法相結合,但計算的復雜度會增加,從而導致跟蹤的實時性變差。

        對于視頻序列,原始的多任務級聯(lián)卷積神經網絡(multi-task convolutional neural network,簡稱MTCNN)人臉檢測算法僅在CPU 的運行環(huán)境下不能滿足視頻流中的人臉實時檢測[9]。鑒于此,提出一種改進的Camshift 算法。將Camshift 算法與MTCNN人臉檢測算法相結合,通過MTCNN 人臉檢測算法實現(xiàn)Camshift算法跟蹤框位置和大小的初始化,從而實現(xiàn)自動跟蹤檢測人臉。利用Bhattacharyya系數(shù)[10]判定Camshift算法是否出現(xiàn)相近色干擾問題,并采用相應方法進行處理。

        1 MTCNN人臉檢測算法

        1.1 算法原理

        人臉檢測是在圖像或者視頻序列中找到人臉并返回人臉框大小和位置坐標信息的過程,本研究采用MTCNN 算法對人臉及人臉關鍵點進行檢測。MTCNN[11]算法是一種基于卷積神經網絡的多任務級聯(lián)人臉檢測算法,它主要由P-Net、R-Net和ONet組成,可以檢測出人臉框和特征點。

        1)P-Net(proposal network)提案網:通過全卷積網絡獲得人臉候選框和邊界框回歸向量,并利用邊界框回歸向量對人臉候選框進行校準,用非極大值抑制(Non-maximum suppression,簡稱NMS)[12]算法合并重疊的人臉候選框。P-Net主要用來生成一些人臉候選框。

        2)R-Net(Refine Network)精煉網:將P-Net得到的候選窗作進一步篩選,剔除人臉候選框中的假陽性樣本,同樣通過邊界框回歸向量校準和NMS算法得到更加精確的人臉候選區(qū)域。R-Net主要用來去除大量的非人臉框。

        3)O-Net(Output Network)輸出網:其功能與R-Net類似,對R-Net的輸出執(zhí)行更精確的操作,主要對人臉候選區(qū)域進行精確篩選,獲得最終的人臉位置,同時得到雙眼、鼻子、嘴角兩側5個關鍵點坐標。O-Net與R-Net類似,在R-Net的基礎上增加了landmark位置的回歸。

        1.2 側臉檢測框修正

        MTCNN算法landmark示意圖如圖2所示。從圖2可看出,人臉坐標參數(shù)為:人臉框坐標(x1,y1)和(x2,y2),左眼坐標(xe,1,ye,1),右眼坐標(xe,2,ye,2),鼻子坐標(xn,1,yn,1),左嘴角坐標(xm,1,ym,1),右嘴角坐標(xm,2,ym,2)。在MTCNN進行實際的人臉檢測的過程中會出現(xiàn)人臉偏轉的現(xiàn)象,主要分為平面內偏轉和平面外偏轉。針對人臉檢測過程中出現(xiàn)平面外旋轉的現(xiàn)象,對MTCNN 人臉檢測框進行修正。xe,1-x1為左眼到人臉檢測框左側的水平距離,ye,1-y1為左眼到人臉檢測框上邊界的垂直距離,x2-xe,2為右眼到人臉檢測框右側的水平距離,ye,2-y2為右眼到人臉檢測框上邊界的垂直距離,xe,2-xe,1為雙眼間的距離;xm,1-x1為左嘴角到人臉檢測框左側的水平距離,x2-xm,2為右嘴角到人臉檢測框右側的距離,y2-ym,1為人臉框下邊界到左嘴角的垂直距離,y2-ym,2為人臉框下邊界到右嘴角的垂直距離。

        圖1 MTCNN人臉檢測網絡

        圖2 MTCNN算法landmark示意圖

        以下分為3種情況進行討論:平面外向左旋轉人臉、正面人臉和平面外向右旋轉人臉。當檢測到平面外向左旋轉的人臉和平面外向右旋轉的人臉時,人臉框的寬度W的取值范圍為

        當xe,1-x1與x2-xe,2相等時,檢測到的人臉為正面人臉,人臉框即為MTCNN檢測到的大小;當xe,1-x1小于x2-xe,2時,檢測到的人臉平面外向左旋轉,人臉框坐標為(x1,y1,x1+Wmin,y1+Hmin);當xe,1-x1大于x2-xe,2時,檢測到的人臉平面外向右旋轉,人臉框坐標為(x2-Wmin,y2-Hmin,x2,y2)。

        2 Camshift人臉跟蹤算法

        Camshift算法流程如圖3所示[13],主要包括被跟蹤目標反向投影的計算,對反向投影進行Meanshift計算和不斷搜索3個過程[14]。

        圖3 Camshift算法流程圖

        2.1 反向投影過程

        顏色直方圖作為一種目標特征,能夠對目標的顏色信息進行有效特征提取[15]。假設在彩色視頻圖像序列中,圖像像素的值域范圍在RGB空間,把RGB色彩空間的每個子空間R、G、B根據直方圖的方式分別分成m個子區(qū)間,每個區(qū)間稱為一個bin,構成相應的特征空間,相應的特征數(shù)目為k3。通常在目標跟蹤區(qū)域中,處于不同位置的像素點對顏色直方圖有不同的貢獻,距中心區(qū)域較遠的像素通常被賦予較小的權值,相反則被賦予較大的權值[16]。

        其中:Ch為候選模型顏色直方圖的歸一化因子,使得Σp u=1;y為當前幀中人臉目標的中心位置;h為核窗口的寬度。

        2.2 Camshift算法

        Camshift算法的核心思想是在所有視頻圖像幀中的顏色概率分布直方圖的基礎上運行Meanshift算法[19](如圖4所示),并運用概率分布直方圖的特征來跟蹤識別單幀中的運動目標。

        圖4 Camshift算法原理圖

        Camshift算法首先對人臉搜索框的位置和大小進行初始化,再對人臉圖像的顏色直方圖進行反向投影,并獲取其顏色概率分布,然后執(zhí)行Meanshift算法,得到新的人臉搜索框,并得到對應的質心和大小,最后根據上一幀的結果對人臉搜索框的大小和位置進行調整,在此基礎上進行逐次迭代直到收斂,即質心移動的距離小于設定的閾值,完成人臉跟蹤。假設I(x,y)為概率分布圖像在點(x,y)處的像素值,人臉搜索框的大小為W,則人臉搜索框的質心坐標(xc,yc)可[20]表示為

        其中:M00為人臉搜索框中概率密度圖的零階矩;M10、M01分別為圖中點(x,y)在x、y處的一階矩,且

        M20、M02和M11分別為圖中點(x,y)在x、y處的二階矩及混合二階矩,且

        3 改進的Camshift跟蹤算法

        3.1 加權顏色概率分布

        傳統(tǒng)的Camshift算法僅對HSV 色彩空間中的色調H 單通道進行均勻量化并建立直方圖模型,在飽和度和亮度變化較大的場景下,跟蹤效果明顯降低[6]。針對上述問題,將H 通道的反向投影過程擴展到H、S、V三通道,并對HSV 三通道進行加權束來完成反向投影,同時得到三維直方圖,具體流程如圖5所示。

        圖5 三維加權反向投影

        將圖像從RGB顏色空間轉化為HSV 空間,選取目標,分別提取其H、S分量,建立2個目標直方圖,通過反向投影分別得到目標關于它們的概率分布圖IH、IS,再分別提取其H、V分量,建立2個目標直方圖,通過反向投影分別得到目標關于它們的概率分布圖IH和IV,采用加權的方式求得總的概率分布圖,對Hue、Sat、Val三通道進行加權處理:

        其中:α為概率分布圖中IH的權重,表示H 分量在描述顏色特征方面所占的比例;(1-α)表示S、V 分量在描述顏色特征方面所占的比例;I1表示H 分量和S分量加權后的概率分布;I2表示H 分量和V 分量加權后的概率分布。將H、S分量及H、V 分量概率分布圖進行位與加權,對人臉目標區(qū)域顏色特征的描述更加準確和全面,提高了人臉跟蹤模型的穩(wěn)定性和魯棒性。由于在跟蹤過程中,H 分量對于目標顏色特征的描述能力較強,加權系數(shù)應取較大的值,取α=0.6。

        3.2 人臉約束

        人臉約束如圖6所示,Ho和Wo分別為MTCNN人臉檢測算法檢測到的人臉高度和寬度,he、we為原始Camshift人臉跟蹤框的高度和寬度,通過人臉框約束控制后,人臉框的高度和寬度分別為he、we,經過修正后的人臉框的高度和寬度分別為hc、wc。

        圖6 人臉約束

        人臉寬高比Ro限制范圍通常為0.8~2.5[21],取0.9Ro,人臉約束滿足如下條件:

        3.3 改進后的算法流程

        傳統(tǒng)Camshift算法通過手動方法調整窗口的大小和位置的初始化,改進后的Camshift算法流程圖如圖7所示,通過MTCNN 人臉檢測算法得到人臉框的坐標作為Camshift 跟蹤算法的初始化,當MTCNN算法未檢測到人臉時,跳過k幀再次進行檢測,本研究k取2,r n為當前幀中人臉搜索框的寬高比,r0為MTCNN 人臉檢測算法檢測到的人臉寬高比。傳統(tǒng)的Camshift算法以上一幀的搜索框為基礎作為下一幀窗口的初始化[19],在此過程中進行人臉的寬高比比對,以此實現(xiàn)人臉約束,當r n>r0或r n<0.9r0時,即在跟蹤中出現(xiàn)了相近色干擾,通過人臉約束來解決相近色干擾的問題。

        圖7 改進后的Camshift跟蹤算法流程

        4 實驗結果與分析

        4.1 人臉平面內旋轉檢測框修正

        MTCNN 人臉側臉檢測框修正實驗如圖8 所示,有平面向右旋轉人臉、正面人臉、平面向左旋轉人臉3種實際人臉檢測遇到的情況。在每種情況下有2幅人臉圖像,分別代表MTCNN 人臉檢測算法初始檢測到的人臉和MTCNN 人臉側臉檢測框修正,Camshift人臉跟蹤用修正后的人臉框作為跟蹤窗口大小和位置的初始化,矩形框作為Camshift跟蹤的初始窗口。

        圖8 MTCNN人臉側臉檢測框修正

        4.2 相近色干擾實驗

        為了驗證改進Camshift算法的效果,設計相關實驗進行驗證。實驗在PC(Intel(R)Core(TM)i5-4690 CPU@3.50 GHz,8 GiB RAM)win10系統(tǒng)下展開,采用Pycharm 2018.2作為實驗平臺,調用OpenCV-Python(Version3.4.5)庫中的相關函數(shù)以及MATLAB R2018a進行數(shù)據分析。實驗選用的視頻均為攝像頭本地錄制,分辨率為640像素×480像素。Camshift 改進前后顏色直方圖效果如圖9所示。

        圖9 Camshift算法改進前后顏色直方圖效果對比

        通常選擇用于評價邊緣檢測的Bhattacharyya系數(shù)[20](又稱巴氏系數(shù))來衡量目標區(qū)域和候選區(qū)域的相似性:

        ρ[p(y),q]∈(0,1),它隨著2個分布之間的相似度的增大而增大,數(shù)值越大,則目標區(qū)域與候選區(qū)域的相似度越高。理論上,目標區(qū)域與候選區(qū)域之間的巴氏距離為1,但是在實際跟蹤的過程中受光線、角度干擾信息的影響,巴氏系數(shù)為1的可能性非常小,這兩者之間擁有相同的分布幾乎是不可能的。如圖10 所示,改進后的Camshift算法與原始的Camshift算法相比,人臉目標區(qū)域與候選區(qū)域之間的巴氏系數(shù)更大,相似程度更高,人臉跟蹤的效果更好。

        圖10 Camshift算法改進前后對比

        4.3 實時人臉跟蹤對比實驗

        如圖11所示,(a)、(b)分別為Camshift算法改進前后相同幀(#424)的跟蹤對比圖,在相同的視頻幀數(shù)中,原始的Camshift算法把脖子至下巴的區(qū)域誤判為需要跟蹤的人臉區(qū)域,改進后的Camshift算法受到相近色干擾的問題明顯減弱,人臉跟蹤的魯棒性和穩(wěn)定性明顯提高。

        圖11 Camshift算法改進實測對比

        5 結束語

        針對傳統(tǒng)的Camshift算法在進行人臉跟蹤時易受脖頸等處皮膚的相近色干擾而導致跟蹤框定位不精確、跟蹤效果差等問題,通過加權概率直方圖匹配方法增強跟蹤過程中人臉的辨識度,并結合人臉框約束來解決相近膚色干擾帶來的形變。由實驗結果可知,與傳統(tǒng)的Camshift算法相比,本算法的人臉跟蹤更加準確,相近膚色的干擾問題被抑制,跟蹤效果更好。原始MTCNN算法的3個級聯(lián)網絡只能進行人臉的位置和關鍵點的檢測,對于連續(xù)的視頻序列,MTCNN算法實時性較差,不能對每個目標進行實時跟蹤,以MTCNN人臉檢測算法為基礎,通過人臉中的landmark坐標計算實現(xiàn)側面人臉檢測框進行修正,將修正后的人臉框作為改進后的Camshift跟蹤算法的初始化。實驗結果表明,該算法可實現(xiàn)人臉的實時跟蹤檢測。

        猜你喜歡
        概率分布直方圖人臉
        統(tǒng)計頻率分布直方圖的備考全攻略
        符合差分隱私的流數(shù)據統(tǒng)計直方圖發(fā)布
        有特點的人臉
        離散型概率分布的ORB圖像特征點誤匹配剔除算法
        用直方圖控制畫面影調
        三國漫——人臉解鎖
        動漫星空(2018年9期)2018-10-26 01:17:14
        關于概率分布函數(shù)定義的辨析
        科技視界(2016年19期)2017-05-18 10:18:46
        基于概率分布的PPP項目風險承擔支出測算
        基于直方圖平移和互補嵌入的可逆水印方案
        計算機工程(2015年8期)2015-07-03 12:20:21
        馬面部與人臉相似度驚人
        国产亚洲精品久久久久5区| 国产成人无码区免费网站| 综合色天天久久| 98精品国产高清在线xxxx| 国产精品亚洲精品专区| 国产自拍在线视频91| 国产精品久免费的黄网站| 亚洲国产另类精品| 国产做无码视频在线观看浪潮| 中文字幕人妻系列一区尤物视频| 偷拍一区二区三区黄片| 亚洲av乱码二区三区涩涩屋| 中文字幕人妻熟女人妻| 精品亚洲成a人在线观看青青| 色噜噜狠狠色综合中文字幕| 国产大学生自拍三级视频| 久草福利国产精品资源| 无码人妻精品一区二区三区9厂| 成人网站免费大全日韩国产| 亚洲综合一| 欧美xxxx做受欧美| 亚洲欧洲偷自拍图片区| 美女超薄透明丝袜美腿| 性色av一区二区三区密臀av| 丝袜美腿福利一区二区| 亚洲一区二区三区香蕉| 婷婷丁香社区| 精品熟妇av一区二区三区四区| 91精品国产综合久久精品密臀| 中文字幕有码无码人妻av蜜桃| 国产涩涩视频在线观看| 免费黄网站久久成人精品 | 日韩在线精品视频免费| 人妻少妇中文字幕久久| 把女邻居弄到潮喷的性经历| 国产午夜亚洲精品不卡福利| 抖射在线免费观看视频网站| 国产精品国产自产自拍高清av| 精品亚洲国产成人| 亚洲日韩精品国产一区二区三区| 一片内射视频在线观看|