高樹靜,王程龍,董廷坤
青島科技大學(xué) 信息科學(xué)技術(shù)學(xué)院,山東 青島266000
從20 世紀(jì)60 年代開始,人臉檢測(cè)技術(shù)一直不斷地被優(yōu)化和升級(jí)。近年來,對(duì)人臉檢測(cè)系統(tǒng)的研究主要集中在算法和系統(tǒng)實(shí)現(xiàn)兩方面。
在算法方面,主要研究目標(biāo)圍繞著提高準(zhǔn)確率和檢測(cè)速度。Wei等[1]試圖采用Adaboost算法尋找ROI(Region Of Interest)然后在利用膚色融合分割的方法進(jìn)行人臉檢測(cè),彌補(bǔ)Adaboost 算法側(cè)臉漏檢問題,但是準(zhǔn)確率仍需提高。劉王勝[2]對(duì)Adaboost 算進(jìn)行改進(jìn),利用視頻幀前后相關(guān)性,提高人臉檢測(cè)的速率,可以達(dá)到每幀圖像檢測(cè)耗時(shí)在96 ms,這是很不錯(cuò)的改進(jìn)。但是最近也有一些利用視頻前后幀相關(guān)性進(jìn)行研究的成果,比如齊蘇敏[3]采用Phash(感知哈希)算法對(duì)人臉追蹤中前后視頻相關(guān)性的研究是一個(gè)精簡且準(zhǔn)確率高的方法。結(jié)合前面學(xué)者的研究成果,本文利用YCbCr閾值分割提取膚色感興趣區(qū)域,減少Adaboost 人臉檢測(cè)范圍,達(dá)到提速的目的,再采用精簡且實(shí)時(shí)性高的Phash算法對(duì)人臉追蹤,減少人臉檢測(cè)次數(shù),提升人臉檢測(cè)的實(shí)時(shí)性。
在系統(tǒng)實(shí)現(xiàn)方面,主要目標(biāo)是滿足人臉檢測(cè)系統(tǒng)的實(shí)時(shí)性、準(zhǔn)確率和便攜性的需求。李昌湘等人[4]將Adaboost算法移植到嵌入式平臺(tái),能滿足基本的人臉檢測(cè)準(zhǔn)確率,但實(shí)時(shí)性卻無法保證。龐偉等人[5]采用將Adaboost算法移植到FPGA 平臺(tái),能滿足實(shí)時(shí)性要求,但以消耗大量的邏輯資源和存儲(chǔ)資源為代價(jià),因此硬件成本卻開銷太大,不利于產(chǎn)品成本的降低。在文獻(xiàn)[6]充分利用SOPC 的靈活性,達(dá)到22 幀/s 的檢測(cè)速度,表明SOPC是個(gè)很好的研究方案。經(jīng)過前面的研究成果,本文采用Xilinx 的ZYNQ SoC 平臺(tái)進(jìn)行實(shí)時(shí)人臉檢測(cè),將人臉檢測(cè)算法中不利于ARM 處理的浮點(diǎn)數(shù)定點(diǎn)化處理之后再移植到ZYNQ平臺(tái)達(dá)到加速檢測(cè)目的,然后通過合理的軟硬件協(xié)同設(shè)計(jì),滿足了系統(tǒng)實(shí)時(shí)性要求和便捷性需求的同時(shí)降低硬件成本。
本文主要使用的算法包含簡單的膚色分割、Adaboost人臉檢測(cè)算法與Phash 人臉追蹤算法。對(duì)Adaboost 人臉檢測(cè)算法進(jìn)行優(yōu)化,主要對(duì)強(qiáng)分類器與弱分類器參數(shù)進(jìn)行優(yōu)化,將其中浮點(diǎn)數(shù)轉(zhuǎn)化為定點(diǎn)數(shù),也就是將浮點(diǎn)數(shù)中的小數(shù)點(diǎn)全固定下來。這樣減少了浮點(diǎn)運(yùn)算使得人臉檢測(cè)速度更快,也更適合ZYNQ平臺(tái)使用。
因?yàn)槟w色的差異體現(xiàn)在亮度上,利用人臉皮膚的色度的聚類特征,可以將輸入視頻中的類膚色區(qū)域提取出來,而通常采集到的圖像是RGB格式,而RGB膚色空間對(duì)膚色聚類性不太理想,但是YCbCr膚色空間中可以容易地將圖像的亮度信息提取出來,所以首先將RGB 膚色空間轉(zhuǎn)到Y(jié)CbCr 膚色空間,官方提供的RGB 轉(zhuǎn)換YcbCr公式如式(1):
但是在式(1)展開的表達(dá)式中,有很多小數(shù)點(diǎn)運(yùn)算,采用移位運(yùn)算來避免出現(xiàn)小數(shù)點(diǎn)運(yùn)算,采用如式(2)~(4)所示的方式將RGB膚色空間轉(zhuǎn)為YCbCr膚色空間:
利用移位運(yùn)算減少了處理器對(duì)小數(shù)點(diǎn)處理,更快的檢測(cè)速率。主流的膚色分割是高斯模型和橢圓模型,但是這兩種算法有較多除法和浮點(diǎn)運(yùn)算,不便于用于FPGA實(shí)現(xiàn),本文采用膚色閾值對(duì)膚色特征提取,因?yàn)镃bCr分量具有很好的聚類性,設(shè)置合理的閾值,即可提取出膚色區(qū)域。在文獻(xiàn)[7]中的實(shí)驗(yàn)表明,人臉的膚色像素值集中在90 ≤Cb ≤135,137 ≤Cr ≤167,故本文也將CbCr像素值處于閾值范圍內(nèi)的像素設(shè)置為1,其他像素值設(shè)置為0,即可提取出膚色區(qū)域,計(jì)算表達(dá)式如式(5)所示:
Adaboost 算法[8]的核心是一種前向迭代算法,通過大量的正負(fù)人臉樣本訓(xùn)練得到一系列的弱分類器,利用將弱分類器級(jí)聯(lián)成為強(qiáng)分類器。
2.2.1 Haar特征
本文選用Paul Viola 和Michael Jones[9]在牛津大學(xué)提出圖1 中四個(gè)方向的Haar 特征作為人臉分類器訓(xùn)練的特征。
圖1 Haar特征圖
2.2.2 分類器的訓(xùn)練
(1)選定樣本訓(xùn)練集(x1,y1),(x2,y2),(x3,y3),…,(xn,yn),其中yi代表樣本類別,yi=0為負(fù)樣本,yi=1為正樣本,n代表訓(xùn)練樣本總個(gè)數(shù)。
(2)樣本平均分配權(quán)值,正樣本權(quán)值為ω1,i=1/2w,負(fù)樣本權(quán)值為ω1,i=1/2m,其中正樣本個(gè)數(shù)為w,負(fù)樣本個(gè)數(shù)為m。假設(shè)訓(xùn)練T 次,則對(duì)權(quán)值進(jìn)行歸一化處理:
(3)然后由選定的Haar 特征f、閾值θ 和不等號(hào)方向p來獲得弱分類器:
(4)產(chǎn)生弱分類器后,對(duì)其進(jìn)行加權(quán)ω求和得到弱分類器的誤檢率βf:
(5)利用大量的樣本訓(xùn)練得到,最小錯(cuò)誤率min(βf)對(duì)應(yīng)的分類器Ν( x,f ,p,q)
(7)最后形成最后需要的強(qiáng)分類器參數(shù)μt:
采用MIT-CBCL 人臉庫(包含2 429 個(gè)人臉正樣本,4 548 個(gè)負(fù)樣本),利用人臉庫中的正樣本和負(fù)樣本訓(xùn)練得到需要的強(qiáng)分類器,可以實(shí)現(xiàn)Adaboost人臉檢測(cè)。
2.2.3 分類器參數(shù)優(yōu)化
弱分類器閾值參數(shù)θ、強(qiáng)分類器中μt、Haar 特征值f都是是浮點(diǎn)形式存儲(chǔ)。浮點(diǎn)數(shù)在轉(zhuǎn)換過程中,盡量逼近參數(shù)精度,但不免會(huì)犧牲部分?jǐn)?shù)據(jù)精度來換取檢測(cè)算法速率的提升,對(duì)弱分類器的條件比較部分轉(zhuǎn)換方式:
強(qiáng)分類器轉(zhuǎn)換方式:
訓(xùn)練得到的弱分類器是22 級(jí),總共2 135 個(gè)弱分類器,需要對(duì)2 135個(gè)弱分類器,22個(gè)強(qiáng)分類器進(jìn)行定點(diǎn)化處理,但強(qiáng)分類器由弱分類器組成所以修改個(gè)數(shù)仍為2 135。由于左右兩側(cè)都有浮點(diǎn)數(shù),這樣先放大后比較也不會(huì)影響比較結(jié)果。
視頻幀的上下幀信息有強(qiáng)烈的時(shí)空連續(xù)性,利用這樣的時(shí)空關(guān)系,構(gòu)建Phash 函數(shù)序列[10]對(duì)人臉圖像進(jìn)行追蹤。
2.3.1 感知哈希序列
感知哈希特征提取算法能夠準(zhǔn)確又快速地提取待檢測(cè)圖像中與目標(biāo)圖像區(qū)域的相似部分,具有非常優(yōu)秀的表現(xiàn),因此被廣泛的運(yùn)用。
本文基于DCT 壓縮感知哈希算法,離散余弦變換(DCT)是一種圖像壓縮算法,將灰度人臉圖像H( )X,Y,通過DCT(離散余弦變換)壓縮獲得32×32 的尺寸的h(x,y)圖像[11],壓縮后可以減少圖像冗余信息,當(dāng)轉(zhuǎn)化到頻域后,系數(shù)從左上角到右下角,從低頻到高頻部分系數(shù)絕對(duì)值逐漸減小,能量集中于低頻部分。具體的變換過程如下所示:
F(u,v)是變換矩陣,u,v 是頻率采樣值,x,y 是空間采樣值。提取生成的32×32 的矩陣中最低頻的部分,也就是左上角的8×8 的矩陣,然后將低頻矩陣進(jìn)行二值化,即大于DCT 均值的賦值1,低于均值的賦值為0,將形成的8×8的矩陣,排列成64位整數(shù)的哈希序列,
2.3.2 哈希值匹配
通過哈希序列可以計(jì)算模板圖像和目標(biāo)圖像之間的漢明距離,可以進(jìn)行相識(shí)度判斷。計(jì)算方法如式(17)所示:
其中,Htemple(i )表示模板幀中的哈希序列第i 位。Hobject(i )表示待匹配窗口的哈希序列第i 位,為相識(shí)度因子,越大表示模板窗口和目標(biāo)窗口的相識(shí)度越小。設(shè)置相識(shí)度的閾值L,當(dāng)時(shí)候表示人臉匹配成功,若,則認(rèn)為模板與目標(biāo)相差較大。閾值設(shè)置的大小直接影響了匹配的效果,由于本文中人臉移動(dòng)緩慢,將閾值設(shè)置為L=7即可準(zhǔn)確找到人臉區(qū)域。
2.3.3 目標(biāo)匹配與模板的更新
模板圖像跟隨目標(biāo)的變化而更新是跟蹤算法的關(guān)鍵一部分。本文采用搜索跟蹤的策略,將確定的位置坐標(biāo)作為下一幀菱形搜索的起點(diǎn)坐標(biāo),搜索區(qū)域長寬是模板區(qū)域長寬的4 倍大小,對(duì)該區(qū)域計(jì)算感知哈希值,并計(jì)算與目標(biāo)區(qū)域的漢明距離。
本設(shè)計(jì)將邏輯運(yùn)算簡單,重復(fù)度高的膚色分割算法和中值濾波放在PL 部分,其中中值濾波采用三級(jí)流水線結(jié)構(gòu)設(shè)計(jì),這樣加速圖像預(yù)處理。將邏輯復(fù)雜的人臉檢測(cè)和追蹤放在PS 部分,通過分析分類器的特點(diǎn),利用不同窗口特征尺寸無關(guān)性,采用雙核ARM 并行人臉檢測(cè)也能實(shí)現(xiàn)加速人臉檢測(cè)。
采用Xilinx 開發(fā)的Vivado 2017.3 來進(jìn)行整體設(shè)計(jì),實(shí)現(xiàn)平臺(tái)是zybo 開發(fā)工具。平臺(tái)中包含28 000 多邏輯單元和665 MHz 的雙核ARM Cortex-A9 處理器,PS 包含32 KB 的一級(jí)緩存器和512 KB 的二級(jí)緩存器,并包含512 MB 的DDR3 存儲(chǔ)器[12]。系統(tǒng)軟硬協(xié)同實(shí)現(xiàn)圖像處理的工作,系統(tǒng)上電后進(jìn)行初始化,PL 部分控制攝像頭采集圖像并進(jìn)行初步處理后轉(zhuǎn)化成AXI-stream信號(hào),通過VDMA傳入PS部分,在PS部分通過AXI-HP或者AXI-GP接口獲得VDMA傳入的每一幀信號(hào),DDR3 Controller控制信號(hào)緩存入DDR3中,PS部分可以從DDR3中取出每一幀圖像進(jìn)行人臉檢測(cè)。
本文所使用的算法包括YcbCr 膚色提取,二值化,中值濾波,最小外接矩陣獲取,Adaboost 人臉檢測(cè)和Phash人臉追蹤。系統(tǒng)流程如圖2所示。
圖2 系統(tǒng)流程圖
首先將采集到的RGB 圖像轉(zhuǎn)化到Y(jié)CbCr 膚色空間,Y 分量記錄圖像的灰度信息,CbCr 分量通過設(shè)置相應(yīng)閾值粗提取出圖像中的膚色區(qū)域,接著對(duì)膚色區(qū)域進(jìn)行二值化處理,然后采用中值濾波去除二值化圖像中的椒鹽噪聲,并將濾波后的二值化圖像進(jìn)行等間隔旋轉(zhuǎn)搜索獲取膚色區(qū)域的最小外接矩形,記錄最小外接矩形的四個(gè)頂點(diǎn)坐標(biāo),將坐標(biāo)值輸入到的灰度圖,對(duì)灰度圖進(jìn)行裁剪,獲得人臉膚色區(qū)域的灰度圖,縮小Adaboost 人臉檢測(cè)算法可以在圖中的檢測(cè)范圍。
然后判斷當(dāng)前的人臉膚色區(qū)域是否是采集到的第一幀圖像。
若是第一幀圖像則進(jìn)行人臉檢測(cè),然后將人臉圖像作為哈希模板圖像,計(jì)算其哈希序列,并緩存起來,與下一幀膚色區(qū)域進(jìn)行哈希匹配,達(dá)到人臉追蹤的目的,最后輸出檢測(cè)到的人臉區(qū)域,并進(jìn)行下一幀信息采集。
若不是第一幀圖像,則直接進(jìn)行Phash 人臉追蹤環(huán)節(jié),若追蹤成功,則更新模板哈希序列,輸出人臉區(qū)域,進(jìn)行下一幀信息采集;若追蹤失敗,則跳回到Adaboost人臉檢測(cè)算法進(jìn)行人臉檢測(cè),然后更新模板序列,輸出人臉區(qū)域并進(jìn)行下一幀信息采集。
ZYNQ 平臺(tái)被劃分PL-PS 兩個(gè)部分,兩個(gè)部分都可以分別獨(dú)立實(shí)現(xiàn)。本次設(shè)計(jì)中膚色提取模塊在PL 部分實(shí)現(xiàn),中值濾波在PL 部分中采用流水線方式實(shí)現(xiàn)。人臉檢測(cè)和人臉追蹤在PS 部分采用的雙核ARM 并行方式實(shí)現(xiàn)。
4.1.1 人臉膚色區(qū)域提取模塊
通過OV7670攝像頭采集的視頻分辨率是640×480,每個(gè)點(diǎn)色彩深度是16 位,所以每個(gè)點(diǎn)需要在傳輸總線上傳輸2次,視頻文件通過8位的并行總線傳輸,然后將視頻緩存到一個(gè)雙口RAM[13]。再從雙口BRAM 中讀出后,為了避免出現(xiàn)小數(shù)運(yùn)算,對(duì)RGB 空間轉(zhuǎn)換到Y(jié)CbCr膚色空間將選用公式(2)~(4)的方式,其映射為硬件架構(gòu)如圖3所示。
圖3 人臉膚色提取模塊
圖3 右側(cè)表示的是進(jìn)行膚色閾值提取,通過兩個(gè)LUT(Look Up Table)可以將圖像進(jìn)行二值化處理,但二值化處理后的圖像有嚴(yán)重的噪聲情況,需要對(duì)噪聲進(jìn)行消除。
4.1.2 膚色二值圖像的中值濾波
緩存在BRAM 中的膚色二值化圖像移入中值濾波模塊[14],中值濾波采用3×3 的濾波窗口,采用流水線設(shè)計(jì)。第一級(jí)中并行使用三個(gè)比較器將每一行中的三個(gè)數(shù)排序,第二級(jí)使用三個(gè)比較器找出第一級(jí)中的三個(gè)最大值中的最大值,三個(gè)中值中的中間值,三個(gè)最小值中的最小值。第三級(jí)使用一個(gè)比較器確定3×3 中最終的中間值。
利用軟硬件協(xié)同的結(jié)構(gòu),將Linaro Ubuntu 和Opencv3.3 圖像庫移植到PS 部分,通過調(diào)用移植的庫函數(shù)對(duì)視頻流信息處理。
4.2.1 膚色區(qū)域最小外接矩陣
通過等間隔旋轉(zhuǎn)搜索,將圖像物體在平面內(nèi)進(jìn)行旋轉(zhuǎn),每次記錄其輪廊在坐標(biāo)系方向上的外接矩形參數(shù),通過計(jì)算外接矩形面積獲得最小外接矩形,獲得四個(gè)頂點(diǎn)坐標(biāo)后將坐標(biāo)點(diǎn)數(shù)據(jù)輸入YCbCr 膚色空間中的Y 分量形成的灰度圖,得到縮小圖像范圍的人臉膚色灰度區(qū)域,從而縮減了檢測(cè)范圍。
4.2.2 并行人臉檢測(cè)與追蹤
用實(shí)驗(yàn)的訓(xùn)練分類器,調(diào)用opencv 中integral 方法獲得膚色區(qū)域積分圖,然后對(duì)膚色區(qū)域積分圖進(jìn)行掃描尋找人臉區(qū)域。
ZYNQ 平臺(tái)擁有雙核Cortex A9 處理器,利用不同尺寸檢測(cè)窗口之間的無關(guān)性,將不同大小的檢測(cè)窗口分為兩部分,一部分在core1 進(jìn)行檢測(cè),另一部分利用core2 進(jìn)行檢測(cè),如圖4 所示的雙核并行檢測(cè)方式。core1 和core2 多線程并行處理利用不同尺寸的檢測(cè)窗口,且要讓ARM 核共享存儲(chǔ)在DDR3 中的積分圖和二級(jí)高速緩沖器數(shù)據(jù),達(dá)到加速檢測(cè)的目標(biāo)。
圖4 雙核ARM檢測(cè)
當(dāng)檢測(cè)結(jié)束以后,由于不同尺度的檢測(cè)窗口會(huì)對(duì)同一區(qū)域同時(shí)標(biāo)定多個(gè)檢測(cè)窗口。利用core1對(duì)檢測(cè)窗口進(jìn)行合并操作,將core2 暫時(shí)掛起。core1 對(duì)相同尺度大小的檢測(cè)窗口相近位置的檢測(cè)窗口的坐標(biāo)求均值再歸并多余的檢測(cè)窗口,然后core1和core2并行提取人臉圖像信息的哈希序列,并生成模板哈希序列,同時(shí)將其緩存在DDR3 中,在下一幀視頻來之后,將膚色提取的最小外接矩形中的圖像信息生成追蹤目標(biāo)哈希序列,然后計(jì)算漢明距離,尋找最小的漢明距離后也就追蹤到當(dāng)前幀的人臉區(qū)域,直接輸出上一幀人臉窗口坐標(biāo),最后更新模板哈希序列。若追蹤失敗,再次進(jìn)行人臉檢測(cè),同時(shí)更新模板哈希序列。
本文先在PC 平臺(tái)驗(yàn)證優(yōu)化算法的性能,對(duì)比本文算法與傳統(tǒng)的Adaboost 人臉檢測(cè)算法和Adaboost+YCbCr 檢測(cè)算法的人臉檢測(cè)速率,然后將算法移植到ZYNQ平臺(tái),最后進(jìn)行系統(tǒng)實(shí)現(xiàn)分析。
所采用的軟件平臺(tái)是Visual Studio 2015 和編譯后的Opencv3.3,將本文算法、Adaboost 算法和Adaboost+YcbCr[15-16]算法在PC(Core i5,主頻2.7 GHz,內(nèi)存16 GB)進(jìn)行比較。對(duì)截取的600幀圖像的檢測(cè)時(shí)間分析結(jié)果如圖5所示。
圖5 優(yōu)化算法檢測(cè)時(shí)間
從圖5中可以看出:傳統(tǒng)Adaboost算法需要90~140 ms才能檢測(cè)到人臉,檢測(cè)時(shí)間最長。傳統(tǒng)Adaboost+YCbCr算法需要60~100 ms 檢測(cè)時(shí)間,消耗的時(shí)間比傳統(tǒng)Adaboost算法快一點(diǎn)。而本文算法采用優(yōu)化的Adaboost和Phash 算法進(jìn)行人臉檢測(cè)和追蹤,消耗的時(shí)間集中在10~70 ms之間,統(tǒng)計(jì)結(jié)果顯示本文算法相比前面兩種算法的檢測(cè)時(shí)間明顯縮短。
為了對(duì)比本文檢測(cè)方案在系統(tǒng)實(shí)現(xiàn)方面的優(yōu)勢(shì),選取了FDDB 數(shù)據(jù)庫中的250 張人臉圖像,其中包含單人臉和多人臉,且圖像中有側(cè)臉、有正臉,將圖像像素統(tǒng)一裁剪為320×240,總共367張人臉圖像,分別通過三種實(shí)現(xiàn)方法進(jìn)行檢測(cè),分別是:
(1)在ZYNQ 平臺(tái)的ARM 中軟件實(shí)現(xiàn)Adaboost 人臉檢測(cè)算法。
(2)在ZYNQ 平臺(tái)的ARM 中軟件實(shí)現(xiàn)Adaboost 人臉檢測(cè)+YCbCr算法。
(3)在ZYNQ 平臺(tái)中采用軟硬件協(xié)同設(shè)計(jì)實(shí)現(xiàn)本文檢測(cè)算法:YCbCr 膚色提取IP 進(jìn)行硬件加速,同時(shí)使用定點(diǎn)化的Adaboost 人臉檢測(cè)和Phash 人臉追蹤檢測(cè)人臉在ARM部分實(shí)現(xiàn)。
統(tǒng)計(jì)各算法在ZYNQ平臺(tái)的人臉檢測(cè)時(shí)間,匯總?cè)绫?所示。
表1 ZYNQ平臺(tái)測(cè)試結(jié)果 ms
從表1 中實(shí)驗(yàn)結(jié)果可以看出,軟硬件協(xié)同處理架構(gòu)下的人臉檢測(cè)算法的實(shí)時(shí)性在四種檢測(cè)場(chǎng)景下都高于其他兩種算法在純ARM平臺(tái)下軟件實(shí)現(xiàn)。
5.3.1 人臉檢測(cè)結(jié)果
如圖6、圖7 所示的是ZYNQ 平臺(tái)下攝像頭采集視頻信息,分別在兩種環(huán)境光下人臉俯視、仰視、左側(cè)臉、正常、右側(cè)臉的姿態(tài),驗(yàn)證表明都能檢測(cè)出人臉,這表明系統(tǒng)具有一定的魯棒性。
圖6 強(qiáng)光照對(duì)比環(huán)境
圖7 正常光照對(duì)比環(huán)境
5.3.2 資源消耗分析
從表2 中可以看出FPGA 中的三種主要參數(shù)LUT、BRAM、DSP 都占用超過65%,表明工程在完成人臉檢測(cè)前提下,充分利用了Zybo開發(fā)平臺(tái),在文獻(xiàn)[5]的人臉檢測(cè)使用19 897個(gè)LUT,而本文中使用了12 203個(gè)LUT,節(jié)約了邏輯資源,降低了系統(tǒng)硬件成本。
表2 FPGA占用資源表
本文在ZYNQ 平臺(tái)下,實(shí)現(xiàn)了膚色區(qū)域提取、優(yōu)化Adaboost 人臉檢測(cè)與Phash 人臉追蹤,滿足了便捷性與實(shí)時(shí)性的需求。實(shí)驗(yàn)結(jié)論顯示,ZYNQ 平臺(tái)軟硬件協(xié)同設(shè)計(jì)的本文算法相比兩種傳統(tǒng)算法在ARM 平臺(tái)下純軟件檢測(cè)實(shí)時(shí)性大幅提高,同時(shí)合理的軟硬件劃分,與文獻(xiàn)[5]相比減少了7 694 個(gè)LUT 的使用,減少硬件資源消耗,節(jié)約了硬件成本。但在算法方面,本文沒有對(duì)人臉檢測(cè)算法準(zhǔn)確率進(jìn)行優(yōu)化,是本文的后期研究目標(biāo)。在系統(tǒng)方面,需要選擇清晰度更高的攝像頭進(jìn)行信息采集,減少后期圖像處理的難度。