戚銀城,苑 清,李 婷,楊秀芳
(華北電力大學(xué)電氣與電子工程學(xué)院,河北保定071003)
基于SUSAN算子的嘴部輪廓特征提取方法
戚銀城,苑 清,李 婷,楊秀芳
(華北電力大學(xué)電氣與電子工程學(xué)院,河北保定071003)
針對(duì)人臉識(shí)別中的嘴部定位部分輪廓缺失問題,提出了一種由粗到精的快速準(zhǔn)確的嘴部輪廓特征提取方法。該方法是在人臉檢測(cè)的基礎(chǔ)上采用改進(jìn)的SUSAN算子提取嘴部邊緣輪廓信息,通過幾何特征和搜索區(qū)域相結(jié)合的方法實(shí)現(xiàn)了嘴唇輪廓的精確定位。仿真結(jié)果表明,該定位方法快速有效,正確率較高。
輪廓提取;人臉檢測(cè);SUSAN算子
嘴唇輪廓提取是采用圖像分割的方法將人體面部的嘴巴部分準(zhǔn)確地分割出來,是進(jìn)一步進(jìn)行人臉狀態(tài)分析、唇讀識(shí)別和駕駛疲勞判別的基礎(chǔ)。為了提取嘴唇輪廓信息,學(xué)者們提出了很多方法,如通過在嘴唇涂抹口紅加大對(duì)比度[1],利用提取紅色信息進(jìn)行嘴唇的邊界提取。但是在實(shí)際圖像中嘴唇的紅色信息不是那么明顯,無法達(dá)到實(shí)際的提取效果?;赟nake模型的嘴唇輪廓提?。?-3]需要人工進(jìn)行初始值的確定以及多參數(shù)優(yōu)化的求解,而且是通過多次迭代計(jì)算外部能量函數(shù),運(yùn)算速度比較慢?;趫D像的方法就是將圖像看作一個(gè)二維矩陣,然后對(duì)矩陣中的數(shù)據(jù)進(jìn)行某種變換將圖像矩陣從一個(gè)空間變換到另一個(gè)易于分割的空間的方法,包括尺度空間分析方法[4-5]、“特征嘴唇”方法。該方法的優(yōu)點(diǎn)是信息損失量少,缺點(diǎn)是冗余度較高,計(jì)算量較大,而且對(duì)光照、旋轉(zhuǎn)、伸縮變化比較敏感。本文在嘴部特征提取中選擇一種融合嘴部的幾何特征和改進(jìn)的邊緣角點(diǎn)檢測(cè)SUSAN算子進(jìn)行嘴部輪廓提取的方法。
1.1 SUSAN算子
SUSAN(Small Univalue Segment Assimilating Nucleus)是最小吸收核同值區(qū)的縮寫。該算子是一種基于灰度的特征點(diǎn)提取方法[6]。SUSAN算子的基本原理是:選取3× 3或者7×7的近似圓形模板,圓形模板在圖像上移動(dòng),將模板內(nèi)像素點(diǎn)的灰度值與模板中心像素點(diǎn)的灰度值進(jìn)行作差運(yùn)算。設(shè)定門限值為t,假如差值小于t,則認(rèn)為該點(diǎn)與模板具有相同的灰度值,最后統(tǒng)計(jì)模板內(nèi)滿足上述條件的像素組成的區(qū)域,并稱此區(qū)域?yàn)槲蘸送祬^(qū)(簡(jiǎn)寫為USAN)。由圖1中的a可以看到,當(dāng)圓形模板完全處在目標(biāo)區(qū)域時(shí),USAN面積最大;當(dāng)圓形模板逐漸向目標(biāo)邊界滑動(dòng)時(shí),USAN面積逐漸變小,如圖1中c的USAN面積為模板面積的一半多;如圖1中d的USAN面積為模板面積的一半;當(dāng)圓形模板向目標(biāo)邊界角點(diǎn)移動(dòng)的時(shí)候,USAN面積變?yōu)槟0蹇偯娣e的1/4,如圖1中的e;當(dāng)繼續(xù)向背景區(qū)域移動(dòng)時(shí),USAN面積逐漸增大,直到最后完全處于背景區(qū)域,此時(shí)USAN面積再次達(dá)到最大,如圖1中的b所示。
由此可以看到,在圖像的邊緣或角點(diǎn)處的USAN面積最小,因此可以根據(jù)計(jì)算USAN的面積大小來實(shí)現(xiàn)圖像的邊緣檢測(cè)、角點(diǎn)檢測(cè)。而且,此方法簡(jiǎn)單有效,計(jì)算速度快,可以有效地去除圖像中的部分噪聲點(diǎn)。
本文使用的是一個(gè)7×7的包含關(guān)于中心對(duì)稱的37個(gè)像素的圓形模板,半徑為3.5個(gè)像素,如圖2所示。
圖1 SUSAN特征檢測(cè)原理
圖2 SUSAN算法圓形模板
將模板中每個(gè)像素的灰度值與模板中心的灰度值進(jìn)行差分與閾值t比較,當(dāng)差分結(jié)果大于閾值t設(shè)置為0,當(dāng)差分結(jié)果小于t設(shè)置為1,計(jì)算公式為
在實(shí)際應(yīng)用中常采用式(2)計(jì)算
式中:r和r0分別表示模板中心點(diǎn)的值以及模板內(nèi)其他坐標(biāo)點(diǎn)的值,c(r,r0)代表的是計(jì)算結(jié)果,I(r)代表的是該點(diǎn)的灰度值,t為灰度閾值。
USAN區(qū)域的值最終由式(3)計(jì)算
最后,通過式(4)求得圖像的邊緣角點(diǎn)初始響應(yīng),其中g(shù)為幾何閾值
由式(4)得到的邊緣角點(diǎn)初始響應(yīng)滿足了USAN面積越小,邊緣角點(diǎn)響應(yīng)越大的原理。因此,可以通過以上計(jì)算對(duì)圖像中的角點(diǎn)信息進(jìn)行增強(qiáng),判別出邊緣角點(diǎn)所在位置。
1.2 改進(jìn)的SUSAN角點(diǎn)提取算法
上面是對(duì)SUSAN算子原理的基本介紹,可以看出,在SUSAN算子中閾值的設(shè)置對(duì)邊緣信息的提取有著很大的影響,閾值取得太高,容易丟失邊緣信息,閾值取得太低,會(huì)增加部分背景信息,進(jìn)行誤判別。
而閾值t的大小決定了SUSAN算子所能檢測(cè)出的邊緣角點(diǎn)信息的多少。t的值如果取得越小,則檢測(cè)到的角點(diǎn)就越少,邊緣信息越不明顯。t的值如果取得越大,則檢測(cè)到的角點(diǎn)就越多,邊緣信息越明顯,但此時(shí)就有可能把其他信息誤檢為邊緣信息。本文中采用的是改進(jìn)的SUSAN算子進(jìn)行閾值分割[7],采用一種對(duì)t值自適應(yīng)的方法,使SUSAN針對(duì)不同的圖像能夠自動(dòng)根據(jù)圖像的整體灰度進(jìn)行閾值設(shè)置,計(jì)算出最佳閾值。
把模板中每個(gè)點(diǎn)的灰度值I(r)與中心點(diǎn)的灰度值I(r0)作差值運(yùn)算,然后取平均值作為迭代的初始值T0,即
根據(jù)確定的初始值計(jì)算下一個(gè)迭代值
式中:m為像素點(diǎn)的灰度值;Cmax為最大的灰度差值;Ti為第i次的迭代閾值;h(m)為一次迭代中灰度差值為m所對(duì)應(yīng)的個(gè)數(shù)。每進(jìn)行一次迭代后判斷︱Ti+1-Ti︱= 0是否成立,若成立則停止迭代,并把此次計(jì)算得到的Ti作為最終的SUSAN模板的灰度閾值。經(jīng)過改進(jìn)后的閾值可以很好地檢測(cè)到不同對(duì)比度下的圖像邊緣。
圖3a是一幅人臉下半?yún)^(qū)域圖像,圖3b是利用SUSAN算子對(duì)嘴唇圖像進(jìn)行簡(jiǎn)單閾值分割的圖像。
2.1 幾何約束
經(jīng)SUSAN算子分割后的圖像只剩下嘴部邊緣、鼻孔邊緣、臉頰邊緣等信息。眾所周知,人的嘴部在臉部上的相對(duì)位置和大小都是固定不變的,處在人臉的下半部分的中間位置。為了精確地定位嘴部區(qū)域,排除非嘴部區(qū)域以及邊界區(qū)域,進(jìn)行如下操作:
圖3 SUSAN算子閾值分割結(jié)果
1)經(jīng)SUSAN算子分割后的臉龐邊界信息仍保留下來,根據(jù)嘴部的幾何位置,通過排除邊界連通區(qū)域剔除掉這些非嘴部信息。
2)剩下的區(qū)域主要有鼻孔邊界信息和若干臉部區(qū)域內(nèi)的小的連通區(qū)域,通過設(shè)置1×1的結(jié)構(gòu)元素進(jìn)行腐蝕操作去除小的連通區(qū)域以及鼻子與嘴部周圍的連接區(qū)域。
3)對(duì)剩余的區(qū)域再進(jìn)行3×3的膨脹處理,使嘴部的邊界非連通域連接起來,增大嘴部區(qū)域的面積。
當(dāng)然,說成圣人下凡的基本上是女人居多。女人就是喜歡這些小枕頭啊小坐墊啊這類小恩小惠,男人嘛在開玩笑時(shí)還是要開的,尤其是在老樟樹下,葷段子還是要跑的。但大家心知肚明,感覺還是好的。
4)由于嘴部區(qū)域內(nèi)像素總數(shù)大于人鼻孔的面積(鼻孔部分為2個(gè)較小的連通域),根據(jù)最大連通域提取出嘴部區(qū)域,并進(jìn)行標(biāo)框顯示。
2.2 嘴部區(qū)域部分缺失下的輪廓提取
通過以上的檢測(cè)有時(shí)也會(huì)出現(xiàn)嘴部區(qū)域的部分缺失,針對(duì)此類問題,本文提出了一種通過橫向搜索左右鄰域的滿足特征的方法進(jìn)行缺失區(qū)域的彌補(bǔ)方法。
首先,對(duì)檢測(cè)的區(qū)域進(jìn)行判別:嘴部的左嘴角距離左臉頰的距離為m1,右嘴角距離右臉頰的距離為m2(如圖4),TT=︱m1-m2︱,如果TT>L×0.5,則判斷嘴部有可能存在部分缺失未檢測(cè)到,其中L代表檢測(cè)出的嘴部的寬度。
圖4 嘴部幾何形狀
接著,判斷m1和m2的大小,當(dāng)m1<m2時(shí),說明嘴部右邊有可能存在缺失,接著搜索已經(jīng)檢測(cè)到的嘴部的右邊區(qū)域,若存在滿足S(x)>0.25S的區(qū)域(其中,S(x)為嘴部邊界滿足特征的區(qū)域面積,S為已經(jīng)檢測(cè)到的嘴部區(qū)域面積),則保留下來,并判別為缺失的嘴部區(qū)域;當(dāng)m1>m2時(shí),方法類似。
最后,對(duì)檢測(cè)到的嘴部區(qū)域進(jìn)行標(biāo)框顯示。
圖5為經(jīng)過SUSAN算法處理后存在嘴部丟失部分輪廓信息的圖像,圖6為通過本文方法的檢測(cè)結(jié)果。由圖可知,本文的方法彌補(bǔ)了由SUSAN算法檢測(cè)時(shí)出現(xiàn)的部分嘴部缺失下的不足,提高了檢測(cè)嘴部輪廓的正確率,有很好的魯棒性。
圖5 唇部定位缺失實(shí)驗(yàn)圖
圖6 唇部精確定位實(shí)驗(yàn)圖
圖7 唇部精確定位實(shí)驗(yàn)結(jié)果(正面圖像,唇部閉合)
圖8 唇部精確定位實(shí)驗(yàn)結(jié)果(正面圖像,唇部張開)
測(cè)試其檢測(cè)率和正確率,檢測(cè)率和正確率的計(jì)算為
圖9 唇部精確定位實(shí)驗(yàn)結(jié)果(頭部旋轉(zhuǎn),唇部閉合)
圖10 唇部精確定位實(shí)驗(yàn)結(jié)果(頭部旋轉(zhuǎn),唇部張開)
對(duì)本文算法與常用的唇色與膚色差異性的唇部檢測(cè)算法[1]進(jìn)行了比較,結(jié)果見表1。
表1 本文算法與文獻(xiàn)[1]算法比較結(jié)果
由表1可知,在兩種人臉數(shù)據(jù)庫下本文方法對(duì)嘴部的定位正確率都能達(dá)到77%以上,表明了該算法在人嘴部張開和閉合以及頭部偏轉(zhuǎn)情況下都具有很好的檢測(cè)效果,算法計(jì)算簡(jiǎn)單,準(zhǔn)確率高。文獻(xiàn)[1]方法的定位正確率只有71%,原因是圖像中嘴角處的區(qū)域常出現(xiàn)丟失檢測(cè)以及當(dāng)圖像中存在近紅色區(qū)域時(shí)定位不夠準(zhǔn)確。對(duì)比試驗(yàn)表明,本文提出的算法檢測(cè)精度更好,而且對(duì)于光線比較暗和頭部有一定傾斜的人臉圖像,具有一定的魯棒性。
針對(duì)傳統(tǒng)的嘴唇輪廓提取易出現(xiàn)部分邊緣丟失的問題,本文提出了一種改進(jìn)的嘴唇輪廓提取方法。首先采用改進(jìn)的SUSAN算法進(jìn)行嘴部輪廓的初步定位,然后通過幾何約束和搜索區(qū)域相結(jié)合的方法進(jìn)行嘴唇輪廓部分缺失下的精確定位和輪廓提取。該方法計(jì)算簡(jiǎn)單,準(zhǔn)確率較高,適用于人嘴部張開和閉合以及頭部偏轉(zhuǎn)情況下嘴唇的精確定位和輪廓提取。
[1]張玲,蔡春花,何偉.唇色與膚色差異性的唇部檢測(cè)算法的研究[J].計(jì)算機(jī)工程與應(yīng)用,2012,48(30):182-186.
[2]余健儀,鄭勝林,潘保昌,等.基于改進(jìn)的snake模型的嘴唇輪廓提?。跩].計(jì)算機(jī)技術(shù)與發(fā)展,2008,18(8):95-100.
[3]湯敏,王元全,夏德深.基于Snake模型的嘴部特征分割[J].計(jì)算機(jī)工程,2005,30(21):7-9.
[4]王鵬偉,吳秀清,張名成.基于多尺度形態(tài)學(xué)融合的分水嶺圖像分割方法[J].數(shù)據(jù)采集與處理,2007,21(4):398-402.
[5]高濤.基于小波域多尺度Retinex的復(fù)雜光照的人臉識(shí)別[J].電視技術(shù),2012,36(5):122-125.
[6]SMITH SM,BRADY JM.SUSAN—A new approach to low level image processing[J].International Journal of Computer Vision,1997,23(1): 45-78.
[7]羅忠亮.基于改進(jìn)SUSAN算子的圖像邊緣檢測(cè)算法[J].重慶工學(xué)院學(xué)報(bào):自然科學(xué)版,2009,23(5):102-106.
[8]PEER P.CVL face database[J].International Journal of Computer Vision,1997,23(1):45-78.
對(duì)兩篇學(xué)術(shù)不端文章的處理聲明
近日本刊接到舉報(bào),《電視技術(shù)》2014年第11期署名為李文琴等的文章《面向QoS的低復(fù)雜度寬帶混合頻譜接入算法》和2014年第13期署名為田亮等的文章《基于能效管理的認(rèn)知車載網(wǎng)絡(luò)頻譜接入方案》存在嚴(yán)重抄襲問題,編輯部經(jīng)過調(diào)查后認(rèn)為:上述兩文抄襲情況屬實(shí);本刊在審稿過程中嚴(yán)格執(zhí)行了審稿程序,并借助科技期刊學(xué)術(shù)不端文獻(xiàn)檢測(cè)系統(tǒng)進(jìn)行檢測(cè),但該系統(tǒng)對(duì)比數(shù)據(jù)庫的文獻(xiàn)實(shí)際入庫時(shí)間滯后于文獻(xiàn)發(fā)表時(shí)間,因此在本刊審稿時(shí)未能檢測(cè)出抄襲問題,本刊審稿人也未能發(fā)現(xiàn)抄襲問題。本刊對(duì)被抄襲文獻(xiàn)作者以及廣大讀者表示歉意,我們將進(jìn)一步加強(qiáng)審稿工作。另外,本刊堅(jiān)決反對(duì)此類學(xué)術(shù)不端行為,為了進(jìn)一步嚴(yán)肅學(xué)術(shù)與出版風(fēng)氣,經(jīng)本刊研究決定,對(duì)此次事件作出嚴(yán)肅處理,特將處理情況聲明如下:
1)撤銷本刊對(duì)上述兩篇學(xué)術(shù)不端文章的錄用,原錄用證明作廢。
2)五年內(nèi)拒絕上述兩篇學(xué)術(shù)不端文章第一作者(李文琴、田亮)的投稿。
特此聲明。
《電視技術(shù)》編輯部
2014年11月
M outh Contour Feature Extraction Method Based on SUSAN Operator
QIYincheng,YUAN Qing,LITing,YANG Xiufang
(School of Electrical and Electronic Engineering,North China Electric Power University,Hebei Baoding 071003,China)
Formissing problem of partial contour ofmouth positioning in face recognition ,a rapid and exactmethod to extract themouth contour feature from coarse to fine is proposed.On the basis of face detection,mouth edge profile information is extracted by the improved SUSAN operator.Combining with geometric features and searching area,the positioning of themouth contour is accurately realized.Simulation results show that themouth contour positioningmethod is fast and valid,and it has a high accuracy.
contour extraction;face detection;SUSAN operator
TN911.73;TP391.41
A
戚銀城(1968—),教授,碩士生導(dǎo)師,主要研究方向?yàn)殡娏π畔⒎治雠c處理、語音與圖像處理;
苑 清(1988—),碩士生,主要研究方向?yàn)閳D像處理;
李 婷(1988—),女,碩士生,主要研究方向?yàn)閳D像處理;
楊秀芳(1987—),女,碩士生,主要研究方向?yàn)閳D像處理。
??健男
2014-02-17
【本文獻(xiàn)信息】戚銀城,苑清,李婷,等.基于SUSAN算子的嘴部輪廓特征提取方法[J].電視技術(shù),2014,38(23).
中央高校基本科研業(yè)務(wù)費(fèi)專項(xiàng)資金項(xiàng)目(13XS27)