常勝江 孟春寧 韓建民 林淑玲
(1.南開大學(xué)現(xiàn)代光學(xué)研究所,天津,300071;2.公安海警學(xué)院電子技術(shù)系,寧波,315801)
?
人眼檢測技術(shù)研究進(jìn)展*
常勝江1孟春寧2韓建民2林淑玲2
(1.南開大學(xué)現(xiàn)代光學(xué)研究所,天津,300071;2.公安海警學(xué)院電子技術(shù)系,寧波,315801)
基于計(jì)算機(jī)視覺的人眼檢測研究是人臉識別和視線追蹤等技術(shù)的關(guān)鍵,具有重大的應(yīng)用價(jià)值,并且對模式識別研究的發(fā)展有重要的理論意義。本文通過回顧人眼檢測近20年來的主要研究成果,分別根據(jù)算法使用的模式識別原理及檢測結(jié)果提出兩種全新的人眼檢測分類方法;然后按檢測結(jié)果分類闡述了各種人眼檢測方法的基本思想及其優(yōu)缺點(diǎn),并嘗試通過不同的分類方法從不同的角度揭示各類算法的本質(zhì);最后分析總結(jié)了人眼檢測研究的發(fā)展現(xiàn)狀,展望了其應(yīng)用前景及發(fā)展趨勢。
人眼檢測;人眼分割;人眼定位;虹膜定位
眼睛在人與人的自然交互中有著重要的意義,它通常能反映交互雙方的意向以及認(rèn)真、友善、誠懇或尊重的程度。尤其是在威嚴(yán)、敵對或愛戀等極端情況下,眼睛甚至可以傳達(dá)“殺機(jī)”或“鐘情”。因此,經(jīng)過漫長進(jìn)化形成的人類視覺對注視和面部表情的探知能力是非常優(yōu)異而獨(dú)特的,不僅識別的速度快,而且推廣性極高,其機(jī)制研究至今仍是視覺科學(xué)的前沿課題。隨著CMOS圖像傳感器和DSP器件的出現(xiàn)和發(fā)展,基于計(jì)算機(jī)視覺的無接觸智能檢測識別技術(shù),已從一種長遠(yuǎn)的理想需要,變成了現(xiàn)實(shí)可行的應(yīng)用目標(biāo),并有巨大的潛在市場。基于計(jì)算機(jī)視覺的人眼檢測技術(shù)以非侵入性及便捷精確的特點(diǎn)使其在心理學(xué)[1]、認(rèn)知科學(xué)[2]、醫(yī)學(xué)生理學(xué)[3]、市場研究[4]、人機(jī)交互[5]及公共安全[6]等領(lǐng)域取得了廣泛的應(yīng)用。眼睛圖像的獨(dú)特性及眼睛的運(yùn)動特點(diǎn)是人臉檢測、人臉識別、虹膜識別、人眼跟蹤、表情理解以及行為識別等技術(shù)的關(guān)鍵線索,同時(shí)人眼檢測也是人臉識別、虹膜識別及人眼跟蹤等技術(shù)的必要步驟,人眼檢測的精度和速度將直接影響這些視覺應(yīng)用技術(shù)的表現(xiàn)[7]。
基于計(jì)算機(jī)視覺的人眼檢測,即在圖像中找出人眼,嚴(yán)格地講,檢測應(yīng)包含兩個(gè)步驟:首先判斷圖像中有無人眼;如果有則定位人眼的位置。絕大部分人眼檢測是在人臉圖像的基礎(chǔ)上進(jìn)行的,而人臉中一定存在人眼,因此有時(shí)也將人眼檢測稱為人眼定位。經(jīng)過幾十年的研究取得了很多優(yōu)秀的研究成果,但是個(gè)體差異、遮擋、視角、光照、尺度變化、噪聲及圖象分辨率等因素帶給人眼檢測的困難仍然存在?,F(xiàn)有方法在一定程度上著重解決了其中一種或幾種影響因素,使得人眼檢測技術(shù)在很多領(lǐng)域取得成功的應(yīng)用。本文綜述了人眼檢測領(lǐng)域近20年的主要研究成果,詳細(xì)介紹了人眼檢測方法中最具代表性的研究成果以及這些算法后續(xù)的改進(jìn)情況,闡述了這些算法的基本思想及其優(yōu)缺點(diǎn),并對該領(lǐng)域的進(jìn)一步發(fā)展作了初步的展望。
現(xiàn)有的人眼檢測方法種類繁多,國內(nèi)外研究人員從不同角度對人眼檢測方法進(jìn)行了初步分類,如唐琎等[8]按照明光的不同將人眼檢測算法分為常光源下及特種光源下兩類。徐來等[9]將人眼檢測方法分為基于模板匹配、基于灰度投影、基于統(tǒng)計(jì)及基于知識四種方法。Hansen等[10]將現(xiàn)有人眼檢測方法分為基于形狀的、基于表觀的以及混合方法三種,其分類方法的核心依據(jù)是建模所用的圖像特征不同,例如基于表觀的方法主要利用圖像的整體紋理特征或其子集建模,而基于形狀的方法主要依據(jù)角點(diǎn)或輪廓等形狀特征。上述幾種分類方法存在的主要問題是分類依據(jù)難以揭示檢測算法本質(zhì)、類間重疊問題突出等,本文嘗試分別依據(jù)算法使用的模式識別原理及檢測結(jié)果對人眼檢測方法進(jìn)行分類。由于檢測也是一種模式識別問題,即將目標(biāo)與背景分開的二分類問題,它與一般分類問題的不同僅在于檢測涉及的兩類數(shù)量懸殊。所以人眼檢測方法可按其識別原理分為基于知識的方法和基于數(shù)據(jù)的方法兩類?;谥R的方法是指根據(jù)人們已知的關(guān)于對象的知識,制定出若干描述特征與類別間關(guān)系的準(zhǔn)則,使計(jì)算機(jī)按照這些準(zhǔn)則決策未知樣本的類別?;跀?shù)據(jù)的方法并不需要依靠人來制定決策規(guī)則,而是對一定數(shù)量的樣本中的某些特征進(jìn)行統(tǒng)計(jì)學(xué)習(xí)建立分類器。這兩種方法的根本區(qū)別在于決策規(guī)則是由人根據(jù)自己的先驗(yàn)知識制定的還是由分類器根據(jù)給定的若干樣本統(tǒng)計(jì)學(xué)習(xí)得到。
在人眼檢測的應(yīng)用中,不同的應(yīng)用目標(biāo)往往要求不同的檢測結(jié)果,例如虹膜識別以及眼動跟蹤技術(shù)需要精確的人眼位置及虹膜輪廓,而人臉識別和表情理解則往往并不需要非常精確的眼睛位置。因此,按照檢測結(jié)果的精度可將人眼檢測分為兩大類:粗略的人眼檢測和精確的人眼檢測。粗略的人眼檢測主要指人眼區(qū)域分割,并可利用分割出的眼睛窗口的中心估計(jì)眼睛位置;精確的人眼檢測指人眼位置和輪廓檢測,人眼位置通常由瞳孔或虹膜輪廓的中心確定。
人眼區(qū)域分割是一種粗略的人眼檢測,其結(jié)果通常是一個(gè)包括人眼及少部分皮膚的矩形窗口。分割出的人眼區(qū)域可以用來估計(jì)眼睛位置,用于人臉檢測、人臉識別或表情識別的輔助研究,還可以作為精確的人眼檢測方法中必不可少的中間步驟。下面介紹幾種常用的人眼區(qū)域分割方法。
2.1 基于人體測量學(xué)標(biāo)準(zhǔn)的方法
基于人體測量學(xué)標(biāo)準(zhǔn)的人眼區(qū)域分割是一種基于先驗(yàn)知識的方法,這種方法根據(jù)人們總結(jié)出的眼睛在人臉中的分布規(guī)律確定眼睛位置。Feng等[11]在精確定位人眼之前利用VerJak等[12]根據(jù)人體測量學(xué)標(biāo)準(zhǔn)提出的人臉模型分割出人眼區(qū)域。Wu等[13]利用眼睛區(qū)域灰度值比其附近皮膚區(qū)域低的特點(diǎn)結(jié)合人的雙眼分布特點(diǎn)分割出眼睛區(qū)域。王文成等[14]利用水平積分投影函數(shù)結(jié)合“三庭五眼”的規(guī)則獲取人眼區(qū)域。該方法的優(yōu)點(diǎn)是簡單、分割速度快,常用來確定人眼區(qū)域的大致范圍,不足之處在于易受人臉檢測結(jié)果的影響,且由于沒有考慮不同人臉器官分布的差異,因此分割結(jié)果很粗略。
2.2 膚色模型
膚色模型也是一種基于先驗(yàn)知識的方法,多用于人臉檢測[15-16]。由于眼睛區(qū)域在由膚色模型二值化的人臉圖像中常表現(xiàn)為與周圍皮膚異色的空洞,因此皮膚區(qū)域包圍的空洞常作為可能的人眼區(qū)域。例如,Hsu等[17]在YCrCb空間中檢測膚色區(qū)域,分別構(gòu)造了色度空間和亮度空間的眼圖,然后將兩幅圖做乘法運(yùn)算,再通過一系列的形態(tài)學(xué)處理增強(qiáng)眼睛區(qū)域的亮度,最后結(jié)合閾值法分割出眼睛區(qū)域;Kumar等[18]利用閾值法在HSV顏色空間和歸一化的RGB顏色空間中分割可能的眼睛區(qū)域;Stiefelhagen等[19]利用一種由歸一化皮膚顏色的二維高斯分布組成的統(tǒng)計(jì)顏色模型里尋找膚色區(qū)域,將最大的連通膚色區(qū)域作為人臉,并在人臉的空洞中搜索可能的眼睛區(qū)域。膚色模型充分利用了人臉圖像的顏色特點(diǎn),曾經(jīng)被很多研究者廣泛使用[20]。但皮膚在不同光照條件下的外觀差異非常大,且不同人種膚色差異更大,因此這種方法往往并不可靠。
2.3 基于對稱性的方法
對稱性是檢測雙眼的一個(gè)重要線索,利用這個(gè)線索檢測人眼也是一種典型的基于知識的方法。Orazio等[21]利用兩只眼睛對稱分布的特點(diǎn)檢測候選眼睛區(qū)域??紤]到人臉中眼睛、眉毛和嘴巴具有一定的徑向?qū)ΨQ性,Reisfeld等[22]設(shè)計(jì)了一個(gè)廣義的對稱算子,在人臉邊緣圖像中檢測人眼和嘴巴中的關(guān)鍵點(diǎn)。Loy等[23]受廣義對稱算子的啟發(fā),在考慮到一個(gè)中心像素對其局部鄰域影響的基礎(chǔ)上,提出一種快速的徑向?qū)ΨQ變換算法,其實(shí)質(zhì)是突出虹膜等具有圓對稱特性的區(qū)域。王先梅等[24]將雙眼區(qū)域擴(kuò)展到雙眉、雙眼以及眉眼之間的對稱性,并增加同側(cè)眉毛與眼睛相對位置的先驗(yàn)知識,實(shí)現(xiàn)了眼睛區(qū)域定位。類似利用對稱算子檢測局部特征的方法受到很多研究者關(guān)注[25-26]。利用這種方法檢測人眼時(shí)易受鼻孔等其他對稱元素的干擾,且對遮擋較敏感。
2.4 基于時(shí)域信息的方法
基于時(shí)域信息的方法需要利用包含眼睛的視頻序列圖像,一般利用眨眼或眼動造成的相鄰兩幀圖像中眼睛區(qū)域的變化為線索。這種方法假設(shè)在連續(xù)兩幀圖像中頭部是固定不動的,然后用幀差法結(jié)合閾值法檢測相鄰幀圖像的變化。Grauman等[27]對序列圖像中相鄰兩幀圖像進(jìn)行差分,利用眨眼造成信息變化,再結(jié)合閾值法和人體測量學(xué)標(biāo)準(zhǔn)得到眼睛區(qū)域;Bhaskar等[28]用幀差法結(jié)合光流法實(shí)現(xiàn)了眨眼檢測及人眼跟蹤;Chau等[29]用形態(tài)學(xué)運(yùn)算去除幀差法得到圖像噪聲以增強(qiáng)眼睛定位的魯棒性,實(shí)現(xiàn)了人眼定位及眨眼檢測。這種方法的優(yōu)點(diǎn)是模型簡單,計(jì)算復(fù)雜度低;缺點(diǎn)是光照變化、快速的頭動及視頻中的噪聲等都會對其造成致命影響,且只適用于視頻序列圖像。
2.5 模板匹配法
模板匹配法是一種被廣泛用于圖像分割及模式識別的有效方法。模板匹配所依據(jù)的數(shù)據(jù)一般只有一個(gè)或幾個(gè)模板,而基于數(shù)據(jù)的方法通常需要大量數(shù)據(jù),因此可將已知模板理解為先驗(yàn)知識,模板匹配就可歸為基于知識的方法。模板匹配法是根據(jù)已知模板圖像各像素的灰度(或經(jīng)某種變換后的圖像),利用某種相似性度量規(guī)則搜索整幅圖像尋找與模板相似的區(qū)域。計(jì)算相似度的方法有曼哈頓距離、歐氏距離、Hausdorff距離及相關(guān)系數(shù)匹配等。
曼哈頓距離和歐氏距離是最基本的距離度量方式,它們都是明考夫斯基距離的特殊形式,兩個(gè)n維向量Xi和Xj間的明考夫斯基距離定義為
(1)
當(dāng)q=1時(shí),稱為曼哈頓距離,又稱“城市街區(qū)”距離或絕對值距離;當(dāng)q=2時(shí),稱為歐幾里德距離,即歐氏距離。點(diǎn)集A與點(diǎn)集B之間的Hausdorff距離(Hausdorff distance, HD)定義為
(2)
式中
(3)
(4)
Hausdorff距離度量了兩個(gè)點(diǎn)集之間的最大不匹配程度,其值越小說明兩點(diǎn)集越相似,由于不需要點(diǎn)與點(diǎn)之間一一對應(yīng),因此它對局部非剛性的扭曲及圖像的局部遮擋等不敏感。為解決Hausdorff距離易受噪聲影響的問題,研究人員先后提出了不同的改進(jìn)算法。Huttenlocher等提出了部分Hausdorff距離(Partial hausdorff distance, PHD)[30],Sim等提出了最小截平方Hausdorff距離(Least trimmed square hausdorff distance, LTS-HD)[31],Dubuisson提出了平均Hausdorff距離(Modified Hausdorff distance, MHD)[32]。
Yuan等將平均Hausdorff距離與一種能夠克服光照變化的八鄰域變換算法相結(jié)合實(shí)現(xiàn)了人眼區(qū)域定位[33]。Jesorsky等[34]利用平均Hausdorff距離設(shè)計(jì)了人臉和人眼檢測器,在檢測出人臉后,利用二值化的邊緣眼睛模型在人臉邊緣圖像中得到眼睛區(qū)域。
相關(guān)系數(shù)可以衡量兩個(gè)隨機(jī)變量的相關(guān)程度,相關(guān)系數(shù)的絕對值越大表示兩者越相似。大小都為m×n的兩幅圖像S與T的相關(guān)系數(shù)(Normalized cross correlation, NCC)定義為
(5)
式中
(6)
Bhoi等[35]通過計(jì)算單個(gè)眼睛模板與人臉圖像的相關(guān)系數(shù)定位出眼睛區(qū)域。Campadelli[36]首先利用Arbib等[37]提出的聚類方法將人臉圖像中像素分成3類:背景、皮膚及剩余部分,然后將第3類中被皮膚包圍的像素值置為1,其他均置為0,這樣得到二值化的特征圖像,選取二值化的雙眼模板在特征圖像中做相關(guān)系數(shù)匹配,選擇0.7作為閾值檢測眼睛區(qū)域。Wang等[38]利用同態(tài)濾波器構(gòu)造了一種二值雙眼模板,采用該模板在濾波得到的二值圖像中做相關(guān)系數(shù)匹配得到候選人眼區(qū)域。
模板匹配法實(shí)現(xiàn)過程簡便直觀,且適用范圍廣泛,但利用模板匹配法分割眼睛區(qū)域存在的問題也很多,主要有:
(1)不同人的眼睛千差萬別,同一人的眼睛在不同光照或視角下也有很大差異,甚至眼球的轉(zhuǎn)動也會給匹配帶來很大困難,所以很難選取出某個(gè)合適的眼睛模板使類內(nèi)間距足夠小而類間距離足夠大。
(2)模板匹配過程非常耗時(shí),難以達(dá)到實(shí)時(shí)處理的要求。
(3)難以解決尺度變化問題,即使人臉圖像大小一致,不同人的眼睛大小也有很大差別。
(4)難以針對不同情況選擇合適的相似度匹配方法,如光照變化對多數(shù)度量方法影響很大。
2.6 統(tǒng)計(jì)學(xué)習(xí)方法
基于統(tǒng)計(jì)學(xué)習(xí)的方法是當(dāng)前模式識別領(lǐng)域最主要的方法,是典型的基于數(shù)據(jù)的方法。這種方法依據(jù)訓(xùn)練樣本建立分類器,這一過程也稱為學(xué)習(xí)過程。常用的方法有神經(jīng)網(wǎng)絡(luò)、支持向量機(jī)、隱馬爾科夫模型、AdaBoost及子空間方法等。采用基于統(tǒng)計(jì)學(xué)習(xí)的方法解決模式分類問題具有普適性,因此可通過提取邊緣、角點(diǎn)(如Harris角點(diǎn)[39])及斑點(diǎn)(如LoG算子[40]、SIFT[41])等局部特征并與統(tǒng)計(jì)學(xué)習(xí)方法結(jié)合,也可通過各種變換方法提取整體特征與統(tǒng)計(jì)學(xué)習(xí)方法結(jié)合構(gòu)造分類器,以實(shí)現(xiàn)目標(biāo)檢測或識別?;跀?shù)據(jù)的統(tǒng)計(jì)學(xué)習(xí)方法以其高正確率、強(qiáng)魯棒性的特點(diǎn),已成功應(yīng)用于包括人眼檢測的各種目標(biāo)檢測領(lǐng)域,但是也存在訓(xùn)練數(shù)據(jù)的偏見性,學(xué)習(xí)模型中的參數(shù)選取困難等問題。
人工神經(jīng)網(wǎng)絡(luò)(Artificial neural networks, ANNs)是一種模仿人類神經(jīng)網(wǎng)絡(luò)的非線性統(tǒng)計(jì)數(shù)學(xué)模型,由節(jié)點(diǎn)和節(jié)點(diǎn)之間的連接構(gòu)成。利用神經(jīng)網(wǎng)絡(luò)檢測人眼的最簡單方法是將待檢人眼區(qū)域的每個(gè)像素值作為輸入,輸出為人眼或非人眼兩類,這種做法計(jì)算復(fù)雜度非常高,且圖像灰度值極易受光照變化影響。Reinders等利用微特征作為網(wǎng)絡(luò)輸入以克服不同人眼睛差別的影響,使用局部方向信息代替灰度值以克服光照影響,最后在輸入神經(jīng)網(wǎng)絡(luò)前使用一種基于先驗(yàn)幾何信息的概率方法處理微特征[42]。Motwani等先將人臉圖像做小波變換,利用小波極值點(diǎn)鄰域的小波系數(shù)作為神經(jīng)網(wǎng)絡(luò)的輸入,訓(xùn)練了一個(gè)3層的BP神經(jīng)網(wǎng)絡(luò)用于人眼檢測[43]。近期也有學(xué)者引入深度學(xué)習(xí)的思想,利用卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)人眼定位[44-45]。
支持向量機(jī)(Support vector machine, SVM)是基于統(tǒng)計(jì)學(xué)習(xí)中的VC維理論及結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理設(shè)計(jì)的一種機(jī)器學(xué)習(xí)方法。SVM能在有限的樣本基礎(chǔ)上最小化經(jīng)驗(yàn)風(fēng)險(xiǎn)和置信范圍。最小化置信范圍可以降低模型的復(fù)雜性,從而降低類似神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的過學(xué)習(xí)問題。Huang等[46]利用人眼區(qū)域中的所有像素值作為特征訓(xùn)練多項(xiàng)式核函數(shù)的SVM分類器,在圖像中遍歷所有可能的區(qū)域檢測人眼。在人眼或人臉檢測方面,ANNs和SVM更多地用來篩選由其他算法檢測出的候選眼睛區(qū)域或者作為特征提取后的分類器[47]。Kim等[48]利用旋轉(zhuǎn)不變的Zernike矩表示人眼模式,并作為特征訓(xùn)練SVM分類器,利用眼睛區(qū)域灰度值較低的特點(diǎn)估計(jì)候選人眼區(qū)域;Jee等[49]利用顏色、邊緣等信息檢測候選雙眼區(qū)域,再用SVM驗(yàn)證候選區(qū)域是否為人眼;Zhu等[50]在主動紅外光照明下的人臉視頻序列中,采用幀差法獲取候選亮瞳,再用SVM在候選瞳孔中識別真正的瞳孔。
隱馬爾可夫模型(Hidden Markov models, HMMS)是一種描述時(shí)變信號序列的統(tǒng)計(jì)分析模型,HMM中的狀態(tài)是不可見的,但可以知道受狀態(tài)影響的某些變量。王洪群等[51]考慮到HMM能夠處理任意長度的時(shí)序,并且狀態(tài)無需精確觀測即可實(shí)現(xiàn)分類的優(yōu)點(diǎn),用虹膜網(wǎng)格采樣法提取特征作為觀測符號,將不同半徑下采樣得到的觀測符號構(gòu)成觀測序列訓(xùn)練模型參數(shù)用于人眼檢測;Samaria等[52]將人臉特征信息整體編碼成序列信息,訓(xùn)練HMM檢測歸一化的正面人臉中的人眼。
基于子空間方法就是通過某種變換方法將高維的目標(biāo)圖像映射到低維的子空間,然后再比較訓(xùn)練樣本和測試樣本的距離。最有代表性的就是主成分分析法(Principal component analysis, PCA)和線性判別分析(Linear discriminant analysis, LDA)。LDA以類內(nèi)散度最小化、類間散度最大化的原則將模式樣本投影到低維空間,而PCA是遵循方差最大化原則的無監(jiān)督學(xué)習(xí)算法,訓(xùn)練的目的是尋找使投影后的數(shù)據(jù)有最大方差的方向?;谧涌臻g的人眼檢測方法的優(yōu)勢在于能夠去除樣本冗余信息,降低維度。通常的做法[53-54]是利用PCA做人眼圖像的標(biāo)準(zhǔn)本征分析,將若干人眼訓(xùn)練數(shù)據(jù)建模得到本征眼,將待檢測圖像塊投影到低維本征眼空間,通過比較與特征眼之間的距離判斷是否人眼。近期Chen等為解決LDA在處理像檢測這種二分類問題中不能提取足夠多特征的缺點(diǎn),提出一種改進(jìn)的LDA算法:群判別分析,并在FERET,BioID,FRGC三個(gè)數(shù)據(jù)庫中證明了其用于人眼檢測的優(yōu)勢[55]。PCA以及LDA還通常作為標(biāo)準(zhǔn)的人臉識別算法衡量人眼檢測的效果[56-57]。
壓縮感知(Compressed sensing, CS)[58-59]是一種尋找欠定線性系統(tǒng)的稀疏解的技術(shù)。在信號處理問題中,壓縮感知就是把高維空間中的信息投影到低維空間,實(shí)現(xiàn)信號壓縮(或降維)。在模式分類問題中,待識別的模式可由特定的子空間或子流形表示,通過對大量訓(xùn)練樣本的學(xué)習(xí)獲取所有待識別模式的超完備子空間,然后通過解L1最優(yōu)化問題設(shè)置重構(gòu)誤差閾值,實(shí)現(xiàn)分類或檢測[60-61]。超完備字典的經(jīng)典學(xué)習(xí)算法有K奇異值分解(K-mean singular value decomposition, K-SVD)迭代算法[62]和最優(yōu)方向法(Method of optimal directions, MOD)迭代算法[63]。目前對這一新興理論的研究已滲透到科學(xué)與工程技術(shù)的各個(gè)領(lǐng)域,Yang F[64]、Hu J[65]等很多研究者都已采用壓縮感知理論實(shí)現(xiàn)了人眼檢測。此外,一些通用的基于稀疏表達(dá)和壓縮感知的模式識別框架[66-67]也可用于人眼檢測。
AdaBoost(Adaptive Boosting)是一種融合多個(gè)弱分類器構(gòu)建強(qiáng)分類器進(jìn)行決策的方法,它能夠在訓(xùn)練過程中根據(jù)弱分類器的分類錯(cuò)誤率自適應(yīng)地調(diào)整樣本及分類器權(quán)重。Viola等[68]提出的基于Haar特征的AdaBoost人臉檢測器是人臉檢測乃至目標(biāo)檢測領(lǐng)域里程碑式的突破,積分圖和級聯(lián)結(jié)構(gòu)(Cascade)的使用大幅提高了檢測精度和速度,對人臉檢測的第1和第2個(gè)Haar特征都涉及人眼區(qū)域。Hansen等[69]用類似Viola的方法設(shè)計(jì)了人眼檢測器;Niu等[70]為提高類內(nèi)間距較大的樣本數(shù)據(jù)的分類能力,設(shè)計(jì)了分別針對正負(fù)樣本的兩個(gè)Cascade分類器實(shí)現(xiàn)人眼定位,在4個(gè)公共人臉庫上驗(yàn)證了方法的有效性;針對Haar小波特征主要用于正面人臉中的人眼檢測的問題,Wang等[71-72]提出使用一種遞歸非參判別特征,結(jié)合AdaBoost和非參數(shù)判別分析實(shí)現(xiàn)了人臉和人眼檢測?;贖aar特征的AdaBoost人眼檢測及其改進(jìn)算法[73-75]是目前應(yīng)用最為成功的方法之一。
虹膜識別、注視方向估計(jì)、基于眼動的人機(jī)交互或行為識別等應(yīng)用領(lǐng)域往往需要對人眼進(jìn)行精確檢測,以獲取虹膜或瞳孔輪廓,甚至包括上下眼瞼邊緣,人眼位置由瞳孔或虹膜輪廓的中心確定,因此有時(shí)也稱為虹膜或瞳孔檢測(定位)。本文將常用方法歸為4類:基于投影的方法、變形模板法、基于虹膜邊緣提取的方法及基于瞳孔邊緣提取的方法,其中前兩種方法對圖像質(zhì)量要求并不高,但檢測精度較低;后兩種方法檢測精度高但對圖像質(zhì)量要求高。
3.1 基于投影的方法
基于投影的方法利用人眼圖像中幾何投影的極值點(diǎn)確定人眼關(guān)鍵點(diǎn),然后利用人眼關(guān)鍵點(diǎn)估計(jì)虹膜輪廓及人眼位置。投影方法依據(jù)人們的先驗(yàn)知識制定準(zhǔn)則指導(dǎo)人眼檢測,屬于基于知識的方法。常用的投影方法有積分投影函數(shù)、方差投影函數(shù)、混合投影函數(shù)、區(qū)域投影函數(shù)及邊緣投影函數(shù)等。
最基本的投影方法是積分投影函數(shù)(Integral projection function, IPF),水平方向和垂直方向上的IPF分別定義為
(7)
式中:I(x,y)為圖像I中(x,y)處的像素灰度值。利用IPF檢測人眼的依據(jù)是人眼區(qū)域灰度值較低。
IPF能夠刻畫出圖像中每一行(列)的均值,如果兩行像素的均值相等,但每行的灰度變化情況不同,則IPF無法反映出這兩行像素的區(qū)別,如圖1所示。因此Feng等[11]提出方差投影函數(shù)(Variance projection function, VPF)方法, VPF能夠在一定程度上反映圖像中的變化,在由人體測量學(xué)標(biāo)準(zhǔn)估計(jì)出的眼睛窗口中,分別求出水平及垂直方向上的VPF曲線,利用投影曲線極值點(diǎn)估計(jì)出眼睛的6個(gè)關(guān)鍵點(diǎn),最后利用這些關(guān)鍵點(diǎn)擬合出人眼輪廓。
圖1 IPF,VPF 和HPF的比較Fig.1 Comparison of IPF, VPF and HPF
IPF反映各行的均值而VPF反映每行像素相對均值的變化情況,并不是所有情況下VPF都優(yōu)于IPF,例如圖1(b)所示的情況VPF便不能區(qū)分而IPF卻可以,為此Zhou等[76]聯(lián)合IPF和VPF構(gòu)造出一種廣義投影函數(shù)(Generalized projection function, GPF),定義為
(8)
式中:α控制IPF和VPF所占的權(quán)重,實(shí)驗(yàn)中α=0.6時(shí)定位效果最好,將α=0.6時(shí)的GPF稱為混合投影函數(shù)(Hybrid projection function, HPF)。HPF實(shí)際上既利用了人眼區(qū)域灰度值低的特點(diǎn)又利用了人眼區(qū)域灰度值多變化的特點(diǎn)。
文獻(xiàn)[14]認(rèn)為傳統(tǒng)積分投影的方法的投影曲線容易受噪聲影響產(chǎn)生多個(gè)波谷或者波峰,提出區(qū)域投影函數(shù)(Region projection function, RPF)方法,即將眼睛窗口在水平或垂直方向等分為若干份,其中每份包括數(shù)行(列),將每一份的幾行(列)的投影累加起來。這種方法存在的問題是將人眼區(qū)域劃分為多少份并沒有統(tǒng)一標(biāo)準(zhǔn)。鄭穎等[77]提出最小鄰域均值投影函數(shù),用每個(gè)像素點(diǎn)鄰域的均值代替該像素點(diǎn)的灰度值計(jì)算積分投影,以克服噪聲干擾。Turkan等[78]提出一種邊緣投影的方法,利用人臉上半部分的邊緣投影的最大值確定人眼在垂直方向上的位置,并以此位置作為分割人眼的依據(jù),這種方法的人眼區(qū)域分割結(jié)果非常粗略,極易受到眉毛等干擾,進(jìn)一步影響在該區(qū)域投影確定人眼位置的結(jié)果。此外,在不同尺度、不同光照條件下獲取理想的邊緣圖像是邊緣提取算法的難點(diǎn)。
孟春寧等提出一種尺度不變梯度積分投影算法(Scale-invariant gradient integral projection function, SGIPF)用于人臉圖像中的人眼區(qū)域分割[79]。該算法充分考慮到人眼作為人臉中最顯著的區(qū)域,具有局部變化豐富的特點(diǎn),能夠?qū)⑵つw與白色鞏膜、鞏膜與虹膜以及虹膜與瞳孔或反射光斑之間的灰度變化累加起來,使得水平方向上的SGIPF能夠在眼睛處取得明顯的極值。如圖2所示,SGIPF可以很好地反映出圖中上下兩部分的不同,而普通投影方法卻無法有效地反映出局部灰度變化?;谕队暗姆椒ň哂杏?jì)算量小的優(yōu)點(diǎn),但易受光照、眉毛、眼瞼和睫毛遮擋的影響。
圖2 傳統(tǒng)投影方法與SGIPF對比Fig.2 Comparison between SGIPF and other traditional projection methods
3.2 變形模板模型
Kass等[80]提出的主動輪廓模型(Active contour model, ACM),又稱Snake模型,是一種自由式的變形模板模型,該模型是由一條包括若干控制點(diǎn)的連續(xù)閉合曲線構(gòu)成,它的形狀受內(nèi)力(曲線連續(xù)性和平滑度)的約束,在外力(先驗(yàn)知識)及圖像力(圖像灰度及梯度信息)的作用下通過迭代收斂到顯著的圖像特征處。Snake模型可歸類為基于先驗(yàn)知識的方法,國內(nèi)外研究者[81-83]在利用Snake模型檢測包括人眼位置在內(nèi)的人臉顯著特征點(diǎn)方面作了大量的工作。
在ACM的基礎(chǔ)上,Yuille等[84]提出一種參數(shù)化的變形模板法,這種方法構(gòu)造的眼睛模型包括代表眼瞼的兩條拋物線以及代表虹膜的一個(gè)圓,利用能量函數(shù)表征圖像中的邊緣、角點(diǎn)等信息,通過最小化能量函數(shù)尋找最優(yōu)匹配實(shí)現(xiàn)人眼檢測。相比于Snake模型,這種方法利用了更多的先驗(yàn)知識(目標(biāo)的可能形狀),可以克服Snake模型無法處理拓?fù)浣Y(jié)構(gòu)變化的問題。
主動形狀模型(Active shape model, ASM)由Cootes等提出[85]。ASM首先利用主成分分析法對一定數(shù)量標(biāo)記好的訓(xùn)練樣本進(jìn)行處理,將關(guān)鍵點(diǎn)的坐標(biāo)連接成形狀向量,進(jìn)而建立一個(gè)統(tǒng)計(jì)形狀模型,即點(diǎn)分布模型;然后對每個(gè)關(guān)鍵點(diǎn)的一定鄰域范圍內(nèi)的像素建立局部紋理模型,在訓(xùn)練好的統(tǒng)計(jì)形狀模型的約束下迭代尋找最優(yōu)局部紋理模型匹配結(jié)果,從而實(shí)現(xiàn)檢測。主動形狀模型往往用來檢測人臉特征點(diǎn),也包括很多人眼中的關(guān)鍵點(diǎn),如眼角點(diǎn)、虹膜與上下眼瞼的交點(diǎn)等,利用這些特征點(diǎn)可以估計(jì)人眼位置[86-88]。專門針對人眼檢測的研究也有很多,如張波等[89]針對ASM模型在實(shí)際檢測過程中的姿態(tài)適應(yīng)性較低且定位精度不高的問題,提出局部ASM模型增強(qiáng)ASM算法的姿態(tài)適應(yīng)性,提高對眼睛區(qū)域的定位精度。
Cootes等[90]將形狀和紋理融合在一起對訓(xùn)練樣本進(jìn)行統(tǒng)計(jì)分析,建立了既包含關(guān)鍵點(diǎn)坐標(biāo)又包含紋理特征的主動表觀模型(Active appearance model, AAM)。利用AAM及其改進(jìn)算法檢測人眼或人臉特征點(diǎn)的技術(shù)受到了很多研究者的關(guān)注[91-92]。ASM和AAM的關(guān)鍵是訓(xùn)練一定數(shù)量標(biāo)記好的樣本建立統(tǒng)計(jì)模型,因此可歸類為基于數(shù)據(jù)的方法。
變形模板模型的優(yōu)點(diǎn)是能夠?qū)⒒叶取⑻荻鹊葓D像信息與目標(biāo)的特點(diǎn)等先驗(yàn)知識充分融合,能夠定位包括眼角點(diǎn)在內(nèi)的多個(gè)特征點(diǎn)。缺點(diǎn)是受初始位置及標(biāo)記的訓(xùn)練樣本影響較大,容易收斂到局部極值,對光照、表情、遮擋和尺度的魯棒性不高,檢測精度往往不如基于虹膜或瞳孔邊緣提取的方法。
3.3 基于虹膜邊緣提取的方法
這種方法一般用于自然光照明下的人眼圖像,例如Kim等[93]利用邊緣檢測技術(shù)提取虹膜邊緣,然后搜索兩條孤立的虹膜邊緣內(nèi)的最長水平線,并以最長水平線的中心作為虹膜中心。Wang等[94]首先將眼睛區(qū)域圖像二值化,再利用一種3×3的垂直邊緣算子增強(qiáng)垂直的邊緣,選擇兩條最長的垂直邊緣作為虹膜邊緣并將其擬合成橢圓,橢圓中心即眼睛位置;Zhang等[95]利用Canny算子獲取眼睛區(qū)域的邊緣圖像,選擇兩條最長的垂直邊緣作為虹膜邊緣,并利用隨機(jī)取樣一致(Random sample consensus, RANSAC)算法[96]擬合出虹膜橢圓邊界,以橢圓中心作為虹膜中心。在不同的光照條件及圖像質(zhì)量下均取得好的邊緣檢測效果是該方法最大的難點(diǎn),也是邊緣檢測技術(shù)難以處理的問題。
基于虹膜邊緣提取的方法可以在高質(zhì)量人眼圖像中精確定位虹膜輪廓及中心,無需額外紅外光源照明,但是虹膜極易受眼瞼及睫毛遮擋影響,不完整的虹膜邊緣嚴(yán)重影響橢圓擬合結(jié)果。
3.4 基于瞳孔邊緣提取的方法
一般情況下,虹膜常被眼瞼遮擋,而瞳孔則不易受遮擋,瞳孔中心定位比檢測不完整虹膜的中心更容易,也更精確。利用虹膜對紅外光的反射特性,加入紅外光源照明后瞳孔圖像邊緣更加清晰。Hough 變換和Daugman算子是最有代表性的檢測瞳孔輪廓及中心的算法。
3.4.1 Hough變換
利用圓形Hough變換提取瞳孔邊緣的技術(shù)廣泛應(yīng)用于虹膜識別技術(shù)中[97-99]。邊緣提取是執(zhí)行Hough變換的前提。圓形Hough變換定義為
(9)
式中:(xi,yi)為邊緣圖像中的邊緣點(diǎn),(xc,yc)為圓心坐標(biāo),r為圓半徑,其中
(10)
(11)
如果參數(shù)為(xc,yc,r)的圓經(jīng)過邊緣點(diǎn)(xi,yi),則g(xi,yi,xc,yc,r)=0,此時(shí)H(xc,yc,r)獲得一次累加,有多少個(gè)邊緣點(diǎn)在參數(shù)為(xc,yc,r)的圓上,此圓就獲得多少投票值。獲得最多投票(即最大的H)的圓被認(rèn)為是瞳孔邊緣。
由于瞳孔邊緣不易受眼瞼遮擋,況且紅外成像下瞳孔與周圍虹膜的對比度非常高,因此用Hough變換檢測瞳孔邊緣效果要好于檢測虹膜邊緣,但其缺點(diǎn)是需要利用主動紅外光獲取清晰的瞳孔圖像,易受頭部姿態(tài)影響。Hough變換有時(shí)也用于提取虹膜邊緣[100],但受圖像質(zhì)量、光照及眼瞼遮擋影響,效果并不理想。孟春寧等[101]針對頭戴式圖像采集系統(tǒng)采集的高質(zhì)量非紅外眼部圖像中虹膜遮擋情況、虹膜邊緣輪廓形狀及其梯度方向等特點(diǎn),提出一種分段加權(quán)環(huán)形Hough變換算法定位跟蹤虹膜,在一定程度上克服了圖像質(zhì)量及眼瞼遮擋的影響,并在視線估計(jì)應(yīng)用中取得了較好的結(jié)果。
3.4.2 Daugman算子
Daugman算子是由Daugman[102]提出的一種瞳孔(虹膜)邊緣提取方法,利用瞳孔與虹膜間的高對比度及瞳孔近似圓形的特點(diǎn)設(shè)計(jì)了一種圓形微分積分算子定位瞳孔,該方法相比Hough變換無須邊緣提取。該算子定義為
(12)
式中:I(x,y)為目標(biāo)圖像中的像素點(diǎn);Gσ(r)為高斯平滑函數(shù);r(x0,y0)定義一個(gè)三維迭代空間中的圓形積分路徑。首先用高斯平滑函數(shù)對圖像進(jìn)行平滑濾波以消除噪聲,然后再搜索不同圓心(x0,y0)及半徑r對應(yīng)的圓周上的歸一化的積分值,最后計(jì)算每個(gè)圓周與其相鄰圓周積分值的差分,將差分的極值處對應(yīng)的圓周視為虹膜或瞳孔邊緣。Daugman算子及其改進(jìn)算法在高質(zhì)量圖像瞳孔及虹膜定位研究中被廣泛采用[103-104]。
Daugman算子在目前產(chǎn)品化的虹膜識別設(shè)備中取得成功的應(yīng)用。但該方法應(yīng)用環(huán)境較為苛刻,需要紅外照明下的高對比度人眼圖像及較好的人眼區(qū)域分割結(jié)果,迭代的初始位置影響檢測速度和精度,易受頭部姿態(tài)、反射光斑及眼瞼睫毛遮擋影響。針對不同應(yīng)用背景的改進(jìn)算法可部分克服上述問題,例如孟春寧等[105]受Daugman算子啟發(fā),針對低質(zhì)量自然光照明下的眼部圖像,提出一種基于矩形積分方差算子的方法檢測虹膜輪廓及中心。該方法利用圓形虹膜輪廓的內(nèi)接矩形表示虹膜,克服眼瞼遮擋的影響;采用積分方差算子取代微分積分的方法,更好地迎合了虹膜區(qū)域灰度值較低且相對均勻的特點(diǎn),矩形積分方差算子定義為
(13)
該方法在YaleB及FERET人臉庫中對低質(zhì)量虹膜圖像取得了理想的檢測結(jié)果。
3.4.3 Starburst算法
Starburst算法由Li等提出[106],這種方法首先用閾值法定位并去除瞳孔反射光斑,然后采用了一種新的迭代算法選擇瞳孔邊緣點(diǎn),在該迭代過程中,每個(gè)點(diǎn)發(fā)出的射線的終止閾值選取是該算法的關(guān)鍵,這需要瞳孔與虹膜之間清晰的對比度作保障。最后利用RANSAC算法將瞳孔邊緣點(diǎn)擬合成橢圓,橢圓中心即瞳孔中心。該方法在高質(zhì)量圖像中能精確獲取瞳孔輪廓及中心,且無需使用邊緣提取技術(shù),但同樣需要紅外光照明下的高對比度人眼圖像,且難以選擇合適的終止閾值。
4.1 研究現(xiàn)狀分析及總結(jié)
粗略的人眼檢測方法通常不需要高分辨率人臉圖像,對成像設(shè)備及圖像質(zhì)量要求不高,除膚色模型要求彩色圖像、基于時(shí)域信息的方法要求視頻序列圖像外,大多沒有特殊要求。人眼檢測結(jié)果為人眼區(qū)域或粗略的人眼位置,其應(yīng)用目標(biāo)主要是直接為人臉檢測、人臉識別、表情識別以及人眼精確定位的粗略檢測步驟等服務(wù)?;跍y量學(xué)標(biāo)準(zhǔn)、膚色模型、基于對稱性、基于時(shí)域信息以及模板匹配均可歸類為基于知識的方法。這些方法依靠人的先驗(yàn)知識制定判斷規(guī)則,無需復(fù)雜的理論及算法,因此大多具有計(jì)算復(fù)雜度低、易于操作的優(yōu)點(diǎn);但受個(gè)性差異、光照、視角等因素影響,簡單的先驗(yàn)知識規(guī)則難以獲取較好的魯棒性?;跀?shù)據(jù)的方法雖然需要復(fù)雜的訓(xùn)練學(xué)習(xí)過程,但從大數(shù)據(jù)信息中可以學(xué)習(xí)到更加本質(zhì)的特征,進(jìn)而保證分類的魯棒性及正確率。基于數(shù)據(jù)的統(tǒng)計(jì)學(xué)習(xí)方法在當(dāng)前粗略的人眼檢測技術(shù)中表現(xiàn)出無與倫比的優(yōu)越性,成為該類方法的主流。例如基于Haar特征的AdaBoost人眼檢測及其改進(jìn)算法以其良好的魯棒性及實(shí)時(shí)檢測速度,成為當(dāng)前應(yīng)用最為成功的人眼檢測算法之一。
精確的人眼檢測算法對眼部圖像質(zhì)量要求較高,需要通過檢測瞳孔或虹膜邊緣得到精確的人眼位置。虹膜或瞳孔的形狀、灰度特點(diǎn)等先驗(yàn)知識成為檢測的關(guān)鍵線索。精確的人眼檢測結(jié)果可直接為人眼(虹膜或瞳孔)跟蹤、虹膜識別及注視估計(jì)等技術(shù)服務(wù),這些技術(shù)日漸成為心理學(xué)、認(rèn)知科學(xué)、醫(yī)學(xué)、市場營銷及人機(jī)交互等領(lǐng)域必不可少的工具。投影法對圖像質(zhì)量要求相對最低,檢測精度也最低,但這種方法對成像設(shè)備要求低、計(jì)算量小,還可作為提高粗略人眼檢測精度的補(bǔ)充方法或者作為精確人眼檢測的中間步驟。變形模板模型將多種圖像特征集成于能量函數(shù)中,具有嚴(yán)謹(jǐn)?shù)睦碚撃P?,適用于包括人眼在內(nèi)的各種圖像特征的檢測,雖然在實(shí)際操作過程中受初始位置及局部極值等因素影響,但各種改進(jìn)算法仍然取得了成功的應(yīng)用。基于虹膜及瞳孔邊緣的算法對圖像質(zhì)量要求最高,檢測結(jié)果也最為精確,主流虹膜識別系統(tǒng)及眼動儀中人眼檢測多采用這種算法原理實(shí)現(xiàn)。其中基于虹膜邊緣的方法易受制于眼瞼遮擋的影響,基于瞳孔邊緣的方法必需有主動紅外光及響應(yīng)特定波長的成像設(shè)備。
基于數(shù)據(jù)的方法及基于知識的方法分別在粗略和精確的人眼檢測研究中占據(jù)主流地位。每種具體的方法都有其局限性,即便是缺陷明顯的方法,仍可能在某些應(yīng)用中有不可替代的作用。針對不同應(yīng)用背景,通過合理折中正確率、精度、魯棒性以及泛化性等要求,選擇或設(shè)計(jì)合適的方法將是每個(gè)研究者不應(yīng)忽視的問題。
4.2 人眼檢測技術(shù)發(fā)展趨勢
(1)多種算法融合,多種信息融合 采用單一種類算法的檢測方法已經(jīng)難以取得進(jìn)一步突破,獲得理想的結(jié)果往往需要在不同的步驟中融合多種算法或?qū)⒁环N算法的思想用于優(yōu)化另一種算法。此外,理論和實(shí)驗(yàn)均可證明,將盡可能多的有效信息抽象成圖像特征,并集成在同一個(gè)算法模型中,可以取得更好的效果。
(2)針對特定應(yīng)用的特殊方法 針對不同的應(yīng)用需求,設(shè)計(jì)合適的硬件系統(tǒng),根據(jù)具體成像系統(tǒng)采集的圖像設(shè)計(jì)合理的人眼檢測算法。例如,針對紅外光照明下瞳孔邊緣清晰、反射光斑明顯的圖像特點(diǎn)設(shè)計(jì)的基于瞳孔邊緣提取的系列方法即是取得成功應(yīng)用的例子?;谘蹌有畔⒌男袨樽R別技術(shù)是普適計(jì)算框架下一個(gè)全新的應(yīng)用領(lǐng)域[107-108],用于行為識別的眼動信息精度要求低于注視方向研究需要的眼動信息,而服務(wù)于個(gè)人終端的應(yīng)用目標(biāo)又要求低廉的硬件成本。此種情況下便可考慮在適當(dāng)犧牲精度的前提下降低硬件系統(tǒng)要求,選擇合適的折中方案。
(3)基于數(shù)據(jù)的普適方法 當(dāng)前,以深度學(xué)習(xí)為代表的基于數(shù)據(jù)的統(tǒng)計(jì)學(xué)習(xí)方法在特征提取、模式識別領(lǐng)域取得了突破性的進(jìn)展[109-110]。盡可能地收集各種不同分辨率、光照、視角及尺度等條件下的不同人的眼部圖像,利用機(jī)器學(xué)習(xí)模型抽象出更本質(zhì)的特征,實(shí)現(xiàn)人眼檢測或人眼特征點(diǎn)的識別。這是最理想的方法,也是實(shí)現(xiàn)人工智能的一個(gè)方面。
(4)低成本成像系統(tǒng)下的高精度檢測方法 黃斑中央的中央凹的面積決定了人眼無需轉(zhuǎn)動便能看清1°左右的視場內(nèi)的景物,而當(dāng)前大多商用眼動儀的精度都達(dá)到了0.5°左右,因此精度已不是當(dāng)今眼動技術(shù)的難點(diǎn),昂貴的價(jià)格才是限制眼動記錄技術(shù)應(yīng)用范圍的關(guān)鍵因素。選擇普通CCD或CMOS、簡單的架構(gòu)及摒棄紅外照明是降低成本、拓寬應(yīng)用范圍的關(guān)鍵。同時(shí),輔助紅外光的采用雖然給檢測算法帶來便利,但其對人眼的傷害[111]及局限于室內(nèi)環(huán)境的缺點(diǎn)限制了它的發(fā)展普及。低成本、低侵入性的人眼檢測系統(tǒng)將大大拓寬其應(yīng)用范圍,但成本降低的同時(shí)給人眼檢測算法帶來更大的挑戰(zhàn)。
基于計(jì)算機(jī)視覺的人眼檢測研究幾十年的發(fā)展歷程是模式識別研究發(fā)展的一個(gè)縮影。對人眼檢測的研究借鑒了眾多模式識別、機(jī)器學(xué)習(xí)領(lǐng)域的算法;同時(shí),專門用于人眼檢測的方法以及其他方法在人眼庫中的測試結(jié)果也極大地促進(jìn)了模式識別理論的發(fā)展。近年來,基于人眼檢測及眼動跟蹤的應(yīng)用在眾多領(lǐng)域?qū)映霾桓F,但存在的成本高、系統(tǒng)復(fù)雜等問題也日益突出。因此,對人眼檢測進(jìn)一步的研究仍具有很大的挑戰(zhàn)性和十分重要的意義。
[1] De Vito S, Buonocore A, Bonnefon J F, et al. Eye movements disrupt episodic future thinking[J]. Memory, 2015, 23(6):796-805.
[2] Morris A P. Neuroscience: Tiny eye movements link vision and attention[J]. Current Biology, 2015,25(17):R769-R771.
[3] Molitor R J, Ko P C, Ally B A. Eye movements in Alzheimer′s disease[J]. Journal of Alzheimer′s Disease:JAD, 2015,44(1):1-12.
[4] Snyder E, Hurley R A, Tonkin C E, et al. An eye-tracking methodology for testing consumer preference of display trays in a simulated retail environment[J]. Journal of Applied Packaging Research, 2015,7(1):1-6.
[5] Salunkhe P, Patil A R. A review on device controlled using eye movement[J]. International Journal of Emerging Trends in Science and Technology, 2015,2(1):1773-1778.
[6] Sheela S V, Vijaya P A. Iris recognition methods-survey[J]. International Journal of Computer Applications, 2010,3(5):19-25.
[7] Dutta A, Günther M, El Shafey L, et al. Impact of eye detection error on face recognition performance[J]. IET Biometrics, 2015,4(3):137-150.
[8] 唐琎, 許海柱, 王力.圖像中人眼檢測技術(shù)綜述[J].計(jì)算機(jī)應(yīng)用研究,2008,25(4):961-966.
Tang Jin, Xu Haizhu, Wang Li. Survey on human eyes detection in images[J]. Application Research of Computers, 2008,25(4):961-966.
[9] 徐來, 周德龍.人眼檢測技術(shù)的方法研究[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2010(6):226-232.
Xu Lai, Zhou Delong. Technology of human eyes detection[J]. Computer Systems & Applications, 2010(6):226-232.
[10]Hansen D W, Ji Q. In the Eye of the beholder: A survey of models for eyes and gaze[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010,32(3):478-500.
[11]Feng G C, Yuen P C. Variance projection function and its application to eye detection for human face recognition[J]. Pattern Recognition Letters, 1998,19(9):899-906.
[13]Wu J, Zhou Z H. Efficient face candidates selector for face detection[J]. Pattern Recognition, 2003,36(5):1175-1186.
[14]王文成,常發(fā)亮. 一種基于區(qū)域投影的人眼精確定位方法[J]. 光電子·激光,2011,22(4):618-622.
Wang Wencheng, Chang Faliang. A precise eye localization method based on region projection[J]. Journal of Optoelectronics & Laser, 2011,22(4):618-622.
[15]Zarit B D, Super B J, Quek F K H. Comparison of five color models in skin pixel classification[C]∥Recognition, Analysis, and Tracking of Faces and Gestures in Real-Time Systems, International Workshop on. [S.l.]: IEEE, 1999:58-63.
[16]Vezhnevets V, Sazonov V, Andreeva A. A survey on pixel-based skin color detection techniques[J]. Proc Graphicon, 2003,3:85-92.
[17]Hsu R L, Abdel-Mottaleb M, Jain A K. Face detection in color images[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2002,24(5):696-706.
[18]Kumar R T, Raja S K, Ramakrishnan A G. Eye detection using color cues and projection functions[C]//Image Processing Proceedings International Conference on. [S.l.]: IEEE, 2002:337-340.
[19]Stiefelhagen R, Yang J, Waibel A. Tracking eyes and monitoring eye gaze[C]∥Proceedings of the Workshop on Perceptual User Interfaces. Banff, Ganada: [s.n.], 1997:98-100.
[20]楊秀芳, 戚銀城, 李婷,等.基于YCb′Cr′膚色特征和Otsu算法的人眼定位優(yōu)化方法[J].南京郵電大學(xué)學(xué)報(bào):自然科學(xué)版, 2014,34(1): 99-102.
Yang Xiufang, Qi Yincheng, Li Ting, et al. Eye Localization optimization method based on YCb′Cr′ skin color feature and otsu algorithm[J]. Journal of Nanjing University of Posts & Telecommunications, 2014,34(1): 99-102.
[21]D′Orazio T, Leo M, Cicirelli G, et al. An algorithm for real time eye detection in face images[J]. Pattern Recognition, 2004 ICPR 2004 Proceedings of the 17th International Conference on. [S.l.]: IEEE, 2004:278-281.
[22]Reisfeld D, Yeshurun Y. Robust detection of facial features by generalized symmetry[C]∥Pattern Recognition, Conference A: Computer Vision and Applications Proceedings, 11th IAPR International Conference on. [S.l.]: IEEE, 1992:117-120.
[23]Loy G, Zelinsky A. Fast radial symmetry for detecting points of interest[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2003,25(8):959-973.
[24]王先梅, 遲健男, 王志良.基于2階段區(qū)域匹配的駕駛員眼睛細(xì)定位算法[J].數(shù)據(jù)采集與處理,2010,25(5): 590-594.
Wang Xianmei, Chi Jiannan, Wang Zhiliang. Precise eye location based on two-stage region matching for driver fatigue detection[J]. Journal of Data Acquisition and Processing, 2010,25(5):590-594.
[25]Bokeloh M, Berner A, Wand M, et al. Symmetry detection using feature lines[C]//Computer Graphics Forum. [S.l.]: Blackwell Publishing Ltd, 2009,28(2):697-706.
[26]Chertok M, Keller Y. Spectral symmetry analysis[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2010,32(7):1227-1238.
[27]Grauman K, Betke M, Gips J, et al. Communication via eye blinks-detection and duration analysis in real time[C]//Computer Vision and Pattern Recognition, CVPR, Proceedings of the 2001 IEEE Computer Society Conference on. [S.l.]: IEEE, 2001:1010-1017.
[28]Bhaskar T N, Keat F T, Ranganath S, et al. Blink detection and eye tracking for eye localization[C]//TENCON 2003. Conference on Convergent Technologies for Asia-Pacific Region. [S.l.]: IEEE, 2003,2:821-824.
[29]Chau M, Betke M. Real time eye tracking and blink detection with usb cameras[J]. Boston University Computer Science, 2005,12:1-10.
[30]Huttenlocher D P, Klanderman G A, Rucklidge W J. Comparing images using the Hausdorff distance[J]. IEEE Transactions on PAMI, 1993, 15(9): 850-863.
[31]Sim D G, Kwon O K, Park R H. Object matching algorithm using robust Hausdorff distance measures[J]. IEEE Transactions on Image Processing, 1999,8(3):425-429.
[32]Dubuisson M P, Jain A K. A modified Hausdorff distance for object matching[C]∥Proc 12th Int Conf Pattern Recognition. Jerusalem, Israel: [s.n.], 1994: 566-568.
[33]Yuan J H. Eye location under different eye poses, scales, and illuminations[J]. Chinese Optics Letters, 2010,8(1):59-62.
[34]Jesorsky O, Kirchberg K J, Frischholz R W. Robust face detection using the Hausdorff distance[C]//Audio-and Video-Based Biometric Person Authentication. Berlin, Heidelberg: Springer, 2001:90-95.
[35]Bhoi N, Mohanty M N. Template matching based eye detection in facial image[J]. International Journal of Computer Applications, 2010,12(5):15-18.
[36]Campadelli P, Lanzarotti R. Localization of facial features and fiducial points[C]∥Processings of the International Conference Visualisation, Imaging and image Processing (VIIP2002). Malaga, Spagna: [s.n.], 2002:491-495.
[37]Luccheseyz L, Mitray S K. Color image segmentation: A state-of-the-art survey[C]∥Proceedings of the Indian National Science Academy (INSA-A). Delhi, Indian: Natl Sci Acad, 2001: 207-221.
[38]Wang Q, Yang J. Eye detection in facial images with unconstrained background[J]. Journal of Pattern Recognition Research, 2006,1(1):55-62.
[39]Harris C, Stephens M. A combined corner and edge detector[C]∥Proceedings of Alvey Vision Conference. Manchester, UK: [s.n.], 1988:15-50.
[40]Tuytelaars T, Mikolajczyk K. Local invariant feature detectors: A survey[J]. Foundations and Trends in Computer Graphics and Vision, 2008,3(3):177-280.
[41]Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004,60(2):91-110.
[42]Reinders M J T, Koch R W C, Gerbrands J J. Locating facial features in image sequences using neural networks[C]//Proceedings of the Second International Conference on IEEE Automatic Face and Gesture Recognition. [S.l.]: IEEE, 1996: 230-235.
[43]Motwani M, Motwani R, Harris J F C. Eye detection using wavelets and ANN[C]//Proceedings of Global Signal Processing Conferences and Expos for Industry. Galifornia: [s.n.], 2004: 27-30.
[44]Sun Y, Wang X, Tang X. Deep convolutional network cascade for facial point detection[C]//Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on. [S.l.]: IEEE, 2013: 3476-3483.
[45]楊海燕, 蔣新華, 聶作先, 等.基于并行卷積神經(jīng)網(wǎng)絡(luò)的人臉關(guān)鍵點(diǎn)定位方法研究[J].計(jì)算機(jī)應(yīng)用研究, 2015,32(8):2517-2519.
Yang Haiyan, Jiang Xinhua, Nie Zuoxian. Facial key points location based on parallel convolutional neural network[J]. Application Research of Computers, 2015,32(8):2517-2519.
[46]Huang J, Shao X, Wechsler H. Face pose discrimination using support vector machines (SVM) [C]∥Proceedings of Fourteenth International Conference on IEEE Pattern Recognition. [S.l.]: IEEE, 1998:154-156.
[47]Benrachou D E, dos Santos F N, Boulebtateche B, et al. Online vision-based eye detection: LBP/SVM vs LBP/LSTM-RNN[C]//Controlo′ 2014-Proceedings of the 11th Portuguese Conference on Automatic Control. [S.l.]: Springer International Publishing, 2015:659-668.
[48]Kim H J, Kim W Y. Eye detection in facial images using zernike moments with SVM[J]. ETRI Journal, 2008,30(2):335-337.
[49]Jee H, Lee K, Pan S. Eye and face detection using SVM[C]//Proceedings of the 2004. IEEE Intelligent Sensors, Sensor Networks and Information Processing Conference. [S.l.]: IEEE, 2004:577-580.
[50]Zhu Z, Fujimura K, Ji Q. Real-time eye detection and tracking under various light conditions[C]∥Proceedings of the 2002 Symposium on Eye Tracking Research & Applications. [S.l.]: IEEE, 2002:139-144.
[51]王洪群,彭嘉雄,于秋則.采用動態(tài) HMM 概率分布模型的人眼精確定位[J].中國圖象圖形學(xué)報(bào),2006,11(1):26-32.
Wang Hongqun, Peng Jiaxiong, Yu Qiuze. A precise eye localization via a dynamic probability distribution HMM model[J]. Journal of Image & Graphics, 2006,11(1):26-32.
[52]Samaria F, Young S. HMM-based architecture for face identification[J]. Image and Vision Computing, 1994,12(8):537-543.
[53]Huang W, Mariani R. Face detection and precise eyes location[C]//Proceedings 15th International Conference on IEEE Pattern Recognition. [S.l.]: IEEE, 2000:722-727.
[54]Moghaddam B, Pentland A. Probabilistic visual learning for object representation[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 1997,19(7):696-710.
[55]Chen S, Liu C. Clustering-based discriminant analysis for eye detection[J]. Image Processing, IEEE Transactions on, 2014,23(4):1629-1638.
[56]Whitelam C, Jafri Z, Bourlai T. Multispectral eye detection: A preliminary study[C]∥Pattern Recognition (ICPR), 2010 20th International Conference on. [S.l.]: IEEE, 2010: 209-212.
[57]Wang P, Ji Q. Multi-view face and eye detection using discriminant features[J]. Computer Vision and Image Understanding, 2007,105(2):99-111.
[58]Candès E J, Romberg J, Tao T. Robust uncertainty principles: Exact signal reconstruction from highly incomplete frequency information[J]. Information Theory, IEEE Transactions on, 2006,52(2):489-509.
[59]Donoho D L. Compressed sensing[J]. Information Theory, IEEE Transactions on, 2006,52(4):1289-1306.
[60]Wright J, Yang A Y, Ganesh A, et al. Robust face recognition via sparse representation[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2009,31(2):210-227.
[61]Davenport M A, Duarte M F, Wakin M B, et al. The smashed filter for compressive classification and target recognition[C]//Proceedings of SPIE Computational Imaging. [S.l.]: SPIE, 2007:326-330.
[62]Aharon M, Elad M, Bruckstein A. K-SVD: An algorithm for designing overcomplete dictionaries for sparse representation[J]. IEEE Transactions on Signal Processing, 2006,54(11):4311-4322.
[63]Engan K, Aase S O, Hus?y J H. Frame based signal compression using method of optimal directions (MOD)[C]//Circuits and Systems. Proceedings of the 1999 IEEE International Symposium on. [S.l.]: IEEE, 1999:1-4.
[64]Yang F, Huang J, Yang P, et al. Eye localization through multiscale sparse dictionaries[C]//Proceedings of IEEE International Conference on Automatic Face & Gesture Recognition and Workshops (FG 2011). [S.l.]: IEEE, 2011: 514-518.
[65]Hu J, Deng W, Guo J. Robust eye detection via sparse representation[C]//Network Infrastructure and Digital Content (IC-NIDC), 2012 3rd IEEE International Conference on. [S.l.]: IEEE, 2012:411-415.
[66]Liu H, Li S. Target detection using sparse representation with element and construction combination feature[J]. Instrumentation and Measurement, IEEE Transactions on, 2015,64(2):290-298.
[67]Agarwal S, Awan A, Roth D. Learning to detect objects in images via a sparse, part-based representation[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2004,26(11):1475-1490.
[68]Viola P, Jones M. Rapid object detection using a boosted cascade of simple features[C]//Computer Vision and Pattern Recognition, Proceedings of the 2001 IEEE Computer Society Conference on. [S.l.]: IEEE, 2001:511-518.
[69]Hansen D W, Hansen J P. Robustifying eye interaction[C]//Computer Vision and Pattern Recognition Workshop, CVPRW′06, Conference on. [S.l.]: IEEE, 2006:152-152.
[70]Niu Z, Shan S, Yan S, et al. 2d cascaded adaboost for eye localization[C]//Pattern Recognition, 18th International Conference on. [S.l.]: IEEE, 2006:1216-1219.
[71]Wang P, Green M B, Ji Q, et al. Automatic eye detection and its validation[C]//Computer Vision and Pattern Recognition-Workshops, IEEE Computer Society Conference on. [S.l.]: IEEE, 2005:164-164.
[72]Wang P, Ji Q. Learning discriminant features for multi-view face and eye detection[C]//Computer Vision and Pattern Recognition, IEEE Computer Society Conference on. [S.l.]: IEEE, 2005:373-379.
[73]Guo C, Ben X, Fu X, et al. Facial geometric feature for cascade eye detection[C]//Proceedings of the 2015 Chinese Intelligent Automation Conference. Berlin, Heidelberg: Springer, 2015:413-420.
[74]George A, Dasgupta A, Routray A. A framework for fast face and eye detection[EB/OL]. http://arxiv org/pdf/1505.03344.pdf, 2015-5-13.
[75]Rezaei M, Klette R. Novel adaptive eye detection and tracking for challenging lighting conditions[C]//Computer Vision-ACCV 2012 Workshops. Berlin Heidelberg: Springer, 2013:427-440.
[76]Zhou Z H, Geng X. Projection functions for eye detection[J]. Pattern Recognition, 2004,37(5):1049-1056.
[77]汪增福.最小鄰域均值投影函數(shù)及其在眼睛定位中的應(yīng)用[J].軟件學(xué)報(bào),2008,19:2322-2328.
Wang Zengfu. Minimal neighborhood mean projection function and its application to eye location[J]. Journal of Software, 2008,19(9):2322-2328.
[78]Türkan M, Pardas M, Cetin A E. Human eye localization using edge projections[C]∥2nd International Conference on Computer Vision Theory and Applications. Barcelona, Spain: [s.n.], 2007:410-415.
[79]孟春寧,白晉軍,張?zhí)珜?等.基于梯度積分投影和最大期望算法的人眼定位[J].光電子·激光,2012,23(10):1971-1976.
Meng Chunning, Bai Jinjun, Zhang Taining, et al. Eye localization based on gradient integral projection and expectation-maximization algorithm [J]. Journal of Optoelectronics Laser, 2012,23(10):1971-1976.
[80]Kass M, Witkin A, Terzopoulos D. Snakes: Active contour models[J]. International Journal of Computer Vision, 1988,1(4):321-331.
[81]Huang C L, Chen C W. Human facial feature extraction for face interpretation and recognition[J]. Pattern Recognition, 1992,25(12):1435-1444.
[82]張志佳,張海峰,周純冰,等.采用改進(jìn)Snake模型的虹膜定位方法[J].紅外與激光工程, 2011,40(4):767-771.
Zhang Zhijia, Zhang Haifeng, Zhou Chunbing, et al. Iris location method based on improved snake[J]. Infrared and Laser Engineering, 2011,40(4):767-771.
[83]Wu H, Yokoyama T, Pramadihanto D, et al. Face and facial feature extraction from color image [C]//Proceedings of the Second International Conference on IEEE Automatic Face and Gesture Recognition. [S.l.]: IEEE, 1996:345-350.
[84]Yuille A L, Hallinan P W, Cohen D S. Feature extraction from faces using deformable templates [J]. International Journal of Computer Vision, 1992,8(2):99-111.
[85]Cootes T F, Taylor C J. Active shape models—′smart snakes′[M]. London: Springer, 1992:266-275.
[86]萬泉,徐斌,劉曉亮,等.基于 DirectShow 的人眼檢測[J].計(jì)算機(jī)工程與設(shè)計(jì),2015,36(7):1938-1943.
Wan Quan, Xu Bin, Liu Xiaoliang, et al. Eye detection based on directshow[J]. Computer Engineering and Design, 2015,36(7):1938-1943.
[87]Milborrow S, Nicolls F. Locating facial features with an extended active shape model[M]. Berlin, Heidelberg: Springer, 2008:504-513.
[88]Sun K, Wang H. A composite method to extract eye contour[C]//Affective Computing and Intelligent Interaction. Berlin, Heidelberg: Springer, 2005:112-118.
[89]張波,王文軍,張偉,等.駕駛?cè)搜劬植繀^(qū)域定位算法[J].清華大學(xué)學(xué)報(bào):自然科學(xué)版, 2015,54(6):756-762.
Zhang Bo, Wang Wenjun, Zhang Wei, et al. Driver′s eye region location algorithm[J]. Journal of Tsinghua University: Science and Technology, 2015,54(6):756-762.
[90]Cootes T F, Edwards G J, Taylor C J. Active appearance models[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2001,23(6):681-685.
[91]Ishikawa T, Baker S, Matthews I, et al. Passive driver gaze tracking with active appearance models[C]∥Proceedings of the 11th World Congress on Intelligent Transportation Systems. Nagoya, Japan: [s.n.], 2004:1-18.
[92]Hansen D W, Hansen J P, Nielsen M, et al. Eye typing using Markov and active appearance models[C]//Applications of Computer Vision, Proceedings of Sixth IEEE Workshop on. [S.l.]: IEEE, 2002:132-136.
[93]Kim K N, Ramakrishna R S. Vision-based eye-gaze tracking for human computer interface[C]//Systems, Man, and Cybernetics, IEEE SMC′99 Conference Proceedings. [S.l.]: IEEE, 1999:324-329.
[94]Wang J, Sung E, Venkateswarlu R. Eye gaze estimation from a single image of one eye[C]//Computer Vision 2003 Proceedings Ninth IEEE International Conference on. [S.l.]: IEEE, 2003:136-143.
[95]Zhang W, Zhang T N, Chang S J. Eye gaze estimation from the elliptical features of one iris[J]. Optical Engineering, 2011,50(4):047003-047003-9.
[96]Fischler M A, Bolles R C. Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography[J]. Communications of the ACM, 1981,24(6):381-395.
[97]Wildes R P. Iris recognition: An emerging biometric technology[J]. Proceedings of the IEEE, 1997,85(9):1348-1363.
[98]康景磊,郭業(yè)才.基于蟻群和 Hough 變換的虹膜定位算法[J].計(jì)算機(jī)科學(xué),2012(S3):384-385.
Kang Jinglei, Guo Yecai. Iris location algorithm based on ant colony and hough transform[J]. Computer Science, 2012(S3):384-385.
[99]Liu X, Bowyer K W, Flynn P J. Experiments with an improved iris segmentation algorithm[C]//Automatic Identification Advanced Technologies, 2005, Fourth IEEE Workshop on. [S.l.]: IEEE, 2005:118-123.
[100]Cherabit N, Chelali F Z, Djeradi A. A robust iris localization method of facial faces[C]//Multimedia Computing and Systems (ICMCS), 2011 International Conference on. [S.l.]: IEEE, 2011:1-5.
[101]孟春寧, 白晉軍, 張?zhí)珜? 等. 基于低成本眼動記錄系統(tǒng)的視線估計(jì)研究[J]. 光電子·激光, 2013,24(8):1600-1605.
Meng Chunning, Bai Jinjun, Zhang Taining, et al. Research on eye gaze estimation based on low-cost eye movement recorder[J]. Journal of Optoelectronics Laser, 2013,24(8):1600-1605.
[102]Daugman J G. High confidence visual recognition of persons by a test of statistical independence[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 1993,15(11):1148-1161.
[103]Daugman J. How iris recognition works[J]. Circuits and Systems for Video Technology, IEEE Transactions on, 2004,14(1):21-30.
[104]Shamsi M, Saad P B, Ibrahim S B, et al. Fast algorithm for iris localization using Daugman circular integro differential operator[C]//Soft Computing and Pattern Recognition, International Conference of. [S.l.]: IEEE, 2009:393-398.
[105]Meng C N, Zhang T N, Zhang P, et al. Fast and precise iris localization for low-resolution facial images[J]. Optical Engineering, 2012,51(7):1-10.
[106]Li D, Winfield D, Parkhurst D J. Starburst: A hybrid algorithm for video-based eye tracking combining feature-based and model-based approaches[C]//Computer Vision and Pattern Recognition-Workshops, IEEE Computer Society Conference on. [S.l.]: IEEE, 2005:79-79.
[107]Bulling A, Ward J A, Gellersen H, et al. Eye movement analysis for activity recognition using electrooculography[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2011,33(4):741-753.
[108]孟春寧,白晉軍,張?zhí)珜?等.單攝像機(jī)下基于眼動分析的行為識別[J].物理學(xué)報(bào),2013,62(17):174203-174203.
Men Chunning, Bai Jinjun, Zhang Taining, et al. Eye movement analysis for activity recognition based on one web camera[J].Acta Physica Sinica, 2013,62(17):174203-174203.
[109]Schmidhuber J. Deep learning in neural networks: An overview[J]. Neural Networks, 2015,61:85-117.
[110]He K, Zhang X, Ren S, et al. Delving deep into rectifiers: Surpassing human-level performance on imagenet classification[EB/OL]. http://arxiv.org/1502 01852, 2015-2-6.
[111]Muranko H J. Safety with lasers and other optical sources: A comprehensive handbook[J]. Journal of Occupational Medicine, 1981,23(9):307.
Survey of Eye Detection
Chang Shengjiang1, Meng Chunning2, Han Jianmin2, Lin Shuling2
(1. Institute of Modern Optics, Nankai University, Tianjin, 300071, China;2. Department of Electronic Technology, China Maritime Police Academy, Ningbo, 315801, China)
Research on eye detection based on computer vision is very critical to face recognition and gaze tracking. Furthermore, it is very important not only to related applications but also to the development of pattern recognition. Research findings on eye detection in recent 20 years are reviewed. Firstly, the existing classification methods are discussed and two new classification methods are proposed by recognition principle and detection results. Then, according to the detection results, the basic ideas, the advantages and the disadvantages of the eye detection methods are clarified. Meanwhile, the essence of all kinds of methods is tried to be revealed from different views and by different classification methods. Finally, the current situation of the eye detection research is analyzed and summarized, and the application prospect and development trend are discussed.
eye detection; eye segmentation; eye localization; iris localization
國家自然科學(xué)基金(61401105)資助項(xiàng)目。
2015-10-17;
2015-11-09
TP391.4;TN911.73
A
常勝江(1965- ),男,教授、博士生導(dǎo)師,研究方向:數(shù)字圖像處理、模式識別,E-mail:sjchang@nankai.edu.cn。
孟春寧(1985- ),通訊作者,男,博士、講師,研究方向:圖像處理、模式識別、信息安全,E-mail:mengchunning123@163.com。
韓建民(1965- ),男,副教授,研究方向:信息安全。
林淑玲(1976- ),女,講師,研究方向:信息安全。