張學(xué)武,徐立中,石愛業(yè),霍冠英,范新南
(河海大學(xué)計(jì)算機(jī)與信息學(xué)院,南京 210098)
基于視覺的目標(biāo)檢測和識(shí)別是計(jì)算機(jī)視覺應(yīng)用中最為廣泛的視覺任務(wù),如何從海量的圖像數(shù)據(jù)中快速檢測并識(shí)別感興趣目標(biāo)是一個(gè)核心問題。人類擁有強(qiáng)大的圖像理解和模式識(shí)別能力,近年來,建立由生物學(xué)啟發(fā)下的計(jì)算機(jī)視覺模型一直是圖像處理領(lǐng)域中的一個(gè)研究熱點(diǎn)。
神經(jīng)生理學(xué)和解剖學(xué)研究表明,視網(wǎng)膜有兩類節(jié)細(xì)胞[1],M類節(jié)細(xì)胞和 P類節(jié)細(xì)胞構(gòu)成了視覺系統(tǒng)進(jìn)行前端處理的若干并行通道,P、M類節(jié)細(xì)胞對(duì)視覺信息處理的特征差異(朝向、運(yùn)動(dòng)、顏色尺度和空間分辨率等)呈現(xiàn)不同傾向,基于此,很多學(xué)者把視覺系統(tǒng)的前端源于這種空間非均勻信息獲取與處理的生物視覺機(jī)理視為變空間分辨率機(jī)制。人類在感知外部世界時(shí),視覺系統(tǒng)分為兩個(gè)皮層視覺子系統(tǒng),即兩條視覺通路-What通路和 Where通路[2]。對(duì)象可由中央凹的內(nèi)容-What信息和掃描路徑-Where信息表示。What通路傳輸?shù)男畔⑴c外部世界的目標(biāo)對(duì)象相關(guān),Where通路用來傳輸對(duì)象的空間信息。人的視覺系統(tǒng)以分層的多通道信息處理為主要特征,它以在時(shí)間域和空間域逐級(jí)整合的方式實(shí)現(xiàn)視覺信息在視覺通路中的傳播,完成對(duì)景物的概念化抽象。然而,在處理過程中腦對(duì)外界信息并不是一視同仁,而是表現(xiàn)出選擇特性。借鑒人眼的這種特殊機(jī)制對(duì)我們研究特征提取、目標(biāo)識(shí)別具有借鑒價(jià)值,是一種有益的全新的嘗試。
生物視覺系統(tǒng)從外部環(huán)境接收視覺信息,外部環(huán)境攜帶了龐大的信息量,但也包含了大量的冗余。在信息處理的初期,生物視覺系統(tǒng)首先按照一定的規(guī)則降低視覺信息中的冗余[3],從而使其與生物視覺系統(tǒng)自身的信息處理能力相匹配。由此可知,生物視覺系統(tǒng)的工作機(jī)制依賴于外部環(huán)境的統(tǒng)計(jì)特性,分析目標(biāo)的統(tǒng)計(jì)特性將大大改進(jìn)視覺信息的處理的速度[4]。
依據(jù)生物視覺理論,視覺內(nèi)容中最“與眾不同”的部分會(huì)引起人們的注意[5]。注意力模型是用來得到圖像中最容易引起注意的部分,而且對(duì)外界的刺激具有明顯的選擇性,通常認(rèn)為是人類視覺系統(tǒng)的選擇性注意機(jī)制,視覺心理學(xué)的研究表明,選擇性注意機(jī)制具有人類的認(rèn)知過程合理性,其一,Bottom-Up選擇性注意機(jī)制,該機(jī)制是基于輸入景象的顯著性計(jì)算的,屬于低級(jí)的認(rèn)知過程;其二,Top-Down選擇性注意機(jī)制,受任務(wù)視覺任務(wù)支配,將注意力集中到感興趣目標(biāo),屬于高級(jí)的認(rèn)知過程。國內(nèi),鄭南寧院士[6]提出的基于連續(xù)可調(diào)非均勻采樣的選擇注意機(jī)制,并應(yīng)用于多分辨率邊緣檢測中;史忠植教授[7]的研究團(tuán)隊(duì)提出了一個(gè)數(shù)據(jù)驅(qū)動(dòng)的基于注意機(jī)制的稀疏編碼模型,且將非均勻采樣模塊和基于響應(yīng)顯著性值的選擇模塊有機(jī)集成;羅四維教授[8]的研究團(tuán)隊(duì)提出了以環(huán)境為中心選擇性注意機(jī)制;高雋教授[9]的研究團(tuán)隊(duì)在選擇性注意機(jī)制方面提出了協(xié)同感知的視覺注意機(jī)制,取得了有益的研究成果;李言俊教授[10]的研究團(tuán)隊(duì)研究了人眼視覺仿生在成像制導(dǎo)中應(yīng)用,把生物與工程有機(jī)結(jié)合。國外,Itti[11]將亮度、顏色、朝向等初級(jí)視覺特征通過全局加強(qiáng)法形成多個(gè)顯著圖,為圖像內(nèi)容的顯著性提供度量。Rimey[12]于 1990年提出使用增強(qiáng)的隱馬爾可夫模型實(shí)現(xiàn)數(shù)據(jù)驅(qū)動(dòng)的選擇性注意機(jī)制,其后,Salah[13]將可觀測馬爾可夫模型引入到模擬任務(wù)驅(qū)動(dòng)的注意機(jī)制中,并在數(shù)字識(shí)別和人臉識(shí)別的實(shí)驗(yàn)中取得了很好的效果??傊?國內(nèi)外學(xué)者無論在基礎(chǔ)理論、還是結(jié)合工程應(yīng)用研究:如人臉識(shí)別、視覺導(dǎo)航、遙感圖像處理和醫(yī)學(xué)圖像處理方面等方面的研究都有把生物與工程緊密有機(jī)結(jié)合[14-16],視覺仿生的研究熱潮方興未艾,生物學(xué)啟發(fā)來完成復(fù)雜信息的加工和處理是視覺科學(xué)和認(rèn)知研究的熱點(diǎn)和難點(diǎn)。
受生物視覺信息處理機(jī)制啟發(fā),模仿人類視覺信息獲取與處理機(jī)理,構(gòu)建目標(biāo)檢測和識(shí)別的大場景(LF)子系統(tǒng)和小場景(LS)子系統(tǒng),分別獲取可變分辨率的場景圖像;在選擇性注意機(jī)制的指導(dǎo)下,對(duì) LF系統(tǒng)獲取的低分辨率場景圖像采用統(tǒng)計(jì)分析方法檢測和定位場景中的感興趣目標(biāo),并標(biāo)記和記錄目標(biāo)區(qū)域和位置;LS子系統(tǒng)依據(jù)已標(biāo)記的目標(biāo)區(qū)域,獲取目標(biāo)的高分辨率視圖,采用多通道多尺度濾波器組得到多尺度、多分辨率的特征圖,采用全局加強(qiáng)法加強(qiáng)了對(duì)突出待注意目標(biāo)貢獻(xiàn)大的特征,削弱貢獻(xiàn)小的特征,得到特征的關(guān)注圖后,對(duì)其進(jìn)行平均加權(quán),得到最終顯著圖,然后采用非均勻采樣、多尺度分析和勝者為王(Winner-take-all機(jī)制)產(chǎn)生目標(biāo)間的競爭實(shí)現(xiàn)分類識(shí)別。
圍繞場景中目標(biāo)的檢測和識(shí)別,學(xué)者提出了許多模擬人類視覺感知機(jī)理的計(jì)算模型,文獻(xiàn)[17]提出了一種綜合圖像的顯著性特征和場景的上下文語義信息的場景目標(biāo)檢測和搜索方法,顯著性特征選擇受視覺選擇性注意機(jī)制指導(dǎo),在此基礎(chǔ)上,文獻(xiàn)[18]結(jié)合眼動(dòng)機(jī)制,研究了選擇性注意機(jī)制對(duì)感興趣目標(biāo)的掃視以及利用目標(biāo)的顯著性特征實(shí)施注意焦點(diǎn)的轉(zhuǎn)移,文獻(xiàn)[19]較為系統(tǒng)的提出了一種基于貝葉斯學(xué)習(xí)理論的場景中目標(biāo)的檢測、搜索和定位計(jì)算模型,綜合考慮了場景圖像整體拓?fù)涮卣骱途植刻卣餍畔?在選擇性注意機(jī)制的指導(dǎo)下,建立了受任務(wù)約束的 Top-Down機(jī)制提取場景語義特征和Down-Up機(jī)制提取初級(jí)視覺特征信息,通過實(shí)驗(yàn)驗(yàn)證,此方法具有生物學(xué)上的合理性。但是基于貝葉斯學(xué)習(xí)理論的場景中目標(biāo)的檢測、搜索和定位計(jì)算模型在目標(biāo)檢測和識(shí)別階段需要更多的先驗(yàn)知識(shí)和學(xué)習(xí),在實(shí)際應(yīng)用推廣中,實(shí)時(shí)性無法保障和控制,因此本文擬借鑒視覺感知機(jī)理,提出一種基于統(tǒng)計(jì)理論的場景中目標(biāo)快速檢測和定位計(jì)算模型,無需學(xué)習(xí)和先驗(yàn)知識(shí),可提高目標(biāo)檢測的實(shí)時(shí)性。
基于小波變換的 Hotelling T2統(tǒng)計(jì)法[20-21]首先把一幅(MXN)圖像分解成 g×h個(gè)(m×n)像素的子圖像,即 g=M/m,h=N/n。每個(gè)子圖像稱為一個(gè)多變量統(tǒng)計(jì)單元。每個(gè)統(tǒng)計(jì)單元被分解成 a×b個(gè)(g×h)小波處理單元,即 g=m/a,h=n/b。對(duì)每個(gè)小波處理單元進(jìn)行一維小波變換,提取四個(gè) Haar小波系數(shù):A1(i,j)為近似系數(shù)矩陣、D1(i,j)、D2(i,j)和 D3(i,j)為細(xì)節(jié)系數(shù)矩陣。多元統(tǒng)計(jì)分析方法將一個(gè)多變量統(tǒng)計(jì)單元內(nèi)小波分解得到的系數(shù)進(jìn)行整合,最后得到一個(gè)統(tǒng)計(jì)值。該統(tǒng)計(jì)值描述多元子圖像的距離,統(tǒng)計(jì)值越大表明該子圖像與無缺陷的圖像距離越大,該圖像為缺陷圖像的概率也越大。
多元統(tǒng)計(jì)處理過程步驟如下:
其中,UCL為 Hotelling T2[18]統(tǒng)計(jì)量的上限,式(12)中 Fθ,p,(mn-m-p+1)為置信度為 θ,自由度為 p和 mn-m-p+1的 F分布。其中,m為樣本組個(gè)數(shù),n為樣本組觀察值的個(gè)數(shù),p為品質(zhì)特質(zhì)個(gè)數(shù)。
注意機(jī)制在生物信息處理過程中是一個(gè)非常重要環(huán)節(jié),它是視覺感知模型的重要組成部分,與學(xué)習(xí)、記憶等模塊協(xié)同工作,完成將注意力指向感興趣的目標(biāo),并在感興趣目標(biāo)間轉(zhuǎn)移,盡可能地過濾和衰減無關(guān)信息,將有限的能量和資源分配到有效視覺任務(wù)上。針對(duì)覺目標(biāo)檢測和識(shí)別的實(shí)際應(yīng)用環(huán)境,依據(jù)全局優(yōu)先的視覺理論,在選擇性注意機(jī)制的指導(dǎo)下,LF子系統(tǒng)和 LS子系統(tǒng)分別提取場景中目標(biāo)的多分辨率初級(jí)視覺特征(亮度和朝向特征)。
1.2.1 初級(jí)視覺特征[11]
(1)亮度特征
輸入場景圖像包含 r,g,b三個(gè)通道,則灰度圖像為 I=(r+g+b)/3,使用 I創(chuàng)建高斯金字塔I(σ),其中 σ∈ [0,…,8]是尺度因子 。
(2)朝向特征
使用 Gabor小波對(duì) I進(jìn)行分解,得到不同尺度σ∈ [0,…,8]不同朝向 θ∈ {0°,45°,90°,135°}的36個(gè)分量 O(σ,θ),即朝向特征。
(3)顏色特征
建立四個(gè)寬調(diào)諧的顏色通道:紅色 R=r-(g+b)/2,綠色 G=g-(r+b)/2,藍(lán)色 B=b-(r+g)/2和黃色 Y=(r+g)/2-|r-g|/2-b。根據(jù)這些顏色通道生成四個(gè)高斯金字塔 R(σ),G(σ),B(σ),Y(σ)。
1.2.2 特征圖形成
對(duì)已提取的亮度和朝向特征,通過計(jì)算中央精細(xì)尺度 c和周邊粗糙尺度 s間的中央周邊差得到特征顯著圖。
(1)亮度特征圖
亮度特征圖和亮度對(duì)比度有關(guān),在哺乳動(dòng)物中,是由對(duì)周邊亮的中心暗區(qū)域敏感或者對(duì)周邊暗的中央亮區(qū)域敏感的神經(jīng)元檢測。此處計(jì)算六個(gè)亮度特征 I(c,s),其中 c∈{2,3,4},σ∈{3,4},s=c+σ。
(2)朝向特征圖
(3)顏色特征圖
1.2.3 特征圖合并[13]
對(duì)亮度和朝向特征關(guān)注圖進(jìn)行合并之前,先對(duì)其各自使用局部迭代法。具體實(shí)現(xiàn)方法為將各特征圖的特征值歸一化到同一個(gè)范圍內(nèi)后,找出每一副特征圖的全局極大 M和除此全局極大之外的其它局部極大的平均值再給每一副特征圖乘以加強(qiáng)因子,這就是每幅特征圖的權(quán),具體處理過程如下所示:
其中,N(?)為全局加強(qiáng)法操作算子。
全局加強(qiáng)法加強(qiáng)了對(duì)突出待注意目標(biāo)貢獻(xiàn)大的特征,而削弱了貢獻(xiàn)小的特征。通過全局加強(qiáng)法得到亮度和朝向特征關(guān)注圖 I′和 O′后,對(duì)其進(jìn)行平均加權(quán),得到最終顯著圖,即
目標(biāo)檢測和識(shí)別是一項(xiàng)多層次、復(fù)雜的智能信息獲取和處理系統(tǒng),本研究將模擬人類視覺感知信息處理機(jī)理,構(gòu)建一種仿人眼信息獲取與處理體系架構(gòu)模式,如圖 1所示。
圖1 仿人眼信息獲取與處理體系架構(gòu)模式
主要包括:
(1)選擇多路 CCD成像系統(tǒng)中一路攝像頭獲取目標(biāo)的大場景圖像數(shù)據(jù),并對(duì)輸出圖像進(jìn)行映射變換,對(duì)應(yīng)低分辨率大視場圖像,通過獲取并建立小場景圖像數(shù)據(jù)源,輸出高分辨率小視場圖像;
(2)定位子系統(tǒng)以低分辨率大場景圖像作為數(shù)據(jù)源,完成大場景下潛在目標(biāo)的定位;
(3)識(shí)別子系統(tǒng)完成高分辨率小場景圖像的目標(biāo)分割、特征抽取與整合以及識(shí)別等。
對(duì)于模糊的大場景圖像,首先使用 Hotelling T2統(tǒng)計(jì)方法進(jìn)行目標(biāo)的檢測,降低信息冗余,減小計(jì)算量,并實(shí)現(xiàn)目標(biāo)區(qū)域的快速檢測。對(duì)于目標(biāo)區(qū)域,使用視覺注意力機(jī)制,注意焦點(diǎn)在某一目標(biāo)圖像區(qū)域轉(zhuǎn)移,形成小場景的掃描路徑。根據(jù)獲得的 What信息和 Where信息實(shí)現(xiàn)目標(biāo)類型的分類。
一幅尺寸為 256×256的圖像,其中包含四種目標(biāo)(缺陷),截取一個(gè) 16×16區(qū)間使用 4×4統(tǒng)計(jì)單元進(jìn)行分析,多變量 T2統(tǒng)計(jì)的工作模型如圖 2所示。在 T2距離圖中高頻區(qū)域?qū)?yīng)于目標(biāo)區(qū)域,低頻分量對(duì)應(yīng)于非目標(biāo)區(qū)域。
圖2 多變量 T2統(tǒng)計(jì)工作模型
本文提出的仿生視覺識(shí)別系統(tǒng)計(jì)算機(jī)理算法框圖如圖 3所示,具體算法描述如下:
(1)對(duì)輸入圖像,使用高斯金字塔和 Gabor濾波器抽取其初級(jí)視覺特征;
(2)使用中央周邊差計(jì)算特征圖,并使用全局加強(qiáng)法對(duì)各個(gè)尺度的特征圖進(jìn)行合并;
(3)對(duì)合成特征關(guān)注圖進(jìn)行平均加權(quán),得到顯著圖;
(4)獲取 What信息。圖像的每個(gè)區(qū)域使用單層感知器組成的專家網(wǎng)絡(luò),獲取 What信息。輸入為視網(wǎng)膜中央凹捕獲信息中提取的特征向量(亮度和朝向特征),輸出為該信息所屬類別的后驗(yàn)概率向量,即 What信息。單層感知器通過有監(jiān)督的學(xué)習(xí)來訓(xùn)練;
(5)獲取 Where信息。注意焦點(diǎn)的選擇和轉(zhuǎn)移決定了感興趣區(qū)的位置及重要程度。興趣圖中各目標(biāo)間的競爭使用勝者為王(Winner-take-all)競爭機(jī)制[22]來實(shí)現(xiàn)。首先,勝者為王(Winner-take-all)神經(jīng)網(wǎng)絡(luò)從顯著圖中找到注意焦點(diǎn),選取候選區(qū)域得到顯著區(qū),然后在返回抑制機(jī)制的作用下,尋找下一個(gè)顯著點(diǎn),進(jìn)行注意焦點(diǎn)的轉(zhuǎn)移。本文根據(jù)掃視仿真中訪問點(diǎn)的時(shí)間順序序列,即掃描路徑,組成“Where”信息流。
圖3 仿生目標(biāo)識(shí)別流程圖
實(shí)驗(yàn)圖像庫取自江蘇常州興榮公司現(xiàn)場,包含1 600幅 640×480銅帶表面圖像,檢測和識(shí)別的目標(biāo)對(duì)象為銅帶表面的缺陷,在銅帶生產(chǎn)現(xiàn)場,其表面缺陷目標(biāo)類型有裂縫、毛邊、劃痕、孔洞、凹坑、起皮,對(duì)上述目標(biāo)圖片各選取 200幅,200幅無缺陷圖像,200幅油污“偽目標(biāo)”圖像。
該系統(tǒng)中硬件平臺(tái)主要基于嵌入式工業(yè)主板,實(shí)驗(yàn)室硬件實(shí)驗(yàn)環(huán)境如圖 4所示。
圖4 硬件平臺(tái)
系統(tǒng)中主要設(shè)備包括以下部分:
(1)工業(yè)相機(jī):選用北京大恒圖像公司型號(hào)為DH-HV1303,分辨率從 640X 480到 1280X1024可選,標(biāo)準(zhǔn) CS,C鏡頭,獲取銅帶表面大視場(低分辨率)和小視場圖像(高分辨率),允許外觸發(fā),支持VC,VB,Borland C++,Delphi等語言。
(2)光源:上海東冠科技公司散射型光源,能提供均衡的表面照明和避免反光和耀斑,適合表面劃痕、集成電路等的檢測。
(3)工業(yè)主板:選用實(shí)驗(yàn)室現(xiàn)有的 EC5-1719CLDNA工業(yè)主板。
(4)Microsoft Windows XP操作系統(tǒng)。
本文小波基選用 Haar小波對(duì)圖像進(jìn)行分解,低通分解系數(shù)為 L=[0.7071,0.7071],高通分解系數(shù)為 H=[-0.7071,0.7071]。多變量統(tǒng)計(jì)單元尺寸為 4×4,小波處理單元為 2×2,即一個(gè)多變量統(tǒng)計(jì)單元可以分解為 2×2個(gè)小波處理單元。對(duì)每一個(gè)2×2的小波處理單元進(jìn)行小波變換,得到一個(gè)逼近系數(shù)和三個(gè)細(xì)節(jié)系數(shù),將[A1,D1,D2,D3]T作為小波紋理特征。一幅 256×256的灰度圖像 f(x,y),可以分解為 64×64個(gè)多變量統(tǒng)計(jì)單元。對(duì)一個(gè)統(tǒng)計(jì)單元內(nèi)的四個(gè)小波處理單元進(jìn)行統(tǒng)計(jì)分析可以得到一個(gè) T2值,即一幅 256×256灰度圖像可以得到 64×64個(gè) T2統(tǒng)計(jì)值。在 Hotelling T2統(tǒng)計(jì)三維圖中,峰值處即為缺陷位置。如圖 5所示為檢測和定位結(jié)果,圖 6為各缺陷目標(biāo)的紋理特征特性 T2圖。
圖5 目標(biāo)檢測和定位圖
圖6 檢測結(jié)果
小波域統(tǒng)計(jì)分析思想一方面通過統(tǒng)計(jì)變換可以將一個(gè)統(tǒng)計(jì)單元內(nèi)的 4個(gè)小波單元的多個(gè)特征量整合為一個(gè)統(tǒng)計(jì)值,減小數(shù)據(jù)量,另一方面,通過統(tǒng)計(jì)值的大小可以判定有別于正常區(qū)域的異常區(qū)域。
通過高斯金字塔和 Gabor金字塔多起尺度分解,首先得到 9個(gè)亮度特征,36個(gè)顏色特征和 36個(gè)朝向特征。根據(jù)得到的 81個(gè)特征,通過計(jì)算中央精細(xì)尺度 c和周邊粗糙尺度 s間的中央周邊差?得到42個(gè)特征圖,包括 6個(gè)亮度特征圖,12個(gè)顏色特征圖和 24個(gè)朝向特征圖。然后對(duì)特征圖分別使用局部迭代策略得到 I′,C′和 O′特征關(guān)注圖,如圖 7所示,由于本文使用的是靜態(tài)圖像,因此顫動(dòng)特征關(guān)注圖無任何顯著區(qū)域。最終顯著圖為 3個(gè)特征關(guān)注圖的加權(quán)和,以灰度亮弱不同表示區(qū)域的顯著性差異,即區(qū)域顯著性越強(qiáng)則越亮[23]。
圖7 特征圖(從左到右,由上至下分別為原圖、注意圖、顏色特征關(guān)注圖、顫動(dòng)特征關(guān)注圖、亮度特征關(guān)注圖和朝向特征關(guān)注圖)
本文將 42個(gè)特征圖作為局部神經(jīng)網(wǎng)絡(luò)的輸入(此處神經(jīng)網(wǎng)絡(luò)使用單層感知器),感知器的輸出為10維的類后驗(yàn)概率,即此文所用的 what信息。使用局部神經(jīng)網(wǎng)絡(luò)在降低系統(tǒng)復(fù)雜性的同時(shí)提高了分類精度。
圖8(a)(b)所示分別為凹坑和劃痕五次掃視產(chǎn)生的焦點(diǎn)轉(zhuǎn)移圖。圖 7中亮度最大的位置首先被檢測到,隨后,“返回抑制”的反饋抑制了該顯著位置,焦點(diǎn)轉(zhuǎn)向下一個(gè)顯著位置。圖 8中左上角顯示的時(shí)間是焦點(diǎn)轉(zhuǎn)移發(fā)生時(shí)間,從時(shí)間可觀測到焦點(diǎn)選取的先后順序和區(qū)域的顯著程度。由于不同類別的樣本產(chǎn)生不同類型的掃視路徑;而且同一種樣本經(jīng)旋轉(zhuǎn)、縮放等幾何變換以后,焦點(diǎn)轉(zhuǎn)移的時(shí)間順序是不變的,即掃視路徑是不變的。因此,可以憑借掃視路徑的唯一性來識(shí)別樣本。
圖8 五次掃視路徑
表1所示為使用馬爾可夫模型的缺陷目標(biāo)檢測的分類精度。本文方法對(duì)所有銅帶表面典型缺陷目標(biāo)檢測識(shí)別率較高,在 89%-97%之間,特別是對(duì)于劃痕和起皮等與非缺陷目標(biāo)圖像特征差別微小的特征類可達(dá)到 92.5%和 89.5%的精度。
表2 分類精度
本文針對(duì)圖像信息冗余的特點(diǎn)提出了一種具有仿生機(jī)理的小波域統(tǒng)計(jì)方法實(shí)現(xiàn)目標(biāo)檢測和識(shí)別方法,借鑒人眼視覺變空間分辨率機(jī)理和視覺注意機(jī)制,構(gòu)造目標(biāo)檢測和識(shí)別的感知計(jì)算模式。主要特點(diǎn)有:(1)通過構(gòu)建大小場景模式,滿足大場景的目標(biāo)的粗定位和小場景下的目標(biāo)精準(zhǔn)識(shí)別;(2)使用Hotelling T2方法分析場景的紋理統(tǒng)計(jì)特性,可以大大降低信息冗余,并快速檢測出目標(biāo)區(qū)域;(3)中央凹內(nèi)容和掃描路徑相結(jié)合充分體現(xiàn)了不同目標(biāo)的特征信息;(4)使用局部神經(jīng)網(wǎng)絡(luò)預(yù)先處理 What信息,在降低系統(tǒng)復(fù)雜度的同時(shí)提高了分類精度;(5)將馬爾可夫模型引入到模擬任務(wù)驅(qū)動(dòng)的注意機(jī)制,處理速度快,識(shí)別精度高。實(shí)驗(yàn)結(jié)果表明本方法提高了目標(biāo)識(shí)別和分類能力,基本滿足工程應(yīng)用。本文所提出的檢測和識(shí)別方法,也適用于其他視覺檢測系統(tǒng)。進(jìn)一步優(yōu)化算法、提高實(shí)時(shí)性和檢測識(shí)別率是下一步研究的重點(diǎn)。
[1]Noton D,Stark L.Eye Movements and Visual Perception[J].Scientific American,1971,224(5):35-43.
[2]Richard L Didday,Michael A Arbib.Eye Movements and Visual Perception:A “Two Visual System” Model[J].International Journal of Man-Machine Studies,1975,7(4):547-569.
[3]Van Hateren JH.Spatiotemporal Contrast Sensitivity of Early Vision[J].Vision Research,1993,33(2):257-267.
[4]Dong DW,Atick J J.Statistics of Natural Time-Varying Images[J].Network:Computation in Neural Systems,1995,6(3):345-358.
[5]Pashl ER,Harold E.A ttention[M].Philadelphia:Psy2.chology Press,1998:52-75.
[6]鄭南寧.計(jì)算機(jī)視覺與模式識(shí)別[M].國防工業(yè)出版社,1998.
[7]史忠植.智能主體及其應(yīng)用[M].科學(xué)出版社,2000.
[8]羅四維.視覺感知系統(tǒng)信息處理理論[M].北京:電子工業(yè)出版社,2006.
[9]邵靜,高雋.基于協(xié)同感知的視覺選擇注意計(jì)算模型[J].中國圖象圖形學(xué)報(bào),2008,13(1):129-136.
[10]李言俊,張科.視覺仿生成像制導(dǎo)技術(shù)及應(yīng)用[M].國防工業(yè)出版社,2006.
[11]Itti L,Koch C,Niebur E.A Model of Saliency-Based Visual Attention for Rapid Scene Analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(11):1254-1259.
[12]Rimey R,Brown C.Selective Attention As Sequential Behavior:Modeling Eye Movements with An Augmented Hidden Markov Model[R].Department of Computer Science,University of Rochester,1990.
[13]Salah A A,Alpaydin E,Akarun L.A Selective Attention-Based Method for Visual Pattern Recognition with Application to Handwritten Digit Recognition and Face Recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002:420-425.
[14]Oliva A,Torralba A,Castelhano MS,et al.Top-Down Control of Visual Attention in Object Detection[C]//Proceedings on 2003 International Conference Image Processing,2003:253-256.
[15]A lpaydin E.Selective Attention for Handwritten Digit Recognition[J].Advances in Neural Information Processing Systems,1996:771-777.
[16]張菁,沈蘭蓀,高靜靜.基于視覺注意模型和進(jìn)化規(guī)劃的感興趣區(qū)檢測方法.電子與信息學(xué)報(bào),2009,31(7):1646-1652.
[17]Torralba A,Oliva A,Castelhano MS,et al.Contextual Guidance of Eye Movements and Attention in Real-World Scenes:The Role of Global Features in Object Search[J].Psychological Review,2006,113(4):766-786.
[18]Torralba A,O liva A.Statistics of Natural Image Categories Network[J]:Computation in Neural Systems,2003,14:391-412.[19]Henderson JM.Human Gaze Control in Real-World Scene Perception[J].Trends in Cognitive Sciences,2003,7:498-504.[20]Lin Hong-Dar.Automated Defect Inspection of Light-Em itting Diode Chips Using Neural Network and Statistical Approaches[J].Expert Syst Appl 2009,36(1):219-226.
[21]Hotelling H.Multivariate Quality Control,Illustrated by the A ir Testing of Sample Bombsights[M].Techniques of Statistical A-nalysis,New York:McGraw-Hill,1947,111-84.
[22]Tsotsos JK,Culhane SM,KeiWaiW Y,et al.Modeling Visual Attention Via Selective Tuning[J].Artificial intelligence,1995,78(1/2):507-545.
[23]桑農(nóng),李正龍,張?zhí)煨?人類視覺注意機(jī)制在目標(biāo)檢測中的應(yīng)用[J].紅外與激光工程,2004,33(1):38-42.