姜英,王延江
(中國石油大學 信息與控制工程學院,山東 青島 266580)
REM記憶模型在圖像分類識別中的應用
姜英,王延江
(中國石油大學 信息與控制工程學院,山東 青島 266580)
嘗試將認知心理學中的記憶模型與圖像學習識別聯(lián)系在一起,研究基于REM (retrieving effective from memory)記憶模型的視覺圖像存儲與識別方法。采用方向梯度直方圖(HOG)和局部二進模式(LBP)生成圖像特征向量,并對每個特征向量中的每一個分量按概率進行復制,允許錯誤復制,最后采用Bayesian決策計算被探測圖像特征向量與已學習圖像集特征向量的平均似然比值,根據(jù)該值判斷被探測圖像是否已學習過。實驗結(jié)果表明,提出的算法不僅對同一個物體的小幅度旋轉(zhuǎn)圖像具有很好的識別效果,同時對同一類別物體圖像識別也具有較好的效果,而且其虛報率遠遠低于其他識別方法。
圖像識別;記憶建模;HOG特征;LBP特征;Bayesian決策
中文引用格式:姜英, 王延江. REM記憶模型在圖像分類識別中的應用[J]. 智能系統(tǒng)學報, 2017, 12(3): 310-317.
英文引用格式:JIANG Ying, WANG Yanjiang. Application of REM memory model in image recognition and classification[J]. CAAI transactions on intelligent systems, 2017, 12(3): 310-317.
視覺圖像的分類與識別研究是計算機視覺研究、模式識別與機器學習領域內(nèi)的一個非常活躍的方向,其在許多領域中應用廣泛,如銀行系統(tǒng)的人臉識別、防御系統(tǒng)的行人檢測與跟蹤、交通系統(tǒng)的車牌檢測與車輛跟蹤等。近年來,圖像分類[1]吸引了研究者們的注意,關于視覺圖像識別與分類的各種理論與算法層出不窮,如最近鄰分類器[2]、神經(jīng)網(wǎng)絡分類器[3-4]、SVM支持向量機分類器[5]、卷積神經(jīng)網(wǎng)絡分類器[6]、ELM極限學習機[7]及稀疏編碼方法等。為獲得良好的圖像分類效果,研究者們在設計圖像分類方法及改進分類準確性方面都做了大量工作。例如,稀疏編碼方法已被證實在圖像分類中具有優(yōu)秀的分類性能,基于該方法的許多改進的稀疏編碼方法也被相繼提出,如SRC方法[8]、CRC方法[9]、RSC方法[10]及RLRC方法[11]等。盡管現(xiàn)有的許多算法在圖像分類方面表現(xiàn)突出,但目前已有的識別分類算法大多側(cè)重于“區(qū)別”,忽視了“認識”,即側(cè)重將某一類物體與有限類已學過物體進行區(qū)分。然而人類認識事物的過程側(cè)重于對某一類物體與無限類未知物體的區(qū)分,只在細小之處重視“區(qū)別”(如區(qū)別桌子與椅子或者魚與海豚等)。對于首次遇到的從未學習過的物體,傳統(tǒng)的模式識別方法會將其歸類于某一個已學習的類別。但是同樣情況下,人類對首次遇到的新物體的直接反應是從未見過或者不認識該物體,而不是直接判斷其屬于哪一類已經(jīng)學習過的物體。眾所周知,計算機視覺研究的主要目標是使計算機能像人類一樣輕易地識別視覺圖像。神經(jīng)生理學、心理學以及認知科學研究表明[12-13],人類能夠輕易地將目標從周圍環(huán)境中識別出來與人類記憶機制有著非常密切的聯(lián)系。人們所看到的和所經(jīng)歷的都要經(jīng)過記憶系統(tǒng)的處理。當認知新的事物時,與該事物相關的記憶信息就會被提取出來,從而加快認知的過程并適應新的環(huán)境。然而,在人腦記憶過程中信息是如何被加工、存儲和提取的仍然不得而知。Murdock[14]認為現(xiàn)代人腦記憶建模理論至少要解釋4個問題:信息是如何被表達、被存儲與提取的信息的種類,存儲與提取運算的本質(zhì)以及信息存儲的格式。圍繞這些問題研究人員提出了包括情景記憶、語義記憶以及神經(jīng)計算在內(nèi)的記憶建模理論。Raaijmakers等[15]提出了SAM模型,所存儲的信息用“記憶影像”表達,能解釋記憶研究中的列表強度效應、列表長度效應以及近因效應等,但無法解釋鏡像效應;Hintzman等[16]提出的MINERVA 2模型首次將情景記憶與語義記憶聯(lián)合用于提取建模,沒有考慮列表強度效應以及鏡像效應;Shiffrin等[17]提出的REM記憶模型,采用Bayesian 理論計算線索與記憶影像的似然度,用于匹配搜索。上述情景記憶模型均假設識別判斷是在整體匹配相似度強度的基礎上完成的,其中REM記憶模型的突出性不僅因為其堅實的數(shù)學基礎,也源于其可以解釋情景記憶研究中出現(xiàn)的許多現(xiàn)象,如列表長度、列表強度與詞匯頻率效應等。REM模型對情景記憶研究中的列表強度效應、列表長度效應、詞匯頻率效應以及鏡面效應與正態(tài)ROC斜率效應的解釋不僅吸引了眾多研究人員對REM模型的進一步研究[18-21],也引起了我們的思考——能否將記憶模型應用于圖像識別分類中。目前大多數(shù)記憶模型均采用詞匯列表的學習方式,對自然圖像的學習和分類研究得很少,因此本文嘗試將REM模型引入視覺圖像的存儲與識別,并提出一種基于REM記憶模型的視覺圖像的學習、存儲與提取方法。
圖像特征提取在視覺圖像學習過程中起著非常關鍵的作用。近幾年來,許多特征提取算法被陸續(xù)提出并被應用于物體識別、如方向梯度直方圖(HOG)等[22]、局部二值模式(LBP)[23]、尺度不變特征轉(zhuǎn)換(SIFT)[24]、加速魯棒特征(SURF)[25]等。其中HOG算子能很好地描述局部目標的表現(xiàn)與形狀,LBP算子具有灰度尺度不變性和旋轉(zhuǎn)不變性,本文將這兩種算子同時應用于圖像特征提取以描述圖像的形狀與紋理特征。
1.1 HOG特征
方向梯度直方圖(histogram of oriented gradient, HOG)特征是由N.Dalal等[22]提出的一種物體特征描述子,其通過計算和統(tǒng)計圖像局部區(qū)域的梯度方向直方圖來構(gòu)成特征。HOG特征提取算法的具體實現(xiàn)過程如圖1所示。
圖1 HOG特征提取算法流程Fig.1 The flow chart of HOG algorithm
1.2 LBP特征
局部二值模式(LBP)是由T.Ojala、M.Pietik?inen和D. Harwood提出的一種灰度尺度不變性和旋轉(zhuǎn)不變性的紋理算子[23]。原始LBP算子不能滿足不同尺寸和頻率紋理的需要,研究人員對其進行各種改進與優(yōu)化,如半徑為R的圓形區(qū)域內(nèi)含有P個采樣點的LBP 算子及LBP旋轉(zhuǎn)不變算子[26]。T. Ojala[27]定義了一個等價模式,模式數(shù)量減少為 種,特征向量維數(shù)更少,減少了高頻噪聲帶來的影響。
本文采用的LBP特征提取算法過程如下:
1)對圖像中的每一個像素點,定義圓形鄰域窗口,每個像素的灰度值與其相鄰的8個像素的灰度值比較,若周圍像素值大于中心像素值,則該像素點的位置被標記為1,否則為0。這樣可產(chǎn)生8位二進制數(shù),即得到該窗口中心像素點的初始LBP值。
2)不斷旋轉(zhuǎn)圓形鄰域得到一系列初始定義的 LBP 值,取最小值作為該像素點的 LBP 值。
3)統(tǒng)計LBP值對應的二進制數(shù)從0~1或1~0跳變的次數(shù),根據(jù)跳變次數(shù)確定其屬于哪一種LBP模式,共有P+1=9種模式,得到的模式數(shù)值即為像素點的LBP值。
4)圖像中所有像素點的LBP值組合起來形成一個LBP特征矩陣,即為該圖像的LBP特征。
認知記憶的快速提取模型——REM模型是Shiffrin等[17]1997年提出的一個用于識別單詞的記憶模型,該模型采用Bayesian 理論計算線索與記憶影像的似然度,用于匹配搜索。該模型能夠解釋許多情景記憶研究中的一些科學現(xiàn)象,如列表強度效應、列表長度效應、詞匯頻率效應、鏡面效應與正態(tài)ROC斜率效應;其與SAM、MINERVA2模型的主要區(qū)別之一在于,其實現(xiàn)了似然率的貝葉斯計算,是國際上公認的最好的記憶模型之一。
REM記憶模型被提出之后,研究人員陸續(xù)對REM模型進行研究。Stams等[18]通過對編碼與提取過程中的項目強度的控制,對比研究了REM模型與BCDMEM模型對提取過程中項目強度對誤報率降低的解釋說明。Cox等[19]在REM與RCA-REM模型基礎上提出一個新認知記憶模型,證實了即使在任務、學習因素、刺激及其他因子變化情況下,所提方法都有可能獲得合理的認知決策。Criss等[20]對比了REM模型與SLiM(the subjective likelihood model)模型,發(fā)現(xiàn)REM模型預測的誤報率較高;M.Montenegro等[21]研究了REM模型的解析表達式,文中引入Fourier變換,給出REM模型的FT積分方程,導出在給定參數(shù)值下模型預測的命中率與誤報率的雙積分形式的解析表達式,同時發(fā)現(xiàn)其具有與BCDMEM模型相同的一些性質(zhì):模型是不確定的,除非其中的一個參數(shù)固定為一個預設值,向量長度參數(shù)是不可忽略的參數(shù)。
2.1 特征表達與存儲
REM模型指出人腦記憶由圖像構(gòu)成,每幅圖像是由一個特征值向量表示的,并且最終存儲結(jié)果是對特征值向量的一個不完整且容易出錯的復制。本文試圖借鑒REM模型對單詞的存儲學習過程來模擬人腦對圖像的學習過程,有概率地對圖像的特征向量進行復制,同時在復制過程中允許出現(xiàn)錯誤值。
從圖像庫中選取圖像,提取圖像LBP與HOG特征,將其分別寫成行向量形式并連接起來生成圖像特征向量。HOG特征是由小數(shù)組成的,并不是非負整數(shù),為方便REM模型的計算,在實驗中簡單地對該特征擴大10倍并四舍五入。每學習一次圖像特征向量,對于那些還沒有存儲任何信息的位置,存儲新信息的概率為u*。注意到,一旦某個值被存儲,之后該值不會改變。如果對某個特征有存儲,其特征值從已學向量中正確復制的概率是c,以1-c的概率根據(jù)P[V=j]=(1-g)j-1g,j=1,2,…,隨機取值,并允許偶然選取正確值的可能性。
用V={Vj}j=1,2,…,N標記所有已學習圖像的特征集,其中Vj表示已學習圖像集合中第j副圖像Ij的特征向量,N為已學習圖像集合中的圖像個數(shù)。
2.2 提取
給定要檢測的圖像Itest,將其特征向量Vtest與V={Vj}j=1,2,…,N進行匹配,匹配結(jié)果為D={Dj}j=1,2,…,N,其中Dj為被檢測圖像特征與第j個視覺圖像特征的匹配結(jié)果。用s圖像表示與被檢測圖像相同的存儲圖像,d圖像表示除被檢測圖像之外的其他視覺圖像的存儲圖像。
被檢測圖像Itest與第j幅已存儲圖像Ij的匹配過程的關鍵步驟是,計算似然率λj,即在觀測結(jié)果Dj基礎上第j幅圖像為s圖像與d圖像的概率比值:
式中:Sj為第j副圖像為s圖像的事件;Nj為第j副圖像為d圖像的事件;M為非零特征值與被檢測向量特征值匹配的目錄;Vkj為第j副圖像中第k個特征值;njq為Vj與Vtest不匹配的非零特征值個數(shù);g為幾何分布參數(shù)。
2.3 Bayesian決策
給定探測圖像Itest,將其與所有已學習圖像I={Ij}j=1,2,…,N進行匹配與不匹配比較,計算對應的似然值λ={λ1,λ2,…,λN},進而得到被檢測圖像為舊的而非新的概率為
若φ>1,那么認為被檢測的圖像為已學習的圖像,同時認為該圖像匹配最大λj值對應第j幅圖像;反之認為被檢測圖像是新的,從未學習過。
如果被檢測圖像是已學習過圖像的極小變化如旋轉(zhuǎn)之后的圖像,由于當前圖像特征向量的提取技術限制,被檢測圖像與對應的已學習過圖像的特征向量中部分特征值并不一致。而原REM模型中的復制過程亦會導致不一致特征值的個數(shù)增加,計算似然率時會有很多1-c項相乘,使得λ?1,故本文忽略了該復制過程。同時,由于所提取的特征值包含LBP特征,而LBP特征向量中值為8對應的是像素不變區(qū)域,故同時忽略特征值為0與8的區(qū)域。我們用圖2簡單地解釋該記憶模型過程,其中參數(shù)采用g=0.4,c=0.7。
圖2 改進的圖像特征存儲提取數(shù)值例子Fig.2 An improved numerical example for the storage and retrieval of the image feature
為驗證本文所提方法的有效性,在Matlab編程環(huán)境下,先后對哥倫比亞大學Coil-20圖像數(shù)據(jù)庫[28]與加州福尼亞理工大學Caltech-256數(shù)據(jù)庫[29]中的圖像進行實驗測試。
3.1 Coil-20數(shù)據(jù)庫實驗結(jié)果
Coil-20數(shù)據(jù)庫由20個不同對象的旋轉(zhuǎn)圖像構(gòu)成,每個對象在水平方向上旋轉(zhuǎn)360°,并每隔5°拍攝一張照片,故每個項目有72幅圖像,每幅圖像的像素為128128。
從Coil-20圖像數(shù)據(jù)庫中選取已學習圖像,本文選擇了15個不同項目的圖像,構(gòu)成圖3所示已學習圖像集。圖3中大寫英文字母(A~O)分別代表不同項目圖像的序號。
圖3 已學習圖像集Fig.3 The studied images set
接著從數(shù)據(jù)庫中選取被測試圖像,被測試圖像根據(jù)實驗需要選取圖4所示幾組圖像。
(a)“新”圖像
(b)“舊”圖像
(c)已學習項目的旋轉(zhuǎn)圖像
(d)已學習項目旋轉(zhuǎn)圖像組Ⅰ
(e) 已學習項目旋轉(zhuǎn)圖像組Ⅱ
(f) 已學習項目旋轉(zhuǎn)圖像組Ⅲ圖4 被測試圖像集Fig.4 The probe images set
由于特征向量維數(shù)比原REM模型中單詞特征維數(shù)大得多,計算似然率過程中會出現(xiàn)多個1-c項相乘,導致λ?1 ,最終會影響到識別效果,故將φ值擴大到10100倍。表1是利用本文所提算法對6組實驗圖像運行得到的識別結(jié)果。
表1 Coil-20數(shù)據(jù)庫實驗結(jié)果
Table 1 The experimental result on the Coil-20 database
圖像組第1幅第2幅第3幅第4幅第5幅(a)新 √新 √新 √新 √新 √(b)(AL)√(BA)√(DB)√(KD)√(KL)√(c)(A)√(B)√新 ×新 ×新×(d)(A)√(A)√(A)√(A)√(A)√(e)(E)√(E)√(E)√新 ×新×(f)(I)√(I)√(I)√(I)√新×
表1中大寫字母代表測試圖象對應的已學習圖像序號,“√”說明識別正確,“×”說明判別錯誤。很顯然,圖像組(a)、(b)識別效果不錯;圖像組(c)由5副已學習項目的旋轉(zhuǎn)圖像組成,只有2副圖像被正確識別為已學習圖像,即圖像發(fā)生旋轉(zhuǎn)時識別效果變差。通過對圖像組(d)、(e)、(f)的測試實驗發(fā)現(xiàn),隨著圖像旋轉(zhuǎn)角度增加,算法識別率降低。導致識別效果不理想的原因在于,盡管采用的LBP算子具有旋轉(zhuǎn)不變性,但是當旋轉(zhuǎn)角度超過一定范圍之后算子不能很好地刻畫圖像特征。
3.2 Caltech-256數(shù)據(jù)庫實驗結(jié)果
Caltech-256數(shù)據(jù)庫來自加利福利亞理工學院,該數(shù)據(jù)庫共有29 780副圖像,包含了256個不同圖像項目類別,每個圖像類別包含不少于80幅屬于該類別的不同圖像,這些圖像屬于同一類,但并不是完全相同的項目,實驗選擇的已學習圖像列表如圖5所示。
圖5 Caltech-256數(shù)據(jù)庫中已學習圖像集Fig.5 The studied images set on the Caltech-256 database
從數(shù)據(jù)庫中選取20副被測試圖像,包含10副已學習過類別的圖像與10副新類別的圖像,如圖6所示。
圖6 Caltech-256數(shù)據(jù)庫中被檢測圖像集Fig.6 The probe images set on the Caltech-256 database
利用本文所提算法并將LBP特征值擴大兩倍,φ值擴大1075倍的實驗結(jié)果由表2給出。
表2 Caltech-256數(shù)據(jù)庫實驗結(jié)果
對于前10副“舊”的圖像,其中有7副圖像被正確識別出來,其余3副圖像被錯誤地判斷為“新”,后10副圖像都被正確地判斷為“新”。該實驗說明,本文所提的基于REM記憶模型的圖像識別算法不止對同一個物體的識別有效,也為同一類物體的識別方法給出了一個新思路。
3.2.1 實驗參數(shù)對識別率的影響
為說明φ值和LBP特征向量的倍數(shù)變化對Caltech-256數(shù)據(jù)庫實驗結(jié)果的影響,本文采用多組φ值和LBP變化數(shù)據(jù)進行實驗,實驗結(jié)果如圖7。
圖7分別描述了在不同φ值和LBP特征倍數(shù)情況下的圖像擊中率PH、虛報率PF、識別率與ROC曲線。3種曲線分別代表φ值擴大1050,1072,10100倍之后的實驗結(jié)果。不論φ值被擴大多少倍,隨著LBP特征倍數(shù)的增加,擊中率都在增加,但同時虛報率也在增加。當LBP倍數(shù)為2時,識別率取得最大值,即不論φ值被擴大多少倍,LBP特征被擴大2倍時圖像識別率都最高。很明顯,φ值被擴大10100倍時的識別率較其他情況的識別率低,其余兩種情況下的識別率相近。觀察3個實驗的ROC曲線下的面積(AUC)進行比較,很明顯φ值被擴大1075倍時ROC曲線下的面積最大,即實驗準確性最佳。當LBP特征值被擴大兩倍且φ值擴大1075倍時,實驗識別效果達到最佳。
圖7 不同Φ值與LBP倍數(shù)變化下的實驗曲線Fig.7 The hit and false rate curve under the varying value of Φ and LBP
3.2.2 與SRC算法的實驗性能對比
實驗采用的SRC算法[8]描述如下:所有已學習圖像特征向量被標記為X,對每一個探測圖像特征向量記為Y,求解如下最優(yōu)問題:
從表3中可以看出,SRC算法在λ=290時的擊中率PH與本文算法相同,但是其虛報率PF高達7/10,遠高于本文算法的虛報率。
表3 本文方法與SRC算法在Caltech-256數(shù)據(jù)庫實驗對比Table 3 Performance comparison between the proposed method and the SRC method on the Caltech-256 database
3.2.3 與支持向量機(SVM)算法的實驗性能對比
為進一步說明所提方法的有效性,對比了本文所提算法與支持向量機(SVM)算法在Caltech-256數(shù)據(jù)庫上的識別分類性能。實驗中選取圖5所示的訓練圖像,即分別屬于10個不同類別的10幅圖像。對測試圖像集,選取20個不同類別(10個已學習類別與10個新類別)的100幅圖像,每個類別分別選取5幅圖像,實驗參數(shù)選取c=0.3,g=0.4,實驗結(jié)果如表4所示。
表4 本文方法與SVM算法在Caltech-256數(shù)據(jù)庫實驗對比
Table 4 Performance comparison between the proposed method and the SVM method on the Caltech-256 database %
很明顯,對已學習過的類別,本文算法有著很好的識別率,并且對從未學習過的類別的虛報率為0,即拒識率達到100%,而SVM 算法的虛報率高達100%。
在人腦認知記憶模型啟發(fā)下將圖像學習識別與REM模型結(jié)合在一起,驗證了REM記憶模型可以用于自然圖像的存儲與提取。實驗結(jié)果證實了,所提方法能夠?qū)崿F(xiàn)在小幅度旋轉(zhuǎn)情況下的簡單圖像的識別任務與簡單類別圖像的分類任務。同時與SRC、SVM算法的實驗對比結(jié)果說明,本文方法的虛報率遠低于SRC與SVM方法。但由于現(xiàn)有特征提取方法限制,及REM模型本身對特征表達采用非負整數(shù)的這種要求均限制了圖像分類識別率。因此如何對大范圍旋轉(zhuǎn)變化圖像提取恰當?shù)奶卣飨蛄扛倪M圖像特征表達,同時改進REM模型的特征表達存儲方法,以提高圖像識別率是下一步的研究重點。
[1]XU Y, ZHANG B, ZHONG Z. Multiple representations and sparse representation for image classification[J]. Pattern recognition letters, 2015, 68: 9-14.
[2]HELLMAN M E. The nearest neighbor classification rule with a reject option[J]. IEEE transactions on systems science and cybernetics, 1970, 6(3): 179-185.
[3]DENOEUX T. A neural network classifier based on Dempster-Shafer theory[J]. IEEE transactions on systems man and cybernetics-Part A systems and humans, 2010, 30(2): 131-150.
[4] DAVTALAB R, DEZFOULIAN M H, MANSOORIZADEH M. Multi-level fuzzy min-max neural network classifier[J]. IEEE transactions on neural networks and learning systems, 2014, 25(3): 470-482.
[5]CHANG C C, LIN C J. LIBSVM: a library for support vector machines[J].ACM transactions on intelligent systems and technology, 2011, 2(3): 389-396.
[6] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[J]. Computer science, 2014.
[7] HUANG G B. What are extreme learning machines? Filling the gap between Frank Rosenblatt’s dream and John von Neumann’s puzzle[J]. Cognitive computation, 2015, 7(3) 263-278.
[8] WRIGHT J, YANG A Y, GANESH A, et al. Robust face recognition via sparse representation[J]. IEEE transactions on pattern analysis and machine intelligence, 2008, 31(2) 210-227.
[9] ZHANG L, YANG M, FENG X. Sparse representation or collaborative representation: Which helps face recognition[C]//International Conference on Computer Vision, 2011: 471-478.
[10]YANG M, ZHANG L YANG J, ZHANG D. Robust sparse coding for face recognition[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2011, 42(7): 625-632.
[11]SCHOLKOPF B, PLATT J, HOFMANN T. Sparse representation for signal classification[J]. Advances in neural information processing systems, 2007, 19: 609-616.
[12]WANG Y. Formal description of the cognitive process of memorization[M]//Transactions on Computational Science V. Springer Berlin Heidelberg, 2009: 81-98.
[13]WANG Y, CHIEW V. On the cognitive process of human problem solving[J]. Cognitive systems research, 2010, 11(1): 81-92.
[14]MURDOCK B B. A theory of the storage and retrieval of item and associative information[J]. Psychological review, 1982, 89(6): 609-626.
[15]RAAIJMAKERS J G W, SHIFFRIN R M. SAM: a theory of probabilistic search of associative memory[J]. Psychology of learning and motivation, 1980, 14: 207-262.
[16]HINTZMAN D L. Judgments of frequency and recognition memory in a multiple-trace model[J]. Psychological review, 1988, 95(4): 528-551.
[17]SHIFFRIN R M, STEYVERS M. A model for recognition memory: REM-retrieving effectively from memory[J]. Psychonomic bulletin and review, 1997, 4(2): 145-166.
[18]STARN J J, WHITE C N, RATCLIFF R. A direct test of the differentiation mechanism: REM, BCDMEM, and the strength-based mirror effect in recognition memory[J]. Journal of memory and language, 2010, 63(1): 18-34.
[19]COX G E, SHIFFRIN R M. Criterion Setting and the dynamics of recognition memory[J]. Topics in cognitive science, 2012, 4(1): 135-150.
[20]CRISS A H,MCCLELLAND J L. Differentiating the differentiation models: a comparison of the retrieving effectively from memory model (REM) and the subjective likelihood model (SLiM)[J]. Journal of memory and language, 2006, 55(4): 447-460.
[21]MONTENEGRO M, MYUNG J I, PITT M A. Analytical expressions for the REM model of recognition memory[J]. Journal of mathematical psychology, 2014, 60(3): 23-28.
[22]DALAL N, TRIGGS B. Histograms of oriented gradients for human detection[C]//Computer Vision and Pattern Recognition. IEEE Computer Society Conference, on, 2005: 886-893.
[23]OJALA T, HARWOOD I. A Comparative study of texture measures with classification based on feature distributions[J]. Pattern recognition, 1996, 29(1): 51-59.
[24]LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International journal of computer vision, 2004, 60(2):91-110.
[25]BAY H, TUYTELAARS T, VAN GOOL L. SURF: speeded up robust features[J]. Computer vision and image understanding, 2006, 110(3): 404-417.
[26]PIETIKAINEN M, OJALA T, XU Z. Rotation-invariant texture classification using feature distributions[J]. Pattern recognition, 2000, 33(1): 43-52.
[27]OJALA T, PIETIKAINEN, MAENPAA T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[J]. IEEE transactions on pattern analysis and machine intelligence, 2002, 24(7): 971-987.
[28]NENE A S, NAYAR S K, MURASE H. Columbia object image library (COIL-20)[R]. CUCS-005-96, 1996.
[29]GRIFFIN G, HOLUB A, PERONA P. Caltech-256 object category dataset[R]. Pasadena: California Institute of Technology, 2007.
Application of REM memory model in image recognition and classification
JIANG Ying,WANG Yanjiang
(College of Information and Control Engineering, China University of Petroleum, Qingdao 266580, China)
We attempt to combine a memory model with image learning and recognition and to research the application of the REM model in image recognition and classification. An image feature vector was obtained by histograms of oriented gradients (HOG) and local binary pattern (LBP) operators; every component of a feature vector was copied with a certain probability, allowing for an error-prone copy of the studied vector. Finally, Bayesian decision theory was applied for calculating the average likelihood ratio between the feature vector of the probe image and that of the studied image set. The value of the ratio was used to decide whether the probe image had been studied.Experimental results demonstrate that the proposed method can gain a good recognition effect not only for the classification of the same object with small rotation angles but also for the recognition of the same category object. Moreover, the false rate is far lower than that of other classification methods.
image recognition; memory modeling; HOG feature; LBP feature; Bayesian decision
10.11992/tis.201605010
http://kns.cnki.net/kcms/detail/23.1538.TP.20170705.1657.010.html
2016-05-13. 網(wǎng)絡出版日期:2017-07-05.
國家自然科學基金項目(61271407,61301242);山東省自然科學基金項目(ZR2013FQ015);中央高?;究蒲袠I(yè)務費專項資金資助項目(14CX06066A).
王延江.E-mail: yjwang@upc.edu.cn.
TP391
A
1673-4785(2017)03-0310-08
姜英,女,1985年生,博士研究生,主要研究方向為計算機視覺、認知記憶建模。
王延江,男,1966 年生,教授,博士生導師,主要研究方向為模式識別與智能信息處理、人腦記憶計算建模以及人腦結(jié)構(gòu)與功能網(wǎng)絡連接分析。主持多項國家自然科學基金項目、山東省自然科學基金項目,發(fā)表學術論文100 余篇,其中被SCI、EI檢索40余篇。