馮 秋 燕
(河南財(cái)經(jīng)政法大學(xué) 河南 鄭州 453800)
圖像檢索在信息檢索中占據(jù)越來越重要的位置。就目前而言,對(duì)圖像檢索過程進(jìn)行改進(jìn)或優(yōu)化的方法有很多,文獻(xiàn)[1]指出對(duì)檢索結(jié)果進(jìn)行重排可以顯著提升檢索性能,這方面研究尚不成熟,本文采用混合馬爾科夫鏈模型和擴(kuò)散方法基于多特征融合對(duì)圖像檢索進(jìn)行研究。圖像檢索的目的是根據(jù)給定的目標(biāo)圖像尋找相同或相似的圖像,其中,給定的目標(biāo)圖像中并不附帶文本信息,通常是一個(gè)特定的對(duì)象,而不是一個(gè)類屬層,在類屬層面,僅需要識(shí)別對(duì)象類屬,如屬于人、動(dòng)物或景色?;诰植刻卣鞯腂OW[2]、SIFT描述器[3-4],被廣泛的用于檢索系統(tǒng)。文獻(xiàn)[5-8]討論了基于BOW性能與規(guī)模的改進(jìn)。文獻(xiàn)[9]提出了VLAD來平衡存儲(chǔ)足跡與檢索性能。
1.1 通過單一特征的圖像索引
文獻(xiàn)[2]采用了tf-idf方法,計(jì)算查詢對(duì)象和數(shù)據(jù)集圖像的BOW特征向量之間的相似性進(jìn)行檢索。文獻(xiàn)[8]使用了繼承聚類算法構(gòu)造詞匯樹以減少計(jì)算代價(jià),并應(yīng)用于大規(guī)模數(shù)據(jù)集。文獻(xiàn)[10-11]給予單詞更多可識(shí)別的BOW向量而不是量化描述器給一個(gè)可視化單詞。為了彌補(bǔ)基于標(biāo)準(zhǔn)BOW方法中空間信息的缺失,文獻(xiàn)[5]提出了使用SIFT描述器做圖像間的匹配。文獻(xiàn)[6-7,12]的查詢擴(kuò)展已經(jīng)被廣泛應(yīng)用于檢索對(duì)象的重排。
在特征設(shè)計(jì)方面,文獻(xiàn)[9]提出了VLAD做聚合描述。當(dāng)查詢比較少的存儲(chǔ)時(shí),效果比BOW好。文獻(xiàn)[13]提出基于VLAD向量標(biāo)記平方根,是對(duì)VLAD的改進(jìn)。文獻(xiàn)[12]基于原始SIFT用Hellinger內(nèi)核提出RootSIFT以解決標(biāo)準(zhǔn)BOW特征的突發(fā)性問題。目前還有一些基于這些工作的改進(jìn),如數(shù)據(jù)集特征聚合[14]、HSV顏色直方圖[15]等。
1.2 多重特征的圖像檢索
盡管單一特征能夠達(dá)到好的檢索結(jié)果,但融合多重特征將得到比較好的性能。因?yàn)槎嘀靥卣髂軓牟煌慕嵌让枋鰣D像。文獻(xiàn)[16]通過具體的特征將初始排列列表轉(zhuǎn)換為無向圖,對(duì)每個(gè)圖計(jì)算其K-近鄰,這樣每個(gè)圖的結(jié)點(diǎn)間的邊就代表了數(shù)據(jù)庫圖像間的關(guān)系。圖像間的相似性通過Jaccard相似度評(píng)估,但Jaccard相似度太粗糙,無法描述圖像間的組對(duì)關(guān)系。文獻(xiàn)[17]將從大型數(shù)據(jù)集中學(xué)習(xí)的屬性應(yīng)用于檢索數(shù)據(jù)庫。
1.3 多重特征學(xué)習(xí)
文獻(xiàn)[18]利用各個(gè)特征的信息,提出了一種分層回歸算法。文獻(xiàn)[19]通過多重特征將多個(gè)得分矩陣分解為低秩矩陣,該矩陣附加了特定特征的稀疏誤差。
2.1 概 況
本文提出了一種受監(jiān)督的數(shù)據(jù)驅(qū)動(dòng)方法,融合多重特征,以圖形表示方式重排數(shù)據(jù)庫圖像。對(duì)每一個(gè)特征,給定查詢對(duì)象與初始索引圖像,構(gòu)造一個(gè)無向圖,結(jié)點(diǎn)代表這些圖像,邊權(quán)重是圖像之間組對(duì)相似性得分。本文使用混合馬爾科夫鏈模型組合多重圖至一個(gè)圖。本文引入概率模型來計(jì)算每個(gè)特征在樸素貝葉斯公式下的重要性,采用迭代擴(kuò)散算法,以減少噪聲的影響,進(jìn)一步提升檢索性能。
2.2 相關(guān)概念與定理
2.2.1 相關(guān)概念
定義2易處理圖(Gm)。針對(duì)特征m,圖像間的組對(duì)關(guān)系被描述為圖,Gm=(Vm,Em,em),其中,Vm是圖像結(jié)點(diǎn)集合;Em是邊;em是邊的權(quán)重,權(quán)重em是在特征m下圖像之間的相似性。
定義4轉(zhuǎn)移矩陣(P)。給定親和力矩陣T,轉(zhuǎn)移矩陣定義為P=D-1T,其中,D是第i個(gè)對(duì)角元素的對(duì)角矩陣,d(i,i)=d(Vi),d(Vi)是融合圖中結(jié)點(diǎn)Vi的度。
定義5圖間轉(zhuǎn)移概率(pm′(Vi))。假設(shè)從易處理圖Gm中的結(jié)點(diǎn)Vi出發(fā),其中Vi∈V,結(jié)點(diǎn)Vi在易處理圖Gm′中選擇路徑的概率即圖間轉(zhuǎn)移概率為pm′(Vi)。
定義6結(jié)點(diǎn)轉(zhuǎn)移概率(pm(Vj|Vi))。pm(Vj|Vi)=em(Vi,Vj)/dm(Vi),其中,dm(Vi)=∑jem(Vi,Vj)是易處理圖Gm中Vi的度,易處理圖Gm的體積為圖中所有邊的權(quán)重的和,即volmV=∑Vi,Vj∈Vem(Vi,Vj)=∑Vi∈Vdm(Vi)。
定義7融合圖中結(jié)點(diǎn)轉(zhuǎn)移概率(pG(Vj|Vi))。pG(Vj|Vi)為融合圖G中從結(jié)點(diǎn)Vi到Vj的轉(zhuǎn)移概率。pG(Vj|Vi)=∑mpm(Vj|Vi)pm(Vi)。
定義8結(jié)點(diǎn)Vi的靜止?fàn)顟B(tài)(πm(Vi))。πm(Vi)=dm(Vi)/volmV。其中,dm(Vi)是易處理圖Gm中結(jié)點(diǎn)Vi的度。volmV是易處理圖Gm的體積。
2.2.2 相關(guān)定理
定理1p(Vj|Vi)=e(Vi,Vj)/π(Vi)
(1)
證明:由定義5、定義6、定義7、定義8,可得:
p(Vj|Vi)=∑mpm(Vj|Vi)pm(Vi)
(2)
pm(Vj|Vi)=em(Vi,Vj)/dm(Vi)
(3)
πm(Vi)=dm(Vi)/volmV
(4)
(5)
將式(3)、式(4)、式(5)代入式(2),可得:
(6)
融合圖中結(jié)點(diǎn)Vi與Vj之間邊的權(quán)重記為:
(7)
可得式(1),證明完畢。
2.3 構(gòu)造易處理圖
從所有r特征的初始檢索結(jié)果,本文完全獲得n個(gè)圖像。原始數(shù)據(jù)集可能會(huì)包含數(shù)百種圖像,由此可為每個(gè)檢索圖像得到一個(gè)查詢排列列表,由此,得到一個(gè)關(guān)于該檢索圖像的圖。本文僅選擇每個(gè)特征的排序?yàn)榍癓的檢索圖像根據(jù)定義2構(gòu)造易處理圖Gm。前L個(gè)檢索圖像的排列列表被認(rèn)為是短列表。定義所有圖的節(jié)點(diǎn)集合為V。對(duì)于每個(gè)易處理圖Gm,本文添加來自V但不是最初由特征m檢索的結(jié)點(diǎn)至圖中,連結(jié)先前的缺失結(jié)點(diǎn)與圖中初始檢索結(jié)點(diǎn)的邊也被添加。以這種方式,本文用缺失結(jié)點(diǎn)完成了每個(gè)易處理圖,每個(gè)易處理圖中都有相同的節(jié)點(diǎn)集合V,也包含了短列表中的結(jié)點(diǎn)間的組對(duì)關(guān)系。
因此,對(duì)r個(gè)特征,有r個(gè)圖集:
G={Gi,1≤i≤r}
(8)
根據(jù)定義3,有一組相同規(guī)模的圖像矩陣:
S={Sj,1≤j≤r}
(9)
2.4 構(gòu)造多特征融合圖
在2.3節(jié)得到親和力矩陣S后,然后用這些矩陣融合圖G中的圖。親和力矩陣應(yīng)當(dāng)是完備的并且不是稀疏矩陣,本文采用了基于文獻(xiàn)[20]中啟發(fā)的混合馬爾科夫鏈模型的概率方法。
根據(jù)定義5、定義6、定義7,從一個(gè)結(jié)點(diǎn)出發(fā),路徑選擇器首先選擇下一步的圖,然后選擇進(jìn)入該圖或者留在本圖中,根據(jù)圖像矩陣選擇相鄰結(jié)點(diǎn),如圖1所示。直觀地,p(Vj|Vi)與結(jié)點(diǎn)Vi和它的鄰居結(jié)點(diǎn)的邊相關(guān)。根據(jù)定義6,本文采用結(jié)點(diǎn)的度與圖的體積來計(jì)算p(Vj|Vi)。根據(jù)定義8,在這些步之后,隨機(jī)路徑選擇模型將達(dá)到一個(gè)靜止?fàn)顟B(tài)。
圖1 基于兩個(gè)圖的混合馬爾科夫模型
根據(jù)定理1基于無向圖的馬爾科夫鏈模型簡化為常規(guī)化的親和力矩陣的結(jié)點(diǎn)集合。因此,常規(guī)化所有親和力矩陣Sm至Tm,其中:
Tm=Sm/volmV
(10)
則有:
T={Tj,1≤j≤r}
(11)
(12)
式中,p(Ij∈P)與p(Ij∈Q)分別代表圖像Ij是對(duì)給定查詢圖像相似性或不相似性的邊緣概率。
(13)
式中:
(14)
(15)
(16)
ωm(Vi)=ρm(Vi)/∑ρm(Vi)
(17)
對(duì)圖Gm中的非查詢圖像Vj,本文設(shè)置r特征的權(quán)重均為:
ωm(Vj)=1/r
(18)
由此,得到權(quán)重向量:
ωm=(ωm(V1),ωm(V2),…,ωm(Vn))T
(19)
代表Gm中所有結(jié)點(diǎn)的權(quán)重。融合圖T的常規(guī)化親和矩陣由下式計(jì)算:
T=∑mdiag(ωm)·Tm
(20)
式中:在diag(ωm)∈Rn×n中的第i行的對(duì)角元素與ωm(Vi)相關(guān)。
2.5 擴(kuò)散過程
由2.4節(jié)可得新的親和力矩陣T,由T推斷新排序。通過對(duì)T進(jìn)行擴(kuò)散處理減少噪聲。方法是計(jì)算一個(gè)結(jié)點(diǎn)到它鄰居結(jié)點(diǎn)的相似性得分直至達(dá)到一種靜止?fàn)顟B(tài),本文采用迭代擴(kuò)散過程提高效率。根據(jù)定義4,建立一個(gè)矩陣:
(21)
(22)
式中,PK是K-NN圖GK的轉(zhuǎn)移矩陣,PK僅由每個(gè)結(jié)點(diǎn)與其K個(gè)最鄰近結(jié)點(diǎn)的相似性得分構(gòu)建,各邊的權(quán)重em(Vi,Vj)=0。
本文的融合方法的整個(gè)過程如算法1所示。
算法1基于擴(kuò)散的多特征重排算法
輸入:r階親和力矩陣S={Sj},其中,1≤j≤r;查詢圖像Ii
輸出:對(duì)Ii的重排結(jié)果
1. form=1 tordo
2.常規(guī)化Sm至Tm(見2.3節(jié)和2.4節(jié))
4.通過式(13),計(jì)算特定查詢置信度ρm(Vi)
5.計(jì)算式(19)中的權(quán)重向量ωm,其中,對(duì)每一個(gè)查詢結(jié)點(diǎn),根據(jù)式(17),有ωm(Vi)=ρm(Vi)/∑ρm(Vi),非查詢結(jié)點(diǎn),根據(jù)式(18),有ωm(Vj)=1/r
6.end for
7.通過式(20)得到融合圖的親和力矩陣T
8.對(duì)T使用融合過程
9.通過對(duì)查詢結(jié)點(diǎn)Ii的相關(guān)的行的相似性得分的排序,得出T的新排列。
3.1 實(shí)驗(yàn)的建立
本文使用4個(gè)廣泛使用的數(shù)據(jù)集,Holidays[22]、UKbench[8]、Oxford5k[5]、Paris6k[10]。本文使用現(xiàn)有的圖像檢索系統(tǒng)中廣泛使用的2個(gè)局部特征和2個(gè)全局特征。對(duì)評(píng)估矩陣,在UKbench數(shù)據(jù)集上使用N-S得分[8],在Holidays、Oxford5k、Paris6k數(shù)據(jù)集上使用平均精度(mAP)。
3.2 與已存方法的比較
首先,比較本文方法和已有的方法,見表1。在表1中,在UKbench上使用N-S得分,在其他數(shù)據(jù)集中使用mAP(in%)?!?”表示結(jié)果未報(bào)道。B、SV、MA、QE、WGC表示基準(zhǔn)(單個(gè)特征)、空間認(rèn)證[5]、多任務(wù)分配[10]、查詢擴(kuò)展[6-7,12]、弱幾何一致性[22]。在本文中,使用單一特征的基準(zhǔn)是沒有使用任何其他技術(shù)(如,空間認(rèn)證(SV),查詢擴(kuò)充(QE),多重任務(wù)分配(MA)或者弱幾何一致性(WGC)等)的組對(duì)相似性的初始檢索結(jié)果。文獻(xiàn)[16]、文獻(xiàn)[17]使用了多重特征提升檢索性能。與文獻(xiàn)[16]、文獻(xiàn)[17]相比較,本文僅僅使用了相似性得分,但融合算法極大地提高了基礎(chǔ)性能。
表1 與目前方法的比較
在表1中,BOW在不同數(shù)據(jù)集間的所有基準(zhǔn)中獲得了最佳的檢索性能,本文的多特征融合算法提高了所有數(shù)據(jù)集的檢索性能,并且優(yōu)于其他算法。在Holidays和UKbench數(shù)據(jù)集中,得到了88.3%mAP和3.86N-S 得分。與BOW算法相比,本文的融合算法使用簡單的概率模型,將結(jié)果在Holidays上提升了14.4%、在UKbench上提升了10.3%。文獻(xiàn)[16]也是基于圖形融合的,在Holidays提升了9.2%(77.5%~84.6%),在UKbench上提升了6.5%(3.54~3.77)。文獻(xiàn)[17]分別提升了9.6%(73.8%~80.9%)和5.4%(3.42~3.6)。與其他基于單一特征的具有復(fù)雜處理過程的方法相比,本文的融合方法僅取決于相似性得分計(jì)算查詢特定權(quán)重并執(zhí)行擴(kuò)散過程,利用更可靠的圖像之間的關(guān)系信息,從而產(chǎn)生更好的檢索結(jié)果。
在Oxford5k和Paris6k數(shù)據(jù)集中,由于視點(diǎn)變化大、背景混亂、ROI受限約束區(qū)域,顏色特征僅僅達(dá)到8.5% mAP和8.4%mAP。此外,VLAD和GIST性能也下降。與文獻(xiàn)[16]不同,本文并沒有刪除劣勢(shì)特征,無偏見的包含了融合中的所有特征。本文的融合大大提升了檢索性能。實(shí)驗(yàn)揭示了本文的融合是魯棒的,并沒有被單一劣勢(shì)特征(如顏色特征)所惡化。在Oxford5k上提升了最佳基準(zhǔn) (BOW)13.1%,達(dá)到了76.2%mAP,性能優(yōu)于文獻(xiàn)[17]。在Paris6k上,本文的融合將mAP從69.3%提升至83.3%,并沒有使用空間認(rèn)證、查詢擴(kuò)展和其他技術(shù),相對(duì)提升了20.1%。在Oxford5k與Paris6k上,單一特征并不能夠較好地區(qū)分不同的圖像和多重特征。重排結(jié)果如圖2所示。
圖2 本文融合方法在Holidays數(shù)據(jù)集上檢索圖像的實(shí)例
圖2是由4個(gè)特征和本文融合方法在Holidays數(shù)據(jù)集上檢索圖像的例子,最左邊的圖片是查詢對(duì)象。如果檢索到的圖像與查詢具有較高相似性分?jǐn)?shù),則排名靠前,具有黑邊虛線框的圖像是正確的匹配。
4.1 評(píng)估組件
首先評(píng)估本文方法的各個(gè)組件的重要性。添加或刪除組件并測(cè)量精度變化。使用多重特征的原始親和力矩陣,可以通過選擇所有基準(zhǔn)中最大mAP來測(cè)量精度,表示為B。融合方法標(biāo)記等量權(quán)重和特定查詢權(quán)重分別為EW和QW,這些結(jié)果直接從沒有擴(kuò)散的組合親和矩陣中推斷。EW和QW方法使用所有的數(shù)據(jù)集圖像。使用短列表的兩個(gè)變體表示為SL+QW和SL+EW。本文的整體框架標(biāo)記為SL+QW+DP,而使用EW和SL擴(kuò)散的變體表示為SL+EW+DP。在測(cè)試數(shù)據(jù)集中的比較如表2所示。
表2 本文方法中不同變量的檢索性能
續(xù)表2
QW和DP都提升了性能,同時(shí)使用適當(dāng)?shù)腟L也提高了精度。具體來說,在大多數(shù)情況下,QW的結(jié)果比EW更好,顯示了從相似性得分統(tǒng)計(jì)得出的概率模型的有效性。并且,如果要查詢大量的相關(guān)圖像(Oxford5k和Paris6K),需要在短列表中包含更多圖像以獲得良好的結(jié)果;否則性能會(huì)下降到最佳基準(zhǔn)以下,因?yàn)樵S多相似的圖像會(huì)從融合圖中排除。相比之下,當(dāng)只有幾個(gè)相似的圖像被檢索時(shí),一個(gè)小的短列表就足夠了。因此,可以控制短列表的長度以實(shí)現(xiàn)計(jì)算復(fù)雜度與準(zhǔn)確度的平衡。
4.2 評(píng)估參數(shù)
本文方法具有幾個(gè)參數(shù)需要設(shè)置:短列表L的長度,易處理圖中最近鄰居數(shù)K和用于將歐氏距離轉(zhuǎn)換為VLAD,GIST和顏色特征的相似性得分的σ,為了評(píng)估本文方法對(duì)這些參數(shù)的敏感性,本文每次改變一個(gè)參數(shù)進(jìn)行實(shí)驗(yàn)。關(guān)于不同L的檢索結(jié)果如表2所示,圖3(a)、圖3(b)、圖3(c)分別表示擴(kuò)散過程載VLAD、GIST、顏色特征下不同σ取值的性能。圖3(d)表示擴(kuò)散過程中K-NN圖中不同K值的性能圖。
圖3 評(píng)估參數(shù)性能
在表2中,UKbench的N-S得分,其他數(shù)據(jù)集的mAP(%)。只要這些參數(shù)在一個(gè)合理的范圍內(nèi),本文的方法是魯棒的、對(duì)這些參數(shù)并不敏感。
4.3 評(píng)估特征組合
本節(jié)使用不同的特征組合進(jìn)行實(shí)驗(yàn),以進(jìn)一步證明本文融合算法的有效性。B、V、G、C分別代表BOW、VLAD、GIST、顏色特征。圖4(a)-(d)分別表示Holidays、Ukbench、Oxford5k、Paris6k不同K值下不同特征組合的性能。在Holidays、UKbench、Oxford5k和Paris6k數(shù)據(jù)集中,VLAD+GIST+顏色特征的最佳效果分別為52.4%、2.91%、30.5%、40.3%。在大多數(shù)情況下,所有4個(gè)特征的融合組合都能獲得最佳效果,這些數(shù)據(jù)驗(yàn)證了本文融合算法的有效性,并且不容易受到較差特征(指顏色特征)的影響。本文的融合并不需要對(duì)需要融合的特征的數(shù)量或者類型進(jìn)行任何限制。
圖4 評(píng)估特征性能
本文將多特征融合與擴(kuò)散引入了圖像重排算法用于圖像檢索。利用圖像之間的組對(duì)相似性得分來推斷其間的關(guān)系?;趩我惶卣鞯某跏寂判虮幻枋鰹橐粋€(gè)易處理圖,邊的權(quán)重是相似性得分。通過混合馬爾科夫模型將易處理圖融合,利用相似性得分統(tǒng)計(jì)的概率模型計(jì)算特定查詢權(quán)重。將擴(kuò)散應(yīng)用于融合圖以減少噪聲。本文的方法顯著并且持續(xù)地提升了基準(zhǔn)性能,對(duì)參數(shù)的變化也是魯棒的。
下一步的工作是減少人工標(biāo)注,進(jìn)一步研究基于子模型目標(biāo)函數(shù)的完全無監(jiān)督的重排算法,可以通過貪心算法進(jìn)行有效的優(yōu)化,基于此,研究一個(gè)更明確的有針對(duì)性的應(yīng)用程序。
參考文獻(xiàn)
[1] 周曄,張軍平.基于多尺度深度學(xué)習(xí)的商品圖像檢索[J].計(jì)算機(jī)研究與發(fā)展,2016 54(8):1824-1832.
[2] Sivic J, Zisserman A. Video Google: A Text Retrieval Approach to Object Matching in Videos[C]// IEEE International Conference on Computer Vision. IEEE Computer Society, 2003:1470.
[3] Qin D, Wengert C, Gool L V. Query Adaptive Similarity for Large Scale Object Retrieval[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2013:1610-1617.
[4] Douze M, Sandhawalia H, Amsaleg L, et al. Evaluation of GIST descriptors for web-scale image search[C]// ACM International Conference on Image and Video Retrieval. 2009:1-8.
[5] Philbin J, Chum O, Isard M, et al. Object retrieval with large vocabularies and fast spatial matching[C]// Computer Vision and Pattern Recognition, 2007. CVPR’07. IEEE Conference on. IEEE, 2007:1-8.
[6] Chum O, Mikulik A, Perdoch M, et al. Total recall II: Query expansion revisited[C]// Computer Vision and Pattern Recognition. IEEE, 2011:889-896.
[7] Chum O, Philbin J, Sivic J, et al. Total Recall: Automatic Query Expansion with a Generative Feature Model for Object Retrieval[C]// IEEE, International Conference on Computer Vision. IEEE, 2007:1-8.
[8] Nister D, Stewenius H. Robust Scalable Recognition with a Vocabulary Tree[J]. Proc Cvpr, 2006, 2(10):2161-2168.
[9] Jégou H, Douze M, Schmid C, et al. Aggregating local descriptors into a compact image representation[C]// Computer Vision and Pattern Recognition. IEEE, 2010:3304-3311.
[10] Philbin J, Chum O, Isard M, et al. Lost in quantization: Improving particular object retrieval in large scale image databases[C]// 2008 IEEE Conference on Computer Vision and Pattern Recognition. 2008:1-8.
[11] Jegou H, Douze M, Schmid C. On the burstiness of visual elements[C]// Computer Vision and Pattern Recognition, 2009. CVPR 2009. IEEE Conference on. IEEE, 2009:1169-1176.
[13] Jégou H, Perronnin F, Douze M, et al. Aggregating local image descriptors into compact codes[J]. IEEE Trans Pattern Anal Mach Intell, 2012, 34(9):1704-1716.
[14] Tolias G, Avrithis Y, Jégou H. To Aggregate or Not to aggregate: Selective Match Kernels for Image Search[C]// IEEE International Conference on Computer Vision. IEEE, 2014:1401-1408.
[15] Mikulík A, Perdoch M, Chum O, et al. Learning a Fine Vocabulary[M]// Computer Vision - ECCV 2010. Springer Berlin Heidelberg, 2010:1-14.
[16] Zhang S, Yang M, Cour T, et al. Query specific fusion for image retrieval[C]// European Conference on Computer Vision. Springer-Verlag, 2012:660-673.
[17] Zhang S, Yang M, Wang X, et al. Semantic-Aware Co-indexing for Image Retrieval[C]// IEEE International Conference on Computer Vision. IEEE Computer Society, 2013:1673-1680.
[18] Yang Y, Song J, Huang Z, et al. Multi-Feature Fusion via Hierarchical Regression for Multimedia Analysis[J]. IEEE Transactions on Multimedia, 2013, 15(3):572-581.
[19] Ye Guangnan, Liu Dong, Jhuo I-Hong, et al. Robust late fusion with rank minimization[C]// Computer Vision and Pattern Recognition. IEEE, 2012:3021-3028.
[20] Qin D, Gammeter S, Bossard L, et al. Hello neighbor: Accurate object retrieval with k-reciprocal nearest neighbors[C]// Computer Vision and Pattern Recognition. IEEE, 2011:777-784.
[21] Yang X, Koknar-Tezel S, Latecki L J. Locally constrained diffusion process on locally densified distance spaces with applications to shape retrieval[C]// Computer Vision and Pattern Recognition, 2009. CVPR 2009. IEEE Conference on. IEEE, 2009:357-364.
[22] Jegou H, Douze M, Schmid C. Hamming Embedding and Weak Geometric Consistency for Large Scale Image Search[M]// Computer Vision-ECCV 2008.OAI,2008:304-317.