亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于混合馬爾科夫鏈模型和擴(kuò)散的圖像檢索

        2018-05-22 07:35:06
        關(guān)鍵詞:結(jié)點(diǎn)相似性檢索

        馮 秋 燕

        (河南財(cái)經(jīng)政法大學(xué) 河南 鄭州 453800)

        0 引 言

        圖像檢索在信息檢索中占據(jù)越來越重要的位置。就目前而言,對(duì)圖像檢索過程進(jìn)行改進(jìn)或優(yōu)化的方法有很多,文獻(xiàn)[1]指出對(duì)檢索結(jié)果進(jìn)行重排可以顯著提升檢索性能,這方面研究尚不成熟,本文采用混合馬爾科夫鏈模型和擴(kuò)散方法基于多特征融合對(duì)圖像檢索進(jìn)行研究。圖像檢索的目的是根據(jù)給定的目標(biāo)圖像尋找相同或相似的圖像,其中,給定的目標(biāo)圖像中并不附帶文本信息,通常是一個(gè)特定的對(duì)象,而不是一個(gè)類屬層,在類屬層面,僅需要識(shí)別對(duì)象類屬,如屬于人、動(dòng)物或景色?;诰植刻卣鞯腂OW[2]、SIFT描述器[3-4],被廣泛的用于檢索系統(tǒng)。文獻(xiàn)[5-8]討論了基于BOW性能與規(guī)模的改進(jìn)。文獻(xiàn)[9]提出了VLAD來平衡存儲(chǔ)足跡與檢索性能。

        1 研究現(xiàn)狀

        1.1 通過單一特征的圖像索引

        文獻(xiàn)[2]采用了tf-idf方法,計(jì)算查詢對(duì)象和數(shù)據(jù)集圖像的BOW特征向量之間的相似性進(jìn)行檢索。文獻(xiàn)[8]使用了繼承聚類算法構(gòu)造詞匯樹以減少計(jì)算代價(jià),并應(yīng)用于大規(guī)模數(shù)據(jù)集。文獻(xiàn)[10-11]給予單詞更多可識(shí)別的BOW向量而不是量化描述器給一個(gè)可視化單詞。為了彌補(bǔ)基于標(biāo)準(zhǔn)BOW方法中空間信息的缺失,文獻(xiàn)[5]提出了使用SIFT描述器做圖像間的匹配。文獻(xiàn)[6-7,12]的查詢擴(kuò)展已經(jīng)被廣泛應(yīng)用于檢索對(duì)象的重排。

        在特征設(shè)計(jì)方面,文獻(xiàn)[9]提出了VLAD做聚合描述。當(dāng)查詢比較少的存儲(chǔ)時(shí),效果比BOW好。文獻(xiàn)[13]提出基于VLAD向量標(biāo)記平方根,是對(duì)VLAD的改進(jìn)。文獻(xiàn)[12]基于原始SIFT用Hellinger內(nèi)核提出RootSIFT以解決標(biāo)準(zhǔn)BOW特征的突發(fā)性問題。目前還有一些基于這些工作的改進(jìn),如數(shù)據(jù)集特征聚合[14]、HSV顏色直方圖[15]等。

        1.2 多重特征的圖像檢索

        盡管單一特征能夠達(dá)到好的檢索結(jié)果,但融合多重特征將得到比較好的性能。因?yàn)槎嘀靥卣髂軓牟煌慕嵌让枋鰣D像。文獻(xiàn)[16]通過具體的特征將初始排列列表轉(zhuǎn)換為無向圖,對(duì)每個(gè)圖計(jì)算其K-近鄰,這樣每個(gè)圖的結(jié)點(diǎn)間的邊就代表了數(shù)據(jù)庫圖像間的關(guān)系。圖像間的相似性通過Jaccard相似度評(píng)估,但Jaccard相似度太粗糙,無法描述圖像間的組對(duì)關(guān)系。文獻(xiàn)[17]將從大型數(shù)據(jù)集中學(xué)習(xí)的屬性應(yīng)用于檢索數(shù)據(jù)庫。

        1.3 多重特征學(xué)習(xí)

        文獻(xiàn)[18]利用各個(gè)特征的信息,提出了一種分層回歸算法。文獻(xiàn)[19]通過多重特征將多個(gè)得分矩陣分解為低秩矩陣,該矩陣附加了特定特征的稀疏誤差。

        2 提出的方法

        2.1 概 況

        本文提出了一種受監(jiān)督的數(shù)據(jù)驅(qū)動(dòng)方法,融合多重特征,以圖形表示方式重排數(shù)據(jù)庫圖像。對(duì)每一個(gè)特征,給定查詢對(duì)象與初始索引圖像,構(gòu)造一個(gè)無向圖,結(jié)點(diǎn)代表這些圖像,邊權(quán)重是圖像之間組對(duì)相似性得分。本文使用混合馬爾科夫鏈模型組合多重圖至一個(gè)圖。本文引入概率模型來計(jì)算每個(gè)特征在樸素貝葉斯公式下的重要性,采用迭代擴(kuò)散算法,以減少噪聲的影響,進(jìn)一步提升檢索性能。

        2.2 相關(guān)概念與定理

        2.2.1 相關(guān)概念

        定義2易處理圖(Gm)。針對(duì)特征m,圖像間的組對(duì)關(guān)系被描述為圖,Gm=(Vm,Em,em),其中,Vm是圖像結(jié)點(diǎn)集合;Em是邊;em是邊的權(quán)重,權(quán)重em是在特征m下圖像之間的相似性。

        定義4轉(zhuǎn)移矩陣(P)。給定親和力矩陣T,轉(zhuǎn)移矩陣定義為P=D-1T,其中,D是第i個(gè)對(duì)角元素的對(duì)角矩陣,d(i,i)=d(Vi),d(Vi)是融合圖中結(jié)點(diǎn)Vi的度。

        定義5圖間轉(zhuǎn)移概率(pm′(Vi))。假設(shè)從易處理圖Gm中的結(jié)點(diǎn)Vi出發(fā),其中Vi∈V,結(jié)點(diǎn)Vi在易處理圖Gm′中選擇路徑的概率即圖間轉(zhuǎn)移概率為pm′(Vi)。

        定義6結(jié)點(diǎn)轉(zhuǎn)移概率(pm(Vj|Vi))。pm(Vj|Vi)=em(Vi,Vj)/dm(Vi),其中,dm(Vi)=∑jem(Vi,Vj)是易處理圖Gm中Vi的度,易處理圖Gm的體積為圖中所有邊的權(quán)重的和,即volmV=∑Vi,Vj∈Vem(Vi,Vj)=∑Vi∈Vdm(Vi)。

        定義7融合圖中結(jié)點(diǎn)轉(zhuǎn)移概率(pG(Vj|Vi))。pG(Vj|Vi)為融合圖G中從結(jié)點(diǎn)Vi到Vj的轉(zhuǎn)移概率。pG(Vj|Vi)=∑mpm(Vj|Vi)pm(Vi)。

        定義8結(jié)點(diǎn)Vi的靜止?fàn)顟B(tài)(πm(Vi))。πm(Vi)=dm(Vi)/volmV。其中,dm(Vi)是易處理圖Gm中結(jié)點(diǎn)Vi的度。volmV是易處理圖Gm的體積。

        2.2.2 相關(guān)定理

        定理1p(Vj|Vi)=e(Vi,Vj)/π(Vi)

        (1)

        證明:由定義5、定義6、定義7、定義8,可得:

        p(Vj|Vi)=∑mpm(Vj|Vi)pm(Vi)

        (2)

        pm(Vj|Vi)=em(Vi,Vj)/dm(Vi)

        (3)

        πm(Vi)=dm(Vi)/volmV

        (4)

        (5)

        將式(3)、式(4)、式(5)代入式(2),可得:

        (6)

        融合圖中結(jié)點(diǎn)Vi與Vj之間邊的權(quán)重記為:

        (7)

        可得式(1),證明完畢。

        2.3 構(gòu)造易處理圖

        從所有r特征的初始檢索結(jié)果,本文完全獲得n個(gè)圖像。原始數(shù)據(jù)集可能會(huì)包含數(shù)百種圖像,由此可為每個(gè)檢索圖像得到一個(gè)查詢排列列表,由此,得到一個(gè)關(guān)于該檢索圖像的圖。本文僅選擇每個(gè)特征的排序?yàn)榍癓的檢索圖像根據(jù)定義2構(gòu)造易處理圖Gm。前L個(gè)檢索圖像的排列列表被認(rèn)為是短列表。定義所有圖的節(jié)點(diǎn)集合為V。對(duì)于每個(gè)易處理圖Gm,本文添加來自V但不是最初由特征m檢索的結(jié)點(diǎn)至圖中,連結(jié)先前的缺失結(jié)點(diǎn)與圖中初始檢索結(jié)點(diǎn)的邊也被添加。以這種方式,本文用缺失結(jié)點(diǎn)完成了每個(gè)易處理圖,每個(gè)易處理圖中都有相同的節(jié)點(diǎn)集合V,也包含了短列表中的結(jié)點(diǎn)間的組對(duì)關(guān)系。

        因此,對(duì)r個(gè)特征,有r個(gè)圖集:

        G={Gi,1≤i≤r}

        (8)

        根據(jù)定義3,有一組相同規(guī)模的圖像矩陣:

        S={Sj,1≤j≤r}

        (9)

        2.4 構(gòu)造多特征融合圖

        在2.3節(jié)得到親和力矩陣S后,然后用這些矩陣融合圖G中的圖。親和力矩陣應(yīng)當(dāng)是完備的并且不是稀疏矩陣,本文采用了基于文獻(xiàn)[20]中啟發(fā)的混合馬爾科夫鏈模型的概率方法。

        根據(jù)定義5、定義6、定義7,從一個(gè)結(jié)點(diǎn)出發(fā),路徑選擇器首先選擇下一步的圖,然后選擇進(jìn)入該圖或者留在本圖中,根據(jù)圖像矩陣選擇相鄰結(jié)點(diǎn),如圖1所示。直觀地,p(Vj|Vi)與結(jié)點(diǎn)Vi和它的鄰居結(jié)點(diǎn)的邊相關(guān)。根據(jù)定義6,本文采用結(jié)點(diǎn)的度與圖的體積來計(jì)算p(Vj|Vi)。根據(jù)定義8,在這些步之后,隨機(jī)路徑選擇模型將達(dá)到一個(gè)靜止?fàn)顟B(tài)。

        圖1 基于兩個(gè)圖的混合馬爾科夫模型

        根據(jù)定理1基于無向圖的馬爾科夫鏈模型簡化為常規(guī)化的親和力矩陣的結(jié)點(diǎn)集合。因此,常規(guī)化所有親和力矩陣Sm至Tm,其中:

        Tm=Sm/volmV

        (10)

        則有:

        T={Tj,1≤j≤r}

        (11)

        (12)

        式中,p(Ij∈P)與p(Ij∈Q)分別代表圖像Ij是對(duì)給定查詢圖像相似性或不相似性的邊緣概率。

        (13)

        式中:

        (14)

        (15)

        (16)

        ωm(Vi)=ρm(Vi)/∑ρm(Vi)

        (17)

        對(duì)圖Gm中的非查詢圖像Vj,本文設(shè)置r特征的權(quán)重均為:

        ωm(Vj)=1/r

        (18)

        由此,得到權(quán)重向量:

        ωm=(ωm(V1),ωm(V2),…,ωm(Vn))T

        (19)

        代表Gm中所有結(jié)點(diǎn)的權(quán)重。融合圖T的常規(guī)化親和矩陣由下式計(jì)算:

        T=∑mdiag(ωm)·Tm

        (20)

        式中:在diag(ωm)∈Rn×n中的第i行的對(duì)角元素與ωm(Vi)相關(guān)。

        2.5 擴(kuò)散過程

        由2.4節(jié)可得新的親和力矩陣T,由T推斷新排序。通過對(duì)T進(jìn)行擴(kuò)散處理減少噪聲。方法是計(jì)算一個(gè)結(jié)點(diǎn)到它鄰居結(jié)點(diǎn)的相似性得分直至達(dá)到一種靜止?fàn)顟B(tài),本文采用迭代擴(kuò)散過程提高效率。根據(jù)定義4,建立一個(gè)矩陣:

        (21)

        (22)

        式中,PK是K-NN圖GK的轉(zhuǎn)移矩陣,PK僅由每個(gè)結(jié)點(diǎn)與其K個(gè)最鄰近結(jié)點(diǎn)的相似性得分構(gòu)建,各邊的權(quán)重em(Vi,Vj)=0。

        本文的融合方法的整個(gè)過程如算法1所示。

        算法1基于擴(kuò)散的多特征重排算法

        輸入:r階親和力矩陣S={Sj},其中,1≤j≤r;查詢圖像Ii

        輸出:對(duì)Ii的重排結(jié)果

        1. form=1 tordo

        2.常規(guī)化Sm至Tm(見2.3節(jié)和2.4節(jié))

        4.通過式(13),計(jì)算特定查詢置信度ρm(Vi)

        5.計(jì)算式(19)中的權(quán)重向量ωm,其中,對(duì)每一個(gè)查詢結(jié)點(diǎn),根據(jù)式(17),有ωm(Vi)=ρm(Vi)/∑ρm(Vi),非查詢結(jié)點(diǎn),根據(jù)式(18),有ωm(Vj)=1/r

        6.end for

        7.通過式(20)得到融合圖的親和力矩陣T

        8.對(duì)T使用融合過程

        9.通過對(duì)查詢結(jié)點(diǎn)Ii的相關(guān)的行的相似性得分的排序,得出T的新排列。

        3 實(shí) 驗(yàn)

        3.1 實(shí)驗(yàn)的建立

        本文使用4個(gè)廣泛使用的數(shù)據(jù)集,Holidays[22]、UKbench[8]、Oxford5k[5]、Paris6k[10]。本文使用現(xiàn)有的圖像檢索系統(tǒng)中廣泛使用的2個(gè)局部特征和2個(gè)全局特征。對(duì)評(píng)估矩陣,在UKbench數(shù)據(jù)集上使用N-S得分[8],在Holidays、Oxford5k、Paris6k數(shù)據(jù)集上使用平均精度(mAP)。

        3.2 與已存方法的比較

        首先,比較本文方法和已有的方法,見表1。在表1中,在UKbench上使用N-S得分,在其他數(shù)據(jù)集中使用mAP(in%)?!?”表示結(jié)果未報(bào)道。B、SV、MA、QE、WGC表示基準(zhǔn)(單個(gè)特征)、空間認(rèn)證[5]、多任務(wù)分配[10]、查詢擴(kuò)展[6-7,12]、弱幾何一致性[22]。在本文中,使用單一特征的基準(zhǔn)是沒有使用任何其他技術(shù)(如,空間認(rèn)證(SV),查詢擴(kuò)充(QE),多重任務(wù)分配(MA)或者弱幾何一致性(WGC)等)的組對(duì)相似性的初始檢索結(jié)果。文獻(xiàn)[16]、文獻(xiàn)[17]使用了多重特征提升檢索性能。與文獻(xiàn)[16]、文獻(xiàn)[17]相比較,本文僅僅使用了相似性得分,但融合算法極大地提高了基礎(chǔ)性能。

        表1 與目前方法的比較

        在表1中,BOW在不同數(shù)據(jù)集間的所有基準(zhǔn)中獲得了最佳的檢索性能,本文的多特征融合算法提高了所有數(shù)據(jù)集的檢索性能,并且優(yōu)于其他算法。在Holidays和UKbench數(shù)據(jù)集中,得到了88.3%mAP和3.86N-S 得分。與BOW算法相比,本文的融合算法使用簡單的概率模型,將結(jié)果在Holidays上提升了14.4%、在UKbench上提升了10.3%。文獻(xiàn)[16]也是基于圖形融合的,在Holidays提升了9.2%(77.5%~84.6%),在UKbench上提升了6.5%(3.54~3.77)。文獻(xiàn)[17]分別提升了9.6%(73.8%~80.9%)和5.4%(3.42~3.6)。與其他基于單一特征的具有復(fù)雜處理過程的方法相比,本文的融合方法僅取決于相似性得分計(jì)算查詢特定權(quán)重并執(zhí)行擴(kuò)散過程,利用更可靠的圖像之間的關(guān)系信息,從而產(chǎn)生更好的檢索結(jié)果。

        在Oxford5k和Paris6k數(shù)據(jù)集中,由于視點(diǎn)變化大、背景混亂、ROI受限約束區(qū)域,顏色特征僅僅達(dá)到8.5% mAP和8.4%mAP。此外,VLAD和GIST性能也下降。與文獻(xiàn)[16]不同,本文并沒有刪除劣勢(shì)特征,無偏見的包含了融合中的所有特征。本文的融合大大提升了檢索性能。實(shí)驗(yàn)揭示了本文的融合是魯棒的,并沒有被單一劣勢(shì)特征(如顏色特征)所惡化。在Oxford5k上提升了最佳基準(zhǔn) (BOW)13.1%,達(dá)到了76.2%mAP,性能優(yōu)于文獻(xiàn)[17]。在Paris6k上,本文的融合將mAP從69.3%提升至83.3%,并沒有使用空間認(rèn)證、查詢擴(kuò)展和其他技術(shù),相對(duì)提升了20.1%。在Oxford5k與Paris6k上,單一特征并不能夠較好地區(qū)分不同的圖像和多重特征。重排結(jié)果如圖2所示。

        圖2 本文融合方法在Holidays數(shù)據(jù)集上檢索圖像的實(shí)例

        圖2是由4個(gè)特征和本文融合方法在Holidays數(shù)據(jù)集上檢索圖像的例子,最左邊的圖片是查詢對(duì)象。如果檢索到的圖像與查詢具有較高相似性分?jǐn)?shù),則排名靠前,具有黑邊虛線框的圖像是正確的匹配。

        4 討論與分析

        4.1 評(píng)估組件

        首先評(píng)估本文方法的各個(gè)組件的重要性。添加或刪除組件并測(cè)量精度變化。使用多重特征的原始親和力矩陣,可以通過選擇所有基準(zhǔn)中最大mAP來測(cè)量精度,表示為B。融合方法標(biāo)記等量權(quán)重和特定查詢權(quán)重分別為EW和QW,這些結(jié)果直接從沒有擴(kuò)散的組合親和矩陣中推斷。EW和QW方法使用所有的數(shù)據(jù)集圖像。使用短列表的兩個(gè)變體表示為SL+QW和SL+EW。本文的整體框架標(biāo)記為SL+QW+DP,而使用EW和SL擴(kuò)散的變體表示為SL+EW+DP。在測(cè)試數(shù)據(jù)集中的比較如表2所示。

        表2 本文方法中不同變量的檢索性能

        續(xù)表2

        QW和DP都提升了性能,同時(shí)使用適當(dāng)?shù)腟L也提高了精度。具體來說,在大多數(shù)情況下,QW的結(jié)果比EW更好,顯示了從相似性得分統(tǒng)計(jì)得出的概率模型的有效性。并且,如果要查詢大量的相關(guān)圖像(Oxford5k和Paris6K),需要在短列表中包含更多圖像以獲得良好的結(jié)果;否則性能會(huì)下降到最佳基準(zhǔn)以下,因?yàn)樵S多相似的圖像會(huì)從融合圖中排除。相比之下,當(dāng)只有幾個(gè)相似的圖像被檢索時(shí),一個(gè)小的短列表就足夠了。因此,可以控制短列表的長度以實(shí)現(xiàn)計(jì)算復(fù)雜度與準(zhǔn)確度的平衡。

        4.2 評(píng)估參數(shù)

        本文方法具有幾個(gè)參數(shù)需要設(shè)置:短列表L的長度,易處理圖中最近鄰居數(shù)K和用于將歐氏距離轉(zhuǎn)換為VLAD,GIST和顏色特征的相似性得分的σ,為了評(píng)估本文方法對(duì)這些參數(shù)的敏感性,本文每次改變一個(gè)參數(shù)進(jìn)行實(shí)驗(yàn)。關(guān)于不同L的檢索結(jié)果如表2所示,圖3(a)、圖3(b)、圖3(c)分別表示擴(kuò)散過程載VLAD、GIST、顏色特征下不同σ取值的性能。圖3(d)表示擴(kuò)散過程中K-NN圖中不同K值的性能圖。

        圖3 評(píng)估參數(shù)性能

        在表2中,UKbench的N-S得分,其他數(shù)據(jù)集的mAP(%)。只要這些參數(shù)在一個(gè)合理的范圍內(nèi),本文的方法是魯棒的、對(duì)這些參數(shù)并不敏感。

        4.3 評(píng)估特征組合

        本節(jié)使用不同的特征組合進(jìn)行實(shí)驗(yàn),以進(jìn)一步證明本文融合算法的有效性。B、V、G、C分別代表BOW、VLAD、GIST、顏色特征。圖4(a)-(d)分別表示Holidays、Ukbench、Oxford5k、Paris6k不同K值下不同特征組合的性能。在Holidays、UKbench、Oxford5k和Paris6k數(shù)據(jù)集中,VLAD+GIST+顏色特征的最佳效果分別為52.4%、2.91%、30.5%、40.3%。在大多數(shù)情況下,所有4個(gè)特征的融合組合都能獲得最佳效果,這些數(shù)據(jù)驗(yàn)證了本文融合算法的有效性,并且不容易受到較差特征(指顏色特征)的影響。本文的融合并不需要對(duì)需要融合的特征的數(shù)量或者類型進(jìn)行任何限制。

        圖4 評(píng)估特征性能

        5 結(jié) 語

        本文將多特征融合與擴(kuò)散引入了圖像重排算法用于圖像檢索。利用圖像之間的組對(duì)相似性得分來推斷其間的關(guān)系?;趩我惶卣鞯某跏寂判虮幻枋鰹橐粋€(gè)易處理圖,邊的權(quán)重是相似性得分。通過混合馬爾科夫模型將易處理圖融合,利用相似性得分統(tǒng)計(jì)的概率模型計(jì)算特定查詢權(quán)重。將擴(kuò)散應(yīng)用于融合圖以減少噪聲。本文的方法顯著并且持續(xù)地提升了基準(zhǔn)性能,對(duì)參數(shù)的變化也是魯棒的。

        下一步的工作是減少人工標(biāo)注,進(jìn)一步研究基于子模型目標(biāo)函數(shù)的完全無監(jiān)督的重排算法,可以通過貪心算法進(jìn)行有效的優(yōu)化,基于此,研究一個(gè)更明確的有針對(duì)性的應(yīng)用程序。

        參考文獻(xiàn)

        [1] 周曄,張軍平.基于多尺度深度學(xué)習(xí)的商品圖像檢索[J].計(jì)算機(jī)研究與發(fā)展,2016 54(8):1824-1832.

        [2] Sivic J, Zisserman A. Video Google: A Text Retrieval Approach to Object Matching in Videos[C]// IEEE International Conference on Computer Vision. IEEE Computer Society, 2003:1470.

        [3] Qin D, Wengert C, Gool L V. Query Adaptive Similarity for Large Scale Object Retrieval[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2013:1610-1617.

        [4] Douze M, Sandhawalia H, Amsaleg L, et al. Evaluation of GIST descriptors for web-scale image search[C]// ACM International Conference on Image and Video Retrieval. 2009:1-8.

        [5] Philbin J, Chum O, Isard M, et al. Object retrieval with large vocabularies and fast spatial matching[C]// Computer Vision and Pattern Recognition, 2007. CVPR’07. IEEE Conference on. IEEE, 2007:1-8.

        [6] Chum O, Mikulik A, Perdoch M, et al. Total recall II: Query expansion revisited[C]// Computer Vision and Pattern Recognition. IEEE, 2011:889-896.

        [7] Chum O, Philbin J, Sivic J, et al. Total Recall: Automatic Query Expansion with a Generative Feature Model for Object Retrieval[C]// IEEE, International Conference on Computer Vision. IEEE, 2007:1-8.

        [8] Nister D, Stewenius H. Robust Scalable Recognition with a Vocabulary Tree[J]. Proc Cvpr, 2006, 2(10):2161-2168.

        [9] Jégou H, Douze M, Schmid C, et al. Aggregating local descriptors into a compact image representation[C]// Computer Vision and Pattern Recognition. IEEE, 2010:3304-3311.

        [10] Philbin J, Chum O, Isard M, et al. Lost in quantization: Improving particular object retrieval in large scale image databases[C]// 2008 IEEE Conference on Computer Vision and Pattern Recognition. 2008:1-8.

        [11] Jegou H, Douze M, Schmid C. On the burstiness of visual elements[C]// Computer Vision and Pattern Recognition, 2009. CVPR 2009. IEEE Conference on. IEEE, 2009:1169-1176.

        [13] Jégou H, Perronnin F, Douze M, et al. Aggregating local image descriptors into compact codes[J]. IEEE Trans Pattern Anal Mach Intell, 2012, 34(9):1704-1716.

        [14] Tolias G, Avrithis Y, Jégou H. To Aggregate or Not to aggregate: Selective Match Kernels for Image Search[C]// IEEE International Conference on Computer Vision. IEEE, 2014:1401-1408.

        [15] Mikulík A, Perdoch M, Chum O, et al. Learning a Fine Vocabulary[M]// Computer Vision - ECCV 2010. Springer Berlin Heidelberg, 2010:1-14.

        [16] Zhang S, Yang M, Cour T, et al. Query specific fusion for image retrieval[C]// European Conference on Computer Vision. Springer-Verlag, 2012:660-673.

        [17] Zhang S, Yang M, Wang X, et al. Semantic-Aware Co-indexing for Image Retrieval[C]// IEEE International Conference on Computer Vision. IEEE Computer Society, 2013:1673-1680.

        [18] Yang Y, Song J, Huang Z, et al. Multi-Feature Fusion via Hierarchical Regression for Multimedia Analysis[J]. IEEE Transactions on Multimedia, 2013, 15(3):572-581.

        [19] Ye Guangnan, Liu Dong, Jhuo I-Hong, et al. Robust late fusion with rank minimization[C]// Computer Vision and Pattern Recognition. IEEE, 2012:3021-3028.

        [20] Qin D, Gammeter S, Bossard L, et al. Hello neighbor: Accurate object retrieval with k-reciprocal nearest neighbors[C]// Computer Vision and Pattern Recognition. IEEE, 2011:777-784.

        [21] Yang X, Koknar-Tezel S, Latecki L J. Locally constrained diffusion process on locally densified distance spaces with applications to shape retrieval[C]// Computer Vision and Pattern Recognition, 2009. CVPR 2009. IEEE Conference on. IEEE, 2009:357-364.

        [22] Jegou H, Douze M, Schmid C. Hamming Embedding and Weak Geometric Consistency for Large Scale Image Search[M]// Computer Vision-ECCV 2008.OAI,2008:304-317.

        猜你喜歡
        結(jié)點(diǎn)相似性檢索
        一類上三角算子矩陣的相似性與酉相似性
        淺析當(dāng)代中西方繪畫的相似性
        2019年第4-6期便捷檢索目錄
        Ladyzhenskaya流體力學(xué)方程組的確定模與確定結(jié)點(diǎn)個(gè)數(shù)估計(jì)
        低滲透黏土中氯離子彌散作用離心模擬相似性
        專利檢索中“語義”的表現(xiàn)
        專利代理(2016年1期)2016-05-17 06:14:36
        基于Raspberry PI為結(jié)點(diǎn)的天氣云測(cè)量網(wǎng)絡(luò)實(shí)現(xiàn)
        V4國家經(jīng)濟(jì)的相似性與差異性
        國際標(biāo)準(zhǔn)檢索
        國際標(biāo)準(zhǔn)檢索
        97视频在线观看免费| 日本一区二区在线高清| 久久久国产精品123| 岛国av无码免费无禁网站| 久青草久青草视频在线观看| 国产精品亚洲片在线观看不卡| 国产女厕偷窥系列在线视频| 香蕉人妻av久久久久天天| 一本大道久久a久久综合| 国产后入内射在线观看| 久久精品中文字幕有码| 色综合久久无码五十路人妻 | 国产成人精品一区二区不卡| 91视频免费国产成人| 男女上床视频在线观看| 亚洲精品中文字幕一二三四| 成年性生交大片免费看| 国产午夜三级一区二区三| 在线观看亚洲你懂得| 国产女主播福利一区二区 | 日韩亚洲中文图片小说| 日本视频一区二区这里只有精品| 久久一二区女厕偷拍图| 无码字幕av一区二区三区| 亚洲国产区男人本色| 国产日韩AV无码免费一区二区| 最近更新中文字幕一区二区| 鲁丝片一区二区三区免费| 国产精品原创巨作AV女教师| 特一级熟女毛片免费观看| 日韩女优图播一区二区| 国产精品美女久久久久av超清| 精品久久久久久无码国产| 无码熟妇人妻av在线c0930| 亚洲熟妇av一区二区在线观看| 欧美精品亚洲精品日韩专区 | 动漫在线无码一区| 日本在线观看一区二区三区视频| 97色伦图片97综合影院| av香港经典三级级 在线| 久久精品中文字幕久久|