亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于最長公共視覺詞串的圖像檢索方法

        2018-08-01 07:46:22段立娟許少武
        計算機工程與應用 2018年15期
        關鍵詞:數(shù)據(jù)庫特征方法

        苗 軍,崔 嵩,段立娟,張 璇,許少武

        1.北京信息科技大學 計算機學院 網(wǎng)絡文化與數(shù)字傳播北京市重點實驗室,北京 100101

        2.北京工業(yè)大學 信息學部,北京 100124

        1 引言

        基于內(nèi)容的圖像檢索(Content-Based Image Retrieval,CBIR)是與人類檢索圖像過程更為接近的圖像檢索方式。理想的基于內(nèi)容的圖像檢索可以跨越語義鴻溝,讓計算機理解圖像的內(nèi)容,從而根據(jù)對于圖像的理解檢索對應的圖像。這個檢索過程通常被建模為圖像特征表達、相似性度量和后處理過程三個部分。其中圖像的特征表達和相似性度量是跨越語意鴻溝,使計算機理解圖像的關鍵,也是影響圖像檢索準確性的最主要問題。

        “詞袋”模型(Bag-of-Features,BoF model)借鑒自文本檢索[1],并在圖像檢索中取得了較好的結果?!霸~袋”模型主要分為三個步驟。第一步,提取圖像局部特征(如SIFT特征);第二步,聚類圖像中的局部特征,構建視覺詞碼本;第三步,將圖像特征映射到視覺詞碼本上,得到該圖像中視覺詞出現(xiàn)的頻率直方圖。這一映射可以看作特征量化的過程。特征量化提高了圖像特征的魯棒性,降低了特征的維度,但損失了視覺詞之間潛在的空間關系,影響對于圖像檢索至關重要的距離的表達。

        為進一步提高檢索的性能,需要引入空間信息來減少“詞袋”模型中視覺詞帶來的歧義。一些研究者對于空間信息的引入做了深入研究[1-7]。其中,許多圖像檢索模型在后處理過程中引入空間信息來對“詞袋”模型的結果進行重排序,如RANSAC方法[2]和鄰近特征一致性方法(neighboring feature consistency)[1]。這些方法表明加入空間信息對于檢索質(zhì)量有提高作用,但其計算復雜度通常較高。另一方面,Passalis等人在他們的工作中將熵優(yōu)化策略引入詞袋的構建中,提出了熵優(yōu)化詞袋模型(Entropy Optimized BoW,Eo-BoW)[8]。此外,Mohedano等人嘗試將BoF與CNN結合以提高檢索速度,盡管在實驗數(shù)據(jù)集上取得了一定成效,但卻存在對干擾圖像敏感的問題[9]。

        由于二維圖像是三維場景在一個二維平面上的投影。場景中的不同物體的位置關系在二維圖像中得到了一定程度的保持。通常描述空間關系的方法有兩種:基于目標的描述和基于關系的描述?;谀繕说拿枋龇椒ㄏ忍崛D像中目標的坐標,然后通過對坐標進行空間位置劃分來實現(xiàn)對圖像的描述。常用的基于目標的描述方法有網(wǎng)格法、四叉樹[10]、二叉樹、k-d樹等。基于關系的描述是通過分離空間關系和視覺信息,抽象化目標之間的空間位置關系,對抽象的目標關系進行建模分析。本文提出一種基于最長公共視覺詞串的方法引入圖像中目標間的空間位置關系,利用視覺詞來構建視覺詞串,并采用最大似然準則衡量詞串間的相似度。并通過實驗驗證了提出方法對于圖像檢索的有效性。

        2 基于最長公共視覺詞串的圖像檢索

        目標物體的位置關系是圖像的重要特征之一??臻g關系是一種較為模糊的概念,它很難用一個確定的概念來描述清楚,通常這種概念是在一組限定的條件中進行描述的[11]。空間關系通常包括朝向關系和拓撲關系。朝向關系指目標的各部分之間或整體間的朝向??梢允褂媚繕酥g的距離或者目標與參照點之間的夾角來衡量。拓撲關系是目標在參照點的平移、旋轉(zhuǎn)以及尺度變換下不發(fā)生變化的關系,強調(diào)目標間相對位置關系。為表示圖像中目標的朝向關系和拓撲關系需要獲得圖像的2-D串表達。

        2.1 目標位置關系的2-D串表達

        圖像中目標間的位置關系可以利用目標物體在兩個正交方向上的投影轉(zhuǎn)化為兩個1-D的排序表達,這樣的表達可以表示目標間的拓撲關系和朝向關系。借鑒符號圖的2-D串表達[12],一幅自然圖像也可以表示為視覺詞的2-D串。首先,將圖像中的物體表示為視覺詞,將每個視覺詞看作一個符號向x方向與y方向進行投影。其中,“詞袋”模型提取的局部特征即是視覺詞的一種表示。為表示視覺詞在兩個方向上的排序,利用如下符號表示規(guī)則:“x:”或“y:”表示在X或Y軸上投影得到的視覺詞串,其中在X軸投影得到的串叫x串,在Y軸投影得到的串叫y串?!?”表示排序關系,代表視覺詞的投影沿X軸從左向右排序,沿Y軸從下向上排序?!?”表示重疊關系,代表兩個視覺詞的投影并列排序。則可利用上述規(guī)則構建圖像目標位置關系的2-D串。

        以一幅圖像包含不同位置的4個不同目標為例,如圖1所示。其在X軸的投影順序為A、B、C、D,在Y 軸的投影順序為D、B、C、A。應用上述規(guī)則可以得到圖像目標位置關系的2-D串表達:

        x:A<B<C<D

        y:D<B=C<A

        并簡化為:

        x:A<B<C<D

        y:D<BC<A

        圖1 (a) 原始圖

        圖1 (b) 符號圖

        這樣圖像的相似度問題可以轉(zhuǎn)化為字符串的相似度問題。在得到圖像的2-D串的表達后,還需要使用一些策略來計算串與串的相似度。本文采用最大似然準則求解兩個字符串的最長公共子串,并以此衡量圖像間的相似度。

        2.2 構建最長公共視覺詞串

        為提高檢索的效果,本文在“詞袋”模型中引入表達圖像中物體間空間信息的最長公共視覺詞串(Longest Common Visual Substring,LCVS)。2-D串是圖像中目標物體間的位置關系的一種表達,且需要確定物體的位置及種類?!霸~袋”模型將圖像用訓練好的字典進行表達,這樣一幅圖像就可以表示為字典中視覺詞的組合。如圖2所示,通過視覺詞在X軸與Y軸上的投影將圖像表示為視覺詞串,視覺詞串反映了視覺詞之間的拓撲結構,包含很多空間語義信息。在查詢階段,計算待查詢圖像與數(shù)據(jù)庫中圖像的最長公共視覺詞串。最長公共視覺詞串反映了兩幅圖像的相似程度,公共視覺詞串越長兩幅圖像越相似。構建視覺詞串的流程圖如圖3所示。

        圖2 圖像A與圖像B構成的最長公共視覺詞串示意圖

        具體檢索過程如下:

        步驟1提取查詢圖像特征并進行量化投影,得到查詢圖像中視覺詞串。對于查詢圖像imagequery,提取其SIFT特征F=[f1,f2,…,fl],并將SIFT特征量化得到視覺詞集合W={w1,w2,…,wm},其中m為字典中視覺詞的數(shù)量。之后,將視覺詞分別向X軸和Y軸投影,得到查詢圖像的視覺詞串xquery和yquery。

        圖3 構建視覺詞串流程圖

        步驟2提取數(shù)據(jù)庫中圖像特征并進行量化投影,得到數(shù)據(jù)庫中圖像的視覺詞串。給定數(shù)據(jù)庫中圖像imagei,提取其SIFT特征并進行特征量化得到視覺詞串與。

        步驟3計算查詢圖像與數(shù)據(jù)庫中圖像的最長公共視覺詞串。

        按如下規(guī)則計算最長公共視覺詞串

        其中Lcs(String1,String2)表示兩個串的最長公共子串,LCVS_X(i)和LCVS_Y(i)分別是查詢圖像imagequery與數(shù)據(jù)庫中圖像imagei在X軸和Y軸上的最長公共視覺詞串。Max_LCVS(i)是LCVS_X(i)和LCVS_Y(i)中較大的串作為圖像imagequery與imagei的最長公共視覺詞串。

        步驟4根據(jù)最長公共視覺詞串計算查詢圖像與數(shù)據(jù)庫中圖像的相似度得分。

        其中,idf(·)表示“詞袋”模型中每個視覺詞的權重,即逆向文件頻率。根據(jù)相似度得分的高低對數(shù)據(jù)庫中圖像進行排序,得到圖像檢索結果。

        2.3 最長公共視覺詞串魯棒性強化

        最長公共視覺詞串包含了兩幅圖像的公共隱含模式,但構造的視覺詞串仍不具有旋轉(zhuǎn)不變性。

        如圖4所示,圖像I1和I2相似度較高,且兩者相差90°旋轉(zhuǎn)。假設兩幅圖像包含的視覺詞構成符號圖Is1和Is2,那么根據(jù)2.2節(jié)中的方法可以得到兩幅圖像的最長公共視覺詞串為A其長度為1,從最長公共視覺詞串看這兩幅圖像相似度并不高,檢索失配。為了解決這種情況的失配問題,增加方法的旋轉(zhuǎn)不變性,查詢圖像分別經(jīng)過0°、90°、180°、270°旋轉(zhuǎn),再與數(shù)據(jù)庫中圖像匹配最長公共視覺詞串,取最長公共視覺詞串中最大的作為結果。這樣的過程提高了最長公共視覺詞串的魯棒性,對噪聲與仿射變換有一定程度的不變性。

        圖4 失配情況示例

        圖5 展示了匹配對于噪聲影響不敏感。如果有噪聲出現(xiàn)在兩幅相似的圖像的其中一幅中,單詞串的構造仍然不會受到干擾。這種樸素的構造方式是簡單的,易于理解的,在后面的測試中也展現(xiàn)了良好的效果。

        圖5 抵抗噪聲示意圖

        具體檢索過程如下:

        步驟1提取查詢圖像特征并進行量化投影,得到查詢圖像中視覺詞串。對于查詢圖像imagequery,提取其SIFT特征F=[f1,f2,…,fl],并將SIFT特征量化得到視覺詞集合W={w1,w2,…,wm},其中m為字典中視覺詞的數(shù)量。之后,將視覺詞分別向X軸和Y軸投影,得到查詢圖像的視覺詞串xquery0和yquery0。旋轉(zhuǎn)查詢圖像重復上述操作得到旋轉(zhuǎn)不同角度查詢圖像的視覺詞串

        步驟2提取數(shù)據(jù)庫中圖像特征并進行量化投影,得到數(shù)據(jù)庫中圖像的視覺詞串。給定數(shù)據(jù)庫中圖像imagei,提取其SIFT特征并進行特征量化得到視覺詞串與。

        步驟3計算查詢圖像與數(shù)據(jù)庫中圖像的最長公共視覺詞串。

        按如下規(guī)則計算最長公共視覺詞串

        其中Lcs(String1,String2)表示兩個串的最長公共子串,patternX(r)和 patternY(r)分別是旋轉(zhuǎn)r°后的查詢圖像imagequery(r)與數(shù)據(jù)庫中圖像imagei在X軸和Y軸上的最長公共視覺詞串。 patternMax(r)是 patternX(r)和patternY(r)中較大的串,作為旋轉(zhuǎn)r°圖像imagequery(r)與imagei的最長公共視覺詞串。 pattern取不同角度旋轉(zhuǎn)下最大的串,作為最終查詢圖像的最長公共視覺詞串。

        步驟4根據(jù)最長公共視覺詞串計算查詢圖像與數(shù)據(jù)庫中圖像的相似度得分。

        其中,idf(·)表示“詞袋”模型中每個視覺詞的權重,即逆向文件頻率。根據(jù)相似度得分的高低對數(shù)據(jù)庫中圖像進行排序,得到圖像檢索結果。

        3 實驗結果

        3.1 實驗數(shù)據(jù)集

        實驗在Holiday數(shù)據(jù)集上運行,該數(shù)據(jù)集是法國INRIA機構在2008年發(fā)布的。該數(shù)據(jù)集共有500類圖像,每類圖像有2~6幅不等,共計1 491幅。數(shù)據(jù)集中圖像的尺寸不一,大部分圖像的分辨率為2 048×1 536,在實驗中統(tǒng)一調(diào)整為1 024×768。Holiday數(shù)據(jù)集中的圖像都是對同一目標或場景進行的不同角度的拍攝。INRIA提供了數(shù)據(jù)集每幅圖像的SIFT特征和訓練好的字典[13]。字典的維度從100維到200 000維。下面在與“詞袋”模型對比的實驗中均采用200 000維的字典[14]。按照數(shù)據(jù)集的說明,每一類的第一幅圖像作為查詢圖像,在查詢圖庫的過程中要排除自身,在剩余圖像中計算排名,使用Average Precision(AP)作為衡量系統(tǒng)的指標。在500類圖像進行500次查詢,然后求其平均值mAP(mean Average Precision),以此作為衡量系統(tǒng)的評價指標。

        3.2 參數(shù)選擇

        在實驗中,并不使用每幅圖像的全部SIFT特征,而是選取顯著度最大的t個作為該圖像的特征。顯著度是由特征點的Hessian矩陣的行列式值和該矩陣的跡共同求得。下面“詞袋”模型縮寫為BoF,本文提出方法縮寫為LCVS。BoF、Eo-BoW與LCVS在參數(shù)t的選擇上的最優(yōu)有一定區(qū)別,因此,實驗參數(shù)t由500到4 000間隔500進行調(diào)整計算在Holiday數(shù)據(jù)集上的mAP值。

        實驗結果如表1與圖6所示。LCVS方法在不同的參數(shù)t下的mAP均高于BoF與Eo-BoW。BoF與Eo-BoW模型在t=2 500時最高,前者mAP為0.572 0,后者僅為0.490 0。相比LCVS方法在t=3 000處取得最高的mAP=0.603 6,高于前兩種模型的結果。其中,BoF模型與LCVS模型的SIFT特征數(shù)量從2 000后,mAP值的增長放緩,這說明當描述圖像所需的特征達到一定數(shù)量之后,過多的特征引入對系統(tǒng)起到的作用有限,反而影響特征的魯棒性,出現(xiàn)震蕩或者下降。

        表1 SIFT數(shù)量對的mAP值的影響

        圖6 在Holiday圖庫上不同SIFT特征數(shù)目的mAP曲線比較

        3.3 方法比較與分析

        如上節(jié)所述,LCVS在各不同參數(shù)下的準確率均高于BoF和Eo-Bow方法,為了進一步分析LCVS方法在哪類圖像中更有優(yōu)勢,選取BoF與LCVS的mAP結果最高的參數(shù)t,在Holiday數(shù)據(jù)集上進行了查詢實驗。

        選出了LCVS提高了檢索結果的6類典型檢索圖像及結果進行了展示。如圖7所示,第一列圖像為查詢圖像,第二列為同類的待查圖像,第三列為待查圖像用BoF、Eo-Bow和LCVS三種方法檢索的排名。這6類圖像中每類有1~3張同類圖像。其中,LCVS方法對于待檢圖像均成功檢出,BoF方法只有413類的橋正確檢出。

        圖7 部分查詢結果對比

        通過對于更多圖像的觀察與分析,相比于傳統(tǒng)的BoF方法,LCVS對于明暗變化不敏感;對于旋轉(zhuǎn)、縮放、平移LCVS方法檢索結果較好;對于細節(jié)豐富的場景有不錯的檢索結果。對于細節(jié)豐富的場景,LCVS可以充分利用關鍵特征點間的空間位置關系,從而提高了圖像檢索的效果。從實驗對比中發(fā)現(xiàn),LCVS方法在許多BoF和Eo-BoW檢索效果一般的圖像上有了較大的提高,成功檢索出待檢圖像。LCVS檢索結果變差的典型結果如圖8所示,其中,第11類和174類兩種方法均未能正確檢索出同類圖像而LCVS將正確的圖像排在了較后的位置??偨Y發(fā)現(xiàn)主要包括兩類圖像,圖像中缺少有效的細節(jié)信息,如大片的沙灘海洋、藍天白云、森林;圖像中細節(jié)豐富,且待查圖像有很多新的細節(jié)加入,如車等物體遮擋了待檢索的建筑。這樣的結果也較大地受到了SIFT提取到的關鍵點的影響,當提取的關鍵點很少,或缺少待檢索物體的關鍵信息時,LCVS方法將達不到理想的效果。

        圖8 部分查詢結果對比

        4 結論

        (1)提出了一種基于最長公共視覺詞串的圖像檢索方法,應用于自然圖像的檢索中。自然圖像的特征間的距離可以利用最長公共視覺詞串進行表達,這樣的表達引入了圖像中目標間的空間位置關系,提高了圖像檢索的結果。

        (2)設計方法提高了檢索的魯棒性,對噪聲與仿射變換有一定程度的不變性,并采用最大似然準則衡量詞串間的相似度。

        (3)與傳統(tǒng)BoF方法和近年提出的改進方法Eo-BoW方法進行了對比實驗,驗證了基于最長公共視覺詞串的方法對于圖像檢索的有效性。實驗結果表明基于最長公共視覺詞串的距離表達方式較直接計算特征距離的表達方式更能表達圖像中目標間的位置關系,具有更好的檢索效果。

        猜你喜歡
        數(shù)據(jù)庫特征方法
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        數(shù)據(jù)庫
        財經(jīng)(2017年2期)2017-03-10 14:35:35
        可能是方法不對
        數(shù)據(jù)庫
        財經(jīng)(2016年15期)2016-06-03 07:38:02
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        數(shù)據(jù)庫
        財經(jīng)(2016年3期)2016-03-07 07:44:46
        數(shù)據(jù)庫
        財經(jīng)(2016年6期)2016-02-24 07:41:51
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        中文字幕熟女激情50路| 亚洲欧美精品伊人久久| 亚洲高清无码第一| 精品国产亚洲av成人一区| 日本一区二区三区光视频| 黄桃av无码免费一区二区三区| 亚洲欧美日本| 手机色在线| 久亚洲一线产区二线产区三线麻豆| 欧美性高清另类videosex| 成人免费看吃奶视频网站| 国产偷2018在线观看午夜| 日本熟妇裸体视频在线| 绝顶高潮合集videos| 国产精品人妻一码二码尿失禁| 中文字幕一区二区三区在线不卡| 中文字幕久久国产精品| 国精产品一区一区三区有限在线| 无码日韩精品一区二区三区免费| 久久精品国产亚洲不av麻豆| 亚洲国产中文字幕九色| 日韩乱码人妻无码系列中文字幕 | 青青草小视频在线观看| 免费a级毛片无码免费视频120软件| 欧美日本日韩aⅴ在线视频| 蜜桃网站在线免费观看视频| av男人的天堂亚洲综合网| 天天做天天爱天天综合网2021| 国产香蕉尹人在线视频播放| 色偷偷亚洲女人的天堂| 蜜桃视频在线看一区二区三区| 欲色天天网综合久久| 国产成社区在线视频观看| 男女做那个视频网站国产| 韩国三级中文字幕hd| 91网站在线看| 日韩人妻美乳中文字幕在线| 亚洲国产精彩中文乱码av| 国产喷水福利在线视频| 日本一区二区三区在线观看免费 | 性一交一乱一透一a级|