亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        聚合近似最近鄰殘差向量描述符

        2024-10-23 00:00:00陶勇余久久
        電腦知識(shí)與技術(shù) 2024年25期

        關(guān)鍵詞:圖像檢索;圖像描述符;近似最近鄰向量;殘差向量;碼書(shū)訓(xùn)練

        中圖分類(lèi)號(hào):TP18 文獻(xiàn)標(biāo)識(shí)碼:A

        文章編號(hào):1009-3044(2024)25-0036-04

        0 引言

        基于內(nèi)容的圖像檢索(Content-Based Image Re?trieval,CBIR) 在計(jì)算機(jī)視覺(jué)領(lǐng)域引起了廣泛關(guān)注,這是由于人們對(duì)網(wǎng)絡(luò)上多媒體數(shù)據(jù)的興趣日益濃厚。此外,由于每天上傳的圖像和視頻數(shù)量龐大,因此存在許多相似或接近重復(fù)的圖像,視覺(jué)搜索、電子商務(wù)、版權(quán)保護(hù)和圖像標(biāo)注等應(yīng)用都對(duì)基于內(nèi)容的圖像檢索提出了更高的需求。

        在視覺(jué)特征工程時(shí)期的圖像檢索一般采用單一描述圖像特征的描述符,如紋理特征、顏色直方圖等。這一時(shí)期提出的描述符為早期的圖像表示作出了很大貢獻(xiàn),為圖像描述符研究提供了方向和思路。如統(tǒng)計(jì)圖像局部區(qū)域的梯度方向直方圖描述符[1]、描述局部紋理的描述符[2],以及面向稠密特征提取的描述符[3]等。在此基礎(chǔ)上,研究者將方向梯度直方圖和局部二值模式結(jié)合,形成新的描述符[4],大幅提升了描述符用于圖像檢索的準(zhǔn)確度。按照描述符提取方式,可以將描述符劃分為局部特征描述符和全局特征描述符。局部特征描述符關(guān)注的是圖像細(xì)粒度更高的局部特征,判別不同圖像往往根據(jù)其局部細(xì)微差別。因此,研究者們沿著這一方向不斷突破,提出了一系列局部特征描述符以執(zhí)行計(jì)算機(jī)視覺(jué)方面的任務(wù)。其中,一種尺度不變性局部特征描述符(Scale Invariant FeatureTransform,SIFT) [5]具有生成速度快、表征能力強(qiáng)的優(yōu)點(diǎn)。該描述符的維度適中,可大大減輕存儲(chǔ)壓力;能快速檢索匹配,且可提取圖像局部特征點(diǎn)的位置、尺度、旋轉(zhuǎn)角度等關(guān)鍵信息,在視角變化、光線(xiàn)強(qiáng)度和噪聲干擾的影響下仍能保持較高的穩(wěn)定性,在大規(guī)模圖像數(shù)據(jù)集的檢索與識(shí)別任務(wù)中被廣泛使用。在此描述符的基礎(chǔ)上繼續(xù)研究,Bay等[6]使用Haar小波來(lái)近似SIFT方法中的梯度操作,提出了一種性能與SIFT 相當(dāng)?shù)俣雀斓腟URF特征。

        隨著圖像規(guī)模的增大,局部特征描述符的弊端也逐漸顯現(xiàn)。局部特征生成的圖像描述符在進(jìn)行圖像檢索時(shí)會(huì)因圖像規(guī)模龐大而導(dǎo)致維度爆炸災(zāi)難,給計(jì)算機(jī)的存儲(chǔ)和查詢(xún)帶來(lái)很大的負(fù)擔(dān)。研究者通過(guò)對(duì)局部描述符進(jìn)行加工,生成了一種維度小、表示能力強(qiáng)的圖像全局描述符(Vector of Locally Aggregated De?scriptor, VLAD) [7],利用局部特征在訓(xùn)練類(lèi)心的殘差和近似表示局部特征,基于聚類(lèi)中心串聯(lián)所有殘差和形成圖像的全局表示向量。生成的全局描述符僅使用隸屬于聚類(lèi)中心的殘差向量進(jìn)行圖像檢索,就能獲得較高的檢索精度,較大程度減小了運(yùn)算和存儲(chǔ)的開(kāi)銷(xiāo)。

        隨著機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的研究興起,通過(guò)卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)圖像的深度特征所形成的局部和全局描述符在計(jì)算機(jī)視覺(jué)領(lǐng)域被廣泛應(yīng)用。針對(duì)圖像檢索任務(wù),經(jīng)過(guò)改進(jìn)的基于YOLO的神經(jīng)網(wǎng)絡(luò)被用于船舶圖像的檢索識(shí)別[8],結(jié)合深度哈希算法與注意力機(jī)制的花卉圖像檢索在公開(kāi)數(shù)據(jù)集Oxford 17 Flowers上表現(xiàn)突出[9]。王彪等[10]微調(diào)VGG16網(wǎng)絡(luò),優(yōu)化損失函數(shù)后采用遷移學(xué)習(xí)的方式生成面料特征,所開(kāi)發(fā)的面料檢索系統(tǒng)性能優(yōu)秀。大量研究文獻(xiàn)證明,深度卷積神經(jīng)網(wǎng)絡(luò)能夠有效學(xué)習(xí)圖像特征,為計(jì)算機(jī)視覺(jué)的發(fā)展提供了方向,并在人工智能領(lǐng)域被廣泛應(yīng)用。相比于深度學(xué)習(xí)的特征描述符,傳統(tǒng)手工特征的生成速度快,構(gòu)造方式簡(jiǎn)單,且在一定場(chǎng)景的檢索識(shí)別任務(wù)中仍能滿(mǎn)足檢索精度要求,進(jìn)而被深入研究。

        基于聚合局部殘差的描述符(Vector of Locally Ag?gregated Descriptor, VLAD) [7]能夠全局表示圖像,有效區(qū)別圖像的差異特征,且訓(xùn)練速度快,計(jì)算開(kāi)銷(xiāo)不高,在檢索和識(shí)別任務(wù)中不斷被改進(jìn)和使用。本文結(jié)合該描述符的研究基礎(chǔ),分析聚類(lèi)中心的空間分布位置,改進(jìn)聚類(lèi)中心的選擇方式,引入均值等分向量以近似最近鄰的聚類(lèi)中心累積殘差向量。生成的描述符被命名為近似最近鄰類(lèi)心圖像描述符(ApproximateNearest Neighbor Centroid,ANNC-VLAD) 。改進(jìn)的描述符重新定義了每個(gè)局部特征的最近鄰類(lèi)心,從空間距離上說(shuō)明近似的最近鄰類(lèi)心擁有更接近的特征表示,證明了描述符性能提升的可靠性。

        1 聚合局部殘差和的特征描述符VLAD

        VLAD(Vector of Locally Aggregated Descriptors) 算法由Jégou等[7]提出,是一種通過(guò)聚合局部特征與聚類(lèi)中心的殘差來(lái)表示圖像全局特征的描述符算法。該算法可以分為三個(gè)階段:訓(xùn)練碼書(shū)、計(jì)算殘差向量和累積殘差。

        2 近似最近鄰類(lèi)心圖像描述符ANNC-VLAD

        研究聚合局部殘差的描述符VLAD時(shí)發(fā)現(xiàn),描述符的性能與碼書(shū)的大小相關(guān)。聚類(lèi)中心數(shù)量越多,描述符的維度越大,檢索精度越高。然而,聚類(lèi)中心的訓(xùn)練需要時(shí)間,數(shù)量越多訓(xùn)練時(shí)間越長(zhǎng),且描述符的維度越高,歐式距離運(yùn)算的匹配速度越慢,也會(huì)增加存儲(chǔ)壓力。因此,在保證維度一定的情況下,提高描述符的精度是研究的目標(biāo)。本文提出了一種利用近似最近鄰聚類(lèi)中心生成的圖像描述符方法,在空間中找到每個(gè)局部特征歐式距離比最近鄰類(lèi)心更近的一個(gè)向量。此向量并不是通過(guò)訓(xùn)練得到的,即圖像描述符ANNC-VLAD選擇的是空間中比聚類(lèi)中心歐氏距離更近的向量來(lái)計(jì)算殘差,該向量被命名為近似最近鄰向量。同時(shí),為了不增加累積殘差的計(jì)算量,將殘差向量累積在隸屬于最近鄰的聚類(lèi)中心。因此,該描述符不需要訓(xùn)練更多的聚類(lèi)中心,碼書(shū)生成速度快,計(jì)算的描述符維度緊湊,且在平均檢索精度上具有一定的優(yōu)勢(shì)。

        3 實(shí)驗(yàn)

        在INRIA Holidays [7]、UKBench [11] 和Holidays_Flickr1M [7]三個(gè)國(guó)際公開(kāi)的圖像檢索數(shù)據(jù)集上測(cè)試ANNC-VLAD描述符的性能,并與VLAD描述符進(jìn)行比較。

        3.1 數(shù)據(jù)集的介紹

        INRIA Holidays 數(shù)據(jù)集包含1 491 張圖片,其中500張用于查詢(xún),其余991張作為查詢(xún)圖片的關(guān)聯(lián)圖片。利用平均檢索精度(mean average precision, mAP) 作為該數(shù)據(jù)集的評(píng)價(jià)指標(biāo)。UKBench數(shù)據(jù)集由2 550 個(gè)物品分別從4個(gè)不同角度拍攝的10 200張圖片組成,分辨率為640×480,采用查全率Recall@4作為該數(shù)據(jù)集的評(píng)價(jià)指標(biāo)。每個(gè)物體抽取一張圖像作為查詢(xún)圖像,數(shù)據(jù)集所有圖片作為圖像庫(kù),從中找尋關(guān)聯(lián)圖片。

        3.2 聚類(lèi)中心數(shù)目對(duì)檢索結(jié)果的影響

        本節(jié)實(shí)驗(yàn)對(duì)比了VLAD描述符與近似最近鄰類(lèi)心圖像描述符ANNC-VLAD在不同數(shù)目的聚類(lèi)中心時(shí),在兩個(gè)數(shù)據(jù)集上的平均檢索結(jié)果。實(shí)驗(yàn)顯示,訓(xùn)練更多的聚類(lèi)中心,可以將特征的聚類(lèi)空間劃分得更為細(xì)致,保留的局部特征的類(lèi)別數(shù)目越多,兩種描述符的性能越好。然而,從描述符的形成過(guò)程和聚類(lèi)中心的訓(xùn)練方法來(lái)看,類(lèi)心數(shù)目的增加會(huì)帶來(lái)更大的開(kāi)銷(xiāo),形成的描述符維度越大。存儲(chǔ)類(lèi)心向量與近似最近鄰向量的殘差向量所需的空間越大,同時(shí)描述符維度越高,相似性計(jì)算也更耗時(shí)。

        為更好地比較分析描述符的性能,本節(jié)實(shí)驗(yàn)在訓(xùn)練相同數(shù)據(jù)集時(shí),使用相同的聚類(lèi)中心數(shù)目對(duì)兩種描述符進(jìn)行檢索驗(yàn)證,即K=16、32、64、128、256。繼續(xù)增大聚類(lèi)中心數(shù)目后,描述符性能提升效果并不明顯,且訓(xùn)練時(shí)間成本和檢索成本會(huì)大幅提升,不滿(mǎn)足圖像數(shù)據(jù)集即時(shí)檢索的需求。圖3展示了兩種描述符在Holidays數(shù)據(jù)集上的平均檢索精度的比較,圖4展示了兩種描述符在UKBench數(shù)據(jù)集的平均查全率的比較。

        結(jié)果顯示,兩種描述符在訓(xùn)練相同的聚類(lèi)中心時(shí),描述符向量維度一致。本文提出的聚合近似最近鄰殘差向量的圖像描述符ANNC-VLAD在Holidays數(shù)據(jù)集上的平均檢索精度和UKBench數(shù)據(jù)集的查全率均優(yōu)于聚合局部特征殘差的描述符VLAD,且隨著訓(xùn)練聚類(lèi)中心數(shù)目的增大,ANNC-VLAD與VLAD描述符的性能都有一定的提升。

        3.3 ANNC-VLAD 和VLAD 的開(kāi)銷(xiāo)比較

        訓(xùn)練碼書(shū)階段,兩種描述符訓(xùn)練相同大小的碼書(shū),且訓(xùn)練方法相同,因此碼書(shū)的生成時(shí)間一致。在計(jì)算描述符向量時(shí),由于ANNC-VLAD描述符需要使用K近鄰算法找到最近鄰和次近鄰碼字,并通過(guò)這兩個(gè)碼字計(jì)算四分之一點(diǎn)作為候選近似最近鄰向量,此過(guò)程略微增加了計(jì)算量。因此,在兩個(gè)數(shù)據(jù)集上的計(jì)算開(kāi)銷(xiāo)略微增大,但在合適維度下仍能較快給出響應(yīng)結(jié)果,并提升描述符的性能。在保證碼書(shū)大小均為64 且描述符的維度均為8192維時(shí),對(duì)兩種描述符的生成時(shí)間進(jìn)行測(cè)試,表1與表2分別列出了在兩個(gè)數(shù)據(jù)集下描述符的檢索結(jié)果和生成時(shí)間。由于數(shù)據(jù)集圖像的分辨率大小不同,Holidays數(shù)據(jù)集是高清圖像,平均整體生成時(shí)間比UKBench數(shù)據(jù)集圖片生成時(shí)間略長(zhǎng),但總體上,兩種描述符都能滿(mǎn)足大規(guī)模圖像檢索的快速召回要求。

        4 結(jié)論

        本文基于聚合局部殘差描述符VLAD算法,在進(jìn)行K近鄰量化特征時(shí),通過(guò)計(jì)算局部特征的最近鄰碼字和次近鄰碼字的四分之一等分向量來(lái)獲得近似最近鄰向量。然后,將近似最近鄰向量與最近鄰碼字比較歐式距離,以決定量化局部特征的選擇。通過(guò)使用近似最近鄰向量來(lái)累積殘差,這一方法減小了最近鄰碼字在量化特征時(shí)產(chǎn)生的誤差損失。通過(guò)國(guó)際公開(kāi)的檢索數(shù)據(jù)集驗(yàn)證了描述符性能的提升效果。當(dāng)碼書(shū)大小均為64 時(shí),近似最近鄰向量殘差描述符在Holidays數(shù)據(jù)集上的平均檢索精度相比VLAD描述符提升了4.18%,在UKBench數(shù)據(jù)集上的查全率提升了4.10%,證明了該改進(jìn)描述符的可行性。

        天码av无码一区二区三区四区| 熟妇人妻久久中文字幕| 日本少妇浓毛bbwbbwbbw| 好吊妞无缓冲视频观看| 国产午夜精品一区二区三区嫩草| 亚洲国产日韩欧美一区二区三区| 色欲aⅴ亚洲情无码av蜜桃| 国产nv精品你懂得| 日日噜噜夜夜狠狠va视频| 亚洲精品无码久久久久秋霞| 无码 制服 丝袜 国产 另类| 日本口爆吞精在线视频| 久久久久久国产福利网站| 亚洲中文有码一区二区| 偷偷夜夜精品一区二区三区蜜桃 | 精品少妇人妻av一区二区蜜桃 | 激性欧美激情在线| 久久精品视频在线看99| 精品手机在线视频| 国产片三级视频播放| 日本草逼视频免费观看| 在线观看中文字幕不卡二区| 精品国产一区二区三区av麻| 日韩大片高清播放器大全| 成人午夜特黄aaaaa片男男 | 999久久久精品国产消防器材| 国产va精品免费观看| 无遮高潮国产免费观看韩国| 国产精品日本中文在线| 国产一级内射一片视频免费| 国产精品一区二区三区在线免费| 国产高清av在线播放| 亚洲日韩国产精品乱-久| 无码人妻精品一区二区三区66| 91精品久久久久含羞草| 日韩精品中文字幕免费人妻| 国产一区二区视频免费在| 欧美aaaaaa级午夜福利视频| 亚洲av无码专区亚洲av桃| 岛国av一区二区三区| 亚洲乱码中文字幕三四区|