周 燕,潘麗麗,陳蓉玉,邵偉志,雷前慧
(中南林業(yè)科技大學(xué)計(jì)算機(jī)與信息工程學(xué)院,湖南 長沙 410004)
為了在大規(guī)模數(shù)據(jù)集中實(shí)現(xiàn)快速相似搜索,本文探討了基于深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)CNN(Convolutional Neural Network)提取特征和基于哈希算法建立索引的方法,以尋求高效精準(zhǔn)的檢索方案。相比于底層特征描述符,深度學(xué)習(xí)[1]從目標(biāo)數(shù)據(jù)集中提取的特征,其表征能力更佳,特征的魯棒性較強(qiáng),不易受噪聲影響,因而被廣泛采用。而哈希算法對(duì)計(jì)算機(jī)內(nèi)存需求低且檢索效率高,尤其是在處理海量數(shù)據(jù)集的情況下;與此同時(shí),哈希算法得到的二進(jìn)制碼能夠以高概率將相似的圖像映射成相似的二進(jìn)制碼。壓縮的二值哈希編碼比原始的特征在數(shù)據(jù)存儲(chǔ)和計(jì)算方面有更大的優(yōu)勢。
圖像檢索方案應(yīng)具備以下幾個(gè)性質(zhì):首先,由卷積神經(jīng)網(wǎng)絡(luò)提取的特征能充分表達(dá)圖像的高級(jí)語義信息。其次,哈希后的特征維度降低,以便存儲(chǔ)海量圖像的特征。再次,哈希編碼時(shí)應(yīng)該將相似的圖像(無論是特征空間距離還是語義距離)映射成具有較小漢明距離的二進(jìn)制字符串。最后,算法在訓(xùn)練集中得到的參數(shù)應(yīng)在測試集中同樣有效。
卷積神經(jīng)網(wǎng)絡(luò)CNN通過層層卷積捕獲圖像的深層語義信息,而不是單單從形狀、顏色和紋理等特征進(jìn)行考慮。卷積神經(jīng)經(jīng)典的網(wǎng)絡(luò)及應(yīng)用有:LeNet-5用于各類數(shù)字識(shí)別。AlexNet[2]的網(wǎng)絡(luò)架構(gòu)與 LeNet的非常相似,但是網(wǎng)絡(luò)更深,并且具有彼此堆疊的卷積層,以捕獲更多的圖像信息。GoogLeNet[3]有2個(gè)優(yōu)點(diǎn):一是開發(fā)了一個(gè) Inception 模塊,該模塊將縱向的深層次連接拆分為若干個(gè)塊狀子網(wǎng)絡(luò),采用不同大小的卷積核得到不同的感受野,最后進(jìn)行拼接從而實(shí)現(xiàn)不同尺度特征的融合。另一優(yōu)點(diǎn)是在卷積神經(jīng)網(wǎng)絡(luò)的頂部使用平均池化層替代全連接層,這樣不僅消除了大量不重要的參數(shù),同時(shí)提升了空間信息轉(zhuǎn)換的魯棒性。網(wǎng)絡(luò)架構(gòu)的改進(jìn)不僅有利于高效地提取圖像的高級(jí)語義信息,同時(shí)使得提取的特征維度降低,避免“維度災(zāi)難”。文獻(xiàn)[4]以GoogLeNet的網(wǎng)絡(luò)架構(gòu)為基礎(chǔ)引入一種新的架構(gòu)—“跳遠(yuǎn)連接”,可對(duì)網(wǎng)絡(luò)信息流進(jìn)行重定向,加深網(wǎng)絡(luò)層數(shù)的同時(shí)避免了權(quán)重衰減和學(xué)習(xí)退化問題。該網(wǎng)絡(luò)的特征維度為2 048維,雖然相對(duì)于VGG(Visual Geometry Group)網(wǎng)絡(luò)的4 096維有了較大的改善,但依然影響圖像檢索效率。文獻(xiàn)[5]采用CNN提取圖像深度特征,主成分分析PCA(Principal Components Analysis)算法壓縮深層特征,并采用SVM學(xué)習(xí)相似性度量從而提升圖像檢索效率。
網(wǎng)絡(luò)的不斷改進(jìn)使得深度特征的表征能力逐步增強(qiáng),但深度特征維度居高不下,使得檢索時(shí)內(nèi)存需求大。為了降低搜索復(fù)雜度,人們提出了各種哈希算法。基于局部敏感哈希算法[6]的檢索方案通過隨機(jī)線性投影將數(shù)據(jù)映射成二進(jìn)制碼,隨機(jī)投影法的另一用途便是提高最近鄰搜索的執(zhí)行速度。文獻(xiàn)[7]提出將PCA哈希應(yīng)用在醫(yī)學(xué)圖像檢索中,將原始特征用PCA進(jìn)行降維,然后對(duì)降維后的結(jié)果進(jìn)行二值化處理,降低檢索所需計(jì)算量。但是,該方法缺少約束條件,會(huì)導(dǎo)致量化誤差較大,檢索精度較低。保留相似性的二進(jìn)制碼雖不似局部敏感哈希算法能提供近似最近鄰查找的次線性運(yùn)行時(shí)間,但它不僅不涉及構(gòu)建和維護(hù)復(fù)雜的數(shù)據(jù)結(jié)構(gòu),還可以通過重要的常量因素減輕內(nèi)存壓力。卷積神經(jīng)網(wǎng)絡(luò)提取的特征相比傳統(tǒng)方法提取的特征更具表達(dá)力。文獻(xiàn)[8]采用PCA對(duì)高級(jí)語言特征進(jìn)行降維,然后同提取的2種底層特征EHD (Edge Histogram Descriptor)和BOW (Bag Of Words)一同進(jìn)行哈希,接著自適應(yīng)地融合這些特征,實(shí)現(xiàn)高效的圖像檢索。文獻(xiàn)[9]提出由卷積神經(jīng)網(wǎng)絡(luò)VGG提取圖像深度特征的方法,并針對(duì)深度特征維度高且占大量存儲(chǔ)空間的問題,在特征哈希前先采用PCA算法對(duì)特征數(shù)據(jù)進(jìn)行壓縮。文獻(xiàn)[10]提出一種基于果蠅嗅覺電路的數(shù)據(jù)無關(guān)局部敏感哈希算法,該算法與神經(jīng)網(wǎng)絡(luò)算法相似,它們都使用激活函數(shù)學(xué)習(xí)數(shù)據(jù)。
近年來,由于深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)具有很強(qiáng)的泛化性能而備受青睞。深度特征雖能高效表達(dá)圖像信息,但維度過高影響檢索速度;各類哈希算法雖能提升檢索速度,但因信息丟失造成檢索效率下降;此外,哈希算法與深度特征具有較大的融合空間。在此基礎(chǔ)上,本文提出通過在網(wǎng)絡(luò)中加入自適應(yīng)融合模塊使得提取的深度特征融合降維生成新的特征。但是,隨著數(shù)據(jù)集的增大,特征數(shù)據(jù)對(duì)內(nèi)存存儲(chǔ)和檢索計(jì)算量依舊具有挑戰(zhàn)性。為此,本文提出優(yōu)化哈希算法,從降低特征的存儲(chǔ)空間、縮短檢索時(shí)間以及減輕計(jì)算量的角度對(duì)深度特征進(jìn)行處理。
第3節(jié)詳細(xì)介紹本文算法的原理。第4節(jié)通過多種方法進(jìn)行,實(shí)驗(yàn)對(duì)比和具體分析。最后對(duì)本文進(jìn)行總結(jié)。
本文通過在卷積神經(jīng)網(wǎng)絡(luò)中接入自適應(yīng)融合模塊來獲得表征能力更強(qiáng)的圖像特征;接著采用哈希(稀疏化優(yōu)化算法)算法處理特征,在提升檢索效率的同時(shí)避免因數(shù)據(jù)量大、特征維度高引發(fā)的“維度災(zāi)難”。本文提出的稀疏化優(yōu)化算法的特點(diǎn)在于根據(jù)特征進(jìn)行隨機(jī)投影作為加權(quán)的權(quán)重,這種方法可有效提高哈希算法的執(zhí)行速度。但是,隨機(jī)生成權(quán)重會(huì)帶來一定的誤差,因此本文先采用主成分分析法進(jìn)行特征降維,去除冗余信息,然后再哈希編碼處理特征。圖像檢索框架如圖1所示。
Figure 1 Image retrieval framework based on adaptive fusion network and hash transform圖1 基于自適應(yīng)融合網(wǎng)絡(luò)與哈希轉(zhuǎn)換的圖像檢索框架
本文所采用的深度學(xué)習(xí)模型為具有優(yōu)良局部拓?fù)浣Y(jié)構(gòu)的Inception-V3網(wǎng)絡(luò)模型,該網(wǎng)絡(luò)最核心的部分是其內(nèi)部子網(wǎng)絡(luò)結(jié)構(gòu)Inception模塊,這也是一個(gè)非常重要的NIN(Network In Network)結(jié)構(gòu)。為了使提取的特征能更充分地表達(dá)圖像深層語義信息,同時(shí)降低特征維度,本文借鑒Inception-V3網(wǎng)絡(luò)中Inception模塊的結(jié)構(gòu)思想,通過在卷積神經(jīng)網(wǎng)絡(luò)中加入自適應(yīng)特征融合模塊來改進(jìn)網(wǎng)絡(luò)架構(gòu),使得網(wǎng)絡(luò)能夠?qū)W習(xí)深層語義信息,使得提取的特征更具表達(dá)力。自適應(yīng)融合模塊如圖2所示。
Figure 2 Adaptive fusion module圖2 自適應(yīng)融合模塊
自適應(yīng)融合模塊用于改善網(wǎng)絡(luò)的非線性映射關(guān)系,提升網(wǎng)絡(luò)學(xué)習(xí)復(fù)雜映射的能力。該模塊由3個(gè)卷積分支和1個(gè)池化分支構(gòu)成,以此來提高深度特征的多樣性。由于在模塊中加入1×1卷積的作用相當(dāng)于用很小的計(jì)算量就能增加一層特征變換和非線性化,因此在模塊中,3個(gè)卷積分支都對(duì)輸入進(jìn)行1×1卷積,以此來進(jìn)行低成本(相對(duì)3×3卷積計(jì)算量小得多)的跨通道組織信息,其中不同分支使用不同的1×1卷積核,這樣能最大程度加大特征的差異性。由于模塊中小尺度卷積核的使用,使得訓(xùn)練所需計(jì)算量得到有效控制;將對(duì)稱卷積核拆分為非對(duì)稱卷積核(將3×3卷積拆分為3×1卷積和1×3卷積)提升非線性化,有利于網(wǎng)絡(luò)更細(xì)致地感知圖像高層語義信息,有助于處理更多、更豐富的空間特征,使得特征的魯棒性增強(qiáng)。
模塊的4個(gè)不同類型分支在最后通過一個(gè)聚合操作進(jìn)行合并,增強(qiáng)了網(wǎng)絡(luò)對(duì)不同尺度的適應(yīng)性;同時(shí),本文采用的自適應(yīng)融合模塊有效平衡了網(wǎng)絡(luò)的深度與寬度,增強(qiáng)了圖像內(nèi)容的抽象能力,提取的語義信息也更為豐富。為保證檢索準(zhǔn)確度,實(shí)驗(yàn)時(shí)將輸出的特征維度壓縮了50%(圖2中N表示特征維度,在這里特征維度從原始的2 048維降至1 024維),實(shí)現(xiàn)了在維持特征表征能力的同時(shí)降低特征維度,降低了后續(xù)哈希處理的計(jì)算開銷。
深度特征表征圖像信息更豐富的同時(shí)帶來了維度過高的問題,這將影響后續(xù)圖像檢索時(shí)的效率。在網(wǎng)絡(luò)中加入自適應(yīng)融合模塊雖然能將特征維度壓縮至原來的一半,但對(duì)于大數(shù)據(jù)集提取的深度特征而言,依舊會(huì)面臨巨大的存儲(chǔ)壓力和計(jì)算開銷。因此,本文從緩解存儲(chǔ)壓力和降低檢索所需計(jì)算成本的角度對(duì)深度特征進(jìn)行處理。
本文借鑒simhash算法和特征融合的思想,對(duì)特征進(jìn)行融合降維。特征數(shù)據(jù)在低維下更容易處理且更容易使用,因此需要對(duì)深度特征進(jìn)行篩選,使得留下的特征之間具有獨(dú)立性。由于PCA處理特征時(shí)以方差衡量信息量,不受數(shù)據(jù)集以外的因素影響(PCA屬于無監(jiān)督學(xué)習(xí),訓(xùn)練時(shí)不需要借助標(biāo)簽),且各主成分之間正交,可消除原始數(shù)據(jù)成分間相互影響的因素,更重要的是該方法計(jì)算簡單(主要運(yùn)算是特征值分解),易于實(shí)現(xiàn)。因此,對(duì)特征進(jìn)行稀疏化前先采用主成分分析法將高維的深度特征通過線性變換投影到低維空間中,解決訓(xùn)練數(shù)據(jù)中存在的數(shù)據(jù)特征過多和特征累贅等問題,確保留下的深度特征是相互獨(dú)立的。實(shí)驗(yàn)中根據(jù)特征隨機(jī)投影的方式生成權(quán)重,但隨機(jī)投影會(huì)帶來一定的誤差,因此本文在選擇權(quán)重時(shí)對(duì)其設(shè)置范圍,根據(jù)降維后的特征將其映射至一個(gè)更小的區(qū)域,再在區(qū)域內(nèi)隨機(jī)生成權(quán)重值(取值為(0,1))。處理后的特征經(jīng)加權(quán)再降維后,映射得到更為精簡的二值哈希編碼。隨機(jī)投影法能有效提高算法的執(zhí)行速度,但從應(yīng)用層面的需求考慮,樣本數(shù)據(jù)的評(píng)價(jià)標(biāo)準(zhǔn)不一樣,需要對(duì)其量綱化,統(tǒng)一評(píng)價(jià)標(biāo)準(zhǔn),因此需要對(duì)特征數(shù)據(jù)進(jìn)行預(yù)處理。深度特征通過加權(quán)降維實(shí)現(xiàn)不同特征的融合,顯著提高了圖像檢索效率,彌補(bǔ)了整體準(zhǔn)確率低的不足。哈希時(shí)隨機(jī)投影矢量的維度即哈希后特征的維度,因?yàn)樾枰拇鎯?chǔ)空間較少,所以適合于大規(guī)模數(shù)據(jù)的索引。
稀疏化優(yōu)化算法描述如下所述:
輸入:訓(xùn)練集X={x1,x2,x3,…,xn1}T,其中xi={a1,a2,a3,…,a1024};測試集Y={y1,y2,y3,…,yn2}T,其中yi={b1,b2,b3,…,b1024};哈希長度m,權(quán)重W。
輸出:二值哈希編碼H1和H2。
步驟2用特征分解法求得協(xié)方差矩陣Z1和Z2的特征值和特征向量;
步驟3對(duì)特征值從大到小排序,選擇其中最大的d個(gè),然后將對(duì)應(yīng)的d個(gè)特征向量分別組成特征矩陣向量px和py;
步驟4將數(shù)據(jù)轉(zhuǎn)換到d個(gè)特征向量構(gòu)建的新空間中,即X1=px,Y1=py;
步驟5對(duì)X1和Y1進(jìn)行預(yù)處理分別得到p′x和p′y;
步驟6權(quán)重選取:
根據(jù)p′x隨機(jī)投影生成m(m 步驟7特征融合降維: H1=sgn(W·p′x)∈{0,1}mK #設(shè)置閾值為0 H2=sgn(W·p′y)∈{0,1}mK #設(shè)置閾值為0; 所有實(shí)驗(yàn)都是在2個(gè)廣泛使用的圖像數(shù)據(jù)集CIFAR-10和ImageNet上進(jìn)行。 CIFAR-10是一個(gè)單標(biāo)簽數(shù)據(jù)集,包含60 000幅32×32彩色圖像,共10類。由于圖像的像素低,因此它的識(shí)別難度大。選取10 000幅圖像組成訓(xùn)練集,選取1 000幅圖像組成測試集。 ImageNet是大型視覺識(shí)別挑戰(zhàn)賽(ILSVRC)的著名基準(zhǔn)數(shù)據(jù)集。 它具有1 000個(gè)對(duì)象類別,其中包含約120萬幅訓(xùn)練圖像和5萬幅驗(yàn)證圖像。本文隨機(jī)選擇100個(gè)類別,選取10 000幅圖像組成訓(xùn)練集,選取5 000幅圖像組成測試集。 所有的網(wǎng)絡(luò)都是通過Keras深度學(xué)習(xí)框架實(shí)現(xiàn)的,并在服務(wù)器上進(jìn)行了訓(xùn)練/測試,該服務(wù)器配置16 GB RAM,并配備有8 GB顯存的NVIDIA RTX2070。 本文以圖像平均檢索精度mAP(mean Average Precision)和準(zhǔn)確率P(Precision)作為評(píng)價(jià)指標(biāo)。AP(Average Precision)是衡量檢索每個(gè)類別圖像精度的指標(biāo)。AP計(jì)算公式如式(1)所示: (1) 其中,cj表示第j類圖像的數(shù)量,location(i)表示第i個(gè)樣本在檢索結(jié)果中的位置。 mAP則是衡量檢索所有類別(M種類別)圖像精度的指標(biāo),即AP的平均值,計(jì)算公式如式(2)所示: (2) 準(zhǔn)確率P(Precision)表達(dá)式為: (3) 其中,C指的是系統(tǒng)檢索到的相關(guān)圖像數(shù),D指的是系統(tǒng)檢索到的所有圖像總數(shù)。 實(shí)驗(yàn)采用自適應(yīng)融合網(wǎng)絡(luò)AF-Net(Adaptive Fusion Network)提取圖像特征,再對(duì)深度特征進(jìn)行哈希編碼。對(duì)比實(shí)驗(yàn)有:改進(jìn)網(wǎng)絡(luò)再通過LSH(Locality Sensitive Hashing)[11]方法編碼(AF-Net-lsh);改進(jìn)網(wǎng)絡(luò)再通過flyhash方法編碼(AF-Net-flyhash)。本文選擇以下哈希方法進(jìn)行mAP的對(duì)比:LSH,2種最先進(jìn)的監(jiān)督哈希方法LFH(Latent Factor Hashing)[12]和SDH(Supervised Discrete Hashing)[13],5種最先進(jìn)的深度監(jiān)督哈希方法CNNH[14]、DeSH[15]、DNNH[16]、DRSCH[17]和DSH(Deep Supervised Hashing)[18]。ImageNet數(shù)據(jù)集上的對(duì)比結(jié)果如表1所示。 Table 1 mAP comparison of different methods on ImageNet dataset表1 ImageNet數(shù)據(jù)集上不同算法的mAP對(duì)比 % 表1中展示了在ImageNet數(shù)據(jù)集上的圖像檢索結(jié)果。從實(shí)驗(yàn)結(jié)果可以看出,以改進(jìn)網(wǎng)絡(luò)來提升特征的表征能力再與稀疏化優(yōu)化算法相結(jié)合的方法有助于提升圖像檢索性能,32位、64位、96位和128位哈希碼的檢索結(jié)果分別為:66.60%,81.23%,86.50%和88.25%。在使用相同的改進(jìn)網(wǎng)絡(luò)配合不同哈希算法方案中,本文的圖像檢索算法檢索效果最佳,64位哈希碼的檢索精度分別提升13.82%和15.19%。由此證明本文的稀疏化優(yōu)化算法能在特征降維的同時(shí)降低信息損失量,因此檢索效果相對(duì)而言最佳。本文圖像檢索算法(AF-Net-phash)相較于其它圖像檢索算法(CNNH、DeSH、DNNH、DRSCH和 DSH),檢索精度提高明顯,其中與對(duì)比算法DSH相比在64位哈希碼時(shí)所取得的mAP值提升高達(dá)26.69%。由此證實(shí)在網(wǎng)絡(luò)中加入自適應(yīng)融合模塊有利于提升特征的表征能力,再與稀疏化優(yōu)化算法相結(jié)合能取得較優(yōu)的檢索效果。 圖3給出了3種圖像檢索算法(AF-Net- flyhash、AF-Net-lsh和AF-Net-phash)在64位哈希碼時(shí)檢索前1 000幅圖像的檢索準(zhǔn)確率。對(duì)比后不難發(fā)現(xiàn),本文提出的檢索算法(AF-Net-phash)檢索準(zhǔn)確率最高。 Figure 3 Precision curve of the improved algorithm in the Inception-V3 under different samples on ImageNet dataset圖3 在ImageNet數(shù)據(jù)集上不同采樣下 改進(jìn)算法在 Inception-V3 網(wǎng)絡(luò)中的精度曲線 圖4給出了3種圖像檢索算法(AF-Net- flyhash、AF-Net-lsh和AF-Net-phash)在不同長度哈希碼時(shí)檢索ImageNet數(shù)據(jù)集中前5 000幅圖像的時(shí)間。對(duì)比后不難發(fā)現(xiàn),本文提出的檢索算法(AF-Net-phash)檢索時(shí)間最短。 Figure 4 Time comparison of different algorithms on ImageNet dataset圖4 ImageNet 數(shù)據(jù)集上不同算法的檢索時(shí)間對(duì)比 表2展示了在CIFAR-10數(shù)據(jù)集上的圖像檢索結(jié)果。從實(shí)驗(yàn)結(jié)果可以看出,以改進(jìn)網(wǎng)絡(luò)來提升特征的表征能力有助于提升哈希后的檢索性能,在32位、64位、96位和128位哈希碼時(shí)的檢索結(jié)果分別為:53.41%,68.58%,73.30%和76.73%,在使用相同的改進(jìn)網(wǎng)絡(luò)配合不同哈希算法方案中,本文提出的圖像檢索算法檢索效果最佳,在哈希碼長度為64位時(shí),檢索精度提升分別為15.36%和14.10%。本文算法(AF-Net-phash)相較于其他圖像檢索算法(CNNH、DeSH、DNNH、DRSCH和 DSH),檢索精度有明顯的提升,尤其是與DSH算法相比,在哈希碼長度為128位時(shí)所取得的mAP值提升高達(dá)6.22%。由此可證明,在網(wǎng)絡(luò)中加入自適應(yīng)融合模塊使得提取的特征更具表征能力,再經(jīng)過稀疏化優(yōu)化算法能在特征維度降低的同時(shí)盡可能減少圖像特征信息量的損失,由此獲得較好的檢索效果。 Table 2 mAP comparison of different algorithmson CIFAR-10 dataset表2 CIFAR-10數(shù)據(jù)集上不同算法的mAP對(duì)比 % 圖5給出了3種圖像檢索算法(AF-Net- flyhash、AF-Net-lsh和AF-Net-phash)在64位哈希碼時(shí)檢索前1 000幅圖像的檢索精度。從圖5中可以清楚地看到,相比而言,本文提出的檢索算法(AF-Net-phash)檢索效果最佳。 Figure 5 Precision curve of the improved algorithm in the Inception-V3 under different samples on CIFAR-10 dataset圖5 在CIFAR-1數(shù)據(jù)集上不同采樣下 改進(jìn)算法在 Inception-V3 網(wǎng)絡(luò)中的精度曲線 圖6給出了3種圖像檢索算法(AF-Net- flyhash、AF-Net-lsh和AF-Net-phash)在不同長度哈希碼時(shí)檢索CIFAR-1數(shù)據(jù)集中前1 000幅圖像的時(shí)間。從圖6中可以清楚地看到,相比而言,本文提出的檢索算法(AF-Net-phash)檢索效果最佳。 Figure 6 Time comparison of different algorithms on CIFAR-10 dataset圖6 CIFAR-10數(shù)據(jù)集上不同算法的檢索時(shí)間對(duì)比 本文提出了一種基于自適應(yīng)融合網(wǎng)絡(luò)與稀疏化優(yōu)化算法相結(jié)合的圖像檢索算法。首先,通過在網(wǎng)絡(luò)中接入自適應(yīng)融合模塊來提取更具表征能力的深度特征。自適應(yīng)融合模塊的另一個(gè)功能則是在提升檢索精度的同時(shí)將特征維度(2 048維)降低至原來的一半,緩解存儲(chǔ)壓力。其次,為減輕特征的存儲(chǔ)壓力和提升檢索效率,本文使用了稀疏化優(yōu)化算法,將高維特征(1 024維)映射為精簡的二值哈希序列(64維),占用的存儲(chǔ)空間縮小至原來的 1/59。最后,本文采用mAP和檢索時(shí)間對(duì)算法進(jìn)行評(píng)價(jià)。實(shí)驗(yàn)結(jié)果表明,本文提出的圖像檢索算法不僅在不同數(shù)據(jù)集上檢索效率都有明顯的提升,還有效地緩解了內(nèi)存壓力并提升了檢索精度。接下來本文將致力于探索更為精簡有效的圖像檢索算法。4 實(shí)驗(yàn)與分析
4.1 實(shí)驗(yàn)設(shè)置
4.2 評(píng)價(jià)指標(biāo)
4.3 實(shí)驗(yàn)評(píng)估與分析
5 結(jié)束語