亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的圖像搜索技術(shù)研究

        2019-03-21 01:31:20
        關(guān)鍵詞:哈希卷積編碼

        (山東師范大學(xué)物理與電子科學(xué)學(xué)院,250358,濟(jì)南)

        隨著數(shù)字多媒體和各類(lèi)應(yīng)用APP的普及,人們每天都要接觸到大量的圖像信息,在網(wǎng)絡(luò)上進(jìn)行頻繁的圖像下載、上傳和查找操作.在實(shí)際生活中,相似圖像搜索技術(shù)有著巨大的應(yīng)用價(jià)值.它可以用來(lái)查找某些圖片的同源圖片、識(shí)別圖像內(nèi)容、檢測(cè)盜版圖片、商品比價(jià)、圖片導(dǎo)購(gòu)等.而要有效地利用圖像信息,并能夠在海量的圖像數(shù)據(jù)庫(kù)中比較準(zhǔn)確地找到用戶(hù)所需要的圖像信息,就需要高效的機(jī)器學(xué)習(xí)語(yǔ)言.但是對(duì)于這些海量的圖像數(shù)據(jù),當(dāng)我們對(duì)其進(jìn)行檢索時(shí),因其數(shù)量大、圖像特征維度高以及要求檢索實(shí)時(shí)響應(yīng)的特點(diǎn),使得圖像搜索技術(shù)面臨巨大的挑戰(zhàn).雖然傳統(tǒng)的線性?huà)呙璧乃阉鞣椒艿玫奖容^好的搜索精度,但是極其耗時(shí)而且內(nèi)存使用效率很低.后來(lái),提出了基于樹(shù)的相似最近鄰的方法.KD樹(shù)算法[1]通過(guò)對(duì)多維數(shù)據(jù)空間的分割,然后在特定空間的內(nèi)進(jìn)行相關(guān)搜索操作從而實(shí)現(xiàn)高效索引的數(shù)據(jù)結(jié)構(gòu).在KD樹(shù)提出之后,也陸續(xù)地提出了其他的樹(shù)形結(jié)構(gòu),如M樹(shù),Cover樹(shù),Metric樹(shù)等.基于樹(shù)的圖像搜索方法在處理低維數(shù)據(jù)時(shí)能有較好的結(jié)果,但是在處理高維數(shù)據(jù)時(shí)搜索效率會(huì)急劇下降,無(wú)法適應(yīng)對(duì)海量數(shù)據(jù)的處理.為此,基于哈希編碼的圖像搜索方法被提出來(lái)了.

        哈希編碼可以將表示圖像的高維向量表示成二進(jìn)制碼的形式,每一個(gè)圖像都有自己獨(dú)一無(wú)二的哈希碼,我們通過(guò)這個(gè)編碼就可以快速找到相關(guān)圖像并比較出圖像間的相似程度.哈希編碼能夠降低數(shù)據(jù)維度,減少數(shù)據(jù)的存儲(chǔ)和搜索代價(jià),從而顯著提高檢索系統(tǒng)的效率.因此,成為了圖像搜索領(lǐng)域的一個(gè)研究熱點(diǎn).現(xiàn)在主流的哈希算法是將圖像檢索系統(tǒng)中的表征圖像特征的高維向量,通過(guò)哈希函數(shù)映射成簡(jiǎn)潔的二進(jìn)制的哈希碼并構(gòu)建哈希表,而圖像間的相似度可以直接通過(guò)計(jì)算海明距離來(lái)進(jìn)行比較,計(jì)算速度大大提高,從而能進(jìn)行快速的圖像檢索.對(duì)于基于哈希編碼的圖像檢索系統(tǒng)而言,哈希函數(shù)的選擇至關(guān)重要,要能保證哈希前和哈希后的特征之間的相似度是一致的.如圖1所示,哈希后原本相似的圖像的哈希碼盡可能一樣,而不相似的圖像的哈希碼要盡可能地不一樣.

        雖然哈希編碼應(yīng)用在相似圖像搜索上有不錯(cuò)的效果,但是這種方法也存在著一些不足.目前的主流方法是將特征提取和哈希學(xué)習(xí)分開(kāi)的,我們只有先提取到圖像的特征才能進(jìn)行后續(xù)的哈希編碼.如果我們一開(kāi)始提取到的圖像特征沒(méi)法準(zhǔn)確地表達(dá)各類(lèi)圖像,那后續(xù)哈希函數(shù)的選擇就會(huì)失去意義.因此,如何提高特征提取的準(zhǔn)確度,將特征提取的方法和哈希編碼結(jié)合在一起,從而提高整個(gè)圖像搜索系統(tǒng)的精度具有十分重要的研究和應(yīng)用意義.

        圖1 哈希編碼示意圖

        綜合上述的研究和分析,本文提出了將深度卷積神經(jīng)網(wǎng)絡(luò)和哈希編碼相結(jié)合的快速圖像搜索算法.與其他圖像搜索算法相比,本文提出的基于卷積神經(jīng)網(wǎng)絡(luò)和哈希編碼的方法有以下優(yōu)點(diǎn):1)無(wú)需采用人工的方法對(duì)圖像提取特征,而是直接通過(guò)深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)來(lái)進(jìn)行學(xué)習(xí),提高了搜索精度;2)通過(guò)運(yùn)用己經(jīng)訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò),提高哈希編碼的速度和效果,縮短了檢索時(shí)間.

        1 哈希編碼

        1.1圖像哈希方法分類(lèi)2007年,Salakhutdinov和Hinton[3]將哈希編碼應(yīng)用到機(jī)器學(xué)習(xí)方面,廣泛應(yīng)用于信息檢索、計(jì)算機(jī)視覺(jué)、以及圖像搜索等多個(gè)領(lǐng)域.因?yàn)楣>幋a能將圖像信息表示成二進(jìn)制的形式,從而大大解放了圖像存儲(chǔ)的內(nèi)存,提高了圖像查找的速度,是近幾年在圖像搜索領(lǐng)域的一個(gè)研究熱點(diǎn).

        現(xiàn)在大多的哈希編碼都可以通過(guò)兩步來(lái)實(shí)現(xiàn)——先采用度量學(xué)習(xí)[2]的方法將原數(shù)據(jù)集合映射到低維空間;然后對(duì)降維后的特征向量進(jìn)行離散化處理得到二進(jìn)制的哈希碼并生成哈希編碼表.從機(jī)器學(xué)習(xí)的層面來(lái)看,目哈希算法可以分為無(wú)監(jiān)督哈希算法、半監(jiān)督哈希算法和有監(jiān)督哈希算法三類(lèi)[14].

        無(wú)監(jiān)督聚類(lèi)是無(wú)監(jiān)督學(xué)習(xí)的一種方法,在搜索圖像時(shí)我們只需向系統(tǒng)輸入代表圖像信息的向量,哈希算法就能夠自動(dòng)地學(xué)習(xí)哈希函數(shù)并生成對(duì)應(yīng)的二進(jìn)制哈希碼.無(wú)監(jiān)督哈希中有許多極具代表性的算法,例如局部敏感哈希算法(Locality Sensitive Hashing,LSH),KLSH[4],SH[5],ITQ[6]等.

        1998年,Indyk等人提出了LSH算法的雛形,LSH算法對(duì)后續(xù)哈希算法的發(fā)展具有重要意義.LSH算法可以利用隨機(jī)投影實(shí)現(xiàn),隨機(jī)投影依據(jù)Johnson-Lindenstrauss定理產(chǎn)生特定分布的投影矩陣,然后根據(jù)該投影矩陣對(duì)原始的高維數(shù)據(jù)進(jìn)行線性變換投影到低維空間,并且使得投影后的低維空間在很大程度上都能維持原始高維空間下的距離信息[7].LSH算法采用的是過(guò)濾-驗(yàn)證結(jié)構(gòu)(Filter-and-Refineframwork)的概率方法.在過(guò)濾階段,LSH利用哈希技術(shù)把不相似的圖像都過(guò)濾掉,剩下的圖像放到候選集合里,這樣候選集合里的圖像就是粗略篩選出的在某些特征上相似的對(duì)象.在進(jìn)行圖像搜索時(shí),只需要對(duì)這些候選集里的圖像進(jìn)行相似度量計(jì)算,因?yàn)楹蜻x集里圖像的數(shù)量遠(yuǎn)少于實(shí)際圖像集里的圖像 ,這樣就可以大大縮短查詢(xún)計(jì)算時(shí)間,提高了查詢(xún)效率.

        經(jīng)典的LSH算法在原始空間上的映射是隨機(jī)進(jìn)行的,該算法的要求是對(duì)已知的原空間進(jìn)行操作,這就限制了圖像搜索技術(shù)及其搜索精度的提高.2009年Kulis等人提出了能在核空間而不是在原空間構(gòu)造哈希函數(shù)的KLSH算法[4](Kernelized Locality-sensitive Hashing).KLSH算法能夠應(yīng)用于任意的核函數(shù)從而彌補(bǔ)了LSH在可以處理的圖像空間上的不足.

        LSH是通過(guò)隨機(jī)投影實(shí)現(xiàn)的,因?yàn)榕c數(shù)據(jù)無(wú)關(guān)所以具有通用性,但想提高它的準(zhǔn)確度就需要增加編碼的長(zhǎng)度.為了使系統(tǒng)只需較短的編碼長(zhǎng)度就能達(dá)到比較好的檢索效率,于是基于學(xué)習(xí)的哈希編碼方式被提出來(lái).譜哈希(Spectral Hashing,SH)是無(wú)監(jiān)督學(xué)習(xí)中具有代表性的一種算法,能給每個(gè)對(duì)象生成一種二進(jìn)制編碼,從而使得對(duì)象之間的相似度只與其二進(jìn)制編碼之間的海明距離有關(guān).圖像間的相似度越高它們的海明距離越小,相似度越低海明距離越大.

        2011年,Gong等人提出了既可以用于有監(jiān)督也可以用于無(wú)監(jiān)督算法的迭代量化哈希算法(Iterative Quantization,ITQ).ITQ的主要思路是先用PCA對(duì)原始空間的數(shù)據(jù)集進(jìn)行降維處理,要使量化誤差盡量地小,只需將該數(shù)據(jù)集中的數(shù)據(jù)點(diǎn)映射到二進(jìn)制超立方體的頂點(diǎn)上,就能得到對(duì)應(yīng)該數(shù)據(jù)集優(yōu)良的二進(jìn)制編碼[6].ITQ采用旋轉(zhuǎn)數(shù)據(jù)的方法使其量化誤差達(dá)到最小,該做法最早可參考文獻(xiàn)[8,9],不過(guò)文獻(xiàn)[9]中的算法并沒(méi)有對(duì)數(shù)據(jù)進(jìn)行降維,而文獻(xiàn)[8]中的算法也沒(méi)有針對(duì)二進(jìn)制哈希碼的操作.

        無(wú)監(jiān)督哈希與數(shù)據(jù)無(wú)關(guān)所以大多具有通用性,而與數(shù)據(jù)相關(guān)的有監(jiān)督哈希則不具備通用性.但是相比無(wú)監(jiān)督哈希,有監(jiān)督的哈希能學(xué)習(xí)到更緊湊的編碼方式,哈希效果要比無(wú)監(jiān)督好.雖然有監(jiān)督哈希的效果會(huì)隨著編碼長(zhǎng)度的增加而提升,但是當(dāng)編碼長(zhǎng)度達(dá)到一定程度后,哈希效果不會(huì)再隨著編碼長(zhǎng)度的增加而提升,甚至圖像檢索的效果會(huì)變差.

        2011年Norouzi和Blei提出了一種有監(jiān)督的哈希算法(Minimal Loss Hashing,MLH),它可以根據(jù)結(jié)構(gòu)化SVM(Structural SVM)構(gòu)造一個(gè)用于哈希函數(shù)學(xué)習(xí)的目標(biāo)函數(shù).由于它采用的是連續(xù)且非凸的目標(biāo)損失函數(shù),所以它很難被直接優(yōu)化.Kulis等提出的BRE (Binary Reconstructive Embedding)算法構(gòu)造哈希函數(shù)的方法與基于隨機(jī)投影構(gòu)造哈希函數(shù)的方法不同,它采用了坐標(biāo)梯度下降的辦法迭代地更新哈希函數(shù)直到找到一個(gè)局部最優(yōu)解,主要思想是盡量使哈希學(xué)習(xí)前后原數(shù)據(jù)集中圖像間的相似程度一致.

        2012年,Liu等人提出了有監(jiān)督的哈希算法(Kerncl-based Supervised Hashing,KSH).前面提到的MLH和 BRE是直接通過(guò)將哈希碼間的海明距離最小化以達(dá)到訓(xùn)練哈希函數(shù)的目的的,KSH與他們不同的是它是將哈希碼的內(nèi)積最小化了,也就是說(shuō)它計(jì)算哈希碼的內(nèi)積就相當(dāng)于計(jì)算海明距離.將哈希碼的內(nèi)積最小化可以使問(wèn)題變得更簡(jiǎn)單更易解決.

        考慮到無(wú)監(jiān)督和有監(jiān)督哈希的優(yōu)缺點(diǎn),2010年Wang等人提出了SSH(Scmi-Supervised Hashing),它綜合了有監(jiān)督哈希和無(wú)監(jiān)督哈希算法的優(yōu)點(diǎn),是一種半監(jiān)督哈希算法,在某種程度上可以使哈希函數(shù)的質(zhì)量得到提高.

        1.2哈希編碼算法為便于說(shuō)明,先定義算法中的相似性矩陣S,

        我們通過(guò)神經(jīng)網(wǎng)絡(luò)對(duì)哈希函數(shù)進(jìn)行訓(xùn)練,并且需要得到數(shù)據(jù)集中圖片相應(yīng)的哈希碼,下面就介紹構(gòu)造訓(xùn)練集的哈希編碼的算法的推導(dǎo)過(guò)程.

        由此,可我們可以將以下目標(biāo)函數(shù)最小化,從而來(lái)得到訓(xùn)練集中圖像的哈希碼:

        (1)

        其中,‖·‖F(xiàn)為弗羅貝尼烏斯范數(shù),Q∈{一1,1}m×n.

        雖然定義了目標(biāo)函數(shù),但直接優(yōu)化公式仍然是非常困難的.由于二值約束條件Q∈{一1,1}m×n的存在,該問(wèn)題很難求解,因此需要與譜哈希求解一樣放寬約束條件,即將矩陣Q的取值范圍轉(zhuǎn)變?yōu)镼∈[-1,1],而不是原有的離散值一1和1,那么目標(biāo)函數(shù)就轉(zhuǎn)化成下面的形式,

        (2)

        式(2)依然需要繼續(xù)優(yōu)化,由于存在項(xiàng)QQT,可知該問(wèn)題是非凸的(non-convex),可以采用貪心策略來(lái)處理非凸問(wèn)題.每次按順序更新或者隨機(jī)選更新Q中的某一元素,同時(shí)保持其他元素不變.假設(shè)當(dāng)前要更新的元素為Qij,其他元素不變,使Q=[Q·1,Q·2,...,Q·q],其中Q·j表示為矩陣Q的第j列.重寫(xiě)式(2)為:

        (3)

        其中,為了便于推導(dǎo)說(shuō)明,我們定義矩陣R為:

        (4)

        因?yàn)槎x的矩陣S是對(duì)稱(chēng)陣,可知R也是對(duì)稱(chēng)陣,所以Qij的目標(biāo)函數(shù)可以寫(xiě)作:

        (5)

        假設(shè)想要更新Qij為Qij+d,那么將式子優(yōu)化為:

        (6)

        為了便于得到d,將g(Qij+d)近似泰勒展開(kāi)為:

        (7)

        其中,g'(Qij)和g"(Qij)分別為函數(shù)g的一階導(dǎo)和二階導(dǎo),即:

        (8)

        對(duì)近似的二次函數(shù)中的d求導(dǎo),假設(shè)導(dǎo)數(shù)為0,得到d的解:

        (9)

        除了需要滿(mǎn)足-1≤Qij+d≤1外,為了使Qij+d的結(jié)果為1或-1,根據(jù)哈希編碼的二值定義,還必須約束d的取值范圍.由上可知,d的取值應(yīng)為-1-Qij或1-Qij+d,通過(guò)算法首先得到在理想情況下d的取值,然后取-1-Qij和1-Qij+d這兩個(gè)更接近d的值,與傳統(tǒng)方法方法相比,減少了需要對(duì)結(jié)果取整造成的誤差,同時(shí)提高了算法的運(yùn)算速度.

        通過(guò)式(9)求得d的解后,Qij的形式就更新為Qij→Qij+d.

        可以發(fā)現(xiàn),每一次更新Qij時(shí)都需要計(jì)算一次d,而其中求解矩陣R又是耗時(shí)最多的,時(shí)間復(fù)雜度為O(n2),如果訓(xùn)練集n過(guò)大會(huì)使得每次更新的代價(jià)過(guò)高.因此,下面將討論如何更好地計(jì)算R,從而將每次更新Qij的時(shí)間復(fù)雜度降到O(n).

        施行教學(xué)評(píng)價(jià)最重要的目是為了不斷得到反饋,改善教學(xué)效果,因此師徒制教學(xué)評(píng)價(jià)體系中應(yīng)該設(shè)置順暢的反饋渠道和激勵(lì)方法,將采集、分析和匯總的各種相關(guān)信息及時(shí)傳遞到有關(guān)部門(mén),相關(guān)部門(mén)根據(jù)這些信息能夠及時(shí)進(jìn)行總結(jié)和整改,修改和制定各項(xiàng)措施,使教學(xué)質(zhì)量不斷提高。

        定義新矩陣L=QQT-nS,計(jì)算新矩陣的一階導(dǎo)g'(Qij)和二階導(dǎo)g"(Qij):

        (10)

        可以發(fā)現(xiàn),當(dāng)給定矩陣L時(shí),該算法能夠在O(n)的時(shí)間內(nèi)得到g'(Qij)和g'(Qij),也可以在O(n)的時(shí)間內(nèi)求出d.與此同時(shí),當(dāng)更新Qij←Qij+d后,只有矩陣L的i行和j列發(fā)生變化,所以得到新的矩陣L為:

        (11)

        由式(11)可以發(fā)現(xiàn)更新矩陣L的時(shí)間復(fù)雜度只有O(n),所以開(kāi)始時(shí)只要先構(gòu)造矩陣L=QQT-nS,就能保證在O(n)時(shí)間內(nèi)完成后面Qij以及矩陣L的每一輪更新,每輪更新的時(shí)間復(fù)雜度為O(n).

        圖2 基于深度學(xué)習(xí)的啥希算法模型示意圖

        2 深度學(xué)習(xí)

        2.1深度卷積神經(jīng)網(wǎng)絡(luò)概述早期的基于圖像內(nèi)容的圖像搜索方法主要是通過(guò)人工來(lái)提取圖像特征,但是人工提取不僅工作量大而且提取圖像特征的準(zhǔn)確度也不夠高.深度學(xué)習(xí)是近些年的一項(xiàng)熱門(mén)研究.我們可以利用深度學(xué)習(xí),建立模型讓系統(tǒng)自己學(xué)習(xí)圖像的特征,這樣就可以大大降低人工提取特征的誤差.

        本文中使用的深度學(xué)習(xí)模型是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[11]的架構(gòu).卷積神經(jīng)網(wǎng)絡(luò)與一般的神經(jīng)網(wǎng)絡(luò)的區(qū)別在于,卷積神經(jīng)網(wǎng)絡(luò)包含一個(gè)由卷積層和次采樣層組成的特征抽取器.在卷積神經(jīng)網(wǎng)絡(luò)的卷積層中,一個(gè)神經(jīng)元僅與部分相鄰層的神經(jīng)元連接.在CNN的卷積層,神經(jīng)元平面分享相同的特征權(quán)重.卷積核通常以隨機(jī)十進(jìn)制矩陣的形式初始化.在網(wǎng)絡(luò)的訓(xùn)練過(guò)程中,卷積核將學(xué)習(xí)獲得一個(gè)合理的權(quán)重.共享權(quán)重(卷積核)的直接好處是減少網(wǎng)絡(luò)層之間的連接性,同時(shí)減少過(guò)擬合的風(fēng)險(xiǎn).抽樣也叫池,通常用平均抽樣(平均池)和最大抽樣(MAX池)兩種形式.次采樣可以看作是一個(gè)特殊的卷積過(guò)程.卷積和次采樣大大減少了模型的參數(shù),降低了模型的復(fù)雜度.

        本文參考使用了卷積神經(jīng)網(wǎng)絡(luò)中的AlexNet 網(wǎng)絡(luò)模型,與之前的卷積神經(jīng)網(wǎng)絡(luò)(比如LeNet5等)相比優(yōu)點(diǎn)在于:1)采用ReLU非線性激活函數(shù),使用這種非線性激活函數(shù)比使用Sigmoid激活函數(shù)有更快的收斂速度.2)采用多個(gè)GPU編程,充分利用GPU資源加速網(wǎng)絡(luò)訓(xùn)練.3)Dropout方法,相當(dāng)于將多個(gè)網(wǎng)絡(luò)疊加為一個(gè)網(wǎng)絡(luò),增強(qiáng)網(wǎng)絡(luò)能力.4)卷積階段的權(quán)重共享減少了參數(shù)數(shù)量,因而降低了網(wǎng)絡(luò)模型的復(fù)雜度.5)在訓(xùn)練圖像上采集小窗口進(jìn)行訓(xùn)練,擴(kuò)充了訓(xùn)練數(shù)據(jù),減少了過(guò)擬合.

        圖3 Alex Net網(wǎng)絡(luò)模型

        2.2圖像預(yù)處理為了便于基于深度學(xué)習(xí)的圖像搜索模型進(jìn)行訓(xùn)練和計(jì)算,我們先對(duì)圖像進(jìn)行預(yù)處理.通過(guò)對(duì)圖像進(jìn)行簡(jiǎn)單的縮放、逐樣本均值削減以及白化處理,來(lái)減少圖像的冗余信息.

        2.2.1 簡(jiǎn)單縮放 調(diào)整圖像原始數(shù)據(jù)的維度,使得縮放后圖像的數(shù)據(jù)都落在[0,1]內(nèi).具體如公式為:

        xi=xi/255.

        (12)

        其中,xi為圖像像素的灰度值.

        2.2.2 逐樣本均值消減 對(duì)圖像的數(shù)據(jù)點(diǎn)進(jìn)行均值消除,移除圖像的平均灰度值并消除數(shù)據(jù)的直流分量.設(shè)圖像各個(gè)像素的灰度值為x(i)∈Rn,對(duì)圖像進(jìn)行零均值化:

        (13)

        (14)

        2.2.3 白化 圖像的相鄰像素之間如果有很強(qiáng)的相關(guān)性,我們把這種相關(guān)像素信息稱(chēng)為冗余信息.為了去掉圖像的冗余信息、降低圖像特征間的相關(guān)性,對(duì)圖像進(jìn)行白化操作,并使得所有特征擁有相同的方差.這樣有利于簡(jiǎn)化卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程,有利于模型對(duì)圖像特征的學(xué)習(xí).設(shè)R為任意正交矩陣,并且RRT=RTR=I,令R=U,得到公式:

        (15)

        (16)

        一般來(lái)說(shuō),當(dāng)x在區(qū)間[-1,1]時(shí),取值為ε≈10-5.在公式(15)加上ε,對(duì)輸入圖像而言,也起到了低通濾波的作用,消除了圖像內(nèi)產(chǎn)生的噪聲,對(duì)學(xué)習(xí)到更好的特征有所幫助.

        2.3算法框架總結(jié)

        本文提出了一個(gè)基于深度學(xué)習(xí)和哈希算法的圖像搜索算法,具體算法的流程如下.

        1) 給定n個(gè)訓(xùn)練圖片{I1,I2,...,In},已知其相似信息來(lái)構(gòu)造相似性矩陣S;

        2) 將相似矩陣S作為輸入,運(yùn)行優(yōu)化算法,得到訓(xùn)練圖片的哈希矩陣Q;

        3) 將訓(xùn)練圖片集合{I1,I2,...,In}和哈希編碼矩陣Q輸入到深度卷積神經(jīng)網(wǎng)絡(luò)模型來(lái)學(xué)習(xí)哈希函數(shù);

        4) 搜索圖像時(shí)將圖像作為輸入,獲取的輸出層節(jié)點(diǎn)上的值sign(b-0.5)即為圖片的哈希碼.

        本文提出的算法不需要事先通過(guò)人工來(lái)提取圖像的特征再進(jìn)行哈希學(xué)習(xí),只要提供數(shù)據(jù)集中原始圖像就能直接學(xué)習(xí)到圖像間的相似性信息并得到相應(yīng)的哈希函數(shù).

        3 實(shí)驗(yàn)和分析

        3.1實(shí)驗(yàn)使用的數(shù)據(jù)集為了驗(yàn)證本文提出的與深度學(xué)習(xí)相結(jié)合的哈希算法的性能,通過(guò)訓(xùn)練數(shù)據(jù)集中的圖像對(duì)所提算法進(jìn)行實(shí)驗(yàn)分析,并和主流的哈希算法做出比較.

        實(shí)驗(yàn)對(duì)象是CIFAR-10數(shù)據(jù)集[12],它含有6萬(wàn)張32×32的彩色圖片,涵蓋了貓、狗、車(chē)等10個(gè)類(lèi)別.從CIFAR-10數(shù)據(jù)集的每一類(lèi)別中隨機(jī)抽取100張圖片用作訓(xùn)練樣本,其余的列為實(shí)驗(yàn)的圖像數(shù)據(jù)庫(kù).對(duì)于無(wú)監(jiān)督的哈希學(xué)習(xí)算法,將從測(cè)試集抽取的圖像作為訓(xùn)練樣本.而對(duì)于有監(jiān)督的哈希學(xué)習(xí)算法,訓(xùn)練樣本是從每個(gè)類(lèi)別隨機(jī)抽取的1 000張圖片.

        3.2多種算法的對(duì)比我們將本文提出的算法與前面提到的傳統(tǒng)的哈希算法進(jìn)行比較:1)局部敏感哈希(LSH); 2)譜哈希(SH); 3)迭代量化哈希(ITQ); 4)最小損失哈希(MLH); 5)二值重構(gòu)嵌入哈希(BRE) ; 6)核哈希(KSH);

        3.3實(shí)驗(yàn)結(jié)果分析由于本文提出的算法無(wú)需事先提取圖像特征,因此可以直接將圖片的像素作為算法的輸入,而其他用來(lái)對(duì)比的算法,輸入采用的是數(shù)據(jù)集最常用的特征.用一個(gè)512維的GIST向量[13]來(lái)表示CIFAR-10數(shù)據(jù)集中圖像的特征.

        表1 在CIFAR-10上使用不同哈希算法的海明排序MAP

        實(shí)驗(yàn)中使用MAP(Mean Average Precision)作為結(jié)果的評(píng)價(jià)標(biāo)準(zhǔn).表1是在CIFAR-10數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果,對(duì)比各項(xiàng)數(shù)據(jù)可以發(fā)現(xiàn):在以MAP為評(píng)價(jià)標(biāo)準(zhǔn)的情況下,有監(jiān)督哈希算法大部分的MAP都比無(wú)監(jiān)督的效果要好.與所有傳統(tǒng)的哈希算法對(duì)比,本文提出的算法圖像處理的效果更好.實(shí)驗(yàn)證明了該算法通過(guò)深度神經(jīng)網(wǎng)絡(luò)框架結(jié)合哈希編碼的方法能夠在保持圖像間的相似度的基礎(chǔ)上更快的搜索出圖像.

        4 結(jié) 語(yǔ)

        大規(guī)模的圖像搜索通常采用近相似最近鄰的方法,哈希算法在計(jì)算圖像最近鄰的方面具有訓(xùn)練速度快、存儲(chǔ)空間小等優(yōu)點(diǎn),因而成為大規(guī)模圖像搜索中一項(xiàng)關(guān)鍵的編碼技術(shù).但目前各種主要的哈希算法也存在著各自的不足,本文將哈希編碼與深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)結(jié)合起來(lái),通過(guò)選擇合適的深度卷積神經(jīng)網(wǎng)絡(luò)模型來(lái)提取圖像特征,優(yōu)化哈希編碼算法,使得提出的圖像搜索算法在圖像的搜索效率和效果上都得到了更好的表現(xiàn).

        本文提出的基于深度學(xué)習(xí)的方法仍然存在著一些問(wèn)題,例如深度神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)復(fù)雜訓(xùn)練時(shí)間較長(zhǎng),所以算法的可擴(kuò)展性和實(shí)用性較差.后續(xù)的研究重點(diǎn)可以考慮改進(jìn)傳統(tǒng)的哈希算法,并將其和優(yōu)秀的深度學(xué)習(xí)模型結(jié)合起來(lái),從而進(jìn)一步提高圖像搜索系統(tǒng)的性能.

        猜你喜歡
        哈希卷積編碼
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        基于SAR-SIFT和快速稀疏編碼的合成孔徑雷達(dá)圖像配準(zhǔn)
        《全元詩(shī)》未編碼疑難字考辨十五則
        子帶編碼在圖像壓縮編碼中的應(yīng)用
        電子制作(2019年22期)2020-01-14 03:16:24
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        Genome and healthcare
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        基于OpenCV與均值哈希算法的人臉相似識(shí)別系統(tǒng)
        基于維度分解的哈希多維快速流分類(lèi)算法
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法
        国产精品偷伦免费观看的| 特黄aaaaaaaaa毛片免费视频| 亚洲国产精品无码专区影院| 两个黑人大战嫩白金发美女| 26uuu欧美日本在线播放| 日本乱子人伦在线视频| 中文岛国精品亚洲一区| 亚洲国产精品国自产拍av在线| 女同一区二区三区在线观看| 久久久久夜夜夜精品国产| 乱码午夜-极国产极内射| 久久久久欧洲AV成人无码国产| 亚洲中文字幕熟女五十| 产美女被爽到高潮免费a| 人成午夜大片免费视频77777| 亚洲精品无码久久久久av麻豆 | 天堂最新在线官网av| 日本女同视频一区二区三区| 久久精品国产亚洲av麻豆长发| 亚洲中久无码永久在线观看同| 亚洲av永久青草无码精品| 中文字幕亚洲一二三区| 亚洲成a∨人片在线观看不卡| 全免费a级毛片免费看网站| 一本一本久久久久a久久综合激情| 亚洲另类国产精品中文字幕| 亚洲一区二区三区精品| 亚洲精品国产美女久久久| 亚洲婷婷丁香激情| 麻豆成年人视频在线观看| 午夜精品久久久久久久99老熟妇| 精品熟女日韩中文十区| 美女视频永久黄网站免费观看国产| 亚洲av成人无网码天堂 | 无码av一区二区大桥久未 | 国产精选污视频在线观看| 99JK无码免费| 国产成人av三级在线观看韩国| 少妇愉情理伦片高潮日本 | 国产亚洲曝欧美不卡精品| 亚洲av乱码二区三区涩涩屋 |