亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        多特征編碼融合的圖像分類研究?

        2021-11-13 08:24:48胡湘萍代江華
        電子器件 2021年5期
        關(guān)鍵詞:字典直方圖準(zhǔn)確度

        胡湘萍,代江華

        (1.河南經(jīng)貿(mào)職業(yè)學(xué)院計(jì)算機(jī)工程學(xué)院,河南 鄭州 450018;2.長(zhǎng)江大學(xué)計(jì)算機(jī)科學(xué)學(xué)院,湖北 荊州 434023)

        圖像分類是計(jì)算機(jī)視覺(jué)與模式識(shí)別領(lǐng)域的重要研究課題之一,其研究目標(biāo)是為了給一幅圖像賦予某一類標(biāo)簽。隨著電子產(chǎn)品的日新月異及普及,獲取圖像已經(jīng)變得越來(lái)越容易,大量的圖像需要有效地分類與管理,因而,圖像分類被應(yīng)用到不同的領(lǐng)域,如視頻監(jiān)控、網(wǎng)絡(luò)圖像分析、生物信息學(xué)等。雖然經(jīng)歷了十幾年的發(fā)展,圖像分類仍然面臨著以下幾個(gè)方面的困難[1]:(1)由于光照變化、拍攝角度不同、遮擋等因素,同一類別的物體往往在圖像上的表現(xiàn)形式大不相同;(2)即使是同一類別的物體,其外觀、形態(tài)等表現(xiàn)形式也存在很大的差異;(3)在很多情況下,需要考慮圖像中不同物體之間的上下文關(guān)系或者物體與背景之間的依存關(guān)系,緩解單個(gè)物體時(shí)對(duì)賦予類別的不確定程度。

        基于詞袋(Bag-of-Words,BoW)模型(又被稱為特征袋(Bag-of-Features,BoF)模型)的圖像表示方法是圖像分類研究中應(yīng)用最廣泛同時(shí)也是最有效的體系框架之一[2]。文獻(xiàn)[3]將詞袋模型劃分為五個(gè)步驟:(1)劃分圖像塊。該過(guò)程以整個(gè)圖像作為輸入,其輸出為圖像塊,即將整幅圖像劃分為大小相等的小圖像塊,以用于后續(xù)處理。在對(duì)圖像劃分的過(guò)程中可以采用密集采樣方式或者稀疏采樣方式,兩種不同的采樣方式對(duì)分類準(zhǔn)確度和計(jì)算代價(jià)都有一定的影響。一般而言,密集的采樣方式有助于提高圖像分類準(zhǔn)確度,但需要更多的計(jì)算資源。(2)特征表示。對(duì)上一步得到的圖像塊給出恰當(dāng)?shù)谋硎荆S玫奶卣鞅硎居?圖像的顏色直方圖[4]、紋理特征[5]、SIFT 特征[6]等。(3)生成字典。圖像分類的詞袋模型來(lái)源于文本分類[7],其本質(zhì)是統(tǒng)計(jì)相關(guān)特征出現(xiàn)的頻次。字典的生成通常通過(guò)聚類算法實(shí)現(xiàn),最常用的是K均值聚類。字典中的每個(gè)元素被稱為視覺(jué)詞(visual words)。(4)特征編碼。用于分類的圖像大小、特征數(shù)量并不完全相同,因此,需要將圖像特征結(jié)合字典進(jìn)行編碼,將圖像表示為字典中相應(yīng)視覺(jué)詞的出現(xiàn)頻次。特征編碼方式有很多,常用的有:硬編碼[2]、軟編碼[8]、稀疏編碼[9]等。(5)特征聯(lián)合(features pooling)。軟編碼和稀疏編碼得到的是編碼矩陣,需要將編碼矩陣表示為單個(gè)直方圖來(lái)對(duì)整個(gè)圖像進(jìn)行描述。在此步驟之后,所有圖像擁有相同維度的直方圖表示,方便圖像之間的相似性比較和判定。常用的特征聯(lián)合方法有:平均聯(lián)合(average pooling)和最大聯(lián)合(max pooling)。

        將圖像劃分為多個(gè)圖像塊有兩個(gè)方面的優(yōu)勢(shì):(1)在一定程度上緩解物體遮擋和復(fù)雜背景對(duì)圖像分類任務(wù)造成的困難;(2)在一定程度上彌補(bǔ)對(duì)圖像采用直方圖表示而丟棄了圖像的空間信息的不足。

        不可否認(rèn),基于詞袋模型的圖像分類框架取得了很大的成功,但是,仍然存在一些仍需解決的難題:(1)字典的構(gòu)造對(duì)分類性能有一定的影響,字典的最佳表示方式仍然沒(méi)有公論;(2)圖像特征的選擇、圖像劃分時(shí)的采樣策略、特征編碼方式等因素都會(huì)對(duì)分類性能產(chǎn)生一定的影響。一般來(lái)說(shuō),在詞袋模型中字典越大,表示圖像的直方圖維度就越高,直方圖的判別性就越強(qiáng),因而分類準(zhǔn)確度也越高。然而,字典越大,需要更多的計(jì)算資源和存儲(chǔ)資源,這對(duì)于大數(shù)據(jù)場(chǎng)景下變得很不適用。因此,對(duì)于詞袋模型來(lái)講,需要在分類準(zhǔn)確度和計(jì)算資源之間取一個(gè)恰當(dāng)?shù)恼壑小?/p>

        本文的研究目標(biāo)是通過(guò)對(duì)多個(gè)小字典下獲取的特征編碼,以一種在線加權(quán)融合的方式進(jìn)行融合,使得融合后的結(jié)果與大字典下獲取的特征編碼一樣具有較強(qiáng)的判別性,即具有較高的分類準(zhǔn)確度。與傳統(tǒng)的詞袋模型方法不同的是,本文通過(guò)在線學(xué)習(xí)的方式加權(quán)融合由多個(gè)小字典獲取的特征編碼,用于圖像分類任務(wù)。與傳統(tǒng)的詞袋模型方法及近年主要研究成果相比,在采用相同的字典學(xué)習(xí)方法和特征編碼方式的情況下,本文方法能夠獲得與采用大字典的詞袋模型方法類似的分類準(zhǔn)確度,同時(shí),所需的計(jì)算資源和存儲(chǔ)代價(jià)更小。

        1 本文方法

        本文方法大體上可以分為三個(gè)層次。第一層是字典生成過(guò)程,與傳統(tǒng)的詞袋模型不同的是,本文方法在這個(gè)過(guò)程中生成多個(gè)小字典而不是一個(gè)大的字典。第二層是特征編碼層,在這一層本文采用硬編碼(hard coding),將每幅圖像表示為多個(gè)低維直方圖,并對(duì)不同字典下得到的直方圖采用直方圖交核(histogram intersection kernel)構(gòu)建相應(yīng)的核矩陣。第三層采用在線學(xué)習(xí)方法對(duì)不同字典下的直方圖交核進(jìn)行加權(quán)融合,獲得加權(quán)之后的核矩陣。最后,用簡(jiǎn)單的分類器,如支持向量機(jī)(SVM)等,對(duì)圖像進(jìn)行分類。本文的總體框架如圖1 所示。

        圖1 本文方法總體框架圖

        1.1 字典生成

        對(duì)每一幅圖像,我們以密集采樣方式提取圖像的尺度不變特征變換(Scale Invariant Feature Transform,SIFT)特征。以行列每隔3 個(gè)像素進(jìn)行采樣,將圖像劃分為像素且有部分重疊的圖像塊。對(duì)每個(gè)圖像塊,采用與文獻(xiàn)[6]相同的方式構(gòu)建圖像像素梯度直方圖的SIFT 描述符,特征表示為F=(f1,…,f16),其中16 為圖像被劃分的圖像塊的個(gè)數(shù),F(xiàn)為128 維的SIFT 特征。SIFT 特征提取的是圖像的局部特征,為了能夠處理物體尺度的變化,在本文中在尺度空間理論(scale-space theory)[10]指導(dǎo)下,使用多個(gè)不同協(xié)方差的高斯函數(shù)對(duì)圖像塊進(jìn)行平滑。

        提取圖像特征之后,本文使用K均值聚類算法生成字典。選取K均值聚類算法源于其存在如下優(yōu)點(diǎn)[11]:(1)時(shí)間復(fù)雜度和空間復(fù)雜度相對(duì)于數(shù)據(jù)樣本個(gè)數(shù)而言是線性的;(2)算法確保收斂,且收斂速度為二次的;(3)其聚類結(jié)果不依賴于數(shù)據(jù)樣本的排列順序。其中,時(shí)間復(fù)雜度和空間復(fù)雜度是圖像分類研究領(lǐng)域中需要重點(diǎn)考慮的因素之一,尤其是在大數(shù)據(jù)或者實(shí)時(shí)應(yīng)用需求環(huán)境下。

        在這一層中,對(duì)于不同大小的字典,可以運(yùn)行K均值算法多次,每次設(shè)定不同的聚類個(gè)數(shù)K;倘若需要的字典大小相同,可以通過(guò)輸出K均值聚類過(guò)程不同階段的結(jié)果作為相應(yīng)的字典。本文實(shí)驗(yàn)中,僅給出了第一種方式獲取圖像集的字典。

        1.2 特征編碼

        特征編碼在圖像分類任務(wù)中起著關(guān)鍵性的作用,文獻(xiàn)[12]的研究表明,在稀疏編碼框架下對(duì)圖像進(jìn)行分類,編碼策略比字典學(xué)習(xí)更為重要。本文考慮的雖然是在詞袋模型下進(jìn)行圖像分類,特征編碼仍然是關(guān)鍵因素。

        硬編碼[2]策略是對(duì)圖像的每個(gè)特征賦予字典中其對(duì)應(yīng)的最近距離的視覺(jué)詞,然后統(tǒng)計(jì)字典中每個(gè)視覺(jué)詞被賦予的特征個(gè)數(shù)。編碼結(jié)果則為歸一化的上述統(tǒng)計(jì)直方圖。

        由于詞袋模型丟棄了圖像的空間信息,空間金字塔匹配模型[13](Spatial Pyramid Matching,SPM)在一定程度上彌補(bǔ)了空間信息的丟失,因此,本文在特征編碼階段應(yīng)用空間金字塔匹配模型。SPM 以一種簡(jiǎn)單的方式將圖像由粗到細(xì)劃分為不同金字塔層的多個(gè)子區(qū)域,不同層次不同區(qū)域的圖像特征單獨(dú)編碼,從而形成維度更高的直方圖圖像表示。本文將圖像劃分為3 個(gè)層次,每個(gè)層次的子區(qū)域?yàn)??×2?,?=0,1,2。金字塔的第一層為最粗劃分,是整個(gè)圖像,最細(xì)層將圖像劃分為22×22=16 個(gè)子區(qū)域。經(jīng)過(guò)3 個(gè)層次的金字塔劃分之后,最終得到的圖像直方圖維度是字典大小的21 倍。

        式中:i,j分別為Ii和Ij的索引,mt為第t個(gè)字典的視覺(jué)詞個(gè)數(shù)。因此,在特征編碼層中,我們既可以直接輸出圖像的特征編碼直方圖,又可以輸出對(duì)應(yīng)的直方圖交核集合K=,其中d是第一層生成的字典個(gè)數(shù)。本文采用直方圖交核集合作為這一層的輸出結(jié)果。

        1.3 加權(quán)組合

        上述討論得知,在第二層已經(jīng)獲取了直方圖交核集K=由于不同字典對(duì)圖像分類任務(wù)的貢獻(xiàn)大小不相同,因此,需要給相應(yīng)的直方圖交核賦予不同的權(quán)值,即

        本文加權(quán)融合的目的是使得相同類別標(biāo)簽的圖像相似性程度要高于不同類別標(biāo)簽的圖像。理想情況下,希望權(quán)值向量η能夠滿足如下要求

        即,

        式中:Γ={(i,p,n)|yi=y(tǒng)p,yi≠yn}是圖像索引三元組,yi是圖像Ii的類別標(biāo)簽。

        在實(shí)際應(yīng)用場(chǎng)景下,公式(3)所示的理想條件不可能完全滿足,于是,允許小部分圖像違背該條件。類比于SVM 軟分類情形,本文引入松弛變量ξipn≥0,公式(3)的軟條件可表述為

        公式(4)中的ξipn可以看作是對(duì)不滿足限制條件(3)的懲罰項(xiàng)或損失項(xiàng)。在公式(4)的表述下,我們希望總損失值應(yīng)該 最小,即∑i,p,n ξipn應(yīng) 該最小。因此,類比于SVM,我們將上述限制條件和目標(biāo)函數(shù)表示為二次限制優(yōu)化問(wèn)題:

        目標(biāo)函數(shù)中項(xiàng)‖η‖2是正則化項(xiàng),其目的在于避免過(guò)擬合現(xiàn)象的發(fā)生,常數(shù)C是為了權(quán)衡經(jīng)驗(yàn)損失∑i,p,n ξipn和正則化項(xiàng)‖η‖2。

        二次優(yōu)化問(wèn)題(5)可以由數(shù)學(xué)優(yōu)化軟件直接求解,如Libsvm[15],Mosek[16]等。然而,直接求解優(yōu)化問(wèn)題(5)其計(jì)算復(fù)雜度通常是O(n3),其中n是數(shù)據(jù)樣本的個(gè)數(shù)。因此,直接使用優(yōu)化軟件求解二次優(yōu)化問(wèn)題(5)對(duì)于圖像分類任務(wù)并不適用。本文采用通過(guò)對(duì)數(shù)據(jù)采樣在線學(xué)習(xí)加權(quán)權(quán)值η,下一節(jié)將進(jìn)行詳細(xì)介紹。

        2 在線權(quán)值學(xué)習(xí)

        本文采用OPA(Online Passive-Aggressive)算法[17]來(lái)求解上述二次優(yōu)化問(wèn)題(5)。OPA 算法是基于數(shù)據(jù)采樣的在線學(xué)習(xí)算法,該算法的目標(biāo)函數(shù)需要取一個(gè)折中,這個(gè)折中是在當(dāng)前訓(xùn)練數(shù)據(jù)下?lián)p失函數(shù)最小和當(dāng)前迭代參數(shù)與上一次迭代參數(shù)距離最小之間實(shí)現(xiàn)。

        我們定義三元組(i,p,n)的損失函數(shù)如下:

        由1.3 節(jié)討論知,我們的目標(biāo)是使得總損失函數(shù)在所有采樣的三元組(i,p,n)下最小,即∑i,p,nL(η)要最小。

        類似于文獻(xiàn)[18],我們將上述二次優(yōu)化問(wèn)題(5)轉(zhuǎn)化為OPA 在線學(xué)習(xí)問(wèn)題,

        于是,在每一次迭代i,權(quán)值參數(shù)ηi的取值需要在是否與上一次迭代權(quán)值ηi-1距離很近和在當(dāng)前采樣三元組下使得損失函數(shù)L(η)之間進(jìn)行折中。

        公式(7)同樣是一個(gè)限制條件下的二次優(yōu)化問(wèn)題,為了求解該問(wèn)題,我們定義其拉格朗日(Lagrange)函數(shù)如下:

        其中,拉格朗日乘數(shù)子τ≥0,λ≥0。上式對(duì)參數(shù)η求偏導(dǎo)數(shù),并令偏導(dǎo)數(shù)等于零,可得

        式中:κ(i,p)=[K1(i,p),…,Kd(i,p)]為直方圖交核對(duì)應(yīng)元素組成的向量,t=1,…,d是字典索引。由此,新一次迭代時(shí),加權(quán)參數(shù)η的更新表達(dá)式為

        同樣,t=1,…,d是字典索引。至此,我們?nèi)孕枰_定參數(shù)的取值。

        進(jìn)一步,令拉格朗日函數(shù)對(duì)參數(shù)ξipn求偏導(dǎo)數(shù),有

        已知參數(shù)λ≥0,因此,τ≤C。

        更進(jìn)一步,將公式(8)和公式(9)代入到拉格朗日函數(shù)中,對(duì)參數(shù)τ求偏導(dǎo)數(shù),并令其為零,有

        于是,我們可得參數(shù)τ的取值

        式中:L為公式(6)中的損失函數(shù)。

        由公式(9),我們可以確定參數(shù)τ的取值為

        綜上所述,算法1 總結(jié)了本文采用OPA 算法進(jìn)行在線權(quán)值學(xué)習(xí)的過(guò)程。該算法給出了權(quán)值更新的閉式解,在計(jì)算效率上有很大的優(yōu)勢(shì)。

        算法1 基于OPA 算法的在線權(quán)值學(xué)習(xí)

        3 實(shí)驗(yàn)結(jié)果及分析

        為了驗(yàn)證本文算法的有效性,我們?cè)趦蓚€(gè)圖像集上進(jìn)行試驗(yàn)驗(yàn)證,這兩個(gè)數(shù)據(jù)集是:Caltech-101數(shù)據(jù)集[19]和Scene-15 數(shù)據(jù)集[13]。對(duì)于特征提取,我們使用開(kāi)源軟件包VLFeat[20]按照1.1 節(jié)所述方式提取密集的SIFT 特征;在訓(xùn)練分類器階段,我們使用LIBSVM[15]軟件包,使用預(yù)定義的核矩陣選項(xiàng)和默認(rèn)的多分類選項(xiàng)。對(duì)于1.1 節(jié)生成的多個(gè)字典,實(shí)驗(yàn)中使用K均值算法生成3 個(gè)字典,設(shè)定字典大小分別為50,100,150。對(duì)算法1 中的三元組采樣,設(shè)置采樣總數(shù)為105,即在訓(xùn)練數(shù)據(jù)中隨機(jī)(可重復(fù))采樣105個(gè)三元組對(duì)權(quán)值η進(jìn)行更新。在詞袋模型[2]中,我們?cè)O(shè)定其字典分別為400,1 000和4 000 分別進(jìn)行對(duì)比實(shí)驗(yàn)。另外,本文方法還與SPM[13]方法、軟編碼[8]方法以及基于稀疏編碼的LLC[21]方法進(jìn)行了實(shí)驗(yàn)對(duì)比,這三個(gè)方法的實(shí)驗(yàn)結(jié)果是對(duì)其論文的直接引用。為了實(shí)驗(yàn)的公平性,所有實(shí)驗(yàn)均運(yùn)行10 次,取其均值和方差作為最終對(duì)比結(jié)果。下面對(duì)兩組數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果分別進(jìn)行敘述。

        3.1 Caltech-101 數(shù)據(jù)集

        Caltech-101 數(shù)據(jù)集包含了101 個(gè)圖像類別(不包括背景類),每個(gè)類別包括的圖像數(shù)目從31 個(gè)到800 個(gè)不等,整個(gè)數(shù)據(jù)集包含8 677 幅圖像,平均分辨率為300 pix×300 pix。在本文實(shí)驗(yàn)中,我們?cè)诿總€(gè)圖像類別中隨機(jī)選取15 幅圖像和30 幅圖像作為訓(xùn)練集,進(jìn)行兩組實(shí)驗(yàn)。

        圖像分類準(zhǔn)確度結(jié)果如表1 所示,表中的詞袋模型為我們采用3 層金字塔匹配模型實(shí)現(xiàn)的經(jīng)典詞袋模型[2],該實(shí)驗(yàn)使用本文方法一樣的特征和編碼方式。詞袋模型后面括號(hào)里的數(shù)字表示對(duì)應(yīng)的字典大小,如詞袋模型(400)表示采用字典大小為400的詞袋模型實(shí)現(xiàn)。實(shí)驗(yàn)結(jié)果部分后面括號(hào)里表示的是相應(yīng)算法在10 次運(yùn)行過(guò)程中分類結(jié)果的方差。

        表1 的實(shí)驗(yàn)結(jié)果表明,在Caltech-101 數(shù)據(jù)集上,對(duì)于詞袋模型而言,字典大小的不同對(duì)圖像分類結(jié)果的影響比較大,雖然直觀上來(lái)說(shuō),字典越大,其字典包含的圖像內(nèi)容越精細(xì),分類準(zhǔn)確度也通常會(huì)越好。然而,從表1 看到,字典大小為400 時(shí),在每類30 個(gè)訓(xùn)練圖像下,其分類準(zhǔn)確度為72.02%,略高于字典大小為4 000 時(shí)的71.24%。這個(gè)現(xiàn)象很可能是因?yàn)镵均值聚類算法在獲取字典時(shí)的隨機(jī)性造成的。本文提出的圖像分類方法取得了最佳的分類準(zhǔn)確度。與稀疏編碼[21]方法相比,本文算法同樣取得較高的分類準(zhǔn)確度。

        表1 Caltech-101 數(shù)據(jù)集圖像分類準(zhǔn)確度對(duì)比

        圖2 給出了本文算法在Caltech-101 數(shù)據(jù)集采用隨機(jī)選取30 幅圖像作為訓(xùn)練集時(shí)的混淆矩陣圖像表示,圖3 給出了通過(guò)在線權(quán)值學(xué)習(xí)之后得到的直方圖交核圖像表示。

        圖2 本文算法在Caltech-101 上的混淆矩陣

        圖3 在線權(quán)值學(xué)習(xí)后的直方圖交核圖像

        從圖2 可以看到,本文提出的圖像分類方法得到的結(jié)果主要集中在混淆矩陣的對(duì)角線上,非對(duì)角線上的值相對(duì)于對(duì)角線來(lái)說(shuō)是很小的一部分。圖3給出了所有的8 677 幅圖像構(gòu)建的加權(quán)直方圖交核圖像顯示,該圖顯示出了明顯的塊效應(yīng),因此,在一定程度上表明基于OPA 的加權(quán)組合能夠使得相同標(biāo)簽的圖像具有更高的相似性。

        3.2 Scene-15 數(shù)據(jù)集

        Scene-15 數(shù)據(jù)集包含15 個(gè)自然場(chǎng)景圖像,這些場(chǎng)景分別是CALsuburb,kitchen,living room,bedroom,store,industrial,MITcoast,MITforest,MIThighway,MITinsidecity,MITmountain,MITopencountry,MITstreet,MITtallbuilding 和PARoffice。每個(gè)場(chǎng)景包括200 到400 幅圖像,圖像的平均分辨率為300 pix×250 pix,整個(gè)數(shù)據(jù)集擁有圖像4 485 幅。在該數(shù)據(jù)集上,我們?cè)诿總€(gè)場(chǎng)景類別中隨機(jī)選取100 幅圖像作為訓(xùn)練集,剩余的圖像作為測(cè)試集。

        表2 給出了該數(shù)據(jù)集下的圖像分類結(jié)果,由此表同樣可以看到本文算法在圖像分類準(zhǔn)確度上的優(yōu)勢(shì)。圖4 給出了本文方法在該數(shù)據(jù)集上的混淆矩陣,對(duì)角線上的數(shù)值表示對(duì)應(yīng)類別上的分類結(jié)果。

        表2 Scene-15 數(shù)據(jù)集圖像分類準(zhǔn)確度對(duì)比

        圖4 本文算法在Scene-15 上的混淆矩陣

        表2 的分類準(zhǔn)確度對(duì)比中,本文方法為82.10%略低于詞袋模型在字典為4 000 時(shí)的82.55%,均高于其他對(duì)比方法。從圖4 可以看到,對(duì)于CALsuburb 類別的平均分類準(zhǔn)確度可以達(dá)到99.81%,最低的分類結(jié)果為類別industrial,其分類結(jié)果也達(dá)到了71.23%。

        3.3 復(fù)雜度分析

        詞袋模型的計(jì)算復(fù)雜度是由圖像特征提取、字典生成、特征編碼和訓(xùn)練等部分組成。本文方法與傳統(tǒng)的詞袋模型相比,在字典生成過(guò)程需要更多的K均值聚類次數(shù),而K均值聚類算法的計(jì)算復(fù)雜度為O(kNd),其中k是聚類的類別個(gè)數(shù),n為數(shù)據(jù)樣本個(gè)數(shù),d為數(shù)據(jù)樣本的維度。因此,在字典生成過(guò)程中,字典越大,需要的計(jì)算資源就越多。在本文的實(shí)驗(yàn)中,詞袋模型若采用字典大小4 000,則在字典生成過(guò)程相比于本文方法大約需要10 倍的計(jì)算時(shí)間。

        在特征編碼階段,由于均采用硬編碼策略,在查找最近鄰過(guò)程,其計(jì)算復(fù)雜度為O(kNd),其中,k是字典大小,N是圖像特征個(gè)數(shù),d為圖像特征維度,本文采用SIFT 特征,故d=128。同樣,相比而言,字典越大,其需要的計(jì)算資源也越多。

        表3 給出的是在Caltech-101 數(shù)據(jù)集上的計(jì)算時(shí)間比較,這些結(jié)果是運(yùn)行在PC 機(jī)環(huán)境使用單線程獲取的。PC 機(jī)的配置如下:Intel Core i5 四核CPU,主頻為3.4 GHz,內(nèi)存為8GB,Windows 7 64 位操作系統(tǒng),MATLAB2012b 開(kāi)發(fā)環(huán)境。

        表3 Caltech-101 計(jì)算時(shí)間比對(duì) 單位:s

        從運(yùn)行時(shí)間來(lái)看,在字典生成階段,本文由于需要3 次運(yùn)行K均值算法,因而在計(jì)算時(shí)間上略高于字典大小為400 的詞袋模型方法。另外,在特征編碼方面也略高于字典大小為400 的詞袋模型方法,這可能是本文方法在查找最近鄰視覺(jué)詞時(shí),同樣需要運(yùn)行3 次查找算法的緣故。從該表看到:改進(jìn)的OPA 算法的運(yùn)行時(shí)間僅為13.58 s,相比于特征編碼,其運(yùn)行時(shí)間不足1%。

        同理,存儲(chǔ)代價(jià)同樣與字典大小呈線性關(guān)系,字典越大,其所需的存儲(chǔ)代價(jià)也越高。因此,在詞袋模型中,組合多個(gè)小字典既可以減少計(jì)算復(fù)雜度又可以減少存儲(chǔ)代價(jià)。

        4 結(jié)束語(yǔ)

        一般而言,基于詞袋模型的圖像分類算法,其用于特征編碼的字典越大,圖像分類準(zhǔn)確度就越高,但同時(shí)也需要更高的計(jì)算資源和存儲(chǔ)代價(jià)。本文的研究目標(biāo)是通過(guò)在線組合多個(gè)在小規(guī)模的字典下的特征編碼,以期其達(dá)到與大規(guī)模字典特征編碼相同的圖像分類準(zhǔn)確度。

        本文方法基于詞袋模型,在字典生成階段生成多個(gè)小字典而不是通常的大字典,并采用相應(yīng)的特征編碼方式。在組合多個(gè)字典特征編碼時(shí),以加權(quán)的方式對(duì)相應(yīng)的特征編碼進(jìn)行融合。在特征融合階段,本文改進(jìn)了OPA(Online Passive-Aggressive)算法,得到了權(quán)值更新的閉式求解方式。實(shí)驗(yàn)結(jié)果表明,本文方法在分類準(zhǔn)確度上與當(dāng)前主流方法不相上下,但在計(jì)算時(shí)間和存儲(chǔ)代價(jià)上更具優(yōu)勢(shì),因此,驗(yàn)證了本文方法的有效性。

        猜你喜歡
        字典直方圖準(zhǔn)確度
        統(tǒng)計(jì)頻率分布直方圖的備考全攻略
        開(kāi)心字典
        家教世界(2023年28期)2023-11-14 10:13:50
        開(kāi)心字典
        家教世界(2023年25期)2023-10-09 02:11:56
        符合差分隱私的流數(shù)據(jù)統(tǒng)計(jì)直方圖發(fā)布
        用直方圖控制畫面影調(diào)
        幕墻用掛件安裝準(zhǔn)確度控制技術(shù)
        建筑科技(2018年6期)2018-08-30 03:40:54
        我是小字典
        正版字典
        讀者(2016年14期)2016-06-29 17:25:50
        動(dòng)態(tài)汽車衡準(zhǔn)確度等級(jí)的現(xiàn)實(shí)意義
        基于直方圖平移和互補(bǔ)嵌入的可逆水印方案
        国产无码十八禁| 国产精品久久久久精品一区二区| 亚洲色成人网站www永久四虎| 久久精品无码鲁网中文电影 | 97人人模人人爽人人少妇| 中文无码精品一区二区三区| 韩国无码精品人妻一区二| 毛片在线视频成人亚洲| 呦系列视频一区二区三区| 成人一区二区免费视频| 国产精品久久婷婷婷婷| 国产在线观看黄片视频免费| 成人艳情一二三区| 欲色天天网综合久久| 中文字幕一区二区三区人妻精品| 最新日本久久中文字幕| 99久久精品免费看国产一区二区三区| 亚洲成av人片在线观看无码| a午夜国产一级黄片| 日韩极品在线观看视频| 国模冰莲自慰肥美胞极品人体图 | 一区两区三区视频在线观看| 亚洲国产高清精品在线| 亚洲日韩成人av无码网站| 无码不卡一区二区三区在线观看| 一区二区三区夜夜久久| 丝袜美腿亚洲一区二区| 无码a∨高潮抽搐流白浆| 欧美综合区自拍亚洲综合| 成人大片免费在线观看视频| 巨大巨粗巨长 黑人长吊| 91视频香蕉| 久久婷婷夜色精品国产| 中文字幕一区二区三区四区五区| 人与禽交av在线播放| 亚洲国产成人资源在线桃色| 亚洲成人一区二区av| 亚洲精品久久| 亚洲国产精品久久久天堂不卡海量 | 人人妻人人澡人人爽人人dvd| 亚洲色无码播放|