亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于潛語義主題加強(qiáng)的跨媒體檢索算法

        2017-06-27 08:10:42育,張
        計(jì)算機(jī)應(yīng)用 2017年4期
        關(guān)鍵詞:查準(zhǔn)率跨媒體類別

        黃 育,張 鴻

        1.武漢科技大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,武漢 430065;2.智能信息處理與實(shí)時(shí)工業(yè)系統(tǒng)湖北省重點(diǎn)實(shí)驗(yàn)室(武漢科技大學(xué)), 武漢 430065)(*通信作者電子郵箱zhanghong_wust@163.com)

        基于潛語義主題加強(qiáng)的跨媒體檢索算法

        黃 育1,2,張 鴻1,2*

        1.武漢科技大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,武漢 430065;2.智能信息處理與實(shí)時(shí)工業(yè)系統(tǒng)湖北省重點(diǎn)實(shí)驗(yàn)室(武漢科技大學(xué)), 武漢 430065)(*通信作者電子郵箱zhanghong_wust@163.com)

        針對(duì)不同模態(tài)數(shù)據(jù)對(duì)相同語義主題表達(dá)存在差異性,以及傳統(tǒng)跨媒體檢索算法忽略了不同模態(tài)數(shù)據(jù)能以合作的方式探索數(shù)據(jù)的內(nèi)在語義信息等問題,提出了一種新的基于潛語義主題加強(qiáng)的跨媒體檢索(LSTR)算法。首先,利用隱狄利克雷分布(LDA)模型構(gòu)造文本語義空間,然后以詞袋(BoW)模型來表達(dá)文本對(duì)應(yīng)的圖像;其次,使用多分類邏輯回歸對(duì)圖像和文本分類,用得到的基于多分類的后驗(yàn)概率表示文本和圖像的潛語義主題;最后,利用文本潛語義主題去正則化圖像的潛語義主題,使圖像的潛語義主題得到加強(qiáng),同時(shí)使它們之間的語義關(guān)聯(lián)最大化。在Wikipedia數(shù)據(jù)集上,文本檢索圖像和圖像檢索文本的平均查準(zhǔn)率為57.0%,比典型相關(guān)性分析(CCA)、SM(Semantic Matching)、SCM(Semantic Correlation Matching)算法的平均查準(zhǔn)率分別提高了35.1%、34.8%、32.1%。實(shí)驗(yàn)結(jié)果表明LSTR算法能有效地提高跨媒體檢索的平均查準(zhǔn)率。

        跨媒體檢索;潛語義主題;多分類邏輯回歸;后驗(yàn)概率;正則化

        0 引言

        當(dāng)前,現(xiàn)實(shí)世界中的很多應(yīng)用都涉及多模態(tài)文件,在多模態(tài)文件里信息由不同模態(tài)的數(shù)據(jù)組成,例如一篇新聞文章由圖片和相應(yīng)的文字描述組成。在近幾年來,與多媒體相關(guān)的研究發(fā)展迅速,其中跨媒體檢索成為一個(gè)研究的熱點(diǎn)。在跨媒體檢索中,如何挖掘不同類型數(shù)據(jù)之間的內(nèi)在聯(lián)系,進(jìn)而計(jì)算跨媒體數(shù)據(jù)之間的相似度,是跨媒體檢索需要解決的關(guān)鍵問題[1]。

        為了解決這個(gè)問題,典型相關(guān)性分析(Canonical Correlation Analysis, CCA)、核典型相關(guān)性分析(Kernel Canonical Correlation Analysis, KCCA)[2]、稀疏典型相關(guān)性分析(Spase Canonical Correlation Analysis, SpaseCCA)、結(jié)構(gòu)稀疏典型相關(guān)分析(Structured Spase Canonical Correlation Analysis, Structured Spase CCA)等圍繞CCA的算法被提出用來實(shí)現(xiàn)不同模態(tài)數(shù)據(jù)之間的相互檢索[3]。它們的主要思想是將不同模態(tài)的數(shù)據(jù)通過某種映射,使得映射后的向量之間的皮爾遜相關(guān)系數(shù)最大。但是它們都沒有有效利用不同模態(tài)數(shù)據(jù)的類別信息。為了利用數(shù)據(jù)的類別信息,可以將圖像特征或文本特征表達(dá)成視覺詞袋(Bag of Visual Words, BoVW)或者單詞詞袋(Bag of Words, BoW),一些通過隱狄利克雷分布(Latent Dirichlet Allocation, LDA)[4]來實(shí)現(xiàn)不同模態(tài)數(shù)據(jù)的關(guān)聯(lián)建模的方法也相繼被提出。為了進(jìn)一步探究文本圖像所蘊(yùn)含的相關(guān)聯(lián)語義[5-6],多模態(tài)文檔隨機(jī)場等概率圖模型方法也被用來對(duì)不同模態(tài)數(shù)據(jù)之間的關(guān)聯(lián)關(guān)系建模[7]。最近由于深度學(xué)習(xí)[8]的興起,很多與深度學(xué)習(xí)相關(guān)的模型也被用于跨媒體檢索[9-10],如玻爾茲曼機(jī)[11]和卷積神經(jīng)網(wǎng)絡(luò)等深度學(xué)習(xí)模型。同時(shí)為了實(shí)現(xiàn)海量數(shù)據(jù)的高效檢索,一些基于哈希(Hash)[12]的算法也被用于跨媒體檢索的研究[13-15],如局部敏感哈希(Locality Sensitive Hashing, LSH)算法、多視圖哈希索引等。

        本文為了探究不同模態(tài)數(shù)據(jù)之間的語義相關(guān)關(guān)系以及如何有效地利用數(shù)據(jù)的標(biāo)簽信息,提出了一種新的基于潛語義主題加強(qiáng)的跨媒體檢索算法。算法的主要流程如下:

        1)利用多分類邏輯回歸對(duì)圖像和文本進(jìn)行分類,得到分類模型,然后利用分類模型計(jì)算圖像和文本基于多分類的后驗(yàn)概率,使用該后驗(yàn)概率向量表示圖像和文本的潛語義主題。

        2)由于文本的潛語義主題比圖像潛語義主題更加明晰,為了使文本和圖像的潛語義主題的相關(guān)性最大,用文本潛語義主題正則化圖像潛語義主題,使圖像和文本的潛語義主題趨于一致。

        3)利用皮爾遜相關(guān)系數(shù)來度量文本和圖像向量之間的相似性,實(shí)現(xiàn)圖像和文本之間的相互檢索。

        實(shí)驗(yàn)結(jié)果表明,本文方法能夠有效地提高跨媒體檢索的準(zhǔn)確率。

        1 提取圖像和文本的潛語義主題

        利用多分類邏輯回歸模型提取圖像和文本的潛語義主題,該模型也稱softmax回歸。Softmax回歸是有監(jiān)督學(xué)習(xí)算法,通過訓(xùn)練數(shù)據(jù)建立模型,然后利用模型估算測試數(shù)據(jù)基于每一個(gè)類別的后驗(yàn)概率。將m個(gè)已標(biāo)記訓(xùn)練數(shù)據(jù)樣本表示為{(x(1),y(1)),(x(2),y(2)),…,(x(m),y(m))},其中輸入樣本特征x(i)∈Rn+1,n+1為輸入文本或圖像特征的維度;y(i)∈{1,2,…,k}為對(duì)應(yīng)類別的標(biāo)記值,不同的標(biāo)簽值對(duì)應(yīng)不同的類別信息,k為總類別數(shù)。對(duì)于給定的測試輸入X,用假設(shè)函數(shù)針對(duì)每一個(gè)類別j估算出后驗(yàn)概率值p(y=j|x),也就是計(jì)算x基于每一種分類結(jié)果出現(xiàn)的概率。因此,假設(shè)函數(shù)會(huì)輸出一個(gè)k維向量(向量的各個(gè)元素之和為1)來表示測試數(shù)據(jù)基于k個(gè)類別的估算概率值,可用如下公式表示:

        (1)

        求解θ,需要設(shè)置一個(gè)代價(jià)函數(shù),如果能夠使用優(yōu)化算法求解代價(jià)函數(shù)的最小值,即可得到θ。通過在代價(jià)函數(shù)中添加一個(gè)權(quán)重衰減項(xiàng),Softmax模型的代價(jià)函數(shù)可以表示為:

        (2)

        求解得到θ后,就可以得到文本和圖像基于各個(gè)類別的后驗(yàn)概率,用該后驗(yàn)概率向量表示圖像和文本的潛語義主題。

        2 基于正則化的潛語義主題加強(qiáng)

        本文提出的基于潛語義主題加強(qiáng)的跨媒體檢索算法,就是在提取圖像和文本潛語義主題的基礎(chǔ)上,為了使圖像和文本的潛語義主題之間的相關(guān)性最大,用正則化的方法對(duì)圖像潛語義主題進(jìn)行加強(qiáng)。算法流程如圖1所示。

        圖1 基于潛語義主題加強(qiáng)的跨媒體檢索算法

        由于圖像是在像素級(jí)別上的語義抽象,通過多分類邏輯回歸模型得到的潛語義主題并不明晰,而文本得到潛語義主主題較為明確,因此可用文本的潛語義主題來正則化圖像的潛語義主題,使圖像的潛語義主題得到加強(qiáng),同時(shí)也使圖像和文本的潛語義主題之間的關(guān)聯(lián)性最大化。圖像的潛語義主題用X=[x1,x2,…,xn]T∈Rn×k表示,文本的潛語義主題用T=[t1,t2,…,tn]T∈Rn×k表示。正則化圖像就是使圖像的潛語義主題X與文本的潛語義主題T所表達(dá)的語義主題盡可能地趨于相近,即:

        H:xi→ti

        (3)

        H為一個(gè)線性轉(zhuǎn)換矩陣:

        T=XH

        (4)

        把式(4)展開來為:

        (5)

        其中:hi為H的列向量。用最小二乘算法來求得最優(yōu)的H,其約束條件為:

        xiThk≥0;?i=1,2,…,N;?k=1,2,…,K

        (6)

        ∑xiTH=1;?i=1,2,…,K

        (7)

        式(6)~(7)是根據(jù)文本特征和圖像特征,經(jīng)過多分類邏輯回歸得到的基于各個(gè)類別的后驗(yàn)概率向量的元素之和為1,且每一個(gè)的概率都大于0得來的。式(4)可以轉(zhuǎn)換為最小二乘法的規(guī)范形式:

        b=Mx

        (8)

        其中:b∈RNK,x∈RK2為列向量,M∈RNK×K2為稀疏矩陣。將式(8)展開為:

        (9)

        為了表達(dá)成最小二乘的規(guī)范形式,引進(jìn)矩陣S∈RN×K2如下:

        (10)

        則式(4)在式(6)、(7)的約束條件下可以表達(dá)為求解:

        (11)

        s.t.Mx≥0;Sx=1

        根據(jù)式(11)即可求解得到正則化因子H。

        整個(gè)算法的流程如下。

        算法1 基于潛語義主題加強(qiáng)的跨媒體檢索算法。

        輸入:帶有類別信息的圖像和文本,統(tǒng)一表示為{(x(1),y(1)),(x(2),y(2)),…,(x(m),y(m))}。

        1)根據(jù)式(1)、(2)求解得到圖像和文本的潛語義主題。

        圖像的潛語義主題:X=[x1,x2,…,xn]T

        文本的潛語義主題:T=[t1,t2,…,tn]T

        2)對(duì)每一個(gè)類別(i=1,2,…,L)求解:

        s.t.Mx≥0;Sx=1

        根據(jù)式(9)、(10)中M、b、S的定義計(jì)算正則化矩陣。

        輸出:正則化矩陣H=[H1,H2,…,HL]。

        圖像的潛語義主題乘上正則化因子,即可得到初步正則化的圖像,使用文本每一個(gè)類別的后驗(yàn)概率乘上初步正則化圖像的每一類別的后驗(yàn)概率,即可實(shí)現(xiàn)圖像和文本的潛語義主題之間的關(guān)聯(lián)最大化。

        3 實(shí)驗(yàn)分析

        3.1 實(shí)驗(yàn)數(shù)據(jù)集和數(shù)據(jù)表示

        為了驗(yàn)證本文算法的有效性,實(shí)驗(yàn)在Wikipedia和TVGraz這兩個(gè)跨媒體檢索常用的數(shù)據(jù)集上進(jìn)行。Wikipedia數(shù)據(jù)集包含2 866個(gè)文本圖像數(shù)據(jù)對(duì),這些文本圖像數(shù)據(jù)對(duì)屬于10個(gè)不同的類別,實(shí)驗(yàn)隨機(jī)選取2 173個(gè)文本圖像數(shù)據(jù)對(duì)作訓(xùn)練,剩余693個(gè)圖像文本數(shù)據(jù)對(duì)作測試。TVGraz包含2 058個(gè)圖像文本數(shù)據(jù)對(duì),這些圖像文本數(shù)據(jù)對(duì)同樣屬于10個(gè)不同的類別,實(shí)驗(yàn)采用1 588個(gè)文本圖像數(shù)據(jù)對(duì)做訓(xùn)練,500個(gè)圖像文本數(shù)據(jù)對(duì)測試。在所有實(shí)驗(yàn)中,圖像表示基于詞袋(BoW)模型,即用1 024個(gè)視覺詞碼量化圖像提取的SIFT(Scale-InvariantFeatureTransform)特征;文本表示基于LDA模型,即計(jì)算每個(gè)文本基于100個(gè)隱含主題的概率。

        3.2 度量標(biāo)準(zhǔn)

        實(shí)驗(yàn)采用皮爾遜相關(guān)系數(shù)來度量特征向量之間的相似性,通過相似性對(duì)檢索結(jié)果進(jìn)行排序,將排序后的檢索結(jié)果作為查詢返回的結(jié)果。其計(jì)算公式如下:

        3.3 實(shí)驗(yàn)結(jié)果的評(píng)價(jià)

        實(shí)驗(yàn)采用平均查準(zhǔn)率(mean Average Precision, mAP)和召回率對(duì)算法的性能進(jìn)行評(píng)價(jià)。查準(zhǔn)率(Average Precision,AP)的計(jì)算公式如下:

        其中:L為查詢返回的結(jié)果中相關(guān)結(jié)果的個(gè)數(shù);R為查詢返回的結(jié)果總數(shù);prec(r)表示返回的結(jié)果在r處的排名精度;δ(r)=1表示返回的結(jié)果相關(guān);δ(r)=0則表示返回的結(jié)果不相關(guān)。本文實(shí)驗(yàn)中R=10。

        3.4 實(shí)驗(yàn)結(jié)果與分析

        在Wikipedia和TVGraz兩個(gè)數(shù)據(jù)集上實(shí)驗(yàn),將本文提出的LSTR算法與主流跨媒體CCA算法、SM(SemanticMatching)算法、SCM(SemanticCorrelationMatching)算法的平均查準(zhǔn)率(mAP)進(jìn)行對(duì)比,mAP為文本檢索圖像和圖像檢索文本的AP的平均值。對(duì)比情況如表1所示。

        表1 Wikidedia和TVGraz數(shù)據(jù)集中算法性能對(duì)比

        從表1可以看出,本文算法性能明顯高于對(duì)比算法的性能,尤其是文本檢索圖像的平均查準(zhǔn)率。其次,從表1不同數(shù)據(jù)集的對(duì)比可以看出,在TVGraz數(shù)據(jù)集上各個(gè)算法的性能明顯高于Wikipedia數(shù)據(jù)集。這是由于TVGraz數(shù)據(jù)集的圖像都是一個(gè)特定的物體或動(dòng)物類別比較明顯,而Wikipedia圖像反映的內(nèi)容則比較抽象,類別屬性模糊。

        實(shí)驗(yàn)不僅對(duì)整體數(shù)據(jù)的平均查準(zhǔn)率進(jìn)行了分析,還比較了不同類別的樣例在Wikipedia數(shù)據(jù)集上的平均查準(zhǔn)率。

        圖2為圖像檢索文本的不同類別樣例的平均查準(zhǔn)率,圖3為文本檢索圖像的不同類別樣例的平均查準(zhǔn)率(),圖4為不同類別樣例平均查準(zhǔn)率。對(duì)比圖2~4可看出,本文算法的性能大幅度高于對(duì)比算法的性能,特別是文本檢索圖像。這是因?yàn)槲谋緳z索圖像時(shí),圖像是被文本正則化之后的圖像,它的潛語義主題與文本的潛語義主題相近,而圖像檢索文本時(shí),圖像只是利用多分類回歸模型提取的潛語義主題,沒有經(jīng)過相應(yīng)文本的正則化。

        圖2 不同類別樣例的平均查準(zhǔn)率(圖像檢索文本)

        圖3 不同類別樣例的平均查準(zhǔn)率(文本檢索圖像)

        圖4 不同類別樣例的平均查準(zhǔn)率

        平均查準(zhǔn)率只是信息檢索算法性能評(píng)價(jià)的一個(gè)標(biāo)準(zhǔn),除了平均查準(zhǔn)率,實(shí)驗(yàn)還在Wikipedia數(shù)據(jù)集上對(duì)文本檢索圖像和圖像檢索文本的檢索結(jié)果的準(zhǔn)確率-召回率曲線進(jìn)行了分析,如圖5~6所示。

        圖5 圖像檢索文本的準(zhǔn)確率-召回率曲線

        圖6 文本檢索圖像的準(zhǔn)確率-召回率曲線

        從圖5~6可看出:本文提出的LSTR算法隨著召回率的增大,其檢索結(jié)果準(zhǔn)確率的下降幅度比CCA、SM、SCM等跨媒體檢索算法的下降幅度要平緩,即本文算法的準(zhǔn)確率受召回率的影響較小,也就是當(dāng)檢索結(jié)果的召回率增大時(shí),本文算法仍能保持較高的準(zhǔn)確率。

        4 結(jié)語

        本文提出的基于潛語義加強(qiáng)的跨媒體檢索算法,在Wikipedia和TVGraz兩個(gè)數(shù)據(jù)集上的實(shí)驗(yàn),驗(yàn)證了本文算法能有效提高跨媒體檢索的查準(zhǔn)率,尤其是文本檢索圖像的查準(zhǔn)率,為跨媒體檢索提供了一種新的思路:使用文本的語義去強(qiáng)化圖像的語義,使圖像和文本的潛語義主題達(dá)到一致,來實(shí)現(xiàn)圖像和文本的相互檢索。但另一方面,本文算法在圖像檢索文本時(shí)查準(zhǔn)率提高的幅度不大,這是因?yàn)闆]有相應(yīng)的文本對(duì)查詢的圖像進(jìn)行語義加強(qiáng),圖像和文本的關(guān)聯(lián)沒有最大化,所以如何對(duì)無文本注釋的圖像加強(qiáng)其潛語義主題還有待進(jìn)一步的探索。

        )

        [1] 吳飛, 莊越挺.互聯(lián)網(wǎng)跨媒體分析與檢索:理論與算法 [J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2010, 22(1):1-9.(WUF,ZHUANGYT.CrossmediaanalysisandretrievalontheWeb:theoryandalgorithm[J].JournalofComputer-AidedDesignandComputerGraphics, 2010, 22(1):1-9.)

        [2]CHENX,LIUH,CARBONELLJG.Structuredsparsecanonicalcorrelationanalysis[EB/OL]. [2016- 03- 10].https://www.cs.cmu.edu/~jgc/StructuredSparseCanonicalCorrelationAnalysisAISTATS2012.pdf.

        [3] 張鴻, 吳飛, 莊越挺, 等.一種基于內(nèi)容相關(guān)性的跨媒體檢索方法[J]. 計(jì)算機(jī)學(xué)報(bào), 2008, 31(5):820-826.(ZHANGH,WUF,ZHUANGYT,etal.Cross-mediaretrievalmethodbasedoncontentcorrelation[J].ChineseJournalofComputers, 2008, 31(5):820-826.)

        [4]PUTTHIVIDHYD,ATTIASHT,NAGARAJANSS.Topicregressionmulti-modallatentDirichletallocationforimageannotation[C]//Proceedingsofthe2010IEEEConferenceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEE, 2010: 3408-3415.

        [5]WUF,JIANGX,LIX,etal.,Cross-modallearningtorankvialatentjointrepresentation[J].IEEETransactionsonImageProcessing, 2015, 24(5): 1497-1509.

        [6]GONGY,KEQ,ISARDM,etal.Amulti-viewembeddingspaceformodelingInternetimages,tags,andtheirsemantics[J].InternationalJournalofComputerVision, 2014, 106(2):210-233.

        [7] ZHEN Y, YEUNG D Y. A probabilistic model for multimodal hash function learning[C]// KDD 2012: Proceedings of the 18th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2012: 940-948.

        [8] SHANG X, ZHANG H, CHUA T-S. Deep learning generic features for cross-media retrieval[C]// MMM 2016: Proceedings of the 22nd International Conference on MultiMedia Modeling, LNCS 9516. Berlin: Springer, 2016: 264-275.

        [9] FROME A, CORRADO G, SHLENS J, et al. DeViSE: a deep visual-semantic embedding model[EB/OL]. [2016- 03- 10]. https://papers.nips.cc/paper/5204-devise-a-deep-visual-semantic-embedding-model.pdf.

        [10] MA L, LU Z, SHANG L, et al. Multimodal convolutional neural networks for matching image and sentence[C]// Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2015: 2623-2631.

        [11] SRIVASTAVA N, SALAKHUTDINOV R. Multimodal learning with deep Botzmann machines[EB/OL]. [2016- 03- 10]. http://jmlr.org/papers/volume15/srivastava14b/srivastava14b.pdf.

        [12] WU F, YU Z, YI Y, et al. Sparse multi-modal hashing[J]. IEEE Transactions on Multimedia, 2014, 16(2):427-439.

        [13] ZHUANG Y, YU Z, WANG W, et al. Cross-media hashing with neural networks[C]// MM 2014: Proceedings of the 22nd ACM International Conference on Multimedia. New York: ACM, 2014: 901-904.

        [14] RAFAILIDIS D, CRESTANI F. Cluster-based joint matrix factorization hashing for cross-modal retrieval[C]// SIGIR 2016: Proceedings of the 39th International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM, 2016: 781-784.

        [15] ZHAO F, HUANG Y, WANG L, et al. Deep semantic ranking based hashing for multi-label image retrieval[C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2015: 1556-1564.

        This work is partially supported by the National Natural Science Foundation of China (61003127, 61373109).

        HUANG Yu, born in 1991, M. S. candidate. His research interests include machine learning, cross-media retrieval.

        ZHANG Hong, born in 1979, Ph. D., professor. Her research interests include cross-media retrieval, machine learning, data mining.

        Cross-media retrieval based on latent semantic topic reinforce

        HUANG Yu1,2, ZHANG Hong1,2*

        (1. School of Computer Science and Technology, Wuhan University of Science and Technology, Wuhan Hubei 430065, China;2. Hubei Province Key Laboratory of Intelligent Information Processing and Real-time Industrial System (Wuhan University of Science and Technology), Wuhan Hubei 430065, China)

        As an important and challenging problem in the multimedia area, common semantic topic has different expression across different modalities, and exploring the intrinsic semantic information from different modalities in a collaborative manner was usually neglected by traditional cross-media retrieval methods. To address this problem, a Latent Semantic Topic Reinforce cross-media retrieval (LSTR) method was proposed. Firstly, the text semantic was represented based on Latent Dirichlet Allocation (LDA) and the corresponding images were represented with Bag of Words (BoW) model. Secondly, multiclass logistic regression was used to classify both texts and images, and the posterior probability under the learned classifiers was exploited to indicate the latent semantic topic of images and texts. Finally, the learned posterior probability was used to regularize their image counterparts to reinforce the image semantic topics, which greatly improved the semantic similarity between them. In the Wikipedia data set, the mean Average Precision (mAP) of retrieving text with image and retrieving image with text is 57.0%, which is 35.1%, 34.8% and 32.1% higher than that of the Canonical Correlation Analysis (CCA), Semantic Matching (SM) and Semantic Correlation Matching (SCM) method respectively. Experimental results show that the proposed method can effectively improve the average precision of cross-media retrieval.

        cross-media retrieval; latent semantic topic; multiclass logistic regression; posterior probability; regularization

        2016- 09- 23;

        2016- 12- 22。 基金項(xiàng)目:國家自然科學(xué)基金資助項(xiàng)目(61003127,61373109)。

        黃育(1991—),男,湖北武漢人,碩士研究生,主要研究方向:機(jī)器學(xué)習(xí)、跨媒體檢索; 張鴻(1979—),女,湖北襄陽人,教授,博士,主要研究方向:跨媒體檢索、機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘。

        1001- 9081(2017)04- 1061- 04

        10.11772/j.issn.1001- 9081.2017.04.1061

        TP391.41

        A

        猜你喜歡
        查準(zhǔn)率跨媒體類別
        “跨媒體表征學(xué)習(xí)及認(rèn)知推理”專欄征文通知
        “跨媒體表征學(xué)習(xí)及認(rèn)知推理”專欄征文通知
        基于數(shù)據(jù)挖掘技術(shù)的網(wǎng)絡(luò)信息過濾系統(tǒng)設(shè)計(jì)
        大數(shù)據(jù)環(huán)境下的文本信息挖掘方法
        基于深度特征分析的雙線性圖像相似度匹配算法
        服務(wù)類別
        新校長(2016年8期)2016-01-10 06:43:59
        跨媒體出版物的平臺(tái)互動(dòng)研究
        出版與印刷(2015年3期)2015-12-19 13:15:13
        論類別股東會(huì)
        商事法論集(2014年1期)2014-06-27 01:20:42
        中醫(yī)類別全科醫(yī)師培養(yǎng)模式的探討
        基于跨媒體字典的圖像檢索
        久久精品国产在热亚洲不卡| 色狠狠色狠狠综合一区| 欧美韩国精品另类综合| 国产精品二区三区在线观看| 日本精品一区二区高清| 大肉大捧一进一出视频| 欧美国产综合欧美视频| 欧美巨大性爽| 99亚洲乱人伦精品| 亚洲综合久久精品少妇av | 国产精品美女久久久浪潮av| 亚洲无码vr| 被灌醉的日本人妻中文字幕| 久久99热狠狠色精品一区| 国产偷国产偷亚洲清高| 久久精品国产成人午夜福利| 手机在线观看av资源| 99精品国产一区二区三区不卡 | 国产一区二区三区免费av| 亚洲熟妇av一区| 7777精品久久久大香线蕉| 国产91精品丝袜美腿在线| 亚洲国产精品国自产拍久久蜜av| 免费a级作爱片免费观看美国| 日韩在线不卡免费视频| 国产精品亚洲av无人区二区| 人人妻人人澡人人爽国产| 成人看片黄a免费看那个网址| 亚欧乱色束缚一区二区三区| 男女视频一区二区三区在线观看| 人妻精品久久无码区| 国产女在线| 中文字幕久久人妻av| 激情内射人妻1区2区3区| 精品亚洲欧美无人区乱码| 精品久久久久久99人妻| 亚洲女同恋av中文一区二区| 日韩网红少妇无码视频香港| 国产山东熟女48嗷嗷叫| 中文字幕在线一区乱码| 亚洲免费国产中文字幕久久久 |