亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于最大熵與相關(guān)性分析的非負矩陣分解

        2023-10-09 02:12:18馮本勇徐勇軍
        計算機應(yīng)用與軟件 2023年9期
        關(guān)鍵詞:語義分析

        馮本勇 徐勇軍

        1(石家莊工商職業(yè)學(xué)院 河北 石家莊 050000)

        2(中國科學(xué)院計算技術(shù)研究所 北京 100190)

        0 引 言

        矩陣分解(MF)模型是多元分析中降維和特征學(xué)習(xí)的有效方法,高維數(shù)據(jù)樣本被格式化為矩陣,然后分解成低維矩陣的乘積[1]。非負矩陣分解(NMF)是最流行的矩陣分解模型之一,它允許將一個非負輸入矩陣分解成兩個低階非負矩陣,通過原始特征的分布因子分解,樣本由學(xué)習(xí)的潛在因子的相加組合重構(gòu),該方法由于其泛化能力較強得到了廣泛的應(yīng)用[2-3]。

        為了學(xué)習(xí)高質(zhì)量的潛在因子,學(xué)者在許多類MF模型中研究了潛在因子的性質(zhì)。主流研究學(xué)派建議減少共適應(yīng),以便有效地捕捉數(shù)據(jù)中罕見的隱藏模式。黃衛(wèi)春等[4]提出了一種正交約束非負矩陣三因子分解(NMTF),使?jié)撛谝蜃拥亩鄻有宰畲蠡?從而得到嚴格的聚類解釋。Chen提出在奇異值分解(SVD)中為學(xué)習(xí)的潛在因子分配權(quán)重,而不是矩陣項。余江蘭等[5]提出了非負多矩陣分解(NMMF),它將用戶項矩陣與兩個輔助矩陣一起分解,以合并邊界信息。徐霜等[6]提出了一種改進NMF(ENMF)來進一步從一系列矩陣中提取知識。然而,上述方法受到硬幾何約束的巨大計算量的限制,并且這些經(jīng)典的方法主要集中在如何整合更多的輔助信息和領(lǐng)域知識上,而對學(xué)習(xí)的潛在因子的特性關(guān)注較少[7]。

        為此,本文提出一種多分量NMF同時學(xué)習(xí)多組潛在因子,并使用Hilbert-Schmidt獨立性準(zhǔn)則來發(fā)現(xiàn)多樣性信息,從而可以對數(shù)據(jù)的多方面進行探索。劉國慶等[8]利用大錐罰函數(shù)尋找具有大互角的潛在因子,可以很好地推廣到其他不可知的數(shù)據(jù)中。另外,為了有效地分解高度混合的數(shù)據(jù),李向利等[9]提出了一種最小體積約束的NMF(MVCNMF)來學(xué)習(xí)彼此相對相似的潛在因子,MVCNMF模型也成功地應(yīng)用于高相關(guān)度的人臉圖像處理。但是上述方法未能解決各因素的相關(guān)性進行建模,并且缺乏對詞或像素等原始輸入特征應(yīng)如何分布的因子內(nèi)分析。

        為解決上述問題,提出一種基于最大熵與相關(guān)性分析的非負矩陣分解方法(MECNMF),利用最大熵原理描述非負矩陣分解中的潛在因子分布,以捕捉語義質(zhì)量的潛在因子特性,并提出一種基于相似性的方法來度量差異性。另外,將自適應(yīng)加權(quán)策略引入因子間的相互關(guān)系,使得每個潛在因子能夠無監(jiān)督地獲得自適應(yīng)權(quán)重。在多個數(shù)據(jù)集上的實驗結(jié)果表明,本文方法具有良好的性能。

        1 研究方法

        1.1 非負矩陣分解

        X=UV

        (1)

        (2)

        NMF的損失函數(shù)測量X和UV之間的重構(gòu)誤差。平方歐幾里得距離和廣義Kullback-Leibler散度是最常用的距離度量[4]。平方歐幾里得距離損失函數(shù)為:

        (3)

        1.2 最大熵理論

        1.2.1分布狀態(tài)分析

        NMF框架中的關(guān)鍵問題是找出哪些潛在因子對數(shù)據(jù)的語義重構(gòu)貢獻更大,從而更好地擬合輸入矩陣X。如圖1所示,從式(2)的數(shù)據(jù)重構(gòu)角度來看,NMF可以類比為一種深度神經(jīng)網(wǎng)絡(luò)(DNN)模型的作用。

        圖1 NMF框架

        在圖1的左半部分,輸入樣本xns被轉(zhuǎn)換成K個潛在因子的組合uks,其中表示向量vns作為網(wǎng)絡(luò)權(quán)重。與DNN的區(qū)別有三個方面:首先,將所有樣本數(shù)據(jù)同時送入NMF,而DNN是將樣本數(shù)據(jù)分批送入;其次,uks是無監(jiān)督自動學(xué)習(xí)的,不需要任何指導(dǎo)性標(biāo)簽數(shù)據(jù);最后,NMF無非線性激活函數(shù)。

        在這種無監(jiān)督學(xué)習(xí)環(huán)境下,本文提出兩種基于對潛在因子的直觀分析的自適應(yīng)加權(quán)策略,如圖1的右側(cè)所示。首先,一個潛在因子應(yīng)該對更多原始特征中的語義進行編碼。如果uk的分布主要集中在一些原始特征上,那么它很可能產(chǎn)生過擬合現(xiàn)象,并且設(shè)置的權(quán)重應(yīng)該更小。為此,本文提出一種最大熵測量方法g(uk)來定量分析潛在因子的分布狀態(tài)。其次,如果uk與其他潛在因子區(qū)別較大,那么uk很可能會受噪聲和離群值的影響,從而在語義重構(gòu)過程中無法與其他潛在因子進行良好的協(xié)作。因此,提出一種互相關(guān)測量方法h(uk)來定量分析潛在因子分布之間的關(guān)系。然后,將兩個測量值整合,分配給各個潛在因子的自適應(yīng)權(quán)重中。最后,進行Sigmoid變換,進一步增強了處理非線性數(shù)據(jù)的能力。

        為了改善數(shù)據(jù)表示,每一個潛在因子首先需要傳達完整的語義。在NMF中,一個潛在因子uk表示為原始輸入特征的分布,每個條目umk表示第m個原始特征對uk的重要性。根據(jù)以上分析,需要定量地測量uk的分布狀態(tài)。

        信息熵是對事件狀態(tài)的不可預(yù)測性的度量[8]。在此,潛在因子uk相當(dāng)于一個“事件”,原始特征表示可能存在的狀態(tài),uk關(guān)于它們的歸一化分布表示可能性,其表示為:

        (4)

        (5)

        1.2.2相關(guān)性分析

        從上述分析來看,既要考慮到要素的分布特征,又要考慮它們之間的相關(guān)性。如果uk在M維特征空間中分布較稀疏,就會形成一個相對松散的語義空間,其中可能混雜噪聲。相反,緊湊的語義空間著重于大多數(shù)數(shù)據(jù)點,因此應(yīng)適當(dāng)促進潛在因子之間的相關(guān)性,這種自適應(yīng)協(xié)作可以揭示不同潛在主題之間的協(xié)方差結(jié)構(gòu)[7]。

        針對潛在因子提出各種相關(guān)措施[8],采用了廣泛使用的分布向量間的余弦相似性,但用其他相似性度量標(biāo)準(zhǔn)也是可行的。即uk與其他語言的整體語義相關(guān)性被定義為余弦相似度的總和,其計算式為:

        (6)

        式中:絕對值|umk|表示uk對第m個原始特征的權(quán)重,整體語義相關(guān)性的范圍為[0,K]。若h(uk)的值較高,表明uk與其他潛在因子相關(guān)性較好。隨著重構(gòu)誤差減小,增加h(uk)將促進潛在因子之間的相互協(xié)作,并加強學(xué)習(xí)語義空間的緊湊性。

        1.2.3加權(quán)轉(zhuǎn)換

        根據(jù)上述對潛在因子的分析,除了最小化分解損失之外,還有兩個項可以如式(5)和式(6)中那樣進行最大化。一種方法是將它們規(guī)范化,然后附加到損失函數(shù)中,但也存在較明顯的缺陷。首先,為了將損耗最小化問題與兩個目標(biāo)最大化相結(jié)合,需要通過一些減法操作和兩個超參數(shù)來平衡它們。但是,參數(shù)調(diào)整過程非常困難,因為這三個項的取值范圍彼此相差較大。另外,最大熵和互相關(guān)約束不會直接施加在單個潛在因子上,而是間接地作為除了重構(gòu)誤差之外的損失。因此,本文提出一種自適應(yīng)加權(quán)策略,將兩種測量結(jié)果以緊密耦合的方式集成到重構(gòu)損耗中。

        對目標(biāo)矩陣X的行、列甚至向量分配特定權(quán)重的常規(guī)加權(quán)策略,MECNMF通過對語義重構(gòu)的貢獻來權(quán)衡單個uk。對于每個潛在因子uk,為其分配一個非負權(quán)重變量λk。隨著λk的變大,uk在表示學(xué)習(xí)中的作用越來越重要。λk=0說明uk因其較差的表達能力而被完全刪除。

        根據(jù)分布狀態(tài)分析,如果uk具有較高的g(uk)值,則其分布更可靠并且可以更好地編碼語義信息,即權(quán)重λk與測量值g(uk)之間存在正相關(guān)。因此,與g(uk)相對應(yīng)的權(quán)重部分的計算式為:

        (7)

        式中:f(·)是雙曲正切函數(shù)f(z)=tanh(z),有平滑數(shù)據(jù)的作用,然后除以最大值f(log2M),此時取值范圍擴大到[0,1]。

        如果uk具有較高的h(uk)值,則它可以更好地與其他部分協(xié)作并增強語義空間的緊湊性。所以λk和h(uk)之間存在的相關(guān)性程度較高。與h(uk)相對應(yīng)的權(quán)重部分的計算式為:

        (8)

        除以最大值f(K)后,其取值范圍可以擴大到[0,1]。使用可調(diào)超參數(shù)α,可將這兩個權(quán)重值可以整合到一起,并且可以計算出λk:

        (9)

        式中:0≤α≤1。利用上述權(quán)重變量λk,可以用其加權(quán)形式λkuk來改進uk。此外,除了自適應(yīng)權(quán)值λk所傳遞的最大熵和互相關(guān)度量外,還需要提高uk處理非線性數(shù)據(jù)的能力。作為深度神經(jīng)網(wǎng)絡(luò)的基本組成部分,漸近激活函數(shù)已經(jīng)具備能夠使神經(jīng)網(wǎng)絡(luò)逼近任何函數(shù)的能力。因此,用激活函數(shù)進一步加強uk:

        (10)

        式中:σ(·)是Sigmoid函數(shù)。因此,式(2)中輸入樣本向量xn的線性重構(gòu)可以轉(zhuǎn)化為:

        (11)

        一個新的損失函數(shù)可表示為:

        (12)

        注意,MECNMF不同于傳統(tǒng)的加權(quán)NMF,因為分配給潛在因子的權(quán)重是通過兩個建議的測量值進行自適應(yīng)學(xué)習(xí),而不需要先驗知識。式(12)中的最終損失函數(shù)與NMTF中的類似,因為輸入矩陣X被分解為三個矩陣。然而,矩陣Λ中的元素不再是自由參數(shù),而是以非線性的方式從矩陣U進行自適應(yīng)學(xué)習(xí)。

        1.3 算法優(yōu)化

        1.3.1對V進行優(yōu)化

        (13)

        通過采用與文獻[5]相同的辦法,可以采用乘法運算得到V:

        (14)

        1.3.2對U進行優(yōu)化

        由于包含非線性分析函數(shù)g(·)和h(·),L對U求導(dǎo)比較復(fù)雜。因此,本設(shè)計采用經(jīng)典梯度法對U進行優(yōu)化,當(dāng)L對U求偏導(dǎo)數(shù)時,首先求解對角權(quán)矩陣Λ對U的梯度,因為這是其中最復(fù)雜的部分。λk對uij求偏導(dǎo)數(shù)公式如下:

        (15)

        f(g(uk))對uij求偏導(dǎo)數(shù)公式如下:

        (16)

        (17)

        (18)

        式中:sign(·)是符號函數(shù)。f(h(uk))對uij求偏導(dǎo)數(shù)公式如下:

        (19)

        (20)

        (21)

        給定上述對角線權(quán)重矩陣的導(dǎo)數(shù),可以很容易求出L對uij的偏導(dǎo)數(shù):

        4(σ(UΛ)VVT?σ′(UΛ)ΛT)ij+βsign(uij)

        (22)

        式中:σ′(·)是σ(·)函數(shù)的導(dǎo)數(shù);?表示逐點矩陣乘法。在給定步長η的情況下,可以通過向其梯度相反的方向移動來更新U:

        (23)

        根據(jù)以上分析,本文提出一種如算法1中描述的迭代優(yōu)化算法。在每一次迭代中,使用式(14)中的乘法更新規(guī)則來更新矩陣V,如第4行所示。還有一個內(nèi)部迭代,用式(23)更新矩陣U,如第6-12行所示。外迭代和內(nèi)迭代的最大次數(shù)分別為T和S。在實際應(yīng)用中,選擇合適的步長η有些困難,因為當(dāng)η值不適合時,優(yōu)化過程要么存在收斂慢的問題,要么出現(xiàn)來回振動問題。通過文獻[8]中的自適應(yīng)調(diào)整規(guī)則,引用文中的衰減策略:

        η(t)=η(0)×γt

        (24)

        式中:γ是衰減率。當(dāng)輸出矩陣收斂或達到最大迭代次數(shù)時,將結(jié)束迭代。

        算法1MECNMF優(yōu)化算法

        輸入:數(shù)據(jù)矩陣X,潛在因子數(shù)K,超參數(shù)α、β。

        輸出:基本矩陣U,表示矩陣V。

        2.fort=1→Tdo

        3.(1) 根據(jù)式(14)更新V:

        5.(2) 根據(jù)式(23)更新U:

        6.fors=1→Sdo

        8.if 收斂 then

        9. break

        10. end if

        11. end for

        12.U(t)←U(t,s)

        13.if 收斂 then

        14. break

        15. end if

        16. end for

        17.U←U(t),V←V(t)

        1.3.3收斂性分析

        為了達到優(yōu)化目的,提出了算法1,它是傳統(tǒng)的NMF乘法更新算法和梯度下降算法的結(jié)合,證明這種新算法的收斂性很重要。令L(t)表示為第t次迭代后的損失,改進的優(yōu)化過程在運行時會產(chǎn)生一系列損失:

        L(0),L(1),…,L(t-1),L(t),L(t+1),…,L(T)

        (25)

        式中:L(0)是初始損失。如果可以證明上述序列是單調(diào)遞減的,由于損失函數(shù)值總是非負的,那么經(jīng)過足夠的迭代次數(shù),優(yōu)化過程無疑會收斂到某一點,最終結(jié)果至少是一個局部最優(yōu)解。

        在算法1中,每個迭代步驟都包含兩個子步驟,分別是V和U的優(yōu)化。因此,每一步損失L(t)可以進一步分為兩個子損失:

        …,L(t-1,v),L(t-1,u),L(t,v),L(t,u),L(t+1,v),L(t+1,u),…

        (26)

        1.4 復(fù)雜性分析

        T代表外部最大迭代次數(shù),S代表內(nèi)部最大迭代次數(shù),M、N、K分別代表輸入樣本數(shù)量、原始特征、潛在因子。

        在算法1中,主要的運算是求導(dǎo)和矩陣運算。為了方便起見,本文假設(shè)所有浮點運算的時間復(fù)雜度都是相同的。根據(jù)迭代公式,可以得出NMF和MECNMF的計算復(fù)雜度如表1所示。可以看出,當(dāng)K<

        表1 NMF和MECNMF的計算復(fù)雜性

        2 實驗與結(jié)果分析

        2.1 數(shù)據(jù)集

        此次實驗使用了5個數(shù)據(jù)集,其中2個是文檔數(shù)據(jù)集,另外3個是圖像集。表2統(tǒng)計了貢獻度較高的數(shù)據(jù)。

        表2 數(shù)據(jù)集統(tǒng)計

        (1) 20NG:20新聞組語料庫是一個約20 000個新聞文件的集合,分為20個不同的組和6個普通類別。它包含18 291個文檔和9 313個經(jīng)過預(yù)處理的常用詞。本文把普通類別作為聚類的基本依據(jù)。

        (2) WebKB:WebKB語料庫包含4所大學(xué)計算機科學(xué)系的人工分類網(wǎng)頁。網(wǎng)頁分為7個類別,刪除了其中的3個類別,這些刪除的類別包含很少的樣本,或者沒有特定的含義,其余4個類別共4 168頁、7 770個術(shù)語。

        (3) COIL20:COIL20是一個圖像數(shù)據(jù)集,包含20個對象從不同角度的形態(tài),圖像是像素大小為32×32的灰度圖像,每個對象有72幅不同的圖像,每個對象的圖像歸為一個簇。

        (4) Yale:Yale是一個包含15個人、像素大小為32×32灰度圖像的人臉圖像數(shù)據(jù)集。每個實驗對象有11幅不同面部表情或形態(tài)的圖像。每個人的所有圖像歸為一個簇。

        (5) NUS-WIDE-OBJECT(簡稱NUS):NUS-WIDE-OBJECT數(shù)據(jù)集是NUS-WIDE的一個子集,它是一個真實的Web圖像數(shù)據(jù)集,它包含了31個類別的30 000幅圖片。參考文獻[9]后,本文移除了帶有多個標(biāo)簽的圖像,并從每個類別中隨機選擇了100幅圖像。每個圖像由500個維度BoW向量表示。

        2.2 不同算法間比較

        MECNMF是NMF及其變形的一種通用方法。將所提出的加權(quán)策略和非線性變換應(yīng)用于具有代表性的NMF基線,以驗證其靈活性。還將MECNMF與最近提出的NMF方法進行了比較,以說明其優(yōu)越性。所有算法的比較結(jié)果及說明如下:

        (1) NMF[2]:通過使用式(3)中的平方歐幾里得距離損失函數(shù)實現(xiàn)NMF。將輸入矩陣X分解為子矩陣U和V,其中V是輸入樣本的潛在表示。

        (2) MECNMF[10]:MECNMF通過在因子分解過程中自適應(yīng)學(xué)習(xí)潛在因子的權(quán)重來改進NMF。通過分布狀態(tài)分析、相關(guān)分析和非線性變換,改進了表示矩陣V。

        (3) SNMF[11]:正則化NMF最常采用稀疏NMF(SNMF)。矩陣V的L1范數(shù)被附加到式(3)中,用于表示稀疏數(shù)據(jù)。

        (4) MECSNMF[12]:與MECNMF類似,最大熵相關(guān)稀疏矩陣分解(MECSNMF)通過在因子分解過程中自適應(yīng)學(xué)習(xí)潛在因子的權(quán)重來改進SNMF,非線性變換進一步提高了對數(shù)據(jù)非線性建模的能力。

        (5) NWNMF[13]:Ncut-weighted NMF(NWNMF)使用特征相似圖計算X的權(quán)重,然后將NMF應(yīng)用于加權(quán)X以學(xué)習(xí)數(shù)據(jù)表示。

        (6) MECNWNMF[14]:最大熵相關(guān)Ncut-weighted MF(MECNWNMF)通過應(yīng)用狀態(tài)分布分析、相關(guān)分析和非線性變換改進了NWNMF,增強了數(shù)據(jù)表示。

        (7) NMTF[15]:非負矩陣三因子分解(NMTF)將輸入矩陣X分解為三個子矩陣,X=USV,其中V為表示矩陣。

        (8) GNMF[16]:圖正則化NMF(GNMF)構(gòu)造了一個相似圖來編碼數(shù)據(jù)樣本之間的幾何關(guān)系,并進一步令相似樣本在表示空間中處于相鄰位置。

        (9) LCNMF[17]:相反在MECNMF的外部分析中,Large-Cone NMF(LCNMF)采用了促進潛在因子多樣性的large-cone懲罰。large-cone懲罰分為兩種形式,一種是由這些因素形成的平行面體積,另一種是它們成對夾角的總和。因此,LCNMF有兩種變體,大體積NMF(LVNMF)和大角度NMF(LANMF)都與MECNMF進行了比較。

        (10) DNMF[18]:Dropout NMF(DNMF)試圖通過以一定概率隨機刪除潛在因子來促進其語義獨立性。與MECNMF和LCNMF不同,潛在因子之間的相關(guān)性和多樣性對它并沒有很大影響。

        2.3 實驗參數(shù)設(shè)置

        在分析實驗結(jié)果之前,本文比較并解釋了不同算法間的參數(shù)設(shè)置。在所有三個MECNMF中,對于20NG、WebKB、COIL20、Yale和NUS數(shù)據(jù)集,平衡參數(shù)α設(shè)置為0.5,β分別設(shè)置為1、10-1、10-3、10-3和10-2。優(yōu)化參數(shù)設(shè)置如下:(1) 優(yōu)化U的初始步長η(0),令20NG為50,令WebKB為10,令COIL20、Yale和NUS均為1;(2) 將所有數(shù)據(jù)集的衰減率γ設(shè)置為0.999 9;(3) 這些數(shù)據(jù)集的最大外部迭代數(shù)T為500;(4) 所有數(shù)據(jù)集的最大內(nèi)部迭代數(shù)S為15。

        對于所有5個數(shù)據(jù)集中的11個NMF變體,潛在因子K的數(shù)量設(shè)置為50。SNMF和MECSNMF中稀疏項的平衡參數(shù)的取值范圍是{10-3,10-2,…,103}。在NMTF中,雖然U和V的潛在維度可能不同,但值都設(shè)置為50。為了與MECNMF進行比較,進一步將NMTF的內(nèi)矩陣S設(shè)為對角矩陣。對于GNMF、LVNMF、LANMF和DNMF,按照原文件中的參數(shù)值設(shè)置超參數(shù)。當(dāng)NMF、MECNMF、SNMF、MECSNMF、NWNMF、MECNWNMF和NMTF收斂速度過快時,將最大迭代次數(shù)T設(shè)置為100,而將GNMF、LVNMF、LANMF和DNMF的值設(shè)置為1 000,因為它們的收斂速度很慢。MECNMF、MECSNMF和MECNWNMF的最大內(nèi)部迭代次數(shù)S為15。對于所有的NMF方法,本文計算聚類結(jié)果的方法是在表示矩陣上采用K-Means算法。

        2.4 評價指標(biāo)

        本文采用聚類準(zhǔn)確度(ACC)和歸一化互信息(NMI)進行評價。用an和ln表示xn的原始聚類標(biāo)記和預(yù)測聚類標(biāo)記。ACC計算公式如下:

        (27)

        式中:map(l)=argkmax(|{xi|li=l,ai=k}|)將簇標(biāo)簽映射到相應(yīng)的原始標(biāo)簽;δ(·,·)檢查兩個標(biāo)簽是否相等,若相等則ACC為1,否則為0?;バ畔?MI)是決定集群劃分的方法:

        (28)

        式中:C和C′是同一樣本集的兩個不同的聚類;p(ci)測量了分配給聚類ci的整組樣本的比例;p(ci,cj)是聯(lián)合概率。為了更進一步直觀了解,通過采用熵來規(guī)范化MI(C,C′):

        (29)

        式中:H(C)表示聚類熵。

        2.5 聚類結(jié)果

        表3涵蓋了以上5個數(shù)據(jù)集上所有算法的聚類結(jié)果。用黑體表示原始NMFs和相應(yīng)MECNMFs之間較好的結(jié)果,并且在所有參與比較的方法中最好的結(jié)果下加下劃線??梢园l(fā)現(xiàn):

        表3 各個模型在不同數(shù)據(jù)集上的表現(xiàn)

        與大多數(shù)算法相比,MECNMF在所有5個數(shù)據(jù)集上都表現(xiàn)出更好的性能,并且MECNMF(MECNMF、MECSNMF和MECNWNMF)始終優(yōu)于原始算法(NMF、SNMF和NWNMF)。這有力地證明了對于具有代表性的NMF模型,本文算法比其他算法的性能較優(yōu)越以及更能廣泛被運用。因此,與傳統(tǒng)的加權(quán)NWNMF相比,該策略能有效地提高潛在因子的權(quán)重。MECNMF在所有數(shù)據(jù)集上表現(xiàn)的性能都優(yōu)于LVNMF和LANMF。此外,LVNMF和LANMF在數(shù)據(jù)集20NG上表現(xiàn)的性能比NMF要差,其原因在于緊湊的論題可以更好地適應(yīng)輸入數(shù)據(jù)。20NG數(shù)據(jù)集是一個松散分類的新聞?wù)Z料庫,數(shù)據(jù)中存在噪聲和冗余。如果不考慮潛在因子之間的關(guān)系,學(xué)習(xí)到的語義空間很容易被誤導(dǎo)。然而,MECNMF通過提高語義空間的緊湊性可以解決這個問題。DNMF性能優(yōu)于NMF,但比MECNMF差。這說明對學(xué)習(xí)過程中潛在因子之間的關(guān)系進行建模確實可以改善NMF,并且MECNMF的顯式分析比DNMF中的內(nèi)部丟棄表現(xiàn)得更好。最后,所有的MECNMF總是比NMTF表現(xiàn)更好,因此所提出的加權(quán)策略發(fā)揮了作用,而不是簡單地在因子分解中插入一個對角矩陣。

        2.6 參數(shù)分析

        2.6.1α敏感性分析

        圖2 平衡參數(shù)α分析

        2.6.2β敏感性分析

        圖3 平衡參數(shù)β分析

        2.6.3K的敏感性分析

        影響NMF性能的另一個參數(shù)是潛在因子K的數(shù)量。對于一個給定的數(shù)據(jù)集,潛在因子的數(shù)量不能預(yù)先精確估計。較小的K值不能學(xué)習(xí)數(shù)據(jù)中全部的信息,而較高的K值會增加計算復(fù)雜度和學(xué)習(xí)參數(shù)的難度。因此,有必要分析該算法對K的敏感性,為此本文進行了當(dāng)K∈{20,30,40,50,60,70,80,90,100}時的實驗。圖4描繪了當(dāng)K取不同值時4種算法的聚類結(jié)果變化情況。理想情況下,隨著K的增加,聚類結(jié)果變得更好。然而,在實驗過程中,曲線是波動的,但總體趨勢是向上的。不穩(wěn)定的主要原因可能是本文采用梯度下降法對算法進行了優(yōu)化,算法往往受到初始化值等因素的影響,有可能陷入局部優(yōu)化。此外,參數(shù)的隨機性也會導(dǎo)致曲線波動。然而,無論K值如何變化,本文提出的改進算法(MECNMF和MECNWNMF)總是比原算法(NMF和NWNMF)性能更好。考慮到性能和時間消耗,綜上所述,將K設(shè)置為50。

        圖4 平衡參數(shù)K分析

        2.7 語義空間分析

        首先,MECNMF考慮了潛在因子的分布狀態(tài),并強制它們從原始特征中編碼更多的信息,以減少語義歧義。g(·)函數(shù)用來衡量一個潛在因子對語義的編碼程度。當(dāng)α=1(表示為MECNMF-g)時,它是影響權(quán)重的唯一因素。如果有效地降低模糊度,uk的分布將集中在更多的原始特征上,并且g(uk)需要取較高的值。圖5描繪了MECNMF、MECNMF-g和NMF收斂后g(·)函數(shù)的值。為了便于說明,潛在因子按g(·)值的升序排列,僅取前15個值??梢钥闯?MECNMF和MECNMF-g的g(·)值均比NMF的大,因為它們可以編碼更多的原始語義以減少歧義。盡管不明顯,MECNMF-g的g(·)值略大于MECNMF,因為它的加權(quán)策略只考慮了最大熵度量。

        圖5 信息熵函數(shù)分析

        其次,MECNMF還考慮了潛在因子之間的相關(guān)性,并將其歸納為一個緊湊的語義空間,過濾掉異常值和噪聲。用h(·)函數(shù)來度量語義空間的緊密性,當(dāng)α=0(表示為MECNMF-h)時,它是權(quán)重中唯一需要考慮的因素。當(dāng)MECNMF、MECNMF-h和NMF收斂后,在圖6中繪制出h(·)的值。為了便于說明,潛在因子按h(·)的升序排列,僅描繪了前15個值。很明顯,MECNMF和MECNMF-h都比NMF有更大的h(·)值,因為潛在因子需要學(xué)習(xí)一個緊湊的語義空間。另外,由于MECNMF-h的加權(quán)策略只考慮了語義的緊湊性,所以它的h(·)值比MECNMF大??傊?分布狀態(tài)函數(shù)g(·)和相關(guān)函數(shù)h(·)在MECNMF學(xué)習(xí)過程中都起著舉足輕重的作用,而且二者的融合進一步提高了系統(tǒng)的性能。

        圖6 因子相關(guān)函數(shù)分析

        2.8 收斂性與計算效率

        進行了證明算法的收斂性和收斂速度的實驗。圖7描繪了上述數(shù)據(jù)集的收斂曲線,x軸表示迭代次數(shù),y軸表示目標(biāo)函數(shù)值??梢钥吹?本文算法在上述5個數(shù)據(jù)集上經(jīng)過大約200次迭代后達到收斂,這說明本文算法收斂速度很快。

        圖7 收斂函數(shù)

        如表1所示,當(dāng)K<

        3 結(jié) 語

        為解決傳統(tǒng)非負矩陣分解不考慮潛在因子的相關(guān)性與分布特征等缺點,提出一種基于最大熵與相關(guān)性分析的非負矩陣分解方法。通過多個數(shù)據(jù)集的實驗可得出如下結(jié)論:

        (1) 對于具有代表性的NMF模型,MECNMF比其他算法的性能更優(yōu)越,且具備更好的泛化能力,另外,算法的收斂速度很快。

        (2) MECNMF通過提高語義空間的緊湊性可以提高潛在因子的權(quán)重,有效地解決語義空間容易被誤導(dǎo)的問題,并且MECNMF的顯式分析比DNMF中的內(nèi)部丟棄表現(xiàn)得更好。

        (3) 分布狀態(tài)函數(shù)和相關(guān)函數(shù)在MECNMF學(xué)習(xí)過程中都起著舉足輕重的作用,而且二者的融合進一步提高了系統(tǒng)的性能。

        猜你喜歡
        語義分析
        隱蔽失效適航要求符合性驗證分析
        語言與語義
        電力系統(tǒng)不平衡分析
        電子制作(2018年18期)2018-11-14 01:48:24
        電力系統(tǒng)及其自動化發(fā)展趨勢分析
        “上”與“下”語義的不對稱性及其認知闡釋
        認知范疇模糊與語義模糊
        中西醫(yī)結(jié)合治療抑郁癥100例分析
        在線教育與MOOC的比較分析
        “深+N季”組配的認知語義分析
        語義分析與漢俄副名組合
        男人一插就想射的原因| 无遮高潮国产免费观看韩国| 开心激情网,开心五月天| 精品国产亚洲级一区二区| 让少妇高潮无乱码高清在线观看 | 中文有码亚洲制服av片| 午夜内射中出视频| 五月综合高清综合网| 丰满少妇一区二区三区专区| 国产乱精品女同自线免费| 精品久久久久久成人av| 久久久精品免费观看国产| 亚洲中文字幕有码av| 一区二区三区国产内射| 亚洲加勒比久久88色综合| 免费一区二区三区久久| 亚洲一区二区三区在线观看蜜桃 | 久久久久九九精品影院| 亚洲 自拍 另类 欧美 综合| 男性一插就想射是因为啥| 亚洲免费精品一区二区| 性久久久久久| 夜夜爽一区二区三区精品| 中文字幕有码高清| 四季极品偷拍一区二区三区视频 | 色哟哟av网站在线观看| 亚洲一区二区三区日韩在线观看| 久久精品国产精品青草| 尤物99国产成人精品视频| 日韩久久免费精品视频| 中文字幕一区二区三区久久网 | 香港三级午夜理论三级| 久久精品成人欧美大片| 在线一区二区三区国产精品| 中文字字幕在线精品乱码| 日本一区二区啪啪视频| 亚洲av手机在线观看| 女人色熟女乱| 69精品免费视频| 亚洲av网站在线免费观看| 无码av中文一区二区三区桃花岛|