王 靜 ,劉觀寧 ,張鈺輝
(1.西安電子科技大學(xué) 計(jì)算機(jī)學(xué)院,陜西 西安 710071;2.安徽省技術(shù)創(chuàng)新服務(wù)中心,安徽 合肥 230001)
隨著互聯(lián)網(wǎng)的高速發(fā)展,Web已經(jīng)成為最大的信息來源。但是如何獲取這些Web信息為我所用則是大家面臨的共同問題。網(wǎng)頁去重是Web網(wǎng)頁信息處理的重要環(huán)節(jié),只有在對(duì)網(wǎng)頁的去重基礎(chǔ)上才可以準(zhǔn)確處理網(wǎng)頁中的信息。本文介紹網(wǎng)頁的去重算法。
提取出來的網(wǎng)頁,有些內(nèi)容可能很相似,對(duì)于這些內(nèi)容相似的網(wǎng)頁沒必要保存。針對(duì)系統(tǒng)中的人才招聘網(wǎng)頁更是必要:一個(gè)公司的招聘信息很可能會(huì)在數(shù)十家招聘網(wǎng)站以及自己公司主頁同時(shí)發(fā)布,所以有必要對(duì)這些網(wǎng)頁去重。
詞、詞組和短語是組成文檔的基本元素,在不同內(nèi)容的文檔中各詞條出現(xiàn)頻率有一定的規(guī)律性,不同的特征詞條可以區(qū)分不同內(nèi)容的文本。因此可以抽取一些特征詞條構(gòu)成特征矢量,在VSM[1]模型中把 t1,t2,…,tn看成一個(gè)N維的坐標(biāo)系 w1(d),w2(d),…,wn(d)為相應(yīng)的坐標(biāo)值,因而文本d被看成是N維空間中的一個(gè)規(guī)范化特征矢量:V(d)=(t1,w1(d);…;ti,wi(d);…;tn,wn(d);)
對(duì)于網(wǎng)頁,ti就表示特征詞條,wi(d)就是文本d中ti的權(quán)值。用這個(gè)特征矢量來表示網(wǎng)頁文本。在網(wǎng)頁表示中,對(duì)任一特征而言有兩個(gè)因素影響特征的權(quán)值。一是詞在HTML文檔中出現(xiàn)的詞頻,另一個(gè)是該詞在該文檔中出現(xiàn)的位置。詞頻指的是某一詞條在文檔中出現(xiàn)的頻率,頻率越高 (當(dāng)然不包括那些停用詞)則說明該詞越重要,越能代表該網(wǎng)頁的內(nèi)容。對(duì)于網(wǎng)頁的主題包含在之間的詞組比在之間的詞組更具有代表性。因此本文提出了一種把該詞出現(xiàn)的頻率以及該詞出現(xiàn)的位置相結(jié)合的權(quán)重計(jì)算方法,能夠更有效地表示網(wǎng)頁。公式如下:
這里α=2,α=3,α=4和α=6都是經(jīng)過實(shí)驗(yàn)得到的。實(shí)驗(yàn)結(jié)果也證明了此改進(jìn)算法對(duì)網(wǎng)頁分類正確率的有效性。
使用VSM模型表示法時(shí),表示文檔的特征向量的維數(shù)會(huì)達(dá)到成百上千。同時(shí),具有代表性的特征以及詞匯特征也會(huì)很大,并且是冗余的。這種未經(jīng)處理的文本矢量會(huì)給后繼的處理工作帶來巨大的計(jì)算開銷。特征提取主要用于排除那些被認(rèn)為無關(guān)或關(guān)聯(lián)性不大的特征。基于VSM常用的特征項(xiàng)提取算法有:詞頻、信息增益、互信息量[2]及X2統(tǒng)計(jì)量[3]等。在中文文本分類中使用較多的是互信息量和X2統(tǒng)計(jì)量。
(1)互信息量
互信息是信息論中的概念,它用于度量一個(gè)消息中兩個(gè)信號(hào)之間的相互依賴程度。在特征選擇領(lǐng)域中人們經(jīng)常利用它來計(jì)算特征t與類別c之間的依賴程度,將特征t與各個(gè)類的互信息融合起來作為特征的權(quán)重。特征t與第i類的互信息計(jì)算公式如下(兩個(gè)公式等價(jià)):
其中:tk表示任意特征項(xiàng) (特征詞);ci表示任意類別;g為訓(xùn)練集中所有文本數(shù);P(tk,ci)為tk和ci同時(shí)出現(xiàn)的概率(即對(duì)于任意一篇文章X,含有特征項(xiàng)tk且文章X屬于類別 ci的概率);P(tk)為文章中出現(xiàn)特征項(xiàng) tk的概率;P(ci)為文章屬于類別ci的概率,類似地不難理解
(3)聯(lián)合特征提取方法
雖然X2統(tǒng)計(jì)量法是目前常用的特征提取方法之一,但該方法仍存在一些缺點(diǎn),如它提高了在指定類中出現(xiàn)少而在其他類中出現(xiàn)較高的特征的權(quán)重以及降低了低頻詞的權(quán)重等。根據(jù)公式(3)~(5),對(duì)于指定類中出現(xiàn)頻率低而其他類中出現(xiàn)頻率高的詞語,當(dāng)P(t,ci)→0,而 P(t)和 P(ci)均不趨向于零,則 P(t,ci)/(P(t)P(ci))→0,于是I(t,c)將趨向于負(fù)無窮,故這些詞語會(huì)被過濾掉。根據(jù)式(6),對(duì)于有相同 logPr(t|c)的詞語來說,低頻詞的權(quán)重將更高,即在多類中普遍出現(xiàn)的高頻詞的權(quán)重將比只在特定類中出現(xiàn)的低頻詞的權(quán)重低。這樣就很好地解決了上述問題,所以本文提出一種聯(lián)合特征提取的方法,該方法綜合了X2統(tǒng)計(jì)量法和互信息量法,可以獲得較好的結(jié)果。該方法可以描述為:
其中E1(t,c)是使用X2統(tǒng)計(jì)量法得到的特征權(quán)重;E2(t,c)為使用互信息量法得到的特征權(quán)重。
向量的歸一化是對(duì)輸入向量進(jìn)行預(yù)處理的第一步。其目的是把所有不同長短和方向的向量變成方向不變、長度為1的單位向量。設(shè):
在網(wǎng)絡(luò)訓(xùn)練過程開始時(shí),定義獲勝節(jié)點(diǎn)的鄰域節(jié)點(diǎn)是為了能使二維輸出平面上相鄰輸出節(jié)點(diǎn)對(duì)相近的輸入模式類做出特別反應(yīng)。假設(shè)本次獲勝節(jié)點(diǎn)為Nj,它在t時(shí)刻的鄰域節(jié)點(diǎn)用 NEj表示,NEj(t)是包含以 Nj中心而距離不超過某一半徑的所有節(jié)點(diǎn)。隨著訓(xùn)練過程的進(jìn)行,NEj(t)的半徑逐漸減小,最后只包含獲勝節(jié)點(diǎn) Nj本身,也就是說在訓(xùn)練的起始階段不僅對(duì)獲勝節(jié)點(diǎn)做權(quán)值調(diào)整,而且也對(duì)其較大范圍內(nèi)的幾何鄰節(jié)點(diǎn)做相應(yīng)的調(diào)整,隨著訓(xùn)練過程的繼續(xù)進(jìn)行,與輸出節(jié)點(diǎn)相連的權(quán)向量也越來越接近其代表的模式類。這時(shí),在對(duì)獲勝節(jié)點(diǎn)的權(quán)值進(jìn)行比較細(xì)微的調(diào)整時(shí),只對(duì)其幾何鄰節(jié)點(diǎn)比較近的節(jié)點(diǎn)進(jìn)行相應(yīng)的調(diào)整,直到最后只對(duì)獲勝節(jié)點(diǎn)本身做細(xì)微的調(diào)整。在訓(xùn)練過程結(jié)束后,幾何上相近的輸出節(jié)點(diǎn)所連接的權(quán)向量既有聯(lián)系又有區(qū)別,這樣,保證了對(duì)某一類輸入模式獲勝節(jié)點(diǎn)能夠做出最大“響應(yīng)”,而相鄰節(jié)點(diǎn)做出“較大”響應(yīng)。幾何上相鄰節(jié)點(diǎn)代表特征上相近的模式類別。
自組織特征映射學(xué)習(xí)過程包括描述最佳匹配神經(jīng)元的選擇和描述權(quán)矢量的自適應(yīng)變化過程兩部分。SOM輸出層通常由兩維m×m的網(wǎng)格節(jié)點(diǎn)組成,從輸入向量到網(wǎng)絡(luò)輸出層的每個(gè)節(jié)點(diǎn)j的權(quán)值向量定義為w,w和xi的維數(shù)是相同的,設(shè)為d,影射節(jié)點(diǎn)的數(shù)量從數(shù)十個(gè)到數(shù)千個(gè)決定SOM正確性和概化能力。
其算法步聚如下:
網(wǎng)絡(luò)安全與數(shù)據(jù)管理2011年12期