〔摘 要〕通過仿真實(shí)驗(yàn)得出,運(yùn)用簡(jiǎn)約HJ神經(jīng)網(wǎng)絡(luò)原理可以從我們所收集查找到的信息中分離出和讀者需求信息最接近的信息,這樣可以大大降低我們個(gè)性化信息推薦的盲目性和低效性,從而更進(jìn)一步提升我們圖書館的個(gè)性化信息服務(wù)質(zhì)量。
〔關(guān)鍵詞〕簡(jiǎn)約HJ神經(jīng)網(wǎng)絡(luò);個(gè)性化服務(wù);信息分離;信息推薦
〔中圖分類號(hào)〕G250.73 〔文獻(xiàn)標(biāo)識(shí)碼〕C 〔文章編號(hào)〕1008-0821(2009)02-0057-03
The Application of Reduced HJ Neural Network in
Library Personalized Information RecommendationFeng Lei Zhang Yuguang Tang Li
(Library,Shanghai Institute of Technology,Shanghai 200235,China)
〔Abstract〕Through the simulation experiments,using reduced HJ neural network can separate the closet information to the readers requirements,thus the blindness and low effectiveness could be greatly reduced and the quality of personalized information service could be further promoted.
〔Key words〕reduced HJ neural network;personalized service;information separation;information recommendation
個(gè)性化信息推薦的目標(biāo)是為讀者提供滿足其個(gè)性化需求的服務(wù),在個(gè)性化信息推薦中重要的環(huán)節(jié)就是從我們所找到的千萬(wàn)條信息中提煉出滿足讀者個(gè)性需求的信息推薦給讀者。目前推薦系統(tǒng)存在的普遍問題是推薦的盲目性和低效性,產(chǎn)生這問題的主要原因就是我們不能在我們找到的信息中準(zhǔn)確的分離出最貼近讀者個(gè)性需求的信息推薦給讀者。
1 簡(jiǎn)約HJ神經(jīng)網(wǎng)絡(luò)
自1986年Herarlt和Jutten提出了以他們名字命名的神經(jīng)網(wǎng)絡(luò)(HJ)方法后,近年來在各行業(yè)已有許多應(yīng)用[1]。簡(jiǎn)約HJ神經(jīng)網(wǎng)絡(luò)運(yùn)用于滿足讀者個(gè)性需求信息分離,即可有效地去除我們所采集的無(wú)用信息,提高推薦的準(zhǔn)確性。這對(duì)圖書館個(gè)性化信息服務(wù)產(chǎn)生了深刻的影響,對(duì)提高圖書館個(gè)性化信息服務(wù)水平起到了強(qiáng)大的推動(dòng)作用,這是一種新型的多信息分離方法。如圖1所示。
圖1 簡(jiǎn)約HJ神經(jīng)網(wǎng)絡(luò)
1.1 簡(jiǎn)約HJ神經(jīng)網(wǎng)絡(luò)原理
假設(shè)有零均值隨機(jī)信息S1(t),S2(t) t∈T
設(shè)傳輸通道是線性,可測(cè)信息為m1(t),m2(t),如圖2所示。有
m1(t)
m2(t)=a11a12
a21a22S1(t)
S2(t)(1)
且a11a22-a12a21≠0[2]
圖2 簡(jiǎn)約HJ神經(jīng)網(wǎng)絡(luò)1.2 簡(jiǎn)約HJ神經(jīng)網(wǎng)絡(luò)的信息分離的算法設(shè)計(jì)
y13(t)y2(t)=0,y23(t)y1(t)=0,(2)
信息m1(t),m2(t)是可分離的[3]。
其中式(2)滿足圖2的結(jié)構(gòu)
易知:
y1(t)
y2(t)=11-D12D211-D12
-D211m1(t)
m2(t)
∴y1(t)
y2(t)=11-D12D211D12
D211a11a12
a21a22S1(t)
S2(t)(3)
y1(t)
y2(t)=D10
0D2S1(t)
S2(t)
根據(jù)(2)構(gòu)造神經(jīng)網(wǎng)絡(luò),有
dD12dt=μy13(t)y2(t)
dD21dt=μy23(t)y1(t)(4)
可推得:
dD12dt=μy13(t)y2(t)
dD21dt=μy23(t)y1(t)(5)
當(dāng)系統(tǒng)(5)達(dá)到穩(wěn)態(tài),其輸出即為分離系數(shù)D12,D21
此時(shí)的輸出為y1=a11S1,y2=a22S2由此即達(dá)到了信息分離的目的[4]。
2009年2月第29卷第2期現(xiàn)?代?情?報(bào)Journal of Modern InformationFeb.2009Vol.29 No.2
2009年2月第29卷第2期簡(jiǎn)約HJ神經(jīng)網(wǎng)絡(luò)在圖書館個(gè)性化信息推薦中的應(yīng)用Feb.2009Vol.29 No.2
2 簡(jiǎn)約HJ神經(jīng)網(wǎng)絡(luò)信息分離的程序設(shè)計(jì)與仿真
在個(gè)性化信息推薦中,我們通過和讀者的溝通,了解到讀者的個(gè)性化信息需求,根據(jù)讀者需求我們查找到了與其需求信息相關(guān)所有資料,在這些資料中要提煉出與其需求最接近的信息推薦給讀者,這樣才能給讀者帶來使用的方便和推薦信息的準(zhǔn)確性,避免信息過載和迷航[5]。我們假設(shè)讀者所需信息為源信息Y1,我們按照讀者需求查找到的總的混合信息設(shè)定為Y2,通過簡(jiǎn)約HJ神經(jīng)網(wǎng)絡(luò)運(yùn)算把Y1從Y2中分離出來。
2.1 信息分離的程序設(shè)計(jì)步驟
2.1.1 初始化的步驟
第1步,確定輸入源信息Y1和Y2數(shù)組長(zhǎng)度大小
第2步,設(shè)置數(shù)組值全為0
第3步,設(shè)置3種不同收斂因子的變化算法
(1)收斂因子的以變小固定值來計(jì)算
(2)第2種收斂因子的初始值為0.02
(3)第3種收斂因子的初始值為3
2.1.2 確定混疊信息的算法
第1步,取輸入源信息的最大值和最小值
第2步,確定輸入傳遞函數(shù)矩陣A=10.3
0.30.5計(jì)算混疊信息s1
s2=10.3
0.30.5y1
y2
第3步,設(shè)置計(jì)算步長(zhǎng)為h=0.01
2.1.3 信息分離算法的步驟
第1步,若flag=1 即收斂因子為固定值
則i=floor(k*8/hsize)+1
確定收斂因?yàn)樵诘械娜≈怠?/p>
第2步,若flag=0 即收斂因子為變值,其算法為
muu(k+1)=muu(k)+h*(0.02-muu(k))/TD
Mu=0.02-muu(k)+0.0005
第3步,若flag=0 即收斂因子為變值,其算法為
muu(k+1)=muu(k)+h*(3-muu(k))/TD
Mu=3-muu(k)+0.1
第4步,計(jì)算迭代公式
daa(1)dt=μ(s1-aa(1)s2)3(s2-aa(2)s1)
daa(2)dt=μ(s2-aa(2)s1)3(s1-aa(1)s2)
第5步,計(jì)算aa(1)=11-D12D211-D12
D211
再計(jì)算D11D12
D21D22=aa(1)a11a12
a21a22
2.2 信息分離程序設(shè)計(jì)的仿真
把程序加載到MATLAB中并運(yùn)行,經(jīng)過反復(fù)調(diào)試之后,得到如下的仿真結(jié)果
定義t=0:pi/100:3*pi;
y1=sin(t);
y2=sign(sin(10*t));
hdsep(y1,y2,t,flag) 其中flag可取1,2,3
定義兩個(gè)輸入分別為一列正弦波是讀者所需求的信息和一列方波是我們收集到的混合信息,在算法中假設(shè)輸入波形是未知的,我們看到的是兩列波的混合波形,通過神經(jīng)網(wǎng)絡(luò)的計(jì)算,還原得到跟輸入近似的波形。
圖3是我們輸入的正弦波與方波,分別為y1=sin(t)與y2=sign(sin(10*t)),我們能觀測(cè)到的是兩列波形的混合波形,通過簡(jiǎn)約HJ神經(jīng)網(wǎng)絡(luò)把混合信息分離得到原來未知的輸入波形。
圖3 輸入波形圖4即為我們可以觀察到的混合波形,我們要把讀者所需信息從混合信息中分離出來,這樣才能達(dá)到準(zhǔn)確的個(gè)性化信息推薦。
圖4 混合波形
可以看到圖5中的兩列波形近似與正弦波與方波,就是我們輸入的y1=sin(t);y2=sign(sin(10*t));從圖形中可以看到,正弦波上稍有一些混合信息的疊加,但是總體的效果跟輸入的波形已經(jīng)基本相似。因此認(rèn)為我們通過混合信息的分離,把最接近讀者需求的信息提煉了出來,大大提高了個(gè)性化信息推薦的準(zhǔn)確性,給讀者帶來了極大的方便。
圖5 分離結(jié)果
3 結(jié) 論
用簡(jiǎn)約HJ神經(jīng)網(wǎng)絡(luò)對(duì)所收集到的混合信息進(jìn)行的分離,從仿真結(jié)果來看分離的結(jié)果是比較理想的。一般的數(shù)值計(jì)算中,對(duì)S-y的傳輸矩陣中的非對(duì)角元素不為零,但為一個(gè)較小的數(shù)目。工程上,一般可約定,當(dāng)混合信息的幅值比為1000∶1,則可認(rèn)定信息已被分離[6]。仿真過程也證明了該分離方法是有效的。在信息社會(huì)中,個(gè)性化信息服務(wù)只有做到更細(xì)致更準(zhǔn)確,才會(huì)真正使讀者滿意,圖書館的服務(wù)才能真正體現(xiàn)出以人為本的服務(wù)宗旨。
參考文獻(xiàn)
[1]J.Herault and C.Jutten,“Space or time adaptive signal processing byneuralnetwork models”,Neural Network for computing[M].Snowbird,1986.
[2]Kalman,R,Eand Bucy,R.S”New Results in Linear Filtering and Prediction Theory Trans[M].Asme,Ser.D.J.BasicEng.,1961:95-107.
[3]袁曾任.人工神經(jīng)元網(wǎng)絡(luò)及其應(yīng)用[M].北京:清華大學(xué)出版社,1996.
[4]胡守仁,余少波,等.神經(jīng)網(wǎng)絡(luò)導(dǎo)論[M].北京:國(guó)防大學(xué)出版社,1993.
[5]馬文峰,高風(fēng)榮.論數(shù)字圖書館個(gè)性化信息推薦系統(tǒng)[J].現(xiàn)代圖書情報(bào)技術(shù),2003,(2):16-18.
[6]虞曉,胡光銳.基于統(tǒng)計(jì)估計(jì)的盲信號(hào)分離算法[J].上海交通大學(xué)學(xué)報(bào),1999,33(5):566-569.