鄧 麗, 余隋懷,陳 波
(1. 西南石油大學(xué) 石油天然氣裝備教育部重點實驗室, 四川 成都 6105002. 西北工業(yè)大學(xué) 工業(yè)設(shè)計研究所, 陜西 西安 710072)
?
基于Vague集的人機界面布局眼動追蹤評價
鄧麗1,2, 余隋懷2,陳波1
(1. 西南石油大學(xué) 石油天然氣裝備教育部重點實驗室, 四川 成都 6105002. 西北工業(yè)大學(xué) 工業(yè)設(shè)計研究所, 陜西 西安 710072)
為了實現(xiàn)準(zhǔn)確客觀的人機界面布局評價,提出了一種基于Vague集的人機界面布局眼動追蹤評價方法.首先,以注視軌跡、注視點數(shù)量、注視時間和瞳孔直徑四項參數(shù)構(gòu)建了人機界面布局評價指標(biāo)體系.然后,一方面將定性指標(biāo)通過不確定語言評價形式轉(zhuǎn)化為Vague數(shù);另一方面基于優(yōu)屬度矩陣求出各布局方案的支持、反對、中立指標(biāo)集,將定量指標(biāo)表示為Vague數(shù),共同構(gòu)建了Vague集評價矩陣.最后,提出基于Vague數(shù)距離和優(yōu)劣點法的評價方法,對人機界面布局方案進行了排序.以石油鉆機司鉆控制臺人機界面布局方案評價為例,驗證了該方法的實用性和有效性.
眼動追蹤; Vague集; 人機界面布局; 評價
人通過五官獲取外界信息,其中視線具有自然性、直接性和雙向性等特點,因此大約有80%的信息是通過眼睛獲得的.人機界面是人與機器互相傳遞信息的媒介,它的布局設(shè)計直接關(guān)系到人機關(guān)系的合理性與人機交互的效率.傳統(tǒng)的人機界面布局評價通常通過問卷調(diào)查、用戶訪談、觀察、專家評估等手段,這些方法大多通過調(diào)查對象的主觀回憶來重構(gòu)人機交互的思維活動,受經(jīng)驗、文化、背景、偏好、認(rèn)知差異等個體因素影響,在調(diào)查結(jié)果的客觀性方面存在一定的缺陷.眼動追蹤技術(shù)可以在人機交互的過程中檢測到人的實時眼球運動,不僅采樣精確,而且不會對被試者行為產(chǎn)生干擾.通過跟蹤被試者在觀察人機界面時的視線運動軌跡等指標(biāo),為評價人機界面布局提供客觀的、可量化的交互進行中的數(shù)據(jù).
視覺的注視與大腦的認(rèn)知活動密切相關(guān)[1].眼動追蹤技術(shù)早期應(yīng)用于視覺行為與認(rèn)知活動的心理學(xué)領(lǐng)域,研究認(rèn)知加工的心理機制[2].目前應(yīng)用越來越廣泛,涉及網(wǎng)頁測試、廣告評估、人機交互研究、產(chǎn)品可用性評估等多個領(lǐng)域[3].劉青等[4]采用眼動跟蹤技術(shù)評估了輕軌站臺界面可用性.李珍等[5]通過眼動追蹤獲取產(chǎn)品用戶需求.戚彬等[6]將眼動追蹤技術(shù)運用于產(chǎn)品形態(tài)仿生設(shè)計.Manhartsberger和Zellhofer[7]提出將眼動追蹤技術(shù)用于可用性測試,尤其是對于商業(yè)廣告,掃視路徑和熱點圖等可以直觀獲取用戶感興趣的區(qū)域.pakov和Miniotas[8]研究了通過熱點圖實現(xiàn)眼動追蹤數(shù)據(jù)可視化的方法.Wooding[9]提出了三維熱點圖的繪制方法.Goldberg和Kotval[10]通過眼動追蹤實驗評價了預(yù)先設(shè)計的優(yōu)劣兩種人機界面,比較了眼睛運動位置、掃視路徑、注視時間等參數(shù),結(jié)果表明優(yōu)秀的界面設(shè)計可提高搜索效率.可見,眼動追蹤實驗會產(chǎn)生大量的眼動數(shù)據(jù),如注視時間、注視頻率等單項指標(biāo)的統(tǒng)計分析結(jié)果;或者將眼動數(shù)據(jù)以可視化的方式直觀呈現(xiàn),如眼動軌跡圖、熱點圖等輔助評價布局方案.因此,人機界面布局的眼動評價指標(biāo)具有定量和定性的混合特性,而且部分指標(biāo)具有模糊性和不確定性.
由于眼動追蹤實驗不能得出綜合評價結(jié)果,因此,本文借鑒求解多屬性決策問題的方法,基于Vague集理論,提出一種人機界面布局眼動追蹤評價的新方法.Vague集同時考慮了隸屬度、非隸屬度和猶豫度三方面信息[11],符合人的思維特性,能充分表達(dá)評價者的決策意圖.分析眼動信息,提取注視軌跡、注視點數(shù)量、注視時間和瞳孔直徑四項眼動指標(biāo)構(gòu)建人機界面布局評價指標(biāo)體系.通過Vague集分別表征定性和定量指標(biāo),建立Vague集決策矩陣.基于多屬性決策理論中的優(yōu)劣點法,根據(jù)各人機界面布局方案定性與定量指標(biāo)值到最優(yōu)點和最劣點的距離對其進行排序.最后,以石油鉆機司鉆控制臺人機界面布局設(shè)計方案的眼動追蹤評價為例證明了所提方法的有效性,該方法能為人機界面布局評價提供可靠的數(shù)據(jù)支持,避免主觀因素對評價的影響.
對于Vague集V,當(dāng)U是連續(xù)的時候,記作
(1)
當(dāng)U是離散的時候,記作
(2)
眼動的基本形式有注視、眼跳和追隨運動三種[13].這3種眼睛運動形式都是為了將要注意的刺激物成像于中央?yún)^(qū)域,以便形成清晰的圖像,眼動的最終目的在于選擇信息.眼動追蹤是指通過眼動追蹤監(jiān)視器記錄眼睛的運動和在可視點上最活躍的區(qū)域,通過度量凝視點或者測量眼球運動過程實現(xiàn)對眼球運動的追蹤.
通過測量眼睛注視點的位置,眼動追蹤實驗會產(chǎn)生大量的數(shù)據(jù),主要有注視點、注視點數(shù)量、注視時間、注視次數(shù)、瞳孔直徑、眼跳時間、眨眼時間、眨眼次數(shù)、眨眼頻率等,這些數(shù)據(jù)有各自的適用范圍.在觀察人機界面時,眼動的目的在于捕捉和加工視覺信息.因此,選擇注視軌跡、注視點數(shù)量、注視時間和瞳孔直徑四項指標(biāo)進行分析.
1)注視軌跡.
被試者在實驗設(shè)定的時間內(nèi)觀察人機界面圖片,記錄注視點位置、注視停留時間和位置移動順序,按順序描繪注視點形成視線軌跡.注視軌跡反映了被試者的注視點在人機界面興趣區(qū)之間的轉(zhuǎn)換,如果注視點形成的路徑與人的視覺邏輯一致,說明人機界面布局合理.
2)注視點數(shù)量.
人機界面某個區(qū)域的注視點數(shù)量反映了被試者對該區(qū)域的關(guān)注程度.在一定的任務(wù)時間內(nèi),注視點越多,表明被試者需要花費越多的注意力與精力搜索人機界面信息.注視點數(shù)量與搜索效率成反比,如果注視點數(shù)量越多,則搜索效率越低,說明人機界面布局不合理.
3)注視時間.
注視時間反映了被試者從人機界面提取信息的難度.如果被試者對人機界面某個區(qū)域的凝視時間越長,說明對該區(qū)域的信息獲取困難,信息提取的效率越低,同時間接說明人機界面布局不甚合理.
4)瞳孔直徑.
瞳孔直徑是感知視覺負(fù)荷變化的敏感指標(biāo),反映了被試者的腦力負(fù)荷與心理狀態(tài).隨著人機界面信息量的增大或被試者緊張程度的提高,瞳孔擴大;當(dāng)任務(wù)難度增加或被試者到達(dá)一定疲勞程度之后,瞳孔縮小.瞳孔直徑大小與人機界面反映的信息量成正比.
基于以上分析,設(shè)有m個待評價的人機界面布局方案,記為集合H={H1,H2,…,Hm},有n個眼動評價指標(biāo),記為集合P={P1,P2,…,Pn},每個方案在每個評價指標(biāo)下的評價值記為aij(i=1,2,…,m;j=1,2,…,n),建立如下評價矩陣:
(3)
式中aij是不確定語言或者精確數(shù)值.
3.1定性指標(biāo)的Vague值表示
“注視軌跡”指標(biāo)通過視覺軌跡與視覺邏輯的匹配情況反映布局的優(yōu)劣,評價者對該項指標(biāo)只能定性評價,用模糊性語言“較好”、“較差”等描述,這些模糊語言需要轉(zhuǎn)換為具體的數(shù)據(jù)進行評價對比.Vague集不僅能將不確定性的評價語言轉(zhuǎn)化為模糊數(shù),而且還能有效處理評價者的猶豫度.
評價者采用“不確定語言(猶豫度)”的形式評價人機界面布局[14],即Lij(πij),其中,Lij(0≤Lij≤1)表示不確定語言標(biāo)度值,πij(0≤πij≤1)表示評價者對評價結(jié)果的猶豫度.預(yù)先定義不確定語言為5級標(biāo)度:{0.9(很好),0.7(好),0.5(一般),0.3(差),0.1(很差)}.通過式(4)將不確定語言信息轉(zhuǎn)化為Vague數(shù),具體如表1所示.
vij=[tij,1-fij]=[Lij-απij,Lij+βπij],
(4)
式中,α和β表示猶豫度水平,α≥0,β≥0,α+β=1.
例如,VG(0.1)表示評價者根據(jù)“注視軌跡”對于人機界面布局的評價為非常好,猶豫度為0.1,根據(jù)表1可得到對應(yīng)的Vague數(shù)[0.9-1×0.1,0.9+0×0.1]=[0.8,0.9].
表1不確定語言及對應(yīng)的Vague數(shù)
Table 1The uncertainty language and the corresponding Vague values
不確定語言Vague數(shù)α,β的值很好(VG)0.9-α×π,0.9+β×πα=1,β=0好(G)0.7-α×π,0.7+β×πα=0.5,β=0.5一般(M)0.5-α×π,0.5+β×πα=0.5,β=0.5差(P)0.3-α×π,0.3+β×πα=0.5,β=0.5很差(VP)0.1-α×π,0.1+β×πα=0,β=1
3.2定量指標(biāo)的Vague值表示
“注視點數(shù)量”、“注視時間”與“瞳孔直徑”三項定量指標(biāo)由眼動儀配套軟件統(tǒng)計分析后以實數(shù)的形式給出.這些數(shù)據(jù)需要進行規(guī)范化處理,利用優(yōu)屬度計算方法將其轉(zhuǎn)化為在[0,1]中的Vague值形式[15].
對于“注視點數(shù)量”與“注視時間”成本型(越小越好)的評價指標(biāo),其相對優(yōu)屬度表示為
(5)
對于“瞳孔直徑”效益型(越大越好)的評價指標(biāo),其相對優(yōu)屬度表示為
γij=aij/ajmax.
(6)
通過式(5)和式(6)將評價矩陣A轉(zhuǎn)換為目標(biāo)優(yōu)屬矩陣γ=[γij]m×n.
然后,確定評價者能夠接受的滿意度的下界λU和能夠接受的不滿意度的上界λL,根據(jù)矩陣γ分別求出各人機界面布局方案的支持指標(biāo)集S、反對指標(biāo)集O和中立指標(biāo)集N.
(7)
3.3構(gòu)建Vague集評價矩陣
評價指標(biāo)由定性指標(biāo)和定量指標(biāo)組成,記為C={C1,C2},Vague集評價矩陣表示為
(8)
式中,tij表示布局方案滿足評價指標(biāo)的程度,fij表示布局方案不滿足評價指標(biāo)的程度.
3.4基于TOPSIS法的眼動追蹤評價
各評價指標(biāo)用Vague集表示,包含了肯定、否定和猶豫的信息,符合評價者的思維習(xí)慣,通過客觀描述來處理人機界面布局評價中的不確定信息.基于TOPSIS法的眼動追蹤評價思路是:先選定一個正理想值和負(fù)理想值,然后計算每個布局方案到理想方案的接近度[16].接近度值越大,對應(yīng)的布局方案越好.
對一組Vague數(shù)X(i=1,2,…,m),確定正理想值X+和負(fù)理想值X-:
(9)
(10)
(11)
計算每個布局方案定性與定量指標(biāo)值到理想值的相對貼近指數(shù):
(12)
根據(jù)優(yōu)劣點法的思想,若Xi越接近X+并遠(yuǎn)離X-,則說明其隸屬度越大而非隸屬度越小,即:μi值越大,說明人機界面布局方案i越好.據(jù)此可對人機界面布局方案進行優(yōu)劣排序.
以石油鉆機司鉆控制臺人機界面布局方案評價為例,進行眼動分析實驗.實驗設(shè)備采用美國應(yīng)用科學(xué)實驗室(AppliedScienceLaboratory,ASL)開發(fā)的頭盔式眼動儀,如圖1所示.ASL眼動追蹤系統(tǒng)跟蹤頻率為60Hz,系統(tǒng)采用亮/暗瞳孔技術(shù),通過紅外線對受試瞳孔位置進行追蹤確定其空間位置,并與呈現(xiàn)的圖片或視頻進行疊加,確定受試者的注視區(qū)域與時間.
圖1 ASL EYE-TRAC 6眼動儀Fig.1 ASL EYE-TRAC 6 eye tracker
4.1眼動實驗數(shù)據(jù)采集
實驗的被試者是工業(yè)設(shè)計在校研究生,參與測試的總?cè)藬?shù)為10人,男女比例為1∶1,視力和色覺均正常.首先,被試者聽取主試者對實驗的說明,了解實驗要求和目的.其次,將被試者下巴放在托架上,佩戴頭盔,識別瞳孔,調(diào)節(jié)瞳孔位于監(jiān)視器中心,并將頭盔固定.然后,在正式實驗開始前,進行眼動實驗校準(zhǔn)測試.最后,打開實驗樣本,開始正式實驗.
E-prime程序控制實驗中樣本圖片播放時間和間隔時間,ASLEYE-TRAC6眼動儀采集被試者觀察人機界面布局圖片時的注視點運動,ASLRESULTS軟件分析得出被試者注視點運動軌跡、注視時間等參數(shù).實驗記錄了被試者觀察5個布局方案的過程(見圖2),跟蹤眼球運動得到了如表2所示的實驗數(shù)據(jù).此外,以方案2為例,根據(jù)這些數(shù)據(jù)繪制出如圖3所示的眼動圖像,能夠清晰直觀地反映被試者的興趣所在.圖中圓點代表被試者視線停留時間,視線停留表明被試者正在獲取信息,圓點半徑大小代表注視時間長短,直線代表注視點轉(zhuǎn)移路徑.
圖2 人機界面布局方案Fig.2 The layout scheme of human-machine interface
Xi方案注視軌跡注視點數(shù)量1)/個注視時間/s瞳孔直徑/像素X11M(0.2)33.8007.79169.835X22VG(0.2)28.6007.12673.596X33VG(0.1)32.7007.79077.310X44G(0.3)31.2008.52578.430X55M(0.1)35.5008.59277.511
注:1)注視點數(shù)量為所有被試者注視點數(shù)量的均值.
圖3 注視軌跡圖Fig.3 The scan path duration and length
4.2實驗數(shù)據(jù)分析
1)根據(jù)注視軌跡圖,使用不確定語言值評價“注視軌跡”指標(biāo),評價結(jié)果見表2.然后根據(jù)式(4)將不確定語言值轉(zhuǎn)化表示為Vague數(shù).
v1=(C1,[0.40,0.60]),
v2=(C1,[0.70,0.90]),
v3=(C1,[0.80,0.90]),
v4=(C1,[0.55,0.85]),
v5=(C1,[0.45,0.55]).
2)根據(jù)式(5)和式(6)將“注視點數(shù)量”、“注視時間”與“瞳孔直徑”三項定量指標(biāo)數(shù)據(jù)轉(zhuǎn)化為目標(biāo)優(yōu)屬矩陣,
確定滿意度下界λU=0.9和不滿意度上界λL=0.85,找出各布局方案的支持指標(biāo)集、反對指標(biāo)集和中立指標(biāo)集.
S5={a3},O5={a1,a2},N5=φ.
確定3個指標(biāo)權(quán)重ω={0,4,0.4,0.2},從而根據(jù)式(7)計算出5個方案的Vague估計值.
v1=(C2,[0.415,0.617]),
v2=(C2,[1.000,1.000]),
v3=(C2,[0.617,1.000]),
v4=(C2,[0.629,0.629]),
v5=(C2,[0.232,0.232]).
3)構(gòu)建Vague集評價矩陣.
4)確定方案集的正理想值X+和負(fù)理想值X-.
X+={(C1,[0.80,0.90]),(C2,[1.000,1.000])},
X-={(C1,[0.40,0.55]),(C2,[0.232,0.232])}.
6)根據(jù)式(12)計算每個布局方案中Xi到理想值的接近度.
μ1=0.308,μ2=0.954,μ3=0.760,μ4=0.530,μ5=0.023.
根據(jù)貼近度值大小排序,即可得到人機界面布局方案優(yōu)劣排序:X2>X3>X4>X1>X5.因此說明綜合考慮4項指標(biāo),方案2符合人的視覺習(xí)慣且觀察效率較高,是最優(yōu)的布局方案,后續(xù)詳細(xì)設(shè)計應(yīng)以方案2的布局形式作為參考依據(jù).
信息加工在很大程度上依賴于視覺.本文通過眼動追蹤實驗測量與統(tǒng)計被試者觀察實驗樣本時的眼動特征,構(gòu)建了眼動追蹤評價指標(biāo)體系,以注視時間、視覺軌跡等反映視覺搜索效率的眼動數(shù)據(jù)評價人機界面布局優(yōu)劣.針對評價指標(biāo)的模糊性與不確定性,為了進一步量化眼動數(shù)據(jù),本文利用Vague集表達(dá)模糊信息的優(yōu)勢,結(jié)合多屬性決策的思想,提出了基于Vague集TOPSIS法的人機界面布局眼動追蹤評價方法,可為每一個布局方案給出一個綜合評價值,為方案評價提供客觀、可靠的數(shù)據(jù)支撐.算例表明本文方法考慮了評價者的主觀性與猶豫度,在人機界面布局評價中有較強的實用性,能有效避免主觀評價偏差.在實際應(yīng)用中,可根據(jù)不同評價對象,提取不同的眼動評價指標(biāo),運用本文所提方法計算出綜合評價值.
[1] 程時偉,孫凌云.眼動數(shù)據(jù)可視化綜述[J].計算機輔助設(shè)計與圖形學(xué)學(xué)報,2014,26(5):698-707.
CHENGShi-wei,SUNLing-yun.Asurveyonvisualizationforeyetrackingdata[J].JournalofComputer-AidedDesign&ComputerGraphics,2014,26(5):698-707.
[2]HYRSKYKARIA.Utilizingeyemovements:overcominginaccuracywhiletrackingthefocusofattentionduringreading[J].ComputersinHumanBehavior,2006,22(4):657-671.
[3] 曾宇靜,張彤,陳宜.視線追蹤技術(shù)在網(wǎng)頁可用性評估中的應(yīng)用[J].人類工效學(xué),2012,18(3):83-86.
ZENGYu-jing,ZHANGTong,CHENYi.Theapplicationofeye-trackingtechnologyinwebusabilityevaluation[J].ChineseJournalofErgonomics,2012,18(3):83-86.
[4] 劉青,薛澄岐,HOEHNF.基于眼動跟蹤技術(shù)的界面可用性評估[J].東南大學(xué)學(xué)報(自然科學(xué)版),2010,40(2):331-334.
LIUQing,XUECheng-qi,HOEHNF.Interfaceusabilityevaluationbasedoneye-trackingtechnology[J].JournalofSoutheastUniversity(NaturalScienceEdition),2010,40(2):331-334.
[5] 李珍,茍秉宸,初建杰,等.一種基于眼動追蹤的產(chǎn)品用戶需求獲取方法[J].計算機工程與應(yīng)用,2015,51(9):233-237.
LIZhen,GOUBing-chen,CHUJian-jie,etal.Wayofgettinguserrequirementsbasedoneyetrackingtechnology[J].ComputerEngineeringandApplications,2015,51(9):233-237.
[6] 戚彬,余隋懷,王淼,等.基于眼動跟蹤實驗的產(chǎn)品形態(tài)仿生設(shè)計研究[J].機械設(shè)計,2014,31(6):125-128.
QIBin,YUSui-huai,WANGMiao,etal.Studyonproductformbionicdesignbasedoneyetrackingexperiment[J].JournalofMachineDesign,2014,31(6):125-128.
[7]MANHARTSBERGERM,ZELLHOFERN.Eyetrackinginusabilityresearch:whatusersreallysee[J].UsabilitySymposium,2005,198:141-152.
[9]WOODINGDS.Fixationmaps:quantifyingeye-movementtraces[C]//ProceedingsoftheSymposiumonEyeTrackingResearchandApplications.NewYork,March25-27,2002:31-36.
[10]GOLDBERGJH,KOTVALXP.Computerinterfaceevaluationusingeyemovements:methodsandconstructs[J].InternationalJournalofIndustrialErgonomics,1999,24(6):631-645.
[11]CHENSM,TANJM.Handlingmulti-criteriafuzzydecisionmakingproblemsbasedonvaguesettheory[J].FuzzySetandSystems,1994,67(2):163-172.
[12]GAUW,BUEHRERD.Vaguesets[J].IEEETransactionsonSystemsManAndCybernetics,1993,23(2):610-614.
[13] 趙新燦,左洪福,任勇軍.眼動儀與視線跟蹤技術(shù)綜述[J].計算機工程與應(yīng)用,2006(12):118-120.
ZHAOXin-can,ZUOHong-fu,RENYong-jun.Areviewofeyetrackerandeyetrackingtechniques[J].ComputerEngineeringandApplications,2006(12):118-120.
[14]GENGXL,CHUXN,ZHANGZF.AnewintegrateddesignconceptevaluationapproachbasedonVaguesets[J].ExpertSystemswithApplications,2010,37(9):6629-6638.
[15] 王玨,劉三陽,張杰.基于Vague集的模糊多目標(biāo)決策方法[J].系統(tǒng)工程理論與實踐,2005(2):119-122.WANGJue,LIUSan-yang,ZHANGJie.FuzzymultipleobjectivesdecisionmakingbasedonVaguesets[J].SystemsEngineering—theory&Practice,2005(2):119-122.
[16] 耿濤,盧廣山,張安.基于Vague集的空中目標(biāo)威脅評估群決策方法[J].系統(tǒng)工程與電子技術(shù),2011,33(12):2686-2690.
GENGTao,LUGuang-shan,ZHANGAn.Groupdecision-makingmethodforairtargetthreatassessmentbasedonVaguesets[J].SystemsEngineeringandElectronics,2011,33(12):2686-2690.
Eye tracking evaluation of human-machine interface layout based on Vague set
DENG Li1,2, YU Sui-huai2, CHEN Bo1
(1. Key Laboratory of Oil and Gas Equipment, Ministry of Education, Southwest Petroleum University, Chengdu 610500, China;2. Institute of Industrial Design, Northwestern Polytechnical University, Xi′an 710072, China)
In order to realize accurate and objective evaluation of human-machine interface layout, an eye tracking evaluation method of human-machine interface layout based on Vague sets was proposed. First of all, four parameters including track, point of fixation, fixation time, and pupil diameter were taken to build the evaluation index system of human-machine interface layout. Then, on the one hand, the qualitative indexes were transformed into Vague values by uncertain linguistic evaluation form; on the other hand, based on the optimal matrix to obtain the support, oppose and neutral index sets of the layout schemes, the quantitative index would be expressed as Vague values, the Vague set evaluation matrix was built. Finally, the evaluation method based on the distance of Vague values and the optimal and inferior point method were put forward to sort the human-machine interface layout schemes. By taking the human-machine interface layout scheme evaluation of driller console on drilling rig as an example, the practicability and validity of the proposed method was verified.
eye tracking; Vague set; human-machine interface layout; evaluation
2015-09-30.
石油天然氣裝備教育部重點實驗室(西南石油大學(xué))資助項目(OGE201403-23);四川省教育廳人文社會科學(xué)重點研究基地工業(yè)設(shè)計產(chǎn)業(yè)研究中心資助項目(GY-14YB-31).
鄧麗(1986—),女,四川簡陽人,博士生,從事計算機輔助工業(yè)設(shè)計研究,E-mail:dengli@swpu.edu.cn.http://orcid.org//0000-0001-5635-4412
10.3785/j.issn. 1006-754X.2016.03.005
TB 47
A
1006-754X(2016)03-0222-06
本刊網(wǎng)址·在線期刊:http://www.journals.zju.edu.cn/gcsjxb