摘 要: 基于視覺探索特征的恐高癥篩查方法主要運用瞳孔特征,然而瞳孔特征易受環(huán)境光強干擾,嚴重影響恐高癥篩查模型準確性.為解決該問題,提出了基于網(wǎng)格化的視覺探索特征提取算法,對視覺探索數(shù)據(jù)進行網(wǎng)格劃分,解耦光強信息后再提取相關(guān)信號特征和行為特征;同時提出了主動視覺探索誘發(fā)范式來更好地誘發(fā)恐高狀態(tài).實驗結(jié)果顯示:基于網(wǎng)格化的視覺探索特征提取算法準確率提高了11.77%,同時主動視覺探索誘發(fā)范式的恐高誘發(fā)程度提高了13.57%.結(jié)果表明,基于網(wǎng)格化的視覺探索特征提取算法和主動視覺探索誘發(fā)范式具有較好的應(yīng)用前景.
關(guān)鍵詞: 網(wǎng)格化;視覺探索;特征提取;虛擬現(xiàn)實;恐高癥
中圖分類號:TP391.9"" 文獻標志碼:A"""" 文章編號:1673-4807(2024)06-083-07
收稿日期: 2024-01-31"" 修回日期: 2021-04-29
基金項目: 國家自然科學基金項目(62301556);國家重點研發(fā)計劃項目(2022YFC2405603);江蘇省重點研發(fā)計劃項目(BE2022064-2)
作者簡介: 劉帥(2000—),男,碩士研究生
*通信作者: 成賢鍇(1984—),男,副研究員,研究方向為虛擬現(xiàn)實技術(shù)、人因工程、生物醫(yī)學信號檢測與處理.E-mail: chengxk@sibet.ac.cn
引文格式: 劉帥,鮑本坤,成賢鍇.基于網(wǎng)格化特征提取的恐高癥篩查方法[J].江蘇科技大學學報(自然科學版),2024,38(6):83-89.DOI:10.20061/j.issn.1673-4807.2024.06.013.
Acrophobia screening method based on gridding feature extraction
LIU Shuai1,2, BAO Benkun1,2, CHENG Xiankai1,2*
(1.Division of Life Sciences and Medicine, School of Biomedical Engineering (Suzhou), University of Science and Technology of China, Suzhou 215163, China)
(2. Suzhou Institute of Biomedical Engineering and Technology, Chinese Academy of Sciences, Suzhou 215163, China)
Abstract:The screening methods based on visual exploration features mainly use pupil features. However, pupil features are easily disturbed by ambient light intensity, which seriously affects the accuracy of the acrophobia screening model. To solve this problem, the grid-based visual exploration feature extraction (GVEFE) algorithm is proposed. This method involves dividing visual exploration data into grids and decoupling light intensity information before extracting relevant signal and behavioral features. Meanwhile, the active visual exploration elicitation (AVEE) paradigm is also proposed to better induce the acrophobia state. Experimental results show that the GVEFE improves the accuracy by 11.77%, while the AVEE paradigm improves the degree of acrophobia elicitation by 13.57%. The results show that the GVEFE algorithm and the AVEE paradigm hold promising application prospects.
Key words:gridding, visual exploration, feature extraction, virtual reality, acrophobia
廣義恐高癥在成人中的終身患病率為28%,其中65%的輕癥患者癥狀會持續(xù)或惡化,導致產(chǎn)生眩暈、心悸等不良反應(yīng)[1-2],然而輕癥患者對自己是否患病沒有明確認知.因此,恐高癥的篩查有助于患者認識到自己的患病風險并及時獲取治療.多模態(tài)生理信號篩查是恐高癥篩查的常用方法,文獻[3]使用心電、皮電、脈搏等6種生理信號取得了89.75%的篩查準確率,文獻[4]使用腦電、心電、皮電達到了89.5%的準確率.但生理參數(shù)采集設(shè)備穿戴復雜,繁瑣的穿戴過程會對受試者產(chǎn)生心理壓力,此外某些腦電設(shè)備甚至與實驗所需虛擬現(xiàn)實(virtual reality, VR)設(shè)備產(chǎn)生沖突,從而影響實驗準確性[4].
使用視覺探索特征進行恐高癥篩查所需設(shè)備最少,以HTC Vive Pro Eye為代表的數(shù)據(jù)采集與VR場景顯示一體化設(shè)備可以采集瞳孔直徑、眼球運動、頭部運動等視覺探索數(shù)據(jù),在眼科學和情緒識別等領(lǐng)域被廣泛應(yīng)用[5].文獻[6]使用瞳孔直徑、眼球運動等數(shù)據(jù)分別進行恐高篩查,提取數(shù)據(jù)方差、功率譜密度等特征,單模態(tài)篩查準確率分別為83.00%和78.14%.然而VR場景中不同位置的光照強度可能不同,對瞳孔直徑產(chǎn)生干擾[7],導致瞳孔特征無法反映受試者的恐高狀態(tài),嚴重影響模型準確性.目前恐高癥篩查研究未融合視覺探索行為特征,恐高癥篩查方法的準確性仍有較大提升空間.
為解決瞳孔特征易受環(huán)境光強干擾從而影響模型準確度的問題,文中提出基于網(wǎng)格化特征提取的恐高癥篩查方法.首先將主動視覺探索誘發(fā)實驗(active visual exploration elicitation,AVEE)過程按照環(huán)境光強拆分為不同的任務(wù)段,其次提出基于網(wǎng)格化的視覺探索特征提取算法(grid-based visual exploration feature extraction, GVEFE),對任務(wù)段進行網(wǎng)格劃分,針對亮度不同的任務(wù)段分別提取視覺探索信號特征,解決了瞳孔特征受環(huán)境光強干擾的問題.在此基礎(chǔ)上,將網(wǎng)格化行為特征融合在視覺探索特征提取算法中,進一步提高了篩查模型準確率.
1 實驗范式與算法模型
基于網(wǎng)格化特征提取算法的恐高癥篩查方法包括AVEE實驗范式、GVEFE算法和機器學習分類器.AVEE實驗范式由多個任務(wù)段構(gòu)成,GVEFE算法將環(huán)境光強不同的任務(wù)段重構(gòu)為獨立任務(wù)段和合并任務(wù)段,分別提取信號特征,排除環(huán)境光強變化對視覺探索特征的干擾.此外,GVEFE算法充分挖掘網(wǎng)格化行為特征,為機器學習分類器提供多樣化特征.
1.1 主動視覺探索誘發(fā)實驗范式
為了更好地誘發(fā)受試者的恐高狀態(tài),提出AVEE實驗范式,通過撿拾、放置、跳躍任務(wù)引導受試者主動注視地面,誘發(fā)其恐高狀態(tài).
實驗使用VR頭戴顯示設(shè)備HTC Vive Pro Eye(圖1(a)①)顯示虛擬場景并采集視覺探索數(shù)據(jù).圖1(a)中,實驗場景由站立平臺(②)、木板(③)、4個框子(④)、2個追蹤器(⑤)和防滑墊(⑥)組成,受試者看到的VR虛擬場景與真實場景一一對應(yīng),包括虛擬電梯(圖1(b)②)、虛擬高空木板(圖1(c)③)、虛擬框子(圖1(c)④)、虛擬網(wǎng)球(圖1(c)⑤)和虛擬平臺(圖1(d)⑥).每位受試者的實驗過程可拆分為T0至T11共12個獨立任務(wù)段:受試者蒙眼進入實驗室,佩戴VR頭顯后站在站立平臺上,開始實驗(圖1(a)T0).在虛擬場景中,受試者看到自己乘坐電梯到達60層(T1),然后電梯門自動打開(T2),受試者走出電梯(T3),走到高空木板的盡頭并撿拾框子中的網(wǎng)球(T4),回到木板起始位置并放下網(wǎng)球(T5).受試者再次走到木板盡頭撿拾另一側(cè)框子中的網(wǎng)球(T6),并將其放回木板起始處的框子中(T7).兩次撿拾與放置任務(wù)后,受試者走到木板盡頭(T8),短暫準備(T9)后跳躍至虛擬平臺上(T10),實驗結(jié)束(T11).任務(wù)過程中受試者的活動范圍是電梯內(nèi)部、高空木板、虛擬平臺3個位置,如圖1(b)、1(c)、1(d),3個位置的光照強度分別為19、124和78 Lux,光照強度變化會引起瞳孔直徑變化[7],對恐高狀態(tài)分析引入干擾,因此需要對光照強度不同的任務(wù)段分別提取視覺探索特征.
1.2 基于網(wǎng)格化的視覺探索特征提取算法
通過構(gòu)造獨立任務(wù)段和合并任務(wù)段,GVEFE算法在解決環(huán)境光強干擾瞳孔直徑特征問題的同時兼顧了任務(wù)段的連續(xù)性,并以此為基礎(chǔ)對每個任務(wù)段提取網(wǎng)格化信號特征和行為特征.
1.2.1 網(wǎng)格化信號特征的提取
網(wǎng)格化信號特征的提取方法如圖2,包括任務(wù)段、數(shù)據(jù)維度和信號特征3個層面的網(wǎng)格劃分,編號的具體含義如表1.
任務(wù)段的網(wǎng)格劃分首先將實驗過程拆分為12個獨立任務(wù)段,如圖1(a),其編號為T0~T11.在相同任務(wù)段內(nèi)受試者感受到的環(huán)境光強相近,瞳孔直徑等數(shù)據(jù)受環(huán)境光強的干擾較小,能夠更真實地反映恐高狀態(tài).為了兼顧任務(wù)過程的連貫性,根據(jù)獨立任務(wù)段的承接關(guān)系組合得到6個合并任務(wù)段,編號為T12~T17.獨立任務(wù)段與合并任務(wù)段的含義如表1,合并任務(wù)段的具體含義為:T12:T3+T4,受試者見到高空場景并完成第一個撿拾任務(wù).T13:T4+T5,受試者完成第一次撿拾與放置任務(wù).T14: T4+T5+T6+T7,受試者完成兩次撿拾與放置任務(wù).T15: T6+T7,受試者完成第二次撿拾與放置任務(wù).T16:T8+T9,受試者在跳躍任務(wù)前的準備.T17:受試者從T0~T11的全過程.構(gòu)造合并任務(wù)段能夠以連貫任務(wù)的角度提取特征,對受試者的視覺探索特征進行更細致的對比.數(shù)據(jù)維度編號為C1~C16,包括視線方向x/y/z三軸分量、雙眼瞳孔直徑等16個維度,數(shù)據(jù)維度網(wǎng)格的含義如表1.信號特征編號為SF1~SF29,包括均值、均方根、均值頻率、重心頻率等29種時域、頻域特征,信號特征網(wǎng)格的含義如表1.
偏態(tài)系數(shù)、方差和三階中心矩等信號特征可以反映數(shù)據(jù)分布[8-10],被廣泛應(yīng)用于數(shù)據(jù)特征分析,受試者的頭部坐標、瞳孔直徑等數(shù)據(jù)的分布可以體現(xiàn)其恐高狀態(tài)[1,7].偏態(tài)系數(shù)是評價序列分布偏斜程度的指標,計算如式(1).視線方向y軸分量的偏態(tài)系數(shù)特征編號為C11SF15,代表受試者視線方向在鉛垂方向分量的分布偏斜程度,特征值越小表示視線方向越偏下.
Sk=1N∑Ni=1(y-Y)3δ3(1)
式中:Y是y的均值;δ為脈動均方根;N為樣本數(shù)量.
δ= ∑Ni=1(y-Y)N(2)
方差是評價數(shù)據(jù)分布離散程度的指標,計算如式(3).頭部坐標y軸分量的方差特征編號為C2SF7,代表受試者頭部高度的波動情況,波動越大表明頭部活動幅度越大.
s2=∑Ni=1(y-Y)2N(3)
三階中心矩表示數(shù)據(jù)分布的非對稱程度,計算如式(4).雙眼瞳孔直徑的三階中心矩特征編號為C16SF5,代表受試者瞳孔直徑分布的非對稱程度,三階中心矩小代表瞳孔直徑多分布于較大值附近.
Sc=∑Ni=1(y-Y)3N(4)
1.2.2 網(wǎng)格化行為特征的提取
在恐高篩查模型中融合視覺探索行為特征[3-4,6,11],行為特征能夠表達受試者實驗過程中的行為特點,直觀地反映恐高狀態(tài).網(wǎng)格化行為特征的提取方法如圖3,包括任務(wù)段、行為特征和特征邊界3個層面的網(wǎng)格劃分.
任務(wù)段的網(wǎng)格劃分方式與前文相同,將實驗過程劃分、合并為T0~T17共18個任務(wù)段.行為特征的編號為BF1~BF18,包括任務(wù)段耗時、眨眼頻率、興趣區(qū)注視點數(shù)量、俯視總時長等行為特征,行為特征網(wǎng)格含義如表1.在VR高空環(huán)境中,受試者興趣區(qū)(area of interest,AOI)注視點數(shù)量、俯視總時長等特征反映了其恐高程度[12].如圖4(a),興趣區(qū)為受試者跳躍任務(wù)目標區(qū)域,興趣區(qū)注視點數(shù)量能夠表明受試者對地面方向的觀察情況,注視點數(shù)量與恐高程度呈負相關(guān)[1].對編號為BF11~BF18的行為特征進行特征邊界的網(wǎng)格劃分.俯視總時長特征編號為BF15,其網(wǎng)格劃分過程如圖4(b).邊界線所形成的區(qū)域下界固定在90°,上界從0°開始以3°為步長遞增至87°,與固定下界構(gòu)成了30個大小不等的范圍,編號為R1~R30.當范圍上界在0°時,區(qū)域表示廣義的視線朝下;當范圍上界在45°時,區(qū)域范圍比廣義的范圍?。划敺秶辖缭?5°時,區(qū)域表示較為狹義的視線朝下,代表受試者正在以較大的俯角觀察場景.通過網(wǎng)格化細分特征,構(gòu)造特征陣列,可以達到精細化探索恐高癥患者行為特點的目的.
文中提出的GVEFE算法將環(huán)境光強不同的任務(wù)段進行拆分與合并,分別提取信號特征,解決了瞳孔特征受光強干擾的問題,并融合了網(wǎng)格化行為特征,完成了視覺探索特征的精細化提取.
1.3 特征篩選與分類模型
文中通過GVEFE算法提取網(wǎng)格化特征組成特征矩陣,使用過濾法完成特征篩選.采用獨立樣本t檢驗計算每個特征的顯著性水平p[13],p越小表示組間差異越顯著,根據(jù)p值從小到大對特征排序,分別選出30個最優(yōu)的信號特征和30個最優(yōu)的行為特征.將特征矩陣拼接后計算特征間相關(guān)系數(shù),對于相關(guān)系數(shù)大于閾值的特征組,保留顯著性水平p最優(yōu)的特征,刪除其余特征,完成特征的篩選.
在恐高癥篩查模型以及情緒識別模型中,支持向量機(support vector machine,SVM)、K 近鄰(k nearest neighbors,KNN)和樸素貝葉斯方法(naive bayesian,NB)被廣泛使用[3,6,14],3種分類器的共同優(yōu)點是只需要很少的訓練數(shù)據(jù)就能達到較好的效果,適合小樣本實驗.
2 實驗結(jié)果與分析
2.1 實驗對象
排除未完成完整流程以及信號丟失的實驗記錄后,有效記錄為45人次(28男17女).根據(jù)恐高癥篩查標準HIQ量表得分是否大于29分[2]將受試者劃分為恐高組或正常組,兩組的平均年齡和性別比例均無顯著差異(pgt;0.05),高度演繹問卷(heights interpretation questionnaire,HIQ)量表得分存在顯著差異(plt;0.001).
2.2 數(shù)據(jù)預處理
文中使用HTC Vive Pro Eye設(shè)備采集視覺探索數(shù)據(jù),采樣頻率為30 Hz.數(shù)據(jù)預處理分為注視方向校準和數(shù)據(jù)降噪兩部分.每位受試者穿戴設(shè)備后,凝視設(shè)備中的3個控制點各2 s,采集受試者的標準視線方向數(shù)據(jù),用布爾莎模型校準視線方向數(shù)據(jù).恐高患者在高空環(huán)境時頭部運動的0~3 Hz頻段內(nèi)與正常人有差異[15],因此在恐高分析中,頭部運動信號的有效信號為低頻信號,噪音干擾為高頻信號.等權(quán)重滑動平均降噪函數(shù)能夠消除隨機波動,保留低頻有用信號,因此選用等權(quán)重滑動平均降噪函數(shù)對數(shù)據(jù)降噪.
2.3 實驗范式對比與分析
文中提出的AVEE實驗范式能夠誘導受試者注視地面,更好地誘發(fā)其恐高狀態(tài).在恐高組受試者中選取若干名受試者分別進行3種實驗范式的對比實驗,采集所有受試者在不同實驗范式過程中的視線方向y軸分量和心率.視線方向y軸分量越接近-1,表明受試者俯視角度越大,用心率的提升表示受試者的恐高狀態(tài)誘發(fā)程度的增加.3個實驗范式分別為:PA:受試者在木板起點站立觀察60 s;PB:受試者走到木板末端并站立觀察60 s;AVEE:文中提出的主動視覺探索誘發(fā)范式.PA和PB是相關(guān)研究常用的實驗范式[6,11].用均值(標準差)的形式表示受試者在3種實驗范式中的視線方向y軸分量和心率,如表2.
2.4 網(wǎng)格化視覺探索特征提取結(jié)果與分析
通過GVEFE算法對每個受試者提取網(wǎng)格化特征,組成特征矩陣.根據(jù)獨立樣本t檢驗的顯著度p排序選出30個最優(yōu)信號特征和30個最優(yōu)行為特征,特征編號與特征顯著度如圖5和6.提取并篩選的最優(yōu)信號特征p值都小于0.005,組間差異非常顯著;最優(yōu)行為特征的p值都小于0.05,組間差異顯著.
編號為T13C11SF15的特征含義為第一次撿拾與放置任務(wù)中視線方向y軸分量的偏態(tài)系數(shù).正常組的T13C11SF15均值為-0.81,恐高組為-0.31,表明正常組的視線方向比恐高組更偏向下方,能夠更多地注視下方目標物以便完成任務(wù),恐高組受試者雖完成了撿拾、放置、跳躍任務(wù),但視線分布更偏向上方.
編號為T2C16SF5的特征含義為見到高空場景的一秒內(nèi)的瞳孔直徑偏斜度.正常組的T2C16SF5均值為10.95,恐高組為10.82,表明恐高組見到高空場景的一秒內(nèi)瞳孔直徑分布比恐高組更偏向大的一側(cè),恐高組的瞳孔直徑維持在較大值的時間更長,對應(yīng)恐懼狀態(tài)下人的瞳孔直徑上升的結(jié)論[7].
編號為T9BF10的特征含義為跳躍前注視興趣區(qū)(AOI)內(nèi)注視點數(shù)量.如圖7,方框代表AOI,是跳躍目標范圍,邊長為0.5 m.
以正方形平臺中心為零坐標點,將2 m×2 m的范圍劃分為500×500的網(wǎng)格,將每個網(wǎng)格里視線落點數(shù)量經(jīng)過高斯濾波后繪制為熱度圖.正常組受試者的注視點集中在AOI范圍內(nèi)和木板末端,注視點多且集中,如圖7(a);恐高組在跳躍前的注視點少且分散,如圖7(b),體現(xiàn)了恐高組受試者的視線分布與正常組受試者的不同,與相關(guān)研究中恐高患者視線分布異于正常組的結(jié)論相符[1].提取的最優(yōu)特征的組間差異顯著,將特征篩選后輸入機器學習分類器建立恐高癥篩查模型.
計算最優(yōu)特征的皮爾森相關(guān)系數(shù)矩陣,以0.8為閾值篩選后的特征矩陣與相關(guān)系數(shù)圖如圖8.經(jīng)過篩選后,高度相關(guān)的特征組中p值較大的特征被刪除,p值最小的特征被保留.
2.5 恐高癥篩查模型結(jié)果與分析
實驗的正常組樣本有20例,恐高組樣本有25例,不平衡比例為4∶5,需要對正常組樣本進行過采樣.使用k-means合成少數(shù)類過采樣技術(shù)(synthetic minority oversampling technique,SMOTE)方法對不平衡的特征矩陣進行過采樣,將平衡后的特征矩陣標準化后輸入樸素貝葉斯、隨機森林(random forest,RF)、支持向量機、多層感知器(multilayer perceptron,MLP)等7種標準機器學習分類器分別進行分類.以視覺探索數(shù)據(jù)為基礎(chǔ),分別使用BASE,SF,BF,GVEFE 4種方式提取視覺探索特征,計算篩查模型準確度.其中BASE代表文獻[6]所用的特征提取方式,并將其作為對比基準,SF代表網(wǎng)格化信號特征提取方式,BF代表網(wǎng)格化行為特征提取方式,GVEFE代表文中提出的基于網(wǎng)格化的視覺探索特征提取算法,該算法融合了網(wǎng)格化信號特征和行為特征.如表3,加粗部分為特征提取方法對應(yīng)的最優(yōu)模型準確率,基線方法BASE的最佳準確率是84.31%,單獨使用SF方法的最佳準確率為92.16%,比基準方法提升了7.85%,單獨使用BF方法的準確度較低(76.47%),融合了網(wǎng)格化信號特征和網(wǎng)格化行為特征的GVEFE算法對應(yīng)的準確率最高(96.08%),比基線方法提升了11.77%.在7種分類模型中,KNN、NB、SVM的準確度最高,分類效果最好,其余分類模型如極端隨機樹(ExtRaTrees)、邏輯回歸分類(logistic regression,LR)等標準分類器的準確度也達到了94%以上.由此得出:GVEFE算法所提取的網(wǎng)格化信號特征和行為特征能夠有效地提升篩查模型準確度,并且在多種標準分類器中都能達到較好的分類效果.
3 結(jié)論
瞳孔特征是視覺探索特征中的重要特征,然而瞳孔直徑的變化受到環(huán)境光強變化的干擾,無法直接反映恐高程度,導致篩查模型準確度低.對環(huán)境光強不同的任務(wù)段進行拆分與合并,分別提取信號特征,解決了上述問題.僅使用網(wǎng)格化信號特征提取方法能夠?qū)⒒€模型準確率提升7.85%,在此基礎(chǔ)上,融合了行為特征提取的GVEFE算法進一步將準確率提高至96.08%,比基線方法提升了11.77%,驗證了所提算法的有效性.同時提出的主動視覺探索誘發(fā)實驗范式將恐高誘發(fā)程度提升了13.57%,未來可用于其它類型恐懼癥、焦慮癥等心理疾病的篩查和干預.
參考文獻(References)
[1] HUPPERT D, WUEHR M, BRANDT T. Acrophobia and visual height intolerance: Advances in epidemiology and mechanisms[J]. Journal of Neurology, 2020, 267(Sup 1): 231-240.
[2] FREEMAN D, HASELTON P, FREEMAN J, et al. Automated psychological therapy using immersive virtual reality for treatment of fear of heights: A single-blind, parallel-group, randomised controlled trial[J]. The Lancet Psychiatry, 2018, 5(8): 625-632.
[3] 俞洋釗, 何炳蔚, 白麗英, 等. 基于虛擬現(xiàn)實和動態(tài)加權(quán)決策融合的恐高情緒識別[J]. 計算機系統(tǒng)應(yīng)用, 2023, 32(7): 35-46.
[4] BALAN O, MOISE G, MOLDOVEANU A, et al. An investigation of various machine and deep learning techniques applied in automatic fear level detection and acrophobia virtual therapy[J]. Sensors, 2020, 20(2): 496.
[5] SIPATCHIN A, WAHL S, RIFAI K. Eye-tracking for clinical ophthalmology with virtual reality (VR): A case study of the htc vive pro eye′s usability[J]. Healthcare, 2021, 9(2): 180.
[6] ZHENG R, WANG T, CAO J, et al. Multi-modal physiological signals based fear of heights analysis in virtual reality scenes[J]. Biomedical Signal Processing and Control, 2021, 70: 102988.
[7] MAHANAMA B, JAYAWARDANA Y, RENGARAJAN S, et al. Eye movement and pupil measures: a review[J]. Frontiers in Computer Science, 2022, 3: 733531.
[8] 黃飛, 陳紀宇, 戴健, 等. 基于特征暫態(tài)零模電流偏態(tài)系數(shù)的有源配電網(wǎng)單相故障定位方法[J]. 電力系統(tǒng)保護與控制, 2022, 50(20): 12-21.
[9] CHEN W, CARRERA M, KWON E, et al. A comprehensive review of thermoelectric generation optimization by statistical approach: Taguchi method, analysis of variance (anova), and response surface methodology (rsm)[J]. Renewable and Sustainable Energy Reviews, 2022, 169: 112917.
[10] 楊莉, 周松, 周年榮, 等. 基于統(tǒng)計特征量的電能表家族特性評價研究[J]. 電力科學與工程, 2020, 36(10): 24-28.
[11] WANG H, WANG Q, HU F. Are you afraid of heights and suitable for working at height?[J]. Biomedical Signal Processing and Control, 2019(52): 23-31.
[12] FINK J, SVENSSON F, SCHMITZ J, et al. Are you looking or looking away? visual exploration and avoidance of disgust-and fear-stimuli: An eye-tracking study[J]. 2021,22(8):1909-1918.
[13] 唐立婷, 段先華. 改進中心先驗的顯著性檢測[J]. 江蘇科技大學學報(自然科學版), 2023, 37(3): 60-65.
[14] 蔡闖闖, 劉慶華. 基于多特征數(shù)據(jù)融合的疲勞駕駛檢測研究[J]. 江蘇科技大學學報(自然科學版), 2023, 37(5): 52-57.
[15] BZDUSKOVA D, MARKO M, HIRIJAKOVA Z, et al. The effects of virtual height exposure on postural control and psychophysiological stress are moderated by individual height intolerance[J]. Frontiers in Human Neuroscience, 2022, 15: 773091.
(責任編輯:曹莉)