亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        苗繡紋樣搜索中草圖和文本檢索的認(rèn)知負(fù)荷對(duì)比研究

        2024-02-28 06:09:12陳靖翕陳洋王子翱彭莉
        包裝工程 2024年4期
        關(guān)鍵詞:苗繡草圖眼動(dòng)

        陳靖翕,陳洋,王子翱,彭莉

        苗繡紋樣搜索中草圖和文本檢索的認(rèn)知負(fù)荷對(duì)比研究

        陳靖翕,陳洋*,王子翱,彭莉

        (貴州大學(xué),貴陽 550025)

        為了探究一種更高效的苗繡紋樣檢索方式,通過對(duì)手繪草圖檢索及文本檢索過程中的認(rèn)知負(fù)荷來進(jìn)行對(duì)比研究。首先通過構(gòu)建認(rèn)知負(fù)荷信息檢索過程模型,對(duì)5個(gè)認(rèn)知階段的平均認(rèn)知負(fù)荷及所需時(shí)間進(jìn)行實(shí)驗(yàn)對(duì)比;其次通過眼動(dòng)指標(biāo)(持續(xù)注視時(shí)間、眼球掃視振幅、眼球直徑)及NASA-TLX評(píng)估對(duì)兩種檢索過程的認(rèn)知負(fù)荷進(jìn)行分析;最后基于眼動(dòng)追蹤得到可視化眼動(dòng)數(shù)據(jù)(熱點(diǎn)圖、注視軌跡)驗(yàn)證是否符合檢索任務(wù)需求?;谑掷L草圖的圖形檢索方式更適合于苗繡紋樣檢索,通過主、客觀融合對(duì)比實(shí)驗(yàn)驗(yàn)證了草圖檢索的高效性,同時(shí)也驗(yàn)證了眼動(dòng)追蹤和NASA_TLX具有相關(guān)性,能更有效地進(jìn)行認(rèn)知負(fù)荷測量。

        草圖檢索;認(rèn)知負(fù)荷;眼動(dòng)追蹤;苗繡紋樣

        隨著數(shù)字化技術(shù)的不斷發(fā)展,涌現(xiàn)出越來越多更高效的方法和媒介,對(duì)正在消逝的大量非物質(zhì)文化遺產(chǎn)的繼承和傳播來說具有重大意義。非遺文化是國家或民族在歷史發(fā)展過程中創(chuàng)造、發(fā)展和繼承下來的文化遺產(chǎn),具有不可取代的價(jià)值。保護(hù)和傳承非遺文化對(duì)于延續(xù)歷史、增強(qiáng)文化自信、促進(jìn)文明交流和建設(shè)文化強(qiáng)國都具有重要的意義[1]。在中國傳統(tǒng)文化遺產(chǎn)中,紋樣是一個(gè)極為重要的組成部分,苗族歷史文化通過薪火相傳的紋樣圖形作為文脈的載體來進(jìn)行記載,對(duì)于非遺文化中苗族文化的傳承至關(guān)重要[2]。在數(shù)字化的進(jìn)程中,紋樣檢索扮演著保護(hù)、繼承和傳播紋樣的關(guān)鍵角色。在過去通用的檢索方式中,通常使用文本檢索的方式來對(duì)紋樣進(jìn)行搜索,但顯然這種檢索方式對(duì)沒有“文字系統(tǒng)”的苗族紋樣而言,會(huì)造成檢索的錯(cuò)失和謬誤,這也使檢索效率較為低下。隨著手繪草圖檢索研究的提出,基于手繪草圖的檢索方式為苗繡紋樣的搜索提供了一種新的可能性。傳統(tǒng)文化與新興數(shù)字化技術(shù)的結(jié)合能夠提高非遺文化的創(chuàng)新力,高效的紋樣檢索方式能使苗族文化更好地進(jìn)行活態(tài)傳承。為此以苗繡紋樣搜索為任務(wù),通過手繪檢索與文本檢索兩種方式進(jìn)行認(rèn)知負(fù)荷的對(duì)比,比較哪一種檢索方式更適合于苗繡紋樣檢索研究,找到更高效的苗繡紋樣檢索方式。

        1 相關(guān)工作

        1.1 苗繡紋樣研究現(xiàn)狀

        在苗繡紋樣研究中,紋樣中的圖形符號(hào)不僅承載了苗族的歷史文化生活也賦予了文化傳承的功能,被譽(yù)為“無字史書”,由于歷史傳承導(dǎo)致人們對(duì)紋樣存在過度的解讀,僅憑只言片語很難對(duì)其紋樣素材進(jìn)行確切的表達(dá)。因此,在對(duì)苗繡紋樣的檢索過程中,僅依賴現(xiàn)有的單一文字信息分類檢索,顯然是不夠精確可靠的。

        隨著圖像技術(shù)的不斷發(fā)展,以傳統(tǒng)文化為載體,利用數(shù)字化技術(shù)為媒介對(duì)非遺文化進(jìn)行活態(tài)傳承與保護(hù)已是目前的研究趨勢。李安娜等[3]通過K-means聚類算法對(duì)苗族刺繡圖案進(jìn)行色彩特征研究,為民族圖案再創(chuàng)新及民族色彩數(shù)據(jù)庫的建立提供了新方式。如圖1所示,在對(duì)非遺文化的研究過程中,與非遺文化有相關(guān)共引的關(guān)鍵詞主要有:保護(hù)傳承、傳承人、數(shù)字化、少數(shù)民族。近兩年來,“數(shù)字化保護(hù)”一詞出現(xiàn)的頻率較高,這說明將數(shù)字化手段對(duì)非遺文化進(jìn)行傳承保護(hù)是目前的研究熱點(diǎn),圖譜中還涉及了鄉(xiāng)村振興、少數(shù)民族文化、活態(tài)傳承等熱門話題。本研究以苗族紋樣作為研究載體,對(duì)非遺文化傳承保護(hù)具有重要意義。找到一個(gè)更高效的紋樣檢索方式不僅能夠提高相關(guān)設(shè)計(jì)者的工作效率,而且能夠推廣苗繡產(chǎn)業(yè)、文創(chuàng)產(chǎn)品的發(fā)展,讓更多人了解到苗繡紋樣及其背后的故事。因此,本文提出采用草圖檢索的方式進(jìn)行苗繡紋樣檢索研究。

        1.2 基于手繪草圖檢索研究現(xiàn)狀

        手繪圖形原本就是人類表達(dá)和傳遞信息的主要途徑之一,手繪草圖一直得益于其簡潔有效的表達(dá)特點(diǎn),被人們沿用至今?;诖?,以手繪草圖作為檢索示例的基于草圖的圖像檢索(Sketch Based Image Retrieval,簡稱SBIR)已經(jīng)成為研究的熱點(diǎn)。為了能夠更好地保護(hù)和傳承苗繡紋樣,本文考慮將手繪草圖檢索結(jié)合到苗繡紋樣上。

        目前,將計(jì)算機(jī)視覺技術(shù)應(yīng)用到民族紋樣圖案文化的傳承與保護(hù)上還處于初探階段,部分學(xué)者關(guān)于這個(gè)課題的研究也取得了一定的成效[4-5]?;谑掷L草圖的檢索是一種新興的信息檢索方法,用戶可以通過手繪草圖的方式來描述他們所需的檢索目標(biāo)紋樣,在對(duì)苗繡紋樣進(jìn)行特征提取和匹配后,檢索系統(tǒng)將會(huì)從數(shù)據(jù)庫中返回同類別紋樣圖像或特定的精確匹配相關(guān)紋樣圖像信息[6]。與傳統(tǒng)的文本檢索方式相比,文本檢索存在例如語義匹配不夠精確等問題。而草圖檢索具有一定的容錯(cuò)性,即使手繪草圖的質(zhì)量不高,仍然可以從數(shù)據(jù)庫中檢索出相關(guān)的信息。基于深度學(xué)習(xí)的方法是目前手繪草圖檢索研究的趨勢,Zhang等[7]首次提出了草圖生成模型從而可以緩解草圖數(shù)據(jù)稀缺的困境,同時(shí)構(gòu)造了一種考慮語義屬性的FG-SBIR模型。Xu[8]給出了一個(gè)基于細(xì)粒度實(shí)例級(jí)草圖的視頻檢索(FG-SBVR)這一新穎的任務(wù)數(shù)據(jù)集,并提出了一種新穎的多流多通道網(wǎng)絡(luò)來解決在強(qiáng)監(jiān)督和弱監(jiān)督兩種情況下的草圖檢索問題。Huang[9]探討了文本和草圖檢索在視頻輸入中比較,并分析了用戶的反應(yīng)和反饋。上述文獻(xiàn)體現(xiàn)出草圖檢索具有更良好的交互性及直觀性,能夠更好地適應(yīng)用戶的信息需求。

        圖1 近年非遺文化保護(hù)關(guān)鍵詞共現(xiàn)圖及時(shí)間線

        1.3 認(rèn)知負(fù)荷評(píng)估研究

        認(rèn)知負(fù)荷是指人類執(zhí)行任務(wù)所需的認(rèn)知資源數(shù)量和心理負(fù)擔(dān),是人類認(rèn)知過程中的一個(gè)重要概念[10]。在使用不同檢索方式過程中,因?yàn)樗鼈兊妮斎胄问胶吞幚矸绞讲煌?,所以需要不同類型和程度的認(rèn)知負(fù)荷。通過對(duì)檢索過程中的認(rèn)知負(fù)荷進(jìn)行評(píng)估,可以了解不同檢索方式在不同階段的認(rèn)知負(fù)荷大小和分布情況,從而揭示出檢索方式之間的差異和優(yōu)缺點(diǎn),為檢索方法的優(yōu)化和改進(jìn)提供參考。因此,認(rèn)知負(fù)荷是一種可靠的評(píng)估指標(biāo),可以用來對(duì)不同的檢索方式進(jìn)行評(píng)估和比較。評(píng)估認(rèn)知負(fù)荷的方法包括主觀評(píng)價(jià)法、生理指標(biāo)測量法、行為測量法和任務(wù)績效等。主觀評(píng)價(jià)法是通過詢問參與者主觀感受來評(píng)估認(rèn)知負(fù)荷水平,常用的主觀工具包括SWAT量表、WP量表、Paas心理努力量表和NASA-TLX(National Aeronautics and Space Administration-Task Load Index)量表[11]。行為測量法通過觀察任務(wù)執(zhí)行過程中參與者的行為反應(yīng)來評(píng)估認(rèn)知負(fù)荷水平。Lednevaa等[12]致力于解決數(shù)字文本中人工信息檢索的問題,探討了數(shù)字文本環(huán)境中導(dǎo)航條件的差異是否與眼動(dòng)模式和表現(xiàn)所反映的信息檢索行為的變化相一致。孟榮華等[13]通過參與者在任務(wù)執(zhí)行過程中的錯(cuò)誤率、反應(yīng)時(shí)間等指標(biāo)來反映任務(wù)難度和負(fù)荷水平。Jadue等[14]通過生理實(shí)驗(yàn)測量參與者的生理指標(biāo)來評(píng)估用戶的意圖,通過比較由眼動(dòng)儀獲得的眼動(dòng)參數(shù)來評(píng)估用戶的認(rèn)知負(fù)荷。

        認(rèn)知負(fù)荷對(duì)比試驗(yàn)是一種用來研究人類認(rèn)知負(fù)荷的實(shí)驗(yàn)方法。認(rèn)知負(fù)荷對(duì)比試驗(yàn)通過將不同類型任務(wù)的認(rèn)知負(fù)荷進(jìn)行比較,可以幫助人們了解哪些因素會(huì)增加或減少人類認(rèn)知負(fù)荷[15-16],從而更好地提高用戶認(rèn)知效率以促進(jìn)其對(duì)信息的獲取及利用。Harada等[17]通過組內(nèi)不同視覺搜索交互任務(wù)中的對(duì)照試驗(yàn)來驗(yàn)證了交互系統(tǒng)的有效性。Tsai等[18]通過對(duì)比在不同機(jī)制的搜索任務(wù)性能,從而提出了一種可以有效地降低使用者的認(rèn)知負(fù)荷增強(qiáng)內(nèi)容自適應(yīng)管理方法。Armougum等[19]提供了一種在野外實(shí)驗(yàn)中客觀考察認(rèn)知負(fù)荷的主客觀新方法,通過對(duì)不同專業(yè)水平的旅行者認(rèn)知負(fù)荷的變化進(jìn)行研究,來優(yōu)化旅行者的認(rèn)知負(fù)荷。

        本文在苗繡檢索交互系統(tǒng)的基礎(chǔ)上,通過設(shè)計(jì)紋樣檢索對(duì)比實(shí)驗(yàn),綜合利用主客觀測量指標(biāo),評(píng)估用戶在檢索過程中采用不同檢索方式的認(rèn)知負(fù)荷,從而對(duì)比分析出哪種方式更適合于苗繡檢索。信息檢索的過程通常是一個(gè)不間斷的活動(dòng),為了更加準(zhǔn)確地測量檢索過程中的認(rèn)知負(fù)荷,本研究結(jié)合苗繡紋樣的不同檢索方式特點(diǎn),對(duì)原有的信息搜尋過程模型進(jìn)行優(yōu)化,利用生理指標(biāo)和主觀評(píng)價(jià)數(shù)據(jù)作為評(píng)價(jià)指標(biāo),對(duì)兩種檢索方式進(jìn)行對(duì)比研究,評(píng)估輸出的有效性,為降低用戶認(rèn)知負(fù)荷水平、提高紋樣檢索的效率提供優(yōu)化途徑。

        2 方法

        2.1 基于文本與草圖的苗繡紋樣檢索

        本文通過兩種不同方式進(jìn)行苗繡紋樣檢索。針對(duì)苗繡紋樣的基礎(chǔ)檢索方式為文本檢索(文本檢索流程見圖2),在目標(biāo)檢索任務(wù)中,用戶通過輸入關(guān)鍵詞在線檢索,檢索階段提取查詢文檔的文本特征,計(jì)算與數(shù)據(jù)庫中各文檔的特征向量之間的距離,并返回距離最近的文檔索引作為結(jié)果。

        圖2 文本檢索流程

        Fig.2 Retrieval process based on text

        針對(duì)苗繡紋樣的草圖檢索流程(見圖3),首先用戶通過手繪草圖的方式輸入查詢條件;然后通過特征提取,從輸入的草圖中提取出特征向量;最后將用戶輸入草圖所提取的草圖特征與紋樣草圖特征庫中的特征進(jìn)行匹配,對(duì)圖像特征向量進(jìn)行相似度計(jì)算,得出每幅圖像與查詢圖像的相似度得分,最后將得分排在前幾名的圖像作為檢索結(jié)果進(jìn)行輸出,以圖像形式呈現(xiàn)給用戶。

        圖3 手繪草圖檢索流程(以蝴蝶紋樣為例)

        2.2 認(rèn)知負(fù)荷信息檢索過程模型

        為了探究在苗繡紋樣搜索過程中用戶采用不同檢索方式的認(rèn)知負(fù)荷變化情況,本文以Kuhlthau[21]的信息搜尋過程(ISP)模型作為研究基礎(chǔ),該模型的特點(diǎn)是面向整個(gè)檢索過程的,能夠更加具體地呈現(xiàn)出每個(gè)檢索步驟。然而在不同領(lǐng)域中存在相應(yīng)的差異,因此本文根據(jù)苗繡紋樣檢索過程中的特點(diǎn),在原有模型基礎(chǔ)上進(jìn)行改進(jìn)。

        通過對(duì)在該領(lǐng)域工作的設(shè)計(jì)搜索者和對(duì)該領(lǐng)域感興趣的業(yè)余愛好搜索者進(jìn)行了深入地了解與訪談,從而理解苗繡紋樣相關(guān)的檢索過程、任務(wù)和存在的問題難點(diǎn)。針對(duì)苗繡紋樣信息檢索過程中不同任務(wù)階段的認(rèn)知負(fù)荷,可分為5個(gè)階段(見表1),本實(shí)驗(yàn)將以在苗繡紋樣檢索過程中的5個(gè)任務(wù)階段作為測量單位進(jìn)行研究分析,從而對(duì)草圖檢索及文本檢索兩種檢索過程的認(rèn)知負(fù)荷及時(shí)間進(jìn)行對(duì)比。

        信息檢索過程中不同任務(wù)階段的認(rèn)知負(fù)荷會(huì)根據(jù)具體的任務(wù)特點(diǎn)和難度而有所不同。本文采用主客觀相結(jié)合的測量方式,通過可視化的方式呈現(xiàn)對(duì)比效果。本文選取目前使用范圍最廣的NASA- TLX評(píng)價(jià)量表配合生理測量法來評(píng)估測量被試在操作中的認(rèn)知負(fù)荷水平[22-21]。NASA-TLX量表通過問卷形式發(fā)放,要求被試者在完成實(shí)驗(yàn)操作后填寫,包括NASA- TLX量表的6項(xiàng)指標(biāo)評(píng)分(心理需求、生理需求、時(shí)間需求、表現(xiàn)、努力和沮喪程度)和權(quán)重指標(biāo)。本研究中用客觀測量法,通過眼動(dòng)設(shè)備分析眼動(dòng)指標(biāo),即眼跳幅度、凝視注視持續(xù)時(shí)間和瞳孔直徑,可以更深入地了解兩種檢索過程用戶的認(rèn)知負(fù)荷不同。

        表1 檢索過程的任務(wù)階段劃分

        Tab.1 Task stage division of the retrieval process

        3 實(shí)驗(yàn)

        3.1 實(shí)驗(yàn)對(duì)象

        本研究招募了20名具有一定學(xué)歷且教育背景相似的參與者(10名男性,10名女性),參與者的平均年齡(±標(biāo)準(zhǔn)差)為23.8(±4.5)歲。所有的參與者都精通平板電腦的操作,并且在實(shí)驗(yàn)中保持獨(dú)立思考的能力。將參與者平均分為兩組(每組男女人數(shù)相同),一組通過輸入文本進(jìn)行紋樣檢索,另一組通過手繪草圖進(jìn)行紋樣檢索。在實(shí)驗(yàn)開始之前,確保這些參與者有足夠的時(shí)間來熟悉操作系統(tǒng),并嘗試檢索樣本查詢的紋樣圖片。

        3.2 實(shí)驗(yàn)設(shè)備

        該實(shí)驗(yàn)環(huán)境由一臺(tái)高分辨率顯示器、SMI iView- X RED120眼動(dòng)儀和一臺(tái)個(gè)人電腦組成。將眼動(dòng)儀放置在顯示屏下方用于捕捉眼球軌跡。參與者坐在椅子上,與顯示器保持0.5 m距離,以確保觀察到良好的顯示效果,最后使用E-prime軟件進(jìn)行眼動(dòng)數(shù)據(jù)分析,見圖4。

        圖4 實(shí)驗(yàn)場景與設(shè)備

        3.3 實(shí)驗(yàn)設(shè)計(jì)與步驟

        本實(shí)驗(yàn)運(yùn)用項(xiàng)目中的苗繡紋樣系統(tǒng),所有紋樣圖片數(shù)據(jù)均來源于系統(tǒng)所構(gòu)建的苗繡紋樣圖案數(shù)據(jù)集。本研究的目標(biāo)是評(píng)估文本檢索與草圖檢索的認(rèn)知負(fù)荷水平及檢索效率。文本組通過輸入關(guān)鍵字對(duì)目標(biāo)紋樣圖片進(jìn)行檢索,草圖組通過手繪草圖完成紋樣檢索。

        為了更好地評(píng)估針對(duì)苗繡紋樣的檢索方式對(duì)比,選擇應(yīng)用相同的檢索任務(wù)。該實(shí)驗(yàn)給定6種不同的檢索任務(wù),每個(gè)任務(wù)都含有不同紋樣的圖片。對(duì)于這些任務(wù),已經(jīng)討論確保了任務(wù)的可行性,并且列出了每個(gè)任務(wù)紋樣圖片的內(nèi)容(見表2)。在實(shí)驗(yàn)開始之前,所有參與者都被要求對(duì)目標(biāo)圖片進(jìn)行1 min的瀏覽,最終目標(biāo)是通過輸入關(guān)鍵文字或者繪制出相關(guān)草圖來找到相似的紋樣圖片。在這個(gè)過程中,他們將根據(jù)對(duì)每個(gè)檢索任務(wù)開始前所呈現(xiàn)的每個(gè)目標(biāo)紋樣圖片的理解,在實(shí)驗(yàn)設(shè)備上輸入查詢。在實(shí)驗(yàn)結(jié)束后,參與者將關(guān)閉檢索系統(tǒng)并填寫相關(guān)實(shí)驗(yàn)問卷?;趨⑴c者在完成苗繡紋樣檢索過程中的表現(xiàn),與其進(jìn)行訪談。

        表2 6種檢索任務(wù)及輸入草圖/文本示例

        Tab.2 6 retrieval tasks and input sketch/text examples

        4 結(jié)果與分析

        4.1 認(rèn)知負(fù)荷信息檢索過程測量結(jié)果

        本實(shí)驗(yàn)選取使用目前適用范圍最廣的NASA- TLX量表作為主觀評(píng)價(jià)量表來測量實(shí)驗(yàn)者在檢索過程中的認(rèn)知負(fù)荷水平。由于該量表的評(píng)分結(jié)果過于主觀,無法直接作為認(rèn)知負(fù)荷的評(píng)價(jià)指標(biāo)。因此,對(duì)該量表各維度評(píng)分結(jié)果進(jìn)行歸一化處理,再對(duì)各維度處理后的數(shù)據(jù)進(jìn)行算術(shù)平均,最后將得到的平均值作為主觀評(píng)價(jià)結(jié)果。在每個(gè)參與者完成對(duì)應(yīng)任務(wù)之后,將收集到的數(shù)據(jù)導(dǎo)出并計(jì)算認(rèn)知負(fù)荷水平。

        由于文本檢索需要更多的語言能力和記憶能力,而草圖檢索則需要更多的圖像理解和創(chuàng)造能力。這可能導(dǎo)致在不同的認(rèn)知階段中,對(duì)不同認(rèn)知負(fù)荷的需求有所不同。根據(jù)表3所示,在整個(gè)檢索過程中,S代表草圖檢索,T代表文本檢索。在需求分析階段,草圖檢索的認(rèn)知負(fù)荷略高于文本檢索。這是因?yàn)樵跇?gòu)思如何進(jìn)行手繪時(shí),相比于思考關(guān)鍵詞,草圖檢索需要更多的思維創(chuàng)造力。然而在之后的4個(gè)階段中,草圖檢索的認(rèn)知負(fù)荷均低于文本檢索。匹配階段是兩種檢索方式中認(rèn)知負(fù)荷最高的階段,該階段包括被試者判斷紋樣是否與自己預(yù)期的結(jié)果匹配。文本檢索的平均時(shí)間比草圖檢索長6.07 s,認(rèn)知負(fù)荷也多1.12。這說明文本檢索的結(jié)果更為分散,被試者需要更多的精力去匹配目標(biāo)紋樣。整個(gè)檢索過程的任務(wù)階段中,手繪檢索的平均認(rèn)知負(fù)荷比文本檢索減少了14.8%,手繪檢索所花的時(shí)間比文本檢索減少了14.3%。

        表3 檢索過程的任務(wù)階段結(jié)果對(duì)比

        Tab.3 Comparative results of task stages in retrieval process

        注:S代表草圖檢索,T代表文本檢索。

        從圖5中的折現(xiàn)圖可看出在5個(gè)認(rèn)知階段中,文本檢索的平均認(rèn)知負(fù)荷明顯高于草圖檢索,但是在查詢構(gòu)建的階段,草圖檢索所需的平均時(shí)間要高于文本檢索,這是由于草圖檢索的過程中人需要考慮圖形匹配度及草圖的繪制。最后在匹配階段文本檢索所花的時(shí)間是遠(yuǎn)高于草圖檢索的,證明草圖檢索得出的紋樣結(jié)果相關(guān)性更強(qiáng),被試者更容易找到所需的紋樣圖片。

        4.2 兩種檢索過程認(rèn)知負(fù)荷主客觀評(píng)估結(jié)果

        圖4展示了在研究過程中測量的不同眼動(dòng)指標(biāo)(凝視注視持續(xù)時(shí)間、掃視幅度和瞳孔直徑)及NASA-TLX主觀測量的描述性分析。

        4.2.1 持續(xù)注視時(shí)間

        4.2.2 眼球掃視振幅

        4.2.3 瞳孔直徑

        圖5 不同檢索方式的認(rèn)知階段評(píng)價(jià)指標(biāo)對(duì)比

        4.2.4 NASA-TLX

        4.2.5 相關(guān)性分析

        為了研究三種認(rèn)知負(fù)荷測量方法之間的相關(guān)性,對(duì)整個(gè)測試樣本進(jìn)行了眼動(dòng)指標(biāo)(掃視幅度、瞳孔直徑和凝視持續(xù)時(shí)間)、NASA-TLX的相關(guān)性矩陣分析。發(fā)現(xiàn)掃視幅度和瞳孔直徑、掃視幅度和凝視持續(xù)時(shí)間、瞳孔直徑和凝視持續(xù)時(shí)間之間存在顯著的正相關(guān)關(guān)系,<0.001。這些不同的相關(guān)關(guān)系都是正向的,且被認(rèn)為是強(qiáng)相關(guān)的(2分別為0.86、0.77和0.83)。還發(fā)現(xiàn)NASA-TLX與三種調(diào)查眼動(dòng)指標(biāo)(掃視幅度,<0.05;瞳孔直徑,<0.01;凝視持續(xù)時(shí)間,<0.05)之間存在顯著的正相關(guān)關(guān)系。這些相關(guān)關(guān)系在強(qiáng)度方面被認(rèn)為是中等的(2分別為0.57、0.53和0.39),具體結(jié)果見表4。

        圖6 不同認(rèn)知負(fù)荷指標(biāo)的平均分

        表4 NASA-TLX 和眼動(dòng)指標(biāo)之間的相關(guān)矩陣

        Tab.4 Correlation matrix between NASA-TLX and eye-tracking metrics

        4.3 可視化試驗(yàn)測量結(jié)果

        通過圖7注意力熱圖所示,圖7a文字檢索所呈現(xiàn)的結(jié)果通過“蝴蝶”一詞進(jìn)行相關(guān)性順序依次排列下來,而圖7b是以草圖的特征進(jìn)行相關(guān)性排列,呈現(xiàn)的結(jié)果越靠前證明與輸入的信息越匹配。如圖7a所示,被試者通過文字檢索得出的苗繡圖片結(jié)果中,其注意力是離散的,只有經(jīng)過一系列查閱或是翻閱以后才能夠得出想要的蝴蝶紋樣結(jié)果。而在圖7b中,通過草圖檢索得出的紋樣圖片在前兩排就可以找到被試者想要的圖片,他們的視線更聚焦在紋樣圖片的前兩排。證明草圖檢索所獲取的苗繡紋樣與人們想要的答案更匹配。

        通過圖8注視軌跡圖可知,使用草圖檢索的注視軌跡較為規(guī)律,注視點(diǎn)大多集中在靠前的幾張圖片上。而使用文本檢索的在視覺顯示處理期間顯示隨機(jī)掃描路徑,注視點(diǎn)較為跳躍。結(jié)果表明通過草圖檢索所得出的紋樣結(jié)果更符合被試者的心理預(yù)期。

        5 結(jié)語

        本研究對(duì)苗繡紋樣搜索的兩種檢索方式進(jìn)行了認(rèn)知負(fù)荷的評(píng)估。首先通過信息檢索過程的5個(gè)階段分析了兩種檢索方式的平均認(rèn)知負(fù)荷及時(shí)間;其次使用客觀度量(眼動(dòng)追蹤)和主觀度量(NASA-TLX負(fù)載指數(shù))來識(shí)別草圖檢索和文本檢索時(shí)認(rèn)知負(fù)荷水平,結(jié)果基于手繪草圖檢索苗族紋樣的各項(xiàng)眼動(dòng)指標(biāo),NASA-TLX平均分均低于文本檢索,可得出草圖檢索的認(rèn)知負(fù)荷是更低的;最后通過可視化實(shí)驗(yàn)的對(duì)比驗(yàn)證了通過草圖檢索的方式更適合于對(duì)苗繡紋樣進(jìn)行搜索。此外,也驗(yàn)證了眼動(dòng)追蹤和NASA-TLX具有相關(guān)性,能有效地進(jìn)行生理認(rèn)知負(fù)荷測量。

        [1] 王一鳴. 百年大變局,高質(zhì)量發(fā)展與構(gòu)建新發(fā)展格局[J]. 新華文摘, 2021(7): 7.WANG Y M. Century-Old Great Changes, High-Quality Development and Construction of New Development Pattern[J]. Xinhua Abstract, 2021(7): 7.

        [2] 緱蒙碩, 王巍衡. 苗族紋樣在視覺傳達(dá)設(shè)計(jì)中的運(yùn)用研究[J]. 鞋類工藝與設(shè)計(jì), 2023, 3(3): 76-78. GOU M S, WANG W H. Research on the Application of Miao Pattern in Visual Communication Design[J]. Shoes Technology and Design, 2023, 3(3): 76-78.

        [3] 李安娜, 梁燕. 基于聚類算法的黔東南苗族鳥紋刺繡圖案色彩特征研究[J]. 包裝工程, 2023, 44(24): 357- 366. LI A N, LIANG Y. Color Characteristics of Bird Pattern Embroidery of Miao in Qiandongnan Based on K-Means Clustering Algorithm[J]. Packaging Engineering, 2023, 44(24): 357-366.

        [4] 鄒悅, 潘偉杰, 呂健, 等. 基于多任務(wù)學(xué)習(xí)的蠟染紋樣圖案檢索方法[J]. 計(jì)算機(jī)工程與設(shè)計(jì), 2022, 43(4): 1052-1058. ZOU Y, PAN W J, LYU J, et al. Batik Pattern Retrieval Method Based on Multi-Task Learning[J]. Computer Engineering and Design, 2022, 43(4): 1052-1058.

        [5] 張茜, 劉驪, 付曉東, 等. 結(jié)合標(biāo)簽優(yōu)化和語義分割的服裝圖像檢索[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2020, 32(9): 1450-1465.ZHANG Q, LIU L, FU X D, et al. Clothing Image Retrieval by Label Optimization and Semantic Segmentation[J]. Journal of Computer-Aided Design & Computer Graphics, 2020, 32(9): 1450-1465.

        [6] DAI D W, TANG X Y, LIU Y G, et al. Multi-Granularity Association Learning for On-the-Fly Fine-Grained Sketch-Based Image Retrieval[J]. Knowledge-Based Systems, 2022, 253: 109447.

        [7] ZHANG X L, SHEN M L, LI X M, et al. A Deformable CNN-Based Triplet Model for Fine-Grained Sketch- Based Image Retrieval[J]. Pattern Recognition, 2022, 125: 108508.

        [8] XU P, LIU K, XIANG T, et al. Fine-Grained Instance- Level Sketch-Based Video Retrieval[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2021, 31(5): 1995-2007.

        [9] HUANG Y, MA C X, WANG H A. Exploring the Benefits of Text and Sketch in Video Retrieval of Complex Queries[C]// Proceedings of the 8th International Symposium on Visual Information Communication and Interaction. Tokyo: ACM, 2015.

        [10] 陳巧芬. 認(rèn)知負(fù)荷理論及其發(fā)展[J]. 現(xiàn)代教育技術(shù), 2007, 17(9): 16-19. CHEN Q F. Cognitive Load Theory and Its Development[J]. Modern Educational Technology, 2007, 17(9): 16-19.

        [11] 查先進(jìn), 黃程松, 嚴(yán)亞蘭, 等. 國外認(rèn)知負(fù)荷理論應(yīng)用研究進(jìn)展[J]. 情報(bào)學(xué)報(bào), 2020, 39(5): 547-556. ZHA X J, HUANG C S, YAN Y L, et al. Progress of Foreign Cognitive Load Theory Application Research[J]. Journal of the China Society for Scientific and Technical Information, 2020, 39(5): 547-556.

        [12] LEDNEVA T, KOVALEV A. Cognitive Load Measurement during Navigation and Information Retrieval in Digital Text[J]. Procedia Computer Science, 2021, 192: 2720-2730.

        [13] 孟榮華, 李子奇, 吳正佳, 等. 基于裝配任務(wù)與EEG功率信息特征的操作員認(rèn)知負(fù)荷研究[J]. 機(jī)械設(shè)計(jì), 2022, 39(11): 60-70.MENG R H, LI Z Q, WU Z J, et al. Study on Cognitive Load of Operators Based on Assembly Task and EEG Power Information Features[J]. Journal of Machine Design, 2022, 39(11): 60-70.

        [14] JADUE J, SLANZI G, SALAS L, et al. Web User Click Intention Prediction by Using Pupil Dilation Analysis[C]// 2015 IEEE/WIC/ACM International Conference on Web Intelligence and Intelligent Agent Technology (WI-IAT). Singapore: IEEE, 2015.

        [15] LI X M, LI X N, ZHANG J S. Longitudinal Reading Outcome and Cognitive Load in Individual-and Collaboration-Based Environments[J]. Interactive Learning Environments, 2023: 1-14.

        [16] BIONDI F N, SABERI B, GRAF F, et al. Distracted Worker: Using Pupil Size and Blink Rate to Detect Cognitive Load during Manufacturing Tasks[J]. Applied Ergonomics, 2023, 106: 103867.

        [17] HARADA Y, OHYAMA J. Quantitative Evaluation of Visual Guidance Effects for 360-Degree Directions[J]. Virtual Reality, 2022, 26(2): 759-770.

        [18] TSAI C H, HUANG J Y. Augmented Reality Display Based on User Behavior[J]. Computer Standards & Interfaces, 2018, 55: 171-181.

        [19] ARMOUGUM A, GASTON-BELLEGARDE A, JOIE- LA MARLE C, et al. Physiological Investigation of Cognitive Load in Real-Life Train Travelers during Information Processing[J]. Applied Ergonomics, 2020, 89: 103180.

        [20] YU Q, LIU F, SONG Y Z, et al. Sketch me that Shoe[C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas: IEEE, 2016.

        [21] KUHLTHAU C C. Inside the Search Process: Information Seeking from the User's Perspective[J]. Journal of the American Society for Information Science, 1991, 42(5): 361-371.

        [22] KRIEGLSTEIN F, BEEGE M, REY G D, et al. Development and Validation of a Theory-Based Questionnaire to Measure Different Types of Cognitive Load[J]. Educational Psychology Review, 2023, 35(1): 9.

        Comparative Study on Cognitive Load between Sketch-based and Text-based Retrieval for Miao Embroidery Patterns

        CHEN Jingxi, CHEN Yang*, WANG Ziao, PENG Li

        (Guizhou University, Guiyang 550025, China)

        The work aims to explore a more efficient way of retrieving Miao embroidery patterns by conducting a comparative study on the cognitive load during hand-drawn sketch retrieval and text-based retrieval processes. A cognitive load information retrieval model was constructed to experimentally compare the average cognitive load and required time across five cognitive stages. Eye-tracking metrics (such as dwell time, saccade amplitude, and pupil diameter) and NASA-TLX evaluations were employed to analyze the cognitive load of the two retrieval processes. Finally, visual eye-tracking data (heatmap and gaze path) were obtained to validate whether they met the requirements of the retrieval task. The graph retrieval method based on hand-drawn sketches is found to be more suitable for Miao embroidery pattern retrieval. The efficiency of sketch retrieval is validated through subjective and objective integrated comparative experiments. Additionally, the correlation between eye-tracking and NASA-TLX is confirmed, making them more effective for measuring cognitive load.

        sketch retrieval; cognitive load; eye-tracking; Miao embroidery pattern

        TB472

        A

        1001-3563(2024)04-0253-09

        10.19554/j.cnki.1001-3563.2024.04.027

        2023-09-22

        貴州省科技計(jì)劃項(xiàng)目(黔科合支撐【2021】一般396)

        猜你喜歡
        苗繡草圖眼動(dòng)
        基于湘西苗繡圖案的數(shù)字化設(shè)計(jì)創(chuàng)新研究
        包裝工程(2023年18期)2023-09-27 09:21:12
        苗繡元素在現(xiàn)代服裝設(shè)計(jì)中的應(yīng)用價(jià)值探析
        基于眼動(dòng)的駕駛員危險(xiǎn)認(rèn)知
        基于ssVEP與眼動(dòng)追蹤的混合型并行腦機(jī)接口研究
        載人航天(2021年5期)2021-11-20 06:04:32
        苗繡
        畫好草圖,尋找球心
        貴州苗繡中的魚形象與審美特征
        草圖
        國外翻譯過程實(shí)證研究中的眼動(dòng)跟蹤方法述評(píng)
        眼動(dòng)技術(shù)在數(shù)字媒體中的應(yīng)用
        出版與印刷(2014年4期)2014-12-19 13:10:39
        亚欧色一区w666天堂| 中文字幕丰满人妻有码专区| 欧美激情二区| 在线观看亚洲AV日韩A∨| 亚洲乱在线播放| 亚洲黄色一插一抽动态图在线看| 日本视频一中文有码中文| 亚洲综合精品亚洲国产成人| 欧美老妇交乱视频在线观看 | 日本中文字幕有码在线播放| 中文字幕久久久人妻人区| 亚洲精品无码高潮喷水a片软| 无码任你躁久久久久久| 国产成人v爽在线免播放观看| 国产一级淫片a免费播放口 | 97精品熟女少妇一区二区三区| 国产一级内射视频在线观看| 少妇性俱乐部纵欲狂欢电影| 中年熟妇的大黑p| 国产艳妇av在线出轨| 国产中文字幕亚洲综合| 日本一区二区三区人妻| 四川丰满妇女毛片四川话| 麻豆亚洲av永久无码精品久久| 久久久久亚洲AV无码专| 在线亚洲精品免费视频| 日本熟妇另类一区二区三区| 色综合久久精品亚洲国产| 性一乱一搞一交一伦一性| 大屁股少妇一区二区无码| 亚洲国产系列一区二区| 久久精品国产亚洲av麻豆图片| 中文字幕一区二区人妻| 国产精品亚洲ΑV天堂无码| 亚洲精品一区二区三区四区久久 | 无码国产精品色午夜| 中文字幕人妻互换av| 亚洲乱码中文字幕久久孕妇黑人| 亚洲国产av一区二区三区四区| 精品综合久久久久久99| 国产在线精品成人一区二区三区|