亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向產(chǎn)品形態(tài)認(rèn)知的圖像灰度評價研究

        2023-11-18 00:40:08石懷喜張書濤
        美與時代·上 2023年10期

        石懷喜 張書濤

        摘? 要:探尋適合產(chǎn)品調(diào)研的圖像灰度區(qū)間,提高產(chǎn)品形態(tài)意象獲取準(zhǔn)確度。以吹風(fēng)機(jī)為研究對象,對人眼灰度敏感區(qū)間(中灰度76-180)進(jìn)行分割細(xì)化,基于眼動追蹤技術(shù)量化產(chǎn)品圖像認(rèn)知與圖像灰度的映射關(guān)系。利用相對貼近度計算獲取產(chǎn)品圖像認(rèn)知最優(yōu)灰度區(qū)間,以及合適的灰度劃分區(qū)間。研究表明,圖像灰度以步長20劃分時,灰度對產(chǎn)品意象認(rèn)知的影響較大;圖像灰度在區(qū)間146-165時,圖像信息清晰,被試意象加工順暢,大腦認(rèn)知負(fù)荷較小。這一研究可為產(chǎn)品形態(tài)意象研究中的圖像灰度處理提供理論指導(dǎo)。

        關(guān)鍵詞:圖像灰度;產(chǎn)品認(rèn)知;意象決策;產(chǎn)品形態(tài);眼動追蹤

        產(chǎn)品設(shè)計從以市場為中心轉(zhuǎn)換為以用戶為中心,同時用戶通常對形態(tài)識別度高的產(chǎn)品更加青睞[1],因此,針對新產(chǎn)品的開發(fā)設(shè)計需要充分考慮用戶的意象需求。為了準(zhǔn)確挖掘產(chǎn)品的形態(tài)意象,在產(chǎn)品形態(tài)調(diào)研過程中,通常采用對樣本直接去色的方式避免色彩、材質(zhì)等因素的影響。由于色彩明度不同,去色后的圖像灰度也存在差異。當(dāng)色彩明度較低時,去色后灰度較低;當(dāng)色彩明度較高時,去色后灰度較高。

        彩色圖像轉(zhuǎn)換灰度圖像,其實(shí)質(zhì)是將三通道彩色圖像信息壓縮、提取、降噪,降維成單通道黑白圖像[2]。人類視覺對不同灰度的敏感程度不同,通常對中等灰度最為敏感。實(shí)際應(yīng)用中,將256級圖像灰度分為高、中、低三個灰度區(qū)間[3]:0-75為低灰度,76-180為中灰度,181-256為高灰度[4]。在圖像灰度處理中發(fā)現(xiàn),在中灰度(76-180)區(qū)間內(nèi),灰度差異會顯著影響圖像認(rèn)知的準(zhǔn)確性。

        人類對外界信息的獲取與認(rèn)知,80%通過視覺輸入,再經(jīng)大腦中的多種高級功能進(jìn)行加工,因此眼動追蹤(Eye-tracking,ET)成為獲取用戶認(rèn)知信息的有效手段[5]。例如,李珍等基于心理學(xué)角度,通過測量被試的首次注視持續(xù)時間、首次注視時間、注視總次數(shù)、平均瞳孔直徑四項(xiàng)眼動指標(biāo)數(shù)據(jù),運(yùn)用綜合賦權(quán)法對各指標(biāo)進(jìn)行加權(quán)處理,最終獲得用戶需求[6]。王新亭等利用眼動追蹤技術(shù)采集設(shè)計師閱讀任務(wù)文本、創(chuàng)作草圖時的眼動數(shù)據(jù),發(fā)現(xiàn)設(shè)計師自身經(jīng)驗(yàn)與信息資源調(diào)用的數(shù)量、維度、回視次數(shù)和方案質(zhì)量成正比,與作業(yè)時間和評判準(zhǔn)確度成反比[7]。

        為了提高產(chǎn)品意象認(rèn)知的準(zhǔn)確性,本文面向產(chǎn)品圖像認(rèn)知評價中的圖像灰度設(shè)計問題,以吹風(fēng)機(jī)圖像為刺激樣本,在中灰度區(qū)間(76-180)以10為灰度步長設(shè)計刺激樣本,采用眼動追蹤技術(shù)獲取產(chǎn)品圖像認(rèn)知過程中的被試眼動數(shù)據(jù),分析圖像灰度與視覺認(rèn)知的映射關(guān)系,獲取產(chǎn)品圖像認(rèn)知的最優(yōu)灰度區(qū)間,為產(chǎn)品形態(tài)認(rèn)知調(diào)研過程中的圖像灰度處理提供客觀的理論支撐。

        一、面向產(chǎn)品認(rèn)知的圖像灰度評價方法

        本文基于人眼視覺灰度特性設(shè)計產(chǎn)品圖像灰度評價實(shí)驗(yàn),利用眼動追蹤技術(shù)測量圖像灰度與產(chǎn)品認(rèn)知的關(guān)系,獲得產(chǎn)品評價的最優(yōu)灰度區(qū)間。產(chǎn)品圖像灰度評價流程如圖1所示,主要包括三部分內(nèi)容:1.基于人類視覺特性的產(chǎn)品圖像灰度認(rèn)知實(shí)驗(yàn);2.產(chǎn)品圖像灰度眼動數(shù)據(jù)處理;3.最優(yōu)產(chǎn)品圖像灰度分析。

        (一)產(chǎn)品圖像灰度認(rèn)知實(shí)驗(yàn)

        首先,收集并篩選代表性意象詞匯和代表性樣本,利用SD問卷獲取代表性樣本意象值并對樣本分類,然后根據(jù)中灰度(76-180)以10為步長設(shè)計實(shí)驗(yàn)刺激樣本,最后以意象詞匯為啟動刺激,實(shí)驗(yàn)樣本為目標(biāo)刺激進(jìn)行產(chǎn)品圖像灰度認(rèn)知評價實(shí)驗(yàn)。實(shí)驗(yàn)過程中,被試根據(jù)播放的目標(biāo)刺激判斷其是否與對應(yīng)的啟動刺激(意象詞語)匹配。實(shí)驗(yàn)過程中,應(yīng)用ErgoLAB軟件記錄反應(yīng)時間和眼動數(shù)據(jù)。

        (二)灰度評價模型構(gòu)建

        為了獲取精確的生理測量數(shù)據(jù),減少粗大誤差對實(shí)驗(yàn)結(jié)果的影響,采用拉伊達(dá)準(zhǔn)則(1)和判定公式(2)篩選并剔除粗大誤差數(shù)據(jù)[8]。

        其中:為觀測值的算數(shù)平均值,σ為標(biāo)準(zhǔn)差給定參數(shù),Rc為殘差,為觀測估計值,c為觀測次數(shù)。

        令被試集合為B={b1,b2,…,bn},圖像灰度區(qū)間集合為 ,其中n表示被試人數(shù),h為圖像灰度區(qū)間數(shù),δ為灰度區(qū)間步長。

        1.圖像灰度用戶行為評價模型

        被試(b1,b2,…,bn)依次對灰度進(jìn)行評價的反應(yīng)時間集合為:

        灰度的綜合值為

        每個灰度區(qū)間的綜合值為

        2.圖像灰度眼動測試評價模型

        通過ErgoLAB記錄的眼動數(shù)據(jù),以不同的圖像灰度區(qū)間進(jìn)行劃分,獲得眼動指標(biāo)數(shù)據(jù):

        式中:為被試bn對樣本灰度的各項(xiàng)眼動指標(biāo)數(shù)據(jù),E={e1,e2,…,el}為眼動指標(biāo)。

        所有被試圖像灰度區(qū)間false的眼動綜合值為

        每個圖像灰度區(qū)間的眼動數(shù)據(jù)綜合值為

        3.圖像灰度評價綜合模型

        綜合產(chǎn)品圖像灰度評價的行為數(shù)據(jù)和眼動數(shù)據(jù),構(gòu)建圖像灰度綜合評價模型為

        二、基于案例的圖像灰度評價實(shí)驗(yàn)

        (一)樣本及意象篩選

        通過網(wǎng)絡(luò)收集吹風(fēng)機(jī)圖片,并邀請5位專家對樣本篩選,獲得代表性樣本50個。邀請6位專家討論并篩選出20個與吹風(fēng)機(jī)形態(tài)強(qiáng)相關(guān)的意象詞語。通過網(wǎng)絡(luò)發(fā)放問卷對20個意象詞語進(jìn)行詞相似度調(diào)研,通過K-means聚類得到代表性詞語“可愛的”“時尚的”“舒適的”“簡潔的”。對代表性詞語進(jìn)行反義詞配對得到“呆板的-可愛的”“傳統(tǒng)的-時尚的”“生硬的-舒適的”“繁雜的-簡潔的”。通過網(wǎng)絡(luò)發(fā)放5級調(diào)查問卷對樣本進(jìn)行意象調(diào)研,共有40位被試參與調(diào)查,均為產(chǎn)品設(shè)計方向研究生,樣本的感性意象值見表1。

        (二)實(shí)驗(yàn)材料

        以10為步長分割人眼灰度敏感區(qū)間(中灰度76-180)。但在實(shí)際操作過程發(fā)現(xiàn),樣本顏色較深時,去色后灰度可以達(dá)到70,經(jīng)專家討論,將灰度區(qū)間設(shè)置為65-185。為確保實(shí)驗(yàn)的準(zhǔn)確性,同時設(shè)置45-55和195-205作為參考灰度區(qū)間,共14個灰度區(qū)間。為了便于實(shí)驗(yàn)實(shí)施,取灰度區(qū)間中間值進(jìn)行樣本灰度處理,灰度值分別為:70、80、90、100、110、120、130、140、150、160、170、180。依據(jù)表1樣本的感性意象評價值,每對意象詞語選擇3個吹風(fēng)機(jī)樣本,共4×3=12個樣本。以意象詞語“繁雜的-簡潔的”為例,分別選擇極端繁雜的、中性的和極端簡潔的樣本各1個。應(yīng)用Solidworks軟件對12個樣本重新建模,依據(jù)12個灰度值,用Keyshot軟件渲染模型,用Photoshop軟件矯正圖像灰度,灰度誤差為±1,共有12×14=168個樣本(如圖2)。實(shí)驗(yàn)采用“啟動刺激”與“目標(biāo)刺激”范式[9],以4對意象詞語作為啟動刺激材料,以吹風(fēng)機(jī)樣本作為目標(biāo)刺激材料。為降低被試認(rèn)知差異對實(shí)驗(yàn)準(zhǔn)確度的影響,設(shè)計意象看板[10]對被試進(jìn)行認(rèn)知引導(dǎo),意象看板見圖3。

        (三)實(shí)驗(yàn)過程

        本次實(shí)驗(yàn)共招募31名設(shè)計專業(yè)的學(xué)生作為被試,其中男生16人,女生15人。被試年齡在19-28歲之間,均為右利手,身體健康,能夠清晰觀察到屏幕呈現(xiàn)的實(shí)驗(yàn)材料。實(shí)驗(yàn)前由主試向被試闡述實(shí)驗(yàn)內(nèi)容,且被試簽署實(shí)驗(yàn)知情同意書。實(shí)驗(yàn)使用ErgoLAB Design實(shí)驗(yàn)設(shè)計模塊進(jìn)行實(shí)驗(yàn)程序的編寫與實(shí)驗(yàn)流程的控制;采用Tobii Pro Fusion非接觸/移動終端眼動儀采集眼動信號,并結(jié)合ErgoLAB Eye-tracking眼動軌跡分析模塊分析眼動數(shù)據(jù)。

        實(shí)驗(yàn)準(zhǔn)備階段,主試為被試講解意象看板,以降低被試認(rèn)知差異引起的實(shí)驗(yàn)誤差。被試?yán)斫鈱?shí)驗(yàn)內(nèi)容后,進(jìn)行眼動儀校準(zhǔn),并開始實(shí)驗(yàn)。實(shí)驗(yàn)具體操作步驟如下:首先,屏幕中央呈現(xiàn)1000ms的“+”注視頁,引導(dǎo)被試注視;隨后,呈現(xiàn)啟動刺激(意象詞語)2000ms;之后,呈現(xiàn)白屏1000ms;最后,呈現(xiàn)目標(biāo)刺激(樣本圖片)。目標(biāo)刺激呈現(xiàn)時間為被試意象決策時間,被試需要完成意象判斷,1為極端不匹配、2為不匹配、3為適中、4為匹配、5為極端匹配。被試根據(jù)匹配度在鍵盤按對應(yīng)的數(shù)字,決策完成后進(jìn)入下一個試次。實(shí)驗(yàn)中每個樣本針對含義相反的2個形容詞,各觀測1次,共168×2=336個試次。為了保證實(shí)驗(yàn)準(zhǔn)確性,避免被試疲勞引發(fā)的誤差,每進(jìn)行90個試次,休息3min,實(shí)驗(yàn)預(yù)計用時53min,實(shí)驗(yàn)流程如4圖所示。

        三、實(shí)驗(yàn)分析

        (一)行為數(shù)據(jù)分析

        為了消除個體認(rèn)知差異引起的實(shí)驗(yàn)誤差,篩除誤差較大的反應(yīng)時間。首先將數(shù)據(jù)帶入公式(1)和(2)去除粗大誤差,然后利用公式(3)(4)和(5)計算得所有圖像灰度的綜合反應(yīng)時間值,如表2所示。

        (二)眼動數(shù)據(jù)分析

        本文采用ErgoLAB人機(jī)環(huán)境同步測試云平臺導(dǎo)出眼動特征數(shù)據(jù)。將數(shù)據(jù)帶入公式(1)和(2)去除粗大誤差,將去除粗大誤差的數(shù)據(jù)帶入公式(6)(7)和(8),得出所有圖像灰度的綜合眼動指標(biāo)值見表3。對眼動指標(biāo)進(jìn)行相關(guān)性分析,發(fā)現(xiàn)總注視時間(相關(guān)系數(shù)為-0.22)、平均注視時間(相關(guān)系數(shù)為-0.612)、平均掃視次數(shù)(相關(guān)系數(shù)為-0.06)與圖像灰度區(qū)間呈負(fù)相關(guān)。

        表3 各圖像灰度下的眼動指標(biāo)值

        (三)綜合評價矩陣構(gòu)建

        將被試行為數(shù)據(jù)、眼動數(shù)據(jù)和腦電數(shù)據(jù)帶入公式(9),得到反應(yīng)時間W和眼動數(shù)據(jù)Y的綜合圖像灰度評價結(jié)果:

        (四)相對貼近度分析

        為了對各圖像灰度區(qū)間進(jìn)行全面評價,在不同維度評價指標(biāo)下分析各個灰度區(qū)間對產(chǎn)品形態(tài)意象認(rèn)知的貢獻(xiàn)優(yōu)劣,下面在各個維度指標(biāo)下進(jìn)行相對貼近度計算和分析。具體步驟如下:

        步驟1:計算各個評價指標(biāo)下的最優(yōu)值和最劣值。

        其中,fi為第i個評價指標(biāo),i=1,2,3,…,α;為第j個產(chǎn)品圖像灰度,j=1,2,3,…,β。將綜合評價結(jié)果的數(shù)據(jù)分別帶入公式(10)和公式(11)中,得各個評價指標(biāo)的最優(yōu)值和最劣值見表4。

        表4 各圖像灰度在不同維度下的最優(yōu)值和最劣質(zhì)

        步驟2:計算評價值到最優(yōu)值和最劣值的距離。

        式中:和分別為第j個圖像灰度區(qū)間的第i個評價指標(biāo)與最優(yōu)值和最劣值的距離。將綜合數(shù)據(jù)帶入公式(12)和公式(13),可得各圖像灰度評價值到最優(yōu)值與最劣值的距離見表5、表6。

        步驟3:計算各圖像灰度的相對貼近度,作為圖像灰度的評價依據(jù)。

        式中:。將表6數(shù)據(jù)帶入公式(14)計算各圖像灰度評價值與最優(yōu)值的相對貼近度見圖5。

        從圖5發(fā)現(xiàn),當(dāng)灰度區(qū)間δ=10時,各圖像灰度評價值與最優(yōu)值的相對貼近度與圖像灰度之間未呈現(xiàn)出明顯關(guān)系,這可能與圖像灰度區(qū)間劃分步長取值較小有關(guān)。因此,將圖像灰度區(qū)間(65-185)的步長δ取值為20,區(qū)間45-55和195-205仍為參考灰度區(qū)間。以圖像灰度區(qū)間65-85為例,計算圖像灰度區(qū)間65-75和76-85各指標(biāo)評價值的均值,作為圖像灰度區(qū)間65-85在各指標(biāo)下的圖像灰度評價值。共計8個圖像灰度區(qū)間(h110=h45-5510,h120=h65-8520,h220=h86-10520,…,h620=h166-18520,h1410=h195-20510)。計算得出各評價值與最優(yōu)值的相對貼近度見圖6。

        通過統(tǒng)計分析發(fā)現(xiàn),將實(shí)驗(yàn)圖像灰度區(qū)間設(shè)置為20時,灰度圖像對產(chǎn)品形態(tài)認(rèn)知影響顯著。對四個評價指標(biāo)分析發(fā)現(xiàn),四個評價指標(biāo)的灰度評價值與最優(yōu)值的相對貼近度值都在區(qū)間146-165達(dá)到最優(yōu)值,在區(qū)間146-165兩端,灰度評價值與最優(yōu)值的相對貼近度值向低灰度和高灰度呈非線性下降。圖像灰度從45到146,隨著灰度的升高,產(chǎn)品形態(tài)特征越來越清晰,視覺神經(jīng)捕捉產(chǎn)品形態(tài)特征越來越容易,大腦的認(rèn)知負(fù)荷變小,用戶產(chǎn)品形態(tài)意象認(rèn)知投入的心理資源減少;圖像灰度從165到205,隨著灰度的升高,產(chǎn)品形態(tài)特征越來越模糊,視覺神經(jīng)受到抑制,產(chǎn)品形態(tài)意象判斷需要更多的認(rèn)知資源,用戶認(rèn)知負(fù)荷變大。在區(qū)間146-165,產(chǎn)品形態(tài)特征清晰,視覺神經(jīng)處于活躍狀態(tài),產(chǎn)品形態(tài)認(rèn)知加工順暢。

        四、結(jié)語

        為了準(zhǔn)確獲取用戶的產(chǎn)品形態(tài)意象偏好,去排除色彩、材質(zhì)等因素對圖像認(rèn)知影響的情況下,本文以吹風(fēng)機(jī)為研究對象,在中灰度(76-180)以10為步長設(shè)計刺激樣本,基于眼動技術(shù)探究圖像灰度與產(chǎn)品認(rèn)知評價的映射關(guān)系。通過實(shí)驗(yàn)發(fā)現(xiàn),當(dāng)圖像灰度區(qū)間以20為步長劃分時,圖像灰度視覺認(rèn)知差異明顯,灰度對產(chǎn)品認(rèn)知評價的影響較大。圖像灰度在區(qū)間146-165時,圖像信息明晰,有利于視覺神經(jīng)獲取產(chǎn)品信息,促進(jìn)大腦對產(chǎn)品的認(rèn)知決策。本研究可為產(chǎn)品形態(tài)意象研究中的圖像灰度處理提供理論指導(dǎo)。同時,實(shí)驗(yàn)采用二維的產(chǎn)品圖像作為刺激材料,后續(xù)研究可以采用VR虛擬現(xiàn)實(shí)技術(shù),從三維視角開展相關(guān)研究。

        參考文獻(xiàn):

        [1]楊程,曾靜,陳辰,等.基于腦電探究外觀特征對產(chǎn)品識別的影響[J].同濟(jì)大學(xué)學(xué)報(自然科學(xué)版),2020(9):1385-1394.

        [2]張俊康,金正猛,馮燦.基于原始對偶方法的圖像去色算法[J].南京郵電大學(xué)學(xué)報(自然科學(xué)版),2021(4):51-58.

        [3]于天河,趙樹梅,蘭朝鳳.結(jié)合視覺特性的紅外圖像增強(qiáng)方法[J].激光與紅外,2020(1):124-128.

        [4]Chen SB,Wang HY.A fragile information hiding technique based on human visual gray sensitivity[J].Advanced Materials Research,2010(121):1048-1051.

        [5]Ilhan AE,Togay A.Pursuit of methodology for data input related to taste in design: Using eye tracking technology[J].DISPLAYS,2023(76):102335

        [6]李珍,茍秉宸,初建杰,等.一種基于眼動追蹤的產(chǎn)品用戶需求獲取方法[J].計算機(jī)工程與應(yīng)用,2015(9):233-237.

        [7]王新亭,鄧瑋丹.基于眼部追蹤技術(shù)的產(chǎn)品意象草圖認(rèn)知差異研究[J].計算機(jī)輔助設(shè)計與圖形學(xué)學(xué)報,2019(2):287-294.

        [8]郭主恩,林麗,陽明慶,等.基于無意識多模態(tài)內(nèi)隱測量的產(chǎn)品意象提取模型構(gòu)建[J].計算機(jī)集成制造系統(tǒng),2022(4):1150-1163.

        [9]鄭曉丹,岳珍珠.跨通道語義啟動對視覺注意的影響[J].心理科學(xué),2022(6):1329-1336.

        [10]Gijsenij A,Vazirian M,Spiers P,et al.Determining key colors from a design perspective using dE-means color clustering[J].COLOR RESEARCH AND APPLICATION,2023(1):69-87.

        作者簡介:

        石懷喜,蘭州理工大學(xué)設(shè)計學(xué)碩士研究生。

        張書濤,蘭州理工大學(xué)設(shè)計藝術(shù)學(xué)院教授、碩士研究生導(dǎo)師。研究方向:工業(yè)設(shè)計、感性工學(xué)。

        国产又黄又爽视频| 久久精品国产免费一区二区三区| 极品粉嫩嫩模大尺度视频在线播放| 风骚人妻一区二区三区| 日日摸夜夜添夜夜添高潮喷水| 国产草草影院ccyycom| 射死你天天日| 久久精品国产精品青草色艺 | 亚洲精品视频久久 | 波多野吉衣av无码| 男女一级毛片免费视频看| 亚洲国产精品综合福利专区| 精品国产车一区二区三区| 海外华人在线免费观看| 丝袜人妻一区二区三区| 97精品国产97久久久久久免费| 毛茸茸的中国女bbw| 国产91福利在线精品剧情尤物| 爆乳午夜福利视频精品| 蜜桃av一区二区三区久久| 黄色国产一区二区99| 欧美牲交a欧美牲交aⅴ| 欧美 丝袜 自拍 制服 另类 | 欧美精品aaa久久久影院| 91在线视频视频在线| 国产夫妻精品自拍视频| 国产av无码专区亚洲av麻豆| 国产日产欧产精品精品| 日韩精品人妻系列无码专区免费 | 亚洲精品久久久久久久不卡四虎 | 青青草视频网站免费看| 蜜桃传媒网站在线观看| 十八禁视频网站在线观看| 俄罗斯老熟妇色xxxx| 久久青青热| 国产精品美女久久久久久久| 国产欧美日韩视频一区二区三区 | 欧美日韩中文亚洲另类春色| 二区三区视频在线观看| 一区二区三区日韩精品视频| 日本成本人片视频免费|