王偉晗 曹斐臻,2 余林偉 曾 珂 楊鑫超 徐 強(qiáng)
群體信息對面部表情識別的影響*
王偉晗1曹斐臻1,2余林偉1曾 珂3楊鑫超1徐 強(qiáng)1
(1寧波大學(xué)心理學(xué)系暨研究所, 浙江 寧波 315211) (2華南師范大學(xué)心理學(xué)院, 廣州 510631) (3中山大學(xué)心理學(xué)系, 廣州 510006)
本研究通過3個(gè)實(shí)驗(yàn)探討群體信息對面部表情識別的影響。結(jié)果發(fā)現(xiàn):(1)周圍面孔的情緒狀態(tài)影響個(gè)體對目標(biāo)面孔情緒的識別, 兩者情緒一致時(shí)的反應(yīng)時(shí)顯著短于不一致時(shí)的反應(yīng)時(shí), 且面部表情識別準(zhǔn)確性更高。(2)群體信息會調(diào)節(jié)周圍面孔情緒對目標(biāo)面孔的影響, 進(jìn)而影響面部表情識別。具體而言, 群體條件下, 個(gè)體對目標(biāo)面部表情的識別受到周圍面孔情緒狀態(tài)的影響, 相比周圍面孔情緒與目標(biāo)面孔情緒不一致, 兩者情緒一致時(shí), 即符合個(gè)體基于知覺線索建立的群體成員情緒具有一致性的預(yù)期, 面部表情識別的準(zhǔn)確性更高、速度更快; 而非群體條件下, 個(gè)體則不受周圍面孔情緒狀態(tài)的影響。研究結(jié)果表明, 個(gè)體能夠基于互動人物之間的社會關(guān)系識別面孔情緒, 群體存在時(shí), 會建立群體成員情緒具有一致性的預(yù)期, 進(jìn)而影響面部表情識別。
面部表情, 群體信息, 情緒識別, 情緒一致性, 預(yù)期
情緒產(chǎn)生于個(gè)體與他人的互動中, 面部表情的準(zhǔn)確識別對社會交互過程影響重大(Keltner & Haidt, 1999; van Kleef, 2009)。以往研究大多基于情緒類別理論(Ekman, 1993), 孤立呈現(xiàn)面部表情, 以探討個(gè)體對面部表情的加工過程(Adolphs, 2002; Susskind et al., 2007)。近年來研究發(fā)現(xiàn), 個(gè)體對面部表情的識別不僅依賴面孔構(gòu)型信息, 場景、身體姿勢、語言文字、面孔等情境信息也是面部表情識別的重要線索(Aviezer et al., 2008; Gray et al., 2017; Lindquist & Gendron, 2013; Mumenthaler & Sander, 2012; Wieser & Brosch, 2012)?,F(xiàn)實(shí)生活中, 個(gè)體往往是在社會互動過程中完成對他人面部表情的識別, 群體信息作為社會互動的情境, 是否以及如何影響面部表情識別尚不清晰。因此, 本研究擬探討群體信息對面部表情識別的影響。
大量研究表明, 個(gè)體對面部表情的識別并不是孤立的, 來自面孔外部的情境信息同樣在面部表情識別中發(fā)揮著重要作用(Cao et al., 2023; Gray et al., 2017; Lindquist & Gendron, 2013; Mumenthaler & Sander, 2012; Wieser & Brosch, 2012), 即面部表情識別的情境效應(yīng)(context effects), 具體表現(xiàn)為情境與面孔情緒一致時(shí)的促進(jìn)作用及不一致時(shí)的阻礙作用(Aviezer et al., 2008; 李婉悅等, 2020; 徐強(qiáng)等, 2014)。現(xiàn)實(shí)互動過程中, 面孔往往伴隨著群體情境出現(xiàn)。以往有研究探討了群體面孔的情緒信息對群體中目標(biāo)面孔情緒加工的影響(Griffiths et al., 2018), 結(jié)果發(fā)現(xiàn), 個(gè)體在編碼目標(biāo)面孔情緒的同時(shí), 也會對群體情緒進(jìn)行編碼, 進(jìn)而影響個(gè)體對目標(biāo)面孔情緒強(qiáng)度的記憶, 即偏向群體平均情緒強(qiáng)度。例如, 當(dāng)個(gè)體觀察到一個(gè)略微生氣的人和一群更生氣的人處在一起時(shí), 其對目標(biāo)人物情緒狀態(tài)的記憶將比實(shí)際狀況更生氣, 且這一效應(yīng)也存在于面孔吸引力評價(jià)中(Carragher et al., 2021; Walker & Vul, 2013; Ying et al., 2019)。上述研究表明, 群體面孔的整體表征能夠影響個(gè)體對群體中目標(biāo)面孔的信息編碼, 反映了個(gè)體對群體面孔的整合加工。然而并未有研究從不同群體屬性的角度出發(fā), 探討群體信息對面部表情識別的具體影響。
群體作為一個(gè)動態(tài)的社會結(jié)構(gòu), 由群體成員(個(gè)體)組成(Vuk?i?-Mihaljevi? & Mandi?, 2001), 個(gè)體的行為往往是其與社會情境中其他個(gè)體共同交互的結(jié)果。研究發(fā)現(xiàn), 觀察者不僅可以依據(jù)刻板印象形成群體信息(Yzerbyt & Demoulin, 2010), 也能基于社會個(gè)體的空間接近性、相似性、共同命運(yùn)等形成知覺整體的線索(Campbell, 1958), 產(chǎn)生群體存在性與邊界的認(rèn)識, 進(jìn)而感知群體信息(Morewedge et al., 2013; Sweeny et al., 2013; 徐浩等, 2019), 且這種對群體信息的知覺能力在個(gè)體早期生命階段就已存在(Powell & Spelke, 2013), 表明人類具備通過知覺線索提取群體信息的能力。有研究發(fā)現(xiàn), 基于知覺線索形成的群體信息在個(gè)體的認(rèn)知加工中起著重要作用。Dang等人(2018)通過操縱群體成員的空間臨近性和相似性提供群體信息, 發(fā)現(xiàn)被試認(rèn)為屬于同一群體的成員更溫暖且有能力。徐浩等人(2019)也發(fā)現(xiàn), 基于知覺線索形成的群體認(rèn)識, 促使個(gè)體建立了群體成員行為具有一致性的預(yù)期。以上證據(jù)表明, 基于知覺線索形成的群體信息會影響個(gè)體的認(rèn)知加工過程?;诖? 面部表情識別作為個(gè)體認(rèn)知加工中極其重要的一方面, 本研究預(yù)期群體信息會對個(gè)體識別面部表情產(chǎn)生影響。
此外, 本研究進(jìn)一步探討的問題是, 群體信息以何種方式影響面部表情的識別?以往研究發(fā)現(xiàn), 當(dāng)個(gè)體與群體內(nèi)成員互動時(shí), 能夠根據(jù)群體內(nèi)其他成員的已知屬性推測該成員的未知屬性, 認(rèn)為該成員也具有這一屬性(徐浩等, 2019)。此外, 當(dāng)觀察者預(yù)測群體中的個(gè)體行為時(shí), 往往對其作出與群體內(nèi)其他成員一致的推斷(Todd et al., 2012)。那么在面部表情識別中, 群體內(nèi)其他面孔的情緒狀態(tài)是否也會影響個(gè)體識別目標(biāo)面孔情緒?即群體存在時(shí), 個(gè)體也會根據(jù)周圍其他成員的情緒狀態(tài)推測目標(biāo)面孔的情緒, 反之則不會。有研究為該問題提供了支撐。Mumenthaler和Sander (2012)的研究發(fā)現(xiàn), 當(dāng)周圍面孔的注視方向指向目標(biāo)面孔時(shí), 表示其對目標(biāo)面孔的社會評價(jià), 不僅增強(qiáng)了情緒一致性效應(yīng), 且當(dāng)周圍面孔情緒與目標(biāo)面孔情緒存在功能關(guān)聯(lián)時(shí), 識別目標(biāo)面孔的準(zhǔn)確性提升。該研究表明個(gè)體會利用兩者之間的聯(lián)系來判斷目標(biāo)面孔的情緒。之后, Mumenthaler等人(2018)通過改變周圍人物的頭部轉(zhuǎn)向來操縱其與目標(biāo)人物之間的聯(lián)系, 發(fā)現(xiàn)只有當(dāng)周圍人物轉(zhuǎn)向目標(biāo)人物且兩者情緒一致時(shí), 觀察者才會對目標(biāo)人物的情緒做出更快的判斷。Gray等人(2017)也通過頭部轉(zhuǎn)向操縱目標(biāo)人物與周圍人物的互動, 得到了類似的結(jié)果。研究者認(rèn)為, 這是因?yàn)閭€(gè)體利用周圍人物的情緒狀態(tài)推理目標(biāo)面孔情緒, 且這種推理只發(fā)生在二者存在一定的社會互動關(guān)系時(shí)。同樣, 當(dāng)個(gè)體知覺到周圍面孔與目標(biāo)面孔屬于同一群體時(shí), 群體中其他成員的情緒狀態(tài)可能會影響其對目標(biāo)面孔情緒的判斷。因此, 本研究預(yù)期, 群體信息能夠調(diào)節(jié)周圍面孔情緒對目標(biāo)面孔的影響, 進(jìn)而影響面部表情識別。
綜上所述, 本研究假設(shè):群體信息會調(diào)節(jié)周圍面孔情緒狀態(tài)對目標(biāo)面孔的影響, 進(jìn)而影響面部表情識別。具體而言, 群體條件下, 周圍面孔的情緒狀態(tài)會影響個(gè)體對目標(biāo)面孔情緒的判斷, 產(chǎn)生情緒識別的情境效應(yīng), 即相比兩者情緒不一致時(shí), 情緒一致時(shí)的表情識別準(zhǔn)確性更高、反應(yīng)速度更快; 而非群體條件下, 周圍面孔的情緒狀態(tài)則不會影響個(gè)體對目標(biāo)面孔情緒的判斷。
2.1.1 被試
使用G*power 3.1計(jì)算研究所需樣本量(Faul et al., 2007), 設(shè)置參數(shù)為:被試內(nèi)重復(fù)測量方差分析, 效應(yīng)量= 0.25, 統(tǒng)計(jì)檢驗(yàn)力1 ? β = 0.9, ɑ = 0.05, 測量次數(shù) = 6, 計(jì)算得到樣本量為24人, 實(shí)際招募29名大學(xué)生被試(女性16名, 平均年齡為20 ± 1.8歲)參加實(shí)驗(yàn)。所有被試母語均為漢語, 視力或矯正視力正常, 無色弱色盲, 均為右利手, 無精神病史。實(shí)驗(yàn)前, 所有被試均閱讀和簽署了實(shí)驗(yàn)知情同意書, 完成實(shí)驗(yàn)后可獲得一定的報(bào)酬。
2.1.2 實(shí)驗(yàn)刺激與設(shè)備
面部表情圖片選自Nimstim圖片系統(tǒng)(Tottenham et al., 2009), 其中快樂、恐懼、中性面部表情圖片各15張(8男7女)。圖片統(tǒng)一采用 PhotoShop CS6軟件進(jìn)行黑白處理, 匹配圖片大小、明暗度和對比度。所有面孔材料去除其頭發(fā)、耳朵等, 僅保留面孔內(nèi)特征(如眼鼻口、臉頰等)。31名未參與正式實(shí)驗(yàn)的被試對面部表情圖片的效價(jià)(1 = 非常消極, 9 = 非常積極)和喚醒度(1 = 非常平靜, 9 = 非常激動)進(jìn)行1~9點(diǎn)評分。結(jié)果表明, 快樂、恐懼面孔圖片的效價(jià)差異顯著(快樂= 6.71,= 0.88; 恐懼= 3.80,= 1.48;(29) = 8.05,< 0.001), 喚醒度差異不顯著(快樂= 6.22,= 1.29; 恐懼= 5.89,= 1.51;(29) =1.77,= 0.09), 符合實(shí)驗(yàn)要求。
通過Photoshop制作不同顏色的三角形作為人物身體, 具體為紅色(RGB: 255, 0, 0)、綠色(RGB: 0, 255, 0)、藍(lán)色(RGB: 0, 0, 255)。實(shí)驗(yàn)程序中, 所有身體與面孔自行拼接。實(shí)驗(yàn)刺激呈現(xiàn)在24英寸LED顯示器(BenQ XL2430-b)上, 垂直刷新頻率為60 Hz,被試與屏幕距離約70 cm。
2.1.3 實(shí)驗(yàn)設(shè)計(jì)
采用2 (面部表情:快樂、恐懼) × 3 (群體線索:群體、非群體、控制)的被試內(nèi)實(shí)驗(yàn)設(shè)計(jì)。因變量是由滑塊評分計(jì)算得到的一致性指數(shù)(Congruence index)和辨別指數(shù)(Discrimination index)。一致性指數(shù)和辨別指數(shù)的計(jì)算參考了Cristinzio等人(2010)以及Mumenthaler和Sander (2012)的研究。具體而言, 一致性指數(shù)通過計(jì)算“正確”面部表情的評分得出, 以快樂面部表情的某一個(gè)試次為例, 僅計(jì)算被試在情緒量表的“快樂”維度的評分; 辨別指數(shù)通過計(jì)算“正確”面部表情的評分減去其他“不正確”面部表情評分的平均值得出, 以快樂面部表情的某一個(gè)試次為例, 首先計(jì)算被試在情緒量表的“快樂”維度的評分, 再計(jì)算其他五個(gè)維度(憤怒、驚訝、恐懼、悲傷、厭惡)評分的平均值, 快樂維度的評分減去其他五個(gè)維度評分的平均值, 即為該試次中被試的辨別指數(shù)。一致性指數(shù)和辨別指數(shù)能夠更好地描述不同實(shí)驗(yàn)設(shè)置下, 被試判斷目標(biāo)面孔情緒的準(zhǔn)確性, 即一致性指數(shù)和辨別指數(shù)越高, 個(gè)體對目標(biāo)面部表情的識別越準(zhǔn)確。
2.1.4 實(shí)驗(yàn)程序
實(shí)驗(yàn)包括以下6種條件:群體條件+快樂面孔、群體條件+恐懼面孔、非群體條件+快樂面孔、非群體條件+恐懼面孔、控制條件+快樂面孔、控制條件+恐懼面孔, 每種條件45個(gè)試次, 總共270個(gè)試次隨機(jī)呈現(xiàn), 每30個(gè)試次休息1次。
采用Psychopy軟件呈現(xiàn)實(shí)驗(yàn)刺激并記錄行為數(shù)據(jù)。具體刺激的呈現(xiàn)順序?yàn)椋菏紫瘸尸F(xiàn)注視點(diǎn)“+” (1100~1300 ms隨機(jī), 視角為1.5°), 之后群體與非群體條件下呈現(xiàn)三個(gè)性別隨機(jī)的人物, 面部表情均為中性(面孔視角為5.1° × 4.1°), 且按照一定實(shí)驗(yàn)要求運(yùn)動(3000 ms), 具體如下:(1)群體條件下, 三個(gè)身體顏色一致的人物圍繞中心進(jìn)行有規(guī)律圓周運(yùn)動; (2)非群體條件下, 三個(gè)身體顏色不一致的人物朝向屏幕邊緣隨機(jī)擴(kuò)散。控制條件下, 只呈現(xiàn)注視點(diǎn)“+”。三個(gè)人物的初始位置分別位于一個(gè)以屏幕中心為重心、邊長為4.9°的等邊三角形的三個(gè)頂點(diǎn)上。運(yùn)動結(jié)束后, 三個(gè)人物消失, 呈現(xiàn)注視點(diǎn)“+” (500 ms)。隨后, 群體、非群體條件下, 先前呈現(xiàn)的三個(gè)人物表現(xiàn)出相同的面部表情(快樂或恐懼), 再次呈現(xiàn)在屏幕中央(500 ms), 面孔間相隔5.3°; 控制條件只呈現(xiàn)中間人物。最后, 被試需在含有6種情緒的量表上評定中間人物的情緒(6種情緒分別為憤怒、快樂、驚訝、恐懼、悲傷、厭惡; 量表的水平維度表示連續(xù)的強(qiáng)度范圍, 最左邊表示“沒有”,最右邊表示“很多”; 被試單擊量尺某處后, 量尺上出現(xiàn)滑塊, 被試拖動滑塊確定相應(yīng)情緒強(qiáng)度) (Cristinzio et al., 2010; Mumenthaler & Sander, 2012)。被試按空格鍵后結(jié)束對面部表情的評定, 進(jìn)入下一試次(圖1)。6種情緒量表的順序在被試內(nèi)固定, 被試間隨機(jī)呈現(xiàn)。
圖1 實(shí)驗(yàn)1流程圖
2.1.5 群體有效性檢驗(yàn)
實(shí)驗(yàn)1通過三個(gè)人物的運(yùn)動軌跡(群體條件下, 三個(gè)人物圍繞屏幕中心進(jìn)行有規(guī)律的圓周運(yùn)動; 非群體條件下, 三個(gè)人物朝向屏幕邊緣隨機(jī)擴(kuò)散)以及身體顏色(群體條件下, 三個(gè)人物身體顏色均為紅色或綠色或藍(lán)色; 非群體條件下, 三個(gè)人物身體顏色為紅、綠、藍(lán)隨機(jī)匹配)操縱群體信息。為檢驗(yàn)群體操縱的有效性, 參考以往研究(Yin et al., 2022; 徐浩等, 2019), 招募50名(每組各25名)未參加正式實(shí)驗(yàn)的被試, 分別觀看“群體線索呈現(xiàn)階段” (女性12名, 平均年齡為23.08 ± 1.85歲)或“非群體線索呈現(xiàn)階段”的視頻(女性13名, 平均年齡為23.96 ± 1.46歲), 并通過7個(gè)項(xiàng)目評估視頻中三個(gè)人物屬于同一群體的程度, 即群體實(shí)體性(group entitativity; Campbell, 1958)。7個(gè)評定項(xiàng)目主要依據(jù)群體實(shí)體性的定義與特征確定(Campbell, 1958; Crawford et al., 2002), 具體如下:視頻中的三個(gè)人物:(1)具有共同的目標(biāo); (2)具有共同的需求; (3)彼此間相互依賴; (4)彼此間相互影響; (5)按照一定的規(guī)則行動; (6)具有密切的聯(lián)系; (7)相互接納。被試需對每個(gè)項(xiàng)目進(jìn)行1~7 點(diǎn)評分(1 = 完全不同意, 7 = 完全同意), 分?jǐn)?shù)越高, 表明被試認(rèn)為三個(gè)人物的群體實(shí)體性程度越強(qiáng)。
結(jié)果發(fā)現(xiàn):被試對7個(gè)項(xiàng)目評分的內(nèi)部一致性系數(shù)分別為:α群體線索= 0.80, α非群體線索= 0.85。對兩種條件的群體實(shí)體性的評分均值進(jìn)行獨(dú)立樣本檢驗(yàn), 結(jié)果發(fā)現(xiàn):群體條件下的群體實(shí)體性的評分(= 5.07,= 0.77)顯著高于非群體條件(= 2.63,= 1.04),(48) = 9.43,< 0.001, Cohen’s= 0.91。相比非群體條件, 群體條件中, 被試認(rèn)為三個(gè)人物屬于同一群體的程度更高, 表明群體線索操縱有效。
數(shù)據(jù)的整理通過Python 3.8完成, 剔除超出各實(shí)驗(yàn)條件平均數(shù)上下2.5個(gè)標(biāo)準(zhǔn)差的數(shù)據(jù)。采用SPSS 26.0軟件進(jìn)行重復(fù)測量方差分析, 對不符合球形假設(shè)的值采用Greenhouse-Gessisser法校正, 多重比較時(shí)采用Bonferroni校正。
2.2.1 一致性指數(shù)結(jié)果
以一致性指數(shù)結(jié)果為因變量, 進(jìn)行2 (面部表情:快樂、恐懼) × 3 (群體線索:群體、非群體、控制)的重復(fù)測量方差分析。結(jié)果發(fā)現(xiàn)(圖2):面部表情主效應(yīng)顯著,(1, 28) = 71.98,< 0.001, ηp2= 0.72, 快樂表情(5.12 ± 0.35)的一致性指數(shù)得分顯著高于恐懼表情(2.30 ± 0.35)。群體線索主效應(yīng)顯著,(2, 56) = 3.54,= 0.036, ηp2= 0.11, 事后多重比較發(fā)現(xiàn), 群體條件下的一致性指數(shù)得分(3.85 ± 0.33)顯著高于非群體條件(3.58 ± 0.30;= 0.011), 控制條件(3.69 ± 0.31)與群體條件(3.85 ± 0.33;= 0.58)、非群體條件(3.58 ± 0.30;= 0.82)的差異均不顯著。面部表情和群體線索的交互作用不顯著(> 0.05)。
圖2 不同面部表情的一致性指數(shù)
注:誤差線表示標(biāo)準(zhǔn)誤
2.2.2 辨別指數(shù)結(jié)果
以辨別指數(shù)結(jié)果為因變量, 進(jìn)行2 (面部表情:快樂、恐懼) × 3 (群體線索:群體、非群體、控制)的重復(fù)測量方差分析。結(jié)果發(fā)現(xiàn):面部表情主效應(yīng)顯著,(1, 28) = 120.54,< 0.001, ηp2= 0.81, 快樂表情的辨別指數(shù)得分(4.89 ± 0.36)顯著高于恐懼表情(0.81 ± 0.32)。面部表情與群體線索的交互作用顯著,(2, 56) = 3.39,0.041, ηp2= 0.11, 進(jìn)一步簡單效應(yīng)分析發(fā)現(xiàn)(圖3), 當(dāng)個(gè)體識別恐懼目標(biāo)面孔時(shí),控制條件下的辨別指數(shù)得分(0.80 ± 0.30)顯著高于非群體條件(0.45 ± 0.30;= 0.031), 群體條件(0.75 ± 0.32)與非群體條件(0.45 ± 0.30)的辨別指數(shù)得分邊緣顯著(= 0.07), 但群體條件和控制條件之間不存在顯著差異(= 1.00);當(dāng)個(gè)體識別快樂目標(biāo)面孔時(shí), 群體(5.00 ± 0.39)、非群體(4.80 ± 0.36)、控制(4.65 ± 0.39)條件之間均不存在顯著差異(s> 0.05)。
圖3 不同面部表情的辨別指數(shù)
注:誤差線表示標(biāo)準(zhǔn)誤, *< 0.05
實(shí)驗(yàn)1通過多項(xiàng)選擇任務(wù), 發(fā)現(xiàn)群體信息會影響面部表情識別。具體而言, 在一致性指數(shù)指標(biāo)上, 群體條件下個(gè)體識別目標(biāo)面孔情緒的一致性指數(shù)顯著高于非群體條件; 在辨別指數(shù)指標(biāo)上, 群體條件下個(gè)體識別恐懼目標(biāo)面孔的辨別指數(shù)高于非群體條件。可能的原因是:首先, 相比積極情緒, 個(gè)體對恐懼表情的識別更易受到情緒性情境信息的影響(李婉悅等, 2019)。其次, 由于實(shí)驗(yàn)1的面部表情識別階段, 群體與非群體條件下均呈現(xiàn)三個(gè)情緒一致的人物, 以往研究表明, 周圍面孔與目標(biāo)面孔情緒一致時(shí)會促進(jìn)面部表情識別(Mumenthaler & Sander, 2012)。先前通過知覺線索呈現(xiàn)的群體信息, 可能會影響個(gè)體對周圍人物情緒狀態(tài)的參考, 進(jìn)而影響面部表情識別。
但由于實(shí)驗(yàn)1的面部表情識別階段, 群體、非群體、控制條件的人物數(shù)量、身體顏色存在一定差異。因此, 實(shí)驗(yàn)2在面部表情識別階段, 一方面, 進(jìn)一步控制三種條件中物理屬性的差異, 即三種條件的面部表情識別階段均設(shè)置為三個(gè)身體顏色隨機(jī)匹配的人物; 另一方面, 操縱周圍面孔與目標(biāo)面孔之間的情緒一致性, 以探討群體信息與情緒一致性對面部表情識別的影響。
3.1.1 被試
使用G*power 3.1計(jì)算研究所需樣本量(Faul et al., 2007), 設(shè)置參數(shù)為:被試內(nèi)重復(fù)測量方差分析, 效應(yīng)量= 0.25, 統(tǒng)計(jì)檢驗(yàn)力1 ? β = 0.9, ɑ = 0.05, 測量次數(shù) = 12, 計(jì)算得到樣本量為16人, 實(shí)際招募26名大學(xué)生被試(女性14名, 平均年齡為21.15 ± 1.99歲)參加實(shí)驗(yàn)。所有被試母語均為漢語, 視力或矯正視力正常, 無色弱色盲, 均為右利手, 無精神病史。實(shí)驗(yàn)前, 所有被試均閱讀和簽署了實(shí)驗(yàn)知情同意書, 完成實(shí)驗(yàn)后可獲得一定的報(bào)酬。
3.1.2 實(shí)驗(yàn)刺激與設(shè)備
實(shí)驗(yàn)材料與設(shè)備同實(shí)驗(yàn)1。
3.1.3 實(shí)驗(yàn)設(shè)計(jì)
采用2 (面部表情:快樂、恐懼) × 3 (群體線索:群體、非群體、控制) × 2 (目標(biāo)面孔與周圍面孔的情緒一致性:一致、不一致)的被試內(nèi)實(shí)驗(yàn)設(shè)計(jì)。因變量為一致性指數(shù)和辨別指數(shù)。
3.1.4 實(shí)驗(yàn)程序
實(shí)驗(yàn)包括以下12種條件:群體條件+快樂目標(biāo)面孔+情緒一致、群體條件+快樂目標(biāo)面孔+情緒不一致、群體條件+恐懼目標(biāo)面孔+情緒一致、群體條件+恐懼目標(biāo)面孔+情緒不一致、非群體條件+快樂面孔+情緒一致、非群體條件+快樂面孔+情緒不一致、非群體條件+恐懼面孔+情緒一致、非群體條件+恐懼面孔+情緒不一致、控制條件+快樂面孔+情緒一致、控制條件+快樂面孔+情緒不一致、控制條件+恐懼面孔+情緒一致、控制條件+恐懼面孔+情緒不一致, 每種條件30個(gè)試次, 總共360個(gè)試次隨機(jī)呈現(xiàn), 每60個(gè)試次休息1次。實(shí)驗(yàn)總時(shí)長約1小時(shí)。
采用Psychopy軟件呈現(xiàn)實(shí)驗(yàn)刺激并記錄行為數(shù)據(jù)。具體刺激的呈現(xiàn)順序?yàn)椋菏紫瘸尸F(xiàn)注視點(diǎn)“+” (1100~1300 ms隨機(jī), 視角為1.5°), 之后群體與非群體條件下呈現(xiàn)三個(gè)面部表情為中性的人物圖片(5.1° × 4.1°), 三個(gè)人物性別隨機(jī), 身體顏色均設(shè)置為紅色、綠色、藍(lán)色隨機(jī)匹配。群體條件下, 三個(gè)人物圍繞中心進(jìn)行有規(guī)律圓周運(yùn)動(3000 ms); 非群體條件下, 三個(gè)人物朝向屏幕邊緣隨機(jī)擴(kuò)散(3000 ms); 控制條件下, 只呈現(xiàn)注視點(diǎn)“+” (3000 ms)。三個(gè)人物的初始位置分別位于一個(gè)以屏幕中心為重心、邊長為4.9°的等邊三角形的三個(gè)頂點(diǎn)上。運(yùn)動結(jié)束后, 三個(gè)人物消失, 呈現(xiàn)注視點(diǎn)“+” (500 ms)。
隨后, 在面部表情識別階段, 與實(shí)驗(yàn)1的不同主要體現(xiàn)在:(1)群體、非群體、控制條件下, 均呈現(xiàn)三個(gè)人物圖片(人物圖片之間相隔5.3°, 500 ms), 且三個(gè)人物圖片的身體顏色均隨機(jī)匹配(群體、非群體條件的人物圖片與群體信息呈現(xiàn)階段一致), 從而減少物理線索帶來的知覺整體性對實(shí)驗(yàn)的干擾; (2)操縱了周圍人物與中間人物的情緒一致性, 具體表現(xiàn)為:情緒一致條件下, 三個(gè)人物圖片的面部表情均為快樂或恐懼; 情緒不一致條件下, 中間人物情緒為快樂時(shí), 周圍人物情緒為恐懼; 中間人物情緒為恐懼時(shí), 周圍人物情緒為快樂。最后, 被試需在含有6種情緒的量表上評定中間人物的情緒(6種情緒分別為憤怒、快樂、驚訝、恐懼、悲傷、厭惡; 量表的水平維度表示連續(xù)的強(qiáng)度范圍, 最左邊表示“沒有”, 最右邊表示“很多”; 被試單擊量尺某處后, 量尺上出現(xiàn)滑塊, 被試拖動滑塊確定相應(yīng)情緒強(qiáng)度) (Cristinzio et al., 2010; Mumenthaler & Sander, 2012)。被試按空格鍵后結(jié)束對面部表情的評定, 進(jìn)入下一試次(圖4)。6種情緒量表的順序在被試內(nèi)固定, 被試間隨機(jī)呈現(xiàn)。
圖4 實(shí)驗(yàn)2流程圖
3.1.5 群體有效性檢驗(yàn)
實(shí)驗(yàn)2通過三個(gè)人物的運(yùn)動軌跡(群體條件下, 三個(gè)人物圍繞屏幕中心進(jìn)行有規(guī)律的圓周運(yùn)動; 非群體條件下, 三個(gè)人物朝向屏幕邊緣隨機(jī)擴(kuò)散)操縱群體信息。招募50名(每組各25名)未參加正式實(shí)驗(yàn)的被試, 分別觀看“群體線索呈現(xiàn)階段” (女性11名, 平均年齡為24.12 ± 1.96歲)或“非群體線索呈現(xiàn)階段”的視頻(女性13名, 平均年齡為23.96 ± 1.46歲), 并通過7個(gè)項(xiàng)目評估視頻中三個(gè)人物屬于同一群體的程度(同實(shí)驗(yàn)1)。
結(jié)果發(fā)現(xiàn):被試對7個(gè)項(xiàng)目評分的內(nèi)部一致性系數(shù)分別為:α群體線索= 0.83, α非群體線索= 0.85, 對兩種條件的群體實(shí)體性的評分均值進(jìn)行獨(dú)立樣本檢驗(yàn), 結(jié)果發(fā)現(xiàn):群體條件下的群體實(shí)體性的評分(= 4.94,= 1.03)顯著高于非群體條件(= 2.63,= 1.04),(48) = 7.86,< 0.001, Cohen’s= 1.04。相比非群體條件, 群體條件中, 被試認(rèn)為三個(gè)人物屬于同一群體的程度更高, 表明實(shí)驗(yàn)操縱有效。
數(shù)據(jù)的整理通過Python 3.8完成, 剔除超出各實(shí)驗(yàn)條件平均數(shù)上下2.5個(gè)標(biāo)準(zhǔn)差的數(shù)據(jù)。采用SPSS 27.0軟件進(jìn)行重復(fù)測量方差分析, 對不符合球形假設(shè)的值采用Greenhouse-Gessisser法校正, 多重比較時(shí)采用Bonferroni校正。
3.2.1 一致性指數(shù)結(jié)果
以一致性指數(shù)結(jié)果為因變量, 進(jìn)行2 (面部表情:快樂、恐懼) × 3 (群體線索:群體、非群體、控制) × 2 (情緒一致性:一致、不一致)的重復(fù)測量方差分析。結(jié)果發(fā)現(xiàn):面部表情主效應(yīng)顯著,(1, 25) = 23.57,< 0.001, ηp2= 0.48。群體線索主效應(yīng)顯著,(2, 50) =12.72,< 0.001, η2p= 0.34。情緒一致性主效應(yīng)顯著,(1, 25) = 21.81,< 0.001, ηp2= 0.47。
群體線索和情緒一致性的交互作用顯著,(2, 50) = 4.23,= 0.020, ηp2= 0.15。進(jìn)一步簡單效應(yīng)檢驗(yàn)發(fā)現(xiàn)(圖5), 群體條件下, 情緒一致條件的一致性指數(shù)得分(4.55 ± 0.28)顯著高于情緒不一致條件(4.23 ± 0.25;< 0.001); 非群體條件下, 情緒一致(4.20 ± 0.27)與情緒不一致條件(4.09 ± 0.26)的一致性指數(shù)得分無顯著差異(> 0.05); 控制條件下, 情緒一致(4.18 ± 0.28)與情緒不一致條件(4.11 ± 0.26)的一致性指數(shù)得分無顯著差異(> 0.05)。此外, 當(dāng)目標(biāo)面孔與周圍面孔情緒一致時(shí), 群體條件下的一致性指數(shù)(4.55 ± 0.28)顯著高于非群體條件(4.20 ± 0.27,= 0.001)和控制條件(4.18 ± 0.28,< 0.001), 非群體條件與控制條件之間不存在顯著差異(> 0.05); 當(dāng)目標(biāo)面孔與周圍面孔情緒不一致時(shí), 群體條件(4.23 ± 0.25)、非群體條件(4.09 ± 0.26)、控制條件(4.11 ± 0.26)下的一致性指數(shù)均無顯著差異(s > 0.05)。
圖5 不同群體線索下, 面部表情識別的一致性指數(shù)
注:誤差線表示標(biāo)準(zhǔn)誤, ***< 0.001
群體線索和面部表情的交互作用顯著,(2, 50) = 4.30,= 0.030, ηp2= 0.15。對于恐懼表情, 群體條件下的一致性指數(shù)得分(3.73 ± 0.27)顯著高于非群體條件(3.27 ± 0.28;< 0.001)和控制條件(3.38 ± 0.26;< 0.001), 非群體條件與控制條件之間不存在顯著差異(> 0.05)。對于快樂表情, 群體條件(5.05 ± 0.35)、非群體條件(5.02 ± 0.32)、控制條件(4.91 ± 0.37)下的一致性指數(shù)均無顯著差異(s > 0.05)。無其他顯著交互作用(s > 0.05)。
3.2.2 辨別指數(shù)結(jié)果
以辨別指數(shù)結(jié)果為因變量, 進(jìn)行2 (面部表情:快樂、恐懼) × 3 (群體線索:群體、非群體、控制) × 2 (情緒一致性:一致、不一致)的重復(fù)測量方差分析。結(jié)果發(fā)現(xiàn):面部表情主效應(yīng)顯著,(1, 25) = 66.48,< 0.001, ηp2= 0.73。群體線索主效應(yīng)顯著,(2, 50) = 13.15,< 0.001, ηp2= 0.35。情緒一致性主效應(yīng)顯著,(1, 25) = 22.30,< 0.001, ηp2= 0.47。
群體線索和情緒一致性的交互作用顯著,(2, 50) = 3.79,= 0.029, ηp2= 0.13。進(jìn)一步簡單效應(yīng)檢驗(yàn)發(fā)現(xiàn)(圖6),群體條件下, 情緒一致條件的辨別指數(shù)得分(3.77 ± 0.26)顯著高于情緒不一致條件(3.39 ± 0.24;< 0.001); 非群體條件下, 情緒一致(3.32 ± 0.25)與情緒不一致條件(3.21 ± 0.24)的辨別指數(shù)得分無顯著差異(> 0.05); 控制條件下, 情緒一致(3.34 ± 0.27)與情緒不一致條件(3.23 ± 0.26)的辨別指數(shù)得分無顯著差異(> 0.05)。此外, 當(dāng)目標(biāo)面孔與周圍面孔情緒一致時(shí), 群體條件下的辨別指數(shù)(3.77 ± 0.26)顯著高于非群體條件(3.32 ± 0.25,= 0.001)和控制條件(3.34 ± 0.27,= 0.001), 非群體條件與控制條件之間不存在顯著差異(> 0.05); 當(dāng)目標(biāo)面孔與周圍面孔情緒不一致時(shí), 群體條件(3.39 ± 0.24)、非群體條件(3.21 ± 0.24)、控制條件(3.23 ± 0.26)下的辨別指數(shù)均無顯著差異(s > 0.05)。
圖6 不同群體線索下, 面部表情識別的辨別指數(shù)
注:誤差線表示標(biāo)準(zhǔn)誤, ***< 0.001
群體線索和面部表情的交互作用顯著,(2, 50) = 5.75,= 0.011, ηp2= 0.19。對于恐懼表情, 群體條件下的辨別指數(shù)得分(2.35 ± 0.24)顯著高于非群體條件(1.78 ± 0.25;< 0.001)和控制條件(1.93 ± 0.24;< 0.001), 非群體條件與控制條件之間不存在顯著差異(> 0.05)。對于快樂表情, 群體條件(4.80 ± 0.35)、非群體條件(4.75 ± 0.34)、控制條件(4.63 ± 0.38)下的辨別指數(shù)均無顯著差異(s> 0.05)。無其他顯著交互作用(s > 0.05)。
實(shí)驗(yàn)2在進(jìn)一步控制不同條件物理屬性差異的基礎(chǔ)上, 在面部表情識別階段操縱了周圍面孔與目標(biāo)面孔的情緒一致性, 通過多項(xiàng)選擇任務(wù)探討群體信息與情緒一致性對面部表情識別的影響。實(shí)驗(yàn)2同樣發(fā)現(xiàn), 相比快樂表情, 恐懼表情識別更易受群體信息的影響, 即群體條件下, 個(gè)體識別恐懼表情的一致性指數(shù)和辨別指數(shù)均顯著高于非群體條件和控制條件。重要的是, 實(shí)驗(yàn)2進(jìn)一步發(fā)現(xiàn), 周圍面孔與目標(biāo)面孔之間的情緒一致性會影響個(gè)體對目標(biāo)面孔情緒的識別, 產(chǎn)生情緒識別的情境效應(yīng), 即一致時(shí)的面部表情識別準(zhǔn)確性顯著高于不一致時(shí)。而群體信息則對這種效應(yīng)產(chǎn)生了調(diào)節(jié)作用, 具體表現(xiàn)為:在群體條件下, 當(dāng)周圍面孔與目標(biāo)面孔情緒一致時(shí), 被試識別目標(biāo)面孔情緒的準(zhǔn)確性顯著高于情緒不一致時(shí); 在非群體條件下, 則不存在顯著差異。
此外, 在面部表情加工中, 不同實(shí)驗(yàn)任務(wù)誘發(fā)的認(rèn)知過程存在一定的差異, 相比自由標(biāo)記任務(wù), 迫選任務(wù)下被試有更高的準(zhǔn)確率和更快的反應(yīng)速度(Betz et al., 2019)。因此, 實(shí)驗(yàn)3采用二擇一的迫選任務(wù), 探討群體信息與情緒一致性對面部表情識別的影響。
4.1.1 被試
使用G*power 3.1計(jì)算研究所需樣本量(Faul et al., 2007), 設(shè)置參數(shù)為:被試內(nèi)重復(fù)測量方差分析, 效應(yīng)量= 0.25, 統(tǒng)計(jì)檢驗(yàn)力1 ? β = 0.9, ɑ = 0.05, 測量次數(shù) = 12, 計(jì)算得到樣本量為16人, 實(shí)際招募32名大學(xué)生被試(女性15名, 平均年齡為21.2 ± 1.6歲)參加實(shí)驗(yàn)。所有被試母語均為漢語, 視力或矯正視力正常, 無色弱色盲, 均為右利手, 無精神病史。實(shí)驗(yàn)前, 所有被試均閱讀和簽署了實(shí)驗(yàn)知情同意書, 完成實(shí)驗(yàn)后可獲得一定的報(bào)酬。
4.1.2 實(shí)驗(yàn)刺激與設(shè)備
實(shí)驗(yàn)材料與設(shè)備同實(shí)驗(yàn)1。
4.1.3 實(shí)驗(yàn)設(shè)計(jì)
采用2 (面部表情:快樂、恐懼) × 3 (群體線索:群體、非群體、控制) × 2 (目標(biāo)面孔與周圍面孔的情緒一致性:一致、不一致)的被試內(nèi)實(shí)驗(yàn)設(shè)計(jì)。因變量為反應(yīng)時(shí)和正確率。
4.1.4 實(shí)驗(yàn)程序
實(shí)驗(yàn)條件共12種, 與實(shí)驗(yàn)2一致, 每種條件45個(gè)試次, 總共540個(gè)試次隨機(jī)呈現(xiàn), 每60個(gè)試次休息1次。實(shí)驗(yàn)總時(shí)長約0.8小時(shí)。
實(shí)驗(yàn)過程中, 與實(shí)驗(yàn)2不同的是, 在面部表情識別階段, 被試需在人物圖片呈現(xiàn)后, 對中間人物的面部表情做出按鍵反應(yīng), 快樂按“Q”鍵, 恐懼按“P”鍵, 按鍵方式在被試之間進(jìn)行平衡。人物圖片在按鍵后消失, 若被試在1500 ms內(nèi)未進(jìn)行按鍵反應(yīng), 記為錯誤反應(yīng), 人物圖片消失。隨機(jī)間隔1200~1500 ms之后進(jìn)入下一試次(圖7, 其余流程均與實(shí)驗(yàn)2保持一致)。
4.1.5 群體有效性檢驗(yàn)
同實(shí)驗(yàn)2。
數(shù)據(jù)的整理通過Python 3.8完成, 剔除超出各實(shí)驗(yàn)條件平均數(shù)上下2.5個(gè)標(biāo)準(zhǔn)差的數(shù)據(jù)。采用SPSS 26.0軟件進(jìn)行重復(fù)測量方差分析, 對不符合球形假設(shè)的值采用Greenhouse-Gessisser法校正, 多重比較時(shí)采用Bonferroni校正。
4.2.1 反應(yīng)時(shí)結(jié)果
以反應(yīng)時(shí)結(jié)果為因變量, 進(jìn)行2 (情緒一致性:一致、不一致) × 3 (群體線索:群體、非群體、控制) × 2 (面部表情:快樂、恐懼)的重復(fù)測量方差分析。結(jié)果發(fā)現(xiàn):面部表情主效應(yīng)顯著,(1, 31) = 19.63,< 0.001, ηp2= 0.39, 快樂表情(= 704.95 ms,= 12.55)的反應(yīng)時(shí)顯著短于恐懼表情(= 727.42 ms,= 12.57)。群體線索主效應(yīng)顯著,(2, 62) = 140.24,< 0.001, ηp2= 0.82, 情緒一致性主效應(yīng)顯著,(1, 31) = 25.74,< 0.001, ηp2= 0.45。
重要的是, 群體線索與情緒一致性的交互作用顯著,(2, 62) = 8.07,< 0.001, ηp2= 0.21, 進(jìn)一步簡單效應(yīng)檢驗(yàn)發(fā)現(xiàn)(圖8), 在控制條件和群體條件下, 情緒一致條件的反應(yīng)時(shí)(控制:= 758.78 ms,= 11.71; 群體:= 678.55 ms,= 12.64)顯著短于情緒不一致條件(控制:= 782.12 ms,= 13.35,0.001; 群體:= 688.15 ms,= 13.38,0.008)。而在非群體條件下, 情緒一致(= 693.92 ms,= 13.01)與不一致條件(= 695.59 ms,= 13.10)的反應(yīng)時(shí)無顯著差異(0.70)。此外, 當(dāng)目標(biāo)面孔與周圍面孔情緒一致時(shí), 群體條件下的反應(yīng)時(shí)(= 678.55 ms,= 12.64)顯著短于非群體條件(= 693.92 ms,= 13.01,= 0.004)和控制條件(= 758.78 ms,= 11.71,< 0.001), 非群體條件下的反應(yīng)時(shí)(= 693.92 ms,= 13.01)顯著短于控制條件(= 758.78 ms,= 11.71,< 0.001); 當(dāng)目標(biāo)面孔與周圍面孔情緒不一致時(shí), 群體條件下的反應(yīng)時(shí)(= 688.15 ms,= 13.38)顯著短于控制條件(= 782.12 ms,= 13.35,< 0.001), 非群體條件下的反應(yīng)時(shí)(= 695.59 ms,= 13.10)顯著短于控制條件(= 782.12 ms,= 13.35,< 0.001), 群體條件與非群體條件下的反應(yīng)時(shí)無顯著差異(= 0.27)。無其他顯著交互作用(s> 0.05)。
圖7 實(shí)驗(yàn)3流程圖
圖8 不同群體線索下, 面部表情識別的反應(yīng)時(shí)
注:誤差線表示標(biāo)準(zhǔn)誤, **< 0.01, ***< 0.001
4.2.2 正確率結(jié)果
以正確率為因變量, 進(jìn)行2 (一致性:一致, 不一致) × 3 (群體條件:群體, 非群體, 控制) × 2 (面部表情:快樂表情, 恐懼表情)的重復(fù)測量方差分析。群體條件主效應(yīng)邊緣顯著,(2, 62) = 3.20,= 0.049, ηp2= 0.18。但進(jìn)一步分析發(fā)現(xiàn)不存在任何顯著效應(yīng)(s> 0.05)。無其他顯著主效應(yīng)或交互作用(s > 0.05)。
實(shí)驗(yàn)3采用二擇一的迫選任務(wù), 進(jìn)一步探討群體信息與情緒一致性對面部表情識別的影響。與實(shí)驗(yàn)2類似, 實(shí)驗(yàn)3同樣發(fā)現(xiàn), 群體信息對情緒一致性效應(yīng)產(chǎn)生了調(diào)節(jié)作用, 具體表現(xiàn)為:在群體條件下, 當(dāng)周圍面孔與目標(biāo)面孔情緒一致時(shí), 被試對目標(biāo)面孔情緒的知覺速度快于情緒不一致時(shí); 在非群體條件下, 上述效應(yīng)消失。
本研究考察了群體信息對面部表情識別的影響及具體表現(xiàn)。研究發(fā)現(xiàn), 周圍面孔的情緒狀態(tài)能夠影響目標(biāo)面孔情緒的識別, 產(chǎn)生情緒一致性效應(yīng), 即周圍面孔與目標(biāo)面孔情緒一致時(shí)的反應(yīng)速度快于情緒不一致時(shí), 且面部表情識別的準(zhǔn)確性更高。重要的是, 群體信息能夠調(diào)節(jié)周圍面孔的情緒狀態(tài)對目標(biāo)面孔的影響, 進(jìn)而影響面部表情識別, 具體表現(xiàn)為:(1)群體條件下, 周圍面孔的情緒狀態(tài)會成為個(gè)體識別目標(biāo)面孔情緒的參考。相比周圍面孔情緒與目標(biāo)面孔情緒不一致, 兩者情緒一致時(shí), 即符合個(gè)體基于知覺線索建立的群體成員情緒具有一致性的預(yù)期, 面部表情識別速度更快、準(zhǔn)確性更高; (2)非群體條件下, 周圍面孔的情緒狀態(tài)不會影響個(gè)體對目標(biāo)面孔情緒的判斷。此外, 本研究還發(fā)現(xiàn)了面部表情識別的積極情緒優(yōu)勢效應(yīng), 具體表現(xiàn)為:相比恐懼表情, 個(gè)體對快樂情緒的識別速度更快, 準(zhǔn)確性更高。
本研究發(fā)現(xiàn), 控制條件不存在任何群體運(yùn)動線索, 周圍面孔的情緒狀態(tài)依然會影響個(gè)體對目標(biāo)面孔情緒的識別, 具體表現(xiàn)為:相比周圍面孔的情緒狀態(tài)與目標(biāo)面孔情緒不一致時(shí), 當(dāng)兩者情緒一致時(shí), 被試識別目標(biāo)面孔情緒的反應(yīng)時(shí)更短、準(zhǔn)確性更高。這一結(jié)果體現(xiàn)了面部表情識別的情境效應(yīng)(Gray et al., 2017; Lindquist & Gendron, 2013; Mumenthaler & Sander, 2012; Wieser & Brosch, 2012; 徐強(qiáng)等, 2014), 表明個(gè)體對面孔情緒的知覺并不僅僅由面孔構(gòu)型特征驅(qū)動, 也會受到其所處情境的影響。
重要的是, 本研究發(fā)現(xiàn), 群體信息會影響面部表情識別, 且這一影響是通過調(diào)節(jié)周圍面孔情緒對目標(biāo)面孔的影響實(shí)現(xiàn)的。當(dāng)個(gè)體知覺到目標(biāo)面孔與周圍面孔屬于同一群體時(shí), 周圍面孔的情緒狀態(tài)會成為個(gè)體識別目標(biāo)面孔情緒的參考, 即相比周圍面孔與目標(biāo)面孔情緒不一致, 當(dāng)兩者情緒一致時(shí), 個(gè)體識別目標(biāo)面孔情緒的速度更快、準(zhǔn)確性更高; 而當(dāng)個(gè)體知覺到兩者不屬于同一群體時(shí), 則不存在上述效應(yīng)。這一結(jié)果得到以往相關(guān)研究的支持, Mumenthaler和Sander (2012)發(fā)現(xiàn), 當(dāng)周圍面孔的注視方向指向目標(biāo)面孔時(shí), 即社會評價(jià)條件下, 周圍面孔的情緒狀態(tài)影響了被試對目標(biāo)面孔的情緒識別。在該實(shí)驗(yàn)中, 周圍面孔對目標(biāo)面孔的注視提供了互動信息, 即周圍面孔的情緒狀態(tài)表達(dá)了其對目標(biāo)面孔的社會評價(jià)。與該研究相似, Gray等人(2017)的研究也發(fā)現(xiàn), 互動關(guān)系影響觀察者對目標(biāo)面孔的情緒識別。個(gè)體在互動關(guān)系中情緒的表達(dá), 反映了其對互動對象的認(rèn)知、態(tài)度等(Pietroni et al., 2008; van Kleef, 2009)。因此, 當(dāng)周圍人物與目標(biāo)人物存在社會互動時(shí), 觀察者會將周圍人物的情緒狀態(tài)作為推斷目標(biāo)面孔情緒的重要參考(Gray et al., 2017; Mumenthaler & Sander, 2012; Mumenthaler et al., 2018), 而群體成員之間又存在彼此互動和依賴。因此, 本研究中, 當(dāng)觀察者通過群體線索知覺到目標(biāo)人物和周圍人物屬于同一群體后, 會依據(jù)周圍面孔的情緒狀態(tài)對目標(biāo)面孔的情緒進(jìn)行判斷; 而當(dāng)觀察者知覺到目標(biāo)面孔與周圍面孔不屬于同一群體時(shí), 則不會根據(jù)周圍面孔的情緒狀態(tài)對目標(biāo)面孔情緒進(jìn)行推斷。
此外, 上述結(jié)果也表明, 群體條件下, 個(gè)體基于知覺線索形成的群體信息, 會建立群體成員情緒具有一致性的預(yù)期。當(dāng)周圍面孔與目標(biāo)面孔情緒一致, 即符合個(gè)體預(yù)期時(shí), 面部表情識別速度更快、準(zhǔn)確性更高。Cao等人(2023)發(fā)現(xiàn), 基于場景的預(yù)期能夠影響個(gè)體對面部表情的早期知覺加工, 當(dāng)先前呈現(xiàn)的場景與面孔情緒一致時(shí), 面孔誘發(fā)的N170波幅顯著大于不一致條件。這一結(jié)果表明:自下而上的面孔情緒與基于場景產(chǎn)生的自上而下的期望相一致時(shí), 個(gè)體會對面孔投入更多的認(rèn)知資源, 即期望強(qiáng)化效應(yīng)(expectation sharpening effect, Kok et al., 2012; Lee & Mumford, 2003)。而當(dāng)面孔情緒與先前預(yù)期不一致時(shí), 個(gè)體則會對其產(chǎn)生相對抑制。此外, 研究表明, 當(dāng)個(gè)體通過知覺線索意識到群體存在時(shí), 會建立群體成員行為具有一致性的預(yù)期(徐浩等, 2019)。本研究的實(shí)驗(yàn)2、實(shí)驗(yàn)3中, 通過虛擬人物的運(yùn)動軌跡操縱群體信息, 具體而言:群體條件下, 三個(gè)虛擬人物圍繞中心進(jìn)行有規(guī)律圓周運(yùn)動; 非群體條件下, 三個(gè)虛擬人物朝向屏幕邊緣隨機(jī)擴(kuò)散。不同實(shí)驗(yàn)條件下運(yùn)動方式的不同構(gòu)建了不同的群體線索, 使得個(gè)體對之后即將出現(xiàn)的目標(biāo)面部表情產(chǎn)生不同的預(yù)期。那么, 在面部表情識別中, 當(dāng)觀察者通過知覺線索意識到三個(gè)虛擬人物屬于同一群體后, 會建立其情緒具有一致性的預(yù)期, 當(dāng)三個(gè)虛擬人物的面部表情一致時(shí), 即與個(gè)體的預(yù)期相符, 面部表情識別的準(zhǔn)確性顯著高于不一致時(shí), 且速度更快。
本研究還發(fā)現(xiàn), 相比恐懼表情, 個(gè)體識別快樂表情的速度更快、準(zhǔn)確性更高, 這可能是與恐懼表情相比, 快樂表情具有晚期知覺加工優(yōu)勢所致(Becker et al., 2011; Calvo & Nummenmaa, 2008; ?vegar & Kardum, 2013; 許茜如等, 2019)。研究發(fā)現(xiàn), 面部表情加工和解碼需要個(gè)體對效價(jià)和特定情緒信息進(jìn)行雙重加工(Aguado et al., 2013; Aguado et al., 2019; Dieguez-Risco et al., 2015), 對于效價(jià)信息的加工往往發(fā)生在較早的加工階段(Moors & de Houwer, 2001)。實(shí)驗(yàn)1和實(shí)驗(yàn)2中, 被試需在含有6種情緒的量表上評定中間人物的情緒(6種情緒分別為憤怒、快樂、驚訝、恐懼、悲傷、厭惡)。對于快樂情緒而言, 效價(jià)信息的加工就足以判斷面部表情的情緒; 對于恐懼情緒而言, 被試不僅需要對效價(jià)信息進(jìn)行加工(是積極還是消極), 還需要進(jìn)一步對其情緒類別信息進(jìn)行加工(是憤怒、恐懼還是厭惡等), 因此, 被試對快樂面孔表現(xiàn)出知覺加工優(yōu)勢。實(shí)驗(yàn)3中, 被試僅需對面孔的情緒效價(jià)進(jìn)行判斷。相比快樂表情, 恐懼表情本身就具有一定的模糊性(Mumenthaler & Sander, 2012), 當(dāng)面孔構(gòu)型信息難以準(zhǔn)確傳達(dá)其情緒狀態(tài)時(shí), 個(gè)體更傾向于依據(jù)情境信息判斷面孔情緒(Leleu et al., 2015; 李婉悅等, 2020)。這一現(xiàn)象在實(shí)驗(yàn)1和實(shí)驗(yàn)2中也有所體現(xiàn), 即相比快樂表情, 恐懼表情識別更易受情境信息的影響。因此, 在實(shí)驗(yàn)3中, 被試在判斷恐懼表情時(shí), 周圍人物的情緒狀態(tài)更具參考意義。對于快樂目標(biāo)面孔而言, 個(gè)體通過快樂目標(biāo)面孔本身就足以判斷其情緒效價(jià)。而對于恐懼目標(biāo)面孔而言, 其面孔自身信息的模糊性與不確定性, 促使個(gè)體更傾向于參考周圍人物的情緒狀態(tài), 以確認(rèn)自身的情緒判斷的準(zhǔn)確性。因此, 個(gè)體判斷恐懼表情時(shí), 表現(xiàn)出較長的反應(yīng)時(shí)。
盡管如此, 本研究也存在一定的局限。首先, 本研究發(fā)現(xiàn)群體條件下, 個(gè)體對目標(biāo)面部表情的識別受到周圍面孔情緒狀態(tài)的影響。但由于在實(shí)驗(yàn)2和實(shí)驗(yàn)3的操縱中, 并未設(shè)置單獨(dú)呈現(xiàn)目標(biāo)面孔的基線條件, 因此無法明晰是周圍面孔與目標(biāo)面孔情緒一致時(shí)的促進(jìn)作用, 還是情緒不一致時(shí)的阻礙作用。未來研究應(yīng)增設(shè)基線條件, 進(jìn)一步探討群體存在時(shí), 其他成員的情緒狀態(tài)對目標(biāo)面部表情識別的具體影響。第二, 本研究中, 群體信息的呈現(xiàn)以及人物的外形與真實(shí)情況還存在一定的差異, 影響了本研究的生態(tài)效度。未來研究應(yīng)采用更為生態(tài)的方式呈現(xiàn)群體信息。第三, 本研究通過知覺線索操縱群體信息, 但知覺線索本身的低級物理屬性帶來的影響難以完全排除。未來可以在現(xiàn)有實(shí)驗(yàn)的基礎(chǔ)上, 增設(shè)物理屬性相同的對照實(shí)驗(yàn), 并干擾被試形成群體或非群體信息, 以進(jìn)一步檢驗(yàn)群體信息對面部表情識別的影響。
本研究得到以下結(jié)論:(1)群體信息作為社會互動的重要情境, 會對面部表情識別產(chǎn)生重要影響, 即群體存在時(shí), 周圍面孔的情緒狀態(tài)會成為個(gè)體識別目標(biāo)面孔情緒的參考; 而非群體條件下, 周圍面孔的情緒狀態(tài)不會影響個(gè)體對目標(biāo)面孔情緒的識別。(2)個(gè)體知覺到群體存在時(shí), 會建立群體成員情緒具有一致性的預(yù)期, 當(dāng)群體情緒與預(yù)期相一致時(shí), 會促進(jìn)其對目標(biāo)面孔的情緒識別。(3)不同類別的面部表情加工存在差異, 相比恐懼面孔, 個(gè)體對快樂面孔的識別速度更快、準(zhǔn)確性更高, 即出現(xiàn)快樂面孔的識別優(yōu)勢效應(yīng)。
Adolphs, R. (2002). Neural systems for recognizing emotion.,(2), 169?177. https:// doi.org/10.1016/S0959-4388(02)00301-X
Aguado, L., Dieguez-Risco, T., Méndez-Bértolo, C., Pozo, M. A., & Hinojosa, J. A. (2013). Priming effects on the N400 in the affective priming paradigm with facial expressions of emotion.,(2), 284?296. https://doi.org/10.3758/s13415-012-0137-3
Aguado, L., Dieguez-Risco, T., Villalba-García, C., & Hinojosa,J. A. (2019). Double-checking emotions: Valence and emotion category in contextual integration of facial expressions of emotion.,, 107723. https://doi. org/10.1016/j.biopsycho.2019.107723
Aviezer, H., Hassin, R. R., Bentin, S., & Trope, Y. (2008). Putting facial expressions back in context. In N. Ambady & J. Skowronski (Eds.),(pp. 255?288). New York, NY: Guilford Press.
Becker, D. V., Anderson, U. S., Mortensen, C. R., Neufeld, S. L., & Neel, R. (2011). The face in the crowd effect unconfounded: Happy faces, not angry faces, are more efficiently detected in single-and multiple-target visual searchtasks.,(4), 637?659. https://doi.org/10.1037/a0024060
Betz, N., Hoemann, K., & Barrett, L. F. (2019). Words are a context for mental inference.,(8), 1463?1477. https://doi.org/10.1037/emo0000510
Calvo, M. G., & Nummenmaa, L. (2008). Detection of emotionalfaces: Salient physical features guide effective visual search.,(3), 471? 494. https://doi.org/10.1037/a0012771
Campbell, D. T. (1958). Common fate, similarity, and other indices of the status of aggregates of persons as social entities.,(1), 14?25.
Cao, F., Zeng, K., Zheng, J., Yu, L., Liu, S., Zhang, L., & Xu, Q. (2023). Neural response and representation: Facial expressions in scenes.,(3), e14184. https://doi.org/10.1111/psyp.14184
Carragher, D. J., Thomas, N. A., & Nicholls, M. E. R. (2021). The dissociable influence of social context on judgements of facial attractiveness and trustworthiness.,(4), 902?933. https://doi.org/10.1111/ bjop.12501
Crawford, M. T., Sherman, S. J., & Hamilton, D. L. (2002). Perceived entitativity, stereotype formation, and the interchangeability of group members.,(5), 1076?1094. https://doi.org/ 10.1037//0022-3514.83.5.1076
Cristinzio, C., N’Diaye, K., Seeck, M., Vuilleumier, P., & Sander, D. (2010). Integration of gaze direction and facial expression in patients with unilateral amygdala damage.,(1), 248?261. https://doi.org/10.1093/brain/ awp255
Dang, J., Liu, L., Ren, D., & Su, Q. (2018). Polarization and positivity effects: Divergent roles of group entitativity in warmth and competence judgments.,, 74?84. https://doi.org/10.1016/j.jesp. 2017.09.003
Dieguez-Risco, T., Aguado, L., Albert, J., & Hinojosa, J. A. (2015). Judging emotional congruency: Explicit attention to situational context modulates processing of facial expressions of emotion.,, 27?38. https://doi. org/10.1016/j.biopsycho.2015.09.012
Ekman, P. (1993). Facial expression and emotion.,(4), 384?392. https://doi.org/10.1037/0003- 066X.48.4.384.
Faul, F., Erdfelder, E., Lang, A.-G., & Buchner, A. (2007). G* Power 3: A flexible statistical power analysis program for the social, behavioral, and biomedical sciences.(2), 175?191. https://doi.org/10.3758/ bf03193146
Gray, K. L. H., Barber, L., Murphy, J., & Cook, R. (2017). Social interaction contexts bias the perceived expressions of interactants.,(4), 567?571. https://doi.org/10. 1037/emo0000257
Griffiths, S., Rhodes, G., Jeffery, L., Palermo, R., & Neumann, M. F. (2018). The average facial expression of a crowd influences impressions of individual expressions.,(2), 311?319. https://doi.org/10.1037/ xhp0000446
Keltner, D., & Haidt, J. (1999). Social functions of emotions at four levels of analysis.,(5), 505? 521. https://doi.org/10.1080/026999399379168
Kok, P., Jehee, J. F., & de Lange, F. P. (2012). Less is more: Expectation sharpens representations in the primary visual cortex.,(2), 265?270. https://doi.org/10.1016/j. neuron.2012.04.034
Lee, T. S., & Mumford, D. (2003). Hierarchical Bayesian inference in the visual cortex.,(7), 1434?1448. https://doi.org/10. 1364/JOSAA.20.001434
Leleu, A., Demily, C., Franck, N., Durand, K., Schaal, B., & Baudouin, J.-Y. (2015). The odor context facilitates the perception of low-intensity facial expressions of emotion.,(9), e0138656. https://doi.org/10.1371/journal. pone.0138656
Li, W., Han, S., Liu, S., Yang, Y., Zhang, L., & Xu, Q. (2020). Scene effects on facial expression detection: The moderating effects of trait anxiety.(8), 869?878. https://doi.org/10.3724/SP.J.1041.2019.00869
[李婉悅, 韓尚鋒, 劉燊, 楊亞平, 張林, 徐強(qiáng). (2019). 場景對面孔情緒探測的影響:特質(zhì)性焦慮的調(diào)節(jié)作用.(8), 869?878. https://doi.org/10.3724/SP.J.1041.2019. 00869]
Li, W., Tan, Q., Liu, S., Han, S., Zhang, L., & Xu, Q. (2020). The influence of language context on facial expression processing.,(2), 140?150.
[李婉悅, 譚群, 劉燊, 韓尚鋒, 張林, 徐強(qiáng). (2020). 語境信息對面部表情加工的影響.,(2), 140?150.]
Lindquist, K. A., & Gendron, M. (2013). What’s in a word? Language constructs emotion perception.,(1), 66?71. https://doi.org/10.1177/1754073912451351
Moors, A., & de Houwer, J. (2001). Automatic appraisal of motivational valence: Motivational affective priming and Simon effects.,(6), 749?766. https:// doi.org/10.1080/02699930143000293
Morewedge, C. K., Chandler, J. J., Smith, R., Schwarz, N., & Schooler, J. (2013). Lost in the crowd: Entitative group membership reduces mind attribution.,(4), 1195?1205. https://doi.org/10.1016/j.concog.2013.08.002
Mumenthaler, C., & Sander, D. (2012). Social appraisal influences recognition of emotions.,(6), 1118?1135. https://doi.org/ 10.1037/a0026885
Mumenthaler, C., Sander, D., & Manstead, A. S. (2018). Emotion recognition in simulated social interactions.,(2), 308?312. https://doi.org/10.1109/TAFFC.2018.2799593
Pietroni, D., van Kleef, G. A., de Dreu, C. K. W., & Pagliaro, S.(2008). Emotions as strategic information: Effects of other’s emotional expressions on fixed-pie perception, demands, and integrative behavior in negotiation.,(6), 1444?1454. https://doi.org/10. 1016/j.jesp.2008.06.007
Powell, L. J., & Spelke, E. S. (2013). Preverbal infants expect members of social groups to act alike.,(41), E3965-E3972. https://doi.org/10.1073/pnas.1304326110
Susskind, J. M., Littlewort, G., Bartlett, M. S., Movellan, J., & Anderson, A. K. (2007). Human and computer recognition of facial expressions of emotion.,(1), 152?162. https://doi.org/10.1016/j.neuropsychologia.2006. 05.001
?vegar, D., Kardum, I., & Poli?, M. (2013). Happy face superiority effect in change detection paradigm.,(2), 249?269.
Sweeny, T. D., Haroz, S., & Whitney, D. (2013). Perceiving group behavior: Sensitive ensemble coding mechanisms for biological motion of human crowds.,(2), 329. https://doi.org/10.1037/a0028712
Todd, A. R., Galinsky, A. D., & Bodenhausen, G. V. (2012). Perspective taking undermines stereotype maintenance processes: Evidence from social memory, behavior explanation, and information solicitation.,(1), 94?108.
Tottenham, N., Tanaka, J., Leon, A., McCarry, T., Nurse, M., Hare, T., Marcus, D., Westerlund, A., Casey, B., & Nelson, C. (2009). The NimStim set of facial expressions: Judgments from untrained research participants.,(3), 242?249. https://doi.org/10.1016/j.psychres.2008.05. 006
van Kleef, G. A. (2009). How emotions regulate social life: The emotions as social information (EASI) model.,(3), 184?188. https:// doi.org/10.1111/j.1467-8721.2009.01633.x
Vuk?i?-Mihaljevi?, ?., & Mandi?, N. (2001). Psychodynamics and regression of social groups.,(1), 213?226.
Walker, D., & Vul, E. (2013). The cheerleader effect: Hierarchical encoding of individuals in groups.,(9), 853?853. https://doi.org/10.1167/13.9.853
Wieser, M. J., & Brosch, T. (2012). Faces in context: A review and systematization of contextual influences on affective face processing.,. https://doi. org/10.3389/fpsyg.2012.00471
Xu, H., Duan, J. P., Chen, M., & Yin, J. (2019). The mechanisms of action prediction based on social group information.(3), 239?252. https://doi.org/CNKI:SUN:YXNX.0.2019-03-005
[徐浩, 段繼鵬, 陳滿, 尹軍. (2019). 基于群體信息的行為預(yù)測機(jī)制.(3), 239?252. https://doi.org/ CNKI:SUN:YXNX.0.2019-03-005]
Xu, Q., Yang, Y. P., Zhang, E. T., & Zhang, F. (2014). The influence of context on facial expression processing: Retrospect and prospect.(3), 252?262. https://doi.org/10.3969/j.issn.1006-6020.2014.03. 008
[徐強(qiáng), 楊亞平, 張恩濤, 張鋒. (2014). 背景因素影響面部表情加工的研究: 現(xiàn)狀與展望.(3), 252? 262. https://doi.org/10.3969/j.issn.1006-6020.2014.03.008]
Xu, Q. R., He, W. Q., Ye, C. X., & Luo, W. B. (2019). Attentional bias processing mechanism of emotional faces: Anger and happiness superiority effects.(1), 90?98. https://doi.org/10.13294/j.aps.2018.0098
[許茜如, 何蔚祺, 葉超雄, 羅文波. (2019). 情緒面孔注意偏向的加工機(jī)制: 憤怒和快樂優(yōu)勢效應(yīng).(1), 90?98. https://doi.org/10.13294/j.aps.2018.0098]
Yin, J., Duan, J., Huangliang, J., Hu, Y., & Zhang, F. (2022). Members of highly entitative groups are implicitly expected to behave consistently based on their deep-level goals instead of their shallow-level movements.,(1), 13? 28. https://doi.org/10.1037/xlm0001009
Ying, H., Burns, E., Lin, X., & Xu, H. (2019). Ensemble statistics shape face adaptation and the cheerleader effect.,(3), 421? 436. https://doi.org/10.1037/xge0000564
Yzerbyt, V., & Demoulin, S. (2010). Intergroup relations. In S. T. Fiske, D. T. Gilbert, & G. Lindzey (Eds.),(5th ed., pp. 1024?1083). Hoboken, NJ: Wiley.
Influence of group information on facial expression recognition
WANG Weihan1, CAO Feizhen1,2, YU Linwei1, ZENG Ke3, YANG Xinchao1, XU Qiang1
(1Department and Institute of Psychology, Ningbo University, Ningbo 315211, China)(2School of Psychology, South China Normal University, Guangzhou 510631, China)(3Department of Psychology, Sun Yat-sen University, Guangzhou 510006, China)
Emotions surface during interaction between individuals. Thus, an accurate recognition of facial expressions is essential in the realm of social interactions. In recent years, numerous studies have revealed that individuals not only depend on facial configuration information for identifying facial expressions but also place considerable emphasis on contextual information extracted from external cues beyond the face. People’s behavior frequently unfolds within intricate social group dynamics, wherein individuals often perceive and interpret the facial expressions of their fellow group members during interaction. However, the impact of group information on facial expression recognition, being an essential social contextual factor, remains somewhat unclear. Hence, three experiments were conducted to investigate the influence exerted by group information on the recognition of facial expressions.
The stimuli used in the study were happy, fearful, and neutral face images selected from the NimStim set, including 15 pictures (seven females) of each of the aforementioned emotions. Group information was manipulated following the presentation of a fixation cross through perceptual cues. Subsequently, during the facial expression recognition phase, participants were instructed to recognize the facial expressions exhibited by target individuals. In the first experiment, participants were instructed to rate the intensity of target facial expressions on a six- emotion scale, and the surrounding facial expressions were always congruent with the target facial expressions. A total of 29 college students (16 females, mean age 20.00 ± 1.80 years) were recruited to participate in this experiment. In Experiments 2 and 3, we manipulated the emotional congruency between the surrounding faces and the target faces during the facial expression recognition phase. Additionally, we controlled for variations in physical characteristics across different experimental conditions. The task requirement of Experiment 2 was the same as that of Experiment 1. However, in Experiment 3, participants were instructed to judge the target facial expressions by pressing corresponding keys on the keyboard as quickly and accurately as possible. A total of 26 college students (14 females, mean age 21.15 ± 1.99 years) participated in Experiment 2, and 32 college students (15 females, mean age 21.20 ± 1.60 years) participated in Experiment 3.
Results revealed the following: (1) Compared with emotion-incongruent conditions, emotional congruency between target faces and surrounding faces resulted in shorter RTs and higher accuracy. (2) Group information regulated the influence of surrounding facial expressions on target facial expression recognition. Specifically, under group conditions, participants tended to recognize target facial expressions according to the emotional state of the surrounding faces. When the target facial expressions in line with the expectations established by the participants that group members have congruent emotional state, the recognition of target facial expressions was faster and more accurate than incongruent conditions. However, under nongroup conditions, participants recognized target facial expressions without reference to the emotional states of the surrounding faces. (3) Participants exhibited a faster and more accurate recognition of happy faces, indicating the recognition advantage effect for happy facial expressions.
Results revealed that group information influenced facial expression recognition, individuals recognized facial expressions based on the social relationship between the interactions, and understanding social interaction plays an important role in the process of emotion perception.
emotion congruency effect, emotion recognition, expectation, facial expression, group information
2023-05-25
* 國家教育部人文社會科學(xué)研究項(xiàng)目/青年基金項(xiàng)目(18YJC190027)。
王偉晗和曹斐臻同為第一作者。
徐強(qiáng), E-mail: xuqiang1117@163.com
B842