亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        不同情緒載體的神經(jīng)活動(dòng)及其異同——腦成像研究的ALE元分析*

        2022-03-15 07:15:20劉俊材冉光明
        心理科學(xué)進(jìn)展 2022年3期
        關(guān)鍵詞:情緒

        劉俊材 冉光明 張 琪

        ·元分析(Meta-Analysis)·

        不同情緒載體的神經(jīng)活動(dòng)及其異同——腦成像研究的ALE元分析*

        劉俊材1冉光明1張 琪2

        (1西華師范大學(xué)教育學(xué)院心理系;2西華師范大學(xué)學(xué)前與初等教育學(xué)院, 四川 南充 637002)

        情緒識別一直是學(xué)界關(guān)注的熱點(diǎn)。雖然已有研究探討了動(dòng)態(tài)面孔表情、動(dòng)態(tài)身體表情和聲音情緒的腦機(jī)制, 但對每種情緒載體的整體認(rèn)識相對不完善, 同時(shí)對不同情緒載體之間神經(jīng)機(jī)制的共性和區(qū)別知之甚少。因此, 本研究首先通過三項(xiàng)獨(dú)立的激活似然估計(jì)元分析來識別每種情緒模式的大腦激活區(qū)域, 然后進(jìn)行對比分析以評估三種情緒載體之間共同的和獨(dú)特的神經(jīng)活動(dòng)。結(jié)果顯示, 動(dòng)態(tài)面孔表情的大腦活動(dòng)包括廣泛的額葉、枕葉、顳葉和部分頂葉皮層以及海馬、小腦、丘腦、杏仁核等皮層下區(qū)域; 動(dòng)態(tài)身體表情的激活集中于顳/枕葉相關(guān)腦區(qū)以及小腦和海馬; 聲音情緒則引起了顳葉、額葉、杏仁核、尾狀核和腦島的激活。聯(lián)合分析表明, 三種情緒載體跨模態(tài)激活了左側(cè)顳中回和右側(cè)顳上回。對比分析的結(jié)果證明了視覺刺激比聽覺刺激更占優(yōu)勢, 動(dòng)態(tài)面孔表情尤為突出, 同時(shí)動(dòng)態(tài)身體表情也發(fā)揮著重要作用, 但聲音情緒有其獨(dú)特性??傊? 這些發(fā)現(xiàn)驗(yàn)證和拓展了三種情緒載體的現(xiàn)有神經(jīng)模型, 揭示了情緒處理中心的、普遍性的區(qū)域, 但每種情緒載體又有自己可靠的特異性神經(jīng)回路。

        情緒載體; 動(dòng)態(tài)面孔表情; 動(dòng)態(tài)身體表情; 聲音情緒; ALE元分析

        1 引言

        作為一個(gè)高度社會化的物種, 人類無時(shí)無刻不與他人進(jìn)行頻繁的社會互動(dòng)。準(zhǔn)確感知他人的情緒是社會互動(dòng)中最重要的社交技能之一。心理學(xué)界長期以來一直關(guān)注與情緒相關(guān)的面孔表情、身體動(dòng)作和聲音情緒, 這是因?yàn)樗鼈兌际巧鐣P(guān)系建立和維持過程中不可或缺的交際信號。例如, 恐懼可以通過面孔眼部區(qū)域的視覺信息、身體部位的動(dòng)作和姿勢以及聲音的聲學(xué)變化來識別(de Gelder et al., 2006; Heberlein & Atkinson, 2009)。盡管這些信號有著本質(zhì)不同, 但都可以導(dǎo)致對情緒狀態(tài)的相同識別(即, 人是害怕的), 并激活觀察者相似的情緒特異性反應(yīng)(Magnée et al., 2007)。

        1.1 不同情緒載體及其神經(jīng)基礎(chǔ)

        1.1.1 動(dòng)態(tài)面孔表情及其神經(jīng)基礎(chǔ)

        面孔是社會生活中最常見的刺激形式, 100多塊解剖上和功能上截然不同的肌肉構(gòu)成了這一巨大的姿勢空間(Kilts et al., 2003; Waters & Terzopoulos, 1990)。肌肉的細(xì)微變化提供了豐富而有力的社會信息, 我們可以通過面孔的特征快速而準(zhǔn)確地推斷他人的特質(zhì)(Ritchie et al., 2017), 并自動(dòng)化地形成對他人的印象(Klapper et al., 2016), 以便于進(jìn)一步的社會交流(Haxby et al., 2000; 張琪等, 2015)。但在日常生活中, 我們面對的面孔是動(dòng)態(tài)變化而非靜態(tài)的, 準(zhǔn)確識別他人的動(dòng)態(tài)情緒面孔對于個(gè)體的生存以及人際交往更為重要。研究表明, 在動(dòng)態(tài)面孔表情處理的神經(jīng)網(wǎng)絡(luò)中存在一個(gè)核心的神經(jīng)網(wǎng)絡(luò), 即顳?枕聯(lián)合區(qū)(Foley et al., 2012; Haxby et al., 2000), 包括梭狀回(fusiform gyrus, FG)、顳上回(superior temporal gyrus, STG)、顳中回(middle temporal gyrus, MTG)、顳下回(inferior temporal gyrus, ITG)、枕中回(middle occipital gyrus, MOG)和枕下回(inferior occipital gyrus, IOG)等。由核心神經(jīng)網(wǎng)絡(luò)向外延伸的被稱為擴(kuò)展的神經(jīng)網(wǎng)絡(luò), 包括核心腦區(qū)之外的廣大皮層和皮層下的相關(guān)腦區(qū), 前者涉及頂下小葉(inferior parietal lobule, IPL) (Sarkheil et al., 2013)和額下回(inferior frontal gyrus, IFG) (Sato et al. et al., 2012)等, 而后者主要與杏仁核(amygdala)有關(guān)(Sato et al., 2010)。核心腦區(qū)主要負(fù)責(zé)早期的視覺分析和刺激的運(yùn)動(dòng)加工, 而擴(kuò)展的神經(jīng)網(wǎng)絡(luò)則與個(gè)體的情感處理、面孔模仿、刺激的動(dòng)態(tài)表征等有關(guān)(Haxby et al., 2000; 張琪等, 2015)。Zinchenko等人(2018)的元分析發(fā)現(xiàn)動(dòng)態(tài)面孔表情激活了上述腦區(qū)以及小腦(cerebellum), 驗(yàn)證和支持了動(dòng)態(tài)面孔表情處理的神經(jīng)網(wǎng)絡(luò)。

        1.1.2 動(dòng)態(tài)身體表情及其神經(jīng)基礎(chǔ)

        除了面孔表情外, 身體表情也是情感交流的重要載體。長期以來, 面孔表情被認(rèn)為是比身體表情更普遍、更一致的情感信息載體(de Gelder, et al.,2014)。然而, 研究表明, 成年人通過身體姿勢和動(dòng)作來識別情緒的準(zhǔn)確性可以與面孔相媲美(Atkinson et al., 2007; Zieber et al., 2014), 甚至在某些情況下, 人的身體比面孔更能傳達(dá)情緒狀態(tài)(de Gelder & Partan, 2009; Sinke, et al., 2012)。與面孔相比, 身體有著獨(dú)特的優(yōu)勢, 可以促進(jìn)信息的情感交流, 例如, 其相對較大的尺寸使得他們在更遠(yuǎn)的距離就能被看到, 即使是處在信號發(fā)出者的背后也能觀察到身體所傳達(dá)的情感信號(de Gelder, 2009)。但以往關(guān)于動(dòng)態(tài)身體表情的加工機(jī)制存在不同的看法, 一部分研究者贊同Giese和Poggio (2003)提出的軀體形態(tài)與動(dòng)作加工的分層神經(jīng)模型, 他們認(rèn)為身體形態(tài)信息(如外形特征)的加工通路始于視覺皮層, 經(jīng)次級顳葉皮層到達(dá)梭狀回和顳上溝(superior temporal sulcus, STS); 動(dòng)作與情緒信息的加工通路從視覺皮層出發(fā), 經(jīng)枕葉和顳葉, 而后到達(dá)負(fù)責(zé)整合人類復(fù)雜動(dòng)作信息的顳上溝(de Gelder et al., 2014; Moro et al., 2008)。但大多數(shù)研究者更認(rèn)同de Gelder等人(2006, 2015)提出的身體表情加工的雙通道理論。該理論認(rèn)為身體表情的加工有兩條獨(dú)立且相互協(xié)作的神經(jīng)通路:一條是身體表情的自動(dòng)化加工通路, 維持著反射性行為, 主要涉及上丘(superior colliculus, SC)、丘腦(thalamus)、紋狀體(striatum)和杏仁核等; 另一條是皮層控制回路, 主要負(fù)責(zé)情感、認(rèn)知和決策過程, 包括額?頂運(yùn)動(dòng)系統(tǒng)、前額葉與杏仁核相連接的部分。

        1.1.3 聲音情緒及其神經(jīng)基礎(chǔ)

        聲音同樣帶有關(guān)于動(dòng)作發(fā)出者的多種信息(Krauss et al., 2002; Pisanski et al., 2016), 和面孔及身體一樣容易識別(Scherer, 1995), 但與視覺刺激更高的空間靈敏度不同, 聲音的主要作用是使我們能夠區(qū)分更細(xì)微的時(shí)間差異(Calvert et al., 1998)。與面孔和身體相比, 聲音更具層次化(多樣性), 如強(qiáng)度、速度、0等都可以傳達(dá)信息(Scherer et al., 2003)。研究者認(rèn)為聲音主要傳遞著言語、情緒和身份信息, 有三條部分分離的神經(jīng)通路分別進(jìn)行加工(Belin et al., 2004)。言語信息加工的腦機(jī)制可以用雙通路模型(Hickok & Poeppel, 2007)很好的理解。在該模型中, 雙側(cè)顳上溝的中部和后部(middle and superior temporal sulcus, M/PSTS)負(fù)責(zé)聲音刺激的語音加工和表征, 隨后分出腹側(cè)通路和背側(cè)通路, 分別對言語信息進(jìn)行意義理解和將顳上溝編碼的語音表征轉(zhuǎn)換成運(yùn)動(dòng)區(qū)域(額下回)編碼的發(fā)聲運(yùn)動(dòng)表征。情緒信息的加工則可以用3階段工作模型很好的解釋(Schirmer & Kotz, 2006):在刺激出現(xiàn)后的100 ms左右, 初級和次級聽覺皮層對聲學(xué)信息進(jìn)行提取和分析; 在200 ms左右, 前顳上回/溝(anterior superior temporal gyrus/ sulcus, ASTG/S)和杏仁核對情緒線索進(jìn)行整合; 在400 ms左右, 右側(cè)額下回和眶額皮質(zhì)(orbitofrontal cortex, OFC)進(jìn)行更高級的認(rèn)知評價(jià), 左側(cè)額下皮層負(fù)責(zé)語義情緒信息加工。而身份信息的加工能夠從整合模型中得到全面了解(Maguinness et al., 2018)。根據(jù)該模型, 在感知層面的加工是對身份特征進(jìn)行分析, 主要涉及顳上回/溝后部、顳橫回(heschl’s gyrus, HG)和顳平面(planum temporale, PT); 在識別層面, 被提取的身份特征在顳上回/溝中部與已儲存的聲音原型進(jìn)行比較, 選擇出偏離原型的特征; 而后, 顳上回/溝前部和中部將偏離的特征與儲存的參照圖式進(jìn)行比較, 即人聲?身份識別。元分析研究驗(yàn)證了上述理論, 同時(shí)拓展了小腦和腦島(insula)等的作用(Frühholz & Grandjean, 2013; Frühholz et al., 2016)。

        1.2 不同情緒載體神經(jīng)機(jī)制的異同

        盡管大量的研究探討了三種情緒載體的神經(jīng)機(jī)制, 但通常都只關(guān)注單一模式的加工。隨著認(rèn)識的深入, 部分研究者開始關(guān)注面孔表情和身體表情之間腦機(jī)制的相似性與差異性。一方面, 研究發(fā)現(xiàn), 面孔表情與身體表情加工的神經(jīng)機(jī)制存在重合。不論是靜態(tài)還是動(dòng)態(tài)身體表情都能夠顯著激活梭狀回、顳上溝和杏仁核等面孔知覺敏感區(qū)域(Kret et al., 2011; Giese & Poggio, 2003)。此外, 不同情緒類型的面孔和身體刺激可以共同激活眶額皮質(zhì)(de Gelder, 2006)、腦島(Tamietto et al., 2015)和楔葉(cuneus) (Kret et al., 2011)等負(fù)責(zé)情緒加工的腦區(qū)。另一方面, 有證據(jù)支持面孔與身體表情加工的神經(jīng)機(jī)制存在分離。Downing等人(2001)的研究直接將不同刺激進(jìn)行對比, 結(jié)果發(fā)現(xiàn)外紋狀皮層軀體區(qū)(extrastriate body area, EBA)僅對身體刺激敏感, 對面孔和其他刺激不敏感。此外, 盡管面孔和身體表情在腦區(qū)的激活峰值存在重合, 但具體的激活位置存在分離(Schwarzlose et al., 2005; van de Riet et al., 2009)。

        除了探討面孔表情和身體表情之間神經(jīng)機(jī)制的相似性與差異性, 研究者還發(fā)現(xiàn)了面孔表情和聲音情緒之間神經(jīng)機(jī)制的異同。例如, Dricu和Frühholz (2016)的元分析研究表明, 面孔和聲音都引起了雙側(cè)額下皮層(inferior frontal cortex, IFC)、腹內(nèi)側(cè)額葉(dorsal medial frontal cortex, DMFC)、右側(cè)顳上溝和左側(cè)腦島的激活; 面孔比聲音在雙側(cè)杏仁核、梭狀回中部(middle fusiform gyrus, MFG)和視覺聯(lián)合區(qū)更為活躍; 而聲音比面孔在右側(cè)顳上溝中部、左側(cè)額下皮層、左內(nèi)側(cè)額葉和額葉島蓋(frontal operculum, FOP)上激活更大。Schirmer (2018)的元分析則對納入的面孔和聲音研究進(jìn)行了匹配:為每個(gè)聲音研究選擇一個(gè)任務(wù)和情緒匹配的面孔研究; 沒有模式匹配的聲音研究被排除在分析之外; 如果一個(gè)聲音研究有多個(gè)匹配的面孔研究, 則進(jìn)一步在被試數(shù)量、性別比例和發(fā)表時(shí)間上進(jìn)行匹配, 選擇差異最小的研究。結(jié)果發(fā)現(xiàn), 面孔比聲音在雙側(cè)海馬旁回(parahippocampal gyrus, PHG)、左側(cè)胼胝下回(subcallosal gyrus, SG)和右側(cè)殼核(putamen)更為活躍; 聲音比面孔在雙側(cè)顳上溝上激活更大。

        盡管以往對不同情緒載體神經(jīng)機(jī)制異同的考察大多數(shù)集中于兩種情緒載體之間, 但仍有極少數(shù)研究者關(guān)注到了多模態(tài)刺激之間神經(jīng)機(jī)制的相似性與差異性。Peelen等人(2010)要求被試評估從面部運(yùn)動(dòng)、身體動(dòng)作和聲音語調(diào)中感知到的情緒強(qiáng)度, 結(jié)果發(fā)現(xiàn)內(nèi)側(cè)前額葉皮層(medial prefrontal cortex, MPFC)和左側(cè)顳上溝后部可以忽略情緒刺激載體來表征基本情緒。曹林敬(2018)的研究則有所不同:實(shí)驗(yàn)1要求被試判別視覺刺激的情緒類型而不考慮刺激的類別(面孔、身體和全身情緒), 分析表明只有左側(cè)中央后回(postcentral gyrus, POCG)可以跨模態(tài)的顯著區(qū)分3種情緒; 實(shí)驗(yàn)2要求被試對刺激的價(jià)態(tài)(負(fù)性、中性和正性)進(jìn)行判斷, 但刺激類別有4種(面孔、身體、聲音和音樂), 涉及視聽覺兩種模態(tài), 結(jié)果發(fā)現(xiàn)左側(cè)中央后回和顳中回既可以不受不同模態(tài)的限制(視覺和聽覺)表征價(jià)態(tài)信息, 又可以不受視覺(面孔和身體)和聽覺(聲音和音樂)模態(tài)內(nèi)各自不同刺激類別的限制表征價(jià)態(tài)信息。

        1.3 以往研究的不足

        一方面, 實(shí)證研究存在其自身不可避免的缺陷。首先, 單個(gè)腦成像研究使用的被試數(shù)量相對較少, 由此可能導(dǎo)致統(tǒng)計(jì)檢驗(yàn)力和效應(yīng)量較低(Yarkoni, 2009); 其次, 神經(jīng)影像學(xué)數(shù)據(jù)對任務(wù)和控制條件等的選擇特別敏感, 由此可能導(dǎo)致結(jié)果的不一致(周臨舒等, 2017)。因此, 有必要采用基于大規(guī)模數(shù)據(jù)合成方法的元分析技術(shù)來克服單個(gè)腦成像研究的局限(Eickhoff et al., 2009; Yarkoni et al., 2011)。這不僅有助于彌補(bǔ)對每種情緒載體整體認(rèn)識的不足[例如, 除上文所提及的腦區(qū)外, 大量的研究還發(fā)現(xiàn)動(dòng)態(tài)面孔表情和聲音情緒激活了其他腦區(qū)(Brattico et al., 2011; Sato et al., 2012; Trautmann et al., 2009)。此外, 關(guān)于身體表情的加工模型仍然存在爭論, 尚無較為統(tǒng)一的結(jié)論], 還可以探究3種情緒載體之間神經(jīng)活動(dòng)的一般性與差異性, 更能為今后的感興趣區(qū)(region of interest, ROI)分析提供具有代表的參考坐標(biāo)點(diǎn)。另一方面, 現(xiàn)有的元分析存在一定不足。首先, 在動(dòng)態(tài)面孔表情的元分析中, 大部分?jǐn)?shù)據(jù)來自于女性被試, 且納入分析的文獻(xiàn)既有面孔剛性運(yùn)動(dòng)(指頭部轉(zhuǎn)動(dòng), 相對于身體而運(yùn)動(dòng), 如點(diǎn)頭、搖頭)的研究, 又有非剛性運(yùn)動(dòng)(指臉部各個(gè)器官的運(yùn)動(dòng), 如眨眼、撇嘴等)的研究, 其結(jié)果可能存在一定偏差。其次, 目前還沒有任何研究對動(dòng)態(tài)身體表情進(jìn)行元分析以確定其大腦活動(dòng)區(qū)域。再次, 聲音情緒的元分析納入了非人類環(huán)境的聲音、部分研究只關(guān)注了情緒韻律的處理而忽視了音樂情緒和語調(diào)等。此外, 盡管有元分析將面孔和聲音進(jìn)行對比, 但研究未區(qū)分靜態(tài)和動(dòng)態(tài)面孔, 其結(jié)果的可靠性和可推廣性受到制約。最后, 目前還沒有元分析研究將面孔和身體、身體和聲音進(jìn)行對比, 對三種情緒載體神經(jīng)機(jī)制的相似性與差異性的認(rèn)識還相對不清晰。

        1.4 本元分析的目的

        綜上所述, 目前對每種情緒載體的整體認(rèn)識相對不完善, 同時(shí)對不同情緒載體之間腦機(jī)制的共性和區(qū)別知之甚少。因此, 在本研究中, 首先采用激活似然估計(jì)(activation likelihood estimation, ALE)元分析來識別每種情緒模式的大腦激活區(qū)域。然后, 對這些元分析激活圖進(jìn)行對比分析以評估三種情緒載體之間共同的和獨(dú)特的神經(jīng)機(jī)制。

        2 方法

        2.1 文獻(xiàn)檢索

        在PubMed、PsycINFO、CNKI和Google Scholar中對發(fā)表的關(guān)于情緒腦機(jī)制的研究進(jìn)行檢索(截止日期為2020年10月10日)。檢索使用的關(guān)鍵詞分為4組:第一組與神經(jīng)成像相關(guān):神經(jīng)成像、功能性磁共振成像(functional magnetic resonance imaging, fMRI)、正電子發(fā)射斷層掃描(positive emission tomography, PET)、Neuroimaging、fMRI、PET; 第二組與刺激載體相關(guān):面孔、身體、聲音、韻律、語調(diào)、音樂、facial、body、voice、vocal、prosody、intonation、music; 第三組與運(yùn)動(dòng)狀態(tài)相關(guān):動(dòng)態(tài)、移動(dòng)、運(yùn)動(dòng)、dynamic、move、motion。面孔和身體表情需將三組關(guān)鍵詞一一配對進(jìn)行檢索, 而聲音情緒僅需將前兩組相關(guān)詞進(jìn)行配對。此外, 對所有確定的研究進(jìn)行正向和反向引文檢索, 以確保納入所有相關(guān)的研究。依據(jù)上述方法, 共檢索到8494篇文獻(xiàn)。

        2.2 文獻(xiàn)選取標(biāo)準(zhǔn)

        文獻(xiàn)的納入與排除標(biāo)準(zhǔn)如下:(1)研究類型:文獻(xiàn)為實(shí)證研究, 排除綜述、元分析及個(gè)案研究; (2)研究對象:研究中的被試為正常人(平均年齡為9~55歲), 排除腦損傷病人和心理障礙患者等特殊群體以及年齡小于9歲的兒童和大于55的老年人; (3)刺激材料:研究使用的刺激材料為人類的動(dòng)態(tài)面孔(非剛性運(yùn)動(dòng))、動(dòng)態(tài)身體、聲音且呈現(xiàn)的情緒為6種基本情緒中的一種或中性, 排除使用靜態(tài)刺激、剛性運(yùn)動(dòng)面孔、點(diǎn)光運(yùn)動(dòng)身體、動(dòng)物聲音以及非基本情緒或中性的研究; (4)研究手段:研究采用fMRI或PET的方法, 排除采用認(rèn)知行為、腦電圖(electroencephalograph, EEG)和腦磁圖(magnetoencephalography, MEG)等其他方法的文獻(xiàn)以及旨在分析白質(zhì)和灰質(zhì)情況的彌散張量成像(diffusion tensor imaging, DTI)和磁共振成像(magnetic resonance imaging, MRI)研究; (5)數(shù)據(jù)分析:研究采用全腦分析, 排除只進(jìn)行感興趣區(qū)域分析的研究; (6)結(jié)果報(bào)告:研究使用標(biāo)準(zhǔn)化后的Talairach或MNI空間報(bào)告大腦的激活結(jié)果, 排除未報(bào)告激活區(qū)域坐標(biāo)的研究。具體的篩選過程與結(jié)果請見圖1。

        2.3 文獻(xiàn)編碼

        對納入元分析的文獻(xiàn)進(jìn)行如下編碼:文獻(xiàn)信息(第一作者姓名和發(fā)表時(shí)間)、樣本量大小(總樣本量及男性樣本量)、年齡(平均年齡或年齡范圍)、坐標(biāo)空間(Talairach 或MNI 空間)、成像手段(fMRI或PET)、實(shí)驗(yàn)具體對比和坐標(biāo)值。先由第一作者在兩個(gè)時(shí)間段依據(jù)文獻(xiàn)納入與排除標(biāo)準(zhǔn)進(jìn)行編碼, 再由通訊作者對兩次編碼結(jié)果進(jìn)行校對。結(jié)果顯示, 兩次編碼僅存在個(gè)別數(shù)據(jù)偏差, 一致性較高。納入文獻(xiàn)的基本信息請見表1。

        2.4 激活似然估計(jì)法

        研究使用神經(jīng)成像領(lǐng)域最常用的元分析方法——激活似然估計(jì)法。它是利用高斯概率密度分布模擬激活焦點(diǎn)局部化的不確定性, 這些分布的體素聯(lián)合產(chǎn)生ALE值, 即數(shù)據(jù)集中至少一個(gè)焦點(diǎn)位于給定體素的可能性估計(jì)(Turkeltaub et al., 2012; Morrison, 2016)。數(shù)據(jù)處理通過GingerALE軟件(3.0.2版本) (Eickhoff et al., 2009; Turkeltaub et al., 2012)進(jìn)行。在數(shù)據(jù)分析之前, 使用軟件中的轉(zhuǎn)換工具將MNI空間中報(bào)告的坐標(biāo)轉(zhuǎn)換為Talairach空間中的坐標(biāo)。然后, 分別對3種情緒載體進(jìn)行單一元分析, 在統(tǒng)計(jì)圖閾值為< 0.05的水平上使用家族錯(cuò)誤校正(Cluster?level FWE), 對聚類閾值為< 0.001進(jìn)行多重比較(5000個(gè)排列)校正(Eickhoff et al., 2017)。最后, 3種情緒載體兩兩間進(jìn)行對比分析, 與前人研究一致(Arsalidou et al., 2020; Yalpe & Arsalidou, 2018), 對比分析閾值為< 0.01且最小團(tuán)塊大于200 mm3(10000個(gè)排列)。

        圖1 文獻(xiàn)篩選流程圖

        表1 元分析文獻(xiàn)基本信息

        續(xù)表1

        續(xù)表1

        注:T = Talairach, M = MNI, D = 動(dòng)態(tài), S = 靜態(tài), E = 情緒, N = 負(fù)性情緒, P = 正性情緒, a = 憤怒, d = 厭惡, f = 恐懼, s1= 悲傷, s2= 驚訝, h = 高興, n = 中性

        3 結(jié)果

        3.1 單一元分析的結(jié)果

        分析顯示, 相較于靜態(tài)載體, 動(dòng)態(tài)面孔在雙側(cè)顳上回、顳中回、梭狀回, 左側(cè)顳下回、海馬旁回、杏仁核, 右側(cè)額下回、中央前回(precentral gyrus, PG)、豆?fàn)詈?lentiform nucleus, LN)激活更大; 動(dòng)態(tài)身體在雙側(cè)顳上回和右側(cè)小腦更活躍。相比于中性刺激, 動(dòng)態(tài)情緒面孔引起了雙側(cè)顳上回、顳中回、梭狀回、小腦和杏仁核, 左側(cè)顳下回和枕中回, 右側(cè)額下回、額中回(medial frontal gyrus, MFG)、中央前回、腦島和頂下小葉的激活; 動(dòng)態(tài)情緒身體在雙側(cè)顳上回, 左側(cè)枕中回、枕下回、楔葉、小腦, 右側(cè)顳下回、梭狀回、海馬旁回更活躍; 情緒聲音在雙側(cè)顳上回, 左側(cè)顳中回、顳橫回(transverse temporal gyrus, TTG)、中央前回和杏仁核, 右側(cè)額下回、額中回和腦島激活更大。與中性和負(fù)性載體相比, 動(dòng)態(tài)正性面孔在右側(cè)顳中回、枕下回和小腦更活躍; 動(dòng)態(tài)正性身體在左側(cè)小腦和右側(cè)顳上回、枕中回、舌回(lingual gyrus, LING)激活更大; 正性聲音情緒則引起了雙側(cè)顳上回, 左側(cè)杏仁核, 右側(cè)顳橫回和尾狀核(CN)的激活。負(fù)性情緒效應(yīng)顯示, 動(dòng)態(tài)負(fù)性面孔在雙側(cè)顳中回和杏仁核, 左側(cè)額下回, 右側(cè)顳上回、額上回(superior frontal gyrus, SFG)、枕中回、梭狀回、中央前回和海馬旁回激活更大; 動(dòng)態(tài)負(fù)性身體在左側(cè)顳上回、枕中回、枕下回、和楔葉以及右側(cè)顳中回和梭狀回更活躍; 負(fù)性聲音引起了雙側(cè)顳上回和額下回, 左側(cè)顳橫回、中央前回和右側(cè)腦島的激活。

        3.2 聯(lián)合分析的結(jié)果

        聯(lián)合分析的結(jié)果見表2和圖2。其中, 圖2第1~6列激活圖表示三種情緒載體兩兩之間共同激活的腦區(qū)。在動(dòng)態(tài)效應(yīng)下, 動(dòng)態(tài)面孔和身體共同激活的腦區(qū)有:雙側(cè)顳上回、左側(cè)梭狀回和右側(cè)小腦。在情緒效應(yīng)下, 動(dòng)態(tài)面孔和身體共同激活了雙側(cè)顳上回, 左側(cè)顳中回、枕下回以及右側(cè)顳下回、梭狀回、海馬旁回、豆?fàn)詈? 動(dòng)態(tài)面孔和聲音共同激活了左側(cè)顳中回、杏仁核和右側(cè)顳上回、額下回、腦島; 動(dòng)態(tài)身體和聲音共同激活了左側(cè)顳中回和右側(cè)顳上回。在正性情緒效應(yīng)下, 動(dòng)態(tài)面孔和身體被發(fā)現(xiàn)在右側(cè)顳下回和顳中回共同激活。在負(fù)性情緒效應(yīng)下, 動(dòng)態(tài)面孔和身體被發(fā)現(xiàn)共同激活了雙側(cè)顳下回、左側(cè)顳中回和右側(cè)枕下回。動(dòng)態(tài)面孔和聲音、動(dòng)態(tài)身體和聲音在正性和負(fù)性情緒效應(yīng)下不存在共同的激活腦區(qū)。第7列則展示了動(dòng)態(tài)面孔和身體在動(dòng)態(tài)效應(yīng)、情緒效應(yīng)、正性和負(fù)性情緒效應(yīng)下共同激活的所有腦區(qū)。第8~11列激活圖表示三種情緒載體兩兩之間共同激活腦區(qū)的進(jìn)一步疊加, 重疊的部分即共同激活的腦區(qū)。由此不難看出三種情緒載體共同激活的區(qū)域位于左側(cè)顳中回和右側(cè)顳上回。

        表2 聯(lián)合分析激活簇結(jié)果

        圖2 聯(lián)合分析的結(jié)果

        3.3 對比分析的結(jié)果

        對比分析顯示, 在動(dòng)態(tài)效應(yīng)下, 與面孔相比, 身體引起了左側(cè)顳上回的激活。在情緒效應(yīng)下, 面孔相比于身體在右側(cè)梭狀回、中央前回、海馬旁回和小腦激活更大, 反過來, 身體引起了左側(cè)枕下回、舌回、楔葉和右側(cè)枕中回的活躍; 與聲音相比, 面孔在雙側(cè)海馬旁回, 左側(cè)小腦和杏仁核以及右側(cè)顳上回、額上回、梭狀回、中央前回和頂下小葉激活更大, 而聲音引起了雙側(cè)顳上回和左側(cè)腦島的活躍; 相較于聲音, 身體在左側(cè)顳下回、舌回、楔葉和右側(cè)顳中回、梭狀回、豆?fàn)詈思せ罡? 反之, 聲音引起了雙側(cè)顳上回和右側(cè)顳中回、中央前回的活躍。在正性情緒效應(yīng)下, 與聲音相比, 身體在右側(cè)枕中回更活躍, 而面孔比聲音在右側(cè)顳下回、枕中回、枕下回、梭狀回、小腦激活更大; 與面孔相比, 聲音在雙側(cè)腦島和左側(cè)顳上回更活躍, 而身體引起了右側(cè)枕中回的激活。在負(fù)性情緒效應(yīng)下, 相對于面孔, 身體引起了左側(cè)楔葉以及右側(cè)枕中回和小腦的活躍; 與聲音相比, 面孔在雙側(cè)顳中回, 左側(cè)額下回和杏仁核以及右側(cè)梭狀回和中央前回上激活更大; 相對于面孔, 聲音引起了雙側(cè)顳上回和左側(cè)顳橫回的活躍; 身體相比于聲音, 在雙側(cè)顳下回和梭狀回以及左側(cè)顳上回、顳中回和楔葉上顯著激活; 相對于身體, 聲音引起了雙側(cè)顳上回、顳橫回和左側(cè)中央前回、腦島的活躍(見表3和圖3)。在動(dòng)態(tài)效應(yīng)、正性情緒效應(yīng)和負(fù)性情緒效應(yīng)下未發(fā)現(xiàn)動(dòng)態(tài)面孔比動(dòng)態(tài)身體激活更大的腦區(qū), 同時(shí), 未在負(fù)性情緒效應(yīng)下發(fā)現(xiàn)聲音情緒比動(dòng)態(tài)身體更活躍的區(qū)域。

        4 討論

        本研究使用ALE元分析確定了動(dòng)態(tài)面孔表情、動(dòng)態(tài)身體表情和聲音情緒各自的大腦激活區(qū)域, 探明了三種情緒載體之間共同的和不同的大腦活動(dòng)機(jī)制。在接下來的章節(jié)中, 我們將討論當(dāng)前發(fā)現(xiàn)對于理解情緒識別的潛在意義, 重點(diǎn)關(guān)注不同情緒載體之間的異同。

        表3 對比分析激活簇結(jié)果

        續(xù)表3

        4.1 單一元分析:不同情緒載體的神經(jīng)機(jī)制

        4.1.1 動(dòng)態(tài)面孔表情

        與以往的動(dòng)態(tài)面孔表情元分析一致(Zinchenko et al., 2018), 本研究發(fā)現(xiàn)了雙側(cè)梭狀回和顳中回, 左側(cè)枕中回、小腦、杏仁核和額下回, 右側(cè)顳上回和枕下回的激活。此外, 結(jié)果顯示, 雙側(cè)海馬旁回, 左側(cè)顳上回和顳下回以及右側(cè)枕中回、額上回、額中回、額下回、中央前回、頂下小葉、小腦、杏仁核、豆?fàn)詈撕湍X島也處于活躍狀態(tài)。其中雙側(cè)顳上回、顳中回、梭狀回, 左側(cè)顳下回、海馬旁回、杏仁核以及右側(cè)額下回、中央前回、豆?fàn)詈藢?dòng)態(tài)信息敏感; 雙側(cè)顳上回、顳中回、梭狀回、小腦和杏仁核, 左側(cè)顳下回和枕中回, 右側(cè)額下回、額中回、中央前回、腦島和頂下小葉對情緒信息更活躍; 而右側(cè)顳中回、枕下回和小腦對正性情緒信息更敏感; 雙側(cè)顳中回和杏仁核, 左側(cè)額下回, 右側(cè)顳上回、額上回、枕中回、梭狀回、中央前回和海馬旁回則對負(fù)性情緒信息更活躍。兩項(xiàng)研究結(jié)果共同驗(yàn)證和拓展了動(dòng)態(tài)面孔表情處理的核心?擴(kuò)展神經(jīng)網(wǎng)絡(luò)(張琪等, 2015), 結(jié)果表明:核心的神經(jīng)網(wǎng)絡(luò)(顳?枕聯(lián)合區(qū))主要包括梭狀回、顳上回、顳中回、顳下回、枕中回和枕下回等腦區(qū); 擴(kuò)展的神經(jīng)網(wǎng)絡(luò)包括兩個(gè)部分, 一是核心腦區(qū)之外的廣大皮層腦區(qū), 包括額上回、額中回、額下回、中央前回和頂下小葉等, 二是皮層下的相關(guān)腦區(qū), 涉及海馬旁回、小腦、杏仁核、豆?fàn)詈艘约澳X島等區(qū)域。核心的神經(jīng)網(wǎng)絡(luò)主要負(fù)責(zé)早期的知覺編碼和刺激的運(yùn)動(dòng)加工, 而擴(kuò)展網(wǎng)絡(luò)與個(gè)體的空間注意力、面孔模仿、情緒處理、刺激的動(dòng)態(tài)表征等有關(guān)。這些結(jié)果極大的完善了動(dòng)態(tài)面孔表情處理的神經(jīng)網(wǎng)絡(luò), 為動(dòng)態(tài)面孔表情的識別提供了一個(gè)基礎(chǔ)模型。

        圖3 對比分析的結(jié)果

        4.1.2 動(dòng)態(tài)身體表情

        如前文所述, 大多數(shù)的研究驗(yàn)證和支持了de Gelder等人(2006, 2015)提出的雙通道模型, 但我們的結(jié)果(動(dòng)態(tài)身體信息激活了雙側(cè)顳上回和右側(cè)小腦; 情緒信息引起了雙側(cè)顳上回, 左側(cè)枕中回、枕下回、楔葉、小腦以及右側(cè)顳下回、梭狀回和海馬旁回的活躍; 正性情緒信息更多地激活了左側(cè)小腦和右側(cè)顳上回、枕中回、舌回; 而左側(cè)顳上回、枕中回、枕下回、和楔葉以及右側(cè)顳中回和梭狀回對負(fù)性情緒信息更敏感)似乎更支持軀體形態(tài)與動(dòng)作加工的分層神經(jīng)模型(Giese & Poggio, 2003)。這并不矛盾, 因?yàn)镚iese和Poggio (2003)的理論強(qiáng)調(diào)從身體的外形和動(dòng)作中推斷情緒信息, 其本質(zhì)是一種自下而上的加工機(jī)制, 沒有涉及以往經(jīng)驗(yàn)和記憶對情緒的分類、調(diào)節(jié)等高級認(rèn)知加工; 而de Gelder (2006, 2015)等人的理論在強(qiáng)調(diào)自動(dòng)化加工的同時(shí)充分地考慮了認(rèn)知因素對情緒及行為的調(diào)節(jié)作用, 將自下而上的加工與自上而下的加工相結(jié)合。當(dāng)前元分析納入的文獻(xiàn)中并未探究高級認(rèn)知加工的影響, 因此未發(fā)現(xiàn)相關(guān)腦區(qū)的激活。本研究在Giese和Poggio (2003)的分層神經(jīng)模型基礎(chǔ)上為研究者們呈現(xiàn)了一個(gè)更為完善的動(dòng)態(tài)身體表情加工模型:軀體形態(tài)信息的加工通路始于視覺皮層, 經(jīng)次級顳葉皮層到達(dá)梭狀回和顳上溝; 動(dòng)作與情緒信息的加工通路也從視覺皮層出發(fā), 經(jīng)廣大枕?顳葉皮層, 最后到達(dá)負(fù)責(zé)整合人類復(fù)雜動(dòng)作信息的顳上溝; 同時(shí), 小腦、楔葉、舌回和海馬旁回等皮層下區(qū)域也不同程度的參與了視覺、動(dòng)作和情緒信息的加工。

        4.1.3 聲音情緒

        本研究發(fā)現(xiàn)情緒性聲音激活了雙側(cè)顳上回, 右側(cè)額下回、額中回和腦島, 左側(cè)顳中回、顳橫回、中央前回和杏仁核; 正性聲音情緒引起了雙側(cè)顳上回, 左側(cè)杏仁核, 右側(cè)顳橫回和尾狀核的活躍; 負(fù)性聲音情緒引起了雙側(cè)顳上回和額下回, 右側(cè)腦島、左側(cè)顳橫回和中央前回的激活。與前人關(guān)于聲音情緒的元分析研究基本一致(Frühholz & Grandjean, 2013; Frühholz et al., 2016)。支持了現(xiàn)有關(guān)于聲音情緒神經(jīng)基礎(chǔ)的理解:(1)人類聽覺皮層中存在對聲音情緒進(jìn)行特異性加工的區(qū)域, 即沿雙側(cè)顳上回/溝分布的顳葉聲音區(qū)(temporal voice areas, TVA)。(2)大腦分三條通路加工聲音情緒的言語、情緒和身份信息:在顳上溝、后外側(cè)顳葉、前顳葉和額下回等區(qū)域加工言語信息; 在初級和次級聽覺皮層、顳上回/溝、杏仁核、眶額皮質(zhì)以及額下皮層處理情緒信息; 在顳上回/溝、顳橫回、顳平面以及顳中回對身份信息進(jìn)行表征。同時(shí), 擴(kuò)展了在聲音情緒加工中對額中回、腦島和尾狀核作用的理解, 研究表明, 這三個(gè)腦區(qū)都參與了聲音刺激中對情緒信息的處理(Bestelmeyer et al., 2014; Mitterschiffthaler et al., 2007; Numminen- Kontti, 2014)。此外, 我們還發(fā)現(xiàn)了以往元分析未曾報(bào)告的中央前回的激活。既往研究發(fā)現(xiàn)中央前回作為額葉情緒處理區(qū)域的一部分, 和正負(fù)性情緒處理都相關(guān)(Brattico et al., 2011; Fecteau et al., 2007; Numminen?Kontti, 2014)。

        4.2 聯(lián)合分析:不同情緒載體共性的神經(jīng)機(jī)制

        聯(lián)合分析表明, 動(dòng)態(tài)面孔和身體共同激活了雙側(cè)顳上回、顳中回、顳下回、枕下回和梭狀回, 以及右側(cè)海馬旁回、豆?fàn)詈撕托∧X; 動(dòng)態(tài)面孔和聲音情緒共同引起了左側(cè)顳中回、杏仁核和右側(cè)顳上回、額下回、腦島的活躍; 動(dòng)態(tài)身體和聲音情緒在左側(cè)顳中回和右側(cè)顳上回上共同激活; 其中, 左側(cè)顳中回和右側(cè)顳上回為3種情緒載體所共同激活。

        4.2.1 左側(cè)顳中回

        顳中回是人類非常重要的一個(gè)腦區(qū), 其功能復(fù)雜而多樣。Xu等人(2019)用靜息狀態(tài)功能連通性和共激活模式描述了顳中回分離的功能, 發(fā)現(xiàn)左側(cè)顳中回在社會認(rèn)知、音韻加工、動(dòng)作觀察、情緒感應(yīng)、心理理論、語音識別、面孔監(jiān)控/識別等多方面發(fā)揮作用。元分析表明, 左側(cè)顳中回在動(dòng)態(tài)面孔表情處理中發(fā)揮著重要作用(Arsalidou et al., 2011; Zinchenko et al., 2018), 主要負(fù)責(zé)動(dòng)態(tài)面孔的特征運(yùn)動(dòng)。在動(dòng)態(tài)身體表情的研究中也發(fā)現(xiàn)了左側(cè)顳中回的激活, 主要涉及動(dòng)作知覺和身體形狀的選擇性激活以及情緒識別(Grèzes et al., 2007; Jastorff et al., 2015; Poyo Solanas et al., 2020)。而聲音情緒的研究發(fā)現(xiàn)左側(cè)顳中回不僅被聲音選擇性激活(Ceravolo, 2013); 而且對語音信息敏感(Binder et al., 1997); 同時(shí)還是情緒加工的重要腦區(qū), 既包括情緒與中性的比較(Leitman et al., 2010; Regenbogen et al., 2012), 也包括情緒間的對比(Numminen?Kontti, 2014), 還包括復(fù)雜情緒的理解(Alba?Ferrara et al., 2011)。曹林敬(2018)利用動(dòng)態(tài)面孔、動(dòng)態(tài)身體、聲音和音樂刺激發(fā)現(xiàn), 左側(cè)顳中回不僅可以跨模態(tài)(視覺和聽覺)表征情緒信息, 并且不受視覺(動(dòng)態(tài)面孔和動(dòng)態(tài)身體)和聽覺(聲音和音樂)模態(tài)內(nèi)不同刺激的影響。綜上所述, 左側(cè)顳中回在表情識別中扮演著普遍的角色, 不論是在單模態(tài)刺激中還是在多模態(tài)刺激的比較中均發(fā)現(xiàn)了左側(cè)顳中回的激活, 但在不同載體中發(fā)揮的作用有所不同。

        4.2.2 右側(cè)顳上回

        近20年來, 研究者對顳上回及其周圍區(qū)域進(jìn)行了廣泛的研究, 大量的發(fā)現(xiàn)反而使得顳上回區(qū)域在人類大腦中的作用愈加神秘。Bukowski和Lamm (2018)系統(tǒng)總結(jié)了顳上回區(qū)域證據(jù)相對充分的功能, 包括言語感知(Hickok & Poeppel, 2007)、聲音識別(Kriegstein & Giraud, 2004)、音樂感知(Mitterschiffthaler et al., 2007)、面孔處理(張琪等, 2015)、生物運(yùn)動(dòng)(Pelphrey et al., 2005)、視聽整合(Stevenson & James, 2009)、自傳體記憶和靜息狀態(tài)活動(dòng)(Spreng & Grady, 2010)、自我?他人歸因(Sperduti et al., 2011)、心理理論和同情心以及個(gè)性(Olson et al., 2007)等。研究發(fā)現(xiàn), 右側(cè)顳上回不僅在單一刺激中被激活, 也被動(dòng)態(tài)面孔和身體(Goldberg et al., 2015; Kret et al., 2011)、動(dòng)態(tài)面孔和聲音情緒共同激活(Dricu & Frühholz, 2016; Watson et al., 2014), 并且在顳上回右后部有一個(gè)有限的部分, 與物體相比, 它對人的信息具有綜合偏好(Watson et al., 2014)。同時(shí), 來自精神分裂癥、自閉癥和注意缺陷多動(dòng)障礙等的疾病研究也表明右后側(cè)顳上回與患者的情緒識別缺陷有關(guān)(Alaerts et al., 2013; Mier et al., 2016; Zuberer et al., 2020)。當(dāng)前研究再次證明了右側(cè)顳上回在表情識別中的重要作用[對刺激進(jìn)行感官處理之后理解和識別情緒(Dricu & Frühholz, 2016; Yang et al., 2015)], 同時(shí)表明右側(cè)顳上回可以跨動(dòng)態(tài)面孔、動(dòng)態(tài)身體和聲音情緒三種模態(tài)表征情緒。

        4.3 對比分析:不同情緒載體分化的神經(jīng)機(jī)制

        盡管面孔、身體和聲音都是社會關(guān)系建立和維持過程中不可或缺的交際信號, 都可以導(dǎo)致對情緒狀態(tài)的相同識別, 但每種情緒載體都有自己可靠的特異性激活區(qū)域。整體來看, 動(dòng)態(tài)面孔非常突出, 比動(dòng)態(tài)身體和聲音情緒更能引發(fā)大腦活動(dòng), 涉及雙側(cè)顳中回、梭狀回、海馬旁回、小腦, 左側(cè)額下回、杏仁核, 右側(cè)顳上回、顳下回、額上回、中央前回和頂下小葉。與其它兩種載體相比, 動(dòng)態(tài)身體調(diào)動(dòng)了雙側(cè)顳中回、顳下回和梭狀回, 左側(cè)顳上回、枕下回、舌回和楔葉以及右側(cè)枕中回、豆?fàn)詈撕托∧X的活躍。盡管視覺刺激更有優(yōu)勢, 但聲音情緒有其獨(dú)特性, 引起了雙側(cè)顳上回、顳橫回、中央前回、腦島和右側(cè)顳中回的激活。

        4.3.1 突出的動(dòng)態(tài)面孔

        與動(dòng)態(tài)身體相比, 動(dòng)態(tài)面孔主要激活了右側(cè)小腦、梭狀回、海馬旁回和中央前回。van de Riet等人(2009)要求被試對靜態(tài)面孔和身體表情進(jìn)行分類, 結(jié)果發(fā)現(xiàn)面孔比身體顯著激活了小腦, 當(dāng)前研究將這一結(jié)論擴(kuò)展到了動(dòng)態(tài)面孔和身體。眾所周知, 梭狀回是面孔識別的核心區(qū)域, 對面孔進(jìn)行特異性加工, Atkinson等人(2012)的研究對動(dòng)態(tài)點(diǎn)光顯示的面孔和身體進(jìn)行對比, 發(fā)現(xiàn)動(dòng)態(tài)面孔相比于動(dòng)態(tài)身體顯著激活了雙側(cè)梭狀回面孔區(qū)域。另一項(xiàng)研究(Kret et al., 2011)將現(xiàn)實(shí)的威脅性動(dòng)態(tài)面孔和身體進(jìn)行比較, 結(jié)果表明, 與動(dòng)態(tài)身體相比, 動(dòng)態(tài)面孔顯著引起了海馬的激活。中央前回則與動(dòng)作觀察和模仿有關(guān), 被認(rèn)為是人類鏡像神經(jīng)元系統(tǒng)的一部分(Iacoboni et al., 1999)。該系統(tǒng)通過模仿和學(xué)習(xí)提供了一種動(dòng)作識別機(jī)制, 將動(dòng)作的感覺表征轉(zhuǎn)化為相應(yīng)的運(yùn)動(dòng)程序(Rizzolatti & Craighero, 2004)。在大量的動(dòng)態(tài)面孔表情研究中均發(fā)現(xiàn)中央前回對動(dòng)態(tài)面孔表情具有強(qiáng)烈反應(yīng), 既在動(dòng)態(tài)面孔與靜態(tài)面孔的對比中被激活(Foley et al., 2012; Sato et al., 2012), 也在動(dòng)態(tài)情緒面孔和動(dòng)態(tài)中性面孔的比較中被激活(Trautmann et al., 2009; Wicker et al., 2003)。但在動(dòng)態(tài)身體表情的研究中鮮有類似發(fā)現(xiàn)。

        與聲音情緒相比, 動(dòng)態(tài)面孔在雙側(cè)海馬旁回、顳中回和小腦, 左側(cè)額下回和杏仁核以及右側(cè)顳上回、顳下回、枕中回、枕下回、額上回、梭狀回、中央前回和頂下小葉更活躍。張帆(2018)的研究表明, 低級視覺皮層和面孔選擇區(qū)(梭狀回和顳上回)對面孔圖片的激活大于聲音情緒。其它研究利用動(dòng)態(tài)刺激發(fā)現(xiàn)面孔比聲音在雙側(cè)顳中回、左側(cè)顳下回激活更強(qiáng)(Hasan et al., 2016)。而Aubé等人(2015)在非言語發(fā)聲的基礎(chǔ)上加入了音樂情緒, 結(jié)果發(fā)現(xiàn)動(dòng)態(tài)面孔引起了枕葉、運(yùn)動(dòng)皮層、輔助運(yùn)動(dòng)區(qū)(supplementary motor area, SMA)和背外側(cè)前額葉皮層(dorsolateral prefrontal cortex, DLPFC)的活躍。元分析則表明面孔比聲音情緒在雙側(cè)海馬旁回、杏仁核、梭狀回、視覺聯(lián)合區(qū), 左側(cè)胼胝下回以及右側(cè)殼核更活躍(Dricu & Frühholz, 2016; Schirmer, 2018)。最新的一項(xiàng)研究(Lin et al., 2020)結(jié)果更為豐富:在雙側(cè)額中回, 左側(cè)梭狀回、枕下回、扣帶回和尾狀核, 右側(cè)顳下回、中央后回、中央前回、緣上回(supramarginal gyrus, SG)、枕中回、楔葉和扣帶前回均發(fā)現(xiàn)了動(dòng)態(tài)面孔比聲音情緒更活躍。綜上所述, 當(dāng)前研究驗(yàn)證了以往的結(jié)果, 同時(shí)還發(fā)現(xiàn)了雙側(cè)小腦和左側(cè)額下回被激活。小腦的作用主要是協(xié)助大腦維持身體的平衡與協(xié)調(diào), 在感覺分辨中發(fā)揮重要作用(彭聃齡, 2019), 因此, 面孔作為身體的一部分比聲音刺激在小腦更為活躍就不足為奇。與聲音相比, 動(dòng)態(tài)面孔可能會產(chǎn)生更多需要協(xié)調(diào)的信息, 因此需要自上而下的認(rèn)知控制, 所以, 與認(rèn)知過程相關(guān)的額下回區(qū)域也被激活(Arsalidou et al., 2011; Christoff & Gabrieli, 2000)。

        4.3.2 重要的動(dòng)態(tài)身體

        對比分析結(jié)果表明, 動(dòng)態(tài)身體在動(dòng)態(tài)效應(yīng)、情緒效應(yīng)、正性情緒效應(yīng)和負(fù)性情緒效應(yīng)下均比動(dòng)態(tài)面孔更活躍, 涉及左側(cè)顳上回、枕下回、舌回、楔葉以及右側(cè)枕中回和小腦。以往的研究(Atkinson et al., 2012; Kret et al., 2011)已經(jīng)發(fā)現(xiàn)了動(dòng)態(tài)身體相比動(dòng)態(tài)面孔更占優(yōu)勢的腦區(qū), 例如顳上回、楔葉、舌回和EBA, 但沒有發(fā)現(xiàn)小腦的活動(dòng)。早在2001年的研究中, Downing等人就發(fā)現(xiàn)了EBA對身體刺激敏感, 但對面孔和其他刺激不敏感。顳上回的功能是負(fù)責(zé)整合人類復(fù)雜的動(dòng)作信息(de Gelder et al., 2014; Moro et al., 2008)。楔葉和舌回主要參與情緒加工(Jastorff et al., 2015; Kret et al., 2011)。而小腦主要負(fù)責(zé)身體運(yùn)動(dòng)的視覺感知和動(dòng)作理解(Sokolov et al., 2010)。對于小腦在動(dòng)態(tài)面孔>動(dòng)態(tài)身體和動(dòng)態(tài)身體>動(dòng)態(tài)面孔的對比中均被激活的原因有待進(jìn)一步的研究。我們的初步推測是:小腦與動(dòng)態(tài)面孔表情和動(dòng)態(tài)身體表情的神經(jīng)網(wǎng)絡(luò)都有聯(lián)系, 在二者的情緒及動(dòng)作加工中均發(fā)揮了作用, 但小腦的不同部位各自負(fù)責(zé)面孔和身體。畢竟小腦是如此之大[最近發(fā)表在PNAS上的一項(xiàng)研究發(fā)現(xiàn), 人類的小腦幾乎擁有新大腦皮層表面積的80% (Sereno et al., 2020)]、如此之復(fù)雜[劃分為13個(gè)小葉(Stoodley & Schmahmann, 2010)以及小腦腳、齒狀核(dentate nucleus, DN)等諸多結(jié)構(gòu)], 目前還沒有研究很好地對小腦進(jìn)行最全面的解剖學(xué)區(qū)域劃分并對子區(qū)域的具體功能進(jìn)行探討。

        相較于聲音情緒, 動(dòng)態(tài)身體在雙側(cè)顳中回、顳下回、梭狀回, 左側(cè)顳上回、楔葉、舌回, 右側(cè)枕中回和豆?fàn)詈孙@著激活。這說明EBA不僅在區(qū)分身體表情和其他視覺刺激時(shí)起作用, 也在區(qū)分聲音情緒時(shí)活躍。此外, 梭狀回軀體區(qū)(fusiform body area, FBA)的功能似乎也被擴(kuò)展了, 不僅僅是負(fù)責(zé)身體和情緒信息加工(Goldberg et al., 2015; Hodzic et al., 2009), 可能也參與視聽覺信息的分辨。結(jié)果顯示, 楔葉和舌回僅在動(dòng)態(tài)身體中被發(fā)現(xiàn)激活更大, 而沒有在動(dòng)態(tài)面孔和聲音情緒中被發(fā)現(xiàn), 這提示我們, 楔葉和舌回既是情緒加工的區(qū)域, 也可能是身體表情加工新的特異性腦區(qū)。既往關(guān)于身體表情的研究雖然沒有發(fā)現(xiàn)豆?fàn)詈说募せ? 但報(bào)道了其組成部分之一的殼核被激活(de Gelder et al., 2004; van de Riet et al., 2009), 主要負(fù)責(zé)感知運(yùn)動(dòng)與行為信息。這些結(jié)果為之后的研究奠定了基礎(chǔ), 但還需要相關(guān)研究的進(jìn)一步佐證。據(jù)我們所知, 目前還沒有實(shí)證研究直接對比動(dòng)態(tài)身體和聲音情緒來探究二者之間神經(jīng)機(jī)制的異同。

        4.3.3 獨(dú)特的聲音情緒

        與動(dòng)態(tài)面孔相比, 聲音情緒在雙側(cè)顳上回和腦島以及左側(cè)顳橫回激活更大。如前文所述, 雙側(cè)顳上回分布著對聲音情緒進(jìn)行特異性加工的區(qū)域:TVA, 這與其他研究者的結(jié)果一致 (Aubé et al., 2015; Schirmer, 2018)。腦島的作用主要是聲音情緒的認(rèn)知表征和情緒探測, 不僅在以往的元分析研究中被發(fā)現(xiàn)激活(Frühholz et al., 2016; Witteman et al., 2012), 也在最近的一項(xiàng)聲音情緒與動(dòng)態(tài)面孔的實(shí)證比較中被發(fā)現(xiàn)激活(Lin et al., 2020)。顳橫回主要負(fù)責(zé)身份信息的感知加工, 是整合模型的重要組成部分(Maguinness et al., 2018)。與動(dòng)態(tài)身體相比, 聲音情緒激活了雙側(cè)顳上回、顳橫回、中央前回, 左側(cè)腦島和右側(cè)顳中回。以上發(fā)現(xiàn)共同證明了TVA是聽覺信息加工的重要特異性腦結(jié)構(gòu), 能夠很好的區(qū)分聲音情緒與動(dòng)態(tài)面孔和身體。此外, 顳橫回和腦島除了本身所具有的功能之外也可能是聲音情緒加工的又一特異性腦區(qū)。顳中回則在情緒處理和身份信息表征中扮演著重要角色(Friederici & Alter, 2004; Roswandowitz et al., 2017)。中央前回作為額葉情緒處理區(qū)域的一部分, 在情緒處理中發(fā)揮著重要作用(Brattico et al., 2011; Fecteau et al., 2007; Numminen-Kontti, 2014)。

        同時(shí), 本研究存在著一些局限。其一, 未對納入被試的年齡范圍加以嚴(yán)格限制。盡管以往的ALE元分析研究也納入了少量的兒童/青少年或老年被試(Arsalidou et al., 2020; Ran & Zhang, 2018), 但年齡是一個(gè)重要的影響因素, 不同的年齡階段可能會帶來結(jié)果的不一致。因此, 將來的研究應(yīng)該對被試的年齡加以嚴(yán)格限制, 針對特定的年齡階段進(jìn)行元分析, 并可比較不同年齡段之間的異同。其二, 由于相關(guān)研究的數(shù)量較少, 難以達(dá)到ALE元分析對實(shí)驗(yàn)對比的基本要求(Eickhoff et al., 2017; Eickhoff et al., 2009), 因而未針對具體的情緒類型(如憤怒、恐懼、厭惡等)進(jìn)行分析。今后的元分析應(yīng)該在有足夠數(shù)據(jù)的情況下對每種情緒類型的神經(jīng)機(jī)制進(jìn)行探究, 并分析同一種情緒類型在不同情緒載體之間神經(jīng)活動(dòng)的異同。

        5 結(jié)論

        綜上所述, 我們的研究結(jié)果驗(yàn)證和拓展了三種情緒載體的現(xiàn)有神經(jīng)模型, 探明了三者之間神經(jīng)機(jī)制的異同。三項(xiàng)單一元分析顯示, 動(dòng)態(tài)面孔表情的大腦活動(dòng)包括廣泛的額葉、枕葉、顳葉和部分頂葉皮層以及海馬、小腦、丘腦、杏仁核等皮層下區(qū)域; 動(dòng)態(tài)身體的激活集中于顳/枕葉相關(guān)腦區(qū)以及小腦和海馬; 聲音情緒則引起了顳葉、額葉、杏仁核和腦島的激活。聯(lián)合分析表明三種情緒載體跨模態(tài)激活了左側(cè)顳中回和右側(cè)顳上回。對比分析結(jié)果證明了視覺刺激比聽覺刺激更占優(yōu)勢, 尤其以動(dòng)態(tài)面孔表情最為突出, 同時(shí)動(dòng)態(tài)身體表情也發(fā)揮著重要作用, 但聲音情緒有其獨(dú)特性。未來的研究應(yīng)進(jìn)一步驗(yàn)證和延伸這些發(fā)現(xiàn); 探究不同年齡階段情緒加工的神經(jīng)機(jī)制及其異同; 對具體情緒類型的腦機(jī)制及同一種情緒在不同載體之間神經(jīng)活動(dòng)的相似性與差異性進(jìn)行研究; 并探討不同腦區(qū)之間的連接以及同一腦區(qū)的不同功能; 同時(shí)要注意重點(diǎn)關(guān)注動(dòng)態(tài)身體表情的神經(jīng)基礎(chǔ)。

        注: *表示該文獻(xiàn)被用于元分析, 剩余的元分析文獻(xiàn)詳見網(wǎng)絡(luò)版附錄。

        曹林敬. (2018).(碩士學(xué)位論文). 天津大學(xué).

        彭聃齡. (主編). (2019).. 北京師范大學(xué)出版社.

        張帆. (2018).(碩士學(xué)位論文). 西南大學(xué), 重慶.

        張琪, 尹天子, 冉光明. (2015). 動(dòng)態(tài)面孔表情優(yōu)勢效應(yīng)的心理機(jī)制及神經(jīng)基礎(chǔ).(9), 1514–1522.

        周臨舒, 趙懷陽, 蔣存梅. (2017). 音樂表演訓(xùn)練對神經(jīng)可塑性的影響:元分析研究.(11), 1877–1887.

        Alaerts, K., Woolley, D. G., Steyaert, J., Di Martino, A., Swinnen, S. P., & Wenderoth, N. (2013). Underconnectivity of the superior temporal sulcus predicts emotion recognition deficits in autism.(10), 1589–1600.

        *Alba-Ferrara, L., Hausmann, M., Mitchell, R. L., & Weis, S. (2011). The neural correlates of emotional prosody comprehension: Disentangling simple from complex emotion.(12), e28701. https://doi.org/10.1371/journal.pone.0028701

        *Arsalidou, M., Morris, D., & Taylor, M. J. (2011). Converging evidence for the advantage of dynamic facial expressions.(2), 149–163.

        Arsalidou, M., Vijayarajah, S., & Sharaev, M. (2020). Basal ganglia lateralization in different types of reward.(6), 2618–2646.

        Atkinson, A. P., Tunstall, M. L. & Dittrich, W. H. (2007). Evidence for distinct contributions of form and motion information to the recognition of emotions from body gestures.(1), 59–72.

        Atkinson, A. P., Vuong, Q. C., & Smithson, H. E. (2012). Modulation of the face- and body-selective visual regions by the motion and emotion of point-light face and body stimuli.(2), 1700–1712.

        *Aubé, W., Angulo-Perkins, A., Peretz, I., Concha, L., & Armony, J. L. (2015). Fear across the senses: Brain responses to music, vocalizations and facial expressions.(3), 399–407.

        Belin, P., Fecteau, S., & Bédard, C. (2004). Thinking the voice: Neural correlates of voice perception.(3), 129–135.

        Bestelmeyer, P. E. G., Maurage, P., Rouger, J., Latinus, M., & Belin, P. (2014). Adaptation to vocal expressions reveals multistep perception of auditory emotion.(24), 8098–8105.

        Binder, J. R., Frost, J. A., Hammeke, T. A., Cox, R. W., Rao, S. M., & Prieto, T. (1997). Human brain language areas identified by functional magnetic resonance imaging.(1), 353–362.

        *Brattico, E., Alluri, V., Bogert, B., Jacobsen, T., Vartiainen, N., Nieminen, S., & Tervaniemi, M. (2011). A functional MRI study of happy and sad emotions in music with and without lyrics., 308. https:// doi.org/10.3389/fpsyg.2011.00308

        Bukowski, H., & Lamm, C. (2018). Superior temporal sulcus. In V. Zeigler-Hill & T. K. Shackelford (Eds.),(pp. 1–5). Springer International Publishing.

        Calvert, G. A., Brammer, M. J., & Iversen, S. D. (1998). Crossmodal identification.(7), 247–253.

        *Ceravolo, L. (2013).(Unpublished doctorial dissertation). Université de Genève.

        Christoff, K., & Gabrieli, J. D. E. (2000). The frontopolar cortex and human cognition: Evidence for a rostrocaudal hierarchical organization within the human prefrontal cortex.(2), 168–186.

        de Gelder, B. (2006). Towards the neurobiology of emotional body language., 242–249.

        de Gelder, B. (2009). Why bodies? Twelve reasons for including bodily expressions in affective neuroscience.(1535), 3475?3484.

        de Gelder, B. (2015).. Oxford University Press.

        de Gelder, B., de Borst, A. W., & Watson, R. (2014). The perception of emotion in body expressions.(2), 149–158.

        de Gelder, B., Meeren, H. K., Righart, R., van den Stock, J., van de Riet, W. A., & Tamietto, M. (2006). Beyond the face: Exploring rapid influences of context on face processing., 37–48.

        de Gelder, B., & Partan, S. (2009). The neural basis of perceiving emotional bodily expressions in monkeys.(7), 642–646.

        Downing, P. E., Jiang, Y., Shuman, M., & Kanwisher, N. (2001). A cortical area selective for visual processing of the human body.(5539), 2470–2473.

        Dricu, M., & Frühholz, S. (2016). Perceiving emotional expressions in others: Activation likelihood estimation meta-analyses of explicit evaluation, passive perception and incidental perception of emotions., 810–828.

        Eickhoff, S. B., Laird, A. R., Fox, P. M., Lancaster, J. L., & Fox, P. T. (2017). Implementation errors in the GingerALE software: Description and recommendations.(1), 7–11.

        Eickhoff, S. B., Laird, A. R., Grefkes, C., Wang, L. E., Zilles, K., & Fox, P. T. (2009). Coordinate-based activation likelihood estimation metaanalysis of neuroimaging data: A random- effects approach based on empirical estimates of spatial uncertainty.(9), 2907–2926.

        *Fecteau, S., Belin, P., Joanette, Y., & Armony, J. L. (2007). Amygdala responses to nonlinguistic emotional vocalizations.(2), 480–487.

        *Foley, E., Rippon, G., Thai, N. J., Longe, O., & Senior, C. (2012). Dynamic facial expressions evoke distinct activation in the face perception network: A connectivity analysis study.(2), 507–520.

        Friederici, A. D., & Alter, K. (2004). Lateralization of auditory language functions: A dynamic dual pathway model.(2), 267–276.

        Frühholz, S., & Grandjean, D. (2013). Multiple subregions in superior temporal cortex are differentially sensitive to vocal expressions: A quantitative meta-analysis.(1), 24–35.

        Frühholz, S., Trost, W., & Kotz, S. A. (2016). The sound of emotions-towards a unifying neural network perspective of affective sound processing., 96–110.

        Giese, M. A., & Poggio, T. (2003). Neural mechanisms for the recognition of biological movements.(3), 179–192.

        Goldberg, H., Christensen, A., Flash, T., Giese, M. A. & Malach, R. (2015). Brain activity correlates with emotional perception induced by dynamic avatars., 306–317.

        *Grèzes, J., Pichon, S., & de Gelder, B. (2007). Perceiving fear in dynamic body expressions.(2), 959–967.

        Hasan, B. A. S., Valdes-Sosa, M., Gross, J., & Belin, P. (2016). “Hearing faces and seeing voices”: Amodal coding of person identity in the human brain.(1), 1–8.

        Haxby, J. V., Hoffman, E. A., & Gobbini, M. I. (2000). The distributed human neural system for face perception.(6), 223–233.

        Heberlein, A. S., & Atkinson, A. P. (2009). Neuroscientific evidence for simulation and shared substrates in emotion recognition: Beyond faces.(2), 162–177.

        Hickok, G., & Poeppel, D. (2007). The cortical organization of speech processing.(5), 393–402.

        Hodzic, A., Kaas, A., Muckli, L., Stirn, A., & Singer, W. (2009). Distinct cortical networks for the detection and identification of human body.(4), 1264–1271.

        Iacoboni, M., Woods, R. P., Brass, M., Bekkering, H., Mazziotta, J. C., & Rizzolatti, G. (1999). Cortical mechanisms of human imitation.(5449), 2526–2528.

        *Jastorff, J., Huang, Y. A., Giese, M. A., & Vandenbulcke, M. (2015). Common neural correlates of emotion perception in humans.(10), 4184–4201.

        *Kilts, C. D., Egan, G., Gideon, D. A., Ely, T. D., & Hoffman, J. M. (2003). Dissociable neural pathways are involved in the recognition of emotion in static and dynamic facial expressions.(1), 156–168.

        Klapper, A., Dotsch, R., van Rooij, I., & Wigboldus, D. H. J. (2016). Do we spontaneously form stable trustworthiness impressions from facial appearance?(5), 655–664.

        Krauss, R. M., Freyberg, R., & Morsella, E. (2002). Inferring speakers’ physical attributes from their voices.(6), 618–625.

        Kret, M. E., Pichon, S., Grèzes, J., & de Gelder, B. (2011). Similarities and differences in perceiving threat from dynamic faces and bodies. An fMRI study.(2), 1755–1762.

        Kriegstein, K. V., & Giraud, A. L. (2004). Distinct functional substrates along the right superior temporal sulcus for the processing of voices.(2), 948–955.

        *Leitman, D. I., Wolf, D. H., Ragland, J. D., Laukka, P., Loughead, J., Valdez, J. N., … Gur, R. C. (2010). “It’s not what you say, but how you say it”: A reciprocal temporo-frontal network for affective prosody., 19. https://doi.org/10.3389/ fnhum.2010.00019

        Lin, H., Müller-Bardorff, M., Gathmann, B., Brieke, J., Mothes-Lasch, M., Bruchmann, M., … Straube, T. (2020). Stimulus arousal drives amygdalar responses to emotional expressions across sensory modalities.(1), 1898.

        Magnée, M. J., Stekelenburg, J. J., Kemner, C., & de Gelder, B. (2007). Similar facial electromyographic responses to faces, voices, and body expressions.(4), 369–372.

        Maguinness, C., Roswandowitz, C., & von Kriegstein, K. (2018). Understanding the mechanisms of familiar voiceidentity recognition in the human brain., 179–193.

        Mier, D., Eisenacher, S., Rausch, F., Englisch, S., Gerchen, M. F., Zamoscik, V., … Kirsch, P. (2016). Aberrant activity and connectivity of the posterior superior temporal sulcus during social cognition in schizophrenia.(7), 597–610.

        *Mitterschiffthaler, M. T., Fu, C. H. Y., Dalton, J. A., Andrew, C. M., & Williams, S. C. R. (2007). A functional MRI study of happy and sad affective states induced by classical music.(11), 1150–1162.

        Moro, V., Urgesi, C., Pernigo, S., Lanteri, P., Pazzaglia, M., & Aglioti, S. M. (2008). The neural basis of body form and body action agnosia.(2), 235–246.

        Morrison, I. (2016). ALE meta-analysis reveals dissociable networks for affective and discriminative aspects of touch.(4), 1308–1320.

        *Numminen-Kontti, T. (2014).-(Unpublished master’s thesis). University of Helsinki.

        Olson, I. R., Plotzker, A., & Ezzyat, Y. (2007). The enigmatictemporal pole: A review of findings on social and emotional processing.(7), 1718–1731.

        *Peelen, M. V., Atkinson, A. P., & Vuilleumier, P. (2010). Supramodal representations of perceived emotions in the human brain.(30), 10127–10134.

        Pelphrey, K. A., Morris, J. P., Michelich, C. R., Allison, T., & McCarthy, G. (2005). Functional anatomy of biological motion perception in posterior temporal cortex: An fMRI study of eye, mouth and hand movements.(12), 1866–1876.

        Pisanski, K., Cartei, V., Mcgettigan, C., Raine, J., & Reby, D. (2016). Voice modulation: A window into the origins of human vocal control?, 304–318.

        *Poyo Solanas, M., Vaessen, M., & de Gelder, B. (2020). Computation-based feature representation of body expressions in the human brain.(12), 6376–6390.

        Ran, G., & Zhang, Q. (2018). The neural correlates of attachment style during emotional processing: An activation likelihood estimation meta-analysis.(6), 626–633.

        *Regenbogen, C., Schneider, D. A., Gur, R. E., Schneider, F., Habel, U., & Kellermann, T. (2012). Multimodal human communication-targeting facial expressions, speech content and prosody.(4), 2346–2356.

        Ritchie, K. L., Palermo, R., & Rhodes, G. (2017). Forming impressions of facial attractiveness is mandatory.(1), 1–8.

        Rizzolatti, G., & Craighero, L. (2004). The mirror-neuron system.(1), 169–192.

        Roswandowitz, C., Schelinski, S., & von Kriegstein, K. (2017). Developmental phonagnosia: Linking neural mechanisms with the behavioural phenotype., 97–112.

        Sarkheil, P., Goebel, R., Schneider, F., & Mathiak, K. (2013). Emotion unfolded by motion: A role for parietal lobe in decoding dynamic facial expressions.(8), 950–957.

        *Sato, W., Kochiyama, T., & Yoshikawa, S. (2010). Amygdala activity in response to forward versus backward dynamic facial expressions., 92–99.

        *Sato, W., Toichi, M., Uono, S., & Kochiyama, T. (2012). Impaired social brain network for processing dynamic facial expressions in autism spectrum disorders.(1), 1–17.

        Scherer, K. R. (1995). Expression of emotion in voice and music.(3), 235–248.

        Scherer, K. R., Johnstone, T., & Klasmeyer, G. (2003). Vocal expression of emotion. In R. J. Davidson, H. H. Goldsmith & K. Scherer (Eds.),(pp. 433–456). Oxford University Press.

        Schirmer, A. (2018). Is the voice an auditory face? An ALE meta-analysis comparing vocal and facial emotion processing.(1), 1–13.

        Schirmer, A., & Kotz, S. A. (2006). Beyond the right hemisphere: Brain mechanisms mediating vocal emotional processing.(1), 24–30.

        Schwarzlose, R. F., Baker, C. I., & Kanwisher, N. (2005). Separate face and body selectivity on the fusiform gyrus.(47), 11055–11059.

        Sereno, M. I., Diedrichsen, J., Tachrount, M., Testa-Silva, G., d'Arceuil, H., & Zeeuw, C. D. (2020). The human cerebellum has almost 80% of the surface area of the neocortex.(32), 19538–19543.

        Sinke, C. B., Kret, M. E., & de Gelder, B. (2012). Body language: Embodied perception of emotion. In: Berglund, B., Rossi, G. B., Townsend, J. T., & Pendrill, L. R. (Eds.),(pp. 335–352). Psychology Press/Taylor & Francis.

        Sokolov, A. A., Gharabaghi, A., Tatagiba, M. S., & Pavlova, M. (2010). Cerebellar engagement in an action observation network.(2), 486–491.

        Sperduti, M., Delaveau, P., Fossati, P., & Nadel, J. (2011). Different brain structures related to self- and external- agency attribution: A brief review and meta-analysis.(2), 151–157.

        Spreng, R. N., & Grady, C. L. (2010). Patterns of brain activity supporting autobiographical memory, prospection, and theory of mind, and their relationship to the default mode network.(6), 1112–1123.

        Stevenson, R. A., & James, T. W. (2009). Audiovisual integration in human superior temporal sulcus: Inverse effectiveness and the neural processing of speech and object recognition.(3), 1210–1223.

        Stoodley, C. J., & Schmahmann, J. D. (2010). Evidence for topographic organization in the cerebellum of motor control versus cognitive and affective processing.(7), 831–844.

        Tamietto, M., Cauda, F., Celeghin, A., Diano, M., Costa, T., Cossa, F. M., … de Gelder, B. (2015). Once you feel it, you see it: Insula and sensory-motor contribution to visual awareness for fearful bodies in parietal neglect., 56–72.

        *Trautmann, S. A., Fehr, T., & Herrmann, M. (2009). Emotions in motion: Dynamic compared to static facial expressions of disgust and happiness reveal more widespread emotion- specific activations., 100?115.

        Turkeltaub, P. E., Eickhoff, S. B., Laird, A. R., Fox, M., Wiener, M., & Fox, P. (2012). Minimizing within-experiment and within-group effects in activation likelihood estimation meta-analyses.(1), 1–13.

        van de Riet, W. A. C., Grezes, J., & de Gelder, B. (2009). Specific and common brain regions involved in the perception of faces and bodies and the representation of their emotional expressions.(2), 101–120.

        Waters, K., & Terzopoulos, D. (1990, January). A physical model of facial tissue and muscle articulation. In(pp. 77–78). IEEE Computer Society.

        Watson, R., Latinus, M., Charest, I., Crabbe, F., & Belin, P. (2014). People-selectivity, audiovisual integration and heteromodality in the superior temporal sulcus., 125–136.

        *Wicker, B., Keysers, C., Plailly, J., Royet, J.-P., Gallese, V., & Rizzolatti, G. (2003). Both of us disgusted in my insula: The common neural basis of seeing and feeling disgust.(3), 655–664.

        Witteman, J., van Heuven, V. J. P., & Schiller, N. O. (2012). Hearing feelings: A quantitative meta-analysis on the neuroimaging literature of emotional prosody perception.(12), 2752–2763.

        Xu, J., Lyu, H., Li, T., Xu, Z., Fu, X., Jia, F., … Hu, Q. (2019). Delineating functional segregations of the human middle temporal gyrus with resting-state functional connectivity and coactivation patterns.(18), 1–13.

        Yalpe, Z., & Arsalidou, M. (2018). N-back working memory task: Meta-analysis of normative fMRI studies with children.(6), 2010–2022.

        Yang, D. Y.-J., Rosenblau, G., Keifer, C., & Pelphrey, K. A. (2015). An integrative neural model of social perception, action observation, and theory of mind., 263–275.

        Yarkoni, T. (2009). Big correlations in little studies: Inflated fMRI correlations reflect low statistical power – Commentary on Vul et al., (2009).(3), 294–298.

        Yarkoni, T., Poldrack, R. A., Nichols, T. E., van Essen, D. C., & Wager, T. D. (2011). Large-scale automated synthesis of human functional neuroimaging data.(8), 665–670.

        Zieber, N., Kangas. A., Hock, A., & Bhatt, R. S. (2014). Infants’s perception of emotion from body movements.(2), 675–684.

        Zinchenko, O., Yaple, Z. A., & Arsalidou, M. (2018). Brain responses to dynamic facial expressions: A normative meta-analysis., 227. https://doi.org/10.3389/fnhum.2018.00227

        Zuberer, A., Schwarz, L., Kreifelts, B., Wildgruber, D., Erb, M., Fallgatter, A., … Ethofer, T. (2020). Neural basis of impaired emotion recognition in adult attention deficit hyperactivity disorder.. https://doi.org/10.1016/ j.bpsc.2020.11.013

        杜經(jīng)綸. (2007).(碩士學(xué)位論文). 南京醫(yī)科大學(xué).

        杜經(jīng)綸, 姚志劍, 謝世平, 史家波, 滕皋軍. (2007). 動(dòng)態(tài)表情情緒識別相關(guān)腦區(qū)的fMRI研究.(08), 558?562.

        王鵬飛. (2012).(碩士學(xué)位論文). 南京師范大學(xué).

        姚志劍, 杜經(jīng)綸, 謝世平, 滕皋軍, 劉文, 曹燕翔, … 王麗. (2007). 動(dòng)態(tài)面部表情情緒不明確識別的fMRI研究.(8), 685?687.

        Bach, D. R., Grandjean, D., Sander, D., Herdener, M., Strik, W. K., & Seifritz, E. (2008). The effect of appraisal level on processing of emotional prosody in meaningless speech.(2), 919–927.

        Beaucousin, V., Lacheret, A., Turbelin, M. R., Morel, M., Mazoyer, B., & Tzourio?Mazoyer, N. (2007). FMRI study of emotional speech comprehension.(2), 339–352.

        Brück, C., Kreifelts, B., Kaza, E., Lotze, M., & Wildgruber, D. (2011). Impact of personality on the cerebral processing of emotional prosody.(1), 259–268.

        Buchanan, T. W., Lutz, K., Mirzazade, S., Specht, K., Shah, N. J., Zilles, K., & J?ncke, L. (2000). Recognition of emotional prosody and verbal components of spoken language: An fMRI study.(3), 227–238.

        Castelluccio, B. C. (2014).(Unpublished master’s thesis). University of Connecticut, Mansfield.

        Castelluccio, B. C., Myers, E. B., Schuh, J. M., & Eigsti, I. M. (2015). Neural substrates of processing anger in language: Contributions of prosody and semantics.(6), 1359–1367.

        Ceravolo, L., Frühholz, S., & Grandjean, D. (2016). Proximal vocal threat recruits the right voice–sensitive auditory cortex.(5), 793–802.

        Dietrich, S., Hertrich, I., Alter, K., Ischebeck, A., & Ackermann, H. (2008). Understanding the emotional expression of verbal interjections: A functional MRI study.(18), 1751–1755.

        Eigsti, I.–M., Schuh, J., Mencl, E., Schultz, R. T., & Paul, R. (2012). The neural underpinnings of prosody in autism.(6), 600–617.

        Engelen, T., Zhan, M., Sack, A. T., & de Gelder, B. (2018). Dynamic interactions between emotion perception and action preparation for reacting to social threat: A combined cTBS–fMRI study.(3). https://doi.org/10.1523/ ENEURO.0408–17.2018

        Ethofer, T., Bretscher, J., Gschwind, M., Kreifelts, B., Wildgruber, D., & Vuilleumier, P. (2011). Emotional voice areas: Anatomic location, functional properties, and structural connections revealed by combined fMRI/DTI.(1), 191–200.

        Ethofer, T., Kreifelts, B., Wiethoff, S., Wolf, J., Grodd, W., Vuilleumier, P., & Wildgruber, D. (2009). Differential influences of emotion, task, and novelty on brain regions underlying the processing of speech melody.(7), 1255–1268.

        Ethofer, T., Wiethoff, S., Anders, S., Kreifelts, B., Grodd, W., & Wildgruber, D. (2007). The voices of seduction: Cross–gender effects in processing of erotic prosody.(4), 334–337.

        Fecteau, S., Armony, J. L., Joanette, Y., & Belin, P. (2005). Sensitivity to voice in human prefrontal cortex.(3), 2251–2254.

        Frühholz, S., Ceravolo, L., & Grandjean, D. (2011). Specific brain networks during explicit and implicit decoding of emotional prosody.(5), 1107–1117.

        Frühholz, S., Klaas, H. S., Patel, S., & Grandjean, D. (2014). Talking in fury: The cortico–subcortical network underlying angry vocalizations.(9), 2752–2762.

        Gandour, J., Wong, D., Dzemidzic, M., Lowe, M., Tong, Y., & Li, X. (2003). A cross–linguistic fMRI study of perception of intonation and emotion in Chinese.(3), 149–157.

        Goerlich–Dobre, K. S., Witteman, J., Schiller, N. O., van Heuven, V. J. P., Aleman, A., & Martens, S. (2014). Blunted feelings: Alexithymia is associated with a diminished neural response to speech prosody.(8), 1108–1117.

        Grandjean, D., Sander, D., Pourtois, G., Schwartz, S., Seghier, M. L., Scherer, K. R., & Vuilleumier, P. (2005). The voices of wrath: Brain responses to angry prosody in meaningless speech.(2), 145–146.

        Hennenlotter, A., Schroeder, U., Erhard, P., Castrop, F., Haslinger, B., Stoecker, D., … Ceballos–Baumann, A. O. (2005). A common neural basis for receptive and expressive communication of pleasant facial affect.(2), 581–591.

        Hurlemann, R., Rehme, A. K., Diessel, M., Kukolja, J., Maier, W., Walter, H., & Cohen, M. X. (2008). Segregating intra–amygdalar responses to dynamic facial emotion with cytoarchitectonic maximum probability maps.(1), 13–20.

        Jessen, S. (2012).(Unpublished doctorial dissertation). Max Planck Institute for Human Cognitive and Brain Sciences, Leipzig.

        Jessen, S., & Kotz, S. A. (2015). Affect differentially modulates brain activation in uni– and multisensory body–voice perception., 134–143.

        Johnston, P., Mayes, A., Hughes, M., & Young, A. W. (2013). Brain networks subserving the evaluation of static and dynamic facial expressions.(9), 2462–2472.

        Johnstone, T., van Reekum, C. M., Oakes, T. R., & Davidson, R. J. (2006). The voice of emotion: An fMRI study of neural responses to angry and happy vocal expressions.(3), 242–249.

        Kang, J. I., Kim, J. J., Seok, J. H., Chun, J. W., Lee, S. K., & Park, H. J. (2009). Abnormal brain response during the auditory emotional processing in schizophrenic patients with chronic auditory hallucinations.(1), 83–91.

        Kanske, P., & Kotz, S. A. (2010). Emotion speeds up conflict resolution: A new role for the ventral anterior cingulate cortex?(4), 911–919.

        Kessler, H., Doyen–Waldecker, C., Hofer, C., Hoffmann, H., & Abler, B. (2011). Neural correlates of the perception of dynamic versus static facial expressions of emotion..https://doi.org/10.3205/psm000072

        Koelsch, S., Skouras, S., Fritz, T., Herrera, P., Bonhage, C., Küssner, M. B., & Jacobs, A. M. (2013). The roles of superficial amygdala and auditory cortex in music–evoked fear and joy., 49–60.

        Korb, S., Frühholz, S., & Grandjean, D. (2015). Reappraising the voices of wrath., 1644–1660.

        Kotz, S. A., Dengler, R., & Wittfoth, M. (2015). Valence–specific conflict moderation in the dorso–medial PFC and the caudate head in emotional speech.(2), 165–171.

        Kotz, S. A., Meyer, M., Alter, K., Besson, M., von Cramon, D. Y., & Friederici, A. D. (2003). On the lateralization of emotional prosody: An event–related functional MR investigation.(3), 366–376.

        Krautheim, J. T., Dannlowski, U., Steines, M., Neziroglu, G., Acosta, H., Sommer, J., … Kircher, T. (2019). Intergroup empathy: Enhanced neural resonance for ingroup facial emotion in a shared neural production–perception network., 182–190.

        Krautheim, J. T., Straube, M., Dannlowski, U., Neziroglu, G., Acosta, H., Sommer, J., … Kircher, T. (2020). Emotion specific neural activation for the production and perception of facial expressions., 17–28.

        Krautheim, J. T., Straube, B., Dannlowski, U., Pyka, M., Schneider–Hassloff, H., Drexler, R., … Kircher, T. (2018). Outgroup emotion processing in the vACC is modulated by childhood trauma and CACNA1C risk variant., 341–348.

        Labar, K. S., Crupain, M. J., Voyvodic, J. T., & Gregory, M. C. (2003). Dynamic perception of facial affect and identity in the human brain.(10), 1023–1033.

        Liang, Y., Liu, B., Ji, J., & Li, X. (2019). Network representations of facial and bodily expressions: Evidence from multivariate connectivity pattern classification., 1111. https://doi.org/10.3389/ fnins.2019.01111

        Liu, P. P. (2018).(Unpublished doctorial dissertation). University of Glasgow.

        Mitchell, R. L. C., Elliott, R., Barry, M., Cruttenden, A., & Woodruff, P. W. R. (2003). The neural response to emotional prosody, as revealed by functional magnetic resonance imaging.(10), 1410–1421.

        Morris, J., Scott, S., & Dolan, R. (1999). Saying it with feeling: Neural responses to emotional vocalizations.(10), 1155–1163.

        Park, M., Gutyrchik, E., Welker, L., Carl, P., Poppel, E., Zaytseva, Y., … Bao, Y. (2015). Sadness is unique: Neural processing of emotions in speech prosody in musicians and non–musicians.. https://doi.org/10.3389/fnhum.2014.01049

        Peelen, M. V., Atkinson, A. P., Andersson, F., & Vuilleumier, P. (2007). Emotional modulation of body–selective visual areas.(4), 274–283.

        Pelphrey, K. A., Morris, J. P., McCarthy, G., & LaBar, K. S. (2007). Perception of dynamic changes in facial affect and identity in autism.(2), 140–149.

        Péron, J., Frühholz, S., Ceravolo, L., & Grandjean, D. (2015). Structural and functional connectivity of the subthalamic nucleus during vocal emotion decoding.(2), 349–356.

        Pentón, L. G., Fernández, A. P., León, M. A., Ymas, Y. A., García, L. G., Iturria–Medina, Y., … Valdés–Sosa, M. (2010). Neural activation while perceiving biological motion in dynamic facial expressions and point–light body action animations.(14), 1076–1083.

        Phillips, M. L., Young, A. W., Scott, S. K., Calder, A. J., Andrew, C., Giampietro, V., … Gray, J. A. (1998). Neural responses to facial and vocal expressions of fear and disgust.(1408), 1809–1817.

        Pichon, S., de Gelder, B., & Grezes, J. (2008). Emotional modulation of visual and motor areas by dynamic body expressions of anger.(3–4), 199–212.

        Pichon, S., de Gelder, B., & Grèzes, J. (2009). Two different faces of threat. Comparing the neural systems for recognizing fear and anger in dynamic body expressions.(4), 1873–1883.

        Pichon, S., de Gelder, B., & Grezes, J. (2012). Threat prompts defensive brain responses independently of attentional control.(2), 274–285.

        Prochnow, D., H?ing, B., Kleiser, R., Lindenberg, R., Wittsack, H. J., Sch?fer, R., … Seitz,R. J. (2013). The neural correlates of affect reading: An fMRI study on faces and gestures., 270–277.

        Rahko, J., Paakki, J. J., Starck, T., Nikkinen, J., Remes, J., Hurtig, T., … Kiviniemi, V. (2010). Functional mapping of dynamic happy and fearful facial expression processing in adolescents.(2), 164–176.

        Rosenblau, G., Kliemann, D., Dziobek, I., & Heekeren, H. R. (2016). Emotional prosody processing in autism spectrum disorder.(2), 224–239.

        Ross, P., de Gelder, B., Crabbe, F., & Grosbras, M. H. (2019). Emotion modulation of the body–selective areas in the developing brain., 100660. https://doi.org/10.1016/j.dcn.2019.100660

        Rymarczyk, K., ?urawski, ?., Jankowiak–Siuda, K., & Szatkowska, I. (2018). Neural correlates of facial mimicry: Simultaneous measurements of EMG and BOLD responses during perception of dynamic compared to static facial expressions., 52. https://doi.org/ 10.3389/fpsyg.2018.00052

        Rymarczyk, K., ?urawski, ?., Jankowiak–Siuda, K., & Szatkowska, I. (2019). Empathy in facial mimicry of fear and disgust: Simultaneous EMG–fMRI recordings during observation of static and dynamic facial expressions., 701. https://doi.org/10.3389/ fpsyg.2019.00701

        Salimpoor, V. N., Benovoy, M., Larcher, K., Dagher, A., & Zatorre, R. J. (2011). Anatomically distinct dopamine release during anticipation and experience of peak emotion to music.(2), 257–262.

        Sander, D., Grandjean, D., Pourtois, G., Schwartz, S., Seghier, M. L., Scherer, K. R., & Vuilleumier, P. (2005). Emotion and attention interactions in social cognition: Brain regions involved in processing anger prosody.(4), 848–858.

        Sato, W., Kochiyama, T., Uono, S., Sawada, R., & Toichi, M. (2019). Widespread and lateralized social brain activity for processing dynamic facial expressions.(13), 3753–3768.

        Sato, W., Kochiyama, T., Uono, S., Yoshikawa, S., & Toichi, M. (2016). Direction of amygdala–neocortex interaction during dynamic facial expression processing.(3), 1878–1890.

        Sato, W., Kochiyama, T., Yoshikawa, S., Naito, E., & Matsumura, M. (2004). Enhanced neural activity in response to dynamic facial expressions of emotion: An fMRI study.(1), 81–91.

        Schultz, J., Brockhaus, M., Bülthoff Heinrich H., & Pilz, K. S. (2013). What the human brain likes about facial motion.(5), 1167–1178.

        Schultz, J., & Pilz, K. S. (2009). Natural facial motion enhances cortical responses to faces.(3), 465–475.

        Seydell–Greenwald, A., Chambers, C. E., Ferrara, K., & Newport, E. L. (2020). What you say versus how you say it: Comparing sentence comprehension and emotional prosody processing using fMRI., 116509. https://doi.org/10.1016/j.neuroimage.2019.116509

        Skiba, R. M., & Patrik, V. (2019). Brain networks processing temporal information in dynamic facial expressions.(11), 6021–6038.

        Smith, K. W., Laura–Lee, B., Oshin, V., & Vinod, G. (2015). Syllogisms delivered in an angry voice lead to improved performance and engagement of a different neural system compared to neutral voice., 273. https://doi.org/10.3389/fnhum.2015.00273

        van der Gaag, C., Minderaa, R. B., & Keysers, C. (2007). Facial expressions: What the mirror neuron system can and cannot tell us.(3–4), 179–222.

        van de Vliet, L., Jastorff, J., Huang, Y. A., van Paesschen, W., Vandenbulcke, M., & van den Stock, J. (2018). Anterior temporal lobectomy impairs neural classification of body emotions in right superior temporal sulcus and reduces emotional enhancement in distributed brain areas without affecting behavioral classification.(43), 9263–9274.

        Wildgruber, D., Pihan, H., Ackermann, H., Erb, M., & Grodd, W. (2002). Dynamic brain activation during processing of emotional intonation: Influence of acoustic parameters, emotional valence, and sex.(4), 856–869.

        Wildgruber, D., Riecker, A., Hertrich, I., Erb, M., Grodd, W., Ethofer, T., & Ackermann, H. (2005). Identification of emotional intonation evaluated by fMRI.(4), 1233–1241.

        Willinger, D., Karipidis, I. I., Beltrani, S., Pietro, S. V. D., & Brem, S. (2019). Valence–dependent coupling of prefrontal– amygdala effective connectivity during facial affect processing.(4). https://doi.org/10.1523/ENEURO. 0079–19.2019

        Witteman, J. (2014).Lden University.

        Wittfoth, M., Schroder, C., Schardt, D. M., Dengler, R., Heinze, H. J., & Kotz, S. A. (2009). On emotional conflict: Interference resolution of happy and angry prosody reveals valence–specific effects.(2), 383–392.

        The neural activities of different emotion carriers and their similarities and differences: A meta-analysis of functional neuroimaging studies

        LIU Juncai1, RAN Guangming1, ZHANG Qi2

        (1Department of Psychology, School of Education, China West Normal University, Nanchong 637002, China)(2College of Preschool and Primary Education, China West Normal University, Nanchong637002, China)

        Emotion recognition has always been a hot topic in psychology. Although some studies have explored the brain mechanisms of dynamic facial expressions, dynamic bodily expressions and emotional voices, the overall understanding of each emotion carrier is relatively incomplete, and the commonalities and differences of neural mechanisms among different emotion carriers were still poorly known. First, this study used three separated meta?analyses to identify the brain regions activated by each emotion pattern, and then, conjunction and contrast analysis of these activation maps were used to assess common and unique neural activity between the three emotion carriers. The results showed that the brain activity of dynamic facial expressions including extensive frontal, occipital, temporal and partial parietal cortices, as well as subcortical regions, such as hippocampus, cerebellum, thalamus and amygdala. The activation of dynamic bodily expressions was concentrated in temporal/occipital regions, cerebellum and hippocampus. Emotional voices activated the temporal, frontal, amygdala and insula. Conjunction analysis suggested that the left middle temporal gyrus (MTG) and the right superior temporal gyrus (STG) were activated by three emotion carrier across the modalities. The results of the contrast analysis proved that the visual stimuli was more advantaged than the auditory stimuli, especially the dynamic facial expressions, of course the dynamic bodily expressions also played an important role. However, the emotional voices had their own uniqueness. In sum, these findings validate, support, and extend the existing neural models of the three emotion carriers, revealing the central, universal region of the emotional processing, but with each emotion carrier relying on its own reliable specific neural circuits.

        emotion carriers, dynamic facial expressions, dynamic bodily expressions, emotional voices, ALE meta-analysis

        冉光明, E-mail: haiqi198649@163.com

        2021-10-06

        * 國家自然科學(xué)基金青年項(xiàng)目(31900760)和省級大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計(jì)劃項(xiàng)目(S201910638117)資助。

        猜你喜歡
        情緒
        小情緒
        小情緒
        小情緒
        小情緒
        小情緒
        小情緒
        小情緒
        小情緒
        小情緒
        小情緒
        久久精品人妻一区二区三区| 97久久超碰国产精品旧版| 国产精品亚洲а∨天堂2021| 色多多a级毛片免费看| 性欧美暴力猛交69hd| 国产精品午睡沙发系列| 国产成人亚洲综合无码DVD| 日日碰狠狠丁香久燥| 亚洲影院丰满少妇中文字幕无码| 中文AV怡红院| 美女扒开内裤露黑毛无遮挡| 日韩在线精品免费观看 | 就爱射视频在线视频在线| 欧美激欧美啪啪片| 中国少妇内射xxxx狠干| 久久99精品国产99久久6男男| 四虎永久免费影院在线| 欧美日韩高清一本大道免费| 91亚洲国产成人久久精品网站| 精品精品国产一区二区性色av| 午夜少妇高潮在线观看| 国产精品一卡二卡三卡| 极品尤物高潮潮喷在线视频| 成人亚洲欧美久久久久| 国产熟女乱综合一区二区三区 | 国产又色又爽的视频在线观看91| 99RE6在线观看国产精品| 中文天堂一区二区三区| 精品一区二区三区人妻久久福利| 91九色成人蝌蚪首页| 亚洲中文字幕无码中文字| 伊人久久网国产伊人| 丰满人妻AV无码一区二区三区| 女同欲望一区二区三区| 国产成人午夜高潮毛片| 亚洲精品无码不卡在线播放he| 97精品国产91久久久久久久| 亚洲精品国产精品系列| 无码少妇丰满熟妇一区二区 | 成人无码无遮挡很H在线播放| 日韩中文字幕乱码在线|