国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

跨文化表情識別中的群內(nèi)優(yōu)勢效應(yīng):自發(fā)性和呈現(xiàn)方式對氣憤和厭惡表情識別的影響

2024-06-11 07:38:24方霞葛猷勛
心理學(xué)報 2024年6期
關(guān)鍵詞:文化差異

方霞 葛猷勛

摘 ?要 ?以往研究發(fā)現(xiàn), 識別與自身文化背景相同的個體的面部表情比跨文化背景個體更準(zhǔn)確, 這被稱為群內(nèi)優(yōu)勢效應(yīng)。然而, 以往研究主要關(guān)注靜態(tài)表演表情, 對動態(tài)表情和自發(fā)表情識別中的群內(nèi)優(yōu)勢效應(yīng)知之甚少。為了探究群內(nèi)優(yōu)勢效應(yīng)是否受表情自發(fā)性(表演和自發(fā))和呈現(xiàn)方式(靜態(tài)和動態(tài))的調(diào)節(jié), 本研究招募了中國和加拿大/荷蘭被試, 分別對中國和荷蘭模特表演和自發(fā)的氣憤和厭惡表情(實驗1), 以及靜態(tài)和動態(tài)表演的氣憤和厭惡表情(實驗2)進行識別。研究結(jié)果顯示, 在多數(shù)情況下, 表演和自發(fā)表情的識別都呈現(xiàn)群內(nèi)優(yōu)勢效應(yīng), 且表演表情的群內(nèi)優(yōu)勢效應(yīng)顯著高于自發(fā)表情; 靜態(tài)和動態(tài)表演表情的識別也出現(xiàn)群內(nèi)優(yōu)勢效應(yīng), 但兩者總體上沒有顯著差異。這些結(jié)果表明, 表情識別的群內(nèi)優(yōu)勢效應(yīng)會受到表情自發(fā)性的調(diào)節(jié), 但可能不受表情呈現(xiàn)方式的影響。本研究結(jié)果對于拓展群內(nèi)優(yōu)勢效應(yīng)研究和深化跨文化表情識別理解具有重要意義。

關(guān)鍵詞 ?表情識別, 群內(nèi)優(yōu)勢效應(yīng), 表演與自發(fā)表情, 靜態(tài)與動態(tài)表情, 文化差異

分類號 ?B842

1 ?引言

當(dāng)今全球化時代, 不同文化之間的交流日益頻繁。在不同文化和語言的個體之間進行交流時, 準(zhǔn)確解讀對方的非語言行為, 尤其是面部表情, 顯得尤為重要(Fang, Rychlowska, & Lange, 2022; Van Kleef & C?té, 2022)。然而, 準(zhǔn)確識別面部表情并非易事, 尤其是解讀其他文化個體的面部表情時。以往研究發(fā)現(xiàn), 與文化群體內(nèi)部交流相比, 當(dāng)交流發(fā)生在不同文化個體間時, 非語言情緒溝通會受到損害(Elfenbein & Ambady, 2002)。具體而言, 人們在識別與自己具有相同文化背景個體的面部表情時, 其準(zhǔn)確性要高于識別與自己文化背景不同的個體的面部表情(張秋穎 等, 2011; Elfenbein & Ambady, 2002), 這種效應(yīng)被稱為群內(nèi)優(yōu)勢效應(yīng)(in-group advantage)。

以往有關(guān)表情識別的群內(nèi)優(yōu)勢效應(yīng)研究主要聚焦于表演表情(posed facial expressions)和靜態(tài)表情(static facial expressions; Elfenbein & Ambady, 2002)。表演表情是指個體有意識地擺出某種表情以傳達特定的情緒(Elfenbein & Ambady, 2002), 而靜態(tài)表情則是指在特定時刻捕捉的面部表情。然而, 在現(xiàn)實生活中, 表情往往是自發(fā)的, 即個體在交互過程中自然流露(Matsumoto, Olide, Schug et al., 2009), 也是動態(tài)的, 即表情會隨著時間的推移發(fā)生變化(張琪 等, 2015; Krumhuber et al., 2023)。近年來, 越來越多的研究揭示個體對表演表情、自發(fā)表情(spontaneous facial expressions)、靜態(tài)表情和動態(tài)表情(dynamic facial expressions)的表達和知覺可能存在差異(Kang & Lau, 2013; Krumhuber et al., 2021; Matsumoto, Olide, & Willingham, 2009; Valente et al., 2018), 因此有必要考察群內(nèi)優(yōu)勢效應(yīng)是否會受到表情的自發(fā)性和呈現(xiàn)方式的調(diào)節(jié)。為此, 本文首先回顧群內(nèi)優(yōu)勢效應(yīng)及其相關(guān)的情緒方言理論, 然后探討表演表情和自發(fā)表情識別以及靜態(tài)表情和動態(tài)表情識別可能存在的差異, 最后通過兩項實驗室研究探究表情的自發(fā)性和呈現(xiàn)方式是否調(diào)節(jié)氣憤和厭惡表情識別的群內(nèi)優(yōu)勢效應(yīng)。本研究首次考察了表情識別的群內(nèi)優(yōu)勢效應(yīng)是否受到表情的兩個重要特性——自發(fā)性和呈現(xiàn)方式的調(diào)節(jié), 對于拓展表情識別中的群內(nèi)優(yōu)勢效應(yīng)研究, 并加深我們對跨文化表情識別的理解具有重要意義。

1.1 ?群內(nèi)優(yōu)勢效應(yīng)和情緒方言理論

盡管早期研究認(rèn)為情緒面部表情(至少基本情緒面孔)具有文化普遍性, 不受文化的調(diào)節(jié)(如, Ekman et al., 1969), 但是近年來越來越多的研究者指出情緒表情既有文化普遍性也具有文化特異性(Elfenbein et al., 2007; Fang et al., 2021)。其中一種觀點認(rèn)為, 盡管來自不同文化的個體均能以高于機會水平識別不同文化個體的表情, 但人們對與自己文化相同的個體的表情識別率更高(Elfenbein & Ambady, 2002)。

研究者用情緒方言理論(Dialect Theory of Emotion)解釋這種群內(nèi)優(yōu)勢效應(yīng)(Elfenbein, 2013; Elfenbein et al., 2007)。該理論認(rèn)為, 情緒可以類比為一種在全球范圍內(nèi)使用的通用語言, 但來自不同文化背景的人在情緒表達和感知上略有差異, 即形成了所謂的“情緒方言” (Elfenbein & Ambady, 2002)。同一文化群體內(nèi)的情緒識別受益于與其“情緒方言”更好的匹配, 而不同文化群體間較差的“情緒方言”匹配則導(dǎo)致情緒識別的準(zhǔn)確性降低。Elfenbein等人(2007)的研究為情緒方言理論提供了實證支持。在該研究中, 來自加拿大和加蓬的被試被要求使用面部表情來表演氣憤、厭惡、恐懼、驚訝、悲傷和快樂等情緒。研究人員使用面部行為編碼系統(tǒng)(Facial Action Coding System, FACS; Ekman et al., 2002)分析了這些表情中使用的動作單元(Action Units, AUs)。結(jié)果發(fā)現(xiàn), 盡管不同文化群體的表情均包含了FACS手冊中標(biāo)準(zhǔn)表情的動作單元, 但也存在穩(wěn)定差異(即情緒方言)。隨后, 來自加拿大和加蓬的一組新被試被要求識別這些表情。結(jié)果顯示, 與情緒方言理論相一致, 表情的情緒方言差異越顯著, 群內(nèi)優(yōu)勢效應(yīng)就越強烈。

1.2 ?表演/自發(fā)表情和群內(nèi)優(yōu)勢效應(yīng)

雖然群內(nèi)優(yōu)勢效應(yīng)在許多研究中都得以驗證, 但這些研究主要集中在表演表情上, 較少關(guān)注自發(fā)表情(見Elfenbein & Ambady, 2002的元分析)。近年來, 有研究發(fā)現(xiàn), 在表達相同情緒時, 個體的表演表情和自發(fā)表情的動作單元有顯著區(qū)別(Namba, Kagamihara et al., 2017; Namba, Makihara et al., 2017)。Fang, Sauter等人(2022)則發(fā)現(xiàn), 相比于自發(fā)表情, 表演表情激活了更多的動作單元。這些結(jié)果共同表明, 表演表情和自發(fā)表情在面部肌肉運動模式上可能存在差異。

那么, 不同自發(fā)性的表情在其識別的群內(nèi)優(yōu)勢效應(yīng)上會有差異嗎?以往研究發(fā)現(xiàn), 表演表情可能比自發(fā)表情更易受文化的影響(有關(guān)綜述, 請參閱Valente et al., 2018)。無論是早期觀察研究還是標(biāo)準(zhǔn)化面部肌肉運動測量研究, 都發(fā)現(xiàn)先天性盲人產(chǎn)生的自發(fā)表情與視力正常的個體相似, 但表演表情卻與正常個體有顯著差異。這表明, 相比于自發(fā)表情, 表演表情可能更容易受到社會學(xué)習(xí)的影響。由此, 我們預(yù)測表演表情可能比自發(fā)表情包含更多與文化相關(guān)的情緒方言, 從而導(dǎo)致表演表情識別的群內(nèi)優(yōu)勢效應(yīng)大于自發(fā)表情。該推論獲得了Matsumoto, Olide和Willingham (2009)的研究的初步支持。在這項研究中, 美國和日本被試對美國和日本運動員在2004年雅典奧運會獲獎后的快樂或悲傷表情進行識別, 結(jié)果并未發(fā)現(xiàn)群內(nèi)優(yōu)勢效應(yīng)。這表明群內(nèi)優(yōu)勢效應(yīng)可能不存在于自發(fā)產(chǎn)生的表情中。然而, Kang和Lau (2013)卻有不同的發(fā)現(xiàn)。他們讓歐裔和亞裔美國被試識別歐裔和亞裔美國模特的標(biāo)準(zhǔn)表情(按照FACS手冊標(biāo)準(zhǔn)制定的表情原型)和自發(fā)表情。其中標(biāo)準(zhǔn)表情來自Japanese and Caucasian Facial Expressions of Emotion (JACFEE; Matsumoto & Ekman, 1988)的表情圖片, 而自發(fā)表情則是通過引導(dǎo)被試講述個人經(jīng)歷而獲得的動態(tài)表情視頻片段。結(jié)果顯示, 亞裔美國人在識別標(biāo)準(zhǔn)表情和自發(fā)表情時均出現(xiàn)了群內(nèi)優(yōu)勢效應(yīng)。值得注意的是, 該研究考察的標(biāo)準(zhǔn)表情以靜態(tài)方式呈現(xiàn), 自發(fā)表情以動態(tài)方式呈現(xiàn), 且兩種表情的情緒類別并不完全相同(模仿表情:悲傷、驚訝、恐懼、氣憤、厭惡和愉快; 自發(fā)表情:悲傷、驚訝、沮喪、氣憤和愉快)。因此, 表情的自發(fā)性對表情識別的群內(nèi)優(yōu)勢效應(yīng)是否具有調(diào)節(jié)作用還有待商榷。

然而, 另一方面, 相較于自發(fā)表情, 表演表情具有更高的強度和原型性(Krumhuber et al., 2021; Tcherkassof et al., 2007)。這些特性可能會導(dǎo)致表演表情比自發(fā)表情具有更高的識別率。跟該推論一致, 以往研究結(jié)果確實表明, 不論是人類還是機器, 都能更好地識別表演表情(Fang, Sauter et al., 2022; Krumhuber et al., 2021)。因此, 我們預(yù)測這種高識別特性可能縮小了感知者對不同文化個體的表演表情識別率的差異, 從而導(dǎo)致表演表情識別的群內(nèi)優(yōu)勢效應(yīng)小于自發(fā)表情。

1.3 ?靜態(tài)/動態(tài)表情和群內(nèi)優(yōu)勢效應(yīng)

除了考察表情識別的群內(nèi)優(yōu)勢效應(yīng)是否會受到表情自發(fā)性的調(diào)節(jié)外, 本研究的第二個目標(biāo)是探究表情的呈現(xiàn)方式是否影響表情識別的群內(nèi)優(yōu)勢效應(yīng)。相比靜態(tài)表情, 動態(tài)表情含有獨特的動態(tài)信息, 如表情運動的方向、質(zhì)量和速度(Bould & Morris, 2008; Cunningham & Wallraven, 2009; Jack et al., 2014)。這些動態(tài)信息會啟動更高級的認(rèn)知過程, 支持社交和情緒推斷, 從而促進面部表情的識別(Blais et al., 2017; Sato et al., 2008)。

盡管如此, 我們?nèi)圆磺宄討B(tài)信息的促進作用是針對特定文化感知者群體, 還是普遍適用于所有文化感知者群體。換言之, 動態(tài)表情中的動態(tài)信息是否涵蓋了文化特有的情緒方言。如果該動態(tài)信息包含情緒方言, 那么這些額外的情緒方言將進一步增強表情識別的群內(nèi)優(yōu)勢效應(yīng)。因此, 我們預(yù)期動態(tài)表情識別的群內(nèi)優(yōu)勢效應(yīng)將大于靜態(tài)表情識別的群內(nèi)優(yōu)勢效應(yīng)。這一猜想在Elfenbein和Ambady (2002)的元分析中初步得到支持。他們發(fā)現(xiàn), 使用動態(tài)表情作為實驗材料的研究(共43項研究)所揭示的群內(nèi)優(yōu)勢效應(yīng)大于使用靜態(tài)表情作為實驗材料的研究(共79項研究)。值得注意的是, 該元分析發(fā)現(xiàn)的表情呈現(xiàn)方式對群內(nèi)優(yōu)勢效應(yīng)的調(diào)節(jié)僅呈邊緣顯著。此外, 該元分析包含的研究除了在表情呈現(xiàn)方式上存在差異外, 還在其他諸多方面存在差異, 例如表情的自發(fā)性、文化和情緒類別的選擇。由于缺乏對其他方面差異的控制, 我們無法確定僅僅表情的呈現(xiàn)方式是否會調(diào)節(jié)表情識別的群內(nèi)優(yōu)勢效應(yīng)。

然而, 如果動態(tài)表情中的動態(tài)信息不包含文化特有的情緒方言, 而是普遍促進所有文化感知者的情緒識別表現(xiàn), 那么動態(tài)表情和靜態(tài)表情識別的群內(nèi)優(yōu)勢效應(yīng)將不會有差異。因此, 我們預(yù)期表情的呈現(xiàn)方式不會調(diào)節(jié)表情識別的群內(nèi)優(yōu)勢效應(yīng)。

1.4 ?當(dāng)前研究

綜上, 關(guān)于跨文化表情識別的群內(nèi)優(yōu)勢效應(yīng)是否受到表情自發(fā)性調(diào)節(jié)的問題, 現(xiàn)有研究雖然進行了初步探討, 但存在一些限制。其中, 有些研究只包括了自發(fā)表情識別任務(wù)而沒有涉及表演表情識別任務(wù)(Matsumoto, Olide, & Willingham, 2009), 因此無法直接比較自發(fā)表情和表演表情識別的群內(nèi)優(yōu)勢效應(yīng)是否存在差異; 而其他研究則在自發(fā)表情和表演表情的情緒類別和呈現(xiàn)方式上存在不匹配(Kang & Lau, 2013), 因此無法排除這些因素對結(jié)果的影響。此外, 現(xiàn)有研究對于表情自發(fā)性是否調(diào)節(jié)表情識別的群內(nèi)優(yōu)勢效應(yīng)的結(jié)論也不一致。至于跨文化表情識別的群內(nèi)優(yōu)勢效應(yīng)是否受到表情呈現(xiàn)方式的調(diào)節(jié), 目前尚未開展相關(guān)研究。

本研究旨在通過兩項實驗考察跨文化表情識別中的群內(nèi)優(yōu)勢效應(yīng)是否受到表情自發(fā)性(表演表情和自發(fā)表情; 實驗1)和呈現(xiàn)方式(靜態(tài)表情和動態(tài)表情; 實驗2)的調(diào)節(jié)。具體而言, 實驗1招募來自東西方文化的被試, 以識別來自東西方文化表達者的表演動態(tài)表情和自發(fā)動態(tài)表情; 實驗2招募來自東西方文化的被試, 以識別來自東西方表達者的靜態(tài)表演表情和動態(tài)表演表情。其中, 表演表情是通過讓模特擺出特定表情以便于他們的朋友能夠輕松理解他們的感受所得, 而自發(fā)表情則是通過讓模特回憶并講述過去生活中與特定情緒相關(guān)的個人經(jīng)歷所得。相較于前人使用的標(biāo)準(zhǔn)表情(如, Kang & Lau, 2013), 本研究中采用的表演表情更加符合各自文化中的情緒表達規(guī)范, 并且避免了按照統(tǒng)一標(biāo)準(zhǔn)表演的面部表情掩蓋文化差異可能導(dǎo)致群內(nèi)優(yōu)勢效應(yīng)消失的問題(Elfenbein et al., 2007)。

本研究關(guān)注氣憤和厭惡兩種情緒的面部表情。主要考慮如下三點。首先, 氣憤和厭惡被廣泛認(rèn)為是基本情緒(Ekman, 1992; Izard, 2007), 因此預(yù)計在東西方文化中都普遍存在且較為常見。其次, 盡管氣憤和厭惡是不同的情緒, 但它們在概念上存在關(guān)聯(lián)(Giner-Sorolla et al., 2018), 并且在面部形態(tài)上具有相似性(Cordaro et al., 2018; Fang, Sauter et al., 2022)。這些相似性導(dǎo)致個體容易混淆氣憤和厭惡這兩種表情(Fang et al., 2018, 2019; Jack et al., 2009; Pochedly et al., 2012)。采用這兩種具有混淆度的面部表情可以更好地誘發(fā)表情識別的群內(nèi)優(yōu)勢效應(yīng)。相反, 當(dāng)采用兩種完全不同的表情, 如氣憤和快樂時, 個體對無論來自哪個文化的氣憤和快樂表情的辨別都比較好, 因此表情識別的群內(nèi)優(yōu)勢效應(yīng)不太可能顯現(xiàn)。第三, 現(xiàn)有表情數(shù)據(jù)庫主要刻畫靜態(tài)表演表情, 對動態(tài)或自發(fā)表情的刻畫較少(有關(guān)綜述, 請參閱Dawel et al., 2022; Krumhuber et al., 2017), 同時包含兩種表情自發(fā)性或者兩種表情呈現(xiàn)方式的跨文化表情數(shù)據(jù)庫更少。據(jù)作者所知, 目前僅有一項跨文化情緒表達的研究同時包含了上述4種條件的表情, 為中國和荷蘭模特的氣憤和厭惡的靜態(tài)/動態(tài)的表演和自發(fā)表情(Fang, Sauter et al., 2022)。因此, 本研究利用該材料, 著重考察氣憤和厭惡表情識別的群內(nèi)優(yōu)勢效應(yīng)是否受到表情自發(fā)性和呈現(xiàn)方式的調(diào)節(jié)。

2 ?實驗1:表演和自發(fā)動態(tài)表情識別的群內(nèi)優(yōu)勢效應(yīng)

2.1 ?方法

2.1.1 ?被試

參照以往相關(guān)研究(Elfenbein & Ambady, 2002; Kang & Lau, 2013), 本實驗計劃招募加拿大被試和中國被試各100名。我們事先決定在被試數(shù)量接近100的那一天停止數(shù)據(jù)收集(Simmons et al., 2013)。最終, 本實驗招募了126名加拿大被試和126名中國被試。其中, 62名加拿大被試(52名女性; 平均年齡為20.67歲, SD = 6.91歲)和62名中國被試完成表演表情識別任務(wù)(52名女性; 平均年齡為20.18歲, SD = 1.29歲), 另外64名加拿大被試(58名女性; 平均年齡為20.89歲, SD = 6.07歲)和64名中國被試(58名女性; 平均年齡為20.03歲, SD = 1.33歲)完成自發(fā)表情識別任務(wù)。使用軟件G*Power 3.1 (Faul et al., 2007)進行敏感性分析(sensitivity analysis)表明, 本實驗的最終樣本數(shù)量(N = 252)可以檢測到的關(guān)鍵交互作用(表情自發(fā)性 × 表達者文化 × 感知者文化)的效應(yīng)大小為f = 0.21 (ηp2 = 0.04; power = 0.80, α = 0.05)。所有被試身心均健康, 視力或矯正視力正常, 自愿參與實驗, 并在參與實驗前簽署了知情同意書。本實驗獲得了加拿大約克大學(xué)倫理委員會的批準(zhǔn), 編號為e2018-028。

2.1.2 ?設(shè)計與材料

實驗1采用2 (表情種類:氣憤、厭惡) × 2 (表情自發(fā)性:表演、自發(fā)) × 2 (表達者文化:東方、西方) × 2 (感知者文化:東方、西方)的混合實驗設(shè)計, 其中表情種類和表達者文化為被試內(nèi)變量, 表情自發(fā)性和感知者文化為被試間變量。

實驗材料來源于Fang, Sauter等人(2022)的研究。該研究收集了表演表情和自發(fā)表情。在表演表情條件中, 被試被要求在攝像機前擺出特定的表情, 以便“他們的朋友能夠輕松理解他們的感受”。被試完成兩種表情的表演后, 觀看自己的視頻, 并選擇最能表達相應(yīng)情緒的那一幀畫面作為靜態(tài)表演表情材料(用于實驗2; 參見圖1示例)。這種方法確保了所選擇的靜態(tài)表情準(zhǔn)確地表達了被試意圖表達的情緒, 避免了引入實驗者偏差(類似操作見Cordaro et al., 2018; Elfenbein et al., 2007)。動態(tài)表情材料則基于被試選擇的那一幀畫面, 截取前后共2秒的視頻片段 。共有45名中國模特(22名女性)和49名荷蘭模特(36名女性)參與了氣憤和厭惡表情表演, 因此共獲得了188個靜態(tài)/動態(tài)表演表情材料。在自發(fā)表情的采集中, 被試被告知將協(xié)助開發(fā)一個能夠理解人類情感的機器人。他們需要回憶過去生活中與氣憤或厭惡情緒相關(guān)的個人經(jīng)歷, 并向機器人詳細(xì)講述這些經(jīng)歷。在講述過程中, 被試的面部表情被全程記錄。研究表明, 這種情緒重現(xiàn)法(relived- emotion method)能有效誘發(fā)自發(fā)表情(如, Siedlecka & Denson, 2019; Tsai & Chentsova-Dutton, 2003)。其余程序與表演表情相同。共有35名中國模特(24名女性)和35名荷蘭模特(24名女性)參與了氣憤和厭惡故事講述, 因此共獲得了140個動態(tài)自發(fā)表情刺激。由于被試在自發(fā)條件下會因為講述故事而產(chǎn)生嘴部動作, 因此無法區(qū)分靜態(tài)自發(fā)表情的嘴部動作是由說話引起的還是由做特定表情動作引起的。因此, 本實驗只關(guān)注動態(tài)的自發(fā)表情和表演表情之間的比較。

2.1.3 ?實驗程序

實驗在PsychoPy (Peirce et al., 2019)上進行。被試被隨機分配到動態(tài)表演表情或動態(tài)自發(fā)表情的識別任務(wù)中。在每個試次中, 屏幕中央先呈現(xiàn)500 ms注視點, 再呈現(xiàn)2000 ms大小為18° × 12°的動態(tài)表情視頻。視頻播放完畢后, 屏幕上緊接著呈現(xiàn)情緒強度評分量表。被試需要移動量尺上的滑塊, 分別對先前呈現(xiàn)的動態(tài)表情的氣憤、厭惡、恐懼、悲傷和愉快情緒的強度進行評分, 評分范圍從0 (一點也不)到100 (非常) 。這里采用評分量表的方式是因為感知者可能會在表情中識別出多種情緒(Fang et al., 2018, 2019; Hess et al., 2016)。與迫選法不同, 評分量表允許被試表達在感知特定表情時識別出的不同情緒的強度, 而不僅僅是選擇一種情緒。

動態(tài)表演表情識別任務(wù)包含4個blocks, 每個block有47個試次, 共188個試次。動態(tài)自發(fā)表情識別任務(wù)包含140個試次。所有面部表情材料僅呈現(xiàn)一次, 呈現(xiàn)順序完全隨機。所有被試均使用自己的語言進行測試。

2.2 ?結(jié)果和討論

表情識別正確率的具體計算方式如下:如果被試在目標(biāo)情緒維度上的評分大于或等于其他情緒維度上的評分且不等于0, 則編碼結(jié)果為1 (正確判斷), 否則編碼為0 (錯誤判斷)。為了更加直觀地考察群內(nèi)優(yōu)勢效應(yīng), 在每種呈現(xiàn)方式和每種表情種類條件下, 計算被試對來自相同文化背景的表情識別正確率減去其對來自不同文化背景的表情識別正確率的差值, 作為群內(nèi)優(yōu)勢效應(yīng)的指標(biāo)。若差值顯著大于0, 則說明存在群內(nèi)優(yōu)勢效應(yīng); 若差值顯著小于0, 則說明感知者對其他文化表達者表情的表情識別正確率顯著高于對相同文化表達者表情的表情識別正確率; 若差值和0沒有顯著差異, 則說明感知者對不同文化表達者表情的表情識別正確率沒有顯著差異。結(jié)果發(fā)現(xiàn), 西方感知者在識別表演表情和自發(fā)表情時均出現(xiàn)了群內(nèi)優(yōu)勢效應(yīng); 東方感知者在識別表演表情時也出現(xiàn)了群內(nèi)優(yōu)勢效應(yīng), 但在識別自發(fā)表情時未出現(xiàn)群內(nèi)優(yōu)勢效應(yīng)。在綜合討論部分中將對該結(jié)果作進一步討論。各條件下群內(nèi)優(yōu)勢效應(yīng)的均值、標(biāo)準(zhǔn)差和單樣本t檢驗結(jié)果見表1。各條件下表情識別正確率的均值、標(biāo)準(zhǔn)差和單樣本t檢驗結(jié)果見網(wǎng)絡(luò)版附表1。

對群內(nèi)優(yōu)勢效應(yīng)進行2 (表情種類:氣憤、厭惡) × 2 (表情自發(fā)性:表演、自發(fā)) × 2 (感知者文化:東方、西方)三因素混合設(shè)計方差分析 。所有效應(yīng)的概覽見表2。

表情種類的主效應(yīng)顯著, F(1, 248) = 6.54, p = 0.011, ηp2 = 0.03, 厭惡表情的群內(nèi)優(yōu)勢效應(yīng)(M = 0.06, SD = 0.11)顯著大于氣憤表情(M = 0.04, SD = 0.12); 感知者文化的主效應(yīng)顯著, F(1, 248) = 27.18, p < 0.001, ηp2 = 0.10, 西方感知者的群內(nèi)優(yōu)勢效應(yīng)(M = 0.08, SD = 0.07)顯著大于東方感知者(M = 0.03, SD = 0.09)。

重要的是, 跟本研究假設(shè)相關(guān)的表情自發(fā)性的主效應(yīng)顯著, F(1, 248) = 31.34, p < 0.001, ηp2 = 0.11, 表演表情的群內(nèi)優(yōu)勢效應(yīng)(M = 0.08, SD = 0.08)顯著大于自發(fā)表情(M = 0.03, SD = 0.09)。并且, 表情自發(fā)性 × 感知者文化的二階交互作用, F(1, 248) = 13.09, p < 0.001, ηp2 = 0.05, 表情種類 × 表情自發(fā)性 × 感知者文化的三階交互作用, F(1, 248) = 57.08, p < 0.001, ηp2 = 0.19, 均顯著(見圖2)。為了進一步分解該三階交互作用, 我們首先拆分感知者文化。結(jié)果顯示, 在東方和西方感知者中, 表情種類 × 表情自發(fā)性的二階交互作用均顯著(東方:F(1, 124) = 15.23, p < 0.001, ηp2 = 0.11; 西方:F(1, 124) = 46.20, p < 0.001, ηp2 = 0.27)。由于本研究對群內(nèi)優(yōu)勢效應(yīng)是否會受到表情自發(fā)性調(diào)節(jié)感興趣, 因此將該二階交互作用從表情種類進行拆分。結(jié)果發(fā)現(xiàn), 對于東方感知者而言, 表演氣憤和表演厭惡表情的群內(nèi)優(yōu)勢效應(yīng)分別顯著大于自發(fā)氣憤和自發(fā)厭惡表情(氣憤:t(124) = 6.98, p < 0.001, Cohens d = 1.24, 95% CI = [0.86, 1.62]; 厭惡:t(124) = 2.09, p = 0.039, Cohens d = 0.37, 95% CI = [0.02, 0.72])。對于西方感知者而言, 表演厭惡表情的群內(nèi)優(yōu)勢效應(yīng)同樣顯著大于自發(fā)厭惡表情, t(124) = 5.66, p < 0.001, Cohens d = 1.01, 95% CI = [0.64, 1.38]。然而, 西方感知者識別自發(fā)氣憤表情時的群內(nèi)優(yōu)勢效應(yīng)顯著大于識別表演氣憤表情時, t(124) = 3.82, p < 0.001, Cohens d = 0.68, 95% CI = [0.32, 1.04]。

綜上, 實驗1的結(jié)果表明動態(tài)表情識別的群內(nèi)優(yōu)勢效應(yīng)會受到表情的自發(fā)性調(diào)節(jié)??傮w而言, 表演表情識別的群內(nèi)優(yōu)勢效應(yīng)大于自發(fā)表情。這可能是由于表演表情相較于自發(fā)表情更容易受到社會學(xué)習(xí)的影響(Matsumoto & Willingham, 2009; Rinn, 1991), 從而包含了更多的情緒方言。這些額外的情緒方言進一步擴大了人們在識別本文化和外文化個體表演表情的差異, 即增強了群內(nèi)優(yōu)勢效應(yīng)。唯一的例外是, 西方感知者在識別自發(fā)氣憤表情時的群內(nèi)優(yōu)勢效應(yīng)大于識別表演氣憤表情時。有關(guān)此問題的進一步討論將在綜合討論部分進行。

3 ?實驗2:靜態(tài)和動態(tài)表演表情識別的群內(nèi)優(yōu)勢效應(yīng)

3.1 ?方法

3.1.1 ?被試

本實驗中完成動態(tài)表演表情任務(wù)的被試來自實驗1。和實驗1類似, 實驗2計劃招募荷蘭和中國被試各約60名完成靜態(tài)表演表情的識別任務(wù)。我們事先決定在被試數(shù)量接近60的那一天停止數(shù)據(jù)收集(Simmons et al., 2013)。最終, 實驗2招募了75名荷蘭被試(59名女性; 平均年齡為21.53歲, SD = 4.15歲)和82名中國被試(58名女性; 平均年齡為24.16歲, SD = 5.10歲)。使用軟件G*Power 3.1 (Faul et al., 2007)進行敏感性分析(sensitivity analysis)表明, 本實驗的最終樣本數(shù)量(N = 283)可以檢測到的關(guān)鍵交互作用(表情自發(fā)性 × 表達者文化 × 感知者文化)的效應(yīng)大小為f = 0.19 (ηp2 = 0.03; power = 0.80, α = 0.05)。所有被試身心均健康, 視力或矯正視力正常, 自愿參與實驗, 并在參與實驗前簽署了知情同意書。本實驗獲得了阿姆斯特丹大學(xué)倫理委員會的批準(zhǔn), 編號為2018-SP-9379。

3.1.2 ?設(shè)計與材料

實驗2采用2 (表情種類:氣憤、厭惡) × 2 (呈現(xiàn)方式:靜態(tài)、動態(tài)) × 2 (表達者文化:東方、西方) × 2 (感知者文化:東方、西方)的混合實驗設(shè)計。其中表情種類和表達者文化為被試內(nèi)變量, 呈現(xiàn)方式和感知者文化為被試間變量。實驗材料獲取方式見實驗1。

3.1.3 ?實驗程序

靜態(tài)表演表情識別任務(wù)在Qualtrics在線調(diào)查平臺(https://www.qualtrics.com/)上進行。在每個試次中, 屏幕上會呈現(xiàn)一張氣憤或厭惡情緒的面部表情圖片, 以及圖片下方的氣憤、厭惡、恐懼、悲傷這四個情緒的強度評價量尺。鑒于愉快與這氣憤和厭惡這兩種負(fù)面情緒有著明顯的效價區(qū)別, 且實驗1中被試只會在少數(shù)情況下(約14.84%的試次)將目標(biāo)表情圖片識別為愉快, 故實驗2中不再將愉快作為強度評價的項目。除此以外, 實驗程序與實驗1保持一致。動態(tài)表演表情識別任務(wù)來自實驗1。

3.2 ?結(jié)果和討論

靜態(tài)表演表情的識別結(jié)果來自本實驗, 動態(tài)表演表情的識別結(jié)果來自實驗1。表情識別正確率和群內(nèi)優(yōu)勢效應(yīng)的計算方式同實驗1。結(jié)果顯示, 東方感知者和西方感知者在識別靜態(tài)和動態(tài)表演表情時均出現(xiàn)了群內(nèi)優(yōu)勢效應(yīng)。各條件下靜態(tài)表演表情的群內(nèi)優(yōu)勢效應(yīng)的均值、標(biāo)準(zhǔn)差和單樣本t檢驗結(jié)果見表3。各條件下表情識別正確率的均值、標(biāo)準(zhǔn)差和單樣本t檢驗結(jié)果見網(wǎng)絡(luò)版附表3。

對群內(nèi)優(yōu)勢效應(yīng)進行2 (表情種類:氣憤、厭惡) × 2 (呈現(xiàn)方式:靜態(tài)、動態(tài)) × 2 (感知者文化:東方、西方)三因素混合設(shè)計方差分析 。所有效應(yīng)的概覽見表4。

表情種類的主效應(yīng)顯著, F(1, 277) = 13.25, p < 0.001, ηp2 = 0.05, 厭惡表情的群內(nèi)優(yōu)勢效應(yīng)(M = 0.10, SD = 0.12)顯著大于氣憤表情的群內(nèi)優(yōu)勢效應(yīng)(M = 0.07, SD = 0.11); 感知者文化的主效應(yīng)顯著, F(1, 277) = 18.87, p < 0.001, ηp2 = 0.06, 西方感知者的群內(nèi)優(yōu)勢效應(yīng)(M = 0.11, SD = 0.08)顯著大于東方感知者的群內(nèi)優(yōu)勢效應(yīng)(M = 0.07, SD = 0.07)。

重要的是, 跟本研究假設(shè)相關(guān)的表情呈現(xiàn)方式的主效應(yīng)不顯著, F(1, 277) = 2.52, p = 0.113。然而, 呈現(xiàn)方式 × 感知者文化的二階交互作用, F(1, 277) = 7.44, p = 0.007, ηp2 = 0.03, 表情種類 × 呈現(xiàn)方式 × 感知者文化的三階交互作用, F(1, 277) = 4.81, p = 0.029, ηp2 = 0.02, 均顯著(見圖3)。為了進一步分解該三階交互作用, 我們同樣先拆分感知者文化。結(jié)果顯示, 在東方感知者中, 表情種類 × 呈現(xiàn)方式的二階交互作用不顯著, F(1, 142) = 1.44, p = 0.233, 而在西方感知者中, 該二階交互作用呈邊緣顯著, F(1, 135) = 3.55, p = 0.062, ηp2 = 0.03。進一步將西方感知者的二階交互作用從表情種類進行拆分, 我們發(fā)現(xiàn)靜態(tài)氣憤表情的群內(nèi)優(yōu)勢效應(yīng)顯著大于動態(tài)氣憤表情, t(135) = 3.60, p < 0.001, Cohens d = 0.62, 95% CI = [0.27, 0.96], 而靜態(tài)和動態(tài)厭惡表情的群內(nèi)優(yōu)勢效應(yīng)無顯著差異, t(135) = 0.66, p = 0.513。

綜上, 實驗2的結(jié)果表明, 在大部分條件下, 群內(nèi)優(yōu)勢效應(yīng)不受表演表情呈現(xiàn)方式的調(diào)節(jié)。唯一的例外是, 西方感知者識別靜態(tài)氣憤表情時的群內(nèi)優(yōu)勢效應(yīng)顯著大于動態(tài)氣憤表情。綜合討論中將對這些發(fā)現(xiàn)進行進一步討論。

4 ?綜合討論

隨著全球化的發(fā)展, 人們獲得了更多與其他文化群體交流的機會, 了解不同文化背景的個體如何感知彼此的情緒也變得愈發(fā)重要。以往研究普遍發(fā)現(xiàn)了情緒識別的群內(nèi)優(yōu)勢效應(yīng), 即識別同一文化個體面部表情的情緒時的表現(xiàn)優(yōu)于識別不同文化個體面部表情的情緒時(Elfenbein, 2013; Elfenbein et al., 2007)。然而, 大部分研究僅限于使用模特表演的靜態(tài)表情, 很少有研究探討群內(nèi)優(yōu)勢效應(yīng)是否存在于對自發(fā)表情和動態(tài)表情的識別中。在日常生活中, 人們看到的表情往往是動態(tài)的, 且與實驗中模特表演的表情相比, 強度更低, 原型性更弱(Dawel et al., 2022; Krumhuber et al., 2021; Scherer et al., 2011)。因此, 基于靜態(tài)表情和表演表情的研究發(fā)現(xiàn)是否能推廣到真實情境中有待商榷。

本研究通過比較中國和加拿大/荷蘭感知者對中國和荷蘭表達者的氣憤和厭惡表情的識別, 首次考察群內(nèi)優(yōu)勢效應(yīng)是否會受到表情自發(fā)性(表演和自發(fā))和表情呈現(xiàn)方式(靜態(tài)和動態(tài))的調(diào)節(jié)。結(jié)果顯示, 總體而言, 表情識別的群內(nèi)優(yōu)勢效應(yīng)受到表情自發(fā)性的調(diào)節(jié), 但不受表情呈現(xiàn)方式的調(diào)節(jié)。表演表情比自發(fā)表情表現(xiàn)出了更強的群內(nèi)優(yōu)勢效應(yīng), 然而靜態(tài)和動態(tài)表情之間的群內(nèi)優(yōu)勢效應(yīng)并不存在顯著差異。下文將詳細(xì)討論這些發(fā)現(xiàn)。

4.1 ?表演和自發(fā)表情識別的群內(nèi)優(yōu)勢效應(yīng)

本研究揭示, 在絕大多數(shù)情況下(表情種類 × 感知者文化), 表演表情識別的群內(nèi)優(yōu)勢效應(yīng)均大于自發(fā)表情。這可能是由于人們有意識擺出的表情更多地受社會化的塑造, 而自發(fā)流露的表情表情則較少受到社會學(xué)習(xí)的影響(Matsumoto & Willingham, 2009; Rinn, 1991)。因此, 表演表情相較于自發(fā)表情可能含有更多的情緒方言。需要注意的是, 本研究中的表演和自發(fā)表情材料均來自Fang, Sauter等人(2022)的研究。該研究顯示, 除了荷蘭表達者的表演氣憤表情的動作單元數(shù)量少于自發(fā)氣憤表情外, 其他情況下表演表情的動作單元數(shù)量均多于自發(fā)表情。這些額外的肌肉運動說明表演表情包含更多信息, 更有可能蘊含文化特有的情緒方言。因此, 表演表情的群內(nèi)優(yōu)勢效應(yīng)大于自發(fā)表情。然而, 在實驗1中存在一個例外:西方感知者識別自發(fā)氣憤表情時的群內(nèi)優(yōu)勢效應(yīng)大于表演氣憤表情。這可能是因為荷蘭表達者的表演氣憤表情常用的動作單元數(shù)量少于其自發(fā)氣憤表情, 并且兩者常用的動作單元相似度較低(僅共享5或6個動作單元中的其中兩個)。具體而言, 荷蘭表達者的表演氣憤表情常用的動作單元有5個, 分別為AU4 (雙眉緊皺)、AU7 (內(nèi)眼瞼縮緊)、AU23 (嘴唇緊縮)、AU54 (低頭)、AU63 (雙眼向上), 而自發(fā)氣憤表情常用的動作單元有6個, 分別為AU1 (眉毛內(nèi)側(cè)抬升)、AU2 (眉毛外側(cè)抬升)、AU4、AU7、AU61 (雙眼向左)、AU64 (雙眼向下)。這些結(jié)果表明, 荷蘭表達者在自發(fā)氣憤表情和表演氣憤表情方面存在較大差異。荷蘭表達者的自發(fā)氣憤表情可能涵蓋了更多文化特有的情緒方言, 從而導(dǎo)致自發(fā)氣憤表情具有更強的群內(nèi)優(yōu)勢效應(yīng)。

此外, 盡管表情識別的群內(nèi)優(yōu)勢效應(yīng)在大部分情況下都存在(表情種類 × 表情自發(fā)性 × 感知者文化), 但東方感知者識別自發(fā)氣憤和厭惡表情時并未出現(xiàn)群內(nèi)優(yōu)勢效應(yīng)。該結(jié)果可能由兩個原因?qū)е隆J紫龋?除情緒方言對跨文化情緒溝通的影響外, 歷史異質(zhì)性是另一個常見的影響因素(historical heterogeneity; Niedenthal et al., 2018)。歷史異質(zhì)性指的是過去500年中對一個國家的當(dāng)前人口做出貢獻的來源國的數(shù)量(Rychlowska et al., 2015; Wood et al., 2016)。歷史異質(zhì)性越高的社會擁有更多樣化的價值觀和信仰。為了在如此多元化的社會環(huán)境中生存, 個體需要直接而準(zhǔn)確地傳達他們的情感和意圖。因此, 相較于來自歷史同質(zhì)性社會(例如中國和日本)的個體, 來自歷史異質(zhì)性社會(例如美國和加拿大)的個體在使用面部表情表達不同情緒時往往更加清晰(Fang, Rychlowska et al., 2022; Wood et al., 2016), 因此更容易被其他個體識別。在本研究中, 與表演表情相比, 歷史異質(zhì)性可能對自發(fā)表情產(chǎn)生了更大的影響。對于中國感知者來說, 盡管情緒方言使得他們能更好地辨認(rèn)中國的自發(fā)表情(相比于荷蘭的自發(fā)表情), 但歷史異質(zhì)性使得他們能更好地辨認(rèn)荷蘭的自發(fā)表情(相比于中國的自發(fā)表情)。這兩種作用相互抵消, 從而導(dǎo)致中國感知者識別自發(fā)氣憤和厭惡表情時并未出現(xiàn)群內(nèi)優(yōu)勢效應(yīng)。

第二, 除了歷史異質(zhì)性外, 集體主義/個人主義也會影響情緒的跨文化溝通(Matsumoto et al., 2008)。相較于西方文化, 東方文化的個體更具集體主義傾向, 更注重維護群體的和諧與穩(wěn)定, 在交流時可能更傾向于弱化對消極情緒的表達(Ekman, 1971; Matsumoto et al., 2008)。Fang, Sauter等人(2022)的研究在一定程度上支持了這一推論。他們發(fā)現(xiàn), 中國個體在自發(fā)表達氣憤和厭惡表情時常用的動作單元(氣憤表情僅有2個, 厭惡表情僅有3個)遠(yuǎn)遠(yuǎn)少于荷蘭個體(氣憤表情有6個, 厭惡表情有7個)。弱化的情緒表達提高了表情識別的難度。因此, 即使對于中國感知者來說, 中國表達者的自發(fā)消極表情也可能較難識別, 導(dǎo)致中國感知者在識別自發(fā)表情時并未出現(xiàn)群內(nèi)優(yōu)勢效應(yīng)。未來的研究需要更深入地探討這些可能的解釋。

4.2 ?靜態(tài)和動態(tài)表情識別的群內(nèi)優(yōu)勢效應(yīng)

本研究發(fā)現(xiàn), 表演表情識別的群內(nèi)優(yōu)勢效應(yīng)不受表情呈現(xiàn)方式的調(diào)節(jié)。然而, 與預(yù)期不一致的是, 該現(xiàn)象并不是因為動態(tài)信息普遍促進了所有文化感知者群體的表情識別。相反, 在絕大多數(shù)情況下(表情種類 × 表達者文化), 感知者對靜態(tài)表情和動態(tài)表情的識別率并無顯著差異(詳見補充材料2)。該結(jié)果說明, 本研究中的動態(tài)信息對表演表情識別沒有促進作用。盡管以往大量研究揭示動態(tài)表情的識別率優(yōu)于靜態(tài)表情, 但也有其它研究并未發(fā)現(xiàn)兩者的識別率存在差異(如, Fiorentini & Viviani, 2011; Wehrle et al., 2000)。這些不一致的結(jié)果可能與面部表情材料及感知情境有關(guān)。當(dāng)面部表情信息有限時, 如表情真實性受損(K?tsyri et al., 2008; Wehrle et al., 2000)或表情強度較弱(Bould & Morris, 2008; Yitzhak et al., 2018), 動態(tài)信息可以彌補靜態(tài)表情的信息不足, 從而有助于提高表情識別。然而, 當(dāng)面部表情信息充足時, 如表情清晰或者強烈, 靜態(tài)表情的識別可能已經(jīng)達到較高水平, 額外的動態(tài)信息并不會提高表情識別準(zhǔn)確率(Bould & Morris, 2008; Gold et al., 2013)。此外, 當(dāng)面部表情材料呈現(xiàn)時間短暫且被試應(yīng)答時間有限時, 靜態(tài)表情比動態(tài)表情得到更加充分的加工, 反而導(dǎo)致個體對靜態(tài)表情的識別率大于動態(tài)表情(Jiang et al., 2014)。在本研究中, 靜態(tài)表情和動態(tài)表情的比較建立在模特表演特定情緒的表情上, 而表演表情往往包含了相對強烈的情緒信息(Kayyal & Russell, 2013)。這些強烈的情緒信息導(dǎo)致靜態(tài)表情和動態(tài)表情的識別率相當(dāng), 從而進一步導(dǎo)致了表情識別的群內(nèi)優(yōu)勢效應(yīng)不受呈現(xiàn)方式調(diào)節(jié)。

然而, 實驗2發(fā)現(xiàn)一個例外:當(dāng)西方感知者識別靜態(tài)和動態(tài)表演的氣憤表情時, 靜態(tài)表情具有更大的群內(nèi)優(yōu)勢效應(yīng)。進一步的分析表明, 該差異是由于西方感知者對于西方表達者的靜態(tài)氣憤表情的識別率高于對于西方表達者的動態(tài)氣憤表情, 而對于東方表達者的靜態(tài)和動態(tài)氣憤表情的識別則沒有明顯差異(詳見補充材料2)。該發(fā)現(xiàn)與以往研究揭示動態(tài)信息促進表情識別的結(jié)果完全相反(Ambadar et al., 2005; Krumhuber et al., 2023)。值得注意的是, 與以往研究主要使用morph軟件生成從中性表情轉(zhuǎn)變?yōu)樘囟ㄇ榫w的動態(tài)表情不同(Krumhuber et al., 2023), 本研究使用的動態(tài)表情材料是真實個體的動態(tài)表演錄像片段。這些片段是從個體選取的, 能夠最好地代表特定情緒表情的那一幀前后共2秒的視頻片段。因此, 與以往研究中的情緒變化呈線性變化不同, 本研究中的情緒變化可能呈現(xiàn)非線性和不規(guī)律的特點。這些不規(guī)律的動態(tài)信息可能缺乏清晰的情緒信號, 因此導(dǎo)致動態(tài)表情的識別率與靜態(tài)表情沒有差異, 甚至可能低于靜態(tài)表情。

4.3 ?局限與展望

本研究仍存在一些局限之處, 后續(xù)研究可進一步從以下幾個方面繼續(xù)深化對跨文化情緒識別的認(rèn)識。

首先, 本研究僅考察了兩種消極情緒——氣憤和厭惡的群內(nèi)優(yōu)勢效應(yīng)。同時, 本研究僅考察了中國和荷蘭這兩種文化識別各自文化個體的情緒時的表現(xiàn)。目前尚不清楚本研究的結(jié)論是否也適用于除氣憤和厭惡外的其他情緒的感知, 以及是否適用于其他文化群體。因此, 未來研究可以探究其他情緒和其他文化群體在情緒識別方面是否也存在群內(nèi)優(yōu)勢效應(yīng), 以及群內(nèi)優(yōu)勢效應(yīng)是否受表情自發(fā)性或者呈現(xiàn)方式的調(diào)節(jié), 以更全面地了解不同文化群體的成員進行情緒交流時的文化異同。

其次, 本研究在考察表情自發(fā)性對群內(nèi)優(yōu)勢效應(yīng)的調(diào)節(jié)作用時僅采用了動態(tài)表情(動態(tài)表演表情 vs. 動態(tài)自發(fā)表情), 而在考察表情呈現(xiàn)方式對群內(nèi)優(yōu)勢效應(yīng)的調(diào)節(jié)作用時僅采用了表演表情(靜態(tài)表演表情 vs. 動態(tài)表演表情)。這是因為本研究使用的自發(fā)面部表情是根據(jù)個體自述以往經(jīng)歷時伴隨的面部表情獲得的。如果在此基礎(chǔ)上截取特定幀作為靜態(tài)自發(fā)表情, 可能導(dǎo)致被試無法區(qū)分嘴部動作是由說話引起的還是由特定表情動作引起的。因此, 在排除靜態(tài)自發(fā)表情這一選項后, 我們選擇了上述比較對象。未來可以嘗試使用其他自發(fā)表情誘發(fā)技術(shù), 如讓模特觀看帶有特定情緒色彩的電影片段(Gross & Levenson, 1995)或聞特定的氣味等(Zhang et al., 2014), 以在避免嘴部影響的前提下獲取模特的靜態(tài)自發(fā)表情。

最后, 雖然本研究發(fā)現(xiàn)群內(nèi)優(yōu)勢效應(yīng)會受到動態(tài)表情自發(fā)性的調(diào)節(jié), 并推測面部動作單元的激活數(shù)量可能與群內(nèi)優(yōu)勢效應(yīng)的大小相關(guān), 但具體的關(guān)聯(lián)機制仍需要進一步的實證檢驗。此外, 本研究發(fā)現(xiàn)群內(nèi)優(yōu)勢效應(yīng)可能不受表演表情呈現(xiàn)方式的調(diào)節(jié), 但這可能是因為本研究中感知者識別靜態(tài)和動態(tài)表情時的表現(xiàn)沒有區(qū)別。未來的研究可以探究當(dāng)表情強度較低時, 動態(tài)信息是否在感知者識別本文化和其他文化個體表情時的增益不同, 從而導(dǎo)致靜態(tài)表情與動態(tài)表情識別的群內(nèi)優(yōu)勢效應(yīng)產(chǎn)生差異。

5 ?結(jié)論

本研究首次考察了氣憤和厭惡表情識別的群內(nèi)優(yōu)勢效應(yīng)是否會受到表情自發(fā)性(表演表情和自發(fā)表情)和表情呈現(xiàn)方式(靜態(tài)表情和動態(tài)表情)調(diào)節(jié)??傮w而言, 表演表情識別的群內(nèi)優(yōu)勢效應(yīng)大于自發(fā)表情識別的群內(nèi)優(yōu)勢效應(yīng), 但群內(nèi)優(yōu)勢效應(yīng)未受到表情呈現(xiàn)方式的調(diào)節(jié)。本研究結(jié)果擴展了跨文化情緒識別領(lǐng)域的發(fā)現(xiàn), 揭示了表演表情和自發(fā)表情在識別上的群內(nèi)優(yōu)勢效應(yīng)的差異, 為更好地理解人們?nèi)绾巫R別不同文化個體的表情提供了新的實證證據(jù)。

參 ?考 ?文 ?獻

Ambadar, Z., Schooler, J. W., & Cohn, J. F. (2005). Deciphering the enigmatic face: The importance of facial dynamics in interpreting subtle facial expressions. Psychological Science, 16(5), 403?410. https://doi.org/10.1111/ j.0956-7976.2005.01548.x

Bain, A. (2006). The emotions and the will. New York, NY: Cosmo Classics. (Original work published 1859)

Blais, C., Fiset, D., Roy, C., Saumure Régimbald, C., & Gosselin, F. (2017). Eye fixation patterns for categorizing static and dynamic facial expressions. Emotion, 17(7), 1107?1119. https://doi.org/10.1037/emo0000283

Bould, E., & Morris, N. (2008). Role of motion signals in recognizing subtle facial expressions of emotion. British Journal of Psychology, 99(2), 167?189. https://doi.org/10.1348/ 000712607X206702

Cordaro, D. T., Sun, R., Keltner, D., Kamble, S., Huddar, N., & McNeil, G. (2018). Universals and cultural variations in 22 emotional expressions across five cultures. Emotion, 18(1), 75?93. https://doi.org/10.1037/emo0000302

Cunningham, D. W., & Wallraven, C. (2009). Dynamic information for the recognition of conversational expressions. Journal of Vision, 9(13), 7?7. https://doi.org/10.1167/9.13.7

Dawel, A., Miller, E. J., Horsburgh, A., & Ford, P. (2022). A systematic survey of face stimuli used in psychological research 2000?2020. Behavior Research Methods, 54(4), 1889?1901. https://doi.org/10.3758/s13428-021-01705-3

Ekman, P. (1971). Universals and cultural differences in facial expressions of emotion. Nebraska Symposium on Motivation, 19, 207?283.

Ekman, P. (1992). An argument for basic emotions. Cognition and Emotion, 6(3?4), 169?200. https://doi.org/10.1080/ 02699939208411068

Ekman, P., Friesen, W. V., & Hager, J. C. (2002). The facial action coding system: A technique for the measurement of facial movement. San Francisco, CA: Consulting Psychologists Press.

Ekman, P., Sorenson, E. R., & Friesen, W. V. (1969). Pan-cultural elements in facial displays of emotion. Science, 164(3875), 86?88. https://doi.org/10.1126/science.164.3875.86

Elfenbein, H. A. (2013). Nonverbal dialects and accents in facial expressions of emotion. Emotion Review, 5(1), 90?96. https://doi.org/10.1177/1754073912451332

Elfenbein, H. A., & Ambady, N. (2002). On the universality and cultural specificity of emotion recognition: A meta-analysis. Psychological Bulletin, 128(2), 203?235. https://doi.org/10.1037/0033-2909.128.2.203

Elfenbein, H. A., Beaupré, M., Lévesque, M., & Hess, U. (2007). Toward a dialect theory: Cultural differences in the expression and recognition of posed facial expressions. Emotion, 7(1), 131?146. https://doi.org/10.1037/1528-3542.7.1.131

Fang, X., Rychlowska, M., & Lange, J. (2022). Cross-cultural and inter-group research on emotion perception. Journal of Cultural Cognitive Science, 6(1), 1?7. https://doi.org/10.1007/ s41809-022-00102-2

Fang, X., Sauter, D. A., Heerdink, M. W., & van Kleef, G. A. (2022). Culture shapes the distinctiveness of posed and spontaneous facial expressions of anger and disgust. Journal of Cross-Cultural Psychology, 53(5), 471?487. https://doi.org/10.1177/00220221221095208

Fang, X., Sauter, D. A., & Van Kleef, G. A. (2018). Seeing mixed emotions: The specificity of emotion perception from static and dynamic facial expressions across cultures. Journal of Cross-Cultural Psychology, 49(1), 130?148. https://doi.org/10.1177/0022022117736270

Fang, X., van Kleef, G. A., Kawakami, K., & Sauter, D. A. (2021). Cultural differences in perceiving transitions in emotional facial expressions: Easterners show greater contrast effects than Westerners. Journal of Experimental Social Psychology, 95, 104143. https://doi.org/10.1016/ j.jesp.2021.104143

Fang, X., van Kleef, G. A., & Sauter, D. A. (2019). Revisiting cultural differences in emotion perception between easterners and westerners: Chinese perceivers are accurate, but see additional non-intended emotions in negative facial expressions. Journal of Experimental Social Psychology, 82, 152?159. https://doi.org/10.1016/j.jesp.2019.02.003

Faul, F., Erdfelder, E., Lang, A.-G., & Buchner, A. (2007). G*Power 3: A flexible statistical power analysis program for the social, behavioral, and biomedical sciences. Behavior Research Methods, 39(2), 175?191. https://doi.org/ 10.3758/BF03193146

Fiorentini, C., & Viviani, P. (2011). Is there a dynamic advantage for facial expressions? Journal of Vision, 11(3), 17. https://doi.org/10.1167/11.3.17

Giner-Sorolla, R., Kupfer, T., & Sabo, J. (2018). Chapter Five - What makes moral disgust special? An integrative functional review. In J. M. Olson (Ed.), Advances in experimental social psychology (Vol. 57, pp. 223?289). Academic Press. https://doi.org/10.1016/bs.aesp.2017.10.001

Gold, J. M., Barker, J. D., Barr, S., Bittner, J. L., Bromfield, W. D., Chu, N., Goode, R. A., Lee, D., Simmons, M., & Srinath, A. (2013). The efficiency of dynamic and static facial expression recognition. Journal of Vision, 13(5), 23?23. https://doi.org/10.1167/13.5.23

Gross, J. J., & Levenson, R. W. (1995). Emotion elicitation using films. Cognition and Emotion, 9(1), 87?108. https://doi.org/10.1080/02699939508408966

Hess, U., Kafetsios, K., Mauersberger, H., Blaison, C., & Kessler, C.-L. (2016). Signal and noise in the perception of facial emotion expressions: From labs to life. Personality and Social Psychology Bulletin, 42(8), 1092?1110. https://doi.org/10.1177/0146167216651851

Hoffmann, H., Traue, H. C., Bachmayr, F., & Kessler, H. (2010). Perceived realism of dynamic facial expressions of emotion: Optimal durations for the presentation of emotional onsets and offsets. Cognition and Emotion, 24(8), 1369?1376. https://doi.org/10.1080/02699930903417855

Izard, C. E. (2007). Basic emotions, natural kinds, emotion schemas, and a new paradigm. Perspectives on Psychological Science, 2(3), 260?280. https://doi.org/10.1111/ j.1745-6916.2007.00044.x

Jack, R. E., Blais, C., Scheepers, C., Schyns, P. G., & Caldara, R. (2009). Cultural confusions show that facial expressions are not universal. Current Biology, 19(18), 1543?1548. https://doi.org/10.1016/j.cub.2009.07.051

Jack, R. E., Garrod, O. G. B., & Schyns, P. G. (2014). Dynamic facial expressions of emotion transmit an evolving hierarchy of signals over time. Current Biology, 24(2), 187?192. https://doi.org/10.1016/j.cub.2013.11.064

Jiang, Z., Li, W., Recio, G., Liu, Y., Luo, W., Zhang, D., & Sun, D. (2014). Time pressure inhibits dynamic advantage in the classification of facial expressions of emotion. PLOS ONE, 9(6). https://doi.org/10.1371/journal.pone.0100162

Kang, S.-M., & Lau, A. S. (2013). Revisiting the out-group advantage in emotion recognition in a multicultural society: Further evidence for the in-group advantage. Emotion, 13(2), 203?215. https://doi.org/10.1037/a0030013

K?tsyri, J., Saalasti, S., Tiippana, K., von Wendt, L., & Sams, M. (2008). Impaired recognition of facial emotions from low-spatial frequencies in Asperger syndrome. Neuropsychologia, 46(7), 1888?1897. https://doi.org/10.1016/ j.neuropsychologia.2008.01.005

Kayyal, M. H., & Russell, J. A. (2013). Americans and Palestinians judge spontaneous facial expressions of emotion. Emotion, 13(5), 891?904. https://doi.org/10.1037/ a0033244

Krumhuber, E. G., Küster, D., Namba, S., & Skora, L. (2021). Human and machine validation of 14 databases of dynamic facial expressions. Behavior Research Methods, 53(2), 686?701. https://doi.org/10.3758/s13428-020-01443-y

Krumhuber, E. G., Skora, L. I., Hill, H. C. H., & Lander, K. (2023). The role of facial movements in emotion recognition. Nature Reviews Psychology, 2(5), 283?296. https://doi.org/10.1038/s44159-023-00172-1

Krumhuber, E. G., Skora, L., Küster, D., & Fou, L. (2017). A review of dynamic datasets for facial expression research. Emotion Review, 9(3), 280?292. https://doi.org/10.1177/ 1754073916670022

Matsumoto, D., & Ekman, P. (1988). Japanese and Caucasian facial expressions of emotion and neutral faces (JACFEE and JACNeuF) [Slides]: San Francisco, CA: Intercultural and Emotion Research Laboratory, Department of Psychology, San Francisco State University.

Matsumoto, D., & Ekman, P. (2004). The relationship among expressions, labels, and descriptions of contempt. Journal of Personality and Social Psychology, 87(4), 529?540. https://doi.org/10.1037/0022-3514.87.4.529

Matsumoto, D., Olide, A., Schug, J., Willingham, B., & Callan, M. (2009). Cross-cultural judgments of spontaneous facial expressions of emotion. Journal of Nonverbal Behavior, 33(4), 213?238. https://doi.org/10.1007/s10919-009-0071-4

Matsumoto, D., Olide, A., & Willingham, B. (2009). Is there an ingroup advantage in recognizing spontaneously expressed emotions? Journal of Nonverbal Behavior, 33(3), 181?191. https://doi.org/10.1007/s10919-009-0068-z

Matsumoto, D., & Willingham, B. (2009). Spontaneous facial expressions of emotion of congenitally and noncongenitally blind individuals. Journal of Personality and Social Psychology, 96(1), 1?10. https://doi.org/10.1037/a0014037

Matsumoto, D., Yoo, S. H., & Fontaine, J. (2008). Mapping expressive differences around the world: The relationship between emotional display rules and individualism versus collectivism. Journal of Cross-Cultural Psychology, 39(1), 55?74. https://doi.org/10.1177/0022022107311854

Namba, S., Kagamihara, T., Miyatani, M., & Nakao, T. (2017). Spontaneous facial expressions reveal new action units for the sad experiences. Journal of Nonverbal Behavior, 41(3), 203?220. https://doi.org/10.1007/s10919-017-0251-6

Namba, S., Makihara, S., Kabir, R. S., Miyatani, M., & Nakao, T. (2017). Spontaneous facial expressions are different from posed facial expressions: Morphological properties and dynamic sequences. Current Psychology, 36(3), 593?605. https://doi.org/10.1007/s12144-016-9448-9

Niedenthal, P. M., Rychlowska, M., Wood, A., & Zhao, F. (2018). Heterogeneity of long-history migration predicts smiling, laughter and positive emotion across the globe and within the United States. PLOS ONE, 13(8), e0197651. https://doi.org/10.1371/journal.pone.0197651

Oatley, K., & Johnson-Laird, P. N. (1987). Towards a cognitive theory of emotions. Cognition and Emotion, 1(1), 29?50. https://doi.org/10.1080/02699938708408362

Ortony, A. (2022). Are all “basic emotions” emotions? A problem for the (basic) emotions construct. Perspectives on Psychological Science, 17(1), 41?61. https://doi.org/ 10.1177/1745691620985415

Peirce, J., Gray, J. R., Simpson, S., MacAskill, M., H?chenberger, R., Sogo, H., Kastman, E., & Lindel?v, J. K. (2019). PsychoPy2: Experiments in behavior made easy. Behavior Research Methods, 51(1), 195?203. https://doi.org/ 10.3758/s13428-018-01193-y

Pochedly, J. T., Widen, S. C., & Russell, J. A. (2012). What emotion does the “facial expression of disgust” express? Emotion, 12(6), 1315?1319. https://doi.org/10.1037/a0027998

Rinn, W. E. (1991). Neuropsychology of facial expression. In R. S. Feldman & B. Rimé (Eds.), Fundamentals of nonverbal behavior (pp. 3?30). Cambridge University Press.

Rychlowska, M., Miyamoto, Y., Matsumoto, D., Hess, U., Gilboa-Schechtman, E., Kamble, S., Muluk, H., Masuda, T., & Niedenthal, P. M. (2015). Heterogeneity of long-history migration explains cultural differences in reports of emotional expressivity and the functions of smiles. Proceedings of the National Academy of Sciences, 112(19), E2429?E2436. https://doi.org/10.1073/pnas.1413661112

Sato, W., Fujimura, T., & Suzuki, N. (2008). Enhanced facial EMG activity in response to dynamic facial expressions. International Journal of Psychophysiology, 70(1), 70?74. https://doi.org/10.1016/j.ijpsycho.2008.06.001

Scherer, K. R., Clark-Polner, E., & Mortillaro, M. (2011). In the eye of the beholder? Universality and cultural specificity in the expression and perception of emotion. International Journal of Psychology, 46(6), 401?435. https://doi.org/10.1080/00207594.2011.626049

Siedlecka, E., & Denson, T. F. (2019). Experimental methods for inducing basic emotions: A qualitative review. Emotion Review, 11(1), 87?97. https://doi.org/10.1177/1754073917749016

Simmons, J. P., Nelson, L. D., & Simonsohn U. (2013, January). Life after p-hacking. Paper presented at the Meeting of the Society for Personality and Social Psychology, New Orleans, LA, 17-19. https://ssrn.com/ abstract=2205186 or http://dx.doi.org/10.2139/ssrn.2205186

Tcherkassof, A., Bollon, T., Dubois, M., Pansu, P., & Adam, J.-M. (2007). Facial expressions of emotions: A methodological contribution to the study of spontaneous and dynamic emotional faces. European Journal of Social Psychology, 37(6), 1325?1345. https://doi.org/10.1002/ejsp.427

Tsai, J. L., & Chentsova-Dutton, U. (2003). Variation among European Americans in emotional facial expression. Journal of Cross-Cultural Psychology, 34(6), 650?657. https://doi.org/10.1177/0022022103256846

Valente, D., Theurel, A., & Gentaz, E. (2018). The role of visual experience in the production of emotional facial expressions by blind people: A review. Psychonomic Bulletin & Review, 25(2), 483?497. https://doi.org/ 10.3758/ s13423-017-1338-0

Van Kleef, G. A., & C?té, S. (2022). The social effects of emotions. Annual Review of Psychology, 73(1), 629?658. https://doi.org/10.1146/annurev-psych-020821-010855

Wehrle, T., Kaiser, S., Schmidt, S., & Scherer, K. R. (2000). Studying the dynamics of emotional expression using synthesized facial muscle movements. Journal of Personality and Social Psychology, 78(1), 105?119. https://doi.org/ 10.1037/0022-3514.78.1.105

Widen, S. C., Christy, A. M., Hewett, K., & Russell, J. A. (2011). Do proposed facial expressions of contempt, shame, embarrassment, and compassion communicate the predicted emotion? Cognition and Emotion, 25(5), 898?906. https://doi.org/10.1080/02699931.2010.508270

Wood, A., Rychlowska, M., & Niedenthal, P. M. (2016). Heterogeneity of long-history migration predicts emotion recognition accuracy. Emotion, 16(4), 413?420. https://doi.org/ 10.1037/emo0000137

Yitzhak, N., Gilaie-Dotan, S., & Aviezer, H. (2018). The contribution of facial dynamics to subtle expression recognition in typical viewers and developmental visual agnosia. Neuropsychologia, 117, 26?35. https://doi.org/10.1016/ j.neuropsychologia.2018.04.035

Zhang, Q., Yin, T. Z., & Ran, G. M. (2015). Psychological and neural mechanisms for the superiority effect of dynamic facial expressions. Advances in Psychological Science, 23(9), 1514?1522.

[張琪, 尹天子, 冉光明. (2015). 動態(tài)面孔表情優(yōu)勢效應(yīng)的心理機制及神經(jīng)基礎(chǔ). 心理科學(xué)進展, 23(9), 1514?1522.]

Zhang, Q. Y., Chen, J. W., Yu, Q. L., & Xin, P. (2011). An in-group advantage in recognizing emotion. Advances in Psychological Science, 19(2), 209?216.

[張秋穎, 陳建文, 于全磊, 辛鵬. (2011). 情緒識別中的群內(nèi)優(yōu)勢效應(yīng). 心理科學(xué)進展, 19(2), 209?216.]

Zhang, X., Yin, L., Cohn, J. F., Canavan, S., Reale, M., Horowitz, A., Liu, P., & Girard, J. M. (2014). BP4D- Spontaneous: A high-resolution spontaneous 3D dynamic facial expression database. Image and Vision Computing, 32(10), 692?706. https://doi.org/10.1016/j.imavis.2014.06.002

The impact of spontaneity and presentation mode on the ingroup advantage

in recognizing angry and disgusted facial expressions

FANG Xia, GE Youxun

(Department of Psychology and Behavioral Sciences, Zhejiang University, Hangzhou 310058, China)

Abstract

With the acceleration of globalization, effective cross-cultural communication has become increasingly important in modern society. One significant aspect of this communication involves accurately interpreting facial expressions of emotion. Previous research has found that nonverbal emotional communication is compromised when communication occurs between individuals from different cultural backgrounds compared to within cultural groups. Specifically, individuals are more accurate at recognizing facial expressions of individuals from their own cultural background than those from a different cultural background, a phenomenon known as ingroup advantage effect. However, most previous studies examining the ingroup advantage in facial expression recognition have focused primarily on posed and static facial expressions, paying less attention to spontaneous and dynamic facial expressions. Given that facial expressions in real-life interactions are often spontaneous and dynamic, it is imperative to investigate whether the ingroup advantage is influenced by the spontaneity (posed and spontaneous) and presentation mode (static and dynamic) of facial expressions.

To address these research objectives, we conducted two experiments involving participants from China, Canada, and the Netherlands. In Experiment 1, Chinese and Canadian participants were asked to recognize posed and spontaneous facial expressions of anger and disgust displayed by Chinese and Dutch models. In Experiment 2, Chinese and Dutch participants were recruited to recognize static and dynamic facial expressions of anger and disgust displayed by Chinese and Dutch models. Specifically, Experiment 1 included 126 Chinese participants and 126 Canadian participants, while Experiment 2 involved 82 Chinese participants and 75 Dutch participants. In both experiments, participants were asked to rate the intensity of facial expressions on scales of anger, disgust, fear, sadness, and joy ranging from 0 (not at all) to 100 (extremely).

The results indicated that the ingroup advantage was influenced by the spontaneity of the facial expressions. In three out of four cases (Eastern perceivers recognizing facial expressions of anger and disgust, and Western perceivers recognizing facial expressions of disgust), posed expressions exhibited a stronger ingroup advantage compared to spontaneous expressions. The exception was Western perceivers demonstrating a greater ingroup advantage when recognizing spontaneous facial expressions of anger. Furthermore, the findings revealed that the ingroup advantage was not influenced by the presentation mode of the facial expressions. In three out of four cases (Eastern perceivers recognizing facial expressions of anger and disgust, and Western perceivers recognizing facial expressions of disgust), there was no significant difference in the ingroup advantage between static and dynamic expressions. The only exception was Western perceivers' recognition of static expressions of anger, where the ingroup advantage was greater than that for dynamic expressions of anger.

In conclusion, the present research demonstrated that the ingroup advantage was more pronounced in posed expression recognition compared to spontaneous expression recognition, while the presentation mode of the expressions did not influence the ingroup advantage. These findings contribute to the existing knowledge in the field of cross-cultural emotion recognition by revealing differences in the ingroup advantage between posed and spontaneous expressions. Consequently, these results provide new empirical contributions that enhance our understanding of how individuals recognize expressions displayed by individuals from different cultural backgrounds.

Keywords ?facial expression recognition, ingroup advantage, posed and spontaneous facial expressions, static and dynamic facial expressions, culture difference

附錄

補充材料1:實驗1中對表情識別正確率的分析

對實驗1各條件下的表情識別正確率進行單樣本t檢驗(見附表1), 以檢驗表情識別正確率是否大于隨機水平(即1/5個情緒維度 = 0.2)。結(jié)果發(fā)現(xiàn), 大部分條件下的表情識別正確率均顯著大于0.2, 這表明被試均能以高于隨機水平的概率識別目標(biāo)情緒。然而, 當(dāng)西方感知者識別東方表達者的自發(fā)氣憤表情時, 識別正確率與0.2差異不顯著, 說明西方感知者可能難以識別東方表達者的自發(fā)氣憤表情。

對表情識別正確率進行2 (表情種類:氣憤、厭惡) × 2 (表情自發(fā)性:表演、自發(fā)) × 2 (表達者文化:東方、西方) × 2 (感知者文化:東方、西方)四因素混合設(shè)計方差分析(見附表2)。結(jié)果顯示, 感知者文化的主效應(yīng)顯著, F(1, 248) = 21.08, p < 0.001, ηp2 = 0.08, 西方感知者的表情識別正確率(M = 0.39, SD = 0.16)顯著大于東方感知者的表情識別正確率(M = 0.34, SD = 0.10); 表達者文化的主效應(yīng)顯著, F(1, 248) = 27.18, p < 0.001, ηp2 = 0.10, 被試對西方表達者的表情識別正確率(M = 0.38, SD = 0.15)顯著大于對東方表達者的表情識別正確率(M = 0.35, SD = 0.14); 表情自發(fā)性的主效應(yīng)顯著, F(1, 248) = 295.42, p < 0.001, ηp2 = 0.54, 被試對表演表情的表情識別正確率(M = 0.46, SD = 0.12)顯著大于對自發(fā)表情的表情識別正確率(M = 0.27, SD = 0.07); 表情種類的主效應(yīng)顯著, F(1, 248) = 8.87, p = 0.003, ηp2 = 0.04, 被試對厭惡表情的表情識別正確率(M = 0.38, SD = 0.17) 顯著大于對氣憤表情的表情識別正確率(M = 0.35, SD = 0.15)。

與假設(shè)相關(guān)的表情自發(fā)性 × 表達者文化 × 感知者文化的三階交互作用顯著, F(1, 248) = 31.34, p < 0.001, ηp2 = 0.11, 且表情種類 × 表情自發(fā)性 × 表達者文化 × 感知者文化的四階交互作用也顯著, F(1, 248) = 4.02, p = 0.046, ηp2 = 0.02。進一步分析發(fā)現(xiàn), 在所有條件下, 西方感知者對西方表達者的表情識別正確率均大于東方表達者(表演氣憤:t(61) = 2.55, p = 0.013, Cohens d = 0.32, 95% CI = [0.01, 0.06]; 表演厭惡:t(61) = 9.86, p < 0.001, Cohens d = 1.25, 95% CI = [0.11, 0.17]; 自發(fā)氣憤:t(63) = 7.84, p < 0.001, Cohens d = 0.98, 95% CI = [0.07, 0.12]; 自發(fā)厭惡:t(63) = 3.43, p = 0.001, Cohens d = 0.43, 95% CI = [0.02, 0.06])。對于東方感知者來說, 他們對東方表達者的表演表情識別正確率大于西方表達者的表演表情(表演氣憤:t(61) = 6.50, p < 0.001, Cohens d = 0.83, 95% CI = [0.06, 0.11]; 表演厭惡:t(61) = 4.38, p < 0.001, Cohens d = 0.56, 95% CI = [0.03, 0.08])。然而, 他們對東方表達者的自發(fā)氣憤表情的識別正確率小于西方表達者的自發(fā)氣憤表情, t(63) = 3.48, p < 0.001, Cohens d = 0.44, 95% CI = [0.02, 0.08], 對東方表達者的自發(fā)厭惡表情的識別正確率與西方表達者的自發(fā)厭惡表情無顯著差異, t(63) = 1.47, p = 0.147, Cohens d = 0.18, 95% CI = [?0.01, 0.04]。

補充材料2:實驗2中對表情識別正確率的分析

對各條件下靜態(tài)表情的表情識別正確率進行單樣本t檢驗(見附表3), 以檢驗表情識別正確率是否大于隨機水平(即1/4個情緒維度 = 0.25)。結(jié)果發(fā)現(xiàn), 大部分條件下靜態(tài)表情的表情識別正確率均顯著大于0.25, 這表明被試均能以高于隨機水平的概率識別目標(biāo)情緒。

對表情識別正確率進行2 (表情種類:氣憤、厭惡) × 2 (呈現(xiàn)方式:動態(tài)、靜態(tài)) × 2 (表達者文化:東方、西方) × 2 (感知者文化:東方、西方)的四因素混合設(shè)計方差分析(見附表4)。結(jié)果顯示, 感知者文化的主效應(yīng)顯著, F(1, 277) = 99.74, p < 0.001, ηp2 = 0.27, 西方感知者的表情識別正確率(M = 0.53, SD = 0.10)顯著大于東方感知者的表情識別正確率(M = 0.41, SD = 0.09); 表達者文化的主效應(yīng)顯著, F(1, 277) = 18.87, p < 0.001, ηp2 = 0.06, 被試對西方表達者的表情識別正確率(M = 0.48, SD = 0.15) 顯著大于對東方表達者的表情識別正確率(M = 0.46, SD = 0.10); 呈現(xiàn)方式的主效應(yīng)不顯著, F(1, 277) = 2.35, p = 0.126; 表情種類的主效應(yīng)邊緣顯著, F(1, 277) = 3.77, p = 0.053, ηp2 = 0.01。

與假設(shè)相關(guān)的呈現(xiàn)方式 × 表達者文化 × 感知者文化的三階交互作用不顯著, F(1, 277) = 2.52, p = 0.113, ηp2 = 0.01, 但是表達者文化 × 感知者文化的二階交互作用顯著, F(1, 277) = 345.35, p < 0.001, ηp2 = 0.56。東方感知者對東方表達者的識別正確率(M = 0.45, SD = 0.10)顯著大于西方表達者(M = 0.38, SD = 0.10), t(143) = 10.64, p < 0.001, Cohens d = 0.89, 95% CI = [0.69, 1.08]; 西方感知者對西方表達者的識別正確率(M = 0.59, SD = 0.12)顯著大于東方表達者(M = 0.48, SD = 0.10), t(136) = 15.31, p < 0.001, Cohens d = 1.31, 95% CI = [1.08, 1.54], 表明東西方感知者識別表演表情時均會出現(xiàn)群內(nèi)優(yōu)勢效應(yīng)。

為了考察表情的不同呈現(xiàn)方式對表情識別是否有影響, 我們還關(guān)注了與呈現(xiàn)方式相關(guān)的效應(yīng)。盡管呈現(xiàn)方式主效應(yīng)不顯著, F(1, 277) = 2.35, p = 0.126, 但是呈現(xiàn)方式 × 表達者文化的二階交互作用, F(1, 277) = 7.44, p = 0.007, ηp2 = 0.03, 以及表情種類 × 呈現(xiàn)方式 × 表達者文化的三階交互作用, F(1, 277) = 4.81, p = 0.029, ηp2 = 0.02, 均顯著。對該三階交互作用進一步分析發(fā)現(xiàn), 除了西方表達者的氣憤表情外, 其余情況下的靜態(tài)表情(東方氣憤:M = 0.47, SD = 0.14; 東方厭惡:M = 0.45, SD = 0.14; 西方厭惡:M = 0.50, SD = 0.19)和動態(tài)表情(東方氣憤:M = 0.45, SD = 0.14; 東方厭惡:M = 0.47, SD = 0.15; 西方厭惡:M = 0.51, SD = 0.19)的識別正確率均沒有顯著差異(東方氣憤:t(279) = 1.29, p = 0.200; 東方厭惡:t(279) = 0.68, p = 0.495; 西方厭惡:t(279) = 0.55, p = 0.582)。對于西方表達者的氣憤表情而言, 靜態(tài)表情的識別準(zhǔn)確率(M = 0.49, SD = 0.18)顯著大于動態(tài)表情(M = 0.42, SD = 0.17), t(279) = 3.11, p = 0.002, Cohens d = 0.37, 95% CI = [0.14, 0.61]。

補充材料3:剔除表情識別正確率過低的被試后的群內(nèi)優(yōu)勢效應(yīng)分析

在實驗1中, 我們剔除了表情識別正確率低于平均值減去2.5倍標(biāo)準(zhǔn)差(M ? 2.5 SD)的被試, 剩余249名被試進行了分析。我們同樣對群內(nèi)優(yōu)勢效應(yīng)進行了2 (表情種類:氣憤、厭惡) × 2 (表情自發(fā)性:表演、自發(fā)) × 2 (感知者文化:東方、西方)三因素混合設(shè)計方差分析。結(jié)果顯示剔除被試前后的分析結(jié)果相似(見附表5)。

在實驗2中, 我們同樣剔除了表情識別正確率低于平均值減去2.5倍標(biāo)準(zhǔn)差(M ? 2.5 SD)的被試, 剩余277名被試納入了分析。我們對群內(nèi)優(yōu)勢效應(yīng)進行了2 (表情種類:氣憤、厭惡) × 2 (表情自發(fā)性:表演、自發(fā)) × 2 (感知者文化:東方、西方)三因素混合設(shè)計方差分析。結(jié)果顯示剔除被試前后的分析結(jié)果相似(見附表6)。

猜你喜歡
文化差異
文化差異對大學(xué)英語教學(xué)的影響
國際商務(wù)談判中文化差異帶來的影響和解決方案
漢語與英語語言文化的差異在英語教學(xué)中的體現(xiàn)
科技資訊(2016年18期)2016-11-15 07:50:57
從中日民間故事窺探中日文化差異
人間(2016年27期)2016-11-11 17:14:41
對外漢語聽力教學(xué)初探
考試周刊(2016年84期)2016-11-11 00:10:54
中美合資企業(yè)的跨文化管理研究
文化差異對初入國際市場的法國中小企業(yè)影響分析
中國市場(2016年33期)2016-10-18 14:09:48
從《楚漢驕雄》和《勇敢的心》看中西悲劇英雄形象異同
淺析中西方文化差異對英語翻譯的影響
科技視界(2016年20期)2016-09-29 11:17:26
對外漢語教材出版的文化差異沖突與融通策略
出版廣角(2016年4期)2016-04-20 01:26:28
余干县| 文山县| 西宁市| 都匀市| 彭泽县| 同心县| 佛坪县| 大冶市| 前郭尔| 胶州市| 岳池县| 无极县| 辽宁省| 射阳县| 景德镇市| 平乐县| 台北县| 若羌县| 自贡市| 汶上县| 秦皇岛市| 敖汉旗| 盈江县| 枣庄市| 城市| 皮山县| 湟源县| 平度市| 宜良县| 林口县| 广州市| 武乡县| 南召县| 台江县| 沙河市| 青岛市| 济阳县| 梧州市| 云梦县| 株洲县| 连云港市|