亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于視覺情境范式的口語詞匯理解研究進展

        2018-11-26 11:37:20林桐王娟
        心理技術與應用 2018年9期

        林桐 王娟

        摘要視覺情境范式是主要用于研究口語理解的眼動范式,它將視覺情境與聽覺刺激跨通道結(jié)合,使實驗環(huán)境更為自然。研究發(fā)現(xiàn),在口語詞匯理解中,詞匯的音、義、形信息能得到激活;兒童對語音的激活水平已接近成人,對語義的激活水平仍與成人存在差距;雙語者能否激活跨語言競爭詞仍存在爭議;視覺材料、聽覺環(huán)境和預示時長會影響該范式下的口語詞匯理解過程。未來應加大對漢語被試和特殊被試的研究,并豐富該范式的視覺情境與聽覺環(huán)境。

        關鍵詞視覺情境范式;口語理解;詞匯識別

        分類號B842.5

        DOI: 10.16842/j.cnki.issn2095-5588.2018.09.007視覺情境范式(visual world paradigm)是用于研究口語理解的一種眼動范式,由Cooper (1974)最早提出,在其研究中,要求被試在加工聽覺短故事的同時注視一些物體,其中部分物體會被短故事提及。結(jié)果發(fā)現(xiàn),被試的部分眼動指標與聽覺內(nèi)容在時間上緊密相聯(lián)。單詞出現(xiàn)后,被試會在200ms內(nèi)將超過90%的注視投向單詞所指物體。Tanenhaus等進一步發(fā)展了該范式,將其用于研究口語理解中的視覺情境與語言信息的整合過程(Tanenhaus, Spivey-Knowlton, Eberhard, & Sedivy, 1995)。目前,視覺情境范式被廣泛用于口語理解的研究,包括詞匯理解和句法理解。該范式為口語理解的研究提供了視聽結(jié)合的途徑,具有重要價值。聽覺詞匯識別是聽覺言語交流的前提和基礎,只有正確通達了詞匯語義,才能進一步完成聽覺句子和篇章的理解(鄒麗娟, 2015)。因此,本文主要圍繞該范式在口語詞匯理解領域的研究展開討論。

        1視覺情境范式的研究機制

        對該范式的每個試次,被試在注視視覺情境的同時,需要加工一段聽覺語句,相應的,他們的眼動數(shù)據(jù)被記錄。這一范式假設,眼動能很好地反映語言理解狀態(tài),被試對所呈現(xiàn)物體的眼睛注視和聽覺刺激中目標詞的激活狀態(tài)在注視時間上相對應。若某一詞語被激活,則被試對所呈現(xiàn)的、與該詞語相對應的物體的注視要多于對其他物體的注視(邱麗景, 王穗蘋, 關心, 2009)。

        在口語句法理解領域,該范式多使用半現(xiàn)實場景的圖片作為視覺材料,采用描述該場景的語句作為聽覺材料(Altmann & Kamidez, 1999)。也有類似研究以真實物體作為視覺材料,這些物體被放置于格子狀的工作架上,通過聽覺語句要求被試對物體進行操作(Thothathiri & Snedeker, 2008)。對于口語詞匯理解,一些研究則以顯示器呈現(xiàn)的四幅圖片(通常包含聽覺目標詞、競爭詞和無關詞三類備選圖片)作為視覺情境,通過耳機播放聽覺刺激,要求被試注視圖片或?qū)D片進行選擇(Huettig & Altmann, 2011; Wang, Wang, & Malins, 2017)。近些年,使用文字作為視覺材料的研究也逐漸增多(Shen, Qu, & Li, 2016; Shen, Qu, & Tong, 2018),其優(yōu)點在于文字版本的視覺刺激可以是任何詞(如抽象名詞),而不僅限于指代具體形象的名詞。少量研究在視覺情境中未呈現(xiàn)聽覺目標詞,進而增強競爭詞的競爭效應(Huettig & Altmann, 2005)。

        2視覺情境范式在不同被試口語詞匯理解中的應用以往,研究者通過視覺情境范式對口語詞匯理解的研究,大多聚焦于正常成人加工口語詞匯時,能否激活其中的語音信息、語義信息和視覺信息。近些年,雙語者和兒童的口語詞匯理解持續(xù)受到關注。

        心理技術與應用6卷

        9期林桐王娟: 基于視覺情境范式的口語詞匯理解研究進展

        21視覺情境范式在正常成人口語詞匯理解中的應用早期視覺情境范式的研究,大多以正常成人為被試,探討口語詞匯理解過程中音、義、形信息的激活情況。研究顯示,人們在通達聽覺詞匯時,能激活其中的語音信息,包括詞首和詞尾的語音信息,且詞首語音信息獲得激活的時間更早、程度更強(Allopenna, Magnuson, & Tanenhaus, 1998; McQueen & Viebahn, 2007)。此外,語義信息也會被激活。例如,被試在加工聽覺目標詞(如“鋼琴”)時,其表征被快速激活。與此同時,與目標詞語義相關的表征(如“小號”)也得到了激活(Huettig & Altmann, 2005)。類似研究還發(fā)現(xiàn),被試能在識別聽覺詞匯時,激活該詞所指代的具體形象的形狀(Dahan & Tanenhaus, 2004; Rommers, Meyer, Praamstra, & Huettig, 2013)與顏色(Huettig & Altmann, 2011)。

        綜上可知,人們在理解口語詞匯時能自動激活相關的語音、語義和視覺信息,但仍存在尚未解決的問題。例如,這些信息是被平行地激活,還是存在先后順序?另一方面,視覺情境是否會對口語詞匯造成預激活?若是,影響程度有多大?

        22視覺情境范式在雙語者口語詞匯理解中的應用雙語者口語詞匯理解研究領域的重點在于,單一語言目標詞呈現(xiàn)時,其跨語言語音競爭詞是否同時獲得了激活。研究者通過在視覺情境中直接呈現(xiàn)跨語言語音競爭詞,或呈現(xiàn)跨語言競爭詞的翻譯對等詞來考察被試的語言激活情況。例如,通過呈現(xiàn)“mustache”(對應西班牙文為“bigote”)來考察被試在加工英語聽覺詞“beans”時,能否激活西班牙語詞“bigote”(Canseco-Gonzalez,Brehm, Brick, Brown-Schmidt, Fisher, & Wagner, 2010)。對俄-英雙語被試(Spivey & Marian, 1999)、英語-西班牙語被試(Canseco-Gonzalez, Brehm, Brick, Brown-Schmidt, Fisher, & Wagner,2010)以及荷蘭語-英語被試(Lagrou, Hartsuiker, & Duyck, 2013)的研究發(fā)現(xiàn),雙語者無法在單一語言環(huán)境下抑制另一種語言的激活。此外,雙語者對跨語言競爭詞的激活能力并不局限于非聲調(diào)語言和發(fā)聲語言。漢-英雙語者能同時激活相應漢語詞匯的音段信息和聲調(diào)信息(Wang,Wang, & Malins, 2017);英語-手語雙語者能激活與聽覺目標詞手語相似的詞(Giezen, Blumenfeld, Shook, Marian, & Emmorey, 2015)。

        然而,有少量研究者持相反觀點。他們發(fā)現(xiàn),聽荷蘭語語句時,荷蘭語-英語雙語者無法激活與荷蘭語目標詞語音相似的英語單詞(Weber & Cutler, 2004);類似地,日-英雙語者在加工高預測性英語口語語句時(即被試能根據(jù)句子信息在目標詞出現(xiàn)前成功預測),也無法根據(jù)句子信息激活目標詞的語音細節(jié)和對應日語詞匯的語音(Ito, Pickering, & Corley, 2018)。

        上述研究關于雙語者能否激活跨語言競爭詞的結(jié)論存在差異,這可能與被試選取和實驗安排有關。不同實驗采用的被試對非母語語言的熟悉程度可能存在差異。另外,實驗的語言環(huán)境也可能影響語言激活。Ito等人(2018)在實驗中給被試呈現(xiàn)英語語句,實驗前對圖片名字的學習也是通過英語來完成。這樣的環(huán)境下,被試可能難以激活母語。但也有研究發(fā)現(xiàn),相比于先接受英語語境,英-法雙語者先接受法語語境再進行英語的視覺情境范式任務時,被試對法語競爭詞的激活程度更?。∕ercier, Pivneva, & Titone, 2016)。再者,語言習得年齡、目標詞與競爭詞語音相似的程度以及不同語言間的差異也會影響實驗結(jié)果。因此,推廣該領域的研究結(jié)果時要保持謹慎。

        23視覺情境范式對兒童口語詞匯理解的研究以往的實驗大多針對正常成人展開,近幾年一些研究者開始關注兒童的口語詞匯理解。一些研究證明,兒童對聽覺詞匯語音信息的激活能力已接近成人。24個月、30個月的幼兒能迅速激活聽覺目標詞的語音,且快于對語義的激活(Chow, Davies, & Plunkett, 2017);在漢語中,4歲幼兒可以激活目標詞的音段信息和超音段信息,包括聲母、韻母和聲調(diào)(李爽, 2016; 王丹丹, 2016)。但對于聽覺詞匯語義的理解,兒童還與成人存在一定差距,主要表現(xiàn)在部分深層次的語義上。例如,6歲兒童在通達聽覺詞匯“鋸子”時,能夠理解“斧子”和“木頭”與之語義相關,而無法意識到“小刀”也與“鋸子”存在語義的關聯(lián)(Pluciennicka, Coello, & Kalénine, 2016)。

        該范式對兒童被試的研究初步揭示了兒童的口語詞匯加工過程。在語音方面,兒童能運用音段與超音段信息來識別聽覺詞匯,與成人無顯著差異;在語義方面,兒童能理解聽覺目標詞的基本語義,而對某些深層詞義和抽象意義的理解,仍與成人存在差距。學前兒童獲得詞義的過程比獲得語音、語法的過程緩慢(趙寄石, 樓必生, 2003),并且他們思維能力的發(fā)展還不夠完善,其對不同類型詞義的口語理解還需繼續(xù)探討。

        3視覺情境范式的實驗材料對口語詞匯理解的影響31視覺材料呈現(xiàn)類型的影響

        研究表明,視覺情境范式中視覺材料的呈現(xiàn)類型不同,則其結(jié)果也將存在差異。呈現(xiàn)文字時,被試對語音競爭詞的注視較多;而呈現(xiàn)圖片時,被試對語義競爭詞和形狀競爭詞的注視較多(Huettig & McQueen, 2007)。此外,文字材料還適于考察語音細節(jié)(Reinisch, Jesse, & McQueen, 2010)和字形(Salverda & Tanenhaus, 2010)的激活情況。這些研究初步揭示了呈現(xiàn)兩種材料的差異:圖片版本對語義、視覺信息更敏感,而文字版本更適合研究語音與字形。

        然而,上述結(jié)論基于對西方拼音文字的研究。Shen,Qu和Li (2016)對漢語被試的研究發(fā)現(xiàn),文字材料能同時引起語義和語音的激活,且對語義的激活程度強于語音。另外,該研究沒有發(fā)現(xiàn)字形被激活的證據(jù)。與Shen等人(2016)發(fā)現(xiàn)的微弱語音競爭效應不同,有研究表明漢語語音競爭效應在文字版本的視覺情境范式中是穩(wěn)固的(Shen, Qu, & Tong, 2018),且文字材料對漢語的語音細節(jié)極為敏感(Shen, Deutsch, & Rayner, 2013)。

        綜上所述,呈現(xiàn)圖片或文字在西方拼音文字和漢語中造成的研究差異是不同的。拼音文字中,文字與語音的聯(lián)系較強;而漢語中,文字與語音及語義都存在關聯(lián)。因此,文字材料能夠考察漢語語義的激活情況。值得一提的是,在拼音文字中,單詞的語音與字形無法完全分離,只能借助字形的相似程度來探討其激活情況。例如,Salverda和Tanenhaus (2010)通過操控兩個競爭詞 (如“bear”和“bare”)的語音與目標詞(如“bean”)相似程度一致,而字形相似程度不同,從而展開研究。漢語中存在大量同音字和多音字,能夠做到形和音完全分離。故而,可以采用漢字對口語詞匯理解中的字形激活情況進行后續(xù)研究。

        32聽覺環(huán)境的影響

        現(xiàn)實生活中,人們面臨著各式各樣的聽覺環(huán)境,而不僅是實驗條件下的安靜環(huán)境。一些研究顯示,聽覺環(huán)境的改變會影響被試的口語詞匯理解。當聽覺語句的部分音素被替換為噪音時,被試對首音相似詞的注視減少了,而對尾音相似詞的注視更早、更多了,但對前者的注視時長仍多于后者(McQueen & Huettig, 2012)。這與植入人工耳蝸的語前聾被試的口語詞匯識別模式類似(McMurray, Farris-Trimble, & Rigler, 2017)。該模式可能是一種加工策略,當我們無法確定聽覺詞匯時,傾向于降低識別速度從而做出正確選擇。因此,尾音信息此時顯得更為重要。此外,實際生活中有時存在不止一種聲音來源。當目標聲源和無關聲源并存時,被試無法完全忽略無關聽覺內(nèi)容,而會同時加工目標內(nèi)容與無關內(nèi)容(Brouwer & Bradlow, 2016)。

        上述研究探討了人們在噪音環(huán)境和雙聲源環(huán)境下的聽覺詞匯識別模式,有利于揭示更接近于現(xiàn)實情境的口語理解過程。

        33預示時長的影響

        在不少研究中,視覺情境范式的視覺情境與聽覺刺激中的目標詞同時呈現(xiàn);或者,視覺情境在聽覺目標詞之前呈現(xiàn),這讓被試有短暫的時間來熟悉圖片或文字。視覺材料的預示時長會影響被試的口語加工進程?;谄匆粑淖值难芯匡@示,當視覺情境與目標詞同時呈現(xiàn)時,聽覺目標詞的語音信息獲得了激活,并且比語義、形狀信息被激活得更早;但當預示時長為200ms時,語音信息不再被激活(Huettig & McQueen, 2007)。在漢語中,長預示條件下,被試對聽覺目標詞的語義和語音信息激活水平較高;而短預示條件下,被試只激活了目標詞的語義信息(Shen,Qu, & Li, 2016)。

        由此可見,視覺情境的預示時長會影響被試的聽覺詞匯理解,且在漢語與拼音文字中影響不同。目前對此展開的實驗較少,尚無統(tǒng)一的結(jié)論。

        4視覺情境范式的優(yōu)勢與局限

        41優(yōu)勢

        由于獨特的實驗設置,視覺情境范式成為研究口語理解的有效工具。首先,該范式將視覺刺激與聽覺刺激相結(jié)合,使被試面對的實驗環(huán)境生態(tài)程度較高。其次,該范式對被試的知識背景、理解能力、操作能力要求較低,因而適合一些特殊被試。再次,視覺情境范式運用眼動追蹤技術,實時測量被試對口語的理解進程,為我們了解口語理解的時間進程和加工機制提供了依據(jù)。最后,語言、視覺信息、記憶和注意等認知加工過程通常被獨立地研究,但一般來說,它們需要協(xié)同工作。視覺情境范式可以將這些認知加工過程整合起來考慮。

        42局限

        雖然視覺情境范式被越來越多的研究者所青睞,但仍存在不足之處。該范式最明顯的局限性在于實驗的視覺情境是有限的。實驗中,有限的備選圖片會影響被試的詞匯加工。被試聽到相應口語時,激活的信息可能不止是視覺情境所呈現(xiàn)的。由于實驗情境與現(xiàn)實情境的差異,我們不能確定實驗中的理解過程與實際情況是否完全一致。

        另外,由于視覺情境與聽覺刺激的結(jié)合,實驗結(jié)果可能不只是口語理解的結(jié)果,而同時還受到視覺情境的影響。有證據(jù)表明,預先呈現(xiàn)的視覺情境可能會使被試的口語識別速度偏快(Henderson & Ferreira, 2004; Huettig & McQueen, 2007)。

        5研究展望

        51加強對漢語口語詞匯理解的研究

        拼音文字音-形結(jié)合緊密的特點決定了其無法純粹地分離語音和字形因素(鄒麗娟, 2015),因此無法將其音和形完全分離開進行探究。而漢字是與意義匹配,而非與聲音匹配,不存在一致的字形-語音的對應關系。但是,漢字的亞詞匯單元卻既可以表音,也可以表義(張積家, 王娟, 印叢, 2014),通過同音字和多音字做到音和形的完全分離。同時,不同讀音的漢字之間也可能享有相同的部件。這些特點為研究漢字字形在口語詞匯理解中的激活情況提供了道路。未來需加強對漢語口語詞匯理解的研究。例如,Shen等人(2016)通過視覺情境范式并未發(fā)現(xiàn)字形被激活的證據(jù)。這與已有研究結(jié)果(陳栩茜, 李昀恒, 張積家, 2014; 鄒麗娟, 2015)不一致,未來還需進一步驗證。

        52加強對特殊被試口語詞匯理解的研究

        近幾年,已有不少研究者關注到特殊被試的口語詞匯理解,如兒童、聽力障礙者和手語者。也有研究將視覺情境范式用于孤獨癥兒童和特定言語功能損傷兒童的句法理解(Andreu, Sanz-Torrent, & Rodríguez-Ferreiro, 2016; Brady, Anderson, Hahn, Obermeier, & Kapa, 2014)。未來應運用該范式更深層次地揭露特殊群體的口語詞匯理解過程,并擴大研究對象,如閱讀障礙兒童和言語功能腦區(qū)受損的病人等。

        53繼續(xù)改進視覺情境范式的實驗材料

        邱麗景等人(2009)認為,若能參考場景知覺、視覺注意等相關領域研究的新進展,使視覺情境的設置更接近真實情境,該范式將獲得更大的生命力,口語理解的研究將取得更大的突破。已有研究者對視覺情境的背景進行考察(Yu & Tsai, 2016),但目前絕大部分研究中的視覺情境仍停留在早期階段,與現(xiàn)實情境存在較大差異。未來在該范式的視覺情境和聽覺環(huán)境上應有所改進,進一步提高生態(tài)程度。例如,提高視覺背景和圖片的復雜性,在聽覺刺激中加入情緒信息等。最后,預示時長如何影響口語理解也需進一步探討。

        54小結(jié)

        視覺情境范式將視覺情境和相關的聽覺刺激進行跨通道結(jié)合,讓被試在相對自然的實驗環(huán)境下進行反應。它有著操作簡易、對被試要求較低和對時間敏感等諸多優(yōu)點,近些年受到研究者的廣泛認可和使用。同時,該范式有多個版本,可用于研究口語詞匯理解、句法加工以及口語產(chǎn)生等心理過程??偠灾?,視覺情境范式是研究口語行之有效的工具。今后需要繼續(xù)關注特殊被試的口語理解過程,并對不同實驗環(huán)境展開研究。

        參考文獻

        陳栩茜, 李昀恒, 張積家 (2014). 漢語雙字聽覺詞高頻首字通達中的字形激活. 華南師范大學學報(社會科學版) ,(3) 74-83.

        李爽 (2016). 音段和超音段信息對4歲幼兒漢語口語詞匯識別的影響. 碩士學位論文. 遼寧師范大學.

        邱麗景, 王穗蘋, 關心 (2009). 口語理解的視覺—情境范式研究. 華南師范大學學報(社會科學版),(1), 130-136.

        王丹丹 (2016). 4歲幼兒漢語口語識別中音段信息和超音段信息作用的眼動研究. 碩士學位論文. 遼寧師范大學.

        趙寄石, 樓必生 (2003). 學前兒童語言教育. 北京: 人民教育出版社.

        張積家, 王娟, 印叢 (2014). 聲符和義符在形聲字語音、語義提取中的作用——來自部件知覺眼動研究的證據(jù). 心理學報, 46(7), 885-900.

        鄒麗娟 (2015). 聽覺詞匯識別中字形激活的認知及神經(jīng)機制. 心理科學, 38(6), 1353-1358.

        Allopenna, P. D., Magnuson, J. S., & Tanenhaus, M. K. (1998). Tracking the time course of spoken word recognition using eye movement: Evidence for continuous mapping models. Journal of Memory and Language, 38(4), 419-439.

        Altmann, G. T., & Kamide, Y. (1999). Incremental interpretation at verbs: restricting the domain of subsequent reference. Cognition, 73(3), 247-264.

        Andreu, L., Sanz-Torrent, M., & RodrGuez-Ferreiro, J. (2016). Do children with SLI use verbs to predict arguments and adjuncts: evidence from eye movements during listening. Frontiers in Psychology, 6(1917), 1917.

        Brady, N. C., Anderson, C. J., Hahn, L. J., Obermeier, S. M., & Kapa, L. L. (2014). Eye tracking as a measure of receptive vocabulary in children with autism spectrum disorders. Augmentative and Alternative Communication, 30(2), 147-159.

        Brouwer, S., & Bradlow, A. R. (2016). The temporal dynamics of spoken word recognition in adverse listening conditions. Journal of Psycholinguistic Research, 45(5), 1151-1160.

        Canseco-Gonzalez, E., Brehm, L., Brick, C., Brown-Schmidt, S., Fisher, K., & Wagner, K. (2010). Carpet or Cárcel: The effect of age of acquisition and language mode on bilingual lexical access. Language and Cognitive Processes, 25(5), 669-705.

        Chow, J., Davies, A. A., & Plunkett, K. (2017). Spoken-word recognition in 2-year-olds: the tug of war between phonological and semantic activation. Journal of Memory and Language, 93, 104-134.

        Cooper, R. M. (1974). The control of eye fixation by the meaning of spoken language: a new methodology for the real-time investigation of speech perception, memory, and language processing. Cognitive Psychology, 6(1), 84-107.

        Dahan, D., & Tanenhaus, M. K. (2004). Continuous mapping from sound to meaning in spoken-language comprehension: immediate effects of verb-based thematic constraints. Journal of Experimental Psychology: Learning, Memory, and Cognition, 30(2), 498-513.

        Giezen, M. R., Blumenfeld, H. K., Shook, A., Marian, V., & Emmorey, K. (2015). Parallel language activation and inhibitory control in bimodal bilinguals. Cognition, 141, 9-25.

        Henderson, J. M., & Ferreira, F. (2004). Scene perception for psycholinguists. In J. M. Henderson & F. Ferreira (Eds.), The Interface of Language, Vision, and Action (pp. 1-58). Hove: Psychology Press.

        Huettig, F., & Altmann, G. T. M. (2005). Word meaning and the control of eye fixation: semantic competitor effects and the visual world paradigm. Cognition, 96(1), B23-B32.

        Huettig, F., & Altmann, G. T. M. (2011). Looking at anything that is green when hearing ‘frog -How object surface colour and stored object colour knowledge influence language-mediated overt attention, Quarterly Journal of Experimental Psychology, 64(1), 122-145.

        Huettig, F., & McQueen, J. M. (2007). The tug of war between phonological, semantic, and shape information in language-mediated visual search. Journal of Memory and Language, 57(4), 460-482.

        Ito, A., Pickering, M., & Corley, M. (2018). Investigating the time-course of phonological prediction in native and non-native speakers of English: A visual world eye-tracking study. Journal of Memory and Language, 98, 1-11.

        Lagrou, E., Hartsuiker, R. J., & Duyck, W. (2013). Interlingual lexical competition in a spoken sentence context: evidence from the visual world paradigm. Psychonomic Bulletin and Review, 20(5), 963-972.

        Mcmurray, B., Farris-Trimble, A., & Rigler, H. (2017). Waiting for lexical access: cochlear implants or severely degraded input lead listeners to process speech less incrementally. Cognition, 169, 147-164.

        McQueen, J. M., & Huettig, F. (2012). Changing only the probability that spoken words will be distorted changes how they are recognized. Journal of the Acoustical Society of America, 131(1), 509-517.

        McQueen, J. M., & Viebahn, M. C. (2007). Tracking recognition of spoken words by tracking looks to printed words. Quarterly Journal of Experimental Psychology, 60(5), 661-671.

        Mercier, J., Pivneva, I., & Titone, D. (2016). The role of prior language context on bilingual spoken word processing: evidence from the visual world task. Bilingualism: Language and Cognition, 19(2), 376-399.

        Pluciennicka, E., Coello, Y., & Kalénine, S. (2016). Development of implicit processing of thematic and functional similarity relations during manipulable artifact object identification: evidence from eye-tracking in the visual world paradigm. Cognitive Development, 38, 75-88.

        Reinisch, E., Jesse, A., & Mcqueen, J. M. (2010). Early use of phonetic information in spoken word recognition: lexical stress drives eye movements immediately. Quarterly Journal of Experimental Psychology, 63(4), 772-783.

        Rommers, J., Meyer, A. S., Praamstra, P., & Huettig, F. (2013). The contents of predictions in sentence comprehension: activation of the shape of objects before they are referred to. Neuropsychologia, 51(3), 437-447.

        Salverda, A. P., & Tanenhaus, M. K. (2010). Tracking the time course of orthographic information in spoken-word recognition. Journal of Experimental Psychology Learning Memory and Cognition, 36(5), 1108-1117.

        Shen, J., Deutsch, D., & Rayner, K. (2013). On-line perception of mandarin tones 2 and 3: evidence from eye movements. Journal of the Acoustical Society of America, 133(5), 3016-3029.

        Shen, W., Qu, Q., & Li, X. (2016). Semantic information mediates visual attention during spoken word recognition in Chinese: evidence from the printed-word version of the visual-world paradigm. Attention Perception and Psychophysics, 78(5), 1-18.

        Shen, W., Qu, Q., & Tong, X. (2018). Visual attention shift to printed words during spoken word recognition in Chinese: the role of phonological information. Memory & Cognition, 46(4), 642-654.

        Spivey, M. J., & Marian, V. (1999). Cross talk between native and second languages: partial activation of an irrelevant lexicon. Psychological Science, 10(3), 281-284.

        Tanenhaus, M. K., Spivey-Knowlton, M. J., Eberhard, K. M., & Sedivy, J. C. (1995). Integration of visual and linguistic information in spoken language comprehension. Science, 268(5217), 1632-1634.

        Thothathiri, M. & Snedeker, J. (2008). Give and take: syntactic priming during spoken language comprehension. Cognition, 108(1), 51-68.

        Wang, X., Wang, J., & Malins, J. G. (2017). Do you hear ‘feather when listening to ‘rain? Lexical tone activation during unconscious translation: evidence from Mandarin-English Bilinguals. Cognition, 169(12), 15-24.

        Weber, A., & Cutler, A. (2004). Lexical competition in non-native spoken-word recognition. Journal of Memory and Language, 50(1), 1-25.

        Yu, W. Y., & Tsai, J. L. (2016). Modulation of scene consistency and task demand on language-driven eye movements for audio-visual integration. Acta Psychologica, 171, 1-16.

        国产精品毛片一区二区三区| aa视频在线观看播放免费 | 在线观看二区视频网站二区| 精品无码av无码专区| 国产麻豆md传媒视频| 亚洲精品中国国产嫩草影院美女| 一本大道综合久久丝袜精品| 亚洲五月七月丁香缴情| 亚洲av无吗国产精品| 无码国产精品一区二区av| 风流老熟女一区二区三区| 欧美精品一区二区性色a+v| 久久精品有码中文字幕1| 91精品国产综合久久久蜜| 久久久国产乱子伦精品作者 | 中国猛少妇色xxxxx| 日韩精品视频在线观看免费| 日本不卡不二三区在线看 | 久久精品久99精品免费| 亚洲国产精品无码专区| 国产人成精品免费视频| 在线看片免费人成视久网不卡 | 97日日碰曰曰摸日日澡| 国产午夜成人久久无码一区二区| 亚洲中文字幕人妻诱惑| 国产三a级三级日产三级野外| 西西人体444www大胆无码视频| 亚洲中文字幕在线爆乳| 中文字幕视频一区懂色| 韩国三级在线观看久| 九九热在线视频观看这里只有精品| 91情侣视频| 日本高清不卡二区三区| 草草地址线路①屁屁影院成人| 全免费a级毛片免费看网站| 在线视频中文字幕乱人伦| 女主播国产专区在线观看| 美女不带套日出白浆免费视频| 久久久久亚洲av无码尤物| 国模一区二区三区白浆| 亚洲一区二区三区激情在线观看|