張思 李紅慧 惠檸 郭桐羽 李秀晗 劉清堂
[摘 ? 要] 隨著計算機支持的協(xié)作學習在教育教學領(lǐng)域的深入應用,如何促進高質(zhì)量的協(xié)作互動備受關(guān)注。多模態(tài)視域下的群體感知蘊含著豐富多元的感知信息,有助于學習者充分感知協(xié)作群體/同伴的協(xié)作狀態(tài),能夠有效提升協(xié)作互動質(zhì)量。然而目前有關(guān)群體感知工具內(nèi)部機理和外部作用間關(guān)系的研究尚不明確?;诖?,從多模態(tài)視域出發(fā)重新審視群體感知的內(nèi)涵,系統(tǒng)回顧與分析國內(nèi)外有關(guān)群體感知的相關(guān)研究。研究發(fā)現(xiàn),群體感知工具通過采集多模態(tài)的學習者協(xié)作學習數(shù)據(jù),對數(shù)據(jù)進行處理,并以可視化方式呈現(xiàn)給學習者,以幫助學習者獲取對協(xié)作群體/同伴狀態(tài)的有意識理解,促使學習者調(diào)節(jié)內(nèi)部和外部的協(xié)作策略。在厘清群體感知工具內(nèi)部機理和外部作用間關(guān)系的基礎(chǔ)上,構(gòu)建了多模態(tài)視域下的群體感知實現(xiàn)框架,并指出多模態(tài)視域下的群體感知在多模態(tài)展示和感知監(jiān)控兩方面的實現(xiàn)路徑,以期為促進高質(zhì)量協(xié)作交互提供參考。
[關(guān)鍵詞] 群體感知; 多模態(tài); 內(nèi)涵; 實現(xiàn)路徑
[中圖分類號] G434 ? ? ? ? ? ?[文獻標志碼] A
[作者簡介] 張思(1983—),男,湖南長沙人。副教授,博士,主要從事計算機支持的協(xié)作學習、教師專業(yè)發(fā)展的信息化研究。E-mail: djzhangsi@mail.ccnu.edu.cn。
一、引 ? 言
計算機支持的協(xié)作學習 (Computer-supported Collaborative Learning, CSCL)是一種兼具有效性、高效性和愉悅性,并且具有相當大的發(fā)展前景的教育方法[1]。諸多研究也已證實CSCL所產(chǎn)生的積極效果,特別是在高質(zhì)量的協(xié)作互動中成效顯著[2],包括提升學習積極性[3],激活協(xié)作同伴間的知識[4],產(chǎn)生有意義協(xié)商和觀點論證[5]等。然而,高質(zhì)量的協(xié)作互動需要建立在群體及成員間的感知基礎(chǔ)上[6]。群體感知通過提供隱含的指導信息,調(diào)節(jié)群體或同伴的協(xié)作學習過程,推動高質(zhì)量的協(xié)作互動[7]。相較于傳統(tǒng)面對面學習,群體感知很難在計算機支持的協(xié)作學習中自發(fā)產(chǎn)生,時空阻隔等因素導致協(xié)作同伴間缺少對彼此信息的感知,同伴間的協(xié)作意愿、知識掌握程度、參與貢獻程度等都無法知曉[8] ,導致協(xié)作同伴間無法參與有效的社會互動和認知過程[9],影響協(xié)作學習的預期效果,因而凸顯了在技術(shù)上支持群體感知的必要性[10]。
隨著智能技術(shù)的發(fā)展,應用多模態(tài)數(shù)據(jù)捕獲、測量學生的學習行為逐漸成為趨勢,能有效幫助理解復雜的學習現(xiàn)象[11]。群體感知工具通過收集學習者在協(xié)作活動中有關(guān)行為、認知和社會各維度的多模態(tài)數(shù)據(jù),將其進行處理轉(zhuǎn)化,并以可視化方式將感知信息傳遞給群體/同伴[12],為學習者及時提供同伴間難以直接觀測到的協(xié)作信息,促進學習者調(diào)節(jié)協(xié)作學習行為,參與有效的協(xié)作學習過程[10]。群體感知工具不斷被證明對支持 CSCL具有重要價值。盡管目前有關(guān)群體感知的研究已取得了相當大的進展[1],但大多數(shù)研究圍繞群體感知工具的設計與成效開展,有關(guān)群體感知工具究竟是如何影響學習者,其內(nèi)部機理和外部作用間的關(guān)系研究尚不明確[12],尚未厘清二者之間所形成的關(guān)系[13],因而無法充分發(fā)揮多模態(tài)視域下的群體感知工具賦予協(xié)作學習的效能。因此,本研究從群體感知的內(nèi)涵出發(fā),系統(tǒng)回顧與分析國內(nèi)外有關(guān)群體感知的相關(guān)研究,探索CSCL中多模態(tài)群體感知工具如何發(fā)揮潛能,以期為促進高質(zhì)量協(xié)作交互提供參考。
二、多模態(tài)視域下群體感知的基本內(nèi)涵
(一)群體感知的基本內(nèi)涵
群體感知一詞最早出現(xiàn)在計算機支持的協(xié)同工作領(lǐng)域(Computer Supported Cooperative Work,CSCW),指同事間對彼此工作內(nèi)容和工作進程信息的了解和認識[14],它被視為能夠有效地促進協(xié)同工作順利推進的關(guān)鍵因素。近年來,群體感知在協(xié)作學習中受到越來越多的關(guān)注,特別是在CSCL環(huán)境中[15]。CSCL中普遍將群體感知描述為了解協(xié)作群體或同伴的各方面信息[14,16],例如,協(xié)作同伴當前所處的位置、參與的活動、知識水平、興趣偏好以及感受狀態(tài)等[12]。群體感知涵蓋了協(xié)作群體或協(xié)作同伴的行為、認知和社會三方面的信息[16-18],可將其分為行為感知、認知感知和社會感知三種類型,見表1。
表1 ? ? ? ?群體感知的分類、釋義及舉例
(二)多模態(tài)視域下群體感知的內(nèi)涵分析
隨著智能時代的來臨,大數(shù)據(jù)、人工智能等技術(shù)為多模態(tài)數(shù)據(jù)的收集提供了契機。多模態(tài)數(shù)據(jù)為幫助人們更好地理解教育中的復雜學習現(xiàn)象提供了良好的支持[18]。例如,教師可以借助學習管理系統(tǒng)上的日志數(shù)據(jù)了解學習者在線學習的行為情況,還可以借助眼動儀收集學習者的眼動數(shù)據(jù),以了解學習者的關(guān)注點、注意力等?!澳B(tài)”一詞被視為每種采集數(shù)據(jù)的方式,多模態(tài)數(shù)據(jù)是指采用兩種及兩種以上的方式獲取的相關(guān)數(shù)據(jù),如音視頻、文本、眼動、腦電等[19-20]。應用多模態(tài)數(shù)據(jù)進行學習分析彌補了傳統(tǒng)單一模態(tài)數(shù)據(jù)學習分析的不足,如僅能提供部分學習過程信息,數(shù)據(jù)分析結(jié)果存在片面性等[21]。多模態(tài)視域下的群體感知工具通過收集多種模態(tài)數(shù)據(jù)(文本、自我報告、學習行為記錄等),捕獲、測量學習者的學習行為,使用特定感知功能(行為、認知和社會)的數(shù)據(jù)分析方法將學習行為數(shù)據(jù)進行處理轉(zhuǎn)化,并以多種可視化方式(如條形圖、網(wǎng)絡圖等)呈現(xiàn)給學習者,為理解復雜的學習現(xiàn)象提供了更加全面、客觀的畫像,有助于生成更加精準的學習反饋,提升學生的學習效果[11,22,23]。多模態(tài)視域下的群體感知工具能提供更全面和客觀的信息,明確CSCL中存在的問題,進一步促進學習者感知彼此的信息,達成CSCL中高質(zhì)量的協(xié)作互動[24]。
三、多模態(tài)視域下群體感知的功能分析
(一)多模態(tài)視域下群體感知的數(shù)據(jù)類別
當前群體感知工具的數(shù)據(jù)源主要包括三類:文本、行為和心理,見表2。文本數(shù)據(jù)主要以學習者協(xié)同編輯或者自己獨立寫作的文本、平臺發(fā)帖/回帖為主。例如,馬秀麟等人通過收集學習者發(fā)貼/回帖文本的數(shù)據(jù),以呈現(xiàn)小組討論的焦點與關(guān)鍵信息,促進小組成員能夠及時了解整個小組的研討焦點、討論深度等進展情況[25]。以Strau?覻等人為代表的學者基于采集到的學習者在線協(xié)同編輯的文本數(shù)據(jù)和討論的會話文本數(shù)據(jù),獲取學習者在寫作過程中為小組論壇和 WIKI貢獻字數(shù),以此幫助學習者了解自己與同伴的協(xié)作參與情況[13]。此外,收集的行為數(shù)據(jù)主要是學生在線學習行為記錄。Lin等人借助在線學習平臺采集學習者的多項行為記錄(如評論次數(shù)、回帖次數(shù)、點贊次數(shù))以獲取學習者協(xié)作參與度,促進學習者及時調(diào)節(jié)自身學習行為,提升小組協(xié)作效率[26]。心理數(shù)據(jù)則主要以自我報告、同伴評價、知識測試為主。一方面以Phielix等人通過收集自我報告以及同伴互評的數(shù)據(jù)來幫助整個協(xié)作群體了解成員在協(xié)作過程中的社會和認知行為[27]。另一方面,以Sangin等人通過知識檢測評估學習者的知識掌握程度,促進成員對同伴知識的認識,以便建立起良好的協(xié)作對話[8]。
(二)多模態(tài)視域下群體感知的基本功能
基于已有學者對群體感知類別的劃分依據(jù)[16-18],目前群體感知工具包含三種功能:行為感知、認知感知和社會感知,見表3。
行為感知關(guān)注協(xié)作群體/同伴的參與情況,包含群體/同伴的貢獻度、參與度、專注度以及當前角色定位的參與行為的感知功能。Lin從行為感知功能出發(fā),開發(fā)一個行為群體感知工具,通過顯示每個成員的發(fā)表報告次數(shù)、評論次數(shù)、回復次數(shù)以及點贊次數(shù),以促進學生反思自己及小組成員的協(xié)作參與度[26]。認知感知關(guān)注協(xié)作群體/同伴當前的知識水平情況,包含對群體/同伴知識水平,知識概念間的結(jié)構(gòu)關(guān)系,知識激活度,觀點認可度、新穎性、貼題性,作品的貢獻質(zhì)量以及研討的焦點和關(guān)注信息認可度等的感知功能。如Sangin等學者從認知感知功能出發(fā),開發(fā)知識感知工具(Knowledge Awareness Tool,KAT),統(tǒng)計學習者先驗知識成績,并借助可視化方式為學習者展示小組不同成員在不同章節(jié)的知識掌握情況[8]。社會感知關(guān)注協(xié)作群體/同伴當前的交互狀態(tài),包含對群體/同伴的社會交互關(guān)系、親密關(guān)系、凝聚力程度、在線情況以及影響力、友好性、合作性、可靠性等的感知功能。如陳向東等學者基于社會網(wǎng)絡分析設計了多種社會感知工具,該工具不僅能夠強化小組成員的群體感知,而且能夠從交流、互動、協(xié)作角色、社會關(guān)系等多個維度實現(xiàn)對協(xié)作學習過程的評價與跟蹤[20]。
(三)多模態(tài)視域下群體感知的可視化
目前有關(guān)多模態(tài)數(shù)據(jù)的可視化有多種分類方式[28-30]?;诂F(xiàn)有的多模態(tài)群體感知的可視化功能,可分為統(tǒng)計可視化、文本可視化、關(guān)聯(lián)關(guān)系可視化和人機交互可視化[29],見表3。統(tǒng)計可視化是指將學習者行為數(shù)據(jù)的統(tǒng)計結(jié)果以幾何圖形或顏色、數(shù)量進行表征,例如,條形圖、顏色塊、數(shù)字呈現(xiàn)等,能夠直觀清楚呈現(xiàn)學習者與同伴間的差距,從而做出調(diào)節(jié)。文本可視化是指從收集的文本數(shù)據(jù)中提取關(guān)鍵信息并進行展示,例如,詞云圖、標簽圖等。關(guān)聯(lián)關(guān)系可視化是將數(shù)據(jù)之間的關(guān)系以層次結(jié)構(gòu)或網(wǎng)狀結(jié)構(gòu)進行表征,例如,社會網(wǎng)絡圖、概念圖等。人機交互可視化則通過人與機器的交互操作實現(xiàn)對信息的意義建構(gòu)。在群體感知功能對應的可視化方面,行為感知功能多使用統(tǒng)計可視化中的條形圖、雷達圖、餅圖等。例如,Strau?覻采用條形圖的方式將每個學生在論壇和Wiki中貢獻的單詞數(shù)顯示出來,以幫助學習者感知同伴對文章的貢獻情況,從而平衡同伴間的參與[13]。文本可視化常見于認知感知功能,此類工具多以列表,詞云圖、標簽的形式呈現(xiàn)。例如,李艷燕等人采用詞云圖的方式表征學習者研討時的焦點和關(guān)注點信息,以幫助協(xié)作群體/同伴及時感知當前討論的話題內(nèi)容[31]。關(guān)聯(lián)關(guān)系可視化多出現(xiàn)在認知和社會感知功能。此類工具將同伴間的認知狀態(tài)、社會交互情況通過網(wǎng)絡圖的方式進行呈現(xiàn)。例如,Engelmann通過將協(xié)作同伴繪制的概念圖呈現(xiàn)出來,幫助學習者了解同伴的知識以及各自的基礎(chǔ)信息,以此改善溝通,促進協(xié)調(diào),從而提高協(xié)作小組的績效。相對而言,人機交互可視化類型的群體感知工具較少[32]。Bodemer等人通過讓學習者移動數(shù)學代數(shù)組件的方式,幫助學習者比較自己與同伴的當前知識水平,以此構(gòu)建起協(xié)作話語并提升問題解決能力[33]。
四、多模態(tài)視域下群體感知的實現(xiàn)框架分析
當前有關(guān)群體感知的研究大多聚焦于群體感知工具的開發(fā)設計與成效檢驗,而不太重視有關(guān)群體感知工具內(nèi)部機理和外部作用間的關(guān)系[12],因而很大程度上限制了群體感知工具促進協(xié)作學習交互質(zhì)量提升的作用,無法充分發(fā)揮多模態(tài)視域下群體感知賦予協(xié)作學習的效能。基于對群體感知內(nèi)涵、功能及多模態(tài)群體感知工具的分析,結(jié)合認知心理學的信息加工理論和元認知學習理論的視角,構(gòu)建了多模態(tài)視域下群體感知的實現(xiàn)框架,如圖1所示。該框架以群體感知為核心,支持學習者應用多模態(tài)數(shù)據(jù)調(diào)節(jié)協(xié)作學習過程。多模態(tài)視域下的群體感知工具通過采集多種模態(tài)的學習者協(xié)作學習數(shù)據(jù),對數(shù)據(jù)進行處理,并以可視化方式呈現(xiàn)給學習者,以幫助學習者獲取對協(xié)作群體/同伴當前有意識的理解,促使學習者調(diào)節(jié)(控制、監(jiān)控)內(nèi)部和外部的感知策略。多模態(tài)視域下群體感知的實現(xiàn)框架以多模態(tài)展示為基礎(chǔ),以感知監(jiān)控為目標。
圖1 ? 多模態(tài)視域下群體感知的實現(xiàn)框架
(一)多模態(tài)展示
多模態(tài)群體感知工具通過收集、處理和可視化有關(guān)協(xié)作群體/同伴的信息,為學習者提供有關(guān)當前協(xié)作群體/同伴的協(xié)作狀態(tài)[12],促進學習調(diào)節(jié)。例如,Lin等人通過收集在線平臺上各成員的學習行為記錄,以表格和交互關(guān)系圖的形式顯示了每個組員的發(fā)表報告次數(shù)、評論次數(shù)、回復次數(shù)以及點贊次數(shù),以促進學習者反思自己及小組的協(xié)作參與度[34]。多模態(tài)群體感知工具處理信息的過程通常包含三步:數(shù)據(jù)收集、數(shù)據(jù)處理、數(shù)據(jù)可視化[23]。
數(shù)據(jù)收集階段是信息加工開始的標志。此階段利用多種智能設備捕獲、測量學習者的學習狀態(tài)(例如,使用計算機收集學習者在網(wǎng)絡學習平臺上的學習日志,判定學習者的參與情況)。結(jié)合學者對多模態(tài)數(shù)據(jù)的歸類[35-36],將數(shù)據(jù)類型劃分成四大類:文本數(shù)據(jù)、行為數(shù)據(jù)、心理數(shù)據(jù)和生理數(shù)據(jù)。文本數(shù)據(jù)主要借助社交聊天軟件、在線學習平臺提供的文本輸入輸出功能收集,如平臺發(fā)帖/回帖、會話文本、協(xié)作文檔等。行為數(shù)據(jù)主要借助在線學習平臺日志、在線會議錄屏等方式收集學習者外在可見行為數(shù)據(jù),如登錄行為,音、視頻播放記錄等。心理數(shù)據(jù)是與學習者心理活動相關(guān)的數(shù)據(jù),通常通過學習者主動填寫量表、問卷等方式獲取,如自我報告、知識測試。生理數(shù)據(jù)包含學習者生理特征相關(guān)的數(shù)據(jù),主要借助眼動儀、智能手環(huán)、腦電設備等獲取學習者眼動、皮電、腦電和心電等生理數(shù)據(jù)。數(shù)據(jù)處理階段是信息加工的關(guān)鍵,此階段進一步挖掘淺層數(shù)據(jù)信息,得出更加豐富、深層次的數(shù)據(jù)信息。根據(jù)群體感知功能的需要(認知感知、行為感知和社會感知),使用多種數(shù)據(jù)分析方法(例如,統(tǒng)計分析、文本分析、社會網(wǎng)絡分析等)對數(shù)據(jù)進行處理并做出解釋(例如,統(tǒng)計學習者在網(wǎng)絡學習平臺上的發(fā)帖次數(shù)以表征其貢獻情況)。數(shù)據(jù)可視化階段是信息加工的最后產(chǎn)出,是將輸入并進行處理的數(shù)據(jù)以圖、表等可視化方式呈現(xiàn)給學習者(例如,條形圖、雷達圖等)。
(二)群體感知監(jiān)控
信息加工理論強調(diào)學習的過程是信息加工的過程,在此過程中伴隨著記憶的變化[37-38]。學習者獲得多模態(tài)群體感知工具提供的可視化信息后,能夠促進其對當前協(xié)作群體/同伴信息的有意識理解。此時,群體感知形成于學習者內(nèi)部的工作記憶中,學習者通過監(jiān)控和控制來調(diào)節(jié)同伴建模及交互的認知過程[15]。由于感知信息的過程是一個動態(tài)變化的過程,需要學習者不斷地調(diào)節(jié)以形成和維持群體感知,因此,理解監(jiān)控和控制的調(diào)節(jié)方式在此過程中就顯得尤為重要。學習者在元認知水平的作用下(理解社會情境的監(jiān)控水平和控制水平),明確任務需求,確立認知目標(需要準確感知對方信息或者大體了解對方信息),以制定后續(xù)的行為策略(內(nèi)部提取同伴建模信息或者與外部交互)。學習者根據(jù)當前的群體感知狀態(tài)(監(jiān)控同伴模式、社會情境)與認知目標比較的結(jié)果,采取相應的控制策略來調(diào)節(jié)對群體的感知。學習者感知群體信息的過程采取的控制策略分為兩類:一類是面向?qū)W習者的內(nèi)部策略——同伴建模;另一類是面向外部環(huán)境的策略——交互。
面向?qū)W習者的內(nèi)部策略——同伴建模是指學習者針對協(xié)作群體/同伴,從長期記憶中提取與他們有關(guān)的認知信息,以此減緩當前協(xié)作沖突或降低協(xié)作過程中的不確定性信息。該策略可能包含對群體/同伴的已知信息,也可能包含他們對同伴的猜測信息,或者他們直接選擇忽略產(chǎn)生沖突的信息。例如,團隊成員協(xié)作時對某一知識點不理解,他們結(jié)合協(xié)作早期建立起對某同伴“具有良好的先驗知識”的印象,促使成員向該同伴發(fā)出求助。
面向外部環(huán)境的策略——交互是指學習者通過交流互動來獲取對協(xié)作群體/同伴的額外信息,以解決當前面臨的協(xié)作沖突或不確定性問題。該策略包含直接與同伴進行對話交流(例如,詢問)以及直接觀察(例如,訪問以往的聊天記錄)。例如,協(xié)作過程中,團隊成員遇到無法解決的問題時,他們直接詢問“是否有人理解該步驟如何操作”來獲得有效信息。
五、多模態(tài)視域下群體感知的典型應用案例
Strau?覻等人在一項基于Web在線協(xié)作學習環(huán)境開展的研究中證實了群體感知工具的效能,揭示群體感知工具對學習者平等參與和協(xié)作滿意度的積極影響[13],如圖2所示。
圖2 ? 多模態(tài)視域下群體感知的典型應用案例
研究人員為全體學習者提供在線協(xié)作環(huán)境,并在實驗過程中為學習者提供群體感知工具,幫助學習者充分感知同伴的信息,促進學習者的群體感知監(jiān)控。在這項研究中,研究人員收集多種模態(tài)數(shù)據(jù),包含論壇中學生的發(fā)帖/回帖、小組協(xié)同編輯的寫作文本數(shù)據(jù),以及學生在在線平臺的日志行為數(shù)據(jù)。為促進多模態(tài)群體感知的實現(xiàn),該研究首先明確群體感知的功能,然后針對行為感知功能和社會感知功能對數(shù)據(jù)進行處理,自動計算、匯總學習者為小組論壇和WIKI貢獻字數(shù)情況以及在線情況,并最終以統(tǒng)計可視化的方式(條形圖和對勾符號)呈現(xiàn)給學習者信息。同時,為了確保提供的可視化信息能夠有效降低學習者對群體感知工具的認知負荷,提升群體感知信息的可讀性,該研究提供了自適應提示,該提示能根據(jù)條形圖的分布情況呈現(xiàn)不同的提示語言,提示小組可進一步采取的具體行動,為小組成員感知監(jiān)控提供可行性支持。
該研究充分考慮了多模態(tài)群體感知工具與學習者群體感知內(nèi)在機理之間的關(guān)系,實現(xiàn)了多模態(tài)數(shù)據(jù)對群體感知的支持。明確群體感知功能,挖掘群體感知信息,降低學習者的認知負荷,提升了感知工具的可讀性,幫助學習者及時了解同伴的行為和社會狀態(tài),有助于采取及時的行動,為促進小組的社會共享調(diào)節(jié)和參與公平提供了良好的支持。
六、多模態(tài)視域下群體感知的實現(xiàn)路徑
目前有關(guān)群體感知的研究已經(jīng)取得了相當大的進展,群體感知工具的開發(fā)與應用也越來越受到關(guān)注[33]。為確保多模態(tài)視域下的群體感知能夠有效作用于協(xié)作學習過程,真正推動協(xié)作交互質(zhì)量走向更高水平,仍需要進一步識別多模態(tài)視域下的群體感知面臨的機遇與挑戰(zhàn),以便為未來研究與實踐尋找更好的實現(xiàn)路徑。多模態(tài)視域下的群體感知主要面臨多模態(tài)展示和感知監(jiān)控兩方面的機遇與挑戰(zhàn)。
(一)多模態(tài)展示
1. 豐富群體感知數(shù)據(jù)來源,增強模態(tài)間相互佐證
目前相關(guān)研究中群體感知工具的數(shù)據(jù)來源主要以文本(寫作文檔、發(fā)帖/回帖文本等)、行為(學習行為日志)和心理數(shù)據(jù)(自我報告、同伴評估、知識測試)為主,較少收集學習者相關(guān)的生理數(shù)據(jù)。已有大量的研究證實,了解學習者的生理數(shù)據(jù)有助于更加全面、深入地解釋學習者的學習特征[39]。如Emodash 平臺通過收集與分析學習者在學習過程中的面部表情數(shù)據(jù),幫助教師對學習者的協(xié)作狀態(tài)進行過程性評價,進而為學習者提供個性化指導[40]。少量研究通過分析學習者的生理數(shù)據(jù),探索了群體感知工具對學習者的影響。如Ollesch等人借助眼動儀收集學生的眼動數(shù)據(jù),以此深入了解群體感知工具對學習者的注意力的影響[10]。此外,當前盡管有研究也收集了多種模態(tài)數(shù)據(jù)以提供群體感知,但由于多模態(tài)數(shù)據(jù)融合需要有效的理論模型和計算模型支持以解讀模態(tài)間的特征含義[11],相關(guān)研究收集的各模態(tài)數(shù)據(jù)大多處于分離狀態(tài),各自呈現(xiàn)不同的數(shù)據(jù)信息,從而無法全面、準確、細致地揭示學習規(guī)律,并改進教學策略[39]。在未來研究與實踐中,研究者一方面需進一步豐富群體感知工具的數(shù)據(jù)來源,在關(guān)注學習者生理數(shù)據(jù)的同時,重點探尋其背后的教育意蘊;另一方面需要研究多種模態(tài)間數(shù)據(jù)融合的方法,充分挖掘多模態(tài)數(shù)據(jù)的優(yōu)勢,達成數(shù)據(jù)間良好的三角佐證關(guān)系。
2. 提升群體感知數(shù)據(jù)的挖掘深度,明確感知類別和功能界限
以往研究在數(shù)據(jù)收集過程中得到了大量數(shù)據(jù),但在后續(xù)數(shù)據(jù)處理、分析和可視化過程中往往只使用了其中一小部分,導致大量收集的數(shù)據(jù)未被充分利用。特別是學習者會話文本、協(xié)作文檔等文本數(shù)據(jù),其本身蘊含了相當多的信息,不能僅僅統(tǒng)計其字數(shù)、修改頻次等較為淺層的信息,而應當為學習者提供對文本內(nèi)容信息的感知,即通過對會話文本、協(xié)作文檔的內(nèi)容分析,讓學習者能夠感知到更多與協(xié)作群體/同伴思維變化相關(guān)的信息,這對協(xié)作質(zhì)量的提升能夠起到更加有效的作用。此外,當前研究中有關(guān)群體感知類別和功能的界定較為模糊,如有學者將學習者協(xié)作文檔的字數(shù)統(tǒng)計作為認知感知,而另一些學者則歸為行為感知。因此,如何提升感知數(shù)據(jù)的挖掘深度,厘清群體感知工具的感知類別和功能,進而提供更多科學有效的感知信息,在未來研究中仍需進一步規(guī)范。
3. 拓展群體感知的可視化方式
當前群體感知數(shù)據(jù)的可視化多是統(tǒng)計可視化(例如,雷達圖、條形圖等)。盡管統(tǒng)計可視化可以給學習者直觀的感知體驗,但可視化的信息量相對較少,其很難呈現(xiàn)有關(guān)學習者協(xié)作過程的信息,因而影響了學習者對同伴信息的充分感知,進而會影響協(xié)作交互的質(zhì)量。諸如協(xié)作過程中不同學習者的知識水平差異從何而來,思維邏輯、行為狀態(tài)、社會關(guān)系是如何發(fā)生變化的,這些過程性信息無法直接從統(tǒng)計可視化中得知。與此同時,人機交互可視化方式也已被證實具有相當大的發(fā)展前景[30]。因此,未來研究仍需進一步拓展群體感知可視化的方式。例如,為學習者提供協(xié)作過程不同階段參與話題討論的網(wǎng)絡圖,或提供協(xié)作文檔顯示不同學習者的修改內(nèi)容和批注,讓學習者能夠感知到自己與同伴在協(xié)作過程中行為、認知和社會關(guān)系的變化,從而獲取更多感知信息而促進協(xié)作。
(二)感知監(jiān)控
1. 降低群體感知工具的認知負荷,提升群體感知信息的可讀性
群體感知工具旨在為學習者提供同伴間難以直接觀測到的信息,促進學習者參與有效的協(xié)作學習過程,調(diào)節(jié)他們的協(xié)作學習行為[10]。因此,學習者從群體感知工具中是否獲取到信息并理解就顯得尤為重要。由于群體感知工具可視化呈現(xiàn)信息的方式不一(有些是直接嵌入學習平臺,可直接觀看,而另一些則需要登錄其他平臺查看信息),以及信息的可讀性存在較大差異(相比進度條而言,詞云圖較難解讀),由此可能會對學習者的感知理解造成不同程度的影響。群體感知工具的有效性與學習者對工具的適應程度密切相關(guān)[37]。盡管目前大多數(shù)研究都證實了群體感知工具對學習者的協(xié)作學習有益,但是學習者是否充分獲取到群體感知工具所提供的信息還有待進一步探究。研究人員通過訪談發(fā)現(xiàn)部分學習者認為當前的群體感知工具提供的信息存在難以理解、無法解讀的問題[20] 。未來群體感知工具的設計需要充分考慮其給學習者帶來的認知負荷,減少學習者對同伴間協(xié)作狀態(tài)感知的心理努力的同時,能夠更加有效地協(xié)調(diào)小組協(xié)作互動的過程,是仍需要進一步探究的課題。
2. 平衡學習者群體感知信息的共享性與隱私性
使用群體感知工具向?qū)W習者提供有關(guān)協(xié)作群體/同伴的信息,一方面通過提供豐富的感知資源,能幫助學習者更好地在跨時空環(huán)境下了解彼此當前所處狀態(tài),協(xié)調(diào)群體協(xié)作,維持良好的協(xié)作學習效果;另一方面則可能違背學習者的意愿,學習者可能不愿意將自己的學習信息提供給同伴。因此,在設計、開發(fā)與應用群體感知工具時,有必要從人本主義的視角出發(fā)充分考慮學習者的主觀意愿,學習者是否愿意將自己的信息共享給協(xié)作群體/同伴、愿意共享什么信息以及共享信息的程度都需要進行綜合考慮。因此,未來研究與實踐應把握好為學習者提供群體感知信息的共享性和隱私性的平衡。
七、結(jié) ? 語
為學習者提供群體感知信息作為促進協(xié)作學習交互質(zhì)量提升的有效措施,CSCL中應用多模態(tài)群體感知面臨機遇與挑戰(zhàn)。多模態(tài)視域下的群體感知數(shù)據(jù)來源豐富,感知類別、功能層次多元,可視化呈現(xiàn)方式多樣,能夠極大地促進學習者獲取豐富有效的感知信息,提升學習者對協(xié)作群體/同伴的感知,進而調(diào)節(jié)協(xié)作學習面臨的沖突與不確定性。在回顧和分析國內(nèi)外有關(guān)群體感知相關(guān)研究的基礎(chǔ)上,本研究從多模態(tài)視域出發(fā),以促進高質(zhì)量協(xié)作學習交互為導向,闡述了多模態(tài)群體感知的內(nèi)涵,梳理了當前多模態(tài)視域下群體感知工具的研究現(xiàn)狀,構(gòu)建了多模態(tài)視域下群體感知的實現(xiàn)框架,以厘清群體感知工具內(nèi)部機理與外部作用間的關(guān)系,為后續(xù)提升群體感知效能、提升協(xié)作學習質(zhì)量提供新的思路。
[參考文獻]
[1] JANSSEN J,BODEMER D. Coordinated computer-supported collaborative learning: awareness and awareness tools[J]. Educational psychologist,2013,48(1):40-55.
[2] DEHLER J, BODEMER D, BUDER J, et al. Guiding knowledge communication in CSCL via group knowledge awareness[J]. Computers in human behavior,2011,27(3):1068-1078.
[3] FJERMESTAD J. An analysis of communication mode in group support systems research[J]. Decision support systems,2004,37(2):239-263.
[4] FISCHER F, BRUHN J, GR?魧SEL C, et al. Fostering collaborative knowledge construction with visualization tools[J]. Learning and instruction,2002,12(2):213-232.
[5] 鄭婭峰,徐唱,李艷燕.計算機支持的協(xié)作學習分析模型及可視化研究[J].電化教育研究,2017,38(4):47-52.
[6] 王靖,鄧雯心.協(xié)作知識建構(gòu)中促進互動的群體感知信息設計[J].電化教育研究,2022,43(12):93-100.
[7] MILLER M, HADWIN A. Scripting and awareness tools for regulating collaborative learning: changing the landscape of support in CSCL[J]. Computers in human behavior, 2015, 52: 573-588.
[8] SANGIN M, MOLINARI G, N?譈SSLI M A, et al. Facilitating peer knowledge modeling: effects of a knowledge awareness tool on collaborative learning outcomes and processes[J]. Computers in human behavior,2011,27(3):1059-1067.
[9] FISCHER F, MANDL H. Knowledge convergence in computer-supported collaborative learning: the role of external representation tools[J]. Journal of the learning sciences,2005,14(3):405-441.
[10] OLLESCH L, HEIMBUCH S, BODEMER D. Improving learning and writing outcomes: influence of cognitive and behavioral group awareness tools in wikis[J]. International journal of computer-supported collaborative learning, 2021(16): 225-259.
[11] 張琪,王紅梅.學習投入的多模態(tài)數(shù)據(jù)表征:支撐理論、研究框架與關(guān)鍵技術(shù)[J].電化教育研究,2019,40(12):21-28.
[12] BODEMER D, JANSSEN J, SCHNAUBERT L. Group awareness tools for computer-supported collaborative learning[M]// FISCHER F, HMELO-SILVER C E, GOLDMAN S R, REIMANN P. International handbook of the learning sciences. New York: Routledge, 2018:351-358.
[13] STRAU?覻S, RUMMEL N. Promoting regulation of equal participation in online collaboration by combining a group awareness tool and adaptive prompts. But does it even matter?[J]. International journal of computer-supported collaborative learning,2021(16):67-104.
[14] GROSS T, STARY C, TOTTER A. User-centered awareness in computer-supported cooperative work-systems: structured embedding of findings from social sciences[J]. International journal of human-computer interaction,2005,18(3):323-360.
[15] SCHNAUBERT L, BODEMER D. Group awareness and regulation in computer-supported collaborative learning[J]. International journal of computer-supported collaborative learning,2022(17):11-28.
[16] BODEMER D, DEHLER J. Group awareness in CSCL environments[J]. Computers in human behavior,2011,27(3):1043-1045.
[17] 梁妙,鄭蘭琴.支持協(xié)作學習的覺知工具:研究現(xiàn)狀總結(jié)與思考[J].遠程教育雜志,2012,30(4):30-39.
[18] 李艷燕,彭禹,陳凱亮,蘇友.基于群體感知的CSCL學習分析工具功能研究[J].現(xiàn)代教育技術(shù),2019,29(1):72-78.
[19] LAHAT D, ADALI T, JUTTEN C. Multimodal data fusion: an overview of methods, challenges, and prospects[J]. Proceedings of the IEEE, 2015, 103(9): 1449-1477.
[20] 陳向東,張蕾,陳佳雯.基于社會網(wǎng)絡分析(SNA)的共享調(diào)節(jié)學習評價:概念框架與解釋案例[J].遠程教育雜志,2020,38(2):56-68.
[21] 胡欽太,伍文燕,馮廣,潘庭鋒,邱凱星.深度學習支持下多模態(tài)學習行為可解釋性分析研究[J].電化教育研究,2021,42(11):77-83.
[22] OCHOA X, WORSLEY M. Augmenting learning analytics with multimodal sensory data[J]. Journal of learning analytics, 2016, 3(2): 213-219.
[23] SCHNAUBERT L, BODEMER D. Providing different types of group awareness information to guide collaborative learning[J]. International journal of computer-supported collaborative learning,2019(14):7-51.
[24] SHARMA K, GIANNAKOS M. Multimodal data capabilities for learning: what can multimodal data tell us about learning[J]. British journal of educational technology,2020,51(5):1450-1484.
[25] 馬秀麟,梁靜,李小文,等.群體感知效應促進線上協(xié)作學習成效的實證研究[J].電化教育研究,2019,40(5):81-89.
[26] LIN J W, TSAI C W. The impact of an online project-based learning environment with group awareness support on students with different self-regulation levels: an extended-period experiment[J]. Computers & education, 2016, 99: 28-38.
[27] PHIELIX C, PRINS F J, KIRSCHNER P A, et al. Group awareness of social and cognitive performance in a CSCL environment: effects of a peer feedback and reflection tool[J]. Computers in human behavior,2011,27(3):1087-1102.
[28] 楊彥軍,徐剛,童慧.智能學習環(huán)境中基于多模態(tài)數(shù)據(jù)的深度學習監(jiān)測研究[J].電化教育研究,2022,43(6):68-76.
[29] 黃昌勤,朱寧,黃瓊浩,韓中美.支持個性化學習的行為大數(shù)據(jù)可視化研究[J].開放教育研究,2019,25(2):53-64.
[30] 鄭婭峰,趙亞寧,白雪,傅騫.教育大數(shù)據(jù)可視化研究綜述[J].計算機科學與探索,2021,15(3):403-422.
[31] 李艷燕,張慕華,彭禹,李新.在線協(xié)同寫作中組內(nèi)、跨組群體感知信息對小組學習投入的影響[J].現(xiàn)代教育技術(shù),2021,31(10):49-58.
[32] ENGELMANN T, HESSE F W. How digital concept maps about the collaborators' knowledge and information influence computer-supported collaborative problem solving[J]. International journal of computer-supported collaborative learning,2010(5):299-319.
[33] BODEMER D. Tacit guidance for collaborative multimedia learning[J]. Computers in human behavior, 2011, 27(3): 1079-1086.
[34] LIN J W. Effects of an online team project-based learning environment with group awareness and peer evaluation on socially shared regulation of learning and self-regulated learning [J]. Behaviour & information technology, 2018, 37(5): 445-461.
[35] BLIKSTEIN P, WORSLEY M. Multimodal learning analytics and education data mining: using computational technologies to measure complex learning tasks[J]. Journal of learning analytics, 2016, 3(2): 220-238.
[36] 王小根,陳瑤瑤.多模態(tài)數(shù)據(jù)下混合協(xié)作學習者情感投入分析[J].電化教育研究,2022,43(2):42-48,79.
[37] MAYER R E. Theories of learning and their application to technology [C]//O'NEIL H F, PEREZ R S. Technology applications in education: a learning view. Mahwah, NJ: Erlbaum, 2003:127-157.
[38] 佩吉A.艾特默,蒂莫西J.紐比,杜丹丹,等.學習理論與教育技術(shù):一種互惠關(guān)系[J].電化教育研究,2016,37(12):5-14.
[39] 李新,李艷燕,包昊罡,程露.學習投入測評新發(fā)展:從單維分析到多模態(tài)融合[J].電化教育研究,2021,42(10):100-107.
[40] EZ-ZAOUIA M, TABARD A, LAVOU?魪 E. EMODASH: a dashboard supporting retrospective awareness of emotions in online learning[J]. International journal of human-computer studies, 2020, 139: 102411.
Group Perception from A Multimodal Perspective: Connotation, Function and Implementation Path
ZHANG Si, ?LI Honghui, ?HUI Ning, ?GUO Tongyu, ?LI Xiuhan, ?LIU Qingtang
(Faculty of Artificial Intelligence in Education, Central China Normal University, Wuhan Hubei 430079)
[Abstract] With the in-depth application of computer-supported collaborative learning in the field of education, how to promote high-quality collaborative interaction has attracted much attention. Group perception in a multimodal perspective contains rich and diverse perceptual information, which helps learners fully perceive the collaborative state of groups/peers, and can effectively promote the quality of collaboration and interaction. However, the relationship between the internal mechanism and external effects of group perception tools is not clear yet. Based on this, this paper re-examines the connotation of group perception from a multimodal perspective, and systematically reviews and analyzes the relevant research on group perception at home and abroad. It is found that group perception tools collect multimodal collaborative learning data of learners, process the data, and present it to learners in a visual way, so as to help learners acquire a conscious understanding of collaborative groups/peers state and promote learners to regulate internal and external collaborative strategies. On the basis of clarifying the relationship between the internal mechanism and external effects ?of group perception tools, this paper constructs a framework for implementing group perception in a multimodal perspective, and points out the implementation path of group perception in multimodal display and perceptual monitoring, in order to provide a reference for promoting high-quality collaboration and interaction.
[Keywords] Group Perception; Multimodality; Connotation; Implementation Path