亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        智能組織中的人機協(xié)同決策:基于人機內(nèi)部兼容性的研究探索*

        2022-12-08 01:40:22何貴兵何澤桐崔力丹陸嘉琦宣泓舟
        心理科學(xué)進展 2022年12期
        關(guān)鍵詞:人機決策協(xié)同

        何貴兵 陳 誠 何澤桐 崔力丹 陸嘉琦 宣泓舟 林 琳

        ·研究構(gòu)想(Conceptual Framework)·

        智能組織中的人機協(xié)同決策:基于人機內(nèi)部兼容性的研究探索*

        何貴兵 陳 誠 何澤桐 崔力丹 陸嘉琦 宣泓舟 林 琳

        (浙江大學(xué)心理與行為科學(xué)系, 杭州 310028)

        智能時代已然來臨。智能技術(shù)的發(fā)展正加速推動組織的智能化進程。越來越多的企業(yè)在生產(chǎn)和管理中采用智能技術(shù)以提高競爭力。在此背景下, 人機協(xié)同工作日益普遍, 人機協(xié)同決策成為新型組織決策方式。然而, 當(dāng)前智能組織中的人機協(xié)同決策還面臨信任度低、可控性低、透明度低、協(xié)同度低等一系列問題, 它們阻礙了決策質(zhì)量、效率和體驗的提升。本項目認為, 人機兼容性, 特別是人機內(nèi)部兼容性, 如認知兼容性、情感兼容性、價值兼容性等, 或是影響人機協(xié)同決策績效的根本原因。因此, 本項目基于人機內(nèi)部兼容性理論視角, 綜合采用決策心理學(xué)、認知科學(xué)、組織行為學(xué)等多學(xué)科理論與方法, 通過一系列現(xiàn)場研究和模擬實驗, 力圖揭示人機協(xié)同決策中存在的問題及其成因, 探究人機協(xié)同決策中內(nèi)部兼容性的影響因素和作用機制, 進而提出若干人機協(xié)同決策優(yōu)化方法。項目研究成果將有助于促進人機協(xié)同決策理論與人機兼容性理論的發(fā)展, 提升人機協(xié)同決策績效, 推進組織決策的智能化進程。

        智能組織, 人機協(xié)同決策, 內(nèi)部兼容性, 認知兼容性, 情感兼容性, 價值兼容性

        1 問題提出

        智能時代已然來臨。伴隨著新一輪科技革命和產(chǎn)業(yè)革命, 人類社會正從工業(yè)化時代、信息化時代邁入智能化時代。大數(shù)據(jù)與智能革命正深刻改變著人們的生產(chǎn)、生活和學(xué)習(xí)方式, 重新定義人們的未來。在智能技術(shù)的推動下, 智慧城市、智慧政務(wù)、智慧農(nóng)業(yè)、智慧醫(yī)療、智能教育、智慧司法、智能交通等各領(lǐng)域的智能化變革日新月異。與此同時, 越來越多的企業(yè)認識到智能技術(shù)對提高組織競爭力的重要性, 因而通過制定戰(zhàn)略、加大投入、培養(yǎng)人才等途徑將智能技術(shù)應(yīng)用于生產(chǎn)、經(jīng)營、管理等各環(huán)節(jié), 企業(yè)組織的智能化趨勢越來越明顯。畢馬威和阿里研究院(2019)在研究報告《百年躍變:浮現(xiàn)中的智能化組織》中將引入智能技術(shù)以提升運行效能的組織稱為智能組織(intelligent organization), 并視其為未來組織的發(fā)展方向。2018年, 麥肯錫的一項關(guān)于企業(yè)人工智能采用情況的調(diào)查發(fā)現(xiàn), 將近50%的受訪者表示其公司已經(jīng)在業(yè)務(wù)流程中至少使用了一項人工智能技術(shù), 另有30%的企業(yè)正在試用人工智能技術(shù)。

        組織智能化引發(fā)了工作方式、管理模式乃至人機關(guān)系的深刻變革。首先, 智能體(intelligent agent, 包括智能軟件和硬件)的應(yīng)用極大提升了業(yè)務(wù)流程的自動化水平, 工作方式由人主導(dǎo)轉(zhuǎn)向人機協(xié)作甚至由智能體主導(dǎo)。其次, 智能體的應(yīng)用使組織管理模式發(fā)生深刻變革。數(shù)據(jù)、算法和算力成為重要的管理資源, 扁平化、自適應(yīng)、協(xié)同、精準(zhǔn)、高效成為重要的管理特征。另外, 由于新一代智能體具有更強的自主學(xué)習(xí)能力與問題處理能力, 其與人類工作者的關(guān)系亦被重新定義(許為, 葛列眾, 2020)。在組織中, 智能體不再只是人類的“工具”, 其地位與人類成員日漸平等, 真正成為人類的“伙伴”或“同事”, 甚至扮演“領(lǐng)導(dǎo)”、“管理者”的角色(Christoffersen & Woods, 2002; Madhavan & Wiegmann, 2007; Wynne & Lyons, 2018)。越來越多的人類員工將與智能體組成人機團隊(human-agent team)。此類團隊由人機構(gòu)成, 通過人機間互動協(xié)作共同執(zhí)行組織任務(wù), 從而發(fā)揮各自優(yōu)勢, 更好實現(xiàn)組織任務(wù)目標(biāo)(Scheutz et al., 2017)。

        智能體在組織管理決策中也扮演著越來越重要的角色。以往, 組織決策質(zhì)量主要取決于人類決策者的認知加工能力。然而, 在大數(shù)據(jù)時代, 人們需要面對海量信息, 其認知加工能力的局限性更顯突出, 這使得智能體越來越多地被賦予決策者職能, 以減輕人的認知負荷, 并促進決策優(yōu)化(Chamorro-premuzic & Ahmetoglu, 2016; Davenport & Ronanki, 2018)。智能體在組織決策中承擔(dān)著輔助與主導(dǎo)兩種角色。作為決策輔助者, 智能體通過機器學(xué)習(xí)分析海量信息、挖掘潛在規(guī)律, 為組織做出更優(yōu)決策提供數(shù)據(jù)支持或決策建議(劉文川等, 2019)。作為決策主導(dǎo)者, 智能體被賦予更高決策權(quán)限, 能夠主導(dǎo)組織的分配決策(?tting & Maier, 2018)、投資決策(Kaplan & Haenlein, 2019), 甚至是人員招聘、培訓(xùn)等人事決策(Dineen et al., 2004; Langer et al., 2016; Lee, 2018; Naim et al., 2016)。決策智能體不僅能為企業(yè)解決決策實時性要求高、數(shù)據(jù)量巨大的問題(Harms & Han, 2019), 同時也能促使決策程序標(biāo)準(zhǔn)化, 提升決策公平感, 減少組織沖突, 減輕領(lǐng)導(dǎo)者的管理壓力(?tting & Maier, 2018)。

        然而, 在大多數(shù)管理決策中, 人類決策者的智慧和控制需求仍不可或缺, 因此人機協(xié)同決策(Human-agent collaborative decision-making), 即由人類決策者與智能體共同完成決策, 成為智能組織中更常見的決策方式。當(dāng)然, 在不同決策任務(wù)中, 或在決策過程不同階段中, 人機雙方的參與程度和協(xié)作水平會存在差異。在相同決策任務(wù)下, 不同水平的人機協(xié)同可能產(chǎn)生不同質(zhì)量的決策。

        一系列研究表明, 當(dāng)前組織中人機協(xié)同決策的效果并不盡如人意, 人機協(xié)同決策還存在不少問題。一是人類對智能體決策者的信任度與接受度低, 嚴重阻礙了智能體在組織決策中的廣泛應(yīng)用(Ghislieri et al., 2018); 二是智能體的決策通?;诟叨葟?fù)雜和不透明的算法, 人類往往難以知曉其決策規(guī)則及其內(nèi)在含義, 以至于人無法在智能體出現(xiàn)異常時及時采取應(yīng)對措施(Dewhurst & Willmott, 2014; Lee, 2018; ?tting & Maier, 2018); 三是人機協(xié)同決策時, 人類與智能體的決策權(quán)分配也是一大難題(Parry et al., 2016); 四是智能體決策所遵循的價值規(guī)則可能不符合人類決策者價值觀和道德準(zhǔn)則, 甚至發(fā)生沖突(Yokoi & Nakayachi, 2021)。

        顯然, 人機協(xié)同決策的質(zhì)量、效率與主觀體驗均有待提升(Burton et al., 2020)。我們認為, 出現(xiàn)上述問題的原因, 或與人機兼容性(human-agent compatibility)有關(guān)。Bubb (1993)曾將人機兼容性分為外部兼容性(outer compatibility)與內(nèi)部兼容性(inner compatibility)。外部兼容性反映人機雙方在外部交互界面上的匹配度, 內(nèi)部兼容性關(guān)注雙方在內(nèi)部系統(tǒng)上的匹配度。我們提出, 人類決策者與智能體間的內(nèi)部兼容性, 尤其是認知兼容性、情感兼容性和價值兼容性, 是影響人機協(xié)同決策績效的深層次原因。因此, 有必要從人機內(nèi)部兼容性視角出發(fā), 探討人機協(xié)同決策中存在的問題及成因, 分析認知兼容性、情感兼容性、價值兼容性對人機協(xié)同決策過程和決策績效的潛在影響, 并針對性地提出若干優(yōu)化人機協(xié)同決策的方法, 以提高組織的人機協(xié)同決策質(zhì)量、效率和體驗, 更好推進組織決策智能化進程。

        2 研究現(xiàn)狀

        本項目擬考察智能組織中人機內(nèi)部兼容性與人機協(xié)同決策過程及決策績效的關(guān)系。雖然以往有少量研究涉及認知兼容、人機信任與人機互動的關(guān)系, 但探討人機協(xié)同決策中內(nèi)部兼容性及其各成分的作用, 仍是個新課題。考慮到“人人團隊決策研究”與“人機協(xié)同決策研究”可能存在類比關(guān)系, “人機協(xié)同關(guān)系”與“人機協(xié)同決策”亦有密切關(guān)聯(lián), 因此, 我們主要介紹“人人團隊決策”和“人機協(xié)同關(guān)系”領(lǐng)域的相關(guān)研究和理論成果。其中, 前者包括團隊共享信息理論、團隊共享心智模型與團隊決策認知過程的STC機制等; 后者包括人機兼容性理論、人機信任理論、技術(shù)接受模型等。上述內(nèi)容對本項目理論構(gòu)思的形成具有啟發(fā)和借鑒意義。

        2.1 關(guān)于人人團隊決策的研究

        (1)團隊共享信息理論

        組織的重要決策通常由團隊成員共同完成(Larson et al., 1996)。Stasser和Titus (1985)將團隊成員決策前所持有的相關(guān)信息分為兩類:共享信息(Shared information)和非共享信息(Unshared information)。前者指全體成員共有的信息; 后者指為各成員獨有的信息。決策開始前, 團隊成員所掌握的決策信息各有不同, 其初始偏好亦存在差異。高質(zhì)量的團隊決策要求各方成員在決策過程中充分分享信息, 尤其是非共享信息(Lam & Schaubroeck, 2011)。然而, Stasser和Titus (1987)發(fā)現(xiàn), 當(dāng)進行團隊決策時, 團隊成員往往更關(guān)注共享信息, 較少討論非共享信息, 并將這一現(xiàn)象稱為共享信息偏差 (Shared information bias)。共享信息偏差主要表現(xiàn)為三個方面:(1)相較于非共享信息, 共享信息在討論過程中被團隊成員更為頻繁地提及; (2)相較于非共享信息, 共享信息被更早地引入團隊討論; (3)討論結(jié)束后, 團隊成員對共享信息的回憶率相對更高(陳婷, 孫曉敏, 2016)。另外, 共享信息偏差的出現(xiàn)受團隊信息分布、決策任務(wù)特征、成員特征和信息分享動機等因素的調(diào)節(jié)。共享信息理論提示我們, 在人機協(xié)同決策中, 通過增加人機非共享信息的使用率, 或可顯著提升人機協(xié)同決策績效。

        (2)團隊共享心智模型

        共享心智模型(Shared mental model)指團隊成員關(guān)于團隊任務(wù)、成員關(guān)系、作業(yè)情境等的共同知識結(jié)構(gòu)和認知框架。共享心智模型是團隊協(xié)作的認知基礎(chǔ), 在此基礎(chǔ)上, 團隊成員彼此互動, 從而完成任務(wù)目標(biāo)(Cannon-Bowers et al., 1993)。共享心智模型由兩部分構(gòu)成, 一是任務(wù)相關(guān)模型, 包括關(guān)于設(shè)備、技術(shù)與任務(wù)的心智模型; 二是團隊相關(guān)模型, 包括關(guān)于團隊關(guān)系與團隊交互過程的心智模型。共享心智模型理論認為, 彼此一致的心智模型是增強團隊成員適應(yīng)性、團隊交互有效性和團隊績效表現(xiàn)的重要保障。研究表明, 團隊心智模型的相似性程度可有效預(yù)測團隊協(xié)作績效, 成員間心智模型的一致性越高, 團隊績效表現(xiàn)相對越好(Lim & Klein, 2006; Mathieu et al., 2000)。Mohammed和Dumville (2001)進一步指出, 除了認知結(jié)構(gòu)相似性, 團隊成員在價值觀、態(tài)度與信念等方面的相似性也應(yīng)被視為共享心智模型的重要組成部分。

        隨著團隊形式的擴展, 共享心智模型亦被運用于“人類?智能體”團隊中(Demir et al., 2020)。Jonker等人(2010)將“人類?智能體”團隊的共享心智模型定義為人機雙方在心智模型上的相似程度。Fan和Yen (2010)發(fā)現(xiàn), 通過協(xié)助智能體更為準(zhǔn)確地評估人類同伴的實時認知負荷, 可顯著改善人機心智模型的共享程度, 進而提升人機團隊的信息交流效率。另外, Scheutz等人(2017)提出了“過程監(jiān)控?共享心智模型?任務(wù)績效”的綜合分析框架, 用以分析智能體(如機器人)的心智模型及其在提升“人類?智能體”混合團隊績效上的作用。共享心智模型理論提示我們, 人類決策者與智能體在認知圖式、態(tài)度、價值觀等方面的相似性或是影響人機協(xié)同決策質(zhì)量的重要因素。

        (3)團隊決策認知過程的STC機制

        何貴兵(2002)認為, 團隊決策本質(zhì)上是以團隊交互為基礎(chǔ)的團隊認知適應(yīng)性變化過程。決策開始后, 團隊成員首先按各方需求定向分享信息和知識(分布式分享, Distributive sharing); 隨后, 依據(jù)決策任務(wù)要求, 不斷將他人所分享的信息和知識納入自身的心智模型, 使之發(fā)生適應(yīng)性轉(zhuǎn)換和更新(適應(yīng)性轉(zhuǎn)換, Adaptive transformation); 之后, 若團隊的認知儲備相較于決策任務(wù)要求仍有缺失, 團隊成員將開展更為深入的認知交互, 構(gòu)建形成現(xiàn)有團隊知識庫中未有的新概念與新聯(lián)結(jié)(交互式構(gòu)建, Interactive construction)。上述認知變化過程被稱為團隊認知的STC (Sharing- Transformation-Construction)演化機制(何貴兵, 2002)。以此模型為基礎(chǔ), 管文穎(2006)、黃德斌(2007)通過Tinsel Town等團隊投資決策任務(wù), 先后考察了領(lǐng)導(dǎo)風(fēng)格、時間壓力和反饋方式等對團隊STC演化及最終決策績效的影響。團隊認知的STC演化理論提示我們, 人機協(xié)同決策或需經(jīng)歷人機間知識的分布式分享、適應(yīng)性轉(zhuǎn)換與交互式構(gòu)建等過程, 以實現(xiàn)高認知兼容性。上述過程能否順利展開取決于人機初始知識分布、人機交互方式、決策任務(wù)特征等因素。

        2.2 關(guān)于人機協(xié)同關(guān)系的研究

        (1)人機兼容性理論

        人機兼容性(Human-agent compatibility)指人類用戶與智能體在工作方式、交互方式、認知方式等方面的相互匹配與適應(yīng)程度(Flemisch et al., 2008), 由外部兼容性(Outer compatibility)與內(nèi)部兼容性(Inner compatibility)兩部分構(gòu)成(Bubb, 1993)。外部兼容性主要關(guān)注人類用戶的感覺?運動器官與智能體外部硬件接口的匹配程度(即人機外部交互界面的匹配程度); 內(nèi)部兼容性主要考察人類用戶與智能體在內(nèi)部系統(tǒng)上的匹配程度。另外, Coll和Coll (1989)提出了人機“認知兼容性” (Cognitive compatibility)概念, 主要反映人類與智能體在信息處理方式上的匹配程度。Coll和Coll認為, 假若智能體可依照人類的思維方式與目標(biāo)用戶展開互動, 用戶對其可用性評價和接受意愿將顯著提升。

        研究表明, 在決策支持領(lǐng)域, 人機兼容性, 尤其是人機認知兼容性程度, 是影響人機決策績效的重要因素(Burton et al., 2020)。然而, 由于人類決策者通常使用直覺式的信息加工方式, 而智能體主要采取分析式的信息加工方式, 因此, 只有人機雙方共同做出相向調(diào)整, 人機認知兼容性與人機協(xié)同決策質(zhì)量才能得到保障。具體而言, 智能體設(shè)計者在開發(fā)過程中需更多了解人類信息加工方式, 適度采納基于啟發(fā)式的決策原則, 并盡可能增加決策算法的透明度, 以提高人類用戶對其建議的接受意愿(Hafenbr?dl et al., 2016)。另一方面, 由于人類在決策過程中時常出現(xiàn)過度自信(Sieck & Arkes, 2005)或過度保守(Lim & O'Connor, 1996) 的情況, 因此, 人類決策者需正視自身的認知偏見并做出相應(yīng)改變, 以提升人機認知兼容性, 保障人機協(xié)同決策的順利展開。人機兼容性理論提示我們, 人機兼容性, 尤其是人機內(nèi)部兼容性, 是影響人機協(xié)同決策績效的關(guān)鍵因素。

        (2)人機信任理論

        在“人?人”工作團隊中, 信任是人際可持續(xù)關(guān)系的基礎(chǔ), 建立信任可有效提升團隊成員的工作態(tài)度與行為績效(Dirks & Ferrin, 2001)。伴隨智能技術(shù)的快速發(fā)展, 組織的智能化趨勢日益明顯, “人?機”工作團隊不斷涌現(xiàn), 智能體的角色逐漸由“被動”工具向“主動”成員轉(zhuǎn)變(Mittu et al., 2016)。諸多研究表明, 人類對智能體的信任程度顯著影響其與智能體的交互, 如是否接受智能體提供的數(shù)據(jù)信息與決策建議、是否愿意與智能體共同完成工作任務(wù)等(Hancock et al., 2011; Lee & See, 2004)。因此, 理解人機信任的建立與維持過程, 對提升人機協(xié)同決策績效具有重要意義。

        目前, 有關(guān)人機信任的研究主要關(guān)注人類對智能體能力(competence)和可靠性(reliability)等方面的知覺。影響人機信任建立與維持的因素主要包含三類, 即人類因素、機器因素與環(huán)境因素 (Hancock et al., 2011; Schaefer et al., 2016)。其中, 人類因素主要指與人類用戶相關(guān)的一系列能力與特質(zhì), 如自我效能感、信任傾向等; 機器因素指與智能體相關(guān)的若干性能與屬性, 如可靠性、錯誤率、透明度等; 環(huán)境因素指與人機互動相關(guān)的一系列團隊與任務(wù)特征, 如任務(wù)重要性、任務(wù)負荷、人機責(zé)任分布和依存性等。三類因素共同決策人類用戶對智能體的信任程度。此外, Hancock等人(2011)的元分析結(jié)果表明, 機器因素對人際信任的影響相對較大, 環(huán)境因素的影響中等, 人類因素的影響則相對較小。人機信任理論提示我們, 人類決策者對智能體的信任是人機協(xié)同決策得以開展的前提, 信任建立受人類特征、智能體特征、環(huán)境特征等因素的影響。

        (3)技術(shù)接受模型

        Davis等人(1989)所提出的技術(shù)接受模型(Technology acceptance model)以理性行為理論(Theory of reasoned action)為基礎(chǔ), 用于解釋人類用戶對信息技術(shù)的接受或拒絕傾向。該模型認為, 人類用戶的行為意圖影響其對特定技術(shù)的使用, 而行為意圖取決于其對該技術(shù)的態(tài)度傾向。用戶對技術(shù)的態(tài)度傾向受兩方面因素影響:其一為感知有用性(Perceived usefulness), 即用戶是否認為該技術(shù)能顯著提高當(dāng)前任務(wù)績效; 其二為感知易用性(Perceived ease of use), 即用戶是否認為該技術(shù)易于使用。兩者共同決定用戶對特定技術(shù)的態(tài)度傾向與使用意圖。假若某技術(shù)的感知易用性較低, 即使其感知有用性相對較高, 人類用戶對其的使用意圖亦較為有限。此外, 感知易用性可影響用戶對感知有用性的評估, 且兩者共同受到若干外在因素的作用, 如系統(tǒng)特征、用戶特征、任務(wù)特征、組織特征、管理特征等。此后, Davis和Venkatesh (1996)以相關(guān)研究為依據(jù), 對技術(shù)接受模型做了進一步修訂。他們提出, 感知有用性與感知易用性可直接作用于個體的技術(shù)使用意圖, 進而影響其技術(shù)使用行為。技術(shù)接受模型提示我們, 人類決策者對智能體有用性與易用性的感知將決定其對智能體的使用意愿與互動行為, 進而影響人機協(xié)同決策的最終績效。

        2.3 以往研究不足

        以往關(guān)于“人?人”團隊決策的研究主要關(guān)注團隊共享信息、共享心智模型、團隊決策認知過程演化等內(nèi)容, 針對“人?機”協(xié)同關(guān)系的研究則主要聚焦于人機兼容性、人機信任、技術(shù)接受意愿等議題。相關(guān)研究表現(xiàn)出以下特征。

        首先, 有關(guān)人機協(xié)同決策的理論探索與實證支撐有待加強?,F(xiàn)有的團隊決策模型, 如共享信息理論、共享心智模型、團隊決策認知過程的STC機制等, 主要基于對“人?人”團隊決策的研究。隨著組織智能化浪潮的興起, 組織的管理決策職能逐漸由人類成員與智能體共同承擔(dān), 關(guān)于“人?機”協(xié)同決策形成機制與影響因素的研究尤為迫切并受研究者關(guān)注。雖然有學(xué)者嘗試將“人?人”團隊決策理論運用于“人?機”團隊情境, 并取得了初步研究成果, 但考慮到“人?機”交互與“人?人”交互之間存在的重要差異, 以上推廣是否合理仍然存疑。因此, 本項目嘗試重新構(gòu)建人機內(nèi)部兼容性理論框架, 并以信息利用協(xié)同、方案形成協(xié)同、方案評估協(xié)同與決策制定協(xié)同為主要維度, 深入考察人機協(xié)同決策的形成過程與相關(guān)影響因素。

        其次, 現(xiàn)有人機兼容性理論的完備性仍有不足。人機兼容性理論認為, 人機內(nèi)部兼容性不足, 尤其是人機認知兼容性缺乏, 是引發(fā)人機協(xié)同決策問題(如信任度低、可控性低、透明度低、協(xié)同性低等)的關(guān)鍵原因; 調(diào)整人類決策者與智能體的認知加工方式, 使兩者更具認知兼容性, 是提高人機協(xié)同決策績效的關(guān)鍵途徑。然而, 基于對“事實前提”和“價值前提”共同影響決策的認識以及對智能組織中人機協(xié)同決策過程的多角度分析, 我們認為, 除了人機認知兼容性, 情感兼容性與價值兼容性亦是人機內(nèi)部兼容性的重要組成部分, 三類兼容性共同對人機協(xié)同決策的質(zhì)量、效率及主觀體驗等方面產(chǎn)生實質(zhì)性影響。因此, 本項目擬拓展人機內(nèi)部兼容性內(nèi)涵, 構(gòu)建包含認知兼容性、情感兼容性與價值觀兼容性的人機內(nèi)部兼容性理論框架, 深入探討三者對人機協(xié)同決策的可能影響及其作用機制。

        最后, 基于理論邏輯和實證依據(jù)提出人機協(xié)同決策優(yōu)化方法的研究有待加強。智能組織中的一系列重要決策正逐漸由人類成員與智能體共同完成。因此, 如何提升人機協(xié)同決策績效是一項極具現(xiàn)實意義的研究課題。從理論邏輯看, 我們認為, 人機兼容性尤其是人機內(nèi)部兼容性, 影響人機協(xié)同過程, 并進而影響人機協(xié)同決策質(zhì)量、決策效率和決策體驗。然而這一影響機制仍需更多實證研究證據(jù)支持, 特別是情感兼容性和價值兼容性的效應(yīng)仍需檢驗。本項目擬通過系列現(xiàn)場研究和實驗室模擬實驗, 揭示“內(nèi)部兼容性?人機協(xié)同行為?人機協(xié)同決策績效”三者關(guān)系, 并考察人、機、團隊、任務(wù)等因素的影響。在此基礎(chǔ)上, 從提升人機內(nèi)部兼容性入手, 提出若干改善人機協(xié)同決策績效的方法, 并在真實的組織場景中檢驗其有效性。這些探索, 有助于開拓優(yōu)化人機協(xié)同決策過程和決策績效的新途徑, 也能為決策智能體設(shè)計者提供啟示, 從而有利于推進組織決策智能化進程。

        3 研究構(gòu)想

        以往關(guān)于人機內(nèi)部兼容性的研究主要探討人機認知兼容性在人機協(xié)作任務(wù)中的作用。本項目認為, 除了認知兼容性, 情感兼容性與價值兼容性亦是人機內(nèi)部兼容性的重要組成部分。其中, 情感兼容性指人類與智能體對特定情感事件所做反應(yīng)的匹配程度, 以及人類對智能體作為協(xié)作伙伴的信任和認同; 價值兼容性指人類與智能體在決策選擇中遵循的價值觀、道德原則等的匹配程度(Yokoi & Nakayachi, 2021)。以往關(guān)于情感兼容性的研究主要集中于人機信任, 并認為人機信任有利于提高人類對智能體所提建議的接受度及協(xié)作意愿(Hancock et al., 2011), 但對人機情感反應(yīng)一致性如何影響協(xié)作過程和協(xié)作績效的研究仍相對缺乏。此外, 關(guān)于價值兼容性是否及如何影響人機協(xié)同過程和協(xié)同績效, 還未見實證研究。我們假設(shè), 由上述三類兼容性所構(gòu)成的內(nèi)部兼容性是人機協(xié)同的重要基礎(chǔ), 對人機協(xié)同決策的質(zhì)量、效率和體驗會產(chǎn)生實質(zhì)性影響。因此, 本項目擬拓展人機內(nèi)部兼容性內(nèi)涵, 構(gòu)建包含認知兼容性、情感兼容性與價值觀兼容性的人機內(nèi)部兼容性理論框架, 深入探討三者對人機協(xié)同決策的可能影響及其作用機制。

        本項目擬結(jié)合決策心理學(xué)、認知科學(xué)、組織行為學(xué)等多學(xué)科理論與方法, 通過現(xiàn)場訪談、問卷調(diào)查、實驗室模擬與現(xiàn)場實驗等手段, 揭示智能組織人機協(xié)同決策中可能存在的問題及成因(研究一); 并從認知兼容性、情感兼容性、價值觀兼容性三方面出發(fā), 考察人機內(nèi)部兼容性對人機協(xié)同決策的影響方式與作用機制(研究二); 進而提出若干可提升人機協(xié)同決策績效的優(yōu)化方法, 并在智能組織決策場景中檢驗其有效性(研究三)。

        3.1 研究一:人機協(xié)同決策主要問題及其成因的現(xiàn)場研究

        研究一擬在現(xiàn)實的智能組織中考察人機協(xié)同決策可能存在的問題及原因。為此, 首先需開發(fā)關(guān)于人機內(nèi)部兼容性與人機協(xié)同行為的測評工具(子研究1), 并將其運用于企業(yè)現(xiàn)場研究, 從而了解智能體在組織場景中的使用現(xiàn)狀、人類員工和決策者對智能體的使用意愿, 以及人機協(xié)同決策中可能存在的問題與成因(子研究2)。

        對人機內(nèi)部兼容性與人機決策協(xié)同性的有效測量是本項目研究的重要基礎(chǔ)。然而, 目前關(guān)于兩者的測評工具仍相對缺乏。因此, 子研究1嘗試以認知兼容性、情感兼容性、價值兼容性為理論框架, 開發(fā)《人機內(nèi)部兼容性量表》; 以信息收集協(xié)同、方案形成協(xié)同、方案評估協(xié)同與決策制定協(xié)同為主要維度, 開發(fā)《人機決策協(xié)同性量表》。隨后, 子研究2將利用本項目開發(fā)的《人機內(nèi)部兼容性量表》與《人機決策協(xié)同性量表》, 結(jié)合現(xiàn)場訪談、問題調(diào)查、量表測試、個案分析等方法, 探討智能體在現(xiàn)實組織中的使用現(xiàn)狀、人類員工對其的使用意愿, 以及人機協(xié)同決策中存在的問題及其成因。

        3.2 研究二:基于人機內(nèi)部兼容性的人機協(xié)同決策機制研究

        當(dāng)前, 關(guān)于人機內(nèi)部兼容性如何影響人機協(xié)同決策過程和績效的研究相對缺乏。研究二擬采用實驗室模擬和現(xiàn)場研究等方法深入考察人機內(nèi)部兼容性與人機協(xié)同決策間的內(nèi)在關(guān)聯(lián)。因此, 研究二中的四項研究分別考察認知兼容性(子研究3)、情感兼容性(子研究4)和價值兼容性(子研究5)對人機協(xié)同決策績效(決策質(zhì)量、決策效率、決策體驗)的可能影響, 并檢驗若干決策任務(wù)特征在其中的調(diào)節(jié)作用(子研究6)。

        子研究3主要關(guān)注認知兼容性如何影響人機協(xié)同決策績效。人機認知兼容性指人類決策者與智能體在信息儲備和信息加工等方面的一致性程度, 主要受人機協(xié)同決策系統(tǒng)中雙方的信息分布、加工方式、加工能力等因素的影響。因此, 子研究3擬通過實驗室模擬決策任務(wù), 考察信息量及其分布以及人機信息加工方式、加工能力對人機協(xié)同決策績效的影響, 并檢驗認知兼容性在其中的中介作用。子研究4主要考察情感兼容性在人機協(xié)同決策形成過程中的可能作用。人機情感兼容性指人類決策者對智能體的信任、認同和共情程度, 其強弱主要取決于人類決策者對智能體能力、可靠性等因素的知覺。因此, 子研究4將在實驗室模擬決策任務(wù)下, 探討人類決策者對智能體內(nèi)外特征的知覺如何形塑其與智能體的情感兼容性, 并進而影響人機協(xié)同決策績效。子研究5重點考察價值兼容性對人機協(xié)同決策的可能影響。人機價值兼容性指人類決策者與智能體算法在價值取向、道德準(zhǔn)則等方面的一致性程度, 其高低受人機價值取向、保護性價值觀等因素的制約。因此, 子研究5擬采用實驗室模擬決策方法, 考察人機價值取向、保護性價值觀等因素對價值兼容性以及人機協(xié)同決策績效的影響。子研究6嘗試探討決策任務(wù)特征等在人機兼容性影響人機協(xié)同決策中的調(diào)節(jié)作用。我們認為, 決策任務(wù)的若干特征, 如任務(wù)依存性、不確定性等因素或可改變?nèi)藱C兼容性對人機協(xié)同決策績效的影響強弱。因此, 子研究6擬在真實的組織決策場景下, 檢驗任務(wù)依存性、決策不確定性等因素對人機兼容性與人機協(xié)同決策績效間關(guān)系的調(diào)節(jié)作用。

        3.3 研究三:基于人機內(nèi)部兼容性的人機協(xié)同決策優(yōu)化方法研究

        基于研究一和研究二取得的成果, 研究三擬通過現(xiàn)場研究, 檢驗若干優(yōu)化方法, 如增加智能體決策透明度(子研究7)、增設(shè)智能體決策結(jié)果反饋(子研究8)等對提升人機內(nèi)部兼容性和人機協(xié)同決策績效的有效性。

        智能體決策透明度指智能體所采用的決策規(guī)則向人類用戶開放、為人類用戶理解的程度。我們認為, 當(dāng)智能體的決策透明度得到保障時, 人機之間的內(nèi)部兼容性與協(xié)同決策質(zhì)量亦將明顯改善。另外, 基于以往研究, 我們預(yù)期, 通過設(shè)置智能體決策結(jié)果反饋方式亦可增進人機內(nèi)部兼容性, 進而提升人機協(xié)同決策的整體績效。子研究7與子研究8擬在現(xiàn)場實驗中對上述假設(shè)的可靠性分別予以檢驗。

        4 理論建構(gòu)與應(yīng)用前景

        伴隨智能技術(shù)的迅速發(fā)展, 越來越多的企業(yè)試圖將智能技術(shù)引入自身的各業(yè)務(wù)流程, 智能化組織應(yīng)運而生。在此背景下, 人機協(xié)同決策逐漸成為組織中新的決策方式。然而, 當(dāng)前的人機協(xié)同決策仍存在信任度低、可控性低、透明度低、協(xié)同度低等問題, 其決策質(zhì)量、效率和主觀體驗均有待提升。本項目擬以人機內(nèi)部兼容性為分析視角, 提出“人機認知兼容性、情感兼容性、價值兼容性是影響人機協(xié)同決策績效的關(guān)鍵因素”這一嶄新理論觀點, 在此基礎(chǔ)上, 采用現(xiàn)場訪談、問卷調(diào)查、個案研究、實驗室模擬、現(xiàn)場實驗等方法, 揭示智能組織中人機協(xié)同決策存在的問題及成因, 挖掘人機內(nèi)部兼容性對人機協(xié)同決策的影響機制, 并提出若干可有效改善人機協(xié)同決策績效的優(yōu)化方法(見圖1)。

        圖1 人機協(xié)同決策的內(nèi)部兼容性理論框架

        本項目的研究具有理論創(chuàng)新性。以往關(guān)于人機內(nèi)部兼容性的研究主要考察人機認知兼容性對人機協(xié)作行為的影響。我們認為, 除認知兼容性外, 情感兼容性與價值觀兼容性亦是人機內(nèi)部兼容性的重要組成部分, 它們共同對人機協(xié)同決策績效產(chǎn)生實質(zhì)性影響。因此, 本項目從三類內(nèi)部兼容性理論框架出發(fā), 深入考察其在人機協(xié)同決策過程中的作用。該研究視角有望為未來人機協(xié)同決策研究提供新方向。

        同時, 本項目研究成果也具有良好的應(yīng)用前景。本項目從增強人機認知兼容性、情感兼容性、價值兼容性角度切入, 提出優(yōu)化人機協(xié)同決策過程、提升人機協(xié)同決策績效的方法, 并在現(xiàn)場檢驗其有效性, 有望為智能組織改進人機協(xié)同決策提供新途徑, 為決策智能體開發(fā)者提供新啟示, 進而有助于推進組織決策智能化進程。

        陳婷, 孫曉敏. (2016). 團隊決策中的共享信息偏差:基于隱藏文檔范式的機制、影響因素探究.(1), 132?142.

        管文穎. (2006).(碩士學(xué)位論文). 浙江大學(xué), 杭州.

        何貴兵. (2002).(博士學(xué)位論文). 浙江大學(xué), 杭州.

        黃德斌. (2007).(碩士學(xué)位論文). 浙江大學(xué), 杭州.

        劉文川, 唐堅, 吳超. (2019). 人工智能與領(lǐng)導(dǎo)力: 基于復(fù)雜大數(shù)據(jù)支撐的政府決策機制研究., 42?46.

        許為, 葛列眾. (2020). 智能時代的工程心理學(xué).(9), 1409?1425.

        Bubb, H. (1993). Systemergonomie. In H. Schmidtke (Ed.),(pp. 333?420). München, Germany: CarlHanser.

        Burton, J. W., Stein, M. K., & Jensen, T. B. (2020). A systematic review of algorithm aversion in augmented decision making.(2), 220?239.

        Cannon-Bowers, J. A., Salas, E., & Converse, S. (1993). Shared mental models in expert team decision making. In N. J. Castellan, Jr. (Ed.),(pp. 221–246). Lawrence Erlbaum Associates, Inc.

        Chamorro-Premuzic, T., & Ahmetoglu, G. (2016). The pros and cons of robot managers.,, 2?5.

        Christoffersen, K., & Woods, D. D. (2002). How to make automated systems team players. In E. Salas (Ed.),(Vol. 2, pp. 1?12). Bingley, UK: Emerald Group.

        Coll, R., & Coll, J. H. (1989). Cognitive match interface design, a base concept for guiding the development of user friendly computer application packages.(4), 227?235.

        Davenport, T. H., & Ronanki, R. (2018). Artificial intelligence for the real world.,(1), 108-116.

        Davis, F. D., Bagozzi, R. P., & Warshaw, P. R. (1989). User acceptance of computer technology: A comparison of two theoretical models.(8), 982?1003.

        Davis, F. D., & Venkatesh, V. (1996). A critical assessment of potential measurement biases in the technology acceptance model: Three experiments.(1), 19?45.

        Demir, M., McNeese, N. J., & Cooke, N. J. (2020). Understanding human-robot teams in light of all-human teams: Aspects of team interaction and shared cognition., Article 102436.

        Dewhurst, M., & Willmott, P. (2014). Manager and machine: The new leadership equation.(3), 76?86.

        Dineen, B. R., Noe, R. A., & Wang, C. (2004). Perceived fairness of web-based applicant screening procedures: Weighing the rules of justice and the role of individual differences.(2-3), 127?145.

        Dirks, K. T., & Ferrin, D. L. (2001). The role of trust in organizational settings.(4), 450?467.

        Fan, X., & Yen, J. (2010). Modeling cognitive loads for evolving shared mental models in human-agent collaboration.(2), 354?367.

        Flemisch, F., Kelsch, J., L?per, C., Schieben, A., & Schindler, J. (2008). Automation spectrum, inner/outer compatibility and other potentially useful human factors concepts for assistance and automation. In D. de Waard, F. O. Flemisch, B. Lorenz, H. Oberheid, & K. A. Brookhuis (Eds.),(pp. 1?16)Maastricht, the Netherlands: Shaker Publishing.

        Ghislieri, C., Molino, M., & Cortese, C. G. (2018). Work and Organizational Psychology Looks at the Fourth Industrial Revolution: How to Support Workers and Organizations?, Article 2365.

        Hafenbr?dl, S., Waeger, D., Marewski, J. N., & Gigerenzer, G. (2016). Applied decision making with fast-and-frugal heuristics.(2), 215?231.

        Hancock, P. A., Billings, D. R., Schaefer, K. E., Chen, J. Y. C., de Visser, E. J., & Parasuraman, R. (2011). A meta-analysis of factors affecting trust in human-robot interaction.(5), 517?527.

        Harms, P. D., & Han, G. (2019). Algorithmic leadership: The future is now.(4), 74?75.

        Jonker, C., Van Riemsdijk, M., & Vermeulen, B. (2010, May).Proceedings of 9thInternational Conference on Autonomous Agents and Multiagent Systems (AAMAS 2010), Toronto, Canada.

        Kaplan, A., & Haenlein, M. (2019). Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence.(1), 15?25.

        Lam, S. S., & Schaubroeck, J. (2011). Information sharing and group efficacy influences on communication and decision quality.(3), 509?528.

        Langer, M., K?nig, C. J., Gebhard, P., & André, E. (2016). Dear computer, teach me manners: Testing virtual employment interview training.(4), 312?323.

        Larson, J. R., Christensen, C., Abbott, A. S., & Franz, T. M. (1996). Diagnosing groups: Charting the flow of information in medical decision-making teams.(2), 315?330.

        Lee, J. D., & See, K. A. (2004). Trust in automation: Designing for appropriate reliance.(1), 50?80.

        Lee, M. K. (2018). Understanding perception of algorithmic decisions: Fairness, trust, and emotion in response to algorithmic management.(1), 1?16.

        Lim, B. C., & Klein, K. J. (2006). Team mental models and team performance: A field study of the effects of team mental model similarity and accuracy.(4), 403?418.

        Lim, J. S., & O'Connor, M. (1996). Judgmental forecasting with interactive forecasting support systems.(4), 339?357.

        Madhavan, P., & Wiegmann, D. A. (2007). Similarities and differences between human-human and human-automation trust: An integrative review.(4), 277?301.

        Mathieu, J. E., Heffner, T. S., Goodwin, G. F., Salas, E., & Cannon-Bowers, J. A. (2000). The influence of shared mental models on team process and performance.(2), 273?283.

        Mittu, R., Sofge, D., Wagner, A., & Lawless, W. F. (2016).Boston, MA: Springer.

        Mohammed, S., & Dumville, B. C. (2001). Team mental models in a team knowledge framework: Expanding theory and measurement across disciplinary boundaries.(2), 89?106.

        Naim, I., Tanveer, M. I., Gildea, D., & Hoque, M. E. (2016). Automated analysis and prediction of job interview performance.(2), 191?204.

        ?tting, S. K., & Maier, G. W. (2018). The importance of procedural justice in human-machine interactions: Intelligent systems as new decision agents in organizations., 27?39.

        Parry, K., Cohen, M., & Bhattacharya, S. (2016). Rise of the machines: A critical consideration of automated leadership decision making in organizations.(5), 571?594.

        Schaefer, K. E., Chen, J. Y. C., Szalma, J. L., & Hancock, P. A. (2016). A meta-analysis of factors influencing the development of trust in automation: Implications for understanding autonomy in future systems.(3), 377?400.

        Scheutz, M., DeLoach, S. A., & Adams, J. A. (2017). A framework for developing and using shared mental models in human-agent teams.(3), 203?224.

        Sieck, W. R., & Arkes, H. R. (2005). The recalcitrance of overconfidence and its contribution to decision aid neglect.(1), 29?53.

        Stasser, G., & Titus, W. (1985). Pooling of unshared information in group decision making: Biased information sampling during discussion.(6), 1467?1478.

        Stasser, G., & Titus, W. (1987). Effects of information load and percentage of shared information on the dissemination of unshared information during group discussion.(1), 81?93.

        Wynne, K. T., & Lyons, J. B. (2018). An integrative model of autonomous agent teammate-likeness.(3), 353?374.

        Yokoi, R., & Nakayachi, K. (2021). The effect of value similarity on trust in the automation systems: A case of transportation and medical care.,(13), 1269?1282.

        Human-agent collaborative decision-making in intelligent organizations: A perspective of human-agent inner compatibility

        HE Guibing, CHEN Cheng, HE Zetong, CUI Lidan, LU Jiaqi, XUAN Hongzhou, LIN Lin

        (Department of Psychology and Behavioral Sciences, Zhejiang University, Hangzhou 310028, China)

        The era of artificial intelligence has already arrived. With the rapid development of intelligent technology, more and more companies are adopting this technology into their business processes to enhance their core competitiveness. Subsequently, human-agent collaborative work is becoming common, and human-agent collaborative decision-making (HACDM) is evolving as a new form of organizational decision-making. However, evidence shows that HACDM still faces challenges, such as low trust and controllability toward agents, low transparency of agents, and low collaboration between humans and agents. Therefore, how these challenges can be overcome to improve the decision quality, decision efficiency, and user experience of HACDM is crucial to the field of organizational decision-making. This project suggests that human-agent compatibility, especially human-agent inner compatibility (HAIC) which consists of cognitive, affective, and value compatibility, might be the fundamental factor affecting the performance of HACDM. Following the perspective of HAIC theory and using the multi-disciplinary methods from psychology, cognitive science, and organizational behavior, we intend to 1) reveal the existing problems within HACDM; 2) explore the impact of HAIC on the process and performance of HACDM; 3) propose methods to improve the performance of HACDM. This project’s findings will contribute to the development of human-agent compatibility theory and human-agent collaboration theory, improve the performance of intelligent organizations and promote the intelligentization progress of HACDM.

        intelligent organization, human-agent collaborative decision-making, human-agent inner compatibility, cognitive compatibility, affective compatibility, value compatibility

        2021-12-31

        * 國家自然科學(xué)基金項目(72071178)。

        何貴兵, E-mail: gbhe@zju.edu.cn

        B849

        猜你喜歡
        人機決策協(xié)同
        人機“翻譯員”
        為可持續(xù)決策提供依據(jù)
        從內(nèi)到外,看懂無人機
        南都周刊(2021年3期)2021-04-22 16:43:49
        蜀道難:車與路的協(xié)同進化
        決策為什么失誤了
        “四化”協(xié)同才有出路
        汽車觀察(2019年2期)2019-03-15 06:00:50
        “人機大戰(zhàn)”人類智慧遭遇強敵
        海外星云(2016年7期)2016-12-01 04:17:50
        三醫(yī)聯(lián)動 協(xié)同創(chuàng)新
        未來深空探測中的人機聯(lián)合探測
        太空探索(2016年5期)2016-07-12 15:17:58
        協(xié)同進化
        生物進化(2014年2期)2014-04-16 04:36:26
        国产高清一区二区三区四区色| 亚洲熟女乱色一区二区三区| 国产三级在线观看播放视频| 成年人黄视频大全| 欧美人与物videos另类| 一区二区三区人妻在线| 熟妇人妻精品一区二区视频免费的 | 日韩少妇激情一区二区| 亚洲第一网站免费视频| 久久中文字幕久久久久| 亚洲高清一区二区三区视频| 今井夏帆在线中文字幕| 国产视频自拍一区在线观看| av免费网址在线观看| 亚洲av永久无码国产精品久久| 男人天堂这里只有精品| 亚洲av无码一区东京热| 变态 另类 欧美 大码 日韩| 国产99视频精品免费视频免里| AV永久天堂网| 亚洲综合精品一区二区三区| 一区二区三区免费观看日本| 精品亚洲成a人在线观看| 亚洲伊人色欲综合网| 成人国产精品999视频| 国产福利美女小视频| 蜜桃视频永久免费在线观看| 最新国产不卡在线视频| 一本大道无码人妻精品专区| 成av人片一区二区三区久久| 国产精品久久无码不卡黑寡妇| 国产亚洲精品国看不卡| 一区二区三区国产天堂| 国产亚洲精品熟女国产成人 | yw尤物av无码国产在线观看| 最近免费中文字幕| 亚洲AV无码中文AV日韩A| 精品不卡视频在线网址| 国产精品无码制服丝袜| 4399理论片午午伦夜理片| yeyecao亚洲性夜夜综合久久|