亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        用戶對(duì)人工智能產(chǎn)品的算法厭惡研究述評(píng)及展望

        2022-11-17 07:09:42梁哲浩常亞平
        管理學(xué)報(bào) 2022年11期
        關(guān)鍵詞:人工智能人類產(chǎn)品

        李 游 梁哲浩 常亞平

        (1. 華中科技大學(xué)管理學(xué)院; 2. 華中科技大學(xué)公共管理學(xué)院)

        1 研究背景

        大數(shù)據(jù)的積累賦予了算法從經(jīng)驗(yàn)中學(xué)習(xí)、理解和表達(dá)人類語(yǔ)言,甚至認(rèn)識(shí)和模仿人類情感的能力。如今面對(duì)復(fù)雜的預(yù)測(cè)和決策任務(wù)(如疾病診斷、自動(dòng)駕駛、法律咨詢和表情識(shí)別等),以算法為核心的人工智能產(chǎn)品能以超越專家級(jí)的準(zhǔn)確性為用戶提供服務(wù)[1]。鑒于算法的準(zhǔn)確性高于一般人類的直覺和判斷,人們理應(yīng)信任并接受它的建議。然而,事實(shí)并非如此?,F(xiàn)有研究已經(jīng)注意到:招聘人員更相信自己而不是算法的推薦[2],審計(jì)師更信任自己而不是智能輔助工具的欺詐預(yù)測(cè)[3],病人更愿意采納醫(yī)生而不是醫(yī)療人工智能的診斷結(jié)果[4],消費(fèi)者更喜歡依靠朋友而不是計(jì)算機(jī)系統(tǒng)推薦的書籍、電影和音樂[5]。總而言之,在許多引入算法的預(yù)測(cè)和決策任務(wù)中,人們往往表現(xiàn)出更加信任和依靠人類而非算法判斷力的傾向。研究者將這種傾向稱之為“算法厭惡”,用以描繪人們對(duì)基于算法的人工智能產(chǎn)品的不信任傾向[6,7]。

        營(yíng)銷領(lǐng)域相關(guān)研究已經(jīng)發(fā)現(xiàn),算法厭惡降低了用戶對(duì)人工智能產(chǎn)品的接受意愿,這直接損害了用戶的滿意度、人工智能產(chǎn)品的發(fā)展和企業(yè)的收益率。對(duì)用戶而言,算法厭惡造成了他們?cè)陬A(yù)測(cè)和決策任務(wù)中忽視最優(yōu)選擇,這將帶來(lái)不理想的用戶體驗(yàn)[4]。對(duì)人工智能產(chǎn)品而言,算法厭惡使得這些產(chǎn)品失去了收集數(shù)據(jù)和人機(jī)互動(dòng)的機(jī)會(huì),這阻礙了基于數(shù)據(jù)和用戶反饋的產(chǎn)品優(yōu)化。對(duì)企業(yè)而言,算法厭惡導(dǎo)致人工智能產(chǎn)品帶來(lái)的收益難以覆蓋高昂的引入和運(yùn)營(yíng)成本[8]。因此,算法厭惡有可能為用戶、人工智能產(chǎn)品和企業(yè)帶來(lái)“三輸”的局面,而認(rèn)識(shí)和應(yīng)對(duì)算法厭惡已成為企業(yè)設(shè)計(jì)和推廣人工智能產(chǎn)品的重要內(nèi)容。

        然而,作為一個(gè)在2015年才被提出并得到證實(shí)的概念[6],算法厭惡仍然是營(yíng)銷領(lǐng)域中一個(gè)較新的主題。因此,當(dāng)前學(xué)者們?nèi)栽诜e極地從各種人工智能應(yīng)用場(chǎng)景(如預(yù)測(cè)、專業(yè)醫(yī)療、服務(wù)溝通和員工培訓(xùn))中揭示算法厭惡的現(xiàn)象,并分別提出對(duì)應(yīng)的解釋。例如,在專業(yè)醫(yī)療領(lǐng)域,病人出于獨(dú)特性忽視的顧慮而抗拒人工智能產(chǎn)品[4];在預(yù)測(cè)領(lǐng)域,消費(fèi)者出于情感和認(rèn)知上的不信任而排斥人工智能產(chǎn)品[9];在員工培訓(xùn)領(lǐng)域,員工出于溝通技能的不認(rèn)可而拒絕人工智能產(chǎn)品[10]。盡管這些研究均在各自的場(chǎng)景下描繪出了用戶對(duì)算法的主觀感受和理解,但就整體而言,尚未有研究揭示出算法厭惡的底層根源和形成機(jī)理,也由此大大限制了現(xiàn)有研究所提出的各個(gè)應(yīng)對(duì)策略的外部效度和實(shí)踐價(jià)值。因此,對(duì)已有文獻(xiàn)進(jìn)行詳盡地梳理,明確現(xiàn)有研究的局限并洞悉未來(lái)研究方向就顯得格外重要。

        本研究以“algorithm aversion”“algorithm”“artificial intelligence”等為檢索詞,對(duì)Web of Science 核心合集數(shù)據(jù)庫(kù)中2005年至今“business”“management”“psychology”和“information science”四大領(lǐng)域的核心論文進(jìn)行檢索;以同樣的英文關(guān)鍵詞在谷歌學(xué)術(shù)中收集相關(guān)的會(huì)議論文和工作論文;以“算法厭惡”“算法”“人工智能”為檢索詞對(duì)中國(guó)知網(wǎng)2005年至今CSSCI期刊論文進(jìn)行檢索。通過(guò)對(duì)以上中英文研究結(jié)論的回顧和梳理,本研究從算法厭惡的概念、測(cè)量、發(fā)生機(jī)制、應(yīng)對(duì)策略和理論基礎(chǔ)等角度進(jìn)行了系統(tǒng)性闡述。在此基礎(chǔ)之上,本研究進(jìn)一步指出現(xiàn)有研究不足,并從算法厭惡的邊界、根源、應(yīng)對(duì)策略和動(dòng)態(tài)變化方面分析了未來(lái)的研究前景。

        2 算法厭惡的概念和測(cè)量

        廣義而言,算法是指計(jì)算機(jī)執(zhí)行任務(wù)時(shí)可以遵循的一系列步驟,它涵蓋了任何基于證據(jù)的預(yù)測(cè)公式和規(guī)則,如統(tǒng)計(jì)模型、決策規(guī)則和所有其他可用于預(yù)測(cè)的程序。因此,人工智能產(chǎn)品是以適應(yīng)環(huán)境和主動(dòng)學(xué)習(xí)的智能化算法為核心,并且能夠代替人類執(zhí)行那些通常被認(rèn)為需要具備智能和自主決策能力才能完成任務(wù)的產(chǎn)品[8]。從20世紀(jì)50年代起,圍繞算法與人類之間關(guān)系的研究開始出現(xiàn)在科技史、社會(huì)學(xué)和心理學(xué)等不同領(lǐng)域。下文中首先回顧算法厭惡現(xiàn)象的發(fā)展,繼而根據(jù)相關(guān)研究的深入歸納出算法厭惡的狹義和廣義定義,最后梳理出實(shí)證研究中的測(cè)量方式。

        2.1 算法厭惡現(xiàn)象及其定義

        算法厭惡現(xiàn)象最早得到學(xué)界的注意源自MEEHL[11]的研究結(jié)論。他發(fā)現(xiàn)基于算法的統(tǒng)計(jì)判斷可以優(yōu)于醫(yī)學(xué)專家們的臨床判斷,但是專家們卻并不愿意相信這一點(diǎn)。簡(jiǎn)而言之,算法厭惡源自于人們對(duì)“算法優(yōu)于人類”這一研究結(jié)論的否定[12]。在此之后,其他領(lǐng)域的專家和學(xué)者也在一些研究中表露過(guò)對(duì)算法的懷疑[13, 14],這也意味著算法厭惡現(xiàn)象可能廣泛存在于運(yùn)用算法技術(shù)的各個(gè)場(chǎng)景中。

        雖然相關(guān)現(xiàn)象早已被注意到,但是直到2015年,DIETVORST等[6]才對(duì)算法厭惡給出了第一個(gè)狹義的概念定義,并在實(shí)證研究中證實(shí)了它的存在。他們指出,(狹義的)算法厭惡是指人們不情愿使用優(yōu)于人類但并不完美算法的傾向。當(dāng)人們看到算法出錯(cuò)后就會(huì)對(duì)算法快速失去信心,因此被試寧愿選擇水平較低的人類預(yù)測(cè)者也不愿意選擇算法。在這一定義下,對(duì)算法的消極體驗(yàn)至少(部分)導(dǎo)致了人們的算法厭惡傾向。然而,現(xiàn)實(shí)中人們時(shí)常在缺乏此類經(jīng)驗(yàn)的情況下懷疑算法的能力。例如,PETROPOULOS等[7]證實(shí)即使強(qiáng)調(diào)了智能算法的優(yōu)越性,缺乏經(jīng)驗(yàn)的被試仍然拒絕智能算法并支持他們自己的(錯(cuò)誤)判斷。針對(duì)前述狹義定義的局限性,LOGG等[8]提出了廣義的算法厭惡,并指出不管人們是否有過(guò)使用算法的經(jīng)驗(yàn),都會(huì)認(rèn)為算法的可信度低于人類。他們還指出,現(xiàn)有研究常常引用狹義算法厭惡的定義來(lái)表述廣義算法厭惡的內(nèi)涵。因此,從定義可以看出,狹義的算法厭惡是用戶對(duì)算法的自我改進(jìn)能力的否定,而不涉及他們對(duì)未使用過(guò)的算法的能力預(yù)判;廣義的算法厭惡是用戶對(duì)未使用過(guò)的算法的能力否定,而不涉及他們對(duì)算法的自我改進(jìn)能力的預(yù)判。雖然二者所涉及的研究情境不同,但是都指向用戶對(duì)算法智能化的學(xué)習(xí)和適應(yīng)能力的否定。

        2.2 算法厭惡的測(cè)量

        在已有文獻(xiàn)中,算法厭惡有直接和間接兩種測(cè)量方式。在狹義與廣義的定義中,算法厭惡都表現(xiàn)為人類不情愿使用或者不相信算法(或人工智能產(chǎn)品),因此基于這一概念,最為直接的測(cè)量方式就是詢問被試對(duì)算法或者人工智能產(chǎn)品的選擇(例如,你是想靠自己還是統(tǒng)計(jì)模型來(lái)預(yù)測(cè)學(xué)生在MBA項(xiàng)目中的績(jī)效表現(xiàn)?)[6]或態(tài)度(例如,你對(duì)算法有多信任?)[10]。此外,基于不同的實(shí)驗(yàn)情境,研究者們也提出了一些測(cè)量算法厭惡的間接形式。例如,在醫(yī)療情境中,測(cè)量被試對(duì)醫(yī)療人工智能的支付意愿、相對(duì)偏好和采納意愿[4];在員工培訓(xùn)情境中,測(cè)量人工智能教練對(duì)員工績(jī)效抑制效果[12];而在銷售情境中,測(cè)量人工智能客服對(duì)消費(fèi)者購(gòu)買率的負(fù)面影響[9]。

        3 算法厭惡的影響因素與發(fā)生機(jī)制

        隨著算法技術(shù)的創(chuàng)新和企業(yè)營(yíng)銷實(shí)踐手段的更新,消費(fèi)者在日常生活中對(duì)算法的理解、感受和體驗(yàn)也在不斷變化。學(xué)界已經(jīng)開始意識(shí)到,一方面,算法厭惡現(xiàn)象正在伴隨著算法技術(shù)在人們生活中的普及而越發(fā)廣泛;另一方面,由于算法的呈現(xiàn)形式和具體任務(wù)的多樣性,當(dāng)下用戶算法厭惡態(tài)度的形成是一個(gè)動(dòng)態(tài)復(fù)雜的過(guò)程。這也導(dǎo)致學(xué)者們目前仍然著力于在不同領(lǐng)域、不同任務(wù)環(huán)境、不同的算法形式的各個(gè)具體案例中,討論和挖掘不同形式的算法厭惡。因此,下文中將從算法屬性、任務(wù)類型和個(gè)體差異3個(gè)方面,對(duì)現(xiàn)有研究的相關(guān)結(jié)論進(jìn)行分類,從而梳理出現(xiàn)有研究已經(jīng)發(fā)現(xiàn)的算法厭惡的影響因素,再?gòu)乃惴ㄆ姍C(jī)制和人類偏愛機(jī)制兩大角度概括分析算法厭惡的發(fā)生機(jī)制。

        3.1 算法厭惡的影響因素

        通過(guò)對(duì)相關(guān)研究的梳理可知,算法厭惡的影響因素大致分為算法屬性、任務(wù)類型和個(gè)體差異3類。

        (1)算法屬性基于風(fēng)險(xiǎn)導(dǎo)向框架,算法的可預(yù)測(cè)性和錯(cuò)誤成本決定了人們對(duì)算法的信任和依賴程度[15]。這里可預(yù)測(cè)性是指算法的預(yù)測(cè)結(jié)果優(yōu)于隨機(jī)結(jié)果的程度;錯(cuò)誤成本指的是算法預(yù)測(cè)失敗所帶來(lái)的經(jīng)濟(jì)損失。低可預(yù)測(cè)性和高錯(cuò)誤成本會(huì)提高算法的使用風(fēng)險(xiǎn),這削弱了人們對(duì)算法的信任和依賴。此外,算法的擬人化程度、自主性、兼容度和復(fù)雜度等都會(huì)影響人們的算法厭惡傾向[16,17]。

        (2)任務(wù)類型面對(duì)主觀(vs. 客觀)的任務(wù),人們認(rèn)為算法的可信度和可靠程度更低[10, 18]。這里客觀性任務(wù)指的是包含可量化和可衡量的事實(shí)性任務(wù);而主觀性任務(wù)指的是可以被開放性解釋并基于個(gè)人觀點(diǎn)或直覺的任務(wù)。人們的刻板印象中認(rèn)為機(jī)器具有強(qiáng)大的認(rèn)知能力,而缺乏情感能力[19],因此,缺乏情感能力的算法難以勝任主觀任務(wù)[18]。此外,面對(duì)高創(chuàng)造性產(chǎn)品推薦(vs. 低創(chuàng)造產(chǎn)品推薦)任務(wù),和高象征性消費(fèi)任務(wù)(vs. 低象征性消費(fèi)任務(wù)),人們同樣認(rèn)為算法難以勝任[20,21]。

        (3)個(gè)體差異自我相關(guān)度和自我專業(yè)性會(huì)影響人們對(duì)算法的判斷[8]。已有研究指出,當(dāng)人們?cè)谒惴ü烙?jì)和他們自己估計(jì)之間做選擇,或者人們?cè)谀骋活A(yù)測(cè)方面具有專業(yè)知識(shí)時(shí),算法厭惡效應(yīng)顯現(xiàn)[8]。也就是說(shuō),面對(duì)自我與算法的選擇,人們選擇相信自己。并且,自我專業(yè)性也會(huì)提升人們的一般自信,進(jìn)而導(dǎo)致其非專業(yè)領(lǐng)域的過(guò)度自信[22]。此外,人們對(duì)算法的熟悉度、經(jīng)驗(yàn)、控制點(diǎn)和身份強(qiáng)度也會(huì)影響算法厭惡傾向[10,23,24]。

        3.2 算法厭惡的發(fā)生機(jī)制

        算法厭惡現(xiàn)象的早期非實(shí)證研究闡述了人們對(duì)算法的通俗認(rèn)知。通過(guò)對(duì)這些研究結(jié)論的歸納梳理可以發(fā)現(xiàn),算法厭惡的產(chǎn)生原因大致可分為人們對(duì)算法的偏見和對(duì)人類的偏愛。對(duì)算法的偏見而言,人們認(rèn)為算法無(wú)法學(xué)習(xí)進(jìn)步、不人性化[14]、不關(guān)注個(gè)體目標(biāo)、無(wú)法處理定性數(shù)據(jù)[25]、缺乏控制和使用動(dòng)機(jī)、缺乏道德倫理感,并奢望算法能提供完美的預(yù)測(cè)[2,14,26];而對(duì)人類的偏愛而言,人們了解人類提出建議的基本過(guò)程,有向?qū)Ψ教岢鰡栴}的機(jī)會(huì),能夠口頭傳達(dá)意見,可以提供決策的解釋,感覺更有信心,需要維持聲譽(yù),以及擁有關(guān)于未來(lái)事件的信息[27,28]。上述早期的開拓性研究為后續(xù)實(shí)證研究的開展指明了方向。通過(guò)對(duì)相關(guān)實(shí)證研究的梳理發(fā)現(xiàn),算法厭惡的確來(lái)自于人們對(duì)算法的偏見(如算法缺乏情感信任和認(rèn)知信任[10]),以及部分對(duì)人類的偏愛(如人有責(zé)任感[29]),本研究將其分別概括為算法偏見機(jī)制和人類偏愛機(jī)制。

        (1)算法偏見機(jī)制一些研究將算法厭惡的產(chǎn)生歸結(jié)于人們對(duì)于算法本身的錯(cuò)誤認(rèn)知和理解。DIETVORST等[6]證實(shí)了在學(xué)生成績(jī)預(yù)測(cè)任務(wù)中,當(dāng)算法和人類專家被發(fā)現(xiàn)犯下同樣的錯(cuò)誤時(shí),人們對(duì)算法的信心的降幅更為明顯。這是因?yàn)槿藗儾徽J(rèn)為算法能夠像人類一樣改善和優(yōu)化,這在引發(fā)算法厭惡中起著重要作用。在其他主觀性或個(gè)性化的預(yù)測(cè)領(lǐng)域中,人們一方面不理解其運(yùn)算過(guò)程、懷疑其運(yùn)算結(jié)果;另一方面,算法對(duì)人類身份的挑戰(zhàn)也讓人們感到不適,這都會(huì)導(dǎo)致人們并不依賴于算法的建議[5,10]。在個(gè)人的專業(yè)醫(yī)療領(lǐng)域中,人們不理解AI診斷過(guò)程,以及擔(dān)心它們對(duì)自身情況的獨(dú)特性忽視而排斥醫(yī)療人工智能產(chǎn)品[4,30]。在服務(wù)溝通和員工培訓(xùn)領(lǐng)域中,人們認(rèn)為AI產(chǎn)品缺乏共情能力、知識(shí)儲(chǔ)備和溝通技巧而拒絕使用這些產(chǎn)品[9,12](見表1)。

        表1 算法厭惡的發(fā)生機(jī)制:算法偏見機(jī)制(實(shí)證研究)

        (2)人類偏愛機(jī)制除了對(duì)算法技術(shù)的錯(cuò)誤認(rèn)知以外,人們對(duì)自身以及對(duì)人類的某些身份特性的重視和偏好也推動(dòng)了算法厭惡的產(chǎn)生。PROMBERGER等[29]指出在醫(yī)療領(lǐng)域,病人更愿意遵循來(lái)自醫(yī)生的建議,這是因?yàn)樗麄冇X得醫(yī)生更有責(zé)任感來(lái)幫他們分擔(dān)病痛。同樣是在醫(yī)療領(lǐng)域,CADARIO等[30]指出,人們不但不理解AI醫(yī)療診斷過(guò)程,還過(guò)度高估了自身對(duì)人類醫(yī)生診斷過(guò)程的理解程度。這種對(duì)醫(yī)生決策的可理解性來(lái)自于人們對(duì)同類決策過(guò)程自以為是的認(rèn)識(shí)[30]?;谧晕腋兄男睦砜衫斫庑缘娜祟惼珢?,也同樣存在于產(chǎn)品推薦領(lǐng)域。但是,人們實(shí)際上無(wú)法接觸到自己大腦的聯(lián)想機(jī)制,并且依賴啟發(fā)式處理來(lái)理解他人的決策[32]。最后,在容錯(cuò)率較高的預(yù)測(cè)領(lǐng)域(如電影推薦),信任產(chǎn)生于預(yù)測(cè)者與自己的相似性[33](見表2)。

        表2 算法厭惡的發(fā)生機(jī)制:對(duì)人類的偏愛(實(shí)證研究)

        4 算法厭惡的應(yīng)對(duì)策略

        現(xiàn)有研究主要聚焦于算法厭惡的影響因素和發(fā)生機(jī)制,少部分學(xué)者基于各自的算法厭惡發(fā)生情境提出或證實(shí)了相應(yīng)的應(yīng)對(duì)策略。因此,基于上文所述的3類算法厭惡影響因素,可以用算法設(shè)計(jì)策略、任務(wù)干預(yù)策略和消費(fèi)者教育策略,分別解決算法屬性問題、任務(wù)類型問題和個(gè)體差異問題。

        4.1 算法設(shè)計(jì)策略

        BURTON等[26]提出了具體的算法設(shè)計(jì)策略,來(lái)解決缺乏決策控制和缺乏激勵(lì)的問題。面對(duì)缺乏決策控制的原因,作者指出需要提升人們對(duì)算法的控制感,即在算法輔助設(shè)計(jì)中,允許人們對(duì)算法的決策過(guò)程進(jìn)行監(jiān)督,這樣能夠增加決策透明度和參與感;而面對(duì)缺乏激勵(lì)的問題,作者強(qiáng)調(diào)了行為設(shè)計(jì)的必要性,即設(shè)計(jì)助推程序來(lái)彌補(bǔ)人們使用算法的經(jīng)濟(jì)動(dòng)機(jī)和社會(huì)動(dòng)機(jī)不足。此外,在具體的算法應(yīng)用場(chǎng)景中,提升算法的可解釋性(如準(zhǔn)確性、穩(wěn)定性和因果性等)、情感相似性、個(gè)性化程度、診斷透明度(AI醫(yī)療診斷),以及人-機(jī)合作(AI教練和企業(yè)導(dǎo)師的合作)水平都被證明能夠有效地改善人們的算法厭惡傾向[4,10,12,30,33]。

        4.2 任務(wù)干預(yù)策略

        CASTELO等[10]研究發(fā)現(xiàn),消費(fèi)者信任算法執(zhí)行客觀性任務(wù),而不信任算法承擔(dān)主觀性任務(wù),提升任務(wù)的客觀性可以有效增加消費(fèi)對(duì)算法的信任度。由于大多數(shù)任務(wù)都包含或多或少的客觀性和主觀性,因此人們?nèi)绾卫斫夂团袛嗄骋蝗蝿?wù)的類型,也在一定程度上取決于該任務(wù)是如何被構(gòu)建、解釋和強(qiáng)調(diào)。此時(shí),提升任務(wù)的客觀性可以達(dá)到緩解算法厭惡的目的。此外,延遲披露AI的身份也是提高用戶使用意愿的重要手段[9],這一方法力圖使消費(fèi)者無(wú)法察覺AI的存在,從而盡量在消費(fèi)者能夠產(chǎn)生算法厭惡之前回避問題。

        4.3 消費(fèi)者教育策略

        由于算法厭惡通常源自人們對(duì)算法的錯(cuò)誤預(yù)期,因此一些提升人們的算法素養(yǎng)的方式也可以有效緩解算法厭惡的問題[26]。例如,通過(guò)進(jìn)行與算法技術(shù)相關(guān)的培訓(xùn),來(lái)幫助人們建立對(duì)統(tǒng)計(jì)誤差和不確定性等核心統(tǒng)計(jì)概念的認(rèn)識(shí);針對(duì)人們對(duì)專家的過(guò)度信任問題,可以向用戶指出他們對(duì)專家的理解錯(cuò)覺,以緩解其對(duì)算法的抵制[4];增加人們算法相關(guān)產(chǎn)品的使用經(jīng)驗(yàn),也能夠緩解算法厭惡的問題[9]。

        5 算法厭惡的理論解釋

        研究者們注意到,現(xiàn)實(shí)中的人工智能產(chǎn)品常采用擬人化設(shè)計(jì)和推廣方案,這讓人們誤以為智能算法就是“像人類一樣思考”[36]。然而,人們通常認(rèn)為包含認(rèn)知和情感能力的智能是人類所專屬的,算法難以具備這些能力來(lái)進(jìn)行思考[36]。因此,當(dāng)算法解決了那些被認(rèn)為只能由人類智力所解決的問題時(shí),人們就會(huì)對(duì)此感到不解和無(wú)法認(rèn)同[5]。這種將“人工智能”類比為“人類智能”的策略,不但挑戰(zhàn)了人們的固有認(rèn)知,還對(duì)人類身份的獨(dú)特性產(chǎn)生威脅,從而引發(fā)了消費(fèi)者的算法厭惡[24,37]。由此可見,現(xiàn)有研究中關(guān)于算法厭惡的主要理論解釋的根基,包括自我服務(wù)偏差理論、社會(huì)認(rèn)同理論和常人理論。

        5.1 自我服務(wù)偏差理論

        自我服務(wù)偏差理論認(rèn)為,當(dāng)人們加工與自我有關(guān)的信息時(shí),會(huì)出現(xiàn)一種潛在的偏見,也就是傾向于以有利自身的方式來(lái)進(jìn)行自我知覺[38]。例如,大多數(shù)人都認(rèn)為,相對(duì)于社會(huì)總體水平(或自己所屬群體的平均水平),自己的道德水平更高、更有工作能力、更友善和更聰明[39]。此外,當(dāng)人們拿自己和別人進(jìn)行比較時(shí),也常常覺得自己比他人更好,這也是自我服務(wù)偏差的一種體現(xiàn)[38]。

        根據(jù)自我服務(wù)偏差理論,在將自身與人工智能進(jìn)行比較時(shí),人們一般認(rèn)為自己或比人工智能優(yōu)秀,而人工智能產(chǎn)品擬人化特征則會(huì)進(jìn)一步強(qiáng)化人們的社會(huì)比較傾向。由于那些感知自我專業(yè)性水平(或與任務(wù)相關(guān)的能力)較強(qiáng)的個(gè)體,會(huì)在經(jīng)驗(yàn)、知識(shí)和自我效能感上有較強(qiáng)的感受,因此,這類消費(fèi)者會(huì)更加傾向于斷定自己的專業(yè)能力遠(yuǎn)遠(yuǎn)高于智能算法。此時(shí),若讓基于算法的人工智能產(chǎn)品在相關(guān)任務(wù)中代替或部分代替此類高專業(yè)性消費(fèi)者自身的判斷,則會(huì)使他們產(chǎn)生較高水平的感知自主性威脅[40]??偠灾捎谌藗冸y以接受算法所具備的“人工智能”超過(guò)自己的“人類智能”,從而誘發(fā)了算法厭惡的形成。

        5.2 社會(huì)認(rèn)同理論

        社會(huì)認(rèn)同理論認(rèn)為,人們從不同的群體成員身份中獲得意義和滿足感,為了維持群體成員的身份,個(gè)體會(huì)對(duì)其所屬群體內(nèi)的其他成員產(chǎn)生偏好,而對(duì)群體外成員產(chǎn)生排斥[41]。當(dāng)外部群體威脅到內(nèi)部群體的特殊性時(shí),他們會(huì)對(duì)產(chǎn)生威脅的外部群體做出負(fù)面反應(yīng)[41]。換句話說(shuō),人們傾向于認(rèn)為其內(nèi)部群體是獨(dú)一無(wú)二的,當(dāng)外部群體開始挑戰(zhàn)這種感知獨(dú)特性時(shí),他們會(huì)對(duì)外部群體產(chǎn)生負(fù)面評(píng)價(jià)和反饋[42]。

        根據(jù)社會(huì)認(rèn)同理論,在將專家或服務(wù)人員與人工智能產(chǎn)品比較時(shí),人們會(huì)把采用擬人化策略的人工智能產(chǎn)品類比成一個(gè)外群體的“新物種”來(lái)理解,從而將其與同屬于“人類”這一內(nèi)群體概念的專家或服務(wù)人員進(jìn)行社會(huì)比較。在這種基于社會(huì)身份視角的比較關(guān)系下,人工智能產(chǎn)品擬人化特征會(huì)進(jìn)一步強(qiáng)化人們的社會(huì)比較傾向。此時(shí),個(gè)體的獨(dú)特性直覺會(huì)讓他們天然地對(duì)外群體產(chǎn)生排斥。自我獨(dú)特性高的個(gè)體,在身份強(qiáng)度、社會(huì)比較傾向和獨(dú)特性需求上較高,若讓人工智能產(chǎn)品代替人類來(lái)為他們服務(wù),則會(huì)讓他們感覺不受重視,進(jìn)而誘發(fā)感知身份威脅[37]??偠灾?,由于人們不認(rèn)為人工智能產(chǎn)品能夠像人類自身一般對(duì)“獨(dú)一無(wú)二”的其他人類個(gè)體產(chǎn)生理解和共情,從而誘發(fā)算法厭惡的形成。

        5.3 常人理論

        常人理論是指外行人通常對(duì)自身所處社會(huì)和世界存在一種樸素的解釋,這種解釋被稱為“常人信念”。常人信念會(huì)使個(gè)體在心理上形成一個(gè)穩(wěn)固、有意義的系統(tǒng),從而降低個(gè)體的認(rèn)知不確定性,增加掌控感,并幫助他們以有效的方式來(lái)解釋和預(yù)測(cè)自身所處的環(huán)境[43]。常人信念主要來(lái)自于個(gè)人經(jīng)驗(yàn)和間接的環(huán)境體驗(yàn)。

        基于常人理論,人們一般認(rèn)為算法在推薦實(shí)用品時(shí)比人類推薦更準(zhǔn)確,而算法推薦享樂品時(shí)則要低于人類推薦的準(zhǔn)確性[18]。這是因?yàn)閷?shí)用品的屬性具有較高的客觀性,人們傾向于認(rèn)為,算法推薦在解決客觀性強(qiáng)的問題時(shí)會(huì)比人類更加準(zhǔn)確、穩(wěn)健和低成本;然而,由于享樂品的屬性具有較高的主觀性,因此人們通常認(rèn)為享樂品推薦需要與個(gè)體的獨(dú)特偏好相匹配,而且這是算法所不具備的能力,從而不信任算法的推薦結(jié)果。總而言之,人們通常會(huì)認(rèn)為算法無(wú)法理解個(gè)人偏好和處理主觀任務(wù),這誘發(fā)了算法厭惡的形成。

        6 未來(lái)研究展望

        算法厭惡的相關(guān)研究最早起源于20世紀(jì)50年代的“人-機(jī)協(xié)同”問題,并隨后在管理學(xué)、心理學(xué)和傳播學(xué)等多個(gè)領(lǐng)域得到一定程度的討論,但在產(chǎn)品與服務(wù)營(yíng)銷領(lǐng)域相關(guān)的研究卻仍然十分有限。未來(lái)研究可以進(jìn)一步從以下幾個(gè)方面加以展開。

        6.1 算法厭惡的邊界條件探究

        盡管現(xiàn)有大量研究可以證實(shí),人們通常對(duì)那些預(yù)測(cè)能力優(yōu)于他們的算法持懷疑態(tài)度;但是近期研究指出,這種算法厭惡的出現(xiàn)可能存在一定的邊界條件,并且存在算法欣賞現(xiàn)象。LOGG等[8]提出并驗(yàn)證了算法欣賞現(xiàn)象,也就是當(dāng)人們認(rèn)為自己的能力水平明顯不能勝任某一項(xiàng)預(yù)測(cè)任務(wù)時(shí),作為外行的他們會(huì)更傾向于來(lái)自算法而不是其他人的推薦。此外,算法欣賞也會(huì)出現(xiàn)在定價(jià)領(lǐng)域,宋曉兵等[44]的研究指出當(dāng)面對(duì)差別定價(jià),消費(fèi)者會(huì)認(rèn)為人工智能定價(jià)比銷售人員定價(jià)更加公正和公平。因此,上述研究所產(chǎn)生的結(jié)論似乎表明,產(chǎn)品類型和任務(wù)視角的組合有可能構(gòu)成發(fā)生算法厭惡的邊界條件[35]。

        (1)基于人工智能產(chǎn)品類別的劃分現(xiàn)有研究多針對(duì)不同的算法應(yīng)用場(chǎng)景,分別提出各自的算法厭惡影響因素和發(fā)生機(jī)制。換言之,這些研究對(duì)于人工智能產(chǎn)品的選擇是高度具體化和場(chǎng)景化的。綜合來(lái)看,盡管此類研究已經(jīng)確認(rèn)人們對(duì)不同類別的人工智能產(chǎn)品存在不同的評(píng)判和比較標(biāo)準(zhǔn),但是研究者們卻未能厘清“算法產(chǎn)品的類別屬性在影響和塑造人們對(duì)算法的感受中的作用”這一問題。該問題是算法厭惡發(fā)生機(jī)制的核心,也是各種算法厭惡解釋中的潛在共性。因此,未來(lái)研究應(yīng)考慮進(jìn)一步探究人工智能產(chǎn)品的專業(yè)性、擬人性和可比較性等產(chǎn)品屬性在算法厭惡產(chǎn)生過(guò)程中的潛在影響,從而力圖依據(jù)算法應(yīng)用的分類條件探索整合現(xiàn)有的相關(guān)研究解釋。

        (2)基于任務(wù)視角的劃分圍繞算法厭惡現(xiàn)有實(shí)證研究通常使用的是同一種任務(wù)情境,即:被試需要選擇是依靠算法還是人類(既包括自己,也可能是作為第三方的他人)為自己的決策提供建議。與此相對(duì)應(yīng),算法厭惡的實(shí)驗(yàn)情境也可以設(shè)置為,被試需要選擇是依靠算法還是人類(既包括自己,也可能是作為第三方的他人)為他人的決策提供建議。顯而易見,上述兩種有算法參與的任務(wù)情境中,被試的角色視角發(fā)生了明顯的變化:在前一種條件下,被試處于該決策任務(wù)的第一人稱視角,即被試本人就是需要做出與建議相關(guān)的最終決策的負(fù)責(zé)人;而在后一種條件下,被試則處于該決策任務(wù)的第三人稱視角,即被試本人不需要承擔(dān)與建議相關(guān)的最終決策的責(zé)任。因此可以認(rèn)為,這種任務(wù)視角上的顯著差異也有可能會(huì)影響算法厭惡的發(fā)生,而現(xiàn)有的研究還未探究任務(wù)情境對(duì)算法厭惡產(chǎn)生的影響。因此,未來(lái)研究可以進(jìn)一步探究為他人決策的情境是否可能會(huì)降低算法厭惡效應(yīng),這可能是因?yàn)槿藗冊(cè)跒樗俗鰶Q策時(shí)更少的個(gè)人代入感,更關(guān)注潛在的收益而不是風(fēng)險(xiǎn)和自我貶低。

        6.2 算法厭惡的心理根源挖掘

        現(xiàn)有研究揭示了算法厭惡現(xiàn)象普遍存在于各種人工智能應(yīng)用場(chǎng)景(如預(yù)測(cè)、專業(yè)醫(yī)療、服務(wù)溝通和員工培訓(xùn)),并分別從消費(fèi)者對(duì)算法的偏見或?qū)θ祟惖钠珢劢嵌?,提出或?yàn)證了可能的發(fā)生機(jī)制[4,9,30]。盡管這些研究證實(shí)并解釋了面向不同類別產(chǎn)品的算法厭惡現(xiàn)象,但是還未抓住現(xiàn)象背后的底層根源和形成機(jī)理。

        對(duì)算法的偏見和對(duì)人類的偏愛可能都起源于人類以自我為中心的思維傾向,即消費(fèi)者在評(píng)判人工智能產(chǎn)品時(shí)以自我為中心的評(píng)價(jià)傾向,它讓人們排斥那些可能讓他們感到自我認(rèn)知和身份被挑戰(zhàn)的算法和人工智能產(chǎn)品。企業(yè)在產(chǎn)品設(shè)計(jì)中通常大量引入擬人化特征(包括外形、語(yǔ)言、思維和情感),希望促使消費(fèi)者傾向于將人工智能產(chǎn)品當(dāng)成一個(gè)人來(lái)對(duì)待。雖然對(duì)人工智能產(chǎn)品進(jìn)行擬人化設(shè)計(jì)和推廣有助于消費(fèi)者理解產(chǎn)品的功能性價(jià)值,但也容易導(dǎo)致相關(guān)產(chǎn)品在人們的認(rèn)知中被歸入一種“似人非人”的狀態(tài),從而進(jìn)一步激發(fā)人們與這個(gè)新物種進(jìn)行比較的傾向。由此可見,消費(fèi)者在評(píng)判人工智能產(chǎn)品時(shí)會(huì)受到自我為中心思維的影響和制約。換言之,“算法在能力上優(yōu)于人類”和“算法認(rèn)知和身份上模擬人類”可能構(gòu)成了對(duì)人們的自我中心思維的雙重挑戰(zhàn),并因此導(dǎo)致人們產(chǎn)生對(duì)算法和人工智能產(chǎn)品的消極態(tài)度?;诖?,未來(lái)的研究可以進(jìn)一步探究自我的專業(yè)性、獨(dú)特性、身份強(qiáng)度和效能感等對(duì)算法厭惡的核心影響。

        6.3 算法厭惡的應(yīng)對(duì)策略研究

        現(xiàn)有研究針對(duì)不同的人工智能應(yīng)用場(chǎng)景分別提出了對(duì)應(yīng)的應(yīng)對(duì)策略[10,31]。然而,由于當(dāng)前學(xué)術(shù)界尚未就算法厭惡這一普遍現(xiàn)象的底層根源和形成機(jī)理形成統(tǒng)一的認(rèn)識(shí),這極大限制了已有應(yīng)對(duì)策略的實(shí)踐價(jià)值。由此可見,未來(lái)研究可以從前文所綜述的算法厭惡的發(fā)生機(jī)制、理論解釋、心理根源等角度出發(fā),嘗試提出具有更廣實(shí)踐意義的整合性應(yīng)對(duì)策略框架。例如,根據(jù)社會(huì)認(rèn)同理論,從消費(fèi)者的角度來(lái)看,那些更加基于自我中心思維進(jìn)行思考且自尊水平較低的個(gè)體,更容易傾向于認(rèn)為算法挑戰(zhàn)了其固有認(rèn)知和獨(dú)特身份。這將激發(fā)消費(fèi)者自我維護(hù)或保護(hù)性的傾向,從而對(duì)算法和相關(guān)產(chǎn)品產(chǎn)生抵制或不信任感。針對(duì)這樣的情境,幫助消費(fèi)者進(jìn)行自我能力強(qiáng)化、自我身份強(qiáng)化和自我價(jià)值強(qiáng)化,或許可以作為緩解算法厭惡的一種較為有效的應(yīng)對(duì)方式。

        6.4 算法厭惡的動(dòng)態(tài)演化研究

        常人理論指出,人們對(duì)算法的認(rèn)識(shí)和感知,包括厭惡感,應(yīng)當(dāng)是伴隨著其個(gè)體經(jīng)驗(yàn)和環(huán)境的改變而動(dòng)態(tài)變化的。由于導(dǎo)致算法厭惡的常人信念根植于消費(fèi)者真實(shí)的體驗(yàn)和當(dāng)下的文化氛圍,因此當(dāng)消費(fèi)者切實(shí)體會(huì)到了人工智能產(chǎn)品的好處,以及經(jīng)歷過(guò)營(yíng)銷人員持續(xù)不斷地知識(shí)普及和產(chǎn)品推廣后,他們對(duì)算法的認(rèn)知和感受也可能發(fā)生改變。隨著“人類-算法”接觸的日益頻繁,算法所嵌入的行業(yè)或社會(huì)環(huán)境也將發(fā)生改變,并反映到人們對(duì)算法的認(rèn)識(shí)和感知之中。長(zhǎng)期來(lái)看,未來(lái)人類社會(huì)必將逐步形成一種新的且更加有利于算法融入人類生活的“常人信念”?;诖?,未來(lái)的研究可以進(jìn)一步探究在不同社會(huì)經(jīng)濟(jì)文化背景、算法在同一時(shí)期的不同領(lǐng)域的應(yīng)用普及度,以及算法在同一領(lǐng)域內(nèi)不同時(shí)期的應(yīng)用普及度等環(huán)境因素的影響下,有關(guān)算法的“常人信念”的動(dòng)態(tài)變化過(guò)程,并力圖將其與相關(guān)領(lǐng)域范圍內(nèi)的算法厭惡現(xiàn)象的發(fā)生和演化過(guò)程聯(lián)系起來(lái)。

        猜你喜歡
        人工智能人類產(chǎn)品
        人類能否一覺到未來(lái)?
        人類第一殺手
        1100億個(gè)人類的清明
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        人類正在消滅自然
        奧秘(2015年2期)2015-09-10 07:22:44
        2015產(chǎn)品LOOKBOOK直擊
        Coco薇(2015年1期)2015-08-13 02:23:50
        新產(chǎn)品
        玩具(2009年10期)2009-11-04 02:33:14
        国产办公室沙发系列高清| 欧美成人a视频免费专区| 亚洲综合伦理| 国产亚洲精品综合在线网站| 麻豆资源在线观看视频| 久精品国产欧美亚洲色aⅴ大片| 久久久国产一区二区三区四区小说| 欧美日韩免费一区中文字幕| 亚洲精品中文字幕乱码3| 久久久久亚洲av成人人电影| 97久久超碰国产精品旧版| 精品国产aⅴ无码一区二区| 亚洲精品成人片在线观看| 日韩av在线不卡一区二区三区| 日本在线观看一区二区视频| 一区二区三区精品免费| 国产乱对白刺激视频| 性激烈的欧美三级视频| 国产精品久久久久免费a∨| 久久精品国产亚洲AⅤ无码剧情| 日本一区二区三区精品不卡| 亚洲一区二区三区偷拍女| 日本熟妇人妻xxxx| 久久不见久久见中文字幕免费 | 日本少妇一区二区三区四区| 伊人久久大香线蕉av不卡| 国产精品福利影院| 日韩毛片久久91| 日本在线观看一区二区视频| 成人免费播放视频777777| 又爽又黄又无遮挡的视频| 欧美一欧美一区二三区性| 日韩精品综合在线视频| 国产自国产自愉自愉免费24区| 越南女子杂交内射bbwbbw| 国产乱色国产精品免费视频| 极品美女销魂一区二区三| 视频国产自拍在线观看| 99久久精品免费观看国产| 男女18禁啪啪无遮挡| 97SE亚洲国产综合自在线不卡|