王秀麗, 羅龍翔, 王 兵
(1. 北京大學 新媒體研究院, 北京 100871; 2. 清華大學 新聞與傳播學院, 北京 100084)
人工智能(Artificial Intelligence,AI)具備主導技術發(fā)展和推動社會形態(tài)轉(zhuǎn)變的基本潛質(zhì)[1],并成為政府治理變革的深刻動因[2]。如今,數(shù)字化、網(wǎng)絡化和智能化進程加速融合,標志著人類社會已全面進入數(shù)字時代,這為現(xiàn)有的社會治理方式帶來諸多挑戰(zhàn)。
對技術及其產(chǎn)生的社會問題進行治理是現(xiàn)代國家權力實踐的重要表現(xiàn),而現(xiàn)代國家是在街頭、窗口、辦公室等具體的生活場景中而非抽象層面開展技術治理活動[3]。這就要求研究者回歸日常生活圖景,去了解人工智能產(chǎn)品或機器所帶來的實際問題,從更具細節(jié)性的角度去把握數(shù)字化時代的社會治理。
在諸多有代表性的人工智能技術產(chǎn)品中,智能音箱(Smart Speaker)已廣泛進入人們的日常生活[4]。智能音箱可以滿足用戶對音樂播放、語音搜索和在線購物等多樣化的使用需求,許多用戶也對智能音箱有較高的使用頻率[5]。這為研究者深入日常生活的具體場景探索人工智能產(chǎn)品使用風險及其社會治理提供了良好契機。筆者以此為切入口,旨在探索用戶在智能音箱使用過程中面臨的風險,并對人工智能時代的社會治理問題進行探討。
從研究主旨出發(fā),下文對人工智能產(chǎn)品的使用、風險、治理等方面進行文獻回顧,并提出研究問題。
國內(nèi)外有關人工智能產(chǎn)品使用的相關研究,可以從客觀經(jīng)驗主義、詮釋經(jīng)驗主義和哲學思辨三個研究范式進行概括[6]。
在客觀經(jīng)驗主義范式下,許多學者遵循人機交互(Human-Computer Interaction,HCI)的路徑并聚焦于技術層面,主要探討如何使用戶與包括智能音箱在內(nèi)的各類人工智能產(chǎn)品在交互時更具友好性(User-friendly)[7]。
在詮釋經(jīng)驗主義范式下,國內(nèi)外研究者主要關注技術產(chǎn)品融入日常生活后的政治或文化意義。在較有代表性的文獻中,英國學者Silverstone和Hirsch[8]闡明了用戶“馴化”(Domestication)電子媒介的方法及其文化意義;澳大利亞學者McQuire[9]則關注攝影、電影和數(shù)字媒介等技術在當代城市空間動態(tài)生產(chǎn)中的作用,以及都市如何在這種作用下變?yōu)橐环N“媒介—建筑復合體”(Media-Architecture Complex);中國研究者也發(fā)現(xiàn)智能音箱在用戶日常生活中多扮演“黃昏和入夜時分的客廳音樂播放器”角色[5]以及智能音箱使用行為如何“挪移”(Dislocate)用戶“在家”的地方性體驗[10]。
哲學思辨角度下的人工智能產(chǎn)品使用包括許多本體論(Ontological)、認識論(Epistemological)和方法論(Methodological)[5]等層面的議題[6]。其中,國內(nèi)外學者爭論較多的話題包括機器對社會道德帶來的挑戰(zhàn)、人與機器(人)間的情感和人與機器(人)間的“主體邊界”等“機器人倫理學”(Roboethics)問題[11-12]。
自1811年3月“盧德運動”(Luddite Movement)爆發(fā)以來,人類對機器風險問題的討論已有200多年 歷史。若將1956年群星閃耀的“達特茅斯會議”視作現(xiàn)代意義上人工智能相關問題討論的開端,各界對人工智能風險問題的思考也已不計其數(shù)。在從弱人工智能(Weak AI)向超人工智能(Super AI)發(fā)展的光譜上,人工智能技術會帶來技術開發(fā)、技術應用、技術倫理等不同面向上的風險。其中,學界討論較多的話題包括算法歧視、隱私威脅、失業(yè)風險、社會安全和技術倫理等問題[13]。
探討技術帶來的風險符合現(xiàn)代國家治理的自然邏輯,國內(nèi)外已有不少學者從信息科學、傳播學、法學、社會學、管理學和哲學等不同學科出發(fā),為治理這些技術風險建言獻策。例如,從信息科學和技術倫理的角度出發(fā),技術開發(fā)者可以通過優(yōu)化算法“打標簽”的功能來避免對特定主體“算法身份”的刻板印象和歧視[14-15]。又如,從傳播學和法學的角度來看,研究者們需在辨析隱私概念[16]的基礎上,明確人工智能或媒介技術隱私侵犯的不同表現(xiàn)形式[17],并探討如何規(guī)避技術帶來的隱私威脅。再如,在社會學和管理學的視閾下,現(xiàn)代國家可通過推動產(chǎn)學研一體化發(fā)展、營造良好人才環(huán)境和開展前瞻性培訓等方式[18],來應對勞動力市場已經(jīng)出現(xiàn)的就業(yè)極化(Job Polarization)現(xiàn)象[19-20]。總體來看,這些文獻對人工智能技術風險的不同側(cè)面都有所關注,對數(shù)字化時代政府的社會治理革新也具有較高的參考價值。
目前,國內(nèi)外聚焦智能音箱使用的文獻主要包括三個方面:用戶的采納意愿研究、使用行為研究以及筆者重點關注的倫理和風險研究。
在用戶采納意愿和使用行為方面,已有不少學者基于技術接受模型(Technology Acceptance Model,TAM),探討感知易用性、感知有用性和感知風險等因素對用戶智能音箱的接納與使用的影響[21]。
更具體地,在智能音箱的使用風險方面,既有研究總結(jié)出包括聲控安全性問題、監(jiān)聽、信息泄露以及兒童使用安全等在內(nèi)的諸多問題[22-23]。其中,由于智能音箱會記錄人們的對話并傳向云端,第三方服務商也可以輕而易舉地與智能音箱進行連接,用戶可能在不知情的情況下泄漏自己的數(shù)據(jù)并被非法使用[24],隱私風險被認為是智能音箱使用過程中最主要的風險[25],也是影響用戶使用智能音箱的重要因素[26]。同時,現(xiàn)有研究也表明,不同用戶對人工智能技術的了解程度不同,且大多數(shù)用戶對智能音箱獲取及存儲信息的機制不甚清楚[27],因此,許多用戶在日常使用中無法準確感知和評估智能音箱可能會帶來的風險[28]。
綜合來看,國內(nèi)外與筆者研究關聯(lián)性較強的成果不僅數(shù)量繁多,而且觸角甚廣。這些成果雖然對于技術發(fā)展背景下的社會治理變革頗具啟發(fā),但也普遍存在一些不足:首先,在研究視角上,現(xiàn)有研究多采納宏觀視角來分析人工智能技術與社會變遷等問題,對技術在日常生活中的微觀影響關注不足。其次,在研究方法上,相關文獻多站在“外部”立場,或采用量化數(shù)據(jù)驗證變量間關系,或采用純理論的方式來總結(jié)得失,對用戶使用智能產(chǎn)品時的自覺性體驗的探討不夠深入。最后,在研究背景上,現(xiàn)有研究中從中國語境出發(fā),關注智能音箱使用及其風險的經(jīng)驗研究較少。
因此,筆者從微觀的用戶視角出發(fā),關注“隱匿在日常生活中的人與技術互動的精妙細節(jié)”[5],來探討人工智能技術進入復雜社會實踐領域時如何找到“自身的生命”[29],進而基于這些規(guī)律來回應研究主旨。具體來說,筆者基于對以下兩個研究問題的討論來探究人工智能時代的社會治理:
問題1:用戶在使用智能音箱時的風險感知是怎樣的?
問題2:用戶采取了哪些措施來規(guī)避或應對這些風險?
筆者采用半結(jié)構(gòu)式深度訪談法收集數(shù)據(jù),并對資料進行質(zhì)化的主題分析(Thematic Analysis)。以北京大學社會化媒體研究中心的“人機傳播系列研究”項目為依托,研究人員于2019年11月—2020年9月,綜合面對面、電話、微信語音等方式,分別對42名 智能音箱用戶進行了平均時長約40分鐘的訪談。雖然深度訪談法并不是研究風險問題的最佳選擇,但考慮筆者是從微觀視角出發(fā)探討用戶的風險感知及其相應的治理措施,深度訪談能夠通過與用戶的直接互動了解其對風險的感知和態(tài)度及其背后的深層動因,從而較好地回答筆者研究的兩個問題。
訪談人數(shù)的確定與訪談過程遵循“信息飽和原則”,即以獲得特定信息時為起始,直至不再獲得新的重要內(nèi)容時為停止[30]。最終整理出的訪談稿約15萬字。訪談問題涉及用戶智能音箱使用的多個主要方面,表1為與兩個研究問題相關的具體問項。
表1 研究問題與具體問項(示例)
在整理訪談稿的同時,筆者對訪談對象的人口統(tǒng)計學信息進行了統(tǒng)計,如表2所示。由于訪談對象包括普通大眾用戶和從事信息科技相關職業(yè)的專業(yè)用戶,為方便后續(xù)討論,筆者進一步將用戶組別劃分為普通用戶(N=27)和專業(yè)用戶(N=15)兩類。
表2 被訪談對象人口統(tǒng)計學信息
續(xù)表2
下文主要從兩個方面來展示研究結(jié)果以回應研究問題。
從整體上看,僅不到10%的被訪用戶表示自己在使用智能音箱時未感受到風險,且這部分用戶均為普通用戶。未感受到風險的原因是多方面的:首先,部分用戶基于“認知缺失”而忽視風險的存在。例如,PT25表示,自己“是技術樂觀主義者”“不知道使用智能音箱會存在什么風險”。其次,也有一些用戶因為自身的使用行為特征而不在意風險問題。例如,較年輕的PT27表示:“自己不會和智能音箱聊什么涉及隱私和深度的話題……心情也比較放松……所以沒怎么擔心過(風險)?!庇秩?,年齡最大的PT19表示,因為自己“沒有使用太多(智能音箱的)功能,所以沒有往那方面(即可能存在風險方面)想”。再次,有用戶基于對商家的信任而忽視了風險。例如,PT24表示:“如果使用產(chǎn)品有什么風險的話,廠家應該會告知(我們相關的情況)吧?!弊詈?,部分用戶選擇忽視風險。例如,PT07表示對使用智能音箱時的風險“無所謂”;而年齡最小的PT21則向調(diào)查員表示:“我一開始有想過可能會有泄露隱私和監(jiān)聽的風險……用著用著就覺得挺好的……習慣了就不怎么關注風險了。”
基于訪談和主題分析結(jié)果,用戶在使用智能音箱時所面臨的風險可以歸納為內(nèi)容風險、隱私風險和財產(chǎn)風險三大類。與孩子同住的用戶著重向調(diào)查員表示智能音箱會播放“邪典”(Cult)或暴力內(nèi)容,并表達對這類內(nèi)容的擔憂。例如,PT03告訴調(diào)查員:“我要智能音箱給女兒講一個故事,智能音箱播放了一個恐怖還很血腥的破案故事,結(jié)果孩子做了一晚上的噩夢?!庇秩纾琙Y15在分享與弟弟一起使用智能音箱的經(jīng)歷時說:“我弟會跟著智能音箱的內(nèi)容說臟話和一些不著調(diào)的話……他才7歲,剛開始長大……智能音箱成為了他‘模仿’的一個對象?!贝送猓琍T28還與研究者分享了一個來自國外的案例:“亞馬遜公司的智能音箱給一個孩子講鬼故事……他的家長氣炸了……我后來也去聽了一下(那個故事),真是瘆得慌?!辈贿^,用戶均表示沒有在使用智能音箱時碰到色情等偏成人化類型的內(nèi)容。
訪談中,隱私風險是大多數(shù)用戶在使用智能音箱時實際感知到的風險,但風險的程度及其類型不盡相同。一方面,一些用戶(如PT01,PT02,PT16,PT20,PT25和PT26)由于媒體宣傳或生活經(jīng)驗,表示對隱私風險有一定的擔憂,但沒有具體的感受或者“不知道該擔心些什么(即不知道智能音箱使用行為會如何侵犯隱私)”。另一方面,還有部分用戶(如ZY07,ZY08,ZY09和ZY10)則表達出對隱私風險的極度關切。
進一步來看,用戶在智能音箱的使用過程中,對隱私風險的感受重點也有所不同。有用戶表示,自己在消費層面的“用戶畫像”被智能音箱廠商“精準刻畫”,即在播放內(nèi)容時會“插入軟廣”(如PT04和ZY15)。也有一些用戶(如PT17,PT23和ZY02)表示,智能音箱實時“監(jiān)聽了自己”(如ZY07)。較為了解智能音箱的業(yè)內(nèi)用戶表示,“語音監(jiān)聽是所有互聯(lián)網(wǎng)智能設備的共同弊病”(如ZY11)。使用視頻智能音箱的用戶則表示,智能音箱“會偷偷錄像,不太敢在攝像頭面前換衣服” (如ZY09),畢竟“技術上想實現(xiàn)(監(jiān)視)很簡單”(如ZY10)。
財產(chǎn)風險也是一些用戶感受較深的智能音箱使用風險。許多智能音箱都具有在線購物功能,需要和用戶的支付賬戶進行連接,且生產(chǎn)商也與不同網(wǎng)絡購物或消費平臺有合作關系,因此“在(用智能音箱)訂外賣的時候會擔心自己綁定的銀行卡被盜用……畢竟這個(信息傳輸)鏈條經(jīng)過好幾個環(huán)節(jié)”(如ZY06)。因為聽說過相關的負面新聞,所以有用戶“根本不用”智能音箱的購物或充值功能(如ZY04和ZY12)。此外,不少用戶(如PT03,PT07,PT09,ZY0和ZY15)還提到,由于與非視頻智能音箱交互的方式非可視化,因此在使用中感受到了更多的不安和更大的不確定性。
在如何規(guī)避和治理智能音箱的使用風險這一問題上,用戶多寄希望于商業(yè)公司與政府,鮮有用戶主動提及自身可以采取哪些措施。僅有的一些回答包括“要談一些事可以出去談或者拔掉(智能音箱的)插頭”(如PT28)、“知道你要(讓智能音箱)干什么,除此之外不要多說”(如ZY06)和“有意識地保護好銀行卡和金融信息”(如ZY13)。當然,多數(shù)受訪者無法從自身角度提出規(guī)避措施,在一定程度上也透露出用戶“(面對風險)不知道能做什么和沒辦法”(如ZY08)的尷尬境遇。
在商業(yè)公司層面,不少用戶期望智能音箱生產(chǎn)企業(yè)強化自律,加強道德和責任建設以及精進業(yè)務能力。例如,有用戶明確表示,無論是內(nèi)容風險、隱私風險和財產(chǎn)風險,“歸根結(jié)底還是企業(yè)的道德問題”(如ZY09),同時相關企業(yè)也應該“管控好后臺”(如ZY03),面對商業(yè)誘惑時“要自覺,不能拿用戶數(shù)據(jù)去干違法亂紀的事情”(如ZY08),因為“一些大型技術公司已經(jīng)具備社會生活基礎設施屬性,能力越大,責任也越大”(如ZY15)。也有用戶表示,相關企業(yè)應該著重進行優(yōu)質(zhì)內(nèi)容建設,因為無論是“出于商業(yè)利益還是社會利益,內(nèi)容永遠是第一位的”(如PT20和ZY03),且就兒童而言,智能音箱廠家可以開發(fā)一個“兒童模式”來幫助家長和兒童篩選內(nèi)容(如PT02)。此外,還有用戶表示,“可視化是很重要的,能看見支付過程的話會更安心,現(xiàn)在已經(jīng)有一些視頻智能音箱了,未來要做得更好”(如ZY10)。
多數(shù)用戶表示政府對智能音箱等產(chǎn)品的使用過程進行監(jiān)管是“必要的”,但是至于該如何做,許多用戶除了說“加強監(jiān)管”之外,沒有給出明確答復。從事相關領域教學活動的專業(yè)用戶認為,中國對智能產(chǎn)品使用的法律監(jiān)管“沒有那么嚴格,制度約束力很低”(如ZY10);另有用戶的建議則相對明確,即“進一步(細化)公司供應內(nèi)容和搜集數(shù)據(jù)時的權利和義務是一種可嘗試的辦法,如果用戶遭遇了風險,也可以要求企業(yè)提供智能音箱交互的后臺數(shù)據(jù),依據(jù)這些數(shù)據(jù)文本和法律來判案”(如ZY15)。
通過對研究結(jié)果的分析可知,不論是從智能音箱自身的技術特征,還是從用戶的日常使用風險感知來考察,對以智能音箱為代表的人工智能產(chǎn)品所帶來的使用風險進行治理都存在極大的不確定性。因此,如何治理這些關切用戶日常生活利益的內(nèi)容、隱私、財產(chǎn)等方面的風險,已經(jīng)成為數(shù)字化時代必須回應的問題。
研究中,除部分專業(yè)用戶外,其他大部分用戶對于使用智能音箱的風險感知并不清晰,在強調(diào)個體自主性和技術產(chǎn)品可能被異化成“全景監(jiān)控體系”[31]和商業(yè)意識形態(tài)的精巧工具時,使用技術產(chǎn)品時缺乏自覺的情況尤其值得警醒。長久以來,智能音箱等人工智能產(chǎn)品和技術的進步,在相當大的程度上凝聚著社會個體對智慧生活的美好想象,而對技術進步與技術賦權的闡釋[32],更是從底層邏輯上解釋了實現(xiàn)這種美好生活的路徑。然而,技術賦權并不代表技術能夠天然地賦予誰權力,它更強調(diào)被賦權者在技術狂飆突進時的自覺、自醒、理性與擔當[33]?,F(xiàn)代化不僅是技術和經(jīng)濟發(fā)展的過程,人的現(xiàn)代化也是現(xiàn)代化進程的一個重要方面[34]。面對數(shù)字時代技術產(chǎn)品可能帶來的使用風險,深入了解和切實提升數(shù)字素養(yǎng)是當下對每一位數(shù)字居民或智能產(chǎn)品用戶的必然要求。
具體來看,數(shù)字素養(yǎng)并非一個抽象概念,它既包含對數(shù)字技術及產(chǎn)品的意識,也包含使用數(shù)字技術與產(chǎn)品的能力[35]。在數(shù)字化時代的日常生活中,作為治理風險的重要主體之一,每一個人工智能產(chǎn)品用戶都需明確技術及使用技術的重要性,并不斷提升使用技術產(chǎn)品的能力[36],結(jié)合每一次獲取、評估和鑒別信息以及使用技術產(chǎn)品的過程[37],切實提高自身的數(shù)字素養(yǎng)以規(guī)避相應風險。
智能音箱等人工智能產(chǎn)品的生產(chǎn)商絕大多數(shù)為具有平臺屬性的大型科技公司,并且均有極大的動力來促使買方多屬(Multi-homing)向買方單屬轉(zhuǎn)變[38]。換言之,人工智能產(chǎn)品的生產(chǎn)商會采取不同措施,以尋求將用戶與自家產(chǎn)品而非對家產(chǎn)品牢牢綁定在一起。通過研究訪談可知,“后臺監(jiān)聽”用戶數(shù)據(jù)是許多智能設備生產(chǎn)商普遍使用的“灰色手段”,這些手段往往“以獲取數(shù)據(jù)來為用戶提供個性化服務為‘幌子’”(如ZY15)。
即便許多用戶未能感受到隱私侵犯等風險,人工智能設備生產(chǎn)商也需對自身的商業(yè)策略進行基本自查。追求基于數(shù)字資源所帶來的利潤符合商業(yè)邏輯的天性,但無數(shù)過往案例說明,用戶一旦對數(shù)字企業(yè)的商業(yè)策略產(chǎn)生廣泛懷疑,便會對企業(yè)產(chǎn)生背叛感[39]進而促發(fā)企業(yè)誠信負面事件,這將極大損害商業(yè)組織的信譽與利益[40]。
中國人工智能市場整體規(guī)模在2021年已達到63億美元,并將于2024年達到172億美元[41]。人工智能產(chǎn)品廣闊的市場前景意味著產(chǎn)業(yè)內(nèi)企業(yè)主體間的競爭將愈發(fā)激烈。在此背景下,人工智能產(chǎn)業(yè)需探索有效手段來規(guī)避企業(yè)主體的非正當競爭,而其中的一種可行性較高的方式,則是增加行業(yè)成員自律的預期收益和不自律的預期成本,使行業(yè)成員之間的雙邊自律收益大于單邊投機收益,且單邊自律收益大于雙邊投機收益,最終實現(xiàn)行業(yè)自律[42]。
筆者勾畫出了用戶在智能音箱多元使用場景中不同的使用風險,研究結(jié)果從微觀層面折射出:政府對數(shù)字化時代智能產(chǎn)品所帶來的內(nèi)容風險、隱私風險和財產(chǎn)風險的治理,僅從宏觀層面采取措施是遠遠不夠的?;谏衔姆治鲇懻摚瑢?shù)字化時代政府社會治理的建議可以從思維、風格和具體策略三個方面進行闡述。
首先,在現(xiàn)有的許多研究與實踐中,政府對于人工智能技術或產(chǎn)品的認識多停留在“進行治理時可利用的工具”這一層面[43]。然而,人工智能技術對社會治理最具代表性的改變在于,智能音箱等機器(人)和人工智能技術本身不再只作為“功能”嵌入進治理方式之中,也不再只作為傳播與社會網(wǎng)絡中的客體或?qū)ο?,而是成為了具有能動性的“傳播主體”(Communicator)[6]或“行動者”[44]的角色。
結(jié)合研究結(jié)果來看,在技術不斷進步的背景下,未來智能音箱等產(chǎn)品極大可能會具有自主性的意識并學習如何規(guī)范自身行為。這對數(shù)字化時代社會治理的思維啟示是,政府需要跳脫現(xiàn)有認知的困囿,從人機傳播(Human-Machine Communication)的視角[6]明確智能音箱等人工智能產(chǎn)品既是治理對象[45],也是一種可以參與社會治理的且具有相對獨立的“準主體”[43]。換言之,數(shù)字化時代的社會治理需要從人工智能的技術屬性以及“替代人”的社會屬性出發(fā),深入思考人工智能對政府社會治理的顛覆性影響[46]。
其次,技術的狂飆突進不斷解放生產(chǎn)力、給予日常生活便利并再造社會治理全程,極易使工具理性成為主宰數(shù)字化時代的意識形態(tài)。在研究訪談中,用戶多站在工具性的角度來評判智能音箱及其使用過程,并表示愿意用隱私和安全來換取便利、效用等[47]。然而,將工具理性與價值理性結(jié)合起來的社會治理方式,一直是21世紀以來公共管理領域所秉持的基本共識[48],也是科學技術無論進步到何種階段都應秉持的立場。因此,用戶在日常生活中反映出來的人工智能產(chǎn)品使用行為可能被工具理性主導的現(xiàn)象也表明:數(shù)字化時代的社會治理,還需進一步思考如何提高技術的溫度、如何深化技術與社會的互動,并結(jié)合價值理性來共筑人機文明。
最后,單一技術治理與多元化場景之間、技術的規(guī)范統(tǒng)一性和事實的全面性之間存在許多亟待解決的矛盾[3]。由于不同用戶個體所感受到的和實際面臨的風險類型及其具體表現(xiàn)各不相同,因此,數(shù)字時代的社會治理應綜合微觀與宏觀視角,綜合調(diào)動個體、企業(yè)、政府和技術的能動性,促使治理方式實現(xiàn)新的躍遷。從這一視角出發(fā),個體與企業(yè)層面應對數(shù)字化時代人工智能產(chǎn)品使用風險的策略,也是政府宏觀治理策略的有機組成部分。
筆者通過深入日常生活的微觀場景,揭示出用戶在使用智能音箱時所面臨的風險及相應的規(guī)避和治理措施。面對數(shù)字化浪潮,用戶在享受人工智能產(chǎn)品帶來的便利時,也使自己暴露于諸多不確定性之中,這就需要政府、企業(yè)、用戶乃至機器自身等多元主體在聯(lián)動的基礎上系統(tǒng)性地參與到對各類風險的治理過程中,并從日常生活中無數(shù)個共同塑造技術發(fā)展方向的細節(jié)入手,結(jié)合個人數(shù)字素養(yǎng)的提升、行業(yè)自律的踐行以及政府治理思維、風格和策略的轉(zhuǎn)變等方面,在人與技術的雙向共振中構(gòu)筑人機和諧共生的未來。