內(nèi)容提要 人工智能技術(shù)的發(fā)展,正持續(xù)推動(dòng)人機(jī)交互技術(shù)的革新,并促進(jìn)社會(huì)系統(tǒng)演化為實(shí)體生產(chǎn)空間、數(shù)字信息空間與社會(huì)組織場(chǎng)域相耦合的超復(fù)雜系統(tǒng)。技術(shù)的演進(jìn)推動(dòng)人們對(duì)技術(shù)本質(zhì)、人機(jī)信任關(guān)系以及新理論范式的反思,社會(huì)研究范式從還原論到系統(tǒng)論的轉(zhuǎn)型為解析數(shù)字社會(huì)發(fā)展的超復(fù)雜性提供了動(dòng)態(tài)的認(rèn)知框架。從系統(tǒng)論的視角出發(fā),信任并非二元現(xiàn)象,其動(dòng)態(tài)評(píng)估依賴于其與系統(tǒng)的交互。立足于人機(jī)交互社會(huì)系統(tǒng)的三層面復(fù)雜結(jié)構(gòu),從二階觀察的視角分析系統(tǒng)的聯(lián)動(dòng)關(guān)系,聚焦信任問題的生成及可信任人機(jī)交互環(huán)境的構(gòu)建,有助于揭示人機(jī)交互信任問題的本質(zhì),并為人類與人工智能的未來(lái)合作和共生互動(dòng)探索新思路。
關(guān)鍵詞 社會(huì)系統(tǒng) 人機(jī)交互 信任 超復(fù)雜性
范海敏,博士,上海工程技術(shù)大學(xué)馬克思主義學(xué)院講師、當(dāng)代馬克思主義研究中心研究員
高宣揚(yáng),上海交通大學(xué)人文社科資深教授
本文為國(guó)家社會(huì)科學(xué)基金項(xiàng)目“馬克思政治經(jīng)濟(jì)學(xué)批判視閾下的數(shù)字勞動(dòng)研究”(23BKS012)、上海高校教師產(chǎn)學(xué)研踐習(xí)計(jì)劃(滬教委人〔2022〕)的階段性成果。
馬克思主義認(rèn)為:“人的本質(zhì)不是單個(gè)人所固有的抽象物,在其現(xiàn)實(shí)性上,它是一切社會(huì)關(guān)系的總和?!盵1]人作為實(shí)踐主體,反映了在歷史物質(zhì)資料生產(chǎn)方式(生產(chǎn)力和生產(chǎn)關(guān)系的統(tǒng)一體)中和具體生產(chǎn)實(shí)踐活動(dòng)中人與自然、人與人以及人與社會(huì)的復(fù)雜關(guān)系。當(dāng)代社會(huì)系統(tǒng)理論本身就是對(duì)現(xiàn)代社會(huì)進(jìn)行分析研究的思想結(jié)晶,其以多學(xué)科和跨領(lǐng)域關(guān)聯(lián)的廣闊視野,從微觀和宏觀兩個(gè)視角,關(guān)注并研究社會(huì)主體的存在和社會(huì)系統(tǒng)創(chuàng)新發(fā)展的各種復(fù)雜性。當(dāng)代社會(huì)系統(tǒng)的復(fù)雜性及其持續(xù)分化演化的多樣交錯(cuò)性,既集中了社會(huì)系統(tǒng)內(nèi)外的各種矛盾,也凝聚了社會(huì)系統(tǒng)內(nèi)在的創(chuàng)造動(dòng)能,使其持續(xù)呈現(xiàn)為不斷變化的錯(cuò)綜復(fù)雜并充滿張力的社會(huì)網(wǎng)絡(luò)關(guān)系。
應(yīng)用跨邊界的研究視角,社會(huì)系統(tǒng)理論強(qiáng)調(diào),將不同系統(tǒng)行動(dòng)者之間的交互作用描述成系統(tǒng)內(nèi)外關(guān)系網(wǎng)絡(luò)的動(dòng)態(tài)性相互滲透關(guān)系,而在人機(jī)交互邁入人機(jī)協(xié)作的時(shí)代,社會(huì)系統(tǒng)中復(fù)雜多變的多模態(tài)的信任關(guān)系形成了。人工智能技術(shù)的應(yīng)用提高了人形機(jī)器人在多模態(tài)人機(jī)交互、復(fù)雜環(huán)境下指令理解的有效性,在這一背景下,人形機(jī)器人成為人機(jī)交互復(fù)雜社會(huì)系統(tǒng)中信任關(guān)系構(gòu)建的重要一環(huán)。在人機(jī)協(xié)作中,信任并非局限于完全信任和完全不信任的兩個(gè)極端,信任不是二元現(xiàn)象,而是一個(gè)包含廣泛灰色地帶的復(fù)雜現(xiàn)象,信任問題的有效解決將有助于更好地把握和利用由新型人機(jī)關(guān)系構(gòu)成的社會(huì)系統(tǒng)所提供的發(fā)展機(jī)遇。由此,本文在理論層面上,通過(guò)深入分析從傳統(tǒng)系統(tǒng)論到建構(gòu)主義社會(huì)系統(tǒng)論的轉(zhuǎn)變,針對(duì)人機(jī)交互社會(huì)系統(tǒng)所生成的三大層面復(fù)雜結(jié)構(gòu),以批判性思維對(duì)人機(jī)交互系統(tǒng)中的信任問題進(jìn)行反思,并對(duì)數(shù)字社會(huì)轉(zhuǎn)型語(yǔ)境下的社會(huì)系統(tǒng)理論進(jìn)行深入探究。
一、從傳統(tǒng)系統(tǒng)論到建構(gòu)主義社會(huì)系統(tǒng)論
傳統(tǒng)系統(tǒng)論立足于整體與部分的二元對(duì)立統(tǒng)一模式,“將系統(tǒng)放在系統(tǒng)與其本身各構(gòu)成部分的相互關(guān)系中加以考察,似乎系統(tǒng)的性質(zhì)及其運(yùn)作或轉(zhuǎn)換,都與其外在的環(huán)境毫無(wú)關(guān)系”[1]。傳統(tǒng)系統(tǒng)論的最大缺點(diǎn),就是忽視了系統(tǒng)與其環(huán)境的復(fù)雜關(guān)系及其多向分化的可能性和風(fēng)險(xiǎn)性。
傳統(tǒng)的主體中心主義認(rèn)為,人類主體是唯一的、獨(dú)立的創(chuàng)造者,其創(chuàng)作過(guò)程主要由個(gè)人的思維、意向和想象驅(qū)動(dòng)。然而,智能時(shí)代的生產(chǎn)力發(fā)展以數(shù)字化和智能化技術(shù)為基礎(chǔ),虛擬現(xiàn)實(shí)、人工智能等技術(shù)的應(yīng)用,在不同程度地模糊了社會(huì)生產(chǎn)主體及其實(shí)踐的界限的同時(shí),加強(qiáng)了社會(huì)行動(dòng)主體與人工智能產(chǎn)品互動(dòng)的復(fù)雜性和難以預(yù)測(cè)的“雙重偶然性”[2]。人工智能社會(huì)生產(chǎn)逐漸出現(xiàn)模擬主體的樣態(tài),技術(shù)的發(fā)展迫使人類在享受其便利的同時(shí)進(jìn)一步思考主體的樣態(tài)變化。
在理論沿革上,從柏拉圖開始的傳統(tǒng)主客同一觀點(diǎn)受到了薩特(Jean-Paul Sartre)、胡塞爾(Edmund Husserl)、德勒茲(Gilles Deleuze)等現(xiàn)代思想家的質(zhì)疑。薩特試圖通過(guò)他的現(xiàn)象學(xué)理論建立一種新的二元論,即無(wú)限與有限的二元論。他的新的二元論試圖超越單純的二元對(duì)立,強(qiáng)調(diào)二元的相互滲透、相互包含與相互轉(zhuǎn)化,而且二元對(duì)立并不意味著一個(gè)是絕對(duì)主體,另一個(gè)是絕對(duì)客體,也就是說(shuō),二元之中,誰(shuí)是主體,誰(shuí)是客體,并非固定不變的。通過(guò)無(wú)限與有限之對(duì)立,傳統(tǒng)哲學(xué)的內(nèi)與外、潛能與現(xiàn)實(shí)等二元對(duì)立獲得了新的理解。
而當(dāng)?shù)吕掌澨岢觥岸嘣亩嘣钡臅r(shí)候,他試圖徹底顛覆柏拉圖關(guān)于主客體同一的觀念。正因?yàn)檫@樣,在批判以索緒爾(Ferdinand de Saussure)和列維-斯特勞斯(Claude Levi-Strauss)為代表的結(jié)構(gòu)主義“系統(tǒng)”觀時(shí),德勒茲提出世界充滿“皺褶”、世界是“多元化的多元化”的思想,這實(shí)際上是在承認(rèn)主客體關(guān)系的基礎(chǔ)上強(qiáng)調(diào)了獨(dú)立生命主體各自的異質(zhì)性及其多樣變動(dòng)性。在這場(chǎng)由德勒茲所發(fā)動(dòng)的“結(jié)構(gòu)主義轉(zhuǎn)型”的過(guò)程中,傳統(tǒng)理論所謂“本質(zhì)”“實(shí)體”“可能”等概念,分別被“異質(zhì)”“事件”“潛在”等概念取代。在德勒茲看來(lái),世界上不僅不存在固定不變的二元對(duì)立結(jié)構(gòu),也不存在單一單質(zhì)單向的變化模式。世界萬(wàn)物是相互交叉、相互滲透地生成變動(dòng),任何一個(gè)事物的變化,都是多元多質(zhì)因素相互交錯(cuò)互動(dòng)的結(jié)果。因此,世界上只能存在多元相互聯(lián)動(dòng)的“事件”,而其生成根源,既不是單一性機(jī)制,也不是單向性的因果關(guān)系,而是無(wú)數(shù)相互聯(lián)系和相互滲透的盤根錯(cuò)節(jié)的“塊莖式”異質(zhì)性力量的突發(fā)矛盾,這些突發(fā)矛盾以“不可預(yù)測(cè)”的突發(fā)事件的模式“涌現(xiàn)”[3]。
可以說(shuō),德勒茲“多元化的多元化”理念與盧曼(Niklas Luhmann,也譯作魯曼)提出的關(guān)于現(xiàn)代社會(huì)不斷分化的觀點(diǎn)有異曲同工之妙。此兩者都試圖突破傳統(tǒng)主客同一的思維框架,強(qiáng)調(diào)復(fù)雜性的不可化約性。德勒茲通過(guò)“塊莖式”的隱喻描繪了去中心化的多元聯(lián)結(jié)網(wǎng)絡(luò);而在盧曼的系統(tǒng)理論框架中,“雙重偶然性定理被引入基礎(chǔ)層面,用以分析社會(huì)系統(tǒng)的涌現(xiàn)。盧曼的分析是對(duì)帕森斯‘互動(dòng)雙重偶然性’基本命題的系統(tǒng)性重審”[1]。盧曼借助自創(chuàng)生的社會(huì)系統(tǒng)理論闡釋了社會(huì)子系統(tǒng)的運(yùn)作封閉性與認(rèn)知開放性的辯證關(guān)系。這種理論共鳴不僅體現(xiàn)在對(duì)現(xiàn)代性特質(zhì)的診斷上,更反映在方法論層面,即摒棄本質(zhì)主義的還原論傾向,轉(zhuǎn)而采用關(guān)系性思維把握當(dāng)代社會(huì)的復(fù)雜性。
從建構(gòu)主義的視角考察社會(huì)系統(tǒng)理論,其生成是在批判西方傳統(tǒng)“人本中心主義”“邏輯中心主義”“主客二元對(duì)立原則”的基礎(chǔ)上,融合了薩特和胡塞爾關(guān)于“生活世界”“主體間互動(dòng)”“意向性”“內(nèi)時(shí)間意識(shí)”的現(xiàn)象學(xué)思想。20世紀(jì)40年代,社會(huì)系統(tǒng)理論在一般系統(tǒng)論的基礎(chǔ)上不斷發(fā)展,從貝塔朗菲(Ludwig von Bertalanffy)正式提出“一般系統(tǒng)論”[2]概念以來(lái),經(jīng)過(guò)對(duì)現(xiàn)代社會(huì)系統(tǒng)的全面研究,社會(huì)學(xué)界的功能結(jié)構(gòu)論者朝著生物學(xué)方向?qū)で笮鲁雎贰.?dāng)代社會(huì)科學(xué)的新成果引導(dǎo)社會(huì)學(xué)家進(jìn)一步重建社會(huì)系統(tǒng)的結(jié)構(gòu)及功能的基本概念,促進(jìn)社會(huì)學(xué)家從“適應(yīng)”機(jī)制的角度對(duì)社會(huì)的演化進(jìn)行分析。學(xué)者們吸收馬圖拉納(Humberto Maturana)、瓦列拉(Francisco Varela)等的“認(rèn)知生物學(xué)”和“建構(gòu)主義認(rèn)知論”[3]的研究成果,還特別采納英國(guó)數(shù)學(xué)家史賓塞-布朗(George Spencer-Brown)于1969年著述的《形式的法則》(Laws of Form)[4]中應(yīng)用的“邏輯區(qū)分”方法,采用跨邊界的數(shù)學(xué)研究方法,將不同的邏輯系統(tǒng)描述成系統(tǒng)內(nèi)外關(guān)系網(wǎng)絡(luò)的“三重同一性”(triple identity)的動(dòng)態(tài)靈活關(guān)系,并特別突出在實(shí)際應(yīng)用中自我參照的悖論性質(zhì)。值得注意的是,在發(fā)展的過(guò)程中,社會(huì)系統(tǒng)理論的研究介入了福斯特(Heinz von Foerster)提出的“控制論的控制論”[5]的新方法。“控制論的控制論”這一表述隱含著對(duì)控制論自身的反思,強(qiáng)調(diào)反饋機(jī)制、系統(tǒng)調(diào)節(jié)以及觀察者與被觀察系統(tǒng)的互動(dòng)性,屬于“控制論如何研究系統(tǒng)”的二階觀察(second-order observation)范疇。
概言之,社會(huì)系統(tǒng)理論通過(guò)跨學(xué)科的整合展現(xiàn)了其方法論上的創(chuàng)新。社會(huì)系統(tǒng)研究范式從實(shí)體論向關(guān)系論的轉(zhuǎn)變,為理解數(shù)字社會(huì)的超復(fù)雜性提供了一個(gè)動(dòng)態(tài)的認(rèn)知框架。在實(shí)踐上,數(shù)字社會(huì)不可避免地采用以“意義”為導(dǎo)向的“簡(jiǎn)單化程式”,然而,社會(huì)系統(tǒng)的“超復(fù)雜性”和“雙重偶然性”的出現(xiàn)也意味著系統(tǒng)內(nèi)部及其外部環(huán)境中不斷增長(zhǎng)的復(fù)雜性、風(fēng)險(xiǎn)性與不確定性。
二、人機(jī)交互復(fù)雜社會(huì)系統(tǒng)中信任問題的呈現(xiàn)
技術(shù)的變遷不斷拓展了社會(huì)系統(tǒng)理論的研究邊界。在盧曼的系統(tǒng)論中,“魯曼按照帕森斯系統(tǒng)功能論的基本觀點(diǎn),將對(duì)于社會(huì)系統(tǒng)的研究分成三大層次:關(guān)于社會(huì)系統(tǒng)的理論,關(guān)于演化的理論以及關(guān)于溝通的理論”[6]。在這里,人機(jī)融合復(fù)雜社會(huì)系統(tǒng)可以從構(gòu)成系統(tǒng)的主客體結(jié)構(gòu)關(guān)系、社會(huì)溝通與社會(huì)分化的三層面復(fù)雜結(jié)構(gòu)進(jìn)行深入分析。
1.人機(jī)交互社會(huì)系統(tǒng)的三層面復(fù)雜結(jié)構(gòu)
其一,傳統(tǒng)系統(tǒng)論的理論框架試圖將所有問題置于主客體的對(duì)立統(tǒng)一中進(jìn)行剖析與解決,其終極目標(biāo)是確立人類的主體地位以實(shí)現(xiàn)人類對(duì)客觀世界的主宰與改造。隨著人機(jī)交互與人機(jī)協(xié)作的發(fā)展,人機(jī)信任問題研究從單向度的人對(duì)智能系統(tǒng)的信任發(fā)展到雙向度甚至多模態(tài)的人與人工智能的互信。從人與計(jì)算機(jī)的交互到人與機(jī)器人、數(shù)字人的交互,人與智能系統(tǒng)經(jīng)歷了從單模態(tài)交互到多模態(tài)交互、可信交互以及共享認(rèn)知交互的發(fā)展。隨著人工智能技術(shù)在智能化與情感交互領(lǐng)域的飛速發(fā)展,以人形機(jī)器人為代表的人機(jī)交互模式引發(fā)了深刻的變革,碳基生命和硅基“生命”共同推動(dòng)社會(huì)整體向群體智能增強(qiáng)的方面發(fā)展。人類智能與人工智能共同構(gòu)成主客觀混合、主動(dòng)性和被動(dòng)性交織的體系,人類智能和人工智能系統(tǒng)相互作用,合力促進(jìn)更高級(jí)別的智能行為。在這種情形下,人和機(jī)器如何通過(guò)多種方式實(shí)現(xiàn)交互溝通與協(xié)作,如何將異質(zhì)的客觀邏輯和主觀超邏輯結(jié)合起來(lái),更好地處理信息輸入、輸出與反饋,是構(gòu)建人機(jī)交互可持續(xù)信任關(guān)系的關(guān)鍵。
其二,在社會(huì)系統(tǒng)理論中,溝通首先就是生產(chǎn)和維持社會(huì)系統(tǒng)及其功能的運(yùn)作過(guò)程,顯然,這里的“溝通”并非意指“社交活動(dòng)或思想交流”[1],而是關(guān)聯(lián)到社會(huì)系統(tǒng)以及由于不斷分化而不斷生成的各個(gè)子系統(tǒng)運(yùn)作的動(dòng)態(tài)交互協(xié)調(diào)。社會(huì)系統(tǒng)與心理系統(tǒng)、社會(huì)系統(tǒng)的各子系統(tǒng)之間,在社會(huì)行動(dòng)的符號(hào)和文化的層面存在以多種“意義”為主導(dǎo)的“輸入、輸出”信息交換與信任互動(dòng)關(guān)系,由此使所有的社會(huì)行動(dòng)都具有溝通的特性。在虛實(shí)結(jié)合的社會(huì)空間內(nèi),新型社會(huì)溝通媒介使行動(dòng)者間的關(guān)系締結(jié)方式、溝通行為模式和溝通信息的傳遞形態(tài)發(fā)生顯著變化。人機(jī)交互與人機(jī)協(xié)作的發(fā)展帶來(lái)了新的互動(dòng)模式,從信息社會(huì)向智能社會(huì)的過(guò)渡,反映了社會(huì)溝通功能的多層次分化以及其在可持續(xù)信任構(gòu)建過(guò)程中的演變。
其三,現(xiàn)代社會(huì)可以被理解為具有不同功能的超復(fù)雜系統(tǒng),它的各種區(qū)分都是由功能的區(qū)分化決定。不同于以往所有社會(huì),當(dāng)代社會(huì)的本質(zhì)特點(diǎn)表現(xiàn)為日益組織化的社會(huì)系統(tǒng)的快速區(qū)分化及自律化導(dǎo)致社會(huì)系統(tǒng)“更大的復(fù)雜性”(gr??ere komplexit?t)[2]的出現(xiàn)?!皬?fù)雜性本質(zhì)上是涌現(xiàn)現(xiàn)象。涌現(xiàn)是自組織(self-organizing)過(guò)程的產(chǎn)物。”[3]當(dāng)代高科技在人為創(chuàng)造能力方面的驚人效果,不但使現(xiàn)代人有可能以過(guò)去任何時(shí)代都無(wú)法想象的方式進(jìn)行創(chuàng)造活動(dòng),而且使其創(chuàng)造物本身成為越來(lái)越復(fù)雜的特殊自律系統(tǒng)。
2.人機(jī)交互社會(huì)系統(tǒng)的“類人”型復(fù)合信任
在人機(jī)交互的復(fù)雜社會(huì)系統(tǒng)中,面對(duì)流動(dòng)、變化與不確定性對(duì)熟悉社會(huì)確定性的沖擊,人們亟待構(gòu)建一種基于不確定性的新的社會(huì)信任。在高度組織化的現(xiàn)代社會(huì)結(jié)構(gòu)中,并非所有行動(dòng)均能通過(guò)對(duì)后果的精確預(yù)測(cè)實(shí)現(xiàn)有效的指導(dǎo),因此,通過(guò)信任降低復(fù)雜性顯得尤為重要?!靶湃瓮ㄟ^(guò)重構(gòu)系統(tǒng)內(nèi)部確定性,成為適應(yīng)及處理環(huán)境復(fù)雜性的核心機(jī)制,其功能依賴于系統(tǒng)結(jié)構(gòu)的分化程度?!盵4]信任關(guān)系對(duì)人機(jī)交互與協(xié)作的強(qiáng)度和可持續(xù)性構(gòu)成直接影響。
信任問題是人機(jī)關(guān)系研究的核心,早期的社會(huì)系統(tǒng)理論依據(jù)信任的主客體互動(dòng)關(guān)系,將信任區(qū)分為“人格信任”和“系統(tǒng)信任”[1]兩大類別?!叭烁裥湃巍敝饕钢黧w與溝通中的個(gè)體建立的信任紐帶。隨著新型人機(jī)交互技術(shù)與人機(jī)交互模態(tài)的不斷更新,在人機(jī)交互的溝通環(huán)境中,人與人的關(guān)系,包括人機(jī)任務(wù)分配、團(tuán)隊(duì)的組織與合作等,呈現(xiàn)更為多元與復(fù)雜的特點(diǎn)。而“系統(tǒng)信任”范疇重點(diǎn)涵蓋主體與政府、媒體、社會(huì)組織、貨幣等非人格化客體的信任關(guān)系,在早期媒體傳播時(shí)代,機(jī)器主體在多數(shù)情境下扮演著媒介載體角色,由此產(chǎn)生的信任關(guān)系同樣屬于個(gè)體與媒介的系統(tǒng)信任。
然而,隨著人機(jī)交互大模型應(yīng)用的發(fā)展,人機(jī)信任已經(jīng)無(wú)法被完全納入早期的社會(huì)系統(tǒng)理論所界定的兩大信任類別之內(nèi),它呈現(xiàn)的復(fù)合型特征,融合了個(gè)體信任與系統(tǒng)信任的雙重維度,這種復(fù)合信任也被稱為“類人”型復(fù)合信任?!邦惾恕毙蛷?fù)合信任包含個(gè)體信任與系統(tǒng)信任的復(fù)雜要素。一方面,“類人”型復(fù)合信任包含人際信任的要素。如基于大模型的虛擬人或者人形機(jī)器被設(shè)計(jì)成具有不同的機(jī)器人格,這種一對(duì)一或一對(duì)多的交往模式,使得用戶對(duì)大模型的感知如同人際信任一般具有人格化和個(gè)性化的特征。另一方面,基于大模型應(yīng)用的人機(jī)信任是一種由技術(shù)特性塑造的“類人”型復(fù)合信任,它建立在技術(shù)基礎(chǔ)之上,融合了系統(tǒng)信任與人際信任的復(fù)合元素。比如,構(gòu)建在更加完善的人機(jī)交互機(jī)制之上的人機(jī)協(xié)作模式,包括人類單向指揮的人機(jī)協(xié)作、人機(jī)雙向互動(dòng)合作以及多人、多機(jī)的協(xié)作。而多人、多機(jī)協(xié)作技術(shù)要求更細(xì)致的任務(wù)劃分、更高效的管理策略以及更強(qiáng)的協(xié)同執(zhí)行能力。在多人、多機(jī)協(xié)作技術(shù)的復(fù)雜環(huán)境中,信任不僅僅局限于人-機(jī),還涉及人與人、機(jī)器與機(jī)器的多維度信任關(guān)系。以復(fù)雜系統(tǒng)監(jiān)測(cè)為例,面對(duì)龐大的數(shù)據(jù)樣本,機(jī)器需要迅速篩選出潛在的預(yù)警樣本,然而,確立預(yù)警樣本的篩選標(biāo)準(zhǔn)以及在多人多機(jī)環(huán)境中合理分配決策職責(zé),直接關(guān)系到人力成本、任務(wù)執(zhí)行的精確性以及多維度信任關(guān)系的維護(hù)。在這種背景下,如何維護(hù)這一龐大的信任網(wǎng)絡(luò),構(gòu)建更精細(xì)的任務(wù)分配機(jī)制、更高效的信息溝通渠道以及更完善的沖突解決策略,就成了實(shí)現(xiàn)高效人機(jī)協(xié)作的關(guān)鍵??梢姡c傳統(tǒng)信任模式不同,“類人”型復(fù)合信任的構(gòu)建依賴于技術(shù)的透明度、可解釋性和可驗(yàn)證性,只有在技術(shù)系統(tǒng)、法律系統(tǒng)、倫理道德等多個(gè)層面上協(xié)同努力,才能為系統(tǒng)信任的建立和維護(hù)創(chuàng)造良好的環(huán)境。
3.人機(jī)交互復(fù)雜社會(huì)系統(tǒng)信任問題的歸因分析
當(dāng)代人工智能技術(shù)的發(fā)展,突破了原有的傳統(tǒng)生命概念,使生命的擬主體性特征超出碳基生命的范圍。各種被創(chuàng)造的系統(tǒng)似乎在一定程度上展現(xiàn)了“自律性”。盡管現(xiàn)代社會(huì)可以借助技術(shù)工具設(shè)定簡(jiǎn)約化操作程序,但任何程序都難以完全克服系統(tǒng)的不確定性。信任問題本質(zhì)上源于社會(huì)系統(tǒng)的復(fù)雜性、不確定性和風(fēng)險(xiǎn)性。在實(shí)際操作中,在人機(jī)交互的技術(shù)環(huán)境下,影響信任形成的因素主要包括“參與者因素、技術(shù)影響、任務(wù)目標(biāo)以及環(huán)境結(jié)構(gòu)”[2]這幾大類別。從初始信任到可持續(xù)信任形成的過(guò)程中,參與者的主觀感知因素在初始信任階段占據(jù)主導(dǎo)地位,而技術(shù)影響、任務(wù)目標(biāo)和環(huán)境結(jié)構(gòu)的相互作用則成為可持續(xù)信任形成的關(guān)鍵。相較于初始信任,可持續(xù)信任更多地依賴?yán)硇砸蛩亍?/p>
首先,在參與者因素或用戶特性對(duì)信任建立的影響方面,用戶會(huì)在面對(duì)新型技術(shù)或界面時(shí)產(chǎn)生不同程度的信任感知。人機(jī)交互可持續(xù)信任的形成強(qiáng)調(diào)將雙方或多方的合作成果納入信任評(píng)估的循環(huán)之中,而從初始信任到可持續(xù)信任的轉(zhuǎn)變則更有利于參與者人機(jī)交互頻率的增加與人機(jī)協(xié)作目標(biāo)趨向的一致。細(xì)致來(lái)說(shuō),用戶的技術(shù)恐懼、技術(shù)認(rèn)知水平、文化背景、個(gè)性特征、經(jīng)驗(yàn)知識(shí)以及心理預(yù)期,均構(gòu)成其初始信任的內(nèi)在基礎(chǔ)。此外,用戶的協(xié)作專業(yè)能力、媒介素養(yǎng)、注意力控制能力、情緒狀態(tài)、心理預(yù)期、風(fēng)險(xiǎn)承受力等也是不可忽視的影響因素。這些因素相互交織,共同影響著用戶對(duì)某一對(duì)象或服務(wù)的評(píng)估。比如,技術(shù)恐懼已成為影響人機(jī)可持續(xù)信任的重要主觀要素,基于海量數(shù)據(jù)和復(fù)雜算法運(yùn)作的系統(tǒng)生成式人工智能,其決策過(guò)程與內(nèi)部邏輯對(duì)普通用戶而言猶如一個(gè)難以窺視的“神秘盒子”,這種不透明的操作加劇了部分用戶的技術(shù)恐懼心理。
其次,在技術(shù)系統(tǒng)層面,機(jī)器的可測(cè)試性、感知易用性、可預(yù)測(cè)性、隱私保護(hù)能力、可靠性、可替代性、安全性、目標(biāo)一致性等都是影響用戶對(duì)機(jī)器產(chǎn)生信任的重要前提。如在科幻電影《鐵甲鋼拳》(Real Steel)中,拳擊手查理通過(guò)語(yǔ)音控制系統(tǒng)觀測(cè)機(jī)器人的拳擊表演并指導(dǎo)機(jī)器人進(jìn)行拳擊比賽。在機(jī)器人的語(yǔ)音控制系統(tǒng)被破壞后,模擬模式啟動(dòng),機(jī)器人可以模擬查理的動(dòng)作進(jìn)行攻擊。查理與機(jī)器人建立了一種具有目標(biāo)一致性的信任關(guān)系,查理通過(guò)與高度智能化的機(jī)器的深度互動(dòng),精準(zhǔn)地理解并把握其復(fù)雜多變的意圖,從而達(dá)成高效的協(xié)同工作。人類通過(guò)對(duì)機(jī)器的運(yùn)行狀態(tài)進(jìn)行監(jiān)控,在機(jī)器失效或發(fā)生意外事件時(shí)迅速接管控制權(quán),并采取適當(dāng)?shù)母深A(yù)措施。除了“監(jiān)督控制”,人機(jī)協(xié)同的交互范式還包括“決策支持”[1]。智能系統(tǒng)可以為操作者提供多種潛在選擇,從而輔助操作者做出決策。隨著人與社會(huì)越發(fā)依賴智能算法,人機(jī)結(jié)合的混合決策將成為個(gè)人決策和國(guó)家社會(huì)治理的重要依據(jù)。當(dāng)然,無(wú)論是“決策支持”還是“監(jiān)督控制”,操作者的正確選擇往往依賴其對(duì)機(jī)器意圖的理解、對(duì)機(jī)器行為的判斷及相互信任關(guān)系的構(gòu)建。多種功能的緊密耦合特性使得人機(jī)責(zé)任難以徹底區(qū)分,同時(shí),機(jī)器的自主性進(jìn)一步模糊了責(zé)任主體的界定,這無(wú)疑對(duì)現(xiàn)有責(zé)任體系和人機(jī)信任關(guān)系的構(gòu)建構(gòu)成了挑戰(zhàn)。
再次,除了參與者和技術(shù)影響因素,任務(wù)的復(fù)雜性、目的性與明確性以及任務(wù)失敗可能帶來(lái)的損失,都會(huì)對(duì)可持續(xù)信任的形成產(chǎn)生直接影響?!皺C(jī)器并非通過(guò)編程的預(yù)設(shè)獲得全景認(rèn)知,而是通過(guò)與系統(tǒng)的直接交互進(jìn)行實(shí)時(shí)學(xué)習(xí)?!盵2]從簡(jiǎn)單個(gè)體或規(guī)則的相互作用到自發(fā)產(chǎn)生的復(fù)雜、全局性智能行為,無(wú)論是體感智能還是涌現(xiàn)智能,均體現(xiàn)了“自下而上”的集體任務(wù)效應(yīng),這些現(xiàn)象無(wú)法僅通過(guò)單一元素的特性直接預(yù)測(cè)。在多樣化的社會(huì)活動(dòng)背景下,特別是在處理復(fù)雜任務(wù)時(shí),從發(fā)出信息、接收信息到理解和傳遞信息并做出的各種反應(yīng),這種自成一體、具備自我參照性的溝通使可持續(xù)信任的建立變得更加復(fù)雜。
最后,在社會(huì)系統(tǒng)層面,社會(huì)評(píng)價(jià)的價(jià)值標(biāo)尺、社會(huì)規(guī)范的剛性約束和組織架構(gòu)的制度性安排,以及風(fēng)險(xiǎn)承受閾值、工作強(qiáng)度指數(shù)、規(guī)則突破代價(jià)等外部變量,是用戶在評(píng)估信任環(huán)境時(shí)必須考慮的要素,這些因素共同構(gòu)成了用戶信任決策的復(fù)雜背景,影響著信任的深度與廣度。在人機(jī)動(dòng)態(tài)交互過(guò)程中,人類與機(jī)器的相互合作體現(xiàn)在感知、計(jì)算、決策、推理、動(dòng)作執(zhí)行等各個(gè)環(huán)節(jié)之中,由此形成了錯(cuò)綜復(fù)雜的功能耦合模型。這體現(xiàn)為人工智能的大規(guī)模數(shù)據(jù)收集和處理帶來(lái)的隱私和數(shù)據(jù)安全問題,也體現(xiàn)為算法政治問題,在算法政治中,程序直接介入并塑造政治形態(tài)的發(fā)展。從智能增強(qiáng)社區(qū)到硅谷的現(xiàn)代智囊團(tuán),再到波士頓周圍不斷擴(kuò)大的機(jī)器人經(jīng)濟(jì)都預(yù)示著,我們正處于計(jì)算機(jī)革命下一個(gè)階段的起點(diǎn),機(jī)器人將深刻改變現(xiàn)代生活。但無(wú)論如何,人與機(jī)器的和諧共處,應(yīng)是機(jī)器為人類服務(wù)而不是相反。
三、人機(jī)交互復(fù)雜社會(huì)系統(tǒng)的信任機(jī)制建構(gòu)
在人機(jī)交互向人機(jī)協(xié)作邁進(jìn)的背景下,人與人工智能的互動(dòng)關(guān)系日益復(fù)雜,人機(jī)信任這一多維度的動(dòng)態(tài)變量加大了研究者對(duì)其進(jìn)行直接觀測(cè)與評(píng)估的難度。當(dāng)前,眾多研究已將傳統(tǒng)社會(huì)人際信任的相關(guān)理論轉(zhuǎn)化為人機(jī)交互領(lǐng)域的研究基礎(chǔ)及其模型框架。展望未來(lái),如何進(jìn)一步在人機(jī)交互的復(fù)雜社會(huì)系統(tǒng)中構(gòu)建穩(wěn)健的信任機(jī)制,仍是需要深入探索與研究的重要課題。
1.二階觀察:風(fēng)險(xiǎn)管理的聯(lián)動(dòng)視角
現(xiàn)代人創(chuàng)造的自律系統(tǒng)反而給人類社會(huì)增添了新的復(fù)雜環(huán)境與新的風(fēng)險(xiǎn),這使我們進(jìn)入了前所未有的風(fēng)險(xiǎn)社會(huì)。在風(fēng)險(xiǎn)社會(huì)中,必須充分重視風(fēng)險(xiǎn)管理與二階觀察下的決策的緊密聯(lián)系。
在人機(jī)交互的復(fù)雜社會(huì)系統(tǒng)中,綜合運(yùn)用一階觀察和二階觀察,對(duì)信任建構(gòu)的各個(gè)階段進(jìn)行審視和分析,識(shí)別潛在的問題和風(fēng)險(xiǎn),將有助于實(shí)現(xiàn)可持續(xù)信任的動(dòng)態(tài)校準(zhǔn)?!皬募夹g(shù)自身的監(jiān)管角度考慮,應(yīng)當(dāng)引入二階的監(jiān)督系統(tǒng)作為人工智能系統(tǒng)的監(jiān)護(hù)人程序,以此來(lái)避免人工智能技術(shù)的潛在風(fēng)險(xiǎn)。”[1]一階觀察主要關(guān)注“觀察什么”的問題,即明確觀察的直接對(duì)象是什么的問題,而二階觀察則進(jìn)一步強(qiáng)調(diào)觀察的方法與策略,它不僅建立在一階觀察的基礎(chǔ)之上,更是對(duì)一階觀察的觀察。二階觀察的關(guān)注點(diǎn)并非直接針對(duì)某一具體客體,而是轉(zhuǎn)向了對(duì)觀察行為的審視與分析,這包括但不限于一階觀察者選取的觀察對(duì)象、采用的觀察方式、得出的結(jié)論,以及可能存在的“觀察盲點(diǎn)”[2]和各個(gè)社會(huì)子系統(tǒng)之間及其與環(huán)境的耦合結(jié)構(gòu)。在風(fēng)險(xiǎn)社會(huì)的動(dòng)態(tài)演化中,二階觀察作為系統(tǒng)論的重要方法論工具,要求我們關(guān)注不同社會(huì)子系統(tǒng)之間的相互作用機(jī)制。在人機(jī)交互場(chǎng)景下,這種觀察方式體現(xiàn)為對(duì)技術(shù)系統(tǒng)、組織制度與人類行為的三重聯(lián)動(dòng)監(jiān)測(cè)。例如,科技系統(tǒng)依據(jù)真-偽的符碼運(yùn)作,而經(jīng)濟(jì)系統(tǒng)往往根據(jù)有利潤(rùn)-無(wú)利潤(rùn)的符碼判斷經(jīng)濟(jì)行為的正當(dāng)性。無(wú)論是經(jīng)濟(jì)系統(tǒng)還是科技系統(tǒng),社會(huì)各個(gè)子系統(tǒng)在風(fēng)險(xiǎn)觀察上同樣存在各自的局限性。如在自動(dòng)駕駛中,當(dāng)交通管理系統(tǒng)發(fā)現(xiàn)自動(dòng)駕駛車輛的路徑規(guī)劃算法存在群體決策沖突時(shí),其反饋不應(yīng)僅僅觸發(fā)車載系統(tǒng)的參數(shù)優(yōu)化,而應(yīng)推動(dòng)保險(xiǎn)精算模型對(duì)風(fēng)險(xiǎn)概率進(jìn)行再校準(zhǔn),并促使機(jī)構(gòu)完善事故責(zé)任分配的梯度標(biāo)準(zhǔn)。
技術(shù)系統(tǒng)既是人類社會(huì)文化發(fā)展中功能分化和人為組織能力復(fù)雜化的集中表現(xiàn),又是與自然生態(tài)系統(tǒng)、有機(jī)生命系統(tǒng)、全球氣候變化系統(tǒng)、經(jīng)濟(jì)系統(tǒng)、教育系統(tǒng)、法律系統(tǒng)等外圍環(huán)境中的各種系統(tǒng)發(fā)生互感互動(dòng)溝通的場(chǎng)域。當(dāng)代社會(huì)系統(tǒng)不僅面對(duì)自然生態(tài)環(huán)境的各種復(fù)雜變化,而且面對(duì)人機(jī)交互超復(fù)雜系統(tǒng)的交錯(cuò)影響,這使現(xiàn)代社會(huì)系統(tǒng)越來(lái)越陷入有組織的超復(fù)雜性的無(wú)數(shù)干擾。在人機(jī)交互系統(tǒng)中,每個(gè)參與者(用戶、設(shè)計(jì)師、算法等)都在進(jìn)行觀察和決策,而二階觀察需要在超越簡(jiǎn)單的“人機(jī)對(duì)立”的基礎(chǔ)上揭示人機(jī)互動(dòng)中的多層遞歸關(guān)系。傳統(tǒng)的風(fēng)險(xiǎn)管理方式多依賴于子系統(tǒng)預(yù)設(shè)的內(nèi)在規(guī)則集或閾值監(jiān)控,但這在面對(duì)高度動(dòng)態(tài)、非線性且具有自主學(xué)習(xí)能力的復(fù)雜系統(tǒng)時(shí),就必須對(duì)相關(guān)子系統(tǒng)進(jìn)行二階觀察,并對(duì)觀察結(jié)果所引發(fā)的后續(xù)影響進(jìn)行持續(xù)的預(yù)判與評(píng)估。立足二階觀察的全局聯(lián)動(dòng)視野,深度解構(gòu)人機(jī)交互系統(tǒng)與多元子系統(tǒng)及復(fù)雜環(huán)境網(wǎng)絡(luò)的動(dòng)態(tài)耦合機(jī)制,通過(guò)計(jì)算機(jī)科學(xué)、法學(xué)、教育學(xué)、倫理學(xué)等跨學(xué)科領(lǐng)域的協(xié)同與融通,有助于系統(tǒng)性地化解智能技術(shù)信任危機(jī)及其衍生的社會(huì)連鎖反應(yīng)。
2.技術(shù)反思:黑箱算法與混合式智能算法的發(fā)展
在控制論中,“黑箱方法”用來(lái)研究那些內(nèi)部結(jié)構(gòu)、機(jī)制或運(yùn)作原理尚不明確或難以直接觀測(cè)的系統(tǒng),“用電子元件或機(jī)械元件組成的控制系統(tǒng),使用統(tǒng)計(jì)方法研究信息的傳遞和加工,特別是反饋和振蕩”[1],通過(guò)分析系統(tǒng)輸入與輸出的關(guān)系推導(dǎo)出系統(tǒng)行為的規(guī)律或特性。而科技“黑箱”往往指的是只能觀察到某個(gè)封閉系統(tǒng)的信息輸入與信息輸出,而難以得知其內(nèi)部結(jié)構(gòu)及其運(yùn)行機(jī)制的現(xiàn)象。正如一個(gè)封閉且自成一體的箱盒,其內(nèi)部結(jié)構(gòu)、功能及其運(yùn)作原理,均難以被外界直接觀察,但人們有可能借助外部的觀察與實(shí)驗(yàn)手段,對(duì)其進(jìn)行探測(cè)與研究?!昂谙浞椒ā钡膬?yōu)點(diǎn)在于,它尊重“黑箱”作為一個(gè)完整系統(tǒng)的結(jié)構(gòu)與形式,避免對(duì)其原始特征進(jìn)行干預(yù),并通過(guò)外部信息輸入與內(nèi)部信息輸出的方式揭示“黑箱”獨(dú)立系統(tǒng)的運(yùn)行機(jī)制。從負(fù)面的意義上來(lái)說(shuō),“黑箱”化可能掩蓋算法研發(fā)、轉(zhuǎn)譯、爭(zhēng)議、競(jìng)爭(zhēng)等的各種風(fēng)險(xiǎn)與后果,進(jìn)而導(dǎo)致風(fēng)險(xiǎn)的隱匿與擴(kuò)大化。例如,數(shù)據(jù)驅(qū)動(dòng)的決策機(jī)制在提升效率與精準(zhǔn)度的同時(shí),使我們難以洞察算法背后的邏輯與動(dòng)機(jī),更難以對(duì)其潛在的負(fù)面影響進(jìn)行有效監(jiān)管與干預(yù)。技術(shù)憑借其強(qiáng)大的算力和“黑箱算法”,在人機(jī)交互過(guò)程中自動(dòng)獲取了用戶輸入的個(gè)人信息,“黑箱算法”在深度神經(jīng)網(wǎng)絡(luò)大模型與龐大的訓(xùn)練數(shù)據(jù)庫(kù)的雙重技術(shù)支持下,逐漸演變成一種社會(huì)性權(quán)力。人們對(duì)此感到的恐懼,并非源自算法本身,而是算法操控社會(huì)資源分配所帶來(lái)的異化現(xiàn)象。正是“黑箱”的遮蔽效應(yīng),使人們難以預(yù)測(cè)人機(jī)交互、智能算法等前沿技術(shù)的風(fēng)險(xiǎn)性,這是當(dāng)前解決算法“黑箱”信任問題的難點(diǎn)所在。
由此,有必要促進(jìn)智能機(jī)器的機(jī)體算法與混合智能算法的發(fā)展相統(tǒng)一。在現(xiàn)階段,無(wú)論是簡(jiǎn)單智能算法或是復(fù)雜智能算法,都尚未充分關(guān)注倫理道德算法及其可解釋性。與簡(jiǎn)單智能算法或復(fù)雜智能算法相比,混合智能算法要求將倫理道德算法融入人工智能,這無(wú)疑提高了算法原初設(shè)計(jì)的難度。例如,在動(dòng)力系統(tǒng)層面,混合智能算法的動(dòng)力系統(tǒng)演變?yōu)槿斯ど窠?jīng)網(wǎng)絡(luò),而眾多的人工神經(jīng)網(wǎng)絡(luò)共同構(gòu)成了一個(gè)類似人類大腦神經(jīng)網(wǎng)絡(luò)的復(fù)雜系統(tǒng)。混合智能算法的技術(shù)挑戰(zhàn)不僅體現(xiàn)在道德準(zhǔn)則的數(shù)學(xué)建模層面,更在于使動(dòng)態(tài)演化的倫理價(jià)值體系與靜態(tài)算法架構(gòu)協(xié)同進(jìn)化。例如,倫理規(guī)范的抽象性與算法指令的具體性存在鴻溝,這要求建立嵌入式的動(dòng)態(tài)道德評(píng)估機(jī)制,并使算法具備跨文明語(yǔ)境的理解能力。近年來(lái)出現(xiàn)的道德推理框架嵌入、倫理約束模塊化設(shè)計(jì)等實(shí)踐路徑,提示我們須超越單純的技術(shù)改良思維,使算法進(jìn)化始終處于人類價(jià)值觀的引導(dǎo)與監(jiān)督之下??梢?,在人機(jī)交互的復(fù)雜社會(huì)系統(tǒng)中,混合智能算法不僅要考慮技術(shù)上的可行性,還要引導(dǎo)科技智能向善?!皩⒌赖氯谌肴斯ぶ悄芟到y(tǒng)和算法中”[2],以用戶需求作為橋梁,通過(guò)道德倫理的算法設(shè)計(jì)規(guī)制人工智能的不確定性,并對(duì)技術(shù)動(dòng)態(tài)演進(jìn)及其實(shí)際應(yīng)用進(jìn)行審慎評(píng)估,以確保人工智能的發(fā)展向善。
3.有序推進(jìn):可量化信任評(píng)估方式的綜合運(yùn)用
復(fù)雜性是信任問題產(chǎn)生的前提,而信任的建立有利于“簡(jiǎn)化復(fù)雜性”[3]。在人機(jī)交互復(fù)雜社會(huì)系統(tǒng)中,綜合運(yùn)用可量化信任評(píng)估方法有助于信任的建立與維持。通過(guò)某種方式對(duì)信任進(jìn)行量化評(píng)估,對(duì)深刻理解信任問題的生成和有序推進(jìn)信任機(jī)制形成具有重要的意義。
在實(shí)際應(yīng)用中,可以綜合運(yùn)用信任評(píng)估的量化方法,以提升信任評(píng)價(jià)的精確度。目前,自我報(bào)告測(cè)量是應(yīng)用較為廣泛的信任評(píng)估工具。例如,通過(guò)調(diào)查、問卷、訪談等多種形式,收集個(gè)體被試者對(duì)人工智能信任程度的相關(guān)數(shù)據(jù)?!把芯空邆儑L試以現(xiàn)有的人際信任模型作為研究起點(diǎn),通過(guò)改編人際測(cè)量工具或自行創(chuàng)建量表描述和解釋用戶對(duì)智能決策輔助系統(tǒng)(IDA)的信任發(fā)展。”[1]智能算法不僅是一個(gè)靜態(tài)的指令集,更是一個(gè)能夠根據(jù)實(shí)際運(yùn)行情況進(jìn)行自我調(diào)整、信任校準(zhǔn)或評(píng)估優(yōu)化的動(dòng)態(tài)系統(tǒng)。通過(guò)記錄并分析算法執(zhí)行過(guò)程中“在此之前”與“在此之后”的狀態(tài)變化,監(jiān)督其執(zhí)行效率等方面的問題,并據(jù)此調(diào)整內(nèi)部邏輯或參數(shù)設(shè)置,可實(shí)現(xiàn)更高效、更穩(wěn)定的運(yùn)作。
自我報(bào)告的測(cè)量方法難以克服動(dòng)態(tài)交互任務(wù)中的干擾性,這種方法很難實(shí)時(shí)捕捉并提供人與智能體的信任值的變化。為了彌補(bǔ)自我報(bào)告測(cè)量的不足,研究者還會(huì)使用“行為指標(biāo)度量”[2]的方法,通過(guò)關(guān)注個(gè)體在交互過(guò)程中的實(shí)時(shí)行為表現(xiàn),如任務(wù)完成時(shí)間、錯(cuò)誤率、交互頻率等,為信任評(píng)估提供客觀依據(jù)。行為指標(biāo)度量通過(guò)模擬不同的決策場(chǎng)景評(píng)估機(jī)器在面對(duì)道德困境時(shí)的處理方式,借助虛擬現(xiàn)實(shí)技術(shù)模擬真實(shí)的人機(jī)交互場(chǎng)景,更精確地測(cè)量和分析信任的動(dòng)態(tài)變化。除了自我報(bào)告測(cè)量和行為指標(biāo)度量,“情感及神經(jīng)測(cè)量”[3]也可以用于量化評(píng)估用戶對(duì)智能系統(tǒng)的信任程度。情感及神經(jīng)測(cè)量主要通過(guò)心率、皮膚電導(dǎo)、腦波活動(dòng)等生理指標(biāo)間接反映個(gè)體在與機(jī)器人或人工智能系統(tǒng)交互時(shí)的信任程度。綜合運(yùn)用“自我報(bào)告測(cè)量”“行為指標(biāo)度量”“情感及神經(jīng)測(cè)量”等方法,可以增加測(cè)量的深度,提高其準(zhǔn)確度。例如,在初始階段,通過(guò)設(shè)計(jì)詳盡的問卷調(diào)查,捕捉個(gè)體對(duì)于特定情境或人物的信任傾向。這份問卷不僅包括直接詢問信任程度的問題,還可能涉及一系列相關(guān)的情感和認(rèn)知評(píng)估,從而為研究者提供一個(gè)關(guān)于個(gè)體信任態(tài)度的初步分析。隨后,引入更為精確的“情感及神經(jīng)測(cè)量”工具,從多個(gè)維度深入理解信任的構(gòu)建過(guò)程,為信任理論的發(fā)展和實(shí)際應(yīng)用提供堅(jiān)實(shí)的基礎(chǔ)。
最后,以混合智能算法作為橋梁,構(gòu)建可量化的信任評(píng)估方式。如上文提到的混合智能算法,它可利用心靈算法對(duì)人類思維進(jìn)行模擬,并在算法設(shè)計(jì)時(shí)考慮到人類的直覺、經(jīng)驗(yàn)和情感等非理性因素。貝葉斯分析方法正“提供了一種計(jì)算假設(shè)概率的方法,它基于假設(shè)的先驗(yàn)概率,以及在給定假設(shè)下觀察到的不同數(shù)據(jù)的概率和觀察到的數(shù)據(jù)本身”[4]。在風(fēng)險(xiǎn)分析領(lǐng)域,“貝葉斯網(wǎng)絡(luò)”[5]的應(yīng)用有助于提升復(fù)雜系統(tǒng)韌性評(píng)估的精確度,為心靈算法提供神經(jīng)科學(xué)層面的解釋框架,涉及設(shè)定、評(píng)估和調(diào)整信任模型的參數(shù),計(jì)算并預(yù)測(cè)影響信任核心因素的可信度及這些因素的概率分布,這些概率參數(shù)是對(duì)系統(tǒng)行為預(yù)期和實(shí)際表現(xiàn)的關(guān)系的有效反映。
4.多方合力:軟法與硬法的社會(huì)之治
從虛擬與現(xiàn)實(shí)相結(jié)合的社會(huì)空間、行為體系統(tǒng)、觀念制度體系等多重視角出發(fā)審視人機(jī)交互在復(fù)雜社會(huì)系統(tǒng)中的變化動(dòng)力,要考慮到技術(shù)演進(jìn)的內(nèi)在平衡性,通過(guò)政策法律保障和倫理審查制度的引入,為技術(shù)進(jìn)步向制度化發(fā)展的關(guān)鍵階段提供保障。
在構(gòu)建制度體系時(shí),具體來(lái)說(shuō),以軟法與硬法的相結(jié)合保障技術(shù)在改造物理環(huán)境過(guò)程中的公平公正,為行為體系統(tǒng)參與者的選擇權(quán)設(shè)定虛實(shí)空間的限制,“通過(guò)硬法與軟法的互動(dòng)協(xié)調(diào)來(lái)推動(dòng)公共治理實(shí)現(xiàn)善治”[6],堅(jiān)持從軟法先行到軟法與硬法協(xié)同發(fā)展的原則,構(gòu)建多層次、多維度的監(jiān)管治理體系。“2017年,歐洲議會(huì)提議將機(jī)器人視為‘電子人’……在法律上賦予其責(zé)任主體的地位?!盵1]這種變化反映了社會(huì)對(duì)人工智能技術(shù)的接納和對(duì)它們行為的期待,由此,必須在虛擬與現(xiàn)實(shí)交融的社會(huì)空間內(nèi)構(gòu)建一個(gè)多層級(jí)的規(guī)制框架,以確保技術(shù)的創(chuàng)新與應(yīng)用符合社會(huì)發(fā)展的需求。
硬法作為應(yīng)對(duì)人工智能風(fēng)險(xiǎn)的傳統(tǒng)規(guī)制工具,能夠?yàn)槠浒l(fā)展提供基本的法律框架和行為準(zhǔn)則,通過(guò)立法明確人工智能的法律地位、權(quán)利與義務(wù),規(guī)范人工智能的研發(fā)、應(yīng)用和管理,并對(duì)人工智能造成的損害進(jìn)行責(zé)任追究。此外,軟法主要在行為準(zhǔn)則、行業(yè)規(guī)范、倫理聲明、倫理準(zhǔn)則、道德標(biāo)準(zhǔn)、合作規(guī)則、認(rèn)證計(jì)劃等方面發(fā)揮其作用。軟法因其靈活高效、多元主體合作等優(yōu)勢(shì),與人工智能“善治”的需求相契合。軟法的靈活性主要體現(xiàn)在其制定和執(zhí)行過(guò)程中,它不依賴于國(guó)家強(qiáng)制力,而是通過(guò)協(xié)商、共識(shí)和自愿遵守的方式實(shí)現(xiàn)規(guī)范和治理。這種多元主體合作優(yōu)勢(shì),意味著在人工智能治理中,政府、企業(yè)、社會(huì)組織和公眾等各方可以共同參與規(guī)則的制定和實(shí)施,從而形成更為全面和平衡的治理機(jī)制,并為人工智能領(lǐng)域的治理提供更為靈活的手段。以機(jī)器人輔助診斷系統(tǒng)為例,機(jī)器人通過(guò)收集患者的相關(guān)醫(yī)療信息協(xié)助人類,并在人類和負(fù)責(zé)運(yùn)輸決策的計(jì)劃系統(tǒng)之間建立聯(lián)系。然而,機(jī)器人的使用引發(fā)了人們的倫理?yè)?dān)憂,即系統(tǒng)如何確保信息收集的邊界和目的與整體系統(tǒng)兼容并符合隱私法規(guī),如何對(duì)任何涉及輔助機(jī)器人和分診系統(tǒng)的互動(dòng)或數(shù)據(jù)收集提供可信任的知情同意。由此,通過(guò)“設(shè)立由連接器(connector)和調(diào)解者元素組成的架構(gòu)以及第三方審計(jì),使調(diào)解者輔助機(jī)器人和分診系統(tǒng)遵循隱私法規(guī)、倫理道德和數(shù)據(jù)安全的要求,以支持交互并確保人類需求、價(jià)值觀和倫理的保護(hù)”[2]。技術(shù)系統(tǒng)的發(fā)展帶來(lái)的風(fēng)險(xiǎn)具有高度的不確定性,通過(guò)第三方架構(gòu)促進(jìn)實(shí)現(xiàn)軟法與硬法的結(jié)構(gòu)性耦合,有助于強(qiáng)化法律規(guī)范與技術(shù)標(biāo)準(zhǔn)的銜接機(jī)制,構(gòu)建與技術(shù)發(fā)展相適應(yīng)的法治環(huán)境,并將公平正義的價(jià)值理念融入技術(shù)系統(tǒng)與法律系統(tǒng)的關(guān)系交互之中。
可見,軟性規(guī)范與硬性法規(guī)的協(xié)同作用能系統(tǒng)化引導(dǎo)人工智能發(fā)展軌跡,促進(jìn)技術(shù)的發(fā)展符合人類社會(huì)的價(jià)值觀和倫理道德。這種治理范式既包含知識(shí)產(chǎn)權(quán)的保護(hù),也涵蓋新興技術(shù)領(lǐng)域的監(jiān)管體系,例如在數(shù)據(jù)安全領(lǐng)域構(gòu)建三位一體的防護(hù)網(wǎng),即通過(guò)區(qū)塊鏈加密技術(shù)強(qiáng)化隱私屏障,運(yùn)用智能合約落實(shí)法律承諾,依托數(shù)字技術(shù)完善確權(quán)體系,并完善相關(guān)法律法規(guī)及權(quán)益保障體系。綜合利用多方合力的共同作用,防止技術(shù)的復(fù)雜性導(dǎo)致責(zé)任主體的模糊不清,保障人工智能應(yīng)用場(chǎng)景下的個(gè)體權(quán)益,最終為科技創(chuàng)新與經(jīng)濟(jì)發(fā)展提供穩(wěn)定、可預(yù)期的支持。
總的來(lái)說(shuō),人機(jī)交互本質(zhì)上呈現(xiàn)了多元行動(dòng)主體協(xié)同實(shí)踐建構(gòu)的動(dòng)態(tài)復(fù)雜社會(huì)系統(tǒng)。人機(jī)交互通過(guò)技術(shù)集成催生混合智能算法,人工智能與人類智能共同參與任務(wù)的協(xié)作和決策的過(guò)程,為群體智能的形成和進(jìn)化做出貢獻(xiàn)。在技術(shù)革新勢(shì)不可擋的時(shí)代背景下,從群體智能進(jìn)化的社會(huì)整體角度出發(fā),人類如何當(dāng)好管理者和協(xié)調(diào)者,以更好的方式適應(yīng)、維持與開發(fā)可信任的人機(jī)共存環(huán)境?面對(duì)技術(shù)浪潮滾滾向前的必然趨勢(shì),人們只有從實(shí)際的技術(shù)發(fā)展現(xiàn)狀出發(fā),對(duì)其發(fā)展前景和潛在的風(fēng)險(xiǎn)問題形成更清晰的認(rèn)知,才能在探索構(gòu)建、維護(hù)和優(yōu)化可信人機(jī)共生的創(chuàng)新機(jī)制的過(guò)程中促進(jìn)人工智能與人類社會(huì)相向而行,共同發(fā)展。
[1《]馬克思恩格斯文集》第1卷,人民出版社2009年版,第501頁(yè)。
[1]高宣揚(yáng):《魯曼社會(huì)系統(tǒng)理論與現(xiàn)代性》,中國(guó)人民大學(xué)出版社2016年版,第80頁(yè)。
[2]R. Vanderstraeten, \"Parsons, Luhmann and the Theorem of Double Contingency\", Journal of Classical Sociology, 2002, 2(1).
[3]J. Kim, \"Emergence: Core Ideas and Issues\", Synthese, 2016, 151(3).
[1]R. Vanderstraeten, \"Parsons, Luhmann and the Theorem of Double Contingency\", Journal of Classical Sociology, 2002, 2(1).
[2]M. Drack, D. Pouvreau, \"On the History of Ludwig von Bertalanffy’s ’General Systemology’, and on Its Relationship to Cybernetics-Part III: Convergences and Divergences\", International Journal of General Systems, 2015, 44(5).
[3]H. R. Maturana, F. J. Varela, Autopoiesis and Cognition: The Realisation of the Living, Dordrecht: D. Reidel Publishing Company, 1980, Editorial Preface, p. V.
[4]S. Watson, \"George Spencer-Brown’s Laws of Form Fifty Years on\", Mathematics Teaching Research Journal, 2020,12(2).
[5]H. von Foerster, Understanding Understanding: Essays on Cybernetics and Cognition, Berlin: Spinger Science Business Media, 2003, p.283.
[6]高宣揚(yáng):《魯曼社會(huì)系統(tǒng)理論與現(xiàn)代性》,中國(guó)人民大學(xué)出版社2016年版,第16頁(yè)。
[1]R. Vanderstraeten, \"Autopoiesis and Socialization: On Luhmann’s Reconceptualization of Communication and Socialization\", British Journal of Sociology, 2000, 51(3).
[2]N. Luhmann, Soziologische Aufkl?rung, Opladen: Westdeutscher Verlag Gmbh, 1970, p.67.
[3]P. A.Corning, \"The Re-Emergence of ’Emergence’: A Venerable Concept in Search of a Theory\", Complexity, 2002, 7(6).
[4]N. Luhmann, Trust and Power, edited by C. Morgner, M. King, Cambridge: Policy Press, 2017, p.30.
[1]尼克拉斯·盧曼:《信任》,瞿鐵鵬、李強(qiáng)譯,上海人民出版社2005年版,第50—79頁(yè)。
[2]S. L. Dorton, S. B. Harper, \"A Naturalistic Investigation of Trust, AI, and Intelligence Work\", Journal of Cognitive Engineering and Decision Making, 2022, 16(4); M. Edmonds, F. Gao, H. Liu, et al., \"A Tale of Two Explanations: Enhancing Human Trust by Explaining Robot Behavior\", Science Robotics, 2019, 4(37); M. Yang, P.-L. P. Rau, \"Trust Building with Artificial Intelligence: Comparing with Human in Investment Behaviour, Emotional Arousal and Neuro Activities\", Theoretical Issues in Ergonomics Science, 2024(25).
[1]M. R. Endsley, \"From Here to Autonomy: Lessons Learnedfrom Human-Automation Research\", Human Factors: The Journal of the Human Factors Society, 2017, 59(1).
[2]J. Markoff, Machines of Loving Grace: The Quest for Common Ground Between Humans and Robots, New York: Ecco Books, 2015, p.30.
[1]李倫:《人工智能與大數(shù)據(jù)倫理》,科學(xué)出版社2018年版,代序,第?頁(yè)。
[2]H. von Foerster, Understanding Understanding: Essays on Cybernetics and Cognition, Berlin: Spinger Science Business Media, 2003, p.284.
[1]陶理:《控制論之父:諾伯特·維納的故事》,吉林科學(xué)技術(shù)出版社2008年版,第84頁(yè)。
[2]李倫:《人工智能與大數(shù)據(jù)倫理》,科學(xué)出版社2018年版,第274頁(yè)。
[3]N. Luhmann, Trust and Power, edited by C. Morgner, M. King, Cambridge: Policy Press, 2017, p.71.
[1]M. Madsen, S. Gregor, \"Measuring Human-Computer Trust\", Australasian Conference on Information Systems, 2000, 12(53).
[2][3]M. Yang, P.-L. P. Rau, \"Trust Building with Artificial Intelligence: Comparing with Human in Investment Behaviour, Emotional Arousal and Neuro Activities\", Theoretical Issues in Ergonomics Science, 2024(25).
[4]楊憲澤:《人工智能與機(jī)器翻譯》,西南交通大學(xué)出版社,2006年版,第233頁(yè)。
[5]R. Patriaca, F. Simone, O. Artime, et al., \"Conceptualization of a Functional Random Walker for the Analysis of SocioTechnical Systems\", Reliability Engineering System Safety, 2024, 251(110341).
[6]羅豪才:《軟法的理論與實(shí)踐》,北京大學(xué)出版社2010年版,第68頁(yè)。
[1]J. Markoff, Machines of Loving Grace: The Quest for Common Ground Between Humans and Robots, New York: Ecco Books, 2015, p.30.
[2]N. Boltz, S. Yaman, P. Inverardi, et al., \"Human Empowerment in Self-Adaptive Socio-Technical Systems\", 2024 IEEE/ ACM 19th Symposium on Software Engineering for Adaptive and Self-Managing Systems (SEAMS), April 2024, pp.200-206.
〔責(zé)任編輯:洪峰〕