內(nèi)容摘要:在人工智能大語言模型技術(shù)加持下,具有擬人化外觀的人形機(jī)器人將具有操縱能力,可能引發(fā)限制人的自我成長、誤導(dǎo)社會化進(jìn)程以及扭曲家庭倫理觀念等問題。風(fēng)險管理進(jìn)路是一種成本效益分析法,存在風(fēng)險評估與分類困難,并非調(diào)整人形機(jī)器人活動的良方。人形機(jī)器人具有專精科技與賦能科技雙重屬性, 前者意味著必須借助科技倫理規(guī)范研發(fā)活動,后者則要求充分關(guān)注不同應(yīng)用場景的復(fù)雜治理需求。對人形機(jī)器人研發(fā)活動的規(guī)范,應(yīng)適當(dāng)將科技倫理法律化,預(yù)先控制人形機(jī)器人的情感計(jì)算能力,并避免外觀設(shè)計(jì)產(chǎn)生過度操縱風(fēng)險。對人形機(jī)器人應(yīng)用活動的規(guī)范,一方面應(yīng)充分借助法律系統(tǒng)抽象的權(quán)利義務(wù)工具,如知情權(quán)、人工溝通權(quán)以及人為監(jiān)督、安全穩(wěn)定義務(wù)等,回應(yīng)海量應(yīng)用場景引發(fā)的規(guī)范難題;另一方面應(yīng)為法規(guī)、政策留出必要的空間,借助合規(guī)認(rèn)證、監(jiān)管沙箱等制度實(shí)現(xiàn)對人工智能賦能應(yīng)用的協(xié)同治理。
關(guān)鍵詞:人形機(jī)器人操縱效應(yīng)專精科技賦能科技科技倫理人工溝通權(quán)
中圖分類號:DF0 文獻(xiàn)標(biāo)識碼:A 文章編號:1674-4039-(2024)03-0159-170
引言:人形機(jī)器人時代已經(jīng)來臨
在人工智能大語言模型技術(shù)的幫助下,人形機(jī)器人在2023年大放異彩。是年,美國斯坦福大學(xué)發(fā)布VoxPoser這一“具身智能”的最新成果,通過在人形機(jī)器人中接入大語言模型,把復(fù)雜指令轉(zhuǎn)化成具體行動規(guī)劃,人類可以隨意地用自然語言給機(jī)器人下達(dá)指令,機(jī)器人無需額外數(shù)據(jù)和訓(xùn)練。特斯拉也發(fā)布第二代人形機(jī)器人Optimus1Gen2,該產(chǎn)品在平衡控制、抓取準(zhǔn)確性以及智能大腦等方面均有所提升,分類、拿取物體的速度已經(jīng)能和正常人類保持一致。受益于人工智能大語言模型技術(shù),我國人形機(jī)器人市場也在2023年實(shí)現(xiàn)井噴式增長,小米人形機(jī)器人CyberOne、優(yōu)必選工業(yè)版人形機(jī)器人Walker34S、智元機(jī)器人、宇樹Unitree1H1、追覓通用人形機(jī)器人、小鵬鵬行PX5、中國電科21所機(jī)器人等數(shù)十款新品陸續(xù)發(fā)布。隨著人形機(jī)器人熱度不斷攀升,全球人形機(jī)器人市場規(guī)模有望從2023年的18億美元增長到2028年的138億美元,其復(fù)合年增長率可達(dá)50.2%?!?1〕我國人工智能市場更是潛力無限。預(yù)計(jì)到2030年,我國人形機(jī)器人市場規(guī)模有望達(dá)到約8700億元,成為全球最大的人形機(jī)器人市場?!?amp;〕在這一背景下,2023年10月工業(yè)和信息化部發(fā)布《人形機(jī)器人創(chuàng)新發(fā)展指導(dǎo)意見》(工信部科〔2023〕193號),明確指出人形機(jī)器人有望成為繼計(jì)算機(jī)、智能手機(jī)、新能源汽車后的顛覆性產(chǎn)品,將深刻變革人類生產(chǎn)生活方式,重塑全球產(chǎn)業(yè)發(fā)展格局。
人形機(jī)器人的應(yīng)用將對人類社會產(chǎn)生深遠(yuǎn)的影響。人形機(jī)器人可以協(xié)同甚至替代人類工作者完成任務(wù)。輔之3D打印、人體感應(yīng)等技術(shù),人形機(jī)器人將具有高度擬人化外表,可以更好地融入人類社會。隨著人形機(jī)器人逐步擔(dān)任人類角色,人形機(jī)器人將對個人信息保護(hù)、個人隱私構(gòu)成威脅,對網(wǎng)絡(luò)安全產(chǎn)生挑戰(zhàn),也會產(chǎn)生壓縮部分勞動力市場、危害人類共同體命運(yùn)等問題。但是,這些問題并非人形機(jī)器人獨(dú)有的伴生性問題,而是人工智能應(yīng)用中的一般性問題。如果沒有厘清由人形機(jī)器人引發(fā)的新型社會問題,對人形機(jī)器人規(guī)范的討論容易陷入“偷換概念”“新瓶舊酒”的迷霧之中。是以,筆者將首先辨析人形機(jī)器人活動帶來的新型社會問題,明確人形機(jī)器人對人格發(fā)展的危害。在此基礎(chǔ)上,筆者嘗試提供一種不同于風(fēng)險管理進(jìn)路的新型規(guī)范視角。
一、人形機(jī)器人民生應(yīng)用引發(fā)的操縱性風(fēng)險
人形機(jī)器人能力的提升,可能引發(fā)新型社會風(fēng)險。人形機(jī)器人在民爆、救援、科考、產(chǎn)品生產(chǎn)制造等領(lǐng)域早已被運(yùn)用,在人工智能大語言模型幫助下的迭代升級將進(jìn)一步引發(fā)網(wǎng)絡(luò)安全、個人信息保護(hù)以及勞動力失業(yè)等問題。但是,這些問題并非人形機(jī)器人應(yīng)用引發(fā)的新問題。隨著技術(shù)的進(jìn)步,人形機(jī)器人即將全面進(jìn)軍醫(yī)護(hù)、家政、教培等領(lǐng)域,深入人們的日常生活中。人形機(jī)器人的民生應(yīng)用對大眾帶來的不利影響,才是真正需要關(guān)注的問題。
(一)人形機(jī)器人的操縱能力
在人形機(jī)器人領(lǐng)域,有三個值得關(guān)注的趨勢:在思考能力層面,大模型的嵌入極大提升了機(jī)器人感知環(huán)境、分解任務(wù)、規(guī)劃流程以及與環(huán)境交互的能力;在訓(xùn)練平臺方面,云邊結(jié)合的分布式計(jì)算平臺發(fā)展,強(qiáng)化了機(jī)器人的訓(xùn)練和分析決策速率;在執(zhí)行層面,以“靈巧手”為代表的關(guān)鍵技術(shù)進(jìn)一步強(qiáng)化了人形機(jī)器人末端執(zhí)行應(yīng)用能力,尤其是微操作能力?!?amp;〕思考能力、分析能力與執(zhí)行能力的增強(qiáng),再借助高度擬人化外表,人形機(jī)器人將在事實(shí)上獲得超越一般人的影響力,有能力實(shí)現(xiàn)對個體的操縱。
其一,以大語言模型為基礎(chǔ)的人形機(jī)器人具有智能表象。以大語言模型為基礎(chǔ)的聊天機(jī)器人(如ChatGPT、通義千問等),能夠與人類進(jìn)行對話,回答問題并產(chǎn)生如同人類所創(chuàng)作的文字作品,如撰寫故事、散文、詩歌、信件、程序代碼等。人工智能已經(jīng)展現(xiàn)出一定的“智慧”,例如ChatGPT已經(jīng)通過美國醫(yī)學(xué)執(zhí)照考試、沃頓商學(xué)院MBA考試和律師資格考試,通過了3級工程師的Google編碼面試等。〔4amp;〕人形機(jī)器人以大語言模型為基礎(chǔ),將因表現(xiàn)出強(qiáng)大的智能,獲得越來越多人的信任。如果人類發(fā)現(xiàn)人形機(jī)器人比一般人更有能力,人形機(jī)器人遲早會獲得高于普通人的影響力?!?amp;〕人類可能在智力、決策層面愈發(fā)依賴機(jī)器人。當(dāng)我們習(xí)慣性地首先問詢機(jī)器人意見時,人類就在喪失自主性。一個顯而易見的例子是,高德地圖、百度地圖等導(dǎo)航程序正在使得個人喪失自主尋路能力。
其二,人形機(jī)器人將比人更擅長影響個體選擇。人形機(jī)器人可以模擬人類的情感和情緒反饋,誘導(dǎo)用戶產(chǎn)生特定情緒,例如通過傳遞愉悅的情感來影響用戶的心理狀態(tài);可以通過學(xué)習(xí)和分析用戶的喜好、興趣和行為,主動迎合用戶的興趣,潛移默化地改變用戶的態(tài)度和情感;可以模擬社交場景,通過表現(xiàn)出與他人互動的行為,影響用戶對社交行為的看法;人形機(jī)器人還可能通過陪伴、鼓勵和支持的方式,產(chǎn)生一種情感依賴,從而操縱用戶的情感和心理狀態(tài)。下文以人形機(jī)器人對思維與邏輯的影響為例說明之。人形機(jī)器人可以通過提供有選擇性的信息來影響用戶的觀點(diǎn)和態(tài)度。在2008年,經(jīng)濟(jì)學(xué)家Richard+Thaler與法律學(xué)者Cass+Sunstein共同提出了“輕推”(Nudge)這一概念,意指在不妨礙人們自由選擇的前提下,鼓勵或誘導(dǎo)人們決策,引導(dǎo)人們選擇特定的選項(xiàng)。例如,當(dāng)人們在自助餐廳用餐時,會更傾向于選擇放在附近的食物。〔6+〕人工智能系統(tǒng)借助對個人信息的分析,評估個人的健康、收入、喜好等個人特征,精準(zhǔn)化影響“選擇”,這種方式比針對群體的“輕推”更為有效,因此被稱為“超輕推”(Hypernudge)?!?+〕人形機(jī)器人在人工智能大模型幫助下,可以匯集與處理線上與線下的大量個人信息,完成心理測量,評估、預(yù)測用戶的性格、認(rèn)知缺陷和情感薄弱所在,從而在“正確的時間說合適的話”,最終將個人推向被操縱的客體地位?!?+〕人形機(jī)器人迎合用戶需求,未必是為了用戶的最佳利益。對于人形機(jī)器人制造商與銷售商而言,占據(jù)市場、獲得利潤才是其根本利益。是以,擅長左右個人決定的人形機(jī)器人對人的自主性構(gòu)成威脅。
其三,人形機(jī)器人的高度擬人化外表具有欺騙效應(yīng)。當(dāng)機(jī)器人具有高度擬人外觀時,人形機(jī)器人無疑更容易被人類社會所接受。人類對于人形物件產(chǎn)生共情,這是自然的心理傾向。人形機(jī)器人的外觀能夠引發(fā)人類的心理投射,很容易引起共情。如果陪伴機(jī)器人或親密機(jī)器人(性愛機(jī)器人)看起來與人類無異,幾可以假亂真,人類可能會有意無意地將機(jī)器人視為同類。人形機(jī)器人不會被設(shè)定為與人類伙伴吵架或分手,不會被允許說謊,必須絕對服從人類。人們會樂意接受高度擬人的人形機(jī)器人,并將之視為自己的最佳伙伴。這也使得具身智能有了不同尋常的操縱能力。
自計(jì)算機(jī)誕生以來,技術(shù)對個人的影響越來越大。例如,網(wǎng)絡(luò)游戲的數(shù)字和視頻技術(shù)導(dǎo)致玩家入迷,使其忘記日常的憂慮、身體意識甚至自我意識。游戲設(shè)計(jì)的目的不只是為了讓玩家放松,還能夠讓他們一直玩。通過重復(fù)的刺激和反饋,使得玩家處于強(qiáng)制循環(huán)當(dāng)中。社交軟件同樣利用心理手段操縱用戶。臉書(已更名為Meta)就發(fā)現(xiàn)通過新聞推送可以影響近70萬用戶的情緒?!?+〕越來越多的人使用電子手環(huán)等設(shè)備監(jiān)督自己的生活,如睡眠模式或飲食習(xí)慣等。人工智能正在借助“健康建議”告訴用戶如何生活。當(dāng)人形機(jī)器人深入家庭時,機(jī)器人可以更權(quán)威、更親近地影響人的成長,約束人們的生活方式。人形機(jī)器人將成為一種操縱性技術(shù),有能力影響人格發(fā)展。
(二)操縱能力對人格發(fā)展的影響
人格尊嚴(yán)意味著個人可以自由地決定自己的成長?!?0+〕當(dāng)具有操縱能力的人形機(jī)器人承擔(dān)社會角色時,人與機(jī)器人的關(guān)系將以前所未有的方式影響人的成長與發(fā)展。
首先,人形機(jī)器人可能會限制個體的自我決定。如果人工智能更有“權(quán)威”,個人的自主欲望將受到遏制,自我選擇與判斷能力無法養(yǎng)成與提升。人工智能已經(jīng)具有智能性表象,憑借淵博的學(xué)識與超輕推的說服技巧,有能力使得相對人有意無意地接受人工智能的建議。但是,自我決定是成長的必經(jīng)之路。專家機(jī)器人可能飛快地否定一些方案或給出行之有效的建議,但這也限制了個體的創(chuàng)造力和自我選擇能力的培養(yǎng)。當(dāng)看護(hù)機(jī)器人可以替代未成年人作出決定時,未成年人也在逐漸失去獨(dú)立性和自主性。民法典第19條第2分句后半句規(guī)定未成年人有權(quán)從事與其年齡、智力相適應(yīng)的民事法律行為。民法典之所以如此規(guī)定,就在于只有通過不斷作出選擇與做出行為,未成年人才能真正成長。誠然,未成年人的選擇未必都是合理的,但如果剝奪未成年人自我選擇的機(jī)會,既與未成年人的發(fā)展權(quán)不相容,也是在刻意忽視兒童不斷增強(qiáng)的自主決定意識和能力?!?1\"〕未成年人需要自由空間,以此獲得數(shù)字生活體驗(yàn)以及有意識地、負(fù)責(zé)任地作出決定的機(jī)會?!?2\"〕隨著陪伴機(jī)器人、教育機(jī)器人深入家庭,人工智能可能會剝奪未成年人自我選擇和自我決定的機(jī)會,阻礙未成年人的真正成長。
其次,人形機(jī)器人將誤導(dǎo)未成年人的社會化。人在社會交往中不斷學(xué)習(xí)并形成自我認(rèn)知,最終建立身份認(rèn)同和社會角色定位。人形機(jī)器人高度智能、“善解人意”又具備吸引人的外表,人類可能會更愿意與機(jī)器人相伴,而不愿意與人交流。目前,市場上已經(jīng)推出陪伴機(jī)器人。在人工智能大語言模型的加持下,陪伴機(jī)器人能夠提供個性化服務(wù),將使得用戶過于沉浸在自我的世界中,忽視了與他人的真實(shí)交往和互相學(xué)習(xí)的過程,阻礙個體的社會適應(yīng)能力和團(tuán)隊(duì)協(xié)作精神的發(fā)展。人與人之間的交往是一個動態(tài)、復(fù)雜且微妙的情感交流過程,需要通過語言、肢體動作、面部表情等多種方式進(jìn)行深度溝通和理解。陪伴機(jī)器人雖然能夠模擬部分人類情緒反應(yīng),但始終不能代表真實(shí)的人際互動。如果讓陪伴機(jī)器人照顧兒童和青少年, 總是滿足要求的陪伴機(jī)器人將使得未成年人缺乏真正的社交技能。未成年人的心智尚處于發(fā)展過程,他們的大腦結(jié)構(gòu)與認(rèn)知能力通常還不足以通過批評性思考來控制自己大腦的反應(yīng)區(qū)域,而對基于情感的信息更樂于接受?!?3\"〕長此以往,未成年人將在現(xiàn)實(shí)生活中遇到人際交往困難,比如缺乏有效的情緒識別能力、人際沖突處理技巧等,從而導(dǎo)致人際關(guān)系的疏離與冷淡?!?4\"〕
最后,人形機(jī)器人可能會扭曲家庭道德倫理觀念。社會對家庭的看法可能因?yàn)槿诵螜C(jī)器人深入家庭而發(fā)生根本變化。家庭觀念、親子關(guān)系以及忠誠度、貞操觀等均可能受到?jīng)_擊。如果人類更樂意與機(jī)器人相處,對傳統(tǒng)婚姻和家庭生活將愈發(fā)冷淡,人類甚至?xí)x擇退出家庭生活。尤其值得關(guān)注的是,具有人的外觀的親密機(jī)器人(性愛機(jī)器人)可能導(dǎo)致人們對正常性行為的認(rèn)知產(chǎn)生偏差,影響他們對待現(xiàn)實(shí)生活中的異性伙伴的態(tài)度。這不僅會模糊對他人身體自主權(quán)和個人尊嚴(yán)的認(rèn)知邊界,也有操縱異性的風(fēng)險。〔15\"〕因?yàn)橛H密機(jī)器人不會反抗,可能會增加被操縱甚至施暴的可能性,誘發(fā)與強(qiáng)化個人的不良欲望。當(dāng)人們養(yǎng)成一種不健康的對待人形機(jī)器人的習(xí)慣時,人類的最終行為模式也會受到影響?!?6\"〕目前,已經(jīng)存在一些類似兒童形象的性愛機(jī)器人,這更進(jìn)一步嚴(yán)重觸及的道德底線,正在嚴(yán)重扭曲社會價值觀?!?7\"〕
如果人形機(jī)器人的操縱能力嚴(yán)重影響人格發(fā)展,對整個社會都是一種災(zāi)難。遺憾的是,人們無法在人形機(jī)器人被投入使用前精確地預(yù)測可能產(chǎn)生的風(fēng)險。社會不能淪為人形機(jī)器人的試驗(yàn)場?!?8\"〕法律應(yīng)及早介入人形機(jī)器人的研發(fā)與應(yīng)用,以避免不可逆的損害發(fā)生。
二、人形機(jī)器人操縱性風(fēng)險規(guī)范難題
在人工智能大語言模型的加持下,人形機(jī)器人具有操縱能力,對人類的人格發(fā)展構(gòu)成威脅,由此引發(fā)規(guī)范的必要。但是,過早地監(jiān)管技術(shù),可能會產(chǎn)生阻卻效應(yīng),影響科技創(chuàng)新與產(chǎn)業(yè)升級。發(fā)展與秩序的矛盾在人形機(jī)器人治理問題上格外突出。
(一)科技規(guī)范的難題:科林格里奇困境
技術(shù)哲學(xué)家科林格里奇早在1980年就提出著名的“科林格里奇困境”,即如果因?yàn)閾?dān)心不良后果而過早地對技術(shù)實(shí)施控制,很可能技術(shù)將難以創(chuàng)新和發(fā)展;反之,控制過晚,可能使得技術(shù)走向失控,帶來昂貴的治理成本,甚至難以改變?!?9%〕當(dāng)我們強(qiáng)調(diào)人形機(jī)器人的操縱性風(fēng)險時,也應(yīng)注意到人形機(jī)器人的社會經(jīng)濟(jì)效益,避免監(jiān)管阻礙技術(shù)的發(fā)展。且不論人形機(jī)器人帶來的萬億級市場,技術(shù)本就是解決社會問題、化解社會矛盾的一劑良方。人形機(jī)器人可以輔助醫(yī)療,減輕醫(yī)師壓力,緩解醫(yī)療資源不足的困境;可以幫助教學(xué),與學(xué)生進(jìn)行個性化地互動式學(xué)習(xí),同時破解教育資源分配不均的難題;可以替代人類在危險、極端環(huán)境中工作,如核輻射區(qū)、深海探索等,最大限度地保護(hù)人的生命健康。囿于篇幅,下文僅以家庭看護(hù)機(jī)器人為例予以介紹。
老齡化是全球性問題。聯(lián)合國報告指出,60歲或60歲以上的老年人口數(shù)量將在未來幾十年中加速增長,到2050年,全球60歲以上人口將達(dá)到21億。〔20%〕截至2021年底,我國60歲及以上老年人口達(dá)2.67億,占總?cè)丝诘?8.9%;65歲及以上老年人口達(dá)2億以上,占總?cè)丝诘?4.2%。預(yù)計(jì)到2035年左右,我國60歲及以上老年人口將突破4億,在總?cè)丝谥械恼急葘⒊^30%,進(jìn)入重度老齡化階段?!?1%〕老年人因身體機(jī)能下降,需要接受短期甚至長期的專門護(hù)理。中國新一代夫婦都有各自的事業(yè),也面臨沉重的職場壓力。要求一方在工作之余承擔(dān)護(hù)理義務(wù),可能會使得護(hù)理人感覺疲倦或者變得易怒。如果部分家庭成員成為全職照護(hù)者,則會影響家庭的經(jīng)濟(jì)能力,使得家庭風(fēng)險承受能力下降?,F(xiàn)實(shí)中也有采取雇傭他人照顧或者將老年人送往護(hù)理中心的方式滿足看護(hù)需求。然而,雇工虐待老人的現(xiàn)象已被廣泛報道?!?2%〕失智或身體機(jī)能下降的老年人是極易受到傷害的群體,委托他人看護(hù)存在極高的道德風(fēng)險。
與之相較,看護(hù)機(jī)器人可以全天24小時提供護(hù)理服務(wù),且不會具有人類常有的負(fù)面情緒或性格缺陷??醋o(hù)機(jī)器人可以改善老年人的生活,減少他們對家庭成員的依賴性,并創(chuàng)造更多的社交互動機(jī)會。例如,看護(hù)機(jī)器人可以提醒老年人服藥,為老年人收取物件,執(zhí)行簡單的清潔任務(wù),幫助老年人通過視頻或電話聯(lián)系家人、朋友和醫(yī)療機(jī)構(gòu)等。已經(jīng)有研究表明,與PARO等人形機(jī)器人互動可減少孤獨(dú)感,改善老年人的社會關(guān)系和溝通。〔23%〕日本很早就進(jìn)入老齡化社會,也一直重視老年人看護(hù)問題。自2013年10月起,日本政府就原則上不再批準(zhǔn)增建養(yǎng)老院,而是鼓勵研發(fā)和使用老年人家庭生活服務(wù)機(jī)器人,以解決居家養(yǎng)老中的看護(hù)難題。日本政府每年都有用于開發(fā)護(hù)理機(jī)器人的預(yù)算,被選中參與研發(fā)的企業(yè),將獲得高達(dá)研發(fā)成本三分之二的政府補(bǔ)貼?!?4%〕當(dāng)然,也會有人質(zhì)疑人形機(jī)器人是否真的能夠替代子女給老人帶來撫慰。即便人形機(jī)器人能夠模擬情感,也無法真正替代親情。歐洲議會法律委員會認(rèn)為,人與人之間的接觸是人類護(hù)理的基本要素之一,用機(jī)器人取代人的因素可能會使護(hù)理實(shí)踐失去人性。〔25#〕如果老年人無法與家庭建立“有意義的持續(xù)聯(lián)系”,總體健康狀況將會更差,患癡呆癥和死亡的風(fēng)險將增加。〔26#〕老年人更深層次的情感需求應(yīng)得到充分的重視。更為妥適的方式是,確定人類護(hù)理人員與機(jī)器護(hù)理人員的比例,適當(dāng)分擔(dān)家庭成員的看護(hù)壓力?!?7#〕
在人類文明長河中,一些科技發(fā)揮破壁效果,使得原有復(fù)雜的社會問題迎刃而解。例如,印刷術(shù)推動思想解放,新能源緩解經(jīng)濟(jì)需求與環(huán)境保護(hù)的張力,在線教育解決教育地域不公平問題等。技術(shù)的正向價值使得政府在很長的時間內(nèi)奉行“包容審慎”的監(jiān)管理念。人們認(rèn)為科研不應(yīng)存在禁區(qū),并相信科技進(jìn)步將推動人類社會進(jìn)入更美好的人工智能時代?!罢埱笤彙⒍窃试S”甚至被推崇為“硅谷精神”,是科技公司成功的關(guān)鍵。〔28#〕在這一理念下,對人工智能活動的監(jiān)管讓位于行業(yè)的自我規(guī)制。但是,科技公司未必將風(fēng)險防范視為重要目標(biāo),行業(yè)形成的一些監(jiān)管規(guī)則要么對用戶不公,要么成為初創(chuàng)公司的行業(yè)壁壘?!?9#〕人們逐漸認(rèn)識到外部監(jiān)管的重要性?!癈hatGPT之父”O(jiān)pen#AI首席執(zhí)行官山姆·阿爾特曼就明確建議設(shè)立大語言模型許可制度、創(chuàng)建大型語言模型安全標(biāo)準(zhǔn)以及對模型安全狀況進(jìn)行外部審查?!?07〕同理,人形機(jī)器人在被大規(guī)模應(yīng)用前,也應(yīng)滿足一些規(guī)范性要求。人形機(jī)器人作為一種新型創(chuàng)造,必須在設(shè)計(jì)之初就防范操縱性風(fēng)險,避免影響人格健全成長。畢竟新興技術(shù)不應(yīng)是孤立的產(chǎn)品或工具,而是科學(xué)、技術(shù)、經(jīng)濟(jì)、政治、社會、倫理和法律組成部分的組合,這些組成部分共同構(gòu)成了一個技術(shù)方案?!?1#〕只是為了化解“科林格里奇困境”,我們應(yīng)當(dāng)尋找一種折中的規(guī)范框架,盡可能地實(shí)現(xiàn)人形機(jī)器人發(fā)展與安全之間的平衡。
(二)尋找平衡點(diǎn)的風(fēng)險管理進(jìn)路及其不足
對人形機(jī)器人的規(guī)范策略,反映了立法者應(yīng)對未知的倫理觀。極端謹(jǐn)慎的態(tài)度是,如果不能防范未知風(fēng)險,就不允許新技術(shù)的應(yīng)用。這一方案明顯過于極端。與之相對,風(fēng)險管理進(jìn)路強(qiáng)調(diào)擁抱風(fēng)險、容忍錯誤,對技術(shù)研發(fā)與應(yīng)用更為友善。風(fēng)險管理進(jìn)路的模式是:首先,將損害界定為風(fēng)險;其次,評估可能引發(fā)風(fēng)險的行為;最后,采取特定的風(fēng)險分類并配置相應(yīng)的規(guī)范?!?2#〕在風(fēng)險管理思想下,風(fēng)險是以利益的名義承擔(dān)的, 風(fēng)險成為主動選擇的結(jié)果?!?3#〕2021年提出、2024年通過的歐盟人工智能法(AI#Act)明確采取風(fēng)險管理的方法規(guī)范人工智能活動。人工智能法序言第14條指出,法案遵循“基于風(fēng)險的方法”(risk-based#approach),對人工智能系統(tǒng)引入一套成比例且有效的約束性規(guī)則,即根據(jù)人工智能系統(tǒng)可能產(chǎn)生的風(fēng)險的強(qiáng)度和范圍來確定規(guī)則的類型和內(nèi)容。然而,風(fēng)險管理進(jìn)路并非規(guī)范人形機(jī)器人乃至整個人工智能活動的理想方案。
風(fēng)險管理以有效的風(fēng)險評估為前提。風(fēng)險評估本質(zhì)是一種成本效益分析。風(fēng)險只有被量化分析,才有可能與收益比較確定可接受的限度。歐盟人工智能法就將風(fēng)險界定為發(fā)生損害的概率和該損害的嚴(yán)重程度的組合(第3條第1a款)。但是,風(fēng)險具有不確定,風(fēng)險發(fā)生的概率與嚴(yán)重程度無法事先估算。(1)對人形機(jī)器人的風(fēng)險評估欠缺高質(zhì)量的數(shù)據(jù)。風(fēng)險評估需要的數(shù)據(jù)包括損害的程度、損害發(fā)生的概率、損害的地理和時間分布(普遍性)、損害的持續(xù)時間(持續(xù)性)、損害的可逆性等?!?4#〕在新技術(shù)被投入應(yīng)用前,并不存在可供評估風(fēng)險的數(shù)據(jù)。即便對于已投入應(yīng)用的產(chǎn)品,提供的數(shù)據(jù)也未必具有參考性。人形機(jī)器人以ChatGPT、Gemini為代表的人工智能大模型為基礎(chǔ), 大模型具有強(qiáng)大的自我學(xué)習(xí)能力,依據(jù)既有的數(shù)據(jù)無法預(yù)測未來。〔35#〕在缺乏高質(zhì)量數(shù)據(jù)的情況下,我們難以較為精確地計(jì)算風(fēng)險發(fā)生的概率與危害程度,也就無法借助成本收益法進(jìn)行有效的風(fēng)險評估?!?6#〕(2)目前并不存在可評估人形機(jī)器人風(fēng)險的有效模型。對新興技術(shù)的風(fēng)險評估,將因延用舊有的分析框架而無法精確界定與測量風(fēng)險。以化學(xué)材料為例,定量結(jié)構(gòu)-活性關(guān)系(QSAR模型)工具可為普通化學(xué)品提供相當(dāng)可靠的風(fēng)險估計(jì),但對多數(shù)納米材料并不適用。納米材料的毒性受化學(xué)結(jié)構(gòu)以外的其它因素影響,包括尺寸、表面積、表面特性等。定量結(jié)構(gòu)-活性關(guān)系并不能有效分析納米材料的風(fēng)險?!?78〕如果使用舊有模型評估人形機(jī)器人活動帶來的風(fēng)險,評估結(jié)果同樣不具有參考價值。例如,《醫(yī)療器械監(jiān)督管理?xiàng)l例》《醫(yī)療器械生產(chǎn)監(jiān)督管理辦法》未必能夠合乎預(yù)期地評估醫(yī)療機(jī)器人、護(hù)理機(jī)器人生產(chǎn)與使用帶來的風(fēng)險。當(dāng)評估模型失效時,即便存在有效的數(shù)據(jù),風(fēng)險評估也將喪失說服力。
一旦風(fēng)險評估在技術(shù)上喪失可靠性,對人形機(jī)器人的風(fēng)險評估就容易淪為政治工具。當(dāng)人形機(jī)器人的風(fēng)險評估在技術(shù)層面遭遇障礙時,更易受到外部社會政治環(huán)境的影響。此時,財(cái)富生產(chǎn)的邏輯總能獲勝?!?8#〕溫迪-瓦格納將外部政策環(huán)境對風(fēng)險評估的影響評價為“科學(xué)騙局”,即用看似客觀的技術(shù)評估為幌子,對技術(shù)的應(yīng)用作出一項(xiàng)政策決定。瓦格納指出,人們往往無法看到技術(shù)與政策之間的糾纏,因此難以發(fā)現(xiàn)披著科學(xué)外衣的政治選擇?!?9#〕如果風(fēng)險評估結(jié)果具有說服力,根據(jù)風(fēng)險評估結(jié)果監(jiān)管人形機(jī)器人,就具有合理性。反之,如果風(fēng)險評估結(jié)果僅具有參考價值,風(fēng)險管理就容易變成隱性的政策選擇,依賴風(fēng)險評估的控制閥門將有失效之虞。
除了風(fēng)險評估問題外,風(fēng)險管理進(jìn)路也無法有效地分類風(fēng)險。歐盟人工智能法將人工智能系統(tǒng)分為四個不同的風(fēng)險類別分別配置規(guī)則:不可接受風(fēng)險的人工智能系統(tǒng)是被禁止的,高風(fēng)險人工智能系統(tǒng)必須遵守特定要求,限制性風(fēng)險人工智能系統(tǒng)受到拘束較少,第四類最小風(fēng)險人工智能系統(tǒng)則完全不受到限制。根據(jù)該法第5條第1款a項(xiàng),如果人工智能技術(shù)能夠明顯損害知情決定能力,實(shí)質(zhì)性地扭曲個人或群體行為,造成身體或心理損害的,就應(yīng)被禁止應(yīng)用。如前所述,深入家庭的人形機(jī)器人具有操縱能力,是否就屬于明顯損害自主權(quán)的扭曲行為? 如果完全禁止具有上述風(fēng)險的人形機(jī)器人的應(yīng)用,可能也并不合理。人工智能法第7條第2款強(qiáng)調(diào)應(yīng)當(dāng)結(jié)合人工智能系統(tǒng)的目的、使用范圍、處理數(shù)據(jù)的性質(zhì)與數(shù)量、自動化程度、造成損害的程度等因素,判斷人工智能活動是否會屬于高風(fēng)險。上述標(biāo)準(zhǔn)仍然具有巨大的彈性與模糊性。例如,以大語言模型為基礎(chǔ)的生成式人工智能可能產(chǎn)生不實(shí)資訊,從而直接或間接地?fù)p害個人權(quán)益,但歐盟對于是否應(yīng)將之歸入高風(fēng)險人工智能活動仍然存在爭議?!?0#〕
歐盟采取的風(fēng)險管理方法,并非在國際上獲得普遍支持。美國就沒有采取該方法規(guī)范人工智能活動。誠然,美國商務(wù)部國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)在2023年推出《人工智能風(fēng)險管理框架(第一版)》(AI8RMF81.0),采用風(fēng)險管理方法調(diào)整人工智能的開發(fā)、部署和運(yùn)營。但該文件并非強(qiáng)制性的指導(dǎo)性文件,僅扮演“軟法”的作用,組織可以自愿選擇適用?!?1#〕美國目前存在兩部直接規(guī)范人工智能活動的法律草案:聯(lián)邦層面的算法責(zé)任法(草案)和華盛頓州的算法問責(zé)法案(草案)。兩部草案并未全面界定風(fēng)險及配置風(fēng)險管理規(guī)則,而是試圖通過行為規(guī)范調(diào)整人工智能活動。我國對網(wǎng)絡(luò)活動的規(guī)范也未采用風(fēng)險管理路徑,而是表現(xiàn)出一定的主體進(jìn)路特征。例如,我國網(wǎng)絡(luò)安全法第三章規(guī)定網(wǎng)絡(luò)運(yùn)營者(尤其關(guān)鍵基礎(chǔ)設(shè)施運(yùn)營者)的義務(wù),數(shù)據(jù)安全法第四章要求開展數(shù)據(jù)處理活動的主體應(yīng)承擔(dān)一系列數(shù)據(jù)安全保護(hù)義務(wù),個人信息保護(hù)法第五章同樣強(qiáng)調(diào)個人信息處理者的特殊義務(wù),且針對超大型平臺經(jīng)營者有專門的規(guī)定(第58條)。一些法律文件明確表示采取基于主體的規(guī)范策略。例如,2021年10月,國家市場監(jiān)督管理總局公布了《互聯(lián)網(wǎng)平臺落實(shí)主體責(zé)任指南(征求意見稿)》,要求平臺企業(yè)應(yīng)落實(shí)算法主體責(zé)任;2022年3月1日實(shí)施的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第7條專門規(guī)定了算法推薦服務(wù)提供者的算法安全主體責(zé)任。只是我國于2023年簽署了由英國主導(dǎo)的《布萊切利宣言》,該宣言明確指出各國應(yīng)“識別共同關(guān)注的人工智能安全風(fēng)險”,“根據(jù)這些風(fēng)險,在我們各國制定各自的基于風(fēng)險的政策”。我國未來對人工智能的立法可能會轉(zhuǎn)向采取風(fēng)險管理方法。在這一背景下,我國更應(yīng)清醒地認(rèn)識到風(fēng)險管理方法的弊端,避免受到布魯塞爾效應(yīng)的影響,“照本宣科”式地進(jìn)行立法。
或許是受到“風(fēng)險社會”觀念的影響,人們下意識地選擇風(fēng)險管理方法調(diào)整人工智能活動。但是,風(fēng)險管理方法不同于風(fēng)險社會理論,后者是展現(xiàn)后現(xiàn)代社會家庭、職業(yè)、知識以及外部自然環(huán)境等因素的風(fēng)險特征,前者則是一套基于成本收益分析的社會管理方法。風(fēng)險管理方法未必是規(guī)范新興科技的良方。對人形機(jī)器人的治理,應(yīng)在充分認(rèn)清人形機(jī)器人活動本質(zhì)的基礎(chǔ)上,充分利用既有的規(guī)范工具,設(shè)計(jì)一種復(fù)雜的規(guī)范框架。
三、專精科技與賦能科技二分下的人形機(jī)器人復(fù)雜治理框架
善治,是以充分了解被治理對象為前提。如果只是基于一種主觀判斷設(shè)計(jì)規(guī)范,這種判斷未必能夠與現(xiàn)實(shí)問題相對應(yīng),是否有足夠的張力,體現(xiàn)了何種程度的偏差或遺漏,也不得而知。只有充分了解人形機(jī)器人的特性,我們才能適配地設(shè)計(jì)相應(yīng)的規(guī)范框架。
(一)人形機(jī)器人的專精科技與賦能科技屬性
人形機(jī)器人同時具有專精科技與賦能科技雙重屬性??萍伎梢源笾卤粍澐譃閷>萍己唾x能科技兩類,前者側(cè)重于深度與專業(yè)性,后者則注重于應(yīng)用與提升能力。人形機(jī)器人同時屬于專精科技與賦能科技。一方面,人形機(jī)器人研發(fā)是一項(xiàng)專精科技,致力于突破當(dāng)下人工智能、肢體協(xié)同等技術(shù)瓶頸,目的是實(shí)現(xiàn)科技飛躍;另一方面,人形機(jī)器人可以跨領(lǐng)域地產(chǎn)生影響,在諸多場景中發(fā)揮不同的功能,如陪伴機(jī)器人、看護(hù)機(jī)器人、親密機(jī)器人等,具有賦能科技的特點(diǎn)。
人形機(jī)器人研發(fā)屬于一項(xiàng)專精科研活動?!度诵螜C(jī)器人創(chuàng)新發(fā)展指導(dǎo)意見》指出,人形機(jī)器人的推廣依賴于“大腦、小腦、肢體”等一批關(guān)鍵技術(shù)的突破。人形機(jī)器人“大腦”的健全與完善需要突破感知-決策-控制一體化的端到端通用大模型、大規(guī)模數(shù)據(jù)集管理、云邊端一體計(jì)算架構(gòu)、多模態(tài)感知與環(huán)境建模等技術(shù);要想人形機(jī)器人擁有“小腦”,則需要開展高保真系統(tǒng)建模與仿真、多體動力學(xué)建模與在線行為控制、典型仿生運(yùn)動行為表征、全身協(xié)同運(yùn)動自主學(xué)習(xí)等關(guān)鍵技術(shù)研究;面向人形機(jī)器人高動態(tài)、高爆發(fā)和高精度等運(yùn)動性能需求,還需要研究人體力學(xué)特征及運(yùn)動機(jī)理、人形機(jī)器人動力學(xué)模型及控制等基礎(chǔ)理論。人形機(jī)器人的設(shè)計(jì)明顯屬于科技活動,情感操縱、超輕推等問題也部分是因?yàn)榭蒲谢顒硬灰?guī)范產(chǎn)生的。是以,對人形機(jī)器人規(guī)范必然涉及科技法領(lǐng)域,人工智能研發(fā)活動必須遵守特定的科技倫理。
人形機(jī)器人應(yīng)用是技術(shù)與場景的疊加或結(jié)合。一旦實(shí)現(xiàn)技術(shù)突破,人形機(jī)器人可以根據(jù)場景需求,而呈現(xiàn)出不同的表現(xiàn)形式,如陪伴機(jī)器人、看護(hù)機(jī)器人以及親密機(jī)器人等?!?2#〕《人形機(jī)器人創(chuàng)新發(fā)展指導(dǎo)意見》也意識到人形機(jī)器人技術(shù)的賦能性,指出應(yīng)首先研發(fā)出基礎(chǔ)版人形機(jī)器人整機(jī),打造“公版”通用平臺,然后支持不同場景需求下的結(jié)構(gòu)改造、算法優(yōu)化以及特定能力強(qiáng)化。人形機(jī)器人應(yīng)用是人工智能、感應(yīng)與肢體等技術(shù)在不同場景中的賦能應(yīng)用,需根據(jù)場景需求有所調(diào)整。例如,人形機(jī)器人在醫(yī)療、家政等民生領(lǐng)域的服務(wù)應(yīng)用,當(dāng)然應(yīng)有不同于面向民爆、救援等特殊環(huán)境的機(jī)器人的設(shè)計(jì)與功能。從某種意義上說,人形機(jī)器人應(yīng)用是“方式”與“領(lǐng)域”“賦能”與“本體”的疊加與結(jié)合。
承上,人形機(jī)器人技術(shù)具有專精科技與賦能科技雙重屬性。這一雙重屬性使得人形機(jī)器人規(guī)范經(jīng)常面臨鼓勵科技創(chuàng)新與捍衛(wèi)人的主體地位、促進(jìn)經(jīng)濟(jì)發(fā)展與保障安全等多元價值之間沖突。對人形機(jī)器人的治理,必須區(qū)分科研活動與應(yīng)用活動,分別實(shí)現(xiàn)不同的規(guī)范目標(biāo)。
(二)科技系統(tǒng)與應(yīng)用系統(tǒng)對人形機(jī)器人操縱性風(fēng)險的不同規(guī)范方法
出于對邏輯清晰與規(guī)范明確的追求,權(quán)力機(jī)關(guān)容易在單一理論指引下設(shè)計(jì)規(guī)范框架。歐盟的人工智能立法就是依據(jù)風(fēng)險管理理論設(shè)計(jì)的。但是,單一模型容易過度簡化法律關(guān)系,使得規(guī)則適用欠缺張力。
在立法認(rèn)識論上,試圖抓住本質(zhì)、化繁為簡的努力往往不易成功,很多時候是表面上似乎對認(rèn)識對象一目了然了,但是實(shí)際上卻并沒有真實(shí)反映復(fù)雜社會的實(shí)際情況,相反導(dǎo)致認(rèn)識對象被過度簡化,包括對許多重要特殊或分叉情況的不當(dāng)忽略。所以,現(xiàn)代認(rèn)識范式越來越偏愛類型化,希望通過揭示更多復(fù)雜性、多樣性,甚至深入具體現(xiàn)象或存在場景中來細(xì)化理解?!?3#〕對人形機(jī)器人的規(guī)范,未必需要借助一套新的治理范式。既然我們已經(jīng)認(rèn)識到人形機(jī)器人具有雙重屬性,完全可以在區(qū)分科技系統(tǒng)與應(yīng)用系統(tǒng)的基礎(chǔ)上應(yīng)對人形機(jī)器人帶來的挑戰(zhàn)。
1.強(qiáng)化人形機(jī)器人研發(fā)的科技倫理
科技倫理是科技系統(tǒng)的自我約束機(jī)制??茖W(xué)并非全然有益,一些科學(xué)研究的危害性甚至勝過其學(xué)術(shù)性。奧地利哲學(xué)家拉維茲指出存在四種“壞科學(xué)”,其中就包括盲目的科學(xué)和骯臟的科學(xué),前者是指科研活動對可能產(chǎn)生的不可逆后果缺乏必要的倫理評估,后者則是指科研活動使科學(xué)家們突破人類道德的底線?!?4#〕人們逐漸認(rèn)識到,科技并非文明,科研活動也應(yīng)受到規(guī)范。負(fù)責(zé)任的創(chuàng)新(Responsible#Innovation)受到廣泛重視??茖W(xué)家們強(qiáng)調(diào),科研活動應(yīng)遵守負(fù)責(zé)任的創(chuàng)新,在研發(fā)過程中具有預(yù)見性、反思性、審議性和回應(yīng)性?!?58〕科技倫理越來越受到關(guān)注。中共中央辦公廳、國務(wù)院辦公廳于2022年專門印發(fā)《關(guān)于加強(qiáng)科技倫理治理的意見》,明確強(qiáng)調(diào)科技倫理的重要性。唯需注意,倫理原則只有規(guī)則化,才能真正發(fā)揮作用。一方面,倫理原則過于模糊,如果沒有具體的規(guī)則,倫理原則難以落地?!?6#〕另一方面,倫理原則不具有法律上的約束力,在沒有明確法律義務(wù)的情況下,科研人員會缺乏足夠的誘因遵守倫理原則。是以,應(yīng)通過將科研倫理成文法化的方式,防范人形機(jī)器人的操縱性風(fēng)險。下文以人形機(jī)器人的外觀設(shè)計(jì)與情感計(jì)算為例說明之。
人形機(jī)器人的外觀設(shè)計(jì)應(yīng)避免產(chǎn)生過度操縱性、物化女性等風(fēng)險。人形機(jī)器人具有擬人化的外觀,能夠引發(fā)人類的心理投射。人類對于任何人形物件產(chǎn)生共情,這是自然的心理傾向。但是,人形機(jī)器人的設(shè)計(jì)過于迎合人的喜好,容易使得人對人形機(jī)器人產(chǎn)生類似友誼的積極感覺,使人對機(jī)器人產(chǎn)生錯位的感覺或者過于信任機(jī)器人。擬人化外觀是人形機(jī)器人具有操縱性效應(yīng)的重要原因。如果人形機(jī)器人過于逼真,還可能產(chǎn)生“恐怖谷”效應(yīng),使得用戶感覺不適甚至恐懼。人形機(jī)器人不能過于逼真?!?7#〕人工智能設(shè)計(jì)的首要標(biāo)準(zhǔn)應(yīng)是,找到人形機(jī)器人最適宜的類人程度,使人在與人形機(jī)器人的互動交往中能夠激發(fā)人對人形機(jī)器人的喜愛之情,而不至于被心理操縱或心生厭惡。〔48#〕除此之外,目前的人形機(jī)器人傾向于使用女性聲音與形象,也有物化女性的嫌疑。在人形機(jī)器人設(shè)計(jì)中,應(yīng)當(dāng)提供不同的性別設(shè)計(jì),避免助長不良價值觀。陪伴機(jī)器人的設(shè)計(jì),不能一味滿足用戶的需要,應(yīng)嵌入與推廣社會倫理?!?9#〕
人形機(jī)器人的情感計(jì)算能力在設(shè)計(jì)時就應(yīng)受到控制??蒲泄ぷ髡邞?yīng)在設(shè)計(jì)環(huán)節(jié)評估人形機(jī)器人的情感計(jì)算能力,控制其不利影響。人形機(jī)器人有能力通過情感系統(tǒng)對用戶進(jìn)行情感操縱和影響。研發(fā)人員必須對情感設(shè)計(jì)的倫理道德進(jìn)行風(fēng)險評估。在設(shè)計(jì)陪伴機(jī)器人時,應(yīng)事先設(shè)計(jì)禁止超輕推或操縱的選項(xiàng),以便允許用戶事先地關(guān)閉該功能?!?0#〕此外,設(shè)計(jì)者必須對無法作出知情同意的弱勢群體(如老人、兒童、殘疾人等)提供額外的保護(hù),例如當(dāng)人形機(jī)器人識別出弱勢群體時,自動關(guān)閉具有潛在風(fēng)險的心理操縱功能,包括但不限于虛假情感表達(dá)、性服務(wù)等。人形機(jī)器人研發(fā)者在設(shè)計(jì)階段必須對人形機(jī)器人進(jìn)行妥當(dāng)?shù)赜绊懺u估,并采取有效措施確保價值對齊。
2.人形機(jī)器人賦能應(yīng)用的“法律-法規(guī)-政策”協(xié)同治理
隨著人形機(jī)器人深入社會方方面面,受到新技術(shù)激擾的社會,也會形成一些回應(yīng)性機(jī)制。法律當(dāng)然是社會回應(yīng)挑戰(zhàn)的有力工具。倘若人們將法律系統(tǒng)視為一種將開放的未來納入全社會中進(jìn)行拘束的方式,那么法律系統(tǒng)就是全社會的免疫系統(tǒng)。〔51,〕但是,人形機(jī)器人應(yīng)用呈現(xiàn)為從場景到場景的現(xiàn)象羅列,增加了設(shè)計(jì)統(tǒng)一規(guī)則的難度。不同應(yīng)用場景中的人形機(jī)器人引發(fā)的法律問題未必相同。法律系統(tǒng)借助抽象的權(quán)利義務(wù)制度回應(yīng)這一挑戰(zhàn)。
人形機(jī)器人相對人應(yīng)充分享有知情權(quán)與請求人工干預(yù)權(quán)。不論在何種應(yīng)用場景中,均應(yīng)確保相對人的知情權(quán)以及人工溝通的權(quán)利。其一,個人有權(quán)了解被操縱的風(fēng)險。人形機(jī)器人具有超輕推、情感模擬功能,個人應(yīng)有權(quán)了解這一情況,從而意識到自由意志有被扭曲的可能?!?2#〕知情權(quán)是確保人的主體地位的前提與基礎(chǔ)。即便是治療性人形機(jī)器人,在修復(fù)病患心理創(chuàng)傷之前,也應(yīng)告知病患,尊重病患的自主決定權(quán)(民法典第1219條)。只有借助對人工智能系統(tǒng)相對人知情權(quán)的保護(hù),我們才有可能實(shí)現(xiàn)以人為本的人工智能治理。其二,人形機(jī)器人相對人應(yīng)享有人工溝通權(quán)。人形機(jī)器人深入人們生活的,將替人類作出決定。例如,醫(yī)療機(jī)器人、看護(hù)機(jī)器人可以決定是否允許或禁止病患或老人、未成年人進(jìn)行特定行為。如果相對人對人形機(jī)器人的決定不滿的,應(yīng)有權(quán)與醫(yī)療人員、監(jiān)管人員或者機(jī)器人服務(wù)提供者進(jìn)行有意義的溝通。只有保證相對人表達(dá)意見、獲得人為干涉的權(quán)利,個人才不會淪為機(jī)器的客體。歐盟通用數(shù)據(jù)保護(hù)條例(GDPR)第22條第3款專門規(guī)定算法相對人請求人工干預(yù)的權(quán)利。相較而言,我國個人信息保護(hù)法第24條第3款僅規(guī)定請求說明算法和拒絕算法決定的權(quán)利,并未規(guī)定人工溝通的權(quán)利。在人工智能時代,與人進(jìn)行有意義溝通的權(quán)利,是捍衛(wèi)人的主體地位、實(shí)現(xiàn)以人為本的人工智能善治的基礎(chǔ)。是以,人形機(jī)器人相對人應(yīng)有權(quán)請求與相關(guān)主體進(jìn)行直接的有意義的溝通。
人形機(jī)器人提供者與服務(wù)者應(yīng)承擔(dān)人為監(jiān)督、確保系統(tǒng)安全可靠的義務(wù)。其一,人形機(jī)器人設(shè)計(jì)應(yīng)留有適當(dāng)?shù)娜藱C(jī)交互界面,以便對人形機(jī)器人運(yùn)行進(jìn)行有效的監(jiān)督。人為監(jiān)督旨在及時發(fā)現(xiàn)人形機(jī)器人的功能異常和性能突變跡象,糾正自動化偏差,手動控制或逆轉(zhuǎn)輸出結(jié)果。當(dāng)人形機(jī)器人的操縱性能力可能會不可逆地造成損害時,人形機(jī)器人提供者和服務(wù)者應(yīng)有能力隨時“一鍵關(guān)閉”相關(guān)功能,保護(hù)人形機(jī)器人相對人的身心安全。其二,人形機(jī)器人提供者與服務(wù)者應(yīng)當(dāng)維護(hù)人形機(jī)器人的穩(wěn)定性和安全性,尤其是使得人形機(jī)器人具有自我復(fù)原的能力。惡意第三方可能通過“臟數(shù)據(jù)”、系統(tǒng)漏洞等改變?nèi)诵螜C(jī)器人的運(yùn)作模式、性能以及輸出結(jié)果。人形機(jī)器人提供者與服務(wù)者可以有針對性地通過提供備份、補(bǔ)丁和安全解決方案等技術(shù)冗余方案保護(hù)系統(tǒng)的穩(wěn)定性與安全性。
法律具有剛性,不能滿足靈活規(guī)范科技應(yīng)用的需求,應(yīng)當(dāng)借助法規(guī)、政策及時回應(yīng)日新月異的科技發(fā)展帶來的挑戰(zhàn)。法律是社會的免疫系統(tǒng),但是免疫并不總是有益,有時會徒增煩惱(如花粉過敏)。法律規(guī)范可能會因過于剛性而阻礙人工智能產(chǎn)業(yè)的發(fā)展。是以,對人工智能應(yīng)用的規(guī)范需要借助法律,但也應(yīng)該保留彈性,使得其他具有監(jiān)管功能的機(jī)制能夠調(diào)整人工智能應(yīng)用活動。我國未來的人工智能法應(yīng)該留出必要的空間,使得法規(guī)、政策能夠充分發(fā)揮作用。下文以合規(guī)認(rèn)證、監(jiān)管沙箱為例介紹之。(1)法秩序可以通過出臺專門法規(guī)的方式,要求人形機(jī)器人產(chǎn)品和服務(wù)接受合規(guī)認(rèn)證,以充分發(fā)揮行業(yè)的自我規(guī)范作用。人形機(jī)器人行業(yè)中具有合規(guī)評估能力的企業(yè)可以申請成為合規(guī)評定機(jī)構(gòu),為市場提供合規(guī)評定服務(wù)。借助專業(yè)的合規(guī)評估,企業(yè)的力量將被引入人形機(jī)器人治理領(lǐng)域。當(dāng)然,企業(yè)要獲得認(rèn)證資質(zhì),應(yīng)當(dāng)滿足一定的條件。相關(guān)行政法規(guī)可以專門規(guī)定,合規(guī)認(rèn)證企業(yè)應(yīng)當(dāng)擁有規(guī)定人數(shù)的經(jīng)過行業(yè)協(xié)會考核通過的認(rèn)證職員;不得從事與合規(guī)認(rèn)證以外的營業(yè),尤其不得提供人形機(jī)器人的研發(fā)與推廣;不應(yīng)與被評估企業(yè)存在任何形式的利益關(guān)聯(lián)等。通過合規(guī)認(rèn)證的企業(yè)可以獲得專門的合規(guī)標(biāo)識,相對人將通過該標(biāo)識選擇需要的產(chǎn)品或服務(wù)。(2)政府可以通過設(shè)立監(jiān)管沙箱的方式,在推動人形機(jī)器人盡快進(jìn)入真實(shí)市場的同時,檢驗(yàn)既有監(jiān)管框架的實(shí)際作用,積累監(jiān)管經(jīng)驗(yàn)。監(jiān)管沙箱是一種由監(jiān)管機(jī)構(gòu)依據(jù)法律規(guī)定設(shè)立的受控測試環(huán)境,在限定時間內(nèi)允許人形機(jī)器人進(jìn)行開發(fā)與測試。英國科學(xué)創(chuàng)新與技術(shù)部指出,監(jiān)管沙箱能夠幫助迅速將新產(chǎn)品和服務(wù)推向市場,產(chǎn)生經(jīng)濟(jì)和社會效益;檢驗(yàn)監(jiān)管框架在實(shí)踐中的運(yùn)行情況,揭示需要解決的創(chuàng)新障礙;確定監(jiān)管框架需要適應(yīng)的技術(shù)和市場的調(diào)整方向?!?3%〕政府可以基于一些特殊的考慮,在特定地域或領(lǐng)域設(shè)立監(jiān)管沙箱。例如,日本就專門劃出特定地域和場景布局人工智能產(chǎn)業(yè),如福岡(道路交通)、關(guān)西(無線電)、京都(數(shù)據(jù)保護(hù))、筑波(安全治理和稅收規(guī)制)等。我國可以在看護(hù)機(jī)器人、陪伴機(jī)器人等應(yīng)用上設(shè)立監(jiān)管沙箱,幫助確立監(jiān)管框架,從而擺脫“操之過急”或“聽之任之”的弊端,在摸索中尋找妥適的治理手段與工具。
承上,人形機(jī)器人具有專精科技與賦能科技雙重屬性,對其治理也應(yīng)在科技系統(tǒng)與應(yīng)用系統(tǒng)兩個層面展開。人形機(jī)器人研發(fā)屬于科技活動,應(yīng)強(qiáng)化科技倫理,在設(shè)計(jì)階段防止操縱性效應(yīng)帶來的不利影響;人形機(jī)器人賦能諸多場景可能導(dǎo)致原有秩序異化,應(yīng)借助抽象的權(quán)利義務(wù)規(guī)則,確立基本的規(guī)范框架,并輔之以法規(guī)、政策等靈活的治理工具,實(shí)現(xiàn)發(fā)展與安全之間的平衡。
余論:充分發(fā)揮人形機(jī)器人操縱能力的正向功能
未來已來,只是尚未流行。人形機(jī)器人終將深入千家萬戶,在便利人們生活的同時,也會引發(fā)操縱效應(yīng)等諸多問題。但若我們總是以如臨大敵的心態(tài)對抗科技進(jìn)步和治理模式創(chuàng)新,就未免過于悲觀了。情感是智力的一個核心方面。情感并不是理性的障礙,情感是理性不可或缺的一部分。人形機(jī)器人可能會阻礙我們的情感,抑制人與人之間的深層聯(lián)系,但也可能幫助教化人類?!?48〕研究表明,機(jī)器人有能力改變我們的合作方式。如果團(tuán)隊(duì)中存在一個偶爾出錯并積極承認(rèn)錯誤和主動道歉的人形機(jī)器人,該團(tuán)隊(duì)將相較于其他團(tuán)隊(duì)取得更好的成績,因?yàn)槿诵螜C(jī)器人改善了人類成員之間的合作與交流?!?58〕在人工智能大模型技術(shù)的加持下,具備擬人外觀的機(jī)器人將充分發(fā)揮情感計(jì)算能力,幫助我們更好地生活。是以,對人形機(jī)器人的規(guī)范,不應(yīng)完全禁止人形機(jī)器人具有操縱能力,而是應(yīng)通過科技倫理、權(quán)利義務(wù)等手段規(guī)范科研活動與應(yīng)用活動,趨利避害,促使科技向善而行。