亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        具身智能體的隱私風(fēng)險及法律應(yīng)對

        2024-07-14 00:00:00王苑
        東方法學(xué) 2024年3期
        關(guān)鍵詞:人形數(shù)據(jù)保護(hù)個人信息

        內(nèi)容摘要:具身智能體結(jié)合了人工智能與機(jī)器人技術(shù),單獨(dú)討論其中的任何一項(xiàng)技術(shù)對隱私的威脅都是片面的。具身智能體所具有的具身性、交互性及涌現(xiàn)性特征展現(xiàn)了其強(qiáng)大的互動和行動能力,給隱私與數(shù)據(jù)保護(hù)帶來前所未有的新挑戰(zhàn)。一方面,具身智能體能侵入私密空間,記錄私密活動并潛移默化收集處理私密信息;另一方面,自主決策和自主行動的結(jié)合能造成實(shí)害,侵害用戶的人身財產(chǎn)權(quán)益。既有的隱私和數(shù)據(jù)保護(hù)規(guī)則圍繞信息控制而展開,具身智能體數(shù)據(jù)的生成和涌現(xiàn)加上造成實(shí)際損害的能力不僅會導(dǎo)致個人信息控制機(jī)制的失靈,還可能會使追究責(zé)任變得不切實(shí)際。針對這些挑戰(zhàn),除了弱化既有數(shù)據(jù)法中個人同意的作用外,還需在人工智能立法中植入數(shù)據(jù)保護(hù)理念,強(qiáng)化監(jiān)管者和設(shè)計者責(zé)任,尤其是應(yīng)當(dāng)禁止通用型具身智能的市場化應(yīng)用,并確立“通過設(shè)計來進(jìn)行隱私和數(shù)據(jù)保護(hù)”的原則,明確設(shè)計者的可責(zé)性。

        關(guān)鍵詞:具身智能人工智能人形機(jī)器人隱私數(shù)據(jù)保護(hù)責(zé)任承擔(dān)

        中圖分類號:DF529 文獻(xiàn)標(biāo)識碼:A 文章編號:1674-4039-(2024)03-0064-76

        引言

        具身智能代表了傳統(tǒng)人工智能的具身化轉(zhuǎn)向,其核心理念是模擬人類智能的具身“進(jìn)化”過程,創(chuàng)造出作用于真實(shí)世界的“身—智—行”統(tǒng)一的機(jī)器人。〔1\"〕自2023年年初至今的生成式人工智能技術(shù)的躍進(jìn)式發(fā)展,成就了機(jī)器的“身體/意向”的雙層具身構(gòu)造?!?'〕具身智能體是指那些能夠感知、理解環(huán)境,并通過智能決策和行動來與環(huán)境互動的應(yīng)用。這些應(yīng)用通常具備傳感技術(shù)、數(shù)據(jù)處理和執(zhí)行能力,以模擬或模仿人類感知和行為。具身智能體不等于生成式人工智能或多模態(tài),因?yàn)榫呱碇悄艿那疤崾怯幸粋€身體,但其又不能狹義地等同于人形機(jī)器人,因?yàn)橐泊嬖诜侨诵蔚闹悄芟到y(tǒng)。但毫無疑問,人形機(jī)器人是具身智能體中最具代表性的一種。

        人形機(jī)器人又稱仿人機(jī)器人或類人機(jī)器人,具有擬人的肢體、運(yùn)動與作業(yè)技能,具備感知、學(xué)習(xí)和認(rèn)知能力?!?\"〕2023年10月20日,工業(yè)和信息化部印發(fā)《人形機(jī)器人創(chuàng)新發(fā)展指導(dǎo)意見》,該意見對人形機(jī)器人的發(fā)展作出了全面的戰(zhàn)略部署。作為衡量國家科技創(chuàng)新和高端制造業(yè)水平的重要標(biāo)志,人形機(jī)器人正成為科技競爭的新高地、未來產(chǎn)業(yè)的新賽道?!?\"〕2024年1月12日,北京人形機(jī)器人創(chuàng)新中心專家委員會成立大會上重磅宣布了北京將加速布局人形機(jī)器人未來產(chǎn)業(yè),打造機(jī)器人產(chǎn)業(yè)綜合集聚區(qū)。業(yè)內(nèi)專家認(rèn)為,人形機(jī)器人與生成式人工智能的融合,開啟了“具身智能”時代,具身智能機(jī)器人是人工智能的終極形態(tài)?!?\"〕

        機(jī)器人技術(shù)早已深入滲透制造業(yè)的發(fā)展,工業(yè)機(jī)器人替代了流水線上的工人;從軍事到教育,從交通運(yùn)輸?shù)结t(yī)療保健,從老年護(hù)理到兒童玩具,機(jī)器人正在以新的方式進(jìn)入公共和私人領(lǐng)域,但也引發(fā)了許多社會和倫理問題,尤其是人形機(jī)器人的隱私和安全問題。具身智能體給隱私保護(hù)提出了哪些新問題?哪些問題通過既有的法律路徑就足以解決?本文主要從具身智能技術(shù)的特性、具身智能體對隱私和數(shù)據(jù)保護(hù)的挑戰(zhàn)及相應(yīng)的法律應(yīng)對展開。

        一、面向社會的具身智能體

        具身智能技術(shù)呈現(xiàn)出具身性、交互性及涌現(xiàn)性三種顯著特性。過去流行的觀點(diǎn)是,技術(shù)的問題交給技術(shù)人員來處理。然而,現(xiàn)實(shí)卻是,技術(shù)問題已經(jīng)成為了人文社科無法回避的真正問題,無論是海德格爾還是劉易斯·芒福德、蘭登·溫納等學(xué)者,在20世紀(jì)就已經(jīng)開始思考技術(shù)問題的本質(zhì)。與自然科學(xué)不同的是,社會科學(xué)更多關(guān)注的是技術(shù)的社會面向。

        (一)具身智能技術(shù)的特征

        1.具身性

        人工智能的發(fā)展依賴數(shù)據(jù)、算法和算力,但對世界的感知和行動通常需要一種物理存在,數(shù)據(jù)、算法和算力并不具備物理存在,因此機(jī)器人通常是具身的。通常意義上的具身,是指身體與心智的統(tǒng)一。具身性思想關(guān)注身體以及身體、大腦及周圍世界復(fù)雜的相互滲透關(guān)系在人類智能形成和實(shí)現(xiàn)中的重要作用?!?+〕具身智能并不限于人形機(jī)器人,但與無實(shí)體的計算機(jī)程序不同,具身性使得機(jī)器人很容易被形塑(picture)出來,進(jìn)而對人的心理產(chǎn)生影響。具身智能體的設(shè)計出現(xiàn)了擬人化的發(fā)展趨勢,一方面是因?yàn)槭艿礁鞣N科幻隱喻的影響,〔7+〕但更主要的是因?yàn)閿M人化可以幫助消除用戶與機(jī)器人之間的隔閡,使人機(jī)交互更加輕松和愉快,促進(jìn)情感聯(lián)系和溝通。人們更傾向于信任和欣賞一種具身化的人工智能(通常以機(jī)器人的形式出現(xiàn)),而不是無身體的系統(tǒng)?!?+〕

        2.交互性

        具身智能體的交互性是指其與人類進(jìn)行雙向溝通和互動的能力。交互性的提升使得機(jī)器人能夠更好地理解人類的語言、情感和意圖,并作出適當(dāng)?shù)幕貞?yīng)。人類傾向于以不同于其他物體的方式看待可以與人類進(jìn)行交互的機(jī)器人。有大量文獻(xiàn)表明,人們對機(jī)器人的反應(yīng)是與人互動類似的反應(yīng)。觸發(fā)這種反應(yīng)的門檻很低:早期的心理學(xué)研究甚至表明人們會賦予頁面上移動的形狀以社會角色?!?\"〕達(dá)令曾經(jīng)做過一項(xiàng)著名的實(shí)驗(yàn),研究人員先讓人們和機(jī)器恐龍玩具玩耍了一個小時,后要求參與者使用武器將機(jī)器恐龍玩具射殺,所有的參與者都拒絕了。即便告訴他們可以射殺其他的恐龍玩具來保護(hù)自己的,他們依然拒絕?!?0%〕這一實(shí)驗(yàn)展現(xiàn)出了機(jī)器人越來越能與人進(jìn)行互動的同時,也可能引起人類同理心。

        3.涌現(xiàn)性

        人工智能的涌現(xiàn)性指的是在人工智能系統(tǒng)中出現(xiàn)的新特性、新行為或新結(jié)構(gòu),這些特性不是由單個算法或模塊的性質(zhì)所決定的,而是由整個系統(tǒng)的組織、相互作用和學(xué)習(xí)過程所導(dǎo)致的。人工智能的涌現(xiàn)性可能表現(xiàn)為系統(tǒng)學(xué)習(xí)到的意想不到的行為或解決問題的能力,這些行為或能力超出了單個組件的能力范圍。涌現(xiàn)性使得人工智能系統(tǒng)具有更高的靈活性和適應(yīng)性,能夠應(yīng)對復(fù)雜、不確定的環(huán)境,并表現(xiàn)出類似于人類智能的特征。

        涌現(xiàn)性并不存在于低層次的單個要素之中,而是系統(tǒng)在低層次構(gòu)成高層次時才表現(xiàn)出來,所以形象地稱為“涌現(xiàn)性”。一個常見的例子是螞蟻?zhàn)裱唵蔚囊?guī)則來完成復(fù)雜的、看似智能的任務(wù)?!?1%〕系統(tǒng)功能往往表現(xiàn)為“整體大于部分之和”,就是因?yàn)橄到y(tǒng)涌現(xiàn)出新質(zhì)的緣故,其中的“大于”成分就是涌現(xiàn)的新質(zhì)。系統(tǒng)的這種涌現(xiàn)性是系統(tǒng)的適應(yīng)行為體(adaptive\"agent)之間非線性相互作用的結(jié)果?!?2%〕擁有涌現(xiàn)能力的智能體,可能具有一定程度的自主性,能夠根據(jù)環(huán)境和目標(biāo)作出自主決策,并采取相應(yīng)的行動。

        (二)具身智能體的社會屬性

        具身智能體的具身性、交互性以及明顯的自主行動結(jié)合在一起,使其具有社會屬性。具身智能體的社會屬性指智能實(shí)體作為某個社會角色而行動,而智能體的具身性和交互性是其具備社會屬性的前提條件。具身性提供了機(jī)器人的物理屬性,交互性則滿足了人類與機(jī)器人進(jìn)行情感交流的需求,從而使機(jī)器人的自主行為具備了社會性。過去的機(jī)器人只能重復(fù)指令執(zhí)行行動,而具身智能體則更像一種能夠適應(yīng)環(huán)境的系統(tǒng)。具身智能體自己可以主動感知環(huán)境,例如當(dāng)有一個盒子在它的面前時,它會主動感知并可能嘗試打開這個盒子。

        交互性尤其體現(xiàn)了機(jī)器人社會性,人們往往傾向于將可互動的移動物體視為活物,但關(guān)鍵不在于機(jī)器人是否具有物理形態(tài)———畢竟,烤面包機(jī)也具有物理形態(tài)———而是在它們的交互性在人類中產(chǎn)生了特定的社會性。〔13%〕交互能力的提升對于機(jī)器人“社會角色化”具有重要影響。一旦機(jī)器人具備了社會角色,比如家庭機(jī)器人成了家庭的一員或伴侶機(jī)器人成了人類的伴侶,那么未來的具身智能設(shè)備,如具身智能音箱或類似寵物狗的掃地機(jī)器人,很可能會扮演家庭成員的角色。此外,經(jīng)過有意設(shè)計的人形機(jī)器人會進(jìn)一步增加機(jī)器人的社會性??傊瑹o論個人是否了解技術(shù)的本質(zhì)或內(nèi)涵,機(jī)器人的社會影響與生俱來,并會隨著時間的推移而持續(xù)存在?!?4%〕

        智能機(jī)器人和人之間的關(guān)系通常被理解為智能機(jī)器人擔(dān)任照料者、朋友、伙伴以及引起人類浪漫興趣的精神伴侶。在應(yīng)對超老齡人口社會問題方面,智能機(jī)器人被證明是非常有用的工具。人工智能和機(jī)器人伙伴已經(jīng)被看作人類的朋友,并且與人類之間能夠交互影響,形成各類情緒、思想等。〔15%〕與西方國家相比,東亞主要國家表現(xiàn)出了對人形機(jī)器人的特別偏好,例如日本政府正竭力將機(jī)器人納入社會并使機(jī)器人成為其社會基礎(chǔ)的關(guān)鍵部分?!?6#〕通過和大模型結(jié)合,機(jī)器人已經(jīng)具備了成為人類重要助手的能力。2023年阿里巴巴展示其大模型時,工程師通過釘釘發(fā)出指令“我渴了,找點(diǎn)東西喝喝吧”,大模型在后臺自動編寫了一組代碼發(fā)給機(jī)器人,在識別周圍環(huán)境后,機(jī)器人從附近的桌子上找到了一瓶水,并自動完成了移動、抓取、配送等一系列動作。

        因此,與歷史上的任何技術(shù)相比,機(jī)器人對人類具有更強(qiáng)的社會影響力。在大多數(shù)情況下,我們不會對一堵墻說話并期待其回應(yīng),也不會將墻視為可能的朋友,但機(jī)器人似乎與眾不同。〔17#〕心理學(xué)家彼得·卡恩和他的同事進(jìn)行了一系列試驗(yàn),試圖了解人們?nèi)绾嗡伎紮C(jī)器人。研究對象既不傾向于認(rèn)為擬人化的機(jī)器人是活著的,但也不認(rèn)為它們是物體。在這樣的研究中,研究對象傾向于將心理狀態(tài)的差異歸因于機(jī)器人的反應(yīng),因?yàn)槿绻皇桥c一個物體打交道的話,很難會有諸如感到不適等想法。〔18#〕

        當(dāng)機(jī)器人的行為邏輯很難被理解時,人們往往會沿用既有社會認(rèn)知來填補(bǔ)空白,因此機(jī)器人的擬人化成為社交互動和社會認(rèn)知在人類生活中重要性的自然延伸?!?9#〕然而,擬人化也同樣帶來諸多倫理上和法律上的問題,其中之一是可能會混淆真實(shí)和虛假,從而破壞社會基本價值觀。本文想要深入討論的問題是智能機(jī)器人對隱私這種基本價值的侵害。在討論技術(shù)對隱私價值的侵害程度時,取決于該技術(shù)在特定場景中收集、處理個人信息的方式是否合理?!?0#〕

        二、具身智能體對隱私和數(shù)據(jù)保護(hù)的挑戰(zhàn)

        機(jī)器人技術(shù)和人工智能系統(tǒng)是具身智能體的一體兩面, 杰克·巴爾金曾批判如果堅持把兩者區(qū)分得太明顯,可能會造成一定的誤區(qū)?!?1#〕單純討論機(jī)器人或人工智能對隱私價值的威脅是片面的,具身智能技術(shù)的具身性、交互性及涌現(xiàn)性凸顯了其社會性特質(zhì),展現(xiàn)了其強(qiáng)大的互動和行動能力,對隱私價值產(chǎn)生深遠(yuǎn)的影響,也給既有的隱私與數(shù)據(jù)保護(hù)法律規(guī)則帶來前所未有的挑戰(zhàn)?!?2#〕

        (一)具身智能體的隱私威脅和侵害

        許多隱私問題由來已久,當(dāng)然并不僅由具身智能體所導(dǎo)致。然而,具身智能體強(qiáng)化了數(shù)據(jù)收集能力和分析能力,增加了隱私入侵的可能性,同時其自主決策和行動的能力容易將隱私威脅轉(zhuǎn)變?yōu)閷?shí)害,使得隱私和數(shù)據(jù)保護(hù)所面臨的問題更為復(fù)雜。

        1.收集與監(jiān)視的方式趨向多樣化

        以人形機(jī)器人為例,人形機(jī)器人比以往任何技術(shù)或?qū)櫸锒几苋谌肴祟惖氖澜?,甚至可能比一些家庭成員(如兒童)更能融入,這種互動形式存在欺騙性、隱蔽性、持續(xù)性等特質(zhì),帶來一系列的隱私威脅。民法典第1032條第2款規(guī)定:“隱私是自然人的私人生活安寧和不愿為他人知曉的私密空間、私密活動、私密信息。”人形機(jī)器人侵犯隱私的方式是多維的,可能單一侵犯其中一種隱私,也可能同時侵犯多種隱私。

        第一,私密空間。具身智能體進(jìn)入私密空間不易引發(fā)人類反感,尤其是具有行動能力的家庭機(jī)器人。例如,人們很少會將智能掃地機(jī)器人進(jìn)入臥室視為對隱私的威脅。心理治療過程中機(jī)器人的使用,尤其是機(jī)器人已經(jīng)從提供簡單的情感支持發(fā)展到高技能的專業(yè)技能,比如24小時陪伴、個性化服務(wù)等,在這類機(jī)器人面前,用戶是否還保有私密空間幾乎無從談起。此外,人形機(jī)器人與人工智能系統(tǒng)不同的是,其行動能力可能會導(dǎo)致更為惡劣的人身傷害后果,一旦機(jī)器人被黑客攻擊,不排除機(jī)器人可能隨時會為有所企圖的第三人打開家門,甚至有些機(jī)器人還可能協(xié)助破壞家庭財物或“一本正經(jīng)地胡說八道”來嚇唬老人或孩子。

        第二,私密活動。人形機(jī)器人可以全方位、持續(xù)性、無間斷記錄個人私密活動。一方面,人們很少會考慮到需要避開機(jī)器人從事私密活動。實(shí)時攝像頭開始進(jìn)入家庭后,實(shí)際上家庭攝像頭除了具有防盜功能,還會拍攝并實(shí)時記錄家庭中其他成員的私密活動,而具身智能體必然配備實(shí)時攝像功能,同時其移動能力更是為記錄用戶的私密活動提供了可能。另一方面,機(jī)器人可能會滿足人類從事私密活動的需求,例如據(jù)媒體報道,性愛機(jī)器人就十分具有市場前景。〔23amp;〕為滿足和人類的交互性功能,人形機(jī)器人配備了一系列先進(jìn)的傳感器和處理器,大大放大了對環(huán)境信息和個人信息的收集和記錄能力。比如近日美國AIbotics公司最新研發(fā)的按摩機(jī)器人,該機(jī)器人搭載AI功能,通過傳感攝像頭對用戶的背部進(jìn)行掃描建模,并可自主規(guī)劃按摩路徑。這些被收集和記錄的私密活動或個人信息,會被存儲在公共云或名義上的私有云中,一旦泄露,后果不堪設(shè)想。

        第三,私密信息。人形機(jī)器人收集的信息性質(zhì)較以往敏感度更甚。首先,人形機(jī)器人可能引導(dǎo)用戶有意無意主動透露私人或敏感信息,涉及操縱用戶。有研究表明,智能系統(tǒng)的具身化具有親和力,可能增加用戶的風(fēng)險容忍度并減少其隱私擔(dān)憂?!?4amp;〕同時,有研究表明裝有“面孔”和“眼睛”的具身智能伴侶能以看上去有感情的方式回應(yīng)用戶的需求?!?5amp;〕人類潛意識的反應(yīng),都會被記錄下來。無論是通過機(jī)器人的感應(yīng)設(shè)備,還是嵌入為代碼,相關(guān)數(shù)據(jù)都會被固定存儲在文檔中。其次,人形機(jī)器人可以近距離接觸并不斷分析信息主體,通過大模型推斷出個人信息、敏感數(shù)據(jù),最終可能比主體本身更了解自己。比如機(jī)器人可能收集生物識別信息進(jìn)行人臉識別或情感計算等?!?6amp;〕洗碗機(jī)或自動烘干機(jī)的運(yùn)行數(shù)據(jù)很難說明其使用者的性格,但作為伴侶的人形機(jī)器人的運(yùn)行數(shù)據(jù)卻能傳遞很多敏感問題。

        2.無法預(yù)測的自動化決策和行動相結(jié)合

        與其他智能系統(tǒng)不同的是,除了自主決策,具身智能體還可以將決策轉(zhuǎn)化為行動,因此威脅很可能成為實(shí)際損害。機(jī)器人學(xué)領(lǐng)域的學(xué)者托馬斯·謝里丹提出了一種四階段信息處理模型:(1)信息獲?。ㄓ^察);(2)信息分析(定位);(3)決策選擇(決定);(4)行動實(shí)施(行動)。設(shè)想智能機(jī)器人在公共場所突然對人群發(fā)起攻擊,這對于不具備行動能力的智能系統(tǒng)而言顯然無法做到。2017年2月歐洲議會通過的《機(jī)器人民事法律規(guī)則》指出,機(jī)器人的自主性可以被界定為在外部世界作出獨(dú)立于外在控制或影響的決定并實(shí)施這些決定的能力?!?7amp;〕該定義包含了兩個具體層面:一是獨(dú)立作出決定的能力,二是實(shí)施決定的能力。

        一方面,具身智能體可以自主決策。第二次世界大戰(zhàn)后,歐洲法律一直在努力使人處于自動決策過程中———無論是通過允許公民堅持由人作出特定決策的權(quán)利,還是需要人參與的平臺責(zé)任。〔28#〕因此歐盟法上對于完全的自動化決策,即無人干預(yù)的自動化決策一直都是持原則上禁止、例外允許的立法態(tài)度?!?9#〕然而,人工智能的涌現(xiàn)能力賦予了機(jī)器人自主性。其在不同環(huán)境中的反應(yīng)和決策甚至不是其設(shè)計者可以預(yù)料或事先控制的,這種不可預(yù)測性源于算法的復(fù)雜性,包括那些能從過往經(jīng)驗(yàn)中學(xué)習(xí)的算法,還可能包括了多層創(chuàng)新、數(shù)字系統(tǒng)的生成性以及數(shù)據(jù)的流動性等原因?!?0#〕機(jī)器可以使用檢測到的模式對某些復(fù)雜的事物作出有用的決定,而不需要像人類那樣理解它們的潛在意義。因此,完全自動化的決策在具身智能體的情形下完全可以實(shí)現(xiàn),其表征是機(jī)器人顯得會“思考”和能與人“共情”。但這種無法預(yù)測的自主決策能力一旦失靈,在對個人影響重大的事項(xiàng)上直接作出決定,那么可能會對個人權(quán)益造成極大的傷害。

        另一方面,具身智能體可以自主行動,行動必然導(dǎo)致一定的后果。過去的人工智能系統(tǒng),包括生成式人工智能,都不具有行動能力,換言之其本質(zhì)上更像是一個決策輔助系統(tǒng)。但是,一旦不可預(yù)測的自主決策與行動能力相互結(jié)合,很可能會帶來某種程度的實(shí)害。從隱私和數(shù)據(jù)保護(hù)的角度來說,具身智能體對隱私的侵害行為表現(xiàn)為三個類型:一是表現(xiàn)為未經(jīng)個人同意進(jìn)入、拍攝、窺視他人的私密空間,智能體可以直接進(jìn)入一些其他人難以進(jìn)入的私密空間并進(jìn)行拍攝;二是未經(jīng)同意拍攝、窺視、竊聽、公開他人的私密活動,智能體的拍攝可能是為了與人類互動所需,但人類無法預(yù)測其下一步行動,是否會將私密活動的音視頻傳輸或公開等;三是未經(jīng)個人同意處理他人的個人信息,包括將個人數(shù)據(jù)傳輸給第三方或者故意或重大過失泄露個人的隱私信息等。

        (二)既有隱私與數(shù)據(jù)保護(hù)規(guī)則的困境

        既有的隱私和數(shù)據(jù)保護(hù)法建立在個人信息控制論基礎(chǔ)之上,但無論是機(jī)器人技術(shù)還是生成式人工智能,都具有“反控制”的鮮明特質(zhì),與既有的規(guī)則之間存在不可調(diào)和的沖突。此外,具身智能體數(shù)據(jù)的生成和涌現(xiàn)加上造成實(shí)際傷害的能力可能會使追究責(zé)任變得不切實(shí)際。

        1.個人信息控制機(jī)制的失靈

        數(shù)據(jù)保護(hù)圍繞著個人信息控制進(jìn)行了全面的規(guī)則設(shè)計,包括“告知—同意”“目的限制”“最小必要”“信息處理中的個人權(quán)利”等。具身智能體的社會性帶來了與用戶互動的新方式:收集用戶信息并潛在地影響用戶行為,同時在不可預(yù)測的情形下展開行動。以人形機(jī)器人為例,個人信息控制機(jī)制的失靈體現(xiàn)在多個方面:

        首先,“告知—同意”規(guī)則受到更為嚴(yán)重的質(zhì)疑。信息隱私長期以來在某種程度上都與控制有關(guān),同意作為控制的手段,是數(shù)據(jù)保護(hù)的核心。人形機(jī)器人影響個人的方式更加微妙、更加自動化、更加不透明?!?1#〕且不論人形機(jī)器人能否做到充分告知數(shù)據(jù)收集和利用的政策,即便能通過技術(shù)手段解決告知問題,面對類人的機(jī)器人,人們是否還有足夠的理性作出最符合自身利益的決定? 尤其是當(dāng)機(jī)器人具備情感交流等交互特質(zhì)時,引誘用戶作出的同意是否有效? 如何判斷機(jī)器人是否存在引誘等行為?此外,對敏感個人數(shù)據(jù)的收集和處理如何做到單獨(dú)同意?如果機(jī)器人與用戶交流時不斷彈窗單獨(dú)提示可能會收集用戶的敏感信息并要求其同意,勢必影響到用戶體驗(yàn),二者之間又如何協(xié)調(diào)? 在未成年人數(shù)據(jù)保護(hù)方面,兒童是使用陪伴型具身智能體的主要人群之一,機(jī)器人往往是在家長無暇或無力陪伴兒童的情形下作為替代出現(xiàn),那么如何符合數(shù)據(jù)保護(hù)中的未成年人個人信息的收集和處理必須取得其監(jiān)護(hù)人的明示同意規(guī)則?

        其次,目的限制原則在具身智能體場景下被無限突破。目的限制原則被一些學(xué)者稱為數(shù)據(jù)保護(hù)中的“帝王條款”,是個人信息控制的實(shí)現(xiàn)方式。根據(jù)個人信息保護(hù)法第6條第1款,該原則要求“處理個人信息應(yīng)當(dāng)具有明確、合理的目的,并應(yīng)當(dāng)與處理目的直接相關(guān),采取對個人權(quán)益影響最小的方式”。具身智能體可以無時無刻持續(xù)收集用戶的個人信息,包括敏感個人信息,然而具身智能體的涌現(xiàn)性特征和自主行動的特征,讓信息處理者根本無從判斷信息收集使用的最終目的,這從根本上突破了數(shù)據(jù)保護(hù)中的目的限制原則。

        再次,最小必要原則在具身智能體場景下幾乎不可能實(shí)現(xiàn)。從體系解釋上,最小必要原則依賴于目的限制原則,數(shù)據(jù)的收集和處理應(yīng)當(dāng)在合理目的的范圍內(nèi)最小化,超出合理目的范圍的收集就是不必要的。一方面,必要性原則作為個人信息處理的整體性原則,不能通過告知同意規(guī)則進(jìn)行規(guī)避?!?2%〕另一方面,具身智能體自主行動的特性顯然無法滿足目的限制和最小必要原則,因?yàn)橹悄荏w必須不斷收集環(huán)境和個人的數(shù)據(jù),才能依據(jù)這些數(shù)據(jù)來進(jìn)行決策和判斷下一步的行動,而且在目的并不明確的情形下,有意義的“最小必要”根本無法保障?!?3%〕

        最后,完全自動化決策拒絕權(quán)被架空。既有的數(shù)據(jù)保護(hù)法從某種程度上對人工智能系統(tǒng)中的數(shù)據(jù)保護(hù)是有所考慮和規(guī)定的,比如賦予信息主體拒絕權(quán)以防止完全自動化決策對個人生活的影響及傷害。然而,自動化決策及行動是具身智能體的本質(zhì)屬性,信息主體在知悉和了解該屬性的前提下,接納具身智能體進(jìn)入個人的生活,是否就等同于同意和接受了完全自動化決策和自主行動可能帶來的實(shí)際影響? 如此,數(shù)據(jù)保護(hù)法中的信息主體的拒絕權(quán)還有無必要? 是否還有實(shí)現(xiàn)的空間?

        除上述列舉外,無論是從權(quán)利的角度賦予個人對信息的控制權(quán),還是從義務(wù)的角度要求處理者履行對信息的處理義務(wù),數(shù)據(jù)保護(hù)的許多規(guī)則均依賴于對信息的控制。然而在自主涌現(xiàn)系統(tǒng)中,很多情形下會對控制進(jìn)行顛覆,例如用戶給人形機(jī)器人布置了陪伴老人的任務(wù),機(jī)器人卻以一種意料之外的方式完成了這個任務(wù),比如通過泄露用戶隱私來吸引老人的注意力。概言之,過去的數(shù)據(jù)處理整體上是線性的,“收集—分析—決策—使用”,每個環(huán)節(jié)個人或處理者都有一定的控制權(quán),數(shù)據(jù)生成模糊了數(shù)據(jù)收集和數(shù)據(jù)處理之間的界限,非線性處理方式的復(fù)雜性會增加控制的難度,使得許多隱私保護(hù)法律變得無效?!?4%〕

        2.侵權(quán)責(zé)任難以歸責(zé)

        隱私和個人信息侵權(quán)事件中,由于往往不知道是哪個環(huán)節(jié)泄露了個人信息,確定責(zé)任主體的困難嚴(yán)重阻礙了受害人的訴訟積極性。疊加大規(guī)模微型侵權(quán)的維權(quán)成本和訴訟收益之間不成比例,侵權(quán)責(zé)任中的因果關(guān)系難以厘清等現(xiàn)實(shí)困境,受害人很少會通過訴訟途徑進(jìn)行維權(quán)?!?5%〕除了上述固有的隱私與數(shù)據(jù)保護(hù)難題,具身智能體侵權(quán)的獨(dú)特性在于,一旦用戶的隱私或個人信息權(quán)益受侵害,如何準(zhǔn)確界定侵權(quán)主體以及界定侵權(quán)責(zé)任將成為核心議題?!?6%〕

        具身智能體能否成為侵權(quán)主體? 這一問題可還原為具身智能體是主體還是工具之辨。機(jī)器人越來越模糊了人與工具之間的界線,〔37+〕2017年沙特阿拉伯宣布授予機(jī)器人“索菲亞”以公民資格,這就促使法學(xué)界進(jìn)一步思考具身智能體是否具有獨(dú)立的主體地位?!?8+〕肯定觀點(diǎn)認(rèn)可人形機(jī)器人具有類人的特性,尤其是深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)等技術(shù)賦予了人形機(jī)器人生成“觀點(diǎn)”、自我“反思”、“感受”環(huán)境等與人相似的技能,甚至有些領(lǐng)域的機(jī)器人可以在“反事實(shí)”層面與世界互動,而具身的存在可以讓機(jī)器人在感性世界中行動,成為類人主體意義上的存在?!?9#〕此類可以反思、互動及行動的機(jī)器人形象在各種影視作品中并不鮮見,未來可基于現(xiàn)實(shí)需求從侵權(quán)責(zé)任主體開始,承認(rèn)人工智能的法律主體地位?!?0#〕

        反對觀點(diǎn)則認(rèn)為機(jī)器人現(xiàn)在是、未來仍將是工具。機(jī)器人是(可以)運(yùn)用復(fù)雜軟件的高級工具,但本質(zhì)上無異于一把錘子、一臺電鉆、一個文字處理軟件、一個網(wǎng)絡(luò)瀏覽器或者車?yán)锏膭x車系統(tǒng)。〔41#〕人格理論經(jīng)過幾個世紀(jì)的變革,即使把純粹技術(shù)性的法人納入了主體的范圍,但本質(zhì)依然是倫理性的,是自由意志。〔42#〕機(jī)器人是否已經(jīng)擁有了自由意志? 自由意志包含了三個階段,分別是感覺、感知和自我感知。感覺已經(jīng)可以通過傳感器技術(shù)實(shí)現(xiàn);感知則可以通過數(shù)據(jù)的收集分析和解釋;但是機(jī)器人是否已經(jīng)實(shí)現(xiàn)了自我感知,即便到目前,依然是一個未知數(shù)?!?3#〕有學(xué)者斷言,人工智能或許可以進(jìn)行快速的計算,但是它缺少精神。〔44#〕至少從中短期來看,無論是技術(shù)能力還是社會環(huán)境,似乎都還沒有到人工智能法律人格獲得廣泛認(rèn)可的階段。

        一方面,將具身智能機(jī)器人完全歸類為主體或工具均有一定難度,另一方面人們普遍傾向于像對待人一樣對待具身智能體,這一悖論威脅了主客體二元價值觀?!?5#〕也使得在具身智能體侵權(quán)事件中確認(rèn)責(zé)任主體難上加難,法律主體責(zé)任說之外,還產(chǎn)生了產(chǎn)品責(zé)任說、高度危險說、用人者責(zé)任說等代表性觀點(diǎn)?!?6#〕總之,機(jī)器人的擬人化不是賦予其法律人格的理據(jù),但是,考慮到一般社會大眾與這些機(jī)器人接觸時,在某些特定環(huán)境下易陷入“人格化陷阱”,〔47#〕且自主行動的機(jī)器人決策的背景、依據(jù)、機(jī)理、程序等甚至連程序設(shè)計者都無法洞察,似乎應(yīng)該賦予智能體有限責(zé)任。

        由于人工智能體的法律人格難題,導(dǎo)致侵權(quán)責(zé)任主體不明確,具身智能技術(shù)的發(fā)展使得這一界定變得更加模糊。在涉及人工智能體的侵權(quán)案件中,設(shè)計者、制造商、所有者以及實(shí)際使用等均可能對侵權(quán)行為承擔(dān)某種程度的責(zé)任,但是現(xiàn)行的法律體系并未充分考慮到這些新的責(zé)任主體。

        三、具身智能體場景下的隱私和數(shù)據(jù)保護(hù)

        具身智能體侵害隱私的行為極具迷惑性,責(zé)任主體更難確定,隱私與數(shù)據(jù)保護(hù)的理論和既有規(guī)則均難以回應(yīng)。為紓解具身智能體場景下隱私與數(shù)據(jù)保護(hù)的困境,一方面應(yīng)當(dāng)對既有規(guī)則框架進(jìn)行改進(jìn),以更好地適應(yīng)具身智能場景;另一方面在即將開展的人工智能立法中,應(yīng)當(dāng)加強(qiáng)對數(shù)據(jù)保護(hù)相關(guān)理念的植入,確保其符合法律和倫理要求。

        (一)數(shù)據(jù)法中隱私與數(shù)據(jù)保護(hù)規(guī)則的轉(zhuǎn)進(jìn)

        傳統(tǒng)的個人信息同意機(jī)制本身在應(yīng)對大數(shù)據(jù)和人工智能的挑戰(zhàn)時已經(jīng)舉步維艱,〔48#〕這種困難在具身智能體的背景下更加凸顯。過度依賴同意機(jī)制可能會導(dǎo)致忽視其他重要的隱私保護(hù)措施。但完全取消同意機(jī)制可能剝奪個人對其個人信息處理的控制權(quán),違背了數(shù)據(jù)保護(hù)的核心原則。

        1.#避免過度依賴個人同意制度

        早期的討論主要關(guān)注在數(shù)字時代消費(fèi)者或公民能夠多大程度維護(hù)個人信息的控制權(quán),〔49'〕因此個人信息同意機(jī)制成為各國數(shù)據(jù)立法的重要選擇。但人工智能的數(shù)據(jù)收集方式使得用戶同意機(jī)制形同虛設(shè)。智能系統(tǒng)收集大量用戶數(shù)據(jù)的目的和用途往往是未知的,大量研究表明,人們并不清楚自己在同意什么。目前各大互聯(lián)網(wǎng)公司已經(jīng)在更新其隱私政策,表明其將使用用戶個人信息以支持其人工智能的開發(fā)?!?0#〕因此,同意制度一旦被處理者所濫用,可能異化成為個人信息處理的“自由通行證”。〔51'〕比如信息處理者往往借助一攬子同意為不當(dāng)處理或?yàn)E用個人信息的行為免責(zé),或是通過獲取用戶同意超過必要范圍收集用戶個人信息。這些行為顯然違反了個人信息保護(hù)中的安全保障、目的限制、最小必要等原則。同意機(jī)制已經(jīng)淪為了一塊遮羞布,只是為了展示形式上符合法律法規(guī)的數(shù)據(jù)合規(guī)。

        驅(qū)動具身智能體的算法進(jìn)一步使得問題復(fù)雜化,這些算法依賴于大量的數(shù)據(jù),為了能夠評估其風(fēng)險,人們必須成為專業(yè)的數(shù)據(jù)科學(xué)家,同時還必須能夠?qū)彶橛糜谟?xùn)練算法的數(shù)據(jù),顯然這是不可行的?!?2'〕在生成式人工智能的背景下,即便是設(shè)計者也并不一定真正知曉決策的背景和邏輯,因此,要求對決策的基礎(chǔ)和決策的過程幾乎一無所知的用戶作出基于真意表示的同意,顯然違背了賦予個人同意的初衷。

        此外,人形機(jī)器人等具身智能體可能涉及引誘、操縱用戶等情形,〔53'〕這更放大了同意制度本身的缺陷。個人面對引誘或操縱時,可能會受到情緒、壓力、欺騙等因素的影響,無法在理性的情形下作出決定,導(dǎo)致決策失誤,比如一個擬人化的機(jī)器人吸塵器在了解用戶的個性后,在軟件升級時發(fā)送悲傷的表情引導(dǎo)收取費(fèi)用?!?4'〕因此更應(yīng)避免過度依賴個人同意制度。

        最后,應(yīng)當(dāng)認(rèn)識到的是,購買者主動購買或使用具身智能體,比如家庭機(jī)器人,并不意味著購買者主動對隱私進(jìn)行了讓渡。有觀點(diǎn)認(rèn)為如果個人真的重視隱私,可能會選擇不購買這些產(chǎn)品。這一觀點(diǎn)是對數(shù)據(jù)處理中的同意制度的誤讀。一方面,同意購買并不等同于同意處理,盡管可以將同意處理作為附加合同條款寫入買賣合同,但這樣的行為可能被視為一種搭售,違反了當(dāng)事人的自由意志,屬于不公平的合同條款,可能導(dǎo)致相關(guān)合同條款無效或部分無效?!?5'〕一旦發(fā)生損害用戶個人信息權(quán)益或隱私的事件,該種同意無法作為商家或設(shè)計者的免責(zé)事由。另一方面,同意處理個人信息也并不意味著同意濫用和同意損害個人權(quán)益,信息處理者在處理個人信息的時候依然要遵循個人信息保護(hù)法的相應(yīng)原則和規(guī)則。因此購買合同中的信息處理附加條款只能意味著用戶在一定程度上了解機(jī)器人可能會有一些潛在的風(fēng)險,但并不意味著就完全讓渡了隱私,這樣的同意也無法為后續(xù)所有的信息處理賦予合法性基礎(chǔ)。

        2.弱化同意機(jī)制并不等于取消同意

        完全取消知情同意機(jī)制并不可取,弱化同意機(jī)制并不等于取消同意?!?6%〕在具身智能體場景下,同意機(jī)制很難真正保障個人對個人信息的控制,但并不能因?yàn)橥昝赖膫€人控制的不可能,就得出有效的控制不可能的推論。就像鎖可以被撬開,并不意味著鎖毫無用處?!?7%〕即使是部分的控制,也能有強(qiáng)有力的影響。況且保留同意機(jī)制以保障最低限度的自我裁量,有利于強(qiáng)化用戶的主體意識,而非退化為“襁褓中的嬰兒”,由機(jī)器人來決定和安排自己的生活。人的自由裁量確實(shí)有時候是代價高昂、效率低下且容易出錯的,但如果讓渡這種自由裁量,無疑是讓渡了人的主體性。

        具體操作上,可以對同意機(jī)制進(jìn)行制度上的改良。比如智能系統(tǒng)可以通過主動身份驗(yàn)證、聲音驗(yàn)證、人臉驗(yàn)證等方式來識別出特定群體,并據(jù)此采取不同的同意機(jī)制。根據(jù)人群的不同,可以區(qū)分弱勢群體和非弱勢群體。所謂的弱勢群體,可能包含了未成年人、老年人、精神脆弱群體等。比如針對未成年人,確保未成年人使用機(jī)器人時有家長的同意,比如自動給家長的智能手機(jī)發(fā)送實(shí)時通知并獲得家長的有效同意;針對老年人群體,采取簡單易懂的同意方式,避免過于復(fù)雜和冗長的說明,比如通過輕松日常的對話等方式來告知使用機(jī)器人可能有的隱私風(fēng)險;針對精神脆弱群體,需要特別關(guān)注其心理狀況,并結(jié)合輔助人員或醫(yī)護(hù)人員協(xié)助其作出符合其心智特征的同意。

        對于非弱勢群體,為確保信息主體能夠?qū)ζ鋫€人信息保持持續(xù)的控制,有學(xué)者提出可以采用動態(tài)同意模式,以應(yīng)對數(shù)據(jù)及其在人工智能體中使用的不斷變化的性質(zhì)。在這種模式下,個人可以根據(jù)自己的意愿和偏好隨時更新和修改對數(shù)據(jù)處理的同意范圍、同意內(nèi)容以及同意方式。同時為避免反復(fù)征詢授權(quán)致使數(shù)據(jù)主體安寧權(quán)受損,可默認(rèn)一定時間的“連續(xù)授權(quán)許可”。〔58%〕即在一定期限內(nèi),個人的同意可以持續(xù)有效,無需頻繁重新確認(rèn)和操作。

        此外,具身智能體場景往往涉及敏感個人信息的收集和處理,根據(jù)個人信息保護(hù)法的規(guī)定,“只有在具有特定的目的和充分的必要性,并采取嚴(yán)格保護(hù)措施的情形下,個人信息處理者方可處理敏感個人信息”。除單獨(dú)同意之外,可以借鑒醫(yī)療決策中的參與式同意方式,參與式同意模式強(qiáng)調(diào)用戶的積極參與和充分理解,即一旦涉及敏感個人信息,需要反復(fù)和用戶溝通處理的范圍和處理的手段,反復(fù)確認(rèn)用戶的意愿,最終和用戶共同決策實(shí)現(xiàn)合法正當(dāng)?shù)男畔⑻幚恚?9%〕提升人機(jī)交互的用戶信任度和滿意度。

        (二)人工智能立法中的隱私和數(shù)據(jù)保護(hù)

        人工智能立法已經(jīng)邁入大規(guī)模立法新階段,2023年6月,中國國務(wù)院辦公廳印發(fā)《國務(wù)院2023年度立法工作計劃》,明確提出“預(yù)備提請全國人大常委會審議人工智能法草案”。以歐盟《人工智能法案》為代表的立法采取了“弱化個人控制,強(qiáng)化損害和風(fēng)險”的模式,通過制定預(yù)防性的規(guī)則,歐盟法案更關(guān)注開發(fā)或?qū)嵤┤斯ぶ悄芟到y(tǒng)的參與者(提供者),以填補(bǔ)數(shù)據(jù)保護(hù)法留下的一些空白?!?0%〕

        1.%通用型具身智能體市場化的禁止

        早在20世紀(jì)60年代初,人工智能概念的提出者之一明斯基就認(rèn)為,“程序設(shè)計者肯定可以創(chuàng)立一個不斷演化的系統(tǒng),而其發(fā)展界限是他不清楚和可能無法理解的”?!?1%〕而圖靈則提出了通用計算機(jī)概念,并且還設(shè)想了建造計算機(jī)用于模擬人工智能的可能性,包括怎樣測試人工智能以及機(jī)器怎樣自主學(xué)習(xí)。〔62#〕因此,通用型人工智能是計算機(jī)科學(xué)家的理想,也是科幻作品中最具代表性的一類機(jī)器人原型,它們幾乎等同于人類,可以在多個任務(wù)線之間隨意切換,可以同時扮演不同的身份和角色。如兩位人工智能領(lǐng)域的先驅(qū)所料,日前英偉達(dá)公司已在組建通用具身智能體實(shí)驗(yàn)室GEAR,該實(shí)驗(yàn)室的目標(biāo)之一是研究和開發(fā)通用型機(jī)器人。通用型機(jī)器人也許很快可以在實(shí)驗(yàn)室問世,但市場化的智能體必須是功能導(dǎo)向的,且須有明確的應(yīng)用場景。

        歐盟《人工智能法案》將人工智能應(yīng)用場景的風(fēng)險分為:不可接受的風(fēng)險、高風(fēng)險和有限風(fēng)險,制造不可接受的風(fēng)險的人工智能系統(tǒng)將被禁止??梢?,該法案中對通用目的人工智能(GPAI)進(jìn)行了限制,明確規(guī)定其可能被視為高風(fēng)險人工智能系統(tǒng)。筆者以為,通用型具身智能體(或通用型機(jī)器人)的風(fēng)險是不可接受的,應(yīng)當(dāng)被禁止。從隱私與數(shù)據(jù)保護(hù)角度出發(fā),主要有以下幾個方面的原因。

        第一,通用型智能機(jī)器人可能會涉及廣泛的數(shù)據(jù)收集和處理,它們被設(shè)計成能夠適應(yīng)各種不同的場景和任務(wù)?!吧墒降娜斯ぶ悄芟到y(tǒng)并非為特定的場景或使用條件而建立,其開放性和易于控制使其具有空前的使用規(guī)模?!薄?3#〕因?yàn)槠涔δ苊嫦驈V泛,涵蓋多個場景,因此在收集和處理信息時往往無法滿足目的限制原則和最小必要原則的要求,信息的使用也無法控制在特定的范圍之內(nèi)。如果一個被設(shè)計用來陪伴老人的陪伴型智能機(jī)器人,在陪伴的過程中利用收集的老人個人信息進(jìn)行自動化決策購買廣告商品,家庭和商業(yè)不同的社會場景有不同的目的,前者注重對人的陪伴和照顧,后者則要求經(jīng)濟(jì)利益的最大化,這兩者之間會產(chǎn)生一定的沖突,如果要求機(jī)器人同時兼顧上述兩種目的,就會導(dǎo)致陪伴型機(jī)器人自動購買商品等事件,這顯然是不合適的。

        第二,不同的場景對收集的數(shù)據(jù)數(shù)量和質(zhì)量有不同的要求。比如在家庭場景中的陪伴型機(jī)器人和在商業(yè)場景中的智能體就存在顯著區(qū)別,前者重數(shù)據(jù)質(zhì)量相對輕數(shù)量,主要原因在于前者服務(wù)于少數(shù)家庭成員,需要精準(zhǔn)滿足和理解家庭成員的需求和偏好,因此收集的數(shù)據(jù)必須準(zhǔn)確和可靠,以提供高質(zhì)量的個性化服務(wù)。而商業(yè)場景中更重數(shù)量,對質(zhì)量要求則沒有那么高。原因是智能體往往服務(wù)于商業(yè)決策、市場營銷等功能,為更好了解客戶需求和市場趨勢,需要收集大量的數(shù)據(jù),而對數(shù)據(jù)質(zhì)量的要求可能相對靈活。

        第三,智能機(jī)器人作為特殊用途的“人類”,如果設(shè)定特定的場景,為特定的原因或功能而存在,在行為方面模仿人類相對容易,但通用型機(jī)器人的“領(lǐng)悟”和“模仿”較弱,還不足以模仿人類的微妙心理和在不同場合下調(diào)整其言行。如果機(jī)器人無法準(zhǔn)確模仿人類的行為和心理,那么在特定情境下使用它們可能會導(dǎo)致誤解或不當(dāng)行為,進(jìn)而影響到個人的隱私和個人信息權(quán)益。因此,明確機(jī)器人不能通用化,而應(yīng)該針對不同場景進(jìn)行應(yīng)用,是必要的?!?4#〕

        此外,缺乏具體社會場景的具身智能體權(quán)責(zé)不明,無法形成相應(yīng)的法律關(guān)系。從社會技術(shù)視角來說,具身智能體的運(yùn)作和影響都嵌入在社會結(jié)構(gòu)之中,唯有如此才可以更好地發(fā)揮其服務(wù)人類的作用。技術(shù)進(jìn)入人類的生命和活動網(wǎng)絡(luò)之中,并成為其組成部分,因而產(chǎn)生了相應(yīng)的后果。技術(shù)影響并不是事物本身的特征,而是使用這些事物的社會關(guān)系的特征。〔65#〕因此,圍繞著智能機(jī)器人在不同社會場景下的角色,發(fā)生的一系列法律事件或法律行為,最終導(dǎo)致了主體的權(quán)利得喪變更。比如醫(yī)療人工智能、司法人工智能與完全自動化的替代性自動化駕駛汽車,其與用戶之間的社會關(guān)系不同,引發(fā)的風(fēng)險不同,法律關(guān)系自然也不相同。實(shí)際上,技術(shù)所引發(fā)的法律關(guān)系有兩個不同的層面:其一是新技術(shù)如何影響人們的生活,其二是人們?nèi)绾闻c使用新技術(shù)的其他人交互。當(dāng)通用機(jī)器人的社會地位不完整、場景不確定,甚至是隨機(jī)的時候,這種法律關(guān)系就也是不確定的?!?6#〕因此,只有在具體的場景中,具身智能體的功能和作用才是明確的,因而其中的法律關(guān)系和法律責(zé)任也是清晰可識別的。

        2.人工智能設(shè)計中的數(shù)據(jù)保護(hù)原則

        隨著具身智能系統(tǒng)越來越多地處理敏感個人信息,如何通過預(yù)防性的措施來保障用戶的隱私和安全成為人工智能立法的重點(diǎn)。即便在人工智能將以不可預(yù)見的方式發(fā)展的情況下,人工智能的設(shè)計者或生產(chǎn)者仍然可能會被認(rèn)為是理解和控制風(fēng)險的最佳人選?!?77〕“通過設(shè)計的數(shù)據(jù)保護(hù)”早已是數(shù)據(jù)保護(hù)領(lǐng)域默認(rèn)的一項(xiàng)重要原則,〔687〕這項(xiàng)原則主張隱私和數(shù)據(jù)保護(hù)應(yīng)該被整合到設(shè)計階段。強(qiáng)調(diào)了需要制定健全的數(shù)據(jù)保護(hù)政策和實(shí)踐,以防止個人數(shù)據(jù)的濫用和未經(jīng)授權(quán)的訪問。既往的研究早已表明“代碼即法律”,〔697〕輸入系統(tǒng)中的知識和建模過程中涉及的假設(shè)可能反映了系統(tǒng)設(shè)計者的偏見,〔707〕計算機(jī)硬件和軟件的組合,像其他形式的規(guī)范一樣,可以限制和引導(dǎo)人類行為。

        結(jié)合具身智能技術(shù)和應(yīng)用的特點(diǎn)及隱私與數(shù)據(jù)保護(hù)之要求,設(shè)計者設(shè)計系統(tǒng)時,有幾個方面可以綜合考慮:(1)設(shè)置隱私,〔717〕即設(shè)計者保障用戶在隱私保護(hù)中的參與,在系統(tǒng)或應(yīng)用程序中提供用戶自定義設(shè)置信息收集和處理的功能。(2)數(shù)據(jù)自動刪除,即在收集和處理敏感個人信息或臨時性的瀏覽數(shù)據(jù)后,除非有充分的必要性,否則在一定期限后一概自動刪除此類數(shù)據(jù)的功能。(3)匿名化和去標(biāo)識化。設(shè)計者可以在收集和存儲數(shù)據(jù)過程中對個人的身份信息進(jìn)行處理,確保通過一般性的技術(shù)手段無法識別到特定個人。(4)位置隱私保護(hù)。個人位置信息的特殊性質(zhì)決定了其一旦被泄露,可能會影響到個人的人身自由和人格尊嚴(yán),因此應(yīng)當(dāng)采取原則上禁止、例外允許收集的方式。尤其是具身智能體有行動的能力,更應(yīng)當(dāng)明確禁止其收集用戶的位置信息。

        以上種種設(shè)計隱私的策略,只是設(shè)計中的“冰山一角”,此外,監(jiān)管機(jī)構(gòu)對設(shè)計者的問責(zé)機(jī)制也不可或缺。針對侵權(quán)主體難以確定的問題,通過設(shè)計的數(shù)據(jù)保護(hù)義務(wù)也成為設(shè)計者“可責(zé)性”(accountability)的理據(jù)。可責(zé)性指的是確保相關(guān)參與者對其行為和決策承擔(dān)責(zé)任,并能夠提供解釋和證明其行為的合理性和合法性。換言之,在無法明確侵權(quán)主體或責(zé)任成立的因果關(guān)系無法查明的情形下,被侵權(quán)人完全可以依據(jù)設(shè)計者對系統(tǒng)的可責(zé)性進(jìn)行訴訟,由設(shè)計者舉證證明自己不承擔(dān)具身智能機(jī)器人侵權(quán)的責(zé)任。已有研究表明,在設(shè)計智能機(jī)器人的時候,設(shè)計者會將更深層次的哲學(xué)、倫理甚至政治觀點(diǎn)有意無意融入設(shè)計工作中,因此應(yīng)該更多地思考(機(jī)器人)運(yùn)行的環(huán)境以及人類對設(shè)計這些環(huán)境的責(zé)任?!?27〕在具身智能體的背景下,可責(zé)性涉及確保設(shè)計者和監(jiān)管者對于應(yīng)用的功能、數(shù)據(jù)收集和處理、算法運(yùn)行等方面負(fù)有透明度、可解釋性義務(wù),并能夠接受外部審查和監(jiān)督。這有助于防止濫用、不當(dāng)使用數(shù)據(jù)或算法的情況發(fā)生,并提高對于應(yīng)用運(yùn)行的合理性和合法性的信任度。

        結(jié)語:隱私理論的又一次迭代?

        科幻作家威廉·吉布森在《神經(jīng)漫游者》中曾說:“未來已至,只是分布不均?!蔽覀儗夹g(shù)的想象,經(jīng)歷著從不可能到可能。如果說過去討論機(jī)器人技術(shù)還有很多幻想和寓言的成分,那么現(xiàn)今智能機(jī)器人正在成為現(xiàn)實(shí)社會的一部分,深刻影響人類生活。歷史上,技術(shù)的每一次革新都引發(fā)了隱私理論里程碑式的發(fā)展。便攜式相機(jī)的日常化,使得偷拍變得輕而易舉,因而沃倫和布萊代斯在《隱私權(quán)》一文中呼吁一種“不受干擾的權(quán)利”;小型計算機(jī)的普及及存儲能力和計算能力的增長,使得個人數(shù)據(jù)被無限記錄和存儲,大規(guī)模泄露也成為可能,因此引發(fā)對數(shù)字利維坦的恐懼;進(jìn)入21世紀(jì)以來的智能技術(shù)的發(fā)展,更加劇了對算法黑箱等問題的擔(dān)憂……

        具身智能技術(shù)對隱私產(chǎn)生了眾多挑戰(zhàn),雖然這些挑戰(zhàn)并非全新,但毫無疑問,它們讓問題變得更為復(fù)雜和棘手。對既有的隱私和數(shù)據(jù)保護(hù)法律制度的“剪裁”和“縫補(bǔ)”已不足以全面回應(yīng)這些難題。理論上的革新和迭代已經(jīng)勢在必行,本文雖無法從根本上解決這一龐大的理論難題,但亦希望為未來的研究提供一點(diǎn)思考和啟發(fā)。

        本文系國家社科基金重大項(xiàng)目“智能技術(shù)賦能政法領(lǐng)域全面深化改革研究”(項(xiàng)目批準(zhǔn)號:22ZDA074)、清華大學(xué)自主科研計劃項(xiàng)目“個人信息權(quán)益研究”(項(xiàng)目批準(zhǔn)號:2021THZWYY02)的階段性研究成果,并受到東南大學(xué)“至善青年學(xué)者”項(xiàng)目(項(xiàng)目批準(zhǔn)號:2242024RCB0049)支持。

        猜你喜歡
        人形數(shù)據(jù)保護(hù)個人信息
        世界上走路最快的人形機(jī)器人
        軍事文摘(2023年16期)2023-09-04 07:10:40
        如何保護(hù)勞動者的個人信息?
        工會博覽(2022年16期)2022-07-16 05:53:54
        個人信息保護(hù)進(jìn)入“法時代”
        警惕個人信息泄露
        綠色中國(2019年14期)2019-11-26 07:11:44
        會變形的人形機(jī)器人
        TPP生物藥品數(shù)據(jù)保護(hù)條款研究
        歐盟數(shù)據(jù)保護(hù)立法改革之發(fā)展趨勢分析
        歐盟《一般數(shù)據(jù)保護(hù)條例》新規(guī)則評析
        藥品試驗(yàn)數(shù)據(jù)保護(hù)對完善中藥品種保護(hù)制度的啟示
        第16集 人形手機(jī)
        啦啦啦www在线观看免费视频| 亚洲精品中文字幕乱码二区| 亚洲av大片在线免费观看| 91久久综合精品久久久综合| 国产婷婷色一区二区三区在线| 久久久久亚洲精品无码网址 | 久久成人国产精品| 99国产精品视频无码免费| 中文字幕+乱码+中文字幕无忧| a观看v视频网站入口免费| 国产成人夜色在线视频观看| 国产精品一区二区黄色| 日韩视频中文字幕精品偷拍| 国产欧美日韩综合在线一区二区| 国产精品国产三级国产一地| 国产乱码精品一区二区三区久久| 天天爽天天爽夜夜爽毛片| 午夜成人理论无码电影在线播放| 亚洲一区精品一区在线观看| 亚洲最新国产av网站| 久久精品成人无码观看不卡| 99精品成人片免费毛片无码| 麻豆成人久久精品二区三区91| 欧美群妇大交群| 3d动漫精品一区二区三区| 麻豆密入视频在线观看| 国产精品髙潮呻吟久久av| 婷婷色香五月综合缴缴情 | 国产成人精品日本亚洲专区61| 性饥渴艳妇性色生活片在线播放| 亚洲一区二区情侣| 国产一区二区黄色的网站| 亚洲人成77777在线播放网站| 好吊妞人成免费视频观看| 国产一区二区三区涩涩涩| 亚洲熟妇av一区二区三区 | 人妻熟妇乱系列| 老司机在线免费视频亚洲| 女高中生自慰污免费网站| 日韩精品资源在线观看免费| 97久久婷婷五月综合色d啪蜜芽|