苗芳艷
(東南大學(xué) 人文學(xué)院,江蘇 南京 211189)
社交機器人在人類生活中扮演著越來越重要的角色,為增強用戶的信任和提升用戶的接受度,其服務(wù)過程中需要收集和處理用戶的個人隱私數(shù)據(jù)。隱私數(shù)據(jù)的收集引發(fā)了與用戶相關(guān)的一個關(guān)鍵問題——隱私悖論。隱私悖論(private paradox)是“用戶一方面擔(dān)心隱私安全,另一方面熱衷于分享個人的隱私信息?!盵1]這種隱私態(tài)度和隱私行為之間的矛盾即是隱私悖論。隱私態(tài)度是用戶對自我隱私泄露或者侵害的感知和意識,隱私行為是用戶對自我隱私信息的處理和保護。研究發(fā)現(xiàn),當(dāng)用戶對社交機器人的感知利益超越隱私保護時[2],隱私態(tài)度和隱私行為容易出現(xiàn)不一致的現(xiàn)象。本文從用戶隱私的理性計算、隱私的認(rèn)知偏差和無隱私風(fēng)險的評估三個角度分析人機交互中用戶隱私悖論的成因,并嘗試從隱私設(shè)計、隱私增強和隱私制度三個層面提出消解人機交互中用戶隱私悖論的路徑。
社交機器人在協(xié)助人類完成日常任務(wù)時,與人共享著空間、環(huán)境和數(shù)據(jù)。許多用戶接受它們作為日常生活中的一部分[3]。其在開發(fā)和使用過程中通過收集用戶需求、偏好和期望等數(shù)據(jù),了解用戶的個人習(xí)慣和生活方式,增進用戶對社交機器人的信任度。然而,如何以尊重用戶隱私的方式開發(fā)和使用社交機器人,成為發(fā)展可信社交機器人的倫理難題。由于隱私定義和分類的復(fù)雜性,人機交互背景下的隱私概念未得到學(xué)界的統(tǒng)一,有必要厘清社交機器人背景下隱私概念的復(fù)雜性和隱私悖論的真實性。
隱私的概念隨著技術(shù)的發(fā)展而復(fù)雜化。技術(shù)和隱私關(guān)系的討論可以追溯到19世紀(jì)90年代便攜式攝影設(shè)備的出現(xiàn),技術(shù)的發(fā)展促使隱私從公共空間走向個人空間領(lǐng)域,改變了政府、研究人員、公眾等對技術(shù)和隱私關(guān)系的思考。以往隱私僅限于某些公共領(lǐng)域,如用于公共空間或經(jīng)濟行為等。但隨著智能技術(shù)尤其是社交機器人的發(fā)展和使用,個人空間領(lǐng)域的隱私發(fā)生了很大的變化,出現(xiàn)了用戶數(shù)據(jù)被機器制造商收集甚至濫用的現(xiàn)象。學(xué)界對隱私的關(guān)注越來越多,如通信、計算機科學(xué)、心理學(xué)、社會學(xué)、信息系統(tǒng)、經(jīng)濟和法律等學(xué)科,眾多學(xué)科對隱私的關(guān)注使隱私的概念變得更為復(fù)雜。社交機器人因其自主性的特征和多樣化的角色增加了隱私概念的復(fù)雜性。
1.社交機器人作為家庭用戶的助手,具有移動性和自主性,配備各種傳感器。例如,視覺傳感器和紅外傳感器。這些傳感器允許機器人感知周圍的環(huán)境并與用戶互動以發(fā)揮更個性化的服務(wù)。在互動中它們會接觸到有關(guān)用戶身體、偏好和生活習(xí)慣的隱私數(shù)據(jù),可以獲取更多的個人數(shù)據(jù)。
2.社交機器人隱私的復(fù)雜性取決于人機交互中用戶如何看待社交機器人的角色,用戶對社交機器人角色的定位成為隱私邊界的關(guān)鍵。若用戶把社交機器人視為朋友、伴侶,那么,用戶愿意和社交機器人共享其更多的個人信息,甚至把潛在的敏感信息也分享給機器人。在用戶不知情的情況下,用戶的數(shù)據(jù)可能會被制造商應(yīng)用于其他不道德甚至違法的數(shù)據(jù)收集活動。在此意義上,社交機器人的隱私包括兩部分:一是物理隱私。因為社交機器人以自主的方式監(jiān)視個人,與用戶共享生活空間和環(huán)境;二是信息隱私。隨著社交機器人擬人化和個性化發(fā)展的需求,收集用戶越來越多的個人偏好、習(xí)慣等數(shù)據(jù)時,加大了對用戶的敏感信息以及數(shù)據(jù)訪問等披露的風(fēng)險,隱私問題變得更為復(fù)雜。
20世紀(jì)90年代羅杰·克拉克提出四種不同類型的隱私,包括身體隱私、個人數(shù)據(jù)隱私、個人行為隱私、個人交流隱私[4]。他是第一個以邏輯化、結(jié)構(gòu)化和連貫的方式對隱私進行分類的學(xué)者。隨著新興技術(shù)的發(fā)展,克拉克的隱私分類無法涵蓋新技術(shù)潛在的隱私問題,芬恩等人提出七種隱私類型以應(yīng)對新興技術(shù)。例如,無人機、人類增強技術(shù)和生物識別技術(shù),這一更為詳細的隱私類型同樣可以應(yīng)對社交機器人隱私的復(fù)雜性。
芬恩提出的七種隱私包括身體隱私、行為隱私、信息隱私、數(shù)據(jù)和圖像隱私、思想和感情隱私、空間隱私、團體隱私[5]。在人機交互領(lǐng)域克里斯托夫·盧茨等學(xué)者把社交機器人的隱私類型分為物理隱私(physical privacy)、機構(gòu)信息隱私(institutional informational privacy)、社交信息隱私(social informational privacy)[6]。物理隱私主要是社交機器人與物理對象和空間交互的隱私類型;機構(gòu)信息隱私是機器制造商、政府機構(gòu)和第三方(數(shù)據(jù)經(jīng)紀(jì)人等)的信息控制、數(shù)據(jù)保護和數(shù)據(jù)處理的隱私類型;社交信息隱私是圍繞個人訪問和數(shù)據(jù)保護而進行數(shù)據(jù)收集的隱私類型。這一分類比七種隱私劃分更為簡潔。因此,本文認(rèn)同用戶與社交機器人交互的隱私概念包括三大部分:物理隱私、機構(gòu)信息隱私和社交信息隱私。
歐洲機器人倫理工作室成員(The Euron Roboethics Atelier)指出,隱私是與社交機器人相關(guān)的必須解決的倫理問題之一[7]。社交機器人技術(shù)與其他技術(shù)不同,它有三個重要的功能:一是任務(wù)功能,使自己“有用”,即能執(zhí)行各種任務(wù),幫助人類;二是社交功能,能夠以社會可接受的方式與人類互動;三是自適應(yīng)功能,這些功能可以響應(yīng)用戶的不同需求和偏好[8]。要發(fā)揮三大功能尤其是社交功能,必須通過收集用戶的數(shù)據(jù)實現(xiàn)個性化的服務(wù)。與用戶相關(guān)的物理隱私、機構(gòu)信息隱私和社交信息隱私,一方面模糊了個人隱私信息收集的界限,另一方面使得用戶很難明確自己隱私的邊界,造成用戶在隱私態(tài)度和行為上出現(xiàn)矛盾,隱私悖論由此產(chǎn)生。
社交機器人有關(guān)隱私的實證研究也證實了用戶隱私悖論的真實存在??死锼雇蟹颉けR茨通過結(jié)構(gòu)方程模型對社交機器人三種隱私進行了實證研究。研究發(fā)現(xiàn):受訪者最關(guān)心的是機構(gòu)信息隱私即制造商方面的數(shù)據(jù)保護,其次他們擔(dān)心社交信息隱私如黑客攻擊和跟蹤等隱私風(fēng)險。相比而言,信息隱私(包括機構(gòu)信息隱私和社交信息隱私)更令用戶擔(dān)憂。瑞恩·卡洛指出社交機器人背景下的隱私風(fēng)險主要通過三種方式產(chǎn)生:直接監(jiān)控、頻繁訪問和社交風(fēng)險[9]。
1.社交機器人影響用戶最直接的方式是監(jiān)控。社交機器人作為家庭助手,為了給用戶提供更加個性化、智能化的服務(wù),配備了一系列精密的傳感器和探測器,包括隱藏式的紅外攝像機、聲吶或激光測距儀、氣味探測儀、GPS等,極大增強了對用戶甚至家人的監(jiān)視能力。當(dāng)下警方可以通過充分的法律程序進入家庭進行搜查,但根據(jù)《電子通訊隱私法》,許多社交機器人收集的數(shù)據(jù),現(xiàn)在可以由政府在僅僅發(fā)出傳票甚至是發(fā)出要求的情況下全部獲取,直接監(jiān)控使得購買社交機器人的家庭和用戶遭受個人隱私披露的風(fēng)險。
2.社交機器人影響用戶隱私的另一種方式是訪問用戶的私人歷史數(shù)據(jù)。社交機器人成為政府、執(zhí)法人員、黑客等獲取有關(guān)居民隱私空間內(nèi)部信息的一種新方式。目前的技術(shù)還存在被黑客攻擊和破壞的危險,私人歷史數(shù)據(jù)一旦被披露,用戶的隱私數(shù)據(jù)潛藏著被侵犯甚至不正當(dāng)利用的倫理風(fēng)險。
3.社交機器人的社交風(fēng)險給用戶的隱私保護增加了復(fù)雜性。社交機器人因其本身具有社會交互性和擬人化的特征,“用戶和社交機器人之間形成了信任和依戀,反過來會影響甚至操縱用戶自發(fā)地向機器人披露私人敏感信息。”[10]研究表明,擬人化的技術(shù)使得人們會做出更加積極的反應(yīng),產(chǎn)生隱私保護的復(fù)雜性。這種復(fù)雜性表現(xiàn)在三個方面:一是用戶把社交機器人引入家中,參與到個人的生活中,會使得自身的隱私保護機會減少;二是社交機器人不僅可以獲取更多的私人信息,還擁有比人類更完美的記憶、不知羞愧的心理和不知疲倦的身體,社交機器人超越人類的有限理性,使得人們愿意信任社交機器人;三是因社交機器人社交特性導(dǎo)致高度敏感的個人信息披露,社交機器人將了解用戶的習(xí)慣、偏好、疾病信息和個人情況等敏感的信息。社交機器人的直接監(jiān)控、頻繁訪問和社交風(fēng)險使得人機交互中的隱私問題更加復(fù)雜。
社交機器人是高度個性化的產(chǎn)品,適合用戶的需求、行為和偏好。因此,在提供個性化服務(wù)的同時面臨著披露用戶的數(shù)據(jù)信息的倫理風(fēng)險。一方面,用戶希望社交機器人能夠為其更好、更個性化地服務(wù);另一方面,為了換取短期利益人們不得不以披露自己的隱私為手段,這樣隱私悖論就真實存在于人機交互的過程中。
隱私和數(shù)據(jù)治理在歐盟委員會的可信人工智能道德準(zhǔn)則被確立為優(yōu)先考慮的一項要求[11]。學(xué)界有多種理論可以解釋隱私悖論。例如,隱私計算理論、有限理性理論、社會理論、解釋水平理論、量子力學(xué)理論[12]。目前在隱私悖論的文獻中,隱私計算(privacy calculus)是占主導(dǎo)地位的一種理論解釋[13],國內(nèi)也有學(xué)者從隱私關(guān)注視角下通過隱私計算闡述隱私悖論的成因框架[14]。隱私計算理論認(rèn)為用戶有意識和理性權(quán)衡披露信息隱私的成本效益比[15]。具體而言,用戶會對社交機器人的隱私風(fēng)險和收益進行計算。如果隱私收益大于風(fēng)險,他們將愿意披露隱私以獲取更大的收益,即便社交機器人有著潛在的隱私披露風(fēng)險,用戶也愿意披露隱私信息達成自己的意圖,這造成人們在隱私問題上認(rèn)知和行為的分離。本文分析人機交互中用戶隱私態(tài)度和隱私行為不一致的成因如下:
用戶隱私的理性計算,是用戶通過隱私風(fēng)險收益決定與社交機器人在何種程度上共享個人的數(shù)據(jù)等的行為,在社交機器人使用意向上發(fā)揮著重要的作用。用戶對隱私行為進行決策時,會通過計算權(quán)衡最大化效用和最小化風(fēng)險,以決定自己的隱私信息披露的程度和保護的界限。然而,在風(fēng)險收益計算中,會忽視隱私保護的問題,具體有以下幾種情況:
1.隱私利益感知大于隱私風(fēng)險感知。用戶和社交機器人建立關(guān)系的過程可以分為初次使用、探索使用和管理使用三個過程。從前一個過程到下一個過程的進展源于對相關(guān)利益和風(fēng)險的理解和感知。很多時候用戶還未能了解清楚社交機器人的使用功能,更無法意識到社交機器人傳感器可能收集到私人數(shù)據(jù)的界限和權(quán)限,用戶只感知到社交機器人帶來的利益,往往容易忽視社交機器人潛在的隱私披露風(fēng)險。因此,社交機器人所能給予的經(jīng)濟利益、個性化服務(wù)和社會效益會抵消用戶隱私感知的負(fù)面影響。用戶很難再去關(guān)注服務(wù)供應(yīng)商的傳感器和位置跟蹤等系統(tǒng)問題,更傾向于關(guān)注實際收益。因此,會出現(xiàn)隱私披露的風(fēng)險。
2.個性化特質(zhì)導(dǎo)致隱私悖論。社交機器人本身作為個性化的機器人,走進人們的生活。有學(xué)者提出在隱私模型中加入五大人格因素和跨文化差異的影響[16]。無論文化環(huán)境如何,外向性和隨和性個體更能感知到收益,這會導(dǎo)致具有這種個性特質(zhì)的人將會在人機交互中分享更多的個人隱私。隱私信息披露的程度和保護的邊界因個性化特質(zhì)迥異,個性化的特質(zhì)導(dǎo)致人們處理個人隱私的方式不同,隱私態(tài)度和行為也存在差異。
與用戶隱私的理性計算相反,隱私利益和風(fēng)險權(quán)衡也會受到用戶認(rèn)知偏差的影響。用戶容易感受當(dāng)下可以獲得的利益,但對自己隱私披露的風(fēng)險不那么敏感,甚至不在意。因此,用戶在對社交機器人個人數(shù)據(jù)的判斷上會出現(xiàn)系統(tǒng)性的偏差。研究表明,用戶的決策過程受到各種認(rèn)知偏差和啟發(fā)式的影響[17]。具體影響如下:
1.啟發(fā)式。啟發(fā)式是一個經(jīng)驗法則,是人們基于自己的經(jīng)驗、知識和直覺做出快速判斷的心理捷徑[18]。利益啟發(fā)式傾向于披露更多的個人信息[19]。用戶在使用社交機器人時,為了使社交機器人的功能達到最優(yōu)化,不斷嘗試最大化利益,在用戶有限理性的認(rèn)知范圍下,選擇低于標(biāo)準(zhǔn)的方案來滿足自己的利益需求,會導(dǎo)致對隱私風(fēng)險的認(rèn)知偏差。從用戶主觀的角度講,對隱私風(fēng)險的感知和評估是在用戶個人隱私保護的經(jīng)驗基礎(chǔ)上進行的,即使用戶先前擁有隱私的相關(guān)信息,但也無法準(zhǔn)確理解所有的信息,這導(dǎo)致了用戶心理上允許個人快速做出決定,引起隱私認(rèn)知偏差的產(chǎn)生。
2.樂觀偏差。樂觀偏差有兩種情況:一種是用戶低估自己隱私被侵犯的風(fēng)險,另一種是高估其他人經(jīng)歷不良事件的可能性。樂觀偏差的兩種情況最終導(dǎo)致用戶相信自己的隱私?jīng)]有受到威脅,這種情況增加了隱私風(fēng)險披露的可能性。由于樂觀偏差,偏見感知、低估隱私風(fēng)險等,不了解社交機器人關(guān)乎私人數(shù)據(jù)的重要性和用途,甚至低估隱私風(fēng)險。即便可以設(shè)置機器人在數(shù)據(jù)上的權(quán)限,也沒有采取適當(dāng)?shù)男袨楸Wo私人信息,造成用戶對社交機器人的感知利益超過了隱私風(fēng)險,導(dǎo)致對未來隱私風(fēng)險的風(fēng)險評估不足,使得在隱私和利益權(quán)衡中出現(xiàn)了自相矛盾的情況。
3.即時滿足。即時滿足是用戶傾向于立即得到滿足而忽略未來隱私披露的風(fēng)險,用戶會選擇短期的收益,即時滿足感超越了隱私擔(dān)憂。社交機器人既能夠為人們的生活提供便捷的服務(wù),又能夠作為伴侶給予情感意義上的陪伴。隨著情感機器人的開發(fā)和推廣,未來社交機器人會滿足人類更多的需求和欲望,變得更加人性化。當(dāng)用戶為了滿足一時的需求,而用自己的習(xí)慣、愛好、性格等私人數(shù)據(jù)作為交換,可能會面臨更大的隱私風(fēng)險。例如,私人數(shù)據(jù)被披露、身份被盜竊或冒用等,從長遠來看,即時滿足潛藏著隱私披露風(fēng)險的可能性,對用戶自身和社會的危害不可忽視。
在一些情況下,用戶幾乎不具備和隱私相關(guān)的知識,用戶對社交機器人的期望超出了對隱私的關(guān)注和考慮。盡管存在隱私問題,用戶往往愿意接受社交機器人的隱私政策和披露的條件,這是因為用戶可以通過訪問實現(xiàn)自己的期望目標(biāo)。人機交互中,用戶為了便捷性忽略隱私問題,增加了個人隱私數(shù)據(jù)披露的倫理風(fēng)險。
還有一種情況,用戶和銷售社交機器人的公司存在信息不對稱的情況,并非雙方了解彼此的價值觀和規(guī)則。用戶可能不知道自身隱私的重要性和隱私披露的后果,由于用戶不了解隱私的重要性,最終的隱私風(fēng)險無法評估,導(dǎo)致用戶隱私態(tài)度和行為出現(xiàn)自我矛盾的情況。信息不對稱的狀態(tài)阻礙了用戶理性行動和最大化利益的評估,無法實現(xiàn)社交機器人為人類增加福祉的倫理目標(biāo)。此外,如果用戶不知道社交機器人會自動收集自己生活習(xí)慣、性格等數(shù)據(jù),不知道開發(fā)商如何利用他們的隱私數(shù)據(jù),很難合理判斷未來個人隱私信息披露的可能性。
基于理性的風(fēng)險收益計算,在用戶權(quán)衡收益和風(fēng)險時,大多數(shù)情況下更傾向于收益而不是風(fēng)險,提供個人的隱私數(shù)據(jù)以換取社交機器人提供給用戶的便捷性和個性化服務(wù),忽視隱私的感知風(fēng)險?;谡J(rèn)知偏差的隱私評估,由于啟發(fā)式思維、即時滿足和樂觀偏差,用戶在隱私風(fēng)險評估時產(chǎn)生認(rèn)知偏差,導(dǎo)致收益和風(fēng)險計算的失真?;跓o隱私風(fēng)險的評估則大多因為用戶信息不對稱造成隱私問題被壓制或被忽視。用戶在社交機器人的購買意向和使用意愿中,隱私態(tài)度和隱私行為的不一致導(dǎo)致了隱私悖論的產(chǎn)生,影響了人們對社交機器人的信任,侵犯用戶的個人隱私數(shù)據(jù),甚至被不法分子濫用。
如何消解人機交互中用戶隱私悖論的問題,我們從以下三方面提出消解的路徑:
通過技術(shù)專家的設(shè)計,社交機器人個性化的功能得以實現(xiàn)。要實現(xiàn)個性化的服務(wù),用戶的隱私必須納入其設(shè)計的事項、目標(biāo)、流程和規(guī)范操作中,以便在人機交互中提供安全和強有力的隱私保護。安·卡沃金提出了隱私設(shè)計(privacy by design),這一設(shè)計理念是在web應(yīng)用程序和社交網(wǎng)絡(luò)背景下引入的。隱私設(shè)計的重點是通過在風(fēng)險識別和管理周期整合隱私問題,把隱私整合到設(shè)計和開發(fā)的過程中[20]。為了確保社交機器人在開發(fā)和使用過程中尊重用戶的隱私,卡沃金提出了隱私設(shè)計的七大原則。把這七大設(shè)計原則轉(zhuǎn)移到社交機器人領(lǐng)域,為人機交互中用戶的隱私保護提供保障。
1.預(yù)防性和主動性原則。隱私設(shè)計的方法要在隱私披露發(fā)生之前預(yù)測并阻止,重點在于防止隱私披露,因而堅持預(yù)防性和主動性的原則是必要的?!半S著技術(shù)力量越來越強大,我們必須在預(yù)防性原則和主動性原則之間達成一種可持續(xù)的平衡?!盵21]這要求社交機器人公司的開發(fā)者首先要明確承諾在倫理設(shè)計時制定并實施隱私的高標(biāo)準(zhǔn),通常要高于全球法律法規(guī)制定的標(biāo)準(zhǔn)。其次要在用戶和利益相關(guān)方明確共享隱私的承諾。最后,在設(shè)計中要識別不良的隱私設(shè)計,預(yù)測不良的隱私后果,能夠主動糾正不良的隱私設(shè)計。
2.隱私作為默認(rèn)設(shè)置。社交機器人的隱私設(shè)計旨在最大程度保證用戶的隱私數(shù)據(jù)。這一設(shè)計原則要求把用戶的隱私數(shù)據(jù)內(nèi)置在社交機器人程序中。首先,要求在設(shè)計前主動告知用戶收集數(shù)據(jù)的目的,其目的在于使社交機器人更加個性化,符合用戶自身的需求。因此,要在收集、使用、保留和披露個人數(shù)據(jù)之前告知用戶。其次,收集數(shù)據(jù)應(yīng)該保證公平、合法,限定在特定領(lǐng)域所必需的內(nèi)容。再次,應(yīng)保證用戶數(shù)據(jù)的最小化。用戶數(shù)據(jù)的可識別性、可觀察性和可鏈接性應(yīng)該最小化,確保用戶信息的安全性。最后,用戶的信息應(yīng)該限制在個人已同意的相關(guān)事項中,如果用戶數(shù)據(jù)被非法利用,則啟用預(yù)防原則,默認(rèn)設(shè)置保護用戶的隱私。
3.在設(shè)計中嵌入隱私??ㄎ纸鹬赋鲭[私必須以整體、綜合和創(chuàng)造性的方式嵌入技術(shù)、運營和信息架構(gòu)中,要求考慮廣泛的背景,征求利益相關(guān)者的意見。在嵌入隱私這一原則時,首先要采用一種系統(tǒng)的、有原則的且可以信任的隱私標(biāo)準(zhǔn)和框架。其次,要公開人機交互過程中隱私的內(nèi)容和風(fēng)險評估,清楚記錄隱私風(fēng)險和降低這些風(fēng)險所采取的措施,把事前預(yù)防和事后補救的措施嵌入和隱私設(shè)計中。
4.隱私設(shè)計要實現(xiàn)最大化的有益效果。對社交機器人的隱私設(shè)計不僅要滿足機器人公司所涉及的聲明和承諾,還要滿足多方利益相關(guān)者的期望。在既定的技術(shù)、流程和嵌入隱私設(shè)計中,盡最大可能兼顧不同用戶的需求,以綜合、創(chuàng)造性的方式實現(xiàn)優(yōu)化和整合的功能,最大程度滿足用戶的隱私保護需求。
5.隱私設(shè)計要確保社交機器人的生命周期。社交機器人的隱私設(shè)計,需確保從開發(fā)到使用過程信息安全完整的生命周期。隱私安全關(guān)系到機器人制造商在承擔(dān)用戶個人信息安全的責(zé)任。制造商和技術(shù)專家應(yīng)該確保用戶數(shù)據(jù)在整個社交機器人生命周期中的機密性、完整性和可用性。
6.隱私設(shè)計要求透明性。社交機器人的隱私設(shè)計旨在向利益相關(guān)者保證,在機器人材料、具體數(shù)據(jù)操作都是透明的,透明性對于建立問責(zé)制和信任至關(guān)重要。社交機器人隱私設(shè)計的透明性,一方面要求機器制造商在收集用戶信息時承擔(dān)保護用戶隱私數(shù)據(jù)的責(zé)任。涉及用戶隱私相關(guān)政策和程序的責(zé)任都應(yīng)該有所記錄,并在適當(dāng)?shù)臅r候進行溝通。在向第三方傳輸用戶信息的時候,必須確保用戶個人信息的安全性。另一方面,要求制定的隱私政策公開和合規(guī)。公開和合規(guī)是問責(zé)制的關(guān)鍵。與用戶相關(guān)的隱私政策應(yīng)隨時供用戶了解,建立投訴和補救機制,用戶能夠采取正當(dāng)?shù)耐緩奖Wo自己的隱私。
7.以用戶為中心的隱私設(shè)計。社交機器人的服務(wù)對象是用戶,應(yīng)該把用戶的隱私利益放在首位。隱私設(shè)計要圍繞用戶的興趣和需求進行有意識的開發(fā)和設(shè)計,確保用戶個人信息的安全性、準(zhǔn)確性。在訪問設(shè)置上,允許用戶訪問自己的個人信息,并告知用戶信息的用途和披露的目的,用戶在實際應(yīng)用中可隨時做出訪問設(shè)置的調(diào)整,確保用戶個人數(shù)據(jù)的安全。
引入7大原則對社交機器人的隱私進行設(shè)計和開發(fā),嵌入在“風(fēng)險識別、隱私分析和風(fēng)險緩解”[22]這一隱私框架中,使得設(shè)計隱私友好型社交機器人的倫理原則得以實施。從隱私設(shè)計上消解社交機器人隱私悖論,制造商增加對隱私友好型機器人的投資,開發(fā)隱私友好型的社交機器人,應(yīng)該以簡潔透明的方式向用戶傳達隱私保護工作,設(shè)計可信的社交機器人服務(wù)好用戶。
用戶沒有意識到個人數(shù)據(jù)披露的風(fēng)險,往往認(rèn)為沒有隱私問題,一旦將隱私風(fēng)險透明化會導(dǎo)致用戶對社交機器人的接受度和信任度降低?;谶@種情況,布羅德本特等學(xué)者引入了隱私增強行為(privacy enhancing behavior)[23]這一術(shù)語。作為社交機器人使用的道德主體,用戶有權(quán)控制自己的個人數(shù)據(jù),對個人數(shù)據(jù)的使用有知情同意的權(quán)利。因此,社交機器人制造商需要遵守隱私法,考慮用戶的隱私權(quán)利。通過增強用戶和制造商隱私保護的意識,做出隱私增強的行為。
1.隱私增強需要以用戶為主體。在用戶把社交機器人視為朋友或者伴侶的場景中,信任、誠實和可靠性至關(guān)重要[24]。社交機器人被當(dāng)作人類伴侶時,會給人虛幻的感覺,用戶對社交機器人的信任“像朋友一樣”,愿意分享更多的個人隱私信息。社交機器人的商業(yè)目的是為用戶提供個性化和人性化的服務(wù),對機器人的信任程度影響著用戶購買和使用它的意圖。使用社交機器人時,用戶應(yīng)該意識到自身是主體,不僅是決策的主體,也是行動的主體,社交機器人的服務(wù)功能需要用戶的數(shù)據(jù)支撐。因此,我們要以“人”為中心,增強用戶的隱私意識。以用戶為主體,促使用戶在涉及到隱私問題時能夠做出明智的決定,轉(zhuǎn)變用戶的心理狀態(tài),從“不是我的”轉(zhuǎn)化為“是我的”。用戶意識到如果忽視隱私聲明和政策會伴隨隱私披露的風(fēng)險,從而做出規(guī)避風(fēng)險的判斷和決策。
2.隱私增強需要用戶參與。用戶參與,一方面能夠根據(jù)自身的實踐在隱私保護方面提供真實的體驗和社會經(jīng)驗,為隱私設(shè)計提供經(jīng)驗性的依據(jù),與技術(shù)專家、倫理學(xué)家等人員共同參與隱私友好型機器人設(shè)計的過程中,尋找在用戶與社交機器人交互時規(guī)避隱私侵犯風(fēng)險的方案。另一方面,用戶參與,能夠讓用戶了解到社交機器人功能中的安全和隱私問題以及潛在的風(fēng)險,區(qū)分機器人可以識別、感知到的數(shù)據(jù)和機器人推斷出的信息,加強用戶對社交機器人隱私保護能力的認(rèn)識和判斷。讓用戶意識到隱私問題,這種意識使用戶能夠更好地面對隱私問題,既能最大程度發(fā)揮社交機器人的個性化服務(wù),同時保護好用戶的隱私信息。用戶參與作為一種隱私增強的方法,為社交機器人開發(fā)更多功能和服務(wù)提供了新的視角。
3.對用戶進行隱私相關(guān)知識的培訓(xùn)。對用戶進行隱私知識的培訓(xùn),包括對隱私理念、隱私內(nèi)容和隱私保護實踐三個方面,深化用戶對隱私的感知和理解。在隱私理念上,要提高用戶了解社交機器人隱私信息的主動性,用戶自愿接受其購買社交機器人產(chǎn)品的隱私培訓(xùn),及時更新培訓(xùn)的內(nèi)容,對不同功能的社交機器人涉及的個人隱私進行個性化的培訓(xùn),加深用戶對人機交互中涉及隱私理念的認(rèn)識。在隱私內(nèi)容上,主要包括對社交機器人隱私問題的風(fēng)險評估、隱私安全設(shè)置管理、可訪問的控制、識別惡意的黑客或者病毒等。通過培訓(xùn)的方式,既豐富用戶對隱私內(nèi)容的認(rèn)知,又要學(xué)會處理隱私問題,維護自身的隱私權(quán)益。在隱私培訓(xùn)路徑上,有兩種方式,即在線培訓(xùn)和現(xiàn)場培訓(xùn)。在線培訓(xùn)不受時空限制,方便用戶在線交流?,F(xiàn)場培訓(xùn)可以讓用戶在現(xiàn)場根據(jù)實際操作進行培訓(xùn),親身感知社交機器人的隱私保護設(shè)置和隱私政策等,把隱私的理論知識和實踐問題結(jié)合起來。通過對用戶的隱私知識和實踐的培訓(xùn),提升用戶隱私保護的意識,讓用戶在實踐中可以真切地操作社交機器人的隱私設(shè)置和管理,減少用戶隱私態(tài)度和隱私行為之間不一致的情況。
用戶對隱私的擔(dān)憂影響使用社交機器人的意向,明確社交機器人隱私信任的邊界,可以增強用戶的信任。相關(guān)的研究表明,信任作為中介變量可以顯著調(diào)節(jié)隱私關(guān)注對隱私行為的影響[25]。從隱私政策聲明和隱私邊界兩個方面來完善用戶的隱私制度,明確隱私信任的邊界。
1.明確用戶對隱私政策的知情同意內(nèi)容范圍。用戶購買社交機器人時,供應(yīng)商和銷售商應(yīng)從技術(shù)和策略上告知用戶產(chǎn)品的功能,以及在使用中收集個人信息數(shù)據(jù)的權(quán)限。用戶通過了解社交機器人的隱私聲明政策,感知隱私的風(fēng)險,用戶根據(jù)隱私聲明政策可以修改隱私設(shè)置的方式實現(xiàn)隱私保護,故而減少隱私披露行為發(fā)生的可能性。
2.在法律層面規(guī)范社交機器人的隱私邊界。確定社交機器人規(guī)范化的法律準(zhǔn)則,對社交機器人隱私的立法要有前瞻性和預(yù)見性,以便應(yīng)對未來技術(shù)進步出現(xiàn)更為復(fù)雜的隱私問題。社交機器人未廣泛推廣個性化服務(wù)時,因研究樣本的局限性,未能對真正使用社交機器人的用戶進行實證研究,加之不同文化的差異,社交機器人隱私倫理問題的復(fù)雜性,全球?qū)ι缃粰C器人的隱私立法還未出現(xiàn)。隨著社交機器人逐漸向個性化機器人、機器人管家的方向發(fā)展,對社交機器人隱私邊界的法律規(guī)范十分必要。
3.在道德層面規(guī)范社交機器人的隱私邊界。強化社交機器人產(chǎn)品生產(chǎn)方、銷售方、用戶的責(zé)任意識。一方面,在生產(chǎn)和銷售過程中堅持正確的義利觀,堅守良知,在企業(yè)逐利的過程中要保證產(chǎn)品的安全性和人性化;另一方面,要求用戶在使用產(chǎn)品時,深入了解產(chǎn)品的各種功能以及可能會出現(xiàn)隱私侵犯的具體情境,在隱私風(fēng)險和感知利益過程中,從認(rèn)知和理性雙系統(tǒng)角度做出理性的道德決策,促進隱私態(tài)度和隱私行為的一致。
試圖把隱私悖論放在社交機器人與人的交互應(yīng)用中討論,社交機器人因其社交的特性帶來了更為復(fù)雜的隱私問題。通過用戶隱私的理性計算、認(rèn)知的隱私偏差和無隱私風(fēng)險的評估三個角度分析隱私悖論產(chǎn)生的成因,從隱私設(shè)計、隱私增強和隱私制度消解用戶隱私悖論的問題。社交機器人隱私悖論問題,無論在法律層面還是道德層面,目前未能確定可靠的解決方法處理其理論和實踐困境。唯一可以確定的是,作為具有主觀能動性的人,要謹(jǐn)慎地面對這些問題,在迎接新技術(shù)的同時,要提升自己在技術(shù)時代的道德品質(zhì)和隱私保護意識。在未來社交機器人的隱私悖論研究中有兩個不同的方面:一是社交機器人應(yīng)用場景的隱私設(shè)置較為困難。社交機器人目前的隱私保護將很難實現(xiàn),包括密匙管理也可能被意外破壞。二是用戶本身的問題。用戶被視為機器人的外行,往往難以意識到隱私的風(fēng)險。因此,在開發(fā)和設(shè)計中,如何以用戶為中心設(shè)計,需要參與式設(shè)計進行評估,增強用戶的隱私保護意識。既可以提高用戶對社交機器人隱私問題的敏感性,又有助于機器人專家和團隊深入了解用戶的思想、愿望和習(xí)慣,推動開發(fā)人員設(shè)計出更友好和可信的社交機器人,實現(xiàn)良性的人機交互。