袁媛 劉明
【摘要】智能媒體時(shí)代,機(jī)器人新聞寫作依賴的數(shù)據(jù)共享與用戶主張的個(gè)人隱私保護(hù)出現(xiàn)激烈沖突,究其原因主要在于智能化新聞生產(chǎn)技術(shù)的廣泛使用帶來(lái)了隱私內(nèi)涵的變化和隱私權(quán)利主體的改變。為了在保障機(jī)器人新聞寫作技術(shù)可持續(xù)發(fā)展的同時(shí),實(shí)現(xiàn)用戶個(gè)人利益與社會(huì)公眾利益的平衡,應(yīng)當(dāng)明確智能新聞生產(chǎn)語(yǔ)境中的用戶隱私保護(hù)責(zé)任主體,建立隱私管理的人機(jī)協(xié)作模式;采用更加適用于機(jī)器人新聞寫作的新聞倫理準(zhǔn)則,將隱私保護(hù)條款項(xiàng)先植入算法中,提升算法透明度,保障用戶知曉權(quán);同時(shí)提升算法工程師的倫理水平和用戶的隱私素養(yǎng)。
【關(guān)鍵詞】機(jī)器人新聞寫作;隱私權(quán);智能媒體;算法
機(jī)器人新聞寫作最早誕生于美國(guó),是指利用自然語(yǔ)言處理、大數(shù)據(jù)分析、算法模型等技術(shù)實(shí)現(xiàn)新聞的采集、生產(chǎn)與分發(fā)全過(guò)程自動(dòng)化的智能寫作模式。國(guó)外較具代表性的新聞寫作機(jī)器人包括《華盛頓郵報(bào)》的Heliograf、雅虎的智能機(jī)器Wordsmith、路透社的Open Calais系統(tǒng)等。當(dāng)下風(fēng)頭正勁的ChatGPT也具備強(qiáng)大的信息提取、文本生成和學(xué)習(xí)的能力,能夠?qū)崿F(xiàn)更加快速精準(zhǔn)便捷的新聞寫作。[1]2023年7月20日,ChatGPT增加了Custom instructions新功能,使其具備個(gè)性化特色的同時(shí)能更好地貼近使用者的需求。國(guó)內(nèi)的機(jī)器人新聞寫作起步較晚但發(fā)展迅猛,代表性較強(qiáng)的有新華社的快筆小新、騰訊的Dreamwriter、字節(jié)跳動(dòng)的Xiaomingbot和封面新聞的小封機(jī)器人等。隨著機(jī)器人新聞寫作技術(shù)的不斷推廣,由此產(chǎn)生的用戶隱私侵權(quán)風(fēng)險(xiǎn)也日益引起國(guó)內(nèi)外學(xué)者的重視。
傳統(tǒng)媒體時(shí)代,媒體公開(kāi)信息、保證言論自由的同時(shí),通過(guò)使用化名、筆名、打馬賽克等方式來(lái)保護(hù)用戶的隱私信息。智能媒體時(shí)代,這些曾經(jīng)行之有效的手段已經(jīng)難以應(yīng)付自動(dòng)化新聞生產(chǎn)面臨的復(fù)雜問(wèn)題。因此,厘清機(jī)器人新聞生產(chǎn)中隱私侵權(quán)問(wèn)題的權(quán)利邊界與責(zé)任歸屬,從法律、倫理等層面保證機(jī)器人新聞寫作的合理、合法,才能推動(dòng)機(jī)器人新聞寫作的更好更健康發(fā)展。
一、機(jī)器人新聞寫作中的隱私侵權(quán)風(fēng)險(xiǎn)
(一)智能媒體時(shí)代隱私內(nèi)涵的變化與隱私權(quán)利主體的改變
傳統(tǒng)媒體時(shí)代,公共空間與私人空間有明顯的界限,隱私內(nèi)容較為穩(wěn)定,邊界清晰可辨。智能媒體時(shí)代,數(shù)據(jù)能夠永久性存儲(chǔ)且成本較低,數(shù)據(jù)流動(dòng)的速度不斷加快,數(shù)據(jù)整合的價(jià)值不斷提高且操作日益便捷,這些都促使傳統(tǒng)的隱私內(nèi)涵發(fā)生了巨大變化,隱私內(nèi)容由靜止轉(zhuǎn)向動(dòng)態(tài),邊界由清晰轉(zhuǎn)為模糊。原本價(jià)值稀少的數(shù)據(jù)碎片一旦流動(dòng)到掌握智能技術(shù)的平臺(tái)手中,其經(jīng)過(guò)分析就可能變成威脅用戶隱私的高價(jià)值信息。
智能媒體時(shí)代,隱私權(quán)的內(nèi)涵和外延也發(fā)生了變化。傳統(tǒng)隱私權(quán)的主要目的是維護(hù)隱私主體的公眾形象、人格尊嚴(yán)等,是一種消極的、被動(dòng)的“不被打擾的權(quán)利”。機(jī)器人新聞寫作環(huán)境中,用戶的隱私權(quán)還包括對(duì)用戶個(gè)人信息的采集、加工、處理和利用等權(quán)利。隱私權(quán)成為隱私主體為了維護(hù)個(gè)人自由和社會(huì)關(guān)系而采取的一種積極的、主動(dòng)的控制和自己有關(guān)的信息傳播的權(quán)利。與之相對(duì)的是,機(jī)器人新聞寫作環(huán)境中用戶的隱私保護(hù)主體也發(fā)生了改變,擁有隱私的主體不再是唯一的隱私保護(hù)主體,掌握技術(shù)的新聞媒體和新聞聚合分發(fā)平臺(tái)替代隱私主體成為保護(hù)隱私的第一責(zé)任人。由于隱私主體和隱私保護(hù)主體分離,當(dāng)雙方產(chǎn)生利益沖突時(shí),則可能出現(xiàn)隱私保護(hù)主體不盡責(zé)甚至反轉(zhuǎn)成隱私侵害主體的情形。
(二)機(jī)器人新聞寫作信息采集過(guò)程中的隱私侵權(quán)風(fēng)險(xiǎn)
1.人的數(shù)據(jù)化增強(qiáng)了數(shù)據(jù)采集的可能性
新媒體時(shí)代,用戶的思想和行為以數(shù)據(jù)的形式被網(wǎng)絡(luò)記錄下來(lái),社交媒體的興盛進(jìn)一步促進(jìn)了用戶的主動(dòng)數(shù)據(jù)生產(chǎn)行為,多重?cái)?shù)據(jù)的整合與分析形成了用戶在互聯(lián)網(wǎng)中的數(shù)據(jù)化映射。智能媒體時(shí)代,各種智能設(shè)備尤其是可穿戴設(shè)備將更加全面全時(shí)地采集用戶的各項(xiàng)數(shù)據(jù),用戶的數(shù)據(jù)化程度將持續(xù)加深,“可量化性”和“可追蹤度”將進(jìn)一步提高。這種數(shù)據(jù)化在為媒體機(jī)構(gòu)提供便利的同時(shí)也將使用戶面臨更多的隱私泄露風(fēng)險(xiǎn)。
2.智能媒體技術(shù)擴(kuò)大了數(shù)據(jù)采集的范圍
隨著5G技術(shù)的普及,數(shù)據(jù)傳輸?shù)母咚俣饶軌蚴贡镜嘏c云端幾乎處于同步狀態(tài)。云端強(qiáng)大的存儲(chǔ)功能和極低的存儲(chǔ)成本,再加上高效的使用體驗(yàn)刺激用戶將更多的數(shù)據(jù)傳輸至云端。對(duì)于云服務(wù)提供商來(lái)說(shuō),個(gè)人數(shù)據(jù)是其獲取經(jīng)濟(jì)利益的重要來(lái)源,用戶將包含隱私信息在內(nèi)的更多數(shù)據(jù)放在由云服務(wù)商提供的存儲(chǔ)平臺(tái)上,意味著隱私信息的不可控性將進(jìn)一步加劇。
(三)機(jī)器人新聞寫作信息處理與分發(fā)過(guò)程中的隱私侵權(quán)風(fēng)險(xiǎn)
機(jī)器人新聞寫作在信息處理與分發(fā)過(guò)程中要不斷地進(jìn)行用戶畫像。用戶畫像的過(guò)程可以理解為給用戶貼標(biāo)簽的過(guò)程。用戶畫像模塊對(duì)采集到的用戶數(shù)據(jù)進(jìn)行詞頻分析,包括關(guān)鍵詞出現(xiàn)的次數(shù)和權(quán)值等,再利用算法分析、統(tǒng)計(jì)出用戶的典型特征,比如,利用分類算法推測(cè)用戶的性別、年齡等人口特征,使用統(tǒng)計(jì)分析推測(cè)用戶的閱讀習(xí)慣、生活習(xí)慣等偏好特征,通過(guò)聚類算法推測(cè)用戶的信息消費(fèi)等行為特征,最終描摹出目標(biāo)用戶的模型,再通過(guò)信息反饋不斷迭代,使畫像越來(lái)越精準(zhǔn)。在機(jī)器人新聞寫作環(huán)境中,對(duì)用戶的精準(zhǔn)畫像需求會(huì)帶來(lái)對(duì)用戶新型隱私,即整合型隱私的侵犯。所謂的整合型隱私是指利用數(shù)據(jù)挖掘技術(shù)將用戶在網(wǎng)絡(luò)中留存的數(shù)字化痕跡進(jìn)行有規(guī)律的整合而形成的隱私。整合型隱私在整合前往往是普通的個(gè)人信息,在數(shù)據(jù)挖掘過(guò)程中,通過(guò)對(duì)數(shù)據(jù)的排列組合,整合型隱私才得以產(chǎn)生。由于數(shù)據(jù)整合的主體、時(shí)間、方式、目的和用途等往往無(wú)法提前確定,導(dǎo)致整合型隱私具有極大的偶然性和隱蔽性,用戶很難察覺(jué)。[2]另外,以往關(guān)于隱私保護(hù)問(wèn)題討論中的“知情同意”等原則也無(wú)法適用于整合型隱私,因?yàn)樵趯?shí)際操作中,用戶的知情權(quán)很難滿足。
二、機(jī)器人新聞寫作中隱私侵權(quán)的治理措施
(一)明確責(zé)任主體,實(shí)現(xiàn)人機(jī)共管
1.明確用戶隱私保護(hù)的責(zé)任主體
采用機(jī)器人新聞寫作技術(shù)的新聞媒體和新聞聚合分發(fā)平臺(tái)作為用戶數(shù)據(jù)的采集方、存儲(chǔ)方和使用方應(yīng)當(dāng)承擔(dān)起保護(hù)用戶個(gè)人信息安全的責(zé)任。結(jié)合2020年國(guó)家最新發(fā)布的《個(gè)人信息安全規(guī)范》,新聞媒體和新聞聚合分發(fā)平臺(tái)在用戶信息采集環(huán)節(jié),應(yīng)當(dāng)堅(jiān)持目的明確原則和選擇同意原則,向用戶明示個(gè)人信息處理的目的、方式、范圍、規(guī)則等,征求其授權(quán)同意。在用戶信息存儲(chǔ)環(huán)節(jié),應(yīng)當(dāng)堅(jiān)持確保安全原則和主體參與原則,采取足夠的管理措施和技術(shù)手段,保護(hù)個(gè)人信息的保密性和完整性,向用戶提供能夠查詢、更正、刪除其個(gè)人信息,以及撤回同意、投訴等方法。在用戶信息的使用環(huán)節(jié),應(yīng)當(dāng)堅(jiān)持最少夠用原則,只處理滿足個(gè)人信息主體授權(quán)同意的最少個(gè)人信息類型和數(shù)量。爾后,及時(shí)刪除個(gè)人信息。由國(guó)家網(wǎng)信辦發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》中也對(duì)廣播電視、新聞出版等部門依據(jù)各自職責(zé)依法加強(qiáng)對(duì)生成式人工智能服務(wù)的管理提出了要求。
2.智能化新聞生產(chǎn)中應(yīng)當(dāng)建立隱私管理的人機(jī)協(xié)作模式
在機(jī)器人新聞寫作環(huán)境中,用戶信息被個(gè)人和機(jī)器共同掌握,機(jī)器作為用戶信息的共有者占據(jù)更加主動(dòng)的地位,用戶往往受制于甚至屈服于算法平臺(tái)。因此,要限制算法對(duì)用戶數(shù)據(jù)的過(guò)度占有與控制,同時(shí)加強(qiáng)對(duì)用戶權(quán)益的保護(hù),尤其是賦予用戶被遺忘權(quán)和刪除權(quán)等,改變當(dāng)前用戶與平臺(tái)間的不對(duì)等關(guān)系,才能建立起和諧有效的人機(jī)協(xié)作隱私管理模式?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》中也針對(duì)ChatGPT等生成式人工智能服務(wù)提供者作出了明確規(guī)定,要求其依法及時(shí)受理和處理個(gè)人關(guān)于查閱、復(fù)制、更正、補(bǔ)充、刪除其個(gè)人信息等的請(qǐng)求。
(二)建立更加適用于機(jī)器人新聞寫作的新聞倫理準(zhǔn)則
1.將隱私保護(hù)條款預(yù)先植入算法中
智能媒體時(shí)代的隱私保護(hù)應(yīng)當(dāng)覆蓋從數(shù)據(jù)采集、數(shù)據(jù)傳輸、數(shù)據(jù)存儲(chǔ)到數(shù)據(jù)分析與使用的整個(gè)過(guò)程。對(duì)于部分侵犯用戶隱私權(quán)的違法行為,僅僅要求其停止侵害行為或針對(duì)侵害行為進(jìn)行賠償是遠(yuǎn)遠(yuǎn)不夠的。因?yàn)橛械碾[私侵害行為一旦發(fā)生,其對(duì)用戶產(chǎn)生的傷害,比如對(duì)未成年人的心理傷害,后期往往很難有效救濟(jì)。因此,在機(jī)器人新聞寫作的算法設(shè)計(jì)中,應(yīng)當(dāng)預(yù)先將保護(hù)用戶隱私的理念植入程序中,確保機(jī)器人新聞寫作技術(shù)在運(yùn)用和管理過(guò)程中能夠?qū)崿F(xiàn)對(duì)用戶隱私信息的有效控制與保護(hù)。歐盟在2016年確立的《一般數(shù)據(jù)保護(hù)原則》第25條中就已經(jīng)明確規(guī)定了人工智能在設(shè)計(jì)階段和初始設(shè)定里要加入數(shù)據(jù)保護(hù)。將隱私理念預(yù)先植入算法中,能夠在發(fā)展自動(dòng)化新聞生產(chǎn)的同時(shí)實(shí)現(xiàn)自動(dòng)化的用戶隱私保護(hù)。目前,《生成式人工智能服務(wù)管理暫行辦法》中僅要求提供和使用生成式人工智能服務(wù)者在算法設(shè)計(jì)過(guò)程中,采取有效措施防止產(chǎn)生歧視,并未對(duì)隱私保護(hù)作出明確的規(guī)定。
2.提升算法透明度,保障用戶知曉權(quán)
對(duì)于用戶來(lái)說(shuō),機(jī)器人新聞寫作的過(guò)程是隱蔽的、不可見(jiàn)的,因此提升算法透明度能夠有效保障用戶的知曉權(quán),為用戶提供隱私處理決策的依據(jù)?!吨腥A人民共和國(guó)個(gè)人信息保護(hù)法》第七條明確規(guī)定了處理個(gè)人信息應(yīng)當(dāng)遵循公開(kāi)、透明原則。其中第二十四條又進(jìn)一步規(guī)定個(gè)人信息處理者利用個(gè)人信息進(jìn)行自動(dòng)化決策,應(yīng)當(dāng)保證決策的透明度。通過(guò)自動(dòng)化決策方式向個(gè)人進(jìn)行信息推送,應(yīng)當(dāng)同時(shí)提供不針對(duì)其個(gè)人特征的選項(xiàng),或者向個(gè)人提供便捷的拒絕方式?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》也要求提供和使用生成式人工智能服務(wù)應(yīng)提升透明度,但缺乏更具體細(xì)致的條文。事實(shí)上,透明原則能夠有效地保護(hù)用戶的信息自決權(quán),因?yàn)樵撛瓌t要求使用算法的新聞媒體和新聞聚合分發(fā)平臺(tái)等在處理用戶信息過(guò)程中,應(yīng)當(dāng)對(duì)用戶履行充分的告知義務(wù),尊重用戶對(duì)個(gè)人信息的選擇權(quán)和決定權(quán),包括刪除權(quán)。這樣,面對(duì)新聞媒體或者新聞聚合分發(fā)平臺(tái)復(fù)雜且難以解釋的算法技術(shù),用戶就能夠清晰地知曉其信息處理的目的、方式、范圍等,并在此基礎(chǔ)上作出判斷和選擇。堅(jiān)持使用算法的新聞媒體或新聞聚合分發(fā)平臺(tái)內(nèi)部的算法透明原則,一方面有助于建立更加具有責(zé)任意識(shí)的新聞媒體,另一方面也能夠幫助新聞媒體贏得更多用戶的信任,從而提高新聞媒體的公信力和美譽(yù)度。
(三)提升算法工程師的倫理水平和用戶的隱私素養(yǎng)
1.提升算法工程師的倫理水平
算法技術(shù)并不是絕對(duì)中立的。機(jī)器人新聞寫作依靠的核心算法是算法工程師不同價(jià)值觀的反映,價(jià)值觀不同的算法工程師設(shè)計(jì)出的算法也會(huì)有很大差異。機(jī)器人新聞寫作技術(shù)的算法工程師作為媒體算法技術(shù)隱私侵權(quán)的首要責(zé)任人,他們掌握著新聞算法能否有效平衡用戶數(shù)據(jù)隱私權(quán)與公眾知情權(quán)的關(guān)鍵信息。算法工程師對(duì)用戶隱私的不同看法和重視程度將決定他們以何種態(tài)度、何種行為對(duì)待算法,更意味著他們?cè)O(shè)計(jì)的算法將會(huì)對(duì)用戶的隱私造成何種影響。學(xué)者袁帆、嚴(yán)三九通過(guò)對(duì)傳媒業(yè)269名算法工程師進(jìn)行實(shí)證研究發(fā)現(xiàn),“相當(dāng)比例的算法工程師的算法倫理價(jià)值觀處在一種模糊狀態(tài)。而一旦處于低算法倫理水平的算法工程師道德警惕有所松懈,那么就有很大可能造成算法倫理失范”。[3]因此,通過(guò)行業(yè)規(guī)范和行業(yè)培訓(xùn)等手段切實(shí)提高算法工程師的算法倫理水平,加強(qiáng)其對(duì)個(gè)人信息重要性的評(píng)估,促使他們能夠積極主動(dòng)地承擔(dān)用戶隱私侵權(quán)的責(zé)任,才能夠有效地保護(hù)新聞機(jī)器人寫作的健康發(fā)展。
2.提高用戶隱私素養(yǎng)
對(duì)用戶的隱私素養(yǎng)教育應(yīng)當(dāng)從自我認(rèn)知、態(tài)度和行為等多個(gè)層面入手。首先,引導(dǎo)媒體用戶尤其是老年人群體和未成年人群體建立對(duì)自身隱私素養(yǎng)正確的認(rèn)識(shí)和評(píng)價(jià),提高其隱私保護(hù)的自覺(jué)意識(shí)和邊界意識(shí),防止由自身認(rèn)知偏差帶來(lái)更多的隱私信息泄露。其次,采取學(xué)校教育與社會(huì)教育相結(jié)合的方式,向用戶普及隱私保護(hù)知識(shí),提升用戶對(duì)算法的了解和認(rèn)識(shí),引導(dǎo)用戶對(duì)所使用的媒體進(jìn)行批判性思考。增強(qiáng)用戶在個(gè)人信息管理中的主動(dòng)性,當(dāng)用戶隱私遭受侵犯時(shí),能夠及時(shí)采取補(bǔ)救措施并運(yùn)用《個(gè)人信息保護(hù)法》等法律武器捍衛(wèi)自身權(quán)益。[4]
用戶數(shù)據(jù)是機(jī)器人新聞寫作中最重要的生產(chǎn)資料。無(wú)視機(jī)器人新聞寫作過(guò)程中的用戶隱私保護(hù)問(wèn)題,在給用戶帶來(lái)更多隱私泄露風(fēng)險(xiǎn)的同時(shí),還可能引發(fā)“寒蟬效應(yīng)”,使用戶對(duì)智能媒體的不信任程度持續(xù)加深甚至放棄使用。反之,對(duì)用戶信息的過(guò)度保護(hù),也可能導(dǎo)致用戶信息利用成本過(guò)高,阻礙媒體行業(yè)的健康發(fā)展,甚至損害公共利益。因此,只有政府、媒體和用戶等多方協(xié)同努力,對(duì)機(jī)器人新聞寫作中的隱私保護(hù)問(wèn)題進(jìn)行明確、規(guī)范和監(jiān)管,才能讓機(jī)器人新聞寫作更加可用、可靠、可控,走上健康和諧、可持續(xù)發(fā)展的道路。
[本文為遼寧省教育廳科學(xué)研究經(jīng)費(fèi)項(xiàng)目“智能媒體時(shí)代的媒體隱私侵權(quán)問(wèn)題與救濟(jì)路徑研究”(項(xiàng)目編號(hào):JJW202015404)階段性成果]
參考文獻(xiàn):
[1]高菲,王晴川.人工智能聊天機(jī)器人ChatGPT的媒介屬性、影響與局限[J].新聞愛(ài)好者,2023(4):36-39.
[2]顧理平.整合型隱私:大數(shù)據(jù)時(shí)代隱私的新類型[J].南京社會(huì)科學(xué),2020(4):106-111+122.
[3]袁帆,嚴(yán)三九.模糊的算法倫理水平:基于傳媒業(yè)269名算法工程師的實(shí)證研究[J].新聞大學(xué),2020(5):112-124+129.
[4]林碧烽,范五三.從媒介本位到用戶至上:智媒時(shí)代隱私素養(yǎng)研究綜述[J].編輯學(xué)刊,2021(1):36-42.
作者簡(jiǎn)介:袁媛,遼寧工業(yè)大學(xué)文化傳媒與藝術(shù)設(shè)計(jì)學(xué)院副教授(錦州 121001);劉明,遼寧工業(yè)大學(xué)科技處講師(錦州 121001)。
編校:張紅玲