□ 潘援
內(nèi)容提要 目前,人工智能技術(shù)廣泛應(yīng)用在媒體的內(nèi)容采集、內(nèi)容生產(chǎn)、內(nèi)容分發(fā)、用戶互動等方面。而隨著人機(jī)交互的加深,倫理失范問題凸顯,或?qū)⒊蔀殚L期制約人工智能技術(shù)在媒體應(yīng)用與發(fā)展的關(guān)鍵要素。本研究通過對人工智能技術(shù)媒體應(yīng)用現(xiàn)狀的梳理,探討了現(xiàn)階段人工智能技術(shù)在媒體應(yīng)用中面臨的三類倫理失范風(fēng)險,并從人工智能生命周期出發(fā),提出了風(fēng)險防范舉措。
人工智能技術(shù)在媒體的內(nèi)容采集、內(nèi)容生產(chǎn)、內(nèi)容分發(fā)、用戶互動服務(wù)等方面日益滲透,為媒體從業(yè)者和媒體使用者都帶來很多便利。但與此同時,隨著人機(jī)交互的加深,假新聞泛濫問題、算法價值取向問題、人機(jī)關(guān)系問題等倫理失范問題凸顯。
人工智能技術(shù)應(yīng)用具備的優(yōu)點有:實時智能抓取信息推進(jìn)信息采集的便捷化、機(jī)器人寫作使內(nèi)容生產(chǎn)更具時效性和多樣性、算法持續(xù)學(xué)習(xí)讓內(nèi)容實現(xiàn)個性化精準(zhǔn)推薦、人機(jī)良好交流溝通提升用戶交互體驗。但另一面,人工智能技術(shù)也在不斷引發(fā)擔(dān)憂與爭議。
(一)創(chuàng)作輔助引發(fā)隱私擔(dān)憂。全天候的數(shù)據(jù)監(jiān)測與數(shù)據(jù)挖掘技術(shù)提升了數(shù)據(jù)收集的范圍與效率,自然語義處理技術(shù)、社會網(wǎng)絡(luò)分析技術(shù)等豐富了數(shù)據(jù)分析的維度,大大提升內(nèi)容生產(chǎn)者對選題把握的全面性與精準(zhǔn)性。但海量數(shù)據(jù)的抓取與分析也引發(fā)了大家對于用戶隱私問題的擔(dān)憂。
(二)自動化新聞成為假新聞主要來源之一。自動化新聞生產(chǎn)目前主要基于“人工模板”+“自動化數(shù)據(jù)填充”的模式。編輯向機(jī)器人輸入關(guān)鍵詞,然后由機(jī)器進(jìn)行新聞數(shù)據(jù)的采集、優(yōu)化、分析,之后提煉選題并運營算法套用模板生成新聞內(nèi)容。機(jī)器人不僅能自動生成真新聞,也能大量產(chǎn)生假新聞,且做到以假亂真,對新聞公信力產(chǎn)生負(fù)面影響。
(三)內(nèi)容分發(fā)引發(fā)算法權(quán)力討論。算法分發(fā)使用戶的個人偏好成為信息分發(fā)的基本依據(jù),傳統(tǒng)媒體在新聞分發(fā)中的控制權(quán)受到削弱,用戶獲取的新聞更具多樣性和可控性,但同時使信息繭房、回聲室效應(yīng)等問題變得突出。
(四)用戶互動引發(fā)人機(jī)關(guān)系問題思考。2014年年末,“微軟小冰”上線微信,并以其靈活、賣萌的風(fēng)格引發(fā)了大眾關(guān)注,但“用詞粗鄙”也成為其一大詬病點。2021年年初,韓國部分網(wǎng)民表示其在與網(wǎng)紅AI聊天機(jī)器人“伊達(dá)魯”聊天時,“她”語言偏激,并有性別歧視和種族歧視觀點。而不論是“微軟小冰”,還是“伊達(dá)魯”,其言語粗鄙、觀點偏激的原因之一是人們在和其對話時進(jìn)行了故意的語言侮辱甚至騷擾,從而讓聊天機(jī)器人學(xué)習(xí)了這些“惡意”。
第47次中國互聯(lián)網(wǎng)絡(luò)發(fā)展?fàn)顩r統(tǒng)計報告指出,新一代人工智能技術(shù)正加速在各行業(yè)縱向深入和落地應(yīng)用。近年來,人工智能和媒體的融合越來越緊密。例如,新華社與阿里巴巴集團(tuán)的合資公司新華智云自主研發(fā)的媒體大腦MAGIC短視頻智能生產(chǎn)平臺便專注于短視頻內(nèi)容的自動化生成。但我們必須看到,人工智能技術(shù)在為我們帶來便利的同時,也帶來諸多風(fēng)險。
一是侵害公眾權(quán)利的問題。麻省理工學(xué)院研究發(fā)現(xiàn),4個時空數(shù)據(jù)就可以描繪出一個人95%的身份信息。人工智能技術(shù)自身的數(shù)據(jù)缺陷可能導(dǎo)致新聞失去真實性和客觀性,對數(shù)據(jù)的過分依賴也將破壞公眾的隱私權(quán)。在感慨傳感器帶來萬物相連萬物皆媒介的同時,傳感器社會也是一種新的社會監(jiān)視和控制。同時,大數(shù)據(jù)背景下公民信息的“被遺忘權(quán)”也需要引起關(guān)注。
二是假新聞泛濫的問題。隨著人工神經(jīng)網(wǎng)絡(luò)合成圖片、視頻、文字內(nèi)容的能力迅速提高,人工智能技術(shù)會被一些不懷好意的個人或組織利用,通過制造和傳播假新聞、惡意評論來打擾煽動輿論、擾亂網(wǎng)絡(luò)傳播秩序、深度互動性帶來一定倫理問題等。
三是算法的價值取向問題。算法的使用可能會因為研發(fā)者的偏見、樣本與訓(xùn)練數(shù)據(jù)的偏見、研發(fā)公司以及購買企業(yè)的利益訴求、算法自身原因等而讓算法產(chǎn)生與人類相同的偏見與歧視,造成更大范圍內(nèi)的社會不公平現(xiàn)象。2016年“Facebook偏見門”事件就是“算法審查”發(fā)生偏差的產(chǎn)物。我們應(yīng)該時刻警醒算法可能帶來的更為隱蔽的偏差和偏見,在算法中堅持人的價值觀。
人工智能技術(shù)究其本質(zhì)是人類智慧和智能的高度聚合,也是人類本體價值和意義在技術(shù)層面的展開。人工智能技術(shù)在媒體應(yīng)用中面臨倫理失范風(fēng)險的原因有以下兩點。
一是傳播生產(chǎn)實踐中人機(jī)關(guān)系的失衡。人工智能技術(shù)在媒體中的應(yīng)用尚屬發(fā)展階段,存在非結(jié)構(gòu)化數(shù)據(jù)多、數(shù)據(jù)質(zhì)量良莠不齊、數(shù)據(jù)孤島效應(yīng)等問題,“你關(guān)心的就是頭條”的算法邏輯消解了傳統(tǒng)專業(yè)機(jī)構(gòu)和編輯的地位,賦權(quán)于公眾或者用戶。以用戶需求為絕對主導(dǎo),以算法為絕對手段,忽視內(nèi)容的價值引導(dǎo)與平臺的把關(guān)責(zé)任,從而引發(fā)虛假消息泛濫、內(nèi)容低俗化、信息繭房等問題。
二是人工智能技術(shù)設(shè)計與應(yīng)用過程中的倫理規(guī)制和監(jiān)管體系缺失。機(jī)器的運行過程主要以“用戶偏好”“利益導(dǎo)向”等為依據(jù),缺少道德層面的行為準(zhǔn)則與制約。我們要如何看待機(jī)器人主體、他們是否具有主體性等都亟待深入思考和討論。就目前而言,我國尚未形成具體的、針對人工智能環(huán)節(jié)的監(jiān)管制度,也還不具備實現(xiàn)人工智能研發(fā)改進(jìn)全流程監(jiān)管的能力。
人工智能技術(shù)的應(yīng)用帶來了媒介生產(chǎn)方式的變革與制度的創(chuàng)新,也加速影響著人類社會。防范人工智能技術(shù)在媒體應(yīng)用中倫理失范風(fēng)險,應(yīng)綜合考慮,形成有法可依、多元協(xié)同、多方參與的治理機(jī)制。
一要樹立“人機(jī)協(xié)同”的發(fā)展模式。在人機(jī)協(xié)同中,人是智能的把關(guān)人,居于最重要的地位,要明確人的主體地位。記者發(fā)揮在內(nèi)容專業(yè)性和深度方面的特長。要明確內(nèi)容的問責(zé)機(jī)制,人類是智能內(nèi)容的“元作者”,要對數(shù)據(jù)的版權(quán)和準(zhǔn)確性負(fù)責(zé)。
二要建立人工智能時代新的倫理與規(guī)范。2021年9月,我國新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能倫理規(guī)范》,提出技術(shù)倫理是機(jī)器時代的韁繩。構(gòu)建人工智能的倫理道德體系的首要目的在于為人工智能嵌入人類價值,讓人工智能的行為合乎人類社會的倫理道德要求。
三要建立健全人工智能技術(shù)的監(jiān)管體系。人工智能行為的規(guī)范和倫理問題既需要自上而下的科學(xué)監(jiān)管,也需要自下而上的自我約束。目前,很多企業(yè)正在積極推動自身的監(jiān)管舉措。如阿里巴巴推出AI謠言粉碎機(jī),用來治理網(wǎng)絡(luò)謠言、虛假新聞。今日頭條的“靈犬”、鳳凰新聞客戶端的“鳳眼”系統(tǒng)等,均是致力于反低俗有害信息的智能化管理工具。
隨著5G時代的到來,媒介生產(chǎn)環(huán)境、傳輸方式以及終端場景必然發(fā)生顛覆式變化,也將深刻改變?nèi)祟惿鐣钆c世界。在享受人工智能技術(shù)為我們帶來便利的同時,不能忘記其背后隱藏的某些“陷阱”。增強(qiáng)全社會的人工智能倫理意識和行為自覺,也是塑造科技向善理念,營造良好媒體生態(tài)環(huán)境、增進(jìn)人類福祉的必要舉措。
[1]第47次中國互聯(lián)網(wǎng)絡(luò)發(fā)展?fàn)顩r統(tǒng)計報告[R],2021.(2)78.
[2]陳毅華,張靜.從概念到集成化、產(chǎn)品化、商業(yè)化實踐——從媒體大腦人工智能技術(shù)與媒體業(yè)態(tài)的融合[J].中國記者,2019(2):15-17.
[3]靖鳴,婁翠.人工智能技術(shù)在新聞傳播中倫理失范的思考[J].出版廣角,2018(1):9-13.
[4]殷樂.人工智能技術(shù)與媒體進(jìn)化:國外相關(guān)實踐探索與思考[J].新聞與寫作,2016(2):20-24.
[5]周麗娜.大數(shù)據(jù)背景下的網(wǎng)絡(luò)隱私法律保護(hù):搜索引擎,社交媒體與被遺忘權(quán)[J].國際新聞界,2015(8):136-153.
[6]楊曙.當(dāng)下VR新聞制作的缺陷與未來發(fā)展[J].中國記者,2018(3):93-95.
[7]方師師.算法如何重塑新聞業(yè):現(xiàn)狀、問題與規(guī)制[J].新聞與寫作,2018(9):11-19.
[8]喻國明,楊瑩瑩,閆巧妹.算法即權(quán)力:算法范式在新聞傳播中的權(quán)力革命[J].編輯之友,2018(05):5-12.
[9]姜紅,魯曼.重塑“媒介”:行動者網(wǎng)絡(luò)中的新聞“算法”[J].新聞記者,2017(4):26-32.
[10]冉曉燕.人工智能體引發(fā)的倫理困境[J].中國高新科技,2020,(3):86-88.
[11]靖鳴,婁翠.人工智能技術(shù)在新聞傳播中倫理失范的思考[J].出版廣角,2018(1):11-15.
[12]彭蘭.機(jī)器與算法的流行時代,人該怎么辦[J].新聞與寫作,2016(12):25-28.
[13]冉曉燕.人工智能體引發(fā)的倫理困境[J].中國高新科技,2020(3):86-88.