許向東
【關(guān)鍵詞】人工智能 ?新聞傳播 ?新聞倫理與法規(guī) ?數(shù)據(jù)保護(hù)
【中圖分類號(hào)】TU984.2 ? ? ? ? ? ? ? ? ? ? ? ?【文獻(xiàn)標(biāo)識(shí)碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2018.24.006
人工智能是什么?它會(huì)如何發(fā)展?它會(huì)給我們的生活、工作帶來哪些影響?由于學(xué)科領(lǐng)域的不同,關(guān)于其定義和邊界很難形成共識(shí)。人工智能對(duì)傳媒業(yè)的影響,包括如何提高新聞生產(chǎn)的效率,是否對(duì)新聞從業(yè)者造成職業(yè)壓力,以及是否會(huì)對(duì)新聞倫理與法規(guī)產(chǎn)生沖擊等,已經(jīng)成為新聞傳播領(lǐng)域的關(guān)注點(diǎn)。
在傳統(tǒng)媒體時(shí)代,傳媒業(yè)相互競(jìng)爭(zhēng)、追逐利潤(rùn),引發(fā)了諸如虛假新聞、有償新聞、媒體審判、新聞侵權(quán)等違背新聞倫理與法規(guī)的現(xiàn)象。當(dāng)前,人工智能技術(shù)逐漸滲透到新聞產(chǎn)品的生產(chǎn)、傳播過程中,在實(shí)現(xiàn)精準(zhǔn)推送、高效生產(chǎn)的同時(shí),也帶來了新的倫理與法規(guī)問題。
數(shù)據(jù)的非法采集和過度分析。數(shù)據(jù)是人工智能時(shí)代的重要資源,擁有足夠體量的數(shù)據(jù)是進(jìn)行數(shù)據(jù)分析、深度挖掘的前提。因此,為了擁有大量的數(shù)據(jù),數(shù)據(jù)的采集范圍日漸廣泛,采集方式也日漸隱蔽,無形中就增加了個(gè)人數(shù)據(jù)被非法收集和過度分析的風(fēng)險(xiǎn)。
信息劇增時(shí)代是一個(gè)生產(chǎn)大量數(shù)據(jù)和消費(fèi)大量數(shù)據(jù)的時(shí)代,人們?nèi)找娣彪s的社會(huì)活動(dòng)在不斷地產(chǎn)生著不可計(jì)量的數(shù)據(jù)。從所有權(quán)的角度來看,依據(jù)法律,每個(gè)人不僅擁有個(gè)人數(shù)據(jù)的所有權(quán),而且有權(quán)利知道是哪些機(jī)構(gòu)在收集自己的數(shù)據(jù)、收集了哪些數(shù)據(jù)、被收集的數(shù)據(jù)將用于何處,等等。如果在未告知對(duì)方的情況下收集個(gè)人數(shù)據(jù),這就是一種違背職業(yè)倫理和相關(guān)法規(guī)的行為。
當(dāng)前,社交媒體的普及和大數(shù)據(jù)分析技術(shù)的不斷升級(jí),不僅使得技術(shù)人員能夠從看似沒有價(jià)值的事物中提取信息,將其轉(zhuǎn)化成有用的數(shù)據(jù),而且也為大數(shù)據(jù)企業(yè)深入分析數(shù)據(jù)、找到數(shù)據(jù)之間的關(guān)聯(lián)性提供了便利。一組孤立的、零散的數(shù)據(jù)也許不具備較高的價(jià)值,但是,如果與其他組數(shù)據(jù)放在一起考慮,發(fā)現(xiàn)其中的相關(guān)關(guān)系以及相關(guān)關(guān)系的強(qiáng)弱,將有助于我們比以往更容易、更清晰地分析事物,尤其是在發(fā)現(xiàn)商業(yè)價(jià)值,以及預(yù)測(cè)某類事物的發(fā)展趨勢(shì)方面?!盎ヂ?lián)網(wǎng)+”為創(chuàng)造新的商業(yè)模式開辟了思路,而大數(shù)據(jù)分析技術(shù)則為實(shí)現(xiàn)商業(yè)價(jià)值奠定了技術(shù)基礎(chǔ)。當(dāng)前,為建設(shè)一個(gè)透明、高效的服務(wù)型政府,政府部門在逐漸開放數(shù)據(jù)庫,一些網(wǎng)站尤其是社交媒體平臺(tái)也不同程度地開放了用戶的實(shí)時(shí)信息,這就為個(gè)別大數(shù)據(jù)商業(yè)機(jī)構(gòu)提供了抓取和挖掘數(shù)據(jù)的機(jī)會(huì)。當(dāng)數(shù)據(jù)(尤其是包含了用戶個(gè)人的經(jīng)濟(jì)狀況、社交范圍的數(shù)據(jù))間的關(guān)系被建立起來,這些數(shù)據(jù)越是被深度挖掘,其商業(yè)價(jià)值就越大。在傳統(tǒng)媒體主導(dǎo)的時(shí)代,受眾的注意力是最值錢的,而現(xiàn)在則發(fā)生了根本性變化,受眾的透明度——所留下的各種行為痕跡(數(shù)據(jù))更值錢、更好賣。因此,建立數(shù)據(jù)采集、數(shù)據(jù)分析的實(shí)施規(guī)則,有助于消除個(gè)人數(shù)據(jù)的違規(guī)采集和過度挖掘現(xiàn)象。
算法偏見和算法透明度。按照常理,算法作為一種數(shù)學(xué)表達(dá),理應(yīng)拋棄了人類在信息傳播中具有的獵奇、歧視、偏見等不良因素,但現(xiàn)實(shí)并非如此。所謂的算法偏見(algorithmic bias),是指在看似客觀中立的算法程序的研發(fā)中,其實(shí)帶有研發(fā)人員的偏見、歧視等,或者所采用的數(shù)據(jù)帶有偏見或歧視。[1]算法是通過數(shù)據(jù)運(yùn)算來預(yù)測(cè)未來的,運(yùn)算過程將涉及數(shù)據(jù)的質(zhì)量、研發(fā)人員對(duì)數(shù)據(jù)的篩選等因素。其中,數(shù)據(jù)的體量、準(zhǔn)確性、適用范圍等直接關(guān)系到算法決策和運(yùn)算的結(jié)果。在研發(fā)人工智能系統(tǒng)的過程中,研發(fā)人員所使用的訓(xùn)練數(shù)據(jù)的分布狀況,以及對(duì)算法進(jìn)行應(yīng)力測(cè)試的過程,都會(huì)影響人工智能的決策與選擇,使得各式各樣的偏見、歧視被技術(shù)客觀性的外衣包裹。另外,算法和數(shù)據(jù)驅(qū)動(dòng)產(chǎn)品總是會(huì)反映其建造者的設(shè)計(jì)選擇,如若程序員們本身帶有偏見,那么編寫出來的程序帶有偏見就不足為奇了。[2]當(dāng)前,算法偏見主要有如下幾種:一是“互動(dòng)偏見”,指在算法系統(tǒng)與用戶互動(dòng)過程中使算法產(chǎn)生的偏見,當(dāng)機(jī)器被設(shè)定為向周圍環(huán)境學(xué)習(xí)時(shí),它們不能決定要保留或者丟棄哪些數(shù)據(jù),也無法判斷哪些數(shù)據(jù)是對(duì)的或錯(cuò)的;二是“潛意識(shí)偏見”,指算法將錯(cuò)誤的觀念與種族和性別等因素連結(jié)起來;三是“選擇偏見”,指受數(shù)據(jù)影響的算法,導(dǎo)致過于放大某一族群或群組,從而使該算法對(duì)其有利,而代價(jià)是犧牲其他群體;四是“數(shù)據(jù)導(dǎo)向的偏見”,指用來訓(xùn)練算法的原始數(shù)據(jù)已經(jīng)存在偏見了,機(jī)器不會(huì)質(zhì)疑所接收到的數(shù)據(jù),只是單純地尋找其中的模式。如果數(shù)據(jù)一開始就被扭曲,那么其輸出的結(jié)果,也將會(huì)反映這一點(diǎn)。[3]
算法的透明度問題本質(zhì)上也是新聞生產(chǎn)的透明度問題。傳統(tǒng)的新聞生產(chǎn)流程較為簡(jiǎn)單,從素材的采集加工,到編輯整合,再到播發(fā),公眾多多少少都有所了解。而披著“高科技”外衣的“算法”則讓人感覺有些“高深莫測(cè)”了。諸如“是哪些人研發(fā)了這個(gè)算法”“這個(gè)算法的運(yùn)算目的是什么”“誰對(duì)運(yùn)算的結(jié)果負(fù)責(zé)”以及“設(shè)計(jì)推薦算法需要參考哪些指標(biāo)”等類似的問題在等待著回答,但遺憾的是,算法自身的復(fù)雜性再加上無法洞悉的“算法黑箱”的存在,增加了公眾對(duì)算法的設(shè)計(jì)原理、運(yùn)行邏輯的理解難度。算法的透明度不僅牽涉新聞生產(chǎn)流程的“客觀性”“公平公正”,而且關(guān)聯(lián)著公眾對(duì)新聞傳媒、新聞產(chǎn)品質(zhì)量的信任,更使得“算法”的透明度問題日益被人們關(guān)注。因此,提升算法透明度的意義非同尋常,特別是隨著算法在新聞生產(chǎn)、新聞推送的應(yīng)用日漸增多,“透明度”越來越多地被用作合法化新聞的規(guī)范基礎(chǔ),透明度不僅可以對(duì)新聞算法的功能進(jìn)行有價(jià)值的檢查,還可以提高算法對(duì)道德、文化和認(rèn)識(shí)論的影響力。[4]
對(duì)隱私權(quán)與數(shù)據(jù)保護(hù)的憂慮。隨著人們與外界交往活動(dòng)的增加,以及記錄、存儲(chǔ)和傳播信息的技術(shù)日益完善,大量涉及公眾個(gè)人的數(shù)據(jù)被卷入了信息洪流之中,人們掌控自己信息的權(quán)利和能力被削弱,變得愈加透明,正如麻省理工學(xué)院的研究人員所發(fā)現(xiàn)的,只需掌握四個(gè)時(shí)空移動(dòng)數(shù)據(jù),就可以辨識(shí)出95%的個(gè)人身份信息。[5]大數(shù)據(jù)時(shí)代使得隱私被侵犯的概率以及善后的難度成倍增加,一旦造成傷害,就無法補(bǔ)救,即使你刪除了原文,無數(shù)影像文件依然存在。[6]
近幾年,推薦算法是國內(nèi)外大多數(shù)新聞APP和社交媒體平臺(tái)使用的主流,通過機(jī)器學(xué)習(xí)持續(xù)關(guān)注用戶的閱讀數(shù)據(jù),來提升新聞生產(chǎn)的個(gè)性化和新聞推送的準(zhǔn)確率。推薦算法的實(shí)質(zhì)就是大數(shù)據(jù)分析。通過抓取和分析用戶的年齡、性別、職業(yè)、文化水平、收入水平等人文信息,以及閱讀時(shí)的接觸時(shí)長(zhǎng)、接觸頻率、接觸動(dòng)機(jī)等行為信息,將用戶的零散數(shù)據(jù)匯聚在一起,運(yùn)用算法實(shí)現(xiàn)用戶的精準(zhǔn)畫像,推測(cè)出用戶的個(gè)人特征、閱讀偏好等。
我們?cè)谑褂没ヂ?lián)網(wǎng)的時(shí)候經(jīng)常遇到“授權(quán)提示”,通過授權(quán)我們獲取了某些操作上的便捷和高效,實(shí)質(zhì)上,這是用戶在“被愿意”的情況下,通過“讓渡”隱私來換取便利。2013年以來,美國傳媒行業(yè)開始利用傳感器采集數(shù)據(jù)并將之用于新聞報(bào)道。安裝在公共場(chǎng)所的各類傳感器可以24小時(shí)不間斷地采集人們的信息,此外,運(yùn)動(dòng)手環(huán)、智能手機(jī)、電子閱讀器等配置的一些軟件也可以隨時(shí)隨地采集使用者的個(gè)性化數(shù)據(jù)。在各式各樣的傳感設(shè)備面前,人們幾乎無隱私可言,而且無法知曉自身的哪些信息被采集了,被采集的數(shù)據(jù)又是如何被使用的。當(dāng)我們?cè)谏鐣?huì)活動(dòng)中產(chǎn)生的信息,尤其是一些較為敏感的數(shù)據(jù),在不知不覺地被收集、被分析,甚至被用于商業(yè)目的時(shí),或者原本屬于個(gè)人的私密空間被他人“窺視”和“分享”時(shí),這就預(yù)示著人們?cè)诒Wo(hù)個(gè)人隱私、控制和管理個(gè)人數(shù)據(jù)上已經(jīng)處于弱勢(shì)地位了。
技術(shù)紅利與技術(shù)缺陷是相伴相生的,作為一個(gè)還不完善的新生事物,人工智能不可避免會(huì)產(chǎn)生一些新聞倫理與法規(guī)方面的問題。分析問題的根源以規(guī)避負(fù)面影響的產(chǎn)生,將有助于人工智能最大化地發(fā)揮自身價(jià)值。
法規(guī)建設(shè)層面。倫理是人類文明的朝陽,法規(guī)是人類文明的落日,是規(guī)范社會(huì)行為時(shí)不得已而為之的他律。第一部個(gè)人數(shù)據(jù)保護(hù)法,是1973年的《瑞典數(shù)據(jù)法》。而美國則是第一個(gè)明確提出保護(hù)隱私權(quán),并在1974年通過了《隱私法》的國家,1988年制定了《電腦匹配與隱私權(quán)法》,1998年美國國會(huì)又通過了《網(wǎng)上兒童隱私權(quán)保護(hù)法》。為解決互聯(lián)網(wǎng)時(shí)代對(duì)用戶個(gè)人數(shù)據(jù)的收集、使用等問題,1996年歐盟通過了《關(guān)于個(gè)人數(shù)據(jù)處理保護(hù)與自由流動(dòng)指令》,2016年又制定了《通用數(shù)據(jù)保護(hù)條例》(GDPR),并于2018年5月25日在歐盟28個(gè)成員國生效。
為了加強(qiáng)對(duì)電信、金融、醫(yī)療等服務(wù)機(jī)構(gòu)中使用個(gè)人數(shù)據(jù)信息的管理,2013年2月,我國開始實(shí)施《信息安全技術(shù)公共及商用服務(wù)信息系統(tǒng)個(gè)人信息保護(hù)指南》,該標(biāo)準(zhǔn)的顯著特點(diǎn)是將個(gè)人信息劃分為一般信息和敏感信息兩個(gè)類別,個(gè)人信息的使用前提是知情同意,并且要求在被使用后予以刪除等。
2017年6月1日開始施行的《網(wǎng)絡(luò)安全法》也有關(guān)于保護(hù)公民合法權(quán)益的規(guī)定:網(wǎng)絡(luò)運(yùn)營(yíng)者應(yīng)當(dāng)對(duì)其收集的用戶信息嚴(yán)格保密;網(wǎng)絡(luò)運(yùn)營(yíng)者收集、使用個(gè)人信息,應(yīng)當(dāng)遵循合法、正當(dāng)、必要的原則,公開收集、使用規(guī)則,明示收集、使用信息的目的、方式和范圍,并經(jīng)被收集者同意;網(wǎng)絡(luò)運(yùn)營(yíng)者不得泄露、篡改、毀損其收集的個(gè)人信息;未經(jīng)被收集者同意,不得向他人提供個(gè)人信息。[7]為了最終將個(gè)人信息的控制權(quán)歸還給用戶本人,各國相繼出臺(tái)的個(gè)人數(shù)據(jù)保護(hù)法規(guī)主要有以下幾個(gè)關(guān)鍵點(diǎn):一是采集數(shù)據(jù)信息時(shí),必須得到用戶本人的知情同意;二是將知情程度延展到數(shù)據(jù)抓取的方法、數(shù)據(jù)使用目的、是否同意再次出讓;三是用戶有權(quán)隨時(shí)查看、更正和刪除數(shù)據(jù),發(fā)現(xiàn)錯(cuò)誤數(shù)據(jù)時(shí),有權(quán)要求修改;四是建立投訴、舉報(bào)制度,并制定了明確的處罰條例。
長(zhǎng)期以來,法律的制定與實(shí)施往往滯后于新技術(shù)、新實(shí)踐的發(fā)展。當(dāng)前,明確責(zé)任的歸屬問題以及由此衍生的人們對(duì)人工智能的信任問題,已經(jīng)成為影響人工智能技術(shù)發(fā)展的瓶頸。人工智能在眾多領(lǐng)域的應(yīng)用,尤其是無人駕駛汽車、醫(yī)療機(jī)器人等的誕生,加速了構(gòu)建適用于人工智能的法律體系的步伐。目前,在缺乏參照系的情況下,對(duì)于新出現(xiàn)的人工智能案例,可以適用現(xiàn)有法律(如侵犯隱私、一般的侵權(quán)等)[8],但這僅僅是權(quán)宜之計(jì),作出前瞻性的立法布局,在恰當(dāng)?shù)臅r(shí)候制定適用于人工智能的法律法規(guī)體系,從根本上解決問題,則是各國在人工智能時(shí)代的最佳應(yīng)對(duì)策略。
媒體責(zé)任層面??焖倥c個(gè)性化是人工智能應(yīng)用于傳媒業(yè)的最顯著的特征。人工智能對(duì)新聞價(jià)值的判別主要基于算法,致使其在生產(chǎn)和推送中更側(cè)重于那些公眾“欲知而未知”的內(nèi)容,而那些涉及公共利益,包含一定政策性、知識(shí)性的內(nèi)容,即廣大公眾“應(yīng)知而未知”的內(nèi)容,則較難納入生產(chǎn)和推送的范圍。算法的存在價(jià)值就是幫助人們作出選擇,而選擇本身就意味著放棄。如果公眾長(zhǎng)期受到智能生產(chǎn)、智能排序和智能推薦的影響,接觸到和所選擇的僅僅是基于個(gè)人偏好或者智能軟件所推送的新聞信息,就難免限制公眾的視野,使公眾處于信息溝通與交流的孤島之中。由此所形成“信息繭房”,對(duì)個(gè)體而言,主要影響的是公眾個(gè)人社會(huì)化的過程與結(jié)果,但對(duì)整個(gè)社會(huì)而言,就會(huì)減少不同聲音之間的碰撞、不同觀點(diǎn)之間的交鋒,社會(huì)輿論趨于單一和一致化。在多元的社會(huì)輿論環(huán)境中求得動(dòng)態(tài)的平衡,才是社會(huì)和諧發(fā)展的正常過程。因此,新聞傳媒不能以人工智能有助于為自身的發(fā)展帶來轉(zhuǎn)機(jī)為借口,而忽略了新聞傳播的多樣性和多元化。
當(dāng)前,人工智能技術(shù)使得新聞產(chǎn)品的商業(yè)屬性被突出強(qiáng)調(diào),原來的新聞“5W”要素有了新的解讀,變成了:誰在乎;他們?yōu)榇讼敫冻鍪裁?媒體和廣告商在哪里可以找到這些人;什么時(shí)候提供這些新聞才是有利可圖的;為什么這個(gè)可以賺錢。[9]這種轉(zhuǎn)變預(yù)示著以消費(fèi)者為導(dǎo)向的商業(yè)模式加劇了對(duì)傳統(tǒng)新聞生產(chǎn)模式的侵蝕,新聞傳播的公共服務(wù)性再次被削弱。
在我國,新聞傳媒不僅是信息傳播渠道,還擔(dān)負(fù)著宣導(dǎo)撫慰的職責(zé),需要與政府良性互動(dòng),進(jìn)而發(fā)揮協(xié)調(diào)利益、疏導(dǎo)矛盾的功能。目前,人工智能技術(shù)還不具備從宏觀上透徹地了解社會(huì)現(xiàn)狀與發(fā)展進(jìn)程的能力,也無法在新聞的生產(chǎn)與發(fā)布上體現(xiàn)大局意識(shí)。在把尊重公眾的知情權(quán)、回應(yīng)公眾的關(guān)切與政府當(dāng)前的工作重心結(jié)合起來,把服務(wù)、滿足公眾需求與教育引導(dǎo)公眾、提高公眾的素養(yǎng)結(jié)合起來等方面,人工智能還有很長(zhǎng)的路要走。當(dāng)在新聞信息傳播中出現(xiàn)倫理失范和違反法律法規(guī)時(shí),“這是算法的結(jié)果”和“這是機(jī)器生成的”不能成為傳媒推卸責(zé)任的“擋箭牌”。
技術(shù)完善層面。當(dāng)前,加強(qiáng)個(gè)人隱私和數(shù)據(jù)保護(hù)是較為緊迫的任務(wù),切實(shí)可行的方法有研發(fā)“匿名化處理”技術(shù)和推廣具有個(gè)人數(shù)據(jù)保護(hù)功能的軟件產(chǎn)品。匿名化處理是指互聯(lián)網(wǎng)公司或數(shù)據(jù)機(jī)構(gòu)在實(shí)施數(shù)據(jù)分析之前,移除所采集的數(shù)據(jù)中可識(shí)別個(gè)人信息的部分,使數(shù)據(jù)主體不再被識(shí)別出來。這種做法既可以降低暴露個(gè)人敏感信息的風(fēng)險(xiǎn),還有助于保證用戶對(duì)大數(shù)據(jù)技術(shù)和人工智能的信任度。
國外互聯(lián)網(wǎng)市場(chǎng)上所研發(fā)的有助于保護(hù)個(gè)人數(shù)據(jù)隱私的產(chǎn)品和服務(wù)主要有兩類:一是協(xié)助加密、反追蹤或者銷毀個(gè)人數(shù)據(jù)的軟件,二是去掉了數(shù)據(jù)搜集功能的搜索引擎。用戶的網(wǎng)上信息對(duì)于商業(yè)公司,尤其是對(duì)于在線廣告公司有著極高的商業(yè)價(jià)值。Do Not Track(Dnt)是一款杜絕在線跟蹤用戶行為的功能。如在谷歌、微軟、火狐等具有 “Do not track” 功能的瀏覽器中就有一個(gè)“發(fā)送不跟蹤”的按鈕,網(wǎng)民開啟這項(xiàng)功能之后,就能夠避免自己的網(wǎng)上行為被追蹤,從而避免隱私泄露。傳統(tǒng)的搜索引擎為了提高效率,都會(huì)對(duì)用戶數(shù)據(jù)進(jìn)行詳盡地收集和分析,從倫理法規(guī)的角度看這是一種侵犯用戶隱私的行為。近年國外開發(fā)并推行的Duck Duck Go就是一款不監(jiān)控用戶搜索行為、不記錄用戶搜索內(nèi)容的互聯(lián)網(wǎng)搜索引擎,其最大特色就是能夠有效保護(hù)用戶的隱私。
隨著人工智能技術(shù)的日漸成熟,越來越多的規(guī)則被程序員以代碼的形式寫進(jìn)了算法程序。算法、代碼開始影響各種決策,從技術(shù)層面或者說在機(jī)器學(xué)習(xí)過程中嵌入“機(jī)會(huì)平等”的概念、構(gòu)建技術(shù)公平原則,在人工智能日漸代替人類作出抉擇的時(shí)代顯得非常重要。國外已經(jīng)有研究團(tuán)隊(duì)依據(jù)約翰·羅爾斯的公平技術(shù)定義及其“機(jī)會(huì)公平平等”理論,引入了“歧視指數(shù)”的概念,提出了設(shè)計(jì)“公平”算法的構(gòu)想。[10]
技術(shù)引發(fā)的新聞倫理和法規(guī)問題不能成為否定技術(shù)本身的理由,相反的,我們應(yīng)當(dāng)有針對(duì)性地剖析問題的根源,糾正并克服人工智能技術(shù)在倫理法規(guī)上的失范,多渠道、全方位地探索出有效的路徑,保證人工智能技術(shù)在新聞傳播領(lǐng)域的良性發(fā)展。
新聞傳媒業(yè)的發(fā)展可以說與傳播技術(shù)的發(fā)展是同步的,新技術(shù)不僅改變了人們的生活狀態(tài),也推動(dòng)了傳媒業(yè)的變革與發(fā)展。從媒介技術(shù)的角度而言,就是解決如何以最方便、最靈活、最快捷、最經(jīng)濟(jì)、最有效的手段和方法提高信息生產(chǎn)與傳播效率問題,它的內(nèi)在邏輯是技術(shù)理性或工具理性。[11]但是,新聞傳播是人的社會(huì)實(shí)踐活動(dòng),僅靠技術(shù)理性的驅(qū)動(dòng)是不夠的,需要將追求效果的最大化與關(guān)注人的情感和精神價(jià)值結(jié)合起來。
人機(jī)共生、人機(jī)協(xié)同是傳媒業(yè)的發(fā)展趨勢(shì)。計(jì)算機(jī)科學(xué)家高德納曾經(jīng)評(píng)價(jià)人工智能:人工智能已經(jīng)在幾乎所有需要思考的領(lǐng)域超過了人類,但是在那些人類和其他動(dòng)物不需要思考就能完成的事情上,還差得很遠(yuǎn)。[12]人工智能盡管在新聞報(bào)道的人文情懷、創(chuàng)意構(gòu)思上還有不盡如人意的地方,但也具備了高效的生產(chǎn)、精準(zhǔn)的推送,以及渠道的拓展等人力所無法比肩的優(yōu)勢(shì)。結(jié)合3D成像技術(shù)、語音識(shí)別技術(shù)等,如今人工智能已經(jīng)開始扮演傳播者“人”的身份,并且進(jìn)入現(xiàn)實(shí)的新聞傳播活動(dòng)之中。但是,事實(shí)告訴我們,新聞傳播是一種極富專業(yè)性和“創(chuàng)意”的智力活動(dòng),同時(shí)也是涉及政治思想、文化宗教等意識(shí)形態(tài)領(lǐng)域的高級(jí)精神勞動(dòng),因此,揚(yáng)長(zhǎng)避短是比較明智的選擇,把機(jī)器或者程序能做的交給機(jī)器和程序,從而把人力解放出來,去從事具有創(chuàng)新要求和需要發(fā)揮想象力的工作,這是自工業(yè)革命以來自動(dòng)化革命的基本理念。[13]
面對(duì)人工智能技術(shù)對(duì)傳媒領(lǐng)域的逐漸滲透,新聞從業(yè)者將與人工智能進(jìn)行科學(xué)的分工與互補(bǔ)性的協(xié)作,在“人機(jī)共生”的環(huán)境中各展所長(zhǎng),媒體通過算法來發(fā)現(xiàn)新聞線索、整理分析數(shù)據(jù)以及撰寫初稿,新聞從業(yè)者則將精力用于對(duì)重要人物的采訪、稿件內(nèi)容的深化等能夠施展人類才華、體現(xiàn)職業(yè)理想和人文情懷的地方。從傳媒業(yè)的整體布局來看,不僅要構(gòu)建“人機(jī)協(xié)同”的生產(chǎn)模式,更要鼓勵(lì)二者在協(xié)同中實(shí)現(xiàn)創(chuàng)新,這或許是傳媒業(yè)在人工智能時(shí)代的最佳選擇。
價(jià)值理性與技術(shù)理性的相互協(xié)調(diào)。人機(jī)協(xié)同不僅是指新聞生產(chǎn)中新聞從業(yè)者與算法系統(tǒng)的相互配合,更指在新聞傳播中,價(jià)值理性和技術(shù)理性之間的平衡。法蘭克福學(xué)派的代表人物赫伯特·馬爾庫塞認(rèn)為,技術(shù)作為一種生產(chǎn)方式,……同時(shí)也是組織和維持(或改變)社會(huì)關(guān)系的一種方式,它體現(xiàn)了主導(dǎo)性的思考和行為模式,是控制和支配的工具。[14]以前主要靠暴力來統(tǒng)治社會(huì),而在現(xiàn)代社會(huì)中,技術(shù)成為社會(huì)控制的新形式,技術(shù)理性已經(jīng)成為一種意識(shí)形態(tài)來統(tǒng)治和控制社會(huì)。技術(shù)理性強(qiáng)調(diào)的是通過技術(shù)來推動(dòng)社會(huì)的發(fā)展,改善人們的生活,技術(shù)有著顯著的實(shí)用性、目的性,其效果往往是立竿見影,容易被廣大公眾親身感受到,在技術(shù)推崇備至的情況下,技術(shù)理性引導(dǎo)著人們更關(guān)心利益的獲取和物的追求,致使人們的自主意識(shí)和獨(dú)立判斷能力在悄無聲息中被消解。
相比于技術(shù)理性,價(jià)值理性是一種以人為中心的理性,它不以功利為最高目的,其目標(biāo)是推護(hù)人的尊嚴(yán)、提升人的價(jià)值、滿足人的長(zhǎng)遠(yuǎn)需要、促進(jìn)人的全面發(fā)展和完善。價(jià)值理性解決的是“做什么”的問題,為實(shí)踐主體指明了方向,至于“如何做”的問題則主要由工具理性來解決。技術(shù)理性雖然增強(qiáng)了人的生存和發(fā)展能力,帶來了物質(zhì)的豐富和文化的繁榮,但是隨著技術(shù)理性被無限放大,價(jià)值理性的發(fā)揮受到了擠壓和限制。在新聞傳播活動(dòng)中,既要重視節(jié)約生產(chǎn)成本、提高傳播效率,同時(shí)也要考慮新聞傳媒如何更好地發(fā)揮引領(lǐng)輿論、協(xié)調(diào)利益、疏導(dǎo)心理等充滿人文情懷的功能。人機(jī)交互、人機(jī)協(xié)同本質(zhì)上是在強(qiáng)調(diào)人的主體性,在人工智能中融入人的價(jià)值觀和人文情懷,通過提升人工智能的價(jià)值理性,將價(jià)值理性和工具理性統(tǒng)一于新聞實(shí)踐中。
人工智能為新聞傳媒業(yè)的發(fā)展開啟了一扇窗戶,在改變著新聞信息的生產(chǎn)和傳播方式的同時(shí),也需要原有的新聞倫理與法規(guī)作出相應(yīng)的調(diào)適。因人工智能技術(shù)應(yīng)用于傳媒領(lǐng)域而引發(fā)問題不是技術(shù)發(fā)展的失敗,而是對(duì)技術(shù)理性與價(jià)值理性能否相互協(xié)調(diào)、相互融合的考驗(yàn),也是對(duì)新聞倫理法規(guī)開放性的考驗(yàn)。因此,考察人工智能技術(shù)在新聞傳播領(lǐng)域的應(yīng)用,以及由此帶來的問題,不僅拓展了新聞倫理與法規(guī)的研究視野,更有助于指導(dǎo)不斷變革中的新聞實(shí)踐。
(本文系中國人民大學(xué)科學(xué)研究基金[中央高?;究蒲袠I(yè)務(wù)費(fèi)專項(xiàng)資金資助]項(xiàng)目“數(shù)據(jù)新聞可視化的產(chǎn)品評(píng)價(jià)指標(biāo)體系研究”的研究成果,項(xiàng)目編號(hào):17XNL003)
[1]《算法偏見是如何產(chǎn)生的?》,新華網(wǎng),2018年3月22日,http://xw.xinhuanet.com/news/detail/779138/。
[2]Misty:《致程序員:算法為何帶有偏見?》,雷鋒網(wǎng),2016年6月27日,https://www.leiphone.com/news/201606/tnedws8svgubagll.html。
[3]Francisco Socal:《人工智能算法偏見的根源在人類》,電子工程專輯EE Times China網(wǎng),2018年3月22日,https://www.eet-china.com/news/201803220600.html。
[4]Matt Carlson, "Automating judgment? Algorithmic judgment, news knowledge, and journalistic professionalism", New Media & Society, 2018, Vol. 20(5) , pp. 1755-1772.
[5]Yves-Alexandre de Montijoye, et al., "Unique in the Crowd: The Privacy Bounds of Human Mobility", Scientific Reports, 25 March, 2013, www.nature.com/srep/2013/130325/srep01376/full/ srep01376.html.
[6]彭增軍:《新聞業(yè)的救贖:數(shù)字時(shí)代新聞生產(chǎn)的16個(gè)關(guān)鍵問題》,北京:中國人民大學(xué)出版社,2018年,第119~120頁。
[7]《中華人民共和國網(wǎng)絡(luò)安全法》,中國人大網(wǎng),2016年11月7日,http://www.npc.gov.cn/npc/xinwen/2016-11/07/content_2001605.htm。
[8]喬路、白雪:《人工智能的法律未來》,北京:知識(shí)產(chǎn)權(quán)出版社,2018年,第32頁。
[9]彭增軍:《新聞業(yè)的救贖:數(shù)字時(shí)代新聞生產(chǎn)的16個(gè)關(guān)鍵問題》,北京:中國人民大學(xué)出版社,2018年,第141頁。
[10]Matthew Joseph, Michael Kearns, Jamie Morgenstern, Seth Neel, Aaron Roth, Rawlsian Fairness for Machine Learning, Submitted on 29 October 2016 (v1), revised 1 November 2016 (this version, v2), latest version 29 June 2017.
[11]郭慶光:《傳播學(xué)教程》(第二版),北京:中國人民大學(xué)出版社,2011年,第116頁。
[12]王天一:《人工智能革命:歷史、當(dāng)下與未來》,北京時(shí)代華文書局,2017年,第43頁。
[13]金兼斌:《機(jī)器新聞寫作:一場(chǎng)正在發(fā)生的革命》,《新聞與寫作》,2014年第9期。
[14]Herbert Marcuse, "Some Social Implications of Modern Technology", Studies in Philosophy & Social Science, 1941, pp. 138-139.
責(zé) 編/馬冰瑩