卜洪漩
(巢湖學(xué)院 文學(xué)傳媒與教育科學(xué)學(xué)院,安徽 巢湖 238024)
以計(jì)算機(jī)算法為核心,以人工智能軟件為載體,實(shí)現(xiàn)新聞采編、審核及推送的一體化[1],是智能時(shí)代新聞傳播的新范式。這是一種與傳統(tǒng)新聞生產(chǎn)過(guò)程、傳播模式截然不同的新模式,也是智能時(shí)代新聞傳播的必然趨勢(shì)。對(duì)新聞行業(yè)來(lái)說(shuō),這種顛覆性的新模式能夠使其在時(shí)效性、真實(shí)性、針對(duì)性等方面取得重大突破,加速其變革進(jìn)程。但全新的生產(chǎn)范式、傳播鏈條、傳播邏輯的改變也存在一些潛在風(fēng)險(xiǎn)。特別是在智能新聞傳播的初期,必須要重視可能存在的倫理方面的隱患,確定智能時(shí)代新聞傳播的價(jià)值遵循,以推動(dòng)新聞傳播從傳統(tǒng)模式平穩(wěn)有序過(guò)渡到智能模式。
智能時(shí)代新聞傳播的倫理問(wèn)題,歸根結(jié)底是一種新技術(shù)的應(yīng)用帶來(lái)的倫理問(wèn)題,因此推本溯源,其本質(zhì)是一種技術(shù)倫理問(wèn)題。技術(shù)倫理問(wèn)題的產(chǎn)生與技術(shù)在人類(lèi)行為活動(dòng)中的作用有直接關(guān)系。每一種新技術(shù)的產(chǎn)生,對(duì)人類(lèi)而言,都是一次新的改變,它改變的不僅是人類(lèi)的生存生活環(huán)境,還深刻影響著傳統(tǒng)的倫理觀(guān)念。要確保技術(shù)真正為人類(lèi)所用、為人類(lèi)的健康全面發(fā)展服務(wù),就必須要考慮每種技術(shù)造就的生產(chǎn)或生活方式對(duì)人類(lèi)社會(huì)倫理的影響,避免技術(shù)的成功導(dǎo)致人類(lèi)倫理道德、人格等的退化[2]。智能新聞是人工智能技術(shù)與計(jì)算機(jī)技術(shù)結(jié)合的產(chǎn)物,它是基于獨(dú)特的算法來(lái)進(jìn)行新聞的生產(chǎn)、傳播的,這種算法邏輯提高了挖掘新聞素材的效率,可以實(shí)現(xiàn)精準(zhǔn)推送,確保高效生產(chǎn),但也存在倫理隱患。
智能新聞傳播在法律層面的隱患主要是侵權(quán)問(wèn)題,這種侵權(quán)由于對(duì)象不同可以劃分為不同的類(lèi)型:首先,侵犯隱私權(quán)。在利用人工智能工具進(jìn)行數(shù)據(jù)篩選時(shí),會(huì)獲得一些涉及個(gè)人隱私的信息。傳統(tǒng)人工新聞生產(chǎn)時(shí),記者會(huì)運(yùn)用化名、馬賽克等方式對(duì)個(gè)人隱私信息進(jìn)行處理,盡可能規(guī)避侵犯當(dāng)事人隱私權(quán)的風(fēng)險(xiǎn)。但智能新聞采取的是數(shù)據(jù)和算法支持下的信息處理方式,不具備保護(hù)個(gè)人隱私的自覺(jué),會(huì)增加個(gè)人隱私被侵犯的概率,對(duì)被侵權(quán)的當(dāng)事人造成難以彌補(bǔ)的后果。其次,侵犯著作權(quán)。智能時(shí)代人工智能機(jī)器人只是模仿人腦進(jìn)行思維、創(chuàng)作,其實(shí)踐創(chuàng)作過(guò)程依賴(lài)的是互聯(lián)網(wǎng)的海量數(shù)據(jù),通過(guò)自動(dòng)收集整合各種數(shù)據(jù)資源來(lái)挖掘新聞信息。但這些數(shù)據(jù)中有很多是有明確歸屬者的,比如一些研究數(shù)據(jù)、學(xué)術(shù)文章來(lái)源于一些專(zhuān)業(yè)研究領(lǐng)域人員的研究成果,很多圖片源自攝影師獨(dú)家拍攝的作品,這些數(shù)據(jù)資源的使用都需要征得權(quán)利人同意才可以使用。但人工智能機(jī)器人只會(huì)機(jī)械地進(jìn)行數(shù)據(jù)的整合、新聞的生產(chǎn),并不具備與權(quán)利人溝通征得其同意的能力,這就會(huì)導(dǎo)致侵犯著作權(quán)風(fēng)險(xiǎn)。再次,侵犯知情權(quán)。社會(huì)公眾有知情權(quán),人工智能新聞在生產(chǎn)上依賴(lài)數(shù)據(jù)且缺乏事實(shí)核實(shí)能力,一旦數(shù)據(jù)源失實(shí),就會(huì)導(dǎo)致新聞失實(shí),造成虛假新聞傳播,最終會(huì)損害公眾知情權(quán),甚至一些虛假新聞還會(huì)引起不必要的社會(huì)恐慌,造成社會(huì)動(dòng)亂。最后,歸責(zé)和追責(zé)難的問(wèn)題。智能新聞時(shí)代新聞的生產(chǎn)主要由各類(lèi)寫(xiě)稿機(jī)器人進(jìn)行,所有新聞稿件都是在計(jì)算機(jī)自動(dòng)化處理的基礎(chǔ)上生成的。這種情況下,該將誰(shuí)定義為新聞生產(chǎn)主體和責(zé)任主體尚屬于無(wú)法準(zhǔn)確界定的法律難題[3]。因此,一旦出現(xiàn)智能新聞侵犯當(dāng)事人權(quán)益的問(wèn)題,很難追責(zé)。
智能新聞可能引發(fā)的社會(huì)層面的倫理隱患是多方面的,概括起來(lái),可以從新聞行業(yè)自身和對(duì)受眾影響兩個(gè)角度來(lái)理解。一方面,智能新聞可能會(huì)引發(fā)新聞職業(yè)道德缺失隱患。新聞職業(yè)道德是新聞工作者道德追求、價(jià)值信念的體現(xiàn)。但在人工智能時(shí)代,新聞采編等工作可以由新聞機(jī)器人完成,“算法+模板”的固定寫(xiě)作模式是一種脫離對(duì)人類(lèi)文化理解的、沒(méi)有情感、缺乏溫度的寫(xiě)作模式。這種模式下創(chuàng)作出來(lái)的新聞作品很難顧及受眾的閱讀感受,只是在單純地陳述冷冰冰的新聞事件。這顯然不符合新聞行業(yè)職業(yè)道德要求,新聞行業(yè)職業(yè)道德要求新聞行業(yè)從業(yè)人員要肩負(fù)社會(huì)責(zé)任,體現(xiàn)對(duì)人的關(guān)懷,在傳遞新聞信息的同時(shí),對(duì)社會(huì)公眾進(jìn)行引導(dǎo)。很顯然,人工智能這種新聞模式目前還無(wú)法做到這一點(diǎn),無(wú)法真正履行其應(yīng)承擔(dān)的社會(huì)責(zé)任。另一方面,智能新聞可能會(huì)引發(fā)人的全面健康發(fā)展風(fēng)險(xiǎn)。人工智能具有精準(zhǔn)畫(huà)像功能,可以通過(guò)分析用戶(hù)數(shù)據(jù)識(shí)別和預(yù)測(cè)其興趣偏好,繼而投其所好,推送針對(duì)性新聞信息。這種新聞生產(chǎn)和傳播方式表面上看確實(shí)做到了滿(mǎn)足受眾個(gè)性化、定制化獲取新聞信息的需求。但從長(zhǎng)遠(yuǎn)來(lái)看,當(dāng)人長(zhǎng)期處于一種定制化的信息環(huán)境中時(shí),同時(shí)也意味著其失去了接觸其他事物的機(jī)會(huì),會(huì)沉浸于智能媒體所創(chuàng)造的“信息繭房”中而不自知[4]。長(zhǎng)此以往,會(huì)讓人獲得的信息窄化、單一化,不利于其全面健康發(fā)展。
技術(shù)是沒(méi)有價(jià)值觀(guān)的,技術(shù)的應(yīng)用會(huì)給人們帶來(lái)極大便利,也會(huì)帶來(lái)一些挑戰(zhàn)。但人可以確定技術(shù)的發(fā)展和應(yīng)用,人的價(jià)值取向會(huì)反映到技術(shù)的發(fā)展和應(yīng)用中,決定技術(shù)為人服務(wù)的效果。面對(duì)智能新聞生產(chǎn)傳播可能誘發(fā)的倫理問(wèn)題及其對(duì)社會(huì)帶來(lái)的危害,必須要從技術(shù)應(yīng)用者入手,樹(shù)立正確的價(jià)值取向,最大程度避免可能造成的倫理風(fēng)險(xiǎn),使智能新聞更好地服務(wù)公眾、服務(wù)新聞行業(yè)。
工具理性指的是在目標(biāo)明確的前提下依賴(lài)于一定的計(jì)算工具進(jìn)行科學(xué)預(yù)測(cè),以效用作為評(píng)判行為的標(biāo)準(zhǔn);價(jià)值理性指的是在接受理想信念指導(dǎo)的前提下,有意識(shí)地展開(kāi)自身的具體行為,以信念作為評(píng)判是否采取行為、采取什么行為的標(biāo)準(zhǔn)[5](P23)。工具理性和價(jià)值理性源于“合理性”概念[6](P58),該理念最早由馬克斯·韋伯提出,他認(rèn)為工具理性與價(jià)值理性之間既有區(qū)別,又有十分密切的聯(lián)系,但對(duì)于二者之間誰(shuí)處于優(yōu)先或主導(dǎo)地位,二者之間是否應(yīng)該統(tǒng)一,馬克斯·韋伯并未做出明確回答。隨著科學(xué)技術(shù)的發(fā)展,關(guān)于工具理性和價(jià)值理性之間關(guān)系的研究受到越來(lái)越多學(xué)者的重視。法蘭克福學(xué)派馬爾庫(kù)塞在繼承韋伯理論的基礎(chǔ)上,提出如只秉承工具理性,將用技術(shù)獲利作為主要目的,最終會(huì)將人變成被利益和權(quán)力牽引的工具,所以他提出必須要確保兩個(gè)理性步調(diào)的一致性,避免背離,從而避免人的異化和社會(huì)的異化[7]。此后,工具理性與價(jià)值理性應(yīng)當(dāng)統(tǒng)一逐漸成為一種主流觀(guān)點(diǎn)。在人工智能技術(shù)應(yīng)用中,算法技術(shù)的先進(jìn)性、實(shí)用性是有目共睹的,但若只講求工具理性,就會(huì)導(dǎo)致技術(shù)邏輯盛行,導(dǎo)致對(duì)新聞生產(chǎn)與傳播社會(huì)效益的忽視,繼而可能最終會(huì)導(dǎo)致智能新聞生存根基的垮塌。因此,新聞行業(yè)必須遵循正確的價(jià)值取向,既要堅(jiān)持將人工智能技術(shù)用作新聞生產(chǎn)、傳播的工具理性,又要堅(jiān)持以社會(huì)效益、人文價(jià)值為基本信念的價(jià)值理性,在二者統(tǒng)一的基礎(chǔ)上充分利用和發(fā)揮人工智能技術(shù)的優(yōu)勢(shì),使其為新聞生產(chǎn)、傳播服務(wù)。
有什么樣的倫理觀(guān)就會(huì)產(chǎn)生什么樣的行為。智能新聞時(shí)代,雖然人工智能技術(shù)將發(fā)揮更為關(guān)鍵的作用,但這并不意味著新聞媒體人就可以置身事外。人工智能機(jī)器人雖然可以自動(dòng)采集數(shù)據(jù)進(jìn)行新聞信息挖掘,可以高效率處理信息,能夠負(fù)擔(dān)高強(qiáng)度的工作,但其新聞活動(dòng)也存在局限性。比如人工智能機(jī)器人畢竟不具備人的自覺(jué)意識(shí)和情感體驗(yàn),不能生產(chǎn)出有感染力、有人情溫度的新聞作品,難以滿(mǎn)足人類(lèi)的情感體驗(yàn)需求;人工智能機(jī)器人只能對(duì)數(shù)據(jù)平臺(tái)上的數(shù)據(jù)進(jìn)行收集,不具備深度調(diào)查能力,那些需要實(shí)地調(diào)查、深入報(bào)道的新聞仍然要依靠專(zhuān)業(yè)新聞人才能完成;人工智能機(jī)器人具有超強(qiáng)的理性能力,能快速處理一些復(fù)雜的技術(shù)問(wèn)題,但在直覺(jué)、聯(lián)想等決定創(chuàng)造力的非理性能力方面明顯欠缺,這就決定了其很難生產(chǎn)出有創(chuàng)意、有思想深度的新聞作品[8]。人工智能機(jī)器人的這種局限性也決定了智能新聞時(shí)代新聞媒體人的角色依然重要。在依靠人工智能技術(shù)進(jìn)行的重要的新聞生產(chǎn)活動(dòng)中,新聞媒體人依然應(yīng)當(dāng)發(fā)揮相應(yīng)的審核、監(jiān)督等作用。為了確保智能新聞時(shí)代新聞傳播的規(guī)范化,必須要加強(qiáng)新聞媒體人的智能新聞倫理觀(guān)建設(shè)。對(duì)他們進(jìn)行技術(shù)倫理、職業(yè)倫理培訓(xùn),強(qiáng)化其責(zé)任倫理、信念倫理,讓他們?cè)谥悄苄侣勆a(chǎn)中發(fā)揮保護(hù)公眾知情權(quán)、隱私權(quán)、保護(hù)相關(guān)人著作權(quán)等方面的作用,減少智能時(shí)代新聞傳播的倫理風(fēng)險(xiǎn)。
新聞行業(yè)是全社會(huì)新聞事業(yè)的承擔(dān)者,必須要正確認(rèn)識(shí)智能時(shí)代新聞生產(chǎn)和傳播所出現(xiàn)的種種改變,并為其做出必要的應(yīng)對(duì),要自覺(jué)承擔(dān)責(zé)任、履行義務(wù)。首先,新聞生產(chǎn)主體在使用人工智能工具進(jìn)行新聞生產(chǎn)或傳播的同時(shí),要盡快推進(jìn)算法規(guī)則的公開(kāi)工作。即在遵循必要的商業(yè)秘密的前提下,向社會(huì)公眾公開(kāi)新聞生產(chǎn)制作所使用的算法設(shè)計(jì)的源代碼、運(yùn)行機(jī)制,自覺(jué)接受公眾監(jiān)督,讓受眾對(duì)這種算法有更清晰的認(rèn)識(shí)。其次,新聞生產(chǎn)主體要征得用戶(hù)同意才能使用其個(gè)人信息。智能新聞時(shí)代,新聞生產(chǎn)主體可以利用各種智能平臺(tái)獲取大量個(gè)人用戶(hù)信息,但這些信息有些涉及用戶(hù)個(gè)人隱私,智能新聞生產(chǎn)主體在收集這些信息之前,要通過(guò)合適的方式告知用戶(hù),向用戶(hù)說(shuō)明數(shù)據(jù)使用范圍、目的,保障用戶(hù)知情權(quán),在獲得用戶(hù)同意后方可在新聞生產(chǎn)或傳播中使用這些數(shù)據(jù),切實(shí)減少損害社會(huì)公眾隱私權(quán)、知情權(quán)風(fēng)險(xiǎn)的發(fā)生。再次,將智能新聞生產(chǎn)過(guò)程中涉及的各個(gè)環(huán)節(jié)、各個(gè)環(huán)節(jié)的相關(guān)人員的信息公之于眾,自覺(jué)接受監(jiān)督。比如公布智能新聞算法的相關(guān)設(shè)計(jì)人員信息,使其自覺(jué)堅(jiān)持“技術(shù)向善”的理念,避免其濫用算法技術(shù);公布新聞生產(chǎn)者和核實(shí)人員的信息等,使其自覺(jué)承擔(dān)相應(yīng)的編審責(zé)任。最后,新聞生產(chǎn)主體要加強(qiáng)把關(guān)。智能時(shí)代,人工智能機(jī)器人在新聞生產(chǎn)中將發(fā)揮重要作用,但由于機(jī)器人本身并不具備把關(guān)能力,所以新聞生產(chǎn)主體不能完全讓渡出把關(guān)權(quán)。相反,應(yīng)當(dāng)強(qiáng)化把關(guān)意識(shí),對(duì)事實(shí)進(jìn)行核實(shí),尤其是一些可能會(huì)產(chǎn)生重大社會(huì)影響的新聞,必須高度重視,多方核實(shí),確保新聞生產(chǎn)和傳播的規(guī)范化。
從新聞寫(xiě)稿機(jī)器人、新聞對(duì)話(huà)機(jī)器人到人工智能主播,人工智能技術(shù)不斷改變并塑造著新聞傳播的新樣態(tài)。在這個(gè)過(guò)程中,關(guān)于人工智能是否會(huì)取代新聞?dòng)浾?、編輯等新聞媒體人的討論也日趨白熱化??梢源_定的是,人工智能必將繼續(xù)快速融入新聞業(yè),因?yàn)槠渌邆涞膹?qiáng)大的數(shù)據(jù)收集與分析能力是人所不具備的,它的運(yùn)用將顯著提高新聞報(bào)道的效率,重新定義傳統(tǒng)新聞業(yè)。但人工智能作為一種技術(shù)手段并不足以解決新聞傳播領(lǐng)域的一切問(wèn)題,比如它只能模仿人的思考,但卻不具備人的情感體驗(yàn)?zāi)芰蛯?shí)踐能力。換言之,人工智能技術(shù)和新聞媒體人各有千秋、各有優(yōu)勢(shì),且二者所獨(dú)有的優(yōu)勢(shì)都是另一方無(wú)法替代的。因此,要采取積極的辦法解決智能時(shí)代新聞傳播倫理困境,使新聞媒體人和人工智能技術(shù)可以互相擁抱,成為“搭檔”或“伙伴”,協(xié)同作業(yè),構(gòu)建智能時(shí)代新聞傳播的良好生態(tài)。
從國(guó)家層面完善法律法規(guī),加強(qiáng)對(duì)智能時(shí)代新聞傳播活動(dòng)的法律規(guī)制,是解決當(dāng)前智能新聞傳播倫理困境的最有力途徑之一。因?yàn)榉删哂袕?qiáng)制性、不可違抗性等特點(diǎn),對(duì)新聞傳播主體的約束性更強(qiáng)。一是在明確邊界的同時(shí)保護(hù)用戶(hù)的基本權(quán)利。用戶(hù)的基本權(quán)利主要有隱私權(quán)、名譽(yù)權(quán)、知情權(quán)和肖像權(quán)等,可以通過(guò)立法明確新聞媒體利用大數(shù)據(jù)抓取、使用用戶(hù)信息的邊界,明確不能侵犯用戶(hù)的這些權(quán)利,只有征得用戶(hù)同意才能在新聞傳播活動(dòng)中使用用戶(hù)的個(gè)人資料、公開(kāi)用戶(hù)的個(gè)人生活事實(shí),否則視為侵權(quán)。二是通過(guò)立法明確智能新聞傳播活動(dòng)中的責(zé)任主體是人。雖然智能時(shí)代,智能機(jī)器可以用來(lái)報(bào)道和傳播新聞,智能機(jī)器使用過(guò)程中的某些行為和影響人也無(wú)法完全預(yù)料,但必須要明確智能新聞傳播活動(dòng)中人才是理所應(yīng)當(dāng)?shù)呢?zé)任主體,出現(xiàn)倫理失范問(wèn)題,承擔(dān)責(zé)任的必須是人,而非機(jī)器。這是因?yàn)榧夹g(shù)不是自生的,它是人作為主體自覺(jué)發(fā)明的產(chǎn)物[9],它體現(xiàn)的是人的主體性。在挖掘、編寫(xiě)新聞信息等的活動(dòng)中,機(jī)器雖然有自己的選擇邏輯,但這種邏輯是由人提前設(shè)計(jì)的,人可以根據(jù)需要變更它的選擇邏輯。所以最終選擇發(fā)布什么樣的新聞、選擇什么樣的方式發(fā)布新聞本質(zhì)上都不是機(jī)器決定的,而是由人的主觀(guān)意志和意愿決定的。因此,智能新聞傳播所引發(fā)的倫理失范責(zé)任不應(yīng)當(dāng)由智能機(jī)器承擔(dān),必須由人來(lái)承擔(dān)。通過(guò)明確責(zé)任主體,可以強(qiáng)化新聞媒體人的倫理意識(shí)和倫理風(fēng)險(xiǎn)預(yù)防意識(shí),有效防范由智能技術(shù)運(yùn)用引發(fā)的倫理漏洞。三是通過(guò)立法明確不同責(zé)任主體應(yīng)當(dāng)承擔(dān)的責(zé)任。智能新聞傳播活動(dòng)中的責(zé)任主體主要有智能機(jī)器生產(chǎn)者或智能軟件開(kāi)發(fā)者、使用者,應(yīng)根據(jù)他們?cè)谥悄苄侣剛鞑セ顒?dòng)中擔(dān)當(dāng)?shù)慕巧⒁圆煌膫惱硎Х额?lèi)型劃分責(zé)任,并根據(jù)新聞作品對(duì)他人或社會(huì)產(chǎn)生影響的程度確定懲治等級(jí)。法律責(zé)任的明確,既可以讓智能新聞傳播中倫理失范的責(zé)任主體承擔(dān)其應(yīng)有的責(zé)任,防止因無(wú)人擔(dān)責(zé)導(dǎo)致倫理失范風(fēng)險(xiǎn)擴(kuò)大化,還能有效保護(hù)相關(guān)權(quán)利人的合法權(quán)利,維護(hù)智能時(shí)代新聞傳播的晴朗風(fēng)氣。
從新聞媒體層面制定人機(jī)協(xié)同管理機(jī)制,目的在于通過(guò)明確人機(jī)關(guān)系來(lái)推進(jìn)新聞倫理構(gòu)建,為解決當(dāng)前存在的智能新聞傳播倫理問(wèn)題提供制度支持。智能時(shí)代新聞傳播活動(dòng)中,對(duì)人和人工智能技術(shù)誰(shuí)是新聞活動(dòng)實(shí)踐主體的界定關(guān)系到新聞價(jià)值的實(shí)現(xiàn)和倫理問(wèn)題的解決。如果讓人工智能技術(shù)成為新聞活動(dòng)的實(shí)踐主體,人成為人工智能技術(shù)的附庸,片面追求使用技術(shù)的利益最大化,就會(huì)在新聞傳播中降低價(jià)值判斷標(biāo)準(zhǔn),削弱甚至湮沒(méi)新聞價(jià)值。因此,新聞媒體應(yīng)建立相應(yīng)的管理機(jī)制,加大制度約束力度。
一是明確人是新聞傳播活動(dòng)的實(shí)踐主體,建立使用智能技術(shù)進(jìn)行新聞傳播的具體規(guī)范。當(dāng)前,新聞媒體人已經(jīng)意識(shí)到使用智能技術(shù)進(jìn)行新聞傳播可能誘發(fā)倫理失范問(wèn)題,在相關(guān)法律法規(guī)出臺(tái)之后,新聞媒體人對(duì)智能新聞傳播倫理失范問(wèn)題將會(huì)更加重視。需要警覺(jué)的問(wèn)題是如果新聞媒體人因?yàn)楹ε庐a(chǎn)生倫理失范問(wèn)題就對(duì)人工智能棄之不用,將會(huì)造成技術(shù)的極大浪費(fèi),也不利于提高智能時(shí)代新聞傳播的效率。為了避免新聞媒體人因倫理失范問(wèn)題產(chǎn)生恐慌情緒,可以通過(guò)明確的制度規(guī)范為新聞媒體人提供引導(dǎo)。具體可以針對(duì)不同環(huán)節(jié),建立相應(yīng)的使用制度。比如明確智能新聞采編、智能新聞發(fā)布等不同環(huán)節(jié)中相關(guān)人員應(yīng)當(dāng)如何規(guī)范使用智能軟件、使用過(guò)程中要承擔(dān)怎樣的核實(shí)、把關(guān)或?qū)徍素?zé)任等,不履行責(zé)任將要受到什么樣的處罰。通過(guò)明確的制度規(guī)范,引導(dǎo)約束新聞媒體人正確地認(rèn)識(shí)和分析運(yùn)用人工智能技術(shù)可能帶來(lái)的倫理隱患,不斷總結(jié)經(jīng)驗(yàn)教訓(xùn),加以預(yù)防避免。
二是明確使用智能技術(shù)進(jìn)行新聞傳播的范圍、領(lǐng)域,鼓勵(lì)在股市、交通等領(lǐng)域多嘗試智能新聞傳播,對(duì)重大突發(fā)事件、公共衛(wèi)生事件等的新聞傳播則要慎用智能技術(shù)。因?yàn)楣墒?、?shí)時(shí)交通等領(lǐng)域的信息一般是公開(kāi)的,較少或不涉及用戶(hù)私人信息。而智能技術(shù)有巨大的算法優(yōu)勢(shì),可以對(duì)用戶(hù)進(jìn)行精準(zhǔn)畫(huà)像,了解用戶(hù)喜好。同時(shí),智能技術(shù)還具有強(qiáng)大的信息采集優(yōu)勢(shì),可以自動(dòng)采集最新的上市公司信息、實(shí)時(shí)路況信息等,使新聞媒體工作者足不出戶(hù)就可以獲得第一手信息。在獲得新聞線(xiàn)索之后,智能寫(xiě)作機(jī)器人可以依靠自己的寫(xiě)作系統(tǒng)秒級(jí)生成文稿。比如騰訊的Dreamwriter智能新聞寫(xiě)作軟件,可以在一分鐘之內(nèi)快速完成1000字左右的財(cái)經(jīng)新聞的寫(xiě)作[10]。借助智能技術(shù)的優(yōu)勢(shì),新聞媒體人可以快速完成這些領(lǐng)域相關(guān)信息的采寫(xiě)和發(fā)布工作,為用戶(hù)提供個(gè)性化信息傳播服務(wù),并能極大地避免新聞倫理風(fēng)險(xiǎn)。而重大突發(fā)事件、公共衛(wèi)生事件等具有社會(huì)影響力大、牽涉面廣等特點(diǎn),一旦在使用智能技術(shù)采編和發(fā)布新聞中出現(xiàn)倫理失范問(wèn)題,將會(huì)產(chǎn)生難以估計(jì)的惡劣影響。因此,在這些領(lǐng)域的新聞傳播中,不宜使用智能軟件和智能工具。
三是明確新聞媒體人有在智能新聞傳播中體現(xiàn)人文關(guān)懷和社會(huì)溫情的倫理責(zé)任。人工智能有技術(shù)優(yōu)勢(shì)卻不具備情感能力,僅僅依靠人工智能技術(shù)而沒(méi)有人的參與的新聞采編活動(dòng)是不完整的,創(chuàng)作出的新聞作品也是沒(méi)有感染力的,這樣的新聞作品也不符合新聞媒體履行自身所承擔(dān)的社會(huì)倫理責(zé)任的要求。因此,要建立相應(yīng)的管理制度,要求新聞媒體人對(duì)運(yùn)用智能手機(jī)、傳感器、互聯(lián)網(wǎng)平臺(tái)等采集和挖掘到的新聞線(xiàn)索進(jìn)行核實(shí),做好新聞?wù)鎸?shí)性的把關(guān)工作;對(duì)由人工智能軟件生成的新聞稿件進(jìn)行潤(rùn)色,滲入個(gè)人情感因素,通過(guò)情感潤(rùn)色和加工提高新聞作品的人文性。此外,要求新聞媒體人探求將人的價(jià)值觀(guān)和審美融入人工智能采編場(chǎng)景中的路徑,將人的情感、喜怒哀樂(lè)通過(guò)特定的關(guān)鍵詞借由智能技術(shù)滲入到不同場(chǎng)景中,創(chuàng)造出具有較強(qiáng)情感適配性、場(chǎng)景真實(shí)性的新聞產(chǎn)品。這樣的新聞作品才是有溫度的,才能體現(xiàn)人文關(guān)懷和社會(huì)溫情,并更好地承擔(dān)起社會(huì)倫理責(zé)任。通過(guò)管理機(jī)制的建立,可以為智能時(shí)代新聞傳播提供規(guī)范指導(dǎo),有利于減少因智能技術(shù)應(yīng)用引發(fā)的倫理風(fēng)險(xiǎn)。
作為計(jì)算機(jī)科學(xué)的分支,人工智能技術(shù)具有模擬人的思維、行動(dòng)、拓展人的智能等方面的優(yōu)勢(shì)。在新聞傳播領(lǐng)域,人工智能采寫(xiě)、傳播已經(jīng)取得了一定進(jìn)展。但這種依靠技術(shù)傳播的模式若沒(méi)有了新聞媒體工作者的輔助,只依靠個(gè)性化、定制化、高效率等優(yōu)勢(shì)想要在新聞傳播領(lǐng)域長(zhǎng)盛不衰是極不現(xiàn)實(shí)的。新聞傳播最終面向的是有血有肉有情感的人類(lèi)生命個(gè)體,要滿(mǎn)足人類(lèi)對(duì)新聞信息的多方位需求,規(guī)避使用人工智能技術(shù)帶來(lái)的倫理隱患,就必須正確認(rèn)識(shí)人和智能技術(shù)在新聞傳播活動(dòng)中扮演的角色、發(fā)揮的作用,明確誰(shuí)才是主導(dǎo)者,誰(shuí)是主要的倫理責(zé)任承擔(dān)者。在明確責(zé)任的基礎(chǔ)上,發(fā)揮二者各自的優(yōu)勢(shì),實(shí)現(xiàn)二者的深度融合和協(xié)同作業(yè),確保智能時(shí)代新聞傳播的健康有序發(fā)展。