亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        從“人機協同”看人工智能時代的新聞倫理構建

        2019-02-18 21:47:39
        社會科學研究 2019年4期
        關鍵詞:人機協同人機倫理

        杜 娟

        在人工智能時代,新聞報道和傳播將更深度地依賴技術帶來的革新。從新媒體到未來的智媒化,在人工智能技術驅動下,傳統的新聞實踐面對著更多元的形式和更為復雜的規(guī)則,隨之而來的新聞倫理與新聞道德的討論也將進入一個新的界面。人工智能在改變世界的同時,也對價值判斷標準產生了很大影響。越來越多的人認識到,未來媒體將是人與機器的協同生產,這也會體現在新聞生產到傳播的所有環(huán)節(jié)。構建一個何種內涵的新聞倫理觀來適應這一變化?應該對這一問題盡快展開學術研究和討論。本文試圖從人機關系角度入手,來討論這樣一個問題:人工智能技術給新聞實踐帶來深度革新的同時,也給新聞倫理規(guī)范帶來更多挑戰(zhàn),我們對此應如何應對。

        一、人工智能與新聞倫理關系探究的必要性

        《算法帝國》一書早已為我們描繪了“機器人革命”在人類世界各領域的發(fā)生和發(fā)展,并指出:“未來屬于算法和它們的創(chuàng)造者?!雹傩侣勆a和傳播中大數據的廣泛采集使用和算法大行其道,讓受眾直接感受到更快、更新的傳播體驗,而一些新的問題也開始出現和困擾我們,比如隱私權和著作權問題、新聞報道的真實性和客觀性問題,等等。有關人工智能環(huán)境下新聞倫理方面的反思和討論在近年的一些研究中已有涉及。毫無疑問,未來人工智能與人的關系對于新聞倫理的影響將是深遠的。筆者認為,人工智能背景下的新聞生產與傳播,其本質是“人-物”之間的信息交互。我們應該從人與機器的關系切入,來探討新聞媒體道德倫理所面臨的或即將面臨的整合。這還是一個值得深度研究的議題。

        (一)AI在新聞領域應用步伐加快

        人工智能技術在新聞領域的應用在近年內獲得了飛速發(fā)展。因為“人工智能的首要任務是參與繁瑣的初級任務, 將記者解放出來從事更復雜、更高質量的報道和分析。人工智能能夠幫助記者分析數據,驗證模式、趨勢,并從眾多信息來源中探測原由和深意,看見肉眼不能看見的關系?!雹谠谛侣勆a端,最具話題性的就是機器人寫作。機器人寫作最早產生于美國。2006年,湯姆森金融公司開始使用機器人寫作財經新聞。這項技術在當時被認為“無法更深入地揭示數據背后的含義。”在我國,2015年9月10日,騰訊財經開發(fā)的寫稿機器人Dreamwriter發(fā)出第一篇稿件《8月CPI漲2%創(chuàng)12個月新高》,其生產方式是在大數據平臺上,短時間內選出新聞點、抓取相關資料,在設定的新聞模板上生成稿件,它適用信息量巨大的財經資訊類新聞,在準確率和時效性上都完勝記者編輯。隨后出現的機器人寫作如今日頭條“張小明”,新華社的“快筆小新”等。其優(yōu)勢是將記者編輯從一些低級的資料信息收集和資訊報道的工作中解脫出來,轉向分析性的、深度的采訪報道工作。

        除機器人寫作外,人工智能的強大算法還發(fā)展演變?yōu)槠毡檫\用更多技術手段的新聞生產和傳播方式,如視頻直播、聊天機器人、VR/AR新聞、VR(AR)直播、傳感器新聞等,無不強調人機的合作,都正在或將要不斷刷新受眾用戶的接受體驗。世界經濟論壇全球議程理事會“軟件與社會的未來”議題組的調查報告(2015年9月出版)顯示,有80%的受訪者認為未來視覺將成為新的交互界面。眼鏡式、頭戴式及眼球追蹤設備都會變得越來越智能,谷歌眼鏡只是第一個成功的嘗試。未來,人眼與視覺也將成為鏈接互聯網及數字設備的新媒介。通過視覺與互聯網中各種應用與數據直接鏈接,個人的感官體驗經過調節(jié)后被加強,從而更具身臨其境之感。通過提供指令、信息可視化及交互作用,可使視覺成為一個即時、直接的交互界面,有助于人們更充分地與世界互動。③以VR新聞為例,這種形式強調的是360度沉浸式和交互性體驗。在虛擬場景模擬下,打破時間和空間的局限,讓受眾“沉浸”在新聞中,這會讓受眾對新聞的接受變得更有趣。2013年美國的《得梅因紀事報》首次在新聞中使用VR技術。2015年,《紐約時報》推出了“NYT VR”虛擬現實APP,VR新聞正式起步。VR新聞由于其以用戶為第一視角,用戶不再是局外人,而成為虛擬場景下的事件“親歷者”。這不但改變了新聞制作方式,也對新聞從業(yè)者的技術素養(yǎng)提出了更高要求。

        《2017年新聞業(yè)年度發(fā)展報告》指出,“未來,新聞視頻與AR技術結合、與娛樂消費結合,將進一步豐富新聞的呈現形態(tài),更加貼合受眾的閱讀喜好。同時,新聞和資訊視頻的表現形式也將更多樣化,超短視頻、中長視頻、視頻直播、真實視頻與虛擬的混合等各種形式的視頻內容將呈現出更加井噴的增長態(tài)勢?!雹苡杏^點認為,人工智能技術未來會在“基于物聯網傳感器的信息采集與應用、語音數據的采集與文字化轉化、多語言數據采集與實時翻譯、社交機器人采訪、新聞現場要素的智能識別、新聞專題的智能化生成、智能化新聞核查”等領域產生。因而,智能化是具有能量巨大的“核能”,在推動媒體系統改造的同時,一旦使用不當也會帶來巨大風險。⑤

        (二)困境的顯現——技術在新聞實踐中的局限性

        人工智能技術的快速演進,給新聞業(yè)帶來摧毀式的創(chuàng)新。在這一摧枯拉朽的浪潮下,它必須從傳統模式中走出來,進行艱難的蛻變。美聯社在2017年推出的《人工智能使用手冊》中指出:“人工智能技術帶來的影響很大程度上將是一部人工記者如何適應人工智能的歷史,而不是智能機器如何工作的歷史?!薄叭斯ぶ悄懿皇侨f能鑰匙,它和人類一樣存在偏見,而且容易犯錯。”在新聞業(yè)適應新模式進行不斷調整的過程中,當技術介入到新聞生產和傳播實際操作中時,其自身的機器屬性(或者說物的屬性)也顯現出了某種局限性,一些新的問題產生,如新的失范現象出現、價值體系的解構等,新的倫理困境開始顯現。有必要對于人工智能背景下新聞倫理所遭遇的困境進行反思,而人與機器的關系是其中一個重要維度。當前的新聞倫理困境主要表現在以下幾方面:

        第一, 新聞客觀性、真實性受到挑戰(zhàn)。技術在新聞生產中能夠達到準確的效果嗎?現在看來,這個問題恐怕不好回答。新聞創(chuàng)作過程中,技術確實仍存在某種局限性:寫作機器人是建立在計算機算法和大數據之上的,它能從資料庫和數據信息中抓取資料,尤其是它依賴模板進行創(chuàng)作。如果模板的模式選取和數據庫中的信息錄入出錯,以致機器人無法識別,會導致新聞報道“錯上加錯”,如果未經嚴格審查推送出去,負面影響的波及面會更大。而短視頻、VR/AR新聞等形式,也有可能因為制造者的傾向性選擇,主觀的判斷取舍,導致新聞素材的選材偏頗甚至產生目的性導向,使得其實際報道效果的客觀性和真實性減弱。人們擔憂的是,VR技術以圖像符號和沉浸式的表達方式,取代了傳統的文字與視覺符號的思維方式,它創(chuàng)造的是一個虛擬與現實合成的世界??赡軙斑M一步削弱受眾對VR新聞信息的理解能力?!薄癡R新聞貌似客觀和真實的技術呈現背后,存在著巨大可操控性和人為建構的可能性。”⑥為此,我們對VR新聞模式的使用要更加謹慎和冷靜。

        第二,新聞報道及內容推送的導向出現偏失。如果在新聞制造端,出現因設計者的主觀偏見,而在新聞報道中出現偏向性的報道,一旦出現錯誤性的引導,所造成的負面影響將難以收拾。而在新聞傳播方式上,偏見將帶來更嚴重的情況。2016年,Facebook的“偏見門”事件中,該網站被指責熱門話題榜(trending topics)受到人為操縱,新聞篩查存在政治偏見。此番消息發(fā)布后引起了軒然大波。人工智能技術支持下的新聞推送機制對傳統媒體的新聞價值觀造成了挑戰(zhàn)。在社交新聞越來越占據重要位置的趨勢之下,這種算法偏見所帶來的新聞導向錯誤的教訓值得所有媒體人警醒。

        第三,機器化生產中人的主觀個性讓位,即傳統新聞作品中的個性和情感關懷缺失。寫作機器人等人工智能型采編系統依賴數據的整合和程序設定的模板進行新聞生產,缺乏新聞報道的現場體驗,目前來看它還未能達到高度類似人類的情感思維能力,尤其難以判斷一個新聞事件背后的深層意義和主觀性因素,在深度報道方面其能力還無法勝任。因此,寫作機器人等智能采編系統受到頗多質疑。當對技術的追求成為新聞媒介追求的一種普遍性趨勢時,標準化操作使得新聞越來越多地向同一性和同質化方向發(fā)展。新聞作品越來越不像“作品”,而成為一種沒有特點的“產品”。此外,記者和編輯可以創(chuàng)作出不同效果和風格的新聞報道,尤其是在深度報道和新聞調查中,受眾能夠感受到生產者的情感和思想。借助人工智能參與新聞生產,雖然可以大大減輕人的負擔,但智能化新聞產品也可能缺乏新聞報道所需要的個人風格及媒體自身特色。

        第四,隱私權、著作權與信息安全面臨的風險加大。2018年3月,Facebook“用戶數據泄露事件”爆發(fā),引發(fā)了全球對信息安全的關注。由于人為操作,超5000萬用戶的資料數據被非法用于大數據心理分析,甚至被使用到政治活動中。新聞活動本身是一種人類信息的交互,大數據技術的手段使得新聞生產和傳播更加快捷迅速,但同時也打開了“潘多拉”魔盒。電影《搜索》中,新聞記者出于個人的私心,借助媒體互聯網傳播將他人隱私公之于眾,導致對方在互聯網上被“人肉搜索”。新聞記者的報道活動應該符合職業(yè)倫理的規(guī)范。人工智能時代的新聞生產與傳播,尤其應該注重隱私權、著作權和數據信息安全的防護。這不僅是基于市場規(guī)范的考慮,同樣是基于職業(yè)倫理道德的要求。新聞生產者和公眾所面臨的風險主要在于以下幾方面:第一,對信息源數據包括公民隱私權的非法使用和采集。對數據來源缺乏安全有效保護,對數據來源造成侵權行為;第二,對數據的解讀不客觀甚至是錯誤、惡意利用,導致錯誤導向的輿論報道;第三,作為新聞報道的新聞記者,版權得不到有效保護。在傳統媒體和新媒體時代,有效的新聞立法始終無法徹底解決新聞版權保護問題,那么,人工智能時代,這個問題的解決將會更加困難。

        第五,“信息繭房”效應。哈佛大學法學院教授凱斯·桑斯坦在《信息烏托邦——眾人如何生產知識》(2006年)中提出了這一概念。他認為,在信息傳播中,因公眾自身的信息需求并非全方位的,公眾只注意自己選擇的東西和使自己愉悅的通訊領域,久而久之,會將自身桎梏于像蠶繭一般的“繭房”中?;ヂ摼W和大數據為我們帶來的,是撲面而來的海量數據信息。無論寫作機器人還是智能化的新聞推送,程序的設計通常被設定在某一范圍之內,受眾容易因個人興趣所限而陷入自身的狹隘領域,長久以往將逐步影響受眾對社會公共問題的認知,也將對人與人、人與社會的溝通產生影響。從新聞生產者的目的出發(fā),我們有必要考慮,精準化的“投其所好”是否只是體現了科技的強大優(yōu)勢?這種目標精準的投放是否本身帶有算法上的某種傾向性或者說是“偏見”呢?它帶來的是個性的解放,還是更深度的“作繭自縛”?

        (三)相關問題的學術研究亟待深入展開

        智能機器與以往的事物都有所不同,在人類智慧的設計下,它具有更高級的能力。因此,不能單純從技術層面來理解人機之間的關系。近年來,人工智能成為各個領域關注的熱點。從哲學和倫理學視角對人機關系進行深入研究,也有不少成果問世。從傳統哲學角度來看,人與機器的關系,也被理解為“人-物”關系,人對物的控制如何合理地實現,人與物如何共處,比如道家的“天人合一”。1960年,美國的利克里德(Liklider JCK)提出了“人機共生”(Human-Computer Symbiosis)的概念。可以肯定,未來人機將共同演進,人機關系從某種程度上說就是人與人之間的關系?!皬娜祟愖陨矶?,應該謹慎地避免自己在技術中迷失,保持獨立的思考,更多地關注人之所以為人的本質問題?!雹哂斜匾獜恼軐W維度切入展開反思,這是一個很好的視角。

        美聯社在2017年2月推出了編輯部的人工智能使用指南,用于指導新聞人員如何利用智能機器從事新聞活動。在國內,人工智能對于新聞業(yè)的影響已是有目共睹,但是對于人工智能與新聞倫理關系的研究和實踐還尚未深入展開。作者在“中國知網”按照文章“主題”進行搜索發(fā)現:“新聞倫理”主題的文章有1273條搜索結果,“機器人寫作”主題的文章有80條搜索結果,“VR新聞”為主題的文章有241條結果,而有關“人工智能+新聞倫理”主題的文章,僅有9條搜索結果,“智媒體”為主題的文章有110條結果。在百度搜索引擎上粗略搜索一下“人工智能和新聞倫理”,搜索到110多萬條資訊(截止到2018年10月14日)。從搜索的數據來對比,可以發(fā)現,對人工智能技術與新聞倫理問題的社會關注度是很高的,但是國內在這一領域的學術性討論研究還遠未達到相應的“熱度”。也可以說,鑒于當前新聞業(yè)發(fā)展的實際,從人機關系入手來分析新聞活動中的倫理問題,相關的理論研究也還遠遠不夠。為了應對當前以及未來新聞倫理在人工智能滲透下所遭遇的困境和難題,有必要盡快對這一課題展開理論研究。

        二、人工智能時代的新聞倫理困境探因

        (一)馬克斯·韋伯對“工具理性”和“價值理性”的闡釋

        鑒于人工智能在各領域日益凸顯其重要性的現實,對于其所產生的不可估量的影響力的分析和反思,已經在近年來轉向更加深入的哲學、技術倫理學的向度。在新聞傳播領域,新的傳播手段必將對傳統新聞媒體的理念和形式帶來沖擊。鑒于當前新聞倫理所出現的困局,從理論層面對其展開深入思考實為必需。尤其是,在人工智能環(huán)境下,應該重視在新聞傳播過程中充分考慮人機之間的關系。

        我們借助德國著名社會學者馬克斯·韋伯有關“工具理性”和“價值理性”的概念,來進行這種考察。我們知道,馬克斯·韋伯對西方發(fā)展起來的理性主義做出了經典的詮釋。在《經濟與社會》(第一卷)對社會行動的描述中,他提出了工具理性(Zweckrationalitat)和價值理性(Wertrationalitat)的概念。工具理性決定于對客體在環(huán)境中的表現和他人的表現的預期,行動者會把這些預期用作“條件”或者“手段”,以實現自身的理性追求和特定目標;價值理性是指對某種包含在特定行為方式中的無條件的內在價值的自覺信仰,無論該價值是倫理的、美學的、宗教的還是其他的什么東西,只追求這種行為本身,而不管其成敗與否。前者重視的是條件和手段為主導,后者則重視內在價值為主導。他指出,“完全理性地考慮并權衡目的、手段和附帶后果,這樣的行動就是工具理性的。”價值理性總是“將價值觀念一以貫之地體現在具體的行動進程中”。但是他也說明,“完全是為了理性地達到目的而于基本的價值觀無涉,這樣的行動取向實際上也并不多見。”⑧他沒有把兩者完全割裂開,而是肯定了兩者之間的某種互補關系。但是,看起來他更加重視的是“工具理性”的作用。

        韋伯之后,法蘭克福學派對“工具理性”的批判主要指向于此,認為它造成了人的異化。確實如此,技術手段、算法的優(yōu)勢及其帶來的高效率和巨大收益,讓我們忽略了價值、信仰、倫理的理性思考。問題往往隱含在人機關系的背后。馬克斯·韋伯的“工具理性”和“價值理性”的概念,可以被用來考察在我們在新聞實踐活動中的行為,尤其是對人機關系的理解。我們可以由此找到未來新聞倫理構建的一種路徑。

        在中國哲學體系中,始終把道德倫理作為核心命題??鬃拥摹叭省?,孟子談“性善”,宋明儒學對天理這一道德的遵從,對內在心性的探索,始終都圍繞著道德精神這一核心思想不斷地深化。當代新儒家的代表人物牟宗三先生在儒家與康德思想的基礎上提出“道德的形而上”的概念,指出人具有“智的直覺”,即道德本體的直覺,德行優(yōu)先于知識。在道德與科學知識的關系問題上,他指出道德是人之本,也是科學知識之本。沒有道德的根本,科學會帶來罪惡的物欲,但是沒有科學知識,道德理性也難以實現。他認為:“故古人首重‘正德’與‘敬慎’。這不但是中國傳統如此,即在西方,古人明知重智,其目的亦在成德?!雹崴裕皬倪@個意義上講,科學知識與道德是一個有機和諧的統一體,二者合則共存,分則兩亡?!雹?/p>

        (二)新聞倫理困境產生的原因

        人工智能技術顛覆性地改變了新聞傳播的格局。在此格局下新聞倫理所面對的困境及背后的原因值得探討。本文試圖對此進行分析并認為,由于沒有深刻認識人工智能時代人機關系的本質,在新聞生產與傳播的過程中,價值理性與工具理性關系失衡,以致傳統的新聞倫理未得到相應的調整,從而導致前述種種新聞行業(yè)失范行為的產生。具體來說有以下幾方面的問題:

        1.技術與道德二者間的關系沒有得到協調和統一

        人工智能技術是現代工業(yè)社會的新物種,它的快速發(fā)展和普及對傳統的道德倫理產生的沖擊是巨大的。伴隨人對人工智能技術的依賴逐漸加深,人的主導性被弱化,一切讓位于數據和算法:為制造新奇刺激的感官體驗以吸引客戶,而犧牲了新聞報道的客觀性和真實性;為追求市場效應,新聞在算法的設定下進行分類推送,不利于公眾關注社會公共問題,新聞的輿論功能和社會價值被弱化;為爆料而無視個人隱私與公共信息安全的新聞行為,則觸及了新聞倫理和法律的底線。

        馬克斯·韋伯的“價值理性”和“工具理性”概念認為,二者都是人的理性的不可分割的重要方面。價值理性體現人對價值問題的理性思考,體現人對自身和世界的終極關懷;而工具理性則是一種以工具崇拜和技術主義為生存目標的價值觀,從追求功利的動機出發(fā)考慮,忽視情感和精神價值。我們借助這一概念來考察新聞實踐中人對技術的關系,可以做出新的理解和判斷:如果只堅持工具理性而忽視價值理性,新聞傳播將失去價值判斷;反之,摒棄技術手段,新聞價值也難以得到最大化。兩者關系的失衡,極易導致新聞倫理失范問題的產生。只有二者統一,人與智能機器之間的關系協調統一,同時實現新聞實踐中技術的最大化利用和對倫理價值的堅守,新聞價值才能最終實現。

        2.“算法偏見”(algorithmic bias)

        算法本身是一套解決問題的系統機制,但是程序的設計者,有可能在種族、性別、年齡歧視等社會傾向或其他方面有主觀性偏見。算法反映了設計者的主觀認識,在應用過程中本身就已經附帶了某一類人的價值理念。反過來,人們會擔心設計者和技術公司會因為巨大的利益驅使而被算法所控制。2017年初,皮尤研究中心聯合伊隆大學互聯網創(chuàng)想中心發(fā)布了名為《代碼依賴:算法時代的利弊》的報告。該報告指出:“有受訪者表示,相較于準確性和公平性,算法更看重效率,長此以往,會更符合算法的創(chuàng)設者的利益。而且算法只能反映社會現實,也會體現現實中的偏見、加劇不公,于是它們可能有利于白人男性,或許也會偏袒來自亞洲的年輕男性,而不利于女性、老年人、單親父母、有色人種、移民、穆斯林、非英語居民等。”算法偏見體現的是人的偏見,在新聞實踐中直接體現為新聞報道的傾向和目的,因偏見而產生的偏差進而出現導向偏頗,對受眾的差別化待遇甚至引發(fā)不良的輿論效應。前面提到的2016年Facebook的“偏見門”事件即為算法偏見導致的典型案例。

        3.新聞實踐中,尚未確立人工智能技術的相應標準和行業(yè)規(guī)范

        工業(yè)革命以來工具理性的發(fā)展,不斷向前推動和刺激著科技的進步和社會經濟的發(fā)展。但是,沒有價值理性的指引,僅依靠工具理性也難以更好地推動人類社會的進步和發(fā)展。當我們進行倫理的判斷時,也需要借助一定的量化標準。目前,對于新聞傳播中人工智能技術的使用,還沒有確立明確的標準或者規(guī)則。這就使得人工智能技術可能被濫用:在新聞生產端,機器人寫作等技術手段無法保證客觀全面地處理數據;在新聞推送端,受訪者隱私和數據庫的信息安全得不到有效保護;沒有通用的對于智能化新聞作品真實性進行審查的相關標準,也沒有通用的對新聞社會效應進行實時跟蹤監(jiān)控的詳細操作規(guī)則;VR/AR新聞客觀和真實性沒有可操作依據,視頻直播頻頻炒作不良低端導向的話題,一再突破社會倫理的底線,等等。

        這是因為,人工智能算法和數據的使用標準無法緊跟技術發(fā)展的速度。尤其令人擔憂的是,人工智能的深度學習能力會一直不斷更新完善,這給相關的技術行業(yè)規(guī)范的制定帶來更大挑戰(zhàn)。

        三、對策——確立人機協同前提下的新聞倫理觀

        對于人工智能的反思一直沒有停止過,相關的倫理學反思伴隨著人類力圖控制機器的努力相伴相生。美國科幻小說家阿西莫夫1940年代人提出了著名的“機器人學的三大法則”,目的在于確保人在智能發(fā)展中的主體地位,并確保人的核心利益。這是最早出現的處理人機關系的法則。

        近年來,世界各國和公共機構開始積極關注人工智能的法律、倫理、社會、經濟等影響。在我國,2017年7月20日,國務院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,涵蓋了從法律法規(guī)、倫理規(guī)范、重點政策、知識產權與標準、安全監(jiān)管與評估、勞動力培訓、科學普及等多個方面的措施。2017年底,IEEE(美國電氣和電子工程師協會)宣布了三項新的人工智能發(fā)展標準,即:“機器化系統、智能系統和自動系統的倫理推動標準”“自動和半自動系統的故障安全設計標準”和“道德化的人工智能和自動系統的福祉衡量標準”。今年5月,號稱“史上最嚴的”歐盟新的數據隱私法規(guī)《通用數據保護條例》(簡稱“GDPR”)已經正式生效。該法規(guī)規(guī)定,個人用戶將擁有更多權利要求公司披露或刪除他們持有的個人數據。本著技術服務人類社會的核心宗旨,媒介和受眾雙方都需要解決這樣一個問題,即考量人工智能技術在新聞實踐中占據何種地位。解決了這一問題后,有關新聞倫理的問題才能展開。

        (一)“人機協同”概念的兩個層面

        馬歇爾·麥克盧漢認為:“任何發(fā)明或技術都是人體的延伸或自我截除。這樣一種延伸還要求其他的器官和其他的延伸產生新的比率、謀求新的平衡?!苯陙?,業(yè)界對“人機協同”理論的討論即是在謀求這種“新的平衡”。

        “人機協同”,意為人與智能機器的交互協作。有人稱其為“人機共生”“人機合作”。在人機協同模式下,人與機器攜手合作。由人員控制并監(jiān)控生產,而機器人則負責體力工作。兩者發(fā)揮各自的專長。這種模式將為未來工業(yè)生產帶來根本性變革。在技術層面上,對人機協同的理解有兩個方面,首先,人始終處于算法回路之中,人的行為調節(jié)和改善算法,使之不斷完善提高。其次,以機器來拓展人的能力。應該說,在人機協同中,人是智能的總開關。在人機協同關系中,人居于統攝地位。

        從倫理層面來看,“人機協同”則代表了技術與人的和諧、統一和平衡狀態(tài)?;蛘哒f,它真正實現了工具理性與價值理性的統一。首先,技術是人類實現更好發(fā)展的實現路徑,而人類作為技術的創(chuàng)造者,是技術發(fā)展的源泉,兩者之間互為補充。其次,人的主體性決定著技術發(fā)展的目標,人居于主導地位。第三,技術與人之間的合作關系處于不斷的變化之中且能夠相互協調,保持平衡。人工智能永遠不可能替代人。機器一定是為人所利用,這是人機協同概念的核心?;蛘哒f,“我們必須在與技術的關系中形成自身?!比藱C協同提供了一個有關人機關系的解決方案。它是未來人工智能發(fā)展的方向,也被認為是未來傳媒生產分發(fā)的主流模式。這一概念不僅體現為人機的協作,還體現為二者始終維持著動態(tài)平衡的關系。進入智媒體時代,只有構建人與技術平衡共生的局面,才不至失去新聞價值衡量的準繩。

        對于如何在技術運用中實現道德的制約,近年來也有一些學者嘗試從技術倫理學角度進行探討。值得一提的是,荷蘭學者彼得·保羅·維貝克曾經提出了一種解決路徑——技術調節(jié)。他認為,“所有設計中的技術最終要調節(jié)人類行動和體驗,這有助于形成我們的道德決策和生活質量,因此,技術設計的倫理學應該處理這些未來的調節(jié)作用?!辈⑶覍ふ姨幚砑夹g的合適的中間路徑應該是負責任的調節(jié)形式的發(fā)展。比如,選擇者應該盡力評估設計產品可能具有的、未被預期的調節(jié)能力,設計者明確盡力去建立預期所考慮的調節(jié)形式,而道德性則成為產品“功能性”的一部分。根據這一理念,實現人機協同就是不斷在技術與倫理之間進行負責任的調節(jié)。這種技術調節(jié)理論體現了“技術設計中的內在道德維度”,倫理學是關于如何行動,設計者負責如何有助于形成技術并調節(jié)行為,設計則是倫理學的物質化形式。每一個使用中的技術物都將調節(jié)人類行動,每一個設計行動都會有助于構成道德實踐。因此,未來傳媒技術的應用發(fā)展需要借助負責任的調節(jié)形式,構建正確的倫理觀和價值理念。

        (二)構建“人機協同”模式下的新聞倫理

        在人工智能時代,我們如何構建一種新的新聞倫理?通過對人工智能技術在新聞傳播中的實踐,我們需要從哲學和倫理學層面對此進行探討。本文嘗試提出一種路徑:在堅持“工具理性”與“價值理性”統一的基礎之上,以“人機協同”模式來進行新聞實踐活動。這一路徑的展開,強調要在繼續(xù)發(fā)展工具理性的同時,秉承一種負責任的、以人為本的價值理性精神。要發(fā)揮人的主體性作用,利用技術調節(jié)負責任地在人與機器算法之間確立一種動態(tài)和平衡的協作關系,通過最大程度地發(fā)揮技術的作用,讓新聞生產服務于受眾。由此,本文認為可從以下幾方面來推進新聞倫理的構建:

        1.人機協同首先要明確界定人機之間的關系,明確人在新聞實踐中的主體地位

        新聞活動是人的活動。對人機關系的關注本質上就是對人的關注。明確此前提之后,才能展開新聞倫理價值定位。在發(fā)揮工具理性現實作用的同時,也要充分重視挖掘價值理性,后者往往是最本質的東西。倫理學學者何懷宏認為:“人類最好把價值判斷留給自己,這也是保持一種人類對機器人的獨立性乃至支配性?!绻f,我們最好不要讓多數人在人工智能的領域內太依賴少數人,我們就更不要讓全人類在智能、在精神和價值判斷的領域里依賴機器。”如果新聞媒體為追求人工智能技術帶來的利益最大化而降低價值判斷的標準,最終只會導致新聞價值的喪失。人必須成為人工智能算法的掌控者。本著這一原則,在新聞實踐中要明確智能算法是手段而非主體,更非目的。人在這一關系中居于主導地位,強調機器能夠自主配合人的工作,新聞價值標準的設定更要限制過度依賴機器和算法的推演。為此,新聞媒介主體應肩負倫理責任。

        2.強化社會責任與職業(yè)道德建設,堅持以社會主義核心價值觀和傳統文化為指導思想

        有學者提出應該在新聞媒介從事新聞實踐的過程中,將價值觀引入算法?!拔覀儜摀肀斯ぶ悄芩l(fā)的算法革命,構筑以人為本的人工智能型算法發(fā)展的戰(zhàn)略,強調智能型算法的價值觀,為沉浸式產品植入必要的干預機制,確保其朝著有益于個人和社會的方向發(fā)展。”把價值觀引入算法,即是突出價值理性的調節(jié)作用。

        在新聞實踐中使用人工智能技術,要做到以價值觀為精神指引,具體來說可以通過以下幾方面來進行:

        第一,從傳統文化和社會主義核心價值觀中汲取養(yǎng)料。黨的十九大報告強調,要深入挖掘中華優(yōu)秀傳統文化蘊含的思想觀念、人文精神、道德規(guī)范,結合時代要求繼承創(chuàng)新。傳統文化思想,如儒家倡導的“義利觀”“先義而后利者榮,先利而后義者辱”“不義而富且貴,于我如浮云”,道家的“物物而不物于物”等,對于當前新聞倫理的建設均具有重要指導作用。黨提出的社會主義核心價值觀,從國家層面強調“富強、民主、文明、和諧”,從社會層面強調“自由、平等、公正、法治”,在個人素養(yǎng)方面強調“愛國、敬業(yè)、誠信、友善”,不但可以用于指導傳統新聞實踐活動,而且在人工智能尤其是未來智媒體時代依然適用。

        第二,將價值觀嵌入到新聞采編技術操作實施的全過程。在新聞采編到推送的過程中,除記者、編輯、技術人員和廣告推送商職責之外,還需要加強人工審查,對于內容導向錯誤、虛假、違法等情況的新聞內容,包括社交媒體中的互動留帖,在發(fā)布前進行審查,確保新聞的真實有效。

        3.人機協同要求必須充分發(fā)揮智能算法的優(yōu)勢,引導良性社會輿論,構建社會共同價值

        借鑒貝維克的技術調節(jié)理論,我們可以在新聞實踐中,對技術的實施實現恰當的調節(jié),使之符合倫理道德的要求。新聞傳播行為是一種社會性的實踐,具有很強的社會行為,良性的新聞傳播行為是構建良性社會輿論環(huán)境所必需。我們完全可以利用技術創(chuàng)造更多形式的傳播互動方式,在讓新聞作品提供全新新聞體驗快感的同時,還能夠進一步通過技術來營建一種動態(tài)平衡,打造一個良性的輿論環(huán)境或者社區(qū),構建社會共同價值體。具體來說,可以在人工智能抓取數據信息的基礎上,加強對新聞的分析解讀,引導受眾;在新聞推送中進一步增強互動,設置關鍵詞的提示功能等,以此來構建聚合性社交環(huán)境。

        4.確立行業(yè)標準,規(guī)范職業(yè)素養(yǎng)

        作為調節(jié)手段,還需要考慮規(guī)則和標準的制定與設計。美聯社在2017年推出了《人工智能工作手冊》,從倫理視角對人工智能技術如何輔助新聞業(yè)進行了反思和指導。當前,新聞工作者應該盡快適應新的媒體時代的要求,以新聞專業(yè)素質與人工智能技術的協同創(chuàng)新來提高職業(yè)素養(yǎng)。具體來說,可以從以下幾方面進行探索:首先,明確技術在新聞生產和傳播中的邊界問題,倡導積極的算法透明原則。比如,公開源代碼、程序設置流程、決策過程和受眾反饋等信息。第二,提高數據管理和保護意識,主要包括對數據的甄選和利用,以及對爆料人和受眾的隱私保護。第三,積極引導第三方評估進入新聞技術領域,對媒體公信力、技術人員的職業(yè)能力、新聞推送方式等進行行業(yè)評估,定期公開發(fā)布評估報告。第四,培養(yǎng)規(guī)范新聞從業(yè)人員和技術人員的職業(yè)素養(yǎng),加強人工智能時代的新型新聞技術人才的培養(yǎng)。傳統新聞人員必須向技術型過度,技術人員也必須了解和學習新聞生產和傳播流程。為此,有必要設置專業(yè)化考核,新聞技術人員參加定期考核,通過考核后持證上崗。第五,建立完善的心理輔導和評估體系,針對技術型人員的心理健康評估尤為重要。

        5.加強新聞監(jiān)督,完善相關法律法規(guī)

        應對人工智能給新聞倫理帶來的挑戰(zhàn),關鍵在于人機關系的構建。要防止人工智能技術被濫用,必須完善相關法律法規(guī)。在這方面,我國還需要盡快跟進。這包括如何通過法律來明確新聞活動中人工智能技術使用者的主體權利和責任;明確技術便利給個人隱私權、個人和公共信息安全帶來的潛在危險;對于媒介組織已經發(fā)生的新聞行為引發(fā)的不正當效應,還缺乏相應的法律細則來定罪量刑。

        雖然目前還沒有完善的人工智能法,但相關問題在未來一定會提上議程。需要考慮以下幾方面:首先,明確界定相關法律規(guī)范和法律條文,平衡和規(guī)避言論自由的技術便利所帶來的對公共信息安全和個人信息安全的潛在危險;第二,新聞傳播主體擴容,個人自媒體、技術媒體、新聞采集編輯算法設計者等的主體權利和責任,都要納入調整對象;第三,人工智能生成的新聞的著作權保護;第四,人工智能生成新聞過程中對個人和公共安全造成的侵權行為和責任承擔;第五,新聞傳播過程中的輿情預警機制和問責機制的設計,等等。

        四、結語

        “人與技術之間存在著復雜的界面。人類是技術的產物,就像技術是人類的產物一樣?!薄拔覀儽仨殞W會和它(技術)一起生活?!睋Q句話說,“我們必須在與技術的關系中形成自身?!睘榇?,必須以正確和負責任的方式來構建人與技術的關系。

        與其試圖拋棄技術,不如找到與之協調的方法。中國傳統哲學里有關“物”的認識或可為新聞倫理中的技術反思提供解決思路:人機關系的和諧是解決倫理困境的出路,人的價值理性與工具理性的平衡統一,才能使新聞技術充分激發(fā)新聞的價值。由此看來,哲學學科和新聞傳播學科在這一領域內的綜合研究值得繼續(xù)。

        人工智能時代,數據、算法以及智能機器的深度學習,無時無刻不在更新我們對世界的認知,也改變著新聞生產者和新聞受眾對新聞的接受度和感受力,推動著新聞實踐向著更多元、更多樣的方向發(fā)展。技術給新聞傳播插上了翅膀,但新聞傳播技術改變了,并不代表新聞價值會改變,新聞倫理的討論也不會因此而停止。相反,在技術手段愈加重要的今天,新聞倫理要愈加明晰和堅定,唯有如此,新聞價值才得以彰顯,新聞生產者和新聞受眾才不至于在技術的浪潮中迷失方向?!半S著傳統新聞專業(yè)主義的消解,人工智能時代的新聞專業(yè)主義應當得以重構。隨著人工智能在新聞生產環(huán)節(jié)中的應用越來越多,新聞價值也易于被忽視,因此,由專業(yè)的新聞從業(yè)人員把關新聞生產中的價值取向,找回‘把關人’這一角色對重塑新聞專業(yè)主義來說至關重要。”人是所有技術的領導“核心”。這取決于技術理性的進步,也取決于倫理意識的清醒。人機協同是工業(yè)發(fā)展的未來趨勢,也是雙方關系的哲學表述。在技術浪潮中保持清醒和獨立思考,用人類的智慧讓人工智能在新聞實踐中實現“物盡其用”,才是新聞工作者未來需要努力的方向。

        ① 克里斯托弗·斯坦納:《算法帝國》,李筱瑩譯,北京:人民郵電出版社,2014年,第194頁。

        ② 余婷、陳實:《人工智能在美國新聞業(yè)的應用及影響》,《新聞記者》2018年第4期。

        ③ 〔德〕克勞斯·施瓦布:《第四次工業(yè)革命》,李菁譯,北京:中信出版社,第130頁。

        ④ 張志安、李靄瑩:《2017年新聞業(yè)年度發(fā)展報告》,《新聞界》2018年第1期。

        ⑤ 彭蘭:《移動化、社交化、智能化:傳統媒體轉型的三大路徑》,《新聞界》 2018年第1期 。

        ⑥ 趙雙閣、高旭:《VR技術應用新聞實踐的倫理困境機及其突破策略》,《出版發(fā)行研究》2018年8月。

        ⑦ 陳鵬:《人機關系的哲學反思》,《哲學分析》2017年第5期。

        ⑧ 〔德〕馬克斯·韋伯:《經濟與社會》第一卷,上海:上海世紀出版集團,第114-116頁。

        ⑨ 牟宗三:《現象與物自身》,長春:吉林出版集團有限責任公司,2010年,第21頁。

        ⑩ 顏炳罡:《整合與重鑄》,北京:北京大學出版社,2012年,第198頁。

        猜你喜歡
        人機協同人機倫理
        《心之死》的趣味與倫理焦慮
        人機“翻譯員”
        從內到外,看懂無人機
        南都周刊(2021年3期)2021-04-22 16:43:49
        護生眼中的倫理修養(yǎng)
        活力(2019年19期)2020-01-06 07:37:00
        人工智能環(huán)境下新聞報道的新趨勢
        大觀(2017年10期)2017-12-19 09:20:21
        從NLG到機器新聞寫作
        今傳媒(2017年10期)2017-11-04 16:23:12
        “人機大戰(zhàn)”人類智慧遭遇強敵
        海外星云(2016年7期)2016-12-01 04:17:50
        未來深空探測中的人機聯合探測
        太空探索(2016年5期)2016-07-12 15:17:58
        雙輪自平衡車控制方法
        醫(yī)改莫忘構建倫理新機制
        人妻经典中文字幕av| 色婷婷久久一区二区三区麻豆| 成 人 网 站 免 费 av| 一本色道久久爱88av| 亚洲色欲色欲www| 人妻熟妇乱系列| 日本在线免费精品视频| 久久成人黄色免费网站| 大香蕉视频在线青青草| 麻豆91蜜桃传媒在线观看| 精品国产天堂综合一区在线 | 国产一区二区三区久久精品| 国产亚洲日本精品无码| 中文乱码人妻系列一区二区| 国产 无码 日韩| 国产蜜桃传媒在线观看| 日韩精品乱码中文字幕| 俺去啦最新地址| 人妻在线日韩免费视频| 亚洲网站免费看| 女同性恋看女女av吗| 亚洲精品视频在线一区二区| 欧美色欧美亚洲另类二区| 毛茸茸性xxxx毛茸茸毛茸茸| 无码国产一区二区色欲| 日韩av在线亚洲女同| 久久久噜噜噜久久中文福利| 天天躁狠狠躁狠狠躁夜夜躁| 人妻精品一区二区三区视频| 永久免费看黄在线观看| 妃光莉中文字幕一区二区| 国产中文字幕乱人伦在线观看| a在线免费| 日韩欧美精品有码在线观看| 亚洲精品综合久久中文字幕 | 国产国语按摩对白av在线观看| 亚洲av综合av国产av中文| 嗯啊哦快使劲呻吟高潮视频| 免费国产调教视频在线观看 | 久久国产色av免费观看| 美女扒开内裤让男生桶|