榮紫涵 蔣小花
摘要:隨著傳播信息傳播技術(shù)的發(fā)展,算法推薦從“人找信息”,到“信息找人”,提高新聞出品的效率,同時給社會公平和公民信息自由帶來挑戰(zhàn)。本文通過分析算法推薦機制價值邏輯、法律倫理定位,得出算法新聞法律倫理規(guī)范方法。
關(guān)鍵詞:新聞;算法;法律
隨著信息傳播技術(shù)的發(fā)展,新聞的生產(chǎn)和傳播門檻降低,算法推薦悄悄地進入大眾的視野,奪走新聞媒體人的“方向盤”。算法推薦高效地提供給用戶感興趣的內(nèi)容,減少了用戶搜索信息的時間成本,但在利益驅(qū)動下,平臺為了獲取用戶“注意力的經(jīng)濟”,讓用戶浸泡在媒體個性化的泡沫里,公共性和有價值的內(nèi)容被邊緣化,如何避免算法歧視真正實現(xiàn)社會公平和公民信息自由,值得大眾關(guān)注。
一、算法推薦機制價值邏輯
在信息大爆炸時代,用戶如何搜索和利用有效信息成為一個難題。在搜索的過程中,一類用戶是明確的知道自己要尋找的信息是什么,只需要輸入關(guān)鍵字詞便可在網(wǎng)頁中獲取信息;另一類是不知道自己要尋找的內(nèi)容,只是作為一種消遣在瀏覽信息。算法推薦的出現(xiàn)讓第二類用戶更好地找到自己感興趣的內(nèi)容,再通過他們的瀏覽記錄和使用習慣構(gòu)建用戶畫像,在之后的使用中一次次地更行畫像使其變得清晰。在面對密集的信息量時,大量的無關(guān)信息包括廣告等沖擊人類的視野,大眾的注意力的耐心降低。作為平臺的專業(yè)媒體者無法將如此龐大的信息精準分發(fā)到用戶的眼里,于是只能讓機器人算法來篩選用戶愛看的內(nèi)容。
算法新聞運行的技術(shù)基礎(chǔ)在于對大數(shù)據(jù)中新聞信息的抓取與計算分析,而大數(shù)據(jù)本身是通過匯集存儲在數(shù)據(jù)庫里的每一個數(shù)據(jù)而生成。數(shù)據(jù)庫保留的這些數(shù)據(jù)涉及每一位用戶上網(wǎng)信息(內(nèi)容、行為習慣、偏好等),一方面這些信息為算法新聞的生產(chǎn)提供了基礎(chǔ)、為推送鎖定了目標群體,另一方面這些信息卻也隱藏著侵犯公民個人隱私的極大風險。
全球范圍內(nèi)如谷歌、亞馬遜、推特、臉書,國內(nèi)如百度、阿里、騰訊,這些互聯(lián)網(wǎng)巨頭企業(yè)擁有的不僅僅是龐大的用戶數(shù)量,背后更意味著龐大的用戶上網(wǎng)行為數(shù)據(jù),以及由這些數(shù)據(jù)匯聚起來的可供算法進行分析得出更多信息的大數(shù)據(jù)。每一個用戶在使用網(wǎng)絡(luò)工具時貢獻著數(shù)據(jù),也暴露著自己的個人信息。所以從表面上看算法推薦提高了新聞內(nèi)容的分發(fā)效率,實現(xiàn)個性化匹配,但其背后的價值邏輯卻是謀取用戶“注意力經(jīng)濟”的偽個性化信息推送。
二、算法推薦在倫理上兩種觀點
在我國,算法推薦新聞近年來可謂風生水起,同時似乎也成了眾矢之的。2017年9月,人民網(wǎng)針對算法推薦連續(xù)發(fā)表3篇評論,文章認為,當技術(shù)、代碼、算法替代了傳統(tǒng)內(nèi)容分發(fā)過程中編輯的角色,單一的吸引眼球標準導致劣質(zhì)內(nèi)容泛濫,呈現(xiàn)一波未平,一波又起的局面。2018年4月 ,今日頭條因內(nèi)容低俗被國家廣電總局責令關(guān)?!皟?nèi)涵段子”客戶端軟件及公眾號。以此,國內(nèi)普遍存在指斥算法推薦的道德倫理的缺失的這一觀點,低俗信息,垃圾新聞、"標題黨”內(nèi)容的泛濫使得公眾對算法推薦推上風口浪尖,認為是背后人為的操作,使得大眾價值觀出現(xiàn)偏差甚至異化。
國外研究者的看法有所不同。“算法遵循的是預(yù)先選擇的程序,而不是及時的判斷,它們圍繞的是吉萊斯所說的算法客觀性假設(shè)——算法是中立的,因為它將所有的信息數(shù)據(jù)投入到同樣的程序中……算法背后的知識邏輯從強調(diào)公眾普遍認可的重要性,轉(zhuǎn)移到基于用戶的特定屬性和搜索的個性化新聞和碎片化新聞上。算法的速度和蘊含的個性化潛質(zhì)讓這類新聞生產(chǎn)環(huán)境蓬勃發(fā)展。”然而算法作為各平臺的商業(yè)機密也是不可告知大眾,是否有幕后利益獲取者夾帶私貨也不是不可能的。
三、算法推薦的法律倫理定位
如何規(guī)范算法推薦,取決于法律上如何定位算法推薦行為。傳統(tǒng)上,傳媒法領(lǐng)域存在著出版者與發(fā)行者的區(qū)分。兩者的區(qū)分標準在于是否對傳播的內(nèi)容實施“編輯控制”。如報社、雜志社、出版社等傳統(tǒng)大眾媒體,從事內(nèi)容生產(chǎn)和發(fā)布,對所發(fā)布內(nèi)容實施審核、形式修改、篇幅調(diào)整,并決定是否發(fā)表,無論是首發(fā)內(nèi)容或轉(zhuǎn)載其他媒體內(nèi)容,在性質(zhì)上均屬于出版者。而諸如書店、圖書館、報刊亭,雖以內(nèi)容為產(chǎn)品,但它們在社會分工中承擔的角色僅僅是信息的傳遞人,法律上定性為發(fā)行者。區(qū)別兩者的意義在于法律中需要承擔的責任和義務(wù)。一般而言,出版者的注意義務(wù)相對重于發(fā)行者。算法推薦背后的設(shè)計師作為人,具有主觀主動地去設(shè)計算法來計算用戶習慣,然而算法設(shè)計師往往是不具備規(guī)范的媒介素養(yǎng),傳統(tǒng)的新聞把關(guān)人“把關(guān)權(quán)”直接讓位給設(shè)計師或者是算法,對于用戶是一種責任缺失,但如果把關(guān)人的參與,把關(guān)人在信息的傳播過程中更像一個出版者,編輯控制著內(nèi)容的供給。所以,用新聞專業(yè)規(guī)范指導算法,算法是否還是“中立”,也就是對于再好的傳播渠道也需要“看門人”這一觀點值得討論。
在倫理上,算法把用戶興趣和新聞的匹配度作為新聞價值唯一的判斷標準并決定新聞的分發(fā)流向,忽視傳統(tǒng)新聞記者履行社會告知、人文關(guān)懷與輿論監(jiān)督等使命的邏輯思維,媒體難有穩(wěn)定受眾,不能通過持續(xù)的議題設(shè)置、輸出有價值內(nèi)容打造媒體品牌,而是讓大眾成為自己的“把關(guān)人”,最終只會造成受眾的信息認知偏差,共識的丟失、價值的異化和信息封閉化。
四、算法新聞法律倫理規(guī)范方法
在數(shù)據(jù)信息過載時代,如何篩選出有價值的信息拋棄垃圾偽造的信息才是關(guān)鍵。把關(guān)人的缺失更意味著機器人算法在大量信息的處理上的確存在明顯的優(yōu)勢。因此要通過健全法律監(jiān)管以及加強“人”在新聞傳播中的主體性。
(一)加強法律監(jiān)管
進入網(wǎng)絡(luò)時代以后,以美國 1998 年《千禧年數(shù)字版權(quán)法》(DMCA)為代表的立法賦予網(wǎng)絡(luò)服務(wù)提供者以類似于發(fā)行者的法律地位,對其同樣適用“知情負責”責任,并照顧網(wǎng)絡(luò)的特點而增設(shè)了“通知-刪除”程序。我國《信息網(wǎng)絡(luò)傳播權(quán)保護條例》基本上照搬了 DMCA 的立法模式,為互聯(lián)網(wǎng)接入和傳輸、系統(tǒng)緩存、信息存儲及信息定位四類網(wǎng)絡(luò)服務(wù)設(shè)立了四個責任避風港。算法推薦能否適用責任避風港規(guī)定,需要將其與上述四類網(wǎng)絡(luò)服務(wù)加以比較。其次必須對使用偽算法去推薦用戶獲取低俗信息或廣告內(nèi)容、夾帶私貨內(nèi)容進行嚴厲的懲罰。而不是簡單實施“通知刪除”程序。
(二)平臺自我管理
平臺在設(shè)計算法前,應(yīng)該一個具備自己立場和品牌價值觀念,并不是簡單地判讀“用戶關(guān)注的,才是頭條”,為了獲取更多的關(guān)注去讓用戶處于自我封閉空間的狀態(tài)是不可取的。對于一些嚴肅性的新聞,應(yīng)當主動讓受眾關(guān)注,達到輿情監(jiān)督、防止大眾對真實事件的偏見和價值異化的功能。對于低俗信息的來源,應(yīng)該嚴格把控,在選擇新聞源時就將其列入黑名單。
(三)算法推薦的透明化
盡管算法是平臺的商業(yè)機密,但仍有透明化的必要,讓用戶真正通過算法了解自己興趣所在,從而主動獲取信息,而不是單向性地把平臺認為用戶感興趣的信息塞給用戶。表明上的用戶個性化,選取屬于用戶自己定制的信息,實際上是通過代碼構(gòu)建的數(shù)據(jù)模型去對其弱點進行強行植入。對于這樣的觀點,使算法透明化,對大眾、法律及倫理不失為一種選擇。
【參考文獻】
[1]劉文杰.算法推薦新聞的法律透視[J].新聞記者,2019(02).