亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        算法推薦新聞的潛在風(fēng)險及法律規(guī)范路徑

        2025-03-30 00:00:00申艷紅趙宣
        新聞愛好者 2025年3期

        【摘要】算法推薦新聞改變了傳統(tǒng)的新聞信息分發(fā)模式,實現(xiàn)了對用戶需求的精準(zhǔn)推送,成為信息過載時代搜索信息的重要工具。從系統(tǒng)架構(gòu)上看,算法推薦新聞主要分為三個要素:用戶、新聞與推薦引擎(算法),包括基于內(nèi)容的算法推薦和協(xié)同過濾的算法推薦兩種模式。對于工具理性的過度依賴導(dǎo)致算法推薦新聞存在三個方面的潛在風(fēng)險,即傳統(tǒng)監(jiān)管理念乏力、侵犯用戶信息自決權(quán)、民事行政責(zé)任承擔(dān)不明確。在法律規(guī)制層面,應(yīng)當(dāng)采用事前“穿透式”監(jiān)管理念、保障用戶信息自決權(quán)、完善法律責(zé)任規(guī)范體系,以確保算法推薦新聞價值理性的回歸。

        【關(guān)鍵詞】算法推薦新聞;底層邏輯;潛在風(fēng)險;規(guī)范路徑

        隨著算法推薦技術(shù)的快速發(fā)展,引發(fā)了新聞傳播范式的變革,新聞傳播進(jìn)入更加扁平化、精準(zhǔn)化階段。算法推薦在推動新聞傳播革命式變革的同時,理論學(xué)界也提出一定的質(zhì)疑。有學(xué)者從倫理角度認(rèn)為,算法推薦技術(shù)會導(dǎo)致“信息繭房”,加劇群體極化現(xiàn)象[1];在法律性質(zhì)上,有學(xué)者認(rèn)為算法推薦行為屬于網(wǎng)絡(luò)服務(wù)行為[2],算法推薦技術(shù)會對用戶隱私權(quán)構(gòu)成挑戰(zhàn)。[3]囿于算法技術(shù)自身的局限性,算法推薦新聞不僅造成一定的倫理問題,而且也存在部分法律風(fēng)險。因此,應(yīng)當(dāng)對算法推薦新聞中的法律風(fēng)險進(jìn)行審視,管窺其中的困境與挑戰(zhàn),同時采用法律規(guī)制路徑對算法推薦新聞進(jìn)行治理,以保證算法推薦真正成為新聞傳播的有力工具。

        一、算法推薦新聞的底層運行邏輯

        算法推薦新聞的底層邏輯設(shè)計與傳統(tǒng)的新聞專業(yè)規(guī)范完全相反,傳統(tǒng)新聞專業(yè)規(guī)范中,新聞的選擇權(quán)由專業(yè)的編輯行使,由編輯對新聞內(nèi)容進(jìn)行價值判斷。但在算法推薦新聞機制下,通過對用戶行為習(xí)慣和社交圖譜的構(gòu)建,實現(xiàn)對用戶需求內(nèi)容的精準(zhǔn)化推薦,閱讀何種新聞的選擇權(quán)不再依賴專業(yè)新聞工作者的價值判斷,新聞選擇權(quán)逐漸從新聞工作者轉(zhuǎn)移到算法與用戶,新聞推薦權(quán)利發(fā)生了轉(zhuǎn)移。

        從系統(tǒng)架構(gòu)上看,算法推薦新聞主要分為三個要素:用戶、新聞與推薦引擎(算法)。目前主要存在兩種算法推薦模式:基于內(nèi)容的算法推薦(Content-based Recommend,CB)與協(xié)同過濾的算法推薦模式(Collaborative Filtering,CF)。基于內(nèi)容的算法推薦模式主要考慮新聞的相似度;協(xié)同過濾推薦算法在新聞推薦領(lǐng)域應(yīng)用更加廣泛,其本質(zhì)是一種依據(jù)用戶與項目間交互行為數(shù)據(jù)來執(zhí)行信息篩選的方法論。該算法細(xì)分為用戶協(xié)同過濾(User-based CF)與項目協(xié)同過濾(Item-based CF)兩大類別,在用戶協(xié)同過濾中,主要運用均方誤差、皮爾遜相關(guān)系數(shù)等度量手段來評估用戶間的相似程度,隨后通過設(shè)定閾值或采用Top-N推薦策略來確定社交矩陣的范圍,最終依據(jù)用戶間的相似性來實現(xiàn)新聞信息的交叉推薦,向用戶推送其可能感興趣的新聞內(nèi)容。基于項目的協(xié)同過濾機制一般采用余弦向量方法計算新聞項目之間的相似度,獲取不同新聞項目之間的相似關(guān)系。但無論是基于內(nèi)容的算法推薦,還是協(xié)同過濾的算法推薦,都無法解決數(shù)據(jù)稀疏性與冷啟動的難題。

        隨著人工智能技術(shù)的進(jìn)一步發(fā)展,深度學(xué)習(xí)開始逐漸運用到算法新聞推薦中。在新聞推薦中,深度學(xué)習(xí)技術(shù)不僅可以通過非線性網(wǎng)絡(luò)結(jié)構(gòu),提取新聞內(nèi)容和用戶興趣的深層次特征,而且能夠融合蘊含用戶興趣的多源異構(gòu)輔助性信息,從而緩解新聞推薦中的數(shù)據(jù)稀疏和冷啟動問題。在深度學(xué)習(xí)下,越來越多的權(quán)重因素被加入神經(jīng)元之中,算法推薦新聞更好地擬合、預(yù)測用戶的行為和心理,分析預(yù)測結(jié)果的準(zhǔn)確性得到大幅度提升。

        二、算法推薦新聞的潛在風(fēng)險審視

        (一)算法推薦傳統(tǒng)監(jiān)管理論乏力

        在互聯(lián)網(wǎng)經(jīng)濟迅速發(fā)展的浪潮下,為避免企業(yè)發(fā)展的創(chuàng)新性和法律標(biāo)準(zhǔn)滯后性之間的矛盾,我國始終采用包容審慎的監(jiān)管原則,互聯(lián)網(wǎng)企業(yè)基于科技創(chuàng)新享受大量的政策紅利,監(jiān)管的部分失位使互聯(lián)網(wǎng)企業(yè)攫取了巨額利潤。如從2012年起,我國P2P平臺開始迅速擴張,高峰期運營平臺達(dá)到5000家,但是非法集資、詐騙等現(xiàn)象層出不窮,導(dǎo)致居民財富流失,對我國金融生態(tài)造成強烈沖擊。在傳統(tǒng)監(jiān)管理論下,算法推薦新聞主要存在以下三方面的問題。

        其一,在監(jiān)督治理節(jié)點上注重事后監(jiān)督。從互聯(lián)網(wǎng)經(jīng)濟發(fā)展至今,“先做后批”成為普遍現(xiàn)象。算法具有準(zhǔn)公權(quán)力屬性,平臺操控輿論時常發(fā)生,并且算法本身的局限性,算法偏見使用戶陷入信息繭房,算法黑箱導(dǎo)致主流價值觀缺失。若一味注重算法平臺企業(yè)的事后監(jiān)督可能會進(jìn)一步導(dǎo)致算法損害的彌散化,出現(xiàn)不可控的局勢。

        其二,重視平臺的行為監(jiān)管,忽視了要素監(jiān)管。傳統(tǒng)監(jiān)管理論認(rèn)為,應(yīng)當(dāng)以平臺的外部行為為直接監(jiān)管對象,仍然遵循“主體—行為—責(zé)任”的傳統(tǒng)思路,但是在算法自動化運行的狀態(tài)下,算法平臺常以失去“控制力”等為由進(jìn)行抗辯。僅以行為和損害后果為監(jiān)管對象已經(jīng)不能滿足技術(shù)發(fā)展的實際狀況,算法作為平臺的生產(chǎn)要素,已經(jīng)深度嵌入企業(yè)的日常運營之中,算法監(jiān)管的本質(zhì)應(yīng)當(dāng)移位生產(chǎn)要素監(jiān)管,加強算法審計、算法備案等相關(guān)工作。

        其三,過度重視企業(yè)的內(nèi)部自律。在互聯(lián)網(wǎng)監(jiān)管的早期階段,平臺一直以企業(yè)的法律角色出現(xiàn),政府始終呼吁企業(yè)自律,主張平臺的監(jiān)管目標(biāo)通過企業(yè)自律的形式完成,導(dǎo)致平臺和監(jiān)管部門都認(rèn)為,平臺內(nèi)部的自我監(jiān)管從效率、正當(dāng)性上都要優(yōu)于政府監(jiān)管。雖然不能否認(rèn)企業(yè)內(nèi)部監(jiān)管的優(yōu)越性,但是過度重視企業(yè)的內(nèi)部自律,缺乏外部監(jiān)督,極易導(dǎo)致企業(yè)為了“利益”鋌而走險,造成重大風(fēng)險。

        (二)算法推薦侵犯用戶信息自決權(quán)

        個人信息自決權(quán)是指個人依照法律控制自己的個人信息并決定是否被收集和使用的權(quán)利。[4]個人信息自決權(quán)始于德國“人口普查案”,并通過“IT-Grundrecht案”進(jìn)一步補充確定。我國在個人信息保護上,一直堅持以個人信息自決為基礎(chǔ),并創(chuàng)建了告知—同意的權(quán)利對稱機制。但就實際情況而言,我國目前個人信息自決權(quán)的基礎(chǔ)較為薄弱,無法形成有效代表個人自主意志信息收集和使用的判斷,不能體現(xiàn)用戶對個人信息的自主意識。對用戶信息自覺權(quán)的侵犯主要體現(xiàn)在兩個方面。

        其一,推薦算法侵犯用戶個人信息。無論是基于內(nèi)容的新聞推薦機制,抑或是協(xié)同過濾推薦機制,算法均需要訪問用戶的歷史瀏覽記錄以及相關(guān)數(shù)據(jù),并通過數(shù)據(jù)進(jìn)行建模,以實現(xiàn)新聞與用戶之間的匹配。在抓取數(shù)據(jù)過程中,一定程度上不可避免地會侵犯用戶的個人信息。在算法技術(shù)的介入下,平臺侵犯個人信息的方式較為隱蔽,用戶無法意識到新聞聚合平臺正在收集其個人信息,甚至當(dāng)新聞聚合平臺利用大量的個人信息謀求巨額的商業(yè)利益時,用戶也毫不知情。對于用戶而言,甚至?xí)鲃迂暙I(xiàn)自己的個人信息,以獲取搜索的便利。

        其二,告知同意規(guī)則流于形式。告知同意規(guī)則是《個人信息保護法》賦予平臺處理個人信息的合法性基礎(chǔ),在告知同意規(guī)則體系下,平臺應(yīng)當(dāng)告知用戶信息處理的范圍、方式和目的,并征得用戶同意,但現(xiàn)階段大部分平臺提供的個人信息保護條款類似于格式條款,用戶難以理解其中含義,概括性的授權(quán)和同意并不符合個人信息處理規(guī)則的相關(guān)規(guī)定。

        (三)民事責(zé)任與行政責(zé)任承擔(dān)不明確

        從規(guī)范角度看,我國《網(wǎng)絡(luò)安全法》所規(guī)定的平臺責(zé)任并不是嚴(yán)格責(zé)任,而是一種過錯責(zé)任,主觀過錯是平臺承擔(dān)民事責(zé)任或者行政處罰的基本構(gòu)成要件。在民事責(zé)任認(rèn)定上,當(dāng)發(fā)生損害后果時,用戶追究平臺的法律責(zé)任必然審視平臺的過錯,但在主觀過錯的認(rèn)定機制下,又存在“技術(shù)中立”與“主體責(zé)任分離”的困境。首先,追究過錯責(zé)任要面臨“技術(shù)中立”的抗辯,如“今日頭條”張一鳴始終強調(diào)算法并沒有價值觀,“今日頭條”不設(shè)立總編輯,試圖以技術(shù)中立、不存在主觀過錯為緣由避免承擔(dān)法律責(zé)任。國外也有研究學(xué)者認(rèn)為,算法遵循的是預(yù)先選擇的程序,而不是及時的判斷[5]。其次,平臺始終主張,要注意區(qū)分內(nèi)容服務(wù)提供者和網(wǎng)絡(luò)服務(wù)提供者,算法平臺屬于網(wǎng)絡(luò)服務(wù)的提供者,僅具有傳輸介質(zhì)屬性。主觀過錯認(rèn)定的障礙導(dǎo)致危害結(jié)果發(fā)生后對平臺追責(zé)的效果并不理想。

        在行政監(jiān)管領(lǐng)域,算法責(zé)任承擔(dān)亦不明確。法律法規(guī)層面,《算法推薦管理規(guī)定》在第三十一、三十二、三十三條中規(guī)定了算法推薦服務(wù)提供者應(yīng)當(dāng)承擔(dān)的法律責(zé)任,但是規(guī)定較為粗線條,并不具備實際的可操作性,進(jìn)而導(dǎo)致在實踐中隨意執(zhí)法、執(zhí)法標(biāo)準(zhǔn)不統(tǒng)一,有的平臺被頂格從重處罰,有的平臺僅僅被責(zé)令限期改正。責(zé)任體系的混亂造成平臺與監(jiān)管部門雙輸?shù)木置?,從平臺角度看,是否承擔(dān)法律責(zé)任在于是否開展了相關(guān)的專項治理活動,互聯(lián)網(wǎng)企業(yè)常擔(dān)憂不可預(yù)測的運動式執(zhí)法帶來的行業(yè)寒冬,長期因恐懼而喪失創(chuàng)新動力[6],就監(jiān)管部門的角度而言,運動式的隨意執(zhí)法并不符合比例原則,喪失了執(zhí)法的權(quán)威性。

        三、算法推薦新聞的法律規(guī)范路徑

        (一)采用事前的“穿透式監(jiān)管”理念

        穿透式監(jiān)管概念來源于互聯(lián)網(wǎng)金融監(jiān)管領(lǐng)域,在監(jiān)管理念上主張由最少監(jiān)管轉(zhuǎn)變?yōu)閷嵸|(zhì)監(jiān)管,穿透事物表象獲取真實信息和事實發(fā)現(xiàn),以此彌補因創(chuàng)新帶來的監(jiān)管漏洞。[7]從算法推薦新聞的底層運行邏輯看,算法技術(shù)在新聞推薦應(yīng)用中具有底層架構(gòu)地位,如果缺乏對技術(shù)運用的節(jié)制,技術(shù)運用的不規(guī)范和對技術(shù)的過于倚重,技術(shù)的副作用就可能被放大。[8]穿透式監(jiān)管理念主張采用侵入式的監(jiān)管措施穿透企業(yè)內(nèi)部技術(shù)的外衣,直抵平臺的內(nèi)部算法技術(shù),增強推薦算法的透明度,一定程度打開了算法黑箱。對算法技術(shù)穿透式監(jiān)管的本質(zhì)要求算法推薦平臺將內(nèi)部生產(chǎn)信息以可視化形式轉(zhuǎn)化為行政監(jiān)管的決策信息,增強算法平臺內(nèi)部信息披露與內(nèi)部行為的干預(yù),主要表現(xiàn)為在事前加強算法備案和算法審計。

        在算法備案方面,注重核心算法備案?!端惴ㄍ扑]管理規(guī)定》第二十四條規(guī)定,具有輿論屬性的算法推薦服務(wù)提供者應(yīng)當(dāng)履行備案登記手續(xù),備案信息發(fā)生變更的,應(yīng)當(dāng)在變更之日起十日內(nèi)辦理變更手續(xù)。但算法每年的更新次數(shù)能達(dá)到成百上千次,苛求算法企業(yè)對每一次算法更新進(jìn)行備案不僅會增加算法平臺的生產(chǎn)負(fù)擔(dān),也會導(dǎo)致行政機關(guān)的監(jiān)管負(fù)擔(dān)過重。因此,應(yīng)當(dāng)將備案的重點放在核心算法上,核心算法變更直接影響了算法推薦結(jié)果,且變更次數(shù)相對有限,例如谷歌在2023年對其算法完成了四次核心更新,2024年進(jìn)行了三次核心更新,對核心算法更新進(jìn)行備案更具有針對性和可操作性。

        在算法審計方面,建立第三方算法評估審計機制。算法審計是在算法運行前對其合規(guī)性、正當(dāng)性進(jìn)行考察的活動,世界各國在立法中多次提及算法審計制度,美國紐約州立法明文規(guī)定,招聘算法必須進(jìn)行年度算法審計;廣東省印發(fā)《廣東省首席數(shù)據(jù)官制度試點工作方案》,組建了由政府副職領(lǐng)導(dǎo)構(gòu)成的首席數(shù)據(jù)官,并明確了首席數(shù)據(jù)官的職責(zé)范圍等。為此,可以建立由行業(yè)協(xié)會、公眾代表、算法工程師、法律職業(yè)人員組成的算法審查委員會,經(jīng)算法委員會事前審查發(fā)現(xiàn),新聞推薦算法存在侵犯用戶信息權(quán)益、算法偏見等法律風(fēng)險時,有權(quán)要求算法平臺進(jìn)行改正,拒不改正的將否定性的審計結(jié)果上報網(wǎng)信、市場監(jiān)管等部門,對其依法作出處理。

        (二)保障用戶信息自決權(quán)

        作為新時代的一種新型權(quán)利,信息自決權(quán)在法律上逐漸獲得基本權(quán)利資格。在信息論視野下,個人信息并不是一組客觀的數(shù)據(jù),而是一種信息化的能力,它具有封裝和支配數(shù)據(jù)的能力,可以不斷把數(shù)據(jù)轉(zhuǎn)化為信息,并且賦予其時代意義,保護公民個人信息自決權(quán)就是保護人的主體資格。用戶個人信息具有價值差異,若強調(diào)對所有用戶信息自決一視同仁,采用同樣的規(guī)制手段,無疑會極大增加平臺成本,降低企業(yè)運行效率,遏制產(chǎn)業(yè)發(fā)展,要采取區(qū)分原則,注重加強算法推薦中的用戶敏感信息自決權(quán)。《個人信息保護法》第二十八條對個人敏感信息作出規(guī)定,并將敏感信息類型化,對敏感信息保護提供強有力的制度基礎(chǔ)?!痘ヂ?lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》作為算法推薦的專門行政規(guī)章,其中并未對算法推薦領(lǐng)域的敏感信息進(jìn)行專門界定,因此,應(yīng)當(dāng)以《個人信息保護法》為依據(jù),在算法推薦新聞領(lǐng)域?qū)€人敏感信息進(jìn)行細(xì)化,區(qū)分算法推薦新聞中的一般信息和敏感信息。在算法設(shè)計階段,將保護用戶信息自決的價值理論與計算機代碼相結(jié)合,以嵌入式的方式將法律保護個人信息的基本理念植入算法設(shè)計中。堅持最小必要性原則,其是個人信息保護的重要價值理念,其中包括目的必要性和手段必要性。目的必要性要求算法新聞聚合平臺收集個人信息必須具有明確合理的目的,且限于實現(xiàn)目的的最小范圍,手段必要性要求新聞聚合平臺在收集個人信息的方式上盡可能減少對用戶造成的負(fù)面影響。通過法律價值理論對算法設(shè)計的指引,加強個人信息在技術(shù)源頭的法律保護。在算法應(yīng)用階段,完善告知同意規(guī)則,針對個人信息類型,采用不同的告知同意規(guī)則。一般個人信息可以采用概括性告知和授權(quán)的方式,但是對于個人敏感信息,新聞聚合平臺應(yīng)當(dāng)履行嚴(yán)格的告知義務(wù),保障用戶的知情權(quán)。在告知內(nèi)容上應(yīng)當(dāng)包括算法推薦涉及的敏感信息類型,運用該類型敏感信息的目的,以及對公民可能造成的影響。在告知方式上,應(yīng)當(dāng)采用顯著的告知方式,對相關(guān)條款進(jìn)行標(biāo)紅、加黑等形式提醒用戶。

        (三)完善法律責(zé)任規(guī)范體系

        曾有多位學(xué)者對人工智能技術(shù)表示過擔(dān)憂,認(rèn)為人工智能可能會對人類的生存空間產(chǎn)生威脅。算法作為人工智能的核心運作機制,如果采用過度苛刻的規(guī)制手段,可能會扼殺算法平臺的自主創(chuàng)新性,阻礙算法產(chǎn)業(yè)的發(fā)展,但過度的包容又會導(dǎo)致一系列的法律與倫理問題。因此必須在促進(jìn)算法產(chǎn)業(yè)發(fā)展和規(guī)制算法之間找到平衡點,而平衡點的關(guān)鍵在于算法是否需要承擔(dān)法律責(zé)任。20世紀(jì)90年代,拉圖爾在卡龍的基礎(chǔ)上提出“行動者—網(wǎng)絡(luò)理論”,這里的行動者既可以指人,也可以指非人的存在或者力量。弗洛里迪和桑德斯基于行動者互動關(guān)系角度,將交互性、自主性、適應(yīng)性作為智能技術(shù)是否應(yīng)當(dāng)承擔(dān)倫理責(zé)任的標(biāo)準(zhǔn)[9]。由于目前人工智能技術(shù)發(fā)展仍然處于弱人工智能階段,算法雖然滿足了交互性標(biāo)準(zhǔn),但是并未滿足自主性和適應(yīng)性的要求,因此從弗洛里迪和桑德斯的觀點看,算法并不能獨立承擔(dān)法律責(zé)任。

        在民法規(guī)范責(zé)任體系下,算法不能獨立承擔(dān)法律責(zé)任是否意味著算法不需要承擔(dān)法律責(zé)任?答案自然是否定的,算法可以在責(zé)任能力內(nèi)承擔(dān)有限責(zé)任。有學(xué)者認(rèn)為可以賦予算法有限的法律人格,在二元權(quán)利結(jié)構(gòu)中創(chuàng)造中間地位,根據(jù)代理理論,將算法視為新聞聚合平臺的智能代理人,明確智能代理人具有部分權(quán)利能力。智能代理人不是人,但是它仍然可以承擔(dān)與其服務(wù)職能相一致的部分權(quán)利能力。[10]賦予算法有限的法律人格是要求算法承擔(dān)法律責(zé)任的基礎(chǔ)。算法是由一系列的計算機代碼所組成,并不具備實體財產(chǎn),那么算法如何承擔(dān)侵權(quán)責(zé)任?可以借鑒機動車交強險相關(guān)機制,要求新聞聚合平臺為算法購買強制性保險,在發(fā)生侵權(quán)案件后,由保險賠付算法所應(yīng)當(dāng)承擔(dān)的責(zé)任。新聞聚合平臺設(shè)立賠償基金進(jìn)行補充,保險賠付不足以彌補被侵權(quán)人損害的,由賠償基金進(jìn)行補足。這種設(shè)置有效避免了平臺所提出的“技術(shù)中立”抗辯,無論技術(shù)是否中立,新聞聚合平臺作為推薦算法的智能代理人都應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。從舉證責(zé)任出發(fā),《侵權(quán)責(zé)任法》第六條、第七條確定了由過錯責(zé)任和無過錯責(zé)任組成的侵權(quán)責(zé)任規(guī)則體系。若適用過錯責(zé)任,被侵權(quán)人應(yīng)當(dāng)就算法和平臺的過錯承擔(dān)舉證責(zé)任,但是在技術(shù)限制下,被侵權(quán)人難以在復(fù)雜的代碼和算法中識別過錯,苛求被侵權(quán)人承擔(dān)舉證責(zé)任困難重重。因此,可以借鑒《個人信息保護法》中過錯推定的規(guī)定,轉(zhuǎn)移舉證責(zé)任,由新聞聚合平臺對自身行為的無過錯承擔(dān)舉證責(zé)任,減輕被侵權(quán)人的舉證責(zé)任壓力。

        在行政法律責(zé)任規(guī)范體系下,追究平臺的責(zé)任主要表現(xiàn)為對平臺處以何種行政處罰。具體而言,《算法推薦管理規(guī)定》中的法律責(zé)任較為模糊,存在不確定法律概念。例如《算法推薦管理規(guī)定》第三十一條規(guī)定,拒不改正或情節(jié)嚴(yán)重的,責(zé)令暫停信息更新,并處一萬元以上十萬元以下罰款。行政處罰本質(zhì)屬于行政機關(guān)的自我裁量,通常由要件裁量和效果裁量構(gòu)成,在該條款中,拒不改正和情節(jié)嚴(yán)重屬于要件裁量,責(zé)令暫停信息更新與一萬元以上十萬元以下罰款屬于效果裁量,要件裁量是行政處罰的前提,拒不改正屬于明確的法律概念,但是其中的“情節(jié)嚴(yán)重”卻屬于不明確法律概念,應(yīng)當(dāng)如何界定?在效果裁量中,一萬元以上十萬元以下的處罰空間幅度賦予行政機關(guān)較大的行政處罰裁量權(quán),極易造成行政處罰畸輕畸重的情形。李強總理在國務(wù)院第十一次專題學(xué)習(xí)中明確指出,要圍繞法治政府建設(shè),建立健全行政執(zhí)法標(biāo)準(zhǔn)規(guī)范,落實行政裁量權(quán)基準(zhǔn)制度,針對基準(zhǔn)覆蓋不全面的問題,抓緊完善相關(guān)領(lǐng)域的裁量權(quán)基準(zhǔn)。隨意執(zhí)法、運動化執(zhí)法、行政執(zhí)法責(zé)任體系混亂的本質(zhì)原因在于缺乏明確的執(zhí)法依據(jù),對此網(wǎng)信、市場監(jiān)管等相關(guān)部門應(yīng)當(dāng)及時在《算法推薦管理規(guī)定》的基礎(chǔ)上,考慮新聞聚合平臺違法行為和可承受能力范圍,依據(jù)“過罰相當(dāng)原則”細(xì)化處罰限度,針對要件裁量中不確定法律概念進(jìn)行解釋,明確處罰依據(jù),從而建立明確的行政處罰責(zé)任規(guī)范體系。

        四、結(jié)語

        算法推薦技術(shù)引起了新聞傳播領(lǐng)域的重要變革,對用戶進(jìn)行賦權(quán),滿足了用戶的個性化需求,推動了新聞傳播向扁平化、精準(zhǔn)化階段發(fā)展。盡管目前算法技術(shù)在法律層面存在諸多潛在風(fēng)險,但是人工智能技術(shù)與新聞傳播深度耦合是未來不可避免的發(fā)展趨勢。因此在方針政策上對算法推薦新聞應(yīng)當(dāng)采取包容、審慎的態(tài)度,一方面要積極推動算法推薦新聞發(fā)展,另一方面要加強算法推薦新聞的法律規(guī)制,采用事前的穿透式監(jiān)管理念、保障用戶的信息自決權(quán)、完善民事行政法律責(zé)任規(guī)范體系,以保證算法推薦新聞在合法的軌道上順利推進(jìn)。未來,隨著強人工智能時代的來臨,算法的交互性、自主性、適應(yīng)性水平進(jìn)一步提高,人們接收新聞的途徑將更加便捷,法律風(fēng)險也會更加多元,相應(yīng)的法律規(guī)制措施應(yīng)當(dāng)與技術(shù)保持一致,進(jìn)行動態(tài)調(diào)整。

        [本文為2024年新疆維吾爾自治區(qū)高?;究蒲袠I(yè)務(wù)費科研項目“人權(quán)保障視角下新疆?dāng)?shù)字法治政府建設(shè)的內(nèi)涵、價值與路徑研究”(XJEDU2024J018)的階段性研究成果]

        參考文獻(xiàn):

        [1]杜娟.走向人機協(xié)同:算法新聞時代的新聞倫理[J].新聞愛好者,2019(9):21-25.

        [2]劉文杰.算法推薦新聞的法律透視[J].新聞記者,2019(2):22-29.

        [4]張文祥,楊林.新聞聚合平臺的算法規(guī)制與隱私保護[J].現(xiàn)代傳播(中國傳媒大學(xué)學(xué)報),2020(4):140-144+154.

        [4]王利明.論個人信息權(quán)在人格權(quán)法中的地位[J].蘇州大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2012(6):68-75+199-200.

        [5]馬特·卡爾森,張建中.自動化判斷?算法判斷、新聞知識與新聞專業(yè)主義[J].新聞記者,2018(3):83-96.

        [6]張凌寒.網(wǎng)絡(luò)平臺監(jiān)管的算法問責(zé)制構(gòu)建[J].東方法學(xué),2021(3):22-40.

        [7]張凌寒.平臺“穿透式監(jiān)管”的理據(jù)及限度[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2022(1):106-114.

        [8]劉海明.算法技術(shù)對傳統(tǒng)新聞理念的解構(gòu)與涵化[J].南京社會科學(xué),2019(1):117-124.

        [9]FLORIDIL,SANDERS JW.On the morality of artificial agents[J].Minds andMachines,2004(3):349-379.

        [10]彭誠信.人工智能與法律的對話[M].上海:上海人民出版社,2020:148.

        作者簡介:申艷紅,新疆大學(xué)法學(xué)院教授、博士生導(dǎo)師(烏魯木齊 830046);趙宣,新疆大學(xué)法學(xué)院博士生(烏魯木齊 830046)

        編校:張紅玲

        亚洲精品中文字幕二区| 国产真实强被迫伦姧女在线观看| 野花在线无码视频在线播放| 无遮挡中文毛片免费观看| 精品一区二区三区女同免费| 一区二区三区中文字幕脱狱者| 免费人成网站在线观看欧美| 亚洲va欧美va国产综合| 国产在线高清无码不卡| 成人国产高清av一区二区三区| 国产日产亚洲系列最新 | 亚洲男人av香蕉爽爽爽爽| 天堂Av无码Av一区二区三区 | 国产白浆一区二区三区性色| 亚洲中文字幕久久精品无码喷水| 亚洲综合自拍| 久久久亚洲精品蜜臀av| 一本色道久久亚洲综合| 无遮无挡爽爽免费毛片| 久久精品一品道久久精品9| 丰满人妻一区二区三区52| 亚洲av无码一区二区三区鸳鸯影院| 国产在线观看www污污污| 国产成人亚洲合集青青草原精品 | 中文字幕久久人妻av| 欧美老妇牲交videos| 秋霞午夜无码鲁丝片午夜精品| 9久9久女女热精品视频免费观看 | 中文字幕高清无码不卡在线| 国产激情在线观看免费视频| 人与动牲交av免费| 欧美精品中文| 国产一区二区三区在线观看免费版| 精品无码久久久久久久久水蜜桃| 人妻少妇精品视频一区二区三区 | 天堂8中文在线最新版在线| 日韩在线不卡一区在线观看| 天堂丝袜美腿在线观看| 亚洲娇小与黑人巨大交| caoporen国产91在线| 中文字幕日韩精品中文字幕|