亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能的意識形態(tài)危機及其治理探究

        2021-01-27 21:51:27王茹俊張寧寧
        社會科學動態(tài) 2021年4期
        關鍵詞:危機人工智能算法

        王茹俊 張寧寧

        人工智能(Artificial Intelligence,簡稱AI),1956 年由美國學者約翰·麥卡錫率先提出。人工智能是一門研究和開發(fā)用于模擬和拓展人類智能的理論方法和技術手段的新興科學技術,它是計算機科學的一個分支。它通過對人類意識、思維的信息過程的模擬,產生出新的能以人類智能相似方式做出反應的智能機器①。從誕生至今,人工智能獲得了革命性的發(fā)展,尤其21 世紀以來,人工智能技術日臻成熟,逐漸應用于人類生活生產的各個領域。習近平總書記指出:“人工智能是引領新一輪科技革命和產業(yè)變革的重要驅動力,正深刻改變著人們的生產、生活、學習方式,推動人類社會迎來人機協(xié)同、跨界融合、共創(chuàng)分享的智能時代?!雹谌斯ぶ悄艿目焖侔l(fā)展不但全面改變著人類的生產生活方式,而且深度影響著人們的交往思維方式,可以說人工智能正在明顯而深刻地影響著時代局勢和社會現(xiàn)實。與此同時,由于人工智能在全社會各領域的滲入融合,意識形態(tài)領域迎來新的危機。鑒于此,在人工智能時代,為進一步提高應對和引領人工智能發(fā)展的水平和能力,有必要對人工智能的意識形態(tài)危機進行梳理和分析,辯證把握應對危機的處理原則,并從多個維度探求人工智能意識形態(tài)危機治理的新路徑。

        一、人工智能的意識形態(tài)危機

        如馬克思所言:“在我們這個時代,每一種事物好像都包含有自己的反面。”③任何技術革新往往都帶有兩面性,人工智能亦是如此。人工智能在推動社會變革、促進時代進步的同時,意識形態(tài)領域也暗藏危機。倫理困境、傳播危局、信息繭房、數(shù)字鴻溝等暗流涌動,在很大程度上會對國家意識形態(tài)方面的安全造成嚴重影響。

        (一) 倫理困境:人工智能危及隱私安全和主體界定

        數(shù)據(jù)是人工智能的核心要素。人工智能時代,數(shù)據(jù)的運用在帶來效率提升和生活便捷的同時,也造成嚴重的倫理失范問題。首先,數(shù)據(jù)失范危及隱私安全。人工智能時代,每一個人的生活都被記錄著,各種信息收集器、數(shù)據(jù)采集器、應用軟件等智能平臺使人們的信息暴露無遺,隱私遺失往往就在轉瞬之間。與此同時,隨著云計算、大數(shù)據(jù)等技術的深入應用,使得現(xiàn)實中那些看似毫無關系、雜亂無章的信息結合起來,實現(xiàn)數(shù)據(jù)聯(lián)通與整合,在此基礎上進一步實現(xiàn)對人的生活習慣、行為方式、日常軌跡以及興趣愛好等信息的呈現(xiàn),這樣就能輕而易舉地讀出個人的“秘密”。因此,維護個人隱私、保障隱私泄露引起的權益問題就成為人工智能運用過程中的重要倫理問題。此外,數(shù)據(jù)往往容易和資本掛鉤,許多現(xiàn)實例子很好地證明了坐擁數(shù)據(jù)便贏得資本。當數(shù)據(jù)被賦予價值之后,數(shù)據(jù)盜竊、數(shù)據(jù)交易以及數(shù)據(jù)控制等行為就會層出不窮,直接加大個人隱私泄露的風險。美國學者丹·席勒曾認為,日常生活都會留下信息,“我們需要對此進行公開討論,共同探討決定我們的哪些信息可以被收集、被誰收集、作為何用”④。人工智能時代,個人隱私面臨重大挑戰(zhàn),數(shù)據(jù)失范問題值得警惕。其次,數(shù)據(jù)鏡像和智能機器人致使主體界定困難。在數(shù)據(jù)世界里,人被數(shù)據(jù)化,人的概念成為一串數(shù)據(jù)信息,進而在鏡像世界中造就一個數(shù)據(jù)的“人”?;谌斯ぶ悄芩惴?,人的年齡、身高、性別、職業(yè)、單位等固定性信息被加以數(shù)據(jù)描述,并且算法通過數(shù)據(jù)信息對人的喜好、興趣甚至深層想法進行數(shù)據(jù)整合與構建,試圖塑造出這個完整的數(shù)據(jù)“人”。然而,由于算法具有一定的現(xiàn)實框架,加之得到的數(shù)據(jù)信息并非具體完備,這就致使這個數(shù)據(jù)“人”和現(xiàn)實的人出現(xiàn)異質。進一步思考,我們就要考慮數(shù)據(jù)“人”的主體性問題,這個數(shù)據(jù)“人”是何種身份?他是否具有人的權利?以及數(shù)據(jù)“人”和現(xiàn)實人具有何種關系?此外,數(shù)據(jù)和算法下的主體界定問題還涉及智能機器人。與鏡像中的數(shù)據(jù)“人”相比,智能機器人是具有實體的,因而主體界定就更加復雜。智能機器人是否是擁有法律、道德意識與行為能力的主體?智能機器人引發(fā)違法犯罪后果由誰承擔?對以上這些人工智能發(fā)展帶來的難題,人們至今尚未達成統(tǒng)一共識。

        (二) 傳播危局:傳播革新引發(fā)社群區(qū)隔和意識危機

        人工智能時代,信息傳播方式和邏輯發(fā)生巨大變革,社會每一個體逐漸從主體變?yōu)榭腕w、由主動轉為被動。數(shù)據(jù)整合與算法推薦的大規(guī)模應用,導致人們的社會關系智能化的同時也逐漸虛擬化,進而引發(fā)社群隔絕和意識偏向。首先,信息定向傳播,引發(fā)社群區(qū)隔。大數(shù)據(jù)通過信息挖掘獲得個體的偏好信息,利用算法推薦定向給用戶推送與之相關的內容,很好地解決了信息量超載的問題。與此同時,這一模式的應用,在用戶之間筑起了隱形的“隔離墻”,不同偏好的群體被隔離在無形的自身興趣“空間”中,每個群體或個體所能接觸到的往往是自身期望或是感興趣的內容。簡言之,由于人工智能對偏好的隔離,不同興趣愛好人群間的溝通交流變得愈發(fā)困難。此外,伴隨著移動智能設備的普及更新,社群區(qū)隔表現(xiàn)更為普遍,影響也更加嚴重。以智能手機為代表的移動智能設備進一步豐富了信息傳播形式,同時移動智能設備作為信息傳播的載體,以有形的形式分隔開不同人群,“低頭族”的興起就是典型例子。每個人都沉浸在移動智能設備背后的信息世界里,獲取自己偏好的內容,并與同偏好的其他人進行勾聯(lián),生活在共同的興趣世界;反之,同現(xiàn)實世界的人缺乏聯(lián)系,形成現(xiàn)實的自我封閉,個體現(xiàn)實交往能力以及社群意識逐漸喪失,“社交恐懼癥”的出現(xiàn)就是現(xiàn)實表征。其次,海量數(shù)據(jù)充斥,造成意識形態(tài)困境。大數(shù)據(jù)和網(wǎng)絡信息技術的融合應用,催生網(wǎng)絡信息平臺的智能化。網(wǎng)絡信息平臺具有多元性和開放性的特征,它作為信息數(shù)據(jù)集中站,大量匯聚了來自不同國家地域、民族種族、階級立場等的聲音。在這個充斥海量信息的平臺上,人工智能固然能夠進行信息篩選與甄別,但對于信息內容真實性、可靠性的把握則往往無能為力,這就致使境外勢力瘋狂叫囂以及網(wǎng)絡水軍大肆造勢,嚴重影響主流意識形態(tài)建設。此外,許多以西方個人主義、享樂主義、自由主義等價值觀為核心的網(wǎng)絡言行,通過網(wǎng)絡信息平臺對人民群眾進行影響,甚至滲透,也對主流意識形態(tài)地位和安全造成了重大威脅。正如習近平總書記所言:“網(wǎng)絡安全威脅和風險日益突出,并日益向政治、經濟、文化、社會、生態(tài)、國防等領域傳導滲透?!雹?/p>

        (三) 信息繭房:算法推薦固化受眾個體偏好和意識

        美國學者桑斯坦最早提出“信息繭房”這一概念,認為在信息傳播過程中,“公眾只注意自己選擇的東西和使自己愉悅的東西。久而久之,會將自身束縛于像蠶繭一般的‘繭房’中”⑥。大數(shù)據(jù)技術的廣泛運用,使得人們的數(shù)據(jù)被收集、整合和分析。大數(shù)據(jù)對每個人的信息數(shù)據(jù)進行分析,形成個人“畫像”,這個“畫像”就是個體偏好的數(shù)據(jù)呈現(xiàn)。人工智能通過參考不同個體的“畫像”,利用算法推薦針對性推送信息資訊,使用戶只能接受自己興趣偏好內的內容;與此同時,用戶對自己偏好的內容也喜聞樂見,長此以往就固化了自身的價值偏向。而這種彼此的“迎合”就潛移默化地影響著主流意識形態(tài)安全。首先,“信息繭房”固化個體偏好,阻隔信息互動。算法推薦實現(xiàn)信息傳播由“普遍撒網(wǎng)”向“定點捕撈”轉變,信息內容由全盤信息變?yōu)榕d趣內容。在這種情況下,用戶失去了原來的信息挑選步驟,所有內容都是自己希望看到的、都是自己喜歡的,信息傳播就變成了定向傳播。當每個人都沉浸在自我偏好的信息內容里時,一堵無形的高墻便悄然筑起,無關偏好的信息被高墻阻隔,打破了信息的彼此流動,每個人都沉迷在自我的興趣“繭房”之中。就意識形態(tài)而言,不管是何人,一旦陷入“信息繭房”的危局,接收到的信息往往是偏向性甚至是極端性的。鑒于個人對主流意識形態(tài)內容缺乏偏向,算法推薦時往往自動進行過濾和篩除,盡可能剔除這類用戶“不感冒”的內容。長此以往,用戶對主流意識形態(tài)信息的接收量就會愈來愈少,社會個體就越來越疏離主流意識形態(tài)內容。其次,“信息繭房”削弱個體“獨奏”,脫離主流意識空間。德國學者諾伊曼認為優(yōu)勢意見占明顯的主導地位,則其他的意見就會從公共圖景中完全消失⑦。在“信息繭房”中,每一個體不斷接收著自我偏好的信息內容,進而缺乏不同信息的交換流動,久而久之自己的思想就可能逐漸與接收的思想靠攏,自我的思考往往被偏好信息“牽著鼻子走”,最終失去獨立思考的意識與能力。同時,偏好信息在受眾眼里處于絕對強勢地位,受眾往往容易產生“思想共鳴”,導致與之不符的內容就會被忽略和拋棄。如果主流意識形態(tài)內容在算法推薦中處于弱勢一方,自然而然就在受眾面前陷入“沉默”,最終個體自身就會滑向社會主流邊緣,脫離主流意識空間。

        (四) 數(shù)字鴻溝:技術優(yōu)勢影響意識話語和民主政治

        傳統(tǒng)意義上,“數(shù)字鴻溝”描述了“信息通信技術在普及和使用中的不平衡現(xiàn)象,這種不平衡既體現(xiàn)在不同國家之間,也體現(xiàn)在同一個國家內部的不同區(qū)域、不同人群中”⑧。人工智能時代,智能技術的發(fā)展和應用導致了不同主體之間出現(xiàn)技術差距,同時引發(fā)實體智能設備的使用差異,“數(shù)字鴻溝”由此產生?!皵?shù)字鴻溝”的出現(xiàn),技術水平和使用能力出現(xiàn)差距,嚴重影響意識形態(tài)話語權構建和民主政治的發(fā)展。首先,算法技術控制輿論,主導意識形態(tài)話語權。算法作為一種技術,并非是一種完全中立的存在,它能夠依據(jù)設計者的意識對某些權重進行調整,進而改變信息推送內容,影響輿論效果、改變輿論風向?!皵?shù)字鴻溝”下,技術優(yōu)勢方通過控制媒體平臺,將符合自身利益或計劃向公眾傳遞的內容進行算法推薦,傳遞自身的思想觀念,進而控制意識形態(tài)話語權。如2016 年英國脫歐公投中,資本優(yōu)勢集團通過控制媒體資源,實現(xiàn)了掌控民意和煽動民憤的目的。此外,由于以美國為首的西方國家掌握核心數(shù)據(jù)技術,長期控制網(wǎng)絡根服務器,致使輿論大旗一直握在西方陣營手中。西方陣營通過數(shù)據(jù)技術優(yōu)勢不斷獲取和分析來自世界各地的各種數(shù)據(jù)資料,進而通過算法推薦宣揚其政治理念與文化思想,致使西方意識形態(tài)在全球廣泛傳播,對其他國家的意識形態(tài)建設造成嚴重影響。其次,技術優(yōu)勢影響政治,阻礙民主政治發(fā)展?!皵?shù)字鴻溝”在民主政治上的影響主要體現(xiàn)為組織分化和權力集中。人工智能技術的應用,使民眾能夠通過網(wǎng)絡平臺、移動智能設備等新型載體參與政治生活。然而,民眾的融入程度往往受到現(xiàn)實條件的制約,相比技術使用弱勢群體而言,技術使用優(yōu)勢群體就可以優(yōu)先獲取信息、及時參與表達,進而將弱勢群體排除在主流意識之外,變成“沉默一族”、喪失政治話語權,致使技術使用弱勢群體逐漸邊緣化。此外,由于人工智能的成本問題,大型利益集團往往占據(jù)政治權力中心。利益集團通過數(shù)據(jù)平臺對民眾信息進行抓取,整合民眾偏向和把握個體心理。而控制了數(shù)據(jù)與算法就能占據(jù)絕對主導權,就能將不具有此類智能技術的其他集團排除在政治參與之外。因此,這樣操縱人工智能進而占據(jù)政治參與優(yōu)勢的現(xiàn)象,嚴重危害民主政治建設。

        二、人工智能意識形態(tài)危機的治理原則

        如上所述,人工智能在為人類社會帶來便捷的同時,也對意識形態(tài)建設造成巨大沖擊。盡管當前尚處于“弱人工智能”階段,但是對人工智能的意識形態(tài)危機必須加以治理,否則后患無窮。人工智能意識形態(tài)危機治理,必須要堅持預防性、整體性、針對性和時代性原則。

        (一) 預防性原則:做好道德“嵌入”和危機預測

        危機治理,更多的是事后分析、補救和解決,但同時也要考慮前期的預防預測,這就要求體現(xiàn)預防性治理原則的重要性。預防性原則,主要就是做好人工智能意識形態(tài)危機的前期預防和危機估測,做到防范于未然。首先,實現(xiàn)技術預設,具體方式就是人工智能的道德“嵌入”。道德“嵌入”指在技術設計時將特定的道德原則“嵌入”到人工制品的結構或功能中,引導和規(guī)范使用者的行為和決策⑨。道德“嵌入”主要體現(xiàn)在人工智能技術的開發(fā)時期,即在技術設計中預先將道德原則植入技術內部,使之在后續(xù)成品中呈現(xiàn)出來,實現(xiàn)對人工智能及其產品的規(guī)制。道德“嵌入”放在人工智能意識形態(tài)危機治理上,主要就是意識形態(tài)的預先“嵌入”。一方面是技術設計者的主流意識形態(tài)灌輸。通過對設計者進行意識形態(tài)教育,培育意識形態(tài)自覺、樹立正確道德意識,事先在源頭“打好預防針”。做好技術設計者的意識形態(tài)“嵌入”,有助于確保設計出的技術及其產品擺脫意識形態(tài)危機。另一方面做好意識形態(tài)的技術內容“嵌入”,實現(xiàn)主流意識形態(tài)內容與算法程序、數(shù)據(jù)庫等技術的有機融合,保證人工智能產品符合主流道德思潮、遵從主流意識形態(tài)。其次,開展危機預測,具體措施就是開展人工智能危機評估。在人工智能發(fā)展的同時,對人工智能在不同領域的應用進行排查評估,做好風險預測評估,提前形成危機治理預案。尤其對人工智能在傳播行業(yè)的應用更應該加大風險預測力度。媒體是意識形態(tài)傳播的最佳載體,人工智能的運用促使信息傳播發(fā)生重大變革,對意識形態(tài)建設的挑戰(zhàn)不言而喻。做好意識形態(tài)危機預測,提前防范人工智能風險,是危機治理的重要原則。

        (二) 整體性原則:全面掌控大局和系統(tǒng)采取措施

        人工智能的意識形態(tài)危機治理,作為一項重大的系統(tǒng)工程,涉及的問題必然駁雜繁復。就此而言,在治理過程中就要堅持整體性的治理原則,以整體性和全局性的戰(zhàn)略眼光看待問題,確保治理過程成為一個全面系統(tǒng)的整體。首先,全面掌控治理大局,把握各領域危機。如習近平總書記所言,“意識形態(tài)工作是黨的一項極端重要的工作”⑩,失去意識形態(tài)話語權,將喪失意識形態(tài)高地,嚴重危及國家安全和社會穩(wěn)定。因此,面對人工智能的意識形態(tài)危機,不能片面簡單應對,而是要全面把握危機全貌,將危機作為一個整體進行治理。人工智能影響領域復雜、涉及范圍廣泛,從新聞傳播行業(yè)到設備制造行業(yè),無處不見其身影,在治理過程中必須將每一領域都納入考慮范疇,防止“漏網(wǎng)之魚”出現(xiàn)。同時,還要準確把握人工智能的發(fā)展規(guī)律和基本特點,深入掌握人工智能的技術邏輯、操作邏輯,為科學治理危機做好技術準備。其次,系統(tǒng)采取治理措施,確保策略全面覆蓋。鑒于人工智能意識形態(tài)危機覆蓋廣,與之對應的治理措施應當系統(tǒng)全面。一方面從政治、經濟、文化、科技和社會等方面制定治理方案,深入考慮每一領域的總體情況,確保各領域都納入管理。另一方面以行業(yè)為整體實施治理策略,全面考慮新聞傳播、科學研究、產業(yè)制造、金融服務以及教育文化等行業(yè),保障治理方案涉及全局。此外,還要考慮人工智能產業(yè)的整體情況,把握好人工智能領域與其他領域的關系,更好地為制定治理策略和實施治理方案提供指導。

        (三) 針對性原則:治理重點領域和針對具體細節(jié)

        人工智能通過跨越學科界限,進而實現(xiàn)多學科的高度交叉性,并且在深度學習與計算中實現(xiàn)數(shù)據(jù)處理的專業(yè)性,實現(xiàn)與不同行業(yè)與產業(yè)的深度融合,最終對整個經濟社會發(fā)展進行滲透?。加之,當前科學技術日新月異的變革,人工智能早已融入各行各業(yè)。因此,人工智能的意識形態(tài)危機范圍之廣早已毋庸諱言。鑒于此,在實現(xiàn)整體性把握的前提下,人工智能意識形態(tài)危機治理還要注意針對性施策,做到具體問題具體分析,確保具體行業(yè)、重點領域的危機化解。首先,關注重點領域,著重治理危急行業(yè)。盡管危機治理需要全面系統(tǒng),但鑒于涉及行業(yè)的危急程度不同、影響力度不一,在危機治理過程中就要講求輕重緩急,將危急領域納入重點治理和優(yōu)先治理范圍,著重解決此類行業(yè)的意識形態(tài)危機。如新聞傳播領域,作為意識形態(tài)傳播的重要領域,在與人工智能融合應用的過程中必然導致眾多意識形態(tài)問題;并且由于行業(yè)的特殊性,這些問題帶來的后果和危害往往不可估量。因此,加大重點領域危機治理,是實現(xiàn)整體把控、全局治理的關鍵。其次,針對具體細節(jié),處理好現(xiàn)實性問題。俗話說:細節(jié)決定成敗,危機治理亦要遵守這個原則。人工智能的意識形態(tài)危機,絕大部分都是細節(jié)性甚至是隱性問題,這些問題看似無足輕重,實則影響重大。針對具體危機細節(jié)實施有力治理措施,才能實現(xiàn)治理大局的穩(wěn)固堅實。如在處理智能機器人的倫理問題時,就要重視一系列細節(jié)問題,無論是機器人的主體問題,還是機器人犯罪問題,都要納入具體考慮。只有考慮到每一個具體細節(jié),危機化解才能全面徹底。

        (四) 時代性原則:治理過程和效用順應時代發(fā)展

        馬克思說過:“隨著新生產力的獲得,人們改變自己的生產方式,隨著生產方式即謀生的方式的改變,人們也就會改變自己的一切社會關系。”?不同的歷史條件、時代狀況,往往對應著不同的生產方式。進一步而言,面對不同的時代問題,我們應該采取不同的應對手段。人工智能時代是一個科技快速發(fā)展的時代,社會各方面發(fā)生了翻天覆地的變化,社會生產力得到顯著提高,社會生產關系發(fā)生重要變革。治理人工智能的意識形態(tài)危機,就要順應時代特征,以符合時代發(fā)展的方式開展治理工作。俗語說:“解鈴還須系鈴人。”治理人工智能的意識形態(tài)危機,最主要還是回歸時代本身,遵守新時代下人工智能發(fā)展邏輯。簡言之,人工智能的意識形態(tài)危機治理應當遵循時代性原則,應該順應時代特征、符合時代潮流。首先,順應時代發(fā)展變化,緊跟時代步伐。人工智能時代是一個科技與政治、經濟、文化、社會以及生態(tài)等融合發(fā)展的時代,各行業(yè)、各領域發(fā)生重要革新,社會結構出現(xiàn)變革。與此同時,智能移動設備和移動互聯(lián)網(wǎng)的迅猛發(fā)展和全面普及,人民群眾的網(wǎng)絡參與度大大提升,人工智能意識形態(tài)危機的影響更為廣泛和深遠。因此,危機治理就要充分考慮這些時代特點,針對時代特征采取應對方案,確保治理過程符合時代狀況、治理手段遵守時代邏輯、治理標準順應時代要求。其次,實現(xiàn)治理效果推進時代發(fā)展。人工智能的意識形態(tài)危機治理是當前人類面臨的時代課題,完成這個課題就是完成時代答卷,就是為時代發(fā)展掃清障礙。因此,在危機治理中,要切實做好危機治理效果評估,通過對經濟、社會、環(huán)境和人的影響進行分析,充分綜合考慮近期效果與遠期利益,推動危機治理效果對時代發(fā)展的正向助力。危機治理,就是為人工智能時代下人類社會發(fā)展解除制約和危局,使時代進步擺脫意識形態(tài)困境,助力技術邏輯和人類價值的融合統(tǒng)一。

        三、人工智能意識形態(tài)危機的治理路徑

        人工智能作為新時代的新興產物,對主流意識形態(tài)安全構成了威脅;加之人工智能所帶來的挑戰(zhàn),不是任何單一方式就能應對的。因此,必須采取科學有效的措施,從多個維度上進行協(xié)同治理,發(fā)揮好人工智能的積極作用,化解意識形態(tài)危機。

        (一) 技術改進:完善人工智能技術,化解意識形態(tài)危機

        技術治理是人工智能意識形態(tài)危機治理的起點。算法、數(shù)據(jù)等是人工智能的技術基礎,圍繞這些基礎性技術建立和完善相應的治理體系和治理機制,是當前危機治理的應有之義。首先,完善算法技術,擺脫信息桎梏。如上文所述,算法推薦模式的運用形成了“信息繭房”,嚴重阻隔信息流動,致使用戶偏向受到固化而發(fā)生社群區(qū)隔。面對算法技術帶來的危機,有必要對算法進行內部技術矯正,從源頭消除危機與隱患。例如,在算法中植入矯正信息、提升推進精度,以及通過反向糾錯實現(xiàn)信息多元合理,進而減少偏好固化。同時,從技術層面提升用戶的主體性,讓用戶在獲取信息時能夠進行自我調控和分析,真正知道自己的興趣偏好,確保自身不被算法推薦引入歧途。例如,通過技術實現(xiàn)用戶偏好測試系統(tǒng)的構建,使用戶能夠真實把握自己的興趣愛好,能夠主動對算法推薦的信息進行自我匹配和甄別,實現(xiàn)信息與人的真正契合。其次,改進數(shù)據(jù)技術,防止倫理失范。人工智能是建立在大數(shù)據(jù)基礎上的,危機治理需要重點圍繞大數(shù)據(jù)開展,做到充分考慮數(shù)據(jù)供應者隱私、數(shù)據(jù)使用和數(shù)據(jù)價值分配等問題。數(shù)據(jù)供應者隱私問題,是意識形態(tài)危機最為明顯的現(xiàn)實表現(xiàn),也是社會最為關注的倫理問題。因此,數(shù)據(jù)技術治理的關鍵就是要消除用戶隱私危機,讓用戶有自己的“秘密”。例如,規(guī)范數(shù)據(jù)抓取技術標準,完善數(shù)據(jù)保密技術,設置用戶數(shù)據(jù)保護底線等。同時數(shù)據(jù)技術治理還要處理數(shù)據(jù)使用和數(shù)據(jù)分配問題,規(guī)范數(shù)據(jù)使用范圍、確保數(shù)據(jù)價值分配主體的平衡,保障技術層面的公正平等??偠灾?,擺脫人工智能的意識形態(tài)危機,首先應完善人工智能技術,從內部技術矯正出發(fā)降低不良影響。

        (二) 人文彌補:加強人類把關作用,彌補人工智能缺陷

        “技術進化也是一個不斷被選擇、被發(fā)展、被強化的過程,起決定作用、掌握進化方向的還是人?!?同理,人工智能作為一種新技術,其意識形態(tài)危機治理雖然有賴于技術本身的內部矯正,但是技術在實踐運用中的問題更為復雜,單單依靠技術本身往往是不充分、不完整的,某些實踐中的問題還需要人類的外部把關才能解決。據(jù)此,人類的合理介入是有必要的,通過發(fā)揮人類的把關作用,充分彌補人工智能的不足。首先,發(fā)揮好人類的把關作用,引導人工智能良性發(fā)展。眾所周知,當前的人工智能還處于“弱人工智能”階段,算法處理能力、數(shù)據(jù)甄別水平以及智能機器處理能力尚有限,尚未達到實現(xiàn)價值判斷的高層次。因此,內容把關、信息管理和數(shù)據(jù)整理還不能完全交由人工智能,必須將人類把關貫穿人工智能應用全程,以實現(xiàn)人文價值對工具理性的彌補和完善。例如,在新聞傳播領域,媒體人必須切實負起把關職責,對智能機器寫作進行校正、對算法推薦新聞做出篩查,實現(xiàn)人機良性合作,以保證新聞質優(yōu)和信息精準。其次,重視技術設計者的意識形態(tài)教育,提升人文價值引領。研究技術,還要關注技術背后滲透的人類價值觀。人工智能技術設計者的意識可能會有意無意地融入到技術之中,進而成為意識形態(tài)隱患。鑒于此,必須加強技術設計者的主流意識形態(tài)教育,確保技術外部因素符合主流倫理價值,化解外部意識形態(tài)危機,提升主流價值觀對技術的引領。同時,還要注意人文精神在技術中的彰顯,確保人類價值與技術邏輯深度融合,不斷彌補技術帶來的價值阻隔,預防技術下的倫理失范問題。

        (三) 政治規(guī)制:健全相關政策制度,引領意識形態(tài)話語

        “有預見的政府做兩件根本性的事情。它們使用少量錢預防,而不是花大量錢治療;它們在做出決定時,盡一切可能考慮到未來?!?由此可見,一個有預見、高效的政府機構能夠對危機實施強有力的、預見性的政策措施。在人工智能意識形態(tài)危機治理過程中,政府的政治規(guī)制作用至關重要,一套科學有效的政策和管理機制,往往關乎意識形態(tài)建設成敗。首先,完善相關政策制度,加強人工智能平臺監(jiān)管。技術研發(fā)平臺是人工智能的初始平臺,應該加強對該平臺的政治監(jiān)管,在源頭進行意識形態(tài)把控,使得技術研發(fā)遵循國家政策制度,清除意識形態(tài)隱患。此外,網(wǎng)絡信息平臺作為意識形態(tài)傳播的重要陣地,也應該重點實施政治監(jiān)管。智能網(wǎng)絡技術的不斷革新和移動設備的快速普及,使得每個人都成為“網(wǎng)絡發(fā)聲器”,每個人的聲音都能產生一定效果,這就造成網(wǎng)絡平臺上信息繁雜、內容混亂。只有強化政治管控,實施嚴格規(guī)范的政策制度,才能很好地化解網(wǎng)絡意識形態(tài)危機,營造風清氣正的輿論環(huán)境,維護主流意識形態(tài)話語權。此外,還要加強人工智能產品的政策規(guī)約,確保相關產品符合國家制度,符合政策導向。其次,提升政府運用能力,強化政府管控力度。人工智能時代的到來,為政黨發(fā)展迎來前所未有的良好機遇,既為提升政黨能力提供了重要途徑,又為主流意識形態(tài)宣揚準備了全新平臺。如習近平總書記所言:“各級領導干部要努力學習前沿知識,把握人工智能發(fā)展規(guī)律和特點,加強統(tǒng)籌協(xié)調,加大政策支持,形成工作合力?!?政府機關要不斷加強人工智能相關知識的學習運用,通過“人工智能+黨建”、“人工智能+政務”等新模式,提升政府部門的治理能力。同時,政府部門應不斷實現(xiàn)技術管理優(yōu)化,提升“智能監(jiān)管”能力,主動運用人工智能平臺進行主流意識形態(tài)宣傳。

        (四) 法治約束:推進法治制約規(guī)范,加強違法懲治力度

        面對人工智能導致的意識形態(tài)問題,應在政府主導下建立與之對應的法律法規(guī)??v覽全球,許多發(fā)達國家已經率先實現(xiàn)人工智能的立法定規(guī)。例如,美國提出了“算法問責”法案,對機器學習系統(tǒng)、敏感數(shù)據(jù)等進行規(guī)范;英、法、澳等國則通過立法等相關形式,規(guī)定科技企業(yè)應該對算法負責。我國針對人工智能也制定了一些相關規(guī)定,對人工智能相關領域進行規(guī)范。如2017 年國務院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》,明確要求重視人工智能帶來的風險,加強風險預測、前瞻預防和約束引導。然而,不得不說的是目前我國人工智能的專門性法律法規(guī)還處于空白狀態(tài),缺乏一套完整的人工智能專門性法律規(guī)范。同時,現(xiàn)有規(guī)劃屬于總體性文件,尚未具體涉及人工智能相關領域的細節(jié)性問題,如人工智能市場準入規(guī)制、監(jiān)管制度等的缺失與不足。鑒于此,推進法律法規(guī)不斷完善和進步,加強違法懲治力度勢在必行。首先,完善法律法規(guī),實現(xiàn)人工智能的法律全覆蓋。當前,法律空白和法律粗糙是主要問題,嚴重導致不法分子有機可乘、危機隱患趁虛而入。立法部門應該充分研究人工智能各個方面,細化相關細節(jié)領域,針對具體技術進行立法,填補小微領域和隱蔽空間的法律空缺,實現(xiàn)法律法規(guī)對人工智能的全局性規(guī)范。同時,針對已有法律條款,結合技術發(fā)展態(tài)勢和現(xiàn)狀,完善相關法律的具體內容,祛除不切實際、不合時宜的相關條文,推進法律精細化、規(guī)范化和實踐化。其次,加強違法懲治,推進人工智能應用規(guī)范合法。一是法律懲治要嚴,通過加強對違法平臺和不良信息的懲處力度,在全社會形成示范作用和震懾效果,樹立法律權威。二是法律懲治要廣,堅持違法主體全覆蓋,不論大小強弱,一律嚴格處理,全面監(jiān)管所有人工智能的應用主體,防止“漏網(wǎng)之魚”出現(xiàn)。法律的嚴格懲治是促進形成良好風尚的必要手段,只有通過法律權威形成震懾,才能使不良內容、違法行為得到遏制,為主流意識形態(tài)建設掃清障礙。

        (五) 社會監(jiān)督:強化公眾認知水平,培養(yǎng)社會監(jiān)督意識

        人工智能的意識形態(tài)危機,作為一個全社會面臨的重要問題,實施有效治理還有賴于全社會的共同力量。社會力量主要表現(xiàn)為公眾監(jiān)督?!皩θ斯ぶ悄艿谋O(jiān)督并不是限制人工智能發(fā)展,而是保障其健康可持續(xù)發(fā)展,更好地為人類服務。”?當前,培養(yǎng)公眾的社會意識,發(fā)揮公眾社會監(jiān)督作用,對于人工智能的意識形態(tài)危機治理大有裨益。首先,強化公眾認知水平,提升人工智能的知識素養(yǎng)。對一個事物是否了解,決定了人們是否會去關注它的具體情況。人工智能作為新興事物,社會公眾對其認知必然是有一定局限的,絕大多數(shù)人對算法、大數(shù)據(jù)、智能機器人、移動互聯(lián)網(wǎng)等等都是云里霧里、一知半解;進而往往對人工智能帶來的問題和危機缺少辨識和防護能力。所以說,只有增強公眾對人工智能的系統(tǒng)認知,了解其基本原理、技術構成以及應用場景等知識,才能很好地提高公眾對人工智能的關注度和興趣點,也才能為形成監(jiān)督作用奠定基礎。其次,培育社會監(jiān)督意識,發(fā)揮公眾監(jiān)督作用。在信息傳播中,公眾既是信息的接收者,更是信息的傳播者;在智能產品使用中,公眾既是技術的受益者,又是危機的潛在影響者??梢哉f,公眾貫穿于人工智能應用的各個場景。鑒于此,培養(yǎng)社會公眾的監(jiān)督意識、發(fā)揮好社會公眾對人工智能應用的現(xiàn)實監(jiān)督,對于人工智能的意識形態(tài)危機治理尤為重要?,F(xiàn)實生活中,相關單位可以利用網(wǎng)絡宣傳擴大人工智能的公眾認知,通過教育培訓增強人工智能的大眾理解,進而增強社會公眾對人工智能的敏感度,以很好地發(fā)揮好社會公眾的監(jiān)督作用??偠灾仨毻ㄟ^實現(xiàn)社會公眾對人工智能的全面監(jiān)督,將社會價值融合進入技術邏輯之中,促進社會價值與技術邏輯的雙向整合,進而實現(xiàn)意識形態(tài)危機的化解。

        注釋:

        ① 參見陳晉: 《人工智能技術發(fā)展的倫理困境研究》,吉林大學2016 年碩士學位論文。

        ②《習近平向國際人工智能與教育大會致賀信》,《中國衛(wèi)生信息管理雜志》2019 年第3 期。

        ③? 《馬克思恩格斯選集》 第1 卷,人民出版社1995 年版,第 775、142 頁。

        ④ 王建峰: 《告別信息崇拜 解構數(shù)字資本主義——訪美國伊利諾伊大學厄巴納—香檳分校教授丹·席勒》,《中國社會科學報》2017 年1 月19 日。

        ⑤ 習近平:《在網(wǎng)絡安全和信息化工作座談會上的講話》,《人民日報》2016 年4 月26 日。

        ⑥[美]凱斯·桑斯坦:《網(wǎng)絡共和國》,黃維明譯,上海人民出版社2003 年版,第6—10 頁。

        ⑦ 參見[德] 諾埃勒·諾依曼: 《沉默的螺旋:輿論——我們社會的皮膚》,董璐譯,北京大學出版2013 年版,第5 頁。

        ⑧ 胡鞍鋼,周紹杰:《新的全球貧富差距:日益擴大的“數(shù)字鴻溝”》,《中國社會科學》2002 年第3 期。

        ⑨ 參見程海東:《人工智能的不確定性及其治理探究》,《自然辯證法研究》2020 第2 期。

        ⑩ 習近平:《習近平談治國理政》,外文出版2014年版,第153 頁。

        ? 參見張風帆:《人工智能時代的前景研究》,《云南社會科學》2020 第1 期。

        ? 陳昌鳳、霍婕:《權力遷移與人本精神:算法式新聞分發(fā)的技術倫理》,《新聞與寫作》2018 年第1 期。

        ? [美] 戴維·奧斯本、特德·蓋布勒: 《改革政府——企業(yè)精神如何改革公營部門》,周敦仁等譯,上海譯文出版社1996 年版,第205 頁。

        ? 習近平:《加強領導做好規(guī)劃明確任務夯實基礎推動我國新一代人工智能健康發(fā)展》,《人民日報》2018年 11 月 1 日。

        ? 王軍: 《人工智能的倫理問題:挑戰(zhàn)與應對》,《倫理學研究》2018 年第4 期。

        猜你喜歡
        危機人工智能算法
        基于MapReduce的改進Eclat算法
        Travellng thg World Full—time for Rree
        高等教育的學習危機
        英語文摘(2019年4期)2019-06-24 03:46:08
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        進位加法的兩種算法
        人工智能與就業(yè)
        IT經理世界(2018年20期)2018-10-24 02:38:24
        停電“危機”
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 16:51:29
        一種改進的整周模糊度去相關算法
        亚洲色图片区| 中文字幕无码免费久久99| 亚洲三区二区一区视频| 日本少妇爽的大叫高潮了| 日本av一区二区三区四区| 亚洲av成熟国产一区二区| 18禁止看的免费污网站| 小鲜肉自慰网站| 精品久久久久久无码国产| 无码片久久久天堂中文字幕 | 精品一区二区三区免费播放| 学生妹亚洲一区二区| av少妇偷窃癖在线观看| 亚洲av一区二区三区网站| 午夜免费观看日韩一级片| 亚洲人成网站在线播放2019| 免费a级作爱片免费观看美国| 国产精品.xx视频.xxtv| 亚洲欧美国产日产综合不卡| 人妻少妇精品视频中文字幕国语| 日韩一区二区三区熟女| 人妻丝袜中文无码av影音先锋专区| 香蕉人人超人人超碰超国产 | 99久久婷婷国产综合精品青草免费| 国产最新进精品视频| 亚洲区小说区图片区qvod伊| 亚洲AV永久无码精品表情包| 国产我不卡在线观看免费| 麻豆资源在线观看视频| 国产人妻精品无码av在线 | 麻豆国产乱人伦精品一区二区| 熟女丝袜美腿亚洲一区二区三区| 激情久久黄色免费网站| 国产精品无码素人福利不卡| 亚洲国产韩国欧美在线| 国产成人亚洲综合无码精品| 中文字幕av久久激情亚洲精品| 亚洲天堂av一区二区| 国产成人无码精品久久久露脸 | 亚洲三级香港三级久久| 亚洲国产都市一区二区|