亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        負責任的人工智能:技術倫理危機下AIGC的治理基點

        2024-05-08 00:23:59陳建兵
        關鍵詞:人工智能用戶模型

        陳建兵,王 明

        西安交通大學 馬克思主義學院, 陜西 西安 710049

        2022年底,人工智能技術在世界范圍內迎來一次全新“發(fā)展期”——OpenAI公司旗下ChatGPT的問世備受矚目,成為大型語言模型處理技術正式走向應用領域的里程碑。隨著以ChatGPT為標志的自動化程度高且使用門檻較低的生成式人工智能(AIGC)技術的出現(xiàn),其在自動駕駛、醫(yī)療診斷、金融分析等領域的某些方面的表現(xiàn)甚至超越人類,這讓人類看到AIGC在諸多領域應用的巨大潛力和光明前景。然而,AIGC能在不經(jīng)過人類監(jiān)管的情況下自主生成大量文本和內容,可能會導致虛假信息傳播、隱私泄露以及其他潛在的社會問題。誰該為AIGC造成的傷害負責?這是人類使用AIGC時的普遍擔憂。

        推進人工智能技術從“生成式”邁向“負責任”已經(jīng)在全球范圍內基本達成共識。發(fā)展負責任的人工智能需要重新為人工智能技術“立規(guī)矩”。那么,何時立負責任的規(guī)矩較為妥當?怎樣兼顧AIGC技術的倫理規(guī)范與創(chuàng)新發(fā)展?各國學界、政府部門以及人工智能企業(yè)已經(jīng)意識到監(jiān)管的緊迫性,試圖建立對AIGC的倫理治理框架。2023年3月29日,美國生命未來研究所發(fā)表公開信,呼吁所有人工智能試驗室立即停止研發(fā)比GPT-4能力更強的人工智能系統(tǒng),停止時長至少6個月,以便給予充分的時間進行安全性和倫理性評估。這份公開信得到了人工智能領域眾多專家和企業(yè)高層的支持,包括人工智能“泰斗”級人物辛頓、曾是OpenAI聯(lián)合創(chuàng)始人的Musk、StabilityAI首席執(zhí)行官莫斯塔克等在內的1 000多人簽署了這份公開信。此外,公開信還建議各個試驗室和專家合作,針對人工智能的設計和開發(fā)建立共享安全協(xié)議,并由獨立的外部專家監(jiān)督,確保人工智能系統(tǒng)“安全、無可置疑”。2023年3月30日,聯(lián)合國教科文組織發(fā)表聲明,呼吁各國政府簽署《人工智能倫理問題建議書》,旨在促進人工智能為人類、社會、環(huán)境以及生態(tài)系統(tǒng)服務,并預防其潛在風險。2023年6月14日,歐洲議會投票通過了《人工智能法案》授權草案,從人工監(jiān)管、隱私、透明度、安全、非歧視、環(huán)境友好等方面全方位監(jiān)管人工智能系統(tǒng)的開發(fā)和使用,詳細規(guī)定了各個市場參與者的義務。這份授權草案的立法目的重在監(jiān)管人工智能產(chǎn)品的開發(fā)者和提供者,從而減輕用戶的使用風險??梢?加強人工智能技術倫理危機治理研究,對于促進人工智能技術從“生成式”邁向“負責任”,推進AIGC技術可持續(xù)發(fā)展具有重要意義。

        一、人工智能技術倫理爭論與“負責任的人工智能”的提出

        人工智能技術迅猛發(fā)展,特別是AIGC技術的強大應用潛力以及帶來的巨大經(jīng)濟效益,促使人工智能巨頭企業(yè)爭搶“技術”研發(fā)高地,不斷推進技術迭代進步。然而,隨著AIGC功能日益強大且使用場景逐漸增多,其造成的虛假信息傳播、用戶數(shù)據(jù)泄露、用戶隱私侵犯、機器事故以及社會犯罪等一系列技術倫理風險也在增加,使得人們開始關注AIGC存在的潛在風險、產(chǎn)生的負面影響以及誘發(fā)的技術倫理危機。因此,人工智能發(fā)展史上關于人工智能技術是否中立的討論再次進入大眾視野。尤其隨著AIGC負面影響的逐漸顯現(xiàn),人們對AIGC發(fā)展需要規(guī)制和引導的呼聲越來越高,要求政府和人工智能企業(yè)對AIGC進行“負責任”治理。基于此背景,“負責任”成為AIGC技術倫理的治理趨勢。

        (一)人工智能發(fā)展中關于“技術是否中立”的爭論

        科學技術的發(fā)展以及由此引發(fā)的科技倫理問題的爭論由來已久。當科學技術的發(fā)展進入到人工智能這一階段時,關于人工智能“技術是否中立”也存在爭議,主要有四種觀點。

        一是技術中立論。在人工智能問世初期,由于其智能程度有限,學者大多持“技術中立”態(tài)度,認為人工智能技術本身是中立的,只是設計者和使用者將個人目的施加于機器上。人工智能“技術中立”觀點源于美國計算機科學家Bush,他于1945年發(fā)表了《我們的未來》,提出了科學技術的發(fā)展只是為人類服務,而不是為了謀取政治權力和利益?!凹夹g中立”思想在相當長的時期內影響著人們對待人工智能技術的態(tài)度。例如,1984年美國環(huán)球影片公司(Universal Picture)訴索尼公司案、2016年“快播案”引發(fā)的“菜刀理論”之爭,都是人工智能“技術中立”觀點的體現(xiàn)。這些案例的立論基礎是:技術本身是中立的,技術沒有承擔道德責任的義務。盡管“技術中立”的觀點在當前人工智能領域仍然存在,但是隨著人工智能技術的迅猛發(fā)展、人工智能倫理問題的日益凸顯,人工智能“技術中立論”逐漸喪失說服力。

        二是技術批判論。技術批判論者認為,人工智能技術不可能完全中立,因為技術的設計和應用都要受到人類價值觀和利益的影響。人工智能技術批判論者的代表性人物是美國計算機科學家Lanier,他對“技術中立”的觀點進行了批判。此外,美國學者Lessig的《代碼2.0:網(wǎng)絡空間中的法律(修訂版)》以及Winner的《自主性技術:作為政治思想主題的失控技術》也對“技術中立論”進行了批判。他們認為人工智能技術并非完全中立,它可能受到開發(fā)者的偏見、數(shù)據(jù)的偏倚以及算法的設計等因素的影響,從而導致技術的偏向和不公平。

        三是技術決定論。技術決定論者認為,人工智能技術的中立性是有限的,它可能會對社會造成不平等和不公正的影響,同時它的發(fā)展和應用會對社會產(chǎn)生深遠的影響,從而改變社會結構和人類行為,持這種觀點的代表人物是Kuzweil。2006年,Kuzweil在《靈魂機器的時代》一書中提出了“技術加速”的概念,在他看來,人工智能技術呈指數(shù)級增長會引發(fā)重大的文化轉變和社會變革,甚至對社會和人類產(chǎn)生決定性影響。

        四是技術規(guī)制論。技術規(guī)制論者認為,科學技術評價涉及倫理、道德和社會價值觀等方面。人工智能技術的發(fā)展和應用應該考慮多種利益和價值觀,并通過社會討論和決策確定其應用的邊界,對人工智能技術發(fā)展進行規(guī)制和引導。持這種觀點的主要代表人物是Musk,他關注人工智能的潛在風險,并提出關于人工智能倫理和安全治理的觀點。2023年2月13日,在迪拜舉行的世界政府峰會上Musk重申了對人工智能安全檢查的呼吁(1)2023年世界政府峰會在迪拜開幕[EB/OL].(2023-02-13)[2023-06-16].https://news.cnr.cn/native/gd/20230213/t20230213.。

        (二)“負責任”成為AIGC技術倫理的治理趨勢

        21世紀以來,人工智能技術發(fā)展迅猛,但同時也暴露出許多潛在風險和隱患。各國政府部門以及相關組織開始意識到:人工智能技術的發(fā)展需要制定一個規(guī)范和可信賴的框架來保障人類免受傷害。在此背景下,人們開始對人工智能誘發(fā)的倫理問題進行反思。例如,2019年4月,歐盟發(fā)布的《可信賴的人工智能倫理準則》(以下簡稱《準則》)明確了“可信賴的人工智能”應滿足的三個基本條件,即合法、合乎倫理、穩(wěn)健。這為人工智能技術倫理問題的治理提供了具體的要求和指導。此外,《準則》不僅提出了人工智能技術發(fā)展需要遵循的四項倫理要求,即尊重人類自主性、預防傷害、公平性以及可解釋性,而且還提出了七個關鍵要素,即人類能動和監(jiān)督、技術安全性、隱私和數(shù)據(jù)管理、社會和環(huán)境福祉、問責制、多樣性、無歧視,進一步加強了人工智能的要求和責任(2)歐盟搶先發(fā)布人工智能道德準則:AI要以人為本,負責任且無偏見[EB/OL].(2019-04-09)[2023-06-16].https://news.sina.com.cn/o/2019-04-09/doc-ihvhiewr4402597.shtml.。此外,《全球人工智能治理年度觀察2019》(3)《全球人工智能治理年度觀察2019》發(fā)布 共議AI治理[EB/OL].(2020-05-01)[2023-10-26]. https://tech.sina.com.cn/i/2020-05-01/doc-iircuyvi0844294.shtml.發(fā)現(xiàn),人工智能領域的競爭已從技術和產(chǎn)業(yè)應用擴張到了國際規(guī)則的制定,尤其是人工智能倫理和治理規(guī)則的制定。例如,2019年5月,經(jīng)濟合作與發(fā)展組織(OECD)成員國批準了全球首個由各國政府簽署的人工智能原則——“負責任地管理可信人工智能的原則”,包括以人為本、公平、透明、可解釋、穩(wěn)健、安全可靠、包容性增長、可持續(xù)發(fā)展、為人類提供福祉以及負責任原則(4)安全內參.經(jīng)合組織發(fā)布人工智能原則評析[EB/OL].(2019-06-05)[2023-10-26].www.secrss.com/articles/11178.。整體而言,從歐盟明確可信賴的人工智能準則到OECD成員國批準全球首個由各國政府簽署的人工智能原則,國際層面的人工智能技術倫理治理已進入實質性階段,初步確立了以人為本、安全可信、創(chuàng)新發(fā)展、包容普惠等“負責任”治理的基調。

        “負責任的人工智能”是AIGC技術倫理治理的趨勢和方向?!癆IGC對于智慧社會建設意義非凡”[1],這種自動化程度高的技術不僅可以獨立完成圖片分類和知識問答,而且在無人駕駛和人機對弈等方面取得了突破,它填補了人工智能從“可以用”到“很好用”的技術鴻溝。尤其是2022年11月OpenAI公司發(fā)布的大型語言模型系統(tǒng)——ChatGPT,引領了新的AIGC技術發(fā)展潮流。然而,AIGC的“雙刃劍”效應在使用中才逐漸顯現(xiàn)。雖然AIGC帶來的正面效益令全世界欣喜不已,但是AIGC誘發(fā)的負面影響已經(jīng)引發(fā)了全球范圍內的高度關注。例如,2023年3月31日起,意大利禁止使用ChatGPT,并限制OpenAI公司處理意大利用戶的信息數(shù)據(jù)。這一舉措引起了加拿大、歐洲等國家和地區(qū)監(jiān)管機構和企業(yè)的關注和效仿。2023年7月10日,中國國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務管理暫行辦法》,該辦法鼓勵優(yōu)先選擇安全可信的軟件、工具和計算數(shù)據(jù)資源,并劃定了該辦法的管轄范圍、管理權限以及責任主體認定。2023年10月18日,中華人民共和國外交部發(fā)布的《全球人工智能治理倡議》中明確提出:“建立科技倫理準則、規(guī)范及問責機制,形成人工智能倫理指南,建立科技倫理審查和監(jiān)管制度,明確人工智能相關主體的責任和權力邊界。”(5)全球人工智能治理倡議[EB/OL].(2023-10-20)[2023-10-26]. https://www.mfa.gov.cn/zyxw/202310/t20231020_11164831.shtml.由此可見,推動AIGC邁向“負責任”,已經(jīng)成為AIGC技術倫理治理的一種必然趨勢。

        二、AIGC技術倫理危機的誘發(fā)機制

        尚未完善的“負責任”倫理規(guī)范以及治理舉措導致AIGC在使用中已經(jīng)誘發(fā)了一些技術倫理風險,主要體現(xiàn)在:AIGC溝通中的“不理解”、決策中的“不可控”、安全性的“不可靠”、合作前景的“不可持續(xù)”。

        (一)算法運行透明度低導致的溝通“不理解”

        AIGC技術雖然能夠更好地收集信息并提取知識,但是其大型語言模型具有高度依賴數(shù)據(jù)訓練、運行復雜度高、非線性關系復雜以及自適應強等屬性,使得AIGC內部運行機制有時難以被理解和解釋。搜索引擎通常向用戶提供信息的來源即鏈接,并讓用戶決定他們信任什么。相比之下,很少有人知道大型語言模型訓練了什么數(shù)據(jù),是大英百科全書還是娛樂八卦[2]。AIGC技術生成的答案之所以有時難以解釋,是因為其類似于創(chuàng)造了“新事物”。例如,用戶向人工智能聊天機器人提問:銷量最高的三種寵物吸塵器的優(yōu)缺點是什么?人工智能聊天機器人給出的答案是:Bissell寵物吸塵器很吵,會嚇到寵物,并且其吸力很有限……繩索也很短[3]。但是,當用戶點開信息來源鏈接后發(fā)現(xiàn)Bissell是一款便攜式手持真空吸塵器,它幾乎無噪聲。這里出現(xiàn)了答案與參考來源信息脫節(jié)的問題,因為人工智能聊天機器人類似于創(chuàng)造了新事物。

        (二)缺乏主觀善意導致的決策“不可控”

        AIGC技術生成的內容基于大量數(shù)據(jù)訓練,這些數(shù)據(jù)往往包含了人類偏見、歧視和負面情緒等因素,這些因素會被大型語言模型學習并體現(xiàn)在其生成的結果中,從而導致AIGC產(chǎn)生不當甚至有害內容。一方面,AIGC內部運行機制復雜且透明度低,增加了產(chǎn)生不當輸出的可能。已經(jīng)有案例顯示,大型語言模型會從訓練數(shù)據(jù)中學到一些隱藏的模式或關聯(lián),這些模式或關聯(lián)與人類的價值觀不一致,從而使得大型語言模型輸出內容不當。另一方面,大型語言模型的自適性也可能會導致不當輸出,因為模型會根據(jù)環(huán)境變化和輸入數(shù)據(jù)進行自我調整和優(yōu)化,從而產(chǎn)生新的輸出。例如,2022年6月,谷歌瀏覽器因在無痕模式下追蹤收集用戶數(shù)據(jù)而遭到投訴。2023年上半年Nature發(fā)文稱:“研究人員向ChatGPT和其他大型語言模型透露的信息可能會被納入模型,聊天機器人在不確認原始來源的情況下將其提供給其他人”[4],與此同時,“人工智能聊天機器人會根據(jù)他們的訓練數(shù)據(jù)嵌入偏見”[5],更為嚴重的是“那些讓人類誤入歧途的偏見,在對話式人工智能中被復制,甚至經(jīng)常被放大”[6]。AIGC生成的答案是基于大型語言模型的數(shù)據(jù)學習和訓練,這就使得答案質量由數(shù)據(jù)質量決定。目前,人工智能企業(yè)用以大型語言模型學習和訓練的數(shù)據(jù)不足,導致這些人工智能企業(yè)對數(shù)據(jù)尚未經(jīng)過嚴格篩選就用以投喂大型語言模型,有些存在缺陷的數(shù)據(jù)一旦被大型語言模型學習到,其生成的內容不但不準確,而且可能會造成人類安全感的缺失。例如,2023年2月,一位用戶向New Bing提問:“《阿凡達:水之道》今天在哪里放映?”得到的回答是:“《阿凡達:水之道》目前還未上映。”在用戶告訴New Bing其回答錯誤后,它不僅堅持自己的回答是正確的,而且要求用戶向它道歉,否則就結束對話,甚至表示用戶一直都是錯誤的、魯莽的,不是一個好用戶(6)Bing:“I will not harm you unless you harm me first”[EB/OL].(2023-02-15)[2023-06-12].https://simonwillison.net/2023/Feb/15/bing.。

        (三)人工智能幻覺導致的安全性“不可靠”

        在人工智能領域,“人工智能幻覺”指聊天機器人能夠輸出看似合理且連貫的信息,但這些信息可能與已知數(shù)據(jù)或現(xiàn)實完全不符合。有專家認為:不能相信ChatGPT可以正確獲取事實或產(chǎn)生可靠資料,ChatGPT傾向于為它不知道答案的問題創(chuàng)造虛構的答案[2]。例如,2022年12月7日,知名的程序員問答網(wǎng)站Stack Overflow宣布,將臨時禁止在Stack Overflow上發(fā)布由ChatGPT生成的文本。Stack Overflow官方表示,這是一項臨時規(guī)則,旨在減緩使用ChatGPT創(chuàng)建的答案涌入。這一限制的原因是從ChatGPT獲得正確答案的平均比率太低,如果發(fā)布ChatGPT創(chuàng)建的答案,對網(wǎng)站以及查詢正確答案的用戶來說是非常有害的(7)Stack Overflow臨時禁用ChatGPT生成內容,網(wǎng)友:人類和AI快打起來[EB/OL].(2022-12-07)[2023-10-27]. https://www.thepaper.cn/newsDetail_forward_21047296.,那么,ChatGPT是如何為它不知道答案的問題創(chuàng)設虛構答案的?首先,ChatGPT基于大型語言模型對互聯(lián)網(wǎng)海量文本數(shù)據(jù)進行學習。這些文本數(shù)據(jù)包含了各種來源的信息,包括新聞、維基百科、社交媒體等。然而,這些文本數(shù)據(jù)在尚未經(jīng)過人工篩選和驗證情況下參與生成答復,可能會生成帶有錯誤、虛假和偏見內容的消息。其次,ChatGPT是通過自動生成的大型語言模型來產(chǎn)生回復的。目前,ChatGPT并不具備真正的理解和推理能力,它只是根據(jù)用戶的輸入提示和上下文語境來預測下一個合適的回復。這種自動生成的方式導致ChatGPT并沒有對其回復的真實性進行驗證或事實檢查,可能會制造人工智能幻覺。此外,ChatGPT還存在其他問題,諸如它在回復同一問題時,可能會給出多個可能的答案,而不是提供一個明確的回答。這也可能導致用戶對ChatGPT的回復產(chǎn)生誤解或產(chǎn)生人工智能幻覺。綜上,人工智能幻覺主要是因為其基于大數(shù)據(jù)訓練而形成,而這些數(shù)據(jù)可能存在偏差或錯誤,AIGC也可能會受到模型數(shù)據(jù)結構、訓練算法等因素的影響,導致輸出的結果不準確。另外,AIGC還面臨著缺乏常識和情感理解的問題,它無法理解人類的情感、價值和道德標準,導致輸出的答案與人類的期望有偏差。解決這些問題,需要采取一系列措施,包括數(shù)據(jù)清洗、算法調整、建立監(jiān)督和反饋機制,以確保模型輸出的答案符合人類的標準和期望,同時,也需要加強對AIGC的監(jiān)督和管理,以確保其安全和可靠。

        (四)人機伙伴關系尚未建立導致的合作前景“不可持續(xù)”

        AIGC扮演了“多領域深度應用者”的角色,其不限于能夠在智慧農(nóng)場、智能港口、智能礦山、智慧工廠、智慧家居等多個場景中應用,而且在醫(yī)療診斷中也有廣泛應用,其應用場景越多,暴露的算法歧視與偏見也就越多。例如,一篇發(fā)表在Science上的研究表明,美國醫(yī)療保健系統(tǒng)使用商業(yè)算法來指導超過2億人的醫(yī)療服務健康決策,對非洲裔患者實施了群體性歧視。由于輸入數(shù)據(jù)中沒有“種族”選項,開發(fā)者認為該算法是不分種族的,但對于與白人患病程度相當?shù)姆侵抟峄颊?該算法始終給予其較低風險分數(shù),其未能識別出將近有一半非裔患者有可能產(chǎn)生與白人患者類似的復雜醫(yī)療需求,導致這些非洲裔患者無法參與改善健康的干預項目[7]。喬姆斯基是“人工智能不可持續(xù)”論的代表人物,他認為ChatGPT表現(xiàn)出某種類似邪惡的平庸,如剽竊、冷漠和回避,它以一種超級自動補全的方式總結了文獻中的標準論點,拒絕在任何事情上表明立場,它不僅以無知為借口,還以缺乏智慧為借口,最終提供了一種“只是服從命令”的辯護,將責任推給它的創(chuàng)造者[8]。人工智能的出發(fā)點在于為人類生產(chǎn)生活提供便捷,技術需要助力于人類邁向更加公平、正義、溫情之路。然而,AIGC有時表現(xiàn)出來的“剽竊、冷漠和回避”,是否與人工智能發(fā)明者的初心背道而馳呢?人工智能技術能否持續(xù)為人類社會創(chuàng)造福祉?人類采取何種態(tài)度對待人工智能技術也是決定這種福祉實現(xiàn)程度的重要影響因素之一。余明峰認為:“現(xiàn)代性的‘人類中心主義承諾’實有一種根本上的僭越?jīng)_動。這種僭越企圖以現(xiàn)代技術的無限潛能超越自身生存之有限性。不是直面有限性,而是企圖增強力量來達到有限性,基于人工智能和生物技術的各式人類增強技術正是這樣一種現(xiàn)代方案的典型體現(xiàn)??汕∏е@種人類中心主義的妄念,現(xiàn)代人陷入了系統(tǒng)的無限支配。強力的另一面恰恰是無力?!盵9]38因此,人類要摒棄無限支配人工智能技術的態(tài)度,要從技術研發(fā)、技術倫理遵循以及法律制定等層面構建人機可以合作的、可持續(xù)的伙伴關系,應用人工智能技術為人類創(chuàng)造更多福祉。

        三、AIGC技術倫理危機的治理基點

        AIGC的使用正在誘發(fā)技術倫理危機,人們越來越擔憂AIGC的自主決策會帶來不可預測的后果。為了避免AIGC自主決策傷害人類事件繼續(xù)發(fā)生,加快AIGC監(jiān)管和治理刻不容緩。AIGC技術倫理治理是一項系統(tǒng)工程,學界應推進人機協(xié)同中的可解釋性研究、政府要加強對AIGC的審查和監(jiān)管、人工智能企業(yè)應建立自治自律機制、用戶要提升算法素養(yǎng)。唯有如此,才有可能制定既能推進AIGC可持續(xù)發(fā)展又能保障人類福祉的技術倫理監(jiān)管和治理框架。

        (一)學界推進人機協(xié)同中的可解釋性研究:實現(xiàn)AIGC溝通的“可理解”

        人機協(xié)同中的可解釋性研究旨在提供機器決策的解釋,使人類對機器的決策過程和結果可理解和可信任,以提高人機協(xié)同的效率。為此,2023年3月8日,中國國家自然科學基金委員會啟動了“可解釋、可通用下一代人工智能方法重大研究計劃”,旨在研究并發(fā)展下一代可解釋、可通用的人工智能方法,以提高人工智能技術在人機協(xié)同工作中的應用。這一計劃將有助于增強人類對機器決策過程和結果的理解和信任,推動人機協(xié)同的發(fā)展。

        1.以可解釋性算法模型設計為基石

        既要從技術倫理的視角出發(fā),促進負責任人工智能本身的發(fā)展,推進AIGC治理,還要堅持“科學技術對人負責”的基本原則。2018年,歐盟發(fā)布了《通用數(shù)據(jù)保護條例》(GDPR),強制要求人工智能算法具有可解釋性,要求算法模型的設計不僅要“事前解釋”,同時也要“事后解釋”?!笆虑敖忉尅蹦P陀伞白越忉屇P汀币约啊皹嫿ň哂袃戎每山忉屝阅P汀眱刹糠纸M成?!白越忉屇P汀卑ň€性模型、決策樹、樸素貝葉斯模型等,其結構簡單,本身可解釋;“構建具有內置性的可解釋性模型”通過特定方法使得模型自身可解釋,設計方法是引入注意力機制、深化統(tǒng)計模型、基于物理定型。“事后解釋”模型由“全局性解釋模型”和“局部性解釋模型”兩部分組成?!叭中越忉屇P汀贬槍φ麄€模型,說明其整體的工作機制,其設計方法是激活最大化、概念激活矢量測試;“局部解釋模型”針對單個輸入樣本,幫助人們理解模型對于輸入樣本的決策依據(jù),設計方法是反向傳播、類激活映射、局部近似、可解釋機器學習模型(SHAP)?!笆虑敖忉尅焙汀笆潞蠼忉尅眱煞N模型各有優(yōu)缺點,“事前解釋”模型需要在模型訓練之前進行,因此,需要花費更多時間和精力來構建特征模型;“事后解釋”模型可以快速應用于已有模型,但需要對模型輸出進行解釋,難以準確地捕捉模型中的錯誤和偏差。因此,在算法模型設計中要將“事前解釋”和“事后解釋”兩種模型結合起來,相互補充,共同推進AIGC可解釋性研究。

        2.以可解釋性框架準則設計為指導

        可解釋性框架準則設計是為了確保人工智能系統(tǒng)的決策和行為可以被理解和解釋。首先,在構建通用、系統(tǒng)的可解釋性的指導框架準則的基礎上,研發(fā)優(yōu)化針對復雜度較高模型的“事后可解釋性”技術,隨后進行評估。其次,在指導性框架準則設計方面,對已有實踐、政策、案例進行調研,將以人為本作為核心參考準則,圍繞“公開性、輔助性、相對性”三項原則,提煉并制定指導框架與具體的執(zhí)行準則。例如,微軟、谷歌等公司和部分學者提出了“構建可持續(xù)交互式人工智能的參考標準/理論框架”。最后,在此基礎上引入人類認知模型,對具體準則進行細化,聚焦人類認識與系統(tǒng)交互,助力可解釋性人工智能。以Apple Watch為例,基于微軟的參考準則,可解釋的交互式Apple Watch應該滿足以下要求:在人機初次接觸時期,幫助用戶了解Apple Watch能做什么,以及幫助用戶了解Apple Watch能在多大程度上做好用戶傳達的任務;在漸入互動時期,提供當前任務的相關信息以及提供基于環(huán)境的及時指導;在系統(tǒng)發(fā)生錯誤時,能夠明確告知用戶出錯原因,并可以改進或恢復;在深入?yún)f(xié)作時期,能夠通知用戶系統(tǒng)的有關更改以及告知用戶其行為如何影響產(chǎn)品。

        3.以滿足用戶的可解釋需求為橋梁

        用戶對AIGC的可解釋性需求主要包括透明性、解釋性、可信度和可追溯,滿足這些需求可以增加用戶對人工智能系統(tǒng)的信任和接受度,改善用戶體驗。2019年,中國國家新一代人工智能治理委員會發(fā)布的《新一代人工治理原則——發(fā)展負責任的人工智能》就提出,人工智能系統(tǒng)應當不斷提升可解釋性。就目前而言,國內學界對于可解釋性的研究包括但不限于:清華大學人工智能研究院智能信息獲取研究中心,從用戶需求與AIGC現(xiàn)有解釋水平之間的差距、個體差異對AIGC的影響展開研究;武漢大學人機交互與用戶行為研究中心吳丹教授團隊,基于海量用戶數(shù)據(jù),著眼語音、手勢、眼動交互及認知等,開展大規(guī)模、多情境的用戶研究,分析個體或群體對AIGC的需求。

        4.以可解釋性評估為輔助

        可解釋性評估對于確保AIGC結果的可解釋和準確性非常重要。由于AIGC的結果是由模型自主生成的,因此,需要對其結果進行評估,以確保結果的可解釋和準確性。要提升AIGC可解釋性評估性能,就要綜合系統(tǒng)解釋本身、開發(fā)者、用戶三個視角,納入應用情境、解釋方法差異等指標,構建以用戶為核心、以專家為參考、以技術模型為輔助的多層次、多角度的評估體系,助力實現(xiàn)全面有效的可解釋性評估。從系統(tǒng)本身解釋的質量出發(fā),就要綜合考慮解釋的保真度(解釋是否真實反映系統(tǒng))、復雜度(解釋的數(shù)量和長短)、忠誠度(解釋能否根據(jù)用戶的調試而改變)、魯棒性(解釋是否容易被干擾),納入評估指標。從開發(fā)者的角度出發(fā),就要綜合考慮開發(fā)時的解釋目標以及達成的解釋效果,最終以解釋是否實現(xiàn)其設計目標作為衡量標準。從用戶的角度出發(fā),就要綜合考慮用戶對系統(tǒng)的信任度、滿意度、工作績效、心理模型,最終以用戶接受解釋的效果和體驗為評估指標。

        (二)政府加強對AIGC的審查和監(jiān)管:確保AIGC決策的“可控制”

        加強對AIGC的審查和監(jiān)管,是一項復雜但必要的工作。“生成式人工智能的革命性發(fā)展給現(xiàn)有法律責任體系帶來了巨大挑戰(zhàn)。”[10]為此,政府需要建立評估機制來對AIGC技術的可行性和安全性進行評估,同時還需要建立技術倫理規(guī)范,明確技術應用的道德底線和法律法規(guī)的界限,最重要的是要加強技術倫理監(jiān)管力度,確保技術的合規(guī)性和安全性。三者協(xié)同運作,可以有效地預防引發(fā)AIGC科技倫理“不可控”危機,保障技術發(fā)展和社會穩(wěn)定。

        1.建立AIGC評估機制

        AIGC評估機制是為了確保AIGC技術開發(fā)和應用的安全性、可靠性和公平性而建立的,該機制包括數(shù)據(jù)隱私保護評估、算法公平評估、模型準確評估和應對意外事件評估等方面。首先,數(shù)據(jù)隱私保護評估機制要求AIGC開發(fā)和應用確保用戶的隱私得到保護,這意味著要有足夠的安全措施確保用戶的數(shù)據(jù)不被泄露或濫用。OpenAI公司已經(jīng)采取一系列措施保護用戶隱私。2023年4月5日,OpenAI公司發(fā)布了OurApproachtoAISafety,表示努力在可行情況下從訓練數(shù)據(jù)中刪除個人信息,微調模型以拒絕對私人信息的請求,而且能夠響應用戶在OpenAI的系統(tǒng)中刪除個人信息的請求。這些措施最大限度地減少了AIGC生成包含個人信息內容的可能性。其次,算法公平評估機制要求AIGC算法透明、可解釋以及公平。算法不能歧視任何人或群體,應該透明、可接受和公正,這樣可以確保AIGC在開發(fā)和應用過程中不會出現(xiàn)歧視行為。再次,模型準確評估機制要求AIGC系統(tǒng)的模型具備高度的準確性和魯棒性。模型需要在各種情況下正確執(zhí)行任務,準確評估機制的作用是檢查模型是否準確、魯棒和可靠。最后,應對意外事件能力評估機制是為了確保AIGC具備應對意外事件的能力。例如,當輸入數(shù)據(jù)與預期不符時,系統(tǒng)能夠自動適應并做出合理決策,可以保證生成內容的質量和可行性。需要注意的是,評估機制應該是動態(tài)的,隨著模型的使用和反饋進行不斷更新和改進。此外,評估過程還需要充分考慮領域專家的判斷和意見,以確保生成內容的可靠性和實用性。

        2.建立技術倫理規(guī)范

        隨著ChatGPT在行業(yè)內外引發(fā)越來越多的擔憂,政府部門一致認為,僅憑人工智能產(chǎn)品的開發(fā)者和提供者自我監(jiān)督是不夠的。因此,政府部門應對AIGC的開發(fā)和應用進行規(guī)范和限制,明確其應遵守的道德倫理標準和責任義務,以保障公眾利益和社會秩序。首先,設立專門監(jiān)管AIGC的機構,負責監(jiān)管AIGC技術的開發(fā)和應用。這個機構由專門的人工智能專家團隊組成,他們將參與AIGC的安全性、透明性和公正性的審查,同時審查AIGC是否符合技術倫理規(guī)范。一些國家在這方面已經(jīng)取得進展。例如,2023年3月,意大利數(shù)據(jù)隱私監(jiān)管機構以ChatGPT涉嫌非法收集個人數(shù)據(jù)、缺乏未成年人年齡核實等理由,下令禁止使用ChatGPT,直到其尊重隱私法規(guī)為止(8)涉嫌侵犯隱私 意大利數(shù)據(jù)保護機構對ChatGPT開發(fā)公司展開調查[EB/OL].(2023-04-01)[2023-06-12].http://world.people.com.cn/n1/2023/0401/c1002-32655784.html.。2023年4月,德國聯(lián)邦數(shù)據(jù)保護專員也向媒體透露了在德國“封殺”ChatGPT的可能性(9)負面情緒正持續(xù)發(fā)酵 多國計劃加強對ChatGPT監(jiān)管[EB/OL].(2023-04-10)[2023-06-12].https://news.cctv.com/2023/04/10/ARTIlImrRNUIW2jg9OlZ79.。這些監(jiān)管機構在確保技術倫理方面發(fā)揮了重要作用。其次,制定AIGC安全評估要求。開發(fā)者在發(fā)布AIGC系統(tǒng)前需進行安全評估,這些評估主要涉及數(shù)據(jù)隱私、安全性、透明度和公正性等方面。例如,2023年5月4日,美國總統(tǒng)拜登表示,人工智能是否具有潛在危險還有待觀察,但是科技公司有責任確保他們的產(chǎn)品在發(fā)布之前是安全的(10)拜登政府會見企業(yè)科技龍頭 討論人工智能潛在風險[EB/OL].(2023-05-06)[2023-07-01].https://www.chinanews.com.cn/gj/2023/05-06/10002495.shtml.。再次,制定AIGC數(shù)據(jù)隱私保護法規(guī),保障用戶個人信息安全和隱私。這些法律法規(guī)應該規(guī)定AIGC應用開發(fā)者遵守的數(shù)據(jù)收集、使用和共享的規(guī)則,以及如何保護用戶個人信息安全。最后,制定AIGC開發(fā)和應用的道德倫理規(guī)范準則。政府應本著透明、公正原則,要求AIGC開發(fā)者不歧視某些群體和用戶,不得違反公共利益和社會秩序,同時也要兼顧考慮不同文化、信仰和價值觀的差異,以防止出現(xiàn)偏見和不公平的結果,確保AIGC應用開發(fā)者不損害任何人的利益。

        3.加強技術倫理監(jiān)管力度

        人工智能技術快速發(fā)展和擴張應用帶來了人類對其潛在危害的擔憂,這促使政府部門必須制定各種相關法規(guī)對AIGC進行監(jiān)管。首先,制定相關政策及法律法規(guī)。美國民意調查顯示,美國人普遍認為人工智能不可信,希望對其實施監(jiān)管。2023年6月14日,歐洲議會投票通過了《人工智能法案》授權草案,旨在確保人工智能發(fā)展符合歐洲的價值觀和權利。然而,該法案引起了一些異議,Encord的聯(lián)合創(chuàng)始人兼總裁Hansen表示,該法案缺乏靈活性,未考慮到人工智能的快速發(fā)展。2023年7月10日,中國國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務管理暫行辦法》,這一舉措受到學界的高度評價。昆山杜克大學電子與計算機工程教授、大數(shù)據(jù)研究中心主任黃開竹博士認為,在大量AIGC技術應用和系統(tǒng)涌現(xiàn)后,算法背后的安全性、公平性、可信性、隱私保護和風險等方面的引導和規(guī)范相對滯后,但中國的《生成式人工智能服務管理暫行辦法》出臺非常及時,從技術角度審視非常專業(yè),為AIGC的開發(fā)者和使用者加上了“護欄”。因此,在制定人工智能法律法規(guī)時,應該找到創(chuàng)新與監(jiān)督之間的平衡,為其發(fā)展提供指導和框架,鼓勵創(chuàng)新和研發(fā)。其次,制定技術標準。制定AIGC的技術標準旨在對其研發(fā)和應用進行指導,確保技術的安全性和可靠性。人工智能技術安全性和可靠性是社會的重要關切,政府制定技術標準可以提升AIGC系統(tǒng)的安全性和可靠性,降低風險。隨著OpenAI和微軟的結合,加上谷歌內部的DeepMind,美國保持了技術領先地位。在制定技術標準這一領域,美國走在了世界前列。2023年1月26日,美國商務部下屬的國家標準與技術研究院發(fā)布了其第一版《人工智能風險管理框架》(AIRiskManagementFramework),旨在指導人工智能企業(yè)在開發(fā)和部署人工智能系統(tǒng)時降低安全風險,避免產(chǎn)生偏見和其他負面后果,提高人工智能可信度,保護公民的公平自由權利(11)NIST AI risk mangement framework(AI RMF 1.0)launch[EB/OL].(2023-03-30)[2023-06-12].https://www.nist.gov/itl/ai-risk-management-framework.。

        (三)建立企業(yè)行業(yè)自治自律機制:實現(xiàn)AIGC安全性的“可信賴”

        在意大利、加拿大宣布對OpenAI公司展開調查以后,德國、法國、愛爾蘭等國數(shù)據(jù)監(jiān)管機構紛紛跟隨。作為對此次事件的回應,OpenAI公司于2023年4月5日發(fā)布了OurApproachtoAISafety,詳細介紹了該公司如何確保人工智能系統(tǒng)的安全性。OpenAI公司的這一企業(yè)自治舉措只是人工智能行業(yè)展開自治的一個縮影,說明人工智能行業(yè)已經(jīng)意識到AIGC誘發(fā)的技術倫理風險并且展開自治自律。Insight Enterprise公司的一項調查研究發(fā)現(xiàn),81%的人工智能大公司(員工超過1 000人)已經(jīng)在圍繞AIGC制定或實施類似政策或策略。

        1.完善AIGC使用規(guī)范

        人工智能企業(yè)扮演著AIGC系統(tǒng)的研發(fā)者、使用者和監(jiān)管者等多重角色,在研發(fā)和使用AIGC系統(tǒng)時必須明確自身角色定位,對系統(tǒng)研發(fā)程序、使用范圍進行倫理規(guī)范,防止AIGC技術被濫用,確保AIGC技術本身遵守社會倫理規(guī)范、符合社會價值觀。OpenAI公司也采取了一系列措施來保障用戶權益,他們在OurApproachtoAISafety中規(guī)定,用戶必須年滿18周歲,或年滿13周歲在父母批準下才能使用人工智能工具,此外,他們也明確表示不允許其技術用于生成仇恨、騷擾、暴力或成人類別的內容(12)Our approach to AI safety[EB/OL].(2023-04-05)[2023-06-12].https://openai.com/blog/our-approach-to-ai-safety.。顯然,生成仇恨和暴力內容違背了社會的價值觀和道德準則,這種內容可能會導致仇恨犯罪和暴力行為的增加。人工智能企業(yè)有責任確保技術的使用不會對社會造成負面影響。與此同時,仇恨和暴力內容對用戶的安全和心理健康同樣會構成威脅,這些內容可能引發(fā)仇恨言論、騷擾、恐嚇和暴力行為,對個人或群體造成傷害。因此,限制此類內容有助于保護用戶安全和增加社會福祉。

        2.建立AIGC透明機制和可解釋性機制

        如果一個AIGC系統(tǒng)不透明或者不可解釋,那么其決策就會缺乏信任度和可靠性,用戶就無法理解其決策的依據(jù),這會導致用戶對AIGC信任度降低。透明度代表AIGC系統(tǒng)的數(shù)據(jù)和算法是否可以被公開,以便用戶了解AIGC內部工作方式,用戶希望知道AIGC系統(tǒng)是如何處理數(shù)據(jù)的,其使用了怎樣的算法和模型,這樣用戶才能夠信任該系統(tǒng)??山忉屝砸馕吨鳤IGC系統(tǒng)的決策過程是否可以被解釋清楚,以便用戶可以理解為什么AIGC會做出特定的決策。用戶希望能夠理解AIGC系統(tǒng)背后的邏輯和推理過程,而不僅僅是接受系統(tǒng)的結果。提升AIGC系統(tǒng)的透明度和可解釋性,可以幫助用戶發(fā)現(xiàn)潛在偏見和歧視并及時解決,可以增加用戶對AIGC的信任,并使AIGC更加可靠實用。因此,為了增加用戶對AIGC的信任,并使其更加可靠實用,需要在研發(fā)過程中提升AIGC系統(tǒng)的透明度和可解釋性,確保用戶可以理解系統(tǒng)內部的運作方式和決策過程。

        首先,建立AIGC系統(tǒng)透明機制。這種透明機制是指在人工智能應用中,確保系統(tǒng)的運作過程對用戶是透明的。為了達到這個目的,需要從以下幾個方面進行落實。第一,人工智能企業(yè)公布AIGC數(shù)據(jù)集和算法,使用戶了解AIGC系統(tǒng)是如何運作的,從而增加用戶的信任。第二,保護用戶數(shù)據(jù)隱私也是建立透明機制重要一環(huán)。人工智能企業(yè)需要使用技術手段脫敏、差分隱私等來保護用戶數(shù)據(jù)隱私,確保用戶的個人信息和敏感數(shù)據(jù)不被泄露或濫用。第三,人工智能企業(yè)還要與用戶溝通,解答用戶對AIGC系統(tǒng)的疑問,通過提供相關信息和技術解釋,幫助用戶深入了解AIGC系統(tǒng)的運行原理和決策過程。第四,人工智能企業(yè)應及時回應用戶的反饋,并根據(jù)用戶反饋問題來增強AIGC系統(tǒng)的透明度,通過不斷優(yōu)化和改進,使系統(tǒng)更加符合用戶的期待,這樣AIGC系統(tǒng)能夠更好地為用戶服務。

        其次,建立AIGC可解釋性機制。第一,可視化是一個重要步驟。人工智能企業(yè)可以通過數(shù)據(jù)可視化方式,將AIGC系統(tǒng)的決策過程呈現(xiàn)給用戶,讓用戶更容易理解AIGC的行為,明白其為什么會做出這樣的決策。第二,解釋模型也是一種可行的途徑。人工智能企業(yè)可以使用可解釋模型,例如決策樹邏輯回歸等,這些模型可以提供可視化和更多的可解釋性,同時也能夠以可視化的方式展現(xiàn)出來,使用戶更容易理解AIGC的工作原理。第三,解釋特征也非常重要。人工智能企業(yè)可以解釋AIGC系統(tǒng)是如何使用輸入數(shù)據(jù)特征來做出決策的,這樣的解釋可以幫助用戶更好地理解AIGC決策行為,并對其結果有更深入的認識。第四,解釋誤差是一個可以考慮的方向。人工智能企業(yè)可以解釋AIGC系統(tǒng)的誤差來源,比如特定的輸入數(shù)據(jù)或模型參數(shù),這樣的解釋可以幫助用戶更好地理解AIGC系統(tǒng)的弱點和極限,從而提升對其決策結果的信任度。

        3.建立AIGC安全風險管理機制

        AIGC廣泛應用于金融、醫(yī)療、化學、采礦等特殊領域,或許會涉及大量的敏感信息和國防安全信息。如果人工智能企業(yè)不能有效管理和預防這些安全風險隱患,AIGC可能會發(fā)生數(shù)據(jù)泄露、隱私侵犯、惡意軟件、黑客攻擊等情況,從而違背技術倫理,對人類造成傷害。因此,必須建立AIGC的安全風險管理機制。首先,企業(yè)需要建立AIGC使用前的安全風險評估機制。這一評估機制包括對系統(tǒng)數(shù)據(jù)安全、算法安全、模型安全、網(wǎng)絡安全等方面的評估。通過使用前的安全風險評估,企業(yè)可以發(fā)現(xiàn)AIGC存在的技術漏洞和安全隱患,并制定相應的補救措施。例如,OpenAI公司強調他們在發(fā)布任何新系統(tǒng)之前都會進行嚴格測試、聘請外部專家提供反饋,以建立普遍適用的安全和監(jiān)控系統(tǒng)。OpenAI公司還表示,GPT-4在發(fā)布之前已經(jīng)經(jīng)過了為期6個月的安全測試。其次,建立AIGC使用中的安全風險管理機制。這一機制包括實時的安全監(jiān)控、強化的數(shù)據(jù)保護和網(wǎng)絡防御措施等,以應對可能出現(xiàn)的安全風險。例如,OpenAI公司強調,公司會根據(jù)ChatGPT在現(xiàn)實中的使用情況,制定更加詳細的措施防范風險。再次,建立AIGC的應急響應機制。這一機制的建立旨在一旦系統(tǒng)出現(xiàn)風險隱患,能夠及時響應和處置,減少風險事件對系統(tǒng)本身以及用戶的影響。此外,構建與第三方安全機構的合作機制非常重要,與第三方安全機構合作的意義在于定期對AIGC進行安全測試和安全審計,及時發(fā)現(xiàn)和解決AIGC系統(tǒng)中存在的安全隱患問題,并進行及時修復。

        (四)用戶提升算法素養(yǎng):實現(xiàn)人類與AIGC合作的“可持續(xù)”

        “人工智能正成為推動人類進入智能時代的決定性力量”[11],用戶提升算法素養(yǎng)對于人工智能可持續(xù)發(fā)展至關重要。它可以保護個人數(shù)據(jù)隱私和安全、降低算法不公平和偏見、促進社會對話和監(jiān)管、促進技術的接受和應用。這些方面的改進將有助于人工智能技術更好地為人類社會帶來福祉。

        1.提升認知AIGC算法缺陷的素養(yǎng)

        在計算機科學和信息技術領域,算法是解決問題的一種方法或步驟的描述。算法素養(yǎng)是指對算法的理解和掌握程度,包括對算法的基本概念、原理和應用的了解,以及對算法的設計、分析和優(yōu)化的能力。AIGC算法在很大程度上受人類算法工程師個人價值觀的影響,這就使得AIGC算法缺乏公正客觀。對于用戶而言,提升認知AIGC算法缺陷的素養(yǎng)對于其在使用AIGC過程中減少算法偏見和歧視十分關鍵。因此,用戶提升認知AIGC算法缺陷的素養(yǎng)需要采取以下兩方面的措施。一方面,用戶要了解AIGC運行的基本原理,認識到AIGC本身存在的技術局限性和算法缺陷,這樣能夠更好地理解AIGC的運作方式以及預防可能出現(xiàn)的問題。另一方面,用戶在使用AIGC時要比較多個來源的內容,以便更好地判斷生成內容是否準確,如果多個來源的內容不一致,用戶需要進一步調查和研究,以確定最終結論,避免單一來源信息的偏見和誤導。

        2.提升防范AIGC可能誘發(fā)的技術倫理危機的能力

        用戶應該培養(yǎng)隱私保護意識、確認信息來源的可靠性、提升安全防范意識以及積極參與反饋和監(jiān)督,以保護個人權益,促進人工智能的透明和負責任使用。第一,培養(yǎng)隱私保護意識。用戶在使用AIGC提供的服務時,應該妥善保護個人信息不泄露給他人,并且使用強密碼來保護賬戶的安全。第二,確認數(shù)據(jù)來源的可靠性。在使用AIGC提供服務時,用戶要仔細判斷確認信息來源的真實性和可靠性,避免被虛假信息誤導,以免做出錯誤的判斷和決策。第三,提升安全防范意識。用戶要時刻保持警覺,避免成為釣魚、詐騙等攻擊手段的受害者,要警覺各種欺詐行為,避免在不安全的環(huán)境下使用個人數(shù)據(jù)和信息。第四,積極參與對AIGC的反饋和監(jiān)督。用戶在使用AIGC提供的服務時,如果發(fā)現(xiàn)存在不準確、有偏差或錯誤的地方,可以通過平臺提供的反饋機制進行報告,以幫助平臺改進算法。例如,OpenAI表示,它將向報告其人工智能系統(tǒng)漏洞的用戶提供高達2萬美元的獎勵。此外,用戶也可以參與到人工智能社區(qū)的討論和交流中,與其他用戶共同發(fā)現(xiàn)錯誤并糾正偏差,如果用戶發(fā)現(xiàn)AIGC存在不當、有害甚至違法信息,可以通過平臺提供的舉報機制進行舉報。

        四、總結與展望

        人類歷史上每一次技術變革與進步都會引發(fā)人類對技術的深刻反思。2022年底OpenAI公司ChatGPT的出現(xiàn)備受矚目,這種AIGC技術與以往傳統(tǒng)人工智能技術相比較具有“壓倒性”優(yōu)勢:AIGC使用門檻更低、應用場景更加廣泛、創(chuàng)新力更強且自動化程度更高。因此,AIGC一經(jīng)面世就具有造福人類社會的巨大潛力。然而,AIGC在使用過程中因算法透明低導致的溝通“不理解”、缺乏主觀善意導致的決策“不可控”、人工智能幻覺導致的安全性“不可靠”、人機伙伴關系尚未建立導致的合作前景“不可持續(xù)”的問題已經(jīng)誘發(fā)了技術倫理危機。AIGC在引爆人工智能技術前進“海嘯”的同時也誘發(fā)了技術倫理危機。因此,亟須對AIGC進行負責任監(jiān)管和治理。這種監(jiān)管和治理需要利益各方協(xié)同發(fā)力。學界要堅持對技術負責的原則,推進人機協(xié)同中可解釋性研究;政府要堅持對社會負責的原則,加強對AIGC的審查和監(jiān)管;人工智能企業(yè)要堅持對用戶負責的原則,建立企業(yè)自律自治機制;用戶要堅持對自己負責的原則,提升算法素養(yǎng)。只有這樣,才有可能實現(xiàn)AIGC溝通的“可理解”、確保AIGC決策的“可控制”、實現(xiàn)AIGC安全性的“可信賴”以及AIGC發(fā)展的“可持續(xù)”。

        人工智能技術進步的腳步不會停歇,AIGC向前發(fā)展已勢不可擋。國內外學界許多知名學者和人工智能領域的“翹楚”人物已經(jīng)認為AIGC是邁向通用人工智能(artificial general intelligence,AGI)時代的雛形。在將來,AGI很有可能被發(fā)明并廣泛應用。AIGC作為邁向AGI的前奏,其誘發(fā)的技術倫理危機已經(jīng)向人們敲響了警鐘:人類必須正確處理與人工智能技術發(fā)展的關系。問題的關鍵是,當AGI時代真正到來時,人類如何才能確保AGI技術對人類是安全有益的。因此,緊跟AIGC技術發(fā)展“更新迭代”腳步,不斷對其“負責任”地治理將永遠在路上。

        猜你喜歡
        人工智能用戶模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權M-估計的漸近分布
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        關注用戶
        商用汽車(2016年11期)2016-12-19 01:20:16
        3D打印中的模型分割與打包
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 16:51:29
        關注用戶
        商用汽車(2016年6期)2016-06-29 09:18:54
        久久免费亚洲免费视频| 亚洲国产精品色一区二区| 中文字幕视频一区懂色| 亚洲综合国产成人丁香五月激情| 国产一区二区中文字幕在线观看| 日韩av一区二区三区高清| 真实的国产乱xxxx在线| 国产免费艾彩sm调教视频| 色悠久久久久综合欧美99| 国内精品福利在线视频| 一区二区三区高清视频在线| 日韩精品视频在线观看无| 亚洲色中文字幕无码av| 中文字幕v亚洲日本| 欧美成人中文字幕| 久久熟女精品—区二区蜜臀| 最新露脸自拍视频在线观看| 黄桃av无码免费一区二区三区| 久久er99热精品一区二区| 久久久久麻豆v国产精华液好用吗| 精品一区二区三区四区少妇 | 日韩精品人妻中文字幕有码| 鲁丝片一区二区三区免费| 成人无码视频| 日本a级大片免费观看| 亚洲av推荐网站在线观看| 国产精品天干天干| 欧美内射深喉中文字幕| 国产在线网址| 自拍av免费在线观看| 免费视频无打码一区二区三区| 亚洲日韩精品无码专区网址| a级大胆欧美人体大胆666| 岛国大片在线免费观看| 在线观看视频日本一区二区三区| 99热婷婷一区二区三区| 天天躁日日躁狠狠躁欧美老妇小说| 精品淑女少妇av久久免费| 国产亚洲精品日韩综合网| 日韩一区三区av在线| 少妇人妻综合久久中文字幕|