許劭華
(上海人工智能實(shí)驗(yàn)室,上海 200030)
人工智能通過自我學(xué)習(xí)、深度訓(xùn)練可逐漸掌握人類的思維模式,代替人類完成部分工作,部分情況下工作質(zhì)量、效率、數(shù)據(jù)處理能力甚至大幅度超越人類。人工智能的創(chuàng)造解放了人類生產(chǎn)力,使人類從枯燥乏味的機(jī)械化工作中得以解放,同時(shí)也推動(dòng)社會(huì)進(jìn)入了第4次工業(yè)革命中。當(dāng)前人工智能模型日益完善,在不同領(lǐng)域均有所應(yīng)用,例如,在醫(yī)療領(lǐng)域可輔助醫(yī)生完成疾病診療活動(dòng),在教育領(lǐng)域可自動(dòng)評(píng)價(jià)教學(xué)質(zhì)量,在人力資源管理領(lǐng)域可深度挖掘人力資源的內(nèi)在優(yōu)勢(shì)和價(jià)值。然而智能并不等于萬能,在實(shí)際使用中存在著難以預(yù)估的風(fēng)險(xiǎn)隱患,在智能化社會(huì)到來前要規(guī)范人工智能使用方式,提升人工智能應(yīng)用的可靠性、可信性和可控制性。
數(shù)據(jù)是促進(jìn)人工智能發(fā)展的關(guān)鍵,要求提升智能化水平必須要收集大量的數(shù)據(jù)信息,針對(duì)數(shù)據(jù)信息進(jìn)行反復(fù)訓(xùn)練、學(xué)習(xí)才能促使人工智能逐步掌握人類的思維模式[1]。人工智能在與人類思維模式對(duì)齊時(shí)也會(huì)對(duì)數(shù)據(jù)中所包含的敏感信息進(jìn)行學(xué)習(xí),這使得人工智能的應(yīng)用也有著一定的意識(shí)形態(tài)立場(chǎng)。例如,在對(duì)傳統(tǒng)文化、國(guó)家歷史發(fā)展等信息進(jìn)行解讀和學(xué)習(xí)時(shí)其中有較多和意識(shí)形態(tài)相關(guān)的內(nèi)容,若未選取高質(zhì)量信息和語言材料,人工智能便會(huì)接觸歪曲歷史的信息。當(dāng)人類和人工智能進(jìn)行對(duì)話和互動(dòng)時(shí)有可能受到這一類不實(shí)信息的干擾和影響,導(dǎo)致部分意識(shí)形態(tài)不正確的信息和文化得以傳播。人工智能在推薦信息時(shí)存在引導(dǎo)性,會(huì)有某種價(jià)值觀念的傾向,導(dǎo)致社會(huì)主義道德根基被動(dòng)搖,所傳遞的價(jià)值導(dǎo)向和主流價(jià)值觀念存在偏差,這也使得人工智能目前成為新時(shí)代下意識(shí)形態(tài)建設(shè)所關(guān)注的重要陣地。
人工智能應(yīng)用時(shí)算法技術(shù)中立性有待提升,原因在于算法構(gòu)建時(shí)存在著“黑箱”問題,所使用的參數(shù)、權(quán)重以及算法數(shù)據(jù)來源均處于“黑箱”狀態(tài)[2]。當(dāng)前各類中小型科技公司缺少構(gòu)建底層算法模型的意識(shí),會(huì)從其他大型公司購(gòu)買訪問權(quán)限,或者直接按照大型人工智能算法中獲取開源數(shù)據(jù),根據(jù)自身的應(yīng)用需求調(diào)整數(shù)據(jù)內(nèi)容。人們普遍認(rèn)為算法會(huì)對(duì)用戶行為活動(dòng)所產(chǎn)生的數(shù)據(jù)進(jìn)行挖掘、分析,以此來評(píng)估用戶對(duì)某種內(nèi)容、信息的偏好。然而因“黑箱”問題在算法代碼編寫前便已經(jīng)融入了價(jià)值觀,算法偏見問題明顯。例如,企業(yè)招聘算法中有性別歧視的思想,會(huì)使部分求職者的求職信息被低估,或者直接被淘汰、忽視。在技術(shù)設(shè)計(jì)層面算法獲得的數(shù)據(jù)集存在不均衡的問題,特征選取有所偏差,影響了機(jī)器的學(xué)習(xí)質(zhì)量。例如,在醫(yī)療診療活動(dòng)中由于算法數(shù)據(jù)收集不全面和偏差問題容易出現(xiàn)漏診、誤診的現(xiàn)象。原因在于算法缺少大體量訓(xùn)練數(shù)據(jù),科技公司通常只是以本公司所收集的有限數(shù)據(jù)作為測(cè)試內(nèi)容,導(dǎo)致人工智能產(chǎn)品難以及時(shí)發(fā)現(xiàn)潛在的安全漏洞,如果將這一類產(chǎn)品大范圍應(yīng)用在各個(gè)領(lǐng)域容易出現(xiàn)錯(cuò)誤決策,帶來較為明顯的安全隱患。
生成式人工智能在目前日常生活中應(yīng)用廣泛,其中ChatGPT 屬于代表性人工智能應(yīng)用。這一類人工智能產(chǎn)品只需要在其中輸入文本數(shù)據(jù)便可自動(dòng)生成不同類型的信息內(nèi)容,如圖片、文字、視頻等,生成內(nèi)容包括可讀可視、靜態(tài)動(dòng)態(tài)多種類型信息,展現(xiàn)了人工智能的多模態(tài)生成能力。除此之外,紅外輻射分析溫度、運(yùn)動(dòng)軌跡等智能生成模型也開始逐漸應(yīng)用于日常實(shí)踐中,能夠盡可能還原人類在觀察和理解世界時(shí)所使用的能力??缒B(tài)生成重視將各類感官系統(tǒng)進(jìn)行連接,除去按照人類思維進(jìn)行分析外,會(huì)融入觸覺、嗅覺以及語音等各種內(nèi)容,雖然豐富了人工智能模型,但是所生成的具體內(nèi)容缺少公認(rèn)的評(píng)價(jià)標(biāo)準(zhǔn)。這一類人工智能應(yīng)用在創(chuàng)作層面存在著明顯的主觀性特點(diǎn),多重解釋性特征突出,增加了對(duì)人工智能監(jiān)管的難度[3]。同時(shí)生成式人工智能會(huì)廣泛獲取網(wǎng)絡(luò)上的各種數(shù)據(jù)和信息,人們?cè)谑褂眠^程中會(huì)將生成的結(jié)果應(yīng)用在不同領(lǐng)域,這也導(dǎo)致原創(chuàng)者的合法權(quán)益受到損害,引發(fā)了人們對(duì)生成式智能的質(zhì)疑和廣泛討論。
人工智能以數(shù)據(jù)為基礎(chǔ)進(jìn)行驅(qū)動(dòng),在開發(fā)人工智能應(yīng)用時(shí)要匯聚海量規(guī)模的數(shù)據(jù)信息,為了保證人工智能應(yīng)用的有效性,在采集時(shí)會(huì)收集大量涉及個(gè)人隱私的數(shù)據(jù),容易導(dǎo)致個(gè)人隱私被外泄。人工智能所收集的信息與網(wǎng)絡(luò)上的虛擬信息不同,必須要保證信息可以代表個(gè)人身份,如指紋、面部、虹膜等,是與自然個(gè)體不可分割的重要生物數(shù)據(jù)。例如,當(dāng)前在各個(gè)軟件中均開始使用人臉識(shí)別技術(shù),以此來認(rèn)定使用者和軟件登錄者的信息一致,但是在識(shí)別過程中會(huì)獲取面部信息,若在未經(jīng)過本人認(rèn)可下濫用面部信息會(huì)給個(gè)人隱私帶來安全隱患。同時(shí),人工智能還會(huì)收集消費(fèi)信息、生活行為、未知數(shù)據(jù)等敏感內(nèi)容,未來人們的各種信息都將被人工智能收集起來,且向著主動(dòng)采集、識(shí)別的趨勢(shì)發(fā)展。如果人工智能模型應(yīng)用在重要領(lǐng)域,在外界攻擊、網(wǎng)絡(luò)安全漏洞的影響下會(huì)導(dǎo)致數(shù)據(jù)被盜取,給經(jīng)濟(jì)、個(gè)人生活帶來明顯的安全隱患。目前人們的數(shù)據(jù)安全意識(shí)持續(xù)提升,在存儲(chǔ)數(shù)據(jù)時(shí)會(huì)使用加密存儲(chǔ)技術(shù),但仍然有黑客會(huì)解密上述數(shù)據(jù),解密后有可能將數(shù)據(jù)銷售給特定群體用于商業(yè)領(lǐng)域,例如,經(jīng)常接收到的針對(duì)性廣告或者精準(zhǔn)營(yíng)銷等便是數(shù)據(jù)盜用、濫用的表現(xiàn)。
電信詐騙是網(wǎng)絡(luò)時(shí)代下所出現(xiàn)的一種新型的詐騙方式,通過撥打電話、網(wǎng)上聊天、信息偽造等多種方式進(jìn)行詐騙。隨著詐騙套路被人們所熟知,詐騙方式也開始不斷更新,其中通過人工智能偽造人臉、偽造聲音是難以防范的詐騙手段[4]。利用人工智能收集個(gè)人面貌、聲音信息能夠智能生成相同的面貌、聲音,且人工智能會(huì)捕捉人表情的變化,這使得所偽造出的面目難以分辨。利用AI 生成的偽造面貌、聲音進(jìn)行詐騙時(shí),被詐騙對(duì)象無法及時(shí)分辨,容易導(dǎo)致人身經(jīng)濟(jì)損失的問題。除此之外,部分人群在日常生產(chǎn)生活中對(duì)于人工智能的依賴性過強(qiáng),從而導(dǎo)致個(gè)人生存能力持續(xù)下降,思維能力弱化。然而隨著人工智能應(yīng)用便利性的不斷提高,越來越多的人將會(huì)利用人工智能工具,這也使得人們面臨著系統(tǒng)性退化的風(fēng)險(xiǎn)隱患。人工智能濫用和造假問題已經(jīng)成為威脅社會(huì)安全發(fā)展的主要因素之一,如何應(yīng)對(duì)這一倫理安全問題成為社會(huì)治理體系建設(shè)所關(guān)注的重點(diǎn)。
人工智能引領(lǐng)社會(huì)進(jìn)入了新的時(shí)代,但是同時(shí)也要重視人工智能應(yīng)用是否合理。要想規(guī)范人工智能的應(yīng)用必須要以法律為基礎(chǔ),通過合適的法律法規(guī)對(duì)人工智能應(yīng)用進(jìn)行監(jiān)管,避免出現(xiàn)人工智能濫用、錯(cuò)用的現(xiàn)象。雖然目前已經(jīng)提出《中華人民共和國(guó)數(shù)據(jù)安全法》《中華人民共和國(guó)個(gè)人信息保護(hù)法》等法律規(guī)定,能夠在一定程度上對(duì)人工智能領(lǐng)域進(jìn)行約束和監(jiān)管,但是缺少以人工智能為核心的統(tǒng)一法律標(biāo)準(zhǔn),存在法律空白和監(jiān)管漏洞問題[5]。政府部門要加快立法速度,以統(tǒng)籌思想推進(jìn)橫縱向立法進(jìn)程,做好新法和已有法律法規(guī)的銜接工作。2023 年立法規(guī)劃中已經(jīng)提出了有關(guān)人工智能法的草案,為了彌補(bǔ)法律空白,要對(duì)人工智能應(yīng)用中存在的共性倫理安全問題進(jìn)行探討,以提煉出的共性問題作為一般性法律法規(guī)的制定基礎(chǔ),確保法律法規(guī)可以為實(shí)踐應(yīng)用問題的解決提供參考。在技術(shù)治理方面要形成利用技術(shù)管理技術(shù)的模式,在法律中明確規(guī)定如何做好人工智能鑒別工作,針對(duì)人臉、聲音、場(chǎng)景等偽造行為進(jìn)行鑒別和處罰,防止相關(guān)人員利用偽造技術(shù)獲取非法利益。
人工智能應(yīng)用范圍的不斷擴(kuò)大,也增加了市場(chǎng)上對(duì)于優(yōu)質(zhì)人工智能人才的需求。在智能汽車、機(jī)械設(shè)備開發(fā)研究時(shí)需要充分掌握深度學(xué)習(xí)算法應(yīng)用和訓(xùn)練的專業(yè)人才;在教育領(lǐng)域中需要可開發(fā)人工智能教學(xué)管理軟件的人才;在醫(yī)療領(lǐng)域需要可熟練開發(fā)智能醫(yī)療設(shè)備、使用智能診療技術(shù)的人才;在社會(huì)治理領(lǐng)域需要具有人工智能防偽鑒別、數(shù)據(jù)篩查能力的人才。培養(yǎng)專業(yè)人才能夠?yàn)楦鱾€(gè)領(lǐng)域人工智能應(yīng)用創(chuàng)新提供源源不斷的人力資源支持,推進(jìn)人工智能發(fā)展戰(zhàn)略的有效落實(shí),強(qiáng)化國(guó)家在人工智能產(chǎn)業(yè)方面的國(guó)際競(jìng)爭(zhēng)力。為了保證人工智能得以合理應(yīng)用,各個(gè)國(guó)家要對(duì)人工智能專業(yè)人才培養(yǎng)體系進(jìn)行細(xì)化和完善,將人工智能和其他領(lǐng)域進(jìn)行緊密融合,調(diào)整專業(yè)教學(xué)內(nèi)容,根據(jù)社會(huì)不同領(lǐng)域?qū)θ斯ぶ悄苋瞬诺男枨笾贫ㄡ槍?duì)性教學(xué)目標(biāo)和計(jì)劃。在專業(yè)教育中也應(yīng)重視人文素養(yǎng)教育滲透,加強(qiáng)新時(shí)期人才對(duì)人工智能應(yīng)用的認(rèn)知,為倫理安全風(fēng)險(xiǎn)和挑戰(zhàn)的應(yīng)對(duì)夯實(shí)人力基礎(chǔ)。
在全球化時(shí)代下,國(guó)家與國(guó)家之間的信息傳播渠道有所增加,通過網(wǎng)絡(luò)即可讓人們第一時(shí)間獲取各種各樣的信息,這也使得人工智能應(yīng)用的安全倫理挑戰(zhàn)成為全世界所面臨的難題。為了合理應(yīng)對(duì)挑戰(zhàn),要重視并積極與國(guó)際進(jìn)行合作,通過全球合作的方式提高人工智能治理質(zhì)量,對(duì)人工智能的應(yīng)用進(jìn)行管控。各國(guó)政府要形成統(tǒng)一的治理標(biāo)準(zhǔn)和規(guī)則體系,堅(jiān)持協(xié)同共治的原則和主張,通過不斷協(xié)調(diào)完成國(guó)家之間的對(duì)話,共同處理有關(guān)人工智能的安全倫理問題[6]。但是不同國(guó)家在地域條件、文化背景、經(jīng)濟(jì)實(shí)力等方面存在差異,人工智能應(yīng)用的認(rèn)知也有所不同。這要求國(guó)家能夠從全人類角度出發(fā)構(gòu)建相同的理念認(rèn)知體系,在共同價(jià)值觀的基礎(chǔ)上設(shè)計(jì)符合智能時(shí)代發(fā)展趨勢(shì)的人工智能治理規(guī)則和秩序,促使全球各個(gè)國(guó)家形成相同的社會(huì)共識(shí),推動(dòng)人工智能應(yīng)用向著可控的方向持續(xù)發(fā)展。在全球合作時(shí)要對(duì)與人工智能有關(guān)的國(guó)際法規(guī)進(jìn)行細(xì)化,為跨國(guó)人工智能不合理應(yīng)用問題的處理提供參考標(biāo)準(zhǔn),例如,對(duì)新型人工智能應(yīng)用類跨國(guó)電信詐騙案件的處理方式進(jìn)行細(xì)化,合理應(yīng)對(duì)人工智能詐騙帶來的經(jīng)濟(jì)安全隱患。
人工智能應(yīng)用迭代速度較快,在不斷迭代過程中也會(huì)產(chǎn)生新的風(fēng)險(xiǎn),無論最終人工智能是否可以變?yōu)橐环N生命體,其均在不斷進(jìn)行自我訓(xùn)練和學(xué)習(xí),對(duì)外在世界的影響已經(jīng)超過最初算法模型的設(shè)計(jì)目標(biāo)。因此,要重視風(fēng)險(xiǎn)監(jiān)測(cè),評(píng)估人工智能應(yīng)用所帶來的新問題,并采取合適的策略對(duì)問題進(jìn)行處理,避免人工智能的不合理應(yīng)用造成不良影響。監(jiān)管沙盒是一種在金融領(lǐng)域?qū)π滦彤a(chǎn)品進(jìn)行風(fēng)險(xiǎn)評(píng)估的實(shí)驗(yàn)?zāi)J?,能夠?qū)鹑诋a(chǎn)品進(jìn)入市場(chǎng)前的風(fēng)險(xiǎn)因素進(jìn)行管理和控制。人工智能是風(fēng)險(xiǎn)預(yù)估難度大的一種產(chǎn)品,在人工智能應(yīng)用中,也應(yīng)當(dāng)引入監(jiān)管沙盒機(jī)制,并且目前在《AI 法案》中也提出了要建立人工智能監(jiān)管沙盒的要求,人工智能產(chǎn)品在進(jìn)入市場(chǎng)前或者使用前要先根據(jù)法案內(nèi)容對(duì)其進(jìn)行驗(yàn)證。人工智能大模型目前正處于高速發(fā)展階段,將監(jiān)管沙盒制度引入能夠做到在模型預(yù)訓(xùn)練時(shí)期便控制風(fēng)險(xiǎn)因素,提升風(fēng)險(xiǎn)評(píng)估質(zhì)量,避免人工智能應(yīng)用投入使用后給社會(huì)秩序造成過大沖擊,解決人工智能的倫理隱患[7]。
人工智能應(yīng)用要確保其價(jià)值觀體系與人類的道德要求保持一致,構(gòu)建具有高可信度和高度道德意識(shí)的人工智能模型。因此,要重視構(gòu)建倫理框架,為人工智能應(yīng)用提供道德約束標(biāo)準(zhǔn)。公平性是倫理框架的核心要素之一,在開發(fā)和設(shè)計(jì)人工智能系統(tǒng)時(shí)要避免有歧視和偏見思想的植入,嚴(yán)格把控?cái)?shù)據(jù)來源,在確保數(shù)據(jù)具有多樣性和代表性的同時(shí)刪除其中潛在的偏見信息。檢查人工智能模型的決策流程,要求其對(duì)每個(gè)群體均平等對(duì)待。重視提升人工智能應(yīng)用的透明性,要求決策流程是可解釋、可審查的,強(qiáng)化用戶對(duì)人工智能系統(tǒng)的信任。保證人工智能系統(tǒng)的安全性,積極研發(fā)對(duì)抗性攻擊防御技術(shù),有效面對(duì)外來的惡意攻擊。
人工智能的迅速發(fā)展給人類原有價(jià)值體系帶來了重要的挑戰(zhàn),對(duì)人和人、人和技術(shù)的關(guān)系進(jìn)行了再次定義。人工智能可大量收集數(shù)據(jù)信息,存在侵犯?jìng)€(gè)人隱私、盜取數(shù)據(jù)的安全隱患,越過了倫理道德界限,導(dǎo)致人們開始對(duì)人工智能的高速發(fā)展出現(xiàn)抵觸情緒。新時(shí)期下要正確對(duì)待人工智能應(yīng)用所引起的安全問題和倫理問題,通過推動(dòng)立法、培養(yǎng)人才、國(guó)際合作、風(fēng)險(xiǎn)監(jiān)測(cè)以及倫理框架建立等方式評(píng)估人工智能應(yīng)用是否合理,優(yōu)化應(yīng)用方式方法,堅(jiān)持公平透明、包容、保障隱私原則,將新技術(shù)應(yīng)用在合適的領(lǐng)域,規(guī)避倫理道德和安全隱患的出現(xiàn)。