《中共中央關于進一步全面深化改革、推進中國式現(xiàn)代化的決定》提出:“建立人工智能安全監(jiān)管制度?!比斯ぶ悄芤I新的科技革命與產(chǎn)業(yè)革命,是具有代表性的高新技術(shù)。在推動科技發(fā)展的同時,人工智能潛在的風險不容忽視。通過系統(tǒng)把握人工智能發(fā)展與安全的關系,建立相關安全監(jiān)管制度是人工智能風險治理的重要舉措。
在科技快速發(fā)展的同時,人工智能可能存在侵犯隱私數(shù)據(jù)信息風險、算法偏見與歧視、威脅國家安全等問題。
隨著人工智能技術(shù)的日益強大,大量的數(shù)據(jù)更容易被獲取、存儲、挖掘和處理。對于個人隱私數(shù)據(jù)的收集,不僅涉及人們主動提供的數(shù)據(jù),更多涉及被動提供的隱私數(shù)據(jù)。在數(shù)據(jù)訓練階段,通過網(wǎng)絡自動抓取技術(shù)收集的數(shù)據(jù)可能包括未經(jīng)授權(quán)的隱私數(shù)據(jù),人機交互過程中人工智能可能收集涉及個人隱私的數(shù)據(jù);在應用階段,用戶利用人工智能生成的內(nèi)容可能存在侵犯個人隱私風險。
人工智能算法偏見與歧視是一個無法避免的問題。算法總是隱含著一種價值判斷,而非中立的活動。在算法高效地執(zhí)行各種任務時,由于數(shù)據(jù)樣本存在偏差,被存在偏差的樣本訓練完的算法運用到現(xiàn)實中時,就可能出現(xiàn)對于人或事物的決策偏差或錯誤判斷。算法偏見與歧視直接影響了算法結(jié)果,這種結(jié)果又很可能成為某項政策或某個決策的依據(jù)。人工智能訓練數(shù)據(jù)中預先就有偏見、數(shù)據(jù)抽樣偏差、算法本身成為一種歧視等因素均可導致算法偏見與歧視問題。
人工智能可能威脅國家安全。在數(shù)據(jù)訓練階段,人工智能可能自動抓取政務數(shù)據(jù)、公共數(shù)據(jù)等,存在泄露風險,威脅國家安全。在應用階段,不法分子可能利用人工智能窺視國家秘密,收集軍事數(shù)據(jù)、經(jīng)濟數(shù)據(jù)等,嚴重威脅國家安全與穩(wěn)定。若人工智能脫離人類控制或被濫用,均對國家安全產(chǎn)生威脅。
人工智能飛速發(fā)展,成為推動經(jīng)濟社會發(fā)展的重要動力。人工智能在為人類帶來便利的同時,可能存在侵犯隱私數(shù)據(jù)、算法偏見等風險。隨著人工智能替代某些行業(yè),導致一些行業(yè)的從業(yè)者存在失業(yè)風險。人工智能挑戰(zhàn)著現(xiàn)有的法律體系,影響著國家安全與經(jīng)濟安全。通過建立人工智能安全監(jiān)管制度,可以有效應對人工智能相關風險。
現(xiàn)階段,人工智能是新質(zhì)生產(chǎn)力的典型代表,能夠推動高質(zhì)量發(fā)展。人工智能可能存在安全風險,這要求我們應當在充分發(fā)展人工智能技術(shù)的同時,加強風險治理。其中,通過建立人工智能安全監(jiān)管制度,能夠兼顧人工智能發(fā)展與安全治理的關系。準確把握人工智能賦能相關產(chǎn)業(yè)的優(yōu)勢,及時研判潛在的風險,不斷加強風險監(jiān)管。
人工智能與人類可持續(xù)發(fā)展息息相關,各國高度關注人工智能安全問題。歐盟、美國、英國等均采取了一系列措施來加強人工智能安全監(jiān)管。我國作為負責任大國,應當加強人工智能安全監(jiān)管,參與和引領人工智能全球治理工作,共同促進全球人工智能高質(zhì)量發(fā)展。
針對人工智能帶來的風險,我國亟須建立人工智能安全監(jiān)管制度。
人工智能發(fā)展具有未知性與不可預測性,決定了采用包容審慎監(jiān)管模式?!渡墒饺斯ぶ悄芊展芾頃盒修k法》提出對生成式人工智能服務實行包容審慎和分類分級監(jiān)管,但過于原則化。包容審慎監(jiān)管模式意味著人工智能發(fā)展與治理并重,堅持科技創(chuàng)新與安全治理相結(jié)合,推動人工智能高質(zhì)量發(fā)展。
人工智能安全監(jiān)管措施包括以下幾個方面:一是監(jiān)督檢查。監(jiān)管部門應當依法開展監(jiān)督檢查,監(jiān)管人工智能訓練數(shù)據(jù)、數(shù)據(jù)標注內(nèi)容等是否存在違法情況。二是行政處罰措施。法律明確可以通過罰款、限期責令改正等方式來監(jiān)管人工智能相關違法行為。三是制定分類分級監(jiān)管措施。有權(quán)機關應當制定針對人工智能分類分級的監(jiān)管措施??梢詫⑷斯ぶ悄芊譃槲谋绢?、視頻類等類型,分別采取不同監(jiān)管措施。
以抑制算法權(quán)力、偏見為重點,綜合運用多種監(jiān)管手段克服算法偏見問題。為了加強算法偏見與歧視治理,應當確保數(shù)據(jù)可查性與算法可審計性,在法律上預先設計好算法使用者、設計者等主體的義務,作為人工智能安全監(jiān)管的重要依據(jù)。監(jiān)管機關應當加強算法歧視與偏見的監(jiān)管工作,遏制算法權(quán)力,嚴格監(jiān)管人工智能企業(yè)的違法行為。
首先,加快建立人工智能監(jiān)管制度是我國獲得人工智能全球治理規(guī)則主導權(quán)與話語權(quán)的重要推動力。在推動人工智能立法過程中,我國應當綜合考慮國際社會的人工智能治理規(guī)則內(nèi)容,注重借鑒先進做法。其次,積極參與人工智能全球治理規(guī)則的制定工作。我國應當積極參與國際社會制定有關人工智能的規(guī)則,努力主導建立人工智能全球治理體系。
基金項目:山東省法學會2024年度全省法學研究重點課題“個人數(shù)據(jù)信托的制度建構(gòu)研究”,SLS(2024)A28。
【作者單位:1.山東社會科學院法學研究所■ 逯達1;2.山東大學法學院(威海)■ 逯 達2】