亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能治安風險及其防控研究

        2021-01-06 04:05:05鮑柯舟
        鐵道警察學院學報 2021年4期
        關鍵詞:人工智能

        鮑柯舟

        (華東政法大學 刑事法學院,上海200042)

        一、問題的提出

        1956年,在美國達特茅斯學院開展的一場研討會宣告了人工智能(Artificial Intelligence,簡稱AI)科學的起始。雖然在此后的幾十年里人工智能的發(fā)展陷入了“寒冬”,但從20世紀90年代起,隨著計算機硬件設施的進步、算法的演進以及機器學習技術的發(fā)展,人工智能的發(fā)展進入了“快車道”。1997年,IBM的計算機程序“深藍”戰(zhàn)勝了當時的國際象棋世界棋王加里·卡斯帕羅夫。2011年,IBM的“沃森”系統(tǒng)在電視問答游戲《危險邊緣》中戰(zhàn)勝了最厲害的人類玩家。2016年,谷歌DeepMind公司研發(fā)的人工智能系統(tǒng)擊敗了當時的圍棋世界冠軍李世石。2017年,在中國烏鎮(zhèn)圍棋峰會上,AlphaGo又與排名世界第一的世界圍棋冠軍柯潔對戰(zhàn),并以3比0的總比分獲勝,在現(xiàn)今最復雜的棋類游戲——圍棋的競賽中,人類的“驕傲”再一次一敗涂地。

        2021年的今天,人工智能已經(jīng)完全融入了人們的生產(chǎn)生活中。根據(jù)國家網(wǎng)信辦公布的最新數(shù)據(jù)顯示,截至2020年12月,我國網(wǎng)民的規(guī)模達9.89億,其中手機網(wǎng)民的規(guī)模達到9.86億,網(wǎng)民使用手機上網(wǎng)的比例達99.7%[1],智能手機作為生活中最常見的人工智能設備已經(jīng)成為人們接受互聯(lián)網(wǎng)服務的最重要媒介。此外,在社會生產(chǎn)領域,智能化生產(chǎn)逐漸取代傳統(tǒng)人力的簡單、重復勞動,在重慶福耀玻璃公司生產(chǎn)廠房,偌大的車間沒有多少工人,從玻璃原料上片、搬運、磨邊,再到成品下線的生產(chǎn)全過程,全都由一臺臺機械手臂自動完成[2],自動化生產(chǎn)大幅提高了傳統(tǒng)制造業(yè)的生產(chǎn)效率和生產(chǎn)水平。在電子商務領域,算法和大數(shù)據(jù)分析成為商家和平臺不可或缺的重要“法寶”,以大數(shù)據(jù)分析和算法為基礎的人工智能程序自動為顧客篩選感興趣的商品,從而大大提高顧客的購買概率。在移動支付領域,以指紋、人臉等特征為依托的生物識別技術已經(jīng)逐漸成為移動支付中身份驗證的常態(tài)工具,指紋識別支付、刷臉支付成為人們生活中重要的支付手段。毋庸置疑,人工智能的發(fā)展與應用給社會生活各領域都帶來了顛覆性的改變和創(chuàng)新,一個全新的人工智能時代正在人類社會的發(fā)展進程中緩緩拉開序幕。

        時至今日,人工智能已經(jīng)成為人類社會發(fā)展的核心驅動力,但人工智能的發(fā)展在給人們的生產(chǎn)生活帶來便利的同時,也隱藏著風險與危機。著名物理學家霍金表示了自己對于人工智能發(fā)展的擔憂:全面化人工智能可能意味著人類的終結……機器可以自行啟動,并且自動對自身進行重新設計,速率也會越來越快。受到漫長的生物進化歷程的限制,人類無法與之競爭,終將被取代。在接下來的幾十年里,AI安全風險防控研究將是人工智能發(fā)展的重大課題之一,也是國家與社會公眾關注的重大熱點問題之一。

        二、人工智能的概念及界定

        從語義上說,人工智能可以被界定為:人為創(chuàng)造的具有語言智能、數(shù)理邏輯智能、音樂智能、空間智能、肢體運動智能、交往交流智能、自身認知智能、人類環(huán)境智能和自然環(huán)境智能等一種或多種智能的行為主體[3]。當然,如果將該概念作為治安風險研究對象不免太過寬泛。譬如,最早的通用計算機“ENIAC”于1946年在美國賓夕法尼亞大學誕生,每秒可以運算5000次?!癊NIAC”顯然屬于人為制造的具有一定數(shù)理邏輯智能的行為主體,但它絕不是人工智能治安風險的研究對象,研究一項早已被社會淘汰的技術產(chǎn)品所帶來的風險毫無現(xiàn)實意義。因此,作為研究對象的人工智能概念需要被限定在一定的時間范圍之內,即現(xiàn)實運用的或未來即將應用的人工智能技術。

        對于作為研究對象的人工智能概念,學界一直以來存在一定的爭議。部分學者認為人工智能研究仍然應當著眼于現(xiàn)實實踐,將弱人工智能作為人工智能風險研究的主要對象,如馬長山教授認為,應當將人工智能界定為一種智能增強的工具,其雖然具有人類所不及的自主學習、高速運算、邏輯思維能力,但仍然是通過人類輸入的代碼指令和數(shù)據(jù)算法進行運轉,并不具備與人類智慧所匹配的自我意識[4]。而部分學者則認為人工智能的研究應當更加放眼于未來,將強人工智能也作為研究的對象,如劉憲權教授認為,科技的發(fā)展是呈爆炸式的,隨著深度學習技術、神經(jīng)網(wǎng)絡技術、類腦智能技術等的發(fā)展,出現(xiàn)能夠在自主意識和意志的支配下獨立作出決策并實施行為的強智能機器人并非天方夜譚。因此,我們應未雨綢繆,提前想好應對策略[5]。筆者比較贊同馬長山教授的觀點,即當前人工智能風險研究的對象應當以弱人工智能為主,原因如下:

        首先,意志與意識的起源和產(chǎn)生是人類研究尚未涉及的領域,而在長期的人工智能研究特別是機器學習研究的過程中,人們對其賦予了過多的生物學意義,以至于人工智能產(chǎn)生意識的命題被太多人所深信。谷歌Robotics研究科學家Eric Jang近期發(fā)表博客,對機器學習中的某一仿生命題提出了質疑,設計反向傳播的生物學可信替代方法壓根就是一個錯誤的問題……盡管DNN叫做深度神經(jīng)網(wǎng)絡,并在多項任務中展現(xiàn)出了卓越能力,但它們本質上與生物神經(jīng)網(wǎng)絡毫無關聯(lián)。機器學習領域的一個嚴重錯誤就是,對統(tǒng)計學工具和最優(yōu)控制算法賦予了太多生物學意義……嘗試使用生物神經(jīng)元模型模仿DNN是落后的,就像用人腦模擬Windows操作系統(tǒng)一樣①Eric Jang.Don’t Mess with Backprop:Doubts about Biologically Plausible Deep Learning.https://blog.evjang.com/2021/02/backprop.html??梢?,機器學習意義上的“學習”與生物意義上的“學習”并不相同,現(xiàn)有人工智能的本質是優(yōu)化的高階統(tǒng)計學算法,只是借用了仿生的概念,從這個意義上來說,期待人工智能產(chǎn)生意識本身是一種虛無縹緲的幻想,因為現(xiàn)有人工智能的本質與產(chǎn)生意識的生物學大腦之間存在著天壤之別。

        其次,討論強人工智能的法律規(guī)制問題是沒有意義的,因為一旦人工智能具有意識,首要問題是其是否愿意接受人類社會現(xiàn)有法律的規(guī)制與束縛。法律作為一種命令式的規(guī)范,本身是在權力觀念的基礎上產(chǎn)生和發(fā)展的,所謂命令就是有權者對其他人發(fā)出的、必須服從的意思表示[6]。而權力作為一種強迫力量,則是迫使他人按照權力擁有者的意愿行事的能力,被迫者在其他情況下并不會如此[7]。如果法律規(guī)范不依附于權力而存在,遵從法律的行為不會得到激勵,違背法律的行為不會得到懲罰,法律實際上成了一紙空文?,F(xiàn)有的最高權力形式就是國家主權,這也是現(xiàn)行國家法律能夠有效的基礎與保障,而國家主權則是一個國家政治力量、經(jīng)濟力量、軍事力量、文化力量的集中體現(xiàn)。一旦進入強人工智能時代,這種權力格局會瞬間被打破,強人工智能具有人類無法企及的信息收集和處理能力、武力能力以及生命延續(xù)能力,從某種意義上說,強人工智能是一種超級生命體,具有人類不可抗衡的權力能力,因而其不可能愿意受到人類社會現(xiàn)行法律的規(guī)制與束縛。換言之,一旦進入強人工智能時代,人類面臨的將是戰(zhàn)爭,在力量失據(jù)的情況下談論法律規(guī)制是沒有意義的。

        因此,現(xiàn)有人工智能風險研究的對象應當以弱人工智能為主。事實上,作為人類高級工具的人工智能已經(jīng)使得人類社會產(chǎn)生了翻天覆地的變化,相較于仍然存在于科幻作品當中的強人工智能威脅,弱人工智能帶來的治安風險是目前更加急需解決的核心問題。

        三、人工智能發(fā)展帶來的治安風險

        人工智能發(fā)展帶來的治安風險,從其表現(xiàn)形式上區(qū)分,可以劃分為以下三種:一是人工智能發(fā)展過程對于社會經(jīng)濟、政治、文化等領域造成的影響,并由此間接引起治安風險因素發(fā)生變化,導致相關犯罪的發(fā)生。二是人工智能可能成為犯罪分子利用的工具,犯罪分子借助人工智能技術從而產(chǎn)生嚴重的社會治安漏洞。三是人工智能本身在應用的過程中可能出現(xiàn)問題與漏洞,給不法分子留下可乘之機。

        (一)人工智能發(fā)展帶來的社會因素變動引起治安風險的發(fā)生

        人工智能的發(fā)展必然會引發(fā)社會各個層面的巨大變動,巨大的生產(chǎn)力進步將會帶來原有社會結構的崩潰與新興社會結構的建立,恰如工業(yè)革命使得人類社會從農(nóng)業(yè)社會邁向工業(yè)社會,人工智能的發(fā)展也會逐漸引領人類社會從工業(yè)社會向信息社會發(fā)展。在這樣一種社會大發(fā)展、大變革的時期,類比工業(yè)革命時期的社會轉型,很有可能帶來新一輪的犯罪高潮與治安風險。

        1.貧窮與失業(yè)危機

        實證派犯罪學家的代表人物恩里科·菲利認為貧窮和失業(yè)是引發(fā)犯罪的最重要社會因素,失業(yè)與不斷加劇的貧窮會影響一個人的情感并動搖其道德信念,進而容易引發(fā)侵犯財產(chǎn)犯罪與侵犯人身犯罪。人工智能發(fā)展的一個顯著特征便是生產(chǎn)自動化的不斷推進,這必然會取代簡單、重復性的人力勞動,從而造成大量的失業(yè)問題。這些被人工智能所取代的體力勞動者,無法通過自己的勞動獲得足以使自己和家庭生存的資源時,無疑會帶來大量的財產(chǎn)犯罪與侵犯人身犯罪的增加,進而引發(fā)嚴重的社會治安風險。

        2.經(jīng)濟不平等與階級固化

        經(jīng)濟不平等與暴力犯罪之間的聯(lián)系是犯罪學文獻中最穩(wěn)固的研究結論之一。而默頓的緊張理論也證明了階層固化對于社會治安風險的影響。對于社會下層階級的人們來說,階級固化意味著社會結構本身的限制,導致其難以通過勤奮與努力工作等制度性手段獲取財富。這種“緊張”狀態(tài)導致下層階級的群體更多地選擇非法手段進行財富的獲取。

        人工智能發(fā)展帶來的不僅是生產(chǎn)力的飛速進步,同時也加劇了上層階級與下層階級之間的經(jīng)濟不平等與對立,下層階級更難通過自己的努力實現(xiàn)階級飛躍。首先,人工智能的發(fā)展帶來的是極快的財富積累速度,但這并不代表著下層階級擁有無窮的機會改變自己的命運,相反,只有掌握數(shù)據(jù)算法與資本財富的人才能從這場“游戲”中獲利,經(jīng)濟上的不平等因此繼續(xù)加劇。其次,技術權力的壟斷加劇了階級的固化,一條明晃晃的“數(shù)據(jù)鴻溝”展現(xiàn)在人類面前。隨著人工智能的不斷發(fā)展,數(shù)字經(jīng)濟成為時代的主流,掌握信息、數(shù)據(jù)、算法的技術權力者成為新的壟斷者,下層階級更難通過自己的勞動跨越所謂的“數(shù)字鴻溝”。毫無疑問,人工智能是一種新興的、高效的、活躍的生產(chǎn)要素,它能夠極大地提高社會生產(chǎn)力,但如果不對其加以規(guī)制,自由發(fā)展的結果即提升的社會生產(chǎn)完全由少數(shù)技術精英所占有,大部分民眾都無法享受到人工智能所帶來的發(fā)展紅利,這顯然進一步加劇了社會的階層固化與貧富差距。最后,人工智能的發(fā)展可能使得大部分人逐漸淪為“無用階級”,傳統(tǒng)的政治、經(jīng)濟體制建立在人類個體的力量有限的條件下,占據(jù)更多資源的人無論自身存在怎樣的想法,從個體本質上說他并沒有超越其他個體的特殊力量,因而始終需要依靠其他個體的力量來維持社會的穩(wěn)定發(fā)展,高位者需要其他個體為其創(chuàng)造生活的條件,亦需要其他個體的力量來維持其統(tǒng)治。人工智能的發(fā)展使得統(tǒng)治者逐漸不再需要依靠被統(tǒng)治者來維護自己的統(tǒng)治,他們可以依靠人工智能機器人進行生產(chǎn),并作為軍事力量實施打擊,且不需要擔心人工智能的忠誠與背叛問題。原本統(tǒng)治階級與被統(tǒng)治階級的對立統(tǒng)一關系被打破,階級之間的對立與矛盾將成為社會的主流。從這三個方面來看,人工智能的發(fā)展可能加劇社會的經(jīng)濟不平等、階級固化,經(jīng)濟不平等增加了暴力犯罪的發(fā)生概率,而階級固化則使得下層階級難以依靠合法手段實現(xiàn)階級超越,轉而謀求其他的非法手段來追逐期望得到的利益。

        3.傳統(tǒng)社會聯(lián)系的減弱

        特拉維斯·赫希的社會控制理論認為,任何人都是潛在的犯罪人,個人與社會的聯(lián)系可以阻止個人進行違反社會準則的越軌與犯罪行為,當這種聯(lián)系薄弱時,個人就會無約束地隨意進行犯罪行為,因此,犯罪就是個人與社會的聯(lián)系薄弱或受到削弱的結果[8]。

        人工智能的發(fā)展無疑是對傳統(tǒng)社會生活的一種顛覆,而這種傳統(tǒng)生活方式的改變帶來的是個人與社會聯(lián)系的減少。首先,人們的工作方式發(fā)生了改變,特別是在新冠疫情的沖擊下,網(wǎng)絡辦公、線上會議的工作模式逐漸興起,人們可以運用互聯(lián)網(wǎng)技術足不出戶便與千里之外的其他個體進行合作與溝通,從而減少了面對面的互動與交流。其次,青少年的學習方式發(fā)生了改變,網(wǎng)課的出現(xiàn)使得青少年不需要被束縛在學校這個地點,在家也可以完成學習任務。當然,同時也減少了青少年對于學校的依戀以及與同齡人群體的交往機會。再次,娛樂方式的改變,人們不再向往傳統(tǒng)的娛樂與業(yè)余愛好,轉而沉迷于互聯(lián)網(wǎng)娛樂,如短視頻平臺、網(wǎng)絡游戲、虛擬現(xiàn)實游戲等等,社會上出現(xiàn)了更多的“宅男宅女”,他們很少與其他人進行交往,從而與社會的聯(lián)系較為薄弱。最后,人們的交流方式發(fā)生了改變,智能手機與其App的趣味性能夠很好地占用人們的碎片化時間,微信等即時通信工具提供了人們不需要面對面交流的條件與便利,人與人之間的現(xiàn)實交流正在變少,即使是身處同一個家庭與環(huán)境當中,智能手機也占據(jù)了個體生活的大部分時間,導致傳統(tǒng)社會生活聯(lián)系的減少。從社會控制理論的角度來說,這種社會聯(lián)系的減少意味著個體更少地受到社會準則的限制與約束,從而更有可能實施犯罪行為。

        (二)人工智能可能成為犯罪分子利用的工具

        人工智能的不斷發(fā)展不僅提升了社會生活與生產(chǎn)的技術水平,也提升了犯罪分子的技術水平。犯罪分子借助人工智能技術,不斷升級犯罪方式,擴展犯罪領域,形成嚴重的社會治安漏洞。

        首先,人工智能技術的發(fā)展帶來了一系列的新型犯罪形式,犯罪分子通過人工智能技術可以實施人們原本無法想象的犯罪。以“深度偽造”技術為例,“深度偽造”技術是指對圖像、視頻和音頻進行超現(xiàn)實的數(shù)字偽造,該技術不僅被應用于“色情視頻”的改頭換面之上,還被不法分子當作操縱公眾輿論的利器應用于政治言論與國家安全領域。2020年,美國眾議院議長南?!づ迓逦饕欢伪弧吧疃葌卧旒夹g”篡改的視頻在Facebook上廣泛流傳,在一定程度上達到了利用數(shù)字工具干預選舉的效果。人工智能“深度偽造”技術的運用將網(wǎng)絡虛假信息推向了新的深度,難以證偽的報道、虛假信息可能會掩蓋并代替真相,從而造成社會信任衰退效應,并很可能被用于未來的信息戰(zhàn)與技術戰(zhàn)之中[9]。

        其次,人工智能技術的發(fā)展降低了傳統(tǒng)犯罪的門檻,人工智能的輔助使得原本具有較高技術難度和要求的傳統(tǒng)犯罪變得簡單,造成了犯罪主體的泛化。以侵入計算機系統(tǒng)犯罪為例,此類計算機犯罪本來對于犯罪人的計算機技術水平有一定要求,但網(wǎng)絡爬蟲技術的發(fā)展與應用打破了這一局限,作為通過一定程序和腳本能夠自動從互聯(lián)網(wǎng)檢索、提取、收集數(shù)據(jù)的技術行為,爬蟲程序具有高效、便捷獲取數(shù)據(jù)的能力,犯罪人即使對計算機技術并不精通,也可以通過對爬蟲程序的簡單運用從互聯(lián)網(wǎng)中爬取大量的數(shù)據(jù),并且這種爬蟲自動爬取數(shù)據(jù)的過程非常輕松,只需要進行簡單的指令性操作,便可以由爬蟲程序進行自動的數(shù)據(jù)爬取,犯罪人的犯罪行為難度與犯罪技術要求大大降低。

        最后,人工智能技術的發(fā)展在互聯(lián)網(wǎng)世界形成了一條非法的黑灰產(chǎn)業(yè)鏈,典型的如上游進行非法的數(shù)據(jù)獲取與交易,如利用爬蟲程序在網(wǎng)絡上進行數(shù)據(jù)爬??;中游通過利用非法獲取的數(shù)據(jù)實施電信網(wǎng)絡詐騙、開設賭場等手段進行牟利,其中人工智能程序可以進行賬號匹配與自動撥打,甚至進行簡單的語音話術應答;下游利用支付通道“洗白”資金。上、中、下游的劃分只是一種產(chǎn)業(yè)鏈的劃分形式,現(xiàn)實中的犯罪集團可能橫跨這三個階段,并由不同的團隊對不同的業(yè)務進行負責,上下線之間不了解各自的情況,從而大大提高了犯罪的隱蔽性并降低了受害人的警惕心理。

        (三)人工智能本身在應用的過程中可能出現(xiàn)的問題與漏洞

        人工智能作為一種新興技術,本身存在著一定的不完善之處,特別是面對紛繁復雜的社會事務,即使人工智能具有遠超人腦的信息處理能力與運算速度,也難免出現(xiàn)錯誤,而對于越來越依賴人工智能系統(tǒng)進行生產(chǎn)、管理、決策等社會活動的人類而言,每一次人工智能錯誤都意味著社會資源的消耗與浪費,這無疑是社會風險的一種表現(xiàn)形式。

        首先,作為人工智能運行邏輯的算法難以達到完美的境地,在大量的算法交互過程中難免會出現(xiàn)問題與錯漏。最典型的例子即“算法錯誤”,2010年5月,由于華爾街程序性交易對于計算機算法的極大依賴,當計算機算法產(chǎn)生問題時,美股陷入了“閃電崩盤”,萬億市值瞬間蒸發(fā)。類似的“算法錯誤”還發(fā)生在2011年4月的亞馬遜書店,在算法的錯誤自動比價下,書店中一本研究遺傳學、晦澀難懂的舊書《蒼蠅的成長》(The Making of a Fly)的售價在幾天內飆升到了2400萬美元,遠遠超過了其市場價值。此外,自動駕駛作為人工智能技術應用的熱點領域,也存在著頻發(fā)的安全隱患。2018年3月19日凌晨,Uber公司一輛自動駕駛汽車在亞利桑那州坦佩市撞死了一名橫穿馬路的婦女,而此前Uber的自動駕駛汽車還發(fā)生過37起撞車事故,只是當時沒有產(chǎn)生嚴重的事故后果,因而未引發(fā)社會的廣泛關注。

        其次,由于人工智能技術的發(fā)展還只是剛剛起步,在應用與產(chǎn)品構建領域仍然存在缺陷,犯罪分子利用這一些缺陷與漏洞通過技術含量并不高的方法實施犯罪,最典型的案例發(fā)生在人臉識別領域。上海市虹口區(qū)人民檢察院公訴的一起特大虛開增值稅普通發(fā)票案中,犯罪嫌疑人利用從他處購買的高清頭像及身份證信息,并將其“動起來”,形成點頭、搖頭、眨眼等人臉識別驗證動作,破解了多款用戶量巨大的App人臉識別系統(tǒng)。通過破解手機應用的人臉識別系統(tǒng),犯罪嫌疑人以注冊“皮包公司”的形式虛開增值稅發(fā)票,價稅合計超過5億元。事實上,類似的案件并非第一次發(fā)生,早在2019年,浙江衢州已經(jīng)發(fā)生了破解“人臉識別”案件,并且犯罪人的學歷水平與技術水平都不高,僅僅依靠在互聯(lián)網(wǎng)上的自學就掌握了“破解技術”。顯然,在人工智能技術尚未成熟的今天,其應用領域還存在著大量的缺陷與漏洞,給不法分子留下了可乘之機。

        四、人工智能治安風險防控的建議

        2017年國務院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中提出,人工智能發(fā)展的不確定性帶來新挑戰(zhàn)。人工智能是影響面廣的顛覆性技術,可能帶來改變就業(yè)結構、沖擊法律與社會倫理、侵犯個人隱私、挑戰(zhàn)國際關系準則等問題,將對政府管理、經(jīng)濟安全和社會穩(wěn)定乃至全球治理產(chǎn)生深遠影響。在大力發(fā)展人工智能的同時,必須高度重視其可能帶來的安全風險挑戰(zhàn),加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發(fā)展①國務院關于印發(fā)《新一代人工智能發(fā)展規(guī)劃》的通知,載中華人民共和國中央人民政府網(wǎng):http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm。。

        (一)依托技術設計構建安全可靠的人工智能系統(tǒng)

        一個安全可靠的人工智能系統(tǒng)是防止其引發(fā)社會治安風險的前提,由于人工智能系統(tǒng)所具有的高度復雜性與技術性,必須通過技術手段對人工智能系統(tǒng)的行為范圍與行為內容進行嚴格的限制,具體包括運用技術手段探索搭建人工智能法律與倫理治理框架以及建立完整的人工智能安全標準體系。

        1.探索搭建人工智能法律與倫理治理框架

        由于人工智能系統(tǒng)的復雜性與不可解釋性,人工智能的法律與倫理治理需要法律、倫理規(guī)范和技術方案之間的耦合與交融。目前,學界的主要理論仍然沿用傳統(tǒng)的法律規(guī)制思路對人工智能技術所產(chǎn)生的風險后果進行規(guī)制,這仍是一種立足物理空間規(guī)則立場的外在的規(guī)制,沒有進入新業(yè)態(tài)的運行邏輯內部,規(guī)制的是代碼和算法的后果,而非代碼和算法過程的本身,難以從根本上達到人工智能風險預防與控制的效果[10]。因而,需要進一步探索如何采用技術設計讓人工智能自動運行于合法性的框架之內,通過將法律規(guī)則、倫理規(guī)范轉換為代碼,寫入人工智能的設計框架中,再通過代碼規(guī)制代碼,從而達到法律規(guī)制與技術設計的深度融合?!敖?jīng)由設計的倫理”(Ethics by Design或者Ethical by Design,簡稱EbD),作為歐盟率先提出的人工智能治理理念已經(jīng)得到了越來越多的認同,EbD強調未來需要通過標準、技術指南、設計準則等方式將倫理價值和要求轉化為人工智能產(chǎn)品和服務設計中的構成要素,將價值植入技術,從而保障人工智能技術發(fā)展的安全性。

        2.建立完整的人工智能安全標準體系

        2020年7月,國家標準化管理委員會與中央四部門聯(lián)合印發(fā)了《國家新一代人工智能標準體系建設指南》,強調了建立人工智能安全標準體系的重要性。目前,國內人工智能安全相關標準主要集中在生物特征識別、自動駕駛等部分領域的應用安全標準,以及大數(shù)據(jù)安全、個人信息保護等支撐類安全標準,而與人工智能自身安全或基礎共性直接相關的基礎安全標準還比較少。完整的人工智能安全標準體系應當包括人工智能基礎性安全標準、人工智能數(shù)據(jù)、算法和模型安全標準、人工智能技術和系統(tǒng)安全標準、人工智能管理和服務安全標準、人工智能測試評估安全標準、人工智能產(chǎn)品和應用安全標準六個方面,涵蓋人工智能技術理論、研究至應用的各個方面[11]。建立完整的人工智能技術安全標準體系有助于減少人工智能本身在應用的過程中可能出現(xiàn)的問題與漏洞,特別是人工智能測試評估安全標準。通過測試類安全評估的提前進行,能夠最大限度地減少人工智能本身在應用過程中可能出現(xiàn)的問題與漏洞。

        (二)加強對具體人工智能應用領域的法律規(guī)制

        加強法律規(guī)制是通過法治手段應對人工智能治安風險的必然選擇,完善人工智能相關立法是法律規(guī)制的必然要求。目前,我國的相關立法工作仍處于起步階段,2016年11月7日,《網(wǎng)絡安全法》通過全國人大常委會審議,于2017年6月1日實施,是人工智能安全相關立法的開端。此外,《數(shù)據(jù)安全法》《個人信息保護法》的制定納入了2021年全國人大的重點立法工作計劃,其中《數(shù)據(jù)安全法》于2021年6月10日正式通過全國人大常委會審議,意味著人工智能相關法律的進一步完善。當然,由于目前學界對于人工智能相關的概念與法律問題仍沒有形成通說,人工智能應用的實踐也尚未達到成熟的地步,因此為保障法律的安定性與權威性,相關立法工作的推進還比較緩慢,更多是通過政策文件的方式對具體的人工智能應用領域進行探索和規(guī)制。例如,國家互聯(lián)網(wǎng)信息辦公室出臺的《數(shù)據(jù)安全管理辦法(征求意見稿)》《網(wǎng)絡信息內容生態(tài)治理規(guī)定》,以及更為具體的《常見類型移動互聯(lián)網(wǎng)應用程序(App)必要個人信息范圍規(guī)定(征求意見稿)》等文件,均對特定領域人工智能的應用劃定了邊界。

        由于現(xiàn)有的弱人工智能并不具有“主觀意識”,因此防控利用人工智能技術進行犯罪的行為并不需要重構一個以“人工智能”作為法律主體的刑法體系,而是需要加強對具體人工智能應用領域的法律規(guī)制。以數(shù)據(jù)安全立法為例,大數(shù)據(jù)是促進人工智能進行深度學習的基礎所在,大數(shù)據(jù)驅動學習也是未來人工智能的發(fā)展重點之一,在人工智能的時代,數(shù)據(jù)不僅僅是計算機程序中的一串字符,也轉變成一種資源、一種重要的生產(chǎn)要素。從本質上說,數(shù)據(jù)風險是人工智能治安風險的基礎風險,體現(xiàn)在以下兩個方面:第一,人工智能黑灰產(chǎn)業(yè)鏈的上游犯罪是非法數(shù)據(jù)獲取與交易,沒有上游的非法數(shù)據(jù)獲取與交易,中下游的犯罪難以為繼,在大量利用人工智能進行網(wǎng)絡詐騙的案例中,正是因為有上游的數(shù)據(jù)獲取、數(shù)據(jù)撞庫、數(shù)據(jù)銷售等環(huán)節(jié),中下游依托數(shù)據(jù)進行的網(wǎng)絡詐騙犯罪才得以進行。因此,全面打擊人工智能黑灰產(chǎn)業(yè)鏈的關鍵在于對上游的非法數(shù)據(jù)獲取與交易進行精準打擊,壓縮利用非法數(shù)據(jù)牟取非法利益的空間。第二,人工智能技術的運用需要以數(shù)據(jù)作為支撐,上述案例中,“深度偽造”技術的實現(xiàn)需要收集足夠真實的信息樣本才能運行。而人臉識別破解案例中,犯罪分子也是通過非法購買的他人的高清頭像和身份證信息對人臉識別系統(tǒng)進行破解。因此,數(shù)據(jù)安全在人工智能治安防控中起到基礎性的作用。

        目前,非法數(shù)據(jù)獲取和交易的原因主要在于數(shù)據(jù)的權屬和開放利用模式不明確,因此,預防類似案件的發(fā)生需要多個相關部門法之間的配合,從而形成一種“私法賦權、公法規(guī)制”的法律規(guī)制體系。非法數(shù)據(jù)獲取和交易涉及的法律部門主要包括民法、競爭法和刑法,其中,民法看重數(shù)據(jù)的隱私保護和商業(yè)利用價值,重視事前對數(shù)據(jù)“賦權”以制止非法數(shù)據(jù)獲取與交易的侵權行為;競爭法著重數(shù)據(jù)競爭秩序建構,重視事后對競爭利益損害進行追認以制止非法數(shù)據(jù)獲取與交易的不正當競爭行為;而刑法偏重網(wǎng)絡數(shù)據(jù)安全保護,重視事后對非法數(shù)據(jù)獲取與交易的法益侵害進行認定以懲罰犯罪。

        此外,遏制非法數(shù)據(jù)獲取與交易的另一重要途徑即拓寬合法的數(shù)據(jù)交易渠道,探索建立更加高效有序的數(shù)據(jù)合法交易規(guī)則。2015年4月14日,全國首個大數(shù)據(jù)交易所——貴陽大數(shù)據(jù)交易所正式掛牌運營并完成首批大數(shù)據(jù)交易[12],發(fā)展到今天,國內已經(jīng)建立了十余家大數(shù)據(jù)交易平臺與中心。但現(xiàn)有的大數(shù)據(jù)交易市場還不夠成熟,由于缺乏統(tǒng)一的數(shù)據(jù)交易規(guī)則,各大數(shù)據(jù)交易所的發(fā)展逐漸陷入瓶頸,自2018年以來大多數(shù)機構都不再對外公布數(shù)據(jù)交易量和交易額,而就發(fā)布的數(shù)據(jù)交易成績而言,大多數(shù)數(shù)據(jù)交易機構的成績并不理想,以貴陽大數(shù)據(jù)交易所這個“明星項目”為例,據(jù)其官網(wǎng)披露,從2015年4月開業(yè)到2017年10月,累計交易額1.2億余元,交易框架協(xié)議近3億元,發(fā)展會員超1500家,接入225家優(yōu)質數(shù)據(jù)源,可交易數(shù)據(jù)產(chǎn)品近4000個,可交易數(shù)據(jù)總量超150PB(1PB=1024TB)。到2018年3月,會員數(shù)量突破2000家,此后便再也沒有新的交易規(guī)模被公布。與之相比,僅聯(lián)想集團一家企業(yè)就擁有超過12PB的數(shù)據(jù),每日新增的數(shù)據(jù)量超過30TB,貴陽大數(shù)據(jù)交易所掌握150PB的數(shù)據(jù)總量并不算高[13]。顯然,在數(shù)據(jù)交易需求難以通過合法渠道予以滿足之時,自然會催生大量的非法數(shù)據(jù)獲取與交易行為。因此,國內需要繼續(xù)推進大數(shù)據(jù)交易市場的建設,探索建立更加高效、有序、統(tǒng)一的數(shù)據(jù)合法交易規(guī)則,推動數(shù)據(jù)交易朝合法有序的方向蓬勃發(fā)展。

        (三)重視人工智能發(fā)展帶來的社會因素變動

        最好的社會政策就是最好的刑事政策,人工智能的發(fā)展必然會引發(fā)社會生產(chǎn)、生活領域的巨大變動,必然要求我們調整相應的社會政策以積極應對出現(xiàn)的社會問題,從而避免在人工智能技術發(fā)展所引起的社會結構解組與重構過程中產(chǎn)生迪爾凱姆所稱的“失范”現(xiàn)象。

        首先,針對人工智能引發(fā)的失業(yè)危機,國家必須做好準備以及相應的保障措施,一方面,在未來人工智能引發(fā)的產(chǎn)業(yè)升級中,需要準備好相關勞動者的再就業(yè)或福利救濟政策,以應對大規(guī)模失業(yè)潮的出現(xiàn)。另一方面,讓教育與培訓體系緊跟人工智能發(fā)展的時代步伐,將人工智能的相關知識體系納入基礎教育的范疇,培養(yǎng)中小學生的人工智能基礎思維與素養(yǎng)能力;優(yōu)化高等學校人工智能科技創(chuàng)新體系和學科體系,聚焦并加強新一代人工智能基礎理論和核心關鍵技術研究,完善人工智能領域人才培養(yǎng)體系,重視人工智能與計算機、控制、數(shù)學等學科專業(yè)教育的交叉融合,培養(yǎng)多元化、跨學科人才。同時,做好公眾再教育、再培訓工作,提升公眾基本的人工智能思維與素養(yǎng)能力,教育公眾理解關于人工智能的核心概念;密切監(jiān)測勞動力市場的變化,為過渡期勞動者提供技能培訓支持,從而使其能夠盡快適應人工智能發(fā)展帶來的新興勞動力要求。

        其次,針對人工智能發(fā)展可能加劇的經(jīng)濟不平等與階級固化,必須始終秉承“公共福利”的發(fā)展理念,構建人工智能的倫理與道德觀念,防止其成為少數(shù)精英階層掠奪公共財富的工具。對此,歐盟在“建立與人工智能發(fā)展和應用相適應的法律和倫理框架”的探索與實踐中走在了世界的前列。根據(jù)歐盟制定的《可信AI倫理指南》(Ethics Guidelines for Trustworthy AI),可信AI必須具備合法性、符合倫理、穩(wěn)健性三個特征,其中穩(wěn)健性特指從技術或是社會發(fā)展的角度看,AI系統(tǒng)應是穩(wěn)健可靠的,否則,即使AI系統(tǒng)本身合法且符合倫理,也可能因“算法漏洞”等技術缺陷的問題產(chǎn)生治安風險。為保證可信AI的實現(xiàn),歐盟特別強調人類的能動性與監(jiān)督、AI的透明性以及AI安全評估三個方面的內容。首先,AI必須有助于人類行使基本權利并且受到人類的監(jiān)督,包括AI系統(tǒng)的每個決策、設計、使用周期都可進行人為干預。其次,透明性強調應確保AI決策的數(shù)據(jù)集、過程和結果的可追溯性,保證AI的決策結果可被人類理解和追蹤,并且當AI決策結果將會對個體產(chǎn)生權益上的重大影響時,必須賦予個體知情并得到合理解釋的權利。最后,與人類產(chǎn)生交互活動的AI活動應當進行定期評估,確保AI系統(tǒng)在全生命周期內安全、穩(wěn)健、合法且符合倫理地運行,并最終造福于人類?!端惴ㄘ熑闻c透明治理框架》(A Governance Framework For Algorithmic Accountability and Transparency)是由歐洲議會未來與科學和技術小組(STOA)發(fā)布的一份關于算法透明和責任治理的系統(tǒng)性研究報告。報告在分析算法系統(tǒng)為社會、技術和監(jiān)管帶來的挑戰(zhàn)的基礎上,為算法透明度和問責制的治理提出4個不同層次的政策建議,包括提供公眾的算法素養(yǎng)、公眾部門建立算法問責制、完善監(jiān)管和法律責任制度、加強算法治理的國際合作[14]。

        最后,針對人工智能帶來的個體的社會聯(lián)系減少問題,需要在民眾心中樹立物質第一性、現(xiàn)實世界大于虛擬世界的基本世界觀與價值觀,防止其沉迷于人工智能建構的虛擬世界不可自拔。特別是對于青少年而言,他們的三觀與心智尚未成熟,對于誘惑的抵御能力較弱,很容易陷入人工智能建構的虛擬世界不能自拔,因而需要完善推行相關的網(wǎng)絡防沉迷規(guī)定,讓青少年更多地回歸現(xiàn)實世界中。此外,既然傳統(tǒng)的社會生活方式已經(jīng)被打破,人工智能構建的虛擬世界不可逆轉,那么勢必需要在傳統(tǒng)的社會聯(lián)系被削弱之后,重構一種新的社會聯(lián)系體系,使之能夠替代傳統(tǒng)的社會聯(lián)系發(fā)揮作用。

        (四)加強人工智能治安風險防控的協(xié)作與交流

        1.統(tǒng)籌聯(lián)合國內的人工智能安全實踐

        目前國內的人工智能安全實踐主要集中在各大高校以及相關的互聯(lián)網(wǎng)企業(yè),如清華大學針對人工智能對抗性攻防的問題,研發(fā)了涵蓋系統(tǒng)、算法、應用三個標準程序庫層次的RealSafe算法平臺。獵戶星空則自主研發(fā)了人工智能自動化訓練平臺,主要應用于人工智能訓練數(shù)據(jù)的安全管理。此外,IBM、深信服、360、阿里巴巴、華為等公司也擁有自己獨特的人工智能安全實踐。但總體來說,現(xiàn)有的人工智能安全實踐還停留在高?;蚬尽案髯詾閼?zhàn)”的層面,且各具特色,根據(jù)個體的定位不同側重于不同的安全方面,尚未形成統(tǒng)一的人工智能安全聯(lián)盟。而在德國,早在2017年3月24家企業(yè)已經(jīng)組建“德國人工智能協(xié)會”為行業(yè)利益發(fā)聲,其中包括妥善應對倫理風險等負面影響。因此,國內的高校和公司如果能聯(lián)合起來,不僅可以規(guī)范整個人工智能產(chǎn)業(yè)的發(fā)展,還可以通過分享不同的經(jīng)驗提升整個行業(yè)的安全防控水平。在政府的牽頭領導下,形成全社會整體統(tǒng)一的人工智能安全防控系統(tǒng)。具體應由政府主導人工智能安全的發(fā)展戰(zhàn)略,將人工智能安全上升到國家安全高度,一方面為推進人工智能內容安全發(fā)展提供法律法規(guī)、安全風險、政策指導、資源配置、行業(yè)準則等方面的保障。另一方面制定分階段發(fā)展戰(zhàn)略,目標清晰,從科研立項、智能經(jīng)濟到智能社會全面布局,加強指導性與執(zhí)行力[15]。

        2.加強人工智能安全風險防控的國際協(xié)作

        隨著數(shù)據(jù)交流與網(wǎng)絡安全合作的增多,人工智能安全風險防控問題已然成為國際關注重點,無論是歐盟采取的側重立法和監(jiān)管的路徑,還是美國采取的輕監(jiān)管、促創(chuàng)新路徑,都值得我國進行借鑒學習。目前,部分國家和地區(qū)已經(jīng)通過立法等形式為國際合作提供政策支持。例如,歐洲25個國家簽署了《人工智能合作宣言》,承諾開展合作、促進對話,爭取就各國之間的AI研究與應用合作達成一致,還通過聯(lián)合聲明等方式促進優(yōu)先領域的立法合作,包括數(shù)據(jù)保護、倫理標準、數(shù)據(jù)權利等重點問題[16]。除了人工智能倫理與法律治理理念開展國際合作、制定國際規(guī)則外,由于數(shù)據(jù)的流動性與互聯(lián)網(wǎng)技術的國際互通性,越來越多的跨國犯罪依托人工智能底層技術的發(fā)展而猖獗,加強國際警務合作與交流也是防控人工智能治安風險的應有之義。隨著全球化的進一步推進,人工智能技術安全風險防控必然是未來國際合作與分工重大命題之一,我國需要積極參與,吸收借鑒歐盟、美國等人工智能主要“玩家”的先進經(jīng)驗,同時輸出我國的治理理念與防控經(jīng)驗,主導人工智能安全風險國際治理和國際規(guī)制的制定。

        猜你喜歡
        人工智能
        我校新增“人工智能”本科專業(yè)
        用“小AI”解決人工智能的“大”煩惱
        汽車零部件(2020年3期)2020-03-27 05:30:20
        當人工智能遇見再制造
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        AI人工智能解疑答問
        人工智能與就業(yè)
        基于人工智能的電力系統(tǒng)自動化控制
        人工智能,來了
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        人工智能來了
        學與玩(2017年12期)2017-02-16 06:51:12
        国产盗摄XXXX视频XXXX| 人人妻人人爽人人澡欧美一区| 丰满多毛的大隂户视频| 久久久久国产一级毛片高清版A| 一区二区视频网站在线观看 | 国产最新女主播福利在线观看 | 日韩精品中文字幕无码一区| 久久99国产亚洲高清| 亚洲一区二区三区1区2区| 天天躁夜夜躁狠狠躁婷婷| 人妻av乱片av出轨| 天天躁日日操狠狠操欧美老妇 | 91青青草免费在线视频| 国产高清成人午夜视频| 久久久老熟女一区二区三区| 高清无码一区二区在线观看吞精| 国产精品亚洲精品日产久久久| 国产精品一区av在线| 香港三级日本三级a视频| 91麻豆国产香蕉久久精品 | 亚洲成av人在线观看网址| 亚洲人成亚洲精品| 日韩中文字幕网站| 国产三级精品三级在线专区2| 亚洲日韩av无码一区二区三区人| 人人妻人人澡人人爽精品欧美| 元码人妻精品一区二区三区9| 国产一区二区av免费在线观看| 亚洲成av人片在线观看ww| 无码不卡一区二区三区在线观看| 中国黄色偷拍视频二区| 国产高清在线观看av片 | 国产精品vⅰdeoxxxx国产| 国产羞羞视频在线观看| 国产精品国产三级国产专区51区| 日韩人妻无码精品一专区二区三区 | 欧美怡红院免费全部视频| 久久中文字幕日韩无码视频| 免费人妻精品一区二区三区| 国产老熟女网站| 78成人精品电影在线播放|