陳偉光
【摘要】人工智能是引領未來的戰(zhàn)略性技術,主要發(fā)達國家都將其作為提升國家競爭力、維護國家安全、占據前沿科技主導權的重大戰(zhàn)略。中國推動人工智能發(fā)展戰(zhàn)略,是中國作為全球性大國提升綜合實力和順應國際形勢發(fā)展的產物。然而,人工智能又是一種顛覆性的技術,我們要對人工智能的負面影響和沖擊充分預估,構筑人工智能多層次治理體系。人工智能治理既是其技術和運用發(fā)展到一定階段的必然結果,又是對其研究、開發(fā)、生產和運用過程中可能會出現的公共安全、道德倫理等問題進行協(xié)調、處理、監(jiān)管和規(guī)范的過程。中國作為人工智能大國,應抓住未來發(fā)展機遇,積極參與國際人工智能規(guī)則和標準設計,為人工智能全球治理貢獻中國智慧,以“善治”謀求人工智能的“善智”而造福于人類。
【關鍵詞】人工智能 道德倫理 規(guī)則標準 全球治理
【中圖分類號】TP18 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2017.20.006
前言
人工智能是人類科技文明發(fā)展到一定階段的產物,是研究、開發(fā)用于模擬、延伸和擴展人類智能的技術科學。作為一種快速發(fā)展的并具有劃時代意義的高科技,其廣泛應用必將對現代人類社會發(fā)展產生全面而又深刻的影響。人工智能將極大地促進全要素生產率提升,據埃森哲發(fā)布的報告預測,2035年人工智能預期可以為12個發(fā)達經濟體帶來兩倍的經濟增長速度,中國的經濟增長率將從6.3%提速至7.9%。①軍事上,人工智能和機器人有可能大規(guī)模投入未來戰(zhàn)場,或將改變戰(zhàn)爭模式乃至國際軍事格局。人工智能在極大地解放生產力的同時,也將深刻地改變人類的生產方式、工作方式和生活方式。然而,作為一種顛覆性的技術,我們要對人工智能的負面影響和沖擊充分預估,理性思考人工智能的安全治理問題。實際上,一些科學家、有識之士以及社會各界也開始認識到這一問題的重要性。一般來說,安全性評估和審慎監(jiān)管原則適合于任何一項科學技術革命,但由于人類利益動機、預估不足、外部性和道德風險等問題的存在,往往導致治理滯后、治理赤字和治理失靈等現象,如工業(yè)革命以來走過的“先污染,后治理”的教訓以及溫室氣體排放與氣候談判的曲折等,都是這一問題的表現。人工智能由于其技術復雜性、擴展性、不可控性和不可預知性,可能更需要做好風險預估和防范,引導其健康、有序、安全發(fā)展,以規(guī)范人工智能研發(fā)、生產和消費秩序,通過對人工智能的“善治”謀求人工智能造福于人類的“善智”。②
人工智能引發(fā)的治理問題
人類社會需要面對人工智能正在發(fā)生的問題,也需要預估、評判和預防未來人工智能發(fā)展可能引發(fā)的問題。應該說,從問題的嚴重性來講,人們最擔心的是未來人工智能對人類生存的挑戰(zhàn)。從科學家霍金的“人類最后的文明”到人工智能預測家?guī)炱濏f爾全面超越人類智慧的“奇點”論,都表現為對人工智能未來的“超人類性”、“另人類性”以及“非可控性”的擔憂。在霍金看來,人工智能的廣泛使用具有極高的風險性,一方面人工智能帶來的收益是巨大的,人類或許可以借助這一強大的工具,減少工業(yè)化對自然的傷害。但是“我們不確定我們是會被智能無限地幫助,還是被無限地邊緣化,甚至毀滅”,人工智能的崛起可能是人類文明的終結。因此,人類必須建立有效機制盡早識別威脅所在,防止人工智能對人類帶來的威脅進一步上升。③
庫茲韋爾認為,人工智能可以全面超越人類智能,而且超越的速度遠超過人們的預期。他認為,2045年是“奇點”到達的時期,這將是極具深刻性和分裂性的時間點,非生物智能在這一年將會10億倍于今天所有人類的智慧。④當然,大多數科學家和人工智能專家對人工智能全面超越人類持否定態(tài)度,認為這是杞人憂天式的臆想,對人工智能征服人類的擔心就像擔心火星上塞車一樣。航天器發(fā)明之前,其可能墜毀的風險擔憂并沒有阻止航空航天事業(yè)的發(fā)展。從這一點說,我們幾乎沒有可能阻止人工智能的快速發(fā)展,但從現在起,給予人工智能更多的人文關注、價值判斷和理性思考,是一種比較正確的態(tài)度。事實上,人文社會科學的發(fā)展應該走在自然科學的前面,在人工智能安全問題之前做好充分的理論準備。
第二類問題是人工智能可能引發(fā)的安全問題。其一是操作權失控或惡意使用導致的安全威脅。人工智能對人類的利害作用取決于掌控和使用人工智能的人。例如,黑客可能通過智能方法發(fā)起網絡攻擊,還可利用人工智能技術非法竊取私人信息。其二是技術失控或管理不當所致的安全問題。某些技術缺陷也會導致人工智能系統(tǒng)出現安全隱患,比如深度學習采用的黑箱模式會使模型可解釋性不強,機器人、無人智能系統(tǒng)的設計、生產不當會導致運行異常等。
第三類是人工智能倫理規(guī)范的挑戰(zhàn)。倫理問題是人工智能技術應用值得關注的問題。如人工智能的行為規(guī)則問題,人工智能技術的應用正在將一些生活中的倫理性問題在系統(tǒng)中規(guī)則化。系統(tǒng)的研發(fā)設計必須要與社會倫理匹配對接,機器規(guī)范和人類規(guī)范必須兼容,從而導致社會損害。再如機器人的“人格”和權力問題。目前在司法、醫(yī)療、指揮等領域正在發(fā)揮作用,不遠的將來,人工智能在審判分析、疾病診斷上將替代人類。但是,在給機器授予決策權后,人們不僅要考慮人工智能的安全風險,而且還要面臨一個新的倫理問題,即機器獨立行使專業(yè)決策的資格。有倫理學家認為,未來機器人不僅有感知、認知和決策能力,人工智能在不同環(huán)境中學習和演化,還會形成不同的個性。所以機器人使用者需要承擔類似監(jiān)護人一樣的道德責任甚至法律責任,以免對社會文明產生不良影響。⑤
第四類問題是人工智能可能引發(fā)的隱私問題。大數據驅動模式主導了近年來人工智能的發(fā)展,隱私問題是數據資源開發(fā)利用中的主要威脅之一,人工智能應用中必然存在隱私侵犯風險。比如數據采集中的隱私侵犯。隨著各類數據采集設施的廣泛使用,智能系統(tǒng)掌握了個人的大量信息,如果出于商業(yè)目的非法使用某些私人信息,就會造成隱私侵犯。再如云計算中的隱私風險。因為云計算技術使用便捷、成本低廉,許多用戶開始將數據存儲至云端。將隱私信息存儲至云端后,這些信息就容易遭到各種威脅和攻擊。目前在許多人工智能應用中,云計算已經被配置為主要架構,因此云端隱私保護是需要考慮的問題。還有知識抽取中的隱私問題。由數據到知識的抽取是人工智能的重要能力,知識抽取工具正在變得越來越強大,無數個看似不相關的數據片段可能被整合在一起,識別出個人行為特征甚至性格特征。但是,這些個性化定制過程又伴隨著對個人隱私的發(fā)現和曝光,如何規(guī)范隱私保護是需要與技術應用同步考慮的一個問題。⑥endprint
人工智能治理難題
盡管對人工智能風險認識和評價有相當大的分歧和爭議,但學界、業(yè)界以及政界對人工智能治理的必要性已形成基本共識。不僅霍金、馬斯克等人發(fā)起倡議的《人工智能23條原則》,強調人工智能的規(guī)范發(fā)展必須納入正確軌道,而且各國政府和行業(yè)協(xié)會在其人工智能發(fā)展戰(zhàn)略規(guī)劃或行業(yè)報告中,都有比較明確的人工智能監(jiān)管和治理要求,如2016年9月,英國標準協(xié)會發(fā)布《機器人和機器系統(tǒng)的倫理設計和應用指南》,是業(yè)界第一個關于機器人倫理設計的公開標準,旨在指導機器人設計研究者和制造商如何對一個機器人做出道德風險評估,以保證人類生產出來的智能機器人能夠融入人類社會現有的道德規(guī)范。⑦2016年6月,日本AI學會的倫理委員會發(fā)布人工智能研究人員應該遵守的倫理指標草案,以引導和規(guī)范研究人員正確處理人工智能進一步發(fā)展導致的倫理道德、安全問題。⑧美國的《國家人工智能研究和發(fā)展戰(zhàn)略計劃》全面搭建了美國推動人工智能研發(fā)的實施框架,并強調保障人工智能系統(tǒng)的友好性,推動人工智能系統(tǒng)的公平、透明與符合倫理。同時,確保人工智能系統(tǒng)的安全可靠,提高信任度、可驗證和可確認性,并實現自我安全防御與優(yōu)化。⑨
問題的關鍵不是人工智能需不需要治理的問題,而是人工智能究竟應該如何治理、治理什么的問題,人工智能本身的復雜性特征使得人工智能在治理機制設計和構建中遭遇多重難題。
首先是事前的風險識別和預防難題。不同于原子能、化工等研究開發(fā)的基礎設施的大規(guī)模性、風險源的明確性,監(jiān)管者或治理行為體能夠非常容易地確定潛在的公共危險源的制造者和發(fā)生地。人工智能研發(fā)具有秘密性、分散性、不連續(xù)性及不透明性。秘密性是指人工智能的研究與開發(fā)只需要極少的可見設施;分散性是指研究人工智能系統(tǒng)不同組成部分的研發(fā)人員可能分布在不同的地方;不連續(xù)性是指人工智能的研發(fā)不需要所有的部件同時就位,也不需要不同部門的研究人員通力合作;不透明性,是指人工智能系統(tǒng)運行可能處在秘密狀態(tài),由于信息的嚴重不對稱,外部人員很難發(fā)現人工智能系統(tǒng)中潛在的危險而無法采取針對性的監(jiān)管措施。⑩人工智能這些特征,為其事前監(jiān)管帶來許多不便,也為有效的人工智能治理設計帶來困惑,畢竟科學的風險識別和預防機制的構建是治理有效性的關鍵。
其次是風險發(fā)生的不可預知性難題。人工智能與其他傳統(tǒng)科技最大的不同是可以獨立完成預定任務的自主性,但是人工智能自主行為與人類的決策和行動存在根本的不同,盡管人工智能系統(tǒng)設計總是模仿人腦的工作方式。人類智能由于其在限定的時間里的計算速度有限,很難在窮舉中得出最優(yōu)解,而往往通過經驗、直覺等方法得出自認為滿意的答案,而非一個最佳的解決方法,經濟學家Herbert Simon稱之為“滿意法”。?而人工智能通過合并算法和深度學習可以在極短的時間內精確計算所有的可能性,從而使得它們能夠選擇人類完全沒有考慮過而“出人意料”的解決問題方法,做出的結論可能同人類的認知系統(tǒng)做出的決策產生極大的不同。一個能夠自主學習的人工智能系統(tǒng)的行為部分依靠其后天的經歷,即使是最細心的設計者、編程者以及制造者都沒有辦法控制或者預測人工智能系統(tǒng)在脫離他們之后將會經歷些什么。?所以,人工智能的不可預知性,使得人工智能系統(tǒng)在做出難以預測的損害性行為時,讓設計者承擔責任可能會導致不公平和非正義。值得注意的是,對于產品生產者的嚴格責任,規(guī)定有“當前科學水平尚不能發(fā)現缺陷”的免責事由。但是這項免責事由在人工智能領域是否適用值得討論。盡管在深度學習訓練數據和學習過程存在不可預見性,但考慮到人工智能的算法完全由開發(fā)者編寫,開發(fā)者對風險源頭具有絕對的控制力,司法機關可能會推定開發(fā)者應當預見算法執(zhí)行中的可能風險或要求開發(fā)者對風險程度的增加承擔責任。
再次是事后責任認定和分配的難題。以規(guī)則為基礎的治理是現代治理的根本特征,法律法規(guī)作為正式規(guī)則主體形式使得“法治”構成有效社會治理的核心,人工智能的治理難題集中表現為法律困惑和政策困境。一是人工智能的不可控性導致的監(jiān)管兩難。隨著人工智能技術升級到強人工智能階段,不可控性可能成為一個嚴峻的問題,未雨綢繆人工智能的局部失控乃至可能出現的全面失控是當代人的責任。從現在來講,各國不會像用法律禁止克隆人一樣規(guī)避人工智能風險,人們所焦慮的是如何在不束縛人工智能良性發(fā)展的前提下最大限度地防控人工智能風險。二是人工智能風險主體的多元性和不可預知性問題也導致了對其監(jiān)管的法律困惑,由于參與人工智能系統(tǒng)部件的主體多元和不可預知,很難確定出責任主體。例如,人工智能系統(tǒng)的部件的制造者可能沒有想到他們生產的部件被用在了人工智能系統(tǒng)上,如果造成了損害就更非他們的本意了。在這種情況下,將責任分配給人工智能系統(tǒng)某一部件的設計者,就顯得非常的不公平,同樣,人工智能系統(tǒng)運轉的不透明讓法院也不能輕易判斷將人工智能系統(tǒng)造成第三人損害的責任歸責于運營者還是使用者。三是人工智能法律主體的難題。人工智能的自主性隨著人工智能技術進步進化到強人工智能階段后,人工智能載體如機器人是不是人格意義的道德體、行為體乃至法律主體?由于機器可以像人類一樣獨立思考和決策,該階段的人工智能如果和人類一樣,成為獨立的主體享有權利,并對自己的行為承擔責任,傳統(tǒng)法律體系將產生巨大的沖擊。?
最后是人工智能對就業(yè)崗位的沖擊,將引發(fā)分配政策的重塑。人工智能在體力特別是腦力替代人類的勞動,在極大改善生產效率的同時,也將對社會就業(yè)產生全面的沖擊。當前,人工智能正在眾多領域發(fā)揮作用并具備巨大潛力,如醫(yī)療衛(wèi)生、交通出行、環(huán)境監(jiān)測、司法調查等領域。按照人工智能的發(fā)展速度,不遠的將來,人工智能將很快滲透到駕駛、新聞記者、翻譯、醫(yī)療等職業(yè)中。另一方面,人工智能也將推動新的就業(yè)產生。未來,直接由人工智能驅動的工作將出現,包括人類與現有人工智能技術的合作、開發(fā)新的人工智能技術、在實踐中監(jiān)督人工智能技術等。?
人工智能所引發(fā)的就業(yè)問題的解決本身不是人工智能治理問題。隨著社會就業(yè)結構的改變,社會財富分配差距可能更加分化,收入分配不公將成為嚴峻的社會問題。這些問題的解決需要政策體系的全面調整,如社會保障體系、教育政策體系的變革,從這方面上講,人工智能將為社會治理問題帶來新的沖擊。endprint
人工智能治理體系的構建
從1956年在美國達特茅斯(Dartmouth)大學舉辦人類歷史上第一次人工智能研討會開始,人工智能幾經波折走過了60年的發(fā)展歷程。近年來,人工智能得益于大數據、互聯網、學習算法和計算能力的改進,取得了迅猛發(fā)展。一些發(fā)達國家和新興市場國家高度重視人工智能的發(fā)展,相繼在國家戰(zhàn)略層面上對人工智能作出頂層設計。在各國的人工智能發(fā)展規(guī)劃中,都把人工智能的必要性和政府介入人工智能的監(jiān)管作為其中的重要內容。如在各自出臺的人工智能發(fā)展戰(zhàn)略政策報告中,美國明確提出政府是人工智能發(fā)展過程中安全和公平的重要監(jiān)管人;英國以全球人工智能系統(tǒng)的道德標準研究領域的領導者自居,并為未來引領人工智能監(jiān)管作準備;歐盟積極呼吁加強機器人相關的立法。與此同時,IEEE也發(fā)布了人工智能合倫理設計指南,引起了國際上相關同仁的重視。?總體上講,由于認識、倫理和法律問題存在,人工智能治理機制的建立滯后于其技術發(fā)展的步伐,目前還處于起步階段。但是正如互聯網公共治理快速發(fā)展一樣,人工智能治理體系建設必將快速展開。
人工智能治理是其技術和運用發(fā)展到一定階段的產物,是對人工智能研究、開發(fā)、生產和運用過程中可能會出現的公共安全、道德倫理等問題進行協(xié)調、處理、監(jiān)管和規(guī)范的過程。人工智能治理同氣候治理、互聯網治理一樣屬于專業(yè)治理、社會治理和政府治理共同合作的范疇。
人工智能治理的要素由人工智能治理的行為體、治理對象、治理規(guī)則、治理目標和理念以及治理績效構成。與其他社會治理一樣,人工智能的行為體是多元的,不僅由研究開發(fā)的科學家群體、開發(fā)商等自律性的主體組成,也由運營商、消費者等利益攸關者相關主體組成。由于人工智能的安全性、倫理和法律問題的復雜性,特別是人工智能的戰(zhàn)略安全等方面的重要性,國家政府是人工智能治理重要的行為主體。作為人工智能治理的平臺,一些國家相繼成立了人工智能治理的各類組織和機構,如科學家組織、學術團體和協(xié)會、高校研發(fā)機構,還有國家層面的專業(yè)性監(jiān)管組織。一些傳統(tǒng)的國際性組織也開始關注人工智能治理的問題,聯合國教科文組織(The United Nations Education, Scientific and Cultural Organization)和世界科學知識與技術倫理委員會(World Commission on the Ethics of Scientific Knowledge and Technology)近年來連續(xù)多次聯合發(fā)布報告,針對人工智能及機器人技術的發(fā)展帶來的各種問題,提出了全新的思考方式與解決路徑,對世界各國的人工智能監(jiān)管具有重要指導意義。
人工智能治理規(guī)則是保障人工智能全過程的正式和非正式的制度和規(guī)范,包括人工智能的研發(fā)道德規(guī)范、產品標準和安全性能要求以及相關法律程序、責任分配等。在以規(guī)則為基礎的現代治理模式中,規(guī)則體系構建是人工智能治理的關鍵。目前來看,各國人工智能治理規(guī)則體系還處于討論、醞釀階段,如美國除了自動駕駛和無人機進入了立法程序之外,其他的正式規(guī)則還未建構,還不存在針對人工智能的專門的監(jiān)管法律與機構。事實上,美國的法院也沒有針對人工智能造成損害案件的裁判標準。?
人工智能治理理念是關于人工智能價值觀念的哲學思考。不同于一般科學技術,人工智能的系統(tǒng)的開發(fā)與應用直接關乎道德倫理和人的權利、尊嚴等根本性問題?!耙?guī)則為基礎的治理”需要與“以倫理為基準的設計”高度契合,人工智能系統(tǒng)的工作核心是將價值標準和倫理思考嵌套在智能系統(tǒng)設計之中,這是人工智能治理的核心理念和根本要求。人工智能需建立一套能跨越種族和國家的具有普適性的倫理原則,使之成為各國在發(fā)展人工智能技術普遍遵守或共同認可的規(guī)范。當然,涉及到倫理相關的治理不只是一套規(guī)則,而是一個持續(xù)的調和過程,在文化多樣性中尋找最大公約數和均衡結果。?
人工智能的治理對象是人工智能可能引發(fā)的公共問題。包括由人工智能系統(tǒng)可能引發(fā)的公共安全、道德倫理和行為規(guī)范在內的負外部性問題。由于人工智能的風險源的不可預知性和模糊性,人工智能治理對象的邊界不可能十分清晰。這也是其治理難度的表現。
需要說明的是,人類社會正邁進人工智能與互聯網、大數據高度融合的時代,人工智能時代是人類進入網絡時代、大數據時代的自然結果,只有人工智能才能處理任何強大的自然人與傳統(tǒng)組織都無法處理的龐大數據,實現對數據的分析、處理和再現過程。?因此,人工智能治理僅從單一的專業(yè)治理理解可能會有失偏頗,需要納入多層次綜合治理的軌道。從地域范圍來看,人工智能治理是地區(qū)治理、國家治理和全球治理,從領域來看,涉及道德倫理、傳統(tǒng)安全、非傳統(tǒng)安全、就業(yè)政策、技術治理等,還包括互聯網治理和數據治理中涉及人工智能的領域。
人工智能治理與中國
與國際上人工智能的發(fā)展情況相比,中國的人工智能研究和開發(fā)是在發(fā)達國家人工智能開創(chuàng)20余年后開始起步的。改革開放后,中國人工智能逐步走上了加速發(fā)展的軌道。黨的十八大以來,中國人工智能發(fā)展被提升到國家戰(zhàn)略高度,開啟了中國人工智能變革與創(chuàng)新的新時代。近年來,國家相繼出臺了人工智能建設發(fā)展的系列規(guī)劃,如《“互聯網+”人工智能三年行動實施方案》《智能制造2025》和《機器人產業(yè)發(fā)展規(guī)劃(2016~2020)》等。2017年,發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,系統(tǒng)全面地提出了我國新一代人工智能發(fā)展的指導思想、戰(zhàn)略目標、重點任務和保障措施。人工智能成為國家戰(zhàn)略,是世界主要大國的通行做法。作為引領未來的戰(zhàn)略性技術,主要發(fā)達國家都把發(fā)展人工智能作為提升國家競爭力、維護國家安全、占據前沿科技主導權的重大戰(zhàn)略。中國推動人工智能發(fā)展戰(zhàn)略,是中國作為全球性大國的綜合實力提升和順應國際形勢發(fā)展的產物。
在中國人工智能戰(zhàn)略規(guī)劃中,人工智能治理作為人工智能發(fā)展的有機組成部分成為重要關切。一是提出建立人工智能技術標準,建立安全監(jiān)管和評估體系,制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范。二是強調積極參與人工智能全球治理,加強機器人異化和安全監(jiān)管等人工智能重大國際共性問題研究。三是深化在人工智能法律法規(guī)、國際規(guī)則等方面的國際合作,共同應對全球性挑戰(zhàn)。endprint
中國是國際人工智能后來者,但與18世紀工業(yè)革命以來中國錯失的技術革命機遇不同,中國表現出前所未有的戰(zhàn)略敏感性,依托后發(fā)優(yōu)勢實現彎道搶跑,在人工智能一些領域中取得了世界領先地位。雖然中國人工智能在部分領域特別是運用領域取得了驕人成績,有的達到甚至超越了世界同類項目的最高水平,但整體能力和水平遠未達到通用智能化程度,人工智能基礎研究、組織工作推進、產業(yè)協(xié)同創(chuàng)新、環(huán)境發(fā)展優(yōu)化的總體水平與國際先進水平仍然存在明顯差距。?
盡管世界各國在人工智能治理上目前還處于起步階段,但是按照人工智能的發(fā)展趨勢,在不遠的將來一些重要大國的人工智能治理機制會很快建構并完善起來,這是人工智能規(guī)范、有序發(fā)展的必由之路。尤其是人工智能與大數據、互聯網和云計算等技術深度融合,人工智能的資源配置、技術外溢和社會影響的外部性極容易超越一國的邊界而成為全球性的公共問題,因此人工智能客觀上需要全球性協(xié)調機制、全球性協(xié)作平臺以及全球性的標準和規(guī)則,也需要人工智能的道德倫理系統(tǒng)和價值理念的碰撞和討論,這些都是人工智能全球治理的應有之義。正如聯合國教科文組織和世界科學知識與技術倫理委員會在報告(2016年)中所指出的:需要呼吁世界各國采用全新的視角看待人工智能系統(tǒng)的未來監(jiān)管。2016年12月,標準制定組織IEEE發(fā)布《合倫理設計:利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景(第一版)》,旨在鼓勵科技人員在AI研發(fā)過程中,優(yōu)先考慮倫理問題。這份由IEEE全球計劃下屬各委員會共同完成的文件為人工智能的全球治理提供了重要參考(騰訊研究院:《信任、公正與責任:IEEE人工智能合倫理設計指南解讀》)。中國作為人工智能大國,應抓住未來發(fā)展機遇,積極參與國際人工智能合作,為人工智能治理國際合作貢獻中國智慧。
一是積極推動國家人工智能治理體系的建立和完善。國家人工智能治理體系建立和完善是參與人工智能全球治理的基礎和前提。目前需要按照國家的人工智能建設規(guī)劃,貫徹有關人工智能技術標準、法律法規(guī)和倫理規(guī)范等建設任務。為了提升行動效率,建議設立國家人工智能專門治理機構如人工智能發(fā)展協(xié)調委員會,負責制定和執(zhí)行國家人工智能政策,加強研究與產業(yè)推進等工作的組織協(xié)調。推動建立國家級人工智能產業(yè)聯盟,加強業(yè)界的交流與產業(yè)協(xié)作、知識產權共享和儲備,推動產業(yè)鏈上下游緊密合作,促進重點領域如智能裝備、智能機器人、智能汽車、智能終端等重點產品的研發(fā)與成果產業(yè)轉化。在發(fā)揮好國內現有的人工智能學術團體和學會作用的基礎上,成立跨部門跨學科專家委員會,推動人工智能重大、前沿、綜合問題研究,定期評估技術演進、產業(yè)發(fā)展態(tài)勢以及對經濟社會發(fā)展的貢獻與影響,推動對人工智能可能帶來的就業(yè)、法律、倫理等社會問題開展研究,并提出適當的建設性、前瞻性公共政策建議與實施框架。?
二是搭建人工智能治理國際合作平臺。鼓勵高校和科研院所積極開展人工智能國際合作和學術交流,倡導人工智能科學家團體、專家委員會與發(fā)達國家的相關組織以及國際組織的合作交流、學術互動。探索人工智能產業(yè)聯盟開展國際交流的機制,參與和引領國際人工智能相關標準的制定,提高中國在人工智能全球治理中的制度性話語權。
三是確立在人工智能治理國際合作中的合理定位。中國是現有全球治理體系的建設者、完善者和改革者,不做全球治理體系旁觀者,也不推倒重來、重起爐灶。在人工智能治理領域,中國應該利用先發(fā)優(yōu)勢,力爭成為未來全球人工智能治理規(guī)制的重要設計者、標準的制定者和倫理價值的倡導者。
四是為人工智能全球治理貢獻中國智慧。人工智能已開始沖擊現存的人類社會結構,人—機器二元社會正在逐漸地向人—機器—智能機器三元社會發(fā)展。如何保持人、機器、智能機器和睦共處是人工智能時代必須面對的問題。在中國傳統(tǒng)文化中,無論是先秦的“天人合一”論還是宋明的“萬物一體”論,都強調人與人、人與物、人與社會以及人與自然的整體性、和諧性、統(tǒng)一性關系。從當代中國看,人類命運共同體思想是立足當今世界不斷加強的相互依賴關系并思考人類未來關系的價值觀和方法論。從古到今,都能從中國文化元素和政策主張中尋找到三元社會結構“共生共存共濟”的良方。
(本文系國家社科基金重大項目“提高中國在參與全球經濟治理中的制度性話語權研究”的階段性研究成果,項目批準號:15ZDA062)
注釋
《埃森哲:AI使經濟發(fā)達國家成為最大受益者》,網易科技,2016,http://tech.163.com/16/1013/07/C388K55N00097U80.html。
高奇琦、李陽:《善智:人工智能的價值目標》,《中國社會科學報》,2017年8月23日。
黃志澄:《如何看待霍金對人工智能的警告》,《中國青年報》,2017年6月5日,第2版。
[美]庫茲韋爾:《奇點臨近》,李慶誠、董振華、田源譯,北京:機械工業(yè)出版社,2014年,第80頁。
李修全:《人工智能應用中的安全、隱私和倫理挑戰(zhàn)及應對思考》,《科技導報》,2017/35(15)。
Brianna Crandall, "BSI standard tackles ethical hazards ofrobots," FMLink, http://fmlink.com/articles/bsi-standard-tackles-ethicalhazards-robots.
李修全、蔣鴻玲:《美日歐政府發(fā)展人工智能的新舉措及對我國的啟示》,《全球科技經濟瞭望》,2016年第10期。
尹昊智、劉鐵志:《人工智能各國戰(zhàn)略解讀:美國人工智能報告解析》,《電信網技術》,2017年第2期。
[美]馬修U.謝勒:《監(jiān)管人工智能系統(tǒng):風險、挑戰(zhàn)、能力和策略》,曹建峰、李金磊譯,《信息安全與通信保密》,2017年第5期。
Herbert A. Simon, "Rational Choice and theStructure of the Environment," 63 PSYCHOL.REV. 129, 136 (1956)
See Pei Wang, "The Risk and Safety of AI", AGENERAL THEORY OF INTELLIGENCE, https://sites.google.com/site/narswang/EBook/ topic-list/the-risk-and-safety-of-ai[https://perma.cc/5LY3-CTLD. "An adaptivesystem's behaviors are determined both by itsnature (i.e., initial design) and its nurture (i.e.,postnatal experience). Though it is still possibleto give the system certain innate beliefs andmotivations, they will not fully determine thesystem's behaviors."
聶東明:《人工智能或將徹底顛覆人類現行法律體系》,阿里研究院。
尹昊智、劉鐵志:《人工智能各國戰(zhàn)略解讀:美國人工智能報告解析》,《電信網技術》,2017年2月第2期。
齊昆鵬:《2017年人工智能:技術、倫理與法律》,《科學與社會》,2017年第2期。
何哲:《人工智能時代的政府適應與轉型》,《行政管理改革》,2016年第8期
蔡自興:《中國人工智能40年》,《科技導報》,2016/34(15)。
陸汝鈐:《張鈸獲中國計算機學會終身成就獎》,《中國科學報》,2015年2月2日。
責 編∕樊保玲endprint