趙瑾 康詩宇
[摘? ? ? ? ? ?要]? 人工智能的發(fā)展與計(jì)算機(jī)科學(xué)的發(fā)展是相輔相成的,是計(jì)算機(jī)科學(xué)研究領(lǐng)域的分支。隨著信息技術(shù)的更新升級(jí)以及信息共享在大眾中的進(jìn)一步普及,人工智能已經(jīng)不僅僅是企業(yè)追求經(jīng)濟(jì)利益的產(chǎn)物,更是政府處理政務(wù)管理工作的重要技術(shù)支撐,政務(wù)管理也將會(huì)因人工智能技術(shù)的引用而產(chǎn)生新的價(jià)值。但在人工智能實(shí)際運(yùn)用于政務(wù)管理的過程中,仍然存在一些問題。
[關(guān)? ? 鍵? ?詞]? 政務(wù)管理;人工智能;技術(shù)安全;行政倫理
[中圖分類號(hào)]? D63? ? ? ? ? ? ? ? ? ? [文獻(xiàn)標(biāo)志碼]? A? ? ? ? ? ? ? ? ? [文章編號(hào)]? 2096-0603(2021)42-0126-02
一、人工智能在政務(wù)管理中的發(fā)展現(xiàn)狀
目前,人工智能在政務(wù)管理中的發(fā)展集中在電子政務(wù)領(lǐng)域。近年來,政務(wù)方面的人工智能技術(shù)已經(jīng)在電子身份證、不同類型的二維碼、領(lǐng)導(dǎo)決策中得到應(yīng)用。隨著信息技術(shù)的更新升級(jí),深層神經(jīng)網(wǎng)絡(luò)領(lǐng)域的深度學(xué)習(xí)概念逐漸發(fā)展,此概念主張通過對(duì)數(shù)據(jù)的深度分析與學(xué)習(xí)來加強(qiáng)對(duì)人工智能的信任支持。而在這種深度學(xué)習(xí)理念的指引下,人們認(rèn)識(shí)到收集相關(guān)信息后的處理信息系統(tǒng)以及評(píng)估收集信息的評(píng)價(jià)反饋系統(tǒng)同樣不可忽視。人工智能的研究與應(yīng)用也越來越瞄準(zhǔn)除了收集語音、人臉的信息與數(shù)據(jù)這樣的程序之外的其他信息管理系統(tǒng)的重要性,譬如具有多個(gè)子系統(tǒng)的政務(wù)決策系統(tǒng)的問世。具有代表性的應(yīng)用包括智能身份證的運(yùn)用、智能客服、政務(wù)知識(shí)庫、智能政務(wù)決策系統(tǒng)等。
二、人工智能在政務(wù)管理中的瓶頸
(一)理論瓶頸
人工智能技術(shù)的廣泛使用依賴于深度學(xué)習(xí)技術(shù)這個(gè)主流理論,但是很大程度上它也僅僅是黑箱狀況,現(xiàn)有人工智能系統(tǒng)都是知其表面而不知其機(jī)理,過于依賴通過問卷之類存在偏差的調(diào)查方法從表面收集數(shù)據(jù),而如果數(shù)據(jù)的深層語義所表達(dá)出來的信息無法提取,在這些不完整數(shù)據(jù)基礎(chǔ)上做出的決策也就不具備可信度了。
(二)數(shù)據(jù)瓶頸
“算力、算法、數(shù)據(jù)是人工智能發(fā)展的三大重要技術(shù)支撐,缺一不可。”人工智能需要大量的人工標(biāo)注的數(shù)據(jù)來進(jìn)行算法訓(xùn)練,然而數(shù)據(jù)的收集與獲取渠道少,獲取難度也隨著環(huán)境的不同而有所差別,數(shù)據(jù)的匱乏限制人工智能政務(wù)化的發(fā)展進(jìn)程。如何拓寬信息收集渠道以及如何保證信息的準(zhǔn)確性是問題的關(guān)鍵。
三、人工智能在政務(wù)管理中存在的困境
(一)部門自身管理服務(wù)能力脫節(jié)
1.在治理結(jié)構(gòu)上,政務(wù)服務(wù)部門傳統(tǒng)的科層制治理結(jié)構(gòu)導(dǎo)致的效率低下問題仍然存在。在科層制治理結(jié)構(gòu)下,由下而上的信息傳遞和由上而下的決策制定都較為緩慢。同時(shí),市場(chǎng)中信息不對(duì)稱與道德風(fēng)險(xiǎn)的存在,使人工智能政務(wù)化只能接觸簡(jiǎn)單的信息傳遞功能,無法改變現(xiàn)有結(jié)構(gòu)問題導(dǎo)致的政府行政效率低下。
2.在治理方法上,傳統(tǒng)以監(jiān)管為主要手段的治理方式,已經(jīng)無法對(duì)人工智能技術(shù)領(lǐng)域進(jìn)行有效監(jiān)管。由于人工智能技術(shù)發(fā)展的客觀需要,人工智能的算法必須以開源形式向全社會(huì)公開,但與此同時(shí),對(duì)算法進(jìn)行公開也很有可能帶來發(fā)展的不確定,甚至最終走向促進(jìn)人類社會(huì)發(fā)展的反面。
3.在數(shù)據(jù)共享上,當(dāng)前的數(shù)據(jù)共享程度還遠(yuǎn)未達(dá)到智能化政務(wù)服務(wù)的要求。截至目前,數(shù)據(jù)壁壘、“信息孤島”現(xiàn)象還大量存在于政務(wù)服務(wù)領(lǐng)域,公眾反復(fù)提交材料、往返跑腿現(xiàn)象廣泛存在。各部門、各層級(jí)間的數(shù)據(jù)信息互聯(lián)互通程度普遍偏低,協(xié)同辦理能力亟待提高。
4.在人力資源方面,人工智能技術(shù)的發(fā)展與應(yīng)用,很大程度上將改變?nèi)藗兊墓ぷ黝愋秃图寄茴愋停诋?dāng)前,由于計(jì)算機(jī)相關(guān)行業(yè)人才普遍緊缺,而部門內(nèi)部存在老齡化程度較高、薪資待遇偏低、培養(yǎng)意識(shí)不夠等問題,導(dǎo)致政務(wù)服務(wù)部門工作人員目前還不具備應(yīng)對(duì)這種變革的技術(shù)和能力。
(二)人工智能技術(shù)內(nèi)在發(fā)展困境
1.數(shù)據(jù)安全和隱私泄露問題日益突出。對(duì)于基于大數(shù)據(jù)基礎(chǔ)之上的人工智能技術(shù)而言,在實(shí)際運(yùn)用的過程中隨時(shí)都存在著侵犯隱私的風(fēng)險(xiǎn)。首先,在對(duì)信息進(jìn)行采集的過程中,系統(tǒng)會(huì)集中大量的個(gè)人信息,這些信息如果被非法使用,將會(huì)產(chǎn)生嚴(yán)重的隱私侵犯問題。其次,在信息的云端儲(chǔ)存過程中,數(shù)據(jù)易于因遭到威脅或攻擊而產(chǎn)生數(shù)據(jù)泄露問題。最后,人工智能在對(duì)數(shù)據(jù)進(jìn)行知識(shí)抽取的過程中,本身就是對(duì)個(gè)人隱私的發(fā)掘和提取,如果出于非法目的進(jìn)行使用,也會(huì)產(chǎn)生侵犯隱私的問題。此外,由于人工智能技術(shù)本身所存在的技術(shù)或管理缺陷,以及人類對(duì)技術(shù)的濫用或非法使用,又會(huì)產(chǎn)生更為廣泛的安全性問題。
2.在法律規(guī)范與責(zé)任承擔(dān)方面,現(xiàn)有的法律體系已經(jīng)難以適用于人工智能基于算法與數(shù)據(jù)的應(yīng)用環(huán)境。隨著人工智能逐步從弱人工智能向強(qiáng)人工智能以及超人工智能的過渡,人工智能的主體性越來越強(qiáng),如果要進(jìn)行更細(xì)致的劃分,在弱人工智能、強(qiáng)人工智能、超人工智能三個(gè)不同階段,人工智能對(duì)于人的相對(duì)地位并不一樣,其相應(yīng)的責(zé)任機(jī)制是否應(yīng)該有所區(qū)別?
3.在行政倫理方面也問題凸顯。首先,由政務(wù)服務(wù)部門工作人員提供政務(wù)服務(wù)有著法理上的權(quán)威性和合理性,但是人工智能是否有資格這樣做,目前仍有待進(jìn)一步探討。其次,隨著人工智能具備了較強(qiáng)的自主意識(shí),是否仍能夠保證其公平、公正地做出決策,它做出的決策又是否具有可責(zé)性、透明性?再次,基于歷史數(shù)據(jù)所進(jìn)行的分析與預(yù)測(cè),很有可能會(huì)因?yàn)樗惴ㄆ疃鴮?dǎo)致偏見與歧視,而這種偏見又可能進(jìn)一步導(dǎo)致社會(huì)不公現(xiàn)象的惡性循環(huán)。
四、應(yīng)對(duì)策略
要實(shí)現(xiàn)人工智能與政府政務(wù)管理事務(wù)的高度融合,并非一蹴而就。面對(duì)上述兩個(gè)方面的難題,我們應(yīng)該多管齊下,推進(jìn)人工智能在政務(wù)管理領(lǐng)域的深度發(fā)展,提高政府政務(wù)管理方面的效率,更好地服務(wù)于人民群眾。
(一)重視人工智能的研發(fā)與應(yīng)用
首先,在思想上,作為政務(wù)服務(wù)的提供者和決策的制定者,政務(wù)服務(wù)部門必須要對(duì)人工智能的研發(fā)與應(yīng)用予以高度重視。各部門要充分認(rèn)識(shí)到人工智能為政務(wù)服務(wù)管理變革所帶來的歷史機(jī)遇,并有意識(shí)地將其應(yīng)用到政務(wù)服務(wù)過程中。其次,在行動(dòng)上,要高度重視對(duì)相關(guān)領(lǐng)域內(nèi)人工智能技術(shù)的開發(fā)。要從加強(qiáng)對(duì)基礎(chǔ)設(shè)施、技術(shù)架構(gòu)、運(yùn)行機(jī)制的研究力度,推進(jìn)部分應(yīng)用先行先試,加大政策扶持力度以及推行安全認(rèn)證制度等多個(gè)方面,獨(dú)立自主研發(fā)出適用于我國(guó)政務(wù)服務(wù)工作的人工智能技術(shù)架構(gòu)體系和管理服務(wù)平臺(tái)。
(二)提高政府部門管理服務(wù)水平
首先,優(yōu)化部門內(nèi)部治理結(jié)構(gòu),從體制上解決科層制組織結(jié)構(gòu)所存在的行政效率低下問題,為人工智能技術(shù)的應(yīng)用打下基礎(chǔ)。其次,加大對(duì)包括中央在內(nèi)的組織數(shù)據(jù)的整合力度,大到中央與地方政府之間、小到組織各部門之間實(shí)現(xiàn)數(shù)據(jù)的即時(shí)共享互通,破解“數(shù)據(jù)孤島”難題。再次,建立健全監(jiān)管體系,實(shí)現(xiàn)對(duì)人工智能的數(shù)據(jù)從算法設(shè)計(jì)到產(chǎn)品開發(fā)與應(yīng)用進(jìn)行全程監(jiān)管,加大對(duì)違規(guī)行為的懲處力度,督促行業(yè)和企業(yè)自律。最后,加大人才培養(yǎng)和儲(chǔ)備力度,政府部門不僅要培養(yǎng)和儲(chǔ)備自己的操作人員,還應(yīng)該加強(qiáng)相應(yīng)領(lǐng)域的技術(shù)專家、算法專家隊(duì)伍建設(shè),確保人工智能可以發(fā)揮實(shí)效。
(三)加大技術(shù)安全和隱私保護(hù)力度
首先,重視風(fēng)險(xiǎn)評(píng)估和防控預(yù)防及監(jiān)測(cè)預(yù)警機(jī)制,將人工智能發(fā)展的安全范圍精準(zhǔn)確定。其次,加快人工智能行業(yè)標(biāo)準(zhǔn)建設(shè),對(duì)人工智能技術(shù)開發(fā)和使用過程中的技術(shù)標(biāo)準(zhǔn)、數(shù)據(jù)采集、信息處理、數(shù)據(jù)價(jià)值分配、隱私保護(hù)以及技術(shù)使用等問題進(jìn)行規(guī)范。再次,強(qiáng)化數(shù)據(jù)安全系統(tǒng),對(duì)現(xiàn)有的數(shù)據(jù)安全架構(gòu)進(jìn)行優(yōu)化提升,完善數(shù)據(jù)存儲(chǔ)安全防控體系,同時(shí)做好數(shù)據(jù)容災(zāi)、備份恢復(fù)以及安全監(jiān)測(cè)等工作。最后,加大懲治力度,出臺(tái)相應(yīng)的政策法規(guī)和懲處機(jī)制,對(duì)以不正當(dāng)手段或目的開發(fā)或使用人工智能技術(shù)的個(gè)人或企業(yè)加以嚴(yán)懲,同時(shí)也要對(duì)因不當(dāng)使用人工智能技術(shù)帶來安全性或隱私泄露等問題的行為進(jìn)行懲處。
(四)建構(gòu)行政倫理和法律規(guī)范體系
首先,人工智能技術(shù)研發(fā)倫理要在保障人權(quán)的基礎(chǔ)上考慮人與自然利益最大化,同時(shí)還要注意防控研發(fā)過程中可能出現(xiàn)的各種風(fēng)險(xiǎn),削弱負(fù)面影響。其次,在開發(fā)的過程中,充分考慮人類社會(huì)的各項(xiàng)倫理道德和法律規(guī)范體系,并將其提前嵌入人工智能系統(tǒng),從而使其做出的決策與采取的行動(dòng)符合人類的社會(huì)規(guī)范,通過不斷更新智能系統(tǒng)的信息庫來實(shí)時(shí)幫助管理者進(jìn)行道德風(fēng)險(xiǎn)評(píng)估。再次,要加強(qiáng)人工智能相關(guān)法律、倫理建設(shè),從法律與道德兩方面進(jìn)行約束,法律作為最低標(biāo)準(zhǔn),道德用來約束行為,建立起人工智能政務(wù)管理領(lǐng)域發(fā)展的法律法規(guī)和倫理道德雙層規(guī)范框架。最后,加強(qiáng)相關(guān)的社會(huì)問題研究,為之后人工智能在政務(wù)管理中的進(jìn)一步發(fā)展提供案例與事實(shí)依據(jù)。
參考文獻(xiàn):
[1]焦李成,楊淑媛,劉芳,等.神經(jīng)網(wǎng)絡(luò)七十年:回顧與展望[J].計(jì)算機(jī)學(xué)報(bào),2016,39(8):1697-1716.
[2]畢蓉蓉,車傳文.人工智能技術(shù)在政務(wù)服務(wù)中的應(yīng)用綜述[J].數(shù)字技術(shù)與應(yīng)用,2019(7):232-233.
[3]孟昊博.強(qiáng)人工智能時(shí)代什么時(shí)候到來?如何到來?[J].互聯(lián)網(wǎng)周刊,2015(9):66-68.
[4]陳鵬.人工智能人格權(quán)確認(rèn)的道德風(fēng)險(xiǎn)和法律困境[J].西部法學(xué)評(píng)論,2018(6):1-8.
[5]王春暉.安全可控:人工智能健康發(fā)展的永恒主題[J].中國(guó)信息安全,2019(7):29-31.
◎編輯 郭小琴