人工智能目前還面臨這些挑戰(zhàn)
人工智能為政府和社會提出了廣泛的問題。在這份報告中,麥肯錫指出了其中的一些問題,也包含部分解決問題的方法。我們在這些問題上的進展對于實現(xiàn)人工智能的潛在利益和避免風險至關(guān)重要。
1、鼓勵更廣泛地利用人工智能
目前的人工智能應用集中于相對數(shù)字化的行業(yè)內(nèi),而這些領(lǐng)域已經(jīng)是新技術(shù)的前沿了。擴展人工智能的應用范圍,支持新技術(shù)領(lǐng)域,特別是其中的小型公司,對于保證生產(chǎn)力的增長和經(jīng)濟發(fā)展至關(guān)重要,可以保證市場健康,具有競爭力。人工智能在更廣泛領(lǐng)域內(nèi)的應用也可以幫助平衡各行業(yè)的工資水平。人工智能可以帶動生產(chǎn)力水平的發(fā)展,從而提高工資。更寬廣的應用范圍有助于讓人工智能的好處推動至更多的公司和工人身邊,而不僅僅是讓已經(jīng)處于收入金字塔頂端的前沿公司和雇員受益。
2、解決就業(yè)和收入分配問題
人工智能驅(qū)動的自動化變革會深刻影響人們的工作和工資水平。在麥肯錫的調(diào)查中,絕大多數(shù)公司并不認為自己會在未來大幅減少員工人數(shù)。然而,顯然會有一些職位的技能會不符合未來要求。政府可能會不得不重新思考社會服務(wù)的模式。不同的想法將被納入思考范圍,包括共享勞動力、負所得稅和全球基本收入水平。
3、解決道德、法律和監(jiān)管問題
人工智能提出了一系列道德、法律和監(jiān)管問題?,F(xiàn)實世界的偏見風險正在被寫入訓練數(shù)據(jù)集中。由于現(xiàn)實世界存在種族、性別或其他很多類別的歧視,提供給機器學習算法的現(xiàn)實世界數(shù)據(jù)也不可避免地帶有這些特征,而人工智能也會在訓練中學會偏見。
隨著偏見的內(nèi)部化,這些問題正在加劇。同時,人們也對算法本身產(chǎn)生了懷疑,編程人員的道德見解會被編寫進算法中,在決策過程中,人們有權(quán)得知哪些內(nèi)容?誰會對人工智能輸出的結(jié)果負責?這導致了人們對于算法透明度和問責制的呼吁。
隱私是另一個問題——誰對數(shù)據(jù)擁有所有權(quán)?需要哪些措施來保護高度敏感的數(shù)據(jù)(如醫(yī)療數(shù)據(jù)),而不必破壞其可用性?正致力于解決這些問題的組織和機構(gòu)包括 Partnership on AI、OpenAI、Foundation for Responsible Robotics 以及人工智能倫理與監(jiān)管基金會。
4、確保訓練數(shù)據(jù)的可用性
大量的數(shù)據(jù)對于人工智能訓練系統(tǒng)至關(guān)重要。開放公共部門的數(shù)據(jù)可以刺激私營企業(yè)的創(chuàng)新,設(shè)置通用數(shù)據(jù)標準也會有幫助。在美國,證券交易委員會在2009 年強制所有上市公司必須以 XBRL(可擴展業(yè)務(wù)報告語言)格式披露其財務(wù)報表,從而確保公共數(shù)據(jù)具有機器可讀性。
5、在政府中部署人工智能
人工智能對公共部門的潛力巨大。它提升計劃、目標和個性化服務(wù)的能力使提高政府服務(wù)水平和效率所急需的。在該報告的附錄中,作者探索了人工智能技術(shù)在兩大公有領(lǐng)域:醫(yī)療和教育的未來。
(來源:新華社)