本報(bào)特約記者 高文宇
人工智能(AI)真的能代替人類決策嗎?近日,一項(xiàng)覆蓋歐洲多國(guó)的社會(huì)調(diào)查顯示,高達(dá)1/4的受訪者表示想要讓AI代替政治家,為民眾做出“正確的決策”。不過(guò)在專家看來(lái),不少民眾對(duì)執(zhí)政者感到失望的心情可以理解,但讓AI為人類“做主”仍是個(gè)“糟糕的想法”,因?yàn)樗h(yuǎn)沒(méi)有人們想象中的那般“客觀”。
據(jù)美國(guó)沃克斯(Vox)新聞網(wǎng)27日?qǐng)?bào)道,西班牙IE商學(xué)院管理變革中心對(duì)歐洲8國(guó)共計(jì)2500名受訪者進(jìn)行了一次調(diào)研,試圖探尋人們的感受與想法在技術(shù)變革時(shí)代有何種變化,以及他們對(duì)各自政府所持有的觀點(diǎn)。結(jié)果顯示,歐洲人對(duì)于政界的“幻滅情緒”呈顯著上升趨勢(shì)——受英國(guó)“脫歐”等政治事件影響,很多受訪者對(duì)政客的決策能力不再抱有希望。根據(jù)調(diào)研報(bào)告,約25%的受訪者傾向于將重大事件的決策交由AI管理;這一比例在英國(guó)和德國(guó)受訪者中升至31%,在荷蘭受訪者中高達(dá)43%。
在媒體看來(lái),這種“以算法代替人類決策”的想法著實(shí)令人擔(dān)憂:首先,算法程序是由人類編寫(xiě)的,如果一條算法在創(chuàng)建之初就夾雜著編寫(xiě)者的主觀偏見(jiàn),它在運(yùn)行的時(shí)候也勢(shì)必會(huì)暴露出種種問(wèn)題。Vox新聞網(wǎng)舉例稱,作為AI應(yīng)用的一種,面部識(shí)別技術(shù)如今已趨于成熟,并被廣泛應(yīng)用,但即便是一些硅谷巨擘開(kāi)發(fā)出的應(yīng)用程序,也時(shí)常暴露出嚴(yán)重的識(shí)別偏差。比如,谷歌照片曾將非裔人士識(shí)別成“大猩猩”,亞馬遜面部識(shí)別應(yīng)用曾將28名國(guó)會(huì)議員誤當(dāng)成“犯罪嫌疑人”。
其次,人類在社會(huì)生活與交往中涉及極其復(fù)雜的行為模式,這是計(jì)算機(jī)算法所無(wú)法捕捉并消化的。即便某種算法能夠精確識(shí)別出特定場(chǎng)合所涉及的全部重要參數(shù),換一個(gè)時(shí)間和場(chǎng)景它也不一定適用。有物理學(xué)家指出,現(xiàn)階段的算法模型對(duì)現(xiàn)實(shí)世界的理解還過(guò)于粗略——如果說(shuō)現(xiàn)實(shí)世界是一部紀(jì)錄片,那AI頂多做出“卡通片”的水平。個(gè)別知名互聯(lián)網(wǎng)公司對(duì)待AI歧視等問(wèn)題的態(tài)度也讓人擔(dān)憂。以谷歌照片的丑聞為例:盡管該公司去年聲稱修復(fù)了這套“歧視算法”,但據(jù)業(yè)內(nèi)人士透露,該公司所謂的“修復(fù)”僅僅是屏蔽了“猩猩”一類搜索詞所對(duì)應(yīng)的圖庫(kù)?!?/p>