繪知堂科普館
人工智能作為一個交叉學(xué)科,和計算機、數(shù)學(xué)(統(tǒng)計學(xué)、優(yōu)化方法、圖論等)、電子技術(shù),以及腦科學(xué)等都有密不可分的關(guān)系,每個分支學(xué)科所遇到的問題也都會在人工智能的發(fā)展中出現(xiàn)。
2017年底,一個叫Deep-Fake圖像合成技術(shù)落地了,它可以在視頻中做人體圖像合成。
簡單來說,人們可以像使用Photoshop修圖軟件改動圖像一樣,用深度學(xué)習(xí)技術(shù)(一個人工智能算法分支)來改動視頻了。
人們曾經(jīng)對圖像處理一無所知的時候,還秉持著“耳聽為虛眼見為實”的邏輯,看到照片就會對它記錄的信息深信不疑。
后來人們認(rèn)識了Photoshop這個軟件,以及某些操作更為簡便的人像美化軟件,改動圖像成為了人人都能輕易做到的事情,以至于很少會有人再輕信通過改動圖片扭曲的事實了。
相對靜態(tài)圖像而言,視頻則是長篇的圖像組合。由于技術(shù)局限,一幀一幀改動成本太高,因此人們普遍將視頻所記錄的信息認(rèn)定為事件真相。
這項視頻人體圖像合成技術(shù)的出現(xiàn),又ー次打破了人們的常規(guī)觀念。居心叵測的人可能會利用這項技術(shù)捏造犯罪錄像,或者杜撰他人的言論來進行誹謗。
仍然相信視頻無法纂改的人們很容易被改過的視頻蠱惑,而造成信謠傳謠的惡劣局面。如果你在見到此類消息時保持清醒的頭腦,仔細(xì)甄別消息來源,就不會輕易被迷惑。
科學(xué)家一直努力對圖像合成技術(shù)進行改進,將“以假亂真”作為頂尖技術(shù)水平的標(biāo)準(zhǔn),但是這也為一些邪惡的想法提供了溫床,違法者甚至不惜傷害他人的感受,在道德和法律的邊緣不斷試探。
除此之外還有“算法歧視”的問題。比如,美國某知名電商公司曾開發(fā)了簡歷評分系統(tǒng),本意是為了提高篩選應(yīng)聘者的效率,但因為過往的簡歷案例中女性應(yīng)聘者比例低而造成了“算法歧視”。
人工智能對樣本進行分析后,誤將應(yīng)聘者的性別和評分掛上了鉤,以致在給新的應(yīng)聘者評分時,系統(tǒng)傾向于給女性打低分。
我們也可以將它理解為一種“過擬合”:如果我們堅持男女就業(yè)機會完全平等的原則,相關(guān)變量只與成績、能力、經(jīng)驗等有關(guān),性別可以被視為無關(guān)的變量。
而機器學(xué)習(xí)到了這個無關(guān)變量引起的変化(性別岐視者認(rèn)為女性能力差,男性能力強),就會對新的情景做出不準(zhǔn)確的預(yù)測和分析。
又比如在新冠肺炎疫情蔓延全球期間,美國某知名互聯(lián)網(wǎng)公司推出的款計算機視覺服務(wù)在識別人手持測溫槍的圖像時,被曝出了有種族歧視的傾向。
當(dāng)圖像中的手膚色較淺時,系統(tǒng)更傾向于將圖中的物品歸類為“單目望遠(yuǎn)鏡”,而當(dāng)手膚色較深時,系統(tǒng)則更容易將物品歸類為“槍支”。
這種嚴(yán)重帶有主觀色彩的判斷,就來自于訓(xùn)練采集數(shù)據(jù)的不全面和不平衡。消息一經(jīng)披露,此公司高管只得出面道歉,并修改了算法予以糾正。
還有更荒唐的例子:一些科學(xué)家設(shè)計了一種面部特征與曾否犯罪的預(yù)測模型,簡而言之,就是“看臉抓賊”。這個課題概念很荒唐,準(zhǔn)確率很低,并且充滿了“外貌歧視”。
因此,就像化學(xué)家絕對不可以制造毒品一樣,未來的人工智能小專家們,也要讓這項技術(shù)在正確的方向上發(fā)揮更大的作用哦!
(選自中國石化出版社“我的科普漫畫書”系列《你好!機器人——智能算法中的數(shù)學(xué)奧秘》)