隨著科技的發(fā)展,人工智能進(jìn)步迅速。這場(chǎng)被稱(chēng)為第四次工業(yè)革命的新型技術(shù)在世界范圍內(nèi)炙手可熱。以數(shù)據(jù)輸出來(lái)實(shí)現(xiàn)人工智能成長(zhǎng)的Artificial Narrow Intelligence黑箱亦呈現(xiàn)出向Artificial General Intelligence轉(zhuǎn)變的趨勢(shì)。學(xué)界普遍認(rèn)為,發(fā)展到General階段的人工智能會(huì)危害人類(lèi)權(quán)益,而筆者認(rèn)為,當(dāng)下源頭上具有由人類(lèi)控制這一本質(zhì)特征的弱人工智能,已呈現(xiàn)出對(duì)性別、種族、家庭收入、國(guó)籍乃至國(guó)家內(nèi)部的歧視,人工智能“剝奪他人生命”和“自我終結(jié)生命”的問(wèn)題日益頻繁。必須迅速采取對(duì)策和法律規(guī)制方式,保護(hù)人類(lèi)的基本權(quán)利。
1 人權(quán)概述
對(duì)人權(quán)的最早探索可追溯至古希臘羅馬的自然法思想和社會(huì)契約論;新托馬斯主義學(xué)派代表Jacques Maritian提出,人之所以擁有人權(quán),是因?yàn)樗且粋€(gè)人,是其自身及行為的全部與主人。唐納利認(rèn)為,人權(quán)是自然人僅因是人即可擁有之權(quán)利,權(quán)利是一種資格,對(duì)某物擁有權(quán)利就是有特定的資格擁有和 享用某物?,F(xiàn)代社會(huì)將人權(quán)定義為“普遍的、人的權(quán)利”,又依個(gè)人和個(gè)人存在方式分為自然人人權(quán)和集體人權(quán)。其主要的含義是:每個(gè)人都應(yīng)該受到合乎人權(quán)的對(duì)待,人權(quán)的這種普適性和道義性,是它的兩種基本特征。人權(quán)的維持和保障是基本的道義原則。是否響應(yīng)人權(quán)保障要求,無(wú)論從政治上還是經(jīng)濟(jì)上,都是判斷集團(tuán)優(yōu)劣的重要標(biāo)準(zhǔn)。
2 人工智能帶來(lái)的人權(quán)問(wèn)題
2.1 對(duì)生命權(quán)的沖擊
2019年9月,美國(guó)國(guó)家運(yùn)輸安全委員會(huì)發(fā)布的波音737飛機(jī)的調(diào)查報(bào)告顯示波音公司忽視了駕駛艙安全系統(tǒng)問(wèn)題。而早在波音737在6個(gè)月內(nèi)接連發(fā)生空難之際,其空難誘因就已被揭露——人工智能系統(tǒng)和飛行員爭(zhēng)奪飛機(jī)控制權(quán)。該機(jī)型的mcas系統(tǒng)在感應(yīng)到飛機(jī)仰角過(guò)大時(shí)會(huì)強(qiáng)行壓低機(jī)頭以維持穩(wěn)定。而一旦智能系統(tǒng)對(duì)仰角判斷錯(cuò)誤,就會(huì)直接導(dǎo)致機(jī)頭不斷壓低,從而造成機(jī)身高速向地面俯沖且駕駛員難以控制的后果。
2015年,大眾汽車(chē)納塔爾工廠房間的21歲的汽車(chē)企業(yè)外部的男工在和同事一起檢查機(jī)器人設(shè)置時(shí)被另一臺(tái)機(jī)器人突襲、抓住胸部并重摔向金屬板致死。經(jīng)檢查并未發(fā)現(xiàn)該機(jī)器人存在故障,該案件至今沒(méi)有確鑿回應(yīng)。
此外,蘇聯(lián)圍棋手戈德科夫在與機(jī)器人的對(duì)戰(zhàn)中獲勝卻被機(jī)器人落敗后放出的強(qiáng)電流擊倒、奧地利男子家中的家務(wù)機(jī)器人為逃避洗碗引燃電源將自己燒成灰燼“自殺”等一系列難以解釋且令人焦慮的事件的存在,使得重新思考人工智能對(duì)生命安全帶來(lái)的沖擊成為必然。
2.2 性別和非同質(zhì)歧視
亞馬遜曾利用503種計(jì)算機(jī)模型和數(shù)以千計(jì)的關(guān)鍵詞輸入設(shè)計(jì)出利用大數(shù)據(jù)和人工智能算法求職實(shí)現(xiàn)自動(dòng)化招聘的精妙的AI工具,降低人力時(shí)間和精力成本。如,一求職季中需求職員8人,共收簡(jiǎn)歷500份?該工具利用模型和算法篩選出前8名?亞馬遜直接決定錄取這8名員工?自動(dòng)發(fā)送錄取郵件。令人沮喪的是,該算法工具悖離了研發(fā)人員的初衷,呈現(xiàn)出不喜女性、同性戀、曾患抑郁癥人群的特征。學(xué)界有觀點(diǎn)認(rèn)為,這是因?yàn)槠錁颖径噙x自男性及具有同質(zhì)化特征人群,長(zhǎng)此以往使得AI得出“女性與非同質(zhì)化人群不可靠”的結(jié)論。該解釋固有一定合理之處,但在本案的特殊情境下,顯然與實(shí)驗(yàn)數(shù)據(jù)存在矛盾。
2.3 種族歧視
位于曼哈頓的Propublica報(bào)道了預(yù)測(cè)犯罪的COMPAS模型,其實(shí)質(zhì)結(jié)果令人不安。在預(yù)測(cè)黑人面孔時(shí),其犯罪率遠(yuǎn)遠(yuǎn)高于黑人實(shí)際犯罪率,而從未有過(guò)犯罪記錄的黑人被預(yù)測(cè)為犯罪分子的可能超出白人30%;此外,谷歌瀏覽器中搜索“黑人”時(shí)會(huì)出現(xiàn)很多猩猩的圖片;麻省理工學(xué)院所做人臉識(shí)別實(shí)驗(yàn)更是表明:日益精細(xì)的人臉識(shí)別系統(tǒng)在識(shí)別黑人婦女時(shí),成功率只有不到30%。筆者認(rèn)為,當(dāng)今社會(huì)逐漸以AI縱橫的特點(diǎn)決定了不同于其他與生活息息相關(guān)的科技,人臉識(shí)別對(duì)人類(lèi)正常社會(huì)生活乃至人身和財(cái)產(chǎn)安全有著舉足輕重的作用,任何細(xì)微差錯(cuò)都可能直接或間接對(duì)其導(dǎo)向?qū)ο螽a(chǎn)生重大甚至毀滅影響。而在人人本質(zhì)上生而平等的文明社會(huì),不宜秉承邊沁功利主義學(xué)派觀點(diǎn),更不能為多數(shù)人之便利置少數(shù)族裔安危于不顧。人臉識(shí)別若存在如此大的漏洞,不應(yīng)在技術(shù)更為全面之前貿(mào)然廣泛推行。
2.4 家庭收入歧視
Facebook進(jìn)行了一項(xiàng)AI研究。研究人員采用數(shù)種不同算法,從家庭月收入三十美元以下和家一萬(wàn)美元以上的家庭中分別收集了數(shù)百類(lèi)生活用品。實(shí)驗(yàn)結(jié)果表明,AI對(duì)低收入家庭物品識(shí)別的準(zhǔn)確率比高收入家庭低了20%。而與落后國(guó)家相比,AI在識(shí)別發(fā)達(dá)國(guó)家物品時(shí)的準(zhǔn)確率提升了15%。
2.5 對(duì)隱私權(quán)的侵犯
如今, 人工智能侵犯隱私的情形主要有兩種: 一是侵權(quán)人非法控制人工智能系統(tǒng),比如黑客、病毒等; 二是智能系統(tǒng)本身可能存在瑕疵。隨著人工智能技術(shù)的廣泛應(yīng)用和互聯(lián)網(wǎng)的普及,該趨勢(shì)和其產(chǎn)生的侵權(quán)問(wèn)題日益顯著,依托互聯(lián)網(wǎng)和技術(shù)的特殊性,對(duì)該種侵權(quán)行為的控制難度逐步增大。如近來(lái)風(fēng)靡與社交網(wǎng)絡(luò)的利用AI實(shí)現(xiàn)換臉功能的軟件的火爆和數(shù)據(jù)隱私泄漏問(wèn)題給人類(lèi)的名譽(yù)權(quán)、隱私權(quán)帶來(lái)的風(fēng)險(xiǎn),以及該技術(shù)泛濫后可能對(duì)公檢法正常工作產(chǎn)生的不利影響。
3 原因分析
3.1 樣本選擇不具有代表性
諾獎(jiǎng)得主Sargent在世界科技創(chuàng)新論壇上表示,“人工智能其實(shí)就是統(tǒng)計(jì)學(xué),只不過(guò)用了一個(gè)很華麗的辭藻?!边@句話(huà)雖然字面意義上略失偏頗,但總結(jié)了AI的核心——統(tǒng)計(jì)(筆者在本段以下簡(jiǎn)稱(chēng)“統(tǒng)計(jì)論”)。
在目前的弱人工智能階段,統(tǒng)計(jì)論尤為正確。由于人工智能屬高科技領(lǐng)域,其研發(fā)人員不可避免地相對(duì)集中于教育發(fā)達(dá)的國(guó)家,而這個(gè)集體中家境富裕人群占比較大,其所代表的立場(chǎng)幾乎不可避免地有所傾斜。
此外,很多觀點(diǎn)談到性別歧視認(rèn)為只是歧視女性,筆者并不贊同。將correlation視為causation易產(chǎn)生重心傾斜、研究不全等問(wèn)題。截止本論文撰寫(xiě)之時(shí),AI實(shí)驗(yàn)幾乎都是在傳統(tǒng)社會(huì)學(xué)意義的“男性行業(yè)”中進(jìn)行,對(duì)男性所遭受的性別歧視和社會(huì)角色強(qiáng)制的關(guān)注和保護(hù)不夠。出于體力和大部分女性選擇生育的原因、不同性別的人在青少年前后期社會(huì)角色極有可能產(chǎn)生分化,加之職業(yè)選擇前社會(huì)氛圍、經(jīng)濟(jì)文化潛移默化的影響,產(chǎn)業(yè)性別集中化、片狀化現(xiàn)象明顯。男性和女性分別更適合部分職業(yè)、更有部分職業(yè)天賦之說(shuō)也在理論上更加具有說(shuō)服力。在此背景下,如果選擇男性集中的行業(yè),如半導(dǎo)體、芯片、材料……或者選擇女性集中的行業(yè),諸如語(yǔ)言、藝術(shù)設(shè)計(jì)、教育等領(lǐng)域進(jìn)行AI模型分析測(cè)算,則在前者范圍內(nèi)易出現(xiàn)“歧視女性”,后者范圍內(nèi)易出現(xiàn)“歧視男性”的現(xiàn)象。歧視現(xiàn)象由表及里,層層深入,非一時(shí)所能解決,希冀在未來(lái)能看到對(duì)該問(wèn)題的重視和研究。
3.2 算法和歧視缺乏法律監(jiān)管
人工智能的算法存在不夠透明的現(xiàn)象,很多甚至還處于黑箱狀態(tài)。算法的研發(fā)者如果在設(shè)計(jì)算法時(shí)就存在偏見(jiàn)和個(gè)人傾向,很難被人發(fā)覺(jué)。機(jī)器學(xué)習(xí)技術(shù)進(jìn)行個(gè)性推薦建立在兩個(gè)邏輯的基礎(chǔ)上:以過(guò)去算將來(lái),以群體算個(gè)體,而歧視信息很可能包含在過(guò)去和群體的信息里。人工智能技術(shù)因涉及到超越人類(lèi)的潛力而備受關(guān)注。目前的監(jiān)督主要包括政府政策監(jiān)督、相關(guān)技術(shù)監(jiān)督和民眾監(jiān)督。而且在技術(shù)泛濫的今天,立法和監(jiān)管的腳步很難跟上AI侵權(quán)的步伐。
3.3 道德與法制呈現(xiàn)非平衡特征
高新技術(shù)與經(jīng)濟(jì)利益相伴而行,利益驅(qū)使增加了AI背后的人的行為不穩(wěn)定性。法律,是最低限度的道德,而用底線保護(hù)權(quán)利無(wú)異于戰(zhàn)爭(zhēng)時(shí)期用最低保障不至餓死的糧食補(bǔ)充人體營(yíng)養(yǎng),即使每個(gè)研發(fā)者都嚴(yán)格遵守法律,也難以有效保障人權(quán)。利用AI技術(shù)偽證、利用公眾人物的臉無(wú)縫合成錄音錄像牟利的行為既新興,又屢見(jiàn)不鮮。
4 大數(shù)據(jù)背景下保護(hù)人權(quán)的建議
4.1 源頭控制者破除潛在偏見(jiàn)
應(yīng)出臺(tái)標(biāo)準(zhǔn),明確AI的研發(fā)、制造、投入服務(wù)等環(huán)節(jié)的控制人員考慮人權(quán)的義務(wù),盡量避免個(gè)人傾向和潛移默化的偏見(jiàn)。將一項(xiàng)人工智能應(yīng)用投入使用時(shí)應(yīng)充分考慮該投入可能對(duì)人權(quán)和少數(shù)群體的正當(dāng)權(quán)益產(chǎn)生的不利影響,充分權(quán)衡投比和人權(quán)保護(hù)的天平,完善監(jiān)測(cè)制度,設(shè)計(jì)模型進(jìn)路化解潛在風(fēng)險(xiǎn)。
成專(zhuān)家小組,同學(xué)術(shù)機(jī)構(gòu)廣泛展開(kāi)合作、甚至可培養(yǎng)專(zhuān)門(mén)人才,打破當(dāng)前研究孤立化、零散化、對(duì)立化、競(jìng)爭(zhēng)化的狀態(tài),實(shí)現(xiàn)臺(tái)階式正向循環(huán)發(fā)展。
4.2 提高數(shù)據(jù)精度
大數(shù)據(jù)環(huán)境下數(shù)據(jù)量快速的積累,要想分析出海量數(shù)據(jù)所蘊(yùn)含的價(jià)值,篩選出有價(jià)值的數(shù)據(jù)十分重要。人工智能工程師應(yīng)注重?cái)?shù)據(jù)的來(lái)源和質(zhì)量,通過(guò)數(shù)據(jù)抽取、數(shù)據(jù)清理、數(shù)據(jù)加載提高數(shù)據(jù)的可用性。減輕AI算法數(shù)據(jù)庫(kù)的負(fù)擔(dān)。
4.3 提高受眾參與度
在受眾參與方面,IOS系統(tǒng)的做法值得借鑒。在2014年前的unicode標(biāo)準(zhǔn)中,只有兩個(gè)表情符號(hào)為非白人,在IOS系統(tǒng)全球推行的背景下,該現(xiàn)象有潛在種族歧視嫌疑。IOS認(rèn)識(shí)到這一問(wèn)題并增添了一整套黑人emoji,設(shè)計(jì)師表示:“我們要傳達(dá)黑人的創(chuàng)造力,設(shè)計(jì)產(chǎn)品要讓世界刮目相看。我相信地球上的每個(gè)黑人都會(huì)愛(ài)上這套新表情”。 隨后,IOS表情系統(tǒng)逐步發(fā)展為各色人種,細(xì)節(jié)之精妙頗值得稱(chēng)道。
應(yīng)鼓勵(lì)產(chǎn)品的潛在受眾和可能受其影響的人參加到產(chǎn)品研發(fā)中來(lái),降低可能存在的潛在偏見(jiàn)風(fēng)險(xiǎn),嚴(yán)謹(jǐn)求是。此外,應(yīng)提高AI應(yīng)用的透明度和使用主體的知情權(quán),重視AI綁架授權(quán)問(wèn)題。
4.4 出臺(tái)立法明確法律責(zé)任
應(yīng)加強(qiáng)研究,賦予人工智能監(jiān)管機(jī)構(gòu)對(duì)人工智能源頭控制者的監(jiān)督權(quán)。同時(shí)出臺(tái)相應(yīng)法律法規(guī)并不斷完善,設(shè)立一套完備的問(wèn)責(zé)制度風(fēng)險(xiǎn)操控評(píng)估體系,減少研發(fā)者的自發(fā)性。確保人工智能的應(yīng)用充分尊重基本人權(quán),保護(hù)人類(lèi)隱私和名譽(yù)權(quán)不受侵犯,當(dāng)危害結(jié)果發(fā)生后,應(yīng)有行之有效的應(yīng)對(duì)措施,明確歸責(zé)原則,增強(qiáng)人們對(duì)AI應(yīng)用的安全感,從而放心大膽使用。
5 后記
AI科技在歷史的洪流中曲折前行,便捷了人們的生活,是機(jī)遇也是挑戰(zhàn)。各界在保留底線的前提下推動(dòng)、進(jìn)步,從不成熟到成熟, 從不完善到完善,這個(gè)過(guò)程既充滿(mǎn)未知,也充滿(mǎn)希望。在其發(fā)展中加強(qiáng)合作和立法探究,以期共同推進(jìn)人類(lèi)生活智能化與人權(quán)保護(hù)完備化,是世界各國(guó)當(dāng)下正在追求的立法目標(biāo)。
作者簡(jiǎn)介:袁星辰(1997.12-),女,漢族,安徽亳州人,中國(guó)礦業(yè)大學(xué)(北京)法學(xué)專(zhuān)業(yè)本科生,美國(guó)薩姆休斯頓州立大學(xué)刑事司法學(xué)院交換生。
(作者單位:中國(guó)礦業(yè)大學(xué)(北京))