摘要:人工智能倫理學是專門針對機器人和其他人工智能生物的技術(shù)倫理學的一部分。它通常分為機器人倫理(roboethics)和機器倫理(machine ethics),前者關(guān)注人類在設(shè)計、構(gòu)造、使用和對待人工智能生物時的道德行為,后者關(guān)注人工道德行為主體(AMAs)的道德行為。
關(guān)鍵詞:人工智能;機器人倫理;機器道德
1 機器人倫理
“機器人倫理學”指的是人類如何設(shè)計、建造、使用和對待機器人和其他人工智能體的道德。它既考慮了人工智能生物如何被用來傷害人類,又考慮了人工智能如何被用來造福人類?!皺C器人權(quán)利”是一個概念,即人們應(yīng)該對他們的機器負有道德義務(wù),類似于人權(quán)或動物權(quán)利。有人建議,機器人的權(quán)利,例如生存和履行其自身使命的權(quán)利,可以與機器人為人類服務(wù)的義務(wù)相聯(lián)系,類似于將人權(quán)與社會面前的人類義務(wù)相聯(lián)系。這些權(quán)利可以包括生命和自由的權(quán)利、思想和言論自由以及法律面前人人平等。這個問題已經(jīng)被未來研究所和英國貿(mào)易和工業(yè)部考慮過。專家們對在遙遠的將來是否需要具體而詳細的法律存有爭執(zhí)。
設(shè)想機器人擁有自己的權(quán)利的可能性:如果在任何特定年份,一個通過使用薩里大學或劍橋中心的公開可用的開放源代碼的參賽作品從而贏得了銀質(zhì)獎?wù)禄蚪鹳|(zhì)獎?wù)?,那么獎?wù)潞同F(xiàn)金獎將授予負責該參賽作品開發(fā)的機構(gòu)。如果無法確定此類機構(gòu),或者兩個或兩個以上的申請人之間存在分歧,獎?wù)潞同F(xiàn)金獎將由信托機構(gòu)保管,直至參賽者在美國或在比賽場地合法擁有現(xiàn)金獎和金質(zhì)獎為止。機器人索菲亞被授予沙特阿拉伯 “榮譽”公民身份,盡管一些觀察家認為這更像是一種宣傳噱頭,而不是一種有意義的法律承認。有些人認為這種姿態(tài)公然詆毀人權(quán)和法治。感知主義哲學賦予眾生,主要是人類和大多數(shù)非人類動物一定程度的道德考慮。如果人工智能或外星智能顯示出有感知能力的證據(jù),這種哲學認為它們應(yīng)該表現(xiàn)出同情心并被賦予權(quán)利。創(chuàng)造需要權(quán)利的人工智能不僅是可以避免的,而且本身也是不道德的,這既是人工智能體的負擔,也是人類社會的負擔。
2 機器倫理
機器倫理學(或機器道德)是一個涉及設(shè)計有道德行為或似乎有道德行為的人工道德智能主體(AMAs)、機器人或人工智能計算機的研究領(lǐng)域。為了解釋這些行為主體的本質(zhì),有人建議關(guān)注一些哲學思想,比如關(guān)于行為主體、理性行為主體、道德行為主體和人為行為主體的標準描述,這些都與行為主體的概念有關(guān)。
阿西莫夫在他的《我,機器人》中考慮了這個問題。他提出了機器人三定律來管理人工智能系統(tǒng)。他的大部分工作都是在測試他的三大法則的邊界,看看它們在哪里會崩潰,或者在哪里會產(chǎn)生矛盾或意想不到的行為。沒有一套固定的法律能夠充分預測所有可能的情況。最近,學術(shù)界和許多政府對人工智能本身可以承擔責任的觀點提出了質(zhì)疑。英國召集了一個小組,修訂了阿西莫夫的法律,以澄清人工智能是其制造商或其所有者或是運營商的責任。瑞士洛桑巴黎綜合理工學院的智能系統(tǒng)實驗室進行的一項實驗中,被編程為相互合作,尋找有益資源和避免有毒資源,的機器人最終學會了相互撒謊,試圖囤積有益資源。這種情況下的可能一個問題是,其目標是有”終點”的,相反的是,人類終極動機通常具有一種需要永無止境學習的特性。
一些學者質(zhì)疑將機器人用于軍事戰(zhàn)斗,特別是當這些機器人被賦予某種程度的自主功能時。 美國海軍資助了一份報告,該報告指出,隨著軍用機器人變得越來越復雜,人們應(yīng)該更加關(guān)注它們自主決策能力的影響。人工智能發(fā)展協(xié)會主席委托進行了一項研究來探討這個問題。 他們指出,像語言獲取設(shè)備這樣的程序可以模擬人與人之間的互動。某些計算機比人類更聰明的時刻可能會到來,稱之為“奇點”他認為這對人類來說可能有些危險,或者可能非常危險。這被一種叫做奇點主義的哲學所討論。機器智能研究所建議有必要建立”友好的人工智能”,這意味著人工智能已經(jīng)取得的進步也應(yīng)該包括努力使人工智能本質(zhì)上友好和人性化。假設(shè)機器人和計算機的潛在影響,以及他們可以自給自足并能夠自己做決定的可能性的影響。計算機和機器人可以獲得任何級別的自主性的可能性和程度,他們可以在多大程度上使用這種能力來構(gòu)成任何威脅或危險。一些機器已經(jīng)獲得了各種形式的半自主性,包括能夠自己找到電源,并能夠獨立選擇用武器攻擊的目標。 些計算機病毒可以躲避刪除,并獲得了“蟑螂智能”,科幻小說中描述的自我意識可能不太可能,但還有其他潛在的危險和陷阱。
有一項特別的技術(shù)有可能性真正實現(xiàn)具有道德能力的機器人。在一篇關(guān)于機器人習得道德價值的論文中,神經(jīng)形態(tài)芯片的例子,這種芯片旨在以類似于人類的方式處理信息,以非線性方式處理信息,并使用數(shù)以百萬計的相互連接的人造神經(jīng)元。嵌入式神經(jīng)形態(tài)技術(shù)的機器人可以以獨特的人類方式學習和拓展知識。這不可避免地提出了這樣一個問題,即這些機器人將在何種環(huán)境中了解世界,以及它們將繼承誰的道德,或者它們是否最終也會形成人類的”弱點”:自私、促活的態(tài)度、猶豫等等。在《道德機器:教機器人是非對錯》一書中,沃拉克和倫總結(jié)道,通過激勵人類解決現(xiàn)代規(guī)范理論中的空白,并為實驗研究提供一個平臺,教機器人明辨是非,可能會促進人類對倫理道德的理解。 例如,它引入了規(guī)范倫理學家來解決一個有爭議的問題,即機器中使用什么樣的特定學習算法。尼克認為決策樹,如ID3優(yōu)于神經(jīng)網(wǎng)絡(luò)和遺傳算法,理由是決策樹遵循透明性和可預測性的現(xiàn)代社會規(guī)范,例如遵循先例。而克里斯·桑托斯則以相反的方向論證任任何時期的規(guī)范都必須允許改變,且自然的不能完全滿足這些特定規(guī)范對于減少人類受到”黑客”犯罪攻擊的可能性至關(guān)重要。
3 結(jié)論
現(xiàn)在各國政府,以及跨國政府和非政府組織都在努力確保通過立法和維護治安來遵守道德規(guī)范人工智能應(yīng)用符合道德規(guī)范。制定人工智能技術(shù)的最佳實踐,增進公眾的理解,并充當人工智能的研究平臺。這種人工智能合作關(guān)系將開展研究,組織討論,提供思想指導,與相關(guān)第三方協(xié)商,回答公眾和媒體的問題,并創(chuàng)建教材,推進對人工智能技術(shù)的理解,包括機器感知、學習和自動推理。做出財政和研究貢獻,同時與科學界合作,吸引學者進入該領(lǐng)域。
參考文獻:
[1] 瑪格麗特·A·博登,博登,王漢琦,等.人工智能哲學[M].上海譯文出版社,2006.
[2] 阿西莫夫.銀河帝國8:我,機器人[M].江蘇文藝出版社,2013.
[3] 閆坤如.機器人倫理學:機器的倫理學還是人的倫理學?[J].東北大學學報(社會科學版),2019(04).
作者簡介:潘卜榮(1996—),男,壯族,廣西南寧人,碩士在讀,研究方向:科學技術(shù)哲學。
(作者單位:廣西大學)