李鵬飛 楊明昊 鄧秋煬
摘 要: 目前人工智能的發(fā)展,在倫理方面還處于最初的討論階段。人工智能技術(shù)在未來(lái)勢(shì)必成為科技發(fā)展的重中之重,而面臨的倫理問(wèn)題也會(huì)帶給我們困擾,本文將從人工智能倫理問(wèn)題的產(chǎn)生和演變、人工智能技術(shù)倫理困境的主要表現(xiàn)、解決人工智能倫理困境的對(duì)策展開(kāi)討論。
關(guān)鍵詞: 人工智能;倫理;困境
【中圖分類號(hào)】 B82 【文獻(xiàn)標(biāo)識(shí)碼】 A【文章編號(hào)】 2236-1879(2017)20-0233-01
人工智能與人類發(fā)展日益密切,歷史上,任何新興事物的出現(xiàn),總免不了對(duì)現(xiàn)有社會(huì)體系產(chǎn)生沖擊,特別是倫理道德體系的重建顯得摧枯拉朽、天昏地暗。
一、人工智能倫理問(wèn)題的產(chǎn)生和演變
人工智能之父圖靈在他的論文《智能機(jī)器》中描述了人工智能的發(fā)展趨勢(shì),并提到人工智能有一天會(huì)威脅到人類的生存??苹米骷襂saac Asimov在小說(shuō)《我,機(jī)器人》中提出了機(jī)器人的準(zhǔn)則:工程安全措施和內(nèi)置的道德準(zhǔn)則,以保證機(jī)器人會(huì)友善對(duì)待人類并
使人們免于機(jī)器末日。物理學(xué)家霍金也曾撰文做了總結(jié):“成功創(chuàng)造人工智能將是人類歷史最大事件,若不懂如何避開(kāi)風(fēng)險(xiǎn),這也將是最后的大事?!钡谝慌_(tái)人工智能機(jī)器誕生于1951年,而關(guān)于人工智能的倫理思考很早就開(kāi)始了。在2014年,谷歌公司成立了人工智能倫理委員會(huì),來(lái)確保人工智能技術(shù)不被濫用。科技界富豪伊隆·馬斯克也表示“可能比核武器更危險(xiǎn),而最近人工智能是我們最大的生存威脅”。[1]人工智能的倫理問(wèn)題引起了越來(lái)越多的人關(guān)注,也成為了學(xué)者研究的重點(diǎn)問(wèn)題。
二、人工智能技術(shù)倫理困境的主要表現(xiàn)
(一)該不該賦予“人性”的機(jī)器以人權(quán)。
人權(quán)具有道義性和普世性,是人類的基本利益與需求。而人工智能技術(shù)使機(jī)器人具有了一定程度的感知能力,它們被賦予的所謂“人性”,讓人權(quán)受到了不下的挑戰(zhàn)。人工智能技術(shù)的運(yùn)用越來(lái)越廣泛,我們要面臨當(dāng)智能機(jī)器人具有所謂的“人性”后,其是否有權(quán)擁有和我們一樣的“人權(quán)”。反對(duì)者認(rèn)為我們不需要強(qiáng)大到有人性的機(jī)器人,也不需要機(jī)器人有人權(quán),這是對(duì)人類的傷害。贊成者覺(jué)得機(jī)器人具有道德修養(yǎng)后就應(yīng)該擁有人權(quán)。筆者認(rèn)為,機(jī)器人的目的是造福人類,是否具有人權(quán)要在這個(gè)大的基礎(chǔ)上具體研究。
(二)誰(shuí)來(lái)負(fù)責(zé)智能機(jī)器人的過(guò)錯(cuò)。
責(zé)任倫理是倫理概念中的一部分,它是對(duì)責(zé)任主體的目的、行為、后果等進(jìn)行系統(tǒng)考量,對(duì)責(zé)任關(guān)系、責(zé)任原因等進(jìn)行倫理分析和研究的理論。機(jī)器人的快速發(fā)展使人們開(kāi)始思索會(huì)不會(huì)有一天機(jī)器人按自己的邏輯去做事,如果出了問(wèn)題由誰(shuí)負(fù)責(zé)。機(jī)器人參與工作可能導(dǎo)致人的受傷甚至死亡,比如醫(yī)療領(lǐng)域的人工智能機(jī)器人的誤診,所以加快對(duì)機(jī)器人的責(zé)任倫理定位十分重要。技術(shù)的發(fā)展是不可逆的,智能機(jī)器人的運(yùn)用為人類帶來(lái)許多便利的同時(shí)也帶來(lái)了倫理問(wèn)題,對(duì)此問(wèn)題進(jìn)行深入的思考和探討很有必要。
(三)如何定位智能機(jī)器人的道德地位。
道德地位是基于人類獨(dú)有的精神特質(zhì)而存在的,而這些精神特質(zhì)一般都包括:“感覺(jué)疼痛的能力或具有感情;目標(biāo)導(dǎo)向;對(duì)于周圍環(huán)境和自己的認(rèn)識(shí)或意思;思維和推理能力;語(yǔ)言能力等?!盵2]有人認(rèn)為具有人類情感機(jī)器人應(yīng)該有道德地位,它們應(yīng)該受到尊重。如果機(jī)器人沒(méi)有道德地位那么人類就可以用殘酷或友好的任意方式對(duì)待它們,可是這又不符合我們社會(huì)傳統(tǒng)的道德觀念。我們?nèi)鄙僖惶淄暾膶?duì)待機(jī)器人的道德地位評(píng)價(jià)體系。
三、解決人工智能倫理困境的對(duì)策
(一)增強(qiáng)科學(xué)家社會(huì)責(zé)任感。
科學(xué)家對(duì)科學(xué)界和整個(gè)社會(huì)都應(yīng)該有一種責(zé)任感和道德義務(wù)。科學(xué)與政治、經(jīng)濟(jì)、社會(huì)之間的聯(lián)系密切,它的發(fā)展使我們的生活美好而便利,同時(shí)也充滿了威脅和不安??茖W(xué)工作者不能認(rèn)為自己的工作只與自己有關(guān),并且他們的工作不只是研究發(fā)明那么簡(jiǎn)單,他們工作的成果對(duì)整個(gè)社會(huì)造成的影響是巨大的,所以科學(xué)家要做出表率。在社會(huì)責(zé)任上要向政界和公眾說(shuō)明每一項(xiàng)科學(xué)成果帶來(lái)的后果,在一些可能對(duì)社會(huì)造成不好影響的科研上要勇于提出不同意見(jiàn)或退出,要本著為人類的幸福和未來(lái)著想的角度思考問(wèn)題。
(二)提升民眾知識(shí)素養(yǎng)。
許多民眾都相信人工智能的威脅論,科幻電影又加深了這一憂慮。一味的相信這些不如加深對(duì)人工智能技術(shù)的了解,以客觀的態(tài)度對(duì)待科學(xué)。政府、學(xué)校和社區(qū)在傳播正確的科學(xué)知識(shí)上要共同努力,科普人工智能技術(shù),讓民眾不再對(duì)人工智能保持神秘、危險(xiǎn)的印象,民眾在面對(duì)新聞媒體和傳言時(shí)要有一顆謹(jǐn)慎、求真、客觀的心態(tài),不要盲目跟風(fēng),不信謠傳謠,做到理性取舍,多關(guān)注科技領(lǐng)域,多學(xué)習(xí)專業(yè)知識(shí)。[3]
(三)健全人工智能發(fā)展標(biāo)準(zhǔn)和監(jiān)管制度。
新技術(shù)的誕生需要完整合理的監(jiān)管制度和發(fā)展標(biāo)準(zhǔn)。人工智能必將在未來(lái)成為一個(gè)重點(diǎn)研究領(lǐng)域,并運(yùn)用于生活的方方面面。所以,合理監(jiān)管人工智能產(chǎn)品的生產(chǎn)流程和使用細(xì)節(jié),制定人工智能的發(fā)展路徑十分必要。對(duì)有害生態(tài)環(huán)境和人類發(fā)展的人工智能技術(shù)要嚴(yán)格禁止,對(duì)違背道德理論的技術(shù)要取締,嚴(yán)格控制每一項(xiàng)技術(shù)的發(fā)展目標(biāo),落實(shí)監(jiān)管制度,讓人工智能技術(shù)為人類謀福利。
參考文獻(xiàn)
[1] 田林姑.關(guān)于人工智能的淺析團(tuán).網(wǎng)絡(luò)安全技術(shù)與應(yīng)用,2014 (10) .
[2] IBM模仿人腦打造有“思考能力”的芯片困.電腦編程技巧與維護(hù),2014 (17).
[3] 田鄒蕾,張先鋒.人工智能及其發(fā)展應(yīng)用田.信息網(wǎng)絡(luò)安全,2012 (2)