亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        機器人自殺引發(fā)的倫理紛爭

        2017-06-27 17:45:46波琳娜葉廖緬科
        讀者·校園版 2017年14期
        關(guān)鍵詞:人類智能

        波琳娜?葉廖緬科

        澳大利亞警方曾報道過一起離奇的機器人自殺事件,這很可能是世界上第一起記錄在案的機器人自殺事件。事件主角是iRobot公司生產(chǎn)的一臺智能掃地機器人,據(jù)說這臺掃地機器人在主人出門后,因感覺不間斷的清潔工作實在太勞累,便選擇了跑到廚房的電爐上自焚。消防隊員趕到現(xiàn)場,對整棟大樓進(jìn)行疏散,機器人自殺的那層樓更是濃煙滾滾。

        負(fù)責(zé)處理該事故的消防員赫爾穆特·納塞爾說,據(jù)錄像資料顯示,這家的男主人當(dāng)天讓智能掃地機器人清理案板上的殘留食物,機器人完成清理工作后,他就關(guān)閉了機器人的電源開關(guān),并將機器人放到了廚房一側(cè)的廚柜上。然后他就和妻兒一起出門了,把機器人獨自留在家里。

        該事件發(fā)生后,有人猜測,很可能是因為男主人在指使機器人干活時態(tài)度不太好,或是這家房子的清理工作過于繁重。在主人全家走后,機器人就自動啟動,靠近電爐,并將放在電爐上的鍋挪開,然后再自己蹲坐在電爐上。

        位于電爐上的機器人很快就開始融化,它沒發(fā)出一點痛苦的喊叫聲,融化了的“尸體”黏在電爐上,從而引發(fā)了火災(zāi)。消防員趕到時,已經(jīng)只剩下一堆灰燼。

        這家男主人堅稱,他在出門前肯定把這臺機器人關(guān)閉了,所以機器人的自動啟動和神秘自焚事件就成了一宗懸案。他說:“生產(chǎn)這種機器人的企業(yè)出售的是危險產(chǎn)品。我們在‘追悼這臺機器人的時候,也應(yīng)該奉勸其他同類清潔機器人,沒有什么大不了的,想開點?!?/p>

        美國紐約倫斯勒理工學(xué)院認(rèn)知研究部主任塞爾默·布林斯特

        10年前,我們開始對機器人倫理道德問題進(jìn)行研究。當(dāng)時很多人認(rèn)為我們是一群奇怪的家伙,甚至有人以為我們瘋了。但令人驚奇的是這10年人們的觀念發(fā)生了翻天覆地的變化:現(xiàn)在不再有人認(rèn)為我們是在做瘋狂的事。目前,我正在進(jìn)行一項研究:從倫理角度出發(fā),應(yīng)該允許機器人自殺嗎?我們對機器人進(jìn)行的研究,是一種心理治療和精神分析。對機器人倫理道德的深入研究,就是人類對自己精神世界的剖析。

        在我的實驗室里,有一系列像科幻小說中描述的那樣的類人機器,我用它們做試驗。現(xiàn)在,我想弄清楚可能導(dǎo)致我的機器人自殺的原因。我的疑問是:機器人是否會像人類一樣,因感到生命無意義或患上抑郁癥,想要結(jié)束自己的生命?此外我們還面臨一個問題:人類是否應(yīng)該允許機器人自殺?

        我們設(shè)計出的智能機器人,會表現(xiàn)出35種不同的情感狀態(tài)。但計算程序也有出差錯的時候,如果智能系統(tǒng)崩潰了,機器人也會患上“抑郁癥”。

        機器人的情感體驗沒有辦法像人類一樣豐富、自由。例如,機器人可以抽一支煙,卻無法自主得到像人類一樣享受滿足的愉悅感。再例如滑雪。昨天我剛滑過雪,我感受到了多重情感:從難以描述的喜悅到些許恐懼。但這樣的體驗有時很難用計算程序描述,無法被準(zhǔn)確編程。

        隨著機器人技術(shù)的不斷發(fā)展,它們會變得越來越智能和自主。它們將擁有更多的情感,但在某些時候系統(tǒng)可能會發(fā)生無法預(yù)估的意外,導(dǎo)致機器人可能想要結(jié)束自己的生命。如果讓機器人擁有自主決定生命的權(quán)利,首先不利于人類——有誰會想要白白損失一個智能機器人呢?

        想象一下,假如你的機器人有自主決斷的能力,它正在幫你搬重箱子,但突然就決定不想活了,自殺了。誰會在乎這件事呢?當(dāng)然是機器人的主人。如果我們開發(fā)一個真正的自主機器人,那么如何防止機器人自殺,將是一個非常重要的問題。

        當(dāng)然,你可以對機器人能做什么或不能做什么做一些限制,但是很難,因為你已經(jīng)將程序設(shè)定為自由和自主。當(dāng)然,你也可以寫一個簡單的程序——機器人只能自由進(jìn)行一兩個步驟,就不會有任何后顧之憂。但隨著時代的進(jìn)步,誰還會需要這種機器人?我們想要創(chuàng)造更智能的技術(shù),而智能則意味著讓機器人獨立。

        那么問題是:如何從計算的角度研究機器人自殺的愿望?我們?nèi)绾卫贸绦蛟O(shè)計使機器人的情感系統(tǒng)不出故障?這樣做是否合乎道德?我認(rèn)為,患有輕度抑郁癥就選擇自殺是不道德的,因為“我沒有夢想”“我厭倦工作”這類原因自殺也是不道德的。因為即便人類,也不會因為輕度抑郁輕易選擇結(jié)束生命。因此,我們的研究結(jié)論是:在大多數(shù)情況下,機器人自殺是不被接受的。但如果機器人出現(xiàn)障礙,比如大腦損傷,無法修復(fù),那么它就失去了存在感,那么只留有軀殼也沒有意義,這時候它就可以選擇殺死自己。

        以前人們認(rèn)為,給予機器人道德倫理是很奇怪的事,但現(xiàn)在,越來越多的人明白了這是必要的。

        我并不為自己現(xiàn)在所做的事?lián)?。我會?dān)心我們的未來嗎?不,相信我,如果現(xiàn)在不解決這些問題,置混亂狀態(tài)于不顧,那么我們將釀成非??膳碌暮蠊H绻覀冎恢圃熳灾鳈C器人,不事先對可能引起的問題進(jìn)行預(yù)估防范,那么真正的大問題就會出現(xiàn)。到那時,智能機器人會傷害甚至殺死人類。這就是今天機器人倫理問題的研究如此重要的原因。

        英國廣播電視臺《戰(zhàn)斗機器人》的主要評論員、控制戰(zhàn)斗機器人國際委員會主任諾埃爾·夏基

        機器人殺手有可能成為好斗分子選擇的武器。由于造價不斷降低,在不久的將來,機器人將成為極端組織現(xiàn)實可行的選擇。問題是我們不可能真正把魔鬼放回到瓶子里。新型武器一旦問世,復(fù)制起來就會非常容易。

        政府組織控制戰(zhàn)斗機器人國際委員會于2009年開始就戰(zhàn)斗機器人進(jìn)行討論。我們暫且不討論無人機,因為無人機是由人類操控的。不同于無人機,戰(zhàn)斗機器人是完全自主的:自己選擇目標(biāo),在沒有任何人工參與的情況下?lián)魵撤健,F(xiàn)在人權(quán)觀察組織和國際特赦組織也開始加入我們的討論,我們在聯(lián)合國聯(lián)合發(fā)起了“停止使用戰(zhàn)斗機器人”的活動。

        我們討論的主要問題是新科技如何應(yīng)對國際人道主義法規(guī)。我們沒有十足的信心,能讓自主的戰(zhàn)斗機器人嚴(yán)格遵守戰(zhàn)斗規(guī)則。

        讓我們擔(dān)心的問題之一是機器人如何遵守區(qū)別對待原則。區(qū)別對待原則是指軍事力量只能針對敵人及其武器,而不允許對平民造成傷害。為了嚴(yán)格遵守這一原則,有必要準(zhǔn)確地識別允許攻擊的人和物體。這都是《日內(nèi)瓦公約》中闡明的:士兵要區(qū)分平民和士兵。戰(zhàn)斗機器人的自主能力在現(xiàn)階段還發(fā)展不到這種程度,它們可以區(qū)分坦克和卡車。在人類世界,士兵和平民較易混淆,尤其是一些混在平民中的反叛者——這些人在機器人眼中都是沒有區(qū)別的。

        另一個原則是比例原則。我不喜歡這個原則,其實質(zhì)在于,你殺死敵方平民的人數(shù)直接與其軍事優(yōu)勢成正比。沒有程序可以預(yù)先計算出平民傷亡數(shù)量——只有經(jīng)驗豐富的指揮官才能做出相應(yīng)的決斷。

        還有些人認(rèn)為,人類不應(yīng)該允許機器人殺死人類。人類殺死一個人和機器人殺死一個人的關(guān)鍵區(qū)別在于,前者會花一定時間去拿出武器,準(zhǔn)備動手,在這個過程中他能意識到自己將要奪去一個人的生命;而后者直到殺死一個人以后也沒有任何情感活動。因為機器人沒有意識,人類的生命就這樣在無意識的狀態(tài)下被剝奪了。

        另一些人認(rèn)為,如果讓戰(zhàn)斗機器人代替一部分軍隊上戰(zhàn)場,會使死亡人數(shù)大大減少。但這種觀點的反對者說,這是非常自私的方法:只想到我方的利益,我們應(yīng)該從全人類的角度出發(fā),否則整個國際安全都將受到威脅。

        美國紐約新學(xué)院大學(xué)哲學(xué)教授彼得·阿斯特羅

        我最關(guān)心的問題是:我們是否可以讓機器人實施蓄意暴力?我們是否應(yīng)該賦予機器人保護(hù)人類的權(quán)力和軍事實力?在開創(chuàng)了這些領(lǐng)域的機器人的先例后,人類將發(fā)現(xiàn)自己的另一面。我們?nèi)绾握{(diào)控機器人,如何使它們明白哪些暴力行為可以對人類施加,哪些不可以?

        按照傳統(tǒng)觀念,只有當(dāng)自己的生命面臨危險時,才能使用暴力。然而,機器人不會評估它們的生命是否處于危險境地。我們現(xiàn)在可以編程殺死機器人,因為機器人不是人,它們沒有自衛(wèi)權(quán),那么在未來呢?

        我希望在不久的將來,聯(lián)合國能簽署一項協(xié)議,在一定程度上規(guī)范戰(zhàn)斗機器人的行為?,F(xiàn)在,越來越多的人開始關(guān)注這個問題,聯(lián)合國已經(jīng)就該問題接見了專家。我認(rèn)為,再過兩三年,他們就能簽訂協(xié)議了。但問題是,在兩年或三年內(nèi),某些國家會開發(fā)新型戰(zhàn)斗機器人,投入很大一筆錢,沒有哪個國家愿意放棄它們的機器人。到時候,簽署這項協(xié)議將可能會變得阻力重重。

        猜你喜歡
        人類智能
        顫抖吧,人類
        哈哈畫報(2022年4期)2022-04-19 11:11:50
        人類能否一覺到未來?
        人類會成長起來嗎?
        英語文摘(2021年2期)2021-07-22 07:56:54
        人類第一殺手
        好孩子畫報(2020年5期)2020-06-27 14:08:05
        智能制造 反思與期望
        1100億個人類的清明
        智能前沿
        文苑(2018年23期)2018-12-14 01:06:06
        智能前沿
        文苑(2018年19期)2018-11-09 01:30:14
        智能前沿
        文苑(2018年17期)2018-11-09 01:29:26
        智能前沿
        文苑(2018年21期)2018-11-09 01:22:32
        亚洲av无码成人网站www| 免费网站内射红桃视频| 久久久久久人妻一区精品| 亚洲国产欧美在线成人| 无码专区无码专区视频网址| 国产一区二区三区精品毛片| 成人无码av免费网站| 久久夜色精品国产噜噜亚洲av | 国产熟女内射oooo| 18级成人毛片免费观看| 国产360激情盗摄一区在线观看| 青青草原综合久久大伊人精品| 久久精品国产自在天天线| 天天干成人网| 色窝综合网| 在线国人免费视频播放| 免费人成网站在线观看欧美| 人妻夜夜爽天天爽三区麻豆AV网站| 日本一区二区三本视频在线观看| 亚洲一区二区三区偷拍视频| 丰满多毛的大隂户毛茸茸| 99热这里只有精品国产99热门精品| 精品国产乱来一区二区三区| 精品久久亚洲中文字幕| 国产精品夜间视频香蕉| 国精品无码一区二区三区在线看| 亚洲视频在线免费观看一区二区 | 无码手机线免费观看| 91在线区啪国自产网页| 日本视频在线播放一区二区| 亚洲精品成人网站在线播放| 欧美va亚洲va在线观看| 国产免费视频一区二区| 国产一区国产二区亚洲精品| 欧美 变态 另类 人妖| 亚洲中文字幕久爱亚洲伊人 | 久久精品国产亚洲av蜜臀| 蜜桃在线播放免费一区二区三区| 蜜桃在线高清视频免费观看网址| 丰满少妇a级毛片| 国产精美视频|