亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        “人在回路”的道德機(jī)制:機(jī)器人倫理實(shí)踐的新路徑

        2025-01-23 00:00:00程海東胡孝聰

        摘 要:機(jī)器人倫理是以人類為主體的倫理,側(cè)重于機(jī)器人與人類的交互中的倫理問(wèn)題。進(jìn)入人工智能時(shí)代,機(jī)器人倫理的研究焦點(diǎn)之一為人機(jī)共生倫理。“人在回路”的道德機(jī)制將人類視為機(jī)器人道德建模過(guò)程中的關(guān)鍵參與者,尋求利用人機(jī)共生的優(yōu)勢(shì)來(lái)彌補(bǔ)彼此的不足。這種策略有兩種優(yōu)勢(shì):一是人類能夠從人機(jī)交互的過(guò)程中進(jìn)一步增強(qiáng)人類的能力,讓人類專注于獨(dú)特優(yōu)勢(shì)的任務(wù);二是人類處于回路中能夠減少機(jī)器人不道德的輸出,在面對(duì)高風(fēng)險(xiǎn)情況時(shí),人類能對(duì)機(jī)器人的行動(dòng)及時(shí)糾偏。

        關(guān)鍵詞:機(jī)器人倫理;道德建模;人在回路

        基金項(xiàng)目:遼寧省社會(huì)科學(xué)規(guī)劃基金項(xiàng)目(L19BSZ013)

        作者簡(jiǎn)介:程海東,哲學(xué)博士,東北大學(xué)馬克思主義學(xué)院副教授、博士生導(dǎo)師,主要從事技術(shù)哲學(xué)研究;胡孝聰,東北大學(xué)馬克思主義學(xué)院博士生。

        中圖分類號(hào):TP242;B82-057 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1000-2359(2025)01-0108-07 收稿日期:2023-07-08

        自工業(yè)革命以來(lái),機(jī)器人就一直處在不斷替代人類體力勞動(dòng)的進(jìn)程中。在人工智能時(shí)代,智能機(jī)器人又開始替代人類的腦力勞動(dòng)。隨著人類社會(huì)的智能化進(jìn)程,機(jī)器人已經(jīng)從傳統(tǒng)的制造業(yè)機(jī)器人,逐漸拓展到各類服務(wù)型機(jī)器人。作為新興技術(shù),當(dāng)代機(jī)器人技術(shù)在給社會(huì)治理提供高效治理方案的同時(shí),也帶來(lái)了新的難題。其中機(jī)器人的道德倫理問(wèn)題已成為社會(huì)和學(xué)界關(guān)注的焦點(diǎn)之一,這一問(wèn)題又可以具體為機(jī)器人能否成為真正的道德智能體,有無(wú)可能對(duì)人類造成傷害,又該如何避免機(jī)器人造成的傷害,人類如何與機(jī)器人共處等問(wèn)題。隨著AlphaGo的接連獲勝和ChatGPT的不斷升級(jí),機(jī)器人超越人類的擔(dān)憂更是急劇上升。智能時(shí)代機(jī)器人的工作模式和人們對(duì)機(jī)器人不斷加深的擔(dān)憂使得機(jī)器人倫理的研究快速走向前臺(tái)。

        一、走向人工智能時(shí)代的機(jī)器人倫理

        (一)何為機(jī)器人倫理

        機(jī)器人是通過(guò)模擬人類的思維和行動(dòng)與外部世界交互的電子器械。貝基認(rèn)為,機(jī)器人是“在世界中運(yùn)行的,能夠感知、思維和行動(dòng)的機(jī)器?!?Bekey George A. Current trends in robotics:Technology and ethics. in Robot ethics: The ethical and social implications of robotics,MIT press, 2014, pp.17-34.也就是說(shuō),機(jī)器人應(yīng)該是在物理實(shí)體上運(yùn)行的可以感知、思維和行動(dòng)的實(shí)體機(jī)器人。“機(jī)器人倫理”一詞是由韋魯吉奧于2004年在意大利舉行的第一屆機(jī)器人倫理會(huì)議上提出:“機(jī)器人倫理指的是人類在設(shè)計(jì)、制造、使用機(jī)器人時(shí)的道德行為” Veruggio Gianmarco. Roboethics roadmap. in EURON Roboethics Atelier. 2011.,即人類在與機(jī)器人互動(dòng)時(shí)所產(chǎn)生的責(zé)任以及應(yīng)遵循的倫理準(zhǔn)則??梢?,機(jī)器人倫理學(xué)關(guān)注的是人在設(shè)計(jì)、制造和使用機(jī)器人的過(guò)程中產(chǎn)生的倫理問(wèn)題。在阿薩羅看來(lái),機(jī)器人倫理包含三個(gè)層面的含義:“機(jī)器人內(nèi)置的倫理系統(tǒng),設(shè)計(jì)和使用機(jī)器人的倫理,以及人們?nèi)绾螌?duì)待機(jī)器人的倫理?!?Asaro P M. What should we want from a robot ethic? The International Review of Information Ethics, 2006, p.10.即機(jī)器人倫理學(xué)關(guān)注的不僅是人類主體在設(shè)計(jì)、制造和使用機(jī)器人的過(guò)程所產(chǎn)生的倫理問(wèn)題,也關(guān)注機(jī)器人內(nèi)置的倫理系統(tǒng)——機(jī)器人與人類相處時(shí)所遵循的倫理法則。阿布尼也提出了類似的觀點(diǎn),他認(rèn)為機(jī)器人倫理至少有這樣幾種含義:“第一,它可以指機(jī)器人專家的職業(yè)道德;第二,它可以指為機(jī)器人編寫的道德準(zhǔn)則,這是機(jī)器人自己的道德準(zhǔn)則,而不是機(jī)器人專家遵循的準(zhǔn)則;第三(可能不存在的含義),‘機(jī)器人倫理’可以指機(jī)器人有自我意識(shí)的能力來(lái)進(jìn)行倫理推理,這是機(jī)器人自己的、由自我選擇的道德準(zhǔn)則?!?Abney K. Robotics,ethical theory,and metaethics:A guide for the perplexed.In:Keith Abney,George A. Bekey(eds.)Robot ethics:The ethical and social implications of robotics,MIT press,2016,p.35.

        具體而言,機(jī)器人倫理可劃分為如下子問(wèn)題:與機(jī)器人相處時(shí),人類如何看待機(jī)器人的行為是否符合自己的道德訴求;機(jī)器人能否承擔(dān)行為的責(zé)任,它們能否被看作是道德智能體;具有自主性的機(jī)器人如何與人類共處,而人類又該如何與它們共處?換言之,機(jī)器人倫理的目標(biāo)不是要將機(jī)器人視為獨(dú)立的道德智能體,“在這一領(lǐng)域作出倫理決策時(shí),我們應(yīng)該抵制將機(jī)器人視為道德智能體或受動(dòng)者(patients)的誘惑。在可預(yù)見的未來(lái),將人類和機(jī)器人視為倫理上相似的物種比將它們視為倫理上不同的物種會(huì)帶來(lái)更多的倫理風(fēng)險(xiǎn)。” Chrisley R. A human-centered approach to AI ethics. In: Dubber, M.D., Pasquale, F., Das, S. (eds.) The Oxford Handbook of Ethics of AI. Oxford University Press, 2020, p. 463.可見,機(jī)器人倫理學(xué)指的是圍繞機(jī)器人的設(shè)計(jì)、使用和如何看待機(jī)器人的倫理問(wèn)題,包括諸如機(jī)器人的設(shè)計(jì)是否應(yīng)優(yōu)先考慮人類安全,機(jī)器人應(yīng)如何與人類互動(dòng)等問(wèn)題。

        (二)人工智能時(shí)代機(jī)器人倫理的面向

        從道德建模角度看,機(jī)器人倫理采取的策略是外部規(guī)約,“以人為責(zé)任主體” 閆坤如:《機(jī)器人倫理學(xué):機(jī)器的倫理學(xué)還是人的倫理學(xué)》,《社會(huì)科學(xué)文摘》,2019年第10期。,將責(zé)任落實(shí)到設(shè)計(jì)者或使用者身上,集中探討在設(shè)計(jì)和使用機(jī)器人過(guò)程中人類所要遵循的道德原則和所擔(dān)負(fù)的道德責(zé)任。科克爾伯格認(rèn)為機(jī)器人倫理應(yīng)該以人類道德主體的表象為標(biāo)準(zhǔn),使用擬人化特征想象地投射到機(jī)器人身上 Coeckelbergh M. Virtual moral agency, virtual moral responsibility: on the moral significance of the appearance, perception, and performance of artificial agents. AI amp; society, 2009, 24(2).,即通過(guò)關(guān)注人類在做道德決策時(shí)所表現(xiàn)出來(lái)的形態(tài),將這些形態(tài)投射到機(jī)器人身上,看它們是如何表現(xiàn)的。在人-機(jī)、機(jī)-機(jī)的交互中去觀察,根據(jù)它們的表現(xiàn)做出道德評(píng)價(jià)和責(zé)任認(rèn)定,只要機(jī)器人能夠“表現(xiàn)”為負(fù)責(zé)任的道德形態(tài),就可以認(rèn)為它們具有道德。

        人工智能時(shí)代,通過(guò)一定的技術(shù)手段,機(jī)器人能夠具備“明物理、通事理”的能力 余欣,朝樂(lè)門,孟剛:《人在回路型AI訓(xùn)練的基本流程與交互模型研究》,《情報(bào)資料工作》,2022年第5期。。當(dāng)前的機(jī)器人已經(jīng)可以做到與人類進(jìn)行深度的交互和綁定。例如,英國(guó)的機(jī)器人公司生產(chǎn)的Ameca機(jī)器人,能夠與工程師熟練對(duì)話,使用 GPT-3進(jìn)行對(duì)話和翻譯,使用DeepL進(jìn)行語(yǔ)言檢測(cè),并使用Amazon Polly Neural語(yǔ)音。源于現(xiàn)代道德建模方式的機(jī)器人,已經(jīng)具有一定的道德決策能力,只是還不能夠被看作是道德實(shí)踐的主體,布瑞將這種機(jī)器人稱作是“準(zhǔn)道德主體”,能夠做到“明物理”和“通事理”,但還未能做到“懂人理”。

        隨著人工智能技術(shù)的發(fā)展,機(jī)器人倫理的研究路徑也需要轉(zhuǎn)換。在當(dāng)下的研究路徑中,機(jī)器人倫理學(xué)與機(jī)器倫理學(xué)是密切相關(guān)但屬于不同的研究領(lǐng)域:以人為對(duì)象的機(jī)器人倫理,從人類獨(dú)有的倫理道德屬性出發(fā),關(guān)注的是人類主體在機(jī)器人應(yīng)用過(guò)程中所要承擔(dān)的道德責(zé)任,以及是否可以對(duì)機(jī)器行為作出道德解釋等問(wèn)題,關(guān)注于設(shè)計(jì)出能夠做出道德行為的機(jī)器人;以機(jī)器為對(duì)象的機(jī)器倫理,關(guān)注的是機(jī)器行為的道德源頭,以及如何讓機(jī)器能夠“聽懂”人類的道德原則,關(guān)注于設(shè)計(jì)出能夠依據(jù)人類道德原則獨(dú)立做出道德決策的機(jī)器人。這種將二者區(qū)分為不同研究領(lǐng)域、采取不同研究路徑的思路已不能滿足人工智能時(shí)代機(jī)器人倫理的研究和實(shí)踐要求,因?yàn)樗鼈冴P(guān)注的或者是人對(duì)技術(shù)的主導(dǎo)性,或者是技術(shù)對(duì)人的塑造,而未關(guān)注到技術(shù)與人類的共生實(shí)際。智能時(shí)代的人機(jī)關(guān)系可以從人類道德的習(xí)得過(guò)程與運(yùn)用中尋找答案——“師法自然” 高新民,何冠岐:《師法自然與基于“進(jìn)化論轉(zhuǎn)向”的智能解剖》,《貴州社會(huì)科學(xué)》,2021年第4期。,即機(jī)器人的道德化過(guò)程與人類的道德化歷程具有很強(qiáng)的相關(guān)性:人類道德化的過(guò)程是在人與自然、人與社會(huì)、人與人的交互中不斷成熟的,機(jī)器人的道德化也應(yīng)該是機(jī)器人在與人類、技術(shù)人工物、其他機(jī)器人的具體交互中構(gòu)建出道德規(guī)范的連續(xù)過(guò)程。

        二、基于“人在回路”道德機(jī)制的機(jī)器人倫理

        (一)“人在回路”的道德機(jī)制及其功能

        “人在回路”(human-in-the-loop,HITL)的核心是強(qiáng)調(diào)人類在自動(dòng)化系統(tǒng)決策過(guò)程中的關(guān)鍵角色,作為一種典型的人機(jī)協(xié)同模式,其起源可追溯至國(guó)防和航空領(lǐng)域的建模與仿真研究 DoD Modeling and Simulation (Mamp;S) Glossary, DoD 5000.59-M, January 1998, p.118.。在此模式中,人類操作員的職責(zé)包括處理監(jiān)控任務(wù)、控制異常、優(yōu)化任務(wù)及維護(hù)任務(wù)等,是自動(dòng)化控制過(guò)程的重要一環(huán)。謝里丹將這一過(guò)程定義為:“一個(gè)或多個(gè)人類操作員間歇性地編程并不斷從計(jì)算機(jī)接收信息,該計(jì)算機(jī)本身通過(guò)人工效應(yīng)器關(guān)閉到受控過(guò)程或任務(wù)環(huán)境的自主控制回路?!?Sheridan T B. Telerobotics, automation, and human supervisory control. MIT press, 1992, p.1.

        在自主武器系統(tǒng)的開發(fā)中,HITL指的是人類參與到自主武器的設(shè)計(jì)、測(cè)試、部署和使用等階段。自主武器是指“能夠自主獨(dú)立完成全部作戰(zhàn)任務(wù)周期,即搜索目標(biāo),確定攻擊和發(fā)動(dòng)攻擊的武器。雖然稱作自主武器,但無(wú)論是監(jiān)督式自主武器還是完全自主武器,都是由人類設(shè)計(jì)并投入作戰(zhàn)行動(dòng)的?!?保羅·沙瑞爾:《無(wú)人軍隊(duì):自主武器與未來(lái)戰(zhàn)爭(zhēng)》,朱啟超等譯,世界知識(shí)出版社,2019年,第57-58頁(yè)。這也再次突出了人類在自主武器各階段的至關(guān)重要性。根據(jù)人類參與程度的差異,HITL又可以細(xì)化為三個(gè)部分,分別是人在回路中(human-in-the-loop)、人在回路上(human-on-the-loop)和人在回路外(human-out-of-the-loop)。其中,“人在回路中”是指半自主武器系統(tǒng),即武器系統(tǒng)主要用于搜索、識(shí)別和打擊目標(biāo),而人類負(fù)責(zé)下達(dá)打擊任務(wù)的指令,“在戰(zhàn)爭(zhēng)制勝問(wèn)題上,人是決定因素” 黃松平等:《無(wú)人作戰(zhàn)及其指揮控制問(wèn)題探析》,《火力與指揮控制》,2023年第4期。;“人在回路上”指的是有監(jiān)督式自主武器,其目標(biāo)由人類設(shè)定,系統(tǒng)自主尋找、識(shí)別并決定是否對(duì)目標(biāo)進(jìn)行打擊,只有在必要時(shí)人類才干預(yù)打擊任務(wù);“人在回路外”是指完全自主武器系統(tǒng),這種系統(tǒng)能自行尋找、監(jiān)測(cè)并決定是否發(fā)動(dòng)打擊,人類無(wú)法直接參與或干預(yù)打擊任務(wù) 保羅·沙瑞爾:《無(wú)人軍隊(duì):自主武器與未來(lái)戰(zhàn)爭(zhēng)》,朱啟超等譯,世界知識(shí)出版社,2019年,第48-51頁(yè)。??梢?,“人在回路外”的模式涉及的潛在風(fēng)險(xiǎn)極大,當(dāng)下的技術(shù)難以實(shí)現(xiàn)。

        因此,保證人類能夠干預(yù)系統(tǒng)的打擊決策,在智能化作戰(zhàn)中是至關(guān)重要的。特別是在系統(tǒng)誤將平民識(shí)別為戰(zhàn)斗人員時(shí),人類操作員能及時(shí)干預(yù)并糾正打擊任務(wù)。人類的參與有助于在系統(tǒng)出現(xiàn)異?;蚺袛噱e(cuò)誤時(shí),作為能夠承擔(dān)責(zé)任的實(shí)體進(jìn)行糾正和負(fù)責(zé)。在自主系統(tǒng)可能對(duì)人類造成傷害時(shí),人類的適時(shí)介入可以最大限度地降低這種錯(cuò)誤決策的可能性。例如,無(wú)人機(jī)的操控者能夠在緊急情況下采取手動(dòng)控制,以避免誤傷平民。自動(dòng)駕駛汽車的開發(fā)人員和使用者可以通過(guò)手動(dòng)駕駛功能來(lái)處理復(fù)雜交通場(chǎng)景,以確保安全駕駛。這種人機(jī)結(jié)合的方式使得人類能夠在系統(tǒng)出現(xiàn)意外情況或設(shè)定錯(cuò)誤時(shí)介入并糾正,確保智能系統(tǒng)的正常運(yùn)行和人類的安全。

        隨著人工智能技術(shù)的快速發(fā)展,HITL理念已經(jīng)被引入到機(jī)器學(xué)習(xí)領(lǐng)域。在這里,“人在回路”是指人類參與構(gòu)建、訓(xùn)練和測(cè)試機(jī)器學(xué)習(xí)算法的過(guò)程,這是一種監(jiān)督式機(jī)器學(xué)習(xí)和主動(dòng)學(xué)習(xí)的結(jié)合。這種結(jié)合可以創(chuàng)造出一個(gè)持續(xù)的反饋循環(huán),“在使用人工智能的應(yīng)用中結(jié)合人和機(jī)器智能的策略” Monarch R M. Human-in-the-Loop Machine Learning: Active learning and annotation for human-centered AI, Simon and Schuster, 2021, p.4.,以此優(yōu)化算法的每次輸出。在監(jiān)督式機(jī)器學(xué)習(xí)中,人類通過(guò)標(biāo)注和注釋數(shù)據(jù),為學(xué)習(xí)算法提供學(xué)習(xí)和決策所需的信息。同時(shí),人類還可以對(duì)模型進(jìn)行修正以提高其準(zhǔn)確性。這個(gè)過(guò)程構(gòu)成了HITL的算法周期。 Wang G. Humans in the loop: The design of interactive AI systems, Artificial Intelligence Res, 2019, pp.243-252.該周期始于人類對(duì)數(shù)據(jù)進(jìn)行標(biāo)記,為模型提供大量的高質(zhì)量訓(xùn)練數(shù)據(jù)。然后機(jī)器學(xué)習(xí)如何根據(jù)這些數(shù)據(jù)做出決策,直到人類開始對(duì)模型進(jìn)行微調(diào)。最后,人類通過(guò)對(duì)模型的輸出進(jìn)行評(píng)估以測(cè)試和驗(yàn)證其準(zhǔn)確性。隨著學(xué)習(xí)的推進(jìn),這一過(guò)程使得算法的效率和準(zhǔn)確性都得到了顯著提升,其中人類的判斷有助于調(diào)整和測(cè)試模型的輸出,以實(shí)現(xiàn)最準(zhǔn)確和可操作的決策。當(dāng)人工智能在預(yù)測(cè)或識(shí)別上出現(xiàn)誤判時(shí),位于回路中的人類可以進(jìn)行糾錯(cuò),這一過(guò)程被稱為反饋回路。因此,HITL可以被視為一個(gè)連續(xù)的反饋回路,每次訓(xùn)練、調(diào)優(yōu)和測(cè)試任務(wù)都將反饋給算法。通過(guò)反饋回路,人類能夠快速地識(shí)別和糾正機(jī)器人道德決策中的錯(cuò)誤。主動(dòng)學(xué)習(xí)是一個(gè)持續(xù)地迭代過(guò)程,每個(gè)迭代過(guò)程中都會(huì)選擇一些數(shù)據(jù)進(jìn)行人工標(biāo)注,然后使用新的人工標(biāo)注數(shù)據(jù)重新訓(xùn)練模型。在機(jī)器學(xué)習(xí)領(lǐng)域,人類可以調(diào)整數(shù)據(jù)的收集和處理方式,作為反饋的來(lái)源,并監(jiān)控模型的部署結(jié)果,從而改進(jìn)和優(yōu)化整個(gè)流程。

        簡(jiǎn)言之,HITL的機(jī)器學(xué)習(xí)是將人和機(jī)器學(xué)習(xí)有機(jī)地結(jié)合在一起,實(shí)現(xiàn)“1+1gt;2”的效應(yīng)。在人工智能應(yīng)用中,引入人類目的是提高機(jī)器學(xué)習(xí)模型決策的準(zhǔn)確性。這種模式的兩個(gè)主要目標(biāo)是:一是使用人工輸入使機(jī)器學(xué)習(xí)應(yīng)用更精確,二是利用機(jī)器學(xué)習(xí)來(lái)改善人工任務(wù) Monarch R M. Human-in-the-Loop Machine Learning: Active learning and annotation for human-centered AI, Simon and Schuster, 2021, pp.16-17.。例如,在進(jìn)行機(jī)器翻譯時(shí),我們可以利用機(jī)器翻譯系統(tǒng)推薦的單詞和短語(yǔ)來(lái)加快翻譯任務(wù),就像我們現(xiàn)在使用的輸入法,在輸入單詞時(shí),輸入法系統(tǒng)會(huì)自動(dòng)推薦下一個(gè)可能的詞匯。這種通過(guò)提供人工翻譯的數(shù)據(jù)讓機(jī)器翻譯系統(tǒng)進(jìn)行學(xué)習(xí),可以提高機(jī)器翻譯的準(zhǔn)確性,既改善了人類的生活體驗(yàn),同時(shí)實(shí)現(xiàn)了提高人類效率和機(jī)器準(zhǔn)確性兩個(gè)目標(biāo)。

        綜上所述,在不同的領(lǐng)域中,HITL實(shí)現(xiàn)了兩個(gè)重要功能:一是通過(guò)機(jī)器系統(tǒng),人類可以識(shí)別并糾正機(jī)器的錯(cuò)誤行為;二是在機(jī)器學(xué)習(xí)中,人類能夠幫助機(jī)器學(xué)習(xí)模型做出更精確的決策,形成人-機(jī)學(xué)習(xí)模型的連續(xù)反饋回路,從而提高模型的性能和準(zhǔn)確性。當(dāng)然,HITL在機(jī)器學(xué)習(xí)領(lǐng)域也存在相應(yīng)的挑戰(zhàn),人類對(duì)模型的調(diào)整和修正并不總是能提高模型的準(zhǔn)確性,因?yàn)槿祟惖臎Q策也可能受到自身的偏見和誤解的影響。這就需要我們制定一套合理的反饋和監(jiān)督機(jī)制,以確保模型的公正性和準(zhǔn)確性。

        (二)“人在回路”道德機(jī)制在機(jī)器人倫理學(xué)中的應(yīng)用

        在機(jī)器人倫理中,將“人在回路”引入倫理考量是必要的,因?yàn)榈赖聸Q策的可靠性來(lái)源通常被歸于人類。這種機(jī)制將道德建模看做是一個(gè)循環(huán)不斷地進(jìn)程,通過(guò)人類與機(jī)器人在現(xiàn)實(shí)世界的交互式反饋,實(shí)現(xiàn)機(jī)器人與人類的倫理對(duì)齊。更重要的是,機(jī)器人和人類通過(guò)交互過(guò)程實(shí)現(xiàn)學(xué)習(xí)、決定和行動(dòng),它們的技術(shù)訣竅會(huì)隨著時(shí)間的推移而進(jìn)化,因此對(duì)事件鏈的解釋和理解會(huì)更加嚴(yán)格 Pacaux-Lemoine M P, Trentesaux D. Ethical risks of human-machine symbiosis in industry 4.0: insights from the human-machine cooperation approach. IFAC-Papers OnLine, 2019, p.20.。在機(jī)器人的決策中,不僅要關(guān)注其行為的準(zhǔn)確性,可解釋性在人機(jī)交互中也非常重要,因?yàn)槿祟惒幌M麢C(jī)器人是一個(gè)只能看到輸入和輸出的黑箱。如果機(jī)器人在我們的生活中扮演重要的角色,我們就需要理解它的決策依據(jù),這有助于加強(qiáng)人類對(duì)機(jī)器人的信任和降低可能的道德風(fēng)險(xiǎn)。人類是社會(huì)的一部分,機(jī)器人也將是社會(huì)中不可或缺的個(gè)體。一個(gè)最終需要在人類社會(huì)中發(fā)揮作用的機(jī)器不應(yīng)該脫離人類的視野。人在回路的道德機(jī)制旨在將人類接管機(jī)器人訓(xùn)練的回路之中,對(duì)機(jī)器人賦予特定的價(jià)值、倫理、道德、文化和意識(shí)形態(tài),使得機(jī)器人不僅能夠“明物理”和“通事理”,而且還可以“懂人理” 余欣,朝樂(lè)門,孟剛:《人在回路型:AI訓(xùn)練的基本流程與交互模型研究》,《情報(bào)資料工作》,2022第5期。。“懂人理”并不是靜態(tài)的、由編程人員提供的代碼,而是需要在動(dòng)態(tài)的人機(jī)交互中實(shí)現(xiàn)人類與機(jī)器人的集體能動(dòng)性建構(gòu) 于雪,初昊:《人機(jī)合作中集體能動(dòng)性的建構(gòu)》,《長(zhǎng)沙理工大學(xué)學(xué)報(bào)》(社會(huì)科學(xué)版),2023年第2期。。

        在機(jī)器人倫理的語(yǔ)境中,“回路”具有獨(dú)特的含義,它不僅表征循環(huán)過(guò)程,更重要的是,它強(qiáng)調(diào)機(jī)器人的道德建模不是一次性或靜態(tài)的任務(wù),而是一個(gè)動(dòng)態(tài)的、持續(xù)的學(xué)習(xí)和進(jìn)化過(guò)程。這一過(guò)程不只是從數(shù)據(jù)中學(xué)習(xí),更是對(duì)新知識(shí)的不斷獲取和整合。要清晰地理解這一概念,需要強(qiáng)調(diào)的是:即使是已經(jīng)訓(xùn)練完成的模型,也必須保持學(xué)習(xí)和進(jìn)化的能力,以適應(yīng)變化的環(huán)境和情境,處理新出現(xiàn)的道德挑戰(zhàn)。這種動(dòng)態(tài)的學(xué)習(xí)模式將確保機(jī)器人能夠及時(shí)地獲取新的知識(shí),適應(yīng)未知的情況,從而在不斷變化的現(xiàn)實(shí)世界中保持其道德決策的效能。

        在道德建模的過(guò)程中,維護(hù)“人在回路中”與“人在回路上”的平衡至關(guān)重要。我們必須謹(jǐn)慎對(duì)待排除人類參與的情況,因?yàn)檫@可能會(huì)引發(fā)更多的倫理和技術(shù)問(wèn)題。隨著機(jī)器人技術(shù)的發(fā)展,更為自主和適應(yīng)性強(qiáng)的機(jī)器人正逐漸滲透進(jìn)人類生活,人類的角色也可能從“在回路中”向“在回路上”過(guò)渡。這并不意味著人類的角色減弱,反而強(qiáng)調(diào)了人類在機(jī)器人決策中的指導(dǎo)性地位。雖然機(jī)器人能夠更高效地執(zhí)行重復(fù)和單調(diào)的任務(wù),但它們?nèi)匀恍枰祟惖闹笇?dǎo)來(lái)確定任務(wù)、解釋數(shù)據(jù)含義以及糾正模型偏見等。例如,完全自主的武器系統(tǒng)可能會(huì)引發(fā)嚴(yán)重的安全和倫理問(wèn)題,這在法律、道德和戰(zhàn)略三個(gè)層面上都是不可接受的。在自動(dòng)駕駛領(lǐng)域,盡管將人類排除在回路外可能帶來(lái)一些好處,比如更快的反應(yīng)時(shí)間和降低因人為因素導(dǎo)致的事故率,但同時(shí)也可能增加系統(tǒng)性風(fēng)險(xiǎn)。在機(jī)器視覺(jué)處理或識(shí)別出現(xiàn)問(wèn)題的情況下,人類的及時(shí)干預(yù)可以阻止?jié)撛谑鹿实陌l(fā)生。因此,在可預(yù)見的未來(lái),人類應(yīng)該在機(jī)器人道德決策中維持重要的角色,無(wú)論是“在回路中”還是“在回路上”,人類都應(yīng)保持在這個(gè)系統(tǒng)中的關(guān)鍵位置。

        三、“人在回路”機(jī)器人道德機(jī)制的實(shí)踐

        如上所述,基于“人在回路”的建模策略,可以從兩個(gè)維度考量機(jī)器人的倫理實(shí)踐:一是權(quán)衡人類和機(jī)器人各自的優(yōu)勢(shì)和缺點(diǎn),以確保處于“回路”的機(jī)器人能做出符合人類道德原則的道德決策;二是確保人類在機(jī)器人的設(shè)計(jì)、制造、使用和監(jiān)管過(guò)程中始終處于“回路”中,以實(shí)現(xiàn)“將所有利益相關(guān)方納入人工智能倫理、社會(huì)和監(jiān)管中……在利益相關(guān)方之間建立共識(shí)” Jotterand F, Bosco C. Keeping the “Human in the Loop”in the age of artificial intelligence, Science and Engineering Ethics, 2020(26), pp.2457-2458.,其中的關(guān)鍵在于確定機(jī)器人的自主性與人類的關(guān)鍵參與之間的平衡點(diǎn)。

        (一)權(quán)衡人與機(jī)器人的優(yōu)勢(shì)互補(bǔ)

        權(quán)衡人類和機(jī)器人的優(yōu)勢(shì)和缺點(diǎn),利用各自的優(yōu)勢(shì)來(lái)彌補(bǔ)對(duì)方的缺陷?!叭祟惿瞄L(zhǎng)將上下文和直覺(jué)應(yīng)用于問(wèn)題解決,可以把握和解釋因果關(guān)系。” 程海東,胡孝聰:《智能時(shí)代人機(jī)共生價(jià)值關(guān)系探析》,《道德與文明》,2023年第3期。在處理問(wèn)題、解釋因果關(guān)系,以及進(jìn)行道德推理方面,人類有著獨(dú)特的優(yōu)勢(shì),這些都依賴于人類的上下文理解、直覺(jué)和適應(yīng)性。盡管如此,人類的決策過(guò)程仍可能受到情緒、情感和身體疲勞引發(fā)的主觀偏見的影響,同時(shí)在處理和分析大量信息的能力上也相對(duì)有限。與此相對(duì),機(jī)器人優(yōu)勢(shì)在于能夠快速、一致且客觀地處理和計(jì)算大量數(shù)據(jù)。當(dāng)機(jī)器人被適當(dāng)?shù)卦O(shè)計(jì)和訓(xùn)練時(shí),它們可以根據(jù)數(shù)據(jù)做出決策,避免人類可能的偶然偏見。然而,機(jī)器人的能力范圍通常局限于特定的訓(xùn)練任務(wù),無(wú)法超越預(yù)設(shè)的框架或理解人類的價(jià)值觀。此外,機(jī)器人在行動(dòng)決策中也受限于其所依賴的形式化語(yǔ)言,“無(wú)法對(duì)現(xiàn)實(shí)的大千世界進(jìn)行完全的表征” 李放放,商衛(wèi)星:《機(jī)器智能的理論困境》,《河南師范大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版),2007年第1期。。盡管機(jī)器人能夠有效地處理重復(fù)和繁瑣的任務(wù),但它們?nèi)匀恍枰祟愒O(shè)定任務(wù)、解讀數(shù)據(jù)的意義,以及糾正可能出現(xiàn)的模型偏見。由于人類和機(jī)器人各有其優(yōu)勢(shì)和局限,我們的目標(biāo)應(yīng)該是通過(guò)一定的設(shè)計(jì)和應(yīng)用,將兩者的優(yōu)勢(shì)進(jìn)行最佳的互補(bǔ)。我們要尋求將人類的創(chuàng)新思維與機(jī)器人的高效處理能力相結(jié)合,以期獲得更優(yōu)的表現(xiàn)和結(jié)果。

        “人在回路”的建模策略可以結(jié)合人類和機(jī)器人的優(yōu)勢(shì),以減少機(jī)器人的不道德輸出。在面對(duì)高風(fēng)險(xiǎn)或復(fù)雜情況時(shí),人類可以對(duì)機(jī)器人的決策進(jìn)行監(jiān)督,及時(shí)糾正可能出現(xiàn)的錯(cuò)誤;機(jī)器人則可以通過(guò)處理大規(guī)模數(shù)據(jù)分析、執(zhí)行重復(fù)任務(wù)和提供一致的輸出來(lái)增強(qiáng)人類的能力。這一機(jī)制使人類可以專注于需要其獨(dú)特優(yōu)勢(shì)的任務(wù),而機(jī)器人可以被設(shè)計(jì)為向處于回路中的人類解釋其決策,幫助他們理解決策的緣由。同時(shí),通過(guò)參與人在回路系統(tǒng)的工作,機(jī)器人可以從人類的輸入和決策中學(xué)習(xí),以持續(xù)提升其性能。

        (二)實(shí)現(xiàn)跨學(xué)科的道德建模

        在機(jī)器人道德建模準(zhǔn)備階段,必須構(gòu)建一個(gè)跨學(xué)科的團(tuán)隊(duì)以進(jìn)行深入的論證。這個(gè)團(tuán)隊(duì)的組成應(yīng)確保其能夠在決策過(guò)程中融入各個(gè)領(lǐng)域的專業(yè)知識(shí)、觀點(diǎn)和立場(chǎng)。工程師和計(jì)算機(jī)科學(xué)家能夠?yàn)閳F(tuán)隊(duì)帶來(lái)對(duì)機(jī)器人系統(tǒng)技術(shù)的深入理解,他們能夠精確地揭示機(jī)器人技術(shù)的潛在優(yōu)勢(shì)和局限性。倫理學(xué)家則具備道德哲學(xué)和倫理框架的專業(yè)視角,他們可以協(xié)助團(tuán)隊(duì)識(shí)別和分析由機(jī)器人技術(shù)引發(fā)的倫理問(wèn)題,確保開發(fā)過(guò)程遵循倫理原則和主流價(jià)值觀。社會(huì)學(xué)家和心理學(xué)家的參與則有助于評(píng)估機(jī)器人技術(shù)在更廣泛的社會(huì)背景下的應(yīng)用,以及其可能產(chǎn)生的社會(huì)影響和人機(jī)交互的動(dòng)態(tài)。政策制定者的參與則有助于將道德原則與實(shí)際政策執(zhí)行相融合,以確保道德建模過(guò)程與法律框架保持協(xié)調(diào)。此外,機(jī)器人的目標(biāo)用戶和其他利益相關(guān)者也是機(jī)器人進(jìn)入應(yīng)用階段的關(guān)鍵參與者。他們的需求和期望是機(jī)器人產(chǎn)品必須滿足的關(guān)鍵要素。因此,我們需要建立多個(gè)專門的平臺(tái),以收集各方的意見和反饋。通過(guò)積極的對(duì)話和充分尊重不同群體的關(guān)注點(diǎn),我們可以建立社會(huì)信任,促進(jìn)包容性,確保機(jī)器人道德建模過(guò)程充分考慮到了多元化的視角。在這個(gè)過(guò)程中,綜合各方觀點(diǎn),充分反映盡可能廣泛的關(guān)注點(diǎn)和價(jià)值觀,并將收集到的反饋融到道德準(zhǔn)則的制定過(guò)程中,這將是我們實(shí)現(xiàn)這一目標(biāo)的關(guān)鍵環(huán)節(jié)。

        (三)明確道德建模者的道德責(zé)任

        在機(jī)器人道德建模的實(shí)施階段,人類參與者的角色和責(zé)任需得到明確,要特別注重明確機(jī)器人設(shè)計(jì)者和制造者的道德責(zé)任,并對(duì)可能出現(xiàn)的倫理問(wèn)題進(jìn)行仔細(xì)審查。“設(shè)計(jì)者和制造者都始終對(duì)他們的系統(tǒng)造成的風(fēng)險(xiǎn)或外部影響承擔(dān)責(zé)任。機(jī)器人設(shè)計(jì)者和制造者必須能夠在程序?qū)用嬲f(shuō)明為什么系統(tǒng)以某種方式運(yùn)行,以便應(yīng)對(duì)和處理責(zé)任歸屬問(wèn)題。” 國(guó)家機(jī)器人標(biāo)準(zhǔn)化總體組:《中國(guó)機(jī)器人倫理標(biāo)準(zhǔn)化前瞻(2019)》,北京大學(xué)出版社,2019年,第54頁(yè)。

        機(jī)器人設(shè)計(jì)者的重要任務(wù)是預(yù)測(cè)和評(píng)估具體使用語(yǔ)境中可能出現(xiàn)的倫理問(wèn)題。從某種程度上說(shuō),“機(jī)器人的設(shè)計(jì)和研發(fā)不僅要考慮它們所能帶來(lái)的經(jīng)濟(jì)效益,也要考慮它們對(duì)人類生活整體和自然環(huán)境可能造成的不可逆的影響?!?國(guó)家機(jī)器人標(biāo)準(zhǔn)化總體組:《中國(guó)機(jī)器人倫理標(biāo)準(zhǔn)化前瞻(2019)》,北京大學(xué)出版社,2019年,第30頁(yè)。正如維貝克所言:“設(shè)計(jì)者協(xié)助塑造了技術(shù)物的行為調(diào)解方式,設(shè)計(jì)被看作是一種以物質(zhì)的方式所從事的倫理活動(dòng)?!?Verbeek P P. Moralizing technology:Understanding and Designing the Morality of Things, University of Chicago Press, 2011, p.91.這說(shuō)明設(shè)計(jì)者可以通過(guò)技術(shù)手段,通過(guò)預(yù)測(cè)-評(píng)估-設(shè)計(jì)等環(huán)節(jié),將某種形式的倫理規(guī)范嵌入到機(jī)器人之中,對(duì)機(jī)器人進(jìn)行道德化設(shè)計(jì)。因此設(shè)計(jì)者需要具備一種前瞻性思維,以便在設(shè)計(jì)環(huán)節(jié)嵌入一定的價(jià)值和倫理準(zhǔn)則,并進(jìn)行風(fēng)險(xiǎn)預(yù)測(cè),盡可能預(yù)見其在社會(huì)中可能引發(fā)的倫理問(wèn)題,并采取防范措施。在更復(fù)雜的情況下,機(jī)器人應(yīng)被設(shè)計(jì)為在遇到無(wú)法自行解決的道德困境時(shí)能夠進(jìn)行人機(jī)協(xié)商,以人類的倫理判斷作為最終的決策依據(jù)。

        在機(jī)器人制造過(guò)程中,制造者的責(zé)任絕不僅僅限于生產(chǎn),他們應(yīng)深入審視每個(gè)環(huán)節(jié),建立和實(shí)施相應(yīng)的倫理評(píng)估機(jī)構(gòu),以確保制造出的機(jī)器人符合人類的道德標(biāo)準(zhǔn)。特別是在制造和設(shè)計(jì)階段,他們需要“預(yù)測(cè)與識(shí)別、倫理問(wèn)題的分析與澄清、解決方案的開發(fā)與確定來(lái)修正和完善開發(fā)方案” 王鈺,程海東:《人工智能技術(shù)倫理治理內(nèi)在路徑解析》,《自然辯證法通訊》,2019年第8期。。制造者有責(zé)任保證生產(chǎn)出的機(jī)器人符合產(chǎn)品質(zhì)量標(biāo)準(zhǔn)。如果產(chǎn)品由于設(shè)計(jì)缺陷、不符合標(biāo)準(zhǔn)或無(wú)意的副作用導(dǎo)致傷害,制造者應(yīng)承擔(dān)相應(yīng)的責(zé)任。為此,制造者需要在用戶手冊(cè)中提供詳盡的操作指南,并明確指出可能出現(xiàn)的道德和倫理問(wèn)題,以及相關(guān)責(zé)任歸屬情況。而在機(jī)器人投放市場(chǎng)后,制造者的職責(zé)并未結(jié)束。他們有義務(wù)持續(xù)跟蹤產(chǎn)品的使用情況,收集用戶反饋,并及時(shí)將這些信息反饋給設(shè)計(jì)者,以便于及時(shí)進(jìn)行調(diào)整和改進(jìn)。這樣的持續(xù)改進(jìn)機(jī)制不僅可以幫助提升產(chǎn)品質(zhì)量,也能確保機(jī)器人的道德建模始終處于不斷的優(yōu)化和提升過(guò)程中。

        (四)在應(yīng)用階段實(shí)現(xiàn)人機(jī)優(yōu)勢(shì)互補(bǔ)

        在機(jī)器人的應(yīng)用階段,使用者需深入理解機(jī)器人的能力及限制,以確保其在道德范圍內(nèi)運(yùn)用機(jī)器人,并明確何時(shí)應(yīng)介入其決策過(guò)程以發(fā)揮人機(jī)互補(bǔ)優(yōu)勢(shì)。同時(shí),監(jiān)管者應(yīng)負(fù)責(zé)制定機(jī)器人應(yīng)用政策,監(jiān)控機(jī)器人行為是否符合道德規(guī)范,并在必要時(shí)解決由此產(chǎn)生的道德問(wèn)題。

        傳統(tǒng)的技術(shù)倫理觀念將使用者視為技術(shù)后果的被動(dòng)接受者,這種觀念往往忽視了“使用者對(duì)技術(shù)所引發(fā)的問(wèn)題也應(yīng)承擔(dān)重要的社會(huì)責(zé)任” 陳凡,陳多聞:《論技術(shù)使用者的三重角色》,《科學(xué)技術(shù)與辯證法》,2009年第2期。。實(shí)際上,使用者在整個(gè)技術(shù)周期中扮演著重要角色,他們“既是使用階段的現(xiàn)實(shí)建構(gòu)者,也是發(fā)明、設(shè)計(jì)和制造階段的潛在建構(gòu)者——技術(shù)的發(fā)明、設(shè)計(jì)和制造都是以預(yù)設(shè)的使用目的為楔入點(diǎn)?!?程海東,劉煒:《技術(shù)認(rèn)識(shí)論芻議》,《自然辯證法研究》,2013年第7期。使用者會(huì)根據(jù)不同的使用情境將機(jī)器人應(yīng)用于各種場(chǎng)景,以最大化機(jī)器人的價(jià)值。因此,使用者需要承擔(dān)起機(jī)器人可能帶來(lái)的問(wèn)題的社會(huì)責(zé)任,并避免其違規(guī)或非法使用。任何“技術(shù)使用的情景塑造不是哪一類使用者的專有責(zé)任,而是使用者整體的責(zé)任,每個(gè)使用技術(shù)的人都應(yīng)積極地、有意識(shí)地參與到重新塑造情景的行動(dòng)中來(lái),每個(gè)使用者都應(yīng)履行自己的義務(wù),并獲得自己的權(quán)利?!?陳多聞:《論技術(shù)使用者的人性責(zé)任》,《科學(xué)技術(shù)哲學(xué)研究》,2012年第2期。作為機(jī)器人交互的主體,使用者有責(zé)任提供有價(jià)值的反饋。一旦發(fā)現(xiàn)機(jī)器人的行為存在道德問(wèn)題,使用者應(yīng)將此反饋給相關(guān)方,如機(jī)器人的制造者或監(jiān)管者,從而促進(jìn)機(jī)器人道德行為的持續(xù)優(yōu)化和提升。

        作為機(jī)器人倫理的守護(hù)者,監(jiān)管者承擔(dān)著制定適應(yīng)性法律和規(guī)定的責(zé)任,以保障機(jī)器人決策的透明度、安全性和可靠性,同時(shí)確保使用者的隱私和數(shù)據(jù)安全。監(jiān)管者的主要任務(wù)是“通過(guò)制度調(diào)適、輿論調(diào)適和教育調(diào)適三條路徑,實(shí)現(xiàn)人工智能產(chǎn)品與社會(huì)價(jià)值體系的順利融合” 王鈺,程海東:《人工智能技術(shù)倫理治理內(nèi)在路徑解析》,《自然辯證法通訊》,2019年第8期。。首先,監(jiān)管者需要從制度角度完善與機(jī)器人技術(shù)和倫理相關(guān)的標(biāo)準(zhǔn)。這涉及對(duì)機(jī)器人的研發(fā)、設(shè)計(jì)和應(yīng)用等各環(huán)節(jié)提供強(qiáng)有力的制度保障。針對(duì)不同的機(jī)器人應(yīng)用場(chǎng)景,應(yīng)有針對(duì)性地制定嚴(yán)格的技術(shù)標(biāo)準(zhǔn),防止不合格產(chǎn)品進(jìn)入市場(chǎng)。同時(shí),對(duì)于機(jī)器人應(yīng)用可能引發(fā)的倫理問(wèn)題,需要為利益相關(guān)者設(shè)定明確的倫理標(biāo)準(zhǔn)和道德規(guī)范。其次,監(jiān)管者應(yīng)善用輿論力量,對(duì)機(jī)器人產(chǎn)品的市場(chǎng)流通進(jìn)行有效監(jiān)管,堅(jiān)決阻止與基本道德原則相違背的產(chǎn)品進(jìn)入市場(chǎng)。此外,通過(guò)利用新興的媒體技術(shù),可以引導(dǎo)設(shè)計(jì)者、制造者和使用者之間建立有效的信息反饋渠道。同時(shí),進(jìn)行公眾咨詢,以收集公眾的觀點(diǎn)、疑慮和反饋,進(jìn)一步完善機(jī)器人產(chǎn)品。最后,通過(guò)對(duì)各個(gè)環(huán)節(jié)的教育調(diào)整,監(jiān)管者應(yīng)促成完善的機(jī)器人技術(shù)培訓(xùn)和倫理教育體系的建立。這將有助于深化公眾對(duì)機(jī)器人倫理的理解,提高整個(gè)社會(huì)的倫理意識(shí),從而讓機(jī)器人技術(shù)在符合倫理規(guī)范的前提下更好地服務(wù)人類。

        四、結(jié)語(yǔ)

        隨著機(jī)器人技術(shù)的發(fā)展和應(yīng)用范圍的拓寬,所引發(fā)的機(jī)器人倫理問(wèn)題將對(duì)我們現(xiàn)有的道德和法律框架提出更大的挑戰(zhàn)。而“人在回路”的道德建模策略,通過(guò)一種動(dòng)態(tài)的、持續(xù)的方式,旨在完善機(jī)器人的道德準(zhǔn)則,確保機(jī)器人的決策符合人類的道德原則。在準(zhǔn)備、建模和應(yīng)用機(jī)器人道德建模的各個(gè)階段,人類的參與可以增強(qiáng)人類對(duì)機(jī)器人的信任,并有助于降低機(jī)器人的道德風(fēng)險(xiǎn)。“人機(jī)關(guān)系的未來(lái)將是合作而非競(jìng)爭(zhēng)關(guān)系,人機(jī)一體化的理想狀態(tài)是人類與機(jī)器之間實(shí)現(xiàn)優(yōu)勢(shì)互補(bǔ)、和諧共生?!?張雪琴:《邁向智能化時(shí)代的勞動(dòng)發(fā)展:價(jià)值陳述、系統(tǒng)變革與邏輯走向》,《河南師范大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版),2023年第2期。作為社會(huì)的一部分,人類和機(jī)器人都是不可或缺的組成,不應(yīng)該將機(jī)器人看作是脫離人類的“他者”。在這個(gè)“回路”中,人類和機(jī)器人都占據(jù)著特定的位置,發(fā)揮著各自的功能,承擔(dān)著各自的責(zé)任。由此看來(lái),人工智能時(shí)代機(jī)器人倫理實(shí)踐并不是要設(shè)計(jì)出與人類一樣的倫理主體,而是要讓機(jī)器人在與人類的交互中實(shí)現(xiàn)倫理對(duì)齊,以此助力人類的倫理實(shí)踐,實(shí)現(xiàn)人類與機(jī)器人的共生共進(jìn)。

        Human-in-the-loop Moral Mechanism:A New Path of Robot Ethics

        Cheng Haidong,Hu Xiaocong

        (Northeastern University, Shenyang 110169, China)

        Abstract:

        Robot ethics focuses on ethics with humans as the primary subjects, emphasizing ethical issues in the interactions between robots and humans. As we enter the era of artificial intelligence, the focus of research in robot ethics has shifted towards the dimension of human-machine symbiosis, namely the robot ethics of human-in-the-loop. This research path sees humans as key participants in the process of robot moral modeling, seeking to utilize the advantages of human-machine symbiosis to compensate for each other’s shortcomings. This strategy has two advantages. First, humans can further enhance their abilities through the process of human-machine interaction, allowing humans to focus on tasks where they have unique advantages. Second, having humans in the loop can reduce unethical outputs from robots, and in high-risk situations, humans can timely correct the actions of robots.

        Key words:robot ethics;moral modeling;human-in-the-loop[責(zé)任編校 劉 科,段玲玲]

        无套内谢孕妇毛片免费看看| 亚洲中文字幕国产视频| 成人免费a级毛片| 国产色诱视频在线观看| 日韩无码尤物视频| 亚洲综合久久精品少妇av| 色老板美国在线观看| 无码国产一区二区三区四区| 成人无码无遮挡很H在线播放| 美国黄色av一区二区| 国产激情一区二区三区| 久久国产精久久精产国| 亚洲AV永久无码精品一区二国 | 91产精品无码无套在线| 一区二区亚洲熟女偷拍| 亚洲自偷精品视频自拍| 亚洲精品字幕在线观看| 久久久精品免费国产四虎| 国产三级国产精品国产专播| 国产尤物精品视频| 少妇太爽了在线观看免费视频| 国产一级黄色av影片| 视频在线国产一区二区| 粉嫩虎白女毛片人体| 亚洲AV无码久久精品国产老人| 久久久噜噜噜久久熟女| 亚洲精品美女久久777777| 极品熟妇大蝴蝶20p| 人妻精品人妻一区二区三区四五 | 人妻体内射精一区二区三区| 亚洲欧美日韩中文无线码| 亚洲国产AⅤ精品一区二区久 | 精品无码日韩一区二区三区不卡 | 久久久久国产一区二区三区| 日本嗯啊在线观看| 虎白m粉嫩小在线播放| 久久精品噜噜噜成人| 亚洲精品aⅴ无码精品丝袜足| 日韩av一区二区蜜桃| 亚洲小说图区综合在线| 国产美女在线精品亚洲二区|