孫舒雨
(江蘇省南京市南京信息工程大學(xué),江蘇 南京 211800)
面對(duì)人類與人工智能技術(shù)之間逐漸升溫的融合和摩擦,將人工智能技術(shù)的倫理思考放在關(guān)注個(gè)人權(quán)利保護(hù)、群體權(quán)益保障和社會(huì)關(guān)系穩(wěn)固上顯得尤為重要。不僅要探究其AI技術(shù)產(chǎn)生倫理困境的成因,更要結(jié)合道德規(guī)范、社會(huì)評(píng)價(jià)、行業(yè)規(guī)則,國(guó)際精神以及法律體系來構(gòu)筑完整的AI技術(shù)倫理問題的應(yīng)對(duì)策略。
(一)人臉識(shí)別技術(shù)的倫理風(fēng)險(xiǎn)
人工智能與大數(shù)據(jù)結(jié)合的時(shí)代背景下,個(gè)人信息被看作是機(jī)遇和利益。人臉,由于其生理性、標(biāo)識(shí)性等特點(diǎn),毋庸置疑地屬于個(gè)人信息,且其為一種不同于傳統(tǒng)類別的新型信息,即生物識(shí)別信息[1]。在趨利心理以及好奇心的驅(qū)動(dòng)下,人臉識(shí)別及置換技術(shù)如雨后春筍般大量出現(xiàn)在公眾視線中。
對(duì)于人臉識(shí)別技術(shù)失去控制而得到的濫用,首當(dāng)其沖的反應(yīng)表現(xiàn)為對(duì)個(gè)人權(quán)益的侵犯。對(duì)于人臉識(shí)別技術(shù)濫用而引發(fā)的個(gè)人風(fēng)險(xiǎn),若不加以謹(jǐn)慎對(duì)待和嚴(yán)格規(guī)制,必然掀起對(duì)人工智能倫理問題的強(qiáng)烈沖擊。
(二)醫(yī)療應(yīng)用的倫理風(fēng)險(xiǎn)
現(xiàn)如今的智能醫(yī)療打造了更加全面的信息檔案平臺(tái),結(jié)合了物聯(lián)網(wǎng)技術(shù),逐步縮小了患者與醫(yī)生之間的信息鴻溝,并且借助人工智能的醫(yī)療嵌入系統(tǒng)、云計(jì)算技術(shù)、AI醫(yī)療產(chǎn)品等等技術(shù)手段使人們獲得了更高科技的醫(yī)療服務(wù)。但目前人工醫(yī)療應(yīng)用在主體及責(zé)任分配中尚處于模糊階段,而導(dǎo)致的倫理風(fēng)險(xiǎn)值得進(jìn)一步探討。主導(dǎo)性診斷類醫(yī)療人工智能產(chǎn)品指的是在醫(yī)療服務(wù)中,承擔(dān)主導(dǎo)性診斷診療作用,而大大弱化醫(yī)療人員的參與。而有關(guān)于主導(dǎo)性診斷類醫(yī)療人工智能產(chǎn)品的相關(guān)人員是否具有和醫(yī)療機(jī)構(gòu)、醫(yī)務(wù)人員同樣的法律定位,其糾紛可能適用的責(zé)任究竟定位為“醫(yī)療損害責(zé)任”或是“產(chǎn)品責(zé)任”,甚至競(jìng)合的責(zé)任狀態(tài),則需要進(jìn)一步深入探討與研究。阿薩羅在對(duì)當(dāng)前法律下人工智能機(jī)器的形勢(shì)進(jìn)行分析時(shí)提出,法律法規(guī)是應(yīng)對(duì)人工智能倫理道德問題時(shí)的最佳選擇,但是在法律所照不見的地方,人工智能的倫理問題依舊被忽視[1]。
(三)軍事領(lǐng)域的倫理風(fēng)險(xiǎn)
目前,自主武器在經(jīng)過算法推演的智能化改造以及與軍用物理器械的結(jié)合下,逐漸暴露出倫理風(fēng)險(xiǎn)。如“機(jī)器人殺手禁令運(yùn)動(dòng)(Campaign to Stop Killer Robots)”組織公布的一段模擬視頻顯示:在AI控制下的殺人蜂機(jī)器人,在通過算法內(nèi)嵌的推演下鎖定一群學(xué)生,并對(duì)他們進(jìn)行瞬間屠殺。歐盟議會(huì)提出賦予人工智能“電子人”的法律主體地位,由人工智能對(duì)其造成的損害直接承擔(dān)責(zé)任[2]。而在國(guó)際人道主義的倫理辯論中,人們普遍承認(rèn)在使用武力的決定之下,人類的代理性及其主觀意圖是至關(guān)重要的。
(一)在倫理侵害行為發(fā)生的前端采取打擊行動(dòng)。是指在信息的流動(dòng)渠道中,應(yīng)當(dāng)設(shè)置科學(xué)的AI技術(shù)評(píng)價(jià)監(jiān)督機(jī)制。要求增加市場(chǎng)準(zhǔn)入的壁壘,嚴(yán)格要求媒介提供商及其產(chǎn)品的合法性、合理性。
(二)在倫理侵害行為發(fā)生的末端采取打擊措施。是指在人工智能技術(shù)損害個(gè)人權(quán)益的情形之下,該利用立法、司法、執(zhí)法部門的統(tǒng)籌規(guī)劃來對(duì)倫理和法律問題進(jìn)行解決。如果法律不允許人工智能對(duì)用戶的隱私進(jìn)行監(jiān)視,則人工智能的運(yùn)行不能隨意讀取用戶的個(gè)人信息[3]。目前我國(guó)已經(jīng)出臺(tái)《個(gè)人信息安全規(guī)范》,以及于2020年3月1號(hào)實(shí)施的《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》等法規(guī)。其中《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》第七章規(guī)定了法律責(zé)任,在《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》第34條至40條詳細(xì)說明了當(dāng)信息網(wǎng)絡(luò)內(nèi)容生產(chǎn)者、網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)等給他人造成權(quán)益損害時(shí),法律如何對(duì)網(wǎng)絡(luò)違法行為進(jìn)行責(zé)任分配等問題。我國(guó)這種法律觀念使得學(xué)者更關(guān)心實(shí)在的法律,更加看重法律的體系性[4]。除此之外還可以考慮,在匿名用戶通過AI技術(shù)侵犯了他人信息時(shí),除了媒體平臺(tái)應(yīng)該暴露其用戶的真實(shí)身份信息之外,法律應(yīng)當(dāng)詳盡規(guī)定匿名用戶身份信息的使用范圍以及保護(hù)規(guī)范,以免對(duì)他人信息權(quán)益進(jìn)行二次傷害。
目前仍需集中國(guó)際社會(huì)組織、公權(quán)力部門以及相關(guān)智能應(yīng)用參與者、智能技術(shù)設(shè)計(jì)人員、應(yīng)用技術(shù)使用者的力量來突破人工智能發(fā)展至今對(duì)于個(gè)人風(fēng)險(xiǎn)、群體風(fēng)險(xiǎn)、國(guó)家風(fēng)險(xiǎn)的倫理困境。首先要求各界充分發(fā)揮效能影響,從源頭控制人工智能應(yīng)用技術(shù)的不利影響,同時(shí)配合行業(yè)內(nèi)置和社會(huì)各界的監(jiān)管以及監(jiān)督;其次必須明確人工智能應(yīng)用技術(shù)的責(zé)任分擔(dān)機(jī)制;還要利用法律的公權(quán)職能,在人工智能算法程序內(nèi)部嵌入道德標(biāo)準(zhǔn)以及法律決策;最后,國(guó)際各界在對(duì)倫理問題應(yīng)用對(duì)策的同時(shí),還要積極構(gòu)筑人工智能應(yīng)用技術(shù)在操作規(guī)范國(guó)際化、透明化、合法化;深化發(fā)展公平、公正、公開的人工智能技術(shù)聯(lián)動(dòng)機(jī)制。