郭鵬坤
摘 要:當(dāng)代人工智能發(fā)展日益復(fù)雜并擁有一定自主決策能力,其道德責(zé)任歸屬問題在當(dāng)代備受關(guān)注。由于,目前人工智能的決策和行為完全基于預(yù)設(shè)的算法和輸入的數(shù)據(jù)處理,它們沒有人類一樣來理解或判斷自己的行為是否符合道德和倫理標(biāo)準(zhǔn),其道德歸屬主要由制造者和使用者承擔(dān)。盡管,人工智能的道德歸屬還面臨一系列的其他挑戰(zhàn),相關(guān)方應(yīng)從法律和倫理對策入手應(yīng)對這些挑戰(zhàn)。
關(guān)鍵詞:人工智能 人工智能道德責(zé)任 人工智能道德責(zé)任歸屬
1 引言
人工智能(AI)的道德責(zé)任是指人工智能在執(zhí)行任務(wù)或做出決策時(shí),可能對個(gè)人、社會或環(huán)境產(chǎn)生的影響,以及其應(yīng)負(fù)的責(zé)任。這包括但不限于人工智能的決策是否公正、是否尊重個(gè)人隱私、是否有可能造成傷害等。這種責(zé)任的提出是在人工智能發(fā)展日益復(fù)雜和擁有一定自主決策的背景下提出的,特別是強(qiáng)人工智能、通用人工智能(超級人工智能)在不遠(yuǎn)的將來呼之欲出之際,確保人工智能的未來設(shè)計(jì)、應(yīng)用能夠符合道德和倫理標(biāo)準(zhǔn),防止其可能的負(fù)面影響。這需要我們建立關(guān)于人工智能發(fā)展的前瞻性道德思維,也是在這個(gè)時(shí)代檢視人工智能道德責(zé)任歸屬問題的窗口期。毫無疑問,關(guān)于人工智能的道德責(zé)任歸屬的問題是當(dāng)代必然面臨的重大科技倫理問題[1],當(dāng)一個(gè)人工智能系統(tǒng)做出決策或采取行動(dòng)導(dǎo)致了某種結(jié)果,特別是當(dāng)這個(gè)結(jié)果對個(gè)人或社會產(chǎn)生了負(fù)面影響時(shí),需要明確誰應(yīng)該為此負(fù)責(zé)。首先,明確道德責(zé)任歸屬有助于防止責(zé)任的推諉,保證道德問題能夠得到妥善解決。如果沒有明確的責(zé)任歸屬,可能會出現(xiàn)責(zé)任推諉的情況,導(dǎo)致問題無法得到解決,受害者無法得到應(yīng)有的賠償。其次,明確道德責(zé)任歸屬有助于提高人工智能的道德和倫理標(biāo)準(zhǔn)。如果制造者、使用者或其他相關(guān)方知道他們可能需要為人工智能的行為負(fù)責(zé),他們可能會更加謹(jǐn)慎,更加注重人工智能的道德和倫理設(shè)計(jì)。最后,明確道德責(zé)任歸屬有助于推動(dòng)相關(guān)法律和規(guī)定的制定。當(dāng)我們明確了誰應(yīng)該為人工智能的行為負(fù)責(zé)后,法律和規(guī)定可以更有針對性地進(jìn)行制定,為處理相關(guān)問題提供法律依據(jù)。因此,探討和明確人工智能的道德責(zé)任歸屬,對于保護(hù)個(gè)人權(quán)益,維護(hù)社會公正,以及推動(dòng)人工智能的發(fā)展與應(yīng)用都具有重要意義。
2 人工智能的道德責(zé)任與歸屬問題
與人類之前傳統(tǒng)科學(xué)技術(shù)的發(fā)展和應(yīng)用相較,人工智能帶來的道德責(zé)任歸屬問題是前所未有的。傳統(tǒng)技術(shù)主要體現(xiàn)為工具,它的產(chǎn)生的責(zé)任后果與作為決策者、行動(dòng)者的人是直接相關(guān)。而人工智能的快速發(fā)展使其自主性使決策和行動(dòng)與人日益分離,也就是說,“人工智能有著獨(dú)特的自主性、能深度參與人的決策和行動(dòng)”。[2]人工智能的自主性體現(xiàn)為其決策過程建立在一系列復(fù)雜的算法和大數(shù)據(jù)處理的基礎(chǔ)上,尤其是人工智能其核心算法和模型作為一個(gè)黑箱子時(shí),其決策就具有“黑箱性”,會出現(xiàn)難以被解釋、難以分析其背后的因果關(guān)系問題,人工智能在算法、數(shù)據(jù)處理處于偏狹時(shí)難免會導(dǎo)致決策、行動(dòng)引發(fā)一系列公平性、侵犯個(gè)人隱私、安全等各種問題。
例如,如果一個(gè)人工智能系統(tǒng)在處理工作申請或貸款申請時(shí),其決策過程中會基于以往有限數(shù)據(jù)的處理引發(fā)偏見問題,可能會導(dǎo)致某些群體被不公平地對待。一些人工智能系統(tǒng)還可能需要收集和處理大量的個(gè)人數(shù)據(jù),如果這些數(shù)據(jù)被濫用,可能會侵犯到個(gè)人隱私。人工智能自動(dòng)駕駛汽車在做出決策時(shí),如果其決策在當(dāng)下是錯(cuò)誤,可能會導(dǎo)致嚴(yán)重的安全事故。因此,人工智能的決策過程與道德責(zé)任密切相關(guān)。一方面,我們迫切需要確保人工智能的決策過程公平、尊重個(gè)人隱私,并且能夠確保安全等,并在設(shè)計(jì)和使用人工智能時(shí),充分考慮到這些道德因素,確保人工智能的決策過程符合道德和倫理標(biāo)準(zhǔn)。另一方面,我們又不能完全確保人工智能的決策完全可信、可靠、可解釋,其帶來的道德責(zé)任歸屬問題又難以避免。
目前,人工智能的道德責(zé)任與人類的道德責(zé)任有一定的本質(zhì)差別。人類的道德責(zé)任則基于自我意識和自主的道德判斷。我們可以理解和判斷自己的行為是否正確,可以對自己的行為負(fù)責(zé),也可以根據(jù)一般的道德和倫理標(biāo)準(zhǔn)去調(diào)整自己的行為。人工智能盡管具有強(qiáng)大的算力、算法和大數(shù)據(jù)處理功能,但是人工智能在未突破智能“奇點(diǎn)”前仍不像人類具有自我意識和進(jìn)行自主的道德判斷。人工智能的行為和決策完全基于預(yù)設(shè)的算法和輸入的數(shù)據(jù),它們沒有人類一樣的智能來理解或判斷自己的行為是否符合道德和倫理標(biāo)準(zhǔn)。從這一點(diǎn)而言,人工智能本身無法為自己的決策和行動(dòng)負(fù)責(zé),但是人工智能的制造者和使用者可以對其行為負(fù)責(zé)。這種溯源方式的道德歸屬思維,會導(dǎo)向人工智能的制造者和使用者需要對人工智能的決策和行為負(fù)責(zé)。至于這二者道德責(zé)任歸屬的如何分配,應(yīng)根據(jù)是是制造責(zé)任歸屬占主導(dǎo),還是應(yīng)用者占主導(dǎo)來具體分析劃分責(zé)任歸屬。當(dāng)將來人工智能突破智能“奇點(diǎn)”,超級人工智能到來的時(shí)代,其道德責(zé)任歸屬與人類不會有本質(zhì)差異,我們面臨的問題將是本著“能力越大,責(zé)任越大”的原則,加強(qiáng)人工智能的道德程序設(shè)計(jì)和研發(fā),其權(quán)利問題將是嶄新的倫理話題。
3 人工智能的道德責(zé)任案例與歸屬考察
對于當(dāng)前日新月異發(fā)展和應(yīng)用的人工智能技術(shù)無法逃離道德責(zé)任及歸屬問題是我們考察的重點(diǎn)。以下結(jié)合兩個(gè)典型案例進(jìn)行考察分析。
一個(gè)著名的案例是關(guān)于人工智能在招聘過程中的應(yīng)用。一家大型科技公司開發(fā)了一款人工智能工具,用于篩選簡歷并預(yù)測候選人的工作表現(xiàn)。然而,這款工具在決策過程中出現(xiàn)了性別偏見的問題。因?yàn)樗挠?xùn)練數(shù)據(jù)是基于過去的招聘決策,而這些決策中存在著對男性候選人的偏好,所以這款工具在篩選簡歷時(shí),也傾向于選擇男性候選人。這個(gè)案例顯示了人工智能決策過程中可能出現(xiàn)的招聘不公平這一道德問題。盡管人工智能工具本身沒有意識,但是由于其訓(xùn)練數(shù)據(jù)的偏見,它的決策過程可能會導(dǎo)致不公平的結(jié)果。
另一個(gè)具體的案例是2018年美國亞利桑那州發(fā)生的自動(dòng)駕駛汽車致命事故。在這起事故中,一輛Uber的自動(dòng)駕駛汽車撞到了一名行人,導(dǎo)致行人死亡。這是自動(dòng)駕駛汽車首次導(dǎo)致人員死亡的事故。在這起事故中,道德責(zé)任的歸屬引起了廣泛的討論。一方面,有人認(rèn)為Uber作為自動(dòng)駕駛汽車的使用者,應(yīng)該對此負(fù)責(zé)。因?yàn)樗麄冊跍y試自動(dòng)駕駛汽車時(shí),沒有采取足夠的安全措施。另一方面,有人認(rèn)為自動(dòng)駕駛汽車的制造者也應(yīng)該負(fù)責(zé)。因?yàn)樗麄兊淖詣?dòng)駕駛系統(tǒng)在面對行人時(shí),沒有做出正確的決策。這個(gè)案例顯示了人工智能道德責(zé)任歸屬的復(fù)雜性。在這種情況下,道德責(zé)任可能需要由多個(gè)方面共同承擔(dān),包括使用者和制造者。這就需要我們在面對人工智能的道德問題時(shí),能夠全面地考慮責(zé)任歸屬,以確保問題能夠得到妥善解決。
針對以上兩個(gè)典型案例案例。我們認(rèn)為,制造者在人工智能的道德責(zé)任歸屬中扮演著重要的角色。制造者是人工智能的創(chuàng)造者,他們設(shè)計(jì)和編程人工智能的決策和行為過程。他們需要確保、負(fù)責(zé)人工智能的決策和行為過程符合道德和倫理標(biāo)準(zhǔn)。
首先,制造者需要負(fù)責(zé)人工智能的設(shè)計(jì)。他們需要確保人工智能的設(shè)計(jì)不會導(dǎo)致不公平、侵犯隱私或安全問題。例如,他們需要確保人工智能的決策過程不會有偏見,人工智能的數(shù)據(jù)收集和處理過程不會侵犯個(gè)人隱私,人工智能的行為不會導(dǎo)致安全問題。其次,制造者需要負(fù)責(zé)人工智能的測試和改進(jìn)。他們需要通過測試來檢查人工智能的行為是否符合道德和倫理標(biāo)準(zhǔn),如果發(fā)現(xiàn)問題,他們需要及時(shí)進(jìn)行改進(jìn)。最后,制造者也需要負(fù)責(zé)人工智能的后期維護(hù)和更新。他們需要定期檢查和更新人工智能,以確保其行為始終符合道德和倫理標(biāo)準(zhǔn)。因此,制造者在人工智能的道德責(zé)任歸屬中起著關(guān)鍵的作用。他們需要負(fù)責(zé)人工智能的設(shè)計(jì)、測試、改進(jìn)和維護(hù),以確保人工智能的行為符合道德和倫理標(biāo)準(zhǔn)。
使用者在人工智能的道德責(zé)任歸屬中也占有重要的地位。使用者是人工智能的操作者和應(yīng)用者,他們的行為和決策直接影響著人工智能的行為結(jié)果。
首先,使用者需要對他們使用人工智能的方式負(fù)責(zé)。他們需要確保他們的使用不會導(dǎo)致不公正、不道德或危險(xiǎn)的結(jié)果。例如,如果一個(gè)人工智能系統(tǒng)被用來進(jìn)行欺詐活動(dòng)或侵犯他人隱私,那么使用者應(yīng)該為此負(fù)責(zé)。其次,使用者需要對他們使用的人工智能系統(tǒng)的選擇負(fù)責(zé)。他們應(yīng)該選擇那些經(jīng)過充分測試、符合道德和倫理標(biāo)準(zhǔn)的人工智能系統(tǒng)。如果使用者選擇了一個(gè)有已知缺陷或問題的人工智能系統(tǒng),那么他們可能需要為由此產(chǎn)生的問題負(fù)責(zé)。最后,使用者也需要對他們使用人工智能的目的和結(jié)果負(fù)責(zé)。他們需要確保他們使用人工智能的目的是合法和道德的,他們也需要對他們使用人工智能產(chǎn)生的結(jié)果負(fù)責(zé)。因此,使用者在人工智能的道德責(zé)任歸屬中扮演著重要的角色。他們需要對他們使用人工智能的方式、選擇和結(jié)果負(fù)責(zé),以確保人工智能的使用是道德和負(fù)責(zé)任的。
此外,社會在人工智能的道德責(zé)任歸屬中也有其不可忽視的角色。社會包括政府機(jī)構(gòu)、立法者、監(jiān)管者、教育者和公眾等,他們共同構(gòu)成了一個(gè)對人工智能行為進(jìn)行監(jiān)督和引導(dǎo)的體系。
首先,政府和立法者需要負(fù)責(zé)制定和執(zhí)行相關(guān)的法律和政策,以規(guī)范人工智能的開發(fā)和使用。他們需要確保這些法律和政策能夠保護(hù)公眾的權(quán)益,防止人工智能的濫用,并鼓勵(lì)道德和負(fù)責(zé)任的人工智能開發(fā)和使用。其次,監(jiān)管者需要負(fù)責(zé)對人工智能的行為進(jìn)行監(jiān)督。他們需要確保人工智能的行為符合法律和道德要求,如果發(fā)現(xiàn)問題,他們需要及時(shí)采取行動(dòng),防止問題的發(fā)生和擴(kuò)大。教育者則需要負(fù)責(zé)對公眾進(jìn)行教育,提高公眾對人工智能的理解和認(rèn)識,幫助公眾理解人工智能的道德責(zé)任[3],以及如何道德和負(fù)責(zé)任地使用人工智能。最后,公眾也有責(zé)任參與到人工智能的監(jiān)督中來,他們需要關(guān)注人工智能的發(fā)展,提出自己的看法和建議,以促進(jìn)人工智能的健康發(fā)展。
因此,社會在人工智能的道德責(zé)任歸屬中起著重要的作用。社會需要通過法律、監(jiān)管、教育和公眾參與等方式,共同確保人工智能的道德和負(fù)責(zé)任的開發(fā)和使用。
4 道德責(zé)任歸屬的挑戰(zhàn)與對策
目前,人工智能的道德責(zé)任歸屬中,我們還面臨著一些其他挑戰(zhàn):
1. 定性問題:人工智能的復(fù)雜性和不可預(yù)測性使得責(zé)任歸屬的定性變得困難。例如,如果一個(gè)人工智能系統(tǒng)在沒有明顯的編程錯(cuò)誤的情況下做出了有害的決策,我們應(yīng)該怎么確定責(zé)任?
2. 法律框架問題:當(dāng)前的法律框架可能無法適應(yīng)人工智能帶來的新問題。例如,我們的法律是在處理人工智能的責(zé)任問題時(shí)出現(xiàn)新情況、新問題,我們需要哪些立法和規(guī)定來處理這些?
3. 技術(shù)發(fā)展問題:人工智能的快速發(fā)展可能會帶來新的道德問題,這可能會對責(zé)任歸屬提出新的挑戰(zhàn)。例如,隨著人工智能的能力越來越強(qiáng),它可能會做出越來越復(fù)雜的決策,這可能會使責(zé)任歸屬變得更加復(fù)雜,其決策可能不符合我們的道德常識或具有一定的爭議性,該如何處理?
4. 公眾的理解問題:公眾可能對人工智能的工作方式和潛在的道德問題缺乏理解,這可能會影響到責(zé)任歸屬的判斷。例如,如果公眾不理解人工智能的決策過程,他們可能會錯(cuò)誤地歸咎于錯(cuò)誤方。
這些挑戰(zhàn)需要人工智能設(shè)計(jì)者、制造者在設(shè)計(jì)、使用和監(jiān)管人工智能時(shí),進(jìn)行充分的考慮和應(yīng)對。
對于道德責(zé)任歸屬的挑戰(zhàn),我們可以采取以下的法律和倫理對策:
1. 完善法律框架:我們需要制定和完善相關(guān)的法律和政策,特別是具有一些前瞻性的法律法規(guī),以適應(yīng)人工智能帶來的新問題。這些法律和政策應(yīng)該明確規(guī)定人工智能的責(zé)任歸屬,以便在出現(xiàn)問題時(shí),我們可以明確知道誰應(yīng)該負(fù)責(zé)。
2. 引入倫理指導(dǎo):我們可以引入倫理指導(dǎo),以指導(dǎo)人工智能的開發(fā)和使用。這些倫理指導(dǎo)應(yīng)該包括公平、尊重隱私、安全等原則,以確保人工智能的行為符合道德和倫理標(biāo)準(zhǔn)。
3. 提高公眾的理解:我們需要通過教育和宣傳,提高公眾對人工智能的理解。這可以幫助公眾更好地理解人工智能的工作方式和潛在的道德問題,以便他們可以做出更好的判斷。
4. 建立監(jiān)管機(jī)制:我們需要建立有效的監(jiān)管機(jī)制,以監(jiān)督人工智能的行為。這個(gè)機(jī)制應(yīng)該包括定期的審查和評估,以確保人工智能的行為始終符合法律和道德要求。
通過這些對策,我們可以更好地應(yīng)對道德責(zé)任歸屬的挑戰(zhàn),以確保人工智能的道德和負(fù)責(zé)任的開發(fā)和使用[4]。
5 結(jié)論
隨著人工智能技術(shù)的快速發(fā)展和廣泛應(yīng)用,其決策和行為的影響日益深遠(yuǎn),涉及到個(gè)人、社會乃至全球的各個(gè)方面,其重要性、迫切性越來越日益凸顯。在這種情況下,明確人工智能的道德責(zé)任歸屬,對于保障公眾權(quán)益,維護(hù)社會公正,促進(jìn)科技健康發(fā)展具有重要的現(xiàn)實(shí)意義和深遠(yuǎn)的歷史影響。因此,人工智能的道德責(zé)任歸屬是不能回避的重要問題,需要我們共同探討和更進(jìn)一步深入探討研究。
對于未來的研究方向,其一,要深入研究人工智能的道德責(zé)任歸屬:盡管我們已經(jīng)開始探討這個(gè)問題,但是由于人工智能的復(fù)雜性和快速發(fā)展,我們還需要更深入的研究,需要研究更多的案例[5],理解在不同情況下責(zé)任歸屬的具體情況,也需要研究如何在法律和倫理上明確和規(guī)定責(zé)任歸屬;其二,研究人工智能的道德和倫理設(shè)計(jì):我們需要研究如何在設(shè)計(jì)和開發(fā)人工智能時(shí),考慮到道德和倫理因素。這包括如何避免偏見,如何保護(hù)隱私,如何確保安全等;再者,研究人工智能的監(jiān)管和公眾參與:我們需要研究如何建立有效的監(jiān)管機(jī)制,以監(jiān)督人工智能的行為,也需要研究如何讓公眾參與到人工智能的監(jiān)督和決策中來,以保證人工智能的發(fā)展更加透明和公正;最后,研究人工智能的教育和培訓(xùn):我們需要研究如何通過教育和培訓(xùn),提高公眾和專業(yè)人士對人工智能的理解,以便他們可以更好地使用和監(jiān)管人工智能。
通過這些研究,我們可以更好地理解和處理人工智能的道德責(zé)任歸屬,以確保人工智能的道德和負(fù)責(zé)任的發(fā)展[6]。
本文系2023年度新鄉(xiāng)市社科聯(lián)調(diào)研課題《人工智能倫理研究》階段性成果(項(xiàng)目編號為:SKL-2023-229),河南工學(xué)院高層次引進(jìn)人才科研啟動(dòng)基金資助項(xiàng)目“倫理學(xué)視角下人的概念”階段性成果(項(xiàng)目編號KQ1842)。
參考文獻(xiàn):
[1]朱喆,張北斗.馬克思主義視域下人工智能道德主體地位辯識[J].湖北行政學(xué)院學(xué)報(bào),2021(06):5-9.
[2]未來論壇.人工智能倫理與治理:未來視角[M].北京:人民郵電出版社,2023:2.
[3]徐曉雯,張秀婷,王夢迪.人工智能對女性就業(yè)的影響及應(yīng)對策略[J].齊魯師范學(xué)院學(xué)報(bào),2021,36(05):150-156.
[4]孫立會.人工智能之于教育決策的主體性信任危機(jī)及其規(guī)避[J].電化教育研究,2023,44(03):21-27+43.
[5]周靚,張志強(qiáng).淺析鄉(xiāng)村振興戰(zhàn)略中農(nóng)村發(fā)展經(jīng)濟(jì)人工智能在金融領(lǐng)域的場景應(yīng)用及養(yǎng)老機(jī)制[J].今日國土,2023(Z1):48-50.
[6]楊明歡,鐘柏昌,劉曉凡.中小學(xué)人工智能教育中學(xué)生的必備品格培養(yǎng)與評價(jià)研究[J].教育信息技術(shù),2023(04):16-20.