郭俏 劉玉涵 莫雅涵
摘? ?要:社會接納度研究將從強人工智能的法律主體地位問題、道德倫理思考以及帶給社會經濟的哲學思考三個角度展開。強人工智能在法律中是“自由人”,即擁有法律主體地位是其在法治社會的基礎,因此主體研究是接納度研究的重要組成部分。強人工智能可能擁有人類的形態(tài)和意識,是否以人遵循的社會道德來要求強人工智能,在判斷社會對其的接納程度上有重要意義??萍疾粩喟l(fā)展,新一輪的產業(yè)革命逐漸到來,更好地引導資本與技術的協(xié)調發(fā)展,構建新人工智能經濟生態(tài)也將會是接納研究的一個重點。
關鍵詞:強人工智能;法律主體地位;倫理道德;經濟哲學思考
中圖分類號:C916? ? ? ?文獻標志碼:A? ? ? 文章編號:1673-291X(2023)23-0037-03
未來,隨著人工智能的更高形態(tài)——強人工智能的出現、發(fā)展,甚至廣泛的應用,在強人工智能擁有人的姿態(tài)和意識時,我們可能會面臨的其中一個重要而復雜的議題:強人工智能與人類相似甚至相同的法律主體地位以及法律將對其有何限制。在探討該問題時,考慮到強人工智能擁有人的屬性,我們又必須將與其相關的倫理道德納入思考,然而道德判斷的驅動力除理性的反思平衡之外,又包括情感的直覺體驗,而強人工智能可能缺乏人類的情感和道德判斷力,使得一些倫理道德問題難以解決。我們需要深入思考如何在維持人類與強人工智能共同體的前提下,推動其發(fā)展,規(guī)范其應用。更進一步則是某種意味的哲學思考和映射到表層的經濟影響。在此過程中,強人工智能的發(fā)展對經濟格局和發(fā)展的影響問題也將逐步浮出水面,如何將其應用到促進經濟社會發(fā)展的浪潮中,這個過程也會引發(fā)一系列對于促進生產力發(fā)展的哲學思考。
一、強人工智能的法律主體地位問題
今年以來,ChatGPT在各行各業(yè)的高應用性值得驚嘆,在法律人工智能界的應用同樣獲得了較高期待。未來可能會出現的強人工智能技術有望破除法律人工智能的自然語言理解瓶頸。不僅如此,憑借其超強的學習能力,未來的強人工智能很有可能作為律師甚至是被告出現在法庭。因此,對于強人工智能是否應該獲得法律主體地位以及法律對其的限制度有待研究。
(一)強人工智能獲得法律主體的現實必要性
目前人工智能相關法律問題的焦點主要集中在人工智能系統(tǒng)上,強人工智能猶如人體中的靈魂,賦予機械以生命[1],一旦真正的強人工智能面世,同樣具有人類面孔甚至意識的“機械”不再適用于任何一條法律,這必將引起轟動并使得現行法律秩序產生變動。
法律人格是適用現行多數法律的前提,人工智能會影響各個法律領域,民法、刑法或其他法律均面臨人工智能法律人格的爭議。法律主體的確定對解決任何爭議都至關重要,因為只有先確定法律主體,才能接下來討論法律責任的分配問題。對人工智能是否被承認為法律主體的討論也因此而起。
(二)賦予其主體地位的路徑
從法理學上來看,判斷主體是否為法律主體需要從三個層面入手:能否做出獨立的意思表示、是否擁有獨立的財產、能否獨立承擔責任。因此,賦予人工智能法律主體地位的路徑也應當從這三個維度進行[1]。
強人工智能在未來或許可以根據現實需要,通過人格擬制技術,獲得有限的法律人格和主體地位。并且為了實現法律背后的制度目的,人格擬制技術的運用也有利于構建法律關系,并且推動人們做出正確的價值判斷。
不過,在何種情形、范圍、限度內賦予人工智能的法律主體地位,理論與實踐尚欠缺應有的回應。賦予人工智能主體地位的同時,也應對強人工智能設置權利邊界和權利保留,明確其法律和道德權利和行為效力的限度[1]。
(三)賦予其法律主體地位的意義
賦予人工智能法律主體地位,不僅僅是道德考量,同時也是關注法律關系的實踐需要。承認人工智能的法律“人格”,在一定層面上等于構建了新型智能社會的法律模式,這意味著需要更加合理地界定其權責范圍、設計科學的相關法律制度,從而使法律主體得到延伸,塑造一個價值多元的社會。
(四)賦予其法律主體地位的社會考量因素
其一是技術上能否界定人工智能系統(tǒng)的范圍,其二是經濟上能否提高社會福祉,其三是法律上是否存在相應規(guī)則不健全而需要加以規(guī)范的緊迫現實性,其四是精神主觀上存在推理能力與道德責任[2]。
基于以上考量因素,在避免貿然承認強人工智能具有完整的法律主體地位的同時加以人類限制,以便人工智能技術的發(fā)展更好地服務于社會發(fā)展。
二、強人工智能相關的倫理道德思考
未來,人工智能的高階形式——強人工智能會走進社會生產生活,因其終歸是“機械”,可能缺乏人類的情感和道德判斷力,使得一些倫理道德問題難以解決。因此,對于其道德和倫理問題的思考顯得尤為重要。
(一)強人工智能是否應遵循人類道德準則
傳統(tǒng)社會的道德調整人與人的關系,而現代社會將道德關懷對象擴大到自然,是否應該以人遵循的倫理準則來要求強人工智能是思考的第一順位。若強人工智能出現,在人與人工智能的關系上是否還應堅持人類中心主義。中國人民大學倫理學與道德建設研究中心曹剛指出:“人工智能是人造物,在存在論的意義上,人的本體地位不可動搖,類似于ChatGPT這樣的強人工智能其過人之處是對人類知識的儲備,但究其本質也僅僅是‘拼湊性的知識創(chuàng)造?!盵3]所以當強人工智能更多展現出與人相似的特性時,人類是否應給予其相應的“人權”成為強人工智能一大主要倫理問題。
(二)強人工智能引發(fā)的隱私和安全問題
未來,許多強人工智能技術要使用大量的數據訓練模型,以增強其智能和自主學習能力。而這些數據可能會包含許多敏感信息,如個人瀏覽史、購買習慣、地理位置等,這些信息容易被黑客攻擊盜用從而造成個人隱私泄露。在安全層面,霍金、施密特等都曾發(fā)出警惕強人工智能威脅人類生存的警告。強人工智能技術容易被黑客利用來攻擊系統(tǒng),從而威脅國家、金融、醫(yī)療等安全領域。安全往往與責任息息相關。按照現有法律規(guī)則,因為系統(tǒng)自主性過強,其開發(fā)者也難以預測,包括黑箱的存在,很難解釋事故原因,所以未來可能會產生責任鴻溝。
(三)強人工智能與非中立的算法
許多人認為不帶人類偏見和情緒的算法是一種客觀的數學表達,不會產生歧視。但其實算法并非是中立的,它更多是一種不透明的算法黑箱[4]。算法決策很多時候是一種預測,用過去的數據預測未來趨勢,預測結果由算法模型和數據輸入決定。尤其在強人工智能背后,容易受程序員和資本等的操縱,當系統(tǒng)被輸入偏見和歧視,便產生非公正的判斷和推論,從而造成對某些群體的標簽化看法、污名化報道和不公平待遇。而算法歧視可能是具有自我學習能力的算法在交互過程中習得的,自身無法區(qū)別什么是歧視,什么不是歧視。例如一些圖像識別軟件將黑人錯誤地標記為“黑猩猩”或者“猿猴”。2016年3月,微軟公司在美國的Twitter上上線的聊天機器人Tay在與網民互動的過程中,成為了一個集性別歧視、種族歧視等于一身的“不良少女”[5]。可以想象如果將算法應用在犯罪評估、信用貸款等關切人身利益的場合,產生的歧視必然損害個人權益,帶來巨大危害。
(四)強人工智能倫理問題應對策略
王淑芹教授在中國社會科學倫理論壇上指出,深入探究人工智能技術的“是”與“應該”、“道義”與“功利”、“自由”與“責任”的關系,是發(fā)揮好倫理學價值規(guī)范引領作用的理論基礎。涉及人機關系、隱私保護、智能機器人權利等方面,需要制定相應的策略。
1.完善相關法律法規(guī),規(guī)范強人工智能發(fā)展。建立符合實際和法律規(guī)范的法律法規(guī),明確智能機器人的責任、權利、隱私保護和審查制度等。比如當聊天機器人在提供服務時出現錯誤,產生不良后果時,問責制度就變得尤為重要。涉及人工智能的道德責任與法律責任,開發(fā)者、用戶和平臺在內的多方參與者需共同面對這一挑戰(zhàn)。相關制度的全面宣傳和落地,也將有利于社會對人工智能倫理問題的認識和應對。
2.加強安全隱私保護,提高技術透明度。加強對強人工智能算法和應用技術的測試,建立完善的安全機制,確保機器人的可用性、安全性和機密性,嚴查安全漏洞、黑客攻擊和隱私泄露等問題,加強大數據加密、防護措施。通過透明度的提高加強對人工智能算法的解釋和預測能力,可以減少技術使用的風險。健康、穩(wěn)定、可控的強人工智能技術才能真正服務社會,獲得大眾的信任。
3.消除偏見與歧視,促進人機合作。開發(fā)者應盡可能確保訓練數據的多樣性和公平性,減小機器人在提供服務時產生歧視或偏見的風險。在營造平等的環(huán)境下,強人工智能可以與人合作,能取代人類完成一系列復雜危險的任務,提高社會效率,降低經濟成本,但其使用應在人類掌控之下。強人工智能機器人需自主提供人與技術相互協(xié)作的接口,允許用戶根據自己的偏好和需求使用。強化智能機器人與人類的互信與協(xié)作,才是強人工智能技術應對倫理問題的有效途徑。
三、強人工智能對社會經濟的影響以及哲學思考
未來,強人工智能的出現,會給經濟發(fā)展帶來質的飛躍,同時,在此過程中生產力發(fā)展引發(fā)相應的思辨哲學思考也會在社會范圍內大幅增加。
(一)強人工智能對社會經濟的影響
人工智能的不斷升級和應用對社會經濟帶來巨大的發(fā)展機遇的同時,又引發(fā)了一系列問題和挑戰(zhàn)。在推動其發(fā)展的同時,需要認真思考并采取積極措施應對相關問題,以實現其對社會經濟的可持續(xù)發(fā)展。
1.勞動力市場的變化。強人工智能的應用會對勞動力市場分工產生重要影響。一方面,其使得部分重復性高、技術含量低的勞動力就業(yè)崗位減少,加劇失業(yè)問題。另一方面,隨其技術的應用,社會對能夠了解并掌握強人工智能的人才需求增大,新的工作崗位和職業(yè)將不斷涌現。
2.產業(yè)結構的變革。強人工智能的應用會使得產業(yè)生產效率提高,配置優(yōu)化,可以顯著促進經濟的增長,以及加速各行各業(yè)智能化和自動化水平的提高。未來強人工智能的迅猛發(fā)展也會相應地促進產業(yè)結構的變革。自動駕駛、智能物流、人工智能醫(yī)療等產業(yè)的崛起,為經濟增長和社會發(fā)展帶來新動力,傳統(tǒng)產業(yè)也將面臨數字化和智能化轉型的重大決策問題。
(二)強人工智能與哲學思考
強人工智能的發(fā)展會引發(fā)一系列的哲學思考,涵蓋了倫理、道德、人類與人工智能等多方面關系,如用戶的數據被污名化和濫用化的可能性以及給當事人帶來的社會性傷害問題。除此之外,人工智能算法決策的責任認定也是一個重要難題。人工智能決策過程極為復雜,即使開發(fā)者都無法完全解釋系統(tǒng)的決策依據。因此,當人工智能系統(tǒng)犯錯時,如何追責和認定責任成為一個困難的問題。
哲學終極三問“我是誰”“我從哪里來”“我到哪里去”至今無法得出一個明確的結論。但人們在回答這三個問題的時候,大腦的思考涉及事物的本質和定義,事物的原因、過程和機制,以及事物的目的、意義和價值等諸多哲學領域。但對于人工智能而言,雖然其有了自主意識,但可能仍缺乏對應的情緒感知和管理,導致其問題的回答可能依賴于訓練階段學習的數據和算法,這也就意味著,強人工智能無法超脫于數據之外,缺乏理性的反思和直覺的情感體驗。
(三)研究經濟和哲學問題的意義
強人工智能的哲學思考和社會接受度的研究不僅有助于我們深入理解人工智能對經濟和社會的影響,還可以為政策制定者提供指導,幫助構建智能經濟生態(tài),實現可持續(xù)發(fā)展和社會公正。通過研究強人工智能的哲學問題,我們可以探索如何引導資本與技術的協(xié)調發(fā)展,促進人機協(xié)同創(chuàng)新。在推動強人工智能發(fā)展的同時,我們需要認真思考這些問題,并及時制定和調整相應的政策,以確保強人工智能發(fā)展在倫理道德和社會發(fā)展等方面的可行性。
未來,隨著人工智能技術的發(fā)展,人們對強人工智能的到來喜憂參半。根據歐盟委員會發(fā)布人工智能倫理準則七個方面,“可信賴人工智能”值得借鑒,但在具體操作的問題上,更應注重底線思維,人類需要面向未來做出積極思考與探索[6]。
四、結束語
強人工智能的社會接納程度受多種因素的影響,是一個復雜的過程。首先,對公眾的教育和培訓程度,決定了公眾對強人工智能的認知和態(tài)度。其次,法律體系的完善程度決定著其發(fā)展涉及的眾多道德法律問題是否可以被解決,從而決定公眾對強人工智能的信任度。此外,不同文化和道德價值觀對于強人工智能的社會意識也會產生深遠影響。未來,強人工智能仍會不斷發(fā)展,給經濟社會帶來更深遠的影響。通過加強公眾教育程度,完善立法體系,促進不同文化交流并堅持可持續(xù)發(fā)展,我們可以更好地引導和推動人工智能技術的發(fā)展,更好地為社會經濟的可持續(xù)發(fā)展和人類福祉作出貢獻。
參考文獻:
[1]? ?朱凌珂.賦予強人工智能法律主體地位的路徑與限度[J].廣東社會科學,2021(5):240-253.
[2]? ?丁佳偉.論人工智能的法律主體地位[D].桂林:廣西師范大學,2021.
[3]? ?李俊平.人工智能技術的倫理問題及對策研究[D].武漢:武漢理工大學,2013.
[4]? ?陳立鵬.人工智能引發(fā)的科學技術倫理問題[J].文學教育(下),2012(8).
[5]? ?李美琪.人工智能引發(fā)的科學技術倫理問題[J].山西青年,2016(8).
[6]? ?伍元吉,胡濱.人工智能的倫理挑戰(zhàn)探析[J].江西電力職業(yè)技術學院學報,2020,33(3):166-168.
[責任編輯? ?白? ?雪]