劉鑫
(中南財經(jīng)政法大學(xué)知識產(chǎn)權(quán)研究中心,武漢430073)
人工智能技術(shù)的迅速發(fā)展與廣泛應(yīng)用,使智力創(chuàng)造活動不再是專屬于人類的“特權(quán)”。無論是詩歌、樂曲等文學(xué)藝術(shù)作品的創(chuàng)作,還是專利技術(shù)的研發(fā),人工智能都可以在沒有人類干預(yù)的情況下自主生成相應(yīng)的智力成果。這種脫離人類控制的自主性,使人工智能區(qū)別于傳統(tǒng)意義上的輔助人類完成工作的機器或裝置,成為代替人類獨立完成創(chuàng)造性工作的“主體”[1]。但是,作為人類創(chuàng)造物的人工智能,其本身即為一種權(quán)利客體,并不具有法律主體資格,而人工智能創(chuàng)造物則是客體生成的次級客體。這樣一來,對人工智能創(chuàng)造物這一次級客體進行知識產(chǎn)權(quán)保護,無疑會形成對傳統(tǒng)財產(chǎn)權(quán)理論中主、客體框架的重大沖擊,進而引發(fā)了人們對于人工智能創(chuàng)造物知識產(chǎn)權(quán)保護的正當(dāng)性質(zhì)疑[2]。不僅如此,在眾多知識產(chǎn)權(quán)正當(dāng)性理論之中,無論是以自然權(quán)利為基礎(chǔ)的洛克“財產(chǎn)權(quán)勞動學(xué)說”和黑格爾“財產(chǎn)權(quán)人格學(xué)說”,還是隨當(dāng)代商品經(jīng)濟發(fā)展而來的“財產(chǎn)權(quán)激勵學(xué)說”,都是在人類作為智力成果創(chuàng)造主體和財產(chǎn)權(quán)利享有主體的基礎(chǔ)上進行理論展開的,尤其是黑格爾的“財產(chǎn)權(quán)人格學(xué)說”更是將智力成果中所蘊含的人格價值作為財產(chǎn)權(quán)的取得依據(jù)[3]。人工智能主體資格的缺失,無疑使人工智能創(chuàng)造物的知識產(chǎn)權(quán)保護游離于正當(dāng)性理論之外而備受質(zhì)疑。但是,這些傳統(tǒng)理論與人工智能自主創(chuàng)新模式的沖突,并不能成為人工智能創(chuàng)造物知識產(chǎn)權(quán)保護的阻礙。因為伴隨著人工智能創(chuàng)造物的日益增多,人工智能創(chuàng)造物知識產(chǎn)權(quán)保護訴求的不斷加強,知識產(chǎn)權(quán)正當(dāng)性理論也應(yīng)隨之調(diào)整,實現(xiàn)理論架構(gòu)與人工智能自主創(chuàng)新模式之間的契合[4]。鑒此,為實現(xiàn)對人工智能創(chuàng)造物知識產(chǎn)權(quán)保護正當(dāng)性的充分論證,不妨以與人工智能自主創(chuàng)新模式矛盾最為突出的黑格爾“財產(chǎn)權(quán)人格學(xué)說”為例展開分析,即在明確該學(xué)說證成知識產(chǎn)權(quán)制度正當(dāng)性基本路徑和證成人工智能創(chuàng)造物產(chǎn)權(quán)保護現(xiàn)實障礙的基礎(chǔ)上,探究黑格爾“財產(chǎn)權(quán)人格學(xué)說”證成人工智能創(chuàng)造物知識產(chǎn)權(quán)保護的理論調(diào)適與制度調(diào)整策略與制度調(diào)整方略,從而構(gòu)建起黑格爾“財產(chǎn)權(quán)人格學(xué)說”與人工智能創(chuàng)造物知識產(chǎn)權(quán)保護之間的正當(dāng)性證成橋梁,保證知識產(chǎn)權(quán)正當(dāng)性理論與人工智能自主創(chuàng)造智力成果模式之間的契合。
作為重要的財產(chǎn)權(quán)基礎(chǔ)理論,“財產(chǎn)權(quán)人格學(xué)說”由德國近代偉大哲學(xué)家黑格爾所創(chuàng)設(shè),并對后世產(chǎn)生深遠影響。該學(xué)說以自然權(quán)利為基礎(chǔ),依據(jù)“意志-人格-財產(chǎn)”的哲學(xué)范疇構(gòu)筑出財產(chǎn)權(quán)正當(dāng)性的證成路徑[5]。在《法哲學(xué)原理》一書中,黑格爾將“意志”、“人格”、“財產(chǎn)”三個要素之間的哲學(xué)關(guān)系以“三段論”式的邏輯模型展開論述,即以財產(chǎn)占有情況決定意志自由程度和意志自由彰顯人格的本質(zhì)內(nèi)涵為前提條件,推導(dǎo)出財產(chǎn)權(quán)利與人格價值間的重要依存關(guān)系[6]。其中,小前提為“財產(chǎn)是人生存和發(fā)展的基礎(chǔ)”,對此黑格爾的表述是“人把他的意志體現(xiàn)于物內(nèi),這就是所有權(quán)的概念”[7]。如若沒有必要的財產(chǎn)保障,人類最為根本的生存與發(fā)展需要將無法獲得滿足,意志自由也就更無從談起了。易言之,一個人只有擁有了穩(wěn)定的財產(chǎn),他才能依靠所掌握的財產(chǎn)而實現(xiàn)其意志自由的愿望[8]。而大前提則為“人格的本質(zhì)內(nèi)涵在于意志自由”,即只有擁有自由意志,一個人才能成為法哲學(xué)意義上具備獨立人格和權(quán)利能力的“人”[7]。反言之,如若一個人的意志自由受到他人支配,那么這個人只能說是他人的附庸而并無人格可言。因此,可以得出,財產(chǎn)權(quán)是人格實現(xiàn)之保障,以及人格是財產(chǎn)權(quán)獲得之基礎(chǔ)的結(jié)論,進而以意志自由為橋梁從人格層面實現(xiàn)了對財產(chǎn)權(quán)正當(dāng)性的理論證成。隨著人類創(chuàng)造能力的不斷提升,著作權(quán)、專利權(quán)等知識產(chǎn)權(quán)相繼出現(xiàn),為所有權(quán)等有形財產(chǎn)權(quán)提供正當(dāng)性基礎(chǔ)的黑格爾“財產(chǎn)權(quán)人格學(xué)說”常常被學(xué)者們延伸客體非物質(zhì)性的作品、發(fā)明等知識產(chǎn)品之上,用來證成知識產(chǎn)權(quán)的正當(dāng)性[9]。而知識產(chǎn)權(quán)客體的非物質(zhì)性,則使“財產(chǎn)權(quán)人格學(xué)說”中“意志-人格-財產(chǎn)”的理論脈絡(luò)與制度結(jié)構(gòu)更為契合。作為一種無形財產(chǎn)權(quán),知識產(chǎn)權(quán)直接保護了人類的創(chuàng)造意志,作者、發(fā)明人等創(chuàng)造主體的人格得以充分彰顯,省去了“財產(chǎn)權(quán)人格學(xué)說”在論證有形財產(chǎn)所有權(quán)正當(dāng)性時的意志物化過程,從而更加充分地融入到了財產(chǎn)權(quán)人格學(xué)說“意志-人格-財產(chǎn)”的理論范疇。
人工智能自主創(chuàng)新模式的產(chǎn)生,則使“財產(chǎn)權(quán)人格學(xué)說”面臨著超越理論范疇的挑戰(zhàn),“意志”、“人格”、“財產(chǎn)”三大構(gòu)成“財產(chǎn)權(quán)人格學(xué)說”的基本要素均呈現(xiàn)出了適用的難題與困境:首先,在“意志”要素層面,人工智能的創(chuàng)造意愿并不能完全符合“財產(chǎn)權(quán)人格學(xué)說”中的“意志”要求。在“財產(chǎn)權(quán)人格學(xué)說”的理論框架下,“意志”是人們不受外界影響的,充分自由的想法或意愿。而人工智能雖能自主生成內(nèi)容、發(fā)明等智力成果,但其進行創(chuàng)造活動的意愿能否被認為是一種“意志”則存在疑問,而且其所進行的創(chuàng)造活動是否完全體現(xiàn)了自身“意志”也有待商榷[10];其次,在“人格”要素層面,人工智能本身并不具備“財產(chǎn)權(quán)人格學(xué)說”中的“人格”要件。在“財產(chǎn)權(quán)人格學(xué)說”的理論框架下,“人格”是人之所為人的基礎(chǔ),在法律中體現(xiàn)為主體資格與權(quán)利能力。而人工智能本身即為人類創(chuàng)造物,并不具有人格屬性,其自身也不具備法律意義上的主體地位;最后,在“財產(chǎn)”要素層面,人工智能創(chuàng)造物與“財產(chǎn)權(quán)人格學(xué)說”中的“財產(chǎn)”概念也不能完全重合。在“財產(chǎn)權(quán)人格學(xué)說”的理論框架下,“財產(chǎn)”是人類生存與發(fā)展所必需,且能夠被授予財產(chǎn)權(quán)利的客體類型。而人工智能創(chuàng)造物則并不一定能夠充分滿足這一條件,實踐中很多人工智能所生成的智力成果往往是不符合知識產(chǎn)權(quán)授予條件的。因此,可以說,人工智能對黑格爾“財產(chǎn)權(quán)人格學(xué)說”的挑戰(zhàn)是全方位的,涉及“財產(chǎn)權(quán)人格學(xué)說”中的各個要素,致使“意志-人格-財產(chǎn)”的理論模型難以運行,進而導(dǎo)致人工智能創(chuàng)造物知識產(chǎn)權(quán)保護的正當(dāng)性也難以被有效證成。但是,這不意味著黑格爾“財產(chǎn)權(quán)人格學(xué)說”與人工智能創(chuàng)造物的知識產(chǎn)權(quán)保護之間的沖突是不可調(diào)和的。通過對“財產(chǎn)權(quán)人格學(xué)說”的必要理論釋義,將“意志”、“人格”、“財產(chǎn)”三大要素進行解釋論層面的擴展,并從制度論層面對人工智能自主創(chuàng)造過程展開必要的法律規(guī)制,進行人工智能自由意志的合理界定、人工智能法律人格的規(guī)則創(chuàng)設(shè)、人工智能創(chuàng)造物的保護機制建構(gòu),即可完成“財產(chǎn)權(quán)人格學(xué)說”對人工智能自主創(chuàng)新模式的有效應(yīng)對,從而實現(xiàn)對人工智能創(chuàng)造物知識產(chǎn)權(quán)保護的正當(dāng)性證成。
人工智能是否具有自由意志的疑問,是影響“財產(chǎn)權(quán)人格學(xué)說”證成人工智能創(chuàng)造物知識產(chǎn)權(quán)保護正當(dāng)性的關(guān)鍵因素之一。在沒有人類干預(yù)與控制的情況下展開自主創(chuàng)造,是人工智能先進功能的重要體現(xiàn),也是人工智能與早先技術(shù)相比的本質(zhì)區(qū)別。但是,人工智能的自主創(chuàng)造行為能否被認為是人工智能自由意志的體現(xiàn)則眾說紛紜、爭議不斷。有學(xué)者從人工智能“算法+數(shù)據(jù)”的運行機制出發(fā),認為人工智能創(chuàng)造物的生成是算法與數(shù)據(jù)共同作用的結(jié)果,人工智能本身并沒有進行創(chuàng)造的自由意志[11];也有學(xué)者從人工智能創(chuàng)造物的生成目的出發(fā),得出人工智能生成創(chuàng)造物是為滿足人類的需求,而非人工智能自身意志需要的結(jié)論[10]。而隨著人工智能技術(shù)的日益提升,人工智能擁有極強的深度學(xué)習(xí)能力,并有了基本的感情,可與人類進行互動,學(xué)界逐漸出現(xiàn)了人工智能具備自由意志的聲音,這也使人工智能具備了滿足“財產(chǎn)權(quán)人格學(xué)說”中“意志”要素之理論釋義與法律規(guī)制的可能性[12]。
人工智能的自主創(chuàng)新雖然在形式上與自由意志支配下的人類創(chuàng)新頗為相似,但人類智力創(chuàng)造中的自由意志卻往往是人工智能所不具備的,進而引發(fā)“財產(chǎn)權(quán)人格學(xué)說”中“意志”要素在人工智能自主創(chuàng)新場景下的失靈。因為,在“財產(chǎn)權(quán)人格學(xué)說”理論框架下的“意志”要素,并不僅限于自主創(chuàng)新的創(chuàng)造力層面,而是與道德責(zé)任、創(chuàng)造力、自尊和幸福等諸多因素相關(guān)的一種心理傾向[13]。在此基礎(chǔ)上,意志的自由與否則受到創(chuàng)新、道德等既有意識改寫無意識心靈預(yù)置行為的影響,而這也是意志自由的心靈根基所在[14]。因此,可以說,在缺乏基本道德認知與價值判斷的人工智能自主創(chuàng)新過程中,人工智能的創(chuàng)造目的與創(chuàng)造行為是不能完全滿足“財產(chǎn)權(quán)人格學(xué)說”中“意志”要素的。然而,在目前人工智能對外部世界認知水平不斷增強的情況下,很多人工智能已經(jīng)具備了一定價值判斷能力,并在進行智力創(chuàng)造的過程中有所取舍。這無疑也使人工智能的自主創(chuàng)新更加趨近于“財產(chǎn)權(quán)人格學(xué)說”中“意志”的要求,進言之,通過對“意志”要素的適度理論擴展,即可將擁有基本道德認知與價值判斷的人工智能自主創(chuàng)造納入“財產(chǎn)權(quán)人格學(xué)說”的理論框架之中。但是,必須要格外注意的是,并不是所有的人工智能都具備道德認知與價值判斷的能力,因而,在對“財產(chǎn)權(quán)人格學(xué)說”中“意志”要素展開擴大解釋的同時,還應(yīng)對人工智能自主創(chuàng)新時的道德認知與價值判斷能力進行具體的考量,并在“意志”要素指引下展開對人工智能自由意志的合理界定。
通過理論層面的合理解釋,可以將人工智能在一定道德認知與價值判斷下的自主創(chuàng)新納入到“財產(chǎn)權(quán)人格學(xué)說”的“意志”要素范疇,化解“財產(chǎn)權(quán)人格學(xué)說”證成人工智能創(chuàng)造物知識產(chǎn)權(quán)保護正當(dāng)性的理論障礙。但是,僅僅將“意志”要素進行理論擴展是遠遠不夠的。早在20 世紀末,人工智能自主創(chuàng)新模式就已出現(xiàn),例如美國Thaler博士在上世紀末以人工神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)所發(fā)明的人工智能Creativity Machine 便可生成具有可專利性的技術(shù)方案①Creativity Machine 所生成的技術(shù)方案已獲得美國專利保護,例如U.S.Patent No.5,659,666(filed Oct.13,1994);U.S.Patent No.5,852,815(filed May 15,1998)。為了避免專利申請不被駁回,Thaler 博士在前述兩項專利中將自己作為發(fā)明人申請專利,并未披露“真正的發(fā)明人”Creativity Machine。 See Ryan Abbott, "I Think, Therefore I Invent: Creative Computers and the Future of Patent Law,"Boston College Law Review 57,no.4(2016):1085。,但此時人工智能并不能自身進行基本的善惡區(qū)分,因而也就不具備“財產(chǎn)權(quán)人格學(xué)說”意義上的“自由意志”。 進入21世紀以來,人工智能技術(shù)發(fā)展迅猛,很多人工智能軟件均已具備了基本的價值判斷能力,在一定程度上具備了進行自由創(chuàng)造的“自由意志”,例如IBM公司所研發(fā)智能機器人Watson 就能夠依據(jù)自身對人們不同偏好的評判來完成個性化菜單生成等創(chuàng)造性工作②See IBM,“Watson cooks up computational creativity,”https://www.ibm.com/thought-leadership/innovation_explanations/article/florian_pinel.html,(Last visited on March 4,2019)。。因此,為保證人工智能自主創(chuàng)新與“財產(chǎn)權(quán)人格學(xué)說”中“意志”要素的充分契合,還需要在“意志”要素的指引下,結(jié)合人工智能技術(shù)的運行特點,設(shè)計人工智能道德認知與價值判斷能力的評價標準,即從人工智能創(chuàng)造物的生成過程出發(fā),就特定人工智能自主創(chuàng)新的基礎(chǔ)算法與數(shù)據(jù)中是否涉及與道德認知及價值判斷相關(guān)的內(nèi)容進行分析,并以其中道德認知及價值判斷相關(guān)算法與數(shù)據(jù)在人工智能自主創(chuàng)造中的具體作用為基礎(chǔ),對人工智能是否具備“財產(chǎn)權(quán)人格學(xué)說”意義上的“自由意志”展開具體判定。
人工智能人格屬性的缺失,是制約“財產(chǎn)權(quán)人格學(xué)說”證成人工智能創(chuàng)造物知識產(chǎn)權(quán)保護正當(dāng)性的根本原因所在。本身作為法律客體的人工智能進行自主創(chuàng)造生成了次級客體,對于人工智能創(chuàng)造物這一次級客體而言,人工智能無疑創(chuàng)造“主體”,而作為創(chuàng)造“主體”的人工智能卻并不具備真正的主體地位,這不僅直接導(dǎo)致了“財產(chǎn)權(quán)人格學(xué)說”中“人格”要素的斷裂,也引發(fā)了人工智能創(chuàng)造物知識產(chǎn)權(quán)配置與救濟的實踐難題[12]。為應(yīng)對理論與實踐層面的雙重挑戰(zhàn),國內(nèi)外學(xué)者們紛紛提出創(chuàng)設(shè)一種新的人工智能法律人格的立法設(shè)想③See Colin R. Davies, " An Evolution Step in Intellectual Property Rights —— Artificial Intelligence and Intellectual Property,"Computer Law&Security Review 27(2011):601-619;袁曾:《人工智能有限法律人格審視》,載《東方法學(xué)》2017 年第5 期,第50-57頁。,直接將人工智能作為相關(guān)智力成果的作者或發(fā)明人④See Bruce E. Boyden, "Emergent Works," Columbia Journal of Law & the Arts 39, no. 3 (2016): 377-394; James Grimmelmann,"There's No Such Thing as a Computer-Authored Work-And It's a Good Thing,Too,"Columbia Journal of Law&the Arts 39,no.3(2016):414;Ryan Abbott,"I Think,Therefore I Invent:Creative Computers and the Future of Patent Law,"Boston College Law Review 57,no.4(2016):1079-1080。,但這對于“財產(chǎn)權(quán)人格學(xué)說”的理論架構(gòu)而言還是遠遠不夠,如若要以新創(chuàng)設(shè)的人工智能法律人格來滿足“財產(chǎn)權(quán)人格學(xué)說”中的“人格”要素,則必須在對“人格”要素展開進一步的理論釋義的同時,以“人格”要素為指引對人工智能法律人格的具體規(guī)則進行合理創(chuàng)設(shè)。
人工智能法律人格通過法律擬制而形成,其雖能賦予人工智能法律主體地位,但卻并不能直接滿足“財產(chǎn)權(quán)人格學(xué)說”理論框架下的“人格”要求。因為“財產(chǎn)權(quán)人格學(xué)說”是以自然權(quán)利為基礎(chǔ)而建立的財產(chǎn)權(quán)正當(dāng)性理論,在其理論框架下,財產(chǎn)權(quán)被認為是一種人類的自然權(quán)利,而財產(chǎn)權(quán)這一自然權(quán)利的享有者則是一般意義上的自然人。因而,“財產(chǎn)權(quán)人格學(xué)說”中的“人格”要素也是以自然人人格為要旨的,并以此作為自然權(quán)利概念之下財產(chǎn)權(quán)的私有基礎(chǔ)。由此,為化解“人格”要素與人工智能法律人格之間的沖突,有必要對“財產(chǎn)權(quán)人格學(xué)說”中的“人格”要素進行合理的擴大解釋,將人工智能法律人格納入理論范疇之中。以羅馬法以來將多人組成之“社團”等同于人并賦予其以人之資格的法人制度為例[15],社團的法律人格并非真正存在的人格,而一種法律擬制,但在這種法律擬制人格的背后實質(zhì)上是蘊藏著潛在自然人人格的,從某種程度上說其無疑是自然人人格的一種延伸。當(dāng)下針對人工智能自主創(chuàng)新模式而創(chuàng)設(shè)的人工智能法律人格,雖為一種立法設(shè)想,但其同社團法人人格的擬制異曲同工,人工智能法人人格無疑也是其背后智能軟件創(chuàng)造者、核心數(shù)據(jù)提供者等相關(guān)主體的法人人格或者自然人人格的一種特殊彰顯。依據(jù)此種自然人人格延伸的解釋路徑,人工智能法律人格的立法設(shè)想完全可以納入到“財產(chǎn)權(quán)人格學(xué)說”中“人格”要素的理論架構(gòu)之內(nèi),實現(xiàn)“人格”要素在人工智能主體地位層面的理論擴展。
通過理論層面的合理解釋,可以將人工智能法律人格納入到“財產(chǎn)權(quán)人格學(xué)說”的“人格”要素范疇,消除“財產(chǎn)權(quán)人格學(xué)說”證成人工智能創(chuàng)造物知識產(chǎn)權(quán)保護正當(dāng)性的理論障礙。但是,僅僅將“人格”要素進行理論擴展,并不能確保人工智能法律人格充分滿足“財產(chǎn)權(quán)人格學(xué)說”中“人格”要求,還需以“人格”要素為指引對人工智能法律人格的具體規(guī)則進行創(chuàng)設(shè),從制度層面對“人格”要素的理論擴展作出回應(yīng)。具言之,實踐中可以仿照社團法人的制度設(shè)計展開人工智能法律人格機制的規(guī)則創(chuàng)設(shè),這不僅是基于人工智能與社團法人在“財產(chǎn)權(quán)人格學(xué)說”中“人格”要素理論釋義的相同路徑,更是由于在二者功能上的高度相似性,即二者都是圍繞一定的核心協(xié)議而建立的,社團法人表現(xiàn)為章程,人工智能則體現(xiàn)為算法[16]。在類似于法人制度的人工智能法律人格規(guī)則下,人工智能的法律人格無疑是工具性的,權(quán)利能力和責(zé)任能力也是有限的,因而人工智能實際控制人的確定就顯得尤為關(guān)鍵。然而,由于人工智能自主創(chuàng)造過程中智能軟件創(chuàng)造者、使用者以及核心數(shù)據(jù)提供者等相關(guān)參與主體之間關(guān)系的復(fù)雜性,人工智能實際控制人選取卻并非易事。基于人工智能技術(shù)高投資、高風(fēng)險的運行現(xiàn)狀,學(xué)者們大多從投資者利益出發(fā),提出將人工智能所有者作為實際控制人享有相關(guān)財產(chǎn)權(quán)利并承擔(dān)相應(yīng)法律責(zé)任的制度安排⑤相見吳漢東:《人工智能時代的制度安排與法律規(guī)制》,載《法律科學(xué)(西北政法大學(xué)學(xué)報)》2017 年第5 期,第131 頁;劉鑫:《人工智能生成技術(shù)方案的專利法規(guī)制——理論爭議、實踐難題與法律對策》,載《法律科學(xué)(西北政法大學(xué)學(xué)報)》2019年第5期,第82頁。。這樣的規(guī)則設(shè)計雖不能從根本上解決人工智能實際控制人的確定問題,但在目前人工智能自主創(chuàng)造活動多為政府或大型企業(yè)所主導(dǎo)的情況下,無疑是最為合理的制度選擇。
人工智能創(chuàng)造物與傳統(tǒng)意義上財產(chǎn)概念的差異,則是造成“財產(chǎn)權(quán)人格學(xué)說”證成人工智能創(chuàng)造物知識產(chǎn)權(quán)保護正當(dāng)性障礙的又一大原因。在“財產(chǎn)權(quán)人格學(xué)說”的“意志-人格-財產(chǎn)”證成路徑下,雖然通過必要的理論釋疑和規(guī)則設(shè)定使人工智能滿足“意志”和“人格”兩大前提要素,但也不能完全實現(xiàn)對人工智能創(chuàng)造物為適格“財產(chǎn)”的證成,因為人工智能所生成的文藝作品、發(fā)明成果等創(chuàng)造物與“財產(chǎn)權(quán)人格學(xué)說”理論框架下的“財產(chǎn)”在概念范疇并非完全吻合,二者存在諸多層面的矛盾與沖突,其中最為突出的表現(xiàn)即為“財產(chǎn)”歸屬范疇上的差異:人工智能創(chuàng)造物既可能為個人所私有,也為社會大眾所公有;而“財產(chǎn)權(quán)人格學(xué)說”中的“財產(chǎn)”則僅指私有財產(chǎn)。因而,為實現(xiàn)“財產(chǎn)”要素與人格智能創(chuàng)造物之間的契合,有必要以人工智能創(chuàng)造物特性出發(fā),對“財產(chǎn)”要素進行必要的解釋,并以“財產(chǎn)”要素為指引,建構(gòu)人工智能創(chuàng)造物的知識產(chǎn)權(quán)保護機制。
在人工智能所生成的文藝作品、發(fā)明成果等眾多創(chuàng)造物中,并不是所有都能獲得知識產(chǎn)權(quán)保護而成為“財產(chǎn)權(quán)人格學(xué)說”理論框架下的“財產(chǎn)”。在“財產(chǎn)權(quán)人格學(xué)說”的理論框架下,作為核心要素的“財產(chǎn)”,是指人類個體為自身生存與發(fā)展所必須占有的一種資源,換言之,“財產(chǎn)權(quán)人格學(xué)說”中的“財產(chǎn)”并非廣義上的社會財產(chǎn),而僅指私有財產(chǎn),并以私有化的財產(chǎn)作為獨立人格的基礎(chǔ)與自由意志的源泉。而在人工智能所生成的文藝作品、發(fā)明成果等各種創(chuàng)造物中卻并非所有都能滿足知識產(chǎn)權(quán)的授權(quán)條件而成為私有財產(chǎn),其中很多是不具備知識產(chǎn)權(quán)保護要件的,諸如其中一些對基本算法與數(shù)據(jù)簡單重復(fù)的人工智能創(chuàng)造物,往往會進入公有領(lǐng)域為社會大眾所公有[17]。由此,不難發(fā)現(xiàn),人工智能創(chuàng)造物的范疇實質(zhì)是大于財產(chǎn)權(quán)人格學(xué)說”中“財產(chǎn)”要素范疇的。進言之,只有滿足知識產(chǎn)權(quán)授予條件的人工智能創(chuàng)造物才能被納入到“財產(chǎn)權(quán)人格學(xué)說”的“財產(chǎn)”要素范疇之中,即“財產(chǎn)權(quán)人格學(xué)說”所證成的“財產(chǎn)”也僅限于眾多人工智能創(chuàng)造物中受到知識產(chǎn)權(quán)保護的那一部分。如此一來,便可從理論層面明確“財產(chǎn)權(quán)人格學(xué)說”中“財產(chǎn)”要素所對應(yīng)的人工智能創(chuàng)造物范疇,并將能夠獲得知識產(chǎn)權(quán)的人工智能創(chuàng)造物納入到“財產(chǎn)權(quán)人格學(xué)說”的“意志-人格-財產(chǎn)”財產(chǎn)權(quán)正當(dāng)性證成范式。
通過理論層面的合理解釋,可以實現(xiàn)人工智能創(chuàng)造物與“財產(chǎn)權(quán)人格學(xué)說”中“財產(chǎn)”要素之間的有效連接,將符合知識產(chǎn)權(quán)授權(quán)條件人工智能創(chuàng)造物納入到“財產(chǎn)權(quán)人格學(xué)說”的財產(chǎn)權(quán)正當(dāng)性證成理論框架之中。但是,僅僅在理論層面對“財產(chǎn)”要素所進行的疏解,并不能完全克服人工智能創(chuàng)造物對“財產(chǎn)權(quán)人格學(xué)說”中“財產(chǎn)”要素所帶來的沖突,在此基礎(chǔ)上,還需要以“財產(chǎn)”要素為指引,立足人工智能創(chuàng)造物的自身特點,專門建構(gòu)人工智能創(chuàng)造物的知識產(chǎn)權(quán)保護機制。在傳統(tǒng)的知識產(chǎn)權(quán)法律規(guī)則下,只有人類所創(chuàng)造的智力成果才能得到法律保護,成為適合的權(quán)利客體,即使有相關(guān)輔助因素存在,也必須是基于人類努力所形成的智力成果[18],而任何單純的自然、植物或動物的生成物都不具備獲得知識產(chǎn)權(quán)保護的可能性⑥See Kugel v.U.S.947 F.2nd 1504 at 1505-1506(DC Civ,1991)。。這樣看來,人工智能創(chuàng)造物與知識產(chǎn)權(quán)保護無疑是無緣的。而知識產(chǎn)權(quán)制度下的權(quán)利取得標準無疑是應(yīng)當(dāng)與技術(shù)發(fā)展相聯(lián)系的[19]。隨著人工智能創(chuàng)造力的不斷提升,生成出滿足客觀可版權(quán)性要求的文藝作品與具備客觀可專利性要求的發(fā)明成果已成為人工智能的運行常態(tài),知識產(chǎn)權(quán)法的權(quán)利取得標準也進行相應(yīng)的完善,將人工智能創(chuàng)造物納入到知識產(chǎn)權(quán)的保護范圍之中,并針對人工智能的算法驅(qū)動、數(shù)據(jù)保障的運行模式調(diào)整具體的法律規(guī)則,將人工智能通過文本數(shù)據(jù)挖掘所生成的與版權(quán)作品、專利技術(shù)實質(zhì)性相似的智力成果,以及與人工智能算法沒有實質(zhì)差別的智力成果排除出知識產(chǎn)權(quán)保護范圍[20],尤其是專利審查中,更應(yīng)以人工智能的數(shù)據(jù)收集與資源整合能力為基準,在更廣闊的技術(shù)領(lǐng)域中以“配備智能電腦”的一般技術(shù)人員標準,判斷人工智能創(chuàng)造物的可專利性[21]。
人工智能創(chuàng)造物的出現(xiàn)使知識產(chǎn)權(quán)制度備受挑戰(zhàn),而人工智能創(chuàng)造物知識產(chǎn)權(quán)保護的正當(dāng)性問題也成為了爭議的焦點。作為知識產(chǎn)權(quán)制度的重要理論基礎(chǔ),以“意志-人格-財產(chǎn)”為邏輯結(jié)構(gòu)的黑格爾“財產(chǎn)權(quán)人格學(xué)說”與人工智能創(chuàng)造物的知識產(chǎn)權(quán)保護之間存在著激勵的沖突,從“意志”到“人格”再到“財產(chǎn)”,“財產(chǎn)權(quán)人格學(xué)說”證成財產(chǎn)權(quán)正當(dāng)性的三大要素都與人工智能自主創(chuàng)新模式格格不入。但是,這并不意味著“財產(chǎn)權(quán)人格學(xué)說”不能對人工智能創(chuàng)造物的知識產(chǎn)權(quán)保護正當(dāng)性進行證成。通過對“財產(chǎn)權(quán)人格學(xué)說”的必要理論釋義,將“意志”、“人格”、“財產(chǎn)”三大要素進行解釋論層面的擴展,并在“財產(chǎn)權(quán)人格學(xué)說”三大要素的指引下展開人工智能自由意志合理界定、人工智能法律人格規(guī)則創(chuàng)設(shè)、人工智能創(chuàng)造物保護機制建構(gòu)等必要的制度完善,便可實現(xiàn)黑格爾“財產(chǎn)權(quán)人格學(xué)說”對人工創(chuàng)造物知識產(chǎn)權(quán)保護正當(dāng)性的理論證成。
在眾多知識產(chǎn)權(quán)正當(dāng)性理論中,無論是洛克“財產(chǎn)權(quán)勞動學(xué)說”、黑格爾“財產(chǎn)權(quán)人格學(xué)說”、羅爾斯“財產(chǎn)權(quán)分配正義學(xué)說”等哲學(xué)理論,還是以經(jīng)濟學(xué)為基礎(chǔ)的激勵理論,都存在特定的價值基礎(chǔ),服務(wù)特定的目標,同時都有著各自的漏洞,不能從邏輯上實現(xiàn)完全周延[22]。因此,在面對人工智能創(chuàng)造物的知識產(chǎn)權(quán)保護時,這些理論都會存在不同層面的矛盾與沖突。知識產(chǎn)權(quán)制度源于創(chuàng)新而生,也必須基于創(chuàng)新而變[23]。在人工智能創(chuàng)新模式產(chǎn)生后,相應(yīng)的知識產(chǎn)權(quán)正當(dāng)性理論也應(yīng)隨之而變。黑格爾“財產(chǎn)權(quán)人格學(xué)說”作為眾多知識產(chǎn)權(quán)正當(dāng)性理論之一,是與人工智能創(chuàng)造物的知識產(chǎn)權(quán)保護間矛盾最為突出的一個,該學(xué)說中財產(chǎn)權(quán)獲得前提“意志”、“人格”要素,都是人工智能本身所不具備的,但這些問題卻都能夠通過理論調(diào)適與制度調(diào)整予以克服。相應(yīng)地,其他知識產(chǎn)權(quán)正當(dāng)性理論無疑也都能依照相似的理論釋疑與制度調(diào)整路徑,實現(xiàn)對人工創(chuàng)造物知識產(chǎn)權(quán)保護的正當(dāng)性證成。