許中緣,鄭煌杰
(中南大學 法學院,湖南 長沙 410083)
2023年被認為是生成式人工智能(Generative Artificial Intelligence)的元年,也是人工智能(以下簡稱“AI”)領域的重要拐點,ChatGPT類應用的崛起標志著人類社會正在經歷一場知識革命。比爾·蓋茨坦言在其一生中只見到兩項真正具有革命性的技術,一個是用戶圖形界面(現(xiàn)代操作系統(tǒng)的先驅),另一個就是Open AI研發(fā)出的GPT模型。ChatGPT類應用之所以能現(xiàn)象級躥紅,主要是因為GPT模型在算法(如Large Language Models,LLM等大語言模型)方面實現(xiàn)了新的突破,即可以基于其訓練數(shù)據,獨立自主地創(chuàng)造文本、代碼、圖形等連貫性、具有意義的內容。這種人機互動、橫跨多領域應用、以及自我生成內容的技術特征,正在加快ChatGPT類應用與人類社會形成更加穩(wěn)固、泛在的聯(lián)系。為了促進生成式人工智能的健康發(fā)展,國家網信辦等七部門于2023年7月14日聯(lián)合公布《生成式人工智能服務管理暫行辦法》,其中明確了其適用范圍、責任主體認定、服務規(guī)范等方面內容,旨在促進生成式人工智能健康發(fā)展和規(guī)范應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益。
在上述背景下,針對生成式人工智能的理論研究亦十分火熱。然而,當前大多研究者都在關注生成式人工智能的潛在風險,如數(shù)據安全、算法侵權、生成內容版權不明等風險[1]。但現(xiàn)階段ChatGPT類應用在我國尚未全面推廣,能否合法應用于各領域也有待商榷,故提前進行嚴格地監(jiān)管與干預難免為時尚早,容易阻礙其技術的創(chuàng)新與發(fā)展。簡言之,對于生成式人工智能而言,既要關注其引發(fā)的安全風險,亦要重視其保護以賦能數(shù)字經濟的發(fā)展,后者則是當前學界研究甚少之處,即便有所論及,也是較為零碎化,沒有進行體系化研究。對于ChatGPT類應用保護的核心關鍵,在于生成式人工智能算法(以下簡稱“AI算法”)的保護,這是數(shù)字時代亟需回應的核心問題。對此,可將“如何對AI算法進行保護”這一問題,劃分為三個子問題:第一,對于AI算法而言,當前存在哪些保護路徑?第二,其應選擇何種保護路徑?第三,在確定某種保護路徑后,應如何基于其技術特征進行體系化展開?本文將基于以上問題展開論述分析,并提出針對性因應之策,希冀對生成式人工智能的規(guī)范應用與健康發(fā)展有所裨益。
與傳統(tǒng)計算機軟件算法(以下簡稱“傳統(tǒng)算法”)不同,AI算法的技術特征在于將預訓練和微調體系引入自然語言算法處理過程。前者通常只具備特定功能(如人臉識別、智能繪圖等),后者則在模型算法方面實現(xiàn)了新的突破,即事先對輸入的文本內容進行無監(jiān)督地“自主學習”,包括文本的語法、語義等,再利用Transformer模型構建能讓人們所理解的語言算法模型。也就是說,用戶輸入指令后,ChatGPT類應用將其轉化為算法語言數(shù)字序列,分析輸入內容的含義及特征,再生成算法語言數(shù)字序列,最后將其轉換為文本輸出(見圖1)[2]。簡言之,傳統(tǒng)算法是基于其程序運行來分析數(shù)據,而AI算法則是增加了接收和反饋的環(huán)節(jié),后者的技術要求更高。因此,對于AI算法保護路徑的分析也需基于其技術特征出發(fā),以精準回應其保護需求。
圖1 AI算法模型的運行機制
盡管AI算法運行依賴于外部數(shù)據輸入,但仍需要將抽象內容轉換為代碼。所以,AI算法的保護可以借鑒我國對于代碼保護的法律規(guī)定[3]。從技術層面來看,可以將計算機軟件分為文檔和程序兩部分。文檔主要是指計算機內的文字、符號或圖片,程序則可以劃分為“源程序”和“目標程序”①(1)①《基本術語:源程序,目標程序,翻譯程序》,源程序:用源語言編寫的,有待翻譯的程序,稱為“源程序”。源語言可以是匯編語言,也可以是高級程序設計語言(比如C++語言),用它們寫出的程序都是源程序。目標程序:是源程序通過翻譯加工以后所生成的程序。目標程序可以用機器語言表示(因此也稱之為“目標代碼”),也可以用匯編語言或其它中間語言表示,https://blog.csdn.net/dl0914791011/article/details/8161136,訪問日期2023年10月8日。,其主要是以0/1的代碼形式顯現(xiàn),這兩部分(程序和文檔)與著作權法中的“文字作品”十分相似。我國《計算機軟件保護條例》也明確規(guī)定,可以通過保護計算機軟件代碼的方式來實現(xiàn)對其保護①(2)①《計算機軟件保護條例》第三條:本條例下列用語的含義:(一)計算機程序,是指為了得到某種結果而可以由計算機等具有信息處理能力的裝置執(zhí)行的代碼化指令序列,或者可以被自動轉換成代碼化指令序列的符號化指令序列或者符號化語句序列。同一計算機程序的源程序和目標程序為同一作品。。申言之,如果AI算法是以代碼形式呈現(xiàn),那么就有可能納入上述規(guī)定的保護范圍。
誠然,AI算法采取著作權保護具有一定合理性,但這種保護路徑仍存在許多沖突之處:首先,計算機軟件設計的目的在于發(fā)揮功能性作用,而不是外觀表現(xiàn)形式。對于設計者來說,如設計的“作品”被他人侵權,其主觀訴求并不是想禁止他人復制程序的代碼,而是試圖阻止他人應用代碼設計出相同功能的“作品”[4]。其次,著作權保護的“思想/表達二分法”如適用于計算機程序保護,那么將難以區(qū)分“設計作品”究竟是屬于程序還是表達[5]。例如,在“Herbert Rosenthal Jewely Corp. v.Kalpakian”案中,原告指控被告復制了其珠寶造型蜜蜂箱的設計。美國第九巡回法院指出:有實質性證據表明,審判法院裁定被告的設計在事實上是一個獨立的設計。兩個人的設計都是建立在描述自然生物的基礎上。考慮到復制不需要意識這一原則,它可能是由在過去的某一個時候閱讀或視聽著作權作品的無意識記憶而產生的。由于獨立的創(chuàng)造可能是這樣一個事實,即法院不能以合理的理由確定被告是否復制了原告的作品,即使被告的行為構成復制,所取走的只是思想②(3)②See Herbert Rosenthal Jewelrey Corp. v. Kalpakian (446 F.2d 738).。再次,著作權保護只能禁止復制、傳播等行為,難以保護“作品”的思想內容。例如,設計者雖利用不同代碼,但設計出的程序功能卻相似,那么將此類行為定性為“侵權”則存在一定難度,無法保障原始設計者的“著作權益”。此外,則是關于著作權保護的“自動取得”和“保護期”設置。計算機軟件的更新速度遠遠短于“五十年”,采用“保護期”設置只會造成資源的浪費。而“自動取得”則可能為一些不法分子提供幫助,如設計者出于謀取非法利益設計算法,由于目前我國算法監(jiān)管制度尚不完善,故極易侵害他人的合法權益。
商業(yè)秘密通常是指具有秘密性、價值性、采取保密措施手段的技術性信息,由于其基本是處于封閉狀態(tài),故無法被公眾所獲知進行重復性研究。當前許多高新數(shù)字技術企業(yè)將創(chuàng)新性成果(涉及商業(yè)秘密內容)“物化”為前沿智能產品,如ChatGPT類應用、機器人等,這既讓其獲得了巨大的商業(yè)利益,也推動了數(shù)字經濟的發(fā)展。這些智能應用的研發(fā)方法,一旦公之于眾,各種山寨產品將可能層出不窮。所以,企業(yè)為了保護其研發(fā)成果,防止智能產品涉及的算法被他人模仿抄襲,通常是將算法視為一種商業(yè)秘密,不對外公開??陀^而言,商業(yè)秘密保護與本文提倡的專利保護相比具有一定的優(yōu)勢:第一,前者比后者所耗費的成本更低、所需承擔的風險更小。就算AI算法能獲得專利保護,但仍需要進行專利申請等程序步驟,這過程所涉及的成本往往較高,而且企業(yè)也無法保證其獲得專利保護后必定具有商業(yè)價值。因此,商業(yè)秘密保護可以說是一種“效益比”更高的路徑。第二,前者要件判定標準比后者低,即只需要滿足商業(yè)秘密的構成要件即可,同時企業(yè)自身也能自由決定是否需要對其進行保護。第三,前者并不用對外公開,就能夠直接使用,從而避免AI算法在專利審查過程中的“泄露”(公開)風險。
然而,商業(yè)秘密保護亦存在較大局限性:其一,這種保護路徑無法制止他人對AI算法相關軟件或程序進行破解以獲取源代碼,一旦源代碼被他人獲取,涉及的企業(yè)不僅將喪失競爭優(yōu)勢,還會失去對算法的獨家使用權。其二,商業(yè)秘密保護使得人們更難以知曉AI算法的決策過程,這將進一步加劇算法的“不可解釋性”。尤其在涉及財產利益、人身利益時,倘若AI算法缺乏透明度,一旦發(fā)生損害后果,被侵權人的合法權益將難以及時得到救濟。其三,采用這種路徑將加深數(shù)字鴻溝。在市場環(huán)境下,企業(yè)出于追求效率與效益的目的,可能無限擴張其私人權益,這將導致公眾權益日益限縮。例如,在當前的算法推薦服務(如“抖音”等APP的推薦內容)中,人們已經深陷信息繭房,卻毫不知情,類似的問題還包括“大數(shù)據殺熟”等現(xiàn)象頻發(fā),這些都將可能不斷擴大“數(shù)字弱勢群體”的范圍。
通常而言,技術應用需要以開源軟件為基礎,而開源軟件雖能夠隨意發(fā)布,但在發(fā)布時必須附帶軟件的源代碼,也要默認其他使用者修改或復制源代碼①(4)①開源軟件(Open Source Software,OSS)意味著每個運用它的人都可以根據自己的意愿修改、改進或利用軟件,而不受任何限制。因此,可以在現(xiàn)有開源軟件的基礎上針對自己的特定應用對其定制化。。當然,使用者在進行“二次發(fā)布”時也需承擔開源軟件的附帶義務,開源代碼相當于一種“代碼公共資源”,設計者只要遵循標識(編號)與禁止性義務,就可在此基礎上繼續(xù)設計新代碼[6]。申言之,開源代碼所遵循的義務既可以說是一種行業(yè)自律行為,也能認為是一種能夠促進代碼、軟件、程序等內容的創(chuàng)新機制。從框架開源,數(shù)據集、算法開源,再到模型開源,開源機制極大推動了AI在技術、應用等方面的發(fā)展。比如,基于開源社區(qū)的孵化,2022年最火熱的Stable Diffusion模型在不到兩個月的時間便流行開來,國內企業(yè)和研究機構也迅速跟進,如OneFlow將Stable Diffusion的圖片生成速度加速到1秒以內等②(5)②前沿開源技術領域解讀——開源AI,https://baijiahao.baidu.com/s?id=1757684243981702389&wfr=spider&for=pc,訪問日期2023年10月9日。。更重要的是,開源機制使得AI標準化和規(guī)模化趨勢開始成型,從算法的標準化開始,帶來了軟件標準化的機會,進而能夠打破技術壁壘,促進AI算法不斷地發(fā)展與創(chuàng)新。
不過,這種保護路徑也存在諸多風險:第一,大規(guī)模使用開源軟件,很容易引發(fā)知識產權侵權風險,如使用者不遵守開源許可協(xié)議導致版權侵權。又如,當開源軟件中包含諸多專利時,如使用者未得到專利權人的許可,那么也會引發(fā)專利侵權③(6)③根據新思科技《2021開源安全與風險分析報告》統(tǒng)計,2020 年審計的代碼庫中,65%的代碼庫包含存在許可證沖突的開源組件,通常涉及“GNU通用公共許可證”。版權侵犯風險與商標侵權風險較易規(guī)避,而專利侵權風險與許可證沖突則較難規(guī)避。。此外,既有許可力度小的開源軟件協(xié)議(如EPL、CDDL),也有許可力度大的開源軟件協(xié)議(如AGPL、GPL)④(7)④軟件授權協(xié)議有什么作用,例如GPL、Apache License、CDDL、EPL這些協(xié)議有什么區(qū)別?,https://www.zhihu.com/question/19962512/answer/2310308409,訪問日期2023年10月9日。,倘若使用者選擇不恰當?shù)膮f(xié)議,那么也會引發(fā)侵權風險。第二,開源機制雖然能對外共享相關代碼或軟件,但難免會有不法分子為了謀取私益,而故意發(fā)布一些“瑕疵軟件或代碼”,抑或是不標識軟件的“發(fā)源處”,這將造成其他使用者“無意”就實施了侵權行為[7]。第三,這種保護路徑具有一定的脆弱性。市場經濟本質上還是以私人利益最大化為導向,而AI算法的研發(fā)往往需要事先投入大量資源成本,故為了取得效益與效率的競爭優(yōu)勢,許多企業(yè)并不會積極主動地遵守行業(yè)自律規(guī)范[8]。
知識產權制度具有激勵創(chuàng)新和利益平衡的雙重功能,對AI產業(yè)發(fā)展乃至建設創(chuàng)新型國家具有不可替代的作用。AI算法的保護理應由知識產權制度來完成,各國的法律體系也基本采用這種路徑來實現(xiàn)這一目標。知識產權具有“權利束”的特征,可提供多種路徑來規(guī)制和保護AI算法。通過前文分析,現(xiàn)有制度中與AI算法緊密相關的著作權、商業(yè)秘密等保護路徑,都存在難以逾越的價值沖突困境。審視人類社會發(fā)展歷史,科技的創(chuàng)新與發(fā)展與專利制度存在緊密聯(lián)系,科技創(chuàng)新催生專利制度的建立,而專利制度的建立又對科技創(chuàng)新發(fā)揮著激勵、引導、保護的作用。簡言之,專利制度不是激勵和保護科技創(chuàng)新的唯一方法,但往往是最為行之有效的手段。專利法以“公開換保護”的制度機能,既能夠防范“算法權力”的社會風險,也能夠激勵AI算法的發(fā)展。因此,AI算法可適用專利保護,并可基于專利制度相關理論加以論證其保護的契合性。
上已述及,AI算法在處理數(shù)據過程中,能夠進行“自主學習”,進而生成“預測性”結果,這種技術特征使得人類的主導力量逐漸弱化。對此,分析AI算法能否獲得專利保護,首先需要闡釋的是專利制度的基礎理論——勞動理論與人格精神理論。易言之,可否在人類勞動和思想轉化為權利的過程中,加入“AI”這一客體要素。就勞動理論而言,洛克在《政府論》中已通過闡釋“財產”來引出該理論,即人們有權享有經由其勞動所取得的物品,該理論包括三個要素:勞動、先占、需求①(8)①約翰·洛克《政府論》財產權何以存在?如何取得財產?(上),https://baijiahao.baidu.com/s?id=1776161697532912621&wfr=spider&for=pc,訪問日期2023年10月12日。。其中“勞動”要素最為關鍵,人類勞動是取得財產的前提,只要物品在“生成”過程中加入了某人的勞動,那么就能認為其具有擁有該物品的正當性。雖然有學者對此理論適用于無形財產(如智力成果等)是否可行存疑[9]。但客觀來說還是具有可行性,因為無形財產無法被消耗,也不可能被消耗,故仍屬于洛克所預設的共有狀態(tài)。然而,將該理論引入AI算法的設計—運行—輸出階段過程中,會發(fā)現(xiàn)人類勞動部分占比較小。例如,深度學習算法在設計后,基本不需要人類的參與,就能自行分析處理數(shù)據,進行“自主學習”,甚至生成全新的算法。因此,貌似無法借助“勞動”這一要素與“專利權”相連接。但該問題的本質還是在于AI能否擁有法律主體地位,即AI的“勞動”能不能看作是“人的勞動”? 對此,有學者認為人類可以借助“仆人”(工具)的勞動獲得財產[10]。洛克則認為“仆人”本質上還是屬于“勞動”的一部分,因為其也是人類通過勞動所獲得。審視當下,大多數(shù)涉及AI的發(fā)明創(chuàng)造(包括ChatGPT類應用)基本都摻入了人們的“勞動”,即使這些“勞動”只起到一部分作用。此外,鑒于當前仍處于弱AI時代,雖然AI算法能通過“自主學習”生成全新算法,但并不意味著在這過程中完全不存在人類的“勞動”。所以,可以通過目的解釋,將AI算法涉及的“勞動”部分解釋成ChatGPT類應用的研發(fā)者、設計者、投資者等主體“勞動”的延伸。易言之,在勞動理論下,AI算法專利保護具有一定的正當性。
就人格精神理論而言,黑格爾在《法哲學原理》中提出“財產”的正當性,應當建立在人類的意志與人格之上②(9)②物權的人格化還是人格權的物化?——黑格爾論人格、人格權和物權,https://mp.weixin.qq.com/s?__biz=MzIxODM4NTgxOQ==&mid=2247486522&idx=4&sn=0da9877c01521e305def2dca02cea506&chksm=97ea10cea09d99d8ca284a6da9eba834c70d7012a8e312c85c56c25f8b6f072a0886ce852187&scene=27,訪問日期2023年10月13日。。在意志層面,人類的意識體現(xiàn)于對“物”的占有。此時的“物”應作廣義理解,既包括有形物,也包含“智力成果”等無形物,因為后者如果能夠“物化”,那么就有可能成為私人財產。在人格層面,則需要借助“財產”這一形式得以保障,倘若人類無法對己所有物享有支配權,那么將無法實現(xiàn)完整的人格自由。申言之,“財產”是人格與意志自由的前置要件,兩者能否完全實現(xiàn)也取決于對財產的占有狀況。相比于勞動理論,人格精神理論更契合專利法領域,即財產不一定需要有形化,就能獲得專利保護。在意志之上的人格是自由發(fā)展的,而意志對財產的占有取決于人的主觀意識形態(tài)。簡言之,“物”能否成為財產很大程度上受意志的影響,所以發(fā)明、技術抑或是AI算法等客體,只要人類在客觀上能夠對其享有支配權,那么其就具有成為“財產”的可能性,也就具備獲得專利保護的正當性[11]。
得益于算法、算力、數(shù)據相關技術的發(fā)展,ChatGPT類應用的浪潮才能興起。如今,AI算法正在應用于不同場景,其市場前景也被許多企業(yè)所看好,這使得企業(yè)通常是將其作為一種商業(yè)秘密進行保護,防止其相關技術未成熟時就被他人“竊取”,從而喪失市場競爭優(yōu)勢[12]。誠然,采取這種封閉式保護路徑雖有助于企業(yè)的私益保護,但難以充分發(fā)揮出AI算法的功能性作用。申言之,如選擇將算法進行公開及推廣使用,不僅會給人們生活帶來極大的便利,也能在公開共享開放的算法環(huán)境下,促進其不斷進行創(chuàng)新與發(fā)展,這正是功利理論之應用體現(xiàn)。
具體來說,功利理論的核心在于“利益驅動”,即以對價利益帶動人們創(chuàng)新的積極性,以個人利益的實現(xiàn)為基礎推動社會總體利益①(10)①如美國憲法對專利制度的功利理論提供了法律依據,美國憲法第一條第八款寫道:“為促進科學和實用技藝的進步,對作家和發(fā)明家的著作和發(fā)明,在一定期限內給予專利權的保障”,該條款直接將促進科技進步作為授予專利權的理據。。市場主體具有逐利的本性,如缺少利益的激勵,只會導致許多企業(yè)前期擔心風險而無法投入太多成本,進而阻礙AI算法的創(chuàng)新。對此,有觀點認為AI相關發(fā)明創(chuàng)造并不需要“專利激勵”,提出“無限猴子定理”,倘若猴子有大量時間去敲擊鍵盤,那么就有可能創(chuàng)作出經典或新型作品②(11)②“無限猴子定理”源于法國數(shù)學家埃米爾·博雷爾1913年出版的一本論述概率的書籍。他在書中提出,“想像有一百萬只猴子每天打字十個小時,那么將可能打出全世界藏書最豐富的圖書館里所有的書?!?。當時間基數(shù)足夠大時,即使概率低的事件也可能會經常發(fā)生。AI算法亦是如此,倘若具有足夠多的試錯時間,那么其也會生成具有技術特征的算法。然而,這種“試錯行為”未能體現(xiàn)出AI算法的本質。AI算法的最初“創(chuàng)造源泉”還是來自于人類,設計人員利用代碼搭建模型,代碼的編寫并不是“憑空捏造”的,往往需要借鑒已公開代碼的內容,在此基礎上不斷推陳出新。由此可見,在功利理論下,AI算法專利保護具有一定的必要性:既能夠營造出創(chuàng)新與發(fā)展的算法環(huán)境,其帶來的商業(yè)利益也會進一步提高企業(yè)自主創(chuàng)新的積極性。
事物皆有兩面性。AI算法在給人們帶來生活便利的同時,也引發(fā)了一系列安全風險。比如,意大利數(shù)據保護機構以保護個人信息與隱私為由,臨時封禁了ChatGPT,在Open AI采取相應措施后才解除封禁③(12)③意大利禁用ChatGPT!防止AI泄漏隱私成難題,https://baijiahao.baidu.com/s?id=1762157925960519593&wfr=spider&for=pc,訪問日期2023年10月14日。。美國AI與數(shù)字政策中心(Center for AI and Digital Policy)向監(jiān)管機關投訴,提出對OpenAI進行合規(guī)調查,并要求其在建立安全防護措施之前禁止發(fā)布新的AI模型④(13)④美國人工智能和數(shù)字政策中心向FTC提交投訴,敦促對OpenAI展開調查,https://www.weiyangx.com/421645.html,訪問日期2023年10月14日。。又如,當前許多科技企業(yè)正在研發(fā)AI自動駕駛,但由于難以解決AI算法的“不可解釋性”問題,導致這項技術至今無法得到全面推廣[13]。進言之,技術人員雖然可以通過破解目標程序或識別源程序的方式,進而推理出傳統(tǒng)算法的程序代碼,但AI算法在應用過程中,通常只能觀察到其神經網絡參數(shù),存在“算法黑箱”問題,導致無法及時規(guī)制其引發(fā)的安全風險。
在此前提下,亟需闡釋AI算法保護的特殊性,即對于AI算法的風險規(guī)制,應當是基于保護公共利益還是私人利益出發(fā)?自羅馬法之后,權力與權利的共存是法律的基礎,換言之,利益的保護不能局限于私人權利保護的“權利——義務”邏輯,而是應當將放在整個國家、社會的背景下進行綜合考量[14]。前述的勞動理論、人格精神理論與激勵理論,主要還是基于私人權利層面的分析,缺少對“政策性”“社會性”層面的解讀,而這正是公共利益理論的核心要素⑤(14)⑤公共利益理論(PublicInterest Theory)由施蒂格勒在1971年提出,旨在糾正市場失靈的缺陷,保護社會公眾利益,由政府對這些行業(yè)中的微觀經濟主體行為進行直接干預,從而達到保護社會公眾利益的目的。。就“政策性”而言,以英國專利制度為例,其就曾經通過為技術人員頒發(fā)許可證的方式,以合法授予其技術或產品的市場壟斷權⑥(15)⑥1449年,Utynam的一個名叫約翰的人以其彩色玻璃制造方法獲得為期20年的壟斷權。據史料記載,這是第一件英國發(fā)明專利,http://www.iprtop.com/swzlfl/info_8.html,訪問日期2023年10月15日。。以美國為首的科技強國亦然,為了能夠增強本國的科技實力,激勵企業(yè)自主創(chuàng)新,美國通過改革的方式促進其專利制度發(fā)展①(16)①美國科技創(chuàng)新歷史專題研究:從引入到創(chuàng)新、到引領全球,https://baijiahao.baidu.com/s?id=1751068440884123105&wfr=spider&for=pc,訪問日期2023年10月15日。。從“社會性”來看,有學者認為不是道德調節(jié)人們的生活,而是人們的生活調節(jié)道德,社會生活是社會道德的根本,后者隨著前者的變化而變化[15]。專利制度亦同,隨著社會生活的變化而不斷演變,社會責任、社會道德等體現(xiàn)“社會性”內容與專利制度息息相關。鑒此,我國現(xiàn)行專利法規(guī)定不予保護的范圍,不僅影響客體的專利授權,也體現(xiàn)了對公共利益的保護。例如,“疾病的診斷和治療方法”之所以無法成為專利客體,不是在于其不具有可操作性,而是出于社會道德與社會責任等層面的考量。簡言之,AI算法如采取專利保護,可最大實現(xiàn)其保護的特殊性:既有利于規(guī)制其引發(fā)的安全風險,在一定程度上也有助于保障公共利益。
“新型”技術方案或客體需滿足專利審查相關規(guī)定,才能獲得專利保護,而《專利法》第2條、第25條、第22條等涉及專利審查判斷的法律規(guī)定很多,這意味通過專利審查將十分困難。同時,AI算法復雜的技術特征又進一步加大其審查難度,這勢必會沖擊專利制度體系。對此,現(xiàn)行專利制度應立足于AI算法的技術特征,并從確定其專利客體屬性,明確其專利授權范圍,修正“專利三性”審查標準展開,以進行針對性地調整與回應。
在當前制度背景下,AI算法應定性為何種法律客體?其與相關客體又有何差異?這不僅是其適用專利保護的前置要件,也是防止引發(fā)重疊保護的關鍵所在,詳言之:首先,AI算法不同于“智力活動規(guī)則”。智力活動規(guī)則使得人類不僅能夠高效地進行分析、表達、記憶等思維活動,還能夠實現(xiàn)改造客觀世界的目的。在這過程中,人類既沒有使用技術手段或自然規(guī)律,也沒有解決相關技術問題,故智力活動規(guī)則也就不能屬于專利保護的“技術方案”,倘若對此類客體予以保護,可能會造成思想的“非法壟斷”。在“Benson”案中,法官認為算法等同于智力活動規(guī)則,并將后者定性為一種“思維過程”,認為其不屬于專利保護客體,故算法也不應受保護②(17)②See ottschalk vs.benson,409U.S.63(1972).。在“Parker v. Flook”案中,法官根據“新穎點測試法”來排除算法的“可專利性”③(18)③See Parker v. Flook,437U.S.584 (1978).。而在“Inre Freeman”案中,法官則推翻上述判例的結論,將算法定性為能夠解決某種特定問題的步驟,同時厘清了算法與數(shù)學公式的區(qū)別④(19)④See In re Freeman,573 F.2d 1237197 USPQ 464 (CCPA 1978).。自此案后,算法不再是直接被排除于專利保護客體范疇之外,而是會事先進行專利實質性審查。美國專利及商標局(United States Patent and Trademark,USPTO)也在2019年發(fā)布了《專利主題適格性指南》,其中明確了“抽象概念”的分類,這也使得AI算法區(qū)別于智力活動規(guī)則,具有可專利性⑤(20)⑤USPTO更新《2019年專利客體適格性審查指南》,就如何應用美國最高法院的Alice/Mayo測試法向專利審查員發(fā)出了新指示,該測試法用以確定一項權利要求是否指向“抽象概念”(abstract ideas)等不適格的客體,https://gdoip.com/dynamic/41.html,訪問日期2023年10月16日。。
其次,AI算法與“商業(yè)方法”存在差異。AI算法和商業(yè)方法的不同之處在于兩者的應用領域。商業(yè)方法應用于市場經濟領域,根據美國《商業(yè)方法專利促進法》的規(guī)定,其中將商業(yè)方法認定為商業(yè)信息處理過程涉及的技術方法,倘若其要獲得專利授權,需應用于商業(yè)領域⑥(21)⑥美國議員曾在《2000年商業(yè)方法專利促進法》的提案中指出,商業(yè)方法包含企業(yè)經營、管理、財務信息處理;競技、訓練或個人技巧;以及借助計算機輔助實施的如上方法,http://www.iprdaily.cn/article_18567.html,訪問日期2023年10月16日。。另外,商業(yè)方法可以與算法或計算機程序相結合應用,甚至能產生全新的用途。比如在“Benson”案中,法官就認為該案的“方法”無法獲得專利保護,判決依據在于該“內容”基本都是數(shù)字公式。在“Parker v. Flook”案中,專利審查人員也拒絕本案“方法”的專利申請,認為申請目的只是為了獲得數(shù)字公式的“專利權”。然而,在萬物互聯(lián)的商業(yè)模式下,商業(yè)流程的各個環(huán)節(jié)都發(fā)生巨大變化,線上與線下交易逐漸實現(xiàn)一體化,使得算法與商業(yè)方法具有緊密關系。易言之,在商業(yè)領域,二者往往是同時并用,一旦脫離此領域,“算法”和“商業(yè)方法”則存在較大差異,甚至可以說是不同的法律客體。
再次,AI算法區(qū)別于傳統(tǒng)算法。在技術層面,兩者有緊密聯(lián)系,但就法律層面而言,兩者卻有著不同意涵:一方面,后者通常以自然語言、計算機程序語言等形式表達,前者僅是因為目前較為先進的技術表達載體是計算機,才以該形式表達,如未來出現(xiàn)更為先進的“載體”(類似于計算機程序),那么AI算法也能以其他形式進行表達。另一方面,AI算法并不總是以代碼形式表現(xiàn)。傳統(tǒng)算法的代碼由設計者根據主觀喜好編寫,根據我國《專利審查指南》規(guī)定,具有技術特征的算法可納入專利客體范疇,換言之,倘若傳統(tǒng)算法滿足技術特征及相關專利審查要件,那么其可能獲得專利保護,反之則無法獲得保護①(22)①關于修改《專利審查指南》的公告(第343號):在《專利審查指南》第二部分第九章增加第6節(jié),內容如下:6.包含算法特征或商業(yè)規(guī)則和方法特征的發(fā)明專利申請審查相關規(guī)定:涉及人工智能、“互聯(lián)網+”、大數(shù)據以及區(qū)塊鏈等的發(fā)明專利申請,一般包含算法或商業(yè)規(guī)則和方法等智力活動的規(guī)則和方法特征,本節(jié)旨在根據專利法及其實施細則,對這類申請的審查特殊性作出規(guī)定。。然而,AI算法最大的問題在于,受訓練數(shù)據的影響,其源代碼會實時發(fā)生改變,甚至有時以神經網絡參數(shù)等非代碼形式表現(xiàn),因而其是否具有專利性,就存在較大的解釋空間。不過,一個“新型”的專利客體能否獲得專利保護,還是在于是否符合專利法規(guī)定。對此,我國《專利審查指南》不僅明確了“算法”可獨立于“計算機程序”,可單獨作為一種專利客體,還指出某種商業(yè)方法具有技術特征,那么其也可能獲得專利保護②(23)②《專利審查指南》(2020)第二部分:關于涉及計算機程序的發(fā)明專利申請審查的若干規(guī)定,第九章第六節(jié)。。申言之,倘若AI算法表現(xiàn)出的“技術特征”是超出法律描述的商業(yè)特征范圍,那么其就具有可專利性。
綜上,可以將AI算法視為一種特殊的專利客體,其應當被納入專門制度體系中。雖然AI算法與專利制度存在契合性,但也不能簡單地將其視作一種“新型”專利客體。一方面,AI算法是人類智力勞動的成果,只應用于解決特定的技術問題,而與起到區(qū)分作用的標識、文學藝術或者表達作用的作品相區(qū)別[16]。也就是說,其專注于解決如何實現(xiàn)設計人員所理解的智能這一特定技術問題,不是抽象意義的“智力活動規(guī)則”,也不被用于解決其他的技術問題。另一方面,強調AI算法作為一種特殊的專利客體,可以將其與傳統(tǒng)算法、商業(yè)方法等“相似”客體劃定清晰的邊界,也能使其與計算機程序等技術類著作權客體相區(qū)別。
我國于2020年修改的《專利審查指南》雖承認了“包含算法特征或商業(yè)規(guī)則和方法特征的技術方案”作為專利的客體,但其中并未涉及計算機程序和商業(yè)方法的審查規(guī)則,故仍然存在不足之處:一方面,忽略了算法與計算機軟件之間的實質性聯(lián)系,導致了對同一內容進行多重保護的局面。另一方面,沒有對算法和商業(yè)方法的概念進行闡釋,僅僅規(guī)定了審查的基準,反而使現(xiàn)有審查規(guī)則變得模糊不清③(24)③ 《專利審查指南》第六章第6節(jié):6.1 審查基準:審查應當針對要求保護的解決方案,即權利要求所限定的解決方案進行。在審查中,不應當簡單割裂技術特征與算法特征或商業(yè)規(guī)則和方法特征等,而應將權利要求記載的所有內容作為一個整體,對其中涉及的技術手段、解決的技術問題和獲得的技術效果進行分析。。鑒此,倘若AI算法可成為專利客體,那么亟需劃定其專利授權范圍。具體可從“正向界定”與“反向排除”展開:
就AI算法專利授權范圍的“正向界定”而言,可從技術領域、技術特征、技術高度入手。具言之:第一,單純的AI算法本身并不屬于專利客體。若一個方案的權利要求所保護的內容是數(shù)學算法,該算法在執(zhí)行過程中僅涉及數(shù)值計算,并僅提供數(shù)值型結果的改變,則該方案可被視為“智力活動的規(guī)則和方法”。以“基于特征選擇和決策樹的網絡異常分類規(guī)則提取方法”為例①(25)①國家知識產權局專利申請查詢:(專利申請?zhí)枮?01510916818.2)。,該發(fā)明基于混合人工智能技術實現(xiàn)網絡異常檢測,其中采用遺傳算法發(fā)現(xiàn)特征并利用決策樹算法作出決策,相比于單一的檢測方法,該方案提高了網絡異常檢測的準確性。然而,該方案未獲得專利授權,原因在于其并未解決某一領域具體問題,僅僅是一種普通的提高網絡異常檢測準確性的方法。第二,應用于技術領域,解決技術問題的AI算法可構成一種專利客體。以“基于深度學習的人臉關鍵點對齊算法”為例②(26)②國家知識產權局專利申請查詢:(專利申請?zhí)枮?01511028892.7)。,該發(fā)明提供了一種基于深度學習的人臉關鍵點對齊算法,該算法具有提高人臉識別準確性和效率的技術特征,因此可被視為一種專利客體。在一種基于貝葉斯網絡的網絡認知自適應算法中,貝葉斯網絡是一種數(shù)學模型,權利要求中的手段均是數(shù)學算法的推演,解決的也是數(shù)學問題。在其權利要求書中并未記載該方法應用于認知網絡的具體步驟或流程,故而貝葉斯網絡應當屬于一種數(shù)學方法③(27)③機器學習算法(二十七):貝葉斯網絡,https://blog.csdn.net/weixin_39910711/article/details/123600867,訪問日期2023年10月18日。。權利要求的主題名稱、權利要求所限定的全部內容均需要體現(xiàn)出算法的具體處理過程,如何與技術領域相關聯(lián),并且確定算法所解決的技術問題與產生的技術效果。第三,“有益的技術效果”在專利申請中具有重要意義。例如,美國《聯(lián)邦法典》第101條表明,那些能夠具體改進傳統(tǒng)技術的AI發(fā)明是符合專利資格的④(28)④《聯(lián)邦法典》(United States Code)第35編第101條(35 U.S.C.§101)明確了可授權專利客體的類別,即“任何新穎且有用的方法(process)、機器(machine)、產品(manufacture)或物質組合(a composition of matter)或其新而有用的改進”四種法定類型。。然而,歐洲專利局(European Patent Office, EPO)的技術上訴委員會不像簡單采取“貢獻”方法,而是提高了對“技術效果”的門檻,通過有效地添加新穎性和創(chuàng)造性評估來進行專利資格審查⑤(29)⑤論專利權在歐洲國家的多種保護途徑,https://zhuanlan.zhihu.com/p/476480786,2023年10月19日。。這一門檻既可以預防專利濫訴的現(xiàn)象,也使得那些不符合資格的技術方案能夠早期被駁回,進而提高行政效率。
就AI算法專利授權范圍的“反向排除”而言,主要是指AI算法在專利申請中被排除的情況。這種排除可以廣義解釋為不被視為專利客體或不授予專利權的客體,也可以狹義解釋為由于“專利三性”審查和公共政策要素的考慮而被排除于專利客體的技術方案。申言之,專利制度以激勵發(fā)明人為手段,促進社會創(chuàng)新和經濟發(fā)展,但并非所有對人類有益的事物都可以獲得專利權。AI算法在與具體特征相結合時的使用領域通常十分廣泛(如ChatGPT能實現(xiàn)跨領域應用),故在促進AI發(fā)展的同時,需要堅守專利法底線,警惕任何不正當獲得專利權的行為。具體來說:一方面,有悖公共秩序、倫理道德的AI算法不應授予專利權。AI系統(tǒng)由人類創(chuàng)造,人類的偏見和主觀判斷反映在算法中就會對人格尊嚴具有侵犯性。AI算法的自動決策若內含“歧視”則會導致算法的不平等性,進而侵犯人的法律主體地位[17]。另一方面,特定場景下(如醫(yī)療領域)的AI算法也不應獲得專利授權。如今,AI算法正在被運用于不同場景,如醫(yī)療、交通、教育等多個領域。在醫(yī)療場景中,AI算法通過對病人健康數(shù)據的積累和對診斷數(shù)據的了解,能夠輔助醫(yī)生在最短時間內做出決策,甚至能夠獨立生成醫(yī)療方案并實施,這與以往以醫(yī)生為主導開處方不同。AI算法在診斷與治療中的廣泛應用能夠增加方法的重復利用性,因為即使不同人的身體具有不同特征并且需要不同的治療方法,對于算法而言,這些往往只是輸入不同的數(shù)據,而如何選擇和判斷數(shù)據完全取決于算法內部設置的優(yōu)先級,這種判斷方法具有完全的重復性。然而,如果完全由AI算法決定疾病的診斷和治療方法,將會導致“算法黑箱”,威脅人的生命權。同時,若將此類算法及其技術特征賦予專利權,也會限制醫(yī)生在診斷過程中選擇方法的自由度。
專利客體審查通常是一種形式審查,“專利三性”審查標準則是一種實質審查。易言之,倘若AI算法需獲得專利授權,也應滿足上述要件。然而,AI算法的技術特征使得其與一般發(fā)明專利存在較大差異,這亦給現(xiàn)行專利審查標準帶來了巨大挑戰(zhàn)。專利審查部門若對此視而不見,也將會造成資源的浪費,打擊研發(fā)人員的積極性。為此,“專利三性”審查標準應基于AI算法的技術特征作出相應地修正。具體來說:
1.“新穎性”修正
新穎性一般采取“單獨比對原則”,其判斷標準主要有兩種:“心理創(chuàng)造力”與“歷史創(chuàng)造力”,前者是指相對于個人思想或某項技術而言是新穎的,后者則是指相對于整個歷史是新穎的,專利法上的新穎性標準主要指后者[18]。然而,AI算法“自主學習”的技術特征無疑加大了新穎性的審查難度:第一,專利審查部門難以將AI算法涉及的數(shù)據與現(xiàn)有數(shù)據庫進行全面比對。如ChatGPT類應用在數(shù)據收集、分析等方面具有天然的優(yōu)勢,其專利申請書涉及的數(shù)據內容可能來源于無法被公眾知曉的數(shù)據庫,這就給“與現(xiàn)有技術比對”審查帶來了困難。第二,AI能夠利用其智能性,利用語言替換方式生成“新型”技術方案,這使得其易被劃入“現(xiàn)有技術”范圍。申查人員可能會認為只要是相近詞組的專利申請內容,一般不具有新穎性。對此,AI算法專利的新穎性審查標準應作出如下調整:
一方面,單獨比對原則的審查范圍應不限于“申請日前被公眾知曉”的技術領域。也就是說,應限縮“現(xiàn)有技術”范圍,防止申請者惡意使用“同意替換”的方式生成“新型”技術方案[19]。以美國網站“All Prior Art.com”為例,該網站對已公開的專利申請書內容進行歸納、分析、總結,生成“潛在”的專利權利要求書,以對已獲得的專利權進行防御保護①(30)①All Prior Art.com網站利用人工智能算法,通過重新排列短語,或用替代定義、同義詞或反義詞來替換術語產生大量的從形式看具有新穎性的權利要求及其排列組合,https://www.163.com/dy/article/I7J3U7J6051187VR.html,2023年10月20日。。然而,這種方式必然將擴大現(xiàn)有技術范圍,使得原本具有新穎性的專利技術無法獲得保護。由于AI算法專利的申請也能利用替換詞匯的方式生成新“技術方案”,故審查人員應適當排除“不合理技術范圍”。另一方面,專利申請人應當公開和AI生成發(fā)明相關的數(shù)據內容,包括數(shù)據的來源、種類、數(shù)量等。理由在于:其一,數(shù)字技術發(fā)展使得數(shù)據容量不斷擴大,這加大了審查人員對現(xiàn)有技術的檢索難度,無法對現(xiàn)有技術進行“徹底”地比對,這將導致專利法適用的不確定性。以《美國發(fā)明法案》第112條為例,其中就明確規(guī)定專利申請人應公開其技術方案的來源方式②(31)②《美國發(fā)明法案》(America Invents Act)中,第112條對權利要求書和說明書的不清楚問題進行了規(guī)定,主要包括以下六個方面:(a)一般規(guī)定(in General)(b)結論(Conclusion)(c)格式(Form)、(d)從屬權利要求援引其他權利要求(Reference in Dependent Forms)(e)含有多項從屬權利要求的權利要求援引其他權利要求(Reference in Multiple Dependent Form)(f)組合發(fā)明的權利要求構成要素(Element in Claim for a Combination)。。其二,由于ChatGPT類應用的運行本質上屬于“數(shù)據訓練”過程,所以其專利申請審查要求公開涉及的數(shù)據內容,也具有一定的合理性。其三,AI算法的“自主學習”特征使得生成的技術方案繁多復雜,易增加專利審查人員的負擔,造成作出錯誤的判斷,故申請人應盡可能公開專利相關內容,以降低審查人員無意義的勞動消耗。
2.“創(chuàng)造性”修正
我國對于創(chuàng)造性審查分為三步驟:其一,確定與專利申請相類似的“現(xiàn)有技術”內容。其二,明確兩者之間的差異,以及各自能解決哪些技術難題。其三,相關技術領域人員能否直接應用該專利。然而,AI算法專利申請加大了創(chuàng)造性的審查難度:一方面,審查人員難以精準判定AI算法的應用領域。在過去,AI發(fā)明通常應用于特定領域,如AlphaGo應用于圍棋比賽領域,“Siri”應用于蘋果語音助手等。但如今,AI算法正在實現(xiàn)跨領域應用,如深度學習算法能夠應用于自動駕駛、人臉識別等領域,ChatGPT類應用不僅能撰寫郵件,還能設計代碼等。申言之,AI算法應用范圍越廣泛,其應用領域就越難確定,這可能導致其無法通過現(xiàn)行創(chuàng)造性審查標準。另一方面,審查人員也難以確定AI算法能否促進現(xiàn)有技術的發(fā)展。AI算法具有高效分析、處理數(shù)據等功能,因此其專利申請者容易利用此類技術特征來“混淆”其技術效果,進而“模糊”其創(chuàng)造性審查。對此,可以結合“普通技術人員”①(32)①我國《專利審查指南》規(guī)定,“普通技術人員”指一種擬制的“人”,雖然不具有創(chuàng)造能力,但是知曉申請日或者優(yōu)先權日之前發(fā)明所屬技術領域所有的“一般技術知識”以及所屬領域的“現(xiàn)有技術”,并且具有應用該日期之前常規(guī)實驗手段的能力?!耙话慵夹g水平”這一要素以前兩個要素的確定為前提和基礎,是實踐操作問題而非理論問題,故而不在本文討論。、“一般技術知識”以及“現(xiàn)有技術”三要素進行綜合判斷,以修正創(chuàng)造性審查標準[20]。具體來說:
第一, 擴大“技術領域”的審查范圍。在未來,AI的發(fā)展越趨近甚至超越“人腦”,其應用范圍將不再束縛于特定技術領域,而是實現(xiàn)跨領域通用型AI(ChatGPT類應用已呈現(xiàn)出該趨勢),故判斷其是否具備“創(chuàng)造性”,應當綜合考量其涉及的所有應用領域。第二,“普通技術人員”對于申請專利的技術水平理解,應當符合“現(xiàn)有技術”水平。美國最高法院就曾提出,對于“創(chuàng)造性”審查需要考慮現(xiàn)有技術的發(fā)展水平,我國《專利審查指南》雖未明確提出專利申請人需要說明專利發(fā)明創(chuàng)造方法,但也應滿足一個前置條件:通過對比特定領域的“一般發(fā)明實踐”或參考“行業(yè)趨勢”,以判斷AI的“應用”水平(有無創(chuàng)造性)②(33)②1966年在Graham案中,美國最高法院對《專利法》第103條加以解釋,提出了“非顯而易見”判斷的“Graham要素”:決定現(xiàn)有技術的范圍和內容;明確現(xiàn)有技術與所審查的權利要求之間的區(qū)別;確定本領域技術人員的水平。商業(yè)上的成功、長期渴望解決的技術需求、他人的失敗等輔助判斷因素,可以用來評價專利申請的技術方案所處的技術背景。。第三,既需要有“普通技術人員”的設定,還應根據不同技術背景進行靈活調整。例如,在“Environmental Designs,Ltd.v.Union Oil Co”案中,法院確定“普通技術人員”標準時會考慮多個因素:發(fā)明人的教育水平、現(xiàn)有技術解決問題的方法、技術的成熟度等③(34)③See Environmental Designs, Ltd. v. Union Oil Co., 713 F.2d 693, 696, 218 USPQ 865, 868 (Fed. Cir. 1983).。這些因素在每個案例中并非都必然存在,而在一個具體案例中,一個或多個因素可能占主導地位。美國法律對于發(fā)明的可專利性并不基于發(fā)明方式來判斷,即無論是天才般的“靈感閃現(xiàn)”還是技術人員的“長期努力”都可以獲得專利權。對此,有學者則提出可根據現(xiàn)有技術水平,來調整“普通技術人員”的技術標準[21]。也有學者認為,特定技術領域應用的AI可以替代“普通技術人員”[22]。還有學者認為,“普通技術人員”的范圍,應是AI的使用者抑或是AI本身[23]。上述觀點并未與我國現(xiàn)行創(chuàng)造性審查標準存在較大沖突,故可為其修正提供理論方向。
3.“實用性”修正
我國對于實用性的審查也是分為三步驟:其一,發(fā)明專利能否“再現(xiàn)”。其二,專利能否解決特定技術問題。其三,專利能否產生特定技術效果。然而,AI算法的技術特征也沖擊了該審查標準:首先,專利申請者難以確保能“再現(xiàn)”AI算法相關應用?!霸佻F(xiàn)”的要求是能夠重復實施,而AI算法設計初雖有人類參與,但在設計后其主要依靠“自主學習”,逐漸演變成一種“技術黑箱”。其次,專利申請者也無法確定AI算法能否解決特定技術難題。正如EPO曾提出,一項發(fā)明能否解決技術難題,有時是隱藏于在技術領域之外④(35)④歐洲專利公約(European Patent Convention,EPC)沒有對術語“發(fā)明”和“技術”給出積極的定義。但是,具有技術性是EPC第52條意義上的發(fā)明的隱含要求。由于一項發(fā)明只有在涉及EPC第52條的(2)所列項目時才會被排除在可專利性之外。。再次,AI算法的“不可解釋性”使得專利申請者,也無法確定其會產生特定的技術效果。鑒此,AI算法專利的實用性審查可作以下調整:
一方面,嚴格審查AI算法的“技術效果”。首先,應將“技術效果”作為評估AI算法專利的核心因素。對于AI算法來說,技術效果的實現(xiàn)需要考慮其效益,即能夠創(chuàng)造商業(yè)價值和經濟利益,旨在確保其專利權授予是有意義且合理的。其次,還必須考慮AI算法對社會和人類生活的積極影響。專利審查人員應當根據實用性標準中的“技術方案對社會產生積極效果”的要求,評估AI算法的社會效益和貢獻,這包括但不限于對提高人類生活質量、減少資源消耗和環(huán)境影響的潛力,以及對社會公共利益的積極影響。再次,還需要關注AI算法及其相關發(fā)明是否符合道德和倫理規(guī)范。AI技術的發(fā)展對人類社會帶來了許多倫理和法律挑戰(zhàn),如隱私保護、數(shù)據安全、算法偏見等。因此,審查人員需要通過專利審查過程中的倫理審查環(huán)節(jié),對AI算法及相關發(fā)明進行道德和社會價值層面進行綜合考量,排除那些違背倫理規(guī)范、危害社會公共利益的專利申請。
另一方面,加入“人類干預”這一要素。AI算法技術效果的審查是一個具有抽象性和模糊性的過程,如果缺乏人類參與,算法可能會脫離人類的控制。因此,有學者提出“是否存在人類參與”應成為評估算法積極效果的一個因素[24]。在AI相關發(fā)明的創(chuàng)造過程中,人類有責任承擔事前預防、及時中止和事后審查的義務,從而實現(xiàn)對AI算法全過程的監(jiān)督,盡可能降低其“不可解釋性”。詳言之:首先,在AI算法設計之初,人類參與“事前預防”能夠幫助設計者指引算法的設計方向,以確保其與社會、道德和法律價值保持一致。通過規(guī)定和約束AI算法的設計目的,可以有效引導算法產生積極效果,以滿足社會需要。其次,在AI算法運行過程中,人類參與“及時中止”也是不可或缺的。特別是當算法決策涉及復雜、敏感或高風險領域時,如醫(yī)療診斷、法律判斷等,人類具有判斷能力、倫理意識和情感理解,可以識別出算法存在的潛在問題,并及時采取措施糾正錯誤,從而保護公眾利益和個體權益。最后,人類參與“事后審查”能夠分析算法決策的結果,并對其進行評估和改進。通過搜集數(shù)據、觀察反饋等審查行為,可以有效掌握AI算法實施的真實效果和潛在風險,以便對其進行進一步優(yōu)化和調整。
以ChatGPT為代表的生成式人工智能應用的誕生,標志著AI技術即將邁向一個新的起點。如今,各個領域中智能產品和服務的出現(xiàn)越來越頻繁,社會公眾對于“算法”這一原本晦澀的技術概念也變得更加熟悉。在現(xiàn)實生活中,生成式人工智能算法的設計和研發(fā)工作充滿了困難和挑戰(zhàn),同時也極大地依賴于數(shù)據供給和龐大的資源投入。因此,保護其知識產權具有合理性和必要性。然而,現(xiàn)有著作權、商業(yè)秘密、行業(yè)自律保護路徑均存在局限性,無論是從理論層面還是出于實踐層面的考量,生成式人工智能算法采取專利保護可謂是最優(yōu)解。在專利保護體系下,亟需厘清生成式人工智能算法與相關客體之間的差異,將其視為一種特殊的專利客體,爭取納入到專利制度范疇,充分利用專利制度中的“公開換保護”機制,促使更多的技術信息從“黑盒”狀態(tài)向開放狀態(tài)轉變。同時,基于其技術特征,劃定其專利授權范圍,修正“專利三性”審查標準,構建契合生成式人工智能算法的可專利性規(guī)則,以助于我國搶占數(shù)字時代發(fā)展先機,解決“卡脖子”難題,盡快實現(xiàn)從“跟跑者”向“領跑者”的歷史跨越。