劉博涵
(貴州大學法學院,貴州 貴陽 550025)
隨著新一代信息網(wǎng)絡技術的加速迭代,人工智能算法持續(xù)得到優(yōu)化。在人工智能算法的加持下,一種由計算機根據(jù)現(xiàn)代投資組合理論,針對投資者的特征或者偏好,自動計算并提供投資組合配置建議的投資理財顧問——智能投顧(Robo-advisory)應運而生。智能投顧具有降低投資門檻、提高投資理性、滿足投資者個性化需求等優(yōu)勢[1],但也在某種程度上削減了金融機構(gòu)的KYC(Know Your Customer)義務,架空了金融產(chǎn)品推介中的KYP(Know Your Product)原則①。投資者可能面臨淪為算法“奴隸”、遭受算法宰制的風險。對此,算法透明作為規(guī)制算法最廣為人知的手段,在學界受到廣泛推崇②。然而,算法透明意味著算法秘密性的滅失,這將導致算法控制者在市場競爭中喪失技術優(yōu)勢,對算法開發(fā)和創(chuàng)新產(chǎn)生逆向激勵,不利于市場競爭機制的維護和算法技術進步。
面對算法透明和算法保密③的利益沖突,有學者認為數(shù)字時代是技術對人類的理解越來越深刻而人類卻無須理解技術的時代,算法透明將帶來算法趨同、信息過載和貶抑創(chuàng)新等負面效應[2];另有學者認為,只有算法透明才能揭示隱藏于技術中立外衣下的算法歧視,確保算法開發(fā)、應用不偏離“以人為本”的軌道[3]。但在算法透明的具體實現(xiàn)進路上,由于人工智能算法應用具有廣泛性,當前的研究大多關注相對寬泛的利益權衡領域,止步于規(guī)制算法保密的方向性指引層面。有鑒于此,本文聚焦于智能投顧算法透明與算法保密價值沖突的具體語境,針對智能投顧算法給投資者適當性制度造成的沖擊,辯證算法透明與算法保密的利益平衡,提出有層次的算法透明方案,探求智能投顧算法透明的實現(xiàn)路徑。
基于大數(shù)據(jù)分析的智能投顧相較于傳統(tǒng)的自然人投資顧問掌握了更多、更全、更新的金融數(shù)據(jù),同時擁有人力無法企及的數(shù)據(jù)處理能力,因而能夠更有效地生成投資者畫像、了解投資者的風險承受能力、識別適格投資者,進而更好地落實投資者適當性原則[4]。然而,當下新興事物都是價值與風險的矛盾統(tǒng)一體,隱藏在智能投顧背后的算法絕非人們想象的那般理性、中立、客觀。算法既不可能抽象于運算模型設計者的系統(tǒng)設定而存在,也不可能抽象于運算模型所關聯(lián)的人而存在[5]。相反,智能投顧可能會將傳統(tǒng)人工投顧意圖規(guī)避法律而實施的一些違法操作植入算法,造成對投資者利益的持續(xù)掠奪。同時,智能投顧還存在投資者風險錯配、法定義務架空等負面效應。
一般來說,金融機構(gòu)在使用智能投顧為投資者定制個性化的資產(chǎn)配置方案時,投資顧問服務費是其最主要的收入來源。以美國智能投顧領域的明星公司Betterment 為例,該公司根據(jù)投資者賬戶余額計算年費,藉此向投資者收取服務費。公司的投顧服務費大致是賬戶余額的0.15%~0.35%,投資金額越大,費率越低。具體而言,當投資者的賬戶余額低于100 美元時,公司每月收取3 美元的服務費;賬戶余額為100~10000 美元時,公司每年收取賬戶余額0.35%的服務費;賬戶余額為10000~100000 美元時,公司每年收取賬戶余額的0.25%作為服務費;如果投資者的賬戶余額超過100000 美元,公司每年收取的服務費僅為賬戶余額的0.15%。美國Wealthfront 公司甚至對賬戶資金余額低于10000 美元的投資者免收服務費,對高于10000 美元的部分每年僅收取0.25%的服務費。同時,投資者還可以通過邀請新客戶加入的方式獲得服務費減免和轉(zhuǎn)賬費用補償,以進一步降低服務費用[6]。
與低廉的投資顧問服務費相比,智能投顧系統(tǒng)的研發(fā)成本和日常運營維護費用十分高昂,單純收取投資顧問服務費常常無法維持智能投顧公司的運營,更難以盈利。此種業(yè)態(tài)勢必“逼迫”智能投顧公司從其他的渠道“開源”。在我國,彌財、藍海智投、摩羯智投等頭部智能投顧平臺都策略性地不收取投資顧問服務費或者收取很低的服務費,那么它們靠什么維持運營和盈利呢? 這些平臺背靠成熟的金融產(chǎn)品公司,主要依靠銷售金融產(chǎn)品獲利。具體而言,智能投顧公司通過算法設計,在為投資者生成資產(chǎn)配置方案時有意識地抓取銷售附加值高的金融產(chǎn)品數(shù)據(jù),提出具有強烈自益導向的投資咨詢建議[7]。在這樣的算法設計中,投資者利益和投資者適當性并不位于最高優(yōu)先級,智能投顧公司的銷售提成反而被優(yōu)先考慮??此瓶陀^的算法實際藏于黑箱之中,淪為掩飾智能投顧公司掠奪投資者利益的工具。
在大數(shù)據(jù)時代,無論個人的出生日期、學歷背景、婚姻狀況、職業(yè)情況等身份信息,還是虹膜、指紋、面部圖像等生物信息,抑或出行方式、購物頻次、消費水平、運動強度等行為信息,都在時時刻刻被采集與數(shù)據(jù)化?!霸诖髷?shù)據(jù)俯瞰的視野下,我們每一個人無異于‘裸奔’”[8]。數(shù)字時代賦予了每個人生物和數(shù)字的雙重屬性,投資者畫像便是投資者在現(xiàn)實世界中投資活動的數(shù)字化表達。通過問卷“讀取”投資者的性別、年齡、家庭情況、收入狀況、可投資資產(chǎn)、風險偏好、投資期限、投資目標等特異性個體信息,使用一定的算法將現(xiàn)實世界的投資者“還原”成數(shù)據(jù)意義上的投資者,這些都是實現(xiàn)智能投顧的前提。只有生成精準的投資者畫像,才可能根據(jù)投資者的風險承受能力和投資目標為其匹配最優(yōu)的資產(chǎn)配置方案。正是基于這個原因,投資者畫像被認為是數(shù)字時代實現(xiàn)投資者適當性KYC原則的最佳方式。
然而,即便智能投顧系統(tǒng)掌握了某個投資者當前的財務狀況及其過往的一切投資活動,它對該投資者的投資偏好仍然可能存在誤判,生成的投資組合方案仍然可能與該投資者的風險承受能力不匹配。這是因為投資者的風險承受能力可以分為客觀承受能力和主觀承受能力,而投資者的財務狀況只能反映其對投資風險的客觀承受能力[9]。將投資者的風險承受能力等同于其財務狀況是對“風險承受能力”的重大誤解。對投資者風險承受能力之主觀要素的忽視是導致投資者畫像失真進而造成投資組合方案風險錯配的重要原因。此外,智能投顧的算法也不可避免地存在缺陷甚至錯誤,并不能保證每一次、針對每一位投資者都能生成適配度最高的投資組合方案。例如,人工智能中廣泛應用的貪心算法(Greedy Algorithm)④在求解每一個子問題時總是使用當前的最優(yōu)方法來實現(xiàn),但這并不能保證最后的解也是最優(yōu)的。
在傳統(tǒng)的自然人投資顧問模式下,投資者與金融機構(gòu)、投資顧問的關系是委托人與受托人的關系,金融機構(gòu)、投資顧問對投資者承擔信義義務[10]。如果投資顧問疏于履行合規(guī)義務、審慎義務、投資者適當性義務等法定義務進而導致投資者損失,將需要承擔對投資者的賠償責任。智能投顧的出現(xiàn)使金融投資顧問活動變成人與機器混合的過程,其中既有幕后技術人員根據(jù)金融從業(yè)人員的先驗常識、專業(yè)判斷、邏輯推理和利益考量設計的程序,也有臺前機器根據(jù)投資者輸入的信息與算法生成的投資組合方案。人工智能的介入很可能使其成為人類錯誤的“背鍋俠”。
在當前的智能投顧業(yè)務中,投資者“輸入”自己的資產(chǎn)狀況、風險偏好和投資目標并由投顧系統(tǒng)“輸出”投資組合方案的過程僅需金融機構(gòu)工作人員的輔助即可完成,甚至可以完全由投資者自助完成。這一過程看似改變了傳統(tǒng)自然人投資顧問與投資者一對一、面對面的投資咨詢過程,實際上依然是投資咨詢機構(gòu)通過智能投顧的長臂在接觸投資者、收集投資者信息、獲知投資者需求。智能投顧系統(tǒng)只是金融機構(gòu)延伸出去的長臂,是金融機構(gòu)的電子代理人。如果法律主體使用電子代理人作出意思表示,其行為的法律后果應歸諸于使用者[11]。而隨著強人工智能時代⑤的到來,人工智能設備逐漸具備深度自主學習的能力,能夠自主思考和行動,不受開發(fā)者預設的指令約束,進而超出人類可以預見和控制的范圍。強人工智能下的智能投顧通過神經(jīng)網(wǎng)絡自主學習、經(jīng)過算法處理海量數(shù)據(jù)后生成的投資決策是程序設計者和運營者也無法預測的。如果智能投顧通過自主學習生成與設定目標相左的投資方案進而造成投資者損失時,投資損害的因果關系極易歸咎于技術風險而導致“買者自負”,現(xiàn)行法律約束投資顧問的忠實義務、謹慎義務和信義義務等都將被架空。
鑒于大數(shù)據(jù)金融智能投顧的負面效應,受算法影響的投資者權益得到了法律的緊密關切。例如,歐盟《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,GDPR)第14 條和第22 條規(guī)定,如果個人數(shù)據(jù)被用于用戶畫像、自動化決策等場景,數(shù)據(jù)控制者須向數(shù)據(jù)主體提供算法邏輯以及此類處理對數(shù)據(jù)主體的預期后果,以確保涉及數(shù)據(jù)主體的決策合理、透明。盡管從消除智能投顧負面效應的角度出發(fā),受算法影響的投資者有理由要求算法透明以保障其合法權益,但在利益沖突的另一端,算法多以商業(yè)秘密、專利加以保護,算法保密還是算法控制者在激烈的市場競爭中保持商業(yè)優(yōu)勢的重要保障,因此維護算法的保密性亦有其正當性。
在智能投顧的服務過程中,投資者只能看見數(shù)據(jù)輸入和方案輸出的客觀事實和決策結(jié)果,對算法系統(tǒng)的設計原理、計算機制、程序運行和決策依據(jù)等一無所知。存在于數(shù)據(jù)輸入和結(jié)果輸出之間的決策層深深地隱藏于算法黑箱之中。對此,人們直覺上的第一反應便是“開箱”。通過打開算法黑箱,將“陽光”灑落在智能投顧自動化決策的全過程,藉此識別智能投顧黑箱中的算法歧視和算法霸權,查明算法決策與投資者損害結(jié)果之間的因果關系。
當前,人們對算法透明原則的認知可謂言人人殊,其中最具代表性的是美國學者弗蘭克·帕斯奎爾(Frank Pasquale)的論述。帕斯奎爾認為算法透明包括代碼公開、算法分析和算法審計等,只有綜合以上手段才能合理促成算法透明[12]。有國內(nèi)學者批評帕斯奎爾的理論模糊了算法透明和其他規(guī)制手段的界限,會給理論研究和實務應用帶來很大麻煩[13],但不得不承認,源代碼披露、輸入數(shù)據(jù)和輸出結(jié)果公開等手段仍然是當前學界普遍認同的算法透明原則的要素集合。
算法透明顯然符合受算法影響之投資者的利益訴求,因為算法透明有助于打破智能投顧的“算法暴政”。如果智能投顧的自動化決策算法不公開、不提供算法解釋、不接受投資者質(zhì)詢、不進行權利救濟,投資者便無從知曉算法中是否嵌入了操控性程序,無法確信系統(tǒng)生成的投資組合方案是否最合適,其權利救濟更是無從談起,只能接受算法的宰制和“暴政”[14]。只有通過算法透明,投資者才可能獲知自身的財務信息和風險偏好如何與資產(chǎn)配置方案發(fā)生關聯(lián),才可能進行權利救濟。
此外,算法透明也有助于消除智能投顧的“算法歧視”。在人們的普遍認知中,歧視、偏見專屬于人類這種擁有主觀立場的動物。以算法驅(qū)動的人工智能代表著冷靜、理性和客觀,算法決策似乎為實現(xiàn)人們苦苦追求的絕對公正帶來了福音。而事實并非如此,人工智能的“成長”離不開數(shù)據(jù)的“投喂”,這種“投喂”如同人生閱歷形塑人類主觀立場的過程。也就是說,算法也是擁有主觀立場的。不同的主觀立場深刻影響著算法的決策結(jié)果,隱藏其中的偏見、歧視更難以察覺。因此,消除“算法歧視”也是算法透明的重要理據(jù)。
最后,算法透明還是對算法操控者問責的基本前提。如前所述,智能投顧的“人機混合”使得決策失誤導致投資者損失的因果關系難以確定,投資者損失很容易被歸咎于技術風險。對此,算法透明讓投資者能夠一窺算法的“大腦”,探知資產(chǎn)配置組合決策生成的全過程,算法運行過程中出現(xiàn)的精確性偏差和算法偏見都可能被發(fā)現(xiàn)和察覺。即便投資失敗的損失已經(jīng)“覆水難收”,投資者也可以依據(jù)算法透明所披露出來的因果關系向算法設計者或者算法運行者主張賠償責任。
與歐盟治理算法強調(diào)私人權利保護、公平競爭秩序以及社會公共利益不同,美國采取了更加自由與開放的治理策略。搜索王訴谷歌案(Search King,Inc v.Google Tech, Inc)⑥奠定了美國司法部門對算法應用中利益沖突的基本態(tài)度。在該案中,法院認為每一種搜索引擎確定搜索結(jié)果的算法都不同,這意味著每一種搜索引擎都在表達各自不同的意見,而搜索引擎有權依據(jù)自身獨特的算法“說”出自己的意見。根據(jù)算法呈現(xiàn)的搜索結(jié)果代表了谷歌公司的言論,而言論自由屬于美國憲法上具有不可剝奪性的絕對權利,無論谷歌公司如何通過算法調(diào)整、呈現(xiàn)搜索結(jié)果,都等同于谷歌在發(fā)表自己的意見,任何人都不得干涉谷歌公司的“算法(言論)自由”。
而在威斯康星州訴盧米斯案(State v.Loomis)⑦中,法院則將算法認定為商業(yè)秘密。法院使用基于算法的COMPAS 風險評估工具,根據(jù)盧米斯的訪談和犯罪史對其進行累犯風險評估,在此基礎上對盧米斯判處刑罰。盧米斯認為法院僅根據(jù)評估方法并不公開的COMPAS 系統(tǒng)就對其作出累犯風險評估,侵犯了其基于精確信息被量刑的權利和獲得個性化判決的權利,因此要求公開COMPAS 系統(tǒng)的算法。法院認為,盧米斯可以對COMPAS 系統(tǒng)生成的報告進行否認或解釋,從而驗證法院判決依據(jù)的準確性,但不能要求公開COMPAS 系統(tǒng)算法,因為COMPAS 系統(tǒng)背后的算法屬于商業(yè)秘密。法院最終駁回了盧米斯對量刑程序的異議。
被看作商業(yè)秘密的人工智能算法在美國法中受到嚴格保護,是因為作為知識產(chǎn)權保護客體之一的商業(yè)秘密一旦遭到侵犯,勢必會阻礙科技進步,進而侵害人民的福祉。而無論被視為“言論”還是“商業(yè)秘密”,算法在美國都受到了法律的嚴格保護,法官不會要求算法設計者或者運營者以公眾能夠理解的方式說明算法的工作原理,更不會要求其公開算法代碼,算法黑箱被視為人工智能時代的正?,F(xiàn)象,是人們享受算法帶來的便利的同時必須承受的合理代價[15]。事實上,美國對算法的負面效應采取“綏靖政策”在某種程度上來說也是為了維護其自身在人工智能領域的國際領先地位,便于本國科技巨頭在全球拓展業(yè)務[16]。
此外,在數(shù)字經(jīng)濟時代,算法也是科技公司的核心競爭力。將智能投顧背后的算法視作商業(yè)秘密加以保護同樣符合金融機構(gòu)的利益,是金融機構(gòu)保持市場競爭力的現(xiàn)實所需。申言之,算法是設計者為解決特定問題設計的有限且明確的操作步驟,表現(xiàn)為源代碼和目標代碼,是源代碼向目標代碼轉(zhuǎn)化的技術措施。源代碼的秘密性是算法控制者擁有并保持獨特市場競爭力的核心因素。源代碼一旦失去秘密性,算法控制者的市場競爭力便不復存在。因此,通過法律保護算法、維持算法黑箱在一定程度上既是國家維持科技競爭力的需要,也是科技企業(yè)保持市場競爭力的需要。
出于維護算法控制者市場競爭力、激勵技術創(chuàng)新的現(xiàn)實需要,將算法認定為言論或者商業(yè)秘密都將為算法提供強大的法律保護。而為了避免算法暴政對投資者權利的侵害,可能目前唯一的方法只能是“攻破”算法黑箱,盡量使算法透明化。在此之間的矛盾可以“轉(zhuǎn)譯”為算法保密與算法透明之間的價值沖突。由于算法保密和算法透明都具有一定的正當性,因此解決問題的重點便來到如何實現(xiàn)算法保密與算法透明的利益平衡。
作為算法規(guī)制理論的一項重要原則,算法透明要求算法開發(fā)者或者運營者披露包括算法源代碼、輸入數(shù)據(jù)和輸出結(jié)果在內(nèi)的一切算法要素。這種徹底的算法透明夸大了其對投資者權利保護的效用,忽視了金融機構(gòu)保護商業(yè)秘密的現(xiàn)實需要。事實上,在算法廣泛應用的數(shù)字經(jīng)濟時代,徹底的算法透明既不可行,也無必要。算法處理數(shù)據(jù)的能力遠遠超過了人類的運算能力,隨著機器自主學習、深度學習的能力不斷迭代更新,徹底的算法透明越來越難以實現(xiàn)。
在技術層面,不斷增強的機器自主學習能力給算法透明帶來了巨大的技術障礙,因為此刻透明的算法在通過自主學習實現(xiàn)更新迭代后便不再透明。在內(nèi)容層面,自動化決策算法存在很高的專業(yè)壁壘,普通人無法理解復雜的數(shù)學模型,代碼和技術的透明對其沒有任何意義[17]。在智能投顧領域,讓投資者理解杠桿比率、基本面分析和技術面分析等金融術語尚且有一定難度,倘若告知其智能投顧是通過隨機森林、決策樹模型、邏輯回歸模型等算法進行金融分析的,那么這種算法透明對投資者而言也毫無用處[18]。
鑒于此,本文倡導一種有層次的算法透明,即根據(jù)規(guī)制算法的不同目的,以不同方式對不同主體實現(xiàn)不同程度、不同層次的算法透明。申言之,對于金融監(jiān)管部門來說,捕獲金融機構(gòu)開展智能投顧業(yè)務潛在的算法風險,對風險進行事前評估并采取適當?shù)姆婪洞胧┦瞧浜诵穆氊熕凇榱寺男羞@一職責,金融監(jiān)管部門需要對智能投顧的算法參數(shù)、代碼結(jié)構(gòu)和內(nèi)置程序等內(nèi)容進行審查,引導金融機構(gòu)的算法開發(fā)、系統(tǒng)運營符合相關技術標準與行業(yè)標準。因而對金融監(jiān)管部門有效的是“以模型為中心”(model-centered)的算法透明,這個層次的算法透明重在獲取與算法模型密切相關的參數(shù)設置、特征權重、邏輯架構(gòu)等宏觀、全局性技術信息。
而對于投資者來說,作為智能投顧算法決策結(jié)果的直接利害關系人,其有權知曉算法的決策邏輯和運行機制。尤其是當自動決策系統(tǒng)生成的投資組合方案與投資者本人的資產(chǎn)配置訴求存在偏差時,投資者有權要求金融機構(gòu)對自動決策系統(tǒng)算法的模型架構(gòu)和數(shù)據(jù)分析進行解釋,以便在投資者畫像失真、風險錯配或者權重失衡的情況下進行方案糾偏和權利救濟。那么,對投資者有效的是“以用戶為中心”(subject-centered)的算法透明,這個層次的算法透明重在告知投資者算法依據(jù)哪些個人信息進行決策,各項個人信息在算法自動化決策中的權重,以及算法運行的邏輯等[19]。對于“以用戶為中心”的算法透明來說,算法的源代碼和數(shù)學模型并不重要,投資者更關心其個人信息如何參與算法的決策,以及算法按照怎樣的邏輯進行決策。
從工具價值來說,算法透明原則的提出在于對抗算法黑箱滋生的利益掠奪、算法歧視和算法暴政,實現(xiàn)對算法的規(guī)訓。面對受算法影響投資者權利保護與算法控制者保持市場競爭力之間的沖突與張力,有層次的算法透明提供了富有彈性、容納不同利益訴求的沖突協(xié)調(diào)方案。在智能投顧算法的開發(fā)和運營過程中,有層次的算法透明能夠?qū)崿F(xiàn)無利益沖突則各行其是、有利益訴求則“掀開最小縫隙”的特異性透明規(guī)范效果。算法透明的層次性立基于受算法影響投資者與算法控制者之間利益衡量、沖突化解的現(xiàn)實需要,是“目的—手段”理性的具體呈現(xiàn),其理論依歸可以從比例原則的功能定位和適用方式兩個維度獲得解釋力。
誕生于德國公法中的比例原則以其旺盛的生命力實現(xiàn)了從國家、區(qū)域到全球的影響,以及從公法向私法和其他部門法的滲透,甚至在某種程度上嬗變?yōu)橐话惴ɡ砟詈头煞治龇椒╗20]。在功能定位上,原初的比例原則關注“公共利益與私人權益”之間的利益衡量。然而,由于利益是人們在一定社會情境下基于某種生存體驗而形成的訴求[21],利益衡量在人們的社會生活中普遍存在,比例原則的功能定位完成了從防御性權利保障到一般化利益衡量的演變。就智能投顧算法開發(fā)、應用中的利益衡量來說,對算法的法律規(guī)制需要強調(diào)干預的適度性,根據(jù)不同主體不同的利益訴求采取不同方式、不同程度的算法透明,便是比例原則利益衡量功能的具體體現(xiàn)。
在適用形態(tài)上,比例原則作為法律原則的規(guī)范性命題伴隨司法適用的推進實現(xiàn)了從規(guī)范立場向超越規(guī)范立場的轉(zhuǎn)型,并且開始作為方法論成為“目的—手段”分析范式的基準[22]。具體來說,比例原則通過衡量手段和目的之間的比例關系來判斷手段的正當性與合理性。如果欲達成某種目的所采取的手段適當、必要且達成目的所實現(xiàn)的利益大于該手段所侵害的利益,那么這一組“目的—手段”便是合比例的,該手段可以采??;反之,沒有通過適當性、必要性、均衡性審查的手段由于不合比例則不可采取。在智能投顧受算法影響投資者與算法控制者的利益沖突中,為了達成保護投資者權利的目的,需要實現(xiàn)算法透明。但是,必須對算法透明作出必要限制,以符合比例原則所要求的實現(xiàn)手段的適當性、必要性和均衡性,這便是算法透明層次性背后的理論邏輯。
實行有層次的算法透明是當前調(diào)適算法保密與算法透明利益沖突的最優(yōu)解,是比例原則在智能投顧算法治理中的具體應用。為了保護金融機構(gòu)的商業(yè)秘密等私權利,激勵金融機構(gòu)創(chuàng)新、優(yōu)化算法,在增強自身市場競爭力的同時增進投資者福祉,算法不公開是法律介入智能投顧算法的基本原則。在這個基礎上,為了消除算法黑箱可能帶來的種種負面效應,只有“掀開最小縫隙”實現(xiàn)算法對金融監(jiān)管者、投資者及其他利益關切者最小程度、最特異性的“透明”,才能達成算法保密與算法透明兩者間的利益平衡。
在大數(shù)據(jù)時代,算法對于人們的生活越來越具有構(gòu)成性。算法早已普遍而深刻地影響著人們的生活,決定著人們可選擇的空間以及可能獲得的結(jié)果。徹底杜絕算法黑箱意味著對數(shù)字化生活方式的遠離,意味著對算法所蘊含便利和好處的遠離。但是,對算法黑箱一定程度的容忍也絕不意味著人們應該束手就擒、任其宰割。由于算法透明具有層次性,我們需要在智能投顧算法設計、開發(fā)、應用的不同階段,出于維護金融系統(tǒng)的安全穩(wěn)定、保障投資者的知情權利、便利受算法影響投資者的權利救濟等不同目的,對智能投顧算法實現(xiàn)不同層次的算法透明。
防范局部金融風險的產(chǎn)生及其向整個金融系統(tǒng)的蔓延是金融監(jiān)管部門的重要職責,對智能投顧中金融風險的防控也不例外。為此,金融監(jiān)管部門需要詳細了解智能投顧算法的核心思想、模型架構(gòu)和服務模式,掌握智能投顧算法設計的底層邏輯,審查投資者個性化資產(chǎn)配置方案生成過程中算法在各個環(huán)節(jié)的功能和影響。為此,智能投顧系統(tǒng)的開發(fā)機構(gòu)需要適度披露算法的模型,將智能投顧背后的金融數(shù)據(jù)、算法參數(shù)和代碼結(jié)構(gòu)等提供給金融監(jiān)管部門,實現(xiàn)以模型為中心的算法透明。值得深究的問題是,應該利用怎樣的制度安排去實現(xiàn)算法模型透明?當前,學界已提出算法開源、算法備案以及算法合規(guī)審查等多種算法透明制度,那么應當如何配置、組合這些強度不一的方案呢?
盡管算法開源有利于更廣泛的社會主體通過檢驗代碼捕獲算法內(nèi)含的缺陷及其潛在金融風險,但是算法源代碼畢竟涉及開發(fā)者和運營者的商業(yè)秘密,法律不宜強制其開源[23]。在針對金融監(jiān)管部門算法透明的實現(xiàn)方式上,可以區(qū)分成熟算法模型和新型算法模型,分別以合規(guī)審查和算法備案予以實現(xiàn)。具言之,對于那些經(jīng)過長期研發(fā)和驗證、在智能投顧中取得良好效果并得到廣泛應用的成熟算法模型,由于大量實踐應用能夠證明其具有較高的準確性和可靠性,對這類算法模型應當以合規(guī)審查的方式進行監(jiān)管,即審查該算法模型是否符合法律的強制性規(guī)范、金融業(yè)的行業(yè)標準以及相關技術標準。而對于那些為克服既有算法模型局限性而引入新思想、新技術、新數(shù)學概念的創(chuàng)新、改進型算法模型,由于相關的法規(guī)建設和標準制定滯后于技術創(chuàng)新,為了激勵算法開發(fā)者積極解決復雜問題、提高算法效率,拓展新思路、開發(fā)新工具,金融監(jiān)管部門應側(cè)重于算法開發(fā)者的權利保護,以算法備案的方式掌握算法模型并持續(xù)監(jiān)控可能潛藏其中的風險因素即可。需要特別指出的是,為了保護智能投顧系統(tǒng)開發(fā)機構(gòu)的知識產(chǎn)權和運營機構(gòu)的商業(yè)利益,需要對金融監(jiān)管部門及其工作人員課以嚴格的保密義務。
從實踐的情況來看,大數(shù)據(jù)金融算法備案包括算法邏輯本身的備案和金融從業(yè)人員的備案(注冊)。例如,歐洲證券市場監(jiān)管局要求使用算法進行高頻交易的投資機構(gòu)每年都向其報備算法交易策略、交易參數(shù)設定、風險控制模塊以及系統(tǒng)測試結(jié)果等內(nèi)容,藉此避免缺陷算法造成金融市場動蕩[24]。由于智能投顧實際上模擬了金融從業(yè)人員根據(jù)先驗知識、邏輯推理和專業(yè)判斷提供投資決策方案的過程,因而參與算法開發(fā)、設計的金融從業(yè)人員也需進行備案。例如,美國2016 年修訂的《納斯達規(guī)則》(NASD Rules)要求負責開發(fā)、設計或者重大修改金融產(chǎn)品算法交易策略的人員和日常監(jiān)管、指導上述活動的人員都必須注冊為證券交易者[25]。在我國,由中國人民銀行、銀保監(jiān)會、證監(jiān)會等金融監(jiān)管部門在2018年出臺的《關于規(guī)范金融機構(gòu)資產(chǎn)管理業(yè)務的指導意見》要求,“金融機構(gòu)應當向金融監(jiān)督管理部門報備人工智能模型的主要參數(shù)以及資產(chǎn)配置的主要邏輯”。當然,該指導意見對金融科技算法備案的規(guī)定還十分模糊,算法備案的主管部門、備案內(nèi)容、備案程序以及未履行備案義務的法律后果等事項還有待將來細化。
以算法備案破解算法黑箱的負面效應雖然必要但并不充分,因為算法備案并不意味著算法公開和算法可理解。姑且不談算法備案對監(jiān)管部門及其工作人員課加的保密義務,即便智能投顧的算法模型、主要參數(shù)、運行規(guī)則甚至源代碼對投資者完全公開,金融企業(yè)的技術與行業(yè)的專業(yè)性仍然是投資者難以逾越的高墻。對于投資者來說,以自然語言對算法決策所依賴的邏輯和自動生成的資產(chǎn)配置方案進行解釋才是有意義的[26]。因此,除了在算法設計、運行之初通過合規(guī)審查與算法備案對智能投顧算法進行監(jiān)管之外,還需在算法的使用過程中增強算法自動化決策的可理解性,這就涉及規(guī)制算法的一組重要權利義務——算法告知義務和算法解釋請求權。
受算法影響投資者的知情權和決定權是保護其個人信息權益免受侵害的基本權利,其中又以知情權更為重要,因為知情是允許、限制抑或拒絕他人進行信息處理的前提[27]。個人信息處理者的算法告知義務和信息權利人的算法解釋請求權共同組成受算法影響投資者的知情權體系,二者在智能投顧的金融服務中表現(xiàn)為解釋算法運行邏輯的動態(tài)互動過程。由于算法控制者與投資者普遍的信息不對稱,法律的規(guī)制方向通常傾向于先讓算法控制者履行告知義務(投資者知情權的初次實現(xiàn)),在此基礎上再以投資者的算法解釋請求權作為補充(投資者知情權的補充實現(xiàn))。就告知(解釋)的內(nèi)容而言,歐盟GDPR 采取的是“基于邏輯的解釋”⑧,即受算法影響者有權獲得處理者對自動決策算法邏輯的解釋,而美國采取的是“基于事實的解釋”⑨,即金融消費者僅有權獲得算法對其作出不利決策所依據(jù)事實的解釋,而非算法邏輯本身。
我國對算法解釋的規(guī)范經(jīng)歷了從信息處理公開透明的被動權利向算法決策解釋說明的主動權利“進化”的過程。在信息處理公開透明方面,根據(jù)我國法律的相關規(guī)定⑩,網(wǎng)絡運營商等實體在處理個人信息時必須在信息主體知情、自愿、同意的前提下遵循公開原則,明示其處理的目的、方式和范圍;在算法決策解釋說明方面,《個人信息保護法》第24 條和第48 條明確規(guī)定,通過自動化決策算法作出對個人權益有重大影響的決定,個人有權要求個人信息處理者對信息的處理規(guī)則進行解釋與說明??梢姡惴ǜ嬷退惴ń忉屧谖覈呀?jīng)成為法定權利與義務。
算法告知和算法解釋入法只是實現(xiàn)智能投顧算法事中透明的起點。算法告知義務和算法解釋請求權還存在權利內(nèi)容、解釋程度、解釋時間、解釋方法等一系列問題有待厘清和細化[28]。但就制度效能而言,即便對算法解釋的實際效果持懷疑態(tài)度的學者也認為不可能徹底拋棄算法解釋權[29]。算法解釋在保障投資者知情權的同時,作為外部監(jiān)管的補充,還能夠強化投資者與金融機構(gòu)的信賴關系,共同限制金融機構(gòu)的算法權力,一定程度彌合投資者與金融機構(gòu)之間的專業(yè)鴻溝,實現(xiàn)投資者與金融監(jiān)管部門對算法的合作治理[30]。
在事前、事中的算法透明手段之外,事后的算法評估也是提升透明度的重要手段。由于人工智能算法時時刻刻都處于更新迭代之中,事前備案后實現(xiàn)相對透明的算法在運行過程中經(jīng)過深度學習和自我糾偏,往往變得不復透明。有學者便指出,算法備案無法準確捕捉算法運行的內(nèi)在機理,將逐漸異變?yōu)楦∮谛问降暮弦?guī)管理[31]。事實上,在“掀開最小縫隙”思想的指導下,智能投顧算法的事前備案旨在實現(xiàn)金融風險的可防、可控,而非算法的徹底透明。隨著深度神經(jīng)網(wǎng)絡和動態(tài)算法技術的發(fā)展,即便事前的合規(guī)審查和算法備案轉(zhuǎn)變?yōu)樗惴P蛯鹑诒O(jiān)管部門的完全透明,算法投入運行后的透明度仍然會變得“忽明忽暗”。對此,算法評估無疑是改善投資者弱勢地位、構(gòu)筑社會公眾算法信任的重要一環(huán)。
根據(jù)歐盟GDPR 第35 條的規(guī)定,如果使用人工智能等新技術處理數(shù)據(jù)將會提升侵犯自然人權利與自由的風險,除了考慮該處理的性質(zhì)、范圍、領域和目的之外,數(shù)據(jù)處理者應當在數(shù)據(jù)處理之前評估擬使用的處理程序?qū)€人數(shù)據(jù)保護造成的影響。加拿大《自動化決策指令》(Directive on Automated Decision-Making)第6 條規(guī)定,任何自動化決策系統(tǒng)投入運行之前都須發(fā)布算法影響評估的最終結(jié)果。美國《算法問責法案》(Algorithmic Accountability Act)第3 部分規(guī)定,自動化決策系統(tǒng)在投入運營之前應當接受公正性、透明度和可問責性等方面的評估。該法案通過前兩年內(nèi)投入運營的算法系統(tǒng)也應納入評估的范圍。我國《個人信息保護法》第55 條同樣規(guī)定,利用個人信息進行自動化決策的,個人信息處理者應當事前進行個人信息保護影響評估??梢姡詣踊瘺Q策可能對個人權利和自由造成的影響已為美國、加拿大、歐盟和我國所重視,算法評估作為一項正式的法律制度在以上國家和地區(qū)都已經(jīng)入法。需要特別指出的是,上述國家或地區(qū)對算法評估的規(guī)定都是出于保護自動化決策中的個人信息和數(shù)據(jù)權利,因而算法評估的啟動節(jié)點都規(guī)定在算法程序投入運營之前。
然而,對于實現(xiàn)智能投顧算法的持續(xù)透明來說,評估算法對投資者信賴利益的影響更為迫切。在投資顧問活動中,法律要求金融機構(gòu)嚴格遵守投資者適當性規(guī)則,如果金融機構(gòu)違反投資者適當性規(guī)則給投資者造成損失,將部分或者全部賠償投資者的損失。法律之所以如此嚴苛,是因為金融機構(gòu)與投資者之間存在彌深的專業(yè)鴻溝和嚴重的信息不對稱。法律打破“買者自負”原則以投資者適當性規(guī)則對投資者進行“家長式保護”就是為了維護投資者對金融機構(gòu)的信賴利益[32]。智能投顧中算法的介入顯然會干擾投資者對金融機構(gòu)的信賴利益,要了解這種“干擾”是否以及在多大程度上影響投資者的信賴利益,需要對不同的智能投顧算法系統(tǒng)進行個別化評估。事實上,從當前的立法情況來看,歐盟和加拿大法律規(guī)定的算法評估都具有周期性和動態(tài)性[33],美國的算法評估甚至有一定的溯及力。因此,我國不宜拘泥于事前、靜態(tài)、封閉的合規(guī)型算法評估,應根據(jù)算法在智能投顧服務中的參與程度增加事后評估,以便于在投資損失發(fā)生后進行投資者、金融機構(gòu)和技術風險的責任劃分。
在大數(shù)據(jù)和算法的驅(qū)動下,各種算法模型被開發(fā)出來與具體的金融場景深度融合,不斷提升金融產(chǎn)品質(zhì)量、優(yōu)化金融投資策略,實現(xiàn)金融服務的智能化、動態(tài)化和前瞻化。在此背景下誕生的智能投顧不僅能夠精準分析投資者的資產(chǎn)配置需求,還極大提升了投資顧問業(yè)務的服務質(zhì)量與服務體驗。然而,算法在為金融賦能的同時,也加深了金融業(yè)的信息不對稱,帶來了更高的風險系數(shù)。對于傳統(tǒng)金融監(jiān)管來說,算法可能成為規(guī)避監(jiān)管的工具;對于投資者來說,其與金融機構(gòu)之間的信賴利益被算法的自動化決策切斷,在投資決策與主體問責之間形成巨大的不確定性。
算法保持一定程度的秘密性既符合國家戰(zhàn)略,也是算法開發(fā)者和運營者建立、維持競爭優(yōu)勢的核心所在。面對算法保密與算法透明之間的價值沖突,只有秉持“掀開最小縫隙”原則,在不同階段、基于不同目的對不同主體實行不同方式、不同程度的透明,才能在算法福利與算法宰制之間取得平衡。就大數(shù)據(jù)金融中的智能投顧而言,為了防控系統(tǒng)性金融風險,需通過“合規(guī)審查+算法備案”向監(jiān)管主體實現(xiàn)算法模型透明;為保障投資者的知情權,需以金融機構(gòu)的算法告知義務為基礎輔之以投資者的算法解釋請求權實現(xiàn)算法邏輯透明;為緩解算法決策與主體問責之間的緊張關系,需通過算法評估判斷算法對投資者信賴利益的影響程度,進而明確主體責任的劃分。
注:
①KYC 義務要求金融機構(gòu)建立適當?shù)男匠曛贫龋乐箻I(yè)務員推介金融商品時單方面追求銷售業(yè)績引致的道德風險,同時落實金融消費者適當性原則;KYP 原則要求金融機構(gòu)加強對創(chuàng)新金融產(chǎn)品的風險控制和監(jiān)督,同時強化金融商品推介過程中的信息披露義務和風險提示義務,充分保障金融消費者的知情權。參見劉博涵.我國臺灣地區(qū)金融消費者保護:歷程、經(jīng)驗與省思[J].社會科學論壇,2021,(1):133-146.
②關于以算法透明規(guī)制算法的討論,參見Frank Pasquale.The Black Box Society:The Secret Algorithms That Control Money and Information[M].Cambridge:Harvard University Press,2015;汪慶華.人工智能的法律規(guī)制路徑:一個框架性討論[J].現(xiàn)代法學,2019,(2):54-63; 張凌寒.算法權力的興起、異化及法律規(guī)制[J].法商研究,2019,(4):63-75.
③人工智能算法不公開、不透明,在學界一般被稱為“算法黑箱”。然而,“黑箱”與“黑幕”“暗箱操作”等語詞直接關聯(lián),帶有明顯的貶義感情色彩。相較而言,在指代算法不公開、不透明時,“算法保密”更為中性,更有利于問題的理性討論。鑒于此,本文不對“算法黑箱”“算法保密”作嚴格區(qū)分,行文中根據(jù)需要,二者將會交替出現(xiàn)。
④貪心算法的基本思路是:(1)建立數(shù)學模型來描述待解決的問題;(2)把求解的問題分成若干子問題;(3)對每一子問題進行求解,得到子問題的局部最優(yōu)解;(4)把子問題的局部最優(yōu)解合并成原來問題的一個解。參見尚榮華.智能算法導論[M].北京:清華大學出版社,2021:148-152.
⑤美國OpenAI 公司于2022 年11 月推出的生成式預訓練轉(zhuǎn)換器(ChatGPT)一經(jīng)問世就受到人們的廣泛關注,該系統(tǒng)基于“自回歸語言模型”(Auto-Regressive Language Model)、“人類反饋強化學習”(Reinforcement Learning from Human Feedback)技術架構(gòu)與馴化模型,具備自然語言生成與錯誤更正能力。目前,ChatGPT 不僅可以同人類進行流暢的場景交流,還可替代人類從事文本撰寫、方案制定、翻譯等諸多事務。這預示著此前300 多個人工智能科學家預測的至少45 年以后才會到來的強人工智能時代正在加速到來。
⑥搜索王是一家將廣告鏈接嵌入谷歌搜索結(jié)果網(wǎng)頁的公司。顯然,在谷歌的搜索結(jié)果中排名越靠前,獲得的點擊量和流量就越高。搜索王的商業(yè)模式被谷歌公司發(fā)現(xiàn),谷歌公司通過改變算法降低了搜索王相關網(wǎng)頁的排名,甚至完全不予展示搜索王嵌入廣告的網(wǎng)頁。搜索王公司訴稱,谷歌公司得知搜索王的公司業(yè)務高度依賴谷歌公司的搜索結(jié)果排名后有意降低相關網(wǎng)頁的排名甚至移除相關網(wǎng)頁,給公司帶來了“無可估量的損失”。谷歌公司則辯稱,谷歌沒有義務將搜索王嵌入廣告的網(wǎng)頁排在其想要的位置,也有權不予展示搜索王嵌入了廣告的網(wǎng)頁。參見Search King, Inc.v.Google Tech, Inc., No.02-1457,2003 WL 21464568(W.D.Okla.May 27, 2003).
⑦參見State v.Loomis, 881 N.W.2d 749 (Wis.2016).
⑧《通用數(shù)據(jù)保護條例》序言第71 條規(guī)定,數(shù)據(jù)主體有權就基于自動化處理而對其產(chǎn)生法律效力或類似重大影響的決定獲得解釋,并就該決定提出質(zhì)疑。
⑨美國在《平等信貸機會法案》(ECOA)和《公平信用報告法案》(FCRA)兩部法律中以“不利行動告知條款”保障金融消費者在算法作出拒絕提供信貸、拒絕提供保險服務等不利行動時獲得解釋的權利。
⑩參見《民法典》第1035 條、《網(wǎng)絡安全法》第41 條、《個人信息保護法》第7 條、第14 條和第17 條。