陳美霖,劉端陽,徐黎明,汪洋
1.中國科學院計算機網(wǎng)絡(luò)信息中心,北京 100083
2.中國科學院大學,北京 100049
3.中國科學院半導體研究所,北京 100083
由于材料領(lǐng)域的飛速發(fā)展,現(xiàn)如今已經(jīng)積累了大量的數(shù)據(jù)以及無數(shù)相關(guān)的問題有待解決[1]。相比傳統(tǒng)方法研究材料動力學性質(zhì),急需一種高效快速的方法來解決這一難題。近年來,機器學習(Machine Learning, ML)在各個領(lǐng)域都發(fā)揮了重要的作用,因此,用機器學習的方法來解決現(xiàn)有的問題不失為一種不錯的選擇。
在研究材料動力學性質(zhì)的方法中,分子動力學使用較為廣泛,它是以量子力學、經(jīng)典力學、統(tǒng)計力學為基礎(chǔ),通過牛頓力學來模擬分子系統(tǒng)的運動狀態(tài),并利用計算機數(shù)值求解運動方程的方法。傳統(tǒng)的分子動力學計算速度快,能一定程度上反映材料的穩(wěn)定性,熱力學性質(zhì)等多種性質(zhì),但由于其使用的是較為簡單的經(jīng)驗力場,計算精度有限;而從頭算分子動力學(Ab initio molecular dynamics, AIMD)將分子動力學與密度泛函理論(Density Functional Theory, DFT)相結(jié)合,將系統(tǒng)中的粒子劃分成原子和電子,原子的質(zhì)量大且運動速度較慢,可以用經(jīng)典力學來處理,而電子的質(zhì)量小且運動速度較快,可以用密度泛函理論來處理。該方法的提出可以很好地解決分子動力學無法對化學鍵的斷裂描述的問題[2]。
AIMD 由于考慮了電子相互作用的細節(jié),并且使用量子力學方法對全體原子進行了統(tǒng)一考慮,因此計算精度大大提高,但也因此計算代價高昂,往往只能應(yīng)用于數(shù)十個到數(shù)百個原子的小體系,且模擬時長最多到納秒級[3-4]。對于體系較大的系統(tǒng),一般采用傳統(tǒng)經(jīng)驗力場來建模,傳統(tǒng)的科學方法使用一些近似值求解,分析計算,并用更高水平的計算或?qū)嶒灥膮⒖紨?shù)據(jù)驗證所獲得的結(jié)果。但是當所研究的系統(tǒng)過于復雜,僅靠現(xiàn)有知識無法建立可靠的模型時,這種方法并不是十分有效。并且力場往往在犧牲計算效率的條件下才能獲得較高的計算精度。
然而,一個精確力場的搭建十分耗時,并且需要大量的專業(yè)知識和技術(shù)。而機器學習方法可以有效解決傳統(tǒng)方法無法解決的復雜問題[5],在一定程度上可以有效地平衡計算效率和計算精度之間的制約關(guān)系,并將AIMD 方法的計算精度和經(jīng)典力場的計算效率融合,使應(yīng)用于研究更大的分子系統(tǒng)體系成為可能[6]。
機器學習力場(Machine Learning Force Fields,MLFF)[7-11]是通過一些機器學習算法,采用生成的結(jié)構(gòu)特征作為輸入來進行參數(shù)擬合。它通過從數(shù)據(jù)中的結(jié)構(gòu)或者模式中學習輸入和輸出之間的功能關(guān)系,而不依賴于先入為主的固有化學鍵的概念或關(guān)于相互作用的知識[12],從數(shù)據(jù)中學習訓練[6]。該方法的提出可以有效地縮小與傳統(tǒng)力場方法的計算精度差距,同時可以提高計算效率,減少人工干預。在理想狀況下,經(jīng)過訓練的模型可以反映出量子力學潛在的有效規(guī)則。因此, 使用AIMD 的結(jié)果數(shù)據(jù)作為訓練集,使用機器學習力場方法訓練得到的力場,有望在接近AIMD 的精度情況下獲得接近甚至超過傳統(tǒng)力場的計算效率[13-14]。目前,實現(xiàn)機器學習力場模型的較多,如深度神經(jīng)網(wǎng)絡(luò)[15]等,深度神經(jīng)網(wǎng)絡(luò)訓練時通常需要大量的數(shù)據(jù),在自然科學中收集這樣的數(shù)據(jù)集往往是不可能的,因為每個訓練點都是計算成本高昂的從頭算或其他實驗測量得來的。因此,機器學習力場模型的數(shù)據(jù)效率成為一個關(guān)鍵因素。這也是機器學習力場模型建立的初衷,即將基本物理定律或知識直接實現(xiàn)到機器學習模型的體系結(jié)構(gòu)中。與傳統(tǒng)機器學習方法相比,當使用有限的參考數(shù)據(jù)集時,此類模型可以表現(xiàn)出優(yōu)越的性能。此外,基于知識的機器學習力場模型可以深入了解復雜的原子間相互作用[16-17]。本文將在第1 節(jié)對材料機器學習的基礎(chǔ)理論知識進行簡單的講解;并在第2 節(jié)對使用較為廣泛的機器學習力場模型進行介紹,探索方法的可行性和有效性;最后在第3 節(jié)進行總結(jié)和分析。
在半導體領(lǐng)域,一般用薛定諤方程(Schr?dinger Equation, SE)來描述原子核和電子的相互作用。但SE 只能對極其簡單的體系進行求解,如氫原子等。在求解復雜的體系時,隨著系統(tǒng)復雜度的增加,計算成本也隨之飛快增加,與此同時,無法很好地平衡計算成本和計算精度之間的關(guān)系。因此,用SE 來求解復雜體系存在較大困難。玻恩–奧本海默近似(Born-Oppenheimer approximation, BO 近似)的提出可以很好地改善這個現(xiàn)象,BO 近似將電子的運動和原子核的運動分開,因原子核質(zhì)量比電子質(zhì)量大幾個量級,可幾乎認定為是靜止的,從而可以忽略掉原子核的運動。因此,可將體系簡化為電子的薛定諤方程來求解,即電子的能量取決于核外的電勢,而電勢又由電子的位置和核電荷數(shù)決定。通過將原子核和電子的庫侖斥力相加,即可得到系統(tǒng)的總勢能[6]。
在BO 近似下,系統(tǒng)的能量是原子核位置的函數(shù),即一個分子幾何結(jié)構(gòu)映射出一個體系能量值,不同原子位置的能量一起構(gòu)成了勢能面(Potential Energy Surface, PES)。一個封閉的系統(tǒng)需要滿足能量守恒定律。在分子體系中,能量由動能和勢能構(gòu)成。因此,力一定是勢能相對于原子位置的負梯度。這樣可以保證當原子運動時,原子們總是能夠獲得與損失的勢能相同的動能[6]。
雖然BO 近似在一定程度上簡化了SE 方程的求解,但近似下的計算仍具有較大的困難。因此,想要得出分子動力學模擬的每個時間步下的能量和力仍是比較困難的[19]。而力場的提出可以在一定程度上避開方程求解的問題。從而將問題的難點從方程求解轉(zhuǎn)換到尋找合適的力場以及力場參數(shù)化上來。而機器學習方法可以將這種困難通過從數(shù)據(jù)中學習自動化實現(xiàn),將先驗知識融合到更為復雜的模型的構(gòu)建中[20],從而簡化了力場的構(gòu)建過程。本文將在1.1 與1.2 節(jié)概述機器學習中兩種方法,基于內(nèi)核的方法以及神經(jīng)網(wǎng)絡(luò)(Neural Network, NN)方法。
核函數(shù)方法起源于非線性支持向量機模型(Support Vector Mmachines, SVM)。在核方法中,內(nèi)核是核心,它將原始空間中的向量作為輸入向量,返回特征空間中向量的點積函數(shù),即將輸入空間映射到高維特征空間。新的特征空間具備更強的表達能力以及在原始特征空間中的非線性擬合效果[1],它將原始空間中的非線性擬合轉(zhuǎn)換為新特征空間中的線性擬合。使用核函數(shù),不需要顯式地將數(shù)據(jù)嵌入到空間中來,這樣可以有效地簡化復雜的計算。但核函數(shù)對于較大的數(shù)據(jù)集并不十分受用,因為無法存儲整個核矩陣,因此可能需要重新計算核函數(shù)?;趦?nèi)核的方法不需要知道特征空間以及轉(zhuǎn)換函數(shù),同時使在高維特征空間中以低計算成本獲取線性關(guān)系成為可能。
可以看出,機器學習模型的性能高低與核函數(shù)的選取息息相關(guān)。因此,選擇一個合適的核函數(shù)對于機器學習方法具有十分重要的意義。
神經(jīng)網(wǎng)絡(luò)是通過模擬生物神經(jīng)元相互傳遞信號的方式,由許多相互連接的處理單元組成的非線性自適應(yīng)信息處理系統(tǒng)[21],旨在對神經(jīng)元形成的復雜網(wǎng)絡(luò)建模[6],從而達到學習經(jīng)驗的目的。在數(shù)據(jù)選擇上,神經(jīng)網(wǎng)絡(luò)通常需要較多的訓練數(shù)據(jù)才能達到較為理想的計算精度,但同時,它們也可以更好地應(yīng)用于較大的數(shù)據(jù)集中。神經(jīng)網(wǎng)絡(luò)可以通過對輸入數(shù)據(jù)進行高維特征映射,轉(zhuǎn)換成特征描述符(descriptor,desc),從而通過特征描述符作為輸入來進行參數(shù)的擬合[22],學習構(gòu)建出力場[19]。
在神經(jīng)網(wǎng)絡(luò)中,輸入層和輸出層的節(jié)點數(shù)量比較容易確定。輸入層的神經(jīng)元數(shù)量等于數(shù)據(jù)中輸入變量的數(shù)量,輸出層神經(jīng)元的數(shù)量與每個輸入關(guān)聯(lián)的輸出的數(shù)量相同。往往困難之處在于確定合適的隱藏層數(shù)量以及其節(jié)點數(shù)量。隱藏層的層數(shù)不同,網(wǎng)絡(luò)模型實現(xiàn)的功能也并不相同。
神經(jīng)網(wǎng)絡(luò)至少具備一個隱藏層,可以對非線性的復雜模型系統(tǒng)進行建模,多出來的隱藏層可以為模型提供更高的抽象水平,從而提高模型的能力。當數(shù)據(jù)流經(jīng)網(wǎng)絡(luò)時,輸入層的第i個神經(jīng)元將輸入數(shù)據(jù)乘以權(quán)重Wij,并將其輸出到下一層的第j個神經(jīng)元。神經(jīng)元之間的權(quán)重反映了網(wǎng)絡(luò)的連接強度,神經(jīng)網(wǎng)絡(luò)可以通過調(diào)整權(quán)重來提高整個模型的性能[23]。因此,神經(jīng)網(wǎng)絡(luò)具有較強的表達能力,只要有足夠的深度和寬度,神經(jīng)網(wǎng)絡(luò)可以以任何精度來逼近所有函數(shù)。圖1 是一個多層神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)圖。
目前,用于構(gòu)建機器學習力場的模型非常多,如GAP[7]、DPMD[10]、HDNN[9]、PhysNet[8]、ANI[24-26]等。在分子動力學模擬中,機器學習力場模型可以分為以能量為中心和以力為中心的模型[27]。以能量為中心的模型通過學習勢能面,并計算勢能面的導數(shù)得到力[28]。如梯度域機器學習(Gradient-Domain Machine Learning, GDML)[28]、對稱梯度域機器學習(Symmetrized Gradient-Domain Machine Learning,sGDML)[29]通過學習能量和力之間的梯度函數(shù)來簡化能量和力的表達形式。另外一種以能量為中心的模型如DimeNet[30]、DimeNet++[31]、SchNet[32]采用圖神經(jīng)網(wǎng)絡(luò)的方法,實現(xiàn)對能量的平滑預測[33]。
物質(zhì)運動具有能量,一般用場來描述物體的運動狀態(tài)。而力場用來估計分子內(nèi)原子之間以及分子之間的力。力場是原子間勢,可以使用能量來描述場。因為力實際上可以認為是能量的負梯度。
其中,F(xiàn)i表示作用在每個原子上的力;E為體系內(nèi)的能量;ri表示原子i的笛卡爾坐標向量。
力是矢量,在空間中的每個原子位置需要用笛卡爾坐標系來描述,而能量是標量,對空間中的每個點只需要用一個值來描述。因此與使用力來描述場比起來,用能量來描述力場更為簡單。
力場建立了原子坐標和系統(tǒng)相應(yīng)總能量之間的映射[34]。傳統(tǒng)力場是基于晶體結(jié)構(gòu)鍵長和鍵角來擬合參數(shù)的。與經(jīng)典力場相比,機器學習力場可以不利用先入為主的理論知識,不對經(jīng)驗函數(shù)進行參數(shù)化表示,而是通過現(xiàn)有數(shù)據(jù)來學習原子的能量及其他特征,作為其函數(shù)表示,來代替經(jīng)典力場[19]。該系統(tǒng)中的能量為系統(tǒng)中所有原子能量的總和。
其中,E為體系內(nèi)總能量;R為原子位置。從上述方程也可以看出作用在原子上的力與距離較遠的原子的種類和位置并沒有很強的相關(guān)性。因此,機器學習力場模型可以依托系統(tǒng)內(nèi)總能量來推測特征與原子能量之間的關(guān)系[35]。
另外一種是在以力為中心的模型,在該模型中,力是通過網(wǎng)絡(luò)模型來直接預測的,然后與實際的力進行比較。同時,加入了殘差連接,改善隨著網(wǎng)絡(luò)深度的增加而帶來的梯度消失、梯度爆炸等問題[24]。使用力為中心的模型可以有效減少在以能量為中心的模型中計算力所需的額外花銷,從而提高計算效率[36]。
因為能量是標量,而力為有3 個方向的矢量,所以目前以能量為中心開發(fā)的機器學習力場模型居多,而通過以力為中心的模型來計算能量,需要考慮到各個方向上的力的作用,具有一定的復雜性。
本文將在2.1 至2.3 小節(jié)介紹幾種機器學習力場中比較常見的模型方法,如sGDML、 SchNet、Force-Net 等,方便讀者對MLFF 有一個較為清晰的認識。
GDML[37]采用核方法構(gòu)建了一個可以節(jié)約能源的力場,可以減少能耗、增加效率和降低成本,避免因噪聲放大導致導數(shù)需要應(yīng)用于參數(shù)化勢能模型中的問題[1]。該模型通過將物理定理與數(shù)據(jù)自驅(qū)動方式的機器學習技術(shù)相結(jié)合,可以實現(xiàn)對復雜的多維勢能面的構(gòu)建。sGDML 模型作為GDML 的對稱變體,在GDML 模型的基礎(chǔ)上加入了所有相關(guān)的物理對稱性[29],因此可以更為精準地對力場進行從頭算分子動力學模擬[12]。
許多物理系統(tǒng)對于某種變換是不變的,這種不變性一般稱為對稱性。分子系統(tǒng)的物理對稱性大致分為時間對稱性、空間對稱性以及對給定分子的特定的動態(tài)和靜態(tài)對稱性。時間對稱性一般指的是能量守恒定律。封閉系統(tǒng)中的能量既不會憑空產(chǎn)生,當然也不會憑空消失,它只會從一種形式轉(zhuǎn)換成另外一種形式,而總能量始終保持不變。原子是運動的,運動過程中會將損失掉的勢能轉(zhuǎn)化為動能,以保持總能量不變,在時間上表現(xiàn)為封閉系統(tǒng)的能量守恒??臻g對稱性包括能量的旋轉(zhuǎn)不變性和平移不變性??臻g的旋轉(zhuǎn)不變性直觀上來講就是空間沒有特殊的方向,可以說該空間是各向同性的。如果將分子系統(tǒng)沿空間某方向平移任意位移后,它的物理規(guī)律完全相同,那么該系統(tǒng)具有空間上的平移不變性。這些對稱性在GDML 模型中已經(jīng)充分體現(xiàn)[28]。另外,分子具有剛性空間群對稱性,也就是物理上的反射現(xiàn)象;同時還具有動態(tài)的非剛性對稱性,如甲基的旋轉(zhuǎn)等[3]。由于考慮了這些對稱性[38],可以通過用分子的對稱變換來擴充數(shù)據(jù)集,以便訓練出性能更優(yōu)的模型,對原子的能量和力進行準確預測。該模型相較于GDML 模型的優(yōu)勢與系統(tǒng)中的對稱性數(shù)量有直接關(guān)系,對于對稱性較高的系統(tǒng)而言,sGDML模型的性能提升較大,而沒有對稱性的體系,其在性能提升上并無變化。
sGDML 已在MD17、MD22、CCSD 等公開數(shù)據(jù)集上廣泛應(yīng)用并表現(xiàn)出良好的性能。表1 將通過GDML 和sGDML 兩種方法在MD17 數(shù)據(jù)集的表現(xiàn)對比,分析其在1,000 個訓練樣本上對力和能量的預測能力,其中力的測試誤差以kcal mol–1(?–1)為單位,能量的測試誤差以kcal mol–1為單位。由表可知,sGDML 在苯、乙醇等具有對稱性的分子上,其預測性能有顯著提高,但在尿嘧啶等非對稱性分子上,sGDML 相較于GDML 的性能并沒有提升[3,28]。
表1 GDML 和sGDML 的預測性能Table 1 Comparison of GDML and sGDML
sGDML 模型在分子動力學模擬中已經(jīng)展現(xiàn)出較強的優(yōu)勢,其全局性雖然可以提高預測精度,但這一特征也限制了它的可轉(zhuǎn)移性。對于一個分子體系的模型不能用來推測另外一個不同分子體系的能量和力[29]。因此,sGDML 模型的適用性以及擴展到更大的分子體系方面的能力仍有待提高。
機器學習模型中比較常見的一個子類就是原子神經(jīng)網(wǎng)絡(luò),該模型具有不同的體系結(jié)構(gòu),但大致可以分為兩類:基于描述符的模型[39],將原子的屬性作為輸入;以及直接從原子類型和位置學習表示的端到端的結(jié)構(gòu)[40]。
SchNet 是一種基于連續(xù)濾波器卷積的端到端的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)[41],旨在對原子系統(tǒng)進行建模,學習分子能量與原子力預測的表示,反映了基本的物理規(guī)律,如原子指標和平移不變性以及關(guān)于原子位置的平滑能量預測和能量守恒等。SchNet 作為深度神經(jīng)網(wǎng)絡(luò),具有多層網(wǎng)絡(luò)結(jié)構(gòu),當原子表示通過網(wǎng)絡(luò)時,這些網(wǎng)絡(luò)層會對它們進行轉(zhuǎn)化,同時處理在上一層合并的高維原子信息[42]。SchNet 通過對每個原子更新以及每個原子能量的池化過程,最后得到對力的預測結(jié)果。由于SchNet 實現(xiàn)了旋轉(zhuǎn)不變的能量預測,因此預測得到的力在結(jié)構(gòu)上是旋轉(zhuǎn)等變的[39]。為了確保旋轉(zhuǎn)不變性,SchNet 的連續(xù)濾波器只使用了原子距離作為輸入特征,而在消息傳遞過程中丟失了角度信息。因此,原子類型的變化可能會導致原子之間的相互作用力有明顯差異[24]。
SchNet 已在QM9、MD17、ANI1 等公開數(shù)據(jù)集廣泛應(yīng)用。表2 展示了SchNet 在MD17 數(shù)據(jù)集的表現(xiàn),并與sGDML 作比較,本數(shù)據(jù)選取1,000 個訓練樣本并對力和能量訓練并預測,其中力的測試誤差以kcal mol-1 (?-1)為單位,能量的測試誤差以kcal mol-1 為單位。由表可知,SchNet 可以表現(xiàn)出較好的性能,但大體上略遜色于sGDML[3,42]。
表2 SchNet 和sGDML 的預測性能Table 2 Comparison of SchNet and sGDML
SchNet 可擴展性較強,具備高效計算的能力,但只使用原子距離以確保對能量預測的旋轉(zhuǎn)不變性,無法很好地捕捉到3D 結(jié)構(gòu),泛化性能有待提高。
ForceNet 是一個以力為中心的模型,它遵循基于圖網(wǎng)絡(luò)的模擬器(Graph Network-based Simulators,GNS)框架,通過使用物理意義上的大規(guī)模增強數(shù)據(jù)集來預測力[36]。ForceNet 沒有在模型體系中施加顯式的物理約束,可以捕捉到完整的3D 原子位置。因此,F(xiàn)orceNet 預測的力是平移不變的,但不具備旋轉(zhuǎn)不變性[24]。ForceNet 的輸入是原子的結(jié)構(gòu),即一組原子的3D 空間位置,輸出是每個原子的3D 矢量,用來表示預測的(x,y,z)3 個方向上的力。ForceNet將原子表示為圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Networks,GNN)[43]中的節(jié)點,將原子之間的相互作用表現(xiàn)為GNN 中的邊,節(jié)點輸入特征包括原子序數(shù)以及其他重要屬性[44]。該模型使用較為基礎(chǔ)的函數(shù)以及非線性激活函數(shù)Swish 來進行消息傳遞,從相鄰節(jié)點傳遞的消息迭代更新節(jié)點。ForceNet 遵循GNS 框架的編碼器-解碼器架構(gòu),編碼器使用迭代消息傳遞來獲取每個原子周圍的3D 結(jié)構(gòu);解碼器使用多層感知器(Multilayer Perceptron, MLP)直接預測每個原子的力,它能有效地捕捉到非線性的復雜3D 原子間的相互作用[24]。目前,F(xiàn)oceNet 已應(yīng)用于OC20 數(shù)據(jù)集[24]。ForceNet 在訓練以及預測過程速度都比較快,同時也可以實現(xiàn)對力的精準預測,但其以力為中心對力場建模的復雜性仍有待完善。
本文重點關(guān)注機器學習在構(gòu)建力場中的應(yīng)用,介紹了機器學習力場的發(fā)展背景以及重大進展,講述了幾種機器學習力場中比較常見的模型方法,如基于核函數(shù)的sGDML 模型,以及基于神經(jīng)網(wǎng)絡(luò)的SchNet 模型和ForceNet 模型,方便讀者對該領(lǐng)域有一個清楚的認識。就目前數(shù)據(jù)而言,sGDML 加入了相關(guān)的物理對稱性的考量,表現(xiàn)出更加優(yōu)異的性能。與傳統(tǒng)力場方法相比,機器學習方法的引入很大程度上降低了時間消耗和昂貴的成本。隨著半導體領(lǐng)域數(shù)據(jù)量的增多,要解決的問題也接踵而來,隨著機器學習力場這一跨學科領(lǐng)域的蓬勃發(fā)展,它在該領(lǐng)域?qū)鹬匾淖饔谩C器學習力場可以簡化力場生成過程,減少人工干預,逐步代替經(jīng)典力場來實現(xiàn)高水平的分子動力學模擬。
從機器學習力場在分子動力學模擬中的應(yīng)用[45]已經(jīng)可以看出其發(fā)展不可限量,不僅如此,MLFF 在生物領(lǐng)域[46]、材料領(lǐng)域[47-50]、化學領(lǐng)域[51]同樣有著廣泛的應(yīng)用,但其仍存在著許多問題等著人們?nèi)ヌ魬?zhàn)。如:
(1)對于比較復雜的分子動力學模擬系統(tǒng),簡單的特征描述符無法很好地展現(xiàn)其性能,因此MLFF會對原子特征描述符的構(gòu)建有著更高的要求;
(2)目前MLFF 的主要應(yīng)用對象仍不是特別大的分子體系;對于特大分子體系,MLFF 由于計算成本、精度等限制并未展現(xiàn)出較好的性能;
(3)通過MLFF 生成的針對某一種分子體系的力場并不適用于另外的一種不同分子的體系,其通用性有待提高。
機器學習力場是一個新興的領(lǐng)域,仍有很多未知的可能等待人們?nèi)ヌ剿?。因此,本文認為未來可以從以下幾個方面進行優(yōu)化:
(1)通過降低復雜勢能面的維度或者通過增強物理先驗知識來降低計算復雜度,使MLFF 應(yīng)用在特大分子體系成為可能,提高MLFF 在特大分子體系上的性能;
(2)優(yōu)化模型性能,在保證精度的前提下,盡可能降低計算成本,將機器學習力場模型與更復雜的模型系統(tǒng)結(jié)合,并對其實現(xiàn)精準預測;
(3)提高模型的可擴展性和泛化性,增加先驗知識的干預,改善特定MLFF 模型只對某特定領(lǐng)域最優(yōu)的現(xiàn)象,將機器學習力場擴展到更廣泛的領(lǐng)域。
總之,機器學習力場是一個有深遠研究意義的領(lǐng)域,仍有很多未知的方法和應(yīng)用,并且對于理論、算法以及實踐的改進空間都比較大。鑒于MLFF 這一跨學科領(lǐng)域的成功,相信MLFF 在未來一定會成為眾多領(lǐng)域的重要組成部分。
利益沖突說明
所有作者聲明不存在利益沖突關(guān)系。