亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        深度神經(jīng)網(wǎng)絡(luò)在化學(xué)中的應(yīng)用研究

        2018-07-04 01:38:26秦琦楓劉思瑩
        江西化工 2018年3期
        關(guān)鍵詞:深度化學(xué)方法

        秦琦楓 曾 斌 劉思瑩

        (東華理工大學(xué),江西 南昌 330013)

        1 引言

        深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)又稱為深度學(xué)習(xí)(Deep Learning),是機器學(xué)習(xí)算法中一個非常重要的分支[1]。在聞名一時的AlphaGo中,深度神經(jīng)網(wǎng)絡(luò)是其核心算法。AlpahGo是谷歌開發(fā)的下圍棋程序,擊敗了多個頂級圍棋選手。圍棋是世界上最復(fù)雜的棋類游戲之一,在一塊19×19的棋板上有將近10170個位置可以走。相比于圍棋的復(fù)雜度,化學(xué)顯得簡單很多,有研究估計Lipinski虛擬化學(xué)空間大約僅有1060種化合物。

        機器學(xué)習(xí)算法目前已經(jīng)廣泛應(yīng)用于計算化學(xué)的多個領(lǐng)域,如:計算機輔助藥物發(fā)現(xiàn)[2]、材料屬性預(yù)測等。但是,深度神經(jīng)網(wǎng)絡(luò)與這些傳統(tǒng)的機器學(xué)習(xí)方法有著顯著的不同之處,DNN(Deep Neural Network)通常能夠獲得更好的表現(xiàn),但是對數(shù)據(jù)量大小依賴嚴重。深度學(xué)習(xí)已經(jīng)在化學(xué)中的部分領(lǐng)域取得可喜的成績,如2012年的Merck舉辦的活性預(yù)測比賽中,深度神經(jīng)網(wǎng)絡(luò)大幅(約15%)超過了Merck公司內(nèi)部的基線模型,一舉奪冠。此外,在2014年NIH(National Institutes of Health)組織的Tox21毒性預(yù)測挑戰(zhàn)賽中,基于深度學(xué)習(xí)的多任務(wù)模型也獲得不錯的成績。

        深度學(xué)習(xí)頻頻的出色表現(xiàn)的原因總結(jié)起來大概有以下幾點:

        (1)深度神經(jīng)網(wǎng)絡(luò)算法不需要任何人為的特征構(gòu)建,完全基于數(shù)據(jù)來自動生成;

        (2)相比于傳統(tǒng)機器學(xué)習(xí)算法,神經(jīng)網(wǎng)絡(luò)的模型非常復(fù)雜,隨著網(wǎng)絡(luò)層數(shù)的增加,模型參數(shù)會大幅增多,從而提高表現(xiàn)力;

        (3)只考慮如何利用輸入特征得到想要的結(jié)果,不關(guān)心中間過程。

        由于深度神經(jīng)網(wǎng)絡(luò)中存在層級,即可以將輸入數(shù)據(jù)上進行多個層次的表征,實現(xiàn)了“分層”表征的概念,結(jié)合BP訓(xùn)練算法以及dropout等訓(xùn)練方法不斷優(yōu)化模型,模型的表現(xiàn)力隨著層數(shù)的增加程指數(shù)增長。

        深度神經(jīng)網(wǎng)絡(luò)具有如此優(yōu)良的表現(xiàn),化學(xué)作為一門以實驗為主的學(xué)科,如何把人工智能的算法運用到化學(xué)實驗分析中去值得研究。目前,國內(nèi)外學(xué)者已經(jīng)在化學(xué)信息學(xué)中的構(gòu)效關(guān)系定量研究(QSAR)、輔助藥物發(fā)現(xiàn)、輔助材料發(fā)現(xiàn)、化合物屬性預(yù)測、材料屬性預(yù)測和有機反應(yīng)產(chǎn)物預(yù)測等研究領(lǐng)域?qū)ι疃壬窠?jīng)網(wǎng)絡(luò)的應(yīng)用進行了探索。考慮到QSAR問題的重要性以及現(xiàn)有研究成果更為豐富,本文著重介紹深度神經(jīng)網(wǎng)絡(luò)在構(gòu)效關(guān)系定量研究中的應(yīng)用。

        既然深度神經(jīng)網(wǎng)絡(luò)具有如此優(yōu)良的性能,化學(xué)作為一門實驗學(xué)科,該如何借助深度神經(jīng)網(wǎng)絡(luò)的力量來提升研究水平呢?國內(nèi)外學(xué)者已經(jīng)在化學(xué)中的以下問題中對深度神經(jīng)網(wǎng)絡(luò)的應(yīng)用進行了探索,分別是:化學(xué)信息學(xué)中的構(gòu)效關(guān)系(quantitative structure-activity relationship,QSAR)定量研究;輔助藥物發(fā)現(xiàn);輔助材料發(fā)現(xiàn);化合物屬性預(yù)測;材料屬性預(yù)測;有機反應(yīng)產(chǎn)物預(yù)測等??紤]到QSAR問題的重要性以及現(xiàn)有研究成果更為豐富,本文著重介紹深度神經(jīng)網(wǎng)絡(luò)在構(gòu)效關(guān)系定量研究中的應(yīng)用。

        2 深度神經(jīng)網(wǎng)絡(luò)概述

        神經(jīng)網(wǎng)絡(luò)算法是以網(wǎng)絡(luò)拓撲知識為理論基礎(chǔ),模擬人腦的神經(jīng)系統(tǒng)對復(fù)雜信息的處理機制的一種數(shù)學(xué)模型[3,4]。該網(wǎng)絡(luò)由3部分構(gòu)成:輸入層、隱含層和輸出層;其中,隱含層通常不止一層。訓(xùn)練神經(jīng)網(wǎng)絡(luò),通常使用梯度下降法。梯度下降(Gradient Descent)是迭代法的一種,也是一個最優(yōu)化算法,它將負梯度方向作為搜索方向,越接近最優(yōu)化目標,步長越小,前進越慢,當(dāng)步長小于一個給定的值或迭代次數(shù)達到設(shè)定的上限,迭代停止。

        圖1 深度神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)

        圖1為深度神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)樣例,實際應(yīng)用時,網(wǎng)絡(luò)結(jié)構(gòu)可以根據(jù)問題任意調(diào)整。事實上,每一個不同結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)都可以認為是一個獨立的算法,因此,深度神經(jīng)網(wǎng)絡(luò)理論上可以認為是大量算法的集合。相比于淺層神經(jīng)網(wǎng)絡(luò),深度神經(jīng)網(wǎng)絡(luò)的參數(shù)非常多,因此深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練一度是一個大難題,存在的問題主要是如何更新這些參數(shù)。

        對于如何調(diào)整參數(shù)問題的解決,反向傳播(backpropagation,BP)算法發(fā)揮了極其關(guān)鍵的作用。BP算法根據(jù)輸出的誤差利用梯度下降算法對權(quán)值進行反向調(diào)整,但是,簡單的將BP算法移植到深度神經(jīng)網(wǎng)絡(luò)往往不可行。原因主要是隨著網(wǎng)絡(luò)層數(shù)的增加,梯度的計算會出現(xiàn)問題。學(xué)者們試圖用有監(jiān)督學(xué)習(xí)的方式訓(xùn)練深度神經(jīng)網(wǎng)絡(luò),然而方法不是十分奏效,陷入了困境,主要是這幾點原因:數(shù)據(jù)獲取,局部極值、梯度彌散。一直沒找到有效解決這些問題的方法,深度神經(jīng)網(wǎng)絡(luò)的發(fā)展一度陷入低谷,期間較為流行的機器學(xué)習(xí)算法是SVM和集成模型(隨機森林、Adaboost等)。

        后來,Hilton在nature上發(fā)表了一篇文章Reducing the dimensionality of data with neural networks,針對上面提到的三個深度學(xué)習(xí)問題,提出了棧式自編碼器+BP微調(diào)的解決方案。棧式自編碼神經(jīng)網(wǎng)絡(luò)是無監(jiān)督學(xué)習(xí)算法。因而不需要規(guī)模很大的有標簽樣本;經(jīng)過自編碼神經(jīng)網(wǎng)絡(luò)訓(xùn)練后的參數(shù)已經(jīng)落在一個較優(yōu)的位置上,從這個位置開始BP微調(diào),不用擔(dān)心局部極值問題;自編碼神經(jīng)網(wǎng)絡(luò)訓(xùn)練已經(jīng)使深度網(wǎng)絡(luò)的前幾層參數(shù)具有表達能力了,即使有梯度彌散問題,前幾層參數(shù)不再更新,也不會影響最終深度網(wǎng)絡(luò)的表達能力。

        在12年的ILSVRC競賽中,Hilton團隊的Alexnet模型Imagenet classification with deep convolutional neural networks將1000類分類的top-5誤差率降低到了15.3%,碾壓了第二名使用SVM算法的26.2%,開啟了深度學(xué)習(xí)的革命,從此之后,深度學(xué)習(xí)走上了指數(shù)式的發(fā)展道路。

        3 深度神經(jīng)網(wǎng)絡(luò)在化學(xué)中的應(yīng)用研究現(xiàn)狀

        深度神經(jīng)網(wǎng)絡(luò)在化學(xué)中的應(yīng)用主要是由一系列的相關(guān)數(shù)據(jù)競賽開啟,其中最經(jīng)典的DNN框架在QSAR中一次次把性能推向頂峰[5-7]。首次將深度學(xué)習(xí)引入QSAR中是在2012年關(guān)于15個藥物靶標的預(yù)測比賽中,由Dahl和Hinton帶領(lǐng)的團隊贏得Merck贊助的Kaggle比賽,DNN以微弱的優(yōu)勢的平均R2(皮爾森相關(guān)系數(shù)平方)0.494的成績打敗了近十多年中一直處于領(lǐng)軍地位的模型 RF模型(0.420)該方法在數(shù)據(jù)的編碼過程采用了“atom pair”描述符和“donor-acceptor-pair”描述符。其描述符的基本范式是:原子i—(鍵距)—原子j。受到這次深度學(xué)習(xí)表現(xiàn)的鼓舞之后,在2014年,Dahl等人將該方法改進后應(yīng)用于PubChem的19套芯片數(shù)據(jù)中。其編碼方式是利用Dragon計算的3764個Dragon分子描述符,每一個描述符用Z-score進行轉(zhuǎn)化,將單任務(wù)的基于DNN的QSAR模型發(fā)展為多任務(wù)的基于DNN的QSAR模型,模型基于多任務(wù)學(xué)習(xí)具備的一些優(yōu)勢,能夠產(chǎn)生一套更加普適的特征;權(quán)值被更多的數(shù)據(jù)優(yōu)化以及被共享;一個模型能夠解決多個任務(wù);有可能提高模型的表現(xiàn)等。

        同年,Hochreiter等將多任務(wù)的DNN方法擴展到了一個更大的數(shù)據(jù)集——大規(guī)模的具有生物活性的化合物數(shù)據(jù)集ChEMBL,該數(shù)據(jù)集包含了1300萬個ECFP12分子描述符;130萬個化合物、5000個藥物靶標,數(shù)據(jù)量顯著高于Kaggle 2012數(shù)據(jù)集(包含11000個分子描述符、164000個化合物、15個藥物靶標)。Hochreiter等人利用ECFP12的編碼方式對數(shù)據(jù)集中化合物的子結(jié)構(gòu)進行編碼[8],組成了一個超高維的稀疏矩陣。在映射過程中,采用未公開的訓(xùn)練策略,構(gòu)建了超大規(guī)模的多任務(wù)DNN模型,能夠使得1230個靶標同時進行預(yù)測,并將之與傳統(tǒng)的機器學(xué)習(xí)算法(SVM、Binary Kernel Discrimination、Logistic回歸、k近鄰)以及一些商業(yè)軟件的方法(如基于Parzen Rosenblatt KDE的方法、基于Pipeline Pilot的貝葉斯分類方法、Similarity Ensemble Approach)進行比較[9-13]。他們用實驗證明了多任務(wù)的DNN模型表現(xiàn)出來的能力比其他傳統(tǒng)機器學(xué)習(xí)方法都要略高一籌,此后Hochreiter等人開始致力于將多任務(wù)DNN隱層中對于化合物分層、抽象、復(fù)雜的表征遷移到其他任務(wù)中去。

        在2015年,Ramsundar利用擴展連通性指紋(ECFP4)的分子片段編碼方式對化合物進行編碼,隨后將其輸入多任務(wù)DNN框架中,用于分子對接評估的假陽性化合物庫(增強版)(directory of useful decoys enhanced,DUD-E)數(shù)據(jù)集以及NIH組織毒性預(yù)測比賽的Tox21數(shù)據(jù)集中,采用Relu和Dropout的訓(xùn)練策略構(gòu)建多任務(wù)QSAR模型。也發(fā)現(xiàn)其結(jié)果明顯優(yōu)于傳統(tǒng)機器學(xué)習(xí)。多任務(wù)的DNN模型在QSAR的表現(xiàn)開始深入人心,2016年Hochreiter等人再一次利用多任務(wù)的DNN框架開發(fā)化合物毒性評估模型DeepTox,并且在NIH組織的Tox21的比賽中取得了優(yōu)異的成績。技術(shù)手段上和前人沒有太大的差異,所不同的是采用了靜態(tài)編碼(3D和2D的分子描述符及預(yù)先定義的2500個毒性基團等)和動態(tài)編碼(ECFP、DFS、RAD2D等)的編碼的方式。

        除了傳統(tǒng)DNN框架在QSAR模型中的實現(xiàn)外。在計算機視覺領(lǐng)域風(fēng)靡的CNN框架也有不錯的表現(xiàn),相比DNN,CNN框架QSAR模型的開發(fā)更加智能化,只需要最原始的簡化分子線性輸入規(guī)范便能進行模型的訓(xùn)練工作,避免了不少特征工程的工作。

        首先利用CNN編碼分子圖,獲得小分子分布式的表征的是Duvenaud等人,通過模型訓(xùn)練和優(yōu)化構(gòu)建端對端的QSAR模型,能夠直接從SMILES映射到性質(zhì),開發(fā)了一套基于神經(jīng)網(wǎng)絡(luò)的分子指紋(neural finger print,NFP)的方法,這里是將每一步迭代過程中的信息傳遞用CNN進行轉(zhuǎn)移,然后從每一個迭代層中提取信息,再把這些信息累加起來,作為該分子的表征或者指紋,將其輸入標準的ANN中,實現(xiàn)端對端的可微系統(tǒng),該方法被應(yīng)用到了3個數(shù)據(jù)集中:對于水溶性預(yù)測,該方法達到了0.52±0.07均方根誤差(RMSE)的水平;在藥物有效性的預(yù)測中,該方法達到了1.16±0.03RMSE的水平;在有機光伏轉(zhuǎn)化的預(yù)測中,該方法達到了1.43±0.09RMSE的水平。這些數(shù)據(jù)集在該方法中的成功應(yīng)用說明了該方法具有較好的普適性。

        隨后Kearnes等人基于類似的想法開發(fā)了另外一套基于分子圖卷積(molecular graph convolution,MGC)的方法[14],將原子水平的特征(原子特征及原子之間鍵的特征)依據(jù)圖的拓撲結(jié)構(gòu),通過CNN對每個中心原子進行特征提取,從而構(gòu)建分子水平的表征,然后通過BP算法優(yōu)化這些表征,從而完成多任務(wù)模型的開發(fā),與此同時,Kearnes等人將其與Duvenaud等人的方法數(shù)據(jù)集進行比較,水溶性、藥物有效性和有機光伏轉(zhuǎn)化性預(yù)測上分別以0.06、0.09、0.33 RMSE的微弱優(yōu)勢領(lǐng)先,前文提到的兩CNN框架都是用來預(yù)測分子層面的性質(zhì)。Swamidass等人將CNN應(yīng)用到類藥小分子環(huán)氧化作用的機理中,從而判斷類藥分子的毒性。Swamidass等人設(shè)計了專門針對該類問題的深度學(xué)習(xí)架構(gòu),該研究組還將類似的模型架構(gòu)應(yīng)用到了小分子與軟親核試劑的反應(yīng)預(yù)測中,并對是否能夠發(fā)生反應(yīng)進行了預(yù)測,其準確率為80.6%,還預(yù)測了小分子的反應(yīng)位點,其準確率為90.8%,但是該機理模型對于數(shù)據(jù)集的標注比較繁瑣,需要對化合物的每一個鍵進行性質(zhì)的標注,并且要求訓(xùn)練數(shù)據(jù)集要清楚分子反應(yīng)機理。2015年Wallach等人發(fā)表了基于3D結(jié)構(gòu)的CNN模型——AtomNet,用來預(yù)測小分子和蛋白口袋的相互作用,同時與前人的結(jié)果進行較為公平的比較,發(fā)現(xiàn)AtomNet相比以前的對接方法有著顯著的提高,Pereira等人也利用類似于在自然語言處理中比較流行的word embedding的方法構(gòu)建了CNN的框架,預(yù)測小分子和蛋白口袋的相互作用。其發(fā)展的DeepVS-ADV模型在DUD的40個靶標中表現(xiàn)出0.810的平均AUC。以上是CNN在QSAR模型中的應(yīng)用進展情況介紹,其中Duvenaud等人[15]和Kearnes等人的方法為化合物的性質(zhì)預(yù)測提供了一套智能化的QSAR模型構(gòu)建方式,并擁有高水平的預(yù)測能力,加快了基于性質(zhì)預(yù)測的QSAR模型的開發(fā)。Wallach等人和Pereira等人提出了基于深度學(xué)習(xí)的3D結(jié)構(gòu)表征方式,促進了化學(xué)信息學(xué)的發(fā)展。為化學(xué)信息學(xué)提供了一套新的分布式的分子表征方法。

        相比于CNN和DNN在QSAR中的進展,深度神經(jīng)網(wǎng)絡(luò)模型RNN也開始受到關(guān)注,首先是由Lusci等人[16]在2013年利用無向圖遞歸神經(jīng)網(wǎng)絡(luò)(UGRNN)預(yù)測類藥小分子的水溶性,通過BP算法更新共享的權(quán)值,從而訓(xùn)練整個網(wǎng)絡(luò),最后通過組合模型策略對輸出結(jié)果進行評估,該模型對水溶性數(shù)據(jù)集的表現(xiàn)分別為0.92R2,0.91R2,0.81R2,優(yōu)于先前的其他一些模型。Pande課題組[17]將RNN中應(yīng)用最廣泛、最成功的模型LSTM應(yīng)用于多任務(wù)QSAR中[18],基于one-shot學(xué)習(xí)開發(fā)Residual LSTM方法。該方法被證明是一套較為不錯的方法,總體來說,RNN在QSAR模型中的應(yīng)用還比較少。但這并不能掩蓋RNN在化學(xué)信息學(xué)中具備的潛在能力。近來RNN框架已應(yīng)用于構(gòu)建生成模型,從而設(shè)計與輸入化合物性質(zhì)相似的新的合理的小分子,充分體現(xiàn)了RNN在藥物設(shè)計領(lǐng)域具有較好的應(yīng)用前景。

        DNN框架下的QSAR主要有以下幾個特點:

        (1)在人工智能既定訓(xùn)練方法下,DNN在實際應(yīng)用中比傳統(tǒng)機器學(xué)習(xí)方法表現(xiàn)提高了一個檔次。

        (2)DNN的可擴展性強,在人工智能領(lǐng)域發(fā)展快,對科研項目幫助大。

        (3)從DNN單任務(wù)和多任務(wù)角度出發(fā),數(shù)據(jù)量一定時,隨著任務(wù)數(shù)量的增加,模型的表現(xiàn)也會變得越好,同時也發(fā)現(xiàn)當(dāng)任務(wù)數(shù)一定時,數(shù)據(jù)量越大,模型也會有更好的表現(xiàn)。

        4 展望

        面對化學(xué)中的大量實驗數(shù)據(jù),傳統(tǒng)算法的處理能力常有不足,深度神經(jīng)網(wǎng)絡(luò)顯得更為得心應(yīng)手,更加智能化,深度學(xué)習(xí)的表現(xiàn)比起傳統(tǒng)機器學(xué)習(xí)算法更勝一籌,主要是因為深度學(xué)習(xí)是一種多層描述的表征學(xué)習(xí),通過組合簡單、非線性模塊來實現(xiàn),每個模塊都會將最簡單的描述(從原始或近原始輸入開始)轉(zhuǎn)變成較高層、較為抽象的描述。

        深度學(xué)習(xí)擁有足夠強大的特征提取能力可以從原子層面提取支持分子水平預(yù)測的信息,但目前比較不足的是對于這些深層特征的深層分析。目前研究人員主要采用的策略是重新設(shè)計實驗,專門用來可視化隱層中與目標性質(zhì)相關(guān)的分子片段,并沒有直接從構(gòu)建出來的高水平的QSAR模型本身出發(fā)進行隱層特征的分析,這方面的研究有待加強。

        由于化學(xué)分子數(shù)量多、結(jié)構(gòu)復(fù)雜多樣,深度學(xué)習(xí)應(yīng)用于化學(xué)信息學(xué)還存在一些需要解決的關(guān)鍵科學(xué)問題,包括如何進一步改進過擬合現(xiàn)象和加快深度神經(jīng)網(wǎng)的訓(xùn)練過程;如何發(fā)展更適用于分子二維及三維結(jié)構(gòu)信息特征的編碼方法和網(wǎng)絡(luò)結(jié)構(gòu)、超參數(shù)優(yōu)化算法及多目標深度學(xué)習(xí)算法;如何準確預(yù)測化合物生物網(wǎng)絡(luò)的作用關(guān)系及其生物活性等方面仍然可以有更加深入的研究。

        此外深度神經(jīng)網(wǎng)絡(luò)是一套適合做“感知”的框架,讓適合做“感知”的深度學(xué)習(xí)結(jié)合以推理為核心的貝葉斯神經(jīng)網(wǎng)絡(luò),形成“感知—推理—決策”的范式,從而加快基于深度學(xué)習(xí)的新型藥物設(shè)計的發(fā)展。

        深度學(xué)習(xí)在QSAR乃至化學(xué)信息學(xué)中的應(yīng)用目前還只屬于初步的階段。比如在QSAR模型編碼時,初步發(fā)現(xiàn)一些依靠化學(xué)專業(yè)知識設(shè)計的特征(如分子描述符)已經(jīng)不再那么重要,僅僅依靠非常簡單的原子層面的信息就能組建高水平的QSAR模型。這無疑是歸功于深度學(xué)習(xí)的強大特征學(xué)習(xí)能力。而且這些特征甚至可以在隱層中被轉(zhuǎn)化為一些真實的化合物分子片段的概念,雖然深度學(xué)習(xí)在語音處理、計算機視覺和自然語言處理中的應(yīng)用已經(jīng)非常廣泛,但從目前的化學(xué)領(lǐng)域應(yīng)用的非凡表現(xiàn)來看,如何更好的運用深度學(xué)習(xí)為人類服務(wù)必然是未來研究重點方向。

        [1]Ronan Collobert,J.W.J.Weston:“A Unified Architecture for Natural Language Processing:Deep Neural Networks with Multitask[J].2008.

        [2]Gawehn,E.,J.A.Hiss and G.Schneider,Deep Learning in Drug Discovery[J].Molecular Informatics,2016.35(1):p.3-14.

        [3]Hinton,G.E.,S.Osindero and Y.W.Teh,A Fast Learning Algorithm for Deep Belief Nets[J].Neural Computation,2006.18(7):p.1527-1554.

        [4]Wu,Y.,et al.,Google’s Neural Machine Translation System:Bridging the Gap between Human and Machine Translation[J].2016.

        [5]Vincent,P.,et al.,Stacked Denoising Autoencoders:Learning Useful Representations in a Deep Network with a Local Denoising Criterion[J].Journal of Machine Learning Research,2010.11(12):p.3371-3408.

        [6]SOCHER R.Recursive deep learning for natural language processing and computer vision[J].Citeseer,2014(8):1.

        [7]S,H.and S.J,Long short-term memory[J].Neural Computation,1997.9(8):p.1735-1780.

        [8]孫潭霖與裴劍鋒,大數(shù)據(jù)時代的藥物設(shè)計與藥物信息[J].科學(xué)通報,2015(8):第689-693.

        [9]Graves,A.,A.R.Mohamed and G.Hinton.Speech recognition with deep recurrent neural networks[J].in IEEE International Conference on Acoustics,Speech and Signal Processing.2013.

        [10]Svetnik,V.,et al.,Random forest:a classification and regression tool for compound classification and QSAR modeling[J].Journal of Chemical Information & Computer Sciences,2003.43(6):p.1947.

        [11]Graves,A.,A.R.Mohamed and G.Hinton.Speech recognition with deep recurrent neural networks[J].in IEEE International Conference on Acoustics,Speech and Signal Processing.2013.

        [12]Deng,L.,D.Yu and G.E.Dahl,Deep belief network for large vocabulary continuous speech recognition[J].2013,US.

        [13]He,J.,et al.Deep Reinforcement Learning with a Natural Language Action Space[J].in Meeting of the Association for Computational Linguistics.2016.

        [14]Rumelhart,D.E.,G.E.Hinton and R.J.Williams,Learning representations by back-propagating errors[J].Readings in Cognitive Science,1986.323(6088):p.399-421.

        [15]Duvenaud,D.,et al.,Convolutional Networks on Graphs for Learning Molecular Fingerprints[J].2015:p.2224-2232.

        [16]Evgeniou,T.and M.Pontil.Regularized multi--task learning[J].in Tenth ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.2004.

        [17]S,H.and S.J,Long short-term memory[J].Neural Computation,1997.9(8):p.1735-1780.

        [18]Dahl,G.E.,N.Jaitly and R.Salakhutdinov,Multi-task Neural Networks for QSAR Predictions[J].Computer Science,2014.

        猜你喜歡
        深度化學(xué)方法
        深度理解一元一次方程
        深度觀察
        深度觀察
        深度觀察
        奇妙的化學(xué)
        奇妙的化學(xué)
        奇妙的化學(xué)
        可能是方法不對
        奇妙的化學(xué)
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        日本熟妇人妻xxxx| 极品美女尤物嫩模啪啪| 国产av一区麻豆精品久久| 婷婷色国产精品视频二区| 少妇被粗大的猛烈进出69影院一 | 又大又粗弄得我出好多水| 丰满熟妇人妻av无码区| 国产女人av一级一区二区三区| 久久精品国产免费观看三人同眠| 久久亚洲色www成人欧美| 亚洲另类欧美综合久久图片区| 少妇裸淫交视频免费看| 日本一区二区三区人妻| 韩日午夜在线资源一区二区| 欧美成人小视频| 精品女同一区二区三区不卡| 日本中文一区二区在线| 日韩av东京社区男人的天堂| 久久99欧美| 综合人妻久久一区二区精品| 美女脱了内裤露出奶头的视频| 40岁大乳的熟妇在线观看| 国产黑色丝袜一区在线| av天堂手机一区在线| 国产亚洲成人av一区| 久久精品人人做人人综合| 久久精品国产亚洲婷婷| 91久久大香伊蕉在人线国产| 少妇久久久久久被弄高潮| 吃奶摸下的激烈视频| 99精品国产闺蜜国产在线闺蜜| 国产无卡视频在线观看| 熟妇熟女乱妇乱女网站| 国产精品-区区久久久狼| 人妻少妇喷水意淫诱惑| 极品av一区二区三区| 野外少妇愉情中文字幕| 亚洲 欧美 激情 小说 另类| 青青草在线免费观看在线| 久久综合狠狠综合久久综合88| 人人妻人人澡人人爽人人精品电影|