亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于對抗學習的自適應(yīng)加權(quán)方面級情感分類算法

        2023-04-19 05:17:24張華輝廖凌湘劉鑫磊
        小型微型計算機系統(tǒng) 2023年4期
        關(guān)鍵詞:分類機制文本

        張華輝,馮 林,廖凌湘,劉鑫磊,王 俊

        1(四川師范大學 計算機科學學院,成都 610100)2(四川師范大學 商學院,成都 610100) E-mail:fenglin@sicnu.edu.cn

        1 引 言

        方面級情感分類是一種細粒度的情感分類任務(wù),旨在識別文本中不同方面的情感,如文本:“Good food but dreadful service at that restaurant.”中,方面詞food表達了積極情感,起作用的情感詞是Good,方面詞service表達了消極情感,起作用的情感詞是dreadful.在文本含有多個情感詞的情況下,如何令情感詞動態(tài)地自適應(yīng)方面詞是值得關(guān)注的一個問題.

        在處理方面級情感分類問題上,傳統(tǒng)的機器學習算法取得了一定的效果.通過復(fù)雜的人工規(guī)則和特征工程構(gòu)造機器學習模型,但是這類做法往往需要消耗大量的時間和寶貴人力資源,而且訓(xùn)練出來的分類器存在精度較低、泛化能力較弱等問題.

        近年來,方面級情感分類問題在深度網(wǎng)絡(luò)模型中取得了長足的進步,特別是深度網(wǎng)絡(luò)模型結(jié)合注意力機制能更好的提取深層次的文本特征、減少人工干預(yù)、提升模型的精度和泛化能力.Sun等人[1]通過方面詞構(gòu)造輔助句子,將方面級情感分類任務(wù)轉(zhuǎn)化為句子對分類任務(wù),分類效果有一定提升.Xu等人[2]基于BERT模型添加后訓(xùn)練任務(wù),讓模型增加領(lǐng)域和任務(wù)相關(guān)知識,取得了不錯的分類效果.Yang等人[3]提出了一種基于上下文的局部注意力聯(lián)合模型,模型能處理中英文數(shù)據(jù),集成訓(xùn)練了領(lǐng)域適應(yīng)的后訓(xùn)練任務(wù),在多個基準數(shù)據(jù)集上有最佳表現(xiàn).

        然而,大多數(shù)深度網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)情感分類模型采用均值注意力,不能很好的感知到文本情感詞,突出情感詞對文本分類的影響.同時,在一條文本中,還會有上文提到的多個情感詞的情況.所以,如何令情感詞動態(tài)地自適應(yīng)方面詞是非常值得研究的問題.為此,本文提出一種基于對抗學習的自適應(yīng)加權(quán)方面級情感分類算法AWSCM(Adaptive Weighted aspect-level Sentiment Classification Model based on adversarial learning),AWSCM通過動態(tài)加權(quán)機制對文本的每個單詞自適應(yīng)地學習權(quán)重,提升情感詞影響.同時,為提升模型的魯棒性,AWSCM采用了對抗學習,通過對抗學習算法和訓(xùn)練樣本計算擾動以獲得對抗樣本,再通過學習對抗樣本擴大模型的決策邊界.實驗結(jié)果表明,AWSCM與基線模型相比較有提升,而且通過消融實驗也驗證了AWSCM的注意力機制和對抗學習方法有效,AWSCM的結(jié)構(gòu)設(shè)計合理.

        2 相關(guān)知識

        2.1 對抗學習

        在對抗學習[4]的訓(xùn)練中,標簽采用的是原訓(xùn)練樣本的標簽,通過對抗學習,模型可以優(yōu)化決策邊界,提升模型的魯棒性和泛化能力.

        在有標簽的環(huán)境下,對抗訓(xùn)練損失為:

        在無標簽的環(huán)境下,對抗訓(xùn)練損失為:

        由Goodfellow等人[5]提出的FGSM(Fast Gradient Sign Method)算法是一種基于梯度計算擾動的方法.FGSM算法先通過輸入數(shù)據(jù)計算梯度,再通過梯度計算擾動,公式如下:

        g=▽xL(Θ,x,y)
        radv=ε·sign(g)

        式中,L表示損失函數(shù),g表示梯度,sign表示激活函數(shù).

        由Dai等人提出的FGM(Fast Gradient Method)算法[6]是基于FGSM的改進.FGM提出一種基于輸入梯度L2范數(shù)縮放的優(yōu)化計算擾動公式為:

        radv=ε·g/‖g‖2,where g=?xlog p(y|x;Θ)

        FGSM和FGM都是依據(jù)超參數(shù)ε可以一步到位獲得擾動radv,為獲得更優(yōu)解的擾動,Madry等人[7]提出基于多次迭代的PGD(Projected Gradient Descent)算法,PGD算法的對抗樣本計算公式為:

        xt+1=Πx+R(xtαsign(?xL(Θ,x,y)))

        式中,R表示擾動集合,α表示步長,Πx+R表示以某個擾動閾值為半徑的球上投影,如果迭代擾動幅度過大會投影回球面.PGD算法通過α步長迭代多次獲得和學習對抗樣本,再最優(yōu)化內(nèi)部損失和外部損失,公式如下:

        式中,D表示一種數(shù)據(jù)分布.對比FGSM和FGM算法,PGD算法需要多次迭代優(yōu)化擾動,存在計算資源消耗較大的問題.因此,FreeAT算法[8]和YOPO算法[9]都是基于PGD的訓(xùn)練消耗問題,相繼提出的優(yōu)化算法.

        此外,基于計算擾動優(yōu)化問題,Zhu等人[10]提出FreeLB算法,通過求取多次迭代的平均梯度計算擾動.Jiang等人[11]提出關(guān)于對抗正則損失的擾動優(yōu)化計算,提升模型的魯棒性.

        2.2 BERT模型

        2018年,Devlin等人[12]提出的BERT模型,刷新了NLP大多數(shù)任務(wù)的最佳表現(xiàn).BERT模型與以往的卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)完全不同,采用Transformer[13]的編碼器Encoder結(jié)構(gòu).

        首先,BERT模型注意力機制的一個核心組件是縮放注意力機制(Scaled Dot-Product Attention,SDA).其計算公式為:

        式中,Q、K、V是文本向量化后的查詢、鍵、值矩陣.dk代表K的維度,dk使內(nèi)積不至于太大,防止梯度消失.

        其次,BERT模型注意力機制的另一個關(guān)鍵組件是多頭注意力(Multi-Head Attention,MHA),如圖1所示,Q、K、V要先進行線性變換,再進行SDA操作,得到某一個頭的計算公式如下:

        圖1 多頭注意力機制Fig.1 Multi-head attention mechanism

        一次SDA計算操作是一種角度的特征提取,這種操作要進行多次,即多角度進行特征的提取,也就是多頭注意力,然后把SDA提取的所有特征進行拼接和線性變換,得到多頭注意力的表示如下:

        MHA=(MHA1?MHA2?…?MHAh)·W*

        3 AWSCM模型

        假設(shè)數(shù)據(jù)集文本表示為context={w1,w2,…,wk,wk+1,…,wk+t-1,…,wm},方面詞表示為aspect={wk,wk+1,…,wk+t-1},方面詞情感標簽polarity∈{-1,0,1}.其中,m表示文本長度、t表示方面詞長度、k∈[1,m)表示方面詞在文本中的起始位置.那么,方面級情感分類的任務(wù)可以描述為:

        Function:F[(context,aspect)]→polarity

        即從上下文中學習方面詞的情感.

        圖2 AWSCM模型結(jié)構(gòu)Fig.2 Structure of AWSCM model

        AWSCM的結(jié)構(gòu)如圖2所示,主要有4部分組成:輸入層、編碼層、注意力機制層、分類層.輸入層輸入通過特定預(yù)處理后的文本序列.編碼層采用BERT模型對文本編碼,通過訓(xùn)練樣求取梯度以計算擾動,擾動加在訓(xùn)練樣本上生成對抗樣本.在注意力機制層,動態(tài)加權(quán)機制提取到自適應(yīng)權(quán)重文本特征、多頭注意力機提取深層文本特征.在分類層,模型聯(lián)合學習文本特征,并完成對抗樣本的訓(xùn)練.

        3.1 輸入層

        將文本預(yù)處理成兩種形式的輸入,由于BERT模型提取的特征較好,所以令這兩種輸入形式都能適配BERT模型輸入,以充分發(fā)揮BERT模型的優(yōu)勢.假設(shè)有一條文本數(shù)據(jù):“The battery is very longer.”那么,通過預(yù)處理會得到輸入序列1樣本:“[CLS] The battery is very longer [SEP] battery [SEP]”和000000011,其中“[CLS]”符號表示起始標識符,“[SEP]”表示分隔符,全0標記“起始符+句子+分隔符”,全1標記“方面詞+分隔符”.以及輸入序列2樣本:“[CLS] The battery is very longer [SEP]”和“[CLS] battery [SEP]”.

        3.2 編碼層

        為了獲得更好的表現(xiàn),AWSCM使用了兩個獨立的特征提取器.在編碼層,使用的都是BERT編碼,通過編碼層每個詞都可以映射到一個對應(yīng)向量空間的位置[14].假設(shè)輸入序列1和輸入序列2分別表示為X1和Xg,那么有:

        圖3 BERT編碼過程Fig.3 Encode process of BERT

        1)嵌入模塊

        首先,根據(jù)BERT字典(1)https://github.com/google-research/bert,將預(yù)處理得到的輸入序列替換成對應(yīng)的BERT詞序列.根據(jù)序列中的“[CLS]”和“[SEP]”等信息,得到與詞序列同等長度的不同句子標志序列,再計算每個詞的位置,由詞位置組成位置序列.最后疊加計算詞序列+不同句子標志序列+位置序列之和作為多頭注意力機制模塊的輸入.

        2)多頭注意力機制模塊

        多頭注意力機制見3.3節(jié)第1部分有詳盡的描述.此部分值得注意的是這里的多頭注意力機制輸出要經(jīng)過隨機失活和歸一化操作.

        3)前饋網(wǎng)絡(luò)模塊

        在前饋網(wǎng)絡(luò)模塊,要經(jīng)過兩次線性變換網(wǎng)絡(luò)和RELU激活函數(shù).假設(shè)多頭注意力機制模塊的輸出為x*,那么有:

        FFN(x*)=max(0,x*W1+b1)W2+b2

        式中的權(quán)重矩陣、偏置都是可學習和隨機初始化的.與多頭注意力機制模塊相似,FFN(x*)也要經(jīng)過隨機失活和歸一化操作.

        最后,AWSCM編碼層的輸出是圖3的BERT編碼過程重復(fù)執(zhí)行6次提取特征的結(jié)果,上一BERT編碼過程的輸出作為下一BERT編碼過程的輸入.

        3.3 注意力機制層

        通過BERT模型自身的注意力機制提取的特征只有一種,較為單一.所以AWSCM采用多頭注意機制提取深層文本特征,采用動態(tài)加權(quán)機制增強文本的局部特征.

        1)多頭注意力機制

        依據(jù)SDA公式有:

        2)動態(tài)加權(quán)機制

        在大多數(shù)情況下,一條文本中可能會有多個情感詞.在多個情感詞的文本環(huán)境下,情感詞的位置很重要,一般而言,靠近方面詞端的情感詞起到的作用較大,而遠離方面詞端的情感詞不僅對方面詞的影響相對較小,還有可能產(chǎn)生相反效果干擾模型的學習.

        為此,AWSCM采用動態(tài)加權(quán)機制增大靠近方面詞端的情感詞權(quán)重、減小遠離方面詞端的情感詞權(quán)重.AWSCM定義了語義距離D,根據(jù)D來給上下文單詞進行動態(tài)分配權(quán)重.根據(jù)本章的符號表示,對context中任意一個單詞wc(1≤c≤m),語義距離D的計算公式為:

        Dc=|c-(k+|t/2|)|-|t/2|

        式中的k和t在上文有提及,分別表示方面詞在文本中的起始位置和方面詞長度.通過上面的公式得到每個位置的語義距離Dc后,進一步計算權(quán)重SC:

        下面通過文本“Good food but dreadful service at that restaurant.”作為案例,展示動態(tài)加權(quán)機制.設(shè)閾值ρ為1,同時暫不考慮起始標識符“[CLS]” 和分隔符“[SEP]”的情況下.當方面詞為food時,那么t=1,k=2,根據(jù)上面的公式有權(quán)重矩陣S={1,2,1,-1,-2,-3,-4},當方面詞為service時,那么t=1,k=5,根據(jù)上面的公式有矩陣S={-2,-1,0,1,2,1,0,-1},將兩種權(quán)重矩陣可視化展示,如圖4所示.

        圖4 權(quán)重分布Fig.4 Weight distribution

        圖4中,橫軸是文本中的每個單詞,縱軸是文本中的方面詞,顏色越深代表響應(yīng)權(quán)重越大.當food為方面詞時,情感詞Good的權(quán)重大于dreadful,而當方面詞為service時,情感詞dreadful的權(quán)重大于Good,展示了多情感詞能自適應(yīng)文本.同時,情感詞Good在不同方面詞food和service下的權(quán)重會不同,情感詞dreadful在不同方面詞下的權(quán)重也會不同,充分展示了情感詞基于不同方面詞對文本的自適應(yīng)性.

        3.4 分類層

        式中Ws和bs是線性網(wǎng)絡(luò)的權(quán)重矩陣和偏置.通過最終語義表示X計算情感概率,有:

        式中yi表示訓(xùn)練樣本的情感預(yù)測概率,Z代表情感的類別數(shù).

        3.5 模型優(yōu)化策略

        假設(shè)模型的參數(shù)Θ,模型使用交叉熵損失函數(shù)進行參數(shù)學習,采用L2規(guī)范化防止過擬合,有模型訓(xùn)練損失L1:

        L=L1+L2

        3.6 AWSCM模型實現(xiàn)

        算法1.AWSCM學習策略

        輸入:數(shù)據(jù)集T,訓(xùn)練次數(shù)epoch,隨機失活率dropout,

        輸出:情感分類模型F

        1. 將數(shù)據(jù)處理成輸入序列1和序列2的形式,表示為X1和Xg

        2 .隨機初始化模型F中所有網(wǎng)絡(luò)參數(shù)

        3. FOR(i=0;i

        4. 通過PGD算法計算X1和Xg的擾動,得到rg和r1

        8. 將y與真實標簽做交叉熵損失,更新參數(shù)

        12. 將y*與真實標簽做交叉熵損失,更新參數(shù)

        13.END FOR

        14.輸出分類模型F

        4 實驗及結(jié)果分析

        4.1 實驗數(shù)據(jù)集

        本文采用SemEval2014任務(wù)4的Laptop、Restaurant評論數(shù)據(jù)集和ACL-14 Twitter社交數(shù)據(jù)集作為實驗數(shù)據(jù)集,如表1所示,Laptop數(shù)據(jù)集一共有2328條訓(xùn)練數(shù)據(jù)和638條測試數(shù)據(jù),Restaurant數(shù)據(jù)集一共有3608條訓(xùn)練數(shù)據(jù)和1120條測試數(shù)據(jù),Twitter數(shù)據(jù)集一共有6248條訓(xùn)練數(shù)據(jù)和692條測試數(shù)據(jù).

        表1 實驗數(shù)據(jù)集Table 1 Datasets of experiment

        4.2 評估標準

        1)準確率:三類樣本中,分類正確的樣本所占的比例.

        式中,Tpos、Tneu、Tneg代表分類正確的積極樣本、中性樣本、消極樣本.Fpos、Fneu、Fneg代表分類錯誤的積極樣本、中性樣本、消極樣本.

        2)f1macro分數(shù):f1macro分數(shù)是精度和查全率的加權(quán)平均值.f1macro分數(shù)的公式為:

        式中,Z代表類別數(shù)、precisioni和recalli代表第i類的精度和召回率.

        4.3 實驗環(huán)境

        本文的實驗在TeslaV100-32GPU、PyTorch深度學習框架、Linux操作系統(tǒng)環(huán)境下進行.模型采用Adam優(yōu)化器快速迭代和最小化訓(xùn)練損失[15]、BERT詞嵌入的維度為768、隱含層維度為300、學習率LR=2e-5、L2規(guī)范化的權(quán)重衰減率λ=1e-5、每個batch=16、一個token的最大長度為85、參數(shù)的初始化采用Xavier分布正態(tài)初始化、驗證集和訓(xùn)練集的劃分比為0.25、dropout參數(shù)依據(jù)不同的數(shù)據(jù)集靈活變動[16]、對抗樣本的學習用PGD算法、擾動閾值為1、步長α=0.3、語義距離閾值ρ=5.

        4.4 對比實驗

        1)TD-LSTM模型[17],通過將方面詞與上文、方面詞與下文分別單獨建模,放入長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM),提取最后一層隱含層作為最后的語義表示.

        2)交互注意力網(wǎng)絡(luò)模型(Interactive Attention Networks,IAN)[18]分別采用兩個長短期記憶網(wǎng)絡(luò)對上下文和方面詞編碼,然后分別提取兩個隱含層的注意力特征,最后將上下文注意力和方面詞注意力進行交叉學習.效果比LSTM等模型有較大提升.

        3)循環(huán)注意力記憶網(wǎng)絡(luò)模型(Recurrent Attention Network on Memory,RAM)[19]使用雙向的LSTM來生成記憶切片,記憶切片根據(jù)上下文與方面詞的位置學習不同權(quán)重,然后再通過遞歸網(wǎng)絡(luò)構(gòu)建一個多層注意力模型.

        4)AOA模型[20],模型采用Bi-LSTM對方面詞和上下編碼,然后在隱含層提取方面詞和上下文矩陣乘積的行占比向量與列占比均值向量,二者相乘作為最終的注意力向量.

        5)MGAN模型[21],MGAN模型在IAN模型的基礎(chǔ)上,通過拼接上下文、方面詞以及上下文與方面詞的乘積矩陣提取了更細粒度的注意力網(wǎng)絡(luò).

        6)BERT模型[12],基礎(chǔ)版本的BERT模型采用多頭注意力機制提取特征,在方面級情感分類上有很強的表現(xiàn),超越了很多經(jīng)典模型的深度網(wǎng)絡(luò)模型.

        7)CAJLN模型[22],由楊等人提出的一種面向上下文注意力聯(lián)合學習網(wǎng)絡(luò)的方面級短文本情感分類模型.

        8)基于BERT的交互注意網(wǎng)絡(luò)模型(BERT-base Interactive Attention Network,BIAN)[23],BINA模型在IAN模型的基礎(chǔ)上,通過BERT采用多種注意力機制學習特征.

        實驗結(jié)果如表2所示,其中,Accuray用Acc表示,f1macro用F1表示.

        表2 對比實驗結(jié)果(%)Table 2 Result of compared experiment(%)

        表2中,TD-LSTM、IAN、RAM、AOA、MGAN模型都是基于RNN的深度網(wǎng)絡(luò)模型.TD-LSTM模型較為簡單將方面詞與上文、方面詞與下文分別單獨建模提取特征,在Restaurant和Laptop評論數(shù)據(jù)集上的表現(xiàn)低于其他RNN模型大約5%的準確率,結(jié)果表明TD-LSTM模型提取的特征不好,分類效果不佳.同TD-LSTM模型類似地,IAN模型也是分別對上下文和方面詞單獨建模,再交互學習提取特征,IAN模型提取的特征是淺層次的,實驗效果上低于其他RNN模型大約2%到3%的準確率.RAM、AOA、MGAN模型提取的特征是較為復(fù)雜的深層次特征,從實驗效果上整體來看,深層次注意力網(wǎng)絡(luò)模型RAM、AOA、MGAN相對比淺層次注意力網(wǎng)絡(luò)模型TD-LSTM、IAN效果更好.

        BERT模型的結(jié)構(gòu)完全不同于RNN的模型,在3個公開數(shù)據(jù)集上有較高準確率.CAJLN、BIAN、AWSCM都是基于BERT結(jié)構(gòu)的網(wǎng)絡(luò)模型,AWSCM在Restaurant、Laptop、Twitter數(shù)據(jù)集上的準確率分別為84.48%、78.84%、73.99%,對比BERT模型準確率提升明顯.AWSCM對比CAJLN模型準確率提升1.53%、2.02%、0.71%,對比BIAN模型準確率提升1.37%、2.35%、2.51%.綜上所述,AWSCM與大多數(shù)深度神經(jīng)網(wǎng)絡(luò)情感分類模型相比有提升.

        4.5 消融實驗

        在本小結(jié)通過控制變量驗證動態(tài)加權(quán)機制和對抗學習部分的設(shè)計是否合理.為區(qū)分帶不同子部件的模型,用AWSCM_1表示模型不帶動態(tài)加權(quán)注意力機制和對抗學習算法的情況,用AWSCM_2表示模型不帶對抗學習算法的情況,用AWSCM_3表示模型不帶動態(tài)加權(quán)注意力機制的情況,用AWSCM表示模型子部件完備的情況.消融實驗結(jié)果如表3所示.

        通過表3可以看出,AWSCM_1在Restaurant、Laptop、Twitter數(shù)據(jù)集上準率分別達到了81.61%、75.08%、71.24%,表現(xiàn)好于AOA等5個基線模型,證明模型的基礎(chǔ)部件提取特征能力強.AWSCM_2在Restaurant、Laptop、Twitter數(shù)據(jù)集上比AWSCM_1分別提升2.69%、2.98%、0.73%準確率,F1值也不同程度提升,證明了動態(tài)加權(quán)機制有效,分類效果提升明顯.AWSCM_3在Restaurant、Laptop、Twitter數(shù)據(jù)集上比AWSCM_1分別提升2.32%、1.25%、2.75%準確率,F1值也不同程度提升,證明了AWSCM的對抗學習算法能擴大模型的決策邊界.AWNBLA對比AWSCM_2、AWSCM_3在不同數(shù)據(jù)集上有不同程度的提升,驗證了模型的結(jié)構(gòu)設(shè)計合理.

        由表1可知,Twitter數(shù)據(jù)集對比Laptop和Restaurant數(shù)據(jù)集有更明顯的數(shù)據(jù)不平衡問題.在Twitter數(shù)據(jù)上,AWSCM對比AWSCM_3準確率沒有提升,F1值小幅度提升0.11%,同時AWSCM_2比較AWSCM_1(即動態(tài)加權(quán)機制的消融)也是只有0.73%的較小幅度提升.類似的情況,還有基線模型中的RAM模型對比TD-LSTM模型,在Restaurant和Laptop數(shù)據(jù)集上表現(xiàn)好于TD-LSTM模型,然而在Twitter數(shù)據(jù)集上反而差于TD-LSTM.AWSCM的一個局限性就是沒有采取有效的方法處理數(shù)據(jù)不平衡問題.另外,AWSCM的另一個局限性在于AWSCM的動態(tài)加權(quán)機制是一種模糊注意力機制,不能直接感知情感詞的位置,準確的賦予情感詞更大的權(quán)重.

        5 總結(jié)及未來的工作

        方面級情感分類是情感分析的子任務(wù).早期的傳統(tǒng)機器學習方法在處理方面級情感分類問題上取得了一定的成就,然而存在繁瑣的特征工程處理、訓(xùn)練出的分類器準確率低、泛化能力弱等問題.近年來,深度神經(jīng)網(wǎng)絡(luò)結(jié)合注意力機制模型有更好的表現(xiàn),能提取出更深層次的文本特征,提升模型的準確率,然而大多數(shù)模型的注意力機制使用的是均值注意力,均值注意力機制無法有效的賦予情感詞比較大的權(quán)重.為此,AWSCM采用了一種動態(tài)加權(quán)機制,通過動態(tài)加權(quán)機制能有效降低遠離方面詞端的情感詞影響,提升靠近方面詞端的情感詞作用.同時,為了提升模型的魯棒性,AWSCM還通過訓(xùn)練對抗樣本擴大模型的決策邊界,提升分類效果.實驗結(jié)果表明,動態(tài)加權(quán)機制能增強靠近方面詞端的情感詞作用,提升分類準確率,基于對抗樣本的訓(xùn)練能擴大模型決策邊界,提升模型的魯棒性.

        但是,AWSCM沒有處理不平衡數(shù)據(jù)的機制,以及在情感詞的感知上采用的是模糊注意力機制.所以,下一步的工作將圍繞不平衡數(shù)據(jù)處理問題和靠近方面詞端的情感詞感知問題展開.

        猜你喜歡
        分類機制文本
        分類算一算
        在808DA上文本顯示的改善
        分類討論求坐標
        基于doc2vec和TF-IDF的相似文本識別
        電子制作(2018年18期)2018-11-14 01:48:06
        自制力是一種很好的篩選機制
        文苑(2018年21期)2018-11-09 01:23:06
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
        破除舊機制要分步推進
        注重機制的相互配合
        97超在线视频免费| 亚洲av午夜福利精品一区| 国偷自产视频一区二区久| 国产精品原创巨作AV女教师 | 一区二区三区日本伦理| 成人午夜特黄aaaaa片男男| 国产极品美女高潮无套在线观看| 91尤物在线看| 国产av剧情久久精品久久| 久久97久久97精品免视看 | 国产乱人无码伦av在线a| 国产色a在线观看| 91青草久久久久久清纯| 亚洲毛片αv无线播放一区| 99热久久只有这里是精品| 国产视频激情在线观看| 人妻体内射精一区二区三四| 亚洲熟妇少妇69| 精品国产一区二区三区久久狼| 国产一区二区三区av免费| 国产精品乱码一区二区三区| 2021国产精品视频| 午夜亚洲精品一区二区| 女人的精水喷出来视频| 四房播播在线电影| 欧美人与物videos另类| 国产在线观看午夜视频| 亚洲国产av无码专区亚洲av| 国产另类综合区| 国产av一区二区内射| 精品国产品香蕉在线| 中文字幕欧美人妻精品一区| 亚洲аv天堂无码| 91久久精品一二三区色| 国产成人无码av一区二区在线观看 | 国产精品亚洲第一区二区三区| 在线亚洲午夜理论av大片| 日韩激情小视频| 亚洲av一二三又爽又爽又色| 久久精品国产亚洲夜色av网站| 亚洲成色www久久网站夜月|