亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于NEZHA-UniLM模型的農(nóng)業(yè)領(lǐng)域問題生成技術(shù)研究

        2022-09-29 08:12:08黎芬費(fèi)凡彭琳
        湖北農(nóng)業(yè)科學(xué) 2022年16期
        關(guān)鍵詞:微調(diào)領(lǐng)域文本

        黎芬,費(fèi)凡,彭琳

        (云南農(nóng)業(yè)大學(xué)大數(shù)據(jù)學(xué)院,昆明 650000)

        1 引言

        農(nóng)業(yè)作為第一產(chǎn)業(yè),對社會穩(wěn)定和經(jīng)濟(jì)發(fā)展起著至關(guān)重要的作用。農(nóng)業(yè)生產(chǎn)中面臨著許多挑戰(zhàn),其中農(nóng)業(yè)知識的準(zhǔn)確發(fā)現(xiàn)、篩選與應(yīng)用場景一致的農(nóng)業(yè)知識是永恒的主題。隨著農(nóng)業(yè)信息化的發(fā)展,農(nóng)業(yè)在線問答系統(tǒng)以其可以跨越空間和溝通成本低廉的優(yōu)點(diǎn)得到了廣泛應(yīng)用。農(nóng)業(yè)領(lǐng)域問答數(shù)據(jù)集是實(shí)現(xiàn)農(nóng)業(yè)在線問答系統(tǒng)的重要基礎(chǔ),制作農(nóng)業(yè)問答數(shù)據(jù)集不僅需要大量的人力物力,更需要農(nóng)業(yè)專家的支持,因此農(nóng)業(yè)問答數(shù)據(jù)集的自動(dòng)生成受到廣泛關(guān)注。問題生成是一種根據(jù)輸入文本自動(dòng)生成問題的技術(shù),可用于問答數(shù)據(jù)擴(kuò)充。因此,如何在龐大的農(nóng)業(yè)數(shù)據(jù)中就其語句形式的多樣性匹配相關(guān)的語義豐富的問句、農(nóng)業(yè)領(lǐng)域問題生成訓(xùn)練集的數(shù)據(jù)標(biāo)注困難等問題,是近年來問題生成領(lǐng)域急需處理的難題。

        目前,深度學(xué)習(xí)達(dá)到一個(gè)空前繁榮的時(shí)期,隨著很多蘊(yùn)含語義知識的預(yù)訓(xùn)練模型的發(fā)表,預(yù)訓(xùn)練語言模型和微調(diào)在問題生成的很多領(lǐng)域中取得了一定的成果。在問答系統(tǒng)領(lǐng)域,Liu等[1]從大規(guī)模的維基百科語料庫中,使用自動(dòng)化方法生成了大規(guī)模有質(zhì)量的問答對;在閱讀理解領(lǐng)域,Yang等[2]使用半監(jiān)督的方法將模型生成的問題和人工生成的問題相結(jié)合,來訓(xùn)練閱讀理解模型;在醫(yī)療領(lǐng)域,問題生成可以用于臨床上評估人類的心理健康狀態(tài)或提高心理健康水平[3];在農(nóng)業(yè)領(lǐng)域,李巖等[4]針對農(nóng)民用戶在知識和技術(shù)上沒有查詢平臺的問題,依托于自然語言處理和人工智能技術(shù)構(gòu)建了基于知識圖譜的農(nóng)業(yè)知識問答系統(tǒng)。王郝日欽等[5]為實(shí)現(xiàn)農(nóng)業(yè)問答社區(qū)提問數(shù)據(jù)的快速自動(dòng)重復(fù)語義檢測,提出了基于BERT-Attention-DenseBiGRU的農(nóng)業(yè)文本相似度匹配模型,實(shí)現(xiàn)對農(nóng)業(yè)問答社區(qū)相同語義問句自動(dòng)、精確識別。這些領(lǐng)域的應(yīng)用知識在應(yīng)用層面的規(guī)?;?、智能化、體系化等方面仍有很大的提升空間[6],基于農(nóng)業(yè)領(lǐng)域的問題生成研究也未見報(bào)道。因此,如何有效利用現(xiàn)有碎片化的數(shù)據(jù)實(shí)現(xiàn)農(nóng)業(yè)領(lǐng)域的問題生成仍是十分有挑戰(zhàn)性的工作。

        2 方法

        隨著各種預(yù)訓(xùn)練模型的提出,新一代的NLP技術(shù)給農(nóng)業(yè)大數(shù)據(jù)領(lǐng)域帶來更多可能和手段。BERT預(yù)訓(xùn)練模型[7]是第一個(gè)基于微調(diào)的表征模型,其原理是借助Transformer來提取特征,捕獲語句間的交互信息。BERT也是第一個(gè)將無監(jiān)督的預(yù)訓(xùn)練和有監(jiān)督的微調(diào)結(jié)合起來,并應(yīng)用到更深層的雙向結(jié)構(gòu)中的預(yù)訓(xùn)練模型,但是對于語言生成任務(wù),如翻譯、問題生成等效果達(dá)不到要求。目前,該模型在問題生成領(lǐng)域中的作用就是代替詞嵌入或者直接替代序列到序列框架的編碼器。

        本研究在BERT預(yù)訓(xùn)練模型的基礎(chǔ)上,提出了基于NAZHA-UniLM模型的農(nóng)業(yè)領(lǐng)域問題生成模型,該模型結(jié)合預(yù)訓(xùn)練模型NEZHA與統(tǒng)一預(yù)訓(xùn)練模型UniLM的優(yōu)勢,首先利用NEZHA預(yù)訓(xùn)練模型實(shí)現(xiàn)農(nóng)業(yè)源文本的詞向量取,然后利用融合覆蓋機(jī)制的UniLM模型作為解碼器以實(shí)現(xiàn)問題生成。模型的總體架構(gòu)如圖1所示。

        圖1 NEZHA-UniLM模型架構(gòu)

        2.1 基于NEZHA預(yù)訓(xùn)練模型的詞向量獲取

        NEZHA[8]整體上是基于BERT的改進(jìn),通過沒有任何可訓(xùn)練參數(shù)的預(yù)定義函數(shù)對自注意中的相對位置進(jìn)行編碼,并將位置編碼信息直接加到詞嵌入作為Transformer的輸入,對大規(guī)模未標(biāo)記的純文本語料庫進(jìn)行訓(xùn)練,以提高下游的NLP任務(wù)的性能指標(biāo)。函數(shù)相對位置編碼公式如下:

        式中,k表示維度,i和j是索引位置,二者的差值相當(dāng)于絕對位置的索引值,dz表示NEZHA模型每個(gè)Head的隱藏層大小。

        NEZHA預(yù)訓(xùn)練過程使用全詞掩碼(WWM)[9]策略,有效提高了預(yù)訓(xùn)練模型效果;在預(yù)訓(xùn)練過程中使用了混合精確訓(xùn)練技術(shù)[10]和LAMB優(yōu)化器[11]。其中,混合精確訓(xùn)練技術(shù)可以將訓(xùn)練速度提高2~3倍,同時(shí)降低了模型的空間消耗,從而可以利用更大的Batch Size;LAMB優(yōu)化器通過使用非常大的Batch Size來加速模型的訓(xùn)練,而不會導(dǎo)致性能損失。

        本研究使用NEZHA對源文本進(jìn)行處理,輸入語料表示“[CLS]合理施肥…[SEP]玉米苗枯病該怎么防治?[SEP]”,經(jīng)過Word2vec詞嵌入的方法計(jì)算生成特征向量得到“[CLS]E1,E2,E3…[SEP]Z1,Z2,Z3,Z4,Z5,Z6,Z7,X8,Z9,Z10,Z11[SEP]”,然后將該特征向量輸入NEZHA模型進(jìn)行訓(xùn)練,以獲得文本序列的特征向量表示,從而得到解碼器的輸入序列。

        2.2 基于統(tǒng)一預(yù)訓(xùn)練語言模型UniLM的問題生成

        UniLM[12]是一種統(tǒng)一預(yù)訓(xùn)練語言模型,其網(wǎng)絡(luò)結(jié)構(gòu)和BERT一樣,由24層Transformer組成,模型的參數(shù)使用BERT的參數(shù)進(jìn)行初始化,輸入由3部分拼接而成:詞嵌入、位置嵌入、段嵌入。如表1所示,將UniLM與其他模型對比,UniLM能夠進(jìn)行有條件的語言生成任務(wù)。其中ELMO學(xué)習(xí)兩個(gè)單向LM:正向LM從左到右閱讀文本,而向后LM從右到左對文本進(jìn)行編碼。GPT[13]使用一個(gè)從左到右的Transformer來逐字預(yù)測一個(gè)文本序列。BERT使用雙向轉(zhuǎn)換編碼器來融合左右上下文來預(yù)測掩蔽詞。雖然BERT顯著提高了各種自然語言理解任務(wù)的性能,但它的雙向性特性使其難以應(yīng)用于自然語言生成任務(wù)。

        表1 語言模型預(yù)訓(xùn)練目標(biāo)之間的比較

        本研究使用融合覆蓋機(jī)制的UniLM模型來進(jìn)行問題生成。針對因曝光誤差導(dǎo)致的累計(jì)誤差現(xiàn)象,引入了對抗訓(xùn)練,使用FGM(Fast Gradient Method)對模型進(jìn)行訓(xùn)練。將對抗樣本(x0,x1,…,xn,y0,y1,y2,…,yn)加入NAZHA模型輸出的特征向量中進(jìn)行對抗擾動(dòng)(其中x,y分別表示模型輸入的原文本和原問題),然后一同輸入U(xiǎn)niLM模型進(jìn)行問題生成。UniLM模型先對解碼器中詞進(jìn)行隨即掩碼,然后再進(jìn)行預(yù)測。該模型使用不同的Self-attention Masks矩陣控制不同語言模型的交互方式,結(jié)構(gòu)如圖2所示,其中白色表示屏蔽,藍(lán)色為可見信息。

        2.2.1 輸入表征本研究輸入的詞序列為農(nóng)業(yè)領(lǐng)域知識的問答對,開始處為特殊的序列開始標(biāo)記[CLS],在每個(gè)段的結(jié)束處添加一個(gè)特殊的序列結(jié)束標(biāo)記[SEP],用于模型學(xué)習(xí)在問題生成任務(wù)中表示何時(shí)終止解碼過程。輸入表示法遵循BERT的輸入表示法。模型表征輸入時(shí)將文本通過WordPiece進(jìn)行子詞標(biāo)記。針對每個(gè)輸入遮蔽,憑借與之對應(yīng)的遮蔽嵌入、位置嵌入以及文本段嵌入進(jìn)行求和運(yùn)算得到相應(yīng)的矢量表示。

        2.2.2 模型微調(diào)模型微調(diào)部分采用UniLM模型中Seq2Seq框架結(jié)構(gòu)處理問題自動(dòng)生成任務(wù)。微調(diào)下游任務(wù)與預(yù)訓(xùn)練任務(wù)中使用自注意機(jī)制掩碼相似。設(shè)定文本中源序列S1:“合理施肥,加強(qiáng)田間管理比合理施肥是減輕苗枯病的一項(xiàng)重要措施…”目標(biāo)序句子為S2:“玉米苗枯病該怎么防治?”,將兩個(gè)句子進(jìn)行拼接,得到輸入序列[CLS]S1[SEP]S2[SEP]。

        本研究模型微調(diào)結(jié)構(gòu)如圖2中Seq-to-Seq LM所示。在微調(diào)過程中,在UniLM中隨機(jī)加入一些[Mask]來屏蔽S2序列中70%的詞,實(shí)現(xiàn)在輸入部分進(jìn)行MLM任務(wù)以提升理解能力,同時(shí)在輸出部分做Seq2Seq以增強(qiáng)生成任務(wù)。微調(diào)時(shí)屏蔽詞只能選取S2,并且提高比例以縮小微調(diào)時(shí)和預(yù)訓(xùn)練語言模型的差距,確保預(yù)測過程生成問題的質(zhì)量。

        圖2 UniLM問題生成模型框架

        微調(diào)任務(wù)通過對目標(biāo)序列中設(shè)置比例的遮蔽進(jìn)行隨機(jī)覆蓋,使模型學(xué)習(xí)還原被遮蔽的詞進(jìn)行任務(wù)微調(diào)?;谇昂笪谋颈徽诒蔚淖畲笏迫欢鹊玫缴蓡栴}[14]。

        2.3 對抗訓(xùn)練

        對抗訓(xùn)練屬于對抗防御的一種。在預(yù)訓(xùn)練過程中,將對抗樣本加入到原數(shù)據(jù)集中,以增強(qiáng)模型對對抗樣本的魯棒性,從而提高模型的表現(xiàn),如式3所示。

        式中,D代表訓(xùn)練集,x代表輸入,y代表標(biāo)簽,θ是模型參數(shù),L(x,y;θ)是單個(gè)樣本的損失值,Δx是對抗擾動(dòng),Ω是擾動(dòng)空間[15]。

        在預(yù)訓(xùn)練過程中加入對抗訓(xùn)練,在Embedding層中添加小擾動(dòng),生成對抗樣本,進(jìn)行訓(xùn)練。本研究使用對抗訓(xùn)練方法Fast Gradient Method(FGM)[16],通過對抗訓(xùn)練生成對抗樣本以緩解Exposure Bias問題,提升模型的泛化能力。

        3 結(jié)果與分析

        3.1 數(shù)據(jù)集與評價(jià)指標(biāo)

        目前,問題生成研究主要在英文語料數(shù)據(jù)集,對于其他語種存在語料缺乏的問題[17]。絕大多數(shù)研究基于SQuAD數(shù)據(jù)集進(jìn)行文本問題生成,對于農(nóng)業(yè)領(lǐng)域的文本問題生成研究不多[18]。本研究數(shù)據(jù)集從淘金地農(nóng)業(yè)網(wǎng)的農(nóng)業(yè)問答板塊問答頁面進(jìn)行爬取,利用先進(jìn)的Scrapy框架,Urllib、Requests等庫,運(yùn)用Python編程語言,從html頁面的特定標(biāo)簽中爬取了問答頁面所有問句對存入到csv文件中。

        3.1.1 數(shù)據(jù)清洗數(shù)據(jù)清洗保證了輸入模型的數(shù)據(jù)的質(zhì)量,相比于不做處理,對模型有很大的提升。數(shù)據(jù)清洗處理方式包括剔除空白字符、剔除帶括號的英文、處理部分不匹配數(shù)據(jù)。本研究共爬取了一萬余條數(shù)據(jù)對,經(jīng)過檢查篩選對部分殘缺、重復(fù)的問答對進(jìn)行刪除,對部分帶有特殊格式和符號的字符經(jīng)正則表達(dá)式刪除;然后經(jīng)人工隨機(jī)校對,最終保留了5 920對問答對(表2)。本研究隨機(jī)將80%數(shù)據(jù)集中問答對設(shè)為訓(xùn)練集,20%數(shù)據(jù)為測試集。

        表2 農(nóng)業(yè)領(lǐng)域數(shù)據(jù)集信息

        3.1.2 數(shù)據(jù)處理根據(jù)問題生成任務(wù)對數(shù)據(jù)的要求,對劃分的數(shù)據(jù)集進(jìn)行文本截?cái)?。其中,問題文本的長度均未超過131個(gè)字符,所以相當(dāng)于未做截?cái)啵簩τ诖鸢肝谋荆?9.38%的長度是小于64的,答案長度可以取得較短。答案的部分內(nèi)容可以精簡,通常根據(jù)答案的前面部分,就已經(jīng)能夠推理出對應(yīng)的提問。因此,選取答案的長度為64,大于64的進(jìn)行截?cái)啵梢员A艚^大部分信息,長度短可以加速訓(xùn)練和推理。對于數(shù)據(jù)集中每一個(gè)輸入的序列、答案、問題3元組,經(jīng)過分詞后按照如下方式進(jìn)行拼接。數(shù)據(jù)集的主要處理格式如圖3所示。

        圖3 數(shù)據(jù)預(yù)處理

        其中,序列S1為序列和答案的拼接,其方式和BERT相同。S2由標(biāo)準(zhǔn)答案構(gòu)成,在解碼時(shí),S2將拼接作為輸入。

        3.2 評價(jià)指標(biāo)

        ROUGE:本研究使用Lin等[19]報(bào)道的ROUGE自動(dòng)摘要評價(jià)算法,主要是基于召回率(recall)的一種常用的機(jī)器翻譯和文章摘要評價(jià)指標(biāo)。構(gòu)建標(biāo)準(zhǔn)問題集,將模型所生成問題與標(biāo)準(zhǔn)問題相對比,使用ROUGE-L作為評價(jià)指標(biāo)。ROUGE-L中的L指最長公共子序列(Longest Common Subsequence,LCS),ROUGE-L計(jì)算的時(shí)候使用了機(jī)器譯文C和參考譯文S的最長公共子序列,生成問題相當(dāng)于公式里的機(jī)器譯文,標(biāo)準(zhǔn)問題相當(dāng)于參考譯文,計(jì)算公式如下所示。

        其中,RLCS表示召回率,PLCS表示精確率,F(xiàn)LCS表示ROUGE-L,可以通過超參數(shù)β來控制對召回率和準(zhǔn)確率的傾向程度。

        BLEU:BLEU(Bilingual Evaluation Understudy)[20]意為雙語評估替換,是計(jì)算生成的問題與地面真實(shí)問題的N-gram重疊分?jǐn)?shù),重合程度越高就認(rèn)為生成質(zhì)量越高。對于整個(gè)語料庫而言,本研究中BLEU計(jì)算是基于句子進(jìn)行的,通過計(jì)算BLEU-1、BLEU-2、BLEU-3和BLEU-4的累加得分來說明模型問題生成的性能。BLEU的總體評價(jià)公式如下:

        其中,Wn指n-gram的權(quán)重,一般設(shè)為均勻權(quán)重。BP是懲罰因子,在問題生成中,lc表示生成的問題的長度,ls表示標(biāo)準(zhǔn)問題的有效長度。如果lc的長度小于lr,則BP小于1。

        3.3 試驗(yàn)參數(shù)設(shè)置

        NEZHA-UniLM模型參數(shù)主要包括NEZHA及UniLM模型的參數(shù)。本研究模型中NEZHA設(shè)置最大 序 列 長 度 為128,Train_batch_size為16,Learning_rate為5e5。模型參數(shù)如表3所示。

        表3 NEZHA預(yù)訓(xùn)練語言模型參數(shù)

        UniLM模型設(shè)置隱向量維度為768,微調(diào)學(xué)習(xí)率Learning_rate設(shè)為1e4,Epochs設(shè)為55。批處理大小Batch_size設(shè) 為16,Beam_search解 碼 時(shí) 的Beam_size為5。本研究試驗(yàn)環(huán)境及配置如表4所示。

        表4 試驗(yàn)環(huán)境及配置

        3.4 結(jié)果分析

        本研究引入了對抗訓(xùn)練,通過構(gòu)造對抗樣本加入到原數(shù)據(jù)集中,以增強(qiáng)模型對對抗樣本的魯棒性。使用FGM對模型進(jìn)行訓(xùn)練,F(xiàn)GM算法epsilon值為1。通過設(shè)置對比試驗(yàn)來驗(yàn)證NEZHA-UniLM模型處理問題生成任務(wù)的優(yōu)越性(表5)。

        1)NQG。簡單的Seq2Seq模型,使用LSTM進(jìn)行編碼解碼,并在解碼過程中引入了全局注意力機(jī)制。

        2)BERT-LM。該模型使用BERT中的掩蔽語言建模對編碼器進(jìn)行預(yù)訓(xùn)練,并使用語言模型對解碼器進(jìn)行預(yù)訓(xùn)練。其中,LM是帶有下三角的Attention Mask從左到右Transformer模型。

        3)BERT+UniLM。該模型采用Seq2Seq基礎(chǔ)架構(gòu),將Encoder替換為雙向Transformer編碼模塊,Decoder采用UniLM。使用BERT模型對編碼端參數(shù)進(jìn)行初始化處理,解碼端從初始狀態(tài)訓(xùn)練。

        由表5可以看出,與基線模型NQG相比,BERT+LM引入預(yù)訓(xùn)練模型BERT,由于BERT模型在海量語料上的訓(xùn)練,模型具有優(yōu)秀的向量表征能力,進(jìn)一步提升問題生成算法評測得分。BLEU-4和Rouge-L分別提升了0.053 5和0.093 6。與BERT+LM模型相比,BERT+UniLM模型的問題生成效果得到了提升。BLEU-4和Rouge-L分 別 提 升 了0.020 9和0.017 4。與基線NQG相比,BLEU-4和Rouge-L分別提升了0.074 4和0.111 0。與其他模型對比,本研究提出的NEZHA-UniLM模型的Rouge-L和BLEU1-4均取得了最好的成績。與基線模型NQG進(jìn)行對比,BLEU-4和Rouge-L分別提升了0.195 3和0.151 7。模型通過兩階段進(jìn)行問題生成的算法能夠有效地將NEZHA模型與UniLM模型的優(yōu)勢相結(jié)合,有效生成問題。

        表5 模型評測對照表

        同時(shí),為了驗(yàn)證加入FGM對抗訓(xùn)練的有效性,對該模型進(jìn)行消融試驗(yàn),試驗(yàn)結(jié)果如表6所示。由表6可知,基于未加對抗訓(xùn)練的NEZHA-UniLM預(yù)訓(xùn)練模型,其BLEU-4和Rouge-L為0.314 1和0.470 1,加入對抗訓(xùn)練后的BLEU-4和Rouge-L分別提高了0.068 9和0.113 8。

        表6 對抗消融試驗(yàn)

        3.5 人工測評

        利用人工評估來衡量生成的問題的質(zhì)量,隨機(jī)抽取50個(gè)問題對,并使用本研究預(yù)訓(xùn)練模型生成問題,通過5個(gè)方面指標(biāo)來測評。自然度:表示語法性和流暢性;相關(guān)性:表示與答案主題的聯(lián)系;連貫性:衡量生成的問題是否與對話歷史一致;豐富度:衡量問題中包含的信息量;可回答性:即表示該問題是否可根據(jù)該答案段落來回答。然后,將每個(gè)帖子和相應(yīng)的模型生成的問題發(fā)送給5個(gè)沒有順序的人類注釋者,并要求他們評估每個(gè)問題是否滿足上述定義的標(biāo)準(zhǔn),對每個(gè)問題打分(1-5分),分?jǐn)?shù)越高越好。所有的注釋者都是研究生。

        從表7可以看到,本研究方法在所有方面都優(yōu)于其他模型。當(dāng)模型生成既短又流暢的問題時(shí),會使得其在自然度、相關(guān)性方面沒有顯著差異。在豐富度、連貫性和可回答性等方面,生成模型與人類注釋之間存在著明顯的差距,說明語境理解仍然是問題生成任務(wù)中一個(gè)具有挑戰(zhàn)性的問題。

        表7 人工測評結(jié)果

        4 小結(jié)

        本研究經(jīng)過數(shù)據(jù)爬取、清洗、過濾和標(biāo)注等工作,構(gòu)建了問題生成的數(shù)據(jù)集,并研究了基于NEZHA-UniLM預(yù)訓(xùn)練模型的農(nóng)業(yè)領(lǐng)域問題生成,其中,針對因曝光誤差導(dǎo)致的累計(jì)誤差現(xiàn)象,引入了對抗訓(xùn)練來生成擾動(dòng)樣本以緩解該問題。該模型不僅有效緩解生成問題與答案匹配度低、生成問題漏詞或者多詞和曝光誤差等問題,還能有效提高生成問題的質(zhì)量。

        猜你喜歡
        微調(diào)領(lǐng)域文本
        在808DA上文本顯示的改善
        領(lǐng)域·對峙
        青年生活(2019年23期)2019-09-10 12:55:43
        基于doc2vec和TF-IDF的相似文本識別
        電子制作(2018年18期)2018-11-14 01:48:06
        一種新型微調(diào)擠塑模具的設(shè)計(jì)及應(yīng)用
        電線電纜(2018年2期)2018-05-19 02:03:44
        靈活易用,結(jié)合自動(dòng)和手動(dòng)微調(diào)達(dá)到好效果 StormAudio ISP 3D.16 ELITE/PA 16 ELITE
        文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
        新常態(tài)下推動(dòng)多層次多領(lǐng)域依法治理初探
        全國大部省份結(jié)束2014高考 多地高考模式微調(diào)
        如何快速走進(jìn)文本
        語文知識(2014年1期)2014-02-28 21:59:13
        肯定與質(zhì)疑:“慕課”在基礎(chǔ)教育領(lǐng)域的應(yīng)用
        亚洲国产综合久久天堂| 一区二区三区不卡在线 | 日本草逼视频免费观看| 成人av毛片免费大全| 欧美成人看片一区二区三区尤物| 久久午夜无码鲁丝片直播午夜精品| 精品18在线观看免费视频| 亚洲一区二区三区在线激情| 亚洲国产成人久久综合碰碰| 亚洲色婷婷一区二区三区| 亚洲国产夜色在线观看| 美女偷拍一区二区三区| 国产精华液一区二区三区| 久久国产劲暴∨内射| 国产福利片无码区在线观看 | 亚洲色图视频在线 | 日本一区二区不卡视频| 国产亚洲青春草在线视频| 久久精品国产av麻豆五月丁| 亚洲精品无码国产| 精品国产91天堂嫩模在线观看| 国内激情一区二区视频 | 国产高清女主播在线观看| 亚洲综合网站久久久| 免费人成再在线观看网站| 97成人碰碰久久人人超级碰oo| jjzz日本护士| 熟女高潮av一区二区| 欧美国产亚洲日韩在线二区| 在线播放亚洲第一字幕| 亚洲图片第二页| 亚洲视频在线免费不卡| 国内露脸少妇精品视频| 久久免费观看国产精品| 亚洲国产成人va在线观看天堂| 亚洲av无码成人精品区狼人影院 | 无码Av在线一区二区三区| 日韩一级137片内射视频播放| 亚洲欧美日韩另类精品一区| 亚洲精品国产成人AV| 日本一区二区精品色超碰|