亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向閱讀教學(xué)的眼動數(shù)據(jù)可視化批注方法

        2017-11-23 08:25:40,
        關(guān)鍵詞:眼動可視化用戶

        ,

        (浙江工業(yè)大學(xué) 計算機科學(xué)與技術(shù)學(xué)院,浙江 杭州 310023)

        面向閱讀教學(xué)的眼動數(shù)據(jù)可視化批注方法

        程時偉,孫煜杰

        (浙江工業(yè)大學(xué) 計算機科學(xué)與技術(shù)學(xué)院,浙江 杭州 310023)

        學(xué)生在論文閱讀過程中往往無法把握重點、理解全文結(jié)構(gòu)和段落關(guān)系,導(dǎo)致閱讀理解水平較低.因此,為了提高學(xué)生的閱讀理解水平,研究閱讀過程中的眼動行為,記錄注視點和眼跳等眼動數(shù)據(jù),提取相關(guān)的閱讀特征,在此基礎(chǔ)上生成眼動數(shù)據(jù)可視化批注.主要利用灰色陰影表示段落閱讀速度、段落邊框表示重復(fù)閱讀的次數(shù)以及段落間連線表示相互之間的轉(zhuǎn)換頻率.在具體的閱讀教學(xué)課堂測試中,記錄教師閱讀論文時的眼動數(shù)據(jù)并生成可視化批注,然后分享給學(xué)生被試用戶,進而對學(xué)生閱讀理解水平進行客觀和主觀評價.結(jié)果表明:實驗組學(xué)生的閱讀理解客觀答題得分和主觀小結(jié)撰寫得分,其平均值分別比控制組學(xué)生的平均得分提高了31%和57%,驗證了眼動可視化批注能有效提高學(xué)生的閱讀理解水平.

        眼動跟蹤;注視點;閱讀;社會計算;人機交互

        人們在閱讀紙質(zhì)書籍和文檔時常做一些批注,批注不僅能幫助人們標記重要的、有趣的或者較難理解的段落,還能在再次閱讀時或者他人閱讀時,通過強調(diào)或提示來提高理解水平[1-2].讀者在閱讀一篇文檔時,如果可以利用以前讀者的經(jīng)驗,就能在閱讀過程更加集中注意力,從而提高閱讀效率.然而,傳統(tǒng)的手工批注也有其局限性,例如,通過劃線來強調(diào)一句話或者添加一段注釋,通常會增加體力和認知負荷;而且手工批注也不能揭示讀者的視覺注意力行為.另一方面,近年來也出現(xiàn)了一些閱讀輔助工具,例如,Markup是一個眾包閱讀工具,它可以在紙質(zhì)文檔上呈現(xiàn)不同用戶標注的數(shù)字化批注,使人們可以在協(xié)同環(huán)境下進行閱讀,在一個群體協(xié)作的機制下受益[1].然而,這樣的批注工具需要特定的硬件配置,限制了其在實際中的應(yīng)用和推廣.相比之下,眼動(Eye movement)數(shù)據(jù)可以表征人們的視覺注意力以及視覺搜索績效[3].現(xiàn)代心理學(xué)家認為眼動是視覺過程的直接反應(yīng),由此發(fā)展而來的眼動跟蹤技術(shù)被廣泛應(yīng)用于閱讀研究[4].涉及閱讀過程大腦認知加工的眼動主要包括三類:1) 注視點(Fixation),用于獲取閱讀信息;2) 眼跳(Saccade),從一個注視點運動到另一個注視點,用于閱讀過程的持續(xù)進行;3) 回視(Regressive eye movement),用于將注視點返回以進一步獲取閱讀信息[5].在有效的閱讀過程中,讀者的注視點需要處于恰當位置,同時加長眼跳距離,以及避免不必要的回視和采取有效回視等來提高閱讀效率和閱讀理解水平[6].

        眼動數(shù)據(jù)的可視化可以用來作為一種新的批注方式.Text2.0框架根據(jù)眼動數(shù)據(jù)實時創(chuàng)建批注,當用戶注視相關(guān)文字時顯示批注[7].利用眼動跟蹤技術(shù)可以檢測讀者閱讀的文字字數(shù)和文檔類型[8-9].結(jié)合眼動跟蹤和光學(xué)字符識別(Optical character recognition, OCR)技術(shù),還可以用于判斷用戶正在閱讀哪一行文字,進而自動生成一些簡單的批注,例如,顯示截止當前位置所耗費的閱讀時間[10].然而,尚未有人探索如何利用眼動數(shù)據(jù)生成的批注來提高閱讀理解水平.為此,筆者分析閱讀過程中的視覺注意行為特征,基于眼動數(shù)據(jù)進行可視化表達,生成相應(yīng)的批注,并在課堂閱讀教學(xué)過程中,讓學(xué)生查看教師的眼動數(shù)據(jù)可視化批注,研究學(xué)生的閱讀理解水平是否得到提高.

        1 基于眼動數(shù)據(jù)的閱讀特征提取

        將英文論文作為閱讀材料,將論文中的每個標題(或副標題)、段落(包括參考文獻),以及插圖等作為感興趣區(qū)(Area of interest, AOI).論文的其他地方是空白區(qū)域或很少被讀者關(guān)注的區(qū)域,因此不將它們考慮在內(nèi).記錄閱讀過程中讀者在AOI中的眼動數(shù)據(jù),進而提取相關(guān)的閱讀特征,用以衡量讀者對文本段落的理解程度[11].定義兩類閱讀特征:1) AOI內(nèi)特征包括單個AOI的閱讀速度和單個AOI的閱讀次數(shù);2) AOI間特征是指兩個AOI之間的轉(zhuǎn)換頻率,用于分析一篇文檔不同部分之間的語義關(guān)系,可以為主動閱讀過程中的導(dǎo)航提供有益的支持[2].下面對各特征做具體描述.

        1.1 單個AOI的閱讀速度

        閱讀速度可以反映讀者的閱讀興趣,例如,讀者可能很快瀏覽完文檔中不感興趣或者易于理解的部分.單個AOI的閱讀速度的計算式為

        式中:Lk為當前AOIi中的每一段眼跳長度;TAOIi為當前AOIi的駐留時間(Dwell time,表示視線在一個AOI內(nèi)停留的總時間).如圖1所示,這里的一段文本為一個AOI(線條為眼跳,稍大的圓圈為注視點,稍小的圓圈為原始采樣點),讀者的視線從左到右、從上到下進行逐行閱讀,其中眼跳包括回歸眼跳(即反向的視線跟蹤)和跳躍眼跳(即前向的視線跟蹤),它們可以幫助用戶更好的理解信息[11-12].

        圖1 單個AOI內(nèi)的眼動特征示例Fig.1 Example of eye movement features in a single AOI

        定義“AOI內(nèi)時間閾值”為p(例如1 s),如果TAOIi>p,就記錄下這段駐留時間內(nèi)的閱讀速度,因為過短的駐留時間通常意味著僅僅是一瞥而過,對閱讀并沒有實質(zhì)幫助.例如,讀者常常會上下滾動瀏覽器,在這個過程中,雖然他們的注視點會在很多AOI內(nèi)非常短暫的停留,但是沒有具體的閱讀活動發(fā)生.不僅可以使用時間閾值過濾噪聲數(shù)據(jù),也用它來調(diào)整可視化批注.例如,降低閾值p會產(chǎn)生更多的可視化批注,這樣會分散讀者的注意力,導(dǎo)致讀者過多關(guān)注不重要的段落.

        1.2 單個AOI的閱讀次數(shù)

        對于一個特定的AOI,統(tǒng)計讀者視線在該區(qū)域的累計閱讀次數(shù).如果讀者視線從該AOI離開,移動到其他AOI,那么離開的時間應(yīng)該大于閾值p(即在其他AOI內(nèi)進行了有效閱讀),才能在視線返回原AOI的時候,重新計算為一次新的閱讀.閱讀次數(shù)可以表征段落的理解難易程度或重要程度,因為通常難于理解或重要的段落會被反復(fù)閱讀[13].

        1.3 兩個AOI之間的轉(zhuǎn)換頻率

        如果讀者的視線駐留在一個AOI的時間超過閾值p,那么這個AOI就定義為“源AOI”;然后,如果視線移到另外一個AOI,且駐留時間也超過閾值p,那么這個AOI就定義為“目標AOI”.這樣就可以過濾數(shù)據(jù),排除無效的視線轉(zhuǎn)換.例如,讀者的視線會無意識地轉(zhuǎn)移到其他AOI(因為自底向上的視覺認知干擾造成[14],例如,被顯著的標題所吸引),并停留短暫時間,然后又轉(zhuǎn)換到原來的AOI.此外,通常兩個在內(nèi)容上有緊密聯(lián)系的AOI也會相距較近.定義“AOI間時間閾值”為q(例如10 s),如果視線離開源AOI到目標AOI這中間的時間小于q,就認為這些AOI之間是相關(guān)的,并將這兩個AOI之間的轉(zhuǎn)換頻率計數(shù)加1.

        2 閱讀特征的可視化

        如圖2所示,提出3種具體的可視化形式對上文所述的閱讀特征進行可視化編碼:1) 灰色陰影表示用戶閱讀某個AOI的速度,顏色越深表示閱讀速度越快;2) 邊框?qū)挾缺硎咀x者閱讀某個AOI的次數(shù),AOI的邊框越粗,表示閱讀次數(shù)越多;3) 連線寬度表示讀者在兩個不同AOI之間轉(zhuǎn)換頻率,連接兩個AOI的線條越粗,表示轉(zhuǎn)換頻率越高,且不同顏色表示不同AOI對之間的聯(lián)系.可以動態(tài)配置可視化參數(shù),例如:時間閾值(例如p,q)、透明度、隱藏或顯示不同的閱讀特征等,使之呈現(xiàn)最佳的可視化效果.

        圖2 閱讀特征可視化示例Fig.2 Example of reading feature visualization

        此外,還對用戶在主要AOI的駐留時間進行了可視化編碼,包括柱狀圖和圓環(huán)圖,如圖3所示.以圓環(huán)圖為例,隨機用不同顏色在圓環(huán)的圓弧上表示每個AOI的駐留時間,每個AOI對應(yīng)的圓弧圓心角為

        式中:TAOIi為當前AOIi的駐留時間;AngleAOIi為AOIi對應(yīng)的圓心角.在此基礎(chǔ)上通過圓心角計算每段圓弧的弧長.

        圖3 AOI駐留時間可視化示例Fig.3 Example of visualization for dwell time on AOI

        3 用戶測試

        3.1 被試用戶

        被試用戶分為兩類:一類是大學(xué)教師,包括1名女性和3名男性,年齡在35~40歲,學(xué)科背景、專業(yè)水平和英文閱讀水平相近;另一類是大學(xué)生,包括11名女性,25名男性,年齡在18~25歲,平均年齡22.8歲,英文閱讀水平相近,均通過大學(xué)英語4級考試.所有被試用戶都沒有任何視力障礙,且均具有計算機相關(guān)專業(yè)背景,每周至少閱讀一篇英文學(xué)術(shù)論文.

        3.2 測試儀器

        如圖4所示,使用Tobii公司的X2-60型眼動儀(眼動跟蹤采樣頻率設(shè)置為60 Hz)記錄眼動數(shù)據(jù),它的操作距離(用戶眼睛與屏幕之間的距離)大約為40~50 cm,支持頭部自由運動,對眨眼引起的數(shù)據(jù)丟失可進行即時補償,眼動跟蹤平均精度為0.4度視角.閱讀材料來自計算機專業(yè)領(lǐng)域的論文數(shù)據(jù)庫,是一篇4頁篇幅的英文論文,該論文有清晰而緊密的邏輯結(jié)構(gòu)和布局,易于進行眼動數(shù)據(jù)的記錄和可視化.這篇論文顯示在分辨率為1 366×768的11.6英寸的筆記本電腦顯示屏上.

        圖4 眼動測試場景Fig.4 User study scenario of eye tracking

        3.3 測試過程

        測試過程分為預(yù)測試和正式測試兩個階段.

        3.3.1 預(yù)測試階段

        每個大學(xué)生被試閱讀一篇2頁長度的英文學(xué)術(shù)論文(相關(guān)內(nèi)容不在正式測試中出現(xiàn)),然后從其中排除閱讀速度過快(例如小于6 min)和過慢(例如大于30 min)的用戶.這樣做的原因是降低大學(xué)生被試用戶在閱讀經(jīng)驗和閱讀能力方面的差異性,從而減少個體差異性對實驗結(jié)果的影響;此外,還向被試用戶介紹各種可視化批注的含義與用途,使其對可視化批注有基本的了解,并獲取他們對可視化批注的初步反饋.結(jié)果顯示:91%的被試用戶反饋表示柱狀圖和圓環(huán)圖的用處不大,且需要對照各具體AOI(如文章段落)才能理解其含義,使用不方便.針對其他幾種可視化批注,都有超過50%的用戶反饋表示這些批注形式可以幫助閱讀,且易于理解.因此,在正式測試中將柱狀圖和圓環(huán)圖刪去,不再進行測試.

        3.3.2 正式測試階段

        教師被試用戶在沒有時間限制的情況下首先閱讀這篇論文,然后獨自寫一個論文總結(jié),并回答一份問卷調(diào)查,以評估他們的閱讀理解水平.同時,記錄他們在閱讀過程中的眼動數(shù)據(jù),并將這些眼動數(shù)據(jù)轉(zhuǎn)化成可視化批注信息.選擇組間測試方法來研究這些批注對學(xué)生閱讀理解的影響.學(xué)生被試用戶被隨機分成實驗組和控制組,然后交換個別學(xué)生,以平衡兩組成員的年齡和性別.所有學(xué)生被試者所閱讀的論文與教師被試閱讀的相同.測試也沒有時間限

        制,每個學(xué)生按個人的正常速度進行閱讀.控制組內(nèi)的學(xué)生閱讀的論文沒有任何批注,而實驗組內(nèi)的學(xué)生閱讀的論文會疊加教師眼動數(shù)據(jù)的可視化批注.學(xué)生被試閱讀結(jié)束后,采用客觀和主觀兩種方法來評價他們的閱讀理解水平.首先,學(xué)生被試需要回答5個關(guān)于這篇論文的閱讀理解問題(客觀評價);此外,還要針對這篇文章寫一段總結(jié),該總結(jié)將被教師用于評價閱讀理解質(zhì)量(主觀評價).

        3.4 測試結(jié)果

        進行閱讀理解水平的客觀評價,要求大學(xué)生被試用戶回答5個關(guān)于論文內(nèi)容方面(多選)的理解問題,其答案包含在論文相關(guān)章節(jié).例如,其中一道題是“這篇論文的主要貢獻是什么”,這題的答案可以在論文引言部分找到.每題回答正確記1分,全部題目答對可得5分.對實驗組和控制組的得分差異性進行分析,設(shè)定零假設(shè)為“實驗組和控制組的平均分數(shù)相同”.結(jié)果顯示,控制組平均得分為2.9分,標準差1.4分;實驗組平均得分為3.8分,標準差為0.9分,采用曼-惠特尼U檢驗,得到U=62.1,p<0.05,因此拒絕零假設(shè),說明實驗組和控制組的平均得分存在顯著差異,且實驗組得分較高.

        進行閱讀理解水平的主觀評價,要求教師用戶分別獨立地對學(xué)生寫的總結(jié)質(zhì)量進行評價,以5分制進行評分(1分表示最差,5分表示最好).4位老師對學(xué)生總結(jié)的評價基本保持一致,計算他們給出的平均分.對實驗組和控制組的總結(jié)評價得分進行假設(shè)檢驗,設(shè)定零假設(shè)為“實驗組和控制組的平均分數(shù)相同”.結(jié)果顯示,控制組平均得分為2.3分,標準差為1.2分;實驗組平均得分3.6分,標準差為1.1分,通過曼-惠特尼U檢驗,U=57.0,p<0.05,因此,拒絕零假設(shè),說明實驗組和控制組的平均得分存在顯著差異,且實驗組得分較高.上述檢驗結(jié)果說明:老師的眼動數(shù)據(jù)可視化注釋幫助學(xué)生提高了他們的閱讀理解能力.

        此外,還通過調(diào)查問卷分析了學(xué)生被試用戶的主觀反饋.實驗組的被試者(18個被試者)對每種類型的可視化批注進行評分(5分制:1分=完全沒有幫助;2分=沒幫助;3分=不確定是否有幫助;4分=有幫助;5分=非常有幫助),結(jié)果如表1所示.

        表1 被試學(xué)生用戶對不同可視化批注的主觀評分Table 1 The subjective evaluation from student participants for different annotations

        進一步對實驗組被試用戶進行了訪談.針對表示閱讀速的灰色陰影批注,其中一些被試學(xué)生用戶說“閱讀速讀可視化批注在視覺上最直觀”“灰色陰影區(qū)分了不同段落的重要性”“教師的閱讀速度對于某個段落是否重要是一個很好的指標,快速閱讀的部分代表教師很重視,較慢閱讀的部分表示比較重要”.針對利用眼動數(shù)據(jù)批注撰寫總結(jié),一些被試學(xué)生用戶說“眼動數(shù)據(jù)批注展示了這篇論文的重點”“如果我和老師都認為某一段是重要的,那么我就會將它寫進我的論文總結(jié)中”.

        3.5 結(jié)果討論

        這里討論筆者方法的一些不足和改進方法.有一位被試學(xué)生說“人們重復(fù)閱讀一段文字,到底是因為它重要呢,還是只是因為這段文字表達不清楚而難以理解?而且有些人也可以快速地閱讀一個段落,并不是因為這個段落不重要而是因為讀者本身對這段內(nèi)容很熟悉”.為了處理這種模糊性,將進一步和文檔本身的語義分析相結(jié)合,從而可以確定哪些段落是難于理解的,例如,有很多專業(yè)術(shù)語和公式;或者是重要的,例如,包含較多與文檔主題相關(guān)的關(guān)鍵詞.

        教師和學(xué)生之間閱讀行為的差異也可能會降低筆者方法的有效性.正如一位被試學(xué)生所言,“教師具有一些專業(yè)背景知識,因此他們會跳過一些段落,所以導(dǎo)致學(xué)生有時會漏掉一些重要段落”.所以在今后的研究中,會繼續(xù)探討學(xué)生與學(xué)生之間的眼動數(shù)據(jù)可視化批注的共享,因為學(xué)生之間的個體差異通常要相對較小.

        當教師通過學(xué)生撰寫的總結(jié)來評價學(xué)生的閱讀理解水平時,他們是根據(jù)自己的經(jīng)驗和標準來判斷的,因此會有一些主觀判斷成分.例如,如果一個學(xué)生抓住了文章的重點,但是這個重點并未被教師所重視,那么這個學(xué)生的閱讀能力所得評分就會較低.下一步,將對閱讀理解水平的評價指標進行改進.此外,在實驗中,4位教師的的閱讀風格比較類似,所以先融合了4位教師的眼動數(shù)據(jù)可視化批注,然后再展示給學(xué)生.所以在后續(xù)工作中,將研究如何將多個不同閱讀風格的教師眼動數(shù)據(jù)可視化批注融合在一起,或者將風格差異較大的可視化批注展同時展現(xiàn)給學(xué)生,并讓學(xué)生進行自由選擇.

        4 結(jié) 論

        記錄用戶閱讀過程中的眼動數(shù)據(jù),并根據(jù)相關(guān)閱讀特征將它們可視化.將教師閱讀文章的眼動數(shù)據(jù)可視化批注分享給閱讀這篇文章的學(xué)生,結(jié)果發(fā)現(xiàn),眼動數(shù)據(jù)可視化批注有助于提高學(xué)生的閱讀理解能力,為今后進一步開展閱讀教學(xué)方法改革提供了一條有益的途徑.

        本文得到浙江工業(yè)大學(xué)教學(xué)改革項目(JG201620)和浙江工業(yè)大學(xué)研究生教學(xué)改革項目(2016114)的資助.

        [1] CHIRCOP L, RADHAKRISHNAN J, SELENER L, et al. Markitup: crowdsourced collaborative reading[C]//Extended Abstracts on Human Factors in Computing Systems. New York: ACM Press,2013:2567-2572.

        [2] TASHMAN C, EDWARDS W. Active reading and its discontents: the situations, problems and ideas of readers[C]// Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press,2011:2927-2936.

        [3] 湯洪濤,蘇丹丹,蘭秀菊,等.基于眼動的多目標視覺搜索績效研究[J].浙江工業(yè)大學(xué)學(xué)報,2017,45(1):108-113.

        [4] RAYNER K. Eye movements in reading and information processing[J]. Psychological bulletin,1978,85:618-660.

        [5] 范琳,劉振前.閱讀理解過程的眼動研究[J].外語與外語教學(xué),2007,217(4):35-40.

        [6] DUSSIAS P E. Uses of eye-tracking data in second language sentence processing research [J]. Annual review of applied linguistics,2010,30:149-166.

        [7] BIEDERT R, BUSCHER G, SCHWARZ S, et al. Text2.0[C]//Extended Abstracts on Human Factors in Computing Systems. New York: ACM Press,2010:4003-4008.

        [8] KUNZE K, IWAMURA M, KISE K, et al. Activity recognition for the mind: toward a cognitive “quantified self”[J]. Computer,2013,46(10):105-108.

        [9] KUNZE K, UTSUMI Y, SHIGAY K, et al. I know what you are reading: recognition of document types using mobile eye tracking [C]//Proceedings of the International Symposium on Wearable Computers. New York: ACM Press,2013:113-116.

        [10] BUSCHER G, DENGEL A, ELST L, et al. Generating and using gaze-based document annotations [C]//Extended Abstracts on Human Factors in Computing Systems. New York: ACM Press,2008:3045-3050.

        [11] BIEDERT R, DENGEL A, ELSHAMY M, et al. Towards robust gaze-based objective quality measures for text [C]//Proceedings of the Symposium on Eye Tracking Research and Applications. New York: ACM Press,2012:201-204.

        [12] VO T, MENDIS B S U, GEDEON T. Gaze pattern and reading comprehension[C]//International Conference on Neural Information Processing. Berlin: Springer-Verlag,2010:124-131.

        [13] LENZNER T, KACZMIREK L, GALESIC M. Seeing through the eyes of the respondent: an eye-tracking study on survey question comprehension [J]. International journal of public opinion research,2011,23(3):361-373.

        [14] CONNOR C E, EGETH H E, YANTIS S. Visual attention: bottom-up versus top-down [J]. Current biology,2004,14(19):850-852.

        Eyemovementdatavisualizationbasedannotationforreadingteaching

        CHENG Shiwei, SUN Yujie

        (College of Computer Science and Technology, Zhejiang University of Technology, Hangzhou 310023, China)

        In the process of reading articles, students often can not grasp the focus, understand the full text structure and paragraph relationship, it results a lower level of reading comprehension. In order to improve students’ reading comprehension, research in this paper focus on eye gaze movement behavior during reading process was conducted, and features related to reading were extracted with eye movement data, such as gaze fixations and saccades. Then the eye movement data was visualized as reading annotations. These annotations mainly included three kinds of visualizations: gray shading to indicate reading speed, borders to indicate frequency of re-reading, and lines to indicate transitions between sections of a document. Through a user study in reading class, we recorded teachers’ eye movement data and generated visual annotations, and then shared the annotations to their students. Finally, the evaluation results showed that, the average scores on reading comprehension quiz and summary from students in experimental group is higher than the students in control group with 31% and 57% respectively, and it validated that the annotations could improve students’ reading comprehension.

        eye tracking; fixation; reading; social computing; human-computer interaction

        2017-02-14

        國家重點研發(fā)計劃項目(2016YFB1001403);國家自然科學(xué)基金資助項目(61272308);浙江省自然科學(xué)基金資助項目(LY15F020030)

        程時偉(1981—),男,湖北黃石人,副教授,工學(xué)博士,研究方向為人機交互技術(shù),E-mail:swc@zjut.edu.cn.

        TP391

        A

        1006-4303(2017)06-0610-05

        (責任編輯:陳石平)

        猜你喜歡
        眼動可視化用戶
        基于CiteSpace的足三里穴研究可視化分析
        基于眼動的駕駛員危險認知
        基于Power BI的油田注水運行動態(tài)分析與可視化展示
        云南化工(2021年8期)2021-12-21 06:37:54
        基于ssVEP與眼動追蹤的混合型并行腦機接口研究
        載人航天(2021年5期)2021-11-20 06:04:32
        基于CGAL和OpenGL的海底地形三維可視化
        “融評”:黨媒評論的可視化創(chuàng)新
        傳媒評論(2019年4期)2019-07-13 05:49:14
        關(guān)注用戶
        商用汽車(2016年11期)2016-12-19 01:20:16
        關(guān)注用戶
        商用汽車(2016年6期)2016-06-29 09:18:54
        關(guān)注用戶
        商用汽車(2016年4期)2016-05-09 01:23:12
        國外翻譯過程實證研究中的眼動跟蹤方法述評
        九九99久久精品在免费线18| 熟妇人妻无乱码中文字幕av| 欧美村妇激情内射| 国产欧美亚洲精品a| 中文字幕avdvd| 国产精品日本一区二区三区在线| 免费在线观看视频播放| 亚洲国产午夜精品理论片在线播放| 国产nv精品你懂得| 国产一区二区在线观看我不卡| 成h视频在线观看免费| 99久久精品国产一区二区| 一个人在线观看免费视频www| 国产三级精品美女三级| 国产亚洲av夜间福利在线观看| 国产裸体美女永久免费无遮挡| 色视频www在线播放国产人成| 北岛玲日韩精品一区二区三区| 中文字幕日韩精品人妻久久久| 国产精品国产三级国产av剧情 | 视频在线国产一区二区| 欧美性猛交xxxx富婆| 人妻无码中文专区久久综合| 亚洲福利网站在线一区不卡| 久久精品国产99久久久| 国内揄拍国内精品人妻浪潮av| 亚洲电影一区二区| 人妻在线有码中文字幕| 成年女人黄小视频| 九九99久久精品在免费线18| 国产激情免费观看视频| 久久久久99人妻一区二区三区| 欧美成人一区二区三区| 亚洲一区二区精品久久岳| 国产专区国产精品国产三级| 亚洲av永久无码精品三区在线| 日韩第四页| 国产午夜精品综合久久久| 久久久久久欧美精品se一二三四| 丁香五月缴情综合网| 青青草免费在线手机视频|