亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于全局注意力的室內(nèi)人數(shù)統(tǒng)計(jì)模型*

        2022-12-22 11:32:52張長(zhǎng)倫王恒友
        關(guān)鍵詞:特征檢測(cè)

        李 靜,何 強(qiáng),張長(zhǎng)倫,3,王恒友

        (1.北京建筑大學(xué)理學(xué)院,北京 100044;2.北京建筑大學(xué)大數(shù)據(jù)建模理論與技術(shù)研究所,北京 100044;3.北京建筑大學(xué)北京未來城市設(shè)計(jì)高精尖創(chuàng)新中心,北京 100044)

        1 引言

        隨著深度學(xué)習(xí)的不斷發(fā)展和進(jìn)步,目標(biāo)檢測(cè)也取得了令人矚目的進(jìn)展,廣泛應(yīng)用于機(jī)器人導(dǎo)航、智能視頻監(jiān)控、工業(yè)檢測(cè)和航空航天等諸多領(lǐng)域,在人臉識(shí)別、行人檢測(cè)和人群計(jì)數(shù)等任務(wù)中起著至關(guān)重要的作用。與傳統(tǒng)的室內(nèi)人數(shù)統(tǒng)計(jì)方法相比,利用目標(biāo)檢測(cè)進(jìn)行人數(shù)統(tǒng)計(jì)越來越多地被用在人工智能監(jiān)控中,比如考場(chǎng)人數(shù)統(tǒng)計(jì)和會(huì)議人數(shù)統(tǒng)計(jì)。但是,由于室內(nèi)的監(jiān)控一般都是俯拍機(jī)位,在一些大型室內(nèi)場(chǎng)景中,俯拍下的人頭都很小,五官較模糊,影響了檢測(cè)效果,因此如何提高室內(nèi)人數(shù)統(tǒng)計(jì)的準(zhǔn)確率是近年來的一個(gè)研究熱點(diǎn)。

        目前,基于深度學(xué)習(xí)[1-4]且應(yīng)用前景[5,6]比較廣闊的目標(biāo)檢測(cè)算法[7-9]有了很大的進(jìn)步,常見的一階段目標(biāo)檢測(cè)算法有YOLO(You Only Look Once)系列[10-12]和SSD(Single Shot multibox Detector)[13]等。這類算法效率較高,但精度略低。常見的兩階段目標(biāo)檢測(cè)算法有Fast R-CNN[14]、SPP-Net(Spatial Pyramid Pooling Net)[15]、Corner-Net[16]、Faster R-CNN[17]和Mask R-CNN[18]等。雖然兩階段算法的精度更高一些,但算法效率較低。人數(shù)統(tǒng)計(jì)需要滿足一定的實(shí)時(shí)性,所以一階段目標(biāo)檢測(cè)算法更適合進(jìn)行人數(shù)統(tǒng)計(jì)。

        近些年來,用目標(biāo)檢測(cè)進(jìn)行人數(shù)統(tǒng)計(jì)的研究取得了一定的突破,由于人數(shù)統(tǒng)計(jì)最大的困難在于目標(biāo)過小或者特征不明顯,所以如何更好地提取特征信息是人數(shù)統(tǒng)計(jì)研究的重點(diǎn)。2012年錢鶴慶等[19]提出一種基于人臉檢測(cè)的人數(shù)統(tǒng)計(jì)方法,利用AdaBoost算法和跳幀檢測(cè)方法進(jìn)行實(shí)驗(yàn),最終檢測(cè)效果和統(tǒng)計(jì)速度都有提升;2019年陳久紅等[20]通過改進(jìn)R-FCN(Region-based Fully Convolutional Network)網(wǎng)絡(luò)大大提高了目標(biāo)檢測(cè)算法對(duì)小目標(biāo)的識(shí)別能力,準(zhǔn)確率有較大的提升;鞠默然等[21]針對(duì)小目標(biāo)檢測(cè)率低、虛警率高等問題,提出了改進(jìn)YOLOv3的模型結(jié)構(gòu),結(jié)果顯示改進(jìn)后的模型結(jié)構(gòu)對(duì)小目標(biāo)的召回率和準(zhǔn)確率都有明顯提升。結(jié)合以上文獻(xiàn),本文提出了一種基于全局注意力的室內(nèi)人數(shù)統(tǒng)計(jì)模型。

        本文的主要貢獻(xiàn)如下:

        (1)自建室內(nèi)人群檢測(cè)數(shù)據(jù)集,并利用聚類算法對(duì)錨框進(jìn)行優(yōu)化。

        (2)引入注意力機(jī)制CA(Coordinate Attention)[22]模塊對(duì)YOLOv3的特征提取網(wǎng)絡(luò)進(jìn)行改進(jìn),將CA模塊與ResNet[23]模塊相結(jié)合,根據(jù)不同的結(jié)合方式,組成2種不同的CA-ResNet模塊,依次替換傳統(tǒng)YOLOv3的殘差模塊,檢測(cè)不同結(jié)合方式對(duì)算法性能帶來的影響,以此提取更多的特征信息,提高模糊或者較小目標(biāo)的檢測(cè)精度。

        (3)對(duì)CA模塊進(jìn)行改進(jìn),使其能夠更好地從網(wǎng)絡(luò)中提取全局的特征信息。

        在自建室內(nèi)人群檢測(cè)數(shù)據(jù)集上訓(xùn)練新模型,結(jié)果表明改進(jìn)后的YOLOv3算法能夠提取更多重要特征,測(cè)試的召回率和平均精度有明顯提升。

        2 背景知識(shí)

        2.1 YOLOv3算法簡(jiǎn)介

        YOLOv3算法以YOLOv1和YOLOv2為基礎(chǔ),在YOLOv2提出的骨干網(wǎng)絡(luò)Darknet-19的基礎(chǔ)上引入了殘差模塊,并進(jìn)一步加深了Darknet-19網(wǎng)絡(luò),改進(jìn)后的骨干網(wǎng)絡(luò)有53個(gè)卷積層,命名為Darknet-53。另外,YOLOv3借鑒了特征金字塔網(wǎng)絡(luò)的思想,從不同尺度提取特征進(jìn)行目標(biāo)檢測(cè),在保持速度優(yōu)勢(shì)的前提下提升了預(yù)測(cè)精度,尤其是加強(qiáng)了對(duì)小目標(biāo)的識(shí)別能力。YOLOv3算法以Darknet-53網(wǎng)絡(luò)作為主干網(wǎng)絡(luò),同時(shí)與多尺度預(yù)測(cè)進(jìn)行結(jié)合,網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        Darknet-53借用了ResNet的思想,在YOLOv2提出的骨干網(wǎng)絡(luò)Darknet-19中加入了殘差模塊。每個(gè)殘差模塊由2個(gè)CBL單元和1個(gè)快捷鏈路層構(gòu)成,其中,CBL(Convolutional_Batch Normalization_Leaky ReLU)單元包含卷積層、批正則化BN(Batch Normalization)層和Leaky ReLU[24]激活函數(shù),這樣有利于解決一些深層次網(wǎng)絡(luò)的梯度問題。Darknet-53的網(wǎng)絡(luò)結(jié)構(gòu)一共包含53層卷積層,1,2,8,8和4代表有幾個(gè)重復(fù)的殘差模塊,YOLOv3中沒有池化層和全連接層,網(wǎng)絡(luò)的下采樣是通過設(shè)置卷積的步長(zhǎng)為2來實(shí)現(xiàn)的,圖像經(jīng)過該卷積層之后尺寸就會(huì)減小一半。

        Figure 1 YOLOv3 network structure

        2.2 注意力機(jī)制CA模塊

        CA模塊是一種靈活且輕量的注意力機(jī)制,普通的通道注意力機(jī)制,如SE-Net(Squeeze and Excitation-Network)[25]中的SE模塊,是通過學(xué)習(xí)的方式來自動(dòng)獲取每個(gè)特征通道的重要程度,然后依照重要程度增強(qiáng)有用的特征并抑制對(duì)當(dāng)前任務(wù)用處不大的特征,從而實(shí)現(xiàn)特征通道的自適應(yīng)校準(zhǔn),但是此方法并沒有充分利用全局上下文信息,通常會(huì)忽略位置信息,且增加了整個(gè)網(wǎng)絡(luò)的計(jì)算量,SE模塊結(jié)構(gòu)如圖2a所示。而CA將位置信息嵌入到通道注意力中,如圖2b所示,分別對(duì)水平方向和垂直方向進(jìn)行平均池化得到2個(gè)一維向量,在空間維度上拼接和1×1卷積來壓縮通道,再通過BN層和非線性激活函數(shù)來編碼垂直方向和水平方向的空間信息,接下來分割,再各自通過1×1卷積得到輸入特征圖一樣的通道數(shù),最后把空間信息通過在通道上加權(quán)的方式融合。這樣既可捕獲跨通道的信息,也可保留精確的位置信息。將生成的特征圖分別編碼,形成一對(duì)方向感知和位置敏感的特征圖,可以互補(bǔ)地應(yīng)用于輸入特征圖中增強(qiáng)感興趣的目標(biāo)的表示,CA模塊結(jié)構(gòu)如圖2b所示。

        Figure 2 Attention mechanism module

        3 基于全局注意力的人員檢測(cè)模型

        3.1 自建室內(nèi)人群檢測(cè)數(shù)據(jù)集

        在傳統(tǒng)YOLOv3使用的常規(guī)數(shù)據(jù)集,如Pascal VOC(Visual Object Classes)數(shù)據(jù)集和Microsoft COCO(Common Objects in COntext)數(shù)據(jù)集,可檢測(cè)的目標(biāo)種類過多,包含人頭的圖像過少,甚至有些過于模糊或太小的人頭并沒有標(biāo)注出來,因此在常規(guī)目標(biāo)檢測(cè)數(shù)據(jù)集上的檢測(cè)效果并不理想,需要有針對(duì)性地制作數(shù)據(jù)集完成訓(xùn)練和檢測(cè)任務(wù)。本文制作室內(nèi)人群檢測(cè)數(shù)據(jù)集的方法如下:

        (1)利用Python網(wǎng)絡(luò)爬蟲技術(shù)從必應(yīng)和百度網(wǎng)站爬取包含室內(nèi)場(chǎng)景人群的圖像,部分示例如圖3所示。

        Figure 3 Several images in the static dataset

        (2)搜集北京建筑大學(xué)不同教室不同時(shí)間的監(jiān)控視頻,視頻大小共20 GB,格式為MKV,本文將視頻以1/8 fps的標(biāo)準(zhǔn)轉(zhuǎn)換成相應(yīng)的圖像序列,部分示例如圖4所示。

        Figure 4 Several images in the dynamic dataset

        (3)為了豐富數(shù)據(jù)集,對(duì)獲得的所有圖像進(jìn)行數(shù)據(jù)增強(qiáng),將經(jīng)過人工篩選得到符合要求的圖像組成數(shù)據(jù)集,共1 000幅圖像,然后將1 000幅圖像中的所有人頭均采用LabelImg進(jìn)行手工標(biāo)注,標(biāo)注效果如圖5所示。

        Figure 5 Annotation effect

        3.2 聚類候選錨框

        對(duì)于選擇錨框的形狀,YOLOv2已經(jīng)開始采用K-means聚類得到先驗(yàn)框的尺寸。傳統(tǒng)YOLOv3延續(xù)了這種方法,使用K-means算法對(duì)訓(xùn)練集中所有樣本的真實(shí)框聚類,得到具有代表性形狀的寬和高(維度聚類)。

        利用K-means算法對(duì)自建數(shù)據(jù)集所有樣本真實(shí)框(Ground Truth)的寬和高進(jìn)行聚類,得到先驗(yàn)框大小。關(guān)于錨框數(shù)量,原YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)最終輸出3個(gè)尺寸的特征圖,所以取了9個(gè)錨框。在自建數(shù)據(jù)集上這9個(gè)先驗(yàn)框的大小是:(12×21),(20×37),(33×56),(44×93),(72×117),(74×211),(115×164),(124×277),(207×313)。

        3.3 CA-ResNet模塊設(shè)計(jì)

        為了使YOLOv3能夠獲取更多特征信息,增強(qiáng)對(duì)模糊或者較小目標(biāo)的檢測(cè)能力,本文改進(jìn)了YOLOv3算法的特征提取網(wǎng)絡(luò),將CA模塊與ResNet模塊相結(jié)合,根據(jù)不同的結(jié)合方式組成2種不同的CA-ResNet模塊,分別記為CA-ResNet A和CA-ResNet B,來替換傳統(tǒng)YOLOv3的殘差模塊。CA-ResNet模塊改進(jìn)的基本思想是捕獲跨通道的信息,并不是每個(gè)通道都對(duì)信息傳遞非常有用,因此可通過對(duì)這些通道進(jìn)行過濾來得到優(yōu)化后的特征,幫助YOLOv3更加精準(zhǔn)地定位和識(shí)別感興趣的目標(biāo),提升檢測(cè)精度。

        CA-ResNet系列模塊均由ResNet模塊和CA模塊構(gòu)成。傳統(tǒng)的ResNet模塊結(jié)構(gòu)如圖6所示,改進(jìn)后的2種CA-ResNet模塊如圖7所示,用CA-ResNet模塊替換傳統(tǒng)YOLOv3的殘差模塊,由于改進(jìn)后的Darknet-53網(wǎng)絡(luò)結(jié)構(gòu)增加了卷積層,特征細(xì)節(jié)會(huì)有所丟失,因此為了更好地進(jìn)行高層信息與低層信息的特征融合,本文對(duì)YOLOv3進(jìn)行了改進(jìn),改進(jìn)后的CA-ResNet-YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)如圖8所示。

        Figure 6 ResNet module

        Figure 7 CA-ResNet module

        Figure 8 Network structure of CA-ResNet-YOLOv3

        3.4 CA模塊改進(jìn)

        CA模塊中使用了平均池化來對(duì)數(shù)據(jù)進(jìn)行下采樣,這樣既可以保留更多的圖像背景信息,強(qiáng)調(diào)對(duì)整體特征信息進(jìn)行下采樣,也可以更大程度上減少參數(shù),并且加強(qiáng)信息的完整傳遞。由于池化丟失的信息太多,雖然最大池化和平均池化都對(duì)數(shù)據(jù)進(jìn)行下采樣,但是最大池化更像是進(jìn)行特征選擇,選出分類辨識(shí)度更好的特征,保留更多細(xì)節(jié)特征。因此,本文采用平均池化與最大池化并行的連接方式,這樣設(shè)計(jì)比使用單一的池化丟失的信息更少,改進(jìn)的模塊稱為CA1(Coordinate Attention 1),其結(jié)構(gòu)如圖9所示。

        Figure 9 CA1 module

        4 實(shí)驗(yàn)設(shè)計(jì)

        本文將進(jìn)行4組對(duì)比實(shí)驗(yàn)來驗(yàn)證改進(jìn)的效果:(1)將CA-ResNet A模塊和CA-ResNet B模塊嵌入傳統(tǒng)YOLOv3算法的網(wǎng)絡(luò)結(jié)構(gòu)中,得到CA-ResNet A-YOLOv3算法和CA-ResNet B-YOLOv3算法,將這2個(gè)算法在自建室內(nèi)人群檢測(cè)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),對(duì)比傳統(tǒng)YOLOv3模型的檢測(cè)性能,以檢驗(yàn)CA模塊嵌入殘差模塊中不同位置所帶來的性能變化;(2)用GC(Global Context)[26]模塊和CA1模塊替換圖7b中的CA模塊,組成GC-ResNet B模塊和CA1-ResNet B模塊,嵌入YOLOv3的殘差模塊中,得到GC-ResNet B-YOLOv3和CA1-ResNet B-YOLOv3,對(duì)比不同注意力模塊對(duì)YOLOv3算法性能的影響;(3)在自建室內(nèi)人群數(shù)據(jù)集上用傳統(tǒng)YOLOv3算法和CA1-ResNet B-YOLOv3算法進(jìn)行對(duì)比實(shí)驗(yàn),從評(píng)價(jià)指標(biāo)的結(jié)果和檢測(cè)圖像的效果2方面來檢驗(yàn)改進(jìn)后的YOLOv3算法的性能;(4)將所提的CA1-ResNet B-YOLOv3算法與傳統(tǒng)YOLOv3算法、SSD算法以及鞠默然等[21]改進(jìn)的YOLOv3算法在自建人群檢測(cè)數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn)。

        4.1 評(píng)價(jià)指標(biāo)

        本文采用目前主流的目標(biāo)檢測(cè)算法的評(píng)價(jià)指標(biāo):準(zhǔn)確率Precision、目標(biāo)召回率Recall和均值平均精度mAP。

        準(zhǔn)確率Precision指算法預(yù)測(cè)為正的樣本中,真實(shí)正樣本的比例,一般用來評(píng)估算法的全局準(zhǔn)確程度,其定義如式(1)所示:

        (1)

        召回率Recall指在原始樣本的正樣本中,最后被正確預(yù)測(cè)為正樣本的概率,其定義如式(2)所示:

        (2)

        本文以室內(nèi)人群檢測(cè)為例,TP為正確檢測(cè)出的人數(shù),F(xiàn)P為誤檢人數(shù),F(xiàn)N為漏檢人數(shù)。

        mAP是每個(gè)類別AP(Average Precision)的平均值,AP是P-R曲線下的面積。以召回率為橫坐標(biāo),準(zhǔn)確率為縱坐標(biāo),繪制P-R曲線,利用積分可求出mAP的值,其定義如式(3)所示:

        (3)

        其中,c表示類別數(shù),p表示Precision,r表示Recall,p(r)是一個(gè)以r為參數(shù)的函數(shù)。

        虛警率=1-Precision

        (4)

        漏警率=1-Recall

        (5)

        因此,準(zhǔn)確率Precision值越大則虛警率越小,召回率Recall值越大則漏警率越小,mAP用于衡量算法好壞,值越大說明其識(shí)別效果越好。

        4.2 數(shù)據(jù)集

        本文的自建數(shù)據(jù)集通過視頻提取和網(wǎng)絡(luò)爬蟲2種方法得到,經(jīng)過篩選對(duì)其中一部分圖像進(jìn)行了數(shù)據(jù)增強(qiáng),最終數(shù)據(jù)集包含有1 000幅圖像,只有1個(gè)類別person,然后采用開源的LabelImg軟件對(duì)采集到的1 000幅圖像進(jìn)行標(biāo)注,得到了對(duì)應(yīng)的1 000個(gè)xml文件,以9∶1的比例將圖像分為訓(xùn)練樣本和測(cè)試樣本。

        4.3 實(shí)驗(yàn)環(huán)境和訓(xùn)練參數(shù)

        實(shí)驗(yàn)條件:本文提出的模型是使用PyTorch和Python實(shí)現(xiàn)的,操作系統(tǒng)為Ubuntu 16.04,深度學(xué)習(xí)框架為Darknet,GPU為NVIDIA GeForce RTX 2080Ti。

        訓(xùn)練參數(shù)設(shè)置為:(1)訓(xùn)練迭代次數(shù)epoch設(shè)置為100;(2)每次迭代訓(xùn)練的圖像數(shù)目batch_size設(shè)置為4;(3)subdivision設(shè)置為1;(4)輸入尺寸為640×640;(5)學(xué)習(xí)率為0.001。

        5 實(shí)驗(yàn)結(jié)果與分析

        (1)CA模塊嵌入殘差模塊中不同位置所帶來的性能變化,實(shí)驗(yàn)結(jié)果如表1所示。

        Table 1 Detection results on self-built dataset

        從表1可以看出,CA-ResNet B-YOLOv3算法的mAP值最大,比傳統(tǒng)YOLOv3的高出11.25%,比CA-ResNet A-YOLOv3算法的高出0.28%,也就是說,將CA模塊嵌入在殘差模塊中Add之前的效果更好,可以保留更多目標(biāo)在特征圖中的語義信息,便于模糊目標(biāo)的識(shí)別。

        (2)不同注意力模塊對(duì)YOLOv3算法性能的影響,實(shí)驗(yàn)結(jié)果如圖10和表2所示。

        Figure 10 Changes of mAP during training of different algorithms

        Table 2 Performance effects of different attention modules

        從實(shí)驗(yàn)結(jié)果可明顯看出,使用改進(jìn)后CA1模塊的YOLOv3算法各個(gè)指標(biāo)都有明顯提升,無論是Precision值還是Recall值都有明顯增長(zhǎng),即達(dá)到了減少漏警率和誤檢率的目的,從最終的mAP值可以看出算法性能獲得了改善。

        (3)CA1-ResNet B-YOLOv3算法的效能評(píng)估和分析,只有一個(gè)目標(biāo)類別person,在自建數(shù)據(jù)集上的檢測(cè)性能如表3所示。

        Table 3 Performance of CA1-ResNet B-YOLOv3 algorithm on self-built dataset

        從表3的實(shí)驗(yàn)結(jié)果可以看出,與傳統(tǒng)YOLOv3相比,CA1-ResNet B-YOLOv3算法的檢測(cè)準(zhǔn)確率提升了5.82%,召回率由92.37%提高到96.23%,上升了3.86%,CA1-ResNet B-YOLOv3算法的mAP由45.10%提高到了58.87%,檢測(cè)效果如圖11和圖12所示。

        對(duì)比圖11和12可以看出,CA1-ResNet B-YOLOv3算法對(duì)于一些復(fù)雜場(chǎng)景,如與背景相近的陰暗處的人也可以較好地識(shí)別,定位準(zhǔn)確度提高了很多,誤檢和漏檢的情況也有顯著改善。

        Figure 11 Detection results of traditional YOLOv3 algorithm on self-built dataset

        Figure 12 Detection results of CA1-ResNet B-YOLOv3 algorithm on self-built dataset

        (4)在自建數(shù)據(jù)集上對(duì)比經(jīng)典算法。硬件平臺(tái)為NVIDIA GeForce RTX 2080Ti,檢測(cè)結(jié)果如表4所示。在NVIDIA GeForce RTX 2080Ti嵌入式平臺(tái)上,結(jié)合表4對(duì)比不同算法在自建人群檢測(cè)數(shù)據(jù)集上的檢測(cè)精度可以看出,CA1-ResNet B-YOLOv3算法相較于傳統(tǒng)YOLOv3模型在mAP指標(biāo)上提高了約13.77%,Recall值有很大的提升,漏警率降低了許多;相較于同樣是一階段目標(biāo)檢測(cè)算法的SSD算法,其mAP提升了9.32%,相較于復(fù)現(xiàn)的鞠默然等[21]提出的改進(jìn)的YOLOv3算法,其mAP提高了3.13%,Recall值提高了1.93%。

        Table 4 Performance comparison of different algorithms

        6 結(jié)束語

        本文基于全局注意力來進(jìn)行人數(shù)統(tǒng)計(jì)。首先,利用動(dòng)態(tài)數(shù)據(jù)集和靜態(tài)數(shù)據(jù)集相結(jié)合自建數(shù)據(jù)集,并對(duì)部分?jǐn)?shù)據(jù)集進(jìn)行了數(shù)據(jù)增強(qiáng);通過K-means算法重新聚類錨框;然后將CA模塊與ResNet模塊相結(jié)合,構(gòu)成2種不同組合方式的CA-ResNet模塊,替換傳統(tǒng)YOLOv3的殘差模塊;并對(duì)CA模塊進(jìn)行了改進(jìn),使其更好地提取細(xì)節(jié)特征信息;最后根據(jù)識(shí)別出來的人進(jìn)行統(tǒng)計(jì),實(shí)時(shí)返回畫面中的人數(shù)。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的CA1-ResNet B-YOLOv3算法對(duì)于室內(nèi)人群識(shí)別的召回率、檢測(cè)的平均精度都有明顯提升。

        但是,改進(jìn)后的算法在訓(xùn)練速度和人數(shù)統(tǒng)計(jì)的實(shí)時(shí)性方面上還有較大提升空間。下一步將在不影響檢測(cè)性能的情況下降低計(jì)算量、精簡(jiǎn)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行深入研究。

        猜你喜歡
        特征檢測(cè)
        抓住特征巧觀察
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        “幾何圖形”檢測(cè)題
        “角”檢測(cè)題
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        抓住特征巧觀察
        国产最新地址| 亚洲乱码中文字幕久久孕妇黑人| 超碰cao已满18进入离开官网| 大学生被内谢粉嫩无套| 色婷婷久久免费网站| 亚洲最大不卡av网站| 亚洲av精品一区二区三| 久久一区二区三区少妇人妻| 国产av夜夜欢一区二区三区| 精品久久久无码中文字幕| 免费 无码 国产精品| 蜜桃噜噜一区二区三区| 久草福利国产精品资源| 大地资源网高清在线播放| 亚洲综合色丁香婷婷六月图片| 欧美日韩一二三区高在线| 区一区二区三区四视频在线观看 | 色一情一乱一伦一区二区三区| 日韩在线视精品在亚洲| 久久亚洲综合亚洲综合| 99久久精品免费看国产| 99久久99久久精品国产片果冻| 国产午夜激无码AV毛片不卡| 人妻人妇av一区二区三区四区| 99无码熟妇丰满人妻啪啪| 国产精品久久久久久麻豆一区| 亚洲一区丝袜美腿在线观看| 最新国产女主播在线观看| 国产喷水1区2区3区咪咪爱av| 久久青草伊人精品| 久久亚洲精精品中文字幕早川悠里 | 如何看色黄视频中文字幕| 日本成年一区久久综合| 成 人 免费 在线电影| 国产在线观看入口| 一区两区三区视频在线观看| 久久久久av综合网成人| 日韩内射美女人妻一区二区三区| 亚洲色拍拍噜噜噜最新网站| 99久久国产精品免费热| 国产亚洲真人做受在线观看|