亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于循環(huán)Faster R-CNN的襯衫領(lǐng)型精確識別

        2022-08-27 02:27:30,侯玨,2,劉正,2,3
        西安工程大學(xué)學(xué)報 2022年4期
        關(guān)鍵詞:檢測模型

        張 怡 ,侯 玨,2,劉 正,2,3

        (1.浙江理工大學(xué) 服裝學(xué)院,浙江 杭州 310018;2.浙江省服裝工程技術(shù)研究中心,浙江 杭州 310018;3.服裝數(shù)字化技術(shù)浙江省工程實驗室,浙江 杭州 310018)

        0 引 言

        近年來,服裝款式造型設(shè)計趨向多樣化、個性化,對于經(jīng)營者而言,服裝產(chǎn)品的展示顯得尤為重要。但是,目前大多數(shù)電商平臺對于服裝的細節(jié)要素展示并未做詳細分類,導(dǎo)致消費者在檢索某個類別的服裝時,會涌現(xiàn)出大量信息而無法進行細致的篩選,難以找到心儀的款式[1-2]。服裝細節(jié)要素特征通常存在于特定的部件區(qū)域處[3],如衣服的領(lǐng)部、袖口、門襟等部件,由于一件服裝包含多個部件且整張服裝圖像中部件的占比面積較小,需要搭建同時實現(xiàn)部件定位與分類的算法。

        相較于傳統(tǒng)識別方法,深度學(xué)習(xí)[4]具有自動特征提取、識別效率和精度高的特點[5],現(xiàn)有的深度學(xué)習(xí)目標(biāo)檢測算法大致分為2類:一階段檢測算法,典型代表是YOLO[6]、SSD[7]及其衍生模型[8];二階段檢測算法,典型代表是R-CNN系列[9-11]。相較于一階段方法,二階段方法對圖像質(zhì)量要求低,但檢測精度高且對小目標(biāo)的檢測效果較好[12]。目前已有學(xué)者將深度學(xué)習(xí)應(yīng)用于服裝屬性識別,XIANG等采用改進RCNN框架的方法來識別襯衫的領(lǐng)、袖等屬性[13];劉正東等提出基于尺寸分割和單次多盒檢測(SSD)的西裝領(lǐng)增強檢測算法[14];尹光燦等通過人工截取領(lǐng)型區(qū)域并微調(diào)AlexNet卷積神經(jīng)網(wǎng)絡(luò)模型的超參數(shù),實現(xiàn)服裝領(lǐng)型的識別[15];張艷清等通過擴大衣領(lǐng)的框選范圍,探討數(shù)據(jù)集標(biāo)注對Faster R-CNN識別連衣裙衣領(lǐng)的影響[16];SUN等提出了一種基于Faster R-CNN和多任務(wù)學(xué)習(xí)的服裝屬性識別方法[17]。上述研究對提高服裝屬性的識別率作出了一定貢獻,但未特別關(guān)注小目標(biāo)部件細節(jié)特征的識別,且未考慮收集到的各類別樣本數(shù)量不均衡的問題。外觀細節(jié)特征的差異所帶來的視覺感受不同,對服裝風(fēng)格的塑造也有一定的影響,為了獲得服裝部件的細節(jié)特征信息,需要對圖像進行多尺度識別,現(xiàn)有模型如GoogleNet[18]、SSD[7]、FPN[19]等均采用多尺度技術(shù)來提高識別效果,但該技術(shù)會增加網(wǎng)絡(luò)負擔(dān),降低模型效率。

        本文以襯衫領(lǐng)部為研究對象,根據(jù)領(lǐng)部的細節(jié)構(gòu)成要素對基礎(chǔ)領(lǐng)型進一步劃分,提出了一種循環(huán)結(jié)構(gòu)的Faster R-CNN網(wǎng)絡(luò)模型,實現(xiàn)襯衫領(lǐng)部細節(jié)特征的識別分類。針對類別間樣本數(shù)量不均衡問題,采用權(quán)重懲罰方法有效提高了模型的檢測精度。襯衫領(lǐng)部的精確細分有利于縮小檢索范圍,能夠更好地滿足消費者的需求,并且可根據(jù)消費者的喜好提高服裝設(shè)計和生產(chǎn)的針對性。

        1 領(lǐng)部細節(jié)要素識別方法

        1.1 Faster R-CNN

        REN等提出了Faster R-CNN[11],該網(wǎng)絡(luò)由主干特征提取網(wǎng)絡(luò)、區(qū)域建議網(wǎng)絡(luò)(RPN)、回歸分類網(wǎng)絡(luò)3部分組成,采用卷積神經(jīng)網(wǎng)絡(luò)生成候選框[20],減少了內(nèi)存消耗,大幅度提升了檢測精度與速度[21]。

        1.2 循環(huán)Faster R-CNN

        本文提出了一種以Faster R-CNN為基礎(chǔ)的具有環(huán)路的網(wǎng)絡(luò)結(jié)構(gòu),循環(huán)利用網(wǎng)絡(luò)組件對圖像進行二級細節(jié)特征的識別,將其命名為“循環(huán)Faster R-CNN”,網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,其中包含一級識別和二級識別2部分。

        圖 1 循環(huán)Faster R-CNN網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Recurrent Faster R-CNN network structure

        圖1中,一階段RPN結(jié)構(gòu)如圖1左下方黑色虛線框內(nèi)所示,其包含2個分支:分支1把特征圖分割成多個小區(qū)域,識別出前景與背景區(qū)域;分支2用于獲取前景區(qū)域的大致坐標(biāo)。在此基礎(chǔ)上通過區(qū)域建議層Proposal篩選掉偏移量過大及相互重疊的候選框,此時獲得建議框,利用建議框在特征圖上截取,得到的不同特征層反映原圖中的不同位置,截取到的內(nèi)容傳入二階段Fast R-CNN中,如圖1右下方紅色虛線框內(nèi)所示,ROI Pooling層將截取到的不同大小的特征層區(qū)域轉(zhuǎn)化為固定尺寸,通過全連接層映射到一個特征向量,利用回歸分類網(wǎng)絡(luò)判斷截取到的圖片中是否包含目標(biāo),并對建議框進一步調(diào)整,最終獲得更精確的目標(biāo)識別框和分類結(jié)果。

        二級識別是在一級識別的基礎(chǔ)上對領(lǐng)部的細節(jié)特征進行識別,為了在不增加網(wǎng)絡(luò)負擔(dān)的同時提高細節(jié)特征的識別效果,將一級識別網(wǎng)絡(luò)識別的領(lǐng)部邊界框截取,再次喂入主干網(wǎng)絡(luò)Resnet50,提取并學(xué)習(xí)領(lǐng)部的細節(jié)特征,最后連接全連接層,實現(xiàn)襯衫領(lǐng)部的二級識別,如圖1正上方藍色虛線框內(nèi)所示。

        采用Faster R-CNN作為一級識別網(wǎng)絡(luò),其中主干特征提取網(wǎng)絡(luò)選擇文獻[22]中的Resnet50層結(jié)構(gòu)。Resnet50層結(jié)構(gòu)中,每個殘差結(jié)構(gòu)包含 3個卷積層,該網(wǎng)絡(luò)一共包含1+3×(3+4+6+3)=49個卷積層和1個全連接層,作為主干特征提取網(wǎng)絡(luò)時去除其中的全連接層,只留下卷積層,輸出下采樣后的特征圖。獲得的特征圖有2個應(yīng)用,一個輸入到RPN中,另一個是和ROI Pooling結(jié)合使用。

        本文可視化了Resnet50在訓(xùn)練領(lǐng)部圖像過程中的特征圖,輸入的原始圖像見圖2(a),由于只有卷積層包含訓(xùn)練參數(shù),圖2(b)~(f)展示了Resnet50不同層學(xué)到的前12張?zhí)卣鲌D。

        (a) 輸入的原始圖像

        (b) conv1

        (c) conv2_x

        (d) conv3_x

        (e) conv4_x

        (f) conv5_x圖 2 Resnet50不同層輸出的特征圖Fig.2 Feature maps output from different layers of the Resnet50

        圖2中,淺層的卷積層主要學(xué)習(xí)圖像的紋理和角點信息,隨著網(wǎng)絡(luò)的加深,學(xué)到的信息越來越復(fù)雜和抽象化,結(jié)果顯示網(wǎng)絡(luò)中的卷積核均可提取到有效特征信息。

        1.3 損失函數(shù)

        Faster R-CNN網(wǎng)絡(luò)的損失函數(shù)包含分類損失和回歸損失2部分,表示為

        (1)

        式(1)等號右側(cè)前半部分為分類損失,后半部分為回歸損失。分類過程采用交叉熵損失函數(shù),可表示為

        (2)

        回歸采用smoothL1函數(shù),可表示為

        (3)

        (4)

        本文所提出模型的一級識別損失函數(shù)同式(1)。由于二級識別任務(wù)是對領(lǐng)部區(qū)域進行更細致的類別劃分,因此,損失函數(shù)只包含分類損失,計算公式同式(2)。

        2 數(shù)據(jù)集構(gòu)建

        2.1 數(shù)據(jù)采集與預(yù)處理

        從天貓、唯品會等電商平臺搜集1 375張平面擺放的襯衫圖像作為樣本集,裁剪去除圖像中雜物、文字說明等信息,圖3所示為樣本集中各類襯衫領(lǐng)型示例。

        圖 3 各類襯衫領(lǐng)型示例Fig.3 Examples of various shirt collar types

        為提高模型的魯棒性與抗干擾性,對裁剪好的圖片進行批量旋轉(zhuǎn),旋轉(zhuǎn)角度依次為順時針 0°、90°、180°、270°,將原本1 375張襯衫圖像擴充為原來的4倍,即5 500張圖像。運用數(shù)據(jù)集標(biāo)注工具 LabelImg以領(lǐng)部為邊界對樣本圖像進行準(zhǔn)確標(biāo)注,形成包含圖像名稱、尺寸、讀取路徑、標(biāo)記框標(biāo)簽和坐標(biāo)的標(biāo)注文件,用于模型訓(xùn)練過程中讀取數(shù)據(jù)。

        2.2 襯衫領(lǐng)型分類

        衣領(lǐng)按照領(lǐng)線和領(lǐng)子的組合方式,可分為有領(lǐng)和無領(lǐng)2類[23]。有領(lǐng)是指在領(lǐng)線上裝有各種不同形式的領(lǐng)子,無領(lǐng)是指只有領(lǐng)線而無領(lǐng)子的領(lǐng)型。一級類別為常見的襯衫領(lǐng)型,其中有領(lǐng)領(lǐng)型包含翻立領(lǐng)、翻領(lǐng)、立領(lǐng)、飄帶領(lǐng),無領(lǐng)領(lǐng)型包含圓領(lǐng)、V領(lǐng)、方領(lǐng),采用標(biāo)簽collar1~collar7表示各一級類別。

        由于同一領(lǐng)型可以采用不同的結(jié)構(gòu)形式進行裝配制作,所呈現(xiàn)出的外觀細節(jié)特征不同,在視覺感觀上也有所差別,將一級類別中包含的領(lǐng)型按照其組成結(jié)構(gòu)以及裝配元素進行分析歸納,從而形成更精細化的二級類別,采用標(biāo)簽craft1~craft13表示各二級類別,具體的劃分方式如下:翻立領(lǐng)是由領(lǐng)座和領(lǐng)面2部分經(jīng)工藝裝配相接而成,結(jié)構(gòu)相對固定單一,標(biāo)簽為craft1,樣本數(shù)量為1 200;翻領(lǐng)可分為連翻領(lǐng)和平翻領(lǐng),連翻領(lǐng)的領(lǐng)座和領(lǐng)面是一體的,領(lǐng)子縫制于衣身上自然翻折形成領(lǐng)座和領(lǐng)面2部分,標(biāo)簽為craft2,樣本數(shù)量為360,而平翻領(lǐng)只有領(lǐng)面而無領(lǐng)座支撐,領(lǐng)子平攤在衣身上標(biāo)簽為craft3,樣本數(shù)量為360;立領(lǐng)類別的劃分中,常規(guī)立領(lǐng)是只含有領(lǐng)座結(jié)構(gòu)的領(lǐng)型,標(biāo)簽為craft4,樣本數(shù)量為440,帶花邊立領(lǐng)是在領(lǐng)座的基礎(chǔ)上添加花邊裝飾元素,標(biāo)簽為craft5,樣本數(shù)量為360;飄帶領(lǐng)是由立領(lǐng)延伸形成的帶有飄帶裝飾的領(lǐng)子,標(biāo)簽為craft6,樣本數(shù)量為400;圓領(lǐng)類別中,常規(guī)圓領(lǐng)是指領(lǐng)口形狀為圓形且不含其他元素的基礎(chǔ)領(lǐng)型,標(biāo)簽為craft7,樣本數(shù)量為360,帶花邊圓領(lǐng)是在常規(guī)圓領(lǐng)的基礎(chǔ)上增加了花邊裝飾元素,標(biāo)簽為craft8,樣本數(shù)量為320;抽褶圓領(lǐng)是指領(lǐng)口形狀為圓形且含有褶皺元素的領(lǐng)型,標(biāo)簽為craft9,樣本數(shù)量為320;V領(lǐng)和方領(lǐng)的分類方式類似圓領(lǐng),分為常規(guī)V領(lǐng)、帶花邊V領(lǐng)、常規(guī)方領(lǐng)、帶花邊方領(lǐng),標(biāo)簽分別為craft10、craft11、craft12、craft13,樣本數(shù)量分別為320、360、340、360。同屬于一個一級類別下的二級子類別間領(lǐng)型差異較小,需要提取領(lǐng)部的細節(jié)特征進行識別分類。

        2.3 類別間樣本不均衡問題

        對所收集到的數(shù)據(jù)集分析顯示,在眾多襯衫領(lǐng)型當(dāng)中,翻立領(lǐng)樣本占比最高,比例約為21.82%,其他類別的樣本數(shù)量相對較少。各類別圖像數(shù)量不一致將造成模型的識別精度降低,為解決類別間樣本不均衡問題,通常采用的解決方法有數(shù)據(jù)擴充和權(quán)重懲罰。前者采用圖像變換和添加擾動的方法擴充數(shù)量少的類別樣本,需要增加樣本處理的時間;后者對損失函數(shù)進行權(quán)重賦值,使得樣本數(shù)量少的類別獲得更大的損失權(quán)重,模型在迭代更新的過程中能夠?qū)W⒂跍p少少數(shù)類的誤差。

        本文采用權(quán)重懲罰法,設(shè)定了3組類權(quán)重。類權(quán)重1分別賦予各類別與其各自樣本量成反比的類權(quán)重,使得類權(quán)重達到平衡狀態(tài)[24],表達式為

        wj=Nt/(M×Nj)

        (5)

        式中:j表示類;wj為每個類的權(quán)重;M為類別總數(shù);Nj為每個類的樣本數(shù)量;Nt為樣本總數(shù)。

        類權(quán)重2和3只針對性地降低最多類的權(quán)重,使模型關(guān)注于其他類別的檢測,迭代過程中的參數(shù)主要根據(jù)其他類別的損失進行優(yōu)化。類權(quán)重2中最多類的權(quán)重根據(jù)collar2~collar7樣本平均數(shù)與collar1樣本數(shù)之比得到;類權(quán)重3中最多類的權(quán)重根據(jù)collar4和collar6樣本平均數(shù)與collar1樣本數(shù)之比得到。各類別對應(yīng)的類權(quán)重如表1所示。

        表1 類權(quán)重設(shè)定Tab.1 Class weight setting

        3 實驗過程與結(jié)果分析

        3.1 訓(xùn)練參數(shù)

        本文網(wǎng)絡(luò)模型的搭建和訓(xùn)練均通過Python3.7軟件和Pytorch框架實現(xiàn),系統(tǒng)環(huán)境為Windows10的64位操作系統(tǒng),硬件設(shè)備參數(shù)為32 GiB內(nèi)存、Intel i7-10700K處理器和RTX 3090顯卡。

        在一級識別網(wǎng)絡(luò)中,設(shè)定(訓(xùn)練集+驗證集)與測試集的比例為9∶1,訓(xùn)練集與驗證集的比例也為9∶1,將數(shù)據(jù)集按上述比例進行隨機劃分。參數(shù)設(shè)置:MaxEpochs為100,凍結(jié)訓(xùn)練Epochs為50。初始學(xué)習(xí)率為0.000 1, 更新學(xué)習(xí)率的乘法因子數(shù)值為0.95。進行二級識別時,將截取后的領(lǐng)部圖像按9∶1的比例隨機劃分為訓(xùn)練集和測試集,再次輸入主干網(wǎng)絡(luò)Resnet50,訓(xùn)練迭代次數(shù)為50。

        3.2 評價指標(biāo)

        本文采用平均精度 (average precision,AP)、mAP等目標(biāo)檢測常用指標(biāo)進行模型性能的評價。AP為PR曲線下的面積,用于衡量訓(xùn)練出的模型在每個類別上的檢測精度。mAP即平均AP值,衡量訓(xùn)練出的模型在所有類別上的檢測精度,是目標(biāo)檢測中一個最為重要的指標(biāo)。

        同時,本文采用混淆矩陣、準(zhǔn)確率、精確率、召回率和F1分數(shù)評判分類模型的優(yōu)劣。

        3.3 循環(huán)Faster R-CNN領(lǐng)部識別結(jié)果分析

        3.3.1 一級識別網(wǎng)絡(luò)訓(xùn)練過程與結(jié)果分析

        一級識別網(wǎng)絡(luò)訓(xùn)練過程中各部分的損失值隨訓(xùn)練迭代次數(shù)的變化曲線如圖4所示,rpn_cls和rpn_loc分別代表RPN訓(xùn)練階段的分類和回歸損失,roi_cls和roi_loc分別代表Fast R-CNN訓(xùn)練階段的分類和回歸損失,Train Loss代表訓(xùn)練集總損失,Valid Loss代表驗證集總損失。

        圖 4 一級識別網(wǎng)絡(luò)訓(xùn)練損失Fig.4 First-level recognition network training loss

        從圖4可以看出,在總體訓(xùn)練過程中,RPN階段的分類和回歸損失訓(xùn)練始終很小,保持在0.06以下,而Fast R-CNN階段的分類和回歸損失相比于RPN大很多,這是由于RPN階段是對目標(biāo)區(qū)域進行粗略的篩選,而在Fast R-CNN階段再進行精細的調(diào)整。30個訓(xùn)練迭代次數(shù)后,損失值的波動速度降低,最后趨于穩(wěn)定,最終訓(xùn)練集和驗證集的總損失分別為0.340 3和0.329 6,模型收斂效果較好。

        將測試集輸入訓(xùn)練好的網(wǎng)絡(luò)進行性能測試,圖5顯示了模型在一級類別上的AP值。

        圖 5 一級識別結(jié)果Fig.5 First-level recognition results

        從圖5可以看出,一級識別網(wǎng)絡(luò)在所有類別上都具有較高的AP值,通過計算可知mAP約96.23%,模型對于翻立領(lǐng)(collar1)和翻領(lǐng)(collar2)的檢測精度最好,AP分別為99.92%和99.25%,這是由于這2類領(lǐng)型都帶有領(lǐng)面,特征較明顯,易于識別。模型對于其他領(lǐng)型的檢測精度依次降低,其中方領(lǐng)(collar7)的領(lǐng)角呈方形,形狀特征較具有辨識度,AP約98.57%,而立領(lǐng)(collar3)雖然含有領(lǐng)座,但仍然具有圓領(lǐng)(collar5)的形狀特征,可能被識別錯誤,由于翻立領(lǐng),翻領(lǐng),飄帶領(lǐng)的內(nèi)領(lǐng)形狀可能呈V型,若V領(lǐng)(collar6)帶有貼邊或裝飾,會產(chǎn)生多個預(yù)測框,且collar4和collar6的樣本數(shù)量較少,使得這兩類檢測精度最低。

        3.3.2 類權(quán)重對一級識別結(jié)果的影響

        各個類權(quán)重方案在同一測試集下的檢測精度如圖6所示。

        圖 6 各類權(quán)重一級識別結(jié)果Fig.6 First-level recognition results of various weights

        從圖6可以看出,類權(quán)重改變對mAP有不同程度的提高,類權(quán)重3對于模型精度的提升效果最好,mAP約98.79%,這是由于類權(quán)重3根據(jù)特定少類別(樣本量少且AP較低)與最多類的樣本比例去賦予最多類更小的權(quán)重,降低了模型對最多類的關(guān)注度,并且類權(quán)重3的訓(xùn)練損失最低,訓(xùn)練集和驗證集的總損失分別為0.307 4和0.291 0,模型的收斂程度最高,因此將樣本數(shù)量占比最高類加權(quán)系數(shù)來控制權(quán)重,能夠有效提升模型的檢測精度。

        3.3.3 二級識別結(jié)果分析

        將測試集輸入訓(xùn)練好的二級識別網(wǎng)絡(luò),圖7是二級分類結(jié)果的混淆矩陣,橫軸表示真實標(biāo)簽,縱軸表示分類結(jié)果。

        圖 7 二級分類結(jié)果混淆矩陣Fig.7 Confusion matrix for secondary classification results

        從圖7可以看出,預(yù)測值在主對角線上分布密集,表示絕大多數(shù)樣本都被正確地分類,在550張測試圖片中,只有16張圖片分類錯誤,準(zhǔn)確率達到了97.09%,最終模型在測試集上每個類別的精確率、召回率、F1分數(shù)的平均值分別為96.74%、96.89%、96.70%。由于截取后的圖像只包含領(lǐng)部區(qū)域,能夠突出目標(biāo),模型對于領(lǐng)部二級細節(jié)特征的識別分類效果較理想。

        3.4 對比與分析

        將循環(huán)Faster R-CNN的一級識別網(wǎng)絡(luò)與一階段檢測算法YOLOv3在襯衫領(lǐng)部的二級類別上分別進行訓(xùn)練和測試,檢測精度如圖8所示。

        圖 8 二級類別檢測精度對比Fig.8 Secondary category detection accuracy comparison

        從圖8可以看出,一級識別網(wǎng)絡(luò)對于二級類別的mAP約92.17%,相比于一級類別的檢測精度降低了約4.06%,一級識別網(wǎng)絡(luò)不適合直接用于領(lǐng)部二級細節(jié)特征的識別分類。而YOLOv3在所有類別上的檢測效果均不及一級識別網(wǎng)絡(luò),且mAP下降約4.97%。圖9為測試集中二級類別檢測結(jié)果示例。

        (a) 一級識別網(wǎng)絡(luò)

        (b) YOLOv3圖 9 二級類別檢測結(jié)果示例Fig.9 Examples of secondary category detection results

        從圖9可以看出,YOLOv3網(wǎng)絡(luò)存在預(yù)測區(qū)域不準(zhǔn)確和漏檢的情況,檢測效果相對較差,原因是YOLO網(wǎng)絡(luò)對小目標(biāo)不夠敏感,容易漏檢,不適用于襯衫領(lǐng)部識別。

        4 結(jié) 語

        本文以襯衫領(lǐng)部為研究對象,提出了一種基于循環(huán)Faster R-CNN的襯衫領(lǐng)型精確識別方法,將襯衫領(lǐng)部根據(jù)常見領(lǐng)型以及細節(jié)構(gòu)成要素劃分為兩級類別,先利用一級識別網(wǎng)絡(luò)Faster R-CNN實現(xiàn)襯衫領(lǐng)部的自動識別與截取,再循環(huán)利用該網(wǎng)絡(luò)中的主干特征提取網(wǎng)絡(luò),連接全連接層,完成領(lǐng)部二級分類。為提升少樣本類別的檢測精度,解決襯衫領(lǐng)型類別間樣本不均衡問題,采用權(quán)重懲罰方法設(shè)定類權(quán)重,改進后網(wǎng)絡(luò)的mAP由96.23%提高到98.79%。在一級識別網(wǎng)絡(luò)識別到領(lǐng)部時將其邊界框進行截取,截取后的圖像只包含領(lǐng)部區(qū)域,能夠突出目標(biāo),二級網(wǎng)絡(luò)的分類準(zhǔn)確率為97.09%,模型具有較好的分類性能。實驗結(jié)果顯示,相比于YOLOv3算法本文網(wǎng)絡(luò)更適用于襯衫領(lǐng)部細節(jié)特征的識別,模型具有一定的泛化能力,可以將其擴展到服裝其他部件的精確識別。

        猜你喜歡
        檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        3D打印中的模型分割與打包
        小波變換在PCB缺陷檢測中的應(yīng)用
        午夜精品一区二区三区无码不卡| 粉嫩av国产一区二区三区 | 亚洲捆绑女优一区二区三区| 亚洲色图片区| 男人边吃奶边做好爽免费视频 | 狠狠色狠狠色综合日日不卡| 2020国产精品久久久久| 国产一区二区三区护士| 国产精品videossex久久发布| 亚洲欧美日韩国产精品专区| 一本加勒比hezyo无码视频| 国产精品麻豆一区二区三区| 欧美老妇交乱视频在线观看| 国产精品福利视频一区| 97av在线播放| 中文字幕综合一区二区三区| 男人的天堂无码动漫av| 欧美激情αv一区二区三区| 精品亚亚洲成av人片在线观看| 精品人妻va一区二区三区| 国产性生大片免费观看性 | 欧美人与动牲交a欧美精品| A阿V天堂免费无码专区| 久久99国产综合精品女同| 国产精品嫩草99av在线| 国产精品片211在线观看| 国产精品国产三级国产专区51区 | 亞洲綜合無碼av一區二區| 日本成人在线不卡一区二区三区| 国产精品国产三级国产av中文| 一本加勒比hezyo无码人妻| 亚洲AV无码国产精品久久l| 精品嫩模福利一区二区蜜臀| 人妻少妇中文字幕乱码| 九九免费在线视频| 日韩国产一区二区三区在线观看| 亚洲av无码专区在线| 少妇邻居内射在线| 91在线视频视频在线| 久久久久亚洲av无码a片| 国产剧情麻豆女教师在线观看 |