亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        對稀疏點云規(guī)則化處理的分類卷積神經(jīng)網(wǎng)絡(luò)

        2023-12-27 14:53:08李恒宇楊家志張峻愷
        計算機工程與應(yīng)用 2023年24期
        關(guān)鍵詞:特征提取分類特征

        李恒宇,楊家志,沈 潔,張峻愷

        1.桂林理工大學(xué) 信息科學(xué)與工程學(xué)院,廣西 桂林 541004

        2.廣西嵌入式技術(shù)與智能系統(tǒng)重點實驗室,廣西 桂林 541004

        近年來,3D掃描設(shè)備和技術(shù)的發(fā)展,促進了許多依賴3D 點云數(shù)據(jù)的應(yīng)用興起。例如,機器人、自動駕駛、AR等,因此,如何高效地處理點云數(shù)據(jù)逐漸成為了人們關(guān)注的焦點。深度學(xué)習(xí)被廣泛應(yīng)用在計算機視覺、語音識別和自然語言處理等研究領(lǐng)域,同時也常常被用于點云分類實驗。但是,由于三維點云數(shù)據(jù)集規(guī)模小、維度高、結(jié)構(gòu)無序和稀疏性等特點[1],導(dǎo)致深度卷積神經(jīng)網(wǎng)絡(luò)在對三維點云數(shù)據(jù)處理時存在一定難度。

        目前主流的點云分類方法分為三種:基于多視圖的方法、基于體素化的方法和基于點的方法?;诙嘁晥D的方法是將三維形狀投影到多個視圖中,提取視圖特征,然后融合這些特征來進行準確的形狀分類。這種方法通常會造成大量信息丟失。因為是將三維數(shù)據(jù)投影成了二維數(shù)據(jù),三維數(shù)據(jù)的內(nèi)部結(jié)構(gòu)無法獲取,導(dǎo)致幾何的內(nèi)在關(guān)系被破壞,三維空間的上下文信息無法有效利用。基于體素化的方法是將點云轉(zhuǎn)化為規(guī)則的三維網(wǎng)格,在三維網(wǎng)格上使用卷積神經(jīng)網(wǎng)絡(luò)。這種方法會受到體素大小這一個關(guān)鍵因素限制,因為需要體素化后的規(guī)則體素網(wǎng)絡(luò)作為輸入,體素分辨率的高低將直接影響到整體精度。體素的分辨率低則導(dǎo)致有用信息丟失、整體精度降低,體素的分辨率高提升整體精度的同時也導(dǎo)致了龐大的計算量和嚴重的內(nèi)存占用[2-3]。基于點的方法是將點云的三維坐標(x,y,z)軸作為輸入,直接對點云三維坐標進行卷積操作。許多算法得利于基于點的方法可以保留點云信息的完整性和算法性能良好,在多個數(shù)據(jù)集上都取得了不錯的效果?;谠键c云的算法現(xiàn)如今是基于深度學(xué)習(xí)的點云處理的主要研究趨勢[4]。

        Qi 等人[5]提出了PointNet 的方法,開創(chuàng)了基于點的方法的先河。PointNet使用多個共享的多層感知器(multilayer perceptron,MLP)對輸入的點云進行學(xué)習(xí),并使用最大池化來獲得全局特征,最后使用全連接層(fully connected layer,F(xiàn)C)進行最終的分類。但是這種設(shè)計中每個點的特征都是獨立學(xué)習(xí)的,因此忽略了點與點之間的結(jié)構(gòu)關(guān)系。白靜等人[6]提出的LightPointNet雖然優(yōu)化了參數(shù)量,減少了訓(xùn)練時間,但仍存在忽略空間信息的問題。閆林等人[7]提出的雙路徑神經(jīng)網(wǎng)絡(luò)模型雖然能夠挖掘到局部粒度特征,但臨近點參數(shù)對不同數(shù)據(jù)集有較大影響,需要手動設(shè)置,這就導(dǎo)致算法的適應(yīng)性受到影響。由Qi等人[8]提出的PointNet++通過構(gòu)建抽象層來從每個點的鄰域構(gòu)成的局部區(qū)域捕捉精細的幾何結(jié)構(gòu),從局部幾何結(jié)構(gòu)中學(xué)習(xí)并逐層提取局部特征。雖然簡單地劃分了幾個局部區(qū)域進行局部特征學(xué)習(xí),但是沒有考慮到點與點之間的關(guān)系。Wang 等人[9]在DGCNN(dynamic graph CNN)中提出了一種邊緣卷積(edge convolution,EdgeConv)的方法,通過與K近鄰點構(gòu)建局部圖結(jié)構(gòu),之后使用共享的MLP 層對圖的每一個邊緣進行卷積獲取鄰邊特征,最后使用最大池化的方式來對每一個鄰邊特征進行聚合獲取局部特征,并在網(wǎng)絡(luò)的每一層之后動態(tài)更新。這種方法增強了局部結(jié)構(gòu)中點與點之間的關(guān)聯(lián),但由于點云并不是均勻分布的,近鄰點對于中心點的影響也是不同的,而邊緣卷積平等的處理每一個鄰邊,這對分類結(jié)果造成了影響。二維圖像數(shù)據(jù)是機構(gòu)化存儲的,因此每個像素的順序也是固定的。卷積直接就能從這種潛在的空間結(jié)構(gòu)中獲取信息。然而,因為點云稀疏性、無序性、有限性等特點,卷積并不合適用來獲取數(shù)據(jù)間的局部相關(guān)性。Point-CNN[10]提出一種X 變換方法,先對點云數(shù)據(jù)進行處理,然后利用卷積操作,對點云進行處理。X變化可以使點云數(shù)據(jù)實現(xiàn)數(shù)據(jù)的“規(guī)則化”和加權(quán)與點相關(guān)聯(lián)的輸入特征的權(quán)重,無序性得到解決,相當于順序發(fā)生變化但是得到的卷積效果是相同的。相比其他方法,PointCNN 的參數(shù)更少,但是在部分數(shù)據(jù)上表現(xiàn)出過擬合的問題。

        論文基于深度學(xué)習(xí)方法,針對直接使用卷積提取點的相關(guān)特征將導(dǎo)致特征信息的丟失問題,提出了一種經(jīng)過X 變換后的點云分類卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network based on X-transform,XTNet)。XTNet對輸入的原始點云數(shù)據(jù)進行X變換,將它們置換成潛在的規(guī)范順序,使用K近鄰算法構(gòu)建局部區(qū)域,在局部特征提取中使用加寬和跳躍連接的方法緩解過擬合,豐富特征信息。在標準公開數(shù)據(jù)集ModelNet40和真實數(shù)據(jù)集ScanObjectNN 中進行了實驗,實驗結(jié)果表明與目前主流的多個高性能網(wǎng)絡(luò)相比,XTNet分類準確率提高了0.3~4個百分點,并且擁有良好的魯棒性和普適性。

        1 XTNet神經(jīng)網(wǎng)絡(luò)模型

        XTNet是使用原始點云數(shù)據(jù)三維坐標(x,y,z)作為輸入的網(wǎng)絡(luò)模型。卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)在各種任務(wù)上取得成功的一個關(guān)鍵因素是卷積算子能夠非常有效地利用數(shù)據(jù)的空間局部相關(guān)性。這是多數(shù)類型數(shù)據(jù)具有的普遍屬性,且與數(shù)據(jù)的表示方式無關(guān)[11]。然而,因為點云具有稀疏性、無序性、有限性等特點,卷積算子不能充分提取局部空間相關(guān)性,直接使用卷積提取點的相關(guān)特征將導(dǎo)致形狀信息的丟失。XTNet先將輸入的點云數(shù)據(jù)進行X-變換,將混亂無序的點云數(shù)據(jù)轉(zhuǎn)變成潛在的規(guī)范順序以減小因為點云的無序、不規(guī)則對卷積其造成的影響。然后將轉(zhuǎn)換后的數(shù)據(jù)送入局部特征提取模塊,學(xué)習(xí)和提取局部特征。在局部特征提取的同時設(shè)置稠密連接增強信息的傳遞。其次在局部特征提取結(jié)束后,通過堆疊局部信息后提取全局信息。最后通過全連接層和Softmax函數(shù)分類和輸出。XTNet整體網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 XTNet整體網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.1 XTNet overall network structure diagram

        1.1 X-變換

        相較于常規(guī)2D 圖片,多個點組成的點云其位置順序有很多種變換可能。如果直接進行卷積操作,那么輸入點的順序發(fā)生變化,輸出的也會隨之變化。為了抑制輸入點云的順序阻礙卷積操作,先對輸入的原始點云數(shù)據(jù)進行X-變換。X-變換是PointCNN 提出的一種Xtransformation Conv 算子,即X-Conv 的核心部分,首先定義一個X-變換矩陣,這個矩陣可以對輸入的帶有特定順序的數(shù)據(jù)進行處理來獲得一個與順序無關(guān)的特征。X-Conv 先經(jīng)過X 變換矩陣處理,再執(zhí)行卷積操作。X-Conv算法公式由式(1)所示:

        P=(p1,p2,…,pk)T表示鄰近點;F=(f1,f2,…,fk)T表示鄰近點的特征;K表示卷積的的kernel;p表示目標點(query point,or representative point);Fp表示目標點更新后的特征。因為上式可微,故X 變換的矩陣同樣可微,進而可以進行反向傳播。

        1.2 稠密連接

        如果卷積網(wǎng)絡(luò)包含接近輸入層和接近輸出層之間的較短連接,則卷積網(wǎng)絡(luò)可以更深入、更準確和高效地進行訓(xùn)練[12]。因此在本文模型中加入了稠密連接,在本文局部特征提取塊中都有D×(D+1)/2 個連接,其中D表示第D個局部特征提取模塊D∈(1,2,3)。引入稠密連接有以下好處:緩解了消失梯度問題,加強了特征傳播,加強了特征傳遞,間接地減少了參數(shù)數(shù)量。

        1.3 局部特征提取

        很多的經(jīng)典網(wǎng)絡(luò)都證明過點云局部結(jié)構(gòu)的構(gòu)建對于點云高維特征的提取是至關(guān)重要的[8-9,13]。局部特征提取能力將間接影響算法識別細粒度模式的能力和對復(fù)雜場景的泛化能力。XTNet局部特征提取模塊如圖2所示,其中f為輸入通道數(shù),d為輸出通道數(shù)。

        在XTNet 局部特征提取模塊中,首先采用K近鄰(K-nearest neighbors,KNN)的方式計算離中心點最近的k個點,將中心點與鄰近點組合構(gòu)建一個局部區(qū)域。然后使用二維卷積對局部區(qū)域提取k個高維的近鄰邊特征。在得到k個近鄰邊特征后用最大池化函數(shù)將k個鄰邊特征聚合為中心的局部特征。X 變換減小了點云無序性對卷積的干擾,將輸入數(shù)據(jù)使用一個1×1卷積擴充通道數(shù)后與從k個鄰近區(qū)域提取到的局部特征相加,一方面每一層可以學(xué)習(xí)到更加豐富的特征,比如不同方向、不同頻率的紋理特征[14-15];另一方面可以增強了信息流通,使上一個局部特征信息直接傳導(dǎo)給下一個局部特征提取模塊。并且一定程度上起到了抑制梯度消失和退化的問題,表達式如式(2)所示:

        1.4 聚合函數(shù)

        多數(shù)現(xiàn)有的網(wǎng)絡(luò)算法通常采用最大池化函數(shù)或者平均池化函數(shù),這樣可以保持網(wǎng)絡(luò)的對稱性,但可能存在信息丟失的問題。為減少這方面帶來的影響,本文采用將數(shù)據(jù)分別使用最大池化函數(shù)和平均池化函數(shù)聚合后再拼接的方法來對特征進行聚合。即保持了網(wǎng)絡(luò)的對稱性,還減少了信息丟失。

        2 實驗結(jié)果與分析

        這部分首先與其他經(jīng)典網(wǎng)絡(luò)在ModelNet-40 和ScanObjectNN 數(shù)據(jù)集上的效果進行對比,并對實驗結(jié)果進一步分析;然后對各模塊做消融實驗;最后對網(wǎng)絡(luò)進行魯棒性和網(wǎng)絡(luò)復(fù)雜度測試。

        2.1 數(shù)據(jù)集

        ModelNet40數(shù)據(jù)集[16]:ModelNet40數(shù)據(jù)集是Princeton大學(xué)公開的三維模型分類標準數(shù)據(jù)集。ModelNet40 由9 843個訓(xùn)練模型和2 468個測試模型組成,分為40個類。

        ScanObjectNN數(shù)據(jù)集[17]:本文通過ScanObjectNN數(shù)據(jù)集來證明本網(wǎng)絡(luò)模型的魯棒性。這是一個新的基于掃描室內(nèi)場景數(shù)據(jù)的真實世界點云對象數(shù)據(jù)集,數(shù)據(jù)集包含約15 000個對象,這些對象被分為15個類別,有2 902個唯一的對象實例。因為來自真實世界掃描的對象經(jīng)常與背景混雜或部分被遮擋而對現(xiàn)有點云分類技術(shù)提出更大挑戰(zhàn)。

        2.2 實驗環(huán)境及參數(shù)設(shè)置

        實驗所用硬件環(huán)境為Intel Core i5-11400k CPU+RTX3060(12 GB 顯存)GPU,軟件環(huán)境為Windows11+CUDA11.3.1+cuDNN8.2.1+Pytorch1.10.1+Python3.8。網(wǎng)絡(luò)優(yōu)化器選擇的是隨機梯度下降法(stochastic gradient descent,SGD),學(xué)習(xí)率設(shè)置為0.1,訓(xùn)練批次大小設(shè)置為16,訓(xùn)練最大周期設(shè)置為250,K值設(shè)置為20,激活函數(shù)使用的是將斜率設(shè)置為-0.2 的Leaky-ReLU,并在每個MLP后面加入設(shè)置為0.5dropout層用來抑制過擬合。

        2.3 分類實驗

        本實驗輸入為僅含1 024 個x、y、z軸三維坐標的點云數(shù)據(jù),在實驗結(jié)果表1 中用1 kpoint表示僅含1 024個三維坐標的點云數(shù)據(jù)作為輸入,同理2 kpoint、5 kpoint分別表示輸入的是僅含2 048、5 120個三維坐標點云數(shù)據(jù),nor 表示輸入了額外的法向量信息,1 kpoint+nor 表示使用了1 024個三維坐標的點云數(shù)據(jù)和額外的法向量信息作為輸入,5 kpoint+nor則表示使用了5 120個三維坐標的點云數(shù)據(jù)和額外的法向量信息作為輸入,vot 表示使用了多次投票驗證策略,Volumetric 表示輸入的是體素化數(shù)據(jù)。本文對于分類結(jié)果的評價標準采取的是最常用的整體精度(overall accuracy OA)和平均類精度(mean accuracy,mAcc),“OA”表示所有測試實例的平均精度,計算方法如公式(3)所示:

        表1 ModelNet40數(shù)據(jù)集上的分類結(jié)果Table 1 Classification results on ModelNet40 dataset

        TP(True Positive)表示將正類預(yù)測為正類數(shù),TN(True Negative)表示將負類預(yù)測為負類,F(xiàn)P(False Positive)表示將負類預(yù)測為正類數(shù)誤報,F(xiàn)N(False Negative)表示將正類預(yù)測為負類數(shù)漏報。

        mAcc 表示所有形狀類別的平均精度,計算方法如公式(4)所示:

        其中,M是樣本類總共分成的類別數(shù)目,classiacc是第i類的精確度,i∈(1,2,…,M),hits是預(yù)測正確的數(shù)量,preds參與預(yù)測的樣本總量。

        對比的網(wǎng)絡(luò)模型和分類結(jié)果均取自數(shù)據(jù)集官網(wǎng)公布的主流且效果領(lǐng)先的網(wǎng)絡(luò)模型和數(shù)據(jù)。

        表1 給出了XTNet 和當前主流網(wǎng)絡(luò)在ModelNet40上的分類結(jié)果。從結(jié)果上對比可以看出,XTNet整體精度達到93.2%,平均精度為90.4%,與同樣是僅輸入1 kpoint的網(wǎng)絡(luò)相比達到領(lǐng)先的結(jié)果。還有如PointNet++和SpiderCNN 在輸入了額外5 kpoint 和法向量信息后分類精度仍低于本網(wǎng)絡(luò)。與RSCNN 相比,在僅輸入1 kpoint數(shù)據(jù)時XTNet分類結(jié)果優(yōu)于RSCNN,在使用了10次投票機制后也僅低了0.4個百分點。與分類結(jié)果最好的VRN Ensemble 相比,VRN Ensemble 采用的是基于體素化的方法,它充分地發(fā)揮了這類方法的優(yōu)勢,在ResNet[15]的基礎(chǔ)上設(shè)計,搭建了更深、更復(fù)雜的網(wǎng)絡(luò)模型。因此得到了很好的分類結(jié)果。但是這種基于體素化的方法需要繁瑣的體素化操作且受分辨率大小影響,更深層次的卷積也意味著需要消耗更多的時間、硬件資源。

        為了驗證XTNet 的魯棒性和對真實世界數(shù)據(jù)集的效果,本文在ScanObjectNN 數(shù)據(jù)集上也進行了分類實驗,分類結(jié)果如表2 所示。在同樣僅是輸入1 024 個點云坐標的情況下,XTNet的整體精度為78.7%,平均精度為73.3%,和數(shù)據(jù)集官網(wǎng)公布的其他幾個網(wǎng)絡(luò)模型相比,都取得了不錯的效果,進一步說明了XTNet 具有強魯棒性。

        表2 ScanObjectNN數(shù)據(jù)集上的分類結(jié)果Table 2 Classification results on ScanObjectNN dataset 單位:%

        2.4 不同模塊消融實驗

        為了驗證網(wǎng)絡(luò)中不同模塊的效果,本文還對網(wǎng)絡(luò)模型進行了消融實驗。實驗均在數(shù)據(jù)集ModelNet40上進行,實驗結(jié)果如表3所示。

        表3 模塊消融實驗結(jié)果Table 3 Results of module ablation experiments

        網(wǎng)絡(luò)0是輸入僅為1 kpoint的DGCNN的分類結(jié)果,在網(wǎng)絡(luò)1中,將網(wǎng)絡(luò)0結(jié)構(gòu)修改成與本文網(wǎng)絡(luò)結(jié)構(gòu)一致,由于缺少了一個特征提取模塊,整體精度下降到了90.1%,平均精度下降到84.2%。網(wǎng)絡(luò)2在網(wǎng)絡(luò)1的基礎(chǔ)上,將用X 變換模塊替換掉網(wǎng)絡(luò)1 的轉(zhuǎn)換模塊,整體精度提升到了91.3%,平均精度提升到了88%,可以看出X變換比原來的變換模塊更有效果。網(wǎng)絡(luò)3在網(wǎng)絡(luò)2的基礎(chǔ)上再增加殘差連接,增加了模型寬度,增強了特征提取能力,相比之前整體精度和平均精度都有提升。網(wǎng)絡(luò)4啟用了所有模塊,整體精度達到93.2%,平均精度達到90.4%。

        2.5 魯棒性實驗

        本文還在ModelNet40數(shù)據(jù)集上進行了采樣密度魯棒性實驗。分別將點云采樣數(shù)量設(shè)置為128、256、512、1 024。圖3是不同采樣點采樣可視化結(jié)果,表4是使用不同采樣點時的整體精度。圖4是與PointNet、PointNet++、PCNN、DGCNN做對比的結(jié)果,可以看到其他網(wǎng)絡(luò)模型隨著采樣點的減少,分類精度大幅下降,而本文網(wǎng)絡(luò)模型仍有90%以上的準確率,進一步說明了本文網(wǎng)絡(luò)魯棒性更好。圖5顯示了不同采樣點精度隨訓(xùn)練周期epoch變化的變化曲線,在前幾輪學(xué)習(xí)率較大時有少許抖動,隨訓(xùn)練周期增加,學(xué)習(xí)率衰減后不同采樣點的訓(xùn)練曲線都無明顯抖動。

        表4 不同采樣點的整體精度Table 4 Overall accuracy in different sampling points

        圖3 不同采樣點的可視化結(jié)果Fig.3 Visualization results for different sampling points

        圖4 不同采樣點下多種模型的分類效果Fig.4 Classification effects of multiple models at different sampling points

        圖5 不同采樣點下XTNet整體精度的變化曲線Fig.5 Variation curve of overall accuracy of XTNet at different sampling points

        2.6 網(wǎng)絡(luò)復(fù)雜度實驗

        本節(jié)通過對比網(wǎng)絡(luò)的參數(shù)量(parameters)和浮點運算數(shù)(floating point operations,F(xiàn)LOPs)來說明網(wǎng)絡(luò)的復(fù)雜度。數(shù)據(jù)通過Facebook 提供的fvcore 工具對作者公開的模型代碼提取,獲取各網(wǎng)絡(luò)模型的復(fù)雜度,網(wǎng)絡(luò)模型的復(fù)雜度對比如表5所示。

        表5 網(wǎng)絡(luò)復(fù)雜度Table 5 Network complexity

        對比PointNet++和DGCNN,XTNet 在整體精度上有不同程度提高,并且參數(shù)量和浮點運算數(shù)都有一定的減少;與PointCNN 相比參數(shù)量和浮點運算數(shù)都有明顯上升,但是整體精度提升了1個百分點??梢钥闯鯴TNet在參數(shù)量和浮點運算數(shù)做到了讓網(wǎng)絡(luò)盡量更輕的同時不對精確度產(chǎn)生影響。

        2.7 超參數(shù)K 的取值

        在本節(jié)中討論了KNN 算法中的K的取值對模型性能的影響。KNN中的K值選取對分類的結(jié)果影響至關(guān)重要,K值選取得太小,學(xué)習(xí)的估計誤差會增大,預(yù)測結(jié)果對近鄰的實例點非常敏感;K值選取得太大,導(dǎo)致學(xué)習(xí)的近似誤差增大,與輸入實例較遠的訓(xùn)練實例也會對預(yù)測起作用,使預(yù)測發(fā)生錯誤。本實驗采用ModelNet40數(shù)據(jù)集,在輸入1 024個點,迭代250次的情況下對不同的K值做了詳細的測試,測試結(jié)果如表6所示。不同K值隨周期變化的變化曲線如圖6 所示。根據(jù)測試結(jié)果和2.5節(jié)的分析中,K值選20時分類結(jié)果最好,并且不會因為采樣點數(shù)的減少在訓(xùn)練過程中出現(xiàn)大的抖動,所以本文超參數(shù)K取20。

        表6 不同K 值對模型的影響Table 6 Effect of different values of K on model

        圖6 不同K 值下XTNet整體精度的變化曲線Fig.6 Variation curve of overall accuracy of XTNet with different K values

        3 結(jié)論

        針對點云稀疏性、無序性、有限性等特點造成的信息丟失、神經(jīng)網(wǎng)絡(luò)模型過擬合等問題,本文提出一種用于點云分類的卷積神經(jīng)網(wǎng)絡(luò)模型,可以有效地聚合點云局部和全局特征。首先通過X 變換將原始點云變成潛在的規(guī)則矩陣,減少點云的無序性對卷積的干擾;然后通過KNN構(gòu)建局部區(qū)域并使用卷積模塊從中提取局部特征,同時用1×1 卷積拓寬模型并構(gòu)建殘差塊,對多個局部特征提取模塊做稠密連接,豐富特征的同時抑制過擬合;最后使用池化層從堆疊的局部特征中提取全局特征。從ModelNet40和ScanObjectNN兩個數(shù)據(jù)集上的分類結(jié)果可以看出:XTNet 與現(xiàn)有的網(wǎng)絡(luò)模型相比,精度上達到了領(lǐng)先的水平,且通過采樣密度魯棒性實驗以及網(wǎng)絡(luò)復(fù)雜度實驗證明了本文網(wǎng)絡(luò)的穩(wěn)定性和擁有更低的復(fù)雜度。

        猜你喜歡
        特征提取分類特征
        分類算一算
        如何表達“特征”
        基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        分類討論求坐標
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        抓住特征巧觀察
        一種基于LBP 特征提取和稀疏表示的肝病識別算法
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        国产一区不卡视频在线| 女人色毛片女人色毛片18| 五月激情婷婷丁香| 国产精品三级av一区二区| 福利利视频在线观看免费| 成人乱码一区二区三区av| 亚洲的天堂av无码| 亚洲av永久无码精品成人| 三级国产自拍在线观看| 又色又爽又黄的视频软件app| 亚洲人成无码www久久久| 中日韩欧美高清在线播放| 国产自拍一区二区三区| 日本一道综合久久aⅴ免费| 国产乱妇乱子在线视频| 狠狠综合亚洲综合亚色| 亚洲中文字幕一区二区在线| 久久久久久久久毛片精品| 好男人视频在线视频| 人妻av一区二区三区高| 男人天堂亚洲天堂av| 人妻少妇精品中文字幕av| 久久夜色撩人精品国产小说| 中文字幕人妻少妇久久| 亚洲中文字幕舔尻av网站| 久久aⅴ人妻少妇嫩草影院| 日韩欧美国产亚洲中文| 亚洲第一大av在线综合| 无码人妻h动漫中文字幕| 久久天天躁狠狠躁夜夜爽| 开心激情站开心激情网六月婷婷| 亚洲va视频一区二区三区| 国产顶级熟妇高潮xxxxx| 国内久久婷婷精品人双人| 中文字幕视频一区懂色| 五月四房播播| 暖暖免费 高清 日本社区在线观看| 国产精品亚洲精品日产久久久| 极品粉嫩小仙女高潮喷水网站 | 在线观看一区二区蜜桃| 亚洲av久久久噜噜噜噜|