亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)稀疏棧式編碼的車(chē)型識(shí)別

        2020-01-06 02:13:16代乾龍
        關(guān)鍵詞:分類(lèi)器卷積車(chē)型

        代乾龍,孫 偉

        中國(guó)礦業(yè)大學(xué) 信息與控制工程學(xué)院,江蘇 徐州221008

        1 引言

        在全面建設(shè)小康社會(huì)的奮斗中,國(guó)民經(jīng)濟(jì)發(fā)展迅速,我國(guó)汽車(chē)保有量呈現(xiàn)爆炸式增長(zhǎng),使得公路交通安全面臨著巨大的挑戰(zhàn)。車(chē)型分類(lèi)是智能交通系統(tǒng)中的重要組成部分具有廣泛的應(yīng)用[1-2],包括交通流量統(tǒng)計(jì)、智能泊車(chē)系統(tǒng)和車(chē)型檢測(cè)。目前,研究人員在車(chē)型識(shí)別的問(wèn)題上做了大量的研究工作。Zhang等人[3]提出了一種方法,使用參數(shù)化的三維模型對(duì)車(chē)輛進(jìn)行分類(lèi)。他們與通用車(chē)輛尺寸進(jìn)行了比較,得出了車(chē)型分類(lèi)的結(jié)果。但是當(dāng)車(chē)輛不完整或多輛車(chē)相互遮擋時(shí),該方法效果較差。文獻(xiàn)[4-5]提取了車(chē)輛的外觀特征(例如SIFT[6])以實(shí)現(xiàn)車(chē)輛類(lèi)型分類(lèi)。Zhang等人[7]從車(chē)輛正面圖像中提取HOG特征,并將這些特征發(fā)送到SVM分類(lèi)器進(jìn)行車(chē)型分類(lèi)。

        目前,基于車(chē)型分類(lèi)研究工作主要分為手工標(biāo)注特征和深度學(xué)習(xí)兩種。Negri 等人[8]提出了一種基于定向輪廓點(diǎn)的投票算法,用于其多類(lèi)車(chē)輛類(lèi)型識(shí)別系統(tǒng)。Psyllos等人[9]使用SIFT功能識(shí)別車(chē)輛的標(biāo)志、制造商和型號(hào)。Zhang[10]融合了PHOG 特征和Gabor 變換特征來(lái)表示車(chē)輛,并提出了一種用于識(shí)別車(chē)輛類(lèi)型的級(jí)聯(lián)分類(lèi)器方案。Peng等人[11]通過(guò)車(chē)牌顏色、車(chē)輛前部寬度和車(chē)輛類(lèi)型分類(lèi)的類(lèi)型概率表示車(chē)輛。耿慶田等人[12]提出一種新的車(chē)型檢測(cè)方法,將HOG 特征和LBP 特征進(jìn)行融合。但是這些方法使用的是手工標(biāo)注的特征,在復(fù)雜場(chǎng)景中可能不具有足夠的辨別力。劉應(yīng)新等人[13]利用深度學(xué)習(xí)通過(guò)訓(xùn)練大量的數(shù)據(jù)來(lái)獲得車(chē)型分類(lèi)模型,提出前景提取和深度學(xué)習(xí)相結(jié)合的車(chē)型分類(lèi)方法。石磊等人[14]采用caffe 框架利用深度網(wǎng)絡(luò)對(duì)車(chē)型進(jìn)行訓(xùn)練從而識(shí)別車(chē)型。但是深度學(xué)習(xí)的訓(xùn)練需要大量的帶標(biāo)注的數(shù)據(jù)集,需要消耗大量的人力物力成本。

        針對(duì)傳統(tǒng)手工標(biāo)注和深度學(xué)習(xí)算法的不足,本文提出一種基于稀疏棧式編碼的車(chē)型識(shí)別方法。利用稀疏棧式編碼網(wǎng)絡(luò)從無(wú)標(biāo)注的數(shù)據(jù)集上自動(dòng)學(xué)習(xí)特征字典,在通過(guò)特征字典對(duì)圖像進(jìn)行卷積操作,最后利用少量的帶標(biāo)簽的數(shù)據(jù)進(jìn)行微調(diào)。本文算法的網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單(只有四層網(wǎng)絡(luò)結(jié)構(gòu)),能夠自動(dòng)提取圖像特征,在保證分類(lèi)準(zhǔn)確率較高的同時(shí)不需要大量的制作好的帶標(biāo)簽的數(shù)據(jù)集。

        2 棧式稀疏自編碼網(wǎng)絡(luò)

        2.1 稀疏自動(dòng)編碼

        自動(dòng)編碼算法(auto-encoder)是神經(jīng)網(wǎng)絡(luò)中最常見(jiàn)的一種典型算法,主要用于數(shù)據(jù)降為或者特征的抽取,其屬于無(wú)監(jiān)督學(xué)習(xí)。對(duì)于給定的沒(méi)有標(biāo)注的數(shù)據(jù)集,自動(dòng)編碼算法通過(guò)無(wú)監(jiān)督學(xué)習(xí)方式自動(dòng)的學(xué)習(xí)數(shù)據(jù)集的特征。自動(dòng)編碼算法由三層網(wǎng)絡(luò)組成,除去輸入層和輸出層,其內(nèi)部還有一個(gè)隱藏層。自動(dòng)編碼器的目的是在進(jìn)行系列的訓(xùn)練后,輸出值約等于輸入值。自動(dòng)編碼器結(jié)構(gòu)如圖1所示。

        圖1 稀疏自動(dòng)編碼網(wǎng)絡(luò)結(jié)構(gòu)

        如果輸入層x={x1,x2,…,xm}共有m 個(gè)節(jié)點(diǎn),隱藏層h={h1,h2,…,hk}共有k 個(gè)節(jié)點(diǎn),輸出層和輸入層的節(jié)點(diǎn)數(shù)目相同即,y 是通過(guò)隱藏層節(jié)點(diǎn)h 對(duì)x 的重構(gòu)。輸入層和隱藏層之間的權(quán)重矩陣,偏置,隱藏層和輸出層之間的權(quán)重矩陣為偏置,其中表示隱藏層第i 個(gè)節(jié)點(diǎn)與輸入層第j 個(gè)節(jié)點(diǎn)之間的權(quán)重。是輸出層第j 個(gè)節(jié)點(diǎn)的偏置值。隱藏層h 的第j 個(gè)節(jié)點(diǎn)為:

        輸出值為aj=f(hj),其中是sigmoid激活函數(shù)。

        同理輸出層x?的值為:

        在訓(xùn)練過(guò)程中,要使得fW,b(x)=x?≈x,就需要不斷地調(diào)整權(quán)重,使得輸入和輸出之間的誤差J(W,b)最小:

        稀疏自動(dòng)編碼(sparse autoencoder)就是對(duì)隱藏層施加一個(gè)稀疏約束,用盡可能少的神經(jīng)元來(lái)表達(dá)原始的數(shù)據(jù)。如果神經(jīng)元的輸出結(jié)果近似于1,則認(rèn)為它是被激活的,否則認(rèn)為它被抑制。

        在自編碼器中隱藏層神經(jīng)元j 輸出的平均激活值為:

        在加入稀疏性限制后,自動(dòng)編碼器還需增加額外的稀疏懲罰項(xiàng),懲罰? 和ρ 偏差明顯過(guò)大的結(jié)果,始終保證隱藏層神經(jīng)元的平均激活值一直在0 的附近。稀疏懲罰項(xiàng)可以有很多種,其中一種KL(Kullback-Leibler)散度定義為:

        增加稀疏懲罰項(xiàng)后的損失函數(shù)為:

        其中β 是懲罰項(xiàng)權(quán)重因子。

        2.2 棧式稀疏自動(dòng)編碼

        棧式稀疏自動(dòng)編碼器是深度學(xué)習(xí)領(lǐng)域中經(jīng)常用到的一個(gè)學(xué)習(xí)模型。與單層稀疏自動(dòng)編碼網(wǎng)路相比,棧式稀疏自動(dòng)編碼網(wǎng)絡(luò)含有兩個(gè)以上的隱藏層,并且還可以對(duì)輸入的圖像特征進(jìn)行非線(xiàn)性變換,學(xué)習(xí)到更加復(fù)雜的函數(shù)關(guān)系,具有更加優(yōu)秀的表征能力。對(duì)于輸入的圖像,單隱藏層的稀疏自編碼器學(xué)習(xí)到的是原輸入圖像的一階特征(比如圖像中的邊緣)。如果繼續(xù)增加隱藏層,那么第二個(gè)隱藏層會(huì)對(duì)第一層的特征進(jìn)行學(xué)習(xí),從第一層特征中抽象出更高層次的特征(比如圖像的輪廓或者角點(diǎn)等)。棧式稀疏自編碼器就是在原來(lái)稀疏自編碼基礎(chǔ)上繼續(xù)加入隱藏層,增加的隱藏層替換掉原來(lái)的輸出層。多級(jí)別的特征提取使得稀疏棧式自動(dòng)編碼網(wǎng)絡(luò)擁有較高的容錯(cuò)能力,并且對(duì)于圖像的平移、旋轉(zhuǎn)等變換具有高度不變性,其結(jié)構(gòu)如圖2所示。

        圖2 棧式稀疏自動(dòng)編碼網(wǎng)絡(luò)結(jié)構(gòu)

        對(duì)于如何設(shè)置棧式稀疏自編碼網(wǎng)絡(luò)的權(quán)重初始值,一種主流的方法就是通過(guò)逐層貪婪訓(xùn)練法(greedy layerwise training)來(lái)獲得合適的權(quán)重初始值。該方法通過(guò)使用原始圖像的數(shù)據(jù)來(lái)訓(xùn)練第一層網(wǎng)絡(luò)得到網(wǎng)絡(luò)參數(shù)的初始值。然后把第一個(gè)隱藏層的輸出當(dāng)作原始輸入數(shù)據(jù)送入第二個(gè)隱藏層進(jìn)行訓(xùn)練,如圖3所示。在進(jìn)行第二個(gè)隱藏層訓(xùn)練的時(shí)候,第一個(gè)隱藏層的參數(shù)保持不變,第二個(gè)隱藏層的輸出即為網(wǎng)絡(luò)提取的圖像的新特征。相比于隨機(jī)初始值而言,逐層貪婪訓(xùn)練方法會(huì)得到更為適合的網(wǎng)絡(luò)初始值。

        圖3 第二層稀疏自動(dòng)編碼網(wǎng)絡(luò)

        2.3 softmax分類(lèi)器

        在實(shí)際應(yīng)用中,常見(jiàn)的分類(lèi)器主要時(shí)softmax 分類(lèi)器和SVM分類(lèi)器。SVM拿到的是類(lèi)別的得分,softmax得到的是屬于某一類(lèi)別的概率。結(jié)合wolfe[15]等人的研究,softmax分類(lèi)器更適合本文的車(chē)型識(shí)別分類(lèi)。

        為了計(jì)算每種車(chē)型的概率,采用softmax 分類(lèi)器作為網(wǎng)絡(luò)的輸出層。softmax分類(lèi)器層的輸入是先前經(jīng)過(guò)卷積核池化處理過(guò)的特征向量,輸出是類(lèi)別的概率向量。假設(shè)訓(xùn)練集為{(x(1),y(1)),(x(2),y(2)),…,(x(m),y(m))} ,則y(i)∈{1,2,…,k},由于選取的數(shù)據(jù)集是BIT-Vehicle 數(shù)據(jù)集,一共有6類(lèi)車(chē)型,所以本文中k=6。給定x(i),假設(shè)一個(gè)函數(shù)來(lái)估算每個(gè)分類(lèi)結(jié)果出現(xiàn)的概率:

        Softmax的損失函數(shù)為:

        其中,1{?}為示性函數(shù),取值規(guī)則為1{值為真的表達(dá)式}=1。

        3 改進(jìn)稀疏棧式編碼

        本文算法在傳統(tǒng)的稀疏棧式編碼的基礎(chǔ)上,增加了卷積和池化操作。首先通過(guò)稀疏棧式編碼提取得到圖像的特征字典,之后把特征字典作為卷積核對(duì)圖像進(jìn)行卷積操作,進(jìn)一步提取車(chē)輛的更高層的語(yǔ)義特征,增強(qiáng)模型的表征能力。由于卷積后的維數(shù)較大,還需對(duì)卷積后的特征圖進(jìn)行池化處理,減少計(jì)算的成本。改進(jìn)后的車(chē)型識(shí)別算法系統(tǒng)流程圖,如圖4所示。

        3.1 卷積

        20 世紀(jì)60 年代,Hubel 等人研究表明,貓和猴子的大腦視覺(jué)皮層含有神經(jīng)元,它們能夠?qū)植繀^(qū)域做出反應(yīng)[16]。受到啟發(fā),Lecun 等人提出了卷積網(wǎng)絡(luò)[16](convolutional network),也就是今天所說(shuō)的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network)。卷積神經(jīng)網(wǎng)絡(luò)的一大特長(zhǎng)就是其權(quán)值共享結(jié)構(gòu)能夠模擬出生物的神經(jīng)網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)在很多領(lǐng)域表現(xiàn)都很優(yōu)秀,尤其是圖像處理領(lǐng)域,是現(xiàn)在圖像分類(lèi)、識(shí)別等研究領(lǐng)域不可或缺的工具。

        圖4 改進(jìn)稀疏棧式編碼算法流程圖

        本文利用卷積神經(jīng)網(wǎng)絡(luò)參數(shù)共享的思想,使每個(gè)隱藏層的節(jié)點(diǎn)(神經(jīng)元)只關(guān)注一個(gè)特性,只與一部分連續(xù)的輸入點(diǎn)相連。在上一步通過(guò)自編碼器提取特征后,把這些提取的特征作為探測(cè)器,對(duì)圖像進(jìn)行卷積操作,從而在原圖像上的不同區(qū)域得到不同的特征激活值。假設(shè),圖像I 的大小為n×n,通過(guò)棧式稀疏編碼網(wǎng)絡(luò)得到k 個(gè)特征向量f={f1,f2,…,fk}。特征卷積需要對(duì)圖像I中所有的w×w(圖像patch 大?。┑膮^(qū)域計(jì)算特征映射,使用一個(gè)w×w 大小的窗口對(duì)I進(jìn)行滑動(dòng)掃描,當(dāng)某個(gè)特征fi與I 的某個(gè)區(qū)域相關(guān)時(shí),則fi對(duì)該區(qū)域產(chǎn)生映射,得到一個(gè)維度為(n-w+1)×(n-w+1)的特征圖(feature map)。當(dāng)對(duì)所有的區(qū)域進(jìn)行卷積完成后,得到總維度為k×(n-w+1)×(n-w+1)。對(duì)于含有m 幅圖像的圖像庫(kù)來(lái)說(shuō),維度為m×k×(n-w+1)×(n-w+1) 。卷積過(guò)程如圖5所示。

        圖5 特征字典對(duì)圖像進(jìn)行卷積操作

        3.2 池化

        從理論上講,通過(guò)卷積層得到的特征層可以直接送入分類(lèi)器進(jìn)行分類(lèi)訓(xùn)練,但是這樣往往會(huì)帶來(lái)巨大計(jì)算量的問(wèn)題。例如,對(duì)于一個(gè)128×128 的圖像,采用卷積核為8,則經(jīng)過(guò)卷積得到的卷積特征向量長(zhǎng)度為400×(128-8+1)×(128-8+1)=5 856 400。計(jì)算困難并且容易出現(xiàn)過(guò)擬合的現(xiàn)象。為了防止卷積神經(jīng)網(wǎng)絡(luò)的輸出維數(shù)太大從而導(dǎo)致過(guò)擬合的現(xiàn)象的出現(xiàn),同時(shí)也為了減少計(jì)算成本,提升運(yùn)行速度,還需要對(duì)卷積后的特征進(jìn)行池化操作(pooling)。池化是通過(guò)計(jì)算圖像局部區(qū)域上的某特定特征的平均值或者最大值等來(lái)計(jì)算概要統(tǒng)計(jì)特征。常見(jiàn)的池化方法分為最大池化(max pooling)、均值池化(mean pooling),計(jì)算過(guò)程如圖6 所示。最大池化可以降低參數(shù)誤差導(dǎo)致的估計(jì)均值發(fā)生的偏移誤差,更多地保留圖像的紋理信息。而均值池化則是減少鄰域大小受限造成的估計(jì)值方差增大的誤差,能保留更多的圖像背景信息。由于車(chē)型分類(lèi)更多的參考汽車(chē)紋理而不是圖像的背景信息,所以最大池化更適合本文的車(chē)型分類(lèi)。

        圖6 兩種池化方法

        4 實(shí)驗(yàn)與分析

        4.1 實(shí)驗(yàn)數(shù)據(jù)以及預(yù)處理

        本文實(shí)驗(yàn)所用的數(shù)據(jù)集為北京理工大學(xué)實(shí)驗(yàn)室公布的BIT-Vehicle 數(shù)據(jù)集,共有9 850 張車(chē)輛的圖像。圖像分別在不同時(shí)間和位置由兩臺(tái)攝像機(jī)拍攝的。圖像包含照明條件,比例,車(chē)輛表面顏色和視點(diǎn)的變化。由于拍攝延遲和車(chē)輛的尺寸,一些車(chē)輛的頂部或底部部分不包括在圖像中。在一個(gè)圖像中可能存在一個(gè)或兩個(gè)車(chē)輛,因此每個(gè)車(chē)輛的位置被預(yù)先標(biāo)注。數(shù)據(jù)集還可以用于評(píng)估車(chē)輛檢測(cè)的性能。數(shù)據(jù)集中的所有車(chē)輛分為6類(lèi):公交車(chē)(Bus)558張、微型車(chē)(Microbus)883 張、小型貨車(chē)(Minivan)476 張、轎車(chē)(Sedan)5 922 張、越野車(chē)(SUV)1 392張和卡車(chē)(Truck)822張,如圖7所示。

        圖7 BIT-Vehicle數(shù)據(jù)集樣本

        在進(jìn)行訓(xùn)練前,還需要對(duì)圖像進(jìn)行預(yù)處理,去除圖像的噪聲,相關(guān)性等對(duì)特征提取的干擾。常見(jiàn)的圖像處理方式有去均值、歸一化和PCA/ZCA 白化等。本文采用ZCA 白化方法對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,白化的作用主要是降低數(shù)據(jù)的冗余性,經(jīng)過(guò)ZCA 白化處理后會(huì)降低圖像特征之間的相關(guān)性,并且所有的特征方差相等,處理后的數(shù)據(jù)接近原始數(shù)據(jù)[17]。

        4.2 實(shí)驗(yàn)結(jié)果與分析

        本文在BIT-Vehicle數(shù)據(jù)集測(cè)試了算法的性能,在隱藏層神經(jīng)元節(jié)點(diǎn)數(shù)設(shè)置為400,雙隱藏層,字典訓(xùn)練稀疏性參數(shù)設(shè)置為0.05的情況下,白天場(chǎng)景車(chē)型識(shí)別準(zhǔn)確率達(dá)到了80.15%,夜間場(chǎng)景車(chē)型識(shí)別準(zhǔn)確率為74.6%。大多數(shù)錯(cuò)誤的分類(lèi)出現(xiàn)在在“SUV”和“Sedan”之間,因?yàn)檫@兩種車(chē)型之間的外觀非常的相似。部分結(jié)果如圖8 所示。

        圖8 部分車(chē)型識(shí)別結(jié)果

        4.2.1 神經(jīng)元數(shù)量對(duì)結(jié)果的影響

        為了研究隱藏層中的神經(jīng)元的數(shù)量對(duì)車(chē)型識(shí)別準(zhǔn)確率的影響程度,設(shè)置了不同數(shù)量隱藏層神經(jīng)元進(jìn)行試驗(yàn),如圖9示。從曲線(xiàn)圖中,不難發(fā)現(xiàn),當(dāng)節(jié)點(diǎn)的數(shù)目小于400 時(shí),車(chē)輛識(shí)別準(zhǔn)確率隨著節(jié)點(diǎn)的數(shù)目增加而上升。但是當(dāng)隱藏層節(jié)點(diǎn)數(shù)目超過(guò)400時(shí),車(chē)輛識(shí)別的準(zhǔn)確率并沒(méi)有提升,反而迅速下降。因此,本文最終選擇400個(gè)隱藏層節(jié)點(diǎn)。

        圖9 不同數(shù)量的隱藏節(jié)點(diǎn)對(duì)檢索結(jié)果的影響

        4.2.2 不同隱藏層數(shù)對(duì)結(jié)果的影響

        同時(shí)本文還研究了隱藏層層數(shù)對(duì)車(chē)型識(shí)別準(zhǔn)確率的影響,在保持其他條件不變的情況下,分別把隱藏層層數(shù)設(shè)置為單層、雙層和三層,并對(duì)其進(jìn)行比較,如表1所示。

        表1 不同隱藏層設(shè)置比較

        根據(jù)表1 的結(jié)果,如果隱藏層的層數(shù)增加,車(chē)型識(shí)別的準(zhǔn)確率也跟著增加。這是因?yàn)閷訑?shù)設(shè)置的越多,網(wǎng)絡(luò)結(jié)構(gòu)越深,能提取圖像更高層次的特征,使得特征有更加強(qiáng)大的表征能力。在實(shí)驗(yàn)中,從單層到雙層準(zhǔn)確率增長(zhǎng)迅速,從雙層到三層準(zhǔn)確率增長(zhǎng)緩慢,但是消耗的時(shí)間和存儲(chǔ)成本卻急劇增加,綜合考慮,把隱藏層設(shè)置為兩層比較合理。

        4.2.3 與其他算法比較

        本文算法還和其他的一些車(chē)型識(shí)別算法進(jìn)行了對(duì)比。在微調(diào)階段,選取1 000張圖像和5 000張圖像作為樣本標(biāo)簽進(jìn)行有監(jiān)督訓(xùn)練,結(jié)果如表2所示。

        表2 本文算法與其他算法比較

        文獻(xiàn)[14]使用的是深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)來(lái)訓(xùn)練車(chē)型識(shí)別模型,識(shí)別準(zhǔn)確率比傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)訓(xùn)練的模型更高,以文獻(xiàn)[14]算法為有監(jiān)督訓(xùn)練模型的典型,與本文算法進(jìn)行對(duì)比。在標(biāo)簽數(shù)據(jù)集較少的情況小,本文算法表現(xiàn)比較好,當(dāng)增大標(biāo)簽的數(shù)據(jù)集時(shí),文獻(xiàn)[14]算法識(shí)別準(zhǔn)確率逐步提高,并有超過(guò)本文算法的趨勢(shì)。但是現(xiàn)實(shí)生活中,數(shù)據(jù)集標(biāo)簽的制作是困難的,本文算法的優(yōu)點(diǎn)是能夠在較小的數(shù)據(jù)集中有較優(yōu)越的表現(xiàn)。同時(shí)在5 000 張訓(xùn)練集圖片,計(jì)算機(jī)配置為Intel?Core?i5-3470 的同樣條件下,本文提出的網(wǎng)絡(luò)訓(xùn)練時(shí)間用時(shí)31 min,遠(yuǎn)小于文獻(xiàn)[14]算法的5 h。

        5 結(jié)論

        本文提出了一種改進(jìn)的稀疏棧式編碼車(chē)型識(shí)別的方法,在傳統(tǒng)的稀疏編碼的基礎(chǔ)上,增加了卷積核池化模塊,通過(guò)訓(xùn)練得到的特征字典作為卷積核對(duì)數(shù)據(jù)集中的圖像進(jìn)行卷積操作,增強(qiáng)了模型的圖像特征的描述能力。同時(shí),本文還對(duì)隱藏層的節(jié)點(diǎn)個(gè)數(shù)和隱藏層的層數(shù)的選取進(jìn)行了對(duì)比,討論了不同的隱藏層的節(jié)點(diǎn)數(shù)和層數(shù)對(duì)于車(chē)型識(shí)別準(zhǔn)確率的影響。最后,與神經(jīng)網(wǎng)絡(luò)進(jìn)行對(duì)比,說(shuō)明本文算法在少量的有標(biāo)注數(shù)據(jù)集上的優(yōu)越性。

        猜你喜歡
        分類(lèi)器卷積車(chē)型
        2022全球期待車(chē)型 TOP10
        車(chē)迷(2022年1期)2022-03-29 00:50:20
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        一種高速自由流車(chē)型識(shí)別系統(tǒng)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        BP-GA光照分類(lèi)器在車(chē)道線(xiàn)識(shí)別中的應(yīng)用
        加權(quán)空-譜與最近鄰分類(lèi)器相結(jié)合的高光譜圖像分類(lèi)
        結(jié)合模糊(C+P)均值聚類(lèi)和SP-V-支持向量機(jī)的TSK分類(lèi)器
        車(chē)型 (五)
        2016年最值得期待的十款國(guó)產(chǎn)車(chē)型
        車(chē)迷(2015年12期)2015-08-23 01:30:32
        欧美寡妇xxxx黑人猛交| 国产美女冒白浆视频免费| 国产一区二区三区在线观看黄| 偷拍一区二区盗摄视频| 18国产精品白浆在线观看免费| 国产av无码专区亚洲av中文| 日日噜噜夜夜爽爽| 国产成社区在线视频观看| 久久精品成人一区二区三区蜜臀| 久久中文字幕一区二区| 国产av天堂亚洲国产av天堂| 一本一道波多野结衣av中文 | 国产精品人成在线观看免费| 无码区a∨视频体验区30秒| 中出内射颜射骚妇| 无码高清视频在线播放十区| 午夜在线观看一区二区三区四区 | 日韩精品人妻中文字幕有码在线| 免费国产a国产片高清网站| 国产精品久久久| 不卡a v无码在线| 青青视频在线播放免费的| 久久久亚洲熟妇熟女av| 久久久久久久97| 亚洲日韩∨a无码中文字幕| 亚洲色四在线视频观看| 在线小黄片视频免费播放 | 日日澡夜夜澡人人高潮| 精品国产三级a| 一区二区三区夜夜久久| 色吧噜噜一区二区三区| a级毛片100部免费观看| 久久精品岛国av一区二区无码 | 国产精品日韩经典中文字幕| 少妇人妻精品一区二区三区| 国产成人综合久久精品免费| 亚洲在线一区二区三区四区| 国产中文字幕亚洲综合| 国产婷婷成人久久av免费| 人妻仑乱a级毛片免费看| 免费无码国产v片在线观看|