亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于注意力機制的多尺度車輛行人檢測算法

        2021-07-14 16:13:32李經(jīng)宇
        光學精密工程 2021年6期
        關鍵詞:行人尺度卷積

        李經(jīng)宇,楊 靜,孔 斌,王 燦,張 露

        (1.中國科學院 合肥物質(zhì)科學研究院智能機械研究所,安徽 合肥230031;2.中國科學技術大學,安徽 合肥230026;3.安徽省智能駕駛技術及應用工程實驗室,安徽 合肥230031;4.合肥學院,安徽 合肥230601)

        1 引 言

        隨著城市的發(fā)展和汽車數(shù)量的快速增長,交通場景越來越多樣,行車環(huán)境也越來越復雜,這帶來了一系列交通擁堵以及道路行車安全問題,無人駕駛和深度學習發(fā)展為解決這些問題提供了新的思路。通過攝像頭檢測車輛和行人的位置,無人駕駛系統(tǒng)可以根據(jù)這些信息控制行車速度并且提前做出預判,能有效減少事故發(fā)生的幾率。因此,能夠高效準確檢測出道路場景信息尤為重要。

        由于開放部署環(huán)境的多樣性,對智能駕駛平臺上的場景自動分析提出了更高的要求,給目標檢測算法帶來了許多新的挑戰(zhàn)。這些挑戰(zhàn)主要包括:如何處理智能駕駛場景中物體視覺外觀的各種變化。如光照、視野、小尺寸和尺度變化[1]。

        基于傳統(tǒng)機器學習和手工特征的目標檢測方法在處理這些變化時容易失敗。解決這些挑戰(zhàn)的一種有競爭力的方法是基于深度學習技術的對象檢測器,近年來得到了廣泛的應用[2-3]。

        隨著深度學習的發(fā)展,多種基于深度學習的目標檢測方法被提出。目前廣泛使用的基于深度學習的目標檢測方法可分為兩類。第一類是兩 階 段 目 標 檢 測 方 法,如Fast R-CNN[4]、Faster R-CNN[5]等。第二類是一級目標檢測算法,如SSD[6],YOLO[7],YOLO 9000[8],YOLOv3[9]不 需要先生成候選目標,這些方法直接通過網(wǎng)絡預測目標的位置和類別。因此,一級目標檢測方法具有更快的檢測速度。

        具體來說,YOLO深度學習目標檢測器在實際應用中被廣泛使用[10-12]。因為其在檢測精度和速度兩方面具有較好的平衡性。盡管如此,其網(wǎng)絡精度仍存在很大的改進空間以提高實際問題中目標檢測的準確率[13-16]。這也成為了我們迫切需要解決的問題。

        本文提出了基于注意力機制的多尺度車輛及行人檢測算法,具體來說,本文的主要貢獻如下:

        (1)為了更全面地學習多尺度目標特征,提出了一種改進的空間金字塔池化方法,在同一卷積層中收集并拼接不同尺度的局部區(qū)域特征。

        (2)進一步加強特征金字塔的結(jié)構(gòu),縮短了高低層特征融合的路徑,構(gòu)造了YOLOv3-SPP+-PAN網(wǎng)絡。

        (3)基于注意力機制構(gòu)建了更高效的目標檢測器SE-YOLOv3-SPP+-PAN。

        2 YOLOv3快速檢測原理

        YOLO目標檢測方法將輸入圖像劃分為S×S網(wǎng)格,每個網(wǎng)格預測K個包圍框,以及包圍框包含對象的置信度真值Pr(Object)?IoUtruthpred和對目標屬于C類的條件概率Pr(Classi|Object);在這里,IoUtruthpred是預測值和真值相結(jié)合的交集。因此,每個包圍框特定類的置信度為:

        公式(1)表示預測框與真值之間的重合度以及對象屬于每個類的概率。

        YOLOv3在目標檢測精度上對YOLO進行了改進。首先,YOLOv3采用骨干網(wǎng)絡Darknet-53作為特征提取器。其次,YOLOv3遵循特征金字塔網(wǎng)絡的思想,在三種不同的尺度上預測邊界盒。在三個不同尺度的特征圖上分別建立三個檢測頭,負責檢測不同尺度的目標。檢測頭中的每個網(wǎng)格被分配了三個不同的錨,從而預測由4個邊界框偏移、1個目標和C個類別預測組成的三個檢測。檢測頭的最終結(jié)果張量為N×N×(3×(4+1+C)),其中N×N表示最后卷積特征圖的空間大小。

        3 算法模塊設計

        3.1 空間金字塔池化YOLOv3-SPP+網(wǎng)絡

        本文以YOLOv3為基礎網(wǎng)絡,針對無人駕駛實際場景中目標檢測所面臨的問題,對網(wǎng)絡進行改進優(yōu)化。

        為了應對無人駕駛場景中尺度變化大問題。在此,本文通過融合不同尺度特征圖和不同感受野的信息的方法,提高多尺度檢測的準確性。何凱明[17]等人提出了空間金字塔池化(Spatial Pyr?amid Pooling,SPP)方法。將任意大小的特征映射集合到固定大小的特征向量中,CNN(卷積神經(jīng)網(wǎng)絡)不僅不需要固定輸入圖像的大小,而且通過融合多尺度特征,對多尺度目標的檢測具有很強的魯棒性。然而,此方法并沒有充分利用同一卷積層不同尺度上的局部區(qū)域特征,仍然難以準確地檢測出具有豐富局部區(qū)域特征的小目標。

        YOLOv3的多尺度預測側(cè)重于將多尺度卷積層的全局特征串聯(lián)起來,但其忽略了同一卷積層上多尺度局部特征的融合。因此,本文的設計中,將SPP模塊引入到Y(jié)OLOv3中,對多尺度局部區(qū)域特征進行池化合并,然后將全局和局部多尺度特征結(jié)合起來提高目標檢測的精度。

        為了進一步豐富深度特征,本文將改進的空間金字塔池模塊稱為SPP+模塊,如圖1所示。改進的SPP+模塊由4個大小分別為5×5,7×7,9×9和13×13的并行最大池化層組成。針對無人駕駛場景車輛及行人檢測實驗,我們在YO?LOv3第一個檢測頭前的第5和第6卷積層之間集成了一個改進的SPP+模塊,以形成YOLOv3-SPP+檢測網(wǎng)絡。改進的SPP模塊能夠提取具有不同感受野的多尺度深度特征,并通過在特征映射的通道維度上拼接來融合。在同一層中獲得的多尺度特征有望進一步提高YOLOv3的檢測精度,且計算量小。

        圖1 SPP+模塊結(jié)構(gòu)圖Fig.1 SPP+block structure diagram

        3.2 特征融合YOLOv3-SPP+-PAN網(wǎng)絡

        在3.1節(jié)已有YOLOv3-SPP+網(wǎng)絡基礎上,為了縮短網(wǎng)絡通道間的信息融合,提高智能駕駛場景車輛行人小目標檢測,進一步優(yōu)化網(wǎng)絡。

        對于卷積神經(jīng)網(wǎng)絡而言,不同深度對應著不同層次的語義特征,淺層網(wǎng)絡分辨率高,學習更多細節(jié)特征;深層網(wǎng)絡分辨率低,學習更多語義特征,丟失了位置信息,導致小目標檢測性能下降。特征金字塔網(wǎng)絡(Feature Pyramid Net?works,FPN)[18]提出不同分辨率特征融合的方式,即每個分辨率的特征圖和上采樣的低分辨率特征相加,使得不同層次的特征增強。FPN結(jié)構(gòu)如圖2所示。

        圖2 FPN模塊結(jié)構(gòu)圖Fig.2 FPN block structure diagram

        FPN的高層級特征與低層級別特征之間路徑較長(如圖3(a)所示紅色虛線所示),增加了訪問準確定位信息的難度。為了縮短信息路徑和用低層級的準確定位信息增強特征金字塔,PAN(Path Aggregation Network)[19]在FPN基 礎 上 創(chuàng)建了自下而上的路徑增強(如圖3(b)所示)。這種路徑增強方式用于縮短信息路徑,利用低層特征中存儲的精確定位信號,提升特征金字塔架構(gòu)。具體來說,對于FPN結(jié)構(gòu),輸入圖像到得到輸出P6特征需要經(jīng)過較長信息流動(如圖3(a)紅色虛線所示),其中有Darknet-53很多卷積層。而對于FPN結(jié)構(gòu),可直接由P4復制得到N4特征,N 4特征僅僅需要經(jīng)過幾個降維卷積(如圖3(a)綠色虛線所示)得到P6特征。PAN結(jié)構(gòu)如圖3所示。

        圖3 PAN模塊結(jié)構(gòu)圖Fig.3 PAN block structure diagram

        在此,本文在YOLOv3-SPP+網(wǎng)絡基礎上嵌入了PAN模塊來構(gòu)成YOLOv3-SPP+-PAN網(wǎng)絡,如圖3(a)所示?!?,×4,×8,×16,×32分別表示主干網(wǎng)絡Darknet53的2倍,4倍,8倍,16倍與32倍下采樣。網(wǎng)絡結(jié)構(gòu)圖3中的紅色虛線為原FPN特征融合路徑,綠色虛線為PAN特征融合路徑,綠色虛線跨越更少的卷積層。YO?LOv3原本三個檢測頭為圖3中的P4,P5,P6。經(jīng)過PAN網(wǎng)絡的改進,YOLOv3-SPP+-PAN網(wǎng)絡輸出為綠色虛線N4檢測頭1,N5檢測頭2與N 6檢測頭3。分別用于檢測輸出大目標,中目標和小目標。構(gòu)建該新支路的優(yōu)勢在于縮短了底層尺寸大的特征到高層尺寸小的特征之間的距離,讓特征融合更加有效。

        3.3 注意力機制SE-YOLOv3-SPP+-PAN網(wǎng)絡

        在實際車輛行人檢測場景中,現(xiàn)有的網(wǎng)絡往往不能關注車輛行人的重要特征。為此,本文在3.2節(jié)已有YOLOv3-SPP+-PAN網(wǎng)絡的基礎上,使用注意機制來增加表現(xiàn)力,關注重要特征并抑制 不 必 要 的 特 征。借 鑒SENet[20](Squeeze-and-Excitation Networks)中提出的SE模塊加載到現(xiàn)有的網(wǎng)絡模型框架。SE模塊如圖4所示。

        圖4 SE模塊示意圖Fig.4 SE block structure diagram

        SE模塊,通過對卷積得到的特征圖進行處理,得到一個和通道數(shù)一樣的一維向量作為每個通道的評價分數(shù),然后將該分數(shù)分別施加到對應的通道上,得到其結(jié)果。注意力機制的具體實現(xiàn)過程如圖4所示。給定一個輸入x,其特征通道數(shù)為C',通過一系列卷積Ftr變換后得到一個特征通道數(shù)為C的特征。接下來通過三個操作來重標定前面得到的特征。

        首先是Fsq操作,通過平均池化,將每個通道的二維特征(H×W)壓縮為1個實數(shù)。它表征著在特征通道上響應的全局分布,在某種程度上具有全局的感受野,通道數(shù)保持不變,所以通過Fsq操作后變?yōu)?×1×C。

        接著是Fex操作,使用一個全連接神經(jīng)網(wǎng)絡,對Fsq操作之后的結(jié)果做一個非線性變換。

        最后是Fscale特征重標定的操作,使用Fex得到的結(jié)果作為權(quán)重,乘到輸入特征上,完成在通道維度上的對原始特征的重標定。

        在YOLOv3-SPP+-PAN網(wǎng)絡基礎上,將SE模塊添加到骨干網(wǎng)絡Darknet53之后即卷積層53層后,進行信息重構(gòu)。在此,SE模塊參數(shù)reduc?tion設置為16。

        至此,我們成功構(gòu)建了SE-YOLOv3-SPP+-PAN網(wǎng)絡。具體來說,本文在Darknet53之后嵌入SE模塊,使網(wǎng)絡更加關注車輛行人特征;在第一個檢測頭前的第5和第6卷積層之間引用改進的SPP+,使得同一卷積層中收集并拼接不同尺度的局部區(qū)域特征;利用PAN模塊進一步加強特征金字塔的結(jié)構(gòu),縮短了高低層特征融合的路徑。完整的網(wǎng)絡結(jié)構(gòu)示意圖如圖5所示。

        圖5 SE-YOLOv3-SPP+-PAN網(wǎng)絡結(jié)構(gòu)示意圖Fig.5 Structure diagram of SE-YOLOv3-SPP+-PAN network

        3.4 網(wǎng)絡損失函數(shù)

        網(wǎng)絡檢測算法的損失函數(shù)由定位損失lbox、分類損失lcls和置信度損失lobj組成。

        其中,定位損失lbox表示為:S表示柵格的尺寸,因為YOLOv3具有三種不同尺度預測,S2代表13×13,26×26,52×52三種柵格尺寸。B代表錨框,1obji,j表示如果所在處的box有目標,其值為1,否則為0。w i,hi分別代表錨框的寬和高。x i和yi分別代表中心點所處區(qū)域的左上角坐標。分類損失lcls如公式(3)所示,p i(c)表示物體屬于c類別的概率。置信度損失lobj如公式(4)所示。表示如果此處的box沒有目標,其值為0,否則為1??偟膿p失函數(shù)為:

        對于lbox部分,我們將IoU損失函數(shù)替換為GIoU損失函數(shù)。IoU定義如下:

        GIoU公式如下:

        其中,A c代表兩個框最小閉包區(qū)域面積,也就是同時包含了預測框和真實框的最小框?qū)拿娣e。為了保證對比實驗的公平及準確性,我們在基線YOLOv3及其他改進算法同樣替換了GIoU損失函數(shù)。

        4 實驗結(jié)果及分析

        4.1 實驗條件

        本文的實驗環(huán)境為:Linux系統(tǒng)、Intel Xeon E5-2643 3.3 GHz CPU、32 GB內(nèi)存及NVIDIA GTX 2080Ti GPU(11.00 GB內(nèi)存)。使用py?torch1.1深度學習框架,python3.6版本。

        4.2 實驗數(shù)據(jù)集

        在KITTI數(shù)據(jù)集上,我們證明了本文提出的SE-YOLOv3-SPP+-PAN相較于YOLOv3而言,更適用于實際無人駕駛場景中的車輛及行人檢測。KITTI數(shù)據(jù)集涵蓋了自主駕駛環(huán)境下的多種數(shù)據(jù)類型,其提供的所有數(shù)據(jù)都是在駕駛過程中在車輛平臺上獲取的。

        具體的,6 000幅圖像用于訓練和驗證,1 481幅圖像用于測試。訓練模型可以用于檢測汽車、行人、坐著的人、騎自行車的人、面包車、卡車、有軌電車、雜項(如拖車、火車)八類目標。

        4.3 評估指標

        評估指標采用通用目標檢測評價指標:精度P,召回率R,AP(Average Precision)以及mAP(mean Average Precision)。

        其中:TP(True Positive)代表真正例,F(xiàn)P(False Positive)代表假正例,F(xiàn)N(False Negative)代表假反例。

        本文將召回率R劃分為11個點(0.0,0.1,0.2,…,1.0),按照PASCAL VOC的計算方式得到每個召回率下的精度P,可以得到P-R曲線,P-R曲線與坐標軸圍成的面積即為AP值。對于各個類別,分別按照上述方式計算AP,所有類別的AP平均值即是mAP。

        4.4 網(wǎng)絡訓練參數(shù)

        SE-YOLOv3-SPP+-PAN網(wǎng)絡訓練參數(shù)設置如下:將原始Darknet53的激活函數(shù)替換為swish激活函數(shù);損失函數(shù)為GIoU損失。動量為0.9,衰減為0.000 5,批次大小為64;初始學習率為0.002 61,第900和950代的學習率分別降低到原來的0.1倍。為了保證對比實驗的公平性,對于基線網(wǎng)絡YOLOv3以及YOLOv3-SPP+和YOLOv3-SPP+-PAN網(wǎng)絡保持和SE-YOLOv3-SPP+-PAN網(wǎng)絡訓練參數(shù)一致。

        圖6 展示了SE-YOLOv3-SPP+-PAN網(wǎng)絡具體訓練過程中目標檢測框定位損失GIoU,置信度損失Objectness和分類損失Classification隨著訓練迭代次數(shù)的變化情況??梢钥闯觯S著網(wǎng)絡訓練迭代的增加,網(wǎng)絡模型損失逐漸減少到穩(wěn)定基本不變直至網(wǎng)絡收斂到最優(yōu)。

        圖6 網(wǎng)絡訓練損失Fig.6 Network training loss

        4.5 實驗結(jié)果與分析

        表1 給出了原始基線YOLOv3網(wǎng)絡,改進的YOLOv3-SPP+,YOLOv3-SPP+-PAN和SEYOLOv3-SPP+-PAN網(wǎng)絡在KITTI測試數(shù)據(jù)集上的目標檢測結(jié)果,詳細比較了各個網(wǎng)絡的性能,包括精度,速度以及模型大小等。對于實驗數(shù)據(jù)的具體分析如下:

        表1 YOLOv3,YOLOv3-SPP+,YOLOv3-SPP+-PAN,SE-YOLOv3-SPP+-PAN性能比較Tab.1 Comparison of YOLOv3,YOLOv3-SPP+,YOLOv3-SPP+-PAN,SE-YOLOv3-SPP+-PAN

        (1)如表1所示,YOLOv3-SPP+在KITTI數(shù)據(jù)集上的目標檢測平均精度均值(mAP)為84.6%,比基線網(wǎng)絡YOLOv3提升了0.6%。YOLOv3-SPP+在基線網(wǎng)絡YOLOv3的第一個檢測頭前的第5和第6卷積層之間集成了一個改進的SPP+模塊。該實驗數(shù)據(jù)證實:SPP+模塊對多尺度局部區(qū)域特征進行池化合并,將全局和局部多尺度特征結(jié)合起來可以提高目標檢測的精度。同時,與YOLOv3相比,YOLOv3-SPP+的檢測速度僅僅降低了約1.6FPS,YOLOv3-SPP+仍有較快的檢測速度。模型大小由492.9 M增加至503.4M,模型大小僅僅增加了10.5 M。實驗結(jié)果進一步證實了改進的SPP+模塊在同一層中獲得的多尺度特征可以進一步提高YOLOv3的檢測精度的同時,僅僅增加較小的且計算量。

        (2)由表1可以看出,YOLOv3-SPP+-PAN在YOLOv3-SPP+網(wǎng)絡的基礎上嵌入PAN模塊可以縮短網(wǎng)絡通道間的信息融合,YOLOv3-SPP+-PAN在KITTI數(shù)據(jù)集上的目標檢測精度為85.8%,比YOLOv3-SPP+提高了1.2%。同時,與YOLOv3-SPP+相比,YOLOv3-SPP+-PAN的檢測速度僅降低了約0.5 FPS,仍能保證檢測的實時性。

        (3)為了在車輛行人檢測過程中,體現(xiàn)對于重要特征的關注及對不必要特征的抑制,本文提出的基于注意力機制的多尺度車輛行人檢測算法SE-YOLOv3-SPP+-PAN在KITTI數(shù)據(jù)集上的目標檢測平均精度均值為86.2%,其性能比YOLOv3基線模型提升了2.2%,比YOLOv3-SPP+-PAN提升了0.4%。

        上述實驗結(jié)果表明:本文網(wǎng)絡設計中增加的模塊可以學習到通道之間的相關性,篩選出針對通道的注意力,雖稍微增加了一些計算量,但并不影響檢測實時性,且獲得了相對最高的檢測精度。

        此外,SE-YOLOv3-SPP+-PAN網(wǎng)絡具有同時檢測車輛、行人多種類別的能力。包括檢測目標的類別屬性以及目標的位置信息。我們將網(wǎng)絡輸出設置為汽車、行人、坐著的人、騎自行車的人、面包車、卡車、有軌電車、雜項(如拖車、火車)8類。特別需要說明的是,車輛和行人大小和尺度往往是不同的。因此在本文的實驗設計中,將網(wǎng)絡分為三種不同尺度進行預測,分別為13×13,26×26,52×52三種柵格尺寸。借鑒特征金字塔的思想,小尺寸特征圖用于檢測大尺寸物體,而大尺寸特征圖檢測小尺寸物體。

        表2 給出了基線網(wǎng)絡以及改進的網(wǎng)絡在KITTI數(shù)據(jù)集上各類目標檢測的AP數(shù)值比較。結(jié)果表明,本文提出的SE-YOLOv3-SPP+-PAN網(wǎng)絡比基線網(wǎng)絡在各個類別上的檢測精度均有較大幅度的提升。其中Person_sitting類別的AP由68%提升至76.6%,提高了8.6%,提升結(jié)果較為明顯。另外,Cyclist類別的AP由73.7%提升至76.4%,提高了2.7%。需要特別說明的是,Person_sitting類別和Cyclist類別在實際場景中具有尺度變化較大、目標相對較小的特點,基線YOLOv3網(wǎng)絡對于這類目標的檢測結(jié)果相對較差,而本文所構(gòu)造的網(wǎng)絡有效提升了這兩類目標的檢測效果。最終,實驗表明所構(gòu)造的SE-YO?LOv3-SPP+-PAN網(wǎng)絡有效提升了網(wǎng)絡檢測的平均精度,同時仍然保持了實時的檢測速度26.5FPS,因此,更適宜無人駕駛場景下的車輛及行人目標檢測。

        表2 不同算法在KITTI測試集上AP比較Tab.2 AP comparison of different algorithms on KITTI test set

        此外,我們還測試了不同復雜場景下SEYOLOv3-SPP+-PAN網(wǎng)絡對于車輛及行人的目標檢測效果。對不同光照、遮擋場景、形變及小目標的檢測結(jié)果進行了展示和分析,實驗結(jié)果如圖7~圖9所示。

        圖7 不同光照情況下的檢測結(jié)果Fig.7 Detection results under different lighting conditions

        圖7 展示了網(wǎng)絡模型在道路場景光照變化劇烈情況下的目標檢測結(jié)果。圖中的檢測框代表檢測得到的不同物體??梢娫陉幱?、光照不足時如圖7(b),和道路強光、路面反射光較強情況如圖7(f),本文設計的網(wǎng)絡仍有較好的檢出結(jié)果,證明了該網(wǎng)絡模型對光照變化較強的適應能力。

        圖8 展示了不同程度遮擋下的目標檢測結(jié)果。可見,本文設計的網(wǎng)絡模型在輕微程度遮擋(圖8(a)和圖8(b))、復雜密集車輛場景嚴重遮擋(圖8(c)和圖8(d))、復雜密集人群場景嚴重遮擋(圖8(e)和圖8(f))等情況下均有較好的檢測效果。因而,本文提出的模型更適用于多種復雜實際交通場景中目標檢測。

        圖8 不同程度遮擋的檢測結(jié)果Fig.8 Detection results under different occlusion conditions

        圖9 展示了具有變形、小尺度特征的目標檢測結(jié)果。可以看出,本文改進的算法擁有不同形變及尺度下魯棒的目標檢測能力。

        圖9 變形、小尺度目標檢測結(jié)果Fig.9 Detection results of small and deformed targets

        圖10 展示了本文設計的網(wǎng)絡模型在道路場景下出現(xiàn)的目標錯檢和漏檢情況。對于圖10(a),錯檢了圖片左下部分綠色檢測框。分析造成其錯檢可能的原因為:局部檢測導致的錯檢,外框和內(nèi)框的IoU小于0.5(一定的閾值),所以綠色內(nèi)框沒有被完全消除。對于圖10(b),漏檢了圖片左半部分車輛目標。說明網(wǎng)絡在具有高度密集遮擋的小目標檢測方面的性能還有待提高。因此,在實際復雜場景下,減少漏檢和錯檢,進一步提升檢測準確率將是我們未來的研究方向。

        圖10 錯檢和漏檢Fig.10 Error detection and missed detection

        5 結(jié) 論

        本文在YOLOv3網(wǎng)絡的基礎上,通過添加改進的空間金字塔池化模塊,對多尺度局部區(qū)域特征進行融合和拼接,使得網(wǎng)絡能夠更全面地學習目標特征;其次,利用空間金字塔縮短通道間的信息融合,構(gòu)造了YOLOv3-SPP+-PAN網(wǎng)絡;最終,設計了基于注意力機制的高效目標檢測模型SE-YOLOv3-SPP+-PAN。使用本文的新模型在KITTI實驗數(shù)據(jù)集上進行了測試,實驗證明SEYOLOv3-SPP+-PAN所獲得的mAP性能比YO?LOv3提升了2.2%,因而更適合于復雜智能駕駛場景下的目標檢測任務。

        猜你喜歡
        行人尺度卷積
        基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
        毒舌出沒,行人避讓
        意林(2021年5期)2021-04-18 12:21:17
        財產(chǎn)的五大尺度和五重應對
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        路不為尋找者而設
        揚子江(2019年1期)2019-03-08 02:52:34
        基于傅里葉域卷積表示的目標跟蹤算法
        我是行人
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        9
        一種基于卷積神經(jīng)網(wǎng)絡的性別識別方法
        電視技術(2014年19期)2014-03-11 15:38:20
        亚洲中文字幕一区高清在线| 国产丝袜在线精品丝袜| 越南女子杂交内射bbwxz| 91最新免费观看在线| av免费看网站在线观看| 各类熟女熟妇激情自拍| 亚洲av综合色区无码专区桃色| 中文乱码字慕人妻熟女人妻| 久久免费看少妇高潮v片特黄| 亚洲一级无码AV毛片久久| 我想看久久久一级黄片| 美女露出自己的性感大胸一尤内衣| 免费人妻无码不卡中文字幕系| 国产95在线 | 欧美| 丰满少妇棚拍无码视频| 亚洲av天堂一区二区| 偷拍一区二区视频播放器| 中文字幕久久久人妻无码| 久久亚洲国产精品成人av秋霞| 亚洲最新中文字幕一区| 国产乱淫h侵犯在线观看| 十八禁无遮挡99精品国产| 在线精品一区二区三区| 亚洲国产一区二区三区在线视频| 亚洲国产线茬精品成av| 精品女同一区二区三区| 亚洲黄片av在线免费观看| 久久伊人精品中文字幕有尤物| 含紧一点h边做边走动免费视频 | 日本一区二区在线播放| 久久午夜精品人妻一区二区三区| 末成年女a∨片一区二区| 亚洲国产精品无码久久电影| 亚洲视频一区二区久久久| 国产精品成人黄色大片| 偷拍一区二区盗摄视频| 人妻色综合网站| 亚洲熟妇色xxxxx欧美老妇| 久久99精品免费国产| 国产乱理伦在线观看美腿丝袜| 国精产品一区一区三区有限公司杨|