亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于強化語義流場和多級特征融合的道路場景分割方法

        2022-04-14 06:33:22項建弘王霖郁
        數(shù)據(jù)采集與處理 2022年2期
        關鍵詞:流場分辨率尺度

        項建弘,劉 茁,王霖郁,鐘 瑜

        (1. 哈爾濱工程大學信息與通信工程學院,哈爾濱 150001;2. 哈爾濱工程大學先進船舶通信與信息技術重點實驗室,哈爾濱 150001;3.中國西南電子技術研究所,成都 610036)

        引言

        語義分割是計算機視覺中一項具有挑戰(zhàn)性的基本任務,其目的是通過為所有像素分配密集的標簽,將場景圖像解析并分割成與語義類別相關聯(lián)的不同圖像區(qū)域。該技術的研究可廣泛應用于自動駕駛、無人機控制與應用、醫(yī)學圖像輔助分析、圖像搜索和增強現(xiàn)實等領域。由于道路場景環(huán)境復雜多變,目標種類繁多,信息非常復雜,給語義分割任務帶來了極大的挑戰(zhàn),分割模型需要準確地劃分出行人、車輛、周圍建筑物和道路,以便向機動車輛提供準確的信息。因此,性能良好的網(wǎng)絡模型是決定當前道路場景能否正確劃分和信息能否正確反饋的關鍵。本文將從設計多級特征融合網(wǎng)絡和強化語義流場上采樣兩方面,提升網(wǎng)絡模型的分割性能。

        高層語義信息和低層空間信息本身具有差異性,采用直接相融的方式無法彌補低級特征的分辨率和高級特征的語義差距。本文提出多級特征融合的方式,向低級特征中引入更多的語義信息,向高級特征中引入更多的高分辨率信息,增強特征的豐富度,提升網(wǎng)絡的識別能力。同時,由于道路場景中,同一類別的目標往往會有不同的尺度,分割任務通常需要獲得多尺度的特征信息處理目標的尺度變化問題,因此在多級特征融合方法中引入并行的不同空洞率的空洞卷積,捕獲不同尺度感受野下的語義信息,多個不同尺度感受野的疊加,可以編碼多尺度的空間上下文信息,加強多級特征融合網(wǎng)絡對不同尺度目標信息的處理能力。通過傳統(tǒng)的上采樣方法不斷增大特征圖的分辨率,直到恢復到原始輸入圖像大小的方式通常會使分割結果圖的空間細節(jié)信息不夠完整,目標邊緣分割模糊,很難達到精細化分割的效果。本文提出基于強化語義流場的上采樣模塊代替?zhèn)鹘y(tǒng)的上采樣方法,高效地學習2 個相鄰特征圖之間的流場,有效地將高層特征融合到高分辨率的低層特征圖中,生成高度語義化和細節(jié)信息豐富的高分辨率特征圖。

        1 相關工作

        1.1 特征融合

        所有層次的特征都有助于語義分割。編碼部分輸出的高級特征描述了輸入圖像的語義信息,有助于圖像區(qū)域的類別識別,即解決像素“是什么”的問題。而低級特征描述了輸入圖像的位置信息,解決的是像素“在哪里”的問題,對于準確預測邊界或細節(jié)至關重要。如何將二者有效地融合是一個值得探究的問題。經(jīng)典分割工作全卷積網(wǎng)絡(Full convolutional network,F(xiàn)CN)[1]和U-Net[2]都采用直接相加的策略融合高低層特征,物體檢測中常用的特征金字塔網(wǎng)絡[3]也采用了該策略。然而簡單地將低級特征與高級特征進行相加會引入噪聲,導致不同層級特征難以進行更好地融合,分割結果差強人意。為了改善特征融合的效果,很多工作網(wǎng)絡提出了不同的優(yōu)化特征融合策略。DFANet[4]編碼階段由3 個風格一致的骨干網(wǎng)絡構成,在解碼階段對同一骨干網(wǎng)絡的高級特征與低級特征進行跨層融合,通過下一級網(wǎng)絡來優(yōu)化上一級網(wǎng)絡的輸出特征,同時對不同骨干網(wǎng)絡獲取的高級特征和低級特征分別進行融合;RefineNet[5]提出多路徑細化網(wǎng)絡,在每個上采樣階段引入了一個復雜的細化模塊,利用低級視覺特征來細化高級語義特征,然后采用跨層連接,融合高級語義特征和低級視覺特征以產(chǎn)生高分辨率分割圖;BiSeNet[6]雙分支結構在融合空間分支和語義分支的特征時,考慮到高層語義信息與低層空間信息的差異,引入特征融合模塊(Feature fusion module,F(xiàn)FM)來有效地跨層融合特征,對于通道合并連接后的特征,通過計算權重向量對其進行重新加權,實現(xiàn)特征選擇和組合,進一步優(yōu)化融合的特征;Ex-Fuse[7]網(wǎng)絡在特征融合時,將高于當前層級的全部特征進行通道域的融合,然后通過語義嵌入分支(Semantic embedding branch,SEB)與當前層級的特征進行逐像素相乘,彌補低級與高級特征圖之間的語義與分辨率的差距,完善特征融合過程。

        1.2 多尺度信息

        語義分割任務通常需要多尺度特征信息來產(chǎn)生高質量的結果,模型如PSPNet[8]、DeepLabv3[9]和Deeplabv3+[10],利用多尺度信息在多個場景分割基準上獲得優(yōu)異的結果。為了捕捉在多個尺度上的信息,PSPNet[8]應用了一個金字塔池化模塊(Pyramid pooling module,PPM),該模塊包含多個不同比例的平均池化層以收集不同尺度的有效上下文信息。DeepLabv3[9]受圖像金字塔啟發(fā),使用多個具有不同采樣率的并行空洞卷積來捕獲不同感受野的上下文信息。Deeplabv3+[10]在其基礎上,設計了一個具有全局平均池的空洞空間金字塔池化模塊(Atrous spatial Pyramid pooling,ASPP)以捕捉圖像的全局背景。

        1.3 分辨率增大

        基于反卷積的上采樣操作,是另一種生成高分辨率特征圖的策略。反卷積也叫轉置卷積,通過卷積運算實現(xiàn)分辨率還原,由于卷積中含有權重參數(shù),所以反卷積是一種可學習的方法,通過參數(shù)的學習實現(xiàn)輸出圖像盡可能與原圖像相似。在Y-Net[11]、EANet[12]、LRUNet[13]和Chen[14]等提出的網(wǎng)絡中都有采用反卷積來提高小特征圖的分辨率。相比于插值的方法,反卷積操作對特征圖的還原效果有所改善,能夠一定程度恢復部分丟失的特征信息,但仍然無法將丟失的淺層視覺特征恢復到令人滿意的效果。

        2 方法實現(xiàn)

        2.1 多級特征融合模塊

        高層語義信息和低層空間信息的不相容性是困擾語義分割領域的重要問題之一。一些網(wǎng)絡在特征融合過程中會保留低層特征,然后將其與上采樣后的高層特征融合,但這種直接融合的方式會損害網(wǎng)絡的性能。本文提出了多級特征融合模塊(Multilevel feature fusion module,MFFM),其網(wǎng)絡結構如圖1 所示。

        圖1 MFFM 網(wǎng)絡結構圖Fig.1 MFFM module structure

        MFFM 的融合策略是先逐漸將所有更高級別的特征融合后再與當前特征進行融合,不斷地向低層特征中引入語義信息,同時向高層特征中引入細節(jié)信息,實現(xiàn)低級特征與高級特征的對齊,使得融合后的特征中盡可能多地包含兩種信息。這種融合方法可以表述為

        對于當前特征fi,將所有高于fi+1的特征上采樣到fi+1的分辨率大小,然后與fi+1一起進行通道域的疊加,得到新的高層特征fi+1,接下來通過1 個stride=1,padding=1 的3×3 卷積,壓縮fi+1的通道數(shù)使其與低級特征fi相同,由于低級特征fi的尺寸是fi+1的2 倍,所以調整通道數(shù)目后再將fi+1進行2 倍上采樣,使這兩種不同層級的信息可以進行逐像素相乘操作以達到對齊。

        對融合后的特征通過1×1 卷積進行通道壓縮,來減少通道冗余信息和減輕計算負擔,然后采用多路不同采樣率大小的空洞卷積進行特征提取,分別是一個卷積核為1×1 的標準卷積和3 個采樣率分別為6、12、18 的空洞卷積,最后將得到的4 路輸出特征進行通道域上的疊加融合。由于目標的尺度變化問題是另一個影響分割結果的重要因素,不同采樣率大小的空洞卷積能有效捕獲多個尺度的感受野,編碼更多維度的語義信息,進而增強處理目標物體尺度變化的能力。MFFM 不僅具有使得低級特征與高級特征可以更好融合的功能,而且具有處理多尺度物體分割的作用。

        2.2 語義流場上采樣模塊

        與傳統(tǒng)的直接對解碼器輸出的特征圖進行雙線性插值、反卷積等操作來恢復特征圖尺寸大小不同,Li 等[15]提出了一種基于語義流場的對齊模塊(Flow alignment module,F(xiàn)AM)代替?zhèn)鹘y(tǒng)的上采樣方法,學習相鄰層特征映射之間的語義流場,使高級特征被很好地融合到具有高分辨率的低級特征圖中。

        為了解決在恢復特征圖分辨率過程中,由于現(xiàn)有上采樣方式的不理想,導致分割目標的邊界不夠清晰、區(qū)域細節(jié)信息不完整的問題,本文在Li 等[15]的研究基礎上提出一種基于強化語義流場的特征對齊模塊(Channel-attention flow alignment module,CFAM)代替?zhèn)鹘y(tǒng)的上采樣方法,并將其以更有效的方式嵌入到網(wǎng)絡模型內(nèi)。CFAM 將來自相鄰級別的特征圖作為輸入,通過評估它們之間的差異來學習這2 個不同分辨率的網(wǎng)絡層之間的語義流場,最后利用該語義流場將低分辨率特征圖扭曲為高分辨率特征圖,解決語義由深層到淺層的無效傳播引起的低精度問題。CFAM 模塊的結構如圖2 所示。

        圖2 CFAM 結構圖Fig.2 CFAM module structure

        2.2.1 語義流場生成

        語義流場是通過將高分辨率特征和低分辨率特征有效結合而生成的,該流場將給出關于有效對齊這2 個特征圖的動態(tài)指示。如何更有效地預測網(wǎng)絡內(nèi)部的語義流場對兩個相鄰層的特征對齊至關重要。

        在生成強化語義流場時,通過1×1 卷積將來自不同層級輸入的特征圖壓縮到相同的通道深度,使相鄰的2 個特征圖Fi和Fi+1具有相同的通道數(shù)目,對通道調整后的小分辨率特征圖Fi+1進行特征選擇。首先通過對特征圖Fi+1進行全局池化操作,生成含有全局上下文信息的1×1×C特征向量對特征的學習進行指導。然后使用ReLU 激活函數(shù)對特征圖的尺度進行平衡,防止梯度彌散,同時令數(shù)據(jù)范圍分布更加合理,將所生成的特征向量通過Sigmoid 函數(shù)進行范圍壓縮,得到1 組在0~1 之間的數(shù)值,即數(shù)據(jù)的概率分布。最后將這組概率分布與Fi+1相乘,加強重要特征,抑制無關特征,得到新的Fi+1。再通過一個雙線性插值層將特征加強后的Fi+1上采樣到與高分辨率特征Fi相同的大小,連接Fi和Fi+1,將連接得到的特征用作語義流場的學習。最后應用5×5 的卷積層對合并的特征進行密集提取,得到具有更強表征能力的語義流場Δi∈RHi×Wi×2。上述步驟可以表示為

        式中:cat( ·)表示通道域的合并操作;conv 是5×5 卷積層。這里卷積核的大小是經(jīng)過多次實驗測試所得。

        2.2.2 特征生成

        在得到二維的語義流場Δi后,利用該語義流場對低分辨率特征圖Fi+1進行特征扭曲映射,得到新的高分辨率特征圖Fi,具體結構如圖3 所示。圖3 中最上方的二維網(wǎng)格即為語義流場,也就是偏移量,該偏移量為高分辨率特征降采樣到低分辨率語義特征提供了采樣索引。根據(jù)這個索引Δi,通過簡單的加法運算,將高分辨率特征圖空間網(wǎng)格上的每個位置pi對應到相鄰的低分辨率特征圖空間網(wǎng)格上的位置點pi+1,而由于低分辨率特征圖和流場Δi之間存在分辨率差距,對應的映射網(wǎng)格及其偏移應該減半,即圖中第1幅圖到第2 幅圖的過程,紫色點為位置偏移,紅色點即為對應得到的pi+1,對應關系的計算公式為

        圖3 特征生成Fig.3 Warp procedure

        式中:N(pi+1)表示Fi+1中點pi+1的鄰域;wp表示由扭曲網(wǎng)格的距離估計的雙線性核權重。

        這種根據(jù)學習的語義流場定義領域,將低分辨率特征圖中像素線性插值到高分辨率特征圖的方法,明確建立特征圖之間的對應關系,能夠解決高低層特征空間上的誤對齊問題,使語義信息更加有效地從深層傳遞到淺層。

        2.3 網(wǎng)絡整體架構

        圖4 是基于強化語義流場和多級特征融合網(wǎng)絡MCFNet 的整體架構,可以看作是一個編碼器-解碼器結構。通過遷移學習,利用預先訓練好的ResNet101[16]模型作為主干網(wǎng)絡進行特征提取,提供不同級別的特征表示。將編碼由淺層到深層劃分為4 個階段,第1 階段輸出為f1,分辨率為輸入特征的1/4;第2 階段輸出為f2,分辨率為1/8;第3 階段f3分辨率為1/16;第4 階段f4為1/32。其中越深層次的輸出特征,感受野就越大,包含的語義信息越豐富,較淺層次的輸出特征,分辨率更高,包含更多的空間細節(jié)和位置信息。

        圖4 MCFNet 整體網(wǎng)絡結構Fig.4 Overall network architecture of MCFNet

        2.3.1 編碼部分

        待分割圖片輸入主干網(wǎng)絡進行特征提取后,通過2.1 節(jié)提出的MFFM 模塊將不同層級輸出的特征與比該層層級更低的特征不斷地在通道域上進行融合,使低級特征與高級特征更高效地對齊,減少噪聲的引入,同時增強信息的表征能力和豐富度。為了減少參數(shù)量和計算開銷,進行多級特征融合后,通過1×1 卷積將來自MFFM 的特征以及階段4 的特征f4壓縮到相同的通道維度,即像素的最終類別數(shù)12,在降低計算負擔及通道冗余的同時,為后續(xù)解碼部分的特征相加融合作準備。

        2.3.2 解碼部分

        在解碼部分,采用2.2 節(jié)提出的基于強化語義流場的上采樣模塊CFAM 來代替?zhèn)鹘y(tǒng)的上采樣方法,將通道數(shù)目調整后的高層特征圖F4上采樣到原圖1/8 的分辨率,然后與編碼部分對應同等尺寸的多級融合特征進行像素相加融合,得到解碼輸出特征F3,重復此過程,直到得到分辨率恢復為原圖1/4 的F1,最后對F1進行4 倍上采樣操作,使分辨率恢復至原始輸入特征圖大小,得到最終的預測結果,結束整個分割過程。

        3 實驗與分析

        3.1 實驗設置和評估指標

        實驗是在Windows 10 操作系統(tǒng)下進行的,所應用的深度學習框架為Pytorch,版本為1.9.0,硬件配置為英偉達2060 顯卡,英特爾酷睿i5-9400、顯存6 GB。每次實驗使用相同的超參數(shù),輸入的每個小批次(batch_size)為2,初始的學習率為0.001,迭代次數(shù)(Epoch)為200。每當經(jīng)過50 個Epoch 時,學習率降低一半,以防止訓練時損失函數(shù)震蕩導致不易于收斂的問題。使用Adam 算法作為梯度下降優(yōu)化算法。

        實驗在CamVid 數(shù)據(jù)集上進行。CamVid 是一個道路場景數(shù)據(jù)集,由12 個類別的701 幅具有高質量像素級注釋的圖像組成,包括367 幅訓練圖像、101 幅驗證圖像和233 幅測試圖像,分辨率為960 像素×720 像素。最后使用標準的平均交并比和圖像分類正確率來報告分割精度。

        3.2 消融實驗

        3.2.1 MFFM 模塊消融

        以ResNet101 網(wǎng)絡作為主干網(wǎng)絡,不增加任何前文提出的優(yōu)化模塊,采用FCN 的解碼方式,從f4開始,逐級通過線性插值法2 倍上采樣高層特征,進行通道數(shù)目調整后與對應的低級特征圖在通道域上疊加,直到恢復特征圖分辨率至原始輸入圖像的1/4,最后將通道數(shù)目調整至類別數(shù),并4 倍上采樣得到最終的分割結果圖。在該基準網(wǎng)絡的基礎上,分別測試語義嵌入分支SEB 和本文提出的MFFM 兩種融合方式的效果,對訓練后的模型進行測試得到結果如表1 所示。表1 中mIoU 為平均交并比,Acc 為圖像分類準確度,Δa為變化值??梢钥吹讲捎肧EB 的融合方式后,mIoU 和Acc 分別比基準網(wǎng)絡提高了1.39% 和1.31%,而采用本文提出的MFFM 融合方式后,mIoU 和Acc 分別比SEB 又提高了0.92%和0.86%,相比于基準網(wǎng)絡精確度有了顯著的提升,可見本文提出的不同層級特征融合策略的有效性。

        表1 不同特征融合方式的對比實驗Table 1 Comparison of different feature fusion methods %

        分割的可視化效果圖如圖5 所示??梢钥吹綄τ谳斎氲脑紙D片,采用多級融合后生成的可視化分割結果更精細,對圖像中的小目標物體,如行人及寵物的識別能力更強,這同樣可以證明本文提出的多級特征融合網(wǎng)絡通過加強不同層級特征的利用率,提升了網(wǎng)絡對像素的分類能力;同時利用并行的多尺度空洞卷積對不同層級進一步進行特征提取,有效地獲取多尺度上下文信息,以適應不同尺度的目標;增強特征的豐富度和表達能力,有效地緩解了較深網(wǎng)絡層中的空間信息不足和小目標易丟失的問題,對分割效果有所改善。

        圖5 不同特征融合方式的結果對比圖Fig.5 Scene parsing results based on different feature fusion methods

        3.2.2 CFAM 模塊消融實驗

        本節(jié)使用相同的基準網(wǎng)絡,MFFM 的解碼方式,分別針對CFAM 的內(nèi)部結構和CFAM 上采樣方式的有效性進行多組實驗對比。

        CFAM 模塊在生成語義流場時,需要通過卷積對相鄰層合并的特征圖進行特征提取,并將通道維數(shù)壓縮至二維。本節(jié)對多種卷積核大小進行了嘗試,測試結果如表2 所示。實驗發(fā)現(xiàn)使用3×3 大小的卷積時,相比于1×1 的卷積,mIoU 和Acc 分別提升了0.54% 和0.63%;使用5×5 大小的卷積時,相比于3×3 的卷積,mIoU 和Acc 又分別提升了0.42% 和0.29%??梢姰斁矸e核較小時,提取到的特征信息感受野不足,增大卷積核的尺寸可以增強語義流場的表征能力,從而提升分割精度。但當使用更大的7×7 卷積核時,分割精度不升反降,可見當卷積核過大時,會導致提取特征的空間細節(jié)信息損失,生成的語義流場不夠密集,從而使后續(xù)對相鄰層的特征映射效果不佳。5×5 大小的卷積核在二者之間取得了最好的均衡,得到的分割精度最高。

        表2 語義流場中卷積核大小的性能比較Table 2 Comparison of different convolution kernel sizes in semantic flow field%

        在確定CFAM 的內(nèi)部結構后,為了進一步探討CFAM 的效果,分別使用雙線性插值、反卷積、FAM 以及2.2 節(jié)提出的CFAM 作為網(wǎng)絡解碼部分的上采樣方法,實驗結果如表3 所示??梢钥吹交谡Z義流場的上采樣方法相較于傳統(tǒng)的雙線性插值和反卷積方法,分割精度有非常顯著的提升,而基于強化語義流場的上采樣方法通過對生成流場的加強與優(yōu)化,又進一步提升了分割精度。

        表3 采用不同上采樣方式的性能比較Table 3 Comparison of different upsampling methods%

        4 種上采樣方法的實際分割效果如圖6 所示,可以直觀地看到使用CFAM 后,分割的道路、汽車與標示牌都與標簽值更相近,細節(jié)結構更加清晰,邊界分割效果更加平滑,誤分類減少,可見設計的CFAM 相比其他上采樣方式獲得了更好的分割效果。

        圖6 不同上采樣方法的分割結果圖Fig.6 Scene parsing results based on different upsampling methods

        3.2.3 整體網(wǎng)絡各模塊消融實驗

        整體網(wǎng)絡各組件的消融結果如表4 所示??梢杂^察到在基準網(wǎng)絡上單獨增加多級特征融合模塊后,mIoU 和Acc 分別提升了2.31% 和2.17%,這表明MFFM 可以更高效地融合不同層次的特征,大幅地提升分割精度。在基準網(wǎng)絡上單獨增加CFAM 模塊后,mIoU 和Acc 分別提升了2.78%和2.71%,表明了基于強化語義流場CFAM 上采樣方法的顯著有效性。在使用MFFM 的基礎上,采用CFAM 的上采樣方式,再次將mIoU 提高2.42%,Acc 提高2.51%。根據(jù)以上數(shù)據(jù)綜合分析,每個模塊的添加都使得分割精度指標大幅提升,為網(wǎng)絡性能帶來了顯著的增強。

        表4 各模塊效果的消融Table 4 Ablation on the effect of each module%

        3.3 與其他語義分割方法對比

        將本文所設計的MCFNet 網(wǎng)絡和與近年來提出的多個道路場景的語義分割模型進行指標對比,選取使用相同骨干網(wǎng)絡的GCN[11]、ExFuse[7]、PSPNet[8]和Deeplabv3+[9]進行更客觀的實驗對比,在相同的實驗參數(shù)設置下實驗數(shù)據(jù)如表5 所示??梢悦黠@看出,本文提出的網(wǎng)絡模型MCFNet 的mIoU 和Acc 指標明顯高于其他網(wǎng)絡模型,MCFNet 網(wǎng)絡在精確度上的表現(xiàn)最好。分割的實際結果圖如圖7 所示,可以看到,本文提出的網(wǎng)絡相比于其他幾種模型,對汽車、行人、道路和交通標志等的邊緣分割效果有較為明顯的提升,邊界明顯更加完整和連續(xù),同時能夠更準確且完整地分割出整個目標物體的形狀,如小目標物體寵物以及大型建筑,說明MCFNet 顯著增強了網(wǎng)絡多尺度性能,能更好處理不同尺度的目標,提升不同尺度物體的分割精度。綜合以上數(shù)據(jù)的分析可以證明MCFNet 網(wǎng)絡在CamVid 道路場景數(shù)據(jù)集上的分割精度更高,效果更優(yōu)。

        圖7 不同模型的分割結果對比圖Fig.7 Scene parsing results based on different network models

        表5 在CamVid 數(shù)據(jù)集上的與不同模型的對比Table 5 Comparison on CamVid set with different models %

        4 結束語

        針對道路場景解析,本文提出了多級特征融合模塊使高級特征和低級特征更有效地融合,同時獲取豐富的空間細節(jié)和多尺度的感受野,更有利于解決道路交通場景中的物體尺度變換問題,并且在解碼過程中設計了一種基于強化語義流場的特征對齊方式代替?zhèn)鹘y(tǒng)的上采樣方法,生成高質量的高分辨率特征圖,使分割結果細節(jié)結構更加清晰,邊界分割效果更加平滑。通過對實驗結果的分析,證明了本文設計的方法有助于提升分割精度的有效性。然而本文模型在輕量化和實時性上有待提高,也是接下來繼續(xù)研究的方向。

        猜你喜歡
        流場分辨率尺度
        大型空冷汽輪發(fā)電機轉子三維流場計算
        大電機技術(2021年2期)2021-07-21 07:28:24
        財產(chǎn)的五大尺度和五重應對
        EM算法的參數(shù)分辨率
        原生VS最大那些混淆視聽的“分辨率”概念
        轉杯紡排雜區(qū)流場與排雜性能
        基于HYCOM的斯里蘭卡南部海域溫、鹽、流場統(tǒng)計分析
        基于深度特征學習的圖像超分辨率重建
        自動化學報(2017年5期)2017-05-14 06:20:52
        一種改進的基于邊緣加強超分辨率算法
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        基于瞬態(tài)流場計算的滑動軸承靜平衡位置求解
        avtt一区| 偷拍一区二区盗摄视频| 欧美性生交大片免费看app麻豆| 中文字幕被公侵犯的漂亮人妻| 国产精品一区二区在线观看99| 日产精品一区二区免费| 国产精品午夜福利天堂| 宅男视频一区二区三区在线观看 | 青青草小视频在线观看| 少妇激情一区二区三区99| 色噜噜久久综合伊人一本| 久久久噜噜噜久久中文字幕色伊伊| 久久精品伊人无码二区| 午夜婷婷国产麻豆精品| 国产av无码专区亚洲av果冻传媒| 亚洲精品无码久久久久久| 97精品国产91久久久久久久| 五十路在线中文字幕在线中文字幕 | 亚洲一区二区免费日韩| 一区二区亚洲熟女偷拍| 8x国产精品视频| 野花社区www高清视频| 亚洲无线码一区在线观看| 蜜桃精品视频一二三区| 女局长白白嫩嫩大屁股| 国产自精品| 美腿丝袜一区在线观看| 8x国产精品视频| 玩两个丰满老熟女| 亚洲色AV性色在线观看 | 国产成人精品一区二区三区视频| 国产乱子伦一区二区三区| 红杏性无码免费专区| 美女露出奶头扒开内裤的视频| 国产成人精品a视频一区| 国产亚洲精品自在久久蜜tv| 亚洲一区二区三区视频免费| 优优人体大尺大尺无毒不卡| 玩两个丰满老熟女| 国产自产21区激情综合一区| 亚洲精品国产av成人精品|