亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的液相流粒子圖像測(cè)速估計(jì)

        2023-05-04 13:30:54畢曉君何明潔于長(zhǎng)東范毅偉
        關(guān)鍵詞:特征模型

        畢曉君, 何明潔, 于長(zhǎng)東, 范毅偉

        (1.中央民族大學(xué) 信息與工程學(xué)院, 北京 100081; 2.哈爾濱工程大學(xué) 信息與通信工程學(xué)院, 黑龍江 哈爾濱 150001; 3.哈爾濱工程大學(xué) 船舶工程學(xué)院, 黑龍江 哈爾濱 150001)

        粒子圖像測(cè)速(particle image velocimetry,PIV)是一種非接觸的、全局的、定量的流體可視化技術(shù)[1]。通過(guò)從連續(xù)粒子圖像中獲取流體的速度場(chǎng)信息,可以幫助研究者更深入地了解復(fù)雜流體的物理特性。從粒子圖像中計(jì)算速度場(chǎng)的軟件算法主要有互相關(guān)法[2]和變分光流法[3]2種?;ハ嚓P(guān)法通過(guò)提取圖像對(duì)應(yīng)的2個(gè)查詢窗口來(lái)執(zhí)行互相關(guān)計(jì)算,搜索查詢窗口的互相關(guān)最大值來(lái)確定位移。最具有代表性的一種互相關(guān)算法是多重網(wǎng)格迭代算法(window deformation iterative multi-grid,WIDIM)[4]。由于互相關(guān)算法計(jì)算的是窗口內(nèi)的統(tǒng)計(jì)平均位移,仍無(wú)法實(shí)現(xiàn)稠密(像素級(jí)別)的速度場(chǎng)估計(jì)。另一常用方法是變分光流方法,其優(yōu)點(diǎn)是易于嵌入先驗(yàn)物理知識(shí)和特定幾何約束知識(shí)[5-6],但是光流法在進(jìn)行變分優(yōu)化的過(guò)程會(huì)花費(fèi)大量時(shí)間和計(jì)算量,而且對(duì)噪聲非常敏感。

        此外,在實(shí)驗(yàn)流體力學(xué)中,發(fā)展兩相流、多相流場(chǎng)景下的PIV算法已成為一個(gè)有前景的研究方向。例如,在船舶與海洋工程領(lǐng)域,研究物體入水的兩相流PIV具有廣泛的應(yīng)用價(jià)值[7-8]。針對(duì)具有復(fù)雜邊緣的物體入水兩相流PIV圖像,對(duì)液相區(qū)域的速度場(chǎng)計(jì)算具有很大的挑戰(zhàn)性。研究者通常手動(dòng)完成非計(jì)算區(qū)域的掩模工作,而后期仍通過(guò)互相關(guān)算法WIDIM計(jì)算速度場(chǎng),但基于查詢窗口準(zhǔn)則的互相關(guān)法,在不同相位邊緣位置很難獲得準(zhǔn)確的稠密速度場(chǎng)[9]。隨著深度學(xué)習(xí)的發(fā)展和成熟,部分研究工作開(kāi)始將深度學(xué)習(xí)技術(shù)用于單相流PIV估計(jì)問(wèn)題的研究[10-13]。在計(jì)算機(jī)視覺(jué)領(lǐng)域,深度學(xué)習(xí)光流模型[14-15]在運(yùn)動(dòng)估計(jì)任務(wù)中取得了杰出的性能。受此啟發(fā),Cai等[12]提出改進(jìn)的PIV-LiteFlowNet-en模型將其成功用于單相流PIV估計(jì),該模型在速度場(chǎng)估計(jì)精度和計(jì)算效率上具有一定的優(yōu)勢(shì)。然而,目前的深度學(xué)習(xí)算法在單相流PIV速度場(chǎng)計(jì)算中取得了突破性的進(jìn)展,但是并未在兩相流PIV實(shí)驗(yàn)領(lǐng)域獲得廣泛應(yīng)用。

        本文提出一種同時(shí)用于單相流和物體入水兩相流速度場(chǎng)估計(jì)的深度學(xué)習(xí)運(yùn)動(dòng)估計(jì)器。本文對(duì)先進(jìn)的光流模型RAFT[16]進(jìn)行改進(jìn),是對(duì)文獻(xiàn)[17]的進(jìn)一步擴(kuò)展。去掉了模型的冗余部分,旨在不影響估計(jì)精度的同時(shí),減少模型參數(shù)量。為了更好地訓(xùn)練和優(yōu)化模型參數(shù),制作了相應(yīng)的單相流和物體入水兩相流PIV數(shù)據(jù)集,并對(duì)訓(xùn)練后的模型進(jìn)行多種測(cè)試和評(píng)估,結(jié)果表明提出的算法不僅能用于單相流速度場(chǎng)估計(jì),也可用于物體入水的兩相流PIV圖像中的液相速度場(chǎng)計(jì)算。

        1 光流神經(jīng)網(wǎng)絡(luò)及改進(jìn)

        1.1 光流網(wǎng)絡(luò)RAFT

        本文利用的網(wǎng)絡(luò)基礎(chǔ)架構(gòu)是一種用于光流估計(jì)任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)循環(huán)全對(duì)場(chǎng)變換(recurrent all-pairs field transforms,RAFT)的深度學(xué)習(xí)框架[16]。該網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,主要由3部分組成。

        圖1 光流模型RAFT網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 The optical flow model RAFT network structure

        1)特征提取模塊。

        該模塊利用卷積神經(jīng)網(wǎng)絡(luò)來(lái)提取圖像的特征。特征編碼器Feature encoder功能為提取輸入第1幀、第2幀圖像中的特征F1和F2,將輸入圖像映射為1/8分辨率的特征圖。Feature encoder包含6個(gè)殘差塊,每經(jīng)過(guò)2個(gè)殘差塊后特征圖的分辨率變?yōu)樵瓉?lái)一半,對(duì)應(yīng)的特征通道數(shù)分別為64、128、192和256。同時(shí)存在的上下文編碼器Context encoder與特征提取模塊的結(jié)構(gòu)基本類似,作用為提取第1幀圖像的上下文信息特征。在光流估計(jì)任務(wù)中通常會(huì)存在遮擋和大位移等問(wèn)題,Context encoder可以為下一階段的特征信息融合提供更多有用的上下文信息。

        2)相關(guān)計(jì)算層。

        扭曲層[18](Warp)和代價(jià)體層[19](cost volume)是光流法在計(jì)算光流過(guò)程中非常重要和關(guān)鍵的部分。Warp層的作用是減少圖像特征和的距離,從而解決大位移的光流估計(jì)問(wèn)題。而Cost volume的作用是構(gòu)建和已經(jīng)扭曲的像素匹配損失,從而得到粗略的速度矢量估計(jì)。而RAFT在結(jié)構(gòu)設(shè)計(jì)中不再使用Warp操作層,創(chuàng)新性的直接構(gòu)建4D Cost volume代價(jià)體模塊來(lái)進(jìn)行全局的特征匹配搜索。該模塊通過(guò)對(duì)所有向量進(jìn)行對(duì)應(yīng)內(nèi)積來(lái)構(gòu)建4D(W×H×W×H)的相關(guān)層。相關(guān)計(jì)算層由4層不同分辨率的相關(guān)金字塔結(jié)構(gòu)構(gòu)成{C1,C2,C3,C4},從而可以獲得圖像的全局和局部的特征信息。然后相關(guān)性查詢操作L被用來(lái)在不同分辨率的相關(guān)層上進(jìn)行查詢,生成的特征圖用于后面的迭代式光流計(jì)算。

        3)更新迭代模塊。

        更新迭代模塊利用卷積GRU循環(huán)網(wǎng)絡(luò)迭代計(jì)算出光流。模塊輸入由4部分組成:Context編碼器輸出,Cost volume輸出,上層隱藏狀態(tài)信息以及上層迭代過(guò)程輸出的光流。每次計(jì)算出相對(duì)于上次迭代過(guò)程輸出的殘差光流Δf,然后與上次迭代輸出的光流進(jìn)行相加用于目前的流估計(jì):fk+1=Δf+fk。RAFT無(wú)論在訓(xùn)練還是測(cè)試的過(guò)程中,都可以選擇更新迭代次數(shù),直到估計(jì)出最合適的估計(jì)光流。

        該模型的損失函數(shù)為L(zhǎng)1范數(shù):

        (1)

        式中:γ取值0.8;fgt表示真值場(chǎng)。

        1.2 光流網(wǎng)絡(luò)RAFT的改進(jìn)

        實(shí)際上,基于深度學(xué)習(xí)的光流估計(jì)和PIV估計(jì)任務(wù)存在一定的區(qū)別,其區(qū)別主要反映在應(yīng)用場(chǎng)景和數(shù)據(jù)方面。光流估計(jì)任務(wù)所描述的通常是生活場(chǎng)景中具有穩(wěn)定突出特征的剛性運(yùn)動(dòng)或準(zhǔn)剛性運(yùn)動(dòng)。因此,光流數(shù)據(jù)集是一種復(fù)雜而具有挑戰(zhàn)性的數(shù)據(jù)集,圖像帶有RGB彩色信息并含有豐富的特征信息。光流數(shù)據(jù)集中通常包括遮擋、真實(shí)光照、大位移等其他經(jīng)典問(wèn)題;另一方面,粒子圖片通常是灰度圖像,具有低分辨率、特征信息少的特點(diǎn)。具體的比較如圖2所示。

        圖2 粒子圖像和光流數(shù)據(jù)集圖像Fig.2 Particle image and optical flow dataset image

        經(jīng)過(guò)以上分析,本文對(duì)RAFT進(jìn)行如下改進(jìn):

        1)RAFT特征提取部分的上下文編碼器Context encoder可以捕獲額外的上下文信息,這對(duì)于光流估計(jì)非常重要。然而, 由于灰度粒子圖像的簡(jiǎn)單性,所以上下文網(wǎng)絡(luò)提取的信息對(duì)PIV的估計(jì)幾乎不起作用。因此,本文移除RAFT的Context encoder模塊。同時(shí),將第2幀圖像的提取特征直接饋入到4D Cost volume和更新迭代模塊。根據(jù)實(shí)驗(yàn)驗(yàn)證,移除Context encoder對(duì)PIV估計(jì)的準(zhǔn)確性幾乎沒(méi)有影響,同時(shí)刪除Context encoder也大大減少了參數(shù)量;

        2)光流數(shù)據(jù)集的圖像通常具有高分辨率的特點(diǎn),相反,構(gòu)建的PIV數(shù)據(jù)集中的粒子圖像通常是具有較低分辨率(256×256像素)。因此,粒子圖像經(jīng)過(guò)特征編碼器Feature encoder的8倍下采樣后,特征信息太少,對(duì)后面的流推理階段無(wú)法起到應(yīng)有的作用。本文對(duì)特征編碼器Feature encoder進(jìn)行了改進(jìn),刪除相應(yīng)的2個(gè)殘差模塊,將其輸出分辨率提高到原始圖像的1/4。在提高分辨率和獲得更多圖像特征信息的同時(shí),也進(jìn)一步減少了模型的參數(shù)量。圖3對(duì)比了改進(jìn)前后特征編碼器的結(jié)構(gòu),當(dāng)輸入粒子圖像為256×256大小時(shí),編碼器最后的輸出分辨率為64×64:

        圖3 改進(jìn)前后的特征編碼結(jié)構(gòu)對(duì)比Fig.3 Comparison of feature encoder structure before and after improvement

        g(Ii)=EF(Ii):R256×256×3→R64×64×256

        (2)

        式中EF(·)表示特征編碼器函數(shù)。

        改進(jìn)的模型如圖4所示,模型的輸入既可以是只包含液相的單相流PIV圖像對(duì),也可以是對(duì)非計(jì)算區(qū)域掩膜后的兩相流圖像對(duì),以重點(diǎn)對(duì)液相區(qū)域進(jìn)行速度場(chǎng)估計(jì)。

        圖4 改進(jìn)的RAFT網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 Improved RAFT network structure diagram

        2 粒子圖像測(cè)速數(shù)據(jù)集生成

        提出的流動(dòng)估計(jì)深度學(xué)習(xí)模型采用監(jiān)督學(xué)習(xí)策略,所以需要具有真實(shí)值的數(shù)據(jù)來(lái)訓(xùn)練和優(yōu)化模型參數(shù)。按照實(shí)驗(yàn)流體力學(xué)的方法[11],首先生成粒子圖像以及流動(dòng)速度場(chǎng),然后通過(guò)速度場(chǎng)對(duì)稱地移動(dòng)粒子的位置以獲得粒子圖像對(duì)。注意,本文在粒子圖像中疊加了少量的高斯噪聲以模擬真實(shí)的流動(dòng)條件。將具有不同參數(shù)的粒子圖像和流動(dòng)速度場(chǎng)隨機(jī)組合,即可以組成單相流PIV數(shù)據(jù)集。最后,本文生成的PIV數(shù)據(jù)集的數(shù)量和流場(chǎng)種類分布如表1所示,關(guān)于數(shù)據(jù)集的具體介紹可參考文獻(xiàn)[17]。制作的PIV數(shù)據(jù)集合包括據(jù)集包括超過(guò)29 000項(xiàng)的粒子圖像對(duì)及速度場(chǎng)真值,流場(chǎng)種類達(dá)13種。龐大的數(shù)據(jù)量和數(shù)據(jù)的多樣性可以幫助更好的訓(xùn)練模型,增加模型的泛化能力。

        表1 PIV數(shù)據(jù)集的描述Table 1 Description of the PIV dataset

        此外,為充分模擬兩相流物體入水的場(chǎng)景,本文制作了兩相流PIV數(shù)據(jù)集。首先生成掩膜數(shù)據(jù)。使用Matlab軟件中的 PIVLab 工具包[23], 對(duì)物體入水圖像進(jìn)行人工精確標(biāo)定,對(duì)非計(jì)算區(qū)域進(jìn)行掩膜處理,標(biāo)定結(jié)果以二值化圖片形式儲(chǔ)存,非液相區(qū)域像素值為0, 含有粒子的液相區(qū)域像素值為1,從而獲取物體入水的掩膜數(shù)據(jù)。本文研究的入水物體目標(biāo)是楔形體,其手動(dòng)掩膜具體標(biāo)準(zhǔn)可參考文獻(xiàn)[24],經(jīng)人工標(biāo)定的部分結(jié)果示例如圖5所示。

        圖5 人工標(biāo)定的楔形體入水的兩相流PIV圖像示例Fig.5 Samples of manually calibrated two-phase flow PIV image of a wedge entering water

        其次,將單相流數(shù)據(jù)集和生成的掩膜數(shù)據(jù)相乘。為了使模型更好的學(xué)習(xí)到兩相流圖像中物體的邊緣特征,本文將掩膜數(shù)據(jù)和單相流的粒子圖像對(duì)及真實(shí)速度場(chǎng)隨機(jī)地相乘,從而獲得兩相流PIV數(shù)據(jù)集。掩膜相乘過(guò)程為:

        I′(i,j)=I(i,j)?M(i,j)

        (3)

        V′(i,j)=V(i,j)?M(i,j)

        (4)

        式中:M(i,j)表示掩膜數(shù)據(jù);?表示點(diǎn)乘操作;I(i,j)和V(i,j)表示原來(lái)的圖像和真實(shí)速度場(chǎng);I′(i,j)和V′(i,j)分別表示掩膜后的圖像和速度場(chǎng)。通過(guò)在此數(shù)據(jù)集訓(xùn)練中,模型可以更好地學(xué)習(xí)兩相流PIV圖像的邊緣特征信息,提高對(duì)此的泛化能力。部分?jǐn)?shù)據(jù)集示例如圖6所示。

        3 粒子圖像測(cè)速實(shí)驗(yàn)與結(jié)果分析

        3.1 實(shí)驗(yàn)環(huán)境及訓(xùn)練

        本次實(shí)驗(yàn)中采用的硬件環(huán)境配置為Intel(R) Core(TM) i7-9700K CPU@3.00 GHz,32 G內(nèi)存,并采用RTX 1080Ti GPU進(jìn)行運(yùn)算加速,操作系統(tǒng)為64位Ubuntu 18.04采用基于Python的深度學(xué)習(xí)框架PyTorch來(lái)完成程序編程。

        在訓(xùn)練過(guò)程中,首先將改進(jìn)的RAFT在表1的單相流PIV數(shù)據(jù)集進(jìn)行訓(xùn)練,使其具有估計(jì)多種典型速度場(chǎng)的能力,訓(xùn)練集和測(cè)試集按照9比1的比例進(jìn)隨機(jī)劃分,在訓(xùn)練過(guò)程中,批尺寸大小為6,初始學(xué)習(xí)率設(shè)為λ=10-4,采用AdamW梯度優(yōu)化器,其衰減權(quán)重為0.000 05。經(jīng)過(guò)1.18×106迭代后,模型參數(shù)達(dá)到收斂;其次,將訓(xùn)練好的模型在本文構(gòu)建的兩相流PIV數(shù)據(jù)集上再進(jìn)行訓(xùn)練微調(diào),使得模型進(jìn)一步有效學(xué)習(xí)圖像中的相位邊緣特征信息,最后訓(xùn)練而成的模型稱為PIV-RAFT-2P。

        3.2 評(píng)價(jià)標(biāo)準(zhǔn)與參考算法

        當(dāng)在具有真實(shí)值的數(shù)據(jù)集上評(píng)估時(shí),評(píng)估粒子圖像測(cè)速算法最 常 采 用 的 是 均 方 根 誤 差(root mean square error,RMSE):

        (5)

        本文選擇具有代表性的3種圖像測(cè)速算法進(jìn)行對(duì)比,一是基于相關(guān)分析法的窗口變形迭代網(wǎng)格方法[4](window deformation iterative multi-grid, WIDIM);多尺度金字塔的HS變分光流算法[3]。WIDIM算法的參數(shù)設(shè)置為三通道多重判讀窗口(判讀窗口大小分別為64、32、16)。HS變分光流法則采用3層金字塔迭代結(jié)構(gòu),光滑系數(shù)在實(shí)驗(yàn)中進(jìn)行適當(dāng)調(diào)整;3)深度學(xué)習(xí)基準(zhǔn)PIV算法PIV-LiteFlowNet-en[12]。

        3.3 單相流數(shù)據(jù)集評(píng)估

        本文首先在單相流PIV數(shù)據(jù)集上對(duì)包含不同種類的流場(chǎng)的圖像進(jìn)行了測(cè)試。為了增加對(duì)比性,這里本文選擇與WIDIM相關(guān)、HS光流法和PIV-LiteFlowNet-en進(jìn)行了精度的比較,如表2所示。

        表2 單相流PIV數(shù)據(jù)集測(cè)試誤差Table 2 Single-phase flow PIV dataset test error

        如表2所示,本文改進(jìn)的光流神經(jīng)網(wǎng)絡(luò)PIV-RAFT-2P在不同種類的流場(chǎng)都取得了最高精度的計(jì)算結(jié)果。除了在復(fù)雜流場(chǎng)DNS-turbulence取得0.115的測(cè)試誤差外,在其他流場(chǎng)上計(jì)算精度都提高了一個(gè)量級(jí)。尤其在一些簡(jiǎn)單的流場(chǎng)測(cè)試中,如Sink流場(chǎng),更是取得了0.017的低誤差結(jié)果。這證明了本文提出的方法具有很好的泛化能力和魯棒性。接著通過(guò)不同方法計(jì)算的速度場(chǎng)來(lái)比較算法獲取細(xì)節(jié)渦結(jié)構(gòu)的能力。二維湍流流場(chǎng)DNS-turbulence的粒子圖像是國(guó)際公認(rèn)的 PIV 測(cè)試基準(zhǔn)之一, 對(duì)其進(jìn)行了測(cè)試和比較。

        如圖7所示,WIDIM和HS算法所計(jì)算的渦心位置不夠連續(xù),與真實(shí)值相差較多,而本文的模型所計(jì)算的速度場(chǎng),基本與真實(shí)值一致,誤差只有0.076。尤其是在小尺度渦結(jié)構(gòu)的估計(jì)上(圈處),神經(jīng)網(wǎng)絡(luò)模型PIV-RAFT的優(yōu)勢(shì)更明顯,這是由于該方法能夠提供稠密速度場(chǎng)。

        3.4 兩相流PIV數(shù)據(jù)集評(píng)估

        接著在兩相流PIV數(shù)據(jù)集上對(duì)模型性能進(jìn)行了評(píng)估。圖8展示了不同算法在Back-step, DNS-turbulence和Cylinder流場(chǎng)的估計(jì)速度場(chǎng)。由于HS算法和PIV-LiteFlowNet-en在兩相流PIV估計(jì)上表現(xiàn)較差,誤將非計(jì)算區(qū)域當(dāng)作可測(cè)區(qū)域,這里對(duì)其結(jié)果不進(jìn)行展示??梢钥吹?本文方法的速度場(chǎng)計(jì)算結(jié)果與真實(shí)流場(chǎng)基本一致。在掩模區(qū)域與計(jì)算區(qū)域交界面位置處,可以對(duì)邊界矢量進(jìn)行有效估計(jì)。對(duì)于復(fù)雜流場(chǎng)DNS-turbulence,PIV-RAFT-2P可以獲得更稠密的速度場(chǎng)(圈處)。這是因?yàn)橄嚓P(guān)法WIDIM是基于窗口查詢的方式,獲得的速度場(chǎng)是稀疏的形式,而本文的方法則可以獲得更多的小尺度渦結(jié)構(gòu)。

        圖8 不同方法在兩相流圖像估計(jì)的速度場(chǎng)Fig.8 The velocity field estimated by different methods in two-phase flow images

        為了定量的分析和比較,本文對(duì)包含4種經(jīng)典的流場(chǎng)的兩相流測(cè)試集進(jìn)行測(cè)試并對(duì)結(jié)果取平均。如表3所示,WIDIM計(jì)算的誤差較大,而深度學(xué)習(xí)估計(jì)器PIV-RAFT-2P在不同流場(chǎng)上都取得了最低的誤差,同時(shí)本文的方法可以獲得像素級(jí)別的高分辨率速度場(chǎng)。

        表3 兩相流PIV圖像測(cè)試RMSE結(jié)果Table 3 Test error of two-phase flow PIV images

        3.5 真實(shí)圖像測(cè)試

        本文首先實(shí)際流場(chǎng)單相流圖像進(jìn)行測(cè)試,所選取的實(shí)際粒子圖像對(duì)是渦流對(duì)[25]。該圖像成像質(zhì)量較高(粒子分布均勻、濃度合適、粒直徑合適),是非常適合 PIV 分析的粒子圖像,如圖9、10所示。

        圖9 不同方法在渦流對(duì)圖像估計(jì)的速度場(chǎng)Fig.9 Velocity fields estimated from laboratory PIV images

        圖10 不同方法在兩相流圖像估計(jì)的速度場(chǎng)Fig.10 The velocity field estimated by different methods in two-phase flow images

        可以看到,由于受到噪聲影響,HS光流法估計(jì)的速度場(chǎng)不夠光滑,結(jié)果較差。而WIDIM算法因?yàn)槠浒l(fā)展多年,取得比較好的估計(jì)效果,但是其因?yàn)橛?jì)算得到低分辨率的速度場(chǎng),難以獲得渦心位置的細(xì)節(jié)流動(dòng)。本文的方法也可以取得和WIDIM方法相一致的效果,獲得了光滑的速度場(chǎng)和更多的細(xì)節(jié)信息,尤其在渦心位置和在下面的噴嘴位置也可以得到有效估計(jì)。

        然后在PIV實(shí)驗(yàn)系統(tǒng)平臺(tái)中拍攝獲得實(shí)際的楔形不同時(shí)刻入水的粒子圖像對(duì)(t=5 ms, 10 ms, 20 ms),對(duì)其進(jìn)行測(cè)試。可以看到2種算法都能展現(xiàn)楔形體堆積區(qū)射流根部的高速射流現(xiàn)象,但是PIV-RAFT-2P在堆積區(qū)的計(jì)算的速度場(chǎng)分布更為平滑,而基于窗口查詢方式計(jì)算的WIIDM算法因?yàn)楂@得的速度場(chǎng)是稀疏的,所以在邊界位置的速度場(chǎng)呈現(xiàn)鋸齒形狀的分布。在楔形體入水不同時(shí)刻算法都展現(xiàn)出了相同的趨勢(shì)。

        3.6 計(jì)算效率評(píng)估

        本文分別利用大小為256×256的PIV圖像對(duì)不同算法進(jìn)行了計(jì)算效率的評(píng)估。如表4所示,PIV-RAFT-2P在計(jì)算效率上占有很大的優(yōu)勢(shì)。在計(jì)算時(shí)間上,PIV-RAFT-2P遠(yuǎn)遠(yuǎn)超過(guò)了傳統(tǒng)算法,快于PIV-LiteFlowNet-en。相比于WIDIM,本文的方法可以計(jì)算出更多的速度矢量個(gè)數(shù)。另外,與深度學(xué)習(xí)方法相比,本文的改進(jìn)后的模型PIV-RAFT-2P參數(shù)量只有3.73 MB,僅為PIV-LiteFlowNet-en的59.8%。

        表4 計(jì)算效率對(duì)比Table 4 Comparison of computational efficiency

        4 結(jié)論

        1)本文提出的改進(jìn)的光流卷積神經(jīng)網(wǎng)絡(luò)PIV-RAFT-2P方法,可同時(shí)用于單相流和物體入水兩相流的液相區(qū)域速度場(chǎng)估計(jì)。對(duì)光流模型RAFT的上下文編碼器進(jìn)行移以及將特征編碼器部分的輸出分辨率提高到原來(lái)的1/4以獲取更高分辨率的粒子圖像特征;相應(yīng)的單相流PIV數(shù)據(jù)集和兩相流PIV數(shù)據(jù)集用于訓(xùn)練和優(yōu)化模型參數(shù)。

        2)本文提出的模型可以同時(shí)用于單相流和物體入水兩相流PIV估計(jì)并取得高精度的估計(jì)效果,表明模型具有較強(qiáng)的泛化能力。此外,模型還具有參數(shù)量少(3.73 MB)、計(jì)算速度快的輕量化優(yōu)勢(shì)。

        深度學(xué)習(xí)光流模型在PIV估計(jì)任務(wù)中具有很大的潛力和優(yōu)勢(shì)。然而,本文兩相流中的液相區(qū)域的提取是利用人工掩膜方式,比較耗時(shí)和消耗人力,本文將進(jìn)一步深入研究,提出一種級(jí)聯(lián)的深度學(xué)習(xí)框架自動(dòng)進(jìn)行非液相區(qū)域的掩膜及液相區(qū)域的速度場(chǎng)計(jì)算。

        猜你喜歡
        特征模型
        一半模型
        抓住特征巧觀察
        重要模型『一線三等角』
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        欧洲熟妇色xxxx欧美老妇软件| 无码AⅤ最新av无码专区| 日本成人字幕在线不卡| 男人深夜影院无码观看| 麻豆激情视频在线观看| 麻豆人妻性色av专区0000| 亚洲精品国产成人久久av| 性色av一二三天美传媒| 国产高清av首播原创麻豆| 久久aⅴ无码av免费一区| 亚洲AV无码一区二区三区少妇av | 老熟妇仑乱视频一区二区| 亚洲黄色电影| 狠狠色狠狠色综合网老熟女 | 国产精品igao视频网| 国产免费一级高清淫日本片| 富婆叫鸭一区二区三区| 中国久久久一级特黄久久久| 亚洲国产成人影院在线播放| 日韩另类在线| 亚洲一区二区不卡日韩| 中文字幕精品一区二区三区| 特黄做受又硬又粗又大视频小说| 超薄丝袜足j好爽在线观看| 国产一区二区精品尤物| 日本一区二区精品色超碰| 日韩精品中文一区二区三区在线| 亚洲欧美日韩精品久久| 亚洲av成本人无码网站| 精品少妇后入一区二区三区| 日韩少妇人妻精品中文字幕| 97日日碰人人模人人澡| 久草视频国产| 蜜桃精品国产一区二区三区| 美女露出粉嫩小奶头在视频18禁| 4hu四虎永久在线观看| 国产精品大屁股1区二区三区| 强d乱码中文字幕熟女1000部 | 9lporm自拍视频区| 亚洲综合日韩中文字幕| 国产激情一区二区三区成人|