亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于計算機視覺和視頻插幀的結(jié)構振動測試與模態(tài)識別

        2024-04-20 00:00:00楊克超李林
        福建理工大學學報 2024年1期

        摘要: 結(jié)構振動測試和模態(tài)參數(shù)識別是基于結(jié)構動態(tài)特性進行結(jié)構健康監(jiān)測(SHM)的基本方法。為克服傳統(tǒng)接觸式測試的不便,引入了非接觸式計算機視覺方法,其中以智能手機為數(shù)據(jù)采集裝置的方法受到越來越多的關注。然而智能手機相機往往因為性能受限無法滿足需求,從而導致測量結(jié)果精度下降。為此,提出一種改進的視頻插幀算法EQVI-T與改進的邊緣檢測算法,通過提高原始視頻的幀率和提出的特征點追蹤方法共同提升計算精度。為驗證這一方法的有效性,將其應用于試驗室模型的位移響應監(jiān)測和模態(tài)參數(shù)識別,并進行了定量和定性評估。結(jié)果表明,所提方法在提高測量精度和準確性方面具有顯著優(yōu)勢,展示了其在結(jié)構振動測試中的潛在應用價值。

        關鍵詞: 結(jié)構振動測試;模態(tài)識別;計算機視覺;視頻插幀;注意力機制

        中圖分類號: TU317;O329

        文獻標志碼: A"""""文章編號: 2097-3853(2024)01-0022-08

        Structural vibration testing and mode identification

        based on computer vision and video frame interpolation

        YANG Kechao1,2, LI Lin2

        (1. College of Transportation and Civil Engineering, Fujian Agriculture and Forestry University, Fuzhou 350002, China;

        2. School of Engineering, Fujian Jiangxia University, Fuzhou 350108, China)

        Abstract: Structural vibration testing and modal parameter identification are the two basic methods for structural health monitoring (SHM) based on the dynamic properties of structures. Non-contact computer vision methods have been introduced to overcome the inconvenience of conventional contact testing, with increasing interest in methods that use smartphones as data acquisition devices. However, smartphone cameras often fail to meet the requirements due to performance limitations, which leads to a decrease in the accuracy of measurement results. To this end, an improved video frame interpolation algorithm, EQVI-T, was proposed along with an improved edge detection algorithm, which jointly improves the accuracy of the computation by increasing the frame rate of the original video and the proposed feature point tracking method. To validate the effectiveness of this method, it was applied to the monitoring of displacement response and identification of modal parameters of a test chamber model, and quantitative and qualitative evaluations were performed. Experimental results show that the proposed method has significant advantages in improving measurement accuracy and precision, demonstrating its potential application in structural vibration testing.

        Keywords: structural vibration testing; modal recognition; computer vision; video frame interpolation; attention mechanism

        結(jié)構振動測試是評估和分析結(jié)構振動行為的基本方法,可分為接觸式和非接觸式兩種[1]。傳統(tǒng)接觸式方法存在安裝復雜、易受結(jié)構干擾等問題。非接觸式方法中的GPS[2]和激光多普勒儀[3]等又受到精度和成本的限制。隨著神經(jīng)網(wǎng)絡、深度學習的快速發(fā)展,基于計算機視覺的測試技術得到廣泛的關注。計算機視覺的各種變形測量方法中,邊緣檢測技術因其不需要預先設置人工目標以及低計算成本的特點被廣泛使用[4]。

        隨著低成本智能手機的普及,將其用作SHM數(shù)據(jù)傳感器變得流行。一些研究提出了使用智能手機測量結(jié)構動態(tài)位移的低成本計算機視覺系統(tǒng)[5-7]。

        然而,手機相機受限于幀率,難以捕捉快速振動,導致測量精度下降。為此,本研究提出了一種融合注意力機制的視頻插幀算法,結(jié)合改進的邊緣檢測技術,以提高結(jié)構振動測試的識別精度。

        1"基于視頻插幀和邊緣檢測的結(jié)構振動測試

        1.1"總體流程

        圖1為所提出的基于視頻插幀的結(jié)構振動測試系統(tǒng)流程圖,包括數(shù)據(jù)收集、前處理、特征提取和目標跟蹤以及后處理幾個部分。

        1.2"相機標定

        通過相機標定可以獲得世界坐標和圖像坐標的對應關系。根據(jù)不同的標定目標,攝像機標定方法包括基于標定板的標定、特征點標定、自標定等[8]。本研究采用比例因子(scale factor, SF)法計算實際位移。當相機和鏡頭的軸垂直于運動平面時,比例因子為真實世界物體尺寸與圖像尺寸的比率。如果在基于視覺的位移測量系統(tǒng)中應用比例因子,則徑向失真可以忽略不計的假設必須成立。本研究中所使用的相機具有高質(zhì)量的失真校正功能,且實驗中相機鏡頭光軸垂直于物體運動平面,徑向失真對于位移測量的影響可以忽略。比例因子通過以下公式獲得:

        SF=Dd=Zf×p(1)

        其中,Z表示相機和目標物體之間的距離,D和d分別表示物體的實際和像素長度,f表示透鏡的焦距,p表示像素大小。

        1.3"基于注意力機制改進的視頻插幀算法EQVI-T

        現(xiàn)有大部分插幀算法通常假設相鄰兩幀之間的物體做勻速直線運動[9-11]。然而,工程結(jié)構在受到各種外部激勵產(chǎn)生的振動表現(xiàn)出明顯的非線性。這使得線性的視頻插幀方法不再適用。Liu等人提出的EQVI[12]采用增強二次插值模型,通過多幀輸入考慮了更高維度的運動信息,如加速度,以描述中間運動,理論上能夠應對工程測量中的非線性運動情況。

        如EQVI這樣利用多幀輸入的插幀算法,通常將輸入幀進行簡單的連接后一視同仁地輸入網(wǎng)絡進行特征提取。然而,輸入圖像與目標圖像之間相關性并不一致,距離目標圖像更近的輸入幀在合成中間圖像時應該被賦予更高的權重。因此,將多個圖像簡單地輸入網(wǎng)絡顯然是低效和不合理的方法。

        注意力機制是一種模仿人類注意力過程的機器學習技術,它允許模型根據(jù)任務需求聚焦于輸入數(shù)據(jù)的特定部分,從而提高模型性能。受Wang等人所提出的TSA 模塊(temporal and spatial attention)啟發(fā)[13],本研究在EQVI的光流網(wǎng)絡上設計了注意力機制,為每組光流分配聚合權重。TSA注意力模塊包含時間和空間兩部分,時間注意力機制部分前后特征的尺度和形狀不變,采用逐元素方法加權原始特征圖。空間注意力機制位于TSA模塊的下半部分,類似特征金字塔網(wǎng)絡結(jié)構,可能導致前后特征的尺度變化。由于EQVI輸入的4幀圖片以及兩組連續(xù)3幀光流,由二次光流預測以及光流反轉(zhuǎn)模塊分開處理,因此對這兩組光流單獨進行時間注意力加權更合適。改進后的注意力模塊稱為TA(temporal attention)模塊。首先使用一層卷積對參考幀和鄰近幀進行嵌入操作,從而融合并提取特征。接著將鄰近幀的特征和參考幀的特征分別進行點積操作,并通過sigmoid函數(shù)捕捉不同時間幀像素之間的相關信息,從而實現(xiàn)時域注意力的效果。隨后,將這些信息映射回原始特征幀。最后經(jīng)過一層卷積操作得到了經(jīng)過時域融合的特征,具體流程如圖2所示。

        TA模塊在嵌入空間中計算一定時間范圍內(nèi)不同幀的相似度,并以此為依據(jù)給不同輸入幀分配合適的權重。針對輸入圖像序列,更多地關注與參考幀更相似的相鄰幀,每組圖像序列I∈{-N:+N}的相似距離可計算為:

        h(Iat+i,Iat)=sigmoid(θ(Iat+i)Tφ(Iat))(2)

        其中,θ(Iat+i)和φ(Iat)分別為對比幀圖像和參考幀圖像通過簡單卷積得到的圖像嵌入向量。sigmoid激活函數(shù)用于將輸入結(jié)果限定在[0,1]之內(nèi)。經(jīng)上述計算,將距離特征圖以像素點積的方式與原始輸入圖像Iat+i相乘,使用一個額外的卷積層來聚合這些注意力的特征Iat+i:

        Iat+i=Iat+i⊙h(Iat+i,Iat)(3)

        本研究重新定義了TA模塊的參數(shù),以及調(diào)整輸入的尺寸以適應工程振動測試任務下的數(shù)據(jù)集,將改進后的算法稱為EQVI-T。

        1.4"基于計算機視覺的結(jié)構動態(tài)位移測量

        1.4.1"基于局部面積效應的邊緣檢測

        通過插幀算法獲得高幀率的視頻后,采用邊緣檢測算法進一步確定目標物體在各個幀中對應的位移。傳統(tǒng)的邊緣檢測方法只能給出像素級的邊緣位置,用來追蹤目標的位移往往不滿足精度需求。因此本研究使用了Trujillo- Pino等人[14]提出的基于局部面積效應的方法,能夠以亞像素級別獲得目標物體邊緣的準確位置。

        然而,即使選取了包括目標物體在內(nèi)的感興趣區(qū)域(region of interest, ROI),邊緣檢測技術仍然會受到視頻數(shù)據(jù)采集條件的限制,在某些幀中間產(chǎn)生虛假的邊緣,如圖3所示。直接使用基于局部面積效應的邊緣檢測計算位移,需要手動選取每一幀中的亞像素坐標,這一過程費時費力,還容易受到人為誤差的影響。

        1.4.2"算法改進

        為排除虛假邊緣對測量結(jié)果的影響,提出了一種特征點跟蹤技術。首先設定好閾值,在初始幀中檢測可能存在的邊緣。選擇合適的ROI,并在其中通過限制坐標范圍,選取兩組近似直線邊緣的線段集合,提取集合內(nèi)所有邊緣的坐標信息。兩組集合內(nèi)的線段可以分別用直線方程y=k1x+m1和y=k2x+m2表示。直線方程的系數(shù)可由以下公式確定:

        k=∑(xi-xmean)(yi-ymean)∑(xi-xmean2)(4)

        b=ymean-k·xmean(5)

        其中,xi和yi分別為每一個線段上的亞像素橫縱坐標,xmean和ymean分別為所有坐標信息的均值,得到擬合的直線方程后,求取兩直線的交點作為特征點進行后續(xù)的目標追蹤,具體過程如圖4所示。整個特征點追蹤過程中,將第一幀視為參考幀,接下來的每一幀數(shù)據(jù)與參考幀作對比以計算特征點位移。

        獲得整個視頻中各個時刻的特征點亞像素位置序列后,所提出的邊緣跟蹤過程將全部特征點亞像素信息合并為一個一維數(shù)組,對于每個時間點j,計算特征點在時間點j與初始狀態(tài)時的歐幾里得距離D(j):

        D(j)=(P(j)-P(1))2(6)

        其中,P(j)為特征點在時間點j時刻的位置,P(1)為特征點在初始時刻的位置。

        將該方法應用于視頻的每一幀,能夠有效地排除因虛假邊緣所引起的誤差,實現(xiàn)對整個視頻中物體振動的準確檢測和跟蹤,同時降低噪聲的影響。

        2"模型驗證試驗

        為驗證本研究所提方法的可行性,選用鋁合金懸臂梁進行試驗,如圖5所示。

        懸臂梁的縱向長度L為1 100 mm,截面寬度B為10 mm,截面高度H為10 mm,楊氏模量為70 GPa,泊松比為0.33,密度為2 750 kg/m3。采用力錘作為激勵裝置,在懸臂梁側(cè)面30 cm位置架設視頻采集裝置(iPhone6手機),視頻幀率為100 fps,光照條件為穩(wěn)定的室內(nèi)光源。將懸臂梁自由端(位移測點)作為邊緣檢測的標靶。為驗證基于計算機視覺的結(jié)構動態(tài)位移非接觸式測量結(jié)果的準確性,在位移測點下方設置了位移計,同步采集懸臂梁振動位移,位移計的采樣頻率分別設置為100 Hz和500 Hz。手機相機與位移計在進行數(shù)據(jù)采集前,分別與在線參考時間同步,盡可能確保設備啟動時間一致。

        2.1"插幀網(wǎng)絡訓練與測試

        本研究試驗環(huán)境配置為4塊 NVIDIA TITAN Xp,操作系統(tǒng)為Ubuntu 系統(tǒng)。神經(jīng)網(wǎng)絡框架采用了PyTorch 平臺。所提EQVI-T在訓練和測試時的詳細參數(shù)設置如下:

        (1)數(shù)據(jù)集。使用智能手機相機采集上述鋁合金懸臂梁振動視頻。以1 920×1 080的分辨率共獲取6 000張圖片作為數(shù)據(jù)集,對其進行平移、旋轉(zhuǎn)、和翻轉(zhuǎn),將數(shù)據(jù)集擴增到15 000張,以增強數(shù)據(jù)的多樣性。訓練集和測試集的比例為7∶3。

        (2)訓練。共計進行了200個周期的訓練,網(wǎng)絡的學習率的初始值設為 0.000 1。將所采集的懸臂梁振動視頻逐幀拆分為圖片序列,然后分為固定數(shù)量的不重疊元組,每個元組包7幀連續(xù)幀,中間一幀作為插幀結(jié)果的輸出對照。批量大小設置為8,使用與EQVI原文相同的損失函數(shù)來訓練模型。

        (3)測試。與訓練階段相同,將圖像序列分割成7幀為一組的圖像元組。模型在所有的元組上進行測試,測試結(jié)果取所有元組的平均值。

        2.2"插幀網(wǎng)絡性能評價

        為評估改進后的模型,使用了實時監(jiān)測中間光流算法模型RIFE和原始的EQVI模型作為參照組,兩種模型具體結(jié)構見文獻[15][12]。兩種模型均經(jīng)過了相同數(shù)量的訓練數(shù)據(jù),采用了與參考模型原作者相同的訓練方法,并保持了相同的超參數(shù)設置。在懸臂梁模型振動數(shù)據(jù)集上采用了圖像鄰域常用的3種評價方式對生成圖像結(jié)果進行評估:均方誤差(MSE)、峰值信噪比(PSNR)和結(jié)構相似性指數(shù)(SSIM)[16]。試驗結(jié)果如表1所示。

        由表1可以看出,在所研究的數(shù)據(jù)集中,所提算法在各項評價標準中均取得了優(yōu)于對比模型的評估結(jié)果。圖6展示了基于本研究改進算法生成的結(jié)構振動視頻插幀結(jié)果,其中第二至第四幀為生成的中間幀。這些中間幀很好地延續(xù)了輸入的兩相鄰幀之間的運動趨勢,符合振動規(guī)律,達到了插幀的預期目標。

        2.3"位移響應監(jiān)測結(jié)果

        將智能手機采集到的原生低幀率視頻分解為圖像序列并裁定ROI,分別使用RIFE和EQVI以及本研究所提EQVI-T幾種視頻插幀算法對圖像序列進行插值。截取需要部分的圖像序列,輸送至改進后的亞像素級邊緣檢測程序,通過上述特征點跟蹤計算過程求得任意時刻特征點的亞像素級位移時程,最后將得到的像素坐標通過比例因子轉(zhuǎn)換為物理坐標。

        在梁自由端使用力錘敲擊誘發(fā)自由振動,每次振動在2 s內(nèi)衰減,連續(xù)兩次錘擊時梁豎直方向的位移時程如圖7所示。選取第一次錘擊引起的自由振動響應的數(shù)據(jù)在圖7(b)中重新繪制,擴大了時間尺度以便獲得更清晰的可視化。

        從圖7可以看出,RIFE算法僅僅只增加了采樣頻率,與基于低幀率視頻的檢測結(jié)果一樣無法還原結(jié)構振動過程中的部分非線性運動軌跡。而基于EQVI以及改進后的EQVI-T模型測得的位移時程曲線,相對更加貼合位移計的真實值,尤其在峰值與峰谷部分都更好地還原了測點的運動軌跡。此外,基于EQVI-T模型的檢測結(jié)果除了在結(jié)構的明顯振動衰減過程內(nèi)與EQVI一樣表現(xiàn)良好,在結(jié)構未振動時,基于EQVI-T模型的檢測結(jié)果產(chǎn)生的噪聲更小,整體波動相對更加平緩。

        為進一步量化所提算法對于結(jié)構振動視頻的應用優(yōu)勢,本研究采用兩種評價參數(shù)作為性能指標,一是皮爾森相關系數(shù)(Pearson-correlation coefficient),二是平均絕對誤差 (MAE)。相應的計算表達式分別如式(6)、式(7)。

        ρX,Y=cov(X,Y)σXσY=E[(X-μx)(Y-μY)]σXσY(6)

        MAE=1n∑ni=1y^i-yi(7)

        采取了多組試驗平均結(jié)果進行分析,結(jié)果如表2所示。

        由表2可知,改進后的EQVI-T模型相關系數(shù)和MAE均達到了最優(yōu)的0.956和0.035,在提升結(jié)構振動視頻的幀率任務上具有更好的適用性。

        2.4"模態(tài)參數(shù)識別

        2.4.1"有限元模型分析

        使用有限元軟件建立鋁合金懸臂梁模型,材料特性與上述位移測量試驗中一致,建模尺寸與實際模型基本相同。懸臂梁有限元模型如圖8所示。在設定好邊界條件后進行模態(tài)分析,獲取懸臂梁的理論頻率。本研究選取Z方向上的前3階模態(tài)參數(shù)信息進行對比。

        2.4.2"基于DHDAS系統(tǒng)的模態(tài)分析試驗

        試驗開始前將懸臂梁進行10等分,每個等分點依次設置為C1-C9測點。選取C5測點作為參考點并布置好加速度傳感器,將采樣頻率設置為500 Hz,試驗布置如圖9所示。

        第一批次的數(shù)據(jù)采集時,使用另一傳感器放置在C1號測點上,使用力錘對懸臂梁自由端進行輕輕錘擊,同時用采集儀采集3 min的振動信號。第一批次數(shù)據(jù)采集完成后,將C1處傳感器移至C2測點,激勵點和參考點不變,激勵并采集第2批數(shù)據(jù)。以此類推,一共進行8次采集。信號采集結(jié)束后即可用 DHDAS信號分析系統(tǒng)進行模態(tài)分析,對振動信號進行快速傅里葉變換(FFT)后得到每個測點的頻譜圖,接著使用DHDAS系統(tǒng)中的模態(tài)分析模塊即可獲得懸臂梁的模態(tài)頻率、模態(tài)振型以及模態(tài)阻尼比。

        2.4.3"基于視頻插幀的模態(tài)分析試驗

        基于視頻插幀的模態(tài)分析試驗中,相機拍攝參數(shù)與位移響應監(jiān)測試驗相同,拍攝時長為30 s。視頻采集后采用不同的視頻插幀算法對所獲取的圖像序列插值,利用改進的邊緣檢測程序?qū)D像序列進行分析,得到特征點的位移時程數(shù)據(jù),并通過峰值拾取法、自由衰減法[17]獲得懸臂梁的模態(tài)頻率、模態(tài)振型以及模態(tài)阻尼比。

        2.4.4"試驗結(jié)果分析

        基于視頻插幀算法的監(jiān)測結(jié)果與基于加速度傳感器采集信號監(jiān)測結(jié)果的頻譜圖對比如圖10所示。在頻域上,基于視頻插幀方法獲得的結(jié)果與加速度傳感器的結(jié)果吻合較好,且可以看出在原生低幀率下只能識別到結(jié)構的一階頻率,而將拍攝得到的圖像序列通過算法插幀,同樣經(jīng)過FFT拾取峰值,可以識別到結(jié)構的前3階頻率。

        此外,總結(jié)對比了有限元法(FEM)計算的理論模態(tài)頻率與實測結(jié)果識別的模態(tài)頻率,如表4所示。

        由于實際懸臂梁的固定端并非理想的完全固定端,而是存在一定的柔度和失效。這降低了結(jié)構的剛度,使得FEM的理論頻率略大于其他方法的識別結(jié)果。

        相對于不使用插幀算法提高幀率的原始方法,采用EQVI插幀算法提高幀率至500 fps所獲得的數(shù)據(jù)在前3階模態(tài)頻率上均取得了改善。這表明通過插幀算法提高視頻幀率,能夠更準確地捕捉振動行為。與EQVI相比,使用本研究所提的改進插幀算法EQVI-T在前3階模態(tài)頻率上進一步提高,表明EQVI-T相對于EQVI在頻率測量上具有更高的準確性和穩(wěn)定性。這可能是因為EQVI-T在插幀過程中依靠注意力機制能夠更有效地處理圖像細節(jié),提高測量的精度。 通過不同方法識別和計算的前3階模態(tài)振型如圖11所示,可以看出EQVI-T獲得的振型數(shù)據(jù)與對比數(shù)據(jù)之間有較好的相似性。

        總體而言,基于計算機視覺方法中使用EQVI-T插幀算法相對于其他方法在獲取懸臂梁模型前三階模態(tài)頻率方面具有更為顯著的優(yōu)勢,表明該算法在振動頻率分析具有更高的精確性和可靠性。

        此外,表5展示了所提方法與DHDAS識別阻尼比結(jié)果的對比,可以看出所提方法與DHDAS識別結(jié)果之間有較好的相關性,誤差在允許的范圍內(nèi)。

        3"結(jié)論

        本研究提出了一種基于視頻插幀和計算機視覺的非接觸振動測試方法,并將其應用于實驗室結(jié)構模型的位移響應監(jiān)測和模態(tài)參數(shù)識別任務,主要貢獻包括:

        1) 在視頻插幀算法中引入注意力機制,改進了生成中間幀的質(zhì)量。相比原始EQVI算法和線性算法RIFE,所構建的EQVI-T模型在各種精度指標中表現(xiàn)最佳。

        2) 將所提方法應用于實驗室懸臂梁模型,進行了位移響應監(jiān)測。算法得到的位移響應結(jié)果與位移計采集的數(shù)據(jù)吻合較好,證明了所提動態(tài)位移測量方法的有效性和準確性。

        3) 模態(tài)參數(shù)識別任務中,所提算法可以較好地識別到懸臂梁的固有頻率和振型,表現(xiàn)出在非接觸式結(jié)構振動測試任務中的潛力。

        參考文獻:

        [1] 葉肖偉,董傳智. 基于計算機視覺的結(jié)構位移監(jiān)測綜述[J]. 中國公路學報,2019,32(11):21-39.

        [2] XU L,GUO J J,JIANG J J. Time–frequency analysis of a suspension bridge based on GPS[J]. Journal of Sound and Vibration,2002,254(1):105-116.

        [3] GARG P,MOREU F,OZDAGLI A,et al. Noncontact dynamic displacement measurement of structures using a moving laser Doppler vibrometer[J]. Journal of Bridge Engineering,2019,24(9):04019089.

        [4] JAVED A,LEE H,KIM B,et al. Vibration measurement of a rotating cylindrical structure using subpixel-based edge detection and edge tracking[J]. Mechanical Systems and Signal Processing,2022,166:108437.

        [5] ZHU J S,LU Z Y,ZHANG C. A marker-free method for structural dynamic displacement measurement based on optical flow[J]. Structure and Infrastructure Engineering,2022,18(1):84-96.

        [6] LIU T,LEI Y,MAO Y B. Computer vision-based structural displacement monitoring and modal identification with subpixel localization refinement[J]. Advances in Civil Engineering,2022,2022:5444101.

        [7] CHEN T C,ZHOU Z. An improved vision method for robust monitoring of multi-point dynamic displacements with smartphones in an interference environment[J]. Sensors,2020,20(20):5929

        [8] SONG L M,WU W F,GUO J R,et al. Survey on camera calibration technique[C]∥2013 5th International Conference on Intelligent Human-Machine Systems and Cybernetics. Hangzhou, IEEE,2013:389-392.

        [9] JIANG H Z,SUN D Q,JAMPANI V,et al. Super SloMo:high quality estimation of multiple intermediate frames for video interpolation[C]∥2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,IEEE,2018:9000-9008.

        [10] LEE H,KIM T,CHUNG T Y,et al. AdaCoF:adaptive collaboration of flows for video frame interpolation[C]∥2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle,IEEE,2020:5316-5325.

        [11] NIKLAUS S,MAI L,LIU F. Video frame interpolation via adaptive separable convolution[C]∥2017 IEEE International Conference on Computer Vision (ICCV). Venice. IEEE,2017:261-270.

        [12] LIU Y H,XIE L B,LI S Y,et al. Enhanced quadratic video interpolation[C]∥Computer Vision – ECCV 2020 Workshops:Glasgow,Proceedings,Part IV. ACM,2020:41–56.

        [13] WANG X T,CHAN K C K,YU K,et al. EDVR:video restoration with enhanced deformable convolutional networks[C]∥2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Long Beach,IEEE,2019:DOI:10.1109/CVPRW.2019.D0247.

        [14] TRUJILLO-PINO A,KRISSIAN K,ALEMN-FLORES M,et al. Accurate subpixel edge location based on partial area effect[J]. Image and Vision Computing,2013,31(1):72-90.

        [15] HUANG Z W,ZHANG T Y,HENG W,et al. Real-time intermediate flow estimation for video frame interpolation[C]∥AVIDAN S,BROSTOW G,CISS M,et al. European Conference on Computer Vision. Cham:Springer,2022:624-642.

        [16] DONG J,OTA K,DONG M X. Video frame interpolation:a comprehensive survey[J]. ACM Transactions on Multimedia Computing,Communications,and Applications, 2023, 19(2s): 1-31.

        [17]李俊燕. 基于自由衰減響應信號的工程結(jié)構時變模態(tài)阻尼識別[D]. 哈爾濱:哈爾濱工業(yè)大學,2022.

        (責任編輯: 方素華)

        收稿日期:2023-11-23

        基金項目:福建工程學院科研啟動基金項目(GY-Z21025)

        第一作者簡介:楊克超(2000—),男,福建南平人,碩士研究生,研究方向:結(jié)構健康監(jiān)測。

        通信作者:李林(1971—),男,湖北恩施人,教授,博士,研究方向:結(jié)構健康監(jiān)測。

        中文字幕一区二区在线| 亚洲 都市 校园 激情 另类 | 日韩av二区三区一区| 亚洲色偷偷综合亚洲av伊人| 国产精品国产三级在线高清观看| 亚洲色图少妇熟女偷拍自拍| 人成综合视频在线播放| 国产成人精品一区二区三区视频| 亚洲成人中文| 日本一区二区久久精品亚洲中文无| 亚洲精品一区二区三区52p| 无码尹人久久相蕉无码| 国产亚洲一本大道中文在线| 国产精品成人久久一区二区| 一本久道高清视频在线观看| 在熟睡夫面前侵犯我在线播放| 最新国产拍偷乱偷精品| 一区二区三区四区日韩亚洲| 青青草亚洲视频社区在线播放观看| 中文字幕人妻无码一夲道| 国产爽爽视频在线| 国内偷拍视频一区二区| 99视频在线精品免费观看6| 岛国av无码免费无禁网站| 国产精品视频一区二区噜噜| 无码久久精品蜜桃| 国产一区二区三区最新地址 | 中文字幕无码毛片免费看| 国产精品久久毛片av大全日韩| 精品综合久久久久久8888| 亚洲综合中文日韩字幕| 一本色道久久综合狠狠躁篇| 粗了大了 整进去好爽视频| 中文字幕一区,二区,三区 | 一本一道vs无码中文字幕| 熟女精品视频一区二区三区| AV无码中文字幕不卡一二三区 | 久久av少妇亚洲精品| 国产成人亚洲一区二区| 亚洲av午夜福利精品一区二区| 亚洲性啪啪无码AV天堂|