亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于度量學(xué)習(xí)的跨模態(tài)人臉檢索算法

        2022-07-08 01:50:00沃焱梁籍云韓國強(qiáng)
        關(guān)鍵詞:模態(tài)特征

        沃焱 梁籍云 韓國強(qiáng)

        (華南理工大學(xué) 計算機(jī)科學(xué)與工程學(xué)院,廣東 廣州 510006)

        跨模態(tài)人臉檢索是一種根據(jù)人臉圖像或視頻查詢不同模態(tài)的相關(guān)人臉數(shù)據(jù)的檢索方式。在日常生活中,跨模態(tài)人臉檢索可以根據(jù)人臉圖像定位到相關(guān)的影視作品,并且推薦更多的相關(guān)信息;也可以根據(jù)嫌疑人圖像檢索相關(guān)的監(jiān)控視頻獲得嫌疑人的運(yùn)動軌跡,或者根據(jù)監(jiān)控視頻在人臉圖像數(shù)據(jù)庫中對嫌疑人進(jìn)行有效識別。

        跨模態(tài)人臉檢索任務(wù)的難點在于人臉圖像和人臉視頻之間的模態(tài)差異較為復(fù)雜,不僅包含時空域差異,還包含視角差異和域差異,難以計算不同模態(tài)特征之間的相似性。如圖像和視頻中的人臉可能存在較大的視角差異,會涉及遮擋、非線性扭曲以及位置變化等復(fù)雜情況[1],使得特征空間中的不同模態(tài)的特征分布差異大,進(jìn)而影響跨模態(tài)檢索的正確性;同一人臉類別具有多種不同的表現(xiàn)方式,即證件照、藝術(shù)照、生活照甚至是肖像或漫畫等,不同的表現(xiàn)方式對應(yīng)的圖像顏色、紋理和風(fēng)格差異較大,本文將每種表現(xiàn)方式對應(yīng)的人臉圖像看作一個域,人臉圖像和人臉視頻可能來源于完全不同的域,因此存在較大的域差異,很難準(zhǔn)確地度量特征之間的相似性。

        度量學(xué)習(xí)的基本思想是根據(jù)任務(wù)學(xué)習(xí)一種距離度量以度量樣本之間的相似性。相比于直接使用歐氏距離度量樣本相似性,度量學(xué)習(xí)可以結(jié)合數(shù)據(jù)自身特點,學(xué)習(xí)更有效的度量方式用于求解目標(biāo)問題?;诙攘繉W(xué)習(xí)的跨模態(tài)檢索方法是跨模態(tài)檢索的一種主要技術(shù)手段,一般使用深度神經(jīng)網(wǎng)絡(luò)將不同模態(tài)的特征映射到一個共同空間中,通過最大化同類特征的相似性關(guān)系和最小化異類特征的相似性關(guān)系來學(xué)習(xí)映射網(wǎng)絡(luò)的參數(shù)。Qiao等[2]提出了一種端到端的深度異構(gòu)哈希方法,使用協(xié)方差矩陣表示視頻特征,將圖像特征提取、視頻特征提取和異構(gòu)哈希方法結(jié)合在一個框架中,采用三元組損失學(xué)習(xí)圖像特征和視頻特征的公共表達(dá)。Zhen等[3]提出了一種深度監(jiān)督跨模態(tài)檢索算法,將兩種特征映射到共同空間中,使用類似極大似然函數(shù)的損失保持模態(tài)內(nèi)和模態(tài)間的可分性,并且通過最小化圖像特征矩陣和文本特征矩陣的距離生成模態(tài)不變表示,學(xué)習(xí)了具有模態(tài)魯棒性和類別可分性的共同表達(dá)。Wang等[4]提出了一種圖像與視頻混合的哈希方法用于人臉視頻檢索,采用三元組損失保持視頻模態(tài)內(nèi)的關(guān)系,并且通過對齊圖像中心和視頻特征來提升視頻單模態(tài)檢索和跨模態(tài)檢索的準(zhǔn)確性。上述基于度量學(xué)習(xí)的跨模態(tài)檢索方法可以有效地減少模態(tài)差異,但其應(yīng)用于跨模態(tài)人臉檢索任務(wù)主要存在兩個問題:首先,忽略了樣本對中包含的信息量不同,構(gòu)建了大量冗余三元組,有些文獻(xiàn)使用困難三元組篩選[5]或半困難三元組篩選[6]的方法來提升訓(xùn)練效率,然而這類方法只能利用當(dāng)前批次的樣本對信息,因此只能進(jìn)行局部的優(yōu)化;其次,對于人臉圖像和人臉視頻,模態(tài)間差異不僅包含時域與空域的差異,也包含兩者的視角差異和域差異,已有方法在構(gòu)建共同空間的過程中缺乏對視角差異和域差異的關(guān)注。

        為了能生成在模態(tài)內(nèi)和模態(tài)間都具有魯棒性、可辨別性的圖像和視頻共同表達(dá),本文提出了一種兩階段的跨模態(tài)共同表達(dá)生成算法:在第一個階段,使用偏航角等變模塊提取魯棒的圖像特征,同時使用多層注意力機(jī)制提取可分的視頻特征;在第二個階段,使用交叉熵?fù)p失保持模態(tài)內(nèi)相似性關(guān)系,結(jié)合半困難全局三元組和半困難局部三元組損失保持模態(tài)間相似性關(guān)系;然后,提出了一種域適應(yīng)算法,該算法使用域校準(zhǔn)和遷移學(xué)習(xí)微調(diào)圖像共同表達(dá)生成網(wǎng)絡(luò)的參數(shù),以提升跨模態(tài)人臉檢索的準(zhǔn)確性。最后,在PB、YTC和UMD人臉視頻數(shù)據(jù)集上驗證本文算法的有效性。

        1 跨模態(tài)人臉檢索算法

        為實現(xiàn)快速準(zhǔn)確的跨模態(tài)人臉檢索,本文提出了一種基于度量學(xué)習(xí)的跨模態(tài)人臉檢索算法,該算法包括跨模態(tài)共同表達(dá)生成算法和域適應(yīng)算法。首先,如圖1所示,跨模態(tài)共同表達(dá)生成算法通過特征提取網(wǎng)絡(luò)和共同表達(dá)映射網(wǎng)絡(luò)組成的跨模態(tài)共同表達(dá)生成網(wǎng)絡(luò)提取不同模態(tài)樣本的共同表達(dá),該網(wǎng)絡(luò)的優(yōu)化分為特征提取和共同表達(dá)映射兩個階段;其次,本文使用域適應(yīng)算法對跨模態(tài)共同表達(dá)生成網(wǎng)絡(luò)進(jìn)行微調(diào)。

        圖1 跨模態(tài)共同表達(dá)生成算法框架Fig.1 Framework of cross-modal common representation generation algorithm

        1.1 跨模態(tài)共同表達(dá)生成算法

        1.1.1 特征提取

        在特征提取階段需要將圖像樣本和視頻樣本分別從樣本空間XI和XV映射到特征空間YI和YV中,特征提取的目標(biāo)是使不同模態(tài)的特征在各自的特征空間內(nèi)具有類內(nèi)魯棒性和類間可分性。

        圖像特征提取的主要目標(biāo)是在提取魯棒可分的圖像特征的基礎(chǔ)上保證特征空間YI對視角變化的魯棒性。視角變化主要包含偏航角、滾轉(zhuǎn)角和俯仰角的變化,其中對特征魯棒性影響最大的是偏航角變化。文獻(xiàn)[7]構(gòu)造了偏航角等變殘差映射,用于減小不同偏航角人臉圖像的特征差異,將其用于不同的網(wǎng)絡(luò)結(jié)構(gòu)中都取得了較好的結(jié)果;本文采用類似的方式根據(jù)不同偏航角對特征進(jìn)行補(bǔ)償,以保證圖像特征對偏航角的魯棒性。

        (1)

        (2)

        (3)

        (4)

        (5)

        (6)

        (7)

        綜上所述,特征提取階段總的損失函數(shù)為

        (8)

        1.1.2 共同表達(dá)映射

        (9)

        模態(tài)間相似性保持的目標(biāo)是使不同模態(tài)的特征在共同空間中保持同類特征相似、異類特征不相似的關(guān)系。學(xué)習(xí)模態(tài)間相似性關(guān)系的難點在于,常用的度量學(xué)習(xí)損失[1,3-4]無法關(guān)注全局的相似性關(guān)系,并且構(gòu)建了大量冗余三元組。為了解決上述問題,在保持模態(tài)間的相似性關(guān)系時,本文通過半困難三元組篩選[6]來減少冗余三元組數(shù)量,同時構(gòu)建全局三元組和局部三元組以保持模態(tài)間特征關(guān)系,提升損失函數(shù)的收斂速度以及共同表達(dá)在共同空間中位置的準(zhǔn)確性。

        半困難三元組篩選[6]選擇所有的正樣本對以及在大于正樣本對距離dth范圍內(nèi)的負(fù)樣本對:

        d(ri,rj)

        (10)

        式中,dth為正樣本對和負(fù)樣本對的相對距離閾值參數(shù),d(ri,rj)為樣本ri和rj的特征距離。采用半困難三元組訓(xùn)練網(wǎng)絡(luò)可使網(wǎng)絡(luò)更容易學(xué)習(xí)到樣本對中的信息,同時避免網(wǎng)絡(luò)陷入模式崩潰和局部最小。

        (11)

        綜上所述,共同表達(dá)映射階段總的損失函數(shù)為

        Lm=LC1+LC2+α(Ll+Lg)

        (12)

        其中,α為模態(tài)內(nèi)模態(tài)間損失函數(shù)的比例因子。

        1.2 域適應(yīng)算法

        (13)

        (14)

        (15)

        在域適應(yīng)算法中,整體優(yōu)化的損失函數(shù)為

        (16)

        2 實驗結(jié)果與分析

        2.1 數(shù)據(jù)集與訓(xùn)練過程

        為驗證本文算法的有效性,選擇了Prison Break(PB)數(shù)據(jù)集[12]、YouTube Celebrities(YTC)數(shù)據(jù)集[13]和UMD人臉數(shù)據(jù)集[14]3個人臉視頻數(shù)據(jù)集進(jìn)行試驗。本文的檢索流程與文獻(xiàn)[2]相同,YTC和UMD 人臉數(shù)據(jù)集的規(guī)模較大,本文采用70%的數(shù)據(jù)用于訓(xùn)練,30%的數(shù)據(jù)用于測試,在檢索時使用測試集作為查詢集,使用訓(xùn)練集作為檢索集;PB數(shù)據(jù)集采樣自劇集,規(guī)模較小,本文僅采用前3集的數(shù)據(jù)用于訓(xùn)練,其余19集的數(shù)據(jù)用于測試,在檢索時使用訓(xùn)練集作為查詢集,使用測試集作為檢索集。

        跨模態(tài)共同表達(dá)生成網(wǎng)絡(luò)包括特征提取網(wǎng)絡(luò)和共同表達(dá)映射網(wǎng)絡(luò),其中特征提取網(wǎng)絡(luò)包括CNN、偏航角殘差映射網(wǎng)絡(luò)和視頻注意力機(jī)制網(wǎng)絡(luò)。該網(wǎng)絡(luò)的訓(xùn)練過程描述如下:在特征提取階段,使用式(8)作為損失函數(shù)訓(xùn)練特征提取網(wǎng)絡(luò),采用自適應(yīng)矩估計(Adam)優(yōu)化器訓(xùn)練1個迭代周期;在共同表達(dá)映射階段,使用式(12)作為損失函數(shù)訓(xùn)練共同表達(dá)映射網(wǎng)絡(luò),微調(diào)前一階段預(yù)訓(xùn)練的特征提取網(wǎng)絡(luò)。由于本文使用了三元組損失函數(shù)保持模態(tài)間相似性關(guān)系,訓(xùn)練前期的損失函數(shù)曲面較為陡峭,直接使用隨機(jī)梯度下降(SGD)優(yōu)化會導(dǎo)致梯度爆炸問題,因此本文結(jié)合Adam和SGD優(yōu)化用于共同表達(dá)映射算法中的梯度更新,在訓(xùn)練前期使用Adam優(yōu)化器訓(xùn)練10個迭代周期,在后期切換為SGD優(yōu)化器訓(xùn)練10個迭代周期,在保證損失函數(shù)快速收斂的同時保證了算法的泛化能力[15]。

        實驗中使用的主要參數(shù)設(shè)置如下:三元組損失中正樣本和負(fù)樣本對的相對距離dth=1,式(12)和式(16)中的模態(tài)內(nèi)模態(tài)間損失函數(shù)比例因子α=1,Adam優(yōu)化器中β1和β2分別設(shè)置為0.9和0.99,SGD中的Momentum參數(shù)設(shè)為0.9,SGD優(yōu)化器的L2正則化系數(shù)設(shè)置為0.002 5,特征提取網(wǎng)絡(luò)和共同表達(dá)映射網(wǎng)絡(luò)的Dropout正則化的概率分別為0.4和0.7。

        本文采用平均精度(mAP)和P-R曲線(P為查準(zhǔn)率,R為查全率)兩種評價指標(biāo)來評估跨模態(tài)人臉檢索的性能,其中mAP代表算法的P-R曲線下方的面積。

        2.2 對比實驗

        本文實驗選擇6種跨模態(tài)檢索算法(HER[16]、CMDN[17]、ACMR[18]、DSCMR[3]、DHH[2]、HVIH[4])作為對比,其中HER、DHH、HVIH是解決人臉圖像和視頻跨模態(tài)檢索問題的算法,可以直接生成二值哈希;其余算法是解決圖像和文本跨模態(tài)檢索問題的算法,提取的特征為實值表達(dá),為公平比較,本文使用平均池化將圖像幀特征融合為視頻特征,并采用主成分分析(PCA)算法[19]和迭代量化(ITQ)算法[20]對特征進(jìn)行降維與量化,生成48位的二值哈希用于檢索。

        表1展示了在PB、YTC和UMD數(shù)據(jù)集中使用圖像檢索視頻和使用視頻檢索圖像的mAP指標(biāo)值,由表中可以看出,本文算法在不同數(shù)據(jù)集的跨模態(tài)檢索任務(wù)中都取得了較好的結(jié)果。

        表1 PB、YTC和UMD數(shù)據(jù)集中跨模態(tài)檢索的mAPTable1 mAP of cross-modal retrieval in PB,YTC and UMD datasets

        圖2展示了在PB數(shù)據(jù)集中圖像檢索圖像、視頻檢索視頻、圖像檢索視頻和視頻檢索圖像任務(wù)的P-R曲線。盡管PB數(shù)據(jù)集中的人臉圖像大多取景于戶外,光照條件和背景條件多變,但由于PB數(shù)據(jù)集是在劇集中采樣得到的,因此數(shù)據(jù)集中的圖像分辨率相對較為清晰且噪聲較少,風(fēng)格較為統(tǒng)一。從圖2(a)可以看出,本文算法在圖像的單模態(tài)檢索中的結(jié)果明顯優(yōu)于對比算法,證明了本文的偏航角等變模塊可以較好地利用人臉視角信息生成具有魯棒性的圖像特征。如圖2(b)所示,由于DHH、HER使用黎曼流形上的點表示視頻特征,并且流形空間中的距離度量比歐氏空間中的距離度量更加準(zhǔn)確,而本文算法使用注意力機(jī)制提升了視頻特征的魯棒性,因此這3種算法在視頻的單模態(tài)檢索中都取得了較為準(zhǔn)確的結(jié)果。由圖2(c)、圖2(d)可以看出,魯棒的視頻特征也間接提升了跨模態(tài)檢索的效果。同時,相比于其他跨模態(tài)算法,ACMR和DSCMR除了使用度量學(xué)習(xí)損失保持模態(tài)間的相似性關(guān)系外,還使得生成的共同表達(dá)具備模態(tài)不變的性質(zhì),也提升了跨模態(tài)檢索的準(zhǔn)確率。本文算法和HVIH都利用了類中心思想來減少模態(tài)間差異,不同于HVIH直接使用圖像特征平均值作為類中心,本文算法使用的語義類中心更能反映全局模態(tài)間的關(guān)系,并且結(jié)合局部模態(tài)間的關(guān)系保持在跨模態(tài)檢索中取得了更好的結(jié)果。

        圖2 PB數(shù)據(jù)集中單模態(tài)檢索和跨模態(tài)檢索的P-R曲線Fig.2 P-R curves of single modal and cross-modal retrieval in PB dataset

        圖3展示了在YTC數(shù)據(jù)集中使用圖像檢索視頻和使用視頻檢索圖像的P-R曲線。相比于PB數(shù)據(jù)集,YTC數(shù)據(jù)集的光照條件、姿態(tài)、表情和圖像質(zhì)量更加多變,模態(tài)內(nèi)差異較大。HER方法在YTC數(shù)據(jù)集中的檢索準(zhǔn)確率相比于在PB數(shù)據(jù)集中下降明顯,主要原因是YTC數(shù)據(jù)集規(guī)模較大,在構(gòu)建共同空間之前,需要先將異構(gòu)空間投影到再生希爾伯特空間中,但由于計算資源的限制,HER只能利用部分樣本對進(jìn)行訓(xùn)練。從表1和圖3可知,在多數(shù)情況下,本文算法的檢索性能優(yōu)于所有對比算法,這是因為對比算法缺乏了對圖像特征空間和視頻特征空間的魯棒性約束以及對模態(tài)間信息的充分利用。

        圖3 YTC數(shù)據(jù)集中跨模態(tài)檢索的P-R曲線Fig.3 P-R curves of cross-modal retrieval in YTC dataset

        圖4展示了在UMD數(shù)據(jù)集中使用圖像檢索視頻和使用視頻檢索圖像的P-R曲線。相比于PB和YTC數(shù)據(jù)集,UMD數(shù)據(jù)集中的類別數(shù)量最多,同時人臉的姿態(tài)、圖像質(zhì)量、背景仍然差異較大,因此所有算法在該數(shù)據(jù)集上的表現(xiàn)有所下降。DHH和HER將視頻看作黎曼流形空間中的點,但UMD數(shù)據(jù)集中每個類別用于訓(xùn)練的樣本數(shù)量相對較少,因此無法滿足密集采樣的假設(shè)條件,本文算法通過魯棒的特征提取方法以及結(jié)合半困難全局三元組損失和半困難局部三元組損失的模態(tài)間關(guān)系保持保證了跨模態(tài)檢索的準(zhǔn)確性。

        圖4 UMD數(shù)據(jù)集中跨模態(tài)檢索的P-R曲線Fig.4 P-R curves of cross-modal retrieval in UMD dataset

        2.3 消融實驗

        為了驗證本文提出的偏航角等變模塊(M1)、視頻注意力機(jī)制模塊(M2)和半困難全局三元組損失(M3)的有效性,本文使用不添加上述模塊的方法作為基準(zhǔn)方法,以驗證添加各個模塊之后的效果?;鶞?zhǔn)方法直接使用共享權(quán)重的CNN提取的特征作為圖像特征,對視頻幀特征采用平均池化進(jìn)行融合,使用交叉熵?fù)p失保持模態(tài)內(nèi)相似性關(guān)系,同時僅使用局部三元組損失保持模態(tài)間的相似性關(guān)系。

        本文使用YTC數(shù)據(jù)集提取48維的二值哈希進(jìn)行消融實驗,結(jié)果如表2所示。從表中可以觀察到:①由于本文使用了交叉熵?fù)p失和度量學(xué)習(xí)損失來保持模態(tài)內(nèi)模態(tài)間關(guān)系以及使用Adam和SGD切換的優(yōu)化方法,基準(zhǔn)方法在跨模態(tài)檢索任務(wù)中的mAP達(dá)到了0.586 9和0.644 8;②在添加偏航角等變模塊后,圖像檢索圖像的mAP值提升了3.60%,圖像檢索視頻和視頻檢索圖像的mAP值分別提升了4.33%和2.12%,說明偏航角等變模塊增強(qiáng)了圖像特征的單模態(tài)魯棒性,進(jìn)一步提升了跨模態(tài)檢索的準(zhǔn)確性;③添加視頻注意力機(jī)制模塊后,視頻檢索視頻的準(zhǔn)確率提升了1.72%,視頻檢索圖像和圖像檢索視頻的mAP分別提升了3.68%和0.90%,說明基于注意力機(jī)制的視頻特征融合方法提升了視頻的單模態(tài)檢索準(zhǔn)確性,進(jìn)一步提升了模態(tài)間相似性關(guān)系的準(zhǔn)確性;④使用全局三元組損失后,圖像和視頻的跨模態(tài)檢索準(zhǔn)確率分別提升了7.50%和3.64%,說明了使用本文的跨模態(tài)語義中心保持全局相似性關(guān)系的有效性。

        表2 消融實驗的mAP值Table 2 mAP values of ablation experiments

        2.4 域適應(yīng)算法的有效性驗證

        為了驗證本文域適應(yīng)算法的有效性,將前面用于訓(xùn)練的YTC圖像數(shù)據(jù)集看作源域圖像數(shù)據(jù)集,使用文獻(xiàn)[2]中收集的YTC泛化數(shù)據(jù)集作為目標(biāo)域圖像數(shù)據(jù)集,其中每個類別包含額外的100個圖像樣本用于泛化驗證。

        本文使用式(16)作為損失函數(shù)微調(diào)跨模態(tài)共同表達(dá)生成網(wǎng)絡(luò)(使用源域圖像數(shù)據(jù)集訓(xùn)練生成的網(wǎng)絡(luò))的方法如下:在未使用域適應(yīng)算法的情況下,直接對網(wǎng)絡(luò)進(jìn)行微調(diào);在使用域適應(yīng)算法的情況下,先凍結(jié)類中心和視頻共同表達(dá)生成網(wǎng)絡(luò)的參數(shù),再結(jié)合域校準(zhǔn)和遷移學(xué)習(xí)微調(diào)網(wǎng)絡(luò)。使用0、5、10、25、50和80個樣本微調(diào)跨模態(tài)共同表達(dá)生成網(wǎng)絡(luò),在未使用和使用域適應(yīng)算法的情況下,使用目標(biāo)域圖像檢索源域視頻任務(wù)的mAP如表3所示。

        表3 使用與未使用域適應(yīng)算法時跨模態(tài)檢索的mAP值Table 3 mAP values of cross-modal retrieval with and without the domain adaptation algorithm

        如表3所示,在未使用目標(biāo)域樣本進(jìn)行微調(diào)的情況下,盡管使用L2正則化和Dropout來提升了模型的泛化性能,但使用目標(biāo)域圖像進(jìn)行跨模態(tài)檢索時準(zhǔn)確率下降比較大;在僅使用5個樣本進(jìn)行微調(diào)時,本文算法保持類中心和視頻共同表達(dá)生成網(wǎng)絡(luò)的參數(shù)不變,通過分布校準(zhǔn)和遷移學(xué)習(xí)使目標(biāo)域分布盡量接近源域分布,泛化性能有顯著提升;當(dāng)更多的樣本參與實驗時,跨模態(tài)檢索的準(zhǔn)確率持續(xù)上升,說明本文算法可以有效地利用增加的樣本信息來提升跨模態(tài)檢索的準(zhǔn)確性。

        3 結(jié)論

        本文提出了一種基于度量學(xué)習(xí)的跨模態(tài)人臉檢索算法,通過改進(jìn)偏航角等變模塊獲得了對偏航角變化具有魯棒性的人臉特征,使用時域注意力機(jī)制獲得了具有可分性的視頻特征;結(jié)合半困難全局三元組和半困難局部三元組損失提升了跨模態(tài)度量學(xué)習(xí)的一致性和準(zhǔn)確性;使用域校準(zhǔn)和遷移學(xué)習(xí)作為域適應(yīng)算法以減少域差異,提升了使用目標(biāo)域圖像進(jìn)行跨模態(tài)人臉檢索的準(zhǔn)確性。但本文提出的跨模態(tài)域適應(yīng)算法主要適用于小樣本微調(diào)的場景下,缺乏對零樣本場景下域差異問題的解決方案,今后可以進(jìn)一步提升在零樣本場景下共同表達(dá)的泛化性。

        猜你喜歡
        模態(tài)特征
        抓住特征巧觀察
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識
        如何表達(dá)“特征”
        不忠誠的四個特征
        抓住特征巧觀察
        車輛CAE分析中自由模態(tài)和約束模態(tài)的應(yīng)用與對比
        國內(nèi)多模態(tài)教學(xué)研究回顧與展望
        高速顫振模型設(shè)計中顫振主要模態(tài)的判斷
        基于HHT和Prony算法的電力系統(tǒng)低頻振蕩模態(tài)識別
        由單個模態(tài)構(gòu)造對稱簡支梁的抗彎剛度
        計算物理(2014年2期)2014-03-11 17:01:39
        国产 无码 日韩| 无码不卡av东京热毛片| 婷婷五月综合缴情在线视频| 天天躁日日操狠狠操欧美老妇| av成人资源在线播放| 一区二区三区日韩亚洲中文视频| 亚洲精品成人av在线| 国内少妇人妻丰满av| 五码人妻少妇久久五码| 四季极品偷拍一区二区三区视频 | 亚州韩国日本区一区二区片| 女人天堂av人禽交在线观看| 午夜视频在线观看国产19| 欧美亚洲一区二区三区| 性久久久久久久| 人妻有码中文字幕在线不卡| 国内精品毛片av在线播放| 久久久国产乱子伦精品| 国产成人精品成人a在线观看 | 天天综合色中文字幕在线视频| 日韩精品亚洲一区二区 | 欧美日韩成人在线| 亚洲中文字幕有码av| 一区二区三区激情免费视频| 三叶草欧洲码在线| 亚洲AV毛片无码成人区httP| 久久亚洲宅男天堂网址| 国产精品理论片在线观看| 毛茸茸的中国女bbw| 少妇bbwbbw高潮| 日本一区二区免费在线看| 亚洲一区二区三区播放| 国产人成无码视频在线| 国产麻豆极品高清另类| av无码一区二区三区| 中国极品少妇videossexhd| av网站影片在线观看| 青青草在线免费视频播放| 中文成人无码精品久久久不卡| 一区二区三区内射视频在线观看| 亚洲熟少妇一区二区三区|