李 蓉, 房安琪
(西安機(jī)電信息技術(shù)研究所, 陜西 西安 710065)
在現(xiàn)代高科技戰(zhàn)爭(zhēng)中, 為降低大規(guī)模殺傷武器的毀傷效能, 各個(gè)國(guó)家不斷將重要軍事目標(biāo)如導(dǎo)彈發(fā)射井、 指揮中心、 飛機(jī)掩體轉(zhuǎn)移到地下或者深山中, 并配備加固防護(hù)層。 常規(guī)殺傷爆破彈藥僅能在目標(biāo)表面起爆, 無(wú)法進(jìn)行有效打擊[1]。根據(jù)統(tǒng)計(jì), 等同當(dāng)量炸藥在目標(biāo)內(nèi)部最佳位置起爆與位于目標(biāo)表層起爆相比, 能量耦合效率可提高20倍~50倍[2]。 為了有效打擊這種重要軍事對(duì)象, 必須使彈藥具備相當(dāng)?shù)那謴啬芰? 能夠深入目標(biāo)內(nèi)部起爆, 以形成更大的毀壞和殺傷力[3]。硬目標(biāo)侵徹彈作為這類堅(jiān)固目標(biāo)的克星, 可通過(guò)加速度傳感器采集的過(guò)載信息實(shí)時(shí)感知彈丸在碰撞目標(biāo)、 侵入目標(biāo)、 穿透目標(biāo)、 鉆出目標(biāo)的一系列歷程, 確認(rèn)彈丸相對(duì)于目標(biāo)的準(zhǔn)確位置, 完成最佳炸點(diǎn)識(shí)別和起爆任務(wù), 實(shí)現(xiàn)高效毀傷[4]。
硬目標(biāo)侵徹彈加速度曲線如圖1所示, 當(dāng)戰(zhàn)斗部以一定速度v0侵徹靶板時(shí), 侵徹阻力使戰(zhàn)斗部開始做減速運(yùn)動(dòng), 減加速度曲線a(t)主要分為4個(gè)階段[5]: 在0~ta期間, 彈丸頭部與靶板初步接觸, 由于侵入深度小, 錐形彈頭與靶板平面相交的橫截面較小, 侵徹阻力小, 因而減加速度也較小。 隨著侵徹深度的增加, 彈丸頭部與靶板平面相交的橫截面不斷增大, 當(dāng)該橫截面的直徑與彈徑相等時(shí), 侵徹阻力接近最大值, 如b點(diǎn)所示。當(dāng)侵徹深度繼續(xù)增加時(shí), 侵徹阻力的增加只是由于彈丸外表面與靶體的接觸面積增大而增大了摩擦力, 因此, 減加速度的增大也是有限的, 即b點(diǎn)的加速度接近最大加速度am。 侵徹過(guò)程引起的靶體崩落和碎裂使侵徹阻力迅速下降, 減加速度在達(dá)到最大值后很快下降, 如c點(diǎn)所示。 隨著侵徹程度的加深, 克服侵徹阻力消耗的能量越大, 使彈丸的運(yùn)動(dòng)速度逐漸降低, 當(dāng)彈丸速度變?yōu)榱銜r(shí),侵徹阻力也變?yōu)榱? 減加速度隨之消失, 如d點(diǎn)所示。
圖1 彈丸侵徹的加速度時(shí)間歷程Fig.1 Acceleration time history of projectile penetration
硬目標(biāo)侵徹彈的主要起爆方式是計(jì)層起爆[6],該起爆方式打擊精度高, 打擊靈活性大[7]。 目前的計(jì)層起爆算法均根據(jù)侵徹過(guò)載信號(hào)進(jìn)行計(jì)算與測(cè)試, 過(guò)載信號(hào)是侵徹引信精確計(jì)層起爆控制必不可少的數(shù)據(jù)支撐[8]。 由于侵徹試驗(yàn)成本高昂,在靶場(chǎng)使用測(cè)試彈進(jìn)行目標(biāo)毀傷獲得的真實(shí)信號(hào)數(shù)量非常有限, 只能通過(guò)仿真或模擬試驗(yàn)獲取過(guò)載數(shù)據(jù)。 然而, 隨著動(dòng)能侵徹戰(zhàn)斗部速度的不斷提高, 引信也承受著更高程度的沖擊過(guò)載。 彈丸在高速侵徹多層目標(biāo)過(guò)程中, 作用在彈體上瞬間變化的沖擊力激發(fā)了應(yīng)力波, 該應(yīng)力波沿著彈長(zhǎng)方向來(lái)回傳播和反射, 使得彈體侵徹每層靶板時(shí)加速度傳感器采集到的過(guò)載信號(hào)中疊加了這些震蕩信息的高頻分量。 彈體在相鄰兩層靶板間行進(jìn)過(guò)程中, 應(yīng)力波仍在振蕩, 尚未衰減完畢, 導(dǎo)致相鄰兩目標(biāo)層之間的過(guò)載彼此粘連[9]。 而這種信號(hào)彼此粘連的現(xiàn)象難以通過(guò)計(jì)算機(jī)仿真進(jìn)行還原,導(dǎo)致模擬結(jié)果與實(shí)測(cè)數(shù)據(jù)有較大出入。 因此, 如何生成有效的過(guò)載信號(hào)成為深度學(xué)習(xí)在硬目標(biāo)侵徹引信應(yīng)用中的關(guān)鍵。 本文嘗試將神經(jīng)網(wǎng)絡(luò)引入過(guò)載信號(hào)的生成中, 希望生成更加可靠的數(shù)據(jù),以供硬目標(biāo)侵徹引信的層識(shí)別算法進(jìn)行計(jì)算與測(cè)試。
深度生成模型是概率統(tǒng)計(jì)和深度學(xué)習(xí)中非常重要的模型, 可以生成一系列可觀測(cè)數(shù)據(jù), 在計(jì)算機(jī)視覺(jué)、 自然語(yǔ)言處理等領(lǐng)域應(yīng)用十分廣泛[10]。
生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)是Goodfellow 等[11]在2014年提出的一種無(wú)監(jiān)督生成式模型, 該模型受啟發(fā)于二人零和博弈理論, 由生成器和判別器組成, 結(jié)構(gòu)如圖2所示, 生成器主要用來(lái)學(xué)習(xí)真實(shí)樣本的分布,從而讓生成的數(shù)據(jù)更加真實(shí), 以騙過(guò)判別器; 判別器則需要對(duì)接收的數(shù)據(jù)進(jìn)行真假判別。 在訓(xùn)練過(guò)程中, 生成器不斷使生成的數(shù)據(jù)更加真實(shí), 判別器則努力識(shí)別數(shù)據(jù)的真假, 即二人相互博弈的過(guò)程。 隨著時(shí)間推移, 生成器和判別器不斷對(duì)抗,最終達(dá)到動(dòng)態(tài)平衡: 生成器生成的數(shù)據(jù)接近真實(shí)樣本分布, 而判別器無(wú)法識(shí)別出數(shù)據(jù)的真假, 對(duì)于給定數(shù)據(jù), 判別器預(yù)測(cè)為真的概率基本接近0.5(相當(dāng)于隨機(jī)猜測(cè))[12]。
圖2 GAN模型結(jié)構(gòu)Fig.2 Model structure of GAN
GAN的目標(biāo)函數(shù)定義為
原始GAN由于其無(wú)監(jiān)督過(guò)于自由的學(xué)習(xí)模式, 導(dǎo)致在訓(xùn)練過(guò)程中經(jīng)常出現(xiàn)學(xué)習(xí)不穩(wěn)定、 不可控等問(wèn)題。 從表征學(xué)習(xí)角度看,GAN 的生成器在輸入噪聲信號(hào)z時(shí)沒(méi)有增加任何限制, 而是以一種高度混合的方式使用,導(dǎo)致z的任何一個(gè)維度均沒(méi)有明確的特征表示[13]。因此,在數(shù)據(jù)生成中, 無(wú)法得知什么樣的噪聲信號(hào)可以用來(lái)生成什么樣的數(shù)據(jù)。
為了彌補(bǔ)上述GAN 模型的弊端,Chen等[14]提出了InfoGAN模型, 結(jié)構(gòu)如圖3所示。
圖3 InfoGAN模型結(jié)構(gòu)Fig.3 Model structure of InfoGAN
將輸入的噪聲信號(hào)分解為不可壓縮的隨機(jī)噪聲z和可解釋的隱含變量c以表示數(shù)據(jù)的潛在特征。 以MNIST手寫數(shù)字?jǐn)?shù)據(jù)集為例, 隱變量c包含離散部分和連續(xù)部分, 離散部分取值為0~9的隨機(jī)變量(表示數(shù)字), 連續(xù)部分包含2個(gè)連續(xù)型的隨機(jī)變量(分別表示傾斜度和粗細(xì)度)。InfoGAN的核心思想是最大化輸入噪聲變量的固定子集與觀測(cè)值之間的互信息, 從而使其與觀測(cè)值之間產(chǎn)生因果關(guān)系, 當(dāng)因果關(guān)系達(dá)到一定程度時(shí),固定子集就可以“控制”生成觀測(cè)值中的重要特征。
近幾年, 注意力機(jī)制被廣泛使用在自然語(yǔ)言處理、 計(jì)算機(jī)視覺(jué)、 語(yǔ)音識(shí)別等各種不同類型的任務(wù)中, 是深度學(xué)習(xí)技術(shù)最值得關(guān)注與深入了解的核心技術(shù)之一[15]。 注意力模型能夠?qū)崿F(xiàn)信息處理資源的高效分配[16], 例如, 當(dāng)神經(jīng)網(wǎng)絡(luò)模型需要尋找圖片中的小狗信息時(shí), 會(huì)更多注意符合小狗特征的主要區(qū)域, 而忽略其他不相關(guān)的次要區(qū)域, 如圖4所示。注意力機(jī)制以高權(quán)重聚焦重要信息, 以低權(quán)重忽略無(wú)關(guān)信息, 并且據(jù)此不斷調(diào)整權(quán)重, 使其在不同的情況下也可以選取重要的信息。 因此, 注意力機(jī)制具有更高的可擴(kuò)展性和魯棒性[17]。
圖4 注意力機(jī)制Fig.4 Attention mechanism
注意力機(jī)制早在20世紀(jì)90年代就已經(jīng)被提出[18], 研究者們不斷分析比較注意力機(jī)制的應(yīng)用領(lǐng)域, 一直以提高效率且克服CNN、RNN等算法的局限性為目的進(jìn)行探索, 嘗試提出新的算法結(jié)構(gòu)。2017年,Google團(tuán)隊(duì)提出了基于自注意力機(jī)制的Transformer[19]模型, 首次拋棄以往Encoder-Decoder必須結(jié)合RNN 或CNN 的固有模式, 使用自注意力結(jié)構(gòu)完全替代LSTM 網(wǎng)絡(luò), 在提高并行率的同時(shí)取得了非常亮眼的成績(jī)。 隨后提出的 Transformer 改進(jìn)模型如 GPT[20],BERT[21]等更是力壓RNN 經(jīng)典模型橫掃自然語(yǔ)言處理榜單, 使得注意力機(jī)制得到真正成功的應(yīng)用, 成為NLP領(lǐng)域的主流模型[22]。 與此同時(shí), 計(jì)算機(jī)視覺(jué)領(lǐng)域也借鑒Transformer的思想相繼提出DETR[23],ViT[24],IPT[24]等自注意力模型,將各大圖像任務(wù)的成績(jī)推向新一輪高峰, 迎來(lái)了各學(xué)界對(duì)Transformer的研究狂潮。
Transformer模型由編碼器和譯碼器構(gòu)成, 編碼器負(fù)責(zé)把輸入序列進(jìn)行位置編碼后映射為隱藏層, 然后解碼器再把隱藏層映射為輸出序列, 如圖5所示。 編碼器分為4個(gè)部分, 第1部分將輸入數(shù)據(jù)轉(zhuǎn)換為向量, 并對(duì)其進(jìn)行位置編碼, 記錄數(shù)據(jù)之間順序的相關(guān)性, 具體操作如式(2)所示。 相較于RNN的順序輸入,Transformer無(wú)需將數(shù)據(jù)一一輸入, 而是直接并行送入, 并存儲(chǔ)好數(shù)據(jù)之間的位置關(guān)系, 大大提高了計(jì)算速度, 減少了存儲(chǔ)空間。
圖5 Transformer模型結(jié)構(gòu)[19]Fig.5 Model structure of Transformer[19]
第2部分是Multi-Head Attention, 其計(jì)算以縮放點(diǎn)積注意力為基礎(chǔ), 對(duì)輸入的Query,Key,Value做如式(3)的操作, 獲取數(shù)據(jù)內(nèi)部之間的相關(guān)性, 彌補(bǔ)了CNN方法中數(shù)據(jù)缺少關(guān)聯(lián)性的缺點(diǎn)。
第3部分是Add&Norm, 即殘差連接和層歸一化。 神經(jīng)網(wǎng)絡(luò)在映射關(guān)系的轉(zhuǎn)換過(guò)程中, 往往存在計(jì)算產(chǎn)生的殘差, 而殘差的存在會(huì)隨著網(wǎng)絡(luò)層數(shù)的增加越來(lái)越不精確, 因此, 通過(guò)第3部分的Add&Norm 可以有效提高模型的學(xué)習(xí)能力, 加快收斂速度。
第4部分是由2個(gè)全連接層組成的Feed Forward, 將學(xué)習(xí)得到的數(shù)據(jù)進(jìn)行非線性映射, 如式(4)所示, 增大強(qiáng)的部分, 減小弱的部分, 最后進(jìn)行標(biāo)準(zhǔn)化, 使學(xué)習(xí)結(jié)果更加精準(zhǔn)和具有代表性。
2016年,Olaf Ronneberger等[25]針對(duì)醫(yī)學(xué)圖像分割任務(wù)提出了U-Net結(jié)構(gòu), 采用長(zhǎng)短跳躍連接將網(wǎng)絡(luò)的第i層拼接到第n-i層, 將淺層卷積核提取的局部特征通過(guò)Channel維度連接到深層卷積核提取的抽象特征中, 使神經(jīng)網(wǎng)絡(luò)可以同時(shí)學(xué)習(xí)到高級(jí)和低級(jí)特征, 極大改善了模型生成數(shù)據(jù)的效果, 且在醫(yī)學(xué)圖像這種小規(guī)模數(shù)據(jù)集中表現(xiàn)非常突出。
2021年,Chen等[26]將風(fēng)靡學(xué)術(shù)界的Transformer與U-Net相結(jié)合, 提出TransUNet模型,結(jié)構(gòu)如圖6所示, 該模型兼具Transformer和UNet的優(yōu)點(diǎn), 同時(shí)克服了CNN 處理遠(yuǎn)距離關(guān)系的局限性, 又能很好的彌補(bǔ)Transformer只專注于全局而缺失詳細(xì)定位信息的精確特征。
圖6 TransUNet模型結(jié)構(gòu)[25]Fig.6 Model structure of TransUNet[25]
過(guò)載信號(hào)雖然是一維序列, 但與NLP領(lǐng)域中的數(shù)據(jù)在輸入長(zhǎng)度方面有極大差別, 這是因?yàn)檫^(guò)載信號(hào)的長(zhǎng)度通常在6 000以上, 而自然語(yǔ)言處理的數(shù)據(jù)集為單詞或句子, 一般不會(huì)超過(guò)1 000。 因此, 不能簡(jiǎn)單移植NLP領(lǐng)域中表現(xiàn)非凡的Transformer模型, 否則會(huì)因序列過(guò)長(zhǎng)而產(chǎn)生爆炸性的計(jì)算成本。 另一方面, 過(guò)載信號(hào)與CV領(lǐng)域的數(shù)據(jù)在長(zhǎng)度方面有所相似, 但在維度方面又有較大差異, 也無(wú)法直接使用圖像任務(wù)的處理方法。 因此,本文針對(duì)侵徹多層過(guò)載信號(hào)的特殊屬性設(shè)計(jì)生成器, 如圖7所示, 該生成器借鑒TransUNet架構(gòu),由4組上/下采樣模塊和1組深度特征提取模塊構(gòu)成。 其中, 下采樣模塊包含3個(gè)卷積層, 前2個(gè)卷積層步幅為1, 用于提取樣本的細(xì)節(jié)特征, 增強(qiáng)生成數(shù)據(jù)的細(xì)膩程度, 第3個(gè)卷積層步幅為2, 將數(shù)據(jù)壓縮為原始尺寸的一半, 擴(kuò)大網(wǎng)絡(luò)感知域, 用于提取更加抽象的高級(jí)特征, 容忍某些特征的微小位移, 實(shí)現(xiàn)尺度不變性, 提高網(wǎng)絡(luò)的泛化能力。模塊中每層卷積核大小均為3×3, 使用Same填充, 在每個(gè)卷積層后添加Batch Normalization批標(biāo)準(zhǔn)化操作, 加速模型的收斂速度, 同時(shí)加入Dropout, 增加生成數(shù)據(jù)的隨機(jī)性與多樣化, 使用LeakyReLU 函數(shù)激活。
圖7 生成器模型Fig.7 Generator mode
下采樣結(jié)束后, 數(shù)據(jù)將被送入深度特征提取模塊, 結(jié)構(gòu)如圖8所示。 二維數(shù)據(jù)首先進(jìn)入Flatten層線性映射為一維序列, 然后與可學(xué)習(xí)的位置編碼相融合, 接著通過(guò)3個(gè)Transformer Encoder進(jìn)行深度特征學(xué)習(xí)。 其中,Transformer Encoder由Multi-Head Attention模塊和MLP模塊交替構(gòu)成, 每個(gè)模塊之前使用層歸一化(Layer Norm)避免梯度消失或爆炸, 每個(gè)模塊之后使用Dropout和殘差連接, 加強(qiáng)特征之間的傳遞。
圖8 深度特征提取模塊Fig.8 Depth feature extraction modul
深度特征提取結(jié)束后,數(shù)據(jù)最終被送入上采樣模塊, 其結(jié)構(gòu)與下采樣模塊相似, 不同之處在于上采樣模塊的第3層為轉(zhuǎn)置卷積層, 用于恢復(fù)特征圖尺寸。 區(qū)別于二維圖像生成任務(wù), 過(guò)載數(shù)據(jù)的生成樣本是一維向量, 因此, 生成器的輸出層為全連接層, 將卷積層輸出的三維數(shù)據(jù)重塑為8 192×1的一維序列, 并使用Tanh函數(shù)激活。 最后, 將尺寸相同的下采樣模塊和上采樣模塊進(jìn)行跳躍連接, 共享不同層之間學(xué)習(xí)到的特征信息。
判別器作為鑒別數(shù)據(jù)真假的二分類器, 不像生成器那樣精細(xì), 因此, 使用較為簡(jiǎn)單的注意力機(jī)制以降低生成對(duì)抗式網(wǎng)絡(luò)的整體復(fù)雜度。 判別器結(jié)構(gòu)如圖9所示, 參考Transformer模型并做了一些簡(jiǎn)化, 其中,Attention模塊使用縮放點(diǎn)積注意力。
圖9 判別器模型Fig.9 Discriminator model
式中:Pr為真實(shí)過(guò)載信號(hào)的概率分布;Pg為生成過(guò)載信號(hào)的概率分布;Π(Pr,Pg)為Pr與Pg聯(lián)合概率分布的集合;γ(x,y)為在Pr中出現(xiàn)x的同時(shí)在Pg中出現(xiàn)y的概率。 在這個(gè)聯(lián)合分布下可以求得所有x與y距離的期望E, 存在某個(gè)聯(lián)合分布使該期望最小, 而這個(gè)期望的下確界(infimum)就是真實(shí)過(guò)載信號(hào)與生成過(guò)載信號(hào)的最優(yōu)Wasserstein距離。 為使神經(jīng)網(wǎng)絡(luò)模型可以優(yōu)化迭代到最優(yōu)Wasserstein距離,WGAN-GP 損失采用梯度懲罰方法, 只要梯度的范式大于1就會(huì)產(chǎn)生損失,
對(duì)于上述懲罰項(xiàng)中的采樣分布P^x,其范圍是真實(shí)過(guò)載信號(hào)概率分布中間的分布。 具體操作為對(duì)真實(shí)過(guò)載信號(hào)分布和生成過(guò)載信號(hào)分布各進(jìn)行1次采樣, 然后在這2個(gè)采樣點(diǎn)的連線處再做1次隨機(jī)采樣得到懲罰項(xiàng)Lgp。
本文使用靶場(chǎng)實(shí)測(cè)侵徹彈穿透2層~14層硬目標(biāo)的加速度信號(hào)作為數(shù)據(jù)集, 單個(gè)樣本為8 192×1的序列, 標(biāo)簽共12個(gè), 分別對(duì)應(yīng)上述的12種層數(shù)。
由于不同工況下不同靶板的過(guò)載幅值差別很大, 若直接使用原始數(shù)據(jù)訓(xùn)練可能導(dǎo)致模型在學(xué)習(xí)過(guò)程中出現(xiàn)不穩(wěn)定、 不收斂等問(wèn)題, 因此, 本文首先對(duì)每個(gè)過(guò)載數(shù)據(jù)做均衡預(yù)處理
本文使用Py Torch平臺(tái)進(jìn)行訓(xùn)練與測(cè)試, 將隨機(jī)噪聲輸入生成器, 通過(guò)下采樣壓縮維度, 減少過(guò)載信號(hào)超長(zhǎng)序列的計(jì)算量。 然后對(duì)其進(jìn)行深度特征提取, 再利用上采樣逐步恢復(fù)原始序列長(zhǎng)度, 生成侵徹多層過(guò)載數(shù)據(jù), 將該生成數(shù)據(jù)與經(jīng)過(guò)均衡和歸一化處理的真實(shí)過(guò)載信號(hào)同時(shí)輸入判別器, 輸出真假判別。 使用WGAN-GP損失計(jì)算Wasserstein距離, 將生成過(guò)載信號(hào)與真實(shí)過(guò)載信號(hào)的相似程度反饋給生成器, 實(shí)現(xiàn)生成器與判別器的相互迭代優(yōu)化。 每次訓(xùn)練結(jié)束后, 調(diào)整模型的超參數(shù), 優(yōu)化算法, 實(shí)驗(yàn)確定最優(yōu)值, 并在此基礎(chǔ)上嘗試不同重復(fù)次數(shù)的跳躍連接與卷積核個(gè)數(shù),尋找最適合生成侵徹過(guò)載數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。
訓(xùn)練結(jié)束后確定的超參數(shù)如表1所示, 其中G和D前綴分別表示生成器和判別器,initial_learning_rate、decay_steps、decay_rate為指數(shù)衰減學(xué)習(xí)速率的初始學(xué)習(xí)速率、 衰減步長(zhǎng)和衰減速率。
表1 超參數(shù)設(shè)置Tab.1 Hyperparameter setting
過(guò)載信號(hào)生成結(jié)果如圖10所示, 出于保密性考慮, 本節(jié)過(guò)載信號(hào)的生成效果與4.3驗(yàn)證分析僅以三層過(guò)載信號(hào)為例進(jìn)行展示, 均經(jīng)過(guò)歸一化處理, 且不標(biāo)注具體速度, 而是分為低速、 中速和高速3種描述。
圖10 過(guò)載信號(hào)生成結(jié)果Fig.10 Overload signal generation results
過(guò)載信號(hào)的本質(zhì)是減加速度信號(hào), 對(duì)過(guò)載進(jìn)行一次積分運(yùn)算便得到速度變化曲線, 如圖11所示。 通過(guò)對(duì)比可以看出生成信號(hào)與真實(shí)信號(hào)的速度隨時(shí)間變化趨勢(shì)一致, 且在細(xì)節(jié)處又各有不同,在保證有效性的同時(shí)豐富了過(guò)載信號(hào)的多樣性。
圖11 速度變化曲線Fig.11 Velocity curve
歸一化相關(guān)系數(shù)主要用于描述2個(gè)波形之間的相似程度, 定義如式(9)所示,
歸一化相關(guān)系數(shù)的取值范圍為-1≤ρ≤1,當(dāng)信號(hào)與自身進(jìn)行相關(guān)計(jì)算時(shí)值為1。對(duì)生成信號(hào)與真實(shí)信號(hào)速度曲線的相關(guān)性進(jìn)行定量分析, 結(jié)果如表2所示, 可以看到兩者相關(guān)系數(shù)均在0.9以上, 呈高度正相關(guān)。
表2 生成信號(hào)與真實(shí)信號(hào)速度曲線的相關(guān)系數(shù)Tab.2 Correlation coefficientbetween generated signal and real signal velocity curve
過(guò)載信號(hào)作為隨機(jī)振動(dòng)信號(hào)在時(shí)域內(nèi)的波形千變?nèi)f化, 但在頻域范圍內(nèi), 其主要頻率組成是相對(duì)穩(wěn)定的。 針對(duì)時(shí)域信號(hào)使用快速傅里葉變換(FFT)得到生成信號(hào)與真實(shí)信號(hào)的頻譜圖, 如圖12所示, 通過(guò)對(duì)比可以看出, 生成信號(hào)與真實(shí)信號(hào)的頻譜波形相似, 優(yōu)勢(shì)頻率均分布在0~0.1區(qū)間內(nèi), 符合過(guò)載信號(hào)的頻域特性。 另外, 侵徹計(jì)層算法需要實(shí)時(shí)處理過(guò)載數(shù)據(jù), 而生成信號(hào)與真實(shí)信號(hào)頻點(diǎn)間隔的一致性可以保證生成過(guò)載信號(hào)在侵徹過(guò)程未結(jié)束時(shí)其特征與真實(shí)過(guò)載信號(hào)的特征一致, 如表3所示(表中數(shù)據(jù)均經(jīng)過(guò)歸一化處理), 其中, 頻點(diǎn)間隔為中心頻率與一次諧波的距離。 可以看出生成信號(hào)與真實(shí)信號(hào)的中心頻率偏差范圍僅為±0.001, 一次諧波的偏差范圍為±0.005, 頻點(diǎn)間隔偏差范圍為±0.005。 因此, 生成過(guò)載信號(hào)無(wú)論是用于侵徹計(jì)層算法的實(shí)時(shí)處理還是事后分析都可以保證其有效性。
表3 生成信號(hào)與真實(shí)信號(hào)的主要頻率成分Tab.3 Main frequency components of generated signal and real signal
圖12 生成信號(hào)與真實(shí)信號(hào)的頻譜Fig.12 Spectrum of generated signal and real signal
本文針對(duì)侵徹多層過(guò)載數(shù)據(jù)量不足的問(wèn)題,結(jié)合InfoGAN模型, 提出基于TransUnet的侵徹多層過(guò)載信號(hào)生成方法。 對(duì)于過(guò)載數(shù)據(jù)這種超長(zhǎng)序列的特殊屬性, 生成器使用Transformer Encoder和U-Net的融合結(jié)構(gòu), 使模型具有強(qiáng)大的特征提取和信息共享的能力, 且在過(guò)載信號(hào)這類小規(guī)模數(shù)據(jù)集中表現(xiàn)優(yōu)異。 判別器使用較為簡(jiǎn)單的注意力模型, 以降低整體模型的復(fù)雜度。 最后分析驗(yàn)證了生成過(guò)載信號(hào)在不同速度與不同層數(shù)的有效性, 可在一定程度上為解決侵徹多層過(guò)載信號(hào)的缺乏問(wèn)題提供新的啟示。