摘 要:針對深度卷積神經(jīng)網(wǎng)絡(luò)模型因復(fù)雜度高導致嵌入式設(shè)備難以實現(xiàn)在線檢測的問題,提出改進的YOLOv4的風力機葉片損傷檢測方法。首先使用MobileNetv3 網(wǎng)絡(luò)代替YOLOv4 中的CSPdarknet53 主干特征提取網(wǎng)絡(luò)進行特征提取,并將相同shape的特征層進行加強特征提??;其次在加強特征提取網(wǎng)絡(luò)上添加注意力機制ECA,并對YOLOv4的邊界框損失函數(shù)與分類損失函數(shù)進行優(yōu)化;最后,將改進前后的算法與其他檢測算法進行比較。結(jié)果表明:改進的YOLOv4算法的檢測速度可達單張檢測時間為0.018 s,檢測準確率達到95.7%,通過對YOLOv4網(wǎng)絡(luò)進行改進,在保證檢測準確的前提下,輕量化的模型可滿足嵌入式設(shè)備檢測風力機葉片損傷的需求。
關(guān)鍵詞:風力機;葉片;損傷檢測;深度學習;YOLOv4
中圖分類號:TK83 文獻標志碼:A
0 引 言
隨著風力發(fā)電設(shè)備越發(fā)普遍,其運行的狀態(tài)監(jiān)測和安全維護工作也越來越受到關(guān)注[1]。風力發(fā)電機通常安裝在海洋、沙漠等風力資源豐富地區(qū),因此風力機葉片通常暴露在惡劣多變的環(huán)境中,極易發(fā)生故障和損壞。為保證風力機葉片的正常運行,對于風力機葉片的損傷檢測越來越受到重視。隨著無人機技術(shù)的發(fā)展,計算機視覺在風力機葉片檢測的應(yīng)用成為可能。利用無人機獲取風力機葉片的圖像信息,并對獲取的圖像進行算法識別,可快速有效地標記出葉片損傷位置。
風力機葉片在連續(xù)運行狀態(tài)下可能受到比如雷擊[2]、積冰[3]、強風[4]、強降雨、葉片材料本身的強度不足、制造和安裝過程中產(chǎn)生的失誤等多種形式的損傷[5],葉片的損傷會導致效率損失、發(fā)電量降低、葉片壽命縮短[6],同時也極易引發(fā)安全事故。雷擊、強風、積冰等極端的環(huán)境因素所引發(fā)的葉片損傷占總損傷的76%[7]。其中,雷擊會造成葉片表面的損傷,如葉尖損壞、葉片表皮脫落;強風會導致葉片斷裂或失效;積冰會導致葉片在旋轉(zhuǎn)過程中周圍流場發(fā)生變化,降低葉片的空氣動力特征,增加葉片疲勞和安全風險[8]。通過上述分析可知,葉片損傷主要分為5 類,即:葉片斷裂、葉片外部裂紋、葉尖損壞、葉片外表皮脫落和葉片覆冰。其中葉片外部裂紋和表皮脫落是常見的損傷類型[9],若葉片出現(xiàn)外部裂紋時未得到及時檢修,隨著裂紋的迅速擴展,甚至會引起整個葉片的斷裂。
近幾年,深度學習算法進展迅速,尤其在目標檢測領(lǐng)域得到了廣泛應(yīng)用,利用深度學習檢測目標一般分為雙階段檢測算法和單階段檢測算法,雙階段檢測算法中具有代表性的有R-CNN[10]、Faster R-CNN[11]和Mask R-CNN[12]等,這類算法在圖像識別方面具有較高的準確性和可靠性,但是由于其網(wǎng)絡(luò)層數(shù)較深、計算量較大,因此難以滿足嵌入式設(shè)備在線檢測的要求,單階段檢測算法中具有代表性的有CenterNet[13]、YOLO[14]、RetinaNet[15],這些算法由于結(jié)構(gòu)簡單,因此具有更快的檢測速度,但在準確性和魯棒性上尚有較大的提升空間。
基于上述兩類檢測算法特點和風力機葉片損傷檢測中對準確率與速度的要求,本文采用YOLOv4 網(wǎng)絡(luò)為主體,通過與MobileNetv3 網(wǎng)絡(luò)替換的方式,簡化算法從而提高檢測速度、降低模型大小。同時在YOLOv4 網(wǎng)絡(luò)模型的3 個有效特征層與上采樣后的結(jié)果增加注意力機制,并融合Focal loss分類損失函數(shù)與SIoU 邊界框損失函數(shù),提升檢測精準度,滿足嵌入式設(shè)備在線檢測的需求。最后,使用相同數(shù)據(jù)集與訓練參數(shù),對改進后的檢測算法與其他檢測算法進行分析比較,以期為風力機葉片損傷算法的輕量化提供技術(shù)理論參考。
1 改進的YOLOv4 模型
1.1 主干特征提取網(wǎng)絡(luò)的替換
MobileNet 模型是Google 針對嵌入式設(shè)備提出的一種輕量級的深層神經(jīng)網(wǎng)絡(luò)。其中MobileNetv3[16]作為輕量級神經(jīng)網(wǎng)絡(luò)的目標檢測方法,主要由4 部分組成,分別為:線性瓶頸的逆殘差結(jié)構(gòu)、深度可分離卷積、輕量級注意力模型和h-swish 激活函數(shù)。如圖1 所示,在MobileNetv3 網(wǎng)絡(luò)結(jié)構(gòu)中,先由逆殘差結(jié)構(gòu)利用1×1 卷積進行升維,并使用殘差邊將輸入與輸出直接相連,提高非線性通道變化的表達能力,在對1×1 卷積進行升維后再進行3×3 深度可分離卷積進行特征提取,然后對其進行1×1 卷積降維。因此使用該主干特征提取網(wǎng)絡(luò)不僅可減少計算量,還能提高算法的推理性能。
1.2 注意力機制的添加
隨著近年來注意力機制在視覺檢測領(lǐng)域中的大規(guī)模應(yīng)用,為深度神經(jīng)網(wǎng)絡(luò)帶來了可觀的性能提升,注意力機制有多種多樣的實現(xiàn)形式,但每一種注意力機制的核心都是類似的,即通過對有用的特征信息進行增強和對無用的信息進行抑制來提升模型檢測的精確度。高效通道注意力機制efficient channel attention,ECA[17]相較于其他注意力機制模塊具有良好的跨通道信息獲取能力,ECA 注意力機制結(jié)構(gòu)如圖2 所示。
在ECA 模塊中,首先輸入維度為H×W×C 的特征圖,其次在空間維度,使用全局平均池化(global average poding,GAP)對輸入的特征圖像進行壓縮,得到1×1×C 的特征圖。然后對壓縮后的特征圖使用1×1 的卷積進行通道特征學習,輸出維度仍然為1×1×C 的特征圖,最后通過通道注意力結(jié)合,將1×1×C 的特征圖與原始特征圖H ×W ×C 進行通道相乘,通過提前對通道進行識別并分配權(quán)重,提升有效特征通道的權(quán)重。
1.3 邊界框損失函數(shù)的改進
YOLO 系列算法中損失函數(shù)的目標框與預(yù)測框位置損失(IoU)也可稱為邊界框損失函數(shù),其定義為目標檢測中真實框和預(yù)測框的交并比。在IoU 邊界框損失函數(shù)中存在兩個缺點,一是無法反映重合度,當IoU=0 時,無法反映兩個框之間的間距;二是無法區(qū)分兩者相交的情況,假設(shè)兩種情況中IoU值相等,無法反映兩者中回歸效果。針對該情況,本文引進一種新的邊界框函數(shù)SIoU[18], SIoU 損失函數(shù)計算式為:
式中:∧——角度損失;Δ——距離損失,且γ =2-∧;Ω——形狀損失。
SIoU 邊界框損失函數(shù)中引入兩框之間的向量角度,重新定義了邊界框損失函數(shù),有效減少了損失的總自由度,提高了網(wǎng)絡(luò)的準確性。
1.4 分類損失函數(shù)的改進
Focal loss 函數(shù)[15]是一種損失計算方案,其核心思想是控制正負樣本和難易分類樣本的權(quán)重,本文在YOLOv4 分類損失函數(shù)交叉熵Pt 中引入該方案,首先在Pt 前增加一個系數(shù)αt,當標簽=1 時αt =α,當標簽≠1 時αt =1-α,其中α ∈[0,1],通過設(shè)置α 的大小實現(xiàn)控制正負樣本對損失函數(shù)的貢獻;其次通過式(5)計算樣本屬于易分類或難分類。式(5)中(1-pt )γ是每個樣本的容易區(qū)分程度,γ 為調(diào)制系數(shù),當γ =0 時為傳統(tǒng)的交叉熵函數(shù),通過調(diào)整γ 實現(xiàn)調(diào)制系數(shù)的改變。將兩者進行合并后可通過式(6)實現(xiàn)控制正負樣本的權(quán)重和控制易分類和難分類樣本的權(quán)重。本文設(shè)置αt =0.25,γ =2。
FL( pt )=-(1-pt )γ ln ( pt ) (5)
FL( pt )=-αt (1-pt )γ ln ( pt ) (6)
1.5 改進后的YOLOv4 模型結(jié)構(gòu)
YOLOv4[19]是一種單階段檢測算法,網(wǎng)絡(luò)結(jié)構(gòu)包括主干特征提取網(wǎng)絡(luò)(CSPdarknet53);加強特征提取網(wǎng)絡(luò)(SPP)、(PANet)和預(yù)測網(wǎng)絡(luò)(Yolo Head)改進后的YOLOv4 用MobileNetv3 替換YOLOv4 網(wǎng)絡(luò)結(jié)構(gòu)中的CSPdarknet53 網(wǎng)絡(luò),并在主干特征提取網(wǎng)絡(luò)提取出來的3 個有效特征層和上采樣后的結(jié)果中添加了ECA 注意力機制。在改進的YOLOv4 網(wǎng)絡(luò)中SPP 與PANet 都屬于特征金字塔部分。SPP 負責使用尺寸為13×13、9×9、5×5、1×1(1×1 即無處理)的池化核對主干提取網(wǎng)絡(luò)的最后一個特征層進行卷積使輸出的新特征層極大地增加感受野,分離出最顯著的特征。PANet 則是對主干特征提取網(wǎng)絡(luò)MobileNetv3 的特征提取結(jié)果反復(fù)提升特征。改進的YOLOv4 整體算法結(jié)構(gòu)如圖3所示。
2 實驗過程及結(jié)果與分析
2.1 數(shù)據(jù)集建立
目標檢測模型的精度在一定程度上會受到數(shù)據(jù)集質(zhì)量的影響。楊聰?shù)龋?0]在2022 年底公開了一項風力機葉片損傷數(shù)據(jù)集Blade30,該數(shù)據(jù)集集合了30 種不同葉片的圖像數(shù)據(jù),且為保證數(shù)據(jù)的的多樣性,數(shù)據(jù)集采集自海洋、沙漠、草原和丘陵地形的不同風電場,并使用了不同類型的無人機以及各種分辨率和照明條件,以模擬現(xiàn)實世界的條件,有利于算法的訓練。通過對該數(shù)據(jù)集進行篩選,共收集到261 張有效圖像。選取收集圖像中的8 種特征進行數(shù)據(jù)集制作,分別為表面污染(contamination)、渦流發(fā)生器(VG)、標記(mark)、侵蝕(erosion)、雷電防護裝置(LPS)、涂層損傷(coatingdamage)、鋸齒板(serration)和裂紋(crack)。使用Labelimg 工具標注收集到的葉片特征圖像(見圖4)。
標注內(nèi)容為不同特征的矩形框坐標,標注后的圖片保存為JPG 格式,分辨率為416×416,標注文件格式為xml,通過轉(zhuǎn)換可將標注文件轉(zhuǎn)換為YOLOv4 網(wǎng)絡(luò)模型訓練需用的txt 格式。
2.2 數(shù)據(jù)增強
由于小樣本數(shù)據(jù)集在深度學習網(wǎng)絡(luò)模型訓練時易陷入過擬合狀態(tài),采用mixup 數(shù)據(jù)增強方法如圖5 所示,通過對兩張原始圖像(圖5a 和圖5b)分別進行翻轉(zhuǎn)、縮放、色域變化等圖像增強,然后按比例進行混合(如圖5c)。將數(shù)據(jù)集擴張到1091 張,其中原始數(shù)據(jù)集為261 張,增強數(shù)據(jù)集為830 張,提升網(wǎng)絡(luò)模型的泛化性。使用mixup 數(shù)據(jù)增強方法獲取的增強數(shù)據(jù)因為具有一定相似性,若在測試集和驗證集中使用會引起區(qū)分能力下降,因此在261 張原始數(shù)據(jù)集中按(訓練集+驗證集)與測試集的數(shù)量比為9∶1,訓練集:驗證集=9∶1 的比例首先劃分出原始數(shù)據(jù)的訓練集、驗證集和測試集,通過刪除原始訓練集并在添加增強數(shù)據(jù)集后(1091 張數(shù)據(jù))按相同比例劃分出訓練集,獲得原始數(shù)據(jù)驗證集、測試集和(增強數(shù)據(jù)+原始數(shù)據(jù)集)訓練集。
2.3 實驗環(huán)境與訓練過程
本文實驗平臺為自主搭配服務(wù)器,操作系統(tǒng)為64 位Windows10,處理器為Intel core i9-10900@2080GHz CPU,32 GB 運行內(nèi)存,NVIDIA GeForce RTX 2060 GPU 6 GB 顯存。利用Python 語言編寫代碼程序,開發(fā)環(huán)境為Pytorch1.9.0,CUDA11.1,Python3.6。
訓練過程采用遷移學習思想,通過將ImageNet 上預(yù)訓練好MobileNetv3 的權(quán)重模型中的通用特征學習權(quán)重遷移給本文訓練模型,提升模型訓練的效果并縮短訓練時間。具體來說,該方法主要分為預(yù)訓練和凍結(jié)、解凍訓練兩個階段。在前50 個世代(Epoch)中,將預(yù)訓練權(quán)重應(yīng)用到本文模型的主干部分進行凍結(jié)訓練,使用初始權(quán)重對網(wǎng)絡(luò)進行微調(diào),在50個Epoch 之后進行解凍操作,此時整個網(wǎng)絡(luò)的所有參數(shù)均會發(fā)生改變,以適應(yīng)目標任務(wù)的需要。這種方法可充分利用預(yù)訓練模型的優(yōu)勢,在較短時間內(nèi)得到更好的訓練效果。
為進一步提升網(wǎng)絡(luò)訓練效果,采用SGD(stochasticgradient descent)優(yōu)化器進行參數(shù)優(yōu)化,通過控制模型的學習速度使得到的參數(shù)較為平穩(wěn),文中SGD 動量設(shè)置為0.937。
最大學習率為0.01,最小學習率為0.0001,訓練世代為2000,在前50 代凍結(jié)訓練中batch size 設(shè)置為8,解凍后batch 設(shè)置為4,并在每10 個世代后進行評估并保存權(quán)值,訓練整體流程如圖6 所示。
2.4 模型評估標準
訓練模型可采用mAP 表示檢測精度,F(xiàn)PS 表示檢測速度。mAP 主要通過AP 目標類別均值、精確率P 與召回率R計算得出,(如式(7)~式(10)所示),其中AP 表示P 指標對R指標的積分,Tp 表示正確識別出特征的數(shù)量,F(xiàn)p 表示錯誤識別出特征的數(shù)量,F(xiàn)n 表示未識別出特征的數(shù)量,在本文中設(shè)定mAP 閾值為0.5,表示邊界框損失函數(shù)SIoU 大于或等于該值時檢測框就會被記為Tp,反之記為Fp,N 為類別。
P = Tp/Fp +Tp(7)
2.5 結(jié)果分析
為有效分析改進后的YOLOv4 網(wǎng)絡(luò)模型性能,本文使用相同數(shù)據(jù)集和相同的訓練參數(shù)與訓練方式,對原始YOLOv4網(wǎng)絡(luò)和改進后的YOLOv4 網(wǎng)絡(luò)進行訓練,并將改進后的YOLOv4 網(wǎng)絡(luò)模型與原始YOLOv4 網(wǎng)絡(luò)模型的mAP 曲線繪制在同一坐標系中。如圖7 所示,mAP 值越大表明檢測的準確率越高,網(wǎng)絡(luò)性能越好。從圖7 中可看出,改進后的風力機葉片損傷檢測模型在訓練到1700 世代后逐漸趨于穩(wěn)定,mAP 最高達到95.7%,而原始YOLOv4 模型在訓練到2000世代時mAP 仍出現(xiàn)較大波動,且最高值僅為87.8%。
在網(wǎng)絡(luò)模型的訓練過程中,損失函數(shù)可直觀地反映出隨著網(wǎng)絡(luò)模型的不斷訓練是否穩(wěn)定收斂,改進的YOLOv4 網(wǎng)絡(luò)模型訓練損失函數(shù)值與驗證損失函數(shù)值曲線如圖8 所示。結(jié)果表明,改進后的YOLOv4 網(wǎng)絡(luò)模型最低損失值可收斂至0.03 以下,且無過擬合現(xiàn)象。
分析表1 可知,相較于CenterNet、Faster R-CNN、YOLOv3、YOLOv4-tiny 與原始YOLOv4 網(wǎng)絡(luò)模型,改進后的YOLOv4模型的檢測精度提高了2%、34%、14.1%、10.4%,7.9%,表明本文提出的改進后的YOLOv4 風力機葉片損傷檢測模型的檢測精度最優(yōu)。在單張圖像所需檢測時間方面,改進后的YOLOv4 雖然比YOLOv4-tiny 模型略有增加,但精度提升較大。此外,改進后的YOLOv4 模型總參數(shù)量僅為11.7×106,達到無人機對風力機葉片損傷進行在線檢測的要求。綜上,改進后的YOLOv4 模型相較于CenterNet、Faster R-CNN、YOLOv3、YOLOv4-tiny 與YOLOv4 模型,可較好地滿足無人機嵌入式設(shè)備對風力機葉片損傷檢測輕量化的需求。
2.6 檢測效果
為驗證改進的YOLOv4 網(wǎng)絡(luò)檢測模型可對風力機葉片的損傷進行精準預(yù)測,使用測試集中的風力機葉片圖像進行測試,結(jié)果如圖9 所示。由測試結(jié)果可知,改進的YOLOv4模型可準確識別出不同環(huán)境下不同葉片的不同損傷特征,包括:表面污染、侵蝕、裂紋、涂層損傷;不同環(huán)境下不同葉片的不同本身特征,包括有:雷電防護裝置、鋸齒板、渦流發(fā)生器和、標記。證明模型具有較好的魯棒性和泛化性。
3 結(jié) 論
本文提出一種改進的YOLOv4 風力機葉片損傷檢測網(wǎng)絡(luò)模型,該方法首先使用MobileNetv3 網(wǎng)絡(luò)替換YOLOv4 主干網(wǎng)絡(luò),并在網(wǎng)絡(luò)尾部引入注意力機制,在損失函數(shù)中引入一種SIoU 邊界框損失函數(shù),在分類函數(shù)中引入Focal loss 函數(shù)計算方案,并采取網(wǎng)絡(luò)凍結(jié)、解凍訓練策略對模型參數(shù)進行優(yōu)化。結(jié)果表明改進后的網(wǎng)絡(luò)模型相較于原YOLOv4 網(wǎng)絡(luò)模型精度提升了7.9%,檢測速度提升了1.78 倍,且改進后的模型參數(shù)量僅為11.7×106。
在未來的工作中可將模型進一步優(yōu)化,將其應(yīng)用于嵌入式深度學習平臺,并裝載在無人機中,以實現(xiàn)無人機的風力機葉片在線智能識別。
[參考文獻]
[1] 楊景云, 王文韞, 戴巨川. 基于攝動模態(tài)分析的風電葉片動力學特性研究[J]. 太陽能學報, 2023, 44(11):231-238.
YANG J Y, WANG W Y, DAI J C. Research on dynamiccharacteristics of wind power blades based on perturbationmode analysis[J]. Acta energiae solaris sinica, 2023, 44(11): 231-238.
[2] 文習山, 鄧冶強, 王羽, 等. 風力發(fā)電機葉片雷擊接閃特性研究綜述[J]. 高電壓技術(shù), 2020, 46(7): 2511-2521.
WEN X S, DENG Y Q, WANG Y, et al. Review ofresearch on lightning striking performance of wind turbineblade[J]. High voltage engineering, 2020, 46(7): 2511-2521.
[3] 劉杰, 楊娜, 譚玉濤, 等. 基于WD-LSTM的風電機組葉片結(jié)冰狀態(tài)評測[J]. 太陽能學報, 2022, 43(8):399-408.
LIU J, YANG N, TAN Y T, et al. Assessment of icingstate of wind turbine blades based on WD-LSTM[J]. Actaenergiae solaris sinica, 2022, 43(8): 399-408.
[4] 王雪平, 張建斐, 李萬潤, 等. 基于機器視覺的風電葉片風沙侵蝕程度檢測方法研究[J]. 太陽能學報, 2020,41(5): 166-173.
WANG X P, ZHANG J F, LI W R, et al. Study onmonitoring method of wind power blades erosion severityunder wind-sand storm based on machine vision technology[J]. Acta energiae solaris sinica, 2020, 41(5): 166-173.
[5] 郭迎福, 全偉銘, 王文韞, 等. 基于三維振動信息融合的卷積神經(jīng)網(wǎng)絡(luò)風力機葉片裂紋診斷方法[J]. 光學學報, 2020, 40(22): 2212004.
GUO Y F, QUAN W M, WANG W Y, et al. Crack diagnosis method of wind turbine blade based onconvolution neural network with 3D vibration informationfusion[J]. Acta optica sinica, 2020, 40(22): 2212004.
[6] MENG H, LIEN F S, LI L. Elastic actuator line modellingfor wake-induced fatigue analysis of horizontal axis windturbine blade[J]. Renewable energy, 2018, 116: 423-437.
[7] CHOU J S, CHIU C K, HUANG I K, et al. Failureanalysis of wind turbine blade under critical wind loads[J].Engineering failure analysis, 2013, 27: 99-118.
[8] ACKERMANN T. Wind energy technology and currentstatus: a review[J]. Renewable and sustainable energyreviews, 2000, 4(4): 315-374.
[9] LI D S, HO S C M, SONG G B, et al. A review of damagedetection methods for wind turbine blades[J]. Smartmaterial structures, 2015, 24(3): 033001.
[10] GIRSHICK R, DONAHUE J, DARRELL T, et al. Richfeature hierarchies for accurate object detection andsemantic segmentation[C]//Proceedings of the 2014 IEEEConference on Computer Vision and Pattern Recognition.New York, USA, 2014: 580-587.
[11] REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN:towards real-time object detection with region proposalnetworks[J]. IEEE transactions on pattern analysis andmachine intelligence, 2017, 39(6): 1137-1149.
[12] HE K M, GKIOXARI G, DOLLáR P, et al. Mask R-CNN[C]//2017 IEEE International Conference on ComputerVision( ICCV), Venice, Italy, 2017: 2980-2988.
[13] DUAN K W, BAI S, XIE L X, et al. CenterNet: keypointtriplets for object detection[C]//2019 IEEE/CVFInternational Conference on Computer Vision (ICCV).Seoul, Korea( South), 2019: 6568-6577.
[14] REDMON J, DIVVALA S, GIRSHICK R, et al. You onlylook once: unified, real-time object detection[C]//2016IEEE Conference on Computer Vision and PatternRecognition (CVPR). Las Vegas, NV, USA, 2016:779-788.
[15] LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss fordense object detection[C]//2017 IEEE InternationalConference on Computer Vision (ICCV). Venice, Italy,2017: 2999-3007.
[16] HOWARD A, SANDLER M, CHEN B, et al. Searchingfor MobileNetV3[C]//2019 IEEE/CVF InternationalConference on Computer Vision (ICCV). Seoul, Korea(South), 2019: 1314-1324.
[17] WANG Q L, WU B G, ZHU P F, et al. ECA-net: efficientchannel attention for deep convolutional neural networks[C]//2020 IEEE/CVF Conference on Computer Vision andPattern Recognition (CVPR). Seattle, WA, USA, 2020:11531-11539.
[18] GEVORGYAN Z. SIoU loss: more powerful learning forbounding box regression[J]. arXiv preprint arXiv:2205. 12740, 2022.
[19] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. Yolov4:optimal speed and accuracy of object detection[J]. arXivpreprint arXiv:2004.10934, 2020.
[20] YANG C, LIU X, ZHOU H, et al. Towards accurateimage stitching for drone-based wind turbine bladeinspection[J]. Renewable energy, 2023, 203: 267-279.
基金項目:中央引導地方科技發(fā)展資金項目(2022ZYT012);湖南省自然科學基金區(qū)域聯(lián)合基金(2023JJ50234);湖南省教育廳科學研究項目(22B0465)