摘" 要: 針對現(xiàn)有疲勞駕駛檢測報警不及時、檢測精度不高以及需要人為監(jiān)管的問題,提出一種改進YOLOv5s的疲勞駕駛目標檢測算法。該算法使用輕量的EfficientNet骨干網(wǎng)絡(luò)作為YOLOv5s的主干網(wǎng)絡(luò)來進行特征提取,使模型參數(shù)大幅減少,降低模型的訓(xùn)練時間;同時選用SIoU作為模型的損失函數(shù),優(yōu)化模型損失計算方法,提升模型的檢測精度。結(jié)果表明,優(yōu)化后的YOLOv5s目標檢測算法與原YOLOv5s相比,模型尺寸減少了2%,平均準確率提升了0.9%,能夠有效提升礦用生產(chǎn)車疲勞駕駛目標的檢測效果。
關(guān)鍵詞: 礦用生產(chǎn)車; 疲勞檢測; YOLOv5s; EfficientNet; 損失函數(shù); 特征提取; 遷移學(xué)習(xí); 模型優(yōu)化
中圖分類號: TN911.73?34; TP391.4" " " " " " " " "文獻標識碼: A" " " " " " " " " 文章編號: 1004?373X(2025)07?0126?06
Mining truck driver fatigue detection algorithm based on improved YOLO
DU Wei, NING Wu, MENG Linan, CHEN Yutong
(School of Electronics and Information Engineering, Liaoning University of Technology, Jinzhou 121001, China)
Abstract: The alarms of the existing fatigue driving detections are not timely, the detection accuracy is not high, and the detections are highly dependent on artificial supervision, so a fatigue driving object detection algorithm based on improved YOLOv5s is proposed. In the algorithm, the lightweight EfficientNet backbone network is used as that of YOLOv5s for feature extraction, which reduces the model parameters and the model training time greatly. The SIoU is selected as the loss function of the model to optimize the model loss calculation method and improve the detection accuracy of the model. The results show that the model size of the object detection algorithm based on the optimized YOLOv5s is reduced by 2% and its accuracy rate is improved by 0.9% in comparison with the object detection algorithm based on the original YOLOv5s, so the proposed algorithm can effectively improve the effect of the fatigue driving object detection of mining production vehicles.
Keywords: mine production vehicle; fatigue detection; YOLOv5s; EfficientNet; loss function; feature extraction; transfer learning; model optimization
0" 引" 言
礦山開采過程中,礦用生產(chǎn)車是關(guān)鍵的運輸工具。然而,由于工作環(huán)境的艱苦和單一性,駕駛這些車輛的人員往往容易出現(xiàn)疲勞駕駛行為。盡管已有一些監(jiān)測方法,但常常存在報警不及時和依賴人為監(jiān)管的問題。因此,尋找一種智能、簡化、準確的疲勞駕駛檢測方式具有重要的實際意義[1]。
疲勞駕駛是交通事故的主要誘因之一,為確保交通安全,科研機構(gòu)和企業(yè)近年來對疲勞駕駛檢測方法進行了大量研究。通過攝像頭獲取駕駛員信息[2],根據(jù)眼睛閉合時間[3]、眨眼頻率[4]、頭部傾斜角度[5]等指標判斷駕駛員是否處于疲勞狀態(tài)。
基于上述背景,本文提出一種基于YOLOv5s的礦用生產(chǎn)車駕駛員疲勞駕駛檢測方法,對其進行優(yōu)化,將其主干網(wǎng)絡(luò)替換為EfficientNet[6],采用SIoU作為模型損失函數(shù),旨在提高模型的魯棒性和檢測精度,同時降低對負樣本的依賴。
1" 目標識別算法
1.1" YOLOv5s
YOLOv5s網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,其整個網(wǎng)絡(luò)結(jié)構(gòu)分為主干特征提取網(wǎng)絡(luò)模塊、頸部加強特征提取網(wǎng)絡(luò)模塊、頭部預(yù)測網(wǎng)絡(luò)模塊三部分:主干特征提取網(wǎng)絡(luò)模塊用來獲得三個初步的有效特征層;頸部加強特征提取網(wǎng)絡(luò)模塊用來對三個初步的有效特征層進行特征融合;頭部預(yù)測網(wǎng)絡(luò)模塊用來獲得預(yù)測結(jié)果。
1.2" EfficientNet
EfficientNet是一種深度學(xué)習(xí)模型架構(gòu),主要用于圖像分類任務(wù),其主要貢獻是系統(tǒng)性地研究了網(wǎng)絡(luò)的寬度、深度和分辨率。EfficientNet的研究者發(fā)現(xiàn)[7],相比單一地調(diào)整網(wǎng)絡(luò)的深度、寬度或分辨率,聯(lián)合調(diào)整這三個維度可以更加高效地利用模型參數(shù)。
EfficientNet共有8個不同的網(wǎng)絡(luò)結(jié)構(gòu)[8],EfficientNet?B0被稱為基線網(wǎng)絡(luò),通過基線網(wǎng)絡(luò)進行復(fù)合縮放就可以得到EfficientNet?B1~EfficientNet?B7。復(fù)合縮放指的是對卷積神經(jīng)網(wǎng)絡(luò)的三維用一定的比例進行擴展,以達到尋求最優(yōu)參數(shù)的目的。模型復(fù)合縮放關(guān)系如式(1)所示:
[" " " " "maxd,w,r" AccuracyN(d,w,r)s.t." " N(d,w,r)=⊙i=1,2,…,sFd?Lii(Xr?Hi,r?Wi,w?Ci)" " " " "Memory(N)≤target_memory" " " " nbsp;FLOPs(N)≤target_flops] (1)
式中:[d]為網(wǎng)絡(luò)深度;[w]為網(wǎng)絡(luò)寬度;[r]為分辨率倍率;Memory為存儲程度;FLOPs為浮點運算速率。
復(fù)合縮放使用了固定的規(guī)模參數(shù),并且引入?yún)?shù)[?]以確保深度、寬度和分辨率按照合適的比例進行縮放。這三個維度的縮放公式如式(2)所示:
[" depth:" d=α?" width:" w=β?resolution:" r=γ?s.t." α?β2?γ2≈2" " " α≥1, β≥1,γ≥1]" (2)
式中:[α]為網(wǎng)絡(luò)深度分配系數(shù);[β]為網(wǎng)絡(luò)寬度分配系數(shù);[γ]為分辨率倍率分配系數(shù);[?]為自定義縮放系數(shù)。
EfficientNet?B0的核心結(jié)構(gòu)是和MNASNet以及MobileNet v2類似的倒置瓶頸卷積模塊(MBConv),MBConv主要由一個1×1的卷積進行升維,一個[k×k]([k]主要有3×3和5×5兩種情況)的Depthwise Conv卷積、一個SE模塊,然后接一個1×1的普通卷積進行降維,再加一個Droupout,最后進行特征圖融合。
每個Conv層在卷積后都有BN層,選擇Swish函數(shù)作為激活函數(shù),其表達式如式(3)所示:
[f(x)=x?sigmoid(x)] (3)
式中[x]為輸入。Swish函數(shù)不會梯度飽和,因為沒有上邊界,但是卻擁有下邊界,所以正則化效果更好,可以使訓(xùn)練模型變得更加簡單[9]。
2" YOLOv5s算法改進
為了提高YOLOv5s算法對于礦用生產(chǎn)車駕駛員疲勞駕駛的檢測精度,降低模型的權(quán)重,將YOLOv5s原有的CSPDarkNet53主干網(wǎng)絡(luò)替換為EfficientNet的主干網(wǎng)絡(luò)來達到對圖像特征提取的目的,并且將YOLOv5s原有的CIoU損失函數(shù)替換為SIoU損失函數(shù),SIoU加入了角度損失計算,以此來提高模型精度,加快模型收斂速度。
2.1" 網(wǎng)絡(luò)結(jié)構(gòu)改進
為了優(yōu)化YOLOv5s的算法性能,在權(quán)衡運行環(huán)境及模型大小等原因后,通過比較實驗,最終確定選擇EfficientNet?B4的主干特征提取網(wǎng)絡(luò)來實現(xiàn)特征提取。
EfficientNet?B4擁有14個卷積層、2個池化層和4個全連接層[10]。EfficientNet?B4中共有32個MBConv模塊,取其10、22、32的輸出層作為有效特征層,使其與CSPDarkNet53的輸出尺寸相同,同時針對不同尺度的目標繼續(xù)分別建立檢測層。
改進的YOLOv5s網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,輸入為640×640的圖像,通過Stem、Module 2、Module 3、Module 4以及Module 6的處理,圖像的長和寬得以有效壓縮。而Module 1、Module 5和Module 7則專注于圖像的特征提取。在Module 3、Module 5和Module 7的階段,可以獲得三種不同尺度的特征層,它們分別對應(yīng)小、中、大的目標檢測。通過卷積、上采樣等手段,將深層和淺層的網(wǎng)絡(luò)進行融合,從而顯著提高網(wǎng)絡(luò)的目標檢測能力。最終,能確保不同尺度的目標都被精確地匹配到相應(yīng)的預(yù)測層上。
2.2" 損失函數(shù)優(yōu)化
YOLOv5s算法采用CIoU損失函數(shù)優(yōu)化檢測性能,CIoU在IoU的基礎(chǔ)上增加了預(yù)測框長寬比和目標框長寬比之間的關(guān)系,提升了損失函數(shù)的抑制效果,加強了待測目標的統(tǒng)一性。但CIoU損失函數(shù)計算量偏大,而且對邊界框回歸指標的聚合依賴性太強,忽略了預(yù)測框與真實框的不匹配,從而導(dǎo)致收斂速度慢。CIoU表達式[11]如式(4)所示:
[LCIoU=1-IoU+ρ2(b,bgt)c2+εv]" "(4)
式中:IoU為預(yù)測框與真實框交集與并集之比;[ε]為權(quán)重參數(shù);[v]為長寬比的相似度;[c]為包含預(yù)測框與真實框最小區(qū)域?qū)蔷€距離;[b]為預(yù)測框中心坐標值;[bgt]為真實框中心坐標值;[ρ]為兩點之間的距離。
基于以上CIoU的不足,故引入SIoU損失函數(shù),SIoU進一步考慮了真實框和預(yù)測框之間的向量角度,重新定義相關(guān)損失函數(shù),具體包含四個部分:角度成本(Angle cost)、距離成本(Distance cost)、形狀成本(Shape cost)、IoU成本(IoU cost)。SIoU在提高檢測準確度的同時也減小了計算量,所以訓(xùn)練速度變得更快,效率變得更高。
角度損失函數(shù)表達式如式(5)所示:
[Λ=1-2×sin2arcsinchσ-4π] (5)
式中:[σ]為真實框與預(yù)測框中心點的距離;[ch]為真實框與預(yù)測框中心點的高度差。
距離損失函數(shù)表達式如式(6)、式(7)所示:
[Δ=t=x,y(1-e(Λ-2)ρt)" =2-e(Λ-2)ρx-e(Λ-2)ρy]" (6)
[ρx=bgtcx-bcxcw2," " ρy=bgtcy-bcych2]" " (7)
式中:[cw]為真實框與預(yù)測框最小外接矩形的寬;[ch]為真實框與預(yù)測框最小外接矩形的高;[bgtcx]為真實框中心點橫坐標;[bgtcy]為真實框中心點縱坐標;[bcx]為預(yù)測框中心點橫坐標;[bcy]為預(yù)測框中心點縱坐標。
形狀損失函數(shù)表達式如式(8)、式(9)所示:
[Ω=t=w,h(1-e-wt)θ" "=(1-e-ww)θ+(1-e-wh)θ]" (8)
[ww=w-wgtmax(w,wgt)," " wh=h-hgtmax(h,hgt)]" (9)
式中:[w]為預(yù)測框?qū)?;[h]為預(yù)測框高;[wgt]為真實框?qū)?;[hgt]為真實框高;[θ]為對形狀損失的關(guān)注程度。
IoU損失函數(shù)表達式如式(10)所示:
[LIoU=1-IoU]" (10)
綜上,SIoU損失函數(shù)表達式如式(11)所示:
[LSIoU=1-IoU+Δ+Ω2]" " " (11)
3" 系統(tǒng)軟件設(shè)計
3.1" 對比模型
為了得到最適合的特征提取網(wǎng)絡(luò),將YOLOv5s的主干特征提取網(wǎng)絡(luò)CSPDarkNet53使用EfficientNet?B1~EfficientNet?B6分別替換進行對比實驗。
為了驗證改進的YOLOv5s模型的檢測速度,將原始YOLOv5s模型,CSPDarkNet53替換為EfficientNet?B4主干特征提取網(wǎng)絡(luò)的YOLOv5s模型以及CSPDarkNet53替換為EfficientNet?B4主干特征提取網(wǎng)絡(luò)、CIoU損失函數(shù)替換為SIoU損失函數(shù)的YOLOv5s模型三者進行對比分析。另外,為了驗證改進后模型的整體性能,將MTCNN、YOLOv4和改進的YOLOv5s模型進行對比分析。
3.2" 疲勞判定
引入度量瞌睡程度的物理量——單位時間眼睛閉合的百分比[12](PERCLOS)進行疲勞判定,PERCLOS由美國于1994年首次提出,定義為在一定時期內(nèi)眼睛的閉合程度,其表達式如式(12)所示:
[PERCLOS=眼睛閉合幀數(shù)檢測時間段總幀數(shù)×100%]" (12)
在疲勞駕駛的檢測過程中,實時性是至關(guān)重要的。由于駕駛員的安全與否可能在瞬間決定,無法給予1 min或更長的時間進行測試和分析。研究表明,人類眨眼的時間[13]通常為0.3~0.5 s。為了確保眨眼不會導(dǎo)致誤判,本研究選擇了0.6 s作為檢測時間,也就是說,當閉眼時間超過0.6 s時,系統(tǒng)會對眼睛進行框架標注。
3.3" 評價指標
為了評估改進的YOLOv5s模型在礦用生產(chǎn)車駕駛員疲勞檢測中的準確性,本文采用平均準確率(mAP)、精確率(Precision)、召回率(Recall)、權(quán)重大?。∕odel Size)以及參數(shù)量(Parameters)、計算量(Computation)對疲勞駕駛檢測算法進行評價。精確率指的是預(yù)測正確的正樣本與所有正樣本之比,其函數(shù)表達式如式(13)所示:
[Precision=TPTP+FP]" "(13)
式中:[TP]是指預(yù)測與實際都是正樣本;[FP]表示負樣本被預(yù)測為正樣本。召回率指的是預(yù)測為正的樣本與所有正樣本的比值,其函數(shù)表達式如式(14)所示:
[Recall=TPTP+FN]" "(14)
式中[FN]表示正樣本被預(yù)測為負樣本。
4" 實驗結(jié)果與分析
4.1" 訓(xùn)練過程
訓(xùn)練所用的數(shù)據(jù)集均來自于實際采集的圖片,共300張,圖片尺寸設(shè)置為640×640,使用LabelImg對圖片進行標注,并生成xml文件用于訓(xùn)練。由于采集的圖片數(shù)量有限,但本實驗對圖片數(shù)量依賴性較大,所以選用遷移學(xué)習(xí)手段,先在ImageNet數(shù)據(jù)集上使用本文提出的方法進行模型訓(xùn)練,然后在此基礎(chǔ)上,使用自建數(shù)據(jù)集對疲勞駕駛檢測進行遷移學(xué)習(xí)。
遷移學(xué)習(xí)的流程可以大致劃分為如下兩個關(guān)鍵階段。
凍結(jié)訓(xùn)練階段:在此階段,保持模型的主體部分不變,即“凍結(jié)”它,即意味著在訓(xùn)練過程中,這部分的權(quán)重不會被更新,僅對模型的某些層進行微調(diào),以便使其適應(yīng)新的任務(wù)。在這一階段,采用的學(xué)習(xí)率為0.001,batch_size設(shè)置為16,訓(xùn)練的epoch數(shù)為50。
解凍訓(xùn)練階段:經(jīng)過上述的初步訓(xùn)練后,進入到第二階段,在這里模型的主體部分被“解凍”,允許其在訓(xùn)練過程中更新權(quán)重,這意味著整個網(wǎng)絡(luò),包括特征提取層,都會在這一階段進行訓(xùn)練,對應(yīng)的學(xué)習(xí)率調(diào)整為0.000 1,batch_size減半,變?yōu)?,而epoch的數(shù)量保持為50不變。
4.2" 同系列算法對比
因為要在EfficientNet系列網(wǎng)絡(luò)中選擇最適合的模型替代YOLOv5s的主要特征提取網(wǎng)絡(luò),所以設(shè)置一組對比實驗,用EfficientNet?B1~EfficientNet?B6分別替換YOLOv5s的主干網(wǎng)絡(luò)CSPDarkNet53,經(jīng)過訓(xùn)練測試后,獲得了各模型的mAP和Model Size,實驗結(jié)果如表1所示。
通過觀察表1發(fā)現(xiàn),EfficientNet系列中,B1、B2、B3與B5的mAP@0.5均低于YOLOv5s;而B4與B6的mAP@0.5則與YOLOv5s相當,甚至略有超出。但考慮到模型大小,B4的大小只有B6的一半甚至更小,因此,本文選用EfficientNet?B4作為主干的特征提取網(wǎng)絡(luò)。
4.3" 消融實驗結(jié)果分析
為了驗證改進YOLOv5s的有效性,對原始YOLOv5s(模型1),CSPDarkNet53替換為EfficientNet B4主干特征提取網(wǎng)絡(luò)的YOLOv5s模型(模型2)以及CSPDarkNet53替換為EfficientNet B4主干特征提取網(wǎng)絡(luò)、CIoU損失函數(shù)替換為SIoU損失函數(shù)的YOLOv5s模型(模型3)三者進行消融實驗,實驗結(jié)果如表2所示。
從表2中可以看出,三者參數(shù)量大致相同,但模型3計算量要遠遠優(yōu)于其他兩個模型,三者權(quán)重大小基本相似。模型3的精確率比模型1高1.2%,比模型2高0.7%;模型3召回率較模型1低0.4%,較模型2低2.1%;模型3平均準確率較模型1高0.9%,較模型2高1.6%。由此可見,經(jīng)過優(yōu)化的主干特征提取網(wǎng)絡(luò)和損失函數(shù)的模型3,在保證目標檢測速度的基礎(chǔ)上,能夠更為準確地識別疲勞駕駛的目標。在模型體積方面,改進版算法(模型3)與YOLOv5s(模型1)相比,體積更小、參數(shù)量顯著減少。而出人意料的是,其平均準確率實現(xiàn)了明顯的提升。這進一步印證了使用EfficientNet作為目標檢測模型的主干特征提取網(wǎng)絡(luò),相較于CSPDarkNet53,無疑是更為輕便和高效的選擇。綜合對比分析,本文提出的改進版YOLOv5s目標檢測算法在性能上明顯超越了原始的YOLOv5s算法,這也驗證了優(yōu)化方案更加適用于疲勞駕駛目標的檢測。
4.4" 對比實驗結(jié)果分析
為了證明提出的改進YOLOv5s算法對疲勞駕駛檢測的有效性,將Faster R?CNN算法、YOLOv4算法以及提出的改進YOLOv5s算法進行實驗對比,結(jié)果如表3所示。從實驗結(jié)果可以看出,F(xiàn)aster R?CNN作為二階段目標檢測算法,模型結(jié)構(gòu)較大,檢測速度較慢,平均準確率為90.6%,本文提出的改進YOLOv5s算法檢測速度僅為Faster R?CNN的[175],雖然和YOLOv4相比,檢測速度稍微有所下降,但是本文提出的改進YOLOv5s平均準確率比YOLOv4高1.2%。實驗結(jié)果表明,提出的改進YOLOv5s目標檢測算法不僅保證了檢測速度,而且提升了檢測精度,可以滿足對礦用生產(chǎn)車駕駛員疲勞駕駛檢測的需求。
4.5" 測試結(jié)果分析
采用經(jīng)過精細訓(xùn)練的模型進行檢測,使用攝像頭采集視頻。借助改進的YOLOv5s目標識別算法直接對這些視頻流進行實時分析與識別。在視頻檢測過程中,維持30 f/s的采樣速率,確保捕捉到每一個細節(jié)。隨著測試者狀態(tài)的不斷變化,測試結(jié)果也會實時更新,以達到提供動態(tài)、精確的反饋作用。當識別到閉眼或者打哈欠兩種疲勞特征的任意一種即判斷為疲勞。當疲勞時,畫框外部顯示drowsy,當不疲勞時畫框外部顯示undrowsy,測試結(jié)果如圖3所示。
在模擬疲勞駕駛測試中,通過三種算法分別進行實驗對比。三名測試者在駕駛過程中做出兩種疲勞狀態(tài),對狀態(tài)進行判別,F(xiàn)aster R?CNN檢測準確率為90%,YOLOv4的疲勞檢測準確率為85%,改進的YOLOv5s的疲勞駕駛檢測準確率為95%。本文提出的改進YOLOv5s可以滿足對礦用生產(chǎn)車駕駛員疲勞駕駛檢測的需求。
5" 結(jié)" 論
礦用生產(chǎn)車駕駛員疲勞駕駛是導(dǎo)致礦山安全生產(chǎn)事故的重要原因之一,改進的YOLOv5s目標檢測算法使用EfficientNet替代CSPDarkNet53作為YOLOv5s算法的主干特征提取網(wǎng)絡(luò),大量減少了模型的參數(shù)量,降低了模型復(fù)雜程度并且提升了訓(xùn)練速度,使得模型更加的輕量化;使用SIoU作為網(wǎng)絡(luò)模型的損失函數(shù),在計算損失時考慮了角度損失、距離損失、形狀損失、IoU損失,提高檢測準確度的同時減小計算量;之后對模型進行遷移學(xué)習(xí),實驗結(jié)果表明改進YOLOv5s目標檢測算法相較于原始的YOLOv5s算法,漏檢率更低、檢測精度更高,且在能滿足疲勞檢測準確率和mAP@0.5的前提下,使得模型尺寸減小約2%,能夠進一步滿足實時性的要求和在嵌入式設(shè)備上的部署應(yīng)用。
參考文獻
[1] 畢林,周超,姚鑫.基于視頻序列的礦卡司機不安全行為識別[J].黃金科學(xué)技術(shù),2021,29(1):14?24.
[2] 張楊,王曉原,劉士杰,等.基于遺傳優(yōu)化算法的疲勞駕駛狀態(tài)辨識方法[J].傳感器與微系統(tǒng),2023,42(9):157?161.
[3] 李小平,白超.基于深度學(xué)習(xí)的司機疲勞駕駛檢測方法研究[J].鐵道學(xué)報,2021,43(6):78?87.
[4] 李昭慧,張瑋良.基于改進YOLOv4算法的疲勞駕駛檢測[J].電子測量技術(shù),2021,44(13):73?78.
[5] 魯佳儒,胡文勛,肖運虹.基于改進YOLOv5的人臉疲勞檢測[J].信息與電腦(理論版),2023,35(7):111?114.
[6] 冉險生,賀帥,蘇山杰,等.融合特征增強與DeepSort的疲勞駕駛檢測跟蹤算法[J].國外電子測量技術(shù),2023,42(8):54?62.
[7] 程澤,林富生,靳朝,等.基于輕量化卷積神經(jīng)網(wǎng)絡(luò)的疲勞駕駛檢測[J].重慶理工大學(xué)學(xué)報(自然科學(xué)),2022,36(2):142?150.
[8] 李彥鍇,許媛媛,劉子琪,等.基于改進YOLOv3算法的空中紅外目標檢測[J].紅外技術(shù),2023,45(4):386?393.
[9] 楊立潔,馮俊豪,王桂梅.基于EfficientNet?YOLOv3的多氧壓表識別方法[J].制造業(yè)自動化,2023,45(8):43?48.
[10] 江躍龍,張銘智.基于PERCLOS的列車司機疲勞檢測設(shè)計與實現(xiàn)[J].計算機時代,2023(4):112?115.
[11] 梁勇,邱榮洲,李志鵬,等.基于YOLO v5和多源數(shù)據(jù)集的水稻主要害蟲識別方法[J].農(nóng)業(yè)機械學(xué)報,2022,53(7):250?258.
[12] JAMAL S, ALESSANDRO G. Semi?supervised visual anomaly detection based on convolutional autoencoder and transfer learning [J]. Machine learning with applications, 2023, 11: 100451.
[13] 孫嘉,張建輝,卜佑軍,等.基于CNN?BiLSTM模型的日志異常檢測方法[J].計算機工程,2022,48(7):151?158.
作者簡介:杜" 威(1999—),男,遼寧瓦房店人,碩士研究生,主要研究方向為目標識別與檢測。
寧" 武(1980—),男,遼寧瓦房店人,碩士研究生,副教授,碩士生導(dǎo)師,主要研究方向為信號與信息智能處理。
孟麗囡(1967—),女,遼寧義縣人,碩士研究生,副教授,碩士生導(dǎo)師,主要研究方向為電力電子技術(shù)應(yīng)用。
陳雨潼(2001—),女,遼寧鐵嶺人,碩士研究生,主要研究方向為電子設(shè)計自動化與智能化控制。
收稿日期:2024?06?03" " " " " "修回日期:2024?06?25
基金項目:遼寧省教育廳基本科研項目(LJKFZ20220238)