亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于欠定盲源分離和深度學(xué)習(xí)的生豬狀態(tài)音頻識(shí)別

        2024-01-01 00:00:00潘偉豪盛卉子王春宇閆順丕周小波辜麗川焦俊
        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)

        摘要: 【目的】為解決群養(yǎng)環(huán)境下生豬音頻難以分離與識(shí)別的問題, 提出基于欠定盲源分離與E C A -EfficientNetV2 的生豬狀態(tài)音頻識(shí)別方法?!痉椒ā恳苑抡嫒吼B(yǎng)環(huán)境下4 類生豬音頻信號(hào)作為觀測(cè)信號(hào),將信號(hào)稀疏表示后,通過層次聚類估計(jì)出信號(hào)混合矩陣,并利用lp 范數(shù)重構(gòu)算法求解lp 范數(shù)最小值以完成生豬音頻信號(hào)重構(gòu)。將重構(gòu)信號(hào)轉(zhuǎn)化為聲譜圖,分為進(jìn)食聲、咆哮聲、哼叫聲和發(fā)情聲4 類,利用ECA-EfficientNetV2 網(wǎng)絡(luò)模型識(shí)別音頻,獲取生豬狀態(tài)?!窘Y(jié)果】混合矩陣估計(jì)的歸一化均方誤差最低為3.266×10?4,分離重構(gòu)的音頻信噪比在3.254~4.267 dB 之間。聲譜圖經(jīng)ECA-EfficientNetV2 識(shí)別檢測(cè),準(zhǔn)確率高達(dá)98.35%;與經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)ResNet50 和VGG16 對(duì)比,準(zhǔn)確率分別提升2.88 和1.81 個(gè)百分點(diǎn);與原EfficientNetV2 相比,準(zhǔn)確率降低0.52 個(gè)百分點(diǎn),但模型參數(shù)量減少33.56%,浮點(diǎn)運(yùn)算量(FLOPs) 降低1.86 G,推理時(shí)間減少9.40 ms。【結(jié)論】基于盲源分離及改進(jìn)EfficientNetV2 的方法,輕量且高效地實(shí)現(xiàn)了分離與識(shí)別群養(yǎng)生豬音頻信號(hào)。

        關(guān)鍵詞: 豬;盲源分離;聲譜圖;音頻識(shí)別;稀疏重構(gòu);卷積神經(jīng)網(wǎng)絡(luò)

        中圖分類號(hào): TN912.34;TP183;S828 文獻(xiàn)標(biāo)志碼: A 文章編號(hào): 1001-411X(2024)05-0730-13

        生豬音頻包含豐富的可利用信息[1]。然而,如何在嘈雜的群養(yǎng)環(huán)境中分離出各類生豬音頻信號(hào)并有效識(shí)別是智慧養(yǎng)殖的難點(diǎn)問題,解決該問題也是智慧飼養(yǎng)的趨勢(shì)。

        國(guó)內(nèi)外的盲源分離算法研究主要集中在軍事通信、語音信號(hào)處理、生物醫(yī)學(xué)信號(hào)處理等領(lǐng)域。Ghani 等[2] 利用一種基于投射追蹤的盲源分離技術(shù),成功將無人機(jī)聲音與其他環(huán)境聲音區(qū)分開來。He 等[3] 提出一種針對(duì)非平穩(wěn)信號(hào)的時(shí)變卷積盲源分離算法,其采用變分貝葉斯推理方法和高斯過程,將非平穩(wěn)源逐幀從時(shí)變卷積信號(hào)中分離出來,最終可有效分離時(shí)變混合語音信號(hào)。Adam 等[4] 利用基于快速獨(dú)立分量分析的盲源分離技術(shù),去除噪聲對(duì)腦電圖、肌電圖等生物信號(hào)的影響,獲得了較好的試驗(yàn)結(jié)果。

        國(guó)內(nèi)外學(xué)者在生豬音頻識(shí)別方面已有相應(yīng)進(jìn)展,張振華[5] 利用隱馬爾科夫模型對(duì)生豬打斗聲、咳嗽聲、餓叫聲和抽搐聲進(jìn)行識(shí)別,總體識(shí)別率為89.25%。沈明霞等[6] 提出一種基于深度神經(jīng)網(wǎng)絡(luò)的識(shí)別方法,提取梅山豬咳嗽及噴嚏、鳴叫、呼嚕聲的濾波器組與梅爾頻率倒譜系數(shù)特征,識(shí)別生豬的咳嗽聲,識(shí)別準(zhǔn)確率高達(dá)97%。Ji 等[7] 將聲學(xué)和視覺特征融合,提取均方根能量、梅爾頻率倒譜系數(shù)等特征,精準(zhǔn)檢測(cè)豬咳嗽聲,準(zhǔn)確率達(dá)96.45%。在生豬音頻盲源分離方面研究較少,彭碩等[8] 利用基于稀疏分量分析的欠定盲源分離方法,成功分離了3 類混合豬聲信號(hào),但其研究尚未拓展到處理更多類別的生豬音頻分離問題,也未考慮到后續(xù)重構(gòu)音頻識(shí)別問題。

        本研究提出一種基于欠定盲源分離及改進(jìn)ECA-EfficientNetV2 的生豬狀態(tài)音頻識(shí)別方法。利用欠定盲源分離技術(shù),從混雜音頻中分離出哼叫聲、進(jìn)食聲、咆哮聲、發(fā)情聲4 類生豬狀態(tài)音頻信號(hào),再采用ECA-EfficientNetV2 模型識(shí)別音頻,旨在實(shí)現(xiàn)對(duì)豬只生活健康狀態(tài)的監(jiān)測(cè)和識(shí)別。

        1 材料與方法

        1.1 試驗(yàn)整體設(shè)計(jì)流程

        基于欠定盲源分離及ECA-EfficientNetV2 的生豬狀態(tài)音頻識(shí)別方法總體流程如圖1 所示。

        首先采集生豬不同狀態(tài)的音頻信號(hào),將音頻轉(zhuǎn)化為具有時(shí)頻特征的聲譜圖,構(gòu)建聲譜圖數(shù)據(jù)集,再訓(xùn)練ECA-EfficientNetV2,實(shí)現(xiàn)不同生豬狀態(tài)音頻識(shí)別。仿真群養(yǎng)環(huán)境下生豬音頻后,采用改進(jìn)譜減法降噪及能熵比法端點(diǎn)檢測(cè)對(duì)音頻預(yù)處理。得到降噪的生豬混合音頻,利用欠定盲源分離算法對(duì)混合音頻分離重構(gòu)。最終將重構(gòu)音頻轉(zhuǎn)化為聲譜圖后利用ECA-EfficientNetV2 模型進(jìn)行識(shí)別,從音頻中獲取生豬當(dāng)前狀態(tài)信息。

        算法運(yùn)行硬件環(huán)境為Windows11 系統(tǒng),內(nèi)存為32 GB,CPU 為AMD Ryzen7 5800H with RadeonGraphics 3.2 GHz,GPU 為NVIDIA Geforce RTX3070。軟件環(huán)境為開發(fā)平臺(tái)Pycharm 社區(qū)版2022.3,使用語言為Python3.8.16,神經(jīng)網(wǎng)絡(luò)模型在Pytorch2.0.0框架下運(yùn)行,顯卡為Cuda 11.8 版。

        1.2 生豬音頻信號(hào)獲取及預(yù)處理

        1.2.1 音頻數(shù)據(jù)獲取

        研究所用生豬音頻采集于安徽某生豬養(yǎng)殖基地, 采集裝置為飛利浦VTR5110 錄音筆,單通道錄制,采樣點(diǎn)數(shù)設(shè)置為16bit,采樣率為44 100 Hz,音頻保存格式為WAV 格式。為獲取較純凈的生豬音頻,將長(zhǎng)白豬依次單獨(dú)圈養(yǎng)在封閉的4 m×4 m 的房間內(nèi),房?jī)?nèi)無人無豬時(shí)聲音分貝低于12 dB。經(jīng)人工分類,將采集的音頻信號(hào)分為進(jìn)食聲、哼叫聲、咆哮聲、發(fā)情聲、噪聲和無聲段。

        1.2.2 基于多窗譜估計(jì)的譜減法降噪

        多窗譜估計(jì)譜減法[9] 在傳統(tǒng)譜減法的基礎(chǔ)上,采用多個(gè)不同長(zhǎng)度的分析窗口。每個(gè)窗口捕捉語音和噪聲成分的不同時(shí)頻特性,可更準(zhǔn)確地估計(jì)噪聲譜[10],其具體算法流程圖如圖2 所示。

        設(shè)含噪語音加窗分幀后為xi(z),將xi(z)進(jìn)行快速傅里葉變換(Fast Fourier transform, FFT),得出其幅度譜和相位譜,并且由此可計(jì)算出平均幅度譜:

        式中,θi(k)為相位譜,|?Xi(k)|為譜減后的幅度譜,xi(z)為降噪音頻,j 為傅里葉變換中的虛數(shù)單位。

        1.2.3 基于能熵比的端點(diǎn)檢測(cè)

        基于能熵比的端點(diǎn)檢測(cè)[11] 利用信號(hào)的改進(jìn)能量和譜熵2 種參數(shù)的比值,確定有聲段的起始位置和終止位置。有聲段內(nèi),信號(hào)的熵相對(duì)較高;非有聲段內(nèi),信號(hào)的熵相對(duì)較低[12]。

        設(shè)加窗分幀后第 i 幀音頻信號(hào)為xi(m),F(xiàn)L 為音頻信號(hào)的幀長(zhǎng)度,則音頻的每幀能量如下式:

        為緩和AMPi的劇烈變化,引入常量 a,并將短時(shí)能量對(duì)數(shù)化計(jì)算得改進(jìn)能量,如下式:

        LEi = lg(1+AMPi=a)。(6)

        將改進(jìn)能量LEi和譜熵Hi構(gòu)成能熵比,如下式:

        1.2.4 數(shù)據(jù)集制作

        聲譜圖[13] 的作用是將時(shí)域的音頻信號(hào)轉(zhuǎn)為頻域表示,更直觀地觀察和分析音頻信號(hào)的頻譜結(jié)構(gòu)。制作聲譜圖流程如圖3 所示。流程中的偽彩色映射指將音頻信號(hào)在時(shí)頻域上的頻率、能量、時(shí)間等特征信息以彩色圖的形式展現(xiàn)出來。

        ECA-EfficientNetV2 模型所需4 種類型生豬聲譜圖樣例如圖4 所示。利用不同窗函數(shù)、不同窗長(zhǎng)生成具有不同時(shí)頻特征信息的聲譜圖,其中寬帶聲譜圖的時(shí)間分辨率較高,窄帶聲譜圖的頻率分辨率較高[14],2 種聲譜圖如圖5 所示。

        通常寬帶聲譜圖以3 ms 左右為1 幀,窄帶聲譜圖以20 ms 左右為1 幀進(jìn)行分幀加窗處理[15]。根據(jù)FFT 公式,當(dāng)窗函數(shù)長(zhǎng)度T 為3 ms 時(shí),對(duì)應(yīng)帶寬約為293 Hz,T 為20 ms 時(shí),對(duì)應(yīng)帶寬約為44 Hz。圖5 顯示的是同一音頻下采用44 Hz 的帶寬和以300 Hz 的帶寬分幀制成的窄帶聲譜圖和寬帶聲譜圖。不同的窗函數(shù),可提取不同的時(shí)頻特征[16]。本研究使用漢明窗、漢寧窗和布萊克曼窗分別處理生成聲譜圖,將含不同特征的聲譜圖數(shù)據(jù)集利用ECA-EfficientNetV2 模型訓(xùn)練,提高模型魯棒性。

        1.3 基于稀疏重構(gòu)的欠定盲源分離

        1.3.1 欠定盲源分離整體流程

        典型盲源分離處理模型[17] 如圖6 所示。

        研究?jī)H考慮信號(hào)幅度衰減,不考慮時(shí)延性和傳播路徑問題,此時(shí)欠定盲源分離模型[18] 如下式:

        式中,t 為某一時(shí)刻,N 為源信號(hào)數(shù)量,M 為觀測(cè)信號(hào)數(shù)量,aik 為第i 個(gè)時(shí)頻點(diǎn)上第k 個(gè)源信號(hào)對(duì)應(yīng)的混合矩陣,表示信號(hào)的衰減幅度,xi(t) 為第i 個(gè)傳感器獲取到的觀測(cè)信號(hào),sk(t) 為第k 個(gè)源信號(hào),vi(t) 為第i 個(gè)噪聲信號(hào)噪聲v(t) 利用“1.2”節(jié)中改進(jìn)譜減法進(jìn)行降噪處理后得到的信號(hào)。

        盲源分離中的欠定盲源分離處理如圖7 所示。

        稀疏表示時(shí),音頻信號(hào)經(jīng)過短時(shí)傅里葉變換從時(shí)域轉(zhuǎn)為時(shí)頻域,提升信號(hào)稀疏性[19]。稀疏表示后,聚類各特征點(diǎn)估計(jì)出混合矩陣,類心矢量方向即對(duì)應(yīng)相應(yīng)源信號(hào)的混合矢量方向[20]。利用信號(hào)的稀疏性,使用稀疏重構(gòu)法[21] 對(duì)信號(hào)進(jìn)行重構(gòu),分離各狀態(tài)的生豬音頻信號(hào)。

        1.3.2 單源點(diǎn)檢測(cè)

        比較稀疏表示后混合信號(hào)實(shí)部與虛部,對(duì)信號(hào)進(jìn)行單源點(diǎn)檢測(cè)[22],剔除低能點(diǎn),使信號(hào)更具稀疏性。式(8) 中,使用譜減法進(jìn)行降噪操作后,任一時(shí)頻點(diǎn)(t, f)上,可改寫為式(9):

        式中,sk(t, f ) 為某時(shí)頻點(diǎn)上的第k 個(gè)源信號(hào),A 為混合矩陣向量,s(t, f ) 為源信號(hào)向量。此時(shí)觀測(cè)信號(hào)x(t, f )的實(shí)部為:

        當(dāng)時(shí)頻點(diǎn)為單源點(diǎn)時(shí),實(shí)部與虛部關(guān)系如式(12),x1(t, f ) 為觀測(cè)信號(hào)1 的向量,x2(t, f ) 為觀測(cè)信號(hào)2 的向量:

        根據(jù)數(shù)據(jù)集特征及硬件條件調(diào)整網(wǎng)絡(luò)訓(xùn)練參數(shù),其中batch-size 調(diào)整為16,學(xué)習(xí)率選用0.01,momentum 為0.9,表1 中最終階段隨機(jī)失活率dropout-rate 為0.2,MBConv 卷積結(jié)構(gòu)Dropout 層隨機(jī)丟棄率drop-connect-rate 為0.2。

        1.4.2 網(wǎng)絡(luò)性能評(píng)價(jià)指標(biāo)

        采用精確率(Precision)、準(zhǔn)確率(Accuracy)、召回率(Recall)、F1 分?jǐn)?shù)(F1-score)、浮點(diǎn)運(yùn)算量(Floating-point operations,F(xiàn)LOPs)、參數(shù)量及推理時(shí)間評(píng)價(jià)模型能力,計(jì)算公式如下:

        式中,TP 為模型正確預(yù)測(cè)正例樣本數(shù),F(xiàn)P 為模型錯(cuò)誤預(yù)測(cè)正例樣本數(shù),F(xiàn)N 為模型錯(cuò)誤預(yù)測(cè)負(fù)例樣本數(shù),TN 為模型正確預(yù)測(cè)負(fù)例樣本數(shù)。

        2 結(jié)果與分析

        2.1 改進(jìn)譜減法降噪及端點(diǎn)檢測(cè)結(jié)果分析

        直接采集豬棚內(nèi)音頻,雖可獲得真實(shí)的環(huán)境噪聲,但無法有效判斷降噪算法對(duì)含噪音頻的處理效果。為了定量分析降噪算法的降噪效果,在純凈生豬音頻信號(hào)中添加IKS 風(fēng)噪數(shù)據(jù)集中排風(fēng)扇的排風(fēng)聲和英國(guó)荷蘭TNO 感知研究所語音研究單位發(fā)布的金屬門、金屬圍欄等金屬碰撞產(chǎn)生的噪聲信號(hào),再對(duì)含噪音頻降噪處理,對(duì)比降噪前后信噪比,判斷降噪算法效果。信噪比為15 dB 時(shí),降噪前后如圖9 所示。

        將多窗譜估計(jì)譜減法和經(jīng)典譜減法分別在信噪比為0、5、15 dB 下進(jìn)行對(duì)比試驗(yàn),前后信噪比如表2所示,當(dāng)降噪前信噪比設(shè)為0 dB 時(shí),改進(jìn)譜減法較傳統(tǒng)譜減法信噪比提升2.36 dB,較降噪前提升4.67 dB。 當(dāng)降噪前信噪比設(shè)為5 dB 時(shí),改進(jìn)譜減法較傳統(tǒng)譜減法信噪比提升1.45 dB,較降噪前提升2.42 dB。當(dāng)降噪前信噪比設(shè)為15 dB 時(shí),改進(jìn)譜減法較傳統(tǒng)譜減法信噪比提升0.37 dB,較降噪前提升0.58 dB。表2 數(shù)據(jù)可看出多窗譜估計(jì)的改進(jìn)譜減法較經(jīng)典譜減法對(duì)于帶噪生豬音頻降噪效果更好,信噪比提升更大。原信噪比越低時(shí),降噪后信噪比提升越明顯。原信噪比越高,噪聲的干擾越小,降噪后信噪比并無明顯提升。

        利用能熵比法端點(diǎn)檢測(cè)含噪生豬音頻,結(jié)果如圖10 所示。即使在含噪情況下,能熵比法的端點(diǎn)檢測(cè)仍可檢測(cè)音頻有聲段并將其起始點(diǎn)和終止點(diǎn)準(zhǔn)確地標(biāo)出。

        若信噪比太低,噪聲干擾嚴(yán)重,能熵比法端點(diǎn)檢測(cè)則無法再準(zhǔn)確判斷起始和終止點(diǎn),如圖11 所示。信噪比為5 dB 時(shí),第5 小段音頻無法準(zhǔn)確判斷有聲段的起始點(diǎn)和終止點(diǎn),因此本研究所用端點(diǎn)檢測(cè)方法適用于高信噪比音頻,僅具有一定抗噪性。

        2.2 欠定盲源分離結(jié)果分析

        利用已知的混合矩陣對(duì)4 種生豬音頻進(jìn)行混合,再通過欠定盲源分離算法重構(gòu)4 類單只生豬音頻,通過對(duì)比重構(gòu)音頻和原始音頻,對(duì)分離算法的性能進(jìn)行定量評(píng)價(jià)。本研究以哼叫聲、進(jìn)食聲、咆哮聲、發(fā)情聲各10 s 的單聲道音頻為試驗(yàn)對(duì)象,用已知的混合矩陣混合成2 個(gè)觀測(cè)信號(hào)。4 種狀態(tài)的生豬音頻波形圖如圖12 所示。

        設(shè)定原混合矩陣如下:

        生成的2 個(gè)觀測(cè)信號(hào)波形圖如圖13 所示。

        根據(jù)“1 . 3 . 2”中單源點(diǎn)檢測(cè)算法,設(shè)定式(13) 中ε1=0.01,剔除低能點(diǎn)前后對(duì)比圖如圖14 所示。檢測(cè)后的圖14b 可清晰觀測(cè)到4 條直線分布特征,且較圖14a 單源點(diǎn)檢測(cè)前更具稀疏特性。

        利用層次聚類算法聚類特征點(diǎn),聚類迭代次數(shù)設(shè)為80 輪,用式(18) 評(píng)價(jià)聚類后估計(jì)的混合矩陣與原矩陣的相似度,值越小則估計(jì)精確率越高,如圖15 所示。圖15 表明,歸一化均方誤差NMSE隨著迭代次數(shù)的增加逐漸降低, 在第4 4 次后NMSE 無限接近于0,取第63 次時(shí)NMSE 最低值3.266×10?4,此時(shí)估計(jì)精確率最高。

        圖15 中,可觀察到曲線在第0 到43 次迭代時(shí)產(chǎn)生了振蕩,結(jié)合圖14b 可看出,有2 條直線十分靠近,且經(jīng)過單源點(diǎn)檢測(cè)后的散點(diǎn)圖十分稀疏,隨著迭代次數(shù)增加層次聚類的距離算法易將2 條相近線上的特征點(diǎn)聚類成1 條,從而產(chǎn)生誤差,導(dǎo)致曲線產(chǎn)生振蕩。

        本研究選用NMSE 最低值時(shí)的混合矩陣進(jìn)行后續(xù)試驗(yàn),此時(shí)混合矩陣如下:

        獲取混合矩陣后,使用lp 范數(shù)類算法對(duì)信號(hào)重構(gòu),p 值取0.5 時(shí)重構(gòu)信號(hào)波形圖如圖16 所示。

        分別計(jì)算4 種波形重構(gòu)前后信噪比,求其平均值。p 不同取值時(shí),4 種源信號(hào)和重構(gòu)信號(hào)平均信噪比在3.254~4.267 dB 之間變化,p 取0.3 時(shí)平均信噪比最小,即3.254 dB。p 取0.8 時(shí)平均信噪比最大,即4.267 dB,此時(shí)lp 范數(shù)分離算法重構(gòu)的波形最接近源信號(hào)波形,分離效果最佳。

        為了對(duì)盲源分離效果進(jìn)行定量分析,本研究并未考慮生豬音頻信號(hào)到達(dá)不同傳感器的時(shí)延性和衰減性都不同的問題。且由于本研究使用的欠定盲源分離算法依賴信號(hào)的稀疏性,當(dāng)信號(hào)的稀疏性較弱時(shí),無法從觀測(cè)信號(hào)獲得高質(zhì)量的重構(gòu)信號(hào),后續(xù)研究中會(huì)進(jìn)一步研究解決上述問題。

        2.3 ECA-EfficientNetV2 模型分類結(jié)果分析

        利用ECA-EfficientNetV2 網(wǎng)絡(luò)模型訓(xùn)練聲譜圖數(shù)據(jù)集。數(shù)據(jù)集圖片共2 700 張,進(jìn)食、哼叫、咆哮3 類每個(gè)類別720 張,發(fā)情類540 張,數(shù)據(jù)集以8∶2 分為訓(xùn)練集和驗(yàn)證集。每輪迭代中訓(xùn)練集與驗(yàn)證集的準(zhǔn)確率和損失值結(jié)果如圖17 所示。在迭代80 個(gè)epoch 時(shí)曲線已經(jīng)接近平穩(wěn),并無太大的上下波動(dòng),最終準(zhǔn)確率在9 8% 左右波動(dòng),損失值在0.08 左右波動(dòng)。

        利用“1.4.2”的評(píng)價(jià)指標(biāo)進(jìn)行定量分析,使用相同數(shù)據(jù)集,設(shè)置圖像輸入大小為224×224,迭代次數(shù)為80,學(xué)習(xí)率都為0.01,與同為卷積神經(jīng)網(wǎng)絡(luò)的經(jīng)典網(wǎng)絡(luò)模型ResNet50 和VGG16 以及原EfficientNetV2-S 進(jìn)行對(duì)比,具體結(jié)果如表3所示。

        表3 數(shù)據(jù)顯示,ECA-EfficientNetV2 相較經(jīng)典模型ResNet50、VGG16,其準(zhǔn)確率、精確率等指標(biāo)都優(yōu)于經(jīng)典模型,與原EfficientNetV2 模型相比雖準(zhǔn)確率下降了0.52 個(gè)百分點(diǎn),但模型參數(shù)量降低了33.56%,浮點(diǎn)運(yùn)算量FLOPs 降低了1.86 G,平均推理時(shí)間減少了9.40 ms,使模型更輕量化且推理速度更快,證明了本研究的生豬聲譜圖識(shí)別方法的有效性,并為后續(xù)應(yīng)用于邊緣節(jié)點(diǎn)計(jì)算打下基礎(chǔ)。但在推理時(shí)間上與經(jīng)典模型ResNet50、VGG16 相比,所需時(shí)間更長(zhǎng),表明EfficientNetV2 網(wǎng)絡(luò)模型仍需進(jìn)一步優(yōu)化。在后續(xù)研究中,將采集更多患病生豬樣本進(jìn)行試驗(yàn),并進(jìn)一步優(yōu)化網(wǎng)絡(luò)模型,為生豬健康智能養(yǎng)殖提供更有意義的技術(shù)支持。

        3 結(jié)論

        本研究提出一種基于盲源分離算法與ECAEfficientNetV2網(wǎng)絡(luò)模型相結(jié)合的生豬音頻狀態(tài)分類方法,所得主要結(jié)論如下:

        1) 欠定盲源分離方面,研究使用的改進(jìn)譜減法降噪算法比原譜減法降噪算法的降噪效果更優(yōu)。聚類得到的混合矩陣估計(jì)與原混合矩陣的NMSE 最低可達(dá)3.266×10?4。lp 范數(shù)重構(gòu)時(shí),在p 取不同值時(shí),重構(gòu)出的信號(hào)與源信號(hào)有不同的差異,當(dāng)p 取值為0.8 時(shí),此時(shí)重構(gòu)信號(hào)與源信號(hào)的差異性最小,利用信噪比作為評(píng)價(jià)指標(biāo),p 為0.8 時(shí)信噪比為4.267 dB,重構(gòu)信號(hào)質(zhì)量最佳。

        2) 生豬音頻識(shí)別方面,ECA-EfficientNetV2 相較于經(jīng)典網(wǎng)絡(luò)模型R e s N e t 5 0 、V G G 1 6 和原EfficientNetV2 模型,具有更輕量化的模型參數(shù),且準(zhǔn)確率也相較ResNet50 和VGG16 提高了2.88 和1.81個(gè)百分點(diǎn),與原EfficientNetV2 相比準(zhǔn)確率降低0.52 個(gè)百分點(diǎn),但模型參數(shù)量和浮點(diǎn)運(yùn)算量FLOPs與其余模型相比均為最低,且推理時(shí)間較原模型減少9.40 ms,為后續(xù)應(yīng)用于邊緣節(jié)點(diǎn)計(jì)算打下基礎(chǔ)。

        參考文獻(xiàn):

        [1]楊亮, 王輝, 陳睿鵬, 等. 智能養(yǎng)豬工廠的研究進(jìn)展與展望[J]. 華南農(nóng)業(yè)大學(xué)學(xué)報(bào), 2023, 44(1): 13-23.

        [2]GHANI S H, KHAN W. Extraction of UAV sound froma mixture of different sounds[J]. Acoustics Australia,2020, 48(3): 363-373.

        [3]HE P, QI M, LI W, et al. A general nonstationary andtime-varying mixed signal blind source separation methodbased on online Gaussian process[J]. InternationalJournal of Pattern Recognition and Artificial Intelligence,2020, 34(11): 2058015.

        [4]ADAM A M, FAROUK R M, EL-DESOUKY B S. Generalizedgamma distribution for biomedical signals denoising[J]. Signal, Image and Video Processing, 2023,17(3): 695-704.

        [5]張振華. 基于音頻分析技術(shù)的豬異常檢測(cè)[D]. 太原: 太原理工大學(xué), 2017.

        [6]沈明霞, 王夢(mèng)雨, 劉龍申, 等. 基于深度神經(jīng)網(wǎng)絡(luò)的豬咳嗽聲識(shí)別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2022, 53(5): 257-266.

        [7]JI N, SHEN W Z, YIN Y L, et al. Investigation of acousticand visual features for pig cough classification[J].Biosystems Engineering, 2022, 219: 281-293.

        [8]彭碩, 陶亮, 查文文, 等. 基于稀疏分量分析的生豬音頻欠定盲源分離研究[J]. 畜牧獸醫(yī)學(xué)報(bào), 2023, 54(7):2794-2809.

        [9]HU Y, LOIZOU P C. Speech enhancement based onwavelet thresholding the multitaper spectrum[J]. IEEETransactions on Speech and Audio Processing, 2004,12(1): 59-67.

        [10]楊稷, 沈明霞, 劉龍申, 等. 基于音頻技術(shù)的肉雞采食量檢測(cè)方法研究[J]. 華南農(nóng)業(yè)大學(xué)學(xué)報(bào), 2018, 39(5): 118-124.

        [11]趙歡, 王綱[11] 金, 趙麗霞. 一種新的對(duì)數(shù)能量譜熵語音端點(diǎn)檢測(cè)方法[J]. 湖南大學(xué)學(xué)報(bào)(自然科學(xué)版), 2010,37(7): 72-77.

        [12]朱國(guó)俊, 唐振博, 馮建軍, 等. 啟動(dòng)方式對(duì)混流泵噪聲特性的影響[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2023, 39(13): 34-42.

        [13]杜曉冬, 滕光輝, 劉慕霖, 等. 基于輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)的種雞發(fā)聲識(shí)別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2022, 53(10):271-276.

        [14]CAI W, LI M. A unified deep speaker embedding frameworkfor mixed-bandwidth speech data [EB/OL]. arXiv:2012.00486[2023-12-01]. https://ui.adsabs.harvard.edu/abs/2020arXiv201200486C.

        [15]丁楠. 基于特征學(xué)習(xí)的語音情感識(shí)別研究[D]. 南京: 南京郵電大學(xué), 2023.

        [16]CANDAN C. An automated window selection procedureFor DFT based detection schemes to reduce windowingSNR loss[EB/OL]. arXiv: 1710.10200[2023-12-01]. https://ui.adsabs.harvard.edu/abs/2017arXiv171010200C.

        [17]張逸, 陳書暢, 劉必杰, 等. 基于盲源分離的工業(yè)諧波源負(fù)荷分類識(shí)別方法[J]. 中國(guó)電機(jī)工程學(xué)報(bào), 2024,44(10): 3850-3862.

        [18]鄒亮, 張鵬, 陳勛. 基于三階統(tǒng)計(jì)量的欠定盲源分離方法[J]. 電子與信息學(xué)報(bào), 2022, 44(11): 3960-3966.

        [19]凌康杰, 岳學(xué)軍, 劉永鑫, 等. 基于移動(dòng)互聯(lián)的農(nóng)產(chǎn)品二維碼溯源系統(tǒng)設(shè)計(jì)[J]. 華南農(nóng)業(yè)大學(xué)學(xué)報(bào), 2017, 38(3):118-124.

        [20]王晶, 李煒, 洪心睿, 等. 基于改進(jìn)密度聚類算法的語音信號(hào)欠定盲分離[J]. 信息與控制, 2023, 52(6): 784-796.

        [21]KEMIHA M, KACHA A. Single-channel blind sourceseparation using adaptive mode separation-based wavelettransform and density-based clustering with sparse reconstruction[J]. Circuits Systems and Signal Processing,2023, 42(9): 5338-5357.

        [22] WANG M, CAI X X, ZHU K F. Underdetermined mixed matrix estimation of single source point detection basedon noise threshold eigenvalue decomposition[C]//Proceedingsof the 8th International Conference on Communications,Signal Processing, and Systems. Singapore:Springer, 2020: 704-711.

        [23]LI Y B, NIE W, YE F, et al. A complex mixing matrixestimation algorithm in under-determined blind sourceseparation problems[J]. Signal, Image and Video Processing,2017, 11(2): 301-308.

        [24]馮建英, 石巖, 王博, 等. 基于聚類分析的數(shù)據(jù)挖掘技術(shù)及其農(nóng)業(yè)應(yīng)用研究進(jìn)展[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2022,53(S1): 201-212.

        [25]XIE Y, XIE K, XIE S L. Underdetermined blind separationof source using lp-norm diversity measures[J].Neurocomputing, 2020, 411: 259-267.

        [26]XU P F, JIA Y J, JIANG M X. Blind audio source separationbased on a new system model and the Savitzky-Golay filter[J]. Journal of Electrical Engineering, 2021,72(3): 208-212.

        [27]FISLI S, DJENDI M. Hybrid PSO-NLMS (HPSONLMS)algorithm for blind speech quality enhancementin time domain[J]. Applied Acoustics, 2021, 177:107936.

        [28]TAN M, LE Q V. EfficientNetV2: Smaller models andfater training[EB/OL]. arXiv: 2104.00298[2023-12-01].https://ui.adsabs.harvard.edu/abs/2021arXiv210400298T.

        [29]WANG X K, JIA X, ZHANG M Y, et al. Object detectionin 3D point cloud based on ECA mechanism[J].Journal of Circuits, Systems and Computers, 2023, 32(5):2350080.

        【責(zé)任編輯 莊 延】

        基金項(xiàng)目:安徽省重點(diǎn)研究與開發(fā)計(jì)劃( 2 0 2 3 n 0 6 0 2 0 0 5 1,2 0 2 1 0 3 B 0 6 0 2 0 0 1 3 );安徽省研究生質(zhì)量工程項(xiàng)目(2022lhpysfjd023,2022cxcyjs010)

        猜你喜歡
        卷積神經(jīng)網(wǎng)絡(luò)
        基于深度神經(jīng)網(wǎng)絡(luò)的微表情識(shí)別
        卷積神經(jīng)網(wǎng)絡(luò)中減少訓(xùn)練樣本時(shí)間方法研究
        卷積神經(jīng)網(wǎng)絡(luò)語言模型研究
        基于卷積神經(jīng)網(wǎng)絡(luò)的車輛檢索方法研究
        基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        深度學(xué)習(xí)技術(shù)下的中文微博情感的分析與研究
        軟件(2016年5期)2016-08-30 06:27:49
        基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識(shí)別的算法的研究
        亚洲一区二区三区中文字幂| 蜜桃噜噜一区二区三区| 一区二区三区日韩亚洲中文视频 | 久久久久久久无码高潮| 日韩av精品国产av精品| 精品国产福利在线观看网址2022| 亚洲女同一区二区久久| 日本中文字幕人妻精品| 国产最新女主播福利在线观看| 少妇高潮惨叫久久久久久电影| 国产不卡一区二区三区免费视| 亚洲av综合色区在线观看| 亚洲一区二区三区日韩在线观看| 欧美激情一区二区三区| 亚洲综合无码一区二区| 操B小视频国产| 麻豆国产精品一区二区三区| 欧美熟妇另类久久久久久多毛| 亚洲av无码成人专区片在线观看| 国产精品无码片在线观看| 一区二区黄色素人黄色| 内射白浆一区二区在线观看| 麻豆一区二区99久久久久| 亚洲av高清在线观看三区| 丝袜美腿在线观看视频| а√中文在线资源库| 人妻无码中文字幕免费视频蜜桃| 挑战亚洲美女视频网站| 亚洲国产熟女精品传媒| 色一情一区二区三区四区| 91亚洲国产成人aⅴ毛片大全| 亚洲一区二区三区厕所偷拍| 国产99久久久国产精品~~牛| 人妻少妇偷人精品无码| 中文字幕第一页亚洲| 人妻风韵犹存av中文字幕 | 91精品国产91久久综合桃花| 日韩美腿丝袜三区四区| 久久精品亚洲一区二区三区浴池| 日韩国产欧美视频| 美女草逼视频免费播放|