亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于特征選擇和GWO-KELM的鳥聲識別算法

        2022-12-05 07:49:44李大鵬周曉彥徐華南
        聲學技術(shù) 2022年5期
        關(guān)鍵詞:分類特征模型

        李大鵬,周曉彥,葉 如,夏 煜,徐華南

        (南京信息工程大學電子與信息工程學院,江蘇 南京 210044)

        0 引言

        鳥類作為生態(tài)系統(tǒng)的重要組成部分,對鳥類活動和分布的監(jiān)測,為了解一個地區(qū)的生物多樣性變化和氣候變化提供了重要的依據(jù)[1-2],因此對鳥類的監(jiān)測與分類識別具有重要意義。鳥鳴聲和形態(tài)特征是區(qū)分鳥類的重要特征,也是目前鳥類物種識別普遍采用的方式,在實際監(jiān)測中鳥鳴聲相較于形態(tài)特征更加便于監(jiān)測。雖然目前國內(nèi)外對于鳥聲識別的研究并不多,但也取得了一定的成果。通過調(diào)查研究發(fā)現(xiàn),目前國內(nèi)的鳥聲識別技術(shù)主要通過改進鳥聲特征提取算法,提取各種鳥聲特征然后使用機器學習算法構(gòu)建分類器進行識別[3]。

        目前,鳥聲識別的分類方法可以分為3種:(1)基于模板匹配的分類方法。最常見的是動態(tài)時間規(guī)整(Dynamic Time Warping,DTW)算法,如徐淑正使用基于音長、梅爾倒譜系數(shù)(Mel-Frequency Ceps-tral Coefficients,MFCC)、線性預測系數(shù)(Linear Prediction Coefficient,LPCC)系數(shù)和時頻域紋理特征的動態(tài)時間規(guī)整算法可以達到90%的準確率[4]。(2)通過人工算法提取特征,選擇合適的分類模型。孫悅?cè)A等提取了4種鳥類鳴聲的MFCC,然后使用高斯混合模型對其進行分類識別,正確率可以達到89.1%~92.5%[5]。陳莎莎等為了降低環(huán)境噪聲對鳥聲識別的干擾,使用灰度共生法提取紋理特征,然后利用隨機森林(Random Forest,RF)模型對20種鳥聲進行識別,平均正確率可以達到95.35%[6]。錢坤等首次使用OpenSmile提取大規(guī)模聲學特征,使用ReliefF算法降低特征維度,極限學習機(Extreme Learning Machine,ELM)作為分類器實現(xiàn)鳥聲的分類識別,該方法在10種、30種和54種鳥類的識別正確率分別為94.71%、89.56%和86.57%[7]。張賽花等提取了一種梅爾子帶參數(shù)化特征,使用支持向量機(Support Vector Machine,SVM)對野外11種鳥鳴聲進行分類識別,結(jié)果表明該方法對11類鳥聲查全率、查準率和F1-score均高于89%[8]。(3)基于深度學習的方法。EmreCakir等基于提出了卷積遞歸神經(jīng)網(wǎng)絡(luò)(Convolutional Recurrent Neural Networks,CRNN)的方法實現(xiàn)鳴聲的高維特征及短時幀間的相關(guān)性特征提取,對Freesoung數(shù)據(jù)庫中的鳥鳴聲進行分類實驗,正確率達到88.5%[9]。馮郁茜提出了基于雙模態(tài)特征融合的鳥類物種分類算法,融合卷積網(wǎng)絡(luò)提取的語圖特征和長短時記憶結(jié)構(gòu)提取的鳴聲時序序列特征,自適應(yīng)完成基于鳴叫或者鳴唱的物種識別[10]。Bold等利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)提取語圖特征并且提出跨模態(tài)結(jié)合特征,提高了分類識別的性能[11]。

        由于文獻[5-7]所提取的鳥聲特征較為單一,分類參數(shù)采用網(wǎng)格搜索的方式容易錯過最優(yōu)值,無法達到分類器的最好性能。本文受文獻[7]的啟發(fā),將廣泛應(yīng)用于語音情感識別的ComParE特征集[12]應(yīng)用于鳥聲識別領(lǐng)域,同時為了降低特征冗余度,采用適合高維樣本的特征排序結(jié)合浮動搜索策略的混合特征選擇方法,以核極限學習機(Kernel Extreme Learning Machine,KELM)[13]十折交叉驗證的正確率來評判特征的優(yōu)劣,進行特征選擇,得到適用于鳥聲的特征子集,最后通過灰狼算法[14]對KELM參數(shù)進行尋優(yōu),得到最優(yōu)參數(shù)提高模型識別正確率。

        1 基于特征選擇和GWO-KELM的鳥聲識別算法

        本文所提出的鳥聲識別系統(tǒng)總體框架如圖1所示主要分成兩個部分:

        圖1 鳥聲識別系統(tǒng)框圖Fig.1 Block diagram of bird sound recognition system

        (1)基于KELM和Fscore的混合特征選擇

        首先對獲取的鳥聲進行預處理,并通過OpenS-mile提取ComParE特征集,然后計算每個特征的Fscore,對特征的區(qū)分能力進行評價并排序。最后以KELM十折交叉驗證正確率作為特征選擇的標準,采用廣義順序向前浮動搜索(Generalized Sequential Forward Floating Search,GSFFS)[15]作為搜索策略進行特征選擇得到最終適用于鳥聲識別的特征子集。

        (2)基于GWO的KELM識別算法

        為了提高KELM模型在鳥聲分類識別上的效果及穩(wěn)定性,將特征子集在KELM模型上十折交叉驗證的正確率,作為灰狼優(yōu)化算法的適應(yīng)度,迭代尋找最優(yōu)的正則化參數(shù)c和核函數(shù)參數(shù)σ。最后在該參數(shù)上對KELM模型進行訓練,得到識別結(jié)果。

        1.1 核極限學習機

        極限學習機[16]由黃廣斌在2006年提出,是一種只有一個隱藏層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它的隱藏層節(jié)點參數(shù)w和b通過隨機生成的方式產(chǎn)生,與訓練集無關(guān)[17],其輸出函數(shù)為

        其中:h(x)為隱藏層的特征映射,隱藏層輸出權(quán)重β根據(jù)廣義逆矩陣原理和最小二乘法計算得到:

        其中:H是隱藏層的輸出矩陣,T是目標矩陣。

        Huang等[13]通過對比極限學習機與SVM的原理,結(jié)合核函數(shù)方法用核映射代替ELM中的隨機映射,提出了核極限學習機(KELM),利用Mercer構(gòu)造核矩陣ΩELM取代廣義逆矩陣中的HHT。

        所以由式(2)、式(3)可得隱藏層輸出權(quán)重:

        為了提高KELM的穩(wěn)定性與泛化能力,引入正則化參數(shù)1/c添加在對角矩陣HHT對角線上。則輸出權(quán)重表示為

        其中:I為單位矩陣,由式(3)、(4)可得當特征映射h(x)未知時KELM的輸出函數(shù)可以表示為

        此時,f(x)的表達式為

        1.2 基于KELM和Fscore的混合特征選擇算法

        由于ComParE特征集是為人類語音情感識別而設(shè)計,其中部分特征并不能反映鳥聲的特點,為了更好地實現(xiàn)對鳥聲的識別,降低特征冗余度,本文使用特征選擇算法尋找合適的特征子集。

        特征選擇算法按照是否獨立于分類器,可以分為Filter型和Wrapper型[18],F(xiàn)ilter算法根據(jù)特定的準則評價特征重要性,獨立于分類器,速度快,但特征分類能力較弱;Wrapper算法以分類器性能為評價標準,特征子集分類效果好,但算法速度慢,特征泛化能力較差[19]。本文將這兩種方式混合,把Fscore作為特征區(qū)分能力評價標準結(jié)合KELM分類器,以廣義順序向前浮動搜索(GSFFS)[15]為搜索策略尋找最佳特征子集。

        1.2.1 Fscore特征區(qū)分能力評價標準

        傳統(tǒng)的Fscore只能用來計算兩類特征的區(qū)分能力,謝娟英等[20]及楊勇[21]對其進行了擴展,提出了改進的Fscore,可以衡量多類特征的區(qū)分能力。為了滿足對于多種鳥聲識別的需求,選擇改進的Fscore作為鳥聲特征區(qū)分能力評價標準對于提取到的鳥聲特征 樣 本,第i個特征的Fscore計算公式為

        1.2.2 混合特征選擇

        為了提高搜索效率,本文首先對計算得到鳥聲特征的Fscore按照大小進行降序排序,選擇前20%特征作為初始特征集,刪除得分最低的20%特征,剩下60%特征作為預選特征集。然后,依次不斷加入預選特征集中Fscore得分最高的特征,以KELM十折交叉驗證正確率為特征區(qū)分能力評價標準,如果正確率沒有提高就從特征子集中刪除該特征,繼續(xù)依次搜索剩下的預選特征集。為了解決嚴格地按照正確率上升作為特征選擇標準造成特征子集無法更新的問題,引入懲罰參數(shù)λ,即KELM正確率下降不超過λ就不會刪除該特征,混合特征選擇算法步驟如下:

        (1)計算每個鳥聲特征的Fscore,并降序排序;

        (2)選擇前20%特征作為初始特征集,20%~80%特征作為預選特征集,個數(shù)為n,初始化i=0,RAcc=0;

        (3)令i=i+1,將第i個特征加入特征子集;

        (4)計算特征子集的KELM十折交叉驗證正確率為RAcc1;

        (5)若RAcc1+λ>Acc,更新特征子集和正確率令RAcc=RAcc1,否則從特征子集中刪除該特征;

        (6)若i<n返回步驟(3),否則輸出被選特征子集。

        1.3 基于GWO優(yōu)化的KELM分類模型

        對于分類模型參數(shù)的選取,傳統(tǒng)的方法一般使用網(wǎng)格搜索的方式進行,但該方法在較大范圍使用小步長進行搜索時,需要較高的計算資源和較長的時間,而使用較大步長搜索往往可能錯過全局最優(yōu)值。因此本文采用隨機搜索的方式尋找KELM模型參數(shù)的全局最優(yōu)值。

        1.3.1 灰狼算法

        灰狼優(yōu)化(Grey Wolf Optimizer,GWO)算法是由澳大利亞學者Mirjalili等人在2014年提出的一種元啟發(fā)式群體智能優(yōu)化算法,該算法通過模擬自然界中灰狼的社會等級制度和狩獵機制,將灰狼按照等級從高到低分為α狼、β狼、δ狼和ω狼四種狼,實現(xiàn)對于獵物的尋找、包圍和攻擊[14]。在GWO算法中,群體適應(yīng)度最優(yōu)的三個解依次對應(yīng)為α狼、β狼、δ狼,其余的解為ω狼,通過α狼、β狼、δ狼引導ω狼包圍、攻擊獵物,從而獲得最優(yōu)值。

        GWO算法數(shù)學模型為

        其中:D表示灰狼個體與獵物間的距離,X(t+1)表示灰狼更新后的位置,公式中⊙均為矩陣的哈達瑪積,為取矩陣中元素的絕對值。t表示當前迭代次數(shù),Xp和X分別表示獵物和灰狼的位置向量。A和C為系數(shù)向量,計算公式為

        其中:a隨迭代次數(shù)t線性遞減,r1、r2為[0,-1]的隨機向量。C是系數(shù)向量,用于增加(C>1)或減少(C<1)灰狼與獵物之間的距離,提高全局搜索能力。

        假設(shè)狼α、β、δ知道獵物潛在位置,則灰狼更新公式為

        其中:Dα、Dβ、Dδ分別表示狼α、β、δ與其他個體的距離,Xα、Xβ、Xδ表示狼α、β、δ的當前位置。

        1.3.2 GWO-KELM算法

        常用的KELM核函數(shù)有高斯核函數(shù),多項式核函數(shù),拉普拉斯核函數(shù)和sigmoid核函數(shù)等[13],實驗中KELM核函數(shù)選取高斯核函數(shù),其計算公式為

        由式(7)、式(15)可知,KELM性能與正則化參數(shù)c和核函數(shù)參數(shù)σ密切相關(guān),為了提高KELM模型分類識別效果及穩(wěn)定性,本文通過灰狼算法優(yōu)化KELM的參數(shù)c和σ,把KELM模型十折交叉驗證正確率作為灰狼優(yōu)化算法的適應(yīng)度。GWO優(yōu)化KELM分類識別算法步驟如下:

        (1)初始化GWO算法參數(shù):狼群數(shù)量、最大迭代次數(shù)t、參數(shù)c和σ上下界;

        (2)隨機初始化狼群位置,位置維度為2;

        (3)根據(jù)狼群位置即c和σ,計算KELM交叉驗證正確率作為灰狼個體適應(yīng)度;

        (4)選擇適應(yīng)度最好的三個狼,記錄其位置為Xα、Xβ、Xδ;

        (5)根據(jù)式(13)、式(14)更新狼ω位置;

        (6)根據(jù)式(11)、式(12)參數(shù)A和C;

        (7)計算位置更新后的適應(yīng)度,并與上次迭代的最優(yōu)適應(yīng)度對比,更新狼α、β、δ適應(yīng)度和位置;

        (8)若迭代次數(shù)超過最大次數(shù),輸出全局最優(yōu)適應(yīng)度及其對應(yīng)位置Xα,否則執(zhí)行步驟(5)。

        2 實驗

        2.1 鳥聲數(shù)據(jù)庫及預處理

        為了驗證算法的有效性,本文采用國內(nèi)國外兩種數(shù)據(jù)庫進行實驗。一是德國柏林自然科學博物館數(shù)據(jù)庫,該數(shù)據(jù)庫由專業(yè)的鳥類學家在自然野外環(huán)境中采集的鳥鳴聲數(shù)據(jù)組成。為了保證足夠的訓練、測試數(shù)據(jù),實驗中刪除數(shù)據(jù)庫中鳥聲音頻文件數(shù)少于25個的鳥類,采用了60種鳥類、共計4 468個鳥鳴聲音頻文件,最短時長約為0.3 s,最長為36 s。同時將這4 468個長度不等的鳥聲數(shù)據(jù)統(tǒng)一為單聲道、采樣率44.1 kHz、32 bit的WAV格式音頻。二是由北京百鳥數(shù)據(jù)科技有限責任公司發(fā)布的中國常見20種鳥類鳴聲合集,包含灰雁、大天鵝、綠頭鴨、綠翅鴨、灰山鶉、西鵪鶉、雉雞、紅喉潛鳥、蒼鷺、普通鸕鶿、蒼鷹、歐亞鵟、西方秧雞、骨頂雞、黑翅長腳鷸、鳳頭麥雞、白腰草鷸、紅腳鷸、林鷸、麻雀,共14 311個長度均為2 s的WAV格式音頻。

        2.2 特征提取

        使用在語音情感識別中廣泛使用的開源工具OpenSmile提取ComParE特征集。該特征集在2013年InterSpeech中被提出,包含了大量手工設(shè)計的低水平特征LLDs和在LLDs基礎(chǔ)上統(tǒng)計得到的高級統(tǒng)計特征HSFs,共包含6 373維度特征,包括MFCC、時間信號的過零率(Zero-Crossing Rate,ZCR)、幀能量均方根(Root Mean Square,RMS)、基音頻率(F0)等特征,具體信息可參見文獻[12]。

        2.3 分類模型評價標準

        混淆矩陣是一種直觀地評價分類模型結(jié)果的指標,如圖2所示是二分類結(jié)果混淆矩陣。

        圖2 二分類結(jié)果混淆矩陣Fig.2 The confusion matrix of dichotomy results

        圖2中,NTP為樣本的真實類別是正例且模型預測的結(jié)果也是正例的樣本個數(shù);NTN為真實類別是負例,且預測成為負例的樣本個數(shù);NFP為真實類別是負例,但預測成為正例的樣本個數(shù);NFN為真實類別是正例,但預測成為負例的樣本個數(shù)。

        對混淆矩陣的數(shù)據(jù)進行簡單計算,可以延伸得到查準率、查全率、正確率和F1-score等常用評價指標。對于每種鳥類其計算公式如下:

        本文選擇正確率和兼顧查準率和查全率的F1-score作為分類模型評價指標。

        2.4 實驗與分析

        為了驗證本文算法的有效性,實驗共分為三個部分,其中前兩部分實驗均在德國柏林自然科學博物館數(shù)據(jù)庫上實現(xiàn)。首先對比原始ComParE特征集在不同分類器上的表現(xiàn);其次對比選擇后的特征子集與原始ComParE特征集在不同分類器上的識別精度,并對比采用網(wǎng)格搜索方式和GWO隨機搜索方式所得參數(shù)識別結(jié)果;最后對比了近年來相關(guān)論文所提算法和主流的深度學習算法。實驗的特征提取部分,通過基于python的OpenSmile3.0工具包實現(xiàn)提取鳥聲音頻的ComParE特征,每個音頻文件可以得到6 373×1維特征向量,循環(huán)遍歷數(shù)據(jù)庫中的所有音頻提取其特征并保存為CSV文件。然后以Matlab 2018b軟件為算法實驗平臺,采用十折交叉驗證方式作為實驗協(xié)議即將數(shù)據(jù)集分成十份,輪流將其中9份作為訓練數(shù)據(jù)、1份作為測試數(shù)據(jù),進行試驗。

        2.4.1 ComParE特征集在不同分類器上的表現(xiàn)

        該實驗在德國柏林自然科學博物館數(shù)據(jù)庫上進行,并隨機選取了其中10類,30類和全部60類數(shù)據(jù)進行實驗。對比了原始ComParE特征集在RF、SVM、ELM和KELM分類器上的表現(xiàn)結(jié)果如表1所示。實驗設(shè)置如下,除RF模型以外在將特征向量輸入分類器之前,首先對特征進行歸一化處理,其中RF模型采用默認設(shè)置決策樹數(shù)量為500,特征數(shù)量為79;由于特征參數(shù)維度很高,因此SVM模型采用線性核函數(shù),正則化參數(shù)設(shè)置為1;ELM模型隱藏層數(shù)量通過循環(huán)搜索的方式遍歷[1 000 2 000… 30 000]最終在10類,30類和60類實驗中對應(yīng)的設(shè)置為10 000、16 000、20 000;KELM模型核函數(shù)選擇為高斯核函數(shù),采用網(wǎng)格搜索的方式,高斯核函數(shù)參數(shù)σ∈[2-52-4...215]和正則化參數(shù)c∈[2-52-4...215]最終σ和c設(shè)置為4 096和2 048。

        從表1中可以看到KELM分類器在10類、30類和60類鳥聲識別十折交叉驗證正確率為96.67%、93.77%和93.23%,相對于其他分類器均具有更高的正確率。結(jié)果表明KELM算法相較于其他算法在高維度鳥聲特征分類識別中更具優(yōu)勢,體現(xiàn)了KELM分類器的優(yōu)越性。

        表1 ComParE特征集在分類器上的表現(xiàn)Table 1 The performance of the ComParE feature set on the classifier

        2.4.2 基于特征選擇和GWO-KELM算法實驗

        為了進一步提高鳥聲識別的效果,本文對提取到的6 373維特征集采用Fscore+KELM的方法在德國柏林自然科學博物館全部60類數(shù)據(jù)庫進行特征選擇,減少冗余特征,實驗懲罰參數(shù)λ設(shè)置為0.001。為了更好地體現(xiàn)特征對于分類器性能的影響,將KELM參數(shù)σ和c固定為4 096和2 048,最終選擇出2 710維特征。

        GWO算法初始設(shè)置為初始化狼群數(shù)量為10,最大迭代次數(shù)為100,參數(shù)c和σ的上下界設(shè)置為10 000和0.000 1,初始狼群位置在上下界范圍內(nèi)隨機生成。如圖3所示GWO-KELM在選擇后的特征集上的迭代結(jié)果,最終選擇的最優(yōu)參數(shù)c和σ分別為316、6 112。其他分類器的參數(shù)設(shè)置與2.4.1節(jié)相同。

        圖3 GWO-KELM迭代結(jié)果Fig.3 GWO-KELM iteration results

        表2所示為選擇后的特征子集與原始ComParE特征集在不同分類器和GWO-KELM算法的識別結(jié)果。從表2中可以看出選擇后的特征子集在四個分類器上的識別正確率和F1-score均高于原始特征集,提升幅度約2%~5%。結(jié)果表明,基于Fscore和KELM特征選擇算法減少了冗余特征,所選特征集具有良好的分類能力,能夠更好地反映鳥鳴聲的特點。在GWO-KELM模型(c=316,σ=6112)上識別正確率為94.45%,相比采用網(wǎng)格搜索的方式KELM算法提高0.5%左右。與傳統(tǒng)的網(wǎng)格搜索方式相比,GWO搜索方式更容易找到全局最優(yōu)值,證明了GWO-KELM模型的有效性。

        表2 不同分類器對60類鳥聲特征選擇前后的特征集的識別結(jié)果Table 2 Identification results of different classifiers for the feature sets before and after the selection of the 60-class bird acoustic features

        2.4.3 與其他論文方案的比較

        由于德國柏林數(shù)據(jù)庫語音長短差距較大,無法直接作為CNN模型的輸入,所以為了與目前主流的深度學習模型進行對比,實驗增加了北京百鳥數(shù)據(jù)庫的實驗。該部分實驗主要與以下4種方法進行對比:

        (1)ComParE+SVM:使用OpenSmile工具包提取ComParE特征集,通過經(jīng)典的SVM算法進行識別。

        (2)09IS+ELM[7]:通過p-centre方法實現(xiàn)對鳥鳴聲的音節(jié)檢測,然后使用OpenSmile工具包提取09IS特征集,并通過ReliefF算法減少特征維數(shù),最后采用ELM進行識別。

        (3)Logmel+CNN[11]:通過librosa提取鳥鳴聲的梅爾譜圖,輸入CNN進行識別。

        (4)Logmel+CRNN[9]:通過librosa提取鳥鳴聲的梅爾譜圖,輸入CNN和兩層循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)進行識別。

        (注:09IS+ELM模型采用原文在德國柏林數(shù)據(jù)庫上的實驗結(jié)果,Logmel+CNN和Logmel+CRNN模型實驗結(jié)果通過python 3.7和基于TensorFlow的kreas 2.3框架,采用原文參數(shù)復現(xiàn)所得)。

        實驗結(jié)果如表3所示,從表中可以看出相較于手工特征加分類器的方式,端到端的深度學習模型在識別率上更具備優(yōu)勢,本文所提的基于特征選擇和GWO-KELM的鳥聲識別算法,在傳統(tǒng)手工特征方法中具備明顯優(yōu)勢,可以達到與目前常見的卷積神經(jīng)網(wǎng)絡(luò)(CNN)近似相同的正確率,與CNN加RNN的方式仍有一定差距。但深度學習網(wǎng)絡(luò)往往需要更高的計算量和更多數(shù)據(jù)樣本。同時本文的方法不受音頻長短的影響,在音頻長短一致的北京百鳥數(shù)據(jù)庫和音頻長短不一的德國柏林數(shù)據(jù)庫都可以實現(xiàn)較好的分類效果。而深度學習網(wǎng)絡(luò)需要固定的語音長度或者通過補0等方法實現(xiàn)特征補齊,對于語音長短差距較大數(shù)據(jù)庫處理較為困難。因此本文方法對于數(shù)據(jù)要求更低,具有更好的適應(yīng)性。

        表3 與其他論文方案的對比Table 3 Comparison with other paper schemes

        3 結(jié)論

        為了提高種類較多的鳥聲識別正確率,解決目前鳥聲識別算法中特征單一的問題,本文提出了一種基于混合特征選擇和灰狼算法優(yōu)化核極限學習機的鳥聲識別算法。該算法將Fscore特征區(qū)分能力標準與KELM分類器相結(jié)合對提取的ComParE特征集進行特征選擇,然后通過GWO算法優(yōu)化KELM進行分類識別。通過對比實驗可以看出,相較于原始ComParE特征集,選擇后的特征子集在不同分類器上的識別正確率均有提高,表明了基于KELM和Fscore的混合特征選擇算法所選特征子集具有良好的分類能力。該方法在德國柏林數(shù)據(jù)庫和北京百鳥數(shù)據(jù)庫的分類識別正確率分別可以達到94.45%和91.16%。雖識別正確率略低于目前計算量更大的深度學習模型,但由于深度學習模型需要更多的數(shù)據(jù)樣本,本文所提方法在小樣本鳥聲數(shù)據(jù)的識別上仍具有一定優(yōu)勢。

        猜你喜歡
        分類特征模型
        一半模型
        分類算一算
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        分類討論求坐標
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        抓住特征巧觀察
        99久久精品免费看国产情侣 | 91精品国产福利尤物免费| 精品久久日产国产一区| 噜噜中文字幕一区二区| 亚洲国产成人av在线观看| 国产精品后入内射日本在线观看| 久久亚洲国产精品123区| 丝袜美腿在线播放一区二区| 国产乡下妇女做爰| 日本无遮挡吸乳呻吟视频| 国产精品日本天堂| 韩国精品一区二区三区| 色婷婷av一区二区三区不卡| av高清在线不卡直播| 国产麻豆成人精品av| 亚洲V在线激情| 白白色发布视频在线播放| 色偷偷偷在线视频播放| 99热久久这里只精品国产www| 日韩久久av电影| 久久日本视频在线观看| 国产在线精品一区二区中文| 91日本精品国产免| 国产偷拍盗摄一区二区| 国产精品一区二区久久国产| 性生交大片免费看淑女出招| 就国产av一区二区三区天堂| 一区二区三区观看视频在线| 免费a级毛片无码a∨中文字幕下载| 最新亚洲人成无码网站| 日本一区二区三区资源视频| 日韩有码中文字幕在线观看| 亚洲人成网站18禁止久久影院| 国产肉体XXXX裸体784大胆| 在线不卡精品免费视频| 女人高潮内射99精品| 猫咪www免费人成网最新网站 | 亚洲性无码av中文字幕| 国产无遮挡裸体免费视频| 中文字幕av无码一区二区三区电影 | 美女扒开内裤让男生桶|