楊正偉 - 張 鑫 李慶盛 - 繆 楠 王志強(qiáng) - 李彩虹 - 袁文浩 - 馬云霞 - 周 智
(1. 山東理工大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,山東 淄博 255049;2. 淄博市中西醫(yī)結(jié)合醫(yī)院,山東 淄博 255026)
普洱茶是以云南特有的大葉種曬青毛茶為原料,經(jīng)過(guò)渥堆發(fā)酵工藝生產(chǎn)的后發(fā)酵類(lèi)茶[1],具有降血糖、降血脂、抗病毒等功效,深受?chē)?guó)內(nèi)外消費(fèi)者的喜愛(ài)[2]。隨著貯藏時(shí)間的增加,普洱茶的內(nèi)部會(huì)發(fā)生復(fù)雜的化學(xué)變化,使得其風(fēng)味和口感得以提升[3]。近年來(lái),受經(jīng)濟(jì)利益驅(qū)動(dòng),市場(chǎng)上常會(huì)出現(xiàn)普洱茶產(chǎn)品以新替舊、以次充好等現(xiàn)象,嚴(yán)重?fù)p害了消費(fèi)者的權(quán)益和普洱茶市場(chǎng)的聲譽(yù)。傳統(tǒng)普洱茶貯藏年限鑒別方法主要有感官分析法和理化分析法。諶瀅等[4]采用感官分析法對(duì)不同年限的普洱茶外形、茶湯色澤和口感進(jìn)行評(píng)價(jià)并做出區(qū)分,但該方法受人為因素影響較大,結(jié)果的客觀性容易受到干擾;謝直虎等[5]采用傅里葉紅外光譜對(duì)不同年限普洱茶中的酚類(lèi)、醇類(lèi)等物質(zhì)進(jìn)行分析,進(jìn)而對(duì)不同普洱茶進(jìn)行分辨;鄭玲等[6]采用表面增強(qiáng)拉曼光譜對(duì)不同年限普洱茶中的茶素、茶氨酸等物質(zhì)進(jìn)行檢測(cè),從而區(qū)分不同年限的普洱熟茶。但以上理化分析方法檢測(cè)儀器成本高、分析過(guò)程繁瑣、耗時(shí)耗力且需要檢測(cè)人員具備專(zhuān)業(yè)技能,不適用于對(duì)普洱茶貯藏年限進(jìn)行快速鑒別。
電子舌是一種利用多傳感陣列結(jié)合模式識(shí)別技術(shù)對(duì)液態(tài)樣本的“指紋圖譜”進(jìn)行分析的仿生學(xué)儀器,具有操作簡(jiǎn)單、檢測(cè)迅速、儀器體積小、成本低、檢測(cè)結(jié)果客觀性強(qiáng)等特點(diǎn)。近年來(lái)電子舌已被廣泛應(yīng)用于環(huán)境監(jiān)測(cè)[7]、食品檢測(cè)與鑒別[8]和藥物分析[9]等多個(gè)領(lǐng)域。模式識(shí)別技術(shù)在電子舌系統(tǒng)中起著至關(guān)重要的作用,其適用性直接影響到檢測(cè)結(jié)果的準(zhǔn)確性。Bhondekar等[10]使用電子舌結(jié)合主成分分析和判別因子分析等模式識(shí)別方法對(duì)不同生產(chǎn)工藝的印度紅茶進(jìn)行了辨別;Bhattacharyya等[11]采用電子舌結(jié)合線性判別分析和反向傳播神經(jīng)網(wǎng)絡(luò)等模式識(shí)別方法對(duì)不同種類(lèi)的紅茶進(jìn)行了區(qū)分。一般來(lái)說(shuō),電子舌系統(tǒng)的模式識(shí)別過(guò)程主要包括特征提取和分類(lèi)識(shí)別兩個(gè)階段。特征提取的主要作用是從原始電子舌信號(hào)中提取出最重要的信息,從而減少后續(xù)數(shù)據(jù)分析的復(fù)雜性。常見(jiàn)的特征提取方法有特征點(diǎn)法[12]、主成分分析法(PCA)[13]、快速傅里葉變換法(FFT)[14]、離散小波變換法(DWT)等,其中離散小波變換已被證明是一種較為有效的電子舌特征提取方法[15]。然而,以上特征提取方法主要基于人工特征設(shè)計(jì),效率較低,并且其效果受設(shè)計(jì)人員的經(jīng)驗(yàn)和技術(shù)影響較大。分類(lèi)識(shí)別是基于所提取的特征信息對(duì)樣本進(jìn)行分類(lèi)或識(shí)別的方法。目前常用的電子舌分類(lèi)識(shí)別算法主要有線性判別分析(LDA)[16]、反向傳播神經(jīng)網(wǎng)絡(luò)(BPNN)[17]、支持向量機(jī)(SVM)[18]等。然而,這些方法主要基于淺層的機(jī)器學(xué)習(xí)算法構(gòu)造,存在模型精度有限、泛化能力不足等問(wèn)題。
深度學(xué)習(xí)是近年來(lái)發(fā)展起來(lái)的一種新型數(shù)據(jù)處理和信號(hào)分析技術(shù)。深度學(xué)習(xí)對(duì)傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò)進(jìn)行擴(kuò)充,增加了模型的深度(復(fù)雜性),并通過(guò)使用允許分層級(jí)別的數(shù)據(jù)表示,提高了數(shù)據(jù)處理和分析的能力。在深度學(xué)習(xí)算法中,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是最著名的模型之一。CNN通過(guò)引入多個(gè)卷積層和池化層(下采樣層),實(shí)現(xiàn)了一種自動(dòng)的特征提取機(jī)制[19]。目前,CNN已被廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)、語(yǔ)音識(shí)別、自然語(yǔ)言處理等多個(gè)與人工智能相關(guān)的研究領(lǐng)域[20]。然而,當(dāng)前尚未見(jiàn)文獻(xiàn)將CNN應(yīng)用于電子舌的模式識(shí)別處理。由于CNN的全連接層采用反向傳播(BP)算法進(jìn)行訓(xùn)練,容易陷入局部最小或出現(xiàn)過(guò)度訓(xùn)練,導(dǎo)致模型訓(xùn)練時(shí)間長(zhǎng)、泛化性能下降。極限學(xué)習(xí)機(jī)(ELM)是一種基于單隱層前饋神經(jīng)網(wǎng)絡(luò)(SLFN)的監(jiān)督型算法,具有訓(xùn)練參數(shù)計(jì)算量小、訓(xùn)練時(shí)間短、分類(lèi)效率高等特點(diǎn),作為分類(lèi)器可以很好地彌補(bǔ)BP算法的缺點(diǎn)[21]。
研究擬提出一種基于伏安電子舌和一維深度CNN結(jié)合ELM模型(1-D CNN-ELM)的普洱茶貯藏年限鑒別方法。利用卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)提取特征的特點(diǎn)對(duì)電子舌信號(hào)進(jìn)行特征提取,并通過(guò)ELM建立分類(lèi)模型對(duì)提取后的特征向量進(jìn)行分類(lèi),為不同年限普洱茶的快速、準(zhǔn)確地鑒別提供新的方法和思路。
試驗(yàn)材料均采用勐海茶廠出產(chǎn)的普洱熟茶,出廠時(shí)間分別為2011年、2013年、2015年、2017年和2019年5個(gè)不同年份。準(zhǔn)確稱(chēng)取5 g茶葉,放入200 mL沸騰蒸餾水沖泡5 min,茶溶液經(jīng)濾紙過(guò)濾,冷卻至室溫[(25±2) ℃]后采用伏安電子舌進(jìn)行數(shù)據(jù)采集。每個(gè)樣本采集完成后,用Al2O3粉末對(duì)傳感器陣列進(jìn)行打磨,然后放入超聲波清洗儀中清洗。采用上述方法共采集到1 595個(gè)電子舌信號(hào),其中2011年、2013年、2015年、2017年和2019年的樣品數(shù)量分別為333,310,314,317,321。
伏安電子舌系統(tǒng)由實(shí)驗(yàn)室自行開(kāi)發(fā),結(jié)構(gòu)如圖1所示。該系統(tǒng)由4部分組成:① 傳感器陣列,包括8個(gè)不同的工作電極(鉑、金、鈦、鈀、銀、鎢、鎳和玻碳)、一個(gè)鉑輔助電極和一個(gè)Ag/AgCl參比電極。Winquist等[22]發(fā)現(xiàn)不同種類(lèi)貴金屬電極對(duì)不同化學(xué)成分的敏感性不同,導(dǎo)致其表面的電化學(xué)反應(yīng)產(chǎn)生差異,多個(gè)工作電極采集的電流信號(hào)經(jīng)匯總后可形成被測(cè)溶液的“指紋圖譜”。② 信號(hào)調(diào)理電路,用于控制三電極系統(tǒng)的恒壓電勢(shì)并完成采集信號(hào)的放大與濾波功能。③ 數(shù)據(jù)采集卡,通過(guò)其D/A模塊產(chǎn)生電極激勵(lì)信號(hào)并利用A/D模塊采集傳感器響應(yīng)信號(hào)。④ LabVIEW上位機(jī)軟件,用于對(duì)檢測(cè)過(guò)程進(jìn)行操控,并對(duì)采集到的電極響應(yīng)信號(hào)進(jìn)行分析。電子舌檢測(cè)過(guò)程中,采用如圖2所示的大幅方波脈沖(LAPV)對(duì)工作電極進(jìn)行伏安掃描,其工作電勢(shì)范圍為-1~1 V,掃描頻率為10 Hz,階躍電位為5 mV。在LAPV的激勵(lì)下,多個(gè)工作電極表面發(fā)生氧化還原反應(yīng),產(chǎn)生不同幅度的微弱電流響應(yīng)信號(hào)。該信號(hào)經(jīng)調(diào)理電路放大后,通過(guò)數(shù)據(jù)采集卡采集至LabVIEW軟件進(jìn)行分析。
圖2 大幅方波脈沖伏安信號(hào)
1. 參比電極 2. 工作電極與輔助電極 3. 信號(hào)調(diào)理電路 4. LabVIEW上位機(jī)軟件 5. 數(shù)據(jù)采集卡
傳統(tǒng)的CNN為二維卷積神經(jīng)網(wǎng)絡(luò),通常用于圖像識(shí)別領(lǐng)域[23]。由于電子舌信號(hào)為一維信號(hào),因此選用一維卷積神經(jīng)網(wǎng)絡(luò)(1-D CNN)模型。其結(jié)構(gòu)如圖3所示,主要由多個(gè)卷積層、池化層(下采樣層)和全連接層組成。
圖3 一維卷積神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)
(1)
式中:
D——輸入數(shù)據(jù);
*——一維卷積操作;
b——偏置項(xiàng);
f(·)——激活函數(shù)。
卷積層后為池化層(下采樣層),其目的是進(jìn)一步縮小特征圖的尺寸,減輕1-D CNN的計(jì)算負(fù)擔(dān)。池化層一般只進(jìn)行降維操作,沒(méi)有參數(shù),不進(jìn)行權(quán)重更新。文中,選擇最大池化操作:
(2)
式中:
n——卷積核的尺寸邊長(zhǎng);
max(·)——最大值函數(shù)。
全連接層由多個(gè)隱含層組成,作用是將所得到的多通道特征圖轉(zhuǎn)化為一維向量,其形式為X=[x1,x2,…,xn],其中n為最后一個(gè)卷積層的節(jié)點(diǎn)個(gè)數(shù)。模型最后一層輸出層采用Softmax激活函數(shù),其公式:
(3)
極限學(xué)習(xí)機(jī)(ELM)是由Huang等[21]提出的一種改進(jìn)的單隱層前饋神經(jīng)網(wǎng)絡(luò)(SLFN)。ELM可以隨機(jī)選擇輸入層和隱含層之間的隱藏節(jié)點(diǎn)和連接權(quán)值,從而確定網(wǎng)絡(luò)的輸出權(quán)值。對(duì)N個(gè)任意不同的樣本(xi,yi), (xi=[xi1,xi2,…,xin]T∈Rn,yi=[yi1,yi2,…,yin]T∈Rn),其具有L個(gè)隱含層節(jié)點(diǎn)的SLFN為
(4)
式中:
f(·)——激活函數(shù);
βi——隱含層和輸出層第i個(gè)節(jié)點(diǎn)之間的輸出權(quán)重;
αi——輸入層和隱含層第i個(gè)節(jié)點(diǎn)之間的輸入權(quán)重;
bi——第i個(gè)節(jié)點(diǎn)之間的偏置。
用矩陣的形式對(duì)式(6)進(jìn)行重構(gòu):
Hβ=T,
(5)
其中,H表示隱含層輸出矩陣:
(6)
式中:
在SLFN中,當(dāng)激活函數(shù)f無(wú)限可微,對(duì)于隨機(jī)選擇的輸入權(quán)值和隱含層偏置,只要訓(xùn)練集樣本數(shù)N大于隱含層神經(jīng)元個(gè)數(shù)L,SLFN即可零誤差去逼近訓(xùn)練樣本。因此,訓(xùn)練ELM的過(guò)程相當(dāng)于求解方程組Hβ=T的最小二乘解:
(7)
可證明該最小二乘解的最小值為:
(8)
式中:
H+——隱含層輸出矩陣H的廣義雅克比矩陣的逆,可通過(guò)正交法計(jì)算求得。
經(jīng)典1-D CNN采用BPNN作為分類(lèi)器,會(huì)導(dǎo)致訓(xùn)練時(shí)間長(zhǎng)、泛化能力差的問(wèn)題。ELM具有訓(xùn)練速度快、泛化性好、分類(lèi)精度高等優(yōu)點(diǎn)。鑒于1-D CNN以及ELM各自的特點(diǎn),將1-D CNN 和ELM 組合構(gòu)建CNN-ELM模型。圖4為1-D CNN-ELM模型結(jié)構(gòu)圖,其中,1-D CNN模型由5個(gè)卷積層和4個(gè)池化層組成。第1個(gè)卷積層使用了16個(gè)尺寸為7的卷積核。第2個(gè)卷積層使用32個(gè)尺寸為5的卷積核。第3~5個(gè)卷積層均采用尺寸為3的卷積核,其個(gè)數(shù)分別為64,128,64。模型的激活函數(shù)采用指數(shù)線性單元(ELU)。在第1個(gè)卷積層到第5層卷積層之間均放置一個(gè)Max-Pooling層,池化窗口尺寸和步幅為2。最后一層卷積后采用ELM進(jìn)行分類(lèi)識(shí)別。
圖4 1-D CNN-ELM模型
1-D CNN-ELM模型的訓(xùn)練流程如圖5所示,先將伏安電子舌采集的普洱茶信號(hào)進(jìn)行數(shù)據(jù)預(yù)處理操作(數(shù)據(jù)增強(qiáng)、數(shù)據(jù)歸一化),再將處理好后的數(shù)據(jù)集中的70%作為訓(xùn)練集樣本,其余作為測(cè)試集樣本。使用訓(xùn)練集樣本訓(xùn)練1-D CNN至收斂,然后提取最后一個(gè)卷積層的特征訓(xùn)練ELM,可得到1-D CNN-ELM模型,采用測(cè)試集樣本對(duì)模型進(jìn)行分類(lèi)效果檢驗(yàn)。
圖5 1-D CNN-ELM模型訓(xùn)練流程
模型訓(xùn)練均是在Keras框架下完成的。硬件環(huán)境:Intel i7-8700K@3.70 GHz;24 G內(nèi)存;Nvidia GeForce GTX 1080Ti,11 G顯存。軟件環(huán)境:CUDA Toolkit 10.0,CUDNN V7.6.1;Python 3.6;Keras 2.2.4;Windows 10 64 bit 操作系統(tǒng)。
伏安電子舌系統(tǒng)的8個(gè)工作電極得到的響應(yīng)信號(hào)如圖6所示。由圖6可以看出,每個(gè)電極區(qū)域都表現(xiàn)出一種獨(dú)特的普洱茶樣品“指紋圖譜”。普洱茶經(jīng)檢測(cè)后,每個(gè)樣品可采集得到8 000個(gè)數(shù)據(jù)點(diǎn)(1 000×8個(gè)電極)。
圖6 電子舌響應(yīng)信號(hào)
由于電子舌信號(hào)噪聲大且數(shù)值變化幅度較大,因此需要采用式(9)對(duì)電子舌信號(hào)進(jìn)行歸一化處理:
(9)
式中:
xi——信號(hào)中第i個(gè)采樣值;
xmax——信號(hào)中最大值;
xmin——信號(hào)中最小值。
為了進(jìn)一步提高1-D CNN模型的魯棒性,采用數(shù)據(jù)增強(qiáng)技術(shù)增加電子舌信號(hào)的訓(xùn)練樣本數(shù)量。文中采用信號(hào)加噪擴(kuò)容的信號(hào)增強(qiáng)方法,步驟是:首先將均值為0,標(biāo)準(zhǔn)差為0.05的隨機(jī)高斯噪聲信號(hào)嵌入到原始的電子舌信號(hào)中,形成加噪數(shù)據(jù)集。然后將加噪數(shù)據(jù)集與原數(shù)據(jù)集組合,共可得到3 190個(gè)電子舌信號(hào)訓(xùn)練樣本。
2.3.1 CNN結(jié)構(gòu)優(yōu)化 不同的卷積層和池化層組合會(huì)影響1-D CNN對(duì)電子舌信號(hào)特征的提取效果。較多的卷積層(Conv-i)和池化層(Pooling-i)會(huì)導(dǎo)致模型提取過(guò)多不必要的特征,易產(chǎn)生過(guò)擬合問(wèn)題;而較少的卷積層和池化層則會(huì)使得樣本特征得不到充分提取,易產(chǎn)生欠擬合問(wèn)題。為了達(dá)到最佳的特征提取效果,采用(Conv-6, Pooling-5)、(Conv-5, Pooling-4)、(Conv-4, Pooling-3)和(Conv-3, Pooling-2) 4種不同數(shù)目的卷積層和池化層組合對(duì)CNN模型進(jìn)行優(yōu)化。從圖7可以看出,隨著卷積層從3增加到6、池化層從2增加到5,1-D CNN模型在訓(xùn)練集上的收斂速度和分類(lèi)準(zhǔn)確率增加。從圖8可以看出,測(cè)試集上,最佳組合為(Conv-5, Pooling-4),而組合(Conv-6, Pooling-5)出現(xiàn)性能下降的原因可能是卷積層和池化層數(shù)量過(guò)多,導(dǎo)致電子舌特征被過(guò)度提取從而產(chǎn)生過(guò)擬合問(wèn)題。
圖8 不同卷積層和池化層組合的模型在訓(xùn)練集和測(cè)試集上的平均分類(lèi)精度
圖7 不同模型組合在訓(xùn)練集和測(cè)試集的分類(lèi)精度
1-D CNN的超參數(shù)如學(xué)習(xí)率、訓(xùn)練周期epoch和mini-batch size也會(huì)對(duì)模型的訓(xùn)練速度和泛化性能產(chǎn)生較大影響。因此,采用單一因素法對(duì)1-D CNN的超參數(shù)進(jìn)行選擇優(yōu)化,具體步驟見(jiàn)文獻(xiàn)[24],其結(jié)果如圖9所示。通過(guò)比較不同超參數(shù)在測(cè)試集上的分類(lèi)性能,得到最佳分類(lèi)效果的模型的學(xué)習(xí)率為0.000 5、訓(xùn)練周期epoch為30、mini-batch size的參數(shù)為42。
圖9 不同超參數(shù)在CNN測(cè)試集上的準(zhǔn)確率
2.3.2 ELM分類(lèi)器優(yōu)化 1-D CNN-ELM模型的ELM分類(lèi)器在訓(xùn)練中能夠隨機(jī)產(chǎn)生輸入層和隱含層間的連接權(quán)值和閾值,因此,僅需要對(duì)ELM隱含層節(jié)點(diǎn)數(shù)進(jìn)行優(yōu)化即可。分別將隱含層的節(jié)點(diǎn)數(shù)為2~200的不同ELM與1-D CNN結(jié)合,其不同結(jié)構(gòu)的模型分類(lèi)準(zhǔn)確性結(jié)果如圖10所示。由圖10可以看出,當(dāng)隱含層節(jié)點(diǎn)數(shù)為146時(shí),1-D CNN-ELM的性能最佳,其準(zhǔn)確率為98.32%。
圖10 不同隱含層節(jié)點(diǎn)數(shù)的ELM在測(cè)試集上的準(zhǔn)確率
為了驗(yàn)證文中方法的有效性,采用離散小波變換(DWT)作為特征提取方法,分別使用SVM和ELM作為分類(lèi)器,組成DWT-SVM和DWT-ELM兩種對(duì)比模型,對(duì)普洱茶電子舌信號(hào)進(jìn)行模式識(shí)別操作。
在DWT特征提取過(guò)程中,為了達(dá)到最佳效果,對(duì)小波基函數(shù)和分解階數(shù)進(jìn)行優(yōu)化。電子舌信號(hào)分別選擇4種不同的小波基函數(shù)(Coiflets、Daubechies、Haar、Symlets)進(jìn)行4~7階的分解。為了評(píng)價(jià)分解效果,選擇相關(guān)系數(shù)R2作為評(píng)價(jià)指標(biāo)。其試驗(yàn)結(jié)果如圖11所示。結(jié)果表明,當(dāng)采用Sym6母小波進(jìn)行7層分解時(shí),相似系數(shù)達(dá)到最大值0.974 9,此時(shí)壓縮效果最好。電子舌信號(hào)經(jīng)DWT特征提取后,8 000個(gè)數(shù)據(jù)點(diǎn)被壓縮至73個(gè)。
圖11 DWT特征提取中不同母小波和分解層數(shù)對(duì)R2的影響
采用SVM作為模型分類(lèi)器,其分類(lèi)性能主要受到懲罰系數(shù)C和核函數(shù)參數(shù)λ影響。采用網(wǎng)格尋優(yōu)算法對(duì)SVM進(jìn)行優(yōu)化,其中的C和γ的取值范圍均為[2-5,2-4,…,24,25],其結(jié)果如圖12所示,試驗(yàn)表明,當(dāng)C=2-5,γ=25時(shí),DWT-SVM模型的分類(lèi)效果達(dá)到最優(yōu),其準(zhǔn)確率為91.36%。采用與3.3.2節(jié)相同的方法對(duì)DWT-ELM模型中的ELM隱含層節(jié)點(diǎn)進(jìn)行優(yōu)化,結(jié)果表明,當(dāng)節(jié)點(diǎn)數(shù)為96時(shí),DWT-ELM模型的性能最佳,其準(zhǔn)確率為93.63%。
圖12 SVM中不同的C和γ對(duì)測(cè)試集準(zhǔn)確率的影響
分別建立1-D CNN-ELM、傳統(tǒng)CNN、DWT-SVM和DWT-ELM模型的分類(lèi)混淆矩陣。如圖13所示,可發(fā)現(xiàn)傳統(tǒng)CNN對(duì)普洱茶年限鑒別的正確分類(lèi)的樣本個(gè)數(shù)要大于DWT-ELM和DWT-SVM,而1-D CNN-ELM的正確分類(lèi)的樣本數(shù)多于傳統(tǒng)CNN。
圖13 4種模型的分類(lèi)混淆矩陣
進(jìn)一步對(duì)4種模型的精確率、召回率和F1-Score參數(shù)進(jìn)行對(duì)比分析,其公式:
(10)
(11)
(12)
式中:
Precison——精確率,%;
Recall——召回率,%;
F1-Score——F1-Score參數(shù);
TP——真實(shí)的正樣本數(shù)量;
FP——真實(shí)的負(fù)樣本數(shù)量;
FN——虛假的負(fù)樣本數(shù)量。
從表1可以看出,DWT-ELM模型的精確率、召回率和F1-Score分別為94.0%,94.0%,0.94,較DWT-SVM模型的性能提高了約3%。這可能是由ELM模型比SVM模型具有更好的泛化能力和魯棒性造成的。傳統(tǒng)1-D CNN模型性能又較DWT-ELM模型提高了約2%,表明1-D CNN在其分類(lèi)器(BPNN)性能劣于ELM的情況下,仍能取得較好的分類(lèi)效果,證明了深度學(xué)習(xí)方法比傳統(tǒng)機(jī)器學(xué)習(xí)方法具有更好的特征提取性能。而1-D CNN-ELM模型與1-D CNN模型相比性能更好,說(shuō)明ELM分類(lèi)器的引入有效地提高了傳統(tǒng)CNN模型的分類(lèi)準(zhǔn)確率和模型泛化性能。
表1 不同模式識(shí)別模型的性能對(duì)比
研究提出了一種基于1-D CNN-ELM模式識(shí)別模型結(jié)合伏安電子舌對(duì)普洱茶年限進(jìn)行鑒別的方法。采用一維卷積神經(jīng)網(wǎng)絡(luò)對(duì)電子舌信號(hào)進(jìn)行自動(dòng)特征提取,然后利用ELM算法進(jìn)行分類(lèi)識(shí)別。該方法克服了傳統(tǒng)CNN泛化能力差、訓(xùn)練耗時(shí)長(zhǎng)的缺點(diǎn),同時(shí)避免了傳統(tǒng)機(jī)器學(xué)習(xí)模型需要人工特征設(shè)計(jì),導(dǎo)致特征提取不完善、費(fèi)時(shí)費(fèi)力等問(wèn)題。試驗(yàn)結(jié)果表明,與傳統(tǒng)電子舌信號(hào)模式識(shí)別模型相比,1-D CNN-ELM模型對(duì)不同貯藏年限的普洱茶電子舌信號(hào)的分類(lèi)準(zhǔn)確率有較大提升。研究?jī)H對(duì)5種不同年限的普洱茶進(jìn)行鑒別且采用單一因素法優(yōu)化1-D CNN模型超參數(shù),后續(xù)將采用更加高效的模型優(yōu)化方法,并將其應(yīng)用于電子舌的其他檢測(cè)領(lǐng)域,以進(jìn)一步驗(yàn)證其適用性。