湯正舉,陳博,姜遍地
(河南力科管線探測(cè)技術(shù)有限公司 ,河南 鄭州 450051)
隨著計(jì)算機(jī)技術(shù)的發(fā)展,特別是計(jì)算機(jī)運(yùn)算速度的不斷突破,人工智能逐步進(jìn)入應(yīng)用階段,并且迅速融入社會(huì)越來(lái)越多的領(lǐng)域。通過(guò)識(shí)別面部特征的人臉識(shí)別技術(shù)、實(shí)現(xiàn)了一種更為便捷、高效的身份驗(yàn)證模式;基于聲紋識(shí)別的人機(jī)對(duì)話(huà),可以解放雙手進(jìn)行語(yǔ)音導(dǎo)航,大大提高了駕駛的安全性。麥肯錫公司分析了全球經(jīng)濟(jì)800多個(gè)職業(yè)中的 2 000多個(gè)工作活動(dòng)。在一篇名為《中國(guó)人工智能的未來(lái)之路》的報(bào)告中指出:從技術(shù)層面來(lái)看,現(xiàn)在50%的工作活動(dòng)完全可以通過(guò)現(xiàn)有的人工智能技術(shù)實(shí)現(xiàn)自動(dòng)化。同時(shí)根據(jù)目前發(fā)展趨勢(shì)也不難看出,人工智能技術(shù)正在被更為廣泛的行業(yè)所接受。
人工智能最重要的進(jìn)步在于,通過(guò)智能算法訓(xùn)練的機(jī)器,可以處理一直以來(lái)必須依賴(lài)人工完成的各種復(fù)雜工作。漏水探測(cè)就是這樣一項(xiàng)極度依賴(lài)人工的復(fù)雜工作,從管網(wǎng)流量異常調(diào)查,管網(wǎng)壓力梯度分析,到閥栓聽(tīng)音檢測(cè),路面拾音檢測(cè),無(wú)不依賴(lài)檢測(cè)人員長(zhǎng)期積累的工作經(jīng)驗(yàn)。
漏水探測(cè)工作中經(jīng)常會(huì)遇到干擾噪聲的影響,有經(jīng)驗(yàn)的檢測(cè)人員可以區(qū)分兩者,甚至可以分辨出夾雜著干擾噪聲的管道噪聲,但對(duì)于機(jī)器來(lái)說(shuō)比較困難。以筆者所在的鄭州自來(lái)水公司就遇到了這樣的問(wèn)題。和全國(guó)很多供水企業(yè)一樣,鄭州自來(lái)水公司也在大力發(fā)展智慧水務(wù),其中一個(gè)項(xiàng)目是管網(wǎng)滲漏預(yù)警系統(tǒng),它由布設(shè)在管道上噪聲記錄儀(振動(dòng)傳感器)和滲漏預(yù)警平臺(tái)組成,噪聲記錄儀監(jiān)聽(tīng)管道上的噪聲,當(dāng)噪聲超過(guò)預(yù)設(shè)閾值時(shí),噪聲記錄儀將會(huì)報(bào)警并將噪聲信息上傳至預(yù)警平臺(tái),從而第一時(shí)間發(fā)現(xiàn)管道漏水異常。為了減少外界噪聲干擾,傳感器監(jiān)聽(tīng)時(shí)段設(shè)置為凌晨?jī)牲c(diǎn)至三點(diǎn),但即使這樣,報(bào)警信息中依然包含大量汽車(chē)噪聲,風(fēng)聲等干擾噪聲引起的誤報(bào),特別是遇到降水,幾乎所有傳感器都會(huì)誤報(bào)。處理報(bào)警需要對(duì)報(bào)警監(jiān)測(cè)點(diǎn)進(jìn)行人工聽(tīng)測(cè)或現(xiàn)場(chǎng)復(fù)檢,傳感器數(shù)量多的話(huà)勢(shì)必會(huì)帶來(lái)較大的人工投入。筆者贊同廠商的“寧殺錯(cuò)不放過(guò)”的監(jiān)測(cè)報(bào)警原則,必須將管網(wǎng)安全運(yùn)行放在首位,但如果有一種精確的分辨干擾噪聲的機(jī)制,或?qū)⒂行p少?gòu)?fù)檢工作的人力投入。
本文通過(guò)實(shí)驗(yàn)介紹通過(guò)機(jī)器學(xué)習(xí)算法訓(xùn)練人工智能模型,使其能夠正確分類(lèi)管道噪聲和干擾噪聲。有別于傳統(tǒng)程序,我們不向機(jī)器提供任何分類(lèi)規(guī)則,僅提供音頻數(shù)據(jù)和其分類(lèi)標(biāo)簽,分類(lèi)規(guī)則由機(jī)器通過(guò)訓(xùn)練習(xí)得。實(shí)驗(yàn)之初,我們需要精確定義管道噪聲和干擾噪聲:
管道噪聲:指因壓力管道內(nèi)部介質(zhì)流動(dòng)、摩擦、擾動(dòng)和沖擊發(fā)生的噪聲。包括管件過(guò)水噪聲和漏水噪聲。
干擾噪聲:除了管道噪聲外的其他噪聲。包括交通噪聲、天氣噪聲,電氣噪聲等
附加說(shuō)明:①既包含管道噪聲又包含干擾噪聲的樣本歸類(lèi)為管道噪聲;②水泵噪聲歸類(lèi)為干擾噪聲。
實(shí)驗(yàn)數(shù)據(jù)為管網(wǎng)滲漏預(yù)警系統(tǒng)日常采集的音頻數(shù)據(jù)。
數(shù)據(jù)采集設(shè)備為壓電陶瓷振動(dòng)傳感器,這是一種漏水聲學(xué)探測(cè)中常用的傳感器,性能穩(wěn)定,頻響范圍寬,測(cè)量精度高,廣泛應(yīng)用于聽(tīng)漏儀,相關(guān)儀等聲學(xué)檢測(cè)設(shè)備。傳感器采用磁吸式安裝,垂直吸附于被測(cè)管道管體上方,監(jiān)聽(tīng)時(shí)如果管道振動(dòng)超過(guò)預(yù)設(shè)閾值,則記錄該振動(dòng)信號(hào)。
(1)數(shù)據(jù)采集設(shè)備
表1 數(shù)據(jù)采集設(shè)備
(2)原始數(shù)據(jù)格式
表2 原始數(shù)據(jù)格式
根據(jù)奈奎斯特采樣定理,8 192 Hz的采樣率可以完整保留 4 096 Hz以下頻率的原始信號(hào)的采樣信息,采集設(shè)備與數(shù)據(jù)格式滿(mǎn)足實(shí)驗(yàn)要求。
(3)樣本(數(shù)據(jù))分類(lèi)
本次實(shí)驗(yàn)共采集音頻樣本354個(gè),采用人工聽(tīng)測(cè)分類(lèi),將全部樣本分為8組,每組約44個(gè),參與分類(lèi)的漏水檢測(cè)人員24人。每人隨機(jī)對(duì)一組樣本進(jìn)行聽(tīng)測(cè)分類(lèi)。這樣每個(gè)樣本分別得到三個(gè)獨(dú)立的分類(lèi)評(píng)判,取分類(lèi)評(píng)判中多數(shù)票作為該樣本最終分類(lèi)結(jié)果。
分類(lèi)結(jié)果:正樣本(管道噪聲)165個(gè),負(fù)樣本(干擾噪聲)189個(gè),正負(fù)樣本占比分別為46.6%和53.4%,樣本分布均衡。
(4)樣本(數(shù)據(jù))特征提取
原始音頻樣本記錄了噪聲的全部采樣信息,可以把它表示為一個(gè)長(zhǎng)度為 40 960的一維數(shù)組。特征提取需要盡量壓縮這個(gè)數(shù)組的長(zhǎng)度,并且最大可能的保留原始噪聲數(shù)據(jù)的信息。我們選取了時(shí)域和頻域上共計(jì)17個(gè)特征。
由于樣本集比較小,實(shí)驗(yàn)不需要進(jìn)行主成分分析和特征降維的處理。
最后將樣本特征集整合為一個(gè)354行18列的二維數(shù)組(如圖1所示)作為機(jī)器學(xué)習(xí)的數(shù)據(jù)集,前17列為樣本的特征值,最后一列為樣本的分類(lèi)標(biāo)簽,至此數(shù)據(jù)準(zhǔn)備工作基本完成。
圖1 樣本特征數(shù)據(jù)集
表3 開(kāi)發(fā)環(huán)境
實(shí)驗(yàn)分為數(shù)據(jù)集劃分,特征預(yù)處理,模型優(yōu)化,模型訓(xùn)練,分類(lèi)測(cè)試五部分組成。
(1)數(shù)據(jù)集劃分:
實(shí)驗(yàn)需要保留一部分?jǐn)?shù)據(jù)集對(duì)人工智能模型的性能進(jìn)行最終測(cè)試,將整個(gè)數(shù)據(jù)集劃分為訓(xùn)練集和測(cè)試集兩部分,本次實(shí)驗(yàn)保留數(shù)據(jù)集中的25%(89個(gè))作為測(cè)試集,將剩余75%(265個(gè))作為訓(xùn)練集。
(2)特征預(yù)處理
由于我們提取的17項(xiàng)特征在數(shù)值上差異很大,比如一個(gè)樣本時(shí)域上的“極差”特征為65360,而“裕度因子”特征僅為0.00214101,兩者在數(shù)值上相差七個(gè)數(shù)量級(jí),由此數(shù)據(jù)直接構(gòu)建的特征模型就像一張被拉長(zhǎng)了的照片,在“裕度因子”維度上的特征也會(huì)變得不明顯。
為杜絕這種情況,本實(shí)驗(yàn)采用標(biāo)準(zhǔn)化對(duì)數(shù)據(jù)進(jìn)行無(wú)量綱化處理,將數(shù)據(jù)縮放到均值為0,標(biāo)準(zhǔn)差為1的范圍內(nèi),平衡各個(gè)維度上的特征對(duì)模型的影響,如圖2所示。
圖2 數(shù)據(jù)集預(yù)處理
值得注意的是,標(biāo)準(zhǔn)化必須放在劃分?jǐn)?shù)據(jù)集之后進(jìn)行,將訓(xùn)練集與測(cè)試集分別標(biāo)準(zhǔn)化處理,否則處理后的訓(xùn)練集中會(huì)包含測(cè)試集的信息,影響實(shí)驗(yàn)效果。
(3)模型優(yōu)化
決定模型的優(yōu)劣有兩個(gè)要素——數(shù)據(jù)和算法,數(shù)據(jù)集的質(zhì)量決定了模型的上限,在同樣數(shù)據(jù)集的基礎(chǔ)上,算法決定模型在此上限之內(nèi)的表現(xiàn),這里的模型優(yōu)化指的是后者。每一種模型算法都保留了若干超參數(shù),調(diào)整這些超參數(shù)可以使訓(xùn)練出的模型更適合實(shí)際需求。這里我們使用網(wǎng)格搜索和交叉驗(yàn)證的方式對(duì)模型進(jìn)行調(diào)整優(yōu)化。
①網(wǎng)格搜索
以KNN算法為例,該算法在本實(shí)驗(yàn)中需要設(shè)置“n_neighbors”“weights”“P”三個(gè)超參數(shù),“n_neighbors”表示計(jì)算離目標(biāo)特征點(diǎn)最近的已知特征點(diǎn)的個(gè)數(shù),“weights”表示是否考慮距離權(quán)重,“P”表示特征點(diǎn)間的距離度量方式。如何調(diào)整三個(gè)超參數(shù)的組合使模型達(dá)到最佳性能呢?網(wǎng)格搜索提供了一個(gè)“笨”辦法,循環(huán)遍歷所有超參數(shù)組合,從而找到最優(yōu)的模型。
②交叉驗(yàn)證
網(wǎng)格搜索的每一種超參數(shù)組合都需要測(cè)試其模型性能,但如果使用測(cè)試集來(lái)進(jìn)行測(cè)試,會(huì)泄露測(cè)試集信息,影響最終模型性能的測(cè)試,實(shí)驗(yàn)結(jié)果不真實(shí),為了驗(yàn)證設(shè)置不同超參數(shù)的模型的優(yōu)劣,我們從訓(xùn)練集中再次分出一部分樣本作為評(píng)估網(wǎng)格搜索的驗(yàn)證集。為使數(shù)據(jù)集得到最大利用率,采用交叉驗(yàn)證,如圖3所示。
圖3 交叉驗(yàn)證
將訓(xùn)練集平均分成n組,每次以其中一組作為驗(yàn)證集,其余部分作為訓(xùn)練集,進(jìn)行一次訓(xùn)練和驗(yàn)證,得到一個(gè)模型的分類(lèi)準(zhǔn)確率,經(jīng)過(guò)n次訓(xùn)練和驗(yàn)證,得到n個(gè)模型的準(zhǔn)確率,取準(zhǔn)確率的平均值作為該超參數(shù)下模型的準(zhǔn)確率,測(cè)試集不參與此過(guò)程。這種交叉驗(yàn)證稱(chēng)為n折交叉驗(yàn)證,折數(shù)越多需要的運(yùn)算量越大,本實(shí)驗(yàn)采用5折交叉驗(yàn)證。
分辨管道噪聲與干擾噪聲是典型的二分類(lèi)問(wèn)題,針對(duì)該問(wèn)題本次實(shí)驗(yàn)選取支持向量機(jī)、k近鄰、隨機(jī)森林三種可用于分類(lèi)的機(jī)器學(xué)習(xí)算法。算法原理僅作簡(jiǎn)要說(shuō)明。
(1)支持向量機(jī)(support vector machines,SVM)
支持向量機(jī)是一種適用于二分類(lèi)問(wèn)題的模型。它的基本模型是定義在特征空間內(nèi)的間隔最大的線性分類(lèi)模型,核函數(shù)的引入使它同樣可以解決非線性分類(lèi)問(wèn)題。
支持向量機(jī)的學(xué)習(xí)策略基于間隔最大化,可以形式化為求解一個(gè)目標(biāo)函數(shù)為二次型函數(shù),約束函數(shù)為仿射函數(shù)的凸優(yōu)化問(wèn)題,亦等價(jià)于合頁(yè)損失函數(shù)經(jīng)過(guò)正則化后的求解最小化問(wèn)題,支持向量機(jī)的學(xué)習(xí)算法是求解凸二次規(guī)劃的最優(yōu)化算法。實(shí)驗(yàn)通過(guò)調(diào)節(jié)“C”和“kernel”兩個(gè)超參數(shù)來(lái)達(dá)到分類(lèi)模型的最佳性能。
“C”:浮點(diǎn)型參數(shù),設(shè)置對(duì)錯(cuò)誤分類(lèi)的懲罰系數(shù),默認(rèn)值為1.0,詳情如表4所示。
表4 SVM算法超參數(shù)“C”
“kernel”:核函數(shù),默認(rèn)是rbf,詳情如表5所示。
表5 SVM算法“kernel”的可選參數(shù)
支持向量機(jī)模型分類(lèi)評(píng)估數(shù)據(jù)如圖4所示:
圖4 支持向量機(jī)模型分類(lèi)評(píng)估報(bào)告
(2)k近鄰(k-nearest neighbor,kNN)
這是一種可用于分類(lèi)問(wèn)題和回歸問(wèn)題的基本方法,它的分類(lèi)原理是:給定測(cè)試樣本,基于給定的距離度量找到訓(xùn)練集中與其最接近的k個(gè)樣本點(diǎn),然后基于這k個(gè)最近鄰的分類(lèi)信息來(lái)進(jìn)行預(yù)測(cè)。可使用普通“投票”,即選擇這k個(gè)樣本中出現(xiàn)最多的類(lèi)別作為預(yù)測(cè)結(jié)果;還可基于距離遠(yuǎn)近進(jìn)行“加權(quán)投票”,距離越近的樣本權(quán)重越大。
k近鄰算法屬于是懶惰學(xué)習(xí)(lazy learning),不具有顯式的學(xué)習(xí)過(guò)程,此類(lèi)學(xué)習(xí)過(guò)程在訓(xùn)練階段僅僅保存了樣本信息,無(wú)訓(xùn)練時(shí)間開(kāi)銷(xiāo),待收到測(cè)試樣本后再進(jìn)行分類(lèi)計(jì)算。實(shí)驗(yàn)中通過(guò)調(diào)節(jié)算法中以下三個(gè)超參數(shù)對(duì)模型進(jìn)行了優(yōu)化。
"n_neighbors"是指KNN中的“K”,K值增大能夠減小噪聲的影響,但會(huì)使分類(lèi)邊界變得模糊;K值減小起反作用。
“weight”參數(shù)有兩個(gè)可選參數(shù)的值,決定了如何分配權(quán)重?!畊niform’:不管遠(yuǎn)近權(quán)重都一樣,默認(rèn)為該值;‘distance’:權(quán)重和距離成反比,距離預(yù)測(cè)目標(biāo)越近具有越高的權(quán)重。
“p”參數(shù)指定距離度量方法,當(dāng)模型選用明可夫斯基距離時(shí),p=1為曼哈頓距離,p=2為歐式距離。默認(rèn)為歐式距離。
在實(shí)驗(yàn)操作中通過(guò)5折交叉驗(yàn)證和網(wǎng)格搜索,得到最佳的K值為1,加權(quán)計(jì)算距離以及采用曼哈頓距離度量方式。k近鄰模型分類(lèi)評(píng)估數(shù)據(jù)如圖5所示:
圖5 k近鄰模型分類(lèi)評(píng)估報(bào)告
(3)隨機(jī)森林(Random Forest)
隨機(jī)森林屬于集成學(xué)習(xí)中bagging算法的一個(gè)擴(kuò)展變體,隨機(jī)森林在以決策樹(shù)作為基礎(chǔ)學(xué)習(xí)算法構(gòu)建Bagging集成的基礎(chǔ)上,進(jìn)一步在訓(xùn)練決策樹(shù)模型的過(guò)程中隨機(jī)的選擇屬性。具體來(lái)說(shuō),傳統(tǒng)決策樹(shù)模型在選擇“分枝”屬性時(shí),在當(dāng)前結(jié)點(diǎn)的所有候選屬性中選擇一個(gè)最優(yōu)屬性;而在隨機(jī)森林中,對(duì)基礎(chǔ)決策樹(shù)的每個(gè)結(jié)點(diǎn),先從該結(jié)點(diǎn)的候選屬性集合中隨機(jī)節(jié)選一個(gè)屬性子集,再?gòu)倪@個(gè)子集中選擇最優(yōu)屬性用于“分枝”。由此,隨機(jī)森林的基礎(chǔ)學(xué)習(xí)算法的“多樣性”不僅源于樣本的擾動(dòng),還有來(lái)自節(jié)選屬性子集的擾動(dòng),使最終集成算法的泛化能力進(jìn)一步增強(qiáng)。
隨機(jī)森林繼承了基礎(chǔ)學(xué)習(xí)算法決策樹(shù)的所有超參數(shù),并加入了配置集成學(xué)習(xí)模型的超參數(shù)。這里我們選取了“n_estimators”“criterion”兩個(gè)超參數(shù)進(jìn)行調(diào)優(yōu)?!皀_estimators”限制森林中樹(shù)的數(shù)目;“criterion”確定樹(shù)“分枝”的標(biāo)準(zhǔn),可選的是信息熵或者基尼指數(shù),默認(rèn)是基尼指數(shù)。
隨機(jī)森林模型分類(lèi)評(píng)估數(shù)據(jù)如圖6所示:
圖6 隨機(jī)森林模型分類(lèi)評(píng)估報(bào)告
從模型分析評(píng)估報(bào)告中可以看出,三種算法的訓(xùn)練模型在測(cè)試集中的表現(xiàn)均優(yōu)于訓(xùn)練集,說(shuō)明模型擬合度適當(dāng);準(zhǔn)確率均在75%以上,對(duì)于這樣小規(guī)模的樣本集來(lái)說(shuō),模型的表現(xiàn)已經(jīng)可圈可點(diǎn)。其中KNN模型準(zhǔn)確率最高,但對(duì)于模型性能的優(yōu)劣不能簡(jiǎn)簡(jiǎn)單單地對(duì)比準(zhǔn)確率,還需要更為細(xì)致的評(píng)估指標(biāo)。
在分類(lèi)任務(wù)中,預(yù)測(cè)結(jié)果與真實(shí)分類(lèi)之間存在以下四種不同的情況,這四種預(yù)測(cè)情況構(gòu)成了混淆矩陣,如圖7所示。
圖7 混淆矩陣
其中TP,F(xiàn)N,F(xiàn)P,TN分別表示了預(yù)測(cè)值域?qū)嶋H值的關(guān)系(表6),可以以數(shù)量或比例的形式表示。各項(xiàng)評(píng)估指標(biāo)的計(jì)算需要借助混淆矩陣中的這四個(gè)值。
表6 混淆矩陣
以下列出本實(shí)驗(yàn)需要用到的模型評(píng)估指標(biāo):
準(zhǔn)確率(Accuracy):所有樣本中被正確預(yù)測(cè)的樣本所占比例。
Accuracy=(TP+TN)/(TP+FN+TN+FP)
最佳結(jié)果:該結(jié)果由網(wǎng)格搜索與交叉驗(yàn)證所得,是訓(xùn)練階段模型的評(píng)估指標(biāo)。
預(yù)測(cè)正類(lèi)精確度(Precision):正確預(yù)測(cè)為正類(lèi)占全部預(yù)測(cè)為正類(lèi)的比例。
Precision=TP/(TP+FP)
實(shí)際正類(lèi)召回率(Recall)正確預(yù)測(cè)為正類(lèi)占全部實(shí)際正類(lèi)的比例.
Recall=TP/(TP+FN)
ROC曲線和AUC指標(biāo):這是最常用的模型評(píng)估指標(biāo)。ROC曲線可以檢查出機(jī)器學(xué)習(xí)模型的準(zhǔn)確率以及閾值對(duì)其泛化性能的影響,但很多時(shí)候ROC曲線并不容易直觀的說(shuō)明哪個(gè)模型的分類(lèi)效果更好,而AUC指標(biāo)借助ROC曲線以下與坐標(biāo)軸所圍成的面積來(lái)評(píng)估模型,它的取值范圍介于0.5~1,AUC越接近1,模型分類(lèi)準(zhǔn)確性越高;越接近0.5,則模型分類(lèi)準(zhǔn)確性越低。
談到評(píng)估模型算法的優(yōu)劣,就無(wú)法繞開(kāi)沒(méi)有免費(fèi)午餐定理(No Free Lunch Theorem),它的大意是說(shuō)如果我們沒(méi)有對(duì)特征空間提出先驗(yàn)假設(shè),那么所有算法的平均表現(xiàn)是相似的,不存在哪種算法更好。也就是說(shuō)我們必須針對(duì)需要解決的實(shí)際問(wèn)題提出先驗(yàn)假設(shè),才能找出更加適合該假設(shè)的模型算法。
針對(duì)滲漏預(yù)警系統(tǒng)報(bào)警問(wèn)題,我們最理想的算法當(dāng)然是百分百準(zhǔn)確率(Accuracy)。但如果系統(tǒng)必須存在誤差,顯然我們首先希望誤差不要出現(xiàn)在實(shí)際存在管道噪聲的監(jiān)測(cè)點(diǎn)(Recall),其次是盡量減小干擾噪聲預(yù)測(cè)誤差(Accuracy)。所以針對(duì)滲漏預(yù)警系統(tǒng)報(bào)警問(wèn)題需要提出的先驗(yàn)假設(shè)是:在盡可能避免將管道噪聲預(yù)測(cè)為干擾噪聲的前提下能更準(zhǔn)確預(yù)測(cè)干擾噪聲的模型性能更優(yōu)秀。
將這個(gè)假設(shè)歸納為性能指標(biāo)即:
約束性指標(biāo):正類(lèi)召回率
優(yōu)化性指標(biāo):準(zhǔn)確率
從表7可以看出,雖然KNN模型算法有著最高的準(zhǔn)確率,AUC指標(biāo)表現(xiàn)也最佳,但約束性指標(biāo)遜于SVM。本次實(shí)驗(yàn)最終選取SVM模型對(duì)測(cè)試樣本進(jìn)行分類(lèi),從測(cè)試混淆矩陣中可以看出,測(cè)試樣本共計(jì)89個(gè),47個(gè)正樣本全部分類(lèi)正確,42個(gè)負(fù)樣本中23個(gè)分類(lèi)正確,19個(gè)分類(lèi)錯(cuò)誤,系統(tǒng)誤報(bào)率21.3%。較原始數(shù)據(jù)47.2%的誤報(bào)率有顯著改善。
表7 評(píng)估指標(biāo)類(lèi)比
通過(guò)本次實(shí)驗(yàn),我們可以看出機(jī)器學(xué)習(xí)模型能夠有效降低供水管網(wǎng)滲漏預(yù)警系統(tǒng)的誤報(bào)率。其實(shí)人工智能技術(shù)在漏水探測(cè),乃至整個(gè)供水行業(yè)的適用程度遠(yuǎn)不止于此,小到根據(jù)噪聲計(jì)算漏點(diǎn)位置,結(jié)合管網(wǎng)的流量和壓力分布解決水壓異常,大到城鎮(zhèn)管網(wǎng)智能調(diào)壓系統(tǒng),壓力管網(wǎng)仿生漏控體系。相信隨著科技創(chuàng)新投入的不斷加大,傳統(tǒng)供水行業(yè)也可以越來(lái)越“智慧”。
事實(shí)上,該實(shí)驗(yàn)的最初設(shè)計(jì)是一個(gè)復(fù)雜度更高的三分類(lèi)問(wèn)題,即分類(lèi)漏水噪聲、管道噪聲、干擾噪聲,由于條件所限,樣本的數(shù)量和分布無(wú)法滿(mǎn)足實(shí)驗(yàn)要求,只能退而求其次將前兩類(lèi)合并為一類(lèi),簡(jiǎn)化成為上述實(shí)驗(yàn),希望勉強(qiáng)能為漏控工作的技術(shù)創(chuàng)新起到投石問(wèn)路的作用。最后援引習(xí)主席的講話(huà)與君共勉,“抓創(chuàng)新就是抓發(fā)展,謀創(chuàng)新就是謀未來(lái)。不創(chuàng)新就要落后,創(chuàng)新慢了也要落后?!?。