汪然然,婁聯(lián)堂
中南民族大學數學與統(tǒng)計學學院,湖北 武漢430074
復合絕緣子是一種特殊的絕緣控件,由絕緣材料和金屬附件構成[圖1(a)]。復合絕緣子表面的憎水性確保了這些絕緣子具有出色的閃絡性能。盡管如此,仍會有許多原因導致憎水性降低,例如污染物的積聚,老化和表面電弧。因此,必須定期檢查復合絕緣子的憎水性,以確保電網的安全可靠運行[1-2]。
一般有3 種測量復合絕緣子憎水性的方法,分別為接觸角法、表面張力法、噴水分級法[3-5],前兩種方法需要特殊的設備和實驗室條件,不便用于現(xiàn)場測量,而噴水分級法操作簡單,被廣泛用于識別復合絕緣子憎水性等級。傳統(tǒng)的噴水分級法是由檢修人員按照一定的規(guī)范,將水噴灑到被測復合絕緣子表面,拍攝一張水珠照片[圖1(b)],并將其與國際標準憎水性等級圖片(圖2)進行比較,得到復合絕緣子憎水性等級(HC1~HC7)。這種方法雖然成本低、易于操作,但主觀性強且效率低下。
圖1 復合絕緣子:(a)外形圖,(b)水珠圖像Fig. 1 Composite insulator:(a)outline drawing,(b)water droplets image
圖2 不同級別的憎水性水珠圖像對應的水珠積聚狀態(tài)Fig. 2 Accumulation state of water droplets corresponding to images of different levels of hydrophobic droplets
近年來,研究人員將圖像分析技術[6]引入到復合絕緣子憎水性分級中,其中支持向量機(support vector machine,SVM)分級算法[7]的分級結果已滿足一定的工程應用需求。但該方法也存在一定的不足,主要表現(xiàn)為兩個方面。其一,SVM預測憎水性等級比較耗時,提取的水珠輪廓圖像越多,耗時越長,主要是因為在識別水珠圖像的過程中,為保證分割效果,采用了圖像分塊、多閾值分割子圖及再融合子圖水珠輪廓等方法,這一過程相當耗時;其二,它需要人工選取特征,而選取特征的好壞就直接影響模型的實用性和準確性[8-9]。
本文采用圖像分析技術和深度學習方法對復合絕緣子憎水性分級。首先對復合絕緣子憎水性圖像進行灰度化和直方圖均衡化等預處理,以消除光照對圖像的影響,提高圖像的對比度;其次利用圖像分析技術和U-Net網絡提取水珠輪廓,得到水珠區(qū)域和背景區(qū)域分離的水珠輪廓圖像;最后引入神經網絡模型,將輪廓圖像作為訓練樣本,訓練得到能表示憎水性圖像和憎水性等級之間關系的分級模型,以實現(xiàn)復合絕緣子憎水性分級。
本文提出方法流程圖如圖3 所示,主要包括提取水珠輪廓和憎水性分級兩部分。
圖3 本文提出方法流程圖Fig. 3 Flow chart of proposed method
首先為達到理想的分割效果,采用直方圖均衡化對憎水性圖像進行增強處理,然后將圖像分塊,基于子圖提取水珠輪廓,再合并,由此得到的完整的二值圖像作為U-Net網絡的標簽,接著訓練U-Net 網絡得到分割模型,并用于識別絕緣子圖像,得到水珠輪廓圖,最后將水珠輪廓圖作為GoogLeNet 網絡的輸入,以相應的憎水性等級作為輸出向量,訓練得到基于GoogLeNet 網絡的分級模型,并將其用于憎水性分級。
水珠的透明性和光照等因素使復合絕緣子水珠圖像的分割變得困難。而U-Net 網絡結構[10]下采樣得到的深層信息能夠反映目標和背景之間的關系特征,上采樣能夠為分割提供更加精細的特征,有助于圖像分割。U-Net 網絡還具有數據增強功能[11],可使用少量的樣本進行訓練,而且訓練時間短??紤]到U-Net 網絡的特性,本文基于U-Net網絡實現(xiàn)復合絕緣子水珠圖像水珠識別。
絕緣子表面的不均勻、光照等因素都會對識別水珠圖像產生一定的干擾,圖像灰度化可以使神經網絡模型盡可能小地被這些因素影響,有助于U-Net 模型分割水珠圖像。原始的復合絕緣子水珠圖像大小不一,直接輸送到神經網絡會浪費空間,將圖像設置為相同的大小,可以提高訓練速率,節(jié)省內存空間。
將原始的彩色圖像轉化為灰度圖像,并將所有灰度圖像的大小設置為512×512,作為U-Net 網絡的輸入,對應的二值圖像作為訓練圖像的標簽。實驗選取的樣本不包含HC6 和HC7 的圖像,主要是因為從嚴格意義上來講,HC6 和HC7 圖像中的水跡已經不能算作水珠,將它們加入到樣本中會干擾神經網絡訓練的準確性,況且很容易通過提取到的水珠數量直接判定這兩個等級。因此為保證分割模型的準確性,U-Net 網絡分割的樣本只包含HC1~HC5 共5 個等級。
實驗所用樣本共174 個,其中訓練集包括HC1~HC5 的 圖 像,共123 個 樣 本,測 試 集 包 括HC1~HC5 的圖像,共51 個樣本(每個憎水性等級訓練集和測試集的比例為7∶3)。訓練過程中,將輸入圖像的所有像素值歸一化到0~1,壓縮圖像特征,每2 幅圖像作為一個批次輸入模型進行訓練,迭代次數為100 次,迭代一次的訓練步數為100,測試步數為40,梯度下降算法為Adam,學習速率為1 × 10-4,損失函數為二值交叉熵損失函數。迭代完成后,得到分割模型,并使用分割模型對測試集分割,得到語義分割結果。
U-Net 分割相當于像素級的二分類,把背景區(qū)域像素值設置為0,目標區(qū)域像素值設置為1,確保每個像素能歸為某一類別,得到1 幅二值圖像,實現(xiàn)目標區(qū)域和背景區(qū)域的分離。該模型選用的損失函數為L= -ylogp- (1 -y)log (1 -p),該損失函數檢查每個像素,將預測的像素向量與熱編碼目標向量進行比較。其中,y是one-hot 向量,元素只有0,1 兩種取值,如果該像素所屬類別和標簽類別相同,則取1,否則取0。p表示y取1 時的概率。
利用U-Net 網絡實現(xiàn)復合絕緣子水珠圖像分割,經過訓練,模型的準確率和損失分別為92.96%、23.19%,分割一張水珠圖片平均耗時122 ms。圖4給出了部分復合絕緣子水珠圖像的分割結果,選取的圖像包含等級HC1-HC5,可以較為全面地檢測模型的分割能力,U-Net 網絡的準確率和損失如圖5 所示。由圖5 可知,對于等級為HC1~HC3的水珠圖像,大部分水珠已被識別出來;對于等級為HC4 的水珠圖像,只有少量水珠沒被識別出來;對于等級為HC5 的水珠圖像,只識別出了部分水珠,主要是因為HC5 的圖像只存在少量的水珠,大部分區(qū)域被水跡覆蓋。分割總體誤差較小,分割結果已達到分級的要求,可將此結果用作GoogLeNet網絡的輸入。
圖4 實驗結果:(a)彩色圖像,(b)灰度圖像,(c)直方圖均衡化結果,(d)U-Net分割結果,(e)U-Net分割標簽Fig. 4 Experimental results:(a)color images,(b)grayscale images,(c)histogram equalization results,(d)U-Net segmentation results,(e)U-Net segmentation labels
圖5 基于U-Net網絡識別的水珠輪廓:(a)準確率,(b)損失Fig. 5 Recognition of water droplet contour based on U-Net network:(a)accuracy,(b)loss
SVM[7]實現(xiàn)憎水性分級需要人為設計周長、形狀因子[12]等圖像特征并進行提取,但這些特征值并不能涵蓋所有的絕緣子,且選取特征的好壞會直接影響到分級的結果。考慮到GoogLeNet 網絡[13]不需要手動提取圖像特征,就可直接用于圖像分類。此外,GoogLeNet 網絡具有的全局均值池化特性,解決了傳統(tǒng)CNN 網絡中最后全連接層參數過于復雜且泛化能力差的特點[14]。因此,采用GoogLeNet 網絡來建立憎水性水珠圖像和憎水性等級之間的關系。
為驗證GoogLeNet 網絡對復合絕緣子憎水性分級的有效性,使用兩組樣本來訓練GoogLeNet網絡,一組樣本以灰度圖像作為輸入,相應的憎水性等級作為標簽;另一組樣本以U-Net模型分割得到的水珠輪廓圖像作為輸入,相應的憎水性等級作為標簽,兩組樣本所用圖像大小均為512×512。
本實驗所用兩組樣本的個數和比例與第2.2節(jié)模型訓練中所用樣本比例一致。訓練過程中,每4 張圖像作為一個批次輸入模型進行訓練,迭代次數為150 次,迭代一次的訓練步數為30,測試步數為10,梯度下降算法為Adam,學習速率為3 ×10-4,損失函數為多分類交叉熵損失函數。迭代完成后,得到分級模型,并使用分級模型對測試集分級,得到分級結果。
復合絕緣子憎水性分級是一個多分類任務,分類實驗選用的損失函數為多分類交叉熵損失函數,如式(1)所示:
其中,K表示分類的類別,文中實驗K取5,yi是one-hot 向量,元素只有0 和1 兩種取值,表示預測標簽和真實標簽相同取1,不相同取0,pi表示預測樣本屬于類別i的概率。GoogLeNet 網絡有3 個輸出層,其中2 個是輔助分類層,總體損失等于2個輔助分類器的損失乘以權重0.3 加上最后一個輸出層的損失。實際在測試過程中,去掉了這2 個輔助分類器的損失。
在IEC TS 62073 的噴水分級法中提到“人工判斷復合絕緣子憎水性等級時,視覺評價中的不確定性通常不大于±1 憎水性級”[15],因此,實驗中預測的等級為相鄰等級可算作預測正確。對51 個測試樣本,利用SVM 分級耗時105 s,而本文方法僅耗時6.4 s,平均一幅圖像僅耗時0.1 s。圖6 給出了GoogLeNet 網絡訓練圖像的準確率和損失,表1、表2 和表3 分別給出了3 種不同方法的分級結果。 這3 種方法總的平均正確率分別為80.39%、84.31%、90.2%。實驗結果表明:本文方法對憎水性分級的平均準確率最高,并且在相同的實驗條件下,基于水珠輪廓圖像的分級準確率比基于灰度圖像的分級準確率要高。
圖6 GoogLeNet網絡的分級結果:(a)灰度圖像,(b)水珠輪廓圖Fig.6 Training results of GoogLeNet network:(a)gray images,(b)water droplet contour images
表1 基于SVM 分級算法的分級結果Tab. 1 Classification results based on SVM classification algorithm
表2 基于灰度圖像的分級結果Tab. 2 Classification results based on gray images
以上利用圖像分析方法和深度學習模型實現(xiàn)憎水性分級。實驗結果表明,采用本文提出的方法,水珠識別精度和分級準確率分別達到92.96%和90.2%,克服了手動提取水珠輪廓速度慢的缺點,實現(xiàn)了水珠紋理特征和神經網絡模型的深度融合。但還存在沒有涵蓋不同類型的復合絕緣子的局限性,后續(xù)將在不同實驗條件下采集不同類型的絕緣子圖像,以豐富訓練樣本庫,提高模型的魯棒性,為在線檢測絕緣子憎水性做準備。