亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度強(qiáng)化學(xué)習(xí)的局部像素級(jí)接觸網(wǎng)圖像增強(qiáng)方法研究

        2024-01-06 01:51:26郭維平韓志偉劉志剛
        鐵道學(xué)報(bào) 2023年12期
        關(guān)鍵詞:接觸網(wǎng)像素點(diǎn)亮度

        郭維平,韓志偉,楊 成,王 惠,劉志剛

        (西南交通大學(xué) 電氣工程學(xué)院,四川 成都 610031)

        目前,我國(guó)的電氣化鐵路里程超過(guò)11萬(wàn)km,其中高速鐵路里程超過(guò)4萬(wàn)km,鐵路電氣化率已經(jīng)達(dá)到70%以上[1]。電能的可靠傳輸關(guān)乎鐵路的運(yùn)行安全和運(yùn)輸秩序。接觸網(wǎng)系統(tǒng)肩負(fù)著向高速鐵路輸送電力的重要任務(wù),是現(xiàn)代電氣化鐵路中的一個(gè)重要組成部分。由于其結(jié)構(gòu)復(fù)雜,運(yùn)行環(huán)境惡劣,接觸網(wǎng)系統(tǒng)故障時(shí)有發(fā)生,嚴(yán)重影響鐵路正常運(yùn)行,已經(jīng)成為制約高速鐵路發(fā)展的一個(gè)短板[2]。為保證接觸網(wǎng)的正常運(yùn)行,對(duì)其進(jìn)行監(jiān)控和檢測(cè),提前做出預(yù)警并及時(shí)檢修維護(hù)是鐵路部門的重要工作之一[3]。

        接觸網(wǎng)故障檢測(cè)方法主要分為傳統(tǒng)人工檢測(cè)和非接觸式圖像處理檢測(cè)。人工檢測(cè)由于效率低,已經(jīng)不能滿足高速鐵路快速發(fā)展的現(xiàn)狀。近年來(lái)隨著計(jì)算機(jī)圖像處理技術(shù)的發(fā)展,接觸網(wǎng)的非接觸式圖像處理檢測(cè)技術(shù)獲得了長(zhǎng)足的進(jìn)步[4-5]。圖像處理檢測(cè)技術(shù)主要依靠鐵路檢測(cè)車安裝的CCD攝像機(jī)拍攝的圖像,由于接觸網(wǎng)系統(tǒng)畫面背景復(fù)雜,可見(jiàn)光CCD攝像機(jī)容易受到環(huán)境變化的影響,并且接觸網(wǎng)支撐裝置安裝分散,難以穩(wěn)定補(bǔ)光,導(dǎo)致采集到的圖像出現(xiàn)過(guò)曝、亮度不足、對(duì)比度過(guò)低等問(wèn)題,這些問(wèn)題嚴(yán)重影響了后續(xù)的接觸網(wǎng)零部件故障檢測(cè)及人工故障校驗(yàn)。接觸網(wǎng)不同補(bǔ)光條件下實(shí)測(cè)圖像如圖1所示。不良補(bǔ)光圖像可能出現(xiàn)接觸網(wǎng)零部件局部特征模糊、整體圖像亮度均衡性差等問(wèn)題,導(dǎo)致零部件定位與檢測(cè)的失敗,對(duì)故障檢測(cè)識(shí)別造成不利影響。因此,迫切需要一種有效的接觸網(wǎng)局部零部件特征圖像增強(qiáng)算法,提高圖像的亮度、對(duì)比度,使接觸網(wǎng)圖像特征更加明顯,最終提升后續(xù)檢測(cè)精度,降低人工圖像識(shí)別的視覺(jué)疲勞并提升識(shí)別精度和效率。

        圖1 不同補(bǔ)光條件下接觸網(wǎng)檢測(cè)成像結(jié)果

        近年來(lái),暗光圖像增強(qiáng)成為圖像處理領(lǐng)域一個(gè)熱點(diǎn)問(wèn)題,國(guó)內(nèi)外學(xué)者提出了多種圖像增強(qiáng)方法,這些技術(shù)可以分為傳統(tǒng)圖像增強(qiáng)方法和基于深度學(xué)習(xí)的圖像增強(qiáng)方法。傳統(tǒng)方法包括:基于空間域的自適應(yīng)直方圖均衡化[6-8],該算法可以有效提高圖像的對(duì)比度,但是對(duì)于圖像細(xì)節(jié)處理不佳;基于變換域的光照?qǐng)D估計(jì)增強(qiáng)[9-10],其可以顯著提高圖像的信息熵,處理后的圖像細(xì)節(jié)更多,但計(jì)算量過(guò)大、耗時(shí)過(guò)長(zhǎng);基于小波變換的方法整體效果明顯,但處理后可能會(huì)放大噪聲[11-12]。

        基于深度學(xué)習(xí)的圖像增強(qiáng)方法近些年獲得較快發(fā)展,文獻(xiàn)[13]提出一種基于back-projection的算法,將暗光圖片加上提亮后的殘差得到正常光圖片。文獻(xiàn)[14]提出一種針對(duì)像素調(diào)整的算法PixelRL,以A3C模型為基礎(chǔ),給每個(gè)像素點(diǎn)分配一個(gè)智能體,通過(guò)學(xué)習(xí)得到獎(jiǎng)勵(lì)最大化的策略,這種算法能夠精確操作每個(gè)像素點(diǎn),可以減少圖片背景噪聲,得到更加清晰的邊緣。為滿足訓(xùn)練時(shí)明暗圖像配對(duì)問(wèn)題,文獻(xiàn)[15]提出一種基于GAN的無(wú)監(jiān)督學(xué)習(xí)模型,解決了沒(méi)有足夠配對(duì)數(shù)據(jù)集的問(wèn)題,使用不配對(duì)的暗光、正常光圖像進(jìn)行訓(xùn)練,擺脫數(shù)據(jù)集的限制。上述方法較好的克服了傳統(tǒng)算法人工選擇閾值魯棒性差、統(tǒng)計(jì)特征基于全局信息受無(wú)效背景信息影響大等問(wèn)題,具備較好的增強(qiáng)效果。

        本文基于深度強(qiáng)化學(xué)習(xí)技術(shù),以克服接觸網(wǎng)采集圖像無(wú)效背景區(qū)域占比大影響局部零部件區(qū)域增強(qiáng)效果為出發(fā)點(diǎn),通過(guò)優(yōu)化深度強(qiáng)化學(xué)習(xí)模型多Agent圖像增強(qiáng)組合,實(shí)現(xiàn)一種優(yōu)化的局部接觸網(wǎng)零部件區(qū)域檢測(cè)圖像質(zhì)量增強(qiáng)方法。

        1 PixelRL算法的基本原理

        強(qiáng)化學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域中的一個(gè)方向,強(qiáng)調(diào)根據(jù)環(huán)境的變化產(chǎn)生相應(yīng)的動(dòng)作,而每個(gè)動(dòng)作產(chǎn)生的獎(jiǎng)勵(lì)促進(jìn)動(dòng)作策略的再優(yōu)化,從而一步步適應(yīng)環(huán)境刺激,產(chǎn)生最大的預(yù)期收益[16]。圖2為強(qiáng)化學(xué)習(xí)智能體優(yōu)化策略,智能體感知環(huán)境獲得狀態(tài)初始值s0,通過(guò)執(zhí)行動(dòng)作a0對(duì)環(huán)境做出改變,此時(shí)狀態(tài)變?yōu)閟1,同時(shí)環(huán)境反饋給智能體動(dòng)作a0的獎(jiǎng)勵(lì)r1,智能體通過(guò)獎(jiǎng)勵(lì)r1判斷動(dòng)作a0的優(yōu)劣,智能體在狀態(tài)s1下執(zhí)行動(dòng)作a1,此時(shí)狀態(tài)改變?yōu)閟2,獎(jiǎng)勵(lì)為r2。以此循環(huán)迭代,智能體與環(huán)境不斷交互,得到最大的獎(jiǎng)勵(lì)值。

        圖2 強(qiáng)化學(xué)習(xí)智能體優(yōu)化策略

        PixelRL算法與大部分增強(qiáng)算法不同,沒(méi)有從帶有噪聲的輸入中回歸噪聲或真實(shí)像素值,而是對(duì)輸入的每一個(gè)像素進(jìn)行迭代操作,得到增強(qiáng)圖像。輸入圖像的每一個(gè)像素Ii(輸入圖像I中第i個(gè)像素)均對(duì)應(yīng)一個(gè)智能體,智能體的策略可以表示為

        (1)

        (2)

        式中:γ為折扣因子。

        (3)

        PixelRL網(wǎng)絡(luò)在強(qiáng)化學(xué)習(xí)異步優(yōu)勢(shì)動(dòng)作評(píng)估(A3C)網(wǎng)絡(luò)的基礎(chǔ)上,添加全卷積網(wǎng)絡(luò)(FCN)和獎(jiǎng)勵(lì)圖卷積(RMC),提高了網(wǎng)絡(luò)的通用性,使網(wǎng)絡(luò)可以處理不同規(guī)格的輸入圖像;減少了訓(xùn)練參數(shù),提高了網(wǎng)絡(luò)的訓(xùn)練效率。

        1.1 A3C網(wǎng)絡(luò)

        A3C網(wǎng)絡(luò)解決了DQN(deep Q-network)算法學(xué)習(xí)效率低、計(jì)算資源需求大的難題,主要由公共網(wǎng)絡(luò)、策略網(wǎng)絡(luò)和價(jià)值網(wǎng)絡(luò)三部分組成,A3C算法模型如圖3所示。網(wǎng)絡(luò)使用多智能體與環(huán)境交互,每個(gè)智能體都可以與各自不同的環(huán)境進(jìn)行交互,并且單獨(dú)進(jìn)行策略梯度損失的計(jì)算,在經(jīng)過(guò)一定步長(zhǎng)后,將這些智能體學(xué)習(xí)到的梯度損失整合起來(lái),在全局網(wǎng)絡(luò)的獨(dú)立智能體上實(shí)現(xiàn)策略的更新。這種異步動(dòng)作方式,替代經(jīng)驗(yàn)回放機(jī)制(experience replay),可以減少存儲(chǔ)交互數(shù)據(jù)所需的空間和時(shí)間,降低訓(xùn)練數(shù)據(jù)之間的相關(guān)性,并且有效利用計(jì)算機(jī)資源提升訓(xùn)練效率。

        圖3 A3C算法模型

        1.2 全卷積網(wǎng)絡(luò)(FCN)

        PixelRL算法對(duì)輸入圖像的每個(gè)像素進(jìn)行操作,對(duì)應(yīng)在A3C網(wǎng)絡(luò)中就需要有幾十萬(wàn)個(gè)智能體,所需計(jì)算量大。如果單純使用A3C網(wǎng)絡(luò),只能處理固定分辨率圖像。為了解決上述問(wèn)題,通過(guò)引入全卷積網(wǎng)絡(luò),將1.1節(jié)中A3C網(wǎng)絡(luò)的全局網(wǎng)絡(luò)改進(jìn)為卷積網(wǎng)絡(luò)。FCN網(wǎng)絡(luò)與CNN網(wǎng)絡(luò)不同,取消了全連接層,網(wǎng)絡(luò)全部由卷積層組成,可以接受不同尺寸圖像的輸入。通過(guò)最后一個(gè)反卷積層對(duì)特征圖進(jìn)行上采樣,可以使輸出圖像與輸入圖像的尺寸相同。

        由于FCN網(wǎng)絡(luò)采用上采樣、下采樣操作,雖然輸出圖像的尺寸得到恢復(fù),但是采樣過(guò)程會(huì)造成部分信息丟失。采用空洞卷積(dilated convolution)解決信息丟失問(wèn)題,取消池化操作,增大感受野,使輸出信息的范圍更大。

        1.3 獎(jiǎng)勵(lì)圖卷積

        PixelRL網(wǎng)絡(luò)中的智能體數(shù)量多,并且全部排列在2D平面上,因此不能直接使用經(jīng)典的多智能體學(xué)習(xí)網(wǎng)絡(luò)。通過(guò)引入一個(gè)獎(jiǎng)勵(lì)圖卷積,不僅考慮本像素點(diǎn)的權(quán)重,還要考慮本像素點(diǎn)鄰域內(nèi)像素的權(quán)重,使本像素點(diǎn)執(zhí)行的動(dòng)作at不僅改變自己的狀態(tài)st,還能改變鄰域內(nèi)其他像素點(diǎn)的狀態(tài),獲得的獎(jiǎng)勵(lì)為

        (4)

        式中:N(i)表示以本像素點(diǎn)為中心的窗口;Wi-j為下一個(gè)時(shí)刻t+1鄰域的價(jià)值V考慮多少的權(quán)重,相當(dāng)于卷積核。

        1.4 獎(jiǎng)勵(lì)函數(shù)

        PixelRL網(wǎng)絡(luò)的獎(jiǎng)勵(lì)函數(shù)定義為小化圖像在CIELab空間的歐氏距離(L2距離)

        (5)

        2 PixelRL模型改進(jìn)

        針對(duì)3 000張不同線路和不同時(shí)間實(shí)測(cè)采集的接觸網(wǎng)圖像特征分析,為實(shí)現(xiàn)有效的接觸網(wǎng)零部件局部效果增強(qiáng),設(shè)計(jì)出兩組不同的動(dòng)作組合用來(lái)調(diào)整圖像的對(duì)比度、色彩以及亮度。

        2.1 原始PixelRL模型增強(qiáng)效果

        PixelRL原始網(wǎng)絡(luò)設(shè)置的智能體動(dòng)作組合見(jiàn)表1,模型的增強(qiáng)效果如圖4所示。由圖4可見(jiàn),與原始圖像相比,增強(qiáng)后的圖片在亮度和對(duì)比度方面均有明顯提高。但該方法仍是針對(duì)全局像素的增強(qiáng),并且 RGB通道調(diào)節(jié)動(dòng)作對(duì)于夜間采集的接觸網(wǎng)圖像實(shí)際為無(wú)效操作,增加了算法復(fù)雜度。

        表1 原始PixelRL網(wǎng)絡(luò)智能體動(dòng)作

        圖4 原始PixelRL算法增強(qiáng)效果

        2.2 智能體動(dòng)作改進(jìn)

        為減少接觸網(wǎng)檢測(cè)對(duì)行車干擾及白天環(huán)境光對(duì)攝像機(jī)圖像采集的炫光干擾,接觸網(wǎng)檢測(cè)一般在夜間進(jìn)行。接觸網(wǎng)檢測(cè)圖像類似灰度圖,接觸網(wǎng)圖像統(tǒng)計(jì)特征分析如圖5所示。圖5(a)為接觸網(wǎng)檢測(cè)圖像直方圖,圖5(b)顯示灰度值大于25的接觸網(wǎng)圖像像素點(diǎn)數(shù)量,其對(duì)應(yīng)區(qū)域?yàn)榻佑|網(wǎng)零部件局部區(qū)域。如圖5所示,接觸網(wǎng)圖像存在大面積的低灰度值像素點(diǎn),即黑色背景,為需要抑制的圖像區(qū)域。少部分高亮度像素點(diǎn)為零部件區(qū)域,為實(shí)際需要增強(qiáng)的局部有效區(qū)域。針對(duì)上述特性,設(shè)計(jì)出兩種不同的動(dòng)作組合。

        圖5 接觸網(wǎng)圖像灰度分析

        PixelRL模型中,智能體的動(dòng)作包含RGB不同通道的調(diào)節(jié),去除關(guān)于通道調(diào)節(jié)的動(dòng)作,改進(jìn)的動(dòng)作組合一見(jiàn)表2??紤]接觸網(wǎng)圖像夜間采集的特點(diǎn)以及圖像信息的稀疏特征,改進(jìn)的動(dòng)作組合二見(jiàn)表3。

        表2 改進(jìn)動(dòng)作組合一

        表3 改進(jìn)動(dòng)作組合二

        動(dòng)作組合一在原始動(dòng)作組合的基礎(chǔ)上,去除三通道調(diào)節(jié)相關(guān)動(dòng)作。動(dòng)作組合二先采用gamma校正對(duì)全局像素進(jìn)行調(diào)整,再對(duì)灰度值大于25的零部件區(qū)域像素點(diǎn)進(jìn)行線性調(diào)整,減少黑色背景像素的改變,gamma校正公式為

        f(I)=Iγ

        (6)

        式中:I為輸入圖像的像素值;γ為校正系數(shù);f(I)為校正后的灰度值。當(dāng)γ<1時(shí),圖像的整體灰度值變大,對(duì)于圖像灰度值較小的部分,圖像的動(dòng)態(tài)范圍變大,對(duì)比度增強(qiáng);對(duì)于灰度值較大的部分,圖像的動(dòng)態(tài)范圍變小,圖像對(duì)比度降低。設(shè)置校正系數(shù)分別為0.9、0.8、0.7。

        2.3 改進(jìn)效果分析

        使用相同的數(shù)據(jù)集和參數(shù)分別對(duì)3種包含不同動(dòng)作組合的模型進(jìn)行訓(xùn)練,并用100張與訓(xùn)練集不重合的圖片進(jìn)行測(cè)試。統(tǒng)計(jì)三者的平均PSNR、SSIM和歐式距離(L2距離)。3種方法的增強(qiáng)效果統(tǒng)計(jì)結(jié)果見(jiàn)表4。

        表4 不同動(dòng)作組合的增強(qiáng)效果

        由表4可見(jiàn),改進(jìn)組合二的增強(qiáng)效果最好,可以得到最大的PSNR值,最小的SSIM值和L2距離,與原始圖像最為接近。本文下述內(nèi)容即為采用動(dòng)作組合二進(jìn)行試驗(yàn)得出。

        3 實(shí)驗(yàn)

        3.1 數(shù)據(jù)集與評(píng)價(jià)指標(biāo)

        網(wǎng)絡(luò)訓(xùn)練需要采用配對(duì)數(shù)據(jù)集,由于鐵路檢測(cè)車采集到的圖像具有單一性,不可能采集到同一區(qū)域明暗相互配對(duì)的圖像,因此采用EnlightenGAN圖像增強(qiáng)網(wǎng)絡(luò)[15]通過(guò)現(xiàn)場(chǎng)采集實(shí)測(cè)圖像生成配對(duì)數(shù)據(jù)集。

        EnlightenGAN引入注意力機(jī)制和雙鑒別結(jié)構(gòu),避免圖像過(guò)度增強(qiáng),保證接觸網(wǎng)零部件幾何形狀、位置信息以及顏色信息的穩(wěn)定。同時(shí)考慮接觸網(wǎng)圖像的稀疏特征,避免增強(qiáng)接觸網(wǎng)圖像的黑色背景。實(shí)驗(yàn)使用檢測(cè)車采集到的京廣線接觸網(wǎng)圖片,將上述方法處理后的圖像與原始圖像配對(duì)構(gòu)成數(shù)據(jù)集,其中1 000張圖像用于訓(xùn)練,100張圖像用于測(cè)試。

        使用PSNR、SSIM[17]、標(biāo)準(zhǔn)差、亮度、對(duì)比度[18-19]5個(gè)指標(biāo)綜合評(píng)價(jià)圖像質(zhì)量,這些方法廣泛運(yùn)用于評(píng)價(jià)圖像的弱光增強(qiáng)效果。PSNR與SSIM的數(shù)值越大,說(shuō)明圖像失真越小,質(zhì)量越高。標(biāo)準(zhǔn)差、亮度、對(duì)比度可以作為人眼主觀評(píng)價(jià)的參考,衡量圖像的可視性。

        為了進(jìn)一步說(shuō)明本文算法的有效性,將本文方法與基于深度學(xué)習(xí)的DLN算法[13]、基于傳統(tǒng)方法的DUAL算法[8]、LIME算法[9]進(jìn)行比較。

        3.2 實(shí)驗(yàn)過(guò)程

        實(shí)驗(yàn)在Ubuntu18.04系統(tǒng)下進(jìn)行,使用NVIDIA 2080Ti GPU。采用Adam優(yōu)化器訓(xùn)練全卷積A3C模型,學(xué)習(xí)率為0.001,batch size設(shè)置為32,最大學(xué)習(xí)步長(zhǎng)為10。獎(jiǎng)勵(lì)圖卷積的窗口設(shè)置為33×33,權(quán)重矩陣w采用恒等映射初始化參數(shù),窗口中心點(diǎn)像素權(quán)重為1,其他像素為0。在實(shí)驗(yàn)前對(duì)數(shù)據(jù)擴(kuò)充,主要進(jìn)行隨機(jī)翻轉(zhuǎn)、裁剪和隨機(jī)調(diào)整對(duì)比度、亮度。模型的學(xué)習(xí)步長(zhǎng)分別設(shè)置為1~10,分別進(jìn)行實(shí)驗(yàn)。

        圖6為不同學(xué)習(xí)步長(zhǎng)的結(jié)果示例。由圖6可見(jiàn),隨著步長(zhǎng)的增長(zhǎng),增強(qiáng)效果逐漸提高,當(dāng)步長(zhǎng)大于7后,增強(qiáng)效果基本保持穩(wěn)定。

        圖6 不同學(xué)習(xí)步長(zhǎng)的效果

        3.3 結(jié)果分析

        1) 主觀增強(qiáng)效果對(duì)比

        圖7為不同方法處理后的增強(qiáng)結(jié)果。由圖7可知,經(jīng)過(guò)處理后圖像質(zhì)量相較于原圖,均有不同程度的提高。DLN算法處理后圖像整體亮度過(guò)高,出現(xiàn)了“過(guò)增強(qiáng)”現(xiàn)象,零部件邊緣出現(xiàn)虛化;LIME算法處理后,圖像對(duì)比度適中,但是黑色背景出現(xiàn)了過(guò)曝光,畫質(zhì)明顯存在噪點(diǎn),亮度也不如本文方法;DUAL算法處理后,零部件邊緣出現(xiàn)了不同程度的噪點(diǎn),同時(shí)黑色背景也出現(xiàn)過(guò)曝現(xiàn)象;本文方法處理后的亮度和對(duì)比度適中,并且沒(méi)有出現(xiàn)過(guò)曝,零部件清晰可見(jiàn),可視性良好,這對(duì)于人工檢測(cè)或者計(jì)算機(jī)視覺(jué)處理,都有較大的幫助。

        圖7 不同算法增強(qiáng)效果對(duì)比

        2)統(tǒng)計(jì)量化增強(qiáng)效果對(duì)比

        不同算法增強(qiáng)后灰度值大于25的接觸網(wǎng)零部件非背景有效區(qū)域像素點(diǎn)分布情況如圖8所示。由圖8可知,本文方法的像素點(diǎn)分布最為均勻,灰度分布范圍廣,與目標(biāo)效果圖統(tǒng)計(jì)結(jié)果較為一致。而上述其他方法的灰度值在低亮度部分占比較大,分布范圍較窄。

        圖8 處理結(jié)果的灰度分布

        表5分別列出不同增強(qiáng)算法的5種評(píng)價(jià)指標(biāo)對(duì)比。由表5可見(jiàn),本文方法的PSNR與SSIM最高,說(shuō)明本文方法增強(qiáng)后的圖片失真最小,與實(shí)拍圖最為接近;標(biāo)準(zhǔn)差、亮度、對(duì)比度數(shù)值位于中間,說(shuō)明圖像的亮度分布均勻,對(duì)比度和亮度適中,沒(méi)有過(guò)明過(guò)暗。

        表5 圖像質(zhì)量評(píng)價(jià)

        3)非背景有效零部件區(qū)域亮度均衡性對(duì)比

        圖9為亮度不均衡的零部件圖片示例,黃色矩形框表示裁剪的零部件。統(tǒng)計(jì)結(jié)果如圖10所示。本文方法處理后,不同亮度的零部件亮度提升明顯,低亮度區(qū)域亮度增長(zhǎng)較大而高亮度區(qū)域增長(zhǎng)較小,使圖片的整體均衡性較好。

        圖9 零部件不同亮度區(qū)域示例

        圖10 不同亮度的零部件增強(qiáng)效果對(duì)比

        4)增強(qiáng)后對(duì)零部件自動(dòng)定位識(shí)別影響

        為驗(yàn)證圖像增強(qiáng)后對(duì)利用深度學(xué)習(xí)模型進(jìn)行接觸網(wǎng)零部件自動(dòng)定位識(shí)別的影響,使用Swin-Transformer[20]目標(biāo)檢測(cè)框架對(duì)比圖像增強(qiáng)前后的零部件識(shí)別效果。使用測(cè)試數(shù)據(jù)集包含3 000張接觸網(wǎng)圖片的訓(xùn)練集和1 000張圖片的驗(yàn)證集,訓(xùn)練36個(gè)Epochs得到接觸網(wǎng)圖片目標(biāo)檢測(cè)模型。將100張?jiān)嫉土炼葓D片以及采用本文方法處理的圖片分別送入上述模型進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)統(tǒng)計(jì)結(jié)果見(jiàn)表6。由表6可知,本文方法不僅可以提高圖像的可視性,而且能夠提高接觸網(wǎng)圖片自動(dòng)識(shí)別的效率。圖11為目標(biāo)檢測(cè)結(jié)果,黃色矩形框表示原始圖像中漏檢的零部件,說(shuō)明增強(qiáng)后可以提高零部件的檢出率。

        表6 自動(dòng)識(shí)別結(jié)果

        圖11 增強(qiáng)前后目標(biāo)檢測(cè)結(jié)果

        5)模型推理速度

        網(wǎng)絡(luò)模型的推理運(yùn)算速度,是衡量模型是否具有工程應(yīng)用價(jià)值的重要因素。測(cè)試1 262張60×40分辨率的接觸網(wǎng)圖像,總用時(shí)188.89 s,檢測(cè)速率即1 s內(nèi)處理圖像數(shù)(FPS)為6.681。

        4 結(jié)論

        本文方法致力于解決鐵路檢測(cè)車采集到的圖像亮度、對(duì)比度過(guò)低的問(wèn)題。基于PixelRL算法,根據(jù)接觸網(wǎng)實(shí)測(cè)圖像統(tǒng)計(jì)結(jié)果改進(jìn)算法模型,設(shè)計(jì)全新的智能體動(dòng)作和動(dòng)作組合,用于抑制暗光背景增強(qiáng),著重增強(qiáng)零部件區(qū)域。實(shí)驗(yàn)證明對(duì)接觸網(wǎng)暗光圖像增強(qiáng)的有效性,相比其他方法,在圖像質(zhì)量上有一定的提高,且處理速度較快,有較高的工程應(yīng)用價(jià)值。目標(biāo)檢測(cè)以及局部細(xì)節(jié)對(duì)比證明本方法可以在提高零部件部分圖像質(zhì)量的同時(shí)提高自動(dòng)識(shí)別準(zhǔn)確率。

        猜你喜歡
        接觸網(wǎng)像素點(diǎn)亮度
        為開(kāi)通打下基礎(chǔ)!這條國(guó)際鐵路完成接觸網(wǎng)平推驗(yàn)收
        亮度調(diào)色多面手
        基于canvas的前端數(shù)據(jù)加密
        接觸網(wǎng)設(shè)備“運(yùn)、檢、修”分離改革的探討
        亮度一樣嗎?
        基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
        高速鐵路接觸網(wǎng)研究進(jìn)展
        基于斬波調(diào)制的LED亮度控制
        接觸網(wǎng)避雷器接地系統(tǒng)分析
        人生的亮度
        偷看农村妇女牲交| 午夜一区二区在线视频| 中文资源在线一区二区三区av| 天堂中文а√在线| 亚洲中文字幕无码mv| 狠狠狠狠狠综合视频| 久久老熟女一区二区三区| 五十六十日本老熟妇乱| 7777精品伊人久久久大香线蕉| 大屁股少妇一区二区无码| 久久精品亚洲一区二区三区画质 | 亚洲 中文 欧美 日韩 在线| 国产亚洲精品aaaa片app| 最新国产精品精品视频| 亚洲中文av中文字幕艳妇| 99久久免费国产精品| 欧美人与动zozo| 人妻av中文字幕精品久久| 黑人大群体交免费视频| 蜜臀久久99精品久久久久久小说| 精品的一区二区三区| 日本一区二区免费高清| 亚洲热线99精品视频| 四虎精品影视| 国产在线观看免费不卡视频| 无码国产成人午夜电影在线观看| 欧美日韩一卡2卡三卡4卡 乱码欧美孕交 | 国产成人无码免费网站| 无码专区无码专区视频网址 | 日韩成人精品一区二区三区| 精品国产a一区二区三区v| 成人三级a视频在线观看| 91精品国产91| 亚洲一区二区三区在线看| 东北少妇不带套对白| 国产香蕉尹人综合在线观| 久久精品国产亚洲av专区| 麻豆网神马久久人鬼片| 亚洲男人天堂2019| 一区二区视频资源在线观看| 国产无遮挡aaa片爽爽|