亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于全卷積神經(jīng)網(wǎng)絡(luò)的銹蝕鋼筋截面檢測方法

        2022-02-11 06:22:44過民龍楊厚易
        廣東土木與建筑 2022年1期
        關(guān)鍵詞:運(yùn)算像素卷積

        過民龍,張 凱,楊厚易

        (廣東省建筑科學(xué)研究院集團(tuán)股份有限公司 廣州 510500)

        0 緒論

        鋼筋銹蝕是導(dǎo)致混凝土結(jié)構(gòu)承載性能與耐久性下降的主要誘因之一,其嚴(yán)重危害了結(jié)構(gòu)的可靠性與安全性[1]。大量工程調(diào)查與研究表明,鋼筋銹蝕產(chǎn)物體積膨脹是混凝土結(jié)構(gòu)耐久性劣化演化過程的關(guān)鍵影響因素[2-3]。針對鋼筋銹蝕產(chǎn)物,目前可用到的檢測方法包括超聲導(dǎo)波、X 射線管譜分析、衍射分析、熱分析等方法,其通過鋼筋銹蝕產(chǎn)物的特殊理化反應(yīng)或物理特性對銹蝕產(chǎn)物的組分、密度、膨脹率等進(jìn)行測定,從而推算鋼筋銹蝕體積。此類方法,一方面對于檢測儀器的工作環(huán)境及精度要求高,且人為操作對檢測結(jié)果的影響大;另一方面其測得的鋼筋銹蝕量往往是待檢測樣本的平均值,而研究表明即使在同一根鋼筋中銹蝕的發(fā)展也是沿長度非均勻分布的,非均勻銹蝕對結(jié)構(gòu)構(gòu)件的劣化影響不可忽略[4-8]。因此,構(gòu)建一種可考慮鋼筋非均勻銹蝕且易于工程現(xiàn)場使用的鋼筋銹蝕量檢測方法十分有意義。

        相比利用理化特性測量鋼筋銹蝕量的方法,圖像法是通過計(jì)算機(jī)輔助工具,將銹蝕鋼筋截面像素從所拍攝的圖像樣本中提取出來,并利用像素與面積之間存在的比例關(guān)系以獲得所測銹蝕鋼筋的截面積,進(jìn)而可求出鋼筋任意位置處的銹蝕量[9-10]。圖像法通常采用成熟的計(jì)算機(jī)圖像處理工具庫以提取圖像樣本像素的特征數(shù)據(jù),再人為給定一些參數(shù)閾值以判斷鋼筋截面的邊界,這一方面賦予了鋼筋截面判斷過多的主觀影響,另一方面鋼筋所處環(huán)境的復(fù)雜性也無法使鋼筋截面邊界的像素信息閾值得到良好歸納。因此,圖像法的使用依然需要改進(jìn)。

        本文提出了一種基于全卷積深度神經(jīng)網(wǎng)絡(luò)的銹蝕鋼筋截面檢測方法?;谌矸e神經(jīng)網(wǎng)絡(luò)對鋼筋截面像素的分類與分割能力[11-13],獲得了一種可以準(zhǔn)確、快速識別銹蝕鋼筋截面的現(xiàn)場檢測方法。通過對比兩種像素分割全卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)的訓(xùn)練與測試結(jié)果,給出了適用于單鋼筋截面圖像樣本二分類問題全卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)的選用建議;通過對比鋼筋截面面積占總樣本圖像比例不同的樣本檢測結(jié)果,對采樣時待檢鋼筋截面幾何尺寸的范圍限值給出了建議。本文所提方法為鋼筋銹蝕量的檢測提供了快速、高效的新途徑。

        1 全卷積神經(jīng)網(wǎng)絡(luò)

        1.1 卷積神經(jīng)網(wǎng)絡(luò)運(yùn)算流程

        數(shù)學(xué)中卷積運(yùn)算在一維實(shí)數(shù)域的定義為:

        從式⑴可知,卷積運(yùn)算的實(shí)質(zhì)是將函數(shù)f與g的乘積在實(shí)數(shù)域進(jìn)行積分。將g(x)沿x軸平移t后,上述積分運(yùn)算結(jié)果將是t的函數(shù),即χ(i)。若函數(shù)f與g僅在部分實(shí)數(shù)域有定義,則卷積運(yùn)算的積分域?yàn)槎叨x域的交集,若此時函數(shù)f與g是離散函數(shù),則卷積運(yùn)算將進(jìn)一步轉(zhuǎn)化為代數(shù)和的形式:

        即先將有序?qū)崝?shù)集合g的單元序號角標(biāo)向前平移m個單位以獲得新的有序?qū)崝?shù)集合,再將新集合與有序?qū)崝?shù)集合f其角標(biāo)相同的單元相乘并求和。二維條件下只需將實(shí)數(shù)集合單元角標(biāo)編號規(guī)則類推:

        神經(jīng)網(wǎng)絡(luò)中的卷積操作與數(shù)學(xué)中的卷積操作類似,而在網(wǎng)絡(luò)層中使用了卷積操作的神經(jīng)網(wǎng)絡(luò)稱為卷積神經(jīng)網(wǎng)絡(luò)。當(dāng)將平面圖像作為輸入并對圖像進(jìn)行卷積運(yùn)算時,先將圖像各像素灰度值的平面分布類比為二維平面內(nèi)的離散函數(shù)fi,j,再選取合適的gi,j并將gi,j沿著圖像長、寬方向每次滑動m和n個單位,通過式⑶即可得到χm,n,若將χm,n視作二維平面圖像上m,n處像素的灰度值,則χm,n代表的灰度圖像稱為輸入圖像fi,j的特征圖。

        圖像卷積運(yùn)算的基本流程如圖1所示,其中圖1?所示原圖像尺寸為8×8,圖像左半部分為黑色(灰度值取1)、右半部分為白色(灰度值取0),同時規(guī)定灰度值非0即為黑色,反之為白色。gi,j取為圖1?所示的3×3小圖(稱為“卷積核”),并將其沿著原圖像長、寬方向進(jìn)行卷積運(yùn)算,滑動步長取1。卷積運(yùn)算前,在原圖像上進(jìn)行一定程度的像素填充延拓,如圖1?左圖,使得輸出圖像仍然為8×8,所得輸出特征如圖1?右圖所示。

        圖1 二維圖像卷積運(yùn)算流程Fig.1 Convolution Process for 2D Image

        由圖1?可見,原圖像經(jīng)過卷積運(yùn)算后特征圖中顯現(xiàn)出原圖像的交界線。從而易知,卷積運(yùn)算可將圖像的特征信息提取出來,并且由于計(jì)算時卷積核沿著圖像平面滑動,故所提取的特征不隨其位置的變化而改變,即具有平移不變性。

        若將原圖像灰度值與卷積輸出特征圖的灰度值,根據(jù)圖1 所示神經(jīng)網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)依次排開,并令卷積核元素值變?yōu)槲粗獏?shù),如圖2所示,則可知以圖像為輸入的卷積運(yùn)算與常規(guī)神經(jīng)網(wǎng)絡(luò)層間節(jié)點(diǎn)的數(shù)據(jù)運(yùn)算無本質(zhì)區(qū)別。因此,卷積神經(jīng)網(wǎng)絡(luò)與常規(guī)神經(jīng)網(wǎng)絡(luò)一樣,可擬合所輸入圖像像素信息與目標(biāo)輸出之間的函數(shù)關(guān)系,且因卷積運(yùn)算可對圖像的高級特征進(jìn)行提取,故卷積神經(jīng)網(wǎng)絡(luò)所擬合的上述函數(shù)關(guān)系是基于對圖像高級特征的函數(shù)組合而得,邏輯意義明確因而處理圖像的效果更好。

        圖2 二維圖像卷積操作與常規(guī)神經(jīng)網(wǎng)絡(luò)的關(guān)系Fig.2 Relationship between Convolution for 2D Image and Normal Neural Networks

        1.2 二維圖像的下采樣運(yùn)算

        下采樣層在卷積神經(jīng)網(wǎng)絡(luò)中稱為池化層,池化層的運(yùn)算類似卷積運(yùn)算,即通過稱為池化窗的類卷積核算子,沿特征圖長、寬方向?qū)⒊鼗八赃^的像素?cái)?shù)據(jù)進(jìn)行特定運(yùn)算處理。本文所采用的池化運(yùn)算稱為最大值池化,即使用2×2的池化窗,以步長為2進(jìn)行滑動,將窗內(nèi)像素?cái)?shù)據(jù)取最大值作為輸出。經(jīng)過最大值池化下采樣運(yùn)算后,輸出特征圖尺寸變?yōu)樵叽绲囊话搿?/p>

        下采樣一方面可保持層間卷積核數(shù)量不變,即一定程度保持了網(wǎng)絡(luò)對圖像特征的提取能力,另一方面相當(dāng)于減少了網(wǎng)絡(luò)節(jié)點(diǎn)的數(shù)量,從而可緩解卷積神經(jīng)網(wǎng)絡(luò)的過擬合。

        1.3 激活函數(shù)

        卷積神經(jīng)網(wǎng)絡(luò)通過非線性函數(shù)f處理來自上層卷積運(yùn)算所得的輸入值,以使卷積神經(jīng)網(wǎng)絡(luò)可以描述非線性問題。常用的激活函數(shù)為修正線性單元函數(shù)(Rectified Linear Units),其表達(dá)式為:

        此外,Sigmoid函數(shù)也可作為激活函數(shù)使用,如式⑸所示。其常作用于神經(jīng)網(wǎng)絡(luò)的最后一層,其輸出值作為目標(biāo)的判定概率。

        Softmax 函數(shù)作為同樣可生成目標(biāo)判定概率的激活函數(shù),具有更好數(shù)值性能,如式⑹所示。其滿足所有輸出目標(biāo)概率和為1的要求。

        式中:N為類別數(shù)量;xi為神經(jīng)網(wǎng)絡(luò)對應(yīng)第i個類別的輸出特征值。

        1.4 二維圖像的上采樣運(yùn)算

        由前可知,將輸入圖像進(jìn)行多次卷積、池化下采樣后可獲得包含高級特征的特征圖。將這些特征圖通過尺寸與之相同的卷積核進(jìn)行卷積運(yùn)算,則輸出將變?yōu)橐粋€標(biāo)量。若將本次卷積運(yùn)算的卷積核通道數(shù)(卷積核個數(shù))取與類別數(shù)量N相等,則只需在本次卷積輸出的N個標(biāo)量之后接續(xù)若干層常規(guī)神經(jīng)網(wǎng)絡(luò)層(全連接層),最后作用以Sigmoid 或Softmax 等激活函數(shù),則可構(gòu)建出由樣本圖像輸入到圖像內(nèi)容類別判定概率輸出的典型分類卷積神經(jīng)網(wǎng)絡(luò),如LeNet、VGG等[14-15]。為了實(shí)現(xiàn)從樣本圖像輸入到樣本圖像逐像素的類別判定輸出,可基于典型分類卷積神經(jīng)網(wǎng)絡(luò),通過添加上采樣操作,將分類卷積神經(jīng)網(wǎng)絡(luò)中具有高級特征且尺寸因下采樣而變小的特征圖的尺寸逐漸還原為樣本圖像的尺寸,從而利用尺寸還原的特征圖構(gòu)造樣本圖像逐像素的類別判定輸出。

        常用的上采樣操因其運(yùn)算特點(diǎn)使其可視作對應(yīng)卷積運(yùn)算的逆操作。與卷積運(yùn)算不同,反卷積運(yùn)算的目的不是提取高級抽象特征,而是通過組合高級抽象特征以再現(xiàn)低級的具象特征,因此每個上采樣反卷積操作都對應(yīng)一個卷積操作,它們之間的計(jì)算參數(shù)具有相關(guān)性。卷積與反卷積的對應(yīng)計(jì)算流程如圖3所示。

        圖3?所示卷積操作中卷積核尺寸k=3、卷積核滑動步長s=1、圖像外圍設(shè)置的零像素填充p=0,在此設(shè)置下觀察輸出特征圖左上角的g1,1,顯然g1,1是通過左上角3×3 區(qū)域的9 個像素?cái)?shù)據(jù)而生成的,因此在反卷積時g1,1也應(yīng)參與還原特征圖左上角3×3 區(qū)域各像素點(diǎn)信息的計(jì)算。故可知上采樣反卷積的卷積核尺寸與對應(yīng)卷積的卷積核尺寸相同,即k′=k,而反卷積的其余計(jì)算參數(shù)為s′=1、p′=k-p-1。當(dāng)對應(yīng)卷積的卷積核滑動步長s>1 時,需將特征圖各像素間插入(s-1)個0,如圖3?所示。

        圖3 卷積與反卷積過程Fig.3 Process for Convolution and De-convolution

        1.5 銹蝕像素分類網(wǎng)絡(luò)架構(gòu)

        本文采用基于分類卷積神經(jīng)網(wǎng)絡(luò)VGG19[15]的全卷積神經(jīng)網(wǎng)絡(luò)VGG19-FCN 以及U-Net[16],構(gòu)建了用于鋼筋銹蝕截面銹蝕梁判定的銹蝕像素分類網(wǎng)絡(luò)。

        在VGG19-FCN 中,原始分類網(wǎng)絡(luò)VGG19 的最后幾層為全連接層,其作用為對圖像進(jìn)行類別歸屬劃分,其網(wǎng)絡(luò)輸出為樣本屬于特定類別的概率。而全卷積神經(jīng)網(wǎng)絡(luò)通常基于分類卷積神經(jīng)網(wǎng)絡(luò),將其用作分類的最后幾層全連接層替換為輸出特征圖尺寸為1×1卷積層,再在其后添加多層反卷積層以將高級抽象特征圖逐步上采樣以構(gòu)造樣本圖像逐像素的分類信息輸出。由于分類神經(jīng)網(wǎng)絡(luò)最后幾層特征圖雖保存有高度抽象的圖像特征信息,但像素位置相關(guān)信息卻被下采樣運(yùn)算所磨滅,而逐像素的分類信息輸出必然需要利用圖像像素的位置信息,因此全卷積神經(jīng)網(wǎng)絡(luò)上采樣過程中需通過將網(wǎng)絡(luò)淺層的特征圖與上采樣輸出特征圖進(jìn)行像素信息相加,即所謂“特征融合”,以結(jié)合網(wǎng)絡(luò)淺層的位置特征信息及深層的類別特征信息,從而提升逐像素分類信息輸出的準(zhǔn)確性。

        在U-Net 網(wǎng)絡(luò)中,將分類卷積神經(jīng)網(wǎng)絡(luò)中的全連接層全部刪去,替代以更多的上采樣反卷積層,以結(jié)合更廣泛的淺層位置特征信息。并在特征融合時,使用另一種方式,即將兩個待融合特征圖的最后一維(通道數(shù))以擴(kuò)展方式直接拼接。

        本文所采用全卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)如圖4 所示。VGG19-FCN 和U-Net 網(wǎng)絡(luò)的可訓(xùn)練參數(shù)數(shù)量分別為57.8M 和31.0M,輸入銹蝕鋼筋截面樣本圖像皆為RGB 通道24 位彩色圖像,分辨率為224×224,網(wǎng)絡(luò)輸出的逐像素分類信息特征圖尺寸為224×224,通道數(shù)為2(表征背景像素、銹蝕鋼筋斷面像素兩個類別),每個通道對應(yīng)的224×224 個輸出值表征某個像素對應(yīng)某個類別的輸出特征值,即對應(yīng)式⑹的xi。

        圖4 本文所使用的全卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)Fig.4 Achitectures of Fully Convolutional Networks in This Paper

        1.6 損失函數(shù)

        損失函數(shù)是描述神經(jīng)網(wǎng)絡(luò)輸出與人為給定輸出間差異的函數(shù)。本文采用的損失函數(shù)為針對二分類問題的二項(xiàng)交叉熵函數(shù),即:

        1.7 訓(xùn)練方法

        對于常規(guī)的梯度下降訓(xùn)練法,其每次迭代運(yùn)算只涉及單個樣本,這樣易使網(wǎng)絡(luò)參數(shù)陷入對單一樣本特質(zhì)化特征的學(xué)習(xí)中,從而導(dǎo)致?lián)p失函數(shù)的優(yōu)化收斂性不佳。為解決上述問題,可先將訓(xùn)練網(wǎng)絡(luò)參數(shù)所用樣本以隨機(jī)抽樣的方式均分為多個小批次,并定義樣本批次損失函數(shù)為批次中單個樣本損失函數(shù)的平均值,如式⑻所示;而后將樣本批次損失函數(shù)采用梯度下降法進(jìn)行網(wǎng)絡(luò)權(quán)重參數(shù)的更新;當(dāng)樣本批次用盡后,再重新對樣本進(jìn)行隨機(jī)抽樣劃分為新的訓(xùn)練批次。此法即為小批量隨機(jī)梯度下降法。

        在訓(xùn)練權(quán)重參數(shù)量較多的神經(jīng)網(wǎng)絡(luò)時,通常只能依靠如GPU等硬件設(shè)備進(jìn)行并行計(jì)算,才能在合理的時間內(nèi)完成網(wǎng)絡(luò)訓(xùn)練。同時,儲存權(quán)重參數(shù)相關(guān)的大量中間計(jì)算結(jié)果也將占用大量計(jì)算機(jī)內(nèi)存、顯存資源。特別是當(dāng)采用小批量法訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,批次樣本數(shù)量B若超過GPU 的最大儲存能力時,將無法進(jìn)行網(wǎng)絡(luò)訓(xùn)練。

        為了解決上述問題,本文基于二項(xiàng)交叉熵?fù)p失函數(shù)的表達(dá)式(7-2)及計(jì)算批次損失函數(shù)的定義式(8-1),將單批次樣本進(jìn)一步分解為子批次,使每個子批次的樣本數(shù)量恰好可以充分利用GPU的運(yùn)算及存儲能力,當(dāng)所有子批次計(jì)算完畢批次損失函數(shù)對網(wǎng)格權(quán)重參數(shù)的梯度后,再將子批次權(quán)重梯度值對子批次數(shù)量取平均值,這樣即可使計(jì)算所得恰好等于整個批次一次性計(jì)算批次損失函數(shù)對權(quán)重參數(shù)梯度的結(jié)果。上述過程可用式⑼所示恒等式解釋。

        式中:w為任意權(quán)重參數(shù);χi為第i個圖像樣本的二項(xiàng)交叉熵函數(shù);M、N分別為單個子批次所包含的樣本數(shù)量及子批次數(shù)量,并有B=M×N。

        通過小批量子集隨機(jī)梯度下降法訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),即可在計(jì)算機(jī)GPU 資源較緊的情況下,仍然可以選擇合理的小批量樣本數(shù)進(jìn)行網(wǎng)絡(luò)權(quán)重參數(shù)的訓(xùn)練,而代價(jià)為訓(xùn)練時間上的增加。

        2 樣本訓(xùn)練與檢測結(jié)果

        為了驗(yàn)證本文全卷積神經(jīng)網(wǎng)絡(luò)在銹蝕鋼筋斷面識別中的適用性,使用在實(shí)際工程中收集的2 000 個銹蝕鋼筋斷面樣本進(jìn)行本文神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,其中訓(xùn)練集取1 700 個樣本、驗(yàn)證集取300 個樣本。采用Tensorflow 框架進(jìn)行神經(jīng)網(wǎng)絡(luò)的構(gòu)建,計(jì)算機(jī)配置為CPU為i7-8750H六核2.2GHz、GPU為單張gtx1060、內(nèi)存16 G、顯存6 G。訓(xùn)練時將小批量數(shù)量取32、并將此小批量繼續(xù)分為4 個子批量進(jìn)行運(yùn)算,學(xué)習(xí)率取1×10-4。樣本圖像像素信息輸入網(wǎng)絡(luò)前將各色彩通道值除以255 變換至[0,1]區(qū)間,以便訓(xùn)練過程具有更好的數(shù)值性能。將所有訓(xùn)練樣本遍歷一次稱為一個循環(huán)(Epoch),兩個網(wǎng)絡(luò)模型皆運(yùn)行約30 個循環(huán)。VGG19-FCN 的運(yùn)行時間為315 min、U-Net 的運(yùn)行時間為228 min,訓(xùn)練過程的損失函數(shù)及部分訓(xùn)練特征參數(shù)曲線如圖5所示。

        圖5 網(wǎng)絡(luò)訓(xùn)練的特征參數(shù)曲線Fig.5 Feature Curves for Parameters in Network Training

        在訓(xùn)練集中,以樣本像素類別人工標(biāo)簽與樣本像素類別網(wǎng)絡(luò)預(yù)測標(biāo)簽的匹配率作為準(zhǔn)確率,則VGG19-FCN 網(wǎng)絡(luò)和U-Net 網(wǎng)絡(luò)在驗(yàn)證集上的最終準(zhǔn)確率為99.59%和98.87%;通過樣本人工標(biāo)簽及網(wǎng)絡(luò)預(yù)測標(biāo)簽判定為鋼筋斷面像素的像素可構(gòu)成兩個集合,此兩個集合的并集像素?cái)?shù)為分母,交集像素?cái)?shù)為分子,求得的比值作為鋼筋像素識別的精確度,則VGG19-FCN 網(wǎng)絡(luò)和U-Net 網(wǎng)絡(luò)在驗(yàn)證集上的最終精確度為96.59%和95.06%。從圖6 各曲線可以看出,對于二分類問題VGG19-FCN 與U-Net 在識別效果上均有良好表現(xiàn)。部分驗(yàn)證集圖像樣本的鋼筋斷面檢測結(jié)果,如圖6所示。

        圖6 神經(jīng)網(wǎng)絡(luò)識別結(jié)果Fig.6 Detection Results of Neural Networks

        訓(xùn)練過程中兩個網(wǎng)絡(luò)架構(gòu)均能使驗(yàn)證集的識別準(zhǔn)確率自始至終保持較高的水準(zhǔn),其原因在于所輸入的鋼筋斷面樣本圖像中有較大面積為背景,從而高準(zhǔn)確率貢獻(xiàn)源自大部分背景的正確識別;對于鋼筋斷面識別的精確度,顯然VGG19-FCN 網(wǎng)絡(luò)可在更短的迭代數(shù)量達(dá)到更高精確度,且精確度提升過程更加穩(wěn)定,但訓(xùn)練結(jié)束時兩者精確度相差無幾,故可認(rèn)為此二者的識別效果基本相同。

        對于主要用以區(qū)分背景及待檢測目標(biāo)的二分類問題,所采集樣本中背景通常占可觀比例。而從本文樣本的測試結(jié)果可發(fā)現(xiàn),背景占比大小對樣本識別的精確度有重要影響。以人工標(biāo)注的鋼筋斷面像素為基準(zhǔn),計(jì)算本文神經(jīng)網(wǎng)絡(luò)識別鋼筋斷面像素?cái)?shù)的相對誤差,驗(yàn)證集樣本中鋼筋區(qū)域占全畫面的比例與識別相對誤差間的關(guān)系如圖7所示。

        由圖7?可知,當(dāng)圖像樣本中待測鋼筋斷面像素?cái)?shù)占畫面過小時,識別相對誤差急速增大。VGG19-FCN 網(wǎng)絡(luò)識別的最大相對誤差為12.7%,而U-Net 網(wǎng)絡(luò)識別的最大相對誤差達(dá)到34.6%。過大或離散性較大的相對誤差將影響鋼筋斷面的識別精度,因此樣本采集時應(yīng)選取合適的鋼筋斷面區(qū)域畫面占比取值范圍。以5%的相對誤差作為容許值,并偏于保守地將圖7?散點(diǎn)圖的上包絡(luò)線與5%相對誤差的交點(diǎn)橫坐標(biāo)作為采樣圖像中鋼筋斷面占比下限值,則VGG19-FCN 的下限占比為7.97%,U-Net 的下限占比為15.46%。由于本文樣本鋼筋斷面像素面積占比最大值為51.78%,且兩個網(wǎng)絡(luò)在此樣本上的識別相對誤差均為1%左右,故將51.78%作為樣本鋼筋斷面占比上限值是合適的。將上述面積比率換算為長度比率,則可知若采用VGG19-FCN 網(wǎng)絡(luò)對鋼筋斷面進(jìn)行識別,則采樣時鋼筋斷面長寬尺寸占整個畫面比率的合適取值范圍為28.23%~71.95%,采用U-Net 網(wǎng)絡(luò)時取值范圍為39.32%~71.95%。

        圖7 兩種神經(jīng)網(wǎng)絡(luò)的識別誤差Fig.7 Detection Errors for the Two Neural Networks

        由上述分析可知,VGG19-FCN 網(wǎng)絡(luò)和U-Net 網(wǎng)絡(luò)在鋼筋斷面識別效果上接近,但U-Net 網(wǎng)絡(luò)的參數(shù)數(shù)量為VGG19-FCN 網(wǎng)絡(luò)的54%左右,且訓(xùn)練時間前者為后者的72.4%,因此綜合權(quán)衡網(wǎng)絡(luò)存儲所需空間、訓(xùn)練時間、識別精度,U-Net網(wǎng)絡(luò)更適合本文鋼筋斷面識別的工作任務(wù)。

        3 結(jié)論

        本文基于全卷積神經(jīng)網(wǎng)絡(luò)提出了一種檢測銹蝕鋼筋截面的新方法,可為非均勻銹蝕鋼筋不同位置截面銹蝕量的準(zhǔn)確、快速測量提供技術(shù)基礎(chǔ)。通過人工標(biāo)注的2 000 個銹蝕鋼筋斷面樣本(訓(xùn)練集1 700 個、驗(yàn)證集300個)分別對VGG19-FCN和U-Net兩種神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,以對比二者識別效果。結(jié)果表明:

        ⑴在神經(jīng)網(wǎng)絡(luò)訓(xùn)練時,本文所提小批量子集隨機(jī)梯度下降法,在小批量梯度下降法的基礎(chǔ)上,將單個訓(xùn)練批次再劃分為更小的子集,并利用二項(xiàng)交叉熵?fù)p失函數(shù)的特性,使其計(jì)算效果等同于小批量梯度下降法,在解決網(wǎng)絡(luò)訓(xùn)練中GPU顯存不足的問題上具有良好效果。

        ⑵訓(xùn)練時VGG19-FCN網(wǎng)絡(luò)比U-Net網(wǎng)絡(luò)收斂速率快、損失函數(shù)曲線下降更加平滑,同時鋼筋斷面像素識別精確度上升更快,故可知對于本文鋼筋斷面樣本,VGG19-FCN比U-Net在樣本訓(xùn)練利用率上更高效。

        ⑶兩個網(wǎng)絡(luò)在驗(yàn)證集上的最終精確度分別達(dá)到96.59%和95.06%,故可說明兩個網(wǎng)絡(luò)在識別性能上均較好,對本文銹蝕鋼筋斷面識別均是可行的。

        ⑷ 以5%相對誤差為容許值的條件下,使用VGG19-FCN 網(wǎng)絡(luò)進(jìn)行識別時采樣圖像中鋼筋截面占比尺寸下限為28.23%,對U-Net 網(wǎng)絡(luò)此值為39.32%。因本文所有樣本中鋼筋截面尺寸上限為71.95%,故推薦VGG19-FCN 網(wǎng)絡(luò)的待測樣本鋼筋截面尺寸范圍為全畫面尺寸的28.23%~71.95%,U-Net 網(wǎng)絡(luò)為39.32%~71.95%。

        ⑸綜合考慮神經(jīng)網(wǎng)絡(luò)存儲所需空間、訓(xùn)練時間、識別精度,本文認(rèn)為U-Net 網(wǎng)絡(luò)更適合銹蝕鋼筋截面識別的工作任務(wù)。

        猜你喜歡
        運(yùn)算像素卷積
        趙運(yùn)哲作品
        藝術(shù)家(2023年8期)2023-11-02 02:05:28
        像素前線之“幻影”2000
        重視運(yùn)算與推理,解決數(shù)列求和題
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        有趣的運(yùn)算
        “像素”仙人掌
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        “整式的乘法與因式分解”知識歸納
        撥云去“誤”學(xué)乘除運(yùn)算
        91久久国产自产拍夜夜嗨| 亚洲中文字幕久久精品一区| 亚洲熟妇乱子伦在线| 美女裸体无遮挡黄污网站| 欧美v日韩v亚洲综合国产高清| 丝袜美腿一区二区在线观看| 亚洲本色精品一区二区久久| 精品厕所偷拍一区二区视频| 99re6在线视频精品免费| 久久人妻少妇嫩草av| 亚洲精品国产一区二区| 欧美猛少妇色xxxxx猛交| 真人直播 免费视频| 91精品久久久久含羞草| 香蕉亚洲欧洲在线一区| 久久精品伊人久久精品| 亚洲一区中文字幕一区| 免费看黄视频亚洲网站| 一边捏奶头一边高潮视频| 亚洲色婷婷一区二区三区| 色综合另类小说图片区| 亚洲av乱码一区二区三区女同| 国产天堂av在线播放资源| 水蜜桃精品视频在线观看| 性饥渴的农村熟妇| 亚洲欧洲精品无码av| 国产乱子伦精品无码码专区| 亚洲一区二区成人在线视频| 一区二区三区国产亚洲网站| 国产伦一区二区三区久久| 美丽的小蜜桃在线观看| 成人aaa片一区国产精品| 天美麻花果冻视频大全英文版 | 久久亚洲av成人无码电影| 成人午夜福利视频| 又色又爽又黄又硬的视频免费观看 | 亚洲精品一区二区三区国产| 日本一区二区国产精品| 国产精品特级毛片一区二区三区| 免费无码av片在线观看 | 婷婷五月亚洲综合图区|