亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于人工智能機(jī)器視覺(jué)技術(shù)的古建筑表層損傷檢測(cè)

        2017-09-27 20:04:34趙鵬趙雪峰趙慶安李生元方騰偉趙鑫如
        物聯(lián)網(wǎng)技術(shù) 2017年9期
        關(guān)鍵詞:機(jī)器視覺(jué)古建筑深度學(xué)習(xí)

        趙鵬++趙雪峰++趙慶安++李生元++方騰偉++趙鑫如

        摘 要:21世紀(jì)以來(lái),在大數(shù)據(jù)和GPU加速訓(xùn)練的支持下,以深度學(xué)習(xí)為核心的人工智能技術(shù)迅速發(fā)展,并在多領(lǐng)域得到了廣泛應(yīng)用。與此同時(shí),隨著國(guó)民經(jīng)濟(jì)實(shí)力和文化素質(zhì)的不斷提升,國(guó)家對(duì)于古建筑的保護(hù)也愈發(fā)重視。然而在長(zhǎng)期自然及人為因素的共同作用下,古建筑難免會(huì)受到不同程度的損傷,這些損傷在很大程度上表現(xiàn)在結(jié)構(gòu)的表層,如裂縫、酥堿、剝落、傾斜、空鼓等。因此,對(duì)這些表層損傷實(shí)施快速和高效的識(shí)別和定位,為后續(xù)的診斷和修復(fù)工作提供指導(dǎo)具有重大意義。目前國(guó)內(nèi)對(duì)于古建筑表層損傷的檢測(cè)主要為人工方法,即通過(guò)目測(cè)和借助專(zhuān)業(yè)的設(shè)備完成工作。然而人工方法效率不高,且需要較強(qiáng)的專(zhuān)業(yè)性和經(jīng)驗(yàn)因素。為解決該問(wèn)題,文中提出了一種基于人工智能方法的古建筑表層損傷檢測(cè)技術(shù),通過(guò)獲取大量具有多類(lèi)損傷古建筑的表層圖像樣本并進(jìn)行人工分類(lèi),使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)樣本進(jìn)行訓(xùn)練,得到一個(gè)用于識(shí)別損傷的分類(lèi)器并驗(yàn)證其準(zhǔn)確性。分類(lèi)器成功建立后,使用滑動(dòng)窗口算法對(duì)結(jié)構(gòu)表層圖像進(jìn)行測(cè)試,從而完成損傷的定位工作。最后提出了眾包式檢測(cè)的思想,通過(guò)調(diào)動(dòng)公眾來(lái)收集訓(xùn)練樣本,達(dá)到提高效率,節(jié)約成本的目的。

        關(guān)鍵詞:人工智能;深度學(xué)習(xí);機(jī)器視覺(jué);古建筑;損傷檢測(cè)

        中圖分類(lèi)號(hào):TP368.5;TU317 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-1302(2017)09-00-05

        0 引 言

        古建筑作為一種重要的文明載體,是歷史文化遺產(chǎn)不可或缺的一部分。自21世紀(jì)以來(lái),國(guó)家對(duì)于古建筑的保護(hù)愈發(fā)重視,維護(hù)和修復(fù)工作大量展開(kāi),并且得到了長(zhǎng)足的發(fā)展[1]。

        然而,古建筑的破壞現(xiàn)狀決定了損傷檢測(cè)和維護(hù)修復(fù)工作的高難度和高成本。近些年,國(guó)內(nèi)各地區(qū)將大量資金投入于古建筑修復(fù)工作。2014年,安徽省黃山市徽州區(qū)投入8 000萬(wàn)元,對(duì)該區(qū)147處古建筑實(shí)施保護(hù)利用工程[2];同年,貴州省銅仁市投入6 000萬(wàn)元,啟動(dòng)了40個(gè)古建筑維護(hù)項(xiàng)目[3];2015年,廣東省珠海市高新區(qū)投入近3 000萬(wàn)元,完成了對(duì)該區(qū)18處重要古建筑的修繕和活化工作[4];2016年,國(guó)家文物局投入2610萬(wàn)元開(kāi)始對(duì)永樂(lè)宮實(shí)施整體維修[5]。大量高投入的維護(hù)工作對(duì)損傷檢測(cè)與評(píng)定環(huán)節(jié)提出了更高的要求。

        當(dāng)前古建筑砌體結(jié)構(gòu)的表層損傷檢測(cè)一般以目測(cè)為主,檢測(cè)設(shè)備為輔的方法進(jìn)行檢測(cè)。這種方式雖然看似簡(jiǎn)便,但對(duì)檢測(cè)人員的專(zhuān)業(yè)性要求十分高,且需具備一定的損傷判定經(jīng)驗(yàn)。例如對(duì)墻體裂縫的檢測(cè),檢測(cè)人員必須具備能夠熟知該裂縫的性質(zhì)以及判定是否需要對(duì)其修復(fù)處理的能力。并且大范圍的檢測(cè)消耗人力成本高,故只能采取定期檢測(cè)和抽樣檢測(cè)的方式。就目前來(lái)說(shuō),這種檢測(cè)方式雖然可以達(dá)到基本滿(mǎn)意的效果,但有時(shí)仍然不能及時(shí)發(fā)現(xiàn)問(wèn)題,無(wú)法對(duì)維護(hù)工作提供實(shí)時(shí)和必要的指導(dǎo),導(dǎo)致維修成本大大提高。

        以深度學(xué)習(xí)為核心的人工智能技術(shù)的最大優(yōu)勢(shì)是無(wú)需特征提取,只要擁有足夠的樣本,經(jīng)過(guò)訓(xùn)練的分類(lèi)器可以準(zhǔn)確識(shí)別損傷。隨著該研究領(lǐng)域的不斷升溫,每年都會(huì)出現(xiàn)許多訓(xùn)練更高效,分類(lèi)更準(zhǔn)確的卷積神經(jīng)網(wǎng)絡(luò)模型,將深度學(xué)習(xí)應(yīng)用于結(jié)構(gòu)損傷檢測(cè)領(lǐng)域是趨勢(shì)發(fā)展的必然。

        目前將深度學(xué)習(xí)引入結(jié)構(gòu)表層損傷檢測(cè)的研究很少,相關(guān)研究的網(wǎng)絡(luò)深度相對(duì)較淺[6],基本上均為二分類(lèi)問(wèn)題[7],且在識(shí)別的算法上效率不高。同時(shí),也尚未見(jiàn)到任何應(yīng)用于古建筑或砌體結(jié)構(gòu)的相關(guān)研究。而本文將填補(bǔ)這一部分空白。

        1 基本原理

        以本文研究?jī)?nèi)容為例,假設(shè)輸入一張像素分辨率為480×105的真彩色磚塊圖像,如圖1所示。圖像以像素為單位,因此該磚塊圖像寬度為480個(gè)像素,高度為105個(gè)像素。由于是真彩色圖像,每個(gè)像素具有紅、綠、藍(lán)三原色通道,即三個(gè)數(shù)字分量,每個(gè)分量的范圍為0~255,通過(guò)這三個(gè)分量的組合,形成了每個(gè)像素的顏色效果(例如三個(gè)分量均為0則為純黑色;三個(gè)分量均為255則為純白色)。對(duì)于計(jì)算機(jī)來(lái)說(shuō),真彩色圖像是由數(shù)字組成的三維數(shù)組,因此,圖1中的磚塊圖像在計(jì)算機(jī)中的表達(dá)為480×105×3=151 200個(gè)數(shù)字。圖像分類(lèi)的任務(wù)即為對(duì)這數(shù)十萬(wàn)個(gè)數(shù)字進(jìn)行數(shù)學(xué)運(yùn)算,從而得到一個(gè)最大概率的類(lèi)別標(biāo)簽,如“裂縫”。

        一般來(lái)說(shuō),圖像分類(lèi)任務(wù)的網(wǎng)絡(luò)越深,效果就越好。但以全連接層為主的BP神經(jīng)網(wǎng)絡(luò)并不能做得很深。以圖1中的磚塊圖像為例,假如使用隱層神經(jīng)元個(gè)數(shù)為100的雙層神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,則需要學(xué)習(xí)480×105×3×100+100+100×4+4= 15120504個(gè)參數(shù),如果增加中間的隱層數(shù)量與更大尺寸的圖像,參數(shù)數(shù)目極易達(dá)到上百億。巨大的參數(shù)數(shù)量對(duì)計(jì)算機(jī)的運(yùn)算速度來(lái)說(shuō)是一個(gè)極大的障礙,再加之海量參數(shù)很快會(huì)形成過(guò)擬合,因此一般的BP神經(jīng)網(wǎng)絡(luò)做到4層就已足夠。

        卷積神經(jīng)網(wǎng)絡(luò)能夠做得較深的主要原因在于它擁有一般BP神經(jīng)網(wǎng)絡(luò)所不具備的可以很大程度上減少參數(shù)數(shù)目的特征,即局部連接和參數(shù)共享[8]。由于本文的研究?jī)?nèi)容是基于視覺(jué)的損傷識(shí)別,因此只討論用于圖像分類(lèi)的卷積神經(jīng)網(wǎng)絡(luò),而這也是目前研究應(yīng)用最為廣泛,發(fā)展速度最快的卷積神經(jīng)網(wǎng)絡(luò)。

        不同于一般的BP神經(jīng)網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò)對(duì)于輸入圖像的處理方式并不是將其像素值排成一維的向量,而是直接將其看作一個(gè)三維的數(shù)組。例如上文提到的磚塊,卷積神經(jīng)網(wǎng)絡(luò)直接將其看作一個(gè)寬度為480,高度為105,深度為3的三維數(shù)組。寬度和高度代表了磚塊圖像的實(shí)際寬度和高度的像素值,深度代表每個(gè)像素三原色的通道值。卷積神經(jīng)網(wǎng)絡(luò)對(duì)輸入的數(shù)據(jù)在寬度和高度的方向上不斷進(jìn)行降維,但深度有時(shí)會(huì)增加,一般到最后的輸出層會(huì)減到和類(lèi)別一樣的數(shù)量。本文的分類(lèi)數(shù)目為4,因此最終通過(guò)卷積神經(jīng)網(wǎng)絡(luò)時(shí),輸出層將具有1×1×4的維度,其圖形化架構(gòu)如圖2所示。

        2 網(wǎng)絡(luò)架構(gòu)及超參數(shù)配置

        本文的網(wǎng)絡(luò)訓(xùn)練基于22層的GoogLeNet[9](層數(shù)的確定僅考慮具有學(xué)習(xí)參數(shù)的結(jié)構(gòu)層,即卷積層和全連接層),GoogLeNet是ILSVRC-2014[10]的冠軍模型,是一種非常具有代表性的經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。endprint

        針對(duì)磚塊損傷的特定圖像分類(lèi)問(wèn)題,本文對(duì)GoogLeNet的某些超參數(shù)做了細(xì)微調(diào)整,仍保留其基本的網(wǎng)絡(luò)架構(gòu)。為尊重原作者,本文將調(diào)整過(guò)的網(wǎng)絡(luò)在下文中稱(chēng)為GoogLeNet for HMDI,HMDI為“古建筑”、“砌體結(jié)構(gòu)”、“損傷”和“識(shí)別”四個(gè)詞語(yǔ)的英文首字母。GoogLeNet for HMDI由卷積層、匯聚層、全連接層、ReLU層、局部響應(yīng)歸一化層(LRN層)、隨機(jī)失活層和Softmax層組合而成。此外,GoogLeNet具有一種稱(chēng)為“Inception”的結(jié)構(gòu)。在Inception結(jié)構(gòu)中,將具有不同尺寸卷積核的卷積層并聯(lián),最后設(shè)置深度匯聚層,即將幾個(gè)分支在深度方向進(jìn)行組合并輸出。這種連接方式實(shí)現(xiàn)了網(wǎng)絡(luò)同時(shí)對(duì)多種尺度范圍特征的提取。Inception結(jié)構(gòu)如圖3所示。

        GoogLeNet在最后的全連接層前設(shè)置了一個(gè)全局平均匯聚層,再次有效降低了參數(shù)數(shù)量。同時(shí),為防止由于網(wǎng)絡(luò)過(guò)深造成梯度消失現(xiàn)象,GoogLeNet在網(wǎng)絡(luò)中增加了兩個(gè)輔助的Softmax層,用于反向傳播時(shí)增加前層的梯度。GoogLeNet for HMDI網(wǎng)絡(luò)架構(gòu)如圖4所示(省略了輔助的Softmax層)。

        超參數(shù)配置如下:

        (1)輸入層。輸入圖像尺寸為227×227。

        (2)LRN層。歸一化區(qū)域尺寸n=5;LRN公式系數(shù)α=0.000 1,β=0.75。

        (3)隨機(jī)失活層。隨機(jī)失活率為0.5。

        (4)卷積層、匯聚層、全連接層超參數(shù)見(jiàn)表1所列。

        3 數(shù)據(jù)集的建立及訓(xùn)練環(huán)境的搭建

        本文用于實(shí)驗(yàn)的數(shù)據(jù)集均來(lái)自北京故宮博物院古建部提供的故宮某一段像素分辨率為57 780×11 400的城墻的整體正投影圖像。使用人工方式將該圖像分出5 145個(gè)單獨(dú)磚塊樣本作為訓(xùn)練集,分成4類(lèi),即“未損傷”1 466個(gè);“剝落”1830個(gè);“酥堿”984個(gè);“裂縫”865個(gè)。每種類(lèi)別的圖像如圖5所示。

        為保證訓(xùn)練集的樣本數(shù)量足夠多,本文采取數(shù)據(jù)增強(qiáng)操作,即對(duì)圖像實(shí)施旋轉(zhuǎn)、鏡像和改變對(duì)比度處理,最終將訓(xùn)練集擴(kuò)充為40 000個(gè)樣本(每類(lèi)10 000個(gè))。同時(shí),在整體樣本圖像距訓(xùn)練集較遠(yuǎn)的位置,由人工分割2 000個(gè)樣本并進(jìn)行分類(lèi)(每類(lèi)500個(gè)),作為驗(yàn)證集。最后,在城墻樣本其余位置取1個(gè)具有60個(gè)磚塊的部分城墻圖像用于測(cè)試。

        本文的網(wǎng)絡(luò)訓(xùn)練及測(cè)試工作均在Windows環(huán)境下借助Caffe[11]深度學(xué)習(xí)框架使用GPU進(jìn)行網(wǎng)絡(luò)訓(xùn)練。Caffe基于C++語(yǔ)言,同時(shí)在訓(xùn)練和測(cè)試的過(guò)程中對(duì)結(jié)果的可視化處理需使用Matlab和Python語(yǔ)言。Caffe官方源代碼可在GitHub網(wǎng)站上取得[12],并在工作站上進(jìn)行調(diào)整和編譯。

        研究使用的工作站軟硬件配置見(jiàn)表2、表3所列。

        4 網(wǎng)絡(luò)訓(xùn)練

        網(wǎng)絡(luò)訓(xùn)練之前需對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,本文采取零均值化方式。零均值化,即將所有輸入圖像 (訓(xùn)練集和驗(yàn)證集分開(kāi)處理)的像素平均值計(jì)算出來(lái),再用每個(gè)像素值減去該平均值得到新的圖像代替原有圖像作為輸入,此舉可降低由較大均值產(chǎn)生的梯度膨脹影響。若需進(jìn)行一些后續(xù)處理工作,例如主成分分析,則需數(shù)據(jù)的均值為零。需要說(shuō)明的是,零均值化并沒(méi)有改變圖像的有效特征信息,因?yàn)槠洳](méi)有改變像素之間的相對(duì)差值。例如將灰色調(diào)的磚塊圖像整體變換為白色調(diào),通過(guò)人眼仍然能夠判斷出其是否損傷,正如計(jì)算機(jī)對(duì)圖像的識(shí)別也并非根據(jù)其絕對(duì)像素值一樣。

        網(wǎng)絡(luò)訓(xùn)練采用隨機(jī)梯度下降+動(dòng)量法,基礎(chǔ)學(xué)習(xí)率設(shè)為0.001,步長(zhǎng)為5 000,衰減率為0.96,即每迭代5 000次將學(xué)習(xí)率乘上0.96;訓(xùn)練迭代200次進(jìn)行一次驗(yàn)證,最大迭代次數(shù)為10 000;動(dòng)量系數(shù)為0.9;權(quán)重正則化系數(shù)取0.000 2。

        學(xué)習(xí)率隨迭代次數(shù)變化如圖6所示。訓(xùn)練損失隨迭代次數(shù)變化如圖7所示。驗(yàn)證準(zhǔn)確率隨迭代次數(shù)變化如圖8所示。

        由訓(xùn)練結(jié)果可知,在之前約20 000次迭代中,損失迅速減小,最終在第4 000次左右趨近于0。同時(shí),準(zhǔn)確率從初始的25%到第4 000次左右的迭代基本穩(wěn)定,最終為90.85%,對(duì)于具有很多通過(guò)人工方式尚無(wú)法準(zhǔn)確分類(lèi)的磚塊樣本來(lái)說(shuō),這個(gè)準(zhǔn)確率很高。

        5 滑動(dòng)窗口定位測(cè)試

        利用卷積神經(jīng)網(wǎng)絡(luò)成功識(shí)別磚塊的損傷后,便可完成“定位”任務(wù),即給定輸入的結(jié)構(gòu)表面圖像,計(jì)算機(jī)不僅可以識(shí)別其損傷,還能夠?qū)p傷的位置進(jìn)行精確定位。為了實(shí)現(xiàn)此功能,本文提出了滑動(dòng)窗口算法。

        滑動(dòng)窗口算法即采取若干較小尺寸的“滑窗”對(duì)輸入圖像進(jìn)行等步長(zhǎng)或變步長(zhǎng)掃描?;懊客A粼谝粋€(gè)位置,便將該位置的部分圖像提取并輸入分類(lèi)器。每次測(cè)試選取一個(gè)類(lèi)別作為研究對(duì)象,若該位置的圖像被分類(lèi)器識(shí)別為這一類(lèi)(結(jié)果為陽(yáng)性),則保留該位置的圖像;若識(shí)別為其他類(lèi)(結(jié)果為陰性),則將該位置填充為白色。因此,最終的測(cè)試結(jié)果為在白色背景上顯示檢測(cè)出的陽(yáng)性區(qū)域,即完成了定位工作。

        如前文所述,選取一塊具有60塊磚塊的城墻表層圖像用于測(cè)試,圖像像素分辨率為1 860×1 260,采取兩種尺寸的滑窗:480×105作為磚塊中“順”的滑窗,第一次掃描將xy方向起始位置均設(shè)為1,第二次x方向設(shè)為480-(480-210)/2+1=346,y方向設(shè)為105+1=106;210×105作為“丁”的滑窗,第一次掃描x方向起始位置設(shè)為480+1=481,y方向設(shè)為1,第二次x方向設(shè)為(480-210)/2+1=136,y方向設(shè)為105+1=106。二者移動(dòng)步長(zhǎng)均為x方向480+210=690,y方向?yàn)?10。滑動(dòng)策略及測(cè)試樣本分別如圖9(a),圖9(b)所示。

        (a)滑動(dòng)策略

        (b)測(cè)試樣本

        三種損傷的測(cè)試結(jié)果如圖10和表4所示。

        (a)剝落結(jié)果endprint

        (b)裂縫結(jié)果

        (c)酥堿結(jié)果

        圖10 3種損傷的測(cè)試結(jié)果

        由測(cè)試結(jié)果可知,三種損傷檢測(cè)準(zhǔn)確率均在90%以上。

        (1)對(duì)于剝落損傷,4塊沒(méi)有識(shí)別出來(lái),其中1塊誤判成了裂縫,且有1塊未損傷的磚塊誤判成了剝落;

        (2)對(duì)于裂縫損傷,1塊沒(méi)有識(shí)別出來(lái),該磚塊誤判成了酥堿,且有1塊剝落誤判成了裂縫;

        (3)對(duì)于只有2塊的酥堿損傷,分類(lèi)器成功將其識(shí)別,但有1塊裂縫誤判成了酥堿。

        導(dǎo)致分類(lèi)錯(cuò)誤的原因在于大多損傷程度較輕,或者具有另一類(lèi)損傷特征,僅有一處錯(cuò)誤分類(lèi)為噪聲干擾,其表面有一些深色物質(zhì),如圖11所示。

        6 眾包式損傷檢測(cè)

        人工智能領(lǐng)域之所以能夠持續(xù)升溫并發(fā)揮巨大的作用,除了計(jì)算機(jī)硬件性能不斷提升外,海量數(shù)據(jù)的支持也是重要原因。如果具有更多的古建筑結(jié)構(gòu)表層圖像訓(xùn)練樣本,甚至建立一個(gè)龐大的損傷檢測(cè)數(shù)據(jù)庫(kù),無(wú)論對(duì)于損傷檢測(cè)分類(lèi)器性能的提升,還是人工智能技術(shù)在土木工程領(lǐng)域應(yīng)用的發(fā)展,都十分有利。

        所謂眾包,即能夠讓大眾參與到建立數(shù)據(jù)庫(kù)的工作中。數(shù)據(jù)庫(kù)中的樣本均為圖像,因此,只要具備拍攝圖像的條件,便能使數(shù)據(jù)庫(kù)不斷擴(kuò)充。通過(guò)建立服務(wù)器,號(hào)召大眾在古建名勝游玩時(shí)拍照上傳,由工作人員對(duì)上傳的圖像進(jìn)行提取和初步處理,再由專(zhuān)業(yè)檢測(cè)人員進(jìn)行分類(lèi),最后進(jìn)入數(shù)據(jù)庫(kù),并不斷對(duì)分類(lèi)器進(jìn)行訓(xùn)練,優(yōu)化其性能。眾包式損傷檢測(cè)模式如圖12所示。

        圖12 眾包式損傷檢測(cè)模式

        采取眾包模式可大量減少數(shù)據(jù)收集的時(shí)間,提升效率。并且大數(shù)據(jù)的實(shí)現(xiàn)使更深卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)成為可能,人工智能技術(shù)在土木工程結(jié)構(gòu)檢測(cè)中的應(yīng)用具有廣闊的發(fā)展空間。

        7 結(jié) 語(yǔ)

        本文提出了一種基于人工智能的古建筑表層損傷檢測(cè)技術(shù)。該技術(shù)以深度卷積神經(jīng)網(wǎng)絡(luò)為核心,通過(guò)網(wǎng)絡(luò)訓(xùn)練得到識(shí)別損傷的分類(lèi)器,并借助滑動(dòng)窗口技術(shù)實(shí)現(xiàn)損傷定位。實(shí)驗(yàn)結(jié)果表明,該方法具有較高的準(zhǔn)確度和實(shí)用性,且發(fā)展空間較大。提出一種眾包檢測(cè)模式,使公眾能夠間接參與到古建筑的損傷檢測(cè)工作中。建立損傷檢測(cè)“大數(shù)據(jù)”,在提高工作效率的同時(shí)還能夠節(jié)約成本,因此我們?cè)谖磥?lái)的研究中將會(huì)繼續(xù)完成這一工作。

        參考文獻(xiàn)

        [1]陳蔚.我國(guó)建筑遺產(chǎn)保護(hù)理論和方法研究[D].重慶:重慶大學(xué), 2006.

        [2]程錫鋒, 王金滿(mǎn).徽州區(qū)實(shí)施古建筑保護(hù)利用工程[EB/OL]. http://www.newshs.com/a/20140213/00180.htm.

        [3]田牛強(qiáng).銅仁市投入6000萬(wàn)元保護(hù)性維修古建筑群[EB/OL]. http://www.tongrenshi.com/show-9-9923-1.html.

        [4]劉?,|.珠海高新區(qū):增加投入修繕古建筑并活化利用[J].城鄉(xiāng)建設(shè), 2016(9):42-42.

        [5]張碧.國(guó)家文物局投資2610萬(wàn)保護(hù)永樂(lè)宮古建筑[EB/OL]. http://www.chinanews.com/cul/2014/03-26/5993746.shtml.

        [6] Makantasis K, Protopapadakis E, Doulamis A, et al. Deep convolutional neural networks for efficient vision based tunnel inspection[C].Intelligent Computer Communication and Processing (ICCP), 2015 IEEE International Conference on. IEEE, 2015: 335-342.

        [7] Cha Y J, Choi W, Buyukozturk O. Deep learning-based crack damage detection using convolutional neural network[J].Computer-Aided Civil and Infrastructure Engineering, 2017, 32(5): 361-378.

        [8]張重生.深度學(xué)習(xí)原理與應(yīng)用實(shí)踐[M].北京: 電子工業(yè)出版社, 2016.

        [9] Szegedy C, Liu W, Jia Y, et al. Going deeper with convolutions[C].Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2015: 1-9.

        [10] Stanford Vision Lab. Large Scale Visual Recognition Challenge (ILSVRC)[EB/OL]. http://www.image-net.org/challenges/LSVRC.

        [11] Jia Y, Shelhamer E. Caffe[EB/OL].http://caffe.berkeleyvision.org/

        [12] GitHub. Caffe[CP/OL]. https://github.com/BVLC/caffe/tree/windows.endprint

        猜你喜歡
        機(jī)器視覺(jué)古建筑深度學(xué)習(xí)
        古建筑取名有什么講究
        中國(guó)古建筑
        視野(2018年18期)2018-09-26 02:47:52
        山西古建筑修葺與保護(hù)
        文物季刊(2017年1期)2017-02-10 13:51:01
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        大場(chǎng)景三維激光掃描儀在研究生實(shí)踐教學(xué)培養(yǎng)中的應(yīng)用
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于機(jī)器視覺(jué)的工件鋸片缺陷檢測(cè)系統(tǒng)設(shè)計(jì)
        軟件工程(2016年8期)2016-10-25 15:55:22
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于機(jī)器視覺(jué)技術(shù)的動(dòng)態(tài)“白帶”常規(guī)檢測(cè)系統(tǒng)的開(kāi)發(fā)
        科技視界(2016年20期)2016-09-29 11:11:40
        亚洲精品中文字幕观看| 国产欧美高清在线观看| 亚洲国产精品久久久久久无码| 人妻丰满熟妇av无码区| 野花社区www高清视频| 亚洲 无码 制服 丝袜 自拍| 亚洲一区二区三区在线| 一区二区中文字幕在线观看污污| 国产日产精品_国产精品毛片| 亚洲av高清在线一区二区三区| 少妇内射视频播放舔大片| 亚洲国产精品综合福利专区| 免费在线观看草逼视频| 中文字幕一区二区三区的| 男人边做边吃奶头视频| 国产精品成人一区二区三区| 91久久国产情侣真实对白 | 国产av在线观看91| 亚洲一区二区三区中文字幕网| 色欲人妻综合aaaaa网| 亚洲av无码乱观看明星换脸va| 亚洲AV手机专区久久精品| 日本韩国一区二区高清| 国产精品婷婷久久爽一下| 中文字幕精品久久久久人妻红杏ⅰ | 艳妇臀荡乳欲伦交换h在线观看| 亚洲中文字幕无码爆乳| 亚洲VA欧美VA国产VA综合| 久久精品国产亚洲av蜜臀久久| 45岁妇女草逼视频播放| 国产欧美日韩综合精品一区二区| 人人妻人人玩人人澡人人爽| 伊人不卡中文字幕在线一区二区| 日本在线观看一二三区| 免费国产a国产片高清网站| 韩国精品一区二区三区无码视频| 黄色大片一区二区中文字幕| 日本韩国三级在线观看| 国产办公室秘书无码精品99| 国产zzjjzzjj视频全免费| 久久久婷婷综合五月天|