亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法可移植性分析

        2020-07-28 02:40:24肖堃
        關(guān)鍵詞:深度模型

        肖堃

        (電子科技大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,四川 成都 611731)

        深度學(xué)習(xí)從大類上可以歸入神經(jīng)網(wǎng)絡(luò),不過(guò)在具體實(shí)現(xiàn)中有許多變化。深度學(xué)習(xí)的核心是特征學(xué)習(xí),旨在通過(guò)分層網(wǎng)絡(luò)獲取分層次的特征信息,從而解決以往需要人工設(shè)計(jì)特征的重要難題[1-2]。深度學(xué)習(xí)是一個(gè)框架,包含卷積神經(jīng)網(wǎng)絡(luò)、稀疏編碼器、自動(dòng)編碼器等多個(gè)重要算法。針對(duì)不同問(wèn)題,需要選取的網(wǎng)絡(luò)模型達(dá)到的處理效果也各不相同[3]。

        由于圖像特征數(shù)目過(guò)少,可能無(wú)法精確地實(shí)現(xiàn)分類,即欠擬合,也不會(huì)由于提取的特征數(shù)目過(guò)多,導(dǎo)致分類過(guò)程中過(guò)于注重某個(gè)特征出現(xiàn)分類錯(cuò)誤,即過(guò)擬合。卷積神經(jīng)網(wǎng)絡(luò)不需要做大量的特征提取和特征選擇工作,只需要在其訓(xùn)練完成后,將需要處理的問(wèn)題輸入,即可得到一個(gè)較好的擬合效果[4-5]。

        針對(duì)當(dāng)前方法在圖像識(shí)別領(lǐng)域應(yīng)用過(guò)程中容易受到物體形狀、位移、尺度、光照、背景等因素的影響導(dǎo)致識(shí)別準(zhǔn)確率不高,魯棒性較低、方法可移植性較差的缺點(diǎn),本文提出了基于多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法的圖像識(shí)別方法,并分析了該方法在圖像識(shí)別領(lǐng)域的可移植性。

        1 多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法下的圖像識(shí)別

        1.1 模型訓(xùn)練過(guò)程

        多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)模型是由多層感知機(jī)演變而來(lái)的,主要包括輸入圖像局部感受野、圖像權(quán)值共享及圖像時(shí)間/空間下采樣3個(gè)部分,這3部分操作的最終目的是為了保證多層卷積神經(jīng)網(wǎng)絡(luò)能夠?qū)W習(xí)到輸入圖像的更多細(xì)節(jié)特征,大大減少了神經(jīng)元個(gè)數(shù),使得輸入圖像具有形狀、尺度及位移不變性,同時(shí)又能夠減少輸入圖像的分辨率,降低計(jì)算復(fù)雜性,縮小搜索空間,更有利于圖像識(shí)別[6-7]。

        本文使用了6層卷積神經(jīng)模型,包括卷積層、池化層、卷積層、池化層、下采樣層、全連接層以及輸出層,如圖1所示。并采用3×3的卷積核進(jìn)行了10次迭代。

        圖1 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Structure of convolutional neural network

        訓(xùn)練過(guò)程包括數(shù)據(jù)訓(xùn)練和對(duì)應(yīng)的類別標(biāo)簽訓(xùn)練。在模型初始化設(shè)置過(guò)程中,多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)模型的參數(shù)多為一些較小的、各部分相同的隨機(jī)數(shù),不僅能夠保證模型不會(huì)進(jìn)入過(guò)于飽和狀態(tài),而且還能保證模型具有較強(qiáng)的學(xué)習(xí)能力。多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)模型的訓(xùn)練方法與BP神經(jīng)網(wǎng)絡(luò)(BP neural network)模型的訓(xùn)練方法類似,主要分為2步:1)模型的前向傳播,將訓(xùn)練圖像數(shù)據(jù)中的任意一個(gè)樣本(Xp,Yp)輸入模型中,通過(guò)多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí),計(jì)算得到模型輸出層的實(shí)際輸出值,即最終的識(shí)別結(jié)果[8-9],具體計(jì)算公式描述為:

        Op=Fn(L(F2(F1(OpW1)W2))LWn)

        (1)

        式中:F1、F2、LFn和W1、W2、LWn分別表示多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)模型中的一組濾波器及其對(duì)應(yīng)權(quán)值;n為模型中包含的訓(xùn)練數(shù)據(jù)個(gè)數(shù)。

        根據(jù)式(1)計(jì)算得到模型輸出層的實(shí)際輸出值Op與期望輸出值Yp之間的誤差大小,采用極小化規(guī)則反向傳播方法調(diào)整多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)模型中的對(duì)應(yīng)參數(shù)。具體過(guò)程如下:

        1)極小化規(guī)則反向傳播方法。

        ①前向傳播。

        采用平方誤差代價(jià)函數(shù)計(jì)算模型輸出層的實(shí)際輸出值Op與期望輸出值Yp之間的誤差大小。假設(shè)訓(xùn)練的輸入圖像數(shù)據(jù)有N個(gè),對(duì)應(yīng)的類別標(biāo)簽有C個(gè),則可得模型訓(xùn)練整體誤差En的計(jì)算公式:

        (2)

        如果只考慮單個(gè)訓(xùn)練數(shù)據(jù),則可得多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)模型中第n個(gè)訓(xùn)練數(shù)據(jù)的誤差為:

        (3)

        根據(jù)上述計(jì)算可得當(dāng)前模型第l層的輸出值為:

        Xl=f(ul)

        (4)

        ul=WlXl-1+b

        (5)

        式中:f(g)為模型輸出激活函數(shù),用于獲得待識(shí)別圖像特征圖;Wl為模型第l層訓(xùn)練數(shù)據(jù)的權(quán)值矩陣;Xl-1為當(dāng)前模型第l-1層的輸出;b為模型偏置項(xiàng)。 ②模型反向傳播過(guò)程中,模型中每個(gè)神經(jīng)元對(duì)于誤差偏置項(xiàng)的靈敏度計(jì)算公式:

        (6)

        (7)

        式中:?E/?u為模型誤差對(duì)于輸入圖像數(shù)據(jù)u的導(dǎo)數(shù)。則可得模型反向傳播過(guò)程中第l層神經(jīng)元偏置項(xiàng)靈敏度計(jì)算公式為:

        δl=(Wl+1)Tδl+1⊙f(ul)

        (8)

        式中:δl+1為模型第l+1層神經(jīng)元偏置項(xiàng)靈敏度;⊙表示模型中每個(gè)元素相乘。

        對(duì)于誤差函數(shù),模型輸出層的偏置項(xiàng)靈敏度與上述計(jì)算略有不同,表示為:

        δl=f(ul)⊙(yn-tn)

        (9)

        在上述計(jì)算基礎(chǔ)上,采用delta法則,實(shí)時(shí)更新多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)模型的各神經(jīng)元權(quán)值,計(jì)算公式為:

        (10)

        (11)

        式中η為模型的學(xué)習(xí)率。

        2)模型中下采樣層權(quán)值更新。

        對(duì)于模型中的下采樣層,輸入的特征圖數(shù)目與輸出的特征圖數(shù)目相等,即:

        (12)

        下采樣層神經(jīng)元偏置項(xiàng)靈敏度,即對(duì)輸入圖像做降采樣處理:

        (13)

        式中down(·)表示下采樣函數(shù)。

        模型中下采樣層權(quán)值更新方法與卷積層權(quán)值更新方法類似,計(jì)算公式為:

        (14)

        1.2 多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

        在上述多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)模型訓(xùn)練完成基礎(chǔ)上,為了提高該模型在圖像識(shí)別過(guò)程中的準(zhǔn)確率,引入Fisher準(zhǔn)則,提出了基于類內(nèi)距離和類間距離的能量函數(shù)[10-11],計(jì)算公式為:

        J=R+γJ1-ηJ2

        (15)

        式中:R為多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)模型的代價(jià)函數(shù);γ為能量函數(shù)調(diào)節(jié)參數(shù);J1為待識(shí)別圖像樣本之間的相似度函數(shù);J2為待識(shí)別圖像類別標(biāo)簽之間的相似度函數(shù)。

        在充分考慮類內(nèi)距離J1和類間距離能量函數(shù)J2的基礎(chǔ)上,計(jì)算模型輸出層各個(gè)輸出單元的殘差,使得模型權(quán)值能更加快速收斂到有利于圖像識(shí)別的最優(yōu)值[12],計(jì)算公式為:

        (16)

        (17)

        式中M(i′)為待識(shí)別圖像第i′類樣本的均值。根據(jù)式(17)即可找到有利于圖像識(shí)別的最優(yōu)權(quán)值,將該權(quán)值計(jì)算結(jié)果代入式(17)中,即可獲得圖像識(shí)別結(jié)果,該理論分析結(jié)果證明多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法具有可移植性。

        2 可移植性測(cè)試

        硬件環(huán)境:3.4 GHz雙核處理器,4 GB內(nèi)存,M40顯卡,Ubuntu14.04操作系統(tǒng)。

        軟件環(huán)境:C++編譯器。

        為檢驗(yàn)多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法在圖像識(shí)別領(lǐng)域應(yīng)用的可移植性,隨機(jī)選取PASCAL VOC2007數(shù)據(jù)庫(kù)中的2 750張圖片,6個(gè)類別標(biāo)簽作為測(cè)試集,如表1所示。

        表1 實(shí)驗(yàn)測(cè)試數(shù)據(jù)集Table 1 Experimental test data set

        選取識(shí)別準(zhǔn)確率、魯棒性、以及識(shí)別耗時(shí)3項(xiàng)指標(biāo)作為評(píng)價(jià)指標(biāo),識(shí)別表1中的6種圖像類型,測(cè)試基于多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法的圖像識(shí)別方法的有效性,測(cè)試結(jié)果如表2所示。

        從表2中可以看出,采用多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法識(shí)別6種不同類型圖像的平均準(zhǔn)確率為96.3%;識(shí)別6種不同類型圖像的平均魯棒性為96.8%;識(shí)別6種不同類型圖像的平均耗時(shí)為17.8 ms。這是由于所提方法在訓(xùn)練完多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)模型基礎(chǔ)上,引入Fisher準(zhǔn)則,并提出了基于類內(nèi)距離和類間距離的能量函數(shù),使得模型權(quán)值能夠更加快速收斂到有利于圖像識(shí)別的最優(yōu)值,大大提高了6種不同類型圖像識(shí)別準(zhǔn)確率和魯棒性,同時(shí)加快了識(shí)別速度,平均識(shí)別耗時(shí)均達(dá)到毫秒級(jí)。假設(shè)道路上發(fā)生交通事故,所提方法具有毫秒級(jí)處理速度,有利于決策者及時(shí)作出應(yīng)對(duì)措施,避免交通事故造成的經(jīng)濟(jì)損失和人員傷亡。

        為了進(jìn)一步檢驗(yàn)所提方法的有效性和可移植性,選取比較復(fù)雜的人臉圖像和容易受光照、背景、位移等影響的車(chē)輛圖像作為訓(xùn)練樣本,訓(xùn)練樣本中喜歡、憤怒、悲傷、快樂(lè)4種表情各200張,受背景干擾、光照干擾、噪聲干擾和霧霾干擾的車(chē)輛各250張,其中部分樣本示例如圖2和圖3所示,采用所提方法識(shí)別4類人臉圖像和4類不同類型干擾車(chē)輛圖像,測(cè)試結(jié)果如圖4和圖5所示。

        圖2 人臉圖像訓(xùn)練樣本Fig.2 Face image training sample

        圖3 車(chē)輛圖像訓(xùn)練樣本Fig.3 Vehicle image training sample

        分析圖4和圖5的實(shí)驗(yàn)結(jié)果可以發(fā)現(xiàn),采用所提方法無(wú)論是識(shí)別具有復(fù)雜表情的人臉圖像訓(xùn)練樣本,還是具有各種干擾因素影響的車(chē)輛圖像訓(xùn)練樣本均取得了較好的成果,識(shí)別準(zhǔn)確率和魯棒性均較高,識(shí)別耗時(shí)較少。這是由于所提方法構(gòu)建的識(shí)別模型中包括輸入圖像局部感受野、圖像權(quán)值共享以及圖像時(shí)間/空間下采樣3個(gè)部分,這3部分操作保證了多層卷積神經(jīng)網(wǎng)絡(luò)能夠?qū)W習(xí)到輸入圖像的更多細(xì)節(jié)特征,大大減少神經(jīng)元個(gè)數(shù),使得輸入圖像具有形狀、尺度以及位移不變性,同時(shí)又能夠減少輸入圖像的分辨率、降低計(jì)算復(fù)雜性、縮小搜索空間,更有利于識(shí)別。通過(guò)多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法對(duì)樣本數(shù)據(jù)進(jìn)行多次迭代訓(xùn)練,通過(guò)分類器輸出訓(xùn)練后的實(shí)驗(yàn)樣本,降低了原始數(shù)據(jù)的偏置程度,以提高實(shí)驗(yàn)結(jié)果的準(zhǔn)確性。

        圖4 人臉圖像訓(xùn)練樣本的識(shí)別結(jié)果Fig.4 Recognition results of face image training samples

        圖5 車(chē)輛圖像訓(xùn)練樣本的識(shí)別結(jié)果Fig.5 Recognition results of vehicle image training samples

        上述實(shí)驗(yàn)結(jié)果表明,多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法應(yīng)用在圖像識(shí)別領(lǐng)域具有可移植性,這與上述理論分析結(jié)果一致。

        3 結(jié)論

        1)本文提出了基于多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法的圖像識(shí)別方法,利用模型權(quán)值共享、更新、下采樣等操作對(duì)輸入圖像做降采樣處理,有效降低了計(jì)算復(fù)雜度。

        2)利用delta法則、Fisher準(zhǔn)則以及基于類內(nèi)距離和類間距離的能量約束函數(shù)實(shí)時(shí)調(diào)整多層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)模型參數(shù),計(jì)算模型輸出層各個(gè)輸出單元的殘差,讓模型權(quán)值能夠更加快速收斂到有利于圖像識(shí)別的最優(yōu)值。

        3)本文實(shí)現(xiàn)了所提出的算法,并隨機(jī)選取PASCAL VOC2007數(shù)據(jù)庫(kù)中的圖片,從理論和實(shí)驗(yàn)兩方面證明了所提方法的可移植性。

        猜你喜歡
        深度模型
        一半模型
        深度理解一元一次方程
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        深度觀察
        深度觀察
        深度觀察
        深度觀察
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        成人性生交c片免费看| 人人添人人澡人人澡人人人人| 亚洲成a人片在线| 狠狠亚洲超碰狼人久久老人| 亚洲毛片免费观看视频| 人成午夜免费视频无码| 野花社区www高清视频| 亚洲欧美日韩高清一区二区三区| 日产一区一区三区区别| 日韩av无码一区二区三区| 国产成人免费一区二区三区| 亚洲 欧美 激情 小说 另类| 日本在线观看一区二区三区视频| 2021国产精品视频网站| 中文字幕乱伦视频| 精品视频专区| 国产自拍av在线观看| 成人免费无码视频在线网站| 4444亚洲人成无码网在线观看| 亚洲色欲色欲欲www在线| 偷拍综合在线视频二区日韩| 天天躁日日躁狠狠躁| 中文字幕免费观看视频| 日本不卡的一区二区三区| 中文字幕日韩人妻少妇毛片| 欧美日韩一区二区综合| 国产精品白浆视频一区| 亚洲人成精品久久熟女| 国产七十六+老熟妇| 无码欧亚熟妇人妻AV在线外遇 | 国产精品 精品国内自产拍| 精品国产av一区二区三区| 亚洲国产一二三精品无码| 免费人成视频在线观看视频| 日本一极品久久99精品| 国产一级一级内射视频| 中文字幕精品一二三四五六七八| 四虎影视国产884a精品亚洲| 亚洲不卡av一区二区三区四区| 少妇被粗大的猛烈进出69影院一| 免费在线视频一区|