亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于自編碼預訓練的卷積神經(jīng)網(wǎng)絡分類方法

        2022-04-02 21:52:48陳蒙蒙
        計算機應用文摘 2022年5期

        陳蒙蒙

        關鍵詞 自編碼預訓練 卷積神經(jīng)網(wǎng)絡 遷移學習

        1基于自編碼預訓練的卷積神經(jīng)網(wǎng)絡的分類

        1.1自編碼的原理

        自編碼神經(jīng)網(wǎng)絡(見圖1)是一個輸入與輸出相等的人工神經(jīng)網(wǎng)絡。在該網(wǎng)絡中,左側(cè)節(jié)點是輸入層,右側(cè)神經(jīng)元是輸出層,中間是隱含層。輸出層的神經(jīng)元數(shù)量等于輸入層的神經(jīng)元數(shù)量。隱藏層的神經(jīng)元數(shù)量少于輸出層的神經(jīng)元數(shù)量。

        自編碼器的工作原理如圖2 所示。其中,輸入層和隱含層之間的參數(shù)叫作“編碼器”(encoder),隱含層和輸出層之間的參數(shù)叫作“解碼器”(decoder)。通過對編碼和解碼的參數(shù)進行調(diào)整和優(yōu)化,可以使模型最小化,從而學習重構誤差[1] 。當模型完成最小化后,得到輸入信息的一個特征表示,即特征編碼。

        1.2基于自編碼初始參數(shù)獲取的卷積神經(jīng)網(wǎng)絡

        卷積神經(jīng)網(wǎng)絡通過標記數(shù)據(jù)對一定結(jié)構的網(wǎng)絡進行訓練。當卷積神經(jīng)網(wǎng)絡對圖像進行分類時,輸入圖像通過若干層的卷積和池化提取高層次特征,并利用softmax 進行分類,從而判定輸入圖像的類別。圖像的分類過程如圖3 所示。

        通過自編碼預訓練可為卷積神經(jīng)網(wǎng)絡的卷積層提供初值,而不需要大量標記樣本。在每層卷積中,將與本層卷積核大小相同的小圖像作為自編碼網(wǎng)絡的輸入xi ,輸出x^i 為輸入小圖像的特征,將此特征重新排列為ξ^,作為本層卷積核的初始系數(shù),得到本層卷積核之后,進入池化層(可要可不要)和激活層,此時不需要訓練初始參數(shù)。

        下一個卷積層重復上述過程,不過本層的輸入是上層輸出的結(jié)果,上層若含有m 個特征,本層的輸入就為m 維矩陣,圖像大小為:

        在式(1)中,InputSize 代表每層輸入圖像的大小,filterSize 代表卷積和池化的大小,pad 代表在圖像邊緣補零的大小,stride 代表步長。由式(1)計算出每層輸出的圖像大小,從m 維圖像中分割出若干小圖像,小圖像和本層的卷積核大小相同,將小圖像作為自編碼網(wǎng)絡的輸入,從而進行訓練。依此類推,凡是有卷積的隱含層和全連接層,就用自編碼進行訓練,以獲取卷積核的初始參數(shù)。將自編碼訓練的初始參數(shù)進行組合,得到卷積神經(jīng)網(wǎng)絡的預訓練模型,此模型的參數(shù)只是在每一層最優(yōu),全局并不最優(yōu)。用少量的標記樣本進行參數(shù)微調(diào),使卷積核參數(shù)實現(xiàn)全局最優(yōu)[2] ,進而得到適合實驗數(shù)據(jù)分類的模型。

        通過自編碼獲取預訓練模型,首先要設計卷積神經(jīng)網(wǎng)絡的結(jié)構,在此結(jié)構基礎上,利用自編碼訓練網(wǎng)絡每層卷積核的初始系數(shù),即預訓練模型。具體流程如圖4 所示。

        2實驗環(huán)境和流程介紹

        經(jīng)過測試,在使用深度學習庫MatConvNet 的訓練過程中,使用GPU 加速訓練的速度約是CPU 訓練速度的7 倍,使用“GPU+cuDNN”的并行加速框架訓練的速度約是CPU 訓練速度的10 倍(如圖5 所示)。在本實驗中,硬件為擁有2GB 顯存的NVIDIA GTX950顯卡搭配12GB 內(nèi)存;軟件方面,在Windows 7 平臺下使用Matlab2014a 搭配CUDA7.5 加速;卷積神經(jīng)網(wǎng)絡庫選用MatConvNet 的1.0?bata18 版本[3] 。

        利用自編碼訓練卷積網(wǎng)預訓練模型的方法對遙感圖像進行分類(流程如圖6)的具體步驟為:(1)使用自編碼的非監(jiān)督方式,通過無標記的遙感圖像樣本對已設計的卷積神經(jīng)網(wǎng)絡每層的卷積核進行預訓練,將學習的特征作為卷積神經(jīng)網(wǎng)絡的參數(shù)值,得到預訓練模型;(2)用少量的帶有標記的遙感圖像數(shù)據(jù)進行訓練,微調(diào)預訓練模型的參數(shù),得到適合研究區(qū)域遙感圖像的分類模型,實現(xiàn)實驗數(shù)據(jù)的分類,從而進行分類結(jié)果評價。

        在獲得預訓練模型之后,利用少量標記的遙感影像樣本重新訓練網(wǎng)絡,實現(xiàn)模型參數(shù)的微調(diào)整,從而得到適合分類實驗數(shù)據(jù)遙感影像的模型,并用于遙感圖像的分類[4] 。具體流程如圖7 所示。

        由于兩個實驗的網(wǎng)絡結(jié)構設置和卷積層數(shù)不同,因此將卷積和池化層用虛線框表示,不同的實驗數(shù)據(jù)使用不同的卷積神經(jīng)網(wǎng)絡結(jié)構。

        對由實驗數(shù)據(jù)分割得到的訓練小圖像塊進行如下預處理:(1)0 均值是最常用的圖像預處理方法,即把數(shù)據(jù)的每一維減去每一維的均值,使得數(shù)據(jù)變?yōu)?均值形式;(2)由于每類的數(shù)據(jù)樣本數(shù)差異可能很大,為保證數(shù)據(jù)平衡,刪除類別過多的數(shù)據(jù),然后通過如圖像翻轉(zhuǎn)的方法增加數(shù)據(jù)量較少的類別個數(shù),保證數(shù)據(jù)的平衡性。

        2.1基于自編碼和遷移學習的卷積神經(jīng)網(wǎng)絡分類實驗

        是否運用遷移學習方法取決于多種因素,但在訓練樣本較少的情況下,最重要的是保證目標數(shù)據(jù)集與源數(shù)據(jù)集在內(nèi)容上保持較高相似度[5] 。實驗數(shù)據(jù)源于QuickBird 的彩色合成圖像裁剪的區(qū)域,在內(nèi)容上的相似度較高,因此將實驗數(shù)據(jù)的預訓練與精調(diào)參數(shù)后的兩種模型分別作為源域模型,進行遷移學習,從而對實驗數(shù)據(jù)進行分類,使輸入圖像與同圖像的大小保持一致。重新訓練網(wǎng)絡可以實現(xiàn)參數(shù)微調(diào),選擇標記樣本的5%,即每類地物標記的50 張圖像,剩下的標記點用于測試,實驗數(shù)據(jù)2 非監(jiān)督預訓練的方法記為Un_pre,非監(jiān)督基礎上精調(diào)的模型記為Un_pre_f,兩種模型測試精度如表1 所示。

        由兩種非監(jiān)督預訓練的分類結(jié)果可以得出:在樣本較少的情況下進行遷移學習, 圖像之間的內(nèi)容相似度較高時,非監(jiān)督預訓練的模型與非監(jiān)督基礎上經(jīng)過精調(diào)參數(shù)的模型,兩種預訓練模型用作源域模型進行遷移學習時,均可以得到較高的分類精度,即在訓練樣本較少的情況下,網(wǎng)絡對于預訓練的模型依賴度較高,避免了對標記樣本的過擬合。而非監(jiān)督的預訓練模型是由圖像不同位置訓練獲得,因此對于訓練樣本的測試與訓練樣本差異較大的圖像分類都較好[6] 。

        3總結(jié)

        久久综合丝袜日本网| 久久精品国产亚洲av高清三区| 精彩视频在线观看一区二区三区 | 成年免费a级毛片免费看| 日产学生妹在线观看| 亚洲av成人一区二区三区av| 免费毛片性天堂| 九九99无码精品视频在线观看| 国产激情对白一区二区三区四| 欧美日韩区1区2区3区| 国产粉嫩嫩00在线正在播放| 18禁成人免费av大片一区| 亚洲一区二区三区成人网| 婷婷色国产精品视频二区| 色多多性虎精品无码av| 日日碰狠狠添天天爽| 国产乱妇乱子在线视频| 伊人色网站| 久久国产A∨一二三| 国产精品午夜福利天堂| 国产91精品在线观看| 国产免费观看黄av片| 少妇仑乱a毛片| 国产一区二区三区av在线无码观看| 综合无码一区二区三区四区五区| 欧美巨大xxxx做受中文字幕| 一区二区三区亚洲视频| 中文字幕乱码熟妇五十中出 | chinese国产乱在线观看| 91超碰在线观看免费| 日韩在线中文字幕一区二区三区| 丝袜美腿一区在线观看| 可免费观看的av毛片中日美韩| 99久久久无码国产精品秋霞网| 亚洲精品第一国产综合亚av| 污污污污污污WWW网站免费| 久久国产精品一区二区| 日本一区二区三区不卡在线| 久久天堂综合亚洲伊人hd妓女| 亚洲av纯肉无码精品动漫| 男人j进女人p免费视频|