亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向手寫數(shù)字圖像的壓縮感知快速分類

        2021-09-01 09:28:18肖術(shù)明王紹舉馮汝鵬
        光學(xué)精密工程 2021年7期
        關(guān)鍵詞:數(shù)字圖像手寫觀測(cè)

        肖術(shù)明,王紹舉*,常 琳,馮汝鵬

        (1. 中國(guó)科學(xué)院 長(zhǎng)春光學(xué)精密機(jī)械與物理研究所,吉林 長(zhǎng)春 130033;2. 中國(guó)科學(xué)院大學(xué),北京 100039;3. 中國(guó)科學(xué)院 天基動(dòng)態(tài)快速光學(xué)成像技術(shù)重點(diǎn)實(shí)驗(yàn)室,吉林 長(zhǎng)春 130033)

        1 引 言

        隨著計(jì)算機(jī)技術(shù)的不斷發(fā)展,圖像分類算法取得了長(zhǎng)足進(jìn)步,并對(duì)人們的生活和社會(huì)的發(fā)展產(chǎn)生重要的影響。人機(jī)交互[1]、天文數(shù)據(jù)處理[2]、農(nóng)產(chǎn)品成像[3]以及航空?qǐng)D像處理[4]等領(lǐng)域都離不開(kāi)圖像分類,因此圖像分類算法有著重要的研究意義。手寫數(shù)字圖像分類算法指利用計(jì)算機(jī)圖像處理技術(shù)將手寫數(shù)字圖像判定為0~9 共10 個(gè)類別的過(guò)程,該算法在財(cái)會(huì)、教育和金融等眾多領(lǐng)域具有廣泛的應(yīng)用背景和使用價(jià)值。

        基于神經(jīng)網(wǎng)絡(luò)模型的圖像分類算法獲得了很好的效果,使圖像分類算法有了突破性的進(jìn)展。對(duì)于手寫數(shù)字圖像分類問(wèn)題也涌現(xiàn)了大量的相關(guān)研究工作:Hinton 通過(guò)構(gòu)造深層網(wǎng)絡(luò)模型來(lái)學(xué)習(xí)有效特征的方法,完成了對(duì)手寫數(shù)字集的識(shí)別,識(shí)別效果優(yōu)于支持向量機(jī)(Support Vector Machine,SVM)。Lee 提出了卷積深度置信網(wǎng)絡(luò),此網(wǎng)絡(luò)能高效的學(xué)習(xí)和提取自然數(shù)字圖像的特征。德國(guó)的Friedhelm Schweriker 采用SVRBF40 對(duì)手寫體數(shù)字進(jìn)行識(shí)別,測(cè)試樣本10000個(gè),識(shí)別正確率為95.56%[5]。上海交通大學(xué)的團(tuán)隊(duì)采用壓縮子結(jié)構(gòu)特征的方式,用BP 神經(jīng)網(wǎng)絡(luò)分類,最終識(shí)別率為96.1%,誤識(shí)率為1.04%。中科院自動(dòng)化研究所的團(tuán)隊(duì)使用有限狀態(tài)自動(dòng)機(jī)方式對(duì)手寫數(shù)字分類,識(shí)別率為95.2%。清華大學(xué)的團(tuán)隊(duì)利用SVM 技術(shù)對(duì)郵政紙單上的手寫數(shù)字做了識(shí)別工作,識(shí)別率為92%[6]。但是,上述算法都是利用網(wǎng)絡(luò)模型對(duì)手寫數(shù)字原始的高維數(shù)字圖像進(jìn)行圖像分類,這極大地增加了網(wǎng)絡(luò)模型訓(xùn)練計(jì)算耗時(shí)和最佳訓(xùn)練次數(shù),同時(shí)還會(huì)影響圖像分類的準(zhǔn)確率,現(xiàn)有的研究[7-11]也都是對(duì)原始的高維數(shù)字圖像進(jìn)行處理。

        近年來(lái),針對(duì)信息量龐大的信號(hào)(圖像)預(yù)處理問(wèn)題,提出了一種新的信息采集方式,即壓縮感知(Compressive Sensing,CS)理論。該理論表明,當(dāng)信號(hào)(圖像)具有稀疏性或可壓縮性時(shí),通過(guò)采集少量的信號(hào)(圖像)觀測(cè)值就可以實(shí)現(xiàn)信號(hào)的準(zhǔn)確或近似重構(gòu)[12]。文獻(xiàn)[13]在光學(xué)相關(guān)斷 層 掃 描(Optical Coherence Tomography,OCT)成像技術(shù)中引入CS 技術(shù),在壓縮感知重構(gòu)算法中結(jié)合分塊思想、引入正則項(xiàng)lp范數(shù)以及嵌入各項(xiàng)異性平滑算子,該改進(jìn)的重構(gòu)算法可以在一定程度上實(shí)現(xiàn)頻域OCT 圖像重構(gòu)效率和重構(gòu)質(zhì)量的平衡。文獻(xiàn)[14]中提出了一種基于投影收縮的壓縮感知錐束CT 短掃描重建算法,該算法將校正過(guò)程引入到壓縮感知的圖像重建中,有效抑制了條狀偽影,清晰重建出邊緣細(xì)節(jié),極大提高了少量投影數(shù)據(jù)重建圖像的質(zhì)量。但是,上述的研究都是針對(duì)壓縮采樣信號(hào)的重構(gòu)問(wèn)題,而對(duì)于圖像分類問(wèn)題,可以使用壓縮感知技術(shù)利用高斯隨機(jī)矩陣對(duì)具有稀疏性的數(shù)字圖像進(jìn)行線性觀測(cè),少量的信號(hào)(圖像)觀測(cè)值保留了全部信息(特征),從而減少后續(xù)圖像分類的數(shù)據(jù)處理量。

        針對(duì)手寫數(shù)字?jǐn)?shù)據(jù)集信息量大,使用神經(jīng)網(wǎng)絡(luò)模型對(duì)其進(jìn)行圖像分類時(shí)訓(xùn)練計(jì)算耗時(shí)長(zhǎng)和最佳訓(xùn)練次數(shù)多的問(wèn)題,引入壓縮感知技術(shù),提出了一種基于壓縮感知和單隱層前饋網(wǎng)絡(luò)(Compressive Sensing and Single Hidden Layer Feedforward Network,CS-SHLNet)的手寫數(shù)字圖像快速分類算法。利用高斯隨機(jī)矩陣對(duì)具有稀疏性的手寫數(shù)字圖像進(jìn)行線性觀測(cè),將高維圖像信號(hào)投影到低維空間得到觀測(cè)值。將擁有圖像全部信息(特征)的觀測(cè)值嵌入神經(jīng)網(wǎng)絡(luò)中對(duì)圖像進(jìn)行特征提取。采用神經(jīng)網(wǎng)絡(luò)模型對(duì)手寫數(shù)字進(jìn)行圖像分類。實(shí)驗(yàn)結(jié)果表明,該算法可以有效減少神經(jīng)網(wǎng)絡(luò)模型對(duì)手寫數(shù)字?jǐn)?shù)據(jù)集的訓(xùn)練計(jì)算耗時(shí)和最佳訓(xùn)練次數(shù),同時(shí)保證分類準(zhǔn)確率。

        2 手寫數(shù)字圖像快速分類算法

        MNIST 是一個(gè)手寫數(shù)字識(shí)別領(lǐng)域的標(biāo)準(zhǔn)評(píng)測(cè)數(shù)據(jù)集,數(shù)據(jù)庫(kù)中有70 000 張灰度圖像,毎張圖像大小為28×28,即784 維[15]。因此,整個(gè)數(shù)據(jù)集的信息量龐大,傳統(tǒng)的手寫數(shù)字圖像分類往往直接利用神經(jīng)網(wǎng)絡(luò)對(duì)其進(jìn)行特征提取,訓(xùn)練計(jì)算耗時(shí)長(zhǎng)最佳訓(xùn)練次數(shù)多。針對(duì)這個(gè)問(wèn)題,利用CS-SHLNet 對(duì)手寫數(shù)字圖像快速分類:首先利用壓縮感知理論對(duì)數(shù)據(jù)集進(jìn)行線性觀測(cè),得到手寫數(shù)字的低維空間觀測(cè)值;然后,將手寫數(shù)字的觀測(cè)值作為神經(jīng)網(wǎng)絡(luò)模型的輸入,利用網(wǎng)絡(luò)模型進(jìn)行特征提?。辉倮蒙窠?jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力對(duì)圖像標(biāo)簽之間的相關(guān)性進(jìn)行挖掘,輸出最終的圖像類別。總體的流程圖如圖1 所示。

        圖1 手寫數(shù)字圖像分類流程圖Fig.1 Flowchart of handwritten digital image classification

        2.1 基于壓縮感知的手寫數(shù)字線性觀測(cè)

        手寫數(shù)字?jǐn)?shù)據(jù)集數(shù)據(jù)量龐大,為了減少神經(jīng)網(wǎng)絡(luò)模型對(duì)手寫數(shù)字?jǐn)?shù)據(jù)集的訓(xùn)練計(jì)算耗時(shí)和最佳訓(xùn)練次數(shù),并且不影響圖像分類準(zhǔn)確率,利用壓縮感知理論對(duì)數(shù)據(jù)集進(jìn)行線性觀測(cè)。首先將原始的二維圖像列向量化,然后利用觀測(cè)矩陣對(duì)信號(hào)線性觀測(cè)得到觀測(cè)值。

        如圖2 所示,MNIST 手寫數(shù)字?jǐn)?shù)據(jù)集數(shù)字圖片中非零數(shù)據(jù)數(shù)遠(yuǎn)小于總像素點(diǎn)數(shù)圖像具有稀疏性,適合利用壓縮感知進(jìn)行圖像分析。稀疏度指的是矩陣中非零元素的個(gè)數(shù)。首先對(duì)手寫數(shù)字?jǐn)?shù)據(jù)集圖像進(jìn)行二值化,然后進(jìn)行稀疏度計(jì)算,為了結(jié)果的準(zhǔn)確性,取所有數(shù)據(jù)集圖像的稀疏度平均值,計(jì)算得到稀疏度K。

        圖2 MNIST 手寫數(shù)據(jù)集數(shù)字7 數(shù)據(jù)特征圖Fig.2 MNIST handwritten data set figure 7 data feature diagram

        采用一個(gè)與稀疏矩陣ψN×N不相關(guān)的測(cè)量矩陣ΦM×N對(duì)信號(hào)xN×1進(jìn)行線性觀測(cè),得到M(M<<N)維觀測(cè)值yM×1,即:

        其中,ΘM×N為感知矩 陣,yM×1為稀疏信號(hào)θN×1在感知矩陣ΘM×N下的線性觀測(cè)值。

        隨機(jī)高斯矩陣與任何稀疏矩陣都不相關(guān),由約束等距性(Restricted Isometry Property,RIP)條件可知,它可以作為稀疏信號(hào)的觀測(cè)矩陣,并且觀測(cè)值會(huì)保留原始信號(hào)(圖像)的特征。文獻(xiàn)[17]中給出M×N階測(cè)量矩陣ΦM×N的測(cè)量邊界公式為:

        其中:Cδ是一個(gè)常數(shù)Cδ<1,K為稀疏度。

        由式(3)可知,當(dāng)N=784 時(shí),可以計(jì)算得到M 的取值范圍為M≥87.48,本文考慮到后續(xù)神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)輸入盡量少并且不能丟失圖像分類所需特征等問(wèn)題,選取M=235,可合理實(shí)現(xiàn)使用較少的輸入數(shù)據(jù)量,同時(shí)保留原始圖像特征、保證圖像分類準(zhǔn)確率。隨機(jī)高斯矩陣的結(jié)構(gòu)式如下:

        MNIST 手寫數(shù)字?jǐn)?shù)據(jù)集中的樣本數(shù)字5 的線性觀測(cè)過(guò)程如圖3 所示。從線性觀測(cè)的過(guò)程圖可以看成,采用M=235 的隨機(jī)高斯矩陣線性觀測(cè),數(shù)據(jù)從784 維減少到235 維,數(shù)據(jù)量明顯減少。

        圖3 MNIST 手寫數(shù)字5 的線性觀測(cè)Fig.3 Measurements of MNIST handwritten number 5

        2.2 基于單隱層前饋網(wǎng)絡(luò)的觀測(cè)值多標(biāo)簽分類

        對(duì)手寫數(shù)字圖像線性觀測(cè)得到觀測(cè)值后,需要將觀測(cè)值嵌入神經(jīng)網(wǎng)絡(luò)中對(duì)圖像進(jìn)行特征提取,因此手寫數(shù)字圖像分類的第二步是建立適應(yīng)于觀測(cè)值的神經(jīng)網(wǎng)絡(luò)模型。

        2.2.1 神經(jīng)網(wǎng)絡(luò)模型的構(gòu)建

        基于神經(jīng)網(wǎng)絡(luò)模型的圖像分類算法中神經(jīng)網(wǎng)絡(luò)架構(gòu)層出不窮,出現(xiàn)了很多復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)[18-21]??紤]到網(wǎng)絡(luò)架構(gòu)的復(fù)雜度和訓(xùn)練耗時(shí)的影響,對(duì)于手寫數(shù)字?jǐn)?shù)據(jù)集的觀測(cè)值多標(biāo)簽分類,采用單隱層前饋網(wǎng)絡(luò)架構(gòu)。設(shè)置神經(jīng)網(wǎng)絡(luò)模型為兩個(gè)全連接層:第一層是1 024 個(gè)神經(jīng)元密集連接的帶有ELU 激活的全連接層,第二層是10 個(gè)神經(jīng)元密集連接的帶有Softmax 激活的全連接層。神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)圖如圖5 所示。神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)如表1 所示。

        圖4 單隱層前饋神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)圖Fig.4 Single hidden layer feedforward network model structure diagram

        圖5 單隱層前饋網(wǎng)絡(luò)模型權(quán)值調(diào)整流程圖Fig.5 Flow chart of weight adjustment of single hidden layer feedforward network model

        表1 單隱層前饋網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)表Tab.1 Neural network structure parameter table

        神 經(jīng) 網(wǎng) 絡(luò) 的 輸 入 為Y=(y1,y2,...,y235)T,y1,y2,...,y235為手寫數(shù)字的觀測(cè)值,n為輸入層神經(jīng)元個(gè)數(shù)。 輸入層輸出向量為A=(a1,a2,...,a235)T,a1,a2,...,a235為每個(gè)輸入層神經(jīng)元的輸出值;隱含層輸出向量為B=(b1,b2,...,bm)T,b1,b2,...,bm為 每 個(gè) 隱 含 層 神 經(jīng)元的輸出值,m為隱含層神經(jīng)元的個(gè)數(shù);輸出層輸出向量為C=(c1,c2,...,c10)T,c1,c2,...,c10為每個(gè)輸出層神經(jīng)元的輸出值。輸入層到隱含層的權(quán)值矩陣為Wm×235,其中ωi,j為權(quán)值矩陣的第i行、第j列元素;隱含層到輸出層的權(quán)值矩陣為G10×m,其 中g(shù)p,q為 權(quán) 值 矩 陣 的 第p行、第q列元素。

        此時(shí),神經(jīng)網(wǎng)絡(luò)得到的圖像分類標(biāo)簽值就是輸出層概率值最高的神經(jīng)元所對(duì)應(yīng)的分類結(jié)果。

        2.2.2 神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練

        為了調(diào)整神經(jīng)網(wǎng)絡(luò)的權(quán)值,需要根據(jù)手寫數(shù)字訓(xùn)練集的觀測(cè)值對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。如果只將數(shù)據(jù)標(biāo)簽以0~9 的形式輸入模型,會(huì)出現(xiàn)不同類別元素之間距離不一的情況,影響分類的準(zhǔn)確率,為了保證每個(gè)類別的樣本彼此獨(dú)立等距需要對(duì)標(biāo)簽進(jìn)行one-hot 編碼。樣本標(biāo)簽與one-hot 編碼的對(duì)應(yīng)關(guān)系,如表2 所示。

        表2 樣本標(biāo)簽與one-hot 編碼的關(guān)系表Tab.2 Table of sample label and one-hot encoding

        對(duì)于訓(xùn)練樣例(y,lab),lab為訓(xùn)練樣例的標(biāo)簽,神經(jīng)網(wǎng)絡(luò)的輸出為C=(c1,c2,...,c10)T,那么對(duì)于手寫數(shù)字觀測(cè)值,神經(jīng)網(wǎng)絡(luò)模型得到的均方誤差為:

        當(dāng)訓(xùn)練誤差小于給定誤差時(shí),網(wǎng)絡(luò)模型停止訓(xùn)練,根據(jù)式(4)可以得到手寫數(shù)字圖像分類標(biāo)簽值。

        3 實(shí)驗(yàn)與結(jié)果分析

        3.1 神經(jīng)網(wǎng)絡(luò)模型的構(gòu)建與訓(xùn)練

        通過(guò)實(shí)驗(yàn)驗(yàn)證神經(jīng)網(wǎng)絡(luò)模型對(duì)MNIST 手寫數(shù)字圖像分類的快速性和有效性,分析了線性觀測(cè)值對(duì)神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練計(jì)算耗時(shí)、最佳訓(xùn)練次數(shù)和分類準(zhǔn)確率的影響。

        實(shí)驗(yàn)環(huán)境為Windows 7 64 位操作系統(tǒng)、Intel(R)Core(TM)i7-7700 CPU @ 3.60 GHz 處理器、32.0G 內(nèi)存、顯卡NVIDIA GeForce GTX 750Ti 的普通PC 機(jī),編程環(huán)境PyCharm Community Edition 2019.1.3 x64,編程語(yǔ)言Python 3.5.2(64 位),使 用TensorFlow_GPU-1.4.0 的Kerase 高級(jí)API 構(gòu)建的一個(gè)神經(jīng)網(wǎng)絡(luò)模型,來(lái)解析圖像分類的實(shí)現(xiàn)過(guò)程。手寫數(shù)字圖像的分類是多分類問(wèn)題,神經(jīng)網(wǎng)絡(luò)模型的損失函數(shù)選擇分類交叉熵(Categorical Crossentropy),優(yōu)化器選擇rmsprop,指標(biāo)選擇accuracy。

        MNIST 數(shù)據(jù)庫(kù)中有70 000 張圖像,一共包含10 類阿拉伯?dāng)?shù)字,選擇50 000 張圖像進(jìn)行訓(xùn)練,10 000 張進(jìn)行驗(yàn)證,10 000 張進(jìn)行測(cè)試,MNIST 的毎張圖像大小為28×28。圖6 列出了本文中使用的部分?jǐn)?shù)據(jù)集圖像。

        圖6 MNIST 手寫數(shù)據(jù)集部分樣本Fig.6 Partial sample of MNIST handwritten data set

        3.2 實(shí)驗(yàn)結(jié)果分析

        為了評(píng)估本文算法的性能,將CS-SHLNet與單隱層神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)以及深度學(xué)習(xí)網(wǎng)絡(luò)做了對(duì)比。其中單隱層神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu)與本文CS-SHLNet 中的神經(jīng)網(wǎng)絡(luò)部分結(jié)構(gòu)相同;CNN 的網(wǎng)絡(luò)結(jié)構(gòu)主要由3 個(gè)卷積層、2 個(gè)最大池化層和2 個(gè)全連接層組成,卷積核大小為3×3,網(wǎng)絡(luò)中加人ReLU 激活函數(shù);深度學(xué)習(xí)網(wǎng)絡(luò)包括用于字符識(shí)別高效的LeNet-5[22]和在ImageNet圖像上訓(xùn)練的VGG16[23]預(yù)訓(xùn)練模型。實(shí)驗(yàn)評(píng)價(jià)標(biāo)準(zhǔn)為最佳訓(xùn)練次數(shù)、訓(xùn)練用時(shí)和分類準(zhǔn)確率。對(duì)手寫數(shù)字?jǐn)?shù)據(jù)集分別通過(guò)它們進(jìn)行訓(xùn)練、驗(yàn)證和測(cè)試。

        訓(xùn)練集和驗(yàn)證集的性能值(分類交叉熵值)如圖7 所示,訓(xùn)練集分類交叉熵值每輪都在降低,這是梯度下降優(yōu)化的預(yù)期結(jié)果,但是驗(yàn)證集分類交叉熵值在達(dá)到全局最小值后由于過(guò)擬合的原因會(huì)出現(xiàn)上升的情況。分類交叉熵值達(dá)到全局最小值時(shí)所對(duì)應(yīng)的輪次為數(shù)據(jù)集在網(wǎng)絡(luò)中的最佳訓(xùn)練次數(shù)。從圖7 中的驗(yàn)證集分類交叉熵值曲線可以得到,手寫數(shù)字?jǐn)?shù)據(jù)集的單隱層神經(jīng)網(wǎng)絡(luò)最佳訓(xùn)練次數(shù)為5 次,CNN 最佳訓(xùn)練次數(shù)為4次,LeNet-5 最佳訓(xùn)練次數(shù)為5 次,VGG16 最佳訓(xùn)練次數(shù)為13 次;手寫數(shù)字的CS-SHLNet 最佳訓(xùn)練次數(shù)為3 次。

        圖7 訓(xùn)練集和驗(yàn)證集分類交叉熵曲線圖Fig.7 Classification cross-entropy curve diagram of training set and validation set

        訓(xùn)練集和測(cè)試集的測(cè)試精確率如圖8 所示,測(cè)試集的精確率開(kāi)始時(shí)保持上升趨勢(shì),在最佳訓(xùn)練次數(shù)時(shí)達(dá)到最大值。從圖8 中的測(cè)試集測(cè)試精確率曲線可以得到,手寫數(shù)字?jǐn)?shù)據(jù)集的單隱層神經(jīng)網(wǎng)絡(luò)最高測(cè)試精確率為97.54%,CNN 最高測(cè)試精確率為98.83%,LeNet-5 最高測(cè)試精確率為98.66%,VGG16 最高測(cè)試精確率為97.71%;手寫數(shù)字的CS-SHLNet 最高測(cè)試性能值為97.53%,表明本文提出的算法在減少最佳訓(xùn)練次數(shù)、訓(xùn)練時(shí)間的情況下,分類準(zhǔn)確率基本無(wú)影響。

        圖8 訓(xùn)練集和測(cè)試集分類準(zhǔn)確率曲線圖Fig.8 Classification accuracy curve of training set and test set

        表3 為本文CS-SHLNet 方法與其他方法的實(shí)驗(yàn)結(jié)果對(duì)比。從表3 可以看出,網(wǎng)絡(luò)模型的訓(xùn)練計(jì)算耗時(shí)縮短為13.05s,最佳訓(xùn)練次數(shù)縮短為3 次,分類準(zhǔn)確率保持在97.5%。表明該算法可以有效減少神經(jīng)網(wǎng)絡(luò)模型對(duì)手寫數(shù)字?jǐn)?shù)據(jù)集的訓(xùn)練計(jì)算耗時(shí)和最佳訓(xùn)練次數(shù),并且不影響分類準(zhǔn)確率。

        表3 實(shí)驗(yàn)結(jié)果對(duì)比Tab.3 Comparison of experimental results

        4 結(jié) 論

        本文針對(duì)手寫數(shù)字?jǐn)?shù)據(jù)集信息量龐大導(dǎo)致神經(jīng)網(wǎng)絡(luò)模型對(duì)其訓(xùn)練計(jì)算耗時(shí)長(zhǎng)、最佳訓(xùn)練次數(shù)多的問(wèn)題,提出了基于CS-SHLNet 的手寫數(shù)字圖像快速分類算法。通過(guò)壓縮感知理論,利用高斯隨機(jī)矩陣對(duì)具有稀疏性的手寫數(shù)字圖像進(jìn)行線性觀測(cè),將高維圖像信號(hào)投影到低維空間得到觀測(cè)值。通過(guò)BP 算法不斷調(diào)整單隱層前饋網(wǎng)絡(luò)權(quán)值建立適應(yīng)于觀測(cè)值的神經(jīng)網(wǎng)絡(luò)模型,將觀測(cè)值嵌入神經(jīng)網(wǎng)絡(luò)中對(duì)圖像進(jìn)行特征提取。最后,采用單隱層前饋網(wǎng)絡(luò)模型對(duì)手寫數(shù)字進(jìn)行圖像分類。實(shí)驗(yàn)結(jié)果表明:相比較單隱層神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)對(duì)高維圖像(信號(hào))分類,利用CSSHLNet 對(duì)MNIST 手寫數(shù)字?jǐn)?shù)據(jù)集進(jìn)行圖像分類,網(wǎng)絡(luò)模型的訓(xùn)練計(jì)算耗時(shí)縮短為13.05 s,最佳訓(xùn)練次數(shù)縮短為3 次,分類準(zhǔn)確率保持97.5%。表明了該算法可以有效減少神經(jīng)網(wǎng)絡(luò)模型對(duì)手寫數(shù)字?jǐn)?shù)據(jù)集的訓(xùn)練計(jì)算耗時(shí)和最佳訓(xùn)練次數(shù),同時(shí)保證分類準(zhǔn)確率。但是該方法是在空域中基于壓縮感知理論對(duì)手寫數(shù)字圖像進(jìn)行線性觀測(cè),如何進(jìn)一步減少圖像的稀疏度,并且在減少數(shù)據(jù)量的同時(shí)保證特征數(shù)據(jù)不減少、分類精度進(jìn)一步提高是下一步的研究重點(diǎn)。

        猜你喜歡
        數(shù)字圖像手寫觀測(cè)
        手寫比敲鍵盤更有助于學(xué)習(xí)和記憶
        觀測(cè)到恒星死亡瞬間
        軍事文摘(2023年18期)2023-11-03 09:45:42
        我手寫我心
        抓住身邊事吾手寫吾心
        基于集成學(xué)習(xí)的MINIST手寫數(shù)字識(shí)別
        電子制作(2018年18期)2018-11-14 01:48:08
        ARGUS-100 藝術(shù)品鑒證數(shù)字圖像比對(duì)系統(tǒng)
        天測(cè)與測(cè)地VLBI 測(cè)地站周圍地形觀測(cè)遮掩的討論
        可觀測(cè)宇宙
        太空探索(2016年7期)2016-07-10 12:10:15
        基于塊效應(yīng)測(cè)度的JPEG數(shù)字圖像盲取證
        高分辨率對(duì)地觀測(cè)系統(tǒng)
        太空探索(2015年8期)2015-07-18 11:04:44
        东北老女人高潮大喊舒服死了| 日本一区二区三区精品不卡| 国产九色AV刺激露脸对白| 日本中文字幕一区二区视频| 国产三级精品三级在专区中文| 中文字幕日本av网站| 乱子轮熟睡1区| 一本久久a久久精品亚洲| 国产精品一卡二卡三卡| 国产伦理自拍视频在线观看| 国产激情视频在线观看大全| 妺妺窝人体色www看美女| 国产亚洲精品aaaa片app| 国产亚洲午夜精品| 亚洲女同精品一区二区久久| 亚洲爆乳无码精品aaa片蜜桃| 亚洲精品国产成人| 久久久久久久尹人综合网亚洲| 日韩一级137片内射视频播放| 男女男精品视频网站免费看| 日韩少妇内射免费播放18禁裸乳| 久久99精品国产99久久| 中文字幕精品亚洲二区| 91久久综合精品久久久综合 | 开心激情视频亚洲老熟女| 无码精品一区二区三区在线| 99久久国产福利自产拍| 国产成社区在线视频观看| 亚洲天堂一二三四区在线| 色欲色香天天天综合网www| 射死你天天日| 国产日韩久久久久69影院| 国内自拍视频一区二区三区| 无码人妻精品一区二区三区蜜桃 | 亚洲日韩欧美国产另类综合| 色狠狠一区二区三区香蕉蜜桃| 日本av一区二区三区四区| 亚洲av无码码潮喷在线观看| 成人欧美一区二区三区的电影| 日韩人妻无码精品久久伊人| 国产日产亚洲系列首页|