李福衛(wèi) 李玉惠
摘要:傳統(tǒng)方法在圖像清晰度識(shí)別上主要通過(guò)提取圖像特征進(jìn)行識(shí)別和預(yù)測(cè),由于圖像特征的提取存在一定的復(fù)雜度,尤其是對(duì)高維圖像和在復(fù)雜背景環(huán)境下的特征提取。針對(duì)這一問(wèn)題提出基于深度學(xué)習(xí)下的卷積神經(jīng)網(wǎng)絡(luò)(CNN)識(shí)別方法,在Convolutional Architecture for Fast Feature Embedding(caffe)框架下利用GoogLeNet網(wǎng)絡(luò)模型,將樣本圖像直接作為輸入?yún)?shù),通過(guò)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行模型訓(xùn)練即可得到輸出結(jié)果,從而省去提取復(fù)雜的特征。通過(guò)實(shí)驗(yàn)驗(yàn)證上述方法能夠較為準(zhǔn)確的識(shí)別出圖像的清晰程度。提出的方法不用提取復(fù)雜的特征,所以在圖像處理中有很高的應(yīng)用價(jià)值。
關(guān)鍵詞:深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);清晰度識(shí)別;caffe框架endprint