張夢君
(閩北職業(yè)技術學院 信息系, 福建 南平 353000)
進入數(shù)字信息時代以后, 數(shù)據(jù)已經(jīng)成為人們?nèi)粘I钆c工作非常重要的一部分, 而圖片數(shù)據(jù)又 是 電 子 數(shù) 據(jù) 的 重 要 組 成 部 分 之 一[1-2], 尤其是電子商務的興起, 使得圖像信息檢索的研究逐步深入。 在京東、淘寶、亞馬遜、拼多多等電子商務網(wǎng)站中, 每日的圖片訪問率可以達到這些網(wǎng)站數(shù)據(jù)訪問率的80%左右, 而且現(xiàn)階段還呈現(xiàn)出大幅度增加的趨勢[3-4]。 為滿足用戶的需求,需要研究提高圖像信息檢索精度及檢索速度的措施。文獻[5]使用深度學習的方法提高圖像的清晰度, 在特定損失函數(shù)以及隨即變換等手段的輔助下,完成了對檢索精度的優(yōu)化;文獻[6]結合多尺度池化和范數(shù)注意力機制計算了空間位置向量,完成了高精度的圖像信息檢索;文獻[7]針對復雜的空間影像提出了完備的拓撲變量描述方法,提升了復雜空間與具有深度特征的檢索效率與檢索精度。
但是將上述方法應用至圖像信息檢索過程中存在量化誤差高、 平均準確率低以及檢索時間長的問題,本文以解決上述方法存在的問題作為研究目標,設計了一種基于深度神經(jīng)網(wǎng)絡的圖像信息快速檢索方法。
式 中, F (a , b)表 示 排 除 最 小 化 向 量 之 和 后 的 標 準化特征值。 結合該直方圖法標準化系數(shù),可以計算局部敏感區(qū)域的圖像信息特征。 將原始空間數(shù)據(jù)中的圖像特征進行隨機映射,在保證數(shù)據(jù)空間內(nèi)的概率之和小于閾值的情況下,計算原始空間距離的數(shù)據(jù)點[8],此時的哈希函數(shù)變換應滿足的條件為
為保證圖像信息能夠被有效識別, 將分類損失函數(shù)作為深度神經(jīng)網(wǎng)絡的學習條件, 此時的損失函數(shù)可以表示為
圖1 基于深度神經(jīng)網(wǎng)絡對圖像信息的快速檢索方法的檢索流程
在檢索時首先訓練特征樣本,設置相應的算法參數(shù),同時獲取圖像信息快速檢索的旋轉(zhuǎn)矩陣與量化編碼結構。 在隨機初始化參數(shù)以后,可以查找是否獲得了網(wǎng)絡的初始特征[9]。 若沒有獲取初始特征,則需要重新訓練特征樣本,并進行不斷迭代處理。 當獲取初始特征之后,就需要制定并更新網(wǎng)絡策略,通過優(yōu)化編碼結構的方式,判定優(yōu)化目標是否實現(xiàn)。 若沒有實現(xiàn)優(yōu)化目標,則需要重新返回到訓練特征樣本的階段,若得到優(yōu)化目標,則該優(yōu)化目標即為最終的優(yōu)化結果,以此實現(xiàn)圖像信息快速檢索。
為測試所設計的基于深度神經(jīng)網(wǎng)絡的圖像信息快速檢索方法的有效性和優(yōu)越性,設計如下實驗。將Linux 操作系統(tǒng)作為本實驗的操作平臺,將Python 語言下的TensorFlow 框架作為深度學習框架。 實驗中將個人的PC 機作為主要設備,CPU 環(huán)境采用Intel Xeon E5-2670 以及八核處理器,顯存為12 GB,硬盤使用256 G 固態(tài)硬盤加1 T 機械硬盤的格式, 實驗中的主要軟件使用MARLAB。 為了保證圖像信息檢索實驗的有效性,建立圖像數(shù)據(jù)集,該數(shù)據(jù)集(圖2)內(nèi)主要有數(shù)字1~4 構成的圖案。
圖2 圖像數(shù)據(jù)集
在本實驗中,使用量化誤差作為衡量算法,針對圖像檢索損失誤差進行計算,其計算公式為
在實驗中,為驗證所設計的方法的性能,將本文設計的基于深度神經(jīng)網(wǎng)絡的圖像信息快速檢索方法、深度學習算法、多尺度池化和范數(shù)注意力機制、 精細拓撲結構表示與深度特征融合方法作為實驗對比方法。 設置圖像數(shù)據(jù)集內(nèi)的圖像數(shù)量為1 000,其中每一種類型的圖像數(shù)量為250,哈希碼的長度分別設置為12、32 和48 bit, 并將其作為變量。 建立獨特的學習框架,考慮檢索損失誤差以及檢索平均準確率,同時在特征學習中對上述圖像信息檢索的分類性能進行測試,以證明所設計的檢索方法的有效性與優(yōu)越性,此時可以得到2 種指標在不同算法和不同哈希碼變量下的數(shù)據(jù)結果, 如表1所示。
表1 不同算法及不同變量下的數(shù)據(jù)結果
由表1 可知,隨著哈希碼長度的增加,檢索損失誤差增加,且檢索平均準確率小幅度增加,哈希碼長度對圖像信息檢索的精度呈正向促進作用。 本文方法的檢索損失誤差更低,檢索平均準確率更高,實際應用效果更好。
不同數(shù)據(jù)數(shù)量下4 種方法的檢索時間如圖3所示。 由圖3 知,當數(shù)據(jù)數(shù)量為500 時,4 種算法的檢索時間差距較小, 但是隨著數(shù)據(jù)數(shù)量的增加,不但其檢索所需時間越來越長,4 種方法檢索時間之間的差距也在不斷變大。 到了4 000 條圖像數(shù)據(jù)時,4 種 方 法 的 檢 索 用 時 分 別 為17 s、24 s、31 s 和38 s, 本文方法所需的檢索時間更短, 檢索效率更高,本文所設計的基于深度神經(jīng)網(wǎng)絡的圖像信息快速檢索方法在檢索精度以及檢索速度方面均優(yōu)于其他3 種方法。
圖3 檢索時間
為了提升圖像信息檢索效果, 本文設計了一種基于深度神經(jīng)網(wǎng)絡的圖像信息快速檢索方法, 在大規(guī)模的圖像數(shù)據(jù)集中, 利用該檢索方式對某一項內(nèi)容進行檢索與匹配,提取局部特征信息,結合特征信息提取結果實現(xiàn)圖像信息快速檢索。 對比其他3 種方法,該檢索方法的精度以及運算速度均更優(yōu)越,可見該圖像信息快速檢索方法優(yōu)于其他方法, 實際應用效果好。