亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度神經(jīng)網(wǎng)絡的圖像信息快速檢索研究

        2022-12-30 05:43:34張夢君
        新鄉(xiāng)學院學報 2022年12期
        關鍵詞:信息檢索深度特征

        張夢君

        (閩北職業(yè)技術學院 信息系, 福建 南平 353000)

        進入數(shù)字信息時代以后, 數(shù)據(jù)已經(jīng)成為人們?nèi)粘I钆c工作非常重要的一部分, 而圖片數(shù)據(jù)又 是 電 子 數(shù) 據(jù) 的 重 要 組 成 部 分 之 一[1-2], 尤其是電子商務的興起, 使得圖像信息檢索的研究逐步深入。 在京東、淘寶、亞馬遜、拼多多等電子商務網(wǎng)站中, 每日的圖片訪問率可以達到這些網(wǎng)站數(shù)據(jù)訪問率的80%左右, 而且現(xiàn)階段還呈現(xiàn)出大幅度增加的趨勢[3-4]。 為滿足用戶的需求,需要研究提高圖像信息檢索精度及檢索速度的措施。文獻[5]使用深度學習的方法提高圖像的清晰度, 在特定損失函數(shù)以及隨即變換等手段的輔助下,完成了對檢索精度的優(yōu)化;文獻[6]結合多尺度池化和范數(shù)注意力機制計算了空間位置向量,完成了高精度的圖像信息檢索;文獻[7]針對復雜的空間影像提出了完備的拓撲變量描述方法,提升了復雜空間與具有深度特征的檢索效率與檢索精度。

        但是將上述方法應用至圖像信息檢索過程中存在量化誤差高、 平均準確率低以及檢索時間長的問題,本文以解決上述方法存在的問題作為研究目標,設計了一種基于深度神經(jīng)網(wǎng)絡的圖像信息快速檢索方法。

        1 圖像信息局部特征提取

        式 中, F (a , b)表 示 排 除 最 小 化 向 量 之 和 后 的 標 準化特征值。 結合該直方圖法標準化系數(shù),可以計算局部敏感區(qū)域的圖像信息特征。 將原始空間數(shù)據(jù)中的圖像特征進行隨機映射,在保證數(shù)據(jù)空間內(nèi)的概率之和小于閾值的情況下,計算原始空間距離的數(shù)據(jù)點[8],此時的哈希函數(shù)變換應滿足的條件為

        2 基于深度神經(jīng)網(wǎng)絡的圖像信息檢索模型和檢索流程

        為保證圖像信息能夠被有效識別, 將分類損失函數(shù)作為深度神經(jīng)網(wǎng)絡的學習條件, 此時的損失函數(shù)可以表示為

        圖1 基于深度神經(jīng)網(wǎng)絡對圖像信息的快速檢索方法的檢索流程

        在檢索時首先訓練特征樣本,設置相應的算法參數(shù),同時獲取圖像信息快速檢索的旋轉(zhuǎn)矩陣與量化編碼結構。 在隨機初始化參數(shù)以后,可以查找是否獲得了網(wǎng)絡的初始特征[9]。 若沒有獲取初始特征,則需要重新訓練特征樣本,并進行不斷迭代處理。 當獲取初始特征之后,就需要制定并更新網(wǎng)絡策略,通過優(yōu)化編碼結構的方式,判定優(yōu)化目標是否實現(xiàn)。 若沒有實現(xiàn)優(yōu)化目標,則需要重新返回到訓練特征樣本的階段,若得到優(yōu)化目標,則該優(yōu)化目標即為最終的優(yōu)化結果,以此實現(xiàn)圖像信息快速檢索。

        3 實驗設計

        3.1 實驗數(shù)據(jù)集構建

        為測試所設計的基于深度神經(jīng)網(wǎng)絡的圖像信息快速檢索方法的有效性和優(yōu)越性,設計如下實驗。將Linux 操作系統(tǒng)作為本實驗的操作平臺,將Python 語言下的TensorFlow 框架作為深度學習框架。 實驗中將個人的PC 機作為主要設備,CPU 環(huán)境采用Intel Xeon E5-2670 以及八核處理器,顯存為12 GB,硬盤使用256 G 固態(tài)硬盤加1 T 機械硬盤的格式, 實驗中的主要軟件使用MARLAB。 為了保證圖像信息檢索實驗的有效性,建立圖像數(shù)據(jù)集,該數(shù)據(jù)集(圖2)內(nèi)主要有數(shù)字1~4 構成的圖案。

        圖2 圖像數(shù)據(jù)集

        3.2 實驗指標計算

        在本實驗中,使用量化誤差作為衡量算法,針對圖像檢索損失誤差進行計算,其計算公式為

        3.3 實驗結果分析

        在實驗中,為驗證所設計的方法的性能,將本文設計的基于深度神經(jīng)網(wǎng)絡的圖像信息快速檢索方法、深度學習算法、多尺度池化和范數(shù)注意力機制、 精細拓撲結構表示與深度特征融合方法作為實驗對比方法。 設置圖像數(shù)據(jù)集內(nèi)的圖像數(shù)量為1 000,其中每一種類型的圖像數(shù)量為250,哈希碼的長度分別設置為12、32 和48 bit, 并將其作為變量。 建立獨特的學習框架,考慮檢索損失誤差以及檢索平均準確率,同時在特征學習中對上述圖像信息檢索的分類性能進行測試,以證明所設計的檢索方法的有效性與優(yōu)越性,此時可以得到2 種指標在不同算法和不同哈希碼變量下的數(shù)據(jù)結果, 如表1所示。

        表1 不同算法及不同變量下的數(shù)據(jù)結果

        由表1 可知,隨著哈希碼長度的增加,檢索損失誤差增加,且檢索平均準確率小幅度增加,哈希碼長度對圖像信息檢索的精度呈正向促進作用。 本文方法的檢索損失誤差更低,檢索平均準確率更高,實際應用效果更好。

        不同數(shù)據(jù)數(shù)量下4 種方法的檢索時間如圖3所示。 由圖3 知,當數(shù)據(jù)數(shù)量為500 時,4 種算法的檢索時間差距較小, 但是隨著數(shù)據(jù)數(shù)量的增加,不但其檢索所需時間越來越長,4 種方法檢索時間之間的差距也在不斷變大。 到了4 000 條圖像數(shù)據(jù)時,4 種 方 法 的 檢 索 用 時 分 別 為17 s、24 s、31 s 和38 s, 本文方法所需的檢索時間更短, 檢索效率更高,本文所設計的基于深度神經(jīng)網(wǎng)絡的圖像信息快速檢索方法在檢索精度以及檢索速度方面均優(yōu)于其他3 種方法。

        圖3 檢索時間

        4 結束語

        為了提升圖像信息檢索效果, 本文設計了一種基于深度神經(jīng)網(wǎng)絡的圖像信息快速檢索方法, 在大規(guī)模的圖像數(shù)據(jù)集中, 利用該檢索方式對某一項內(nèi)容進行檢索與匹配,提取局部特征信息,結合特征信息提取結果實現(xiàn)圖像信息快速檢索。 對比其他3 種方法,該檢索方法的精度以及運算速度均更優(yōu)越,可見該圖像信息快速檢索方法優(yōu)于其他方法, 實際應用效果好。

        猜你喜歡
        信息檢索深度特征
        深度理解一元一次方程
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        深度觀察
        深度觀察
        深度觀察
        抓住特征巧觀察
        醫(yī)學期刊編輯中文獻信息檢索的應用
        新聞傳播(2016年18期)2016-07-19 10:12:06
        基于神經(jīng)網(wǎng)絡的個性化信息檢索模型研究
        線性代數(shù)的應用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        蜜桃麻豆www久久囤产精品| 国产精品内射久久一级二| 亚洲一区精品无码色成人| 欧美大胆性生话| 国产日产久久福利精品一区| 大陆国产乱人伦| 免费观看国产精品| 国产69精品久久久久app下载| 国产精品av免费网站| 真人男女做爰无遮挡免费视频| 亚洲小少妇一区二区三区| 国产人妻人伦精品1国产盗摄| 亚洲视频免费一区二区| 亚洲国产日韩在线精品频道| 香蕉视频在线精品视频| 偷拍综合在线视频二区| 久久亚洲午夜牛牛影视| 亚洲学生妹高清av| 丰满少妇高潮惨叫久久久一| 国产自拍伦理在线观看| 亚洲熟妇20| 午夜免费福利小电影| 久久婷婷综合激情五月| 色窝窝手在线视频| 欧美一区波多野结衣第一页| 国产性生交xxxxx免费| 亚洲综合av一区二区三区蜜桃| 极品精品视频在线观看| 亚洲蜜芽在线精品一区| 国产又色又爽又刺激视频| 欧美性xxxx狂欢老少配| 中国女人内谢69xxxx免费视频| 亚洲丰满熟女乱一区二区三区| 视频精品亚洲一区二区| 国际无码精品| 亚洲av第一页国产精品| 精品无码av一区二区三区不卡| 国产精品不卡无码AV在线播放| 国产色噜噜| 国内少妇偷人精品视频免费| 人妻av乱片av出轨|