亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv7的顯著性目標(biāo)檢測(cè)

        2025-03-04 00:00:00劉偉楊蕾徐爭(zhēng)超龔大偉
        物聯(lián)網(wǎng)技術(shù) 2025年5期
        關(guān)鍵詞:深度學(xué)習(xí)

        摘 要:隨著信息顯示技術(shù)的持續(xù)發(fā)展,信息顯示的安全性問(wèn)題愈發(fā)突出。信息加密顯示技術(shù)的實(shí)現(xiàn)依賴于目標(biāo)檢測(cè)技術(shù),需要根據(jù)不同信息的特點(diǎn)來(lái)選用相應(yīng)的加密算法。為此,提出一種基于YOLOv7的顯著性目標(biāo)檢測(cè)算法,該算法可以通過(guò)自建數(shù)據(jù)集標(biāo)定顯著性區(qū)域,對(duì)模型進(jìn)行訓(xùn)練,并將得到的顯著性區(qū)域用于自適應(yīng)加密顯示算法,以實(shí)現(xiàn)可分級(jí)的加密顯示。實(shí)驗(yàn)結(jié)果表明,該模型性能優(yōu)越,有著較高的檢測(cè)準(zhǔn)確率,能夠?yàn)楹罄m(xù)針對(duì)敏感信息區(qū)域進(jìn)行加密提供有力的支撐。

        關(guān)鍵詞:YOLOv7;目標(biāo)檢測(cè);深度學(xué)習(xí);信息安全;CBAM;加密顯示

        中圖分類號(hào):TP391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-1302(2025)05-00-03

        0 引 言

        當(dāng)前,隱私保護(hù)議題受到社會(huì)各界的廣泛關(guān)注,信息顯示安全也成為人們討論的熱點(diǎn)。主流的加密顯示技術(shù)通過(guò)生成與原圖相關(guān)性很高的干擾幀,將其與原圖疊加并進(jìn)行前后幀間隔顯示,再通過(guò)主動(dòng)式快門眼鏡在人眼接收端濾去干擾幀,從而達(dá)到加密顯示的目的[1]。干擾幀的生成需借助目標(biāo)檢測(cè)算法檢測(cè)出顯著性區(qū)域,并根據(jù)區(qū)域內(nèi)容特點(diǎn),選擇合適的自適應(yīng)加密算法對(duì)區(qū)域進(jìn)行加密。顯著性區(qū)域主要包括人臉和字符。本文提出一種基于YOLOv7的顯著性區(qū)域檢測(cè)算法,通過(guò)自建數(shù)據(jù)集訓(xùn)練模型權(quán)重。當(dāng)該算法與加密顯示技術(shù)相結(jié)合時(shí),能夠廣泛應(yīng)用于會(huì)議室、作戰(zhàn)室等場(chǎng)景,對(duì)多種類型的敏感信息進(jìn)行加密處理,使得擁有不同權(quán)限的人僅能看到與其權(quán)限相匹配的保密信息。

        1 研究現(xiàn)狀

        本文提出了一種基于YOLOv7的顯著性目標(biāo)檢測(cè)算法,該算法通過(guò)對(duì)圖像各個(gè)位置進(jìn)行采樣分析,檢測(cè)是否存在特定對(duì)象,并根據(jù)測(cè)試結(jié)果動(dòng)態(tài)調(diào)整區(qū)域邊界,從而更準(zhǔn)確地預(yù)測(cè)對(duì)象的真實(shí)邊界框。當(dāng)前,目標(biāo)檢測(cè)技術(shù)主要分為附著錨點(diǎn)和非附著錨點(diǎn)兩類。無(wú)錨點(diǎn)算法能夠借助密集預(yù)測(cè)直接推測(cè)目標(biāo)位置與尺度,但該方法往往會(huì)產(chǎn)生大量候選框,其中大部分為無(wú)目標(biāo)的背景框,從而增加了計(jì)算負(fù)擔(dān)及誤檢風(fēng)險(xiǎn)。此外,對(duì)于體積小、不易察覺(jué)的目標(biāo),當(dāng)感受野過(guò)大時(shí),無(wú)法對(duì)目標(biāo)進(jìn)行準(zhǔn)確提取,導(dǎo)致檢測(cè)精度下降。針對(duì)上述問(wèn)題,本文選擇基于錨點(diǎn)的算法,其中一階段檢測(cè)算法將圖像分成若干網(wǎng)格,再利用聚類算法找出每個(gè)網(wǎng)格內(nèi)的錨點(diǎn);二階段檢測(cè)算法,如Mask R-CNN[2]、Faster R-CNN[3]、Cascade R-CNN[4]等則使用區(qū)域建議網(wǎng)絡(luò)(RPN)篩選錨點(diǎn)。常見(jiàn)的一階段檢測(cè)算法包括YOLOv4[5]、YOLOv5[6]、SSD等。自2016年推出以來(lái),YOLO已被廣泛應(yīng)用于基于深度神經(jīng)網(wǎng)絡(luò)的實(shí)時(shí)目標(biāo)識(shí)別和定位系統(tǒng),并且隨著不斷迭代和改進(jìn),YOLO在平衡速度和精度方面不斷精進(jìn),成為目標(biāo)檢測(cè)的主流技術(shù)。YOLOv5作為YOLO系列的一個(gè)經(jīng)典版本,性能表現(xiàn)優(yōu)越。而YOLOv7在YOLOv5的基礎(chǔ)上將模型重新參數(shù)化引入到網(wǎng)絡(luò)架構(gòu)中,并提出了一種新的高效網(wǎng)絡(luò)結(jié)構(gòu)ELAN,以及一種包括輔助頭部的訓(xùn)練方法。該方法使得YOLOv7得以在高達(dá)5~160幀/s的畫面刷新率下保持優(yōu)異的性能[7-9]。故本文選用YOLOv7作為本次研究的基準(zhǔn)網(wǎng)絡(luò)。

        2 目標(biāo)檢測(cè)網(wǎng)絡(luò)

        YOLOv7創(chuàng)新地引入了高效的ELAN網(wǎng)絡(luò)架構(gòu),以控制最長(zhǎng)與最短的梯度路徑,優(yōu)化網(wǎng)絡(luò)特性學(xué)習(xí)并增強(qiáng)其抗干擾能力。圖1所示為ELAN網(wǎng)絡(luò)架構(gòu),該網(wǎng)絡(luò)由兩部分組成,第一部分采用1×1卷積對(duì)通道數(shù)進(jìn)行調(diào)整;第二部分運(yùn)用1×1卷積模塊與3×3卷積模塊對(duì)特征進(jìn)行深度抽取。最后將兩個(gè)部分的特征融合,形成最終的特征提取結(jié)果。

        3 CBAM-YOLOv7改進(jìn)算法

        CBAM即卷積塊注意力模塊,是一種輕量級(jí)的注意力機(jī)制,它融合了通道注意力和空間注意力兩個(gè)關(guān)鍵組件。圖2所示為CBAM模型結(jié)構(gòu),輸入特征F∈RC×H×W,進(jìn)行通道注意力模塊一維卷積,則MC∈RC×1×1;將卷積結(jié)果和原圖點(diǎn)乘,進(jìn)行空間注意力模塊二維卷積,則MS∈R1×H×W,再將輸出結(jié)果與原圖點(diǎn)乘[10]。

        通道注意力模塊的核心任務(wù)在于增強(qiáng)各通道的特征表達(dá)能力。空間注意力模塊的主要目的是凸顯圖像中不同位置的重要性。CBAM模塊通過(guò)自適應(yīng)地學(xué)習(xí)通道和空間注意力權(quán)重,顯著提升了卷積神經(jīng)網(wǎng)絡(luò)的特征表達(dá)能力。通過(guò)將通道注意力和空間注意力相結(jié)合,CBAM模塊能夠同時(shí)捕捉不同維度上特征之間的相關(guān)性,進(jìn)而優(yōu)化圖像識(shí)別的性能。

        4 實(shí)驗(yàn)與結(jié)果分析

        4.1 自制數(shù)據(jù)集

        圖像中的信息分為動(dòng)態(tài)信息和靜態(tài)信息,動(dòng)態(tài)信息包括移動(dòng)的人或物體,常出現(xiàn)在畫面中部,表示情景、過(guò)程等信息;靜態(tài)信息包括相對(duì)靜止的說(shuō)明性字符、符號(hào)、圖表等,常出現(xiàn)在畫面底部、側(cè)邊,表示狀態(tài)名稱、型號(hào)類別等信息。針對(duì)動(dòng)態(tài)信息,需要對(duì)其運(yùn)動(dòng)變化趨勢(shì)進(jìn)行跟蹤與標(biāo)記,及時(shí)捕捉其位置,確保加密的全面性;針對(duì)靜態(tài)信息,其在畫面中的位置相對(duì)靜止,重點(diǎn)在于捕捉圖像內(nèi)部的光學(xué)特征,包括亮度、對(duì)比度、飽和度、邊緣信息豐富程度等,結(jié)合人眼的觀看習(xí)慣,針對(duì)性地進(jìn)行加密。

        人臉和字符檢測(cè)作為計(jì)算機(jī)視覺(jué)領(lǐng)域的常見(jiàn)算法,已被廣泛應(yīng)用于多個(gè)場(chǎng)景。因此,為了獲得準(zhǔn)確詳細(xì)的結(jié)果,構(gòu)建一個(gè)場(chǎng)景豐富、規(guī)模龐大、注釋更詳細(xì)準(zhǔn)確的數(shù)據(jù)集進(jìn)行訓(xùn)練和測(cè)試顯得尤為重要。網(wǎng)上已有的數(shù)據(jù)集往往只針對(duì)某一動(dòng)態(tài)信息進(jìn)行歸納收集,比如固定攝像頭拍攝的車輛車牌檢測(cè)數(shù)據(jù)集只包括動(dòng)態(tài)的車輛車牌,而缺乏對(duì)路邊的固定指示牌等靜態(tài)信息的標(biāo)記。為了滿足靜態(tài)信息和動(dòng)態(tài)信息并存的要求,通過(guò)官網(wǎng)下載新聞聯(lián)播錄像,并借助MATLAB R2017a工具對(duì)錄像按照固定的時(shí)間間隔提取視頻幀。通過(guò)手動(dòng)篩選,刪除重復(fù)的演播室圖像,得到2 000張分辨率為1 280×720的圖像。隨后,使用labelimg工具進(jìn)行手動(dòng)標(biāo)注,標(biāo)注內(nèi)容包括人臉和字符兩種標(biāo)簽,采用YOLO格式標(biāo)簽并保存為txt文件,用于訓(xùn)練YOLOv7目標(biāo)檢測(cè)網(wǎng)絡(luò)。將訓(xùn)練集、驗(yàn)證集和測(cè)試集按8∶1∶1的比例進(jìn)行分配,劃分為1 600張訓(xùn)練集、200張驗(yàn)證集和200張測(cè)試集,進(jìn)行300輪訓(xùn)練。選用CBAM-YOLOv7、YOLOv7-d6和YOLOv7-tiny三種網(wǎng)絡(luò)進(jìn)行訓(xùn)練。

        4.2 實(shí)驗(yàn)環(huán)境

        本實(shí)驗(yàn)使用的服務(wù)器為七彩虹BATTLE-AX B560M-FPRO臺(tái)式電腦,搭載Intel i5-10400F@2.90 GHz六核處理器,配備2塊16 GB威剛DDR4 3 200 MHz內(nèi)存條,具體實(shí)驗(yàn)環(huán)境配置見(jiàn)表1。

        4.3 評(píng)價(jià)指標(biāo)

        通過(guò)查準(zhǔn)率(Precision Rate)、查全率(Recall Rate)和mAP(mean Average Precision)等指標(biāo)來(lái)衡量目標(biāo)檢測(cè)網(wǎng)絡(luò)的性能。其中,mAP指標(biāo)是對(duì)每種類別分別求出精確度,然后進(jìn)行平均處理;而針對(duì)特定IoU區(qū)間的mAP,例如mAP@.5:.95,則代表了在0.5至0.95的間隔中按照步長(zhǎng)0.05逐步選擇IoU數(shù)值進(jìn)行評(píng)估后得到的所有mAP值的平均結(jié)果。查準(zhǔn)率、查全率的計(jì)算公式如下:

        5 結(jié) 語(yǔ)

        本文提出了一種基于YOLOv7的目標(biāo)檢測(cè)網(wǎng)絡(luò),自建新聞聯(lián)播數(shù)據(jù)集并進(jìn)行訓(xùn)練,針對(duì)人臉和字符進(jìn)行檢測(cè)。實(shí)驗(yàn)結(jié)果表明,該網(wǎng)絡(luò)在檢測(cè)查準(zhǔn)率和查全率方面均表現(xiàn)出色,特別在CBAM-YOLOv7模型上,查準(zhǔn)率高達(dá)99.1%。這一成果為后續(xù)針對(duì)敏感信息區(qū)域進(jìn)行加密處理奠定了堅(jiān)實(shí)的基礎(chǔ)。今后將增加更多的檢測(cè)標(biāo)簽,不局限于人臉和字符,還將納入槍械、坦克等武器裝備,進(jìn)一步增強(qiáng)敏感區(qū)域的檢測(cè)能力。

        參考文獻(xiàn)

        [1]王鵬,王鹍. 一種用于信息安全防護(hù)的同步式屏幕顯示: CN202011003136. X [P]. 2021-01-01.

        [2] HE K M, GKIOXARI G, DOLLAR P, et al. Mask R-CNN [J]. IEEE transactions on pattern analysis and machine intelligence, 2020, 42(2): 386-397.

        [3] DING X T, LI Q D, CHENG Y Q, et al. Local keypoint-based faster R-CNN [J]. Applied intellgence, 2020, 50: 3007-3022.

        [4] CHENG M, FAN C, CHEN L, et al. Partial atrous cascade R-CNN [J]. Electronics, 2022, 11(8): 1241.

        [5] ZENG L, DUAN X, PAN Y, et al. Research on the algorithm of helmet-wearing detection based on the optimized YOLOv4 [J]. The visual computer, 2023, 39: 2165-2175 .

        [6] ZHANG R, ZHENG K, SHI P, et al. Traffic sign detection based on the improved YOLOv5 [J]. Applied sciences, 2023, 13(17): 9748.

        [7]劉虎成.基于YOLOv7的交通標(biāo)志目標(biāo)檢測(cè)方法研究[D].西安:西安電子科技大學(xué),2023.

        [8]韓朔.基于YOLOv7的缺陷雞蛋在線檢測(cè)系統(tǒng)的研究[D].銀川:寧夏大學(xué),2023.

        [9]馬銘駿.基于YOLOv7的市區(qū)道路擁堵檢測(cè)研究[D].蘭州:蘭州交通大學(xué),2023.

        [10] YANG K, ZHANG Y, ZHANG X, et al. YOLOX with CBAM for insulator detection in transmission lines [J]. Multimedia tools and applications, 2023, 83: 43419-43437.

        猜你喜歡
        深度學(xué)習(xí)
        從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
        面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
        基于自動(dòng)智能分類器的圖書館亂架圖書檢測(cè)
        搭建深度學(xué)習(xí)的三級(jí)階梯
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        a级毛片高清免费视频就| 蜜桃成熟时在线观看免费视频| 亚洲av日韩专区在线观看| 日本一区二区在线高清| 99精品国产在热久久无毒不卡| 男人的天堂av网站| 精品久久久久久无码人妻热| 一区二区三区国产亚洲网站| 久久精品成人欧美大片| 亚洲免费不卡| 国产成人av免费观看| 亚洲熟妇少妇69| 国产精品黄色片在线观看| 亚洲无码毛片免费视频在线观看| 中文字幕日韩人妻在线| 在线观看国产激情免费视频| 国产成人大片在线播放| 色777狠狠狠综合| 中文字幕一区二区三区乱码| 精精国产xxxx视频在线| 亚洲欧美日韩高清中文在线| 国产精品天干天干在线观蜜臀| 亚洲一区二区三区厕所偷拍| 精品一区二区三区久久| 麻豆国产精品久久人妻| 国产亚洲一本大道中文在线| www国产精品内射熟女| 免费 无码 国产精品| 日产精品一区二区在线| 中文日本强暴人妻另类视频| 国产激情久久久久影院小草| 内射人妻视频国内| 国产又色又爽无遮挡免费| √最新版天堂资源在线| 久久er这里都是精品23| 国产午夜激情视频在线看| 在线观看 国产一区二区三区| 国语自产偷拍在线观看| 国产精品美女一区二区三区 | 久久精品国产一区老色匹| 亚洲精一区二区三av|