亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于嵌入式技術(shù)的智能遠(yuǎn)程視頻監(jiān)控系統(tǒng)設(shè)計(jì)研究

        2025-03-18 00:00:00楊佳李暢曾莉
        中國新技術(shù)新產(chǎn)品 2025年5期
        關(guān)鍵詞:深度學(xué)習(xí)

        摘 要:針對(duì)傳統(tǒng)視頻監(jiān)控系統(tǒng)在效率和智能化方面的不足,本文設(shè)計(jì)了一種基于嵌入式技術(shù)的智能遠(yuǎn)程視頻監(jiān)控系統(tǒng)。該系統(tǒng)利用嵌入式ARM平臺(tái),采用深度學(xué)習(xí)算法,引入深度可分離中心差分卷積網(wǎng)絡(luò)(DS-CDCNN),以提升視頻識(shí)別能力。通過試驗(yàn)驗(yàn)證,該系統(tǒng)在視頻傳輸方面的平均延遲為43 ms,帶寬利用率約為30%,傳輸穩(wěn)定性為98%。在識(shí)別任務(wù)中,DS-CDCNN算法的人臉識(shí)別準(zhǔn)確率為98.8%,車牌識(shí)別準(zhǔn)確率為99.6%。為智能遠(yuǎn)程視頻監(jiān)控系統(tǒng)的發(fā)展提供了新思路,可廣泛應(yīng)用于公共安全與智慧城市建設(shè)領(lǐng)域。

        關(guān)鍵詞:嵌入式技術(shù);遠(yuǎn)程視頻監(jiān)控;智能識(shí)別;深度學(xué)習(xí)

        中國分類號(hào):TP 39" " " " " " 文獻(xiàn)標(biāo)志碼:A

        隨著社會(huì)經(jīng)濟(jì)發(fā)展和科技進(jìn)步,視頻監(jiān)控系統(tǒng)廣泛應(yīng)用于公共安全、交通和工業(yè)等領(lǐng)域。與傳統(tǒng)依賴人工的視頻監(jiān)控系統(tǒng)相比,新型系統(tǒng)對(duì)監(jiān)測(cè)效率與實(shí)時(shí)性提出了更高要求。物聯(lián)網(wǎng)與人工智能技術(shù)的興起,使智能遠(yuǎn)程視頻監(jiān)控系統(tǒng)的研究越來越受到重視[1]。嵌入式技術(shù)以其能耗低、集成度和可靠性高的優(yōu)勢(shì),結(jié)合深度學(xué)習(xí)在圖像和視頻分析領(lǐng)域的進(jìn)展,為監(jiān)控系統(tǒng)智能化開辟了新路徑。設(shè)計(jì)融合嵌入式技術(shù)與深度學(xué)習(xí)的多功能智能監(jiān)控系統(tǒng)仍面臨挑戰(zhàn)[2]。針對(duì)這個(gè)問題,本文提出了一種新型智能遠(yuǎn)程視頻監(jiān)控系統(tǒng),該系統(tǒng)融合了嵌入式技術(shù),并對(duì)其架構(gòu)設(shè)計(jì)、硬件選型、軟件開發(fā)以及智能識(shí)別算法進(jìn)行了深入研究。試驗(yàn)結(jié)果表明,所設(shè)計(jì)的系統(tǒng)性能更強(qiáng),效果更佳,為智能視頻監(jiān)控領(lǐng)域的發(fā)展提供了技術(shù)支持。

        1 智能遠(yuǎn)程視頻監(jiān)控系統(tǒng)的設(shè)計(jì)

        1.1 系統(tǒng)整體架構(gòu)設(shè)計(jì)

        在設(shè)計(jì)遠(yuǎn)程智能視頻監(jiān)控系統(tǒng)的過程中,主要模塊包括攝像模塊、視頻傳輸模塊、存儲(chǔ)模塊和顯示模塊等。系統(tǒng)具備遠(yuǎn)程查看與控制功能,用戶可通過監(jiān)控中心或移動(dòng)終端對(duì)目標(biāo)區(qū)域進(jìn)行實(shí)時(shí)監(jiān)控,并發(fā)送遠(yuǎn)程指令。系統(tǒng)融合了先進(jìn)的視頻分析技術(shù)和智能算法,能夠執(zhí)行移動(dòng)物體檢測(cè)、面部識(shí)別、車牌識(shí)別等智能分析任務(wù),提升了監(jiān)控的實(shí)時(shí)性與準(zhǔn)確性。系統(tǒng)整體架構(gòu)設(shè)計(jì)如圖1所示。

        系統(tǒng)基于ARM架構(gòu)和Linux操作系統(tǒng),采用高清攝像頭實(shí)時(shí)采集視頻數(shù)據(jù),并使用JPEG壓縮算法進(jìn)行處理。處理后的視頻數(shù)據(jù)依據(jù)TCP/IP協(xié)議傳輸至遠(yuǎn)程監(jiān)控終端,實(shí)現(xiàn)實(shí)時(shí)監(jiān)控。系統(tǒng)硬件由ARM主控板、網(wǎng)卡和攝像頭組成,軟件在嵌入式Linux平臺(tái)上運(yùn)行。系統(tǒng)集成了驅(qū)動(dòng)程序以及用于圖像捕獲、壓縮和網(wǎng)絡(luò)傳輸?shù)膽?yīng)用模塊,保證各組件協(xié)同工作[3]。

        1.2 系統(tǒng)軟硬件設(shè)計(jì)

        樹莓派4B作為系統(tǒng)的嵌入式平臺(tái),采用羅技(Logitech)C920 Pro HD(USB接口)高清監(jiān)控?cái)z像頭進(jìn)行視頻捕獲。為實(shí)現(xiàn)無線數(shù)據(jù)傳輸,系統(tǒng)配備了TP-Link TL-WN725N USB無線網(wǎng)卡。同時(shí),選用希捷2 TB硬盤(型號(hào)ST2000DM008)以滿足監(jiān)控系統(tǒng)對(duì)大容量存儲(chǔ)及快速數(shù)據(jù)讀寫性能的需求。軟件體系結(jié)構(gòu)分為基礎(chǔ)系統(tǒng)軟件與上層應(yīng)用軟件2類,系統(tǒng)軟件架構(gòu)如圖2所示。

        1.3 系統(tǒng)開發(fā)平臺(tái)搭建

        由于LogitechC920 Pro HD相機(jī)只有USB接口,與CSI接口不同,USB接口不能進(jìn)行資料傳輸,因此系統(tǒng)主要利用網(wǎng)絡(luò)作為視頻數(shù)據(jù)傳輸至遠(yuǎn)程終端的通道。為提升數(shù)據(jù)傳輸效率,系統(tǒng)采用TCP/IP協(xié)議棧,并在樹莓派4B平臺(tái)中利用Python語言結(jié)合socket庫進(jìn)行數(shù)據(jù)的高效傳輸。在操作系統(tǒng)移植方面,針對(duì)樹莓派4B搭建了樹莓派OS,該系統(tǒng)基于Debian的Linux版本,須進(jìn)行適當(dāng)調(diào)整以適應(yīng)硬件配置需求。系統(tǒng)遷移過程主要包括3個(gè)核心階段:首先是引導(dǎo)加載程序的定制化適配,其次是系統(tǒng)內(nèi)核的移植,最后是根文件系統(tǒng)的配置。攝像頭驅(qū)動(dòng)程序基于Linux內(nèi)核支持的V4L2(Video for Linux 2)接口架構(gòu)進(jìn)行開發(fā)。系統(tǒng)還利用OpenCV庫實(shí)現(xiàn)了運(yùn)動(dòng)物體的檢測(cè)功能。智能算法遠(yuǎn)程視頻監(jiān)控系統(tǒng)的硬件邏輯結(jié)構(gòu)如圖3所示。

        1.4 智能圖像識(shí)別算法設(shè)計(jì)

        為提高視頻監(jiān)控系統(tǒng)的準(zhǔn)確性和操作效率,本文采用深度學(xué)習(xí)技術(shù)進(jìn)行圖像識(shí)別與分析,包括人臉識(shí)別和車牌識(shí)別。在此基礎(chǔ)上,本文對(duì)中心差分卷積網(wǎng)絡(luò)(Central Difference Convolutional Neural Network,CDCNN)進(jìn)行了深度優(yōu)化,設(shè)計(jì)了一種深度可分離的中心差分卷積神經(jīng)網(wǎng)絡(luò)算法,簡稱DS-CDCNN[4]。其結(jié)構(gòu)如圖4所示。

        采用DS-CDCNN算法在硬件方面進(jìn)行高效部署,能夠減少參數(shù)量,降低計(jì)算復(fù)雜度,保證識(shí)別性能不受影響。DS-CDCNN由深度可分離中心差分卷積(DS-CDC)層和CDC_Block模塊組成。DS-CDC層由3*3的深度中心差分卷積和1*1的點(diǎn)卷積組成。2個(gè)DS-CDC層堆疊成CDC_Block,分別負(fù)責(zé)通道數(shù)的擴(kuò)展和特征的精細(xì)化處理。精細(xì)化特征的計(jì)算過程如公式(1)所示。

        F'i=Fi⊙(σ(Ci([A(Fi),M(Fi)]))),i∈{low,mid,high} (1)

        式中:F'i為經(jīng)過精細(xì)化的特征;Fi為來自多個(gè)層次的特征;σ為Sigmoid函數(shù);Ci為卷積操作;A(Fi)為對(duì)Fi進(jìn)行平均池化操作。平均池化是一種下采樣操作,對(duì)特征圖的局部區(qū)域取平均值來減少其尺寸;M(Fi)為對(duì)特征Fi進(jìn)行最大池化操作,最大池化也是一種下采樣操作,對(duì)特征圖的局部區(qū)域取最大值來減少其尺寸;Ci([A(Fi), M(Fi)])為將 A(Fi)和 M(Fi) 的結(jié)果進(jìn)行拼接,并使用一個(gè)卷積層C進(jìn)行處理。

        第一個(gè)DS-CDC層將通道數(shù)翻倍,同時(shí)保持特征圖尺寸不變;第二個(gè)DS-CDC層將通道數(shù)減半,特征圖尺寸依然保持不變。3個(gè)不同級(jí)別的CDC_Block分別用于捕獲低層次、中層次和高層次的特征信息。每個(gè)CDC_Block均采用最大池化技術(shù),以減少模型的參數(shù)量。隨后,將這3層特征輸入多尺度通道注意力融合模塊(Multiscale Adaptive Correlation Filter,MACF)中,進(jìn)行特征整合與融合處理。各通道特征的計(jì)算過程如公式(2)所示。

        FSE=ωn?fc " " " " " " " " " " " " " (2)

        式中:FSE為每個(gè)獨(dú)立信道的特性;ωn為特征的加權(quán);fc為特征的位置。

        對(duì)圖像進(jìn)行像素級(jí)別監(jiān)督,均方誤差計(jì)算過程如公式(3)所示。

        (3)

        式中:LMSE為均方誤差損耗函數(shù);H'、W'分別為二進(jìn)制掩模的高度、寬度;H、W分別為原始圖像的高度(Height)和寬度(Width);Bpre(i,j)為預(yù)測(cè)的灰度掩模Bpre在位置(i,j)處的像素值;Bgt(i,j)為處理后的二值目標(biāo)掩模Bgt在位置(i,j)的像素值。

        經(jīng)過2個(gè)DS-CDC層的通道縮減后,輸出一個(gè)32 ppi×32 ppi的單通道深度預(yù)測(cè)圖。在深度損失引導(dǎo)的訓(xùn)練過程中,將該圖的像素值標(biāo)準(zhǔn)化至0~1。將預(yù)測(cè)的Depth Map與調(diào)整尺寸后的輸入圖像進(jìn)行對(duì)比,深度損失計(jì)算過程如公式(4)所示。

        (4)

        式中:LCDL為對(duì)比度損耗項(xiàng);N為全局卷積的個(gè)數(shù),那么第n個(gè)卷積記為KnCDL。改進(jìn)后的DS-CDCNN算法采用多層次特征提取和多通道注意力融合,提高了人臉與牌照的識(shí)別性能。

        2 智能遠(yuǎn)程視頻監(jiān)控系統(tǒng)的實(shí)際應(yīng)用研究

        2.1 系統(tǒng)功能驗(yàn)證與測(cè)試評(píng)估

        本文設(shè)計(jì)的系統(tǒng)設(shè)置了LogitechC920 Pro高清攝像頭、監(jiān)控終端和服務(wù)器作為主要硬件設(shè)備。攝像頭采集視頻數(shù)據(jù)并通過網(wǎng)絡(luò)傳輸至服務(wù)器。服務(wù)器處理這些數(shù)據(jù)并進(jìn)行智能分析[5],對(duì)內(nèi)容進(jìn)行實(shí)時(shí)監(jiān)測(cè)。

        對(duì)系統(tǒng)采集與存儲(chǔ)性能進(jìn)行測(cè)試后,結(jié)果顯示,硬件設(shè)備加載成功率以及軟件應(yīng)用加載成功率均gt;90%。硬件與軟件在無線網(wǎng)絡(luò)和存儲(chǔ)介質(zhì)方面的加載穩(wěn)定性和成功率較高,客戶端軟件加載速度快,性能更高。

        視頻傳輸性能測(cè)試數(shù)據(jù)顯示,無論日間還是夜間模式,傳輸延遲均維持在0 ms~100 ms,日間平均延遲約為43 ms,夜間平均延遲約為37 ms。說明系統(tǒng)傳輸延遲極低,能夠保持監(jiān)控的連續(xù)性。在帶寬占用方面,日間與夜間的視頻傳輸帶寬占用率均低于45%,平均帶寬利用率分別為30%和29%。系統(tǒng)穩(wěn)定性測(cè)試結(jié)果表明,日間和夜間的視頻傳輸穩(wěn)定性均gt;90%,平均穩(wěn)定性為98%和97%。綜上所述,該系統(tǒng)監(jiān)控效率高,性能穩(wěn)定。

        為評(píng)估DS-CDCNN算法在監(jiān)控識(shí)別方面的性能,本文選取卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)與C

        DCNN算法進(jìn)行對(duì)比,不同算法的識(shí)別效果見表1。

        由表1可知,在人臉及車牌識(shí)別測(cè)試任務(wù)中,DS-CDCNN算法的各個(gè)方面均優(yōu)于CNN和CDCNN算法。在人臉識(shí)別試驗(yàn)中,DS-CDCNN算法的準(zhǔn)確率為98.8%,召回率為98.9%,F(xiàn)1-score為99.5%,與其他算法相比明顯提高。在汽車牌照識(shí)別方面,準(zhǔn)確率為99.6%,召回率為99.8%,F(xiàn)1-score為99.4%。

        2.2 智能遠(yuǎn)程視頻監(jiān)控系統(tǒng)的應(yīng)用效果評(píng)估

        為了驗(yàn)證系統(tǒng)的可行性,本文選擇了10位自愿參加評(píng)估的小規(guī)模用戶對(duì)系統(tǒng)進(jìn)行測(cè)試。系統(tǒng)主要分布在室內(nèi)、電梯、室外日間以及夜間停車區(qū)等監(jiān)控場(chǎng)景,用戶能夠利用系統(tǒng)實(shí)時(shí)監(jiān)控各區(qū)域,以提升監(jiān)控效率與安全性。智能遠(yuǎn)程視頻監(jiān)控統(tǒng)性能對(duì)比見表2。

        由表2可知,升級(jí)后的監(jiān)控系統(tǒng)的視頻監(jiān)控范圍覆蓋率為99%,與以前相比提升了19%。同時(shí),監(jiān)控圖像的品質(zhì)、異常識(shí)別的準(zhǔn)確度以及整個(gè)系統(tǒng)的穩(wěn)定性分別為97%、100%和99%,比原有系統(tǒng)性能更高。這些關(guān)鍵性能指標(biāo)明顯提升,說明本文開發(fā)的智能遠(yuǎn)程監(jiān)控系統(tǒng)能夠精確捕捉異常行為,擴(kuò)大了監(jiān)控范圍,提高了圖像清晰度和系統(tǒng)可靠性,增強(qiáng)了應(yīng)用效果,提升了市場(chǎng)價(jià)值。

        3 結(jié)語

        本文利用樹莓派4B硬件平臺(tái)和嵌入式Linux軟件系統(tǒng),采用DS-CDCNN算法,設(shè)計(jì)了高效、穩(wěn)定的視頻監(jiān)控解決方案。試驗(yàn)結(jié)果表明,本文系統(tǒng)在視頻傳輸延遲(平均43 ms)、帶寬占用(平均30%)和傳輸穩(wěn)定性(平均98%)等方面表現(xiàn)優(yōu)異。在人臉識(shí)別以及車牌識(shí)別測(cè)試任務(wù)中,DS-CDCNN算法的F1-score值分別為99.5%和99.4%,比使用傳統(tǒng)方法效果更好。在實(shí)際應(yīng)用中,系統(tǒng)的視頻監(jiān)控覆蓋率、質(zhì)量和異常檢測(cè)準(zhǔn)確率等指標(biāo)分別提升了19%、11%和10%。本文方案能夠?yàn)橹悄苓h(yuǎn)程視頻監(jiān)控系統(tǒng)的發(fā)展提供新的思路,期望在公共安全、智慧城市等領(lǐng)域發(fā)揮重要作用。

        參考文獻(xiàn)

        [1]李子昌,李智,管四海.自動(dòng)裝載與視頻監(jiān)控遠(yuǎn)程控制系統(tǒng)[J].微型機(jī)與應(yīng)用,2017,36(1):1-3.

        [2]孫啟昌.基于ARM與5G通信網(wǎng)絡(luò)汽車監(jiān)控系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[J].自動(dòng)化與儀器儀表,2021(10):93-96,100.

        [3]皮志松,韓磊.基于海思平臺(tái)的音視頻采集和編碼的實(shí)現(xiàn)[J].電視技術(shù),2020,44(9):21-23.

        [4]范秀鵬.基于嵌入式的全景雙攝監(jiān)控系統(tǒng)研究[D].天津:天津科技大學(xué),2020.

        [5]龔琴.基于物聯(lián)網(wǎng)的溫室大棚智能監(jiān)控系統(tǒng)在農(nóng)業(yè)中的應(yīng)用[J].電腦與信息技術(shù),2022,30(1):53-56.

        通信作者:李暢(1983—),女,河南洛陽人,本科,初級(jí)工程師,研究方向?yàn)榍度胧絺鞲衅鹘涌谠O(shè)計(jì)。

        電子郵箱:43191997@qq.com。

        猜你喜歡
        深度學(xué)習(xí)
        從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
        面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
        基于自動(dòng)智能分類器的圖書館亂架圖書檢測(cè)
        搭建深度學(xué)習(xí)的三級(jí)階梯
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        人人鲁人人莫人人爱精品| 蜜臀av人妻一区二区三区| 麻豆视频黄片在线免费观看| 免费观看国产短视频的方法| 久久中文精品无码中文字幕下载| 国产欧美成人| av天堂手机在线免费| 亚洲国产精品国自产拍久久蜜av | 久久综合九色综合97欧美| 国产精品久免费的黄网站| 亚洲24小时在线免费视频网站| 青青草激情视频在线播放| 免费视频成人片在线观看| 免费啪啪视频一区| 日本人妻av在线观看| 精品人妻一区二区三区在线观看| 国产女人的高潮国语对白| 欧美三级免费网站| av一区二区三区高清在线看| 国产一区二区三区av天堂| 怡红院a∨人人爰人人爽| 久久成人永久免费播放| 国产一区二区三区中出| 俺去啦最新地址| 国产精品久久久久久麻豆一区| 蜜桃av观看亚洲一区二区 | 亚州五十路伊人网| 久久精品亚洲熟女av麻豆| 色播亚洲视频在线观看| 欧美日韩性视频| 日本精品啪啪一区二区| 精品精品国产高清a毛片| 日日鲁鲁鲁夜夜爽爽狠狠视频97| 国产呦系列呦交| 国产色婷婷久久又粗又爽| 亚洲精品无码久久久久牙蜜区| 五月婷网站| 一区二区三区日韩蜜桃| 国产啪亚洲国产精品无码| 91老司机精品视频| 日韩女优在线一区二区|