亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv4的騎行頭盔佩戴狀態(tài)識(shí)別研究

        2024-02-13 00:00:00孫碩鄒瑞濱
        河南科技 2024年24期

        摘 要:【目的】近年來(lái),各地政府和社會(huì)組織不斷加大對(duì)騎行安全的宣傳和教育力度。面對(duì)龐大的騎行者數(shù)量,僅靠人力已無(wú)法滿足交通監(jiān)管需求。因此,為了增強(qiáng)騎行者的安全意識(shí)、減少交通事故的發(fā)生,提出了一種用于識(shí)別日常騎行頭盔佩戴狀態(tài)的方法?!痉椒ā勘狙芯克R(shí)別的對(duì)象是騎行頭盔和雙輪車,所用到的數(shù)據(jù)集均為騎行者圖像,用于識(shí)別騎行頭盔佩戴狀態(tài)的數(shù)據(jù)集共有1 100張圖片,將該數(shù)據(jù)集按照8∶1∶1的比例進(jìn)行劃分。在Jetson Xavier NX平臺(tái)上,運(yùn)用Darknet框架下的YOLOv4算法對(duì)數(shù)據(jù)集進(jìn)行模型的訓(xùn)練和優(yōu)化,從而實(shí)現(xiàn)在不同光照強(qiáng)度的復(fù)雜場(chǎng)景下,對(duì)騎行者是否佩戴頭盔情況的準(zhǔn)確識(shí)別?!窘Y(jié)果】該方法的平均精確率能達(dá)到80%,并具有較低的漏檢概率、虛警概率,取得了良好的應(yīng)用效果。【結(jié)論】該方法能在日常生活環(huán)境中對(duì)騎行頭盔實(shí)現(xiàn)有效識(shí)別,可用于智能交通監(jiān)控、城市管理等領(lǐng)域,有利于提升交通安全水平、降低交通事故發(fā)生率。

        關(guān)鍵詞:交通監(jiān)管;Jetson Xavier NX;YOLOv4算法;騎行頭盔

        中圖分類號(hào):TP277" " "文獻(xiàn)標(biāo)志碼:A" " 文章編號(hào):1003-5168(2024)24-0016-07

        DOI:10.19968/j.cnki.hnkj.1003-5168.2024.24.004

        Research on Recognizing the Wearing Condition of Cycling Helmet Based on YOLOv4

        Abstract: [Purposes] In recent years, governments and social organizations around the world have been increasing their efforts to promote and educate cycling safety.And in the face of the huge number of cyclists, manpower alone can no longer meet the demand for traffic supervision.Therefore, to improve the safety awareness of cyclists and reduce the occurrence of traffic accidents, a method for identifying the status of the daily cycling helmet wearing is proposed. [Methods] The recognition objects targeted in this study are cycling helmets and two-wheeled vehicles, and the datasets used are all images of cyclists, and the dataset used for recognizing the wearing condition of riding helmets has a total of 1,100 images, which is divided into a ratio of 8:1:1. Then the YOLOv4 algorithm under the Darknet framework is used on the Jetson Xavier NX platform to train and optimize the model of the dataset, which achieves the accurate recognition of whether the cyclist wears a helmet or not under the complex scenes with different light intensities.[Findings] The method can achieve a good realization with an average accuracy rate of 80% as well as a low probability of missed detection and 1 alarms. [Conclusions] The method can realize effective identification of cycling helmets in daily life environment, and can be used in intelligent traffic monitoring, urban management and other fields, which is conducive to improving the level of traffic safety and reducing the incidence of traffic accidents.

        Keywords: traffic regulation; Jetson Xavier NX; YOLOv4 algorithm;cycling helmet

        0 引言

        近年來(lái),隨著各地政府和社會(huì)組織不斷加大對(duì)騎行安全的宣傳和教育力度,人們對(duì)騎行安全的重視程度不斷提高。騎行時(shí)佩戴頭盔是基本的安全措施之一,是保護(hù)騎行者安全的第一道防線,在事故中能有效保護(hù)騎行者頭部免受傷害,騎行者佩戴頭盔的狀態(tài)將直接影響騎行者生命安全,具有不可替代的重要性。本研究利用先進(jìn)的計(jì)算機(jī)視覺(jué)和深度學(xué)習(xí)技術(shù),將Jetson Xavier NX平臺(tái)與YOLOv4目標(biāo)檢測(cè)算法相結(jié)合,經(jīng)過(guò)分析USB攝像頭捕捉到的實(shí)時(shí)視頻流,對(duì)騎行者佩戴頭盔的狀態(tài)進(jìn)行識(shí)別,及時(shí)發(fā)現(xiàn)和警告未佩戴頭盔的行為,以此降低騎行交通事故發(fā)生的風(fēng)險(xiǎn),保護(hù)騎行者生命安全,從而提高騎行的安全性和交通管理水平,推動(dòng)圖像識(shí)別技術(shù)在交通安全領(lǐng)域中的應(yīng)用和發(fā)展。

        1 平臺(tái)及識(shí)別算法

        1.1 Jetson Xavier NX平臺(tái)

        Jetson Xavier NX作為一款高性能的嵌入式人工智能計(jì)算平臺(tái),具有高性能的GPU和深度學(xué)習(xí)加速器,能支持復(fù)雜的圖像處理和深度學(xué)習(xí)算法,是基于YOLOv4的騎行頭盔佩戴狀態(tài)識(shí)別研究的理想硬件基礎(chǔ)?;贘etson Xavier NX平臺(tái)的應(yīng)用范圍較廣,包括但不限于智能監(jiān)控、自動(dòng)駕駛、工業(yè)視覺(jué)、智能機(jī)器人、醫(yī)療影像診斷和智能零售等,且適用于各種視覺(jué)感知和處理任務(wù)。本研究設(shè)計(jì)的系統(tǒng)通過(guò)Jetson Xavier NX平臺(tái)來(lái)完成對(duì)騎行者頭部區(qū)域?qū)崟r(shí)圖像的處理和分析,從而準(zhǔn)確判斷出騎行者是否佩戴頭盔。此外,基于Jetson Xavier NX平臺(tái)的騎行頭盔目標(biāo)識(shí)別技術(shù)還具有智能化和自動(dòng)化特點(diǎn),能完成對(duì)較多數(shù)量騎行者頭盔佩戴狀態(tài)的迅速識(shí)別,為交通管理部門和騎行活動(dòng)組織者提供了便捷的管理工具。

        英偉達(dá)的Jetson系列是在全世界內(nèi)被廣泛應(yīng)用的嵌入式計(jì)算平臺(tái),尤其在深度學(xué)習(xí)領(lǐng)域中,Jetson具有不可替代的優(yōu)勢(shì)。其中,具有高性價(jià)比特征的Jetson Xavier NX也是Jetson系列的產(chǎn)品之一,其是基于NVIDIA Xavier架構(gòu)的嵌入式人工智能計(jì)算平臺(tái)[1],具有強(qiáng)大的計(jì)算性能和豐富的深度學(xué)習(xí)加速功能,適用于各種視覺(jué)感知和處理任務(wù),包括目標(biāo)檢測(cè)、圖像分類、語(yǔ)義分割等。Jetson Xavier NX開發(fā)板的規(guī)格參數(shù)見(jiàn)表1。

        Jetson Xavier NX板是外形較小的模組系統(tǒng),所有零件均集成在一個(gè)外形較小的板子上,其在性能和功率方面具有非常突出的優(yōu)勢(shì),還配有一組輸入輸出接口[2],可為邊緣提供性能高達(dá)21TOPS的加速AI計(jì)算,非常適合在大小和功率方面受限的系統(tǒng)。Jetson Xavier NX板還搭載了NVIDIA的Volta架構(gòu)GPU,并配備了384個(gè)CUDA核心、48個(gè)Tensor核心和2個(gè)NVDLA引擎,能并行運(yùn)行較為復(fù)雜的算法神經(jīng)網(wǎng)絡(luò),既能處理從多個(gè)傳感器傳輸過(guò)來(lái)的數(shù)據(jù),還能支持復(fù)雜的深度學(xué)習(xí)模型的訓(xùn)練和推理,進(jìn)而滿足完整AI系統(tǒng)的需求,包括YOLOv4這樣被廣泛研究和使用的高效目標(biāo)檢測(cè)算法。此外,Jetson Xavier NX板具有多個(gè)攝像頭接口、HDMI、USB、以太網(wǎng)等輸入輸出接口,便于連接各種傳感器和外設(shè),實(shí)現(xiàn)在多種應(yīng)用場(chǎng)景中的圖像識(shí)別任務(wù)。Jetson Xavier NX板實(shí)物圖如圖1、圖2所示。

        本研究使用USB工業(yè)攝像頭完成對(duì)視頻的輸入,其攝像頭和USB在Jetson Xavier NX下拍攝圖像分別如圖3、圖4所示。

        1.2 YOLOv4識(shí)別算法

        本研究選擇YOLOv4作為檢測(cè)騎行頭盔佩戴狀態(tài)的識(shí)別算法。YOLOv4是被廣泛應(yīng)用于目標(biāo)檢測(cè)領(lǐng)域內(nèi)的先進(jìn)算法,具有快速、準(zhǔn)確的優(yōu)點(diǎn),在應(yīng)用方面表現(xiàn)出高效性。在具有高性能的嵌入式AI計(jì)算平臺(tái)Jetson Xavier NX上部署YOLOv4算法,能實(shí)現(xiàn)高效的實(shí)時(shí)目標(biāo)檢測(cè),為騎行安全提供可靠的保障。

        1.2.1 YOLO算法發(fā)展歷程。YOLO算法的核心是將原本的目標(biāo)檢測(cè)轉(zhuǎn)換成為一個(gè)回歸問(wèn)題,將輸入圖像當(dāng)作輸入,只需要一個(gè)神經(jīng)網(wǎng)絡(luò),就能得到待測(cè)目標(biāo)位置及其所屬的類別[3]。2016年,首次提出單階段的目標(biāo)檢測(cè)網(wǎng)絡(luò)YOLOv1,使實(shí)時(shí)檢測(cè)的要求更容易被研究者實(shí)現(xiàn),且其檢測(cè)速度非??欤旧夏軐?shí)現(xiàn)實(shí)時(shí)檢測(cè)的目的。2017年,在YOLOv1算法的基礎(chǔ)上提出了YOLOv2算法,進(jìn)一步提升算法的檢測(cè)精度和識(shí)別速度。2018年,提出了YOLOv3,首次使用殘差模型 Darknet-53,實(shí)現(xiàn)多尺度檢測(cè)。2020年,在YOLOv3目標(biāo)檢測(cè)算法架構(gòu)的基礎(chǔ)上提出了YOLOv4算法,并結(jié)合以前算法的優(yōu)勢(shì),將不同的算法加以組合,進(jìn)行優(yōu)化改進(jìn),最終在保證檢測(cè)速度的同時(shí),能有一個(gè)好的檢測(cè)精度,提高模型的準(zhǔn)確性和泛化能力[4]。此外,YOLOv4算法還采用一系列優(yōu)化策略,包括Backbone網(wǎng)絡(luò)的改進(jìn)、特征金字塔網(wǎng)絡(luò)(FPN)的引入、跨階段連接和多尺度訓(xùn)練等,使得YOLOv4算法在復(fù)雜場(chǎng)景中也能實(shí)現(xiàn)準(zhǔn)確的目標(biāo)檢測(cè)。應(yīng)用YOLOv4算法來(lái)完成騎行頭盔檢測(cè)任務(wù),能有效提高檢測(cè)的精確度和魯棒性[5]。

        1.2.2 YOLOv4算法的結(jié)構(gòu)。YOLOv4目標(biāo)檢測(cè)算法的網(wǎng)絡(luò)結(jié)構(gòu)包括輸入端、主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)、頭部網(wǎng)絡(luò)。輸入端用于輸入圖像數(shù)據(jù),圖像數(shù)據(jù)由此開始被算法進(jìn)行數(shù)據(jù)增強(qiáng)、訓(xùn)練等操作;主干網(wǎng)絡(luò)(Backbone)用于特征提取,能在典型的大型數(shù)據(jù)集上完成預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò),如Darknet53;頸部網(wǎng)絡(luò)(Neck)位于整個(gè)算法網(wǎng)絡(luò)結(jié)構(gòu)的中間部位,能增加一些用于收集不同階段中特征圖的網(wǎng)絡(luò)層,從而加強(qiáng)特征提取網(wǎng)絡(luò);頭部網(wǎng)絡(luò)[6]主要對(duì)目標(biāo)的種類和位置進(jìn)行預(yù)測(cè)。YOLOv4算法的網(wǎng)絡(luò)框架如圖5所示。

        由圖5可知,YOLOv4還包含五個(gè)基本組件,即CBM、CBL、Res unit、CSPX、SPP。其中,CBM是YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)中的最小組件,由Conv、Bn及Mish激活函數(shù)組成;CBL由Conv、Bn及Leaky_relu激活函數(shù)組成;Res unit是在多個(gè)CBM組件的基礎(chǔ)上,參考Resnet網(wǎng)絡(luò)中的殘差結(jié)構(gòu)組成的,其層層相加能使網(wǎng)絡(luò)構(gòu)建變得更深;CSPX是由三個(gè)卷積層、X個(gè)Res unint殘差組件模塊、多個(gè)CBM組件通過(guò)Concate和一個(gè)CBM組件組成的;SPP采用最大池化的方式,有利于算法對(duì)目標(biāo)檢測(cè)進(jìn)行多尺度融合[7]。

        YOLOv4算法采用的是一種單階段的檢測(cè)方式,將目標(biāo)檢測(cè)任務(wù)統(tǒng)一分為一個(gè)端到端的神經(jīng)網(wǎng)絡(luò)模型。這種設(shè)計(jì)使YOLOv4算法能在單個(gè)前向傳播進(jìn)程中并行完成目標(biāo)位置的確定和類別的劃分,大大提高檢測(cè)的速度和效率。在識(shí)別騎行頭盔佩戴狀態(tài)時(shí),實(shí)時(shí)性至關(guān)重要,而YOLOv4能滿足對(duì)騎行頭盔佩戴狀態(tài)進(jìn)行實(shí)時(shí)識(shí)別的需求。此外,YOLOv4算法還具有很強(qiáng)的通用性和靈活性,適用不同類型的目標(biāo)識(shí)別檢測(cè)任務(wù)。通過(guò)調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)設(shè)置,能很容易地將YOLOv4應(yīng)用于其他類別的目標(biāo)檢測(cè),如行人檢測(cè)、車輛檢測(cè)等,這種通用性使得本研究的成果具有更廣泛的應(yīng)用前景。

        2 實(shí)現(xiàn)步驟

        為了實(shí)現(xiàn)本研究的目標(biāo),先要制作用于騎行頭盔識(shí)別訓(xùn)練的數(shù)據(jù)集。首先,獲取一定數(shù)量含有戴頭盔和未戴頭盔兩種情況的圖片,本研究共選取1 100張圖片用來(lái)制作騎行頭盔數(shù)據(jù)集。其次,將數(shù)據(jù)集移植到Jetson Xavier NX平臺(tái)中進(jìn)行目標(biāo)識(shí)別訓(xùn)練,從而得到能精確識(shí)別騎行頭盔的模型。最后,利用這個(gè)模型對(duì)實(shí)時(shí)視頻中的騎行頭盔進(jìn)行識(shí)別,能在系統(tǒng)窗口中能顯示騎行頭盔的位置和邊界框信息?;赮OLOv4的騎行頭盔佩戴狀態(tài)識(shí)別系統(tǒng)的實(shí)現(xiàn)步驟如圖6所示。

        2.1 騎行頭盔數(shù)據(jù)集制作

        首先,要收集包含不同場(chǎng)景、不同光照條件及不同頭盔佩戴狀態(tài)的圖像數(shù)據(jù)集,本研究從網(wǎng)絡(luò)開源數(shù)據(jù)集中選取質(zhì)量較好的1 100張圖片作為訓(xùn)練集,并利用開源標(biāo)注工具Labelimg對(duì)這些圖片中的頭盔佩戴情況進(jìn)行目標(biāo)標(biāo)注,并生成對(duì)應(yīng)的標(biāo)簽文件,分為已佩戴頭盔、未佩戴頭盔及雙輪車這三類。在打標(biāo)簽過(guò)程中,識(shí)別框標(biāo)注的準(zhǔn)確性對(duì)模型訓(xùn)練成功與否起到至關(guān)重要的作用,也在極大程度上影響模型的測(cè)試評(píng)估。其次,將這1 100張圖片和對(duì)應(yīng)的標(biāo)簽文件按照8∶1∶1的比例劃分為用于訓(xùn)練、驗(yàn)證及測(cè)試的數(shù)據(jù)集。最后,將制作好的數(shù)據(jù)集及一些必要的YOLOv4算法配置文件導(dǎo)入到Jetson Xavier NX平臺(tái)內(nèi)的Darknet框架中,開始模型訓(xùn)練。

        2.2 模型優(yōu)化訓(xùn)練及應(yīng)用

        模型訓(xùn)練是整個(gè)目標(biāo)識(shí)別檢測(cè)系統(tǒng)設(shè)計(jì)中最重要的步驟之一。首先,在訓(xùn)練過(guò)程中,使用在大規(guī)模圖像數(shù)據(jù)集上預(yù)訓(xùn)練后的模型參數(shù)來(lái)初始化YOLOv4網(wǎng)絡(luò),以加速訓(xùn)練過(guò)程,并提高模型的收斂速度和性能。其次,選用名為yolov4.conv.137的YOLOv4預(yù)訓(xùn)練模型,結(jié)合該預(yù)訓(xùn)練模型和自建的騎行頭盔數(shù)據(jù)集進(jìn)行遷移學(xué)習(xí)訓(xùn)練,即在特定數(shù)據(jù)集上進(jìn)行微調(diào),使模型能更好地適應(yīng)特定的識(shí)別任務(wù)。最后,在系統(tǒng)終端輸入模型訓(xùn)練代碼,經(jīng)過(guò)一段時(shí)間的訓(xùn)練后得到具備識(shí)別騎行頭盔特征的YOLOv4模型[8]。騎行頭盔佩戴狀態(tài)識(shí)別網(wǎng)絡(luò)訓(xùn)練流程如圖7所示。

        模型訓(xùn)練完成后進(jìn)入測(cè)試階段,能直觀地檢測(cè)訓(xùn)練模型在圖像識(shí)別中的實(shí)際效果。將圖像識(shí)別代碼輸入系統(tǒng)終端后,系統(tǒng)會(huì)從攝像頭獲取實(shí)時(shí)視頻,并對(duì)其進(jìn)行實(shí)時(shí)的圖像識(shí)別。當(dāng)檢測(cè)到相應(yīng)類別的目標(biāo)后,會(huì)生成對(duì)應(yīng)類別的標(biāo)識(shí)框,終端也會(huì)實(shí)時(shí)反饋相關(guān)識(shí)別信息。然而,識(shí)別結(jié)果并不絕對(duì)準(zhǔn)確。因此,要不斷地通過(guò)篩選高質(zhì)量的訓(xùn)練圖像及調(diào)試相關(guān)訓(xùn)練參數(shù)來(lái)提高模型的性能和圖像識(shí)別的準(zhǔn)確率。

        3 實(shí)現(xiàn)效果

        3.1 模型性能

        本研究對(duì)圖像識(shí)別模型的訓(xùn)練較為簡(jiǎn)練,便于操作。先進(jìn)入Jetson Xavier NX平臺(tái)的系統(tǒng)終端,輸入并運(yùn)行一行包含有數(shù)據(jù)集路徑信息的Darknet模型訓(xùn)練代碼,即可開始模型的優(yōu)化訓(xùn)練,最后生成用于評(píng)估模型性能的圖片,包含模型訓(xùn)練過(guò)程的loss損失曲線、mAP%平均精確度變化曲線,并實(shí)時(shí)顯示loss值及剩余的訓(xùn)練時(shí)間,有利于操作者觀察整個(gè)模型訓(xùn)練過(guò)程中的細(xì)節(jié),從而掌握整個(gè)騎行頭盔佩戴狀態(tài)識(shí)別模型訓(xùn)練過(guò)程中的相關(guān)特征信息。其中,loss參數(shù)用于衡量模型在訓(xùn)練過(guò)程中的性能表現(xiàn),是通過(guò)計(jì)算模型預(yù)測(cè)得到的標(biāo)識(shí)框位置和識(shí)別類型等數(shù)據(jù)與實(shí)際情況下的標(biāo)簽數(shù)據(jù)之間的差異而得到的;mAP參數(shù)是一種用于評(píng)估目標(biāo)檢測(cè)模型性能的指標(biāo),綜合考慮了模型在不同類別上的精確度,是目標(biāo)檢測(cè)任務(wù)中的重要評(píng)價(jià)指標(biāo)之一。

        訓(xùn)練模型過(guò)程中各類參數(shù)的變化情況如圖8所示。該模型是在最大迭代次數(shù)為6 000次、數(shù)據(jù)集圖片數(shù)量為1 100張的基礎(chǔ)上訓(xùn)練得到的,該模型的loss損失值降到了3.427 5,mAP%平均精確度均值為80%,訓(xùn)練效果良好。

        準(zhǔn)確率是衡量算法在識(shí)別目標(biāo)時(shí)所取得的正確率[9]。在訓(xùn)練模型后,得到的平均精確率的均值(mAP)為80%,這表明本研究設(shè)計(jì)的騎行頭盔佩戴狀態(tài)識(shí)別系統(tǒng)在頭盔識(shí)別任務(wù)有著相當(dāng)高的準(zhǔn)確性,這也意味著該系統(tǒng)在對(duì)騎行頭盔進(jìn)行識(shí)別時(shí)具有很高的精確度,系統(tǒng)能準(zhǔn)確地判別出騎行者的頭盔佩戴情況,并實(shí)時(shí)發(fā)出警告或采取措施來(lái)保障騎行者的生命安全。此外,較高的mAP值還能反映出系統(tǒng)在識(shí)別騎行頭盔佩戴狀態(tài)方面的穩(wěn)健性和魯棒性,在不同場(chǎng)景、光照條件下,系統(tǒng)都能保持高水平的識(shí)別性能,這對(duì)應(yīng)對(duì)實(shí)際騎行環(huán)境中的各種挑戰(zhàn)至關(guān)重要。

        3.2 系統(tǒng)的戶外識(shí)別效果

        基于YOLOv4的騎行頭盔佩戴狀態(tài)識(shí)別系統(tǒng)在戶外對(duì)騎行頭盔佩戴狀態(tài)的識(shí)別效果如圖9至圖12所示。系統(tǒng)對(duì)圖中騎行者頭部已戴頭盔、頭部未戴頭盔、雙輪車均能實(shí)現(xiàn)有效識(shí)別顯示。由此可知,在正常的天氣環(huán)境中,本研究設(shè)計(jì)的系統(tǒng)對(duì)騎行者頭盔佩戴狀態(tài)的識(shí)別效果較好,不管是在人數(shù)較少的情況下,還是人數(shù)較多的情況下,漏檢概率和虛警概率都很低,且在具有較強(qiáng)迷惑性的背景下也能保持較高的識(shí)別準(zhǔn)確度,能對(duì)騎行頭盔佩戴情況進(jìn)行準(zhǔn)確識(shí)別判斷。

        騎行過(guò)程中可能會(huì)面臨各種復(fù)雜的環(huán)境,如不同天氣條件、光線強(qiáng)度變化等。所以,本研究分別在陽(yáng)光、樹蔭及陰天這三種環(huán)境下對(duì)騎行頭盔佩戴狀態(tài)進(jìn)行測(cè)試識(shí)別,每種環(huán)境均分為了包含4個(gè)左右的騎行頭盔和包含10個(gè)左右的騎行頭盔兩類,每一類均有20張用于識(shí)別的圖片,實(shí)現(xiàn)效果見(jiàn)表2。通過(guò)對(duì)比可知,不同天氣條件及光線強(qiáng)度在一定程度上能影響識(shí)別效果,會(huì)導(dǎo)致漏檢概率升高,且識(shí)別效果隨著識(shí)別對(duì)象個(gè)數(shù)的增加而呈遞減趨勢(shì),即漏檢概率隨著識(shí)別對(duì)象個(gè)數(shù)的增加而增加。然而,相比于漏檢概率,不同環(huán)境中的系統(tǒng)虛警概率變化浮動(dòng)很小,且受天氣條件和光照強(qiáng)度的影響較小,導(dǎo)致虛檢的主要原因是行人干擾,其次是一些非常類似于頭盔的物品易導(dǎo)致虛檢發(fā)生。此外,通過(guò)觀察識(shí)別結(jié)果圖片可知,漏檢才是影響識(shí)別效果的主要因素,虛檢個(gè)數(shù)比漏檢個(gè)數(shù)要少得多。

        本研究設(shè)計(jì)的基于YOLOv4的騎行頭盔佩戴狀態(tài)識(shí)別系統(tǒng)在光照條件差、背景模糊、目標(biāo)受遮擋等情況下容易出現(xiàn)漏檢和虛檢,但總體上平均準(zhǔn)確率為80%。由此可知,本研究設(shè)計(jì)的基于YOLOv4的騎行頭盔佩戴狀態(tài)識(shí)別系統(tǒng)對(duì)不同場(chǎng)景和光照條件的適應(yīng)能力較強(qiáng)。

        4 結(jié)語(yǔ)

        本研究驗(yàn)證了在Jetson Xavier NX平臺(tái)上運(yùn)行YOLOv4目標(biāo)檢測(cè)算法的可行性。通過(guò)充分利用該平臺(tái)的高性能計(jì)算能力,成功地在實(shí)時(shí)視頻流中完成了對(duì)騎行頭盔佩戴情況的高效檢測(cè),為該技術(shù)應(yīng)用于嵌入式系統(tǒng)和移動(dòng)設(shè)備奠定了堅(jiān)實(shí)的基礎(chǔ)。本研究詳細(xì)分析了該系統(tǒng)在不同場(chǎng)景和光照條件下的系統(tǒng)性能,通過(guò)實(shí)地測(cè)試,發(fā)現(xiàn)系統(tǒng)在各種實(shí)際環(huán)境中均表現(xiàn)出色,平均精確度為80%,具有出色的魯棒性和適應(yīng)性,這為在城市或鄉(xiāng)村、白天或夜晚等多變條件下實(shí)現(xiàn)可靠的騎行頭盔檢測(cè)提供了可靠的技術(shù)支持。

        綜上所述,本研究為基于Jetson Xavier NX開發(fā)板的YOLOv4騎行頭盔檢測(cè)提供了強(qiáng)有力的實(shí)證支持,為實(shí)際應(yīng)用和未來(lái)研究提供了有益的參考和啟示。

        參考文獻(xiàn):

        [1]KORTLI Y,GABSI S,VOON" L,et al. Deep embedded hybrid CNN-LSTM network for lane detection on NVIDIA Jetson Xavier NX[J]. Knowledge-Based Systems,2022,240:107941.

        [2]LOONE C M.Smart camera series features nvidia jetson xavier nx som[J].Vision Systems Design,2021,26(4):52-52.

        [3]單志勇,張鐘月.基于改進(jìn)Faster R-CNN算法的行人檢測(cè)[J].現(xiàn)代計(jì)算機(jī),2021,27(23):124-128.

        [4]宣勇,韓超,沙文瀚.改進(jìn)的TinyYOLOv4算法及其在行人檢測(cè)中的應(yīng)用[J].激光與光電子學(xué)進(jìn)展,2022,59(12):256-263.

        [5]余晨晨.改進(jìn)的YOLOv4頭盔佩戴目標(biāo)檢測(cè)研究[J].沈陽(yáng)工程學(xué)院學(xué)報(bào)(自然科學(xué)版),2024,20(1):75-81.

        [6]張海軍,董麗.基于局部交叉時(shí)空信息與卷積神經(jīng)網(wǎng)絡(luò)的視頻人群計(jì)數(shù)方法:CN202210004146.8[P].2022-04-15.

        [7]羅天,柴真琦,李漢秋.人流量檢測(cè)及口罩佩戴檢測(cè)在樓宇節(jié)能與安防中的應(yīng)用[J].科技風(fēng),2021(24):103-105,123.

        [8]常青,韓文,王清華等.改進(jìn)YOLO輕量化網(wǎng)絡(luò)的行人檢測(cè)算法[J].光學(xué)技術(shù),2022,48(1):80-85.

        [9]姚沖,鄧在輝.基于Jetson,Nano和改進(jìn)YOLOv7算法的安全帽佩戴目標(biāo)檢測(cè)技術(shù)分析[J].電子技術(shù),2024,53(1):304-307.

        欧美性猛交xxxx富婆| 美女一区二区三区在线视频| 日韩一级黄色片一区二区三区 | 欧美日韩精品一区二区在线视频| 亚洲九九九| 国产一区二区不卡av| 男女肉粗暴进来动态图| 日本成本人三级在线观看| 97日日碰日日摸日日澡| 成年女人18毛片观看| 美女露出粉嫩小奶头在视频18禁| 国产成人av片在线观看| 欧美日本道免费二区三区| 中文字幕亚洲中文第一| 久久精品夜色噜噜亚洲a∨| 中国丰满熟妇xxxx| 国产精品丝袜美女在线观看| 日本久久视频在线观看| 久久99精品久久久久久噜噜 | 99精品一区二区三区免费视频| 日本中出熟女一区二区| 三级黄色片免费久久久| 中文字幕精品久久久久人妻红杏ⅰ| 久久91综合国产91久久精品| 亚洲小少妇一区二区三区| 国产精品久久久久久久久电影网 | 91制服丝袜| 一本久道视频无线视频试看 | 中日韩字幕中文字幕一区| 华人在线视频精品在线| 狠狠躁天天躁中文字幕| 亞洲綜合一區二區三區無碼| 久久国产精品懂色av| 人妻少妇-嫩草影院| 99精品国产综合久久久久五月天| 国产思思久99久精品| 国产天堂av在线播放资源| 国产精品理论片| 久久天天躁狠狠躁夜夜2020!| 久久精品亚洲成在人线av| 国产成a人亚洲精品无码樱花|