亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于FastestDet的多目標(biāo)靶定位方法

        2024-09-21 00:00:00易磊易雅雯
        現(xiàn)代電子技術(shù) 2024年16期
        關(guān)鍵詞:靶心實(shí)時(shí)性靶標(biāo)

        摘" 要: 為解決無人機(jī)在自動(dòng)多目標(biāo)靶定位領(lǐng)域計(jì)算資源有限、實(shí)時(shí)性要求高、定位準(zhǔn)確率有限等問題,提出一種基于FastestDet的多目標(biāo)靶定位方法。首先,通過輕量級(jí)目標(biāo)檢測(cè)算法(FastestDet算法)實(shí)現(xiàn)目標(biāo)靶檢測(cè);其次,對(duì)所獲得的目標(biāo)靶圖像進(jìn)行透視變換,并截取僅含目標(biāo)靶的透視變換圖像;再對(duì)圖像進(jìn)行去噪、灰度化等處理,通過輪廓檢測(cè)獲得目標(biāo)靶心圓輪廓后,計(jì)算透視變換后的靶心坐標(biāo);最后,通過逆變換計(jì)算原采集圖像實(shí)際目標(biāo)靶心坐標(biāo)。實(shí)驗(yàn)結(jié)果表明:所提方法采用的目標(biāo)檢測(cè)算法網(wǎng)絡(luò)參數(shù)最小,單張圖像處理時(shí)間最短,占用計(jì)算資源少,實(shí)時(shí)性高,識(shí)別準(zhǔn)確率達(dá)到90.4%,目標(biāo)靶識(shí)別準(zhǔn)確率較高;與其他方法相比,該方法的綜合定位誤差最大可降低92.09%,定位準(zhǔn)確率高,可行性強(qiáng)。

        關(guān)鍵詞: 無人機(jī); 目標(biāo)靶定位; FastestDet算法; 目標(biāo)檢測(cè); 透視變換; 輪廓檢測(cè)

        中圖分類號(hào): TN820.4?34; TP271+.5" " " " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " 文章編號(hào): 1004?373X(2024)16?0097?06

        Method of multi?target precision positioning based on FastestDet

        YI Lei, YI Yawen

        (School of Electrical amp; Electronic Engineering, Huazhong University of Science and Technology, Wuhan 430074, China)

        Abstract: In order to solve the problems of limited computing resources, high real?time requirements, and limited positioning accuracy of UAVs in the field of automatic multi?target precision positioning, a multi?target precision positioning method based on FastestDet is proposed. The target detection is realized by means of the lightweight target detection algorithm?(FastestDet algorithm). The perspective transformation is conducted on the obtained target image and the perspective transformation image containing only the target image is captured. The denoising, grayscale processing, etc. are performed on the image to obtain the target center circle contour by means of the contour detection, and calculate the target center coordinates after perspective transformation. The actual target center coordinates of the original captured image are calculated by means of the inverse transformation. The experimental results show that the target detection algorithm used by the proposed method has the smallest network parameter, the shortest single image processing time, less computing resources, high real?time performance, and a recognition accuracy of 90.4%. The target recognition accuracy is relatively high. In comparison with other methods, this method can reduce the maximum error of comprehensive positioning by 92.09%, and has high positioning accuracy and strong feasibility.

        Keywords: unmanned aerial vehicles; target precision positioning; FastestDet algorithm; target detection; perspective transformation; contour detection

        0" 引" 言

        無人機(jī)具有快速響應(yīng)以及精確打擊等優(yōu)點(diǎn),在軍事等領(lǐng)域的相關(guān)技術(shù)已成為研究熱點(diǎn)。其中,靶標(biāo)識(shí)別技術(shù)是軍事訓(xùn)練中一種必不可少的技術(shù),可以通過其進(jìn)行打靶訓(xùn)練、監(jiān)控邊境安全、搜尋救援目標(biāo)等任務(wù),為人類提供更安全、高效的服務(wù)。目前,靶標(biāo)識(shí)別技術(shù)領(lǐng)域已有大量研究。

        當(dāng)前研究主要包括基于激波技術(shù)[1?3]、紅外熱成像技術(shù)[4?5]以及計(jì)算機(jī)視覺技術(shù)[6?8]的靶標(biāo)識(shí)別。其中,激波技術(shù)與紅外熱成像技術(shù)較為復(fù)雜,常用于夜間或天氣條件惡劣的情況,且成本較高;計(jì)算機(jī)視覺技術(shù)通過使用計(jì)算機(jī)算法,如圖像處理、機(jī)器學(xué)習(xí)等獲取特定信息來實(shí)現(xiàn)靶標(biāo)的識(shí)別,具有成本低、高效、實(shí)時(shí)性強(qiáng)等特點(diǎn),是當(dāng)前的研究熱點(diǎn)。文獻(xiàn)[9]中使用樹莓派結(jié)合圖像識(shí)別技術(shù)實(shí)現(xiàn)智能靶標(biāo)識(shí)別,獲得了較為精確的靶標(biāo)識(shí)別效果,但是傳統(tǒng)圖像處理方法無法實(shí)時(shí)跟蹤靶標(biāo)?;诖?,文獻(xiàn)[10]中設(shè)計(jì)一個(gè)基于YOLOv5n的目標(biāo)檢測(cè)算法,實(shí)現(xiàn)了靶面目標(biāo)檢測(cè)及跟蹤,進(jìn)而實(shí)現(xiàn)了具有自動(dòng)追蹤靶標(biāo)功能的精確靶標(biāo)識(shí)別;同時(shí)其采用改進(jìn)霍夫圓檢測(cè)方法來確定靶環(huán),獲得了較為準(zhǔn)確的靶環(huán)。但是該方法對(duì)噪聲較為敏感,且實(shí)際圖像中靶標(biāo)形狀常常不為規(guī)則圓形。上述文獻(xiàn)研究對(duì)象均為固定單目標(biāo)靶,未考慮實(shí)際運(yùn)用中存在多種目標(biāo)靶的情況,以及在無人機(jī)行進(jìn)過程中環(huán)境復(fù)雜導(dǎo)致定位難度較大的問題。

        針對(duì)無人機(jī)硬件處理單元資源緊缺的問題,以及其對(duì)實(shí)時(shí)性的高要求,本文提出一種基于FastestDet的多目標(biāo)靶定位方法。首先,通過輕量級(jí)目標(biāo)檢測(cè)算法(FastestDet算法)實(shí)現(xiàn)目標(biāo)靶檢測(cè);獲得目標(biāo)靶坐標(biāo)后對(duì)其進(jìn)行透視變換,并截取僅含目標(biāo)靶的透視變換圖像;進(jìn)而對(duì)圖像進(jìn)行去噪、灰度化等處理和輪廓檢測(cè),獲得滿足條件的目標(biāo)靶心圓輪廓,計(jì)算透視變換后的靶心坐標(biāo);最終,通過逆變換計(jì)算在原圖像中的實(shí)際靶心坐標(biāo)。該多目標(biāo)靶定位算法實(shí)現(xiàn)了對(duì)靶心坐標(biāo)的精準(zhǔn)求解,在節(jié)省資源的同時(shí)提升了定位效率,具有高效性、實(shí)時(shí)性及較好的魯棒性。

        1" 多目標(biāo)靶定位技術(shù)

        1.1" FastestDet算法

        常見的目標(biāo)檢測(cè)算法如YOLO系列 [11]算法檢測(cè)精度高,但是網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,模型參數(shù)量大,占用大量計(jì)算資源;且運(yùn)行時(shí)間長(zhǎng),難以滿足復(fù)雜環(huán)境中的無人機(jī)運(yùn)行實(shí)時(shí)性要求?;谏鲜鰡栴},本文引入FastestDet輕量級(jí)目標(biāo)檢測(cè)算法[12],實(shí)現(xiàn)對(duì)目標(biāo)靶的識(shí)別。該算法針對(duì)無人機(jī)通常使用的計(jì)算資源緊缺的ARM平臺(tái)進(jìn)行設(shè)計(jì),在有效降低網(wǎng)絡(luò)參數(shù)大小與運(yùn)行時(shí)間的同時(shí),保證了較高的目標(biāo)靶檢測(cè)精度。

        FastestDet算法對(duì)原YOLO網(wǎng)絡(luò)進(jìn)行優(yōu)化,模型結(jié)構(gòu)如圖1所示。

        具體而言,F(xiàn)astestDet算法采用5×5分組卷積并行網(wǎng)絡(luò)結(jié)構(gòu),融合不同感受野特征,通過單輕量化檢測(cè)頭自適應(yīng)地對(duì)不同尺寸物體進(jìn)行檢測(cè)。同時(shí),該算法采用無錨算法,直接回歸目標(biāo)的位置與尺寸,有利于簡(jiǎn)化模型處理。除此之外,該算法采用跨網(wǎng)格多候選目標(biāo)的方法,將圖像中心點(diǎn)所在網(wǎng)格當(dāng)作候選目標(biāo)的同時(shí)計(jì)入相鄰三個(gè)網(wǎng)格,從而增加正樣本候選框數(shù)量。在模型訓(xùn)練過程中,該算法采用動(dòng)態(tài)正負(fù)樣本分配方法,具有自適應(yīng)動(dòng)態(tài)效果。為了降低數(shù)據(jù)增強(qiáng)復(fù)雜度,保證模型輕量級(jí)特性,其也可以采用簡(jiǎn)單的數(shù)據(jù)增強(qiáng)方法,如隨機(jī)平移與縮放等。

        針對(duì)本文的多目標(biāo)靶檢測(cè),F(xiàn)astestDet使用分組并行的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)提取目標(biāo)靶數(shù)據(jù)集中各樣本特征,并據(jù)此使用分類方法支持向量機(jī)(Support Vector Machine, SVM)分類不同靶標(biāo)。關(guān)鍵計(jì)算公式如下。

        卷積層運(yùn)算公式為:

        [Yij=m=0P-1n=0Q-1k=1K-1X(iL+m),(jL+n),k?Am,n,k+B] (1)

        式中:[Yij]表示輸出特征圖坐標(biāo)為(i,j)的像素值;K表示輸入特征圖的通道數(shù);P與Q表示卷積核的高與寬;[X(iL+m),(jL+n),k]為輸入特征圖處于((iL+m),(jL+n))坐標(biāo)的第k個(gè)通道對(duì)應(yīng)的像素值;L代表卷積步長(zhǎng);[Am,n,k]為坐標(biāo)為(m,n)的第k個(gè)通道對(duì)應(yīng)的像素值;B表示偏置值。

        支持向量機(jī)對(duì)不同靶標(biāo)進(jìn)行分類的公式為:

        [f(a)=sgni=1NωiλiM(a,ai)+bias] (2)

        式中:[f(a)]表示輸入目標(biāo)靶圖像樣本a的預(yù)測(cè)標(biāo)簽;[ωi]表示拉格朗日乘子;[λi]表示支持向量乘子;[M(a,ai)]表示核函數(shù)運(yùn)算;bias為偏置值。

        1.2" 透視變換

        本文所采集圖像中的目標(biāo)靶非正投影,難以直接識(shí)別靶心坐標(biāo),因此引入透視變換對(duì)采集圖像中的目標(biāo)靶圖像進(jìn)行校正,以獲得目標(biāo)靶正投影圖像,便于后續(xù)處理。透視變換[13]基本原理如圖2所示。

        對(duì)目標(biāo)靶圖像變換的步驟如下。

        確定變換前后的4個(gè)對(duì)應(yīng)點(diǎn):選擇變換前采集圖像中通過目標(biāo)檢測(cè)所得目標(biāo)靶所處位置框4個(gè)頂點(diǎn)[(x1,y1)]、[(x2,y2)]、[(x3,y3)]、[(x4,y4)],期望變換平面中的4個(gè)頂點(diǎn)[(x′1,y′1)]、[(x′2,y′2)]、[(x′3,y′3)]、[(x′4,y′4)]。

        假設(shè)透視變換矩陣為M,則M可表示為:

        [M=a11a12a13a21a22a23a31a32a33] (3)

        M計(jì)算公式為:

        [x′1=a11x1+a21y1+a31a13x1+a23y1+1y′1=a12x1+a22y1+a32a13x1+a23y1+1," "x′2=a11x2+a21y2+a31a13x2+a23y2+1y′2=a12x2+a22y2+a32a13x2+a23y2+1x′3=a11x3+a21y3+a31a13x3+a23y3+1y′3=a12x3+a22y3+a32a13x3+a23y3+1," "x′4=a11x4+a21y4+a31a13x4+a23y4+1y′4=a12x4+a22y4+a32a13x4+a23y4+1] (4)

        式中:[a33]為1;其余8個(gè)變量為未知變量。

        計(jì)算透視變換后像素點(diǎn)坐標(biāo):假設(shè)原始圖像像素坐標(biāo)為(u,v,w),變換后對(duì)應(yīng)像素點(diǎn)坐標(biāo)為(x,y,z)。透視變換公式為:

        [xyz=uvw?M=uvw?a11a12a13a21a22a23a31a32a33] (5)

        1.3" 輪廓檢測(cè)

        經(jīng)過透視變換后的目標(biāo)靶圖像噪點(diǎn)較多,同時(shí)檢測(cè)實(shí)時(shí)性要求高,因此本文引入輪廓檢測(cè)技術(shù),保證精確提取目標(biāo)輪廓的同時(shí)縮短運(yùn)行時(shí)間。輪廓檢測(cè)主要步驟如下。

        首先,載入目標(biāo)靶圖像并進(jìn)行高斯濾波與灰度化后,使用THRESH_BINARY方法進(jìn)行二值化處理:

        [dst(x,y)=maxval," "src(x,y)gt;thresh0," " " " " " " otherwise] (6)

        式中:[dst(x,y)]為二值化后圖像像素點(diǎn)坐標(biāo);[src(x,y)]為原圖像像素點(diǎn)坐標(biāo);maxval為二值化最大閾值;thresh為二值化最小閾值。

        其次,基于上述二值化圖像,使用RETR_CCOMP算法多層次分割二值化圖像,快速檢測(cè)其中外部及內(nèi)部空洞輪廓。最終,根據(jù)特定面積條件篩選輪廓,并據(jù)此提取目標(biāo)靶中心最內(nèi)環(huán)輪廓。

        [100lt;arealt;6 000100lt;center_xlt;30030lt;center_ylt;360N′=1] (7)

        式中:area為封閉輪廓所圍的面積;center_x為目標(biāo)靶心橫坐標(biāo);center_y為目標(biāo)靶心縱坐標(biāo);[N′]為目標(biāo)輪廓個(gè)數(shù)。

        2" 基于FastestDet的多目標(biāo)靶定位方法

        針對(duì)無人機(jī)運(yùn)行環(huán)境復(fù)雜導(dǎo)致目標(biāo)靶識(shí)別困難、實(shí)際環(huán)境中目標(biāo)靶類型多樣、硬件平臺(tái)常使用樹莓派等計(jì)算資源有限的ARM平臺(tái),以及無人機(jī)實(shí)時(shí)性要求較高的問題,本文提出一種基于FastestDet的多目標(biāo)靶定位方法,該方法的具體實(shí)現(xiàn)步驟如下。

        1) 采集圖像并利用輕量級(jí)目標(biāo)檢測(cè)算法(FastestDet)來確定目標(biāo)靶種類,定位目標(biāo)靶所在方位,依據(jù)初步定位方位在原采集圖像中框出目標(biāo)靶。

        2) 將原圖像中目標(biāo)靶透視變換成大小為400×400的校正圖像,并截取該校正目標(biāo)靶圖像。

        3) 對(duì)校正圖像進(jìn)行高斯濾波、灰度化、二值化等傳統(tǒng)圖像處理,此時(shí)二值化處理根據(jù)所識(shí)別的目標(biāo)靶種類自適應(yīng)設(shè)置二值化閾值。

        4) 對(duì)二值化圖像進(jìn)行輪廓檢測(cè),根據(jù)特定條件提取目標(biāo)靶內(nèi)環(huán)輪廓,進(jìn)而求解變換后的目標(biāo)靶心坐標(biāo)。

        5) 根據(jù)透視變換矩陣對(duì)初步求解靶心坐標(biāo)進(jìn)行逆變換,最終獲取原采集圖像中的目標(biāo)靶靶心坐標(biāo)。

        本文方法整體流程如圖3所示。

        3" 實(shí)驗(yàn)與結(jié)果分析

        3.1" 實(shí)驗(yàn)平臺(tái)

        目前在靶標(biāo)識(shí)別領(lǐng)域并無合適公開數(shù)據(jù)集,因此本實(shí)驗(yàn)通過實(shí)地采集構(gòu)建靶標(biāo)數(shù)據(jù)集,包括紅色、綠色、紫色三種靶標(biāo)各80張圖像,共240張圖像。使用軟件Labelimg對(duì)該數(shù)據(jù)集打標(biāo)簽,每一張圖像對(duì)應(yīng)生成一個(gè)標(biāo)簽坐標(biāo)文件。整理上述圖像與對(duì)應(yīng)坐標(biāo)文件,構(gòu)成實(shí)際實(shí)驗(yàn)中使用的數(shù)據(jù)集。該數(shù)據(jù)集按訓(xùn)練集∶驗(yàn)證集∶測(cè)試集=8∶1∶1進(jìn)行劃分。

        本實(shí)驗(yàn)使用英特爾 i7?8850H CPU 和NVIDIA Quadro P1000 GPU進(jìn)行模型訓(xùn)練,并使用CUDA11.2對(duì)GPU加速。目標(biāo)靶定位硬件平臺(tái)為樹莓派4B ARM Cortex?A72 1.5 GHz CPU。模型訓(xùn)練所用軟件平臺(tái)為基于Python 3.9的PyTorch框架。軟件平臺(tái)主要安裝庫及版本信息如表1所示。

        3.2" 模型參數(shù)設(shè)置

        本實(shí)驗(yàn)中FastestDet模型參數(shù)設(shè)置如表2所示。

        3.3" 評(píng)價(jià)指標(biāo)

        在評(píng)價(jià)目標(biāo)檢測(cè)模型時(shí),評(píng)價(jià)指標(biāo)為多個(gè)類別平均精度均值(mAP)[14]、運(yùn)行時(shí)間與參數(shù)大小。mAP的公式為:

        [mAP=1Ni=1NAPi] (8)

        式中:N表示分類類別數(shù)量;AP表示某個(gè)目標(biāo)類別的平均精度。

        在進(jìn)行靶心坐標(biāo)定位時(shí),評(píng)價(jià)指標(biāo)為水平定位誤差(Horizontal Position Error, HPE)、垂直定位誤差(Vertical Position Error, VPE)以及綜合定位誤差(Position Error, PE),計(jì)算公式如下:

        [HPE=xm-xa] (9)

        [VPE=ym-ya] (10)

        [PE=HPE2+VPE2] (11)

        式中:[xm]為測(cè)量水平坐標(biāo)值;[xa]為實(shí)際水平坐標(biāo)值;[ym]為測(cè)量垂直坐標(biāo)值;[ya]為實(shí)際垂直坐標(biāo)值。

        3.4" 實(shí)驗(yàn)結(jié)果分析

        3.4.1" 目標(biāo)檢測(cè)算法分析

        實(shí)驗(yàn)使用FastestDet模型對(duì)訓(xùn)練集進(jìn)行訓(xùn)練,訓(xùn)練過程的損失曲線如圖4所示。由圖4可知,當(dāng)?shù)螖?shù)達(dá)到200時(shí)模型開始收斂,收斂速度較快,且收斂誤差較小,表明FastestDet模型效果良好。

        為了驗(yàn)證FastestDet模型的優(yōu)越性,將FastestDet模型與其他相關(guān)目標(biāo)檢測(cè)模型進(jìn)行對(duì)比,對(duì)比結(jié)果如表3所示。

        為了直觀展示不同模型對(duì)比效果,并以各評(píng)價(jià)指標(biāo)的最大值為基值對(duì)各值歸一化,繪制如圖5a)所示雷達(dá)圖;為了突出FastestDet與YOLO?fastestv1.1與YOLO?fastestv2的對(duì)比,單獨(dú)繪制如圖5b)所示雷達(dá)圖。

        由表3與圖5可得,與YOLOv5s與YOLOv6n相比,本文所使用的FastestDet算法雖然mAP存在一定程度降低,但仍保持較高水平,同時(shí)其運(yùn)行時(shí)間與參數(shù)大小都有顯著降低。具體而言,與YOLOv5s相比,F(xiàn)astestDet運(yùn)行時(shí)間降低94.2%,參數(shù)大小降低96.7%;與YOLOv6n相比,運(yùn)行時(shí)間降低79.3%,參數(shù)大小降低94.4%,適用于本文無人機(jī)所用計(jì)算機(jī)資源有限的硬件平臺(tái)。與YOLO?fastest系列輕量級(jí)目標(biāo)檢測(cè)算法相比,F(xiàn)astestDet算法運(yùn)行時(shí)間與參數(shù)大小均有所降低,與YOLO?fastestv1.1相比,分別降低15.9%與31.4%,同時(shí)mAP提高了7.4%;與YOLO?fastestv2相比,分別降低6.0%和4.0%,同時(shí)mAP提高了3.3%。上述對(duì)比表明本文所采用的FastestDet算法有效提高了目標(biāo)靶檢測(cè)實(shí)時(shí)性、輕量性以及準(zhǔn)確性,相較其他目標(biāo)檢測(cè)算法具有一定優(yōu)越性。

        3.4.2" 多目標(biāo)靶定位方法分析

        通過目標(biāo)檢測(cè)算法獲取目標(biāo)靶方位后,對(duì)圖像進(jìn)行透視變換并截取。以測(cè)試集中的3幅不同種類目標(biāo)靶圖像為例,進(jìn)行透視變換后的圖像如圖6所示。

        高斯濾波、灰度化與二值化處理結(jié)果如圖7所示。

        對(duì)圖像進(jìn)行輪廓檢測(cè)的結(jié)果如圖8所示。

        最終,得到透視變換的靶心坐標(biāo)后對(duì)其進(jìn)行逆變換,可獲得原采集圖像中的靶心坐標(biāo),結(jié)果如圖9所示。

        為了證明本文所提方法的有效性與優(yōu)越性,嚴(yán)格控制變量,保證目標(biāo)檢測(cè)算法FastestDet參數(shù)一致,使用測(cè)試集進(jìn)行實(shí)驗(yàn),并對(duì)比三種不同方法對(duì)目標(biāo)靶靶心定位的效果,如表4所示。

        為了直觀展示不同方法的對(duì)比結(jié)果,繪制直方圖,如圖10所示。

        由表4和圖10可得,本文提出的FastestDet結(jié)合輪廓檢測(cè)方法與直接使用FastestDet相比,靶心定位誤差顯著降低,水平誤差(HPE)降低93.06%,垂直定位誤差(VPE)降低77.67%,綜合定位誤差(PE)降低92.09%;與FastestDet結(jié)合霍夫圓檢測(cè)方法相比,水平誤差(HPE)均保持較低水平,垂直定位誤差(VPE)降低76.33%,綜合定位誤差(PE)降低53.63%。綜上所述,本文提出的多目標(biāo)靶定位方法定位準(zhǔn)確率高,具有一定的優(yōu)越性。

        4" 結(jié)" 論

        針對(duì)無人機(jī)目標(biāo)靶定位領(lǐng)域硬件平臺(tái)計(jì)算資源有限、實(shí)時(shí)性要求高、準(zhǔn)確率要求高等問題,本文提出一種基于FastestDet的多目標(biāo)靶定位方法,主要結(jié)論如下。

        1) 基于輕量級(jí)目標(biāo)檢測(cè)算法(FastestDet),與其他目標(biāo)檢測(cè)算法相比,在保證高準(zhǔn)確率的情況下,網(wǎng)絡(luò)參數(shù)大小和單張圖像處理時(shí)間均有所降低,有效解決了硬件平臺(tái)計(jì)算資源有限的問題,同時(shí)保證了多目標(biāo)靶檢測(cè)的高實(shí)時(shí)性。

        2) FastestDet結(jié)合輪廓檢測(cè)方法定位目標(biāo)靶心的綜合定位誤差與僅使用FastestDet相比降低92.09%,與FastestDet結(jié)合霍夫圓檢測(cè)方法相比降低53.63%,有效降低了定位誤差,提升了定位精度。

        本文提出的多目標(biāo)靶定位方法實(shí)時(shí)性較高,且占用計(jì)算資源小,有效保證了模型的輕量性,但是其檢測(cè)與定位的準(zhǔn)確率仍有待提升。后續(xù)工作將致力于在保證前述優(yōu)點(diǎn)的同時(shí)優(yōu)化目標(biāo)檢測(cè)模型結(jié)構(gòu)與結(jié)合方法,進(jìn)一步提升目標(biāo)靶檢測(cè)與定位的準(zhǔn)確率。

        注:本文通訊作者為易磊。

        參考文獻(xiàn)

        [1] 彭曉云,索雪松,閆世杰.激波傳感器T型排列的智能檢測(cè)報(bào)靶系統(tǒng)[J].自動(dòng)化技術(shù)與應(yīng)用,2023,42(10):10?14.

        [2] 徐靖?jìng)?一種基于激波定位的自動(dòng)報(bào)靶系統(tǒng)研制[D].青島:青島科技大學(xué),2022.

        [3] 曹冬月.基于彈丸激波的仿人形立體靶標(biāo)自動(dòng)報(bào)靶系統(tǒng)研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2021.

        [4] 王浩,王勁松,高奔,等.基于近紅外圖像的自動(dòng)報(bào)靶方法研究[J].長(zhǎng)春理工大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,46(2):55?62.

        [5] 王奇,劉廣文,王勁松.一種基于紅外圖像的彈孔識(shí)別方法[J].長(zhǎng)春理工大學(xué)學(xué)報(bào)(自然科學(xué)版),2020,43(6):89?94.

        [6] 張泉斌.基于機(jī)器視覺的自動(dòng)報(bào)靶系統(tǒng)設(shè)計(jì)與關(guān)鍵技術(shù)研究[D].蘭州:蘭州大學(xué),2020.

        [7] 林木泉,陳逸凡,林千龍.基于opencv的激光打靶自動(dòng)報(bào)靶系統(tǒng)設(shè)計(jì)[J].信息技術(shù)與信息化,2021(10):7?9.

        [8] 李釗.基于三維機(jī)器視覺的自動(dòng)報(bào)靶系統(tǒng)[D].濟(jì)南:山東大學(xué),2023.

        [9] 王會(huì)月.圖像識(shí)別技術(shù)在智能報(bào)靶中的應(yīng)用與研究[D].保定:華北電力大學(xué),2020.

        [10] 韓恒.基于目標(biāo)檢測(cè)的智能報(bào)靶系統(tǒng)研究與實(shí)現(xiàn)[D].揚(yáng)州:揚(yáng)州大學(xué),2023.

        [11] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real?time object detection [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2016: 779?788.

        [12] MA X. FastestDet: Ultra lightweight anchor?free real?time object detection algorithm [EB/OL]. [2023?07?19]. https://github.com/superbayes/FastestDet.

        [13] 山毓俊.基于透視變換標(biāo)定法的證書分揀機(jī)器人空間識(shí)別與定位系統(tǒng)設(shè)計(jì)[J].中國檢驗(yàn)檢測(cè),2023,31(6):45?47.

        [14] GONG L, HUANG X, CHEN J, et al. Multiscale leapfrog structure: an efficient object detector architecture designed for unmanned aerial vehicles [J]. Engineering applications of artificial intelligence, 2024, 127(1): 107270.

        猜你喜歡
        靶心實(shí)時(shí)性靶標(biāo)
        正中靶心
        基于規(guī)則實(shí)時(shí)性的端云動(dòng)態(tài)分配方法研究
        “百靈”一號(hào)超音速大機(jī)動(dòng)靶標(biāo)
        找準(zhǔn)演講稿的三個(gè)靶心
        納米除草劑和靶標(biāo)生物的相互作用
        正中靶心的秘密
        基于虛擬局域網(wǎng)的智能變電站通信網(wǎng)絡(luò)實(shí)時(shí)性仿真
        航空電子AFDX與AVB傳輸實(shí)時(shí)性抗干擾對(duì)比
        復(fù)雜場(chǎng)景中航天器靶標(biāo)的快速識(shí)別
        前列腺特異性膜抗原為靶標(biāo)的放射免疫治療進(jìn)展
        国产亚洲sss在线观看| 护士人妻hd中文字幕| 国产一区二区三区尤物| 国产三级不卡视频在线观看| 国产无遮挡aaa片爽爽| 大屁股人妻女教师撅着屁股| 无码少妇一区二区三区芒果| 婷婷成人亚洲| 日韩欧美在线播放视频| 久久AⅤ天堂Av无码AV| 国产成人精品中文字幕| 日本免费一区二区久久久| 精品露脸熟女区一粉嫩av| 丝袜美腿亚洲一区二区| 亚洲日韩av一区二区三区中文| 丰满人妻无奈张开双腿av| 小13箩利洗澡无码免费视频| 天堂av一区一区一区| 免费在线观看播放黄片视频| 国产成人精品亚洲日本在线观看 | 婷婷久久香蕉五月综合加勒比| 婷婷亚洲综合五月天小说| 国产三级黄色的在线观看| 久久亚洲国产高清av一级| 小雪好紧好滑好湿好爽视频| 久久精品国产亚洲av高清漫画| 99热这里只有精品4| 国产成人久久精品流白浆| 99国语激情对白在线观看| 国产在线无码精品无码| 国产人妻精品无码av在线| 久久午夜伦鲁片免费无码| 欧美a视频在线观看| 黄 色 成 年 人 网 站免费| 久久久精品国产亚洲av网麻豆| 无套内射在线无码播放| 久久久久久久久久久国产 | 92精品国产自产在线观看48页| 日本在线中文字幕一区二区| 亚洲国产一区二区网站| 国产精品vⅰdeoxxxx国产|