亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向海洋牧場智能化建設(shè)的海珍品實(shí)時(shí)檢測方法

        2021-08-04 05:55:58蔡克衛(wèi)陳鵬宇林遠(yuǎn)山
        關(guān)鍵詞:準(zhǔn)確率卷積深度

        洪 亮,王 芳,蔡克衛(wèi),陳鵬宇,林遠(yuǎn)山

        (1. 大連海洋大學(xué)信息工程學(xué)院,大連 116023;2. 遼寧省海洋信息技術(shù)重點(diǎn)實(shí)驗(yàn)室,大連 116023; 3. 設(shè)施漁業(yè)教育部重點(diǎn)實(shí)驗(yàn)室,大連海洋大學(xué),大連 116023)

        0 引言

        海洋牧場是指利用自然的海洋生態(tài)環(huán)境,將人工放養(yǎng)的經(jīng)濟(jì)海洋生物聚集起來,像在陸地放牧牛羊一樣,對海參、海膽、扇貝、魚等海珍品資源進(jìn)行有計(jì)劃和有目的的海上放養(yǎng),是拓展海洋漁業(yè)發(fā)展空間、促進(jìn)海洋漁業(yè)可持續(xù)發(fā)展的有效措施。海洋牧場建設(shè)過程中需要進(jìn)行海珍品捕撈量調(diào)查、養(yǎng)殖狀態(tài)監(jiān)測、海珍品采捕等任務(wù),目前這些任務(wù)主要依靠人工完成,成本高,危險(xiǎn)性大?;谒聶C(jī)器人的海珍品捕撈量調(diào)查、狀態(tài)監(jiān)測、采捕是未來的發(fā)展方向,這些任務(wù)主要依靠水下海珍品檢測技術(shù)來完成。因此,水下海珍品檢測是其中的關(guān)鍵。

        為此,國內(nèi)外學(xué)者對水下海珍品檢測進(jìn)行廣泛研究。郭常有等[1]將扇貝彩色圖像通過閾值分割轉(zhuǎn)變?yōu)槎祱D像,利用濾波技術(shù)減少圖像噪聲,并采用改進(jìn)的OPTA算法和邊界追蹤算法提取扇貝圖像邊界,計(jì)算扇貝的位置坐標(biāo)和大小。吳一全等[2]提出了一種淡水魚種類識別方法。將形狀與紋理特征組合成高維特征向量,通過人工蜂群算法的待定參數(shù)進(jìn)行尋優(yōu)。吳健輝等[3]提出一種基于圖像處理技術(shù)的魚種類識別方法。采用鄰域邊界算法對魚體的輪廓進(jìn)行提取,建立魚體背部輪廓數(shù)學(xué)模型。采用魚體背部彎曲潛能算法對不同種類魚體樣本的背部彎曲潛能值進(jìn)行計(jì)算和聚類統(tǒng)計(jì)。崔尚等[4]提出基于Sobel改進(jìn)算子的海參圖像識別方法。將圖像進(jìn)行直方圖均衡化處理,利用Sobel改進(jìn)算子將增強(qiáng)后的圖像進(jìn)行分割處理,經(jīng)過膨脹、腐蝕和小目標(biāo)移除算法處理,得到含有海參目標(biāo)的二值化圖像。以上方法的基本思路是根據(jù)檢測對象的特點(diǎn)利用圖像處理技術(shù)設(shè)計(jì)特定算法進(jìn)行識別,此類方法通常效率較高,但這些方法只針對單一品種進(jìn)行檢測,更重要的是需要根據(jù)領(lǐng)域知識進(jìn)行手工特征提取,過程繁瑣,工作量大,魯棒性較差。

        深度學(xué)習(xí)[5-8]具有自動特征提取的特點(diǎn),大大提高了目標(biāo)檢測的效率和精度[9-12],推動了目標(biāo)檢測[13-17]在農(nóng)業(yè)[18-20]、工業(yè)[21]等領(lǐng)域的廣泛應(yīng)用。為此,Li等[22]嘗試使用基于改進(jìn)的Faster-RCNN算法實(shí)現(xiàn)了12種魚類的識別。通過使用區(qū)域建議網(wǎng)絡(luò),產(chǎn)生的高質(zhì)量建議,與后續(xù)的魚檢測識別網(wǎng)絡(luò)共享卷積特征,實(shí)現(xiàn)了良好的識別和檢測性能。袁利毫等[23]提出基于YOLOv3的水下檢測算法,利用水下機(jī)器人采集的數(shù)據(jù)對神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,采用小批量梯度下降法和沖量對神經(jīng)網(wǎng)絡(luò)權(quán)重進(jìn)行更新,并調(diào)整算法的超參數(shù),提高了水下小目標(biāo)的識別率和檢測速度。Kaveti等[24]提出了基于Inception v2的SSD檢測算法實(shí)現(xiàn)了水下魚類、海星和海綿的檢測。利用機(jī)器人平臺收集水下圖像數(shù)據(jù),建立數(shù)據(jù)標(biāo)簽,訓(xùn)練改進(jìn)的算法模型,實(shí)現(xiàn)高精度檢測。趙德安等[25]提出了基于機(jī)器視覺的水下河蟹識別方法,該方法通過在投餌船下方安裝攝像頭進(jìn)行河蟹圖像采集,修改基于YOLOv3網(wǎng)絡(luò)的輸入輸出,并采用自建的數(shù)據(jù)集對其進(jìn)行訓(xùn)練,實(shí)現(xiàn)了對水下河蟹的識別。郭祥云等[26]采用基于深度殘差網(wǎng)絡(luò)實(shí)現(xiàn)了水下海參識別算法。以海參圖像為正樣本,非海參圖像為負(fù)樣本構(gòu)建數(shù)據(jù)集,以不同像素圖像分別進(jìn)行模型訓(xùn)練與識別。上述基于深度學(xué)習(xí)的海珍品檢測方法的檢測精度得到大幅提升,但是模型較大,難以部署到如水下機(jī)器人這種移動設(shè)備上。此外鮮有考慮水下圖像模糊、對比度低、缺色等對檢測所帶來的檢測性能影響。

        為此,本文在原有YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ)上進(jìn)行改進(jìn),提出了面向海洋牧場智能化建設(shè)的海珍品實(shí)時(shí)檢測方法。該模型使用深度可分離卷積代替YOLOv3中的標(biāo)準(zhǔn)卷積,減少參數(shù)量,提升推理速度;針對水下圖像模糊、對比度低、缺色等特點(diǎn),采用基于UGAN的圖像增強(qiáng)方法來對海珍品圖像進(jìn)行預(yù)處理;并且利用基于Mosaic的數(shù)據(jù)增廣方法,提升圖像數(shù)據(jù)的多樣化,增加模型的魯棒性。

        1 海珍品檢測網(wǎng)絡(luò)框架

        1.1 YOLOv3網(wǎng)絡(luò)

        YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)整體框架分為兩個(gè)部分:主干網(wǎng)絡(luò)和檢測器。

        主干網(wǎng)絡(luò)部分:YOLOv3采用Darknet-53作為特征提取的主干網(wǎng)絡(luò)。由一個(gè)3×3卷積層和5個(gè)階段的殘差結(jié)構(gòu)組成,每個(gè)階段的殘差結(jié)構(gòu)數(shù)量分別為1、2、8、8、4。其中每個(gè)殘差結(jié)構(gòu)由一個(gè)3×3卷積層和殘差塊構(gòu)成。殘差塊由一個(gè)1×1卷積層、一個(gè)3×3卷積層和求和運(yùn)算構(gòu)成。YOLOv3主干網(wǎng)絡(luò)一方面采用全卷積結(jié)構(gòu),另一方面借鑒ResNet思想,引入了Residual結(jié)構(gòu),使網(wǎng)絡(luò)深度增加,特征提取能力大幅增強(qiáng)。

        檢測器部分:YOLOv3網(wǎng)絡(luò)生成三個(gè)分支,每個(gè)分支對應(yīng)三種大小特征圖,分別為13×13、26×26、52×52,每個(gè)分支結(jié)構(gòu)由連續(xù)卷積塊、3×3卷積和1×1卷積構(gòu)成。其中連續(xù)卷積塊由1×1、3×3、1×1、3×3和1×1連續(xù)卷積構(gòu)成。經(jīng)過網(wǎng)絡(luò)計(jì)算,每個(gè)特征圖會輸出三個(gè)邊界框,每個(gè)邊界框會預(yù)測中心坐標(biāo)x、y,寬w、高h(yuǎn)、置信度和所屬類別信息。

        1.2 DSC-YOLO網(wǎng)絡(luò)

        為提高YOLOv3對水下海珍品檢測的實(shí)時(shí)性,本文對其結(jié)構(gòu)進(jìn)行改進(jìn),提出一種輕量化模型DSC-YOLO,該模型采用深度可分離卷積[27]代替YOLOv3中的標(biāo)準(zhǔn)卷 積。深度可分離卷積是MobileNet采用的一種技術(shù),其可分解為一個(gè)深度卷積和一個(gè)點(diǎn)卷積,如圖1所示。該方法和標(biāo)準(zhǔn)卷積相比,其計(jì)算如式(1)所示。

        式中M為輸入特征圖通道數(shù),H、W為輸入特征圖的高和寬,N為卷積核個(gè)數(shù),Dk為卷積核大小。具體地,將該技術(shù)應(yīng)用到神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中,如圖2所示。

        在DSC-YOLO卷積結(jié)構(gòu)中,圖像數(shù)據(jù)先經(jīng)過一個(gè)3×3深度卷積層;然后傳入歸一化層,加速數(shù)據(jù)收斂、防止過擬合和降低網(wǎng)絡(luò)對權(quán)重敏感度;接著經(jīng)過LeakyRelu激活函數(shù)層;輸入到一個(gè)1×1點(diǎn)卷積層;最后經(jīng)過歸一化層和經(jīng)過LeakyRelu激活函數(shù)層輸出。

        將YOLOv3中標(biāo)準(zhǔn)卷積替換為深度可分離卷積,其標(biāo)準(zhǔn)卷積的參數(shù)量是深度可分離卷積的8.88倍,如表1所示,大大降低了計(jì)算量,提高實(shí)時(shí)性。

        表1 標(biāo)準(zhǔn)卷積和深度可分離卷積的參數(shù)量對比 Table 1 Comparison of parameters between standard convolution and depthwise separable convolution

        1.3 基于UGAN(Underwater Generative Adversarial Network)的水下圖像增強(qiáng)

        受水體懸浮顆粒對光產(chǎn)生折射、散射、選擇性吸收等特性的影響,攝像頭采集到的水下圖像存在色彩缺失、細(xì)節(jié)模糊、對比度低、噪聲污染嚴(yán)重等問題,缺失大量有效信息的水下圖像勢必影響目標(biāo)檢測的性能。清晰的圖像有助于提升檢測的準(zhǔn)確性,因此,有必要對水下圖像進(jìn)行增強(qiáng)。傳統(tǒng)水下圖像增強(qiáng)主要包括基于物理模型的增強(qiáng)方法和基于非物理模型的增強(qiáng)方法。前者針對模型缺陷,進(jìn)行修補(bǔ)復(fù)原;后者針對圖像的清晰度進(jìn)行提高。這兩種方法都需要手工特征提取。新的UGAN方法采用無監(jiān)督方式,可以自動學(xué)習(xí)到訓(xùn)練數(shù)據(jù)樣本的分布,產(chǎn)生新的數(shù)據(jù)。其主要思想是網(wǎng)絡(luò)通過不斷地對抗博弈,產(chǎn)生新的圖像數(shù)據(jù),實(shí)現(xiàn)從水下模糊圖像到水下清晰圖像的映射過程,如圖3所示。本文使用UGAN對水下圖像進(jìn)行增強(qiáng)。為展示UGAN處理效果,本文從水下數(shù)據(jù)集隨機(jī)選擇四張具有代表水下環(huán)境特性的圖像送入U(xiǎn)GAN模型進(jìn)行處理,效果如圖4所示。圖4中左側(cè)圖像代表了水下環(huán)境常見的圖像問題,如模糊、對比度低、缺色或顏色背景等。右側(cè)圖像為UGAN增強(qiáng)后的對應(yīng)圖像。由圖可見,UGAN能夠?qū)︻伾M(jìn)行校正,使圖像更加明亮、清晰。

        UGAN模型由生成網(wǎng)絡(luò)和辨別網(wǎng)絡(luò)構(gòu)成,其整體為全卷積結(jié)構(gòu)。生成網(wǎng)絡(luò)采用Encoder-Decoder模式,在Encoder部分,由8個(gè)卷積層構(gòu)成,卷積核大小為4×4,步長為2。每個(gè)卷積層后連接歸一化層和斜率為0.2的LeakyReLU激活層。在Decoder部分,由8個(gè)反卷積層構(gòu)成,反卷積核大小為4×4,步長為2。反卷積層后沒有接入歸一化層。前7個(gè)反卷積層連接ReLU激活層[28],最后一個(gè)反卷積層連接Tanh激活層。在上采樣過程,每個(gè)反卷積層與對應(yīng)的卷積層進(jìn)行拼接輸出到下一層,生成網(wǎng)絡(luò)呈現(xiàn)出U形。辨別網(wǎng)絡(luò)由5個(gè)卷積層構(gòu)成,前三層卷積核大小為4×4,步長為2,第四層卷積核大小為4×4,步長為1,第五層卷積核大小為1×1,步長為1。每個(gè)卷積層后連接歸一化層和LeakyReLU激活層。辨別網(wǎng)絡(luò)采用PatchGAN設(shè)計(jì),輸出32×32×1的矩陣概率,與普通GAN的辨別網(wǎng)絡(luò)輸出的一個(gè)實(shí)數(shù)概率相比,可以獲取更多的圖像細(xì)節(jié)信息。

        訓(xùn)練UGAN網(wǎng)絡(luò)之前需要一組圖像對,圖像對通過CycleGAN[29]獲取,把空氣中圖像輸入到CycleGAN中,生成對應(yīng)的水下環(huán)境風(fēng)格圖像。然后將空氣中圖像和水下環(huán)境風(fēng)格圖像作為圖像對訓(xùn)練UGAN。生成網(wǎng)絡(luò)接收一個(gè)水下環(huán)境風(fēng)格圖像和一個(gè)隨機(jī)噪聲,然后經(jīng)生成網(wǎng)絡(luò)生成水下生成圖像,水下生成圖像與對應(yīng)空氣中圖像送入辨別網(wǎng)絡(luò)進(jìn)行辨別,若辨別為真,則返回真實(shí)標(biāo)簽,否則,返回生成標(biāo)簽。生成網(wǎng)絡(luò)與辨別網(wǎng)絡(luò)互相對抗博弈,直到辨別網(wǎng)絡(luò)分辨不出水下圖像是否為真實(shí)或生成圖像為止。

        1.4 基于Mosaic的數(shù)據(jù)增廣

        深度學(xué)習(xí)需要大量訓(xùn)練數(shù)據(jù),而水下訓(xùn)練圖像獲取成本昂貴,有必要使用數(shù)據(jù)增廣技術(shù)來生成大量訓(xùn)練樣本[30]。目前數(shù)據(jù)增廣主要有光度變換(亮度、對比度、色相、飽和度)、幾何變換(隨機(jī)縮放、裁剪、翻轉(zhuǎn)和旋轉(zhuǎn))、圖像遮擋、圖像拼接等。考慮到Mosaic數(shù)據(jù)增廣綜合了光度變換、幾何變換和圖像拼接的優(yōu)點(diǎn),是一種集大成的方法,可以得到多樣的數(shù)據(jù)格式,有望提升性能。為此,使用Mosaic方法進(jìn)行數(shù)據(jù)增廣。其思想是將四張傳統(tǒng)增廣的圖像拼接在一起,形成一張完整圖像,如圖5所示。豐富了圖片的背景,提升目標(biāo)多樣性,變相地提高了輸入網(wǎng)絡(luò)的圖片數(shù)量。并且在進(jìn)行批歸一化[30]的時(shí)候同時(shí)計(jì)算四張圖片的權(quán)值,以提升檢測的性能。

        具體做法是從水下數(shù)據(jù)集隨機(jī)選取四張像素一致的圖像,每張圖像先進(jìn)行傳統(tǒng)數(shù)據(jù)增廣方法,然后將增廣后的圖像進(jìn)行隨機(jī)大小裁剪,接著將第一張裁剪的圖像固定在整體圖像的左上角,第二張裁剪的圖像固定在整體圖像的左下角,第三張裁剪的圖像固定在整體圖像的右下角,第四張裁剪的圖像固定在整體圖像的右上角。最后得到一張Mosaic增廣的圖像,增廣后的圖像與原四張圖像像素保持一致。

        1.5 總體框架

        基于上述改進(jìn)方法,將三個(gè)方法結(jié)合在一起,改進(jìn)的YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)框架如圖6所示。圖中總共分為兩部分:第一部分為數(shù)據(jù)預(yù)處理,第二部分DSC-YOLO網(wǎng)絡(luò)。

        數(shù)據(jù)預(yù)處理包括兩部分內(nèi)容:基于UGAN的圖像增強(qiáng)、基于Mosaic的數(shù)據(jù)增廣。圖像增強(qiáng)用于提升圖像清晰度與識別率,數(shù)據(jù)增廣用于豐富海珍品的多樣性,提升模型魯棒性。DSC-YOLO網(wǎng)絡(luò)減少大量標(biāo)準(zhǔn)卷積操作,減小模型大小,提升海珍品識別速度。相應(yīng)地,將DSC-YOLO卷積結(jié)構(gòu)應(yīng)用到Y(jié)OLOv3網(wǎng)絡(luò)結(jié)構(gòu),得到改進(jìn)的DSC-YOLO海珍品檢測網(wǎng)絡(luò)。在主干網(wǎng)絡(luò)部分,將416×416圖像送入網(wǎng)絡(luò)的第一個(gè)3×3卷積替換為深度可分離卷積,同時(shí)將每個(gè)階段的殘差結(jié)構(gòu)中的3×3卷積替換為深度可分離卷積。在檢測器部分,將連續(xù)卷積塊中3×3卷積替換為深度可分離卷積,同時(shí)將從連續(xù)卷積塊輸出的3×3卷積替換為深度可分離卷積。網(wǎng)絡(luò)每個(gè)分支輸出的特征圖大小、Anchor數(shù)量和Anchor大小與原網(wǎng)絡(luò)保持不變。

        2 材料與方法

        為了驗(yàn)證本文海珍品檢測方法的有效性,進(jìn)行了相應(yīng)的試驗(yàn)。本節(jié)將從數(shù)據(jù)集來源、試驗(yàn)設(shè)置和試驗(yàn)環(huán)境、評估標(biāo)準(zhǔn)進(jìn)行闡述。

        2.1 數(shù)據(jù)集來源

        本文采用“2017首屆水下機(jī)器人目標(biāo)抓取大賽(2017 Underwater Robot Picking Contest,URPC2017)”提供的真實(shí)水下圖像數(shù)據(jù)集(http://2017.cnurpc.org/a/js/ 2017/0829/66.html)。該數(shù)據(jù)集共有三個(gè)類別:海參、海膽、扇貝,包含18 982張圖像,圖像分辨率為720×405,標(biāo)注格式為VOC格式。

        2.2 試驗(yàn)方法

        將水下數(shù)據(jù)集隨機(jī)劃分成三份,其中15 182幅圖像用于訓(xùn)練,1 900幅圖像用于驗(yàn)證,1 900幅圖像用于測試,比例約為8:1:1。在訓(xùn)練階段,將DSC-YOLO、UGAN水下圖像增強(qiáng)和Mosaic數(shù)據(jù)增廣進(jìn)行組合,訓(xùn)練得到4個(gè)模型: DSC-YOLO、DSC-YOLO+UGAN、DSC-YOLO+ Mosaic、DSC-YOLO+UGAN+Mosaic,然后將此4個(gè)模型與YOLOv3模型進(jìn)行試驗(yàn)對比。使用預(yù)訓(xùn)練模型進(jìn)行訓(xùn)練,節(jié)省時(shí)間,提高訓(xùn)練速度。在輸入卷積神經(jīng)網(wǎng)絡(luò)前,數(shù)據(jù)集中所有圖像的分辨率調(diào)整為416×416。訓(xùn)練時(shí)以4幅圖像作為一個(gè)批次進(jìn)行小批量訓(xùn)練,每訓(xùn)練一批圖像,權(quán)值更新一次。權(quán)值衰減速率為0.000 5,動量為0.9,初始學(xué)習(xí)率為0.001。對網(wǎng)絡(luò)進(jìn)行110輪訓(xùn)練,每訓(xùn)練1輪保存一次模型,最終選取精度最高的模型。

        本文試驗(yàn)采用的操作系統(tǒng)為Ubuntu16.04,深度學(xué)習(xí)框架為PyTorch,試驗(yàn)處理器為AMD Ryzen Threadripper 1920X 12核,內(nèi)存為8 G,顯卡為NVIDIA GeForce RTX2080,顯存為8 G GDDR6。

        2.3 評估標(biāo)準(zhǔn)

        本文以準(zhǔn)確率P、召回率R、多類平均準(zhǔn)確率mAP0.5(mean Average Precision)和F1分?jǐn)?shù)作為評價(jià)標(biāo)準(zhǔn)。準(zhǔn)確率P為被正確預(yù)測的正樣本數(shù)量占總預(yù)測的正樣本數(shù)量的比值,如式(2)所示。召回率R為被正確預(yù)測的正樣本數(shù)量占總正樣本數(shù)量的比值,如式(3)所示。單類平均準(zhǔn)確率AP(Average Precision)為準(zhǔn)確率P與召回率R構(gòu)成的P-R曲線的面積,如式(4)所示。多類平均準(zhǔn)確率mAP0.5為當(dāng)交并比(Intersection Over Union,IOU)為0.5時(shí),準(zhǔn)確率P與召回率R構(gòu)成的P-R曲線的面積,如式(5)所示。IOU為預(yù)測框與真實(shí)框的交集與并集的比值,當(dāng)預(yù)測框與真實(shí)框的IOU大于0.5,則為正樣本,預(yù)測框與真實(shí)框的IOU小于0.5,則為負(fù)樣本。F1分?jǐn)?shù)為精確率和召回率的調(diào)和平均數(shù),如式(6)所示。

        其中,TP為模型正確預(yù)測的正樣本數(shù)量,F(xiàn)P為模型錯(cuò)誤預(yù)測的正樣本數(shù)量,F(xiàn)N為模型錯(cuò)誤預(yù)測的負(fù)樣本數(shù)量,P(R)為P-R曲線函數(shù),n為類別數(shù)量。

        3 結(jié)果與分析

        模型在1 900張圖像測試集上,采用2.3部分所提的準(zhǔn)確率(P)、召回率(R)、多類平均準(zhǔn)確率(mAP0.5)、F1分?jǐn)?shù),以及推理時(shí)間(Inference time)和模型大小(Size)共6項(xiàng)指標(biāo),對各個(gè)模型進(jìn)行評估,試驗(yàn)結(jié)果如表2所示。

        表2 模型檢測性能對比 Table 2 Comparisons of model detection performance

        由表2可知,在準(zhǔn)確率P方面,YOLOv3模型為86%,DSC-YOLO+U+M模型為84.4%,僅相差1.6個(gè)百分點(diǎn)。在召回率R上,YOLOv3模型為91.4%,DSC-YOLO+U+M模型和DSC-YOLO+M模型同時(shí)取得了最大值94.1%,提高了2.7個(gè)百分點(diǎn)。

        YOLOv3模型的mAP0.5為92.2%,模型大小為492.6 MB,推理時(shí)間為8.1 ms。與YOLOv3模型相比,DSC-YOLO+U+M模型大小為146.7 MB,減小約70%,推理時(shí)間縮減為6.8 ms,F(xiàn)1分?jǐn)?shù)提升0.4個(gè)百分點(diǎn),并且多類平均準(zhǔn)確率提升2.4個(gè)百分點(diǎn)。

        此外,除了YOLOv3模型外,采用UGAN的模型比未采用UGAN的模型,在多類平均準(zhǔn)確率和F1分?jǐn)?shù)指標(biāo)上均有提升。并且采用Mosaic的模型比未采用Mosaic的模型,在多類平均準(zhǔn)確率和F1分?jǐn)?shù)指標(biāo)上均有明顯的提升。

        綜上,除了準(zhǔn)確率P外,DSC-YOLO+U+M模型相較于YOLOv3和其他模型而言,在大幅降低模型參數(shù)量的情況下,其他各項(xiàng)指標(biāo)都有所提升,展現(xiàn)出了優(yōu)越的性能,模型檢測效果如圖7所示。

        此外,試驗(yàn)中發(fā)現(xiàn),本文模型對漏標(biāo)的圖像數(shù)據(jù)具有較強(qiáng)的魯棒性,能夠?qū)D像中漏標(biāo)的海珍品檢測出來。本文隨機(jī)從測試集中選擇三張存在漏標(biāo)現(xiàn)象的數(shù)據(jù),如圖8所示。圖像8a中4個(gè)海參、5個(gè)海膽未標(biāo)注,圖8b中1個(gè)海參、3個(gè)扇貝未標(biāo)注,圖像8c中3個(gè)海參、1個(gè)海膽、6個(gè)扇貝未標(biāo)注。其他模型均存在不同程度的漏檢,而本文的最終模型DSC-YOLO+U+M將未標(biāo)注數(shù)據(jù)正確檢測出來。

        根據(jù)上圖模型檢測數(shù)量統(tǒng)計(jì)模型的漏檢率,如表3所示。其中漏檢率計(jì)算是模型未檢測到的目標(biāo)個(gè)數(shù)除以實(shí)際標(biāo)注和漏標(biāo)數(shù)量總和。由表3可知,本文提出的方法漏檢率數(shù)值最低,綜合來說,本文提出的模型在數(shù)據(jù)集漏標(biāo)的情況下,能夠?qū)⒙?biāo)的海珍品正確地檢測出來,魯棒性良好。

        表3 模型漏檢率對比 Table 3 Comparisons of the model missing rate

        4 結(jié) 論

        本文提出了基于改進(jìn)的YOLOv3網(wǎng)絡(luò)的海珍品檢測框架,該框架在訓(xùn)練階段之前引入圖像增強(qiáng)和數(shù)據(jù)增廣方法用于提升圖像清晰度和檢測性能。然后采用深度可分離卷積,將標(biāo)準(zhǔn)卷積分解成深度卷積和點(diǎn)卷積,使參數(shù)量和計(jì)算量大大減少,推理速度縮短,模型大小縮減。在推理速度和準(zhǔn)確率方面得到提高的同時(shí),從定性和定量角度分析各個(gè)模型的性能。試驗(yàn)證明,改進(jìn)的YOLOv3網(wǎng)絡(luò)模型與圖像增強(qiáng)和數(shù)據(jù)增廣方法相結(jié)合,性能優(yōu)于YOLOv3模型。

        1)本文通過改進(jìn)模型,使得模型參數(shù)量和計(jì)算量減少,模型占用內(nèi)存大小為146.7 MB,YOLOv3網(wǎng)絡(luò)模型占用內(nèi)存大小為492.6 MB,模型占用內(nèi)存減小70%。加入圖像增強(qiáng)和數(shù)據(jù)增廣方法,不增加模型參數(shù)量和計(jì)算量的同時(shí),提高檢測性能。

        2)根據(jù)定性和定量結(jié)果比較,在網(wǎng)絡(luò)訓(xùn)練之前采用基于生成對抗網(wǎng)絡(luò)的圖像增強(qiáng)方法,提升了圖像的清晰度和檢測的準(zhǔn)確率,檢測的目標(biāo)更多,更全面,使得召回率提升2.7個(gè)百分點(diǎn)。

        猜你喜歡
        準(zhǔn)確率卷積深度
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
        2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
        深度理解一元一次方程
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        深度觀察
        深度觀察
        深度觀察
        高速公路車牌識別標(biāo)識站準(zhǔn)確率驗(yàn)證法
        久久国产成人午夜av影院| 精品一区二区三区蜜桃麻豆| 国产高清在线精品一区app| 久久中文精品无码中文字幕下载| 精品国产一区二区三区久久久狼| 国产丝袜精品丝袜一区二区| 亚洲女同高清精品一区二区99| 日韩熟女系列中文字幕| 中文无码熟妇人妻av在线| 玩弄放荡人妻一区二区三区| 中国免费一级毛片| 日韩精品久久午夜夜伦鲁鲁| 国产精品人人做人人爽| 在线va免费看成| 99久久这里只精品国产免费| 亚洲中文中文字幕乱码| 无套内内射视频网站| 亚洲欧美激情精品一区二区| 午夜a福利| 亚洲中文字幕免费精品| 福利网在线| 国产偷闻女邻居av在线观看| 奇米影视色777四色在线首页| 亚洲av无码av制服丝袜在线| 91精品综合久久久久m3u8| 五月婷婷开心五月播五月| 医院人妻闷声隔着帘子被中出| 一群黑人大战亚裔女在线播放| 久久精品综合国产二区| 一区二区三区在线视频观看| 成人国产精品一区二区视频| 夜夜春精品视频| 久久国产精品免费久久久| 欧美怡春院一区二区三区| 国产成人一区二区三区在线观看| 久久久国产精品ⅤA麻豆百度| 草逼视频污的网站免费| 亚洲精品久久一区二区三区777| 国产欧美日韩综合在线一区二区| 久久久人妻一区精品久久久| 亚洲熟女精品中文字幕|