亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的視頻觀測潮位技術(shù)研究

        2024-04-29 00:00:00曾志陳智杰孫全
        海洋開發(fā)與管理 2024年1期
        關(guān)鍵詞:深度學(xué)習(xí)

        摘要:近岸潮位觀測是海洋工程應(yīng)用、海岸防災(zāi)減災(zāi)、海岸帶管理以及海洋有關(guān)科研工作中最基礎(chǔ)的工作之一。文章基于視頻圖像深度學(xué)習(xí)的方法,使用YOLOv5目標(biāo)檢測算法從安裝在近岸的固定攝像機(jī)拍攝的視頻幀中提取潮汐水位特征進(jìn)行潮位分析。研究采用廈門高崎碼頭的分辨率為1920×1080的高清攝像頭2023年2月的影像數(shù)據(jù)作為訓(xùn)練集和驗(yàn)證集,2023年3月的影像數(shù)據(jù)作為測試集,利用岸邊驗(yàn)潮井逐時潮位數(shù)據(jù)進(jìn)行標(biāo)注,采用YOLOv5目標(biāo)檢測算法來訓(xùn)練。計算結(jié)果顯示,通過視頻觀測潮位在訓(xùn)練集和測試集上的誤差分別為3.9cm 和5.3cm。視頻中1個像素點(diǎn)代表3.8cm,因此潮位觀測的平均誤差為像素級。研究表明在近岸通過高清攝像頭基于圖像深度學(xué)習(xí)進(jìn)行潮位觀測的方法是可行的,觀測精度取決于圖像目標(biāo)物的分辨率。

        關(guān)鍵詞:深度學(xué)習(xí);潮位觀測;廈門高崎碼頭;高清視頻

        中圖分類號:P71 文獻(xiàn)標(biāo)志碼:A 文章編號:1005-9857(2024)01-0094-08

        0 引言

        近岸潮位觀測是海洋工程應(yīng)用、海岸防災(zāi)減災(zāi)、海岸帶管理以及海洋科研中最基礎(chǔ)的工作之一,我國沿海地區(qū)布設(shè)的專用海洋觀測站有37個,專業(yè)臺站的傳統(tǒng)潮位觀測通常采用浮子式驗(yàn)潮井自記潮位儀,其優(yōu)點(diǎn)是準(zhǔn)確性、可靠性均有保證;缺點(diǎn)是選址條件復(fù)雜,工程造價高、建設(shè)周期長,適合國家或地方基礎(chǔ)海洋臺站長期使用。其他傳統(tǒng)常用的臨時潮位觀測方式還有接觸式的壓力式水位計等,觀測時將儀器置于海底,其工作原理是將海水壓力信號轉(zhuǎn)為電信號換算成水位數(shù)據(jù),并需對觀測數(shù)據(jù)進(jìn)行氣壓訂正。非接觸式的潮位觀測方式有超聲波水位計,需將儀器置于水面上方,向下發(fā)送超聲波信號觀測水面與儀器的距離,優(yōu)點(diǎn)是精度較高,但需要合適的選址來安裝。除此之外雷達(dá)水位計、衛(wèi)星遙感反演潮位[1]、人工水尺等觀測方式也在不同場合得到研究和使用。隨著計算機(jī)圖像識別技術(shù)的發(fā)展,通過視頻拍攝潮位水尺,利用圖像識別水面和水尺的交界面亦可獲得潮位數(shù)據(jù)[2-3]等。各種潮位觀測方式都有其適用范圍和優(yōu)缺點(diǎn),針對不同的近岸環(huán)境,需要用到各種不同的觀測設(shè)備。

        計 算機(jī)深度學(xué)習(xí)(DeepLearning)[4]高速發(fā)展,在計算機(jī)視覺、自然文字處理、聲音處理上的算法和模型層出不窮,并在各行各業(yè)取得廣泛應(yīng)用,尤其是自2022 年年底以來,OpenAI 公司推出的ChatGPT和GPT4[5],把基于計算機(jī)深度學(xué)習(xí)的人工智能(AI)應(yīng)用推向了全新的時代。在海洋研究領(lǐng)域,基于深度學(xué)習(xí)的計算機(jī)視覺也有廣泛的應(yīng)用,主要包括通過視頻圖像對水上、水下目標(biāo)進(jìn)行檢測,包括珊瑚礁、魚群、海龜、海冰等各種海底物體目標(biāo)[6-10],而深度學(xué)習(xí)目標(biāo)檢測算法中的YOLO[11-12]是計算機(jī)視覺AI算法中的杰出代表,基于深度學(xué)習(xí)框架建立在PyTorch平臺上,由于其易用性、高性能和多功能性而廣受歡迎。

        YOLOv5[13]是一種單階段目標(biāo)檢測算法,該算法在低版本的基礎(chǔ)上添加了一些新的改進(jìn)思路,使其速度與精度都得到了極大的性能提升。主要的改進(jìn)思路包括以下幾方面。

        (1)輸入端。在模型訓(xùn)練階段,提出了一些改進(jìn)思路,主要包括Mosaic數(shù)據(jù)增強(qiáng)、自適應(yīng)錨框計算、自適應(yīng)圖片縮放。

        (2)基準(zhǔn)網(wǎng)絡(luò)。融合其他檢測算法中的一些新思路,主要包括Focus結(jié)構(gòu)與CSP結(jié)構(gòu)。

        (3)Neck網(wǎng)絡(luò)。目標(biāo)檢測網(wǎng)絡(luò)在BackBone與最后的Head 輸出層之間往往會插入一些層,YOLOV5中添加了FPN+PAN 結(jié)構(gòu)。

        (4)Head輸出層。輸出層的錨框機(jī)制與上一代YOLOv4相同,主要改進(jìn)的是訓(xùn)練時的損失函數(shù)GIOU_Loss,以及預(yù)測框篩選的DIOU_nms。有學(xué)者進(jìn)行了基于YOLOv5 模型的養(yǎng)殖魚群[14]和海洋上小目標(biāo)[15]的檢測,也有用于浮式生產(chǎn)儲油卸船(FPSO)的裂縫識別[16],但總體來說在海洋領(lǐng)域應(yīng)用不多。

        本文提出一種基于視頻圖像深度學(xué)習(xí)的方法,使用YOLOv5目標(biāo)檢測算法從安裝在近岸的固定攝像機(jī)拍攝的視頻幀中提取潮汐水位特征進(jìn)行潮位觀測的技術(shù)。視頻觀測潮位相對其他傳統(tǒng)潮位觀測方式有成本低、安裝便捷的優(yōu)點(diǎn),是傳統(tǒng)潮位觀測有效的補(bǔ)充方案。

        1 材料和方法

        1.1 視頻材料、潮位數(shù)據(jù)資料的收集

        本研究采用廈門高崎碼頭附近的一個固定高清攝像頭2023年2月和3月的影像數(shù)據(jù)和高崎漁港同期驗(yàn)潮井逐時潮位數(shù)據(jù)作為基礎(chǔ)數(shù)據(jù)。驗(yàn)潮井潮位數(shù)據(jù)為廈門市海洋發(fā)展局建設(shè)、自然資源部廈門海洋中心代管的潮位站數(shù)據(jù),潮位基面為廈門零點(diǎn),整體數(shù)據(jù)質(zhì)量高。圖1展示了2023年2月廈門高崎碼頭逐時潮位過程曲線。高崎碼頭視頻分辨率為1920×1080,幀率為25幀/s,這里截取了白天高潮附近時刻、白天半潮面附近時刻、夜間低潮面附近時刻和夜間高潮面附近時刻4個特征時段的視頻圖像(圖2至圖5),可見視頻圖像在白天、夜間均有較高的清晰度,這是視頻圖像潮位分析最基本的要求。

        1.2 圖形數(shù)據(jù)集的準(zhǔn)備和標(biāo)注

        通過觀察視頻過程和現(xiàn)場踏勘,可以發(fā)現(xiàn)視頻畫面中的主體是一艘躉船(浮碼頭),躉船通過活動鋼引橋與岸邊路基連接,躉船可隨潮位漲落而豎直自由移動,無水平移動。視頻圖像上躉船豎直方向的位置與潮位高低形成一一對應(yīng)的關(guān)系,因此通過畫面中的躉船縱坐標(biāo)y 值來計算潮位值是視頻觀測潮位的關(guān)鍵步驟。

        試驗(yàn)之前從原始視頻中挑取逐時整點(diǎn)的單幀圖像。因研究重點(diǎn)在于躉船范圍和位置的檢測,對顏色信息不敏感,為減少計算工作量,提取的圖像文件均以灰度圖格式保存,按時間信息分別保存為.png圖像文件,如2023年2月1日10時整的圖像保存為202302011000.png,然后對每一個圖像文件上的躉船范圍進(jìn)行標(biāo)注,標(biāo)注的文件按照YOLOv5算法輸入數(shù)據(jù)格式要求保存0center_xcenter_ywidthheight 到與圖像同名的.txt 文件中,如202302011000.txt,其中0表示檢測目標(biāo)類別,本例中目標(biāo)只有一個類別為躉船,因此目標(biāo)類別編號為0,center_x,center_y分別為目標(biāo)方框的中心點(diǎn)的像素點(diǎn)橫縱坐標(biāo)x,y 歸一化的結(jié)果(左上角為0,水平方向?yàn)閤,豎直方向?yàn)閥),width和height為目標(biāo)方框的寬和高。圖片的實(shí)際分辨率為1920×1080,將像素點(diǎn)橫縱坐標(biāo)、寬、高分別除以1920和1080 進(jìn)行歸一化(normalization)操作,滿足YOLOv5算法輸入對數(shù)據(jù)格式的要求(圖6顯示了某時刻各參數(shù)在圖像上的位置關(guān)系)。由于攝像頭視頻缺失,模型計算中訓(xùn)練集實(shí)際有效數(shù)據(jù)為253個,驗(yàn)證集有效數(shù)據(jù)80個,測試集實(shí)際有效數(shù)據(jù)為375個。訓(xùn)練集和驗(yàn)證集需對所有圖片進(jìn)行準(zhǔn)確的標(biāo)注,可在Roboflow.com 網(wǎng)站[17]上的標(biāo)注工具中完成并轉(zhuǎn)化成YOLOv5算法數(shù)據(jù)格式,圖7展示了部分訓(xùn)練集圖像標(biāo)注縮略圖,圖中主要目標(biāo)躉船高亮顯示,背景使用暗色顯示。

        1.3 圖形數(shù)據(jù)與實(shí)測潮位數(shù)據(jù)的相關(guān)分析

        將訓(xùn)練集中的每一個圖像文件對應(yīng)時刻的潮位數(shù)據(jù)tide與圖像標(biāo)注的縱坐標(biāo)center_y進(jìn)行線性相關(guān)分析(圖8),相關(guān)系數(shù)為0.9989,相關(guān)公式為:

        tide=-3.8009×(center_y×1080)+1206.1(1)

        根據(jù)式(1)計算得到訓(xùn)練集圖片對應(yīng)的潮位值與實(shí)測潮位對比,平均誤差為3.9cm。訓(xùn)練集253個樣本中僅有14個樣本(占比約5.5%)誤差大于10cm,其他均小于10cm(圖9)。從統(tǒng)計數(shù)據(jù)和誤差結(jié)果可以看出,實(shí)測潮位數(shù)據(jù)介于52~694cm,變動幅度為642cm,手動標(biāo)注的圖片中躉船的像素縱坐標(biāo)數(shù)據(jù)介于139~298,變動幅度為159,潮位變動幅度的最小單位cm 與躉船像素縱坐標(biāo)變動幅度的最小值之比為642∶159=4.038,表明圖中一個像素點(diǎn)將代表實(shí)際潮位中的4cm。人為手動標(biāo)注躉船輪廓外接矩形時,肉眼觀察和鼠標(biāo)操作,也可能會造成1~2個像素點(diǎn)的誤差,由此可見訓(xùn)練集的數(shù)據(jù)轉(zhuǎn)換成潮位數(shù)值誤差就通常可達(dá)到4~8cm。從YOLOv5算法統(tǒng)計的訓(xùn)練集數(shù)據(jù)的標(biāo)簽記錄圖(圖10)中可見y 值在0.08~0.225,換算成像素坐標(biāo)即為86-243,幅度為157,與前文統(tǒng)計一致。x 基本在0.400~0.405小幅波動,表明躉船在x 方向基本上沒有移動。寬在0.130~0.135,高在0.09~0.11小幅變動,且呈現(xiàn)近正態(tài)分布特征,表明標(biāo)注躉船寬度的穩(wěn)定性,小幅波動為人工手動標(biāo)注矩形框產(chǎn)生的細(xì)微偏差。

        2 結(jié)果與討論

        2.1 模型實(shí)驗(yàn)試驗(yàn)結(jié)果分析

        本次試驗(yàn)設(shè)備為DellPrecision5550移動工作站,硬件配置為IntelCorei9-10885H2.40GCPU,64G內(nèi)存,NvidiaGeForceRTX409024G 外置顯卡GPU,軟件配置為YOLOv5、Python-3.10.9、torch-2.0.0+cu117、pycharm2023.1,Python3.10及windows11操作系統(tǒng)。

        將訓(xùn)練集的圖片和標(biāo)注數(shù)據(jù)使用YOLOv5算法進(jìn)行訓(xùn)練,訓(xùn)練初始化權(quán)重參數(shù)選擇預(yù)訓(xùn)練模型參數(shù)yolo5x.pt,默認(rèn)圖形分辨率640修改為1080。實(shí)際運(yùn)行中模型的網(wǎng)絡(luò)結(jié)構(gòu)中包含了445層,前向傳播的權(quán)重參數(shù)總數(shù)為86217814 個,模型進(jìn)行1次前向傳播計算需要執(zhí)行2046億次浮點(diǎn)運(yùn)算操作,模型計算量很大。經(jīng)過約5小時,共100個epochs訓(xùn)練,訓(xùn)練結(jié)果顯示訓(xùn)練目標(biāo)框檢測的損失(train/box_loss)小于0.003,精度(precision)和召回率(recall)達(dá)到0.999和1.00,mAP_0.5:0.95達(dá)到0.999(圖11),表明模型的目標(biāo)檢測效果非常好。

        圖11中,訓(xùn)練損失train/box_loss代表了預(yù)測框的位置誤差。在訓(xùn)練過程中,我們希望這個損失值盡可能小,以便網(wǎng)絡(luò)能夠更準(zhǔn)確地檢測物體位置。精度是指預(yù)測為正樣本的樣本中,真正的正樣本占比。在目標(biāo)檢測中,精度表示預(yù)測為目標(biāo)的框中,真正是目標(biāo)的框所占的比例。精度越高,表示誤判為目標(biāo)的框越少。召回率是指真正是正樣本的樣本中,被正確預(yù)測為正樣本的占比。在目標(biāo)檢測中,召回率表示所有真正是目標(biāo)的框中,被正確預(yù)測為目標(biāo)的框所占的比例。召回率越高,表示錯過真正目標(biāo)的框越少。

        mAP(MeanAveragePrecision)是目標(biāo)檢測中常用的一個評價指標(biāo),是多個召回率下的平均精度。mAP_0.5表示當(dāng)交并比(IOU)大于0.5時的mAP值。IOU是指檢測框和真實(shí)框的交集與并集的比值,用來表示檢測框和真實(shí)框的重疊程度。mAP越高,表示算法在檢測物體位置、類別等方面的準(zhǔn)確性越高??傮w來說,在目標(biāo)檢測任務(wù)中,損失、精度、召回率和mAP_0.5等參數(shù)都是我們需要關(guān)注和優(yōu)化的指標(biāo),以獲得更準(zhǔn)確的檢測結(jié)果。

        利用訓(xùn)練成功后保存的最佳模型權(quán)重參數(shù)對測試集的所有圖像進(jìn)行推理,檢測測試集圖像中的躉船位置,得到圖像中所有躉船的center_xcenter_ywh數(shù)據(jù),模型可以準(zhǔn)確地檢測到躉船的位置并繪制目標(biāo)矩形框,所有圖像的置信度均超過0.90,圖12和圖13分別展示了白天和夜間躉船檢測樣例。利用式(1)進(jìn)行計算得到測試集的潮位數(shù)據(jù)tide,與實(shí)測數(shù)據(jù)進(jìn)行對比分析,平均誤差為5.3cm,直方圖結(jié)果表明測試集中375個數(shù)據(jù)中有14個樣本(3.7%)誤差大于12cm,其他均小于12cm(圖14)。試驗(yàn)結(jié)果表明在測試集中96.3%的樣本數(shù)據(jù)推理的潮位數(shù)值與實(shí)測潮位對比誤差小于3個像素點(diǎn)。截取2023年3月21日6時至3月23日0時共42個小時的實(shí)測潮位與視頻觀測潮位對比過程曲線圖(圖15)可以看出,視頻預(yù)測潮位與實(shí)測潮位的在振幅和相位上的一致性較好。

        2.2 提高視頻觀測潮位精度的方法

        視頻觀測潮位理想的狀況是視頻拍攝到直立式碼頭面與水面交界具有清晰水面線的狀況。通過與本地港務(wù)局、旅游局、海洋局等單位溝通了解調(diào)研,現(xiàn)有近岸攝像頭幾乎全部以拍攝路面為主,主要目的是用于廠區(qū)、碼頭、漁港安全保障,均不具備上述這種理想狀況。像本例廈門高崎碼頭這樣有較大目標(biāo)的躉船輪廓恰好能替代水面線的場景也不多見。

        本例廈門高崎碼頭視頻中一個像素點(diǎn)可覆蓋約4cm 的潮位畫面,其攝像頭精度為1080P,想要達(dá)到1個像素點(diǎn)代表1cm 的潮位,預(yù)期有3種方案。①升級硬件:替換分辨率達(dá)4320P以上的攝像頭;②調(diào)節(jié)現(xiàn)有攝像頭焦距,將攝像畫面光學(xué)放大約4倍,確保最低潮位和最高潮位時的躉船完全在畫面之中,且最高和最低位置相差的像素點(diǎn)數(shù)量超過最大潮差642;③軟件升級:可用最新AI技術(shù)對原始圖像進(jìn)行4倍超分辨率重構(gòu)[18-19],再對圖像進(jìn)行訓(xùn)練和推理,這將是進(jìn)一步試驗(yàn)研究的方向。

        3 結(jié)論

        (1)本文基于視頻圖像深度學(xué)習(xí)的方法,使用YOLOv5目標(biāo)檢測算法對廈門高崎碼頭水域的潮汐特征進(jìn)行潮位分析。依據(jù)視頻畫面中的目標(biāo)主體躉船的運(yùn)動特征,確立躉船縱坐標(biāo)y 值來計算潮位值,是視頻觀測潮位的關(guān)鍵。

        (2)對目標(biāo)圖像即躉船進(jìn)行標(biāo)注時,人為標(biāo)注躉船輪廓外接矩形時可能造成1~2個像素點(diǎn)的誤差,但目標(biāo)圖像中心點(diǎn)的x 坐標(biāo)、寬度和高度僅在較小的幅度內(nèi)變動,表明了標(biāo)注目標(biāo)圖像的穩(wěn)定性。將訓(xùn)練集中的每一個圖像文件對應(yīng)時刻的潮位數(shù)據(jù)與圖像標(biāo)注的縱坐標(biāo)y 進(jìn)行線性相關(guān)分析,相關(guān)系數(shù)可達(dá)0.9989。

        (3)將訓(xùn)練集的圖片和標(biāo)注數(shù)據(jù)使用YOLOv5算法進(jìn)行訓(xùn)練,結(jié)果顯示,目標(biāo)框檢測的損失(train/box_loss)小于0.003,精度(precision)和召回率(recall)達(dá)到0.999和1.00,mAP_0.5:0.95達(dá)到0.999,表明模型的目標(biāo)檢測效果良好。

        (4)本次研究表明在近岸通過高清攝像頭基于圖像深度學(xué)習(xí)進(jìn)行潮位觀測的方法是可行的。在廈門高崎碼頭本研究中現(xiàn)有的軟、硬件條件下,受限于水位圖像目標(biāo)物的分辨率,視頻觀測潮位的平均誤差為像素級,平均誤差為3.9~5.3cm。下一步研究的方向?yàn)槠渌麍鼍跋露ㄖ茢z像頭觀測潮位,并結(jié)合圖像超分辨率重構(gòu)計算,以期達(dá)到厘米級的視頻潮位觀測目標(biāo)。

        參考文獻(xiàn)(References):

        [1] 明眉,岳東杰,朱少林.基于BDS-3/GPS多頻數(shù)據(jù)的GNSS-R海面高度反演方法研究[J].激光與光電子學(xué)進(jìn)展,2023,60(7):1-11.

        MING Mei,YUEDongjie,ZHUShaolin.ResearchonGNSS-RseaheightinversionmethodbasedonBDS-3/GPSmulti-frequencydata[J].Laseramp; OptoelectronicsProgress,2023,60(7):1-11.

        [2] 陳金水.基于視頻圖像識別的水位數(shù)據(jù)獲取方法[J].水利信息化,2013(1):48-51.

        CHENJinshui.Methodofwaterleveldatacapturingbasedonvideoimagerecognition[J],WaterResourcesInformatization,2013(1):48-51.

        [3] 吉建華,孫雨耕,賈偉廣.基于DSP的高精度海洋潮位檢測系統(tǒng)軟件設(shè)計[J].電子技術(shù)應(yīng)用,2014,40(4):15-18.

        JIJianhua,SUNYugeng,JIA Weiguang.Softwaredesignofhigh-precisionoceantidegaugesystembasedonDSP[J].ApplicationofElectronicTechnique,2014,40(4):15-18.

        [4] KETKAR N,MOOLAYILJ.(2021).Introductiontomachinelearninganddeeplearning.In:DeepLearningwithPython.Apress,Berkeley,CA[EB/OL].[2023-02-01].https://doi.org/10.1007/978-1-4842-5364-9_1.

        [5] OpenAI.GPT-4technicalreport,arXiv:2303.08774[EB/OL].[2023-02-01].https://doi.org/10.48550/arXiv.2303.08774

        [6] 謝俊,邸江磊,秦玉文.深度學(xué)習(xí)在水下成像技術(shù)中的應(yīng)用(特邀)[J].光子學(xué)報,2022,51(11):9-56.

        XIEJun,DIJianglei,QINYuwen.Applicationofdeeplearninginunderwaterimaging(invited)[J].ActaPhotonicaSinica,2022,51(11):9-56.

        [7] 彭小紅,梁子祥,張軍,等.深度學(xué)習(xí)驅(qū)動的水下圖像預(yù)處理研究進(jìn)展綜述[J].計算機(jī)工程與應(yīng)用,2021,57(13):43-54.

        PENGXiaohong,LIANGZixiang,ZHANGJun,etal.Reviewofunderwaterimagepreprocessingbasedondeeplearning[J].Computer EngineeringandApplications,2021,57(13):43-54.

        [8] 王桓,吳迪,左秀玲,等.基于U-Net的珊瑚礁遙感影像自動分類[J].海洋測繪,2023,43(1):63-67.

        WANG Huan,WUDi,ZUOXiuling,etal.U-Netmodelforautomaticclassificationofcoralreefremotesensingimages[J].HydrographicSurveyingandCharting2023,43(1):63-67.

        [9] 劉泉宏,張韌,汪楊駿,等.深度學(xué)習(xí)方法在北極海冰預(yù)報中的應(yīng)用[J].大氣科學(xué)學(xué)報,2022,45(1):14-21.

        LIU Quanhong,ZHANGRen,WANGYangjun,etal.ApplicationofdeeplearningmethodstoArcticseaiceprediction[J].TransactionsofAtmosphericSciences,2022,45(1):14-21.

        [10] ERmengjoo,CHENJie,ZHANGYani,etal.Researchchallenges,recentadvances,andpopulardatasetsindeeplearning-basedunderwatermarineobjectdetection:areview[J].Sensors,2023,23(4).

        [11] REDMONJ,F(xiàn)ARHADIA.YOLOv3:anincrementalimprovement[EB/OL].(2018-04-18)[2023-05-09].https://doi.org/10.48550/arXiv.1804.02767

        [12] BOCHKOVSKIYA,WANGCY,MARKLIAO H Y.YOLOv4:optimalspeedandaccuracyofobjectdetection[EB/OL].(2020-04-23)[2023-05-09].https://doi.org/10.48550/arXiv.2004.10934

        [13] Roboflow,Inc.RespondingtothecontroversyaboutYOLOv5[EB/OL].[2023-02-01].https://blog.roboflow.com/yolov4-versus-yolov5/

        [14] 趙夢,于紅,李海清,等.融合SKNet與YOLOv5深度學(xué)習(xí)的養(yǎng)殖魚群檢測[J].大連海洋大學(xué)學(xué)報,2022,37(2):312-319.

        ZHAO Meng,YU Hong,LIHaiqing,etal.DetectionoffishstocksbyfusedwithSKNetandYOLOv5deeplearning[J].JournalofDalianOceanUniversity,2022,37(2):312-319.

        [15] 竇其龍,顏明重,朱大奇.基于YOLO-v5的星載SAR圖像海洋小目標(biāo)檢測[J].應(yīng)用科技,2021,48(6):1-7.

        DOU Qilong,YAN Mingzhong,ZHU Daqi.Smallmarinetargetdetectioninspace-borneSARimagebasedonYOLO-v5[J].AppliedScienceandTechnology,2021,48(6):1-7.

        [16] JIAZiguang,SUXin,MAGuangda,etal.CrackidentificationformarineengineeringequipmentbasedonimprovedSSDandYOLOv5[EB/OL].(2023-01-15)[2023-05-09].https://doi.org/10.1016/j.oceaneng.2022.113534

        [17] DWYERB,NELSONJ,SOLAWETZJ,et.al.Roboflow (Version1.0)[EB/OL].[2023-02-01].https://roboflow.com.computervision.

        [18] RUDINLI,OSHERS,F(xiàn)ATEMIE.Nonlineartotalvariationbasednoiseremovalalgorithms[J].ElsevierBv,1992,60(1):259-268.

        [19] 吳洋,樊桂花.視頻序列超分辨率重構(gòu)技術(shù)綜述[J].軟件,2017,38(4):154-160.

        WU Yang,F(xiàn)ANGuihua.Surveyofsuper-resolutionreconstructiontechniquesforvideosequences[J].ComputerEngineering amp; Software,2017,38(4):154-160.

        猜你喜歡
        深度學(xué)習(xí)
        從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
        面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺構(gòu)建研究
        基于自動智能分類器的圖書館亂架圖書檢測
        搭建深度學(xué)習(xí)的三級階梯
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
        利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        久久久国产打桩机| 中文字幕丰满人妻有码专区| 美女胸又www又黄的网站 | 综合图区亚洲另类偷窥| 日韩精品国产一区二区| 久久久国产精品三级av| 国产一区二区三区精品免费av| 精品久久久久久久久午夜福利| 狼色精品人妻在线视频| 无码高清视频在线播放十区| 亚洲中文字幕在线第二页| 亚洲精品在线免费视频| 国产成人精品无码片区在线观看| 精品无码国产自产拍在线观看| 国产精品丝袜久久久久久不卡| 熟妇与小伙子matur老熟妇e| 国产精品国产三级国产三不| 亚洲无av码一区二区三区| 26uuu在线亚洲欧美| 免费国产裸体美女视频全黄| 国产成人精品麻豆| 男女搞黄在线观看视频| 国产综合精品久久99之一| 黑人巨大跨种族video| 国产亚洲精品A在线无码| 日本中文字幕官网亚洲| 欧美丰满老熟妇aaaa片| 中文字幕一区在线观看视频| 精品欧美久久99久久久另类专区| 美女露屁股无内裤视频| 在线视频色系中文字幕| 亚洲午夜福利在线视频| 日韩中文在线视频| 国产成人综合久久大片| 日韩精品综合一本久道在线视频| 人人爽人人爱| 精品十八禁免费观看| 狠狠亚洲婷婷综合久久久| 伊人婷婷综合缴情亚洲五月| 男人的天堂av网站| 久久中文字幕av一区二区不卡|