Fast Focusing Method for Precision Vision Detection System Based on YOLOv5s
HU Xinyu LIU Xiyang*ZHANG Junwei YAN Shuang LI Yunxiang YE Xuhui School of Mechanical Engineering,Hubei University of Technology,Wuhan,430068
Abstract: During measurement,the visual inspection system was influenced by factors such as production accuracy and assembly errors, leading to defocused and blurred images. Consequently,a rapid focusing method for the precision visual inspection system was developed based on YOLOv5s. This method employed a combination of coarse and fine focusing strategies. Initially,the trained YOLOv5s models were utilized to search for clear imaging depth ranges with an accuracy of 97.6% , completed the coarse focusing processes within 900ms . Subsequently,the clarity evaluation function and an improved search algorithm were applied for precise focusing, swiftly identified the optimal imaging plane within the depth range. Experimental results indicate that within a defocus range of ±4 mm ,the focusing accuracy reaches 0.04mm ,with an average time not exceeding 1600ms ,which reaches a 47.6% reduction compared to existing methods. This method offers rapid speed, high accuracy, and strong adaptability,making it ideally suited for online precision measurements in visual inspection systems.
Key words: autofocus; visual inspection; interval search; clarity evaluation function
0 引言
在光學系統(tǒng)中,正焦位置是指物體在圖像平面上形成最清晰焦點的位置[1]。當物體與其對應的像滿足共軛關系時,成像系統(tǒng)就能夠在正焦位置上實現(xiàn)最佳的成像質量。當焦點移動到物體的前側或后側時,光線未能在圖像平面上正確定位,系統(tǒng)的成像會變得模糊。
視覺檢測技術在工業(yè)制造、智能交通、醫(yī)療診斷等領域獲得了廣泛應用[3]。圖像處理是視覺檢測的核心組成部分,高質量的清晰圖像能夠降低圖像處理中特征提取的難度,從而提高系統(tǒng)處理速度4,因此研究視覺系統(tǒng)的自動調焦技術有著重要價值。
自動調焦技術的演進歷程經(jīng)歷了多個階段。從最開始的手動調焦發(fā)展到被動式和主動式的自動調焦,隨著數(shù)字圖像處理技術的飛速發(fā)展,基于圖像處理的自動調焦技術成為研究熱點[5]。國內對基于圖像處理的自動調焦技術進行了大量研究。潘宏亮等[6提出了改進Sobel算子圖像清晰度評價函數(shù)與粗細調焦結合的變步長兩段式快速搜索自動調焦方法,提高了評價函數(shù)的準確度,并加快了搜索策略的速度。羅其俊等提出了一種基于圓邊響應曲線的離焦估計新算法,實現(xiàn)了調焦參數(shù)的標定和望遠物鏡的自動調焦。上述研究內容集中在改進圖像清晰度評價函數(shù)和聚焦策略方面,依賴于手動設計的規(guī)則和算法,缺乏對復雜數(shù)據(jù)和場景的學習能力。
本文提出一種基于YOLOv5s的視覺系統(tǒng)自動調焦方法,分兩步實現(xiàn)焦平面位置的高精度快速檢測。首先采集聚焦過程的圖像樣本組成數(shù)據(jù)庫,利用YOLOv5s網(wǎng)絡訓練出深度學習模型。學習模型通過實時推理相機采集圖像焦距信息,搜索到景深區(qū)間,并通過伺服電機驅動 Z 軸使相機到達焦平面附近,實現(xiàn)粗調焦。然后,利用清晰度評價函數(shù)和改進搜索算法找到焦平面位置實現(xiàn)精確調焦。
1粗精結合的自動調焦方法
1.1 離焦成像原理分析
光學系統(tǒng)的成像受到失焦等因素的影響,使理想中的點像實際成像為彌散斑。這種失焦現(xiàn)象會導致圖像質量下降,表現(xiàn)為清晰度降低、對比度減弱,以及目標細節(jié)和高頻信息的損失[8-9]
如圖1所示,保持像距 ρv 不變并改變物距 u ,當目標在一定范圍內移動時都能獲得清晰的圖像,這個距離被稱為景深 分別為前后景深)。當保持物距 u 不變,將像面在一定范圍內移動也能獲得清晰的圖像時,這個像面可移動的距離稱為焦深 Δδ(Δδ1…Δδ2 分別為前后焦深)。因此,為了獲得清晰圖像,自動調焦系統(tǒng)通常采用兩種方法:一種是通過改變物距 u 搜索景深區(qū)間 ΔL 的調焦方法,另一種是通過改變像距搜索焦深區(qū)間 Δδ 的變焦方法。
在上述模型中,景深近似計算式如下:
F=f/D
而焦深計算式如下:
式中: F 為鏡頭的拍攝光圈值; f 為鏡頭焦距; D 為鏡頭通光直徑; c 為容許彌散圓直徑; L 為拍攝距離。
由式(6)可知焦深 Δδ 與焦距 f 相關,并且焦深很大程度上與相機的制造有關。由式(2)、式(3)可知景深 ΔL 區(qū)間可通過改變拍攝距離 L 來搜索得到。對于配備定焦鏡頭的工業(yè)相機,由于其焦距 f 為固定值,無法改變成像的視場范圍,因此通常采用改變鏡頭與觀測目標之間的相對距離的方法來搜索景深區(qū)間,從而獲取清晰圖像。
1.2 基于YOLOv5s的粗調焦方法
由于清晰的圖像包含豐富的邊緣和細節(jié)特征,而焦深范圍內的模糊圖像缺乏這些細節(jié)特征,因此可以將圖像劃分為景深范圍內的清晰圖像和離焦模糊圖像。根據(jù)這些特征,可以判斷當前圖像是否屬于景深內圖像,從而實現(xiàn)景深區(qū)間的搜索。深度學習模型無需手動設計特征提取和處理步驟,能夠從大量數(shù)據(jù)中學習復雜的非線性關系,實現(xiàn)端到端的學習。因此,本文引入深度學習來完成景深區(qū)間搜索任務,實現(xiàn)粗調焦過程。
1.2.1 YOLOv5s網(wǎng)絡結構分析
YOLOv5[10-11]作為一種兼顧速度和精度的單階段目標檢測算法,相比于兩階段算法如基于區(qū)域的卷積神經(jīng)網(wǎng)絡(R-CNN),舍棄了候選框提取階段,直接對圖像進行分類和回歸,具有較快的檢測速度。YOLOv5s模型在保持較高檢測精度的同時具有更快的目標檢測速度[12],更加符合自動調焦系統(tǒng)實時處理的需求,因此本文選用YOLOv5s模型。
如圖2所示,YOLOv5s網(wǎng)絡結構主要由輸入端、Backbone、Neck、Head 組成[13]。相機實時采集的圖像經(jīng)過輸入端預處理后被送人Backbone主干網(wǎng)絡進行特征提取,然后通過Neck網(wǎng)絡對提取的特征進行多尺度特征融合,接著在融合后的特征圖上通過檢測頭部分Head進行目標檢測和分類,最后通過后處理技術得到圖像類別及其對應的置信度。
1.2.2 損失函數(shù)的選擇
平板后蓋中含有金屬材料,當光線照射到平板后蓋時,金屬表面會產(chǎn)生反射和散射效應,使得光照在不同區(qū)域的分布出現(xiàn)不均勻。除此之外,在工業(yè)環(huán)境下圖像還會受到復雜背景、溫度波動等外界因素的影響,這些干擾不僅降低了圖像的質量,還增加了目標檢測任務中的噪聲水平,從而影響模型的檢測精度。
損失函數(shù)作為目標檢測任務中的關鍵因素之一,直接影響模型的訓練效果和檢測性能。相比于模型默認的CIoULoss損失函數(shù),Alpha-IoU損失函數(shù)通過引入可調節(jié)參數(shù) α ,能夠在不同程度上調整對重疊區(qū)域和非重疊區(qū)域的關注度,通過調整 α 值,能夠降低噪聲對IoU的影響,提高模型對噪聲的魯棒性和檢測的精度。經(jīng)實驗驗證,當 α=3 時,Alpha-IoU達到較好的檢測效果,且不會額外增加訓練推斷時間,因此選用αIoU_Loss作為損失函數(shù)。αIoU_Loss的定義如下:
式中: I 為預測框和真實框的交并比; b,bgt 分別為預測框與真實框中心點; ρ 為歐氏距離計算函數(shù); c 為包含預測框和真實框的最小矩形的對角線距離; V 為預測框和真實框寬高比之間的差異; β 為權重參數(shù); 分別為預測框和真實框的寬度和高度。
1.3 基于清晰度評價函數(shù)的精調焦方法
如果將正焦平面圖像作為一個單獨類別,利用深度學習完成精調焦過程,由于景深區(qū)間內圖像的清晰度較高且差異較小,隨著卷積層數(shù)的加深,景深區(qū)間圖像特征被抽象到較高的層次,焦平面及其附近圖像可能會被錯誤分類,所以提出基于清晰度評價函數(shù)的精調焦方法。
由圖3圖像清晰度與成像位置的關系曲線可知,對于固定像距的成像系統(tǒng),當自標物體位于景深△L范圍內時,能夠產(chǎn)生相對清晰的圖像[14],且圖像清晰度會先增大后減小,曲線存在唯一峰值,該峰值對應的正焦位置即為精調焦需搜索位置。精調焦的控制原理為:伺服電機控制相機在景深區(qū)間內移動,獲取各位置圖像清晰度評價值,并配合搜索算法移動物鏡以搜索清晰度峰值位置,該處即為焦平面位置。
2基于YOLOv5s的粗調焦算法實現(xiàn)
2.1 粗調焦網(wǎng)絡模型訓練
本文設計的自動調焦系統(tǒng)基于實際的平板后蓋精密尺寸視覺測量。圖4為lenovo、honor、realme三種平板后蓋在視覺測量中計算裝配尺寸的目標區(qū)域細節(jié)圖。后續(xù)特征提取及算法實現(xiàn)依賴于目標區(qū)域的清晰圖像,因此選用圖中三種平板的目標區(qū)域圖像用于自動調焦成像,以完成搜索焦平面的前置工作。如圖5所示,為到正焦平面的距離。圖5c為三類平板的正焦平面圖像,圖5a和圖5e分別為距離正焦面 +3.0mm 的正離焦圖像和一 -3.0mm 的負離焦圖像,圖5b為前景深區(qū)域與正離焦區(qū)域臨界點位于 +0.4mm 附近的圖像,圖5d為后景深區(qū)域與負離焦區(qū)域臨界點位于- -0.4mm 附近的圖像。
在實際制作數(shù)據(jù)集過程中,首先將伺服電機的步距初始化為 0.1mm ,相機曝光時間設定為30ms ,圖像分辨率為 2448×2048 ,并依次從近到遠采集 ±4.0mm 的圖像。自動調焦系統(tǒng)會在新的線程中實時接收所采集的圖像及其位置信息。對每一類平板重復上述操作,共采集10組數(shù)據(jù),獲取2400張圖片。隨后遍歷所有圖像的位置信息,將正離焦和負離焦區(qū)間的圖像合并為離焦類,標簽值為0;將前景深、后景深及正焦面圖像合并為清晰圖像,標簽值為1。然后按 8:1:1 的比例隨機選取訓練數(shù)據(jù)、驗證數(shù)據(jù)和測試數(shù)據(jù)。
模型訓練的硬件環(huán)境包括CPUIntel(R)Core(TM)i7-12700K和GPURTX3070,軟件環(huán)境為Python3.10.9、CUDA12.1、Pytorch2.0.0、libtorch2.2.2。在訓練階段,通過微調超參數(shù)值(表1)來提高模型的性能和訓練速度。未提到的超參數(shù)與YOLOv5官方提供的默認參數(shù)相同。
2.2 評價指標
為了準確反映模型在每種平板后蓋景深區(qū)間
的搜索性能,采用不同的評價標準評價模型性能。
1)分類任務評價指標[15]:精度 P 、召回率 R 、F1 分數(shù)。
2)目標檢測任務評價指標:平均精度 uAP 及均值平均精度 ,計算公式如下:
其中, P(R) 為Precision-Recall曲線函數(shù); Q 為類別總數(shù); uAP(i) 為第 i 個類別的平均精度; uAP 代表Precision-Recall曲線下的面積,可以反映模型在單個類別上的檢測性能; 代表所有類別平均精度的平均值,可以綜合表達模型在不同類別上的檢測準確度。
3)速度和效率指標:每秒處理的幀數(shù)(FPS)及推理時間,用于評估實時系統(tǒng)的性能。
2.3 粗調焦性能對比實驗
為了判斷模型是否能完成粗調焦要求,在自制的數(shù)據(jù)集下對YOLOv5s-αIoU和當前主流目標檢測算法SSD(單階段多框檢測器)[16]、Fast R- CNN[17] 、 YOLOv3-tiny[18]、 YOLOv4[19]、YOLOv5s、YOLOv7-tiny[20]進行對比實驗,對比不同算法的性能、精度、處理速度,結果如表2和表3所示。
表2記錄了不同算法在三種平板后蓋上的P?R?F1 值, YOLOv5s–αIoU 算法針對這三種平板后蓋的 F1 分數(shù)分別達到了 96.4%.97.4% 、98.0% ,優(yōu)于其他檢測算法。這表明, YOLOv5s- αIoU 相比于其他算法能更準確地區(qū)分處于離焦區(qū)間的模糊圖像和處于景深區(qū)間的清晰圖像。
表3中的數(shù)據(jù)表明,F(xiàn)astR-CNN算法雖然精度較高,為 92.9% ,但它對單幅圖像的推理時間長達 83.33ms ,檢測效率較低;SSD算法推理時間較短,檢測效率有一定優(yōu)勢,但是精度較低僅為82.1% ,整體效果與YOLO系列算法差距較大。由于電機步距僅為 0.1mm ,處于景深區(qū)間和離焦區(qū)間臨界點的圖像之間差異極小,因此能夠正確判斷圖像是否位于景深區(qū)間即精度是相對重要的評價指標。YOLOv3-tiny算法由于參數(shù)量較少,推理速度最快,僅需 4.63ms ,但在精度上相對較低;YOLOv5s 在檢測精度上相比 YOLOv7-tiny提高了 3.3% ,且在檢測精度和速度上均優(yōu)于YOLOv4; YOLOv5s–αIoU 相比YOLOv5s在檢測精度上提高了 0.2% ,幀數(shù)增加了5幀。綜上所述,YOLOv5s-αIoU在這些模型中有更好的表現(xiàn),能夠加速收斂并提高檢測精度。
3基于清晰度評價函數(shù)的精調焦算法實現(xiàn)
3.1 清晰度評價函數(shù)性能分析
在精調焦過程中,相機以步長 ΔS=0.02mm 在景深區(qū)間 ±0.4mm 進行成像采集,共采集40張圖像。由于目標區(qū)域小于圖像視場,為了減小評價函數(shù)的計算量并提高算法的效率和響應速度,在進行清晰度評價之前先提取ROI區(qū)域。選用目前三大類不同的調焦評價函數(shù)[21]即空域Brenner、Laplace、Tenengrad函數(shù),以及頻域DFT函數(shù)和信息熵Entropy函數(shù)對圖像進行清晰度評價,得到圖6所示的歸一化評價曲線和表4所示各評價函數(shù)對單張圖像評價所用的時間。
綜合圖6和表4可以看出,信息熵Entropy函數(shù)在精度和效率上都不如其他函數(shù);Laplace和Tenengrad函數(shù)在精度和效率相似,但與Brenner函數(shù)還有一定差距;DFT函數(shù)雖然精度最高,但其評價時間均超過 1000ms ,效率較低,不滿足系統(tǒng)實時性要求;Brenner函數(shù)在精度上僅比DFT函數(shù)低0.005,差距較小,同時處理圖像所需的時間僅約 15ms ,遠低于其他函數(shù)。因此選取Bren-ner函數(shù)作為精調焦過程中的圖像清晰度評價函數(shù)。
3.2 精調焦算法流程設計
在選取合適的評價函數(shù)后,需要一定的調焦搜索算法來判斷對焦狀況,尋找焦平面位置。爬山搜索法[22]原理簡單,計算快捷,且根據(jù)上面的分析可知Brenner評價函數(shù)曲線接近單峰曲線,因此,可選取爬山法解決景深區(qū)間下的焦平面搜索問題。由于坐標軸運動產(chǎn)生的振動及噪聲影響,本文對爬山算法進行了改進以提高搜索穩(wěn)定性。改進后的搜索流程如圖7所示。 ① 選取區(qū)間中點為起始點,計算當前位置圖像的清晰度值C0 : ②Z 軸沿正方向移動 0.02mm ,待 Z 軸穩(wěn)定20ms后,計算該位置及下一位置圖像的清晰度值
Ci 、 Ci+1 ③ 若 C0ii+1 ,即三點的值連續(xù)上升,則說明搜索方向正確,增大步距為 0.04mm 并繼續(xù)沿正方向搜索,而不僅僅只使用兩次結果來判定,這種改進能夠有效提高搜索精度和穩(wěn)定性; ④ 若 Cigt;Ci+1gt;Ci+2 ,說明已經(jīng)越過焦平面,則改變搜索方向并減小步距為 0.02mm ,繼續(xù)對比前后圖像間的清晰度值; ⑤ 若再次出現(xiàn) Cigt; Ci+1gt;Ci+2 ,則此時第 i 張圖位置則為焦平面的位置。
4系統(tǒng)設計及實驗結果
4.1 系統(tǒng)設計
本文的自動調焦系統(tǒng)如圖8所示,可以分為機械系統(tǒng)、控制系統(tǒng)和軟件系統(tǒng)三大部分。機械系統(tǒng)包含電機、光柵、傳感器等組件,確保了平板后蓋在三維空間的精確定位;視覺系統(tǒng)作為機械系統(tǒng)核心部分,由HIKROBOT公司的MV-CA050-12UM相機、MVL-MY-08-65-MP遠心鏡頭(相機和鏡頭具體參數(shù)分別見表5和表6)和MV-LRSS-H-80-W無影環(huán)形LED光源構成。
控制系統(tǒng)以西門子S7-1200PLC為核心,外圍包括啟停電路、傳感線路、驅動線路 (X,Y 軸直線電機行程約 300mm ,重復定位精度不大于2μm;Z 軸直線電機行程約 50mm ,重復定位精度不大于 0.01mm 和控制線路,內部則采用LAD與STL混合邏輯編程的可通信程序;軟件系統(tǒng)以PC(GPU為RTX3070、CPU為i7-12700K,使用VisualStudio2017搭載 QT5.12.12 及l(fā)ibtorch開發(fā)UI交互界面)為載體,完成圖形處理工作。
視覺系統(tǒng)自動調焦流程如圖9所示。其中:
相機從初始位置由近及遠采集圖像,并傳入粗調焦網(wǎng)絡模型獲取清晰度推理值 R(Zx) 。為避免局部峰值影響,當 Sum(Zx)gt;3 時才確認進入景深區(qū)間, Zx 為前景深起點,從而有效排除局部極值和干擾帶來的誤判斷,準確可靠地搜索到景深區(qū)間起點。然后繼續(xù)計算后續(xù)圖像區(qū)間推理值,直到出現(xiàn) R(Zy+1)=0 ,說明已經(jīng)越過景深區(qū)間,此時判定上一張圖像的位置 Zy 為后景深區(qū)間終點。景深區(qū)間為 [X,Y] ,完成粗調焦過程。隨后進入圖7的精調焦過程,完成對焦平面的搜索。
4.2 實驗結果與分析
為了驗證本文自動調焦系統(tǒng)的性能,對本文自動調焦方法進行了可重復性和效率測試。
1)可重復性實驗。對本文方法進行10次可重復性測試,搜索三種平板后蓋的景深區(qū)間及焦平面位置,繪制了圖10所示的結果曲線。從圖10中可以看出,通過粗調焦得到三類平板后蓋的DOF-SP(景深區(qū)間起點)和DOF-EP(景深區(qū)間終點)均有超過一半的數(shù)據(jù)準確定位到標準值 ±0.4 mm上,其余數(shù)據(jù)的誤差控制在 ±0.1mm 一個步長范圍內,誤差范圍較小。精調焦計算得到FP(焦平面位置)與理論正焦平面的誤差在 ±0.04 mm 范圍內,由于 ±0.04mm 內的圖像足夠清晰,滿足后續(xù)處理要求,因此,使用本文方法能夠將相機準確地移動到焦平面 ±0.04mm 的位置。自動
2)效率對比實驗。表7所示為使用本文方法及基于Brenner清晰度評價函數(shù)和爬山搜索算法的傳統(tǒng)方法,對三種平板后蓋進行20組調焦測試的結果,記錄了不同平板后蓋焦平面所需的平均時間及調焦失敗次數(shù)。由表7可知,本文方法相比傳統(tǒng)方法,調焦時間分別縮短了 46.52% 、48.36% 和 48.05% ,在效率上占據(jù)優(yōu)勢。此外,由于傳統(tǒng)方法步驟較多,容易受到系統(tǒng)噪聲及振動等外部因素的影響,出現(xiàn)一次調焦失敗情況,而本文方法在粗調焦和精調焦中均改進了判斷條件,提高了系統(tǒng)穩(wěn)定性,沒有出現(xiàn)調焦失敗。因此,本文提出的自動調焦系統(tǒng)相比傳統(tǒng)方法有步驟少、效率高的優(yōu)點,為基于圖像的自動調焦技術提供一種新的思路。
5結論
視覺檢測系統(tǒng)的自動調焦是保證成像質量的關鍵技術之一,本文提出了一種基于YOLOv5s的快速調焦方法。首先,闡述了物方遠心成像原理及粗精調焦方法,制作了位于離焦區(qū)間及景深區(qū)間圖像數(shù)據(jù)集,利用YOLOv5s訓練出的模型搜索景深區(qū)間,完成粗調焦。其次,對比不同清晰度評價函數(shù)的評價效果,選用了Brenner清晰度評價函數(shù),并結合改進的爬山搜素策略完成精調焦,實現(xiàn)了焦平面的快速準確檢測。使用精密視覺檢測系統(tǒng)的測量對象(不同類型平板后蓋)驗證了本文方法的性能。實驗結果表明:本文自動調焦方法能夠在 1600ms 內完成,調焦精度可達到±0.04mm ,能夠滿足視覺系統(tǒng)后續(xù)圖像處理的速度和精度需求,在精密視覺檢測領域具有實用意義和推廣價值。
參考文獻:
[1]張懷利,李迎春,張廷華.一種基于圖像清晰度函數(shù)的調焦機構限區(qū)間變速控制方法[J].應用光學,2021,42(6):969-974.ZHANG Huaili,LI Yingchun,ZHANG Tinghua,etal.Method of Variable Speed Control for Focu-sing Mechanism Limited Interval Based on ImageDefinition Function[J]. Journal of Applied Optics,2021,42(6):969-974.
[2] 姚曹,朱文越,徐文清,等.結合跟星系統(tǒng)成像特征的自動調焦系統(tǒng)設計[J].光學精密工程,2023,31(14):2009-2018.
YAOCao,ZHUWenyue,XUWenqing,et al.Design of Auto-focusing System Combining Imaging Characteristics of Follow Star System[J].Optics and Precision Engineering,2023,31(14):2009- 2018.
[3]肖作江,朱海濱,徐志剛.基于圖像自準直自動調焦技術[J].光子學報,2016,45(10):47-51.XIAO Zuojiang, ZHU Haibin,XU Zhigang. Basedon Image Autocollimation Automatic Focus Tech-nology[J]. Acta Photonica Sinica,2016,45(10):47-51.
[4]李洋,王國名,王穎,等.面向機器視覺測量的液體透鏡調焦系統(tǒng)標定方法[J].紅外與激光工程,2022,51(6):313-322.LI Yang,WANG Guoming,WANG Ying, et al.Calibration Method of Liquid Lens Focusing Systemfor Machine Vision Measurement[J]. Infrared andLaser Engineering,2022,51(6):313-322.
[5]高宇軒,陳星明,代俊,等.國內外調焦機構研究綜述及發(fā)展趨勢[J].紅外,2023,44(4):20-32.GAO Yuxuan,CHEN Xingming,DAI Jun,et al.Review and Development Trend of Domestic andForeign Focusing Mechanism[J]. Infrared,2023,44(4) :20-32.
[6]潘宏亮,孫金霞,韓希珍.圖像清晰度評價與變步長融合調焦方法[J].紅外與激光工程,2023,52(1):248-253.PAN Hongliang,SUN Jinxia,HAN Xizhen,et al.Image Sharpness Evaluation and Variable-Step Fu-sion Focusing Method[J]. Infrared and Laser Engi-neering,2023,52(1):248-253.
[7]羅其俊,葛寶臻.基于圓邊響應離焦估計的望遠物鏡自動調焦方法[J].中國光學,2020,13(4):760-769.LUO Qijun,GE Baozhen. An Automatic FocusingMethod of a Telescope Objective Lens Based on theDefocusing Estimation of a Circular Edge Response[J].Chinese Optics,2020,13(4):760-769.
[8]楊聚圃,杜佳林,李凡星,等.基于深度學習的數(shù)字光刻自動檢焦方法[J].光子學報,2022,51(6):261-273.YANG Jupu,DU Jialin,LI Fanxing,et al. DeepLearning Based Method for Automatic Focus Detec-tion in Digital Lithography[J]. Acta Photonica Sini-ca,2022,51(6):261-273.
[9]譚偉,齊文雯,何紅艷,等.一種推掃型敏捷遙感衛(wèi)星星上自動調焦技術[J].光學學報,2020,40(5):197-204.TAN Wei,QI Wenwen,HE Hongyan,et al. AnOn-board Autofocusing Method for Scanning AgileRemote Sensing Satellite[J]. Acta Optica Sinica,2020,40(5):197-204.
[10]張學志,趙紅東,劉偉娜,等.基于改進YOLOv5的紅外車輛檢測方法[J].紅外與激光工程,2023,52(8):243-252.ZHANG Xuezhi, ZHAO Hongdong,LIU Weina,et al.An Infrared Vehicle Detection Method Basedon Improved Yolov5[J]. Infrared and Laser Engi-neering,2023,52(8):243-252.
[11]WANG Hai, CAI Yingfeng,CHEN Xiaobo,et al.Night-time Vehicle Sensing in Far Infrared Imagewith Deep Learning[J]. Journal of Sensors,2015,2016(Pt.1) :3403451:1-8.
[12]劉彥磊,李孟喆,王宣宣.輕量型YOLOv5s車載紅外圖像目標檢測[J].中國光學(中英文),2023,16(5) :1045-1055.LIU Yanlei, LI Mengzhe, WANG Xuanxuan.Lightweight Yolov5s Vehicle Infrared Image Tar-get Detection[J].Chinese Optics,2023,16(5):1045-1055.
[13]薛康,劉琨,江俊峰,等.基于 YOLOv5s 模型的光纖振動傳感事件精準檢測研究[J].光學學報,2023,43(2):262-272.XUE Kang,LIU Kun, JIANG Junfeng,et al. Optical Fiber Vibration Sensing Detection with HighAccuracy Based on YOLOv5s Model[J]. Acta Op-tica Sinica,2023,43(2):262-272.
[14]楊瑞宇,呂浩,龔曉霞,等.紅外成像系統(tǒng)中自動對焦功能優(yōu)化方法研究[J].紅外技術,2020,42(10):940-946.YANG Ruiyu,LYU Hao,GONG Xiaoxia,et al.Optimizing Method of Autofocusing Function inInfrared Imaging System[J]. Infrared Technology,2020,42(10):940-946.
[15]李大湘,蘇仲恒,劉穎.基于改進 YOLOv4 的道路交通標志識別[J].光學精密工程,2023,31(9):1366-1378.LI Daxiang,SU Zhongheng,LIU Ying. RoadTraffic Sign Recognition Algorithm Based on Improved Yolov4[J]. Optics and Precision Engineer-ing,2023,31(9) :1366-1378.
[16]陳家棟,雷斌.基于改進 SSD 輕量化的交通路口目標檢測[J].傳感器與微系統(tǒng),2022,41(10):117-121.CHEN Jiadong,LEI Bin. Trafic Intersection Tar-get Detection Based on Improved SSD Lightweight[J]. Transducer and Microsystem Technologies ,2022,41(10):117-121.
[17]AHN H,LEE J. Classification of Vehicles Basedon Faster R-CNN Suitable for Use in Actual RoadEnvironments[J]. Korean Institute of IntelligentSystems,2018,28(3):210-218.
[18]WANG Yanming, JIA Kebin,LIU Pengyu. Impo-lite Pedestrian Detection by Using EnhancedYOLOv3-tiny[J]. Computers,Materials and Con-tinua(Tech.SciencePress),202O,2(3):113-124.
[19]吳鳳和,崔健新,張寧,等.基于改進YOLOv4 算法的輪轂表面缺陷檢測[J].計量學報,2022,43(11) :1404-1411.WU Fenghe,CUI Jianxin, ZHANG Ning,et al.Surface Defect Detection of Wheel Hub Based onImproved YOLOv4 Algorithm[J]. Acta Metrolog-ica Sinica,2022,43(11):1404-1411.
[20] 薛珊,安宏宇,呂瓊瑩,等.復雜背景下基于YOLOv7-tiny的圖像目標檢測算法[J].紅外與激光工程,2024,53(1):269-280.XUE Shan,AN Hongyu,LYU Qiongying,et al.Image Target Detection Algorithm Based onYolov7-tiny in Complex Background[J]. Infraredand Laser Engineering,2024,53(1) :269-280.
[21]翟永平,周東翔,劉云輝.極小景深條件下顯微鏡大范圍聚焦算法[J].光學學報,2012,32(4):189-198.ZHAI Yongping, ZHOU Dongxiang,LIU Yun-hui. Large Range Autofocusing Algorithm for Mi-croscopy with Small Depth of Field[J]. Acta Opti-ca Sinica,2012,32(4):189-198.
[22]秦富貞,陳玉杰,劉曉玲.基于圖像技術的光電測量設備智能調焦方法[J].激光雜志,2020,41(9):192-195.QIN Fuzhen,CHEN Yujie,LIU Xiaoling,et al.Intelligent Focusing Method for PhotoelectricMeasuring Equipment Based on Image Technology[J].Laser Journal,2020,41(9):192-195.
(編輯袁興玲)
作者簡介:胡新宇,男,1975年生,教授、博士研究生導師。研究方向為機器視覺檢測與智能控制。E-mail:19991012@mail.hbut.edu.cn。劉錫陽*(通信作者),男,2000年生,碩士研究生。研究方向為機器視覺、圖像處理。E-mail:1047974853@qq.com。
本文引用格式:
胡新宇,劉錫陽,張駿巍,等.基于YOLOv5s的精密視覺檢測系統(tǒng)快速調焦方法[J].中國機械工程,2025,36(4):864-872.HUXinyu,LIU Xiyang,ZHANGJunwei,et al.Fast FocusingMethod for Precision Vision Detection System BasedonYOLOv5s[J].China Mechanical Engineering,2025,36(4):864-872.