候選框
- 迭代框架優(yōu)化的密集場(chǎng)景單棵樹(shù)木檢測(cè)
預(yù)設(shè)的錨框產(chǎn)生候選框,然后進(jìn)行特征提取,最后進(jìn)入分類(lèi)和回歸的流程.Mask R-CNN[11]采用RoI Align代替RoI Pooling進(jìn)行進(jìn)一步優(yōu)化,解決了RoI特征和回歸位置的不匹配問(wèn)題.王文豪等人[12]認(rèn)為該類(lèi)算法感受野較大,不適合遙感圖像中目標(biāo)偏小的情況.單階段檢測(cè)以YOLO系列[13]和SSD系列[14]為代表,跳過(guò)了候選框的生成步驟,直接回歸得到類(lèi)別概率和樣本坐標(biāo).YOLO系列對(duì)比兩階段檢測(cè)速度更快,但精度有所下降且泛化性弱.SSD系列
小型微型計(jì)算機(jī)系統(tǒng) 2023年11期2023-11-10
- 基于改進(jìn)AI-YOLO v4算法的施工現(xiàn)場(chǎng)安全預(yù)警技術(shù)研究
定框;B為預(yù)測(cè)候選框。很明顯,如果A∩B=?,那么交并比為0,無(wú)法進(jìn)行網(wǎng)絡(luò)訓(xùn)練[14]。結(jié)合前人的研究成果,對(duì)其進(jìn)行改進(jìn),定義邊界框回歸損失函數(shù)(GIOU)為:(4)式中:C為包含A和B的最小框。很明顯所定義的邊界框回歸損失函數(shù)沒(méi)有考慮真實(shí)標(biāo)定框和預(yù)測(cè)候選框中心的距離,對(duì)其進(jìn)行修正,提出新的邊界框回歸損失函數(shù),即:(5)式中:b、bgt分別為預(yù)測(cè)框與真實(shí)框的中心點(diǎn);ρ(b,bgt)為預(yù)測(cè)框與真實(shí)框中心點(diǎn)歐氏距離;c為預(yù)測(cè)框與真實(shí)框相交矩形區(qū)域?qū)蔷€(xiàn)長(zhǎng)度;ω
粘接 2023年10期2023-10-20
- 圖像級(jí)標(biāo)記弱監(jiān)督目標(biāo)檢測(cè)綜述
上生成大量目標(biāo)候選框,然后對(duì)目標(biāo)候選框提取特征并預(yù)測(cè)其類(lèi)別,最后將預(yù)測(cè)結(jié)果與輸入的圖像類(lèi)別標(biāo)記計(jì)算損失并以此更新模型參數(shù)。所以,整個(gè)弱監(jiān)督目標(biāo)檢測(cè)問(wèn)題可理解為學(xué)習(xí)一個(gè)從圖像包含的若干候選框到圖像類(lèi)別標(biāo)記的映射關(guān)系。圖1 弱監(jiān)督目標(biāo)檢測(cè)訓(xùn)練和測(cè)試示意圖Fig.1 Illustration of training and test phases in weakly-supervised object detection1.2 基礎(chǔ)框架弱監(jiān)督目標(biāo)檢測(cè)所需解決的問(wèn)
中國(guó)圖象圖形學(xué)報(bào) 2023年9期2023-09-26
- 改進(jìn)YOLOv4的安全帽佩戴檢測(cè)方法
數(shù);最后采用多候選框學(xué)習(xí)策略減少漏檢的概率。實(shí)驗(yàn)表明,改進(jìn)后的方法在視頻監(jiān)控下滿(mǎn)足安全帽佩戴檢測(cè)的準(zhǔn)確性和實(shí)時(shí)性。1 YOLOv4原理1.1 特征提取網(wǎng)絡(luò)CSPDarkNet53YOLOv4使用新的特征提取網(wǎng)絡(luò)CSPDarkNet53代替YOLOv3[5]中采用的darknet53特征提取網(wǎng)絡(luò)。新的特征提取網(wǎng)絡(luò)首先借鑒CSPNet[6](Cross Stage Partial Network)網(wǎng)絡(luò)結(jié)構(gòu),將梯度變化整合到特征圖中,增強(qiáng)卷積網(wǎng)絡(luò)的學(xué)習(xí)能力,在保
計(jì)算機(jī)應(yīng)用與軟件 2023年2期2023-03-15
- 基于改進(jìn)Faster R-CNN的航空發(fā)動(dòng)機(jī)制件表面缺陷檢測(cè)算法
測(cè)精度,并根據(jù)候選框尺度截取對(duì)應(yīng)層級(jí)的特征圖,該模型在傳統(tǒng)目標(biāo)檢測(cè)中檢測(cè)精度有較大提升,但在航空部件的缺陷檢測(cè)中效果并不好,仍有較大改進(jìn)空間。在此次研究中,由于實(shí)際生產(chǎn)數(shù)據(jù)未脫敏,同時(shí)也為了更好地和其他模型進(jìn)行比較,本文作者選取和實(shí)際制件數(shù)據(jù)較為接近的東北大學(xué)鋼帶表面缺陷公共數(shù)據(jù)集NEU-DET[7]作為研究對(duì)象,提出一個(gè)基于Faster R-CNN的改進(jìn)模型(如圖1所示)。該模型使用深度殘差網(wǎng)絡(luò)ResNet-50[8]作為卷積部分提取缺陷特征,使用含有內(nèi)
機(jī)床與液壓 2022年23期2022-12-29
- 面向設(shè)備開(kāi)關(guān)圖像識(shí)別的改進(jìn)Faster R-CNN①
強(qiáng)、特征融合和候選框的設(shè)計(jì)改進(jìn)Faster R-CNN 模型.上述方法均是針對(duì)單一的開(kāi)關(guān)類(lèi)型,只能應(yīng)用到相近的領(lǐng)域,限制了方法的普適性.相較于上述文獻(xiàn)中所述的設(shè)備開(kāi)關(guān)操作場(chǎng)景,本文研究的操作場(chǎng)景更加復(fù)雜,具體表現(xiàn)為設(shè)備控制所涉及的開(kāi)關(guān)種類(lèi)繁多、同類(lèi)開(kāi)關(guān)形狀與大小也各異.從開(kāi)關(guān)的類(lèi)型及其狀態(tài)劃分,總共分為18 類(lèi)開(kāi)關(guān),36 種開(kāi)關(guān)狀態(tài); 從圖像數(shù)據(jù)分析,圖像中的開(kāi)關(guān)密集分布,形狀相似,數(shù)量較多.這些都給開(kāi)關(guān)識(shí)別帶來(lái)了很大的困難.針對(duì)這些挑戰(zhàn),本文提出了一種面
計(jì)算機(jī)系統(tǒng)應(yīng)用 2022年10期2022-11-07
- 一種改進(jìn)的多任務(wù)級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)人臉檢測(cè)算法
質(zhì)就是篩選人臉候選框的過(guò)程,在這個(gè)過(guò)程中使用的篩選算法是NMS算法。該算法在目標(biāo)檢測(cè)領(lǐng)域被廣泛應(yīng)用,其主要目的是更好地排除冗余的檢測(cè)框,保留精準(zhǔn)度更高的回歸窗口。在傳統(tǒng)的NMS算法中,交并比(Intersection over Union, IOU)閾值的設(shè)置會(huì)直接影響到候選框的保留或者刪除,若閾值過(guò)高則達(dá)不到過(guò)濾的作用,而閾值設(shè)置過(guò)低則會(huì)刪除掉大量的候選框,難以實(shí)現(xiàn)分類(lèi)平衡。因此,在實(shí)際應(yīng)用的過(guò)程中找到一個(gè)合適的閾值是困難的。IOU是判斷人臉框擾動(dòng)程度的
- 結(jié)合強(qiáng)化學(xué)習(xí)自適應(yīng)候選框挑選的SAR目標(biāo)檢測(cè)方法
N)產(chǎn)生的大量候選框進(jìn)行挑選時(shí),往往采用非極大值抑制(Non-Maximum Suppression,NMS)方法。在大場(chǎng)景SAR圖像檢測(cè)中,由于目標(biāo)特征易受雜波影響,可鑒別性更差,并且單個(gè)目標(biāo)占據(jù)圖像比例更小,導(dǎo)致基于Faster R-CNN的目標(biāo)檢測(cè)方法在整張?zhí)卣鲌D上產(chǎn)生的候選框會(huì)包含大量雜波,而NMS方法無(wú)法在篩選候選框時(shí)有效去除雜波,導(dǎo)致目標(biāo)檢測(cè)產(chǎn)生大量虛警。近幾年,在人工智能領(lǐng)域中,強(qiáng)化學(xué)習(xí)[14,15]得到了廣泛關(guān)注。強(qiáng)化學(xué)習(xí)根據(jù)當(dāng)前自身狀態(tài)(
雷達(dá)學(xué)報(bào) 2022年5期2022-11-01
- 基于輕量化SSD算法的行人目標(biāo)檢測(cè)
)減少篩選區(qū)域候選框以及選用自適應(yīng)極大值抑制方法排除重疊檢測(cè)框,在人群密度不一致的情況下,提高了檢測(cè)的精度和速度。2)通過(guò)使用MobilenetV2網(wǎng)絡(luò)代替?zhèn)鹘y(tǒng)的VGG網(wǎng)絡(luò)進(jìn)行特征提取,減少模型規(guī)模。2 相關(guān)工作2.1 SSD檢測(cè)算法針對(duì)傳統(tǒng)目標(biāo)識(shí)別中的問(wèn)題,基于深度學(xué)習(xí)的目標(biāo)識(shí)別檢測(cè)方法被提出,Ross Girshick等人于2014年提出R-CNN算法,這是首個(gè)將深度學(xué)習(xí)成功應(yīng)用于目標(biāo)識(shí)別檢測(cè)上的算法,Ross Girshick等人又于2015年提出F
計(jì)算機(jī)仿真 2022年9期2022-10-25
- Fast Stereo-RCNN三維目標(biāo)檢測(cè)算法
采樣,生成三維候選框.第2步三維候選框投影生成二維檢測(cè)框,F(xiàn)aster-RCNN[5]提取特征,依據(jù)語(yǔ)義、上下文、先驗(yàn)信息計(jì)算檢測(cè)框的損失函數(shù),精確提取三維檢測(cè)框.Mono3D用復(fù)雜的先驗(yàn)信息提取三維檢測(cè)框,存在損失函數(shù)誤差累計(jì)問(wèn)題,平均檢測(cè)精度為2.38%.候選框密集采樣與多個(gè)先驗(yàn)特征融合計(jì)算量大,檢測(cè)速度為3秒/幀.Li等人在2019年提出了基于Faster-RCNN的Stereo-RCNN[7]三維目標(biāo)檢測(cè)算法.Stereo-RCNN將雙目圖像作為網(wǎng)
小型微型計(jì)算機(jī)系統(tǒng) 2022年10期2022-10-15
- 面向多目標(biāo)跟蹤系統(tǒng)的專(zhuān)用循環(huán)目標(biāo)檢測(cè)器
ch 方法選取候選框并分別進(jìn)行分類(lèi)和位置回歸。在此基礎(chǔ)上,文獻(xiàn)[2]和文獻(xiàn)[3]分別實(shí)現(xiàn)了端到端的訓(xùn)練方式、ROI Pooling 技術(shù)和候選框推薦網(wǎng)絡(luò)(RPN)代替Selective search 選取候選框等優(yōu)化策略,進(jìn)一步提高了網(wǎng)絡(luò)的訓(xùn)練速度和檢測(cè)速度。文獻(xiàn)[4]通過(guò)級(jí)聯(lián)幾個(gè)檢測(cè)網(wǎng)絡(luò)達(dá)到不斷優(yōu)化預(yù)測(cè)結(jié)果的目的,與普通級(jí)聯(lián)不同的是,它的幾個(gè)檢測(cè)網(wǎng)絡(luò)是基于不同IOU 閾值確定的正負(fù)樣本上訓(xùn)練得到的。對(duì)一階段目標(biāo)檢測(cè)器,文獻(xiàn)[5]首先在圖像上預(yù)定義預(yù)測(cè)區(qū)域
計(jì)算機(jī)工程與應(yīng)用 2022年18期2022-09-21
- 基于多閾值判斷的單線(xiàn)激光雷達(dá)草叢識(shí)別方法
的差值。圖6 候選框示意圖Fig.6 Candidate box schematic分析可知,草叢障礙物與其他障礙物的特征區(qū)別在于相鄰點(diǎn)云之間的斜率變化。從圖5中的點(diǎn)云連接線(xiàn)的斜率分布情況可以看出,從左到右,斜率不斷在突變,因此相鄰點(diǎn)云連接線(xiàn)的斜率差值比較大,對(duì)于其他連續(xù)體障礙物來(lái)說(shuō),斜率雖有變化,但是突變情況很少,因此對(duì)于這類(lèi)障礙物的斜率差值變化就比較小。通過(guò)這一特征規(guī)律,斜率差值可以作為草叢障礙物和其他連續(xù)體障礙物的根本區(qū)別。相鄰兩紅色連接線(xiàn)間的斜率差
科學(xué)技術(shù)與工程 2022年20期2022-08-24
- 結(jié)合Faster-RCNN和局部最大值法的森林單木信息提取
絡(luò)用來(lái)獲得單木候選框,外包框提取網(wǎng)絡(luò)基于單木候選框獲取最終單木外包框。1.2.1 特征提取網(wǎng)絡(luò)VGG-16 網(wǎng)絡(luò)[14]被用來(lái)作為特征提取網(wǎng)絡(luò),該網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)潔,具有良好的遷移能力,適合在CHM 模型上進(jìn)行提取特征。VGG-16 網(wǎng)絡(luò)的輸出為CHM 特征圖,大小為CHM的1/16,CHM特征圖是RPN的輸入。傳統(tǒng)方法中為減少點(diǎn)云噪聲和CHM 中空洞對(duì)尋找樹(shù)頂點(diǎn)的影響,會(huì)利用不同窗口大小的濾波器對(duì)CHM進(jìn)行濾波,濾波器窗口大小的選擇會(huì)對(duì)提取結(jié)果有巨大影響。窗口
實(shí)驗(yàn)室研究與探索 2022年4期2022-08-06
- 重定位非極大值抑制算法
置和尺寸不同的候選框,這些候選框大部分聚集在可能包含感興趣目標(biāo)的區(qū)域,對(duì)這些候選框執(zhí)行保留和抑制操作很有必要。這些候選框只包含坐標(biāo)與類(lèi)別置信度信息。其中,坐標(biāo)并不能作為決定最優(yōu)邊界框的依據(jù),而類(lèi)別置信度作為一個(gè)類(lèi)別概率標(biāo)簽,用于表示候選框中存在某個(gè)類(lèi)別物體的概率,類(lèi)別置信度越高,候選框中存在某個(gè)類(lèi)別物體的可能性越大。最優(yōu)邊界框的選定會(huì)影響后續(xù)的候選框抑制操作,如果不選擇類(lèi)別置信度得分最高的候選框而是選擇其它候選框作為最優(yōu)邊界框,會(huì)導(dǎo)致類(lèi)別置信度得分最高的候
光學(xué)精密工程 2022年13期2022-08-02
- 基于改進(jìn)MDNet 的視頻目標(biāo)跟蹤算法①
的高層特征, 候選框的選取部分借鑒了RCNN[12], 具有很高的跟蹤準(zhǔn)確率. 但一般來(lái)說(shuō), 跟蹤模型會(huì)隨著目標(biāo)的變化而穩(wěn)定變化, 當(dāng)目標(biāo)出現(xiàn)一些復(fù)雜情況時(shí), 模型更新會(huì)使得模型的可靠性降低, 用這樣的模型去進(jìn)行后續(xù)的跟蹤, 很難重新準(zhǔn)確定位目標(biāo); 跟蹤問(wèn)題中, 每幀的正樣本在空間上高度重疊,不能捕獲豐富的外觀變化, 并且正樣本和負(fù)樣本極度不平衡. 本文在MDNet 算法基礎(chǔ)上提出了一種基于候選框置信度與坐標(biāo)方差閾值判斷相結(jié)合的模型更新方法, 使其正樣本在
計(jì)算機(jī)系統(tǒng)應(yīng)用 2022年5期2022-06-27
- 基于Two-Stage的目標(biāo)檢測(cè)算法綜述
oposal(候選框)+卷積神經(jīng)網(wǎng)絡(luò)+SVM(支持向量機(jī))的組合模式出現(xiàn)在大眾的視野中,這種Two-Stage目標(biāo)檢測(cè)模型以其優(yōu)秀的準(zhǔn)確率為目標(biāo)檢測(cè)的研究提供了一個(gè)新的思路。Two-Stage(兩階段)目標(biāo)檢測(cè)是將檢測(cè)流程分為兩部分,首先要生成候選區(qū)域,再判斷候選區(qū)域中是否存在需要檢測(cè)的物體,以及該物體的類(lèi)別。目前最為流行的Two-Stage算法是R-CNN系列,其中包括R-CNN、SPP-Net、Fast R-CNN、Faster R-CNN等,本文就以
河北省科學(xué)院學(xué)報(bào) 2022年2期2022-05-18
- 基于頭部姿態(tài)識(shí)別的學(xué)習(xí)狀態(tài)檢測(cè)系統(tǒng)的實(shí)現(xiàn)
處理,得到最優(yōu)候選框。圖1 SSD算法模型架構(gòu)Fig.1 SSD algorithm model architectureSSD算法模型使用了6張大小不同的預(yù)測(cè)特征圖來(lái)檢測(cè)不同尺度的目標(biāo),分別來(lái)自conv4_3,conv7,conv8_2,conv9_2,conv10_2和conv11_2卷積層,前端網(wǎng)絡(luò)提取的特征圖尺寸大,細(xì)節(jié)性較好,適用于檢測(cè)小物體。隨著特征圖尺寸的變小,細(xì)節(jié)性也隨之變差,適用于檢測(cè)大物體。除此之外,SSD網(wǎng)絡(luò)設(shè)置了不同寬高比的預(yù)測(cè)候選
- 基于YOLOV4的港口作業(yè)人員檢測(cè)系統(tǒng)研究
和回歸器,得出候選框類(lèi)別和精確位置,最后利用非極大值抑制算法去除高度重疊的檢測(cè)框,獲得高質(zhì)量的檢測(cè)目標(biāo),從而實(shí)現(xiàn)目標(biāo)的精確分類(lèi)和定位,其工作過(guò)程如圖2 所示。Fig.2 Working process of Faster R-CNN algorithm圖2 Faster R-CNN 算法工作過(guò)程1.1.1 區(qū)域建議網(wǎng)絡(luò)大部分目標(biāo)算法生成的候選框都比較耗時(shí),例如利用滑動(dòng)窗口法和圖像金字塔生成候選框,又如RCNN 算法中使用選擇性搜索方法生成候選框。Faste
軟件導(dǎo)刊 2022年3期2022-03-25
- 基于改進(jìn)Faster RCNN 的目標(biāo)檢測(cè)算法?
擇性搜索來(lái)提取候選框使得模型無(wú)法滿(mǎn)足實(shí)時(shí)性檢測(cè)的需求。于是任少卿等繼續(xù)提出了Fast R-CNN 的改進(jìn)版Faster R-CNN[15],使用區(qū)域生成網(wǎng)絡(luò)RPN(Region Proposal Network)代替選擇性搜索方法,更高效地生成候選區(qū)域。以上這些網(wǎng)絡(luò)模型都需要先生成一系列的候選區(qū)域,再通過(guò)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行分類(lèi)。Joseph Redmon 等提出的YOLO(You Only Look Once)[16]網(wǎng)絡(luò)模型取消了區(qū)域生成網(wǎng)絡(luò),直接回歸目標(biāo)
計(jì)算機(jī)與數(shù)字工程 2022年12期2022-03-18
- 聯(lián)合YOLOv4檢測(cè)的候選框選擇和目標(biāo)跟蹤方法
和跟蹤結(jié)果作為候選框,通過(guò)分類(lèi)選擇器選擇最優(yōu)的候選結(jié)果。本文還加入了基于外觀向量身份重識(shí)別(ReID)算法提取深度外觀特征,用于將跟蹤軌跡和選定候選對(duì)象關(guān)聯(lián)。1 基本概念當(dāng)前的目標(biāo)跟蹤算法主流是DBT,所以檢測(cè)質(zhì)量對(duì)跟蹤的性能影響很大。將深度學(xué)習(xí)檢測(cè)分為兩類(lèi):基于分類(lèi)的R-CNN系列目標(biāo)檢測(cè)算法和將檢測(cè)轉(zhuǎn)換為回歸的檢測(cè)算法。前者首先通過(guò)Selective Search等算法產(chǎn)生候選 區(qū)域,代表算 法有R-CNN、Faster R-CNN、Mask RCNN
現(xiàn)代電子技術(shù) 2022年3期2022-02-16
- 基于改進(jìn)SSD算法對(duì)奶牛的個(gè)體識(shí)別
特征圖。此外,候選框的尺寸比例也需要人工根據(jù)經(jīng)驗(yàn)設(shè)置。本文以SSD算法為基礎(chǔ),針對(duì)前文提到的兩個(gè)缺點(diǎn),對(duì)SSD算法進(jìn)行改進(jìn),提出了基于淺層特征模塊的改進(jìn)SSD(shallow feature module SSD,SFM-SSD)算法。SFM-SSD在原始SSD算法的基礎(chǔ)上,將主干卷積神經(jīng)網(wǎng)絡(luò)由VGG16換為MobileNetV2,利用MobileNetV2網(wǎng)絡(luò)結(jié)構(gòu)中的深度可分離卷積[14]來(lái)降低網(wǎng)絡(luò)的運(yùn)算量;再利用淺層特征模塊(shallow featu
計(jì)算機(jī)工程與應(yīng)用 2022年2期2022-01-25
- 面向自然場(chǎng)景文本檢測(cè)的改進(jìn)NMS算法
算法會(huì)產(chǎn)生大量候選框,其中大部分候選框并不緊靠目標(biāo)文本區(qū)域,并且該類(lèi)候選框的存在將直接導(dǎo)致最終檢測(cè)效果較差。檢測(cè)效果較差主要由兩種情況造成:(1)如圖1(c)中紫色檢測(cè)框所示,對(duì)長(zhǎng)文本區(qū)域,受卷積核感受野等影響,選擇單一檢測(cè)框定位往往不夠準(zhǔn)確。(2)如圖1(c)中紅色檢測(cè)框所示,對(duì)多個(gè)鄰近文本區(qū)域,相鄰檢測(cè)框易產(chǎn)生混疊現(xiàn)象,對(duì)文本區(qū)域定位較差。在本文中,針對(duì)自然場(chǎng)景文本檢測(cè)在后處理階段產(chǎn)生的檢測(cè)結(jié)果不緊靠文本區(qū)域的問(wèn)題,提出了一種改進(jìn)的NMS算法。圖1 N
計(jì)算機(jī)工程與應(yīng)用 2022年1期2022-01-22
- 基于優(yōu)化候選區(qū)域的戰(zhàn)場(chǎng)目標(biāo)檢測(cè)研究
PN網(wǎng)絡(luò)來(lái)提取候選框,該改進(jìn)算法對(duì)車(chē)輛有較高的檢測(cè)精度,但在物體模糊不清或者有遮擋發(fā)生時(shí),會(huì)出現(xiàn)漏檢的情況。張御宇等[5],針對(duì)小尺度目標(biāo)提出改進(jìn)的Faster R-CNN算法,該算法增強(qiáng)了高低卷積層間的信息傳遞,增加錨的尺寸和錨框選擇策略,檢測(cè)準(zhǔn)確率有了明顯的提高,但文中沒(méi)有考慮改進(jìn)算法的耗時(shí)問(wèn)題。綜上所述,本文提出基于優(yōu)化候選區(qū)域的Faster R-CNN算法主要針對(duì)小型目標(biāo)和存在遮擋影響的目標(biāo)檢測(cè)問(wèn)題。1)在主網(wǎng)絡(luò)conv3-3和conv5-3卷積層
計(jì)算機(jī)仿真 2021年10期2021-11-19
- 基于改進(jìn)SSD算法的學(xué)生課堂行為狀態(tài)識(shí)別
對(duì)SSD算法的候選框設(shè)計(jì)及損失函數(shù)進(jìn)行改進(jìn):一方面采用K-means聚類(lèi)算法統(tǒng)計(jì)訓(xùn)練集真實(shí)框長(zhǎng)寬比,重新設(shè)置SSD網(wǎng)絡(luò)預(yù)測(cè)層候選框比例及分布,增大候選框與真實(shí)框的匹配度;另一方面融合焦點(diǎn)損失函數(shù)調(diào)節(jié)樣本權(quán)重,解決訓(xùn)練時(shí)正負(fù)樣本及難易分類(lèi)樣本不平衡問(wèn)題?;诟倪M(jìn)SSD算法對(duì)智慧教室中舉手、睡覺(jué)、回答、寫(xiě)字、聽(tīng)講5類(lèi)學(xué)生課堂行為狀態(tài)進(jìn)行識(shí)別。1 原理與方法圖1所示為基于改進(jìn)的SSD算法的學(xué)生課堂行為狀態(tài)識(shí)別的實(shí)現(xiàn)流程。由圖可見(jiàn),實(shí)現(xiàn)對(duì)學(xué)生課堂行為狀態(tài)識(shí)別包括3
計(jì)算機(jī)工程與設(shè)計(jì) 2021年10期2021-11-01
- 融合神經(jīng)網(wǎng)絡(luò)與超像素的候選區(qū)域優(yōu)化算法
約2 000個(gè)候選框;在Faster RCNN中,使用候選區(qū)域網(wǎng)絡(luò)(Region Proposals Network, RPN)生成大約800個(gè)候選框[5]。當(dāng)前主流候選區(qū)域算法主要有Object-ness[6],BING[7]及Edge Boxes[8]。隨著深度神經(jīng)網(wǎng)絡(luò)的不斷發(fā)展,其已經(jīng)在目標(biāo)檢測(cè)、圖像哈希(Image Hashing,IH)、圖像細(xì)分類(lèi)、視覺(jué)描述與生成、視覺(jué)問(wèn)答等方面有著廣泛的應(yīng)用[9]。特別地,文獻(xiàn)[10]使用循環(huán)神經(jīng)網(wǎng)絡(luò)作為代理來(lái)
國(guó)防科技大學(xué)學(xué)報(bào) 2021年4期2021-08-24
- 改進(jìn)Faster R-CNN的快件搬運(yùn)機(jī)器人視覺(jué)定位策略
rch算法生成候選框,但只在單層卷積層的feature map上生成候選框且RPN和最后的分類(lèi)與回歸層都各自用目標(biāo)函數(shù)進(jìn)行分類(lèi)與回歸,導(dǎo)致運(yùn)算量還是偏大,精度仍不高。為改進(jìn)上述問(wèn)題, 在Faster-RCNN的網(wǎng)絡(luò)模型基礎(chǔ)上增加卷積層,在多層卷積層的feature map上生成候選框且用兩個(gè)3×3卷積核分別進(jìn)行卷積運(yùn)算,直接進(jìn)行分類(lèi)和回歸。該改進(jìn)的Faster-RCNN檢測(cè)到所設(shè)計(jì)導(dǎo)航圖案中目標(biāo)的區(qū)域后,再通過(guò)Harris角點(diǎn)檢測(cè)算法提取目標(biāo)區(qū)域的參考角點(diǎn)
湖北工業(yè)大學(xué)學(xué)報(bào) 2021年4期2021-08-24
- 基于YOLOv3改進(jìn)的手勢(shì)檢測(cè)算法*
(NMS)選取候選框不夠準(zhǔn)確的特點(diǎn),引入了加權(quán)NMS[16],并根據(jù)候選框的位置關(guān)系去除冗余的候選框。在Egohands數(shù)據(jù)集[17]中實(shí)驗(yàn)表明,本文提出的算法相對(duì)于標(biāo)準(zhǔn)的YOLOv3算法在準(zhǔn)確率和mAP上有較大的提升。1.1 Kmeans++重聚類(lèi)原始的YOLOv3網(wǎng)絡(luò)使用Kmeans在VOC、COCO等數(shù)據(jù)集上進(jìn)行聚類(lèi),得到的聚類(lèi)中心并不符合本文數(shù)據(jù)庫(kù)中的手勢(shì)分布,所以對(duì)數(shù)據(jù)集進(jìn)行重新聚類(lèi)有助于網(wǎng)絡(luò)更快地收斂以及更準(zhǔn)確的回歸。Kmeans++相對(duì)于Km
機(jī)電工程技術(shù) 2021年6期2021-07-25
- 基于改進(jìn)區(qū)域推薦網(wǎng)絡(luò)的多尺度目標(biāo)檢測(cè)算法
測(cè)器模塊,加入候選框重疊度DOL,該公式的核心是分別計(jì)算出大目標(biāo)與小目標(biāo)候選框的重疊面積和單獨(dú)一個(gè)小目標(biāo)的候選框面積,若前者超過(guò)后者的θ倍,就把相應(yīng)的小目標(biāo)候選框刪除,從而達(dá)到減少目標(biāo)檢測(cè)時(shí)間和提升算法對(duì)不同尺度目標(biāo)的檢測(cè)效果。3.1 區(qū)域生成網(wǎng)絡(luò)RPNS和RPNB傳統(tǒng)的Faster R-CNN 算法在目標(biāo)檢測(cè)時(shí),首先將要進(jìn)行目標(biāo)檢測(cè)的圖片輸入到網(wǎng)絡(luò)中,通過(guò)卷積層的卷積操作,產(chǎn)生不同尺度的特征圖(Feature map),特征圖一部分直接送到分類(lèi)器進(jìn)行分類(lèi)
- 改進(jìn)深度可分離卷積的SSD車(chē)型識(shí)別
。由于該方法對(duì)候選框進(jìn)行了預(yù)分類(lèi),雖然車(chē)型識(shí)別的精度有所提高,但是檢測(cè)速度較慢。文獻(xiàn)[9]融合循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)嵌入二級(jí)框架,增強(qiáng)了內(nèi)部特征信息的完整性,在對(duì)視頻監(jiān)控圖像中車(chē)型識(shí)別的精確性上表現(xiàn)良好,但是其存在模型過(guò)大、運(yùn)行時(shí)內(nèi)存占用高的問(wèn)題。SSD目標(biāo)檢測(cè)算法在檢測(cè)精度和速度方面綜合性能更好,但仍存在參數(shù)多導(dǎo)致模型臃腫的缺點(diǎn)[10]。結(jié)合上述研究,筆者提出使用改進(jìn)的深度可分離卷積作為SSD算法基礎(chǔ)網(wǎng)絡(luò),對(duì)特征提取過(guò)程進(jìn)行簡(jiǎn)化,重新設(shè)計(jì)區(qū)域候選框,
重慶大學(xué)學(xué)報(bào) 2021年6期2021-06-24
- 基于Soft-NMS的候選框去冗余加速器設(shè)計(jì)*
網(wǎng)絡(luò)輸出的冗余候選框,找到最佳的目標(biāo)位置,提高檢測(cè)的準(zhǔn)確率。文獻(xiàn)[6]的研究表明NMS在基于RPN+Fast-R-CNN網(wǎng)絡(luò)的目標(biāo)檢測(cè)應(yīng)用計(jì)算任務(wù)中占22%左右計(jì)算延遲,因此對(duì)NMS的量化與加速也很值得研究。文獻(xiàn)[7]中給出了最常用的Hard-NMS方法,將所有的候選框按得分值從高到低排序,選取得分值最高的候選框(本文稱(chēng)為靶候選框),刪除所有與靶候選框的重疊率超出閾值(本文設(shè)為Nt)的候選框,對(duì)未刪除的候選框選取得分值最高的繼續(xù)此操作。Hard-NMS是一
計(jì)算機(jī)工程與科學(xué) 2021年4期2021-05-11
- 基于目標(biāo)檢測(cè)算法的安全帽佩戴智能識(shí)別
像內(nèi)的物體生成候選框,并對(duì)該候選框內(nèi)的物體進(jìn)行分類(lèi)識(shí)別。基于目標(biāo)檢測(cè)算法識(shí)別圖像時(shí),首先將圖像送入到訓(xùn)練好的模型中,然后對(duì)輸入圖像進(jìn)行運(yùn)算處理,生成候選框,同時(shí)對(duì)候選框內(nèi)的物體進(jìn)行分類(lèi),最后用NMS算法去除冗余的候選框。識(shí)別流程如圖1所示。圖1 目標(biāo)檢測(cè)流程常用的目標(biāo)檢測(cè)算法模型有基于區(qū)域的R系列模型和基于回歸的模型。R系列模型的特點(diǎn)是:用端到端的卷積網(wǎng)絡(luò)模型進(jìn)行識(shí)別檢測(cè),保證一定的精度,但其實(shí)時(shí)性和檢測(cè)速度有待提高?;貧w模型的特點(diǎn)是:將檢測(cè)任務(wù)轉(zhuǎn)換為回歸
水泥技術(shù) 2021年2期2021-04-20
- 使用候選框進(jìn)行全卷積網(wǎng)絡(luò)修正的目標(biāo)分割算法
思路是首先依靠候選框網(wǎng)絡(luò),產(chǎn)生高置信度的候選框實(shí)現(xiàn)了對(duì)待檢測(cè)目標(biāo)的框定及分類(lèi),然后將框內(nèi)的特征像素導(dǎo)入全卷積網(wǎng)絡(luò),進(jìn)而得到分割掩碼。這種方式能夠?qū)崿F(xiàn)較高的分割精度,但對(duì)于液晶面板場(chǎng)景中多種尺度共存、語(yǔ)義信息模糊的缺陷,其檢測(cè)精度達(dá)不到要求,這是因?yàn)?span id="eqmusim" class="hl">候選框內(nèi)的特征圖的像素分辨率相較于原圖已經(jīng)縮小了數(shù)十倍,在此之上進(jìn)行反卷積操作導(dǎo)致最終分割粒度太粗,小目標(biāo)的缺陷很容易被忽略;②直接將卷積神經(jīng)網(wǎng)絡(luò)最后一層卷積層的特征進(jìn)行上采樣,得到和原圖相同分辨率的特征圖,這就
- FRDet:一種基于候選框特征修正的多方向遙感目標(biāo)快速檢測(cè)方法
重依賴(lài)高密度的候選框去覆蓋目標(biāo)所在的區(qū)域,尤其是在遙感場(chǎng)景中,通常采用的實(shí)現(xiàn)高覆蓋率的方法是使用多種尺度和寬高比的候選框。例如,TextBoxes++[5]基于SSD[6]檢測(cè)網(wǎng)絡(luò)定義了7種特定的寬高比(包括1、2、3、5、1/2、1/3和1/5)的候選框。DMPNet[7]添加了幾個(gè)旋轉(zhuǎn)框,合計(jì)12個(gè)(6個(gè)常規(guī)和6個(gè)傾斜)用以完全覆蓋任意方向的目標(biāo)。DeepTextSpotter[8]跟著YOLOv2[9]利用訓(xùn)練集上的k均值聚類(lèi)(k=14)框以自動(dòng)找到
計(jì)算機(jī)與現(xiàn)代化 2021年2期2021-02-27
- 基于改進(jìn)SSD 框架的遙感影像飛機(jī)目標(biāo)檢測(cè)方法*
較高,但必須將候選框輸入CNN 中再檢測(cè),導(dǎo)致檢測(cè)速度較慢。第2 類(lèi)方法的代表為YOLO[6](You Only Look Once)、單一目標(biāo)多尺度檢測(cè)框架[7](Single Shot MultiBox Detector,SSD)等,它的思想是利用深度卷積神經(jīng)網(wǎng)絡(luò)提取圖像特征后,將特征圖均勻分割成網(wǎng)格,在網(wǎng)格上使用候選框檢測(cè)目標(biāo)。由于減少了輸入候選框到CNN 中再檢測(cè)的環(huán)節(jié),SSD 方法的檢測(cè)速度相對(duì)較高,是飛機(jī)目標(biāo)檢測(cè)的首選框架,但存在的問(wèn)題是對(duì)不同
火力與指揮控制 2021年1期2021-02-03
- 一種改進(jìn)的輕量人頭檢測(cè)方法
法分析設(shè)置初始候選框,提高候選框的精度。在測(cè)試集上對(duì)該方法進(jìn)行測(cè)試,與改進(jìn)前的方法對(duì)比,漏檢率降低,檢測(cè)精度和檢測(cè)速度均有所提升。1 YOLOv3-tiny檢測(cè)算法YOLOv3-tiny 是YOLOv3(You Only Look Once)的輕量級(jí)版本,作為目前最優(yōu)秀的目標(biāo)檢測(cè)架構(gòu)之一,采用回歸的方式做到了真正的端到端檢測(cè),極大地提高了檢測(cè)實(shí)時(shí)性,并且借鑒了FPN 的思想,在多個(gè)尺度的融合特征圖上分別獨(dú)立做檢測(cè),以輕量級(jí)、成本低的優(yōu)點(diǎn)已被廣泛運(yùn)用于各大工
計(jì)算機(jī)工程與應(yīng)用 2021年1期2021-01-11
- 基于深度學(xué)習(xí)的航空發(fā)動(dòng)機(jī)安裝位置識(shí)別
,每種尺度上的候選框數(shù)量為A,預(yù)測(cè)的類(lèi)別是C,則最終每個(gè)特征尺度上預(yù)測(cè)得到的結(jié)果是一個(gè)S×S×A×(4+1+C)維度的張量.不同于SSD算法,YOLOv3沒(méi)有將主干網(wǎng)絡(luò)的中間特征圖直接作為輸出,而是將下一層的網(wǎng)絡(luò)特征圖進(jìn)行上采樣后與上一層特征圖拼接.將3種尺度的特征圖進(jìn)行融合,豐富了網(wǎng)絡(luò)結(jié)構(gòu),這也是YOLOv3檢測(cè)效果要優(yōu)于SSD算法的原因之一.3 算法改進(jìn)與模型訓(xùn)練YOLOv3利用深度殘差網(wǎng)絡(luò)提取圖像特征,并利用多尺度融合進(jìn)行檢測(cè),可以較好實(shí)現(xiàn)目標(biāo)檢測(cè)任
北京交通大學(xué)學(xué)報(bào) 2020年5期2020-11-17
- 基于深度學(xué)習(xí)的多目標(biāo)識(shí)別在移動(dòng)智能體中的應(yīng)用?
絡(luò)的檢測(cè)方法將候選框提取、特征提取、目標(biāo)分類(lèi)、目標(biāo)定位統(tǒng)一于一個(gè)神經(jīng)網(wǎng)絡(luò)中。神經(jīng)網(wǎng)絡(luò)[9]直接從圖像中提取候選區(qū)域,通過(guò)整幅圖像特征來(lái)預(yù)測(cè)行人位置和概率。將行人檢測(cè)問(wèn)題轉(zhuǎn)化為回歸問(wèn)題,真正實(shí)現(xiàn)端到端的檢測(cè)。本文中的多目標(biāo)識(shí)別主要是對(duì)移動(dòng)智能體運(yùn)動(dòng)過(guò)程中采集的實(shí)時(shí)視頻,首先進(jìn)行候選框提取,判斷其中是否包含障礙物,若有則給出目標(biāo)位置。實(shí)際上,大部分的初始候選框中并不包含障礙物,如果對(duì)每個(gè)初始候選框都直接預(yù)測(cè)目標(biāo)的概率,會(huì)大大增加網(wǎng)絡(luò)學(xué)習(xí)的難度。在本文的識(shí)別方法
計(jì)算機(jī)與數(shù)字工程 2020年5期2020-07-13
- 基于Faster R-CNN的顏色導(dǎo)向火焰檢測(cè)
)來(lái)獲取初始的候選框,以代替耗時(shí)的選 擇 性 搜 索 算 法 。Faster R-CNN 在 COCO[15]與 PASCAL VOC[16]目標(biāo)檢測(cè)任務(wù)上取得了很好的效果,因此,本文選擇Faster R-CNN作為文中方法的基礎(chǔ)。Faster R-CNN的檢測(cè)框基于錨生成,錨是在目標(biāo)檢測(cè)過(guò)程中生成的最初的一批候選框。依據(jù)人為確定的m種大小比例(Scale)與n種橫縱比(Aspect Ratio),將這些比例與橫縱比進(jìn)行組合,可以在每個(gè)錨點(diǎn)處獲得m×n種形
計(jì)算機(jī)應(yīng)用 2020年5期2020-06-07
- 一種基于聚類(lèi)特征的Faster R-CNN糧倉(cāng)害蟲(chóng)檢測(cè)方法
-CNN模型的候選框提取網(wǎng)絡(luò)更適用于VOC2007數(shù)據(jù)集中的20種分類(lèi)任務(wù),不符合糧倉(cāng)害蟲(chóng)的形態(tài)學(xué)特征,用于檢測(cè)糧倉(cāng)害蟲(chóng)時(shí)會(huì)造成候選框冗余過(guò)大,因此本文使用聚類(lèi)算法改進(jìn)Faster R-CNN模型的區(qū)域提案網(wǎng)絡(luò),利用Faster R-CNN模型訓(xùn)練數(shù)據(jù)集來(lái)對(duì)糧倉(cāng)害蟲(chóng)圖像進(jìn)行檢測(cè)。本研究建立了糧倉(cāng)害蟲(chóng)數(shù)據(jù)集SGI-6包括網(wǎng)絡(luò)獲取圖像、顯微鏡采集圖像和單反拍攝圖像三種多目標(biāo)尺度的數(shù)據(jù)集。實(shí)驗(yàn)室拍攝的圖像以大米和小米為背景模擬糧倉(cāng)的真實(shí)環(huán)境,并且對(duì)數(shù)據(jù)集做了翻轉(zhuǎn)
中國(guó)糧油學(xué)報(bào) 2020年4期2020-05-25
- 基于Efficient高效網(wǎng)絡(luò)的目標(biāo)檢測(cè)和識(shí)別
在預(yù)測(cè)階段生成候選框,然后對(duì)候選框做回歸和非極大值抑制計(jì)算,篩選與真實(shí)框重合度最高的候選框。在Faster R-CNN中,VGG-16骨架網(wǎng)絡(luò)輸出h×w大小的特征圖,對(duì)特征圖上每個(gè)點(diǎn)設(shè)置3個(gè)尺寸和3種縱橫比共9個(gè)候選框,特征圖上每個(gè)點(diǎn)映射到原圖中是一塊區(qū)域[6],如圖4所示。圖4 特征圖與輸入圖片的對(duì)應(yīng)關(guān)系Faster R-CNN是對(duì)候選框中心坐標(biāo)(x,y)和長(zhǎng)寬(h,w)四個(gè)位置坐標(biāo)相對(duì)于真實(shí)標(biāo)記框位置的偏移量進(jìn)行預(yù)測(cè),這比直接預(yù)測(cè)框的位置坐標(biāo)學(xué)習(xí)起來(lái)更
沈陽(yáng)理工大學(xué)學(xué)報(bào) 2020年6期2020-05-14
- 結(jié)合動(dòng)態(tài)概率定位模型的道路目標(biāo)檢測(cè)
Net,通過(guò)對(duì)候選框生成網(wǎng)絡(luò)RPN[14],改進(jìn)概率定位模型以及目標(biāo)識(shí)別網(wǎng)絡(luò)進(jìn)行聯(lián)合訓(xùn)練,從而使得各個(gè)子任務(wù)之間相互協(xié)同,提高目標(biāo)定位和檢測(cè)的精度,有效解決了目標(biāo)檢測(cè)任務(wù)中定位信息少、模型不穩(wěn)定和對(duì)小目標(biāo)檢測(cè)效果不理想等問(wèn)題。1 HyperLocNet車(chē)輛檢測(cè)網(wǎng)絡(luò)目標(biāo)檢測(cè)包含目標(biāo)定位和目標(biāo)識(shí)別兩個(gè)關(guān)鍵問(wèn)題。針對(duì)現(xiàn)有回歸定位和概率定位兩種定位方法的局限,HyperLocNet 將定位和識(shí)別網(wǎng)絡(luò)融合在同一個(gè)網(wǎng)絡(luò)中共享信息,實(shí)現(xiàn)多任務(wù)的端到端學(xué)習(xí),其模型結(jié)構(gòu)如圖
- 基于卷積神經(jīng)網(wǎng)絡(luò)的SAR 艦船檢測(cè)算法
提案網(wǎng)絡(luò)產(chǎn)生的候選框經(jīng)過(guò)RoI 池化層(RoI 池化層用于不同尺寸的特征圖變成固定長(zhǎng)度的向量)輸入到檢測(cè)網(wǎng)絡(luò),檢測(cè)網(wǎng)絡(luò)用于對(duì)候選框的分類(lèi)和定位。本文將引入Faster R-CNN 進(jìn)行SAR 船舶目標(biāo)檢測(cè),并與傳統(tǒng)的CFAR 進(jìn)行對(duì)比實(shí)驗(yàn)。1 神經(jīng)網(wǎng)絡(luò)技術(shù)原理1.1 人工神經(jīng)網(wǎng)絡(luò)受人類(lèi)中樞神經(jīng)系統(tǒng)的影響,人工神經(jīng)網(wǎng)絡(luò)由神經(jīng)元構(gòu)成的,如圖1。單個(gè)神經(jīng)元的作用是通過(guò)權(quán)重將輸入信息進(jìn)行連接并與閾值b(通常在深度學(xué)習(xí)中叫做偏置)進(jìn)行比較,在激活函數(shù)的作用下得到神經(jīng)
現(xiàn)代計(jì)算機(jī) 2020年9期2020-04-25
- 改進(jìn)級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的平面旋轉(zhuǎn)人臉檢測(cè)
路由網(wǎng)絡(luò)先估計(jì)候選框角度,再輸入網(wǎng)絡(luò)中識(shí)別,但由于沒(méi)能精準(zhǔn)估計(jì)角度及使用傳統(tǒng)神經(jīng)網(wǎng)絡(luò)導(dǎo)致檢測(cè)時(shí)間過(guò)長(zhǎng),精度不高。Cascade CNN[7]通過(guò)級(jí)聯(lián)多個(gè)CNN逐步過(guò)濾非人臉樣本,實(shí)驗(yàn)結(jié)果表明,該方法能夠有效實(shí)現(xiàn)人臉檢測(cè);而MTCNN[8]將人臉?lè)诸?lèi)、邊框回歸、人臉關(guān)鍵點(diǎn)定位3個(gè)任務(wù)合并,證明相關(guān)聯(lián)的不同任務(wù)地實(shí)現(xiàn)多任務(wù)學(xué)習(xí),可以互相提升性能;PCN[9]也通過(guò)級(jí)聯(lián)網(wǎng)絡(luò)檢測(cè)了RIP人臉。本文由此在傳統(tǒng)的級(jí)聯(lián)CNN的基礎(chǔ)上,嵌入一個(gè)32net的RIP分類(lèi)網(wǎng)絡(luò),
計(jì)算機(jī)工程與設(shè)計(jì) 2020年3期2020-04-24
- 基于深度學(xué)習(xí)的重疊人臉檢測(cè)
得到大量的人臉候選框,并給這些人臉候選框一個(gè)初始得分。然后使用人臉膚色檢測(cè)法二次檢測(cè)來(lái)過(guò)濾掉無(wú)效的人臉候選框,并重新調(diào)整人臉候選框的得分,接著使用非極大值抑制法[9](non-maximum suppression,NMS)比較候選窗口之間的重疊度[9](intersection over union,IoU),刪除重疊度大于閾值的候選窗口獲得最終的人臉檢測(cè)窗口。重疊人臉檢測(cè)框流程如圖1所示。1.1 人臉?lè)诸?lèi)的學(xué)習(xí)人臉?lè)诸?lèi)學(xué)習(xí)的目的是區(qū)分人臉和非人臉部分,
計(jì)算機(jī)技術(shù)與發(fā)展 2020年2期2020-04-15
- 融入幀間差分法的深度學(xué)習(xí)目標(biāo)識(shí)別仿真研究
過(guò)程,補(bǔ)充增強(qiáng)候選框分割圖像,通過(guò)NMS算法對(duì)候選框進(jìn)行篩選。仿真結(jié)果表明,該算法在識(shí)別目標(biāo)種類(lèi)的同時(shí)還能對(duì)目標(biāo)在圖像中的位置進(jìn)行精確標(biāo)定,并可判斷目標(biāo)是否處于運(yùn)動(dòng)狀態(tài),具有較高的識(shí)別率。目標(biāo)檢測(cè)與識(shí)別;創(chuàng)新性實(shí)驗(yàn)項(xiàng)目;幀間差分法;深度學(xué)習(xí)近年來(lái),隨著現(xiàn)代機(jī)器人技術(shù)的快速發(fā)展,機(jī)器工作的場(chǎng)景已不再局限于室內(nèi),在許多室外工作場(chǎng)所中,機(jī)器代替人工進(jìn)行生產(chǎn)作業(yè)提高了工作效率、降低了生產(chǎn)成本。這些應(yīng)用都需要可靠的目標(biāo)檢測(cè)識(shí)別算法[1]來(lái)幫助機(jī)器人完成任務(wù)。傳統(tǒng)的識(shí)
實(shí)驗(yàn)技術(shù)與管理 2019年12期2019-12-27
- 空對(duì)地高度自適應(yīng)目標(biāo)智能檢測(cè)算法*
系列算法中區(qū)域候選框的尺寸設(shè)置對(duì)檢測(cè)算法的影響進(jìn)行了分析。在SSD系列算法中,區(qū)域候選框的尺寸設(shè)置通過(guò)預(yù)先設(shè)置的好的參數(shù)s1,s2和輸入圖像的尺寸共同決定,現(xiàn)有的SSD系列算法大都采用文獻(xiàn)[13]中的參數(shù)設(shè)置s1=0.2,s2=0.9,而后依據(jù)式(1)和(2)分別計(jì)算出6個(gè)不同尺度特征圖最大(max_size)和最小(min_size)區(qū)域候選框尺寸。以300×300大小的輸入圖像(這里定義尺寸為image_size)為例,依據(jù)式(1)和(2)可以計(jì)算得到
現(xiàn)代防御技術(shù) 2019年6期2019-12-20
- 基于FAST R-CNN行人檢測(cè)識(shí)別的研究與改進(jìn)
得圖像中約2k候選框。利用卷積收集提取圖片特點(diǎn),獲得feature map后按照以前RoI框選擇出對(duì)應(yīng)的區(qū)域等三個(gè)進(jìn)程。1.1 選擇性搜索通常對(duì)一張圖像進(jìn)行檢測(cè)會(huì)采用不同的滑窗進(jìn)行窮舉的方式搜索,這種方法計(jì)算量過(guò)大且速度慢,于是通過(guò)比較一張圖片不同區(qū)域顏色、紋理等方面將相識(shí)度較大的部分劃分為同一個(gè)區(qū)域,這便是選擇性搜索的基本思想。(1)生成了一個(gè)區(qū)域。計(jì)算總相似度:(3)找相似度最高的區(qū)域,并將其合并。(4)從中移除與和有關(guān)的相識(shí)度。(5)計(jì)算新集與所有子
網(wǎng)絡(luò)安全技術(shù)與應(yīng)用 2019年7期2019-07-10
- 人臉檢測(cè)算法的優(yōu)化
算法性能。1 候選框生成算法候選框是人臉檢測(cè)網(wǎng)絡(luò)的基礎(chǔ)。檢測(cè)任務(wù)與分類(lèi)任務(wù)并不相同,檢測(cè)任務(wù)需首先對(duì)單個(gè)樣本進(jìn)行分類(lèi)并生成候選框,其后對(duì)所生成候選框的區(qū)域進(jìn)行分類(lèi),而分類(lèi)任務(wù)是直接對(duì)單個(gè)樣本進(jìn)行分類(lèi)。2 Faster RCNN人臉檢測(cè)網(wǎng)絡(luò)框架考慮到區(qū)域候選框是檢測(cè)網(wǎng)絡(luò)最大的瓶頸,該系統(tǒng)中Faster RCNN使用RPN(region proposal network)來(lái)有效解決計(jì)算候選框耗時(shí)的問(wèn)題。Faster RCNN[5]采用RPN生成候選框,RPN的
計(jì)算機(jī)技術(shù)與發(fā)展 2019年6期2019-06-14
- 基于單幀標(biāo)注的弱監(jiān)督動(dòng)作定位
作執(zhí)行者的矩形候選框,然后連接候選框形成候選動(dòng)作軌跡,利用人工標(biāo)注的矩形框去除大量不滿(mǎn)足條件的候選軌跡,同時(shí)對(duì)保留下來(lái)的候選軌跡打分,保留得分最高的提名作為訓(xùn)練視頻中動(dòng)作的位置,然后訓(xùn)練一個(gè)SVM分類(lèi)器。測(cè)試階段,先在測(cè)試視頻的每一幀上給出矩形候選框,然后連接候選框形成候選動(dòng)作軌跡,利用訓(xùn)練好的SVM分類(lèi)器對(duì)候選軌跡打分,確定哪個(gè)候選軌跡是視頻中動(dòng)作的位置。2 提取候選框由于滑動(dòng)窗口方法給出的矩形框數(shù)量過(guò)多,而且不適用于尺度變化較大的目標(biāo),這里利用目標(biāo)檢測(cè)
電子技術(shù)與軟件工程 2019年4期2019-04-26
- 遺漏負(fù)樣本挖掘的行人檢測(cè)方法?
提出合理的區(qū)域候選框,然后在第二階段進(jìn)行細(xì)化。另一類(lèi)方法旨在消除候選區(qū)域階段,直接訓(xùn)練一個(gè)端到端的分類(lèi)器[4]。第二種方法通常更容易訓(xùn)練,計(jì)算效率更高,但第一類(lèi)方法在性能上往往更有利。Faster R-CNN[5]框架屬于第一類(lèi)方法。它主要由兩個(gè)模塊組成:RPN和Fast R-CNN[6]。其中,RPN是用于提取候選框的模塊,它改善了過(guò)去提取候選框的方法,大幅度減少候選框的數(shù)量、提高了整體物體檢測(cè)的準(zhǔn)確性。Fast R-CNN檢測(cè)并識(shí)別RPN提出的候選框。
計(jì)算機(jī)與數(shù)字工程 2019年2期2019-02-27
- 基于改進(jìn)型SSD算法的目標(biāo)車(chē)輛檢測(cè)研究
2 SSD區(qū)域候選框SSD采用多尺度特征圖方法,在不同尺度特征圖上都會(huì)設(shè)置不同大小和寬高比的區(qū)域選框,區(qū)域候選框定義如下計(jì)算。式中:m為特征層數(shù);smin=0.2為最低特征層尺度;smax=0.9為最高特征層尺度;中間特征層尺度均勻分布。區(qū)域候選框具有不同的寬高比 ar∈{1,2,3,。區(qū)域候選框的寬、高分別為同時(shí)對(duì)于寬高比為1的區(qū)域候選框增加一個(gè)尺度每個(gè)區(qū)域候選框的中心坐標(biāo)為)。其中 w為第 k個(gè)fk特征圖的寬,hfk為第 k個(gè)特征圖的高,i∈[0,wf
- 利用深度學(xué)習(xí)進(jìn)行目標(biāo)檢測(cè)
個(gè)分支負(fù)責(zé)預(yù)測(cè)候選框,直接在特征圖后接一個(gè)卷積層預(yù)測(cè)候選框即可,另外一個(gè)分支負(fù)責(zé)預(yù)測(cè)候選框屬于哪一個(gè)類(lèi)別,當(dāng)然,每一層預(yù)測(cè)的候選框以及所屬類(lèi)別的個(gè)數(shù)都是固定的。因此,我們可以獲得6組候選框,接下來(lái)只需要將6組候選框合并到一起并且計(jì)算損失函數(shù),然后更新網(wǎng)絡(luò)的參數(shù)即可。下面介紹網(wǎng)絡(luò)的詳細(xì)結(jié)構(gòu)。對(duì)于上面的每一層中的一個(gè)特征圖來(lái)說(shuō),會(huì)產(chǎn)生固定個(gè)數(shù)的候選框。比如說(shuō)特征圖的大小是m×n,并且每個(gè)位置產(chǎn)生的候選框的個(gè)數(shù)是k個(gè),那么對(duì)于一個(gè)c類(lèi)物體的檢測(cè)任務(wù)來(lái)說(shuō),會(huì)產(chǎn)生(
中國(guó)設(shè)備工程 2018年23期2018-12-18
- 基于Faster R-CNN的榆紫葉甲蟲(chóng)識(shí)別方法研究
的,生成的初始候選框為固定的三種尺寸、三種比例,用其識(shí)別榆紫葉甲蟲(chóng)時(shí),初始候選框的長(zhǎng)寬比不符合榆紫葉甲蟲(chóng)的長(zhǎng)寬比形態(tài)學(xué)特征,容易造成候選框冗余過(guò)大。加之榆紫葉甲蟲(chóng)的甲殼反光,在框定榆紫葉甲蟲(chóng)目標(biāo)時(shí)會(huì)出現(xiàn)誤差,在榆紫葉甲蟲(chóng)和榆樹(shù)葉片豁口或孔洞相鄰時(shí)或者兩只榆紫葉甲相鄰時(shí)框定誤差尤其嚴(yán)重。因此,本文使用Faster R-CNN模型識(shí)別榆紫葉甲蟲(chóng)時(shí),對(duì)初始候選框生成網(wǎng)絡(luò)進(jìn)行改進(jìn),使其生成的初始候選框更加貼合榆紫葉甲蟲(chóng)本身的特征,減少周?chē)鷱?fù)雜環(huán)境造成的影響,以提高
計(jì)算機(jī)工程與應(yīng)用 2018年23期2018-12-04
- 遷移學(xué)習(xí)結(jié)合難分樣本挖掘的機(jī)場(chǎng)目標(biāo)檢測(cè)
識(shí)別能力,機(jī)場(chǎng)候選框的獲取還是基于邊緣或區(qū)域分割的手工方法,因此,傳統(tǒng)方法的局限性依舊存在.2014年,文獻(xiàn)[6]提出區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Region-based Convolutional Neural Networks, R-CNN)框架,使得目標(biāo)檢測(cè)取得巨大突破,開(kāi)啟了基于深度學(xué)習(xí)的目標(biāo)檢測(cè)熱潮.為進(jìn)一步提升R-CNN的準(zhǔn)確率和速度,文獻(xiàn)[7]提出了R-CNN的繼承者Fast R-CNN.Faster R-CNN[8]采用區(qū)域建議網(wǎng)絡(luò)(Region P
西安電子科技大學(xué)學(xué)報(bào) 2018年5期2018-10-11
- 自動(dòng)駕駛場(chǎng)景下小且密集的交通標(biāo)志檢測(cè)
類(lèi):一類(lèi)是基于候選框提取的目標(biāo)檢測(cè)算法,另一類(lèi)是基于回歸方法的目標(biāo)檢測(cè)算法。下面介紹這兩大類(lèi)目標(biāo)檢測(cè)算法的代表性檢測(cè)框架。R-CNN是Ross Girshick等[9]最早提出的用卷積神經(jīng)網(wǎng)絡(luò)做目標(biāo)檢測(cè)的框架,它是基于候選框提取的目標(biāo)檢測(cè)算法。首先通過(guò)selective search算法[10]提取候選框,然后用這些候選框微調(diào)卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練SVM(支持向量機(jī))分類(lèi)器,進(jìn)行邊框回歸等。R-CNN在VOC2012數(shù)據(jù)集上mAP[11]達(dá)到了53.3%,和之前
智能系統(tǒng)學(xué)報(bào) 2018年3期2018-07-20
- 基于聚合通道特征及卷積神經(jīng)網(wǎng)絡(luò)的行人檢測(cè)
,提取圖像出的候選框。這個(gè)階段提取候選框的算法有滑動(dòng)窗口策略、Selective Search[2]等,其中基于滑動(dòng)窗口策略具有代表性的工作是Felzenszwalb P F等[3]提出的形變部位模型(deformable part model,DPM),這個(gè)方法能一定程度上克服部分遮擋的影響。其次,提取候選框集的描述特征過(guò)程。Piotr Dollár等提出積分通道特征(integral channel features,ICF),利用積分圖技術(shù)對(duì)圖像的各
計(jì)算機(jī)工程與設(shè)計(jì) 2018年7期2018-07-19
- 基于YOLO網(wǎng)絡(luò)的行人檢測(cè)方法
,聚類(lèi)選取初始候選框,重組特征圖,擴(kuò)展橫向候選框數(shù)量,構(gòu)建基于YOLO網(wǎng)絡(luò)的行人檢測(cè)器YOLO-P。1 檢測(cè)方法基于YOLO網(wǎng)絡(luò)的檢測(cè)方法將候選框提取、特征提取、目標(biāo)分類(lèi)、目標(biāo)定位統(tǒng)一于一個(gè)神經(jīng)網(wǎng)絡(luò)中。神經(jīng)網(wǎng)絡(luò)直接從圖像中提取候選區(qū)域,通過(guò)整幅圖像特征來(lái)預(yù)測(cè)行人位置和概率。將行人檢測(cè)問(wèn)題轉(zhuǎn)化為回歸問(wèn)題,真正實(shí)現(xiàn)端到端(end to end)的檢測(cè)。行人檢測(cè)就是對(duì)輸入的圖像或視頻,進(jìn)行候選框提取,判斷其中是否包含行人,若有給出其位置。而事實(shí)上,大部分的候選框
計(jì)算機(jī)工程 2018年5期2018-05-30
- 目標(biāo)檢測(cè)算法R-CNN在現(xiàn)實(shí)場(chǎng)景數(shù)字檢測(cè)任務(wù)中的應(yīng)用
像處理技術(shù)完成候選框提取的思路,可極大提高目標(biāo)檢測(cè)效率,使其能夠完成實(shí)時(shí)檢測(cè)任務(wù)。【關(guān)鍵詞】實(shí)時(shí)目標(biāo)檢測(cè) 深度學(xué)習(xí)1引言Ross Girshick在2014年于CVPR發(fā)表論文《Rich feature hierarchies for Accurate ObjectDetection and Segmentation》,第一次將在圖像分類(lèi)任務(wù)中表現(xiàn)優(yōu)異的卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于目標(biāo)檢測(cè)當(dāng)中,該檢測(cè)算法即R-CNN(Regionswith Convolutiona
電子技術(shù)與軟件工程 2018年24期2018-05-10
- 一種針對(duì)特定目標(biāo)的提議算法
,得到一系列的候選框,然后利用提取的特征和分類(lèi)器對(duì)候選框進(jìn)行處理,從而檢測(cè)出要求的目標(biāo)[2]。對(duì)于這種檢測(cè)算法,如果要求檢測(cè)結(jié)果的準(zhǔn)確性高,就需要對(duì)圖像的遍歷過(guò)程更加精細(xì),但是這樣會(huì)引起計(jì)算量的增加,影響檢測(cè)的速度;如果想加快檢測(cè)速度,那么對(duì)圖像的遍歷過(guò)程就會(huì)相對(duì)粗糙,造成檢測(cè)結(jié)果的準(zhǔn)確性降低[3]。如何更加快速準(zhǔn)確地檢測(cè)出目標(biāo)也已經(jīng)成為當(dāng)今學(xué)者們普遍關(guān)注和研究的一個(gè)重要課題[4]。近些年來(lái),為了更好地調(diào)節(jié)檢測(cè)的準(zhǔn)確性和快速性之間的矛盾,人們對(duì)得到的候選框
火力與指揮控制 2018年3期2018-04-19
- 基于卷積神經(jīng)網(wǎng)絡(luò)的實(shí)時(shí)行人檢測(cè)方法①
圖上,計(jì)算不同候選框的形狀偏移量和該區(qū)域?yàn)樾腥说母怕实梅?通過(guò)非極大值抑制方法輸出行人檢測(cè)結(jié)果.圖1 基于卷積神經(jīng)網(wǎng)絡(luò)的實(shí)時(shí)行人檢測(cè)模型GoogleNet[14],VGG等作為當(dāng)前流行的深度卷積神經(jīng)網(wǎng)絡(luò)模型,能夠很好的提取圖片特征.但這兩種模型過(guò)于龐大,很難訓(xùn)練.文獻(xiàn)[11]提出的特征提取模型作為GoolgeNet的精簡(jiǎn)版,取得類(lèi)似GoogleNet的訓(xùn)練成績(jī),故采用其方法實(shí)現(xiàn)模型前端的特征提取.考慮到行人檢測(cè)的特殊性,本文設(shè)計(jì)了如圖2所示的多候選框行人檢
計(jì)算機(jī)系統(tǒng)應(yīng)用 2017年9期2017-09-15