亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        智能車測試環(huán)境中虛擬車道線的快速構(gòu)建方法

        2013-06-22 05:36:24盧遠志
        中南大學學報(自然科學版) 2013年3期
        關(guān)鍵詞:測試環(huán)境錐形車道

        盧遠志

        (湖南大學 機械與運載工程學院,湖南 長沙,410082)

        智能車(又稱無人車)作為智能交通系統(tǒng)的關(guān)鍵技術(shù),應能夠?qū)崿F(xiàn)車道保持與跟蹤等智能行為。它作為視覺信息處理的集成驗證平臺,是在無人條件下完全自主駕駛的,其系統(tǒng)的安全性和可靠性極為重要。在研制過程中,針對智能車的智能行為驗證需要以大量試驗作為支持,而常規(guī)車輛試驗無法滿足智能車自主駕駛能力驗證的需求[1-2]:首先,智能車的安全問題無法得到有效驗證;其次,智能車試驗所需的道路條件較高,需要大量人力、物力和財力的投入。因此,設計和構(gòu)建經(jīng)濟安全、魯棒性高的測試環(huán)境顯得尤為重要。在視覺導航技術(shù)中,車道保持與跟蹤的前提是如何快速而準確地獲取車道線或者道路邊緣信息。目前,比較成熟的視覺導航系統(tǒng)主要有意大利的 GOLD系統(tǒng)[3]以及美國的 RALPH系統(tǒng)。國內(nèi)也提出了一種基于逆投影變換的智能車道路識別方法[4-9]。以上系統(tǒng)和方法對實際道路環(huán)境的依存性很高,基于機器視覺的車道標志線識別常常會受到感知環(huán)境復雜性和不確定性等因素的影響,在道路質(zhì)量較差的條件下會出現(xiàn)較大偏差,甚至無法識別車道線,從而影響視覺導航功能。目前,智能車測試環(huán)境的構(gòu)建方法主要有真實路面選擇和虛擬場景[10-12]創(chuàng)建2種方法。前者的測試環(huán)境直接在真實路段上進行,在時間與空間上均受到一定限制,并且需提前進行道路交通管制,投入大、周期長且無法保證測試過程的安全性和可靠性,影響了智能車測試實驗效果;后者的測試環(huán)境主要是利用虛擬現(xiàn)實技術(shù)來構(gòu)建虛擬交通場景[1-3],雖然能保證測試安全,但無法完全模擬和仿真實際道路交通環(huán)境,因此,無法替代真實的路面測試環(huán)境,具有一定的局限性。為此,本文作者提出一種基于錐形交通標識別的虛擬車道線構(gòu)建方法:根據(jù)測試要求設計并序列化排列錐形交通標快速搭建智能車測試環(huán)境,在機器視覺基礎上根據(jù)其拓補關(guān)系構(gòu)建虛擬車道線,為智能車的車道保持與跟蹤等智能行為測試提供經(jīng)濟、安全而又可靠的測試環(huán)境?;阱F形交通標識別的虛擬車道線構(gòu)建方法主要包括錐形標識別與虛擬車道線構(gòu)建2個主要環(huán)節(jié)。

        1 錐形交通標的識別

        錐形交通標又稱路錐、錐筒標,通常為紅色與白色相間的錐形筒狀物體,上面涂有反光材料,主要起提示和警示作用。為了安全駕駛和有效導航,道路交通安全中常通過設置錐形交通標的方法對道路進行臨時隔離,告知過往車輛道路前方有障礙物或前方道路封閉改道或道路施工等路況信息,提示駕駛員提前采取措施,防止發(fā)生交通事故,并引導其改道行駛。

        基于機器視覺的錐形交通標識別主要包括目標檢測和目標識別2個主要環(huán)節(jié),首先根據(jù)其顏色、幾何等先驗知識快速定位和提取感興趣區(qū)域,然后,針對上述結(jié)果采用不變矩和 BP神經(jīng)網(wǎng)絡的方法進行分類辨識。

        1.1 目標檢測

        目標檢測是錐形交通標識別的前提,其目的是快速定位和提取感興趣區(qū)域。錐形標的類型繁多,不失一般性,本文采用紅白雙色相間的錐形標作為研究對象。如圖1所示錐形交通標具有鮮明的顏色信息和規(guī)則的幾何特征,充分利用已知的先驗信息可提高目標檢測的準確率。

        圖1所示錐形標由上、中、下3部分構(gòu)成,通過顏色分割和形狀分析,錐形標可表達為下列集合形式:

        式中:設C1和C2分別代表紅色和白色(灰度圖中的深灰色對應紅色);S1和S2分別代表三角形和梯形。

        圖1 錐形交通標顏色-幾何對模型Fig.1 Color-Geometry pair model of traffic cone

        顏色分割后的圖像通過canny算子進行邊緣特征提取,可進一步確定它們的最小外接矩形,經(jīng)上述處理后錐形標將被分割成“紅—白—紅”3個獨立區(qū)域。分別計算最近鄰的3個窗口區(qū)域的y向中心軸與水平x軸的夾角,分別設為θ1, θ2和θ3,利用下式進行幾何共軸約束:

        式中:i=1, 2;δ為相鄰夾角偏差;θ0為常數(shù),本文取為5°。利用式(1)和式(2)的“顏色-形狀對模型”可實現(xiàn)目標檢測。

        1.2 目標識別

        1.2.1 仿射不變矩

        Hu于1962年提出的仿射不變矩理論具有平移、縮放、鏡像和旋轉(zhuǎn)均不敏感的仿射不變特點[12]。在此基礎上,又有許多學者對其加以改進,使不變矩特征的描述能力不斷提高[13-14]。本文利用不變矩方法對目標樣本進行參數(shù)化處理,僅需要通過7個不變矩進行目標識別,在減少計算量的同時,提高對紋理特征靈敏度的計算能力。

        設1幅數(shù)字圖像f(x,y)的二維(p+q)階矩定義為

        式中:p=0, 1, 2, …;q=0, 1, 2, …。求和是在圖像的所有空間坐標x和y上進行的,相應的中心矩定義為

        式中:γ=(p+q)/2+1。由上述2階和3階中心距公式可以推導出對平移、縮放、鏡像和旋轉(zhuǎn)都不敏感的7個不變矩集合,分別為:

        由于直接利用上式計算所得的不變矩具有很大的動態(tài)變化范圍,為了便于比較和后續(xù)的神經(jīng)網(wǎng)絡處理,通過取對數(shù)的方法縮小其動態(tài)變化范圍,同時考慮到不變矩有可能出現(xiàn)負值的情況,采用的不變矩公式為:

        式中:k=1, 2, …, 7。

        1.2.2 BP神經(jīng)網(wǎng)絡

        模式識別系統(tǒng)[15-16]主要包括訓練和識別 2個環(huán)節(jié)。訓練環(huán)節(jié)是針對預先準備好的錐形標正樣本和負樣本進行學習訓練的分析處理和分類器的設計過程;識別環(huán)節(jié)則是將未知目標與訓練好的分類器進行匹配和識別未知目標的過程。如圖2所示,根據(jù)錐形標正負樣本分類器的設計要求,將神經(jīng)網(wǎng)絡設計成7—50—2三層結(jié)構(gòu)的BP神經(jīng)網(wǎng)絡:其中,輸入層由7個不變矩構(gòu)成;輸出層由正、負樣本構(gòu)成;隱層神經(jīng)元數(shù)目依據(jù)經(jīng)驗確定,本文設計為50個神經(jīng)元。隱層和輸出層的節(jié)點作用函數(shù)均為log-sigmoid的“S型”函數(shù),這是因為該函數(shù)輸出量在(0,1)區(qū)間內(nèi),恰好滿足學習后輸出布爾值的分類器設計要求。

        由圖2可知傳遞函數(shù)的確定方法,輸出端神經(jīng)元輸入為各隱含層神經(jīng)元輸出的加權(quán)求和:

        式中:i=1, 2, …, m,為隱層神經(jīng)元節(jié)點數(shù);j=1, 2, …,n,為輸入層節(jié)點數(shù);Wij為隱層神經(jīng)元輸出權(quán)值;Tij為隱層神經(jīng)元輸入權(quán)值;φ為隱層神經(jīng)元的傳遞函數(shù);x為輸入模式矢量。

        BP算法的權(quán)值迭代修正公式統(tǒng)一表示為

        式中:ωij為神經(jīng)元的連接權(quán)值;η為網(wǎng)絡學習效率;δj為誤差修正值;yj為樣本輸出;k為迭代次數(shù)。BP神經(jīng)網(wǎng)絡中隱層節(jié)點數(shù)、學習效率、初始權(quán)值、學習精度等網(wǎng)絡參數(shù)可根據(jù)網(wǎng)絡學習效率和收斂速度確定。

        圖2 神經(jīng)網(wǎng)絡系統(tǒng)結(jié)構(gòu)簡圖Fig.2 Framework of BP neural network

        2 虛擬車道線構(gòu)建方法

        2.1 測試環(huán)境的搭建

        根據(jù)智能行為測試要求,在測試環(huán)境中通過序列化擺放錐形交通標P1, P2, …, Pi可方便而快捷地設計并搭建出諸如S型彎道、右轉(zhuǎn)等測試環(huán)境,如圖3所示。圖3中的虛線即為由序列化錐形標所構(gòu)成的虛擬車道線。

        從圖3可見:在同一場地上可進行不同測試環(huán)境的構(gòu)建,形成“車-環(huán)境”的閉環(huán)交通系統(tǒng),如直線及各類“U型”、“L型”、“S型”彎道導航路徑。本方法還可以很方便地與其他類型的傳感器相結(jié)合實現(xiàn)無人車智能行為的綜合測試,如自動避障行為下的航向及車速控制。

        基于上述構(gòu)建思想可靈活地選擇場地,在保證測試過程安全的前提下,設計并構(gòu)建滿足智能車智能行為要求的測試環(huán)境。將錐形標序列擺放至場地中央即可實現(xiàn)智能車的往返測試,既可提高測試效率,又可降低測試成本。

        圖3 虛擬車道線構(gòu)建示意圖Fig.3 Schematic diagram for contrustion of virtual lane based on traffic cones

        2.2 虛擬車道線的構(gòu)建

        虛擬車道線的構(gòu)建包括控制點集合的獲取和虛擬車道線的生成2個環(huán)節(jié)。

        2.2.1 錐形標的定位

        為實現(xiàn)對識別出的錐形標路障進行快速定位,需要將圖像坐標系轉(zhuǎn)換為空間物理坐標系,這是一個攝像頭的標定與目標重建的過程,其計算公式為

        式中:q=[u, v, 1]′,為圖像坐標系的坐標,單位為像素;Q=[X, Y, Z, 1]′為世界坐標系的坐標(mm);s為縮放因子,即空間某點在Z軸方向上的坐標值;H為單應變換矩陣,它由內(nèi)參數(shù)矩陣和外參數(shù)矩陣2部分構(gòu)成。

        在機器視覺的基礎上,通過計算幾何方法可提取出所有識別后錐形標ROI(region of interesting)區(qū)的底邊中點,并將其作為虛擬車道線的控制特征點Pi(x, y),如圖3所示。

        2.2.2 虛擬車道線的生成

        虛擬車道線的構(gòu)建需要根據(jù)錐形標間的拓補關(guān)系連接創(chuàng)建,在設計的測試路線上,錐形交通標是序列化連續(xù)擺放的,由此可以根據(jù)視場內(nèi)識別出的錐形標空間位置分別沿x和y方向進行掃描排序,沿X向排序后代表由近及遠,將最近鄰的2個錐形標進行拓補連接從而構(gòu)造出虛擬車道線,Y向可確定左轉(zhuǎn)或右轉(zhuǎn)。

        與真實的道路標志線一致,所創(chuàng)建的虛擬車道線可直接用于智能車的定位、導航和局部路徑規(guī)劃,這樣對行車控制決策無需調(diào)整和不增加難度的前提下即可進行智能車的視覺導航測試。

        設錐形交通標為集合A(點集合),虛擬車道線為集合B(線集合),則集合映射g的表達式如下:

        式中:l為虛擬車道線;f為虛擬車道線中的直線段表達式;a和b為直線參數(shù)。

        由式(11)可知:虛擬車道線的構(gòu)建需要求解a和b 2個參數(shù),因此,要求視覺傳感器采集的視場中至少要同時采集到2個錐形交通標,如圖3所示,需要適當控制錐形標間距L。

        3 算法實現(xiàn)

        QT是一個適合做界面開發(fā)的 C++工具包,OpenCV是一個實時性強且功能強大的圖像處理工具包[17],利用這些工具包可提高軟件系統(tǒng)的開發(fā)效率。另外,這兩者都是基于開源思想開發(fā)的,在遵守通用公共授權(quán)協(xié)議GPL (general public license)的前提下進行適當處理,不需要添加新的外部支持也可以完整地編譯鏈接生成執(zhí)行程序。

        本文基于上述算法,在 VC++環(huán)境下,利用 QT和OpenCV開發(fā)一套基于錐形標的虛擬車道線系統(tǒng)?;谏鲜隼碚?,采用圖4所示的設計思路進行設計。算法實現(xiàn)步驟如下:

        (1) 利用彩色視覺傳感器獲取圖像后,根據(jù)顏色-幾何對模型提取圖像感興趣區(qū)域。

        (2) 目標檢測后,需要對感興趣區(qū)域進行適當預處理,以提高識別準確率,主要包括圖像尺寸重置、直方圖均衡化、背景去除、圖像校正等預處理。

        (3) 對目標進行不變矩計算,并利用BP神經(jīng)網(wǎng)絡進行目標識別。

        (4) 據(jù)識別后的結(jié)果進行目標定位,并根據(jù)其拓補關(guān)系創(chuàng)建虛擬車道線。

        該算法全部由C++語言編程實現(xiàn),為了提高學習效率和判別速度,采集圖像的像素為320×240,目標訓練與識別均采用 50×50像素的圖片模板,因此,BP網(wǎng)絡的輸入量也為50×50的矩形區(qū)域的不變矩。

        圖4 錐形交通標識別流程圖Fig.4 Flowchart for pattern identification of traffic cone

        4 應用實例

        測試環(huán)境的設計與構(gòu)建應該能保證智能車測試過程的安全性和可靠性,基于錐形交通標識別的虛擬車道線構(gòu)建方法正是針對智能車智能行為的驗證試驗而提出的,并應用到無人駕駛車測試環(huán)境設計中。

        湖南大學于 2008年開始研制開發(fā)無人駕駛智能車。該車是在現(xiàn)有商用車的基礎上改裝而成,是對其轉(zhuǎn)向、制動、油門、換擋機構(gòu)進行機電化改裝,并加裝GPS、慣導、激光雷達和視覺等傳感器。系統(tǒng)結(jié)構(gòu)如圖5所示,主要包括環(huán)境感知子系統(tǒng)、決策控制子系統(tǒng)和底層執(zhí)行子系統(tǒng)三大部分,采用總線方式進行各子系統(tǒng)間的數(shù)據(jù)與控制通訊。其中視頻采集部分采用型號為HuaQi DL-800C的彩色CMOS工業(yè)攝像頭,分辨率為300萬像素,并配合型號為M0814-MP的定焦工業(yè)放大鏡頭,視場角為56.3°,焦距為8 mm;視頻通訊接口為USB2.0,可直接與筆記本電腦連接。為方便移動測試,系統(tǒng)測試平臺在通用的商務筆記本上運行,處理器為Intel(R) Core(TM)2 Duo CPU T6570@2.10 GHz。

        測試場地選擇在市內(nèi)的實際道路環(huán)境,根據(jù)智能車測試任務的需求,在同一場地分別搭建S型和U型彎道。圖6所示為智能車測試環(huán)境的實際現(xiàn)場圖片。

        圖5 基于視覺導航的智能車系統(tǒng)功能結(jié)構(gòu)簡圖Fig.5 Diagram on intelligent vehicle of vision based navigation system

        圖6 智能車測試環(huán)境現(xiàn)場圖片F(xiàn)ig.6 Photo on practical testing environment for intelligent vehicle

        圖7 虛擬車道線識別結(jié)果Fig.7 Image processing results on construction of virtual lane

        圖7所示為采用本文所開發(fā)的系統(tǒng)得到的虛擬車道線測試結(jié)果,圖中錐形標底部的標志點為系統(tǒng)識別出錐形標定位后給出的虛擬車道線的控制點位置,其連線構(gòu)成了虛擬車道線。其中,圖7(a)和圖 7(b)所示分別為城市道路和高速公路測試環(huán)境中虛擬車道線的測試結(jié)果,此時智能車為車道保持與跟蹤狀態(tài)。圖7(a)中虛擬車道線出現(xiàn)在智能車的右側(cè),圖7(b)中虛擬車道線出現(xiàn)在智能車的左側(cè),虛擬車道線距離車體縱向中心1.5~2.0 m處,此時車輛位于車道中心處于安全行車狀態(tài)。由于錐形標的特征明顯,即使當行車環(huán)境中局部出現(xiàn)行人或車輛干擾,也能準確識別并構(gòu)建出虛擬車道線,這進一步表明此方法具有較強的抗干擾能力。

        圖8所示為利用錐形標序列在非結(jié)構(gòu)化道路中構(gòu)建的L型左轉(zhuǎn)測試環(huán)境下,采用本文方法計算得出的智能車航向角變化的時間歷程變化曲線。圖8中的縱坐標為航向角,即為虛擬車道線與車輛航向間的夾角,根據(jù)此參數(shù)并結(jié)合車輛轉(zhuǎn)向系的傳動比,即可對智能車進行視覺導航。實驗中智能車過此彎道時的平均車速為6 km/h,錐形標序列間距為2~3 m,以保證視覺傳感器采集的視場中能獲取到 2個以上的錐形交通標。構(gòu)建出的虛擬車道線將被傳送給決策控制層作為智能車轉(zhuǎn)向控制視覺導航的參考數(shù)據(jù),由決策控制子系統(tǒng)根據(jù)系統(tǒng)構(gòu)建的虛擬車道線進行車輛局部路徑規(guī)劃與行為控制。由圖8可知:轉(zhuǎn)向控制過程以圖中虛線為分界點分為直行、左轉(zhuǎn)、回正3個連續(xù)操控階段;圖中定義數(shù)據(jù)右轉(zhuǎn)為正值,左轉(zhuǎn)為負值,左轉(zhuǎn)最大航向角變化量為-24.2°。通過對機器視覺處理過程的實時回放分析發(fā)現(xiàn):由于實驗環(huán)境中個別錐形標擺放不夠規(guī)范,會造成視場中該處虛擬車道線呈現(xiàn)“Z字型”波動現(xiàn)象,同時伴隨智能車的行進過程,前后錐形標在視場中的交替出現(xiàn)與消失是非連續(xù)的,因此,會導致航向角曲線呈現(xiàn)出局部階躍變化的現(xiàn)象;圖中K點為智能車由入彎狀態(tài)轉(zhuǎn)為出彎狀態(tài)的臨界拐點,即此時方向盤控制將由左轉(zhuǎn)改為右轉(zhuǎn)。

        圖8 虛擬車道線導引下智能車轉(zhuǎn)向角變化的時間歷程曲線Fig.8 Vision base navigation based on virtual lane when left turning

        5 結(jié)論

        (1) 通過序列化擺放錐形交通標搭建測試環(huán)境是一種快速構(gòu)建智能車測試環(huán)境的有效方法,在場地選擇上更加靈活,環(huán)境構(gòu)建上更加方便,在結(jié)構(gòu)化道路與非結(jié)構(gòu)化道路環(huán)境中均適用,為智能車測試環(huán)境設計提供了新的思路和方法。

        (2) 本方法不受場地限制,具有一定的柔性和適應性。可以根據(jù)智能車智能行為的測試要求,在同一場地上靈活設計和搭建各類不同的測試環(huán)境,保證了測試過程的安全性,在提高測試效率的同時,降低了試驗成本。

        (3) 所采用的基于不變矩和神經(jīng)網(wǎng)絡的錐形交通標識別方法充分利用了神經(jīng)網(wǎng)絡較強的非線性映射能力和不變矩的仿射不變特征,是一種有效的錐形交通標識別方法。該系統(tǒng)可以對單個或多個錐形交通標以及室內(nèi)或室外、簡單或復雜背景下的視頻圖像序列取得很好的識別結(jié)果。

        (4) 該方法對光照條件、雨霧天氣等實際路面環(huán)境要求不高,同時對行人和運動車輛等環(huán)境的抗干擾能力強,保證了錐形交通標識別的準確性和魯棒性,為進一步虛擬車道線構(gòu)建提供了有力的支持。基于錐形標的虛擬車道線導引手段比實際車道線導航方法具有更高的可靠性。

        [1] 王榮本, 趙一兵, 李琳輝, 等. 智能車輛的障礙物檢測研究方法綜述[J]. 公路交通科技, 2007, 124(11): 109-113, 124.WANG Rongben, ZHAO Yibing, LI Linhui, et al. Approach review of obstacle detection for intelligent vehicle[J]. Journal of Highway and Transportation Research and Development, 2007,124(11): 109-113, 124.

        [2] 劉欣. 智能車智能行為驗證平臺的虛擬交通場景研究[D]. 合肥: 中國科學技術(shù)大學信息科學技術(shù)學院, 2009: 56-80.LIU Xin. Virtual traffic scene of intelligent behavior validation platform for driverless vehicle[D]. Hefei: University of Science and Technology of China. School of Information Science and Technology, 2009: 56-80.

        [3] Broggi A, Cattani S. An agent based evolutionary approach to path detection for off-road vehicle guidance[J]. Pattern Recognition Letters, 2006, 27(1): 1164-1173.

        [4] 付夢印, 李博, 王美玲. 一種基于逆投影變換的智能車道路識別方法[J]. 光學技術(shù), 2008, 34(3): 368-371.FU Mengyin, LI Bo, WANG Meiling. Inverse perspective transform based lane detection in autonomous vehicle[J]. Optical Technique, 2008, 34(3): 368-371.

        [5] 金輝, 吳樂林, 陳慧巖, 等. 結(jié)構(gòu)化道路車道線識別的一種改進算法[J]. 北京理工大學學報, 2007, 27(6): 501-505.JIN Hui, WU Lelin, CHEN Huiyan, et al. An Improved algorithm for the lane recognition of structured road[J].Transactions of Beijing Institute of Technology, 2007, 27(6):501-505.

        [6] 郭磊, 李克強, 王建強, 等. 應用方向可調(diào)濾波器的車道線識別方法[J]. 機械工程學報, 2008, 44(8): 214-218, 226.GUO Lei, LI Keqiang, WANG Jianqiang, et al. Lane detection method by using steerable filters[J]. Chinese Journal of Mechanical Engineering, 2008, 44(8): 214-218, 226.

        [7] McCall J C, Trivedi M M. Video-based lane estimation and tracking for driver assistance: Survey, system, and evaluation[J].Intelligent Transportation Systems, IEEE Transactions on, 2006,7(1): 237.

        [8] Broggi A. A new approach to urban pedestrian detection for automatic braking[J]. IEEE Transactions on Intelligent Transportation Systems, 2009, 10(4): 594-605.

        [9] Broggi A. TerraMax vision at the urban challenge 2007[J]. IEEE Transactions on Intelligent Transportation Systems, 2007, 11(1):194-205.

        [10] 史美萍, 彭曉軍, 賀漢根. 全虛擬智能車輛自主導航仿真系統(tǒng)的研究與實現(xiàn)[J]. 系統(tǒng)仿真學報, 2004, 16(8): 1721-1724,1728.SHI Meiping, PENG Xiaojun, HE Hangen. Research and accomplishment of auto-navigating simulation system for virtual unmanned vehicles[J]. Acta Simulata Systematica Sinica, 2004,16(8): 1721-1724, 1728.

        [11] 李力, 王飛躍, 鄭南寧, 等. 駕駛行為智能分析的研究與發(fā)展[J]. 自動化學報, 2007, 33(10): 1014-1022.LI Li, WANG Feiyue, ZHENG Nanning, et al. Research and developments of intelligent driving behavior analysis[J]. Acta Automatica Sinica, 2007, 33(10): 1014-1022.

        [12] Hu M K. Visual pattern recognition by moment invariants[J].IRE Transactions on Information Theory, 1962(8): 179-187.

        [13] Huh S, Shim D H. A vision-based landing system for small unmanned aerial vehicles using an airbag[J]. Control Engineering Practice, 2010, 18(3): 812-823.

        [14] Flusser J, Suk T. Pattern recognization by affine moment invariants[J]. Pattern Recognition, 1993, 26(1): 167-174.

        [15] 朱雙東, 張懿, 陸曉峰. 三角形交通標志的智能檢測方法[J].中國圖像圖形學報, 2006, 11(8): 1127-1131.ZHU Shuangdong, ZHANG Yi, LU Xiaofeng. Intelligent approach for triangle traffic sign detection[J]. Journal of Image and Graphics, 2006, 11(8): 1127-1131.

        [16] 張科, 羅華, 王秀琴. 基于不變矩和神經(jīng)網(wǎng)絡的目標識別方法[J]. 火力與指揮控制, 2009, 34(3): 16-18.ZHANG Ke, LUO Hua, WANG Xiuqin. Object recognition method based on neural network and invariant moments[J]. Fire Control and Command Control, 2009, 34(3): 16-18.

        [17] 曾祥樟, 盧道華. 一種基于OpenCV和 Tsai的攝像機兩步標定新方法[J]. 機電工程, 2008, 25(12): 49-52.ZENG Xiangzhang, LU Daohua. A new method of camera calibration based on OpenCV and Tsai[J]. Mechanical &Electrical Engineering Magazine, 2008, 25(12): 49-52.

        猜你喜歡
        測試環(huán)境錐形車道
        北斗+手機實現(xiàn)車道級導航應用
        避免跟車闖紅燈的地面車道線
        科學大眾(2021年9期)2021-07-16 07:02:50
        下頜管在下頜骨內(nèi)解剖結(jié)構(gòu)的錐形束CT測量
        全數(shù)字仿真測試環(huán)境在航天軟件測試中的應用研究
        淺談MTC車道改造
        雷達航跡處理測試環(huán)境構(gòu)建方法研究
        科技視界(2019年10期)2019-09-02 03:22:27
        網(wǎng)絡設備自動化測試設計與實現(xiàn)
        錐形束CT結(jié)合顯微超聲技術(shù)診治老年鈣化根管的應用
        宮頸錐形切除術(shù)后再次妊娠分娩方式的探討
        錐形流量計尾流流場分析
        色噜噜亚洲精品中文字幕| 日韩视频第二页| 久久婷婷综合色拍亚洲| 久久精品日韩免费视频| 亚洲综合av一区二区三区蜜桃| 狠狠精品久久久无码中文字幕| 粗了大了 整进去好爽视频| 亚洲五月七月丁香缴情| 成人av一区二区三区四区| 国产成人av在线免播放观看新| 亚洲精品无码久久久久av麻豆| 2022国内精品免费福利视频| 亚洲国产成人久久精品美女av| 久久99精品久久久久久清纯| 一本色道久久综合亚洲精品不卡| 久久精品免视看国产盗摄| 国产一区二区三区成人av| 加勒比hezyo黑人专区| 国产福利姬喷水福利在线观看| 99日本亚洲黄色三级高清网站| 亚洲女同av在线观看| 国产成人喷潮在线观看| 二区三区视频| 久久这里只有精品黄色| 国产精品视频自拍在线| 无码一区二区三区在线| 视频一区精品自拍| 国产一区二区三区精品乱码不卡| 男女猛烈拍拍拍无挡视频| 最新亚洲av日韩av二区| 亚洲综合精品在线观看中文字幕| 亚洲另类丰满熟妇乱xxxx| 国产精品熟女视频一区二区| 国产精品无码无片在线观看3D | 久久久久久久综合狠狠综合| 亚洲男人在线无码视频| 国产精品国产三级久久| 中文www新版资源在线| 中文字幕久久久人妻无码| 国产护士一区二区三区| 婷婷五月婷婷五月|