王科俊,趙彥東,邢向磊
(哈爾濱工程大學(xué) 自動化學(xué)院,黑龍江 哈爾濱 150001)
互聯(lián)網(wǎng)技術(shù)的迅猛發(fā)展給汽車工業(yè)帶來了革命性的變化,高精度地圖的進步與普及使得車輛實時精準定位成為可能,與此同時,智能駕駛技術(shù)的廣泛應(yīng)用使汽車駕駛變得更簡單更智能?;ヂ?lián)網(wǎng)、高精度地圖與智能駕駛技術(shù)相結(jié)合,共同推動了無人駕駛汽車技術(shù)的發(fā)展。
近年來,隨著市場對汽車主動安全和智能化需求的不斷提高,無人駕駛巨大的社會和經(jīng)濟價值越發(fā)凸顯,越來越多的企業(yè)與科研機構(gòu)積極參與并推動無人駕駛領(lǐng)域的發(fā)展。目前,能夠?qū)崿F(xiàn)完全無人駕駛的車輛還沒有正式批量生產(chǎn)銷售,但已經(jīng)有相當一部分實驗車型可以通過環(huán)境感知實現(xiàn)高度自主駕駛行為,如起步、加速、制動、車道線跟蹤、換道、避撞、停車等。表1給出了NHTSA (national highway traffic safety administration)對無人駕駛的定義[1],它將無人駕駛分為5個等級,分別是高級輔助駕駛(advanced driver assistance systems)、特定功能輔助、組合功能輔助、高度自動駕駛以及完全無人駕駛。如表1所示,目前大部分車型都還停留在組合功能輔助階段(Level 2級),要實現(xiàn)完全無人駕駛車的量產(chǎn)化,還有很長一段路要走。
20世紀70年代初,許多發(fā)達國家(如美國、英國、德國等)開始研究無人駕駛汽車,經(jīng)過長時間的發(fā)展,無人駕駛汽車在可行性和實用化方面都取得了突破性的進展[2]。1995年,美國卡納基梅隆大學(xué)研制的無人駕駛汽車Navllab-V,完成了橫穿美國東西部的無人駕駛實驗[3]。2005年,在美國國防部組織的“大挑戰(zhàn)”比賽中,由美國斯坦福大學(xué)改造的無人汽車,經(jīng)過沙漠、隧道、泥濘的河床以及崎嶇陡峭的山道最終獲得成功[4]。近年來由于谷歌、特斯拉、奔馳、寶馬等紛紛加入無人駕駛汽車的研究,無人駕駛技術(shù)有了突飛猛進的發(fā)展。
表 1 NHTSA對無人駕駛的定義Table 1 NHTSA definition of driverless
作為當前無人駕駛的領(lǐng)跑者,Google X實驗室從2007年初就開始籌備無人駕駛汽車的各項研究工作,并于2010年正式宣布相關(guān)工作的進展。2012年5月,美國內(nèi)華達州的機動車駕駛管理處為谷歌的無人駕駛汽車頒發(fā)了美國首例自動駕駛汽車的路測許可[5]。2015年6月,2輛谷歌無人駕駛原型車開始上路測試,如圖1所示。為了完成對車子在X,Y,Z這3個方向上的數(shù)據(jù)測量(加速度等),谷歌公司在汽車底部安裝了一個動力系統(tǒng),利用GPS技術(shù)對過往的其他車輛位置進行確認,最后利用智能算法對車輛下一步的行動進行預(yù)測。截至2016年8月,谷歌共有58輛無人駕駛汽車,這些車在加州、內(nèi)華達州、德州、山景城、菲尼克斯和奧斯汀等允許自動駕駛汽車路測的地區(qū)進行實際路測,據(jù)Google發(fā)布的自動駕駛項目月報顯示,截至2016年8月30日,累計行駛距離已經(jīng)超過約2.9×106km,平均每周1.5~1.7 萬英里[6-11]。
圖 1 Google無人駕駛汽車Fig. 1 Google self-driving car
緊隨其后的特斯拉ModelS系列汽車,其“Autopilot”技術(shù)近年來已經(jīng)取得重大突破,為了讓車子能夠?qū)崟r地感知外部環(huán)境,該公司還在車身上安裝了一些設(shè)備,比如攝像頭、雷達等,無人汽車主要利用傳感器反饋的信息來實現(xiàn)自動并道、自動停車等輔助駕駛功能,該功能獲得了眾多試駕者的一致好評。據(jù)2016年5月份的數(shù)據(jù),特斯拉旗下的電動汽車已通過Autopilot自駕功能累計行駛大約1.6×108km。雖然目前特斯拉的Autopilot技術(shù)僅被美國國家公路交通安全管理局(NHTSA)認定為Level 2階段,但是作為迄今為止量產(chǎn)車型中自動駕駛系統(tǒng)應(yīng)用最成功的企業(yè),特斯拉向我們展示了在某些特定路況下,汽車已經(jīng)基本實現(xiàn)自動駕駛[12]。
在2013年9月奔馳汽車公司宣布他們生產(chǎn)的S級轎車完成了從德國曼海姆到達普福爾茨海姆的自動駕駛,這段自動駕駛的總長度為100 km。2015年1月,在國際消費電子展(CES)上奔馳發(fā)布旗下F015 Luxury in Motion自動駕駛概念級豪華轎車,在美國舊金山通過路試[13]。
2006年,寶馬公司開始在賽道上嘗試對汽車的自動駕駛進行測試,其中包括自動啟動和停車等。2011年,寶馬公司的無人汽車首次在德國進行路試,測試它對其他汽車進行自動躲避障礙等功能。寶馬汽車公司在2014年5月公布了研發(fā)的輔助駕駛系統(tǒng) “Urban Roads:BAN research”。該輔助駕駛系統(tǒng)可以提供異常預(yù)警和駕駛線路的選擇,還可以調(diào)整發(fā)動機的動力配置。2014年7月,百度公司和寶馬公司合作進行了無人駕駛車的研發(fā)和制造。其中,數(shù)據(jù)分析和技術(shù)服務(wù)由百度負責,硬件設(shè)計和制造由寶馬承擔。此系統(tǒng)的城市路況和高速公路路況的測試工作于2015年底成功完成。2016年7月1日晚,寶馬、英特爾及Mobileye聯(lián)合舉行發(fā)布會,宣布三方合作,協(xié)同開發(fā)無人駕駛電動車iNext,同時聲明寶馬將于2021年與兩家合作伙伴共同推出無人駕駛汽車[14]。
據(jù)英國汽車雜志Autocar報道,全新一代奧迪A8將于2017年上市,奧迪A8如圖2所示。該車率先采用全自動無人駕駛系統(tǒng)“TrafficJam Assist”,該系統(tǒng)能夠在無需任何人類干涉的情況下自動控制汽車,以速度80 km/h運行[15-16]。
圖 2 奧迪無人駕駛汽車Fig. 2 Audiautonomous vehicle
豐田于2015年對自動駕駛項目撥款10億美元,同時與斯坦福、MIT和密歇根大學(xué)合作,特別值得一提的是,豐田是目前自動駕駛專利最多的車企,擁有1 400多項專利技術(shù)[17]。
2013年9月,日產(chǎn)公司取得了對研發(fā)的自動駕駛汽車進行公路測試的資格牌照,并于2015年10月起進行搭載了Piloted Drive 1.0自動駕駛系統(tǒng)的Leaf(聆風)電動車的原型車測試工作,測試地點為日本首都圈。為了能夠獲得周圍360°的全方位信息,該車配備的240個傳感器,包括12個攝像頭,5個雷達,4個激光掃描儀及超聲波傳感器。2016年7月,日產(chǎn)于總部橫濱發(fā)布了第5代S e rena車型,該車型配有最新的自動駕駛系統(tǒng)ProPILOT,能夠滿足在單向車道中自動行駛的需求[18]。
2014年4月,本田公司在5條指定公路上進行了輔助駕駛系統(tǒng)的測試,并在2014年9月在美國底特律召開的智能交通系統(tǒng)大會上進行了展示發(fā)布,該系統(tǒng)能夠進行自動轉(zhuǎn)向、變道及超車的操作。2016年5月,本田在GoMentum Station測試基地對第二代無人駕駛版謳歌RLX測試車開展了實地測試工作。
美國大眾汽車公司的無人駕駛技術(shù)研發(fā)始于參加DARPA(美國國防部高級研究計劃局)無人駕駛汽車挑戰(zhàn)賽。與美國斯坦福大學(xué)合作改裝的大眾途銳(Touareg)TDI R5在 2005年的越野賽中取得了第一名的成績;2007年參加的城市賽中車型為帕薩特運動款(Passat SportWagen),取得了第二名的成績。2015年10月,大眾汽車與美國內(nèi)華達大學(xué)合作進行了無人駕駛測試,測試地點為美國亞利桑那州的諾加萊斯(Nogales)和墨西哥首都墨西哥城之間,測試距離長達2400 km,創(chuàng)造了墨西哥境內(nèi)完成的最長測試距離的無人駕駛紀錄[19-21]。
福特公司的無人駕駛團隊于2015年成立,該團隊由在公司工作近30年的資深專家Randy Visintainer擔任負責人。福特公司在2016年入股了云計算方面的公司Pivotal Software,總共費用高達83億美元,其目的在于增強自己在自動駕駛中的云計算能力。2016年7月,福特與麻省理工學(xué)院發(fā)起了一項關(guān)于機器學(xué)習和自動駕駛系統(tǒng)的研究計劃,該計劃旨在解決車輛碰撞問題以及改進自主路線規(guī)劃[22]。
博世公司作為全球汽車零件供應(yīng)和技術(shù)的巨頭,早在2011年開始就對無人駕駛進行研究,同時持續(xù)在加州帕洛阿爾帕托技術(shù)中心進行自動駕駛測試。博世在2015年的CES展會上,展示了該公司最新的輔助駕駛系統(tǒng),并在JEEEP的切諾基車型上進行了實際演示。該輔助系統(tǒng)由4個模塊組成:攝像頭、雷達、智能預(yù)剎車以及距離傳感器。這些模塊可以幫助駕駛?cè)藛T更好地處理各種緊急事件提高車輛的安全性能。2016年4月和6月,博世分別在北京國際車展和位于美國密歇根州Flat Rock的試驗場地上展示了最新產(chǎn)品,其中包括駕駛員輔助系統(tǒng)、第六代超聲波雷達和互聯(lián)汽車等[23-25]。
2016年5月25日,Uber宣布獲得豐田公司的戰(zhàn)略投資,豐田除了幫Uber開拓現(xiàn)有的車輛租賃業(yè)務(wù)外,雙方還計劃在無人駕駛研發(fā)方面進行合作。2016年8月19日Uber宣布與沃爾沃合作,預(yù)計2021年推出無人駕駛出租車,原型車于當月起在匹茲堡上路測試[26]。
Delphi(德爾福)汽車于2015年3月完成了大約5 600 km的無人駕駛測試。該無人駕駛汽車是根據(jù)奧迪SQ5改裝而成的。2016年8月23日,Delphi Automotive和Mobileye宣布,將合作開發(fā)一款符合SAE(美國汽車工程協(xié)會)規(guī)定的4級自動駕駛?cè)捉鉀Q方案,該方案為端對端、可量產(chǎn)、高性能和安全操作的全自動駕駛解決方案(市場上首個一站式4/5級自動駕駛解決方案)[27]。
2015年,Drive.ai公司從斯坦福大學(xué)人工智能實驗室分出來。該公司的核心成員都具有豐富的深度學(xué)習研究背景,因此公司利用深度學(xué)習算法解決了車輛的自動駕駛問題。2016年4月底,該公司獲得了美國加利福尼亞州測試無人駕駛汽車的許可[28]。
2016年8月25日,NuTonomy公司利用NASA+MIT技術(shù),讓無人駕駛出租車(見圖3)在新加坡率先完成試運營載客。該公司的無人駕駛出租車裝有6套激光雷達檢測系統(tǒng),同時儀表盤上還有兩個攝像頭,用來掃描障礙和檢測紅綠燈變化。NuTonomy使用激光雷達數(shù)據(jù)能提供更準確的定位,不僅能檢測道路上的物體,還能檢測出汽車周圍的靜態(tài)物體。為了更好地發(fā)展無人駕駛汽車的經(jīng)濟價值,該公司還開發(fā)調(diào)配和指揮無人駕駛出租車的云計算軟件,指揮無人駕駛出租車隊[29]。
圖 3 NuTonomy無人駕駛汽車Fig. 3 NuTonomy driverless car
無人駕駛技術(shù)在國內(nèi)的發(fā)展較晚,1992年國防科技大學(xué)成功研制出中國第一輛紅旗系列無人駕駛汽車[30];經(jīng)過一系列的努力和研制,直到2011年7月14日,首次在高速上實現(xiàn)長沙到武漢約286 km的全程無人駕駛實驗,成為了首個中國自主研制的無人駕駛車輛,突破了在復(fù)雜交通狀況下的自主駕駛的新紀錄,這次成功標志著中國無人駕駛技術(shù)在復(fù)雜環(huán)境識別、智能行為決策和控制等方面的技術(shù)突破,達到世界先進水平[31]。
2005年,首輛城市無人駕駛汽車在上海交通大學(xué)研制成功[32]。從2009年開始,在國家自然科學(xué)基金委“視聽覺信息的認知計算”重大研究計劃支持下,分別在西安、鄂爾多斯、赤峰、常熟等地舉辦了七屆“中國智能車未來挑戰(zhàn)賽(見圖4)”。該比賽是現(xiàn)有的國內(nèi)外唯一面向無人駕駛的賽事,極大地推動了中國無人駕駛車輛的研究工作[33]。
圖 4 2009—2015年中國智能車未來挑戰(zhàn)賽Fig. 4 Future challenge 2009—2015
由于技術(shù)有限,在前幾屆比賽中參賽的無人汽車需要較多的人為干預(yù)。隨著科技的不斷進步,自2013年之后,參賽的無人車輛可以在真實交通環(huán)境中完成駕駛?cè)蝿?wù)。目前研發(fā)無人駕駛汽車的知名團隊有清華大學(xué)、國防科技大學(xué)等,這些團隊與一汽集團、上汽集團等國內(nèi)知名車企已相互合作,共同研發(fā)使用感更好、性能更加穩(wěn)定的無人駕駛車輛[34]。2009年與2015年中國無人駕駛車輛差異對比如圖5所示。
圖 5 2009年與2015年的無人車Fig. 5 Driverless cars in 2009 and 2015
由圖5可以看出,2009年參賽無人車輛是經(jīng)過簡單的外置傳感器和控制器改裝的,而2015年參賽的部分無人車輛是內(nèi)置傳感器與車載相結(jié)合車載,這些參賽車輛都是研究團隊與車企之間的合作結(jié)果。
近年來,國內(nèi)IT企業(yè)和各大自主車企也開始將研究方向投入到無人駕駛領(lǐng)域。2013年,百度深度學(xué)習研究院主導(dǎo)研發(fā)無人駕駛汽車項目。2014年,百度成立了車聯(lián)網(wǎng)事業(yè)部,陸續(xù)推出CarLife、My-Car、CoDriver等產(chǎn)品。2015年底,百度深度學(xué)習研究院與寶馬合作,在北京五環(huán)上展示全自動駕駛原型車。2016年,百度與烏鎮(zhèn)旅游舉行戰(zhàn)略簽約儀式,宣布將在該景區(qū)實現(xiàn)Level4的無人駕駛(見圖6)[35]。
百度與福特在2016年8月達成共識,為了降低無人駕駛汽車激光雷達的生產(chǎn)成本,兩公司共同投資激光雷達廠商Velodyne。2016年9月1日,在百度世界大會上,李彥宏與NVIDIA創(chuàng)始人黃仁勛宣布合作,共同創(chuàng)建自動駕駛云平臺,并向中國乃至全球的汽車制造商開放。與此同時,百度高級副總裁、自動駕駛事業(yè)部負責人王勁表示成立NHTSA Level 3等級自動駕駛技術(shù)的L3事業(yè)部[36],與此同時,美國加州機動車輛管理局(Department of Motor Vehicles)已向百度美國(Baidu USA)發(fā)放第15張自動駕駛汽車上路測試牌照。目前獲得DMV發(fā)放自動駕駛汽車路測牌照的公司如表2所示。
圖 6 百度無人駕駛汽車Fig. 6 Baidu self-driving car
表 2 截至2016年8月29日獲得DMV發(fā)放自動駕駛汽車路測牌照的公司Table 2 Entities to which the DMV has issued autonomous vehicle testing permits as of august 29, 2016
2013年9月,上汽集團與中國航天科工三院在上海宣布簽署合作協(xié)議,開始實施無人駕駛計劃;不久之后,奇瑞宣布與武漢大學(xué)合作開發(fā)無人駕駛汽車,北京現(xiàn)代則選擇與軍事交通學(xué)院展開合作。2015年宇通汽車公司研發(fā)了一輛無人駕駛公交車,實現(xiàn)從鄭州到開封城際快速路的演示[37]。同年,在江蘇常熟成功舉辦的“中國智能車未來挑戰(zhàn)賽”上,由軍事交通學(xué)院代表隊研制的“軍交猛獅號”獲得第一名[38]。2016年4月13日,長安汽車公司生產(chǎn)的無人駕駛汽車(見圖7)從重慶出發(fā),途經(jīng)西安、鄭州、石家莊抵達北京,穿越了大巴山、秦嶺、終南山,跨過了華北平原、黃河,行程近2 000 km。這是我國首次無人駕駛汽車超長距離行駛實測[39]。2016年7月6日,北汽集團新技術(shù)研究院與盤錦市大洼區(qū)人民政府簽署無人駕駛汽車的戰(zhàn)略合作協(xié)議,共同開發(fā)無人駕駛體驗項目[40]。
圖 7 百度無人駕駛汽車與長安無人駕駛汽車Fig. 7 Baidu self-driving car and Changan automobile
2016年9月1日京東集團對外宣布,由其自主研發(fā)的中國首輛無人配送車已經(jīng)進入道路測試階段,10月份即將開始試運營,2017年有望進行大規(guī)模商用[41]。最近,樂視宣布在多處開展無人駕駛汽車研發(fā)工作,滴滴CTO張博宣布將無人車作為重大戰(zhàn)略布局,并很快實現(xiàn)無人車上路[42]。綜上所述,盡管國內(nèi)車企和各大IT公司進入無人駕駛領(lǐng)域較晚,但是隨著越來越多的企業(yè)和單位積極投入到其中,中國智能汽車發(fā)展迅速,已接近國際先進水平。
目前,無人駕駛汽車產(chǎn)業(yè)化的瓶頸問題主要有兩點:1)如何更高效快速實現(xiàn)多傳感器信息融合;2)在保證自動駕駛性能的前提下如何最大限度降低設(shè)備成本。
研發(fā)人員當前面臨的最棘手的難題是如何提高汽車的視覺能力,目前所研發(fā)的計算機視覺系統(tǒng)還非常的低端和原始,如何賦予計算機系統(tǒng)接近甚至達到人類的視覺能力是一項非常巨大的挑戰(zhàn)。無人駕駛汽車需要隨時注意周邊車輛和行人,而且能夠?qū)崟r檢測到周圍的車道、地面上的畫線,認識交通標識、交通燈的含義,應(yīng)對風霜雨露以及強光、弱光等一系列復(fù)雜的環(huán)境因素的影響。此外,由于某些原因無法“看清”道路標志甚至在一些根本沒有道路標志的環(huán)境時,為了實現(xiàn)完全無人駕駛,目前唯一可行的辦法是通過多傳感器實現(xiàn)信息融合進行決策,綜合利用各類傳感器的優(yōu)勢從而達到理想的效果,如圖8所示。例如,毫米波雷達適用于近程、高分辨力的目標監(jiān)視和目標截獲,由于其較強的穿透能力,可以用于視覺系統(tǒng)捕獲車道線、交通燈顏色等信息。但是其視覺系統(tǒng)不足之處在于,其測距能力沒有激光雷達準確。因此將激光雷達、毫米波雷達與視覺傳感器相融合,可以有效解決單獨使用的不足之處,在進行物體檢測的同時,也可以進行空間測距和圖像識別。
圖 8 無人駕駛實現(xiàn)示意Fig. 8 Interpretation of unmanned vehicle
車載傳感器是研發(fā)無人駕駛汽車時,需要多方面綜合考慮的對象,其包括傳感器的精度、靈敏度、主動與被動傳感器等。表3為各類車載傳感器性能指標對比,表4詳細分析實現(xiàn)不同自動駕駛功能所需傳感器及感知參數(shù)。
表 3 車載傳感器指標對比Table 3 Vehicle sensor comparison
表 4 實現(xiàn)不同自動駕駛功能所需傳感器及感知參數(shù)分析[43]Table 4 Sensors required to achieve different automatic driving functions
除了上述各類傳感器之外,還需要選配高精度GPS定位系統(tǒng)及高精度測距傳感器。如圖9所示,該圖中的汽車是Stanford 大學(xué)研發(fā)的Junior無人車,該車配備4個激光雷達(IBEO、Riegl、SICK LMS和Velodyne),1個Applanix GPS慣性導(dǎo)航系統(tǒng),5個BOSCH毫米波雷達,以及前向相機系統(tǒng)[44]。
由于需要種類繁多的傳感器,如何將上述各種設(shè)備采集到的信息實現(xiàn)高效快速的融合,形成一個穩(wěn)定而智能的系統(tǒng)從而應(yīng)對各種突發(fā)事件和挑戰(zhàn),是目前實現(xiàn)無人駕駛的關(guān)鍵[45]。
目前無人駕駛汽車所使用的設(shè)備主要包括激光雷達、車載攝像頭、車載雷達、超聲波設(shè)備以及GPS等。利用激光雷達生成的點云,對反射障礙物的遠近、高低能較為準確地估計,從而大大提高障礙物檢測的準確度,谷歌、Uber等科技公司都將這種設(shè)備應(yīng)用在原型汽車上[46]。圖10為目前常用激光雷達LiDAR示意圖,其中Velodyne HDL-64E LiDAR預(yù)售價在10萬美元以上,Velodyne VLP-16 LiDAR官網(wǎng)報價為稅前7 999美元,過高的成本大大阻礙無人車的商業(yè)化。
圖 9 Junior無人駕駛車輛及其傳感器配置Fig. 9 Junior unmanned vehicle and sensor configuration
圖 10 LIDAR圖例Fig. 10 Examples of LIDARs
由于激光雷達售價過高導(dǎo)致無法量產(chǎn),因此自動駕駛系統(tǒng)的傳感器主要還是毫米波和攝像頭。全球汽車毫米波目前主要生產(chǎn)供應(yīng)商為博世、大陸、海拉、富士通、電裝、天合、德爾福、奧托立夫和法雷奧等,國內(nèi)主要有湖南納雷科技、廈門意行、華域汽車、杭州智波、蕪湖森思泰克等,用于車企量產(chǎn)車上的ADAS預(yù)警類應(yīng)用[47]。目前利用攝像頭實現(xiàn)量產(chǎn)無人駕駛系統(tǒng),最具代表性的廠商為Mobileye,此外Omni、PointGrey、大恒和微視等公司近年來也取得很大進展。眾所周知,單一攝像頭捕獲的圖像會產(chǎn)生距離誤差,多攝像頭捕獲的圖像卻提高了計算成本,這兩種方法都不能滿足無人車的實時性。另外,光照條件也會對光學(xué)攝像頭產(chǎn)生影響從而產(chǎn)生識別的不穩(wěn)定。上述兩點一直是利用攝像頭實現(xiàn)無人駕駛的重要阻礙,伴隨著近年深度學(xué)習技術(shù)在圖像和聲音領(lǐng)域不斷取得突破性進展,越來越多的公司和企業(yè)開始研究利用雙/多攝像頭來應(yīng)對復(fù)雜的道路環(huán)境從而實現(xiàn)無人駕駛,包括中科慧眼、地平線、東軟和Minieye等[48]。與此同時,通過利用GPU強大的并行運算能力,在運算速度、效率不斷提高的同時大幅度降低計算成本,更是為深度學(xué)習在自動駕駛領(lǐng)域的應(yīng)用鋪平了道路[49]。
深度學(xué)習[50]在計算機視覺獲得了巨大成功,徹底顛覆了傳統(tǒng)的計算機模式識別方法[51]。在深度學(xué)習出現(xiàn)以前,大多數(shù)識別任務(wù)要經(jīng)過手工特征提取和分類器判斷兩個基本步驟,而深度學(xué)習可以自動地從訓(xùn)練樣本中學(xué)習特征。深度學(xué)習的快速應(yīng)用主要有兩點原因:1)更容易獲得大量的人工標注數(shù)據(jù)集,如ImageNet大規(guī)模視覺識別挑戰(zhàn)(ILSVRC)[52];2) 深度學(xué)習算法可以在GPUs上并行處理圖形,提高了學(xué)習效率和預(yù)測能力。利用深度神經(jīng)網(wǎng)絡(luò)自主學(xué)習的特性,先通過高性能GPUs將龐大復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練好,然后移植到嵌入式開發(fā)平臺,就可以實現(xiàn)對圖像、視頻信息實時高效的處理[53]。近年來,從自動駕駛初創(chuàng)企業(yè)、互聯(lián)網(wǎng)公司到各大OEM廠商,都在積極探索利用GPUs構(gòu)建神經(jīng)網(wǎng)絡(luò)實現(xiàn)最終的無人駕駛。
將深度學(xué)習應(yīng)用于無人駕駛領(lǐng)域的代表公司有Mobileye及NVIDIA公司,他們把基于深度卷積神經(jīng)網(wǎng)絡(luò)的方法用于汽車的視覺系統(tǒng)中,取得了非常理想的效果。其中Mobileye公司生產(chǎn)的基于多核架構(gòu)芯片EyeQ4(見圖11(a)),使用了4顆核心處理器、6顆VMP芯片、2顆 MPC核心和2顆PMA核心,每秒浮點運算可達2.5萬億次,而功耗僅有3 W。通過一系列的算法,EyeQ4可以同時處理8部攝像頭(最高36f/s)產(chǎn)生的圖像數(shù)據(jù)[54-56]。
英偉達DRIVE PX2無人駕駛汽車平臺(見圖11(b)),支持12路攝像頭輸入、激光定位、雷達和超聲波傳感器;包括兩顆新一代NVIDIA Tegra處理器,其中每個處理器包括8個A57核心和4個Denver核心;基于NVIDIA(見圖12)的新一代GPU架構(gòu)Pascal設(shè)計,單精度計算能力達到8 T/S,超越TITAN X的10倍以上的深度學(xué)習計算能力[57]。
圖 11 Mobileye EyeQ4與 英偉達DRIVE PX2Fig. 11 Mobileye EyeQ4 and NVIDIA DRIVE PX2
數(shù)據(jù)科學(xué)家利用NVDIADGX-1訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),然后把訓(xùn)練好的網(wǎng)絡(luò)模型與車輛配備,在NVIDIA DRIVE PX2上無縫運行。與此同時,NVIDIA利用NVIDIA DRIVE PX2構(gòu)建的Drivenet平臺(見圖13)提供算法庫支持,實現(xiàn)無人駕駛汽車無線更新功能[58]。
圖 12 英偉達自動駕駛開發(fā)平臺Fig. 12 NVIDIA DRIVE PX 2
圖 13 NVIDIA深度學(xué)習無人駕駛平臺解決方案Fig. 13 NVIDIA deep learning unmanned platform solutions
2016年9月13日,NVIDIA在GPU技術(shù)大會上推出了體積更小的節(jié)能型車載深度學(xué)習計算平臺NVIDIA DRIVETMPX 2 AUTOCRUISE,該平臺采用了新型單處理器配置,功耗僅為10 W。此外許多移動終端產(chǎn)品芯片供應(yīng)商已經(jīng)開始為自動駕駛技術(shù)提供帶有GPU單元的嵌入式處理器。一些大公司(例如高通、三星)也推出了各自帶有GPU單元的嵌入式處理器。三星處理器芯片目前主要研發(fā)汽車智能硬件,車機互聯(lián)系統(tǒng)來拓展面向汽車的產(chǎn)品組合,實現(xiàn)多系統(tǒng)支持的感知功能。
由于深度學(xué)習方法對圖像處理的高效性,使得無人駕駛汽車可以利用單/雙攝像頭初步實現(xiàn)對自動控制的需求,減輕了傳統(tǒng)方法中對用昂貴的激光掃描儀來建立3-D全景地圖的依賴性。雖然相比于激光掃描儀,利用攝像頭采集的信息精度稍低,但完全可以滿足日常無人駕駛的需要,而改進的深度學(xué)習算法通過對多攝像頭信息融合處理,模擬人的雙眼生成立體空間圖像,從而輕松判斷距離,實現(xiàn)更好的自動控制功能[59-67]。
Pomerleau在1989年用神經(jīng)網(wǎng)絡(luò)搭建了一套自動駕駛系統(tǒng)(autonomous land vehicle in a neural network,ALVINN)[68]。ALVINN首次證實了端到端訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型實現(xiàn)無人駕駛的可行性。
近年來,隨著深度學(xué)習的快速發(fā)展,利用深度學(xué)習實現(xiàn)圖像識別的文章數(shù)不勝數(shù)。2016年5月18日,Y. Lecun等發(fā)表Stereo Matching by Training a Convolutional NeuralNetwork to Compare Image Patches,首次提出利用Siamese網(wǎng)絡(luò)(見圖14),同時輸入左視圖和右視圖兩幅圖像,利用網(wǎng)絡(luò)計算出兩幅圖像的視差圖像,從而控制車輛的前進方向[69]。
圖 14 雙通道網(wǎng)絡(luò)示意圖Fig. 14 Diagram of Siamese network
將Siamese網(wǎng)絡(luò)的雙通道輸入結(jié)構(gòu)應(yīng)用于深度神經(jīng)網(wǎng)絡(luò),在傳統(tǒng)深度學(xué)習的優(yōu)勢之上,還可以通過兩幅圖像之間的差異從而判斷周圍物體的遠近(見圖15),從而合理操控汽車實現(xiàn)無人駕駛[70]。
圖 15 訓(xùn)練圖片示例Fig. 15 Example of training photos
利用式(1)計算視差,其中IL(P)和IR(P)為左右圖像在P點處的灰度值,NP是一組固定位置在以P為中心的矩形窗口。通過不斷調(diào)節(jié)網(wǎng)絡(luò)的隱層數(shù)和進行海量訓(xùn)練最終達到的效果見圖16。
近年來,NVIDIA公司通過采用卷積神經(jīng)網(wǎng)絡(luò)(CNNs)實現(xiàn)無人駕駛?cè)〉煤艽笸黄?。該公司研究人員將攝像頭捕捉到的原始圖片通過CNNs映射為汽車的方向操控命令,只需提供少量的訓(xùn)練數(shù)據(jù),系統(tǒng)就能自動學(xué)會駕駛技術(shù),甚至可以工作在視線不清晰以及無車道標志線等區(qū)域,例如停車場或者崎嶇的山路上。圖17為該系統(tǒng)的訓(xùn)練數(shù)據(jù)采集模塊的塊狀示意圖,數(shù)據(jù)采集車通過3臺攝像機采集視頻信息,同步記錄駕駛員操控方向盤的偏轉(zhuǎn)角度,利用汽車控制網(wǎng)絡(luò)(controller area network,CAN)總線獲取下一個方向的控制命令。系統(tǒng)采用1/r來表示控制方向的命令,其中r代表以米為單位的轉(zhuǎn)彎半徑。
圖 16 識別效果圖Fig. 16 Photo of recognition result
圖 17 數(shù)據(jù)采集系統(tǒng)結(jié)構(gòu)Fig. 17 Structure diagram of data acquisition system
圖像輸入到CNNS控制命令中,將預(yù)測方向控制命令與理性控制命令相比產(chǎn)生誤差,利用誤差值不斷訓(xùn)練調(diào)整CNNs模型的權(quán)值,使得網(wǎng)絡(luò)模型輸出的方向控制命令與人工駕駛或者調(diào)整后的控制命令的均方誤差最小,圖18為訓(xùn)練系統(tǒng)示意圖。
訓(xùn)練完成后,模型通過采用中間攝像機數(shù)據(jù)生成方向控制命令,具體過程如圖19所示。
該CNNs一共包含9層網(wǎng)絡(luò)(1個歸一化層,5個卷積層和3個全連接層),輸入圖像被映射到Y(jié)UV平面[71],然后傳入網(wǎng)絡(luò)進行逐層訓(xùn)練,詳細網(wǎng)絡(luò)結(jié)構(gòu)如圖20所示。
圖 18 訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型Fig. 18 Training a neural network model
圖 19 中間攝像機的數(shù)據(jù)輸入模型生成方向控制命令Fig. 19 Control command is generated by the data input model of the intermediate camera.
圖 20 CNNs結(jié)構(gòu)(該網(wǎng)絡(luò)約有2 700萬個連接和25萬個參數(shù))Fig. 20 CNNs structure (the network has about 27 million connections and 250 thousand parameters)
網(wǎng)絡(luò)的第一層采用硬編碼技術(shù)對輸入圖像進行歸一化[72],網(wǎng)絡(luò)前3個卷積層使用了strided卷積,其中strided為2×2,卷積核大小為5×5,后2個卷積層選用unstrided卷積,卷積核大小為3×3。在5個卷積層之后添加3個全連接層,最后輸出為一個控制數(shù)字,即轉(zhuǎn)彎半徑的倒數(shù)。此外,在訓(xùn)練過程中通過人為添加了一些偏移和旋轉(zhuǎn)去補充數(shù)據(jù)集,按正態(tài)分布隨機選取調(diào)整幅度。圖21和圖22分別展示了兩張不同輸入圖片在前兩層網(wǎng)絡(luò)的激活狀態(tài),在圖21中,特征圖片清晰地勾畫出路的邊界,而在圖22中夾雜了大量噪音,表示網(wǎng)絡(luò)模型從圖中找不到有用的特征(道路信息)。
圖 21 CNN模型處理土路Fig. 21 CNN model formanagingdirt road
圖 22 沒有路的圖片示例Fig. 22 Wasteland image sample
與NVIDIA無人駕駛解決方案稍有不同,Mobileye在自動駕駛的布局分為3個部分,即感知、高精地圖和駕駛決策(見圖23)。
圖 23 Mobileye自動駕駛布局Fig. 23 Layout of Mobileye
Mobileye在自動駕駛領(lǐng)域的感知技術(shù)比較成熟,已經(jīng)大量運用在已有產(chǎn)品中,該技術(shù)主要提供一個環(huán)境模型(environmental model),包括運動和靜止的物體、車道線、可行駛區(qū)域和交通標志等。通過多年的技術(shù)積累,讓Mobileye在環(huán)境模型方面能夠提供的內(nèi)容遠超競爭對手,在其他車企還在嘗試提高單一車道線的檢測精度時,Mobileye已經(jīng)可以提供道路的語義級特征描述,例如當前行駛車道的左右車道線、左右車道的左右線以及道路分叉等,均通過深度神經(jīng)網(wǎng)絡(luò)識別。
Mobileye將感知任務(wù)劃分成多個模塊,每個對應(yīng)一個人工監(jiān)督的神經(jīng)網(wǎng)絡(luò),所得出的效果已經(jīng)可以產(chǎn)品化。目前Mobileye利用深度學(xué)習進行訓(xùn)練,訓(xùn)練過程中考慮了駕駛過程中的時序性(見圖24),最終實現(xiàn)短時預(yù)測[73-75]。
圖 24 Mobileye無人駕駛時序性原理圖Fig. 24 Sequential schematic of unmanned Mobileye
2016年2月18日,加州大學(xué)圣地亞哥分校(UCSD)的工程師們開發(fā)了一個非常便宜、有效的行人檢測系統(tǒng),該系統(tǒng)是基于視覺信號進行實時探測(見圖25)。加州大學(xué)圣地亞哥分校中一位電氣工程教授表示,他們的算法可以通過2~4 f/s的速度檢測出行人變化,可以有效避免行人的突然變化造成汽車突然剎車的事故,該算法成功地將當時錯誤率降了一半。
圖 25 UCSD行人檢測效果圖Fig. 25 Demo of UCSD
此外,劍橋大學(xué)研發(fā)團隊利用圖像識別和深度學(xué)習技術(shù)研發(fā)的SegNet系統(tǒng)(見圖26),可以將街景照片內(nèi)容分割成12個類型的物體,其中包括道路、建筑、路標、行人等,并在不同光照條件下進行實時的語義分割。在夜間環(huán)境該系統(tǒng)可以保持實時工作狀態(tài)并可以在較短時間內(nèi)對各種新圖像進行評估,標記像素的準確度達到90%以上。過去的系統(tǒng)使用的傳感器都是以昂貴的雷達或激光技術(shù)為基礎(chǔ),無法達到SegNet的精度和實時性。在GPS失效的地方,SegNet系統(tǒng)可以幫助無人駕駛汽車確定位置和方向,實時識別出各種不同的路況[76]。
圖 26 SegNet示意圖Fig. 26 Examples of SegNet
劍橋大學(xué)研發(fā)團隊運用深度學(xué)習方法實現(xiàn)SegNet系統(tǒng),使其在復(fù)雜背景和氣候環(huán)境下仍然具備良好的魯棒性。通過劍橋大學(xué)的一組本科生手工標記5 000張圖片中的所有像素,研究人員利用這5 000張圖片訓(xùn)練SegNet并進行測試,最終達到理想的效果[77]。汽車安全系統(tǒng)需要滿足快速性和準確性。計算機視覺中的“梯級檢測”算法可以檢測特定圖像,但在復(fù)雜環(huán)境下的檢測效果會降低。團隊創(chuàng)造的SegNet系統(tǒng)結(jié)合了兩者的優(yōu)勢,既保證了實時性,又有很高的識別精度。
與此同時,comma.ai的創(chuàng)始人GeoHot不但把公司的自動駕駛技術(shù)和代碼開源,同時開源了駕駛采集數(shù)據(jù)。其中前視攝像頭采集的圖像大小為160×320,數(shù)據(jù)時長為7.25 h,包括了11個視頻。數(shù)據(jù)集包含了汽車的轉(zhuǎn)向信息、制動信息、速度信息和慣導(dǎo)信息,以及輸出控制和輸入圖像之間的同步時間數(shù)據(jù)。最后利用深度學(xué)習模型進行End-to-End訓(xùn)練(見圖27),將攝像頭的原始圖像作為輸入,直接輸出車輛的速度和方向,來擬合逼近最優(yōu)駕駛策略。
隨著市場對汽車主動安全技術(shù)、智能化等技術(shù)需求不斷增加,越來越多的企業(yè)投入其中,共同推動無人駕駛汽車的發(fā)展。與此同時,隨著計算機性能的逐步提高,成本降低,無人駕駛汽車使用的各種傳感器取得了很大的進步,研發(fā)技術(shù)的門檻隨之降低,前景十分明朗。近年來深度學(xué)習在圖像識別方面取得了突破性的進展,更是為無人駕駛技術(shù)的成熟增添了強勁的活力,利用GPU高效的圖像處理性能,實現(xiàn)了實時圖像處理。智能車輛的國內(nèi)外研究成果已經(jīng)取得了重大的進展,但是從近期發(fā)生的自動駕駛汽車事故可以看出,智能車輛投入實際使用還需要解決多種問題。 因此未來無人駕駛將需要在以下幾個方面取得進步。
首先,需要采用更好的傳感器和優(yōu)化配置改善自動駕駛功能。高精度的傳感器才能在復(fù)雜交通下檢測車輛周圍的環(huán)境信息。現(xiàn)階段傳感器無法克服車輛運動、環(huán)境氣候和工作范圍的信號干擾,從而無法保證準確檢測出所有的行車駕駛要素。而激光雷達傳感器的高昂價格也限制了該技術(shù)的實際應(yīng)用。未來激光雷達會變得更小更輕便,集成度更高,價格更低以及變成固態(tài)。面向復(fù)雜環(huán)境感知需求,通過融合多種傳感器的數(shù)據(jù)來實現(xiàn)感知、定位、決策和規(guī)劃,這是無人車近期的發(fā)展方向。
其次,為了實現(xiàn)自動駕駛,需要將集成化控制系統(tǒng)、新型總線分布和自動駕駛架構(gòu)結(jié)合。通過多種感知和決策算法的車載軟件,提高自動駕駛技術(shù)的安全性和魯棒性。采用車聯(lián)網(wǎng)絡(luò)可以實現(xiàn)車輛之間的信息共享,有效提高了傳感范圍。高精度的地圖和GPS定位可以通過減少車輛傳感器的需求,進而降低自動駕駛技術(shù)的難度。另外,結(jié)合深度學(xué)習技術(shù),集成高性能的車載計算平臺,可以提高車輛自動駕駛的水平。
此外,無人汽車技術(shù)需要高性能計算平臺的支持。將車載計算平臺與深度學(xué)習技術(shù)相結(jié)合,增強無人車輛的智能水平,將人工智能技術(shù)的新突破應(yīng)用于無人駕駛。
無人駕駛汽車發(fā)展的終極目標,就是建立一個車輛網(wǎng)絡(luò)化、信息化、人車合一的自動平臺,能夠?qū)崟r、全天候、高效的無人駕駛系統(tǒng)。無人駕駛技術(shù)可以極大地提高社會生產(chǎn)力,產(chǎn)生巨大的社會效益,同時改善人們的出行方式,讓我們的生活環(huán)境更美好。
[1]倪暖. 自動駕駛也分三六九等?[EB/OL].(2016-8-07)[2016-09-27] http://www.ednchina.com/news/article/2016 08170801.
[2]佚名. 無人駕駛汽車[EB/OL]. (2016-06-10)[2016-09-27]http://baike.baidu.com/link?url=iObG6G1U5wmuVNCdgm 7wXDpV8418yWtKAlBAVjC4xyVEL7Lgy3fgfkpsda4qi-ABZHCsxtQ9J9xqqcsZdTu_vF6kAT6xwu7zedQw2ggyuqa.
[3]騰訊汽車. 國外無人駕駛技術(shù)發(fā)展調(diào)研報告[EB/OL].(2015-05-23)[2016-09-27] https://wenku.baidu.com/view/472f a34458f5f61fb636664d.html.
[4]張翔. 2013年全球汽車技術(shù)發(fā)展趨勢[J]. 汽車工程師,2013(3): 19–21, 52.ZHANG Xiang. The development trend of global automotive technology at 2013[J]. Tianjin auto, 2013(3): 19–21, 52.
[5]林靖東. 美國內(nèi)華達州批準谷歌無人駕駛汽車上路測[EB/OL].(2012-05-08)[2016-09-27] http://tech.qq.com/a/20120508/000235.htm.
[6]GREENBLATT N A. Self-driving cars and the law[J]. IEEE spectrum, 2016, 53(2): 46–51.
[7]歐陽. 谷歌的“笑臉”GoogleSelf-DrivingCar[J]. 計算機應(yīng)用文摘, 2014(12): 72.OU Yang. Google's “smiling face” Google Self-Driving Car[J]. PCDigest, 2014(12): 72.
[8]BIRDSALL M. Google and ITE: The road ahead for selfdriving cars[J]. Institute of Transportation Engineers. Ite Journal, 2014, 84(5): 36.
[9]GUIZZO E. How Google’s Self-driving Car Works[J].IEEE Spectrum Online, 2011(8): 18
[10]JAFFE E. The first look at how google’s self-driving car handles city streets[J]. The atlantic, 2014: 431-443.
[11]TAO Yuping. The construction and intelligent management of self-driving car campsite under the visual field of low-carbon environmental protection[J]. Advanced materials research, 2012, 573-574: 841–847.
[12]張桂林, 趙宇飛, 黎華玲. “無人駕駛”如何駛進現(xiàn)實[J].瞭望, 2016(19): 20–21.ZHANG Guilin, ZHAO Yufei, LI Hualing. “Unmanned”how to enter the reality[J]. Outlook Weekly, 2016(19):20–21.
[13]恒亮. 百度獲得加州第15張無人駕駛測試牌照,另外14張在哪? [EB/OL]. (2016-09-02) [2016-09-27] http://www.sohu.com/a/113368428114877
[14]騰訊汽車. 寶馬因特合作2021年前生產(chǎn)駕駛無人汽車[EB/OL]. (2016-07-02)[2017-0-20]http://auto.qq.com/a/20160702/005058.htm.
[15]SURDEN H, WILLIAMSM A. How self-driving cars work[EB/OL]. (2016-05-25)[2017-09-20] https://ssrn.com/abstract=2784465.
[16]PATIDAR A, KUMAR S. A review paper on self-driving car’s and its applications[J/OL]. International journal for innovative research in science and technolog, 2016: 33-35.http://www.ijirst.org/articles/IMPACTP015.pdf.
[17]BRETT J A. Thinking local about self-driving cars: a local framework for autonomous vehicle development in the united states[D]. Washington DC: University of Washington, 2016.
[18]MICULESCU D, KARAMAN S. Polling-systems-based autonomous vehicle coordination in traffic intersections with no traffic signals[J]. arXiv preprint arXiv: 1607.07896, 2016.
[19]CORNICK M, KOECHLING J, STANLEY B, et al. Localizing ground penetrating RADAR: a step toward robust autonomous ground vehicle localization[J]. Journal of field robotics, 2016, 33(1): 82–102.
[20]MACHT J. Automatic for the People[J]. Tennis, 2000,2010(6): 28–29.
[21]CHEN Gang, ZHANG Weigong. Design of prototype simulation system for driving performance of electromagnetic unmanned robot applied to automotive test[J]. Industrial robot: an international journal, 2015, 42(1): 74–82.
[22]ZHANG Xuemei, PEN Qiyuan. A study on tourism information and self-driving tour traffic[C]//Proceedings of 1st International Conference on Transportation Engineering. Chengdu, China, 2007: 3884–3889.
[23]DIELS C, BOS J E. Self-driving carsickness[J]. Applied ergonomics, 2016, 53: 374–382.
[24]BERGER C, DUKACZEWSKI M. Comparison of architectural design decisions for resource-constrained self-driving cars-A multiple case-study[C]//Proceedings of the informatik. Bonn, Germany, 2014: 2157–2168.
[25]SCHELLEKENS M. Self-driving cars and the chilling effect of liability law[J]. Computer law and security review,2015, 31(4): 506–517.
[26]KIM J, KIM H, LAKSHMANAN K, et al. Parallel scheduling for cyber-physical systems: analysis and case study on a self-driving car[C]//Proceedings of the ACM/IEEE 4th International Conference on Cyber-Physical Systems. Philadelphia, Pennsylvania, 2013: 31–40.
[27]LEE G H, FAUNDORFER F, POLLEFEYS M. Motion estimation for self-driving cars with a generalized camera[C]//Proceedings of 2013 IEEE Conference on Computer Vision and Pattern Recognition. Washington DC, USA,2013: 2746–2753.
[28]HE Baohong, CHEN Jun, WANG Wei. Behavioral characteristics of self-driving tourists: a case study in Kunming[C]//Proceedings of the 7th International Conference onTraffic and Transportation Studies 2010. Kunming, China, 2010:577–586.
[29]段建民, 石慧, 戰(zhàn)宇辰. 基于機器視覺篩選GPS衛(wèi)星信號的無人駕駛汽車組合導(dǎo)航方法[J]. 電子技術(shù)應(yīng)用, 2016,42(1): 111–114.DUAN Jianmin, SHI Hui, ZHAN Yuchen. Integrated navigation system for unmanned intelligent vehicle based on vision[J]. Application of electronic technique, 2016, 42(1):111–114.
[30]戴斌, 聶一嗚, 孫振平, 等. 地面無人駕駛技術(shù)現(xiàn)狀及應(yīng)用[J]. 汽車與安全, 2012(3): 46–49.DAI Bin, NIE Yiming, SUN Zhenping, et al. The present situation and application of ground unmanned Technology[J]. Auto and safe, 2012(3): 46–49.
[31]楊帆. 無人駕駛汽車的發(fā)展現(xiàn)狀和展望[J]. 上海汽車,2014(3): 35–40.YANG Fan. Development Status and Prospects of Driverless Vehicles[J]. Shanghai automotive, 2014(3): 35–40.
[32]W.KJ. 教機器學(xué)會“看路”的新系統(tǒng)助力無人駕駛汽車研發(fā)[J]. 軍民兩用技術(shù)與產(chǎn)品, 2016(1): 23.W. KJ. Teach the machine learn “to see the road” of the new system to help driverless car research and development[J]. Dual use technology and product, 2016(1): 23.
[33]王雪玉. 無人駕駛駛?cè)氍F(xiàn)實[J]. 金融科技時代, 2016,24(7): 87.WANG Xueyu. Autonomous vehicles into the reality[J].Financial technology time, 2016, 24(7): 87.
[34]王雪玉. 百度無人駕駛汽車: 符號意義大于實際意義[J].金融科技時代, 2016, 24(1): 77.WANG Xueyu. Baidu driverless car: Symbolic meaning is greater than the actual meaning[J]. Financial technology time, 2016, 24(1): 77.
[35]王麗娜. 蓄勢待發(fā)的無人駕駛汽車[J]. 科技導(dǎo)報, 2016,34(6): 8.WANG Lina. Autonomous vehicles begins[J]. Science and technology review, 2016, 34(6): 8.
[36]張偉.讀懂百度L3事業(yè)部|中國智能汽車國際論壇[EB/OL].(2016-11-07)[2017-01-06] https://www.leiphone.com/news/201611/DkiMOUA3c8wcD7Mz.html.
[37]Roberto Baldwin.2018年自動駕駛汽車如何發(fā)展?看看國外都做了啥[EB/OL]. (2017-12-26)[2017-01-06]http://tech.163.com/17/1226/08/D6IOKV2F00098IEO.html.
[38]郭永輝. 宇通公司研發(fā)的無人汽車駕駛大客車在全開放道路測試陳宮[EB/OL].(2015-09-08)[2016-09-20]http://www.cheyun.com/content/19995.
[39]姜紅德. IT助跑長安智能汽車[J]. 中國信息化, 2016(5):49–51.JIANG Hongde. Changan smart car run by IT[J]. China information technology, 2016(5): 49–51.
[40]宋杰. 國家首個無人駕駛汽車測試基地正式開園中國未來智能汽車“搖籃”選址上海嘉定[J]. 中國經(jīng)濟周刊,2016(24): 74–75.SONG Jie. The country’s first unmanned vehicle test base open officially. China’s future mart car sites Jiading,Shanghai[J]. China economic weekly, 2016(24): 74–75.
[41]王晨曦. 爭奪無人駕駛測試場[J]. 經(jīng)營者, 2016(3): 69–70.WANG Chenxi. Competition for pilotless test field[J]. Operators, 2016(3): 69–70.
[42]NAMIK H, INAMURA T, STOL K. Development of a robotic driver for vehicle dynamometer testing[C]//Proceedings of 2006 Australasian Conference on Robotics and Automation. Auckland, New Zealand, 2006: 1–9.
[43]王藝帆. 自動駕駛汽車感知系統(tǒng)關(guān)鍵技術(shù)綜述[J]. 汽車電器, 2016(12): 12–16.WANG YIFAN. A review of key technologies of autonomous Vehicle Perception system[J]. Automotive, 2016(12):12–16.
[44]陳誠. 無人駕駛汽車市場應(yīng)用研究[J]. 現(xiàn)代制造技術(shù)與裝備, 2016(1): 167–168.CHEN Cheng. Application research of unmanned vehicle market[J]. Modern manufacturing technology and equipment, 2016(1): 167–168.
[45]小猴機器人. 一張圖看清自動駕駛產(chǎn)業(yè)[EB/OL].(2016-06-23)[2016-09-20] http://chuansong.me/n/374839151851.2016-07-20.
[46]黃如林, 梁華為, 陳佳佳, 等. 基于激光雷達的無人駕駛汽車動態(tài)障礙物檢測、跟蹤與識別方法[J]. 機器人,2016, 38(4): 437–443.HUANG Rulin, LIANG Huawei, CHEN Jiajia, et al. Lidar based dynamic obstacle detection, tracking and recognition method for driverless cars[J]. Robot, 2016, 38(4):437–443.
[47]丁日智. 淺談無人駕駛汽車技術(shù)原理[J]. 科學(xué)中國人,2016(15): 31.DING Rizhi. About the principle of driverless car[J].Chinese journal of ecology, 2016(15): 31.
[48]思慕. 一顆攝像頭, 就能實現(xiàn)無人駕駛[EB/OL]. (2015-08-03)[2016-07-20] https://www. Leiphone.com/news/201508/tolnlbcnTwv6RhwQ.htmlTOMè.
[49]TOMè D, MONTI F, BAROFFIO L, et al. Deep convolutional neural networks for pedestrian detection[J]. Signal processing: image communication, 2016, 47: 482–489.
[50]KRIZHEVSKY, ALEX, SUTSKEVER, et al. ImageNet classification with deep convolutional neural networks[J].Communications of the ACM, 2012, 60(2): 1097–1105.
[51]JACKEL L D, SHARMAN D, STENARD C E, et al. Optical character recognition for self-service banking[J]. AT and T technical journal, 1995, 74(4): 16–24.
[52]RUSSAKOVSKY O, DENG J, SU H, et al. ImageNet large scale visual recognition challenge[J]. International journal of computer vision, 2015, 115(3): 211–252.
[53]WONG N, CHAMBERS C, STOL K, et al. Autonomous vehicle following using a robotic driver[C]//Proceedings of the 15th International Conference on Mechatronics and Machine Vision in Practice. Auckland, New Zealand,2008: 115–120.
[54]YESHODARA N S, NAGOJAPPA N S, KISHORE N.Cloud based self driving cars[C]//Proceedings of 2014 IEEE International Conference on Cloud Computing in Emerging Markets. Bangalore, India, 2014: 1–7.
[55]LOKHMOTOV A, FURSIN G. Optimizing convolutional neural networks on embedded platforms with OpenCL[C]//Proceedings of the 4th International Workshop on Open-CL. Vienna, Austria, 2016: 10.
[56]NVIDIA. 自動駕駛汽車的人工智能車輛計算機[EB/OL].(2016-3-15) [2016-09-20] www.nvidia.com/object/drivepx.html.
[57]CHO. 神秘不再 NVIDIA下一代GPU架構(gòu)Pascal初探[EB/OL]. (2016-04-08)[2016-09-20] https://www.evolife.cn/html/2016/86937.html.
[58]FLORENTINE E, ANDERSEN H, ANG M A, et al. Selfdriving vehicle acknowledgement of pedestrian presence conveyed via Light-Emitting Diodes[C]//Proceedings of 2015 International Conference on Humanoid, Nanotechnology, Information Technology, Communication and Control, Environment and Management. Cebu City, Philippines, 2015: 1–6.
[59]中國投資咨詢網(wǎng). 無人駕駛汽車產(chǎn)業(yè)鏈報告: 東方既白,關(guān)鍵環(huán)節(jié)日漸成熟[EB/OL].(2016-04-26)[2016-08-29]http://www.ocn.com.cn/chanye/201604/zzyoh26084645.sht ml.
[60]BADRINARAYANAN V, HANDA A, CIPOLLA R.SegNet: a deep convolutional encoder-decoder architecture for robust semantic pixel-wise labelling[J]. Computer Science, 2015: 13–23
[61]KENDALL A, CIPOLLA R. Modelling uncertainty in deep learning for camera relocalization[C]//Proceedings of 2016 IEEE International Conference on Robotics and Automation. Stockholm, Sweden, 2015(31): 4762–4769.
[62]JAYCIL Z. VARGHESE. Overview of autonomous vehicle sensors and systems[C]//Proceedings of the 2015 International Conference on Operations Excellence and Service Engineering Orlando, Florida, 2015(9): 178–191.
[63]HUANG Wuling, WEN Ding, GENGJ, et al. Task-Specific performanceevaluationof UGVs: case studies at the IVFC[J]. IEEE transactions on intelligent transportation systems, 2014, 15(5): 1969–1979.
[64]CHEN Xiang, QIAO Yu. Road segmentation via iterative deep analysis[C]//Proceedings of 2015 IEEE International Conference on Robotics and Biomimetics. Zhuhai, China,2015: 2640–2645.
[65]MONTEMERLOM, BECKERJ, BHAT S, et al. Junior: the Stanford entry in the urban challenge[J]. Journal of field robotics, 2008, 25(9): 569–597.
[66]?BONTAR J, LECUN Y. Stereo matching by training a convolutional neural network to compare image patches[J].The journal of machine learning research, 2016, 17(1):2287–2318.
[67]POMERLEAU D A. Alvinn: an autonomous land vehicle in a neural network[R]. Pittsburgh:Carnegie-Mellon University, 1989.
[68]?BONTAR J, LECUN Y. Computing the stereo matching cost with a convolutional neural network[C]//Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, USA,2015: 1592-1599.
[69]POMERLEAU D A. Alvinn: an autonomous land vehicle in a neural network[R]. Pittsburgh:Carnegie-Mellon University, 1989.
[70]SANTANA E, HOTZ G. Learning a driving simulator[J].arXiv preprint arXiv: 1608.01230, 2016.
[71]SHALEV-SHWARTZ S, BEN-ZRIHEM N, COHEN A, et al. Long-term planning by short-term prediction[J]. arXiv preprint arXiv: 1602.01580, 2016.
[72]BOJARSKI M, DEL TESTA D, DWORAKOWSKI D, et al. End to end learning for self-driving cars[J]. arXiv preprint arXiv: 1604.07316, 2016.
[73]KENDALL A, GRIMES M, CIPOLLA R. PoseNet: a convolutional network for real-time 6-DOF camera relocalization[J]. arXiv preprint arXiv: 1505 .07427, 2016.
[74]孫皓天. 深度學(xué)習在無人駕駛汽車中的應(yīng)用[J]. 電腦知識與技術(shù), 2015, 11(24): 121–123.SUN Haotian. Deep learning on the application of the driverless cars[J]. Computer knowledge and technology,2015, 11(24): 121–123.
[75]徐彬, 李明喜, 周晶晶, 等. 洞察無人車輛技術(shù)發(fā)展[J]. 機器人產(chǎn)業(yè), 2016(1): 67–74.XU Bin, LI Mingxi, ZHOU Jingjing, et al. Annual insight into the technical development of unmanned vehicles[J].Botman Industry, 2016(1): 67–74.
[76]HE U, CHEN H, PAN I, et al. Using edit distance and junction feature to detect and recognize arrow road marking[C]//Proceedings of the 17th International IEEE Conference on Intelligent Transportation Systems. Qingdao,China, 2014.
[77]DIELS C, BOS J E. User interface considerations to pre-vent self-driving carsickness[C]//Adjunct Proceedings of the 7th International Conference on Automotive User Interfaces and Interactive Vehicular Applications. Nottingham,United Kingdom, 2015: 14–19.