基于編碼器—解碼器的高級駕駛員輔助系統(tǒng)(ADAS)用卷積神經網絡算法
本文提出了一種實用的卷積神經網絡(CNN)模型,主要用于駕駛員輔助系統(tǒng)(CSSA)的語義分割模塊。它是一種基于概率像素分割的新穎語義分割模型,其能夠準確地預測出給定輸入圖像的像素級分類標簽。目前,場景理解已經成為自動駕駛汽車的新興研究領域之一,而像素化語義分割是視覺場景理解的關鍵工具。本文所提出的CNN網絡模型是一種基于編碼器—解碼器模型,其編碼器是視覺幾何組的VGG-16網絡采用的卷積編碼器層,而解碼器則依靠分段網絡(SegNet)。因此,所提出的架構減輕了現(xiàn)有的編碼器—解碼器設計的局限性。其中編碼器執(zhí)行卷積,而解碼器負責去卷積和解卷積。該架構的關鍵思想是應用采樣解碼器網絡,并映射出低分辨率編碼器特征圖。該架構大大減少了可訓練參數(shù)的數(shù)量,并將編碼器的匯總索引重新采樣,其采樣以映射像素分類和分段。本文還嘗試了不同的激活函數(shù)、池化方法來設計出更高效的CNN架構。此外,本文還將其與PASCAL VOC-12和CamVid的基準測試結果相比,結果表明,該架構的性能有顯著提高。
本文提出的CNN系統(tǒng)是一個語義像素分割引擎。它實現(xiàn)了編碼器—解碼器網絡的獨特組合,從而顯示出增強后的性能和改進后的結果。本文研究還將其架構層次轉移到更大的綜合體系結構,從而能夠提供出更多的時間來訓練和測試網絡的效率。此外,超聲波和其他類型的雷達在智能汽車中的應用越來越廣泛。因此,在汽車中使用基于CNN的道路景觀檢測系統(tǒng),特別是在奇怪的路況和超聲波信號無法識別物體的盲點方面將會有所幫助。未來研究工作還將通過開發(fā)和設計出一個二值化神經網絡來提高道路場景理解性能,從而提高網絡的性能。這將是一個更快速、更有效的架構,以便于道路現(xiàn)場理解情景的實時決策。
刊名:Applied Sciences-Basel(英)
刊期:2017年第4期
作者:Yasrab R et al
編譯:陳少帥