自動駕駛汽車的可視化因果關(guān)系解讀
未來,神經(jīng)網(wǎng)絡(luò)將廣泛地應(yīng)用在自動駕駛汽車中。但是,神經(jīng)網(wǎng)絡(luò)的缺點是網(wǎng)絡(luò)結(jié)構(gòu)和隱含層神經(jīng)元的機制與整個神經(jīng)網(wǎng)絡(luò)的估計結(jié)果沒有太大的關(guān)聯(lián)。所以,研究在卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上增加一個視覺關(guān)注網(wǎng)絡(luò)模型,該模型沒有上述神經(jīng)網(wǎng)絡(luò)的缺點。視覺關(guān)注網(wǎng)絡(luò)模型可以提供空間關(guān)注圖(網(wǎng)絡(luò)所關(guān)注的圖像區(qū)域),來解釋視覺關(guān)注網(wǎng)絡(luò)是如何工作的。所以,該視覺關(guān)注網(wǎng)絡(luò)模型分為3部分:(1)編碼器,用于卷積特征提取;(2)視覺關(guān)注機制的粗粒度解碼器;(3)視覺關(guān)注機制的細粒度解碼器,用于因果關(guān)系的視覺檢測,并細化空間關(guān)注圖。
編碼器:使用卷積神經(jīng)網(wǎng)絡(luò)提取編碼的視覺特征向量,稱為卷積特征立方體。每個特征向量具有輸入圖像的部分特征,這些特征是視覺關(guān)注網(wǎng)絡(luò)模型篩選出的特征。
粗粒度解碼器:采用深度學(xué)習(xí)中的軟注意力分析,尋找最優(yōu)的背景向量,稱為卷積特征向量。利用一種標(biāo)準(zhǔn)反向傳播方法進行訓(xùn)練。
細粒度解碼器:改進了關(guān)注圖像,并檢測了局部視覺效果。
通過視覺關(guān)注網(wǎng)絡(luò)模型獲得了3個數(shù)據(jù)集(Comma.ai、Udacity和現(xiàn)代綜合車輛安全系統(tǒng)控制中心(HCE))收集的超過120萬幀(≈16h)的圖像。將圖像分割成200×64的像素,傳送至粗粒度解碼器。訓(xùn)練算法采用優(yōu)化的Adam算法。自動駕駛車輛通過采集圖像,并將圖像輸入到神經(jīng)網(wǎng)絡(luò)中,根據(jù)神經(jīng)網(wǎng)絡(luò)對圖像的識別結(jié)果,來控制車輛轉(zhuǎn)向。
試驗結(jié)果表明,引入視覺關(guān)注網(wǎng)絡(luò)模型不會降低控制精度,有助于降低圖像的復(fù)雜程度。
網(wǎng)址:arXiv.org>cs>arXiv:1703.10631
作者:Jinkyu Kim et al
編譯:野晨晨