ICRA2019旗艦會議來襲 | 通過視覺信號預測駕駛員意圖

比較FC-LSTM、ConvLSTM、cn-clstm以及文章提出的方法,上述指標如表1所示。FC-LSTM性能最弱;這可以解釋為全連通層在提取空間特征時效率低下,只有通過網絡的大容量來平衡,這使得它可以學習更復雜的功能。ConvLSTM通過利用門的卷積實現了稍好一點的效果,這使得它更適合于空間特征提取。然而,它的內存效率低下阻止了使用更深層次的架構,因此限制了模型的容量。結合這兩種方法,得到了一個CNNLSTM,它既能利用CNNs豐富的空間特征提取,又能利用LSTMs的時間特征表示,取得了比之前基線更好的效果。我們提出的方法在LSTM和注意機制中進一步增加了卷積,得到了最好的結果。

混淆矩陣如表2所示。注意,OFF的檢測精度明顯較高,而FLASHERS的檢測精度較低,因為這兩個類在數據集中分別表示過多和過少,即使使用分層抽樣方案,圖4d(a)這種不平衡自然會影響測試性能。

網絡故障模式。(a)夜間明亮的燈光被錯誤地歸類為左轉。(b)遠處車輛右側的明亮反光被誤列為右轉彎。(c)一輛不常見的車輛識別結果為沒有發出右轉信號。(d)姿態解碼錯誤,輸出翻轉。(e)在載有單車的車輛上作假性左轉。
結論
在自動駕駛領域,檢測駕駛員的意圖是一項必不可少的任務,是預測諸如變道和停車等突發事件的必要手段。在本文中,研究人員解決了轉彎信號分類這一重要而尚未探索的問題。提出了一種能夠端到端的訓練方法,能夠處理車輛的不同視點。提出的神經網絡通過意圖、卷積和遞歸來推斷空間和時間特征,從而在幀級對一系列觀測信號的轉彎信號狀態進行分類。該實驗使用包含120多萬張實況圖像的數據集來訓練和評估的方法。未來在這個問題上,研究領域將會擴展到緊急車輛信號,以及更多分類的功能(例如來自曝光不足的相機的圖像)的識別問題上。
參考:
[1] Frossard D, Kee E, Urtasun R.DeepSignals: Predicting Intent of Drivers Through Visual Signals[J]. arXivpreprint arXiv:1905.01333, 2019.
[2] icra2019.org
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?


分享













