自動駕駛中的極端案例:橫跨街道的平板拖車
最愛做edge-case挑戰的傳感器公司Aeye又發布了新測試視頻。
邊緣交通場景往往是檢驗自動駕駛系統能力的標準之一,有這么一家傳感器公司就喜歡設計多種極限案例來挑戰自己。
比如:1.前方載著貨物的P卡突然停車,后方車輛的感知能力是否能否準確分辨伸出的貨物,并避免碰撞;

2.夜晚在迎面車輛車燈前有橫穿馬路的行人,耀眼的白光幾乎干擾了視覺系統,車輛是否能夠避免撞傷行人;

再比如,我們之前報道過車輛感知系統對氣球的識別等等。

這些挑戰盡管看似很苛刻,但生活中確實會出現的案例,而最近Aeye公司又發布了新的極限案例挑戰視頻,難度又加大了。這次場景是在一個耀眼的中午,一輛左轉彎的平板拖車緩慢地完成橫向變道來考驗車輛的感知能力,瘦長的拖車在炫目的陽光下幾乎看不到了。

配備先進駕駛員輔助系統(ADAS)的車輛在四車道上以時速45英里行駛,該車道穿過人煙稀少的城鎮。依靠車輛進行導航,ADAS駕駛員已基本停止關注前方。一輛卡車拖著平板拖車緩慢地橫穿馬路。隨著車輛與拖車之間的距離迅速縮小,取決于感知系統來檢測和分類拖車,并測量其速度和距離。在SAE 3級及更高級別(假設汽車處于控制狀態),車輛的路徑規劃軟件必須做出關鍵的決定,以決定是否轉向剎車或提前剎車。
當今的高級駕駛輔助系統(ADAS)在識別這種威脅或做出適當反應是非常困難的。根據其傳感器配置和感知訓練,系統可能由于其非常薄的外形而無法注意到掛車。
按照目前系統不同的方案分析:①基于攝像頭傳感器的感知系統很可能會誤解威脅,造成誤報或完全忽略威脅。在遠處,拖車在道路上看起來像個二維的線條。如果車輛在轉彎,這些相同的像素也可能被識別為護欄。為了保證在所有情況下都是準確的,必須結合所有顏色和尺寸排列,在每種可能的光照條件下訓練感知系統。這會帶來巨大的挑戰,因為還會有尚未預見到的實例,這會給主要依賴相機數據的感知系統帶來潛在的致命威脅。
②雷達。從側面看,平板拖車的輪廓非常薄。雷達的角分辨率限制設備去檢測出如此狹窄的水平物體。在這種情況下,大多數雷達的無線電波都會錯過拖車的纖細輪廓。
③相機+雷達。僅依靠攝像頭和雷達的感知系統可能無法檢測到平板拖車并及時做出反應。攝像機數據的詳細程度不足以對掛車進行分類,并且可能導致感知系統將掛車分類為幾種常見道路特征之一。由于雷達也不太可能準確地檢測到拖車的全長,因此也會誤導感知系統。在這種情況下,攝像頭和雷達的結合幾乎無法提高準確分類拖車的幾率。
④ 激光雷達。當今的常規LiDAR產生非常密集的水平掃描線以及非常差的垂直密度。當物體處于水平,細和窄的狀態時,這種掃描模式會給檢測帶來挑戰,LiDAR的激光鏡頭也很容易完全錯過它們。某些LiDAR會掃描出大致的輪廓。但是,也需要花費一些時間來收集必要的檢測次數才能分辨任何目標。根據車輛的速度,此過程可能會花費太多時間來防止碰撞。
Aeye使用的是什么方法呢?該公司使用iDAR成功解決挑戰,而不是Lidar。iDAR是一種人工感知平臺,旨在適應新技術和算法,并不斷發展以最小化成本,并最大限度地提高相機/ LiDAR組合的性能。
iDAR比LiDAR更智能,橫向進入場景的車輛很難追蹤。iDAR通過將LiDAR鏡頭有選擇地分配給感興趣區域(ROI),一旦LiDAR感知了對掛車的單次檢測,iDAR就會動態更改LiDAR的時間和空間采樣密度,以全面搜集掛車,從而獲得關鍵信息,例如其尺寸和前方距離。
iDAR可以安排LiDAR以在幾微秒到幾毫秒的時間內重新訪問感興趣的區域。這意味著與傳統的LiDAR系統相比,iDAR可以更快地查詢到一個物體,而傳統的LiDAR系統通常需要數百毫秒才能重新訪問一個物體。因此,iDAR具有前所未有的能力來計算有價值的屬性,包括物體距離和速度(橫向和徑向),比其他任何系統都快。
iDAR將2D攝像頭像素與3D LiDAR點云結合在一起,以創建動態像素。此數據類型可幫助系統的AI完善拖車邊緣周圍的LiDAR點云,從而有效消除所有不相關的點。因此,iDAR能夠將拖車與其他道路特征(例如護欄和標牌)區分開來。
為了安全起見,對障礙物進行分類也至關重要,為了生成足夠豐富的數據集以應用感知算法進行分類,LiDAR一旦檢測到一個物體,它將提示AI攝像頭對其顏色,大小和形狀進行更深入的實時分析。然后,攝像頭將檢查像素,并運行算法來定義對象的可能身份。為了獲得更多見解,相機會提示LiDAR以獲得其他數據,從而分配更多的鏡頭。
當算法需要來自傳感器的其他數據時,將觸發反饋環路。在這種情況下,將在相機和LiDAR之間觸發反饋環路。攝像機可以提示激光雷達,而激光雷達可以提示其他詢問點或動態感興趣區域,以確定掛車的真實速度。該信息被發送到域控制器,以便它可以決定是剎車還是轉向以避免碰撞。
整個過程就像是在模仿人類視覺皮層在概念上如何聚焦并評估車輛周圍的環境,駕駛條件和道路危險等。
當前的LiDAR傳感器依賴于一組獨立的傳感器,這些傳感器共同產生大量數據,并且需要較長的處理時間和大量的計算能力,才能通過對齊,分析,校正,下采樣并將其轉換為可用于安全引導車輛的可行信息來收集和組裝數據集。在Aeye看來這些系統缺乏智能,并且會不加選擇地收集有關環境的信息。沒有考慮條件如何演變或不知道如何平衡相互競爭的優先級,而常常通過為每個像素分配相同的優先級來對復雜或危險情況做出較差的響應。
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?



分享













