保隆科技發布動態視覺傳感器:節約算力資源,面向L4級自動駕駛
在談到阻礙無人駕駛技術商業化的幾大阻礙時,傳感器和算力之間的矛盾關系,往往是各家企業重點討論的話題。一方面,傳感器采集到的信息越全面,越有利于車輛決策層來實現駕駛安全。但另一方面,過多的數據會占用計算平臺本已“捉襟見肘”的算力資源。這會降低系統的響應速度,無法滿足安全駕駛的需求。
日前,上海保隆汽車科技股份有限公司(后文簡稱“保隆科技”)舉行了“汽車動態視覺與雷達傳感器”的產品與技術發布會。會上,包括動態視覺傳感器、77G及24G毫米波雷達、雙目前視系統、紅外熱成像夜視儀、駕駛員預警系統、車用人臉識別系統等產品都屬首次亮相。
(傳統攝像頭與動態視覺傳感器的區別)
本次保隆科技發布的產品中最具特色的,便是名為“超眼”的動態視覺傳感器(DVS)。在談到為何要專門研發一款不同于傳統攝像頭的動態視覺傳感器時保隆科技汽車電子單元總監李威表示,車輛在行駛過程中對于外部環境感知的需求和人類大不相同。首先,汽車的行駛速度普遍在60公里/小時以上,最高可達200公里/小時,遠高于人類。其次,車輛需要適應各類時間和天氣下的環境光,而人眼往往只需適應晴天陽光即可。最后,汽車需要對周圍環境進行全方位感知,而人類大多數情況下只需對前方環境進行感知即可。
在李威看來,此前的車用攝像頭更像是為了“討好”人眼而存在。因為這類攝像頭往往采集了過多冗余信息,尤其是在環境物體或車輛處于靜止狀態時。這需要大量算力進行支持,這直接加大了計算平臺的壓力。
(動態視覺傳感器產品特點)
相比之下,動態視覺傳感器的算法采用了基于事件驅動的模式。一方面,傳感器在物體沒有變化時,不捕捉其數據。另一方面,系統在對視頻和信號進行壓縮時,用獨特的解碼和采樣機制過濾掉了背景信息,只輸出物體的輪廓數據。同時,結合了毫米波雷達在空間中采集的“錨點”,傳感器能夠輸出車輛周邊環境的空間距離信息。
根據介紹,動態視覺傳感器能夠實現高速運動的物體捕捉、車道線識別、行人目標檢測等多項功能。而通過在感知層完成了數據融合與計算,系統能夠在大幅節省算力的同時,在物理層輸出包括速度、方向和時間戳在內的矢量數據。
(海量數據和算力不足已經成為行業普遍痛點)
在談到動態視覺傳感器的應用方向時,產品的芯片提供方芯侖科技向億歐汽車表示,該技術可以為自動駕駛以及ADAS功能帶來顯著的提升效果。在前向預警功能為例,傳統相機在感知層面消耗的時間約為30毫秒,處理數據和輸出指令的時間約為100到200毫秒。相比之下,動態視覺傳感器的感知時間小于1毫秒,處理數據和輸出指令的時間僅為10毫秒,是前者的20倍。該公司稱,若以1輛在120公里/小時行駛的乘用車為例,這能夠讓車輛的剎車距離縮短5米。
根據規劃,未來保隆科技將推動動態視覺傳感器向L4自動駕駛場景應用。
請輸入評論內容...
請輸入評論/評論長度6~500個字
圖片新聞
最新活動更多
-
精彩回顧立即查看>> 【線下會議】恩智浦創新技術峰會·深圳
-
精彩回顧立即查看>> 【在線直播】可視化神器!VisionSym 賦能汽車光學原型開發
-
精彩回顧立即查看>> 12月16-17日 AMD 嵌入式峰會
-
精彩回顧立即查看>> 恩智浦創新技術峰會
-
精彩回顧立即查看>> 【工程師系列】汽車電子技術在線大會
-
精彩回顧立即查看>> Works With 開發者大會深圳站
推薦專題


分享










