十字路口的“金屬休克”:盤點那些智駕系統很難替代人類駕駛員的場景


本文來源:智車科技
一輛無人出租車橫在晚高峰的馬路中央,任憑交警怎么喊話都一動不動,身后排起長龍的車流里響起一片焦躁的喇叭聲。這不是科幻電影的場景,而是真實發生在城市脈搏中的一次技術突然“休克”。
2025年中,某市的街道上,一輛印有某頭部科技企業標志的L4級自動駕駛出租車正在進行掉頭操作。突然,它停在路中間一動不動,完全阻塞了整條道路。晚高峰的車流迅速排起長龍,喇叭聲此起彼伏。
趕到現場的交警對著無人車喊話:“你走下子咧!”但車輛毫無反應。最終,工作人員不得不趕來現場,坐進駕駛室將車輛開到路邊。
在該市市民口中,這款自動駕駛出租車被稱為“苕某”——“苕”在某市方言中意為“蠢、笨、憨”。在該市某網市民留言板上,大量投訴指向這些車輛:紅燈時沖入路口中央、轉彎時卡頓不動、變道猶豫不決。

當前自動駕駛的一些技術瓶頸
當前主流自動駕駛系統主要依賴多傳感器融合感知環境,再通過預設算法做出決策。這套技術路線在結構化道路環境中表現尚可,但面對復雜多變的開放道路場景時就顯得力不從心。
在感知層面,系統存在明顯缺陷。一位體驗者劉爽的觀察很具代表性:“從我家到上課這條路,如果是老司機,直接繞小路過去只需六、七分鐘,但某品牌自動駕駛車必須走普通大路,紅綠燈比較多,需要十幾分鐘。”
自動駕駛系統無法像人類司機那樣靈活選擇路線,其感知能力仍受限于預設地圖和固定規則。
決策系統的問題更為突出。在某市街頭,一輛亮著左轉燈的自動駕駛車陷入尷尬僵局—機械地閃爍著左轉信號,由于沒有車輛讓行,它就“一直這樣閃”無法前進。這種機械式決策在面對復雜交通互動時顯得呆板而低效,完全沒有人類駕駛員那種隨機應變的靈活性。
更令人擔憂的是邊緣場景處理能力。一位業內人士指出:“比如說路中間有個坑,下雨后雨水把它填滿了。這時你的感知系統有可能識別不到它是個坑,可能會認為是正常的路面反光,或者認為水很淺,就直接壓過去,就會造成安全風險。”當然,還有那個全網熟知的名場面:“被一個袋子嚇住的自動駕駛車”。等等這些感知不足的場景反映了一個最重要的問題就是:很多時候不是看不見,而是不認識。
這些技術缺陷導致自動駕駛出租車在某市運營時被貼上了“測試車輛、隨時停車”的警示標簽。即使后車提前注意到,仍常被前車的突然急停驚嚇到。

為什么機器學開車這么難?
自動駕駛技術遭遇的瓶頸并非偶然,而是源于一系列根本性挑戰。感知技術的物理限制首當其沖。現有傳感器在惡劣天氣條件下性能大幅下降,暴雨、大雪、濃霧等環境會嚴重影響激光雷達和攝像頭的識別能力。
決策算法的核心困境在于缺乏類人推理能力。人類駕駛員能夠通過觀察周圍車輛的細微動態預測交通流變化,而現有系統主要依賴預設規則和有限的數據訓練。當面對訓練數據中未包含的場景時,系統往往不知所措。
高精度地圖依賴是另一大軟肋。中國的道路環境復雜多變,施工、臨時改道等情況頻發。自動駕駛系統高度依賴高精地圖導航,但地圖更新速度跟不上現實道路變化,因此現在大家都在推無圖方案(像無圖NOA)。
社會接受度構成更深層的挑戰。公眾對自動駕駛技術信任度不足,一旦發生事故,尤其是責任認定模糊的情況下,會進一步加劇擔憂。在某市,傳統出租車司機已經因收入減少而公開聲討某品牌自動駕駛車輛。
成本壓力同樣不可忽視。每輛某品牌自動駕駛車的硬件成本高達25萬元,加上數據采集工程師、開發人員、維護人員等團隊支出,運營壓力巨大。雖然最新一代車型成本已降至20萬元左右,但距離大規模商業化仍有距離。

梳理那些機器難以超越人類的場景
場景類一:記憶驅動的決策
人類駕駛員會利用長期經驗優化路線選擇。下班回家時,司機知道某段路的特定車道經常擁堵,會提前變道;知道某個路口左轉車多,會選擇直行后繞道。這種基于記憶的預測性決策是當前自動駕駛系統難以實現的。
場景類二:整體交通流感知
紅綠燈起步時,人類司機不會只盯著前車。我們會觀察交叉方向車流動態,感知整個路口的“節奏”,甚至在紅燈未變時就能根據橫向車流減速情況預判起步時機。這種宏觀交通流的理解能力遠超現有自動駕駛系統的處理水平。
場景類三:多因素實時決策
接近紅綠燈路口時,熟練司機會綜合多種因素選擇車道:不排在大貨車后面(大車起步慢),避開公交車專用道,選擇排隊最短的車道,甚至預判哪條車道的司機可能接手機而反應慢。這種多變量實時優化決策對機器系統而言是巨大挑戰。
場景類四:非結構化環境應對
在未劃線道路、鄉村小路或臨時改道區域,人類司機能夠通過觀察路面痕跡、參照其他車輛軌跡等方式通行。而自動駕駛車輛在這些場景往往直接“罷工”或需要人工接管。就像那就話:回村的路只有我能開,別人都不認路(因為本來就沒有路),這時候自動駕駛就更不行了。
場景類五:人車交互的微妙溝通
在無信號燈路口,人類駕駛員通過眼神交流、手勢或車輛微動實現高效通行;當有電動車想闖紅燈時人類駕駛員往往會“狠狠”的按下喇叭警示電動車別動;當遇到施工+堵車時,執勤交警的一個手勢,人類駕駛員就明白該往哪走了...這種非語言溝通能力和交互方式是目前自動駕駛系統難以復制的,導致其在混合交通中表現笨拙。
在日常駕駛中常會遇到一些值得深思的場景。例如:駕駛員在道路上行駛時意圖向右變道,此時右后方恰有一輛車處于后視鏡及側窗視野盲區。然而,駕駛員通過觀察地面投射的車輛影子,成功判斷出盲區車輛的存在,從而避免了變道風險。此類由物理遮蔽造成的感知盲區,理論上可通過自動駕駛系統多傳感器融合布局(如側向激光雷達)予以規避。
但該案例的核心啟示在于:駕駛員依據地面光影動態推斷盲區物體狀態的能力,展現了人類基于環境線索的深度情境理解。這種能力依賴于對光線、物體運動關系及道路空間幾何特性的綜合認知,是當前智能駕駛系統在感知層難以復現的類人經驗積累。類似需要高度環境交互理解與經驗推斷的邊緣場景,在開放道路測試中廣泛存在。

漫長而充滿希望的未來之路
盤點上述場景并非苛責當下自動駕駛開發者或系統供應商,而是為闡明關鍵事實:若自動駕駛系統欲真正替代人類駕駛員,其發展仍面臨艱巨挑戰。研究顯示,實現該目標需跨越技術認知與工程實踐的雙重鴻溝。
中國工程院院士李德毅曾指出,當前自動駕駛已走過“科研探索期”,進入“產品孵化期”,但這個階段會非常漫長。他預計,自動駕駛的大規模量產要到2060年。
“現在的智能網聯汽車還沒有大家想象的那么智能,依然需要大算力的突破,在線控平臺、集中式域控制器等方面發力。”中歐協會智能網聯汽車分會秘書長如是說。這代表了行業對技術現狀的理性認知。
麥肯錫的預測相對樂觀:L4級別自動駕駛出租車和L5級別全自動卡車的商業可行性預期在2028年至2031年間達到,對司機就業的沖擊預計最快也要2030年左右。
而面對當前的困境,新一代自動駕駛技術正朝著“類人化”方向演進。理想汽車推出的VLA大模型代表了這一趨勢:它融合視覺(Vision)、語言(Language)和行動(Action),旨在模擬人類駕駛的認知過程。VLA模型的核心突破在于引入“鏈式思考”能力。系統可以像人類一樣進行多步推理:識別盲區→預測潛在危險→提前采取預防措施。在雨天路滑時,它能推理分析盲區潛在危險,提前減速而非被動反應。
多模態融合是另一關鍵方向。研究人員開發了交通標志識別多模態對比學習模型(TSR-MCL),通過將視覺特征與語義特征對比,顯著提升了對復雜路標的識別能力。在TT100K數據集上,該模型實現了78.4%的最高準確率。
仿真測試成為加速技術成熟的催化劑。理想汽車每天進行超過7萬次仿真測試,覆蓋2800個極端場景,如暴雨、擁堵和突發事故,使系統能在安全環境中積累經驗。
在技術路線圖上,漸進式演進成為行業共識。從特定區域、特定場景的有限應用開始(如園區接駁車或固定公交線路),逐步擴大運營范圍。隨著數據積累和算法優化,最終實現開放道路的全面應用。
未來城市的街道上,一輛搭載VLA大模型的自動駕駛車正平穩行駛。面對突然從盲區沖出的行人,系統通過3D視覺感知和思維鏈推理,提前0.5秒開始平穩減速,避免了急剎車的驚險。隨后它流暢地并入左轉道,在綠燈亮起前通過觀察對向車流動態調整了起步時機。
交警站在街角注視著這一切,手中的對講機安靜無聲。不遠處,一群出租車司機在咖啡館里討論著轉型計劃,墻上的電子屏顯示著“自動駕駛運維工程師”培訓廣告。這場靜默的變革終將抵達,但抵達的方式可能比技術樂觀主義者預期的更曲折,也比保守派想象的更深遠。
- End -
免責聲明:
凡本公眾號注明“來源:XXX(非智車科技)”的作品,均轉載自其它媒體,轉載目的在于傳遞和分享更多信息,并不代表本平臺贊同其觀點和對其真實性負責,版權歸原作者所有,如有侵權請聯系我們刪除。
原文標題 : 十字路口的“金屬休克”:盤點那些智駕系統很難替代人類駕駛員的場景
請輸入評論內容...
請輸入評論/評論長度6~500個字
圖片新聞
最新活動更多
-
精彩回顧立即查看>> 【線下會議】恩智浦創新技術峰會·深圳
-
精彩回顧立即查看>> 【在線直播】可視化神器!VisionSym 賦能汽車光學原型開發
-
精彩回顧立即查看>> 12月16-17日 AMD 嵌入式峰會
-
精彩回顧立即查看>> 恩智浦創新技術峰會
-
精彩回顧立即查看>> 【工程師系列】汽車電子技術在線大會
-
精彩回顧立即查看>> Works With 開發者大會深圳站
推薦專題


分享










