自動駕駛汽車算不算機器人?傷人了怎么辦?
/ 導讀 /
涉及自動駕駛汽車事故的新聞總是上頭條。一輛自動駕駛汽車一百次有99次都能“認出”行人并在撞到他/她之前停車,這是研究和試驗的可喜成果,但在現實世界中這輛車卻是一臺殺人機器。如何為自動駕駛汽車制定強有力的、可驗證的安全規則,讓這1%的事故成為過去呢?
無限不可預測道路的安全才是自動駕駛
幾十年來,機器人(無人)車輛一直在危險環境中使用,包括退役的福島核電站或北海水下能源基礎設施的檢查。最近,低速的物流送貨車等自動駕駛車輛已經從研究中心走入現實世界,很少出現問題。
自動駕駛汽車不可能像自動送貨機器人一樣簡單
然而,人們承諾的自動駕駛汽車的到來并沒有超越測試階段。在2018年的一次優步自動駕駛汽車試駕中,一名行人被該車撞死。此后,使用自動駕駛功能事故的報道不絕于耳。盡管這樣的事故每天都發生在人類駕駛中,但公眾對無人駕駛汽車的安全標準要高得多,會將一次性事故解釋為:這些車輛在公共道路上行駛太不安全。
設計一輛完美的自動駕駛汽車,讓它總是做出最安全的決定是一項艱巨的技術任務。自動駕駛汽車一般是在嚴格控制的環境中進行實測的,而只有在無限不可預測的道路網絡中運行,快速處理許多復雜的變量并保證安全,才是真正的自動駕駛。
自動駕駛汽車與機器人定律
1942年,科幻作家艾薩克·阿西莫夫(Isaac Asimov)在他的短篇小說《繞線跑》(Runaround)中為機器人設計了一套規則——三條定律。由9篇科幻短篇小說組成了《機器人》(1950)一書。隨著其規則被大眾文化所接受,經常被人們稱為阿西莫夫定律或三定律。
《機器人手冊》(公元2058年第56版)書中的三條定律是:
定律1:機器人不得傷害人,也不得通過不作為而使人受到傷害;
定律2:機器人必須服從人類發出的命令,除非這些命令與第一定律相沖突;
定律3:只要機器人的保護不與第一或第二定律相沖突,機器人必須保護自己的存在。
它們像不像專門為今天的自動駕駛汽車制定的法規?
自動駕駛汽車會遵守機器人三定律嗎?
阿西莫夫后來在《機器人與帝國》(1985)一書中引入了“機器人第零條定律”。這項新定律優先于前三條,規則為:
定律0:機器人不可以傷害人類,或者不作為,允許人類受到傷害。
自動駕駛汽車就是機器人汽車(Robotic vehicle)。現實是,當自動駕駛汽車傷害人類時,它們顯然違反了第一條定律。
幫自動駕駛汽車做出最安全決定的規則
早在2013年,英國政府就將機器人和自主系統領域作為支撐英國就業和增長工業戰略的8項偉大技術之一。
最近,英國國家機器人博物館(National Robotarium)正在進行一項領先的研究項目AISEC,旨在保證自動駕駛車輛在做出決定時始終遵守“機器人定律”。沒有這樣的保證就會出現非常嚴重的安全問題,阻礙自動駕駛汽車在全球的起飛。
該機器人博物館是世界領先的機器人和人工智能(AI)中心,不僅研究機器人技術理論和發展,也研究與機器人和自主系統領域相關的倫理問題,為應對全球挑戰創造創新解決方案。其開創性的研究不斷從實驗室走向市場,同時培養有遠見的技術人才,為社會帶來實質性的效益。
機器人倫理學家Patrick Lin表示:“受高速公路法規的啟發,我們正在制定一套規則,幫助自動駕駛汽車在任何可能的情況下做出最安全的決定。驗證這些規則是否有效是我們必須克服的最后一個障礙,以使值得信賴的自動駕駛汽車安全上路。”
他認為,人工智能軟件實際上非常善于了解它從未面對過的情景。利用從人腦布局中獲得靈感的“神經網絡”,軟件可以發現數據中的模式,比如汽車和行人的運動,然后在新奇的場景中回憶這些模式。
他也承認:“我們仍然需要證明任何教給自動駕駛汽車的安全規則在這些新情況下都會起作用。要做到這一點,我們可以轉向形式驗證——計算機科學家用來證明規則在所有情況下都有效的方法。”
他舉例說,在數學中,規則可以證明x+y等于y+x,而無需測試x和y的所有可能值。形式驗證也可以做類似的事情:它允許我們證明人工智能軟件將如何對不同的場景做出反應,而無需我們對公路上可能發生的每個場景進行詳盡的測試。
該領域最近取得的一個比較顯著的成功是驗證了一個人工智能系統,該系統使用神經網絡來避免無人駕駛飛機之間的碰撞。研究人員已經成功地證實,無論飛機的水平和垂直運動如何,系統都能正確響應。
自動駕駛汽車決策的復雜性
Patrick Lin在介紹自動駕駛汽車自主決策的復雜性時表示,人類駕駛者遵循高速公路守則來保護所有道路使用者的安全,這依賴于人腦對這些規則的學習,并在無數的現實場景中明智地應用這些規則。
他說:“我們也可以教自動駕駛汽車學習高速公路守則。這就要求我們解開代碼中的每一條規則,讓車輛的神經網絡理解如何遵守每一條規則,然后驗證它們在任何情況下都可以安全地遵守這些規則。”
自動駕駛汽車需要學習各種規則
不過,在審查《公路法》中“絕不能”一詞的后果時,驗證這些規則是否會被安全遵守的挑戰相當復雜。要使自動駕駛汽車在任何特定情況下都像人類駕駛員一樣反應靈敏,就必須以這樣一種方式來規劃這些策略,即考慮細微差別、加權風險和不同規則直接沖突的偶發場景,要求汽車忽略其中一個或多個規則。
這樣的任務不能只留給程序員,它需要律師、安全專家、系統工程師和決策者的投入。在新啟動的AISEC項目中,研究人員正在設計一種工具,以促進建立自動駕駛汽車道德和法律標準所需的跨學科合作。
Patrick Lin說:“教自動駕駛汽車變得完美是一個動態的過程:取決于法律、文化和技術專家如何隨著時間的推移來定義完美。AISEC工具正是基于這一點而構建的,它提供了一個‘任務控制面板’,用于監控、補充和調整最成功的自動駕駛汽車管理規則,這些規則隨后將提供給整個行業。”
他最后說:“我們希望在2024年交付AISEC工具的第一個實驗原型。但我們仍然需要創建自適應驗證方法來解決剩余的安全問題,這些方法可能需要數年的時間才能構建并嵌入到自動駕駛汽車中。”
請輸入評論內容...
請輸入評論/評論長度6~500個字
圖片新聞
最新活動更多
-
精彩回顧立即查看>> 【線下會議】恩智浦創新技術峰會·深圳
-
精彩回顧立即查看>> 【在線直播】可視化神器!VisionSym 賦能汽車光學原型開發
-
精彩回顧立即查看>> 12月16-17日 AMD 嵌入式峰會
-
精彩回顧立即查看>> 恩智浦創新技術峰會
-
精彩回顧立即查看>> 【工程師系列】汽車電子技術在線大會
-
精彩回顧立即查看>> Works With 開發者大會深圳站
推薦專題


分享










