行為克隆 | 自動駕駛汽車的端到端學習
研究人員將使用udacity提供的模擬器,模擬車前部配有3個攝像頭,可記錄視頻以及與中央攝像頭對應的轉向角。

行為克隆的本質是克隆了驅動程序的行為。本文的實驗思路是根據駕駛員駕駛的訓練數據訓練卷積神經網絡(CNN)以模擬駕駛員。
NVIDIA曾發布了一篇題為End to End Learning for Self-DrivingCars 的文章,他們訓練CNN將原始像素從單個前置攝像頭直接映射到轉向命令。實驗結果令人非常震驚,汽車學會了在有或沒有車道標記的地方道路上或者在具有最少量訓練數據的高速公路上行駛。本次實驗,研究人員將使用udacity提供的模擬器,模擬車前部配有3個攝像頭,可記錄視頻以及與中央攝像頭對應的轉向角。
收集數據
模擬器有2個通道:第一個通道非常容易,曲線較小且很少,第二個通道很難,有許多曲線和陡峭的山坡。
研究人員將使用來自兩個軌道的訓練數據:
1.研究人員將駕駛兩條車道,將車保持在車道的中心位置。研究人員每人開車2圈。
2.研究人員將在兩條車道上各開一圈,并試圖漂移到兩側,或試圖轉向車道的中心。這將為研究人員提供模型校正的訓練數據。

圖分別為左、中、右視角
捕獲的數據包含左圖像,中心圖像和右圖像的路徑,轉向角度,油門,中斷和速度值。

注意:研究人員將使用所有左,中,右圖像。研究人員將通過一些調整來矯正left_image的轉向角度。同樣,研究人員將通過一些調整來矯正right_image的轉向角度。
數據不平衡

轉向角直方圖
上面的直方圖顯示了訓練數據的不平衡。左轉彎的數據多于右轉彎的數據。研究人員將通過隨機翻轉訓練圖像并將轉向角度調整為steering_angle來補償這一點。
此外,大多數轉向角集中在0-0.25左右,研究人員沒有太多的數據來獲得更大的轉向角。研究人員將通過一些像素水平和垂直地隨機移動圖像并相應地調整轉向角來補償這一點。
數據擴充
研究人員使用以下增補:
1.隨機翻轉一些圖像并將轉向角度調整為steering_angle
2.通過一些像素水平和垂直地隨機移動圖像,并使用小的調整因子調整轉向角度。
3.路上有樹木,柱子等陰影。因此,研究人員將為訓練圖像添加一些陰影。4.研究人員會隨機調整圖像的亮度。
以上這些是標準的OpenCV調整,代碼可以在GitHub存儲庫中找到。(詳見文末鏈接)
應用增強后,下面是一些訓練圖像的輸出。

前處理
本文期望圖像的輸入尺寸為66 * 200 * 3,而來自訓練的圖像尺寸為160 * 320 * 3。此外,紙張期望將輸入圖像從RGB轉換為YUV顏色空間。因此,研究人員將從輸入圖像裁剪上部40像素行和下部20像素行。此外,作為預處理的一部分,研究人員將裁剪的圖像大小調整為66 * 200 * 3大小并將其轉換為YUV色彩空間。
模型
這是本文中描述的PilotNet模型:

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?


分享













