強化學習在無人機項目中的應用

強化學習可以解決什么問題?
這張圖是2016年引起熱議人工智能的AlphaGo事件,AlphaGo打敗了圍棋世界冠軍李世石。AlphaGo作為一個智能體,就使用了深度強化學習技術進行了訓練。在這一場景中,狀態就是每一時刻的棋盤,行為就是下棋的動作,而評價系統會根據每一步棋的價值返回獎勵。完成訓練的AlphaGo在與李世石的比賽中,根據當前的棋盤選擇最優的行為“下一步棋”,最終擊敗了李世石,這就是強化學習的一個具體應用。
智能體在不斷與環境交互的過程中,會保留上次學習過的經驗,下一輪與環境交互時,會選擇獎勵更大的行為,一般用來解決“智能體與環境交互時通過決策選擇最好的行為”的這一類問題。
具體到現在的應用場景很廣泛:
工業應用:機器人作業;
金融貿易應用:預測未來銷售額、預測股價等;
自然語言處理(NLP)應用:文本摘要、自動問答、機器翻譯等;
醫療保健應用:提供治療策略;
工程中的應用:數據處理、模型訓練;
推薦系統中的應用:新聞推薦、時尚推薦等;
游戲中的應用:AlphaGo、AlphaZero等;
廣告營銷中的應用:實時競價策略;
機器人控制中的應用:機械臂抓取物體等。

強化學習在無人機項目中的應用
強化學習在無人機項目中的應用越來越廣泛,以下簡單介紹下深蘭科學院目前對該項目的研究內容:簡單的軌跡規劃,以及當前主流的兩個研究方向:軌跡規劃、運輸懸掛。后續團隊的目標也是基于當前項目,進行這兩個主流方向的研究。
1、簡單軌跡規劃

本項目研究的是無人機圓周軌跡運動規劃。在這一簡單任務中,需要讓無人機飛到指定位置懸停,然后一直做圓周運動。簡單分析這一任務,智能體就是無人機,行為就是對無人機的旋翼發出操作指令,狀態就是當前無人機所處的位置以及無人機的性能,獎勵則是根據無人機是否沿著圓周運動的軌跡判斷。
具體到深度強化學習的框架,采用的是on-policy的PPO框架,之后也會用off-policy的DDPG、SAC框架進行比對效果。
2、復雜軌跡規劃
在許多機器人任務中,如無人機比賽,其目標是盡可能快地穿越一組路徑點。這項任務的一個關鍵挑戰是規劃最小時間軌跡,這通常通過假設路徑點的完美知識來解決。這樣所得到的解決方案要么高度專用于單軌道布局,要么由于簡化平臺動力學假設而次優,方案不具有可擴展性。
視頻是使用深度強化學習和相對門觀察的方法,自適應地進行隨機軌道布局的效果展示,與傳統的假設路徑點軌道方法相比,基于軌跡優化的方法顯示出了顯著的優勢。在仿真環境和現實世界中的一組軌道上進行了評估,使用真實四旋翼無人機實現了高達17米/秒的飛行速度。
3、懸掛運輸
第二個主流方向是懸掛運輸,運輸懸掛的有效載荷對自動駕駛飛行器來說是一個挑戰,因為有效載荷會對機器人的動力學造成重大和不可預測的變化。這些變化可能會導致飛行性能不理想,甚至會導致災難性故障。視頻是運用自適應控制與深度強化學習在這一問題上的效果展示,可以看出這種方法在此任務表現良好。
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?


分享













