Transformer
-
自動駕駛端到端時代,還會使用BEV和Transformer嗎?
在討論自動駕駛技術時,很多人容易產生一種誤解,認為端到端是一項孤立的新技術,會完全取代BEV(鳥瞰圖)或Transformer,也有小伙伴曾在后臺留言詢問端到端模型還會使用BEV+Transforme
-
Transformer如何讓自動駕駛大模型獲得思考能力?
在談及自動駕駛時,Transformer一直是非常關鍵的技術,為何Transformer在自動駕駛行業一直被提及?先說結論,Transformer之所以在自動駕駛領域被頻繁提到,并被廣泛推崇,主要是因
Transformer 2026-02-02 -
Transformer能否支撐下一代Agent?
作者 李越 編輯?重點君 12月18日,2025騰訊ConTech大會暨騰訊科技Hi Tech Day正式播出,中國工程院院士、知名專家和學者、頭部科技企業創始人及知名投資人齊聚一堂,共同探討智能時代
-
何愷明新作:Just Image Transformer讓去噪模型回歸基本
當今的去噪擴散模型并非傳統意義上的“去噪”。 它們并不直接預測干凈的圖像。相反,神經網絡預測的是噪聲或帶噪聲的量。 ResNet 之父、麻省理工副教授何愷明新論文發現了這一問題。 預測干凈數據和預測帶
何愷明 2025-12-01 -
李飛飛最新萬字訪談:未來五年,Transformer 可能被淘汰
編輯 重點君 11月24日,斯坦福大學教授、World Labs創始人李飛飛參加播客訪談,詳細闡述了她對空間智能(Spatial Intelligence)的構想,并討論她與楊立昆在世界模型(Worl
-
Transformer如何讓自動駕駛變得更聰明?
自動駕駛中常提的Transformer本質上是一種神經網絡結構,最早在自然語言處理里火起來。與卷積神經網絡(CNN)或循環神經網絡(RNN)不同,Transformer能夠自動審視所有輸入信息,并動態
-
自動駕駛中 Transformer 大模型會取代深度學習嗎?
近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領域的驚艷表現,“Transformer架構是否正在取代傳統深度學習”這一話題一直被持續討論。特別是在自動駕駛領域,
-
谷歌推出全新底層架構MoR,Transformer有了替代品
前言:大語言模型(LLMs)規模龐大但效率低下的問題長期備受關注。盡管模型參數持續增長,其在長文本處理中的性能衰減、計算資源消耗等問題始終未能有效解決。谷歌DeepMind最新提出的MoR架構,可能為
-
如何使用Transformer在Twitter數據上進行情感分類
介紹Transformer的發明最近取代了自然語言處理的世界。transformers是完全無視傳統的基于序列的網絡。RNN是用于基于序列的任務(如文本生成,文本分類等)的最初武器。但是,隨著LSTM和GRU單元的出現,解決了捕捉文本中長期依賴關系的問題
-
自然語言處理(NLP)技術不斷突破,谷歌Transformer再升級
當我們在翻譯軟件上輸入 “Transformer is a novel neural network architecture based on a self-attention mechanism”
-
用于大規模圖像縮放識別的Vision Transformer
在本文中,我想在不作太多技術細節的情況下,解釋作者提交給2021 ICLR會議的新論文“an-image-is-worth-16x16-words-transformers-for-image-recognition-at-scale”的研究成果(目前為止匿名)
圖像縮放 2020-10-31

