本屆 NeurIPS 投稿量 21,575 篇,最終接收 5290 篇,錄用率僅 24.52%。
以下為今年最受矚目的成果全解析。
最佳論文獎(4 篇)
第一篇來自斯坦福大學《Artificial Hivemind:The Open-Ended Homogeneity of Language Models (and Beyond)》。
研究團隊推出 Infinity-Chat——一個覆蓋 26K 條開放式真實查詢的全新大規模數據集,并首次構建 LLM 開放式任務的分類體系。通過在不同模型上進行系統性評估,作者揭示了兩個關鍵現象:
模型內重復(intra-model repetition):同一模型不斷生成類似回答
模型間趨同(inter-model homogeneity):不同模型之間輸出高度相似
這被作者形象地稱為 “人工蜂群思維”(Artificial Hivemind)——一種在開放式生成任務中普遍存在的模式坍縮效應。
論文不僅提出了數據集與評測框架,更直接對齊了現代 LLM 在“多樣性”“價值多元”“社會影響”上的核心問題,被評審認為是“對真實世界 AI 行為的全新基礎性理解”。
論文地址:https://openreview.net/pdf?id=saDOrrnNTz
第二篇來自阿里通義千問和愛丁堡大學學者合作的《Gated Attention for Large Language Models》。
阿里團隊的這篇論文首次系統性證明了門控機制在注意力中的關鍵作用,并被直接應用于最新的 Qwen3-Next 模型。
核心貢獻包括:
證明門控提升性能的來源:增強非線性 + 提供輸入相關的稀疏性
消除 Attention Sink、Massive Activation 等模型頑疾
顯著提升 訓練穩定性,減少 Loss Spike
大幅增強 長度外推(long-context extrapolation)能力
論文地址:https://openreview.net/forum?id=1b7whO4SfY
第三篇來自普林斯頓和華沙理工大學的《1000 Layer Networks for Self-Supervised RL》。
強化學習(RL)常被認為無法有效訓練超深網絡,而該論文直接把深度拉到了 1024 層,并在多個任務上實現 2×–50× 的性能提升。
論文證明,增加深度不僅提高成功率,甚至會根本性改變智能體探索行為。這項工作打破了長期存在的“RL 不適合深度網絡”的隱性假設,有望成為未來 RL 規模化的關鍵范式。
論文地址:https://openreview.net/pdf?id=s0JVsx3bx1
第四篇來自巴黎文理研究大學、博科尼大學的《Why Diffusion Models Don’t Memorize》。
為什么在大規模訓練下依舊能保持良好泛化?這篇論文給出了一個強有力的理論解釋。
首先,模型存在兩個關鍵時間點:
t_g:開始生成高質量樣本
t_m:開始過擬合、記憶化
t_m 隨數據規模增長而線性延后,t_g 基本不變。因此存在一個隨著數據變大而擴大的安全區間。這一機制構成了一種隱式動態正則化。
論文地址:https://openreview.net/pdf?id=BSZqpqgqM0
最佳論文亞軍(3 篇)
第一篇是來自清華大學和上海交大的論文《Does RL Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model?》。
這篇論文推翻了行業共識,那就是RLVR(帶可驗證獎勵的 RL)并不能真正讓模型獲得新推理能力。該結果挑戰了過去兩年 LLM 提升推理的一大主流路線。
論文地址:https://openreview.net/pdf?id=4OsgYD7em5
第二篇是來自肯特州立大學和普渡大學的《Optimal Mistake Bounds for Transductive Online Learning》。
該論文解決了 30 年理論難題,給出了傳導式在線學習最優錯誤上界:下界 Ω(√d)和上界 O(√d)。
兩者完全匹配,構成 tight 結果。這項成果被視為教科書級的理論突破。
論文地址:https://openreview.net/pdf?id=EoebmBe9fG
第三篇來自麻省理工學院的《Superposition Yields Robust Neural Scaling》。
研究團隊提出,表征疊加(superposition)是神經網絡縮放定律的根本來源。
這項工作從機制層面解釋了為何模型在變大時損失能以冪律下降,是理解 scaling law 的關鍵一環。
論文地址:https://openreview.net/pdf?id=knPz7gtjPW
時間檢驗獎
獲得時間檢驗獎的論文是《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》。作者有任少卿、何愷明、Ross Girshick、孫劍。
十年前,這篇論文實現了極高精度與接近實時(5 FPS)檢測的統一,使神經網絡目標檢測模型得以真正部署到真實世界應用中。
截至目前論文已被引用 超 56,700 次,其框架仍在眾多任務中派生演化。
論文地址:https://arxiv.org/pdf/1506.01497
Sejnowski-Hinton 獎
獲獎論文為 2016 年發布的《Random synaptic feedback weights support error backpropagation for deep learning》 ,作者為 Timothy Lillicrap、Daniel Cownden、Douglas Tweed 和 Colin Akerman。
這篇論文提出極具影響的反饋對齊(Feedback Alignment)機制,證明神經網絡無需精確對稱的反饋權重,也能逼近反向傳播,從而依靠局部學習規則實現有效訓練。
這一機制催生了生物可行學習(biologically plausible learning)相關的大量研究。
值得一提的是,該獎項本身也蘊含一段學術界傳奇故事——Hinton 與 Sejnowski 的 40 年友情與諾獎獎金分享的承諾,最終促成了這一獎項的設立。
論文地址:https://www.nature.com/articles/ncomms13276
參考資料:
https://mp.weixin.qq.com/s/4Jb_jiLQwrs7GK9V7NOjAg
https://blog.neurips.cc/author/mengyeren/
https://blog.neurips.cc/2025/11/26/announcing-the-2025-sejnowski-hinton-prize/