免费久久国产&夜夜毛片&亚洲最大无码中文字幕&国产成人无码免费视频之奶水&吴家丽查理三级做爰&国产日本亚欧在线观看

訂閱
糾錯
加入自媒體

「思考用時100秒」成歷史?AI推理太耗時,伯克利要讓模型并行推理

2026-05-11 10:25
雷科技
關注

讓 AI 以 AI 的方式思考。

“已思考(用時 XXX 秒)……”看到這行字,大家是不是已經(jīng)開始不耐煩了?盡管 AI 這幾年確實越來越聰明、也越來越全能了,但在遇到某些奇怪的推理題目或橫跨多個 App 的復雜任務時,這些更聰明、更謹慎的 AI 大模型,響應時間反而越慢。

image.png

(圖源:deepseek)

針對「轉(zhuǎn)圈圈」這一現(xiàn)象,伯克利人工智能研究實驗室(BAIR)日前發(fā)布了一篇新的博客,提出了不一樣的解決方案——自適應并行推理(Adaptive Parallel Reasoning,APR)。

AI 推理為什么要「轉(zhuǎn)圈圈」?

在展開 APR 這個概念之前,我們要先聊聊為什么現(xiàn)在的 AI 普遍都有會在某個環(huán)節(jié)卡住。

目前主流模型普遍采用的「順序推理」的模式:大模型接到復雜任務后,會先把任務分割成一個個邏輯相連的小任務,然后從頭到尾一步步推,之后再驗證結(jié)果。

figure-01-sequential-vs-parallel.png

左為順序推理(SR),右為并行推理(APR)

圖片來源:BAIR

從好的方面看,這種推理方式準確性相對有保障,推理過程也更為清晰。比如上個月雷科技體驗用 ChatGPT 畫原創(chuàng)漫畫時,展開推理窗口我們就能看到 AI 從頭到尾設計故事、對白和規(guī)劃畫面的過程。

d5f6125152524a7db2ca0260a38d5da8.png

圖片來源:雷科技

但這還沒完,為了保證推理結(jié)果的準確性,主流模型還會采用一個名為「推理時拓展」(Inference-time scaling)的推理模式。用人話來解釋,就是模型推理得出結(jié)果后,會再發(fā)起一次推理來驗證這個結(jié)果。只有多次推理結(jié)果一致,才會輸出最終結(jié)果。

很顯然,「驗算」次數(shù)多了,推理的耗時就長了,用戶的等到時間也就長了。

當然了,順序推理也有自己的好處。對于那些特別復雜的推理任務,順序推理的模式能保證推理結(jié)果的可溯源性。只要點開推理過程,我們能人工檢查每一步驟的推理結(jié)果,可以相對輕松地找到 AI 在哪個步驟的運算出了問題。

那代價是什么呢?

很顯然,「順序推理+推理時拓展」的推理模式需要更長的推理時間,用戶等待時間更長;逐步拆解任務再重新推理的方式,也會顯著提高模型推理的 Token 用量。更不用說這種計算模式很容易突破任務的實際文本窗口大小,任務多跑幾次可能就丟掉上下文了。

本來用改進推理結(jié)果的推理模式,最后反而成為壓垮 AI 大模型的罪魁禍首。

為了解決「推理排隊」的問題,AI 行業(yè)提出了「并行推理」的模式。其本質(zhì)依舊是將推理步驟拆成多個小任務。在過去兩年里,不少 AI 研究員都提出了針對并行推理模式的結(jié)果驗證方式。

但問題是,采用「并行推理」的 AI 大模型通常會用額外的外部模型來拆解任務,大模型本身并不能決定一個任務要被拆解、細化到什么程度:簡單任務拆太細會浪費 Token,復雜任務如果拆得不夠細,也可能會計算結(jié)果。

讓大模型學會自己拆分任務

那如果我們讓 AI 大模型自己決定任務拆解的程度呢?自適應并行推理要做的就是這件事。

顧名思義,自適應并行推理(APR)和傳統(tǒng)的并行推理最大的區(qū)別,在于模型可以在順序推理和并行推理之間動態(tài)自由切換。

對于簡單的計算或邏輯請求,比如「105 能否被 7 整除」或「明天天氣如何」這類題目,采用自適應并行推理的模型會采用標準的順序推理模式,甚至可能都不需要推理時拓展來確保結(jié)果準確性,自然也不需要把請求拆分成多個獨立項目了。

cover.png

左為順序推理(SR),右為自適應并行推理(APR)

圖片來源:BAIR

但如果遇到復雜的數(shù)學推理,或者明顯帶有步驟、上下文關系的邏輯請求,比如在應對「導入并分析 2026 F1 中國站排位賽漢密爾頓在 T14 的尾速,并于 2025 年的數(shù)據(jù)做對比,數(shù)據(jù)可視化輸出」這種問題時:

采用自適應并行推理的模型,就會在不超出單個上下文窗口的前提下,將整個任務拆分成多個彼此相互獨立的小任務,并「并行處理」(即同時處理)沒有上下文關系的任務,從而節(jié)約整個大任務的耗時。

其次,傳統(tǒng)的并行推理會讓幾個 AI 重復處理同一個小任務,這本質(zhì)上是在浪費 Token。而自適應并行推理則是讓 AI 在拆分前就完成分工,進一步減少 Token 的浪費。

figure-05-fork-join.png

兩種不同推理模式示意圖

圖片來源:BAIR

甚至因為自適應并行推理模式會把任務鏈拆分成彼此之間獨立的小任務,這一模式還巧妙規(guī)避了超長文本窗口常見的 AI 幻覺問題。這其實也很好理解,畢竟讓 6 個人分別做 4 小時的數(shù)學題,答案的正確率肯定比讓一個人連做 24 小時要高得多。

讓 AI 以機器的方式「并行思考」

話又說回來,盡管自適應并行推理的概念為 AI 大模型提供了一種新的工作模式,但它背后也有自己的風險。

并行推理訓練框架 Parallel-R1 的作者就指出,自適應并行推理模式的訓練存在「模型回滾」的情況:就像真正的「打工人」一樣,只要刪掉針對自適應并行推理模式的「獎勵」,AI 模型就會回歸到傳統(tǒng)的順序推理模式,重返自己的「舒適區(qū)」。

另外,讓模型自己評估任務復雜性、自行拆解任務的做法,也可能導致模型搞錯子任務的主次,對真正的推理難題視而不見,在一些細枝末節(jié)的問題上鉆牛角尖。且對于 AI 模型這種帶有「概率」「抽卡」屬性的技術而言,在推理過程中引入更多 AI「主觀判斷」的環(huán)節(jié),必然會影響最終結(jié)果的穩(wěn)定性。

可以肯定的是,作為 AI 推理的新方案,自適應并行推理還需要時間去完善。

截屏2026-05-09 23.39.54.png

圖片來源:Claude

但從用戶的角度看,在 AI Agent 時代,過去那種「插科打諢」純聊天的 AI 對話場景已經(jīng)非常少見了:昨天,Claude 上線了與微軟 365 套件的互通能力;三月份,OpenAI 發(fā)布了可以原生操作電腦的 ChatGPT 5.4……毫無疑問,跨應用長任務鏈能力是未來 AI 的競爭點。

再加上長任務鏈「環(huán)環(huán)相扣」的特點也會成倍放大 AI 大模型推理效率的短板,以前上學時老師說的「一人耽誤一分鐘,全班耽誤半小時」的情況,將會出現(xiàn)在 AI Agent 中。在這樣的背景下,盡管自適應并行推理方案還不穩(wěn)定,但考慮到其「降本增效」的能力,雷科技認為應該會有越來越多的 AI 服務加入到自適應并行推理陣營中。

進一步講,從 AI 的發(fā)展來看,雷科技認為這種從順序思考到自適應并行思考的改變,其實也是 AI 大模型從「模擬人類思考」轉(zhuǎn)向「發(fā)揮機器優(yōu)勢」的里程碑。

線性、順序的推理方式,本質(zhì)上是讓機器模擬人類的思維。從好的方面看,這種推理方式讓 AI 大模型擁有了人類思考嚴謹、一環(huán)扣一環(huán)的特點。但硅基芯片多線程的特點,天生就適合并行計算,這種底層架構的差異意味著「并行思考」才是真正適合 AI 的思考方式。

讓 AI 以人的方式思考,像是讓人形機器人拉黃包車;讓 AI 以 AI 的方式思考,AI 才算真正走進「機械時代」。

可以肯定的是,當這種「非線性」的思維方式成為主流后,AI Agent 的交互模式也會跟著發(fā)生變化。當前的 AI 為了證明自己有在思考,會把推理過程體現(xiàn)出來,始終脫離不了「文本窗」的限制。而「并行」運算時代的 AI,必然會「黑盒」化——后臺推理「火力全開」,前臺直接輸出結(jié)果。

到那時候,AI 自然也不需要向用戶證明「自己在思考」;「已思考 XXX 秒」這種沒有意義的提示,也將徹底消失在 AI 時代中。

大模型AI推理并行思考理論

來源:雷科技

本文圖片來自:123RF 正版圖庫       

       原文標題 : 「思考用時100秒」成歷史?AI推理太耗時,伯克利要讓模型并行推理

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號