降價75%!DeepSeek“錯峰定價”,壓力給到了豆包們?

DeepSeek 還在搞事。
作為官方欽定的「開源周」,DeepSeek 本周已經陸續開源四個項目,星期四最新發布了實現計算與通信雙向并行的 DualPipe(直譯為「雙向管道」)。與此同時,DeepSeek 還整了一個不大不小的活——錯峰定價。
周三(2 月 26 日),DeepSeek 發文宣布當天起,北京時間每日 00:30 至 08:30 的夜間空閑時段,DeepSeek 開放平臺推出錯峰優惠活動。而就在前一天,DeepSeek 才剛剛恢復官方的 API 充值服務。
但說回優惠,DeepSeek 不可謂不給力。根據官方公告,DeepSeek API 調用價格將在夜間空閑時段大幅下調:DeepSeek-V3 降至原價的 50%;DeepSeek-R1 更是低至 25%(降了 75%)。

圖/ DeepSeek
具體價格調整如圖,就不贅述了,總之就是幫兄弟們「自砍一刀」。
值得一提的是,不同于 DeepSeek-V3 發布之初的「優惠體驗期」有明確的時間期限,這次的錯峰優惠僅有「時段限制」,而沒有「期限」。換言之,我們可以干脆一點將錯峰優惠視為長期的:
「錯峰定價」。
另外還有一點不得不提,兩款模型不僅優惠時段一致,優惠后的價格也變得完全一樣了:
輸入(緩存命中)為 0.25 元 / 百萬 tokens;
輸入(緩存未命中)為 1 元 / 百萬 tokens;
輸出為 4 元 / 百萬 tokens。
這可能也是 DeepSeek 有意為之。
畢竟推理模型已經成為了大模型廠商的共識,通過在優惠時段拉齊定價,DeepSeek 不僅能夠降低開發者使用 DeepSeek-R1 的成本顧慮,事實上也模糊了兩種模型的邊界,鼓勵開發者根據自己的需求靈活調用兩種模型。
這就像前兩天 Anthropic 推出的全球首款混合推理模型——Claude 3.7 Sonnet,結合了傳統模型的「迅速回答」和推理模型的「高級推理」優勢,實現更靈活的計算與更適合的 AI 體驗。

圖/ Claude
不過 DeepSeek 這次調整最核心的變動,還是「錯峰定價」這種運營策略的采用,其中「肉眼可見」的優勢很有可能引起豆包、通義千問等其他大模型的跟進,甚至可能成為又一場大模型價格戰的導火索:
一如 2024 年初 DeepSeek-V2 發布后,掀起的那場價格戰。
DeepSeek-R1 殺價!比豆包們便宜嗎?
需要說明的是,DeepSeek-V3 實際上「降過價」,雷科技之前報道過 DeepSeek-V3「優惠體驗期」在本月初的結束,那之前全時段的優惠價甚至比現在優惠時段的價格更便宜:
輸入(緩存命中)為 0.1 元 / 百萬 tokens;
輸入(緩存未命中)為 1 元 / 百萬 tokens;
輸出為 2 元 / 百萬 tokens。

2 月初結束了,圖/ DeepSeek
但不同的是,DeepSeek-R1 可沒有,發布以來的價格一直沒變,都是輸入(緩存命中)1 元 / 百萬 tokens、輸入(緩存未命中)4 元 / 百萬 tokens、輸出 16 元 / 百萬 tokens。
而相對地,這也讓這次 DeepSeek-R1 高達 75 折的「錯峰降價」更為驚喜。
首先在能力上,我相信今時今日已經不需要強調 DeepSeek-R1 的表現了,不管是產品層面思維鏈的創新,還是工程層面實現的極致成本,都讓 DeepSeek-R1 成為了當下最成功的模型。
在此基礎上,降價毫無疑問是降低開發者調用成本和門檻最有力的策略之一,間接也會進一步將更好的 AI 體驗推廣到更多的 AI 應用(通過接入 DeepSeek)中。
事實上,標準時段 DeepSeek 的價格已經比其他廠商的不少大模型都更便宜,而優惠時段的 DeepSeek,更是比起很多主力大模型都要便宜:

單位為每百萬 tokens,圖/雷科技
以字節跳動旗下的豆包通用模型為例,火山引擎平臺顯示的價格是:doubao-pro-32k,輸入為 0.8 元 / 百萬 tokens,輸出為 2 元 / 百萬 tokens;doubao-pro-128k / doubao-pro-256k,輸入為 5 元 / 百萬 tokens;輸出為 9 元 / 百萬 tokens。
甚至我們還能看到,火山引擎上 deepseek-r1-distill-qwen-32b(蒸餾版)的價格是:輸入 1.5 元 / 百萬 tokens、輸出 6 元 / 百萬 tokens。

也就說,DeepSeek-R1 官方滿血版在優惠時段的價格,甚至比 32b 蒸餾版還要更便宜。
這也還只是在國內,DeepSeek-R1/V3 在海外也推出了同樣的運營策略,也有 50% 和 75% 的大幅降價,而且優惠時段是直接對應北京時間 00:30 至 08:30。也就是說,倫敦時間 16:30 至 00:30、紐約時間 11:30 至 19:30 都可以直接享受到 DeepSeek 官方的優惠時段價格。
換言之,DeepSeek 對于不少面向部分海外用戶市場的開發者,還有更強的吸引力,相當于是在高峰時段享受了優惠時段的價格。
錯峰優惠很動人,豆包們將如何迎戰?
錯峰定價本身并不稀奇,比如我們最熟悉的錯峰電價,在不同時段用電的價格也會有不小的價格差。
為了盡可能避免在用電高峰時段用電緊張、用電低谷時電能空置,國內就設置了峰谷電價,通過峰谷價差來鼓勵用戶錯峰用電,最大程度配置電網資源的同時幫助用戶節省用電成本,挖掘更多的經濟效益和生態效益。
事實上,DeepSeek 官方在新聞稿中也提到了類似的說法,表示推出錯峰優惠活動是:「鼓勵用戶充分利用這一時段,享受更經濟更流暢的服務體驗。」

從開發者的角度來看,這種錯峰定價的運營策略幾乎算得上百利而無一害,而從大模型廠商和云計算平臺的角度看,實際上也是利大于弊,可以更大程度利用服務器資源。
所以目前來看,大模型跟進錯峰定價的運營策略應該算得上是題中應有之義,只是具體策略上會有不同的調整,比如前文提到的不同時區(不同用戶市場)問題。
不過,DeepSeek 這次會引發行業連鎖反應,甚至復刻一年前的大模型價格戰嗎?可能還有待觀察。
不少關注 AI 的讀者可能還記得,2024 年 5 月初,大眾眼中「名不見經傳」的 DeepSeek 發布了第二代 MoE 大模型 DeepSeek-V2,并且首次引入了多頭潛在注意力(MLA)機制,擁有 2360 億參數,每個 token210 億個活躍參數,稱得上當時最強的開源 MoE 模型。

DeepSeek V2 技術論文摘要,圖/雷科技
但更重要的是,DeepSeek-V2 的價格達到了:輸入 1 元 / 百萬 tokens、輸出 2 元 / 百萬 tokens。
現在看起來可能不太驚艷,但這個價格,僅為當時 ChatGPT 主力模型 GPT-4 Turbo 的近百分之一,在性價比上直接秒殺了國內外一眾大模型,也讓不少人記住了這家名為「DeepSeek(深度求索)」的大模型廠商,并冠以「AI 界拼多多」的稱號。
而更讓人印象深刻的是,DeepSeek-V2 之后,中國大模型價格戰由此一觸即發,字節、騰訊、百度、阿里等大廠紛紛降價,通義千問對標 GPT-4 的主力模型 Qwen-Long,API 輸入價格甚至從從 20 元 / 百萬 tokens 降至 0.5 元 / 百萬 tokens。
「錯峰定價」的運營策略或許很難單獨推動,但考慮到 DeepSeek 在開源周展現出一系列能力,比如長上下文的突破、芯片利用效率的提升等,未必不會是又一輪大模型價格戰的「新開端」。
寫在最后
DeepSeek 毫無疑問是今年以來 AI 行業最大的鯰魚,業界領頭羊 OpenAI 也被迫做出了諸多回應。根據多家媒體爆料,OpenAI 近期就計劃推出「醞釀已久」的 GPT-4.5。
當然,其他大模型廠商的追趕甚至超越,也在倒逼 DeepSeek 自己加快節奏。路透社最新報道就指出,新一代 R2 推理模型真的要來了,DeepSeek 原計劃要在 5 月推出,但最近已經在考慮提前推出。
這些變化都在推動 AI 的迭代和進步,也在改變今日的世界。
來源:雷科技
原文標題 : 降價75%!DeepSeek“錯峰定價”,壓力給到了豆包們?
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?


分享













