Manus“刪博、裁員、跑路新加坡”后,創(chuàng)始人首次復(fù)盤經(jīng)驗(yàn)教訓(xùn)

作者 林易
編輯 重點(diǎn)君
從全球爆火,到成功融資,再到被曝刪博、裁員、跑路新加坡,Manus僅僅用了四個(gè)月,就把一條新興賽道的創(chuàng)業(yè)演示了個(gè)遍。
有人認(rèn)為Manus開了一個(gè)很壞的頭,利用中國工程師資源打造產(chǎn)品,迅速融資,裁員跑路......
在一片爭議聲中,今天凌晨,這家公司的聯(lián)合創(chuàng)始人季逸超罕見發(fā)聲,發(fā)布了長達(dá)數(shù)千字的博客,試圖把輿論拉回到產(chǎn)品和技術(shù)本身,也第一次公開回應(yīng)了這場起落背后的關(guān)鍵教訓(xùn)。
四個(gè)月從爆火到爭議
我們先簡單回顧一下。今年3月,Manus因“全球首個(gè)通用Agent”概念走紅,當(dāng)時(shí)有人說這是中國的“第二個(gè)DeepSeek時(shí)刻”。
5月,Manus很快完成由硅谷頂級(jí)風(fēng)投Benchmark領(lǐng)投的7500萬美元B輪融資,估值飆升至5億美元。外界對(duì)它的一度期待極高。
但6月底,Manus突然被媒體曝出多起爭議事件:部分員工稱被無預(yù)警裁員、創(chuàng)始團(tuán)隊(duì)在社交平臺(tái)上大規(guī)模刪博、公司主體搬到新加坡,輿論嘩然。
一時(shí)間,刪博、裁員、跑路,成了這家明星Agent創(chuàng)業(yè)公司的主要標(biāo)簽。
聯(lián)合創(chuàng)始人凌晨發(fā)長文
面對(duì)外界質(zhì)疑,季逸超這次選擇用一篇技術(shù)向的長文作答,首次系統(tǒng)總結(jié)了團(tuán)隊(duì)對(duì)Agent產(chǎn)品和技術(shù)的核心認(rèn)知:
1、選擇上下文工程,而非端到端自研大模型。Manus創(chuàng)始人上一家公司曾嘗試從零訓(xùn)練NLP模型,結(jié)果被GPT-3等大模型淘汰。這次復(fù)盤后,他們選擇不再自研底層模型,而是專注于如何基于開源或商業(yè)大模型,做“上下文工程”,把現(xiàn)有能力最大化發(fā)揮出來。
2、KV緩存命中率是代理系統(tǒng)的核心指標(biāo)。多輪智能代理與單輪聊天不同,輸入輸出比可能高達(dá)100:1,長輸入會(huì)極大影響延遲和推理成本。上下文設(shè)計(jì)的目標(biāo)是最大化KV緩存命中率,這要求提示要穩(wěn)定、上下文只追加不修改、保證前綴可重復(fù)利用。
3、工具管理避免動(dòng)態(tài)增減,用遮蔽代替刪除。代理功能多,動(dòng)作空間會(huì)迅速擴(kuò)大,模型更易選錯(cuò)。動(dòng)態(tài)添加或刪除工具會(huì)導(dǎo)致緩存失效。Manus的實(shí)踐是用上下文狀態(tài)機(jī)管理工具可用性:通過屏蔽Token概率,而非直接從上下文移除,既保證靈活性,又保留緩存。
4、把文件系統(tǒng)當(dāng)作無限上下文。大模型上下文窗口再大也有限,且超長上下文會(huì)拉低推理速度、抬高成本。Manus做法是把文件系統(tǒng)當(dāng)作代理的外部記憶,信息可隨時(shí)存取,保證歷史狀態(tài)可查、可讀寫、可恢復(fù)。
5、用顯式“背誦”機(jī)制操控模型注意力。在長任務(wù)中,Manus會(huì)自動(dòng)生成todo.md,把任務(wù)拆解成可執(zhí)行清單,并不斷更新,把目標(biāo)重復(fù)寫到上下文末尾,相當(dāng)于“反復(fù)提醒模型”,避免任務(wù)中途跑偏。
6、不抹掉錯(cuò)誤,保留失敗信息以幫助模型自我修正。智能體必然會(huì)出錯(cuò),與其隱藏錯(cuò)誤、重新開始,不如把失敗信息留在上下文里,讓模型“看到”失敗路徑,形成負(fù)面示例,從而減少同類錯(cuò)誤。
7、一句話總結(jié)就是:上下文工程是一門新興的實(shí)驗(yàn)科學(xué),Manus想用上下文塑造代理的行為和能力:不是比拼模型多聰明,而是比拼怎么讓模型更有用。
復(fù)盤之外,爭議未平息
從這篇博客看得出,Manus并非完全是個(gè)“PPT項(xiàng)目”。它確實(shí)做了不少面向Agent場景的底層探索,也踩過不少坑。
但這篇長文沒提到外界最關(guān)心的問題:公司為什么要搬去新加坡?國內(nèi)被裁員工如何善后?等等。
這些問題,季逸超沒有回答,博客里也沒提。
季逸超在結(jié)尾寫道:“智能代理的未來將由一個(gè)個(gè)情境逐步構(gòu)建。精心設(shè)計(jì)每一個(gè)情境。”
當(dāng)下的現(xiàn)實(shí)是,Manus是否還有機(jī)會(huì)把這些“情境”從技術(shù)文檔帶回真正的用戶手里?
一切仍未有定論。
博文鏈接:


以下為Manus 聯(lián)合創(chuàng)始人季逸博客原文(由GPT翻譯):
面向AI 代理的上下文工程:構(gòu)建 Manus 的經(jīng)驗(yàn)教訓(xùn)
2025 年 7 月 18 日 季逸超
在Manus 項(xiàng)目伊始,我和團(tuán)隊(duì)面臨一個(gè)關(guān)鍵抉擇:是使用開源基礎(chǔ)模型訓(xùn)練一個(gè)端到端的代理模型,還是基于前沿模型的上下文學(xué)習(xí)能力構(gòu)建代理?
回想我在自然語言處理領(lǐng)域的最初十年,我們沒有這樣的選擇余地。在BERT 的遠(yuǎn)古時(shí)代(是的,已經(jīng)七年了),模型必須經(jīng)過微調(diào)并評(píng)估后才能遷移到新任務(wù)。即使當(dāng)時(shí)的模型遠(yuǎn)小于如今的 LLMs,這一過程每次迭代往往也需數(shù)周。對(duì)于快速發(fā)展的應(yīng)用,尤其是產(chǎn)品市場匹配前期,這樣緩慢的反饋周期是致命的。這是我上一家創(chuàng)業(yè)公司的慘痛教訓(xùn),當(dāng)時(shí)我從零開始訓(xùn)練模型用于開放信息抽取和語義搜索。隨后 GPT-3 和 Flan-T5 的出現(xiàn),讓我自研的模型一夜之間變得無關(guān)緊要。諷刺的是,正是這些模型開啟了上下文學(xué)習(xí)的新紀(jì)元——也為我們開辟了一條全新的前進(jìn)道路。
這個(gè)來之不易的教訓(xùn)讓選擇變得清晰:Manus 將押注于上下文工程。這使我們能夠在數(shù)小時(shí)內(nèi)發(fā)布改進(jìn),而不是數(shù)周,同時(shí)保持我們的產(chǎn)品與底層模型正交:如果模型進(jìn)步是漲潮,我們希望 Manus 是船,而不是固定在海床上的柱子。
然而,上下文工程遠(yuǎn)非簡單。這是一門實(shí)驗(yàn)科學(xué)——我們已經(jīng)重建了四次代理框架,每次都是在發(fā)現(xiàn)了更好的上下文塑造方法之后。我們親切地稱這種手動(dòng)的架構(gòu)搜索、提示調(diào)整和經(jīng)驗(yàn)猜測(cè)過程為“隨機(jī)梯度下降”。它不優(yōu)雅,但有效。
這篇文章分享了我們通過自己的“SGD”達(dá)到的局部最優(yōu)解。如果你正在構(gòu)建自己的 AI 代理,希望這些原則能幫助你更快收斂。
圍繞KV 緩存設(shè)計(jì)
如果只能選擇一個(gè)指標(biāo),我認(rèn)為KV 緩存命中率是生產(chǎn)階段 AI 代理最重要的指標(biāo)。它直接影響延遲和成本。要理解原因,我們先看看典型代理的工作方式:
在接收到用戶輸入后,代理通過一系列工具調(diào)用來完成任務(wù)。在每次迭代中,模型根據(jù)當(dāng)前上下文從預(yù)定義的動(dòng)作空間中選擇一個(gè)動(dòng)作。然后在環(huán)境中執(zhí)行該動(dòng)作(例如Manus 的虛擬機(jī)沙箱),以產(chǎn)生觀察結(jié)果。動(dòng)作和觀察結(jié)果被追加到上下文中,形成下一次迭代的輸入。這個(gè)循環(huán)持續(xù)進(jìn)行,直到任務(wù)完成。
正如你所想象的,上下文隨著每一步增長,而輸出——通常是結(jié)構(gòu)化的函數(shù)調(diào)用——則相對(duì)較短。這使得預(yù)填充與解碼之間的比例在代理中遠(yuǎn)遠(yuǎn)偏高,區(qū)別于聊天機(jī)器人。例如,在 Manus 中,平均輸入與輸出的Token比約為100:1。
幸運(yùn)的是,具有相同前綴的上下文可以利用KV 緩存,這大大減少了首次生成標(biāo)記時(shí)間(TTFT)和推理成本——無論你是使用自托管模型還是調(diào)用推理 API。這里的節(jié)省可不是小數(shù)目:以 Claude Sonnet 為例,緩存的輸入標(biāo)記費(fèi)用為 0.30 美元/千標(biāo)記,而未緩存的則為 3 美元/千標(biāo)記——相差 10 倍。

從上下文工程的角度來看,提高KV 緩存命中率涉及幾個(gè)關(guān)鍵做法:
保持提示前綴穩(wěn)定。由于LLMs 的自回歸特性,即使是單個(gè)標(biāo)記的差異也會(huì)使該標(biāo)記及其之后的緩存失效。一個(gè)常見錯(cuò)誤是在系統(tǒng)提示開頭包含時(shí)間戳——尤其是精確到秒的時(shí)間戳。雖然這樣可以讓模型告訴你當(dāng)前時(shí)間,但也會(huì)大幅降低緩存命中率。
使你的上下文僅追加。避免修改之前的操作或觀察。確保你的序列化是確定性的。許多編程語言和庫在序列化JSON 對(duì)象時(shí)不保證鍵的順序穩(wěn)定,這可能會(huì)悄無聲息地破壞緩存。
在需要時(shí)明確標(biāo)記緩存斷點(diǎn)。一些模型提供商或推理框架不支持自動(dòng)增量前綴緩存,而是需要在上下文中手動(dòng)插入緩存斷點(diǎn)。設(shè)置這些斷點(diǎn)時(shí),應(yīng)考慮緩存可能過期的情況,至少確保斷點(diǎn)包含系統(tǒng)提示的結(jié)尾部分。
此外,如果你使用像vLLM 這樣的框架自托管模型,確保啟用了前綴/提示緩存,并且使用會(huì)話 ID 等技術(shù)在分布式工作節(jié)點(diǎn)間一致地路由請(qǐng)求。
遮蔽,而非移除
隨著你的智能體功能不斷增強(qiáng),其動(dòng)作空間自然變得更加復(fù)雜——簡單來說,就是工具數(shù)量激增。最近 MCP 的流行更是火上澆油。如果允許用戶自定義工具,相信我:總會(huì)有人將數(shù)百個(gè)神秘工具接入你精心策劃的動(dòng)作空間。結(jié)果,模型更可能選擇錯(cuò)誤的動(dòng)作或走低效路徑。簡而言之,你的重裝智能體反而變得更笨。
一種自然的反應(yīng)是設(shè)計(jì)動(dòng)態(tài)動(dòng)作空間——或許使用類似 RAG 的方式按需加載工具。我們?cè)?Manus 中也嘗試過。但實(shí)驗(yàn)表明一個(gè)明確的規(guī)則:除非絕對(duì)必要,避免在迭代過程中動(dòng)態(tài)添加或移除工具。主要有兩個(gè)原因:
在大多數(shù)LLMs 中,工具定義在序列化后通常位于上下文的前部,通常在系統(tǒng)提示之前或之后。因此,任何更改都會(huì)使所有后續(xù)操作和觀察的 KV 緩存失效。
當(dāng)之前的操作和觀察仍然引用當(dāng)前上下文中不再定義的工具時(shí),模型會(huì)感到困惑。如果沒有受限解碼,這通常會(huì)導(dǎo)致模式違規(guī)或幻覺操作。
為了解決這一問題,同時(shí)提升動(dòng)作選擇的效果,Manus 使用了一個(gè)上下文感知的狀態(tài)機(jī)來管理工具的可用性。它不是移除工具,而是在解碼過程中屏蔽Token的對(duì)數(shù)概率,以根據(jù)當(dāng)前上下文防止(或強(qiáng)制)選擇某些動(dòng)作。

在實(shí)際操作中,大多數(shù)模型提供商和推理框架都支持某種形式的響應(yīng)預(yù)填充,這使你可以在不修改工具定義的情況下限制動(dòng)作空間。函數(shù)調(diào)用通常有三種模式(我們以NousResearch 的 Hermes 格式為例):
自動(dòng)– 模型可以選擇是否調(diào)用函數(shù)。通過僅預(yù)填回復(fù)前綴實(shí)現(xiàn):<|im_start|>assistant
必需——模型必須調(diào)用一個(gè)函數(shù),但選擇不受限制。通過預(yù)填充到工具調(diào)用標(biāo)記實(shí)現(xiàn):<|im_start|>assistant
指定——模型必須從特定子集中調(diào)用函數(shù)。通過預(yù)填充到函數(shù)名開頭實(shí)現(xiàn):<|im_start|>assistant{"name": “browser_
利用此方法,我們通過直接屏蔽標(biāo)記的對(duì)數(shù)概率來限制動(dòng)作選擇。例如,當(dāng)用戶提供新輸入時(shí),Manus 必須立即回復(fù),而不是執(zhí)行動(dòng)作。我們還特意設(shè)計(jì)了具有一致前綴的動(dòng)作名稱——例如,所有與瀏覽器相關(guān)的工具都以 browser_開頭,命令行工具以 shell_開頭。這使我們能夠輕松確保代理在特定狀態(tài)下僅從某一組工具中選擇,而無需使用有狀態(tài)的對(duì)數(shù)概率處理器。
這些設(shè)計(jì)有助于確保Manus 代理循環(huán)保持穩(wěn)定——即使在模型驅(qū)動(dòng)架構(gòu)下也是如此。
將文件系統(tǒng)用作上下文
現(xiàn)代前沿的LLMs 現(xiàn)在提供 128K Token或更多的上下文窗口。但在現(xiàn)實(shí)世界的智能代理場景中,這通常不夠,有時(shí)甚至成為負(fù)擔(dān)。有三個(gè)常見的痛點(diǎn):
觀察內(nèi)容可能非常龐大,尤其是當(dāng)代理與網(wǎng)頁或PDF 等非結(jié)構(gòu)化數(shù)據(jù)交互時(shí)。很容易超出上下文限制。
即使窗口技術(shù)上支持,模型性能在超過某個(gè)上下文長度后往往會(huì)下降。
長輸入代價(jià)高昂,即使使用前綴緩存也是如此。你仍然需要為傳輸和預(yù)填充每個(gè)標(biāo)記付費(fèi)。
為了解決這個(gè)問題,許多智能體系統(tǒng)實(shí)施了上下文截?cái)嗷驂嚎s策略。但過度壓縮不可避免地導(dǎo)致信息丟失。問題是根本性的:智能體本質(zhì)上必須基于所有先前狀態(tài)來預(yù)測(cè)下一步動(dòng)作——而你無法可靠地預(yù)測(cè)哪條觀察在十步之后可能變得關(guān)鍵。從邏輯角度看,任何不可逆的壓縮都存在風(fēng)險(xiǎn)。
這就是為什么我們將文件系統(tǒng)視為Manus 中的終極上下文:大小無限,天生持久,并且可以由智能體自身直接操作。模型學(xué)會(huì)按需寫入和讀取文件——不僅將文件系統(tǒng)用作存儲(chǔ),更作為結(jié)構(gòu)化的外部記憶。

我們的壓縮策略始終設(shè)計(jì)為可恢復(fù)的。例如,只要保留網(wǎng)址,網(wǎng)頁內(nèi)容就可以從上下文中刪除;只要沙盒中仍有文檔路徑,文檔內(nèi)容也可以省略。這使得Manus 能夠縮短上下文長度而不永久丟失信息。
在開發(fā)此功能時(shí),我不禁想象,狀態(tài)空間模型(SSM)要在具代理性的環(huán)境中有效工作需要什么條件。與 Transformer 不同,SSM 缺乏完全的注意力機(jī)制,難以處理長距離的向后依賴。但如果它們能掌握基于文件的記憶——將長期狀態(tài)外部化而非保存在上下文中——那么它們的速度和效率可能會(huì)開啟新一代代理。具代理性的 SSM 或許才是神經(jīng)圖靈機(jī)的真正繼任者。
通過背誦操控注意力
如果你使用過Manus,可能會(huì)注意到一個(gè)有趣的現(xiàn)象:在處理復(fù)雜任務(wù)時(shí),它傾向于創(chuàng)建一個(gè) todo.md 文件,并隨著任務(wù)的推進(jìn)逐步更新,勾選已完成的事項(xiàng)。
這不僅僅是可愛的行為——這是一種有意操控注意力的機(jī)制。

Manus 中的一個(gè)典型任務(wù)平均需要大約 50 次工具調(diào)用。這是一個(gè)較長的循環(huán)——由于 Manus 依賴 LLMs 進(jìn)行決策,因此在長上下文或復(fù)雜任務(wù)中,容易偏離主題或忘記之前的目標(biāo)。
通過不斷重寫待辦事項(xiàng)清單,Manus 將其目標(biāo)反復(fù)寫入上下文末尾。這將全局計(jì)劃推入模型的近期注意力范圍,避免了“中途丟失”問題,減少了目標(biāo)不一致的情況。實(shí)際上,它利用自然語言來引導(dǎo)自身關(guān)注任務(wù)目標(biāo)——無需特殊的架構(gòu)改動(dòng)。
保留錯(cuò)誤信息
智能體會(huì)犯錯(cuò)。這不是漏洞——這是現(xiàn)實(shí)。語言模型會(huì)產(chǎn)生幻覺,環(huán)境會(huì)返回錯(cuò)誤,外部工具會(huì)出現(xiàn)異常,意外的邊緣情況時(shí)常發(fā)生。在多步驟任務(wù)中,失敗不是例外;它是循環(huán)的一部分。
然而,一個(gè)常見的沖動(dòng)是隱藏這些錯(cuò)誤:清理痕跡,重試操作,或重置模型狀態(tài),寄希望于神奇的“溫度”參數(shù)。這看起來更安全、更可控。但這付出了代價(jià):抹去失敗就抹去了證據(jù)。沒有證據(jù),模型就無法適應(yīng)。

根據(jù)我們的經(jīng)驗(yàn),改善智能體行為的最有效方法之一看似簡單:在上下文中保留錯(cuò)誤的路徑。當(dāng)模型看到失敗的操作及其產(chǎn)生的觀察結(jié)果或堆棧跟蹤時(shí),它會(huì)隱式地更新內(nèi)部信念。這會(huì)使其先驗(yàn)偏離類似的操作,從而減少重復(fù)同樣錯(cuò)誤的可能性。
事實(shí)上,我們認(rèn)為錯(cuò)誤恢復(fù)是衡量真正智能體行為的最明確指標(biāo)之一。然而,在大多數(shù)學(xué)術(shù)研究和公開基準(zhǔn)測(cè)試中,這一指標(biāo)仍然被忽視,這些研究和測(cè)試通常側(cè)重于理想條件下的任務(wù)成功率。
避免被少量示例限制
少量示例提示是提升LLM 輸出的常用技巧。但在智能體系統(tǒng)中,它可能以微妙的方式適得其反。
語言模型擅長模仿;它們會(huì)復(fù)制上下文中的行為模式。如果你的上下文充滿了類似的過去動(dòng)作-觀察對(duì),模型往往會(huì)遵循這種模式,即使這已不再是最優(yōu)選擇。
在涉及重復(fù)決策或操作的任務(wù)中,這可能會(huì)帶來危險(xiǎn)。例如,在使用Manus 幫助審查一批 20 份簡歷時(shí),代理經(jīng)常陷入一種節(jié)奏——僅僅因?yàn)樯舷挛闹谐霈F(xiàn)了類似內(nèi)容,就重復(fù)執(zhí)行相似的操作。這會(huì)導(dǎo)致偏離、過度泛化,甚至有時(shí)產(chǎn)生幻覺。

解決方法是增加多樣性。Manus 在動(dòng)作和觀察中引入少量結(jié)構(gòu)化的變化——不同的序列化模板、替代表達(dá)、順序或格式上的細(xì)微噪聲。這種受控的隨機(jī)性有助于打破模式,調(diào)整模型的注意力。
換句話說,不要讓少量示例把自己限制在固定模式中。上下文越統(tǒng)一,代理就越脆弱。
結(jié)論
上下文工程仍是一門新興科學(xué)——但對(duì)于代理系統(tǒng)來說,它已經(jīng)至關(guān)重要。模型可能變得更強(qiáng)大、更快速、更廉價(jià),但再強(qiáng)的原始能力也無法替代記憶、環(huán)境和反饋的需求。你如何塑造上下文,最終決定了代理的行為:運(yùn)行速度、恢復(fù)能力以及擴(kuò)展范圍。
在Manus,我們通過反復(fù)重寫、走過死胡同以及在數(shù)百萬用戶中的實(shí)際測(cè)試,學(xué)到了這些經(jīng)驗(yàn)。我們?cè)谶@里分享的內(nèi)容并非普遍真理,但這些是對(duì)我們有效的模式。如果它們能幫助你避免哪怕一次痛苦的迭代,那么這篇文章就達(dá)到了它的目的。
智能代理的未來將由一個(gè)個(gè)情境逐步構(gòu)建。精心設(shè)計(jì)每一個(gè)情境。
原文標(biāo)題 : Manus“刪博、裁員、跑路新加坡”后,創(chuàng)始人首次復(fù)盤經(jīng)驗(yàn)教訓(xùn)
發(fā)表評(píng)論
請(qǐng)輸入評(píng)論內(nèi)容...
請(qǐng)輸入評(píng)論/評(píng)論長度6~500個(gè)字
圖片新聞
-

落地?zé)o錫!京東首個(gè)物流機(jī)器人超級(jí)工廠來了
-

OpenAI發(fā)布的AI瀏覽器,市場為何反應(yīng)強(qiáng)烈?
-

馬云重返一線督戰(zhàn),阿里重啟創(chuàng)始人模式
-

機(jī)器人奧運(yùn)會(huì)戰(zhàn)報(bào):宇樹機(jī)器人摘下首金,天工Ultra搶走首位“百米飛人”
-

存儲(chǔ)圈掐架!江波龍起訴佰維,索賠121萬
-

長安汽車母公司突然更名:從“中國長安”到“辰致科技”
-

豆包前負(fù)責(zé)人喬木出軌BP后續(xù):均被辭退
-

字節(jié)AI Lab負(fù)責(zé)人李航卸任后返聘,Seed進(jìn)入調(diào)整期
最新活動(dòng)更多
-
即日-5.20立即下載>> 【限時(shí)免費(fèi)】物理場仿真助力生物醫(yī)學(xué)領(lǐng)域技術(shù)創(chuàng)新
-
精彩回顧立即查看>> 【直播】 智測(cè)未來·2026海克斯康春季產(chǎn)品創(chuàng)新日
-
精彩回顧立即查看>> 【線下論壇】新唐科技×芯唐南京 2026 年度研討會(huì)
-
精彩回顧立即查看>> OFweek 2026(第十五屆)中國機(jī)器人產(chǎn)業(yè)大會(huì)
-
精彩回顧立即查看>> 維科杯· OFweek 2025中國機(jī)器人行業(yè)年度評(píng)選
-
精彩回顧立即查看>> 【在線會(huì)議】液冷服務(wù)器信號(hào)完整性及冷卻液關(guān)鍵電參數(shù)測(cè)試
推薦專題
- 1 特斯拉Optimus Gen3量產(chǎn)在即,哪些環(huán)節(jié)最具確定性?
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實(shí)測(cè):中文穩(wěn)、細(xì)節(jié)炸,設(shè)計(jì)師慌了
- 3 AI狂歡遇上油價(jià)破百,全球股市還能漲多久? | 產(chǎn)聯(lián)看全球
- 4 6000億美元估值錨定:字節(jié)跳動(dòng)的“去單一化”突圍與估值重構(gòu)
- 5 Tesla AI5芯片最新進(jìn)展總結(jié)
- 6 連夜測(cè)了一波DeepSeek-V4,我發(fā)現(xiàn)它可能只剩“審美”這個(gè)短板了
- 7 熱點(diǎn)丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 8 2026,人形機(jī)器人只贏了面子
- 9 AI界的殺豬盤:9秒刪庫跑路,全員被封號(hào),還繼續(xù)扣錢!
- 10 AI Infra產(chǎn)業(yè)鏈卡在哪里了?
- 高級(jí)軟件工程師 廣東省/深圳市
- 自動(dòng)化高級(jí)工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級(jí)銷售經(jīng)理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術(shù)專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結(jié)構(gòu)工程師 廣東省/深圳市


分享





