胡柏山掌管vivo后:不在只做手機

文 / 郭靜
來源 / 節點AI
如果把人工智能簡單類比為讓機器擁有人類相當智能的話,從今天大語言模型的發展來看,編程、圖像生成、文字處理上,AI 已經可以替代不少職場新人了。
但喊"AI 替代人類"還是太早了。
人還有空間感知、嗅覺、觸覺等能力,今天的大模型,離真正讀懂物理世界,中間還有一道鴻溝。這條路,也被黃仁勛和李飛飛都認為它是通往 AGI 的必經之路。
那這道鴻溝該怎么填?
vivo 總裁兼首席運營官胡柏山,在博鰲亞洲論壇上給出了一個很直接的判斷:在明確的物理大模型沒有出來之前,要有好的體驗,就要把物理世界的信息轉化到數字世界。
他相信這件事應該用手機去做。甚至在未來十年里,其他設備都很難替代。
物理 AI 目前仍是一片處女地。真正落地前,任何好奇心與想象力,都值得剖析。我們想拆解一下這位行業老兵的觀點:他看到了什么,押注了什么,以及這個賭局的贏面有多大。
感知才是 AI 時代的關鍵

AI 手機、端側模型、具身智能,近兩年行業的風口,一個接一個,讓人們應接不暇。怕錯過的情緒下,手機品牌紛紛加速布局AI 手機,行業一度認為,模型能力會成為手機廠商的護城河。
胡柏山不這么看。他指出,相比模型而言,積累下來的場景數據才最有差異化。
簡單理解,就是AI對具體物理場景的感知。
胡柏山在博鰲論壇里用了一個比喻:沒有感知能力,AI 就像困在黑屋子里的大師,能力再高,也看不見咫尺之外的世界。
他的理解是這樣的:未來模型會越來越同質化,開源速度越來越快,大家之間的差距越來越小。
仔細想想其實也不無道理,DeepSeek 去年炸開了開源大模型的口子,時隔一年,目前國產開源模型,并不是deepseek獨領風騷,而是智譜、mini Max、kimi等紛紛追了上來。如果手機企業只是給增加個ai能力的話,那確實看不出彼此之間的差異點。
胡柏山認為,vivo的差異點可以是感知。
何為感知?你可能會認為這是觸覺、嗅覺。但vivo給出了自己的理解——讀懂光影,讀懂空間,讀懂場景里發生了什么,甚至讀懂人的情緒狀態。
未雨綢繆,他在博鰲提到了一件 vivo 內部剛剛落定的事:今年,vivo 正式成立了一條新的長技術賽道——感知賽道。
但物理ai才處于起步階段,行業也沒有現成的開源方案可以借鑒,真正落地難度可不低。胡柏山自己也承認:這個領域開源資源少,需要自主探索。
方向選對了,不等于路就好走,接下來,我們要看vivo是如何獲得感知的能力。
感知的抓手是什么?

胡柏山認為,讓 AI 走進物理世界,需要一套感知系統做支持。而vivo 訓練感知系統的核心抓手,是影像。
具體怎么做?我翻看胡柏山的演講與專訪,可以總結為,軟硬協同,用硬件收集數據,用軟件轉化為感知數據,形成數據壁壘。
先看硬件。
很多人看到 AI 預訓練數據,會想到圖片、文本語料。但具身智能的數據不同:機器要學人在現實世界的行為,一個典型的場景是:人先做動作,機器在旁邊觀看、采集。
vivo 收集數據靠的是影像那雙眼睛。
vivo指出,X300 Ultra 的主攝傳感器升到了 1/1.12 英寸。和索尼的合作則在往半導體轉化效率的方向走,比如,胡柏山提到了一種新技術路徑,能把感光元件的進光轉化率從 90% 推到 110% 以上。
胡柏山的判斷和行業觀察者大致相同:傳感器尺寸已經卷到了邊際收益遞減的階段,更大的空間在轉化效率和外掛形態。X300 Ultra 上已經做了 200mm、400mm 定焦增距鏡,還有更多在路上——硬件的不斷升級,這都有助于vivo理解用戶。
但光"看見"不夠,還得"看懂"。
再看軟件。
vivo 在端側部署了多個專項 agent。一個能判斷你在拍什么、用什么焦段、什么光線;另一個整理你的相冊,根據修圖習慣推薦濾鏡,甚至自動把素材剪成短視頻。
看到這你可能會問數據隱私,這不必擔心,vivo依賴的并非云端ai,而是端側AI,具備低延遲、高隱私、弱依賴網絡的特點。長此以往,就能更貼合用戶場景的數據,構建上文所說的差異化。
總體而言,vivo 要做的是把視覺、聽覺、觸覺等多種感官信息,通過傳感器結合大模型,轉化為機器能理解的物理世界信息。
從目前來看,vivo 已經在布局定制算力芯片和 3B 參數的端側模型,接下來要保障大規模商用后的穩定輸出,讓想法真正落地。
胡柏山判斷,未來,手機將會從 Smartphone 進化為 Agent Phone,這時候手機將不會再是工具,而是伙伴。
這里,我也要指出,這個愿景能走多遠,取決于一個關鍵問題:端側的數據飛輪能不能真正轉起來?如果 Agent Phone 的體驗不夠驚艷,用戶不買賬,數據就無法積攢,這是一個先有雞還是先有蛋的挑戰。
機器人落地十年不晚?

Agent Phone 之外,vivo 也在嘗試將技術邊界拓展到機器人領域。
這背后是胡柏山對未來技術結構的理解:AI 與機器人分別代表數字世界與物理世界最核心的技術方向,而手機憑借最廣泛的用戶基礎和數據入口,可能成為連接兩者的中樞。他在博鰲論壇群訪中說得直接:手機連接數字世界,機器人連接物理世界,兩者最終可能形成統一的技術體系。
vivo 已經在為這個目標布局。2025 年,vivo 成立了機器人 Lab,重點攻關機器人的"大腦"和"眼睛",并將家庭場景作為長期方向。
胡柏山比較謹慎,資源主要聚焦在用戶場景下最關鍵的技術點上。
vivo 機器人 Lab 首席科學家邵浩給用戶場景一個具體定義:涵蓋從用戶進門脫下外套開始,涵蓋洗衣、烘干、收納等流程的完整閉環。
當然,vivo并不是說大話,他們并不想一步到位做到完全自主的 L4 級別。而是給出了一個大概的時間線:一開始可能 95% 的操作得靠人機協同,慢慢的,人插手的比例降到 60%、30%,十年后,才是 0%。
胡柏山管這個策略叫沿途下蛋,在《節點AI》看來,這種漸進式策略,還是比較清醒的。因為機器人賽道的技術成熟度,遠未到消費級普及的臨界點。過早追求全自主成本過高。

vivo希望的是,從人機協同起步,用真實場景數據迭代模型,看到這,你是不是發現,這和手機領域數據是競爭壁壘的邏輯幾乎一樣。先跑通數據,再說具體的落地,方向有了,技術成熟了,一切自然水到渠成。
這套邏輯也面臨挑戰。
小米在機器人賽道布局更早、更廣,已經投了一批產業鏈公司。華為憑借鴻蒙系統的生態優勢,也具備切入機器人操作系統的條件。vivo 選擇只做"大腦和眼睛"、把硬件交給供應鏈伙伴,資產更輕,但對產業鏈的掌控力也更弱。
胡柏山的暢想能否跑通,取決手機主業能否持續輸血,AI 能力能否持續領先,機器人商業化節奏能否匹配預期。一個都不能掉鏈子。
胡柏山在博鰲說過一句話:認知到了加油門,認知沒到寧可慢。
這句話很實在。五到十年的賽道周期里,或許比的不是誰先跑的快,而是誰能在這條賽道上笑到最后。
在《節點AI》看來,vivo已經描繪好自己未來的十年藍圖,接下來是一步步落地。
*題圖由AI生成
原文標題 : 胡柏山掌管vivo后:不在只做手機
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 特斯拉Optimus Gen3量產在即,哪些環節最具確定性?
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 4 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 5 Tesla AI5芯片最新進展總結
- 6 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 7 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 8 2026,人形機器人只贏了面子
- 9 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 10 AI Infra產業鏈卡在哪里了?


分享













