訂閱
糾錯
加入自媒體

胡柏山掌管vivo后:不在只做手機

2026-04-08 10:07
智百道
關注

圖片

文 / 郭靜 

來源 / 節(jié)點AI 

如果把人工智能簡單類比為讓機器擁有人類相當智能的話,從今天大語言模型的發(fā)展來看,編程、圖像生成、文字處理上,AI 已經可以替代不少職場新人了。

但喊"AI 替代人類"還是太早了。

人還有空間感知、嗅覺、觸覺等能力,今天的大模型,離真正讀懂物理世界,中間還有一道鴻溝。這條路,也被黃仁勛和李飛飛都認為它是通往 AGI 的必經之路。

那這道鴻溝該怎么填?

vivo 總裁兼首席運營官胡柏山,在博鰲亞洲論壇上給出了一個很直接的判斷:在明確的物理大模型沒有出來之前,要有好的體驗,就要把物理世界的信息轉化到數字世界。

他相信這件事應該用手機去做。甚至在未來十年里,其他設備都很難替代。

物理 AI 目前仍是一片處女地。真正落地前,任何好奇心與想象力,都值得剖析。我們想拆解一下這位行業(yè)老兵的觀點:他看到了什么,押注了什么,以及這個賭局的贏面有多大。

感知才是 AI 時代的關鍵

圖片

AI 手機、端側模型、具身智能,近兩年行業(yè)的風口,一個接一個,讓人們應接不暇。怕錯過的情緒下,手機品牌紛紛加速布局AI 手機,行業(yè)一度認為,模型能力會成為手機廠商的護城河。

胡柏山不這么看。他指出,相比模型而言,積累下來的場景數據才最有差異化。

簡單理解,就是AI對具體物理場景的感知。

胡柏山在博鰲論壇里用了一個比喻:沒有感知能力,AI 就像困在黑屋子里的大師,能力再高,也看不見咫尺之外的世界。

他的理解是這樣的:未來模型會越來越同質化,開源速度越來越快,大家之間的差距越來越小。

仔細想想其實也不無道理,DeepSeek 去年炸開了開源大模型的口子,時隔一年,目前國產開源模型,并不是deepseek獨領風騷,而是智譜、mini Max、kimi等紛紛追了上來。如果手機企業(yè)只是給增加個ai能力的話,那確實看不出彼此之間的差異點。

胡柏山認為,vivo的差異點可以是感知。

何為感知?你可能會認為這是觸覺、嗅覺。但vivo給出了自己的理解——讀懂光影,讀懂空間,讀懂場景里發(fā)生了什么,甚至讀懂人的情緒狀態(tài)。

未雨綢繆,他在博鰲提到了一件 vivo 內部剛剛落定的事:今年,vivo 正式成立了一條新的長技術賽道——感知賽道。

但物理ai才處于起步階段,行業(yè)也沒有現成的開源方案可以借鑒,真正落地難度可不低。胡柏山自己也承認:這個領域開源資源少,需要自主探索。

方向選對了,不等于路就好走,接下來,我們要看vivo是如何獲得感知的能力。

感知的抓手是什么?

圖片

胡柏山認為,讓 AI 走進物理世界,需要一套感知系統(tǒng)做支持。而vivo 訓練感知系統(tǒng)的核心抓手,是影像。

具體怎么做?我翻看胡柏山的演講與專訪,可以總結為,軟硬協(xié)同,用硬件收集數據,用軟件轉化為感知數據,形成數據壁壘。

先看硬件。

很多人看到 AI 預訓練數據,會想到圖片、文本語料。但具身智能的數據不同:機器要學人在現實世界的行為,一個典型的場景是:人先做動作,機器在旁邊觀看、采集。

vivo 收集數據靠的是影像那雙眼睛。

vivo指出,X300 Ultra 的主攝傳感器升到了 1/1.12 英寸。和索尼的合作則在往半導體轉化效率的方向走,比如,胡柏山提到了一種新技術路徑,能把感光元件的進光轉化率從 90% 推到 110% 以上。

胡柏山的判斷和行業(yè)觀察者大致相同:傳感器尺寸已經卷到了邊際收益遞減的階段,更大的空間在轉化效率和外掛形態(tài)。X300 Ultra 上已經做了 200mm、400mm 定焦增距鏡,還有更多在路上——硬件的不斷升級,這都有助于vivo理解用戶。

但光"看見"不夠,還得"看懂"。

再看軟件。

vivo 在端側部署了多個專項 agent。一個能判斷你在拍什么、用什么焦段、什么光線;另一個整理你的相冊,根據修圖習慣推薦濾鏡,甚至自動把素材剪成短視頻。

看到這你可能會問數據隱私,這不必擔心,vivo依賴的并非云端ai,而是端側AI,具備低延遲、高隱私、弱依賴網絡的特點。長此以往,就能更貼合用戶場景的數據,構建上文所說的差異化。

總體而言,vivo 要做的是把視覺、聽覺、觸覺等多種感官信息,通過傳感器結合大模型,轉化為機器能理解的物理世界信息。

從目前來看,vivo 已經在布局定制算力芯片和 3B 參數的端側模型,接下來要保障大規(guī)模商用后的穩(wěn)定輸出,讓想法真正落地。

胡柏山判斷,未來,手機將會從 Smartphone 進化為 Agent Phone,這時候手機將不會再是工具,而是伙伴。

這里,我也要指出,這個愿景能走多遠,取決于一個關鍵問題:端側的數據飛輪能不能真正轉起來?如果 Agent Phone 的體驗不夠驚艷,用戶不買賬,數據就無法積攢,這是一個先有雞還是先有蛋的挑戰(zhàn)。

機器人落地十年不晚?

圖片

Agent Phone 之外,vivo 也在嘗試將技術邊界拓展到機器人領域。

這背后是胡柏山對未來技術結構的理解:AI 與機器人分別代表數字世界與物理世界最核心的技術方向,而手機憑借最廣泛的用戶基礎和數據入口,可能成為連接兩者的中樞。他在博鰲論壇群訪中說得直接:手機連接數字世界,機器人連接物理世界,兩者最終可能形成統(tǒng)一的技術體系。

vivo 已經在為這個目標布局。2025 年,vivo 成立了機器人 Lab,重點攻關機器人的"大腦"和"眼睛",并將家庭場景作為長期方向。

胡柏山比較謹慎,資源主要聚焦在用戶場景下最關鍵的技術點上。

vivo 機器人 Lab 首席科學家邵浩給用戶場景一個具體定義:涵蓋從用戶進門脫下外套開始,涵蓋洗衣、烘干、收納等流程的完整閉環(huán)。

當然,vivo并不是說大話,他們并不想一步到位做到完全自主的 L4 級別。而是給出了一個大概的時間線:一開始可能 95% 的操作得靠人機協(xié)同,慢慢的,人插手的比例降到 60%、30%,十年后,才是 0%。

胡柏山管這個策略叫沿途下蛋,在《節(jié)點AI》看來,這種漸進式策略,還是比較清醒的。因為機器人賽道的技術成熟度,遠未到消費級普及的臨界點。過早追求全自主成本過高。

圖片

vivo希望的是,從人機協(xié)同起步,用真實場景數據迭代模型,看到這,你是不是發(fā)現,這和手機領域數據是競爭壁壘的邏輯幾乎一樣。先跑通數據,再說具體的落地,方向有了,技術成熟了,一切自然水到渠成。

這套邏輯也面臨挑戰(zhàn)。

小米在機器人賽道布局更早、更廣,已經投了一批產業(yè)鏈公司。華為憑借鴻蒙系統(tǒng)的生態(tài)優(yōu)勢,也具備切入機器人操作系統(tǒng)的條件。vivo 選擇只做"大腦和眼睛"、把硬件交給供應鏈伙伴,資產更輕,但對產業(yè)鏈的掌控力也更弱。

胡柏山的暢想能否跑通,取決手機主業(yè)能否持續(xù)輸血,AI 能力能否持續(xù)領先,機器人商業(yè)化節(jié)奏能否匹配預期。一個都不能掉鏈子。

胡柏山在博鰲說過一句話:認知到了加油門,認知沒到寧可慢。

這句話很實在。五到十年的賽道周期里,或許比的不是誰先跑的快,而是誰能在這條賽道上笑到最后。

在《節(jié)點AI》看來,vivo已經描繪好自己未來的十年藍圖,接下來是一步步落地。

*題圖由AI生成

       原文標題 : 胡柏山掌管vivo后:不在只做手機

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號