訂閱
糾錯
加入自媒體

DeepSeek需要重走來時路

2026-04-20 11:26
超聚焦
關(guān)注

別讓梁文峰太累了

DeepSeek融資了,能讓大家敞開了燒Token嗎?

4月18日,據(jù)上海證券報消息,DeepSeek正式啟動了成立以來的首次外部融資,目標(biāo)估值不低于100億美元,計劃籌集至少3億美元資金。上海證券報記者求證稱,有接近人士表示“很有可能”,還有不少投資人稱:“圈里信息已經(jīng)‘炸了’。”

截至目前,深度求索公司方面尚未就此次融資消息作出官方回應(yīng)。路透社表示無法獨立核實此消息,但在The Information發(fā)布報道后,Reuters、Yahoo Finance、Investing等主流財經(jīng)媒體相繼跟進(jìn)轉(zhuǎn)載。

在資本圈的狂歡之外,回歸到大模型落地的現(xiàn)實里,其實DeepSeek要面臨的問題不少,大家對其的期許也有不同。

相比R1模型發(fā)布時被捧上天,新一代旗艦?zāi)P桶l(fā)布前的DS顯然承擔(dān)著外界更大的期許和壓力;而比起跑分、SOTA,在Agent時代里,大家顯然更關(guān)注的是,DeepSeek當(dāng)初在訓(xùn)練端打出的“成本通縮”,能否重現(xiàn)于如今依然高昂的推理端?

01

市場不需要能力更強的R1

DeepSeek的新模型,已經(jīng)“跳票”很久了。

1月中旬,The Information率先爆料稱,DeepSeek計劃在2026年2月正式發(fā)布下一代模型,并聲稱其編程實力已趕超Claude、GPT系列等頂尖閉源模型。然而整個2月,官方始終保持靜默。

到了2月底,隨著官方GitHub代碼庫中出現(xiàn)“MODEL1”等標(biāo)識,加上金融時報等媒體和券商研報的發(fā)聲,市場又傳出了新模型將在3月6日當(dāng)周發(fā)布的消息,結(jié)果依然是“只聞樓梯響”。

3月中旬,市場傳言又有相關(guān)流言傳出,甚至一度引發(fā)了A股算力板塊的上漲,針對該傳聞,DeepSeek官方企業(yè)咨詢賬號在用戶群中回應(yīng):“辟謠:R2發(fā)布為假消息”。

到了4月中旬,大家苦等不來新模型,但DS的前核心研究員卻選擇了加入其它大廠。

據(jù)晚點報道, DeepSeek研究員郭達(dá)雅已經(jīng)加入字節(jié)跳動負(fù)責(zé)大模型研發(fā)的組織Seed,成為agent負(fù)責(zé)人之一。而此前其離職是因為當(dāng)時DeepSeek內(nèi)部Agent的優(yōu)先級不高,但2026年Agent的火熱,也反襯出了DeepSeek在當(dāng)下這個節(jié)點上的某種尷尬:

一邊是自己曾經(jīng)“輕視”的賽道如今成了全行業(yè)的主戰(zhàn)場,甚至要被對手用自己的人才攻城略地;另一邊,卻是自己死磕并被外界寄予厚望的底層新模型,遲遲交不出答卷。

大模型圈在過去這一年里經(jīng)歷了翻天覆地的變化,也許是時候放下對DeepSeek那層“無所不能”的技術(shù)濾鏡了。

畢竟在DeepSeek沒有發(fā)布旗艦?zāi)P偷倪@一年多空窗期里,整個大模型行業(yè)比拼的早已不是通用的基座能力。

首先,是原生多模態(tài)對純文本大模型的降維打擊。 

當(dāng)Gemini帶著Nano Banana 2等模型在圖像生成與編輯上大殺四方,當(dāng)Seedance 2.0在視頻生成領(lǐng)域狂飆時,單一文本模型的護(hù)城河正在被迅速瓦解。無論是行業(yè)競爭還是用戶需求,早已跨過了純文本跑分的階段,邁向了圖、文、視、音全面融合的深水區(qū),成為了頭部大模型的標(biāo)配。

另一邊,Coding市場也迎來了徹底爆發(fā)。

作為最能直接轉(zhuǎn)化為生產(chǎn)力的高價值垂直場景,AI Coding的商業(yè)化空間在過去一年迎來了真正的狂飆。以Claude為代表的模型在這個細(xì)分賽道上展現(xiàn)出了驚人的統(tǒng)治力,甚至借力將ARR超過了OpenAI;而Cursor最新一輪融資后的估值也超過了500億美元。

同時,2026年的Agent繁榮也帶來了Token消耗的狂歡。

從OpenClaw到Hermas,都在將大模型的調(diào)用頻次推向指數(shù)級增長。智譜、MiniMax、Kimi等廠商都憑借著海量的API調(diào)用狂賣Token,在推理端悶聲發(fā)大財,甚至還推動了阿里、智譜和MiniMax轉(zhuǎn)向閉源。

DeepSeek如果想要復(fù)刻R1發(fā)布時的“全網(wǎng)沸騰”,它面臨的早已不是單點突破的考卷,而是必須要在多模態(tài)、代碼生成、Agent生態(tài)上全面多線出擊。

但如今的每一條細(xì)分賽道上,都有了“最高的山峰和最長的河流”,多模態(tài)有谷歌和字節(jié)的重兵把守,代碼戰(zhàn)場是Claude絕對的天下,而在Agent與Token消耗的生態(tài)里,更是擠滿了紅了眼的其他多模型巨頭。

如果期望DeepSeek能掏出一個全知全能、在各個維度全面碾壓所有頂尖大廠的“六邊形戰(zhàn)士”,既不符合技術(shù)演進(jìn)的常識,也違背了當(dāng)下AI產(chǎn)業(yè)的客觀規(guī)律。

比起繼續(xù)沉溺于“拳打OpenAI、腳踢Claude”的技術(shù)造神敘事,對于眼下正在艱難算賬的整個AI應(yīng)用層而言,大家真正迫切需要的,其實是一個遠(yuǎn)比“跑分SOTA”更性感、也更具想象力的東西。

02

“價格屠夫”仍是DeepSeek的歸宿

當(dāng)前所有AI使用者最需要的,也是DeepSeek最可能為市場帶來的,是一個叫“Token通縮”的故事。

一年前R1橫空出世時,它給整個全球AI圈帶來的最大“暴擊”,其實不單單是某幾項評測指標(biāo)超越了GPT-4,而是R1真的太便宜了。

在全行業(yè)都篤信“大力出奇跡”,覺得只有像Altman、馬斯克那樣堆滿幾萬張老黃的頂級GPU才能訓(xùn)練出旗艦?zāi)P,但DeepSeek僅用了約558萬美元的訓(xùn)練算例成本,就撞開了頂尖基座模型的大門,相比之下,GPT-4訓(xùn)練成本高達(dá)數(shù)億美元。

如此低廉的訓(xùn)練成本在當(dāng)時引起了AI算力市場的“恐慌”。

去年1月27日,DeepSeek發(fā)布其新AI模型后,美股市場出現(xiàn)了劇烈波動。其中,芯片巨頭英偉達(dá)股價暴跌16.97%,市值在單個交易日內(nèi)蒸發(fā)了約5926.58億美元(約合人民幣4.3萬億元),創(chuàng)下美股史上最大單日市值損失紀(jì)錄。

除了英偉達(dá)外,其他美國科技巨頭也未能幸免。博通股價下跌17.4%,超威半導(dǎo)體公司(AMD)股價下跌6%,微軟股價下跌2.14%,谷歌母公司Alphabet股價下跌超過4%。

彼時,DeepSeek用一套極致優(yōu)化的算法和工程架構(gòu)向全行業(yè)證明:智能的獲取成本是可以被打骨折的,并在一年前創(chuàng)下了“訓(xùn)練端通縮奇跡”。

市場普遍擔(dān)憂AI硬件基礎(chǔ)設(shè)施的泡沫是不是馬上就要破了?但一年多后的今天,大家發(fā)現(xiàn)根本不用擔(dān)心大廠還需要買多少卡,而是自己的錢包還能不能撐得起逐級而上的Token消耗。

據(jù)中信證券,Agent帶來的巨大Token消耗需求驅(qū)動了“老舊款”AI芯片H100租賃價格從2025年10月的約1.70美元/小時/GPU飆升至2026年3月的2.35美元/小時/GPU,漲幅近40%。

在云端,3月到4月間,國內(nèi)頭部云廠商接連調(diào)價,打破了行業(yè)長期低價競爭慣性。阿里云4月18日起AI算力產(chǎn)品最高漲幅34%,高性能存儲漲幅30%;百度智能云AI算力產(chǎn)品上調(diào)5%-30%;騰訊云5月9日起AI算力等產(chǎn)品上調(diào)5%。全球范圍內(nèi),亞馬遜AWS已于1月對機器學(xué)習(xí)實例上調(diào)價格約15%,谷歌云也進(jìn)行小幅調(diào)整。

為了降低Token消耗,巨頭企業(yè)也出現(xiàn)了組織架構(gòu)上的變陣。

3月,阿里宣布成立Alibaba Token Hub(ATH)事業(yè)群,CEO吳泳銘親自掛帥,核心目標(biāo)就是圍繞“創(chuàng)造Token、輸送Token、應(yīng)用Token”來統(tǒng)籌AI業(yè)務(wù)。換句話來說,就是阿里看到了未來Token巨大的Token消耗,現(xiàn)在要從集團(tuán)層面上來統(tǒng)籌調(diào)配Token了。

到了用戶端的體感就更加明顯,曾經(jīng)那場免費送Token額度的“價格戰(zhàn)”早已鳴金收兵。

現(xiàn)在一個看似簡單的用戶指令,后臺往往伴隨著十幾次的循環(huán)反思、工具調(diào)用以及幾萬Token的上下文反復(fù)重載。而每個Token的消耗,都是在實打?qū)嵉責(zé)X。

而巧的是,看起來過去一年里,DeepSeek也沒有停下來Token降本的步伐。

今年元旦假期,DeepSeek提出了一種名為mHC的新架構(gòu)。該研究旨在解決傳統(tǒng)超連接在大規(guī)模模型訓(xùn)練中的不穩(wěn)定性問題,同時保持其顯著的性能增益,讓算力有限的中小AI企業(yè),也能嘗試開發(fā)更復(fù)雜的大模型。

不久后,DeepSeek開源了名為Engram的模塊,并同時發(fā)布了與北京大學(xué)聯(lián)合撰寫的論文,闡述了一種新的大模型稀疏化方向:條件存儲(Conditional Memory)。

而這兩篇論文都體現(xiàn)了DeepSeek一直以來的方向:打破算力成本硬約束,通過架構(gòu)、方法論創(chuàng)新,走出更具性價比的道路。

既然DeepSeek當(dāng)初能憑一己之力,在訓(xùn)練端把競爭對手們上億美金的訓(xùn)練成本打到骨折價,打出讓英偉達(dá)一夜暴跌的通縮效應(yīng);那么一年后的梁文峰,又能否在Token消耗逐漸成為天量的現(xiàn)在,在推理端再當(dāng)一次“價格屠夫”,把全行業(yè)的Token單價打個骨折呢?

- END -

       原文標(biāo)題 : DeepSeek需要重走來時路

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號