訂閱
糾錯
加入自媒體

DeepSeek再放大招,國產(chǎn)大模型坐不住了

2026-04-24 18:04
新眸
關(guān)注

DeepSeek V4上桌,牌局又變了。

新眸原創(chuàng)·作者 | 李小東

過去一年多,大模型圈每季度至少經(jīng)歷一次牌面重洗。有人在多模態(tài)端連出三張底牌,有人在Agent賽道一把梭哈,還有人干脆掀了桌子,把模型拆成零件來賣。

但所有人都在等一個人出牌。

這人一年多沒動靜。2025年1月R1發(fā)布之后,他就像從牌桌上消失了。中間V3.1、V3.2、FlashMLA、DualPath這些零零散散的更新,充其量算在桌下?lián)Q了一手牌,沒人知道他手里到底攥著什么。

4月24日,DeepSeek終于把牌撂下來了——V4預(yù)覽版正式上線并開源,兩個版本:V4-Pro和V4-Flash。

Pro對標(biāo)頂級閉源。Agent Coding模式下,內(nèi)部測評體驗優(yōu)于Sonnet 4.5,交付質(zhì)量接近Opus 4.6非思考模式。世界知識測評大幅領(lǐng)先其他開源模型,僅稍遜于Gemini Pro 3.1。數(shù)學(xué)和代碼推理性能上,官方稱“超越當(dāng)前所有已公開評測的開源模型”。

Flash是輕量版,推理能力接近Pro,但參數(shù)和激活更小,API響應(yīng)更快,成本更低。兩款都支持百萬token上下文——而且是標(biāo)配。

問題來了:一家公司,在同行瘋狂跑馬圈地的十五個月里基本沉默,一出手卻直接把自己釘回了行業(yè)錨點,這說明什么?

說明牌桌上的人根本沒離開過。他只是換了一種打法。

01

架構(gòu)的延續(xù)性革命

要理解V4,先得回看V3。

2024年底,當(dāng)時大模型行業(yè)的主流敘事還是“參數(shù)越大越強”。訓(xùn)練一個大幾千億參數(shù)的模型,成本動輒千萬美元起步。DeepSeek V3用6710億總參數(shù)、每次推理激活37B專家的MoE架構(gòu),把單次訓(xùn)練成本壓到了500萬美元出頭。

不靠砍參數(shù)量,靠MoE路由策略、DSA注意力機制和工程層面的極致優(yōu)化,說白了,把每一分算力都花在刀刃上。

V4走的還是這條路,但走到了更遠的地方。

技術(shù)規(guī)格上,V4完整版總參數(shù)躍升至1.6萬億,2850億的Lite版作為更經(jīng)濟的選項。注意力機制升級為DSA2,整合了DeepSeek V3/R1中的DSA設(shè)計,同時引入今年初論文中提出的NSA稀疏注意力方案。MoE系統(tǒng)啟用Mega內(nèi)核結(jié)構(gòu),每層配置384個專家,每次推理激活其中6個。殘差連接沿用Hyper-Connections方案,這條路在近期的DeepGemm更新中已有預(yù)演。

這些名詞堆在一起,外行看著像天書,但業(yè)內(nèi)人一眼就能讀出含義:V4是DeepSeek過去兩年來所有技術(shù)積累的集大成。

但最值得關(guān)注的變化,在于它的實現(xiàn)方式。

V4延期發(fā)布的真正原因,不是什么bug修不完,而是DeepSeek把整套系統(tǒng)從英偉達生態(tài)搬到了華為昇騰芯片上。

這不是換個驅(qū)動的事兒。DeepSeek R1當(dāng)年對英偉達GPU的PTX底層做了極致優(yōu)化,這是它“花小錢辦大事”的核心競爭力。PTX是CUDA生態(tài)里的中間語言,深入到這層,才把當(dāng)時能壓榨的性能都壓了出來。但轉(zhuǎn)到華為昇騰之后,基于英偉達的所有工程積累全部作廢。整套底層代碼、調(diào)度邏輯、工程體系,要重寫一遍。

難度在哪里?大模型參數(shù)達到萬億級別之后,算力壓力從“純計算”轉(zhuǎn)向了“系統(tǒng)調(diào)度與通信”。DeepSeek V4雖然通過MoE降低了單次推理的計算量,但對內(nèi)存帶寬、芯片間互聯(lián)、KV Cache管理的要求反而更高了。

英偉達生態(tài)里,Hub上關(guān)于H100/B200通過NVLink構(gòu)建高帶寬互聯(lián)的討論早已證實,其單節(jié)點GPU間帶寬可達TB/s級別。昇騰在這些指標(biāo)上有明顯差距,更多依賴光模塊進行跨節(jié)點擴展,會引入額外的延遲和同步開銷。軟件層面,昇騰的CANN框架在算子覆蓋、自動并行、內(nèi)核融合等方面的成熟度,與CUDA生態(tài)仍不是同一個量級。

代價就是時間。V4原計劃今年農(nóng)歷新年或2-3月發(fā)布,一路推到4月才亮相。按路透社的報道,V4將運行在華為最新的昇騰芯片上,工程師花了大量時間重寫核心代碼。V4計劃發(fā)布兩個版本:完整版面向華為昇騰芯片,輕量版可在其他國產(chǎn)芯片上運行。

這件事的意義怎么強調(diào)都不過分。過去兩年,大模型世界建了一座巨大工廠,所有的工具、標(biāo)尺、流水線都是英文寫的。你在這個工廠里干活,就必須用別人的工具。英偉達CEO黃仁勛近期的反應(yīng)很能說明問題,他說DeepSeek基于華為平臺的新模型“對美國來說將是一個糟糕的結(jié)果”。這話從英偉達老板嘴里說出來,分量絕對不輕。

一旦有頂級模型在中國國產(chǎn)硬件上跑通了穩(wěn)定高效的推理,美國芯片的護城河就不再牢固。而在4月24日的發(fā)布中,官方已明確回應(yīng),V4在下半年將正式支持華為算力。

02

推理端開始降價百萬token的平權(quán)

架構(gòu)的優(yōu)化落到地面,看的是成本。而成本控制這件事,DeepSeek以前干過一次了。

2025年初,當(dāng)各家大模型還在拼訓(xùn)練端燒錢速度的時候,DeepSeek V3用一套優(yōu)化到極致的MoE加DSA架構(gòu),把同等參數(shù)量級下的訓(xùn)練成本砍到了業(yè)內(nèi)平均水平的幾分之一。有評論稱之為“訓(xùn)練端通縮奇跡”。

但過去一年,AI行業(yè)的問題已經(jīng)從“怎么訓(xùn)出一個好模型”變成了“怎么讓好模型被用得起”。2026年中國日均Token調(diào)用量突破140萬億,兩年間漲了一千多倍。當(dāng)調(diào)用量以這個速度膨脹,推理成本就成了唯一的命門。

V4在推理端做了兩道減法。第一道在架構(gòu)層面:注意力機制從密集計算改為DSA2稀疏注意力,Token維度直接做壓縮。官方表述是“相比傳統(tǒng)方法,對計算和顯存的需求大幅降低”。第二道在精度層面:支持FP4精度,對顯存的要求在FP8基礎(chǔ)上再降一半。

路透社此前報道的推算也佐證了效率控制的成果:V4每個token僅激活約370億參數(shù),推理成本與V3保持在同一量級。參數(shù)量翻了不止一倍,推理成本卻沒漲。這意味著大到需要算力集群的企業(yè),小到調(diào)用API的創(chuàng)業(yè)者,都能在更大規(guī)模的模型上維持相近的預(yù)算。

而DeepSeek長期以來的定價也起到了降低門檻的作用。模型好用,用得便宜,調(diào)用量自然持續(xù)增長。反過來持續(xù)分?jǐn)倲備N研發(fā)投入,再推動更大規(guī)模模型的開放,形成一個正向飛輪。

這個邏輯過去一年在開源模型里跑通了不止一家,V4大概率是這條路上最新的加速器。

V4還有一個容易被忽視的信號:百萬token上下文成為標(biāo)配。

一年前,1M上下文還是Gemini獨家的王牌,其他所有閉源模型普遍在128K或200K之間,開源生態(tài)幾乎沒人碰這個量級。DeepSeek沒有把它包裝成高端增值服務(wù),而是明確宣布從今天開始,V4所有官方服務(wù)的上下文默認都是1M。而且開源。

它的技術(shù)路線也解釋得很干脆。用一種全新的注意力機制在token維度上做壓縮,同時配合DSA稀疏注意力,直接把傳統(tǒng)Attention的計算量和顯存需求量削了下去,使得模型處理1M上下文時的實際開銷并不比處理128K高多少,甚至可以忽略不計。

此前的方案為了支撐長上下文,往往要追加內(nèi)存、增加緩存層級。而V4把這條路走了個捷徑,且已經(jīng)開放給所有人。

這意味著什么?中小開發(fā)者用零門檻把整本《三體》塞進提示詞,法律合同分析可以全文一次性送入模型,長周期多輪Agent調(diào)用完全免去記憶壓縮的魔改。

2025年,大模型行業(yè)的敘事還是“能力平權(quán)”,開源模型追上閉源,大家都能用。2026年,敘事進一步延伸,變成“使用平權(quán)”,好模型不僅要追得上,還得用得起、用得方便。

當(dāng)把1M上下文和Agent能力同時開放,開發(fā)者的天花板一下子被抬高了很多。而這扇門打開之前,做Agent的團隊光是處理超長上下文的記憶管理就要花掉一半精力。

03

大廠的焦灼和各自的算盤

V4的發(fā)布會不是在真空中開的。牌桌上已經(jīng)換了不知道幾輪玩家。

大廠這邊,各家動作密集到了“每周都有新東西”的程度。2026年馬年春節(jié)前后,字節(jié)、阿里、騰訊、百度四家累計投入超45億元,以紅包、免單、科技禮品等形式推動AI應(yīng)用走向全民。

技術(shù)競賽進入膠著狀態(tài)。2月,阿里、字節(jié)、MiniMax密集發(fā)布新一代模型產(chǎn)品,MiniMax M2.5、Kimi K2.5、GLM-5等中國模型在OpenRouters上的Tokens消耗數(shù)已排進全球前三。

前不久,騰訊發(fā)布混元世界模型2.0,支持二次編輯并直接導(dǎo)入Unity和UE引擎;阿里ATH事業(yè)部發(fā)布HappyOyster世界模擬器,支持高保真動態(tài)場景生成。同月,京東探索研究院開源自研的JoyAI-Image-Edit圖像模型,切入了AI空間理解的核心難題。

云廠商的模型策略也從“押注一顆獨苗”轉(zhuǎn)向了多模型整合。“模型超市”遍地開花,阿里云、百度智能云、騰訊云都在把多家不同廠商的模型集中納入同一平臺,按需分發(fā)推薦。這背后的邏輯很清楚,大模型正在從研發(fā)資產(chǎn)走向流通商品,掌握分發(fā)渠道比擁有單一模型的技術(shù)優(yōu)勢,市場回報更確定。

而DeepSeek面臨的局面比一年前復(fù)雜得多。

2026年的Agent繁榮帶來了Token消耗的狂歡,從OpenClaw到Hermas都在朝同一個方向用力,把大模型調(diào)用頻次推向指數(shù)級更高。智譜、MiniMax等廠商憑借海量的API調(diào)用在推理端悶聲發(fā)大財,甚至推動了阿里、智譜和MiniMax自身轉(zhuǎn)向閉源。

當(dāng)對手的戰(zhàn)爭已經(jīng)推進到了多模態(tài)全能矩陣和業(yè)務(wù)深融的Agent生態(tài)時,單一的基座能力和文本推理已經(jīng)不足以構(gòu)成護城河。V4不再打單點突破的孤膽英雄,而是必須同時在開源模型基準(zhǔn)、超長上下文易用性、推理成本控制以及國產(chǎn)硬件支持等多個棋盤上取得優(yōu)勢。

從發(fā)布結(jié)果看,V4交出的答卷確實驗證了它對當(dāng)下競爭焦點的理解。而它面臨的核心考驗,其實已經(jīng)被精準(zhǔn)概括,“積累的Prompt技巧,都是基于DeepSeek架構(gòu),那在一定程度上會增加開發(fā)者更換模型的成本,形成了隱形的技術(shù)定價權(quán)”。

技術(shù)定價權(quán)的持久性,取決于V4發(fā)布之后的開源生態(tài)運營節(jié)奏和商業(yè)模式的策略縱深。

回頭看,DeepSeek V3那一次,改變的是“訓(xùn)練成本”。當(dāng)時行業(yè)共識是訓(xùn)練大幾千億參數(shù)的模型動輒幾千萬美元,DeepSeek用500萬美元證明這個數(shù)字可以壓縮一個量級。之后各家的訓(xùn)練成本預(yù)估一路走低,開源和閉源的成本基線被重新書寫。

V4這次做的是另一件事:它用萬億參數(shù)級的模型,把基準(zhǔn)能力、百萬級上下文和Agent能力同時打包、拆開、開源,向行業(yè)宣告——成本這一刀接下來砍向推理端。

這對不同玩家的打擊是不同的。對重注閉源的大廠來說,壓力在于競爭不再只是性能對標(biāo),而是開源社區(qū)把“水電煤”的價格壓穿了之后,閉源要維持溢價變得越來越困難。

從OpenAI到Anthropic,包括國內(nèi)閉源巨頭,面對Arch Lint的價格錨點,定價體系只會變得前所未有的透明。對于盯緊基礎(chǔ)層算力供需的服務(wù)商來說,當(dāng)推理效率大幅提高、能效持續(xù)優(yōu)化,整個算力需求的預(yù)期反而可能被重新上修。

更深一層的意義在于硬件生態(tài)。黃仁勛說“DeepSeek基于華為平臺的新模型對美國來說將是一個糟糕的結(jié)果”,恰好點出了這輪AI競爭的核心,從算法比拼轉(zhuǎn)到系統(tǒng)工程能力比拼,再到硬件生態(tài)的綁定與突圍。

V4會不會成為第一個真正跑通國產(chǎn)算力閉環(huán)的萬億級大模型,現(xiàn)在還沒有定論,但它在“去CUDA化”這條路上至少提供了一種可驗證的參照系。

至于DeepSeek自己,融資、人才、商業(yè)化,該面對的問題一個不會少。據(jù)上海證券報消息,DeepSeek已啟動成立以來首次外部融資,目標(biāo)估值不低于100億美元,計劃籌集至少3億美元。首代模型核心作者之一羅福莉轉(zhuǎn)投小米,R1核心研究員、GRPO核心發(fā)明者郭達雅加入字節(jié)跳動Seed。

大模型賽道的殘酷在于,你必須在飛馳的列車上邊換輪子邊踩油門,停下來哪怕三個月,就可能被甩出牌桌。

DeepSeek停了一年多,這期間對面的人一直在不停地發(fā)牌。現(xiàn)在它終于亮出了自己的牌。只看一個開局,勝負還遠未到來,但有一點確切無誤:這家公司的牌,從V3打到V4,不打散牌,一把王炸。

無論最終誰是贏家,這輪牌局的圍觀價值,遠遠勝過任何一個模型的跑分結(jié)果。

本文系新眸原創(chuàng),申請轉(zhuǎn)載授權(quán)、商務(wù)合作請聯(lián)系微信:ycj841642330,添加好友請備注公司和職位。

— END —

       原文標(biāo)題 : DeepSeek再放大招,國產(chǎn)大模型坐不住了

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號