訂閱
糾錯
加入自媒體

撕開英偉達(dá)的算力圍城

圖片

“AI 行業(yè)正在使用一個‘錯誤的工具’。”

當(dāng) Cerebras 創(chuàng)始人 Andrew Feldman 拋出這個論斷時,英偉達(dá)正憑借 GPU 統(tǒng)治著萬億級市場。

Andrew Feldman是否在口出狂言?Cerebras 用一塊餐盤大小、擁有 900,000 個核心的晶圓級引擎 WSE-3,試圖用“一顆芯片即一個集群”的解決方案來回答這個問題。

Cerebras 相信,深度學(xué)習(xí)的核心瓶頸從未在算力本身,而在于數(shù)據(jù)跨越芯片邊界時撞上的那堵內(nèi)存墻。

2026 年 3 月,Oracle 在財(cái)報(bào)分析師會議上主動提及正在部署 Cerebras 芯片,將其與 Nvidia、AMD 并列為核心加速器供應(yīng)商,這一“順帶點(diǎn)名”被業(yè)內(nèi)視為 Cerebras 進(jìn)入超大型企業(yè)采購視野的重要信號。

01

叫板英偉達(dá),Cerebras做對了什么?

Cerebras由Andrew Feldman(前SeaMicro聯(lián)合創(chuàng)始人,后被AMD收購)于2016年創(chuàng)立。

Cerebras 推出的WSE-3 是迄今規(guī)模最大的人工智能芯片,面積達(dá) 46,255 平方毫米,集成 4 萬億個晶體管。它憑借 90 萬個 AI 優(yōu)化內(nèi)核 提供 125 PFLOPS 的 AI 算力,晶體管數(shù)量是英偉達(dá) B200 的 19 倍,算力更是其 28 倍。

圖片

同時,WSE-3配備44GB片上SRAM與21PB/s的內(nèi)存帶寬,徹底打破了傳統(tǒng)內(nèi)存瓶頸。其晶圓級互聯(lián)架構(gòu)可提供27PB/s的內(nèi)部帶寬,速度是最新一代NVLink的206倍。

WSE 最多可將 2048 套系統(tǒng)組合在一起,提供 256 EFLOPS 的 AI 算力。AI 開發(fā)者可以訓(xùn)練參數(shù)規(guī)模高達(dá) 24 萬億的模型,而無需處理多 GPU 調(diào)度和并行策略帶來的復(fù)雜問題。

傳統(tǒng) GPU(如 B200)必須不斷從片外的 HBM 內(nèi)存中讀取數(shù)據(jù),這受限于 HBM 的帶寬,這也是AI大模型爆發(fā)帶動HBM存儲迅速發(fā)展的重要原因——通過強(qiáng)化片外存儲的傳輸能力,被動緩解算力與存儲分離帶來的性能瓶頸。

Cerebras 將 44GB 的高速內(nèi)存直接放在 90 萬個 AI 核心旁邊,無需再通過片外鏈路調(diào)取數(shù)據(jù),從物理架構(gòu)上消除數(shù)據(jù)往返傳輸延遲。

2026 年1 月,Cerebras 與OpenAI 簽署多年合作協(xié)議,承諾為 OpenAI 提供 750 兆瓦的推理算力,部署規(guī)模將分階段在 2026 至 2028 年間落地,合同總價值逾 100 億美元,被官方稱為“全球最大規(guī)模高速AI推理部署”。OpenAI官方公告指出,此次合作的核心目的之一是降低ChatGPT實(shí)時響應(yīng)的推理延遲。

2026 年3 月 13 日,AWS 宣布與 Cerebras 建立多年合作,將 Cerebras CS-3 系統(tǒng)部署于 AWS 數(shù)據(jù)中心,通過 Amazon Bedrock 提供推理服務(wù)。官方新聞稿顯示,這是首次有主流超大規(guī)模云平臺在自有數(shù)據(jù)中心內(nèi)部署非 GPU AI 加速器。

AWS計(jì)算服務(wù)副總裁David Brown表示:“這種分離式架構(gòu)讓每個系統(tǒng)各盡其長,結(jié)果將是比今天任何方案都快一個數(shù)量級的推理性能。”

行業(yè)分析機(jī)構(gòu) Futurum 在其評析中指出,這一合作“是標(biāo)志性的新階段——推理架構(gòu)正在獨(dú)立,專用芯片將取代單體 GPU 部署,用于延遲敏感型任務(wù)。”

02

用面積換性能,真無敵了嗎?

Artificial Analysis 的測評表示,Cerebras CS-3 在Meta Llama 4 Maverick(400B 參數(shù))模型上達(dá)到 2,522 tokens/秒,超過英偉達(dá) Blackwell B200 的1,038 tokens/秒,領(lǐng)先幅度約 2.4 倍。對比Llama 3.1 8B小模型,差距更顯著:Cerebras可達(dá)約1,800 t/s,而英偉達(dá)H100約為90 t/s,相差約20倍。

按 token 計(jì)費(fèi)的云服務(wù),DeepSeek V3 在Cerebras 上的定價為輸入 $0.20/百萬 tokens、輸出 $0.50/百萬 tokens,綜合價格極具競爭力。截至2025年9月,Cerebras已在北美、歐洲擴(kuò)建至五個新數(shù)據(jù)中心,并同步在AWS Marketplace上線,進(jìn)入企業(yè)級采購渠道。

AI 行業(yè)正在從“訓(xùn)練為主”轉(zhuǎn)向“推理為主””,而推理對延遲極為敏感。ChatGPT 等對話 AI、多步驟智能體(Agentic AI)、實(shí)時代碼生成等場景,都對 tokens/秒有嚴(yán)苛要求。AI 推理市場規(guī)模預(yù)計(jì)將從 2025 年的 1,062 億美元增長至 2030 年的 2,550 億美元,CAGR 約19%。

這項(xiàng)測評展示了 Cerebras 在推理領(lǐng)域速度與成本上的顯著優(yōu)勢,但要得出“完全碾壓”的結(jié)論還為時過早。

英偉達(dá)最強(qiáng)大的武器并非硬件,而是極其成熟的CUDA 生態(tài)。開發(fā)者在轉(zhuǎn)向 Cerebras 時需適配專有編譯器,且目前對動態(tài)控制流等高級 AI 特性的支持尚不完整,這種遷移成本是企業(yè)決策時的核心障礙。全球數(shù)以百萬計(jì)的AI工程師在CUDA上深度訓(xùn)練,遷移至Cerebras平臺存在學(xué)習(xí)成本。分析指出,AWS Bedrock集成的戰(zhàn)略意義之一,正是通過托管服務(wù)降低工程師直接接觸底層硬件差異的必要性——如果開發(fā)者無需修改代碼就能使用Cerebras,生態(tài)差距的影響將大幅減小。

CS-3 單系統(tǒng)功耗高達(dá) 50kW,遠(yuǎn)超單臺 GPU 服務(wù)器。對于空間和電力受限的傳統(tǒng)數(shù)據(jù)中心來說,部署此類設(shè)備面臨物理基礎(chǔ)設(shè)施的制約。

同時,在加速數(shù)據(jù)通信上,英偉達(dá)并未坐以待斃。除了 Blackwell 的快速迭代,英偉達(dá)還通過收購?fù)评沓鮿?chuàng)公司 Groq 的核心資產(chǎn),以及推出 NIM 推理微服務(wù)來鞏固其在推理市場的地位。

Groq 的芯片為LPU(Language Processing Unit),主要面向LLM 等推理場景,從架構(gòu)上追求“快速、可預(yù)測、低成本”的大模型推理,而不是通用訓(xùn)練 + 圖形渲染。許多 LLM 推理場景下,單位 token 的計(jì)算成本和能耗都顯著低于傳統(tǒng) GPU 集群(原因是高片上帶寬、少外存訪問、推理專用指令流)。

基于 Tensor Streaming Processor(TSP)架構(gòu),硬件盡量去掉緩存、多級亂序等導(dǎo)致不確定性的機(jī)制,讓編譯器可以靜態(tài)安排每條指令和每一跳數(shù)據(jù)路徑,實(shí)現(xiàn)“流水線裝配線式”的可預(yù)測執(zhí)行。

第一代 LPU 約有 230 MB 片上 SRAM、80 TB/s 內(nèi)部帶寬,遠(yuǎn)高于典型 GPU 的 HBM 外部帶寬(約 8 TB/s 量級),減少訪問外部內(nèi)存的次數(shù),從而降低時延并提升能效。

對很多企業(yè)來說,訓(xùn)練成本是一次性投入,而推理(每天要跑的token 數(shù))才是真正長期的資本支出,Groq 把長期成本曲線壓低,使得大規(guī)模商用 LLM 服務(wù)更可持續(xù)。對于英偉達(dá)來說,收購Groq是在“訓(xùn)練卡賣一次”的模式之外,增加了英偉達(dá)在“長期推理成本優(yōu)化”的抓手。簡單來說,英偉達(dá)能在 TCO 和能效上給出更有競爭力的推理方案,而不僅依賴堆更多 GPU。

03

Cerebras的風(fēng)險

從產(chǎn)品角度來看,Cerebras選擇將整個300mm晶圓做成一顆芯片,這同時意味著任何一處缺陷都可能導(dǎo)致芯片報(bào)廢,Cerebras在良率控制上承擔(dān)了極高的制造風(fēng)險。相對來說,傳統(tǒng)GPU的小芯片可通過“切割丟棄缺陷區(qū)”規(guī)避。

在商業(yè)模式上,Cerebras必須應(yīng)對客戶集中度風(fēng)險。

雖然Cerebras官方表示有許多頭部客戶在使用自家產(chǎn)品,如Notion將Cerebras集成為其實(shí)時企業(yè)搜索功能的底層推理引擎,面向數(shù)百萬企業(yè)用戶,Cerebras也成為OpenAI最新安全模型的最快推理提供商,使AI安全策略的實(shí)時判斷成為可能——在內(nèi)容審核、文檔分類、智能體護(hù)欄等場景,實(shí)現(xiàn)了“先審后發(fā)”的實(shí)時安全檢測。

從營收來看,阿聯(lián)酋G42貢獻(xiàn)了2024年H1高達(dá)87%的營收。對應(yīng)一份$14.3億的合同承諾。雖然新合同不斷到來,但若G42出現(xiàn)任何地緣政治變化(美國對阿聯(lián)酋AI芯片出口管制趨嚴(yán)等),將對營收造成重大沖擊。雖然G42已被移出Cerebras投資者名單,但其仍是最大單一客戶。

從交貨壓力來看,雖然拿下了許多大訂單,但Cerebras的產(chǎn)能卻不一定能到位。隨著OpenAI750MW算力部署、AWS合作相繼到位,Cerebras在2026-2028年間將面臨極大的產(chǎn)能擴(kuò)張壓力。公司已將Series H資金的重要部分用于美國本土制造產(chǎn)能擴(kuò)充,但實(shí)際交付時間線仍是最大的執(zhí)行不確定性。

04

寫在最后

想撕開英偉達(dá)算力圍城的企業(yè)不只Cerebras,“非GPU AI芯片”賽道上還有一家明星企業(yè)SambaNova。SambaNova的創(chuàng)新性也是想解決GPU的內(nèi)存墻問題。但解法截然不同。SambaNova的核心思路是用可重配置的數(shù)據(jù)流架構(gòu)(RDU)+三級內(nèi)存,在標(biāo)準(zhǔn)芯片上實(shí)現(xiàn)接近單片大芯片的效率。

三級內(nèi)存包括SRAM(片上,極速,小容量)、HBM(高帶寬內(nèi)存,中速大容量)、DDR(低速超大容量)。三級內(nèi)存使 SambaNova 系統(tǒng)可承載遠(yuǎn)超片上SRAM大小的模型(單機(jī)架3TB內(nèi)存),同時通過“算子融合”(operator fusion)減少內(nèi)核調(diào)用次數(shù),大幅降低延遲。測評顯示,SambaNova SN40L在Llama 3.3 70B上相對Nvidia H200實(shí)現(xiàn)了低批量9倍、高批量4倍的速度提升,同時能耗效率提升5.6–2.5倍。

SambaNova 的低功耗是其在電力受限數(shù)據(jù)中心的核心賣點(diǎn)。2021年 — Series D由SoftBank Vision Fund 2領(lǐng)投,估值$50億,但2025年開始出現(xiàn)關(guān)于SambaNova尋找買家的新聞,英特爾曾經(jīng)提出16億美元的收購要約,但后續(xù)談判失敗。

曾經(jīng)站在同一起跑線的兩家企業(yè)正面對不同的資本熱情,Cerebras市場估值超200億美元,但SambaNova正在尋找新的融資方。

英偉達(dá)的圍城仍在,一名 AI 創(chuàng)業(yè)公司 CTO 曾評價三家公司表述最能說明問題:“我們對 SambaNova和 Cerebras 都做了基準(zhǔn)測試。兩家在推理速度上都比英偉達(dá)快。但我們整個代碼庫都基于 CUDA,工程師都懂 CUDA,云預(yù)算已經(jīng)包含了與英偉達(dá)談好的折扣。切換意味著重寫代碼、重新培訓(xùn)員工、重新談合同——為了大約 30% 的性能提升,這筆賬不合算。”

在贏者通吃的市場里,好10%遠(yuǎn)遠(yuǎn)不夠——你需要好10倍,并且有清晰的市場采用路徑。

       原文標(biāo)題 : 撕開英偉達(dá)的算力圍城

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號