訂閱
糾錯
加入自媒體

全球最大芯片要上市了!先后拿下OpenAI、亞馬遜,Cerebras賭對了什么?

你能想象嗎?

一塊AI芯片,做到接近一臺iPad的大小。

這不是概念設計,而是一家正在沖刺上市的AI芯片公司,給出的答案就在不久前,Cerebras披露了招股書,這家公司開始正式走向臺前。

從數(shù)據(jù)看,它的增長幾乎是“跳躍式”的。

2022年營收只有2460萬美元,到2025年已經(jīng)達到5.10億美元,三年增長超過19倍。

更關(guān)鍵的是,盈利也在同步發(fā)生變化。2024年還虧損4.82億美元,到2025年已經(jīng)轉(zhuǎn)正,實現(xiàn)2.38億美元凈利潤。

今年以來,Cerebras更是連續(xù)拿下兩個關(guān)鍵客戶。一邊是OpenAI,簽下超過百億美元級別的算力協(xié)議;另一邊是亞馬遜,開始在云側(cè)引入其芯片做推理加速。

這意味著,它開始逐漸進入主流算力體系。

資本市場的預期也在抬高。據(jù)外媒報道,Cerebras計劃募資超過30億美元,對應估值至少350億美元。

所以問題來了,一家把芯片做到“iPad大小”的公司,到底在解決什么問題?

今天,我們就來聊聊Cerebras。

/ 01 / GPU,不是AI計算的答案

先來說說Cerebras為什么會存在。很多人可能不知道,過去40年,計算行業(yè)始終在印證一個鐵律:

新的計算需求,終將催生新的計算架構(gòu)。

PC時代是 x86,移動時代是 ARM,圖形時代是 GPU。每當新的計算范式出現(xiàn),行業(yè)最初總是試圖用舊架構(gòu)“湊合”,但當技術(shù)演進到一定階段,就會不可避免地發(fā)現(xiàn)——舊架構(gòu)已達到極限,必須重構(gòu)底層系統(tǒng)。

現(xiàn)在,這件事正在AI 身上重演。

AI 的計算方式,和過去完全不同。簡單來說,過去的計算,大多是“局部、獨立”的,比如圖形渲染,每個像素可以各算各的,互不影響。

但AI 模型不一樣,它本質(zhì)上是一個高度耦合的計算網(wǎng)絡。在這個網(wǎng)絡中,數(shù)據(jù)、參數(shù)和計算過程之間需要進行極其頻繁的信息交換。

這就導致了一個根本性的轉(zhuǎn)變:AI本質(zhì)上是一個“通信密集型”的計算問題,而不僅僅是一個單純的“算力”問題。

這也是GPU 開始遇到瓶頸的根本原因。

GPU 的優(yōu)勢在于并行計算,但前提是“任務彼此獨立”。而在 AI 里,每一步計算都依賴前一步結(jié)果,大量時間花在“等數(shù)據(jù)”。

這種架構(gòu)上的不匹配,在AI模型的訓練和推理階段暴露無遺。

在訓練階段,單卡不夠強,只能把模型拆開,分布到上千張GPU上。但一旦拆開,就必須頻繁通信,效率迅速下降,同時系統(tǒng)復雜度和成本飆升。

簡單說就是,單卡不夠,多卡低效。

到了推理階段,問題就更加直觀了。

模型在生成每一個詞(Token)時,都需要完整地運行一遍整個模型。但由于模型體積過于龐大,無法完整加載到芯片內(nèi)部的緩存中,計算單元只能不斷地從外部內(nèi)存中搬運數(shù)據(jù)。

問題在于,這個“搬數(shù)據(jù)”的過程,遠比“算數(shù)據(jù)”慢。目前,高端GPU普遍采用了HBM(高帶寬內(nèi)存)技術(shù),但HBM的特點是“容量大而速度相對較慢”。

Cerebras創(chuàng)始人Andrew Feldman曾提供過一組直觀的數(shù)據(jù):以一個相對較小的70億參數(shù)(7B)模型為例,假設每個權(quán)重占用16位(16-bit),那么生成一個詞,就需要從內(nèi)存中搬運約140GB的數(shù)據(jù)。

而為了生成下一個詞,系統(tǒng)必須再次搬運這140GB的數(shù)據(jù),如此周而復始。這種計算模式對內(nèi)存帶寬的消耗是極其驚人的。

結(jié)果就是,在某些場景下,GPU的實際利用率甚至可能跌至5%以下。這種高成本、高延遲的破架構(gòu),怎么可能撐得起未來那些要求毫秒級響應的實時AI應用?

/ 02 / 一塊接近iPad大小的芯片

對于這些問題,Cerebras給出的解法,不僅很直接,也很極端:

把芯片做到足夠大,大到可以把“算力、內(nèi)存、帶寬”都放進同一塊硅片里。

就這樣,Cererbas打造了全球首創(chuàng)且唯一的商業(yè)化晶圓級處理器——晶圓級引擎(WSE),并聲稱其第三代AI芯片WSE-3是“史上大批量推向市場的最大、最快AI芯片”。

與GPU相比,WSE-3的最大特點就是,大。

WSE-3的面積是4.6萬平方毫米,接近一塊iPad屏幕;而H100只有814平方毫米,兩者相差整整57倍。

用Feldman自己的比喻來說:

“想象一個玻璃杯就是內(nèi)存,里面裝的可樂是數(shù)據(jù),而你的嘴巴代表算力。你能喝到可樂的速度,完全取決于吸管的粗細。英偉達GPU的根本問題,就在于這根吸管太細了。而我們的破局之道是——直接把吸管扔掉,端起杯子往嘴里倒。

這瘋狂的尺寸,直接砸出了三個顛覆性的結(jié)果:

第一,計算被暴力“集中”了。

WSE-3喪心病狂地塞進了90萬個計算核心,是H100的52倍!更恐怖的是,這90萬個核心全在一塊硅片上,緊緊挨著,壓根不需要跨芯片通信。

第二,是內(nèi)存被“拉近”了。

傳統(tǒng)GPU依賴HBM(本質(zhì)是DRAM),容量大,但訪問慢;SRAM速度極快,但容量小。

Cerebras的做法,是直接把芯片做大到可以放下足夠多的SRAM——WSE-3集成了44GB片上SRAM,而H100只有約0.05GB,相差880倍。

這意味著,大模型的參數(shù)可以直接“貼臉”放在計算單元旁邊,再也不用來回倒騰了。

第三,也是最關(guān)鍵的,是帶寬問題被“消掉”了。

WSE-3的片上內(nèi)存帶寬達到21 PB/s,而H100大約是0.003 PB/s,相差7000倍;片上互連帶寬也高出3700倍以上。

在GPU體系里,大量時間花在“搬數(shù)據(jù)”上。而在WSE里,數(shù)據(jù)基本不需要離開芯片。

總結(jié)起來,其實Cerebras就做了一件事:讓數(shù)據(jù)不再流動,讓計算圍繞數(shù)據(jù)發(fā)生。

/ 04 / 誰在為這個瘋狂的故事買單?

技術(shù)再牛,賣不出去也是白搭。Cerebras面臨的現(xiàn)實拷問是:誰來掏錢?

答案是,中東土豪。

2022到2025年,公司收入從2460萬美元一路增長到5.1億美元,三年翻了超過20倍;凈利潤也在2025年首次轉(zhuǎn)正,達到2.38億美元。

但這錢,幾乎全是中東老鐵砸的。

2024年,阿布扎比的G42貢獻了85%的營收;2025年,阿聯(lián)酋人工智能大學(MBZUAI)和G42聯(lián)手包攬了87%的收入。

這家公司賺的錢,幾乎都來自中東。

換句話說,Cerebras的命脈,全捏在兩個中東大客戶手里。 這種走鋼絲般的營收結(jié)構(gòu),自然成了IPO時投資人最忌憚的定時炸彈。

為了自救,Cerebras開始瘋狂拉客。真正的轉(zhuǎn)折點,來自OpenAI。

2026年1月,Cerebras拿下了史詩級大單:2026到2028年,為OpenAI提供高達750兆瓦的算力,總金額超過100億美元!

不僅如此,OpenAI還倒貼10億美元(約合人民幣68億元),幫Cerebras建數(shù)據(jù)中心。

這背后的水很深。OpenAI的掌門人Sam Altman,本身就是Cerebras的早期投資人,而且早在2017年,OpenAI就已經(jīng)盯上了Cerebras的技術(shù)。

巨頭入場,風向徹底變了。

2026年3月,AWS(亞馬遜云)也坐不住了,成為首家吃螃蟹的超大規(guī)模云廠商。

AWS的玩法很雞賊:在推理任務里,用自家的Trainium芯片搞定“理解輸入”,然后把“生成輸出”這種臟活累活扔給Cerebras的CS-3芯片。兩者高速互聯(lián),雙劍合璧。

據(jù)說,這套組合拳的速度,是現(xiàn)有方案的5倍以上!

/ 05/ 決戰(zhàn)英偉達,護城河到底在哪?

只要在這個圈子里混,就繞不開那個終極靈魂拷問:

你憑什么干掉英偉達的護城河?

所有整個AI算力行業(yè)都相信一個故事:CUDA生態(tài),就是英偉達堅不可摧的護城河。

黃仁勛在GTC 2026上也是這么放話的:“CUDA搞了20年,早就長在每一朵云、每一臺電腦里了。我們的護城河,是整個軟件生態(tài)!”

但在挑戰(zhàn)者Feldman眼里,CUDA的神話,被嚴重夸大了。

原因是,CUDA在訓練側(cè)確實有價值,但在推理側(cè),幾乎不存在鎖定。

現(xiàn)在的AI開發(fā),早就被PyTorch統(tǒng)領了,應用層和底層硬件已經(jīng)脫鉤。只要編譯器給力,模型在不同硬件之間橫跳,根本不是難事。

“從NVIDIA切到Cerebras,再切到別人家,這件事情在推理端并不難。”

相比虛無縹緲的CUDA生態(tài),F(xiàn)eldman看得很透:英偉達真正的護城河,是它那令人絕望的市場份額。

比起CUDA建立的生態(tài),F(xiàn)eldman認為英偉達真正的護城河在市場份額。

市場份額本身,就是最無解的護城河。

他舉了Intel的例子,即便連續(xù)犯錯,依然能長期占據(jù)70%+的市場份額,AMD花了十年,也只拿到20%多。

這意味著,一旦成為默認選項,后來者即使更好,也需要極長時間才能撬動。

放在今天的英偉達身上,這個優(yōu)勢更明顯:所有人都在它的體系里學習AI、構(gòu)建AI,它就是采購的起點,F(xiàn)在的英偉達就是那個“默認起點”,所有人都在它的體系里學AI、做AI。

但Feldman并不絕望。他預測,五年后,英偉達接近100%的壟斷份額,可能會跌到50%–60%。

理由很簡單:訓練市場依然是英偉達的天下,但真正龐大的推理市場正在井噴,而這個市場,對新架構(gòu)極其渴望!

同時,F(xiàn)eldman也相信另一個暴論:

即使在未來,芯片公司的價值,也將徹底碾壓模型公司!

他的邏輯來自一個很經(jīng)典的比喻,短期市場是“投票機”,長期是“稱重機”。

模型公司的優(yōu)勢周期很短,可能只有幾個月,領先與被超越在不斷切換,很難沉淀長期壁壘。

而芯片不同,它的壁壘在物理層,制造、工藝、供應鏈、工程能力,這些東西一旦建立,很難被快速復制。

過去幾十年,真正長期偉大的公司,大多來自這一層。

圖片

       原文標題 : 全球最大芯片要上市了!先后拿下OpenAI、亞馬遜,Cerebras賭對了什么?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號