訂閱
糾錯
加入自媒體

CPU,為何“偷偷轉(zhuǎn)型”?

圖片

Yole Group發(fā)布的《2025年處理器產(chǎn)業(yè)狀況》報告確認(rèn)了一個里程碑式的節(jié)點:2024年GPU銷售額首次超越了CPU。這標(biāo)志著半導(dǎo)體產(chǎn)業(yè)正式邁入了一個由加速計算主導(dǎo)的新周期。在這樣一個宏觀背景下,一個核心議題浮出水面:當(dāng)GPU、NPU以及ASIC這些“加速器”逐漸接管大規(guī)模并行計算任務(wù)時,傳統(tǒng)的中央處理器會不會被邊緣化?或者說,它能在新的計算范式中找到不可替代的位置嗎?

GenAI計算重心的轉(zhuǎn)移并未消除對主機處理器的需求,但卻徹底改變了對其性能指標(biāo)的定義。過去三十年間,CPU主要依靠提升通用計算頻率和推測執(zhí)行效率來推動摩爾定律。然而,在面對萬億參數(shù)模型訓(xùn)練與實時推理的高吞吐量需求時,這種通用設(shè)計原則正遭遇能效比與I/O瓶頸的雙重挑戰(zhàn)。

行業(yè)正在重新審視CPU在AI集群里的位置。過去,它只是個簡單的邏輯控制器;現(xiàn)在,它正在演變成異構(gòu)系統(tǒng)的調(diào)度中樞,不僅提供大容量內(nèi)存,還直接負(fù)責(zé)特定的推理任務(wù)。這種轉(zhuǎn)變不僅重構(gòu)了底層技術(shù)架構(gòu),也在深刻影響著市場格局和資本流向,從數(shù)據(jù)中心一直延伸到邊緣設(shè)備。

01

CPU的困境與“轉(zhuǎn)型”

在傳統(tǒng)的以CPU為中心的計算架構(gòu)中,數(shù)據(jù)處理流程通常由運行在CPU上的軟件棧進行管理,數(shù)據(jù)需要在網(wǎng)絡(luò)接口、CPU內(nèi)存和深度學(xué)習(xí)加速器(DLA)之間進行多次搬運。這種基于軟件的數(shù)據(jù)控制機制在面對AI工作負(fù)載時,顯現(xiàn)出明顯的效率缺陷。主要問題體現(xiàn)在并行命令的沖突以及數(shù)據(jù)路徑的擁塞,這直接限制了后端加速器的利用率,導(dǎo)致昂貴的硬件資源處于等待狀態(tài),進而推高了系統(tǒng)的整體功耗與成本。

更為深層的技術(shù)矛盾,在于處理器微架構(gòu)的設(shè)計哲學(xué)。現(xiàn)代CPU普遍依賴“推測執(zhí)行”技術(shù),通過分支預(yù)測來提前執(zhí)行指令以保持流水線滿載,這種機制在處理邏輯復(fù)雜的通用程序時表現(xiàn)優(yōu)異。然而,AI和機器學(xué)習(xí)工作負(fù)載主要由大規(guī)模的向量和矩陣運算構(gòu)成,且內(nèi)存訪問模式往往呈現(xiàn)出高度的不規(guī)則性。在這種場景下,推測執(zhí)行容易出現(xiàn)預(yù)測失敗,導(dǎo)致流水線頻繁刷新。被丟棄的計算指令不僅未能產(chǎn)生有效產(chǎn)出,反而造成了額外的能源浪費與延遲。

針對通用架構(gòu)在AI負(fù)載下的局限性,處理器行業(yè)正在經(jīng)歷第一層維度的革新:微架構(gòu)層面的去推測化。近期獲得美國專利商標(biāo)局專利認(rèn)證的“基于時間的確定性執(zhí)行模型”代表了一種新的設(shè)計思路。該模型摒棄了復(fù)雜的推測機制,引入帶有時間計數(shù)器的向量協(xié)處理器,采用靜態(tài)調(diào)度策略。在這一架構(gòu)下,指令僅在數(shù)據(jù)依賴關(guān)系完全解決且操作數(shù)就緒的確定時刻,才會被分發(fā)至執(zhí)行單元。

由于執(zhí)行順序和時間是預(yù)先規(guī)劃且確定的,芯片設(shè)計可以省去復(fù)雜的寄存器重命名和亂序執(zhí)行控制邏輯,從而在矩陣計算等任務(wù)中以更低的晶體管開銷和功耗實現(xiàn)高可擴展性。這種確定性執(zhí)行模型在保持與RISC-V等標(biāo)準(zhǔn)指令集兼容的同時,從底層邏輯上適配了AI計算對高吞吐量和低延遲的剛性需求。

第二層維度的革新則是系統(tǒng)級架構(gòu)的“專用化分流”。為了解決I/O瓶頸,行業(yè)開始探索將網(wǎng)絡(luò)排序、服務(wù)質(zhì)量管理(QoS)及數(shù)據(jù)預(yù)處理功能從主機CPU的軟件棧中剝離,下沉至專用的硬件邏輯中。這種被稱為“網(wǎng)絡(luò)附加處理單元”(NAPU)的設(shè)計理念,通過在處理器內(nèi)部集成DSP核心、視頻引擎及AI優(yōu)化的網(wǎng)絡(luò)接口,實現(xiàn)了數(shù)據(jù)路徑的硬件加速。

這不僅釋放了通用CPU核心的算力資源,使其能專注于復(fù)雜的邏輯調(diào)度,還大幅減少了數(shù)據(jù)在不同組件間的無效移動。此外,主流x86處理器也在通過集成AMX等專用加速指令集來進行自我進化,優(yōu)化對bf16和int8等低精度數(shù)據(jù)類型的處理能力,從而在不依賴外部加速器的情況下,提升CPU自身處理矩陣運算的效率。

02

AI 時代,CPU的應(yīng)用場景

技術(shù)架構(gòu)的演進直接映射在市場需求的結(jié)構(gòu)性變化上。盡管訓(xùn)練端對GPU的需求持續(xù)高漲,但推理端市場正呈現(xiàn)出對成本和能效的敏感,這為新型CPU提供了廣闊的市場空間。根據(jù)Future Market Insights預(yù)測,美國數(shù)據(jù)中心CPU需求將保持7.4%的復(fù)合年增長率。這并非源于對傳統(tǒng)通用算力的渴求,而是由AI應(yīng)用落地過程中的實際“經(jīng)濟賬”所逼出來的。

在推理場景中,并非所有任務(wù)都需要昂貴的GPU集群。對于大量參數(shù)量在7B至13B之間的中小模型,或者是單用戶的實時交互請求,現(xiàn)代服務(wù)器CPU已經(jīng)能夠提供足夠的吞吐量。英特爾的數(shù)據(jù)顯示,雙路服務(wù)器在運行特定參數(shù)規(guī)模的Llama模型時,可以達到滿足實時閱讀速度的Token生成率。

更為關(guān)鍵的是,根據(jù)亞信科技和Cast AI的統(tǒng)計,公有云環(huán)境中存在大量利用率低于20%的閑置CPU資源。利用這些已部署的通用算力進行AI推理,相比額外采購專用加速器,具有顯著的總擁有成本(TCO)優(yōu)勢。因此,在長尾應(yīng)用和非高并發(fā)場景下,CPU正在加入AI推理的主力軍,這種“夠用就好”的經(jīng)濟邏輯支撐了數(shù)據(jù)中心CPU市場的持續(xù)增長。

除了直接承擔(dān)推理任務(wù),AI大模型對內(nèi)存容量的渴求也重塑了CPU的市場價值。隨著模型參數(shù)量突破萬億級別,GPU的顯存容量日益成為限制推理性能的瓶頸,顯存溢出即意味著服務(wù)中斷。在這一背景下,CPU的主內(nèi)存通過CXL等高速互聯(lián)技術(shù)與GPU共享,實際上充當(dāng)了加速器的L4緩存。

在英偉達的GH/GB系列以及華為昇騰的超節(jié)點方案中,高性能CPU與其搭載的大容量DDR內(nèi)存成為了支撐大模型穩(wěn)定運行的關(guān)鍵基礎(chǔ)設(shè)施。這意味著市場對服務(wù)器CPU的評價標(biāo)準(zhǔn)正在發(fā)生改變,內(nèi)存通道數(shù)量、帶寬以及與加速器的互聯(lián)速度,成為了比核心頻率更為關(guān)鍵的選型指標(biāo)。

再把視野放寬到邊緣計算和終端設(shè)備,市場對“異構(gòu)協(xié)同”的需求已經(jīng)超越了單一芯片的性能。在具身智能、智能終端這些領(lǐng)域,系統(tǒng)設(shè)計有嚴(yán)格的分工:CPU負(fù)責(zé)低延遲的邏輯控制和實時交互,GPU負(fù)責(zé)高并發(fā)計算,NPU處理持續(xù)運行的背景任務(wù)。

行業(yè)專家指出,在語音轉(zhuǎn)文字、復(fù)雜邏輯調(diào)度及實時運動控制等場景中,CPU的響應(yīng)速度優(yōu)于需要批處理才能發(fā)揮效率的GPU。例如在機器人領(lǐng)域,x86 CPU憑借其在工業(yè)控制領(lǐng)域的軟件生態(tài)積累,配合嵌入式GPU構(gòu)成的主控方案,依然是主流選擇。這種異構(gòu)計算的市場趨勢促使CPU必須具備更強的協(xié)同能力,能夠高效地將特定負(fù)載卸載給NPU或GPU,同時保持對全局任務(wù)的精準(zhǔn)調(diào)度。

03

AI CPU,巨頭與后起之秀

在技術(shù)轉(zhuǎn)型和市場需求的雙重驅(qū)動下,處理器產(chǎn)業(yè)的競爭格局正在重塑。一方面,專注于AI專用架構(gòu)的初創(chuàng)企業(yè)開始冒頭;另一方面,傳統(tǒng)巨頭也在忙著調(diào)整戰(zhàn)略,進行生態(tài)融合。

以色列芯片企業(yè)NeuReality就是專用化趨勢的典型。該公司近期完成了3500萬美元的A輪融資,總?cè)谫Y額達到4800萬美元,其商業(yè)化目標(biāo)直指AI推理服務(wù)器市場。NeuReality推出的NR1芯片實際上是對傳統(tǒng)CPU架構(gòu)的一次解構(gòu)與重組,它被定義為“網(wǎng)絡(luò)附加處理單元”(NAPU)。該芯片集成了Arm Neoverse核心,但其核心競爭力在于異構(gòu)集成的十六個通用DSP核心、十六個音頻DSP核心以及四個視頻引擎。

通過這種硬件設(shè)計,NeuReality試圖解決傳統(tǒng)CPU在處理AI數(shù)據(jù)流時的瓶頸,將網(wǎng)絡(luò)排序、數(shù)據(jù)排序及同步等任務(wù)固化在硬件中。其公開數(shù)據(jù)顯示,相較于傳統(tǒng)的CPU中心架構(gòu),NR1能夠?qū)I應(yīng)用的總擁有成本改善10倍。這種專用化芯片的出現(xiàn),標(biāo)志著市場開始接受不再由通用CPU主宰一切,而是由專用宿主處理器來管理AI流水線的理念。

與此同時,傳統(tǒng)芯片巨頭也在積極適應(yīng)這一變化,通過資本運作與技術(shù)合作來鞏固生態(tài)地位。2025年9月,英偉達宣布向英特爾投資50億美元并開展基礎(chǔ)設(shè)施合作,這一商業(yè)動作具有極強的信號意義。盡管英偉達在加速計算領(lǐng)域占據(jù)統(tǒng)治地位,但其對x86生態(tài)的巨額投資表明,在未來相當(dāng)長的時間內(nèi),高性能x86 CPU作為異構(gòu)集群的通用底座和生態(tài)入口,其戰(zhàn)略價值依然不可撼動。這與其說是妥協(xié),不如說是對現(xiàn)實的承認(rèn)——再強大的GPU集群,也需要強大的CPU來調(diào)度。

在另一端,Arm架構(gòu)正在服務(wù)器領(lǐng)域發(fā)起強有力的攻勢。數(shù)據(jù)顯示,Arm架構(gòu)CPU在服務(wù)器市場的份額持續(xù)攀升,預(yù)計在2025年將占據(jù)全球服務(wù)器出貨量的21.1%。這一增長不僅得益于AWS等云廠商自研Graviton系列芯片的推動,也離不開富士通等廠商在歐洲市場的布局。富士通與歐洲云服務(wù)商Scaleway達成的戰(zhàn)略合作,旨在利用基于Arm架構(gòu)的FUJITSU-MONAKA CPU平臺構(gòu)建高能效AI推理環(huán)境,這種方案避開了GPU算力的紅海競爭,轉(zhuǎn)而在綠色計算和低TCO推理領(lǐng)域?qū)ふ彝黄瓶凇?/p>

然而,互聯(lián)網(wǎng)大廠的實際部署策略也顯示出市場的復(fù)雜性。盡管自研Arm芯片在成本上具有優(yōu)勢,但在核心的AI訓(xùn)練集群中,為了保證軟件生態(tài)的絕對兼容性和穩(wěn)定性,x86 CPU依然是首選配置。這表明,未來的處理器市場將不再是單一架構(gòu)的零和博弈,而是進入了x86與Arm并存、通用CPU與專用AI CPU互補、CPU與加速器深度協(xié)同的復(fù)雜生態(tài)階段。

在這種格局下,CPU廠商的競爭力將不再單純?nèi)Q于核心數(shù)量或頻率,而在于其架構(gòu)是否足夠開放,是否能高效地融入異構(gòu)計算的流水線,以及是否能為日益多樣化的AI負(fù)載提供最具經(jīng)濟效益的算力支持。

       原文標(biāo)題 : CPU,為何“偷偷轉(zhuǎn)型”?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號