訂閱
糾錯
加入自媒體

高通發(fā)布AI推理芯片,入局數據中心

高通這波從手機芯片跨界向 AI 數據推理進攻,以功耗和成本優(yōu)勢為利刃,期望撕開英偉達的防線。

10 月 27 日,手機芯片巨頭高通宣布推出 AI200 和 AI250。

兩款芯片既不是手機 SoC,也不是車規(guī)芯片,而是正兒八經的數據推理大殺器,爭奪英偉達占據優(yōu)勢的 AI 芯片市場。

消息一出,其股價盤中飆 20%,收盤仍漲 11%。

AI 大模型真正能持續(xù)產生利潤的是推理環(huán)節(jié),也就是 AI 完成問答、生圖、生視頻等實際任務的過程。目前推理市場年增速達 40%,但市場主流英偉達 H100 芯片價格高、耗電量大,還經常缺貨。

高通正是瞄準這一市場空檔,將其做手機芯片時 “控制功耗” 的技術優(yōu)勢遷移到數據中心芯片上,提出 “每花費一美元,能多處理 30% token(AI 處理數據的基本單位)” 的核心賣點。

參數上,AI200 搭載 768GB LPDDR 內存,內存容量是同類產品的約 3 倍,能輕松容納大模型。AI250 采用 “近內存計算” 技術,將算力模塊靠近內存,使數據傳輸帶寬提升 10 倍,同時降低功耗,大幅減少數據中心的電費支出。

此外,兩款芯片都支持冷板液冷散熱,單機架可承載 160kW 算力,能有效降低數據中心的 PUE(能源使用效率)指標,減少能源浪費。

在軟件適配方面,高通借鑒了安卓系統(tǒng)的打法:支持從 Hugging Face(AI 模型開源平臺)一鍵導入模型,通過 Transformers Library 工具可將模型適配為高通芯片兼容的格式,最快 15 分鐘就能完成部署,實現零修改遷移,降低了云廠商等客戶的使用門檻。

不過需要注意的是,這兩款芯片的上市時間存在 “時間差”:AI200 預計 2026 年推出,AI250 則要等到 2027 年。 這給了英偉達應對時間,其可提前推出 B100、Rubin 等新一代芯片搶占市場。云巨頭會不會用高通報價去壓英偉達?明年硅谷有好戲看了。

沙特的 AI 公司 Humain 已經搶先下單,計劃用 AI200 搭建 200 兆瓦的算力中心。

聲明: 本網站所刊載信息,不代表OFweek觀點?帽菊靖寮瑒战洉媸跈。未經授權禁止轉載、摘編、復制、翻譯及建立鏡像,違者將依法追究法律責任。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號