訂閱
糾錯
加入自媒體

熱點丨谷歌Gemma 4用31B擊敗397B模型,本地AI推向新高度

前言:

在大模型的敘事中[參數(shù)規(guī)模]曾長期被視為最直觀的競爭指標(biāo),行業(yè)默認(rèn)的路徑是規(guī)模越大,能力越強。

但Google最新發(fā)布的Gemma 4,用一個31B的模型,在多個場景中對抗甚至壓制接近400B規(guī)模的模型,正在讓這條路徑出現(xiàn)裂縫。

作者 | 方文三

圖片來源 | 網(wǎng)絡(luò)

圖片

31B vs 397B不止數(shù)字這么簡單

谷歌DeepMind沒有預(yù)熱、沒有發(fā)布會,悄無聲息地將Gemma 4系列模型推向開源社區(qū)。

在行業(yè)公認(rèn)的Arena AI文本排行榜上,它以1452的Elo評分沖到全球開源模型第三的位置,直接擊敗了參數(shù)量接近其13倍的Qwen 3.5 397B模型。

同系列的26B MoE版本也以1441分位列第六,推理時僅需激活38億參數(shù),就能跑出接近300億參數(shù)級別的性能。

在代表頂尖數(shù)學(xué)推理能力的AIME 2026競賽測試中,它拿到了89.2%的準(zhǔn)確率。

而上一代Gemma 3 27B的成績僅為20.8%,提升幅度超過4倍。

在研究生級別的科學(xué)問答基準(zhǔn)GPQA Diamond上,它的準(zhǔn)確率達(dá)到84.3%,同樣實現(xiàn)了對上一代產(chǎn)品的翻倍式超越。

在LiveCodeBench v6代碼測試中,31B版本得分達(dá)到80.0%,上一代產(chǎn)品僅為29.1%。

在Codeforces編程競賽評級中,它的ELO評分高達(dá)2150,已經(jīng)進(jìn)入人類頂級競賽程序員的區(qū)間。

綜合能力層面,在衡量模型綜合知識與推理能力的MMLU Pro基準(zhǔn)測試中,31B版本拿到85.2%的成績,與榜單前列的千億級模型處于同一梯隊。

在長上下文能力上,它支持最高256K的上下文窗口,在MRCR v2 128K長文本檢索測試中,準(zhǔn)確率從上一代的13.5%躍升至66.4%。

多模態(tài)能力也沒有因為參數(shù)規(guī)模的控制而縮水,全系列模型原生支持圖像、視頻輸入,無需外掛額外的視覺編碼器。

圖片

在MMMU Pro多模態(tài)理解測試中,31B版本得分76.9%,在MATH-Vision數(shù)學(xué)視覺題目中準(zhǔn)確率達(dá)到85.6%。

即便是面向移動端的E2B、E4B輕量化版本,也支持原生音頻輸入,在語音識別、翻譯場景中都有穩(wěn)定表現(xiàn)。

這些性能表現(xiàn)都建立在極低的硬件門檻之上,31B版本的4-bit量化模型,顯存占用可壓縮至20GB以內(nèi),單張消費級RTX 4090顯卡就能實現(xiàn)全量部署和流暢推理。

26B MoE版本雖然總參數(shù)達(dá)到260億,但推理時僅激活38億參數(shù),運行速度幾乎與40億參數(shù)模型持平。

在同等顯存條件下,推理速度比同等能力的稠密模型提升近2.5倍。

而面向端側(cè)的E2B、E4B版本,甚至能在安卓手機、樹莓派上實現(xiàn)完全離線運行,延遲低于50ms。

圖片

谷歌到底做對了什么

大模型的競爭核心,正在從參數(shù)規(guī)模轉(zhuǎn)向有效算力密度。

很多千億參數(shù)模型,實際有效參數(shù)不足10%,相當(dāng)于[用100分的力氣,只做了10分的事情]。

圖片

Gemma 4 31B每一步推理,310億參數(shù)全部參與,沒有稀疏路由帶來的損耗。

這直接導(dǎo)致一個結(jié)果是:有效參數(shù)密度> 名義參數(shù)規(guī)模,這也是為什么在部分任務(wù)中,31B Dense可以壓制397B MoE。

模型能力=有效參與計算的參數(shù)×數(shù)據(jù)質(zhì)量×訓(xùn)練策略,而不是單純的參數(shù)總量。

Gemma 4的核心突破是把混合專家(MoE)架構(gòu)的效率做到了極致。

Gemma 4 26B MoE版本采用了8專家路由機制,在推理過程中,模型會根據(jù)輸入Token的特性,動態(tài)激活其中最相關(guān)的2個專家,其余參數(shù)全部處于靜默狀態(tài)。

這就意味著,它雖然擁有260億參數(shù)的知識儲備,但實際運行時只需要調(diào)動38億參數(shù),用4B模型的算力成本,跑出接近30B模型的性能。

這種[按需激活]的設(shè)計,打破了[性能與算力必須線性掛鉤]的固有邏輯。

讓模型在保持知識廣度的同時,實現(xiàn)了推理效率的指數(shù)級提升。

圖片

即便是31B稠密版本也在架構(gòu)層面進(jìn)行了深度重構(gòu),最核心的創(chuàng)新是逐層嵌入(Per-Layer Embeddings,PLE)技術(shù)。

PLE技術(shù)給每一層都配備了專屬的低維信號通道,每個Token在每一層都能收到由自身身份信息和上下文信息共同生成的定制化向量。

額外開銷極小,卻讓每一層都獲得了專屬的調(diào)節(jié)能力,這也是小體量模型能跑出超強性能的關(guān)鍵。

Gemma 4采用了混合注意力機制,將局部滑動窗口注意力與全局注意力交織在一起,確保最后一層始終是全局注意力。

簡單來說,模型不再對所有Token進(jìn)行全量兩兩對比,而是通過滑動窗口捕捉局部語義細(xì)節(jié),輔以全局注意力層捕捉跨段落的邏輯關(guān)聯(lián)。

這種設(shè)計在不犧牲長上下文理解能力的前提下,極大地優(yōu)化了KV緩存的增長曲線,降低了長文本處理的顯存占用。

同時,谷歌還引入了共享KV緩存技術(shù),模型的后N層直接復(fù)用前面層的KV張量,同類型的注意力層共享同一組KV狀態(tài)。

這項優(yōu)化讓長對話場景下的顯存占用進(jìn)一步降低,配合TurboQuant緩存壓縮算法,能在零性能損耗的前提下,將KV緩存壓縮到3-bit,內(nèi)存占用直接下降6倍。

谷歌采用了多教師蒸餾技術(shù),把Gemini 3系列閉源模型的推理邏輯、思維鏈、工具調(diào)用能力,直接蒸餾到Gemma 4模型中。

這就相當(dāng)于,一個學(xué)生直接獲得了多位頂級導(dǎo)師的核心解題思路,而不是自己在海量題庫里盲目刷題,學(xué)習(xí)效率自然實現(xiàn)了質(zhì)的飛躍。

這也是為什么Gemma 4在數(shù)學(xué)推理、代碼生成、智能體工作流這些需要深度邏輯能力的場景中,能實現(xiàn)對上一代產(chǎn)品的斷層式超越。

圖片

Apache 2.0協(xié)議才是谷歌的王炸

此前Gemma系列一直采用谷歌自定義的許可協(xié)議,里面的諸多限制條款一直被開發(fā)者詬病。

最核心的問題在于,舊協(xié)議不僅對商業(yè)用途有諸多約束,甚至可能將限制延伸至使用Gemma生成的合成數(shù)據(jù)訓(xùn)練的其他模型,谷歌還保留了單方面修改協(xié)議條款的權(quán)利。

這種不確定性,讓很多企業(yè)用戶和開發(fā)者不敢將其用于生產(chǎn)環(huán)境,生怕踩進(jìn)法務(wù)合規(guī)的坑里。

這種[半開放]模式,讓Gemma系列盡管累計下載量超4億次、社區(qū)衍生變體超10萬個,卻始終無法在商用部署中與Meta Llama、國內(nèi)開源模型抗衡。

2024年以來,Meta Llama系列憑借寬松協(xié)議占據(jù)開源生態(tài)主導(dǎo)地位,國內(nèi)通義千問、DeepSeek、智譜AI等廠商以高頻迭代、友好協(xié)議快速搶占市場。

全球開源模型榜單前排長期被國內(nèi)廠商占據(jù),谷歌Gemma系列逐漸被邊緣化。

谷歌很清楚,在開源賽道上,協(xié)議的寬松程度,本質(zhì)上是開放生態(tài)的誠意度測試。

如果連最基本的商用自由都無法保障,即便模型性能再強,開發(fā)者也會用腳投票。

對于整個行業(yè)來說,這個轉(zhuǎn)變的影響遠(yuǎn)比參數(shù)提升更深遠(yuǎn)。

企業(yè)用戶終于可以毫無顧慮地將Gemma 4用于生產(chǎn)環(huán)境,不用擔(dān)心合規(guī)風(fēng)險。

Apache 2.0協(xié)議允許開發(fā)者對模型進(jìn)行深度修改、審計,這對于醫(yī)療、金融、政務(wù)等對數(shù)據(jù)安全和合規(guī)性要求極高的場景來說,是核心剛需。

Hugging Face聯(lián)合創(chuàng)始人Clément Delangue將此次協(xié)議切換稱為[開源AI領(lǐng)域的重要里程碑]。

協(xié)議放開后,Gemma 4的模型權(quán)重同步上架Hugging Face、Kaggle、Ollama,Transformers、vLLM、llama.cpp等主流框架在發(fā)布當(dāng)日即完成適配。

開發(fā)者可通過Ollama、llama.cpp快速本地部署,Unsloth Studio提供量化模型微調(diào)支持。

云端則可通過Google Vertex AI、Cloud Run擴展,形成了端云一體、開箱即用的完整開發(fā)鏈路。

圖片

將本地AI推向新高度

過去三年,AI落地默認(rèn)的前提永遠(yuǎn)是云端API、穩(wěn)定的網(wǎng)絡(luò)、按Token付費的訂閱模式、以及把數(shù)據(jù)傳輸?shù)降谌椒⻊?wù)器。

這個前提,天然就把大量對數(shù)據(jù)主權(quán)、隱私安全、網(wǎng)絡(luò)環(huán)境有高要求的場景,擋在了AI應(yīng)用的大門之外。

醫(yī)院的患者病歷、金融機構(gòu)的交易數(shù)據(jù)、工廠的產(chǎn)線參數(shù)、律所的商業(yè)合同、政務(wù)機構(gòu)的涉密文件,這些最需要AI提效的場景,恰恰最不能接受數(shù)據(jù)上傳云端。

而本地AI的核心價值就是讓AI能力完全在用戶自己的硬件上運行,數(shù)據(jù)不出本地、不聯(lián)網(wǎng)、不回傳,從根本上解決數(shù)據(jù)安全的核心痛點。

圖片

Gemma 4通過底層算法優(yōu)化,在將模型量化到4-bit后,能將顯存占用降低75%以上,讓消費級顯卡甚至手機都能輕松部署。

同時通過優(yōu)化內(nèi)存分配,避免了推理過程中的顯存溢出問題,讓模型在普通硬件上也能穩(wěn)定運行。

除此之外,Gemma 4系列還推出了專門針對端側(cè)設(shè)備的型號E2B和E4B。

其中E2B的有效參數(shù)僅23億,通過量化技術(shù),內(nèi)存占用可壓縮至1.5GB以下,能夠在樹莓派、手機、邊緣計算設(shè)備上完全離線運行。

E4B則針對安卓設(shè)備進(jìn)行了深度優(yōu)化,上下文長度達(dá)128K,性能超越上一代7B模型,適配手機、平板等移動設(shè)備。

谷歌還與Pixel團(tuán)隊、高通、聯(lián)發(fā)科深度合作,針對Android生態(tài)進(jìn)行了芯片級優(yōu)化,下一代Pixel手機的Gemini Nano 4將基于Gemma 4的E2B/E4B型號構(gòu)建。

這意味著未來普通人的手機,就能擁有高性能的本地AI助手,實現(xiàn)離線語音識別、實時翻譯、圖像分析等功能,徹底擺脫網(wǎng)絡(luò)依賴。

圖片

結(jié)尾:

谷歌用Gemini同源技術(shù)+Apache 2.0協(xié)議的組合拳,正式加入了開源賽道的白熱化競爭。

這對于Meta的Llama系列、國內(nèi)的Qwen、DeepSeek、GLM等系列模型來說,既是挑戰(zhàn)也是機遇。

而AI能力的邊界也正從云端的數(shù)據(jù)中心,向手機設(shè)備延伸和無網(wǎng)絡(luò)覆蓋的線下場景延伸。

部分資料參考:APPSO:《以小小小小勝大!Google 最強小模型剛剛發(fā)布,手機也能跑》,AI思想會:《谷歌開源Gemma 4,干掉了13倍體量的Qwen3.5》,InfoQ:《谷歌重磅開源Gemma 4!手機離線跑 Agent、還降內(nèi)存,Qwen 被拉進(jìn)正面對決》,鈦媒體AGI:《Byte for Byte,谷歌開源最強模型Gemma 4 殺入手機端》,鳳凰網(wǎng)科技:《谷歌Gemma 4大反攻,中國開源模型即將迎戰(zhàn)?》

       原文標(biāo)題 : 熱點丨谷歌Gemma 4用31B擊敗397B模型,本地AI推向新高度

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號