訂閱
糾錯(cuò)
加入自媒體

告別昂貴訂閱費(fèi)!英特爾發(fā)布混合AI方案:要讓Agent成為「水電煤」?

2026-04-22 09:39
雷科技
關(guān)注

新鮮龍蝦,本地白嫖?

開年這三個(gè)月,OpenClaw真是火得一塌糊涂。

我身邊不管是懂科技的,還是不懂科技的,大家都在幻想只要裝上這玩意,它就能幫你自動(dòng)點(diǎn)鼠標(biāo)、回郵件、整理本地文件夾,甚至連寫代碼、做課件、炒股票這種掉頭發(fā)的活兒都包圓了。

但現(xiàn)實(shí)情況卻是,這玩意兒不僅吃電腦配置,還需要你每個(gè)月給大模型交一筆不菲的Token費(fèi),直接勸退了一大票想要嘗鮮的普通人。

就在大家為了這筆錢發(fā)愁的時(shí)候,英特爾坐不住了。

2026年4月21日,英特爾在北京舉行了“以Hybrid AI加速推動(dòng)Agentic AI”2026英特爾混合AI部署方案分享會(huì),說是要和大家分享一下自家搞出的一套云端加本地的混合養(yǎng)蝦大法,不僅能省下高昂的訂閱費(fèi),還能保證你的私密文件不被偷窺。

06eef67afb3697487d6b9c68e0f49db0.jpg

(圖源:雷科技)

當(dāng)然了,他們也是想借著這股東風(fēng),順便賣賣自家的新一代酷睿Ultra 300處理器。

雷科技今天受邀來到現(xiàn)場,趁機(jī)幫大伙好好扒一扒,這套方案到底是真的能普惠大眾,還是又一套吸引你更新?lián)Q代的話術(shù)呢?

“智能體PC”:集成AI智能體的個(gè)人電腦

要搞清楚英特爾葫蘆里賣什么藥,咱們得先看看他們到底分享了什么東西。

這一開始呢,英特爾主講人就給咱們講產(chǎn)品定義了。

5b1753a51d0683b32d30d5a9cf42ff75.jpg

(圖源:雷科技)

英特爾在今天的分享會(huì)上提出了名為“智能體PC”的新概念,具體來說,就是內(nèi)置或深度集成AI智能體的個(gè)人電腦,特別是搭載了第三代酷睿處理器的產(chǎn)品,主打端云協(xié)同和閑時(shí)功耗控制。

要知道,目前大家玩智能體最大的痛點(diǎn)就兩個(gè),一個(gè)是純靠云端太貴而且不安全,另一個(gè)是純靠本地電腦算力又根本帶不動(dòng)。

英特爾給出的解法非常討巧,他們把大模型的處理工作分成了兩半,搞出了一個(gè)云端和本地協(xié)同的Hybrid AI混合處理架構(gòu)。

在英特爾的設(shè)想里,你電腦里的那些日常雜活,比如搜索本地文件、整理桌面、回復(fù)簡單的聊天消息,乃至圖片生成、視頻剪輯,甚至是簡單的代碼編輯,這些全部都可以交給你電腦自己的芯片來處理。

76f726614bac8b51bbcff48ecc61fa96.jpg

(圖源:雷科技)

他們?cè)跁?huì)上重點(diǎn)展示了搭載今年發(fā)布的第三代酷睿Ultra處理器,也就是代號(hào)Panther Lake處理器的筆記本電腦,這玩意的全平臺(tái)算力飆到了120 TOPS以上,差不多1秒鐘能算一百多萬億次。

理論上,只要你買了這批處理器賦能的新電腦,搭配上至少32GB運(yùn)存,就可以運(yùn)行目前最強(qiáng)的消費(fèi)級(jí)本地大模型Qwen3.6-35B,讓你在完全斷網(wǎng)的情況下,讓AI更流暢地幫你處理那些涉及個(gè)人隱私的敏感工作。

哪怕是入門級(jí)的Ultra 325,也能在一定程度上運(yùn)行更小體量的本地大模型來輔助。

0d122b63ddad672bbb386b3b401ad349.jpg

(圖源:雷科技)

但是,如果你讓這家伙去干點(diǎn)高級(jí)的活,比如寫個(gè)復(fù)雜的程序或者分析幾十頁的財(cái)報(bào),本地那點(diǎn)算力肯定要罷工。

這時(shí)候,英特爾的智能路由就會(huì)把這些重體力活無縫甩給云端的超級(jí)大模型去算,算完再把結(jié)果傳回你電腦里執(zhí)行。

這樣做的話,在本地大模型的加持下,云端大模型的計(jì)算量會(huì)顯著減少,用戶消耗的Token數(shù)量也會(huì)得到控制,既保護(hù)了用戶隱私,又減少了頻繁調(diào)用云端大模型帶來的按量計(jì)費(fèi)成本。

客觀來說,這套方案確實(shí)踩中了目前行業(yè)的痛點(diǎn)。

本地部署不用愁,表現(xiàn)比預(yù)期要好

在這次分享會(huì)現(xiàn)場,英特爾也準(zhǔn)備了一系列Demo的展示。

先說部署,之前咱們雷科技折騰OpenClaw的時(shí)候,整個(gè)公司就沒幾個(gè)人能弄明白這玩意究竟咋整,就連開始部署前的準(zhǔn)備都要小半天。

當(dāng)時(shí)某位同事不幸被抽到去這個(gè)項(xiàng)目,然后他為了在一臺(tái)Mac Mini上跑通這個(gè)開源項(xiàng)目,居然折騰了整整一天半,各種配環(huán)境、搞接口,稍微錯(cuò)一行代碼整個(gè)系統(tǒng)就直接罷工。

就這上手門檻,可是硬生生催生出了一門黃牛生意。

到了英特爾這里,本地部署肯定是不用愁了,他們的合作伙伴基本上都有一套圖形化、一鍵式的OpenClaw部署應(yīng)用,哪怕是傻瓜也能按步驟給自己的電腦整上龍蝦。

b07ddb5f1fbcc965d2b7e1cf2df1756d.jpg

(圖源:雷科技)

部署完成后,自然就來到了體驗(yàn)環(huán)節(jié)。

從現(xiàn)場運(yùn)行的Demo來看,英特爾在本地部署的是Qwen3.6-35B模型,這個(gè)參數(shù)量自然是經(jīng)過控制的,但也恰好符合現(xiàn)場布置的這些電腦的硬件需求,用Arc B390核顯搭配上32GB顯存,剛好能達(dá)到60tokens/s的生成速度。

814ee466364cb51af73cd89084568c28.jpg

(圖源:雷科技)

要知道核顯畢竟是核顯,遇上更高參數(shù)的本地大模型,這套配置的生成速度必然會(huì)顯著下降。

現(xiàn)在的話,生成速度應(yīng)該是剛剛好,60tokens/s屬于感受不到明顯延遲的水平。

至于本地模型的智商,那肯定是比不上完整的在線大模型,但是處理一下基礎(chǔ)的智能體任務(wù)倒是問題不大,什么資料檢索、文件搜集、定時(shí)推送,甚至針對(duì)特定文檔的結(jié)構(gòu)分析都能完成。

我甚至用Z-image生成了幾張圖,用時(shí)都控制在1分鐘以內(nèi)。

85ffe5ee569b13920d7834cae627622d.jpg

(圖源:雷科技)

你還別說,這個(gè)做法確實(shí)安全不少,畢竟誰也不想讓自己電腦里的學(xué)習(xí)資料或者公司機(jī)密全盤暴露在云端服務(wù)器上吧。

不過本地大模型,始終參數(shù)不夠到位,如果只用這玩意,任務(wù)稍微復(fù)雜一點(diǎn)就會(huì)開始胡言亂語,甚至執(zhí)行到一半突然卡死。

現(xiàn)場給發(fā)票進(jìn)行OCR的Demo演示,就很不巧地卡住了。

至于端云協(xié)同的部分,按理來說,在這個(gè)Demo里,本地大模型會(huì)把復(fù)雜的推理任務(wù)進(jìn)行解構(gòu),只把最關(guān)鍵的搜索指令和邏輯框架打包發(fā)給云端的超級(jí)大模型。

等云端算完把結(jié)果傳回來,本地的模型再接著接手,默默幫你排版出圖。

0f87fb132607d2868820b36eb308d448.jpg

(圖源:雷科技)

但是實(shí)際上現(xiàn)場大部分任務(wù)都會(huì)自動(dòng)走云端,或者推薦用戶走云端,要調(diào)用本地應(yīng)用反而需要特定的指令。

好消息是,這一套組合拳打下來,后臺(tái)Token消耗應(yīng)該能降低不少,至少不會(huì)像我們以前測試同類產(chǎn)品時(shí)動(dòng)不動(dòng)就燒掉幾十塊錢調(diào)用費(fèi)了。

不過話說回來,這套混合體驗(yàn)離完美還差得遠(yuǎn)。

首先,這些應(yīng)用加載的本地大模型間彼此是獨(dú)立運(yùn)行的,32GB運(yùn)存顯然不足以運(yùn)行所有本地大模型,只能在需要調(diào)用時(shí)開啟對(duì)應(yīng)的大模型進(jìn)行操作,現(xiàn)場也只有一款設(shè)備是在同時(shí)運(yùn)行多個(gè)本地大模型的。

66481e988c513d0721b6333ffbef12da.jpg

(圖源:雷科技)

其次,有時(shí)候本地和云端交接棒的時(shí)候還是會(huì)卡殼,甚至偶爾還會(huì)出現(xiàn)本地模型理解錯(cuò)意思,導(dǎo)致鼠標(biāo)在屏幕上原地轉(zhuǎn)圈圈的尷尬場面。

考慮到這些只是拿來分享的Demo,出現(xiàn)意外狀況也算是在情理中了。

與其指望云端算力降價(jià),不如部署到終端設(shè)備

在我看來,英特爾今天搞的這場分享會(huì),確實(shí)為目前的智能體落地指明了一條比較務(wù)實(shí)的方向。

要知道,在OpenClaw這類本地智能體應(yīng)用爆火后,國內(nèi)外的大模型廠商其實(shí)都有漲價(jià),差距只在于漲多漲少而已,少一點(diǎn)的可能漲個(gè)50%,多一點(diǎn)的不但價(jià)格翻倍,就連Tokens消耗也要給你偷偷加上去。

罵的就是你,那個(gè)叫Claude的不人不鬼的玩意嗷。

你現(xiàn)在要還想用上滿血OpenClaw,消耗起碼是年初的一倍不止。在這種情況下,與其指望云端算力降價(jià),不如把一部分負(fù)擔(dān)轉(zhuǎn)移到我們自己的終端設(shè)備上。

be94a939d2f374d48b92cec8aad30cd7.jpg

(圖源:雷科技)

到最后,這是一場典型的多贏局面:用戶省下了高昂的云端服務(wù)費(fèi),同時(shí)保住了大部分隱私;而芯片廠商和電腦品牌則有希望迎來久違的換機(jī)潮,在內(nèi)存和存儲(chǔ)大漲價(jià)的今年,這樣的機(jī)會(huì)可謂彌足珍貴。

但仔細(xì)想想,這背后藏著一種難以言喻的諷刺感。

我們這代人發(fā)明了越來越聰明的AI工具,這個(gè)行為的本意是為了解放雙手,讓自己有更多的時(shí)間去感受真實(shí)的生活。

可結(jié)果呢?為了能讓這只龍蝦在電腦里跑得更順暢,我們不得不花更多的錢去升級(jí)硬件,花更多的時(shí)間去學(xué)習(xí)那些晦澀的部署教程。

我們?cè)诰W(wǎng)上為了哪家廠商的模型參數(shù)更高、誰家的本地算力更強(qiáng)吵得不可開交,甚至有人為了一個(gè)尚未成熟的自動(dòng)化工具,盲目交出自己的隱私,心甘情愿地被廠商編織的效率神話牽著鼻子走。

也許在這個(gè)萬物皆可AI的年代,真正被馴化的并不是那些代碼,而是屏幕前那個(gè)越來越離不開它們的我們。

英特爾OpenClawAgent

來源:雷科技

本文圖片來自:123RF 正版圖庫     

       原文標(biāo)題 : 告別昂貴訂閱費(fèi)!英特爾發(fā)布混合AI方案:要讓Agent成為「水電煤」?

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)