4月3日消息,今日,谷歌正式推出 Gemma 4 大模型,據(jù)稱是迄今為止谷歌最智能的開源模型。Gemma 4 專為高級推理與智能體工作流打造,實(shí)現(xiàn)了前所未有的“單位參數(shù)智能水平”。

本次谷歌推出四種規(guī)格的 Gemma 4 通用模型:高效 20 億參數(shù)版(E2B)、高效 40 億參數(shù)版(E4B)、260 億混合專家模型(MoE)與 310 億稠密模型(31B)。全系產(chǎn)品均超越簡單對話場景,可處理復(fù)雜邏輯與智能體工作流。
其中大參數(shù)量級模型在同規(guī)模下實(shí)現(xiàn)頂尖性能:31B 模型目前在行業(yè)標(biāo)準(zhǔn) Arena AI 文本榜單中位列全球開源模型第三,26B 模型位居第六。Gemma 4 在榜單上的表現(xiàn)甚至超越了自身規(guī)模 20 倍的模型。對開發(fā)者而言,這種全新的單位參數(shù)智能水平意味著,只需更少的硬件開銷,即可實(shí)現(xiàn)前沿級 AI 能力。

在端側(cè)設(shè)備上,E2B 與 E4B 模型重新定義了本地部署價值:相比單純堆砌參數(shù),更側(cè)重多模態(tài)能力、低延遲處理與生態(tài)無縫集成。
以下是 Gemma 4 模型系列的核心優(yōu)勢:
高級推理:具備多步規(guī)劃與深度邏輯能力,在數(shù)學(xué)、指令執(zhí)行等需要復(fù)雜推理的基準(zhǔn)測試中實(shí)現(xiàn)顯著提升。
智能體工作流:原生支持函數(shù)調(diào)用、結(jié)構(gòu)化 JSON 輸出與系統(tǒng)指令,可構(gòu)建能對接各類工具、API 并可靠執(zhí)行工作流的自主智能體。
代碼生成:支持高質(zhì)量離線代碼生成,將工作站變?yōu)楸镜鼗?AI 編程助手。
視覺與音頻:全系模型原生支持視頻、圖像處理,兼容可變分辨率,在 OCR、圖表理解等視覺任務(wù)上表現(xiàn)出色;E2B 與 E4B 模型額外搭載原生音頻輸入能力,可實(shí)現(xiàn)語音識別與理解。
更長上下文:流暢處理長文本內(nèi)容。端側(cè)模型上下文窗口達(dá) 128K,大模型最高支持 256K,可在單次提示中傳入代碼庫或長文檔。
140 + 種語言:基于超 140 種語言原生訓(xùn)練,助力開發(fā)者為全球用戶打造包容、高性能的應(yīng)用。
26B 與 31B 模型
為讓研究者與開發(fā)者在通用硬件上實(shí)現(xiàn)頂尖推理能力而優(yōu)化,非量化 bfloat16 權(quán)重可高效適配單張 80GB 英偉達(dá) *** GPU;本地部署場景下,量化版本可直接在消費(fèi)級 GPU 上運(yùn)行,支撐集成開發(fā)環(huán)境、編程助手與智能體工作流。

26B 混合專家模型(MoE)側(cè)重低延遲,推理時僅激活總參數(shù)中的 38 億,實(shí)現(xiàn)極快的令牌生成速度;31B 稠密模型則最大化原始性能,為微調(diào)提供強(qiáng)大基礎(chǔ)。
E2B 與 E4B 模型
從底層設(shè)計便追求極致算力與內(nèi)存效率,推理時實(shí)際占用參數(shù)分別為 20 億與 40 億,節(jié)省內(nèi)存與設(shè)備電量。與谷歌 Pixel 團(tuán)隊(duì)、高通、聯(lián)發(fā)科等移動硬件廠商深度合作,讓這些多模態(tài)模型可在手機(jī)、樹莓派、英偉達(dá) Jetson Orin Nano 等端側(cè)設(shè)備上完全離線、近零延遲運(yùn)行。安卓開發(fā)者現(xiàn)已可在 AICore 開發(fā)者預(yù)覽版中搭建智能體流程,實(shí)現(xiàn)與 Gemini Nano 4 的向前兼容。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...