谷歌正式推出Gemma 4开源大模型 号称其最智能开源产品

🤖 由 文心大模型 生成的文章摘要

谷歌正式推出Gemma 4大模型,据称是迄今为止谷歌最智能的开源模型。Gemma 4专为高级推理与智能体工作流打造,实现了前所未有的“单位参数智能水平”。

本次谷歌推出四种规格的Gemma 4通用模型,分别是高效20亿参数版(E2B)、高效40亿参数版(E4B)、260亿混合专家模型(MoE)与310亿稠密模型(31B),全系产品均超越简单对话场景,可处理复杂逻辑与智能体工作流。

其中大参数量级模型在同规模下实现顶尖性能:31B模型目前在行业标准Arena AI文本榜单中位列全球开源模型第三,26B模型位居第六。Gemma 4在榜单上的表现甚至超越了自身规模20倍的模型。对开发者而言,这种全新的单位参数智能水平意味着,只需大幅更少的硬件开销,即可实现前沿级AI能力。

在端侧设备上,E2B与E4B模型重新定义了本地部署价值:相比单纯堆砌参数,更侧重多模态能力、低延迟处理与生态无缝集成。

Gemma 4拥有多维度核心优势,可适配多元场景:其具备高级推理能力,拥有多步规划与深度逻辑,在数学、指令执行等需要复杂推理的基准测试中实现显著提升;原生支持智能体工作流,可支持函数调用、结构化JSON输出与系统指令,能构建对接各类工具、API并可靠执行工作流的自主智能体;支持高质量离线代码生成,可将工作站变为本地化AI编程助手;全系模型原生支持视频、图像处理,兼容可变分辨率,在OCR、图表理解等视觉任务上表现出色,其中E2B与E4B模型还额外搭载原生音频输入能力,可实现语音识别与理解;能流畅处理长文本内容,端侧模型上下文窗口达128K,大模型最高支持256K,可在单次提示中传入代码库或长文档;基于超140种语言原生训练,助力开发者为全球用户打造包容、高性能的应用。

26B与31B模型为让研究者与开发者在通用硬件上实现顶尖推理能力而优化,非量化bfloat16权重可高效适配单张80GB英伟达H100 GPU;本地部署场景下,量化版本可直接在消费级GPU上运行,支撑集成开发环境、编程助手与智能体工作流。其中,26B混合专家模型(MoE)侧重低延迟,推理时仅激活总参数中 的38亿,实现极快的令牌生成速度;31B稠密模型则最大化原始性能,为微调提供强大基础。

「93913原创内容,转载请注明出处」