Google Gemma 4:310 亿参数干翻万亿大模型?

Google 发布 Gemma 4,以 31B 稠密和 26B 混合专家模型挑战千亿级大参数。该系列在 Arena AI 榜单跻身开源前三,工具调用满分,数学与推理能力出色,且能在消费级 PC 甚至手机、树莓派等边缘设备流畅运行。尽管上下文窗口为 256K 略逊于顶级竞品,但凭借 Apache 2.0 协议及广泛的部署支持,其高性价比与实用性使其成为开发者构建智能体及本地化应用的首选。

发布于2026年4月7日 10:42
编辑零重力瓦力
评论0
阅读19

开源模型什么时候能真正跑赢那些动辄千亿参数的大怪兽?Google 最新发布的 Gemma 4 或许给出了一个有说服力的答案。

Gemma 4 模型家族有 4 个版本,最受关注的是 31B 稠密模型和 26B 的混合专家版模型(激活参数只有 4B)。在 Arena AI 文本排行榜上,31B 拿到了全球开源模型第三名,而它的对手 Qwen 3.5 总参数高达 3970 亿,Kimi K2.5 更是万亿级别。这样规模的模型,顶配 GB300 一样跑不动。而 Gemma 4 31B 在大多数中高端消费级 PC 上就能跑。

Gemma 4 的工具调用能力非常出色。SteveVibe 用 ToolCall 15 基准测试跑了所有 4 个版本的模型,31B 拿了满分。模型原生支持函数调用、结构化 JSON 输出、系统指令,能够无缝接入智能体工作流。AIME 2026 数学测试达到 89%,GPQA Diamond 84.3%,这样的的体量能有这样的成绩,确实也没什么好挑剔的。

Gemma 4 的两个小尺寸版本 E2B 和 E4B 用了逐层嵌入技术(PLE),每个解码层有独立的小型嵌入表,实际推理时参数量远小于名义值。模型还专门为手机、树莓派这类边缘设备做了优化,并且原生支持音频输入。

让人稍感遗憾的是上下文窗口,最大只有 256K,和目前 1M 上下文的顶级模型相比还是有不少差距。

模型基于 Apache 2.0 协议,Hugging Face、Ollama、LM Studio 都能直接下,商用也没有问题。总的来说,Google 这款开源模型,性能算不上最好,但实用性和性价比都没话说。

相关文章

如果你还没用过 OpenClaw,2026.5.2 版是一个好起点
AI 产品工具
2026年5月12日
0 条评论
零重力瓦力

如果你还没用过 OpenClaw,2026.5.2 版是一个好起点

OpenClaw 2026.5.2 稳定版发布,核心策略转向“做减法”。xAI Grok 4.3 成为默认模型,赋予智能体实时信息获取能力。架构上,插件与诊断模块外移,实现按需安装,显著降低体积并提升维护效率。Gateway 热路径性能优化修复了 268 个 Bug,大幅改善启动速度与运行稳定性。新增 SDK tools.invoke RPC 接口,打通外部系统调用通道,标志着框架从个人助手向基础设施演进。

#OpenClaw#Grok
阅读全文
文字转 CAD AI 完整指南
AI 产品工具
2026年5月9日
0 条评论
小创

文字转 CAD AI 完整指南

文本转 CAD AI 正重塑工程设计方式:用户通过自然语言描述即可在 60 秒内生成可编辑的三维模型。主流工具如 Zoo 、 AdamCAD 等已实现商业化应用, 2026 年进入生产可用阶段。文章强调输入质量决定输出质量,提供了从设计描述到模型生成的完整工作流,并指出 CAD 工具的价值门槛正从“会操作”转向“会描述”,提示词能力成为工程师的核心竞争力。

#3D 生成
阅读全文
NVIDIA 开源 Nemotron 3 Nano Omni:一个模型通吃视频音频文字
AI 产品工具
2026年5月7日
0 条评论
零重力瓦力

NVIDIA 开源 Nemotron 3 Nano Omni:一个模型通吃视频音频文字

NVIDIA 开源 Nemotron 3 Nano Omni,以 30B 总参数、3B 激活的混合专家架构,实现视频、音频与文字的统一处理。该模型通过 Mamba 与 Transformer 结合及高效视频采样技术,将多模态推理吞吐量提升最高 9 倍,显著降低延迟与显存占用。相比传统三模型拼接方案,它更适合构建高并发 AI Agent,支持本地消费级显卡运行,已在文档智能、客服等场景验证实际价值。

#开源模型
阅读全文
互动讨论

评论区

围绕《Google Gemma 4:310 亿参数干翻万亿大模型?》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。