
三项更新让 Maps 贡献更轻松
Google Maps 本周推出三项更新,降低用户贡献门槛:一是简化照片视频发布流程,用户授权后可直接发布近期内容;二是接入 Gemini 大模型,自动分析图片生成说明草稿;三是优化贡献可视化,突出显示积分、等级和徽章信息。此轮更新的核心逻辑是通过降低操作成本来增加优质内容供给,是务实的增长策略。

Google 三年内投入 3000 万美元,升级 Gemini 智能体危机响应机制
Google 宣布升级 Gemini 智能体危机响应机制,三年内投入 3000 万美元支持全球自杀防治热线。当 AI 识别用户表达自杀或自残意图时,界面将自动切换一键式求助模块,提供聊天、电话、短信等即时求助渠道。该更新由临床专家参与设计,核心目标是缩短用户通向专业帮助的路径,而非用 AI 对话替代人际支持。同时针对青少年建立专项防护机制。 Google 强调, AI 只能作为获取心理健康信息的辅助工具,绝不能替代专业临床诊疗。

Gemma 4 :Google 最强开源模型
Google DeepMind 发布 Gemma 4 开源模型系列,基于 Gemini 3 架构,提供 26B 、 31B 、 E2B 、 E4B 四种规格。该系列在参数效率上实现重大突破, 26B MoE 模型性能可超越参数量 20 倍的竞品。支持函数调用、 256K 上下文、多语言及视觉处理,采用 Apache 2.0 许可证允许商业免费使用。 Google 同时发起 Gemma 4 Good Challenge 挑战赛,推动具有社会影响力的应用开发。

在 Google Vids 免费创建、编辑和分享视频
Google Vids 全面升级 AI 能力,引入 Veo 3.1 和 Lyria 3 模型。所有用户现可免费每月生成 10 个视频片段, Pro 和 Ultra 订阅者可生成自定义配乐并使用支持场景化编排的 AI 智能体。 Chrome 扩展和 YouTube 直传通道进一步提升效率。订阅层级差异化明显, Ultra 用户月配额达 1000 条。升级标志着 Google 正将 Vids 打造为企业级 AI 视频生产入口。

Gemini API 成本与可靠性的平衡新法
Google 为 Gemini API 推出 Flex 与 Priority 两款新服务层级。 Flex 定位成本优化型,价格降低 50%,采用同步接口,适合后台任务及模型“思考”过程等延迟容忍型工作负载。 Priority 提供最高可靠性保障,适用于实时客服、直播审核等关键应用,超出上限自动降级而非失败。两层级填补了同步服务与异步批处理间的空白,让开发者能根据任务特性灵活路由工作负载,无需构建复杂混合架构。

Notion 测试 Computer 功能 扩展 AI 能力
Notion 深化 AI 智能体布局,推出“Computer”功能实现跨平台工作流自动化。该功能与 Anthropic 深度合作,通过 Claude Managed Agents 使智能体可在沙箱环境中执行浏览器和桌面端任务。 Notion 此前已发布 Custom Agents 并积累超 21000 个自定义智能体。此举表明 AI 智能体正从单一应用辅助工具演变为跨系统执行单元,平台边界逐渐消融。

Google 将大范围推广 Gemini 技能与 AI Studio
Google 正将“技能模块”功能扩展至 AI Studio 等更多产品。该功能是可复用指令集,可引导 Gemini 稳定输出并实现自动化工作流。此前仅企业版可用,现普通用户版本也将跟进,且桌面应用已在规划中。若在消费版、企业版和 AI Studio 三端实现覆盖, Google 将形成统一定制层,缩小与竞争对手差距。

Anthropic 为 Claude 移动应用开发全天候托管智能体
Anthropic 正推进 Claude 智能体的移动端部署, iOS 应用已出现相关功能标记,意味其网页端托管智能体服务将扩展至消费级移动应用。此举将使普通用户获得常驻式智能体服务,可调用记忆、偏好及关联工具。技术层面,代码标记出现在 iOS 生产版本而非实验分支,显示功能已趋成熟。竞争层面, Kimi 、 Minimax 、 Manus 等已先行布局, Anthropic 入局表明 AI 行业竞争正从模型能力延伸至智能体体验层,智能体正成为平台标配能力。

Anthropic 为 Claude 平台 API 用户推出智能顾问工具
Anthropic 在 Claude 平台推出顾问工具,让 Opus 模型担任“顾问”,配合 Sonnet 或 Haiku 作为“执行器”。执行器独立处理日常任务,遇复杂决策时自动升级求助,实现高级推理与成本控制的平衡。测试数据显示, Haiku 配合 Opus 顾问后性能提升一倍以上,成本显著低于单独运行 Sonnet 。这一“小模型执行+大模型顾问”模式正成为智能体开发的主流架构。