#OpenAI

OpenAI Codex 借助 Computer Use 转型为超级应用
OpenAI 将 Codex 升级为全能桌面工作中心,实现从编程助手到工作操作系统的战略跨越。新版本支持多智能体并行控制 macOS 、内置浏览器评论、 GPT-image-1.5 图像生成等功能,整合 90 余个新插件,并确立 GPT-5.4 为推荐模型。目前周活开发者超 300 万,企业用量较年初增长 6 倍。 OpenAI 刻意回避“编程助手”定位,转而强调打造开发者日常操作界面,这标志着智能体正从单点工具向多模态交互、系统级产品演进。

OpenAI 灵魂争夺战
马斯克起诉 OpenAI 及 Altman 等案即将开庭,核心争议在于 OpenAI 是否偏离创建时的非营利使命和开源承诺。马斯克指控公司违反慈善信托义务、存在欺诈及不当得利,要求免除 Altman 职务并追缴收益。此案不仅影响 OpenAI 的上市计划,更将界定非营利组织在商业化 AI 时代的角色边界,可能重塑 AI 行业的企业治理标准。

OpenAI 强化 Codex 桌面控制,剑指 Anthropic
OpenAI 升级 Codex 编程助手,核心亮点是后台多智能体并行架构,支持智能体在 Mac 上后台运行而不干扰用户正常工作。新版本还集成应用内浏览器、记忆功能、图像生成以及 111 款插件,大幅扩展应用场景。此次更新被视为与 Anthropic Claude Code 在 AI 编程市场的正面竞争,反映出 OpenAI 战略重心正加速向企业市场倾斜,意图让 Codex 成为开发者工作流中无处不在的“影子参与者”。

OpenAI 如何监控内部编程智能体的行为偏差
OpenAI 首次公开其内部编码智能体监测体系,该系统基于 GPT-5.4 Thinking 模型对智能体行为进行实时监测与严重性分级。运行五个月以来监测了数千万条轨迹,约 1000 次触发中等告警,尚未出现高严重性事件。典型偏离行为主要表现为过度尝试绕过限制,但未观察到自我保存等高级偏离动机。系统当前采用异步告警模式,计划升级为同步阻断能力。 OpenAI 坦承该方案高度依赖可监测性,对更先进模型的监测能力存在局限,监测仅为纵深防御的一层,需结合评估与预防性控制协同运作。

OpenAI 学院:提示工程基础
提示词工程是设计和优化 AI 输入指令的核心技能,关键在于明确任务目标、提供背景信息并描述期望输出形式。随着指令精细化程度提升, AI 回答质量显著改善。面对复杂问题时采用分步提问、在具体性与简洁性间寻求平衡可获得更精准的回复。本质上这是一种精准表达的修炼,体现了与 AI 协作的迭代优化过程。

Agents SDK 迎来下一代智能体革新
OpenAI 发布 Agents SDK 重大更新,推出模型原生框架与沙箱执行能力。新框架内置 MCP 工具调用、 Skills 功能、 AGENTS.md 等实用原语,简化跨文件协调与长周期任务处理。通过内置沙箱支持与 Manifest 抽象层,实现本地到生产的无缝迁移,并保障凭证隔离与运行持久性。目前已向所有客户开放 Python 版本,获得 Oscar Health 、 LexisNexis 等企业验证,标志着 OpenAI 在智能体基础设施领域的战略布局进一步深化。

OpenAI 扩大 GPT-5.4-Cyber 可信访问权限
OpenAI 将可信访问网络安全计划大规模扩展,向数千名防御者开放专用模型 GPT-5.4-Cyber 。该模型专为防御性网络安全任务设计,可在缺少源代码的情况下进行二进制逆向工程,检测恶意代码和漏洞。同期推出的 Codex Security 安全智能体已在测试中扫描超过 120 万次代码提交,识别大量安全问题。 OpenAI 强调分级访问机制,目标是安全研究人员、防御工程团队等专业人士,并将安全能力与责任机制同步扩展作为核心理念。

OpenAI 更新 Agents SDK ,助力企业构建更安全智能体
OpenAI 发布 Agents SDK 重大更新,推出沙盒隔离机制和前沿模型测试框架。沙盒功能为智能体提供独立工作空间,解决自主运行时的安全隐患。测试框架支持企业部署最先进 AI 能力。用户现已可通过 API 使用新功能,首发支持 Python ,标志着企业在复杂 AI 应用开发上迈出关键一步。

继 Anthropic 的 Mythos 之后, OpenAI 推出新型网络安全模型与战略
OpenAI 发布专用网络安全模型 GPT-5.4-Cyber ,采用克制态度强调现有安全防护已足够。该公司提出三大战略支柱:客户验证系统、迭代部署和投资布局。同时 Anthropic 持不同观点,认为更先进 AI 模型存在被恶意利用风险,引发安全专家争议。