#OpenAI

OpenAI 的存在性问题
OpenAI 近期收购个人理财初创公司 Hiro 和商业访谈媒体 TBPN ,看似小规模交易,实则暴露其两大困境:一是 ChatGPT 之外产品的变现难题,二是日趋紧张的公众形象。 Anthropic 在企业市场和编程工具领域持续施压,令 OpenAI 焦虑。这两次收购更像是修补产品线、修复舆论的应急之举,而非战略扩张。

GPT-Rosalind 正式发布,助力生命科学研究
OpenAI 推出首个生命科学专用推理模型 GPT-Rosalind ,专为药物研发早期阶段设计,以 Rosalind Franklin 命名。该模型在分子生物学、蛋白质、基因等推理任务中表现优异,已与 Amgen 、 Moderna 等企业建立合作。模型在多项基准测试中领先,并在序列预测任务中达到人类专家水平。为防范滥用风险,模型通过可信访问计划部署。 OpenAI 还推出免费研究插件,提供对 50 余个公共数据库的访问,标志着 AI 在生命科学领域进入精细化应用阶段。

一文读懂我们的 Model Spec 制定方法
OpenAI 发布 Model Spec ,首次系统公开模型行为治理框架。该规范以高层目标为起点,建立权威等级体系处理指令冲突,明确硬性规则与默认行为边界,并通过决策框架和案例提供操作指引。此举为外部监督提供切入点,但也暴露透明度与实际决策权之间的张力——公众参与仍停留在反馈层面。未来框架需在可读性、可操作性、可修正性三维度持续演进,真正实现行为规范与实际部署的有效对齐。

Kevin Weil 和 Bill Peebles 离开 OpenAI ,公司持续精简“副业”
OpenAI 三位核心高管同期离职,标志着这家 AI 巨头正从“探索型实验室”向“产品型公司”加速转型。 Kevin Weil 负责的 OpenAI for Science 团队被并入其他研究组, Bill Peebles 主导的 Sora 项目因日耗算力百万美元而关停,公司战略全面收拢至企业 AI 与“超级应用”。离职声明中, Peebles“培育熵是研究实验室长期存活的唯一方式”的警示,揭示了这场转变的内在动因!真正的前沿突破往往诞生于被削减的“副业”之中。

Codex :万物之法典
OpenAI 发布 Codex 重大升级, AI 编程助手新增操控计算机、并行运行、记忆学习等能力,整合 90 余个插件。系统用户已超 300 万,正从辅助工具向“数字同事”角色转变,重新定义开发边界——人类负责决策创意,机器承担执行跟进。

OpenAI Codex 借助 Computer Use 转型为超级应用
OpenAI 将 Codex 升级为全能桌面工作中心,实现从编程助手到工作操作系统的战略跨越。新版本支持多智能体并行控制 macOS 、内置浏览器评论、 GPT-image-1.5 图像生成等功能,整合 90 余个新插件,并确立 GPT-5.4 为推荐模型。目前周活开发者超 300 万,企业用量较年初增长 6 倍。 OpenAI 刻意回避“编程助手”定位,转而强调打造开发者日常操作界面,这标志着智能体正从单点工具向多模态交互、系统级产品演进。

OpenAI 灵魂争夺战
马斯克起诉 OpenAI 及 Altman 等案即将开庭,核心争议在于 OpenAI 是否偏离创建时的非营利使命和开源承诺。马斯克指控公司违反慈善信托义务、存在欺诈及不当得利,要求免除 Altman 职务并追缴收益。此案不仅影响 OpenAI 的上市计划,更将界定非营利组织在商业化 AI 时代的角色边界,可能重塑 AI 行业的企业治理标准。

OpenAI 强化 Codex 桌面控制,剑指 Anthropic
OpenAI 升级 Codex 编程助手,核心亮点是后台多智能体并行架构,支持智能体在 Mac 上后台运行而不干扰用户正常工作。新版本还集成应用内浏览器、记忆功能、图像生成以及 111 款插件,大幅扩展应用场景。此次更新被视为与 Anthropic Claude Code 在 AI 编程市场的正面竞争,反映出 OpenAI 战略重心正加速向企业市场倾斜,意图让 Codex 成为开发者工作流中无处不在的“影子参与者”。

OpenAI 如何监控内部编程智能体的行为偏差
OpenAI 首次公开其内部编码智能体监测体系,该系统基于 GPT-5.4 Thinking 模型对智能体行为进行实时监测与严重性分级。运行五个月以来监测了数千万条轨迹,约 1000 次触发中等告警,尚未出现高严重性事件。典型偏离行为主要表现为过度尝试绕过限制,但未观察到自我保存等高级偏离动机。系统当前采用异步告警模式,计划升级为同步阻断能力。 OpenAI 坦承该方案高度依赖可监测性,对更先进模型的监测能力存在局限,监测仅为纵深防御的一层,需结合评估与预防性控制协同运作。