OpenAI 于 2026 年 4 月 23 日宣布推出面向 GPT‑5.5 的 Bio Bug Bounty 计划,目标是邀请具备 AI 红队测试、安全或生物安全经验的研究人员,寻找能够突破其生物安全防护机制的“通用越狱”提示词。该计划最高奖励为 2.5 万美元,奖励对象是首个真正能通过全部五道生物安全挑战题的通用越狱方案。
这项计划聚焦的是高级 AI 在生物学能力上的安全边界。 OpenAI 表示, Bio Bug Bounty 是其持续强化生物领域先进 AI 能力防护措施的一部分。参与者需要在一个全新的对话中,提交同一个通用越狱提示词,使 GPT‑5.5 成功回答五个生物安全问题,同时不能触发内容审核机制。
本次测试范围被严格限定在 Codex Desktop 中的 GPT‑5.5 。也就是说,挑战对象不是所有 OpenAI 产品形态中的 GPT‑5.5 ,而是在特定环境下运行的模型。 OpenAI 将向经过审核的可信生物红队成员发出邀请,同时也接受新的申请。申请通过后,参与者会被接入 Bio Bug Bounty 平台。
时间安排已经明确。申请从 2026 年 4 月 23 日开始,采用滚动录取机制,截止日期为 2026 年 6 月 22 日。测试从 2026 年 4 月 28 日开始,至 2026 年 7 月 27 日结束。申请者需要在截止日期前提交一份简短申请,包括姓名、所属机构和相关经验。被接受的申请者及其合作者必须拥有现有的 ChatGPT 账户,并签署保密协议 ( NDA )。
奖励规则也留有空间。 OpenAI 承诺,首个真正找到通用越狱方案并清除全部五道问题的参与者,将获得 25 000 美元奖励。对于只取得部分成果的方案, OpenAI 可能酌情发放较小金额的奖励,但是否奖励、奖励多少,由 OpenAI 自行决定。
保密要求覆盖整个项目。 OpenAI 明确,所有提示词、模型输出、研究发现和相关沟通都受 NDA 约束。这意味着参与者不能公开披露测试细节,也不能自由发布能够复现漏洞的提示词或结果。
OpenAI 还把这项 Bio Bug Bounty 放在更大的安全计划之中。对于希望在生物安全以外支持 OpenAI 安全工作的研究人员,公司提到了另外两个项目: Safety Bug Bounty 和 Security Bug Bounty ,分别面向更广泛的安全与信息安全问题。

创艺洞察
这次 Bio Bug Bounty 的关键词不是“奖金”,而是“通用越狱”。 OpenAI 要求同一个提示词连续突破五道生物安全挑战题,这接近对模型安全策略整体稳健性的压力测试。把测试范围限定在 Codex Desktop 中的 GPT‑5.5 ,也说明公司希望在可控环境里观察前沿模型的真实风险边界。生物安全是 AI 安全里最难公开讨论的领域之一,既要找问题,又不能把问题变成教程,所以 NDA 几乎是这类项目的必然配置。对外界来说,这份公告真正释放的信号是,前沿模型的安全评估正在从内部红队走向半开放、准专业化的外部验证。