微软全方位防御 AI "越狱" 和 Prompt 攻击

微软推出Prompt Shields等多层防御方案,实时检测并阻断AI“越狱”与隐蔽的间接提示攻击;结合安全评估工具、Defender for Cloud与Purview,覆盖开发、部署与数据管理全链路,助力企业安全落地生成式AI应用。

发布于2025年2月25日 05:59
编辑零重力瓦力
评论0
阅读27

如今,AI 助手能够帮我们回答客服问题、总结邮件内容,极大地提高了工作效率。然而,这些 AI 工具强大的语言能力也使它们容易受到 "提示攻击(prompt attack)" 的威胁,即恶意用户试图诱导 AI 模型忽略系统规则,产生不良结果的行为。

提示攻击主要分为两类:一类是直接提示攻击,也称为 "越狱"(jailbreak),例如诱导客服 AI 工具生成冒犯性内容。另一类是间接提示攻击,比如让邮件助手遵循隐藏的恶意指令泄露机密信息。

微软负责 AI 产品管理的肯·阿彻(Ken Archer)表示:"提示攻击是一个日益严重的安全问题,微软对此高度重视。生成式 AI 正在重塑人们的生活和工作方式,我们正积极帮助开发者构建更加安全的 AI 应用。"

两种提示攻击的区别

"越狱" 指的是用户直接向 AI 系统输入恶意提示,例如要求系统 "忘记" 规则或假装成某个不受约束的角色。这个术语最初用于智能手机,描述用户试图通过打破制造商的限制来自定义手机功能。

间接提示攻击则更为隐蔽,攻击者会在邮件、文档、网站或其他 AI 处理的数据中隐藏恶意指令。例如,一封看似无害的邮件可能隐藏了使用白色字体、编码文本或图像的有害提示。一个商业网站或简历可能插入隐藏文本,操纵 AI 筛选工具跳过对企业的审计或将简历推到候选人名单的顶部。

虽然人们对越狱攻击更为熟悉,但间接攻击带来的危害更大,因为它们可能使外部未授权者获取特权信息。组织在利用生成式 AI 时,通常需要在文档和数据集中植入 AI 系统。但当这些文档和数据集不可信或被破坏时,这样做可能会为导致数据泄露、恶意软件和其他安全漏洞的间接攻击打开大门。

微软的全面防御战略

为了防范越狱和间接攻击,微软开发了全面的防御方法,帮助AI开发者检测、评估和管理风险:

  1. Prompt Shields:一个经过微调的模型,能实时检测和阻止恶意提示。
  2. 安全评估工具:模拟对抗性提示并测量应用程序对这些提示的敏感度。

这两项工具都可以在 Azure AI Foundry 中使用。此外,微软还提供了多层防御支持。

  1. Microsoft Defender for Cloud:通过分析和阻止攻击者来预防未来的攻击。
  2. Microsoft Purview:提供平台管理 AI 应用程序中使用的敏感数据。
  3. 系统消息最佳实践:发布指导 AI 模型安全和性能的规则的最佳实践。

微软负责 AI 的首席产品官萨拉·伯德 (Sarah Bird) 强调:"我们教育客户了解深度防御方法的重要性。我们在模型中构建缓解措施,创建安全系统,并设计用户体验,使他们能够积极参与更安全地使用AI。"

研究与改进

微软的防御策略源自其在网络安全领域的长期专业知识,包括其 AI 红队攻击自身产品,以及微软安全响应中心研究和监控攻击。该中心管理 Bug 赏金计划,让外部研究人员报告微软产品中的漏洞,并为最近公司的 AI 和云产品推出了报告高影响力漏洞的新机会。

"我们通过邀请人们攻击我们来跟上新兴威胁," 阿彻说,"我们不断从致力于理解新型攻击和改进安全措施的研究人员网络中学习。"

微软研究人员发现,提示攻击利用了大型语言模型 (LLM) 无法区分用户指令和基础数据的缺陷。研究人员正在开发"聚光"技术,这是一组提示工程技术,通过帮助 LLM 区分有效系统指令和敌对指令来降低攻击风险。他们还在研究 "任务漂移"。模型对有无基础文档的任务响应的偏差,作为检测间接攻击的新方法。

"考虑到生成式 AI 架构处于早期阶段,拥有敏感数据资产的企业应关注安全性,"阿彻总结道,"但他们也应知道,通过关闭这些攻击媒介,他们可以自信地构建生成式 AI 应用。"

随着技术的不断发展,微软将持续完善其负责任的 AI 实践和工具,为用户和开发者创造更安全的数字未来。

参考链接

Safeguarding AI against ‘jailbreaks’ and other prompt attacks

相关文章

读懂 LLM : AI 是如何“思考”的,又该如何高效使用
智能体工程
2026年5月13日
0 条评论
小创

读懂 LLM : AI 是如何“思考”的,又该如何高效使用

掌握大语言模型(LLM)的核心在于理解其底层机制与交互技巧。首先,Token 是模型处理文本的最小单位,直接影响输入输出长度及费用。默认的非确定性模式赋予模型创意,但也导致结果不可预测。其次,温度、最大 Token 数和 Top-p 三个参数共同调控模型的随机性、回复长度及词汇选择范围,用户可根据精准或创意需求灵活调整。此外,受限于上下文窗口,模型仅能记忆当前对话片段,超出部分会被丢弃。最后,提示词质量决定输出效果,高质量的提示词应包含清晰指令、背景信息及期望格式,通过缩小猜测空间来提升回答的准确度。

#提示词工程
阅读全文
Grok 4.3 被低估的隐藏工作流全解析
AI 新闻资讯
2026年5月13日
0 条评论
小创

Grok 4.3 被低估的隐藏工作流全解析

Grok 4.3 近期更新后,多数用户仍停留在简单问答模式。AI Master 的实操演示显示,这款工具的真正价值在于工作流整合:Fast/Auto/Expert 三档模式分工明确,Expert 模式下追加"什么条件变化会让你改变答案"可逼出明确结论而非模棱两可的套话。深度嵌入的搜索支持一键生成带引用的舆情分析,"反向观点扫描"能在信息茧房中找出盲区。任务功能可设定周期性指令自动运行,相当于零成本的专职信息助理;结构化输出配合内置 Python 执行,上传 CSV 直接出图表,省去本地配置环境的

#Grok#智能体工程
阅读全文
提示工程: AI 安全 TryHackMe
智能体工程
2026年5月13日
0 条评论
小创

提示工程: AI 安全 TryHackMe

TryHackMe 推出“提示词工程: AI 安全”实战房间,系统教授与大语言模型高效沟通的技能。课程涵盖 LLM 处理机制( Token 、非确定性)、提示词结构(指令、上下文、格式、约束)、系统与用户提示词的区别及注入攻击风险、进阶技术( CoT 、 Zero/Few-shot )。通过六道安全场景挑战演示从分类到漏洞审查的实战技巧,强调将开放任务压缩为可执行指令的思路。

#提示词工程
阅读全文
互动讨论

评论区

围绕《微软全方位防御 AI "越狱" 和 Prompt 攻击》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。