很多人觉得AI不好使,第一反应是模型不行,但真正卡脖子的地方往往是上下文。模型不知道该看哪些信息、哪些跟当前任务相关,自然就会一本正经地胡说八道。
而这就是最近很火的“上下文工程”在解决的事。举个例子,你让 AI 帮你准备明天的客户会议材料,没有上下文的模型只会给你一份漂亮但空洞的通用模板。而一个上下文工程做得好的系统,会自动知道你要见谁,去拉最近的工单记录,发现续约快到期了,同时还懂得不把你权限之外的内部定价信息塞进来。输出质量的差距是巨大的,但背后的模型可能一模一样。
要做好上下文工程,核心要解决四个问题。首先是数据打通,企业数据散落在数据库、文档、SaaS 平台、各种 API 里,与其全搬到一个地方,不如用零拷贝联邦查询让 AI 在数据原地直接访问,既保证实时性又不破坏原有权限。其次是知识层的构建,原始数据本身不等于有用的上下文,需要做跨系统的实体解析,把关系和层级映射出来,让数据变成知识。第三是精准检索,“更长不等于更好”,更多上下文不等于更好的上下文,必须按意图、角色、时效去过滤,别拿无关信息干扰模型。最后是运行时治理,权限校验必须发生在检索和响应的每一步,这个智能体能不能查这个数据源、这条结果该不该返回给当前用户,都得实时判断。
在精准检索这块,视频中梳理了几种进阶方案。基础 RAG 大家都熟悉了,切块、向量化、相似度搜索,简单场景好用。智能体式 RAG 则更进一步,AI 会迭代地获取数据,第一轮觉得不够就再去拿,有点像人类做调研的过程。GraphRAG 则用图结构来导航,它关心的是实体之间的关系而非单纯的语义相似度,先通过图找到相关实体和文档,再用向量搜索填充细节,精确度高很多。还有上下文压缩技术,即使模型的上下文窗口很大,噪音多了效果照样变差,所以要对长文档做摘要和优先级排序,在有限窗口里最大化信号。
如今,模型能力的边际提升在放缓,但上下文工程的优化空间还非常大。同样的模型,喂给它的上下文质量不同,输出可以是天壤之别。接下来真正拉开差距的,是谁能把上下文这套基础设施搭得更扎实。
