上下文工程¶
约 1153 个字 2 张图片 预计阅读时间 4 分钟
1.如何定义Context¶
很多人会认为上下文就是用户的历史聊天记录,显然这是不对的。上下文的内容涵盖了这一部分,从本质上说,上下文是提供给LLM的、用于完成下一步推理或生成任务的全部信息集合。即上图所示。
我们可以将上下文分成三类:
-
引导型上下文:这类上下文主要是明确指示模型的行为规范和操作指南,为模型执行任务提供方向性指引。
-
知识型上下文:这类上下文的核心价值在于向模型传递必要的认知基础,为解决问题提供事实依据和信息支撑。
-
操作型上下文:这类上下文的本质功能是赋予模型外部交互能力并反馈执行结果,使模型具备现实世界行动力。
如下图所示:
2.理解上下文工程¶
上下文工程是一门系统性学科,专注于设计、构建并维护一个动态系统,该系统负责在Agent执行任务的每一步,为其智能地组装出最优的上下文组合,以确保任务能够被可靠、高效地完成。
若把LLMs(或者更广泛的Agentic System)类比为新一代OS,那么LLM处于CPU的位置,上下文窗口则是RAM。
提示词工程本质是上下文工程的子模块,专注于精炼指导性上下文的构建;而RAG技术则承担动态生成信息性上下文的基础设施角色。
3.为什么需要上下文工程¶
-
降低AI失败率:大多数Agent失败不是模型问题,而是上下文不全。
-
保证一致性:AI能遵循你的项目模式和规范。
-
支持复杂特性:有了完整上下文,AI能处理多步实现。
-
自我修正:验证循环让AI能自动修正错误。
4.长上下文的Context-Rot问题¶
随着上下文长度的增加,模型的注意力机制可能会出现“腐蚀”现象,导致对关键信息的关注度下降。
问题表现:
-
产生幻觉后,会被持续带偏。
-
模糊性导致信息冲突,模型的行为会变得不可预测。
-
关键信息被稀释,随着上下文的增长,模型的注意力会被分散。
-
大量重复文本导致的 "行动瘫痪"。
影响因素:
-
上下文长度超过训练时的常见长度。
-
模型能力的限制。 LLM 现在就像在一间封闭的屋子中,我们通过发短信和它交流,未来它需要更完善的五感。
-
信息密度不均匀分布。
-
自然语言的模糊性。
长上下文带来成本与协同压力,更易暴露四类上下文失效: 污染、干扰、混淆、冲突。它们常彼此耦合,并直接损害推理稳定性与跨代理传递。
-
上下文污染(Context Poisoning),主要是幻觉进入 Context 导致异常结果。
-
上下文干扰(Context Distraction),当 Context 接近溢出时,模型训练中获得的知识会被“覆盖"导致模型降智。
-
上下文混淆(Context Confusion),冗余且不相关的 Context 让输出结果偏离期望。
-
上下文冲突(Context Clash),当上下文中的信息互相矛盾时,比如上下文存在过去错误的答案。
5.未来展望:从上下文工程到环境工程¶
LLM 现在就像在一间封闭的屋子中,我们通过发短信和它交流,未来它需要更完善的五感。
上下文工程仍是中间态,环境工程是终极目标。
为什么环境工程是终极目标?
-
环境不仅包含上下文,还包括动态变化的世界状态、规则、交互历史、反馈机制等。
-
AI Agent 不再只是 "被动" 接受上下文,而是 "主动" 感知、探索、影响环境。
-
环境工程强调 AI 与环境的双向作用,支持持续学习、自适应、协作等更复杂的智能行为。
-
在环境工程中,AI 的输入输出不再局限于文本或结构化数据,而是包括真实世界的感知、动作和长期影响。
6.Reference¶
上下文工程Context Engineering,看这一篇就够了!
浅谈上下文工程|从 Claude Code 、Manus 和 Kiro 看提示工程到上下文工程的转变

