随着 AI Agent 的快速发展,一个新的名词「上下文工程」进入大家的视野,许多人会好奇它与「提示词工程」有什么区别,是又在造新的概念吗?我们今天就来聊聊,究竟什么是「上下文工程」,以及它是如何工作的。
本文将围绕三个核心主题展开:
1.概念定义:介绍上下文工程的基本概念和核心组成部分。
2.业界工程实践:深入分析业界知名产品在上下文工程方面的具体实践。
3.未来展望:探讨上下文工程后续可能的演进方向。
今天我们将探讨的问题:
上下文工程是指构建动态系统,以合适的格式为大语言模型(LLM)提供正确的信息和工具,从而让LLM能够合理地完成任务。
上下文不仅指你发送给 LLM 的单一提示词(prompt),更应该被视为模型在生成响应前所看到的一切信息。上下文工程就是如何将合适的信息填充到有限的上下文里的艺术和科学。
其核心特点包括:

图片来源于网络
一个完整的上下文工程系统包含以下七个核心组成部分:
1.指令/系统提示词:定义模型整体行为的初始指令,可以(也应该)包含示例、规则等。
2.用户提示词:用户提出的即时任务或问题。
3.当前状态或对话历史(短期记忆):用户和模型此前的对话内容,展现当前交流的背景。
4.长期记忆:跨多次对话积累的持久性知识库,列如用户喜好、历史项目摘要、记住的特定实际。
5.检索的信息(RAG):外部的、最新的信息,包括从文档、数据库或 API 获取的相关内容,用于回答特定问题。
6.可用工具:模型可以调用的所有函数或内置工具定义(如检查库存、发送邮件等)。
7.结构化输出:明确定义模型输出的格式,例如 JSON 格式的对象。

Context Engineering 代表着从传统 Prompt Engineering 到新范式的转变。

对比维度 | Prompt Engineering | Context Engineering |
关注点 | 词句技巧和表达方式 | 提供全面上下文 |
作用范围 | 只限于任务描述的表达 | 包含文档、示例、规则、模式和验证 |
类比 | 就像贴一张便签 | 就像写一部详细剧本 |
让我们通过一个简单的演示来理解上下文工程的价值:
上下文贫乏的情况:
用户:"Hey, just checking if you’re around for a quick sync tomorrow. 嘿,想问一问明天方不方便,我们快速碰个头?"
AI:"Thank you for your message. Tomorrow works for me. May I ask what time you had in mind? 感谢来信!明天我有空。你想约在几点?"
上下文丰富的"神奇"产品:
上下文:你的日历信息(显示你日程已满)、你与此人的过往邮件(用于确定合适的非正式语气)、你的联系人列表(用于识别 ta 为关键的合作伙伴)、send_invite 或 send_email 工具。
AI:"Hey Jim! Tomorrow’s packed on my end, back-to-back all day. Thursday AM free if that works for you? Sent an invite, lmk if it works. 嗨 Jim!明天我这边日程全排满了,从早到晚连轴转。周四上午有空,你看行不?邀请已发,确认下是否合适~"
上下文工程能够带来以下重大价值:
1.降低 AI 失败率:大多数 Agent 失败不是模型问题,而是上下文不全。
2.保证一致性:AI 能遵循你的项目模式和规范。
3.支持复杂特性:有了完整上下文,AI 能处理多步骤实现。
4.自我修正:验证循环让 AI 能自动修正错误。
在上下文工程领域,有三个产品代表了不同的实践方向:
1.LangChain:代表 Agent 框架和工具集合,早期的 Agent 框架,提供了各种Agent开发的基础设施,提出了一套上下文管理的方法论。
2.Claude Code:代表 Code Agent 能力上限,编码 Agent 的能力标杆,在长短记忆、分层多 Agent 协作等方面有独到实践。
3.Manus:重新展现 Agent 能力,让 Agent 回到大众视野,带动 MCP 发展,在工具使用、缓存设计等方面有独到实践。
长上下文的Context-Rot问题
随着上下文长度的增加,模型的注意力机制可能会出现"腐蚀"现象,导致对关键信息的关注度下降。

图片来源于网络
为了解决长上下文带来的问题,业界提出了系统性的上下文工程方法论:
因此系统性的上下文工程方法论显得尤为重大。
LangChain 提出了四类上下文管理的基本方法:

图片来源于网络


图片来源于网络
将信息保存在上下文窗口之外,以协助 Agent 完成任务。不要将工具返回的全部原始信息都直接喂给 LLM。相反,应将其"卸载"到外部存储(如文件系统、数据库或一个专门的代理状态对象中),然后只将一个轻量级的"指针"返回给模型。
核心组件包括:
应用场景:
简单来说就是我们所熟悉的 RAG,通过检索和过滤相关信息,来控制进入 Context 的内容的数量和质量。
核心组件:
应用场景:
通过各种手段来裁剪上下文的内容,只保留完成任务所需的 tokens。

图片来源于网络
核心组件:
应用场景:
超级类似 Workflow 时代的"分而治之"思想,如果一个任务的 context 压力太过巨大,我们就拆分一下,分配给不同的 sub agents 来完成各个子任务。这样每个 agent 的 context 内容都是独立的,会更加清晰和聚焦。

图片来源于网络
核心组件:
应用场景:
Claude Code的工程实践
Claude Code 作为编码 Agent 的标杆,在上下文工程方面有许多独到的实践:
在长对话中,上下文管理面临 Token 限制导致信息丢失、传统压缩方法破坏上下文连续性、无法支持复杂多轮协作任务等挑战。
Claude Code 的解决方案是构建三层记忆系统:
实现从实时访问到持久化存储的完整覆盖。
关键要点:

传统 Agent 无法中断,用户必须等待完整执行结束才能调整方向,导致资源浪费和用户体验差,无法应对动态变化的需求。
Claude Code 的解决方案是采用异步消息队列 + 主循环的双引擎设计,支持实时中断和恢复,用户可以随时调整任务方向,系统自动保存状态并无缝切换。
关键要点:

复杂任务需要并发处理多个子任务,单 Agent 模式容易出现上下文污染、资源竞争和故障传播,影响整体执行效率和稳定性。
Claude Code 的解决方案是采用主 Agent 负责任务协调,SubAgent 执行专项任务,实现隔离执行环境,调度器控制最多 10 个工具并发,确保任务隔离和资源优化。
关键要点:

用户在对话中提及文件或概念时,系统无法自动关联相关信息,导致模型缺乏必要的上下文背景,影响响应质量和准确性。
Claude Code 的解决方案是智能检测用户意图中的文件引用,自动读取相关内容并注入上下文,基于依赖关系推荐相关文件,提供语法高亮和格式化显示,最大20文件8K Token限制。
关键要点:

Manus 在上下文工程方面有诸多独特的优化实践:
随着每一步的推进,上下文不断增长,而输出保持相对简短。这使得 Agent 相比聊天机器人的预填充和解码比例高度倾斜。在 Manus 中,平均输入与输出的 token 比例约为 100:1。
具有一样前缀的上下文可以利用 KV 缓存,大大减少首个 token 生成的时间和推理成本。使用 Claude Sonnet 时,输入 token 缓存 0.3 美元/百万 token,未缓存 3 美元/百万 token,十倍成本差异!
关键要点:

工具数量爆炸式增长,模型更可能选择错误的行动或采取低效的路径,但是要避免在迭代过程中动态添加或移除工具:
Manus 的解决方案是使用上下文感知的状态机来管理工具可用性,在解码过程中掩蔽 token 的 logits,基于当前上下文阻止或强制选择某些工具。
关键要点:

当前上下文窗口限制带来三个常见的痛点:
为了解决这个问题,Manus 将文件系统视为终极上下文:大小不受限制,天然持久化,并且 Agent 可以直接操作。模型学会按需写入和读取文件——不仅将文件系统用作存储,还用作结构化的外部记忆。
关键要点:

通过复述操控注意力
Manus 中的一个典型任务平均需要大约 50 次工具调用。这是一个很长的循环——由于 Manus 依赖 LLM 进行决策,它很容易偏离主题或忘记早期目标,尤其是在长上下文或复杂任务中。
Manus 的解决方案是通过不断重写待办事项列表,将目标复述到上下文的末尾。这将全局计划推入模型的近期注意力范围内,避免了"丢失在中间"的问题。
关键要点:

保留错误的内容
在多步骤任务中,失败不是例外;它是循环的一部分。不过,一个常见的冲动是隐藏这些错误,这是有代价的:擦除失败会移除证据。没有证据,模型就无法适应。
Manus 的解决方案是将错误的尝试保留在上下文中。当模型看到一个失败的行动——以及由此产生的观察结果或堆栈跟踪——它会隐式地更新其内部信念。这会改变其先验,降低重复一样错误的可能性。
关键要点:

Few-Shot 是提高 LLM 输出的常用技术。但在 Agent 系统中,它可能会以微妙的方式适得其反。LLM 倾向于模仿上下文中的行为模式,容易导致偏离、过度泛化,或产生幻觉。
解决方法是增加多样性。Manus 在行动和观察中引入少量的结构化变化——不同的序列化模板、替代性措辞、顺序或格式上的微小噪音。
关键要点:

Spec-Driven Development:从提示词到规范驱动
Vibe Coding 的局限性
传统的 Vibe Coding 模式(Prompt → Code)存在明显局限性:
1.指望用户写出高质量的提示词是不现实的。
2.快速迭代生成的代码缺乏充分的文档、单元测试或架构约束,易引入技术债务。
3.开发者可能不完全理解生成的代码,当需要调试、修改或扩展功能时面临巨大困难,难以维护和扩展。
解决方案是采用 Spec-Driven Development:
关键优势:
Kiro 的实现方式
在具体实现上,Kiro 项目采用了规范驱动的开发方式:

定义了软件使用的 Story,这些 Story 定义遵循一种叫做 EARS (Easy Approach to Requirements Syntax) 的格式: WHEN [condition/event] THE SYSTEM SHALL [expected behavior] 由 LLM 根据需求生成。可以二次确认和修改。
详细列举设计的各种技术细节:
LLM 目前就像在一间封闭的屋子中,我们通过发短信和它交流,未来它需要更完善的五感。
上下文工程仍是中间态,环境工程是终极目标。
阶段 | 主要内容 | 特点与局限性 |
提示词工程 | 设计单条高质量 Prompt,指导模型输出 | 静态、一次性、依赖人类编写,缺乏动态适应性 |
上下文工程 | 动态收集、组织和注入多模态、多维度上下文信息 | 关注"模型输入",提升智能体表现,但仍以模型为中心 |
环境工程 | 构建一个持续演化、可感知、可交互的智能环境 | 关注"模型所处的世界",AI不仅感知环境,还能主动塑造环境 |
为什么环境工程是终极目标?
1.环境不仅包含上下文,还包括动态变化的世界状态、规则、交互历史、反馈机制等。
2.AI Agent 不再只是"被动"接受上下文,而是"主动"感知、探索、影响环境。
3.环境工程强调 AI 与环境的双向作用,支持持续学习、自适应、协作等更复杂的智能行为。
4.在环境工程中,AI 的输入输出不再局限于文本或结构化数据,而是包括真实世界的感知、动作和长期影响。
通过对 Claude Code、Manus 和 Kiro 等产品的分析,我们可以看到上下文工程在现代 AI 系统中的关键作用。它不仅解决了传统提示词工程的局限性,还为构建更智能、更可靠的 AI Agent 提供了系统化的方法论。
从 LangChain 的四类上下文管理方法,到 Claude Code 的三层记忆架构和实时 Steering 机制,再到 Manus 的 KV 缓存优化和工具遮蔽技术,以及 Kiro 的规范驱动开发模式,业界正在不断探索和完善上下文工程的最佳实践。
未来,随着环境工程概念的成熟,我们将看到 AI 系统从被动接受上下文走向主动感知和塑造环境,实现更高级别的智能交互。
创意加速器:AI 绘画创作
本方案展示了如何利用自研的通义万相 AIGC 技术在 Web 服务中实现先进的图像生成。其中包括文本到图像、涂鸦转换、人像风格重塑以及人物写真创建等功能。这些能力可以加快艺术家和设计师的创作流程,提高创意效率。
点击基于通义万相快速低成本构建AI绘画应用-技术解决方案-阿里云查看详情。
¥12.00
Steam正版PC中文游戏 群星 Stellaris激活码Overlord 群星四海皆臣DLC复仇女神乌托邦 远古遗物似石族全DLC
¥59.00
PC中文正版Steam游戏 帝国时代2决定版 Age of Empires II: Definitive Edition 帝国2帝国时代二 国区激活码
¥27.00
PC中文正版 铁拳7 steam动作游戏TEKKEN 7 激活码KEY
¥39.00
Steam ARMA3 武装突袭3 激活码CDKEY 国区/全球 定端版/DLC Arma 3 Jets DLC PC正版游戏
¥21.80
PC中文正版 steam平台 国区 联机游戏 绿色地狱 Green Hell 丛林地狱 激活码 兑换码 全新成品账号
¥58.00
PC正版 steam 中文游戏 渔帆暗涌 DREDGE 国区激活码 探索 冒险游戏