上下文工程思想在大模型应用的体现
提示词工程强调的是单次用户输入的结构化prompt,包含用户角色、职责等定义,让大语言模型能够更好理解我们的意图做出回答
而随着agent系统的发展,我们需要利用llm完成更多的系统决策、推理、工具调用。这需要大量与环境交互的信息,这些信息会被一起给到大语言模型进行理解,然后大语言模型的上下文窗口是有限的,所以如何管理这些上下文信息是比较重要,能够让agent系统能够准确完成我们的指令任务,输出正确的内容
Context engineering as an umbrella that applies across a few different context types:
Instructions – prompts, memories, few‑shot examples, tool descriptions, etc
Knowledge – facts, memories, etc
Tools – feedback from tool calls
随着用户的需求进一步升级,比如多轮对话、多角色协作、深度研究、用户状态追踪等复杂任务的不断涌现,模型应用从短指令走向长流程、从静态调用走向动态交互之后,大家会发现:真正影响输出质量的,是整个输入结构的系统设计能力,而不止是用户或系统提示词本身。于是,上下文工程应运而生。它不只是对提示词工程的简单补充,而是关注整个上下文的组织方式、信息来源、结构设计和动态调度。这预示着围绕“如何获取更好输出”这一核心目标的方法论,正在发生根本性的变化
上下文工程包括上下文从哪来?保留哪些?丢弃哪些?是否要压缩?如何压缩?是否需要隔离?谁来写?谁来拼接?所有这些问题构成了上下文工程的工作边界。。
上下文工程思想在大模型应用的体现
https://yilinyo.github.io/2026/03/31/ai/上下文工程/