想象一下,你有一位绝顶聪明的朋友。他通晓天文地理,能背诵莎士比亚的全集,甚至能在一秒钟内解出复杂的微分方程。但这位朋友有一个致命的弱点:他患有严重的短期健忘症。
每次你们对话结束,他转过身去,只要一眨眼,他就会彻底忘记你是谁,忘记你们刚才聊了什么,甚至忘记他曾答应过帮你做的事。当你再次向他打招呼时,他会用那双充满智慧却又空洞的眼睛看着你,礼貌地问道:“您好,请问有什么可以帮您?”
这就是大型语言模型(LLM)的真实写照。它们是无状态(Stateless)的巨人,被困在永恒的“当下”。
如果你想让这位巨人不仅聪明,而且懂你——记住你喜欢坐飞机的靠窗位,记得你上周提到的项目代号,甚至记得你讨厌香菜——你就需要一场工程学的魔法。在这篇深度文章中,我们将深入《Context Engineering: Sessions, Memory》这份前沿技术白皮书的核心,探索如何通过上下文工程(Context Engineering)、会话(Sessions)与记忆(Memory),为 AI 编织出一条连续的时间线,赋予它们某种意义上的“灵魂”。
在深入技术细节之前,我们需要纠正一个误区:这不仅仅是“提示词工程(Prompt Engineering)”。
提示词工程就像是给大厨一张菜谱(System Instructions),告诉他“做一份红酒炖牛肉”。但如果厨房里一团糟,牛肉还没解冻,红酒找不到,大厨就算有米其林三星的水平也做不出一顿好饭。
上下文工程(Context Engineering),则是烹饪界至高无上的法则——Mise en place(一切各就各位)。它不仅仅是写几句漂亮的指令,而是动态地组装、管理和清洗所有“食材”。
注解:Context Engineering 指的是动态地组装和管理 LLM 上下文窗口内信息的过程。它不仅包括系统指令,还包括从外部数据库(RAG)、会话历史(Session Store)和长期记忆(Memory Manager)中检索并注入的最相关信息。目标是确保模型拥有完成任务所需的“不多不少”的精准信息。想象一下,当用户发来一句“还是老规矩”时,Context Engineering 的后台机制开始疯狂运转:
在这个架构中,会话(Session)扮演着至关重要的角色。它是我们与 AI 互动的最前线。
白皮书中用了一个绝妙的比喻:Session 就像是一个正在进行项目的工作台(Workbench)。
当你在处理一个任务时,你的桌子上摆满了工具、草稿、便签和参考书。这一切都是为了当下的工作服务的。它们触手可及,甚至有些凌乱。这就是 Session 的本质——它是临时的、按时间顺序排列的交互记录。
但是,工作台的空间是有限的。随着对话的深入(Events 不断增加),Session 变得越来越长。如果我们把从盘古开天辟地以来的所有对话都塞给 LLM,会发生什么?
滑动窗口(Keep the last N turns):只带最近几件衣服。简单粗暴,但可能会丢掉前面的关键线索(比如你刚开始时说的“我叫邦德”)。
递归总结(Recursive Summarization):把旧衣服压缩成真空袋。每隔一段时间,用另一个 LLM 把之前的对话总结成一段摘要,放在开头。
基于Token的截断:像守门员一样,严格控制进箱的物品数量。
Session 是为了生存(Survival),是为了让对话能继续下去。但当项目结束,我们不能把乱糟糟的工作台直接封存。这就引出了下一个主角。
如果说 Session 是混乱的工作台,那么记忆(Memory)就是那个一丝不苟的档案柜。
当项目(对话)结束后,你不会把桌子上的草稿纸和吃剩的披萨盒一起存起来。你会整理:
很多人容易混淆 RAG(检索增强生成)和 Memory。白皮书给出了一个极其清晰的区分:
RAG 是你的“研究型图书馆员”。他坐在巨大的公共图书馆里,周围全是百科全书和技术文档。如果你问“埃菲尔铁塔多高?”,他会精准地翻书告诉你答案。他是事实(Facts)的专家,但他不认识你,也不关心你。
Memory 是你的“私人助理”。他手里拿着一本贴身笔记,上面记满了你的私事:“老板喜欢坐靠窗的位子”、“老板的结婚纪念日是10月26日”。如果你问“我上次去巴黎住哪儿了?”,图书馆员会一脸茫然,但私人助理会立刻告诉你答案。他是用户(User)的专家。
注解: RAG (Retrieval-Augmented Generation):侧重于注入外部的、静态的、事实性的知识(Global Knowledge)。 Memory:侧重于注入动态的、用户特有的上下文(Personalized Context)。
记忆不是简单地把对话存进数据库(那是日志,不是记忆)。记忆的生成是一个复杂的 LLM 驱动的 ETL(提取、转换、加载)流水线。
我们可以把这个过程比作园艺(Gardening):
{ "destination": "New York", "date": "November" })。
在实验室里造一个有记忆的 AI 很酷,但要在生产环境中运行,就像是把一辆概念车开上繁忙的高速公路。白皮书特别强调了几个生死攸关的工程考量。
正如白皮书的标题所言,Stateful and personal AI begins with Context Engineering.(有状态的个性化 AI 始于上下文工程)。
通过 Session,我们赋予了 AI 短期记忆,让它能流畅地与我们对话;通过 Memory,我们赋予了 AI 长期记忆,让它能真正地了解我们。
这不仅仅是技术的堆叠,这是一种范式的转变。我们正在从“向搜索引擎提问”的时代,迈向“与数字伙伴共同成长”的时代。在这个新时代里,AI 不再是一个每次见面都问你“贵姓”的陌生人,而是一个记得你每一个喜好、见证你每一次成长的老朋友。
这一切的魔法,就藏在那精心编织的 Context 之中。
还没有人回复