最近用的最多的 AI 工具就是龙虾(OpenClaw)了,睁着眼睛的时候它都在,闭上眼睛的时候它仍旧在默默工作。不过,也有另我担心的地方。不是突然掉线,而是记忆文件丢失,尤其进行升级的时候,都会担心会不会影响它的“记忆”。
刚刚看到一款新的的多智能体工作平台 Letta。它的核心理念就是 “记忆优先”。你可以在里面创建不同的智能体分工协作,比如演示里专门写代码的 Linus 和一个日常个人助手 Draft。这些智能体能访问你的本地设备。最重要的是,每次对话都不是一次性的,交互过程中产生的上下文会持续沉淀成记忆。
比较有意思的是它记忆管理的方式。它后台有一个专门的记忆智能体,会把你和主智能体的交互内容整理优化,存到一个用 Git 做版本追踪的记忆文件系统里。用 Git 管理记忆这个思路相当不错,意味着记忆的每一次变更都有迹可循,理论上你可以回溯、对比甚至回滚。
另一个值得关注的设计是模型和记忆的解耦。你可以随时切换底层模型,不管是想试试新出的模型还是某个服务商宕机了,直接换就行,会话状态和智能体记忆都不受影响。相信大家经常在不同的平台上使用各种不同的大模型,但我们不希望把上下文分散在不同的平台里。
目前 Letta 已经支持 macOS、Windows 和 Linux 三端。我个人觉得 “记忆优先” 这个方向是对的,AI 智能体真正好用的前提,已不光是模型有多强,而是它到底有多了解你。