大家好,我是蓝戒,本篇我们来聊聊 “AI的长期记忆问题”。
你有没有这种经历?
跟ChatGPT聊了三个月的项目细节,关掉对话窗口再开一个新聊天——它看你就像看一个陌生人。
"你好呀,我是ChatGPT,有什么可以帮你的?"
我:……我刚才跟你说的事呢???
🧠 先说清楚:AI不是完全记不住,是"长期记忆"这块一直没人搞定
先别急着喷 "AI 是金鱼脑"——事实没那么绝对。
像 Claude Code、OpenAI Codex 这类编程 Agent,其实已经有了一些记忆手段:自动压缩上下文窗口、维护 CLAUDE.md 之类的项目记忆文件、在对话内做摘要续接……这些机制让 AI 在单次工作会话和短期上下文内表现已经相当能打。
但问题在于:这些记忆都是 "会话级" 的,不是 "人生级" 的。
目前主流 AI 生态的现状是:短期上下文靠压缩技术勉强维持,但一旦涉及跨会话、跨项目、跨月的长期记忆,基本全靠第三方工具补位——Mem0、Zep、Lettta 等应运而生,但也各自带着硬伤(后面会说)。
AI 的长期记忆,至今仍是 AI 应用里最被低估的痛点。
🎬 等等,这个项目的作者是谁?!
2026年4月5日,GitHub 上出现了一个名为 MemPalace 的新仓库。
48 小时内,它便斩获了 7000+ Stars。如今更是狂揽 48.5k Stars,成为 AI 开源圈的绝对黑马。
而项目作者之一,竟然是米拉·乔沃维奇(Milla Jovovich)。
对,就是那个《生化危机》里徒手打丧尸的爱丽丝。你没看错。作为 AI 的重度用户(积累了数千段创意和业务对话),Milla 难以忍受 AI 的“遗忘症”,于是联手系统工程师 Ben Sigman(Libre Labs 创始人),用 Claude Code 亲手搓出了这个开源项目。
Milla 负责架构设计,Ben 负责工程实现。这剧本,Netflix 都不敢拍,但它真实地发生了。
🤦 现有记忆工具的致命问题:让 AI 替你删东西
市面上已有的工具(如 Mem0、Zep)通常采用“AI 挑重点存”的逻辑。但 Milla 在实测中发现:AI 挑重点存 = AI 替你删东西。
就像一个不称职的秘书,她觉得不重要的细节全丢了。三个月后你想找某个决策的底层依据时,发现原文早没了,只剩一段不痛不痒的 AI 摘要。
"有用的上下文,都被 AI 擅自丢弃了。" —— Milla Jovovich
🏛️ MemPalace 的解法:全存,再找
MemPalace 的核心设计理念极其纯粹:全存,再找。
它不摘要、不筛选、不删减。你和 AI 的每一次对话,一字不动、完整封存。当 AI 需要回忆时,通过它独特的结构化检索找到原汁原味的记录。
灵感来自古希腊的记忆宫殿法(Method of Loci)。它在代码里构建了一套空间逻辑:
| 层级 | 概念 | 作用 |
| 🏛️ Wing(翼楼) | 顶层分类 | 对应一个独立项目、人或主题 |
| 🚪 Room(房间) | 子主题 | 项目下的具体模块(如计费、部署) |
| 🛋️ Hall(走廊) | 记忆类型 | 存储事实、事件、决策依据等 |
| 🗄️ Drawer(抽屉) | 原始记录 | 对话原文,一字不动 |
| 🚇 Tunnel(隧道) | 跨域关联 | 自动打通不同翼楼间的相同主题 |
这种架构让检索不再是“大海捞针”,而是精准的“按房取物”。
📊 成绩单:水分还是实力?
在长期记忆基准测试 LongMemEval 上,MemPalace 曾打出过“100% 满分”的口号,随即引发了社区的疯狂审计。
审计结果: - 100% 满分: 确实有水分。在 top_k=50 的设置下,由于测试集的会话总数还没到 50 个,相当于把整本书翻开给 AI 看,属于“作弊式”满分。
- Raw(原始模式): 依然能打到 96.6%。这在不需要 API Key、不需要云端、完全本地运行的情况下,依然是目前公开系统的最高分。
对比竞品:
- Mem0 / Zep: 约 85%,且需每月支付 $19-$249,数据需上传至云端。
- MemPalace: 96.6%(Raw),完全免费,本地运行,隐私零泄露。
💰 运行成本:一年 0.7 美元 vs 507 美元
Milla 团队做了一个极端实验:喂入 6 个月的对话内容(约 1950 万 tokens)。
| 方案 | 需常驻加载的 tokens | 年预估成本 |
| 传统全塞上下文 | ~65 万 tokens | ~$507 |
| MemPalace | 核心索引仅 ~170 tokens | ~$0.7 - $10 |
这种“局部唤醒”机制,让 AI 醒来的瞬间就知道你是谁。如果基础记忆不够,再进行局部深度搜索。这种设计极大地节省了 Token 消耗。
🎭 争议中心:成长的代价
作为一个爆火项目,MemPalace 的争议也不小:
- 关于“满分”的认错:开发者 Ben Sigman 在被审计后,48 小时内发布公开信认错,撤下了“100%”的宣传语。这种**“跑得快,认错也快”**的风格在开源圈极其少见。
- AAAK 语言:项目自创了一种专供 AI 交流的压缩方言 AAAK,宣称“30倍无损”。但审计发现这属于**“有损压缩”**,在小规模场景下甚至会“负优化”。
- Vibe Coding 质疑:Reddit 用户质疑该项目充满了“氛围编程”(Vibe Coding)的痕迹——即代码由 Agent 生成,开发者并不完全理解底层逻辑。这导致了部分功能的实现显得粗糙,甚至是简单的 ChromaDB 包装。
✨ 为什么它依然值得你关注?
抛开宣传水分,MemPalace 抓住了两个时代命题:
- 「全存再找」的范式更正:它证明了“脉络”比“摘要”更有价值。
- 绝对的隐私安全:在数据隐私日益敏感的今天,一个本地运行、完全免费、性能还能压制云端产品的方案,本身就极具杀伤力。
🎯 适合谁?
- Claude Code / Gemini CLI 重度用户:想要 AI 跨会话记住半年前的决策。
- 独立开发者:需要给自己的 Agent 加上稳定且低成本的长期记忆。
- 隐私极客:拒绝将个人对话内容上传至第三方云端存储。
⚡ 三步搭建你的记忆宫殿
安装使用极其简单,命令行三步搞定:
第一步:安装
pip install mempalace
第二步:初始化宫殿
mempalace init ~/projects/myapp
第三步:喂入数据
项目文件
mempalace mine ~/projects/myapp
聊天记录(Claude/ChatGPT/Slack导出)
mempalace mine ~/chats/ --mode convos
完事儿!你的记忆宫殿就搭好了。
使用方式也有两种:
🔸 自动模式(支持MCP的AI客户端):
claude mcp add mempalace -- python -m mempalace.mcp_server
连接后,AI会自动调用MemPalace的29个MCP工具进行记忆检索。
🔸 手动模式(配合本地模型):
唤醒基础记忆(170 tokens)
mempalace wake-up > context.txt
语义搜索
mempalace search "我们为什么切换到GraphQL"
还支持Python API直接在代码中调用,非常灵活。
🔮 MemPalace给我们的启示
MemPalace的爆火,本质上揭示了一件事:
AI的长期记忆问题,是当下AI应用最被低估的痛点。
我们一直在卷模型能力——更聪明、更多参数、更强推理。各家生态也在拼命优化短期上下文利用效率:压缩技术、记忆文件、自动摘要续接……但跨会话、跨项目、跨月乃至跨年的长期记忆,至今仍是AI体验中最大的断层。
MemPalace用一种最朴素的方式回答了这个问题——我什么都记,你需要的时候我再找给你。
就像古希腊人说的:记忆不是删减,而是有序。
也许AI不需要变得更聪明,它只需要不再遗忘。
📎 项目地址: https://github.com/milla-jovovich/mempalace
如果觉得这篇文章对你有帮助,点个赞、转发给同样被AI"失忆"折磨的朋友吧~
你有没有遇到过AI忘掉重要对话的惨痛经历?评论区聊聊
文章评论