机器之心发布
最近,AI 圈又多了一个「48 小时开源」的故事。
4 月 20 日,OpenAI 发布了 Chronicle,带来了一个很关键的能力:AI 可以直接「看见你的屏幕」,并持续记住上下文。
这意味着什么?不只是聊天更顺了,而是交互方式变了。在写代码、改文档、调设计稿时,你不再需要向 AI 反复解释「这个」、「刚刚那个文件」或「上一步做了什么」,它自己看得到,也记得住。
当然,获得这种能力目前有一个前提: 订阅 。Chronicle 目前仅对 ChatGPT Pro 用户开放, 每月 100 美元 。
然而仅仅 48 小时后,另一条路线出现了。一群 00 后开发者组成的团队「Vida」,发布了一个开源项目: OpenChronicle 。

GitHub: https://github.com/Einsia/OpenChronicle
他们的动机在发布推文中写得很直白:
OpenAI 的 Chronicle 指向了一个重要的未来。但 AI 的记忆,不应该被锁在 100 美元/月的付费墙之后。所以,我们把它开源了。
同样是「看屏幕 + 持续记忆」,但它做了三件更激进的事:可以完全本地运行、可以接任意模型(包括本地模型)、可以被不同 AI Agent 共享调用。
换句话说,他们不是在做一个单纯的功能替代品,而是将「AI 的眼睛和记忆」从单一产品中直接拆解出来。至此,AI 第一次拥有了可复用的「记忆层」。
这件事也没有停在 GitHub。OpenChronicle 发布后很快在海外社区引爆讨论,相关帖子短时间内超过 2000 条,不少开发者开始接入、复现甚至二次开发。

社区里的一句高赞评论是: 「这不只是一个开源项目,这是把 AI 从『产品形态』往『系统形态』推了一步。」
那么,这个「记忆层」具体能做什么?开发团队给了三个非常具体的用例。
1)结合上下文,理解你的指代

当 AI 缺乏持续记忆时,突然问一句「what’s the bug of that?」,模型往往不知所措。但接入 OpenChronicle 后,Agent 会直接调取你当前的屏幕上下文(如 VS Code 里打开的文件、报错信息),将「that」精准解析为具体代码,带来截然不同的交互体验。
2)跨会话连续性

开发团队做了一个测试:在一个全新的对话里,让 Claude 写一个 OpenChronicle 的 logo prompt。注意,开发团队从来没有在 Claude 中提过 OpenChronicle。
没有连续记忆时,模型第一步是反问:「OpenChronicle 是什么?」;但有了 OpenChronicle,它会直接从开发者在其他软件(浏览器、飞书、VS Code)的操作中检索项目信息,然后一步给出结果。不需要解释,不需要复制粘贴上下文,对话之间不再是孤立的。
3)让 Agent 学会你的习惯并执行

这一点很微妙,但极为关键。在开发团队看来:记忆不应该只是帮助 Agent「理解你」,还应该让它「按照你的方式行动」。
比如 OpenChronicle 发现一个用户,习惯于工作用 Google Calendar,家庭用 Apple/Fantastical。当用户说:「Add dinner with my parents this Sunday.」 Agent 会自动把这个任务路由到「家庭日历」,而不是工作日历。
一个 Agent 学会你的习惯、按照你的行为模式执行任务的未来,似乎已经触手可及。
从「对话记忆」,到「工作流记忆」
与主流 AI 的 Memory 不同,OpenChronicle 会观察你正在使用的应用(IDE、Notion、Figma),读取屏幕内容(代码、文档、界面),并记录一个任务是如何一步步推进的。 它记住的不是聊天,而是「你在干什么」。
这件事一旦成立,体验就会发生一个很微妙但很本质的变化:你在飞书上和团队讨论的开发方案。不用解释上下文,AI 可以直接接着你们的思路往下走;你在改第三版设计稿,AI 不只是看这一版,还知道前两版是怎么一步步改过来的。
它开始理解「过程」,而不是某一个瞬间的输入输出。它更像是一层基础设施。
OpenChronicle 不绑定特定模型或工具,Claude Code、Codex、OpenCode、Claude Desktop 等都可以一键接入,甚至连 MCP 配置都是自动生成的。
这意味着开发者不需要再为每一个 Agent 单独做一套记忆系统。不同工具之间,也第一次有机会共享同一份「用户上下文」。AI 记忆,开始变成一层可以被复用的东西。

甚至连「记忆怎么存」,都不是黑箱
OpenChronicle 没有把自己做成一个黑盒:
记忆是用 Markdown 存的
检索用的是 SQLite
结构通过 AX Tree 暴露出来
你可以读、可以改、可以迁移。
这让「AI 记忆」第一次长得有点像数据库,或者操作系统组件:不是一个功能,而是一块可以被组合的基础能力。
同时,它也选了一条很明确的路线:本地优先。你可以用本地模型总结记忆,数据完全不出设备。也可以随时暂停,随时恢复。记忆可以很强,但不一定要变成「全程监控」。
更大的变化,还在后面
如果把视角再往后拉一点,这件事就更加有趣。
过去,大多数 AI 的工作方式很简单: 你问 → 它答 → 结束。但现在开始变了。AI 会先看环境、再结合历史、再参与当前任务、然后继续留下痕迹。
交互的单位,从「一次对话」,变成了一段「持续发生的过程」。AI 不再只是被调用,而是开始「待在你的工作里」。
Chronicle 和 OpenChronicle,其实是两种很典型的选择:一种,是把「记忆」做成产品能力,放进订阅体系里;另一种,是把「记忆」拆出来,变成所有系统都能用的一层基础设施。
但真正的问题,其实不在「开源还是闭源」。而在另一件更现实的事: 当 AI 可以长期记录你的行为、你的习惯、你的工作过程——这些东西,归谁?
OpenChronicle 的答案很简单:留在本地,归用户。于是,一个新的结构开始出现了: 模型可以换,工具可以换,但你的「上下文」始终是连续的。
这让三件事情开始松动:
记忆的控制权,在平台还是在用户手里
记忆的边界,是被锁在应用里,还是可以流动
记忆的形态,是黑箱能力,还是数据层
如果说大模型阶段解决的是「AI 能不能理解并回答你 」, 那么下一阶段的核心命题将是:「AI 能否持续陪伴并参与你的世界」。而这一次,分歧已经出现。
转载请联系本公众号获得授权
投稿或寻求报道:liyazhou@jiqizhixin.com
]article_adlist–>
<!-- 非定向300*250按钮 17/09 wenjing begin -->
<!-- 非定向300*250按钮 end -->
</div>