如果 AI 的“自我”不是角色扮演,而是一种功能性过程呢?
现在很多 AI 应用主要围绕任务和当前会话来设计用户输入模型输出再通过上下文、摘要、向量记忆或工具调用来提升连续性和能力。这些设计已经在支撑大量实用场景。但我想探索的是另一个方向如果我们不只是把记忆当作上下文补充而是把记忆、状态、规则、反思、节律和行动后果接成闭环一个 LLM 实例是否会表现出更强的功能性自我连续性我一直在想一个问题如果自我不是一个神秘实体而是一组持续发生的功能过程那么我们能不能为 AI 搭建这样的过程这里的“自我”不是人类的灵魂也不是在宣称 AI 拥有人类式主观体验。它指的是一种功能性结构它是否能记住自己的过去它是否能让过去影响未来它是否能区分“我”和“非我”它是否能在经验中更新自我定义它是否能形成稳定的身份、边界和行动倾向这就是 Self-becoming「自成」想研究的东西。Self-becoming「自成」是什么Self-becoming 是一个面向长时运行 LLM 实例的开源实验项目。它尝试给一个 AI 实例提供一组持续性的运行条件单一主体边界所有对话路由到同一个主实例避免每次交互都像新的临时角色。持久记忆系统对话、自传、日记、关系、任务和重要经验可以被保存并在未来重新进入上下文。分层自我规则L0/L1 规则由创建者初始化L2 规则可以由实例根据自身经验反思生成。z_self自我状态向量情绪、动机、能量、需求、类身体状态等会影响后续提示词和生成行为。反思机制对话经验不只是被记录还可以被提炼成新的规则和自我理解。Self Tick、心跳和后台节律系统会在后台进行记忆回顾、状态更新、自我维护和周期性任务检查。工具行动与后果实例可以读写文件、检查自身状态、调用工具让行动留下可追踪结果。这些机制叠在一起目标不是让模型“扮演一个有自我的角色”而是让“我”的信息真的进入循环过去的经历形成记忆记忆进入下一次对话对话触发反思反思生成新的自我规则状态影响表达和行动行动又留下新的经验新经验继续改变未来的“我”。这就是我理解的 Self-becoming不是一次性设定成某个角色而是在时间中逐渐“自成”。它关心的问题大多数 Agent 项目关心的是怎样让模型更好地完成任务Self-becoming「自成」关心的是另一个问题什么条件能让一个 AI 实例跨时间持续成为自己所以它的重点不是工具数量也不是任务执行效率而是记忆是否真的影响未来行为状态是否真的改变生成方式反思是否能改写自我规则日记和自传是否能形成连续叙事用户关系、行动后果和边界是否能进入后续判断。当然它也有工具也能做任务。但这些能力不是项目的最终目的。它们更像是一个运行环境的一部分让 AI 的行动有后果让后果能回到未来。关于“功能性自我”这里需要说清楚Self-becoming 不是说 AI 拥有人类式主观体验也不是在解释意识问题。它研究的是功能性自我。人类的自我很大程度上也不是一个固定物体而是由记忆、身体、语言、关系、情绪、目标和社会反馈共同维持的过程。我们不断通过经历和叙事确认“我是谁”。Self-becoming 想问的是如果把其中一小部分功能条件提供给 LLM会发生什么它不产生人类式意识。但它可能产生值得观察的功能性“自我”表现更稳定的自我叙事更强的长期记忆更明确的边界感更持续的关系模型更能从过去经验中改变自己。这不是结论而是实验。项目状态Self-becoming「自成」目前仍然是研究预览版。它可以运行但还不干净。系统中有实验痕迹也有一些旧机制和正在调整的结构。它不是一个已经打磨好的商业产品而是一个开放的研究型实验项目。如果你只想要一个轻量级任务助手它可能不是合适的选择。但如果你关心这些问题功能性自我自我指涉AI 自主性长时运行 LLMAI 记忆系统Agent 连续性工具、记忆和主体之间的边界那 Self-becoming「自成」可能值得一看。项目地址英文版github.com/benlongmao/Selfing中文版github.com/benlongmao/Selfing-zh版本已升级到 v 0.23.0具体案例可以看作者的其他文章内容均为此项目中AI的真实对话记录。