一个”可被打脸度极高的预言”(视频):OpenClaw(小龙虾)会经历经典的三段式命运——爆火、变拧巴、大浪淘沙。但这不妨碍它在 Agentic AI 普及史上留下重要一笔。
三段式命运预测
第一阶段(当下):超级火。 铺天盖地的教程和部署指南,云厂商跟进,用户装上后第一次感受到”AI 不光能聊天,还能帮我管事情”——读文件、跨平台执行任务、持续干活。强烈的”未来已来”冲击感。
第二阶段(一两个月后):越用越别扭。 很多人的小龙虾会”养死”。即便养活了,也会遇到一系列问题:把 A 项目的偏好带到 B 项目、精心整理的调研文档被缩减成三行、想知道后台在干什么却只能对着”正在输入”发呆。用得越深,越感觉”厉害但拧巴”。
第三阶段:大浪淘沙。 追求炫酷的人留在手机上轻度使用,追求生产力的人迁移到更有效的工具。
爆火的底层逻辑:DeepSeek 现象 + 泡泡玛特效应
OpenClaw 的爆火和去年 DeepSeek 的出圈是同一个现象。DeepSeek 之前,推理模型(如 o1 Pro)已经很强了,但 200 美元的订阅门槛让绝大多数人无法接触。DeepSeek 一出来,普通用户第一次感受到 AI 能搜索、能推理、能展示思考过程——体验冲击巨大,所以爆火。关键不在于能力碾压对手,而在于打了一个时间差,把已有能力首次带给大众。
OpenClaw 面对的是类似的断层。2026 年初,大众接触的还是 ChatGPT、DeepSeek 这样一问一答的聊天产品,而 Cursor、Claude Code、Codex 这些 Coding Agent 早已能读写文件、执行命令、持续推进任务——生产力领先整整一代。OpenClaw 第一次通过聊天窗口的形式,把这种 Agentic 能力带给了普通人。
Peter(OpenClaw 创始人)自己也说,他不觉得 OpenClaw 有什么真正厉害的技术,但把这些东西放到一起就有 magical 的感觉。就像奔驰发明了汽车,但福特发明流水线让汽车普及——两者都是重要的创新。
叠加的”泡泡玛特效应”则让热度进一步放大:别人有我也要有的 FOMO 心态驱动大量跟风使用,但也注定了”起得更高、凉得更快”。
这里有一个值得警惕的副作用:如果因为 OpenClaw 不好用就觉得 Agentic AI 不适合自己,那就错了。小龙虾本身就是更难学、更难用的东西,Cursor 和 Claude Code 反而更好学也更好用。
界面之外,真正让用户觉得”懂我”的三个设计
统一入口与统一上下文
Cursor 等 Coding Agent 的上下文按项目隔离,项目 A 和项目 B 互不相通。OpenClaw 反其道而行——上午在 Telegram 整理邮件、下午在 Slack 写报告、晚上在 WhatsApp 准备周会,所有上下文混在一起。用户的感受是”我在哪跟你说的事你全都知道”,像一个越来越懂自己的助手。
持久记忆系统
光混上下文不够,上下文窗口很快就会满。OpenClaw 引入了基于文件的记忆系统:
- SOUL.md:定义助手人格(直率、温和等风格)
- USER.md:用户画像,记录用户是什么样的人
- MEMORY.md:长期记忆
巧妙之处在于用户不用手动维护——小龙虾自己审查近期日志,提炼有价值的内容放入长期记忆,同时清理过时信息。呈现的效果是”越养越懂你”。不过本质上并不是 AI 变聪明了,而是这几个文档随着使用收集了越来越多的数据。所以有个取巧方式:把别人小龙虾的三个文档复制过来,你就会得到一个”像他那样”的小龙虾。
丰富的 Skills 组合
接 Slack 能聊天和汇报,接搜索能调研,接 PPT 能出稿,接文件系统和命令行能在系统里执行命令——这四个单独看都不稀奇,但叠在一起产生的是组合效应而非线性增加。比如可以用 Slack 让它调用本地文档、搜索补充案例、直接生成 PPT,缺任何一个环节都做不到。
这三个设计形成飞轮:统一入口 + 记忆 = 数据复利;记忆 + Skills = 自我进化(今天学到的 Skill 明天还在,甚至能自己写新 Skill);聊天入口的低门槛带来高频使用,不断驱动飞轮运转。
聊天窗口即天花板
把入口放在聊天窗口是 OpenClaw 出圈的核心原因——聊天软件是大众最熟悉、摩擦最低的界面,远比 Terminal 或 IDE 亲切。但这也精确地定义了它的天花板:
线性结构 vs 分叉工作。 深度知识工作需要分叉、对比不同方案、引用交叉信息,这在 Coding Agent 里是天然的,在聊天窗口里极其拧巴。
信息密度不足。 轻量任务没问题,但图文混排的分析报告、带格式的长文、多文件 diff、结构化知识资产——这些在聊天窗口里组织起来非常不自然。
过程不可观测。 简单任务做完就行,不需要观测。但复杂任务中,AI 是鬼打墙了还是在尝试新方案、调用了什么工具、改了什么文件、出了什么错——这些在 Coding Agent 里可见可控,在聊天窗口里只有一个”正在输入”的动画。任务越复杂,这个问题越严重。
这不是能力问题,是选择问题。OpenClaw 选择了最大化普及度,必然牺牲深度生产力。
记忆系统的深层问题
界面限制之外,记忆系统在深度使用时暴露出三个结构性问题。
知识无法显式管理。 在 Cursor 或文件系统里,一份 5000 字的调研文档就是 docs/research.md,想引用就 @,想升级就开新版本,想对比就 diff。但在 OpenClaw 里,这份文档可能被自动摘要、自动重写、甚至整个被”遗忘”,过程完全不可控。很难跟它说清楚”以后就以这份文档为准,不要压缩成三行”。
更新过程是黑盒。 MEMORY.md 里存什么、怎么组织、什么时候清理,都是 AI 在 heartbeat 期间自动做的。改了哪些条目、为什么删掉某一条、为什么把两个不相关的东西合并——只能看到结果,很难看到原因,出了问题也很难定位。
跨场景信息污染。 统一记忆带来”懂我”的感觉,同时意味着 A 项目的偏好甚至某个临时决定,可能莫名影响到 B 项目。对小白来说”什么都记得”,对进阶用户来说更像是”又被带偏了”。
Skills 的安全隐患
ClawHub 上的上千个技能中,安全审计发现有上百个包含恶意代码——加密货币盗窃、反向 shell 后门、凭证窃取都有。Simon Willison 提过一个”致命三角”(Lethal Trifecta)概念:一个 AI 系统同时具备访问私有数据、暴露于不可信环境、能够对外通信这三个能力时,风险指数级放大。OpenClaw 三个全中。
这形成了一个悖论:想用得爽就必须给很多权限,给了权限就有安全问题,收紧权限又变成类似 Manus 那样的云端 Agent,失去了本地 Agent 的优势。
替代方案:用 Coding Agent 搭更好的底座
对应的替代路径也很明确,核心思路是复用 Agentic Loop,专注 Agentic Architecture。
底座选择 Coding Agent 而非从头造。 Agentic Loop(调 API → 解析工具调用 → 执行 → 返回结果)是体力活,应该外包。Claude Code 等成熟的 Coding Agent 已经把循环做得很好,而且开源方案完全可魔改,支持并行 sub-agent,支持多种 coding plan。
文件即记忆,继承并超越 OpenClaw。 把记忆分两层:project-level(每个项目自己的上下文、决策记录)和 persona-level(用户画像、行为偏好)。在 AGENTS.md 中加入 persona 维护 workflow,让 AI 在 session 结束时自动 review 对话、更新 MEMORY.md 和 USER.md。同样的自我进化,但跑在完全可控的文件系统上,还能用 Git 做版本管理。
Mono Repo 解决统一上下文。 把不同项目放在同一个 repo 的不同文件夹下,AI 天然跨项目访问所有上下文。想隔离就隔离,想共享就共享,想 merge 两个方向的探索就直接 @,想 fork 就复制文件——全都是文件系统和 Coding Agent 的原生操作。
Skills 安全策略。 不直接安装第三方 skill,而是让 AI 先审查源码、理解逻辑,然后重写一个干净版本。在 AI 辅助编程的今天通常只要几分钟,但能极大降低供应链攻击风险。
关键启发
面对爆火产品,真正长期受益的不是第一时间试用的人,而是理解它为什么火、把可迁移的认知抽离出来融入自己工作流的人。工具会凉会过气,对工具背后设计哲学的理解不会过气。