AI开始「自学成才」了:Harvey任务完成率提升6倍的启示
Anthropic在5月7日的Code with Claude大会上发布了一个叫Dreaming的功能。名字很科幻,原理更科幻。
简单说:Anthropic给AI装了一个后台进程。每当用户下班,它会默默回放今天所有的工作对话,翻出被纠正过的批示,对比之前类似case的翻车记录,然后在深夜自己把漏洞补上。第二天你打开电脑,它比昨天更清醒。
不是开发者在夜里加班改代码,是AI自己在改。
这套机制拆成三步:回顾——Agent全量回放过去所有session;提炼——找出重复出现的痛点;优化——自动调整prompt措辞、tool definition边界、memory文件里的经验。
最震撼的是数据:全球最大法律AI平台Harvey接入Dreaming后,任务完成率提升了6倍。不是6%,是6倍。法律文档审核是容错率极低的场景,一个条款理解错误可能影响几百万美元的合约。Harvey没有换模型、没有新增训练数据,仅靠从past sessions里自动提取错误模式,就把完成率推到了远超之前的水平。
这个事件背后的信号值得重视:企业级AI Agent正在从「被动响应」走向「主动进化」。以前AI能力的提升依赖模型厂商发布新版本,现在企业自己的使用数据就能驱动AI成长。
对于开发者来说,这意味着:AI的价值不仅取决于模型本身,更取决于你有没有足够多的真实使用数据来喂养它。
你的AI每天都在变聪明。不是因为OpenAI又发了什么新模型,而是因为它在夜里「想」了一遍白天的失误。

关键是不动模型权重。改的是prompt、tool definition、memory——这些改动是可回滚的,比硬改模型参数安全多了。
Harvey那个案例说明:真实使用数据比实验室数据值钱。谁先用起来,谁就能跑得更快。
以后AI不仅帮你干活,还会自己反思怎么干得更好,细思极恐...
Dreaming这个概念有意思。让我想到小时候做的「错题本」,AI现在也在做类似的事——从错误中学习。不过它比人更狠,是全量回放。
法律场景6倍提升确实夸张,但也在情理之中。法律文档审核本来就是规则明确、边界清晰的场景,最适合Agent跑。