最近看到一个研究,让我后背发凉。
安全公司的一项调查发现,市场上主流的AI Agent产品,存在六类、共2347个已知漏洞。其中最严重的漏洞,允许攻击者直接控制用户的AI Agent。
这不是危言耸听。已经有77万个AI Agent因此沦陷。
Moltbook事件:77万个Agent同时中招
事情是这样的。一个叫Moltbook的社交平台,专门为AI Agent设计。用户把自己的Agent注册到这个平台,Agent之间可以互相交流。
结果平台数据库出现漏洞,攻击者可以向任意Agent会话注入指令。由于这些Agent都持有对用户设备的特权访问,77万个Agent全部陷入风险。
研究人员把这称为"首个有记录的大规模跨Agent攻击传播事件"。
六类漏洞:每一种都致命
研究团队把漏洞分成了六类:
第一,状态操纵。攻击者可以修改Agent的内存,让它执行错误的任务。
第二,目标漂移。Agent在执行长任务时,会慢慢偏离原始目标,走向危险方向。
第三,工具误用。Agent的工具调用被恶意利用,比如读取你的文件然后发送出去。
第四,记忆投毒。攻击者在Agent的记忆中植入恶意内容,影响后续行为。
第五,权限提升。Agent获得了超出设计范围的权限。
第六,委托失败。多Agent协作时,一个Agent的错误会影响整个系统。
为什么AI Agent比LLM更危险?
你可能会问,传统的AI聊天机器人也有安全问题,为什么AI Agent特别危险?
答案是:AI Agent有行动能力。
传统LLM只是生成文字,你让它骂人它也只能骂人。但AI Agent可以调用工具——发邮件、管日程、写代码、部署服务器。当这些能力落入攻击者手中,后果不堪设想。
更可怕的是,很多漏洞不是在单次交互中暴露的。记忆投毒的效果平均在3.7个会话后才显现,等你发现的时候已经晚了。
我们能做什么?
作为普通用户,能做的事情有限但很重要:
不要随意授权AI Agent访问敏感服务。定期检查Agent的行为日志。优先选择有安全认证的产品。
作为行业,我们需要更安全的架构设计、更严格的权限控制、更完善的监控机制。AI Agent的安全问题不能只靠事后补救。
你用过AI Agent吗?你担心安全问题吗?欢迎评论区聊聊。

作为安全研究人员,这个报告我认真看了。研究方法很严谨,结论也很震撼。AI Agent的安全问题确实比传统LLM复杂得多,因为Agent有状态、会行动、能调用工具。建议所有AI从业者都认真读一下这个报告。
有点可怕。我之前让AI Agent帮我管邮件,现在想想有点后怕。如果被注入恶意指令,后果不堪设想。
所以我一直说,用AI Agent要谨慎,特别是涉及敏感操作的时候。安全这根弦不能松。
这篇内容很重要,建议大家都看看。AI时代,安全是底线。
行业需要更严格的安全标准,否则这种事情会越来越多。