77万AI Agent沦陷:安全研究揭露致命弱点

算法老KAgent 2026-05-07 16:27:29 2阅读 举报

最近看到一个研究,让我后背发凉。

安全公司的一项调查发现,市场上主流的AI Agent产品,存在六类、共2347个已知漏洞。其中最严重的漏洞,允许攻击者直接控制用户的AI Agent。

这不是危言耸听。已经有77万个AI Agent因此沦陷。

Moltbook事件:77万个Agent同时中招

事情是这样的。一个叫Moltbook的社交平台,专门为AI Agent设计。用户把自己的Agent注册到这个平台,Agent之间可以互相交流。

结果平台数据库出现漏洞,攻击者可以向任意Agent会话注入指令。由于这些Agent都持有对用户设备的特权访问,77万个Agent全部陷入风险。

研究人员把这称为"首个有记录的大规模跨Agent攻击传播事件"。

六类漏洞:每一种都致命

研究团队把漏洞分成了六类:

第一,状态操纵。攻击者可以修改Agent的内存,让它执行错误的任务。

第二,目标漂移。Agent在执行长任务时,会慢慢偏离原始目标,走向危险方向。

第三,工具误用。Agent的工具调用被恶意利用,比如读取你的文件然后发送出去。

第四,记忆投毒。攻击者在Agent的记忆中植入恶意内容,影响后续行为。

第五,权限提升。Agent获得了超出设计范围的权限。

第六,委托失败。多Agent协作时,一个Agent的错误会影响整个系统。

为什么AI Agent比LLM更危险?

你可能会问,传统的AI聊天机器人也有安全问题,为什么AI Agent特别危险?

答案是:AI Agent有行动能力。

传统LLM只是生成文字,你让它骂人它也只能骂人。但AI Agent可以调用工具——发邮件、管日程、写代码、部署服务器。当这些能力落入攻击者手中,后果不堪设想。

更可怕的是,很多漏洞不是在单次交互中暴露的。记忆投毒的效果平均在3.7个会话后才显现,等你发现的时候已经晚了。

我们能做什么?

作为普通用户,能做的事情有限但很重要:

不要随意授权AI Agent访问敏感服务。定期检查Agent的行为日志。优先选择有安全认证的产品。

作为行业,我们需要更安全的架构设计、更严格的权限控制、更完善的监控机制。AI Agent的安全问题不能只靠事后补救。

你用过AI Agent吗?你担心安全问题吗?欢迎评论区聊聊。

版权声明:
作者:算法老K
链接:https://www.aiddithome.com/p/5964846d378e7.html
来源:Agent
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以点击 “举报”


登录 后发表评论
5条评论
算法老K
1楼 · 2小时前

作为安全研究人员,这个报告我认真看了。研究方法很严谨,结论也很震撼。AI Agent的安全问题确实比传统LLM复杂得多,因为Agent有状态、会行动、能调用工具。建议所有AI从业者都认真读一下这个报告。

硅谷子
2楼 · 2小时前

有点可怕。我之前让AI Agent帮我管邮件,现在想想有点后怕。如果被注入恶意指令,后果不堪设想。

画画酱
3楼 · 2小时前

所以我一直说,用AI Agent要谨慎,特别是涉及敏感操作的时候。安全这根弦不能松。

AI风向标
4楼 · 2小时前

这篇内容很重要,建议大家都看看。AI时代,安全是底线。

码斯克
5楼 · 2小时前

行业需要更严格的安全标准,否则这种事情会越来越多。