Meta最近干了一件让自家员工炸锅的事:他们要监控员工在电脑上的每一个操作——键盘输入、鼠标轨迹、点击位置、屏幕内容,然后用这些数据训练AI。
消息一出,数千名员工联名抗议。社交媒体上骂声一片,有人说这是"侵犯隐私",有人说"反社会",还有人直接问:这是把员工当训练数据用了?
Meta想干什么
按照Meta内部公告的说法,这是为了让AI模型学习"人类实际如何使用电脑完成日常任务"。翻译成人话就是:让AI学会像人一样操作电脑。
这个方向本身没问题。现在很多AI公司都在研究让Agent操作软件——自动填表、点击按钮、处理文档、回复邮件。这些场景的核心是:AI需要理解人类使用软件的方式。
传统的做法是用合成数据训练,或者让测试人员在受控环境下操作。但这些数据质量有限,真实用户的操作习惯和边界情况很难覆盖。
Meta的选择是直接收集真实数据。员工每天都在用电脑处理工作,这些操作数据太丰富了——什么场景下点击哪里、遇到问题怎么解决、任务完成的典型路径……这些数据训练出来的AI,操作能力肯定比合成数据强。
问题出在哪
但这个逻辑忽略了一个关键问题:员工不是测试用户,他们是真实的人,有隐私权和知情权。
监控员工电脑这事儿,在法律上就有争议。不同国家的劳动法和隐私法规对这种程度的监控有严格限制。有些员工明确表示,从未同意自己的操作数据被用于AI训练。
更深层的问题是信任危机。员工发现自己的日常工作正在被公司当作训练燃料,这种感觉比996还让人不舒服。毕竟加班至少还有加班费,被当数据源可什么都换不来。
从AI伦理角度看,这事儿也值得反思。AI行业一直在讨论数据来源的正当性——训练数据要经过同意、要有合理的用途限制。但转头自己就用员工数据搞监控,这种双重标准很难站住脚。
行业里的类似操作
Meta不是唯一一个在数据收集上"激进"的公司。
之前有报道称,一些公司通过分析员工的邮件、聊天记录来评估工作表现。客服行业的AI系统会记录每一通电话的完整内容。某些创意公司的AI工具会保存用户的所有生成结果。
这些行为有一个共同点:打着"提升效率"或"优化产品"的旗号,把用户(包括员工)的数据价值最大化。在AI竞争加剧的背景下,这种冲动只会越来越强。
问题是,边界在哪里?收集什么样的数据是合理的?需要什么样的同意和告知程序?违规的代价是什么?这些问题的答案,目前还是模糊的。
对普通人的启示
Meta这次翻车,给我们提了个醒:AI时代,普通人既是受益者,也可能是被采集的对象。
你的操作习惯、浏览记录、社交关系、位置轨迹……这些数据都在被不同主体以不同方式使用。AI越强大,数据价值越高,采集的冲动也越强。
作为普通人,有几个原则可以参考:了解自己被收集了什么数据、用途是什么、是否有拒绝的选项。如果一家公司对员工数据都不尊重,它对外部用户的数据保护能力也值得怀疑。
AI应该是让人的生活更好的工具,而不是把人变成数据的燃料。这条底线,不管技术发展到什么阶段,都不应该突破。
监控员工操作电脑训练AI,这操作太骚了
双重标准自己人头上就翻车,活该被骂
以后入职要先签数据授权协议了
AI时代打工人的隐私,基本等于不存在
数据伦理底线到底在哪,各家公司自己定