周一早晨,Meta员工打开邮箱,发现CTO Andrew Bosworth发来一封内部备忘录:公司要在他们的电脑上装一个叫"模型能力计划"(Model Capability Initiative,简称MCI)的工具,专门记录鼠标轨迹、键盘敲击,还有不定期截图。
目的很明确——把这些数据喂给AI,训练能替人类干活的智能体。员工自己的操作习惯,成了训练"取代自己"的教材。
这套系统到底在采什么
根据路透社报道,MCI目前部署在美国员工的办公电脑上,运行在"工作相关的应用和网站"里。
采集维度很细:鼠标怎么移动、点哪里、键盘敲了什么、屏幕长什么样。Meta发言人Tracy Clayton对The Verge的表态很直接:「如果我们想构建能帮人们用电脑完成日常任务的智能体,模型就需要真实的人类使用案例——比如鼠标移动、点击按钮、操作下拉菜单。」
Clayton强调了两点"安全承诺":有保护措施防止敏感内容泄露,数据不作其他用途。路透社还提到一个关键细节——这些数据不会被用于"绩效评估"。
但"不作绩效评估"和"不作其他用途"之间,原文没说清楚边界在哪。员工的操作数据会不会用于优化工作流程、识别低效环节,备忘录里没有展开。
ATA:藏在MCI背后的真正项目
Bosworth的备忘录透露了更大的图景。MCI采集的数据,要喂给一个叫"智能体转型加速器"(Agent Transformation Accelerator,简称ATA)的项目。
他对员工的描述是:「我们正在构建的愿景是,智能体主要完成工作,而我们的角色是指导、审查和帮助它们改进。」
这句话的潜台词很直白:人类从"操作者"变成"监工"。Bosworth没说的是这个转型的时间表——多快能实现"智能体主要干活",哪些岗位会先被覆盖,原文都没有提及。
但"加速器"这个名字暗示了节奏。Meta不是在做长期研究,是在推落地速度。
为什么偏偏是现在
用真人操作数据训练AI智能体,不是Meta独创的思路。但把自家员工变成"数据采集农场",而且规模部署、写进内部备忘录,这步棋的时机值得琢磨。
2024年以来,AI智能体的竞争明显升温。OpenAI的Operator、Anthropic的Computer Use、Google的Project Mariner,各家都在攻"让AI像人一样用电脑"这个场景。核心瓶颈不是算力,是高质量的操作数据——真实人类怎么点击、怎么犹豫、怎么纠错,这些细节 synthetic data(合成数据)很难复刻。
Meta的选择很"务实":与其花钱买数据,不如让1.5万员工(Meta 2024年Q3财报披露的美国员工数)边干活边贡献。成本几乎为零,数据质量还最高。
Clayton的声明里有个细节:"在某些应用上"采集。这个限定词说明MCI不是全量监控,而是有选择地覆盖。哪些应用被选中、选中的标准是什么,原文没提。但可以推测,优先级高的应该是高频、标准化、可自动化的工作流——比如内部工具、审批系统、数据分析平台。
员工怎么想?原文没说
整篇报道里,唯一的声音来自Meta官方:Bosworth的备忘录、Clayton的声明。没有匿名员工吐槽,没有工会回应,没有离职率数据。
"数据不用于绩效评估"这个承诺,在缺乏第三方监督的情况下,能有多大说服力?原文没有提供任何验证机制的信息。员工是否有权拒绝安装、能否查看自己被采集的数据、删除请求如何处理,这些操作层面的问题,报道都没有涉及。
一个有趣的对比:2023年Meta大规模裁员时,内部士气已经受过一轮打击。现在同一批(或换了一批)员工,要接受电脑被实时监控、操作被录屏用于训练AI——这种"工具化"体验,对留存率的影响,原文没有数据。
行业会跟吗
MCI的模式如果跑通,对AI智能体赛道会有示范效应。其他大厂的员工,可能很快也会面临类似选择:要么贡献操作数据,要么在AI自动化竞赛中落后。
但"跑通"的定义很模糊。Meta需要证明的是:采集的数据真能提升智能体性能,提升幅度值得员工隐私成本,而且不触发监管反弹。这三个条件,目前都没被验证。
Clayton提到的"保护措施",原文没有技术细节。是本地脱敏后再上传,还是云端全量存储?截图是连续录制还是触发式抓拍?敏感内容的判定标准谁定?这些问题决定了MCI是"谨慎实验"还是"大胆裸奔"。
欧盟《人工智能法案》对职场监控有严格限制,但MCI目前只部署在美国。如果未来扩展到欧洲办公室,合规成本会陡增。Meta的全球化AI战略,可能因此出现"美国先行、其他地区观望"的分化。
智能体竞赛的残酷逻辑
Bosworth的愿景描述,暴露了一个行业共识:AI智能体的终极目标不是"辅助人类",而是"替代操作"。
"指导、审查和帮助它们改进"——这三个动词的主语是人类,宾语是智能体。关系已经倒转。不是人干活AI帮忙,是AI干活人把关。
这个转变的速度,取决于两个变量:数据质量和模型能力。MCI解决的是前者,而且是用最便宜的方式解决。Meta的Llama系列模型在开源社区有生态优势,但智能体场景需要更强的多模态理解和长程规划能力。操作数据再丰富,如果模型消化不了,也是白搭。
反过来,如果模型能力突进,数据需求会指数级增长。MCI的架构能否支撑百万级操作序列的实时处理,原文没有技术规格。但从"加速器"的命名来看,Meta已经在为规模化做准备。
一个未回答的问题
报道里有个细节容易被忽略:MCI采集的是"工作相关应用和网站"里的操作。但现代办公的边界很模糊——员工会不会在Slack里聊私事、在浏览器里查病历、在内部系统里处理个人报销?
"工作相关"的判定标准,原文没有定义。是白名单制(只采指定应用),还是黑名单制(排除指定应用),抑或关键词过滤?这些技术选择,直接决定隐私风险的范围。
Clayton说"有保护措施",但保护措施和实际效果之间,隔着工程实现和审计验证两个环节。Meta历史上在数据隐私上的记录——剑桥分析事件、5.5亿美元面部识别和解金——让"相信我"的承诺显得单薄。
但原文确实只报道了MCI的存在和官方说辞,没有挖掘到违规证据或员工投诉。作为新闻改写,不能提前定罪。
冷幽默
Bosworth的备忘录有个精妙的修辞:员工未来的角色是"帮助智能体改进"。
翻译一下:你先教AI怎么干活,等AI学会了,你的角色就变成"帮它做得更好"。至于这个"更好"包不包括"取代你",备忘录没说——可能智能体还没学到那一步,也可能是下一封全员邮件的内容。
至少现在,Meta员工可以安慰自己:我的鼠标轨迹正在训练一个可能取代我的AI,但好消息是,这些轨迹不会用来扣我绩效。
热门跟贴