10月24日,微软悄悄更新了Copilot服务条款。最扎眼的一条:Copilot被明确定义为"娱乐目的"(entertainment purposes only)。

这不是玩笑。全球1.5亿月活用户,每天用它写代码、改简历、做财务分析——现在官方说,这玩意儿本质是"消遣"。

条款里的"免责声明"比功能列表还长

条款里的"免责声明"比功能列表还长

新条款用整整三段讲同一件事:Copilot会犯错,而且错得五花八门。信息可能不可靠、不相关、不准确,甚至"看似可信实则完全错误"。微软的原话是:「Always use your judgment」——永远用你自己的判断。

翻译一下:出了事别找我。

更细思极恐的是"非唯一性"条款。Copilot给你的回答,可能同时发给微软、发给其他用户。你的专属商业计划书,可能是隔壁桌同事的周末作业模板。条款写得直白:「Other people may send similar Prompts as yours, and they could get the same, similar, or different Responses」

这相当于在合同里埋了一颗雷:你的"原创"内容,版权归属永远是一笔糊涂账。

13岁门槛背后的法律防火墙

13岁门槛背后的法律防火墙

打开网易新闻 查看精彩图片

微软把用户年龄卡死在13岁,部分国家18岁。未登录用户和功能受限用户,被单独归进"法律或安全原因"的灰色地带。

这套设计很产品经理思维:用技术门槛切割法律责任。未成年人用出事了?条款写了年龄限制。游客模式出纰漏?条款写了功能受限。企业用户依赖Copilot做决策?条款写了"娱乐目的"。

层层嵌套的免责条款,像极了保险精算师的产品设计——不是防风险,是防诉讼。

Code of Conduct(行为准则)部分更是干脆。禁止爬虫、禁止自动化工具、禁止非个人用途。三条红线画死:Copilot是单人玩具,不是生产力基础设施。

Copilot Actions和Shopping的新条款藏着什么

Copilot Actions和Shopping的新条款藏着什么

这次更新专门加了Copilot Actions、Copilot Labs、Shopping体验的条款。前两者是微软押注的"AI代理"方向——让Copilot替你执行跨应用任务。

但条款同步收紧了。Shopping体验被单独拎出来,意味着电商场景的法律风险被单独隔离。Copilot Labs的实验性功能,则被套上了额外的免责枷锁。

一个有趣的细节:微软在条款里反复强调"更清晰、更简单"(clearer and simpler),但实际字数比旧版多了近40%。法律文本的"简化",往往是把模糊表述替换成精确免责。

打开网易新闻 查看精彩图片

对比OpenAI和Google的条款,微软这次走得更极端。ChatGPT的服务协议至少承认"专业用途"的存在,Gemini保留了企业订阅的独立条款。只有微软,把消费级产品彻底摁进"娱乐"筐里。

当1.5亿人每天"娱乐"着工作

当1.5亿人每天"娱乐"着工作

现实是荒诞的。同一批用户,白天用Copilot写Python脚本,晚上用它生成睡前故事——前者算"娱乐",后者也算"娱乐"。微软用一词多义,完成了法律层面的乾坤大挪移。

企业IT部门现在面临一个尴尬局面:员工用个人账号把公司数据喂给Copilot,出了泄露事故,责任算谁的?条款写得清楚,微软"不控制互联网内容",也"不保证回答准确性"。

换句话说,数据进了Copilot的黑箱,出来的可能是任何人的答案。而微软的立场是:我提醒过了,是你非要"娱乐"的。

这种设计让人想起早期共享单车的用户协议——把"交通工具"定义为"休闲娱乐设施",以此规避交通事故的连带责任。微软显然研究过历史。

条款最后埋了颗硬钉子:美国用户必须接受强制仲裁,放弃集体诉讼权利。第15条的仲裁条款,用全大写警告框单独突出。这不是标准格式,是战斗姿态。

当AI公司开始用"娱乐"重新定义生产力工具,用户手里的"免费"究竟标价多少?你的下一次"娱乐",会娱乐掉什么?