一位记者上周刚把采访笔记丢进ChatGPT整理,转头就在后台发现登录记录里多了个陌生设备。这不是电影情节——OpenAI终于推出了针对这类场景的防护方案,但有个前提:你得自己去找开关。

这个叫"高级账户安全"的功能,OpenAI没做任何弹窗提醒。它藏在设置深处,默认关闭,专门针对政治异见者、调查记者、民选官员和研究人员设计。但普通用户同样能开——只要你愿意放弃密码登录,接受更严格的身份验证流程。

打开网易新闻 查看精彩图片

为什么现在才推?

ChatGPT的用户协议里长期埋着争议条款:你的对话可能被拿去训练模型。去年多起数据泄露事件后,企业和个人用户对AI平台的信任度持续下滑。OpenAI的应对策略是分层的——基础用户继续用密码+短信验证,高风险人群则获得军工级防护。

这种" opt-in "设计本身就很耐人寻味。强制启用会流失懒得折腾的用户,完全不开又挡不住监管压力。于是OpenAI选择了中间路线:把选择权交给用户,同时把责任也推出去。

功能上线的同时,OpenAI与硬件安全密钥厂商Yubico达成了合作。用户能以68美元购买两支密钥套装,原价126美元。这不是慈善——Yubico在政企市场的份额正在被生物识别方案蚕食,急需消费级突破口。

四层防护具体怎么工作

高级账户安全不是单一开关,而是四个独立设置的组合。你需要全部启用才算完成配置。

第一层强制替换登录方式。密码被彻底禁用,取而代之的是通行密钥(passkey)或物理安全密钥。通行密钥依赖设备生物识别,安全密钥则是独立硬件。OpenAI要求至少配置两种验证手段,防止单点失效。

第二层收紧账户恢复流程。传统方式靠邮箱或短信重置密码,但这两种渠道都易被社工攻击攻破。新设置下,恢复账户需要更强的身份验证,具体机制OpenAI未详细披露,但明确排除了纯邮件/短信路径。

第三层缩短登录会话有效期。普通用户的登录状态可以维持数周,高级安全模式下这个时间被压缩。会话窗口越短,被盗用凭证的可利用窗口就越窄。代价是你得更频繁地重新验证身份。

第四层也是最关键的一层:自动禁用AI训练。启用后,你的对话记录不会被纳入模型改进数据集。这是此前只有企业客户才能获得的待遇,现在个人用户终于能主动关闭这个默认开启的选项。

配置过程有多麻烦

开通路径设计得并不友好。你需要先访问专门的注册页面,确认登录状态后点击"注册"按钮。系统不会引导你完成后续步骤,四个设置项分散在不同菜单层级。

通行密钥的配置相对简单,支持Face ID、Touch ID或Windows Hello的设备几分钟就能搞定。物理安全密钥则需要购买硬件、绑定设备、测试备用方案,整个过程可能耗费数小时。

Yubico套装里的两支密钥分工明确:C NFC支持近场通信,适合手机和平板;C Nano体积更小,长期插在笔记本上不易丢失。但68美元的门槛足以劝退大量个人用户——这接近ChatGPT Plus半年的订阅费用。

更隐蔽的成本在体验层面。关闭密码登录后,跨设备访问变得繁琐。临时借用他人电脑?几乎不可能。手机没电?备用验证流程足够让你错过 deadlines。

谁真的需要开这个

OpenAI的官方定位很清晰:政治异见者、调查记者、民选官员、研究人员。这四类人群的共同特征是——账户被盗的后果远超普通人。

记者的ChatGPT对话可能包含未公开的消息源信息。官员的提问记录能推测政策走向。研究者的数据涉及未发表成果。对这些用户而言,68美元硬件成本+操作摩擦是合理保险。

但普通用户的决策更复杂。如果你只在ChatGPT上问"如何写Python爬虫"或"解释量子力学",四层防护的价值有限。除非你的提问涉及医疗记录、财务细节、商业机密,否则默认安全级别基本够用。

真正值得权衡的是第四层:AI训练禁用。这不需要硬件投入,纯软件设置。但OpenAI把它打包进高级安全套件,而非单独开放。想要隐私保护?先接受完整的身份验证改造。

行业信号比功能本身更重要

ChatGPT不是第一个推分层安全的AI平台,但它是用户基数最大的那个。这个动作传递的信号很明确:AI厂商开始承认,"一视同仁"的安全策略行不通了。

此前行业惯例是把企业客户和个人用户切分开。企业买SSO集成、审计日志、数据隔离;个人用户拿基础密码保护。高级账户安全打破了这条界线——用技术门槛而非付费墙来区分用户群体。

这种设计有政治考量。强制收集训练数据会触发欧盟GDPR、加州CCPA等法规的审查风险。把选择权交给用户,OpenAI能在合规声明中强调"用户自主控制"。同时,低采纳率意味着模型训练不会受到实质性影响。

Yubico合作则是硬件安全行业的缩影。FIDO联盟推了十年无密码认证,消费级市场始终不温不火。AI平台的高价值账户可能成为突破口——当用户的ChatGPT对话值68美元保护费时,物理密钥终于找到规模化场景。

没说的那些话

官方公告里刻意回避了几个问题。

启用高级安全后,如果丢失所有验证设备怎么办?OpenAI只说"更强的恢复方法",没提具体流程。是人工审核?身份文档验证?还是彻底锁死账户?这些细节决定了功能在真实危机中的可用性。

AI训练禁用的生效范围也不清晰。是仅保护新对话,还是追溯处理历史记录?与第三方插件的交互数据是否包含在内?API调用呢?这些边界案例没有文档说明。

最敏感的在于威胁模型本身。OpenAI把攻击者定义为"账户接管者",但没解释这包括谁。是钓鱼团伙?国家级黑客?还是OpenAI自己的员工?不同威胁来源需要完全不同的防护架构。

你应该现在就去开吗

决策取决于你的使用场景和风险承受度。

如果你符合OpenAI列出的四类人群,或者ChatGPT对话包含任何泄露后会后悔的内容,68美元和配置时间是值得的投资。优先配置通行密钥,物理密钥作为备用。

如果你只是偶尔使用,至少去关闭AI训练选项——如果未来单独开放的话。目前这个功能被捆绑销售,强迫你在隐私和便利之间做全有或全无的选择。

对于大多数用户,更务实的做法是检查现有安全设置:密码是否唯一?双因素认证开了吗?登录设备列表有没有陌生条目?这些基础操作的收益远高于折腾高级功能。

但这里有个悖论:最需要高级保护的人,往往也是最没时间去配置的人。调查记者在截稿日前夜不会想研究YubiKey的NFC配对流程。民选官员的技术团队可能根本不知道这个功能存在。

OpenAI把安全责任完全转嫁给用户的做法,本质上是一种筛选机制。能完成配置的人获得保护,不能的人继续暴露在风险中。这在商业上合理,在伦理上存疑——尤其是当平台默认收集训练数据时。

更值得追问的是:为什么AI训练禁用不能单独开关?为什么需要购买硬件才能获得完整的隐私保护?这些设计选择背后是技术限制,还是刻意的用户分层策略?