封面新闻见习记者 林梦晴
近日,社交平台X更新隐私政策,11月15日起,将允许X平台使用用户数据训练AI模型,除非用户选择退出,引发用户不满。此前,Adobe、谷歌等公司也在条款中引入类似内容,引起AI训练与隐私、版权等冲突的争议,相关法律问题仍在讨论中。
改变:用户数据将被用于AI训练
近日,X平台更新隐私政策,新增条款允许其与第三方共享用户数据以训练AI,除非用户选择退出。但平台并未提供明确的退出选项,且提醒用户即使内容在X上删除,也可能会在其他地方继续存在。
据过往报道,X平台曾因未通知用户而使用其推文训练AI模型Grok,违反欧盟的《通用数据保护条例》,遭爱尔兰数据保护委员会诉讼。最终,诉讼以“X公司同意停止使用欧盟及EEA用户数据训练Grok”告终。
而此次更新的隐私政策扩大了用户数据共享范围,包括第三方合作伙伴,引发用户不满,尤其是担心作品被无偿使用的创作者。部分用户表示,已在其他平台注册新账号,并将陆续转移作品。对此,X平台回应,只会使用公开可用的信息训练AI模型,不会涉及任何私有内容。但“公开”与“私有”内容的界定不明确,引发质疑。
隐患:AI数据训练的合法性
使用用户数据训练AI模型,X平台并非个例。过去一年里,Adobe、谷歌、Zoom等诸多公司纷纷将该内容引入服务条款或隐私政策。
社交平台为AI模型提供了丰富的数据资源,包括对话式内容、俚语和实时新闻,都是AI训练中的重要元素。但C4 Trends 的技术和社交媒体分析师Susan Schreiner也指出,“在生成式 AI 框架中,训练数据的质量与数据本身一样重要。如果X平台的AI Grok 接受仇恨言论甚至更糟的训练,AI容易复制并生成误导性内容。”
同时,使用用户数据训练AI涉及版权和隐私权问题,在现有的相关法规中,用户是否知情同意是判断该行为合法性的标准之一。根据欧盟的《通用数据保护条例》,公司必须获得用户的明确同意,才能使用其个人数据进行AI训练。美国加州的《加州消费者隐私法》(CCPA)规定,用户有权知道公司如何使用其数据,并可以选择拒绝其数据被出售或用于AI训练。
许多大公司会使用服务条款或隐私政策征求用户同意,以规避法律风险,但仍存在部分问题。如条款语言过于复杂或模糊,普通用户难以理解具体含义;许多条款需要“全盘接受”,用户只有同意才能使用平台服务,处于被动地位;缺乏明确的撤回机制撤销之前的“同意”。关于AI训练所使用的数据合法性问题,仍待相关法律法规进一步完善。
热门跟贴