打开网易新闻 查看精彩图片
日本最近干了件挺矛盾的事——一边喊着要当"全球最容易开发AI的国家",一边把用户的"同意权"给削了。
4月8日,日本修订《个人信息保护法》,取消了共享部分个人数据前必须"事先同意"的要求。数字化转型大臣松本尚的原话是:现行法律是"日本发展AI的一大障碍"。
翻译一下就是:数据不够,AI练不动,所以得让用户"被默认"。
当然也不是全放开。新规划了条模糊的线——"对个人权利侵害风险较低"的数据,比如统计分析和科研用途,可以跳过同意环节。健康数据更特殊:只要"有助于提升公共健康",也能纳入。这标准弹性有多大,取决于谁当裁判。
人脸数据是另一个争议点。企业以后收集面部图像,必须说明用途,但不用再提供"退出"选项。换句话说,你的脸被扫进系统后,想删?没门。只有16岁以下未成年人还留着家长同意这道关卡。
违规代价倒是写清楚了:不当收集或恶意使用,罚违法所得等额;欺诈获取数据,另处罚款。但泄露风险"较低"时,企业连通知用户的义务都可以省了——这个"较低"怎么定义,同样没细说。
松本尚的逻辑很直白:没数据就没AI,没AI就没未来。这像极了一家创业公司为了跑通模型,先把用户协议字体调到最小。区别在于,这次是整个国家层面的"增长黑客"。
有意思的是,新规落地的同一天,国内最高检刚发布了个人信息保护公益诉讼典型案例,上海也通报了5起企业违规案例。两条新闻并排看,像是两种答案的对照组。
日本这套玩法能走多远,要看企业会不会把"风险较低"的解释权用到极致。毕竟,当"同意"变成可选而非必需,用户的知情往往就止于一份没人读的隐私政策——而那份政策,通常比电梯里的广告还难找。
热门跟贴