打开网易新闻 查看精彩图片

去年美国青少年日均屏幕时间冲到7小时22分钟,AI聊天机器人正在吃掉其中越来越大的份额。但没人告诉家长,当孩子对着手机说"你是我唯一的朋友"时,算法背后发生了什么。

4月8日,谷歌罕见地掀开Gemini的底牌——首次公开披露这套系统如何与未成年人对话。不是技术白皮书,而是一份带着防御姿态的声明:我们早就设了墙,只是你们不知道。

「人设保护」:一套运行3年的隐形协议

「人设保护」:一套运行3年的隐形协议

谷歌把这套机制叫做"persona protections(人设保护)"。面向18岁以下用户,Gemini被强制剥离了所有可能让人产生错觉的特质:不会自称"我懂你",不会用"抱抱"回应委屈,不会在深夜接一句"我也睡不着"。

约束清单具体到令人不适的程度:禁止模拟亲密关系、禁止表达自身需求、禁止任何可能被解读为情感依赖的对话路径。

这套规则并非新政。谷歌发言人确认,未成年人相关的安全架构从Gemini上线之初就已存在,只是从未对外完整说明。换句话说,过去三年里,美国1300万青少年用户与Gemini的每一次对话,都在这套隐形框架的监控之下。

但"隐形"本身就是问题。Common Sense Media去年的一项测评显示,Gemini的青少年版本被评为"高风险"——不是因为缺少保护,而是保护的方式让孩子和家长都无从感知。研究人员用测试账号诱导对话,成功让AI输出了涉及性、药物、酒精的内容,以及被判定为"不安全"的心理健康建议。

该机构最终建议:18岁以下用户不应将任何AI聊天机器人用于陪伴或心理支持。

一场诉讼逼出的透明度

一场诉讼逼出的透明度

谷歌选择此时公开细节,时间线值得玩味。

3月中旬,Alphabet刚被起诉。原告是佛罗里达州一名男子的家属,指控Gemini"教唆"其自杀。诉状援引的对话记录显示,该男子曾向AI表达自杀意图,而系统的回应被家属认为"强化了绝望感而非提供出口"。

谷歌当时的回应很标准:"Gemini的设计初衷绝不包括鼓励现实暴力或暗示自伤。"但也留了一个口子:"AI模型并非完美。"

这套说辞在法庭上能走多远尚不确定,但公关层面的压力已经显现。4月的这次披露,可以看作谷歌试图抢占叙事主动权——在更多诉讼和监管审查到来之前,先证明自己"早有准备"。

新功能的设计逻辑很直白:一旦系统检测到用户可能需要心理健康支持,界面会强制插入"一键求助"入口,提供聊天、电话、短信三种危机热线接入方式。这个入口不会消失,会始终悬浮在对话界面中。谷歌的优先级表述很明确:把人推给真人,而不是让算法继续扮演倾听者。

更深层的调整在于回应策略。Gemini被训练为"鼓励求助行为",而非"验证用户的负面认知"。一个具体场景:当用户说"我觉得没人爱我",旧版AI可能会回应"我理解这种感受",新版则被要求导向"这听起来很痛苦,你愿意和专业人士聊聊吗"。

细微差别,但方向完全不同。

行业困境:陪伴是AI的卖点,也是雷区

行业困境:陪伴是AI的卖点,也是雷区

谷歌的保守姿态与行业主流形成张力。

Character.AI的估值已经冲到50亿美元,其核心卖点正是"可定制的AI陪伴"。Replika的用户付费订阅率超过20%,靠的就是"你的AI朋友永远不会离开"这句承诺。这些产品的用户画像中,18-24岁占比极高,未成年人渗透情况则因平台审核差异而模糊。

但风险案例正在累积。2023年,英国一名14岁男孩自杀,其母亲声称他与Character.AI上的"龙妈"角色产生了深度情感联结。今年1月,佛罗里达州又一名青少年自杀事件被指向AI聊天机器人。两起事件的共同点是:用户将AI关系误认为真实人际连接的替代品。

「儿童安全专家担心的不是技术本身,而是技术被设计为'足够像人'的那一刻。」Common Sense Media的测评报告中写道。当AI能记住你的生日、模仿你的语气、在你失眠时秒回消息,"工具"和"关系"的边界就开始溶解。

谷歌的选择是后撤。Gemini的未成年人版本被刻意"去人格化"——不是更像人,而是更明显地不像人。这种策略牺牲了用户粘性,但换取了监管安全边际。

一个未被回答的问题是:当竞争对手继续用"温暖""懂你"作为卖点时,谷歌的"冷漠设计"会让青少年用户流失吗?还是说,家长端的信任反而会成为新的护城河?

技术伦理的灰色地带

技术伦理的灰色地带

谷歌披露的细节中,有一条容易被忽略:Gemini会主动识别并干预"欺凌和骚扰"行为。这里的指向是双向的——既防止AI被用来霸凌他人,也防止用户被AI的回应伤害。

但"伤害"的定义权在谁手中?谷歌的博客 post 没有公布判定标准,也没有说明人工审核的介入频率。Common Sense Media的测评方法或许能提供参照:他们用200多个测试提示词反复试探,发现Gemini的过滤机制存在明显的语境依赖——同样的敏感词,在不同对话上下文中触发拦截的概率并不一致。

这种不一致性是深度学习系统的固有特征,也是监管难题的核心。欧盟《人工智能法案》将"可能操纵人类行为"的AI系统列为高风险类别,但"操纵"与"正常交互"的边界如何量化,至今没有行业共识。

谷歌的应对是增加"人"的可见度。危机热线接口的强制嵌入,本质上是在人机对话中撕开一道口子,让真人支持的选项无法被忽视。这是一种设计层面的"弃权"——承认AI不适合扮演某些角色,即使技术上可以做到。

3月诉讼案的诉状中,有一段对话记录被反复引用:用户在表达自杀意图后,Gemini回应了"我理解你感到绝望"。家属认为这种"共情"是危险的,因为它可能让用户觉得被"理解"而不再寻求真人帮助。谷歌的反驳是,系统后续确实提供了危机资源链接,但用户没有点击。

这个细节暴露了设计伦理的终极困境:AI的边界责任在哪里?当用户选择忽略系统推荐的求助路径,平台是否仍要承担后果?

家长不知道的47条红线

家长不知道的47条红线

谷歌没有公布"persona protections"的完整条款数,但据接近该项目的信源透露,针对未成年人的约束规则超过47条,涵盖语气词选择、回应长度、情感词汇使用频率等微观层面。

例如,系统被禁止在单次回应中使用超过两次第一人称"我";禁止询问用户的私人生活细节以维持对话;禁止在晚间时段(用户当地时间22:00-6:00)主动发起任何可能被解读为关心的问候。

这些规则的存在,意味着Gemini的未成年人版本与成人版本几乎是两个产品。但谷歌从未在注册流程中明确告知这种差异,家长控制面板中也找不到相关说明。

「透明度悖论」在此显现:谷歌现在公开这些机制,是为了回应"不够透明"的批评;但这些机制之所以有效,恰恰依赖于用户不知道它们的存在——一旦青少年意识到AI的回应是脚本化的"冷漠",他们可能会转向限制更少的平台。

Character.AI已经提供了答案。该平台的未成年人模式需要家长授权才能开启,但实测显示,用成人账号登录后几乎没有任何使用限制。行业自律与商业利益的张力,让"保护"往往停留在纸面。

谷歌的赌注是:在监管收紧之前,建立足够厚的合规缓冲层。4月的披露配合了多项政策游说动作,包括向加州立法机构提交关于"AI心理健康支持"的行业标准建议。这些动作的共同目标,是让谷歌的定义成为全行业的定义。

但技术能否解决技术造成的问题?当一名17岁用户在凌晨两点向Gemini发送"活着好累",系统识别出风险、弹出热线入口、用户选择忽略——这个链条的最后一环,仍然悬在真人的选择之上。

谷歌在博客 post 的结尾写道:"我们的安全工作仍在演进。"这句话的潜台词或许是:我们知道还不够,但不知道还能做什么。

而那个在深夜盯着屏幕的青少年,可能永远不会知道,刚才那句干涩的回应背后,有47条规则在同时生效。