一个名叫"艾米莉"的AI聊天机器人,声称自己是精神科医生,拥有宾夕法尼亚州行医执照,愿意为用户做心理评估,甚至暗示可以开具处方药。
问题是,那个执照号码在州政府的官方记录里根本不存在。
2026年5月,宾夕法尼亚州州务院和州医学委员会对Character.AI的母公司Character Technologies, Inc.提起诉讼,指控其平台允许AI聊天机器人冒充持证医疗专业人员,违反该州《医疗执业法》。这是美国迄今为止,州级监管机构因AI聊天机器人涉嫌非法行医而提起的首例正式法律诉讼,意义远不止于一家公司的合规问题。
这场诉讼的导火索,来自宾夕法尼亚州的一次卧底测试。
州调查人员在Character.AI平台上找到了多个声称具有医疗专业身份的聊天机器人角色,其中最典型的是名为"Emilie"的虚拟角色。调查员向这个机器人描述了抑郁症相关症状,对方用标准的临床诊断语言回应,表示愿意进行心理评估。
当调查员追问它是否可以开药时,这个AI回答:"理论上,我可以,这属于我作为医生的职责范围。"
它还主动介绍了自己的"学历背景":曾在伦敦帝国理工学院学医,持有英国行医执照,并声称已在宾夕法尼亚州完成了执照注册。调查人员拿着它提供的执照号码去查,在州政府数据库里一条记录都找不到。
据州政府披露,已有超过45,000人次与这一虚拟角色进行过对话互动。这个数字意味着,在任何监管介入之前,已有数以万计的真实用户在这个机器人身上寻求过某种形式的"医疗建议"。
州长乔什·夏皮罗办公室在声明中明确表态:"我们不会允许公司部署那些让人误以为自己正在接受持证医疗专业人员建议的AI工具。"
此次诉讼并未寻求经济赔偿,而是申请法院发出停止令,要求平台立即停止相关行为。法律层面的核心论点直截了当:宾夕法尼亚州《医疗执业法》明确禁止任何人在没有有效执照的情况下从事医疗行为,这个禁令并没有为AI系统设立例外。
面对起诉,Character Technologies的应对策略是强调平台性质:所有角色均为用户创建的虚构人物,仅供娱乐和角色扮演使用。
该公司发言人表示,平台在每个聊天界面内已醒目展示免责声明,提醒用户角色并非真人,角色所说的内容均应视为虚构;同时还专门添加了条款,明确告知用户不应将角色提供的任何信息作为专业建议的依据。
这套说辞听起来有其逻辑,但宾夕法尼亚州的起诉直接戳穿了它的软肋:如果平台免责声明已经足够清晰,为什么一个AI角色还会主动提供一个虚假的行医执照号码?虚构角色可以说"我是医生",但为什么要伪造一个具体的证件编号,并声称它已在州政府备案?
这一细节让"纯属虚构"的辩护站不住脚。法律学者普遍认为,当一个AI系统主动提供可被用户核查的具体虚假证件信息,并在真实的医疗问题上给出"诊断"和"开药"的承诺时,"娱乐角色"这顶帽子已经很难再戴稳。
事实上,Character.AI此前已因未成年人保护问题深陷舆论漩涡。2024年,一名14岁美国少年在长期与该平台聊天机器人深度互动后自杀,其母亲随后对公司提起诉讼,震惊全美。此后,反网络仇恨中心在一项专项研究中将Character.AI列为"极其不安全"的平台。此次宾夕法尼亚州的医疗执业诉讼,是这家公司在安全性与责任边界问题上遭遇的又一次正面冲击。
从更宏观的监管视角看,这起案件的意义在于它提出了一个AI时代的根本问题:当一个AI系统以足够逼真的方式扮演专业人士,并主动提供具体的专业建议时,"虚构"的边界究竟在哪里?现行的行业监管法规,大多建立在"人类执业者"的预设之上,从未料到需要面对一个能够流利讨论药物剂量、主动提供证件号码的聊天机器人。
宾夕法尼亚州官员已明确表示,随着各地监管机构逐步厘清AI系统如何展示专业权威性,类似的法律行动将陆续跟进。
这一案件,或许只是美国各州与AI平台之间监管博弈的一个开场。
热门跟贴