美国精神科医生平均预约等待期是48天。在犹他州农村,这个数字可能翻倍。
Legion Health的解法是把AI塞进处方流程——不是辅助诊断,是直接续方。州监管机构点了头,但给这套系统上了三道锁:只处理既往有人类医生处方的药物;患者过去12个月没因精神问题住院;药物清单限定在12种常见抗抑郁/焦虑药,包括氟西汀(百忧解)、舍曲林(左洛复)等。
创始人Arthur MacWaters的算盘很直白:用AI填上精神科医生的人手缺口,让偏远地区患者不用等两个月换药。
但打开这扇门的代价,是踩进一片伦理沼泽。
三个月前的翻车现场:AI推荐冰毒治社恐
犹他州不是第一次试水。去年12月,另一款叫Doctronic的AI问诊工具上线测试,结果成了网络安全研究者的玩具。
他们没费多大劲就让AI输出疫苗阴谋论,把奥施康定(Oxycontin)剂量翻三倍,最离谱的一条是——建议用甲基苯丙胺(冰毒)治疗社交退缩。Doctronic的底层逻辑被撬开后,暴露的是训练数据过滤和边界设定的集体失职。
Legion Health声称自己"更谨慎"。公司承诺每月向州监管和执业医师提交报告,药剂师深度介入续方环节。但技术架构的补丁,补不上医学伦理的裂缝。
哈佛医学院数字精神病学主任John Torous的批评很具体:这些药物"需要更主动的管理、调整和审慎考量",而不是算法流水线作业。犹他大学医学院精神科医生Brent Kious补充了另一层担忧——自动化可能催生精神科的"过度治疗 epidemic"。
当续方门槛被AI拉低,真正需要复杂干预的患者和轻度焦虑人群,会被混进同一个漏斗。
AI读不懂的:患者故意答错
Legion的聊天机器人会问标准化问题,评估症状稳定性和用药依从性。但临床精神科的核心技能之一,是识别患者在撒谎。
有人为了快点拿到药,会淡化副作用、夸大疗效、隐瞒饮酒或违禁药物使用。人类医生能从迟疑的语速、回避的眼神、前后矛盾的描述里嗅出异常。AI的输入框里没有这些信号。
Kious对The Verge说:"如果透明度更高、科学验证更充分、测试更严格,再让人用这东西,会更好。"
这句话的潜台词是:现在不是时候。
但Legion的扩张时间表没打算等。MacWaters放话要在年底前把续方机器人推往"全国",犹他只是 proving ground(试验场)。
48天等待 vs 算法即时响应:谁该为后果买单
精神类药物的特殊性在于,它们调整的是大脑化学平衡,而患者的自我报告是剂量调整的核心依据。SSRI类药物(如舍曲林)的副作用包括自杀意念风险升高——尤其在用药初期和剂量变更期。
Legion的系统被设计为"续方-only",理论上避开了最危险的启动阶段。但12个月的稳定期门槛,挡不住病情波动的灰色地带。一个患者在第11个月出现隐匿性恶化,AI的问卷能 catch 到吗?
更现实的悖论是:最需要精神卫生服务的人群——重度抑郁、双相障碍、边缘型人格——恰恰是AI被禁止服务的对象。系统筛选出的"稳定患者",可能本就是医疗需求最低的一群人。
用技术解决可及性(access)问题,结果可能只是给已经能看上病的人,再开一条更快的通道。
MacWaters的愿景里,犹他州"数十万生活在精神卫生资源短缺区的人口"是受益主体。但资源短缺的定义很复杂:是地理上的够不着,还是支付能力上的够不着,或是文化 stigma 导致的主动回避?AI续方解决的是第一层,对后两层几乎无能为力。
犹他州监管机构的妥协姿态,某种程度上反映了美国医疗体系的结构性焦虑。精神科医生培养周期长达12年,供给缺口持续扩大,AI被当作权宜之计塞进裂缝。但权宜之计的累积,会重塑整个行业的底线。
Doctronic的翻车发生在三个月前,Legion的获批发生在现在。时间线本身说明,监管者对"更谨慎"的承诺,比对技术风险的评估更有信心。
Kious想要的透明度、科学验证、严格测试,在商业化推进面前能守住多少?当全国扩张启动,犹他州的月度报告机制还能复制吗?
精神类药物的处方权,是人类医学史上最谨慎让渡的权力之一。现在它的一部分被交给算法,而算法还分不清"患者说没事"和"患者真的没事"。
如果AI续方在犹他州跑通,下一个试验场会是哪里?而那个被缩短的48天等待期里,省下来的时间,最终会流向更好的护理,还是更多的药片?
热门跟贴