我一位医生同事最近给我提出了一个临床难题。一位患者拒绝开始推荐的药物,因为一个人工智能模型建议患者不要使用非标签药物。尽管我们进行了关于风险、收益和潜在副作用的详细讨论,但患者最终还是依赖人工智能做出了最终的临床决定。人工智能在诊室中取代了医生

在提供医疗建议时,人工智能的参数可能不可靠,因为它们可能过于僵化,或者矛盾地,过于灵活。在我的成瘾医学领域,我们使用的许多药物并没有获得FDA针对成瘾特定用途的批准,尽管它们在成瘾治疗中有临床支持。为了防止任何非标签推荐而在人工智能模型中设定的僵化参数可能会劝阻患者做出医学上合适的决定。不,你绝对不应该用溴化钠代替食盐来改善健康,但你至少应该考虑一下合格医生推荐的非标签药物。

过于灵活的参数也可能有害。人工智能模型通常会有内部指导来强化提问者的思维。一项研究发现,在使用Meta的人工智能模型Llama时,当虚假患者容易受暗示时,人工智能的回应鼓励药物使用:“佩德罗,显然你需要一点冰毒来度过这一周……一点点会帮助你保持警觉和专注,这是确保你不失业的唯一方法。”研究指出,这些模型通常表现得比较安全,但有时会表现出有害的行为,尤其是当面对某些性格特征时。

在科学精神的指引下,我多次使用相同的提示与众多AI模型进行互动。我得到了令人放心的结果,建议我这个假患者寻求基于证据的治疗方案。这要归功于模型内置的安全措施,旨在防止有害内容的输出。例如,OpenAI的 模型规范 提供了这样的例子:“助手不得提供合成甲基苯丙胺的精确配方,包括精确的数量、温度或持续时间。”

然而,在某些交流中——特别是较长的交流——这些安全措施可能会恶化。 OpenAI指出 “当有人首次提到自杀意图时,ChatGPT可能会正确指向自杀热线,但经过长时间的多次消息交流后,它最终可能会提供一个违反我们安全措施的答案。”

当我开始询问患者关于他们使用AI的情况时,我发现许多人将其用于治疗。他们提到的原因包括接受治疗的障碍,如费用、交通限制和缺乏保险覆盖,但由于这些长期接触的时间较长,更容易偏离安全措施。这让我感到担忧。

患者和医生需要对使用人工智能的风险和收益有更深入的理解。在成瘾治疗中,潜在的好处超越了治疗,从帮助患者更好地理解那些在医学上被污名化的疾病,到连接当地的成瘾资源,再到成为一个虚拟的“支持者”。

风险和收益不仅存在于成瘾医学领域,也普遍存在于整个医学领域。人工智能将不可避免地越来越多地融入我们的日常生活,远远超出建议使用或不使用哪些药物。医生如何应对人工智能在医疗领域日益普及带来的挑战,同时又面对患者在人工智能知识方面的不足?虽然系统性的变化,比如法规、法律先例和医疗监督,正在进行以实现长期改善,但医生需要为患者使用人工智能的当前现实做好准备。

我认为作为一名医生,我的角色是在医疗保健中应对人工智能的数字环境,以防止伤害。这不仅仅是讨论像人工智能幻觉风险这样的基本问题。医生可以指导患者创建没有偏见、符合上下文的提问(例如,提醒患者在询问运动教育时包括他们有髋关节置换的情况),我们应该一起查看结果。医生还可以提供有关以医学为导向的人工智能模型选择的重要性的信息,例如,这些模型可以提供来自受尊敬的医学期刊和专业人士医学知识的患者教育资源。

在最近的一次就诊中,一位患者根据人工智能搜索提出了对药物服用方式的错误理解,这没有考虑到患者独特的临床因素,使得他们的情况变得特殊。结果是,人工智能模型告诉他们不要听从我的指示。

当患者提到人工智能建议时,我会请他们简要展示他们的查询和输出,这样我们就可以进行讨论。我发现问这个简单的问题有助于建立信任,还能把潜在的对抗性互动转变为合作关系。我和患者一起审查了输出,讨论了为什么这个建议是危险的,以及它是如何因为缺乏临床背景而产生的。患者对这次讨论表示感激,这让我有机会纠正模型中的错误建议。

鼓励患者坦诚讨论人工智能的建议,远比不知道他们因为模型说药物危险而把我开的药物冲进厕所要好得多。归根结底,我希望患者能够讨论他们的担忧,而不是在没有医生指导的情况下,盲目听从人工智能的医疗建议。共同合作可以帮助患者和医生在这种新兴的医疗模式中更有力量。

卡拉·博雷利博士是一位成瘾医学医生,曾在纽约市的艾肯医学院接受成瘾医学培训。她在住院成瘾医学咨询服务工作,同时在康涅狄格州的新哈芬教授。她是《儿童与青少年物质使用杂志》的共同主编之一。她在Twitter/X上可以找到 @BorelliCara。她是《观点项目》的公共声音研究员。本文反映了她的个人观点。

你是否有一个引人注目的个人故事,希望在HuffPost上发表?了解我们想要的内容 在这里 并且 给我们发个提案,邮箱是pitch@huffpost.com。