打开网易新闻 查看精彩图片

据OpenAI称,每周有超过2.3亿人向ChatGPT寻求健康和保健建议。该公司表示,许多人将聊天机器人视为帮助他们应对保险迷宫、处理文件和成为更好的自我倡导者的"盟友"。作为交换,它希望用户能够信任其聊天机器人,向其提供有关诊断、药物、检测结果和其他私人医疗信息的详细信息。但是,虽然与聊天机器人交谈可能开始感觉有点像在医生办公室,但它并不是医生办公室。科技公司不受与医疗提供者相同义务的约束。专家告诉媒体,仔细考虑是否要交出你的记录是明智的。

健康和保健正迅速成为AI实验室的关键战场,也是用户是否愿意将这些系统融入生活的重大考验。本月,该行业两大巨头公开进军医学领域。OpenAI发布了ChatGPT Health,这是ChatGPT内的专用标签页,专为用户在据称更安全和个性化的环境中询问健康相关问题而设计。Anthropic推出了Claude for Healthcare,这是一个"符合HIPAA标准"的产品,据说可供医院、医疗提供者和消费者使用。

OpenAI积极鼓励用户与ChatGPT Health分享敏感信息,如医疗记录、实验室结果以及来自Apple Health、Peloton、慧俪轻体和MyFitnessPal等应用的健康和保健数据,以换取更深入的见解。它明确声明用户的健康数据将保密,不会用于训练AI模型,并且已采取措施确保数据安全和隐私。OpenAI表示,ChatGPT Health对话也将在应用的单独部分进行,用户可以随时查看或删除健康"记忆"。

隐私保护存在风险

OpenAI关于保护用户敏感数据安全的保证在很大程度上得到了帮助,因为该公司几乎同时推出了一个名称相似但安全协议更严格的产品。这个工具叫做ChatGPT for Healthcare,是支持企业、医院和直接与患者合作的临床医生的更广泛产品系列的一部分。由于相似的名称和发布日期,很容易将两者混淆,并假设面向消费者的产品具有与更多面向临床的产品相同级别的保护。

然而,无论我们采取什么安全保证,它都远非万无一失。专家表示,像ChatGPT Health这样的工具的用户通常除了使用条款和隐私政策中的内容外,几乎没有针对违规或未经授权使用的保护。由于大多数州尚未颁布全面的隐私法律,而且没有全面的联邦隐私法,像ChatGPT Health这样的AI工具的数据保护"很大程度上取决于公司在其隐私政策和使用条款中的承诺"。

即使你信任一家公司保护你数据的誓言,它也可能改变主意。"虽然ChatGPT在其当前使用条款中确实声明他们将保密这些数据,不会将其用于训练模型,但你不受法律保护,它被允许随时间改变使用条款。"

医疗建议准确性令人担忧

不仅仅是隐私问题。医学是一个严格监管领域是有原因的——错误可能是危险的,甚至是致命的。有很多例子显示聊天机器人自信地传播虚假或误导性健康信息,比如一个男子在询问ChatGPT关于减少饮食中盐分的问题后,聊天机器人建议他用历史上用作镇静剂的溴化钠来代替盐,结果他患上了一种罕见疾病。

为了解决这个问题,OpenAI明确表示其面向消费者的工具旨在与医生密切合作使用,不用于诊断和治疗。虽然OpenAI完全公开地意识到ChatGPT的主要用例之一是支持用户的健康和福祉——回想一下每周有2.3亿人寻求建议——但该公司关于它不打算作为医疗设备的断言在监管机构中具有很大影响力。

尽管声称ChatGPT不用于诊断或治疗,但OpenAI已经付出了巨大努力来证明ChatGPT是一个相当有能力的医生,并鼓励用户利用它进行健康查询。该公司在推出GPT-5时强调了健康作为主要用例,首席执行官山姆·奥特曼甚至邀请了一名癌症患者和她的丈夫上台讨论该工具如何帮助她理解诊断。

像OpenAI和Anthropic这样的公司希望他们拥有这种信任,因为他们在争夺他们认为AI下一个大市场的突出地位。显示有多少人已经在使用AI聊天机器人来获得健康建议的数字表明,他们可能有所发现。鉴于严重的健康不平等和许多人在获得基本护理方面面临的困难,这可能是一件好事。至少,如果这种信任是有根据的,它可能是好事。我们信任医疗提供者的私人信息,因为该行业已经赢得了这种信任。目前还不清楚一个以快速行动和打破常规而闻名的行业是否赢得了同样的信任。

Q&A

Q1:ChatGPT Health和ChatGPT for Healthcare有什么区别?

A:ChatGPT Health是面向普通消费者的产品,而ChatGPT for Healthcare是面向医院和临床医生的企业级产品。后者具有更严格的安全协议和隐私保护,符合医疗行业的隐私义务要求,但两者名称相似容易混淆。

Q2:使用ChatGPT Health分享医疗信息安全吗?

A:存在风险。虽然OpenAI承诺加密健康数据并不用于训练模型,但这主要依赖于公司的隐私政策承诺,缺乏法律保护。公司可以随时更改使用条款,用户数据保护主要靠公司自觉,而非法律约束。

Q3:聊天机器人提供的医疗建议可靠吗?

A:不完全可靠。已有多个案例显示聊天机器人会提供错误或误导性健康信息,比如建议用溴化钠代替盐,或给胰腺癌患者错误的饮食建议。虽然OpenAI声明其产品不用于诊断治疗,但医疗错误仍可能造成危险后果。