去年开始,越来越多人把ChatGPT当成家庭健康顾问。不是问感冒吃啥药,而是帮父母查病历、翻译医生说的术语、甚至判断要不要换医院。这事儿OpenAI自己都没料到——他们做产品的时候,医疗场景根本不在优先级前三。

一位用户在Reddit发帖说,自己用ChatGPT整理了母亲三年的体检报告,发现两家医院给出的诊断建议互相矛盾。「它帮我列了个对比表,还标出了哪个指标在A医院正常、在B医院却亮红灯。」这条帖子三天收了4000多赞,评论区变成大型问诊现场。

但翻车来得很快。有人上传了父亲的CT报告,ChatGPT把"阴影"解释成"可能是肿瘤",吓得全家连夜挂急诊,结果只是肺炎。OpenAI的免责声明写得清楚:不提供医疗建议。可用户根本不看——他们需要的是有人帮自己看懂那些密密麻麻的拉丁文缩写。

这像什么呢?就像你买了辆跑车,发现车主们都拿它去拉货,还拉得挺开心。产品经理的预设场景和真实用法之间,永远隔着一层窗户纸。医疗这块尤其麻烦,错了就是大事,但对很多人来说,比"问不到"更可怕的是"看不懂"。

目前OpenAI没有推出专门的医疗版本。一位前员工在Blind上吐槽,内部讨论过三次要不要做,三次都因为合规风险搁置。用户这边倒是越用越顺手——据说有人已经给ChatGPT建了家族健康档案,从爷爷的高血压到侄子的过敏原,全喂进去了。