因为各种原因,医生无法对患者表达足够的同理心或设身处地着想。这是全球医学界的共性问题。患者问“我为什么会得癌症?医生无言以对;“医生这个药有效吗?” 医生说“先吃吃看,没效果再换药。” “我以后怎样做才能不得病?”“医生答道“人吃五谷杂粮,哪儿有不生病的”。你满意这些回答吗?

现在越来越多医生相信AI机器人做得好,或许帮助医生更精准回答患者的切身利益问题。关注详情

阅读文摘


现代医学在同理心或同情心方面面临诸多挑战。医生和患者沟通时,往往无法表现足够的同情心,这些很可能影响患者的治疗选择和效果

随着医生面临的工作压力和强度增加,医学专家开始探讨利用GPT-AI(生成式AI)帮助医护人员解决这一全球共性问题——同理心和同情心。

部分专家认为,GPT-AI可以模拟同情语言,提供个性化交流和反馈,辅助医患者沟通和交流。

然而,应用ChatGPT(聊天机器人)也面临诸多风险和伦理问题,比如,GPT-AI生成的同理心语句和情感表达可能被患者识别,认为是机器人或ChatGPT生成的,不是真实的同情。

此外,在短时间内AI可以帮助医生提高医患交流效果,但其长期依赖性和对医患关系的影响仍需谨慎考虑,特别是患者能否像相信医生那样,信任GPT-AI机器人。

毫无疑问,GPT-AI已经展示了其提高医患沟通的能力和技巧,但它无法完全取代人类医生的同理心和同情心,由此产生的伦理新问题也需要有明确指导建议。值得关注。

美国医学协会报告显示,48%的医生心身倦怠;国内医生则是“内卷”压力山大。无论哪种情形,繁重的工作导致时间不足,更重要的是情感能量不足,医生的同理心和同情心是亟待解决的共性问题。

关注我们,获取生物医学前沿最新资讯