AI 的特点在于超强的学习能力,聊天、绘画、写作、作曲,就没有它不会的。
你为 AI 焦虑到头秃,Google 倒希望 AI 帮你照顾好自己的身体。
这次,AI 的学习材料变成了咳嗽声。
基于 YouTube 等平台无版权的公开视频,Google 收集了 3 亿条 2 秒左右的音频数据,包括咳嗽、抽鼻子、打喷嚏和呼吸困难的声音,然后训练了一个 AI 基础模型:HeAR。
HeAR 可以通过你的声音,了解你的健康状况,甚至能在疾病的早期给出诊断。
Google 没有让 HeAR 在实验室束之高阁,已经和印度 AI 医疗初创公司 Salcit Technologies 展开合作。
Salcit 有自己的 AI 模型 Swaasa(梵语里意为「呼吸」)以及 app,在一些情况下可以替代传统的肺活量测试,用户提交 10 秒的咳嗽样本,就能检测某些呼吸道疾病。
HeAR 拓展了 Swaasa 的技能,又延续了 Swaasa 的精神。两者的强强联合,首先用在基于咳嗽声的结核病早期检测。
为什么是结核病?首先,HeAR 有这个能力,训练材料里,咳嗽声就占了大概 1 亿条。
其次,结核病的情况比较特殊,可以治愈,但每年有数百万病例未被诊断,耽误了病情,原因无非是医疗落后,患者没有条件。如果不治疗,结核病的死亡率高于 50%。
这就能体现 AI「听诊」的好处了——与血液测试、成像等相比,声音是更容易获得、成本也更低的信息,可以直接通过智能手机上的麦克风和 AI 软件收集、分析。
不过,在更广泛地落地前,HeAR 还有一些问题需要解决,包括音频样本的背景噪音过多。
除了 Google,还有一些大厂和初创公司,也在尝试让 AI「听见」疾病。
2021 年,301 医院、北京大学第一医院等联合发起呼吸健康研究,华为在其中扮演了重要角色。
拥有华为 WATCH 4 系列、WATCH GT 4 等智能手表的用户,可以在华为创新研究 app 选择加入呼吸健康研究,录制咳嗽音,采集生理数据,实现肺部感染风险筛查。
「咳几声」,怎么就能知道肺部有没有感染?肺部感染的患者,咳嗽的爆发音、频谱衰减和其他人不同,所以能被区分开来。
背后默默提供支持的,是海量专业的模型数据,以及环境音识别、高精度咳嗽识别和呼吸健康筛查评估三重算法。
另外,AI 也正在通过我们说话的声音,深入我们的内心世界。声音会因为精神健康而改变,有研究可循。
抑郁症患者讲话通常更单调、更平淡、更柔和,音高范围和音量较小,有更多停顿,也会更频繁地停下来。焦虑症患者则会因为身体紧张,往往说得更快,呼吸更加困难。
基于微软云服务 Microsoft Azure 的美国初创公司 Canary Speech,可以捕捉并处理 40 秒的对话语音,追踪压力、情绪等,从而检测健康状况。
人类可能会自欺欺人地说「我很好」,但算法不会骗人,而是观察你的表达方式,根据语气词、停顿等,做出客观的评估。AI 不仅关注你说什么,更关注你怎么说。
美国国立卫生研究院的愿景则更为广阔,有些「兼济天下」的意思。
研究人员计划到 2026 年,创建一个大型的开源语音数据库,训练 AI 诊断疾病,最终开发一个 app,帮助全科医生将患者转诊给专家,将服务辐射到农村等医疗欠缺的地区。
他们知道声音里有大量的信息——说话低声、缓慢的人可能患有帕金森病,口齿不清是中风的征兆,抑郁症也能在声音中找到端倪。
不过,收集的语音还是有优先级,包括五种疾病:神经系统疾病、声音障碍、情绪障碍、呼吸系统疾病、自闭症和言语迟缓等儿科疾病。
某种程度上,从手表、手环、戒指等可穿戴设备到 AI「听诊」,技术都是在将人类的感官数字化,并且功能越发丰富,更加关注身体的综合状况。
你做冥想了吗,你的心血管如何了,月经周期怎么样,运动圆环合上了吗……
首款 Apple Watch 于 2015 年发布,距今已有 10 年,我们渐渐习惯,让身边的智能设备,随时、安静、非侵入性地检测身体。
而语音是一个更日常的场景,用我们的手机就可以实现交互。不过,语音数据的偏见性、准确性、隐私问题,以及算法的黑盒本质,也让很多研究人员担心语音检测的负面影响。
可能未来的某一天,Siri、小爱同学等语音助理,会这样提醒我们:亲,今天咳嗽了几次,心情跌到谷底几次,呼吸急促了几次…… 这是科技的进步,还是现实版的《美丽新世界》?
热门跟贴