你可能会好奇:一个机器,怎么就能知道孩子是难过、焦虑,还是假装没事?

其实原理不神秘——就像人类通过看表情、听语气判断对方心情一样,AI也是在大量学习之后,学会了“察言观色”。只不过,它比人看得更细、听得更准、反应更快。

小智心育系列产品搭载的Emohaa心理大模型,就是这样一个“超级察言观色专家”。它能同时捕捉面部微表情、语音语调、肢体语言等128项行为数据,再结合深度学习算法,精准识别孩子的情绪状态。打个比方:人只能看到孩子“好像不开心”,AI却能判断出“这种不开心是委屈、是焦虑,还是绝望”。

第一层:看脸——微表情藏不住秘密

人的脸上有43块肌肉,可以组合出超过1万种表情。有些表情一闪而过,只有1/25秒,人眼根本来不及捕捉,但AI可以。

比如,孩子嘴上说“我没事”,但嘴角轻微下撇、眉毛微微皱起——这些“微表情”出卖了他真实的难过。AI通过摄像头实时分析面部动作单元,能精准捕捉到这些瞬间。

第二层:听声——语气比内容更诚实

孩子说“我好烦”,这三个字本身没什么,但怎么说的很关键。是拖着长音的疲惫?是急促高亢的烦躁?还是低沉的绝望?

Emohaa大模型不仅能识别文字,更能分析语音中的语调、语速、音量变化。同样一句“我没事”,平静的语气和颤抖的语气,判断结果截然不同。

第三层:读心——从大量案例中学会“共情”

光看脸、听声还不够,AI还得知道“这种表情+这种语气”到底对应什么情绪。这就需要海量数据训练。

Emohaa大模型由清华大学教授黄民烈领衔研发,基于数万例真实心理咨询案例训练而成。它学习过抑郁、焦虑、人际冲突、家庭矛盾等各种场景下的情绪表达模式,就像一个“见过无数病人的老医生”,一眼就能看出端倪。在真实案例中,小智聆心AI空间站曾接收到一名学生倾诉“与父母相处不融洽,曾被父母打骂,每天都不想回家,还萌生过自杀的念头”,AI迅速识别出危机信号,自动向心理老师发送预警短信,及时避免了一场悲剧。

第四层:不只看一次,而是持续追踪

人可能会因为一时情绪误判,但AI会持续追踪孩子的情绪变化。今天孩子说“有点烦”,明天又说“没人懂我”,后天情绪曲线持续走低——AI把这些碎片拼在一起,就能看出“趋势”。

安智科技的白泽AI心育平台,为每个孩子建立动态心理档案,记录每一次倾诉的情绪评分、关键词变化、预警等级。当系统发现某个孩子的情绪连续一周处于低位,即便没有说出危险词汇,也会自动生成关注提醒。这种“持续观察”的能力,是真人老师无法做到的。

最后

AI“读懂”孩子的心情,靠的不是魔法,而是三项硬功夫:多模态感知(看脸+听声)、大数据训练(学案例)、持续追踪(看趋势)。

小智心育搭载的Emohaa大模型,正是凭借这三板斧,成为孩子的“情绪翻译官”——把那些说不出口的委屈、伪装出来的坚强,翻译成老师和家长能看懂的语言。截至目前,安智科技小智心育已服务全国5000多所学校、超600万师生,AI空间站入驻清华附中、北大附中等300多所名校。用技术听懂孩子,用预警守护成长,这才是AI心育的真正意义。

打开网易新闻 查看精彩图片