开会时笑得不自然,系统判定你"缺乏热情"。面试时眼神飘忽,算法标记"可信度低"。这不是科幻片——《大西洋月刊》的最新调查揭示,号称能"读心"的情绪AI正在渗透日常办公场景。

记者Ellen Cushing亲自测试了一款叫MorphCast的产品。与老板开会时,软件实时分析她的面部表情,输出一份情绪报告:总体"愉悦""专注""投入",但偶尔"不耐烦"。这场自我实验,揭开了一个快速增长行业的冰山一角。

打开网易新闻 查看精彩图片

这类产品标签各异——"情绪AI""情感计算"——但核心逻辑一致:用算法解码人类表情、声音、文字背后的情绪状态。应用场景已遍地开花:MetLife监控呼叫中心员工的语调和语气;汉堡王试点名为"Patty"的耳机聊天机器人,评估员工互动是否友好;家具厂商Framery测试过内置生物传感器的办公椅,可测量心率、呼吸频率和紧张程度。Slack插件Aware、微软Azure提供内部通讯的情绪分析;Imentiv等公司则把情绪分析工具卖给了招聘流程。

但Cushing的报道提出了更根本的质疑:这些工具的"科学"基础站得住脚吗?

大量产品依托心理学家Paul Ekman的"六种基本情绪"理论——喜、怒、哀、惧、惊、厌。问题是,这一理论已被学界"广泛质疑为过度简化且方法论存在缺陷",且这种质疑已持续数十年。神经科学家Lisa Feldman Barrett在报道中直言:面部动作、身体反应、声音语调"本身没有固有的情绪意义,它们只有关系意义"。她举例:在美国,人们愤怒时皱眉的比例仅约35%。

算法偏见更是硬伤。报道提及Lauren Rhue的研究发现:情绪识别AI判定黑人NBA球员比白人队友"更愤怒"——即便前者正在微笑。

可疑的科学叠加失控的监控,伤害已经发生。《纽约时报》2022年调查显示,UnitedHealth的社工因"键盘无活动"被降级扣分——而当时他们正在与患者通话。美国公民自由联盟(ACLU)指控,招聘平台HireVue及其客户Intuit拒绝了一位失聪无障碍团队员工的晋升,拒信建议她"练习积极倾听"。HireVue与Intuit均对指控提出异议。

监管层面,欧盟已率先行动。《人工智能法案》禁止工作场所使用此类情绪AI,仅医疗和安全用途例外。MorphCast的应对策略是:把总部从佛罗伦萨搬到湾区。

市场却在狂飙。报道引用的预测显示,全球情绪AI市场规模将在2030年翻三倍,达到90亿美元。

Cushing的结尾带着反讽的寒意:比 flawed systems(有缺陷的系统)更可怕的,是系统真的 perfected(完善)的那一天。届时,劳动者除了本职工作,还要承担另一份隐形劳动——让情绪机器人确信自己"足够 cheerful( cheerful)"。