最近机圈有个谣言传得沸沸扬扬,说是苹果要在下一代AirPods上加装摄像头。

很多自媒体听风就是雨,甚至开始YY这以后是不是能当运动相机用,或者用来偷拍。

但真不是你理解的那么回事。

别YY了,苹果确实要加“摄像头”,但绝对不是你们想的那种用来拍照的玩意儿。

就在前几天,苹果悄悄干了一件大事,狂砸了20亿美金(约合人民币144亿)。

收购了一家以色列的初创公司,名字叫Q.ai。

打开网易新闻 查看精彩图片

大家可能对这个金额没概念,当年苹果收购Beats才花了30亿美金。

这笔交易,直接空降成为了苹果史上第二大收购案。

更离谱的是,这家Q.ai公司成立才三年,团队不到100人,甚至连一款正式发布的产品都没有。

库克是钱多烧得慌吗?当然不是。

图源:

打开网易新闻 查看精彩图片

因为这家公司的创始人Aviad Maizels,堪称是苹果的“老熟人”了。

早在2013年,就是这个人,把自家的3D视觉公司PrimeSense卖给了苹果。

那次收购的结果大家都知道,苹果搞出了震惊行业的Face ID(面容识别)。

可以说,没有这个人,就没有iPhone后来的刘海屏和灵动岛。

如今这位大佬带着原班人马“二进宫”,带来的技术自然是核弹级的。

Q.ai的核心技术叫做“静默语音识别”

打开网易新闻 查看精彩图片

简单来说,他们要在AirPods或者未来的AI眼镜上装一种特殊的红外摄像头。

这种摄像头是个“瞎子”,它拍不到你周围的风景,也拍不到别人的脸。

它唯一的任务,就是死死盯着你的面部肌肉和下颌骨。

当你说话时,哪怕你没有发出声音,只是嘴唇动了动。

这种红外传感器就能捕捉到你面部肌肉微米级的震动,以及皮肤毛孔的微小位移。

然后通过AI算法,精准地“猜”出你刚才说了什么。

打开网易新闻 查看精彩图片

这才是苹果愿意掏140亿真金白银买单的真正原因。

那么,这玩意儿到底有啥用?是黑科技还是伪需求?

我举几个场景,大家瞬间就懂了。

第一个场景:终结“社死”。

现在的Siri之所以蠢,是因为你必须在大庭广众之下喊出“Hey Siri”。

在安静的图书馆、拥挤的电梯里,或者严肃的会议室中,对着空气说话是非常尴尬的。

但有了这个技术,你只需要轻轻动动嘴皮子,不用发出任何声音。

耳机就能读懂你的唇语,帮你切歌、回微信、查资料。

这对于可穿戴设备来说,简直是交互逻辑的革命。

第二个场景:无视噪音。

大家在地铁或者嘈杂的街道上用耳机打电话,经常得扯着嗓子喊,对方还听不清。

因为麦克风采集的是声波,很容易被环境噪音干扰。

但Q.ai采集的是“肌肉震动”,这属于物理层面的信号。

不管外面吵成什么样,你的肌肉震动是不会骗人的,识别准确率直接拉满。

第三个场景:比指纹还安全的“生物ID”。

根据曝光的专利显示,这种红外光还能轻微穿透皮肤,看见你皮下的血管纹理。

每个人的面部血管分布都是独一无二的,且极难伪造。

以后戴上AirPods,耳机瞬间就能通过扫描血管确认“你是你”,自动解锁手机或支付。

甚至它还能通过监测脸颊的脉搏波,判断佩戴者是不是活人,彻底杜绝了用照片或3D面具解锁的可能。

此外,这套系统还能读懂你的情绪。

通过分析微表情的速度和强度,AI能判断出你是在嘲讽、愤怒还是高兴。

未来的Siri,可能真的会变成一个能察言观色的“贴心秘书”。

图源:智东西

打开网易新闻 查看精彩图片

所以,看懂了吗?

苹果这140亿花的不是摄像头,买的是未来十年的“无感交互”入口。

它不想让你举着手机拍照,而是想让你在任何时间、任何地点,都能体面地、无感地连接AI。

相比于那些只会堆参数的硬件升级,这种藏在底层的技术变革,才最让人细思极恐。

各位机友,如果AirPods真的能读懂你的唇语,你最想用它来干什么?

欢迎在评论区大开脑洞,咱们一起聊聊。