最近机圈有个谣言传得沸沸扬扬,说是苹果要在下一代AirPods上加装摄像头。
很多自媒体听风就是雨,甚至开始YY这以后是不是能当运动相机用,或者用来偷拍。
但真不是你理解的那么回事。
别YY了,苹果确实要加“摄像头”,但绝对不是你们想的那种用来拍照的玩意儿。
就在前几天,苹果悄悄干了一件大事,狂砸了20亿美金(约合人民币144亿)。
收购了一家以色列的初创公司,名字叫Q.ai。
大家可能对这个金额没概念,当年苹果收购Beats才花了30亿美金。
这笔交易,直接空降成为了苹果史上第二大收购案。
更离谱的是,这家Q.ai公司成立才三年,团队不到100人,甚至连一款正式发布的产品都没有。
库克是钱多烧得慌吗?当然不是。
图源:
因为这家公司的创始人Aviad Maizels,堪称是苹果的“老熟人”了。
早在2013年,就是这个人,把自家的3D视觉公司PrimeSense卖给了苹果。
那次收购的结果大家都知道,苹果搞出了震惊行业的Face ID(面容识别)。
可以说,没有这个人,就没有iPhone后来的刘海屏和灵动岛。
如今这位大佬带着原班人马“二进宫”,带来的技术自然是核弹级的。
Q.ai的核心技术叫做“静默语音识别”。
简单来说,他们要在AirPods或者未来的AI眼镜上装一种特殊的红外摄像头。
这种摄像头是个“瞎子”,它拍不到你周围的风景,也拍不到别人的脸。
它唯一的任务,就是死死盯着你的面部肌肉和下颌骨。
当你说话时,哪怕你没有发出声音,只是嘴唇动了动。
这种红外传感器就能捕捉到你面部肌肉微米级的震动,以及皮肤毛孔的微小位移。
然后通过AI算法,精准地“猜”出你刚才说了什么。
这才是苹果愿意掏140亿真金白银买单的真正原因。
那么,这玩意儿到底有啥用?是黑科技还是伪需求?
我举几个场景,大家瞬间就懂了。
第一个场景:终结“社死”。
现在的Siri之所以蠢,是因为你必须在大庭广众之下喊出“Hey Siri”。
在安静的图书馆、拥挤的电梯里,或者严肃的会议室中,对着空气说话是非常尴尬的。
但有了这个技术,你只需要轻轻动动嘴皮子,不用发出任何声音。
耳机就能读懂你的唇语,帮你切歌、回微信、查资料。
这对于可穿戴设备来说,简直是交互逻辑的革命。
第二个场景:无视噪音。
大家在地铁或者嘈杂的街道上用耳机打电话,经常得扯着嗓子喊,对方还听不清。
因为麦克风采集的是声波,很容易被环境噪音干扰。
但Q.ai采集的是“肌肉震动”,这属于物理层面的信号。
不管外面吵成什么样,你的肌肉震动是不会骗人的,识别准确率直接拉满。
第三个场景:比指纹还安全的“生物ID”。
根据曝光的专利显示,这种红外光还能轻微穿透皮肤,看见你皮下的血管纹理。
每个人的面部血管分布都是独一无二的,且极难伪造。
以后戴上AirPods,耳机瞬间就能通过扫描血管确认“你是你”,自动解锁手机或支付。
甚至它还能通过监测脸颊的脉搏波,判断佩戴者是不是活人,彻底杜绝了用照片或3D面具解锁的可能。
此外,这套系统还能读懂你的情绪。
通过分析微表情的速度和强度,AI能判断出你是在嘲讽、愤怒还是高兴。
未来的Siri,可能真的会变成一个能察言观色的“贴心秘书”。
图源:智东西
所以,看懂了吗?
苹果这140亿花的不是摄像头,买的是未来十年的“无感交互”入口。
它不想让你举着手机拍照,而是想让你在任何时间、任何地点,都能体面地、无感地连接AI。
相比于那些只会堆参数的硬件升级,这种藏在底层的技术变革,才最让人细思极恐。
各位机友,如果AirPods真的能读懂你的唇语,你最想用它来干什么?
欢迎在评论区大开脑洞,咱们一起聊聊。
热门跟贴