苹果与谷歌在AI领域的合作深度,似乎远比目前外界所看到的要更加彻底。

根据海外传出的最新消息,苹果在此次合作中获得了极大的技术权限与修改自由度。

爆料指出,苹果目前可以在自家的私有数据中心里,完全访问并调用谷歌的Gemini大模型。

打开网易新闻 查看精彩图片

这种底层级别的访问权限,直接为苹果的端侧AI战略提供了一条极具效率的捷径。

苹果的技术团队正在利用Gemini作为“教师”模型,通过业内被称为“精炼”的蒸馏技术,来孵化体积更小的自有分支模型。

与单纯模仿大模型输出结果不同,这种深度的技术授权允许苹果的“学生”模型直接学习Gemini得出结论的内部计算逻辑。

经过这种方式压缩出来的小型语言模型,不仅能在性能上无限逼近前沿的云端大模型,还能将算力消耗大幅控制在移动设备的承受范围之内。

打开网易新闻 查看精彩图片

对于极其注重用户隐私和本地化运算的苹果而言,将精简后的模型直接部署在iPhone等端侧设备上,无疑是最符合其商业逻辑的选择。

端侧运行不仅意味着更低的网络延迟和更快的任务响应速度,也从根本上规避了过度依赖云端算力所带来的生态受制风险。

当然,全面拥抱谷歌Gemini并不意味着苹果彻底放弃了自研底层大模型的路线。

消息显示苹果内部的基础模型研发团队依然在正常运转,只是在当前AI军备竞赛的压力下,其短期的主攻目标尚处于保密或调整阶段。

结合此前的多方爆料来看,这场深度合作的初步成果极有可能会在今年6月份的WWDC开发者大会上正式落地。

打开网易新闻 查看精彩图片

届时,作为苹果生态核心交互入口的Siri将迎来一次史诗级的底层重构。

升级后的Siri预计将具备真正的上下文长记忆能力,并能基于用户的日常习惯提供诸如规避交通拥堵等主动式的智能建议。

好评君认为,在面临生成式AI浪潮冲击的当下,苹果选择通过获取Gemini的底层访问权来反哺自家的端侧小模型,确实是在自研技术成熟前最务实的破局方案。

各位小伙伴,你们期待今年WWDC上那个经过全新AI底层赋能的Siri吗?

欢迎在评论区留言讨论。