当一头抹香鲸下潜到4000英尺深海时,科学家手里的追踪标签已经失效三天了。怎么破?

Project CETI刚搞出个新东西:一台能追着鲸鱼声音跑的自主水下滑翔机。不是被动录音,是主动跟拍——AI直接嵌在机器里,水下实时反应。这相当于给海洋科研配了个"水下Waymo",只不过乘客是几吨重的抹香鲸

打开网易新闻 查看精彩图片

为什么非得是滑翔机

传统追踪手段有个硬天花板:标签贴在鲸鱼身上,1-3天就脱落。抹香鲸一年能游15000英里,下潜1300到4000英尺,这种活动范围让科研人员基本处于"失联"状态。

水下滑翔机不是新概念,但以前的作用很被动——漂在那儿,能录到算运气。CETI这套系统的区别在于"主动跟随":机器听到声音,自己决定往哪儿游。

按团队说法,潜在监控周期能从"几天"拉到"数月"。

David Gruber的表述更直接:「这项技术开辟了全新的维度——我们现在能收集从未想象过的长期通讯信息,比如幼鲸如何学习族群特有的方言,因为我们现在可以长时间监听个体鲸鱼。」

"后座司机"到底是什么?

所有水下滑翔机都有导航计算机控制移动。CETI和法国海洋机器人公司Alseamar合作,专门开发了一套"后座司机"(backseat driver)和声学传感系统。

关键配置:两台机载计算机。第二台专门处理声学数据,运行检测算法识别抹香鲸的发声。

Roee Diamant的解释很技术:「新滑翔机显著扩展了'后座司机'的能力,实现了完整的任务变更——比如不同的下潜计划。这让滑翔机能够完全自主控制以追踪鲸鱼,这是水下滑翔机的首次,就像水下世界的Waymo。」

划重点:不是预设航线,是听到声音后临时改计划。这种自主决策权下放,以前是水面无人机的玩法,现在沉到深海了。

四只耳朵怎么定位?

滑翔机装了四个定制水听器。CETI开发了两种算法配合:鲸鱼检测算法 + 到达角度估计算法,实时分析声音来源。

流程大概是:听到→定位→调整路径。浮出水面后,每2-4小时可以通过卫星更新导航指令,传数据、校准传感器、接收新任务。

这套组合拳解决了一个老问题:知道鲸鱼在叫,但不知道具体在哪。现在机器能自己算方位追过去。

这件事的商业逻辑在哪?

表面看是科研工具,但拆解一下技术栈会发现更通用的能力:

第一,边缘AI的深海版本。AI不是放在岸上服务器,是直接塞进水下滑翔机,水压、低温、能源受限环境下跑实时推理。这种工程经验可以迁移到其他极端环境机器人

第二,声学定位的精度提升。四个水听器+角度估计算法,本质上是一套低成本水下定位方案。海洋测绘、管道巡检、水下考古,这些场景都需要。

第三,"后座司机"架构的泛化。把决策层和导航层分离,让第二台计算机专精感知和任务规划,这种模块化设计是自动驾驶的经典思路。现在证明它在水下也跑得通。

Project CETI的背景值得注意:这是一个跨学科项目,目标是用AI理解抹香鲸的"语言"。追踪硬件是基础设施,后面还有更难的——破译click和whistle的含义。但如果没有长期、连续、个体级别的数据,语言模型训不出来。滑翔机解决的是数据生产环节的瓶颈。

一个对比:OpenAI训GPT需要互联网规模的文本,CETI要训"鲸语GPT"需要同等规模的鲸语数据。传统标签1-3天的采样完全不够看,滑翔机的"数月级"监控才是入场券。

技术债务和未解问题

论文里没说的,往往更关键。

能源约束:滑翔机靠浮力驱动,能耗极低,但AI推理是耗电大户。边缘计算和长期续航之间的平衡怎么做的?原文没提具体数字。

通信瓶颈:2-4小时才能卫星更新一次,意味着水下决策必须完全自主。如果追踪过程中鲸鱼突然改变行为模式(比如高速下潜或群体分散),机器能不能实时响应?算法鲁棒性存疑。

成本问题:定制水听器、双计算机架构、卫星链路——这套配置能不能规模化部署到多个海域?还是只能当精品项目供着?

伦理边界:"尽量不干扰"和"完全不干扰"是两回事。机器追着鲸鱼跑,声呐信号、物理接近会不会改变鲸鱼行为?长期跟拍会不会让个体产生应激?这些需要对照实验验证,但原文没涉及。

为什么现在出现?

三个条件凑齐了:

边缘计算芯片的能效比终于够用了。五年前水下跑实时AI推理,电池撑不住。

海洋机器人产业链成熟。Alseamar这种公司能提供平台级硬件,CETI专注算法和科研场景,分工明确。

AI for Science的钱到位了。从蛋白质折叠到天气预报,"用AI理解复杂系统"是当下热门叙事,鲸语翻译正好卡位。

但最底层的驱动力可能是数据焦虑。CETI 2020年成立时定下的目标——五年内实现抹香鲸语言的初步破译——时间窗口正在收紧。没有数据,再好的模型也是空转。滑翔机是数据工程层面的 desperation move(孤注一掷)。

行业影响预判

短期:海洋哺乳动物研究的方法论升级。能发更多高影响因子论文,但硬件成本会限制普及。

中期:水下机器人"主动感知"成为标配。从被动巡航到目标追踪,类似自动驾驶从L2到L4的跃迁。渔业管理、海洋保护区巡逻、水下安防,这些场景都会跟进。

长期:如果鲸语破译真有突破,会重新定义人机交互的边界——我们第一次和非人类智慧建立符号层面的沟通。但这属于科幻范畴了,目前连鲸有没有"语言"都还在争论。

更现实的参照系是Waymo本身:技术领先,商业化坎坷。水下场景的监管压力小,但客户付费意愿和能力也弱。科研经费能撑多久,决定了这套系统能不能活到工程优化、成本下降的那一天。

数据收束:一台滑翔机,四个水听器,两台计算机,2-4小时的卫星通信窗口,潜在数月级的追踪周期——这些数字框定了当前技术的能力边界。抹香鲸每年15000英里的移动范围,4000英尺的下潜深度,1-3天的传统标签续航——这些数字解释了为什么旧方案行不通。CETI的解法不是推翻物理限制,是在约束条件下重新分配算力和决策权。这种思路,放在任何资源受限的AI场景里都成立。