大模型正在改变实时互动技术。
声网作为全球音视频技术龙头,2020年在纳斯达克上市,目前是全球最大的实时互动云服务商,平台单月音视频使用时长达700亿分钟。
同时,声网兄弟公司Agora也是OpenAI Realtime API的合作伙伴,在国内声网也与MiniMax正在打磨国内首个Realtime API。
在MEET 2025智能未来大会大会现场,声网首席运营官刘斌分享了一个看似离大模型有点距离,实则却不可或缺的环节:
RTE(Real Time Engagement)在AI Agent时代的全新价值。
为了完整体现刘斌的思考,在不改变原意的基础上,量子位对演讲内容进行了编辑整理,希望能给你带来更多启发。
MEET 2025智能未来大会是由量子位主办的行业峰会,20余位产业代表与会讨论。线下参会观众1000+,线上直播观众320万+,获得了主流媒体的广泛关注与报道。
核心观点
- 多模态对话体验的两个关键:延迟是否低于1.7秒,能否打断
- 多模态对话AI Agent应用产品化落地的关键:端到端、全球任意地点、弱网环境、各种终端下的低时延
- 不管是语音,还是视频,只要是多模态有交互的AI Agent应用,离不开RTE能力的支持
演讲全文
今天非常高兴有这样机会来到现场跟分享,声网作为RTE领域的企业,和AI领域的大模型与应用厂商,和当下的大模型关系是什么,RTE演进如何助力AI Agent应用落地。
第一,声网到底是谁。
声网于2020年在纳斯达克上市,专注于提供实时互动云服务。经过多年的发展,该公司在该行业取得了一定的进步。
我们公司的口号简洁明了,即让实时互动像空气和水一样,无处不在。
这一理念旨在实现未来无论身处何地,都能获得如同面对面般的互动体验。经过多年的努力,我们在市场占有率方面位居第一,并拥有大量注册开发者应用。
单月音视频分钟数约为700亿,这意味着每天在我们平台上的分钟数约为20多亿。在这种情况下,全球超过60%的泛娱乐应用选择声网作为其合作伙伴。我们涉及的领域包括泛娱乐、教育和物联网等,均拥有相应的合作伙伴。
第二,我们做的事到底和AI Agent有什么关系,如何去助力它。
首先,值得关注的是,OpenAI于10月1日在官方网站发布Realtime API时,曾在合作伙伴中提及Agora,即我们声网的兄弟公司。
其次,在10月份的RTE大会上,我们宣布与MiniMax正在打磨国内第一个Realtime APl。
第三,AI Agent时代到底怎么样做才能做的更好。
我们可以观察到,在真正多模态模型推出或对话时,相较于原先的纯文本交互,已经发生了变化。
原先的交互本质上是异步的,即我可以发送信息,说完后等待处理并返回结果。然而,在真正多模态交互中,要求实时性和双工性,即我说他听,他听完后我再听。
在这个过程中,有几个关键因素会影响效果。
首先,大家较为熟悉的语气、情感、情绪和口音等因素在模型中得到了大量处理。
其次,延迟也是一个非常重要的因素。相信大家都有相关的感受。
从实际测量数据来看,真正达到实用效果的延迟一般在1.7秒左右。如果低于这个值,人们会觉得与Agent交流很自然;而如果延迟达到2秒多或3秒,人们就会感觉到有些卡顿,反应稍显迟缓。这是一个非常重要的关键点。
另一个关键点是,能否实现打断功能以及如何更好地进行主动交互。
要实现这些功能,除了模型能力外,还需考虑应用的落地方式。是在实验室的PC上进行演示,还是将其应用于各种手机终端、物联网终端以及其他设备上?
当有此需求时,在产品化落地的过程中会发现,除了之前提到的低时延等能力外,还需要在端到端都能实现。此外,还需在不同地点、不同网络环境下以及各种终端设备上都能得到支持,这并非易事。
关于这张图,尽管大家可能不太关注,但我们当时非常重视。这是5月份OpenAI GPT-4o发布时的情况,大家可以看那根网线,这是要保证网络的稳定性。
在4o发布之后,大家都在等待API的推出,原本预期一周或两周内会推出,但实际上并非如此,直至10月份才发布。原因在于,一开始大家认为这件事很简单,只需对原有的RTP Server进行修改,将文本传输改为语音传输即可。
然而,实际情况并非如此简单。我们与他们合作,直至10月份才正式推出。正是我们在其中发挥作用,使其真正落地实现。
在此,我向大家展示声网多年来的工作成果。
首先,我们拥有一张遍布全球的SD-RTN网络,确保在这张网络上音视频传输都能在标准的400毫秒内端到端到达,这是网络支撑。其次,我们多年的积累使我们能够在30多个平台的框架和30000多终端机型上提供SDK支持,涵盖各种操作系统。您只需很快地建立这个能力。包括物联网的各种设备终端,都有相应的SDK。
此外,在实际应用中,如我们在这个会场,如果我要与AI对话,网络情况和环境噪声并非固定不变。如何在极端弱网下保证效果,这也是我们多年技术积累的结果。
正是我们在这一领域的深厚积累,使得我们能够构建一个具有实际应用价值的Voice对话Agent。只有将这两者紧密结合,才能实现这一目标。这也解释了为什么在发布Realtime API时,我们需要寻找这样的合作伙伴共同推进。
我们还发现,现有的RTC技术栈和基础设施存在大量改进空间。只有通过改进,大型模型才有可能在各种场景、形态和模型下大规模参与到人类的语言对话中,其参与来源也将从云端扩展到终端,再到更低延迟的边缘。基于这些能力的改进和普及,未来RTE必将成为生成式AI时代AI基础设施(AI Infra)的关键组成部分。
如图右侧红色部分所示,Realtime API通常由大型模型厂商发布。然而,在左侧这一圈,包括中间的网络和声网的Linux Server SDK,以及前端的SDK,如果没有这样的基础,我们将很难实现这一整套效果。这正是我之前所解释的原因。如果中间的这些环节未能实现,那么效果将无法显现。
在此,我们将从当前视角出发,探讨未来的行动方向以及如何进一步提升效果。近期,我们一直在深入研究和投入资源,以优化人与人之间的对话体验。然而,在人与模型之间的对话中,体验的提升需要充分考虑模型的特性。
例如,我们从传统的QoS、QoE发展到如今的AI QoE,乃至多模态AI QoE,这其中涵盖了VAD技术、噪音消除能力以及相关网络优化等方面。这些新的方法和方式使得我们与模型的对话更加贴近实际情况。以一个简单的例子来说明,人与人交谈时不会夹杂其他信息,但人与模型对话时则可能不同,语音传输过程中可能还包含其他信息。因此,在弱网环境和应用场景中如何实现良好适配,便显得尤为重要。
我们曾在RTE大会上展示过一个实例,当时的会场规模较大,人数众多且环境嘈杂,我们在现场使用了一个5G设备进行演示。
我们想做到的是从60分提升到90分,这不仅涉及模型难度的提高,还包括周边工程配套的完善,以便将产品从演示阶段发展为更具实用性的应用。
关于声网的产品体系,我们正不断加强其功能,如Linux SDK、AI VAD能力以及AI Agent Service的补充与优化。通过声网RTE+AI能力全景图,我们可以看到我们的整体思路,包括从基础设施到Agent,再到场景的演进,旨在成为生成式AI时代的AI基础设施,这也是我们的愿景。
最后,我想强调一点:
任何涉及大模型多模态实时交互的应用,无论是语音还是视频,只要存在多模态交互,这类Agent应用的落地都离不开RTC技术的支持。
在这种情况下,如果大家有这样的需求,请来找声网,我们一定给大家更好的体验。
谢谢大家,今天就到这里。
热门跟贴