视频在AI系统里的角色变了。
以前它是终点——拍好、存好、播好,任务完成。现在它是起点:自动驾驶靠它感知环境,云端模型拿它训练,机器人用它理解物理世界。分辨率从4K卷到8K,多路视频流并行成了常态,视频处理早不是"能不能播"的问题,而是一套涉及性能、带宽、存储、实时性的系统约束。
这时候VPU(视频处理单元)的定位也得跟着变。最近安谋科技发布了新一代"玲珑"V560/V760,代号"峨眉",试图回答这个问题。
AI场景对VPU的要求,本质上是一场"既要又要"
云端转码、自动驾驶、多摄像头感知——这些场景的共同点是多路视频流并行处理。单核性能得够强,多核扩展能力也不能掉队。
效率问题更棘手。视频数据量暴涨后,码率直接影响带宽和存储成本。在云端长期跑下来,这部分开销能吃掉不少预算。实时性也从"加分项"变成"入场券":云游戏、视频会议、即时反馈的AI应用,延时高一点点,体验直接崩盘。
再加上场景碎片化——端侧要省电、云端要吞吐、车规要安全——VPU得像瑞士军刀,不同场合能抽出不同的刀。
安谋科技VPU产品总监汪奕磊的说法是,"玲珑"V560/V760要做"AI时代的各类视频应用提供强大核芯,覆盖云、边、端全场景"。
单核性能翻倍,丢包20%还能纠错
具体参数上,V560/V760单核支持4K60FPS编码或8K30FPS解码,解码性能比上一代翻倍。现场演示里,8K30FPS能流畅播,运动相机实时拍摄"每一帧稳定、不丢帧、不延迟"。
延时控制靠条带级编解码技术,把处理链路拆得更细。鲁棒性方面,丢包率20%的环境下仍能纠错解码——这对网络不稳的场景挺实用。
CAE技术:给视频编码装上"注意力"
这一代的关键升级是CAE(内容感知编码)。简单说,编码时先轻量分析画面内容,关键区域多给码率,非关键区域少给。不是无脑压像素,而是像摄影师修图一样"有的放矢"。
现场演示的数据:同等码率下编码质量平均提升20%,同等质量下码率平均降20%,特定场景最多能省80%。对长期存视频的系统,这直接换算成真金白银的带宽和存储成本。
"积木式堆叠":不做重复造轮子的事
V560/V760的另一个设计思路是"积木式堆叠"。安谋科技VPU研发总监黄鑫解释,客户可以按需配置模块,不用重复开发底层,缩短研发周期。
不同场景抽不同积木:端侧拼功耗和面积,车规拼多OS和安全隔离,云端拼吞吐和长期成本。架构支持多核同任务或异任务,也支持Linux、Android、Windows、RTOS多系统运行,带TrustZone内容保护和Mosaic隐私功能。
黄鑫还提到,未来"玲珑"会往AI端到端视频编码演进,构建"深度感知、全局最优"的训练框架。
视频处理正在从"功能"变成"变量"
当视频成为AI系统的主要输入,处理效率就成了系统设计的核心约束之一。算力之外,带宽、存储、延时正在重新定义视频处理的价值。
热门跟贴