智谱 AI 在多模态模型领域持续创新,继推出CogVLM2后,进一步扩展其能力至视频理解,开源了名为CogVLM2-Video的新模型。这款模型不仅能够处理静态图像和文本,还能够理解和分析视频内容,特别是它具备回答与时间相关问题的能力,这在视频理解领域是一项重要的进步。
▲ 官方效果演示
智谱 AI 提出了一种 基于视觉模型的自动时间定位数据构建方法,生成了 3 万条与时间相关的视频问答数据。基于这个新数据集和现有的开放领域问答数据,引入了多帧视频图像和时间戳作为编码器输入,训练出 CogVLM2-Video 模型。
智谱 AI 表示,CogVLM2-Video 不仅在公共视频理解基准上达到了最新的性能,还在视频字幕生成和时间定位方面表现出色。
代码: https://github.com/THUDM/CogVLM2
项目网站: https://cogvlm2-video.github.io
在线试用: http://36.103.203.44:7868/
视频理解是计算机视觉的一个分支,涉及解析视频中的事件、动作、场景以及它们随时间的变化。传统的视频理解模型通常需要大量的计算资源和复杂的架构才能达到较好的性能。然而,CogVLM2-Video通过其先进的架构和训练策略,能够在相对较小的模型规模下实现高效的视频理解,同时保持高水平的准确度。
CogVLM2-Video可能采用了类似CogVLM2的技术,包括深度学习和多模态融合,但针对视频数据进行了优化,使得它能够捕捉视频中的动态信息,并将其与文本信息结合,以解决诸如“视频中发生了什么?”、“某个动作何时开始?”等时间相关的问题。
开源这一模型意味着研究人员和开发者可以访问其代码和训练好的权重,用于教育、研究和开发基于视频理解的应用程序。例如,这可能包括视频摘要、实时事件检测、视频问答系统,以及增强现实和虚拟现实中的交互式内容生成等场景。
权声明:图片和内容来源互联网
热门跟贴