本文刊发于《现代电影技术》2026年第1期
专家点评
彭木根
教授、博士生导师
北京邮电大学党委常委、副校长
近年来,电影新业态新模式向强沉浸感、高自由度、强交互性的深度视听体验场景演进,电影科技向“算力-网络-感知-内容生产流程”全链条的系统性耦合持续升级。6G赋能电影工业的两条落地逻辑需要特别关注:其一,以实时控制系统重构电影制作流程。LED虚拟摄制中,LED屏前拍摄画面可由6G低时延回传至导演端,实现“所见即所得”;全息影院里,观众可触感立体角色并同步空间音频,获得多感官临场体验。其核心在于将“云-网-边-端”协同渲染与多模态采集构建为闭环实时系统,将时延、抖动、丢包和多流同步等指标融入算网编排。其二,从无线通信拓展为体验驱动的内容理解与调度。交互式电影中,网络通过感知场景状态与交互上下文,对多视点画面、光场、音频及触觉内容进行分层封装,并动态调度相应内容流,保障体验质量。面对规模化内容带来的安全挑战,6G可将内容指纹、动态水印与访问控制嵌入传输与渲染全流程,实现从电影制作到影院观影的全链路可追溯、可确权、可审计,防范盗版与篡改。《6G网络赋能沉浸式多媒体与未来电影:从关键能力到应用落地》一文介绍了目前6G通信感知计算深度融合沉浸式多媒体业务、未来电影的最新研究成果,系统阐述了协同渲染、通信感知融合、多流同步与智能分发等关键路径,并结合虚拟摄制、全息影院等实例,为电影产业从制作到放映的全链路升级提供了技术图景与实施路径。该论文对于推进6G通信感知计算与未来电影深度融合及创新发展,推动我国数字经济高质量发展具有重要的应用价值和指导意义。
基金项目
国家自然科学基金面上项目“应对空口灵巧主动攻击的安全防御与对抗研究”(62171364);国家自然科学基金面上项目“面向6G无线感知的物理层隐私保护与抗主动攻击”(62571420)。
作者简介
王慧明
博士,教授,西安交通大学信息与通信工程学院博士生导师、智能网络与网络安全教育部重点实验室副主任,主要研究方向:6G时代智能泛在无线网络与通信关键基础研究。
黄雲淞
西安交通大学信息与通信工程学院2021级博士研究生,主要研究方向:人工智能与无线通信结合的攻防与应用。
摘要
面向2030年的第六代移动通信(6G)以极致性能、原生智能、通信感知一体和全球覆盖为核心特征,将为沉浸式多媒体和未来电影提供全新的基础设施支撑。本文首先梳理了6G在超级无线宽带、超大规模连接、极其可靠通信、普惠智能服务和通信感知融合等典型场景中的关键能力,分析其在速率、时延、连接密度、感知精度与智能水平等方面的指标演进;进一步构建“感知层-网络层-应用层”一体化的6G沉浸式多媒体应用架构,探讨“云-网-边-端”协同渲染、通信感知一体化、多流同步与语义驱动分发等关键技术路径。在此基础上,结合虚拟摄制、全息影院与全息远程协作等具体案例,系统解析6G对电影制作、发行放映和内容形态的重塑机理,揭示从“观看艺术”向“体验艺术”的演进趋势,为6G赋能我国电影产业的技术路线与产业实践提供参考。
关键词
6G;人工智能;通信感知融合;沉浸式多媒体;电影
1
引言
作为面向2030年的下一代信息基础设施,第六代移动通信(6G)不是5G的简单迭代,而是以“极致性能、原生智能、通感一体、全球覆盖”为内核的范式跃迁:用户体验速率达Gbps至数十Gbps、峰值数百Gbps至Tbps、空口时延逼近亚毫秒、定位/感知精度至厘米级、连接密度达每平方千米千万至上亿个设备,并把绿色低碳、内生安全、普惠智能纳入顶层设计。6G不再仅承担“数据通道”角色,而是在“云-网-边-端”一体化的算网底座上,原生编排模型、数据与算力,支撑沉浸式扩展现实(XR)、全息通信、多维感知、数字孪生(Digital Twin)与智能体(Agent)协同等业务的全球实时协作与规模化落地。
对电影产业而言,全产业链条将被重塑:生产侧,超带宽与低时延叠加原生AI与通信感知融合,云端制片成为常态:跨域8K/16K与体积视频(Volumetric Video)边拍边回传至云端,剪辑、调色、特效、渲染同步协同;通信感知一体实现机位、演员与LED场景“毫秒-厘米级”双向同步,虚拟摄制走向极致拟真;原生人工智能(AI)将分镜、镜头语言、节奏或情绪标注与初剪建议嵌入实时工作流。发行与放映端,三层沉浸式多媒体架构与低时延多路径传输支撑“零等待”超清流媒体、自由视角与8K 虚拟现实(VR)直播;全息+空间音频+触觉编码在家庭与影院并行成熟,影院进化为高并发交互的沉浸式社交场域;营销侧,通信感知融合驱动情境化、实时化、可交互宣发,海报即入口、场景即媒介、互动即转化。
更进一步,6G将拓展电影的边界:体积视频、数字孪生与智能体协同走向常态,电影由“被观看的内容”升级为“可参与的场域”;观众通过全息、增强现实(AR)、VR等以角色与任务链路介入并改写故事;观众基于开放素材进行二次创作,IP演化为“世界工程”。随之而来的是体系更新,成本结构向算力、网络、内容资产的重估倾斜;版权范式由“镜头/画面”扩展至“模型/场景/交互逻辑”;人才谱系转向表演设计、通信感知交互、人工智能生成内容与算网编排等复合型岗位。
2
6G网络的典型场景与关键能力
2.1 从连接到智能:6G的总体演进逻辑
面向2030年的6G网络,是信息社会从“万物互联”走向“万物智联”的关键拐点。相比5G聚焦增强移动宽带(eMBB)、超可靠低时延通信(uRLLC)与海量物联网通信(mMTC)3大场景,6G在此基础上深度融合AI、感知计算与非地面通信,形成“六大典型场景”与“六大关键特征” [1]。
其核心逻辑不再局限于“传输性能的线性增强”,而是通过通信、计算、感知与智能的原生耦合,实现算网一体、通感一体、智联一体、空天地海一体的综合演进。这一体系以极致性能(Tbps级峰值速率、亚毫秒时延、厘米级定位)、原生智能(AI原生学习与推理)、全球覆盖(空天地海一体化)和绿色可持续(能效提升20倍)为底座,重新定义了“网络”的边界[2]。由中国工业和信息化部推动成立的IMT⁃2030(6G)推进组指出,6G不仅是一张网络,更是一种融合物理世界与数字孪生世界的“基础智能系统”[3](图1),这意味着未来通信系统将原生具备学习、预测、优化、自治等能力,从而成为经济社会智能化的底层引擎[4]。
图1 6G的总体演进逻辑[1]
2.2 六大典型场景:从感官到智能体
根据《6G典型场景和关键能力》白皮书,6G在继承5G三大场景的基础上,系统将扩展为6个核心典型场景[1]。
2.2.1 沉浸式通信:支撑沉浸式体验的千倍速网络
沉浸式通信是增强移动宽带的演进形态,未来将体验速率从5G的Gbps推升至数十Gbps,峰值速率可达Tbps级别。其目标是让人机交互、云渲染、体积视频、全息通信等沉浸式业务实现“零等待、全同步”的体验。典型应用如云化XR与全息通信,可实现8K/16K全息视频的实时传输与渲染,支持多感官交互(视觉、听觉、触觉)。感官互联与触觉互联网,即实现跨地域实时的多感官协同,如远程手术与触觉VR。该场景的技术指标包括体验速率10~20 Gbps、时延<1 ms、抖动μs级、同步精度20 ms内,可靠性达99.999%。这类高通量业务直接驱动6G采用更高频谱(太赫兹)、超大规模天线(XL⁃MIMO)、智能反射面等关键技术,同时要求网络具备分布式计算与感知协同能力,以支持云端渲染与端侧实时响应[5]。
2.2.2 海量通信:从物联网到智联网
6G的第2个典型场景是海量通信,其连接密度将从5G的每平方千米百万级提升到千万甚至上亿。这意味着其将从“海量物联网”迈向“普适智联网”,每个物理对象、传感节点乃至数字孪生体都具备可通信的数字身份。典型应用包括:智慧城市与数字孪生城市(海量传感器实时采集运行数据,云端进行高精度仿真与预测)、智慧农业与生态监测(厘米级精准感知与远程控制)以及工业物联网与能源网络(支撑柔性制造与安全运维)。该场景对网络提出高连接密度、低功耗与可持续能效要求,预计能量效率将提升20倍以上。
2.2.3 超级高可靠低时延:支撑人机共融的控制神经
超级高可靠低时延是uRLLC的升级版本,目标是实现“7个9”级可靠性(99.99999%)与亚毫秒级时延。这一能力面向工业机器人协作、自动驾驶群控、远程手术、无人机编队等高风险实时业务。例如在智能制造中,6G可实现微秒级抖动控制,100 ns时间同步精度,支持纳秒级信号协调,使多个机器人能在毫厘级精度下协作。这种确定性通信模式将推动6G引入时间敏感网络(TSN)、网络切片与AI预测调度技术,实现高稳定性与高安全性并存。
2.2.4 AI集成:AI原生网络的计算中枢
AI集成是6G最具标志性的新场景,其使AI从“网络应用”转为“网络原生能力”,实现AI赋能网络(AI for Network)与网络赋能AI(Network for AI)的双向融合。6G网络将内嵌智能体(Agent),实现分布式学习、边缘推理与云端调度,支撑千亿级智能终端的协同学习与个性化推理。典型应用包括:智慧交互与脑机接口,支持情感识别与自然交互;分布式AI训练,如自动驾驶群体智能与数字孪生训练;智能生产优化,通过联邦学习实现跨域协同决策。性能目标包括:AI服务精度>90%,区域流量密度>10 Gbps/m²,时延<1 ms,未来将支持数万节点并发学习。这一场景代表了6G“普惠智能”的核心理念,即让AI计算像通信服务一样普遍可得、低成本、低能耗。
2.2.5 感知集成:万物皆可“被看见”的网络
通信感知一体化(ISAC)被视为6G最具革命性的能力之一。6G网络将具备“看得见”的特性:同一无线信号既承载通信,又执行感知任务。典型应用包括高精度定位(厘米级)、环境重建、手势识别、被动目标检测等。例如,在无人驾驶场景中,车辆通过6G网络即可完成毫米级感知定位,无需额外雷达或激光器;在影视虚拟摄制中,可实现演员与LED场景的“通感同步”。技术上,ISAC融合雷达感知、太赫兹信号、AI重建算法,实现距离、角度、速度的多维探测;同时通过智能协同感知网络,实现跨节点的信息融合与互校。
2.2.6 无处不在:空天地海一体化的全球立体覆盖
6G的“无处不在”场景旨在构建一个连接太空、空中、陆地、海洋的全球空天地海一体化网络,以彻底消除数字鸿沟。其通过融合地面蜂窝网络与卫星、高空平台等非地面网络,实现对偏远地区、远洋、低空等5G盲区的无缝覆盖,为用户和终端提供真正的泛在连接。典型应用包括为自然灾害地区提供全域应急通信,为飞机、无人机物流等构建高可靠的立体交通网络,并为部署在极端环境中的海量传感器提供连接,助力数字孪生地球的构建。为实现这一目标,6G将依赖天地一体融合的网络架构、太赫兹等新频谱的开发利用,以及确定性网络等关键技术,以确保用户在不同网络间能够无感切换,并获得确定性的服务保障。该场景是6G实现“万物智联”社会的物理基石。
2.3 未来通信网络的六维能力
《6G典型场景和关键能力》白皮书指出,6G的关键能力体系由性能指标、效率指标与智能特征构成。这些指标构成未来通信网络的六维能力空间,如表1所示。
表1 未来通信网络的六维能力
此外,6G强调三项效率维度:频谱效率提升1.5~3倍,通过太赫兹频段与智能波束赋形(Beamforming);能量效率提升20倍,实现“绿能通信”;可信度(Trustworthiness)内生化,通过安全自治机制保障隐私与韧性。总体来看,6G的能力框架不再仅是“性能三角”,而是“通信-计算-感知-智能-安全-绿色”的六棱结构,既面向算力融合,也面向社会可持续。
2.4 从典型场景到能力闭环
结合以上分析,6G网络在六大典型场景与六大关键能力间形成了完整的能力闭环。以通信为基础,提供全球无缝覆盖与超宽带连接;以计算为核心,实现“云-网-边-端”算力协同与AI训练推理;以感知为延伸,通过通信感知融合获取物理世界数字孪生信息;以智能为灵魂,构建可自学习、自优化、自修复的自治网络;以安全为底线,通过内生安全机制实现可信、隐私与韧性;以绿色可持续性为准则,贯穿设计、部署、运维全过程的节能理念。
6G网络的典型场景与关键能力共同构建了面向2030年的智能基础设施。其从根本上重塑“连接”的概念:连接的不只是人和设备,而是数据、智能与现实的融合体。超级无线宽带让感官得以自由延展;超大规模连接让每个物体具备数字映射;极其可靠通信让机器具备安全协作的神经反射;普惠智能让AI无处不在;通信感知融合让网络成为“看得见世界”的数字感官。当这些能力汇聚,6G不仅将赋能沉浸式多媒体与未来电影产业,更将成为数字社会的“神经系统”与“智能大脑”。
3
6G赋能沉浸式多媒体的应用架构与技术路径
3.1 总体思路与系统定位
6G赋能沉浸式多媒体的核心在于“网络-算力-智能-感知”一体化协同。在IMT-2030(6G)推进组发布的《6G沉浸式多媒体业务需求及关键技术研究报告》中指出,6G将同时支撑XR、全息通信、多维感知等复合形态业务,其架构由感知层、网络层和应用层构成(图2),形成从物理世界到数字世界的闭环,使“沉浸体验”从内容生产到实时交互再到反馈控制实现全链贯通[6]。
图2 6G沉浸式通信总体架构[6]
在这一体系下,6G沉浸式多媒体不再是单一的视频传输业务,而是一种融合渲染、通信感知同步、智能调度与实时建模的动态系统。与5G相比,6G将实现从媒体网络到智能感知网络的跃迁,其关键技术路径可概括为3条主线:(1)网络原生智能化,实现AI在传输、编解码、路由与服务质量(QoS)控制中的全栈嵌入;(2)通信感知计算融合,在同一基础设施中并行感知、通信与计算,实现数据流、模型流与能量流统一;(3)沉浸式交互重构,通过体积视频、空间音频、触觉与全息编码实现多维人机共生体验[7]。
3.2 架构分层与功能模块
3.2.1 感知层:多模态采集与实时交互
感知层负责多维感知信息的采集、编码与上行传输,包括视觉、听觉、触觉及空间定位等数据。该层主要由摄影机、深度传感器、惯性测量单元(IMU)、AR眼镜、触觉手套及语音交互终端构成。视觉维度:采用多基线深度摄像阵列与光场传感,实现从2D到六自由度(6DoF)全景的采集。听觉维度:空间麦克风阵列记录场景声源位置与声场反射信息,用于空间音频重构。触觉与嗅觉维度:基于压电阵列与纳米传感器,进行力觉、纹理与气味信号的采样。行为与姿态维度:IMU与激光雷达实现厘米级动作捕捉与同步定位。
6G网络提供的亚毫秒级空口时延确保运动到光子(Motion⁃to⁃Photon)链路闭环控制不超过20 ms,保证XR和全息交互的稳定性与无眩晕体验。
3.2.2 网络层:算网一体与QoS智能调度
网络层承担沉浸式多媒体的传输与资源管理职能,由承载子层与服务引擎子层两部分组成。承载子层提供具备QoS保障的超宽带传输,采用多路径并发与多接入边缘计算(MEC)协同结构。多路径协议(MP⁃QUIC、MP⁃TCP)实现跨终端流量的智能聚合。服务引擎子层实现沉浸业务的智能感知与动态调度,核心模块包括:(1)数字孪生引擎:,构建物理场景与数字孪生空间的映射,实现虚实共存;(2)实时交互控制引擎,支撑多模态流的同步与时序对齐,保证多媒体一致性;(3)QoS智能感知与调度引擎,实时监测带宽、时延、抖动、丢包等指标,并通过AI自适应调整编码速率与传输路径;(4)通信感知融合引擎,在通信链路中嵌入雷达/光学/声学感知,实现网络侧对用户行为与场景的感知反向反馈。
3.2.3 应用层:云端渲染与沉浸式内容分发
应用层整合算力、数据与AI模型,实现内容生成、交互与分发的闭环生态。其技术路径主要包括:(1)云渲染与边缘卸载,通过6G高速链路与分布式图形处理器(GPU)集群,实现8K/16K视频、体积视频及全息影像的实时渲染;(2)智能编解码体系,采用基于感知优化的自适应视频编码与AI增强压缩算法,在确保主观体验质量(QoE)的前提下降低50%以上带宽占用;(3)沉浸式媒体同步,引入“多并发流协同控制”机制,实现音视频、触觉、气味等多流对齐与帧级同步;(4)全息与空间音频呈现,通过点云编码与空间音频渲染,实现三维立体感与空间方位一致性。
3.3 关键技术路径分析
3.3.1 基于云-边协同的实时渲染体系
6G沉浸式多媒体系统的核心性能瓶颈在于渲染延迟。通过“云端超算+边缘GPU”协同架构,可实现渲染任务的层次化分配:云端完成全局光照与复杂物理计算;边缘节点执行低时延画面合成与动态贴图;终端仅保留轻量显示与局部补帧模块。该架构结合AI预测与网络时延反馈,动态分配算力资源,使端到端时延控制在10~20 ms以内。
3.3.2 多模态通信感知融合
通信感知一体化是6G区别于前代的核心能力。系统通过毫米波/太赫兹信道实现通信与感知复用,利用反射信号估计用户位置与姿态,实现无传感器追踪;再结合AI推理构建场景级动态模型。这使虚实共生的交互体验成为可能,如全息会议中人物的即时空间重构。
3.3.3 智能分发与语义路由
传统内容分发网络(CDN)模式在6G时代将演化为语义驱动的智能分发。网络将根据内容语义(如镜头运动或角色表情)进行优先级调度。例如,在全息直播场景,系统可仅优先更新观众视场角(FoV)区域内的像素,实现带宽节省与时延优化。语义路由结合AI编码,实现从比特传输向信息传输转变。
3.3.4 多维交互与沉浸安全
6G沉浸式多媒体不再是单向传播,而是多维感官参与的交互系统。为此需构建触觉互联网协议栈、情境安全机制和隐私保护框架。触觉互联网协议栈确保力觉与温度信号的毫秒级同步;情境安全机制在通信感知协同中嵌入物理层安全编码,实现窃听防御与身份认证;隐私保护框架通过联邦学习与可验证计算保障个人感知数据安全。
3.4 典型应用架构实例
结合本文中的系统框架与影视领域特性,可提炼出以下3种典型架构。(1)云端虚拟摄制架构:利用6G多路径回传与边缘渲染,LED虚拟场景、演员动作捕捉与计算机图形学(CG)生成实现毫秒级同步,支持跨域拍摄协作;(2)全息影院传输架构:基于点云与空间音频的多流协同传输,通过多路径传输(MP⁃QUIC)与QoS智能调度,保证每位观众的视角独立与音场一致;(3)多感官互动传播架构:通过通信感知融合与触觉网络,构建沉浸式广告与交互叙事系统,实现“场景即媒介”的体验传播。
展望2030年以后,6G赋能沉浸式多媒体的演进方向将呈现以下趋势。(1)算网融合深化:云边端协同渲染与AI推理将成为沉浸内容分发的核心底座;(2)协议体系革新:基于快速UDP网络连接(QUIC)/HTTP/3的多路径传输与实时语义调度将成为主流;(3)全息交互普及:体积视频、裸眼全息与触觉互联网的深度融合,推动从“沉浸观看”向“共生参与”转变;(4)产业生态融合:影视、游戏、教育、医疗等领域将在6G沉浸平台上实现跨界融合与资产共享;(5)标准体系统一:国际电信联盟(ITU)、第三代合作伙伴计划(3GPP)、运动图像专家组-沉浸式媒体(MPEG⁃I)及虚拟现实与增强现实标准工作组(IEEE P2048)等的标准将协同形成全球沉浸式多媒体技术框架[8]。
4
6G赋能现代电影工业的案例应用与分析
4.1 虚拟摄制系统:6G驱动的云端协作与通信感知同步
6G赋能下的“云端虚拟摄制”代表着电影工业链条的结构性变革。其核心理念是通过超高速率与超低时延网络,实现素材、渲染、AI模型、控制信号在全球范围内的实时协作,构建真正意义上的“跨时空制作场景”。基于6G网络的虚拟摄制系统通常采用“现场-边缘-云端-渲染中心”4层架构。拍摄现场部署多维传感阵列(包括高分辨率摄影机、动作捕捉系统、LED穹顶、触觉接口等),将原始影像与位姿数据通过6G网络的Tbps级链路回传至云端平台。在云端,AI与通信感知融合引擎对数据进行同步建模和实时渲染;边缘节点承担快速合成与延迟补偿;现场终端则仅负责光学采集与低延迟显示[9]。
该模式的关键能力包括:(1)超高速上行传输,单路8K/16K素材回传可达10 Gbps以上,支持多机位并发;(2)毫米级通信感知精度,可通过太赫兹信号感知实现演员动作与虚拟环境的厘米级同步;(3)AI协同渲染,基于分布式GPU与推理模型的云渲染,可将场景合成时延控制在20 ms以内[10]。
假设一部国际合拍电影的主要团队分布于上海、温哥华和约翰内斯堡。在传统模式下,跨域素材回传与后期同步需要数小时甚至数天。而在6G环境中,摄影师在非洲拍摄的16K HDR素材可实时传至云端,AI自动完成光照匹配与初步抠像;同时,位于上海的虚拟摄制团队可在LED屏幕中即时预览并指导拍摄参数调整,实现“全球同帧”制作。这种模式不仅消除了时差阻碍,也重塑了电影工业的组织逻辑,使协同制作成为常态。
LED虚拟摄制的瓶颈在于大规模多流并发同步与超高分辨率数据的实时压缩传输。6G时代通过AI驱动的感知编解码与语义压缩,可在保持画面质量的前提下降低约70%的带宽占用。未来的研究重点包括:(1)语义层QoS控制,以镜头运动或角色表情为调度单元,实现差异化编码;(2)分布式协作渲染,利用算网一体架构动态分配云边算力资源;(3)虚实通信感知建模,提升虚拟场景与物理动作的同步精度,实现“以假乱真”的沉浸式体验[11]。
4.2 全息影院:6G支持下的沉浸式观影革命
全息影院是6G网络在视听终端领域的代表性应用。根据《6G沉浸式多媒体业务需求及关键技术研究报告》中的架构图,全息影院系统包括内容制作端、云分发中心、6G接入层与多模态呈现端4个模块。在这一体系中,6G的Tbps传输能力与μs级抖动控制使“体积视频+空间音频+触觉反馈”得以同步呈现,观众不再仅观看屏幕,而是进入一个可交互的三维叙事空间。
基于6G原型系统的8K全息观影实验厅通过分布式天线系统(DAS)与太赫兹链路接入6G骨干网络,每个观众席位均嵌入空间音频节点与红外感知模块。在观影过程中,系统可根据观众视线与姿态,实时调整全息投影角度与音源定位,实现“视听同步+空间响应”。此外,触觉反馈系统可在动作场景中生成气流与震动,增强临场感[12]。
关键技术与性能指标包括:(1)点云与全息编码,采用MPEG⁃PCC标准,点云压缩率提高60%;(2)空间音频同步,唇音时延差<10 ms,定位误差<5°;(3)网络层调度,通过AI智能感知引擎动态分配带宽,保证多流稳定性。6G全息影院不仅是电影放映的革新,更是文化娱乐与社交体验的融合空间。其商业模式包括:(1)云端内容分发平台,观众可通过其订阅访问全球全息内容库。(2)实时共映系统,不同地区影院可同步播放同一场全息演出。(3)多角色沉浸观影,观众可选择角色视角,实现参与式叙事体验。未来,全息影院有望成为“6G+文化产业”的核心示范形态,其成功落地将带动显示设备、音频处理、网络基础设施等多产业协同发展[13]。
4.3 全息远程协作与表演:虚拟存在的艺术延伸
6G全息通信使远程表演与指导进入实用阶段。该系统基于“多点采集-全息重建-空间呈现-双向交互”流程,实现异地创作者的实时共场表演。
在6G支持下,全息通信数据的传输速率可达数十Gbps,端到端延迟控制在5 ms以内。演员的三维姿态、表情与声音信息通过体积采集装置生成点云流,经AI压缩后传入云端渲染引擎,再通过网络下行到远端全息显示设备,实现真实比例的“立体再现”。
如图3所示,跨国全息表演在未来将成为可能。导演在北京现场指导,演员位于巴黎,通过全息重建系统出现在同一虚拟舞台。系统使用6G边缘节点处理延迟补偿,并采用AI动作预测算法,在网络抖动情况下依然维持<3 ms视觉延迟,实现完全同步的表演节奏[14]。
图3 6G赋能全息通信示意图[10]
这一模式的技术挑战与优化方向包括:(1)点云实时压缩算法,需在1 Gbps下完成每秒5000万个点的编码;(2)多节点同步与动态光照调整,确保不同地理位置间的全息融合一致;(3)网络安全与隐私防护,全息通信涉及高敏感生物特征数据,需引入端到端加密与可信执行环境。该模式未来将推动影视与舞台艺术、虚拟演唱会、数字人直播等业态的融合,形成6G时代的沉浸式表演经济。
4.4 6G赋能电影产业的综合展望
6G不仅将重塑电影的制作、发行与消费模式,更将推动产业链数字化重构。从制片、后期、放映到宣传发行,数据与智能成为贯穿全流程的底层逻辑。在技术层面,6G实现通信、计算与感知融合,使影视工业进入“通信感知智造”时代;在产业层面,虚拟摄制、全息影院、数字演员与AI创制将构成新型影视生态;在文化层面,观众角色从“被动接收者”转为“共创参与者”,电影由线性叙事转向空间叙事;在治理层面,需建立沉浸式版权管理、数据安全与伦理标准体系,确保技术进步与艺术本体平衡[15]。
值得注意的是,6G赋能电影工业并非孤立于现有的信息化体系,而是对云计算时代电影工业化体系的纵深延展。正如刘达[16]等学者指出,云计算、大数据与智能科学将成为电影工业化的核心支撑。6G的出现,使这一“云端智能体系”获得了超高速率、超低时延和原生通信感知的底层动力。基于6G与云计算的能力,可通过构建“6G-Cloud一体化电影工业体系”(图4),实现制片、渲染、分发、放映的全链路智能协同。
图4 “6G⁃Cloud一体化电影工业体系”框架图
综上所述,6G赋能下的电影产业正迎来从“影像化叙事”向“体验式存在”的历史跨越。我们也给出了基于6G-云计算未来智能电影工业体系的四大支柱(表2),其不仅是网络技术的革命,更是人类审美与叙事方式的更新。未来的电影或许不再是一场“观看”,而是一种多维度的参与、一场实时生成的梦境[17]。
表2 6G-云计算未来智能电影工业体系的四大支柱
5
结语
作为面向2030年的下一代信息基础设施,6G正在从“更快的移动通信网络”演变为“融合通信、计算、感知与智能的基础系统”。本文从6G的典型场景与关键能力出发,梳理了其在速率、时延、连接密度、通信感知精度与原生智能等方面的技术跃迁,指出6G将为沉浸式多媒体和未来电影提供前所未有的网络与算力底座。围绕这一底座,文章进一步构建了“感知层-网络层-应用层”一体化的应用架构,分析了“云-网-边-端”协同渲染、通感融合、多模态同步与语义路由等关键技术路径,为理解6G如何在系统层面支撑沉浸式业务提供了较为完整的技术图景。
在具体应用层面,本文结合虚拟摄制、全息影院、全息远程协作与表演等典型案例,展示了6G赋能电影工业的可能形态:一方面,“云端制片”“全球同帧制作”等新型生产模式,有望重塑传统的拍摄-后期制作-发行流程,形成跨地域、跨平台的协同创作网络;另一方面,全息放映、XR叙事与多感官互动,将推动观影从线性单向的“银幕观看”走向空间化、参与式的“沉浸体验”,电影与游戏、现场演出等形态间的边界将进一步模糊。同时,通信感知融合与原生智能也为智能宣发、场景化营销和IP共创提供技术支点,使电影在“被观看”之外,逐步成为一种可交互、可再造的文化场域。
需要指出的是,6G赋能电影产业的图景尚处于从概念走向落地的关键过渡期。超高成本的基础设施与算力投入、沉浸式内容生产的复杂度提升、设备与网络条件差异导致的“沉浸式数字鸿沟”,以及体积视频与全息内容的版权确权、数据安全与AI生成内容的伦理边界等问题,均对行业提出了系统性挑战。面向未来,一方面亟需通过国家层面的6G与超高清/沉浸式媒体联合示范工程,推动虚拟摄制基地、全息影院与沉浸式体验空间的试点建设,探索可复制的技术与商业模式;另一方面,应加快构建涵盖技术标准、内容规范、版权治理与人才培养的综合支撑体系,促成通信领域与电影产业、高校与企业间的深度协同。
总体来看,6G对电影的意义并不仅是“更快的下载”或“更清晰的画面”,而是通过极致连接和原生智能,从底层重构电影的生产方式、发行渠道、消费场景与艺术形态,使电影从一门“观看的艺术”逐步走向一门“体验的艺术”。随着6G标准与产业生态的持续完善,可以预期,未来电影将在虚实融合、共创共生的人机协同空间中生长,为公众带来更加多维、开放与个性化的叙事体验,同时也为我国在6G与数字文化融合创新上的自主发展提供重要机遇。
参考文献
(向下滑动阅读)
[1] IMT-2030(6G)推进组.6G典型场景和关键能力白皮书[R].2022.
[2] IMT-2030(6G)推进组.6G总体愿景与潜在关键技术白皮书[R].2021.
[3] IMT-2030 网络组. 6G 网络架构愿景与关键技术展望白皮书[R].IMT-2030 中国6G大会, 2021.
[4] 欧阳晔, 王立磊, 杨爱东,等. 通信人工智能的下一个十年[J]. 电信科学, 2021, 37(3):36.
[5] 刘光毅,邓娟,郑青碧,等.6G智慧内生:技术挑战、架构和关键特征[J].移动通信,2021,45(04):68⁃78.
[6] IMT-2030(6G)推进组. 6G沉浸式多媒体业务需求及关键技术研究报告[R].2021.
[7] 中央广播电视总台. 8K超高清电视节目制播技术要求(暂行)[S]. 2021:01.
[8] 李岩, 刘斌. 8K JPEG⁃XS制播全流程测试概述[R]. 北京: 中央广播电视总台, 2022.
[9] NHK Science & Technology Research Laboratories. Future Vision 2030-2040[R]. Tokyo: NHK STRL, 2020.
[10] 中国移动通信有限公司研究院. 全息通信业务发展趋势白皮书[R].2022.
[11] 于宁. 全景视频的投影转换及编码[D]. 北京:北京交通大学,2020.
[12] CHEN Z, LI Y, ZHANG Y. Recent advances in omnidirectional video coding for virtual reality: Projection and evaluation[J]. Signal Processing, 2018, 146(4): 66⁃78.
[13] WANG Z, BOVIK A C, SHEIKH H R, et al. Image quality assessment: From error visibility to structural similarity[J]. IEEE Transactions on Image Processing, 2004, 13(4): 600⁃612.
[14] CHAKARESKI J. Viewport⁃Adaptive Scalable Multi⁃User Virtual Reality Mobile⁃Edge Streaming[J]. IEEE Transactions on Image Processing, 2020, 29: 6330⁃6342.
[15] DUANMU F, HE Y, XIU X, et al. Hybrid cubemap projection format for 360⁃degree video coding[C]//2018 Data Compression Conference. Snowbird, UT: IEEE, 2018: 404⁃404.
[16] 刘达.云计算时代电影工业化体系构建策略与工程设计思考[J].现代电影技术,2020(01):23⁃29.
[17] ITU-T FG NET2030, Sub-G2. New Services and Capabilities for Network 2030 Description, Technical Gap and Performance Target Analysis[R]. ITU-T, 2019.
刘达等:智能时代电影科技发展演进与虚拟现实电影创新提质研究
期刊导读 |《现代电影技术》2026年第1期
《现代电影技术》2026年选题指南
热门跟贴