CCAI 2024
12月13-15日,主题为“创新驱动 智启新程”的2024中国人工智能大会(CCAI 2024)将在北京召开。会期期间举办的“端侧模型专题论坛”上,来自清华大学、中国人民大学、面壁智能、Nexa AI等学界和产界的专家学者将分享成果报告,北汽、中科创达、加速进化、安谋科技、地瓜机器人、英特尔的技术与产品负责人将围绕“端侧大模型,基础建设与应用加速进行时”的话题现场对话交流。(嘉宾顺序以活动出场顺序为准)
万物互联时代,端侧模型因其轻量化与本地化的优势,成为物联网和边缘计算领域的核心技术。与依赖云端的大型模型相比,端侧模型在资源受限的硬件环境中运行,能够平衡计算能力、内存占用和能耗限制,从而以离线处理的方式满足实时性和隐私性需求。
将大模型落在端侧,关键要做到三点:一是尺寸够小,最好能精准裁切,二是性能强、功能全,三是运行硬件开销够低。即小参数,高性能,开销低。由于智能硬件的内存容量和带宽受限,端侧模型越小,计算量和占用内存越少,计算成本、功耗、推理延迟越低,端侧AI应用响应才越快。通常,将大模型部署并运行在终端,需完成从底层芯片到上层操作系统及应用开发的软硬一体深度适配, 攻关模型优化、推理加速、内存负载等多个维度。突破硬件差异性而产生的门槛,足够高效大模型才能与绝大多数终端结合,让端侧AI进入千家万户、千行百业。
本地化计算作为端侧模型的另一大优势,在隐私保护和低延迟要求较高的场景中,如智能家居、医疗健康和自动驾驶,能够在本地完成数据处理,避免上传数据到云端的安全隐患。这既节省了带宽成本,又满足了用户对即时响应的需求,例如语音助手的即时反馈和实时个性化推荐。
端侧模型的发展也推动了硬件与软件的协同创新。为端侧模型量身定制的硬件加速器如Edge TPU和Neural Engine显著提升了模型推理性能和功耗效率。同时,支持端侧开发的框架如TensorFlow Lite和PyTorch Mobile,提供了丰富工具资源,加速了模型在工业、医疗和城市管理等领域的落地应用。
在实践中,端侧模型已应用于多个行业。比如在智能制造中可实现实时故障检测与预测维护,在医疗领域的便携式设备上可通过本地化推理支持疾病筛查与诊断,在智慧城市应用中能够优化交通管理和环境监测。
随着5G、物联网和边缘计算的深入普及,端侧模型将迎来更广阔的应用空间。“端侧模型专题论坛”上学术界与产业界的深度交流和成果共享,将促进这项沿技术的创新进步和应用推广。
购票详情
立即行动,团体优惠等你来享!
热门跟贴