案例简介

「DaoCloud 道客」基于 NVIDIA GPU 打造 d.run 算力一体化解决方案,帮助客户构建灵活、可靠的智算中心,为企业提供高效、稳定的算力支持,加速 AI 创新和应用。

面对各行业对智算需求的激增以及智算中心建设遇到的软硬件挑战,在云原生领域深耕近 10 年的「DaoCloud 道客」推出了基于云原生的 d.run 算力一体化解决方案。这一方案融合了软硬件的协同优势,特别是利用 NVIDIA GPU 的强大性能和云原生技术的灵活调度能力,助力客户构建高效、稳定的智算中心,提供可靠算力服务。

d.run 解决方案已经在高校科研、运营商和政府智算中心建设等多个领域得到应用,为行业客户的智能化发展提供强有力的支持。

智能化发展面临计算性能挑战

传统计算资源在计算性能上存在较大瓶颈,面对 AI 算法的复杂性和数据处理的庞大规模,GPU 的作用变得尤为关键。因此,高性能的 GPU 是 d.run 方案能充分发挥优势的基础。市场上 GPU 硬件性能虽持续提升,但与 NVIDIA GPU 相比仍有差距,尤其在软件生态系统的支持上。智算中心的建设超越了单纯的硬件堆叠,它需要 NVIDIA GPU 的高性能、智能资源管理策略以及云原生调度能力的深度融合,以构建一个真正高效、灵活且具备可持续发展能力的智算中心。

NVIDIA 为 AI 算力提供强大支持

d.run 是「DaoCloud 道客」基于 NVIDIA GPU 和云原生技术打造的算力一体化解决方案,为 AI 时代的算力需求提供强大的支持。

  1. 高性能计算集群的构建:NVIDIA GPU 的强大计算能力极大地加快了大模型推理和训练过程,并进一步提高了算法的精确度。基于 NVIDIA GPU 构建高性能计算集群,d.run 能够支持更复杂的 AI 模型和更深入的数据分析,为各行各业的 AI 应用提供坚实的基础。

  1. 动态资源分配与扩展:d.run 不仅基于 NVIDIA GPU 的 MIG 技术实现资源的物理隔离,还支持更精细的 GPU 资源切分与独立调度,同时进一步采用优化的云原生调度算法,实现了 GPU 资源的动态分配和弹性扩展。

  1. 硬件与软件的深度整合:d.run 采用具备良好软件生态和更大兼容性的 NVIDIA GPU,集成 NVIDIA 的 GPU Operator,实现了硬件驱动程序、软件栈的自动化部署和持续更新优化,使得整个 GPU 资源管理的过程无需人工介入。d.run 还通过云原生技术将硬件性能更好地发挥出来,为用户带来了更加持续稳定的高效计算体验。

  1. 一体化的构建速度:d.run 充分利用了 NVIDIA GPU 无缝集成的能力和云原生技术的强大调度能力,以一体化形式交付高性能的软硬件方案,显著加快智算中心的构建速度,不仅简化大规模 GPU 算力的部署过程,还有效解决建设和运营管理中的复杂性问题,实现算力资源的按需流动和分配。

「DaoCloud 道客」创始人兼首席执行官、云原生计算基金会全球大使陈齐彦表示:“基于 NVIDIA GPU 和云原生技术打造的 d.run 算力一体化解决方案为行业客户的大规模智算中心建设提供了强大动力,不仅显著提升了 AI 计算任务的执行速度,还大幅提高了资源的利用效率,实现算力资源按需流动,这些成果为 AI 应用的创新和高效实施奠定了坚实的基础。”