数据中心场景下,是什么在侵占服务器的业务算力?

数据中心场景下,是什么在侵占服务器的业务算力?

后摩尔定律时代,数据中心服务器算力的增长跟不上带宽的增长,原本用来处理业务的算力被大量浪费在处理网络数据和基础设施业务上(OVS、NFV),通过CPU软件模拟的方式性能已经无法满足需求,服务器性能已经达到瓶颈,市面上不少客户可能会考虑两个选择:

  1. 增加服务器数量;
  2. 为服务器增加一块智能网卡,用于网络业务卸载。显而易见,增加服务器数量需要消耗的成本远大于购买智能网卡需要的成本。
DPU智能网卡实现CPU负载卸载

DPU智能网卡实现CPU负载卸载

传统的智能网卡上,首包的处理在CPU上,流表下发到网卡芯片里依旧占用了CPU的资源,并且需要为卸载的业务定义接口和相关的协议,实现起来比较复杂,定位问题难。

而DPU架构的智能网卡上,可以实现全卸载,相互之间没有太多业务接口,定位问题清晰。相当于有专门的计算资源来处理智能网卡相关的控制面,可实现控制面+转发面的全卸载,并且对比FPGA或SoC架构的网卡,DPU的处理性能处于绝对优势。

以云网关接入为例。在保证总接入用户数量的前提下,引入DPU架构智能网卡的建设方案相对于纯2U服务器的建设方案在机架空间占用、总功耗、成本上都具有明显优势。其中机架空间节省超过2/3,总功耗节省超过1/2,建设成本节省8W,同时机架平均每U接入的用户数有3倍以上的提升。

DPU架构的智能网卡——星融元Helium DPU智能网卡现已开源!

DPU架构的智能网卡——星融元Helium DPU智能网卡现已开源!

Helium DPU 智能网卡的特色

  • 开源开放的生态:通用处理器 + 标准的Linux系统(可适配多版本),并且还提供了全开源的软件开发环境,可以轻松搭载任何基于Linux的自研应用,高度灵活、自主可控
  • 性能&功耗:对比其它网卡厂家采用FPGA或SoC架构的产品,Helium智能网卡采用集成度更高的DPU架构,做OVS或NFV的处理性能处于绝对优势;另外同等性能或更高性能下,Helium智能网卡的功耗更低;
  • 大量的应用场景验证:包括OVS卸载(控制面数据面全卸载)、5G UPF(信令面用户面全卸载)、DPVS卸载、SSL加解密卸载等场景

Helium DPU 智能网卡硬件架构

  • 高性能DPU芯片:24个ARMv8.2核、众多硬件加速协处理器
  • 业务接口:4 x 25GE、2 x 100GE
  • 高速连接:PCIe Gen3.0/4.0 x 16
  • 内存:16GB,可扩展至64GB
  • 存储:64GB EMMC 5.1

一站式软件开发环境

  • 标准Linux底层基座操作系统(可以定制更换,包括Linux、CentOS、Ubuntu、Debian、中标麒麟等)
  • 标准容器虚拟化环境
  • 开放的库和API(DPDK套件(19.11、20.11、21.11)、VPP、其它网络和安全开发工具)

典型业务性能数据参考:

  • 纯转发:128字节数据包100Gbps线速转发
  • OVS卸载性能:80Gbps
  • 5G UPF性能:80Gbps
  • IPsec性能:50Gbps

实例1:OVS卸载到Helium DPU 智能网卡,同时集成第三方应用

  • 可以在网卡上安装各种容器应用功能
  • 同时打通各容器之间、以及容器与VM之间的数据通道

实例2:Helium DPU 智能网卡卸载SSL加解密引擎

  • 内置硬件加解密引擎
  • SSL加解密:29K TPS;10~20Gbps

实例3:Helium DPU 智能网卡卸载eBPF

  • eBPF功能卸载至智能网卡,智能网卡上携带的ARM处理器单独实现一个后端,将中间的eBPF字节码编译成ARM处理器体系结构的指令码,载入网卡RAM(智能网卡包含DRAM,因此MAP也可以被卸载),智能网卡从网卡RAM里载入eBPF程序并运行
  • eBPF处理以后的数据报文以及元数据和统计信息返回给主机应用

实例4:Helium DPU 智能网卡完全卸载5G UPF

  • UPF全部功能(信令面和用户面)卸载至智能网卡,与MEC Host无缝融合
  • UPF与MEC逻辑隔离,互不影响,MEC无需重新架构即可获得高性能