数字化与智能化转型浪潮席卷全球,边缘云随之掀起全新的技术变革。这类技术打破传统集中式计算模式的束缚,将数据处理与分析能力部署至网络边缘,实现数据生成后的即时响应与高效处理。随着人工智能大模型不断发展,行业关注重心逐步从模型训练,转向落地应用中关键的AI推理环节。凭借低时延、分布式部署等核心优势,边缘云也顺势成为当下产业竞争的全新焦点。
这一趋势的形成有着清晰的逻辑。Gartner预测,2028年80%以上的算力将用于推理而不是训练。IDC也预测,2027年80%的企业将部署分布式边缘基础设施。与此同时,推理模型日趋复杂、体量不断扩张,对各项资源的需求持续走高,让集中式推理的部署与运行愈发受限。在此背景下,边缘计算的适配优势充分释放,既能有效承接大规模AI推理业务,又可满足机器速度级的低延迟响应要求,成为支撑行业发展的核心抓手。
Akamai大中华区副总裁 张轲
面对行业变革趋势,Akamai也给出了自身的解决方案。Akamai大中华区副总裁张轲表示,Akamai依托二十余年全球布局沉淀的分布式计算网络,打造分布式计算与云安全平台,并加快业务转型,全力构建全球领先的分布式AI推理平台。依托与NVIDIA达成的战略合作,Akamai已于今年英伟达GTC 2026大会上发布AI网格平台。同时在全球范围大规模部署NVIDIA RTX PRO 6000 Blackwell基于推理优化的GPU,夯实边缘AI推理算力底座。
赋能客户AI创新,Akamai有何布局?
传统AI架构普遍采用“训练集中、推理集中”的模式。这一架构在低延迟刚需场景中存在天然短板。不论是自动驾驶、智能机器人、实时视频处理等物理智能应用,还是高并发的个性化推荐业务,数据从生成、上传至中心节点处理,再到结果回传的完整链路,产生的时延,往往会超出各类应用的容许范围。Akamai亚太区云计算架构师总监李文涛谈到,游戏、电商以及智能体自助服务等各类场景,均对AI推理的低时延能力提出了极高要求。
Akamai亚太区云计算架构师总监李文涛
面对这一行业痛点,李文涛表示:“Akamai正依托覆盖全球的分布式算力平台,为用户提供高质量、低时延的AI推理服务,精准适配AI时代的推理算力需求。”这一落地举措,也充分彰显出Akamai面向AI时代的清晰定位:为企业构筑智能基础设施,支撑业务平稳开展AI创新,在全球范围内,助力企业构建、保护和扩展AI服务。为此,Akamai推出Akamai Inference Cloud(AI推理云)、AI Grid智能编排等解决方案,持续完善整体能力布局。
李文涛解释道,Akamai推理云是一套全球分布式的云平台,依托统一的云原生运营模式,实现贴近用户侧的AI推理运行。这也意味着Akamai推理云将推理能力从核心数据中心延伸至互联网边缘端。不仅如此,Akamai近期发布的AI Grid智能编排,将NVIDIA算力融入全球4400个边缘站点,有效解决AI推理的“最后一公里”难题。依托系列产品布局,Akamai正在逐步实现产业升级,勾勒出从集中式“AI工厂”向分布式“AI公共设施”的演进蓝图。
解决AI推理难题,Akamai推理云实力如何?
Akamai推理云依托全球数千个节点部署AI决策能力,可充分满足持续增长的AI推理算力与性能扩容需求,以此实现更快速、智能且安全的业务响应。那么,这一能力究竟如何实现?Akamai推理云具备实时AI推理、全球AI算力分布式负载、边缘至核心全链路算力调度管理等核心功能。算力层面,平台搭载英伟达最新RTX PRO 6000 Blackwell系列显卡;平台层面,整体架构开放易用,同时已斩获CNCF开源云原生组织颁发的开源AI平台兼容性认证。
具体来看,Akamai推理云搭载英伟达RTX PRO 6000 Blackwell系列GPU。该GPU单卡AI算力可达4000 AI-TOPS,并配备96GB ECC大显存,能够充分承载主流大模型的推理任务。与此同时,其GPU虚拟机“出方向”流量成本低至0.005美元/GB,根据 Akamai 内部测试数据,整机综合性价比相较同类竞品机型有翻倍提升。在AI调度与AI网关层面,Akamai实现大模型请求的全球调度统筹与全链路安全防护,同时依托语义缓存等智能化技术,帮助用户大幅降低Token成本。
除算力与调度能力外,Akamai函数即服务也是重要组成,作为当前全球领先的函数计算产品,其冷启动时延低至0.5ms,响应速度较主流公有云竞品最大可高出千倍,既能支撑极速AI服务响应,也可助力用户构建覆盖全球边缘的无服务器计算能力。李文涛表示,依托全球分布式算力底座打造的Akamai分布式容器平台,可实现容器化业务的边缘快速部署,助力企业将AI服务与业务逻辑就近部署至用户侧,最大限度压缩访问时延,满足数据合规管控要求。
此外,AI网格同样是Akamai推理云的核心组成。作为全新的分布式AI推理架构,AI网格借鉴英伟达相关技术实践,可在毫秒级时限内,将每一条AI请求路由至最优算力节点:
智能路由能力能够实时感知AI工作负载,结合模型类型、时延目标与成本诉求,自动匹配最优算力层级,完成AI请求的高效调度。同时,该架构搭建起从互联网边缘到核心数据中心的全域分布式计算能力,支持企业按需定制算力布局与业务部署方案。在可靠性层面,平台依托英伟达RTX PRO系列GPU硬件支撑,相关产品已在AI推理、模型训练、渲染、视频处理等场景完成严苛基准测试,保障稳定运行。
在今年3月份,Akamai发布首个全球规模的NVIDIA AI Grid参考设计实施方案,将4400个边缘站点织成一张分布式推理网络,以智能编排技术打通从核心数据中心到远端边缘的计算连续体,不仅为AI推理的“最后一公里”难题提供了全新解法,更标志着全球AI基础设施从集中式向分布式的关键转型。
“目前,全球范围内,包括众多出海中国企业,已有大量客户落地使用Akamai推理云,实际应用场景十分丰富。”李文涛表示,“Akamai推理云业务已经遍及了全球各个主要行业与地区,为客户提供GPU算力、AI安全防护及AI推理服务。”值得一提的是,Akamai推理云已在多类场景实现广泛落地,涵盖推荐引擎、8K视频工作流、实时视频智能分析、智能体助理、虚拟试衣、智能终端、自动驾驶等多元业务领域。
AI带来安全挑战。Akamai如何应对?
以深度学习为核心的人工智能技术兼具两面性,一方面具备强大的赋能价值与广阔的应用前景,另一方面也催生了前所未有的安全风险。Akamai大中华区售前技术经理马俊表示:“当下企业面临全方位、多维度的安全挑战,涵盖从‘抵御勒索软件、推进零信任架构’到‘混合云微分段拓展’再到‘确保业务连续性、并且降低成本’的多重诉求”。笔者注意到,为应对上述各类挑战,Akamai将AI技术全面贯穿至整体安全战略。
Akamai大中华区售前技术经理 马俊
Akamai依托AI驱动的微分段技术,不仅能够实现全域流量可视,更可解析业务与应用运行状态,进而输出具备洞察性的安全管控策略。该方案可提供主动有效的安全防护,大幅减少人工干预,同时为海量应用智能生成防护模型,支撑相关能力规模化落地与高效运维。不仅如此,Akamai还在微分段上积极创新,Akamai Guardicore与英伟达BlueField DPU实现了深度的整合,将“零信任”从传统的IT拓展到了运维技术OT和工业物联网的ICS硬件级别。
为了提升防御能力,Akamai提出由AI驱动的网络应用防火墙监测。马俊表示:“依托Akamai平台上超大规模的全球实时流量,AI引擎能够持续的分析、并且快速的发现异常行为,生成高置信度的检查策略,从而利用AI引擎、通过安全专家的缓解措施,可以实现自治和自适应的保护在线应用和业务系统不被AI相关的威胁所攻击,从而实现持续分析、快速检测和安全部署能力。”此外,Akamai还拥有API治理等丰富的安全能力。
AI Agent时代加速来临,传统网络威胁与新兴AI衍生风险交织,对安全团队提出全新考验。安全团队亟需提前布局,完善全域监控体系,借助AI技术实现对新型AI威胁的有效防御。马俊表示:“Akamai已做好充分准备,依托全栈AI驱动的安全防护体系,覆盖基础设施、硬件、软件及网络微分段等多层维度,以AI能力统筹企业安全治理,全方位护航企业智能化转型与AI业务创新。”
AI时代下,技术创新持续迭代演进,把握全新机遇,已成为企业创新发展的关键所在。聚焦AI底层基础设施不难发现,随着人工智能应用不断深化,行业重心正逐步从模型训练向推理环节转移,为边缘云与边缘AI的落地普及开辟了新空间。在此趋势之下,Akamai推理云依托成熟完备的产品体系,有针对性地化解行业实际痛点,同时坚持技术持续迭代、能力动态升级,精准适配不断变化的市场与业务需求,持续为企业数字化、智能化升级贡献力量。
热门跟贴