Akamai 推出 AI Grid 智能编排,实现覆盖 4,400 个边缘站点的分布式推理
2026-03-18 来源:EEWORLD
Akamai Inference Cloud 是业界首个实现全球规模化部署的 NVIDIA AI Grid 平台,能够智能地将AI工作负载调度至其边缘、区域和核心节点,以平衡延迟、成本与性能
2026年 3月18日 -- 负责支持和保护网络生活的云服务提供商阿卡迈技术公司(Akamai Technologies, Inc.,以下简称:Akamai)近日宣布在人工智能演进过程中达成的一个重要里程碑:发布首个全球规模的 NVIDIA® AI Grid 参考设计实施方案 。通过将 NVIDIA AI 基础设施集成到 Akamai 的架构中,并利用网络层面的智能工作负载编排,Akamai 旨在推动行业从孤立的 AI 工厂迈向统一、分布式的 AI 推理网格 。
此举标志着去年底推出的 Akamai Inference Cloud 在演进中迈出重要一步 。作为首家实现AI网格运营化的公司,Akamai 正部署数千个基于 NVIDIA RTX PRO 6000 Blackwell 服务器版 GPU的平台,为企业提供能够运行智能体和物理AI的解决方案,同时兼具本地计算的响应速度和全球网络的规模优势。
“AI 工厂是为训练和前沿模型工作负载而构建的,中心化基础设施将继续为这些场景提供最佳的‘Token经济’ (tokenomics),”Akamai 云技术事业部首席运营官兼总经理 Adam Karon 表示 。“但实时视频、物理 AI 和高并发个性化体验要求推理需要在接触点进行,而不是往返中心化集群。我们的 AI Grid 智能编排为 AI 工厂提供了一种向外扩展推理的方式——利用革新了内容分发的分布式架构,在 4,400 个站点以合适的成本和时间路由 AI 工作负载” 。
“Token经济”的架构
AI Grid 的核心是一个智能编排器,充当 AI 请求的实时代理 。通过将 Akamai 在应用性能优化方面的专业知识应用于 AI,这个具备工作负载感知能力的控制平面可以通过显著改善每个Token的成本、首个Token时间和吞吐量来优化“Token经济” 。
Akamai 的主要优势在于,客户可以通过其庞大的全球边缘节点网络,访问经过微调或稀疏化的模型,这为长尾 AI 工作负载提供了巨大的成本和性能优势 。例如:
规模化成本效率:企业可以通过自动将工作负载与合适的计算层匹配,大幅降低推理成本 。编排器应用语义缓存和智能路由技术,将请求导向规模合适的资源,为高端任务保留优质 GPU 周期 。Akamai Cloud 基于开源架构,提供慷慨的出站流量额度,以支持大规模数据密集型 AI 操作。
实时响应能力:游戏工作室可以提供毫秒级延迟的 AI 驱动型 NPC 交互,维持玩家沉浸感 。金融机构可以在登录到首屏之间的瞬间,执行个性化欺诈检测和营销推荐 。广播公司可以为全球观众实时转码和配音 。这些成果得益于 Akamai 覆盖 4,400 多个站点的分布式边缘网络,通过集成缓存、无服务器边缘计算和高性能连接,在用户接触点处理请求,绕过了中心云的往返延迟 。
核心节点的生产级 AI:大型语言模型、持续后训练和多模态推理工作负载需要专用基础设施提供的持续高密度计算 。Akamai 拥有数千个基于 NVIDIA RTX PRO 6000 Blackwell 服务器版 GPU 的集群,为最重的工作负载提供集中算力,与分布式边缘形成补充 。
计算连续体:从核心到远端边缘
基于 NVIDIA AI Enterprise、Blackwell 架构和 NVIDIA BlueField DPU,Akamai 能够管理跨边缘和核心位置的复杂服务等级协议 :
边缘 (4,400+ 个站点):为物理 AI 和自主智能体提供极速响应 。它利用语义缓存和 WebAssembly 等服务器端功能(Akamai Functions 和 EdgeWorkers)提供模型亲和性和稳定的性能 。
Akamai Cloud IaaS 与专用 GPU 集群:核心公有云基础设施支持大规模负载的迁移与成本节约,而 Blackwell GPU 阵列则助力繁重的后训练和多模态推理 。
NVIDIA 电信业务发展全球副总裁 Chris Penrose 表示:“新型 AI 原生应用要求在全球范围内实现可预测的延迟和更高的成本效率 。通过将 NVIDIA AI Grid 投入运营,Akamai 正在构建生成式、代理式和物理 AI 的连接纽带,将智能直接带到数据所在地,开启下一波实时应用潮” 。
赋能下一波实时 AI
Akamai Inference Cloud 已在计算密集型和延迟敏感型行业获得强劲的早期应用 :
游戏:工作室正部署亚 50 毫秒级推理,用于 AI 驱动型 NPC 和实时玩家交互 。
金融服务:银行依靠该网格在客户登录的关键时刻进行超个性化营销和快速推荐。
媒体与视频:广播公司利用分布式网络进行 AI 驱动的转码和实时配音 。
零售与商业:零售商在门店 AI 应用和销售点生产力工具中采用该网络 。
在企业需求驱动下,该平台已获得主要技术提供商的认可,包括一份为期四年、价值 2 亿美元的服务协议,用于专为在城市边缘企业 AI 基础设施的数据中心内部署数千个 GPU 集群 。
将 AI 工厂从集中式扩展到分布式
第一波 AI 基础设施由少数几个中心化地点的海量 GPU 集群定义,旨在优化训练 。但随着推理成为主导负载,且企业专注于构建 AI 代理,中心化模型面临着与早期互联网基础设施在媒体交付、在线游戏和金融交易中遇到的相同的扩展约束 。
Akamai 正通过相同的基本方法解决这些挑战:分布式网络、智能编排和专用系统,使内容和上下文尽可能靠近数字触点。其结果是改善了用户体验并增强了投资回报率。Akamai Inference Cloud 将这一成熟架构应用于 AI 工厂,通过将高密度计算从核心分发到边缘,开启下一波增长。
对于企业而言,这意味着能够部署具备上下文感知能力且响应灵活的 AI 代理。对于行业而言,这代表了一个蓝图,展示了 AI 工厂如何从孤立设施演变为全球分布式的公共设施。
可用性
Akamai Inference Cloud 现已面向符合条件的企业客户开放。
- Akamai 研究发现,亚太地区 AI 加速发展,API 安全鸿沟日益凸显
- Akamai 依托由 NVIDIA 提供技术支持的无代理 Zero Trust 分段来保护关键基础架构
- Akamai 携手 Visa,为智能体商务新时代保驾护航
- Akamai宣布收购功能即服务公司 Fermyon
- Akamai发布亚太区2026年云与安全展望:AI正重塑风险格局与云转型
- Akamai 最新SOTI报告:AI 爬虫程序对网络商业模式的根基构成了威胁
- Akamai最新报告:微分段技术可让企业实现更快的事件响应速度及更低的保险费
- API安全:守护智能边缘的未来
- Akamai联合Tollbit 与 Skyfire,驱动AI爬虫高效变现
- 赋能AI与新能源时代的高动态MW级负载平台
- 中兴发布全球首款 Al + Wi-Fi 8 室内 CPE 及全球首款毫米波室外 5G-A CPE
- MediaTek 于 MWC 2026 展示 AI 与通信优势
- 国内首款国产InfiniBand,有什么技术关键点值得关注?
- 恩智浦MCX W72已量产,助力开发安全精准的测距应用
- 全球首个无线网络智能体落地 40万个5G基站焕新
- Gartner预测,到 2030 年,中国 80%的本地 AI 基础设施将采用本土研发的AI芯片
- Gartner发布2026年数据和分析重要预测
- MWC巴塞罗那2026:从基础到新服务,打造AI原生的6G原型
- 首款国产InfiniBand面世,实测数据告诉你性能究竟有多强悍
- 深耕智能5G,从容迈向6G:英特尔以可灵活部署 AI的网络架构,擘画产业未来
- 第三代酷睿Ultra助力商用PC大焕新,英特尔发布全新商用产品组合
- Molex 莫仕推出 145 GHz Cardinal 多端口高频同轴组件, 为 AI 和 6G 测试树立新标杆
- 拿下L3平台定点,纯固态激光雷达即将大规模交付
- 业界独家!英特尔推出革新性IBOT技术,进一步释放x86处理器性能
- 是德科技推出220GHz光波器件分析仪,支持验证新一代光收发器
- Gartner发布三大AI价值实现路径
- Intel 18A新机上市,英特尔转型跃上新台阶
- 兼顾隐私、响应与成本,基于酷睿Ultra的混合AI部署成为智能体新标配
- 别只盯着OpenClaw的Agent!它丝滑的背后,是一场硬件设计的极限挑战




