CoreWeave借助本周举办的Google Cloud Next 26大会发布了一系列旨在简化AI工作负载跨多云环境运行的新功能更新内容涵盖网络连接、训练编排以及数据访问等多个层面。本次发布的多项功能针对的是企业将AI工作负载越来越多地分布在谷歌云、AWS和微软Azure等不同云服务提供商之间时所产生的运营摩擦问题。CoreWeave互联服务直连谷歌云大幅缩短部署周期此次更新的核心是CoreWeave Interconnect——一项将CoreWeave基础设施与谷歌云直接连接的私有网络服务。CoreWeave表示该服务通过绕开第三方网络供应商的复杂流程可将部署周期从数月缩短至数天。这一互联服务提供专属带宽、低延迟连接并内置MACsec加密功能。IDC云与边缘服务副总裁Dave McCarthy对此评价道CoreWeave与谷歌云的合作针对跨云AI面临的三大核心瓶颈——网络瓶颈、编排孤岛以及数据引力成本——提供了切实的解决方案。通过推出基于光纤的直连服务双方消除了对第三方网络供应商的依赖后者历来会带来数月的部署延迟并推高整体拥有成本。SUNK Anywhere跨云训练的统一控制平面CoreWeave还对其Slurm-on-Kubernetes系统进行了扩展推出SUNK Anywhere将该平台的能力延伸至多云及本地部署环境。此次更新使企业能够在CoreWeave、谷歌云、AWS和Azure之间运行一致的训练工作流并通过统一控制平面实现分布式任务的调度与弹性扩缩容。McCarthy表示真正让这项技术对企业有意义的在于控制平面的抽象化。SUNK Anywhere让企业能够保持一致的运营模型将Slurm面向研究人员的编排能力与Kubernetes面向DevOps的弹性扩展能力有机结合。无需数据迁移即可实现近本地速度的数据访问在数据层面CoreWeave推出了LOTA Cross-Cloud——其数据缓存技术的扩展版本旨在无需数据搬移的前提下提升访问速度。据CoreWeave介绍该系统允许数据保留在原始位置同时为其他环境中的计算资源提供近本地吞吐速度——每GPU可达约7 GB/秒。McCarthy表示结合LOTA Cross-Cloud缓存能力与零出口迁移0EM计划CoreWeave实际上已在有效消除多云部署的经济壁垒。深化与Weights Biases的集成并扩展遥测能力CoreWeave还宣布与Weights Biases深化集成以提升开发者在多云环境下操作的可视性与工作流一致性。新增功能包括与谷歌Gemini CLI的集成、通过WB Inference访问Gemma模型以及涵盖TPU利用率指标在内的扩展性能遥测能力。合作布局彰显多云互操作性战略意图除上述新产品与功能外此次合作对谷歌云在多云AI领域的市场定位也具有深远意义。McCarthy表示此次合作同样体现了谷歌云对CoreWeave执行能力的信心同时也表明谷歌云正在认真推进多云互操作性战略。QAQ1CoreWeave Interconnect是什么它解决了哪些问题ACoreWeave Interconnect是一项将CoreWeave基础设施与谷歌云直接连接的私有网络服务。它通过绕开第三方网络供应商将跨云AI部署周期从数月缩短至数天同时提供专属带宽、低延迟连接和内置MACsec加密有效解决了跨云AI面临的网络瓶颈、编排孤岛和数据引力成本三大痛点。Q2SUNK Anywhere支持哪些云平台具体能做什么ASUNK Anywhere是CoreWeave对其Slurm-on-Kubernetes系统的扩展目前支持CoreWeave、谷歌云、AWS和Azure四大平台同时兼容本地部署环境。它为企业提供统一控制平面用于跨云环境的分布式训练任务调度与弹性扩缩容将Slurm的编排能力与Kubernetes的扩展能力结合帮助企业维持一致的运营模型。Q3LOTA Cross-Cloud如何实现不迁移数据就能快速访问ALOTA Cross-Cloud是CoreWeave的数据缓存技术扩展版本其核心原理是让数据保留在原始存储位置通过缓存机制向其他云环境中的计算资源提供近本地速度的数据访问每GPU可实现约7 GB/秒的吞吐速度。结合零出口迁移0EM计划该技术可有效降低多云部署中的数据流转成本。