简化 AI 基础架构编排和管理公司Run:ai,完成POC以最大限度提高GPU工作负载灵活性

2022 年 3 月 25 日— Run:ai 是一家简化 AI 基础架构编排和管理的公司,已宣布完成概念验证 (POC) 的详细信息,该概念可为在云中使用 NVIDIA GPU 的公司提供多云 GPU 灵活性. NVIDIA 的软件套件包括虚拟机映像或 VMI,它们针对在 Amazon Web Services、Microsoft Azure、Google Cloud 和 Oracle Cloud 等云中运行的 NVIDIA GPU 进行了优化。部署在 NVIDIA VMI 上的 Run:ai 软件使云客户能够将 AI 工作负载从一个云迁移到另一个云,以及同时使用多个云处理不同的 AI 工作负载,而代码更改为零。

Run:ai 的工作负载感知编排可确保每种类型的 AI 工作负载在需要时获得适量的计算资源,并提供与 NVIDIA GPU 的深度集成以实现这些资源的最佳利用。Run:ai 基于 Kubernetes 的 Atlas 平台和 NVIDIA VMI 在 POC 中一起使用,以支持“lift & shift”以及云中的多节点扩展。NVIDIA 客户和合作伙伴可以通过 Run:ai 的云 AI 基础架构的简化和便携解决方案降低其 AI 云部署的风险。希望对其云计算资源进行成本优化的客户可以在受支持的云提供商中进行选择,以获得最合适的配置。他们还可以使用单个控制平面管理多个云上的 AI 工作负载。

上一篇:

下一篇:

发表文章
意见反馈
意见反馈
分享本页
返回顶部