Nvidia 企业计算副总裁 Manuvir Das 在 GTC 前会议上告诉记者:“多年来,我们一直在与企业公司合作,创建他们自己的模型来训练他们自己的数据。” “过去几个月,像 ChatGPT 这样基于非常非常大的 GPT 模型的服务越来越受欢迎,每天有数百万人使用一个模型。当我们与企业公司合作时,他们中的许多人有兴趣使用自己的数据为自己的目的创建模型。”

据最新介绍,租用 GPU 公司包罗万象的云端 AI 超级计算机的DGX Cloud起价为每个实例每月 36,999 美元。租金包括使用带有八个 Nvidia H100 或 A100 GPU 和 640GB GPU 内存的云计算机。价格包括用于开发 AI 应用程序和大型语言模型(如 BioNeMo)的 AI Enterprise 软件。

“DGX Cloud 有自己的定价模型,因此客户向 Nvidia 付费,他们可以根据他们选择使用它的位置通过任何云市场购买它,但这是一项由 Nvidia 定价的服务,包括所有费用,” Nvidia 企业计算副总裁 Manuvir Das 在新闻发布会上说。

DGX Cloud 的起始价格接近 Microsoft Azure 每月收取的 20,000 美元的两倍,用于满载的 A100 实例,该实例具有 96 个 CPU 内核、900GB 存储空间和 8 个 A100 GPU 每月。

甲骨文在其 RDMA 超级集群中托管 DGX 云基础设施,可扩展到 32,000 个 GPU。微软将在下个季度推出 DGX Cloud,随后将推出 Google Cloud。

客户将不得不为最新的硬件支付额外费用,但软件库和工具的集成可能会吸引企业和数据科学家。

Nvidia 声称它为 AI 提供了最好的可用硬件。它的 GPU 是高性能和科学计算的基石。但是 Nvidia 专有的硬件和软件就像使用 Apple iPhone 一样——你得到了最好的硬件,但一旦你被锁定,就很难脱身,而且在它的生命周期中会花费很多钱。

但为 Nvidia 的 GPU 支付溢价可能会带来长期利益。例如,Microsoft 正在投资 Nvidia 硬件和软件,因为它通过 Bing with AI 提供了成本节约和更大的收入机会。

人工智能工厂的概念是由首席执行官黄仁勋提出的,他将数据设想为原材料,工厂将其转化为可用数据或复杂的人工智能模型。Nvidia的硬件和软件是AI工厂的主要组成部分。

“你只需提供你的工作,指向你的数据集,然后点击开始,所有的编排和下面的一切都在 DGX Cloud 中得到处理。现在,相同的模型可以在托管在各种公共云上的基础设施上使用,”Nvidia 企业计算副总裁 Manuvir Das 在新闻发布会上说。

Das 说,数百万人正在使用 ChatGPT 风格的模型,这需要高端人工智能硬件。

DGX Cloud 进一步推动了 Nvidia 将其硬件和软件作为一套产品销售的目标。Nvidia 正在进军软件订阅业务,该业务的长尾涉及销售更多硬件,从而产生更多软件收入。Base Command Platform 软件界面将允许公司管理和监控 DGX 云培训工作负载。