Nvidia AI Enterprise 2.1 加强对开源的支持

在 7 月 26 日至 28 日期间与领导者一起参加变革 AI 和边缘周。聆听高层领导围绕 AL/ML 技术、对话式 AI、IVA、NLP、Edge 等话题展开讨论。立即预订您的免费通行证!

Nvidia 今天将其 AI Enterprise 软件套件更新至 2.1 版,为用户提供新的商业支持工具,以帮助为企业用例运行人工智能 (AI) 和机器学习工作负载 (ML)。

Nvidia AI Enterprise 于 2021 年 8 月首次推出,作为一组受支持的 AI 和 ML 工具,可在 Nvidia 硬件上运行良好。在新版本中,软件套件的一个核心组件是一组更新的受支持版本的流行开源工具,包括 PyTorch 和 TensorFlow。还包括用于计算机视觉和语音应用程序的新 Nvidia Tao 22.05 低代码和无代码工具包,以及用于在 GPU 上运行管道数据科学的 Nvidia 开源 Rapids 库的 22.04 更新。

“在过去的几年里,我们看到 AI 越来越多地被用来解决一系列问题,它真正推动了自动化以提高运营效率,”企业和边缘计算副总裁 Justin Boitano英伟达。 “最终,随着越来越多的组织将 AI 投入生产,许多公司将需要对传统开源软件堆栈的商业支持。”

为开源 AI 带来企业支持

开源软件的一种常见方法是建立所谓的“上游”社区,其中最前沿的开发以开放的方式进行。 Nvidia 等供应商可以而且确实会预先提供代码,然后在所谓的“下游”中提供商业支持的产品,例如 Nvidia AI Enterprise。

事件

转型 2022

立即注册,获取 7 月 26 日至 28 日 Transform AI 周的免费虚拟通行证。聆听 Visa、Lowe's eBay、Credit Karma、Kaiser、Honeywell、Google、Nissan、Toyota、John Deere 等的 AI 和数据领导者的心声。

在这里注册

“在谈到 TensorFlow 等流行的 AI 项目时,我们的目标绝对是尽可能多地参与上游,”Boitano 说。

借助 Nvidia AI Enterprise,开源组件还受益于对不同框架和多种硬件配置的集成测试,以确保软件按预期工作。

“这与早期的 Linux 非常相似,那里的公司非常乐于使用开源框架,然后社区的另一部分人真的感觉更自在。对这种直接参与感到满意, “博伊塔诺说。 .

AI 的企业支持和云原生部署选项

支持业务的另一个关键部分是促进不同 AI 工具在云中的实际部署。对于初学者来说,安装和配置 AI 工具通常是一项复杂的挑战。

在云原生模型中使用容器和 Kubernetes 是最流行的云部署方法之一。 Boitano 解释说,Nvidia AI Enterprise 可作为容器集合使用。还有一个 Helm 图表,它是 Kubernetes 部署的应用程序清单,用于帮助在云端自动安装和配置 AI 工具。

Nvidia LaunchPad Labs 提供了一种更简单的方法,它是托管在 Nvidia 基础架构上的一项服务,用于试用由...支持的工具和框架。

Nvidia AI Enterprise 2.1 加强对开源的支持

在 7 月 26 日至 28 日期间与领导者一起参加变革 AI 和边缘周。聆听高层领导围绕 AL/ML 技术、对话式 AI、IVA、NLP、Edge 等话题展开讨论。立即预订您的免费通行证!

Nvidia 今天将其 AI Enterprise 软件套件更新至 2.1 版,为用户提供新的商业支持工具,以帮助为企业用例运行人工智能 (AI) 和机器学习工作负载 (ML)。

Nvidia AI Enterprise 于 2021 年 8 月首次推出,作为一组受支持的 AI 和 ML 工具,可在 Nvidia 硬件上运行良好。在新版本中,软件套件的一个核心组件是一组更新的受支持版本的流行开源工具,包括 PyTorch 和 TensorFlow。还包括用于计算机视觉和语音应用程序的新 Nvidia Tao 22.05 低代码和无代码工具包,以及用于在 GPU 上运行管道数据科学的 Nvidia 开源 Rapids 库的 22.04 更新。

“在过去的几年里,我们看到 AI 越来越多地被用来解决一系列问题,它真正推动了自动化以提高运营效率,”企业和边缘计算副总裁 Justin Boitano英伟达。 “最终,随着越来越多的组织将 AI 投入生产,许多公司将需要对传统开源软件堆栈的商业支持。”

为开源 AI 带来企业支持

开源软件的一种常见方法是建立所谓的“上游”社区,其中最前沿的开发以开放的方式进行。 Nvidia 等供应商可以而且确实会预先提供代码,然后在所谓的“下游”中提供商业支持的产品,例如 Nvidia AI Enterprise。

事件

转型 2022

立即注册,获取 7 月 26 日至 28 日 Transform AI 周的免费虚拟通行证。聆听 Visa、Lowe's eBay、Credit Karma、Kaiser、Honeywell、Google、Nissan、Toyota、John Deere 等的 AI 和数据领导者的心声。

在这里注册

“在谈到 TensorFlow 等流行的 AI 项目时,我们的目标绝对是尽可能多地参与上游,”Boitano 说。

借助 Nvidia AI Enterprise,开源组件还受益于对不同框架和多种硬件配置的集成测试,以确保软件按预期工作。

“这与早期的 Linux 非常相似,那里的公司非常乐于使用开源框架,然后社区的另一部分人真的感觉更自在。对这种直接参与感到满意, “博伊塔诺说。 .

AI 的企业支持和云原生部署选项

支持业务的另一个关键部分是促进不同 AI 工具在云中的实际部署。对于初学者来说,安装和配置 AI 工具通常是一项复杂的挑战。

在云原生模型中使用容器和 Kubernetes 是最流行的云部署方法之一。 Boitano 解释说,Nvidia AI Enterprise 可作为容器集合使用。还有一个 Helm 图表,它是 Kubernetes 部署的应用程序清单,用于帮助在云端自动安装和配置 AI 工具。

Nvidia LaunchPad Labs 提供了一种更简单的方法,它是托管在 Nvidia 基础架构上的一项服务,用于试用由...支持的工具和框架。

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow