雷递网 雷建平 3月22日
ChatGPT仅是一个起点。
英伟达(NVIDIA)创始人兼首席执行官黄仁勋说,计算正在以“光速”发展。黄仁勋于今日宣布与谷歌、微软、Oracle等一众领军企业开展广泛的合作,为各行各业带来新的AI、模拟和协作能力。
黄仁勋在NVIDIA GTC大会主题演讲中表示:“如果把加速计算比作曲速引擎,那么AI就是动力来源。生成式AI的非凡能力,使得公司产生了紧迫感,他们需要重新构思产品和商业模式。”
作为这场为期四天活动的主题演讲,黄仁勋在长达78分钟的演讲中概述NVIDIA及其合作伙伴如何提供训练和部署AI服务所需的各种技术。
黄仁勋宣布NVIDIA和微软将把数亿Microsoft 365和Azure用户连接到一个用于构建和操作超现实虚拟世界的平台。他还谈到ChatGPT等最近大火的新一代生成式AI服务的兴起。
黄仁勋表示,加速计算和AI的出现恰逢其时。摩尔定律正在放缓,各个行业正在应对可持续发展,生成式AI以及数字化等强大的动态挑战。“各个行业的企业正在竞相进行数字化转型,希望成为软件驱动的技术公司,成为行业颠覆者而不是被颠覆者。”
加速计算可助力企业应对这些挑战。黄仁勋表示:“加速是重获优势、实现可持续发展,以及达到净零排放的最佳途径。”
AI的iPhone时刻
NVIDIA技术是AI的基础,黄仁勋讲述了NVIDIA如何在生成式AI变革初期就已参与进来。早在2016年,他就向OpenAI亲手交付了第一台NVIDIA DGX AI超级计算机——支持 ChatGPT 的大型语言模型突破背后的引擎。
2022年年底推出的ChatGPT几乎在一夜之间爆火,吸引了超过1亿用户,成为有史以来增长最快的应用。黄仁勋认为 “我们正处于AI的 iPhone时刻 ”。
黄仁勋表示,最初作为AI研究仪器使用的NVIDIA DGX超级计算机现已在世界各地的企业中全天候运行,用于完善数据和处理AI。《财富》100强企业中有一半都安装了DGX AI超级计算机。
黄仁勋表示,类似ChatGPT大型语言模型(LLM)的部署是一个重要的全新推理工作负载。为了支持像ChatGPT这样的大型语言模型推理,英伟达发布了一款新的GPU——带有双GPU NVLink的H100 NVL。
基于NVIDIA Hopper架构的H100配有一个Transformer引擎,旨在处理驱动ChatGPT的类似GPT模型。与用于GPT-3处理的HGX A100相比,配备四对H100与双GPU NVLink的标准服务器的速度最高可达10倍。
黄仁勋表示:“H100可以将大型语言模型的处理成本降低一个数量级。”
生成式AI唯一限制是人类想象力
据介绍,英伟达(NVIDIA)日前推出四款推理平台。这些平台针对各种快速兴起的生成式AI应用进行优化,能够帮助开发人员快速构建用于提供新服务和洞察的AI驱动的专业应用。
这些平台将NVIDIA全栈推理软件与最新的NVIDIA Ada、Hopper和Grace Hopper处理器相结合,包括今天推出的NVIDI AL4 Tensor Core GPU和NVIDIA H100 NVL GPU。各平台针对AI视频、图像生成、大型语言模型部署、推荐系统推理等需求激增的工作负载进行优化。
黄仁勋表示:“生成式AI的兴起需要更加强大的推理计算平台。生成式AI应用的数量是无限的,它唯一的限制就是人类的想象力。为开发人员提供最强大、灵活的推理计算平台将加快新服务的创造速度,这些新服务将以前所未有的方式改善我们的生活。”
每个平台都包含一个为特定生成式AI推理工作负载而优化的NVIDIAGPU和专用的软件:
适用于AI视频的NVIDIAL4可提供比CPU高出120倍的AI视频性能,同时能效提高了99%。这款适用于几乎所有工作负载的通用GPU提供更加强大的视频解码和转码能力、视频流式传输、增强现实、生成式AI视频等。
适用于图像生成的NVIDIAL40针对图形以及AI支持的2D、视频和3D图像生成进行了优化。L40平台是NVIDIAOmniverse™(一个用于在数据中心构建和运行元宇宙应用的平台)的引擎,与上一代产品相比,其StableDiffusion推理性能提高了7倍,Omniverse性能提高了12倍。
适用于大型语言模型部署的NVIDIAH100NVL是规模化部署像ChatGPT这样的大型语言模型(LLMs)的理想平台。这款新的H100NVL拥有94GB内存和Transformer引擎加速,在数据中心规模,与上一代A100相比,GPT-3上的推理性能提高了多达12倍。
适用于推荐模型的NVIDIAGraceHopper是图形推荐模型、矢量数据库和图神经网络的理想平台。通过NVLink-C2C以900GB/s的速度连接CPU和GPU,GraceHopper的数据传输和查询速度比PCIe5.0快了7倍。
这些平台的软件层采用NVIDIAAIEnterprise软件套件,包括用于高性能深度学习推理的软件开发套件NVIDIATensorRT™,以及帮助实现模型部署标准化的开源推理服务软件NVIDIATritonInferenceServer™。
谷歌云是NVIDIA推理平台的重要云合作伙伴和早期客户。谷歌云正在将L4平台整合到其机器学习平台VertexAI中,并且是第一家提供L4实例的云服务提供商,其G2虚拟机的私人预览版已于今天推出。
NVIDIA和谷歌今天分别宣布了首批在谷歌云上使用L4的两家机构——Descript和WOMBO,前者使用生成式AI帮助创作者制作视频和播客,后者提供”Dream”这一AI驱动的文本–数字艺术转换应用程序。
在过去十年中,云计算每年增长20%并已发展成为一个万亿美元的产业。NVIDIA为这个AI和云优先的世界设计了Grace CPU,其中AI工作负载由GPU加速。Grace正在进行样品调测。
通过900GB/s高速芯片对芯片的接口,NVIDIA Grace Hopper超级芯片可连接Grace CPU和Hopper GPU。黄仁勋解释说,“ Grace Hopper是处理超大型数据集的理想选择,比如用于推荐系统的AI数据库和大型语言模型。”
“客户希望构建规模大几个数量级AI数据库,Grace Hopper是最理想引擎。”
赋能生成式AI
为加速企业使用生成式AI的工作,黄仁勋发布了NVIDIA AI Foundations云服务系列,为需要构建、完善和运行自定义大型语言模型及生成式AI的客户提供服务,他们通常使用专有数据进行训练并完成特定领域的任务。
AI Foundations服务包括NVIDIA NeMo,用于构建自定义语言文本-文本转换生成模型;Picasso视觉语言模型制作服务,适用于想要构建使用授权或专有内容训练而成的自定义模型的客户;以及BioNeMo,助力2万亿美元规模的药物研发行业的研究人员。
Adobe正与NVIDIA一起构建一整套用于未来创作工作的新一代AI。
Getty Images正在与NVIDIA一起训练负责任的生成式文本-图像,以及文本-视频转换基础模型。Shutterstock正在与NVIDIA一起训练一个生成式文本-3D转换基础模型,以简化详细3D资产的创建。
DGX是构建AI基础设施的蓝图
最新版本的DGX搭载8个NVIDIA H100 GPU,它们连接成为一个巨大的GPU。黄仁勋表示:“NVIDIA DGX H100是全球客户构建AI基础设施的蓝图”,现已全面投入生产。
H100 AI超级计算机现已开始上线。Oracle Cloud Infrastructure宣布配备 H100 GPU 的新 OCI Compute 裸机 GPU 实例在一定条件可用。
此外,亚马逊云科技发布了将推出的P5实例 EC2 UltraClusters,其规模可扩展到2万个互连的H100 GPU。
上周,微软 Azure 发布了其 H100 虚拟机 ND H100 v5 的私人预览版。Meta 现已为其内部的 AI 生产和研究团队部署了由 H100 驱动的 Grand Teton AI 超级计算机。
OpenAI将在其 Azure 超级计算机上使用 H100来支持其持续进行的AI研究。
DGX Cloud:随时随地将AI带给每家公司
为了加快把DGX能力带给初创企业和其他各类企业,以助力其快速打造新产品和制定AI战略,黄仁勋发布了NVIDIA DGX Cloud。
通过与微软Azure、Google Cloud和Oracle Cloud Infrastructure合作,“从浏览器上” 即可实现将NVIDIA DGX AI超级计算机 “带给每家公司”。
DGX Cloud经过优化可以运行NVIDIA AI Enterprise,这款全球领先的加速软件套件将推动AI端到端开发和部署。黄仁勋表示:“DGX Cloud为客户提供 NVIDIA AI和世界领先云服务提供商的出色服务。”
NVIDIA正与领先的云服务提供商一起托管DGX Cloud基础设施,Oracle Cloud Infrastructure是最早合作的云服务提供商。微软Azure预计将在下个季度开始托管DGX Cloud,该服务将很快扩展到Google Cloud等。
黄仁勋表示,此次合作将NVIDIA的生态系统带给云服务提供商,同时扩大了NVIDIA的规模和影响力。企业将能够按月租用DGX Cloud集群以便快速、轻松地扩展大型多节点训练工作负载的开发。
微软与NVIDIA一起将Omniverse带给数亿用户
黄仁勋宣布,NVIDIA 正在与微软合作,将 NVIDIA Omniverse Cloud 这一完全托管的云服务引入全球各行各业,并推出又一项云服务以加速企业实现前所未有的模拟和协作能力。
黄仁勋表示:“微软和NVIDIA将为数亿Microsoft 365和Azure用户提供Omniverse” 。他同时还发布了最新NVIDIA OVX服务器、搭载NVIDIA RTX Ada Generation GPU的新一代工作站,以及英特尔为NVIDIA Omniverse优化的最新CPU。
为了展示为3D设计协作及数字孪生模拟而构建的开放平台NVIDIA Omniverse的强大功能,黄仁勋分享了一段视频,展示了NVIDIA Isaac Sim如何通过完全保真的数字孪生帮助亚马逊节省时间和金钱。NVIDIA Isaac Sim是在Omniverse基础上构建的机器人模拟和合成生成平台。
该视频展示亚马逊如何为其第一个完全自主的仓库机器人Proteus编排动作,使其能在亚马逊的巨大仓库中与人类和其他机器人一起搬运装有产品的箱子。
助力3万亿美元规模汽车产业的数字化
为了展示Omniverse的能力,黄仁勋深入介绍了Omniverse在3万亿美元汽车产业数字化中的作用。
黄仁勋表示,到2030年,汽车制造商将建立300家工厂,生产2亿辆电动汽车,而电池制造商正在建设100家巨型工厂。他表示:“数字化将提高该行业的效率、生产力和速度。”
谈到Omniverse在整个行业的应用,黄仁勋表示,Lotus正在使用Omniverse以虚拟方式组装焊接站。梅赛德斯-奔驰使用Omniverse为新车型建立、优化和规划装配线。Rimac和Lucid Motors在Omniverse上使用真实设计数据创建数字商店,以实现对汽车逼真的描绘。
宝马与Idealworks合作,使用Omniverse中的Isaac Sim生成训练工厂机器人的合成数据和场景。
黄仁勋表示,宝马正在使用Omniverse规划全球工厂的运营,在实际工厂开业两年之前,他们会在 Omniverse 中完整建造一间新的电动汽车工厂。
NVIDIA 还宣布全球领先的新能源汽车制造商比亚迪将在其更广泛的车型中扩展对 NVIDIA DRIVE Orin 集中式计算平台的使用。
———————————————
雷递由媒体人雷建平创办,若转载请写明来源。