NVIDIA H200 创下 MLPerf LLM 最新推理记录-程序员宅基地

技术标签: NVIDIA  人工智能  AIGC  LLM  GPU  

NVIDIA H200 Tensor Core GPU 和 NVIDIA TensorRT-LLM 创下 MLPerf LLM 最新推理记录

生成式人工智能正在解锁新的计算应用程序,通过持续的模型创新来极大地增强人类的能力。 生成式 AI 模型(包括大型语言模型 (LLM))用于制作营销文案、编写计算机代码、渲染详细图像、创作音乐、生成视频等。 最新模型所需的计算量是巨大的,并且随着新模型的发明而不断增长。

生成式人工智能推理的计算强度要求芯片、系统和软件都具有卓越的性能。 MLPerf Inference 是一个基准套件,可衡量多个流行深度学习用例的推理性能。 基准套件的最新版本——MLPerf Inference v4.0——添加了两个新的工作负载,代表流行的现代生成人工智能用例。 第一个是基于 Meta Llama 2 系列大型语言模型 (LLM) 中最大的 Llama 2 70B 的 LLM 基准。 第二个是基于 Stable Diffusion XL 的文本到图像测试。

NVIDIA 加速计算平台在使用 NVIDIA H200 Tensor Core GPU 的两个新工作负载上均创下了性能记录。 而且,使用 NVIDIA TensorRT-LLM 软件,NVIDIA H100 Tensor Core GPU 在 GPT-J LLM 测试中的性能几乎提高了两倍。 NVIDIA Hopper 架构 GPU 继续为数据中心类别中的所有 MLPerf 推理工作负载提供每个加速器的最高性能。 此外,NVIDIA还在MLPerf Inference开放部门提交了多份参赛作品,展示了其模型和算法创新。

在这篇文章中,我们将介绍这些创纪录的生成式人工智能推理性能成就背后的一些全栈技术。

TensorRT-LLM 使 LLM 推理性能提高了近三倍

基于 LLM 的服务(例如聊天机器人)必须能够快速响应用户查询并且具有成本效益,这需要高推理吞吐量。 生产推理解决方案必须能够同时以低延迟和高吞吐量为尖端的LLM提供服务。

TensorRT-LLM 是一个高性能开源软件库,在 NVIDIA GPU 上运行最新的 LLM 时可提供最先进的性能。

MLPerf Inference v4.0 包括两项 LLM 测试。 第一个是上一轮 MLPerf 中引入的 GPT-J,第二个是新添加的 Llama 2 70B 基准测试。 使用 TensorRT-LLM 的 H100 Tensor Core GPU 在离线和服务器场景中分别在 GPT-J 上实现了 2.4 倍和 2.9 倍的加速。 与上一轮提交的作品相比。 TensorRT-LLM 也是 NVIDIA 平台在 Llama 2 70B 测试中表现出色的核心。

以下是 TensorRT-LLM 实现这些出色性能结果的一些关键功能:

  • Inflight sequence batching通过更好地交错推理请求并在完成处理后立即逐出批处理中的请求并在其位置插入新请求,增加了 LLM 推理期间的 GPU 使用率。
  • Paged KV cache 通过将 KV 缓存分区和存储到不连续的内存块、按需分配和逐出块以及在注意力计算期间动态访问块来改善内存消耗和使用。
  • 张量并行性支持使用 NCCL 进行通信,在 GPU 和节点之间分配权重,从而实现大规模高效推理。
  • 量化支持 FP8 量化,该量化使用 NVIDIA Hopper 架构中的第四代 Tensor Core 来减小模型大小并提高性能。
  • XQA 内核高性能注意力实现,支持 MHA、MQA 和 GQA,以及波束搜索,在给定的延迟预算内显着提高吞吐量。

有关 TensorRT-LLM 功能的更多详细信息,请参阅这篇文章,深入探讨 TensorRT-LLM 如何增强 LLM 推理。

H200 Tensor Core GPU 增强了 LLM 推理能力

H200基于Hopper架构,是全球首款使用业界最先进HBM3e显存的GPU。 H200 采用 141 GB HBM3e 和 4.8 TB/s 内存带宽,与 H100 相比,GPU 内存增加近 1.8 倍,GPU 内存带宽增加近 1.4 倍。

与本轮提交的 H100 相比,更大、更快的内存和新的定制散热解决方案的结合使 H200 GPU 在 Llama 2 70B 基准测试中展示了巨大的性能改进。

HBM3e 实现更高性能

与 H100 相比,H200 升级的 GPU 内存有助于在 Llama 2 70B 工作负载上通过两个重要方式释放更多性能。

它无需张量并行或管道并行执行,即可在 MLPerf Llama 2 70B 基准测试中获得最佳性能。 这减少了通信开销并提高了推理吞吐量。

其次,与 H100 相比,H200 GPU 具有更大的内存带宽,缓解了工作负载中受内存带宽限制的部分的瓶颈,并提高了 Tensor Core 的使用率。 这产生了更大的推理吞吐量。

定制冷却设计进一步提高性能

TensorRT-LLM 的广泛优化加上 H200 的升级内存,意味着 H200 上的 Llama 2 70B 执行受计算性能限制,而不是受内存带宽或通信瓶颈的限制。

由于 NVDIAIA HGX H200 与 NVIDIA HGX H100 直接兼容,因此系统制造商能够对系统进行资格认证,从而加快上市速度。 而且,正如本轮 NVIDIA MLPerf 提交文件所证明的那样,H200 在与 H100 相同的 700 W 热设计功率 (TDP) 下,可将 Llama 2 70B 推理性能提高高达 28%。

借助 NVIDIA MGX,系统构建商可以通过可实现更高 GPU 热量的定制冷却设计为客户提供更多价值。 在这一轮中,NVIDIA 还使用 H200 进行了定制散热设计,使 GPU 能够以更高的 1,000 W TDP 运行。 运行 Llama 2 70B 基准测试时,这使得服务器和离线场景的性能分别提高了 11% 和 14%,与 H100 相比,总速度分别提高了 43% 和 45%。

设定 Stable Diffusion XL 性能的标准

Stable Diffusion XL 是一种文本到图像生成 AI 模型,由以下部分组成:

  • 用于将提示文本转换为嵌入的两个 CLIP 模型。
  • 由残差块 (ResBlocks) 和转换器组成的 UNet 模型,可迭代地对较低分辨率潜在空间中的图像进行去噪。
  • 变分自动编码器 (VAE),将潜在空间图像解码为 1024×1024 分辨率的 RGB 图像输出。

在 MLPerf Inference v4.0 中,Stable Diffusion XL 用于文本到图像测试,根据提供的文本提示生成图像。

配备 TensorRT 软件的 NVIDIA GPU 在 MLPerf Inference v4.0 文本到图像测试中提供了最高性能。 GPU 配置为 700W TDP 的 8-GPU NVIDIA HGX H200 系统在服务器和离线场景中分别实现了 13.8 个查询/秒和 13.7 个样本/秒的性能。

L40S 是性能最高的通用 NVIDIA GPU,专为在 AI 计算、图形和媒体加速方面实现突破性的多工作负载性能而设计。 使用配备 8 个 L40S GPU 的系统提交的 Stable Diffusion XL 在服务器和离线场景中也分别展示了 4.9 个查询/秒和 5 个样本/秒的性能。

NVIDIA 提交的核心内容是一个创新方案,该方案将 UNet 中的 ResBlock 和转换器部分量化为 INT8 精度。 在 ResBlocks 中,卷积层被量化为 INT8,而在 Transformer 中,查询键值块和前馈网络线性层被量化为 INT8。 INT8 绝对最大值仅从前 8 个去噪步骤(总共 20 个)中收集。 SmoothQuant 应用于量化线性层的激活,克服了将激活量化为 INT8 的挑战,同时保持了原始精度。

与 FP16 基准(不属于 NVIDIA MLPerf 提交的一部分)相比,这项工作在 H100 GPU 上将性能提高了 20%。

此外,TensorRT 中对扩散模型的 FP8 量化的支持即将推出,这将提高性能和图像质量。

开放式创新

除了在 MLPerf Inference 封闭组中提交世界一流的性能外,NVIDIA还在开放组中提交了多项成绩。 MLCommons 表示,开放式“旨在促进创新,并允许使用不同的模型或进行再培训。”

在这一轮中,NVIDIA提交了利用TensorRT中的各种模型优化功能(例如稀疏化、剪枝和缓存)的开放划分结果。 这些用于 Llama 2 70B、GPT-J 和 Stable Diffusion XL 工作负载,在保持高精度的同时展示了出色的性能。 以下小节概述了支持这些提交的创新。

具有结构化稀疏性的 Llama 2 70B

NVIDIA 开放部门提交的 H100 GPU 展示了使用 Hopper Tensor Core 的结构化稀疏功能对稀疏 Llama 2 70B 模型进行的推理。 对模型的所有注意力和 MLP 块进行结构化稀疏,并且该过程是在训练后完成的,不需要对模型进行任何微调。

这种稀疏模型有两个主要好处。 首先,模型本身缩小了 37%。 尺寸的减小使得模型和 KVCache 能够完全适应 H100 的 GPU 内存,从而无需张量并行性。

接下来,使用 2:4 稀疏 GEMM 内核提高了计算吞吐量并更有效地利用了内存带宽。 与 NVIDIA 闭分区提交相比,在同一 H100 系统上,离线场景下的总体吞吐量高出 33%。 通过这些加速,稀疏模型仍然满足 MLPerf 封闭部门设定的严格的 99.9% 准确度目标。 稀疏模型为每个样本生成的标记比封闭划分中使用的模型更少,从而导致对查询的响应更短。

带修剪和蒸馏的 GPT-J

在开放分区 GPT-J 提交中,使用了修剪后的 GPT-J 模型。 该技术大大减少了模型中的头数和层数,与在 H100 GPU 上运行模型时的封闭除法提交相比,推理吞吐量提高了近 40%。 自从 NVIDIA 在本轮 MLPerf 中提交结果以来,性能进一步提高。

然后使用知识蒸馏对修剪后的模型进行微调,实现了 98.5% 的出色准确率。

具有 DeepCache 的Stable Diffusion XL

Stable Diffusion XL 工作负载的大约 90% 的端到端处理都花在使用 UNet 运行迭代去噪步骤上。 它具有 U 形层拓扑,其中潜伏值首先被下转换,然后上转换回原始分辨率。

DeepCache 是本文描述的一种技术,建议使用两种不同的 UNet 结构。 第一个是原始的 UNet——在我们的提交实现中称为 Deep UNet。 第二个是单层 UNet,称为 Shallow UNet 或 Shallow UNet,它重用(或绕过)最新 Deep UNet 中的中间张量,从而显着减少计算量。

NVIDIA 开放分区提交实现了 DeepCache 的变体,其中我们将两个输入缓存到最后一个上转换层,并在去噪步骤中在 Deep UNet 和 Shallow UNet 之间交替。 这使得运行模型的 UNet 部分所需的计算量减少了一半,在 H100 上将端到端性能提高了 74%。

无与伦比的推理性能

NVIDIA 平台在整个 MLPerf Inference v4.0 基准测试中展示了卓越的推理性能,Hopper 架构可在每个工作负载上实现每个 GPU 的最高性能。

使用 TensorRT-LLM 软件使 H100 在 GPT-J 工作负载上实现了显着的性能提升,在短短 6 个月内性能几乎提高了两倍。 H200 是全球首款 HBM3e GPU,配备 TensorRT-LLM 软件,在离线和服务器场景下的 Llama 2 70B 工作负载上提供了创纪录的推理性能。 而且,在首次针对文本到图像生成 AI 的 Stable Diffusion XL 测试中,NVIDIA 平台提供了最高的性能。

要重现 NVIDIA MLPerf Inference v4.0 提交中展示的令人难以置信的性能,请参阅 MLPerf 存储库

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/kunhe0512/article/details/137119473

智能推荐

HTML5 Web SQL 数据库_方式准则的定义-程序员宅基地

文章浏览阅读1k次。1、HTML5 Web SQL 数据库 Web SQL 数据库 API 并不是 HTML5 规范的一部分,但是它是一个独立的规范,引入了一组使用 SQL 操作客户端数据库的 APIs。如果你是一个 Web 后端程序员,应该很容易理解 SQL 的操作。Web SQL 数据库可以在最新版的 Safari, Chrome 和 Opera 浏览器中工作。2、核心方法 以下是规范中定义的三个_方式准则的定义

spring Boot 中使用线程池异步执行多个定时任务_springboot启动后自动开启多个线程程序-程序员宅基地

文章浏览阅读4.1k次,点赞2次,收藏6次。spring Boot 中使用线程池异步执行多个定时任务在启动类中添加注解@EnableScheduling配置自定义线程池在启动类中添加注解@EnableScheduling第一步添加注解,这样才会使定时任务启动配置自定义线程池@Configurationpublic class ScheduleConfiguration implements SchedulingConfigurer..._springboot启动后自动开启多个线程程序

Maven编译打包项目 mvn clean install报错ERROR_mvn clean install有errors-程序员宅基地

文章浏览阅读1.1k次。在项目的target文件夹下把之前"mvn clean package"生成的压缩包(我的是jar包)删掉重新执行"mvn clean package"再执行"mvn clean install"即可_mvn clean install有errors

navacate连接不上mysql_navicat连接mysql失败怎么办-程序员宅基地

文章浏览阅读974次。Navicat连接mysql数据库时,不断报1405错误,下面是针对这个的解决办法:MySQL服务器正在运行,停止它。如果是作为Windows服务运行的服务器,进入计算机管理--->服务和应用程序------>服务。如果服务器不是作为服务而运行的,可能需要使用任务管理器来强制停止它。创建1个文本文件(此处命名为mysql-init.txt),并将下述命令置于单一行中:SET PASSW..._nvarchar链接不上数据库

Python的requests参数及方法_python requests 参数-程序员宅基地

文章浏览阅读2.2k次。Python的requests模块是一个常用的HTTP库,用于发送HTTP请求和处理响应。_python requests 参数

近5年典型的的APT攻击事件_2010谷歌网络被极光黑客攻击-程序员宅基地

文章浏览阅读2.7w次,点赞7次,收藏50次。APT攻击APT攻击是近几年来出现的一种高级攻击,具有难检测、持续时间长和攻击目标明确等特征。本文中,整理了近年来比较典型的几个APT攻击,并其攻击过程做了分析(为了加深自己对APT攻击的理解和学习)Google极光攻击2010年的Google Aurora(极光)攻击是一个十分著名的APT攻击。Google的一名雇员点击即时消息中的一条恶意链接,引发了一系列事件导致这个搜_2010谷歌网络被极光黑客攻击

随便推点

微信小程序api视频课程-定时器-setTimeout的使用_微信小程序 settimeout 向上层传值-程序员宅基地

文章浏览阅读1.1k次。JS代码 /** * 生命周期函数--监听页面加载 */ onLoad: function (options) { setTimeout( function(){ wx.showToast({ title: '黄菊华老师', }) },2000 ) },说明该代码只执行一次..._微信小程序 settimeout 向上层传值

uploadify2.1.4如何能使按钮显示中文-程序员宅基地

文章浏览阅读48次。uploadify2.1.4如何能使按钮显示中文博客分类:uploadify网上关于这段话的搜索恐怕是太多了。方法多也试过了不知怎么,反正不行。最终自己想办法给解决了。当然首先还是要有fla源码。直接去管网就可以下载。[url]http://www.uploadify.com/wp-content/uploads/uploadify-v2.1.4...

戴尔服务器安装VMware ESXI6.7.0教程(U盘安装)_vmware-vcsa-all-6.7.0-8169922.iso-程序员宅基地

文章浏览阅读9.6k次,点赞5次,收藏36次。戴尔服务器安装VMware ESXI6.7.0教程(U盘安装)一、前期准备1、下载镜像下载esxi6.7镜像:VMware-VMvisor-Installer-6.7.0-8169922.x86_64.iso这里推荐到戴尔官网下载,Baidu搜索“戴尔驱动下载”,选择进入官网,根据提示输入服务器型号搜索适用于该型号服务器的所有驱动下一步选择具体类型的驱动选择一项下载即可待下载完成后打开软碟通(UItraISO),在“文件”选项中打开刚才下载好的镜像文件然后选择启动_vmware-vcsa-all-6.7.0-8169922.iso

百度语音技术永久免费的语音自动转字幕介绍 -程序员宅基地

文章浏览阅读2k次。百度语音技术永久免费的语音自动转字幕介绍基于百度语音技术,识别率97%无时长限制,无文件大小限制永久免费,简单,易用,速度快支持中文,英文,粤语永久免费的语音转字幕网站: http://thinktothings.com视频介绍 https://www.bilibili.com/video/av42750807 ...

Dyninst学习笔记-程序员宅基地

文章浏览阅读7.6k次,点赞2次,收藏9次。Instrumentation是一种直接修改程序二进制文件的方法。其可以用于程序的调试,优化,安全等等。对这个词一般的翻译是“插桩”,但这更多使用于软件测试领域。【找一些相关的例子】Dyninst可以动态或静态的修改程序的二进制代码。动态修改是在目标进程运行时插入代码(dynamic binary instrumentation)。静态修改则是直接向二进制文件插入代码(static b_dyninst

在服务器上部署asp网站,部署asp网站到云服务器-程序员宅基地

文章浏览阅读2.9k次。部署asp网站到云服务器 内容精选换一换通常情况下,需要结合客户的实际业务环境和具体需求进行业务改造评估,建议您进行服务咨询。这里仅描述一些通用的策略供您参考,主要分如下几方面进行考虑:业务迁移不管您的业务是否已经上线华为云,业务迁移的策略是一致的。建议您将时延敏感型,有快速批量就近部署需求的业务迁移至IEC;保留数据量大,且需要长期稳定运行的业务在中心云上。迁移方法请参见如何计算隔离独享计算资源..._nas asp网站