设备¶
NVIDIA产品系列¶
消费级GPU系列-GeForce系列¶
备注
消费级游戏和娱乐
Nvidia GeForce RTX 2080 Ti - 这是Turing架构的旗舰显卡,于2018年发布。它拥有4352个CUDA核心,11GB GDDR6视频内存,接口为PCIe 3.0 x16。2080 Ti在发布时是性能最强的消费级显卡。
Nvidia GeForce RTX 3080 - 这是Ampere架构的高端显卡,于2020年发布。它拥有8704个CUDA核心,10GB GDDR6X视频内存,接口为PCIe 4.0。
NVIDIA GeForce RTX 3060 - 这是Ampere架构的入门级显卡,于2021年发布。它拥有3584个CUDA核心,12GB GDDR6视频内存,接口为PCIe 4.0。
NVIDIA GeForce RTX 3060 Mobile - 这是Ampere架构的移动版GPU,于2021年发布。它有1024-2560个CUDA核心,6GB或8GB GDDR6视频内存。
NVIDIA GeForce RTX 3090: 较大的显存(24GB)
专业级GPU系列-Quadro系列¶
备注
面向专业图形应用
Quadro系列是NVIDIA面向专业图形应用市场的GPU产品系列,包括设计、视觉化和虚拟现实等领域。
专业级GPU系列-Tesla系列¶
备注
针对HPC和数据中心
Tesla系列是NVIDIA针对高性能计算(HPC)和数据中心应用而设计的GPU产品系列。
GPU架构¶
Ada Lovelace架构¶
代表产品:
GeForce RTX 4080 GeForce RTX 4090(旗舰级桌面GPU) NVIDIA L20(针对中国市场) NVIDIA L40
特点:专为光线追踪和基于AI的神经图形设计,引入了第四代Tensor Core和第三代RT Core。
Pascal架构¶
Tesla P4 基于 Pascal 架构,这与后来更为常见的 Volta 和 Ampere 架构相比属于上一代
Volta架构¶
Tesla V100 :
Volta架构
的一部分。它采用了16nm FinFET工艺,具有5120个CUDA核心和16GB到32GB的HBM2显存。
技术规格:
+--------------+---------------------------------+
| 规格 | 参数 |
+==============+=================================+
| CUDA 核心 | 5120 |
+--------------+---------------------------------+
| Tensor Cores | 640 |
+--------------+---------------------------------+
| 显存 | 16GB 或 32GB HBM2 |
+--------------+---------------------------------+
| 显存带宽 | 900GB/s |
+--------------+---------------------------------+
| FP32 性能 | 15.7 TFLOPS |
+--------------+---------------------------------+
| FP64 性能 | 7.8 TFLOPS |
+--------------+---------------------------------+
| FP16 性能 | 125 TFLOPS(使用 Tensor Cores) |
+--------------+---------------------------------+
| NVLink 带宽 | 300 GB/s(双向) |
+--------------+---------------------------------+
| 功耗 | 300W |
+--------------+---------------------------------+
Ampere架构¶
Tesla A100: 目前世界上最强大的数据中心GPU之一,采用了全新的``Ampere架构``,具有高达6,912个CUDA核心和40GB的高速HBM2显存。A100还包括第二代NVLink技术,可实现高速的GPU到GPU通信,从而加快大型模型的训练速度。此外,A100还支持英伟达自主研发的Tensor Cores加速器,可在深度学习中提供高达20倍的性能提升。
NVIDIA A100 Tensor Core GPU(标准版本)的主要规格:
架构:Ampere
CUDA 核心:6912 个
Tensor 核心:432 个
显存:40GB 或 80GB HBM2e
显存带宽:1.6 TB/s
FP64 性能:9.7 TFLOPS
FP32 性能:19.5 TFLOPS
FP16 性能:312 TFLOPS(使用 Tensor Cores)
功耗:400W(可调至 250W)
NVIDIA L20 是指 NVIDIA A100 Tensor Core GPU 在 Ampere 架构下的一种低功耗版本,适用于推理任务、边缘计算或低功耗数据中心等特定场景。需要注意的是,L20 并不是 NVIDIA 官方的正式命名,L20 可能指代一种特定型号或配置的 A100 GPU 变种。
备注
A800和H800是英伟达针对中国市场推出的特供版(或称为带宽缩减版)GPU。它们分别基于A100和H100的架构,但在Nvlink最大总网络带宽上有所降低,以适应特定的市场需求和监管要求。
Hopper架构¶
Tesla H100: 英伟达最新的GPU,基于``Hopper架构``,采用了定制的台积电N4(4纳米)工艺制造。