Nvidia通用GPU¶
NVIDIA产品系列¶
消费级GPU系列-GeForce系列¶
备注
消费级游戏和娱乐
Nvidia GeForce RTX 2080 Ti - 这是Turing架构的旗舰显卡,于2018年发布。它拥有4352个CUDA核心,11GB GDDR6视频内存,接口为PCIe 3.0 x16。2080 Ti在发布时是性能最强的消费级显卡
Nvidia GeForce RTX 3080 - 这是Ampere架构的高端显卡,于2020年发布。它拥有8704个CUDA核心,10GB GDDR6X视频内存,接口为PCIe 4.0
NVIDIA GeForce RTX 3060 - 这是Ampere架构的入门级显卡,于2021年发布。它拥有3584个CUDA核心,12GB GDDR6视频内存,接口为PCIe 4.0
NVIDIA GeForce RTX 3060 Mobile - 这是Ampere架构的移动版GPU,于2021年发布。它有1024-2560个CUDA核心,6GB或8GB GDDR6视频内存
NVIDIA GeForce RTX 3090: 较大的显存(24GB)
专业级GPU系列-Quadro系列¶
备注
面向专业图形应用
Quadro系列是NVIDIA面向专业图形应用市场的GPU产品系列,包括设计、视觉化和虚拟现实等领域
旧名称 |
新名称 |
代表产品 |
---|---|---|
Quadro RTX |
NVIDIA RTX A 系列 |
RTX A6000、A5000 等 |
Quadro P 系列 |
基于 Pascal 架构 |
Quadro P5000 等 |
Quadro M/K 系列 |
较老的架构 |
M4000、K6000 等 |
专业级GPU系列-Tesla系列¶
备注
针对HPC和数据中心
Tesla系列是NVIDIA针对高性能计算(HPC)和数据中心应用而设计的GPU产品系列
旧名称(Tesla) |
新名称 |
架构 |
应用场景 |
---|---|---|---|
Tesla V100 |
A100 / H100 前身 |
Volta 架构 |
AI训练、HPC |
A100 |
Ampere |
数据中心 AI |
训练/推理 |
H100 |
Hopper |
超大模型训练 |
|
H200 |
Hopper + HBM3e |
LLM 加速 |
|
B100(未发) |
Blackwell |
下一代 AI GPU |
面向自动驾驶/边缘计算的 GPU 系列-Jetson 系列¶
用于边缘 AI 和嵌入式计算平台,广泛用于机器人、无人车、工业设备等:
系列 |
代表产品 |
核心架构 |
---|---|---|
Jetson AGX |
AGX Orin、Xavier |
Ampere、Volta 等 |
Jetson NX |
Orin NX、Xavier NX |
|
Jetson Nano |
Nano、Nano 2GB |
Maxwell |
常用显卡¶
NVIDIA L20::
GPU: 48G
内存: 96G
CPU: 32vCPU
显存:48 GB GDDR6,带宽 864 GB/s
NVIDIA H20::
GPU: 96G
内存: 240G
CPU: 22vCPU
GPU架构¶
Ada Lovelace架构¶
代表产品::
GeForce RTX 4080 GeForce RTX 4090(旗舰级桌面GPU) NVIDIA L20(针对中国市场) NVIDIA L40
特点:专为光线追踪和基于AI的神经图形设计,引入了第四代Tensor Core和第三代RT Core。
Pascal架构¶
Tesla P4 基于 Pascal 架构,这与后来更为常见的 Volta 和 Ampere 架构相比属于上一代
Volta架构¶
Tesla V100 :
Volta架构
的一部分。它采用了16nm FinFET工艺,具有5120个CUDA核心和16GB到32GB的HBM2显存。
Ampere架构¶
Tesla A100: 目前世界上最强大的数据中心GPU之一,采用了全新的
Ampere架构
,具有高达6,912个CUDA核心和40GB的高速HBM2显存。A100还包括第二代NVLink技术,可实现高速的GPU到GPU通信,从而加快大型模型的训练速度。此外,A100还支持英伟达自主研发的Tensor Cores加速器,可在深度学习中提供高达20倍的性能提升。
NVIDIA A100 Tensor Core GPU(标准版本)的主要规格::
架构:Ampere
CUDA 核心:6912 个
Tensor 核心:432 个
显存:40GB 或 80GB HBM2e
显存带宽:1.6 TB/s
FP64 性能:9.7 TFLOPS
FP32 性能:19.5 TFLOPS
FP16 性能:312 TFLOPS(使用 Tensor Cores)
功耗:400W(可调至 250W)
备注
A800和H800是英伟达针对中国市场推出的特供版(或称为带宽缩减版)GPU。它们分别基于A100和H100的架构,但在Nvlink最大总网络带宽上有所降低,以适应特定的市场需求和监管要求。
Hopper架构¶
Tesla H100: 英伟达最新的GPU,基于
Hopper架构
,采用了定制的台积电N4(4纳米)工艺制造。