世界上强大的 GPU
NVIDIA® V100 Tensor Core GPU 是深度学习、机器学习、 高性能计算 (HPC) 和图形计算的强力加速器。V100 Tensor Core GPU 采用 NVIDIA Volta™ 架构,可在单个 GPU 中提供近 32 个 CPU 的性能,助力研究人员攻克以前无法应对的挑战。 V100 已在业界首个 AI 基准测试 MLPerf 中拔得头筹,以出色 的成绩证明了其是具有巨大可扩展性和通用性的当今世界上 强大的计算平台。
突破性的创新
VOLTA 架构 通过在一个统一架构内搭配 使用 CUDA Core 和 Tensor Core,配备 V100 GPU 的 单台服务器可以取代数百台 通用 CPU 服务器,以处理 传统的 HPC 和深度学习 工作。
TENSOR CORE 技术 V100 配有 640 个 Tensor Core,可提供 130 teraFLOPS (TFLOPS) 的深度学习性能。 与 NVIDIA Pascal™ GPU 相比, 可为深度学习训练提供 12 倍 张量浮点运算性能,为深度 学习推理提供 6 倍张量浮点 运算性能。
新一代 NVLINK V100 中采用的 NVIDIA NVLink 可提供两倍于上一代的吞吐量。 八块 V100 加速器能以每秒高达 千兆字节(GB/s)的速度互联, 从而发挥出单台服务器所能提供 的极高应用性能。 HBM2 显存 V100 将 900 GB/s 的改良版 原始带宽与高达 95% 的 DRAM 利用效率相结合, 在 STREAM 上测量时可提供 相较 Pascal GPU 高达 1.5 倍 的显存带宽。V100 现提供 32 GB 显存配置,比标准的 16 GB 版增加一倍显存空间。
超强节能模式 全新的最大节能模式可允许 数据中心在现有的功耗预算 内,使每个机架最高提升 40% 的计算能力。在此模式下, V100 以最大处理效率运行时, 只需一半的功耗,即可提供 高达 80% 的性能。
HBM2 显存 V100 将 900 GB/s 的改良版 原始带宽与高达 95% 的 DRAM 利用效率相结合, 在 STREAM 上测量时可提供 相较 Pascal GPU 高达 1.5 倍 的显存带宽。V100 现提供 32 GB 显存配置,比标准的 16 GB 版增加一倍显存空间。
可编程性 V100 架构的设计初衷即是为了 简化可编程性。其全新的独立 线程调度能力可实现细粒度 同步,并能通过在琐碎的工作 之间共享资源来提升 GPU 的 利用率。
V100 是 NVIDIA 数据中心平台在深度学习、HPC 和图形领域的强大产品。该平台可为 600 余款 HPC 应用和 各大深度学习框架提供加速。此平台适用于桌面、服务器以及云服务,不仅能显著提升性能,还能节省成本。
与NVIDIA产品相关的图片或视频(完整或部分)的版权均归NVIDIA Corporation所有。
数据源来自:https://www.nvidia.cn/data-center/v100/