Die NVIDIA A100 ist mit der 4. Generation der PCIe-Schnittstelle kompatibel. Die Karte hat eine GPU der Ampere-Generation, die sich problemlos in vorhandene Server integrieren lässt.
Der NVIDIA A100 basiert auf 7-nm-Technologie mit 40 GB Samsung HBM2. Die beste Beschleunigung sowohl für vorhandene FP32 / FP64-Workloads als auch für neue AI-Workloads wird erreicht. Die NVIDIA A100 PCIe Gen4-Steckkarte ist für einen Betrieb mit bis zu 250 W ausgelegt.
Produktdaten
NVIDIA A100 für NVIDIA HGX ™ | NVIDIA A100 für PCIe | |
GPU-Architektur | NVIDIA Ampere | |
Doppelte Präzisionsleistung | FP64: 9,7 TFLOPS FP64 Tensor Kern: 19,5 TFLOPS |
|
Single-Precision-Leistung | FP32: 19,5 TFLOPS Tensor Float 32 (TF32): 156 TFLOPS | 312 TFLOPS * |
|
Halbpräzise Leistung | 312 TFLOPS | 624 TFLOPS * | |
Bfloat16 | 312 TFLOPS | 624 TFLOPS* | |
Ganzzahlige Leistung | INT8: 624 TOPS | 1.248 TOPS * INT4: 1.248 TOPS | 2.496 TOPS * |
|
GPU-Speicher | 40 GB HBM2 | |
Speicherbandbreite | 1,6 TB / s | |
Fehlerkorrekturcode | Ja | |
Schnittstelle verbinden | PCIe Gen4: 64 GB / s NVIDIA® NVLink® der dritten Generation: 600 GB / s ** | PCIe Gen4: 64 GB / s NVIDIA® NVLink® der dritten Generation: 600 GB / s ** |
Formfaktor | 4/8 SXM GPUs in NVIDIA HGX™ A100 | PCIe |
Multi-Instance-GPU (MIG) | Bis zu 7 GPU-Instanzen | |
Maximaler Stromverbrauch | 400 W | 250 W |
Gelieferte Leistung für Top-Apps | 100% | 90% |
Thermische Lösung | Passiv | |
APIs berechnen | CUDA®, DirectCompute, OpenCL ™, OpenACC® | |
* Strukturelle Sparsity aktiviert ** SXM-GPUs über HGX A100-Serverplatinen; PCIe-GPUs über NVLinkBridge für bis zu 2 GPUs |
Sky Blue Microsystems GmbH
Geisenhausenerstr. 18
81379 Munich
Tel. +49 (0) 89 – 780297 0