Menu

Logo – Sky Blue Microsystems GmbH

NVIDIA A100 PCIe-Karte

NVIDIA® Ampere A100 Tensor Core GPU | 40GB Samsung HBM2 | PCIe Gen4

Beste Beschleunigung für alle KI-Workloads

Die NVIDIA A100 ist mit der 4. Generation der PCIe-Schnittstelle kompatibel. Die Karte hat eine GPU der Ampere-Generation, die sich problemlos in vorhandene Server integrieren lässt.

Der NVIDIA A100 basiert auf 7-nm-Technologie mit 40 GB Samsung HBM2. Die beste Beschleunigung sowohl für vorhandene FP32 / FP64-Workloads als auch für neue AI-Workloads wird erreicht. Die NVIDIA A100 PCIe Gen4-Steckkarte ist für einen Betrieb mit bis zu 250 W ausgelegt.

Produktdaten

GPU der NVIDIA A100 Ampere-Generation für PCIe mit neuer Multi-Instance-GPU-MIG-Technologie.
GPU der NVIDIA A100 Ampere-Generation für PCIe.
Die NVIDIA A100 Tensor Core-GPU für HGX kann effizient auf Tausende von GPUs skaliert und in sieben isolierte GPU-Instanzen aufgeteilt werden.
NVIDIA A100 kann effizient auf Tausende von GPUs skaliert werden.

Für weitere Informationen rufen Sie uns bitte unter +49 (0) 89 – 780297 0 an, schreiben Sie uns eine E-Mail an info@skyblue.de oder verwenden Sie folgendes Formular:

  NVIDIA A100 für NVIDIA HGX ™  NVIDIA A100 für PCIe
GPU-Architektur NVIDIA Ampere
Doppelte Präzisionsleistung FP64: 9,7 TFLOPS
FP64 Tensor Kern: 19,5 TFLOPS
Single-Precision-Leistung FP32: 19,5 TFLOPS
Tensor Float 32 (TF32): 156 TFLOPS | 312 TFLOPS *
Halbpräzise Leistung 312 TFLOPS | 624 TFLOPS *
Bfloat16 312 TFLOPS | 624 TFLOPS* 
Ganzzahlige Leistung INT8: 624 TOPS | 1.248 TOPS *
INT4: 1.248 TOPS | 2.496 TOPS *
GPU-Speicher 40 GB HBM2
Speicherbandbreite 1,6 TB / s
Fehlerkorrekturcode Ja
Schnittstelle verbinden PCIe Gen4: 64 GB / s NVIDIA® NVLink® der dritten Generation: 600 GB / s ** PCIe Gen4: 64 GB / s NVIDIA® NVLink® der dritten Generation: 600 GB / s **
Formfaktor 4/8 SXM GPUs in NVIDIA HGX™ A100 PCIe
Multi-Instance-GPU (MIG) Bis zu 7 GPU-Instanzen
Maximaler Stromverbrauch 400 W 250 W
Gelieferte Leistung für Top-Apps 100% 90%
Thermische Lösung Passiv
APIs berechnen CUDA®, DirectCompute, OpenCL ™, OpenACC®
* Strukturelle Sparsity aktiviert
** SXM-GPUs über HGX A100-Serverplatinen; PCIe-GPUs über NVLinkBridge für bis zu 2 GPUs