
Add to Cart
A100 PCIe de 80 Go | A100 80 Go SXM | |
RP64 | 9.7 TFLOPS | |
Le noyau du tensor FP64 | 19.5 TFLOPS | |
RP32 | 19.5 TFLOPS | |
Le débit d'énergie est calculé en fonction du débit de chauffage. | 156 TFLOPS. 312 TFLOPS. Je suis désolée. | |
BFLOAT16 Ténseur de base | Je suis en train d'écrire une chanson. | |
Le noyau du tensor FP16 | Je suis en train d'écrire une chanson. | |
Le noyau du tenseur INT8 | 624 tops. 1248 tops. |
Mémoire GPU | 80 Go HBM2e | 80 Go HBM2e |
Largeur de bande de mémoire GPU | 1,935 GB/s | 2,039 GB/s |
Puissance thermique maximale de conception (TDP) | 300 W | 400 W *** |
GPU à instances multiples | Jusqu' à 7 MIG @ 10GB | Jusqu' à 7 MIG @ 10GB |
Facteur de forme | Le PCIe | SXM |
D'une épaisseur n'excédant pas 1 mm | ||
Interconnexion | NVIDIA®NVLink®Le pont | NVLink: 600 Go/s |
pour deux GPU: 600 GB/s ** | Le système de mesure de la capacité de l'appareil doit être conforme aux exigences de l'annexe I. | |
Options de serveur | Systèmes partenaires et certifiés NVIDIATM avec 1 à 8 GPU | NVIDIA HGXTM A100-Partner et systèmes certifiés NVIDIA avec 4,8, ou 16 GPU NVIDIA DGXTM A100 avec 8 GPU |
|