

Add to Cart
Informatique professionnelle Nvidia Ampere A30 GPU Data Center
Solution
GPUSolution de centre de donnéesPour le calcul scientifique
NVIDIA A30Solution de centre de données
La solution de centre de données pour l'informatique moderne
L'architecture NVIDIA Ampere fait partie de la plate-forme unifiée
NVIDIA EGX™, incorporant des blocs de construction travers le
matériel, la mise en réseau, les logiciels, les bibliothèques et
les modèles et applications d'IA optimisés du catalogue NVIDIA
NGC™.Représentant la plate-forme IA et HPC de bout en bout la plus
puissante pour les centres de données, elle permet aux chercheurs
de fournir rapidement des résultats concrets et de déployer des
solutions en production grande échelle.
NVIDIA Tesla A30 exploite des fonctionnalités révolutionnaires pour
optimiser les charges de travail d'inférence.Il accélère une gamme
complète de précisions, de FP64 TF32 et INT4.Prenant en charge
jusqu' quatre MIG par GPU, A30 permet plusieurs réseaux de
fonctionner simultanément dans des partitions matérielles
sécurisées avec une qualité de service (QoS) garantie.Et la prise
en charge de la parcimonie structurelle offre jusqu' 2 fois plus de
performances en plus des autres gains de performances d'inférence
de l'A30.
Les performances d'IA de pointe de NVIDIA ont été démontrées dans
MLPerf Inference.Combiné avec NVIDIA Triton™ Inference Server, qui
déploie facilement l'IA grande échelle, NVIDIA Tesla A30 apporte
cette performance révolutionnaire chaque entreprise.
NVIDIA A30Solution de centre de données
Architecture GPU NVIDIA Ampère
Mémoire HBM2 de 24 Go
Max.Consommation d'énergie : 165 W
Bus d'interconnexion :
PCIe Gen. 4 : 64 Go/s
3ème NVLink : 200 Go/s
Solution thermique : passive
GPU multi-instance (MIG) :
4 instances GPU de 6 Go chacune
2 instances GPU @ 12 Go chacune
1 instance de processeur graphique de 24 Go
Prise en charge du logiciel GPU virtuel (vGPU)
Spécifications techniques de la solution de centre de données
NVIDIA A30
Architecture GPU | NVIDIA Ampère |
FP64 | 5,2 téraFLOPS |
Noyau tenseur FP64 | 10,3 téraFLOPS |
FP32 | 10,3 téraFLOPS |
Noyau tenseur TF32 | 82 téraFLOPS |165 téraFLOPS* |
Noyau tenseur BFLOAT16 | 165 téraFLOPS |330 téraFLOPS* |
Noyau tenseur FP16 | 165 téraFLOPS |330 téraFLOPS* |
Noyau tenseur INT8 | 330 HAUTS |661 TOPS* |
Noyau tenseur INT4 | 661 HAUTS |1321 HAUTS* |
Moteurs multimédias | 1 accélérateur de flux optique (OFA) |
Mémoire GPU | 24 Go HBM2 |
Bande passante mémoire GPU | 933 Go/s |
Interconnexion | PCIe Gen4 : 64 Go/s |
Puissance de conception thermique maximale (TDP) | 165W |
Facteur de forme | Double fente, pleine hauteur, pleine longueur (FHFL) |
GPU multi-instance (MIG) | 4 instances GPU de 6 Go chacune |
Prise en charge du logiciel GPU virtuel (vGPU) | NVIDIA AI Enterprise pour VMware |