

Add to Cart
Mémoire HBM2 A30 24 Go Nvidia Ampere Data Center GPU pour le calcul scientifique
NVIDIA Ampère A30GPU du centre de données
Inférence IA et calcul grand public pour chaque entreprise
Apportez des performances accélérées chaque charge de travail d'entreprise avec les GPU NVIDIA A30 Tensor Core.Avec l'architecture NVIDIA Ampere Tensor Cores et le GPU multi-instance (MIG), il offre des accélérations sécurisées sur diverses charges de travail, y compris l'inférence IA grande échelle et les applications de calcul haute performance (HPC).En combinant une bande passante mémoire rapide et une faible consommation d'énergie dans un facteur de forme PCIe, optimal pour les serveurs grand public, A30 permet un centre de données élastique et offre une valeur maximale aux entreprises.
Spécifications techniques du processeur graphique du centre de données NVIDIA A30
Architecture GPU | NVIDIA Ampère |
FP64 | 5,2 téraFLOPS |
Noyau tenseur FP64 | 10,3 téraFLOPS |
FP32 | 10,3 téraFLOPS |
Noyau tenseur TF32 | 82 téraFLOPS |165 téraFLOPS* |
Noyau tenseur BFLOAT16 | 165 téraFLOPS |330 téraFLOPS* |
Noyau tenseur FP16 | 165 téraFLOPS |330 téraFLOPS* |
Noyau tenseur INT8 | 330 HAUTS |661 TOPS* |
Noyau tenseur INT4 | 661 HAUTS |1321 HAUTS* |
Moteurs multimédias | 1 accélérateur de flux optique (OFA) |
Mémoire GPU | 24 Go HBM2 |
Bande passante mémoire GPU | 933 Go/s |
Interconnexion | PCIe Gen4 : 64 Go/s |
Puissance de conception thermique maximale (TDP) | 165W |
Facteur de forme | Double fente, pleine hauteur, pleine longueur (FHFL) |
GPU multi-instance (MIG) | 4 instances GPU de 6 Go chacune |
Prise en charge du logiciel GPU virtuel (vGPU) | NVIDIA AI Enterprise pour VMware |
Les scientifiques des données doivent être capables d'analyser, de visualiser et de transformer des ensembles de données massifs en informations.Mais les solutions évolutives sont souvent bloquées par des ensembles de données dispersés sur plusieurs serveurs.
Les serveurs accélérés avec A30 fournissent la puissance de calcul nécessaire, ainsi qu'une grande mémoire HBM2, une bande passante mémoire de 933 Go/s et une évolutivité avec NVLink, pour faire face ces charges de travail.Associée NVIDIA InfiniBand, NVIDIA Magnum IO et la suite RAPIDS™ de bibliothèques open source, y compris l'accélérateur RAPIDS pour Apache Spark, la plate-forme de centre de données NVIDIA accélère ces énormes charges de travail des niveaux de performances et d'efficacité sans précédent.