
Add to Cart
Le GPU NVIDIA A100 Tensor Core offre une accélération sans précédent à toutes les échelles pour l'IA, l'analyse de données et le calcul haute performance (HPC) pour relever les défis informatiques les plus difficiles au monde.
Le GPU NVIDIA A100 Tensor Core offre une accélération sans précédent à toutes les échelles pour l'IA, l'analyse de données et le calcul haute performance (HPC) pour relever les défis informatiques les plus difficiles au monde.En tant que moteur de la plate-forme de centre de données NVIDIA, A100 peut évoluer efficacement vers des milliers de GPU ou, avec la technologie NVIDIA Multi-Instance GPU (MIG), être partitionné en sept instances GPU pour accélérer les charges de travail de toutes tailles.Et les cœurs Tensor de troisième génération accélèrent chaque précision pour diverses charges de travail, accélérant le temps d'analyse et le temps de mise sur le marché.
A100 fait partie de la solution complète de centre de données NVIDIA qui intègre des blocs de construction à travers le matériel, la mise en réseau, les logiciels, les bibliothèques et les modèles et applications d'IA optimisés de NGC™.Représentant la plate-forme IA et HPC de bout en bout la plus puissante pour les centres de données, elle permet aux chercheurs de fournir des résultats concrets et de déployer des solutions en production à grande échelle.
Les scientifiques des données doivent être capables d'analyser, de visualiser et de transformer des ensembles de données massifs en informations.Mais les solutions évolutives sont souvent bloquées par des ensembles de données dispersés sur plusieurs serveurs.
Les serveurs accélérés avec A100 fournissent la puissance de calcul nécessaire, ainsi qu'une mémoire massive, plus de 2 To/s de bande passante mémoire et une évolutivité avec NVIDIA®NVLink®et NVSwitch™, — pour faire face à ces charges de travail.Combinée à InfiniBand, NVIDIA Magnum IO™ et la suite RAPIDS™ de bibliothèques open source, y compris l'accélérateur RAPIDS pour Apache Spark pour l'analyse de données accélérée par GPU, la plate-forme de centre de données NVIDIA accélère ces énormes charges de travail à des niveaux de performances et d'efficacité sans précédent.
Sur une référence d'analyse de données volumineuses, A100 80 Go a fourni des informations avec un débit 83 fois supérieur à celui des processeurs et une augmentation de 2 fois par rapport à A100 40 Go, ce qui le rend parfaitement adapté aux charges de travail émergentes avec des tailles d'ensembles de données qui explosent.
NVIDIA A100 pour PCIe | |
Architecture GPU |
NVIDIA Ampère |
Pic FP64 | 9.7 TF |
Noyau tenseur Peak FP64 | 19,5 TF |
Pic FP32 | 19,5 TF |
Noyau tenseur Peak TF32 | 156 TF |312 TF* |
Noyau de tenseur Peak BFLOAT16 | 312 TF |624 TF* |
Noyau tenseur Peak FP16 | 312 TF |624 TF* |
Noyau de tenseur Peak INT8 | 624 HAUTS |1 248 TOPS* |
Noyau de tenseur Peak INT4 | 1 248 TOPS |2 496 TOPS* |
Mémoire GPU | 40 Go |
Bande passante mémoire GPU | 1 555 Go/s |
Interconnexion | PCIe Gen4 64 Go/s |
GPU multi-instances | Différentes tailles d'instance avec jusqu'à 7 MIG à 5 Go |
Facteur de forme | PCIe |
Puissance TDP maximale |
250W |
Performances fournies par les meilleures applications |
90% |
Le produit phare de la plate-forme de centre de données NVIDIA pour l'apprentissage en profondeur, le HPC et l'analyse de données.
La plate-forme accélère plus de 700 applications HPC et tous les principaux frameworks d'apprentissage en profondeur.Il est disponible partout, des postes de travail aux serveurs en passant par les services cloud, offrant à la fois des gains de performances spectaculaires et des opportunités de réduction des coûts.