Technologie Cie., Ltd de Pékin Plink AI

Beijing Plink AI is an expert of cloud-to-end one-stop solution.

Manufacturer from China
Membre actif
3 Ans
Accueil / produits / Nvidia GPU Server /

Centre de données AI Tesla Tensor Core Nvidia GPU Server A100 80 Go Vidéo Carte graphique informatique

Contacter
Technologie Cie., Ltd de Pékin Plink AI
Ville:beijing
Province / État:beijing
Pays / Région:china
Contact:MsCindy
Contacter

Centre de données AI Tesla Tensor Core Nvidia GPU Server A100 80 Go Vidéo Carte graphique informatique

Demander le dernier prix
Numéro de modèle :NVIDIA A100
Lieu d'origine :CHINE
Quantité minimum d'achat :1 PCS
Modalités de paiement :L/C, D/A, D/P, T/T
Capacité d'approvisionnement :20PCS
Heure de livraison :15-30 jours de mot
Détails de l'' emballage :Fente unique de 4,4 po H x 7,9 po L
Nom :Centre de données AI Tesla Tensor Core Nvidia GPU Server A100 80 Go Vidéo Carte graphique informatiq
Mot-clé :Centre de données AI Tesla Tensor Core Nvidia GPU Server A100 80 Go Vidéo Carte graphique informatiq
Modèle :NVIDIA A100
Architecture GPU :NVIDIA Ampère
Pic FP64 :9.7 TF
Noyau tenseur Peak FP64 :19,5 TF
Pic FP32 :19,5 TF
Noyau tenseur Peak TF32 :156 TF | 312 TF*
Noyau de tenseur Peak BFLOAT16 :312 TF | 624 TF*
Noyau tenseur Peak FP16 :312 TF | 624 TF*
Noyau de tenseur Peak INT8 :624 HAUTS | 1 248 TOPS*
Noyau de tenseur Peak INT4 :1 248 TOPS | 2 496 TOPS*
Mémoire GPU :40 GIGAOCTETS
Bande passante mémoire GPU :1 555 Go/s
Facteur de forme :PCIe
more
Contacter

Add to Cart

Trouver des vidéos similaires
Voir la description du produit

Centre de données AI Tesla Tensor Core Nvidia GPU Server A100 80 Go Vidéo Carte graphique informatique

NVIDIA A100

Le GPU NVIDIA A100 Tensor Core offre une accélération sans précédent à toutes les échelles pour l'IA, l'analyse de données et le calcul haute performance (HPC) pour relever les défis informatiques les plus difficiles au monde.

Accélérer le travail le plus important de notre temps

Le GPU NVIDIA A100 Tensor Core offre une accélération sans précédent à toutes les échelles pour l'IA, l'analyse de données et le calcul haute performance (HPC) pour relever les défis informatiques les plus difficiles au monde.En tant que moteur de la plate-forme de centre de données NVIDIA, A100 peut évoluer efficacement vers des milliers de GPU ou, avec la technologie NVIDIA Multi-Instance GPU (MIG), être partitionné en sept instances GPU pour accélérer les charges de travail de toutes tailles.Et les cœurs Tensor de troisième génération accélèrent chaque précision pour diverses charges de travail, accélérant le temps d'analyse et le temps de mise sur le marché.

La plate-forme de centre de données IA et HPC de bout en bout la plus puissante

A100 fait partie de la solution complète de centre de données NVIDIA qui intègre des blocs de construction à travers le matériel, la mise en réseau, les logiciels, les bibliothèques et les modèles et applications d'IA optimisés de NGC™.Représentant la plate-forme IA et HPC de bout en bout la plus puissante pour les centres de données, elle permet aux chercheurs de fournir des résultats concrets et de déployer des solutions en production à grande échelle.

Centre de données AI Tesla Tensor Core Nvidia GPU Server A100 80 Go Vidéo Carte graphique informatique

Analyse de données haute performance

Les scientifiques des données doivent être capables d'analyser, de visualiser et de transformer des ensembles de données massifs en informations.Mais les solutions évolutives sont souvent bloquées par des ensembles de données dispersés sur plusieurs serveurs.

Les serveurs accélérés avec A100 fournissent la puissance de calcul nécessaire, ainsi qu'une mémoire massive, plus de 2 To/s de bande passante mémoire et une évolutivité avec NVIDIA®NVLink®et NVSwitch™, — pour faire face à ces charges de travail.Combinée à InfiniBand, NVIDIA Magnum IO™ et la suite RAPIDS™ de bibliothèques open source, y compris l'accélérateur RAPIDS pour Apache Spark pour l'analyse de données accélérée par GPU, la plate-forme de centre de données NVIDIA accélère ces énormes charges de travail à des niveaux de performances et d'efficacité sans précédent.

Sur une référence d'analyse de données volumineuses, A100 80 Go a fourni des informations avec un débit 83 fois supérieur à celui des processeurs et une augmentation de 2 fois par rapport à A100 40 Go, ce qui le rend parfaitement adapté aux charges de travail émergentes avec des tailles d'ensembles de données qui explosent.

Spécifications techniques NVIDIA A100

NVIDIA A100 pour PCIe
Architecture GPU

NVIDIA Ampère

Pic FP64 9.7 TF
Noyau tenseur Peak FP64 19,5 TF
Pic FP32 19,5 TF
Noyau tenseur Peak TF32 156 TF |312 TF*
Noyau de tenseur Peak BFLOAT16 312 TF |624 TF*
Noyau tenseur Peak FP16 312 TF |624 TF*
Noyau de tenseur Peak INT8 624 HAUTS |1 248 TOPS*
Noyau de tenseur Peak INT4 1 248 TOPS |2 496 TOPS*
Mémoire GPU 40 Go
Bande passante mémoire GPU 1 555 Go/s
Interconnexion PCIe Gen4 64 Go/s
GPU multi-instances Différentes tailles d'instance avec jusqu'à 7 MIG à 5 Go
Facteur de forme PCIe

Puissance TDP maximale

250W

Performances fournies par les meilleures applications

90%

NVIDIA A100

Le produit phare de la plate-forme de centre de données NVIDIA pour l'apprentissage en profondeur, le HPC et l'analyse de données.

La plate-forme accélère plus de 700 applications HPC et tous les principaux frameworks d'apprentissage en profondeur.Il est disponible partout, des postes de travail aux serveurs en passant par les services cloud, offrant à la fois des gains de performances spectaculaires et des opportunités de réduction des coûts.

Centre de données AI Tesla Tensor Core Nvidia GPU Server A100 80 Go Vidéo Carte graphique informatique

Inquiry Cart 0