Technologie Cie., Ltd de Pékin Plink AI

Beijing Plink AI is an expert of cloud-to-end one-stop solution.

Manufacturer from China
Membre actif
3 Ans
Accueil / produits / Nvidia GPU Server /

Informatique professionnelle Nvidia Ampere A30 GPU Data Center Solution

Contacter
Technologie Cie., Ltd de Pékin Plink AI
Ville:beijing
Province / État:beijing
Pays / Région:china
Contact:MsCindy
Contacter

Informatique professionnelle Nvidia Ampere A30 GPU Data Center Solution

Demander le dernier prix
Numéro de modèle :NVIDIA A30
Lieu d'origine :CHINE
Quantité minimum d'achat :1 PCS
Modalités de paiement :L/C, D/A, D/P, T/T
Capacité d'approvisionnement :20PCS
Heure de livraison :15-30 jours de mot
Détails de l'' emballage :Fente unique de 4,4 po H x 7,9 po L
NOM :Solution de calcul professionnelle de Nvidia Ampere A30 GPU Data Center
Mot-clé :Solution de calcul professionnelle de Nvidia Ampere A30 GPU Data Center
Modèle :NVIDIA A30
FP64 :teraFLOPS 5,2
Noyau du tenseur FP64 :teraFLOPS 10,3
FP32 :0,3 teraFLOPS
Mémoire de GPU :24GB HBM2
Largeur de bande de mémoire de GPU :933GB/s
Facteurs de forme :Double-fente, plein-taille, intégrale (FHFL)
Puissance thermique maximum de conception (TDP) :165W
Noyau du tenseur FP16 :teraFLOPS 165 | teraFLOPS* 330
Noyau du tenseur INT8 :330 DESSUS | 661 TOPS*
Interconnexion :PCIe Gen4 : 64GB/s
more
Contacter

Add to Cart

Trouver des vidéos similaires
Voir la description du produit

Informatique professionnelle Nvidia Ampere A30 GPU Data Center Solution

GPUSolution de centre de donnéesPour le calcul scientifique
NVIDIA A30Solution de centre de données

La solution de centre de données pour l'informatique moderne

L'architecture NVIDIA Ampere fait partie de la plate-forme unifiée NVIDIA EGX™, incorporant des blocs de construction à travers le matériel, la mise en réseau, les logiciels, les bibliothèques et les modèles et applications d'IA optimisés du catalogue NVIDIA NGC™.Représentant la plate-forme IA et HPC de bout en bout la plus puissante pour les centres de données, elle permet aux chercheurs de fournir rapidement des résultats concrets et de déployer des solutions en production à grande échelle.

Inférence d'apprentissage en profondeur


NVIDIA Tesla A30 exploite des fonctionnalités révolutionnaires pour optimiser les charges de travail d'inférence.Il accélère une gamme complète de précisions, de FP64 à TF32 et INT4.Prenant en charge jusqu'à quatre MIG par GPU, A30 permet à plusieurs réseaux de fonctionner simultanément dans des partitions matérielles sécurisées avec une qualité de service (QoS) garantie.Et la prise en charge de la parcimonie structurelle offre jusqu'à 2 fois plus de performances en plus des autres gains de performances d'inférence de l'A30.

Les performances d'IA de pointe de NVIDIA ont été démontrées dans MLPerf Inference.Combiné avec NVIDIA Triton™ Inference Server, qui déploie facilement l'IA à grande échelle, NVIDIA Tesla A30 apporte cette performance révolutionnaire à chaque entreprise.


Informatique professionnelle Nvidia Ampere A30 GPU Data Center Solution

NVIDIA A30Solution de centre de données

Architecture GPU NVIDIA Ampère

Mémoire HBM2 de 24 Go

Max.Consommation d'énergie : 165 W

Bus d'interconnexion :
PCIe Gen. 4 : 64 Go/s
3ème NVLink : 200 Go/s

Solution thermique : passive

GPU multi-instance (MIG) :
4 instances GPU de 6 Go chacune
2 instances GPU @ 12 Go chacune
1 instance de processeur graphique de 24 Go

Prise en charge du logiciel GPU virtuel (vGPU)



Informatique professionnelle Nvidia Ampere A30 GPU Data Center Solution

Spécifications techniques de la solution de centre de données NVIDIA A30

Architecture GPU

NVIDIA Ampère

FP64

5,2 téraFLOPS

Noyau tenseur FP64

10,3 téraFLOPS

FP32

10,3 téraFLOPS

Noyau tenseur TF32

82 téraFLOPS |165 téraFLOPS*

Noyau tenseur BFLOAT16

165 téraFLOPS |330 téraFLOPS*

Noyau tenseur FP16

165 téraFLOPS |330 téraFLOPS*

Noyau tenseur INT8

330 HAUTS |661 TOPS*

Noyau tenseur INT4

661 HAUTS |1321 HAUTS*

Moteurs multimédias

1 accélérateur de flux optique (OFA)
1 décodeur JPEG (NVJPEG)
4 décodeurs vidéo (NVDEC)

Mémoire GPU

24 Go HBM2

Bande passante mémoire GPU

933 Go/s

Interconnexion

PCIe Gen4 : 64 Go/s

Puissance de conception thermique maximale (TDP)

165W

Facteur de forme

Double fente, pleine hauteur, pleine longueur (FHFL)

GPU multi-instance (MIG)

4 instances GPU de 6 Go chacune
2 instances GPU @ 12 Go chacune
1 instance de processeur graphique de 24 Go

Prise en charge du logiciel GPU virtuel (vGPU)

NVIDIA AI Enterprise pour VMware
Serveur de calcul virtuel NVIDIA

Inquiry Cart 0