Informatique professionnelle Nvidia Ampere A30 GPU Data Center Solution

Numéro de modèle:NVIDIA A30
Lieu d'origine:CHINE
Quantité minimum d'achat:1 PCS
Modalités de paiement:L/C, D/A, D/P, T/T
Capacité d'approvisionnement:20PCS
Heure de livraison:15-30 jours de mot
Contacter

Add to Cart

Fournisseur Vérifié
Beijing Beijing China
Adresse: D1205, bâtiment de Jinyu Jiahua, 3ème rue de Shangdi, secteur de Haidian, Pékin 100085, P.R.China
dernière connexion fois fournisseur: dans 25 heures
Détails du produit Profil de la société
Détails du produit

Informatique professionnelle Nvidia Ampere A30 GPU Data Center Solution

GPUSolution de centre de donnéesPour le calcul scientifique
NVIDIA A30Solution de centre de données

La solution de centre de données pour l'informatique moderne

L'architecture NVIDIA Ampere fait partie de la plate-forme unifiée NVIDIA EGX™, incorporant des blocs de construction travers le matériel, la mise en réseau, les logiciels, les bibliothèques et les modèles et applications d'IA optimisés du catalogue NVIDIA NGC™.Représentant la plate-forme IA et HPC de bout en bout la plus puissante pour les centres de données, elle permet aux chercheurs de fournir rapidement des résultats concrets et de déployer des solutions en production grande échelle.

Inférence d'apprentissage en profondeur


NVIDIA Tesla A30 exploite des fonctionnalités révolutionnaires pour optimiser les charges de travail d'inférence.Il accélère une gamme complète de précisions, de FP64 TF32 et INT4.Prenant en charge jusqu' quatre MIG par GPU, A30 permet plusieurs réseaux de fonctionner simultanément dans des partitions matérielles sécurisées avec une qualité de service (QoS) garantie.Et la prise en charge de la parcimonie structurelle offre jusqu' 2 fois plus de performances en plus des autres gains de performances d'inférence de l'A30.

Les performances d'IA de pointe de NVIDIA ont été démontrées dans MLPerf Inference.Combiné avec NVIDIA Triton™ Inference Server, qui déploie facilement l'IA grande échelle, NVIDIA Tesla A30 apporte cette performance révolutionnaire chaque entreprise.


NVIDIA A30Solution de centre de données

Architecture GPU NVIDIA Ampère

Mémoire HBM2 de 24 Go

Max.Consommation d'énergie : 165 W

Bus d'interconnexion :
PCIe Gen. 4 : 64 Go/s
3ème NVLink : 200 Go/s

Solution thermique : passive

GPU multi-instance (MIG) :
4 instances GPU de 6 Go chacune
2 instances GPU @ 12 Go chacune
1 instance de processeur graphique de 24 Go

Prise en charge du logiciel GPU virtuel (vGPU)




Spécifications techniques de la solution de centre de données NVIDIA A30

Architecture GPU

NVIDIA Ampère

FP64

5,2 téraFLOPS

Noyau tenseur FP64

10,3 téraFLOPS

FP32

10,3 téraFLOPS

Noyau tenseur TF32

82 téraFLOPS |165 téraFLOPS*

Noyau tenseur BFLOAT16

165 téraFLOPS |330 téraFLOPS*

Noyau tenseur FP16

165 téraFLOPS |330 téraFLOPS*

Noyau tenseur INT8

330 HAUTS |661 TOPS*

Noyau tenseur INT4

661 HAUTS |1321 HAUTS*

Moteurs multimédias

1 accélérateur de flux optique (OFA)
1 décodeur JPEG (NVJPEG)
4 décodeurs vidéo (NVDEC)

Mémoire GPU

24 Go HBM2

Bande passante mémoire GPU

933 Go/s

Interconnexion

PCIe Gen4 : 64 Go/s

Puissance de conception thermique maximale (TDP)

165W

Facteur de forme

Double fente, pleine hauteur, pleine longueur (FHFL)

GPU multi-instance (MIG)

4 instances GPU de 6 Go chacune
2 instances GPU @ 12 Go chacune
1 instance de processeur graphique de 24 Go

Prise en charge du logiciel GPU virtuel (vGPU)

NVIDIA AI Enterprise pour VMware
Serveur de calcul virtuel NVIDIA




China Informatique professionnelle Nvidia Ampere A30 GPU Data Center Solution supplier

Informatique professionnelle Nvidia Ampere A30 GPU Data Center Solution

Inquiry Cart 0