Nvidia sta lavorando a una nuova variante della GPU A100, con 80 GB di memoria HBM2e e un’interfaccia PCIe 4.0. Attualmente, variante PCIe di questo acceleratore Viene fornito solo con 40 GB di memoria video.
A100 PCIe lanciato di recente con memoria HBM2e da 80 GB Sito web del centro dati Nvidia, senza un annuncio ufficiale. nvidia fatto in precedenza Una variante da 80 GB della GPU A100, ma è stata consegnata solo come unità SXM4, montata direttamente sulla scheda madre. La società non aveva precedentemente offerto l’A100 da 80 GB come scheda di interfaccia PCIe.
Nvidia deve ancora annunciare una data di rilascio per la nuova variante PCIe, ma lo dicono fonti anonime Schede video La GPU dovrebbe essere disponibile la prossima settimana. La nuova variante da 80 GB avrà una larghezza di banda di memoria di 2 TB/s, proprio come il modulo SXM4 da 80 GB.
La Nvidia A100 è una GPU per data center basata sull’architettura Ampere, utilizzata anche nelle schede grafiche GeForce RTX 30 dell’azienda. Il chip ha una superficie di 826 mm² ed è composto da 54 miliardi di transistor. L’A100 dispone di 6.912 core CUDA. La struttura di quei nuclei Anche se diverso di core CUDA delle recenti schede grafiche consumer GeForce di Nvidia, il che rende questi numeri di core non paragonabili alle schede grafiche RTX 30 dell’azienda.
Specifiche Nvidia A100 | ||
Modulo | A100 PCIe | A100 SXM4 |
GPU | GA100 | GA100 |
colori koda | 6912 | 6912 |
memoria | 40 GB / 80 GB | 40 GB / 80 GB |
Banda di memoria | 40 GB: 1555 GB/sec 80 GB: 2039 GB/s? |
40 GB: 1555 GB/sec 80 GB: 2039 GB/sec |
quanto sopra. tdp | 40 GB: 250 W 80 GB: nnb |
40 GB: 400 Watt 80 GB: 400 Watt |