NVIDIA HGX H200 per gestire enormi quantità di dati
NVIDIA HGX H200 per gestire enormi quantità di dati
Si tratta dell’evoluzione della H100 lanciata a marzo 2022
La GPU si basa sempre sull’architettura Hopper, come la H100
ma la banda della memoria incrementa di 1,4 volte
e la quantità di memoria di 1,8 volte.
NVIDIA è passata a una memorie le HBM3e, e al posto degli 80 GB
delle H100 ogni GPU è equipaggiata con ben 141 GB.
Tuttavia, la banda passa dai 3,35 TB/s della H100 a 4,8 inoltre, le nuove schede sono
perfettamente compatibili con i sistemi basati sulle H100, tanto che è possibile realizzare
un server “ibrido” con un po’ delle une e un po’ delle altre.
In altre parole, Per creare intelligenza con applicazioni AI e HPC generative, grandi
quantità di dati devono essere elaborate in modo efficiente ad alta velocità utilizzando
una memoria GPU ampia e veloce
NVIDIA HGX H200 per gestire enormi quantità di dati
In altre parole, Con NVIDIA H200, la piattaforma di supercalcolo AI end-to-end leader del
settore è diventata più veloce nel risolvere alcune delle sfide più importanti del mondo.
Inoltre, Un HGX H200 a otto vie fornisce oltre 32 petaflop di elaborazione di deep learning
FP8 e 1,1 TB di memoria aggregata a larghezza di banda elevata per le massime
prestazioni nelle applicazioni AI e HPC generative.
In conclusione, piattaforma di calcolo accelerato di NVIDIA è supportata da potenti
strumenti software che consentono a sviluppatori e aziende di creare e accelerare
applicazioni pronte per la produzione dall’intelligenza artificiale all’HPC.
Ciò include la suite di software NVIDIA AI Enterprise per carichi di lavoro come parlato
sistemi di raccomandazione e inferenza ad esempio su vasta scala.
Tuttavia, NVIDIA H200 sarà disponibile presso produttori di sistemi globali e fornitori
di servizi cloud a partire dal secondo trimestre del 2024.
- Guarda il discorso speciale di Buck su SC23