Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Si applica a: ✔️ Macchine virtuali Linux ✔️ Macchine virtuali Windows ✔️ Set di scalabilità flessibili ✔️ Set di scalabilità uniformi
Un server serie HBv4 include 2 * CPU EPYC 96 core 9V33X per un totale di 192 core fisici "Zen4" con cache AMD 3D-V. Il multithreading simultaneo (SMT) è disabilitato in HBv4. Questi 192 core sono suddivisi in 24 sezioni (12 per socket), ogni sezione contenente otto core del processore con accesso uniforme a una cache L3 da 96 MB. I server Azure HBv4 eseguono anche le impostazioni del BIOS AMD seguenti:
Nodes per Socket (NPS) = 2
L3 as NUMA = Disabled
NUMA domains within VM OS = 4
C-states = Enabled
Di conseguenza, il server viene avviato con quattro domini NUMA (2 per socket), ciascuno con una dimensione di 48 core. Ogni NUMA ha accesso diretto a sei canali di DRAM fisico.
Per consentire all'hypervisor di Azure di operare senza interferire con la macchina virtuale, vengono riservati 16 core fisici per server.
Topologia della macchina virtuale
Il diagramma seguente illustra la topologia del server. Questi 16 core dell’host hypervisor (giallo) vengono riservati simmetricamente in entrambi i socket della CPU, prendendo i primi due core da specifici Core Complex Dies (CCD) in ogni dominio NUMA, mentre i core rimanenti sono destinati alla macchina virtuale serie HBv4 (verde).
Il limite CCD è diverso da un limite NUMA. In HBv4, un gruppo di sei (6) CCD consecutivi è configurato come dominio NUMA, sia a livello di server host che all'interno di una macchina virtuale guest. Di conseguenza, tutte le dimensioni delle macchine virtuali HBv4 espongono quattro domini NUMA uniformi che appaiono in un sistema operativo e un'applicazione, come illustrato di seguito, ognuno con un numero diverso di core a seconda delle dimensioni specifiche della macchina virtuale HBv4.
Ogni dimensione della macchina virtuale HBv4 è simile per layout fisico, funzionalità e prestazioni a una CPU della serie AMD EPYC 9V33X, come indicato di seguito:
| Dimensioni della macchina virtuale serie HBv4 | Domini NUMA | Core per dominio NUMA | Similarità con AMD EPYC |
|---|---|---|---|
| Standard_HB176rs_v4 | 4 | 44 | EPYC dual socket 9684X |
| Standard_HB176-144rs_v4 | 4 | 36 | EPYC dual socket 9684X |
| Standard_HB176-96rs_v4 | 4 | 24 | EPYC dual socket 9684X |
| Standard_HB176-48rs_v4 | 4 | 12 | EPYC dual socket 9384X |
| Standard_HB176-24rs_v4 | 4 | 6 | Dual-socket EPYC 9184X |
Annotazioni
- Le dimensioni delle macchine virtuali con core vincolati riducono solo il numero di core fisici esposti alla macchina virtuale. Tutti gli asset condivisi globali (RAM, larghezza di banda di memoria, cache, connettività GMI/xGMI, InfiniBand, rete Ethernet Azure, unità SSD locale) rimangono costanti. In questo modo un cliente può scegliere le dimensioni di una macchina virtuale più adatta alle esigenze di gestione dei carichi di lavoro o delle licenze software.
Il mapping NUMA virtuale di ogni dimensione della macchina virtuale HBv4 viene mappato in base alla topologia NUMA fisica sottostante. Non esiste alcuna potenziale astrazione fuorviante della topologia hardware.
La topologia esatta per le varie dimensioni della macchina virtuale HBv4 viene visualizzata come segue usando l'output di lstopo:
lstopo-no-graphics --no-io --no-legend --of txt
Selezionare questa opzione per visualizzare l'output di lstopo per Standard_HB176rs_v4
Selezionare questa opzione per visualizzare l'output di lstopo per Standard_HB176-144rs_v4
Selezionare questa opzione per visualizzare l'output di lstopo per Standard_HB176-96rs_v4
Selezionare questa opzione per visualizzare l'output di lstopo per Standard_HB176-48rs_v4
Selezionare questa opzione per visualizzare l'output di lstopo per Standard_HB176-24rs_v4
Rete InfiniBand
Le macchine virtuali HBv4 dispongono inoltre di adattatori di rete NVIDIA Mellanox NDR InfiniBand (ConnectX-7) che operano fino a 400 Gigabit/sec. La scheda di interfaccia di rete viene passata alla macchina virtuale tramite SRIOV, consentendo al traffico di rete di ignorare l'hypervisor. Di conseguenza, i clienti caricano driver OFED standard di Mellanox nelle macchine virtuali HBv4 come farebbero in un ambiente bare metal.
Le macchine virtuali HBv4 supportano il routing adattivo, il trasporto connesso dinamico (DCT, oltre ai trasporti standard RC e UD) e l'offload basato su hardware dei collettivi MPI al processore di bordo dell'adattatore ConnectX-7. Queste funzionalità migliorano le prestazioni, la scalabilità e la coerenza dell'applicazione e se ne consiglia l'uso.
Archiviazione temporanea
Le macchine virtuali HBv4 presentano tre dispositivi SSD fisicamente locali. Un dispositivo è preformattato per fungere da file di pagina e viene visualizzato all'interno della macchina virtuale come dispositivo generico "SSD".
Altre due unità SSD di dimensioni maggiori vengono fornite come dispositivi NVMe non formattati. Poiché il dispositivo NVMe a blocchi ignora l'hypervisor, ha una maggiore larghezza di banda e IOPS.
Se abbinate in una matrice con striping, le unità SSD NVMe forniscono larghezze di banda fino a 12 GB/s (letture) e 7 GB/s (scritture) e IOPS fino a 186.000 (letture) e 201.000 (scritture).
Specifiche hardware
| Specifiche hardware | Macchine virtuali serie HBv4 |
|---|---|
| Nuclei | 176, 144, 96, 48, o 24 (SMT disabilitato) |
| CPU (unità centrale di elaborazione) | AMD EPYC 9V33X |
| Frequenza CPU (non AVX) | 2,55 GHz (base), 3,7 GHz (boost) |
| Memoria | 768 GB (la RAM per core dipende dalle dimensioni della macchina virtuale) |
| Disco locale | 2 * 1.8 GB NVMe (blocco), SSD da 480 GB (file di pagina) |
| InfiniBand | 400 Gb/s NVIDIA Mellanox ConnectX-7 NDR InfiniBand |
| Rete | Ethernet 100 Gb/s (80 Gb/s effettivi) SmartNIC Azure di Terza Generazione |
Specifiche software
| Specifiche software | Macchine virtuali serie HBv4 |
|---|---|
| Dimensioni massime processo MPI | 52,800 core (300 macchine virtuali in un singolo set di scalabilità di macchine virtuali con singlePlacementGroup=true) |
| Supporto MPI | HPC-X, OpenMPI, MVAPICH2, MPICH |
| Framework aggiuntivi | UCX, libfabric, PGAS |
| Supporto di Archiviazione di Azure | Dischi Standard e Premium (massimo 32 dischi), Azure NetApp Files, File di Azure, Managed Lustre di Azure File System |
| Sistema operativo supportato e convalidato | RHEL 8.6+, AlmaLinux 8.10+, Ubuntu 22.04+ LTS, SLES 15 SP7+, Windows Server 2022+ |
| Sistema operativo consigliato per le prestazioni | AlmaLinux HPC 9.7, Ubuntu HPC 24.04, Windows Server 2025 |
| Supporto di Orchestrator | Azure CycleCloud, Azure Batch, servizio Azure Kubernetes |
Passaggi successivi
- Per informazioni sugli annunci più recenti, sugli esempi di carico di lavoro HPC e sui risultati delle prestazioni, vedere i Blog della community tecnica di Calcolo di Azure.
- Per un quadro generale sull'architettura per l'esecuzione di carichi di lavoro HPC, vedere HPC (High Performance Computing) in Azure.