Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gilt für: ✔️ Linux VMs ✔️ Windows VMs ✔️ Flexible Skalierungsgruppen ✔️ Einheitliche Skalierungsgruppen
Ein Server der HBv4-Serie verfügt über 2 * EPYC 9V33X-CPUs mit je 96 Kernen für insgesamt 192 physische „Zen4“-Kerne mit AMD 3D-V-Cache. Das simultane Multithreading (SMT) ist bei HBv4 deaktiviert. Diese 192 Kerne sind in 24 Abschnitte unterteilt (12 pro Socket), jeder Abschnitt mit acht Prozessorkernen mit einheitlichem Zugriff auf einen 96 MB L3-Cache. Außerdem gelten für Azure-Server der HBv4-Serie die folgenden AMD-BIOS-Einstellungen:
Nodes per Socket (NPS) = 2
L3 as NUMA = Disabled
NUMA domains within VM OS = 4
C-states = Enabled
Infolgedessen startet der Server mit vier NUMA-Domänen (2 pro Socket), wobei jede Domäne 48 Kerne umfasst. Jede NUMA hat direkten Zugriff auf sechs Kanäle physischer DRAM.
Damit der Azure-Hypervisor über genügend Platz verfügt, um ohne Beeinträchtigung der VM agieren zu können, werden 16 physische Kerne pro Server reserviert.
Topologie des virtuellen Computers
In der folgenden Abbildung wird die Topologie für diesen Server veranschaulicht: Wir reservieren diese 16 Hypervisor-Hostkerne (gelb) symmetrisch über beide CPU-Sockel hinweg. Die ersten beiden Kerne stammen aus bestimmten Core Complex Dies (CCDs) in jeder NUMA-Domäne, während die verbleibenden Kerne für VMs der HBv4-Serie (grün) reserviert werden.
Die CCD-Grenze unterscheidet sich von einer NUMA-Grenze. Auf HBv4 wird eine Gruppe von sechs (6) aufeinander folgenden CCDs als NUMA-Domäne konfiguriert, sowohl auf der Hostserverebene als auch innerhalb einer Gast-VM. Daher machen alle HBv4-VM-Größen vier einheitliche NUMA-Domänen verfügbar, die für ein Betriebssystem und eine Anwendung angezeigt werden, wie unten dargestellt, jeweils mit unterschiedlicher Anzahl von Kernen abhängig von der spezifischen Größe der HBv4-VM.
Die HBv4-VM-Größen ähneln hinsichtlich physischem Layout, Features und Leistung einer anderen CPU aus der AMD EPYC 9V33X-Serie wie folgt:
| VM-Größe der HBv4-Serie | NUMA-Domänen | Kerne pro NUMA-Domäne | Ähnlichkeit mit AMD EPYC |
|---|---|---|---|
| Standard_HB176rs_v4 | 4 | 44 | Dual-Socket EPYC 9684X |
| Standard_HB176-144rs_v4 | 4 | 36 | Dual-Socket EPYC 9684X |
| Standard_HB176-96rs_v4 | 4 | 24 | Dual-Socket EPYC 9684X |
| Standard_HB176-48rs_v4 | 4 | 12 | Dual-Socket EPYC 9384X |
| Standard_HB176-24rs_v4 | 4 | 6 | Dual-Socket EPYC 9184X |
Hinweis
- Bei VM-Größen mit eingeschränkten Kernen wird nur die Anzahl der physischen Kerne verringert, die für den virtuellen Computer verfügbar sind. Alle globalen freigegebenen Ressourcen (RAM, Speicherbandbreite, Caches, GMI/xGMI-Konnektivität, InfiniBand, Azure Ethernet-Netzwerk, lokale SSD) bleiben konstant. Auf diese Weise kann ein Kunde eine VM-Größe auswählen, die am besten auf Workload- oder Softwarelizenzierungsanforderungen zugeschnitten ist.
Die virtuelle NUMA-Zuordnung der einzelnen HBv4-VM-Größen wird der zugrunde liegenden physischen NUMA-Topologie zugeordnet. Es gibt keine potenzielle irreführende Abstraktion der Hardwaretopologie.
Die genaue Topologie für die verschiedenen HBv4-VM-Größen gemäß der Verwendung der Ausgabe von Istopo sieht wie folgt aus:
lstopo-no-graphics --no-io --no-legend --of txt
**
Wählen Sie die Option aus, um die lstopo-Ausgabe für Standard_HB176rs_v4 anzuzeigen.
Wählen Sie diese Option aus, um die lstopo-Ausgabe für Standard_HB176-144rs_v4 anzuzeigen.
Wählen Sie aus, um die lstopo-Ausgabe für Standard_HB176-96rs_v4 anzuzeigen.
Auswählen, um die lstopo-Ausgabe für Standard_HB176-48rs_v4 anzuzeigen.
Wählen Sie aus, um die lstopo-Ausgabe für Standard_HB176-24rs_v4 anzuzeigen.
InfiniBand-Netzwerk
HBv4-VMs verfügen auch über NVIDIA Mellanox NDR InfiniBand-Netzwerkadapter (ConnectX-7) mit bis zu 400 Gigabits/Sek. Die NIC wird über SRIOV an die VM durchgereicht und ermöglicht dem Netzwerkdatenverkehr so, den Hypervisor zu umgehen. Demzufolge laden Kunden auf HBv4-VMs dieselben Mellanox-OFED-Standardtreiber wie in einer Bare-Metal-Umgebung.
HBv4-VMs unterstützen adaptives Routing, DCT (Dynamic Connected Transport, zusätzlich zu RC- und UD-Standardtransporten) und die hardwarebasierte Auslagerung von MPI Collectives (Sammelvorgängen) an den Onboard-Prozessor des ConnectX-7-Adapters. Diese Features verbessern die Anwendungsleistung, Skalierbarkeit und Konsistenz, und ihre Verwendung wird empfohlen.
Temporärer Speicher
HBv4-VMs verfügen über drei physisch lokale SSD-Geräte. Ein Gerät ist vorformatiert, um als Seitendatei zu dienen und in Ihrem virtuellen Computer als generisches "SSD"-Gerät angezeigt zu werden.
Zwei weitere, größere SSDs werden als unformatierte Block-NVMe-Geräte bereitgestellt. Da das NVMe-Blockgerät den Hypervisor umgeht, verfügt es über eine höhere Bandbreite und IOPS.
Bei der Kopplung in einem gestreiften Array bieten die NVMe-SSDs Bandbreiten von bis zu 12 GB/s (Lesevorgänge) und 7 GB/s (Schreibvorgänge) von Bandbreite und IOPS von bis zu 186.000 (Lesevorgänge) und 201.000 (Schreibvorgänge).
Hardwarespezifikationen
| Hardwarespezifikationen | VMs der HBv4-Serie |
|---|---|
| Kerne | 176, 144, 96, 48 oder 24 (SMT deaktiviert) |
| Prozessor | AMD EPYC 9V33X |
| CPU-Frequenz (ohne AVX) | 2,55 GHz (Basis), 3,7 GHz (Boost) |
| Arbeitsspeicher | 768 GB (RAM pro Kern je nach VM-Größe) |
| Lokaler Datenträger | 2 × 1,8 TB NVMe (Block), 480 GB SSD (Auslagerungsdatei) |
| InfiniBand | 400 Gb/s NVIDIA Mellanox ConnectX-7 NDR InfiniBand |
| Netzwerk | 100 Gb/s Ethernet (80 Gb/s verwendbar) Azure-SmartNICs der dritten Generation |
Softwarespezifikationen
| Softwarespezifikationen | VMs der HBv4-Serie |
|---|---|
| Maximale MPI-Auftragsgröße | 52.800 Kerne (300 VMs in einer einzelnen VM-Skalierungsgruppe mit singlePlacementGroup=true) |
| MPI-Unterstützung | HPC-X, OpenMPI, MVAPICH2, MPICH |
| Zusätzliche Frameworks | UCX, libfabric und PGAS |
| Azure Storage-Unterstützung | Standard- und Premium-Datenträger (maximal 32 Datenträger), Azure NetApp Files, Azure Files, Azure Managed Lustre Dateisystem |
| Unterstütztes und überprüftes Betriebssystem | RHEL 8.6+, AlmaLinux 8.10+, Ubuntu 22.04+ LTS, SLES 15 SP7+, Windows Server 2022+ |
| Empfohlenes Betriebssystem für die Leistung | AlmaLinux HPC 9.7, Ubuntu HPC 24.04, Windows Server 2025 |
| Orchestratorunterstützung | Azure CycleCloud, Azure Batch, Azure Kubernetes Service |
Nächste Schritte
- Informieren Sie sich über die neuesten Ankündigungen, HPC-Workloadbeispiele und Leistungsergebnisse in den Tech Community-Blogs zu Azure Compute.
- Eine allgemeinere Übersicht über die Architektur für die Ausführung von HPC-Workloads finden Sie unter High Performance Computing (HPC) in Azure.